_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
49676
من می خواهم یک مدل رگرسیونی برای پیش بینی میزان جرم و جنایت در ایالت ایجاد کنم. دو متغیر در بین 10 (Vi=# جنایات خشونت آمیز به ازای هر 100000 جمعیت، Vi2 = تعداد جرایم خشن به ازای هر 10000 نفر جمعیت) وجود دارد که همبستگی بالایی دارند، زیرا Vi 10 برابر Vi2 است، بنابراین تصمیم گرفتم از همبستگی جزئی استفاده کنم. پس از کنترل Vi2، همبستگی Vi با متغیر وابسته به کمتر از 0.4 کاهش می یابد. آیا O باید Vi2 را از این طریق کنترل کند یا آن را به طور کلی حذف کند؟ آیا باید Vi را حذف کنم؟ همچنین، به طور کلی، اگر _r_ جزئی آنها کمتر از 0.4 باشد (نشان دهنده رابطه ضعیف با متغیر وابسته) یا نیاز به استفاده از روش انتخاب متغیر خودکار برای به دست آوردن مدل نهایی، می توانم آن ها را حذف کنم؟
همبستگی جزئی
63198
من چندین متغیر دارم، برخی از 1 جولای تا 30 ژوئن و بقیه از 1 ژانویه تا 31 دسامبر محاسبه شده اند. حال چگونه می توانم یکی از آنها را به سال مالی یا تقویمی تغییر دهم؟
چگونه داده های سال مالی را به داده های سال تقویم تبدیل کنیم
63195
اجازه دهید $T(y_i,\pmb x_i)$ یک تخمینگر رگرسیون باشد (از اسکالر $y_i$ تا $p$-بردار $\pmb x_i$). وقتی $T$ تخمین‌گر معمول LS و $\nu\in\mathbb{R}^p$ باشد، داریم که: $$T(y_i+\pmb x_i'\pmb\nu,\pmb x_i)=T(y_i ,\pmb x_i)+\pmb\nu$$ این ویژگی معادل رگرسیون نامیده می شود و تقریباً همان نقشی را در زمینه رگرسیون خطی به عنوان ترجمه ایفا می کند. معادل سازی در زمینه برآوردگرهای چند متغیره انجام می شود. من در این فکر بودم که آیا خاصیت مشابهی (برابر با شکلی از ترجمه) برای رگرسیون لجستیک وجود دارد؟
معادل معادل رگرسیون در رگرسیون لجستیک؟
45578
دو روش متداول برای آزمایش ثابت بودن یک سری زمانی، تست‌های KPSS و ADF هستند. اگر درک من درست باشد، این تست‌ها اساساً با اندازه‌گیری باقیمانده‌های برازش سری‌های زمانی به یک مدل خودرگرسیون که خطی است، کار می‌کنند. بنابراین سوال من این است که اگر سری زمانی احتمالاً ماهیت غیرخطی داشته باشد آیا نتایج آزمون های فوق هنوز معتبر هستند؟
آزمایشات ریشه واحد و ایستایی
64169
من M-spline را در R همانطور که در اینجا تعریف شده است پیاده سازی می کنم: http://www.fon.hum.uva.nl/praat/manual/spline.html و در اصل در Ramsay (1988). به طور خلاصه، ما لیستی از گره‌ها $t$ را تعریف می‌کنیم که: $0=t_1=...=t_k<t_{k+1}<...<t_{k+m}<t_{k+m+1 }=...=t_{k+m+k}=1$ بنابراین اولین گره های $k$ 0 و آخرین گره های $k$ 1 با گره های داخلی $m$ هستند. خط Mi از مرتبه k با گره t به صورت بازگشتی به صورت زیر تعریف می شود: $M_i(x|1,t) = 1 / (t_{i+1} – t_i)، t_i ≤ x < t_{i+1},$ 0 در غیر این صورت $M_i(x|k,t) = k [(x–t_i)M_i(x|k–1,t) + (t_{i+k}–x)M_{i+1}(x|k–1,t)] / ((k–1)(t_{i+k}–t_i))$ مشکل اینجاست که اگر من می‌خواهم M-splineهای مرتبه 3 (k=3)، spline $M_1$ و spline $M_{k+m}$ وجود نداشته باشند، زیرا وقتی $M_i(x|k–1,t)$ را محاسبه می‌کند. تقسیم بر $(t_{i+k}–t_i)$ اما از هم اکنون $k=3-1=2$ و $i=1$ (یا $m+k$)، $(t_{i+k}–t_i) $ $(t_{1+2}–t_1)=0$ است زیرا سه گره اول 0 هستند (همان مورد برای گره آخر). بنابراین به نظر می رسد تعریف مشکل دارد. در اینجا پیاده سازی من در R با مثالی از مشکل است. در اینجا k=3 و m=3. ts = c(0,0,0,0.3,0.5,0.6,1,1,1) Mk = تابع(i,k,x,ts){ if(k==1){ if(ts[i]< =x && x<ts[i+1]){1/(ts[i+1]-ts[i])} else{0} } else{ #print(paste(i,k)) #print((ts[i+k]-ts[i])) k*((x-ts[i])*Mk(i,k-1,x,ts)+(ts[i+k]- x)*Mk(i+1،k-1،x،ts))/((k-1)*(ts[i+k]-ts[i])) } } Mk(1،3،.4 ,ts) توجه داشته باشید که کد من و تعریف به نظر می رسد برای تمام خطوط داخلی کار کنید. با تشکر
پیاده سازی M-spline در R
49672
من سعی می کنم چندین مجموعه از داده های آزمایش را با مقایسه میانگین ها مقایسه کنم. من خواندم چندین تست مختلف مانند _Each Pair, Student's t_ و _All Pairs, Tukey HSD_ وجود دارد که دایره های مختلفی را با شعاع های مختلف نشان می دهد، مثالی که در زیر نشان داده شده است![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/QCKE1.gif) دایره ها چگونه تعریف می شوند؟ چگونه شعاع را محاسبه کنم؟ و آیا قانونی وجود دارد که برای چه نوع داده ای باید از چه تستی استفاده کرد؟
مقایسه بسیاری از معنی ها در JMP
62281
احتمال 15 پرتاب آزاد در یک بازی و انجام 10 پرتاب متوالی با توجه به اینکه هر شوت 50 درصد احتمال ورود دارد چقدر است؟ من این مشکل را شبیه سازی کرده ام اما همچنین می خواهم نتایج را با رویکرد تحلیلی تأیید کنم. به نظر می رسد این مشکلی است که با توزیع دوجمله ای مطابقت دارد، اما رویکردی که من اتخاذ کرده ام با شبیه سازی مطابقت ندارد. در اینجا کاری است که من انجام دادم. هنگام گرفتن 15 عکس، فقط 6 راه ممکن وجود دارد که می توانید 10 عکس را ضربدر احتمال 10 از 15 ضرب کنید: \begin{equation} (15 - 10 + 1)*{{15 \choose 10} * 0.5^{10} * (1-0.5)^{5}} = 0.55 \end{معادله} A احتمال 50% بسیار زیاد به نظر می رسد و با شبیه سازی من مطابقت ندارد. شهود من به من می گوید که احتمال باید کسری از \begin(معادله) باشد {{15 \choose 10} * 0.5^{10} * (1-0.5)^{5}} \end{equation} زیرا مجموعه نتایجی که در آن 10 شوت پشت سر هم از 15 شوت زده می شود کمتر از هر 10 شوت از 15 است. کسری از کل نتایج ممکن که 10 نتیجه متمایز در یک ردیف ایجاد می کنند. \begin{equation} (15 - 10 + 1) / 2^{15} \end{equation} اما این نیز با شبیه‌سازی من مطابقت ندارد و به احتمالاتی غیر از 1/2 ترجمه نمی‌شود. پیشاپیش برای هر کمکی متشکرم!
احتمال 15 پرتاب آزاد در یک بازی و زدن 10 پرتاب متوالی چقدر است؟
57100
من سعی می کنم روشی برای به روز رسانی یک زمان به توزیع رویداد با توجه به گذشت زمان بدون وقوع رویداد پیدا کنم. به عنوان مثال، اگر من منتظر اتوبوس هستم و زمان رسیدن را می توان با توزیع نمایی با نرخ 1/8 مدل کرد، پس از 2 دقیقه انتظار بدون ورود اتوبوس چگونه توزیع را به روز کنم؟ من می دانم که دو دقیقه اول اکنون دارای چگالی احتمال 0 هستند، اما بقیه توزیع چگونه اصلاح می شود؟
به روز رسانی توزیع زمان تا رویداد با توجه به مقدار زمان سپری شده بدون وقوع رویداد
19845
در آمار احتمالات، ویژگی‌های آزمون مجذور کای پیرسون به این صورت است که: \begin{aligned} \chi^2 = \sum_{i=1}^{r} \sum_{j=1}^{c} { (O_{i,j} - E_{i,j})^2 \روی E_{i,j}} \end{aligned} جایی که $\chi^2$ ما است آمار آزمون تجمعی (پیرسون)، $O_{i,j}$ یک بسامد مشاهده شده در یک جدول احتمالی معین است، $E_{i,j}$ فرکانس مورد انتظار (نظری) برای همان، و $r$ و $c$ به ترتیب تعداد سطرها و ستون های جدول است. با فرض اینکه این درست باشد، یک _آزمون کای دو پیرسون برای استقلال_ بیان می کند: \begin{aligned} E_{i,j}=\frac{\sum_{k=1}^c O_{i,k}\ \sum_{k =1}^r O_{k,j}}{N} \end{aligned} ... که یک روش ریاضی مختصر برای گفتن آن است، برای همه مشاهدات در $O_{i,j}$، انتظار داریم فرکانس حاصل از مقادیر سطر و ستون. من در حال حاضر به دنبال تعمیم این آزمون برای متغیرهای پیوسته قابل تخمین توسط PDF هستم. با عبارت متفاوت: با توجه به توزیع احتمال مشترک یک تابع متقاطع، می‌خواهم بتوانم یک آزمون کای دو برای استقلال انجام دهم. شهود من بیان می‌کند که، برای حالت پیوسته، اولین فرمول را می‌توان به صورت زیر تعمیم داد: \begin{aligned} \chi^2 = \int_I \int_J {(\hat{O_{i,j}} - \hat{E_{ i,j}})^2 \over \hat{E_{i,j}}}\ di\ dj \end{aligned} جایی که $\chi^2$ آمار آزمایش تجمعی ما باقی می ماند، $\hat{O_{i,j}}$ یک فرکانس مشاهده شده از توزیع احتمال مشترک است، با توجه به $i \in I$ و $j \in J$، $\hat{E_{i,j}}$ باقی می‌ماند. فرکانس مورد انتظار، و $r$ و $c$ به طور خلاصه ناپدید می شوند. سپس $\hat{E_{i,j}}$ را برای یک تابع قابل مقایسه تعریف می‌کنیم که چیزی شبیه به این است: \begin{aligned} \hat{E_{i,j}}=\frac{\int_c \hat{O_{ i,c}}\ dc\ \int_r \hat{O_{r,j}}\ dr}{2} \end{aligned} ... که $r$ و $c$ پارتیشن‌های انتخاب شده در طول ادغام توسط، برای مثال، یک ربع تطبیقی. همچنین توجه داشته باشید که این رابطه برای مرزهای بی نهایت از بین می رود، زیرا $r$ یا $c$ به بی نهایت نزدیک می شود (یا برعکس، زیرا ارزش هر ارزیابی $\hat{E_{i,j}}$ به صفر نزدیک می شود). این فقط به این معنا است که این محاسبات توسط ابزارهایی مانند SciPy عملی می‌شوند و من جزئیات زیادی را کنار می‌گذارم تا خواننده را خسته یا گیج نکنم. اما، من کنجکاو هستم: آیا روش، همانطور که به اختصار ارائه شد، صحیح است؟ من نمی توانم هیچ راهنمایی مغایر با آن پیدا کنم. هدف از چنین چیزی این است که اصطلاحات را به صورت پی دی اف های پیوسته که توسط هسته گاوسی هموار می شوند، برای داده های ترتیبی و اسمی سازمان دهی نشده امکان پذیر کند. پیشاپیش از شما متشکرم.
آیا ویژگی‌های آزمون کای‌دو پیرسون برای استقلال برای فایل‌های PDF پیوسته صادق است؟
64167
اگر $S$ فضای نمونه برخی از متغیرهای تصادفی گسسته $X$ باشد، معمولاً چه چیزی به عنوان ابر مجموعه آن داده می شود؟ $S \subset \mathbb{R}$ یا $S \in \mathbb{Q}$؟ X$هایی که من دارم، داده های زیست پزشکی دیجیتالی هستند. **ویرایش** من در حال نوشتن مقدمه ای برای تجزیه و تحلیل داده های زیست پزشکی هستم. به عنوان بخشی از آن، من باید مقدمه ای برای آمار ارائه کنم. دلیل اینکه اومدم این سوال رو بپرسم اینه که خودم آمار رو خیلی بلد نیستم. به هر حال، به من محول شد که این را بنویسم، بنابراین سعی می کنم آن را به روش درست انجام دهم، و خودم هم چیزی یاد بگیرم. بنابراین، همانطور که نوشتم، وضعیت این است که من برخی از داده های زیست پزشکی دیجیتالی دارم. مقداری سیگنال پیوسته وجود داشت که نمونه برداری شد (بنابراین از نظر زمان گسسته است) و سپس کوانتیزه شد (پس از آن سیگنال ممکن است فقط مقادیر گسسته خاصی داشته باشد). فضای نمونه من مجموعه مقادیری است که سیگنال ممکن است بگیرد. معمولاً یک نمونه با 16 بیت ارائه می شود، بنابراین 65536 مقدار ممکن وجود دارد. با این حال، مقادیر نمونه به صورت اعداد صحیح ارائه نمی شوند، بلکه مقادیر اعشاری مانند 0.101 یا 0.521 ارائه می شوند. سردرگمی از آنجا ناشی می شود که در اصل نقشه برداری یک به یک همانطور که شما نوشته اید وجود دارد اما به وضوح 0.101 یک عدد صحیح نیست. من پیشینه ریاضی / آماری خیلی قوی ندارم، بنابراین هنوز اصول اولیه را یاد می‌گیرم (برای داده‌هایی که دارم، من فقط «کاربر نهایی» هستم).
نحوه تعریف فضای نمونه برای متغیر تصادفی گسسته
86371
من چند مورد را دیده ام که یک یادگیرنده ضعیف به صورت تکراری با مجموعه داده های مختلف استفاده شده است. برای مثال، فرض کنید می‌خواهید طبقه‌بندی {1، -1} را بر اساس 3 ویژگی و یادگیرنده ضعیف بیز ساده‌لوح (روز قبل آفتابی، چندک دمای تاریخی روز قبل، آیا روز قبل باران می‌بارید را یاد بگیرید تا توضیح دهید که آیا بعد از آن روز آفتابی است). در مقالات تحقیقاتی، ویژگی ها اغلب در یک و تنها یادگیرنده ضعیف ترکیب می شوند و وزن ها در هر تکرار اصلاح می شوند. آنچه من به دنبال آن هستم مستنداتی است که در آن: \- در اولین تکرار شما 3 یادگیرنده ضعیف بیز ساده را آموزش می دهید (یکی برای هر ویژگی) سپس یادگیرنده ضعیف را انتخاب می کنید که خطا را به حداقل می رساند، این بار ممکن است ویژگی را انتخاب کنید (دیروز آفتابی بود). برای توضیح روز بعد آفتابی) \- در تکرار دوم شما یادگیرنده ضعیف را انتخاب می کنید که با وزن های جدید خطا را به حداقل می رساند (مقدار دمای تاریخی برای توضیح روز آفتابی روز بعد) \- و غیره من شروع به تعجب کردم اگر این راه برای ادامه درست است، زیرا من در تلاش برای یافتن هر سندی هستم. Thx
Adaboost: یادگیری ضعیف در مجموعه داده های مختلف برای هر تکرار
69487
من یک آمارگیر هستم که با یک مشکل عجیب روبرو می شوم، و به نظر می رسد در اینجا یک نکته کلیدی را از دست داده ام. من یک مدل واقعی (تولید شده توسط من تا حقیقت را بدانم) و یک مدل پیش بینی شده دارم که پارامترهای خاصی از مدل واقعی را تخمین می زند، و می خواهم اعتبار / دقت مدل پیش بینی شده را آزمایش کنم. من همان تمرین را با 2 اندازه نمونه -> 200 و 50 انجام می دهم. اگر از آزمون نسبت درستنمایی برای آزمایش خوب بودن مدل پیش بینی شده خود با استفاده از n=200 استفاده کنم، احتمال بسیار کمتری نسبت به زمانی که از n=50 استفاده می کنم، دریافت می کنم. بنابراین در این ساختار آزمایش، نشان می دهد که مدل 200=n (همانند مدل 50=n اما برای حجم نمونه) دقت کمتری دارد. نسبت به مدل n=50، صرفاً به دلیل احتمالاتی که تحت تأثیر اندازه نمونه قرار دارند. چه چیزی را از دست داده ام؟ احساس بسیار احمقانه - پیشاپیش متشکرم.
آزمون نسبت درستنمایی - مسئله حجم نمونه
64168
$C_{MAP}$: به احتمال زیاد کلاس (به عنوان مثال، حداکثر پیشین) $C_{NB}$: ساده لوح بیز `x`: سند `d` به عنوان $x_n$ ویژگی ها یا کلمات $c_j$ نشان داده می شود: I فکر کنید این یک کلاس «j» است منبع اینجا در صفحه 27 است: http://www.stanford.edu/class/cs124/lec/naivebayes.pdf * * * به هر حال، $$ \begin{تراز شده} C_{MAP} &= \mathop{\text{argmax}}_{c\in C} P(c|d) \\\&= \mathop{\text{argmax} }_{c \in C} \frac{P(d|c)P(c)}{P(d)} \qquad \text{(قانون بیز)} \\\&= \mathop{\text{argmax}}_{c\in C} P(d|c)P(c) \end{aligned}$$ اولاً، من فکر کردم قانون بیز فقط $\frac{P(d|c) است )}{P(d)}$، که فقط احتمال شرطی تعداد وقوع {c & d}/d است، پس چرا $P(c)$ در $P(d|c)$ ضرب می‌شود؟ و چرا $c|d$ به $d|c$ تبدیل شده است؟ همچنین، برای طبقه‌بندی‌کننده چندجمله‌ای ساده، ما داریم: $$C_{NB} = \mathop{\text{argmax}}_{c \in C} P(c_j)\prod P(x | c). $$ من مطمئن نیستم که چگونه آن معادله را بخوانم... آیا می گوید Classifiers برای N = حداکثر احتمال کلاس j * PI از x در X * احتمال (x داده شده c)؟ اگر کسی بتونه کمک کنه تا این نماد رو از بین ببره خیلی خوبه. با تشکر
مشکل در خواندن نماد بیز ساده چند جمله ای
45570
یک متغیر عاملی به نام درمان در مجموعه داده های من وجود دارد. این عامل از دو سطح C و H تشکیل شده است. من می خواهم آزمایش کنم که آیا تفاوت معنی داری بین دو سطح وجود دارد یا خیر. من می توانم این مدل را از طریق `lme()` متناسب کنم. من نمی توانم درمان را به عنوان یک متغیر در مدل خود لحاظ کنم. استادم این پیشنهاد را به من داد: ابتدا پارامترهای بهینه را برای هر گروه درمانی (C و H) پیدا کنید و همچنین پارامترهای بهینه را برای مجموعه داده مشترک (با ترکیب C و H) بیابید. سپس می توانید از یک تست احتمال استفاده کنید. AIC نشان می دهد که برازش C یا H با استفاده از پارامترهای مشترک تخمین زده شده، نتیجه قابل توجهی بدتری نسبت به استفاده از پارامترهای بهینه شده برای گروه فردی خواهد داشت. جمله آخر رو نمیتونم بفهمم آیا لازم است که من AIC را برای C یا H از طریق مدلی که برای مجموعه داده های مشترک نصب شده است محاسبه کنم؟ اگر بله، چگونه این کار را انجام دهم؟ تابع «AIC()» فقط می تواند AIC را برای مجموعه داده های مورد استفاده برای تناسب مدل ارائه دهد. من $AIC = n \cdot \ln(\frac{RSS}{n})+2K$ و $AIC = n + n \cdot \log(2\pi) + n \cdot \log(\frac{RSS) را امتحان کردم }{n}) + 2k$، اما هیچ کدام از اینها مقدار «AIC(lme())» را به من نمی دهد. اگر نه، چگونه باید این را بفهمم؟
آیا محاسبه AIC زیرمجموعه ای از مجموعه داده ای که برای برازش مدل استفاده شده است معقول است؟
63194
اگر منظور او را درست متوجه شده باشم، در پاسخ به سوال قبلی @StéphaneLaurent این نکته را برجسته کرده است که مقدار واریانس جمعیت توضیح داده شده از یک رگرسیون خطی (یعنی $\rho^2$) بستگی به این دارد که آیا شما پیش بینی کننده ها را ثابت می بینید یا خیر. تصادفی از آنچه من می توانم بگویم، ادبیات به این تمایز با نام های مختلفی از جمله امتیاز ثابت در مقابل رگرسیون نمره تصادفی (به عنوان مثال، اسمیتسون، 2001) یا گاهی اوقات به عنوان فرض ثابت-x اشاره می کند (به عنوان مثال، آلدریچ، 2000). بنابراین، در یک رگرسیون نمره ثابت یک $\rho^2$ وجود دارد که ممکن است آن را $\rho^2_f$ نشان دهیم. در یک رگرسیون امتیاز تصادفی، داده‌های پیش‌بینی کننده $n \times p$ $X$، که در آن $n$ اندازه نمونه و $p$ تعداد پیش‌بینی‌کننده‌ها است، فرض می‌شود که از یک توزیع $p$-بعدی گرفته می‌شود. بنابراین، در رگرسیون امتیاز تصادفی، $\rho^2$ داده شده $n$ و مقادیر پیش بینی نمونه وجود دارد، که می توانیم $\rho^2_i$ را نشان دهیم. در نهایت، واریانسی وجود دارد که توضیح داده شده است که تعداد نامحدودی از داده‌ها هم از متغیرهای پیش‌بینی‌کننده و هم از متغیر نتیجه نمونه‌برداری شده‌اند، که من آن را $\rho^2_a$ نشان می‌دهم. من فرض می‌کنم که با افزایش حجم نمونه در یک رگرسیون نمره تصادفی، مقادیر پیش‌بینی‌کننده نمونه با توزیع پیش‌بینی‌کننده زیربنای نزدیک‌تر مطابقت خواهند داشت. به این ترتیب واریانس $\rho^2_i$ در نمونه های مختلف باید کوچکتر شود. احتمالاً همچنین، ممکن است نقطه ای وجود داشته باشد که واریانس $\rho^2_i$ به اندازه کافی کوچک شود که برای اهداف عملی، تمایز بین رگرسیون نمره ثابت و رگرسیون امتیاز تصادفی بی اهمیت شود. من همچنین فرض می‌کنم که بازه‌های اطمینان در حدود $\rho^2_a$ گسترده‌تر از بازه‌های حدود $\rho^2_f$ خواهد بود، زیرا در مدل‌های امتیاز تصادفی، یک منبع تغییرپذیری اضافی وجود دارد. بنابراین، من کنجکاو هستم که چگونه محققان علاقه مند به رگرسیون امتیاز تصادفی این منبع اضافی تنوع را تخمین می زنند. من همچنین علاقه مندم که قبل از اینکه تمایز دیگر از نظر عملی مهم نباشد، چه اندازه نمونه مورد نیاز است. ### سوالات * اندازه نمونه چگونه با اهمیت تمایز بین نمره ثابت و رگرسیون نمره تصادفی مرتبط است؟ * آیا اندازه نمونه ای وجود دارد که در آن واریانس در تخمین $\rho^2$ در نمره ثابت و رگرسیون امتیاز تصادفی حداقل تفاوت داشته باشد؟ * آیا روشی برای تخمین منبع واریانس اضافی مربوط به رگرسیون امتیاز تصادفی در تخمین $\rho^2$ وجود دارد؟ * آیا تحقیقی در این زمینه منتشر شده است؟ ### مراجع * Aldrich, J. (2000). ریشه های رگرسیون X ثابت. PDF * Smithson, M. (2001). فواصل اطمینان صحیح برای اندازه‌ها و پارامترهای اثر رگرسیون مختلف: اهمیت توزیع‌های غیرمرکزی در فواصل محاسباتی. سنجش تربیتی و روانی، 61(4)، 605-632.
تخمین‌های رگرسیون نمره ثابت و تصادفی برای جمعیت r-square چقدر متفاوت است؟
90552
**زمینه** من از مدل های خطی تعمیم یافته برای تجزیه و تحلیل برخی از داده های اکولوژیکی استفاده می کنم که به رابطه بین تراکم جمعیت لارو پروانه و شیوع (٪) مرگ و میر ویروسی در سال قبل (یعنی آزمایش برای مرگ و میر وابسته به تراکم تاخیری می پردازد. ). داده ها از تعدادی از سایت های مختلف، نمونه برداری در طول سال است. **مشکل** داده ها گاهی بسیار پراکنده هستند، و بنابراین در برخی از سایت ها در برخی سال ها تراکم افراد بسیار کم یا 0 است. بنابراین، برای این موارد، درصد مرگ و میر ناشی از بیماری یا ضعیف تخمین زده می شود (مثلاً با 2 فرد می توانید فقط 0، 50 یا 100 درصد مرگ و میر ناشی از بیماری را دارند، یا اگر 0 نفر وجود داشته باشد نمی توان تخمین زد. **سوالات** 1) هنگامی که تخمین درصد مرگ و میر بیماری بر اساس حجم نمونه بسیار کوچک است، اگرچه برآوردها همه چیزهایی هستند که برای کار با آنها در دسترس است، آیا تکنیک های آماری مفیدی برای کمک به کشف چگونگی تغییر در این مقادیر متغیر توضیحی وجود دارد. دقت ضعیف ممکن است بر نتایج مدل تأثیر بگذارد؟ به عنوان مثال من اخیراً برخی از روش‌های بیزی را یاد می‌گیرم، و می‌دانم که ممکن است برخی از روش‌های شبیه‌سازی وجود داشته باشد که ممکن است کمک کند، اگرچه تا کنون تنها در زمینه داده‌های متغیر وابسته از دست رفته با آنها مواجه شده‌ام. من همچنین از وجود تجزیه و تحلیل های حساسیت و غیره بسیار ضعیف آگاه هستم. هر گونه اشاره ای مبنی بر اینکه کدام روش ممکن است مفید باشد بسیار قدردانی خواهد شد. 2) وقتی حجم نمونه 0 است، آیا استفاده از 0% به عنوان تخمین مرگ و میر بیماری معتبر است؟ بدیهی است که از نظر آماری، اگر داده‌ای وجود نداشته باشد، نمی‌توانید چیزی را تخمین بزنید، اما آیا می‌توان استدلال کرد که از آنجایی که تخمین معیاری برای شیوع بیماری است، اگر فردی در اطراف وجود نداشته باشد، نمی‌تواند بیماری وجود داشته باشد، و بنابراین 0٪ یک مقدار است. ارزش معتبر؟ یعنی از نقطه نظر بیولوژیکی آیا می توان استدلال کرد که برآورد تلاش می کند تا میزان بیماری در سال قبل را اندازه گیری کند، و اگر فردی وجود نداشته باشد، بنا به تعریف هیچ بیماری وجود ندارد، و 0٪ معتبر است؟ مشابه سوال 2، اگر هر گونه تکنیک آماری ممکن است به مقابله با این داده های از دست رفته کمک کند، لطفاً من را در جهت درست راهنمایی کنید. برای هر کمکی از شما بسیار متشکرم.
پرداختن به مقادیر ضعیف تخمینی/فقدان متغیر توضیحی در GLMها
41855
اول از همه، من می خواهم واضح بگویم که من با هوش مصنوعی تازه کار هستم، اگرچه کمی در مورد طبقه بندی یاد گرفته ام. فرض کنید من یک مجموعه سلسله مراتبی از کلمات دارم: حیوان -> 4 پا -> سیاه -> سگ حیوان -> 4 پا -> سفید -> گربه حیوان -> 8 پا-> سیاه -> عنکبوت و غیره... بهترین الگوریتمی است که می توانم برای دسته بندی حیواناتی که در متن آزاد به این شکل ظاهر می شوند استفاده کنم: من دو **سیاه** **حیوان** با **4 دارم. legs** من می‌خواهم موارد زیر را استخراج کنم: «سگ» آیا یک SVM است حتی اگر سلسله مراتبی باشد؟
بهترین راه برای طبقه بندی داده های سلسله مراتبی
53130
من در کاهش داده ها مشکلاتی دارم و یکی از متخصصان به من توصیه کرد که نقاط پرت را حذف کنم و سپس به تحلیل عاملی بروم. من می‌خواهم نقاط پرت را با هم حذف کنم، زیرا 61 مورد دارم، و نمودارهای جعبه مفید نیستند زیرا موارد پرت را مورد به مورد نشان می‌دهند. چگونه می توانم نقاط پرت را در یک زمان تشخیص دهم؟
حذف نقاط پرت چند بعدی؟
96866
با توجه به توزیع شناخته شده ای که بر روی مجموعه محدودی از عناصر $n$ با احتمالات $p_1,…,p_n$ و دسترسی به توزیع ناشناخته $q$ پشتیبانی می شود، مشخص می شود که تعداد نمونه از $q$ لازم است و چقدر است و برای تخمین فاصله کل تغییرات $||p−q||_{TV}$ تا یک خطای $\epsilon$ با احتمال ثابت کافی است؟
تخمین فاصله تغییرات کل از یک توزیع معین
63621
من در حال انجام تحقیقی هستم که به موجب آن چند متغیر مستقل (همه آنها ساختگی هستند)، تعدیل کننده (یکی ساختگی، دیگری پیوسته) و یک متغیر وابسته پیوسته دارم. به من گفته شد که از رگرسیون حداقل مربعات معمولی (OLS) استفاده کنم، اما تفاوت بین رگرسیون OLS و تحلیل رگرسیون خطی سلسله مراتبی چیست؟
تفاوت بین رگرسیون خطی سلسله مراتبی و رگرسیون حداقل مربعات معمولی (OLS) چیست؟
81229
من فارغ التحصیل رشته اقتصاد هستم و در حال تصمیم گیری در مورد اینکه آیا تحلیل واقعی انجام دهم یا نه. برنامه من در نهایت دریافت مدرک کارشناسی ارشد در تجزیه و تحلیل داده ها است، مشابه این برنامه:http://analytics.ncsu.edu/?page_id=1799. با توجه به بار دوره ام، ممکن است بتوانم آن را مناسب کنم، اما ممکن است نه. این آخرین باری است که می توانم آن را بگیرم. در توضیحات دوره آمده است: تداوم، همگرایی دنباله ها و سری ها، تمایز پذیری و یکپارچگی را مطالعه می کند. مفاهیم توپولوژیکی مناسب را معرفی می کند. این کلاس چقدر برای ادامه تحصیل در مقطع کارشناسی ارشد در تجزیه و تحلیل داده ها مفید خواهد بود؟
تجزیه و تحلیل واقعی چقدر برای داده کاوی مهم است؟
49670
من مجموعه ای از داده ها را دارم که در آن متغیر پاسخ پیوسته است و سایر متغیرهای مستقل دوگانه هستند (به طور طبیعی وجود ندارند). فکر می کنم باید همبستگی Biserial را انجام دهم (من از تفاوت بین همبستگی دو سریال و دو سریال آگاه هستم). چگونه می توانم این کار را در SPSS یا هر نرم افزار آماری دیگری انجام دهم؟
انجام یک همبستگی دو سریال در SPSS v21
58109
ما در حین آموزش یک طبقه‌بندی کننده در مجموعه داده‌های نامتعادل با مشکل مواجه شده‌ایم. پاسخ باینری است و 0 نشان دهنده «غیر پیش فرض» و 1 نشان دهنده «پیش‌فرض» است (این یک کار امتیازدهی اعتباری است). افراد پیش‌فرض تنها 0.47 درصد (233 مشاهده از 47 هزار نفر) را تشکیل می‌دهند. ما از الگوریتم SMOTE برای نمونه برداری از کلاس اقلیت و در نتیجه متعادل کردن مجموعه داده ها استفاده کردیم. این یک روش شناخته شده است که در برنامه های امتیازدهی اعتباری یا در هر موقعیت طبقه بندی دیگری که در آن توزیع در پاسخ منحرف است، بسیار تشویق می شود. ما حجم‌های مختلف نمونه‌برداری بیش‌ازحد SMOTE را آزمایش کردیم، اما در نهایت با مجموعه‌ای از داده‌ها که در آن نسبت پیش‌فرض‌ها حدود 40 درصد است، حل و فصل کردیم که به این معنی است که الگوریتم SMOTE حدود 26567 مشاهدات مصنوعی ایجاد کرده است. این مجموعه اکنون پیش‌فرض‌های واقعی، غیرقابل پیش‌فرض‌ها و مشاهدات مصنوعی ایجاد شده را در خود نگه می‌دارد که البته همه به عنوان پیش‌فرض برچسب‌گذاری شده‌اند. پس از پارتیشن بندی داده ها، انواع مختلف طبقه بندی کننده ها را آموزش داده ایم و نتایج آنها را با استفاده از روش Holdout (EG با استفاده از یک مجموعه تست) مقایسه کرده ایم. موفق‌ترین طبقه‌بندی‌کننده، یک شبکه عصبی با یک لایه پنهان (با داشتن 30 نورون)، ساختار پیش‌خور، وزن «بهینه‌ساز» مورد استفاده، انتشار برگشتی بود و تابع فعال‌سازی روی هیپربولیک تنظیم شد. ما همچنین از یک انسامبلر استفاده کردیم زیرا متوجه شدیم که تقویت (10 حلقه) دقت پیش‌بینی را افزایش می‌دهد. این مدل به طور کلی نتایج بسیار خوبی تولید می کند. به عنوان مثال، نرخ مثبت واقعی حدود 93٪ است و نرخ منفی واقعی حتی بالاتر است. مساحت زیر منحنی ROC طبقه‌بندی‌کننده به خوبی بیش از 0.9 است. ما پس از ایجاد چنین مدل über مانند خروس‌های جلال‌دار در حال چرخیدن بودیم - تا اینکه تصمیم گرفتیم 233 پیش‌فرض واقعی را برچسب‌گذاری کنیم و نحوه طبقه‌بندی آنها را پیگیری کنیم. در تاسف ما این مدل تنها حدود 60 درصد آنها را در کلاس پیش فرض طبقه بندی کرد. حدس ما این است که الگوریتم SMOTE ممکن است کمی دیوانه شده باشد و در هنگام ایجاد پیش‌فرض‌های مصنوعی، کمی بیش از حد در گروه غیرپیش‌فرض همپوشانی داشته باشد. آیا راهی برای جلوگیری از این اتفاق وجود دارد؟ آیا کم‌نمونه‌گیری از اکثریت کلاس‌های غیر پیش‌فرض و ترکیب آن با نمونه‌برداری بیش‌ازحد SMOTE مثلاً 20 درصد، رویکرد خوبی است؟ چرا و چرا نه؟ ما با چیزی به نام پیوندهای Tomek مواجه شدیم که به نظر می رسد اثرات مخاطره آمیز SMOTEing را کمی معکوس کند. ما از هر نوع کمکی در مورد این موضوع بسیار سپاسگزاریم.
مشکل با طبقه بندی کننده پس از استفاده از SMOTE برای تعادل داده ها
41851
من به تازگی با این تحلیل عالی روبرو شدم که هم از نظر بصری جالب و هم زیبا است: http://www.nytimes.com/interactive/2012/11/02/us/politics/paths-to-the-white-house.html من هستم کنجکاو است که چگونه می توان چنین درخت مسیر را با استفاده از R ساخت. برای ساختن چنین درخت مسیری به چه داده ها و الگوریتمی نیاز است؟ با تشکر
چگونه می توان مسیرهای کاخ سفید را با استفاده از R محاسبه کرد؟
41856
من در اکسل تازه کار هستم و می خواستم بدانم آیا می توان مایکروسافت اکسل را برای تفسیر مجموعه داده های زیر ساخت: 2 18(o) 60(o) 5572(r) 4612(r) 6481(r) 7930 3 17(o) 59 (o) 4422 (r) 3435 (r) 4792 (r) 6716 4 16(o) 58(o) 2820(r) 1904(r) 3679(r) 5562 5 15(o) 57(o) 1706(r) 790(r) 2622(r) 3879 6 14(o) 56( o) 634 (r) 272 (r) 1718(r) 2722 به صورت زیر (همه کاراکترها به جز ارقام باید حذف شوند): 2 18 60 5572 4612 6481 7930 3 17 59 4422 3435 4792 6716 4 16 513 7930 2851 57 1706 790 2622 3879 6 14 56 634 272 1718 2722 برای ترسیم نمودار بیشتر از این داده ها.
استخراج اعداد از آیتم های جدول اکسل برای تجسم نمودار
45572
من از یک مدل DCC Garch برای تخمین حرکت مشترک بین 2 شاخص با استفاده از دستور زیر در Stata استفاده کرده ام: mgarch dcc (XY =، غیر ثابت)، arch(1) garch(1) محدودیت ها(1 2) پیش بینی H*، واریانس پس از پیش‌بینی واریانس، ستونی با واریانس در واحد زمان دریافت می‌کنم. سوال من این است که چگونه می توان واریانس ها را به همبستگی در واحد زمان تبدیل کرد؟
تخمین همبستگی با DCC GARCH
53131
آیا با جمله زیر موافقید؟ چرا یا چرا نه؟ من با این بیانیه مخالفم اما هیچ دلیلی برای پشتیبان گیری ندارم. کسی می تواند کمک کند؟
آمار باید احتمال خطای نوع یک را تا حد امکان پایین تنظیم کند
45574
من حدود 500 متغیر برای هر بیمار دارم، هر متغیر یک مقدار پیوسته دارد و در سه نقطه زمانی مختلف (پس از 2 ماه و بعد از 1 سال) اندازه گیری می شود. با رگرسیون می خواهم نتیجه درمان را برای بیماران جدید پیش بینی کنم. آیا می توان از رگرسیون SVM با چنین داده های طولی استفاده کرد؟
رگرسیون SVM با داده های طولی
62579
من یک سری زمانی با چرخه های فصلی متعدد دارم که برای پرونده من 24 و 168 ساعت است. من می خواهم از روش هموارسازی نمایی دوگانه فصلی برای پیش بینی استفاده کنم که توسط جیمز دبلیو تیلور (http://users.ox.ac.uk/~mast0315/) منتشر شده است. پیوند مقاله او اینجاست وقتی مقاله تیلور و سایر مقالات موجود در ادبیات را بررسی می‌کنم، دیدم که تنظیم AR(1) برای باقیمانده‌ها اعمال شده است. آیا انجام تصحیح AR(1) برای باقیمانده های تمام سری های زمانی، که در این مقالات استفاده شده است، تصادفی است؟ من از بسته پیش بینی در R توسط راب هیندمن استفاده می کنم، http://cran.r-project.org/web/packages/forecast/forecast.pdf اولا، من کد را بدون استفاده از مدل AR(1) برای خطاها داده <- scan(data.dat, skip=1) datatimeseries <- ts(data) library(forecast) dataforecasts <- dshw(datatimeseries, 24, 168, armethod=FALSE) res=dataforecasts$residuals acf(res) pacf(res) در زیر، می توانید نمودارهای ACF و PACF را مشاهده کنید باقی مانده ها ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wBFot.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ofHtY.png) همانطور که شما می توانید ببینید که برخی از خودهمبستگی های جدی غیر صفر وجود دارد. من نمی توانم تصحیح AR(1) را همانطور که مقالات پیشنهاد می کنند انجام دهم زیرا PACF آن را نشان نمی دهد. نمی دانم چه کار کنم. متاسفم اگر سوال احمقانه ای است، اما من خیلی تازه وارد سریال های زمانی هستم. لطفاً توضیح دهید که گام به گام و به طور مفصل چه کاری را باید انجام دهید؟ پیشاپیش ممنون
باقیمانده ها در هموارسازی نمایی دوگانه فصلی
54486
من با مشکل ارزیابی کیفیت خوشه ها مواجه هستم. در مورد من، من داده ها را پس از تعیین کلاس های داده رسم کرده ام. برای هر کلاس (1، 2، 3) دو ابر وجود دارد که به طور جداگانه در **دو ** ناحیه متمایز نمودار ظاهر می شوند: ![http://i.stack.imgur.com/c84zx.png](http: //i.stack.imgur.com/JYbaa.png) من می خواهم کیفیت خوشه ها را با بررسی نزدیکی نقاط درون / بین خوشه ها ارزیابی کنم. در ابتدا فکر می‌کردم که به‌طور تصادفی کلاس‌هایی را به هر نقطه داده اختصاص می‌دهم (روند را چندین بار انجام می‌دهم) تا نشان دهم که نقاط درون کلاس بسیار نزدیک‌تر از آن چیزی است که اتفاقی رخ دهد. با این حال، از آنجایی که طرح به 2 ابر با اشکال کاملاً متفاوت تقسیم می شود، کار را بسیار دشوارتر می کند. چگونه باید این کار را انجام دهم؟
ارزیابی کیفیت خوشه ها
90554
آیا یک رگرسیون Dual Ridge می‌تواند نتایج پیش‌بینی مشابهی با یک فرآیند گاوسی با هسته چند جمله‌ای $K(x,x')=(x^Tx'+1)^2$ در پیچیدگی زمانی کمتر ایجاد کند (GP $O(n^ است 3)$) با استفاده از تجزیه Cholesky؟ اگر بله، پیچیدگی رگرسیون ریج با هسته ای که نتایج یکسانی را ایجاد می کند چقدر خواهد بود؟ اگر نه، آیا یک مدل SVM پیشنهاد می شود؟ من می خواهم به پیچیدگی زمانی ویژگی های خطی به عدد برسم.
رگرسیون هسته و ریج فرآیند گاوسی
115361
با توجه به نمرات تطابق بیومتریک، من باید نمودارهای تراکم تخمینی امتیازهای واقعی و فریبنده را رسم کنم. نمودارهایی که من به ترتیب برای نمرات واقعی و فریبنده دریافت کردم در زیر آمده است. ![PDF نمرات واقعی در برابر نمرات واقعی ترسیم شده است](http://i.stack.imgur.com/2XMuB.png) ![PDF نمرات فریبکار در برابر نمرات فریبکار ترسیم شده است](http://i.stack.imgur. com/YduAq.png) سوال من این است که چگونه می توانم 2 نمودار را ترکیب کنم و آنها را با تمام امتیازهای داده شده در مجموعه داده رسم کنم تا 2 را با هم مقایسه کنم. تراکم؟ آیا می توانم انجام دهم: plot(*data_set*,pdf_genuine) نگه دارید. plot(*data_set*,pdf_impostor) hold off; ابعاد کل مجموعه داده 517x516 است
ترسیم تخمین چگالی در متلب
90084
من در دو سال گذشته در حال مطالعه آمار هستم. تقریباً همه چیزهایی که آموخته ام در مورد آمار پارامتریک است. اکنون می خواهم در مورد آمار ناپارامتریک بیشتر بدانم. آیا کسی می تواند مقدمه ای مختصر (شاید خواندنی) در این زمینه پیشنهاد کند؟
مقدمه ای بر آمار ناپارامتریک
1915
من علاقه مند به اجرای الگوریتم خوشه بندی مدولار نیومن بر روی یک نمودار بزرگ هستم. اگر بتوانید کتابخانه ای (یا بسته R و غیره) را به من معرفی کنید که آن را پیاده سازی می کند، بسیار سپاسگزار خواهم بود. بهترین ~ لارا
خوشه بندی مدولار نیومن برای نمودارها
96860
طرح Aloha یک طرح دسترسی تصادفی چندگانه تقسیم زمانی است که در شبکه مورد استفاده قرار می گیرد، که در دانشگاه هاوایی توسط Norm Abrahamson برای شبکه آنها، ALOHAnet برای مقابله با این واقعیت که دارای پردیس های پراکنده در چندین جزیره است، توسعه یافته است. در ژوئن 1971 عملیاتی شد. طرح اصلی مورد استفاده در آنجا اغلب پروتکل خالص آلوها نامیده می شود. در آن طرح، یک گره زمانی که داده ای برای ارسال دارد، به سادگی داده ها را ارسال می کند. اگر برخوردی وجود داشته باشد، قبل از ارسال مجدد مقداری زمان تصادفی منتظر می ماند. گره های انتقال $N$ در شبکه وجود دارد. هر گره دارای نرخ انتقال پواسون با میانگین $\lambda'$ است. زمان‌های ارسال اولیه و ارسال مجدد به صورت نمایی با میانگین $1/\mu$ هستند. من $P(\text{بدون برخورد}) = e^{-(\lambda' N/\mu)}$ دریافت می کنم. سوالات عبارتند از: 1. **آیا این درست است؟** 2. **چگونه می توانم این را بدون $e$ بیان کنم؟** [نسخه مختصر این سوال قبلا ارسال شده بود، اما OP آنچه را که فکر می کردم یک سوال بود حذف کرد. سوال بالقوه مفید من اینجا بازنشر کرده‌ام، اما چند جمله مقدماتی و برخی پیوندهای ویکی‌پدیا مربوط به آنچه در حال بحث است و قالب‌بندی و طرح‌بندی بهبود یافته است. من مطمئن نیستم که چرا OP می خواست بدون استفاده از $e$ بیان شود، او علیرغم دو درخواست برای شفاف سازی به آن پاسخ نمی داد و سپس به جای اینکه سوال را واضح تر کند، سوال را حذف کرد. من به امید بهبود خود به حذف حذف رای دادم، اما در صورت عدم حذف (تاکنون) حذف آن، این را پست کردم به این امید که شاید بتوان به آن پاسخ داد یا بهتر شد. اگر نسخه اصلی حذف نشده است، احتمالاً باید ویرایش شود و این یکی حذف شود.]
P (بدون برخورد) با ورود پواسون و طول بسته نمایی
1912
گری کینگ بیانیه زیر را در توییتر بیان کرد: > عدم تغییر مقیاس به نظر جالب می رسد، اما معمولاً آماردانان از مسئولیت شانه خالی می کنند و با نادیده گرفتن اطلاعات موضوع، قدرت خود را از دست می دهند، نمونه ای از این پدیده چیست، که در آن عدم تغییر مقیاس باعث از دست دادن قدرت می شود؟ _ویرایش:_ گری پاسخ داد: > نه قدرت [آماری]، اما عدم تغییر مقیاس، قدرتی را که می توان از دانش ماده استخراج کرد، از دست می دهد. چگونه عدم تغییر مقیاس می تواند باعث از دست دادن قدرت توضیحی حاصل از تجزیه و تحلیل شود؟
چرا عدم تغییر مقیاس می تواند باعث از دست دادن قدرت توضیحی شود؟
62574
من به طور تصادفی این قطعه کد را پیدا کردم: v1 <- eigen(X.center %*% t(X.center))$vectors[,1] X.0 <- v1 %*% t(v1) %*% X. مرکز در حالی که v1 بردار ویژه مربوط به بالاترین مقدار ویژه است، v1%*%t(v1) حاصلضرب بیرونی v1 را نشان می دهد، X.0 نشان دهنده چیست و آن چیست اهمیت فیزیکی؟ و من حدس می زنم که این یک شکل درجه دوم نیست. لطفاً کسی می تواند به چند مثال مرتبط اشاره کند. پیشاپیش ممنون
اهمیت فیزیکی: ضرب ماتریس در حاصلضرب بیرونی بردار ویژه آن
62573
من نمی دانم که آیا کسی می داند چگونه دو نمودار شبکه هدایت شده را با شناسه گره یکسان مقایسه کند. به طور خاص، در نمودار A، هر گره یک فرد را نشان می دهد و هر یال نشان دهنده نوعی رابطه A بین دو فرد است. در نمودار B، همان جمعیت توسط گره ها نشان داده می شود و هر یال نشان دهنده رابطه B بین دو فرد است. چگونه باید تفاوت قابل توجه بین این دو نمودار را آزمایش کنم؟ هر دو نمودار جهت دار هستند. اگر نمودارها وزن شوند چه؟ من در حال حاضر از igraph در R استفاده می کنم، اما به دنبال پاسخ آماری بیشتری هستم. خیلی ممنون
تفاوت قابل توجه بین دو نمودار شبکه جهت دار با شناسه های راس یکسان
58101
من روی داده های دمای ماهانه برای 100 سال، از 1901 تا 2000 (یعنی 1200 نقطه داده) پیش بینی می کنم. می‌خواهم بدانم آیا روشی که دنبال می‌کنم درست است، زیرا در خروجی‌ام، «تصادفی» لازم دما را در پیش‌بینی بازتولید نمی‌کنم. در اینجا پیوندی به طرح پیش‌بینی (به رنگ قرمز) وجود دارد https://docs.google.com/file/d/0B1Lm03a_91xiYks5TVJDYU05VUE/edit?usp=sharing EDIT: ACF و PACF زمان کاهش یافته و فصلی نشده را اضافه کرد سری: https://docs.google.com/file/d/0B1Lm03a_91xia2RTOHZrajJtZXM/edit?usp=sharing در زیر dput() داده های من آمده است: > dput(fr.monthly.temp.ts) structure(c(2.7, 0.4, 4.7، 10، 13، 16.9، 19.2، 18.3، 15.7، 10.6، 4.9، 3.5، 4.1، 3.2، 7.5، 10.3، 10، 15.1، 18.2، 17.4، 15، 10.2، 6.3، 3.5، 3.2، 3.2، 7.7. 14.9، 17.6، 17.3، 15.5، 12.1، 6.9، 2.7، 3، 4.6، 5.5، 10.3، 13.6، 16.3، 20.2، 18.5، 13.9، 14.2، 13.9، 14.2، 5. 9.3، 11.9، 16.5، 20، 17.6، 14.7، 8.4، 5.5، 3.8، 4.3، 3.1، 5.6، 8.5، 12.6، 16.1، 18.2، 18.9، 18.2، 18.9، 18.2، 18.9، 2.2، 16. 2.1، 6.3، 8.4، 12.7، 15.1، 16.5، 17.9، 16.2، 11.6، 7.6، 5.6، 1.7، 4.8، 5، 7.7، 14.2، 16.8، 17.8، 17.1، 17.1، 17.1. 6.5، 3.6، 2.2، 2، 4.7، 10.4، 12.8، 14.2، 16.3، 18، 14.2، 12.2، 5، 4.9، 4، 5.4، 6.6، 8.5، 11.9، 8.5، 11.9، 1.1. 14.2، 11.9، 5.9، 6، 1.6، 4.5، 6.4، 8.3، 13.6، 16.1، 20.8، 20.7، 17.5، 11.3، 7.3، 6.6، 4.6، 4.1، 6.8، 4.6، 6.1، 8.5 17.9، 15.5، 12.5، 10، 5.5، 5.8، 5.4، 4.7، 7.9، 9.1، 13، 15.8، 16.5، 17.6، 15.4، 12.3، 9.2، 7، 7، 4، 5. 12.2، 15.3، 17.3، 18.2، 15.3، 10.6، 6.3، 5.7، 3.5، 4.3، 5.7، 8.5، 14.2، 17، 17.2، 17.5، 14.7، 17.5، 14.7، 4.6.6. 5.9، 9.5، 13.8، 14، 17.4، 18.4، 14.5، 11.5، 7، 4.3، 1.1، 1.4، 4.4، 6.7، 15.1، 17.6، 18.3، 17.4، 18.3، 17.4، 18.3، 17.4، 1.1. 3.7، 5.4، 6.5، 8.4، 14.2، 15، 18، 18.1، 15.4، 9.7، 6.4، 6.9، 3.3، 3.7، 6.2، 7.8، 13.8، 16.3، 13.8، 16.3، 18.8، 18.8. 4.6، 5.5، 5، 6.4، 8.2، 9.9، 14.4، 16، 17.4، 16.5، 15.2، 11.5، 6، 4، 6.4، 4.2، 7.2، 8.9، 13.7، 13.7، 8.9، 13.7، 206 14.1، 4.7، 4.5، 3.4، 4.7، 6.6، 8، 14.8، 16.3، 16.7، 16.9، 13.7، 9.2، 5.4، 4.5، 3.7، 6.3، 7.6، 14.1، 2.19. 18.8، 15.1، 12.3، 5.3، 3.8، 3.8، 2.4، 6.4، 9.2، 14.1، 16.2، 18، 15.9، 15.2، 11.7، 7.1، 4.5، 7.1، 4.5، 4.9، 4.9، 4.5، 4.9. 17، 18، 17.6، 13.3، 11.8، 4.9، 3.9، 4.1، 8.3، 7.2، 10.3، 11.6، 14.5، 18.2، 18.7، 17.3، 11.5، 17.3، 11.5، 4.7، 8.3. 9.8، 13.7، 15.7، 18، 17.8، 15.2، 11.3، 6.7، 2.9، 5، 6.4، 7.1، 9.3، 11.8، 16.1، 20.5، 19.3، 12.3، 15.8، 15.8. -0.2، 6.7، 7.8، 13.2، 16.3، 19.1، 18.1، 18.4، 11.4، 7.3، 6.4، 5.8، 3.3، 7، 9.7، 12.1، 17.7، 17.2، 18.2، 17.3، 17.2 8.6، 4.5، 3.7، 3.3، 5.8، 8.8، 13.8، 17.5، 17.7، 17، 12.8، 10.6، 8.2، 3.2، 4.8، 1.4، 5.5، 8، 17.4، 12.1. 17.2، 11، 7.4، 5، 1.8، 4.3، 7.8، 10.1، 13.1، 15.4، 19.5، 20.1، 16.7، 12، 5.5، 0.3، 3.3، 3.1، 3.1، 3.3، 3.1، 3.2، 6.3. 20، 17.5، 17.1، 11.9، 5.8، 7.6، 2.6، 5.1، 6.2، 9.1، 11.6، 17.2، 19.5، 18.1، 16.1، 10.7، 7، 6، 3.9، 10.7، 7، 6، 3.9، 13.4، 16.1، 17.2، 18، 16، 9.1، 6.6، 4.2، 5.3، 6.9، 5.6، 9.9، 14.2، 16.6، 18.6، 19.1، 15.5، 19.1، 15.5، 6.3، 11.7. 8.8، 7.7، 11.7، 16.8، 17.5، 18.2، 15.6، 11.3، 9.3، 2.5، 5.3، 4.7، 5.4، 10.2، 11.5، 16.4، 18.2، 17.3، 16.4، 17.3، 1.1. 2.6، -0.9، 4.5، 7.1، 9.6، 13.5، 17.1، 17.1، 17.5، 15.6، 10.6، 7.6، 1.1، 0.7، 4.5، 7.3، 8.2، 16.3، 10.8 15.5، 10.8، 6.6، 3.7، 0.2-، 0.1-، 7.7، 10.6، 13.1، 16.7، 18.1، 18.7، 16.7، 13.2، 5.5، 4.8، 4.8، 4.8، 4.8، 1.5. 16.4، 19.2، 19.2، 16، 12.4، 5.9، 3.4، 5.1، 2.2، 5.1، 11.1، 13.4، 16، 18.6، 20.6، 15.2، 10.1، 15.2، 10.1، 15.2، 10.1، 7.4 - 7.1. 11.9، 14.8، 17.8، 20، 18.1، 16.7، 12.3، 6.5، 4.8، 1.7، 6.4، 6.7، 11.2، 13.1، 15.7، 18.9، 17.2، 18.9، 17.2، 1.1. 1، 1.3، 7.3، 11.3، 14.8، 17.9، 20.4، 20.9، 17.6، 12.1، 8.3، 3.8، 5.7، 4.5، 9.5، 10.4، 14، 17.1، 15.1، 14، 15.1، 7. 7.2، 4.6، 4.5، 5.4، 5.7، 11.7، 12.2، 16.8، 20.6، 19.8، 18.6، 13.4، 6.4، 5.1، 3، 6.4، 8، 8.2، 2، 18، 14. 15.2، 11.4، 7.4، 1.1، 4.6، 4.7، 5.8، 9.1، 11.8، 16.1، 18.7، 17.5، 16.5، 10.5، 8.7، 4.9، 2.1، 2.1، 4.9، 2.1، 2.1، 2.8. 17.9، 20.2، 18.9، 13.1، 10.9، 5.5، 3.5، 1.1، 3، 7.5، 10.1، 14.8، 15.4، 18، 18.8، 16.2، 12.1، 8.7، 7، 1. 8.6، 12.6، 16، 16.4، 16.9، 15.5، 12.4، 8، 6.2، 4.4، 3.6، 4.6، 10.3، 12.5، 16.4، 19.1، 19.2، 19.1، 19.2، 17.4، 10.7. 4.4، -1.8، 6.7، 8.1، 13.8، 14.4، 17.8، 16.4، 16.4، 10.6، 5.3، 5.2، 3.1، 6.9، 9.8، 9.6، 11.5، 9.6، 11.5، 15.1، 15.1. 11.8، 6.8، 3.6، 3.7، 6.2، 4.9، 7.9، 13.9، 15.6، 17.9، 18.4، 17.3، 11.4، 6.7، 5.1، 3.4، 4.5، 3.4، 4.5، 8.2، 8.6 20.3، 18.9، 17.2، 12.2، 6.8، 5.7، 3.5، 5، 8، 9.6، 14.5، 17.6، 16.8، 17.3، 14.5، 11.1، 8.4، 3.5، 3.5، 8.4، 3.5، 7.7. 12.5، 16.6، 17.7، 18، 18.5، 12.3، 6.4، 4.5، 4.8، 3.7، 3.9، 9.1، 11.5، 15.8، 17.6، 18.6، 15.9، 18.6، 15.9، 4.5، 1. -0.3، 6.5، 9.6، 12.2، 15.8، 18.5، 16.5، 15.2،
پیش‌بینی یک سری زمانی دمای ماهانه: اضافه کردن نویز به مقادیر پیش‌بینی‌شده
41850
لطفا، من به حمایت (نه راه حل) و ورودی نیاز دارم تا بدانم آیا راه درست است یا نه. ارتباط پیام های باینری را در یک رسانه انتقال در نظر بگیرید. هر پیامی که ارسال می‌شود از دو علامت ممکن، $0$ یا $1$ انتخاب می‌شود. هر نماد با احتمال مساوی رخ می دهد. همچنین مشخص است که هر مقدار عددی ارسال شده در آن کانال در معرض اعوجاج قرار می گیرد. اگر مقدار $x$ منتقل شود، مقدار $y$ در مقصد دریافت می‌شود که با $y = x + n$ توصیف می‌شود، که در آن n یک متغیر تصادفی را نشان می‌دهد که نویز افزودنی مستقل از $x$ است. نویز دارای توزیع نرمال با پارامترهای $σ^2 = 4$ و $\mu = 0$ است. 1. فرض کنید فرستنده نماد $0$ را با مقدار $x = -2$ و $1$ را با مقدار نماد $x = 2$ رمزگذاری می کند. در مقصد، پیام دریافتی طبق قوانین زیر رمزگشایی می شود: 2. هنوز .... * اگر $y ≥ 0$ باشد، نتیجه می گیریم که نماد $1$ ارسال شده است. * اگر $y <0$، نتیجه بگیرید که نماد $0$ ارسال شده است. ** س: احتمال خطا را برای این طرحواره رمزگذاری / رمزگشایی تعیین کنید. ** بنابراین، من می دانم که .... احتمال خطای بیت: $P(x=0|y=1) ~\&~ P(x= 1|y=0)$. احتمال انتقال هر سیگنال $(0,1)$ برابر است (یعنی $1/2$). $y_t = x_t + n_t$ که در آن $x_t$ یک سیگنال رایگان نویز است. با فرض اینکه نویز دارای توزیع گاوسی است.
خطای احتمالی - پیام باینری
41852
من یک پارامتر (مثلاً وزن) را به طور مکرر در مقاطع زمانی مختلف (مثلا ماهانه، برای 1 سال) برای دو گروه (مثلاً گروه آزمایش و کنترل) اندازه می‌گیرم. داده های من چیزی شبیه به داده های ارسال شده در این سوال است: تجزیه و تحلیل ANOVA اندازه گیری های مکرر با دو گروه. من می خواهم تغییر وزن در طول زمان را بین دو گروه مقایسه کنم. فکر می کنم برای این کار باید از ANOVA اندازه گیری های مکرر استفاده کنم. در SPSS، وقتی سعی می‌کنم این کار را انجام دهم، می‌توانم در طول زمان پارامتر را در گروه مقایسه کنم، اما نه بین گروه‌ها. کسی میتونه کمک کنه؟
چگونه ANOVA اندازه گیری های مکرر را برای دو گروه در SPSS و 12 نقطه زمانی انجام دهیم؟
54487
آیا stan (به ویژه rstan) دارای امکانات داخلی برای تولید توزیع های پیش بینی کننده پسین است؟ تولید توزیع از روی تناسب stan سخت نیست، اما من ترجیح می‌دهم چرخ را دوباره اختراع نکنم.
آیا stan کارهای پیش بینی کننده را انجام می دهد؟
1914
من تجزیه و تحلیل داده های بیزی فضایی را انجام می دهم، یک کوواریانس نمایی بدون قطعه را فرض می کنم. من انواع مختلفی را برای پارامترهای آستانه و محدوده (گاما، گامای معکوس و غیره) امتحان کرده ام، متأسفانه قطرهای همگرایی معمولاً وحشتناک هستند. من در تعجب هستم که چگونه می توانم اختلاط ضعیفی را که مشاهده می کنم بفهمم، آیا کاری وجود دارد که بتوانم برای اینکه زنجیره MCMC رفتار بهتری انجام دهم؟
انتخاب برای پیشین ها برای کوواریانس فضایی نمایی
90080
سوال بالقوه احمقانه: آیا اشکالی در مدل‌سازی داده‌های غیرمنفی حاوی صفر با ضرب کردن آن در 10^ چیزی، سپس گرد کردن و سپس مدل‌سازی آن به‌عنوان سم وجود دارد؟ یا معمولا این کار انجام می شود؟ در مورد من، من داده‌هایی در مورد بازده محصول دارم که شامل شکست کامل محصول می‌شود، و پاسخ در برابر نمودارهای برازش شده (از OLS) مقادیر زیادی را زیر صفر نشان می‌دهد. علاوه بر این، اندازه‌گیری‌ها نویز دارند، بنابراین من واقعاً اطلاعات زیادی را با گرد کردن از دست نمی‌دهم. بنابراین ضرب، گرد کردن، و مدل سازی به عنوان poisson جذاب به نظر می رسد. در نهایت، این در یک زمینه با جلوه‌های ثابت (داده‌های پانل) اتفاق می‌افتد، و من می‌خواهم خطاهای استاندارد خوشه‌ای را، یا توسط واحد مقطعی، یا توسط یک واحد وسیع‌تر که CSU در آن قرار دارد، دریافت کنم. من با این مقاله توسط Paul Allison برخورد کردم که نشان می‌دهد FE Poisson تخمین‌های تقریباً ثابتی از $\beta$ ارائه می‌دهد، اما SE بسیار کوچکی دارد. اما من همچنین می بینم که stata دستور xtpoisson را ارائه می دهد. آیا stata این مشکل را اصلاح می کند یا از آن رنج می برد؟ آلیسون نشان می‌دهد که رویکرد FE مشروط که stata استفاده می‌کند، تخمین‌های یکسانی را برای مدلی ارائه می‌دهد که به سادگی دارای ساختگی‌هایی برای CSU است. اگر بخواهم رگرسیون متغیر ساختگی را در R اجرا کنم و از تابع خوشه‌بندی Arai استفاده کنم، آیا اساساً همان کاری را انجام می‌دهم که stata انجام می‌دهد؟
صفرها در داده های غیرمنفی: آیا می توانید در 10^c ضرب کنید، گرد کنید و سپس به عنوان پواسون GLM مدل کنید؟
81047
من می خواهم نمونه های تصادفی را از یک توزیع نرمال دو متغیره تحت یک شرط تولید کنم. اولین متغیر نرمال $\varepsilon_1$ و دومین متغیر نرمال $\varepsilon_2$ است. شرط $\varepsilon_1>T_1$ است که $T_1$ یک ثابت است، و $ a \varepsilon_1 + b\varepsilon_2 <T_2$ که $a$، $b$، و $T_1$ ثابت هستند. $\varepsilon_1$ و $\varepsilon_2$ مستقل هستند. بنابراین شرایط یک منطقه در فضای دوبعدی ایجاد می کند که توسط خط عمودی $T_1$ و یک خط کج محدود شده است. آیا راهی برای انجام این کار بدون تولید نمونه های تصادفی زیاد و پرتاب نمونه ها به خارج از منطقه شرط وجود دارد؟ دلیل آن این است که احتمال در منطقه شرایط می تواند بسیار کم باشد، بنابراین دور انداختن نمونه ها یک گزینه نیست.
نمونه گیری مشروط از نرمال های دو متغیره
62577
فکر می کنم دلم برای اینجا تنگ شده است. به نظر من روش تک عاملی در یک زمان و روش اسپلیت پلات هر دو مقادیر چند عامل را تغییر می دهند، یک عامل در یک زمان. پس چه تفاوت هایی بین آنها وجود دارد؟ با تشکر
چه تفاوت هایی بین روش تک عاملی در یک زمان و روش اسپلیت پلات وجود دارد؟
58100
**سوال من:** کدام تبدیل داده مقادیر مثبت مقادیر منفی در مقیاس تبدیل شده ایجاد می کند؟ ** زمینه: ** من به مقاله ای که اخیراً منتشر شده است نگاه می کنم که در آن شکلی وجود دارد که گزارش می دهد محور x بر حسب متر در مقیاس تبدیل شده log-10 است. من بسیار علاقه مند هستم که محدوده واقعی داده های فاصله خام چقدر بود. مقادیر اصلی باید از 0 تا شاید 5000 متر متغیر باشد (اگرچه آنها فواصل واقعی را در مقاله نشان نمی دهند). با این حال، مقادیر موجود در مقیاس از 2.0- تا 0.5 متغیر است (شکل زیر را ببینید)، و نه log و نه تبدیل لاگ طبیعی نمی توانند مقادیر منفی ایجاد کنند. مقادیر لاگ باید از 0 تا ~3.5 و لاگ طبیعی از 0 تا ~8.5 متفاوت باشد. آن‌ها از تبدیل آرکسین برای داده‌های درصدی در جای دیگر مقاله استفاده کردند، اما این تبدیل نیز نمی‌تواند مقادیر منفی تولید کند (و نمی‌تواند با مقادیر بزرگتر از 1 مقابله کند، من معتقدم). بدیهی است که تبدیل ریشه مربع نیز نمی تواند مقادیر منفی ایجاد کند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xgvQm.jpg)
مبارزه با دگرگونی‌های داده‌ای که می‌توانند مقادیر منفی تولید کنند
108473
فرض کنید من یک برآوردگر بی طرفانه $u(\underline x)$ برای تابع $v(\theta)$ دارم که در آن $\theta$ پارامتری از توزیع $x$ است و $T(\underline x)$ که یک آمار کافی برای $\theta$ است. برای استفاده از Rao- Blackwell برای کاهش واریانس برآوردگر، باید $E(u(\underline x)|T(\underline x))$ را پیدا کنم. برای این کار باید PDF مشترک $f_{u,T}(u(\underline x),T(\underline x))$ و PDF حاشیه $f_{T}(T(\underline x))$ را پیدا کنم. من می توانم ${f_{u,T}(u(\underline x),T(\underline x))}\over{f_{T}(T(\underline x))}$ محاسبه کنم. اگر من به اندازه کافی خوش شانس نیستم که توزیعی داشته باشم که در آن فایل های PDF با بازرسی یا دانش قبلی مشخص هستند، استراتژی ایمن برای یافتن فایل های PDF مشترک و حاشیه ای؟ غالباً $T(\underline x)$ یک آمار سفارش یا تابعی از $\underline x$ است که برای چگالی آن برای عبارت بسته قابل تراشی اتفاق می‌افتد، اما حتی در این موارد من در مورد چگونگی بازگرداندن آن ناامید هستم. در PDF اصلی $\underline x$ به منظور دریافت PDF مشترک داده ها و آمار کافی.
چگونه می توان توزیع شرطی را برای برآوردگر Rao-Blackwellizing پیدا کرد؟
96868
(stackoverflow را امتحان کردم اما به من گفت که ممکن است در اینجا شانس بیشتری داشته باشم). من به دنبال کمکی برای تفسیر varImp با استفاده از مدل چند جمله ای GLMNET بر روی یک متغیر عامل 3 سطحی هستم. طرح و داده ها برای من معنی ندارند. Bin 1 var3 را مهم‌ترین نشان می‌دهد، اگرچه به نظر می‌رسد که var1 و 2 عملکرد بهتری دارند. Bin 3 var3 را بیش از 50% نشان می دهد و این منطقی نیست زیرا var3 برای bin 3 کاملاً تصادفی است. همچنین آیا علامت 50 درصد را باید خنثی دانست؟ یا باید 0% باشه؟ من عاشق خروجی فاکتور varImp هستم، تا زمانی که بتوانم به طور قابل اعتماد تعیین کنم که کدام متغیر برای کدام bin مهم‌تر است. من اینجا چه چیزی را از دست داده ام؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uD3C6.png) در اینجا داده‌هایی است که برای نشان دادن مثال خود ایجاد کردم (dput زیر): var1,var2,var3,response 1, 1,2,1 1,1,2,1 1,1,2,1 1,1,2,1 1,1,5,1 1,1,5,1 1,1,5,2 2,2,5,2 2,2,5,2 2,2,7,2 2,2,7,2 2,2,11,3 2,2,12,3 2 ,2,23,3 2,3,24,3 3,2,112,3 3,3,12,3 3,3,18,3 3,3,12,3 3,3,20,3 3,3,2,3 3,3,3,3 3,3,4,3 کد برای بازتولید نمودار varImp زیر: library(caret) data_file <- structure(list(var1 = c (1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، var2 = c(1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر ، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، var3 = c(2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 7 لیتر، 7 لیتر، 11 لیتر، 12 لیتر، 23 لیتر، 24 لیتر، 112 لیتر، 18 لیتر 12 لیتر، 20 لیتر، 2 لیتر، 3L، 4L)، پاسخ = c(1L، 1L، 1L، 1L، 1L، 1L، 2L، 2L، 2L، 2L، 2L، 3L، 3L، 3L، 3L، 3L، 3L، 3L.، 3L. ، 3L، 3L))، .Names = c(var1، var2، var3، response)، class = data.frame، row.names = c(NA, -23L)) پیش‌بینی‌کننده <- c(var1،var2،var3) pretend_model <- train(x = data_file[,predictors], y= as.factor(data_file[['response']]), متد = glmnet، preProc = c(مرکز، مقیاس)) imp <- varImp(pretend_model, scale = T) plot(imp)
تفسیر varImp با استفاده از مدل GLMNET بر روی فاکتور 3 سطحی
880
سوال من در مورد اعتبار سنجی متقاطع است زمانی که متغیرهای بسیار بیشتر از مشاهدات وجود دارد. برای اصلاح ایده‌ها، من پیشنهاد می‌کنم به چارچوب طبقه‌بندی در ابعاد بسیار بالا (ویژگی‌های بیشتر از مشاهده) محدود شود. **مشکل:** فرض کنید برای هر متغیر $i=1,\dots,p$ شما یک معیار اهمیت $T[i]$ دارید تا اینکه دقیقاً علاقه ویژگی $i$ را برای مشکل طبقه بندی اندازه بگیرید. سپس مشکل انتخاب زیرمجموعه ای از ویژگی برای کاهش بهینه خطای طبقه بندی به مشکل یافتن تعداد ویژگی ها کاهش می یابد. **سوال:** کارآمدترین راه برای اجرای اعتبارسنجی متقاطع در این مورد (طرح اعتبارسنجی متقاطع) چیست؟ سوال من در مورد نحوه نوشتن کد نیست، بلکه در مورد نسخه اعتبار سنجی متقاطع برای استفاده در هنگام تلاش برای یافتن تعداد ویژگی انتخاب شده (برای به حداقل رساندن خطای طبقه بندی) است، بلکه نحوه برخورد با بعد بالا هنگام انجام اعتبار سنجی متقاطع است (از این رو مشکل بالا ممکن است کمی شبیه یک مشکل اسباب بازی برای بحث در مورد CV در ابعاد بالا باشد). **نشان‌ها:** $n$ اندازه مجموعه یادگیری، p تعداد ویژگی‌ها (یعنی بعد فضای ویژگی) است. منظور من از ابعاد بسیار بالا p>>n است (برای مثال $p=10000$ و $n=100$).
اعتبار سنجی متقاطع در ابعاد بسیار بالا (برای انتخاب تعداد متغیرهای مورد استفاده در طبقه بندی ابعاد بسیار بالا)
20019
آیا کسی مستندات خوبی برای تجزیه و تحلیل تمایز دارد؟ من 9 متغیر (اندازه گیری)، 60 بیمار دارم و نتیجه من جراحی خوب، جراحی بد است. همچنین آیا حجم نمونه من خیلی کوچک است؟ متشکرم
حجم نمونه و مستندات برای تجزیه و تحلیل متمایز
881
در اینجا چیزی است که من مدتی در مورد آن متعجب بودم، اما نتوانستم اصطلاحات صحیح را کشف کنم. فرض کنید یک تابع چگالی نسبتاً پیچیده دارید که گمان می‌کنید ممکن است تقریبی نزدیک به عنوان مجموع توابع چگالی ساده‌تر (با وزن مناسب) داشته باشد. آیا چنین مواردی مطالعه شده است؟ من به خصوص علاقه مند به خواندن در مورد هر برنامه ای هستم. این یک مثال است که من پیدا کردم: بسط توابع چگالی احتمال به عنوان مجموع چگالی گاما با کاربرد در تئوری ریسک
بسط سری تابع چگالی
10497
من پس از خواندن مقالات زیر علاقه مند به انجام این کار در سی شارپ برای سرگرمی خودم شدم: http://www.cs.washington.edu/homes/brun/pubs/pubs/Kiddon11.pdf همچنین نگاهی به http:/ /www.cs.rpi.edu/academics/courses/fall03/ai/misc/naive-example.pdf به عنوان یک مثال عینی برای اجرای من. من اکنون یک پیاده سازی کار دارم، اما می خواستم مطمئن شوم که به درستی به آن نزدیک شده ام. من فقط می خواهم یک طبقه بندی کننده (unigram) جامد Naive Bayes داشته باشم. **بیان مشکل و تنظیم** من از دو مجموعه داده استفاده می کنم، لیستی از جملاتی که عبارتند از این چیزی است که او گفت و لیستی از جملاتی که با پسوند این چیزی است که او گفت معنی ندارند. در مرحله بعد، تمام کلمات موجود در تمام جملات را تجزیه می‌کنم و روی هر کلمه و تعداد دفعاتی که در هر یک از دو مجموعه پیدا شده است، حساب می‌کنم، بنابراین ممکن است به داده‌هایی به این شکل برسم: Word PositiveCount NegativeCount wet 23 4 سخت 30 5 هائیتی 0 20 تا 60 77 من روی همه کلمات تکرار می کنم و فردی را محاسبه می کنم $\Pr(\text{مثبت}|\text{<word>})$ و $\Pr(\text{منفی}|\text{<word>})$ با استفاده از فرمول زیر که در مثال بالا پیدا کردم کاغذ: P(مثبت| مرطوب) = (23 + p * m) / ((23 + 4) + m) P(منفی| مرطوب) = (4 + p * m) / ((23 + 4) + m) جایی که **m اندازه نمونه معادل** و **p تخمین پیشینی** است. سپس برای بررسی یک جمله مجهول برای اینکه ببینم آیا آن یک TWSS است، روی هر کلمه در جمله تکرار می‌کنم و [توزیع‌های احتمال؟] مثبت آنها را در هم ضرب می‌کنم و همه آن را در p ضرب می‌کنم. و همین کار را برای منفی انجام دهید. سپس اگر عدد مثبت بزرگتر باشد، می گویم که جمله این چیزی است که او گفت است. **سوالات** 1. در حال حاضر من از $p = 0.5$ برای مثبت و منفی استفاده می کنم. احساس می کنم می توانم کار بهتری انجام دهم. آیا موضوع بیزی در مقابل مکرر گرا در مورد این است؟ چگونه می توانم اعداد بهتری را برای $p$ دریافت کنم؟ 2. همچنین، من از $m$-estimates برای $\Pr( \text{Yes/No} | \text{<word>} )$ استفاده می‌کنم. آیا باید این کار را به این صورت انجام دهم و $m$ باید چقدر باشد؟ چه اثراتی برای بزرگتر/کوچکتر کردن $m$ دارد؟ سوال فوق العاده جزئی: پیشنهادهایی در مورد اینکه داده های نمونه را از کجا دریافت کنید یک امتیاز است.
طبقه بندی ساده بیز برای مشکل این چیزی است که او گفت.
49675
فرض کنید تعداد n مجموعه هایی با تعداد عناصر متفاوت داریم که برخی از آنها در بیش از یک مجموعه ظاهر می شوند. هر عنصر می تواند صفر یا چند ویژگی داشته باشد. اگر به ما گفته شود که یک عنصر در همه مجموعه ها ظاهر می شود، احتمال اینکه یک ویژگی خاص 't' داشته باشد چقدر است؟ به عنوان یک مثال عینی، فرض کنید دو دسته کارت بازی استاندارد داریم، یکی که الماس ها را از دست داده است و دیگری کلوپ ها و بیل ها را از دست داده است. حال اگر کارتی که در هر دو عرشه ظاهر می شود انتخاب شود، احتمال اینکه آن یک قلب باشد چقدر است؟
احتمال وجود یک عنصر خاص در مجموعه‌های مختلف دارای ارزش ویژگی یکسان
14979
من یک مشکل واقعی شبیه به دو زیرمسئله زیر دارم که در مورد _به حداکثر رساندن نماینده نمونه ها_ هستند (و شاید واریانس کمتری نسبت به نمونه گیری تصادفی ساده بدست می آورند، اما به دلیل حجم نمونه کوچک، نمی توان از سود طبقه بندی استفاده کرد): * * ## مثال 1: با توجه به جمعیت 1000 نفری، قد آنها مشخص است. **اندازه نمونه باید n=5`** باشد. میانگین وزن آنها باید تخمین زده شود. با در نظر گرفتن حجم نمونه کوچک و اطلاعات قبلی، روش معقولی برای رسم نمونه چیست؟ به طور شهودی، بهتر از نمونه‌گیری تصادفی ساده، ترسیم افراد به طور مساوی از کوچک به بزرگ (کوچک، نیمه کوچک، متوسط، نیمه بزرگ، بزرگ) است. ## مثال 2: با توجه به جمعیت 1000 نفری، حجم نمونه n=5 است. اکنون 45 درصد از جمعیت به گروه 1، 25 درصد به گروه 2، 15 درصد به گروه 3، 10 درصد به گروه 4 و 5 درصد به گروه 5 تعلق دارند. می توان فرض کرد که اعضای یک گروه وزن مشابهی دارند. حالا راه خوبی برای رسم نمونه ای از این جمعیت چیست؟ بطور شهودی حدود 45% از نمونه باید از گروه 1، 25% از گروه 2 باشد... (اما چگونه میانگین و واریانس را محاسبه کنیم؟) * * * روش های نمونه گیری باید شامل یک جزء تصادفی باشد و –- علاوه بر برآوردهای انتظار - برآوردهای واریانس برای _ساخت فواصل اطمینان_ برای وزن میانگین مجهول مورد نیاز است.
روش صحیح نمونه گیری با اطلاعات قبلی در مورد متغیر دیگری
13213
من از R برای محاسبه KPSS برای بررسی ثابت بودن استفاده می کنم. کتابخانه ای که من استفاده می کنم _tseries_ است و تابع آن **kpss.test** است. من یک آزمایش ساده با استفاده از _cars_ انجام داده ام (یک ماتریس پیش فرض در R). کد این است: > k <- kpss.test(cars$dist, null=Trend) پیام هشدار: در kpss.test(cars$dist, null = Trend) : p-value بیشتر از p-value چاپ شده است > k آزمون KPSS برای داده های ثابت روند: cars$dist KPSS Trend = 0.0859، پارامتر تاخیر کوتاهی = 1، p-value = 0.1 > k$statistic KPSS Trend 0.08585069 > k$parameter پارامتر تاخیر کوتاهی 1 > k$p.value [1] 0.1 > k$method [1] تست KPSS برای ثابت بودن روند > k$data.name [1] cars$dist اینها همه نتایجی هستند که kpss برمی گرداند. سوال من اینه: _چطوری تعبیرشون کنیم که بفهمیم ثابته؟_ پیشاپیش ممنون!
چگونه نتایج KPSS را تفسیر کنیم؟
13211
من در واقع می دانم که پاسخ $N(k-1)$ است (که $k$ حداقل بین تعداد سطرها و تعداد ستون ها است). با این حال، به نظر نمی‌رسد که دلیل ساده‌ای برای این که چرا آمار محدود به این است، پیدا کنم. هر گونه پیشنهاد (یا مرجع؟)
حداکثر آمار مربع کای پیرسون چقدر است؟
94707
یک توضیح ساده از نحوه عملکرد الگوریتم GEE چیست؟ فرآیند GEE دقیقاً چگونه به تخمین نهایی پارامترها می رسد؟
فرآیند تکرار GEE
54483
من اطلاعات سالانه واردات محصولات ماهی به پرتغال (سالهای 2000 تا 2011) در هر کشور را دارم. برخی از روندها وجود دارد که من می خواهم آنها را تجسم کنم، به عنوان مثال برخی از کشورها از تحصیل خارج شده و به عنوان صادرکننده وارد 5 کشور برتر می شوند. اکنون من واقعاً مطمئن نیستم که چگونه می توانم این کار را به روشی غیر گیج کننده انجام دهم که تغییرات را برجسته می کند اما آمار را به اشتباه منتقل نمی کند و تمیز است. تغییرات IMO در نمودار خطی (به غیر از محتوای بیش از حد) بیشتر از مثلاً در نمودارهای دایره ای (فقط دو مجموعه داده نشان داده شده است) مشهود است. اما آیا تجسم داده‌های جمع‌آوری‌شده در نمودارهای خطی درست است (یا ممکن است به اشتباه بگویم که داده‌ها متصل هستند)؟ نمودار خطی ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/D3Cs3.png) نمودارهای دایره ای ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/anYha. png)
ارائه / تجسم داده های جمع آوری شده برای سال ها
21825
من سعی می کنم احتمال درست شدن 8 آزمایش پشت سر هم در یک بلوک 25 آزمایشی را پیدا کنم، شما 8 بلوک کل (از 25 آزمایش) دارید تا 8 آزمایش پشت سر هم درست باشد. احتمال درستی هر آزمایشی بر اساس حدس زدن 1/3 است، پس از تصحیح 8 در یک ردیف، بلوک ها به پایان می رسد (بنابراین گرفتن بیش از 8 در یک ردیف صحیح از نظر فنی امکان پذیر نیست). چگونه می توانم احتمال وقوع این اتفاق را بیابم؟ من به این فکر کرده ام که از (1/3)^8 به عنوان احتمال درست گرفتن 8 پشت سر هم استفاده کنم، 17 شانس ممکن برای بدست آوردن 8 پشت سر هم در یک بلوک 25 آزمایشی وجود دارد، اگر 17 را ضرب کنم. احتمالات * 8 بلوک که من 136 دریافت می کنم، 1-(1-(1/3)^8)^136 به من احتمال می دهد که 8 در یک در این شرایط ردیف صحیح است یا من چیزی اساسی را در اینجا گم کرده ام؟
احتمال بیش از بلوک های متعدد از رویدادها
4013
من این تاپیک را مطالعه کردم و به نظرم می رسد که می توان گفت: * آمار = استقرا؟ * احتمال = کسر؟ اما من نمی دانم که آیا ممکن است جزئیات بیشتری در مورد مقایسه وجود داشته باشد که من از دست داده ام. مثلاً آیا آمار مساوی استقرا است یا فقط یک مورد خاص از آن است؟ به نظر می رسد که احتمال یک مورد فرعی از کسر است (زیرا مورد فرعی تفکر ریاضی است). می‌دانم که این یک سؤال حساس است، اما به یک معنا به همین دلیل است که آن را می‌پرسم - زیرا می‌خواهم مطمئن شوم که چگونه می‌توان این اصطلاحات را با دقت مقایسه کرد.
آیا می توانید بگویید که آمار و احتمال مانند استقراء و کسر است؟
90880
من برخی از کارهای طبقه بندی را با استفاده از طبقه بندی کننده k-nearest-neighbour (kNN) انجام داده ام. و عملکرد طبقه‌بندی با استفاده از روش اعتبارسنجی متقاطع ارزیابی می‌شود. برخی از کدهای تست از Matlab Help عبارتند از load ionosphere. [N,D] = اندازه (X) resp = منحصر به فرد (Y) rng(8000،'twister') % برای تکرارپذیری K = round(logspace(0,log10(N),10)); % تعداد همسایگان cvloss = صفر (numel(K),1); برای k=1:numel(K) knn = ClassificationKNN.fit(X,Y,... 'NumNeighbors',K(k),'CrossVal','On'); cvloss(k) = kfoldLoss(knn); شکل پایانی؛ % دقت را در مقابل k semilogx (K,cvloss) رسم کنید. xlabel('تعداد نزدیکترین همسایگان'); ylabel('10 برابر خطای طبقه بندی'); عنوان ('طبقه بندی k-NN'); می‌توانیم تعداد k را در kNN تنظیم کنیم و با توجه به خطای اعتبار متقاطع رسم کنیم. در این مورد، نمودار مانند زیر است ![k در مقابل خطای اعتبارسنجی متقابل](http://i.stack.imgur.com/rS5I2.png) می بینیم که نمودار یک خطای کمی بزرگتر را با استفاده از بسیار کوچک نشان می دهد. مقدار، به عنوان مثال k=1. و با افزایش k، خطا پایین می آید و در k=2 به کمترین خطا می رسد. و خطا بالاتر و بالاتر می رود و بعد از k>100 به مقداری پایدار می رسد. سوال من این است که چگونه نتایج را تفسیر کنیم؟ 1. چرا k مانند k=1 بسیار کوچک است، خطای کمی بزرگتر داریم؟ 2. چرا k کوچک است ما می توانیم بهترین عملکرد را به دست آوریم؟ 3. چرا وقتی k بسیار بزرگ است، خطای بسیار بزرگی دریافت می کنیم؟ لطفاً اگر پیشینه ریاضی پشت این موارد وجود دارد، مرجعی ارائه دهید. خیلی ممنون الف
چگونه عدد k را در طبقه‌بندی‌کننده k-نزدیک‌ترین همسایه تفسیر کنیم؟
14974
مثالی از الگوریتمی چیست که وقتی توزیع مشخصی در بین گروه‌های گسسته دارم و نوعی امتیاز مدل دارم که یک نفر در هر گروه است، افراد را به گروه‌هایی اختصاص می‌دهد که مجموع امتیازات گروه حداکثر شود، یا برخی معیارهای عینی دیگر برآورده شده است و ما توزیع کلاس شناخته شده را ارج می نهیم. من کدی دارم که واحدهای طبقه بندی شده را به گروه مرتبط با حداکثر امتیاز واحد یک به یک اختصاص می دهد تا زمانی که یک گروه پر شود. با بالاترین واحدهای امتیازی شروع می‌شود که باعث ایجاد مشکل می‌شود، زیرا گروه‌هایی که احتمال کلاس بالاتری در پیش‌بینی‌ها نسبت به شناخته‌شده دارند، در نهایت تحت سلطه واحدهای پیش‌بینی‌کننده قرار می‌گیرند که داده‌های زیادی تولید می‌کنند (مثلاً اسناد طولانی). آیا شخص دیگری با این مشکل مواجه شده است یا قبلاً در مشکلات طبقه بندی به این موضوع فکر کرده است؟
طبقه بندی چند کلاسه زمانی که توزیع کلاس مشخص باشد
112822
فرض کنید من $N$ مورد دارم $\\{x_n\\}_{n=1}^N$ (همچنین بردار ویژگی را به عنوان $x_n$ نشان دهید) و ترجیحات زوجی $M$ را مشاهده کرده ام $\\{x_{ i_m} \succ x_{j_m}\\}_{m=1}^M$ از یک کاربر. اکنون می‌خواهم ترجیح این کاربر را روی یک جفت نامشخص $x_i$ و $x_j$ پیش‌بینی کنم. من ابتدا یک تابع کاربردی $f\sim\mathcal{GP}(0,\Sigma)$ را فرض می‌کنم، به طوری که $f(x_i) > f(x_j) \Leftrightarrow x_i \succ x_j \Leftrightarrow y_{ij} = 1$ . سپس فرض می‌کنم که احتمال ترجیح توسط $$ \Pr(y_{ij}=1)=\frac{1}{1+\exp[f(x_j)-f(x_i)]} $$ داده‌شده است. مدل به نظر من خوب است اما ماتریس $Y=(y_{ij})_{n\times n}$ را کجا باید در Stan قرار دهم؟ اگر آن را در بلوک «داده» قرار دهم، به نظر می رسد که باید همه ورودی ها را ارائه کنم. همچنین قرار دادن قسمت از دست رفته در بلوک «پارامترها» غیرواقعی است زیرا من به بسیاری از ترجیحات دیگر علاقه ای ندارم. پس راه صحیح انجام این کار در Stan چیست؟ به نوعی احساس می‌کنم که تابع «increment_log_prob» ممکن است کمک کند، اما مطمئن نیستم که چگونه. متشکرم.
چگونه با داده های گمشده (مشاهده نشده) بی علاقه رفتار کنیم؟
94703
من سه سیگنال (زیر) دارم که هر کدام دارای انحراف استاندارد یکسانی هستند، اما به وضوح از نظر زمانی بسیار متفاوت هستند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3AYr2.png) آیا چنین معیاری وجود دارد که بتوان برای هر یک از این سیگنال ها محاسبه کرد تا نشان دهد که چگونه آنها در طول زمان تغییر می کنند، مانند به عنوان معیاری برای پیوستگی یا تناوب در صورت وجود چنین متریک. در صورت امکان، من می‌خواهم این کار را با محاسبه یک عدد برای هر یک از این سیگنال‌ها انجام دهم، نه اینکه پنجره‌ای را به قطعات کوچک‌تر تبدیل کنم. با تشکر
اندازه گیری متناوب/پیوستگی یک سیگنال
14976
فرض کنید من متغیری را در خواهر و برادرها اندازه گیری کرده ام که در خانواده ها تودرتو هستند. ساختار داده به این صورت است: مقدار خواهر و برادر خانواده ------ ------- ----- 1 1 y_11 1 2 y_12 2 1 y_21 2 2 y_22 2 3 y_23 ... ... . .. من می خواهم بدانم ارتباط بین اندازه گیری های انجام شده بر روی خواهر و برادر در یک خانواده وجود دارد. روش معمول برای انجام این کار، محاسبه ICC بر اساس یک مدل قطع تصادفی است: res <- lme(yij ~ 1، تصادفی = ~ 1 | خانواده، داده=dat) getVarCov(res)[[1]] / ( getVarCov(res)[[1]] + res$s^2) اگر من فقط جفت خواهر و برادر در خانواده داشتم، این معادل با: res <- gls (yij ~ 1، همبستگی = corCompSymm (شکل = ~ 1 | خانواده)، داده = داده) با این تفاوت که رویکرد دوم همچنین اجازه ICC منفی را می دهد. حالا فرض کنید من سه مورد را در خواهر و برادرهای تودرتو در خانواده ها اندازه گیری کرده ام. بنابراین، ساختار داده به این شکل است: مقدار آیتم خواهر و برادر خانواده ------ ------- ---- ----- 1 1 1 y_111 1 1 2 y_112 1 1 3 y_113 1 2 1 y_121 1 2 2 y_122 1 2 3 y_123 2 1 1 y_211 2 1 2 y_212 2 1 3 y_213 2 2 1 y_221 2 2 y_222 2 2 3 y_223 2 3 1 y_231 2 3 2 y_232 2_ ... 3 3 ... می خواهم به در مورد: 1. همبستگی بین اندازه‌گیری‌های انجام‌شده بر روی خواهر و برادر در یک خانواده برای یک مورد 2. همبستگی بین اندازه‌گیری‌های انجام‌شده بر روی خواهر و برادرهای داخل یک خانواده برای آیتم‌های مختلف اگر فقط جفت خواهر و برادر در خانواده‌ها داشتم، فقط این کار را انجام می‌دادم: Res <- gls (yijk ~ آیتم، همبستگی = corSymm(شکل = ~ 1 | خانواده)، وزن = متغیر(شکل = ~ 1 | item)، data=dat) که به من یک ماتریس $6 \times 6$ var-cov روی باقیمانده های فرم می دهد: $\left[\begin{array}{cccc|ccc} \sigma^2_1 & \rho_{12 } \sigma_1 \sigma_2 & \rho_{13} \sigma_1 \sigma_3 & \phi_{11} \sigma^2_1 & \phi_{12} \sigma_1 \sigma_2 & \phi_{13} \sigma_1 \sigma_3 \\\ & \sigma^2_2 & \rho_{23} \sigma_2 \sigma_3 & \phi_{22} \ sigma^2_2 & \phi_{23} \sigma_2 \sigma_3 \\\ & & \sigma^2_3 & & & \phi_{33} \sigma^2_3 \\\ \hline & & & \sigma^2_1 & \rho_{12} \sigma_1 \sigma_2 & \rho_{13 } \sigma_1 \sigma_3 \\\ & & & & \sigma^2_2 & \rho_{23} \sigma_2 \sigma_3 \\\ & & & & & \sigma^2_3 \\\ \end{array}\right]$ که بر اساس آن می‌توانم به راحتی آن همبستگی‌های خواهر و برادری را تخمین بزنم ($\phi_ {jj}مقدارهای $ ICC برای یک مورد هستند. با این حال، همانطور که در بالا نشان داده شد، برای برخی از خانواده ها، من فقط دو خواهر و برادر دارم، اما برای خانواده های دیگر بیش از دو خواهر. بنابراین، این باعث می‌شود فکر کنم که باید به یک مدل واریانس-مولفه‌ها برگردم. با این حال، همبستگی بین آیتم ها ممکن است منفی باشد، بنابراین من نمی خواهم از مدلی استفاده کنم که همبستگی ها را برای مثبت بودن محدود کند. هر گونه ایده/پیشنهاد در مورد اینکه چگونه می توانم به این موضوع نزدیک شوم؟ پیشاپیش برای هر کمکی متشکرم!
ضرایب همبستگی درون طبقاتی (ICC) با متغیرهای چندگانه
94704
اجازه دهید $x,y\in R^d$ و $d:R^d\times R^d \rightarrow R$ یک متریک در $R^d$ داده شود. هسته نمایی با: $k(x,x')=e^{−αd(x,x')}$ که $α>0$ تعریف می‌شود. ماتریس هسته به عنوان ماتریس گرم $k$ تعریف می شود: $K_{ij}=k(x_i,x_j), i,j∈[1…n]$. آیا می توان ثابت کرد که $K$ یک ماتریس معین مثبت (نیمه مثبت) است، یعنی $k$ یک هسته قطعی Mercer مثبت است؟
ثابت کنید که این هسته نمایی مثبت قطعی است
90885
فرض کنید توزیع نمرات IQ در جمعیت عمومی را به عنوان یک متغیر تصادفی نرمال با میانگین 100 و انحراف معیار 15 مدل کنیم. احتمال این را پیدا کنید که نمره هوش فردی که به طور تصادفی انتخاب شده است بین 125 تا 130 باشد. من می دانم که نمره IQ 130 است. 2 انحراف استاندارد با میانگین فاصله دارد و 125 با 1.666 انحراف استاندارد فاصله دارد. من همچنین می دانم که اگر X توزیع نرمال استاندارد را داشته باشد، σ⋅X+μ دارای توزیع نرمال با میانگین μ و انحراف استاندارد σ، برای هر μ واقعی و هر σ>0 است. من برای هر کدام z-score را محاسبه کردم و آنها به ترتیب .9772 و .9515 هستند. با این حال، من باید مطمئن شوم که حداقل 6 رقم بعد از نقطه اعشار صحیح است، بنابراین پاسخ من 0.0257 کافی نیست. آیا فکر من درست است؟ و اگر چنین است، چگونه می توانم پاسخی با ارقام اعشاری بیشتر برای پاسخ خود دریافت کنم؟
احتمال با Z-Score
13218
من یک متغیر وابسته، 3 پیش بینی و 1 متغیر گروه دارم. من می خواهم شیب های تصادفی را برای هر یک از سه پیش بینی کننده تخمین بزنم. آیا نماد زیر صحیح است؟ lmer(وابسته به پیش بینی 1 + پیش بینی 2 + پیش بینی 3 + (1+ پیش بینی کننده1|گروه)+ (1+ پیش بینی2|گروه) + (1+ پیش بینی 3 | گروه) ?
برآورد شیب تصادفی برای 3 متغیر در مدل چندسطحی
13216
من روی راه‌حل‌هایی برای اولین پرسش‌های بی‌پاسخ خود کار می‌کردم و پیشنهاد شده بود تا نسبت تعداد کل مرگ‌ها را که تعداد مرگ‌های غیرطبیعی هستند، مدل‌سازی کنم. دلیل اینکه من می خواهم این کار را انجام دهم این است که می خواهم تعداد مرگ و میرهای طبیعی و غیرطبیعی را برای یک ماه خاص از یک منطقه برای یک جنسیت مشخص تعیین کنم. بگویید داده‌های من به این شکل است: (داده‌ها تا سال 2009 افزایش می‌یابد، جایی که کل سال 2007 وجود ندارد و 3 ماه اول سال 2008 وجود ندارد - تعداد مرگ‌ها.) ناحیه جنسیت سال ماه گروه سنی غیرطبیعی طبیعی مجموع 961 Khayelitsha زن 2001 1 0 0 6 6 965 Khayelitsha زن 2001 2 0 2 9 11 969 Khayelitsha زن 2001 3 0 3 10 13 973 Khayelitsha زن 2001 4 0 0 14 14 977 Khayelitsha زن 2001 5 0 0 16 1601 Khayelitsha 13 13 985 Khayelitsha زن 2001 7 0 3 11 14 989 Khayelitsha مونث 2001 8 0 1 12 13 993 Khayelitsha زن 2001 9 0 0 6 6 997 12001 Khayelitsha 1 2001 1001 Khayelitsha زن 2001 11 0 0 7 7 1005 Khayelitsha Female 2001 12 0 2 8 10 1009 Khayelitsha Female 2002 1 0 0 13 13 1013 Khayelitsha 13 1013 2001 1017 Khayelitsha زن 2002 3 0 0 9 9 1021 Khayelitsha Female 2002 4 0 0 14 14 1025 Khayelitsha Female 2002 5 0 0 14 14 1029 Khayelitsha 1029 1029 Khayelitsha 1029 1033 Khayelitsha زن 2002 7 0 2 12 14 1037 Khayelitsha زن 2002 8 0 1 6 7 1041 Khayelitsha زن 2002 9 0 0 9 9 1045 Khayelitsha 1045 1045 زن 1045 1040 Khayelitsha Female 2002 11 0 0 9 9 1053 Khayelitsha Female 2002 12 0 0 6 6 بنابراین کاری که می خواهم انجام دهم این است: نسبت مجموع را که غیرطبیعی است مدل کنید تا بتوانم از این مدل ها برای نسبت دادن تعداد گمشده کل و غیرطبیعی استفاده کنم. دوره از دست رفته، و سپس از آنها برای یافتن طبیعی دوره از دست رفته استفاده کنید. سوال اصلی اکنون فقط مدل سازی است. من خیلی گیج شده ام که آیا باید از مدل های SARIMA/ARIMA/ARMA استفاده کنم (زیرا این تعداد بسیار کوچک هستند). من همچنین به نمونه‌هایی نگاه کرده‌ام که از مدل‌های فضای حالت و بازگشت‌های کالمن استفاده می‌کنند - اما خیلی گیج شده‌ام که از چه چیزی استفاده کنم؟ امیدوارم کسی بتواند در تمام سردرگمی هایم به من کمک کند.
نسبت زیرمجموعه ای از تعداد کل را مدل کنید تا تفاوت را تعیین کنید
45399
من نمی‌پرسم که آیا دو متغیر نرمال لاگ وابسته $X$ و $Y$ به طور مشترک log-normal هستند، آیا قطعات متقابل گاوسی مانند $\ln X$ و $\ln Y$ بطور مشترک نرمال خواهند بود؟ همچنین در مورد برعکس، اگر $\ln X$ و $\ln Y$ مشترکاً عادی باشند، $X$ و $Y$ مشترکاً log-normal یا عادی خواهند بود؟ من با نظریه احتمالات و به ویژه با مفهوم کوپولاس نسبتاً تازه کار هستم. آیا می توان از کوپولا در اینجا برای بدست آوردن فرمول استفاده کرد؟ هر گونه کمک یا راهنمایی بسیار قدردانی خواهد شد. :-)
روابط مشترک بین متغیرهای نرمال ورود به سیستم و قطعات متقابل گاوسی آنها
45391
من داده‌های عادی چند متغیره تصادفی را با استفاده از تابع «rmultnorm()» در R ایجاد می‌کنم، که به کاربران اجازه می‌دهد تا بردار میانگین جمعیت $k و یک ماتریس واریانس کوواریانس $k \times k$ را مشخص کنند. با توجه به $\newcommand{\Var}{\mathrm{Var}}\Var(X)$ و $\Var(Y)$، مرزهای مقادیر $\newcommand{\Cov}{\mathrm{ چیست؟ Cov}}\Cov(X, Y)$ آیا می توانم برای ماتریس واریانس-کوواریانس انتخاب کنم؟ آیا استفاده از ویژگی: \begin{align}\Var(X) + \Var(Y) = \Var(X+Y) - 2\Cov(X,Y)\end{align} و پیرسون منطقی است معادله ضریب همبستگی: \begin{align}-1 \leq \frac{\Cov(X,Y)}{\sqrt{\Var(X)\Var(Y)}} \leq 1 \end{align} برای تنظیم مرزهای بالا/پایین در $\Cov(X,Y)$؟
محدوده های Cov(X, Y) داده شده Var(X)، Var(Y)؟
13215
من یک مجموعه داده با مشاهدات از جمعیتی دارم که به صورت گرافیکی به عنوان روند سالانه توصیف شده است. به عنوان مثال - میزان عفونت مردان در سال، نرخ عفونت زنان در سال. آلودگی‌ها داده‌های شمارش انبوه هستند و داده‌های شمارنده مبتنی بر جمعیت در دسترس هستند. از کدام آزمایش آماری برای تعیین اینکه آیا روند زمانی عفونت مردانه با روند زمانی عفونت زنانه متفاوت است یا خیر، استفاده کنم. با تشکر
تفاوت بین روندهای زمانی
112821
من با آمار خلاصه ای از یک مطالعه مرتبط با ژنوم کار می کنم (مقدار p، نسبت شانس، خطای استاندارد). آمار آزمون در مجموعه داده باد شده بود، بنابراین من مجبور شدم این تورم را تصحیح کنم (با استفاده از اصلاح ژنومی). من اکنون مقادیر p را برای تورم تنظیم کرده‌ام و می‌خواهم اندازه اثر تخمینی را از نظر نسبت شانس و خطای استاندارد ارائه دهم. آیا راهی برای تخمین نسبت شانس و خطای استاندارد مربوطه با توجه به مقدار p وجود دارد؟
نسبت شانس و فاصله اطمینان را از p-value محاسبه کنید
44622
من در حال انجام یک تجزیه و تحلیل بر روی بخش بندی پیشینی هستم. به منظور بررسی تفاوت‌های معنی‌دار بین دو بخش از زبانه‌های متقاطع و آزمون کای اسکوئر استفاده شد. نوع متغیرها: طبقه بندی حجم نمونه: 253 برنامه مورد استفاده: SPSS نسخه 21. مشکل: از چند جهت، فرض آزمون کای دو برآورده نمی شود. در زیر برخی جداول نوشته شده است (به عنوان مثال): 4 سلول (22.2%) تعداد مورد انتظار کمتر از 5 را دارند. حداقل تعداد مورد انتظار 1.85 است یا 7 سلول (50.0%) تعداد مورد انتظار کمتر از 5 است. حداقل تعداد مورد انتظار 0.26 است. . یا 10 سلول (62.5%) تعداد مورد انتظار کمتر از 5 را دارند. حداقل تعداد مورد انتظار 0.26 است. در این صورت چه باید کرد؟ آیا باید از تست کای دو اجتناب کرد؟ کدام آزمون را می توان به جای آن استفاده کرد؟ ادبیات می گوید که برای جداول احتمالی 2×2 می توان از آزمون دقیق فیشر استفاده کرد. با جداول احتمالی بزرگتر (متغیرهایی که شامل چندین دسته هستند) چه باید کرد؟
وقتی فرضیات در آزمون مجذور کای برآورده نمی شوند چه باید کرد؟
29477
آیا راه آسانی در R برای ایجاد رگرسیون خطی روی مدلی با 100 پارامتر در R وجود دارد؟ فرض کنید یک بردار Y با 10 مقدار و یک دیتافریم X با 10 ستون و 100 سطر داریم در نماد ریاضی می‌نویسم Y = X[[1] + X[[2]] + ... + X[[ 100]]`. چگونه می توانم چیزی مشابه در دستور R بنویسم؟
چگونه یک فرمول مدل خطی با 100 متغیر در R بنویسیم
79725
چرا R-square و R-square تعدیل شده در بسیاری از موارد در جدول خلاصه رگرسیون در **تحلیل رگرسیون** به هم نزدیک نیستند؟
خلاصه رگرسیون در تحلیل رگرسیون
44623
گزینه ای برای انتخاب هسته در بسته penalizedSVM R وجود ندارد. از چه هسته ای استفاده می کنند؟ آیا بسته R دیگری با روش های SVM جریمه شده وجود دارد که بتوانم هسته های مختلف را انتخاب کنم؟
هسته در بسته PenalizedSVM R
44628
من از R با بسته های kernlab / caret استفاده می کنم و با SVM (`ksvm`) تجزیه و تحلیل می کنم. من از یک هسته مبتنی بر شعاعی برای طبقه بندی استفاده می کنم. من چند متغیر طبقه بندی دارم که به عنوان فاکتور در R تنظیم می شوند، بنابراین آنها به صورت داخلی به عنوان اعداد صحیح متمایز نشان داده می شوند. در مورد یک متغیر دسته بندی با 3 سطح، بگویید، آیا می توانم آن را به حال خود رها کنم و SVM به طور خودکار این کار را انجام می دهد: سطوح 1، 2، 3. یا باید آنها را در دو ستون مانند این کدنویسی کنم: x0 x1 0 0 = سطح 1 0 1 = سطح 2 1 0 = سطح 3 و غیره؟ من در اسناد نگاه کردم که به نظر می رسد اگر از رابط فرمول استفاده می کنید (که من این کار را انجام می دهم)، سپس این به طور خودکار مدیریت می شود: > اگر متغیرهای پیش بینی شامل فاکتورها هستند، رابط فرمول باید > استفاده شود تا یک ماتریس مدل صحیح به دست آید. آیا این به این معنی است که تا زمانی که از رابط فرمول استفاده می کنم، کدگذاری ساختگی برای من در پشت صحنه اتفاق می افتد؟
آیا متغیرهای طبقه بندی باید به صورت ساختگی در SVM کدگذاری شوند؟
14977
من وظیفه انجام یک بررسی سالانه ریسک و تقلب در محل کار را بر عهده دارم. من پیشینه آماری محدودی دارم و مطمئن نیستم بهترین راه برای نزدیک شدن به این موضوع چیست. هدف این نظرسنجی اندازه گیری نگرانی های مدیریت بالا در زمینه های مختلف است که نشان دهنده ریسک برای شرکت است و همچنین اندازه گیری سطح استرس و سایر عواملی که می تواند منجر به تقلب شود. آیا کسی پیشنهادی دارد که با توجه به اهداف نظرسنجی من، کدام روش نقشه برداری دقیق ترین پاسخ ها را ایجاد می کند؟ من در حال بررسی یک پرسشنامه مقیاس لیکرت هستم ... اندازه گروه 120 نفر با نرخ پاسخ پیش بینی شده 95٪ خواهد بود. نظرسنجی از طریق اشتراک گذاری در اینترانت ما انجام خواهد شد.
بهترین روش نظرسنجی برای انجام بررسی سالانه ریسک و تقلب چیست؟
1268
من از تجزیه ارزش منفرد به عنوان تکنیک کاهش ابعاد استفاده می کنم. با توجه به بردارهای «N» بعد «D»، ایده این است که ویژگی‌ها را در یک فضای تبدیل‌شده با ابعاد غیرهمبسته نشان دهیم، که بیشتر اطلاعات داده‌ها را در بردارهای ویژه این فضا به ترتیب اهمیت کاهش می‌دهد. اکنون سعی می کنم این روش را برای داده های سری زمانی اعمال کنم. مشکل این است که همه دنباله‌ها طول یکسانی ندارند، بنابراین من واقعاً نمی‌توانم ماتریس «تعداد به کم‌رنگ» را بسازم و SVD را اعمال کنم. اولین فکر من این بود که با ساختن یک ماتریس «num-by-maxDim» و پر کردن فضاهای خالی با صفر، ماتریس را با صفر پر کنم، اما مطمئن نیستم که آیا این روش درست است. سوال من این است که چگونه رویکرد SVD کاهش ابعاد را به سری های زمانی با طول های مختلف انجام می دهید؟ روش دیگر، آیا روش های مشابه دیگری برای نمایش فضای ویژه معمولاً با سری های زمانی استفاده می شود؟ در زیر قطعه ای از کد متلب برای نشان دادن این ایده وجود دارد: X = randn(100,4); % ماتریس داده با اندازه N-by-Dim X0 = bsxfun(@minus, X, mean(X)); % استاندارد [U S V] = svd(X0,0); % واریانس SVD = diag(S).^2 / (اندازه(X,1)-1); درصد واریانس در امتداد بردارهای ویژه KEEP = 2; % تعداد ابعاد برای حفظ newX = U(:,1:KEEP)*S(1:KEEP,1:KEEP); درصد کاهش و تبدیل داده ها (من بیشتر در متلب کدنویسی می کنم، اما به اندازه کافی راحت هستم که R/Python/.. را نیز بخوانم)
کاهش ابعاد SVD برای سری های زمانی با طول های مختلف
45393
من در حال جستجوی شباهت یک درخواست HTTP نسبت به تعداد آخرین N روز درخواستی هستم که سیستم من با استفاده از هش حساس به محلی بر اساس «تکنیک‌های تخمین شباهت از الگوریتم‌های گرد کردن» موسی چاریکار جمع‌آوری کرده است. برای محاسبه هش، من قصد دارم هر مشخصه را به عنوان یک بردار بیت بر اساس جدول فرکانس نشان دهم - به عنوان مثال، نام فروشنده به عنوان هدر HTTP ارسال شده است - جدول فراوانی جمعیت فعلی به این صورت است: Google Inc. 54960 Apple Computer, Inc. 36415 Sony Computer Entertainment Inc. 142 Maxthon Asia Ltd. 65 Adobe Systems Incorporated 28 Research In Motion Limited 24 Ubuntu 21 undefined 11 Camino 11 Apple Inc. 10 Yandex 8 Fedora 5 Red Hat 3 Linux Mint 2 CentOS 2 UCWEB 1 Sabayon 1 Gentoo 1 درخواست جدیدی بگیرید که مقدار آن «Apple Computer, Inc» است. بردار بیت برای آن ویژگی خواهد بود: [0،1،0،0،...] بیت دوم 1 است زیرا Apple Computer, Inc. در جدول فرکانس بالا رتبه دوم را دارد. این امر مستلزم محاسبه مجدد این بردار بر اساس دوره‌ای است زیرا فرکانس‌های ارزش در طول زمان تغییر می‌کنند. مهمتر از آن، این امکان وجود دارد که مقداری در این جدول وجود نداشته باشد. برای مقادیری که وجود ندارند، آخرین بیت بردار ویژگی خود را برگردانم. به عنوان مثال، اگر مقدار Some Other Vendor بود، بردار ویژگی این بود: [0,0,0,0...1] بنابراین با فرض اینکه هیچ کس به نقص جدی دیگری در تفکر من اشاره نکند، به آنچه فکر می کنم about اگر **_آماری_** روش معتبری برای حذف مقادیر نادر وجود داشته باشد - به عنوان مثال. جنتو و سابایون - و فقط با هر دوی آنها به عنوان دیگری رفتار می کنیم. از آنجایی که این داده‌های طبقه‌بندی هستند، به نظر من هیچ روش معنی‌داری برای محاسبه میانگین و انحراف معیار وجود ندارد: به طوری که بتوانم آن مقادیر را حذف کنم، مثلاً 3 انحراف از میانگین.
نسبت به یک جمعیت: روش آماری معتبر برای طبقه بندی چیزی به عنوان دیگر؟
20013
من یک سوال در مورد انتخاب آزمون آماری مناسب دارم به شرح زیر: گروهی از افراد در یک دوره آموزشی شرکت می کنند تا بررسی کنم که آیا دوره آموزشی در افزایش دانش شرکت کنندگان موثر است یا خیر. ما کارهای زیر را انجام دادیم: 1. شرکت کنندگان یک پیش آزمون (فقط درست یا نادرست) را قبل از آموزش تکمیل می کنند. 2. شرکت کنندگانی که در آموزش شرکت می کنند 3. شرکت کنندگان یک پس آزمون (فقط درست یا نادرست) پس از آموزش هم قبل و هم پس از آموزش کامل می کنند. آزمون ها دقیقاً سؤالات مشابهی دارند، آزمون با بارکد برچسب گذاری شده است تا بتوانیم پیش و پس آزمون را جفتی ردیابی کنیم. با تفکیک بیشتر **سوال** تحقیق می توان آن را به دو بخش تقسیم کرد: **1\. آیا آموزش به طور کلی موثر است ** **2\. آیا آموزش می تواند پاسخگویی به یک سوال خاص (مورد) را بهبود بخشد** برای سوال 1، به نظر من آزمون t زوجی مناسب خواهد بود: تمام آزمون را علامت گذاری می کنیم، هر شرکت کننده یک نمره پیش آزمون و یک نمره پس آزمون خواهد داشت. ، به ترتیب میانگین نمره پیش آزمون و پس آزمون را می گیریم و سپس سراغ آزمون t زوجی می رویم. برای سوال 2، در ابتدا به فکر انجام یک آزمون مک نمار هستم: به عنوان پاسخ برای هر سوال در پیش آزمون و پس آزمون می توان مطابقت داد. من برای انجام چنین کاری برنامه ریزی کردم. اما سپس روش جایگزینی را دریافت کردم که مطمئن نیستم مناسب است یا خیر: 1. تعداد شرکت کنندگانی که در پیش آزمون به سؤال X به درستی پاسخ داده اند را بشمارید و آن را بر تعداد کل شرکت کنندگان به سؤال X تقسیم کنید. به درصد تبدیل می شود 2. همین کار را در پس آزمون انجام دهید، بنابراین ما در اینجا دو درصد داریم. زیرا داده های طبقه بندی شده قبلاً به داده های پیوسته تبدیل شده اند. شاید پیشنهاد دهنده به طور تصادفی کلمه جفت را اضافه کند و در واقع منظور او فقط تست باشد. اما من هنوز تعجب می کنم که چرا اطلاعات را بر اساس جفت شدن کنار می گذاریم. **چند سوال اینجا**: 1. برای سوال 1، آیا استفاده از آزمون t زوجی مناسب است؟ 2. برای سوال 2 آیا آزمون مک نمار مناسب است؟ 3. برای سوال 2، آیا آزمون t هنوز مناسب است؟ آیا دلیلی وجود دارد که «تست» ترجیح داده شود؟ با تشکر
آزمون مک نمار یا آزمون تی برای اندازه‌گیری معنی‌داری آماری نتایج تطبیق‌شده قبل از پس آزمون
20011
اخیراً دو مقاله خواندم. اولی درباره تاریخچه همبستگی و دومی در مورد روش جدیدی به نام ضریب اطلاعات حداکثر (MIC) است. برای درک روش MIC برای تخمین همبستگی های غیرخطی بین متغیرها به کمک شما نیاز دارم. علاوه بر این، دستورالعمل‌های استفاده از آن در R را می‌توان در وب‌سایت نویسنده (در زیر دانلودها) یافت: امیدوارم این بستر خوبی برای بحث و درک این روش باشد. علاقه من به بحث در مورد شهودی که در پس این روش وجود دارد و اینکه چگونه می توان آن را گسترش داد همانطور که نویسنده گفت. _...ما به پسوندهای MIC(X,Y) به MIC(X,Y|Z) نیاز داریم. ما می خواهیم بدانیم چه مقدار داده برای بدست آوردن تخمین های پایدار MIC مورد نیاز است، چقدر نسبت به موارد دورافتاده حساس است، چه مقدار داده است. روابط سه بعدی یا بالاتر را از دست خواهد داد، و MIC یک گام عالی به جلو است، اما گام های بیشتری برای برداشتن وجود دارد.
آیا می توان الگوریتم MIC برای تشخیص همبستگی های غیر خطی را به طور مستقیم توضیح داد؟
55776
من مشکل زیر را دارم من مجموعه‌ای از داده‌ها دارم که سعی می‌کند پیش‌بینی کند که آیا یک رویداد خرید مشخص اتفاق می‌افتد یا نه (0/1) وقتی مشتری یک محصول خاص را می‌بیند، و من ویژگی‌هایی را هم برای مشتری و هم برای محصول ایجاد کرده‌ام (من استثنا می‌کنم ماهیت مجموعه داده ها و موضوعات مرتبط برای ساده نگه داشتن کارها). من یک طبقه بندی کننده (جنگل تصادفی R) می سازم و موارد زیر را نتیجه می دهم. واقعی 0 1 پیش‌بینی‌شده 0 0.97 0.03 1 0.13 0.87 به‌طور جداگانه، من پیش‌بینی‌هایی را برای احتمال فروش یک محصول معین دارم. یعنی تعداد مشتریانی که یک محصول خاص را می خرند تقسیم بر تعداد مشتریانی که آن محصول را مشاهده کرده اند. سوال من دو برابر است 1) وقتی مدل را برای یک مشتری و ترکیب محصول معین اجرا می کنم، تخمین احتمالی خرید را دریافت می کنم (که توسط تابع پیش بینی با type=prob ارائه می شود). چگونه می توانم این را با دانش قبلی در مورد نرخ فروش از طریق محصول ترکیب کنم؟ 2) آیا این حتی رویکرد درستی است؟
استفاده از امتیازات احتمال از یک جنگل تصادفی
887
فرض کنید یک جمعیت بسیار بزرگ (بی نهایت؟) از مقادیر معمولی توزیع شده با میانگین و واریانس ناشناخته وجود دارد. همچنین فرض کنید که ما یک نمونه، _S_، از مقادیر _n_ از کل جامعه داریم. ما می توانیم میانگین و انحراف معیار را برای این نمونه محاسبه کنیم (برای محاسبه stdev از _n-1_ استفاده می کنیم). اولین و مهمترین سوال این است که stdev(S) چگونه با انحراف معیار کل جمعیت مرتبط است؟ مثالی برای این موضوع سوال دوم است: فرض کنید یک عدد اضافی داریم، _x_، و می‌خواهیم آزمایش کنیم که آیا این عدد نسبت به جمعیت عمومی است یا خیر. رویکرد شهودی من این است که Z را به صورت زیر محاسبه کنم: Z = (x - mean(S))/stdev(S) و سپس آن را در برابر توزیع استاندارد اگر _n>30_ یا در برابر توزیع t اگر _n <30_ آزمایش می‌کنیم. با این حال، این رویکرد برای _n_، اندازه نمونه به حساب نمی آید. راه درست برای حل این سوال به شرط اینکه فقط یک نمونه _S_ وجود داشته باشد چیست؟
سوال اساسی در مورد واریانس و stdev یک نمونه
55772
من باید چند تست آماری را روی یک پرسشنامه انجام دهم و نمی دانم کدام تست را باید انجام دهم. پرسشنامه به عنوان درست یا غلط علامت گذاری شده است و من حدود 60 نفر نتیجه دارم. تست هایی که من نیاز دارم شامل؛ 1. اگر افراد مختلف از دانش بهتری برخوردار باشند (این افراد به دو گروه کوچکتر و بزرگتر تقسیم می شوند). 2. آیا دانش مردم پس از دریافت اطلاعات در مورد موضوع افزایش یافته است. سوالات در پرسشنامه قبل و بعد متفاوت است و اینکه کدام یک اول داده شده است به صورت تصادفی تخصیص داده شده است. من به این فکر کردم که تست t جفت نشده برای 1، تست t زوجی برای 2 انجام دهم، اما برای این نوع داده ها آیا باید تست نرمال بودن انجام دهم؟ آیا حتی باید تست های پارامتریک انجام دهم؟ من فکر می‌کنم اینها باید دو طرفه باشند، اما احتمالاً فرض می‌شود که اگر اطلاعاتی در مورد موضوعی به مردم بدهید دانش آنها بهبود می‌یابد؟ برای هر کمکی از شما متشکرم
از چه آزمون آماری برای پرسشنامه خود استفاده کنم
58559
من تازه شروع به یادگیری در مورد پیش بینی کرده ام. فکر می‌کردم ایجاد مدل‌های پیش‌بینی برای سری‌های زمانی روزانه آسان باشد، اما با تعدادی از مشکلات مواجه شده‌ام. اولاً اکثر نمونه ها و مجموعه داده های موجود یا در ماه یا سه ماهه هستند. به ندرت می توان نمونه هایی را برای هفته ها و روزها پیدا کرد. ثانیاً ایجاد یک شیء سری زمانی برای روزها (365) و هفته ها (52) نیز دشوار به نظر می رسد زیرا این موارد بین سال ها متفاوت است. این ممکن است روشی باشد که شی timeseries در R کار می کند. من مجبور شدم از Zoo استفاده کنم. من همچنین نگران این هستم که داده‌های من برای استفاده در بسته‌هایی مانند Forecast و HTS به درستی مدل‌سازی نشده باشند. من علاقه مندم که چگونه به بهترین شکل به این مشکل برخورد کنم. هر نمونه ای از پیش بینی رویدادهای روزانه که ممکن است در طول سال ها چرخه داشته باشند، بسیار قابل قدردانی خواهد بود.
رویکردهای پیش‌بینی با سریال‌های زمانی روزانه
23411
> **تکراری احتمالی:** > چگونه می توانم اطمینان حاصل کنم که داده های آزمایشی به داده های آموزشی نشت نمی کنند؟ برازش بیش از حد آشکارا یک مشکل مهم در یادگیری ماشینی است...شاید مهم ترین مشکل. من معتقدم دلیل اصلی آن این است که اغلب آسان است که به طور تصادفی به روش‌های ظریف، به‌ویژه در مورد انتخاب مدل، بیش‌ازحد قرار دهیم. بنابراین فرض کنید شخصی داریم که یک مدل پیش‌بینی می‌سازد، اما او لزوماً در اصول صحیح آماری یا یادگیری ماشینی مهارت کافی ندارد. شاید ما در حال یادگیری به آن شخص کمک می‌کنیم، یا شاید آن شخص از نوعی بسته نرم‌افزاری استفاده می‌کند که به حداقل دانش برای استفاده نیاز دارد. اکنون این شخص ممکن است به خوبی تشخیص دهد که آزمون واقعی از دقت (یا هر معیار دیگر) در داده های خارج از نمونه حاصل می شود. با این حال، نگرانی من این است که نکات ظریف زیادی وجود دارد که باید در مورد آنها نگران بود: بیش از حد تناسب هنوز یک خطر است. در حالت ساده، آنها مدل خود را می سازند و آن را بر روی داده های آموزشی ارزیابی می کنند و آن را بر روی داده های آزمایشی نگه داشته شده ارزیابی می کنند. متأسفانه گاهی اوقات در آن نقطه بسیار آسان است که به عقب برگردید و برخی از پارامترهای مدل سازی را تغییر دهید و نتایج را روی همان داده های تست بررسی کنید. در این مرحله، داده‌ها دیگر داده‌های خارج از نمونه واقعی نیستند، و تطبیق بیش از حد می‌تواند به یک مشکل تبدیل شود. یکی از راه‌های بالقوه برای حل این مشکل، پیشنهاد ایجاد مجموعه‌های داده خارج از نمونه است، به گونه‌ای که هر مجموعه داده آزمایشی می‌تواند پس از استفاده دور ریخته شود و اصلاً مورد استفاده مجدد قرار نگیرد. اگرچه این نیاز به مدیریت داده های زیادی دارد، به خصوص اینکه تقسیم باید قبل از تجزیه و تحلیل انجام شود (بنابراین باید از قبل بدانید که چند تقسیم شده است). شاید یک رویکرد مرسوم تر، اعتبار سنجی متقابل k-fold باشد. با این حال، به نوعی تمایز بین مجموعه داده آموزش و آزمایش را که به نظر من می تواند مفید باشد، به ویژه برای کسانی که هنوز در حال یادگیری هستند، از دست می دهد. همچنین من متقاعد نیستم که این برای همه انواع مدل های پیش بینی منطقی باشد. آیا راهی وجود دارد که برای کمک به غلبه بر مشکل نصب بیش از حد و آزمایش نشتی در حالی که هنوز برای یک کاربر بی تجربه تا حدودی روشن است، نادیده گرفته ام؟
چگونه می توانم اطمینان حاصل کنم که داده های آزمایشی به داده های آموزشی نشت نمی کنند؟
40810
من در حال انجام تحقیقی بر اساس ترافیک بین ISP برنامه های کاربردی P2P هستم. من مقدار قابل توجهی از داده های آزمایشی دنیای واقعی را با بهینه سازی اعمال شده و بدون آن جمع آوری کرده ام. با این حال طول مجموعه داده متفاوت است (55000 در مقابل 65000). دو میانگین 5.0 و 8.55 و دو واریانس 7.996 و 42.85 هستند. (< 2.2e-16) آیا راه خوبی برای گفتن اینکه با بهینه سازی به خوبی کار می کند وجود دارد؟ (با مقایسه میانگین ها به خوبی کار می کند زیرا 5.0 هاپ پیشرفت خوبی در مقایسه با 8.55 است)
آزمون آماری برای دو مجموعه داده با واریانس و میانگین متفاوت
91451
من 10 نفر با هم کار می کنم. آنها به مدت 6 روز به صورت گروهی کار می کنند. سه روز در هفته 1، سه روز در هفته 2. در هر روز من مجموعه کامل افراد را ندارم، بلکه یک زیر مجموعه از آنها را دارم. در هر روز عملکردهای فردی را می سنجم. باید بگویم که آیا عملکرد کلی در هفته 1 یا 2 بالاتر بود. بنابراین من قصد داشتم یک آزمون t را روی دو گروه مانند این انجام دهم: **گروه 1 - هفته 1** - روز اجرای پل 1 - مری روز اجرا 1 - روز اجرای جان 1 - روز اجرای پل 2 - روز اجرای سارا 2 - روز اجرای جسیکا 3 - اجرای سارا روز سوم **گروه2 - هفته 2** -اجرای پل روز چهارم - روز چهارم اجرای ریتا - روز پنجم اجرای جان - روز پنجم اجرای پل - روز پنجم اجرای سارا - روز ششم اجرای جسیکا - روز ششم اجرای ریتا آیا می توانم دو گروه را مستقل در نظر بگیرم و یک تست تی مستقل انجام دهم؟ نگرانی من در مورد افراد مختلف در هر روز و اندازه های مختلف گروه های کاری برای هر روز است. من هم نگرانم چون در روزهای مختلف و در هر دو گروه افراد مشابهی دارم. بنابراین به نظر می رسد نمونه ها با هم همپوشانی دارند. آیا می توانید بهترین راه را به من پیشنهاد دهید که بگویم عملکرد عمومی در هفته 1 یا 2 بهتر بود؟
آزمون t نمونه همپوشانی
20014
چیزی که من می‌خواهم ابزاری است که یک متغیر ترتیبی و گسسته را در برابر یک توزیع احتمال خاص آزمایش کند، مثلاً متغیر ممکن است 4 مقدار داشته باشد، 1، 2، 3، 4، و توزیع احتمال مورد انتظار من این است که 10٪ 1، 50 باشد. % 2، 30 % 3 و 10 % 4 خواهد بود. از چه برنامه یا برنامه ای برای بررسی اینکه آیا یک مجموعه داده تجربی از مقدار مورد انتظار می آید یا نه، باید استفاده کنم. توزیع، یا اگر به طور قابل توجهی از آن انحراف داشته باشد؟ چگونه آن را انجام دهم؟
آزمایش در برابر توزیع احتمال سفارشی
87739
من یک رگرسیون لجستیک مرتب شده ساده را تخمین می زنم - در واقع، من این را به یک مدل چند سطحی گسترش می دهم، اما نمی توانم مدل ترتیبی ساده را همگرا کنم. داده ها داده های پانل سه موجی هستند، بنابراین 3 ردیف برای هر شرکت کننده در فایل داده من وجود دارد. متغیر وابسته می تواند در سراسر این امواج تغییر کند، همانطور که متغیر مستقل اولیه می تواند متفاوت باشد. با این حال، به دلایلی، پسین همه متغیرها در صفر گیر کرده است. شک ندارم دارم اشتباه احمقانه ای می کنم، اما نمی توانم بفهمم کجاست. این کد برای ایجاد داده است: data.jags\$y<-data.jags\$y[drop.x] data.jags\$x<-data.jags\$x[drop.x,] data.jags \$b0 <- rep(0,2) data.jags\$B0 <- diag(1E-8,2) inits.1 <- list(beta=rep(0,2), tau0=seq(-2,2,length=6)) و این مدل است: model{ for(i در 1:N){ mu[i] <- x[i,1]*بتا[1] +x[ i,2]*beta[2] logit(Q[i,1]) <- tau[1]-mu[i] p[i,1] <- Q[i,1] for(j در 2:6 ){ logit(Q[i,j]) <- tau[j]-mu[i] p[i,j] <- Q[i,j] - Q[i,j-1] } p[i,7] <- 1 - Q[i,6] y[i] ~ dcat(p[i,1:7]) } بتا[1:2] ~ dmnorm(b0[],B0[,]) برای (j در 1:6){ tau0[j] ~ dnorm(0,.01) } tau[1:6] <- sort(tau0) } اما این چیزی است که من همیشه مشاهده می کنم (در زیر نمونه با یک زنجیره کوتاه است): خروجی< -jags(data.jags، model.file=ologit.bug، parameters.to.save=c(بتا)، n.chains=1، n.iter=100، n.burnin=5، n.thin=5، DIC=TRUE، inits=list(inits.1)) استنتاج برای مدل Bugs در ologit.bug، متناسب با استفاده از جگ ها، 1 زنجیره، هر کدام با 100 تکرار (5 مورد اول حذف شده)، n.thin = 5 n.sims = 19 تکرار ذخیره شده mu.vect sd.vect 2.5% 25% 50% 75% 97.5% بتا[1] 0.0 0.000 0.00 0.00 0.00 0.00 0.00 beta[2] 0.0 0.000 0.00 0.000 0.00. 26883.8 28.354 26870.49 26872.34 26875.22 26877.95 26959.67 هر گونه کمکی بسیار قدردانی می شود! با تشکر فراوان.
رگرسیون لجستیک مرتب شده در JAGS
40818
از ویکی‌پدیا > حجم نمونه، میزان خطای نمونه‌گیری ذاتی در یک آزمون > را تعیین می‌کند. اگر سایر موارد برابر باشند، تشخیص اثرات در نمونه های کوچکتر سخت تر است. **افزایش حجم نمونه اغلب ساده ترین راه برای افزایش > قدرت آماری یک آزمون است.** تعجب می کنم که چرا اغلب گفته می شود که حجم نمونه بزرگتر می تواند قدرت (یعنی نرخ مثبت واقعی) یک آزمون را افزایش دهد **در عمومی **. آیا حجم نمونه بزرگتر **همیشه** قدرت تست را افزایش می دهد؟ **افزوده شد:** فرض کنید در هر اندازه نمونه $n$، اگر $T_n(X) \geq c_n$، null را رد کنید. اینکه چگونه توان با $n$ تغییر می کند بستگی به این دارد که $T_n$ و $c_n$ چگونه بر حسب $n$ تعریف شده اند، اینطور نیست؟ حتی اگر $c_n$ طوری انتخاب شود که اندازه قانون تست مقدار $\alpha \in [0,1]$ ثابت برای همه مقادیر $n$ باشد، آیا قدرت لزوما با $n$ افزایش می‌یابد؟ از توضیحات دقیق و شهودی هر دو استقبال می شود. با تشکر
چرا حجم نمونه بزرگتر می تواند قدرت تست را افزایش دهد؟
18379
> اجازه دهید $X_1,X_2,X_3,\cdots,X_9$ یک نمونه تصادفی با اندازه $9$ از توزیع نرمال > $\mathcal{N}(\mu,\sigma^2)$ باشد. اگر $\sigma$ ناشناخته است، مقدار > مورد انتظار طول بازه اطمینان $95\%$ را برای $\mu$ > پیدا کنید، مشروط بر اینکه این فاصله بر اساس متغیر تصادفی > $3(\overline{X}-\mu باشد. )/S$. میشه لطفا در مورد این سوال کمکم کنید؟ من در حال مبارزه با نحوه انجام این کار هستم. من می دانم که وقتی $\sigma$ ناشناخته است از توزیع Student t استفاده می کنید، اما مطمئن نیستم که چگونه آن را در انتظار ادغام کنم. با تشکر از کمک.
انتظار طول یک بازه اطمینان
8787
من به دنبال هر مرجعی در مورد مدل پنهان و مختلط خطی تعمیم یافته (GLLAMM) برای عوامل متقاطع هستم که هم مدل اندازه گیری و هم مدل ساختار یافته GLLAMM را شامل می شود (مشکل زیر را ببینید). هر گونه کمک در این زمینه بسیار قدردانی خواهد شد. **مشکل:** یک محقق چهار پاسخ Y1، Y2، Y3، و Y4 را به همراه سه متغیر کمکی X1، X2 و X3 از آزمایشی که شامل ترکیبات تیمار ab از یک عامل ثابت A با سطوح و یک عامل تصادفی B با سطوح b. بر اساس تجربه گذشته، فرض بر این است که چهار پاسخ با هم مرتبط هستند و Y1 نیز تحت تأثیر سه پاسخ دیگر (Y2، Y3 و Y4) قرار دارد. این مجموعه داده را می توان توسط GLLAMM در Stata تجزیه و تحلیل کرد.
مدل خطی تعمیم یافته نهفته و مختلط (GLLAMM) برای عوامل متقاطع
91453
من یک سؤال نظرسنجی با پنج گزینه دارم و از پاسخ دهندگان می خواهم که گزینه برتر خود را انتخاب کنند. از چه آزمونی باید استفاده کنم تا بفهمم که پاسخی که رای داده شده برتر از نظر آماری محبوب‌تر از پاسخ‌های دیگر است؟ چگونه می توانم برای هر پاسخ یک فاصله اطمینان ایجاد کنم؟ آیا رویکرد بیزی متفاوتی برای این مشکل وجود دارد؟
آزمون فرضیه سوال چند گزینه ای با تک پاسخ
40812
چگونه می توان ثابت کرد که برای متغیرهای تصادفی $A$ و $B$، و $C = A + B$، $$H(C\mid A) = H(B\mid A).$$ همچنین، آیا آیا می توان تعیین کرد که آیا $H(C)$ بزرگتر از $H(A)$ خواهد بود؟
آنتروپی شرطی مجموع متغیرهای تصادفی
29479
چگونه می توانم فاصله اطمینان 95% را برای ضرایب سطح ANOVA بدست بیاورم؟ برای مقایسه با یک مقدار ثابت، نه مقایسه چندگانه (مانند MMC). من سعی کردم SE ضریب را از مدل بگیرم: > m1 = lm (فرمول = TrendAdd ~ 0 + Migrace) > c = coef(summary(m1)) > c Estimate Std. خطای t مقدار Pr(>|t|) MigraceB -0.0084214286 0.006555969 -1.28454367 0.2019195 MigraceD 0.0032250000 0.007510806 0.007510806 0.449 0.429 0.429 0.0006068966 0.007889737 0.07692228 0.9388391 > c_low = c[,1] - 1.96*c[,2] > c_high = c[,1] + 1.96*c[,2] B1grace[,2] BR21 -0 Miace -0.01149618 -0.01485699 > c_high MigraceB MigraceD MigraceR 0.004428271 0.017946180 0.016070782 اما من مطمئن نیستم که این درست باشد! نتایج متفاوتی نسبت به زمانی که من آزمون t را در هر سطح از «Migrace» اجرا می‌کنم (فاصله‌های t.test بزرگتر است): > t.test(TrendAdd[Migrace == B]) یک نمونه از داده‌های آزمون t: TrendAdd [Migrace == B] t = -1.206، df = 41، p-value = 0.2347 فرضیه جایگزین: میانگین درست نیست معادل 0 95 درصد فاصله اطمینان: -0.022523452 0.005680595 برآورد نمونه: میانگین x -0.008421429 چرا تفاوت وجود دارد و چگونه آن را به درستی انجام دهیم؟
تفاوت بین CI ضرایب سطح ANOVA در مقابل آزمون t CI - کدام یک صحیح است؟
31989
آیا روشی برای انجام یک ANOVA اندازه گیری های مکرر ناپارامتریک در یک طرح تکراری وجود دارد؟ من از یک رویکرد ناپارامتریک استفاده می کنم زیرا متغیر پاسخ از مفروضات پارامتریک عبور نمی کند و تبدیل Box-Cox کار نمی کند. من یک طرح با 4 تیمار (نوع زیستگاه) دارم که هر کدام 10 برابر تکرار شده است (قطعات حداقل 300 متر دورتر) و در سه بار متوالی (اقدامات مکرر) از هر تکرار اقداماتی (احتمال شکار) انجام دادم. من باید آزمایش کنم که آیا درمان ها بر شکار تأثیر دارند یا خیر.
ANOVA اندازه گیری های مکرر غیر پارامتری