_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
16516
چگونه می توانم فاصله اطمینان یک میانگین را در یک نمونه غیرعادی محاسبه کنم؟ من می‌دانم که روش‌های بوت استرپ معمولاً در اینجا استفاده می‌شوند، اما من به گزینه‌های دیگر باز هستم. در حالی که من به دنبال یک گزینه ناپارامتریک هستم، اگر کسی بتواند من را متقاعد کند که یک راه حل پارامتریک معتبر است، خوب است. حجم نمونه > 400 است. اگر کسی بتواند نمونه ای به زبان R بدهد، بسیار متشکر خواهد بود.
11176
Heathcote، Brown & Mewhort (2002، PDF) تخمین حداکثر احتمال چندکی (در ابتدا به عنوان تخمین حداکثر احتمال چندگانه نامیده می‌شد اما بعداً اصلاح شد) را به عنوان روشی برای برازش داده‌های توزیعی ارائه می‌کنند و دریافتند که حداقل از روش سنتی‌تر تخمین حداکثر احتمال مستمر بهتر عمل می‌کند. در مورد برازش داده‌ها به گاوسی سابق (اگرچه همچنین ببینید این مقاله نشان می‌دهد که این مزیت به سایر توزیع‌ها نیز تعمیم می‌یابد). من در تلاش برای درک مراحل واقعی برای دستیابی به QMPE هستم. من می‌دانم که ابتدا احتمالات چندک افزایشی و مساوی را مشخص می‌کند، سپس از آنها برای به دست آوردن مقادیر کمیت ('q') در داده‌های مشاهده‌شده مربوط به این احتمالات استفاده می‌کند. همچنین می‌دانم که این مقادیر کمیت مشاهده‌شده در شمارش تعداد مشاهدات بین هر چندک («N») استفاده می‌شود. اما اینجا جایی است که من گیر کرده ام. احتمالاً فرد در فضای پارامترهای هر مدل پیشینی که فرض می‌کند داده‌ها را تولید کرده است، جستجو می‌کند، و به دنبال مجموعه پارامترهایی می‌گردد که احتمال مشترک «q» و «N» را به حداکثر می‌رساند. با این حال، نمی دانم با توجه به مجموعه ای از پارامترهای کاندید، این احتمال مشترک چگونه محاسبه می شود. بدون داشتن پیش‌زمینه ریاضی قوی، در کد بسیار بهتر فکر می‌کنم، بنابراین اگر کسی می‌تواند به من کمک کند تا ببینم چه چیزی در آینده وجود دارد، بسیار سپاسگزار خواهم بود. در اینجا شروع تلاش برای تطبیق برخی از داده‌ها با یک گاوسی سابق است: #تولید برخی داده‌ها به تناسب true_mu = 300 true_sigma = 50 true_tau = 100 my_data = rnorm(100,true_mu,rue sigma)+rexp(100,1/true_ ) #انتخاب برخی از احتمالات; تخمین چندک ها و شمارش های بین چندکی از داده های مشاهده شده quantile_probs = seq(.1,.9,.1) #یا آیا باید seq(0،1،.1) باشد؟ q = quantile( my_data, probs = quantile_probs, type = 5 ) #Heathcote و همکاران ظاهراً از type=5 با توجه به مثال خود N = rep(NA , length(q)-1) برای (i در 1:( length(q) استفاده می کنند. -1 ) ){ N = طول( my_data[ (my_data>q[i]) & (my_data<=q[i+1]) ] ) } #مشخص برخی از مقادیر پارامتر کاندید برای ارزیابی (معمولاً به عنوان بخشی از یک جستجوی تکراری با استفاده از بهینه‌ساز مانند optim انجام می‌شود) kandidat_mu = 350 kandidat_sigma = 25 kandidat_tau = 30 #با توجه به این کاندیداها، بعد چه می‌شود؟
آیا کسی می تواند تخمین حداکثر احتمال چندک (QMPE) را توضیح دهد؟
4708
من به دنبال روشی برای آزمایش برابری دو تابع چگالی تجمعی هستم.
80537
فیلتراسیون چیست؟
28377
آیا کسی می تواند به من کمک کند تا آزمایشم را مرتب کنم؟ من چندین سال پیش چند کلاس آماری داشتم و اجازه دادم بیشتر آن از بین برود. آیا کسی می تواند بینش آماری راه بهتری برای تجزیه و تحلیل داده ها ارائه دهد. من مجموعه ای از داده ها با آنچه که می گوییم موش هایی دارم که تحت درمان قرار گرفتند و بسیاری از آنها مردند، برخی زنده ماندند و برخی دیگر بهبود یافتند. من در حال مطالعه خصوصیات بازماندگان و بهبود یافته‌های احتمالی هستم. 76 موش به عنوان بخشی از آزمایش وجود داشت. متوجه شدم که موش‌ها گاهی از ژن‌های یکسانی بودند، بنابراین یک برگه اکسل جداگانه برای حداکثر میزان بقا برای هر جنس ایجاد کردم و 27 موش باقی مانده بود. من مجموعه داده‌ها را به‌وسیله خانواده که حداکثر بازمانده را گرفته و بقیه را دور انداختم فیلتر کردم و برگه‌ای با 13 موش در آن ایجاد کردم. من در حال تجزیه و تحلیل ویژگی های هر موش و استفاده از آزمون t و تابع همبستگی اکسل هستم. من این صفحه وب http://vassarstats.net/rsig.html را پیدا کردم و بنابراین تمام همبستگی هایی که مقدار p کمتر از 0.05 داشتند را به عنوان معنی دار برجسته کردم، سپس یک آزمون 1 دنباله t زوجی را اجرا کردم و متوجه شدم که چند نمونه با همبستگی خوب مقدار p بیشتر از 0.05 بود و من آن نتایج را برجسته کردم. مجموعه داده های اصلی با 76 موش حداکثر همبستگی من 26 درصد با میزان بقا برای مجموعه داده های جنس با 27 موش حداکثر همبستگی 38 درصد و برای مجموعه داده های خانواده با 13 موش در آن حداکثر همبستگی 56 درصد بود. من می‌دانم که همبستگی‌ها در نشریات علمی نادیده گرفته می‌شوند، بنابراین آزمون t را نیز انجام دادم، اما فکر نمی‌کنم آن را درست انجام دهم. مشخصه های بسیار کمی وجود داشت که مقدار ttest p > 0.05 در مجموعه داده های عمومی و مجموعه داده های جنس داشتند. در مجموعه داده‌های اصلی با 76 موش، دو مشخصه 156/0=p و 131/0 داشتند اما به هیچ وجه با همبستگی‌ها مطابقت نداشتند. در مجموعه داده های جنس، آزمون t به نظر می رسد با همبستگی ها بهتر مطابقت دارد. 4 مشخصه با p = 0.098، 0.38، 0.05 و 0.11 وجود دارد و در نهایت در مجموعه داده های خانواده یک عدد عظیم 62 با p>.05 وجود دارد. ممنون که سوال من را خواندید و کمک کردید :) ویرایش: من داده ها را با همبستگی پیرسون اجرا کردم و مشابه آن بود. همچنین قبلاً در مجموعه داده متوجه شدم که برخی از موش‌ها چندین نمونه از آنها گرفته بودند و من این نتایج را ترکیب کردم. من همچنین تابع رگرسیون را از تجزیه و تحلیل داده ها روی چند نمونه اجرا کردم و احتمال مشاهده 04/0 و 02/0 بود.
ویژگی های آزمایش موش های زنده مانده
100606
طبقه بندی با داده های دارای برچسب اشتباه
6974
مشکل من این است: 52 نفر هستند که به 5 گروه تقسیم می شوند: A، B، C، D و E. از مرحله 1 تا مرحله 2 یا در همان گروه می مانند، یا گروه را تغییر می دهند. جدول زیر نشان می دهد که چند نفر از گروه مرحله 1 خود به گروه مرحله 2 برای همه جفت ها تغییر می کنند. مرحله 1 مرحله 2 گروه A گروه B گروه C گروه D گروه E ------------------------------------ ---------------------- گروه A 18 0 0 0 2 گروه B 0 6 0 0 3 گروه C 4 0 2 0 2 گروه D 0 0 0 0 0 گروه E 4 2 0 1 8 به عنوان مثال. 18 نفر از گروه A به گروه A تغییر می کنند (یعنی گروه خود را حفظ می کنند). 2 + 3 + 2 نفر از گروه های A، B، C، D به گروه E تغییر می کنند. اکنون ادعاهای من این است: 1. 65٪ افراد (18 + 6 + 2 + 0 + 8 = 34 از کل 52، مورب) گروه ها را تغییر ندهید. 2. 15 درصد افراد (8 از 52) از گروه دیگری به گروه A تغییر می کنند. 3. 13 درصد افراد (7 از 52) از گروه دیگری به گروه E تغییر می کنند. من می خواهم این ادعاها را با آمار صحیح تأیید کنم. تست کنید. کدام یک برای استفاده مناسب است؟ من می دانم که اعداد کوچک هستند، بنابراین هر آزمایشی ممکن است غیر قابل اعتماد باشد، اما کنجکاو هستم که بدانم به هر طریقی چه آزمایشی خواهد بود. هر ایده ای؟
آزمون آماری مناسب برای تأیید ادعاهایی مانند 60٪ افراد از گروه A به گروه B تغییر یافته اند چیست؟
1296
من آشکارساز دارم که یک رویداد را با احتمال کمی _p_ شناسایی می کند. اگر آشکارساز بگوید که یک رویداد رخ داده است، پس همیشه همینطور است، بنابراین مثبت کاذب وجود ندارد. پس از مدتی اجرای آن، رویدادهای _k_ شناسایی می‌شوند. من می خواهم تعداد کل رویدادهایی را که رخ داده است، شناسایی شده یا غیره، با کمی اطمینان، مثلاً 95٪، محاسبه کنم. به عنوان مثال، فرض کنید من 13 رویداد شناسایی می کنم. من می خواهم بتوانم محاسبه کنم که بین 13 تا 19 رویداد با اطمینان 95٪ بر اساس _p_ وجود دارد. این چیزی است که من تاکنون امتحان کرده‌ام: احتمال شناسایی رویدادهای _k_ در صورت وجود _n_ کل این است: دوجمله ای(n، k) * p^k * (1 - p)^(n - k) مجموع آن بیش از _n_ از _k_ تا بی نهایت برابر است با: `1/p` به این معنی که احتمال وجود _n_ رویداد در مجموع برابر است با: `f(n) = دو جمله ای(n, k) * p^(k + 1) * (1 - p)^(n - k)` بنابراین اگر بخواهم 95٪ مطمئن باشم باید اولین مجموع جزئی را پیدا کنم `f(k) + f(k+1) + f (k+2) ... + f(k+m)` که حداقل 0.95 است و پاسخ آن '[k, k+m]' است. آیا این رویکرد صحیح است؟ همچنین آیا یک فرمول بسته برای پاسخ وجود دارد؟
چگونه یک فاصله اطمینان برای تعداد کل رویدادها پیدا کنیم
168
برای برآوردگرهای چگالی هسته تک متغیره (KDE)، من از قانون سیلورمن برای محاسبه $h$ استفاده می‌کنم: \begin{equation} 0.9 \min(sd, IQR/1.34)\times n^{-0.2} \end{equation} قوانین استاندارد برای KDE چند متغیره (با فرض یک هسته عادی).
43400
این نقل قول/شعر از کجا آمده است؟
66991
مشکل آزمون فرضیه: $H_0: y \sim N(m_1,v_1)$ $H_1: y \sim N(m_2,v_2)$. میانگین‌های $m_1، m_2$ شناخته شده‌اند و واریانس‌های $v_1، v_2$ ناشناخته هستند، اما کران‌های بالا و پایین در $v_1، v_2$ مشخص هستند. آیا کسی می تواند برای یافتن آستانه بهینه در این مورد کمک کند؟
آزمون فرضیه توزیع های نرمال زمانی که میانگین و دامنه واریانس مشخص باشد
114259
من اخیراً طرحی برای کار ساخته ام که از مقیاس ریشه مربع امضا شده در محور $y$ برای وضوح بصری استفاده می کند. مشاهدات $y$ توابع پاسخ ضربه ای (IRF) از خودرگرسیون های برداری هستند که بر روی مجموعه داده های جداگانه محاسبه شده اند. از آنجایی که یکی از اهداف پروژه یافتن میانگین های گروهی بود، من در نهایت خطوط افقی را در میانگین ... از ریشه های مربع $y$ رسم کردم. معلوم شد که میانگین $\sqrt{y}$ یک داستان (به مشتری) کمی بهتر از میانگین $y$ می گوید، بنابراین رئیس من از من پرسید که آیا میانگین ریشه های مربع یک متغیر اندازه گیری معتبری است یا خیر. در حق خودش به او گفتم که اینطور فکر نمی‌کنم، و این واقعاً فقط برای این بود که همه چیز را راحت‌تر ببینم. او با این موضوع مشکلی نداشت، اما نمی‌دانم که آیا اشتباه می‌کردم. آیا $\frac{1}{N}\sum_{i=1}^N \sqrt{\mathrm{IRF}_i}$ در رابطه با VARهای زیربنایی یا به طور کلی داده ها معنی دارد؟ من همچنین می‌دانم که IRF‌ها به طور مجانبی طبیعی هستند، اما آنها بر روی نمونه‌هایی با تنها 25 دوره زمانی محاسبه می‌شوند، بنابراین در اینجا نمی‌توانم به نرمال بودن متوسل شوم.
آیا میانگین جذر متغیرهای تصادفی معنایی دارد؟
4707
آیا دو مجموعه داده متفاوت می توانند بردار ویژه یکسانی را در PCA دریافت کنند؟
97946
نقاط تغییر در R
69385
من در حال اندازه گیری باورهای معلمان در مورد شیوه های آموزشی قبل و بعد از یک کارگاه آموزشی خاص هستم تا مشخص کنم آیا کارگاه تأثیر مثبتی در تغییر باورهای معلمان نسبت به شیوه های آموزشی اصلاح شده دارد یا خیر. مشکل من این است که نمی دانم چگونه داده ها را تجزیه و تحلیل کنم. می توانم بگویم که باورهای آنها سنتی تر بود و بعد از کارگاه بر اساس محدوده امتیازی از پیش تعیین شده در نظرسنجی ها اصلاحات بیشتری صورت گرفت. می توانم درصد تغییر را هم محاسبه کنم، اما آیا این کافی است؟ آیا باید تست آماری توصیفی دیگری انجام دهم؟ همه آنهایی که من می شناسم یا می توانم گروه ها یا متغیرهای مقایسه را پیدا کنم، اما من فقط یک گروه و یک متغیر دارم. کمک بسیار قدردانی خواهد شد.
114255
من باید یک متغیر را از توزیعی که مانند توزیع دوجمله ای است نمونه برداری کنم، به جز با بایاس، مطمئن نیستم که نام آن چیست: $p(X=k)$ متناسب با $k.B(n,p) است. (k)$ که در آن $B(n,p)$ توزیع دو جمله ای است. هیچ ایده ای در مورد اینکه چگونه می توان این کار را انجام داد؟ من در پایتون کار می کنم، بنابراین اگر راهی مستقیم در numpy یا بسته های دیگر وجود داشته باشد، بسیار مفید خواهد بود...
نحوه نمونه برداری از توزیع دوجمله ای بایاس (به طور ایده آل در python/numpy)
72177
چگونه نمره متوسط بدست آوریم؟
89307
این مدل را در نظر بگیرید: خلاصه (lm(mpg ~ hp*wt, mtcars)) تماس: lm (فرمول = mpg ~ hp * wt، داده = mtcars) باقیمانده ها: حداقل 1Q Median 3Q Max -3.0632 -1.6491 -0.73613:44 ضریب ضریب. برآورد کنید Std. خطای t مقدار Pr(>|t|) (Intercept) 49.80842 3.60516 13.816 5.01e-14 *** hp -0.12010 0.02470 -4.863 4.04e-05 *** wt -21.216 -8.216 5.20e-07 *** hp:wt 0.02785 0.00742 3.753 0.000811 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 2.153 در 28 درجه آزادی چندگانه R-squared: 0.8848، R-squared تنظیم شده: 0.872 آمار: 71.66 در 3 و 28 DF، p-value: 2.981e-13 شیب hp 0.12010- است که wt صفر باشد. از آنجایی که مقدار صفر برای «wt» بعید است، این برای من سؤالات زیر را ایجاد می کند: * آیا تلاش برای تفسیر یک ضریب اثر اصلی زمانی که در یک عبارت تعامل گنجانده شده است، ارزشی دارد؟ * آیا ضریب اثر اصلی فقط باید در چارچوب تعامل تفسیر شود؟ یا به عبارتی در مدل بالا تنها عبارت hp:wt است که باید تفسیر شود؟
114254
من سعی می کنم تعدادی از مجموعه داده های بزرگ (بیش از 3000 نمونه در هر مجموعه) را مقایسه کنم، وقتی هیستوگرام این توزیع ها را رسم می کنم، می توانم دو مورد را ببینم که به وضوح متفاوت هستند و یک -z_-تست این را تایید می کند، که عالی است. با این حال، دو توزیع وجود دارد که بسیار شبیه به هم هستند که نمی‌توانستم آنها را بدون دانستن اینکه کدام توزیع است، از هم جدا کنم. یک آزمون _z_ می گوید که این توزیع ها نیز به طور قابل توجهی متفاوت هستند. من شنیده‌ام که آزمون _z_ با نمونه‌های بزرگ کمی خراب می‌شود، بنابراین حدس می‌زنم که این اهمیت به دلیل تفاوت جزئی است که واقعی نیست. چیزی که می خواهم بدانم این است که آیا آزمون جایگزینی برای مجموعه داده های بزرگ وجود دارد یا اینکه آیا آزمون z را می توان برای این مورد تغییر داد؟
جایگزینی برای تست z برای نمونه های عظیم؟
33043
> **تکراری احتمالی:** > تفسیر اثر اصلی و تعامل در GLM، من یک پیش‌بینی‌کننده طبقه‌بندی و یک متغیر کمکی داشتم. برای اطمینان از سازگاری متغیر کمکی در سطوح پیش بینی کننده من، یک اصطلاح تعاملی را وارد کردم. این غیر قابل توجه بود. آیا در این صورت توجیهی دارم که آن را از مدل حذف کنم؟ پیش‌بینی‌کننده طبقه‌بندی من زمانی که گنجانده می‌شود غیر معنی‌دار است، اما زمانی که حذف می‌شود معنادار است. هر گونه کمکی بسیار قدردانی خواهد شد.
17646
ترکیب / تجزیه و تحلیل متغیرهای مختلف مواجهه در مدل داده های شمارش
19894
**مشکل کوچک زیر را در نظر بگیرید:** یک قالب $m$-sided $n$ بار بچرخانید. احتمال اینکه **همه و فقط** شاخص های $1$ تا $k$ ظاهر شوند چقدر است؟ ($k\leq n,m$) * * * این نظر من است (شما می توانید بررسی کنید که آیا درست است). **می‌خواهم بدانم آیا رویکرد ساده‌تری وجود دارد** (برای مثال، فرمول‌های بازگشتی را فراخوانی نمی‌کند): با توجه به هر شاخص $i$ از $1$ تا $k$، اجازه دهید $w(i)$ باشد تعداد نتایج در آزمایش‌های $n$ ما که در آنها **همه و فقط** آن شاخص‌های $i$ ظاهر می‌شوند. سپس $w(1)=1$، و $w(i)={i}^{n}-\sum_{j=1}^{i-1}{i \choose j}w(j) داریم. $. با این تعریف، دقیقاً ${k \choose i}w(i)$ نتایجی وجود دارد که دقیقاً $i$ شاخص های متفاوتی از $1$ تا $k$ ظاهر می شود. بنابراین احتمال لازم $p(m,n,k)=\left({k}^{n}-\sum_{i=1}^{k-1}{k \choose i}w(i)\right )/{m}^{n}$. * * * **تغییر کمی در سوال اصلی:** یک قالب $m$-sided $n$ بار بچرخانید. احتمال اینکه دقیقاً $k$ ($k\leq n,m$) شاخص های مختلف ظاهر شود چقدر است؟ با تحلیل بالا، این احتمال باید $q(m,n,k)={m \choose k}p(m,n,k)$ باشد. حالا فرض کنید ${k}^{*}(m,n)={\text{argmax}}_{(k)}\ q(m,n,k)$ محتمل‌ترین تعداد شاخص‌های مختلف در $ باشد. آزمایشات n$ **من به توزیع ${k}^{*}(m,n)$** علاقه مند هستم. به عنوان مثال، به طور کلی، آیا می توانیم یک عبارت واضح برای مقدار ${k}^{*}(m,m)$ داشته باشیم؟ ${k}^{*}(m,m)>m/2$ یا $<m/2$ برای $m$ بزرگ؟ با توجه به $m$، بحرانی (کوچکترین) $n$ چیست به طوری که ${k}^{*}(m,n)=m$؟ پاسخ دادن به این سؤالات با توجه به شکل گیری من تا کنون دشوار به نظر می رسد، اگرچه تصور مفهومی همه آنها آسان است. آیا آنها ذاتا دشوار هستند؟ * * * **ویرایش:** با نوشتن $w(i)$ به صورت $w(i,n) = \sum_{j=0}^{i-1} (-1)^j(i-j)^n {i \choose j}$ متوجه شدم که مثلاً $w(3,2)=w(4,3)=w(4,2)=0$. آیا اگر $i>n$$w(i,n)=0$ باشد درست است؟ در مدل دای 0 راه وجود دارد که می توانید $i$ اعداد مختلف را در $n$ رول داشته باشید اگر $i>n$. بنابراین $w(i,n)$ نتیجه ثابتی را برای مدل قالب می دهد حتی اگر $i>n$. اما واضح است که مورد $i>n$ با استفاده از $w(i,n)$، به معنای مدل die، تفسیری ندارد، همانطور که مورد $i\leq n$ است. دلیل $w(i,n)=0$ برای $i>n$ چیست؟ آیا تفسیر مدلی هم برای آن وجود دارد؟ علاوه بر این، ${f}_{i}(x) = \sum_{j=0}^{i-1} (-1)^j(i-j)^x{i \انتخاب j}$ که در آن $i= 1،2،3،...$ و $x \in \mathbb{R}$. آیا این درست است که $x=1,2,...,i-1$ تنها صفرهای ${f}_{i}$ هستند؟
19895
من یک مدل رگرسیون لجستیک مرتب در R با Zelig اجرا کرده ام و به دنبال محاسبه احتمالات پیش بینی شده هستم. Zelig یک سری دستورات ساده یک خطی برای تولید اطلاعات مورد نظر من در مورد اولین تفاوت ها و غیره دارد. متأسفانه، هنگام اجرای تابع zelig مدام با خطا مواجه می‌شوم و به این فکر می‌کردم که آیا جایگزین سریعی برای ایجاد احتمالات پیش‌بینی‌شده برای یک logit مرتب شده در R وجود دارد. > x.out <- setx(mod, credit=1) خطا در dta[complete.cases(mf), names(dta) %in% vars, drop = FALSE] : تعداد ابعاد نادرست است من فقط به یک راه حل جایگزین نیاز دارم که من می توانم برای تولید احتمالات استفاده کنم.
19890
سه تست تعیین نادرست وجود دارد که می‌خواهم قبل از ادامه آزمایش‌های هم‌جمعی، روی مدلم برای تست جوهانسن انجام دهم. به دنبال توصیه یوهانسن در _استنتاج مبتنی بر احتمال در مدل های خود رگرسیون بردار همجمعی_، می خواهم از تست Ljung-Box برای همبستگی خودکار استفاده کنم، می خواهم اثرات ARCH را آزمایش کنم، و نرمال بودن باقیمانده ها را آزمایش کنم. با استفاده از آزمون Jarque-Bera با این حال، چیزی که برای من روشن نیست، روی **چه ** باقیمانده‌ای برای انجام این تست‌ها است... دو رگرسیون کمکی در تخمین VECM برای آزمون جوهانسن وجود دارد، و من نمی‌دانم از کدام یک از آنها استفاده کنم (اگر هر کدام از آنها) برای این آزمایشات؟ رگرسیون دیفرانسیل (در اولین تفاوت n تاخیر)؟ رگرسیون سطح عقب مانده سمت چپ (در اولین تفاوت n تاخیر)؟ یا چیز دیگری؟
50424
من سعی می کنم میانگین اثرات جزئی تخمین زده شده پس از یک رگرسیون را به خروجی برسانم اما کمی مشکل دارم. من متوجه شدم که استفاده از دستور margeff در این مورد کار می کند، اما من برخی از اصطلاحات تعاملی در مدل خود دارم و نمی توانم margeff را برای کار با آنها بپذیرم. من می دانم که حاشیه کار می کند، اما وقتی کد زیر را اجرا می کنم، فایل .tex نتایج glm را گزارش می دهد. eststo clear eststo: glm y x1 x2 x3 c.x1#c.x2 c.x3#c.x3، پیوند (logit) esttab قوی با استفاده از 1.tex، برچسب eststo clear glm y x1 x2 x3 c.x1#c.x2 c.x3#c.x3، لینک (logit) حاشیه‌های قوی، dydx(*) حاشیه‌های ذخیره را تخمین می‌زند esttab با استفاده از 2.tex، برچسب eststo clear
esttab بعد از حاشیه؟
90526
میانگین بدون قید و شرط یک مدل ARCH (1).
114251
داده های نمونه در مجموعه داده نمونه، 3 اندازه گیری بیولوژیکی متمایز، در 3 نقطه زمانی (0،12،24 ساعت) برای 19 فرد وجود دارد. این افراد به دو گروه درمان و کنترل تقسیم شدند. به گروه درمان دارویی داده شده است که اعتقاد بر این است که بین برخی از معیارهای مورد علاقه همبستگی ایجاد می کند. سوال این است: آیا این درمان ارتباط معنی داری بین هر یک از اندازه گیری های بیولوژیکی در مقایسه با همبستگی های پایه موجود در گروه کنترل ایجاد می کند؟ من می‌دانم که Z فیشر می‌تواند تفاوت بین دو همبستگی را مقایسه کند، اما در اینجا ما مقایسه‌های زیادی داریم، هم بین اندازه‌گیری‌های چندگانه، و هم برای چندین نقطه زمانی (البته از همان ۱۹ فرد). و من امیدوار هستم که روشی زیبا برای نگاه کردن به کل مجموعه داده داشته باشیم (مجموعه داده واقعی دارای 6 اندازه گیری و 6 نقطه زمانی است)، به جای اینکه به سادگی یک Fisher's Z را برای هر مقایسه به صورت جداگانه انجام دهم (و سپس بفهمیم که چگونه برای مقایسه های متعدد تنظیم شود) . علاوه بر این، پیچیدگی بیولوژیکی کمی بیشتر وجود دارد، زیرا ممکن است همبستگی ها در طول زمان به دلیل تکامل سیستم بیولوژیکی تغییر کند. برای مثال، Measure1 و 2 ممکن است به شدت در ساعت 0 و 12 ساعت با هم مرتبط باشند، اما نه 24 ساعت از شما برای هر نظری در مورد این موضوع متشکرم ویرایش: علاوه بر این، آیا می توانید با این مفهوم به موضوع نزدیک شوید و یک مدل ترکیبی ایجاد کنید که در آن بررسی کنید، مثلا : Measure1 ~ Measure2*Treatment + Time + (1|موضوع) برای اینکه ببینید رابطه بین اندازه 1 و 2 چگونه است اصلاح شده توسط درمان، و اجازه استفاده از تمام نقاط زمانی در این مقایسه، به جای انجام آنها به صورت جداگانه برای هر زمان با فیشر Z؟
آزمایش اهمیت یک درمان القا کننده همبستگی در یک سری زمانی
13555
چگونه طرح های ویولن را برای مقایسه مقیاس بندی کنیم؟
21002
نمونه طبقه بندی شده بوت استرپ که به جمعیت وزن می شود - وزن دهی مجدد در طول بوت استرپ؟
35764
فضای نمونه $\Omega := \\{\omega_1,\omega_2\,\dotsc,\omega_N\\}$ را در نظر بگیرید. نگاشت $X:\Omega \rightarrow \mathbb{R}$ را تعریف کنید. ویژگی این X$ این است که $X(\omega_i) = 1$ برای همه $i \in \\{1,\dotsc,N\\}$. آیا $X$ یک متغیر تصادفی است؟
اگر تصویر $\omega$ زیر $X$ همیشه یک عدد باشد، آیا $X$ می تواند یک متغیر تصادفی باشد؟
90529
اعتبار سنجی داده های نظرسنجی با سوالات معکوس
49853
من مجموعه بزرگی از عکس‌های صورت و یاب ویژگی‌های صورت دارم که به من کمک می‌کند چهره‌ها را با یک ایده کلی از محل چشم‌ها، بینی، دهان و انحنای مشخص‌کننده صورت پیدا کنم. البته این عکس‌های صورت از یک وب سرویس می‌آیند و من می‌خواهم ارزیابی‌هایی با کیفیت از تصاویر چهره در عکس‌ها انجام دهم. با ارزیابی های کیفیت، کاربران نهایی وب سرویس را می توان برای ارائه تصاویر بهتر راهنمایی کرد. من به سه اقدام فکر می کنم که نیاز به دیدن پیکسل های عکس دارد. اما من در مورد روش صحیح محاسبه برخی از آنها نامشخص هستم. من فقط نگران پیکسل های صورت هستم. 1. آیا تصویر نویز دارد؟ این اغلب در شرایط نور کم اتفاق می افتد. 2. آیا تصویر بیش از حد روشن است؟ این سخت‌تر از آن چیزی است که به نظر می‌رسد، زیرا مو قرمزهای پوست روشن از تصاویر بسیار روشن عکس می‌گیرند، بنابراین فقط به دنبال روشنایی بیش از حد کار نمی‌کند. 3. آیا تصویر به صورت ناهموار روشن می شود؟ این ساده‌ترین تشخیص است و فکر نمی‌کنم در این مورد به کمک نیاز داشته باشم. من در حال حاضر در حال ایجاد یک اندازه گیری رنگ پوست خام هستم، که در آن RGB پوست را نمونه برداری می کنم، به HSV (رنگ، ​​اشباع، روشنایی) تبدیل می کنم، و سپس اصطلاحات را با منطق جمع آوری و میانگین می کنم که نمونه های بیش از حد روشن را از بین می برد - با توجه به نکات برجسته آنها. منطق من تشخیص نقاط برجسته بسیار اساسی است: پیکسل های روشن را دور می اندازد. چه روشی بهتر است؟ با عکس‌هایی با نور کم، نمونه‌های پوست بسیار پر سر و صدا هستند. چگونه می توانم این را تشخیص دهم؟ به همین ترتیب، به کاربران وب سرویس داده می شود که موهای خود را از روی صورت خود پاک کنند، اما تعداد کمی از آنها واقعاً این کار را می کنند. من انتظار دارم که هر اندازه صدا در نواحی پوست می تواند تحت تاثیر موها - هم موهای سرگردان و هم موهای سرگردان - در نواحی نمونه پوست باشد. چگونه این را تشخیص دهیم؟ من در C++ کار می کنم، اما در واقع 7 ترم آمار دانشگاهی در مغزم پوسیده است، و هیچ مشکلی با اجرای هر چیزی که لازم است - قبلاً انجامش دادم... اساساً، من درست در ابتدای شروع یک دوره آموزشی هستم. راه حل به دنیای واقعی با آمار رسمی. اما من واقعاً مطمئن نیستم که کجا باید به دنبال راه حل برای برخی از این مسائل باشم. من به یک فاصله اطمینان ساده برای دور انداختن پیکسل‌های غیرپوستی فکر می‌کردم، اما پس از آن عکس‌های با نور کم ثابت کردند که این تکنیک راه‌حلی نیست. آیا برای شناسایی جمعیت‌های رنگی مختلف و استنتاج نویز از آنها باید وارد خوشه‌بندی شوم؟
جستجوی معیارهای آماری برای استفاده در هنگام ارزیابی کیفیت عکس صورت
89394
چگونه خروجی poisson.test را تفسیر کنیم؟
20750
من سعی می کنم شرکت های پذیرفته شده در بورس را بر اساس ریسک و بازده دسته بندی کنم. من حدود 100 شرکت (دسته) و دو متغیر (ریسک، بازده) در هر دسته دارم. داده ها شامل داده های روزانه 10 سال گذشته است. من می‌خواهم یک تحلیل خوشه‌ای برای گروه‌بندی شرکت‌ها (دسته‌ها) انجام دهم، اما درباره روش‌شناسی آن مطمئن نیستم. کسی میتونه پیشنهاد بده؟ با تشکر
69438
برازش داده ها در یک توزیع پارتو تعمیم یافته و تخمین پارامتر
110004
اگر دوباره یک Glmer را نصب کنیم، ممکن است هشداری دریافت کنیم که به ما می‌گوید همگرا شدن مدل زمان سختی پیدا می‌کند... به عنوان مثال. >پیام هشدار: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل با max|grad| = 0.00389462 (tol = 0.001) همگرا نشد، روش دیگری برای بررسی همگرایی که در بحث بحث شد این موضوع توسط @Ben Bolker این است: relgrad <- with(model@optinfo$derivs,solve(Hessian,gradient)) max(abs(relgrad)) #[1] 1.152891e-05 اگر max(abs(relgrad)) <0.001 باشد، ممکن است همه چیز خوب باشد ... پس در این مورد ما نتایج متناقضی داریم که چگونه باید بین روش ها انتخاب کنیم و از طرف دیگر وقتی مقادیر شدیدتری به دست می آوریم؟ مانند: >پیام هشدار: در checkConv(attr(opt, derivs), opt$par, ctrl = control$checkConv, : مدل با max|grad| = 35.5352 (tol = 0.001) relgrad <- with( model@optinfo$derivs,solve(Hessian,gradient)) max(abs(relgrad)) #[1] 0.002776518 آیا این بدان معناست که ما باید نتایج/برآوردها/مقدارهای مدل را نادیده بگیریم آیا 0.0027 برای ادامه دادن خیلی بزرگ است؟ هنگامی که بهینه سازهای مختلف نتایج متفاوتی ارائه می دهند و متمرکز کردن متغیرها / حذف پارامترها (کاهش مدل ها به حداقل) کمکی نمی کند، اما VIF ها کم هستند، مدل ها بیش از حد پراکنده نیستند، و نتایج مدل ها بر اساس انتظارات قبلی منطقی به نظر می رسد، به نظر سخت می رسد که بدانیم. چه باید کرد مشاوره در مورد چگونگی تفسیر مشکلات همگرایی، میزان شدید بودن آنها برای اینکه واقعا ما را نگران کند و راه های ممکن برای مدیریت آنها فراتر از موارد ذکر شده بسیار مفید خواهد بود. استفاده از: «R نسخه 3.1.0 (2014-04-10)» و «lme4_1.1-6»
چقدر باید از هشدارهای همگرایی در lme4 بترسیم
90525
نحوه انجام تست مدل در روش استنتاج غیرمستقیم/شبیه‌سازی شده/عمومی لحظه‌ها
110001
1. شهود و معنای فیزیکی عبارت ریاضی در بهینه سازی محدب چیست؟ 2. هنگام استفاده از الگوریتم های بهینه سازی مانند ازدحام ذرات یا الگوریتم ژنتیک، آیا آنها با بهینه سازی محدب ارتباطی دارند؟ آیا الگوریتم ها برای بهینه سازی محدب هستند؟
سوال مفهومی در مورد بهینه سازی
110003
من روی یک برنامه کاربردی برای تیمی از بهداشتکاران صنعتی کار می کنم و باید یک تابع جستجو برای حد اطمینان برای کسری بیش از حد ایجاد کنم. آنچه را که نیاز دارم از این کتاب پیدا کردم: «ارزیابی قرار گرفتن در معرض شغلی برای آلاینده‌های هوا» در صفحه 247 نموداری که به آن نیاز دارم این است: ![محدودیت‌های اطمینان برای کسر بیش از حد در مقابل محاسبه‌شده Z-value] (http://i.stack. imgur.com/fm6J8.png) اما یک نمودار JPEG است و من باید کد بنویسم تا مثلاً یک مقدار را جستجو کنم. UCL(1.706,15) = 0.85 می توانم آن را روی نمودار ردیابی کنم و مقدار را پیدا کنم، اما اگر این را در کد بخواهم، نمی توانم این کار را انجام دهم زیرا نمی توانم فرمول یا جدول مقادیر را برای تولید این نمودار پیدا کنم. من به دنبال فرمول یا حتی جدولی برای داده های این نمودار هستم که بتوانم آن را در یک ماتریس در کد قرار دهم و آن را جستجو کنم.
چگونه می توان مقادیر نمودار حد اطمینان را برای کسر مازاد در مقابل z-value بدست آورد؟
110006
من از راهنمایی در مورد استفاده از آزمون _t_ در مقابل $\chi^{2}$ سپاسگزارم. من به مجموعه کوچکی از داده های جمعیتی نگاه می کنم (تنها 13). من نمونه را به دو مجموعه تقسیم کردم، آنهایی که دارای شاخص توده بدنی (BMI) >= 25 (_n_ = 5) و آنهایی با BMI کمتر از 25 (_n_ = 8) بودند و میانگین و انحرافات استاندارد را برای ویژگی ها/داده های مختلف محاسبه کردم. نقاط، اینها همه مقادیر عددی هستند (به عنوان مثال، وزن، قد و غیره). اگر بخواهم تعیین کنم که آیا میانگین‌های حاصله مربوط به هر دو گروه از نظر آماری با یکدیگر متفاوت هستند، از آزمون _t_ استفاده می‌کنم زیرا این مقادیر کمی هستند. با این حال، مقاله مشابه مرتبطی که در مورد آن می خوانم از یک آزمون $\chi^{2}$ برای ارزیابی آن در جدول 1 استفاده می کند (http://link.springer.com/article/10.1186/1471-2393-13- 115/fulltext.html#Tab1). آیا این کار درستی است؟ آیا این به این دلیل است که با تقسیم نمونه به دو بخش، اکنون دو دسته دارید، بنابراین از $\chi^{2}$ استفاده می شود؟ این نادرست به نظر می رسد. من سعی می‌کنم داده‌هایمان را با استفاده از R خلاصه کنم، در حال حاضر نگران داده‌های عددی هستم (باید پاسخ‌های طبقه‌بندی را نیز خلاصه کنم). درک من این است که از آزمون _t_ برای داده های عددی و $\chi^{2}$ برای دسته بندی استفاده می کنم. مدتی است که آمار ندارم، اما در حال بررسی هستم، بنابراین هر راهنمایی قابل قدردانی است. (همچنین، به نظر می‌رسد که از خواندن پیام‌ها در اینجا اتفاق نظر وجود دارد که آزمایش نرمال بودن داده‌ها با چنین کامنت‌های _n_ کوچک چندان منطقی نخواهد بود؟) یعنی سوال در مورد مناسب بودن آزمونی است که در اینجا استفاده می‌شود، نه خود مطالعه/طراحی
تست $t$ در مقابل $\chi^{2}$ زمانی که نمونه به دو گروه تقسیم شود؟
41801
تفسیر رهگیری در ANCOVA
62523
من این سردرگمی مربوط به اشتقاق دوگانه را دارم. منظورم به این اسلایدهای سخنرانی بود. من متوجه نشدم که دوگانه چگونه مشتق شده است. من متوجه نشدم که دوگانه چگونه مشتق شده است. من تا قسمتی که ماتریس C با C' و C'' جایگزین می شود تا قسمت غیر صاف به قسمت صاف تبدیل شود، مشکلی ندارم. با این حال، من از قسمتی که دوگانه مشتق شده است گیج می شوم. وقتی تابع لاگرانژی مشتق می شود، به صورت $U.* C'$ و $V .* C''$ نوشته می شود. آیا این از محدودیت قطعیت مثبت یعنی C'-C'' > 0 می آید. من متوجه نشدم که از کدام ترفند برای دریافت آن استفاده شده است. علاوه بر این، من سؤالاتی دارم که حتی پس از نوشته شدن تابع لاگرانژی، محدودیت‌های C' > 0 و C» > 0 وجود دارد. آن را؟ یه جورایی گم شده ام پس از آن با توجه به متغیرهای اولیه C' و C' حداکثر می شود. من با آن مشکلی ندارم. اما پس از آن برای من دشوار است که بفهمم چگونه دوگانه نهایی به دست آمده است. کسی میتونه لطفا چند پیشنهاد ارائه کنه؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kOBv7.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HaymX.png) ![ توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kPW3o.png)
46634
سوال در مورد مشتقی از گشتاورهای مرحله دوم در یک برآوردگر دو مرحله ای به عنوان رویکرد مشترک برآوردگرهای GMM
46635
بهینه سازی تطابق بازیکنان در یک دور مسابقات
7899
نمودار رگرسیون پیچیده در R
80125
# پس زمینه چند بار در بیابان باران خواهد بارید؟ مجموعه‌ای از پیش‌بینی‌ها به نقاط مختلف بیابان‌های سراسر جهان نمرات اختصاص می‌دهند. یک مطالعه گذشته نمرات را با احتمال باران در روز مرتبط می کند. نمرات از بسیار پایین (0.01٪ در سال) تا بسیار بالاتر (20٪ در سال) متغیر است، که اکثر نمرات در محدوده بسیار پایین قرار دارند. # سوال فرضیه من این است که می توانم باران را بهتر پیش بینی کنم - نقاطی را پیدا کنم که شانس بیشتری برای بارندگی دارند. با این حال، باران بسیار نادری می بارد - و من پیش بینی های خود را در طیف گسترده ای از درجه ها انجام می دهم. همچنین، من نمی‌خواهم در مناطقی که احتمال بارندگی زیاد است، نتیجه اضافه وزن داشته باشم. **چگونه برای پیش بینی های لجستیکی بهتر آزمایش کنم؟** # تفکر فعلی برنامه فعلی من این است: 1. تنظیم یک رگرسیون لجستیک با [DidItRain?] در مقابل [ExpectedProbability]، [ExpectedProbability * DoIThinkThisOneIsRainier] 2. If [Ex Proability] *pect DoIThinkThisOneIs Rainier] از نظر آماری معنی دار است، فرض کنید می توانم بهتر از پیش بینی اصلی پیش بینی کنم ** آیا این طرح ایرادات پنهانی دارد؟**
41808
کارایی و تعداد رگرسیون ها؟
109857
واریانس $\bar x$، شبیه سازی با مشاهدات غیر iid
20752
برای استخراج pdf شرطی به کمک نیاز دارم
62294
امیدوارم اینجا جای مناسبی برای پرسیدن باشد، اگر نمی توانید آن را به انجمن مناسب تری منتقل کنید. مدت زیادی است که می‌پرسم چگونه می‌توان با توابع **یکپارچه‌پذیر غیر مربعی** با یکپارچه سازی مونت کارلو رفتار کرد. من می دانم که MC هنوز تخمین مناسبی ارائه می دهد، اما خطا برای آن نوع توابع غیرقابل واقعی است (واگرا؟). بیایید ما را به یک بعد محدود کنیم. ادغام مونت کارلو به این معنی است که ما انتگرال $$ I = \int_0^1 \mathrm{d}x \, f(x) $$ را با استفاده از تخمین $$ E = \frac{1}{N} \sum_{i تقریب می‌کنیم. =1}^N f(x_i) $$ با $x_i \در [0,1]$ نقاط تصادفی توزیع شده یکنواخت. قانون اعداد بزرگ باعث می شود که $E \تقریبا I$ باشد. واریانس نمونه $$ S^2 = \frac{1}{N-1} \sum_{i=1}^N (f (x_i) - E)^2 $$ تقریباً واریانس $\sigma^2$ از توزیع ناشی از $f$. با این حال، اگر $f$ قابل ادغام مربع نباشد، یعنی انتگرال تابع مربعی واگرا شود، این به معنای $$ \sigma^2 = \int_0^1 \mathrm{d} x \, \left(f(x) - است. I \right)^2 = \int_0^1 \mathrm{d} x \, f^2(x) - I^2 \longrightarrow \infty $$ به این معنی که همچنین واریانس واگرا می شود یک مثال ساده تابع $$ f(x) = \frac{1}{\sqrt{x}} $$ است که برای آن $I = \int_0^1 \mathrm{d}x \, \frac{1}{1}{101} \sqrt{x}} = 2$ و $\sigma^2 = \int_0^1 \mathrm{d}x \, \left( \frac{1}{x} - 2 \راست) = \چپ[ \ln x - 2x \right]_0^1 \rightarrow \infty$. اگر $\sigma^2$ متناهی باشد، می‌توان خطای میانگین $E$ را با $\frac{S}{\sqrt{N}} \approx \frac{\sigma}{\sqrt{N}}$ تقریب زد. ، **اما اگر $f(x)$ قابل ادغام مربع نباشد چه؟**
62526
چگونه می توان انحراف دوجمله ای سرپوشیده را به عنوان مدل رتبه بندی مناسب در بازی های دو نفره تفسیر کرد؟
28992
توزیع یک توزیع متقارن چگونه است؟ شخصی به من گفت که یک متغیر تصادفی $X$ از یک توزیع متقارن آمده است اگر و فقط اگر $X$ و $-X$ توزیع یکسانی داشته باشند. اما من فکر می کنم این تعریف تا حدی درست است. زیرا می توانم یک مثال متقابل $X\sim N(\mu,\sigma^{2})$ و $\mu\neq0$ ارائه کنم. بدیهی است که توزیع متقارن دارد، اما $X$ و $-X$ توزیع متفاوتی دارند! درست میگم؟ بچه ها تا حالا به این سوال فکر کردید؟ تعریف دقیق توزیع متقارن چیست؟
تعریف توزیع متقارن چیست؟
105144
یادداشت cslogistic SPSS
46630
تخمین و انتشار خطا
101322
آیا کد متلب برای مدل جلوه های تصادفی پروبیت برای داده های پانل وجود دارد؟ مشاهده می کنم که کدهای Stata (چند نسخه) در دسترس هستند، اما من نمی توانم هیچ کد Matlab را پیدا کنم. من واقعا ممنون می شوم اگر کسی بتواند منابعی را به من بگوید که در آن می توانم آنچه را که نیاز دارم پیدا کنم.
آیا کد متلب برای مدل جلوه های تصادفی پروبیت برای داده های پانل وجود دارد؟
62291
آیا می توان میزان گوسی بودن داده های تجربی را اندازه گیری کرد؟
48890
من یک مجموعه داده بزرگ دارم که از نمونه های زیادی تشکیل شده است. هر نمونه به صورت زیر است: * یک شبکه نمایه شده با i,j * برای نمونه k را تصور کنید، Y_k دارم، که در آن Y_k(i,j) چگالی احتمال k در (i,j) است * البته با جمع کل شبکه (هر سلول در شبکه) 1 را به دست می دهد. من تعداد زیادی (در حال حاضر 100) نمونه دارم، با توزیع های احتمالی متفاوت بر روی یک شبکه ثابت دقیقاً یکسان. تا آنجا که من می توانم بگویم توزیع ها از هیچ مدل پارامتری پیروی نمی کنند. سوال من این است: من می خواهم همه در مقابل تمام فاصله ها بین این توزیع ها را محاسبه کنم. هدف این است که فاصله ها را به یک الگوریتم خوشه بندی و غیره وارد کنیم تا کلاسهای کلی توزیع ها را بفهمیم .... اگرچه همه آنها با یکدیگر متفاوت هستند، فقط با نگاه بصری به آنها می بینم که گروه بندی واضحی وجود دارد. .. البته خوب است که بتوانیم این کار را به صورت الگوریتمی برای مقیاس و غیره انجام دهیم.
واگرایی KL یا متریک فاصله مشابه بین دو توزیع چند متغیره
7270
من یک فایل CSV با 4 میلیون لبه از یک شبکه هدایت شده دارم که نشان دهنده ارتباط افراد با یکدیگر است (مثلاً جان پیامی به مری می‌فرستد، مری پیامی به آن می‌فرستد، جان پیامی _ دیگری را برای مری می‌فرستد و غیره). من می‌خواهم دو کار انجام دهم: 1. معیارهای مرکزیت درجه، بین و (شاید) بردار ویژه را برای هر فرد بیابید. 2. تصویری از شبکه دریافت کنید. من می خواهم این کار را در خط فرمان روی سرور لینوکس انجام دهم زیرا لپ تاپ من قدرت زیادی ندارد. من R را روی آن سرور و کتابخانه statnet نصب کرده ام. من این پست سال 2009 را دیدم که فردی با صلاحیت‌تر از من تلاش می‌کند همین کار را انجام دهد و با آن مشکل دارد. بنابراین می‌خواستم بدانم که آیا شخص دیگری راهنمایی در مورد نحوه انجام این کار دارد، ترجیحاً من را گام به گام راهنمایی کند زیرا من فقط می‌دانم چگونه فایل CSV را بارگیری کنم و نه چیز دیگری. فقط برای اینکه به شما ایده بدهم، فایل CSV من به این شکل است: $ head comments.csv src، dest 6493، 139 406705, 369798 $ wc -l comments.csv 4210369 comments.csv
7278
یافتن تابع مولد لحظه فاصله Chi-Squared
82229
من مقاله ای را خوانده ام که در آن آنها یک آزمون $F$ را برای این فرضیه که همبستگی های خودکار دو گروه برابر است محاسبه می کنند. به طور خاص، آنها همبستگی دو سری زمانی $x_t$ و $y_t$ را از طریق OLS تخمین می زنند: $$y_t = a_1 + b_1y_{t-1} + e_t$$ $$x_t = a_2 + b_2x_{t-1} + e_t $$ اکنون آنها فرضیه صفر را که $b_1 = b_2$ با یک $F$-test تست می کنند. سوال من این است که چگونه می توانم این کار را انجام دهم و از کدام آمار آزمون خاص باید استفاده کنم؟ با احترام، کریستین
F-Test برای مقایسه خودهمبستگی بین گروه ها
82225
در حال مطالعه کتاب معروف _عناصر یادگیری آماری_ هستم. هنگامی که رگرسیون خطی چندگانه توصیف می شود، از رگرسیون تک متغیره ساده به عنوان یک بلوک ساختمانی استفاده می کند، که برای من منطقی است. تا آنجا که من درک می کنم از ویژگی متعامد بودن بردارهای ورودی برای تقسیم رگرسیون چند متغیره در رگرسیون های مستقل ساده استفاده می کند، و وقتی ورودی ها متعامد نیستند، آنگاه آن ورودی ها به گونه ای تبدیل می شوند که آنچه باقی می ماند متعامد باشد. با بردارهای متعامد من 2 بردار را درک می کنم که حاصل ضرب نقطه ای آنها با صفر است. اکنون در کتاب ذکر شده است که > ورودی‌های متعامد اغلب با آزمایش‌های متوازن و طراحی‌شده > (جایی که قائم‌سازی اعمال می‌شود) اتفاق می‌افتد، اما تقریباً هرگز با داده‌های مشاهده‌ای. چگونه می توان آن را اجرا کرد؟ تنها موقعیتی که می توانم تصور کنم این است که از مقادیر باینری 0/1 برای هر مقدار اسمی ممکن استفاده شود. برای روشن‌تر شدن: می‌توان یک ستون اسمی **جنس** با برچسب‌های: _male_ و _female_ داشت. او می تواند دو ستون ورودی ایجاد کند، یکی به نام **sex.male** با مقدار _1_ وقتی که **sex** _male_ و در غیر اینصورت _0_ است. ستون متناظر **sex.female** دارای _1_ خواهد بود اگر **جنس** _female_ و _0_ باشد. این 2 ستون عددی متعامد خواهند بود. آیا می توان برای متغیرهای پیوسته اعمال اعمال کرد؟
اعمال متعامد ورودی ها برای رگرسیون خطی چندگانه
59608
آیا متغیر تصادفی من بر پاسخ من تأثیر می گذارد؟
109697
می‌خواهم بدانم آیا آزمونی برای تفاوت میانگین‌های m1 و m2 (متغیرهای پیوسته) وجود دارد، اگر فقط اطلاعاتی برای میانگین، 2.5٪ و 97.5٪ داشته باشم. به عنوان مثال: $m1 \ \ \ = 10.5$ q1_{025}= 8.3$$q1_{975}= 12.5$$m2 \ \ \\ = 15.5$q2_{025}= 12.7$q2_{975}= 17.3$ اطلاعات بیشتری در دسترس نیست. یک راه ممکن برای حل این مشکل این است که فرض کنیم محدوده چندک ها 1.96 * خطاهای استاندارد (se) است، برای محاسبه se و انجام آزمون t. شاید تست دیگری وجود داشته باشد که برای این نوع داده ها (و ترجیحاً به عنوان تابع R) مناسب تر باشد. هر ایده ای؟ به روز رسانی برای روشن شدن سوال: سوال اصلی بالا از یک تحلیل رگرسیون با عبارت خطی (x) و درجه دوم ($x^2$)، تعامل z (عامل با 7 سطح) با x، سایر متغیرهای ثابت و یک متغیر تصادفی انگیزه داشت. $$y \tilde~b_1x+b_2x²+b_3z+b_4xz+b_5x²z+... $$ پارامتر مورد نظر x است مقدار حداکثر y ($x_m$). من 500 $x_m^{\ast}$ را محاسبه کردم (s=500 نمونه‌برداری مجدد از باقیمانده‌های $\epsilon=y-\hat y$ و 500 رگرسیون). از این 500 $x_m^{\ast}$ من $m1$, $q1_{025}$,$q1_{975}$,$sd1$,...,$m7$ و غیره محاسبه کردم. سوالات من: (1) اگر من فقط چندک های $x_m^{\ast}$ برای z-levels=1...7 داشته باشم و هیچ اطلاعات دیگری نداشته باشم چگونه می توانم آزمایشی برای مقایسه x_m$ از آن انجام دهم. z-level 1 و 2 (این سوال اصلی من در بالا بود). (2) من می خواهم سطوح z 1 و 2 را مقایسه کنم و همه $x_m^{\ast}$ موجود است: $$x_{{m_1}_1}^{\ast}$,$x_{{m_1}_2 }^{\ast}$,...,$x_{{m_1}_{500}}^{\ast} $$ برای سطح 1 و $$ x_{{m_2}_1}^{\ast}$,$x_{{m_2}_2}^{\ast}$,...,$x_{{m_2}_{500}}^{\ast} $ $ برای سطح 2. (3) علاوه بر سوال (2) من تعداد مشاهده برای سطح 1 و 2 z را دارم: $n_1$ و $n_2$.
برای دو بازه اطمینان تست کنید
56120
من می دانم که اگر دو رویداد متقابلاً ناسازگار باشند به این معنی است که حداکثر یکی درست است. با این حال، این به چه معناست از نظر نظریه احتمال؟ آیا برای مجموعه‌ای از احتمالات متقابلاً انحصاری، احتمال متناظر آنها همیشه برابر با 1 است؟ یا فقط یک رویداد احتمال 1 دارد؟ من در حال مطالعه وقایع متقابل انحصاری در مقابل مجموع جامع هستم، و مطمئن نیستم که آنها را اشتباه گرفته باشم.
تعریف متقابل انحصاری
7271
روش هلویگ روشی برای انتخاب متغیرها در مدل خطی است. این به طور گسترده در لهستان استفاده می شود، احتمالاً فقط در لهستان، زیرا یافتن آن در هر مقاله علمی به زبان انگلیسی واقعاً دشوار است. **توضیح روش:** $m_{k}$ - مجموعه ای از متغیرها در ترکیب k'ام (ترکیبات $2^{p}-1$ وجود دارد که p تعداد متغیرها است) $r_{j}$ - همبستگی بین $Y$ و $X_{j}$$r_{ij}$ - همبستگی بین $X_{i}$ و $X_{j}$ $H_{k}=\sum\limits_{j \in m_{k}}\frac{r_{j}^2}{\sum\limits_{i \in m_{k}}|r_{ij}|} $ ترکیبی از متغیرهای با بالاترین $H_{k}$ **سوال** را انتخاب کنید آیا این روش در خارج از لهستان استفاده می شود؟ آیا زمینه علمی دارد؟ به نظر می رسد که فقط بر اساس شهود است که متغیرها در یک مدل باید با $Y$ همبستگی بالایی داشته باشند و با هر یک از آنها همبستگی ضعیفی داشته باشند.
59609
من در حال حاضر روی پایان نامه کارشناسی خود کار می کنم. یکی از متغیرهای من با استفاده از نسبت یک متغیر پیوسته (بیشتر) توزیع شده معمولی به دیگری ایجاد می شود. توزیع نسبت بسیار لپتوکورتیک با نقاط پرت است (kurtosis/s.e. = 183) و من فکر می کردم آیا تغییری وجود دارد که بتوانم از آن برای نرمال تر کردن آن استفاده کنم. من قبلاً مقدار مطلق را گرفته بودم و آن را ثبت کرده بودم که توزیع را بهبود بخشید، اما به من اشاره شد که تفاوت بین نسبت -1 و 1 و غیره مهم است و آنها برابر نیستند. مجموعه داده های من شامل مقادیر منفی است اما مقادیر صفر ندارد. ![توزیع](http://i.stack.imgur.com/iSaku.png) از هرگونه کمکی قدردانی می شود. متشکرم
109695
من یک برنامه نویس هستم (در پایتون و R راحت هستم) و در حال شروع با روش های یادگیری ماشین هستم. من اطلاعات زیادی از سال گذشته در مورد کاربران سایت خود دارم. حدود 50 درصد از کاربران به یک هدف خاص تبدیل شدند. مشکل من این است: من علاقه مند به پیدا کردن ویژگی های 50٪ از کاربرانی هستم که در مقابل 50٪ کسانی که تبدیل نکرده اند. به بیان دیگر: می‌خواهم ویژگی‌های کاربرانی را که تبدیل کرده‌اند، در مقایسه با کاربرانی که این کار را انجام نداده‌اند، بدانم، تا بدانم چگونه کاربران امیدوارکننده را شناسایی کنم، و همچنین چگونه می‌توانم تجربه کاربرانی را که تبدیل کرده‌اند، بهبود بخشم. تبدیل نشد من علاقه ای به ساخت یک مدل پیشگویانه ندارم، حداقل هنوز - در این مرحله من فقط به یافتن مهمترین ویژگی های شناسایی برای کاربرانی که تبدیل شده اند علاقه مند هستم. من در حال مطالعه بوده‌ام، اما احساس می‌کنم کمی غرق شده‌ام - آیا کسی می‌تواند به من توصیه کند که چه رویکردی را در پیش بگیرم؟ من می‌دانم که این یک مشکل طبقه‌بندی باینری است، اما بیشتر رویکردهایی که من بررسی کرده‌ام (درخت تصمیم، SVMs، Bayes) به‌نظر می‌رسد به جای شناسایی ویژگی‌ها، یک مدل پیش‌بینی‌کننده به عنوان خروجی اصلی خود تولید می‌کنند.
توصیه ای در مورد یافتن ویژگی های کاربرانی که تبدیل کرده اند در مقابل کاربرانی که این کار را نکرده اند؟
110619
فرض کنید من مجموعه ای از i.i.d دارم. نمونه‌های $X_1،\ldots،X_N \sim N_p(\mu، \Sigma)$. حالا \begin{equation} d^2_i(b)=(X_i - b)'\Sigma^{-1}(X_i-b) \end{equation} را تعریف کنید که اساساً فاصله Mahalanobis است، با این تفاوت که فاصله را اندازه می‌گیرد. از $X_i$ تا $b$ (با توجه به محورهای مؤلفه اصلی)، به جای فاصله از $X_i$ تا $\mu$، اگر منطقی باشد. من می‌دانم که اگر $b=\mu$ باشد، ما $d^2_i\sim \chi^2_p$ خواهیم داشت، اما در تشخیص اینکه در غیر این صورت چه چیزی خواهد بود، مشکل دارم. هر گونه کمکی بسیار قدردانی خواهد شد. با تشکر
توزیع فاصله محلانوبیس تغییر یافته
56125
من در حال انجام تحقیقات در مورد شناسایی شاهدان عینی هستم. به طور خاص، آزمایش اینکه آیا تفاوتی بین روش آرایش همزمان (6 عکس مشکوک که همزمان مشاهده شده است) و روش ردیف کردن متوالی (یک عکس مشکوک در یک زمان مشاهده شده) وجود دارد یا خیر، و اینکه آیا در مقایسه با حالت چهره مشکوک خنثی عصبانی هستید یا خیر. بر شناسایی شاهدان عینی تأثیر می گذارد. این مطالعه طراحی بین گروهی است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/g1jf9.png) 12 شرایط مختلف وجود خواهد داشت. IV ها: * روش صف آرایی (2): همزمان و متوالی * وضعیت هدف (2): غایب یا حاضر * تنوع صف آرایی (3): 1 مظنون عصبانی + 5 مظنون خنثی، 6 مظنون عصبانی، 6 مظنون بی طرف DV: * انتخاب ترکیب (6): رد صحیح، شناسایی صحیح عصبانی، تصحیح شناسایی خنثی، پرکننده خنثی، پرکننده عصبانی، خانم به من توصیه شده است که از تست مربع کای استفاده کنم، و من نمی‌دانم که آیا این مناسب‌ترین تحلیل خواهد بود؟ فکر کردم می‌توانم روش X Line-Up انتخاب را برای فرکانس‌های مشاهده‌شده و مورد انتظار بین شرایط همزمان و متوالی جدول بندی کنم و سپس از فایل تقسیم برای مشاهده خروجی بر اساس هر شرط استفاده کنم. آیا این روش مناسبی برای تحلیل است؟ آیا تحلیل بهتری وجود دارد که بتوانم استفاده کنم؟ هر کمکی فوق العاده خواهد بود. لطفا در صورت نیاز به ارائه اطلاعات بیشتر به من اطلاع دهید.
آیا تست Chi-square مناسب است؟
7279
آزمون t زوجی چیست و در چه شرایطی باید از آزمون t زوجی استفاده کنم؟ آیا تفاوتی بین آزمون t زوجی و آزمون t زوجی وجود دارد؟
97686
بگویید من نمونه بزرگی از مقادیر [0,1]$ دارم. من می خواهم توزیع زیربنایی $\text{Beta}(\alpha, \beta)$ را تخمین بزنم. اکثر نمونه‌ها از این توزیع فرضی $\text{Beta}(\alpha, \beta)$ می‌آیند، در حالی که بقیه موارد پرت هستند که من می‌خواهم در تخمین $\alpha$ و $\beta$ نادیده بگیرم. راه خوبی برای ادامه در این مورد چیست؟ آیا استاندارد: $\text{Inliers} = \left\\{x \in [Q1 - 1.5\, \text{IQR}, Q3 + 1.5 \,\text{IQR}] \right\\}$ فرمول استفاده می‌شود در باکس پلات تقریبی بد است؟ راه **اصولی**تری برای حل این مشکل چیست؟ آیا اولویت خاصی در $\alpha$ و $\beta$ وجود دارد که در این نوع مشکلات به خوبی کار کند؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HFcEZ.png)
48102
من دو مجموعه داده متفاوت دارم، یکی از آنها مقیاس لیکرت 7 سطحی و دیگری مقیاس لیکرت 5 سطحی است. علاوه بر تعداد سطوح مختلف، مقیاس لیکرت 7 سطحی دارای 114 گویه و 13 خرده مقیاس و مقیاس لیکرت 5 سطحی دارای 64 سؤال و 7 خرده مقیاس است. آیا می توان همبستگی را بین این خرده مقیاس های ناسازگار محاسبه کرد؟ فهرست ها سبک های تفکر و راهبردهای یادگیری را اندازه گیری می کنند.
57292
اسناد SAS proc ARIMA بیان می کند که مقادیر t گزارش شده در جدول تخمین پارامترها تقریبی هستند که دقت آنها به اعتبار مدل، ماهیت مدل و طول سری مشاهده شده بستگی دارد. زمانی که طول مشاهده شده باشد. سری کوتاه است و تعداد پارامترهای تخمین زده شده با توجه به طول سری زیاد است، تقریب t معمولاً ضعیف است زیرا ممکن است گمراه کننده باشند. من در کتاب های درسی و اینترنت برای توضیح بیشتر در این مورد جستجو کردم. من از این واقعیت آگاه هستم که رگرسیون در سری‌های زمانی غیر ثابت می‌تواند منجر به رگرسیون کاذب شود، زیرا نسبت‌های t از توزیع t پیروی نمی‌کنند، اما من به دنبال توضیح فنی‌تر هستم که چرا آنها از توزیع t پیروی نمی‌کنند. من مقاله کلاسیک گرنجر و نیوبولد را در سال 1974 خوانده‌ام و متوجه شده‌ام که آنها و بعداً دیگران از شبیه‌سازی‌ها برای نشان دادن تجربی پدیده رگرسیون جعلی استفاده کردند، اما آیا به دنبال توضیحی هستم که بتوان از تئوری آماری استخراج کرد. هر گونه کمکی بسیار قدردانی خواهد شد. به سلامتی
مقادیر T برآوردهای پارامتر ARIMA
57295
من در حال حاضر در حال جمع آوری داده ها از یک سیستم نرم افزاری هستم که در مورد ماهیت ساختارهای خاص در سی تی اسکن قفسه سینه پزشکی نتیجه گیری می کند. ساختارهای قفسه سینه را می توان به چهار نوع طبقه بندی کرد: $C_1=$ ندول، $C_2=$ ندول متصل، $C_3=$ عروق، و $C_4=$ شاخه های عروق. این نرم افزار سی تی اسکن ها را تجزیه و تحلیل می کند و احتمالی را برای هر مورد تعیین می کند. بنابراین برای هر مورد آزمایشی خروجی مجموعه ای از چهار عدد واقعی در بازه $[0,1]$ است، یعنی هر مورد آزمایشی $a=\\{C_1, C_2, C_3, C_4:C_i \in [0 ,1]\\}$. اگر $\max\\{a\\}$ با حقیقت اصلی مورد آزمایشی مطابقت داشته باشد، می‌گوییم که یک مورد آزمایشی یک هیت است. به عنوان مثال، اجازه دهید $a$ یک مورد آزمایشی با حقیقت زمین گره باشد و نرم افزار خروجی $\\{C_1=0.7546,C_2=0.2378,C_3=0.0967,C_4=0.0471\\}$ را ارائه دهد. از آنجایی که $\max\\{C_1=0.7546,C_2=0.2378,C_3=0.0967,C_4=0.0471\\}=C_1$، می گوییم که این مورد آزمایشی موفقیت آمیز است. حال سوالی که دارم این است که چه نوع تحلیل آماری روی این سیستم باید انجام شود؟ من مجموعه داده ای از 400 مورد تست این فرم را دارم و مطمئن نیستم که چگونه نتایج را تجزیه و تحلیل و تفسیر کنم. مجموعه داده ها هیچ ترتیب خاصی ندارند، فقط مجموعه ای از این احتمالات است.
تجزیه و تحلیل عملکرد نرم افزار کامپیوتر
109616
در خوشه‌بندی طیفی، الگوریتم اجرای K-means به k ویژه بردارهای ماتریس لاپلاسی حاصل را پیشنهاد می‌کند. سوال من این است: آیا می توانم از الگوریتم های خوشه بندی دیگری مانند K-medoids یا سایر الگوریتم های غیرفاصله ای به جای K-means استفاده کنم، یا اینکه این الگوریتم برای بهترین پاسخ به K-means طراحی شده است؟ پیشاپیش ممنون
65895
چگونه می توان P-value را از توزیع های بوت استرپ تعیین کرد؟
88570
ماکرو SPSS برای میانجیگری در نمونه های کوچک؟
97337
وقتی در الگوریتم MH می گوییم نرخ پذیرش (مثلاً فرض کنید که 40% نرخ پذیرش توصیه می شود)، منظور ما میزان پذیرش کلی است یا منظور از نرخ پذیرش پس از سوختن است؟ این یک سوال بسیار ساده است اما من تازه متوجه شدم که هرگز به آن فکر نکرده ام. خیلی ممنون،
سوال ساده در مورد نرخ پذیرش در متروپلیس هاستینگ
51840
من در کلاس داده کاوی شرکت می کنم و اخیراً با bin-smoothing در تجزیه و تحلیل رگرسیون آشنا شده ایم، اما به نظر نمی رسد که نمی توانم مفید بودن این روش را درک کنم و نه اینکه روش کار می کند یا چرا کار می کند. اساساً، تصویری از مجموعه داده‌ای ارائه شد که با استفاده از مدل خطی نمی‌توان برازش کرد و bin smooth به عنوان مدل بهتر ذکر شد. این اسلاید سخنرانی را برای مجموعه داده ها ببینید. این از کلاس من نیست اما سطل صاف روی اسلاید یکسان است. آیا می توان دلیل منطقی استفاده از میانگین ها را همانطور که در bin-smooth انجام می شود توضیح داد؟
دلیل استفاده از Regressogram (Bin-Smooth)
97333
من خطای Type $\text {I}$ و Type $\text {II}$ را درک می کنم. همچنین می‌دانم که $\text{سطح اهمیت} = \text {P(خطای نوع I)}$. با این حال، چگونه می توانم آن را به یک شخص (بدون سابقه آماری) به زبان بسیار ساده توضیح دهم. به عنوان مثال من باید معنای نتیجه زیر را به کسی بفهمانم: در سطح 5٪ معنی‌داری، آزمون اندرسون - دارلینگ نشان می‌دهد که داده‌های ضرر از توزیع عادی پیروی می‌کنند. چیزهایی که برای مشتری بسیار گیج کننده است. همچنین، در صورت امکان، می خواهم در مورد درجات آزادی نیز بدانم.
سطح اهمیت چیست؟
97684
آیا می توان احتمال اتحاد (یا) بسیاری از رویدادهای غیر انحصاری متقابل را به صورت بازگشتی محاسبه کرد؟
81674
من سعی می کنم یک مدل پیش بینی ایجاد کنم. من حدود 10000 نمونه دارم که شامل حدود 100 متغیر پیش بینی کننده و متغیر پاسخ است. در حال حاضر من از روشی استفاده می کنم که ظاهراً به عنوان رگرسیون مؤلفه اصلی (PCR) شناخته می شود. خوب کار می کند، اما من نمی دانم که آیا می توانیم بهتر عمل کنیم. اما من آمارگیر نیستم و برای شناور ماندن در دریای حروف اختصاری مشکل دارم. من به ظاهر مدل اهمیتی نمی دهم، فقط می خواهم پیش بینی های خوبی داشته باشم. می توانید راهنمایی کنید که کجا باید به دنبال آن باشم؟ برخی اطلاعات در مورد داده‌های من: * نمودار پراکندگی هر پیش‌بینی‌کننده در برابر پاسخ عموماً یک بیضی از نقاط (بعضی بلند و نازک، برخی تقریباً دایره‌ای) را نشان می‌دهد. آیا این نشان می دهد که یک مدل خطی انتخاب درستی است؟ * پیش‌بینی‌کننده‌ها چیزهای بسیار متفاوتی را اندازه‌گیری می‌کنند و برخی از آنها چند همبسته هستند. به همین دلیل است که من آنها را عادی کرده و آنها را از طریق یک PCA پرتاب کرده ام. * برخی از پیش بینی ها احتمالاً کاملاً بی فایده هستند. * خطاها و موارد پرت در پیش بینی ها و پاسخ وجود دارد. من سعی کردم به صورت دستی از شر موارد پرت خلاص شوم، اما نه خیلی تهاجمی.
بهبود پیش‌بینی رگرسیون خطی
97331
این یک سوال کلی است. من تئوری پشت استفاده از توزیع‌های گاوسی چند متغیره را درک می‌کنم، با این حال هنوز یک سوال برای من مشکل است و من نتوانسته‌ام پاسخی «غیرعامل» برای آن پیدا کنم. با توجه به یک نقطه داده جدید $X$، و یک مجموعه داده شامل نقاط داده مختلف که می توانند به $N$ گاوسی های چند متغیره طبقه بندی شوند. نقطه چگونه طبقه بندی می شود؟ آنچه من می‌پرسم این است که با توجه به ابعاد $\\{x_1,..,x_n\\}$ که بردار داده طبقه‌بندی شده را تشکیل می‌دهند، چگونه تصمیم گرفته می‌شود که آیا آن نقطه بخشی از یک توزیع گاوسی در مقابل دیگری است. ?
توزیع و طبقه بندی گاوسی چند متغیره
52188
من یک متغیر وابسته ترتیبی به نام D دارم که از خیلی کوچک، کوچک، متوسط، بزرگ تا خیلی بزرگ متغیر است. این متغیر به متغیرهای مستقل X, V که متغیرهای پیوسته هستند بستگی دارد. آیا می توانم یک تحلیل رگرسیون لجستیک ترتیبی در داده های قبلی برای به دست آوردن رابطه بین D و X, V انجام دهم؟ آیا می توانم از این طریق متغیر D را به صورت درصد بدست بیاورم؟
متغیر وابسته ترتیبی با متغیرهای مستقل پیوسته
81671
من سعی می کنم با استفاده از EXCEL راهی برای پیش بینی مدل های مختلف از یک مدل کامل پیدا کنم. یعنی اگر فرض کنم که همه مدل‌ها باید مانند مدل اصلی رفتار کنند، که همه داده‌ها را برای آن در اختیار دارم، می‌خواهم بر اساس «مدل کامل» داده‌های گمشده را پیدا کنم. بنابراین مشکل به شرح زیر است: من یک مدل تلویزیون را به 10 مشتری مختلف می فروشم و در طول 1 سال ثبت می کنم که هر مشتری چقدر شکایت کرده است. بنابراین داده‌ها به این صورت می‌شوند: شناسه مشتری - شماره شکایات مشتری1- 3 مشتری2- 17 مشتری3- 0 مشتری4- 7 مشتری5- 6 مشتری6- 20 مشتری7- 1 مشتری8- 7 مشتری9-2 مشتری10- 5 حالا اگر داده‌های 10 مشتری دیگر برای نیم سال، آیا می توانم پیش بینی کنم که تا پایان سال تعداد شکایات چقدر خواهد بود؟ شناسه مشتری-# شکایات Client1-13 Client2- 7 Client3-10 Client4- 3 Client5- 4 Client6- 2 Client7- 9 Client8- 7 Client9-1 Client10- 2 هر توصیه ای در مورد نحوه انجام این کار با استفاده از اکسل بسیار مفید خواهد بود. سپاسگزارم
پیش بینی رفتار یک مدل بر اساس مدل دیگر
81542
من یک مدل و یک بردار از پارامترها دارم که با استفاده از ML تخمین می زنم. از آنجایی که من در حال انجام یک MonteCarlo هستم، می توانم هر چند بار که بخواهم شبیه سازی کنم، یعنی داده ها داده واقعی نیستند. من فقط به این فکر می کردم که چگونه می توانم خطاهای استاندارد برآوردگر خود را محاسبه کنم و اهمیت آنها چیست.
خطای استاندارد MLE
8779
تجزیه و تحلیل سری های زمانی با مقادیر صفر زیاد
97338
در مطالعه من، بچه ها جملات را تکرار می کنند و من خطاها را می شمارم (DV = میزان خطا). کودکان به دو گروه تقسیم می شوند (عامل گروه) و دو نوع جمله مختلف وجود دارد (عامل شرط). من به خصوص به تعامل گروه با شرط علاقه دارم، که از لحاظ نظری در رشته من (روان زبانشناسی رشد) مهم است. وقتی یک ANOVA موضوعی فرعی، «استاندارد طلایی» در رشته خود را اجرا می‌کنم، تعامل قابل‌توجهی با گروه بر اساس شرایط دریافت می‌کنم. مفروضات ANOVA تقریباً صادق است (توزیع نرمال باقیمانده ها بر اساس نمودار QQ، همگنی واریانس (Levene's)، کروی (Mauchly)). خود داده‌ها معمولاً توزیع نمی‌شوند، اما من جمع‌آوری می‌کنم که توزیع باقیمانده‌ها واقعاً مهم است. من همچنین علاقه مند به استفاده از رویکردهای GLM هستم. داده های خام (یعنی هر دو گروه به هیچ وجه به طور میانگین ترکیب نشده اند) به شدت به سمت راست منحرف هستند و به خوبی با یک مدل دوجمله ای منفی تقریب می شوند (من از روال STATA nbvargr استفاده کرده ام). هنگامی که یک رگرسیون دوجمله ای منفی اجرا می شود، باقیمانده ها یک توزیع نرمال بر اساس نمودار QQ (بهتر از مدل های پواسون و گاوسی) نشان می دهند، البته نه به خوبی ANOVA. من همچنین یک تعامل قابل توجه دریافت می کنم اما در جهت مخالف آن ANOVA است (ضریب منفی در مقابل مثبت). من فکر می‌کنم این به این دلیل است که ANOVA یک مدل افزایشی را در نظر می‌گیرد در حالی که دوجمله‌ای منفی یک مدل ضربی را فرض می‌کند (از آنجایی که از گزارش‌ها استفاده می‌کند). سوال من این است که کدام تحلیل درست است، یعنی کدام به بهترین وجه فرآیندهای اساسی را که منجر به داده های مشاهده شده می شود، توصیف می کند؟ اگرچه باید گفت که تناسب ANOVA عالی است، اما از دست دادن قابل توجهی از داده ها وجود دارد زیرا آنها برای هر سلول از طرح ANOVA میانگین می شوند (شرکت کننده بر اساس گروه بر اساس شرایط = 50 مشاهده در هر سلول). از این منظر، جای تعجب نیست که برازش مدل دوجمله ای منفی به خوبی نیست، زیرا مدل باید 50 برابر داده ها را در نظر بگیرد. علاوه بر این، مدل دوجمله ای منفی تلاش می کند تا فرآیند تولید داده را مدل کند، یعنی یک فرآیند پویسون، در حالی که من فکر نمی کنم بتوان همان چیزی را برای ANOVA گفت. (توجه داشته باشید که موضوع چگونگی تفسیر تعاملات، و استفاده از یک مدل افزایشی یا ضربی یک مسئله داغ در روانپزشکی است (Kendler, K. S., & Gardner, C. O. (2010). تفسیر تعاملات: راهنمای افراد گیج. روانپزشکی، 197 (3)، 170-171. doi:10.1192/bjp.bp.110.081331)) در اینجا کدی وجود دارد که نشان می دهد چگونه اثر متقابل برای مدل دوجمله ای منفی منفی است، اما برای ANOVA مثبت است. ** ld = میزان خطا، DV ** ضعیف = گروه (0 = گروه کنترل، 1 = گروه مورد علاقه) ** سخت = شرایط تجربی (0 = شرایط آسان، 1 = شرایط سخت) ** تکواژها = طول جمله در تکواژها، به عنوان افست برای ***دوجمله ای منفی reqd. nbreg ld limp##سخت، خوشه (id) آفست (مورفم) برازش مدل پواسون: [روش برازش مدل به خاطر سادگی حذف شد] رگرسیون دوجمله ای منفی تعداد obs = 3397 پراکندگی = میانگین Wald chi2(3) شبه 391 = Log11 = -7574.8427 Prob > chi2 = 0.0000 (Std. Err. تنظیم شده برای 34 خوشه در id_num) ------------------------------------------------ ---------------------------- | مقاوم ld_morph_br | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ 1.لنگ | 2.235774 .2752258 8.12 0.000 1.696341 2.775206 1.hard | .7013264 .1065947 6.58 0.000 .4924047 .9102482 | لنگی#سخت | 1 1 | -.3988122 .123109 -3.24 0.001 -.6401013 -.1575231 | _مناسب | -10.25841 .2499824 -41.04 0.000 -10.74837 -9.768454 تکواژ | (افست) ---------------------------------------------- ------------------------------- /lnalpha | .696452 ​​.0583161 .5821544 .8107495 ----------------------------------------- ------------------------------------ آلفا | 2.006621 .1170184 1.78989 2.249593 -------------------------------------------- --------------------------------- اکنون مجموعه داده برای به دست آوردن میانگین میزان خطای هر شرکت کننده برای هر سلول از طرح ANOVA جمع شد. collapse (mean) ld_morph_br, by(id_num limp hard) . . anova ld_morph_br limp / id|limp hard limp#hard, repeated(hard) تعداد obs = 68 R-squared = 0.9819 Root MSE = 0.323407 Adj R-squared = 0.9621 منبع | SS جزئی df MS F
چرا ANOVA و GLM (مدل دوجمله ای منفی) نتایج متفاوتی را برای اثرات متقابل ارائه می دهند؟
65501
اگر من یک معادله رگرسیون به شکل داشته باشم: $Y = aX_1 + bX_2$، $X_1$ و $X_2$ متغیرهای پیش بینی کننده اندازه هستند (n x 1). من آرایه‌ای از وزن‌ها را دارم که می‌خواهم برای X_1$ و $X_2$ اعمال کنم، به نام‌های $w_1$ و $w_2$ همچنین با اندازه (n x 1) که می‌خواهم در اینجا اعمال کنم، به‌طوری که تخمین‌های $ a$ و $b$ بر اساس این وزن ها هستند. $w_1 + w_2 = 1$ (این بر اساس محدودیت‌های خودم است)، و اساساً میزان تأثیری را که $X_1$ و $X_2$ روی $Y$ در هر نقطه از زمان دارند، توصیف می‌کند. برای مثال، اگر $w_1 = 0.9$ و $w_2 = 0.1$، من می‌خواهم مقادیر متناظر X_1$ و X_2$ را بر این اساس وزن کنم. من در حال مطالعه حداقل مربعات وزنی بودم، اما این تکنیکی است که برای وزن کردن خطاهای برازش به جای خود متغیرهای پیش بینی کننده استفاده می شود. **چگونه می توانم متغیرهایم را وزن کنم؟**
چگونه می توانم متغیرهای مستقل را در یک رگرسیون وزن کنم؟
65509
من از الگوریتم EM برای به حداکثر رساندن احتمال نیمه مشاهده شده استفاده می کردم. با این حال، من شک خاصی دارم. به طور معمول، الگوریتم به خوبی کار می کند. من می‌توانم مقدار احتمال گزارش داده‌های مشاهده‌شده را چاپ کنم که سعی می‌کنم آن‌ها را به حداقل برسانم و مقادیر همچنان پایین می‌آیند و همگرا می‌شوند. با این حال، گاهی اوقات می‌توانستم ببینم که برای مدتی پایین می‌آید و سپس شروع به افزایش می‌کند. دلیل آن چه می تواند باشد؟ تا آنجا که به کد مربوط می شود، من تقریباً مطمئن هستم که خوب است. پیشنهادی دارید؟
مشکلات استفاده از الگوریتم حداکثرسازی انتظارات
97898
من مجموعه داده ای از مشاهدات در مورد یک ویژگی دارم که در زمان های خاصی جمع آوری شده است. با این حال، تغییرات زیادی (صدها تا ده ها هزار) در تعداد نقاط داده در بین نقاط زمانی فردی وجود دارد. مقادیر حداکثر و حداقل تفاوت چندانی با هم ندارند. من علاقه مند به تعیین مقدار ویژگی در صدک های مختلف هستم، به عنوان مثال. ارزش 75 درصد تغییرات زیاد در اعداد چگونه بر محاسبه صدک تأثیر می گذارد؟ متشکرم.
109691
یک مشتری با یک وب سایت اخیراً یک برنامه رایانه لوحی منتشر کرده است. این تئوری این است که پس از نصب برنامه، احتمال کمتری وجود دارد که مشتری وارد وب سایت شود، زیرا در عوض از برنامه استفاده می کند. برای هر مشتری که برنامه را نصب کرده است، داده‌هایی جمع‌آوری کرده‌ام که نشان می‌دهد تعداد دفعاتی که در دو هفته قبل از نصب برنامه به وب‌سایت وارد شده‌اند، و تعداد دفعاتی که در دو هفته پس از نصب برنامه وارد وب‌سایت شده‌اند. . میانگین برای مورد بعد در واقع کمتر است، و من یک آزمون t را در R اجرا کرده ام که نشان می دهد تفاوت میانگین ها از نظر آماری معنی دار است. با این حال، داده ها با یک شات طولانی عادی نیستند. و ویکی‌پدیا به تست wilcox اشاره کرد که من آن را در R نیز اجرا کردم و همچنین می‌گوید تفاوت قابل توجهی است. سوال اول: آیا تست رتبه بندی علامت دار ویلکاکسون (جفت شده) تست مناسبی با داده های غیر طبیعی است؟ اما، اگر آنالیز انجام شده تا کنون درست باشد (لطفاً اگر اینطور نیست اشاره کنید؛ من یک دوره آماری را 15 سال پیش انجام دادم و 2 روز گذشته را صرف یادگیری مجدد مفاهیم کردم)، من یک مشکل دارم. فاصله سود (اواسط ژوئن تا اواسط ژوئیه) شامل بازگرداندن سال مالی است. بنابراین روند ورود به سیستم در همه مشتریان ما به طور کلی در طول بازه زمانی کاهش می یابد. افراد بیشتری تمایل دارند درست قبل از پایان سال مالی وارد سیستم شوند تا چه کاری انجام دهند. در این روند مشکلاتی وجود دارد، اما مطمئناً مشتریان بیشتری در نیمه آخر ژوئن نسبت به نیمه اول ژوئیه وارد سیستم شده اند. بنابراین من نگران هستم که میانگین پایین‌تر از نظر آماری معنی‌دار برای موارد بعد ممکن است فقط مظهر این روند باشد و اصلاً معنی‌دار نباشد. چگونه می توانم روند نزولی را در تجزیه و تحلیل در نظر بگیرم؟
چگونه می توان معنی را با داده های روند مقایسه کرد؟
64452
تابع چگالی احتمال توسط: $f(t)= (8-t)^2 /9$ برای $5 \le t\le 8$ به دست می آید میانگین زمان CPU روزانه را محاسبه کنید. بنابراین میانگین متغیر جدید $W=T+12$ ساعت را بیان کنید. برای این سوال، بر اساس اطلاعات داده شده، فکر می کنم یک توزیع یکنواخت پیوسته باشد. من می دانم که میانگین $b+a$ است. همچنین، برای بخش دیگر، من می‌خواهم چگونه $T$ را موضوع فرمول قرار دهم تا $T=W-12$ ساعت و سپس آن را در هر کجا که $T$ است قرار دهم؟ نکته جانبی، آیا کسی می‌تواند به من بگوید چگونه نمادهای واقعی را در پست‌ها درج کنم (به عنوان مثال نماد واقعی بتا و نه b)؟
انتظار یک متغیر تصادفی را با توجه به تابع چگالی محاسبه کنید
64453
من هنگام تخمین یک مدل رگرسیون چند متغیره مشکل دارم. من می دانم که cor(y1, y2) به شدت مثبت است، اما زمانی که من سعی می کنم یک مدل رگرسیونی مانند x <- lm (cbind(y1, y2) ~ X) را تخمین بزنم، سپس estvar(x) مقدار کمی منفی برمی گرداند. کوواریانس آیا این امکان پذیر است و چرا؟ من نمی توانم آن را برای خودم توضیح دهم.
R: estVar و cor
111061
داده های ساختاری عجیب - مبارزه طولی داده ها - تست تعامل
64454
یک متغیر دسته بندی با 10 سطح را تصور کنید. می‌خواهم بدانم که باید چند نفر از کل جمعیت را نمونه‌گیری کنم تا احتمال 95/0 یا 99/0 داشتن حداقل یک نفر از هر دسته برای آن متغیر باشد؟
محاسبه حجم نمونه برای داشتن حداقل یک فرد از هر سطح برای یک متغیر طبقه بندی؟
64457
من بر اساس نظرسنجی که انجام دادم مقاله می نویسم. ابتدا فرضیه خود را تنظیم کردم = چه کسی یک خریدار آنی است که تمایل دارد به فروشگاه X وفادار باشد. به جای استفاده از کتاب مقیاس های بازاریابی مقیاس های مختلفی را برای هر عنصر تعیین می کنم: * تمایل به خرید آنی: من تمایل دارم چیزهایی را بدون فکر بخرم. تکانه * وفاداری به فروشگاه: من دوست دارم وقت خود را در فروشگاه X بگذرانم، من مشتری وفادار فروشگاه X هستم، احساس می کنم با فروشگاه X در ارتباط هستم. بعد از آن پرسیدم که آنها چگونه با 1-7 برای هر یک موافقت کردند. حالا باید فرضیه ام را آزمایش کنم... اما جادوگر بهترین راه است؟ آیا روشی برای آزمایش هر 2 مقیاس نشان دهنده تکانشگری در مقابل 3 مقیاس نشان دهنده وفاداری یک شات وجود دارد، به عنوان یک گروه، بنابراین کاملا نماینده خواهد بود یا من باید هر مقیاس تکانشگری را در مقابل مقیاس تکانشگری آزمایش کنم و سپس، من یک مقیاس انجام دادم. معنی؟
مقیاس لیکرت: تجزیه و تحلیل مقیاس ها یا آیتم ها؟
64459
من اینجا کمی گم شده ام. من ماتریسی از متغیرهای پاسخ دارم، $y$، و مدلی را برای حساب کردن تعدادی از متغیرهای پیش‌بینی‌کننده، مثلاً $x_1$، $x_2$ و $x_3$، مناسب می‌کنم: lm.m <- lm( y ~ x1 + x2 + x3 ) سپس می توانم ماتریس کوواریانس تخمینی باقیمانده ها را استخراج کنم (اگر درست متوجه شده باشم)، برای مثال با استفاده از تابع 'estVar' از R: c <- estVar( lm.m ) برای تبدیل این به ماتریس همبستگی چه باید بکنم؟ هر سلول را بر حاصل ضرب ریشه های مربع واریانس باقیمانده ها تقسیم کنید؟ یا متغیرهای اصلی؟ من گیج شده ام. آنچه من در تلاش برای رسیدن به آن هستم محاسبه ماتریس همبستگی باقیمانده ها از مدل است. چیزی که می توان با y2 به دست آورد <- اعمال ( y, 2, تابع( yy ) lm( yy ~ x1 + x2 + x3 )$ باقیمانده ) c <- cor( y2 )
استفاده از ماتریس کوواریانس برای محاسبه همبستگی
86808
پس از برخورد با این بحث، من این سوال را در مورد قراردادهای بازه های اطمینان با تغییر شکل برگشتی مطرح می کنم. با توجه به این مقاله، پوشش اسمی CI تغییر شکل برگشتی برای میانگین یک متغیر تصادفی log-normal است: $\ UCL(X)= \exp\left(Y+\frac{\text{var}(Y)}{2}+z\sqrt{\frac{\text{var}(Y)}{n}+\frac{\text{var} (Y)^2}{2(n-1)}}\right)$ $\ LCL(X)= \exp\left(Y+\frac{\text{var}(Y)}{2}-z\sqrt{\frac{\text{var}(Y)}{n}+\frac{\text{var} (Y)^2}{2(n-1)}}\right)$ /و نه $\exp((Y)+z\sqrt{\text{var}(Y)})$/ اکنون، چنین هستند CI برای تبدیل‌های زیر: 1. $\sqrt{x}$ و $x^{1/3}$ 2. $\text{arcsin}(\sqrt{x})$ 3. $\log(\frac{ x}{1-x})$ 4. $1/x$ در مورد فاصله تحمل برای خود متغیر تصادفی (منظورم یک مقدار نمونه منفرد است که به طور تصادفی از جامعه گرفته شده است) چطور؟ آیا بازه های بک ترانسفورم شده هم همین مشکل را دارند یا پوشش اسمی خواهند داشت؟
فواصل اعتماد به عقب تبدیل شده است
81759
من مطمئن هستم که این سوال بارها و بارها به روش های مختلف مطرح شده است، بنابراین شاید یک سوال تکراری وجود داشته باشد که به سادگی بتوان به آن اشاره کرد. فرض کنید یک کیسه با 10 عدد در آن وجود دارد (1 تا 10). فرض کنید بعد از هر بار کشیدن یک عدد، آن عدد دوباره در کیسه قرار می گیرد، بنابراین همیشه 10 عدد برای انتخاب وجود دارد. بدیهی است که شانس من برای کشیدن یک عدد خاص همیشه 10٪ برای هر تلاشی است. اما چگونه می توانم شانس ترسیم یک عدد خاص را برای x تعداد تلاش در این سناریو محاسبه کنم؟ ویرایش: فقط برای اطمینان از اینکه در اینجا کاملاً واضح هستم، اجازه دهید سناریو را به روشی کمی متفاوت بازگو کنم. فرض کنید تعداد x کیسه وجود دارد و هر کدام شامل 10 عدد (1 تا 10) است. اگر دقیقا یک بار از هر کیسه بکشم شانس من برای کشیدن 5 از یکی از کیسه ها چقدر است؟
شانس مداوم برای کشیدن یک عدد خاص از یک کیسه اعداد