_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
47866
داشتم به این مقاله ویکی‌پدیا نگاه می‌کردم و به این فکر می‌کردم که آیا می‌توان بردار «احتمال_شروع» را فقط با «احتمال_انتقال»، «احتمال_انتشار» و دنباله‌ای از مشاهدات (به عنوان مثال پیاده‌روی->راه رفتن->خرید) محاسبه کرد؟
محاسبه احتمالات اولیه زنجیره مارکوف پنهان
69669
فرض کنید من یک فرآیند تصادفی $X$ دارم که نشان دهنده تولید چیزی است. من بهبودهایی در خط تولید انجام دادم و امیدوارم در نهایت با یک فرآیند تصادفی متفاوت، $Y$، با میانگین بیشتر از $X$ و واریانس کمتر به پایان برسم. فرض کنید هر فرآیند برای یک زمان اجرا شده است. اگر بخواهم بهبود (I) را با استفاده از نسبت انتظارات آنها کمیت کنم ($I = \frac{\mathrm{E}[Y]}{\mathrm{E}[X]}$)، اطمینان 95٪ چقدر خواهد بود. فاصله من؟ آیا می توانم آنها را به عنوان متغیرهای گاوسی مستقل در نظر بگیرم و واریانس بهبود ($I$) را با فرمول محصول واریانس محاسبه کنم؟ از آنجایی که $X$ و $Y$ تغییراتی از یک خط تولید هستند، نمی دانم که آیا می توان آنها را مستقل در نظر گرفت. همچنین، مطمئن نیستم که بتوان آنها را گاوسی در نظر گرفت یا خیر.
فاصله اطمینان برای انتظار دو فرآیند تصادفی
33282
نمونه برداری از راه دور یک تکنیک رایج است که برای تخمین فراوانی گونه های حیات وحش (مانند گوزن یا بوقلمون) استفاده می شود. این تکنیک نمونه برداری مبتنی بر ترانسکت خطی را برای کارکنان انجام می دهد که در آن فاصله عمود بر حیوانات منفرد اندازه گیری می شود. سپس از آن فواصل برای مدل سازی یک تابع تشخیص استفاده می شود. سپس از آن تابع تشخیص برای تصحیح تعداد حیوانات برای تشخیص ناقص استفاده می شود (باکلند و همکاران 2001). نظرسنجی های حیات وحش مبنی بر اینکه نمونه برداری از راه دور کارکنان از فاصله برنامه (توماس و همکاران 2010) برای تخمین فراوانی استفاده کرد. فاصله برنامه منجر به برآورد فراوانی $\hat N$ و ضریب تغییرات $cv(\hat N)$ می شود که در آن $cv(\hat N)$ $se(\hat N)/\hat N$ و $var است. (\hat N)$ $se(\hat N)^2$ است. برای مقایسه فراوانی از دو ناحیه مختلف، می‌توان از آزمون z ساده استفاده کرد: $$ Z = \frac{(\hat N_1-\hat N_2)}{\sqrt{(var(\hat N_1-\hat N_2)) }} $$ که $$ var(\hat N_1-\hat N_2) = var(\hat N_1)+var(\hat N_2) $$ $\hat N_1$ و $\hat ارائه شد N_2 دلار به طور مستقل برآورد شد (باکلند و همکاران 2001). پس از انجام یک بررسی آزمایشی، تخمین مقدار تلاش (یعنی طول ترانسکت ها $\hat L$) برای بدست آوردن ضریب تغییر هدف مورد نظر از تلاش های بررسی آینده آسان است. $$ \hat L = \frac{(L_o*cv(\hat N)^2)}{(cv_t(\hat N)^2)} $$ که $L_o$ کل طول خط بررسی شده در طول یک بررسی آزمایشی است ، $cv(\hat N)$ ضریب تغییرات برآورد فراوانی از نظرسنجی آزمایشی است و $cv_t(\hat N)$ ضریب تغییر هدف مورد نظر از تلاش‌های بررسی آینده است. (باکلند و همکاران 2001). برای تعیین یک ضریب تغییر هدف، من یک تابع «R» را برای تخمین قدرت آزمون فوق برای تشخیص تفاوت معین بین $\hat N_1$ و $\hat N_2$ ایجاد کرده ام. # تابعی برای تخمین قدرت برای تشخیص تغییر بین دو تخمین فراوانی # با استفاده از آزمون z 2 دنباله. در جایی که N1 و N2 دو فراوانی هستند، تغییر # درصد تغییر یا تفاوت مورد نظر است و CV ضریب تغییرات است. ZPOWER.2tail = تابع (تغییر، N1، CV، آلفا){ N2=N1+(N1*تغییر) SD1=N1*CV SD2=N2*CV VAR=(SD1^2)+(SD2^2) qL=qnorm( آلفا/2) qU=qnorm(1-(آلفا/2)) Z=(N1-N2)/sqrt(VAR) power=(pnorm(qL-Z))+(1-pnorm(qU-Z)) cbind(N1,N2,change,CV,SD1,SD2,VAR,qL,qU,Z,alpha,power)} # مثال استفاده از تابع ZPOWER.2tail (تغییر=-0.2، N1=300، CV=0.15، آلفا=0.05) یک نسخه تک دنباله این خواهد بود: # تابعی برای تخمین قدرت برای تشخیص تغییر بین دو تخمین فراوانی # با استفاده از z 1 دنباله -تست در جایی که N1 و N2 دو فراوانی هستند، تغییر # درصد تغییر یا تفاوت مورد نظر است و CV ضریب تغییرات است. ZPOWER.1tail = تابع (تغییر، N1، CV، آلفا){ N2=N1+(N1*تغییر) SD1=N1*CV SD2=N2*CV VAR=(SD1^2)+(SD2^2) if(تغییر> 0) q=qnorm(alpha) if(change<0) q=qnorm(1-alpha) z=(N1-N2)/sqrt(VAR) if(change>0) power=pnorm(q-z) if(change<0) power=1-pnorm(q-z) cbind(N1,N2,change,CV,SD1, SD2,VAR,q,z,alpha,power)} البته این توابع می توانند به راحتی در یک تابع پس از رفع همه اشکالات ترکیب شوند. پس از نوشتن این کد، کد زیر را در CREEM یافتم. #-------------------------------------------- # قدرت تشخیص با استفاده از آزمون z بین دو نقطه زمانی # تغییر دهید. #-------------------------------------------- سطح #آلفا (نوع خطای من) آلفا<-0.05 #بردار ضرایب var cvs <- seq(0.05,0.5,by=0.05) #بردار تفاوت های واقعی fs <- seq(0,1,by=0.1) lcvs<-length(cvs) lfs<-length(fs) res<-matrix(0,lcvs,lfs) q1<-qnorm(1-(alpha/2)) q2< -qnorm(alpha/2) s2<-sqrt(2) #کار کردن توان در هر سطح از CV و تفاوت واقعی برای (i1 در 1:lcvs) {cv<-cvs[i1] برای (i2 در 1:lfs) { f<-fs[i2] z<-f/(s2*cv) توان = (1-pnorm(q1-z)) + pnorm(q2 - z) res[i1,i2]<-power } } #خروجی به عنوان نمودار پرسپکتیو persp(cvs,fs,res) #-------------------------------------------- میدونم که مدت زیادی است که به اینجا رسیده ام، اما سوال من اینجاست. تفاوت عمده بین کد من و کد CREEM این است: $$ Z=(\hat N_1-\hat N_2)/\sqrt{var(\hat N_1-\hat N_2} $$ در مقابل $$ Z=d/( \sqrt{2}*cv(\hat N)) $$ که در آن $d$ تفاوت واقعی است N)$ در مخرج به جای $\sqrt{var(\hat N_1-\hat N_2)}$، باکلند، اس. مقدمه ای بر نمونه برداری از راه دور: برآورد فراوانی جمعیت های بیولوژیکی دانشگاه آکسفورد Press, New York, USA, Thomas, L., S. T. Buckland, E. A. Rexstad, J. L. Laake, S. Strindberg, S. L. Hedley, J. R. B. Bishop, T. A. Marques, and K. P. Burnham 2010 بررسی های نمونه گیری از راه دور برای تخمین اندازه جمعیت مجله کاربردی اکولوژی 4
تجزیه و تحلیل توان سفارشی در R
38107
یک داور مجله از من خواسته است تا مدل های SVM آموزش دیده نهایی خود را ارائه دهم تا دیگران بتوانند از مدل ها استفاده کنند یا از آنها استفاده کنند. آیا روش پذیرفته شده ای برای این کار وجود دارد؟ من در فکر ارائه یک صفحه گسترده با جزئیات ویژگی های انتخاب شده، بردارهای پشتیبانی، سوگیری هایپرپلان و وزن های برداری او برای هر مدل بودم. من از تابع *SVM_train* Matlab برای این منظور استفاده می کنم. اگر این کار را در گذشته برای مدل‌های رگرسیون و متقابل منظم انجام داده باشید، اما برای SVM‌ها بسیار سخت به نظر می‌رسد.
به اشتراک گذاری یک مدل SVM آموزش دیده
11309
من تعجب می کنم که اصطلاح مناسب برای این چیست: Turning this: ________________ | طول | شمارش | | 1 | 5 | | 3 | 2 | | 6 | 12 | |________|_______| در این مورد: ________________ | طول | شمارش | | 1 | 5 | | 2 | 0 | | 3 | 2 | | 4 | 0 | | 5 | 0 | | 6 | 12 | |________|_______| پیشاپیش متشکرم
اضافه کردن صفر به جدول تعداد فراوانی اعداد صحیح متوالی در جایی که عدد صحیح داده شده وجود ندارد را چه می نامید؟
18682
من از دوران جوانی نقل قولی از یک مهندس یا ریاضیدان معروف را در مورد نیاز به بیان مقادیر با تعداد مناسبی از ارقام به یاد دارم، اما در حال حاضر نمی توانم آن را به خاطر بسپارم. چیزی شبیه به > هیچ چیز سریعتر از استفاده از ارقام بیشتر از آنچه مناسب است، نادانی را نشان نمی دهد. با این حال google-fu من را شکست داده است. کسی آنجا از آن مطلع است؟
به دنبال ارجاع به نقل قول معروف در مورد دقت اعداد
15711
> **تکراری احتمالی:** > محاسبه حجم نمونه مورد نیاز، دقت برآورد واریانس؟ من می‌خواهم معیاری از متغیر بودن یک پدیده خاص ارائه دهم. به نظر می رسد که این پدیده به طور معمول توزیع شده است، بنابراین یک معیار منطقی برای تغییر ممکن است واریانس باشد. من قبلاً دیده ام که مردم واریانس ها را گزارش می کنند، اما همیشه از این که چگونه هیچ حاشیه خطای گزارش نشده است، آزارم می دهد. > **نیمه سوال اول**: چرا من هرگز نمی بینم که مردم حاشیه های خطا > واریانس ها را گزارش کنند؟ یا می توانید مثال هایی از جایی که کسی انجام می دهد به من بدهید؟ یا شاید > معیار دیگری برای تغییرپذیری وجود دارد که باید از آن استفاده کنم؟ اگرچه من هرگز کسی را ندیده‌ام که معیار اطمینان یک واریانس را گزارش کند، اما احساس می‌کنم اشتباه است که خطای استاندارد معیار تغییرپذیری را گزارش نکنم. بنابراین فکر کردم که چگونه ممکن است این کار را انجام دهد. قضیه کوکران به ما می گوید که واریانس نمونه از توزیع $X^2$ با درجه آزادی $n-1$ پیروی می کند. واریانس نمونه را $s^2$ صدا بزنید. $\frac{ns^2}{\sigma^2}\sim\chi^2_{n-1}$ واریانس را تخمین بزنید. آن را $\hat\sigma$ بنامید. $s^2\sim\frac{\hat\sigma^2}{n}\chi^2_{n-1}$ > **نیمه سوال دوم**: چگونه می توانم فاصله اطمینان واریانس را بدست بیاورم؟ > آیا من فقط cdf $\frac{\hat\sigma^2}{n}\chi^2_{n-1}$ را در > برخی از محدوده ها محاسبه کنم؟ و از آنجایی که $X^2$ متقارن نیست، آیا راه استانداردی برای > گرفتن فاصله اطمینان دو طرفه وجود دارد؟ اگر مفید باشد، فرمولی برای خطای استاندارد واریانسی که در کدم پیدا کردم ارسال می‌کنم، اگرچه فکر نمی‌کنم اصلا مفید باشد. $Var(s^2)=\frac{2\sigma^4}{n-1}$ تقریبی $\sigma$ به عنوان $\hat\sigma$، و ما $\widehat{Var}(s^2) را دریافت می کنیم =\frac{2\hat\sigma^4}{n-1}$ $\widehat{SE}(s^2)=\sqrt{\frac{2\hat\sigma^4}{n-1}}$
اطمینان از برآورد واریانس
47286
بیایید فرض کنیم یک آرایه (یک بعدی) $I$ با عناصر $N$ عدد محدود دارم. من همچنین یک تابع $A$ دارم که هر عنصر $I_n$ (برای $0\leq\ n \lt N$) را به عنصر مربوطه $O_n$ در آرایه $O$ نگاشت می کند. من همچنین تابع دوم $B$ دارم که هر عنصر $I_n$ (برای $0\leq\ n \lt N$) را به عنصر مربوطه $O'_n$ در آرایه $O'$ نگاشت می کند. اگر $O = O'$ (یعنی برای $0\leq\ n \lt N$، برای هر $I_n$ در $I$، $O_n = O'_n$)، می توانم بگویم $A$ و $B$ از نظر عملکردی در دامنه $0\leq\ n \lt N$ معادل هستند. با این حال، اگر حداقل یک عنصر $I_n$ وجود داشته باشد به طوری که $O_n \ne O'_n$، آنگاه می دانم که $A$ و $B$ از نظر عملکردی معادل نیستند. فرض کنید من عناصر $m$ را در $O'$ می شناسم و همه عناصر $N$ را در $O$ می شناسم. برای عناصری که من می شناسم، اگر حتی یک عنصر $O'_n \ne O_n$ باشد، می توانم با قطعیت بگویم که $A$ و $B$ از نظر عملکردی معادل نیستند. با این حال، با توجه به اینکه برای همه $m$ تعداد عناصر شناخته شده در $O'$، $O'_n = O_n$، آیا از نظر ریاضی امکان تعیین احتمال $P$ ($0 \leq\ P \leq 1$) وجود دارد که $A$ از نظر عملکردی معادل $B$ است؟ برای مثال، اگر $N = 500$ و $m = 500$، و برای هر $I_n$، $O_n = O'_n$، آنگاه می توانم با قطعیت $P = 1$ بگویم که $A$ و $B $ از نظر عملکردی در سراسر آن دامنه معادل هستند. با این حال، آیا می توانم $P$ را تعیین کنم اگر $m = 400$، یا اگر $m = 300$؟ به طور مستقیم $P$ باید برای $m = 400$ بیشتر از $m = 300$ باشد، اما آیا می توانم این تفاوت را کمیت کنم؟ اساساً مشکل من این است که من دو جعبه سیاه $A$ و $B$ دارم، من همه خروجی های $A$ را می دانم اما همه خروجی های $B$ را نمی دانم، و $B$ از نظر محاسباتی برای استفاده بسیار گران است. . در نتیجه، من نمی‌خواهم هر ورودی را با $B$ آزمایش کنم، و مایلم با آزمایش فقط زیرمجموعه‌ای از ورودی‌ها، برخی از احتمالات خطا را بپذیرم - اما آیا می‌توانم این احتمال خطا را کمیت کنم؟
تعیین احتمال اینکه دو تابع خروجی های یکسانی تولید کنند، در صورتی که همه خروجی های یک تابع مشخص نباشند.
40482
گردش کار تجزیه و تحلیل داده‌های من از طریق R و «ggplot2» است، تا حدی به این دلیل که «ggplot2» من را از ایجاد توطئه‌های «بد» (گمراه‌کننده و غیره) منصرف می‌کند. با این حال، گاهی اوقات می‌خواهم نمودارهایی بسازم که چندین متغیر وابسته را بر خلاف یک متغیر مستقل مشترک مقایسه می‌کنند، مانند زیر: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vussP.png). این معمولاً با افزودن چندین محور انجام می شود. «ggplot» نمی‌تواند چندین محور اضافه کند. می‌دانم که راه‌های مختلفی برای حل این مشکل دارم: می‌توانم برای این نوع طرح از ggplot خارج شوم، یا احتمالاً می‌توانم چیزی را در ggplot هک کنم. سوال من این است که چگونه با این موضوع برخورد کنم. روش «ggplot» برای مقابله با این موضوع، از طریق فیت کردن است، اما اغلب من می‌خواهم با متغیرهای دیگر جنبه‌بندی کنم. (به عنوان مثال، با مثال تصویری، ممکن است داده ها را در چندین مکان و ارتفاع جمع آوری کرده باشم). آیا Grammar of Graphics فقط یک پارادایم بد برای این نوع مجموعه داده است یا گزینه ای برای ارائه وجود دارد که به خوبی کار کند؟
چگونه می توان متغیرهای وابسته را با واحدهای مختلف با استفاده از پارادایم Grammar of Graphics مقایسه کرد؟
38102
فرض کنید من 20 موش دارم. من موش ها را به نوعی جفت می کنم، به طوری که 10 جفت می شود. برای هدف این سوال، این می تواند یک جفت تصادفی باشد، یا می تواند یک جفت معقول باشد، مانند تلاش برای جفت کردن موش هایی از یک بستر، از همان جنس، با وزن مشابه، یا می تواند یک جفت عمدی احمقانه باشد. تلاش برای جفت کردن موش‌ها با وزن‌هایی که ممکن است نابرابر باشند. سپس از اعداد تصادفی برای اختصاص دادن یک موش در هر جفت به گروه کنترل و ماوس دیگر به گروه مورد درمان استفاده می کنم. من اکنون آزمایش را انجام می‌دهم و فقط موش‌هایی را که باید تحت درمان قرار گیرند، درمان می‌کنم، اما در غیر این صورت هیچ توجهی به ترتیبات انجام شده ندارم. وقتی کسی به تجزیه و تحلیل نتایج می‌آید، می‌تواند از آزمون t غیر زوجی یا آزمون t زوجی استفاده کند. در صورت وجود پاسخ ها از چه لحاظ متفاوت خواهد بود؟ (من اساساً به تفاوت های سیستماتیک هر پارامتر آماری که نیاز به تخمین دارد علاقه مند هستم.) دلیلی که می پرسم این است که مقاله ای که اخیراً با آن درگیر بودم توسط یک زیست شناس به دلیل استفاده از آزمون t زوجی به جای غیر زوجی مورد انتقاد قرار گرفت. آزمون t البته، در آزمایش واقعی، وضعیت به اندازه موقعیتی که من ترسیم کردم شدید نبود و به نظر من دلایل خوبی برای جفت شدن وجود داشت. اما زیست شناس موافق نبود. به نظر من در شرایطی که ترسیم کردم با استفاده از آزمون t زوجی، به جای آزمون جفت نشده، نمی توان اهمیت آماری را به اشتباه بهبود بخشید (کاهش مقدار p). با این حال، اگر موش ها بد جفت شوند، می تواند اهمیت آماری را بدتر کند. آیا این درست است؟
آزمون t زوجی در مقابل غیرجفتی
38104
من اولین دوره آمار را می گذرانم. مجموعه داده ای با تعداد شرکت هایی که در دسته های مختلف درآمد قرار می گیرند (به هزاران یورو) به من داده شده است: <1 64108 1-39 73121 40-99 67532 100-399 68613 400-1999 33760 2000-9999-2000-9999 2493 40000-199999 779 200000-infinity 235 حالا از من خواسته شد که چارک پایین را بشمارم و اگر شرکتی متعلق به دو دهک بالاتر باشد چقدر باید درآمد داشته باشد. آیا منطقی است که درآمد آن 235 شرکت را 200000 هزار یورو فرض کنیم؟ و آیا 39 به معنای 39000 یورو است بنابراین اگر یکی از آن 73121 شرکت 39600 درآمد داشته باشد، در واقع به محدوده 40-99 تعلق دارد؟ با فرض توزیع یکنواخت داده‌ها، می‌توانم داده‌ها را طوری تغییر دهم که بدانم چند شرکت به هر کلاس تعلق دارند، اما آیا این یک راه استاندارد برای انجام چنین مشکلاتی است؟
نحوه درک داده های درآمد شرکت
47284
من یک سوال آماری در math.SE پرسیده ام که اکنون فکر می کنم باید اینجا باشد. با این حال، اینجا آن را تکرار می کنم. به عنوان یک تازه وارد، ممنون می شوم اگر بتوانید من را برای هر گونه اشتباه یا تکرار همان سؤال (بدون پاسخ) معذرت خواهی کنید، زیرا من واقعاً می خواستم هر چه زودتر آن را بفهمم! مشکل اینجاست: فرض کنید، یک مدل رگرسیون خطی چندگانه به شرح زیر ایجاد کرده‌ایم: $$y=a_0+a_1x_1+a_2x_2+⋯+a_nx_n+e=\hat y+e$$ $$z=\frac y {\hat y}=1+\frac e {\hat y}$$ اکنون، آیا می‌توان از نظر ریاضی نشان داد که همبستگی بین $z$ و اگر تمام مفروضات مدل رگرسیون برآورده شوند، x_1، x_2، ...x_n$ نزدیک به $0 خواهند بود؟ از نظر تجربی رابطه (هم پیرسون و هم اسپیرمن) صفر است (0.01 دلار یا نزدیک)، با این حال، من می خواهم آن را به صورت ریاضی نشان دهم. با استفاده از روش دلتا، می‌توانیم آن را محاسبه کنیم، $E(1+\frac e {\hat y})=1$ و $Var(1+\frac e {\hat y})=(\frac {σ_e} {\ نوار y})^2$. می‌توانیم با پیدا کردن $COV(x_1,z)$ امتحان کنیم. زیرا، معادله همبستگی پیرسون برای $ x,y$ است، $\rho_{xy}=\frac {COV(x,y)} {\sigma_x \sigma_y}$ و $COV(x,y)=E((x -\bar x)(y-\bar y))=E(x,y)-\bar x\bar y$. من اهل پیشینه آماری نیستم، بنابراین احتمال سوء تعبیر بیشتر است. من می دانم که اگر این متغیرها مستقل باشند $COV(x_1,z)$ صفر خواهد بود. اما از مدل رگرسیونی هستند و مستقل نیستند! هر گونه پیشنهاد یا راهنمایی؟
اشتقاق آماری همبستگی پیرسون دو متغیر به دست آمده از مدل رگرسیون
14567
من سعی می کنم ضرایب روی آدمک های سال را در یک رگرسیون پروبیت مرتب تفسیر کنم. داده های من یک پنل با 20 سال است. من آدمک های 19 ساله را به استثنای سال اول اضافه کردم. این به من امکان می دهد ضرایب هر ساختگی را در رابطه با سالی که حذف شده است تفسیر کنم. اکنون باید متغیری را وارد کنم که در هر سال مقدار یکسانی در پانل دارد. وقتی oprobit خود را روی stata اجرا می‌کنم، به‌طور خودکار یکی از dummies سال را به دلیل همخطی بودن حذف می‌کند. چگونه می توانم ضرایب باقیمانده روی آدمک های سال را تفسیر کنم؟ به عنوان یک یادداشت اضافی، تمرکز مطالعه بر روند ضرایب ساختگی های زمانی است. پس اگر دوساله ساقط شد آیا می‌توان باقیمانده‌ها را نسبت به آنهایی که انداخته است تفسیر کرد و اگر چنین است، تعبیر چیست؟
ساختگی های زمان در رگرسیون پروبیت مرتب
33829
می خواهیم از SPSS برای مقایسه دو گروه استفاده کنیم (آزمون t-test 2 نمونه مستقل). گروه اول شامل داده های واقعی است، گروه دیگر تخیلی است. این گروه داستانی باید به اندازه گروه واقعی (اول) موضوع داشته باشد. اما میانگین روی 0 و انحراف معیار روی 1 (توزیع نرمال استاندارد) تنظیم شده است. ابزارهای مختلفی برای مقایسه دو گروه با اضافه کردن تعداد آزمودنی ها، میانگین و std برای هر گروه به طور مستقل وجود دارد. اما چگونه می توانیم این کار را در SPSS انجام دهیم؟ من فقط می دانم چگونه یک متغیر (گروه 1) را در برابر یک مقدار تست (T=0) آزمایش کنم. * * * _EDIT:_ در اینجا توضیح دقیق تری از این که چرا می خواستم از این آزمون t دو نمونه ای استفاده کنم، توضیح داده می شود، اگرچه این نوع رویکرد در ابتدا برای من عجیب به نظر می رسید. موضوع این است که ما 20 بیمار را بررسی کردیم و داده های آنها را با یک پایگاه داده بزرگ از افراد سالم مقایسه کردیم. این بدان معناست که ما یک تبدیل z را با استفاده از پایگاه داده مرجع انجام دادیم (روش استاندارد در این زمینه (آزمایش حسی کمی، QST)). گروه‌های تحقیقاتی دیگری وجود دارند که پیشنهاد می‌کنند از آزمون t 2 نمونه‌ای که در زیر ذکر کردم استفاده کنید، زیرا مقایسه داده‌های 20 بیمار با داده‌های 1200 کنترل نامناسب است. بنابراین آنها یک گروه خیالی با M = 0 و SD = 1 اختراع کردند و داده های واقعی را در برابر این داده های خیالی (در وب سایتی مانند این \--> اما Two-Sample T-Test) آزمایش کردند. این رویکرد محافظه کارانه تر از استفاده از آزمون t تک نمونه ای با مقدار آزمون = 0 خواهد بود. صادقانه بگویم، من نمی دانم که آیا این رویکرد درست است یا خیر. اولین ایده من این بود که یک آزمون t تک نمونه ای انجام دهم و گروه بیمار (یعنی مقادیر z آنها) را در برابر مقدار 0 آزمایش کنم تا ببینم آیا به جای استفاده از یک مجموعه داده خیالی، مقادیر z به طور قابل توجهی با 0 تفاوت دارند یا خیر.
SPSS: 2 نمونه t-test: داده های واقعی در مقابل گروه داستانی با M=0 و SD=1؟
18028
هنگام تخمین اندازه اثر برای تعیین حجم نمونه بهینه برای یک آزمون آماری، به نظر می رسد رویکرد کتاب درسی این کار را از مطالعات آزمایشی یا موارد مشابه انجام می دهد. آیا این نیز قانونی است که اندازه اثر را به عنوان کوچکترین اثر مرتبط، مستقل از اثرات واقعی و سیستماتیک که برای جالب بودن آنقدر ضعیف هستند، تعریف کنیم؟ به عنوان مثال، اگر بخواهم بهبودی را در برخی از محصولات موجود آزمایش کنم که هزینه تولید آن را مقداری افزایش می دهد. من می دانم که اگر محصول حداقل x% بهتر (بر اساس برخی معیارها) از راه حل موجود باشد، مشتریان این حق بیمه را پرداخت خواهند کرد. آیا می توانم از اندازه اثر و اندازه نمونه حاصل به عنوان ابزاری برای سرکوب نتایج قابل توجه برای تفاوت های کوچکتر استفاده کنم؟ اگر نه، مشکل چیست و راه حل صحیح چگونه به نظر می رسد؟
اندازه اثر مورد نظر در برابر اندازه اثر مورد انتظار
40487
من سعی می کنم با یک مقدمه ساده از فیلتر کالمن کار کنم اما به دیوار آجری برخورد می کنم. من می خواهم موقعیت و سرعت یک هدف را ردیابی کنم، اما فقط موقعیت را اندازه گیری کنم (به طور پر سر و صدا). درک من این است که این کاربرد کلاسیک KF است، اما نمی توانم جزئیات را بررسی کنم. من از نماد ولش و بیشاپ استفاده می کنم. توجه داشته باشید که نتایج زیر با استفاده از یک پیاده‌سازی ساده که من خودم نوشتم ایجاد می‌شود، بنابراین ممکن است خطاها اجرای باگ یا استفاده نادرست (یا هر دو!؟) باشد. این پست کمی طولانی است اما من می‌خواستم تمام مراحلی را که انجام داده‌ام نشان دهم تا دقیقاً کجا اشتباه می‌کنم مشخص شود. اینجا کاری است که من انجام می دهم. معادله به روز رسانی حالت $$ x_k = A x_{k-1} $$ دارای $$ A = \left( \begin{array}{cc} 1 & t \\\ 0 & 1 \\\ \end{array} \راست)$$ که در آن $t$ طول گام زمانی است. ماتریس کوواریانس نویز، Q، با $$ Q = \left( \begin{array}{cc} t^4/4 & t^3/2 \\\ t^3/2 & t \end{آرایه داده می‌شود. } \right) \sigma_a^2$$ که از فرض اعمال یک شتاب ثابت تصادفی در مرحله رانش حاصل می‌شود. مدل اندازه‌گیری $$ z = Hx $$ با $$ H = \left( \begin{array}{cc} 1 & 0 \end{array} \right) $$ مشخص می‌شود. هر وقت سعی می کنم این را اجرا کنم، در نهایت با یک ماتریس کوواریانس حالت، $P_k$ مواجه می شوم، که متقارن نیست!؟ در اینجا تعدادی از اعداد شرکت برای مثال آورده شده است. اگر مقدار اولیه را به $$ x = \left( \begin{array}{c} 0 \\\ 0 \end{array} \right) $$ $$ P = \left( \begin{array}{cc} 100 & 0 \\\ 0 & 100 \end{array} \right) $$ یعنی هدف ثابت در مبدا، اما با عدم قطعیت زیاد در مورد موقعیت و سرعت. طول مرحله $t=1$ و $\sigma_a^2=1$ را فرض کنید به طوری که $$ Q = \left( \begin{array}{cc} 0.25 & 0.5 \\\ 0.5 & 1 \end{array} \right ) $$ فرض کنید بعد از اولین گام زمانی به $z=1$ با خطای $\sigma_z^2 = 1$ اندازه گیری می کنیم تا اندازه گیری ماتریس کوواریانس به سادگی $$ R = (1) $$ است با انجام مراحل، پیش‌بینی حالت $$ x_k = A x_{k-1} $$ $$ x_k = \left( \begin{array}{c} 0 \\\ 0 \end{array} \right) $$ و پیش‌بینی کوواریانس حالت $$ P_k = \left( \begin{array}{cc} است. 200.25 & 100.5 \\\ 100.5 & 101 \end{array} \right) $$ سود کالمن، K، با $$ K_k = P_k H^T (H P_k H^T + R)^{-1} داده می شود. $$ که من برای این مثال به صورت $$ K_k = \left( \begin{array}{c} 0.990099 \\\ محاسبه کردم 0 \end{آرایه} \right) $$ این منجر به برآورد وضعیت اصلاح شده $$ \hat{x}_k = x_k + K_k(z_k - Hx_k) $$ $$ \hat{x}_k = \left( \begin{array}{c} 0.990099 \\\ 0 \end{array} \right) $$ منطقی است، ما تقریباً به طور کامل اندازه‌گیری را از زمان شروع باور داریم با درجه بالایی از جهل خوب، تا اینجا خیلی خوب است. اما اینجا جایی است که به شکل گلابی می رود. کوواریانس حالت اصلاح شده $$ \hat{P}_k = (I - K_kH)P_k $$ $$ \hat{P}_k = (I - \left( \begin{array}{cc} 0.990099 & 0 \\\ 0 و 0 \end{array} \right) ) P_k$$ $$ \hat{P}_k = \left( \begin{array}{cc} 0.00990099 & 0 \\\ 0 & 1 \end{array} \right)\left( \begin{array}{cc} 200.25 & 100.5 \\\ 100.5 & 101 \end{array} \right) $$$$ \ hat{P}_k = \left( \begin{array}{cc} 1.982673 & 0.9950495 \\\ 100.5 & 101 \end{array} \right) $$ که متقارن نیست و بنابراین یک ماتریس کوواریانس معتبر نیست. من اینجا چه غلطی می کنم؟
به روز رسانی فیلتر کالمن یک ماتریس کوواریانس نامعتبر را برمی گرداند؟
103308
می توان با یک محاسبه ساده ثابت کرد که واریانس نمونه دو نمونه ترکیب شده $\sigma^2=\frac{N_1-1}{N-1}\sigma_1^2+\frac{N_1}{N-1} است. \mu_1^2+ \frac{N_2-1}{N-1}\sigma_2^2+\frac{N_2}{N-1}\mu_2^2- \frac{N}{N-1}{\mu^2},$ where $N=N_1+N_2.$ باید یک مرجع به این فرمول در مقاله خود اضافه کنم و در یافتن آن در یک کتاب منتشر شده مشکل دارم. کسی مرجع خوبی بهش میدونه؟
ارجاع به فرمول واریانس نمونه نمونه های ترکیبی
38101
از ویکی پدیا > روش شبه مونت کارلو روشی برای ادغام عددی و حل > برخی مسائل دیگر با استفاده از دنباله های کم اختلاف (همچنین دنباله های شبه تصادفی یا دنباله های فرعی تصادفی نامیده می شود) است. به نظر من توالی های اختلاف کم اگر به عنوان نمونه های تصادفی دیده شوند، نمونه هایی از توزیع های یکنواخت هستند و نه توزیع های غیر یکنواخت. درست میگم یا نه؟ با تشکر
آیا مولدهای اعداد شبه تصادفی فقط از توزیع یکنواخت نمونه برداری می کنند؟
72825
من 2 متغیر تصادفی توزیع شده گاما $(X,Y)$ با مقیاس و پارامترهای شکل دلخواه دارم. علاوه بر این، $Y$ باید یک تابع غیر خطی از $X$ باشد، فرض کنید $Y=\sqrt{X}$. چیزی که من به آن علاقه دارم احتمال مشترک $F_{X,Y}(\cdot)$ است. از همه پیشنهادات یا نظرات کلی استقبال می شود. پیشاپیش از شما متشکرم
آیا یک توزیع دو متغیره از دو متغیر تصادفی توزیع شده با گاما با وابستگی غیرخطی ایجاد می کنید؟
40483
x <-model.matrix (d) [، -1] e <-eigen (t (x) ٪*٪ x) e مقادیر [1] 1174600.548 21261.741 16133.842 6206.181 1856.894 first $ $ \ alpha_1 = 1174600.548 $ است بردار ویژه متعامد به $\lambda~ 1=$. چگونه این مقادیر زیر را تفسیر کنم؟ بردارها [,1] [,2] [,3] [,4] [,5] [1,] -0.05483536 0.01923863 -0.16111563 -0.19334497 0.96606544 [2،] -0.301111946 -0.24543862 0.15349803 -0.04537559 [3،] -0.59738921 -0.06197220 0.05081398 -0.77741824 -0.17978986 -0.17978986 -0.17978986 - 0.17978986 [4،17978986 - -0.06415612 0.57195569 0.06916759 [5،] -0.10443454 0.21655517 0.95241985 0.08685415 0.16598214 و سپس من شرایط را دنبال کردم sqrt(e\$val[1]/e\$val) [1] 1.000000 7.432684 8.532498 13.757290 25.150782 که K<30 بنابراین چند خطی وجود ندارد. آیا چیز دیگری وجود دارد که من باید با این مقادیر رعایت کنم؟
تعیین مقادیر ویژه و بردارهای ویژه در R
30732
من مجموعه ای از توزیع های جمعیتی دارم. من آنها را به صورت تجربی، با محاسبه هیستوگرام از جمعیت های بسیار بزرگ (حدود 1 میلیون در هر توزیع) به دست آوردم. توزیع جمعیت ممکن است شکل یکسانی نداشته باشد. جمعیت ها همگی پیوسته یا همگی گسسته هستند. من می خواهم آزمایش کنم که آیا توزیع ها مطابق با یک ترتیب خاص قرار دارند یا خیر. به‌طور رسمی‌تر، اجازه دهید $D_i،\ldots،D_k$ جمعیت‌های ما باشند که بر اساس یک معیار مشخص مرتب شده‌اند. می‌خواهیم آزمایش کنیم که آیا توزیع‌های آنها (تابع چگالی احتمال) $f_i، \ldots، f_k$ مطابق ترتیب قرار دارند یا خیر. من به طور موقت مشکل را به عنوان آزمایش اینکه $f_i$ به سمت چپ $f_j$ منتقل شده است، فرموله کردم، برای هر جفت جمعیت $(D_i,D_j)$ با $i <j$، تا کنون، من یک جمع رتبه بندی Wilcoxon انجام داده ام. تست برای هر جفت جمعیت؛ با استفاده از نسخه برای نمونه های بزرگ و تصحیح پیوندها، آزمایش را بر روی توزیع جمعیت انجام دادم. با این حال، توزیع های من شکل یکسانی ندارند. من تعجب می کنم آب و هوا راه بهتری برای بررسی سفارشات توزیع ها وجود دارد. با تشکر
چگونه می توان آزمایش کرد که مجموعه ای از توزیع ها در یک ترتیب معین قرار دارند؟
103309
من در حال خواندن وبلاگی در مورد نمونه برداری تامپسون هستم و در درک برخی مفاهیم آماری با مشکل مواجه هستم. فکر می‌کنم وقتی نویسنده می‌گوید $$ p(\mu_a \mid \mbox{data}_a) = \mbox{بتا}(S_{a,t}+1, F_{a,t}+1) = \ درک می‌کنم frac{S_{a,t}!F_{a,t}!}{S_{a,t} + F_{a,t} + 1} . $$ اما در بخش متغیرهای پیوسته و تقریب عادی نویسنده $$ p(\mu_a \mid \mbox{data}_a) = \mbox{N}(\mu_{a, t}, \sigma_{ a,t}^2/N_{a,t}). $$ آیا این تابع N نماد یک توزیع عادی نیست؟ در این مورد چگونه می توان احتمال متمایز از توزیع عادی، مانند تابع بتا، بدست آورد؟
بدست آوردن احتمال از توزیع نرمال
11300
من یک مدل نیمه پارامتریک خاص دارم که از طریق MCMC برازش می کنم. یکی از پارامترهای مدلی که من «نیمه پارامتریک» کرده‌ام (مثلا $\alpha$) بین دو پارامتر دیگر، $\theta_1$ و $\theta_2$ قرار دارد. از آنجایی که من یک سری نمونه $(\theta_1^t, \theta_2^t)$ دارم، همچنین یک سری تخمین فاصله برای $\alpha$ دارم. راه معقولی برای خلاصه کردن اینها چیست؟ من می توانم به انجام کاری مانند کنار گذاشتن یک شبکه و فقط ضبط برای هر نقطه شبکه فکر کنم که آیا هر نمونه آن را پوشش می دهد یا نه. اما من نگران کارایی هستم زیرا درک خوبی از محدوده قابل قبول ندارم و در واقع صدها تا هزاران $\alpha$ دارم. (من همچنین از retag ها استقبال می کنم، زیرا به نظر نمی رسد چیزی را که دوست داشته باشم پیدا کنم ...)
خلاصه کردن نمونه های یک بازه
72824
من یک مدل خطی تعمیم یافته (glm) نصب می کنم. متغیر توضیحی در سه سطح (کنترل، درمان 1، درمان 2) طبقه بندی شده است. متغیر پاسخ 0 یا 1 است. نرخ پاسخ برای هر سطح درمان مانند شکل زیر ترسیم شده است (از چپ به راست: control, treat1, treat2): ![شرح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/Abi8S.png) به نظر می رسد یک اثر درمانی بزرگ بین درمان 1 در مقابل کنترل و درمان 2 در مقابل کنترل وجود دارد. من glm را اعمال کردم: «مناسب <- glm(پاسخ ~ درمان، خانواده = دوجمله ای، داده = داده)» ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -21.57 6536.57 -0.003 0.997 treat1 23.76 6536.57 0.004 0.997 treat2 43.13 9364.95 0.005 0.005 z1 در مقایسه با آزمون 0.9 معنی دار نیست. کنترل سطح مرجع با این حال، تجزیه و تحلیل انحراف تأیید کرد که فاکتور درمان به طور کلی بسیار مهم است: پاسخ drop1 (M2، تست = Chisq) ~ درمان Df Deviance AIC LRT Pr(>Chi) <هیچ> 13.003 19.003 درمان 2 77.936 79.936 64.93 7.946e-15 *** چگونه چنین عجیب را تفسیر کنم نتیجه؟ چرا آزمون z فردی هیچ نتیجه قابل توجهی به من نمی دهد، در حالی که طبق نمودار مشخصاً بین درمان 1 و کنترل و بین درمان 2 و کنترل تأثیر وجود دارد؟
یک متغیر طبقه‌بندی شده در glm از تحلیل انحراف معنی‌دار است، اما هر سطح در آزمون z معنی‌دار نیست.
76655
من قبلاً از تحلیل عاملی برای پرسشنامه ها و مواردی از این دست استفاده کرده ام، اما اکنون یک سؤال تحقیقاتی جدید دارم و به نظر نمی رسد مشابه آن انجام شده باشد. من از شرکت کنندگان خواسته ام که 8 مقاله خبری را در مورد معیارهای مختلف ارزیابی کنند. با این حال، هر معیار توسط خود شرکت‌کننده بر اساس تفاوت‌های معنی‌داری که بین مقالات مشاهده می‌کنند ارائه می‌شود. این یک شبکه فهرستی است که در آن عناصر (ستون‌ها، متغیرها) مقاله‌های متفاوتی هستند و هر شرکت‌کننده تعدادی ساختار (ردیف‌ها، موارد) را ارائه می‌کند که آنها را مهم می‌دانند (مانند عینیت، متقاعدسازی، دسترسی و غیره). هر مقاله بر اساس هر ساختاری که شرکت‌کننده ارائه می‌کند رتبه‌بندی می‌شود، بنابراین داده‌های من چیزی شبیه به این می‌شوند: موضوع ساختار Art1 Art2 Art3 1 عینی 5 3 8 1 متقاعدسازی 3 8 7 1 دسترسی 7 6 3 2 رسمی 3 4 6 2 واقعیت 8 2 6 2 استفاده از منابع 7 6 9 (و غیره، با 8 مقاله و حدود 8 ساختارهای هر موضوع) هدف من یافتن متغیرهای پنهانی است که واریانس بین سازه های مختلف ارائه شده توسط شرکت کنندگان من را به بهترین شکل توصیف می کند. تا به حال، این تصور را داشتم که تحلیل عاملی برای این کار مناسب است. با 8 مقاله و ~ 160 مورد، من باید چند فاکتور و بارگذاری آنها در هر مقاله و همچنین امتیازهای عامل از هر ساختاری را که می توانم برای تفسیر استفاده کنم، دریافت کنم. اما آیا این دیوانه است؟ من می دانم که این دقیقاً همان چیزی نیست که روش برای آن طراحی شده است، اما من از هیچ دلیل نظری برای احتیاط در اینجا آگاه نیستم. تحلیل‌های اولیه من باعث می‌شود که اجتماعات کم و عدم موفقیت در همگرایی ایجاد شود، بنابراین من شروع به شک دارم که ممکن است از روش اشتباه استفاده کنم (یا داده‌های کافی ندارم، اما بیشتر معیارهای رایج استفاده شده، من را واضح نشان می‌دهند) آیا باید از چیز دیگری مانند تحلیل خوشه ای یا مدل های IRT استفاده کنم؟
آیا تحلیل عاملی برای داده های شبکه فهرستی مناسب است؟
46375
من یک مرکز واحد در هر کلاس با استفاده از PROC fastclus در SAS، proc fastclus data=sample.samples_train mean=knn.clusters maxc=1 *تعداد خوشه* maxiter=100 کامپیوتر دارم. var &predictors; بر اساس کلاس؛ اجرا؛ من سعی می کنم یک مجموعه آزمایشی را بر اساس نزدیکترین یک از این مرکزهای ایجاد شده طبقه بندی کنم. این کار را با استفاده از PROC discrim در SAS نیز انجام می دهم. proc discrim data=knn.clusters test=sample.samples_test method=NPAR k=1 metric=identity noclassify; کلاس کلاس؛ var &predictors; خروجی ods ErrorTestClass=knn.error; اجرا؛ من از اندازه گیری فاصله اقلیدسی با گزینه metric=identity استفاده می کنم. خطای زیر برگردانده شده است. خطا: مشاهدات کافی برای ارزیابی ماتریس کوواریانس تلفیقی در DATA= مجموعه داده یا گروه BY وجود ندارد. اگر تعداد خوشه‌ها را در fastproc برابر با 2 تنظیم کنم، کار می‌کند. اما چگونه می‌توانم یک 1NN را با تک مرکز در هر کلاس در SAS ایجاد کنم؟
چگونه 1NN را با تک سانتروئید در هر کلاس در SAS تشکیل دهیم؟
87504
من می‌خواهم توزیع نسبت شانس $r := \frac{p_1/(1-p_1)}{p_0/(1-p_0)}$ را با بتای قبلی استخراج کنم، به‌ویژه، $p_0، p_1 \in [0 ,1]$, $p_0 \sim beta (39.5, 635.5), p_1 \sim beta (22.5, 658.5) دلار. من نمی دانم چگونه می توان از شکل چگالی تحلیلی آن به جز تغییر متغیر تصادفی استخراج کرد، اما تغییر متغیر تصادفی از $(p_0, p_1)$ به $(r, p_1)$ من را به یک راه حل نمی رساند زیرا از پیچیدگی ادغام توزیع مشترک $(r, p_1)$ برای بدست آوردن توزیع حاشیه ای $r$. بنابراین من آن را با R شبیه سازی می کنم: n=1000 r <- rep(0, n) p0 <- rbeta(n, 39.5, 635.5) p1 <- rbeta(n, 22.5, 658.5) r = (p1/(1-p1 )) / (p0/(1-p0)) hist(r، plot=TRUE) آیا امکان استخراج تحلیلی وجود دارد شکل تراکم $r$ چه نوع توزیعی است؟ با تشکر
توزیع نسبت شانس تحت بتا قبل
38105
امیدوارم مایکل چرنیک این سوال را بخواند. من تست دیکسون را روی 100 هزار ردیف اعمال کردم. ردیف ها مانند- 1 1.819691 2.565696 3.317881 1.491987 2.817675 2.676356 3.522531 3.226779 2 1.721111 1.51718381.51713. 1.646506 1.770875 1.899359 1.628460 3 1.663491 1.723110 1.440528 1.736983 1.472949 1.597087 1.597070 1.511 ارزش ها این 3 ردیف را در نظر بگیرید. تست دیکسون رو اول ردیف اول و بعد ردیف دوم و بعد تا سوم انجام دادم. بنابراین من 3 مقدار دریافت کردم. تا الان همه چیز خوبه اما دیروز یکی از من پرسید، آیا داده های شما به طور معمول توزیع شده است؟ (چون آزمون دیکسون فرض می کند که داده ها به طور معمول توزیع می شوند، لطفاً اگر اشتباه می کنم، من را اصلاح کنید). اکنون می خواهم ثابت کنم که داده های من به طور معمول توزیع شده است. **سوال-** آیا باید توزیع نرمال را برای هر ردیف بررسی کنم؟ اگر بله، به این معنی است که باید توزیع عادی 100 هزار ردیف را بررسی کنم و سپس اگر فقط 90 هزار ردیف به طور معمول توزیع شده است، آیا باید 10 هزار ردیف باقی مانده را حذف کنم؟ **راه حل احتمالی-** بنابراین، امروز shapiro.test را روی همه ردیف ها اعمال کردم و 100k pvalue گرفتم. من 90k سطر با pvalue بیشتر از 0.01 دریافت کردم (عدم رد فرضیه صفر یعنی رد نکردن آن سطر به طور معمول توزیع شده است) اما من 10k ردیف با pvalue کمتر از 0.01 دریافت کردم. آیا باید این ردیف ها را حذف کنم؟
تست دیکسون و توزیع نرمال
103302
بنابراین من یک مدل gls با استفاده از بسته nlme دارم. دارای ساختار همبستگی CAR1 است. آیا درست است که توزیع شرطی خطاهای آن به صورت زیر باشد: $$ \varepsilon_i | \varepsilon_j \sim N(\phi^d\varepsilon_j,\sigma^2(1-{\phi^d}^2)) $$، که در آن d فاصله بین متغیرهای کمکی است که همبستگی بر اساس آن است.
توزیع شرطی خطاهای مرتبط سریال
89689
فرض کنید یک مدل خطی $Y=\beta_0 + \beta_1 X + u$ داریم که $u$ یک عبارت خطا است و $X$ برخی از مشخصه های $Y$ را می شمارد. به عنوان مثال، فرض کنید که $Y$ چقدر سرگرم کننده است یک گودال توپ در مک دونالد، و $X$ تعداد توپ های موجود در گودال توپ است. منطقی به نظر می رسد که $\beta_1$ باید مثبت باشد. اما حالا فرض کنید که می توانم توپ ها را به دو نوع دسته بندی کنم: جذب کننده خاک و دفع کننده خاک. یعنی $X=X_A + X_R$ که در آن $X_A$ جذب کننده و $X_R$ دفع کننده است. اکنون، من گمان می‌کنم که تأثیر افزایش X$ زمانی بیشتر باشد که آن را با افزایش X_R$ به جای افزایش X_A$ انجام دهیم. فرضیه صفر این خواهد بود که فرقی نمی‌کند کدام نوع افزایش یافته باشد - در هر صورت ما X$ را 1 و در نتیجه $Y$ را با $\beta_1$ افزایش می‌دهیم. بنابراین می‌توانم $Y=\beta_0 + \beta_1 X_R + \beta_2X_A + \epsilon$ را امتحان کنم. ، به طوری که وقتی تعداد توپ ها را با اضافه کردن یک دفع کننده خاک افزایش می دهیم، Y$ دلار را با مقدار متفاوتی نسبت به زمانی که آن را توسط یک جاذب خاک افزایش می دهیم افزایش می دهیم. اجازه دهید $\tilde{X}=X_R/X$. سپس این به صورت $Y=\beta_0 + \beta_1 X + \beta_2 \tilde{X} + \beta_3X\tilde{X} + \epsilon$ نوشته می‌شود که می‌توانیم آن را به صورت $Y=\beta_0 + \beta_1 X + بازنویسی کنیم. \beta_2 \tilde{X} + \beta_3 X_R + \epsilon$ آیا هر یک از این رویکردها منطقی‌تر از دیگری است؟ آیا رویکرد بهتری برای استفاده به طور کلی برای آزمایش این فرضیه وجود دارد؟
رگرسیون خطی که در آن متغیرهای مستقل نسبت کل و کل هستند
5749
اگر می‌خواهید y را روی x رگرسیون کنید، جایی که در هر x چندین y مشاهده می‌شود، آیا بهتر است به جای آن، میانگین را در هر x بگیرید و از آن‌ها برای رگرسیون استفاده کنید؟ آیا به مفروضات توزیعی بستگی دارد؟
چه زمانی بهتر است میانگین مشاهدات در همان آبسیسا را ​​محاسبه کنیم؟
47132
من مجموعه داده ای از حدود 75 هزار نمونه با حدود 20 ویژگی در هر نمونه (که 12 مورد احتمالاً مهم هستند) دارم که نمایه های اعتباری مختلف را توصیف می کند - امتیاز اعتباری، تأخیر پرداخت ها، درآمد، و غیره. برخی از متغیرهای ورودی پیوسته و برخی طبقه بندی هستند. متغیر خروجی پیوسته است - ROI مرتبط با هر وام. بهترین الگوریتم یادگیری تحت نظارت برای پیش بینی بازگشت سرمایه چیست؟ چگونه می توانم ویژگی ها را انتخاب کنم و آنها را وزن کنم؟ من به چند نمونه از SVM نگاه می کردم اما به چیزی نیاز دارم که باینری نباشد (در واقع بتواند ROI را پیش بینی کند)
بهترین الگوریتم یادگیری ماشین برای مجموعه داده وام؟
72822
من روی ادغام عددی یک انتگرال از فرم تابعی زیر کار می کنم: $$ \int\limits_{R^{G}} F(x_{1},x_{2},\text{…}x_{G} )d\text{Φ}_{\text{Σ}}(x_{1},x_{2},\text{…},x_{G}) $$ اینجا $$ \text{Φ}_{\text{Σ}}(x_{1},x_{2},\text{…},x_{G}) $$ توزیع نرمال چند متغیره G-بعدی با ماتریس همبستگی $\ است. Sigma$ و F تابعی از حاشیه های تشکیل دهنده هستند. کاری که من اساسا انجام می دهم محاسبه انتظار یک تابع بر روی یک توزیع نرمال چند متغیره همبسته است. در عمل، انتظار می‌رود که G برابر یا کمتر از 4 باشد و اغلب فقط 2 یا 3 باشد. یکی از راه های ارجح برای نزدیک شدن به مشکل است. برای پرداختن به جنبه های پیاده سازی الگوریتم به کتاب **اقتصاد محاسباتی کاربردی و مالی** نوشته میراندا و فاکلر اشاره می کنم. اما، می‌خواستم از جامعه متخصص در اینجا کمک بگیرم که آیا در مسیر درستی هستم. ببخشید اگر تکراری است، با این حال من در سایت جستجو کردم، و نتوانستم سوالی را پیدا کنم که با آنچه که داشتم مطابقت داشته باشد.
ادغام با توجه به توزیع نرمال چند متغیره
31469
من از جستجوی شبکه ای با کران استفاده می کنم، برای مثال lb=[ 1 1 1 1 1 1]'/1000; ub=[10 10 10 10 10 20]' اما از نظر محاسباتی دشوار است بنابراین فقط 2 امتیاز را بررسی می کند. بنابراین حل مرزی متشکل از عناصر lb و ub را به دست می‌آورم. برای آزمایش فرضیه x2=0 با LR stat درست است؟
آیا محاسبه آمار LR پس از به حداکثر رساندن احتمال با کران صحیح است؟
82759
آیا دلایلی برای _عدم_ چرخش راه حل تحلیل عاملی اکتشافی وجود دارد؟ یافتن بحث در مورد مقایسه راه‌حل‌های متعامد با راه‌حل‌های مایل آسان است، و من فکر می‌کنم که همه این موارد را کاملاً درک می‌کنم. همچنین، از آنچه در کتاب‌های درسی یافتم، نویسندگان معمولاً از توضیح روش‌های تخمین تحلیل عاملی به توضیح نحوه عملکرد چرخش و گزینه‌های مختلف می‌پردازند. چیزی که من ندیدم بحث چرخش یا عدم چرخش در وهله اول است. به عنوان یک امتیاز، اگر کسی بتواند استدلالی علیه چرخش از هر نوعی ارائه دهد که برای چندین روش تخمین عوامل (مانند روش مؤلفه اصلی و روش حداکثر احتمال) معتبر باشد، بسیار سپاسگزار خواهم بود.
آیا دلیلی وجود دارد که راه حل تحلیل عاملی اکتشافی را بدون چرخش رها کنیم؟
38106
من 11 متغیر مستقل و یک رهگیری دارم. اگر من درست می گویم، به این معنی است که مدل های مختلف احتمالی $2^{12}=4096$ وجود دارد، درست است؟ بنابراین، آیا این بدان معناست که اگر من هر مدل را محاسبه کنم و $R^2_{\text{adj}}$ را ذخیره کنم و مدلی را با بالاترین $R^2_{\text{adj}}$ بگیرم، آن خواهد شد بهترین مدل (بهترین برازش، بهترین ضرایب، بهترین خطاهای std.)؟
امکان ترکیب و نتیجه گیری متغیرها
47285
من در حال حاضر در حال تجزیه و تحلیل داده های کمی خود هستم. حجم نمونه من 157 دانش آموز است که پس از مداخله در 2 مرحله برای نظرسنجی شرکت کردند. همان دانش آموزان برای همان نظرسنجی در مورد نتایج مثبت در بازخورد همسالان نشستند (این فقط یکی از 7 متغیر وابسته است). من RM ANOVA را انجام دادم و روی نرمال بودن تست کردم. این نشان می دهد که توزیع غیر نرمال و تعداد کمی بدون مقدار حتی 01/0p< وجود دارد. شخصی پیشنهاد داد که من باید تبدیل انجام دهم و نتیجه هنوز توزیع غیر عادی است. سپس تست فریدمن غیر پارامتریک را انجام دادم اما چون فقط 2 فاز است به طور خودکار از تست ویلکاکسون استفاده کرد. می‌دانم که آزمون Wilcoxon به من اجازه نمی‌دهد که متغیرهایم را بر اساس متغیرهای مستقلم که جنسیت و کلاس هستند آزمایش کنم. من علاقه مندم بدانم که آیا تحت متغیر وابسته پیامدهای مثبت در بازخورد همسالان، آیا دانش آموزان دختر یا پسر از نظر اینکه بازخورد همسالان را مفید می دانند یا کدام کلاس برای بازخورد همسالان مطلوب تر است تغییر می کنند. سوال من این است که برای این کار باید به 2 Way RM ANOVA برگردم حتی اگر تست نرمال بودن من غیر طبیعی باشد؟ از آنجایی که Wilcoxon به من امکان استفاده از متغیرهای مستقل را نمی دهد. آیا مرجعی وجود دارد که بتواند از تصمیم من برای بازگشت به RM ANOVA حمایت کند؟
آیا می توانم به جای فریدمن از RM ANOVA استفاده کنم؟
69188
من داده‌هایی دارم که در آنها الگوی زیر را مشاهده می‌کنم: متغیر A با متغیر C همبستگی دارد متغیر B با متغیر C همبستگی دارد اما متغیر A و B با یکدیگر همبستگی ندارند، حتی اگر از لحاظ نظری بسیار شبیه به هم باشند. چه چیزی می تواند باعث این شود؟ متغیر C که باعث 2 دیگر می شود، از نظر نظری بسیار بعید است. متشکرم!
عدم وجود همبستگی بین متغیرهای مشابه
87501
چگونه توزیع Weibull را نشان دهم که $f:(y; \lambda، \rho)$ را می توان با استفاده از $z=y^\lambda$ به خانواده نمایی تبدیل کرد؟ من می دانم که فرمی که باید آن را بیان کنم $\exp\lbrace(y.\theta - b(\theta)/a(\phi))+c(y,\phi)\rbrace$ است، اما نمی دانم چگونه رسیدن به آنجا
توزیع Weibull را می توان به خانواده نمایی تبدیل کرد
15211
من در حال آزمایش همگنی واریانس ها با آزمون **Fligner-Killeen** با استفاده از تابع **fligner.test** در _stats_ هستم در نمودار زیر، باقیمانده هایی را که این آزمون را با موفقیت پشت سر می گذارند رسم کرده ام «(p-value > 0.1) ` ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VGS0T.png) یکی می تواند بگوید چگونه ممکن است که اینها باقیمانده ها تست FK را می گذرانند در حالی که حرکت قابل توجهی در مرکز طرح دارند؟ **ویرایش:** من دو گروه را آزمایش می کنم: A -> res[1:375] B -> res[376:750] باقیمانده ها 750 هستند، بنابراین من دو نیمه را با هم مقایسه می کنم. متشکرم
چگونه این باقیمانده ها می توانند همگنی واریانس داشته باشند؟
82751
من باید تجزیه و تحلیل همبستگی متعارف را بین دو مجموعه داده چند متغیره X و Y انجام دهم. یک مجموعه داده حاوی داده های عددی و دیگری داده های باینری است. می‌خواهم بدانم چه ویژگی‌هایی با ویژگی‌های مجموعه داده دوم همبستگی بالایی دارند. 1. اگر یک مجموعه داده دارای مقادیر عددی (مقدار صحیح و ممیز شناور) باشد و مجموعه داده دوم دارای مقادیر باینری (0 یا 1) برای همه مقادیر برای ویژگی های مختلف باشد، CCA معمولی موجود در MATLAB کافی است؟ 2. اگر هر دو مجموعه داده از متغیرهای باینری تشکیل شده باشند، چگونه می توان با این مشکل مقابله کرد؟
تجزیه و تحلیل همبستگی متعارف برای انواع داده های مختلف
33365
> **تکراری احتمالی:** > اگر A و B با C همبستگی دارند، چرا A و B لزوماً مرتبط نیستند؟ فرض کنید، ما بین $x$، $y$ به عنوان $corr(x,y)$ و همبستگی بین $y$، $z$ به عنوان $corr(y,z)$ داریم. در مورد همبستگی بین $x$ و $z$ یعنی $corr(x,z)$ چه می توان گفت؟
همبستگی بین متغیر اول و سوم با توجه به همبستگی با متغیر دوم
30731
مقدار $R^2$ داده شده در خلاصه مدل coxph در R چیست؟ به عنوان مثال، Rsquare = 0.186 (حداکثر امکان = 0.991 ) من احمقانه آن را به عنوان یک دستنوشته به عنوان ارزش $R^2$ درج کردم و بازبینی کننده به آن اشاره کرد و گفت که او از مشابهی از آمار R^2$ از آن آگاه نیست. رگرسیون خطی کلاسیک در حال توسعه برای مدل کاکس است و اگر وجود داشت لطفاً یک مرجع ارائه دهید. هر کمکی عالی خواهد بود!
مقدار $R^2$ ارائه شده در خلاصه یک مدل coxph در R چقدر است
87507
وقتی شکل تحلیلی یک توزیع را نمی دانیم (که با روش های دیگر مشخص می شود، مانند تغییر متغیر از یک متغیر تصادفی با توزیع هایی که اشکال تحلیلی دارند)، به دلیل محدودیت یا عدم وجود آن، چه گزینه هایی ممکن است داشته باشیم. به عنوان یک سازش یا جایگزین؟ * تقریب با توزیع با اشکال تحلیلی، یا * شبیه سازی برای به دست آوردن دسته ای از نقاط نمونه iid، (آیا این روش قابل قبولی است؟ آیا نقاط نمونه برای به دست آوردن تخمین یا تقریبی از توزیع اصلی برای ما مفید خواهد بود؟) یا * چیزی دیگر؟ با تشکر
جایگزین ها و مصالحه برای توزیع ها در صورت عدم شناخت شکل تحلیلی آن؟
5746
مسئله Secretary یک الگوریتم برای N ثابت و پذیرش/رد فوری دارد (یعنی رد رد ... قبول یکی، توقف). انواع مختلفی وجود دارد؛ در من، منشی‌ها یا نمونه‌ها از یک منبع با ارزش واقعی Xj می‌آیند، بازدهی از بهترین-تاکنون گذشته نیست، و هر نمونه هزینه c$ دارد: حداکثر بازده = Xbestsofar \- c * Nsample در اینجا تصویری از گام‌های تصادفی این است. نوع: یا به یک علامت پر آب (حداکثر جدید) X1 X2 ... بروید یا c: ![alt text](http://i.stack.imgur.com/NxQrC.png) آیا کسی می تواند به من اشاره کند که قوانین توقف یا حفظ ظاهر برای توقف بهینه برای مشکلاتی مانند این را به من نشان دهد؟ شاید بتوان دو نوع قانون را با هم ترکیب کرد: * حداقل نمونه برداری ...، بعد از آن بهترین را بگیرید (مشکل منشی) * زمانی که پیک - جریان از مقدار Δ تجاوز کرد متوقف شود (Allaart) همانطور که @whuber اشاره می کند، نیاز به _مدلی از توزیع نمونه ها برای تعریف مشکل. این را من ندارم با این وجود، آماردانان باید به مشکلاتی از این دست نگاه کرده باشند - نمونه گیری متوالی، طراحی متوالی آزمایش ها، توقف بهینه، یادگیری بهینه؟ سپس لطفاً به من کمک کنید تا سؤالم را مجدداً بیان کنم تا یک آموزش در مورد ... پیوندهای اضافه شده 29 دسامبر، با تشکر @James; خوانندگان لطفاً تمدید کنید -- تپه توقف بهینه، دانستن زمان توقف 2009، 3p، آلارت عالی، توقف حداکثر یک پیاده روی تصادفی مرتبط با هزینه برای مشاهده 2004، 12p (با عرض پوزش برای ادامه تغییر این - تلاش برای همگرایی به یک فرمول استاندارد .)
توقف بهینه از یک توزیع ناشناخته
96987
من بایاس و واریانس میانگین نمونه $\hat{\mu}$ و واریانس نمونه $\hat{\sigma}^2$ را محاسبه کردم اما نتوانستم سوگیری و واریانس را برای همبستگی نمونه $\hat{\rho}$ محاسبه کنم. . چگونه می توانم محاسبه را انجام دهم؟ آیا می توانید چند مرجع، کتاب درسی، مقاله در مورد آن به من بدهید؟ ویرایش: منظور من از همبستگی نمونه $$ \hat{\rho}_{xy} = \frac{\sum_{i} x_i y_i}{\sqrt{\sum_{i}x_i^2 \sum_{i}y_i^ 2}} $$
سوگیری و واریانس برآورد همبستگی
103301
من روی مجموعه داده ای متشکل از 100000 مورد و 200 متغیر کار می کردم و 7 مقدار mtry مختلف را اجرا کردم و سعی کردم مقدار بهینه را پیدا کنم. با استفاده از داده‌های یکسان و مقادیر ntree یکسان، مقادیر مختلف mtry را در مقایسه با نرخ‌های oobe مقایسه کردم و یک خط برازش کردم. من یک رابطه واقعاً عجیب و غریب پیدا کردم، و می‌خواستم بدانم آیا کسی می‌تواند توضیح دهد که چرا اینگونه است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/djs3y.png)
مقادیر mtry در مقابل تجزیه و تحلیل نمودار OOBE
83922
با استفاده از تابع همبستگی اکسل، من یک همبستگی 7-٪ بین مجموعه داده های A و B دریافت می کنم. مجموعه داده های C دارای 92٪ همبستگی با A و 84٪ همبستگی با B است. چگونه می توان C به شدت با A و B مرتبط باشد، اما A و B اندکی با یکدیگر همبستگی منفی دارند؟ چه تست های دیگری می توانم انجام دهم تا به درک بهتر روابط بین A، B و C کمک کنم؟
چگونه 2 متغیر می توانند هر کدام به شدت با یک متغیر سوم همبستگی داشته باشند، اما با یکدیگر همبستگی ندارند؟
87508
من وظیفه دارم **مدل طبقه بندی چند وظیفه ای را فقط بر اساس ماتریس فاصله (شباهت) بسازم**. آنها قبلاً از قبل محاسبه شده اند و هیچ تغییری در اینجا اعمال نمی شود. لطفاً می توانید به من توصیه کنید کجا بیشتر جستجو کنم؟ مقالات، بسته ها؟ هر رویکردی که از ماتریس فاصله و مجموعه ای از کلاس ها شروع شود؟ من سعی کردم این کار را با kNN از طریق رویکرد ذکر شده در این سوال انجام دهم، اما نتایج چندان رضایت بخش نیستند. من خوشحال خواهم شد که از الگوریتم های SVM مانند و/یا شبیه ANN استفاده کنم. آنها بیشتر از kNN بهتر هستند. با تشکر فراوان
یادگیری از ماتریس های فاصله
82754
من در حال نوشتن یک مقاله تحقیقاتی هستم که در آن از آزمون فرضیه استفاده می کنم. آیا بهتر است برای این تست مقدار p داده شود یا از ناحیه رد 5% دو دنباله استفاده شود؟ پیشاپیش متشکرم
ناحیه رد یا p-value
100594
من در این سایت توضیحی در مورد توزیع t خوانده ام و علاقه مند بودم که مشابه آن را از توزیع F بخوانم. کتاب های درسی که خوانده ام به طور کلی این موضوع را پوشش نمی دهند.
توضیح شهودی در مورد PDF توزیع F چیست؟
39272
من در مورد اینکه چگونه می توان یک منحنی ROC برای یک طبقه بندی کننده 3 کلاسه (Naive Bayes) ایجاد کرد، تردیدهایی دارم. اساساً با توجه به برخی داده های آزمایشی، طبقه بندی کننده احتمالات را برای هر یک از 3 کلاس ممکن خروجی می دهد. برای ایجاد امتیاز برای رسم منحنی‌های ROC، آستانه تصمیم‌گیری را از 0.1 به 1.0 افزایش می‌دهم و FPR، TPR را برای هر یک از 3 کلاس محاسبه می‌کنم (با استفاده از رویکرد یک در مقابل استراحت، زیرا منحنی ROC برای طبقه بندی باینری). مشکل این است: فرض کنید که در آستانه تصمیم گیری 0.5، داده هایی را از کلاس 1 دریافت می کنیم، و طبقه بندی کننده به ترتیب احتمالات کلاس 0.3، 0.4 و 0.3 را خروجی می کند. از آنجایی که هیچ احتمالی بیش از آستانه تصمیم وجود ندارد، ** آیا باید این داده ها را طبقه بندی نشده رها کنم؟ آیا باید این داده‌ها را به کلاسی با بیشترین احتمال طبقه‌بندی کنم، حتی اگر چنین احتمال کلاسی کمتر از آستانه باشد؟** و آخرین سوال: آیا باید احتمالات بی‌بی‌های ساده را قبل از محاسبه نقاط ROC کالیبره کرد؟
آستانه تصمیم برای یک منحنی ROC 3 کلاسه Naive Bayes
47130
من رگرسیون چندگانه با، مثلاً 3 متغیر مستقل دارم: $Y=B_0+B_1x_1+B_2x_2+B_3x_3$ می‌خواهم آزمایش کنم که آیا $B_2+3B_3$ تفاوت معنی‌داری با صفر دارد، یعنی $$H_0: B_2+3B_3=0$ $$H_1: B_2+3B_3\neq 0$$ لطفاً برای پیدا کردن کمک کنید روشی مناسب برای آزمون معناداری توابع خطی دو ضریب مانند مثال بالا. پیشاپیش سپاس فراوان
آیا می توان توابع معنی داری ضرایب رگرسیون را در رگرسیون چندگانه آزمایش کرد؟
38108
از ویکی‌پدیا > متغیر شبه تصادفی متغیری است که توسط یک روش قطعی > (اغلب یک برنامه کامپیوتری یا برنامه فرعی) ایجاد می‌شود که (به طور کلی) > **بیت‌های تصادفی** را به عنوان ورودی می‌گیرد. رشته شبه تصادفی معمولاً طولانی‌تر از **رشته تصادفی اصلی** خواهد بود، اما کمتر تصادفی است (آنتروپیک کمتر، به معنای > نظریه اطلاعات). این می تواند برای الگوریتم های تصادفی مفید باشد. می خواستم بدانم که آیا هر دو بیت های تصادفی و رشته تصادفی اصلی به معنای دانه تصادفی است که به طور تصادفی برای مولد اعداد شبه تصادفی نیز انتخاب شده است؟ با تشکر
آیا ورودی یک فرآیند شبه تصادفی دانه تصادفی است؟
15214
من در حال نوشتن برنامه ای با استفاده از تخمینگر حجم بالا (HDV) برای تخمین آنتروپی و اطلاعات متقابل برای انتخاب متغیر هستم. فرض کنید $ D = (x^i_1، x^i_2، ...، x^i_M)$، N تعداد نقاط داده در فضای مشترک بعدی $M$ است. برآوردگرهای HDV بر اساس معادله زیر: \begin{aligned} H(X) ≈ ψ(k) + ψ(N) + \frac{1}{N}{\sum_{i=1}^{N} {logB_m(r^{i}_{x^m})}^m} \end{aligned} $X$ متغیر تصادفی است، $H(X)$ آنتروپی $X$ است، $ψ(.)$ تابع دیگاما، $k=1$ برای برآوردگر HDV، $N$ تعداد مشاهدات، $B_m$ حجم توپ واحد m بعدی $r^{i}_{x است. ^m}$ حداقل فاصله در هر بعد است: \begin{aligned} r^{i}_{x^m} = min(||x^i_m-x^{'i}_m||) \end{aligned} که در آن $x^i_m \neq x^{'i}_m$ و $x^i_m , x^{'i}_m \in D$ سؤال من این است که وقتی برای تخمین آنتروپی استفاده شود توزیع گاوسی با میانگین = 0 و انحراف معیار = 1، نتیجه نظری آنتروپی حدود 1.4189 است. برنامه نمی تواند نتیجه را دریافت کند زیرا $ψ(1)= 0.5772156$ (ثابت اویلر-ماسکرونی)، $ψ(N=1000)= 6.9072$ (مثلاً 1000 نقطه داده) و من فکر می کنم که $\frac{1}{1}{101} N}{\sum_{i=1}^{N}{logB_m(r^{i}_{x^m})}^m}$ نمی تواند منفی باشد این در مورد فاصله و حجم است. درک من چه اشکالی دارد؟
برآوردگر آنتروپی حجم با ابعاد بالا
30736
من در حال انجام فراتحلیل مدلسازی معادلات ساختاری (SEM) بر روی برخی از داده های روانشناختی هستم. در نهایت من می خواهم یک مدل میانجی را بر اساس مجموعه ای از ماتریس های همبستگی بررسی کنم. من زمان کمی را صرف بررسی ادبیات در مورد آنچه که باید انجام داد وقتی که ماتریس های همبستگی ناهمگن دارید را مرور کردم. من یک بررسی مختصر از آنچه در Cognitive Sciences SE یافته ام نوشته ام. برای خلاصه کردن آنچه پیدا کردم: * بیشتر محققان از رویکرد دو مرحله ای استفاده می کنند. مرحله 1 شامل استخراج تخمین از همبستگی های واقعی بین مجموعه ای از متغیرها با استفاده از انواع تکنیک های فرا تحلیلی است. مرحله 2 شامل وارد کردن همبستگی در نرم افزار SEM و به طور کلی انجام تجزیه و تحلیل مطابق با SEM غیر متا تحلیلی معمولی است. * علیرغم آگاهی از مشکلات، بسیاری از محققان هنوز از رویکرد دو مرحله ای استفاده می کنند، حتی اگر بیشتر مجموعه داده ها دارای تنوع در همبستگی های واقعی هستند که نمی تواند صرفاً به نمونه گیری تصادفی نسبت داده شود (به عنوان مثال، یک مدل اثرات تصادفی به طور کلی کاربرد بیشتری دارد). * برخی از محققان به امکان خوشه‌بندی مجموعه داده یا انجام متاآنالیز SEM بر روی مقادیر ناظران اشاره می‌کنند، به این امید که وقتی تجزیه و تحلیل را به گروه‌ها تقسیم کردید، تنوع امتیاز واقعی حذف شود. با این حال، در بیشتر برنامه‌ها، چنین تعدیل‌کننده‌هایی برای توضیح همه تغییرات امتیاز واقعی کافی نیستند. بنابراین به جای اتخاذ یک رویکرد دو مرحله‌ای، به این فکر کردم که شاید حداقل برای مواردی که می‌توانید یک ماتریس همبستگی کامل را برای هر مطالعه محاسبه کنید، موارد زیر را انجام دهم: > «انجام SEM در هر نمونه و درمان پارامترها و آمار برازش به عنوان > مقادیری که بین نمونه ها متفاوت است، سپس می توانید توزیع > (به عنوان مثال، میانگین و SD) این پارامترهای SEM و آمار مربوط به آن را خلاصه کنید سایر اندازه‌های افکت معمولاً به‌عنوان جلوه‌های تصادفی مدل‌سازی می‌شوند. بنابراین، برای مثال، می‌توانید به تغییر در اثر غیرمستقیم در بین نمونه‌ها نگاه کنید. بدون در نظر گرفتن مسئله حذف امتیاز واقعی از نمونه‌گیری تصادفی، انجام چنین تحلیلی در R با هر یک از بسته‌های SEM ساده است. سوالات ### بنابراین، من متعجب بودم: * آیا این رویکرد برازش SEM برای هر مطالعه به طور جداگانه تا به حال اعمال شده است؟ * مزایا و معایب این رویکرد چیست؟ * چگونه ممکن است متوجه شوید که چه تغییری در پارامترهای SEM به دلیل نمونه گیری تصادفی است و چه چیزی به دلیل واریانس امتیاز واقعی است؟ * یا آیا روش بهتری برای انجام متاآنالیز SEM بر روی ماتریس های همبستگی ناهمگن وجود دارد؟
آیا مدل‌سازی معادلات ساختاری را به‌طور جداگانه برای هر یک از مجموعه‌ای از ماتریس‌های همبستگی ناهمگن در یک زمینه متاآنالیز اعمال کنیم؟
82757
من برخی از روش‌های پیش‌بینی را با استفاده از چهار معیار دقت مقایسه می‌کنم: میانگین خطای مطلق (MAE)، میانگین مربعات خطا (MSE)، میانگین درصد مطلق خطا (MAPE)، میانگین خطای مقیاس مطلق (MASE). نتایج با توجه به این معیارهای مختلف متناقض هستند. در نهایت کدام روش باید انتخاب شود؟ آیا راه حلی در این مورد وجود دارد؟
در صورت وجود نتایج متناقض از معیارهای دقت مختلف، کدام روش پیش‌بینی باید انتخاب شود؟
82752
من سعی می کنم آزمایش کنم که آیا این درست است یا نه که افراد با قدهای مشابه تمایل به ازدواج با یکدیگر دارند یا خیر، و من کمی گیج هستم که دقیقا چگونه این کار را انجام دهم. من یک مجموعه داده با 96 جفت قد زن و شوهر دارم، بنابراین فکر کردم که می توانم میانگین تفاوت قد بین زن و شوهر (مخصوصاً قد زن از قد شوهر کم شود) را در نظر بگیرم. به 10.43 سانتی متر می رسد و سپس آزمون فرضیه را با آن به عنوان آماره آزمون من انجام دهید. با این حال، اینجاست که من گیج شده ام. من فکر کردم که می توانم فرضیه صفر $|\mu| باشد \geq 15$ و فرضیه جایگزین $|\mu|<15$ که در آن $\mu$ میانگین اختلاف قد بین زن و شوهر است. محاسبه $t$-value برای $\hat{\mu}=10.43$ با توجه به 15 بازده -6.77 است. این بدیهی است که کمتر از مقدار بحرانی است، بنابراین آیا می توانم فرضیه صفر را رد کنم و نتیجه بگیرم که قد زن و شوهر به طور متوسط ​​مشابه هستند؟ متشکرم.
سوال ساده در مورد آزمون فرضیه
72827
من در حال جستجوی اسلایدها برای یک کلاس کلان داده هستم. اسلایدها پیشنهاد می‌کنند که یک نمودار زوجی از داده‌ها (اگر نه متغیرهای زیاد) برای ارزیابی کیفیت خروجی از خوشه‌بندی k-means - با هر نقطه داده که توسط خوشه آن کد رنگی می‌شود، انجام دهید. اسلایدها می گویند: > اگر خوشه های (رنگی) حداقل در برخی از طرح ها جدا به نظر می رسند. آنها > در همه طرح ها خیلی از هم جدا نخواهند بود. این چگونه به شما می گوید که آیا طرح زوجی مؤثر است؟ آیا می خواهید رنگ ها در نمودارها مخلوط شوند تا مطمئن شوید که خوشه های چند بعدی واقعی دارید و نه فقط گروه هایی از نقاط داده که در یک متغیر بسیار شبیه هستند؟
چگونه از نمودارهای زوجی برای آزمایش اثربخشی خوشه بندی k-means استفاده می کنید؟
97023
من یک مجموعه داده پانل بزرگ دارم. بررسی یک رگرسیون OLS ادغام شده با Breusch Pagan ناهمگونی با تمام مشخصات مدل را نشان داد. در نتیجه من استفاده از تخمین پارامترهای خطای استاندارد تصحیح شده توسط پانل را انتخاب کردم (PCSE، پس از بک و کاتز، 1996). با این وجود، تصمیم گرفتم استحکام مدل خود را در برابر مدلی با اثرات ثابت (کشور) آزمایش کنم. اکنون، حداقل در Stata، تست هاسمن با خطاهای استاندارد قوی کار نمی کند. از آنجایی که به ضرایب نگاه می کند، نه انحراف استاندارد، اما می توانم از FE با خطاهای استاندارد اصلاح نشده بدون مشکل برای تست هاسمن استفاده کنم. اما سوال من این است که آیا دلیلی برای این فرض وجود دارد که عبارت خطای مدل FE ممکن است هتروسکداستیک نباشد. یعنی با وجود اینکه از Pooled OLS می دونم که هتروسکداستیکی وجود داره، آیا لازمه یه تست پاگان دیگه برویش روی مدل FE انجام بدم؟ من ترجیح می‌دهم فقط تست Hausman را روی مدل FE و PCSE اصلاح نشده اجرا کنم، سپس FE اصلاح‌شده را همراه با مدل PCSE در ضمیمه خود گزارش کنم. دلیل آن این است که Stata در تست های پس از تخمین پس از «xtreg»، یعنی تخمین های FE کمی محکم است.
ناهمگونی از طریق تخمین اثر ثابت حذف شد؟
12656
من کمی کد می نویسم که از نمونه برداری بسیار زیاد استفاده می کند (مثلاً MCMC، فیلترهای ذرات، و غیره)، و واقعاً مایلم آن را آزمایش کنم تا مطمئن شوم که قبل از ادعای هر گونه نتیجه، کاری را که من فکر می کنم انجام می دهد. آیا روش معمولی برای آزمایش این روش ها برای اطمینان از صحت وجود دارد؟
روش های نمونه گیری تست واحد
16546
من معمولا یک کاربر هستم. با این حال، برای اهداف آموزشی، امروز باید از SPSS استفاده کنم. من باید یک مدل خطی عمومی با ساختار ترتیبی را مشخص کنم زیرا آنچه که من بررسی می کنم این است: تغییر در نمرات مقیاس لیکرت (1،2،3،4،5) در بین افراد، بین گروه های مداخله در 2 نقطه زمانی. من می توانم یک مدل فاکتوریل کامل * مدل های خطی تعمیم یافته را مشخص کنم. GENLIN Question1 (ORDER=ASCENDING) توسط شرکت کننده PrePost Group (ORDER=ASCENDING) /MODEL Group PrePost Group*PrePost DISTRIBUTION=MULTINOMIAL LINK=CUMLOGIT /CRITERIA METHOD=FISHER(1) SCALE=1 COVB10=MOD MAXSTEPHALVING=5 PCONVERGE=1E-006(ABSOLUTE) SINGULAR=1E-012 ANALYSISTYPE=3(LR) CILEVEL=95 CITYPE=WALD LIKELIHOOD=FULL /MISSING CLASSMISSING=EXCLUDE /PRINT FUSIONFOITTIONELUDE اما این مدل عدم استقلال اقدامات شرکت کننده در طول زمان را در نظر نمی گیرد. بسیار سپاسگزار خواهم بود اگر کسی بتواند به من کمک کند (به شخص دیگری کمک کند) مدلی را که دارای یک مولفه اثرات تصادفی است، با در نظر گرفتن خوشه بندی در بیماران مشخص کنم.
چگونه می توان رگرسیون لجستیک ترتیبی اندازه گیری های مکرر را با استفاده از SPSS انجام داد؟
145
> **موضوع تکراری:** > مکان یابی نمونه های داده آزادانه در دسترس از کجا می توانم منابع داده ای را که آزادانه در دسترس هستند پیدا کنم؟ من به سایت هایی مانند * http://www2.census.gov/census_2000/datasets/ فکر می کنم؟
منابع مجموعه داده رایگان؟
69485
من می خواهم تعیین کنم که آیا تفاوت هایی در دور گردن (متغیر وابسته) در بین سه گروه از بیماران (طبقه بندی شده به یکی از 3 الگوی اسکلتی-صورت = متغیر مستقل) با در نظر گرفتن گروه های سنی آنها (3 گروه سنی = متغیر مستقل دیگر) وجود دارد. ، جنسیت (متغیر مستقل دیگر)، طبقه بندی BMI (4 دسته = یک متغیر مستقل دیگر) و خطر ابتلا به آپنه خواب (خطر احتمالی یا بدون خطر = متغیر مستقل دیگر). من مطمئن نیستم که آیا اینها واقعاً متغیرهای مستقل هستند یا متغیرهای مشترک.
از کدام روش آماری استفاده کنم؟
16542
بردار تصادفی توزیع شده معمولی $$X \sim \mathcal{N}(\mu, \Sigma)$$ را در نظر بگیرید توزیع $Y = f(X)$ چیست؟ برای $f$ عمومی این یک مشکل چالش برانگیز است اما برای حالت خطی افین $$f(x)_i = c_i + L_{ij}x_j$$ با $c$ یک بردار و $L$ یک ماتریس. ما می دانیم که این شکل بسته خوبی دارد. در واقع، $Y$ دوباره به عنوان یک نرمال چند متغیره توزیع می شود. $$Y \sim \mathcal{N}(c + L\mu, \;L\Sigma L^T)$$ اکنون ساده‌ترین مورد بعدی را در نظر بگیرید. در نظر بگیرید که $f$ خطی نیست بلکه درجه دوم است. یعنی $$f(x)_i = c_i + L_{ij}x_j + H_{ijk} x_jx_k$$ با $c$ یک بردار، $L$ یک ماتریس و $H$ یک تانسور رتبه سه. آیا یک عبارت بسته برای چگالی $Y$ وجود دارد؟
چگالی تبدیل درجه دوم یک متغیر تصادفی نرمال
39279
من مجموعه داده زیر را دارم: https://dl.dropbox.com/u/22681355/ORACLE.csv و می‌خواهم تغییرات روزانه را در «باز» تا «تاریخ» ترسیم کنم، بنابراین کارهای زیر را انجام دادم: oracle <- خواندن .csv(file=http://dl.dropbox.com/u/22681355/ORACLE.csv, header=TRUE) plot(oracle$Date, oracle$Open, type=l) و من موارد زیر را دریافت می کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lOIlf.png) اکنون این بدیهی است زیباترین طرح تا به حال نیست، بنابراین می‌پرسم روش مناسب برای ترسیم چنین داده‌های دقیق چیست؟
نحوه رسم 20 سال داده روزانه در سری های زمانی
69483
فرض کنید من یک بردار داده v دارم، که در آن همه مقادیر بزرگتر از صفر هستند. اکنون، می‌خواهم ببینم آیا از توزیع پواسون تغییر یافته پیروی می‌کند یا خیر. آیا می توانم این کار را با جابجایی همه چیز به چپ ابتدا انجام دهم و یک پواسون را به روش معمول نصب کنم؟ به عنوان مثال، در R می توانم با استفاده از تابع fitdistr یک پواسون را جای دهم. آیا می‌توانم «vec <- v - 1» را انجام دهم تا ابتدا همه چیز را به چپ منتقل کنم (تا بتوانیم آن را مانند توزیع پواسون معمولی رفتار کنیم)؟ و سپس fitdistr(vec، poisson) را اجرا کنید. سوال دوم: حالا فرض کنید می‌خواهم «chisq.test()» را انجام دهم. جدول فراوانی بردار داده واقعی `vec` به شرح زیر است: جدول(vec) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 16 17 18 19 20 21 22 611 12297 18093 2797 2531 456 243 75 39 18 7 2 1 2 4 12 20 34 34 23 24 25 26 27 30 34 35 36 37 38 39 40 41 42 43 44 45 42 42 3 1 4 7 7 10 8 5 2 8 3 3 3 1 1 1 2 56 57 58 67 70 71 75 188 2 1 3 1 1 1 1 1 و برای ساختن آزمون کای دو خوبی برازش، این کار را انجام دادم: <- p1 dpois(0:188، lambda = 4.33657562) p1 <- c(p1, 1 - sum(p1)) names(p1) <- c(0:188, بیشتر) chisq.test(table(factor(vec, level = c(0:188, بیشتر) ))، p = p1) من نمی دانم چرا مقدار p = `NA` را در پایان گرفتم. لطفا برای من توضیح دهید که اینجا چه مشکلی دارد؟ `X-squared = NaN, df = 189, p-value = NA` توزیع داده های گسسته به شرح زیر است، با خط بنفش - توزیع پواسون جابجا شده ($\lambda = 4.33$)
تخمین پارامترهای توزیع پواسون جابجا شده
87502
این هیستوگرام چه توزیعی دارد؟ ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/4dTBr.png) به نظر می رسد در اطراف میانگین خود متقارن نیست، و همیشه غیر منفی و تک وجهی است. پس از حالت خود، به نظر می رسد که به طور تصاعدی تا بی نهایت فروپاشی می کند، در حالی که قبل از حالت خود، به نظر می رسد به روشی متفاوت افزایش می یابد. به طور کلی چگونه می توانیم توزیع را از روی یک هیستوگرام حدس بزنیم؟ آیا منابع یا خلاصه ای برای آموزش این کار به من وجود دارد؟ با تشکر
این هیستوگرام چه توزیعی دارد؟
19843
برای رگرسیون خطی معمولی ساده $y=a+bx$، اگر بخواهم از مدل کاهش یافته $y=bx$ استفاده کنم، یعنی از مبدأ عبور کنم، چگونه می توان آزمون های آماری را روی اعتبار چنین مدل خطی انجام داد؟
چگونه یک مدل خطی کاهش یافته را که از مبدا عبور می کند آزمایش کنیم؟
12651
روش انتخاب مدل Box-Jenkins در تحلیل سری های زمانی با مشاهده توابع خودهمبستگی و خودهمبستگی جزئی سری آغاز می شود. این نمودارها می توانند $p$ و $q$ مناسب را در مدل ARMA$(p,q)$ پیشنهاد کنند. این روش با درخواست از کاربر برای اعمال معیارهای AIC/BIC ادامه می‌یابد تا مقرون‌به‌صرفه‌ترین مدل را از بین مدل‌هایی که مدلی با اصطلاح خطای نویز سفید تولید می‌کنند، انتخاب کند. من متعجب بودم که چگونه این مراحل بازرسی بصری و انتخاب مدل مبتنی بر معیار بر خطاهای استاندارد تخمینی مدل نهایی تأثیر می گذارد. من می دانم که بسیاری از روش های جستجو در یک دامنه مقطعی می توانند خطاهای استاندارد را به سمت پایین سوگیری کنند. در مرحله اول، انتخاب تعداد مناسب تأخیر با مشاهده داده ها (ACF/PACF) چگونه بر خطاهای استاندارد مدل های سری زمانی تأثیر می گذارد؟ من حدس می‌زنم که انتخاب مدل بر اساس امتیازات AIC/BIC تأثیری مشابه با روش‌های مقطعی داشته باشد. من در واقع چیز زیادی در مورد این منطقه نمی دانم، بنابراین هر گونه نظر در این مورد نیز قدردانی خواهد شد. در نهایت، اگر معیار دقیق مورد استفاده برای هر مرحله را بنویسید، آیا می‌توانید کل فرآیند را برای تخمین خطاهای استاندارد و رفع این نگرانی‌ها راه‌اندازی کنید؟
انتخاب مدل باکس جنکینز
100653
این سوال از این سوال ناشی شد. آیا کسی چند نمونه کار شده از یک سوال OLS دارد که مشاهدات آن خطی نیستند؟ به عنوان مثال $y_i = \alpha + \sin (x_i) + \epsilon_i$ سعی کردم با تفکیک $(y_i - \alpha - \sin(x))^2$ کمترین تخمین‌گر را برای ضریب $x$ پیدا کنم. با احترام به $x$ (حتی مطمئن نیستم که آیا این کار درستی است یا خیر) و در نهایت با یک عبارت پیچیده شامل $\sin$ و $\cos$ مواجه می‌شویم. بنابراین، فکر کردم قبل از ادامه، بپرسم چگونه چنین سؤالاتی را انجام دهم. من علاقه مند به پاسخی برای این هستم زیرا، می خواهم ببینم که $E(y_i - \hat{y}_i)$ همیشه برابر با 0 نیست، وقتی $y_i$ یک تابع خطی از $x_i$ نیست. همچنین، آیا راه کلی تری برای نشان دادن درستی این عبارت وجود دارد، یعنی بدون یافتن برآوردگرهای OLS؟ ویرایش 1: فراموش کرده اید که عبارت خطا را در مثال وارد کنید. ویرایش 2: مدلی که من سعی می‌کنم آن را تنظیم کنم $y = \sin(x) + \epsilon_i$ است. با توجه به یک مجموعه داده خاص، طبق R باید $\hat{y} = 0.60330 + 0.01797x$: set.seed(1234) n <- 5 df <- data.frame(x=runif(n, 1, 10 )) df$mean.y.given.x <- sin(df$x) df$y <- df$mean.y.given.x + rnorm(n) model <- lm(y ~ x, data=df) summary(model) فراخوانی: lm(فرمول = y ~ x، داده = df) باقیمانده ها: 1 2 3 4 5 0.6190 -1.1402 -0.4852 -0.2877 1.2941 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.60330 1.45534 0.415 0.706 x 0.01797 0.22460 0.080 0.941 خطای استاندارد باقیمانده: 1.107 در 3-درجۀ آزادی 20، 3- درجه آزادی چندگانه R-squared: -0.3305-F-statistic: 0.006404 در 1 و 3 DF، p-value: 0.9413 من می خواهم اکنون $\hat{y}$ را با دست بدست بیاورم. با این حال، تمام سوالاتی که تاکنون انجام داده‌ام همیشه به شکل $y_i = \alpha + \beta x$ هستند، که در آن $\alpha$ و $\beta$ ثابت هستند، به طوری که $y_i$ یک تابع خطی از $ است. x_i$. بنابراین، من مطمئن نیستم که وقتی $y_i$ یک تابع خطی از $x$ نیست چگونه باید ادامه داد، از این رو درخواست من برای مثال های کار شده برای این نوع سوالات است. پس از آن، انتظار دارم بتوانم نشان دهم که $E(y_i-\hat{y_i}) \neq 0$ است زیرا نمودار باقیمانده ها در برابر مقدار پیش بینی شده (برای $n$ بزرگ) این است: set.seed(1234 ) n <- 1000 df <- data.frame(x=runif(n, 1, 10)) df$mean.y.given.x <- sin(df$x) df$y <- df$mean.y.given.x + rnorm(n) model <- lm(y ~ x, data=df) plot(predict(model, newdata=df), residuals (مدل)) abline(a=0,b=0,col='blue') ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/0dTlp.png) بر اساس نمودار بالا، $E(y_i-\hat{y_i}) \neq 0$ در این مورد باید درست باشد، درست است؟
چگونه می توان حداقل مربعات معمولی (OLS) را زمانی که مشاهدات خطی نیستند انجام داد؟
46151
در حالت رگرسیون خطی ساده $y=\beta_0+\beta_1x$، می‌توانید برآوردگر حداقل مربع را استخراج کنید: $\hat\beta_1=\frac{\sum(x_i-\bar x)(y_i-\bar y)}{\ sum(x_i-\bar x)^2}$ به گونه ای که برای تخمین $\hat\beta_1$ لازم نیست $\hat\beta_0$ را بدانید. $y=\beta_1x_1+\beta_2x_2$، چگونه $\hat\beta_1$ را بدون تخمین $\hat\beta_2$ استخراج کنم؟ یا این امکان پذیر نیست؟
چگونه برآوردگر حداقل مربعات را برای رگرسیون خطی چندگانه بدست آوریم؟
86954
مطالعات حیوانی زیست‌پزشکی اغلب آزمایش‌هایی را شامل یک فاکتور مواجهه و یک عامل ژنتیکی با استفاده از موش‌های تراریخته انجام می‌دهند. به عنوان مثال، به اصطلاح موش های نوع وحشی و موش های دارای کمبود گیرنده لپتین (WT در مقابل Db/Db) در غذای معمولی آزمایشگاهی یا رژیم غذایی پرچرب (CHOW در مقابل HFD). به نظر می رسد که اکثریت قریب به اتفاق مطالعاتی که من با آن مواجه شده ام، چنین آزمایش هایی را با استفاده از ANOVA یک طرفه به جای دو طرفه تحلیل می کنند. به عنوان مثال، وزن نهایی بدن با آنالیز واریانس یک طرفه و سپس تمام مقایسه‌های جفتی بین 4 گروه مورد تجزیه و تحلیل قرار گرفت. به نظر نمی رسد چنین رویکردی توجه منتقدان را به خود جلب کند، بنابراین من نمی دانم که چقدر این رویکرد اشتباه است یا نیست. آیا این صرفاً منجر به از دست دادن اطلاعات می شود (از آنجایی که یک فرضیه تعامل به شخص اجازه می دهد تا به طور رسمی اصلاحات را آزمایش کند)، یا در واقع نتایج را به نوعی سوگیری می کند؟ آیا منجر به از دست دادن قدرت می شود؟
تجزیه و تحلیل یک آزمایش 2 عاملی با ANOVA یک طرفه
41032
> **موضوع تکراری:** > مکان یابی نمونه های داده آزادانه در دسترس > سایت هایی برای مسابقات مدل سازی پیش بینی کننده آیا سایت ها یا منابعی از مجموعه داده ها (به طور مصنوعی ایجاد شده یا برگرفته از آزمایش ها/منابع واقعی) وجود دارد که کسی می تواند از آنها برای آزمایش توانایی های خود استفاده کند. شناسایی خوشه‌ها، الگوها و فرمول‌بندی/ اعتبارسنجی فرضیه؟ احتمالاً با پاسخ‌هایی که می‌توان بعداً با آنها مشورت کرد تا مشخص شود چه چیزی به دست آورده‌اید و نتایج/تکنیک‌های مورد انتظار باید چه می‌بود؟
آزمون های تجزیه و تحلیل داده ها
16547
### شرح مطالعه: من یک خطای رایج را در میان متاآنالیزها، با توجه به مدیریت تکرار درون مطالعه مشاهده کرده ام. برای من روشن نیست که آیا این خطا هنگام بیان مفروضات، مطالعات را باطل می کند یا خیر. با این حال، همانطور که من متوجه شدم، این مفروضات یک فرض اساسی آمار را نقض می کند. به عنوان مثال، یک مطالعه اثرات شیمیایی $X$ را بر پاسخ $Y$ آزمایش می کند. تجزیه و تحلیل بر روی نسبت پاسخ ورود به سیستم انجام می شود: نسبت درمان $Y_{+X}$ (در حضور $X$) به کنترل $Y_{0}$ (بدون $X$): $$R = ln (\frac{Y_{+X}}{Y_{0}})$$ برخی از مطالعاتی که در متاآنالیز گنجانده شده‌اند، شامل چندین درمان هستند، برای مثال سطوح مختلف یا اشکال شیمیایی X$. برای هر درمان، مقدار متفاوتی از $R$ وجود دارد، اگرچه $R$ همیشه از همان مقدار $Y_0$ استفاده می کند. روش ها بیان می کنند: > پاسخ به درمان های مختلف (سطوح و اشکال X$) در یک مطالعه واحد، مشاهدات مستقل در نظر گرفته شد. ### سوالات: * آیا این شبه تکراری نیست؟ * حتی اگر در روش ها نقض استقلال آمده باشد، نامناسب است؟ * یک راه آسان (مثلاً در توانایی یک بسته نرم افزاری متاآنالیز ساده) برای انجام تکثیر در مطالعه چیست؟ ### افکار اولیه: * نتایج هر مطالعه را خلاصه کنید، به عنوان مثال. با در نظر گرفتن میانگین پاسخ * از هر مطالعه فقط یک درمان را بر اساس معیارهای قبلی (مثلاً بالاترین دوز، اولین اندازه گیری) انتخاب کنید؟ آیا راه حل های دیگری وجود دارد؟
بدون مدل‌سازی چند سطحی، چگونه می‌توان همانندسازی درون مطالعه را در یک متاآنالیز مدیریت کرد، جایی که مطالعه واحد تکرار است؟
63628
من قصد دارم به زودی آزمایشی را انجام دهم، اما هنوز مطمئن نیستم که بعد از آن چه نوع تجزیه و تحلیلی انجام دهم. آنچه من می خواهم بدانم این است که آیا گنجاندن یک مداخله در آزمایش منجر به رفتار متفاوتی می شود یا خیر. علاوه بر این، من همچنین می خواهم بدانم که آیا نگرش نیز به دلیل مداخله تغییر می کند؟ به طور خلاصه: 1. ابتدا نگرش افراد را با یک پرسشنامه (مقیاس صفت دوقطبی) اندازه گیری می کنم و سپس می سنجیم که آیا آنها رفتار خاصی انجام می دهند یا نه (دوگانه). در انجام همین رفتار من ابتدا فکر کردم که باید اقدامات تکراری انجام دهم تا ببینم آیا تغییری در رفتار وجود دارد و بعد از مداخله، اما تا حدودی در ماهیت متغیرهایم گیر کردم (دوگانه). در حال حاضر، من به ساخت یک متغیر (مداخله بله/خیر) فکر می کنم که به عنوان IV عمل کند و سپس آن را روی رفتار (بله/خیر) با یک آزمون t یک نمونه آزمایش کند. سپس نگرش آنها (IV) را در مورد رفتار در قبل و بعد از مداخله به صورت انفرادی آزمایش کنید. آیا کسی می تواند این را تایید کند؟ و چگونه می توانم نگرش به رفتار را قبل و بعد از مداخله مقایسه کنم؟
اندازه گیری های مکرر یا یک نمونه t-test
12654
این یک سوال ساده است. من با یک توزیع نرمال بریده شده سر و کار دارم -- مثلاً $N(0,0.5)$ بین $[-1,1]$ بریده شده است. من می خواهم احتمال یک نمونه را محاسبه کنم، اما می دانم که در $(-1,1)$، احتمال یک رویداد منفرد 0 است. با این حال، احتمال 1 $1 است-\text{cdf} (1,0,0.5)$ و -1 $\text{cdf}(-1,0,0.5)$ است. چگونه می توان این نوع تفاوت ها را آشتی داد؟ شهود من این است که از توپ های اپسیلون در $(-1,1)$ استفاده کنم، اما این کار درستی نیست...
محاسبه احتمالات رویداد در توزیع های مختلط، گسسته/پیوسته
100655
من با مجموعه داده هایم و بهترین روش تجزیه و تحلیل آن مشکلات متعددی دارم. من یک سری ویژگی های فنولوژی گیاهی را اندازه گیری کرده ام (با یک مدل مجزا برای هر یک - نمی خواهم همه آنها را ترکیب کنم، بلکه هر متغیر را به صورت جداگانه تجزیه و تحلیل می کنم). داده ها در سه منطقه تو در تو در دو ترانسکت گروه بندی می شوند. من هفت گونه گیاه دارم، و داده ها در نقاط تصادفی در طول فصل رشد جمع آوری شد. مجموعه داده نامتعادل است و سلول‌های گمشده زیادی دارد - به عنوان مثال، تعداد متفاوتی از اندازه‌گیری‌ها از مناطق مختلف گرفته می‌شود، همه ترانسکت‌ها دارای 3 نوع ناحیه در داخل خود نیستند، همه گونه‌ها در هر ترانسکت و ترکیب بوم منطقه یافت نمی‌شوند، و غیره... یک مدل ANCOVA را با ناحیه تو در تو در داخل ترانسکت ها، تاریخ به عنوان متغیر کمکی، و گونه ها به عنوان یک عامل (و همچنین تعامل بین همه این اصطلاحات) اجرا کرده اند. به نظر می‌رسد مدل ANCOVA به خوبی اجرا می‌شود، اما وقتی سعی می‌کنم مقایسه‌های زوجی انجام دهم، تقریباً هیچ یک از آنها به دلیل سلول‌های از دست رفته قابل تخمین نیستند. اگر من دوباره وزن کنم تا سلول‌های خالی را به حساب بیاورم، آنگاه دسته‌ای از گوبلدگوک‌ها را بیرون می‌ریزد که با تفاوت‌ها با داده‌های واقعی مطابقت ندارند. به من توصیه شده است که برای هر مقایسه زوجی که می‌خواهم آزمایش کنم، مدل‌های ANCOVA جداگانه ایجاد کنم، و همه عوامل دارای داده‌های از دست رفته را حذف کنم تا سلول خالی وجود نداشته باشد، و از این مدل برای بررسی مقایسه‌های زوجی استفاده کنم. آیا این یک رویکرد معتبر است؟ آیا راه بهتری برای این کار وجود دارد؟
ANOVA، طراحی های نامتعادل، داده های از دست رفته و مقایسه های متعدد
16894
من از طریق انجام اینجا یاد می‌گیرم بچه‌ها، بنابراین امیدوارم که این سؤال خوب در نظر گرفته شود (همچنان که می‌روم سؤال را ویرایش می‌کنم - مقدمه را حذف می‌کنم و غیره). من سعی دارم فرکانس توزیع تجمعی تجربی یک مجموعه داده را با 781 مشاهده ترسیم کنم. مجموعه داده به این شکل است: (1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 8 8 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 10 10 10 10 10 10 10 10 10 10 10 10 10 11 11 11 11 11 12 12 12 121 12 13 13 13 13 13 13 13 14 14 14 14 14 15 15 15 15 15 16 16 17 17 17 19 19 20 21 21 21 21 22 22 23). من از تابع زیر در R استفاده می کنم (که از r-bloggers برداشتم): plot(ecdf(V1), verticals=TRUE, pch=46) که نمودار زیر را تولید می کند: ![ECDF plot](http://i. stack.imgur.com/dy4Gp.png) EDIT ===== نمودار مشاهدات واقعی را روی محور x و درصد مشاهدات را در محور x رسم می‌کند. محور y از کمک شما متشکرم، slotishttype
رسم ECDF (فرکانس های توزیع تجمعی تجربی) با R
16545
### پیش‌زمینه من معمولاً مقدار مناسبی از پیش‌بینی را با استفاده از ARIMA، رگرسیون‌های خطی یا چند متغیره، روندهای چند جمله‌ای، و غیره انجام می‌دهم. بسیاری از این پیش‌بینی‌ها برای استفاده ساده‌ای هستند و واقعاً مبنایی برای تصمیم‌گیری نیستند. من به طور کلی به پیش بینی و آمار پیشرفته می پردازم و می خواهم در پیش بینی و روند به ویژه برای مشکلات مهندسی برتر باشم. من چندین کلاس را در دانشگاه انجام داده ام زمانی که: آمار 1 برای مهندسین، سیستم های آماری (پوشیده، آنوا، مانوا، سری زمانی، مربع، و TSP. من همچنین یک کلاس خاص در مورد اعتبار سنجی و کالیبراسیون مدل های مهندسی انجام دادم. (آمار زیادی را پوشش نداد، اما مرتبط بود ### کاری که من انجام می‌دهم 1. وقتی به مجموعه داده‌های سری زمانی نگاه می‌کنم، معمولاً ابتدا آن را رسم می‌کنم، هر فصلی را بررسی می‌کنم). 2. سپس سعی می کنم مدل را بر اساس RMSE یا MAE انتخاب کنم ) data^k(time) 4. سپس دوباره بررسی می کنم تا ببینم داده های من چگونه به نظر می رسند و چگونه برازش دارند حالت ARIMA، من به acf، pacf نگاه می‌کنم و وقفه‌ها را شناسایی می‌کنم تا ثابت‌های مناسب را ایجاد کنم، اگرچه، این می‌تواند بهبود یابد، زیرا معمولاً باید به یادداشت‌های خود مراجعه کنم و کل فرآیند acf/pacf را ​​درک نمی‌کنم. 100% هنوز (من هنوز به این موضوع مسلط نیستم). ### مشکل یک چیز این است که من هرگز در مورد پیش بینی های خود مطمئن نیستم. بله، از نظر بصری خط پیش‌بینی جدید با انتظارات من مطابقت دارد. من معمولاً 2 خط +/- 2*sigma اضافه می کنم. اما هنوز، چگونه می توانم بگویم، من داسوکی، این پیش بینی را تایید می کنم تا منعکس کننده داده های سال های قبل باشد. با این حال، فرض کنید ثابت ها را در یک ARIMA کمی تغییر دهم، یا از مدل بخواهم که داده های فصلی در مقابل غیر فصلی را تحلیل کند، واقعا گیج می شوم و به مرحله ای می رسم که نمی دانم برای چه آزمایشی، و وقتی من برای نرمال بودن، دقت یا اعتبار آزمایش می کنم، آیا خروجی را به درستی می خوانم؟ ### سوال * چگونه می توانم در مورد پیش بینی های خود مطمئن باشم، می دانم که همه مدل سازی ها کاذب هستند. با این حال، چگونه می توانم مطمئن باشم که فرضیاتی که انجام دادم، عواملی که استفاده کردم و نتایجی که تولید کردم تا حدودی منعکس کننده آینده هستند؟
چگونه می توانم در مورد پیش بینی های خود مطمئن باشم و روش های خود را بهبود بخشم؟
97024
من 10 مدل دارم که نرخ رشد شفیره (DR) و زمان رشد (DT) را بسته به تعدادی از عوامل تجزیه و تحلیل می کنند: m1 <- lm (DR ~ جمعیت + جنس + دما + وزن + جمعیت * دما) m2 <- lm(DR ~ جمعیت+جنس+جمعیت*جنس) m3 <- lm(DR ~ جمعیت+جنس+دما+جمعیت*دما) m4 <- gls(DR ~ جمعیت+جنس، ...) m5 <- lm(DR ~ جمعیت+جنس+دما+وزن+جمعیت*دما) m6 <- glm(DT ~ جنس + دما + وزن، گاما) ... و غیره این مدل ها به مجموعه داده های دو گونه مختلف، دو سال مختلف و فازهای مختلف شفیرگی اشاره دارد. توسعه یکی از بازبینان کنترل نرخ کشف کاذب در سطح آزمایش را درخواست کرد، که در زمینه اکولوژی چندان رایج نیست. در بسیاری از نمونه‌های حاصل از مطالعات ژنتیک و پزشکی، یک آزمایش تنها به یک مقدار p منجر می‌شود که سپس با استفاده از روش‌های FDR تنظیم می‌شود. در مورد من چگونه کار می کند؟ استخراج مقادیر p فقط مثلاً از متغیر جمعیت و استفاده از آنها؟ و بعد همون جدا برای جنس و غیره؟ یا از تمام مقادیر p از هر یک از مدل ها به عنوان یک بردار استفاده کنید؟ اگر چنین است، در مواردی که فاکتور قبلاً از مدل نهایی حذف شده است، چه کاری باید انجام دهم - از آنها صرف نظر کنید و فقط از موارد باقی مانده استفاده کنید؟ آنها را دوباره به مدل اضافه کنید؟
نرخ کشف کاذب مدل های رگرسیون چندگانه
81226
من قبلاً یک فایل قطار عظیم با ~1 گیگابایت تولید کرده ام که در آن حقیقت زمینی یکی از 4 کلاس {-1،0،1،2} است. بله، موافقم که می توانستم آن را با استفاده از 3 به جای -1 انجام دهم، اما به دلایل معمولی از -1 استفاده کردم. من می خواهم از gbm در حالت توزیع چند جمله ای استفاده کنم. آیا با نمایش منفی مشکلی ایجاد می کند یا می توانم با آن ادامه دهم؟
نمایش یک کلاس با عدد منفی برای آموزش GBM در R
88221
من از یک مجموعه داده خاک با وضوح خوب برای اجرای یک مدل آب و هوا استفاده می‌کنم و می‌خواهم تأثیر تجمیع ویژگی‌های خاک در وضوح‌های مختلف بر خروجی مدل را بررسی کنم. به عنوان مثال اگر میانگین خواص خاک را به 1 مقدار در هر شهرستان/ایالت در مقابل 100 مقدار مختلف در هر شهرستان/ایالت به دست آوریم، نتایج چگونه متفاوت است. برای این منظور، من مقدار ویژگی خاک را در صدک های مختلف (1، 2... 100) محاسبه کردم و قصد دارم مدل را برای انتخاب چندگانه صدک ها اجرا کنم. به عنوان مثال، یک بار برای تمام مقادیر 100 صدک، یک بار دیگر برای هر مقدار صدک 5... آیا راه بهتری برای نمونه گیری وجود دارد؟ آیا فقط با استفاده از این طرح صدک ممکن است چیزی را از دست بدهم؟ با تشکر
تجزیه و تحلیل وضوح ورودی مدل
39274
من روی پیش بینی بار مرکز تماس کار می کنم. من حجم تماس روزانه 24 ماه گذشته را به همراه چند متغیر دارم که بر بار تماس تأثیر می گذارد. اگرچه هیچ یک از این متغیرها در مدل ARIMA معنی دار نبوده اند. مدیریت من از من خواسته است که برای دو ماه پیش بینی پیش بینی کنم. من نگران این هستم که فقط با استفاده از حجم تماس روزانه مرکز تماس در مدل آریما پیش بینی من در آینده دقیق نباشد. همبستگی خودکار حجم تماس روزانه بدتر می شود و در 5 روز به کمتر از 0.5 کاهش می یابد. من فکر نمی کنم که برای پیش بینی مقادیر 2 ماه آینده خیلی دقیق باشد. نظر شما در این مورد چیست؟
حجم کاری مرکز تماس تا چه اندازه در آینده دقیق است
64162
من در حال انجام یک آزمایش عددی هستم که شامل مقایسه تقریبی محاسبات بیزی (ABC) با روش‌های دیگر است. من داده‌های $\boldsymbol{y}$ را از یک مدل شبیه‌سازی می‌کنم و از ABC برای دریافت نمونه‌ای از قسمت عقبی پارامترهای $\boldsymbol{\theta}$ استفاده می‌کنم. آمار خلاصه $S(\boldsymbol{y})$ در مقیاس‌های بسیار متفاوتی است، با کوواریانس شدیداً به پارامترهای $\boldsymbol{\Sigma}_{\boldsymbol{\theta}}$ وابسته است. برای در نظر گرفتن این موضوع، در مرحله پذیرش از فرم درجه دوم استفاده می کنم: $$ (\boldsymbol{s_i}-\boldsymbol{s}_0)\hat{\boldsymbol{\Sigma}}_{\boldsymbol{\theta} }^{-1}(\boldsymbol{s_i}-\boldsymbol{s}_0) < \epsilon $$ where $\boldsymbol{s_i}$ یک بردار شبیه سازی شده از آمار، $\boldsymbol{s_0}$ آمار مشاهده شده و $\epsilon$ تحمل است. تا به حال تقلب کرده‌ام و از $\hat{\boldsymbol{\Sigma}}_{\boldsymbol{\theta}_0}$ استفاده کرده‌ام که در آن $\boldsymbol{\theta}_0$ پارامترهای واقعی هستند. من فکر می کردم که انتخاب ماتریس مقیاس بندی ثانویه است (به عنوان $\epsilon \rightarrow$ 0 اهمیت کمی دارد) اما معلوم می شود که در مورد من اگر $\hat{\boldsymbol{\Sigma}}_ را تخمین نزنم {\boldsymbol{\theta}}$ واقعاً نزدیک به $\boldsymbol{\theta}_0$ الگوریتم به سادگی گیر کرده است (میزان پذیرش بسیار پایین و تعداد کمی آمار بر همه چیز حاکم است). آیا کسی روش عملی می داند که بتوان از آن برای انتخاب ماتریس وزنی در زمانی که پارامترهای واقعی ناشناخته هستند استفاده کرد؟ با تشکر
چگونه ماتریس مقیاس بندی را در ABC (بدون تقلب!) انتخاب کنیم؟
86373
من باید میانگین دو مجموعه داده را باینری مقایسه کنم. به عنوان مثال: a = [1,1,0,0,0,0,0,0,0,1] b = [1,0,1,1,1,0,0,1,1,0] همه من باید بدانم که آیا میانگین ها از نظر آماری بین دو مجموعه داده تفاوت معنی داری دارند یا خیر، به عبارت دیگر ترتیب ترتیب 1 مهم نیست. و من می دانم که همه مقادیر 0 یا 1 هستند. همچنین در مورد من، اندازه‌های و be نسبتاً بزرگ، بزرگ‌تر از «10000» و تعداد «1» حدود «10» تا «100» است. بهترین تست برای استفاده در این مورد چیست؟ من می دانم که نمی توانم از t-test استفاده کنم زیرا داده های من به طور معمول توزیع نمی شوند.
مقایسه میانگین دو مجموعه داده از داده های باینری
100652
من دو هفته دیگر پایان نامه ام را ارائه می کنم و در بخش آماری کمی مشکل دارم و اگر کسی بتواند به من کمک کند بسیار سپاسگزار خواهم بود زیرا من واقعاً نمی دانم دارم چه کار می کنم. من با تجزیه و تحلیل داده های خود با یک آزمون _F_ شروع کردم تا بتوانم آزمون _t_ مناسب را انتخاب کنم. من نتایج زیر را داشتم: F-Test Two-Sample for Variances Non-beveriever Mean 28.375 38.59550562 Variance 305.6964286 161.6072523 مشاهدات 8 89 df 7 88 F 1.89-1 0.080345387 F Critical one-tail 2.115471719 من از طریق یک ویدیوی دستورالعمل در YouTube متوجه شدم که اگر _F_ بحرانی > _F_، آنگاه واریانس های برابر داریم. از آنجایی که این وضعیت در اینجا است، من یک آزمون _t_ با فرض واریانس های مساوی انجام دادم. آیا من آن را اشتباه متوجه شدم یا آزمون درست را انتخاب کردم؟ متشکرم.
آیا بر اساس نتایج حاصل از آزمون F، آزمون تی مناسب را انتخاب کردم؟
11142
من در مسابقات مدل سازی پیش بینی در Kaggle، TunedIt و CrowdAnalytix شرکت می کنم. من متوجه شدم که این سایت‌ها راه خوبی برای تمرین برای آمار/یادگیری ماشینی هستند. * آیا سایت های دیگری وجود دارد که باید درباره آنها بدانم؟ * همه شما در مورد مسابقاتی که میزبان قصد دارد از ارسال های رقبا سود ببرد، چه احساسی دارید؟ /ویرایش: در اینجا یک لیست کامل تر است: Kaggle TunedIt Clopinte KDD Cup Innocentive Crowdanalytix Topcoder
سایت هایی برای مسابقات مدل سازی پیش بینی
88220
من می خواهم داده های یک مطالعه کوهورت را تجزیه و تحلیل کنم که ارتباط بین تبعیض درک شده و پیامدهای سلامت روان (مانند پریشانی روانی) را در دو زمان (T0 و T1) بررسی می کند. هدف ارزیابی این است که آیا یک رویداد (که بین T0 و T1 اتفاق افتاده است) می تواند میزان ارتباط بین قرار گرفتن در معرض (مثلاً تبعیض درک شده) و نتیجه را تغییر دهد یا خیر. هر دو نتیجه و قرار گرفتن در معرض در T0 و T1 اندازه گیری شد. آیا این پیکربندی است که می توانم از معادلات تخمین عمومی استفاده کنم؟ اگر چنین است، چگونه می توانم نمرات تبعیض های درک شده را معرفی کنم؟ خیلی ممنون
تجزیه و تحلیل اندازه گیری های مکرر و متغیرهای کمکی مکرر
69489
برای تهیه یک پرسشنامه جدید برای اندازه گیری هوشیاری ناجیان غریق، پس از جمع آوری داده ها از ادبیات مختلف، 20 مقیاس را یافتم که به هوشیاری ناجیان غریق کمک می کند. سپس شروع به طراحی سوالات برای هر مقیاس کردم به این صورت که در هر مقیاس چند سوال (4 تا 10 سوال) با صورت متفاوت اما با مفهوم یکسان وجود دارد. در نهایت من به 142 مورد رسیدم. اکنون می خواهم تحلیل عاملی را برای اعتبار سازه انجام دهم. نمی‌دانم می‌توانم به جای سطح آیتم، FA را در سطح مقیاس اجرا کنم یا نه. (مقیاس ها و آیتم های هر مقیاس دارای اعتبار صوری نیز هستند.)
تحلیل عاملی در سطح آیتم یا مقیاس؟
64166
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/aWnvS.jpg) من از کتابخانه vars در R برای ترسیم fanchart و پیش بینی ها از طریق بردار مدل تصحیح خطا استفاده می کنم. من از این کد استفاده کرده ام: b<-ts(KtF,start=1921,end=2009,frequency=1) vecmfemales<-ca.jo(b,type=trace,spec=transitory) vecm.level < - vec2var (vecmfemales، r = 3) vecm.females<-predict(vecm.level,n.head=50,start=1921,frequency=1) plot(vecm.females) fanchart(vecm.females) نمودار من روی ابسیسا با شاخص عددی که با 0 شروع می شود و به 100 ختم می شود. اما در نمودارهای من به تقویم های سال از 1921 تا 2009 نیاز دارم. علاوه بر این، من می‌خواهم سال‌های پیش‌بینی تا سال 2059 را نیز دریافت کنم. سعی می‌کنم بسته را از Pfaff (2013) بخوانم، اما او فقط ابسیسا را ​​به عنوان شاخص ارائه می‌کند نه به عنوان سال تقویم. لطفاً کسی می تواند به من کمک کند تا کدهای خود را بهبود بخشم تا فقط سال های تقویم را دریافت کنم؟ این کدهای بالا کدهای من هستند. متشکرم!
پیش بینی ها را از طریق vecm با استفاده از سال های تقویم ترسیم کنید
16540
### زمینه: این طرح است: * 11 بیمار برای پارامتر پاسخ قبل و بعد از یک درمان خاص مورد بررسی قرار گرفتند. * 12 بیمار کنترل سالم از نظر پارامتر پاسخ مورد بررسی قرار گرفتند (درمانی دریافت نکردند). اعداد ارائه شده نسبتاً کوچک هستند و پارامتر پاسخ ممکن است به طور معمول توزیع نشده باشد، به همین دلیل است که فکر می کنم آمار غیر پارامتری بهتر است. بنابراین، من می خواهم فرضیه صفر را آزمایش کنم: > هیچ تفاوتی در پارامتر پاسخ وجود ندارد، همچنین پس از تنظیم برای > سن و جنسیت. من از R استفاده می کنم. متغیرهای گروه، سن، جنس، پاسخ ### سوال: * چگونه این فرضیه را آزمایش کنم؟ * آیا ANCOVA با استفاده از پارامتر پاسخ رتبه بندی شده مناسب است؟ از آنجایی که اندازه گیری ها در 11 بیمار جفتی است (قبل و بعد از درمان)، من شک دارم که اصلا بتوانم از ANCOVA استفاده کنم.
چگونه می توان تنظیم ناپارامتری ANCOVA را برای تفاوت های سن و جنس انجام داد؟
21050
من با powerTransform مشکل دارم - برای مثال، به تازگی نتوانسته است یک متغیر کاملاً معمولی (برای من) را تبدیل کند، با خطای زیر Error در optim(start, llik, hessian = TRUE, method = method, . ..) : L-BFGS-B به مقادیر محدود fn نیاز دارد در اینجا داده ها وجود دارد: http://www.tropic.org.uk/~crispin/boxcoxerror > require(car) > data = read.table (boxcoxerror) > mean(data) V1 39401.55 > sd(data) V1 5381.04 > powerTransform(data$V1) خطا در optim(start, llik, hessian = TRUE, method = روش، ...) : L-BFGS-B به مقادیر محدود fn نیاز دارد هر نکته ای؟
R powerTransform روی داده‌های به ظاهر خوب با شکست مواجه می‌شود
69480
من از تابع confint() بسته R metafor برای محاسبه ناهمگنی در مدل های اثرات تصادفی در یک متاآنالیز استفاده کرده ام. من مقادیر معقولی را برای پارامترهای مختلف ('tau', 'tau^2', 'I^2') برای اکثر محاسباتی که انجام داده‌ام دریافت می‌کنم، اما برای هر سه پارامتر برای یک تجزیه و تحلیل خاص 0 مقدار را برمی‌گردانم. من داده های خام را بررسی کرده ام و هیچ چیز به طرز مشکوکی با آنچه برای محاسبات دیگر استفاده می شود متفاوت به نظر نمی رسد. خروجی «confint()» که من دریافت می کنم به شرح زیر است. برآورد ci.lb ci.ub tau^2 0.0000 0.0000 0.1061 tau 0.0000 0.0000 0.3257 I^2(%) 0.0000 0.0000 60.4187 H^2 1.0000 تاو 0.0000 آیا هر کسی ممکن است ایده ای داشته باشد دریافت یک تخمین 0 با 0 به عنوان انتهای پایینی فاصله اطمینان؟ هر گونه فکر بسیار قدردانی خواهد شد.
تاو، تاو مربع و من مربع = 0
64163
من با مشکل طبقه بندی متن مواجه هستم و باید نمونه ها را به 34 گروه طبقه بندی کنم. مشکل این است که اندازه داده های آموزشی 34 گروه متعادل نیست. برای برخی از گروه ها 2000+ نمونه دارم، در حالی که برای برخی فقط 100+ مثال دارم. برای برخی از گروه های کوچک، دقت طبقه بندی بسیار بالا است. من حدس می زنم که آن گروه ها ممکن است کلمات کلیدی خاصی برای تشخیص و طبقه بندی داشته باشند. در حالی که برای برخی، دقت پایین است و پیش بینی همیشه به گروه های بزرگ می رود. من می خواهم بدانم چگونه با مشکل مثال فرکانس پایین برخورد کنم. آیا به سادگی کار داده های گروه کوچک را کپی و کپی می کند؟ یا باید داده های آموزشی را انتخاب کنم و حجم داده ها را گسترش داده و متعادل کنم؟ پیشنهادی دارید؟
چگونه با مثال های کم فرکانس در طبقه بندی برخورد کنیم؟
21058
من برخی از داده های سری زمانی دارم که در آن متغیر اندازه گیری شده اعداد صحیح مثبت گسسته (شمارش) است. من می خواهم آزمایش کنم که آیا روند صعودی در طول زمان وجود دارد (یا نه). متغیر مستقل (x) در محدوده 0-500 و متغیر وابسته (y) در محدوده 0-8 قرار دارد. من فکر کردم که این را با برازش رگرسیون به شکل «y = کف(a*x + b)» با استفاده از حداقل مربعات معمولی (OLS) پاسخ می‌دهم. چگونه می توانم این کار را با استفاده از R (یا پایتون) انجام دهم؟ آیا بسته ای برای آن وجود دارد یا بهتر است الگوریتم خودم را بنویسم؟ PS: می دانم که این تکنیک ایده آل نیست، اما باید یک تجزیه و تحلیل نسبتاً ساده انجام دهم که واقعاً بتوانم آن را درک کنم - پیشینه من زیست شناسی است نه ریاضی. می دانم که فرضیات مربوط به خطا در متغیر اندازه گیری شده و استقلال اندازه گیری ها را در طول زمان نقض می کنم.
چگونه یک رگرسیون مانند $y=\lfloor ax+b \rfloor$ را در R قرار دهیم؟
49674
من به دنبال پاسخ هایی مشابه این پست هستم، اما برای توزیع F به جای توزیع عادی. به نظر می رسد با درخواست کد منبع زنگ خطر را به صدا درآورده ام. یک پاسخ غیر کدگذاری شده نیز مفید خواهد بود، اگرچه به نظر می‌رسد مسائل اجرای غیرمشخص مانند کسرهای ادامه دار، دقت ممیز شناور، الگوریتم‌های مختلف برای محدوده‌های ورودی مختلف و غیره وجود دارد. هر پاسخی با توضیح کافی برای فعال کردن «کاهش در تمرین» بسیار قدردانی خواهد شد. البته کد منبع کامل ترین و بدون ابهام ترین پاسخ از همه است. اگر سوال من خارج از محدوده این انجمن است عذرخواهی می کنم. من نمی خواهم به هیچ وجه از این منبع ارزشمند سوء استفاده کنم.
کد منبع برای محاسبه تابع توزیع تجمعی برای توزیع F؟
64164
من در حال انجام تحقیقات (تا حدودی غیرمنتظره) در مورد دقت چندین الگوریتم برای محاسبه یک مقدار در صورت داده شدن مجموعه ای از متغیرهای تجربی جمع آوری شده، از جمله زمان هستم. مسئله این است که ارزش واقعی برای من در دسترس نیست و هیچ راهی برای تعیین تجربی آن ندارم. آیا راهی برای مقایسه کمی پیش‌بینی‌های چندین الگوریتم بدون مقدار تجربی وجود دارد که بتوان با آن مقایسه کرد؟ من به شدت احساس برهنگی می کنم بدون هیچ گونه تحلیل خطا. من در نظر داشتم همبستگی بین نتایج مختلف را نسبت به یکدیگر نشان دهم، اما به نظر می‌رسد این استفاده نامناسب از همبستگی است - بدیهی است که نتایج به هم مرتبط هستند، زیرا از بسیاری از متغیرهای مشابه استفاده می‌کنند. یک تشبیه برای وضوح: بگویید من چهار الگوریتم دارم که بر اساس متغیرهای مختلفی مانند گونه درخت، محتوای شیمیایی خاک، عرض جغرافیایی، طول جغرافیایی، میانگین دمای محیط، ارتفاع درخت را پیش‌بینی می‌کند. همه اینها از متغیرهای کمی متفاوت استفاده می کنند و نتایج متفاوتی را تولید می کنند، زیرا بر اساس تحقیقات متفاوتی هستند. بنابراین آزمایشی انجام می‌شود، ویژگی‌هایی که الگوریتم‌ها استفاده می‌کنند اندازه‌گیری می‌شوند و درختان رشد می‌کنند. اینجاست که قیاس من از بین می‌رود، زیرا در مورد من مسئله این است که ارتفاع درخت را نمی‌توان به صورت کمی اندازه‌گیری کرد. بنابراین من نمی‌توانم پیش‌بینی‌های الگوریتم‌ها را با واقعیت مقایسه کنم - می‌توانم بگویم که آیا آنها معقول هستند یا خیر. بر اساس عقل سلیم و ترتیب بزرگی آنها، اما من نمی توانم دقت را محاسبه کنم. آیا روش های کمی وجود دارد که بتوان در این مورد استفاده کرد؟
چگونه می توان دقت الگوریتم های پیش بینی را در زمانی که مقدار پیش بینی شده حاوی خطای اندازه گیری است مقایسه کرد
18197
پروژه ای برای پیاده سازی مدل SIRS به من داده شده است. در حین جستجوی نحوه انجام این کار، این سایت و یک سوال مربوط به مدل اپیدمی را پیدا کردم. این بسیار به پروژه من مرتبط است و بسیار مفید است. با این حال، از آنجایی که من با این موضوع جدید هستم، می توانید در مورد نحوه شروع پیاده سازی مدل SIRS به من کمک کنید. من باید یک شبیه ساز در جاوا پیاده سازی کنم. من هیچ ایده ای در مورد چگونگی شروع پیاده سازی ندارم. اگه کمکم کنید واقعا ممنون میشم.
چگونه مدل SIRS را پیاده سازی کنیم؟
64161
من مشکلی دارم که در آن باید تشخیص دهم که مجموعه خاصی از نقاط داده از کدام موضوع آمده است. به طور خاص، مشکل من این است که باید نشان دهم که آزمودنی‌های من (N=9) می‌توانند از یکدیگر متمایز شوند، با هدف آینده طبقه‌بندی آنها بر اساس IV. هر آزمودنی معیارهای تکراری متغیرهای یکسان را دارد. داده های من را می توان به صورت زیر در نظر گرفت: موضوع جلسه x1 x2 A 1 5 110 A 2 7 115 B 1 15 84 B 2 12 91 . . . . . . . . . . . . I 1 18 106 I 2 15 100 آیا استفاده از LDA یک رویکرد معتبر برای طبقه بندی موضوعات بر اساس متغیرهای اندازه گیری شده است؟ من نگرانم که اینطور نباشد، زیرا هر گروه فقط 1 موضوع دارد (همانطور که به عنوان موضوع تعریف شده است!). من می دانم که اقدامات احتیاطی ویژه باید با طراحی اقدامات مکرر داده ها انجام شود. با این حال، در حال حاضر من بیشتر نگران اعتبار استفاده از LDA برای طبقه بندی موضوعات هستم. با تشکر از شما برای ورودی شما!
تجزیه و تحلیل تشخیص خطی: استفاده از موضوع به عنوان طبقه بندی