_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
47866 | داشتم به این مقاله ویکیپدیا نگاه میکردم و به این فکر میکردم که آیا میتوان بردار «احتمال_شروع» را فقط با «احتمال_انتقال»، «احتمال_انتشار» و دنبالهای از مشاهدات (به عنوان مثال پیادهروی->راه رفتن->خرید) محاسبه کرد؟ | محاسبه احتمالات اولیه زنجیره مارکوف پنهان |
69669 | فرض کنید من یک فرآیند تصادفی $X$ دارم که نشان دهنده تولید چیزی است. من بهبودهایی در خط تولید انجام دادم و امیدوارم در نهایت با یک فرآیند تصادفی متفاوت، $Y$، با میانگین بیشتر از $X$ و واریانس کمتر به پایان برسم. فرض کنید هر فرآیند برای یک زمان اجرا شده است. اگر بخواهم بهبود (I) را با استفاده از نسبت انتظارات آنها کمیت کنم ($I = \frac{\mathrm{E}[Y]}{\mathrm{E}[X]}$)، اطمینان 95٪ چقدر خواهد بود. فاصله من؟ آیا می توانم آنها را به عنوان متغیرهای گاوسی مستقل در نظر بگیرم و واریانس بهبود ($I$) را با فرمول محصول واریانس محاسبه کنم؟ از آنجایی که $X$ و $Y$ تغییراتی از یک خط تولید هستند، نمی دانم که آیا می توان آنها را مستقل در نظر گرفت. همچنین، مطمئن نیستم که بتوان آنها را گاوسی در نظر گرفت یا خیر. | فاصله اطمینان برای انتظار دو فرآیند تصادفی |
33282 | نمونه برداری از راه دور یک تکنیک رایج است که برای تخمین فراوانی گونه های حیات وحش (مانند گوزن یا بوقلمون) استفاده می شود. این تکنیک نمونه برداری مبتنی بر ترانسکت خطی را برای کارکنان انجام می دهد که در آن فاصله عمود بر حیوانات منفرد اندازه گیری می شود. سپس از آن فواصل برای مدل سازی یک تابع تشخیص استفاده می شود. سپس از آن تابع تشخیص برای تصحیح تعداد حیوانات برای تشخیص ناقص استفاده می شود (باکلند و همکاران 2001). نظرسنجی های حیات وحش مبنی بر اینکه نمونه برداری از راه دور کارکنان از فاصله برنامه (توماس و همکاران 2010) برای تخمین فراوانی استفاده کرد. فاصله برنامه منجر به برآورد فراوانی $\hat N$ و ضریب تغییرات $cv(\hat N)$ می شود که در آن $cv(\hat N)$ $se(\hat N)/\hat N$ و $var است. (\hat N)$ $se(\hat N)^2$ است. برای مقایسه فراوانی از دو ناحیه مختلف، میتوان از آزمون z ساده استفاده کرد: $$ Z = \frac{(\hat N_1-\hat N_2)}{\sqrt{(var(\hat N_1-\hat N_2)) }} $$ که $$ var(\hat N_1-\hat N_2) = var(\hat N_1)+var(\hat N_2) $$ $\hat N_1$ و $\hat ارائه شد N_2 دلار به طور مستقل برآورد شد (باکلند و همکاران 2001). پس از انجام یک بررسی آزمایشی، تخمین مقدار تلاش (یعنی طول ترانسکت ها $\hat L$) برای بدست آوردن ضریب تغییر هدف مورد نظر از تلاش های بررسی آینده آسان است. $$ \hat L = \frac{(L_o*cv(\hat N)^2)}{(cv_t(\hat N)^2)} $$ که $L_o$ کل طول خط بررسی شده در طول یک بررسی آزمایشی است ، $cv(\hat N)$ ضریب تغییرات برآورد فراوانی از نظرسنجی آزمایشی است و $cv_t(\hat N)$ ضریب تغییر هدف مورد نظر از تلاشهای بررسی آینده است. (باکلند و همکاران 2001). برای تعیین یک ضریب تغییر هدف، من یک تابع «R» را برای تخمین قدرت آزمون فوق برای تشخیص تفاوت معین بین $\hat N_1$ و $\hat N_2$ ایجاد کرده ام. # تابعی برای تخمین قدرت برای تشخیص تغییر بین دو تخمین فراوانی # با استفاده از آزمون z 2 دنباله. در جایی که N1 و N2 دو فراوانی هستند، تغییر # درصد تغییر یا تفاوت مورد نظر است و CV ضریب تغییرات است. ZPOWER.2tail = تابع (تغییر، N1، CV، آلفا){ N2=N1+(N1*تغییر) SD1=N1*CV SD2=N2*CV VAR=(SD1^2)+(SD2^2) qL=qnorm( آلفا/2) qU=qnorm(1-(آلفا/2)) Z=(N1-N2)/sqrt(VAR) power=(pnorm(qL-Z))+(1-pnorm(qU-Z)) cbind(N1,N2,change,CV,SD1,SD2,VAR,qL,qU,Z,alpha,power)} # مثال استفاده از تابع ZPOWER.2tail (تغییر=-0.2، N1=300، CV=0.15، آلفا=0.05) یک نسخه تک دنباله این خواهد بود: # تابعی برای تخمین قدرت برای تشخیص تغییر بین دو تخمین فراوانی # با استفاده از z 1 دنباله -تست در جایی که N1 و N2 دو فراوانی هستند، تغییر # درصد تغییر یا تفاوت مورد نظر است و CV ضریب تغییرات است. ZPOWER.1tail = تابع (تغییر، N1، CV، آلفا){ N2=N1+(N1*تغییر) SD1=N1*CV SD2=N2*CV VAR=(SD1^2)+(SD2^2) if(تغییر> 0) q=qnorm(alpha) if(change<0) q=qnorm(1-alpha) z=(N1-N2)/sqrt(VAR) if(change>0) power=pnorm(q-z) if(change<0) power=1-pnorm(q-z) cbind(N1,N2,change,CV,SD1, SD2,VAR,q,z,alpha,power)} البته این توابع می توانند به راحتی در یک تابع پس از رفع همه اشکالات ترکیب شوند. پس از نوشتن این کد، کد زیر را در CREEM یافتم. #-------------------------------------------- # قدرت تشخیص با استفاده از آزمون z بین دو نقطه زمانی # تغییر دهید. #-------------------------------------------- سطح #آلفا (نوع خطای من) آلفا<-0.05 #بردار ضرایب var cvs <- seq(0.05,0.5,by=0.05) #بردار تفاوت های واقعی fs <- seq(0,1,by=0.1) lcvs<-length(cvs) lfs<-length(fs) res<-matrix(0,lcvs,lfs) q1<-qnorm(1-(alpha/2)) q2< -qnorm(alpha/2) s2<-sqrt(2) #کار کردن توان در هر سطح از CV و تفاوت واقعی برای (i1 در 1:lcvs) {cv<-cvs[i1] برای (i2 در 1:lfs) { f<-fs[i2] z<-f/(s2*cv) توان = (1-pnorm(q1-z)) + pnorm(q2 - z) res[i1,i2]<-power } } #خروجی به عنوان نمودار پرسپکتیو persp(cvs,fs,res) #-------------------------------------------- میدونم که مدت زیادی است که به اینجا رسیده ام، اما سوال من اینجاست. تفاوت عمده بین کد من و کد CREEM این است: $$ Z=(\hat N_1-\hat N_2)/\sqrt{var(\hat N_1-\hat N_2} $$ در مقابل $$ Z=d/( \sqrt{2}*cv(\hat N)) $$ که در آن $d$ تفاوت واقعی است N)$ در مخرج به جای $\sqrt{var(\hat N_1-\hat N_2)}$، باکلند، اس. مقدمه ای بر نمونه برداری از راه دور: برآورد فراوانی جمعیت های بیولوژیکی دانشگاه آکسفورد Press, New York, USA, Thomas, L., S. T. Buckland, E. A. Rexstad, J. L. Laake, S. Strindberg, S. L. Hedley, J. R. B. Bishop, T. A. Marques, and K. P. Burnham 2010 بررسی های نمونه گیری از راه دور برای تخمین اندازه جمعیت مجله کاربردی اکولوژی 4 | تجزیه و تحلیل توان سفارشی در R |
38107 | یک داور مجله از من خواسته است تا مدل های SVM آموزش دیده نهایی خود را ارائه دهم تا دیگران بتوانند از مدل ها استفاده کنند یا از آنها استفاده کنند. آیا روش پذیرفته شده ای برای این کار وجود دارد؟ من در فکر ارائه یک صفحه گسترده با جزئیات ویژگی های انتخاب شده، بردارهای پشتیبانی، سوگیری هایپرپلان و وزن های برداری او برای هر مدل بودم. من از تابع *SVM_train* Matlab برای این منظور استفاده می کنم. اگر این کار را در گذشته برای مدلهای رگرسیون و متقابل منظم انجام داده باشید، اما برای SVMها بسیار سخت به نظر میرسد. | به اشتراک گذاری یک مدل SVM آموزش دیده |
11309 | من تعجب می کنم که اصطلاح مناسب برای این چیست: Turning this: ________________ | طول | شمارش | | 1 | 5 | | 3 | 2 | | 6 | 12 | |________|_______| در این مورد: ________________ | طول | شمارش | | 1 | 5 | | 2 | 0 | | 3 | 2 | | 4 | 0 | | 5 | 0 | | 6 | 12 | |________|_______| پیشاپیش متشکرم | اضافه کردن صفر به جدول تعداد فراوانی اعداد صحیح متوالی در جایی که عدد صحیح داده شده وجود ندارد را چه می نامید؟ |
18682 | من از دوران جوانی نقل قولی از یک مهندس یا ریاضیدان معروف را در مورد نیاز به بیان مقادیر با تعداد مناسبی از ارقام به یاد دارم، اما در حال حاضر نمی توانم آن را به خاطر بسپارم. چیزی شبیه به > هیچ چیز سریعتر از استفاده از ارقام بیشتر از آنچه مناسب است، نادانی را نشان نمی دهد. با این حال google-fu من را شکست داده است. کسی آنجا از آن مطلع است؟ | به دنبال ارجاع به نقل قول معروف در مورد دقت اعداد |
15711 | > **تکراری احتمالی:** > محاسبه حجم نمونه مورد نیاز، دقت برآورد واریانس؟ من میخواهم معیاری از متغیر بودن یک پدیده خاص ارائه دهم. به نظر می رسد که این پدیده به طور معمول توزیع شده است، بنابراین یک معیار منطقی برای تغییر ممکن است واریانس باشد. من قبلاً دیده ام که مردم واریانس ها را گزارش می کنند، اما همیشه از این که چگونه هیچ حاشیه خطای گزارش نشده است، آزارم می دهد. > **نیمه سوال اول**: چرا من هرگز نمی بینم که مردم حاشیه های خطا > واریانس ها را گزارش کنند؟ یا می توانید مثال هایی از جایی که کسی انجام می دهد به من بدهید؟ یا شاید > معیار دیگری برای تغییرپذیری وجود دارد که باید از آن استفاده کنم؟ اگرچه من هرگز کسی را ندیدهام که معیار اطمینان یک واریانس را گزارش کند، اما احساس میکنم اشتباه است که خطای استاندارد معیار تغییرپذیری را گزارش نکنم. بنابراین فکر کردم که چگونه ممکن است این کار را انجام دهد. قضیه کوکران به ما می گوید که واریانس نمونه از توزیع $X^2$ با درجه آزادی $n-1$ پیروی می کند. واریانس نمونه را $s^2$ صدا بزنید. $\frac{ns^2}{\sigma^2}\sim\chi^2_{n-1}$ واریانس را تخمین بزنید. آن را $\hat\sigma$ بنامید. $s^2\sim\frac{\hat\sigma^2}{n}\chi^2_{n-1}$ > **نیمه سوال دوم**: چگونه می توانم فاصله اطمینان واریانس را بدست بیاورم؟ > آیا من فقط cdf $\frac{\hat\sigma^2}{n}\chi^2_{n-1}$ را در > برخی از محدوده ها محاسبه کنم؟ و از آنجایی که $X^2$ متقارن نیست، آیا راه استانداردی برای > گرفتن فاصله اطمینان دو طرفه وجود دارد؟ اگر مفید باشد، فرمولی برای خطای استاندارد واریانسی که در کدم پیدا کردم ارسال میکنم، اگرچه فکر نمیکنم اصلا مفید باشد. $Var(s^2)=\frac{2\sigma^4}{n-1}$ تقریبی $\sigma$ به عنوان $\hat\sigma$، و ما $\widehat{Var}(s^2) را دریافت می کنیم =\frac{2\hat\sigma^4}{n-1}$ $\widehat{SE}(s^2)=\sqrt{\frac{2\hat\sigma^4}{n-1}}$ | اطمینان از برآورد واریانس |
47286 | بیایید فرض کنیم یک آرایه (یک بعدی) $I$ با عناصر $N$ عدد محدود دارم. من همچنین یک تابع $A$ دارم که هر عنصر $I_n$ (برای $0\leq\ n \lt N$) را به عنصر مربوطه $O_n$ در آرایه $O$ نگاشت می کند. من همچنین تابع دوم $B$ دارم که هر عنصر $I_n$ (برای $0\leq\ n \lt N$) را به عنصر مربوطه $O'_n$ در آرایه $O'$ نگاشت می کند. اگر $O = O'$ (یعنی برای $0\leq\ n \lt N$، برای هر $I_n$ در $I$، $O_n = O'_n$)، می توانم بگویم $A$ و $B$ از نظر عملکردی در دامنه $0\leq\ n \lt N$ معادل هستند. با این حال، اگر حداقل یک عنصر $I_n$ وجود داشته باشد به طوری که $O_n \ne O'_n$، آنگاه می دانم که $A$ و $B$ از نظر عملکردی معادل نیستند. فرض کنید من عناصر $m$ را در $O'$ می شناسم و همه عناصر $N$ را در $O$ می شناسم. برای عناصری که من می شناسم، اگر حتی یک عنصر $O'_n \ne O_n$ باشد، می توانم با قطعیت بگویم که $A$ و $B$ از نظر عملکردی معادل نیستند. با این حال، با توجه به اینکه برای همه $m$ تعداد عناصر شناخته شده در $O'$، $O'_n = O_n$، آیا از نظر ریاضی امکان تعیین احتمال $P$ ($0 \leq\ P \leq 1$) وجود دارد که $A$ از نظر عملکردی معادل $B$ است؟ برای مثال، اگر $N = 500$ و $m = 500$، و برای هر $I_n$، $O_n = O'_n$، آنگاه می توانم با قطعیت $P = 1$ بگویم که $A$ و $B $ از نظر عملکردی در سراسر آن دامنه معادل هستند. با این حال، آیا می توانم $P$ را تعیین کنم اگر $m = 400$، یا اگر $m = 300$؟ به طور مستقیم $P$ باید برای $m = 400$ بیشتر از $m = 300$ باشد، اما آیا می توانم این تفاوت را کمیت کنم؟ اساساً مشکل من این است که من دو جعبه سیاه $A$ و $B$ دارم، من همه خروجی های $A$ را می دانم اما همه خروجی های $B$ را نمی دانم، و $B$ از نظر محاسباتی برای استفاده بسیار گران است. . در نتیجه، من نمیخواهم هر ورودی را با $B$ آزمایش کنم، و مایلم با آزمایش فقط زیرمجموعهای از ورودیها، برخی از احتمالات خطا را بپذیرم - اما آیا میتوانم این احتمال خطا را کمیت کنم؟ | تعیین احتمال اینکه دو تابع خروجی های یکسانی تولید کنند، در صورتی که همه خروجی های یک تابع مشخص نباشند. |
40482 | گردش کار تجزیه و تحلیل دادههای من از طریق R و «ggplot2» است، تا حدی به این دلیل که «ggplot2» من را از ایجاد توطئههای «بد» (گمراهکننده و غیره) منصرف میکند. با این حال، گاهی اوقات میخواهم نمودارهایی بسازم که چندین متغیر وابسته را بر خلاف یک متغیر مستقل مشترک مقایسه میکنند، مانند زیر: . این معمولاً با افزودن چندین محور انجام می شود. «ggplot» نمیتواند چندین محور اضافه کند. میدانم که راههای مختلفی برای حل این مشکل دارم: میتوانم برای این نوع طرح از ggplot خارج شوم، یا احتمالاً میتوانم چیزی را در ggplot هک کنم. سوال من این است که چگونه با این موضوع برخورد کنم. روش «ggplot» برای مقابله با این موضوع، از طریق فیت کردن است، اما اغلب من میخواهم با متغیرهای دیگر جنبهبندی کنم. (به عنوان مثال، با مثال تصویری، ممکن است داده ها را در چندین مکان و ارتفاع جمع آوری کرده باشم). آیا Grammar of Graphics فقط یک پارادایم بد برای این نوع مجموعه داده است یا گزینه ای برای ارائه وجود دارد که به خوبی کار کند؟ | چگونه می توان متغیرهای وابسته را با واحدهای مختلف با استفاده از پارادایم Grammar of Graphics مقایسه کرد؟ |
38102 | فرض کنید من 20 موش دارم. من موش ها را به نوعی جفت می کنم، به طوری که 10 جفت می شود. برای هدف این سوال، این می تواند یک جفت تصادفی باشد، یا می تواند یک جفت معقول باشد، مانند تلاش برای جفت کردن موش هایی از یک بستر، از همان جنس، با وزن مشابه، یا می تواند یک جفت عمدی احمقانه باشد. تلاش برای جفت کردن موشها با وزنهایی که ممکن است نابرابر باشند. سپس از اعداد تصادفی برای اختصاص دادن یک موش در هر جفت به گروه کنترل و ماوس دیگر به گروه مورد درمان استفاده می کنم. من اکنون آزمایش را انجام میدهم و فقط موشهایی را که باید تحت درمان قرار گیرند، درمان میکنم، اما در غیر این صورت هیچ توجهی به ترتیبات انجام شده ندارم. وقتی کسی به تجزیه و تحلیل نتایج میآید، میتواند از آزمون t غیر زوجی یا آزمون t زوجی استفاده کند. در صورت وجود پاسخ ها از چه لحاظ متفاوت خواهد بود؟ (من اساساً به تفاوت های سیستماتیک هر پارامتر آماری که نیاز به تخمین دارد علاقه مند هستم.) دلیلی که می پرسم این است که مقاله ای که اخیراً با آن درگیر بودم توسط یک زیست شناس به دلیل استفاده از آزمون t زوجی به جای غیر زوجی مورد انتقاد قرار گرفت. آزمون t البته، در آزمایش واقعی، وضعیت به اندازه موقعیتی که من ترسیم کردم شدید نبود و به نظر من دلایل خوبی برای جفت شدن وجود داشت. اما زیست شناس موافق نبود. به نظر من در شرایطی که ترسیم کردم با استفاده از آزمون t زوجی، به جای آزمون جفت نشده، نمی توان اهمیت آماری را به اشتباه بهبود بخشید (کاهش مقدار p). با این حال، اگر موش ها بد جفت شوند، می تواند اهمیت آماری را بدتر کند. آیا این درست است؟ | آزمون t زوجی در مقابل غیرجفتی |
38104 | من اولین دوره آمار را می گذرانم. مجموعه داده ای با تعداد شرکت هایی که در دسته های مختلف درآمد قرار می گیرند (به هزاران یورو) به من داده شده است: <1 64108 1-39 73121 40-99 67532 100-399 68613 400-1999 33760 2000-9999-2000-9999 2493 40000-199999 779 200000-infinity 235 حالا از من خواسته شد که چارک پایین را بشمارم و اگر شرکتی متعلق به دو دهک بالاتر باشد چقدر باید درآمد داشته باشد. آیا منطقی است که درآمد آن 235 شرکت را 200000 هزار یورو فرض کنیم؟ و آیا 39 به معنای 39000 یورو است بنابراین اگر یکی از آن 73121 شرکت 39600 درآمد داشته باشد، در واقع به محدوده 40-99 تعلق دارد؟ با فرض توزیع یکنواخت دادهها، میتوانم دادهها را طوری تغییر دهم که بدانم چند شرکت به هر کلاس تعلق دارند، اما آیا این یک راه استاندارد برای انجام چنین مشکلاتی است؟ | نحوه درک داده های درآمد شرکت |
47284 | من یک سوال آماری در math.SE پرسیده ام که اکنون فکر می کنم باید اینجا باشد. با این حال، اینجا آن را تکرار می کنم. به عنوان یک تازه وارد، ممنون می شوم اگر بتوانید من را برای هر گونه اشتباه یا تکرار همان سؤال (بدون پاسخ) معذرت خواهی کنید، زیرا من واقعاً می خواستم هر چه زودتر آن را بفهمم! مشکل اینجاست: فرض کنید، یک مدل رگرسیون خطی چندگانه به شرح زیر ایجاد کردهایم: $$y=a_0+a_1x_1+a_2x_2+⋯+a_nx_n+e=\hat y+e$$ $$z=\frac y {\hat y}=1+\frac e {\hat y}$$ اکنون، آیا میتوان از نظر ریاضی نشان داد که همبستگی بین $z$ و اگر تمام مفروضات مدل رگرسیون برآورده شوند، x_1، x_2، ...x_n$ نزدیک به $0 خواهند بود؟ از نظر تجربی رابطه (هم پیرسون و هم اسپیرمن) صفر است (0.01 دلار یا نزدیک)، با این حال، من می خواهم آن را به صورت ریاضی نشان دهم. با استفاده از روش دلتا، میتوانیم آن را محاسبه کنیم، $E(1+\frac e {\hat y})=1$ و $Var(1+\frac e {\hat y})=(\frac {σ_e} {\ نوار y})^2$. میتوانیم با پیدا کردن $COV(x_1,z)$ امتحان کنیم. زیرا، معادله همبستگی پیرسون برای $ x,y$ است، $\rho_{xy}=\frac {COV(x,y)} {\sigma_x \sigma_y}$ و $COV(x,y)=E((x -\bar x)(y-\bar y))=E(x,y)-\bar x\bar y$. من اهل پیشینه آماری نیستم، بنابراین احتمال سوء تعبیر بیشتر است. من می دانم که اگر این متغیرها مستقل باشند $COV(x_1,z)$ صفر خواهد بود. اما از مدل رگرسیونی هستند و مستقل نیستند! هر گونه پیشنهاد یا راهنمایی؟ | اشتقاق آماری همبستگی پیرسون دو متغیر به دست آمده از مدل رگرسیون |
14567 | من سعی می کنم ضرایب روی آدمک های سال را در یک رگرسیون پروبیت مرتب تفسیر کنم. داده های من یک پنل با 20 سال است. من آدمک های 19 ساله را به استثنای سال اول اضافه کردم. این به من امکان می دهد ضرایب هر ساختگی را در رابطه با سالی که حذف شده است تفسیر کنم. اکنون باید متغیری را وارد کنم که در هر سال مقدار یکسانی در پانل دارد. وقتی oprobit خود را روی stata اجرا میکنم، بهطور خودکار یکی از dummies سال را به دلیل همخطی بودن حذف میکند. چگونه می توانم ضرایب باقیمانده روی آدمک های سال را تفسیر کنم؟ به عنوان یک یادداشت اضافی، تمرکز مطالعه بر روند ضرایب ساختگی های زمانی است. پس اگر دوساله ساقط شد آیا میتوان باقیماندهها را نسبت به آنهایی که انداخته است تفسیر کرد و اگر چنین است، تعبیر چیست؟ | ساختگی های زمان در رگرسیون پروبیت مرتب |
33829 | می خواهیم از SPSS برای مقایسه دو گروه استفاده کنیم (آزمون t-test 2 نمونه مستقل). گروه اول شامل داده های واقعی است، گروه دیگر تخیلی است. این گروه داستانی باید به اندازه گروه واقعی (اول) موضوع داشته باشد. اما میانگین روی 0 و انحراف معیار روی 1 (توزیع نرمال استاندارد) تنظیم شده است. ابزارهای مختلفی برای مقایسه دو گروه با اضافه کردن تعداد آزمودنی ها، میانگین و std برای هر گروه به طور مستقل وجود دارد. اما چگونه می توانیم این کار را در SPSS انجام دهیم؟ من فقط می دانم چگونه یک متغیر (گروه 1) را در برابر یک مقدار تست (T=0) آزمایش کنم. * * * _EDIT:_ در اینجا توضیح دقیق تری از این که چرا می خواستم از این آزمون t دو نمونه ای استفاده کنم، توضیح داده می شود، اگرچه این نوع رویکرد در ابتدا برای من عجیب به نظر می رسید. موضوع این است که ما 20 بیمار را بررسی کردیم و داده های آنها را با یک پایگاه داده بزرگ از افراد سالم مقایسه کردیم. این بدان معناست که ما یک تبدیل z را با استفاده از پایگاه داده مرجع انجام دادیم (روش استاندارد در این زمینه (آزمایش حسی کمی، QST)). گروههای تحقیقاتی دیگری وجود دارند که پیشنهاد میکنند از آزمون t 2 نمونهای که در زیر ذکر کردم استفاده کنید، زیرا مقایسه دادههای 20 بیمار با دادههای 1200 کنترل نامناسب است. بنابراین آنها یک گروه خیالی با M = 0 و SD = 1 اختراع کردند و داده های واقعی را در برابر این داده های خیالی (در وب سایتی مانند این \--> اما Two-Sample T-Test) آزمایش کردند. این رویکرد محافظه کارانه تر از استفاده از آزمون t تک نمونه ای با مقدار آزمون = 0 خواهد بود. صادقانه بگویم، من نمی دانم که آیا این رویکرد درست است یا خیر. اولین ایده من این بود که یک آزمون t تک نمونه ای انجام دهم و گروه بیمار (یعنی مقادیر z آنها) را در برابر مقدار 0 آزمایش کنم تا ببینم آیا به جای استفاده از یک مجموعه داده خیالی، مقادیر z به طور قابل توجهی با 0 تفاوت دارند یا خیر. | SPSS: 2 نمونه t-test: داده های واقعی در مقابل گروه داستانی با M=0 و SD=1؟ |
18028 | هنگام تخمین اندازه اثر برای تعیین حجم نمونه بهینه برای یک آزمون آماری، به نظر می رسد رویکرد کتاب درسی این کار را از مطالعات آزمایشی یا موارد مشابه انجام می دهد. آیا این نیز قانونی است که اندازه اثر را به عنوان کوچکترین اثر مرتبط، مستقل از اثرات واقعی و سیستماتیک که برای جالب بودن آنقدر ضعیف هستند، تعریف کنیم؟ به عنوان مثال، اگر بخواهم بهبودی را در برخی از محصولات موجود آزمایش کنم که هزینه تولید آن را مقداری افزایش می دهد. من می دانم که اگر محصول حداقل x% بهتر (بر اساس برخی معیارها) از راه حل موجود باشد، مشتریان این حق بیمه را پرداخت خواهند کرد. آیا می توانم از اندازه اثر و اندازه نمونه حاصل به عنوان ابزاری برای سرکوب نتایج قابل توجه برای تفاوت های کوچکتر استفاده کنم؟ اگر نه، مشکل چیست و راه حل صحیح چگونه به نظر می رسد؟ | اندازه اثر مورد نظر در برابر اندازه اثر مورد انتظار |
40487 | من سعی می کنم با یک مقدمه ساده از فیلتر کالمن کار کنم اما به دیوار آجری برخورد می کنم. من می خواهم موقعیت و سرعت یک هدف را ردیابی کنم، اما فقط موقعیت را اندازه گیری کنم (به طور پر سر و صدا). درک من این است که این کاربرد کلاسیک KF است، اما نمی توانم جزئیات را بررسی کنم. من از نماد ولش و بیشاپ استفاده می کنم. توجه داشته باشید که نتایج زیر با استفاده از یک پیادهسازی ساده که من خودم نوشتم ایجاد میشود، بنابراین ممکن است خطاها اجرای باگ یا استفاده نادرست (یا هر دو!؟) باشد. این پست کمی طولانی است اما من میخواستم تمام مراحلی را که انجام دادهام نشان دهم تا دقیقاً کجا اشتباه میکنم مشخص شود. اینجا کاری است که من انجام می دهم. معادله به روز رسانی حالت $$ x_k = A x_{k-1} $$ دارای $$ A = \left( \begin{array}{cc} 1 & t \\\ 0 & 1 \\\ \end{array} \راست)$$ که در آن $t$ طول گام زمانی است. ماتریس کوواریانس نویز، Q، با $$ Q = \left( \begin{array}{cc} t^4/4 & t^3/2 \\\ t^3/2 & t \end{آرایه داده میشود. } \right) \sigma_a^2$$ که از فرض اعمال یک شتاب ثابت تصادفی در مرحله رانش حاصل میشود. مدل اندازهگیری $$ z = Hx $$ با $$ H = \left( \begin{array}{cc} 1 & 0 \end{array} \right) $$ مشخص میشود. هر وقت سعی می کنم این را اجرا کنم، در نهایت با یک ماتریس کوواریانس حالت، $P_k$ مواجه می شوم، که متقارن نیست!؟ در اینجا تعدادی از اعداد شرکت برای مثال آورده شده است. اگر مقدار اولیه را به $$ x = \left( \begin{array}{c} 0 \\\ 0 \end{array} \right) $$ $$ P = \left( \begin{array}{cc} 100 & 0 \\\ 0 & 100 \end{array} \right) $$ یعنی هدف ثابت در مبدا، اما با عدم قطعیت زیاد در مورد موقعیت و سرعت. طول مرحله $t=1$ و $\sigma_a^2=1$ را فرض کنید به طوری که $$ Q = \left( \begin{array}{cc} 0.25 & 0.5 \\\ 0.5 & 1 \end{array} \right ) $$ فرض کنید بعد از اولین گام زمانی به $z=1$ با خطای $\sigma_z^2 = 1$ اندازه گیری می کنیم تا اندازه گیری ماتریس کوواریانس به سادگی $$ R = (1) $$ است با انجام مراحل، پیشبینی حالت $$ x_k = A x_{k-1} $$ $$ x_k = \left( \begin{array}{c} 0 \\\ 0 \end{array} \right) $$ و پیشبینی کوواریانس حالت $$ P_k = \left( \begin{array}{cc} است. 200.25 & 100.5 \\\ 100.5 & 101 \end{array} \right) $$ سود کالمن، K، با $$ K_k = P_k H^T (H P_k H^T + R)^{-1} داده می شود. $$ که من برای این مثال به صورت $$ K_k = \left( \begin{array}{c} 0.990099 \\\ محاسبه کردم 0 \end{آرایه} \right) $$ این منجر به برآورد وضعیت اصلاح شده $$ \hat{x}_k = x_k + K_k(z_k - Hx_k) $$ $$ \hat{x}_k = \left( \begin{array}{c} 0.990099 \\\ 0 \end{array} \right) $$ منطقی است، ما تقریباً به طور کامل اندازهگیری را از زمان شروع باور داریم با درجه بالایی از جهل خوب، تا اینجا خیلی خوب است. اما اینجا جایی است که به شکل گلابی می رود. کوواریانس حالت اصلاح شده $$ \hat{P}_k = (I - K_kH)P_k $$ $$ \hat{P}_k = (I - \left( \begin{array}{cc} 0.990099 & 0 \\\ 0 و 0 \end{array} \right) ) P_k$$ $$ \hat{P}_k = \left( \begin{array}{cc} 0.00990099 & 0 \\\ 0 & 1 \end{array} \right)\left( \begin{array}{cc} 200.25 & 100.5 \\\ 100.5 & 101 \end{array} \right) $$$$ \ hat{P}_k = \left( \begin{array}{cc} 1.982673 & 0.9950495 \\\ 100.5 & 101 \end{array} \right) $$ که متقارن نیست و بنابراین یک ماتریس کوواریانس معتبر نیست. من اینجا چه غلطی می کنم؟ | به روز رسانی فیلتر کالمن یک ماتریس کوواریانس نامعتبر را برمی گرداند؟ |
103308 | می توان با یک محاسبه ساده ثابت کرد که واریانس نمونه دو نمونه ترکیب شده $\sigma^2=\frac{N_1-1}{N-1}\sigma_1^2+\frac{N_1}{N-1} است. \mu_1^2+ \frac{N_2-1}{N-1}\sigma_2^2+\frac{N_2}{N-1}\mu_2^2- \frac{N}{N-1}{\mu^2},$ where $N=N_1+N_2.$ باید یک مرجع به این فرمول در مقاله خود اضافه کنم و در یافتن آن در یک کتاب منتشر شده مشکل دارم. کسی مرجع خوبی بهش میدونه؟ | ارجاع به فرمول واریانس نمونه نمونه های ترکیبی |
38101 | از ویکی پدیا > روش شبه مونت کارلو روشی برای ادغام عددی و حل > برخی مسائل دیگر با استفاده از دنباله های کم اختلاف (همچنین دنباله های شبه تصادفی یا دنباله های فرعی تصادفی نامیده می شود) است. به نظر من توالی های اختلاف کم اگر به عنوان نمونه های تصادفی دیده شوند، نمونه هایی از توزیع های یکنواخت هستند و نه توزیع های غیر یکنواخت. درست میگم یا نه؟ با تشکر | آیا مولدهای اعداد شبه تصادفی فقط از توزیع یکنواخت نمونه برداری می کنند؟ |
72825 | من 2 متغیر تصادفی توزیع شده گاما $(X,Y)$ با مقیاس و پارامترهای شکل دلخواه دارم. علاوه بر این، $Y$ باید یک تابع غیر خطی از $X$ باشد، فرض کنید $Y=\sqrt{X}$. چیزی که من به آن علاقه دارم احتمال مشترک $F_{X,Y}(\cdot)$ است. از همه پیشنهادات یا نظرات کلی استقبال می شود. پیشاپیش از شما متشکرم | آیا یک توزیع دو متغیره از دو متغیر تصادفی توزیع شده با گاما با وابستگی غیرخطی ایجاد می کنید؟ |
40483 | x <-model.matrix (d) [، -1] e <-eigen (t (x) ٪*٪ x) e مقادیر [1] 1174600.548 21261.741 16133.842 6206.181 1856.894 first $ $ \ alpha_1 = 1174600.548 $ است بردار ویژه متعامد به $\lambda~ 1=$. چگونه این مقادیر زیر را تفسیر کنم؟ بردارها [,1] [,2] [,3] [,4] [,5] [1,] -0.05483536 0.01923863 -0.16111563 -0.19334497 0.96606544 [2،] -0.301111946 -0.24543862 0.15349803 -0.04537559 [3،] -0.59738921 -0.06197220 0.05081398 -0.77741824 -0.17978986 -0.17978986 -0.17978986 - 0.17978986 [4،17978986 - -0.06415612 0.57195569 0.06916759 [5،] -0.10443454 0.21655517 0.95241985 0.08685415 0.16598214 و سپس من شرایط را دنبال کردم sqrt(e\$val[1]/e\$val) [1] 1.000000 7.432684 8.532498 13.757290 25.150782 که K<30 بنابراین چند خطی وجود ندارد. آیا چیز دیگری وجود دارد که من باید با این مقادیر رعایت کنم؟ | تعیین مقادیر ویژه و بردارهای ویژه در R |
30732 | من مجموعه ای از توزیع های جمعیتی دارم. من آنها را به صورت تجربی، با محاسبه هیستوگرام از جمعیت های بسیار بزرگ (حدود 1 میلیون در هر توزیع) به دست آوردم. توزیع جمعیت ممکن است شکل یکسانی نداشته باشد. جمعیت ها همگی پیوسته یا همگی گسسته هستند. من می خواهم آزمایش کنم که آیا توزیع ها مطابق با یک ترتیب خاص قرار دارند یا خیر. بهطور رسمیتر، اجازه دهید $D_i،\ldots،D_k$ جمعیتهای ما باشند که بر اساس یک معیار مشخص مرتب شدهاند. میخواهیم آزمایش کنیم که آیا توزیعهای آنها (تابع چگالی احتمال) $f_i، \ldots، f_k$ مطابق ترتیب قرار دارند یا خیر. من به طور موقت مشکل را به عنوان آزمایش اینکه $f_i$ به سمت چپ $f_j$ منتقل شده است، فرموله کردم، برای هر جفت جمعیت $(D_i,D_j)$ با $i <j$، تا کنون، من یک جمع رتبه بندی Wilcoxon انجام داده ام. تست برای هر جفت جمعیت؛ با استفاده از نسخه برای نمونه های بزرگ و تصحیح پیوندها، آزمایش را بر روی توزیع جمعیت انجام دادم. با این حال، توزیع های من شکل یکسانی ندارند. من تعجب می کنم آب و هوا راه بهتری برای بررسی سفارشات توزیع ها وجود دارد. با تشکر | چگونه می توان آزمایش کرد که مجموعه ای از توزیع ها در یک ترتیب معین قرار دارند؟ |
103309 | من در حال خواندن وبلاگی در مورد نمونه برداری تامپسون هستم و در درک برخی مفاهیم آماری با مشکل مواجه هستم. فکر میکنم وقتی نویسنده میگوید $$ p(\mu_a \mid \mbox{data}_a) = \mbox{بتا}(S_{a,t}+1, F_{a,t}+1) = \ درک میکنم frac{S_{a,t}!F_{a,t}!}{S_{a,t} + F_{a,t} + 1} . $$ اما در بخش متغیرهای پیوسته و تقریب عادی نویسنده $$ p(\mu_a \mid \mbox{data}_a) = \mbox{N}(\mu_{a, t}, \sigma_{ a,t}^2/N_{a,t}). $$ آیا این تابع N نماد یک توزیع عادی نیست؟ در این مورد چگونه می توان احتمال متمایز از توزیع عادی، مانند تابع بتا، بدست آورد؟ | بدست آوردن احتمال از توزیع نرمال |
11300 | من یک مدل نیمه پارامتریک خاص دارم که از طریق MCMC برازش می کنم. یکی از پارامترهای مدلی که من «نیمه پارامتریک» کردهام (مثلا $\alpha$) بین دو پارامتر دیگر، $\theta_1$ و $\theta_2$ قرار دارد. از آنجایی که من یک سری نمونه $(\theta_1^t, \theta_2^t)$ دارم، همچنین یک سری تخمین فاصله برای $\alpha$ دارم. راه معقولی برای خلاصه کردن اینها چیست؟ من می توانم به انجام کاری مانند کنار گذاشتن یک شبکه و فقط ضبط برای هر نقطه شبکه فکر کنم که آیا هر نمونه آن را پوشش می دهد یا نه. اما من نگران کارایی هستم زیرا درک خوبی از محدوده قابل قبول ندارم و در واقع صدها تا هزاران $\alpha$ دارم. (من همچنین از retag ها استقبال می کنم، زیرا به نظر نمی رسد چیزی را که دوست داشته باشم پیدا کنم ...) | خلاصه کردن نمونه های یک بازه |
72824 | من یک مدل خطی تعمیم یافته (glm) نصب می کنم. متغیر توضیحی در سه سطح (کنترل، درمان 1، درمان 2) طبقه بندی شده است. متغیر پاسخ 0 یا 1 است. نرخ پاسخ برای هر سطح درمان مانند شکل زیر ترسیم شده است (از چپ به راست: control, treat1, treat2):  به نظر می رسد یک اثر درمانی بزرگ بین درمان 1 در مقابل کنترل و درمان 2 در مقابل کنترل وجود دارد. من glm را اعمال کردم: «مناسب <- glm(پاسخ ~ درمان، خانواده = دوجمله ای، داده = داده)» ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -21.57 6536.57 -0.003 0.997 treat1 23.76 6536.57 0.004 0.997 treat2 43.13 9364.95 0.005 0.005 z1 در مقایسه با آزمون 0.9 معنی دار نیست. کنترل سطح مرجع با این حال، تجزیه و تحلیل انحراف تأیید کرد که فاکتور درمان به طور کلی بسیار مهم است: پاسخ drop1 (M2، تست = Chisq) ~ درمان Df Deviance AIC LRT Pr(>Chi) <هیچ> 13.003 19.003 درمان 2 77.936 79.936 64.93 7.946e-15 *** چگونه چنین عجیب را تفسیر کنم نتیجه؟ چرا آزمون z فردی هیچ نتیجه قابل توجهی به من نمی دهد، در حالی که طبق نمودار مشخصاً بین درمان 1 و کنترل و بین درمان 2 و کنترل تأثیر وجود دارد؟ | یک متغیر طبقهبندی شده در glm از تحلیل انحراف معنیدار است، اما هر سطح در آزمون z معنیدار نیست. |
76655 | من قبلاً از تحلیل عاملی برای پرسشنامه ها و مواردی از این دست استفاده کرده ام، اما اکنون یک سؤال تحقیقاتی جدید دارم و به نظر نمی رسد مشابه آن انجام شده باشد. من از شرکت کنندگان خواسته ام که 8 مقاله خبری را در مورد معیارهای مختلف ارزیابی کنند. با این حال، هر معیار توسط خود شرکتکننده بر اساس تفاوتهای معنیداری که بین مقالات مشاهده میکنند ارائه میشود. این یک شبکه فهرستی است که در آن عناصر (ستونها، متغیرها) مقالههای متفاوتی هستند و هر شرکتکننده تعدادی ساختار (ردیفها، موارد) را ارائه میکند که آنها را مهم میدانند (مانند عینیت، متقاعدسازی، دسترسی و غیره). هر مقاله بر اساس هر ساختاری که شرکتکننده ارائه میکند رتبهبندی میشود، بنابراین دادههای من چیزی شبیه به این میشوند: موضوع ساختار Art1 Art2 Art3 1 عینی 5 3 8 1 متقاعدسازی 3 8 7 1 دسترسی 7 6 3 2 رسمی 3 4 6 2 واقعیت 8 2 6 2 استفاده از منابع 7 6 9 (و غیره، با 8 مقاله و حدود 8 ساختارهای هر موضوع) هدف من یافتن متغیرهای پنهانی است که واریانس بین سازه های مختلف ارائه شده توسط شرکت کنندگان من را به بهترین شکل توصیف می کند. تا به حال، این تصور را داشتم که تحلیل عاملی برای این کار مناسب است. با 8 مقاله و ~ 160 مورد، من باید چند فاکتور و بارگذاری آنها در هر مقاله و همچنین امتیازهای عامل از هر ساختاری را که می توانم برای تفسیر استفاده کنم، دریافت کنم. اما آیا این دیوانه است؟ من می دانم که این دقیقاً همان چیزی نیست که روش برای آن طراحی شده است، اما من از هیچ دلیل نظری برای احتیاط در اینجا آگاه نیستم. تحلیلهای اولیه من باعث میشود که اجتماعات کم و عدم موفقیت در همگرایی ایجاد شود، بنابراین من شروع به شک دارم که ممکن است از روش اشتباه استفاده کنم (یا دادههای کافی ندارم، اما بیشتر معیارهای رایج استفاده شده، من را واضح نشان میدهند) آیا باید از چیز دیگری مانند تحلیل خوشه ای یا مدل های IRT استفاده کنم؟ | آیا تحلیل عاملی برای داده های شبکه فهرستی مناسب است؟ |
46375 | من یک مرکز واحد در هر کلاس با استفاده از PROC fastclus در SAS، proc fastclus data=sample.samples_train mean=knn.clusters maxc=1 *تعداد خوشه* maxiter=100 کامپیوتر دارم. var &predictors; بر اساس کلاس؛ اجرا؛ من سعی می کنم یک مجموعه آزمایشی را بر اساس نزدیکترین یک از این مرکزهای ایجاد شده طبقه بندی کنم. این کار را با استفاده از PROC discrim در SAS نیز انجام می دهم. proc discrim data=knn.clusters test=sample.samples_test method=NPAR k=1 metric=identity noclassify; کلاس کلاس؛ var &predictors; خروجی ods ErrorTestClass=knn.error; اجرا؛ من از اندازه گیری فاصله اقلیدسی با گزینه metric=identity استفاده می کنم. خطای زیر برگردانده شده است. خطا: مشاهدات کافی برای ارزیابی ماتریس کوواریانس تلفیقی در DATA= مجموعه داده یا گروه BY وجود ندارد. اگر تعداد خوشهها را در fastproc برابر با 2 تنظیم کنم، کار میکند. اما چگونه میتوانم یک 1NN را با تک مرکز در هر کلاس در SAS ایجاد کنم؟ | چگونه 1NN را با تک سانتروئید در هر کلاس در SAS تشکیل دهیم؟ |
87504 | من میخواهم توزیع نسبت شانس $r := \frac{p_1/(1-p_1)}{p_0/(1-p_0)}$ را با بتای قبلی استخراج کنم، بهویژه، $p_0، p_1 \in [0 ,1]$, $p_0 \sim beta (39.5, 635.5), p_1 \sim beta (22.5, 658.5) دلار. من نمی دانم چگونه می توان از شکل چگالی تحلیلی آن به جز تغییر متغیر تصادفی استخراج کرد، اما تغییر متغیر تصادفی از $(p_0, p_1)$ به $(r, p_1)$ من را به یک راه حل نمی رساند زیرا از پیچیدگی ادغام توزیع مشترک $(r, p_1)$ برای بدست آوردن توزیع حاشیه ای $r$. بنابراین من آن را با R شبیه سازی می کنم: n=1000 r <- rep(0, n) p0 <- rbeta(n, 39.5, 635.5) p1 <- rbeta(n, 22.5, 658.5) r = (p1/(1-p1 )) / (p0/(1-p0)) hist(r، plot=TRUE) آیا امکان استخراج تحلیلی وجود دارد شکل تراکم $r$ چه نوع توزیعی است؟ با تشکر | توزیع نسبت شانس تحت بتا قبل |
38105 | امیدوارم مایکل چرنیک این سوال را بخواند. من تست دیکسون را روی 100 هزار ردیف اعمال کردم. ردیف ها مانند- 1 1.819691 2.565696 3.317881 1.491987 2.817675 2.676356 3.522531 3.226779 2 1.721111 1.51718381.51713. 1.646506 1.770875 1.899359 1.628460 3 1.663491 1.723110 1.440528 1.736983 1.472949 1.597087 1.597070 1.511 ارزش ها این 3 ردیف را در نظر بگیرید. تست دیکسون رو اول ردیف اول و بعد ردیف دوم و بعد تا سوم انجام دادم. بنابراین من 3 مقدار دریافت کردم. تا الان همه چیز خوبه اما دیروز یکی از من پرسید، آیا داده های شما به طور معمول توزیع شده است؟ (چون آزمون دیکسون فرض می کند که داده ها به طور معمول توزیع می شوند، لطفاً اگر اشتباه می کنم، من را اصلاح کنید). اکنون می خواهم ثابت کنم که داده های من به طور معمول توزیع شده است. **سوال-** آیا باید توزیع نرمال را برای هر ردیف بررسی کنم؟ اگر بله، به این معنی است که باید توزیع عادی 100 هزار ردیف را بررسی کنم و سپس اگر فقط 90 هزار ردیف به طور معمول توزیع شده است، آیا باید 10 هزار ردیف باقی مانده را حذف کنم؟ **راه حل احتمالی-** بنابراین، امروز shapiro.test را روی همه ردیف ها اعمال کردم و 100k pvalue گرفتم. من 90k سطر با pvalue بیشتر از 0.01 دریافت کردم (عدم رد فرضیه صفر یعنی رد نکردن آن سطر به طور معمول توزیع شده است) اما من 10k ردیف با pvalue کمتر از 0.01 دریافت کردم. آیا باید این ردیف ها را حذف کنم؟ | تست دیکسون و توزیع نرمال |
103302 | بنابراین من یک مدل gls با استفاده از بسته nlme دارم. دارای ساختار همبستگی CAR1 است. آیا درست است که توزیع شرطی خطاهای آن به صورت زیر باشد: $$ \varepsilon_i | \varepsilon_j \sim N(\phi^d\varepsilon_j,\sigma^2(1-{\phi^d}^2)) $$، که در آن d فاصله بین متغیرهای کمکی است که همبستگی بر اساس آن است. | توزیع شرطی خطاهای مرتبط سریال |
89689 | فرض کنید یک مدل خطی $Y=\beta_0 + \beta_1 X + u$ داریم که $u$ یک عبارت خطا است و $X$ برخی از مشخصه های $Y$ را می شمارد. به عنوان مثال، فرض کنید که $Y$ چقدر سرگرم کننده است یک گودال توپ در مک دونالد، و $X$ تعداد توپ های موجود در گودال توپ است. منطقی به نظر می رسد که $\beta_1$ باید مثبت باشد. اما حالا فرض کنید که می توانم توپ ها را به دو نوع دسته بندی کنم: جذب کننده خاک و دفع کننده خاک. یعنی $X=X_A + X_R$ که در آن $X_A$ جذب کننده و $X_R$ دفع کننده است. اکنون، من گمان میکنم که تأثیر افزایش X$ زمانی بیشتر باشد که آن را با افزایش X_R$ به جای افزایش X_A$ انجام دهیم. فرضیه صفر این خواهد بود که فرقی نمیکند کدام نوع افزایش یافته باشد - در هر صورت ما X$ را 1 و در نتیجه $Y$ را با $\beta_1$ افزایش میدهیم. بنابراین میتوانم $Y=\beta_0 + \beta_1 X_R + \beta_2X_A + \epsilon$ را امتحان کنم. ، به طوری که وقتی تعداد توپ ها را با اضافه کردن یک دفع کننده خاک افزایش می دهیم، Y$ دلار را با مقدار متفاوتی نسبت به زمانی که آن را توسط یک جاذب خاک افزایش می دهیم افزایش می دهیم. اجازه دهید $\tilde{X}=X_R/X$. سپس این به صورت $Y=\beta_0 + \beta_1 X + \beta_2 \tilde{X} + \beta_3X\tilde{X} + \epsilon$ نوشته میشود که میتوانیم آن را به صورت $Y=\beta_0 + \beta_1 X + بازنویسی کنیم. \beta_2 \tilde{X} + \beta_3 X_R + \epsilon$ آیا هر یک از این رویکردها منطقیتر از دیگری است؟ آیا رویکرد بهتری برای استفاده به طور کلی برای آزمایش این فرضیه وجود دارد؟ | رگرسیون خطی که در آن متغیرهای مستقل نسبت کل و کل هستند |
5749 | اگر میخواهید y را روی x رگرسیون کنید، جایی که در هر x چندین y مشاهده میشود، آیا بهتر است به جای آن، میانگین را در هر x بگیرید و از آنها برای رگرسیون استفاده کنید؟ آیا به مفروضات توزیعی بستگی دارد؟ | چه زمانی بهتر است میانگین مشاهدات در همان آبسیسا را محاسبه کنیم؟ |
47132 | من مجموعه داده ای از حدود 75 هزار نمونه با حدود 20 ویژگی در هر نمونه (که 12 مورد احتمالاً مهم هستند) دارم که نمایه های اعتباری مختلف را توصیف می کند - امتیاز اعتباری، تأخیر پرداخت ها، درآمد، و غیره. برخی از متغیرهای ورودی پیوسته و برخی طبقه بندی هستند. متغیر خروجی پیوسته است - ROI مرتبط با هر وام. بهترین الگوریتم یادگیری تحت نظارت برای پیش بینی بازگشت سرمایه چیست؟ چگونه می توانم ویژگی ها را انتخاب کنم و آنها را وزن کنم؟ من به چند نمونه از SVM نگاه می کردم اما به چیزی نیاز دارم که باینری نباشد (در واقع بتواند ROI را پیش بینی کند) | بهترین الگوریتم یادگیری ماشین برای مجموعه داده وام؟ |
72822 | من روی ادغام عددی یک انتگرال از فرم تابعی زیر کار می کنم: $$ \int\limits_{R^{G}} F(x_{1},x_{2},\text{…}x_{G} )d\text{Φ}_{\text{Σ}}(x_{1},x_{2},\text{…},x_{G}) $$ اینجا $$ \text{Φ}_{\text{Σ}}(x_{1},x_{2},\text{…},x_{G}) $$ توزیع نرمال چند متغیره G-بعدی با ماتریس همبستگی $\ است. Sigma$ و F تابعی از حاشیه های تشکیل دهنده هستند. کاری که من اساسا انجام می دهم محاسبه انتظار یک تابع بر روی یک توزیع نرمال چند متغیره همبسته است. در عمل، انتظار میرود که G برابر یا کمتر از 4 باشد و اغلب فقط 2 یا 3 باشد. یکی از راه های ارجح برای نزدیک شدن به مشکل است. برای پرداختن به جنبه های پیاده سازی الگوریتم به کتاب **اقتصاد محاسباتی کاربردی و مالی** نوشته میراندا و فاکلر اشاره می کنم. اما، میخواستم از جامعه متخصص در اینجا کمک بگیرم که آیا در مسیر درستی هستم. ببخشید اگر تکراری است، با این حال من در سایت جستجو کردم، و نتوانستم سوالی را پیدا کنم که با آنچه که داشتم مطابقت داشته باشد. | ادغام با توجه به توزیع نرمال چند متغیره |
31469 | من از جستجوی شبکه ای با کران استفاده می کنم، برای مثال lb=[ 1 1 1 1 1 1]'/1000; ub=[10 10 10 10 10 20]' اما از نظر محاسباتی دشوار است بنابراین فقط 2 امتیاز را بررسی می کند. بنابراین حل مرزی متشکل از عناصر lb و ub را به دست میآورم. برای آزمایش فرضیه x2=0 با LR stat درست است؟ | آیا محاسبه آمار LR پس از به حداکثر رساندن احتمال با کران صحیح است؟ |
82759 | آیا دلایلی برای _عدم_ چرخش راه حل تحلیل عاملی اکتشافی وجود دارد؟ یافتن بحث در مورد مقایسه راهحلهای متعامد با راهحلهای مایل آسان است، و من فکر میکنم که همه این موارد را کاملاً درک میکنم. همچنین، از آنچه در کتابهای درسی یافتم، نویسندگان معمولاً از توضیح روشهای تخمین تحلیل عاملی به توضیح نحوه عملکرد چرخش و گزینههای مختلف میپردازند. چیزی که من ندیدم بحث چرخش یا عدم چرخش در وهله اول است. به عنوان یک امتیاز، اگر کسی بتواند استدلالی علیه چرخش از هر نوعی ارائه دهد که برای چندین روش تخمین عوامل (مانند روش مؤلفه اصلی و روش حداکثر احتمال) معتبر باشد، بسیار سپاسگزار خواهم بود. | آیا دلیلی وجود دارد که راه حل تحلیل عاملی اکتشافی را بدون چرخش رها کنیم؟ |
38106 | من 11 متغیر مستقل و یک رهگیری دارم. اگر من درست می گویم، به این معنی است که مدل های مختلف احتمالی $2^{12}=4096$ وجود دارد، درست است؟ بنابراین، آیا این بدان معناست که اگر من هر مدل را محاسبه کنم و $R^2_{\text{adj}}$ را ذخیره کنم و مدلی را با بالاترین $R^2_{\text{adj}}$ بگیرم، آن خواهد شد بهترین مدل (بهترین برازش، بهترین ضرایب، بهترین خطاهای std.)؟ | امکان ترکیب و نتیجه گیری متغیرها |
47285 | من در حال حاضر در حال تجزیه و تحلیل داده های کمی خود هستم. حجم نمونه من 157 دانش آموز است که پس از مداخله در 2 مرحله برای نظرسنجی شرکت کردند. همان دانش آموزان برای همان نظرسنجی در مورد نتایج مثبت در بازخورد همسالان نشستند (این فقط یکی از 7 متغیر وابسته است). من RM ANOVA را انجام دادم و روی نرمال بودن تست کردم. این نشان می دهد که توزیع غیر نرمال و تعداد کمی بدون مقدار حتی 01/0p< وجود دارد. شخصی پیشنهاد داد که من باید تبدیل انجام دهم و نتیجه هنوز توزیع غیر عادی است. سپس تست فریدمن غیر پارامتریک را انجام دادم اما چون فقط 2 فاز است به طور خودکار از تست ویلکاکسون استفاده کرد. میدانم که آزمون Wilcoxon به من اجازه نمیدهد که متغیرهایم را بر اساس متغیرهای مستقلم که جنسیت و کلاس هستند آزمایش کنم. من علاقه مندم بدانم که آیا تحت متغیر وابسته پیامدهای مثبت در بازخورد همسالان، آیا دانش آموزان دختر یا پسر از نظر اینکه بازخورد همسالان را مفید می دانند یا کدام کلاس برای بازخورد همسالان مطلوب تر است تغییر می کنند. سوال من این است که برای این کار باید به 2 Way RM ANOVA برگردم حتی اگر تست نرمال بودن من غیر طبیعی باشد؟ از آنجایی که Wilcoxon به من امکان استفاده از متغیرهای مستقل را نمی دهد. آیا مرجعی وجود دارد که بتواند از تصمیم من برای بازگشت به RM ANOVA حمایت کند؟ | آیا می توانم به جای فریدمن از RM ANOVA استفاده کنم؟ |
69188 | من دادههایی دارم که در آنها الگوی زیر را مشاهده میکنم: متغیر A با متغیر C همبستگی دارد متغیر B با متغیر C همبستگی دارد اما متغیر A و B با یکدیگر همبستگی ندارند، حتی اگر از لحاظ نظری بسیار شبیه به هم باشند. چه چیزی می تواند باعث این شود؟ متغیر C که باعث 2 دیگر می شود، از نظر نظری بسیار بعید است. متشکرم! | عدم وجود همبستگی بین متغیرهای مشابه |
87501 | چگونه توزیع Weibull را نشان دهم که $f:(y; \lambda، \rho)$ را می توان با استفاده از $z=y^\lambda$ به خانواده نمایی تبدیل کرد؟ من می دانم که فرمی که باید آن را بیان کنم $\exp\lbrace(y.\theta - b(\theta)/a(\phi))+c(y,\phi)\rbrace$ است، اما نمی دانم چگونه رسیدن به آنجا | توزیع Weibull را می توان به خانواده نمایی تبدیل کرد |
15211 | من در حال آزمایش همگنی واریانس ها با آزمون **Fligner-Killeen** با استفاده از تابع **fligner.test** در _stats_ هستم در نمودار زیر، باقیمانده هایی را که این آزمون را با موفقیت پشت سر می گذارند رسم کرده ام «(p-value > 0.1) `  یکی می تواند بگوید چگونه ممکن است که اینها باقیمانده ها تست FK را می گذرانند در حالی که حرکت قابل توجهی در مرکز طرح دارند؟ **ویرایش:** من دو گروه را آزمایش می کنم: A -> res[1:375] B -> res[376:750] باقیمانده ها 750 هستند، بنابراین من دو نیمه را با هم مقایسه می کنم. متشکرم | چگونه این باقیمانده ها می توانند همگنی واریانس داشته باشند؟ |
82751 | من باید تجزیه و تحلیل همبستگی متعارف را بین دو مجموعه داده چند متغیره X و Y انجام دهم. یک مجموعه داده حاوی داده های عددی و دیگری داده های باینری است. میخواهم بدانم چه ویژگیهایی با ویژگیهای مجموعه داده دوم همبستگی بالایی دارند. 1. اگر یک مجموعه داده دارای مقادیر عددی (مقدار صحیح و ممیز شناور) باشد و مجموعه داده دوم دارای مقادیر باینری (0 یا 1) برای همه مقادیر برای ویژگی های مختلف باشد، CCA معمولی موجود در MATLAB کافی است؟ 2. اگر هر دو مجموعه داده از متغیرهای باینری تشکیل شده باشند، چگونه می توان با این مشکل مقابله کرد؟ | تجزیه و تحلیل همبستگی متعارف برای انواع داده های مختلف |
33365 | > **تکراری احتمالی:** > اگر A و B با C همبستگی دارند، چرا A و B لزوماً مرتبط نیستند؟ فرض کنید، ما بین $x$، $y$ به عنوان $corr(x,y)$ و همبستگی بین $y$، $z$ به عنوان $corr(y,z)$ داریم. در مورد همبستگی بین $x$ و $z$ یعنی $corr(x,z)$ چه می توان گفت؟ | همبستگی بین متغیر اول و سوم با توجه به همبستگی با متغیر دوم |
30731 | مقدار $R^2$ داده شده در خلاصه مدل coxph در R چیست؟ به عنوان مثال، Rsquare = 0.186 (حداکثر امکان = 0.991 ) من احمقانه آن را به عنوان یک دستنوشته به عنوان ارزش $R^2$ درج کردم و بازبینی کننده به آن اشاره کرد و گفت که او از مشابهی از آمار R^2$ از آن آگاه نیست. رگرسیون خطی کلاسیک در حال توسعه برای مدل کاکس است و اگر وجود داشت لطفاً یک مرجع ارائه دهید. هر کمکی عالی خواهد بود! | مقدار $R^2$ ارائه شده در خلاصه یک مدل coxph در R چقدر است |
87507 | وقتی شکل تحلیلی یک توزیع را نمی دانیم (که با روش های دیگر مشخص می شود، مانند تغییر متغیر از یک متغیر تصادفی با توزیع هایی که اشکال تحلیلی دارند)، به دلیل محدودیت یا عدم وجود آن، چه گزینه هایی ممکن است داشته باشیم. به عنوان یک سازش یا جایگزین؟ * تقریب با توزیع با اشکال تحلیلی، یا * شبیه سازی برای به دست آوردن دسته ای از نقاط نمونه iid، (آیا این روش قابل قبولی است؟ آیا نقاط نمونه برای به دست آوردن تخمین یا تقریبی از توزیع اصلی برای ما مفید خواهد بود؟) یا * چیزی دیگر؟ با تشکر | جایگزین ها و مصالحه برای توزیع ها در صورت عدم شناخت شکل تحلیلی آن؟ |
5746 | مسئله Secretary یک الگوریتم برای N ثابت و پذیرش/رد فوری دارد (یعنی رد رد ... قبول یکی، توقف). انواع مختلفی وجود دارد؛ در من، منشیها یا نمونهها از یک منبع با ارزش واقعی Xj میآیند، بازدهی از بهترین-تاکنون گذشته نیست، و هر نمونه هزینه c$ دارد: حداکثر بازده = Xbestsofar \- c * Nsample در اینجا تصویری از گامهای تصادفی این است. نوع: یا به یک علامت پر آب (حداکثر جدید) X1 X2 ... بروید یا c:  آیا کسی می تواند به من اشاره کند که قوانین توقف یا حفظ ظاهر برای توقف بهینه برای مشکلاتی مانند این را به من نشان دهد؟ شاید بتوان دو نوع قانون را با هم ترکیب کرد: * حداقل نمونه برداری ...، بعد از آن بهترین را بگیرید (مشکل منشی) * زمانی که پیک - جریان از مقدار Δ تجاوز کرد متوقف شود (Allaart) همانطور که @whuber اشاره می کند، نیاز به _مدلی از توزیع نمونه ها برای تعریف مشکل. این را من ندارم با این وجود، آماردانان باید به مشکلاتی از این دست نگاه کرده باشند - نمونه گیری متوالی، طراحی متوالی آزمایش ها، توقف بهینه، یادگیری بهینه؟ سپس لطفاً به من کمک کنید تا سؤالم را مجدداً بیان کنم تا یک آموزش در مورد ... پیوندهای اضافه شده 29 دسامبر، با تشکر @James; خوانندگان لطفاً تمدید کنید -- تپه توقف بهینه، دانستن زمان توقف 2009، 3p، آلارت عالی، توقف حداکثر یک پیاده روی تصادفی مرتبط با هزینه برای مشاهده 2004، 12p (با عرض پوزش برای ادامه تغییر این - تلاش برای همگرایی به یک فرمول استاندارد .) | توقف بهینه از یک توزیع ناشناخته |
96987 | من بایاس و واریانس میانگین نمونه $\hat{\mu}$ و واریانس نمونه $\hat{\sigma}^2$ را محاسبه کردم اما نتوانستم سوگیری و واریانس را برای همبستگی نمونه $\hat{\rho}$ محاسبه کنم. . چگونه می توانم محاسبه را انجام دهم؟ آیا می توانید چند مرجع، کتاب درسی، مقاله در مورد آن به من بدهید؟ ویرایش: منظور من از همبستگی نمونه $$ \hat{\rho}_{xy} = \frac{\sum_{i} x_i y_i}{\sqrt{\sum_{i}x_i^2 \sum_{i}y_i^ 2}} $$ | سوگیری و واریانس برآورد همبستگی |
103301 | من روی مجموعه داده ای متشکل از 100000 مورد و 200 متغیر کار می کردم و 7 مقدار mtry مختلف را اجرا کردم و سعی کردم مقدار بهینه را پیدا کنم. با استفاده از دادههای یکسان و مقادیر ntree یکسان، مقادیر مختلف mtry را در مقایسه با نرخهای oobe مقایسه کردم و یک خط برازش کردم. من یک رابطه واقعاً عجیب و غریب پیدا کردم، و میخواستم بدانم آیا کسی میتواند توضیح دهد که چرا اینگونه است:  | مقادیر mtry در مقابل تجزیه و تحلیل نمودار OOBE |
83922 | با استفاده از تابع همبستگی اکسل، من یک همبستگی 7-٪ بین مجموعه داده های A و B دریافت می کنم. مجموعه داده های C دارای 92٪ همبستگی با A و 84٪ همبستگی با B است. چگونه می توان C به شدت با A و B مرتبط باشد، اما A و B اندکی با یکدیگر همبستگی منفی دارند؟ چه تست های دیگری می توانم انجام دهم تا به درک بهتر روابط بین A، B و C کمک کنم؟ | چگونه 2 متغیر می توانند هر کدام به شدت با یک متغیر سوم همبستگی داشته باشند، اما با یکدیگر همبستگی ندارند؟ |
87508 | من وظیفه دارم **مدل طبقه بندی چند وظیفه ای را فقط بر اساس ماتریس فاصله (شباهت) بسازم**. آنها قبلاً از قبل محاسبه شده اند و هیچ تغییری در اینجا اعمال نمی شود. لطفاً می توانید به من توصیه کنید کجا بیشتر جستجو کنم؟ مقالات، بسته ها؟ هر رویکردی که از ماتریس فاصله و مجموعه ای از کلاس ها شروع شود؟ من سعی کردم این کار را با kNN از طریق رویکرد ذکر شده در این سوال انجام دهم، اما نتایج چندان رضایت بخش نیستند. من خوشحال خواهم شد که از الگوریتم های SVM مانند و/یا شبیه ANN استفاده کنم. آنها بیشتر از kNN بهتر هستند. با تشکر فراوان | یادگیری از ماتریس های فاصله |
82754 | من در حال نوشتن یک مقاله تحقیقاتی هستم که در آن از آزمون فرضیه استفاده می کنم. آیا بهتر است برای این تست مقدار p داده شود یا از ناحیه رد 5% دو دنباله استفاده شود؟ پیشاپیش متشکرم | ناحیه رد یا p-value |
100594 | من در این سایت توضیحی در مورد توزیع t خوانده ام و علاقه مند بودم که مشابه آن را از توزیع F بخوانم. کتاب های درسی که خوانده ام به طور کلی این موضوع را پوشش نمی دهند. | توضیح شهودی در مورد PDF توزیع F چیست؟ |
39272 | من در مورد اینکه چگونه می توان یک منحنی ROC برای یک طبقه بندی کننده 3 کلاسه (Naive Bayes) ایجاد کرد، تردیدهایی دارم. اساساً با توجه به برخی داده های آزمایشی، طبقه بندی کننده احتمالات را برای هر یک از 3 کلاس ممکن خروجی می دهد. برای ایجاد امتیاز برای رسم منحنیهای ROC، آستانه تصمیمگیری را از 0.1 به 1.0 افزایش میدهم و FPR، TPR را برای هر یک از 3 کلاس محاسبه میکنم (با استفاده از رویکرد یک در مقابل استراحت، زیرا منحنی ROC برای طبقه بندی باینری). مشکل این است: فرض کنید که در آستانه تصمیم گیری 0.5، داده هایی را از کلاس 1 دریافت می کنیم، و طبقه بندی کننده به ترتیب احتمالات کلاس 0.3، 0.4 و 0.3 را خروجی می کند. از آنجایی که هیچ احتمالی بیش از آستانه تصمیم وجود ندارد، ** آیا باید این داده ها را طبقه بندی نشده رها کنم؟ آیا باید این دادهها را به کلاسی با بیشترین احتمال طبقهبندی کنم، حتی اگر چنین احتمال کلاسی کمتر از آستانه باشد؟** و آخرین سوال: آیا باید احتمالات بیبیهای ساده را قبل از محاسبه نقاط ROC کالیبره کرد؟ | آستانه تصمیم برای یک منحنی ROC 3 کلاسه Naive Bayes |
47130 | من رگرسیون چندگانه با، مثلاً 3 متغیر مستقل دارم: $Y=B_0+B_1x_1+B_2x_2+B_3x_3$ میخواهم آزمایش کنم که آیا $B_2+3B_3$ تفاوت معنیداری با صفر دارد، یعنی $$H_0: B_2+3B_3=0$ $$H_1: B_2+3B_3\neq 0$$ لطفاً برای پیدا کردن کمک کنید روشی مناسب برای آزمون معناداری توابع خطی دو ضریب مانند مثال بالا. پیشاپیش سپاس فراوان | آیا می توان توابع معنی داری ضرایب رگرسیون را در رگرسیون چندگانه آزمایش کرد؟ |
38108 | از ویکیپدیا > متغیر شبه تصادفی متغیری است که توسط یک روش قطعی > (اغلب یک برنامه کامپیوتری یا برنامه فرعی) ایجاد میشود که (به طور کلی) > **بیتهای تصادفی** را به عنوان ورودی میگیرد. رشته شبه تصادفی معمولاً طولانیتر از **رشته تصادفی اصلی** خواهد بود، اما کمتر تصادفی است (آنتروپیک کمتر، به معنای > نظریه اطلاعات). این می تواند برای الگوریتم های تصادفی مفید باشد. می خواستم بدانم که آیا هر دو بیت های تصادفی و رشته تصادفی اصلی به معنای دانه تصادفی است که به طور تصادفی برای مولد اعداد شبه تصادفی نیز انتخاب شده است؟ با تشکر | آیا ورودی یک فرآیند شبه تصادفی دانه تصادفی است؟ |
15214 | من در حال نوشتن برنامه ای با استفاده از تخمینگر حجم بالا (HDV) برای تخمین آنتروپی و اطلاعات متقابل برای انتخاب متغیر هستم. فرض کنید $ D = (x^i_1، x^i_2، ...، x^i_M)$، N تعداد نقاط داده در فضای مشترک بعدی $M$ است. برآوردگرهای HDV بر اساس معادله زیر: \begin{aligned} H(X) ≈ ψ(k) + ψ(N) + \frac{1}{N}{\sum_{i=1}^{N} {logB_m(r^{i}_{x^m})}^m} \end{aligned} $X$ متغیر تصادفی است، $H(X)$ آنتروپی $X$ است، $ψ(.)$ تابع دیگاما، $k=1$ برای برآوردگر HDV، $N$ تعداد مشاهدات، $B_m$ حجم توپ واحد m بعدی $r^{i}_{x است. ^m}$ حداقل فاصله در هر بعد است: \begin{aligned} r^{i}_{x^m} = min(||x^i_m-x^{'i}_m||) \end{aligned} که در آن $x^i_m \neq x^{'i}_m$ و $x^i_m , x^{'i}_m \in D$ سؤال من این است که وقتی برای تخمین آنتروپی استفاده شود توزیع گاوسی با میانگین = 0 و انحراف معیار = 1، نتیجه نظری آنتروپی حدود 1.4189 است. برنامه نمی تواند نتیجه را دریافت کند زیرا $ψ(1)= 0.5772156$ (ثابت اویلر-ماسکرونی)، $ψ(N=1000)= 6.9072$ (مثلاً 1000 نقطه داده) و من فکر می کنم که $\frac{1}{1}{101} N}{\sum_{i=1}^{N}{logB_m(r^{i}_{x^m})}^m}$ نمی تواند منفی باشد این در مورد فاصله و حجم است. درک من چه اشکالی دارد؟ | برآوردگر آنتروپی حجم با ابعاد بالا |
30736 | من در حال انجام فراتحلیل مدلسازی معادلات ساختاری (SEM) بر روی برخی از داده های روانشناختی هستم. در نهایت من می خواهم یک مدل میانجی را بر اساس مجموعه ای از ماتریس های همبستگی بررسی کنم. من زمان کمی را صرف بررسی ادبیات در مورد آنچه که باید انجام داد وقتی که ماتریس های همبستگی ناهمگن دارید را مرور کردم. من یک بررسی مختصر از آنچه در Cognitive Sciences SE یافته ام نوشته ام. برای خلاصه کردن آنچه پیدا کردم: * بیشتر محققان از رویکرد دو مرحله ای استفاده می کنند. مرحله 1 شامل استخراج تخمین از همبستگی های واقعی بین مجموعه ای از متغیرها با استفاده از انواع تکنیک های فرا تحلیلی است. مرحله 2 شامل وارد کردن همبستگی در نرم افزار SEM و به طور کلی انجام تجزیه و تحلیل مطابق با SEM غیر متا تحلیلی معمولی است. * علیرغم آگاهی از مشکلات، بسیاری از محققان هنوز از رویکرد دو مرحله ای استفاده می کنند، حتی اگر بیشتر مجموعه داده ها دارای تنوع در همبستگی های واقعی هستند که نمی تواند صرفاً به نمونه گیری تصادفی نسبت داده شود (به عنوان مثال، یک مدل اثرات تصادفی به طور کلی کاربرد بیشتری دارد). * برخی از محققان به امکان خوشهبندی مجموعه داده یا انجام متاآنالیز SEM بر روی مقادیر ناظران اشاره میکنند، به این امید که وقتی تجزیه و تحلیل را به گروهها تقسیم کردید، تنوع امتیاز واقعی حذف شود. با این حال، در بیشتر برنامهها، چنین تعدیلکنندههایی برای توضیح همه تغییرات امتیاز واقعی کافی نیستند. بنابراین به جای اتخاذ یک رویکرد دو مرحلهای، به این فکر کردم که شاید حداقل برای مواردی که میتوانید یک ماتریس همبستگی کامل را برای هر مطالعه محاسبه کنید، موارد زیر را انجام دهم: > «انجام SEM در هر نمونه و درمان پارامترها و آمار برازش به عنوان > مقادیری که بین نمونه ها متفاوت است، سپس می توانید توزیع > (به عنوان مثال، میانگین و SD) این پارامترهای SEM و آمار مربوط به آن را خلاصه کنید سایر اندازههای افکت معمولاً بهعنوان جلوههای تصادفی مدلسازی میشوند. بنابراین، برای مثال، میتوانید به تغییر در اثر غیرمستقیم در بین نمونهها نگاه کنید. بدون در نظر گرفتن مسئله حذف امتیاز واقعی از نمونهگیری تصادفی، انجام چنین تحلیلی در R با هر یک از بستههای SEM ساده است. سوالات ### بنابراین، من متعجب بودم: * آیا این رویکرد برازش SEM برای هر مطالعه به طور جداگانه تا به حال اعمال شده است؟ * مزایا و معایب این رویکرد چیست؟ * چگونه ممکن است متوجه شوید که چه تغییری در پارامترهای SEM به دلیل نمونه گیری تصادفی است و چه چیزی به دلیل واریانس امتیاز واقعی است؟ * یا آیا روش بهتری برای انجام متاآنالیز SEM بر روی ماتریس های همبستگی ناهمگن وجود دارد؟ | آیا مدلسازی معادلات ساختاری را بهطور جداگانه برای هر یک از مجموعهای از ماتریسهای همبستگی ناهمگن در یک زمینه متاآنالیز اعمال کنیم؟ |
82757 | من برخی از روشهای پیشبینی را با استفاده از چهار معیار دقت مقایسه میکنم: میانگین خطای مطلق (MAE)، میانگین مربعات خطا (MSE)، میانگین درصد مطلق خطا (MAPE)، میانگین خطای مقیاس مطلق (MASE). نتایج با توجه به این معیارهای مختلف متناقض هستند. در نهایت کدام روش باید انتخاب شود؟ آیا راه حلی در این مورد وجود دارد؟ | در صورت وجود نتایج متناقض از معیارهای دقت مختلف، کدام روش پیشبینی باید انتخاب شود؟ |
82752 | من سعی می کنم آزمایش کنم که آیا این درست است یا نه که افراد با قدهای مشابه تمایل به ازدواج با یکدیگر دارند یا خیر، و من کمی گیج هستم که دقیقا چگونه این کار را انجام دهم. من یک مجموعه داده با 96 جفت قد زن و شوهر دارم، بنابراین فکر کردم که می توانم میانگین تفاوت قد بین زن و شوهر (مخصوصاً قد زن از قد شوهر کم شود) را در نظر بگیرم. به 10.43 سانتی متر می رسد و سپس آزمون فرضیه را با آن به عنوان آماره آزمون من انجام دهید. با این حال، اینجاست که من گیج شده ام. من فکر کردم که می توانم فرضیه صفر $|\mu| باشد \geq 15$ و فرضیه جایگزین $|\mu|<15$ که در آن $\mu$ میانگین اختلاف قد بین زن و شوهر است. محاسبه $t$-value برای $\hat{\mu}=10.43$ با توجه به 15 بازده -6.77 است. این بدیهی است که کمتر از مقدار بحرانی است، بنابراین آیا می توانم فرضیه صفر را رد کنم و نتیجه بگیرم که قد زن و شوهر به طور متوسط مشابه هستند؟ متشکرم. | سوال ساده در مورد آزمون فرضیه |
72827 | من در حال جستجوی اسلایدها برای یک کلاس کلان داده هستم. اسلایدها پیشنهاد میکنند که یک نمودار زوجی از دادهها (اگر نه متغیرهای زیاد) برای ارزیابی کیفیت خروجی از خوشهبندی k-means - با هر نقطه داده که توسط خوشه آن کد رنگی میشود، انجام دهید. اسلایدها می گویند: > اگر خوشه های (رنگی) حداقل در برخی از طرح ها جدا به نظر می رسند. آنها > در همه طرح ها خیلی از هم جدا نخواهند بود. این چگونه به شما می گوید که آیا طرح زوجی مؤثر است؟ آیا می خواهید رنگ ها در نمودارها مخلوط شوند تا مطمئن شوید که خوشه های چند بعدی واقعی دارید و نه فقط گروه هایی از نقاط داده که در یک متغیر بسیار شبیه هستند؟ | چگونه از نمودارهای زوجی برای آزمایش اثربخشی خوشه بندی k-means استفاده می کنید؟ |
97023 | من یک مجموعه داده پانل بزرگ دارم. بررسی یک رگرسیون OLS ادغام شده با Breusch Pagan ناهمگونی با تمام مشخصات مدل را نشان داد. در نتیجه من استفاده از تخمین پارامترهای خطای استاندارد تصحیح شده توسط پانل را انتخاب کردم (PCSE، پس از بک و کاتز، 1996). با این وجود، تصمیم گرفتم استحکام مدل خود را در برابر مدلی با اثرات ثابت (کشور) آزمایش کنم. اکنون، حداقل در Stata، تست هاسمن با خطاهای استاندارد قوی کار نمی کند. از آنجایی که به ضرایب نگاه می کند، نه انحراف استاندارد، اما می توانم از FE با خطاهای استاندارد اصلاح نشده بدون مشکل برای تست هاسمن استفاده کنم. اما سوال من این است که آیا دلیلی برای این فرض وجود دارد که عبارت خطای مدل FE ممکن است هتروسکداستیک نباشد. یعنی با وجود اینکه از Pooled OLS می دونم که هتروسکداستیکی وجود داره، آیا لازمه یه تست پاگان دیگه برویش روی مدل FE انجام بدم؟ من ترجیح میدهم فقط تست Hausman را روی مدل FE و PCSE اصلاح نشده اجرا کنم، سپس FE اصلاحشده را همراه با مدل PCSE در ضمیمه خود گزارش کنم. دلیل آن این است که Stata در تست های پس از تخمین پس از «xtreg»، یعنی تخمین های FE کمی محکم است. | ناهمگونی از طریق تخمین اثر ثابت حذف شد؟ |
12656 | من کمی کد می نویسم که از نمونه برداری بسیار زیاد استفاده می کند (مثلاً MCMC، فیلترهای ذرات، و غیره)، و واقعاً مایلم آن را آزمایش کنم تا مطمئن شوم که قبل از ادعای هر گونه نتیجه، کاری را که من فکر می کنم انجام می دهد. آیا روش معمولی برای آزمایش این روش ها برای اطمینان از صحت وجود دارد؟ | روش های نمونه گیری تست واحد |
16546 | من معمولا یک کاربر هستم. با این حال، برای اهداف آموزشی، امروز باید از SPSS استفاده کنم. من باید یک مدل خطی عمومی با ساختار ترتیبی را مشخص کنم زیرا آنچه که من بررسی می کنم این است: تغییر در نمرات مقیاس لیکرت (1،2،3،4،5) در بین افراد، بین گروه های مداخله در 2 نقطه زمانی. من می توانم یک مدل فاکتوریل کامل * مدل های خطی تعمیم یافته را مشخص کنم. GENLIN Question1 (ORDER=ASCENDING) توسط شرکت کننده PrePost Group (ORDER=ASCENDING) /MODEL Group PrePost Group*PrePost DISTRIBUTION=MULTINOMIAL LINK=CUMLOGIT /CRITERIA METHOD=FISHER(1) SCALE=1 COVB10=MOD MAXSTEPHALVING=5 PCONVERGE=1E-006(ABSOLUTE) SINGULAR=1E-012 ANALYSISTYPE=3(LR) CILEVEL=95 CITYPE=WALD LIKELIHOOD=FULL /MISSING CLASSMISSING=EXCLUDE /PRINT FUSIONFOITTIONELUDE اما این مدل عدم استقلال اقدامات شرکت کننده در طول زمان را در نظر نمی گیرد. بسیار سپاسگزار خواهم بود اگر کسی بتواند به من کمک کند (به شخص دیگری کمک کند) مدلی را که دارای یک مولفه اثرات تصادفی است، با در نظر گرفتن خوشه بندی در بیماران مشخص کنم. | چگونه می توان رگرسیون لجستیک ترتیبی اندازه گیری های مکرر را با استفاده از SPSS انجام داد؟ |
145 | > **موضوع تکراری:** > مکان یابی نمونه های داده آزادانه در دسترس از کجا می توانم منابع داده ای را که آزادانه در دسترس هستند پیدا کنم؟ من به سایت هایی مانند * http://www2.census.gov/census_2000/datasets/ فکر می کنم؟ | منابع مجموعه داده رایگان؟ |
69485 | من می خواهم تعیین کنم که آیا تفاوت هایی در دور گردن (متغیر وابسته) در بین سه گروه از بیماران (طبقه بندی شده به یکی از 3 الگوی اسکلتی-صورت = متغیر مستقل) با در نظر گرفتن گروه های سنی آنها (3 گروه سنی = متغیر مستقل دیگر) وجود دارد. ، جنسیت (متغیر مستقل دیگر)، طبقه بندی BMI (4 دسته = یک متغیر مستقل دیگر) و خطر ابتلا به آپنه خواب (خطر احتمالی یا بدون خطر = متغیر مستقل دیگر). من مطمئن نیستم که آیا اینها واقعاً متغیرهای مستقل هستند یا متغیرهای مشترک. | از کدام روش آماری استفاده کنم؟ |
16542 | بردار تصادفی توزیع شده معمولی $$X \sim \mathcal{N}(\mu, \Sigma)$$ را در نظر بگیرید توزیع $Y = f(X)$ چیست؟ برای $f$ عمومی این یک مشکل چالش برانگیز است اما برای حالت خطی افین $$f(x)_i = c_i + L_{ij}x_j$$ با $c$ یک بردار و $L$ یک ماتریس. ما می دانیم که این شکل بسته خوبی دارد. در واقع، $Y$ دوباره به عنوان یک نرمال چند متغیره توزیع می شود. $$Y \sim \mathcal{N}(c + L\mu, \;L\Sigma L^T)$$ اکنون سادهترین مورد بعدی را در نظر بگیرید. در نظر بگیرید که $f$ خطی نیست بلکه درجه دوم است. یعنی $$f(x)_i = c_i + L_{ij}x_j + H_{ijk} x_jx_k$$ با $c$ یک بردار، $L$ یک ماتریس و $H$ یک تانسور رتبه سه. آیا یک عبارت بسته برای چگالی $Y$ وجود دارد؟ | چگالی تبدیل درجه دوم یک متغیر تصادفی نرمال |
39279 | من مجموعه داده زیر را دارم: https://dl.dropbox.com/u/22681355/ORACLE.csv و میخواهم تغییرات روزانه را در «باز» تا «تاریخ» ترسیم کنم، بنابراین کارهای زیر را انجام دادم: oracle <- خواندن .csv(file=http://dl.dropbox.com/u/22681355/ORACLE.csv, header=TRUE) plot(oracle$Date, oracle$Open, type=l) و من موارد زیر را دریافت می کنم:  اکنون این بدیهی است زیباترین طرح تا به حال نیست، بنابراین میپرسم روش مناسب برای ترسیم چنین دادههای دقیق چیست؟ | نحوه رسم 20 سال داده روزانه در سری های زمانی |
69483 | فرض کنید من یک بردار داده v دارم، که در آن همه مقادیر بزرگتر از صفر هستند. اکنون، میخواهم ببینم آیا از توزیع پواسون تغییر یافته پیروی میکند یا خیر. آیا می توانم این کار را با جابجایی همه چیز به چپ ابتدا انجام دهم و یک پواسون را به روش معمول نصب کنم؟ به عنوان مثال، در R می توانم با استفاده از تابع fitdistr یک پواسون را جای دهم. آیا میتوانم «vec <- v - 1» را انجام دهم تا ابتدا همه چیز را به چپ منتقل کنم (تا بتوانیم آن را مانند توزیع پواسون معمولی رفتار کنیم)؟ و سپس fitdistr(vec، poisson) را اجرا کنید. سوال دوم: حالا فرض کنید میخواهم «chisq.test()» را انجام دهم. جدول فراوانی بردار داده واقعی `vec` به شرح زیر است: جدول(vec) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 16 17 18 19 20 21 22 611 12297 18093 2797 2531 456 243 75 39 18 7 2 1 2 4 12 20 34 34 23 24 25 26 27 30 34 35 36 37 38 39 40 41 42 43 44 45 42 42 3 1 4 7 7 10 8 5 2 8 3 3 3 1 1 1 2 56 57 58 67 70 71 75 188 2 1 3 1 1 1 1 1 و برای ساختن آزمون کای دو خوبی برازش، این کار را انجام دادم: <- p1 dpois(0:188، lambda = 4.33657562) p1 <- c(p1, 1 - sum(p1)) names(p1) <- c(0:188, بیشتر) chisq.test(table(factor(vec, level = c(0:188, بیشتر) ))، p = p1) من نمی دانم چرا مقدار p = `NA` را در پایان گرفتم. لطفا برای من توضیح دهید که اینجا چه مشکلی دارد؟ `X-squared = NaN, df = 189, p-value = NA` توزیع داده های گسسته به شرح زیر است، با خط بنفش - توزیع پواسون جابجا شده ($\lambda = 4.33$) | تخمین پارامترهای توزیع پواسون جابجا شده |
87502 | این هیستوگرام چه توزیعی دارد؟  به نظر می رسد در اطراف میانگین خود متقارن نیست، و همیشه غیر منفی و تک وجهی است. پس از حالت خود، به نظر می رسد که به طور تصاعدی تا بی نهایت فروپاشی می کند، در حالی که قبل از حالت خود، به نظر می رسد به روشی متفاوت افزایش می یابد. به طور کلی چگونه می توانیم توزیع را از روی یک هیستوگرام حدس بزنیم؟ آیا منابع یا خلاصه ای برای آموزش این کار به من وجود دارد؟ با تشکر | این هیستوگرام چه توزیعی دارد؟ |
19843 | برای رگرسیون خطی معمولی ساده $y=a+bx$، اگر بخواهم از مدل کاهش یافته $y=bx$ استفاده کنم، یعنی از مبدأ عبور کنم، چگونه می توان آزمون های آماری را روی اعتبار چنین مدل خطی انجام داد؟ | چگونه یک مدل خطی کاهش یافته را که از مبدا عبور می کند آزمایش کنیم؟ |
12651 | روش انتخاب مدل Box-Jenkins در تحلیل سری های زمانی با مشاهده توابع خودهمبستگی و خودهمبستگی جزئی سری آغاز می شود. این نمودارها می توانند $p$ و $q$ مناسب را در مدل ARMA$(p,q)$ پیشنهاد کنند. این روش با درخواست از کاربر برای اعمال معیارهای AIC/BIC ادامه مییابد تا مقرونبهصرفهترین مدل را از بین مدلهایی که مدلی با اصطلاح خطای نویز سفید تولید میکنند، انتخاب کند. من متعجب بودم که چگونه این مراحل بازرسی بصری و انتخاب مدل مبتنی بر معیار بر خطاهای استاندارد تخمینی مدل نهایی تأثیر می گذارد. من می دانم که بسیاری از روش های جستجو در یک دامنه مقطعی می توانند خطاهای استاندارد را به سمت پایین سوگیری کنند. در مرحله اول، انتخاب تعداد مناسب تأخیر با مشاهده داده ها (ACF/PACF) چگونه بر خطاهای استاندارد مدل های سری زمانی تأثیر می گذارد؟ من حدس میزنم که انتخاب مدل بر اساس امتیازات AIC/BIC تأثیری مشابه با روشهای مقطعی داشته باشد. من در واقع چیز زیادی در مورد این منطقه نمی دانم، بنابراین هر گونه نظر در این مورد نیز قدردانی خواهد شد. در نهایت، اگر معیار دقیق مورد استفاده برای هر مرحله را بنویسید، آیا میتوانید کل فرآیند را برای تخمین خطاهای استاندارد و رفع این نگرانیها راهاندازی کنید؟ | انتخاب مدل باکس جنکینز |
100653 | این سوال از این سوال ناشی شد. آیا کسی چند نمونه کار شده از یک سوال OLS دارد که مشاهدات آن خطی نیستند؟ به عنوان مثال $y_i = \alpha + \sin (x_i) + \epsilon_i$ سعی کردم با تفکیک $(y_i - \alpha - \sin(x))^2$ کمترین تخمینگر را برای ضریب $x$ پیدا کنم. با احترام به $x$ (حتی مطمئن نیستم که آیا این کار درستی است یا خیر) و در نهایت با یک عبارت پیچیده شامل $\sin$ و $\cos$ مواجه میشویم. بنابراین، فکر کردم قبل از ادامه، بپرسم چگونه چنین سؤالاتی را انجام دهم. من علاقه مند به پاسخی برای این هستم زیرا، می خواهم ببینم که $E(y_i - \hat{y}_i)$ همیشه برابر با 0 نیست، وقتی $y_i$ یک تابع خطی از $x_i$ نیست. همچنین، آیا راه کلی تری برای نشان دادن درستی این عبارت وجود دارد، یعنی بدون یافتن برآوردگرهای OLS؟ ویرایش 1: فراموش کرده اید که عبارت خطا را در مثال وارد کنید. ویرایش 2: مدلی که من سعی میکنم آن را تنظیم کنم $y = \sin(x) + \epsilon_i$ است. با توجه به یک مجموعه داده خاص، طبق R باید $\hat{y} = 0.60330 + 0.01797x$: set.seed(1234) n <- 5 df <- data.frame(x=runif(n, 1, 10 )) df$mean.y.given.x <- sin(df$x) df$y <- df$mean.y.given.x + rnorm(n) model <- lm(y ~ x, data=df) summary(model) فراخوانی: lm(فرمول = y ~ x، داده = df) باقیمانده ها: 1 2 3 4 5 0.6190 -1.1402 -0.4852 -0.2877 1.2941 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.60330 1.45534 0.415 0.706 x 0.01797 0.22460 0.080 0.941 خطای استاندارد باقیمانده: 1.107 در 3-درجۀ آزادی 20، 3- درجه آزادی چندگانه R-squared: -0.3305-F-statistic: 0.006404 در 1 و 3 DF، p-value: 0.9413 من می خواهم اکنون $\hat{y}$ را با دست بدست بیاورم. با این حال، تمام سوالاتی که تاکنون انجام دادهام همیشه به شکل $y_i = \alpha + \beta x$ هستند، که در آن $\alpha$ و $\beta$ ثابت هستند، به طوری که $y_i$ یک تابع خطی از $ است. x_i$. بنابراین، من مطمئن نیستم که وقتی $y_i$ یک تابع خطی از $x$ نیست چگونه باید ادامه داد، از این رو درخواست من برای مثال های کار شده برای این نوع سوالات است. پس از آن، انتظار دارم بتوانم نشان دهم که $E(y_i-\hat{y_i}) \neq 0$ است زیرا نمودار باقیمانده ها در برابر مقدار پیش بینی شده (برای $n$ بزرگ) این است: set.seed(1234 ) n <- 1000 df <- data.frame(x=runif(n, 1, 10)) df$mean.y.given.x <- sin(df$x) df$y <- df$mean.y.given.x + rnorm(n) model <- lm(y ~ x, data=df) plot(predict(model, newdata=df), residuals (مدل)) abline(a=0,b=0,col='blue')  بر اساس نمودار بالا، $E(y_i-\hat{y_i}) \neq 0$ در این مورد باید درست باشد، درست است؟ | چگونه می توان حداقل مربعات معمولی (OLS) را زمانی که مشاهدات خطی نیستند انجام داد؟ |
46151 | در حالت رگرسیون خطی ساده $y=\beta_0+\beta_1x$، میتوانید برآوردگر حداقل مربع را استخراج کنید: $\hat\beta_1=\frac{\sum(x_i-\bar x)(y_i-\bar y)}{\ sum(x_i-\bar x)^2}$ به گونه ای که برای تخمین $\hat\beta_1$ لازم نیست $\hat\beta_0$ را بدانید. $y=\beta_1x_1+\beta_2x_2$، چگونه $\hat\beta_1$ را بدون تخمین $\hat\beta_2$ استخراج کنم؟ یا این امکان پذیر نیست؟ | چگونه برآوردگر حداقل مربعات را برای رگرسیون خطی چندگانه بدست آوریم؟ |
86954 | مطالعات حیوانی زیستپزشکی اغلب آزمایشهایی را شامل یک فاکتور مواجهه و یک عامل ژنتیکی با استفاده از موشهای تراریخته انجام میدهند. به عنوان مثال، به اصطلاح موش های نوع وحشی و موش های دارای کمبود گیرنده لپتین (WT در مقابل Db/Db) در غذای معمولی آزمایشگاهی یا رژیم غذایی پرچرب (CHOW در مقابل HFD). به نظر می رسد که اکثریت قریب به اتفاق مطالعاتی که من با آن مواجه شده ام، چنین آزمایش هایی را با استفاده از ANOVA یک طرفه به جای دو طرفه تحلیل می کنند. به عنوان مثال، وزن نهایی بدن با آنالیز واریانس یک طرفه و سپس تمام مقایسههای جفتی بین 4 گروه مورد تجزیه و تحلیل قرار گرفت. به نظر نمی رسد چنین رویکردی توجه منتقدان را به خود جلب کند، بنابراین من نمی دانم که چقدر این رویکرد اشتباه است یا نیست. آیا این صرفاً منجر به از دست دادن اطلاعات می شود (از آنجایی که یک فرضیه تعامل به شخص اجازه می دهد تا به طور رسمی اصلاحات را آزمایش کند)، یا در واقع نتایج را به نوعی سوگیری می کند؟ آیا منجر به از دست دادن قدرت می شود؟ | تجزیه و تحلیل یک آزمایش 2 عاملی با ANOVA یک طرفه |
41032 | > **موضوع تکراری:** > مکان یابی نمونه های داده آزادانه در دسترس > سایت هایی برای مسابقات مدل سازی پیش بینی کننده آیا سایت ها یا منابعی از مجموعه داده ها (به طور مصنوعی ایجاد شده یا برگرفته از آزمایش ها/منابع واقعی) وجود دارد که کسی می تواند از آنها برای آزمایش توانایی های خود استفاده کند. شناسایی خوشهها، الگوها و فرمولبندی/ اعتبارسنجی فرضیه؟ احتمالاً با پاسخهایی که میتوان بعداً با آنها مشورت کرد تا مشخص شود چه چیزی به دست آوردهاید و نتایج/تکنیکهای مورد انتظار باید چه میبود؟ | آزمون های تجزیه و تحلیل داده ها |
16547 | ### شرح مطالعه: من یک خطای رایج را در میان متاآنالیزها، با توجه به مدیریت تکرار درون مطالعه مشاهده کرده ام. برای من روشن نیست که آیا این خطا هنگام بیان مفروضات، مطالعات را باطل می کند یا خیر. با این حال، همانطور که من متوجه شدم، این مفروضات یک فرض اساسی آمار را نقض می کند. به عنوان مثال، یک مطالعه اثرات شیمیایی $X$ را بر پاسخ $Y$ آزمایش می کند. تجزیه و تحلیل بر روی نسبت پاسخ ورود به سیستم انجام می شود: نسبت درمان $Y_{+X}$ (در حضور $X$) به کنترل $Y_{0}$ (بدون $X$): $$R = ln (\frac{Y_{+X}}{Y_{0}})$$ برخی از مطالعاتی که در متاآنالیز گنجانده شدهاند، شامل چندین درمان هستند، برای مثال سطوح مختلف یا اشکال شیمیایی X$. برای هر درمان، مقدار متفاوتی از $R$ وجود دارد، اگرچه $R$ همیشه از همان مقدار $Y_0$ استفاده می کند. روش ها بیان می کنند: > پاسخ به درمان های مختلف (سطوح و اشکال X$) در یک مطالعه واحد، مشاهدات مستقل در نظر گرفته شد. ### سوالات: * آیا این شبه تکراری نیست؟ * حتی اگر در روش ها نقض استقلال آمده باشد، نامناسب است؟ * یک راه آسان (مثلاً در توانایی یک بسته نرم افزاری متاآنالیز ساده) برای انجام تکثیر در مطالعه چیست؟ ### افکار اولیه: * نتایج هر مطالعه را خلاصه کنید، به عنوان مثال. با در نظر گرفتن میانگین پاسخ * از هر مطالعه فقط یک درمان را بر اساس معیارهای قبلی (مثلاً بالاترین دوز، اولین اندازه گیری) انتخاب کنید؟ آیا راه حل های دیگری وجود دارد؟ | بدون مدلسازی چند سطحی، چگونه میتوان همانندسازی درون مطالعه را در یک متاآنالیز مدیریت کرد، جایی که مطالعه واحد تکرار است؟ |
63628 | من قصد دارم به زودی آزمایشی را انجام دهم، اما هنوز مطمئن نیستم که بعد از آن چه نوع تجزیه و تحلیلی انجام دهم. آنچه من می خواهم بدانم این است که آیا گنجاندن یک مداخله در آزمایش منجر به رفتار متفاوتی می شود یا خیر. علاوه بر این، من همچنین می خواهم بدانم که آیا نگرش نیز به دلیل مداخله تغییر می کند؟ به طور خلاصه: 1. ابتدا نگرش افراد را با یک پرسشنامه (مقیاس صفت دوقطبی) اندازه گیری می کنم و سپس می سنجیم که آیا آنها رفتار خاصی انجام می دهند یا نه (دوگانه). در انجام همین رفتار من ابتدا فکر کردم که باید اقدامات تکراری انجام دهم تا ببینم آیا تغییری در رفتار وجود دارد و بعد از مداخله، اما تا حدودی در ماهیت متغیرهایم گیر کردم (دوگانه). در حال حاضر، من به ساخت یک متغیر (مداخله بله/خیر) فکر می کنم که به عنوان IV عمل کند و سپس آن را روی رفتار (بله/خیر) با یک آزمون t یک نمونه آزمایش کند. سپس نگرش آنها (IV) را در مورد رفتار در قبل و بعد از مداخله به صورت انفرادی آزمایش کنید. آیا کسی می تواند این را تایید کند؟ و چگونه می توانم نگرش به رفتار را قبل و بعد از مداخله مقایسه کنم؟ | اندازه گیری های مکرر یا یک نمونه t-test |
12654 | این یک سوال ساده است. من با یک توزیع نرمال بریده شده سر و کار دارم -- مثلاً $N(0,0.5)$ بین $[-1,1]$ بریده شده است. من می خواهم احتمال یک نمونه را محاسبه کنم، اما می دانم که در $(-1,1)$، احتمال یک رویداد منفرد 0 است. با این حال، احتمال 1 $1 است-\text{cdf} (1,0,0.5)$ و -1 $\text{cdf}(-1,0,0.5)$ است. چگونه می توان این نوع تفاوت ها را آشتی داد؟ شهود من این است که از توپ های اپسیلون در $(-1,1)$ استفاده کنم، اما این کار درستی نیست... | محاسبه احتمالات رویداد در توزیع های مختلط، گسسته/پیوسته |
100655 | من با مجموعه داده هایم و بهترین روش تجزیه و تحلیل آن مشکلات متعددی دارم. من یک سری ویژگی های فنولوژی گیاهی را اندازه گیری کرده ام (با یک مدل مجزا برای هر یک - نمی خواهم همه آنها را ترکیب کنم، بلکه هر متغیر را به صورت جداگانه تجزیه و تحلیل می کنم). داده ها در سه منطقه تو در تو در دو ترانسکت گروه بندی می شوند. من هفت گونه گیاه دارم، و داده ها در نقاط تصادفی در طول فصل رشد جمع آوری شد. مجموعه داده نامتعادل است و سلولهای گمشده زیادی دارد - به عنوان مثال، تعداد متفاوتی از اندازهگیریها از مناطق مختلف گرفته میشود، همه ترانسکتها دارای 3 نوع ناحیه در داخل خود نیستند، همه گونهها در هر ترانسکت و ترکیب بوم منطقه یافت نمیشوند، و غیره... یک مدل ANCOVA را با ناحیه تو در تو در داخل ترانسکت ها، تاریخ به عنوان متغیر کمکی، و گونه ها به عنوان یک عامل (و همچنین تعامل بین همه این اصطلاحات) اجرا کرده اند. به نظر میرسد مدل ANCOVA به خوبی اجرا میشود، اما وقتی سعی میکنم مقایسههای زوجی انجام دهم، تقریباً هیچ یک از آنها به دلیل سلولهای از دست رفته قابل تخمین نیستند. اگر من دوباره وزن کنم تا سلولهای خالی را به حساب بیاورم، آنگاه دستهای از گوبلدگوکها را بیرون میریزد که با تفاوتها با دادههای واقعی مطابقت ندارند. به من توصیه شده است که برای هر مقایسه زوجی که میخواهم آزمایش کنم، مدلهای ANCOVA جداگانه ایجاد کنم، و همه عوامل دارای دادههای از دست رفته را حذف کنم تا سلول خالی وجود نداشته باشد، و از این مدل برای بررسی مقایسههای زوجی استفاده کنم. آیا این یک رویکرد معتبر است؟ آیا راه بهتری برای این کار وجود دارد؟ | ANOVA، طراحی های نامتعادل، داده های از دست رفته و مقایسه های متعدد |
16894 | من از طریق انجام اینجا یاد میگیرم بچهها، بنابراین امیدوارم که این سؤال خوب در نظر گرفته شود (همچنان که میروم سؤال را ویرایش میکنم - مقدمه را حذف میکنم و غیره). من سعی دارم فرکانس توزیع تجمعی تجربی یک مجموعه داده را با 781 مشاهده ترسیم کنم. مجموعه داده به این شکل است: (1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 8 8 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 10 10 10 10 10 10 10 10 10 10 10 10 10 11 11 11 11 11 12 12 12 121 12 13 13 13 13 13 13 13 14 14 14 14 14 15 15 15 15 15 16 16 17 17 17 19 19 20 21 21 21 21 22 22 23). من از تابع زیر در R استفاده می کنم (که از r-bloggers برداشتم): plot(ecdf(V1), verticals=TRUE, pch=46) که نمودار زیر را تولید می کند:  EDIT ===== نمودار مشاهدات واقعی را روی محور x و درصد مشاهدات را در محور x رسم میکند. محور y از کمک شما متشکرم، slotishttype | رسم ECDF (فرکانس های توزیع تجمعی تجربی) با R |
16545 | ### پیشزمینه من معمولاً مقدار مناسبی از پیشبینی را با استفاده از ARIMA، رگرسیونهای خطی یا چند متغیره، روندهای چند جملهای، و غیره انجام میدهم. بسیاری از این پیشبینیها برای استفاده سادهای هستند و واقعاً مبنایی برای تصمیمگیری نیستند. من به طور کلی به پیش بینی و آمار پیشرفته می پردازم و می خواهم در پیش بینی و روند به ویژه برای مشکلات مهندسی برتر باشم. من چندین کلاس را در دانشگاه انجام داده ام زمانی که: آمار 1 برای مهندسین، سیستم های آماری (پوشیده، آنوا، مانوا، سری زمانی، مربع، و TSP. من همچنین یک کلاس خاص در مورد اعتبار سنجی و کالیبراسیون مدل های مهندسی انجام دادم. (آمار زیادی را پوشش نداد، اما مرتبط بود ### کاری که من انجام میدهم 1. وقتی به مجموعه دادههای سری زمانی نگاه میکنم، معمولاً ابتدا آن را رسم میکنم، هر فصلی را بررسی میکنم). 2. سپس سعی می کنم مدل را بر اساس RMSE یا MAE انتخاب کنم ) data^k(time) 4. سپس دوباره بررسی می کنم تا ببینم داده های من چگونه به نظر می رسند و چگونه برازش دارند حالت ARIMA، من به acf، pacf نگاه میکنم و وقفهها را شناسایی میکنم تا ثابتهای مناسب را ایجاد کنم، اگرچه، این میتواند بهبود یابد، زیرا معمولاً باید به یادداشتهای خود مراجعه کنم و کل فرآیند acf/pacf را درک نمیکنم. 100% هنوز (من هنوز به این موضوع مسلط نیستم). ### مشکل یک چیز این است که من هرگز در مورد پیش بینی های خود مطمئن نیستم. بله، از نظر بصری خط پیشبینی جدید با انتظارات من مطابقت دارد. من معمولاً 2 خط +/- 2*sigma اضافه می کنم. اما هنوز، چگونه می توانم بگویم، من داسوکی، این پیش بینی را تایید می کنم تا منعکس کننده داده های سال های قبل باشد. با این حال، فرض کنید ثابت ها را در یک ARIMA کمی تغییر دهم، یا از مدل بخواهم که داده های فصلی در مقابل غیر فصلی را تحلیل کند، واقعا گیج می شوم و به مرحله ای می رسم که نمی دانم برای چه آزمایشی، و وقتی من برای نرمال بودن، دقت یا اعتبار آزمایش می کنم، آیا خروجی را به درستی می خوانم؟ ### سوال * چگونه می توانم در مورد پیش بینی های خود مطمئن باشم، می دانم که همه مدل سازی ها کاذب هستند. با این حال، چگونه می توانم مطمئن باشم که فرضیاتی که انجام دادم، عواملی که استفاده کردم و نتایجی که تولید کردم تا حدودی منعکس کننده آینده هستند؟ | چگونه می توانم در مورد پیش بینی های خود مطمئن باشم و روش های خود را بهبود بخشم؟ |
97024 | من 10 مدل دارم که نرخ رشد شفیره (DR) و زمان رشد (DT) را بسته به تعدادی از عوامل تجزیه و تحلیل می کنند: m1 <- lm (DR ~ جمعیت + جنس + دما + وزن + جمعیت * دما) m2 <- lm(DR ~ جمعیت+جنس+جمعیت*جنس) m3 <- lm(DR ~ جمعیت+جنس+دما+جمعیت*دما) m4 <- gls(DR ~ جمعیت+جنس، ...) m5 <- lm(DR ~ جمعیت+جنس+دما+وزن+جمعیت*دما) m6 <- glm(DT ~ جنس + دما + وزن، گاما) ... و غیره این مدل ها به مجموعه داده های دو گونه مختلف، دو سال مختلف و فازهای مختلف شفیرگی اشاره دارد. توسعه یکی از بازبینان کنترل نرخ کشف کاذب در سطح آزمایش را درخواست کرد، که در زمینه اکولوژی چندان رایج نیست. در بسیاری از نمونههای حاصل از مطالعات ژنتیک و پزشکی، یک آزمایش تنها به یک مقدار p منجر میشود که سپس با استفاده از روشهای FDR تنظیم میشود. در مورد من چگونه کار می کند؟ استخراج مقادیر p فقط مثلاً از متغیر جمعیت و استفاده از آنها؟ و بعد همون جدا برای جنس و غیره؟ یا از تمام مقادیر p از هر یک از مدل ها به عنوان یک بردار استفاده کنید؟ اگر چنین است، در مواردی که فاکتور قبلاً از مدل نهایی حذف شده است، چه کاری باید انجام دهم - از آنها صرف نظر کنید و فقط از موارد باقی مانده استفاده کنید؟ آنها را دوباره به مدل اضافه کنید؟ | نرخ کشف کاذب مدل های رگرسیون چندگانه |
81226 | من قبلاً یک فایل قطار عظیم با ~1 گیگابایت تولید کرده ام که در آن حقیقت زمینی یکی از 4 کلاس {-1،0،1،2} است. بله، موافقم که می توانستم آن را با استفاده از 3 به جای -1 انجام دهم، اما به دلایل معمولی از -1 استفاده کردم. من می خواهم از gbm در حالت توزیع چند جمله ای استفاده کنم. آیا با نمایش منفی مشکلی ایجاد می کند یا می توانم با آن ادامه دهم؟ | نمایش یک کلاس با عدد منفی برای آموزش GBM در R |
88221 | من از یک مجموعه داده خاک با وضوح خوب برای اجرای یک مدل آب و هوا استفاده میکنم و میخواهم تأثیر تجمیع ویژگیهای خاک در وضوحهای مختلف بر خروجی مدل را بررسی کنم. به عنوان مثال اگر میانگین خواص خاک را به 1 مقدار در هر شهرستان/ایالت در مقابل 100 مقدار مختلف در هر شهرستان/ایالت به دست آوریم، نتایج چگونه متفاوت است. برای این منظور، من مقدار ویژگی خاک را در صدک های مختلف (1، 2... 100) محاسبه کردم و قصد دارم مدل را برای انتخاب چندگانه صدک ها اجرا کنم. به عنوان مثال، یک بار برای تمام مقادیر 100 صدک، یک بار دیگر برای هر مقدار صدک 5... آیا راه بهتری برای نمونه گیری وجود دارد؟ آیا فقط با استفاده از این طرح صدک ممکن است چیزی را از دست بدهم؟ با تشکر | تجزیه و تحلیل وضوح ورودی مدل |
39274 | من روی پیش بینی بار مرکز تماس کار می کنم. من حجم تماس روزانه 24 ماه گذشته را به همراه چند متغیر دارم که بر بار تماس تأثیر می گذارد. اگرچه هیچ یک از این متغیرها در مدل ARIMA معنی دار نبوده اند. مدیریت من از من خواسته است که برای دو ماه پیش بینی پیش بینی کنم. من نگران این هستم که فقط با استفاده از حجم تماس روزانه مرکز تماس در مدل آریما پیش بینی من در آینده دقیق نباشد. همبستگی خودکار حجم تماس روزانه بدتر می شود و در 5 روز به کمتر از 0.5 کاهش می یابد. من فکر نمی کنم که برای پیش بینی مقادیر 2 ماه آینده خیلی دقیق باشد. نظر شما در این مورد چیست؟ | حجم کاری مرکز تماس تا چه اندازه در آینده دقیق است |
64162 | من در حال انجام یک آزمایش عددی هستم که شامل مقایسه تقریبی محاسبات بیزی (ABC) با روشهای دیگر است. من دادههای $\boldsymbol{y}$ را از یک مدل شبیهسازی میکنم و از ABC برای دریافت نمونهای از قسمت عقبی پارامترهای $\boldsymbol{\theta}$ استفاده میکنم. آمار خلاصه $S(\boldsymbol{y})$ در مقیاسهای بسیار متفاوتی است، با کوواریانس شدیداً به پارامترهای $\boldsymbol{\Sigma}_{\boldsymbol{\theta}}$ وابسته است. برای در نظر گرفتن این موضوع، در مرحله پذیرش از فرم درجه دوم استفاده می کنم: $$ (\boldsymbol{s_i}-\boldsymbol{s}_0)\hat{\boldsymbol{\Sigma}}_{\boldsymbol{\theta} }^{-1}(\boldsymbol{s_i}-\boldsymbol{s}_0) < \epsilon $$ where $\boldsymbol{s_i}$ یک بردار شبیه سازی شده از آمار، $\boldsymbol{s_0}$ آمار مشاهده شده و $\epsilon$ تحمل است. تا به حال تقلب کردهام و از $\hat{\boldsymbol{\Sigma}}_{\boldsymbol{\theta}_0}$ استفاده کردهام که در آن $\boldsymbol{\theta}_0$ پارامترهای واقعی هستند. من فکر می کردم که انتخاب ماتریس مقیاس بندی ثانویه است (به عنوان $\epsilon \rightarrow$ 0 اهمیت کمی دارد) اما معلوم می شود که در مورد من اگر $\hat{\boldsymbol{\Sigma}}_ را تخمین نزنم {\boldsymbol{\theta}}$ واقعاً نزدیک به $\boldsymbol{\theta}_0$ الگوریتم به سادگی گیر کرده است (میزان پذیرش بسیار پایین و تعداد کمی آمار بر همه چیز حاکم است). آیا کسی روش عملی می داند که بتوان از آن برای انتخاب ماتریس وزنی در زمانی که پارامترهای واقعی ناشناخته هستند استفاده کرد؟ با تشکر | چگونه ماتریس مقیاس بندی را در ABC (بدون تقلب!) انتخاب کنیم؟ |
86373 | من باید میانگین دو مجموعه داده را باینری مقایسه کنم. به عنوان مثال: a = [1,1,0,0,0,0,0,0,0,1] b = [1,0,1,1,1,0,0,1,1,0] همه من باید بدانم که آیا میانگین ها از نظر آماری بین دو مجموعه داده تفاوت معنی داری دارند یا خیر، به عبارت دیگر ترتیب ترتیب 1 مهم نیست. و من می دانم که همه مقادیر 0 یا 1 هستند. همچنین در مورد من، اندازههای و be نسبتاً بزرگ، بزرگتر از «10000» و تعداد «1» حدود «10» تا «100» است. بهترین تست برای استفاده در این مورد چیست؟ من می دانم که نمی توانم از t-test استفاده کنم زیرا داده های من به طور معمول توزیع نمی شوند. | مقایسه میانگین دو مجموعه داده از داده های باینری |
100652 | من دو هفته دیگر پایان نامه ام را ارائه می کنم و در بخش آماری کمی مشکل دارم و اگر کسی بتواند به من کمک کند بسیار سپاسگزار خواهم بود زیرا من واقعاً نمی دانم دارم چه کار می کنم. من با تجزیه و تحلیل داده های خود با یک آزمون _F_ شروع کردم تا بتوانم آزمون _t_ مناسب را انتخاب کنم. من نتایج زیر را داشتم: F-Test Two-Sample for Variances Non-beveriever Mean 28.375 38.59550562 Variance 305.6964286 161.6072523 مشاهدات 8 89 df 7 88 F 1.89-1 0.080345387 F Critical one-tail 2.115471719 من از طریق یک ویدیوی دستورالعمل در YouTube متوجه شدم که اگر _F_ بحرانی > _F_، آنگاه واریانس های برابر داریم. از آنجایی که این وضعیت در اینجا است، من یک آزمون _t_ با فرض واریانس های مساوی انجام دادم. آیا من آن را اشتباه متوجه شدم یا آزمون درست را انتخاب کردم؟ متشکرم. | آیا بر اساس نتایج حاصل از آزمون F، آزمون تی مناسب را انتخاب کردم؟ |
11142 | من در مسابقات مدل سازی پیش بینی در Kaggle، TunedIt و CrowdAnalytix شرکت می کنم. من متوجه شدم که این سایتها راه خوبی برای تمرین برای آمار/یادگیری ماشینی هستند. * آیا سایت های دیگری وجود دارد که باید درباره آنها بدانم؟ * همه شما در مورد مسابقاتی که میزبان قصد دارد از ارسال های رقبا سود ببرد، چه احساسی دارید؟ /ویرایش: در اینجا یک لیست کامل تر است: Kaggle TunedIt Clopinte KDD Cup Innocentive Crowdanalytix Topcoder | سایت هایی برای مسابقات مدل سازی پیش بینی |
88220 | من می خواهم داده های یک مطالعه کوهورت را تجزیه و تحلیل کنم که ارتباط بین تبعیض درک شده و پیامدهای سلامت روان (مانند پریشانی روانی) را در دو زمان (T0 و T1) بررسی می کند. هدف ارزیابی این است که آیا یک رویداد (که بین T0 و T1 اتفاق افتاده است) می تواند میزان ارتباط بین قرار گرفتن در معرض (مثلاً تبعیض درک شده) و نتیجه را تغییر دهد یا خیر. هر دو نتیجه و قرار گرفتن در معرض در T0 و T1 اندازه گیری شد. آیا این پیکربندی است که می توانم از معادلات تخمین عمومی استفاده کنم؟ اگر چنین است، چگونه می توانم نمرات تبعیض های درک شده را معرفی کنم؟ خیلی ممنون | تجزیه و تحلیل اندازه گیری های مکرر و متغیرهای کمکی مکرر |
69489 | برای تهیه یک پرسشنامه جدید برای اندازه گیری هوشیاری ناجیان غریق، پس از جمع آوری داده ها از ادبیات مختلف، 20 مقیاس را یافتم که به هوشیاری ناجیان غریق کمک می کند. سپس شروع به طراحی سوالات برای هر مقیاس کردم به این صورت که در هر مقیاس چند سوال (4 تا 10 سوال) با صورت متفاوت اما با مفهوم یکسان وجود دارد. در نهایت من به 142 مورد رسیدم. اکنون می خواهم تحلیل عاملی را برای اعتبار سازه انجام دهم. نمیدانم میتوانم به جای سطح آیتم، FA را در سطح مقیاس اجرا کنم یا نه. (مقیاس ها و آیتم های هر مقیاس دارای اعتبار صوری نیز هستند.) | تحلیل عاملی در سطح آیتم یا مقیاس؟ |
64166 |  من از کتابخانه vars در R برای ترسیم fanchart و پیش بینی ها از طریق بردار مدل تصحیح خطا استفاده می کنم. من از این کد استفاده کرده ام: b<-ts(KtF,start=1921,end=2009,frequency=1) vecmfemales<-ca.jo(b,type=trace,spec=transitory) vecm.level < - vec2var (vecmfemales، r = 3) vecm.females<-predict(vecm.level,n.head=50,start=1921,frequency=1) plot(vecm.females) fanchart(vecm.females) نمودار من روی ابسیسا با شاخص عددی که با 0 شروع می شود و به 100 ختم می شود. اما در نمودارهای من به تقویم های سال از 1921 تا 2009 نیاز دارم. علاوه بر این، من میخواهم سالهای پیشبینی تا سال 2059 را نیز دریافت کنم. سعی میکنم بسته را از Pfaff (2013) بخوانم، اما او فقط ابسیسا را به عنوان شاخص ارائه میکند نه به عنوان سال تقویم. لطفاً کسی می تواند به من کمک کند تا کدهای خود را بهبود بخشم تا فقط سال های تقویم را دریافت کنم؟ این کدهای بالا کدهای من هستند. متشکرم! | پیش بینی ها را از طریق vecm با استفاده از سال های تقویم ترسیم کنید |
16540 | ### زمینه: این طرح است: * 11 بیمار برای پارامتر پاسخ قبل و بعد از یک درمان خاص مورد بررسی قرار گرفتند. * 12 بیمار کنترل سالم از نظر پارامتر پاسخ مورد بررسی قرار گرفتند (درمانی دریافت نکردند). اعداد ارائه شده نسبتاً کوچک هستند و پارامتر پاسخ ممکن است به طور معمول توزیع نشده باشد، به همین دلیل است که فکر می کنم آمار غیر پارامتری بهتر است. بنابراین، من می خواهم فرضیه صفر را آزمایش کنم: > هیچ تفاوتی در پارامتر پاسخ وجود ندارد، همچنین پس از تنظیم برای > سن و جنسیت. من از R استفاده می کنم. متغیرهای گروه، سن، جنس، پاسخ ### سوال: * چگونه این فرضیه را آزمایش کنم؟ * آیا ANCOVA با استفاده از پارامتر پاسخ رتبه بندی شده مناسب است؟ از آنجایی که اندازه گیری ها در 11 بیمار جفتی است (قبل و بعد از درمان)، من شک دارم که اصلا بتوانم از ANCOVA استفاده کنم. | چگونه می توان تنظیم ناپارامتری ANCOVA را برای تفاوت های سن و جنس انجام داد؟ |
21050 | من با powerTransform مشکل دارم - برای مثال، به تازگی نتوانسته است یک متغیر کاملاً معمولی (برای من) را تبدیل کند، با خطای زیر Error در optim(start, llik, hessian = TRUE, method = method, . ..) : L-BFGS-B به مقادیر محدود fn نیاز دارد در اینجا داده ها وجود دارد: http://www.tropic.org.uk/~crispin/boxcoxerror > require(car) > data = read.table (boxcoxerror) > mean(data) V1 39401.55 > sd(data) V1 5381.04 > powerTransform(data$V1) خطا در optim(start, llik, hessian = TRUE, method = روش، ...) : L-BFGS-B به مقادیر محدود fn نیاز دارد هر نکته ای؟ | R powerTransform روی دادههای به ظاهر خوب با شکست مواجه میشود |
69480 | من از تابع confint() بسته R metafor برای محاسبه ناهمگنی در مدل های اثرات تصادفی در یک متاآنالیز استفاده کرده ام. من مقادیر معقولی را برای پارامترهای مختلف ('tau', 'tau^2', 'I^2') برای اکثر محاسباتی که انجام دادهام دریافت میکنم، اما برای هر سه پارامتر برای یک تجزیه و تحلیل خاص 0 مقدار را برمیگردانم. من داده های خام را بررسی کرده ام و هیچ چیز به طرز مشکوکی با آنچه برای محاسبات دیگر استفاده می شود متفاوت به نظر نمی رسد. خروجی «confint()» که من دریافت می کنم به شرح زیر است. برآورد ci.lb ci.ub tau^2 0.0000 0.0000 0.1061 tau 0.0000 0.0000 0.3257 I^2(%) 0.0000 0.0000 60.4187 H^2 1.0000 تاو 0.0000 آیا هر کسی ممکن است ایده ای داشته باشد دریافت یک تخمین 0 با 0 به عنوان انتهای پایینی فاصله اطمینان؟ هر گونه فکر بسیار قدردانی خواهد شد. | تاو، تاو مربع و من مربع = 0 |
64163 | من با مشکل طبقه بندی متن مواجه هستم و باید نمونه ها را به 34 گروه طبقه بندی کنم. مشکل این است که اندازه داده های آموزشی 34 گروه متعادل نیست. برای برخی از گروه ها 2000+ نمونه دارم، در حالی که برای برخی فقط 100+ مثال دارم. برای برخی از گروه های کوچک، دقت طبقه بندی بسیار بالا است. من حدس می زنم که آن گروه ها ممکن است کلمات کلیدی خاصی برای تشخیص و طبقه بندی داشته باشند. در حالی که برای برخی، دقت پایین است و پیش بینی همیشه به گروه های بزرگ می رود. من می خواهم بدانم چگونه با مشکل مثال فرکانس پایین برخورد کنم. آیا به سادگی کار داده های گروه کوچک را کپی و کپی می کند؟ یا باید داده های آموزشی را انتخاب کنم و حجم داده ها را گسترش داده و متعادل کنم؟ پیشنهادی دارید؟ | چگونه با مثال های کم فرکانس در طبقه بندی برخورد کنیم؟ |
21058 | من برخی از داده های سری زمانی دارم که در آن متغیر اندازه گیری شده اعداد صحیح مثبت گسسته (شمارش) است. من می خواهم آزمایش کنم که آیا روند صعودی در طول زمان وجود دارد (یا نه). متغیر مستقل (x) در محدوده 0-500 و متغیر وابسته (y) در محدوده 0-8 قرار دارد. من فکر کردم که این را با برازش رگرسیون به شکل «y = کف(a*x + b)» با استفاده از حداقل مربعات معمولی (OLS) پاسخ میدهم. چگونه می توانم این کار را با استفاده از R (یا پایتون) انجام دهم؟ آیا بسته ای برای آن وجود دارد یا بهتر است الگوریتم خودم را بنویسم؟ PS: می دانم که این تکنیک ایده آل نیست، اما باید یک تجزیه و تحلیل نسبتاً ساده انجام دهم که واقعاً بتوانم آن را درک کنم - پیشینه من زیست شناسی است نه ریاضی. می دانم که فرضیات مربوط به خطا در متغیر اندازه گیری شده و استقلال اندازه گیری ها را در طول زمان نقض می کنم. | چگونه یک رگرسیون مانند $y=\lfloor ax+b \rfloor$ را در R قرار دهیم؟ |
49674 | من به دنبال پاسخ هایی مشابه این پست هستم، اما برای توزیع F به جای توزیع عادی. به نظر می رسد با درخواست کد منبع زنگ خطر را به صدا درآورده ام. یک پاسخ غیر کدگذاری شده نیز مفید خواهد بود، اگرچه به نظر میرسد مسائل اجرای غیرمشخص مانند کسرهای ادامه دار، دقت ممیز شناور، الگوریتمهای مختلف برای محدودههای ورودی مختلف و غیره وجود دارد. هر پاسخی با توضیح کافی برای فعال کردن «کاهش در تمرین» بسیار قدردانی خواهد شد. البته کد منبع کامل ترین و بدون ابهام ترین پاسخ از همه است. اگر سوال من خارج از محدوده این انجمن است عذرخواهی می کنم. من نمی خواهم به هیچ وجه از این منبع ارزشمند سوء استفاده کنم. | کد منبع برای محاسبه تابع توزیع تجمعی برای توزیع F؟ |
64164 | من در حال انجام تحقیقات (تا حدودی غیرمنتظره) در مورد دقت چندین الگوریتم برای محاسبه یک مقدار در صورت داده شدن مجموعه ای از متغیرهای تجربی جمع آوری شده، از جمله زمان هستم. مسئله این است که ارزش واقعی برای من در دسترس نیست و هیچ راهی برای تعیین تجربی آن ندارم. آیا راهی برای مقایسه کمی پیشبینیهای چندین الگوریتم بدون مقدار تجربی وجود دارد که بتوان با آن مقایسه کرد؟ من به شدت احساس برهنگی می کنم بدون هیچ گونه تحلیل خطا. من در نظر داشتم همبستگی بین نتایج مختلف را نسبت به یکدیگر نشان دهم، اما به نظر میرسد این استفاده نامناسب از همبستگی است - بدیهی است که نتایج به هم مرتبط هستند، زیرا از بسیاری از متغیرهای مشابه استفاده میکنند. یک تشبیه برای وضوح: بگویید من چهار الگوریتم دارم که بر اساس متغیرهای مختلفی مانند گونه درخت، محتوای شیمیایی خاک، عرض جغرافیایی، طول جغرافیایی، میانگین دمای محیط، ارتفاع درخت را پیشبینی میکند. همه اینها از متغیرهای کمی متفاوت استفاده می کنند و نتایج متفاوتی را تولید می کنند، زیرا بر اساس تحقیقات متفاوتی هستند. بنابراین آزمایشی انجام میشود، ویژگیهایی که الگوریتمها استفاده میکنند اندازهگیری میشوند و درختان رشد میکنند. اینجاست که قیاس من از بین میرود، زیرا در مورد من مسئله این است که ارتفاع درخت را نمیتوان به صورت کمی اندازهگیری کرد. بنابراین من نمیتوانم پیشبینیهای الگوریتمها را با واقعیت مقایسه کنم - میتوانم بگویم که آیا آنها معقول هستند یا خیر. بر اساس عقل سلیم و ترتیب بزرگی آنها، اما من نمی توانم دقت را محاسبه کنم. آیا روش های کمی وجود دارد که بتوان در این مورد استفاده کرد؟ | چگونه می توان دقت الگوریتم های پیش بینی را در زمانی که مقدار پیش بینی شده حاوی خطای اندازه گیری است مقایسه کرد |
18197 | پروژه ای برای پیاده سازی مدل SIRS به من داده شده است. در حین جستجوی نحوه انجام این کار، این سایت و یک سوال مربوط به مدل اپیدمی را پیدا کردم. این بسیار به پروژه من مرتبط است و بسیار مفید است. با این حال، از آنجایی که من با این موضوع جدید هستم، می توانید در مورد نحوه شروع پیاده سازی مدل SIRS به من کمک کنید. من باید یک شبیه ساز در جاوا پیاده سازی کنم. من هیچ ایده ای در مورد چگونگی شروع پیاده سازی ندارم. اگه کمکم کنید واقعا ممنون میشم. | چگونه مدل SIRS را پیاده سازی کنیم؟ |
64161 | من مشکلی دارم که در آن باید تشخیص دهم که مجموعه خاصی از نقاط داده از کدام موضوع آمده است. به طور خاص، مشکل من این است که باید نشان دهم که آزمودنیهای من (N=9) میتوانند از یکدیگر متمایز شوند، با هدف آینده طبقهبندی آنها بر اساس IV. هر آزمودنی معیارهای تکراری متغیرهای یکسان را دارد. داده های من را می توان به صورت زیر در نظر گرفت: موضوع جلسه x1 x2 A 1 5 110 A 2 7 115 B 1 15 84 B 2 12 91 . . . . . . . . . . . . I 1 18 106 I 2 15 100 آیا استفاده از LDA یک رویکرد معتبر برای طبقه بندی موضوعات بر اساس متغیرهای اندازه گیری شده است؟ من نگرانم که اینطور نباشد، زیرا هر گروه فقط 1 موضوع دارد (همانطور که به عنوان موضوع تعریف شده است!). من می دانم که اقدامات احتیاطی ویژه باید با طراحی اقدامات مکرر داده ها انجام شود. با این حال، در حال حاضر من بیشتر نگران اعتبار استفاده از LDA برای طبقه بندی موضوعات هستم. با تشکر از شما برای ورودی شما! | تجزیه و تحلیل تشخیص خطی: استفاده از موضوع به عنوان طبقه بندی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.