_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
76364
من یک روش پیش آزمون، پس آزمون انجام دادم و سعی کردم یک آزمون t انجام دهم تا نشان دهم چگونه نمرات خواندن از پاییز تا بهار افزایش یافته است. من مطمئن نیستم که اعداد من دقیق هستند یا خیر. چیزی که من را ناامید می کند، فرضیه صفر است. طبق محاسبات من با استفاده از اکسل، 7.37 دلار \ برابر 10^{-27} دلار یا 0.0000000000000000000000000000737 است (برای یک آزمون t زوجی، 2 دنباله). آیا این واقع بینانه است؟ درک من این است که برای رد فرضیه صفر باید به <.05 برسید. و آزمون های تی محاسبه شده من واقعا کوچک هستند. آیا این به این معنی است که من می توانم فرضیه صفر را رد کنم و بگویم کاری که برای افزایش نمره خواندن انجام دادم مؤثر بود؟ همچنین برخی از دانش آموزانی که در پاییز امتحان داده بودند، در اواسط سال از کلاس من انصراف دادند و در آزمون بهاره شرکت نکردند. آیا آن سلول ها را خالی می گذارم یا آنها را با صفر پر می کنم؟ یا فقط وانمود کنم که آن بچه ها هرگز وجود نداشته اند؟ چقدر این نتایج را از بین می برد؟ با تشکر
آزمون t زوجی برای حمایت از افزایش نمرات خواندن دانش آموزان از پاییز تا بهار
44229
من از SigmaPlot برای اجرای PCA روی اندازه‌گیری‌های مختلف استفاده می‌کنم که همگی باید با اندازه یک حیوان مطابقت داشته باشند. اجرای PCA با استفاده از یک ماتریس کوواریانس (به جای ماتریس همبستگی، زیرا همه اندازه‌گیری‌ها در واحدهای یکسان اندازه‌گیری می‌شوند)، علیرغم نسبت نسبتاً بالایی از واریانس توضیح داده شده، مقادیر ویژه واقعاً بسیار کوچکی را برای سه رایانه شخصی اول به همراه داشت. من خوانده ام که نسبت واریانس توضیح داده شده باید با مقدار ویژه مطابقت داشته باشد، اما مطمئن نیستم که چگونه (و به نظر نمی رسد که بفهمم). با توجه به نسبت واریانس توضیح داده شده، چگونه مقادیر ویژه را محاسبه کنم (یعنی تأیید کنم که SigmaPlot نوعی خطا ایجاد نمی کند). با تشکر
چگونه می توانم واریانس های توضیح داده شده توسط یک جزء اصلی را به یک مقدار ویژه تبدیل کنم؟
76365
من سعی می کنم SVM یک کلاس را در R انجام دهم. سعی کردم از پکیج kernlab e1071/ksvm استفاده کنم. اما مطمئن نیستم که آیا آن را به درستی انجام می دهم. آیا نمونه کاری برای SVM یک کلاس در R وجود دارد؟ همچنین، * من یک ماتریس بزرگ از پیش‌بینی‌کننده‌ها را به عنوان X می‌دهم. از آنجایی که قرار است یک کلاسه باشد، آیا این فرض که تمام داده‌های آموزشی که داده‌ام، کلاس «مثبت» هستند؟ اگر چنین است، ما مجبور نیستیم برچسب Y را بدهیم؟ * برچسب های پیش بینی شده به عنوان خروجی درست/نادرست هستند. بنابراین من فرض می کنم، True کلاس مثبت است. ویرایش: در حال پیوست کردن کد نمونه. در اینجا من 60٪ از کلاس TRUE را نمونه برداری کردم و روی مجموعه داده کامل آزمایش کردم. library(e1071) library(caret) data(iris) iris$SpeciesClass[iris$Species==versicolor] <- TRUE iris$SpeciesClass[iris$Species!=versicolor] <- FALSE trainPositive< -زیر مجموعه(عنبیه،SpeciesClass==درست) inTrain<-createDataPartition(1:nrow(trainPositive),p=0.6,list=FALSE) trainpredictors<-iris[inTrain,1:4] testpredictors<-iris[,1:4] testLabels<-iris[,6] svm .model<-svm(trainpredictors,y=NULL, type='one-classification', nu=0.5, scale=TRUE, kernel=radial) svm.pred<-predict(svm.model,testpredictors) confusionMatrixTable<-table(Predicted=svm.pred,Reference=testLabels) confusionMatrix(confusionMatrixTable,positive=' ')
نمونه هایی برای One class SVM در R
31597
من تابع احتمال زیر را دارم: $$\text{Prob} = \frac{1}{1 + e^{-z}}$$ که $$z = B_0 + B_1X_1 + \dots + B_nX_n.$$ مدل من به نظر می رسد $$\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-3.92 + 0.014\times(\text{bid})]\right)}$$ این از طریق یک منحنی احتمال که شبیه شکل زیر است، نمایش داده می‌شود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/JjQzf.png) اکنون، من در نظر دارم چند متغیر را به معادله رگرسیون اصلی خود اضافه کنم. بنابراین فرض کنید جنسیت (طبقه بندی: F و M) و سن (طبقه: < 25 و > 26) را به مدل اضافه می کنم. بنابراین من به این نتیجه رسیدم: $$\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-3.92 + 0.014\times(\text{bid}) + 0.25\times(\ text{gender}) + 0.15\times(\text{age})]\right)}$$ اکنون، در R می‌توانم یک منحنی احتمال مشابه ایجاد کنم که نشان می‌دهد احتمال Y=1 هنگام محاسبه هر سه پیش بینی کننده. جایی که گم شده‌ام این است که می‌خواهم احتمالات را برای هر تغییر احتمالی این تغییرات پیدا کنم. بنابراین وقتی bid = 1، جنسیت = M، و سن >= 26 است، احتمال Y = 1 چقدر است. به طور مشابه، وقتی پیشنهاد = 2، جنسیت = F، و سن >= 26 است، احتمال Y چقدر است. = 1. من می خواهم یک منحنی احتمال ایجاد کنم که به من امکان می دهد این را تجسم کنم. کسی میتونه کمک کنه؟ من ممکن است کاملاً متوجه نشده باشم که چه نوع اطلاعاتی را می توان از یک مدل لاجیت به دست آورد، اما لطفاً به من بگویید که آیا این نظریه را نیز درک نمی کنم.
نمودار یک منحنی احتمال برای یک مدل لاجیت با پیش بینی کننده های متعدد
78014
من قصد دارم برای ایجاد جدول احتمال شرطی برای یک شبکه بیزی، همبستگی رتبه را با استفاده از احتمال بیش از حد از متخصص دامنه استخراج کنم. احتمال بیش از حد به دست آمده توسط مقادیر تخمین زده شده قبلی محدود می شود. من باید مرزهای پایین و بالایی را برای احتمال بیش از حد برای استخراج های بعدی بدانم. چگونه می توان این را محاسبه کرد؟ متشکرم
چگونه می توان مرزهای احتمال تجاوز را در حین استناد از کارشناسان محاسبه کرد؟
113888
من در حال انجام دو تست تی نمونه بر روی دو گونه ماهی هستم. t.test(fish1,fish2) برای یک سال اجرا می شود، بنابراین برای هر ماهی 365 مقدار وجود دارد، یعنی $(1,0,1,0,0,2...)$ و $(0,0,01, 21,0,5...)$. با این حال، $df = 368.586، t=2.2205، p=0.02699$، و فاصله اطمینان 95%: $(0.1454645، 2.3970013)$. میانگین های نمونه عبارتند از Mean of x mean of y 1.5452055. 0.2739726 با توجه به اینکه df بزرگتر از مقداری است که من دارم، فکر می کنم جایی اشتباه شده است.
دو نمونه تست $t$ در R: کجا اشتباه شد؟
33996
چگونه می توانم بفهمم که الگوریتم نزولی گرادیان تصادفی همگرا است یا خیر. من نمی توانم تابع هدف خود را رسم کنم و میانگین آن را برای مثال در هر 1000 تکرار برای مشاهده روند بگیرم. تابع هدف من خود بزرگ است، بنابراین محاسبه خود تابع هدف زمان زیادی می برد. در این شرایط، چگونه می توان تعیین کرد که آیا الگوریتم همگرا است یا خیر. من می دانم که مقادیر پارامتر باید چقدر باشد. اما من می بینم که الگوریتم حول مقداری که کوچکتر از مقدار واقعی است در نوسان است. تابع من یک ماکزیمم جهانی دارد. پس باید به آن حداکثر برسد، اینطور نیست؟ تابع مقعر است
چگونه بفهمیم نزول گرادیان تصادفی همگرا است
83267
من سعی می کنم یادگیری پراکنده PCA/Dictionary را انجام دهم، یعنی تجزیه یک ماتریس $X\تقریبا UV$ که در آن ماتریس بارگیری $V$ پراکنده است، معمولاً با یک جریمه $\ell_1$ (تفاوت بین PCA پراکنده و یادگیری فرهنگ لغت) اجرا می شود. اینکه آیا بعد داخلی $U$ و $V$ بزرگتر از بعد کوچکتر $X$ است یا خیر). در داده‌های من، ستون‌های X$ بسیار بزرگ هستند (سفارش $10^8$) اما بسیار پراکنده (سفارش $10^2$). آیا الگوریتم های تخصصی برای مورد داده های پراکنده وجود دارد؟ آنلاین یک مزیت است.
یادگیری پراکنده PCA/Dictionary وقتی ویژگی‌ها بسیار کم هستند؟
78019
من می خواهم از HMM برای فیلتر کردن استفاده کنم، یعنی $p(x_t|y_{1:t})$ را پیدا کنم. من می بینم که الگوریتم فوروارد متغیر فوروارد را به عنوان یک احتمال مشترک محاسبه می کند. $\alpha_t(i) = p(y_{1:t},x_t=S_i|\lambda)$، به معنی مشترک مشاهدات تاکنون و وضعیت فعلی $S_i$ است، با توجه به پارامترهای HMM $\lambda$. برای پیدا کردن $p(x_t|y_{1:t})$، به نظر می‌رسد که مجموع همه آلفاها در زمان t برای یافتن $p(y_{1:t}|\lambda) حاشیه‌ای = \sum_{i=1 باشد. }^{N}\alpha_t(i)$. حال، اگر $\alpha_t(i)$ را برای هر یک از N حالت ممکن با این حاشیه عادی کنم، توزیع حاصل باید $p(x_t|y_{1:t})$ باشد. آیا این صدا خوب است؟
فیلتر کردن با HMM
47514
من یک رگرسیون چند جمله ای انجام می دهم و سعی می کنم نتایج را تفسیر کنم: در مدل پایه فقط یک متغیر پیش بینی کننده باینری وجود دارد (0 = سناریوی ریسک بالا، 1 = سناریوی کم خطر)، متغیر وابسته دارای 3 دسته است (استراتژی 1،2 یا 3). خروجی نشان می‌دهد که مدل قابل‌توجه است و بیشتر لاجیت‌ها نیز وجود دارد. با این حال، من در تعجب هستم که چگونه می توان logits (مهم) رهگیری ها را تفسیر کرد. من آن را اینگونه تفسیر می کنم: احتمال انتخاب استراتژی 1 بر 2 در یک سناریوی بدون ریسک (رهگیری؟) بیشتر/پایین تر است و بقیه را ثابت نگه می دارد. آیا این راه درستی برای تفسیر آن است؟ پیشاپیش ممنون
معنی رهگیری در رگرسیون چندجمله ای با پیش بینی کننده های باینری؟
31590
زمینه: من روی برنامه‌ای کار می‌کنم که به تنفس/خروپف گوش می‌دهد و با توجه به مکث‌های بین نفس‌ها، آپنه را «تشخیص می‌دهد». در بیشتر موارد این کار خوب است، اما تشخیص خروپف/تنفس از صحبت کردن/موسیقی (مثل تلویزیونی که در اتاق پخش می‌شود) (به طرز شگفت‌انگیزی) دشوار است. من تکنیک‌های پردازش سیگنال را برای تشخیص این موضوع کاملاً خسته کرده‌ام، بنابراین در حال امتحان برخی معیارهای آماری اولیه هستم. من دریافتم که صرفاً در نظر گرفتن انحراف استاندارد نرمال شده بازه تنفس/خروپف نسبتاً مؤثر است (مقادیر زیر تقریباً 0.35 خوب هستند)، اما نمی‌دانم که آیا ممکن است معیار دیگری برای تغییر وجود داشته باشد، به غیر از انحراف استاندارد، که می‌تواند نتایج بهتری را ایجاد کنید (خط جداکننده واضح تر). اساساً، من می‌خواهم «خروپف، خروپف، خروپف، مکث، خروپف» را از رشته‌ای تصادفی از فواصل با همان میانگین (مانندی که با صدا دریافت می‌کنید) متمایز کنم، با توجه به این که خروپف/تنفس دقیقاً منظم نیست. بنابراین چه معیارهای دیگری (به طور منطقی ساده) برای تغییر در یک قطار از اعداد وجود دارد؟ **به روز رسانی:** به ذهنم می رسد که اندازه گیری چولگی ممکن است در اینجا مفید باشد. احتمالاً موزیک/صدا نسبت به تنفس/خروپف دارای انحراف کمتری است. چگونه می توان چولگی (به ویژه با نوعی میانگین متحرک) را اندازه گیری کرد؟ **به روز رسانی 2:** من چند نمونه از لیست های فاصله زمانی را در Dropbox قرار داده ام: * صدا: http://dl.dropbox.com/u/72976325/intervalData_holm.csv * موسیقی: http://dl.dropbox. com/u/72976325/intervalData_epica.csv * نمونه خروپف شماره 1: http://dl.dropbox.com/u/72976325/intervalData_P1005.csv * نمونه خروپف شماره 2: http://dl.dropbox.com/u/72976325/intervalData_P1009.csv
برخی از معیارهای رایج تغییر در یک بازه چیست؟
107675
من برخی از داده های دوره زمانی دارم که ترسیم شده به این صورت است: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/W2YE7.png) من سعی می کنم یک مدل برای آن با استفاده از `nlme.lme ایجاد کنم ()`. من با R از طریق RPy و از کد زیر استفاده می کنم: nlme.lme(r.formula('Pupil~CoI*Time'),random=r.formula('~1|ID'),correlation=nlme.corCAR1 (),data=dfr) بنابراین فرمول من 'Pupil~CoI*Time' است، اثرات تصادفی من '~1|ID' و ساختار همبستگی من است `corCAR1()` **سوالات** من عبارتند از: * چگونه فرمول خود را (و جلوه های تصادفی؟) تغییر دهم تا یک دوره زمانی غیرخطی همانطور که در داده های من دیده می شود به دست بیاورم؟ در حال حاضر من مقادیری را برای توابع درجه اول دریافت می کنم - که مفید نیست. من هیچ مبنای نظری ندارم که بر اساس آن به طور خاص ریشه های مربع یا توان و غیره را به فرمول اضافه کنم، تنها چیزی که می دانم خطی است کافی نیست. * چگونه تصمیم بگیرم که از چه ساختار همبستگی برای محاسبه همبستگی خودکار استفاده کنم؟ من این را انتخاب کردم زیرا در توضیحات کتابچه راهنمای ETHZ R کلمه همبستگی خودکار ذکر شده است، اما متأسفانه من چیز زیادی از آن توضیحات مختصر نمی فهمم.
نحوه مدل سازی دوره های زمانی غیر خطی با nlme
78013
من سعی می کنم اشیاء درون هسته یک سلول را مشخص کنم. این اشیاء روشن‌تر از پس‌زمینه هستند، و وقتی پس‌زمینه را حذف می‌کنم و توزیع فرکانس اشیاء را ترسیم می‌کنم، می‌دانم که توزیع با یک توزیع دوجمله‌ای گاما یا منفی مطابقت دارد. راه مناسب برای انتخاب مدل، درک اساس یک مدل و اعمال منطقی آن در موقعیت خود است. آیا کسی می تواند به من بینش بدهد یا به من جهت استفاده از هر یک از مدل ها را بدهد؟
نحوه توجیه استفاده از توزیع گاما برای تجزیه و تحلیل تصویر بیولوژیکی
89943
میانگین توزیع فراهندسی این است: $n \frac{K}{N}$ که در آن: * $n$ تعداد ترسیم‌ها است * $K$ تعداد موفقیت‌ها است * N اندازه جمعیت محدود است. از آنجایی که اندازه جمعیت، $N$، به بی نهایت می رود، انتظار دارم وضعیتی با جایگزینی داشته باشم، و میانگین آن به میانگین توزیع دوجمله ای همگرا شود، اما در عوض میانگین به 0 همگرا می شود (فرمول را ببینید ). چرا این طور است؟
رابطه میانگین توزیع ابر هندسی و دوجمله ای
65865
این مجموعه داده ای است که من در حال حاضر روی آن کار می کنم، که داده های تولید است. داده ها: > test.ts ژان فوریه مارس آوریل می ژوئن جولای آگوست سپتامبر اکتبر نوامبر دسامبر 1990 0.0 10.8 180.0 418.2 1991 561.9 517.9 531.3 448.1 254.9 49.0 49.0 49.0 49.0 3. 526.2 1992 597.2 581.5 596.4 518.4 378.3 209.9 32.1 0.0 0.0 7.9 166.7 571.7 1993 650.4 578.5 250.4 578.5 0.0 0.0 0.0 0.0 39.5 289.2 638.9 1994 643.8 533.8 410.9 159.3 0.0 0.0 0.0 0.0 0.0 38.3 322.8 684.9 684.9 533.8 1995. 415.4 113.0 20.7 12.1 0.0 0.0 13.6 316.3 677.5 1996 754.5 683.4 719.6 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 774.5 808.1 847.9 677.8 208.7 9.9 0.0 0.0 0.0 5.2 296.4 794.9 1998 952.0 873.1 732.0 264.6 0.0 0.0 3.00. 245.8 833.0 1999 843.5 812.3 708.3 275.2 10.8 0.0 0.0 0.0 0.0 5.4 300.4 884.9 2000 949.0 898.708.614 0.0 0.0 0.0 8.5 367.2 1000.8 2001 1092.1 987.7 864.3 392.8 41.8 0.0 0.0 0.0 0.0 7.0 425.0 2302.0 9602.0 1018.0 696.0 209.0 26.0 0.0 0.0 0.0 0.0 63.0 823.0 2003 1066.0 930.0 929.0 1071.0 614.0 614.0 120.0 0.0 0.0 120.0 1005.8 2004 1043.0 1051.9 863.2 279.1 8.0 0.0 0.0 0.0 0.0 67.8 597.1 1120.3 2005 1087.9 10520.9 10520.9 10520.9 0.0 0.0 0.0 78.3 683.3 1139.2 2006 1185.5 1162.1 1131.3 386.9 16.4 1.2 0.0 0.0 0.0 7.1 7237.5 149.1 728.5 149. 1341.0 1652.9 1279.3 386.4 14.3 0.0 0.0 0.0 0.0 102.5 1570.1 2008 1864.7 1786.7 1523.9 480.9 422.0 0.0 0.0 0.0 192.4 1556.9 2009 1260.8 763.8 284.1 6.1 0.0 0.0 0.0 0.0 0.0 0.0 73.8 1495.6 2010 1280.8 1280.8 12858.2 1287.8 0.0 0.0 0.0 0.8 182.0 1524.9 2011 1461.5 1497.7 1111.5 108.6 0.0 0.0 0.0 0.0 0.0 2.9 519.3 1201.5 1201.5 1201.3 1380.4 295.2 7.7 0.0 0.0 0.0 0.0 0.1 225.0 1677.6 2013 1686.2 1420.0 1691.0 795.0 0.0 من از بسته auto.arima(.) از fore استفاده کردم کد: ARIMAfit <- auto.arima(test.ts) test.ar <- forecast(ARIMAfit, level=70, h=12) در زیر خروجی دریافت کردم: > test.ar Point Forecast Lo 70 Hi 70 Jun 2013 -4.429870 -186.37952 177.5198 جولای 2013 -4.429870 -261.74553 252.8858 آگوست 2013 -4.429870 -319.57590 310.7162 سپتامبر 2013 -4.429870 -368.32916 359.421 - 359.4216 -410.26858 403.4350 نوامبر 2013 296.121405 -149.56239 741.8052 دسامبر 2013 1505.197792 1023.80428 1986.5914 1986.5914 962.56457 1991.8272 فوریه 2014 1327.574562 781.72562 1873.4235 Mar 2014 1423.251183 847.87588 1995 A6206.6206. -53.25183 1153.6656 May 2014 -1.892754 -632.18482 628.3993 سؤالات: 1. چرا خروجی مقدار منفی را نشان می دهد، در حالی که هیچ مقدار منفی در داده های تاریخی وجود نداشته است؟ داده تولیدی است که نمی تواند منفی باشد. 2. آیا کلاس مدل دیگری وجود دارد که مقادیر صفر را به طور مناسب مدیریت کند؟ لطفا کمک کنید
چرا auto.arima() خروجی منفی می دهد؟
71638
لطفاً می‌توانید مزیت راه‌اندازی را در مثال زیر به من بگویید: sampleOne <- تابع(x) نمونه (x، جایگزین = TRUE) sampleMany <- تابع(x, n) replicate(n، sampleOne(x)، ساده سازی = FALSE ) listMeans <- تابع(x, n) lapply(sampleMany(x, n)، mean) bootData <- تابع(x,n) do.call(rbind, listMeans(x,n)) sampleSize <- 100000 numBoots <- 1000 # توزیع اریب چپ # shape1 = a و shape2 = b set.seed(400) popSkewLeft <- rbeta(sampleSize, shape1 = 5, shape2 = 1) hist(popSkewLeft) skewLeftbootData <- bootData(popSkewLeft, numBoots) (populationMean <- mean(popSkewLeft))# Mean = a/(a+b) = (5)/(5+1) = 0.8333333 (bootMean <- mean(skewLeftbootData)) (populationSd sd(popSkewLeft)) #sd = sqrt(ab/((a+b)^2 (a+b+1))) = sqrt((5*1)/((5+1)^2*(5+1+1))) = 0.140859 (bootSd <- sd(skewLeftbootData) * sqrt(sampleSize)) من یک جمعیت چوله سمت چپ ایجاد کردم همانطور که از کد بالا قابل مشاهده است. من انحراف معیار نمونه را هم محاسبه کردم. انحراف معیار جمعیت با استفاده از معادله توزیع بتا محاسبه شد. انحراف استاندارد نمونه و خطای استاندارد بوت شده * جذر اندازه نمونه تقریباً یکسان است. در واقع انحراف استاندارد نمونه به پارامتر جمعیت نزدیکتر است.
چرا برای محاسبه خطای استاندارد بوت استرپ می شود؟
47515
**زمینه** من یک سری زمانی از بارهای سازه ای دارم که نیروها بر روی شناور اقیانوس لنگر اندازه گیری می شود و باید مقدار دوره بازگشت را به دست بیاورم تا سازه بتواند به گونه ای طراحی شود که حداکثر بار مورد انتظار در طوفان را تحمل کند. دوره بازگشت از سری های زمانی اندازه گیری شده به روش زیر تخمین زده می شود: ابتدا یک آستانه انتخاب می کنم و قله های بالای این آستانه را شناسایی می کنم. انتظار می‌رود رویدادهای شدید دارای توزیعی به نام توزیع پارتو تعمیم‌یافته (GPD) باشند، بنابراین من اوج‌ها را با آن توزیع تطبیق می‌دهم. سپس تناسب GPD معکوس می شود تا بار مربوط به احتمال یک دوره زمانی انتخابی (3 ساعت) را نشان دهد. این بار مقدار دوره بازگشت نامیده می شود. من از برنامه‌ای به نام WAFO استفاده می‌کنم که روال‌های تجزیه و تحلیل ارزش شدید را از S-Plus برای انجام این تحلیل می‌گیرد. **مشکل** مشکل این است که چگونه می توان کیفیت تخمین دوره بازگشت را ارزیابی کرد. WAFO نمودارهای چندکی تولید می کند که نشان می دهد چقدر پیک ها با GPD مطابقت دارند، یک مقدار p برای بررسی کیفیت تناسب، یا مرزهای اطمینان در تخمین دوره بازگشت. اما به نظر می رسد این 3 تشخیص با هم تضاد دارند. گاهی اوقات نمودار q-q نشان می دهد که بسیاری از پیک ها با GPD (بد) مطابقت ندارند، اما مقدار p برای برازش بالا (خوب) و مرزهای اطمینان باریک (خوب) است. گاهی اوقات مرزهای اطمینان بسیار گسترده هستند (بد) اما نمودار q-q نشان می دهد که قله ها با GPD (خوب) همخوانی دارند. حس اصلی من این است که ممکن است کیفیت پایین باشد زیرا ما داده ها را فقط برای مدت زمان محدودی اندازه گیری کردیم و احتمالاً نویز اندازه گیری وجود دارد. **سوال**: چگونه می توانم تشخیص دهم که تخمین دوره بازگشت خوب در مقابل بد است؟
چگونه می توان کیفیت برآورد دوره بازگشت را ارزیابی کرد؟
47512
**زمینه** در یک مطالعه آنلاین کوچک از افراد (100=n) پرسیدم که کدام محصولات را خریداری خواهند کرد. مجموعه انتخابی شامل 20 محصول بود که آنها باید نشان می دادند که آیا محصولی را خریداری می کنند یا خیر (= فرمت DV، بله/خیر). پاسخ دهندگان می توانند برای هر تعداد محصول بله را نشان دهند. IV ها ویژگی های محصول و ارائه بودند. **فرمت داده** resp_id (در ردیف)، buy_prod_1، buy_prod_2 ... و IVs در ستون ها **تحلیل های قبلی** من یک رگرسیون لجستیک ساده در Stata انجام دادم. برای این کار، داده‌هایم را تغییر دادم تا یک خط برای هر پاسخ‌دهنده و هر محصول (100*20 خط، buy_prod و IVs در ستون‌ها) وجود داشته باشد. در رگرسیون لجستیک buy_prod DV من بود. **مشکل** من نمی دانم چگونه این واقعیت را که انتخاب های محصول برای هر پاسخ دهنده مستقل نیستند، ادغام کنم، یعنی چگونه DV های مختلف را به روش درست در یک مدل ترکیب کنم.
چگونه یک رگرسیون لجستیک را با چندین متغیر وابسته مرتبط اجرا کنیم؟
55389
فرض کنید من می خواهم بفهمم که چگونه رشد درآمد متوسط ​​بر رشد درآمد فقرا تأثیر می گذارد. برای این من 60 کشور و برای هر کشور درآمد فقرا و متوسط ​​درآمد برای 6 سال دارم. من در مورد چگونگی انجام رگرسیون از این مطمئن نیستم. من میانگین رشد سالانه را بر حسب درصد برای متوسط ​​درآمد و درآمد برای فقرا محاسبه کرده ام. از آنچه که من درک می کنم، این به من درصد تغییر به جای درصد تغییر می دهد، بنابراین یک رگرسیون خطی ساده خواهد بود. با این حال، من برخی از آموزش‌ها را دیده‌ام که امتیازهای درصد را ثبت می‌کنند و یک رگرسیون لاگ ایجاد می‌کنند. کدام یک از این دو روش صحیح است؟ ویرایش: مقادیر مثال: کشور A: * میانگین درآمد برای فقرا برای 4 سال: 1990:150، 1991: 260، 1992:300، 1993: 400 * میانگین درآمد برای 4 سال: 1990:340، 1991:600 710، 1993:1000 رشد سالانه مرکب ضعیف: 38.67% رشد سالانه مرکب همه: 43.28% بگو من این کار را برای 60 کشور انجام می دهم، بنابراین برای متوسط ​​رشد سالانه درآمد فقرا (در درصد): 21.10، 16.23، 12.34، 23.25 دریافت خواهم کرد. ، 11.12، 13.55 و غیره و برای میانگین رشد سالانه اگر درآمد همه: 43.13، 35.31، 56.31 و غیره باشد و من یک رگرسیون روی آنها انجام دهم و بگویم y = 2.433 + 0.6 x . بنابراین اگر درآمد همه یک واحد افزایش یابد، درآمد فقرا 0.6 واحد افزایش می یابد. آیا این درست است که بگوییم افزایش 1 درصدی در میانگین درآمد همگان منجر به تغییر 0.6 درصدی میانگین درآمد فقرا می شود؟ یا درصد تغییر است؟
رگرسیون با درصد
47517
هدف روش های یادگیری هسته چندگانه ساخت یک مدل هسته است که در آن هسته ترکیبی خطی از هسته های پایه ثابت است. سپس یادگیری هسته شامل یادگیری ضرایب وزن برای هر هسته پایه است، نه بهینه سازی پارامترهای هسته یک هسته. به نظر می رسد معایب یادگیری چندین هسته این است که تفسیرپذیری و هزینه محاسباتی کمتری دارند (برای ارزیابی خروجی مدل باید همه هسته های پایه را ارزیابی کنید). بنابراین اگر بتوان عملکرد مشابهی را با بهینه‌سازی یک هسته به دست آورد، مزایای MKL چیست؟
مزایای روش های یادگیری چند هسته ای (MKL) چیست؟
89941
من سعی می کنم به صورت بصری مقایسه کنم که چگونه سه نشریه خبری مختلف موضوعات مختلف را پوشش می دهند (تعیین شده از طریق مدل موضوع LDA). من دو روش مرتبط برای انجام این کار دارم، اما بازخوردهای زیادی از همکاران دریافت کردم که این کار چندان شهودی نیست. امیدوارم کسی در آنجا ایده بهتری برای تجسم این موضوع داشته باشد. در نمودار اول، نسبت هر موضوع را در هر نشریه نشان می‌دهم، مانند این: تقریباً برای همه کسانی که با آنها صحبت کرده ام شهودی است. با این حال، دیدن تفاوت بین انتشارات دشوار است. کدام روزنامه به کدام موضوع بیشتر می پردازد؟ برای رسیدن به این موضوع، من تفاوت بین نشریه با بیشترین و دومین نسبت موضوعات را ترسیم کردم، که توسط نشریه دارای بیشترین نسبت رنگ آمیزی شد. مانند این: ![تفاوت بین اولین و دومین موضوع برتر](http://i.stack.imgur.com/mgB7p.png) بنابراین، برای مثال، نوار بزرگ فوتبال، واقعاً فاصله بین الاهرام انگلیسی است. و دیلی نیوز مصر (شماره 2 در پوشش فوتبال)، و رنگ آن قرمز است زیرا الاهرام شماره 1 است. به طور مشابه، آزمایش‌ها سبز است زیرا Egypt Independent بالاترین نسبت را دارد و اندازه نوار فاصله بین Egypt Independent و Daily News Egypt (دوباره شماره 2) است. این واقعیت که باید توضیح دهم که همه در دو پاراگراف یک نشانه کاملاً مطمئن است که نمودار در آزمون خودکفایی مردود است. با نگاه کردن به آن، تشخیص اینکه واقعاً چه اتفاقی در حال رخ دادن است، دشوار است. آیا پیشنهاد کلی در مورد چگونگی برجسته کردن بصری انتشار غالب برای هر موضوع به روشی شهودی تر دارید؟ **ویرایش: داده هایی برای بازی کردن:** در اینجا خروجی «dput» از R و همچنین یک فایل CSV است. **ویرایش 2:** در اینجا یک نسخه طرح نقطه اولیه وجود دارد، با قطر نقاط متناسب با نسبت موضوع در مجموعه (که به این ترتیب موضوعات در ابتدا مرتب شده اند). اگرچه هنوز هم باید کمی بیشتر آن را تغییر دهم، اما بسیار شهودی تر از آنچه قبلا انجام می دادم به نظر می رسد. با تشکر از همه! ![نقطه نقطه](http://i.stack.imgur.com/2pc2N.png)
چگونه می توان تفاوت ها را در نسبت های مختلف در سه گروه به بهترین وجه تجسم کرد؟
31593
من در حال حاضر سعی می کنم دقت اندازه گیری دو دستگاه را با هم مقایسه کنم. با این حال، من از یکی از دستگاه ها به عنوان استاندارد طلایی استفاده می کنم تا در مورد دقت دستگاه دیگر چیزی بگویم. کمیتی که می‌خواهم اندازه‌گیری کنم، فاصله (عمق) تا یک نقطه در یک صحنه (تصویر) است. من از یک اسکنر لیزری استفاده می کنم که مختصات (x,y,z) را برای یک نقطه به من می دهد و از هندسه نوری برای دادن مختصات (x,y,z) برای همان نقطه استفاده می کنم. اندازه گیری پایه (یا مرجع) من اندازه گیری اسکنر لیزری است. من از این به عنوان یک استاندارد طلا استفاده می کنم. من اکنون یک اندازه گیری مربوطه از سیستم اندازه گیری مبتنی بر هندسه نوری دارم. من اندازه گیری های مربوط به 1000 نقطه را دارم. خطای تفاوت بین اینها را میانگین می‌گیرم و یک خطای میانگین دریافت می‌کنم. اما این خطا از این واقعیت غفلت می کند که اسکنر لیزری نیز یک سیستم اندازه گیری است و خطای خاص خود را دارد. این با دقت +/- 5 میلی متر برای یک جسم در برد 10 متر ارائه می شود. چگونه می توانم این را در یک متریک دقت برای سیستم مبتنی بر هندسه نوری بگنجانم؟
چگونه می توانم دقت دو دستگاه اندازه گیری را در حالی که یکی از آنها مرجع است مقایسه کنم؟
108214
در بسته «caret»، گزینه ای برای منتسب کردن داده های از دست رفته با استفاده از درخت های تصمیم وجود دارد. من قبلاً داده‌های خود را با نمونه‌برداری از داده‌های گمشده از یک توزیع نسبت داده‌ام. همچنین، من به جای تکیه بر بسته «caret»، متغیرهای مهم را برای گنجاندن در مدل تعیین کردم. به طور کلی، آیا بهتر است به جای اتکا به بسته «کارت»، داده ها را خودتان پاک کنید؟
Imputation با استفاده از بسته caret در مقابل imputation بدون آن
100544
من از یک مدل رگرسیون گامای تنظیم‌شده صفر (ZAGA دو بخشی) برای تخمین اثر یک عامل طبقه‌بندی روان‌سنجی (بازیابی مورد انتظار، با 3 سطح) بر هزینه‌های مرتبط با درمان پس از آسیب شلاق استفاده می‌کنم. من حدود 15 متغیر/درجه آزادی دارم که با نتیجه هزینه و عوامل مخدوش کننده بالقوه مرتبط است. مدل دو بخشی ZAGA با یک رگرسیون لجستیک برای احتمال داشتن هزینه صفر و یک مدل گاما (با استفاده از پیوند log) برای کسانی که نتیجه هزینه > 0 دارند مناسب است. من می‌دانم که محدودیت‌هایی با این نوع مدل‌ها برای هدف وجود دارد. علاقه، اما به دلایل مختلف باید فعلاً به آن پایبند باشیم. برای بخش لجستیک، ما تنها 19 مشاهده با هزینه صفر داریم، بنابراین نمی توانیم از متغیرهای کمکی زیادی استفاده کنیم. همچنین مشخص نیست که متغیرهای کمکی اندازه‌گیری شده چگونه با احتمال داشتن هزینه‌های صفر مرتبط هستند (یعنی تصمیم به دنبال نکردن گزینه‌های درمانی بیشتر). بنابراین ما در نهایت از یک رویکرد رگرسیون گام به گام دو مرحله ای استفاده کردیم، از جمله در مدل لجستیک تنها دو متغیر کمکی که ارتباط تک متغیره قابل توجهی با I (هزینه = 0) داشتند. از سوی دیگر، ما توانستیم همه متغیرهای کمکی را در مدل گاما قرار دهیم (بیش از 300 مشاهده هزینه غیر صفر داریم). هیچ دو متغیر کمکی همبستگی > 0.8 نداشتند، بنابراین تصمیم گرفتیم همه آنها را در مدل نگه داریم. ما می خواهیم مدل خود را به درستی تأیید کنیم، با در نظر گرفتن این که هدف اصلی تأثیر عامل (بالقوه قابل تغییر) ادراک بازیابی مورد انتظار و هزینه مراقبت های بهداشتی یک ساله (در مقابل پیش بینی) است. برای من مشخص نیست، 1) آیا می توانستیم کار بهتری در فرآیند انتخاب مدل انجام دهیم، 2) راه های مناسب برای اعتبارسنجی چنین مدل دو بخشی و به طور بالقوه اعمال انقباض برای مقابله با برازش بیش از حد ممکن چیست. هر گونه ایده / پیشنهاد / نظر بسیار قدردانی خواهد شد. ممنون، نیکلاس
اعتبار سنجی یک مدل گامای تنظیم شده صفر
108847
من روی یک پروژه نرم افزاری کار می کنم که شامل تجزیه و تحلیل آماری سیگنال های میوالکتریک (EMG) است. یک مشتری درخواست محاسبه میانگین تعدیل شده را برای یک بازه سیگنال معین کرد. توضیحات او به شرح زیر است: $$\text {AdjustedMean} = \text{Mean} + \frac{\text{StandardDeviation}^2}{\text{Mean}}$$ او این توضیح را در مورد آن برای من ارسال کرد: > میانگین تعدیل شده برای تصحیح موقعیت هایی با انحراف استاندارد بالا، مانند مواردی که با الکترومیوگرافی یافت می شود، استفاده می شود. من خیلی جستجو کردم، اما هیچ مرجعی برای چنین فرمولی پیدا نکردم. بیشتر ارجاعات به میانگین تعدیل شده مربوط به ANCOVA است، و سپس میانگین با متغیر دیگری تنظیم می شود، نه نسبت به انحراف استاندارد همان متغیر. (ویرایش، طبق درخواست WHuber) مشتری من این ملاحظات دیگر را در مورد آنچه که قصد دارد با میانگین تعدیل شده انجام دهد دارد: > میانگین تعدیل شده همبستگی خطی بهتری با نیروی عضلانی اعمال شده (اندازه گیری شده توسط دینامومتر) نسبت به نیروی تنظیم نشده نشان می دهد. میانگین این > برای انقباضات/نیروهای قوی تر مشهودتر است، زیرا در این صورت واحدهای موتوری بیشتر و در نتیجه مقادیر الکتریکی به کار گرفته می شوند. نوسان گسترده تر». مقاله دیگری که خوانده ام، پوشش دامنه EMG را به عنوان خود انحراف استاندارد (متحرک؟) تعریف می کند، یک تعریف متفاوت از یکسوسازی + صاف کردن رایج تر.
فرمول میانگین تعدیل شده - آیا این درست است؟
100546
من سعی می‌کنم داده‌هایی را ترسیم کنم که فقط دو مقدار ممکن دارند - '1' (حال) یا '0' (غایب) - به وضوح توزیع نرمال نیست. حداکثر مقدار می تواند 1 باشد، اما نوارهای انحراف استاندارد من به 1.3 می رسد، که غیرممکن است. من سعی کردم حجم نمونه را افزایش دهم، اما حداکثر مقدار ستون + انحراف استاندارد هنوز 1.3 است. آیا اشکالی ندارد که نمودار من را دستکاری کنم و نوارهای ستون خود را روی 1 بگذارم زیرا امکان ندارد مقدار نمونه بزرگتر از 1 داشته باشد؟
انحراف استاندارد از حداکثر مقدار بیشتر است
108845
هنگام اجرای رگرسیون لجستیک باینری در SPSS، ابتدا معیاری از توانایی پیش‌بینی یک مدل بدون متغیرهای مستقل (مدل پایه) به دست می‌آورم. سپس این با مدل حاوی متغیرهای مستقل مقایسه می شود. اگر تفاوتی بین توانایی پیش‌بینی مدل‌ها وجود نداشته باشد، آیا هر گونه اهمیتی که توسط متغیرها نشان داده می‌شود نامربوط است یا حاوی مقداری است؟
متغیرهای قابل توجه، اما هیچ بهبودی در توانایی پیش بینی مدل
31591
گزارش های خبری حاکی از آن است که سرن فردا اعلام خواهد کرد که بوزون هیگز به صورت تجربی با شواهد 5$\sigma$ شناسایی شده است. طبق آن مقاله: > 5$\sigma$ برابر است با احتمال 99.99994% که داده‌هایی که آشکارسازهای CMS و ATLAS > مشاهده می‌کنند فقط نویز تصادفی نیستند - و 0.00006% احتمال دارد که > آنها گمراه شده باشند. 5$\sigma$ اطمینان لازم برای اینکه چیزی > رسماً به عنوان کشف علمی شناخته شود، است. این خیلی سخت نیست، اما به نظر می رسد که فیزیکدانان از روش آماری استاندارد آزمایش فرضیه استفاده می کنند و $\alpha$ را روی $0.0000006$ تنظیم می کنند که با $z=5$ (دو دنباله) مطابقت دارد؟ یا معنای دیگری دارد؟ البته در بسیاری از علوم، تنظیم آلفا روی 0.05 به طور معمول انجام می شود. این معادل شواهد two-$\sigma$ خواهد بود، اگرچه من هرگز نشنیده ام که آن را به این نام می نامند. آیا زمینه های دیگری (به جز فیزیک ذرات) وجود دارد که در آن تعریف بسیار دقیق تر از آلفا استاندارد باشد؟ کسی مرجعی می داند که چگونه قانون پنج-$\sigma$ توسط فیزیک ذرات پذیرفته شد؟ **به روز رسانی:** این سوال را به یک دلیل ساده می پرسم. کتاب من آمار زیستی شهودی (مانند اکثر کتاب‌های آماری) بخشی دارد که توضیح می‌دهد که قانون معمول P<0.05 چقدر دلخواه است. من می خواهم این مثال از یک زمینه علمی را اضافه کنم که در آن مقدار بسیار (بسیار!) کوچکتر $\alpha$ ضروری در نظر گرفته می شود. اما اگر مثال در واقع با استفاده از روش‌های بیزی پیچیده‌تر باشد (همانطور که برخی از نظرات زیر نشان می‌دهند)، آنگاه چندان مناسب نخواهد بود یا نیاز به توضیح بسیار بیشتری دارد.
منشأ آستانه 5$\sigma$ برای پذیرش شواهد در فیزیک ذرات؟
78012
من یک روش میانگین گیری مدل با استفاده از بسته MuMIN با GLM دو جمله ای هستم. یکی از متغیرهای توضیحی من یک عامل طبقه بندی شده درمان با 5 سطح (T1، T2، T3، T4 و T5) است. من همچنین دارای 2 متغیر توضیحی باینری Gender و Employed هستم. من همچنین تمام تعاملات 2 طرفه را در نظر گرفته ام. glm(y ~ Gender*Employed+Gender*Treatment+Treatment*Employed,data=data1,family=binomial) من می دانم که چون آنها یک تعامل است، باید متغیرهای باینری خود را متمرکز کنم. من خیلی مطمئن نیستم که با متغیر طبقه بندی خود چه کنم. آیا باید متغیر درمان را به 5 متغیر ساختگی (0/1) تبدیل کنم و با کم کردن میانگین آنها را در مرکز قرار دهم؟ سپس آنها را به شکل زیر در مدل قرار دهید؟ در مدل زیر T5 مرجع من خواهد بود بنابراین در مدل گنجانده نشده است. glm(y ~ جنسیت*شاغل+جنس*T1+T1*شاغل+جنس*T2+T2*Employed+Gender*T3 +T3*EmployedGender*T4+T4*Employed, data=data1,family=binomial) اگر من این کار را انجام دهید من می دانم که مدل های برتر ممکن است شامل همه سطوح درمان نباشند. آیا این هنوز منطقی است؟ همچنین این مدل تمام سطوح T5 را با سطوح دیگر مقایسه می کند. اگر بخواهم بدانم که همه سطوح درمان با یکدیگر چه تفاوتی دارند، آیا باید در مجموع 5 مدل بسازم که هر بار شامل تمام سطوح درمان به جز یک سطح می شود؟
میانگین‌گیری glm دو جمله‌ای با یک عبارت توضیحی طبقه‌بندی شده را مدل کنید
47516
من با این مقاله در مورد تیم داده کاوی در کمپین انتخاب مجدد اوباما مواجه شدم. متأسفانه، مقاله در مورد ماشین آلات واقعی الگوریتم های آماری بسیار مبهم است. با این حال، به نظر می رسید که تکنیک های عمومی در علوم اجتماعی و سیاسی شناخته شده است. از آنجایی که این حوزه تخصص من نیست، آیا کسی می‌تواند به من درباره ادبیات (بررسی کلی) این نوع تکنیک‌ها اشاره کند؟
تکنیک های داده کاوی در مبارزات انتخاباتی اوباما
47519
من می خواهم یک مدل رگرسیونی از نوع تخمین بزنم: $ load_t = seasonality_t + trend_t + \beta * temperature_t، $ و من داده های بار و دما در فرکانس بالا (داده های ساعتی) دارم. تصور من این است که دما در همان فرکانسی که بار را اندازه‌گیری می‌کنم بر بار تأثیر نمی‌گذارد (یعنی تغییر دما برای 2 یا 3 ساعت به معنای تغییر فوری در بار نیست). اینگونه است که من کاربرد مفهوم انسجام را درک می کنم، همانطور که در http://eprints.nuim.ie/1968/1/JR_C81dfisf.pdf سعی کردم میانگین دمای روزانه را نگاه کنم و از آن در رگرسیون استفاده کنم، اما نتایج راضی کننده نیست چگونه می‌توانیم دما را به بهترین نحو در یک مدل کاربردی بگنجانیم؟ هر نکته ای؟ مراجع خوب؟
بارگذاری مدل پیش‌بینی با داده‌های دما
86320
من از مقیاس لیکرت برای یک گروه 3 سوالی استفاده می کنم. 1. کاملا موافقم 2. موافقم 3. بلاتکلیفم 4. مخالفم 5. کاملاً مخالفم من 3 سوال با این پاسخ های احتمالی تحت دسته اثربخشی دارم. آیا می توان پاسخ های 3 سوال را با هم ترکیب کرد تا پاسخی معنادار بدهد؟ به عنوان مثال: پاسخ های Q1، Q2، Q3 2، 3، 5 هستند. آیا می توان این سه پاسخ را به نحوی با هم ترکیب کرد؟ آیا می توان از اینها نمره ترکیبی گرفت؟
آیا می توان نمرات ترکیبی مقیاس لیکرت را به دست آورد؟
48052
یک سناریوی فرضی از دو رویداد را فرض کنید. در طول رویداد 1، مجموعه‌ای از مقادیر $[X_1، X_2، X_3،...، X_n]$ را مشاهده می‌کنم. یک پدیده فیزیکی رخ می دهد و این رویداد 2 را برای مدت کوتاهی آغاز می کند و من در نهایت مجموعه دیگری از مقادیر $[Y_1, Y_2,Y_3,...,Y_n]$ را در طول آن زمان مشاهده می کنم. من چیزی در مورد توزیع های اساسی نمی دانم. من تعدادی جفت $X-Y$ دارم و می‌خواهم روشی برای تشخیص اینکه مقادیر Y عموماً بزرگتر از مقادیر X$$ هستند را برای بررسی بیشتر تشخیص دهم. جفت ها قابل مقایسه نیستند - یعنی من نمی توانم از مقادیر $X$ از موضوع دیگری برای اطلاع دادن به من در مورد توزیع استفاده کنم، با این حال، در حالت صفر، من انتظار دارم که $X$ و $Y$ باید از توزیع تقریباً یکسانی باشند. اولین تلاش من این است که اگر میانه مقادیر مشاهده شده از رویداد 2 بیشتر از مقادیر مشاهده شده در رویداد 1 باشد، رویداد 2 را به گونه ای تعریف کنم که دارای اهمیت باشد. ، چنین مقایسه ای چه مشکلاتی دارد، یعنی چه زمانی این کار شکست خواهد خورد؟ * اگر این خوب نیست، آیا می توانم از چیزی مانند KL-Divergence یا JS-Divergence برای درک میزان واگرایی استفاده کنم (و اگر فراتر از یک آستانه است، نتیجه گیری کنم که رویداد 2 مهم است)؟ * آیا مقایسه واگرایی مزیتی نسبت به میانه دارد؟ فکر می کنم می خواهم تغییر قابل توجهی را به عنوان یک رویداد تشخیص دهم. هر گونه توضیح بسیار قدردانی خواهد شد.
مقایسه توزیع ها بر خلاف میانه ها؟
100548
من دو بردار از داده‌های مشاهده‌شده «obs1» و «obs2» و دو بردار از داده‌های مورد انتظار «exp1» و «exp2» دارم. همه وکتورها اندازه های مختلفی دارند. من دو تست مستقل یک طرفه کولموگروف-اسمیرنوف (KS) را انجام دادم: ks.test(obs1, exp1, alternative='greater')' و ks.test(obs2,exp2,alternative='greater')'. ارزیابی کنید که آیا obs1 و obs2 به طور قابل توجهی بیشتر از بردارهای مورد انتظار مربوطه exp1 و exp2 هستند یا خیر. اکنون من علاقه مندم ببینم کدام یک از دو مورد 'obs' توزیعی را نشان می دهد که به طور قابل توجهی به سمت مقادیر پایین تر تغییر کرده است، که از نظر آزمون KS 'بزرگتر' است. اساساً ایده این است که obs1 و obs2 را با در نظر گرفتن تفاوت آنها با توزیع exp مربوطه خود مقایسه کنیم (من تست KS دو طرفه را بین obs1 و obs2 امتحان کردم، اما به این ترتیب من این کار را نمی‌کنم. انحرافات آنها را از «exp1» و «exp2» به ترتیب در نظر بگیرید). کسی پیشنهادی داره؟ با تشکر از همه!
چگونه دو تست KS مستقل را با هم مقایسه کنیم؟
103230
اجازه دهید $\Theta$ مقداری از فضای پارامتر باشد و $\Theta_1,\Theta_2,\dots,\Theta_s \subset \Theta$ زیر مجموعه‌های پارامتر باشد که مدل‌های رقیب را در برخی از روش‌های انتخاب مدل نشان می‌دهند. هیچ فرضی در مورد مهار یا عدم اتصال $\Theta_i$ ساخته شده وجود ندارد. فرض اساسی انتخاب مدل بیزی این است که احتمال عقبی مدل $\Theta_i$ بر اساس قانون بیز $$P(\Theta_i | D) \propto P(\Theta_i) \int_{\Theta_i} L (\theta | د) dQ_i(\theta) $$ که در آن $D$ مخفف داده است، $L$ احتمال، $Q_i$ قبل شرطی توزیع مدل $\Theta_i$ و $P(\Theta_i)$ قبلی. سوال من این است: **منظور ما از احتمال قبلی $P(\Theta_i)$ چیست؟** قبلی باید باور پیشینی ما را مبنی بر اینکه $\Theta_i$ به نوعی مدل درستی است بیان کند، بنابراین ممکن است کسی به این موضوع برسد. با چیزی شبیه $\text{Prob}(\theta_0 \in \Theta_i)$، که در آن $\theta_0$ پارامتر واقعی تولید کننده داده است (با فرض اینکه فعلاً یکی باشد). با این حال، این تعریف کار نمی کند زیرا پارامتر واقعی ممکن است در چندین مدل موجود باشد. روش دیگری برای پرسیدن این سوال: **فرض کنید که پارامتر واقعی $\theta_0$ را می دانم، کدام قبلی را باید انتخاب کنم؟** آیا باید مفهوم پارامتر ناشناخته درست را کنار بگذاریم؟ آیا مدل‌سازی با مجموعه‌های همپوشانی $\Theta_i$ ناسازگار است؟
در صورت تلاقی مدل ها، چگونه پیشین های مدل را تفسیر کنیم؟
108198
من فقط از فرمول استاندارد برای تعیین اندازه نمونه یک نمونه برای مطابقت با میانگین یک جمعیت با حاشیه خطای 3 درصد و با احتمال 90٪ استفاده کردم. می‌دانم که می‌خواهم بررسی کنم که میانگین نمونه من در واقع در 3٪ حاشیه خطای میانگین در جامعه است. برای انجام این کار، من جامعه را انتخاب می‌کنم و نمونه را اضافه می‌کنم، مشاهدات موجود در نمونه را با یک ساختگی به نام نمونه شناسایی می‌کنم. سپس رگرسیون زیر را اجرا می کنم: نمونه reg var1 و در حال آزمایش هستم که آیا ضریب نمونه متغیر ساختگی کمتر از 3 درصد است یا خیر. برای انجام این کار از آزمون t یک طرفه استفاده می کنم. اما این فقط زمانی خوب است که ضریب متغیر ساختگی نمونه دارای علامت درست باشد. من می خواهم فرضیه اتصال را آزمایش کنم که ضریب نمونه متغیر ساختگی بزرگتر از 3- و کمتر از 3 است. آیا کسی اطلاعاتی در مورد نحوه انجام این تست دارد؟ پیشاپیش ممنون
تایید نمایندگی یک نمونه، پس از نمونه گیری تصادفی ساده
31592
من در مورد رفتار پیش بینی کننده های غیر همبسته در رگرسیون لجستیک کمی متحیر هستم. همانطور که در OLS، من فکر کردم که اگر دو پیش‌بینی‌کننده («rv1» و «rv2») همبستگی نداشته باشند، وزن‌های رگرسیونی «rv1» از رگرسیونی که فقط «rv1» را شامل می‌شود به یکی که شامل «rv1» است تغییر نخواهد کرد. rv2. با این حال، به نظر می رسد که این مورد در رگرسیون لجستیک صادق نیست و ضرایب بین دو مدل رگرسیون تغییر می کند، حتی اگر پیش بینی کننده ها همبستگی نداشته باشند. من مقداری دستور R را در زیر قرار داده ام که این رفتار را نشان می دهد. چرا اینطور است و وزن های رگرسیون از دو رگرسیون (یکی با فقط rv1 و دیگری با rv1 و rv2) چگونه به یکدیگر مرتبط هستند؟ آیا راهی وجود دارد که بدانیم وزن رگرسیون rv1 چقدر خواهد بود اگر وزن رگرسیون rv1 را در رگرسیونی که شامل هر دو پیش بینی می شود بدانیم؟ با تشکر P.S. این پست در سایت پاسخ آماری نامرتبط دیگری ارسال شده است. library(MASS) #تولید بسیاری از داده‌ها (من می‌دانم مدیریت داده‌ها کمی عجیب است) n <- 10000 rdta <- as.data.frame(mvrnorm(n=n,c(0,0),ماتریس(c( 1,0,0,1),2,2),Empirical=TRUE)) نامها(rdta) <- c(rv1،rv2) #تأیید کنید که preds نامرتبط هستند cov(rdta$rv1,rdta$rv2) rv1 <- rdta$rv1 rv2 <- rdta$rv2 rv1ry <- 1 rv2ry <- 1 #تولید داده باینری از ضرایب رگرسیون شناخته شده ylinp <- (1 / (1+exp(-(-1 + rv1*rv1ry + rv2*rv2ry)))) y <- rbinom(n,1,ylinp) glm(y~rv1+rv2,family=binomial(link='logit')) glm(y~rv1,family=binomial(link=' logit')) glm(y~rv2,family=binomial(link='logit')) #تأیید کنید که OLS رگرسیون همانطور که انتظار می رود کار می کند (وزن رگرسیون تغییر نمی کند) rv1y <-.222 rv2y <-.333 y <- rv1y * rv1 + rv2y * rv2 + rnorm(n,0,.5) lm(y~rv1+rv2) lm (y~rv1) lm(y~rv2) مطمئن نیستم که قرار است مربوطه را نیز بچسباند خروجی اینجاست، اما اینجا می‌رود: نتایج OLS > lm(y~rv1+rv2) فراخوانی: lm(فرمول = y ~ rv1 + rv2) ضرایب: (برق) rv1 rv2 0.001096 0.220051 0.333072 ~rv1m)(y (فرمول = y ~ rv1) ضرایب: (برق) rv1 0.001096 0.220051 > lm(y~rv2) فراخوانی: lm(فرمول = y ~ rv2) ضرایب: (برق) rv2 0.001096 0.333072 رگرسیون نتایج >g glm(ry~rv1+rv2،family=binomial(link='logit')) فراخوانی: glm(فرمول = ry ~ rv1 + rv2، خانواده = دوجمله ای (لینک = logit)) ضرایب: (واصل) rv1 rv2 - 1.001 1.916 2.469 > glm(ry~rv1،family=binomial(link='logit')) فراخوانی: glm(فرمول = ry ~ rv1، خانواده = دوجمله ای(لینک = logit)) ضرایب: (Intercept) rv1 -0.5495 1.0535 > glm( ry~rv2,family=binomial(link='logit')) تماس بگیرید: glm(فرمول = ry ~ rv2، خانواده = دو جمله ای (پیوند = logit)) ضرایب: (برق) rv2 -0.6538 1.6140
وزن‌های رگرسیون لجستیک پیش‌بینی‌کننده‌های غیرهمبسته
33998
من یک دانشجوی فارغ التحصیل هستم که روی پایان نامه ای کار می کنم که هدف آن آزمایش مکمل بودن بین 2 عمل است (CI و INNO، بر اساس تئوری supermodularity). برای انجام این کار، من دو متغیر جدید (هر کدام به عنوان میانگین 6 متغیر دیگر) مربوط به 2 عمل را محاسبه کردم، سپس از آنها 4 متغیر باینری را بر اساس ترکیب این دو استخراج کردم (یعنی از میانه های دو متغیر استفاده کردم. به عنوان آستانه، سپس چهار دسته مانند 11،10،01،00 ایجاد کرد: `HH,LH,HL,LL`). من این چهار باینری (به علاوه دو متغیر پیوسته و سه ساختگی دیگر به عنوان کنترل) را گرفتم و یک رگرسیون چندگانه روی Y (عملکرد عملیاتی) بدون یک عبارت ثابت اجرا کردم. من از هر دو SPSS و Stata استفاده کردم، اما دو نتیجه بسیار متفاوت به دست آوردم. نمیفهمم چرا!!! علاوه بر این، ماتریس های همبستگی نتایج یکسانی را به دست دادند. در اینجا همه نتایج آمده است: **SPSS** متغیرهای a,b از مدل بتا در t Sig خارج می شوند. Correlazioni parziali Statistiche di collinearità Tolleranza VIF Tolleranza minima 1 LL .c . . . 000 . 000 a. متغیر متغیر: PERF_medio b. Regressione lineare che passa per l'origine c. مدل پیش‌بینی‌کننده: صنعت T، صنعت M، صنعت، HL، LH، HH، log_age، ضریب log_size غیر استاندارد B STD ERROR DEV LH ,188 ,110 HL ,156,115 HH ,467 ,102 log_size ,308_,0, ,039 industryE 3,416 ,244 industrialM 3,487 ,255 industrialT 3,551 ,246 همانطور که می بینید، متغیر `LL` مستثنی شده است. Stata این را رد نمی کند. علاوه بر این، آزمایش‌های چند خطی نتایج مثبتی به دست می‌دهند، در حالی که VIF که با Stata پس از رگرسیون انجام می‌شود، نتایج مثبتی را نشان نمی‌دهد. **STATA:** رگرسیون PERF_medio LL LH HL HH log_size log_age صنعتE صنعتM صنعتT، یادداشت ثابت: صنعتM به دلیل همخطی بودن حذف شد منبع SS df MS تعداد obs = 190 F( 8, 182) = 12526.58 مدل 6. 331.796025 Prob > F = 0.0000 باقیمانده 48.1709704 182 .264675662 R-squared = 0.9822 Adj R-squared = 0.9814 مجموع 2702.53914 M.53914 190. .51447 PERF_medio | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ LL | 3.486898 .2548016 13.68 0.000 2.984153 3.989643 LH | 3.675309 .2746033 13.38 0.000 3.133493 4.217124 HL | 3.643261 .2646596 13.77 0.000 3.121066 4.165457 HH | 3.954367 .2753474 14.36 0.000 3.411083 4.49765 log_size | .008443 .0400578 0.21 0.833 -.0705944 .0874803 log_age | -.0027773 .0393044 -0.07 0.944 -.0803283 .0747737 industrialE | -.0706952 .0935333 -0.76 0.451 -.2552442 .1138538 صنعتM | 0 (حذف شده) صنعتT | .0639002 .0960992 0.66 0.507 -.1257117 .253512 estat vif، متغیر بدون مرکز | VIF 1/VIF ------------------------------------ اندازه log | 42.17 0.023711 HH | 16.90 0.059170 LL | 15.21 0.065753 log_age | 12.70 0.078726 LH | 10.26 0.097499 HL | 8.73 0.114505 صنعتT | 2.23 0.447811 industrialE | 2.21 0.451551 -------------+----------------------- میانگین VIF | 13.80 بنابراین، SPSS «LL» را مستثنی می کند، اما Stata این کار را نمی کند. چه اشکالی دارد؟ چرا ضرایب اینقدر متفاوت است؟
تفاوت بین Stata و SPSS در نتایج رگرسیون چندگانه
114152
در این مقاله فعلی در SCIENCE موارد زیر پیشنهاد شده است: > فرض کنید 500 میلیون درآمد را به طور تصادفی بین 10000 نفر تقسیم می کنید. > تنها یک راه وجود دارد که بتوان به همه 50000 سهم مساوی داد. بنابراین اگر به طور تصادفی درآمد را به دست می آورید، برابری بسیار بعید است. اما راه‌های بی‌شماری وجود دارد که می‌توان به چند نفر پول نقد زیادی داد و به بسیاری از افراد کمی یا هیچ چیز. در واقع، با توجه به تمام راه‌هایی که می‌توانید درآمد را تقسیم کنید، بیشتر آنها توزیع نمایی درآمد را ایجاد می‌کنند. من این کار را با کد R زیر انجام داده ام که به نظر می رسد نتیجه را دوباره تأیید می کند: library(MASS) w <- 500000000 #ثروت p <- 10000 #مردم d <- diff(c(0,sort(runif(p-1,max =w))،w)) # توزیع ثروت h <- hist(d, col=red, main=نزول تصاعدی، فرکانس = FALSE، شکست = 45، xlim = c(0، quantile(d، 0.99))) برازش <- fitdistr(dنمایی) منحنی (dexp(x، نرخ = fit$estimate)، col = سیاه , type=p, pch=16, add = TRUE) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/L9Qw4.png) **سوال من** چگونه می توانم به صورت تحلیلی ثابت کنم که توزیع حاصل واقعاً نمایی است؟ **ضمیمه** از پاسخ ها و نظرات شما متشکرم. من در مورد مشکل فکر کرده ام و به استدلال شهودی زیر رسیده ام. اساساً موارد زیر اتفاق می‌افتد (مراقب باشید: پیش‌روی ساده‌سازی بیش از حد): شما مقداری را پیش‌روی می‌کنید و یک سکه (سوگیرانه) پرتاب می‌کنید. هر بار که شما به عنوان مثال. سر شما مقدار را تقسیم کنید. شما پارتیشن های حاصل را توزیع می کنید. در حالت گسسته، پرتاب سکه از یک توزیع دوجمله ای پیروی می کند، پارتیشن ها به صورت هندسی توزیع می شوند. آنالوگ های پیوسته به ترتیب توزیع پواسون و توزیع نمایی هستند! (با همین استدلال به طور شهودی نیز روشن می شود که چرا توزیع هندسی و نمایی خاصیت بی حافظه را دارند - زیرا سکه نیز حافظه ندارد).
چگونه می توانم به صورت تحلیلی ثابت کنم که تقسیم تصادفی یک مقدار منجر به توزیع نمایی (مثلاً درآمد و ثروت) می شود؟
89944
در مورد طراحی پیچیده به راهنمایی شما نیاز دارم. من در حال آزمایش داده‌های مربوط به قطره‌های چشمی جدید هستم که ممکن است مقدار کمی را کاهش دهند. برای هر آزمودنی، یک چشم به طور تصادفی با قطره ها تخصیص داده می شود، در حالی که چشم دیگر یک کنترل است و قبل از استفاده از قطره، این اندازه (از این به بعد Y) برای هر دو چشم اندازه گیری می شود. از اینجا من تفاوت را محاسبه کردم، که میانگین آن نزدیک به 0 بود، با SD 1.5، و نقاط در اطراف میانگین بی طرفانه به نظر می رسید. اکنون قطره ها ریخته شد و مجدداً روی هر دو چشم اندازه گیری شد و تفاوت محاسبه شد. حالا از صفر فاصله داشت. درمان کار می کند پس از چند روز، اقدام دیگری انجام شد که نشان داد اثر آن در حال کاهش است. و سپس بازدید دیگری از اندازه گیری وجود داشت. من می خواهم زمانی را پیدا کنم که درمان دیگر کارساز نباشد. چگونه باید آن را انجام دهم؟ من برای هر موضوع چیزی حدود 4 بازدید از جمله خط مبنا دارم و در هر بازدید تفاوت بین چشم ها را دارم. من نمی توانم به سادگی بگویم که کمتر از 1.5 SD هنوز هم مهم است، یا هر قطع دیگری. من یه تست لازم دارم کدام تست / مدل را باید در اینجا استفاده کنم؟ متشکرم!
تحلیل جفت طولی
86348
من یک مبتدی هستم که برای خواندن برخی از نتایج رگرسیون خطی به کمک نیاز دارم. من به دنبال عواملی هستم که بر مکان رویدادهای درگیری داخلی تأثیر می گذارد. متغیر وابسته من فاصله از پایتخت (کیلومتر)، یک متغیر پیوسته است. من 4 متغیر کنترل دارم که همگی پیوسته هستند. متغیر (fightcap) که من می خواهم آزمایش کنم، توانایی مبارزه شورشیان است. این متغیر ترتیبی دارای سه سطح است: 1 = کم 2 = متوسط ​​3 = زیاد با این حال من در یکی دو کتاب درسی خواندم که برای مقابله با پیش بینی کننده های ترتیبی بهتر است آنها را به متغیرهای ساختگی تبدیل کنید. به این ترتیب من دو Dummie ایجاد کردم: fightCap(low): 1 if fightcap = 1، 0 if fightCap = 1, 0 if fightCap (moderate): 1 if fightCap = 2, 0 در غیر این صورت با استفاده از JMP (نرم افزاری که من بهتر می دانم)، دو مدل را به صورت موازی اجرا کردم: یکی (چپ) با متغیر ترتیبی fightcap، دومی (راست) با هر دو ساختگی fightCap (کم) و fightcap (متوسط) متغیرها ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/Bu9Dt.png) متوجه شدم که خروجی برای هر دو مدل یکسان است، به جز در مورد تخمین های متغیرهای ترتیبی/دوممی. **سوالات من بدین ترتیب عبارتند از:** 1. چگونه عبارات fightcap[2-1]، fightcap[3-2] و برآوردهای آنها را تفسیر کنم؟ آیا می خوانم که تغییر Fightcap از 1 به 2 منجر به تغییر 59.42 در متغیر وابسته می شود؟ 2. چگونه می توانم این واقعیت را تفسیر کنم که fightcap[2-1] تخمین قابل توجهی دارد، اما fightcap[3-2] نیست؟ آیا به این معنی است که فقط تغییر از 1 تا 2 تغییر را توضیح می دهد، اما تغییر از 2 تا 3 را توضیح نمی دهد؟ 3. چگونه می توانم بفهمم که نصف متغیر من در صورت استفاده از تنظیمات ترتیبی کار می کند، اما هیچ یک از ساختگی ها تخمین قابل توجهی ندارند؟ با تشکر از کمک شما! دیمین
رگرسیون خطی: متغیرهای مستقل ترتیبی یا ساختگی؟
108212
من یک مدل ARIMA با متغیر برون زا توسعه داده ام. قبل از برازش مدل، هر سری زمانی را با تفاضل ثابت ساختم (هر متغیر ترتیب ادغام متفاوتی داشت). برای سادگی، فرض کنید فقط یک متغیر برونزا وجود داشت. بالاخره یک مدل پیدا کردم. با توجه به اینکه تمام داده‌های من برای ایجاد مدل ثابت هستند، تخمین‌های ضریب زیر را دریافت کردم: ARIMA(1,0,0) با میانگین صفر ضرایب: ar1 X -0.6 -0.002 هیچ عبارت MA وجود نداشت. توجه داشته باشید که Y با تفاضل دوم بود و X اول تفاوت داشت. بنابراین، فرمول من واقعاً شبیه این است: $Y_t'' = -0.6 Y_{t-1}'' - 0.002 X'$ که در آن اعداد اول ($'$ ) سطح تفاوت را نشان می دهند. من می خواهم یک نمایش معادل از مدل با استفاده از متغیرهای غیرمتفاوت اصلی داشته باشم. بنابراین من کارهای زیر را انجام می دهم: $(Y_t - Y_{t-1}) - (Y_{t-1} - Y_{t-2}) = -0.6 [(Y_{t-1} - Y_{t-2 }) - (Y_{t-2} - Y_{t-3})] - 0.002 (X_{t} - X_{t-1}) $Y_{t} - 2Y_{t-1} + Y_{t-2} = -0.6Y_{t-1} + 1.2Y_{t-2} - 0.6Y_{t-3} - 0.002X_{t} + 0.002X_{t- 1}$Y_{t} = 1.4Y_{t-1} - 0.2Y_{t-2} - 0.6Y_{t-3} - 0.002X_{t} + 0.002X_{t-1}$ بنابراین، من 2 سوال دارم. 1) آیا تفسیر من صحیح است؟ ساده به نظر می رسد، اما من فقط می خواهم دوباره بررسی کنم. آیا راه سریع‌تری برای انجام این تبدیل‌ها وجود دارد، علاوه بر گسترش و ترکیب خسته‌کننده‌ای که در بالا انجام دادم؟ برخی از مدل هایی که من با آنها کار می کنم بسیار پیچیده تر هستند. شاید استفاده از عملگر backshift کمک کند؟ من تمرین زیادی در مورد جبر که شامل عملگر backshift می شود ندارم، و مطمئن نیستم که آیا این به انجام کاری که می خواهم کمک کند یا خیر. 2) چگونه می توانم یک روش مشابه را در صورت وجود شرایط MA انجام دهم؟ من می دانم که یک عبارت MA معادل بی نهایت عبارت AR است. بنابراین، آیا هنوز هم می‌توان نمایشی مانند $Y_t = ...$ داشت؟ به عنوان مثال، فرض کنید تناسب من ARIMA (1,0,1) را با برآورد ضریب MA 0.3 تولید کرد. متشکرم!
تفاوت معکوس و معادل سازی مدل ARIMA
87120
من مدل چندجمله ای بیز و مدل برنولی را پیاده سازی کرده ام و سوال من این است که آیا هموارسازی تاثیری بر عملکرد هر دو مدل دارد (قانون جانشینی لاپلاس یا اضافه کردن یک هموارسازی)؟
آیا صاف کردن طبقه بندی کننده بیز دقت را افزایش می دهد؟
86344
من باید یک نرمال تک متغیره را به عنوان یک نرمال چند متغیره بیان کنم تا محاسبات خاصی ممکن شود (به عنوان مثال: توانایی تقسیم دو توزیع گاوسی). بنابراین، نرمال تک متغیره من فقط روی یک متغیر تصادفی تعریف می‌شود: $G(x)$ و اکنون می‌خواهم آن را روی $G(x_1، x_2.....x_n)$ تعریف کنم. با این حال، حتی اگر روی متغیرهای تصادفی $n$ تعریف شده است، به مقادیر سایر متغیرهای تصادفی بستگی ندارد. آیا کسی می تواند به من بگوید چگونه می توانم میانگین و کوواریانس چنین توزیعی را تعریف کنم، بنابراین از نظر ریاضی درست است؟ آیا بردار میانگین فقط در یک مکان دارای مقدار غیر صفر است یا باید سعی کنم $(x-\mu)$ را 0 توصیف کنم؟ در مورد ماتریس کوواریانس چطور؟
بیان یک نرمال تک متغیره به عنوان یک نرمال چند متغیره
21375
> اگر یک ساعت داشته باشم، می دانم ساعت چند است. > > اگر دو ساعت داشته باشم، اکنون مطمئن نیستم. اگرچه ساده شده است، اما مشکل مربوط به سیستم پیچیده تری است که من در حال آزمایش آن هستم. اگر اندازه‌گیری‌های زیر را از دو سیستم داشته باشم: سیستم مشخصه 1 سیستم 2 A 0 0 B 10 100 C 90 100 D 100 110 E 900 1000، می‌خواهم راهی را برای تعیین مقداری از مقدار خطا بین سیستم‌ها انجام دهم (با فرض اینکه نمی‌توانم تشخیص دهید که کدام سیستم، در صورت وجود، صحیح است) بنابراین * مقادیر ویژگی A بدون خطا در نظر گرفته می شوند یا هر دو سیستم صحیح هستند * مقادیر ویژگی B به عنوان یک در نظر گرفته می شوند. خطای بزرگتر از مقادیر A، C، D و E * مقادیر C، D و E دارای خطای یکسانی (یا خطای مشابه) هستند. همچنین فرض کنید ویژگی ها مستقل هستند. درک من از آمار کم است، و فقط می توانم برخی چیزها را در مورد خطای نسبی به یاد بیاورم، اما برای تعیین خطای نسبی سیستم دیگر، باید بدانم آیا یک سیستم درست است یا خیر. چگونه می توان این موضوع را حل کرد؟
مشکل دو ساعت و اندازه گیری
77105
این باید یک سوال آسان باشد. من دنبال اسم یک ابزار هستم. برای عادی سازی یک متغیر با بهترین توان ممکن استفاده می شود. من فکر می کنم از یک فرآیند تکراری برای پیدا کردن این بهترین قدرت استفاده می کند. اسم این ابزار چیه؟ متشکرم
نام ابزاری برای یافتن بهترین توان مورد استفاده به منظور عادی سازی یک متغیر
77100
من برخی از مشاهدات دلقک ماهی ها را انجام دادم. برای هر ماهی منفرد (هر مشاهده)، گونه شقایق محل زندگی، اندازه شقایق و اندازه ماهی (و خیلی چیزهای دیگر را ثبت کردم، اما برای این سوال آنها را فراموش خواهیم کرد). در کل من 8 ماهی و 7 شقایق دارم. این نشان دهنده تعداد کل گونه های موجود در منطقه نمونه برداری است. می خواهم بدانم که **اندازه شقایق** با **اندازه ماهی** ارتباط دارد یا خیر. اما من باید **گونه ماهی** و**گونه anemonea** را از این تجزیه و تحلیل جدا کنم زیرا هر دو ممکن است با **اندازه ماهی** مرتبط باشند. روی R چه مدلی اجرا کنم؟ آیا می توانم موارد زیر را اجرا کنم... aov(fish.size ~ factor(fish.species) + factor(anemone.species) + anemone.size) و فقط p.value را برای anemone.size ثبت کنم؟ یا باید از اثر ترکیبی استفاده کنم؟ lmer(fish.size ~  anemone.size + 1 | factor(fish.species) + 1 | factor(anemone.species)) یا چیز دیگری؟..
مدل مختلط یا نه؟ مطالعه موردی در ر
100543
سوال من این است که چگونه فرآیند نقطه ای ETAS مکانی-زمانی (فرایند نقطه ای که برای پیش بینی زلزله استفاده می شود) که توسط تابع شدت شرطی تعریف می شود، شبیه سازی کنیم. به طور دقیق تر: اجازه دهید $\mathbf{V}$ یک فرآیند نقطه زمانی فضایی باشد، $\mathbf{s}$ بردار بعد 2 حاوی مختصات باشد، $t$ شاخص زمانی باشد و $m$ یک سطح آستانه را نشان دهد. برای زلزله در مدل ETAS تابع شدت (شرطی) \begin{equation} \lambda(\mathbf{s},t,m|\mathcal{H}(t))= \lambda(\mathbf{s},t| \mathcal{H}(t))\گاما(m) = \left(\mu(\mathbf{s})+ \rho \sum_{i:t_i<t}\alpha(m_i)g(t-t_i)f(||\mathbf{s}-\mathbf{s}_i || | m_i)\right)\گاما(m) \ پایان {معادله} که در آن $\mathcal{H}(t)$ تاریخچه زلزله تا زمان $t$ است، $t$ استثنا شده است. $\mu(\mathbf{s})$ شدت پس‌زمینه است و می‌تواند تابع مختصات و برخی متغیرهای کمکی باشد: \begin{equation} \mu(\mathbf{s}) = \mathbf{Z} \boldsymbol{\eta } \end{equation} که در آن $\mathbf{Z}$ ماتریس متغیر کمکی است (ممکن است با $\mathbf{s}$) و $\boldsymbol{\eta}$ بردار ضرایب رگرسیون است. $\alpha(m)$ تعداد مورد انتظار رخدادهایی است که از یک رویداد با بزرگی $m$ آغاز می شود: \begin{equation} \alpha(m) = \exp(\psi (m-\bar{m})) \ پایان{معادله} که در آن $\bar{m}$ یک مقدار آستانه است (رویدادهای بیش از این آستانه در مدل در نظر گرفته نمی‌شوند). $g(t-t_i)$ تابع چگالی احتمال زمان‌های وقوع رویدادهای راه‌اندازی شده است: \begin{equation} g(t-t_i) = \frac{\beta_2-1}{\beta_1}\left(1 +\frac{t}{\beta_1}\right)^{-\beta_2} \end{equation} توزیع مکان رویدادهای راه‌اندازی که استفاده می‌کنیم به صورت \begin{معادله} f(||\mathbf{s}-\mathbf{s}_i || | m_i) = \frac{\xi-1}{\pi \delta^2\exp(\omega (m- \bar{m})} \exp\left( 1+ \frac{(\mathbf{s}-\mathbf{s}_i)^{\prime}(\mathbf{s}-\mathbf{s}_i)}{\delta^2\exp(\omega (m- \bar{m}))} \right)^{- \xi} \end{equation} گزینه دیگری ممکن است. در نهایت \begin{equation} \Gamma(m) = \gamma \exp (\gamma (m-\bar{m})) \end{equation} سپس احتمال ورود به سیستم \begin{equation} \log L(\ mathbf{V}|. \mathcal{H}(t_1)) = \sum_{i=1}^n \lambda(\mathbf{s}_i,t_i,m_i|\mathcal{H}(t_i))-\int_{ \mathcal{T}_B} \int_{ \mathcal{S}_B} \int_{\mathcal{ M}_b} \lambda\left( \mathbf{s}, t ,m| \mathcal{H}(t) \راست) d \mathbf{s} d t d m \پایان{معادله}
چگونه یک مدل مکانی-زمانی etas را شبیه سازی کنیم؟
91508
من با شبیه سازی مونت کارلو مقداری قیمت سهام X$ ایجاد می کنم. وقتی نمونه قیمت سهام را داشتم، می‌خواهم آن را با 100 امتیاز $\hat{X}$ خوشه‌بندی کنم. مشکل من این است که خطای مرتبط با k-mean clustering $$ E \lVert X - \hat{X} \rVert^2, \tag{1} $$ با تعداد شبیه‌سازی $n$ کاهش نمی‌یابد. خوشه $\hat{X}$ من با الگوریتم Lloyd و SciKit Learn بدست می آید. من به پی دی اف تجربی X که از طریق مونت کارلو به دست آمده بود نگاه کردم و به نظر می رسد دم بسیار سنگینی باشد. آیا این دلیل افزایش خطای k-mean من با $n$ است؟ آیا به $n$ نیاز دارم تا واقعاً بزرگ باشم؟ چگونه می توانم $X$ را کمیت کنم تا خطای (1) کم باشد؟
بردار کمی سازی توزیع دم سنگین
100542
$X,Y$ و $Z$ متغیرهای تصادفی گسسته هستند. $I$ اطلاعات متقابل است. سوال در عنوان است. اگر نابرابری درست باشد، چگونه آن را نشان می دهید؟ با تشکر شهود من: داشتن اطلاعات بیشتر در مورد متغیر شرطی $Z$ (به عنوان مثال $$Z=z$) همبستگی بین $X$ و $Y$ را کاهش می دهد، همانطور که با کاهش سطح تقاطع تجسم می شود.
$I(X:Y|Z=z) \leq I(X:Y|Z)$؟
91509
من به دنبال انجام یک تحلیل کاپلان مایر برای بررسی بقا در دو گروه هستم. من 21 نفر در گروه A و 17 نفر در گروه B دارم. 5 نفر در گروه B در زمان های مختلف فوت کردند، 0 نفر در گروه A فوت کردند، یعنی تمام اطلاعات من برای گروه A سانسور شده است. وقتی تجزیه و تحلیل KM را انجام می دهم، مقدار 0.028 است. سوال من این است که آیا با توجه به عدم وجود رویدادها در یک گروه، هنوز هم می توانم از KM برای تجزیه و تحلیل بقا استفاده کنم و اگر چنین است، آیا مقدار p معتبر است؟ پیشاپیش ممنون
اعتبار log-rank p-value زمانی که هیچ رویدادی در یک گروه وجود ندارد؟
100540
من یک تجزیه و تحلیل همبستگی متعارف را با استفاده از مجموعه داده های بررسی جامعه آمریکایی انجام داده ام. تجزیه و تحلیل بین متغیرهای «نسب» و «میزان تحصیلی» انجام شده است. مقادیر همبستگی های متعارف عبارتند از: {0.8140، 0.5716، 0.4708، 0.3946، 0.1465، 0.1365، 0.0409}. مقادیر برای آزمون های چند متغیره با اهمیت برای اولین تابع متعارف: مقدار آماری F-Value df1 df2 P-Value Wilk's Lambda 0.143 35.373 98 19754 0.000 Pillai's Trace 1.408 8906006. Trace 2.961 22.779 98 21842 0.000 Roy's Root 0.662 تجزیه و تحلیل افزونگی برای اولین تابع متعارف: برای متغیرهای Educational Atainment میانگین مربع بارگذاری کانونی R^2 Redundancy Index 2.616ryA.nc. میانگین مربع بارگذاری Canonical R^2 Redundancy Index 2.1514 0.666 1.432 لطفاً در تفسیر این نتایج به من کمک کنید. من می دانم که مقادیر p خوب هستند (زیرا بسیار پایین هستند). _F_ -ارزش ها نیز خوب به نظر می رسند (چون بالا هستند)، اما من مطمئن نیستم که چگونه مقادیر Wilk's Lambda، Pillai's Trace، Hotelling–Lawley Trace و Roy's Largest Root را تفسیر کنم. با توجه به درک من از تجزیه و تحلیل، آزمون‌های چند متغیره از نظر آماری معنی‌دار هستند، اما بر اساس تحلیل افزونگی از نظر عملی معنادار نیستند. هر گونه کمکی (توضیح مختصری در مورد تجزیه و تحلیل) بسیار قابل قدردانی خواهد بود. با تشکر
نحوه تفسیر تحلیل همبستگی متعارف
108215
من در تلاش برای درک فرآیندهای گاوسی هستم. آیا کسی می تواند به من بگوید: 1. چرا باید از احتمال حاشیه ای گزارش استفاده کنیم؟ 2. چرا با استفاده از log، احتمال حاشیه ای را می توان به 3 عبارت (شامل یک عبارت مناسب و یک مدت مجازات) تجزیه کرد؟
چگونه احتمال حاشیه ای ورود به سیستم یک فرآیند گاوسی را درک کنیم؟
74450
من با تخمین بیزی جدید هستم. وقتی برخی تخمین ها را با JAGS انجام می دهم، متوجه می شوم که آمارهایی به نام های Naive SE و Time Series SE وجود دارد. منظورشون دقیقا چیه؟ آیا لازم است یکی یا هر دوی آنها را به عنوان بخشی از نتیجه برآورد گزارش کنم؟
Naive SE vs Time Series SE: کدام آمار را باید بعد از تخمین بیزی گزارش کنم؟
108218
من می دانم که در یک GP، پارامترهای فوق با به حداکثر رساندن احتمال حاشیه ای بهینه می شوند. کسی میتونه این روش رو برام توضیح بده لطفا؟ پیشاپیش از کمک شما متشکرم
در فرآیندهای گاوسی، چگونه بهینه سازی فراپارامترها را درک کنیم؟
77109
من در حال حاضر برخی از رگرسیون ها را برای درک ماهیت تغییرات قیمت در بازار مالی انجام می دهم. در این بازار، تغییرات قیمت می تواند به دو دلیل رخ دهد: تغییرات قیمت محلی (که بر کاربر خاص تأثیر می گذارد) و تغییرات قیمت در سطح بازار (که همه کاربران را تحت تأثیر قرار می دهد). اجازه دهید $P$ نشان دهنده تغییر قیمت باشد، $M$ نشان دهنده تغییر قیمت در سطح بازار باشد، $L$ نشان دهنده تغییر قیمت محلی باشد، و زیرنویس $i$ نشان دهنده عدد تجارت باشد. سپس، معادله: $P_i = M_i + L_i$ دقیقا برای هر معامله $i$ برقرار است. با این حال، آنچه من می‌خواهم بدانم این است که تأثیرات محلی $L$ چقدر بر سری $P$ تأثیر می‌گذارد. برای انجام این کار، من از یک رگرسیون حداقل مربعات معمولی (خطی) برای برازش ضرایب $c$ و $k$ برای خط رگرسیون $P = kL + c$ استفاده کرده ام، که معادل فرض این است که رابطه برای یک معامله داده می شود. با $P_i = kL_i + E_i$ داده می شود، که در آن $E_i$ یک عبارت نویز است. در حال حاضر، من این رگرسیون را انجام می دهم، سپس خطای خارج از نمونه رگرسیون را تخمین می زنم (با استفاده از اعتبارسنجی متقاطع 10 برابری). سپس کل این فرآیند را برای یک رگرسیون مشابه که فقط عبارت کل بازار را شامل می‌شود، تکرار می‌کنم، یعنی $P = jM + d$. من دوباره خطای خارج از نمونه رگرسیون را با استفاده از اعتبارسنجی متقاطع 10 برابری تخمین می زنم. سپس با مقایسه خطای خارج از نمونه این دو رگرسیون، عوامل $M$ و $L$ را در ایجاد تغییرات قیمت مقایسه می‌کنم. رزروی که من در مورد این روش دارم این است که من قبلاً مقادیر $E_i$ را در رگرسیون اول می دانم (در هر مورد دقیقاً برابر با $M_i$ هستند) و من به طور مشابه می دانم که شرایط نویز در رگرسیون دوم دقیقا برابر با L_i$ برای هر معامله. بنابراین، مطمئن نیستم که آیا استفاده از یک رگرسیون که در آن «تظاهر می‌کنم» آنها را نمی‌دانم واقعاً چیزی به من می‌گوید یا خیر. آیا یک راه استاندارد (تکرارگرا) برای نزدیک شدن به این نوع مشکل (ترجیحاً با مقایسه عملکرد خارج از نمونه، به جای $R^2$) وجود دارد؟ با تشکر
اهمیت نسبی استفاده از خطای خارج از نمونه
6684
**توجه: من نمونه مورد کد را به روز کردم، در نسخه قبلی خطاهایی وجود داشت** کراس به R-help ارسال شد، زیرا من تا حدودی مشکوک هستم که این رفتار غیرمنتظره باشد. من می‌خواهم مقادیر یک lm موجود (مدل خطی، به عنوان مثال lm.obj) را با استفاده از مجموعه جدیدی از متغیرهای پیش‌بینی‌کننده (مثلاً داده‌های جدید) در نتیجه R پیش‌بینی کنم. به طور خاص، من علاقه مند به مقدار y پیش بینی شده در میانگین، 1 SD بالاتر از میانگین، و 1 SD کمتر از میانگین برای هر پیش بینی هستم. با این حال، به نظر می‌رسد که چون مدل‌های خطی من با فراخوانی scale() روی پیش‌بینی‌کننده هدف ساخته شده‌اند که خروجی‌ها را با خطا پیش‌بینی می‌کند، «خطا در مقیاس (xxA، مرکز = 9.7846094491829، مقیاس = 0.959413568556403): شیء 'xxA' یافت نشد. . با اشکال زدایی پیش بینی، می توانم ببینم که خطا در یک فراخوانی به model.frame رخ می دهد. با اشکال زدایی قاب مدل می توانم خطای این دستور را مشاهده کنم: متغیرهای <\- eval(predvars, data, env); به نظر می‌رسد که خطا به این دلیل است که predvars به ​​این شکل است: فهرست (مقیاس (xxA، مرکز = 10.2058714830537، مقیاس = 0.984627257169526)، مقیاس (xxB، مرکز = 20.44916908811149، 327) مقیاس یک مورد مثال: dat <- data.frame(xxA = rnorm(20,10)، xxB = rnorm(20,20)) dat$out <- with(dat,xxA+xxB+xxA*xxB+rnorm(20, 20)) lm.res.scale <- lm(out ~ scale(xxA)*scale(xxB),data=dat) my.data <- lm.res.scale$model #بارگذاری داده ها از شی lm newdata <- expand.grid(X1=c(-1,0,1),X2=c(-1,0,1) ) names(newdata) <- c(scale(xxA)،scale(xxB)) newdata$Y <- predict(lm.res.scale,newdata) آیا کاری هست که بتوانم انجام دهم قبل از ارسال newdata یا lm.obj برای پیش بینی() که از خطا جلوگیری می کند؟ من سعی کردم: از فایل راهنما به نظر می رسد که ممکن است بتوانم کاری با شرایط، استدلال انجام دهم، اما کاملاً متوجه نشده ام که باید چه کار کنم. از طرف دیگر، آیا راه حلی برای model.frame وجود دارد که از بروز خطا جلوگیری کند؟ آیا پیش بینی () باید اینگونه رفتار کند؟ **جزئیات اضافی:** با این حال، من واقعاً راه حلی می خواهم که در یک مرحله مقادیری مانند: coef(lm.res.scale)[1]+ coef(lm.res.scale)[2]*newdata[ ,1]+ coef(lm.res.scale)[3]*newdata[,2]+ coef(lm.res.scale)[4]*newdata[,1]*newdata[,2] فکر می‌کنم این دقیقاً همان کاری باشد که predict() باید انجام دهد. یعنی فکر می کنم کد مثال من باید معادل باشد: dat <- data.frame(xxA = rnorm(20,10), xxB = rnorm(20,20)) dat$out <- with(dat,xxA+xxB +xxA*xxB+rnorm(20،20)) #تغییر مقیاس خارج از lm X1 <- با(dat,as.vector(scale(xxA))) X2 <- with(dat,as.vector(scale(xxB))) y <- with(dat,out) lm.res.correct <- lm(y ~X1*X2) my.data <- lm.res.correct$model #بارگذاری داده ها از شی lm newdata <- expand.grid(X1=c(-1,0,1),X2=c(-1,0,1)) #نیازی به تغییر نام newdata نیست زیرا با شی lm من مطابقت دارد newdata$Y <- predict(lm. res.correct,newdata) مشخصاً، تنظیم فرمول من برای گنجاندن as.vector() مشکل تلاش من برای استفاده مستقیم از predict() با newdata را حل نمی کند.
چگونه می توان از تابع پیش بینی در یک شی lm استفاده کرد که در آن IV ها به صورت پویا مقیاس بندی شده اند؟
74452
برای یک آمار $T_n = \frac{1}{n} \sum_{i=1}^nY_i - \frac{1}{a}$. مستقیماً (بدون CLT) ثابت کنید که نسخه مقیاس‌شده و جابجا شده به‌طور مناسب $T_n$ در توزیع به $N(0,1)$ همگرا می‌شود. [ویرایش] $f(y|a,b)=ae^{-a(y-b)}$ برای $ y\geq b$ چگونه باید به مشکل برخورد کنم؟ [ویرایش] من فکر کردم که اگر بتوانم مقدار و واریانس مورد انتظار $T_n$ را پیدا کنم و سپس آن را در $N(\mu,\sigma^2)$ برای $f(y)$ نشان دهم، $E[Y] = b+1/a$، $Var [Y] = 1/a^2$ برای $Tn$، $Var[T_n] = Var[\frac{1}{n} \sum_{i=1}^nY_i - \frac{1}{a}]$ = $a^2/n$ $E[T_n] = E [\frac{1}{n} \sum_{i=1}^nY_i - \frac{1}{ a}] = b$ [EDIT] $M_X(t)=\frac{ae^{bt}}{(a-t)}$ چگونه باید از اینجا بروم؟
همگرایی در توزیع
74451
داده شده: $f_{Y_{(1)}}(y) = nbe^{-nb(y-a)}$، که $b> 0$ و $y \geq a$. نشان دهید که با $n \rightarrow\infty$، $Y_{(1)}$ به احتمال زیاد به $a$ همگرا می شود. من محاسبه کرده‌ام $E[Y_{(1)}] = \frac{1}{nb} + a$ کدام قضیه را برای نشان دادن همگرایی اعمال کنم. سعی می کردم از نابرابری چبیشف استفاده کنم. [ویرایش] اگر بخواهم بفهمم که $Y_{(1)}$ به چه چیزی در توزیع همگرا می شود، آیا این راه درستی برای انجام آن است: $F_{Y_{(1)}} = 1-e^{-nb( y-a)}$ به عنوان $n \rightarrow \infty $F_{Y_{(1)}} = 1, y < a$ F_{Y_{(1)}} = 0, y \geq a$ $P(|Y_{(1)}|< y) = P(|Y_{(1)}|< \epsilon)$ [جایگزینی $y$ با $\epsilon$] = $1-e^ {-nb(\epsilon-a)}$ به عنوان $n \rightarrow \infty $ $P(|Y_{(1)}|< y) \rightarrow 1$; بنابراین $ Y_{(1)} \rightarrow Y$ در توزیع. بنابراین توزیع محدود کننده منحط است. لطفاً اگر این روش درست است به من اطلاع دهید.
نمایش $Y$ به $a$ همگرا می شود
65944
من یک متغیر X15 دارم که از 001.001 تا 10000 یا بیشتر متغیر است و می‌خواهم کلاس‌هایی بسازم که با متغیر دیگری، Y، که 1 یا 0 است، نامتعادل باشند، به طوری که هر کلاس بیشتر از (Y=0) داشته باشد. ) یا از (Y=1). تنها چیزی که می‌خواهم، خروجی چند PROC در نسخه 9.3 است که به من بگوید سطل‌ها باید چه باشند. من PROC SPLIT، PROC DMSPLIT و PROC ARBORETUM را امتحان کرده‌ام، اما PROC PRINT تمام مجموعه داده‌های خروجی به من سرنخی نمی‌دهد. چگونه می توانم مقادیر تقسیم را برای مثلاً 5 تقسیم به 6 بن از داده های X15 خود با استفاده از درخت تصمیم بدست بیاورم؟ تعداد دلخواه مقادیر تقسیم ترجیح داده می شود، من فقط نمی توانم بفهمم چگونه آن داده ها را از یک دستور PROC استخراج کنم.
گسسته سازی یک متغیر پیوسته در SAS با استفاده از درخت تصمیم
10169
من یک جدول احتیاطی سه طرفه دارم که در آن مجموعات حاشیه ای برای دو طرف ثابت و برای سومی تصادفی است. من تعجب می کنم که چگونه می توان یک آزمایش مجذور کای برای همگنی برای چنین جدول سه طرفه احتمالی انجام داد. **مثال** ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/r3QGt.png) فرض کنید هر دو مجموع Trt و Gender ثابت هستند. با تشکر
$\chi^2$ آزمون همگنی برای جدول احتمالی سه طرفه
61719
من می خواهم یک نمونه $\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)$ ترسیم کنم. ویکی‌پدیا استفاده از Cholesky یا Eigendecomposition را پیشنهاد می‌کند، یعنی $ \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T $ یا $ \mathbf{\Sigma} = \mathbf{Q}\mathbf{ \Lambda}\mathbf{Q}^T $ و از این رو نمونه را می توان از طریق: $ \mathbf{x} = \mathbf{D}_1 \mathbf{v} $ یا $ \mathbf{x} = \mathbf{Q}\sqrt{\mathbf{\Lambda}} \mathbf{v} $ جایی که $ \mathbf{v} \sim N\left(\mathbf{0}, \mathbf{I} \right) $ ویکی‌پدیا پیشنهاد می‌کند که هر دو به یک اندازه برای تولید نمونه خوب هستند، اما روش Cholesky زمان محاسبات سریع‌تری دارد. آیا این حقیقت دارد؟ به خصوص از نظر عددی هنگام استفاده از روش مونت کارلو، که در آن واریانس ها در امتداد مورب ها ممکن است چندین مرتبه قدر متفاوت باشد؟ آیا تحلیل رسمی در مورد این مشکل وجود دارد؟
Cholesky در مقابل تجزیه ویژه برای رسم نمونه از یک توزیع نرمال چند متغیره
91504
من یک سوال دارم که کاملاً مطمئن نیستم که چگونه آن را قاب بندی کنم، بنابراین اگر منطقی نیست عذرخواهی می کنم، اما تمام تلاشم را می کنم تا آن را قابل تفسیر کنم. من چندین مدل شبکه را با استفاده از بسته sna و تابع lnam در R اجرا کرده ام. با استفاده از این تابع، من یک مدل اختلال خودکار رگرسیون فضایی را پیاده‌سازی می‌کنم. وقتی این کد را اجرا می کنم با خطا مواجه می شوم: Warning in sqrt(diag(o$acvm)): NaNs تولید می شود که در آن acvm ماتریس کوواریانس مجانبی تخمین زده شده برای پارامترهای مدل است. این همچنین مقادیر p-NaN را در خلاصه مدل می دهد. هنگام تحقیق در مورد یک راه حل به این وبلاگ برخوردم که به نظر می رسد مشکل مشابهی دارد. نویسنده وبلاگ پیشنهاد می کند که این به این دلیل است که _این یک ویژگی مجانبی سطح احتمال است، و برای نمونه محدود این تقریب می تواند بسیار بد باشد_ من از وبلاگ نویس خواسته ام توضیح بیشتری بدهد - همانطور که از پیوند خواهید دید. - با این حال، پاسخی دریافت نکرده‌ام (قابل درک است که پیوند کاملاً قدیمی است) و امیدوار بودم که کسی در اینجا در Cross Validated بتواند این موضوع را روشن کند. لطفاً از پرسیدن اینکه آیا چیزی نیاز به توضیح دارد، دریغ نکنید، همانطور که گفتم هنوز مطمئن نیستم که چگونه سؤال را چارچوب بندی کنم، بنابراین به احتمال زیاد تمام اطلاعات لازم را فاش نکرده ام. ممنون سام
ویژگی مجانبی سطح احتمال
72097
گاهی اوقات یک مدل کمتر واقعی بهتر از یک مدل واقعی پیش‌بینی می‌کند (مدل کمتر واقعی چه زمانی بهتر از یک مدل واقعی پیش‌بینی می‌کند؟). بنابراین اگر مدلی که بهتر پیش‌بینی می‌کند و هدف من پیش‌بینی است، باید یک مدل کمتر واقعی را به جای مدل واقعی‌تر انتخاب کنم؟ به طور مشابه، آیا باید مدلی را انتخاب کنم که مفروضات را نقض کند (مثلاً نرمال بودن یا همسویی بودن باقیمانده ها در رگرسیون خطی) به جای مدلی که تمام مفروضات را برآورده می کند اگر بهتر پیش بینی کند و هدف من پیش بینی باشد؟
انتخاب یک مدل کمتر واقعی بر مدل واقعی تر اگر بهتر پیش بینی کند و هدف من پیش بینی باشد
6358
پیشاپیش از اینکه با من همراهی کردید متشکریم، من یک آمارگیر از هر نوع نیستم و نمی دانم چگونه آنچه را تصور می کنم توصیف کنم، بنابراین گوگل در اینجا به من کمک نمی کند... من یک سیستم رتبه بندی را در یک برنامه وب من روی آن کار می کنم. هر کاربر می تواند به هر مورد دقیقا یک بار امتیاز دهد. من مقیاسی را با 4 مقدار تصور می‌کردم: «بسیار دوست نداشتن»، «نپسندیدن»، «پسندیدن» و «به‌شدت دوست دارم» و برنامه‌ریزی کرده بودم که این مقادیر را به ترتیب 5-، 2-، 2+ و 5+ اختصاص دهم. . حال، اگر قرار بود هر آیتم به همان تعداد رتبه‌بندی داشته باشد، با این سیستم امتیازدهی کاملاً راحت می‌شوم که به وضوح بین مواردی که بیشترین دوست‌داشتن را از آن‌ها دوست‌داشته‌اند، متمایز می‌کنم. با این حال، آیتم ها دارای تعداد امتیاز یکسانی نخواهند بود و اختلاف بین تعداد آرا در عکس های مختلف ممکن است بسیار چشمگیر باشد. در این صورت، مقایسه نمرات انباشته در دو مورد به این معنی است که یک آیتم قدیمی با رتبه‌بندی‌های متوسط ​​بسیار بالاتر از یک آیتم استثنایی جدید با رای‌های بسیار کمتر خواهد بود. بنابراین، اولین چیزی که به نظرم رسید ما میانگین بگیریم... اما حالا اگر یک آیتم فقط یک رتبه +5 داشته باشد، میانگین بهتری نسبت به آیتمی دارد که امتیاز 99 +5 دارد. و 1 امتیاز +2. به طور شهودی این نمایش دقیقی از محبوبیت یک آیتم نیست. فکر می‌کنم این مشکل رایج است و نیازی نیست که من آن را با مثال‌های بیشتری توضیح دهم، بنابراین در این مرحله توقف می‌کنم و در صورت نیاز در نظرات توضیح می‌دهم. سؤالات من عبارتند از: 1. نام این نوع مشکل چیست و آیا اصطلاحی برای تکنیک های مورد استفاده برای حل آن وجود دارد؟ من می خواهم این را بدانم تا بتوانم در مورد آن بخوانم. 2. اگر شما منابع غیرمعمولی در این زمینه می شناسید، بسیار ممنون می شوم که یک لینک بدهید. 3. در نهایت، من از هر پیشنهاد دیگری در مورد نحوه جمع آوری و تجزیه و تحلیل موثر این نوع داده ها قدردانی می کنم. خیلی ممنون از وقتی که گذاشتید!
یک سیستم رتبه بندی را وزن کنید تا اقلامی که توسط افراد بیشتری رتبه بالایی دارند نسبت به مواردی که توسط افراد کمتری رتبه بالایی دارند، ترجیح دهید؟
81900
من مطمئن نیستم که آیا این سوال / رویکرد منطقی است یا خیر. من باید داده های مصنوعی را بر اساس پارامترهایی که از یک مدل آموخته می شود تولید کنم، داده های تولید شده را به مدل برگردانم و مجدداً پارامترها را یاد بگیرم (بوت استرپ) برای محاسبه برخی از مقادیر p. استنباط بسیار زمان بر است و اگر بخواهیم هزاران بار آن را انجام دهیم، جای بحث ندارد. من فکر کردم که اگر توزیع **D** را بر اساس پارامترهای آموخته شده و نمونه ای از آن توزیع متمرکز کنم، می توانم از انجام مجدد پارامترهای استنتاج و یادگیری اجتناب کنم. آیا این رویکرد از نظر آماری صحیح است؟ همچنین دستورالعمل یا نظریه ای برای انتخاب توزیع **D** وجود دارد. رویکرد ساده لوحانه استفاده از توزیع نرمال با میانگین برابر با پارامتر ما خواهد بود. البته بسته به واریانس انتخابی، نتایج بسیار متفاوت خواهد بود.
نمونه برداری از یک توزیع به جای یادگیری پارامترها با استنتاج
51400
دانشجویی هست که در یک ترم فقط 2 درس می خواند. کلاس 1: ریاضی، کلاس 2: علوم. برای هر یک از کلاس ها، هر پنجشنبه یک آزمون برگزار می شود. هیچ امتحان یا hw دیگری وجود ندارد. فقط آزمون ها در پایان، اگر به عملکرد ریاضی او نگاه کنیم، می‌توان تأخیر هفته‌ای آیات خودهمبستگی را ترسیم کرد. و طول همبستگی را پیدا کنید. در یک کلام، می‌توان گفت که آیا عملکرد ریاضی او در طول ترم ثابت بوده است یا خیر (با فرض اینکه، اگر طول همبستگی از مقداری بیشتر بود، عملکرد را ثابت می‌خوانیم). ما می توانیم همین کار را برای کلاس علوم او انجام دهیم. حال می‌خواهیم پاسخ دهیم که عملکرد او تا چه اندازه ثابت بود؟
تنوع داده ها
10160
هدف نهایی این است که در یک نگاه به کاربران نشان دهیم که آیا داده های آنها به طور معمول توزیع شده است یا خیر. اولین تلاش یک کلاژ است که داده ها را در یک نمودار فرکانس رسم می کند. سپس از میانگین مشاهده شده و انحراف معیار برای ساختن نمودار «منحنی نرمال» استفاده می شود. نمودار فرکانس بر روی نمودار منحنی نرمال گذاشته شده و در کنار برخی از آمارهای کلیدی قرار داده شده است. نمودار فرکانس نیز سطل های مثبت را سبز و بن های منفی را قرمز رنگ می کند. به نظر می رسد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vPNKj.png) من اشتباه این رویکرد را درک می کنم، اما در حال حاضر عملی است. راه بهتری برای برخورد با این موضوع چیست؟
چند راه برای نمایش گرافیکی توزیع های غیر عادی در اکسل چیست؟
70228
من تخمگذاری پروانه را در باغ به مدت 4 ماه (400 خوشه در هفته) مشاهده کردم. پروانه روی برگ و سیب تخم می گذارد. من می خواهم میانگین بین تخم مرغ روی برگ و سیب را مقایسه کنم. من فرض می کنم از آزمون t زوجی استفاده کنم، اما نتیجه shapiro.test نشان داد که داده های من با نرمال بودن مطابقت ندارند. میخواستم بدونم که آیا باید از آزمون مجموع رتبه Kruskal-Wallis برای این مورد استفاده کنم؟ علاوه بر این، برای جلوگیری از تخمک گذاری، مقداری درمان روی سیب انجام دادم. من تخم‌ها را به‌صورت هفتگی روی خوشه‌های تیمار شده و تیمار نشده مشاهده کردم (درختان سیب تیمار شده و تیمار نشده در یک باغ بودند). سپس جدولی به دست آوردم: تخم مرغ درمان نشده مشاهده شده 40 1852 مشاهده نشده 6000 12600 آیا می توانم در این مورد از تست chisquare استفاده کنم؟
آزمون تی زوجی، آزمون مجموع رتبه ای کروسکال والیس و آزمون کای دو. کدام آزمون را انتخاب کنم؟
10167
### زمینه: در چارچوب مدل‌سازی معادلات ساختاری، من طبق آزمون ماردیا غیر نرمال بودن دارم، اما شاخص‌های تک متغیره چولگی و کشیدگی کمتر از 2.0 هستند. ### سوالات: * آیا تخمین پارامترها (تخمین ضریب) باید با استفاده از راه‌اندازی (1000 تکرار) با روش‌های اصلاح‌شده بایاس ارزیابی شوند؟ * به جای تست سنتی کای دو، آیا باید از نسخه بوت استرپ Bollen-Stine استفاده شود؟
پارامتر بوت استرپ و برآورد برازش با غیر نرمال بودن برای مدل‌های معادلات ساختاری
6680
من باید جدول A را به جدول B تبدیل کنم. چگونه می توانم با استفاده از R این کار را انجام دهم؟ **جدول A** Y 10 Y 12 Y 18 X 22 X 12 Z 11 Z 15 ** TABLE B** X 22 12 Y 10 12 18 Z 11 15
نیاز به تبدیل عناصر ستون تکراری به یک عنصر منحصر به فرد در R
91506
بگویید من یک سری زمانی از مشاهدات دارم و اندازه‌گیری واریانس آن سری زمانی را به‌عنوان انحراف استاندارد (SD) در یک پنجره متحرک با عرض $w$ محاسبه می‌کنم و آن پنجره در گام‌های زمانی منفرد روی سری جابجا می‌شود. بیشتر فرض کنید که $w = \left \lceil{n/2}\right \rceil$، که در آن $n$ تعداد مشاهدات است، و اینکه پنجره به راست تراز شده است. قبل از اینکه شروع به تخمین پنجره متحرک SD سری زمانی کنم، باید مقادیر $w = \left \lceil{n/2}\right \rceil$ سری را مشاهده کنم. آیا شکل مورد انتظاری برای ACF سری زمانی جدید مقادیر SD وجود دارد؟ من فرض می‌کنم وابستگی به مقادیر قبلی به پنجره‌ای با $w$ مربوط می‌شود، اما آیا ACF چنین سری‌هایی با ACF یک فرآیند $\mathrm{MA}(w)$ مرتبط است؟ ### پیش‌زمینه من سعی می‌کنم به مفاهیم استخراج یک سری زمانی از واریانس سری‌های زمانی اصلی از طریق پنجره‌های متحرک فکر کنم. پس از محاسبه سری مشتق شده از مقادیر SD، مرحله بعدی که معمولاً اعمال می شود این است که ببینیم آیا روندی در سری مشتق شده از مقادیر SD وجود دارد یا خیر. از آنجایی که هر مقدار در سری مشتق شده تا حدی به مقادیر قبلی سری اصلی بستگی دارد، مقادیر سری مشتق شده مستقل نیستند. بنابراین سوالی که اغلب مطرح می شود این است که چگونه می توان این عدم استقلال را توضیح داد. چنین محاسباتی (پنجره های متحرک) اغلب برای سری های زمانی انجام می شود تا شواهدی از شاخص ها (افزایش واریانس، افزایش ضریب AR(1)) پاسخ آستانه قریب الوقوع (به اصطلاح انتقال بحرانی) جستجو شود.
تابع همبستگی خودکار یک سری زمانی که از محاسبه انحراف استاندارد متحرک ناشی می شود چیست؟
65869
من از نظر آماری در چالش هستم و سعی می کنم نتایج نظرسنجی خود را با کلمات مناسب بیان کنم. من در حال بررسی هستم که آیا بازی های بیشتر منجر به هر نوع پرخاشگری می شود یا خیر. من از ANOVA استفاده می کنم و حتی مطمئن نیستم که آیا باید از آن استفاده کنم یا نه ... سوالاتی مانند 1) آیا وقتی بازی را باختید احساس پرخاشگری می کنید a. بله (مقدار 1) ب. خیر (مقدار 2) ج. گاهی اوقات (مقدار 3) 2) آیا اگر چند بازی را پشت سر هم ببازید دچار وسواس بازی می شوید. بله باید یک بار او را شکست دهم (مقدار 1) ب. خیر (مقدار 2) ج. گاهی اوقات (مقدار 3) اکنون این دو متغیر پرخاشگری ترکیبی برای هر گروه سنی خاص را تعریف می کنند. سوال این است که چگونه می توانم این پاسخ ها را با فرضیه خود مرتبط کنم؟ اگر من ANOVA را انجام دهم، می توانم تشخیص دهم که آیا یک گروه تفاوت قابل توجهی با گروه دیگر دارد یا خیر. اگر آنها هستند، پس این دو متغیر سطح پرخاشگری را تعریف نمی کنند، اما اگر نیستند، به این معنی است که این دو سؤال به یکدیگر مرتبط هستند (اگر در اینجا اشتباه می کنم، مرا اصلاح کنید). با این حال، این دو سوال واقعاً چگونه با فرضیه من ارتباط دارند؟ آیا باید یک رابطه همبستگی انجام دهم؟
به ارتباط پاسخ های نظرسنجی به فرضیه کمک کنید
86346
من یک مجموعه داده با حدود 700 مشاهده از 12 مرکز دارم. اگرچه اثر خوشه‌بندی همانطور که در یک مدل رهگیری تصادفی آزمایش شد معنی‌دار به نظر نمی‌رسید، استفاده از یک مدل چندسطحی / GEE مناسب‌تر به نظر می‌رسد. اما ممکن است انجام این کار آسان نباشد زیرا می‌خواهم میانجی‌های بالقوه متعددی را آزمایش کنم. (به طور خاص، مدل در ذهن من یک SEM بدون متغیرهای پنهان است). بنابراین سوال من این است: آیا از نظر تئوری مناسب است که داده ها را در یک مدل مسیر تک سطحی با استفاده از ML (برآورنده ساندویچ Huber یا بوت استرپ SE) قرار دهیم؟ به روز رسانی: با تشکر از کسانی که کمک می کنند. فقط یک به روز رسانی برای کاری که دیروز انجام دادم. من مدل های زیر را امتحان کردم: 1. SEM تک سطحی در R (بسته لاوان) 2. SEM تک سطحی در MPlus 3. SEM دو سطحی در Mplus (1) و (2) با ML (Huber / Bootstrap SE) نصب شد. ). (3) با برآوردگر بیزی نصب شد زیرا MLR همگرا نشد. اساساً همه موارد بالا نتایج مشابهی به من دادند اما (1) و (2) به من این شانس را دادند که تجزیه و تحلیل چند گروهی را در بالای SEM انجام دهم و (3) به نظر می رسد از نظر تئوری صحیح تر باشد. من کاملاً مطمئن نیستم که آیا می توان به نتایج (1) و (2) اعتماد کرد. یک جستجوی سریع ادبیات به من گفت که Huber SE حتی اگر مدل مشخص شده باشد، SE صحیحی را ارائه می دهد، اما پارامترهای تخمین زده ممکن است بایاس باشند. تحت این شرایط، آیا (1) و (2) تخمین پارامترهای مغرضانه ارائه می کنند؟
داده های خوشه ای بدون مدل چند سطحی / GEE؟
65842
من یک سوال در مورد تجزیه و تحلیل معنایی پنهان (LSA) دارم که در http://lsa.colorado.edu/papers/JASIS.lsi.90.pdf معرفی شده است. در صفحه 14، طرحواره هایی برای محاسبه شباهت بین انواع مختلف اشیاء توضیح داده شده است. سوال من این است - $S^2$ در این فرمولها چه فایده ای دارد، برای مثال در محاسبه شباهت سند-سند با $D\times{S^2}\times{D^T}$ - چرا به سادگی از $D استفاده نکنید. \times{D^T}$. توضیحی در زیر داده شده است که موقعیت نقاط یکسان است با این تفاوت که هر یک از محورها به نسبت عنصر مورب متناظر $S'$ کشیده یا منقبض شده اند. من واقعاً متوجه نشدم، بنابراین برای برخی توضیحات بسیار سپاسگزار خواهم بود. در واقع، چگونه باید شباهت کسینوس بین دو سند را در این نمایش محاسبه کنم؟ محصول نقطه‌ای کافی نیست، زیرا ردیف‌های $T$ و $D$ دارای طول واحد نیستند، بنابراین حدس می‌زنم که باید با چیزی مقیاس‌بندی شود - اما دقیقاً چه؟ همانطور که تعریف شباهت کسینوس می گوید با حاصل ضرب هر دو طول برداری؟ یا باید به نحوی از $S^2$ در اینجا نیز استفاده کنم؟ برای توضیح واضح بسیار سپاسگزار خواهم بود.
شباهت محاسباتی در LSA
77107
من می دانم که اگر H0: μ = 1.35، پس اگر `H1: μ != 1.35` به این معنی است که p-value 2P است (Z ≥ |z|) در غیر این صورت اگر H1: μ > 1.35 باشد، P(Z ≥ z) و H1: μ < 1.35 به این معنی است که p-value P است (Z ≤ z) با این حال، من در مورد نحوه انجام این کار با مجموعه های زیر شگفت زده هستم فرضیه H0: μ ≥ 1.35 H1: μ < 1.35 ## p-value=?? H0: μ ≤ 1.35 H1: μ > 1.35 p-value=??
از z-score تا p-value - چگونه این کار را برای این مجموعه فرضیه انجام دهیم؟
6688
فرض کنید من می خواهم یک طبقه بندی کننده باینری بسازم. من چندین هزار ویژگی دارم و فقط چند 10 نمونه. از دانش دامنه، دلیل خوبی برای این باور دارم که برچسب کلاس را می‌توان با استفاده از چند ویژگی به‌دقت پیش‌بینی کرد، اما نمی‌دانم _کدام‌ها. من همچنین می‌خواهم قانون تصمیم‌گیری نهایی به راحتی قابل تفسیر/توضیح باشد و تعداد کمی از ویژگی‌ها را ضروری می‌سازد. برخی از زیرمجموعه‌های مشخصی از ویژگی‌های من به شدت مرتبط هستند، بنابراین انتخاب پیش‌بینی‌کننده‌ترین چند به‌طور مستقل کار نخواهد کرد. همچنین می‌خواهم بتوانم به طور معناداری آزمایش فرضیه‌ها را روی ویژگی‌هایم انجام دهم. آیا روش رگرسیون گام به گام زیر در این شرایط معقول است: 1. با توجه به ویژگی های موجود در مدل (یا فقط وقفه در اولین تکرار)، مشخصه ای را انتخاب کنید که بیشترین نسبت احتمال ورود به سیستم را هنگام اضافه شدن به مدل ایجاد کند. از آزمون خی دو نسبت درستنمایی برای محاسبه مقدار P اسمی برای هر آزمون فرضیه انجام شده در این انتخاب استفاده کنید. نکته تهی در اینجا این است که افزودن متغیر اضافی به مدل هیچ قابلیت پیش بینی اضافی را ارائه نمی دهد. گزینه جایگزین این است که توانایی پیش‌بینی را افزایش می‌دهد. 2. فرضیه‌های آزمایش‌شده در مرحله 1 هر تکرار را به‌عنوان یک خانواده بررسی کنید و نرخ کشف نادرست را برای کوچک‌ترین مقدار P (برای ویژگی انتخاب‌شده) با استفاده از چیزی شبیه بنجامینی-هوچبرگ محاسبه کنید. 3. برو 1 مگر اینکه برخی از معیارهای توقف برآورده شوند. 4. نرخ‌های کشف نادرست را برای ویژگی‌های فردی گزارش کنید، اما **_not_** مقدار P را برای کل مدل گزارش کنید (زیرا این مقدار به شدت افزایش می‌یابد). هر یک از این مقادیر P تصحیح‌شده چندگانه نشان‌دهنده اهمیت آماری آن ویژگی _given_ همه ویژگی‌هایی است که قبلاً به مدل اضافه شده‌اند. آیا انجام چنین کاری در این شرایط با موفقیت از همه انتقادات معمولی از رگرسیون گام به گام جلوگیری می کند؟ آیا نرخ کشف نادرست از این طریق محاسبه می شود؟
رگرسیون گام به گام سالم؟
80955
آیا به هر حال بتوانم LASSO را با رگرسیون دوجمله ای منفی روی R انجام دهم؟ من یک رگرسیون دو جمله ای منفی روی مجموعه داده خود انجام می دهم زیرا داده ها برای تحمیل رگرسیون پواسون بسیار پراکنده هستند. در همین حال، من نیز با مشکل چند خطی مواجه هستم. من قبلاً سعی کردم از «glmnet» با «family = poisson» استفاده کنم، اما داده ها به خوبی مطابقت ندارند (هم برای آلفا = 0 و هم برای آلفا = 1)... راستش نمی دانم برای تجزیه و تحلیل این آشفتگی بزرگ چه کار کنم. از داده ها :/ متشکرم ویرایش: در اینجا جدول واریانس-کوواریانس برازش دوجمله ای منفی 8.392729e+18 1.239178e+06 است. -3.624090e+05 1.896258e+17 -3.702521e+17 1.239178e+06 1.119052e-04 5.201989e-06 -1.877590e+05 -2.504+05 -2.50505-05 -2.50509 5.201989e-06 5.179343e-06 -8.021543e+04 -1.436381e+05 1.896258e+17 -1.877590e+05 -8.021543e+04 2.196+194+2.196 -3.702521e+17 -2.558095e+05 -1.436381e+05 6.413947e+16 2.142183e+17
کمند در مدل رگرسیون دو جمله ای منفی
6353
به نظر می‌رسد می‌توانید از کدنویسی برای یک متغیر طبقه‌بندی استفاده کنید، اما من دو متغیر طبقه‌بندی و یک متغیر پیش‌بینی پیوسته دارم. آیا می توانم از رگرسیون چندگانه برای این در SPSS استفاده کنم و اگر بله چگونه؟ با تشکر
آیا می توانم از رگرسیون چندگانه در زمانی که پیش بینی کننده های مقوله ای و پیوسته ترکیبی دارم استفاده کنم؟
14887
من ضرایب همبستگی را برای 90 روز افزایش یک سری زمانی محاسبه کرده ام (یعنی یک ضریب برای روزهای 0-90، 91-180، و غیره). محاسبه این ضرایب از نظر محاسباتی بسیار پرهزینه بود و من می خواهم همبستگی ها را در دوره های 6 ماهه، دوره های 1 ساله و غیره تجزیه و تحلیل کنم. آیا می توان چگونه این ضرایب را ترکیب کرد؟ یعنی آیا می توانم همبستگی را در طول 180 روز به صورت 0.5*c1+0.5*c2 دریافت کنم؟ من می دانم که در حالت کلی نمی توان این کار را انجام داد، اما چون ضرایب از همان تعداد نمونه محاسبه می شود، آیا امکان پذیر است؟
اضافه کردن ضرایب همبستگی سری های زمانی
72096
من منحنی ROC را برای عملکرد طبقه‌بندی کننده SVM در Matlab ترسیم کردم. من باید مقدار آستانه بهینه را از منحنی ROC پیدا کنم و باید SVM را در آن آستانه خاص برای طبقه بندی آینده تنظیم کنم. آیا تابع Matlab وجود دارد که بتوان از آن برای محاسبه خودکار مقدار آستانه بهینه (که حساسیت و ویژگی حداکثر یا بالاتر از 0.85 است) استفاده کرد و SVM را با همان آستانه تنظیم کرد؟ هر گونه کمک در این مورد واقعا قدردانی خواهد شد. پیشاپیش ممنون
یافتن آستانه بهینه از منحنی ROC (طبقه‌بندی کننده SVM در Matlab)
14889
من در یک متن طبقه بندی الگو خواندم که اگر بردارهای وزنی را در نظر بگیریم که اجزای آنها عدد صحیح هستند، روند پرسپترون در تعداد محدودی از مراحل خاتمه می یابد. شهود و نظریه پشت این چیست؟ **ویرایش:** این یک مشکل تکلیف از کتاب درسی طبقه بندی الگوها توسط دودا، هارت، استورک است، و من فقط یک اشاره می خواستم، بنابراین درخواست بالا را ارسال کردم. مشکل تکلیف واقعی اینجاست: > اجازه دهید ${y_{1},...,y_{n}}$ مجموعه متناهی از نمونه های خطی قابل جداسازی در ابعاد d> باشد. یک روش جامع پیشنهاد کنید که یک بردار جداکننده > را در تعداد محدودی از مراحل پیدا کند. (شاید بخواهید وزن > بردارهایی را در نظر بگیرید که اجزای آنها عدد صحیح هستند.)
یک روش جامع پیشنهاد کنید که یک بردار جداکننده برای الگوی قابل جداسازی خطی در تعداد محدودی از مراحل پیدا کند.
91500
من سعی کرده ام از ابزارهای آنلاین برای تعیین اندازه نمونه جمعیت برای آزمایشی که اجرا خواهم کرد استفاده کنم. با این حال، من واقعاً قسمت درصد را که سعی کردم از این ماشین حساب اندازه نمونه www.calculator.net استفاده کنم متوجه نمی شوم، اما از درک نکردن آن احساس خوشحالی نمی کنم، حتی اگر بیشتر اطلاعاتی که خوانده ام گفته باشد که آن را در اینجا بگذارید. 50 (بدترین سناریو؟). به نظر نمی‌رسد توضیحات موجود در وب‌سایت اصلاً کمکی نمی‌کند > درصد: درصد یک پاسخ خاص انتخاب شده است. و برخی منابع دیگر فقط اندکی بهتر به نظر می رسند. > دقت شما همچنین به درصد نمونه شما بستگی دارد که یک پاسخ خاص را انتخاب می کند... مسئله من این است که چه پاسخی و چه سوالی؟، چه می شود اگر تمام سوالات نظرسنجی من مقیاس های لیکرت باشد و کاربر باید پاسخ دهد. آنها؟ همه کسانی که این نظرسنجی را انجام می دهند باید آن را تکمیل کنند یا پاسخ های آنها ثبت نمی شود، پس آیا درصد من 100٪ است؟ هر گونه کمک بسیار قدردانی می شود
مشکل درک «درصد» هنگام کار کردن با فاصله اطمینان
26220
> **تکراری احتمالی:** > نرمال بودن فرض ANOVA/توزیع نرمال باقیمانده ها من یک مجموعه داده دارم که اندازه گیری های سطح بذر، رنگ و گردی را در 5 نقطه زمانی تقسیم بندی شده توسط 2 گروه درمانی ذخیره می کند. 12 تکرار برای هر گروه در نقاط زمانی وجود دارد. من می خواستم یک ANOVA معمولی (Area ~ group*time + Error(id)) و یک تجزیه و تحلیل اندازه گیری های مکرر و یک تست Tukey (زمان و گروه) انجام دهم، اما Area من در داده های من نرمال نیست اما همگن است، رنگ همان است. برعکس، گرد و گرد بودن نه نرمال است و نه همگن. من از boxcox برای تبدیل داده ها استفاده کردم اما هنوز همان نتایج را دریافت می کنم. برای تجزیه و تحلیل این داده ها چه چیزی را توصیه می کنید؟ پیشاپیش ممنون؟ لوانا
ANOVA اندازه گیری های مکرر زمانی که داده ها غیر عادی و غیر همگن هستند
6354
اکثر روش‌ها برای تجزیه و تحلیل داده‌های نمادین در حال حاضر در نرم‌افزار SODAS پیاده‌سازی می‌شوند. آیا بسته های R برای داده های نمادین به جز clamix و clusterSim وجود دارد؟
بسته R برای تجزیه و تحلیل داده های نمادین
45269
در زیر سوال و راه حل برای قسمت c است که بخشی است که من متوجه نمی شوم. کسی میتونه برام توضیح بده؟ من کاملا نمی دانم که چگونه آن را $3\ بیش از 7 $ دریافت می کند و چرا نیاز به آن دارد؟ آیا راهنمایی در مورد آن؟ رونویسی شده از دو تصویر: دورا بندر و جوی مارک با هم در مدرسه بازرگانی فارغ التحصیل شدند. هر دو امیدوارند یک کافی شاپ در گوشه و کنار مرکز مالی باز کنند. با استفاده از یک رویکرد سیستمی، دورا و جوی سه استراتژی را شناسایی کرده اند. استراتژی 1 دلاری سرمایه گذاری در یک قهوه ساز نسبتاً گران قیمت با دانه قهوه باکیفیت وارداتی از ایتالیا است. در یک بازار مطلوب، آنها باید بتوانند سود خالص 12000 دلاری را در یک ماه به دست آورند. اگر بازار نامطلوب باشد، آنها می توانند $8000 $ ضرر کنند. استراتژی 2 دلاری خرید یک آبجو ارزان تر است. در یک بازار مطلوب، آنها می توانند بازدهی 8000 دلاری کسب کنند، در حالی که در یک بازار نامطلوب، 5000 دلار ضرر خواهند داشت. استراتژی سوم این است که هیچ کاری انجام ندهید. اساسا جوی ریسک پذیر است، اما دورا ریسک گریز است. (الف) جوی باید از چه نوع روش تصمیم گیری استفاده کند؟ تصمیم جوی چه خواهد بود؟ (ب) منحنی سودمندی در مقابل ارزش پولی دورا و جوی را ترسیم کنید. (ج) در طول دوره تصمیم گیری، یک شرکت بازاریابی با دورا و جوی تماس گرفته است. پرایس اد مارکتینگ، که مدعی شد می‌توانند تحلیل فنی را با اطمینان برای شرایط بازار در سال آینده ارائه کنند. با استفاده از تکنیک ارزش مورد انتظار اطلاعات کامل (EVPI)، تعیین کنید که جوی و دورا بیشترین تمایل به پرداخت را برای PriceAd دارند؟ $\begin{array}{} \text{(c)} &0 \le p \le \frac37\quad&\text{EVPI} = 5000 - 1000 p\\\ &\frac37 \lt p \lt 1\quad&\ متن{EVPI} = 8000 - 8000 p\\\ &p=0.5\quad&\text{EVPI} = \$4000 \end{آرایه}$
یک مشکل لجستیک در مورد نظریه تصمیم گیری
70220
من داده های چندین کلاس مدرسه (با چند دانش آموز) را دارم. من می‌خواهم مقادیر مورد انتظار/پیش‌بینی شده کلاس A را برای برخی از آیتم‌ها با استفاده از یک رگرسیون (یک رگرسیون خطی چندگانه در آن مورد خاص) محاسبه کنم که می‌خواهم پارامترها/وزن‌های رگرسیون را با استفاده از همه کلاس‌ها به جز A تخمین بزنم. فرض کنید برای یک آیتم $. I$، می‌خواهم $f_{model}$ را به صورت $f_{model}\left( x_0، \dots، x_n \right) = I + \varepsilon$ تخمین بزنم با استفاده از داده‌های $x_0، \dots، x_n$ از همه دانش‌آموزان $p\in \\{\mbox{دانش‌آموزان از همه کلاس‌ها}/(p\in A)\\}$ که در آن $A$ مجموعه‌ای از دانش‌آموزان است کلاس مدرسه $A$. با داشتن $f$ می‌خواهم $Y_{پیش‌بینی شده} = f_{model}\left(y_0, \dots,y_n \right)$ را برای داده‌های $y_0, \dots, y_n$ از همه دانش‌آموزان $p' محاسبه کنم. \ به دلار استرالیا. اگرچه من می دانم که چگونه این کار را برای یک مورد انجام دهم (پارامترها را بنویسید و رگرسیون را به صورت دستی محاسبه کنید)، می خواهم بدانم آیا یک روش خودکار برای انجام این کار وجود دارد، به عنوان مثال. یک تابع یا روش یا یک چک باکس برای بررسی. حتی نام یک بسته اضافی نیز کافی است، احتمالاً دانشگاه من قبلاً مجوز آن را دارد.
رگرسیون پیشرفته در SPSS
57600
میانگین و انحراف معیار N توزیع نرمال x1,x2...xn به شما داده می شود احتمال اینکه x1 حداکثر باشد چقدر است؟ یعنی P(x1>x2,x3..xn) را پیدا کنید چگونه این را حل کنم؟ x1، x2، x3 و غیره مستقل هستند. هر گونه کمکی قدردانی خواهد شد، با تشکر!
احتمال اینکه یک توزیع نرمال معین در میان سایرین حداکثر باشد
49870
من در حال انجام ANCOVA هستم. متغیر وابسته من تعداد روزهای غیبت دانش آموز از مدرسه است. همانطور که می توان تصور کرد، این متغیر نرمال نیست، بنابراین من یک تبدیل log10 را انجام دادم. وقتی تجزیه و تحلیل را با متغیر تبدیل شده اجرا می کنم، هیچ رابطه معنی داری با متغیر مورد علاقه خود پیدا نمی کنم. با این حال، وقتی آن را با متغیر وابسته اصلی اجرا می‌کنم، رابطه معنادار است. همچنین، فرض همگنی با متغیر وابسته اصلی نقض می شود، اما با متغیر تبدیل شده نقض نمی شود. با توجه به تخلفات، این تصور را داشتم که باید قدرت آماری کاهش یابد. چرا من فقط زمانی نتایج قابل توجهی پیدا می کنم که این فرضیات نقض شوند؟ کسی میتونه کمک کنه اینو برام توضیح بده؟ همچنین باید اشاره کنم که حجم نمونه من کاملاً نابرابر است و در این مورد سلول کوچکتر واریانس کمتری روی متغیر وابسته دارد.
غیر نرمال بودن و ناهمگنی در ANCOVA
6355
من فرض الگوریتم kNN برای داده های مکانی را درک می کنم. و می‌دانم که می‌توانم آن الگوریتم را گسترش دهم تا روی هر متغیر داده پیوسته (یا داده‌های اسمی با فاصله همینگ) استفاده شود. با این حال، هنگام برخورد با داده های با ابعاد بالاتر از چه استراتژی هایی استفاده می شود؟ به عنوان مثال، بگویید من یک جدول از داده ها دارم (x[1]، x[2]، x[3]، ...، x[n]) و می خواهم مجموعه ای از طبقه بندی کننده ها را برای پیش بینی یکی از آن ستون ها بسازم. (بگویید x [n]). با استفاده از الگوریتم kNN، من هر دو ستون را از ستون‌های باقی‌مانده (x[1]-x[n-1]) برای آموزش انتخاب می‌کنم. بنابراین بگویید می‌توانم x[1] و x[2] را انتخاب کنم و از آن‌ها یک طبقه‌بندی بسازم. یا می‌توانم x[1] و x[4] را انتخاب کنم، یا می‌توانم x[5] و x[8] و غیره را انتخاب کنم. طبقه بندی کننده از آن. آیا استفاده از ابعاد بالاتر (2 بعدی، سه بعدی و غیره) مزیتی دارد یا باید طبقه بندی کننده های تک بعدی x-1 بسازید و پیش بینی های آنها را به نحوی جمع آوری کنید؟ از آنجایی که ساخت همه این طبقه‌بندی‌کننده‌ها از همه ترکیب‌های بالقوه متغیرها از نظر محاسباتی گران است. چگونه می توانم این جستجو را برای یافتن بهترین طبقه بندی کننده های kNN از آن مجموعه بهینه کنم؟ و وقتی یک سری طبقه بندی کننده پیدا کردم بهترین راه برای ترکیب خروجی آنها با یک پیش بینی واحد چیست؟ رای دادن شاید ساده ترین پاسخ به این سوال باشد. یا وزن دادن به هر رأی با نرخ خطا از داده های آموزشی برای هر طبقه بندی کننده. چگونه اکثر پیاده سازی ها از kNN برای یادگیری تعمیم یافته استفاده می کنند؟
به درک kNN برای داده های چند بعدی کمک کنید
72094
من نتایج 5 نظرسنجی را به فاصله 2 سال دارم و فرض کنیم هیچ موضوعی در بیش از یک نظرسنجی انتخاب نشده است. روش نمونه‌گیری مورد استفاده در این نظرسنجی‌ها مغرضانه است و من وزن نمونه‌گیری را (با توجه به جامعه) برای هر نقطه داده در هر مطالعه محاسبه می‌کنم. سوال این است که چگونه می توانم 5 مجموعه داده را ترکیب کنم و وزن ها را مجدداً محاسبه کنم تا یک مجموعه داده غول پیکر برای تجزیه و تحلیل بر روی این جمعیت بدست آوریم؟ همچنین، اگر افراد در بیش از یک نظرسنجی ظاهر شوند، چه کاری باید انجام دهم؟ # به‌روزرسانی‌ها/ توضیحات بیشتر: با تشکر از شما @user30523، در اینجا اطلاعات بیشتری وجود دارد که ممکن است مفید باشد: فرض کنید می‌خواهم با استفاده از این 5 مجموعه داده، توزیع تخمینی قد را در بین جمعیت پیدا کنم. در برخی داده ها، افراد جوان تر به دلیل مکانی که در آن نظرسنجی انجام می شود بیش از حد نمونه گیری می شوند. فرض کنید وزن ها با توجه به سن آنها محاسبه می شود. به عنوان مثال با فرض اینکه 2٪ از جمعیت 15 ساله هستند، و مکان نظرسنجی در یک مرکز خرید است که در آن افراد 15 ساله 5٪ از کل خریداران را تشکیل می دهند، سپس وزن نمونه برای یک فرد 15 ساله در آن نظرسنجی به صورت محاسبه می شود. 0.02 / 0.05 = 0.4. برای سادگی، هر فرد در مرکز خرید شانس برابری برای نظرسنجی دارد و همه شرکت‌کنندگان در صورت درخواست از آنها پیروی کردند. با توجه به اینکه 5 نظرسنجی در 5 مرکز خرید مختلف انجام می‌شود و هر کدام مجموعه وزن‌های خود را به یک روش محاسبه می‌کنند، چگونه می‌توانم تمام 5 مجموعه داده را ترکیب کرده و وزن‌های نمونه را دوباره محاسبه کنم؟ P.S: من با مبحث نمونه گیری وزن ها تازه کار هستم، بنابراین اگر در نحوه محاسبه وزن ها اشتباه کرده ام، مرا تصحیح کنید.
نحوه ترکیب داده‌های 5 نظرسنجی از یک جمعیت در طول 10 سال
74458
من دو مجموعه توزیع Weibull از دو مجموعه داده باد دارم تا بررسی کنم که آیا آنها یکسان هستند یا خیر. من فکر می‌کردم که یک آزمون t 2 نمونه قابل اجرا باشد، اما هیچ راهی برای انجام آن در اینترنت پیدا نکردم. آیا کسی می داند چه نوع آزمونی برای هدف من قابل اجرا است؟ و چه تابع R را می توانید توصیه کنید؟ به علاوه، اگر معلوم شد که بین دو مجموعه داده تفاوت وجود دارد، آیا می توانم فقط یک خط خطی بین مجموعه داده ها قرار دهم؟
چگونه می توانم تفاوت دو توزیع Weibull را آزمایش کنم؟
77101
من متعجبم که اگر یک رگرسیون لجستیک اثرات تصادفی انجام دهید، معمولاً چه بررسی‌ها/تشخیص‌هایی را محاسبه و گزارش می‌کنید. * منحنی C-statistic/ROC * چند خطی بودن را بررسی کنید؟ * ناهمسانی را بررسی کنید؟ * McKelvey & Zalvoina R-squared * ... اطلاعات زیادی در مورد رگرسیون لجستیک استاندارد و مواردی که باید بررسی کنید وجود دارد، اما من یک نمای کلی در مورد آنچه برای رگرسیون لجستیک در داده های تابلویی اعمال می شود را گم کرده ام. با تشکر
چه تشخیصی برای رگرسیون لجستیک اثرات تصادفی؟
70229
من چند زمان مجزا از رویدادها دارم و می‌خواهم آزمایشی انجام دهم تا ببینم آیا آنها احتمالاً از یک فرآیند پواسون همگن ناشی شده‌اند یا خیر. از www.stat.wmich.edu/wang/667/classnotes/pp/pp.pdf‏ من می بینم REMARK 6.3 (TESTING POISSON) قضیه بالا همچنین ممکن است برای آزمایش این فرضیه استفاده شود که یک فرآیند شمارش معین یک فرآیند پواسون است. این ممکن است با مشاهده فرآیند برای یک زمان ثابت انجام شود پواسون، زمان‌های وقوع نامرتب به طور مستقل و یکنواخت روی (0, t] توزیع می‌شوند. بنابراین، می‌توانیم با آزمایش این فرضیه که n زمان وقوع از یک جمعیت یکنواخت (0, t] است، پواسون بودن فرآیند را آزمایش کنیم. این ممکن است با روش‌های آماری استاندارد مانند آزمون کولموگروف-اسمیروف انجام شود. 7، 18، 22، 41، 43، 66، 73، 86، 92] و بازه زمانی من از 1 دلار تا 100 دلار بود.
تست فرآیند پواسون
71176
اخیراً شروع به مطالعه یادگیری ماشین کردم، اما نتوانستم شهود پشت رگرسیون لجستیک را درک کنم. موارد زیر حقایقی در مورد رگرسیون لجستیک است که من آنها را درک می کنم. 1. به عنوان مبنای فرضیه از تابع سیگموئید استفاده می کنیم. من می‌دانم که چرا این انتخاب _a_ صحیح است، اما نمی‌فهمم چرا این انتخاب _تنهاست. فرضیه این احتمال را نشان می دهد که خروجی مناسب $1$ است، بنابراین دامنه تابع ما باید $[0,1]$ باشد، این تنها ویژگی تابع سیگموید است که من در اینجا مفید و مناسب یافتم، با این حال بسیاری از توابع این ویژگی را برآورده می کنند. علاوه بر این، تابع سیگموئید مشتقی به این شکل $f(x)(1-f(x))$ دارد، اما من سودمندی این فرم خاص را در رگرسیون لجستیک نمی‌بینم. **سوال**: ویژگی تابع sigmoid چیست و چرا ما نمی توانیم از هیچ تابع دیگری با دامنه $[0,1]$ استفاده کنیم؟ 2. تابع هزینه از دو پارامتر ${\rm Cost}(h_{\theta}(x),y)=-\log(h_{\theta}(x))$ تشکیل شده است اگر $y=1، {\ rm Cost}(h_{\theta}(x),y)=-\log(1-h_{\theta}(x))$ if $y=0$. همانطور که در بالا بود، من متوجه می شوم که چرا درست است، اما چرا تنها شکل است؟ به عنوان مثال، چرا $|h_{\theta(x)}-y|$ نمی تواند انتخاب خوبی برای تابع هزینه باشد؟ **سوال**: چه چیزی در مورد شکل بالا تابع هزینه خاص است. چرا نمی توانیم از فرم دیگری استفاده کنیم؟ اگر بتوانید درک خود را از رگرسیون لجستیک به اشتراک بگذارید سپاسگزار خواهم بود.
شهود پشت رگرسیون لجستیک
85700
ما یک ابزار نظرسنجی داریم و علاقه مند به ارزیابی ابعاد آن هستیم. با نگاهی به نمودارهای مقیاس بندی چند بعدی، به نظر می رسد که شاید 3 بعد متمایز برای بررسی وجود داشته باشد زیرا 3 خوشه به ظاهر به خوبی تعریف شده از پاسخ ها وجود دارد. وقتی طرح Scree را انجام می‌دهم، مشاهده می‌کنم که 7 بعد وجود دارد که مقادیر ویژه آن‌ها بزرگ‌تر از یک است، بنابراین Kaiser-Guttman این ابعاد بالای ضد محافظه‌کاری را نشان می‌دهد. انجام یک تحلیل موازی با تولید مقادیر عادی تصادفی مستقل با همان شکل ماتریس پاسخ‌ها، قبل از اینکه مقادیر ویژه با داده‌های تولید شده به‌طور تصادفی سازگار شوند، 4 بعد محافظه‌کارانه‌تر به دست می‌دهد. با این حال، تجزیه و تحلیل موازی در کدگذاری و قالب داده‌ها و توزیع‌های متفاوت کوواریانس‌های احتمالی تحت فرضیه صفر تأثیری نمی‌گذارد. انجام آزمایش جایگشت داده های پاسخ اصلی با جایگشت مقادیر در هر ستون منطقی است. این همان میانگین و انحراف استاندارد را برای این مقادیر حفظ می کند، اما یک توزیع نمونه برای ماتریس همبستگی تحت یک فرضیه صفر از داده های کاملاً مستقل پیدا می کند. آیا این قبلا بررسی شده است؟ آیا نامی برای چنین آزمونی وجود دارد؟ آیا اخطارهایی برای این رویکرد وجود دارد؟
تست جایگشت برای تحلیل عاملی
70221
فرض کنید دو نمونه A و B با اندازه N = 20 از یک جمعیت جفت $(Y_i، X_i)$ گرفته شده و رگرسیون OLS جداگانه از هر نمونه برای مدل محاسبه می شود: $$Y_i=\beta_1+\beta_2X_i+\varepsilon_i$ $ با توجه به ضریب شیب، دو تخمین $\hat\beta_{2A}$ و $\hat\beta_{2B}$ و خطاهای استاندارد مربوط به آنها $s_{2A}$ و $s_{2B}$. سپس می توان یک آزمون t برای یک فرضیه صفر به کار برد که به طور موقت به صورت زیر بیان می کنم: > $H_0$: تفاوت بین میانگین توزیع نمونه گیری > برآورد $\beta_2$ مربوط به نمونه A و میانگین نمونه گیری > توزیع تخمین $\beta_2$ مرتبط با نمونه B کمتر از $\Delta$ است. در اینجا $\Delta$ اندازه تفاوت است که با توجه به هدف مدل مورد توجه عملی است (من در اینجا با پاسخ به این سوال راهنمایی شده ام). از آنجایی که خطاهای استاندارد احتمالاً متفاوت هستند، به نظر می رسد آزمون مناسب آزمون t ولش باشد، آمار آزمون (با فرض $\hat\beta_{2A} > \hat\beta_{2B}$): $$t=\frac{\hat\beta_{2A}-\hat\beta_{2B}-\Delta}{\sqrt(s_{2A}^2+s_{2B}^2)}$$ می‌توانم ببینم چگونه محاسبه را انجام دهیم و به طور کلی ببینیم که اگر فرضیه صفر رد شود، ممکن است انحراف از مفروضات مدل رگرسیون خطی کلاسیک یا تصادفی نبودن در انتخاب نمونه با این حال، من متحیر هستم که دقیقاً چه چیزی با چنین آزمون t آزمایش می شود. **سوال**: چگونه می توان فرمول $H_0$ من را بهبود بخشید تا دقیقاً نشان دهد که این کاربرد آزمون t واقعاً چه چیزی را آزمایش می کند؟ همانطور که فرمول بندی شد، به نظر می رسد فرض شود که ارجاع به توزیع نمونه گیری _از یک نمونه خاص_ منطقی است. این اشتباه به نظر می رسد زیرا توزیع نمونه (آماری مانند میانگین) ویژگی نمونه های _تکرار شده است، نه فقط یک نمونه. اگر این دو نمونه از زیرجمعیت‌های متمایز گرفته شده بودند، منطقی است که به توزیع نمونه‌گیری میانگین برای هر زیرجمعیت اشاره کنیم. اما در اینجا اینطور نیست: هر دو نمونه از کل جامعه گرفته شده است.
معنی آزمون t مقایسه خروجی رگرسیون از دو نمونه
44136
آیا اگر از bootstrapping در یک نمونه فرعی از یک مجموعه داده بزرگتر استفاده کنم، نتایج کاملاً سوگیری به دست خواهم آورد؟ به جای ترسیم 100 نمونه بوت استرپ از مجموعه داده 50 میلیونی + رکورد، که می تواند منابع سرور را افزایش دهد، به این فکر می کنم که ابتدا یک نمونه تصادفی 5٪، با جایگزینی، از رکوردها از مجموعه داده اصلی ترسیم کنم. سپس با استفاده از نمونه 5 درصد، فواصل اطمینان 95 درصدی را برای چندین آمار مورد علاقه ایجاد کنید. بنابراین در اصل من از یک نمونه بوت استرپ بوت استرپ می کنم. من با داده‌های بهداشتی کار می‌کنم که بر اساس ارائه‌دهنده و دوره مراقبت خوشه‌بندی شده‌اند، از این رو ترسیم یک نمونه نماینده مناسب 5 درصد نیاز به مراقبت دارد. برخی توصیه‌های قبلی به من در جهت درست اشاره کرده است (تکنیک راه‌اندازی مناسب برای داده‌های خوشه‌ای؟).
مشکلات بوت استرپینگ در نمونه تصادفی داده های اصلی چیست؟
45267
هم تابع لجستیک و هم انحراف استاندارد معمولاً $\sigma$ نشان داده می شوند. من از $\sigma(x) = 1/(1+\exp(-x))$ و $s$ برای انحراف استاندارد استفاده خواهم کرد. من یک نورون لجستیک با ورودی تصادفی دارم که میانگین $\mu$ و انحراف استاندارد $s$ را می دانم. امیدوارم تفاوت از میانگین را بتوان با مقداری نویز گاوسی به خوبی تقریب زد. بنابراین، با سوء استفاده جزئی از نمادگذاری، فرض کنید که $\sigma(\mu + N(0,s^2))=\sigma(N(\mu,s^2))$ تولید می کند. **مقدار مورد انتظار $\sigma(N(\mu,s^2))$ چیست؟** انحراف استاندارد $s$ ممکن است در مقایسه با $\mu$ یا $1$ بزرگ یا کوچک باشد. یک تقریب فرم بسته خوب برای مقدار مورد انتظار تقریباً به خوبی یک راه حل شکل بسته است. فکر نمی‌کنم راه‌حل بسته‌ای وجود داشته باشد. این را می توان به عنوان یک کانولوشن مشاهده کرد، و تابع مشخصه برای چگالی لجستیک شناخته شده است ($\pi t ~\text{csch} ~\pi t$)، اما من مطمئن نیستم که چقدر کمک می کند. ماشین حساب نمادین معکوس قادر به تشخیص چگالی 0$ از پیچیدگی چگالی توزیع لجستیک و توزیع نرمال استاندارد نبود، که نشان می‌دهد اما ثابت نمی‌کند که انتگرال ابتدایی ساده وجود ندارد. شواهد غیرمستقیم تر: در برخی از مقالات در مورد افزودن نویز ورودی گاوسی به شبکه های عصبی با نورون های لجستیک، این مقالات عبارات شکل بسته را نیز ارائه نکردند. این سوال در تلاش برای درک خطا در تقریب میدان میانگین در ماشین‌های بولتزمن مطرح شد.
ورودی لجستیک با نویز گاوسی
85703
من با نظریه تصمیم بیزی تازه کار هستم و مفهوم زیر را درک نمی کنم: بنابراین از آنچه که فهمیدم، از خطای بیز برای گزارش عملکرد یک طبقه بندی کننده بیز از نظر احتمال ایجاد و خطا استفاده می شود. از احتمالات خطای شرطی ![خطای شرطی] (http://sebastianraschka.com/_my_resources/images/equations/cond_error.png) می‌توانیم احتمال کل خطا (احتمال طبقه‌بندی اشتباه) را بدست آوریم. ![error](http://sebastianraschka.com/_my_resources/images/equations/error.png) حال، اگر طبقه‌بندی‌کننده Bayes من برای به حداقل رساندن ریسک کلی طراحی شده باشد، من یک تابع ضرر دارم که جریمه‌هایی را برای تصمیمات خاص تعیین می‌کند. ![ریسک مشروط](http://sebastianraschka.com/_my_resources/images/equations/cond_risk.png) ![ریسک کلی](http://sebastianraschka.com/_my_resources/images/equations/overall_risk.png) بنابراین، اگر طبقه‌بندی‌کننده من دارای چنین تابع ضرری باشد وقتی طبقه‌بندی‌کننده خود را برای حداقل ریسک کلی بهینه می‌کنم، نباید خطای Bayes عبارت تابع ضرر را نیز شامل می شود؟ امیدوارم بتوانید در اینجا به من کمک کنید، زیرا فکر می‌کنم من چیزی را در اینجا گم کرده‌ام... **ویرایش:** سعی می‌کنم مشکلم را با استفاده از یک مشکل طبقه‌بندی دو بعدی بیان کنم: فرض کنید من دو فایل pdf دارم (به عنوان مثال، p( x|c1) و p(x|c2) ) با همپوشانی جزئی. و طبقه بندی اشتباه یک الگو به عنوان c2 در جایی که واقعاً به c1 تعلق دارد پرهزینه تر از بالعکس است. در این مورد، من تلفات بیشتری را به **طبقه بندی الگوی x به عنوان c1 زمانی که واقعاً c2 است** نسبت به **طبقه بندی الگوی x به عنوان c2 زمانی که واقعاً c1 است** را به منظور محاسبه و به حداقل رساندن نسبت می دهم. ریسک کلی بنابراین احتمال طبقه بندی یک الگوی x را به عنوان c2 در مقابل c1 به دلیل حداقل بهینه سازی ریسک افزایش می دهم. آیا این چیزی نیست که من باید در p(error) نیز وارد کنم؟
سوال در مورد محاسبه خطای Bayes - با یا بدون تابع ضرر؟