_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
76364
|
من یک روش پیش آزمون، پس آزمون انجام دادم و سعی کردم یک آزمون t انجام دهم تا نشان دهم چگونه نمرات خواندن از پاییز تا بهار افزایش یافته است. من مطمئن نیستم که اعداد من دقیق هستند یا خیر. چیزی که من را ناامید می کند، فرضیه صفر است. طبق محاسبات من با استفاده از اکسل، 7.37 دلار \ برابر 10^{-27} دلار یا 0.0000000000000000000000000000737 است (برای یک آزمون t زوجی، 2 دنباله). آیا این واقع بینانه است؟ درک من این است که برای رد فرضیه صفر باید به <.05 برسید. و آزمون های تی محاسبه شده من واقعا کوچک هستند. آیا این به این معنی است که من می توانم فرضیه صفر را رد کنم و بگویم کاری که برای افزایش نمره خواندن انجام دادم مؤثر بود؟ همچنین برخی از دانش آموزانی که در پاییز امتحان داده بودند، در اواسط سال از کلاس من انصراف دادند و در آزمون بهاره شرکت نکردند. آیا آن سلول ها را خالی می گذارم یا آنها را با صفر پر می کنم؟ یا فقط وانمود کنم که آن بچه ها هرگز وجود نداشته اند؟ چقدر این نتایج را از بین می برد؟ با تشکر
|
آزمون t زوجی برای حمایت از افزایش نمرات خواندن دانش آموزان از پاییز تا بهار
|
44229
|
من از SigmaPlot برای اجرای PCA روی اندازهگیریهای مختلف استفاده میکنم که همگی باید با اندازه یک حیوان مطابقت داشته باشند. اجرای PCA با استفاده از یک ماتریس کوواریانس (به جای ماتریس همبستگی، زیرا همه اندازهگیریها در واحدهای یکسان اندازهگیری میشوند)، علیرغم نسبت نسبتاً بالایی از واریانس توضیح داده شده، مقادیر ویژه واقعاً بسیار کوچکی را برای سه رایانه شخصی اول به همراه داشت. من خوانده ام که نسبت واریانس توضیح داده شده باید با مقدار ویژه مطابقت داشته باشد، اما مطمئن نیستم که چگونه (و به نظر نمی رسد که بفهمم). با توجه به نسبت واریانس توضیح داده شده، چگونه مقادیر ویژه را محاسبه کنم (یعنی تأیید کنم که SigmaPlot نوعی خطا ایجاد نمی کند). با تشکر
|
چگونه می توانم واریانس های توضیح داده شده توسط یک جزء اصلی را به یک مقدار ویژه تبدیل کنم؟
|
76365
|
من سعی می کنم SVM یک کلاس را در R انجام دهم. سعی کردم از پکیج kernlab e1071/ksvm استفاده کنم. اما مطمئن نیستم که آیا آن را به درستی انجام می دهم. آیا نمونه کاری برای SVM یک کلاس در R وجود دارد؟ همچنین، * من یک ماتریس بزرگ از پیشبینیکنندهها را به عنوان X میدهم. از آنجایی که قرار است یک کلاسه باشد، آیا این فرض که تمام دادههای آموزشی که دادهام، کلاس «مثبت» هستند؟ اگر چنین است، ما مجبور نیستیم برچسب Y را بدهیم؟ * برچسب های پیش بینی شده به عنوان خروجی درست/نادرست هستند. بنابراین من فرض می کنم، True کلاس مثبت است. ویرایش: در حال پیوست کردن کد نمونه. در اینجا من 60٪ از کلاس TRUE را نمونه برداری کردم و روی مجموعه داده کامل آزمایش کردم. library(e1071) library(caret) data(iris) iris$SpeciesClass[iris$Species==versicolor] <- TRUE iris$SpeciesClass[iris$Species!=versicolor] <- FALSE trainPositive< -زیر مجموعه(عنبیه،SpeciesClass==درست) inTrain<-createDataPartition(1:nrow(trainPositive),p=0.6,list=FALSE) trainpredictors<-iris[inTrain,1:4] testpredictors<-iris[,1:4] testLabels<-iris[,6] svm .model<-svm(trainpredictors,y=NULL, type='one-classification', nu=0.5, scale=TRUE, kernel=radial) svm.pred<-predict(svm.model,testpredictors) confusionMatrixTable<-table(Predicted=svm.pred,Reference=testLabels) confusionMatrix(confusionMatrixTable,positive=' ')
|
نمونه هایی برای One class SVM در R
|
31597
|
من تابع احتمال زیر را دارم: $$\text{Prob} = \frac{1}{1 + e^{-z}}$$ که $$z = B_0 + B_1X_1 + \dots + B_nX_n.$$ مدل من به نظر می رسد $$\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-3.92 + 0.014\times(\text{bid})]\right)}$$ این از طریق یک منحنی احتمال که شبیه شکل زیر است، نمایش داده میشود.  اکنون، من در نظر دارم چند متغیر را به معادله رگرسیون اصلی خود اضافه کنم. بنابراین فرض کنید جنسیت (طبقه بندی: F و M) و سن (طبقه: < 25 و > 26) را به مدل اضافه می کنم. بنابراین من به این نتیجه رسیدم: $$\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-3.92 + 0.014\times(\text{bid}) + 0.25\times(\ text{gender}) + 0.15\times(\text{age})]\right)}$$ اکنون، در R میتوانم یک منحنی احتمال مشابه ایجاد کنم که نشان میدهد احتمال Y=1 هنگام محاسبه هر سه پیش بینی کننده. جایی که گم شدهام این است که میخواهم احتمالات را برای هر تغییر احتمالی این تغییرات پیدا کنم. بنابراین وقتی bid = 1، جنسیت = M، و سن >= 26 است، احتمال Y = 1 چقدر است. به طور مشابه، وقتی پیشنهاد = 2، جنسیت = F، و سن >= 26 است، احتمال Y چقدر است. = 1. من می خواهم یک منحنی احتمال ایجاد کنم که به من امکان می دهد این را تجسم کنم. کسی میتونه کمک کنه؟ من ممکن است کاملاً متوجه نشده باشم که چه نوع اطلاعاتی را می توان از یک مدل لاجیت به دست آورد، اما لطفاً به من بگویید که آیا این نظریه را نیز درک نمی کنم.
|
نمودار یک منحنی احتمال برای یک مدل لاجیت با پیش بینی کننده های متعدد
|
78014
|
من قصد دارم برای ایجاد جدول احتمال شرطی برای یک شبکه بیزی، همبستگی رتبه را با استفاده از احتمال بیش از حد از متخصص دامنه استخراج کنم. احتمال بیش از حد به دست آمده توسط مقادیر تخمین زده شده قبلی محدود می شود. من باید مرزهای پایین و بالایی را برای احتمال بیش از حد برای استخراج های بعدی بدانم. چگونه می توان این را محاسبه کرد؟ متشکرم
|
چگونه می توان مرزهای احتمال تجاوز را در حین استناد از کارشناسان محاسبه کرد؟
|
113888
|
من در حال انجام دو تست تی نمونه بر روی دو گونه ماهی هستم. t.test(fish1,fish2) برای یک سال اجرا می شود، بنابراین برای هر ماهی 365 مقدار وجود دارد، یعنی $(1,0,1,0,0,2...)$ و $(0,0,01, 21,0,5...)$. با این حال، $df = 368.586، t=2.2205، p=0.02699$، و فاصله اطمینان 95%: $(0.1454645، 2.3970013)$. میانگین های نمونه عبارتند از Mean of x mean of y 1.5452055. 0.2739726 با توجه به اینکه df بزرگتر از مقداری است که من دارم، فکر می کنم جایی اشتباه شده است.
|
دو نمونه تست $t$ در R: کجا اشتباه شد؟
|
33996
|
چگونه می توانم بفهمم که الگوریتم نزولی گرادیان تصادفی همگرا است یا خیر. من نمی توانم تابع هدف خود را رسم کنم و میانگین آن را برای مثال در هر 1000 تکرار برای مشاهده روند بگیرم. تابع هدف من خود بزرگ است، بنابراین محاسبه خود تابع هدف زمان زیادی می برد. در این شرایط، چگونه می توان تعیین کرد که آیا الگوریتم همگرا است یا خیر. من می دانم که مقادیر پارامتر باید چقدر باشد. اما من می بینم که الگوریتم حول مقداری که کوچکتر از مقدار واقعی است در نوسان است. تابع من یک ماکزیمم جهانی دارد. پس باید به آن حداکثر برسد، اینطور نیست؟ تابع مقعر است
|
چگونه بفهمیم نزول گرادیان تصادفی همگرا است
|
83267
|
من سعی می کنم یادگیری پراکنده PCA/Dictionary را انجام دهم، یعنی تجزیه یک ماتریس $X\تقریبا UV$ که در آن ماتریس بارگیری $V$ پراکنده است، معمولاً با یک جریمه $\ell_1$ (تفاوت بین PCA پراکنده و یادگیری فرهنگ لغت) اجرا می شود. اینکه آیا بعد داخلی $U$ و $V$ بزرگتر از بعد کوچکتر $X$ است یا خیر). در دادههای من، ستونهای X$ بسیار بزرگ هستند (سفارش $10^8$) اما بسیار پراکنده (سفارش $10^2$). آیا الگوریتم های تخصصی برای مورد داده های پراکنده وجود دارد؟ آنلاین یک مزیت است.
|
یادگیری پراکنده PCA/Dictionary وقتی ویژگیها بسیار کم هستند؟
|
78019
|
من می خواهم از HMM برای فیلتر کردن استفاده کنم، یعنی $p(x_t|y_{1:t})$ را پیدا کنم. من می بینم که الگوریتم فوروارد متغیر فوروارد را به عنوان یک احتمال مشترک محاسبه می کند. $\alpha_t(i) = p(y_{1:t},x_t=S_i|\lambda)$، به معنی مشترک مشاهدات تاکنون و وضعیت فعلی $S_i$ است، با توجه به پارامترهای HMM $\lambda$. برای پیدا کردن $p(x_t|y_{1:t})$، به نظر میرسد که مجموع همه آلفاها در زمان t برای یافتن $p(y_{1:t}|\lambda) حاشیهای = \sum_{i=1 باشد. }^{N}\alpha_t(i)$. حال، اگر $\alpha_t(i)$ را برای هر یک از N حالت ممکن با این حاشیه عادی کنم، توزیع حاصل باید $p(x_t|y_{1:t})$ باشد. آیا این صدا خوب است؟
|
فیلتر کردن با HMM
|
47514
|
من یک رگرسیون چند جمله ای انجام می دهم و سعی می کنم نتایج را تفسیر کنم: در مدل پایه فقط یک متغیر پیش بینی کننده باینری وجود دارد (0 = سناریوی ریسک بالا، 1 = سناریوی کم خطر)، متغیر وابسته دارای 3 دسته است (استراتژی 1،2 یا 3). خروجی نشان میدهد که مدل قابلتوجه است و بیشتر لاجیتها نیز وجود دارد. با این حال، من در تعجب هستم که چگونه می توان logits (مهم) رهگیری ها را تفسیر کرد. من آن را اینگونه تفسیر می کنم: احتمال انتخاب استراتژی 1 بر 2 در یک سناریوی بدون ریسک (رهگیری؟) بیشتر/پایین تر است و بقیه را ثابت نگه می دارد. آیا این راه درستی برای تفسیر آن است؟ پیشاپیش ممنون
|
معنی رهگیری در رگرسیون چندجمله ای با پیش بینی کننده های باینری؟
|
31590
|
زمینه: من روی برنامهای کار میکنم که به تنفس/خروپف گوش میدهد و با توجه به مکثهای بین نفسها، آپنه را «تشخیص میدهد». در بیشتر موارد این کار خوب است، اما تشخیص خروپف/تنفس از صحبت کردن/موسیقی (مثل تلویزیونی که در اتاق پخش میشود) (به طرز شگفتانگیزی) دشوار است. من تکنیکهای پردازش سیگنال را برای تشخیص این موضوع کاملاً خسته کردهام، بنابراین در حال امتحان برخی معیارهای آماری اولیه هستم. من دریافتم که صرفاً در نظر گرفتن انحراف استاندارد نرمال شده بازه تنفس/خروپف نسبتاً مؤثر است (مقادیر زیر تقریباً 0.35 خوب هستند)، اما نمیدانم که آیا ممکن است معیار دیگری برای تغییر وجود داشته باشد، به غیر از انحراف استاندارد، که میتواند نتایج بهتری را ایجاد کنید (خط جداکننده واضح تر). اساساً، من میخواهم «خروپف، خروپف، خروپف، مکث، خروپف» را از رشتهای تصادفی از فواصل با همان میانگین (مانندی که با صدا دریافت میکنید) متمایز کنم، با توجه به این که خروپف/تنفس دقیقاً منظم نیست. بنابراین چه معیارهای دیگری (به طور منطقی ساده) برای تغییر در یک قطار از اعداد وجود دارد؟ **به روز رسانی:** به ذهنم می رسد که اندازه گیری چولگی ممکن است در اینجا مفید باشد. احتمالاً موزیک/صدا نسبت به تنفس/خروپف دارای انحراف کمتری است. چگونه می توان چولگی (به ویژه با نوعی میانگین متحرک) را اندازه گیری کرد؟ **به روز رسانی 2:** من چند نمونه از لیست های فاصله زمانی را در Dropbox قرار داده ام: * صدا: http://dl.dropbox.com/u/72976325/intervalData_holm.csv * موسیقی: http://dl.dropbox. com/u/72976325/intervalData_epica.csv * نمونه خروپف شماره 1: http://dl.dropbox.com/u/72976325/intervalData_P1005.csv * نمونه خروپف شماره 2: http://dl.dropbox.com/u/72976325/intervalData_P1009.csv
|
برخی از معیارهای رایج تغییر در یک بازه چیست؟
|
107675
|
من برخی از داده های دوره زمانی دارم که ترسیم شده به این صورت است:  من سعی می کنم یک مدل برای آن با استفاده از `nlme.lme ایجاد کنم ()`. من با R از طریق RPy و از کد زیر استفاده می کنم: nlme.lme(r.formula('Pupil~CoI*Time'),random=r.formula('~1|ID'),correlation=nlme.corCAR1 (),data=dfr) بنابراین فرمول من 'Pupil~CoI*Time' است، اثرات تصادفی من '~1|ID' و ساختار همبستگی من است `corCAR1()` **سوالات** من عبارتند از: * چگونه فرمول خود را (و جلوه های تصادفی؟) تغییر دهم تا یک دوره زمانی غیرخطی همانطور که در داده های من دیده می شود به دست بیاورم؟ در حال حاضر من مقادیری را برای توابع درجه اول دریافت می کنم - که مفید نیست. من هیچ مبنای نظری ندارم که بر اساس آن به طور خاص ریشه های مربع یا توان و غیره را به فرمول اضافه کنم، تنها چیزی که می دانم خطی است کافی نیست. * چگونه تصمیم بگیرم که از چه ساختار همبستگی برای محاسبه همبستگی خودکار استفاده کنم؟ من این را انتخاب کردم زیرا در توضیحات کتابچه راهنمای ETHZ R کلمه همبستگی خودکار ذکر شده است، اما متأسفانه من چیز زیادی از آن توضیحات مختصر نمی فهمم.
|
نحوه مدل سازی دوره های زمانی غیر خطی با nlme
|
78013
|
من سعی می کنم اشیاء درون هسته یک سلول را مشخص کنم. این اشیاء روشنتر از پسزمینه هستند، و وقتی پسزمینه را حذف میکنم و توزیع فرکانس اشیاء را ترسیم میکنم، میدانم که توزیع با یک توزیع دوجملهای گاما یا منفی مطابقت دارد. راه مناسب برای انتخاب مدل، درک اساس یک مدل و اعمال منطقی آن در موقعیت خود است. آیا کسی می تواند به من بینش بدهد یا به من جهت استفاده از هر یک از مدل ها را بدهد؟
|
نحوه توجیه استفاده از توزیع گاما برای تجزیه و تحلیل تصویر بیولوژیکی
|
89943
|
میانگین توزیع فراهندسی این است: $n \frac{K}{N}$ که در آن: * $n$ تعداد ترسیمها است * $K$ تعداد موفقیتها است * N اندازه جمعیت محدود است. از آنجایی که اندازه جمعیت، $N$، به بی نهایت می رود، انتظار دارم وضعیتی با جایگزینی داشته باشم، و میانگین آن به میانگین توزیع دوجمله ای همگرا شود، اما در عوض میانگین به 0 همگرا می شود (فرمول را ببینید ). چرا این طور است؟
|
رابطه میانگین توزیع ابر هندسی و دوجمله ای
|
65865
|
این مجموعه داده ای است که من در حال حاضر روی آن کار می کنم، که داده های تولید است. داده ها: > test.ts ژان فوریه مارس آوریل می ژوئن جولای آگوست سپتامبر اکتبر نوامبر دسامبر 1990 0.0 10.8 180.0 418.2 1991 561.9 517.9 531.3 448.1 254.9 49.0 49.0 49.0 49.0 3. 526.2 1992 597.2 581.5 596.4 518.4 378.3 209.9 32.1 0.0 0.0 7.9 166.7 571.7 1993 650.4 578.5 250.4 578.5 0.0 0.0 0.0 0.0 39.5 289.2 638.9 1994 643.8 533.8 410.9 159.3 0.0 0.0 0.0 0.0 0.0 38.3 322.8 684.9 684.9 533.8 1995. 415.4 113.0 20.7 12.1 0.0 0.0 13.6 316.3 677.5 1996 754.5 683.4 719.6 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 774.5 808.1 847.9 677.8 208.7 9.9 0.0 0.0 0.0 5.2 296.4 794.9 1998 952.0 873.1 732.0 264.6 0.0 0.0 3.00. 245.8 833.0 1999 843.5 812.3 708.3 275.2 10.8 0.0 0.0 0.0 0.0 5.4 300.4 884.9 2000 949.0 898.708.614 0.0 0.0 0.0 8.5 367.2 1000.8 2001 1092.1 987.7 864.3 392.8 41.8 0.0 0.0 0.0 0.0 7.0 425.0 2302.0 9602.0 1018.0 696.0 209.0 26.0 0.0 0.0 0.0 0.0 63.0 823.0 2003 1066.0 930.0 929.0 1071.0 614.0 614.0 120.0 0.0 0.0 120.0 1005.8 2004 1043.0 1051.9 863.2 279.1 8.0 0.0 0.0 0.0 0.0 67.8 597.1 1120.3 2005 1087.9 10520.9 10520.9 10520.9 0.0 0.0 0.0 78.3 683.3 1139.2 2006 1185.5 1162.1 1131.3 386.9 16.4 1.2 0.0 0.0 0.0 7.1 7237.5 149.1 728.5 149. 1341.0 1652.9 1279.3 386.4 14.3 0.0 0.0 0.0 0.0 102.5 1570.1 2008 1864.7 1786.7 1523.9 480.9 422.0 0.0 0.0 0.0 192.4 1556.9 2009 1260.8 763.8 284.1 6.1 0.0 0.0 0.0 0.0 0.0 0.0 73.8 1495.6 2010 1280.8 1280.8 12858.2 1287.8 0.0 0.0 0.0 0.8 182.0 1524.9 2011 1461.5 1497.7 1111.5 108.6 0.0 0.0 0.0 0.0 0.0 2.9 519.3 1201.5 1201.5 1201.3 1380.4 295.2 7.7 0.0 0.0 0.0 0.0 0.1 225.0 1677.6 2013 1686.2 1420.0 1691.0 795.0 0.0 من از بسته auto.arima(.) از fore استفاده کردم کد: ARIMAfit <- auto.arima(test.ts) test.ar <- forecast(ARIMAfit, level=70, h=12) در زیر خروجی دریافت کردم: > test.ar Point Forecast Lo 70 Hi 70 Jun 2013 -4.429870 -186.37952 177.5198 جولای 2013 -4.429870 -261.74553 252.8858 آگوست 2013 -4.429870 -319.57590 310.7162 سپتامبر 2013 -4.429870 -368.32916 359.421 - 359.4216 -410.26858 403.4350 نوامبر 2013 296.121405 -149.56239 741.8052 دسامبر 2013 1505.197792 1023.80428 1986.5914 1986.5914 962.56457 1991.8272 فوریه 2014 1327.574562 781.72562 1873.4235 Mar 2014 1423.251183 847.87588 1995 A6206.6206. -53.25183 1153.6656 May 2014 -1.892754 -632.18482 628.3993 سؤالات: 1. چرا خروجی مقدار منفی را نشان می دهد، در حالی که هیچ مقدار منفی در داده های تاریخی وجود نداشته است؟ داده تولیدی است که نمی تواند منفی باشد. 2. آیا کلاس مدل دیگری وجود دارد که مقادیر صفر را به طور مناسب مدیریت کند؟ لطفا کمک کنید
|
چرا auto.arima() خروجی منفی می دهد؟
|
71638
|
لطفاً میتوانید مزیت راهاندازی را در مثال زیر به من بگویید: sampleOne <- تابع(x) نمونه (x، جایگزین = TRUE) sampleMany <- تابع(x, n) replicate(n، sampleOne(x)، ساده سازی = FALSE ) listMeans <- تابع(x, n) lapply(sampleMany(x, n)، mean) bootData <- تابع(x,n) do.call(rbind, listMeans(x,n)) sampleSize <- 100000 numBoots <- 1000 # توزیع اریب چپ # shape1 = a و shape2 = b set.seed(400) popSkewLeft <- rbeta(sampleSize, shape1 = 5, shape2 = 1) hist(popSkewLeft) skewLeftbootData <- bootData(popSkewLeft, numBoots) (populationMean <- mean(popSkewLeft))# Mean = a/(a+b) = (5)/(5+1) = 0.8333333 (bootMean <- mean(skewLeftbootData)) (populationSd sd(popSkewLeft)) #sd = sqrt(ab/((a+b)^2 (a+b+1))) = sqrt((5*1)/((5+1)^2*(5+1+1))) = 0.140859 (bootSd <- sd(skewLeftbootData) * sqrt(sampleSize)) من یک جمعیت چوله سمت چپ ایجاد کردم همانطور که از کد بالا قابل مشاهده است. من انحراف معیار نمونه را هم محاسبه کردم. انحراف معیار جمعیت با استفاده از معادله توزیع بتا محاسبه شد. انحراف استاندارد نمونه و خطای استاندارد بوت شده * جذر اندازه نمونه تقریباً یکسان است. در واقع انحراف استاندارد نمونه به پارامتر جمعیت نزدیکتر است.
|
چرا برای محاسبه خطای استاندارد بوت استرپ می شود؟
|
47515
|
**زمینه** من یک سری زمانی از بارهای سازه ای دارم که نیروها بر روی شناور اقیانوس لنگر اندازه گیری می شود و باید مقدار دوره بازگشت را به دست بیاورم تا سازه بتواند به گونه ای طراحی شود که حداکثر بار مورد انتظار در طوفان را تحمل کند. دوره بازگشت از سری های زمانی اندازه گیری شده به روش زیر تخمین زده می شود: ابتدا یک آستانه انتخاب می کنم و قله های بالای این آستانه را شناسایی می کنم. انتظار میرود رویدادهای شدید دارای توزیعی به نام توزیع پارتو تعمیمیافته (GPD) باشند، بنابراین من اوجها را با آن توزیع تطبیق میدهم. سپس تناسب GPD معکوس می شود تا بار مربوط به احتمال یک دوره زمانی انتخابی (3 ساعت) را نشان دهد. این بار مقدار دوره بازگشت نامیده می شود. من از برنامهای به نام WAFO استفاده میکنم که روالهای تجزیه و تحلیل ارزش شدید را از S-Plus برای انجام این تحلیل میگیرد. **مشکل** مشکل این است که چگونه می توان کیفیت تخمین دوره بازگشت را ارزیابی کرد. WAFO نمودارهای چندکی تولید می کند که نشان می دهد چقدر پیک ها با GPD مطابقت دارند، یک مقدار p برای بررسی کیفیت تناسب، یا مرزهای اطمینان در تخمین دوره بازگشت. اما به نظر می رسد این 3 تشخیص با هم تضاد دارند. گاهی اوقات نمودار q-q نشان می دهد که بسیاری از پیک ها با GPD (بد) مطابقت ندارند، اما مقدار p برای برازش بالا (خوب) و مرزهای اطمینان باریک (خوب) است. گاهی اوقات مرزهای اطمینان بسیار گسترده هستند (بد) اما نمودار q-q نشان می دهد که قله ها با GPD (خوب) همخوانی دارند. حس اصلی من این است که ممکن است کیفیت پایین باشد زیرا ما داده ها را فقط برای مدت زمان محدودی اندازه گیری کردیم و احتمالاً نویز اندازه گیری وجود دارد. **سوال**: چگونه می توانم تشخیص دهم که تخمین دوره بازگشت خوب در مقابل بد است؟
|
چگونه می توان کیفیت برآورد دوره بازگشت را ارزیابی کرد؟
|
47512
|
**زمینه** در یک مطالعه آنلاین کوچک از افراد (100=n) پرسیدم که کدام محصولات را خریداری خواهند کرد. مجموعه انتخابی شامل 20 محصول بود که آنها باید نشان می دادند که آیا محصولی را خریداری می کنند یا خیر (= فرمت DV، بله/خیر). پاسخ دهندگان می توانند برای هر تعداد محصول بله را نشان دهند. IV ها ویژگی های محصول و ارائه بودند. **فرمت داده** resp_id (در ردیف)، buy_prod_1، buy_prod_2 ... و IVs در ستون ها **تحلیل های قبلی** من یک رگرسیون لجستیک ساده در Stata انجام دادم. برای این کار، دادههایم را تغییر دادم تا یک خط برای هر پاسخدهنده و هر محصول (100*20 خط، buy_prod و IVs در ستونها) وجود داشته باشد. در رگرسیون لجستیک buy_prod DV من بود. **مشکل** من نمی دانم چگونه این واقعیت را که انتخاب های محصول برای هر پاسخ دهنده مستقل نیستند، ادغام کنم، یعنی چگونه DV های مختلف را به روش درست در یک مدل ترکیب کنم.
|
چگونه یک رگرسیون لجستیک را با چندین متغیر وابسته مرتبط اجرا کنیم؟
|
55389
|
فرض کنید من می خواهم بفهمم که چگونه رشد درآمد متوسط بر رشد درآمد فقرا تأثیر می گذارد. برای این من 60 کشور و برای هر کشور درآمد فقرا و متوسط درآمد برای 6 سال دارم. من در مورد چگونگی انجام رگرسیون از این مطمئن نیستم. من میانگین رشد سالانه را بر حسب درصد برای متوسط درآمد و درآمد برای فقرا محاسبه کرده ام. از آنچه که من درک می کنم، این به من درصد تغییر به جای درصد تغییر می دهد، بنابراین یک رگرسیون خطی ساده خواهد بود. با این حال، من برخی از آموزشها را دیدهام که امتیازهای درصد را ثبت میکنند و یک رگرسیون لاگ ایجاد میکنند. کدام یک از این دو روش صحیح است؟ ویرایش: مقادیر مثال: کشور A: * میانگین درآمد برای فقرا برای 4 سال: 1990:150، 1991: 260، 1992:300، 1993: 400 * میانگین درآمد برای 4 سال: 1990:340، 1991:600 710، 1993:1000 رشد سالانه مرکب ضعیف: 38.67% رشد سالانه مرکب همه: 43.28% بگو من این کار را برای 60 کشور انجام می دهم، بنابراین برای متوسط رشد سالانه درآمد فقرا (در درصد): 21.10، 16.23، 12.34، 23.25 دریافت خواهم کرد. ، 11.12، 13.55 و غیره و برای میانگین رشد سالانه اگر درآمد همه: 43.13، 35.31، 56.31 و غیره باشد و من یک رگرسیون روی آنها انجام دهم و بگویم y = 2.433 + 0.6 x . بنابراین اگر درآمد همه یک واحد افزایش یابد، درآمد فقرا 0.6 واحد افزایش می یابد. آیا این درست است که بگوییم افزایش 1 درصدی در میانگین درآمد همگان منجر به تغییر 0.6 درصدی میانگین درآمد فقرا می شود؟ یا درصد تغییر است؟
|
رگرسیون با درصد
|
47517
|
هدف روش های یادگیری هسته چندگانه ساخت یک مدل هسته است که در آن هسته ترکیبی خطی از هسته های پایه ثابت است. سپس یادگیری هسته شامل یادگیری ضرایب وزن برای هر هسته پایه است، نه بهینه سازی پارامترهای هسته یک هسته. به نظر می رسد معایب یادگیری چندین هسته این است که تفسیرپذیری و هزینه محاسباتی کمتری دارند (برای ارزیابی خروجی مدل باید همه هسته های پایه را ارزیابی کنید). بنابراین اگر بتوان عملکرد مشابهی را با بهینهسازی یک هسته به دست آورد، مزایای MKL چیست؟
|
مزایای روش های یادگیری چند هسته ای (MKL) چیست؟
|
89941
|
من سعی می کنم به صورت بصری مقایسه کنم که چگونه سه نشریه خبری مختلف موضوعات مختلف را پوشش می دهند (تعیین شده از طریق مدل موضوع LDA). من دو روش مرتبط برای انجام این کار دارم، اما بازخوردهای زیادی از همکاران دریافت کردم که این کار چندان شهودی نیست. امیدوارم کسی در آنجا ایده بهتری برای تجسم این موضوع داشته باشد. در نمودار اول، نسبت هر موضوع را در هر نشریه نشان میدهم، مانند این: تقریباً برای همه کسانی که با آنها صحبت کرده ام شهودی است. با این حال، دیدن تفاوت بین انتشارات دشوار است. کدام روزنامه به کدام موضوع بیشتر می پردازد؟ برای رسیدن به این موضوع، من تفاوت بین نشریه با بیشترین و دومین نسبت موضوعات را ترسیم کردم، که توسط نشریه دارای بیشترین نسبت رنگ آمیزی شد. مانند این:  بنابراین، برای مثال، نوار بزرگ فوتبال، واقعاً فاصله بین الاهرام انگلیسی است. و دیلی نیوز مصر (شماره 2 در پوشش فوتبال)، و رنگ آن قرمز است زیرا الاهرام شماره 1 است. به طور مشابه، آزمایشها سبز است زیرا Egypt Independent بالاترین نسبت را دارد و اندازه نوار فاصله بین Egypt Independent و Daily News Egypt (دوباره شماره 2) است. این واقعیت که باید توضیح دهم که همه در دو پاراگراف یک نشانه کاملاً مطمئن است که نمودار در آزمون خودکفایی مردود است. با نگاه کردن به آن، تشخیص اینکه واقعاً چه اتفاقی در حال رخ دادن است، دشوار است. آیا پیشنهاد کلی در مورد چگونگی برجسته کردن بصری انتشار غالب برای هر موضوع به روشی شهودی تر دارید؟ **ویرایش: داده هایی برای بازی کردن:** در اینجا خروجی «dput» از R و همچنین یک فایل CSV است. **ویرایش 2:** در اینجا یک نسخه طرح نقطه اولیه وجود دارد، با قطر نقاط متناسب با نسبت موضوع در مجموعه (که به این ترتیب موضوعات در ابتدا مرتب شده اند). اگرچه هنوز هم باید کمی بیشتر آن را تغییر دهم، اما بسیار شهودی تر از آنچه قبلا انجام می دادم به نظر می رسد. با تشکر از همه! 
|
چگونه می توان تفاوت ها را در نسبت های مختلف در سه گروه به بهترین وجه تجسم کرد؟
|
31593
|
من در حال حاضر سعی می کنم دقت اندازه گیری دو دستگاه را با هم مقایسه کنم. با این حال، من از یکی از دستگاه ها به عنوان استاندارد طلایی استفاده می کنم تا در مورد دقت دستگاه دیگر چیزی بگویم. کمیتی که میخواهم اندازهگیری کنم، فاصله (عمق) تا یک نقطه در یک صحنه (تصویر) است. من از یک اسکنر لیزری استفاده می کنم که مختصات (x,y,z) را برای یک نقطه به من می دهد و از هندسه نوری برای دادن مختصات (x,y,z) برای همان نقطه استفاده می کنم. اندازه گیری پایه (یا مرجع) من اندازه گیری اسکنر لیزری است. من از این به عنوان یک استاندارد طلا استفاده می کنم. من اکنون یک اندازه گیری مربوطه از سیستم اندازه گیری مبتنی بر هندسه نوری دارم. من اندازه گیری های مربوط به 1000 نقطه را دارم. خطای تفاوت بین اینها را میانگین میگیرم و یک خطای میانگین دریافت میکنم. اما این خطا از این واقعیت غفلت می کند که اسکنر لیزری نیز یک سیستم اندازه گیری است و خطای خاص خود را دارد. این با دقت +/- 5 میلی متر برای یک جسم در برد 10 متر ارائه می شود. چگونه می توانم این را در یک متریک دقت برای سیستم مبتنی بر هندسه نوری بگنجانم؟
|
چگونه می توانم دقت دو دستگاه اندازه گیری را در حالی که یکی از آنها مرجع است مقایسه کنم؟
|
108214
|
در بسته «caret»، گزینه ای برای منتسب کردن داده های از دست رفته با استفاده از درخت های تصمیم وجود دارد. من قبلاً دادههای خود را با نمونهبرداری از دادههای گمشده از یک توزیع نسبت دادهام. همچنین، من به جای تکیه بر بسته «caret»، متغیرهای مهم را برای گنجاندن در مدل تعیین کردم. به طور کلی، آیا بهتر است به جای اتکا به بسته «کارت»، داده ها را خودتان پاک کنید؟
|
Imputation با استفاده از بسته caret در مقابل imputation بدون آن
|
100544
|
من از یک مدل رگرسیون گامای تنظیمشده صفر (ZAGA دو بخشی) برای تخمین اثر یک عامل طبقهبندی روانسنجی (بازیابی مورد انتظار، با 3 سطح) بر هزینههای مرتبط با درمان پس از آسیب شلاق استفاده میکنم. من حدود 15 متغیر/درجه آزادی دارم که با نتیجه هزینه و عوامل مخدوش کننده بالقوه مرتبط است. مدل دو بخشی ZAGA با یک رگرسیون لجستیک برای احتمال داشتن هزینه صفر و یک مدل گاما (با استفاده از پیوند log) برای کسانی که نتیجه هزینه > 0 دارند مناسب است. من میدانم که محدودیتهایی با این نوع مدلها برای هدف وجود دارد. علاقه، اما به دلایل مختلف باید فعلاً به آن پایبند باشیم. برای بخش لجستیک، ما تنها 19 مشاهده با هزینه صفر داریم، بنابراین نمی توانیم از متغیرهای کمکی زیادی استفاده کنیم. همچنین مشخص نیست که متغیرهای کمکی اندازهگیری شده چگونه با احتمال داشتن هزینههای صفر مرتبط هستند (یعنی تصمیم به دنبال نکردن گزینههای درمانی بیشتر). بنابراین ما در نهایت از یک رویکرد رگرسیون گام به گام دو مرحله ای استفاده کردیم، از جمله در مدل لجستیک تنها دو متغیر کمکی که ارتباط تک متغیره قابل توجهی با I (هزینه = 0) داشتند. از سوی دیگر، ما توانستیم همه متغیرهای کمکی را در مدل گاما قرار دهیم (بیش از 300 مشاهده هزینه غیر صفر داریم). هیچ دو متغیر کمکی همبستگی > 0.8 نداشتند، بنابراین تصمیم گرفتیم همه آنها را در مدل نگه داریم. ما می خواهیم مدل خود را به درستی تأیید کنیم، با در نظر گرفتن این که هدف اصلی تأثیر عامل (بالقوه قابل تغییر) ادراک بازیابی مورد انتظار و هزینه مراقبت های بهداشتی یک ساله (در مقابل پیش بینی) است. برای من مشخص نیست، 1) آیا می توانستیم کار بهتری در فرآیند انتخاب مدل انجام دهیم، 2) راه های مناسب برای اعتبارسنجی چنین مدل دو بخشی و به طور بالقوه اعمال انقباض برای مقابله با برازش بیش از حد ممکن چیست. هر گونه ایده / پیشنهاد / نظر بسیار قدردانی خواهد شد. ممنون، نیکلاس
|
اعتبار سنجی یک مدل گامای تنظیم شده صفر
|
108847
|
من روی یک پروژه نرم افزاری کار می کنم که شامل تجزیه و تحلیل آماری سیگنال های میوالکتریک (EMG) است. یک مشتری درخواست محاسبه میانگین تعدیل شده را برای یک بازه سیگنال معین کرد. توضیحات او به شرح زیر است: $$\text {AdjustedMean} = \text{Mean} + \frac{\text{StandardDeviation}^2}{\text{Mean}}$$ او این توضیح را در مورد آن برای من ارسال کرد: > میانگین تعدیل شده برای تصحیح موقعیت هایی با انحراف استاندارد بالا، مانند مواردی که با الکترومیوگرافی یافت می شود، استفاده می شود. من خیلی جستجو کردم، اما هیچ مرجعی برای چنین فرمولی پیدا نکردم. بیشتر ارجاعات به میانگین تعدیل شده مربوط به ANCOVA است، و سپس میانگین با متغیر دیگری تنظیم می شود، نه نسبت به انحراف استاندارد همان متغیر. (ویرایش، طبق درخواست WHuber) مشتری من این ملاحظات دیگر را در مورد آنچه که قصد دارد با میانگین تعدیل شده انجام دهد دارد: > میانگین تعدیل شده همبستگی خطی بهتری با نیروی عضلانی اعمال شده (اندازه گیری شده توسط دینامومتر) نسبت به نیروی تنظیم نشده نشان می دهد. میانگین این > برای انقباضات/نیروهای قوی تر مشهودتر است، زیرا در این صورت واحدهای موتوری بیشتر و در نتیجه مقادیر الکتریکی به کار گرفته می شوند. نوسان گسترده تر». مقاله دیگری که خوانده ام، پوشش دامنه EMG را به عنوان خود انحراف استاندارد (متحرک؟) تعریف می کند، یک تعریف متفاوت از یکسوسازی + صاف کردن رایج تر.
|
فرمول میانگین تعدیل شده - آیا این درست است؟
|
100546
|
من سعی میکنم دادههایی را ترسیم کنم که فقط دو مقدار ممکن دارند - '1' (حال) یا '0' (غایب) - به وضوح توزیع نرمال نیست. حداکثر مقدار می تواند 1 باشد، اما نوارهای انحراف استاندارد من به 1.3 می رسد، که غیرممکن است. من سعی کردم حجم نمونه را افزایش دهم، اما حداکثر مقدار ستون + انحراف استاندارد هنوز 1.3 است. آیا اشکالی ندارد که نمودار من را دستکاری کنم و نوارهای ستون خود را روی 1 بگذارم زیرا امکان ندارد مقدار نمونه بزرگتر از 1 داشته باشد؟
|
انحراف استاندارد از حداکثر مقدار بیشتر است
|
108845
|
هنگام اجرای رگرسیون لجستیک باینری در SPSS، ابتدا معیاری از توانایی پیشبینی یک مدل بدون متغیرهای مستقل (مدل پایه) به دست میآورم. سپس این با مدل حاوی متغیرهای مستقل مقایسه می شود. اگر تفاوتی بین توانایی پیشبینی مدلها وجود نداشته باشد، آیا هر گونه اهمیتی که توسط متغیرها نشان داده میشود نامربوط است یا حاوی مقداری است؟
|
متغیرهای قابل توجه، اما هیچ بهبودی در توانایی پیش بینی مدل
|
31591
|
گزارش های خبری حاکی از آن است که سرن فردا اعلام خواهد کرد که بوزون هیگز به صورت تجربی با شواهد 5$\sigma$ شناسایی شده است. طبق آن مقاله: > 5$\sigma$ برابر است با احتمال 99.99994% که دادههایی که آشکارسازهای CMS و ATLAS > مشاهده میکنند فقط نویز تصادفی نیستند - و 0.00006% احتمال دارد که > آنها گمراه شده باشند. 5$\sigma$ اطمینان لازم برای اینکه چیزی > رسماً به عنوان کشف علمی شناخته شود، است. این خیلی سخت نیست، اما به نظر می رسد که فیزیکدانان از روش آماری استاندارد آزمایش فرضیه استفاده می کنند و $\alpha$ را روی $0.0000006$ تنظیم می کنند که با $z=5$ (دو دنباله) مطابقت دارد؟ یا معنای دیگری دارد؟ البته در بسیاری از علوم، تنظیم آلفا روی 0.05 به طور معمول انجام می شود. این معادل شواهد two-$\sigma$ خواهد بود، اگرچه من هرگز نشنیده ام که آن را به این نام می نامند. آیا زمینه های دیگری (به جز فیزیک ذرات) وجود دارد که در آن تعریف بسیار دقیق تر از آلفا استاندارد باشد؟ کسی مرجعی می داند که چگونه قانون پنج-$\sigma$ توسط فیزیک ذرات پذیرفته شد؟ **به روز رسانی:** این سوال را به یک دلیل ساده می پرسم. کتاب من آمار زیستی شهودی (مانند اکثر کتابهای آماری) بخشی دارد که توضیح میدهد که قانون معمول P<0.05 چقدر دلخواه است. من می خواهم این مثال از یک زمینه علمی را اضافه کنم که در آن مقدار بسیار (بسیار!) کوچکتر $\alpha$ ضروری در نظر گرفته می شود. اما اگر مثال در واقع با استفاده از روشهای بیزی پیچیدهتر باشد (همانطور که برخی از نظرات زیر نشان میدهند)، آنگاه چندان مناسب نخواهد بود یا نیاز به توضیح بسیار بیشتری دارد.
|
منشأ آستانه 5$\sigma$ برای پذیرش شواهد در فیزیک ذرات؟
|
78012
|
من یک روش میانگین گیری مدل با استفاده از بسته MuMIN با GLM دو جمله ای هستم. یکی از متغیرهای توضیحی من یک عامل طبقه بندی شده درمان با 5 سطح (T1، T2، T3، T4 و T5) است. من همچنین دارای 2 متغیر توضیحی باینری Gender و Employed هستم. من همچنین تمام تعاملات 2 طرفه را در نظر گرفته ام. glm(y ~ Gender*Employed+Gender*Treatment+Treatment*Employed,data=data1,family=binomial) من می دانم که چون آنها یک تعامل است، باید متغیرهای باینری خود را متمرکز کنم. من خیلی مطمئن نیستم که با متغیر طبقه بندی خود چه کنم. آیا باید متغیر درمان را به 5 متغیر ساختگی (0/1) تبدیل کنم و با کم کردن میانگین آنها را در مرکز قرار دهم؟ سپس آنها را به شکل زیر در مدل قرار دهید؟ در مدل زیر T5 مرجع من خواهد بود بنابراین در مدل گنجانده نشده است. glm(y ~ جنسیت*شاغل+جنس*T1+T1*شاغل+جنس*T2+T2*Employed+Gender*T3 +T3*EmployedGender*T4+T4*Employed, data=data1,family=binomial) اگر من این کار را انجام دهید من می دانم که مدل های برتر ممکن است شامل همه سطوح درمان نباشند. آیا این هنوز منطقی است؟ همچنین این مدل تمام سطوح T5 را با سطوح دیگر مقایسه می کند. اگر بخواهم بدانم که همه سطوح درمان با یکدیگر چه تفاوتی دارند، آیا باید در مجموع 5 مدل بسازم که هر بار شامل تمام سطوح درمان به جز یک سطح می شود؟
|
میانگینگیری glm دو جملهای با یک عبارت توضیحی طبقهبندی شده را مدل کنید
|
47516
|
من با این مقاله در مورد تیم داده کاوی در کمپین انتخاب مجدد اوباما مواجه شدم. متأسفانه، مقاله در مورد ماشین آلات واقعی الگوریتم های آماری بسیار مبهم است. با این حال، به نظر می رسید که تکنیک های عمومی در علوم اجتماعی و سیاسی شناخته شده است. از آنجایی که این حوزه تخصص من نیست، آیا کسی میتواند به من درباره ادبیات (بررسی کلی) این نوع تکنیکها اشاره کند؟
|
تکنیک های داده کاوی در مبارزات انتخاباتی اوباما
|
47519
|
من می خواهم یک مدل رگرسیونی از نوع تخمین بزنم: $ load_t = seasonality_t + trend_t + \beta * temperature_t، $ و من داده های بار و دما در فرکانس بالا (داده های ساعتی) دارم. تصور من این است که دما در همان فرکانسی که بار را اندازهگیری میکنم بر بار تأثیر نمیگذارد (یعنی تغییر دما برای 2 یا 3 ساعت به معنای تغییر فوری در بار نیست). اینگونه است که من کاربرد مفهوم انسجام را درک می کنم، همانطور که در http://eprints.nuim.ie/1968/1/JR_C81dfisf.pdf سعی کردم میانگین دمای روزانه را نگاه کنم و از آن در رگرسیون استفاده کنم، اما نتایج راضی کننده نیست چگونه میتوانیم دما را به بهترین نحو در یک مدل کاربردی بگنجانیم؟ هر نکته ای؟ مراجع خوب؟
|
بارگذاری مدل پیشبینی با دادههای دما
|
86320
|
من از مقیاس لیکرت برای یک گروه 3 سوالی استفاده می کنم. 1. کاملا موافقم 2. موافقم 3. بلاتکلیفم 4. مخالفم 5. کاملاً مخالفم من 3 سوال با این پاسخ های احتمالی تحت دسته اثربخشی دارم. آیا می توان پاسخ های 3 سوال را با هم ترکیب کرد تا پاسخی معنادار بدهد؟ به عنوان مثال: پاسخ های Q1، Q2، Q3 2، 3، 5 هستند. آیا می توان این سه پاسخ را به نحوی با هم ترکیب کرد؟ آیا می توان از اینها نمره ترکیبی گرفت؟
|
آیا می توان نمرات ترکیبی مقیاس لیکرت را به دست آورد؟
|
48052
|
یک سناریوی فرضی از دو رویداد را فرض کنید. در طول رویداد 1، مجموعهای از مقادیر $[X_1، X_2، X_3،...، X_n]$ را مشاهده میکنم. یک پدیده فیزیکی رخ می دهد و این رویداد 2 را برای مدت کوتاهی آغاز می کند و من در نهایت مجموعه دیگری از مقادیر $[Y_1, Y_2,Y_3,...,Y_n]$ را در طول آن زمان مشاهده می کنم. من چیزی در مورد توزیع های اساسی نمی دانم. من تعدادی جفت $X-Y$ دارم و میخواهم روشی برای تشخیص اینکه مقادیر Y عموماً بزرگتر از مقادیر X$$ هستند را برای بررسی بیشتر تشخیص دهم. جفت ها قابل مقایسه نیستند - یعنی من نمی توانم از مقادیر $X$ از موضوع دیگری برای اطلاع دادن به من در مورد توزیع استفاده کنم، با این حال، در حالت صفر، من انتظار دارم که $X$ و $Y$ باید از توزیع تقریباً یکسانی باشند. اولین تلاش من این است که اگر میانه مقادیر مشاهده شده از رویداد 2 بیشتر از مقادیر مشاهده شده در رویداد 1 باشد، رویداد 2 را به گونه ای تعریف کنم که دارای اهمیت باشد. ، چنین مقایسه ای چه مشکلاتی دارد، یعنی چه زمانی این کار شکست خواهد خورد؟ * اگر این خوب نیست، آیا می توانم از چیزی مانند KL-Divergence یا JS-Divergence برای درک میزان واگرایی استفاده کنم (و اگر فراتر از یک آستانه است، نتیجه گیری کنم که رویداد 2 مهم است)؟ * آیا مقایسه واگرایی مزیتی نسبت به میانه دارد؟ فکر می کنم می خواهم تغییر قابل توجهی را به عنوان یک رویداد تشخیص دهم. هر گونه توضیح بسیار قدردانی خواهد شد.
|
مقایسه توزیع ها بر خلاف میانه ها؟
|
100548
|
من دو بردار از دادههای مشاهدهشده «obs1» و «obs2» و دو بردار از دادههای مورد انتظار «exp1» و «exp2» دارم. همه وکتورها اندازه های مختلفی دارند. من دو تست مستقل یک طرفه کولموگروف-اسمیرنوف (KS) را انجام دادم: ks.test(obs1, exp1, alternative='greater')' و ks.test(obs2,exp2,alternative='greater')'. ارزیابی کنید که آیا obs1 و obs2 به طور قابل توجهی بیشتر از بردارهای مورد انتظار مربوطه exp1 و exp2 هستند یا خیر. اکنون من علاقه مندم ببینم کدام یک از دو مورد 'obs' توزیعی را نشان می دهد که به طور قابل توجهی به سمت مقادیر پایین تر تغییر کرده است، که از نظر آزمون KS 'بزرگتر' است. اساساً ایده این است که obs1 و obs2 را با در نظر گرفتن تفاوت آنها با توزیع exp مربوطه خود مقایسه کنیم (من تست KS دو طرفه را بین obs1 و obs2 امتحان کردم، اما به این ترتیب من این کار را نمیکنم. انحرافات آنها را از «exp1» و «exp2» به ترتیب در نظر بگیرید). کسی پیشنهادی داره؟ با تشکر از همه!
|
چگونه دو تست KS مستقل را با هم مقایسه کنیم؟
|
103230
|
اجازه دهید $\Theta$ مقداری از فضای پارامتر باشد و $\Theta_1,\Theta_2,\dots,\Theta_s \subset \Theta$ زیر مجموعههای پارامتر باشد که مدلهای رقیب را در برخی از روشهای انتخاب مدل نشان میدهند. هیچ فرضی در مورد مهار یا عدم اتصال $\Theta_i$ ساخته شده وجود ندارد. فرض اساسی انتخاب مدل بیزی این است که احتمال عقبی مدل $\Theta_i$ بر اساس قانون بیز $$P(\Theta_i | D) \propto P(\Theta_i) \int_{\Theta_i} L (\theta | د) dQ_i(\theta) $$ که در آن $D$ مخفف داده است، $L$ احتمال، $Q_i$ قبل شرطی توزیع مدل $\Theta_i$ و $P(\Theta_i)$ قبلی. سوال من این است: **منظور ما از احتمال قبلی $P(\Theta_i)$ چیست؟** قبلی باید باور پیشینی ما را مبنی بر اینکه $\Theta_i$ به نوعی مدل درستی است بیان کند، بنابراین ممکن است کسی به این موضوع برسد. با چیزی شبیه $\text{Prob}(\theta_0 \in \Theta_i)$، که در آن $\theta_0$ پارامتر واقعی تولید کننده داده است (با فرض اینکه فعلاً یکی باشد). با این حال، این تعریف کار نمی کند زیرا پارامتر واقعی ممکن است در چندین مدل موجود باشد. روش دیگری برای پرسیدن این سوال: **فرض کنید که پارامتر واقعی $\theta_0$ را می دانم، کدام قبلی را باید انتخاب کنم؟** آیا باید مفهوم پارامتر ناشناخته درست را کنار بگذاریم؟ آیا مدلسازی با مجموعههای همپوشانی $\Theta_i$ ناسازگار است؟
|
در صورت تلاقی مدل ها، چگونه پیشین های مدل را تفسیر کنیم؟
|
108198
|
من فقط از فرمول استاندارد برای تعیین اندازه نمونه یک نمونه برای مطابقت با میانگین یک جمعیت با حاشیه خطای 3 درصد و با احتمال 90٪ استفاده کردم. میدانم که میخواهم بررسی کنم که میانگین نمونه من در واقع در 3٪ حاشیه خطای میانگین در جامعه است. برای انجام این کار، من جامعه را انتخاب میکنم و نمونه را اضافه میکنم، مشاهدات موجود در نمونه را با یک ساختگی به نام نمونه شناسایی میکنم. سپس رگرسیون زیر را اجرا می کنم: نمونه reg var1 و در حال آزمایش هستم که آیا ضریب نمونه متغیر ساختگی کمتر از 3 درصد است یا خیر. برای انجام این کار از آزمون t یک طرفه استفاده می کنم. اما این فقط زمانی خوب است که ضریب متغیر ساختگی نمونه دارای علامت درست باشد. من می خواهم فرضیه اتصال را آزمایش کنم که ضریب نمونه متغیر ساختگی بزرگتر از 3- و کمتر از 3 است. آیا کسی اطلاعاتی در مورد نحوه انجام این تست دارد؟ پیشاپیش ممنون
|
تایید نمایندگی یک نمونه، پس از نمونه گیری تصادفی ساده
|
31592
|
من در مورد رفتار پیش بینی کننده های غیر همبسته در رگرسیون لجستیک کمی متحیر هستم. همانطور که در OLS، من فکر کردم که اگر دو پیشبینیکننده («rv1» و «rv2») همبستگی نداشته باشند، وزنهای رگرسیونی «rv1» از رگرسیونی که فقط «rv1» را شامل میشود به یکی که شامل «rv1» است تغییر نخواهد کرد. rv2. با این حال، به نظر می رسد که این مورد در رگرسیون لجستیک صادق نیست و ضرایب بین دو مدل رگرسیون تغییر می کند، حتی اگر پیش بینی کننده ها همبستگی نداشته باشند. من مقداری دستور R را در زیر قرار داده ام که این رفتار را نشان می دهد. چرا اینطور است و وزن های رگرسیون از دو رگرسیون (یکی با فقط rv1 و دیگری با rv1 و rv2) چگونه به یکدیگر مرتبط هستند؟ آیا راهی وجود دارد که بدانیم وزن رگرسیون rv1 چقدر خواهد بود اگر وزن رگرسیون rv1 را در رگرسیونی که شامل هر دو پیش بینی می شود بدانیم؟ با تشکر P.S. این پست در سایت پاسخ آماری نامرتبط دیگری ارسال شده است. library(MASS) #تولید بسیاری از دادهها (من میدانم مدیریت دادهها کمی عجیب است) n <- 10000 rdta <- as.data.frame(mvrnorm(n=n,c(0,0),ماتریس(c( 1,0,0,1),2,2),Empirical=TRUE)) نامها(rdta) <- c(rv1،rv2) #تأیید کنید که preds نامرتبط هستند cov(rdta$rv1,rdta$rv2) rv1 <- rdta$rv1 rv2 <- rdta$rv2 rv1ry <- 1 rv2ry <- 1 #تولید داده باینری از ضرایب رگرسیون شناخته شده ylinp <- (1 / (1+exp(-(-1 + rv1*rv1ry + rv2*rv2ry)))) y <- rbinom(n,1,ylinp) glm(y~rv1+rv2,family=binomial(link='logit')) glm(y~rv1,family=binomial(link=' logit')) glm(y~rv2,family=binomial(link='logit')) #تأیید کنید که OLS رگرسیون همانطور که انتظار می رود کار می کند (وزن رگرسیون تغییر نمی کند) rv1y <-.222 rv2y <-.333 y <- rv1y * rv1 + rv2y * rv2 + rnorm(n,0,.5) lm(y~rv1+rv2) lm (y~rv1) lm(y~rv2) مطمئن نیستم که قرار است مربوطه را نیز بچسباند خروجی اینجاست، اما اینجا میرود: نتایج OLS > lm(y~rv1+rv2) فراخوانی: lm(فرمول = y ~ rv1 + rv2) ضرایب: (برق) rv1 rv2 0.001096 0.220051 0.333072 ~rv1m)(y (فرمول = y ~ rv1) ضرایب: (برق) rv1 0.001096 0.220051 > lm(y~rv2) فراخوانی: lm(فرمول = y ~ rv2) ضرایب: (برق) rv2 0.001096 0.333072 رگرسیون نتایج >g glm(ry~rv1+rv2،family=binomial(link='logit')) فراخوانی: glm(فرمول = ry ~ rv1 + rv2، خانواده = دوجمله ای (لینک = logit)) ضرایب: (واصل) rv1 rv2 - 1.001 1.916 2.469 > glm(ry~rv1،family=binomial(link='logit')) فراخوانی: glm(فرمول = ry ~ rv1، خانواده = دوجمله ای(لینک = logit)) ضرایب: (Intercept) rv1 -0.5495 1.0535 > glm( ry~rv2,family=binomial(link='logit')) تماس بگیرید: glm(فرمول = ry ~ rv2، خانواده = دو جمله ای (پیوند = logit)) ضرایب: (برق) rv2 -0.6538 1.6140
|
وزنهای رگرسیون لجستیک پیشبینیکنندههای غیرهمبسته
|
33998
|
من یک دانشجوی فارغ التحصیل هستم که روی پایان نامه ای کار می کنم که هدف آن آزمایش مکمل بودن بین 2 عمل است (CI و INNO، بر اساس تئوری supermodularity). برای انجام این کار، من دو متغیر جدید (هر کدام به عنوان میانگین 6 متغیر دیگر) مربوط به 2 عمل را محاسبه کردم، سپس از آنها 4 متغیر باینری را بر اساس ترکیب این دو استخراج کردم (یعنی از میانه های دو متغیر استفاده کردم. به عنوان آستانه، سپس چهار دسته مانند 11،10،01،00 ایجاد کرد: `HH,LH,HL,LL`). من این چهار باینری (به علاوه دو متغیر پیوسته و سه ساختگی دیگر به عنوان کنترل) را گرفتم و یک رگرسیون چندگانه روی Y (عملکرد عملیاتی) بدون یک عبارت ثابت اجرا کردم. من از هر دو SPSS و Stata استفاده کردم، اما دو نتیجه بسیار متفاوت به دست آوردم. نمیفهمم چرا!!! علاوه بر این، ماتریس های همبستگی نتایج یکسانی را به دست دادند. در اینجا همه نتایج آمده است: **SPSS** متغیرهای a,b از مدل بتا در t Sig خارج می شوند. Correlazioni parziali Statistiche di collinearità Tolleranza VIF Tolleranza minima 1 LL .c . . . 000 . 000 a. متغیر متغیر: PERF_medio b. Regressione lineare che passa per l'origine c. مدل پیشبینیکننده: صنعت T، صنعت M، صنعت، HL، LH، HH، log_age، ضریب log_size غیر استاندارد B STD ERROR DEV LH ,188 ,110 HL ,156,115 HH ,467 ,102 log_size ,308_,0, ,039 industryE 3,416 ,244 industrialM 3,487 ,255 industrialT 3,551 ,246 همانطور که می بینید، متغیر `LL` مستثنی شده است. Stata این را رد نمی کند. علاوه بر این، آزمایشهای چند خطی نتایج مثبتی به دست میدهند، در حالی که VIF که با Stata پس از رگرسیون انجام میشود، نتایج مثبتی را نشان نمیدهد. **STATA:** رگرسیون PERF_medio LL LH HL HH log_size log_age صنعتE صنعتM صنعتT، یادداشت ثابت: صنعتM به دلیل همخطی بودن حذف شد منبع SS df MS تعداد obs = 190 F( 8, 182) = 12526.58 مدل 6. 331.796025 Prob > F = 0.0000 باقیمانده 48.1709704 182 .264675662 R-squared = 0.9822 Adj R-squared = 0.9814 مجموع 2702.53914 M.53914 190. .51447 PERF_medio | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ LL | 3.486898 .2548016 13.68 0.000 2.984153 3.989643 LH | 3.675309 .2746033 13.38 0.000 3.133493 4.217124 HL | 3.643261 .2646596 13.77 0.000 3.121066 4.165457 HH | 3.954367 .2753474 14.36 0.000 3.411083 4.49765 log_size | .008443 .0400578 0.21 0.833 -.0705944 .0874803 log_age | -.0027773 .0393044 -0.07 0.944 -.0803283 .0747737 industrialE | -.0706952 .0935333 -0.76 0.451 -.2552442 .1138538 صنعتM | 0 (حذف شده) صنعتT | .0639002 .0960992 0.66 0.507 -.1257117 .253512 estat vif، متغیر بدون مرکز | VIF 1/VIF ------------------------------------ اندازه log | 42.17 0.023711 HH | 16.90 0.059170 LL | 15.21 0.065753 log_age | 12.70 0.078726 LH | 10.26 0.097499 HL | 8.73 0.114505 صنعتT | 2.23 0.447811 industrialE | 2.21 0.451551 -------------+----------------------- میانگین VIF | 13.80 بنابراین، SPSS «LL» را مستثنی می کند، اما Stata این کار را نمی کند. چه اشکالی دارد؟ چرا ضرایب اینقدر متفاوت است؟
|
تفاوت بین Stata و SPSS در نتایج رگرسیون چندگانه
|
114152
|
در این مقاله فعلی در SCIENCE موارد زیر پیشنهاد شده است: > فرض کنید 500 میلیون درآمد را به طور تصادفی بین 10000 نفر تقسیم می کنید. > تنها یک راه وجود دارد که بتوان به همه 50000 سهم مساوی داد. بنابراین اگر به طور تصادفی درآمد را به دست می آورید، برابری بسیار بعید است. اما راههای بیشماری وجود دارد که میتوان به چند نفر پول نقد زیادی داد و به بسیاری از افراد کمی یا هیچ چیز. در واقع، با توجه به تمام راههایی که میتوانید درآمد را تقسیم کنید، بیشتر آنها توزیع نمایی درآمد را ایجاد میکنند. من این کار را با کد R زیر انجام داده ام که به نظر می رسد نتیجه را دوباره تأیید می کند: library(MASS) w <- 500000000 #ثروت p <- 10000 #مردم d <- diff(c(0,sort(runif(p-1,max =w))،w)) # توزیع ثروت h <- hist(d, col=red, main=نزول تصاعدی، فرکانس = FALSE، شکست = 45، xlim = c(0، quantile(d، 0.99))) برازش <- fitdistr(dنمایی) منحنی (dexp(x، نرخ = fit$estimate)، col = سیاه , type=p, pch=16, add = TRUE)  **سوال من** چگونه می توانم به صورت تحلیلی ثابت کنم که توزیع حاصل واقعاً نمایی است؟ **ضمیمه** از پاسخ ها و نظرات شما متشکرم. من در مورد مشکل فکر کرده ام و به استدلال شهودی زیر رسیده ام. اساساً موارد زیر اتفاق میافتد (مراقب باشید: پیشروی سادهسازی بیش از حد): شما مقداری را پیشروی میکنید و یک سکه (سوگیرانه) پرتاب میکنید. هر بار که شما به عنوان مثال. سر شما مقدار را تقسیم کنید. شما پارتیشن های حاصل را توزیع می کنید. در حالت گسسته، پرتاب سکه از یک توزیع دوجمله ای پیروی می کند، پارتیشن ها به صورت هندسی توزیع می شوند. آنالوگ های پیوسته به ترتیب توزیع پواسون و توزیع نمایی هستند! (با همین استدلال به طور شهودی نیز روشن می شود که چرا توزیع هندسی و نمایی خاصیت بی حافظه را دارند - زیرا سکه نیز حافظه ندارد).
|
چگونه می توانم به صورت تحلیلی ثابت کنم که تقسیم تصادفی یک مقدار منجر به توزیع نمایی (مثلاً درآمد و ثروت) می شود؟
|
89944
|
در مورد طراحی پیچیده به راهنمایی شما نیاز دارم. من در حال آزمایش دادههای مربوط به قطرههای چشمی جدید هستم که ممکن است مقدار کمی را کاهش دهند. برای هر آزمودنی، یک چشم به طور تصادفی با قطره ها تخصیص داده می شود، در حالی که چشم دیگر یک کنترل است و قبل از استفاده از قطره، این اندازه (از این به بعد Y) برای هر دو چشم اندازه گیری می شود. از اینجا من تفاوت را محاسبه کردم، که میانگین آن نزدیک به 0 بود، با SD 1.5، و نقاط در اطراف میانگین بی طرفانه به نظر می رسید. اکنون قطره ها ریخته شد و مجدداً روی هر دو چشم اندازه گیری شد و تفاوت محاسبه شد. حالا از صفر فاصله داشت. درمان کار می کند پس از چند روز، اقدام دیگری انجام شد که نشان داد اثر آن در حال کاهش است. و سپس بازدید دیگری از اندازه گیری وجود داشت. من می خواهم زمانی را پیدا کنم که درمان دیگر کارساز نباشد. چگونه باید آن را انجام دهم؟ من برای هر موضوع چیزی حدود 4 بازدید از جمله خط مبنا دارم و در هر بازدید تفاوت بین چشم ها را دارم. من نمی توانم به سادگی بگویم که کمتر از 1.5 SD هنوز هم مهم است، یا هر قطع دیگری. من یه تست لازم دارم کدام تست / مدل را باید در اینجا استفاده کنم؟ متشکرم!
|
تحلیل جفت طولی
|
86348
|
من یک مبتدی هستم که برای خواندن برخی از نتایج رگرسیون خطی به کمک نیاز دارم. من به دنبال عواملی هستم که بر مکان رویدادهای درگیری داخلی تأثیر می گذارد. متغیر وابسته من فاصله از پایتخت (کیلومتر)، یک متغیر پیوسته است. من 4 متغیر کنترل دارم که همگی پیوسته هستند. متغیر (fightcap) که من می خواهم آزمایش کنم، توانایی مبارزه شورشیان است. این متغیر ترتیبی دارای سه سطح است: 1 = کم 2 = متوسط 3 = زیاد با این حال من در یکی دو کتاب درسی خواندم که برای مقابله با پیش بینی کننده های ترتیبی بهتر است آنها را به متغیرهای ساختگی تبدیل کنید. به این ترتیب من دو Dummie ایجاد کردم: fightCap(low): 1 if fightcap = 1، 0 if fightCap = 1, 0 if fightCap (moderate): 1 if fightCap = 2, 0 در غیر این صورت با استفاده از JMP (نرم افزاری که من بهتر می دانم)، دو مدل را به صورت موازی اجرا کردم: یکی (چپ) با متغیر ترتیبی fightcap، دومی (راست) با هر دو ساختگی fightCap (کم) و fightcap (متوسط) متغیرها  متوجه شدم که خروجی برای هر دو مدل یکسان است، به جز در مورد تخمین های متغیرهای ترتیبی/دوممی. **سوالات من بدین ترتیب عبارتند از:** 1. چگونه عبارات fightcap[2-1]، fightcap[3-2] و برآوردهای آنها را تفسیر کنم؟ آیا می خوانم که تغییر Fightcap از 1 به 2 منجر به تغییر 59.42 در متغیر وابسته می شود؟ 2. چگونه می توانم این واقعیت را تفسیر کنم که fightcap[2-1] تخمین قابل توجهی دارد، اما fightcap[3-2] نیست؟ آیا به این معنی است که فقط تغییر از 1 تا 2 تغییر را توضیح می دهد، اما تغییر از 2 تا 3 را توضیح نمی دهد؟ 3. چگونه می توانم بفهمم که نصف متغیر من در صورت استفاده از تنظیمات ترتیبی کار می کند، اما هیچ یک از ساختگی ها تخمین قابل توجهی ندارند؟ با تشکر از کمک شما! دیمین
|
رگرسیون خطی: متغیرهای مستقل ترتیبی یا ساختگی؟
|
108212
|
من یک مدل ARIMA با متغیر برون زا توسعه داده ام. قبل از برازش مدل، هر سری زمانی را با تفاضل ثابت ساختم (هر متغیر ترتیب ادغام متفاوتی داشت). برای سادگی، فرض کنید فقط یک متغیر برونزا وجود داشت. بالاخره یک مدل پیدا کردم. با توجه به اینکه تمام دادههای من برای ایجاد مدل ثابت هستند، تخمینهای ضریب زیر را دریافت کردم: ARIMA(1,0,0) با میانگین صفر ضرایب: ar1 X -0.6 -0.002 هیچ عبارت MA وجود نداشت. توجه داشته باشید که Y با تفاضل دوم بود و X اول تفاوت داشت. بنابراین، فرمول من واقعاً شبیه این است: $Y_t'' = -0.6 Y_{t-1}'' - 0.002 X'$ که در آن اعداد اول ($'$ ) سطح تفاوت را نشان می دهند. من می خواهم یک نمایش معادل از مدل با استفاده از متغیرهای غیرمتفاوت اصلی داشته باشم. بنابراین من کارهای زیر را انجام می دهم: $(Y_t - Y_{t-1}) - (Y_{t-1} - Y_{t-2}) = -0.6 [(Y_{t-1} - Y_{t-2 }) - (Y_{t-2} - Y_{t-3})] - 0.002 (X_{t} - X_{t-1}) $Y_{t} - 2Y_{t-1} + Y_{t-2} = -0.6Y_{t-1} + 1.2Y_{t-2} - 0.6Y_{t-3} - 0.002X_{t} + 0.002X_{t- 1}$Y_{t} = 1.4Y_{t-1} - 0.2Y_{t-2} - 0.6Y_{t-3} - 0.002X_{t} + 0.002X_{t-1}$ بنابراین، من 2 سوال دارم. 1) آیا تفسیر من صحیح است؟ ساده به نظر می رسد، اما من فقط می خواهم دوباره بررسی کنم. آیا راه سریعتری برای انجام این تبدیلها وجود دارد، علاوه بر گسترش و ترکیب خستهکنندهای که در بالا انجام دادم؟ برخی از مدل هایی که من با آنها کار می کنم بسیار پیچیده تر هستند. شاید استفاده از عملگر backshift کمک کند؟ من تمرین زیادی در مورد جبر که شامل عملگر backshift می شود ندارم، و مطمئن نیستم که آیا این به انجام کاری که می خواهم کمک کند یا خیر. 2) چگونه می توانم یک روش مشابه را در صورت وجود شرایط MA انجام دهم؟ من می دانم که یک عبارت MA معادل بی نهایت عبارت AR است. بنابراین، آیا هنوز هم میتوان نمایشی مانند $Y_t = ...$ داشت؟ به عنوان مثال، فرض کنید تناسب من ARIMA (1,0,1) را با برآورد ضریب MA 0.3 تولید کرد. متشکرم!
|
تفاوت معکوس و معادل سازی مدل ARIMA
|
87120
|
من مدل چندجمله ای بیز و مدل برنولی را پیاده سازی کرده ام و سوال من این است که آیا هموارسازی تاثیری بر عملکرد هر دو مدل دارد (قانون جانشینی لاپلاس یا اضافه کردن یک هموارسازی)؟
|
آیا صاف کردن طبقه بندی کننده بیز دقت را افزایش می دهد؟
|
86344
|
من باید یک نرمال تک متغیره را به عنوان یک نرمال چند متغیره بیان کنم تا محاسبات خاصی ممکن شود (به عنوان مثال: توانایی تقسیم دو توزیع گاوسی). بنابراین، نرمال تک متغیره من فقط روی یک متغیر تصادفی تعریف میشود: $G(x)$ و اکنون میخواهم آن را روی $G(x_1، x_2.....x_n)$ تعریف کنم. با این حال، حتی اگر روی متغیرهای تصادفی $n$ تعریف شده است، به مقادیر سایر متغیرهای تصادفی بستگی ندارد. آیا کسی می تواند به من بگوید چگونه می توانم میانگین و کوواریانس چنین توزیعی را تعریف کنم، بنابراین از نظر ریاضی درست است؟ آیا بردار میانگین فقط در یک مکان دارای مقدار غیر صفر است یا باید سعی کنم $(x-\mu)$ را 0 توصیف کنم؟ در مورد ماتریس کوواریانس چطور؟
|
بیان یک نرمال تک متغیره به عنوان یک نرمال چند متغیره
|
21375
|
> اگر یک ساعت داشته باشم، می دانم ساعت چند است. > > اگر دو ساعت داشته باشم، اکنون مطمئن نیستم. اگرچه ساده شده است، اما مشکل مربوط به سیستم پیچیده تری است که من در حال آزمایش آن هستم. اگر اندازهگیریهای زیر را از دو سیستم داشته باشم: سیستم مشخصه 1 سیستم 2 A 0 0 B 10 100 C 90 100 D 100 110 E 900 1000، میخواهم راهی را برای تعیین مقداری از مقدار خطا بین سیستمها انجام دهم (با فرض اینکه نمیتوانم تشخیص دهید که کدام سیستم، در صورت وجود، صحیح است) بنابراین * مقادیر ویژگی A بدون خطا در نظر گرفته می شوند یا هر دو سیستم صحیح هستند * مقادیر ویژگی B به عنوان یک در نظر گرفته می شوند. خطای بزرگتر از مقادیر A، C، D و E * مقادیر C، D و E دارای خطای یکسانی (یا خطای مشابه) هستند. همچنین فرض کنید ویژگی ها مستقل هستند. درک من از آمار کم است، و فقط می توانم برخی چیزها را در مورد خطای نسبی به یاد بیاورم، اما برای تعیین خطای نسبی سیستم دیگر، باید بدانم آیا یک سیستم درست است یا خیر. چگونه می توان این موضوع را حل کرد؟
|
مشکل دو ساعت و اندازه گیری
|
77105
|
این باید یک سوال آسان باشد. من دنبال اسم یک ابزار هستم. برای عادی سازی یک متغیر با بهترین توان ممکن استفاده می شود. من فکر می کنم از یک فرآیند تکراری برای پیدا کردن این بهترین قدرت استفاده می کند. اسم این ابزار چیه؟ متشکرم
|
نام ابزاری برای یافتن بهترین توان مورد استفاده به منظور عادی سازی یک متغیر
|
77100
|
من برخی از مشاهدات دلقک ماهی ها را انجام دادم. برای هر ماهی منفرد (هر مشاهده)، گونه شقایق محل زندگی، اندازه شقایق و اندازه ماهی (و خیلی چیزهای دیگر را ثبت کردم، اما برای این سوال آنها را فراموش خواهیم کرد). در کل من 8 ماهی و 7 شقایق دارم. این نشان دهنده تعداد کل گونه های موجود در منطقه نمونه برداری است. می خواهم بدانم که **اندازه شقایق** با **اندازه ماهی** ارتباط دارد یا خیر. اما من باید **گونه ماهی** و**گونه anemonea** را از این تجزیه و تحلیل جدا کنم زیرا هر دو ممکن است با **اندازه ماهی** مرتبط باشند. روی R چه مدلی اجرا کنم؟ آیا می توانم موارد زیر را اجرا کنم... aov(fish.size ~ factor(fish.species) + factor(anemone.species) + anemone.size) و فقط p.value را برای anemone.size ثبت کنم؟ یا باید از اثر ترکیبی استفاده کنم؟ lmer(fish.size ~ anemone.size + 1 | factor(fish.species) + 1 | factor(anemone.species)) یا چیز دیگری؟..
|
مدل مختلط یا نه؟ مطالعه موردی در ر
|
100543
|
سوال من این است که چگونه فرآیند نقطه ای ETAS مکانی-زمانی (فرایند نقطه ای که برای پیش بینی زلزله استفاده می شود) که توسط تابع شدت شرطی تعریف می شود، شبیه سازی کنیم. به طور دقیق تر: اجازه دهید $\mathbf{V}$ یک فرآیند نقطه زمانی فضایی باشد، $\mathbf{s}$ بردار بعد 2 حاوی مختصات باشد، $t$ شاخص زمانی باشد و $m$ یک سطح آستانه را نشان دهد. برای زلزله در مدل ETAS تابع شدت (شرطی) \begin{equation} \lambda(\mathbf{s},t,m|\mathcal{H}(t))= \lambda(\mathbf{s},t| \mathcal{H}(t))\گاما(m) = \left(\mu(\mathbf{s})+ \rho \sum_{i:t_i<t}\alpha(m_i)g(t-t_i)f(||\mathbf{s}-\mathbf{s}_i || | m_i)\right)\گاما(m) \ پایان {معادله} که در آن $\mathcal{H}(t)$ تاریخچه زلزله تا زمان $t$ است، $t$ استثنا شده است. $\mu(\mathbf{s})$ شدت پسزمینه است و میتواند تابع مختصات و برخی متغیرهای کمکی باشد: \begin{equation} \mu(\mathbf{s}) = \mathbf{Z} \boldsymbol{\eta } \end{equation} که در آن $\mathbf{Z}$ ماتریس متغیر کمکی است (ممکن است با $\mathbf{s}$) و $\boldsymbol{\eta}$ بردار ضرایب رگرسیون است. $\alpha(m)$ تعداد مورد انتظار رخدادهایی است که از یک رویداد با بزرگی $m$ آغاز می شود: \begin{equation} \alpha(m) = \exp(\psi (m-\bar{m})) \ پایان{معادله} که در آن $\bar{m}$ یک مقدار آستانه است (رویدادهای بیش از این آستانه در مدل در نظر گرفته نمیشوند). $g(t-t_i)$ تابع چگالی احتمال زمانهای وقوع رویدادهای راهاندازی شده است: \begin{equation} g(t-t_i) = \frac{\beta_2-1}{\beta_1}\left(1 +\frac{t}{\beta_1}\right)^{-\beta_2} \end{equation} توزیع مکان رویدادهای راهاندازی که استفاده میکنیم به صورت \begin{معادله} f(||\mathbf{s}-\mathbf{s}_i || | m_i) = \frac{\xi-1}{\pi \delta^2\exp(\omega (m- \bar{m})} \exp\left( 1+ \frac{(\mathbf{s}-\mathbf{s}_i)^{\prime}(\mathbf{s}-\mathbf{s}_i)}{\delta^2\exp(\omega (m- \bar{m}))} \right)^{- \xi} \end{equation} گزینه دیگری ممکن است. در نهایت \begin{equation} \Gamma(m) = \gamma \exp (\gamma (m-\bar{m})) \end{equation} سپس احتمال ورود به سیستم \begin{equation} \log L(\ mathbf{V}|. \mathcal{H}(t_1)) = \sum_{i=1}^n \lambda(\mathbf{s}_i,t_i,m_i|\mathcal{H}(t_i))-\int_{ \mathcal{T}_B} \int_{ \mathcal{S}_B} \int_{\mathcal{ M}_b} \lambda\left( \mathbf{s}, t ,m| \mathcal{H}(t) \راست) d \mathbf{s} d t d m \پایان{معادله}
|
چگونه یک مدل مکانی-زمانی etas را شبیه سازی کنیم؟
|
91508
|
من با شبیه سازی مونت کارلو مقداری قیمت سهام X$ ایجاد می کنم. وقتی نمونه قیمت سهام را داشتم، میخواهم آن را با 100 امتیاز $\hat{X}$ خوشهبندی کنم. مشکل من این است که خطای مرتبط با k-mean clustering $$ E \lVert X - \hat{X} \rVert^2, \tag{1} $$ با تعداد شبیهسازی $n$ کاهش نمییابد. خوشه $\hat{X}$ من با الگوریتم Lloyd و SciKit Learn بدست می آید. من به پی دی اف تجربی X که از طریق مونت کارلو به دست آمده بود نگاه کردم و به نظر می رسد دم بسیار سنگینی باشد. آیا این دلیل افزایش خطای k-mean من با $n$ است؟ آیا به $n$ نیاز دارم تا واقعاً بزرگ باشم؟ چگونه می توانم $X$ را کمیت کنم تا خطای (1) کم باشد؟
|
بردار کمی سازی توزیع دم سنگین
|
100542
|
$X,Y$ و $Z$ متغیرهای تصادفی گسسته هستند. $I$ اطلاعات متقابل است. سوال در عنوان است. اگر نابرابری درست باشد، چگونه آن را نشان می دهید؟ با تشکر شهود من: داشتن اطلاعات بیشتر در مورد متغیر شرطی $Z$ (به عنوان مثال $$Z=z$) همبستگی بین $X$ و $Y$ را کاهش می دهد، همانطور که با کاهش سطح تقاطع تجسم می شود.
|
$I(X:Y|Z=z) \leq I(X:Y|Z)$؟
|
91509
|
من به دنبال انجام یک تحلیل کاپلان مایر برای بررسی بقا در دو گروه هستم. من 21 نفر در گروه A و 17 نفر در گروه B دارم. 5 نفر در گروه B در زمان های مختلف فوت کردند، 0 نفر در گروه A فوت کردند، یعنی تمام اطلاعات من برای گروه A سانسور شده است. وقتی تجزیه و تحلیل KM را انجام می دهم، مقدار 0.028 است. سوال من این است که آیا با توجه به عدم وجود رویدادها در یک گروه، هنوز هم می توانم از KM برای تجزیه و تحلیل بقا استفاده کنم و اگر چنین است، آیا مقدار p معتبر است؟ پیشاپیش ممنون
|
اعتبار log-rank p-value زمانی که هیچ رویدادی در یک گروه وجود ندارد؟
|
100540
|
من یک تجزیه و تحلیل همبستگی متعارف را با استفاده از مجموعه داده های بررسی جامعه آمریکایی انجام داده ام. تجزیه و تحلیل بین متغیرهای «نسب» و «میزان تحصیلی» انجام شده است. مقادیر همبستگی های متعارف عبارتند از: {0.8140، 0.5716، 0.4708، 0.3946، 0.1465، 0.1365، 0.0409}. مقادیر برای آزمون های چند متغیره با اهمیت برای اولین تابع متعارف: مقدار آماری F-Value df1 df2 P-Value Wilk's Lambda 0.143 35.373 98 19754 0.000 Pillai's Trace 1.408 8906006. Trace 2.961 22.779 98 21842 0.000 Roy's Root 0.662 تجزیه و تحلیل افزونگی برای اولین تابع متعارف: برای متغیرهای Educational Atainment میانگین مربع بارگذاری کانونی R^2 Redundancy Index 2.616ryA.nc. میانگین مربع بارگذاری Canonical R^2 Redundancy Index 2.1514 0.666 1.432 لطفاً در تفسیر این نتایج به من کمک کنید. من می دانم که مقادیر p خوب هستند (زیرا بسیار پایین هستند). _F_ -ارزش ها نیز خوب به نظر می رسند (چون بالا هستند)، اما من مطمئن نیستم که چگونه مقادیر Wilk's Lambda، Pillai's Trace، Hotelling–Lawley Trace و Roy's Largest Root را تفسیر کنم. با توجه به درک من از تجزیه و تحلیل، آزمونهای چند متغیره از نظر آماری معنیدار هستند، اما بر اساس تحلیل افزونگی از نظر عملی معنادار نیستند. هر گونه کمکی (توضیح مختصری در مورد تجزیه و تحلیل) بسیار قابل قدردانی خواهد بود. با تشکر
|
نحوه تفسیر تحلیل همبستگی متعارف
|
108215
|
من در تلاش برای درک فرآیندهای گاوسی هستم. آیا کسی می تواند به من بگوید: 1. چرا باید از احتمال حاشیه ای گزارش استفاده کنیم؟ 2. چرا با استفاده از log، احتمال حاشیه ای را می توان به 3 عبارت (شامل یک عبارت مناسب و یک مدت مجازات) تجزیه کرد؟
|
چگونه احتمال حاشیه ای ورود به سیستم یک فرآیند گاوسی را درک کنیم؟
|
74450
|
من با تخمین بیزی جدید هستم. وقتی برخی تخمین ها را با JAGS انجام می دهم، متوجه می شوم که آمارهایی به نام های Naive SE و Time Series SE وجود دارد. منظورشون دقیقا چیه؟ آیا لازم است یکی یا هر دوی آنها را به عنوان بخشی از نتیجه برآورد گزارش کنم؟
|
Naive SE vs Time Series SE: کدام آمار را باید بعد از تخمین بیزی گزارش کنم؟
|
108218
|
من می دانم که در یک GP، پارامترهای فوق با به حداکثر رساندن احتمال حاشیه ای بهینه می شوند. کسی میتونه این روش رو برام توضیح بده لطفا؟ پیشاپیش از کمک شما متشکرم
|
در فرآیندهای گاوسی، چگونه بهینه سازی فراپارامترها را درک کنیم؟
|
77109
|
من در حال حاضر برخی از رگرسیون ها را برای درک ماهیت تغییرات قیمت در بازار مالی انجام می دهم. در این بازار، تغییرات قیمت می تواند به دو دلیل رخ دهد: تغییرات قیمت محلی (که بر کاربر خاص تأثیر می گذارد) و تغییرات قیمت در سطح بازار (که همه کاربران را تحت تأثیر قرار می دهد). اجازه دهید $P$ نشان دهنده تغییر قیمت باشد، $M$ نشان دهنده تغییر قیمت در سطح بازار باشد، $L$ نشان دهنده تغییر قیمت محلی باشد، و زیرنویس $i$ نشان دهنده عدد تجارت باشد. سپس، معادله: $P_i = M_i + L_i$ دقیقا برای هر معامله $i$ برقرار است. با این حال، آنچه من میخواهم بدانم این است که تأثیرات محلی $L$ چقدر بر سری $P$ تأثیر میگذارد. برای انجام این کار، من از یک رگرسیون حداقل مربعات معمولی (خطی) برای برازش ضرایب $c$ و $k$ برای خط رگرسیون $P = kL + c$ استفاده کرده ام، که معادل فرض این است که رابطه برای یک معامله داده می شود. با $P_i = kL_i + E_i$ داده می شود، که در آن $E_i$ یک عبارت نویز است. در حال حاضر، من این رگرسیون را انجام می دهم، سپس خطای خارج از نمونه رگرسیون را تخمین می زنم (با استفاده از اعتبارسنجی متقاطع 10 برابری). سپس کل این فرآیند را برای یک رگرسیون مشابه که فقط عبارت کل بازار را شامل میشود، تکرار میکنم، یعنی $P = jM + d$. من دوباره خطای خارج از نمونه رگرسیون را با استفاده از اعتبارسنجی متقاطع 10 برابری تخمین می زنم. سپس با مقایسه خطای خارج از نمونه این دو رگرسیون، عوامل $M$ و $L$ را در ایجاد تغییرات قیمت مقایسه میکنم. رزروی که من در مورد این روش دارم این است که من قبلاً مقادیر $E_i$ را در رگرسیون اول می دانم (در هر مورد دقیقاً برابر با $M_i$ هستند) و من به طور مشابه می دانم که شرایط نویز در رگرسیون دوم دقیقا برابر با L_i$ برای هر معامله. بنابراین، مطمئن نیستم که آیا استفاده از یک رگرسیون که در آن «تظاهر میکنم» آنها را نمیدانم واقعاً چیزی به من میگوید یا خیر. آیا یک راه استاندارد (تکرارگرا) برای نزدیک شدن به این نوع مشکل (ترجیحاً با مقایسه عملکرد خارج از نمونه، به جای $R^2$) وجود دارد؟ با تشکر
|
اهمیت نسبی استفاده از خطای خارج از نمونه
|
6684
|
**توجه: من نمونه مورد کد را به روز کردم، در نسخه قبلی خطاهایی وجود داشت** کراس به R-help ارسال شد، زیرا من تا حدودی مشکوک هستم که این رفتار غیرمنتظره باشد. من میخواهم مقادیر یک lm موجود (مدل خطی، به عنوان مثال lm.obj) را با استفاده از مجموعه جدیدی از متغیرهای پیشبینیکننده (مثلاً دادههای جدید) در نتیجه R پیشبینی کنم. به طور خاص، من علاقه مند به مقدار y پیش بینی شده در میانگین، 1 SD بالاتر از میانگین، و 1 SD کمتر از میانگین برای هر پیش بینی هستم. با این حال، به نظر میرسد که چون مدلهای خطی من با فراخوانی scale() روی پیشبینیکننده هدف ساخته شدهاند که خروجیها را با خطا پیشبینی میکند، «خطا در مقیاس (xxA، مرکز = 9.7846094491829، مقیاس = 0.959413568556403): شیء 'xxA' یافت نشد. . با اشکال زدایی پیش بینی، می توانم ببینم که خطا در یک فراخوانی به model.frame رخ می دهد. با اشکال زدایی قاب مدل می توانم خطای این دستور را مشاهده کنم: متغیرهای <\- eval(predvars, data, env); به نظر میرسد که خطا به این دلیل است که predvars به این شکل است: فهرست (مقیاس (xxA، مرکز = 10.2058714830537، مقیاس = 0.984627257169526)، مقیاس (xxB، مرکز = 20.44916908811149، 327) مقیاس یک مورد مثال: dat <- data.frame(xxA = rnorm(20,10)، xxB = rnorm(20,20)) dat$out <- with(dat,xxA+xxB+xxA*xxB+rnorm(20, 20)) lm.res.scale <- lm(out ~ scale(xxA)*scale(xxB),data=dat) my.data <- lm.res.scale$model #بارگذاری داده ها از شی lm newdata <- expand.grid(X1=c(-1,0,1),X2=c(-1,0,1) ) names(newdata) <- c(scale(xxA)،scale(xxB)) newdata$Y <- predict(lm.res.scale,newdata) آیا کاری هست که بتوانم انجام دهم قبل از ارسال newdata یا lm.obj برای پیش بینی() که از خطا جلوگیری می کند؟ من سعی کردم: از فایل راهنما به نظر می رسد که ممکن است بتوانم کاری با شرایط، استدلال انجام دهم، اما کاملاً متوجه نشده ام که باید چه کار کنم. از طرف دیگر، آیا راه حلی برای model.frame وجود دارد که از بروز خطا جلوگیری کند؟ آیا پیش بینی () باید اینگونه رفتار کند؟ **جزئیات اضافی:** با این حال، من واقعاً راه حلی می خواهم که در یک مرحله مقادیری مانند: coef(lm.res.scale)[1]+ coef(lm.res.scale)[2]*newdata[ ,1]+ coef(lm.res.scale)[3]*newdata[,2]+ coef(lm.res.scale)[4]*newdata[,1]*newdata[,2] فکر میکنم این دقیقاً همان کاری باشد که predict() باید انجام دهد. یعنی فکر می کنم کد مثال من باید معادل باشد: dat <- data.frame(xxA = rnorm(20,10), xxB = rnorm(20,20)) dat$out <- with(dat,xxA+xxB +xxA*xxB+rnorm(20،20)) #تغییر مقیاس خارج از lm X1 <- با(dat,as.vector(scale(xxA))) X2 <- with(dat,as.vector(scale(xxB))) y <- with(dat,out) lm.res.correct <- lm(y ~X1*X2) my.data <- lm.res.correct$model #بارگذاری داده ها از شی lm newdata <- expand.grid(X1=c(-1,0,1),X2=c(-1,0,1)) #نیازی به تغییر نام newdata نیست زیرا با شی lm من مطابقت دارد newdata$Y <- predict(lm. res.correct,newdata) مشخصاً، تنظیم فرمول من برای گنجاندن as.vector() مشکل تلاش من برای استفاده مستقیم از predict() با newdata را حل نمی کند.
|
چگونه می توان از تابع پیش بینی در یک شی lm استفاده کرد که در آن IV ها به صورت پویا مقیاس بندی شده اند؟
|
74452
|
برای یک آمار $T_n = \frac{1}{n} \sum_{i=1}^nY_i - \frac{1}{a}$. مستقیماً (بدون CLT) ثابت کنید که نسخه مقیاسشده و جابجا شده بهطور مناسب $T_n$ در توزیع به $N(0,1)$ همگرا میشود. [ویرایش] $f(y|a,b)=ae^{-a(y-b)}$ برای $ y\geq b$ چگونه باید به مشکل برخورد کنم؟ [ویرایش] من فکر کردم که اگر بتوانم مقدار و واریانس مورد انتظار $T_n$ را پیدا کنم و سپس آن را در $N(\mu,\sigma^2)$ برای $f(y)$ نشان دهم، $E[Y] = b+1/a$، $Var [Y] = 1/a^2$ برای $Tn$، $Var[T_n] = Var[\frac{1}{n} \sum_{i=1}^nY_i - \frac{1}{a}]$ = $a^2/n$ $E[T_n] = E [\frac{1}{n} \sum_{i=1}^nY_i - \frac{1}{ a}] = b$ [EDIT] $M_X(t)=\frac{ae^{bt}}{(a-t)}$ چگونه باید از اینجا بروم؟
|
همگرایی در توزیع
|
74451
|
داده شده: $f_{Y_{(1)}}(y) = nbe^{-nb(y-a)}$، که $b> 0$ و $y \geq a$. نشان دهید که با $n \rightarrow\infty$، $Y_{(1)}$ به احتمال زیاد به $a$ همگرا می شود. من محاسبه کردهام $E[Y_{(1)}] = \frac{1}{nb} + a$ کدام قضیه را برای نشان دادن همگرایی اعمال کنم. سعی می کردم از نابرابری چبیشف استفاده کنم. [ویرایش] اگر بخواهم بفهمم که $Y_{(1)}$ به چه چیزی در توزیع همگرا می شود، آیا این راه درستی برای انجام آن است: $F_{Y_{(1)}} = 1-e^{-nb( y-a)}$ به عنوان $n \rightarrow \infty $F_{Y_{(1)}} = 1, y < a$ F_{Y_{(1)}} = 0, y \geq a$ $P(|Y_{(1)}|< y) = P(|Y_{(1)}|< \epsilon)$ [جایگزینی $y$ با $\epsilon$] = $1-e^ {-nb(\epsilon-a)}$ به عنوان $n \rightarrow \infty $ $P(|Y_{(1)}|< y) \rightarrow 1$; بنابراین $ Y_{(1)} \rightarrow Y$ در توزیع. بنابراین توزیع محدود کننده منحط است. لطفاً اگر این روش درست است به من اطلاع دهید.
|
نمایش $Y$ به $a$ همگرا می شود
|
65944
|
من یک متغیر X15 دارم که از 001.001 تا 10000 یا بیشتر متغیر است و میخواهم کلاسهایی بسازم که با متغیر دیگری، Y، که 1 یا 0 است، نامتعادل باشند، به طوری که هر کلاس بیشتر از (Y=0) داشته باشد. ) یا از (Y=1). تنها چیزی که میخواهم، خروجی چند PROC در نسخه 9.3 است که به من بگوید سطلها باید چه باشند. من PROC SPLIT، PROC DMSPLIT و PROC ARBORETUM را امتحان کردهام، اما PROC PRINT تمام مجموعه دادههای خروجی به من سرنخی نمیدهد. چگونه می توانم مقادیر تقسیم را برای مثلاً 5 تقسیم به 6 بن از داده های X15 خود با استفاده از درخت تصمیم بدست بیاورم؟ تعداد دلخواه مقادیر تقسیم ترجیح داده می شود، من فقط نمی توانم بفهمم چگونه آن داده ها را از یک دستور PROC استخراج کنم.
|
گسسته سازی یک متغیر پیوسته در SAS با استفاده از درخت تصمیم
|
10169
|
من یک جدول احتیاطی سه طرفه دارم که در آن مجموعات حاشیه ای برای دو طرف ثابت و برای سومی تصادفی است. من تعجب می کنم که چگونه می توان یک آزمایش مجذور کای برای همگنی برای چنین جدول سه طرفه احتمالی انجام داد. **مثال**  فرض کنید هر دو مجموع Trt و Gender ثابت هستند. با تشکر
|
$\chi^2$ آزمون همگنی برای جدول احتمالی سه طرفه
|
61719
|
من می خواهم یک نمونه $\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)$ ترسیم کنم. ویکیپدیا استفاده از Cholesky یا Eigendecomposition را پیشنهاد میکند، یعنی $ \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T $ یا $ \mathbf{\Sigma} = \mathbf{Q}\mathbf{ \Lambda}\mathbf{Q}^T $ و از این رو نمونه را می توان از طریق: $ \mathbf{x} = \mathbf{D}_1 \mathbf{v} $ یا $ \mathbf{x} = \mathbf{Q}\sqrt{\mathbf{\Lambda}} \mathbf{v} $ جایی که $ \mathbf{v} \sim N\left(\mathbf{0}, \mathbf{I} \right) $ ویکیپدیا پیشنهاد میکند که هر دو به یک اندازه برای تولید نمونه خوب هستند، اما روش Cholesky زمان محاسبات سریعتری دارد. آیا این حقیقت دارد؟ به خصوص از نظر عددی هنگام استفاده از روش مونت کارلو، که در آن واریانس ها در امتداد مورب ها ممکن است چندین مرتبه قدر متفاوت باشد؟ آیا تحلیل رسمی در مورد این مشکل وجود دارد؟
|
Cholesky در مقابل تجزیه ویژه برای رسم نمونه از یک توزیع نرمال چند متغیره
|
91504
|
من یک سوال دارم که کاملاً مطمئن نیستم که چگونه آن را قاب بندی کنم، بنابراین اگر منطقی نیست عذرخواهی می کنم، اما تمام تلاشم را می کنم تا آن را قابل تفسیر کنم. من چندین مدل شبکه را با استفاده از بسته sna و تابع lnam در R اجرا کرده ام. با استفاده از این تابع، من یک مدل اختلال خودکار رگرسیون فضایی را پیادهسازی میکنم. وقتی این کد را اجرا می کنم با خطا مواجه می شوم: Warning in sqrt(diag(o$acvm)): NaNs تولید می شود که در آن acvm ماتریس کوواریانس مجانبی تخمین زده شده برای پارامترهای مدل است. این همچنین مقادیر p-NaN را در خلاصه مدل می دهد. هنگام تحقیق در مورد یک راه حل به این وبلاگ برخوردم که به نظر می رسد مشکل مشابهی دارد. نویسنده وبلاگ پیشنهاد می کند که این به این دلیل است که _این یک ویژگی مجانبی سطح احتمال است، و برای نمونه محدود این تقریب می تواند بسیار بد باشد_ من از وبلاگ نویس خواسته ام توضیح بیشتری بدهد - همانطور که از پیوند خواهید دید. - با این حال، پاسخی دریافت نکردهام (قابل درک است که پیوند کاملاً قدیمی است) و امیدوار بودم که کسی در اینجا در Cross Validated بتواند این موضوع را روشن کند. لطفاً از پرسیدن اینکه آیا چیزی نیاز به توضیح دارد، دریغ نکنید، همانطور که گفتم هنوز مطمئن نیستم که چگونه سؤال را چارچوب بندی کنم، بنابراین به احتمال زیاد تمام اطلاعات لازم را فاش نکرده ام. ممنون سام
|
ویژگی مجانبی سطح احتمال
|
72097
|
گاهی اوقات یک مدل کمتر واقعی بهتر از یک مدل واقعی پیشبینی میکند (مدل کمتر واقعی چه زمانی بهتر از یک مدل واقعی پیشبینی میکند؟). بنابراین اگر مدلی که بهتر پیشبینی میکند و هدف من پیشبینی است، باید یک مدل کمتر واقعی را به جای مدل واقعیتر انتخاب کنم؟ به طور مشابه، آیا باید مدلی را انتخاب کنم که مفروضات را نقض کند (مثلاً نرمال بودن یا همسویی بودن باقیمانده ها در رگرسیون خطی) به جای مدلی که تمام مفروضات را برآورده می کند اگر بهتر پیش بینی کند و هدف من پیش بینی باشد؟
|
انتخاب یک مدل کمتر واقعی بر مدل واقعی تر اگر بهتر پیش بینی کند و هدف من پیش بینی باشد
|
6358
|
پیشاپیش از اینکه با من همراهی کردید متشکریم، من یک آمارگیر از هر نوع نیستم و نمی دانم چگونه آنچه را تصور می کنم توصیف کنم، بنابراین گوگل در اینجا به من کمک نمی کند... من یک سیستم رتبه بندی را در یک برنامه وب من روی آن کار می کنم. هر کاربر می تواند به هر مورد دقیقا یک بار امتیاز دهد. من مقیاسی را با 4 مقدار تصور میکردم: «بسیار دوست نداشتن»، «نپسندیدن»، «پسندیدن» و «بهشدت دوست دارم» و برنامهریزی کرده بودم که این مقادیر را به ترتیب 5-، 2-، 2+ و 5+ اختصاص دهم. . حال، اگر قرار بود هر آیتم به همان تعداد رتبهبندی داشته باشد، با این سیستم امتیازدهی کاملاً راحت میشوم که به وضوح بین مواردی که بیشترین دوستداشتن را از آنها دوستداشتهاند، متمایز میکنم. با این حال، آیتم ها دارای تعداد امتیاز یکسانی نخواهند بود و اختلاف بین تعداد آرا در عکس های مختلف ممکن است بسیار چشمگیر باشد. در این صورت، مقایسه نمرات انباشته در دو مورد به این معنی است که یک آیتم قدیمی با رتبهبندیهای متوسط بسیار بالاتر از یک آیتم استثنایی جدید با رایهای بسیار کمتر خواهد بود. بنابراین، اولین چیزی که به نظرم رسید ما میانگین بگیریم... اما حالا اگر یک آیتم فقط یک رتبه +5 داشته باشد، میانگین بهتری نسبت به آیتمی دارد که امتیاز 99 +5 دارد. و 1 امتیاز +2. به طور شهودی این نمایش دقیقی از محبوبیت یک آیتم نیست. فکر میکنم این مشکل رایج است و نیازی نیست که من آن را با مثالهای بیشتری توضیح دهم، بنابراین در این مرحله توقف میکنم و در صورت نیاز در نظرات توضیح میدهم. سؤالات من عبارتند از: 1. نام این نوع مشکل چیست و آیا اصطلاحی برای تکنیک های مورد استفاده برای حل آن وجود دارد؟ من می خواهم این را بدانم تا بتوانم در مورد آن بخوانم. 2. اگر شما منابع غیرمعمولی در این زمینه می شناسید، بسیار ممنون می شوم که یک لینک بدهید. 3. در نهایت، من از هر پیشنهاد دیگری در مورد نحوه جمع آوری و تجزیه و تحلیل موثر این نوع داده ها قدردانی می کنم. خیلی ممنون از وقتی که گذاشتید!
|
یک سیستم رتبه بندی را وزن کنید تا اقلامی که توسط افراد بیشتری رتبه بالایی دارند نسبت به مواردی که توسط افراد کمتری رتبه بالایی دارند، ترجیح دهید؟
|
81900
|
من مطمئن نیستم که آیا این سوال / رویکرد منطقی است یا خیر. من باید داده های مصنوعی را بر اساس پارامترهایی که از یک مدل آموخته می شود تولید کنم، داده های تولید شده را به مدل برگردانم و مجدداً پارامترها را یاد بگیرم (بوت استرپ) برای محاسبه برخی از مقادیر p. استنباط بسیار زمان بر است و اگر بخواهیم هزاران بار آن را انجام دهیم، جای بحث ندارد. من فکر کردم که اگر توزیع **D** را بر اساس پارامترهای آموخته شده و نمونه ای از آن توزیع متمرکز کنم، می توانم از انجام مجدد پارامترهای استنتاج و یادگیری اجتناب کنم. آیا این رویکرد از نظر آماری صحیح است؟ همچنین دستورالعمل یا نظریه ای برای انتخاب توزیع **D** وجود دارد. رویکرد ساده لوحانه استفاده از توزیع نرمال با میانگین برابر با پارامتر ما خواهد بود. البته بسته به واریانس انتخابی، نتایج بسیار متفاوت خواهد بود.
|
نمونه برداری از یک توزیع به جای یادگیری پارامترها با استنتاج
|
51400
|
دانشجویی هست که در یک ترم فقط 2 درس می خواند. کلاس 1: ریاضی، کلاس 2: علوم. برای هر یک از کلاس ها، هر پنجشنبه یک آزمون برگزار می شود. هیچ امتحان یا hw دیگری وجود ندارد. فقط آزمون ها در پایان، اگر به عملکرد ریاضی او نگاه کنیم، میتوان تأخیر هفتهای آیات خودهمبستگی را ترسیم کرد. و طول همبستگی را پیدا کنید. در یک کلام، میتوان گفت که آیا عملکرد ریاضی او در طول ترم ثابت بوده است یا خیر (با فرض اینکه، اگر طول همبستگی از مقداری بیشتر بود، عملکرد را ثابت میخوانیم). ما می توانیم همین کار را برای کلاس علوم او انجام دهیم. حال میخواهیم پاسخ دهیم که عملکرد او تا چه اندازه ثابت بود؟
|
تنوع داده ها
|
10160
|
هدف نهایی این است که در یک نگاه به کاربران نشان دهیم که آیا داده های آنها به طور معمول توزیع شده است یا خیر. اولین تلاش یک کلاژ است که داده ها را در یک نمودار فرکانس رسم می کند. سپس از میانگین مشاهده شده و انحراف معیار برای ساختن نمودار «منحنی نرمال» استفاده می شود. نمودار فرکانس بر روی نمودار منحنی نرمال گذاشته شده و در کنار برخی از آمارهای کلیدی قرار داده شده است. نمودار فرکانس نیز سطل های مثبت را سبز و بن های منفی را قرمز رنگ می کند. به نظر می رسد:  من اشتباه این رویکرد را درک می کنم، اما در حال حاضر عملی است. راه بهتری برای برخورد با این موضوع چیست؟
|
چند راه برای نمایش گرافیکی توزیع های غیر عادی در اکسل چیست؟
|
70228
|
من تخمگذاری پروانه را در باغ به مدت 4 ماه (400 خوشه در هفته) مشاهده کردم. پروانه روی برگ و سیب تخم می گذارد. من می خواهم میانگین بین تخم مرغ روی برگ و سیب را مقایسه کنم. من فرض می کنم از آزمون t زوجی استفاده کنم، اما نتیجه shapiro.test نشان داد که داده های من با نرمال بودن مطابقت ندارند. میخواستم بدونم که آیا باید از آزمون مجموع رتبه Kruskal-Wallis برای این مورد استفاده کنم؟ علاوه بر این، برای جلوگیری از تخمک گذاری، مقداری درمان روی سیب انجام دادم. من تخمها را بهصورت هفتگی روی خوشههای تیمار شده و تیمار نشده مشاهده کردم (درختان سیب تیمار شده و تیمار نشده در یک باغ بودند). سپس جدولی به دست آوردم: تخم مرغ درمان نشده مشاهده شده 40 1852 مشاهده نشده 6000 12600 آیا می توانم در این مورد از تست chisquare استفاده کنم؟
|
آزمون تی زوجی، آزمون مجموع رتبه ای کروسکال والیس و آزمون کای دو. کدام آزمون را انتخاب کنم؟
|
10167
|
### زمینه: در چارچوب مدلسازی معادلات ساختاری، من طبق آزمون ماردیا غیر نرمال بودن دارم، اما شاخصهای تک متغیره چولگی و کشیدگی کمتر از 2.0 هستند. ### سوالات: * آیا تخمین پارامترها (تخمین ضریب) باید با استفاده از راهاندازی (1000 تکرار) با روشهای اصلاحشده بایاس ارزیابی شوند؟ * به جای تست سنتی کای دو، آیا باید از نسخه بوت استرپ Bollen-Stine استفاده شود؟
|
پارامتر بوت استرپ و برآورد برازش با غیر نرمال بودن برای مدلهای معادلات ساختاری
|
6680
|
من باید جدول A را به جدول B تبدیل کنم. چگونه می توانم با استفاده از R این کار را انجام دهم؟ **جدول A** Y 10 Y 12 Y 18 X 22 X 12 Z 11 Z 15 ** TABLE B** X 22 12 Y 10 12 18 Z 11 15
|
نیاز به تبدیل عناصر ستون تکراری به یک عنصر منحصر به فرد در R
|
91506
|
بگویید من یک سری زمانی از مشاهدات دارم و اندازهگیری واریانس آن سری زمانی را بهعنوان انحراف استاندارد (SD) در یک پنجره متحرک با عرض $w$ محاسبه میکنم و آن پنجره در گامهای زمانی منفرد روی سری جابجا میشود. بیشتر فرض کنید که $w = \left \lceil{n/2}\right \rceil$، که در آن $n$ تعداد مشاهدات است، و اینکه پنجره به راست تراز شده است. قبل از اینکه شروع به تخمین پنجره متحرک SD سری زمانی کنم، باید مقادیر $w = \left \lceil{n/2}\right \rceil$ سری را مشاهده کنم. آیا شکل مورد انتظاری برای ACF سری زمانی جدید مقادیر SD وجود دارد؟ من فرض میکنم وابستگی به مقادیر قبلی به پنجرهای با $w$ مربوط میشود، اما آیا ACF چنین سریهایی با ACF یک فرآیند $\mathrm{MA}(w)$ مرتبط است؟ ### پیشزمینه من سعی میکنم به مفاهیم استخراج یک سری زمانی از واریانس سریهای زمانی اصلی از طریق پنجرههای متحرک فکر کنم. پس از محاسبه سری مشتق شده از مقادیر SD، مرحله بعدی که معمولاً اعمال می شود این است که ببینیم آیا روندی در سری مشتق شده از مقادیر SD وجود دارد یا خیر. از آنجایی که هر مقدار در سری مشتق شده تا حدی به مقادیر قبلی سری اصلی بستگی دارد، مقادیر سری مشتق شده مستقل نیستند. بنابراین سوالی که اغلب مطرح می شود این است که چگونه می توان این عدم استقلال را توضیح داد. چنین محاسباتی (پنجره های متحرک) اغلب برای سری های زمانی انجام می شود تا شواهدی از شاخص ها (افزایش واریانس، افزایش ضریب AR(1)) پاسخ آستانه قریب الوقوع (به اصطلاح انتقال بحرانی) جستجو شود.
|
تابع همبستگی خودکار یک سری زمانی که از محاسبه انحراف استاندارد متحرک ناشی می شود چیست؟
|
65869
|
من از نظر آماری در چالش هستم و سعی می کنم نتایج نظرسنجی خود را با کلمات مناسب بیان کنم. من در حال بررسی هستم که آیا بازی های بیشتر منجر به هر نوع پرخاشگری می شود یا خیر. من از ANOVA استفاده می کنم و حتی مطمئن نیستم که آیا باید از آن استفاده کنم یا نه ... سوالاتی مانند 1) آیا وقتی بازی را باختید احساس پرخاشگری می کنید a. بله (مقدار 1) ب. خیر (مقدار 2) ج. گاهی اوقات (مقدار 3) 2) آیا اگر چند بازی را پشت سر هم ببازید دچار وسواس بازی می شوید. بله باید یک بار او را شکست دهم (مقدار 1) ب. خیر (مقدار 2) ج. گاهی اوقات (مقدار 3) اکنون این دو متغیر پرخاشگری ترکیبی برای هر گروه سنی خاص را تعریف می کنند. سوال این است که چگونه می توانم این پاسخ ها را با فرضیه خود مرتبط کنم؟ اگر من ANOVA را انجام دهم، می توانم تشخیص دهم که آیا یک گروه تفاوت قابل توجهی با گروه دیگر دارد یا خیر. اگر آنها هستند، پس این دو متغیر سطح پرخاشگری را تعریف نمی کنند، اما اگر نیستند، به این معنی است که این دو سؤال به یکدیگر مرتبط هستند (اگر در اینجا اشتباه می کنم، مرا اصلاح کنید). با این حال، این دو سوال واقعاً چگونه با فرضیه من ارتباط دارند؟ آیا باید یک رابطه همبستگی انجام دهم؟
|
به ارتباط پاسخ های نظرسنجی به فرضیه کمک کنید
|
86346
|
من یک مجموعه داده با حدود 700 مشاهده از 12 مرکز دارم. اگرچه اثر خوشهبندی همانطور که در یک مدل رهگیری تصادفی آزمایش شد معنیدار به نظر نمیرسید، استفاده از یک مدل چندسطحی / GEE مناسبتر به نظر میرسد. اما ممکن است انجام این کار آسان نباشد زیرا میخواهم میانجیهای بالقوه متعددی را آزمایش کنم. (به طور خاص، مدل در ذهن من یک SEM بدون متغیرهای پنهان است). بنابراین سوال من این است: آیا از نظر تئوری مناسب است که داده ها را در یک مدل مسیر تک سطحی با استفاده از ML (برآورنده ساندویچ Huber یا بوت استرپ SE) قرار دهیم؟ به روز رسانی: با تشکر از کسانی که کمک می کنند. فقط یک به روز رسانی برای کاری که دیروز انجام دادم. من مدل های زیر را امتحان کردم: 1. SEM تک سطحی در R (بسته لاوان) 2. SEM تک سطحی در MPlus 3. SEM دو سطحی در Mplus (1) و (2) با ML (Huber / Bootstrap SE) نصب شد. ). (3) با برآوردگر بیزی نصب شد زیرا MLR همگرا نشد. اساساً همه موارد بالا نتایج مشابهی به من دادند اما (1) و (2) به من این شانس را دادند که تجزیه و تحلیل چند گروهی را در بالای SEM انجام دهم و (3) به نظر می رسد از نظر تئوری صحیح تر باشد. من کاملاً مطمئن نیستم که آیا می توان به نتایج (1) و (2) اعتماد کرد. یک جستجوی سریع ادبیات به من گفت که Huber SE حتی اگر مدل مشخص شده باشد، SE صحیحی را ارائه می دهد، اما پارامترهای تخمین زده ممکن است بایاس باشند. تحت این شرایط، آیا (1) و (2) تخمین پارامترهای مغرضانه ارائه می کنند؟
|
داده های خوشه ای بدون مدل چند سطحی / GEE؟
|
65842
|
من یک سوال در مورد تجزیه و تحلیل معنایی پنهان (LSA) دارم که در http://lsa.colorado.edu/papers/JASIS.lsi.90.pdf معرفی شده است. در صفحه 14، طرحواره هایی برای محاسبه شباهت بین انواع مختلف اشیاء توضیح داده شده است. سوال من این است - $S^2$ در این فرمولها چه فایده ای دارد، برای مثال در محاسبه شباهت سند-سند با $D\times{S^2}\times{D^T}$ - چرا به سادگی از $D استفاده نکنید. \times{D^T}$. توضیحی در زیر داده شده است که موقعیت نقاط یکسان است با این تفاوت که هر یک از محورها به نسبت عنصر مورب متناظر $S'$ کشیده یا منقبض شده اند. من واقعاً متوجه نشدم، بنابراین برای برخی توضیحات بسیار سپاسگزار خواهم بود. در واقع، چگونه باید شباهت کسینوس بین دو سند را در این نمایش محاسبه کنم؟ محصول نقطهای کافی نیست، زیرا ردیفهای $T$ و $D$ دارای طول واحد نیستند، بنابراین حدس میزنم که باید با چیزی مقیاسبندی شود - اما دقیقاً چه؟ همانطور که تعریف شباهت کسینوس می گوید با حاصل ضرب هر دو طول برداری؟ یا باید به نحوی از $S^2$ در اینجا نیز استفاده کنم؟ برای توضیح واضح بسیار سپاسگزار خواهم بود.
|
شباهت محاسباتی در LSA
|
77107
|
من می دانم که اگر H0: μ = 1.35، پس اگر `H1: μ != 1.35` به این معنی است که p-value 2P است (Z ≥ |z|) در غیر این صورت اگر H1: μ > 1.35 باشد، P(Z ≥ z) و H1: μ < 1.35 به این معنی است که p-value P است (Z ≤ z) با این حال، من در مورد نحوه انجام این کار با مجموعه های زیر شگفت زده هستم فرضیه H0: μ ≥ 1.35 H1: μ < 1.35 ## p-value=?? H0: μ ≤ 1.35 H1: μ > 1.35 p-value=??
|
از z-score تا p-value - چگونه این کار را برای این مجموعه فرضیه انجام دهیم؟
|
6688
|
فرض کنید من می خواهم یک طبقه بندی کننده باینری بسازم. من چندین هزار ویژگی دارم و فقط چند 10 نمونه. از دانش دامنه، دلیل خوبی برای این باور دارم که برچسب کلاس را میتوان با استفاده از چند ویژگی بهدقت پیشبینی کرد، اما نمیدانم _کدامها. من همچنین میخواهم قانون تصمیمگیری نهایی به راحتی قابل تفسیر/توضیح باشد و تعداد کمی از ویژگیها را ضروری میسازد. برخی از زیرمجموعههای مشخصی از ویژگیهای من به شدت مرتبط هستند، بنابراین انتخاب پیشبینیکنندهترین چند بهطور مستقل کار نخواهد کرد. همچنین میخواهم بتوانم به طور معناداری آزمایش فرضیهها را روی ویژگیهایم انجام دهم. آیا روش رگرسیون گام به گام زیر در این شرایط معقول است: 1. با توجه به ویژگی های موجود در مدل (یا فقط وقفه در اولین تکرار)، مشخصه ای را انتخاب کنید که بیشترین نسبت احتمال ورود به سیستم را هنگام اضافه شدن به مدل ایجاد کند. از آزمون خی دو نسبت درستنمایی برای محاسبه مقدار P اسمی برای هر آزمون فرضیه انجام شده در این انتخاب استفاده کنید. نکته تهی در اینجا این است که افزودن متغیر اضافی به مدل هیچ قابلیت پیش بینی اضافی را ارائه نمی دهد. گزینه جایگزین این است که توانایی پیشبینی را افزایش میدهد. 2. فرضیههای آزمایششده در مرحله 1 هر تکرار را بهعنوان یک خانواده بررسی کنید و نرخ کشف نادرست را برای کوچکترین مقدار P (برای ویژگی انتخابشده) با استفاده از چیزی شبیه بنجامینی-هوچبرگ محاسبه کنید. 3. برو 1 مگر اینکه برخی از معیارهای توقف برآورده شوند. 4. نرخهای کشف نادرست را برای ویژگیهای فردی گزارش کنید، اما **_not_** مقدار P را برای کل مدل گزارش کنید (زیرا این مقدار به شدت افزایش مییابد). هر یک از این مقادیر P تصحیحشده چندگانه نشاندهنده اهمیت آماری آن ویژگی _given_ همه ویژگیهایی است که قبلاً به مدل اضافه شدهاند. آیا انجام چنین کاری در این شرایط با موفقیت از همه انتقادات معمولی از رگرسیون گام به گام جلوگیری می کند؟ آیا نرخ کشف نادرست از این طریق محاسبه می شود؟
|
رگرسیون گام به گام سالم؟
|
80955
|
آیا به هر حال بتوانم LASSO را با رگرسیون دوجمله ای منفی روی R انجام دهم؟ من یک رگرسیون دو جمله ای منفی روی مجموعه داده خود انجام می دهم زیرا داده ها برای تحمیل رگرسیون پواسون بسیار پراکنده هستند. در همین حال، من نیز با مشکل چند خطی مواجه هستم. من قبلاً سعی کردم از «glmnet» با «family = poisson» استفاده کنم، اما داده ها به خوبی مطابقت ندارند (هم برای آلفا = 0 و هم برای آلفا = 1)... راستش نمی دانم برای تجزیه و تحلیل این آشفتگی بزرگ چه کار کنم. از داده ها :/ متشکرم ویرایش: در اینجا جدول واریانس-کوواریانس برازش دوجمله ای منفی 8.392729e+18 1.239178e+06 است. -3.624090e+05 1.896258e+17 -3.702521e+17 1.239178e+06 1.119052e-04 5.201989e-06 -1.877590e+05 -2.504+05 -2.50505-05 -2.50509 5.201989e-06 5.179343e-06 -8.021543e+04 -1.436381e+05 1.896258e+17 -1.877590e+05 -8.021543e+04 2.196+194+2.196 -3.702521e+17 -2.558095e+05 -1.436381e+05 6.413947e+16 2.142183e+17
|
کمند در مدل رگرسیون دو جمله ای منفی
|
6353
|
به نظر میرسد میتوانید از کدنویسی برای یک متغیر طبقهبندی استفاده کنید، اما من دو متغیر طبقهبندی و یک متغیر پیشبینی پیوسته دارم. آیا می توانم از رگرسیون چندگانه برای این در SPSS استفاده کنم و اگر بله چگونه؟ با تشکر
|
آیا می توانم از رگرسیون چندگانه در زمانی که پیش بینی کننده های مقوله ای و پیوسته ترکیبی دارم استفاده کنم؟
|
14887
|
من ضرایب همبستگی را برای 90 روز افزایش یک سری زمانی محاسبه کرده ام (یعنی یک ضریب برای روزهای 0-90، 91-180، و غیره). محاسبه این ضرایب از نظر محاسباتی بسیار پرهزینه بود و من می خواهم همبستگی ها را در دوره های 6 ماهه، دوره های 1 ساله و غیره تجزیه و تحلیل کنم. آیا می توان چگونه این ضرایب را ترکیب کرد؟ یعنی آیا می توانم همبستگی را در طول 180 روز به صورت 0.5*c1+0.5*c2 دریافت کنم؟ من می دانم که در حالت کلی نمی توان این کار را انجام داد، اما چون ضرایب از همان تعداد نمونه محاسبه می شود، آیا امکان پذیر است؟
|
اضافه کردن ضرایب همبستگی سری های زمانی
|
72096
|
من منحنی ROC را برای عملکرد طبقهبندی کننده SVM در Matlab ترسیم کردم. من باید مقدار آستانه بهینه را از منحنی ROC پیدا کنم و باید SVM را در آن آستانه خاص برای طبقه بندی آینده تنظیم کنم. آیا تابع Matlab وجود دارد که بتوان از آن برای محاسبه خودکار مقدار آستانه بهینه (که حساسیت و ویژگی حداکثر یا بالاتر از 0.85 است) استفاده کرد و SVM را با همان آستانه تنظیم کرد؟ هر گونه کمک در این مورد واقعا قدردانی خواهد شد. پیشاپیش ممنون
|
یافتن آستانه بهینه از منحنی ROC (طبقهبندی کننده SVM در Matlab)
|
14889
|
من در یک متن طبقه بندی الگو خواندم که اگر بردارهای وزنی را در نظر بگیریم که اجزای آنها عدد صحیح هستند، روند پرسپترون در تعداد محدودی از مراحل خاتمه می یابد. شهود و نظریه پشت این چیست؟ **ویرایش:** این یک مشکل تکلیف از کتاب درسی طبقه بندی الگوها توسط دودا، هارت، استورک است، و من فقط یک اشاره می خواستم، بنابراین درخواست بالا را ارسال کردم. مشکل تکلیف واقعی اینجاست: > اجازه دهید ${y_{1},...,y_{n}}$ مجموعه متناهی از نمونه های خطی قابل جداسازی در ابعاد d> باشد. یک روش جامع پیشنهاد کنید که یک بردار جداکننده > را در تعداد محدودی از مراحل پیدا کند. (شاید بخواهید وزن > بردارهایی را در نظر بگیرید که اجزای آنها عدد صحیح هستند.)
|
یک روش جامع پیشنهاد کنید که یک بردار جداکننده برای الگوی قابل جداسازی خطی در تعداد محدودی از مراحل پیدا کند.
|
91500
|
من سعی کرده ام از ابزارهای آنلاین برای تعیین اندازه نمونه جمعیت برای آزمایشی که اجرا خواهم کرد استفاده کنم. با این حال، من واقعاً قسمت درصد را که سعی کردم از این ماشین حساب اندازه نمونه www.calculator.net استفاده کنم متوجه نمی شوم، اما از درک نکردن آن احساس خوشحالی نمی کنم، حتی اگر بیشتر اطلاعاتی که خوانده ام گفته باشد که آن را در اینجا بگذارید. 50 (بدترین سناریو؟). به نظر نمیرسد توضیحات موجود در وبسایت اصلاً کمکی نمیکند > درصد: درصد یک پاسخ خاص انتخاب شده است. و برخی منابع دیگر فقط اندکی بهتر به نظر می رسند. > دقت شما همچنین به درصد نمونه شما بستگی دارد که یک پاسخ خاص را انتخاب می کند... مسئله من این است که چه پاسخی و چه سوالی؟، چه می شود اگر تمام سوالات نظرسنجی من مقیاس های لیکرت باشد و کاربر باید پاسخ دهد. آنها؟ همه کسانی که این نظرسنجی را انجام می دهند باید آن را تکمیل کنند یا پاسخ های آنها ثبت نمی شود، پس آیا درصد من 100٪ است؟ هر گونه کمک بسیار قدردانی می شود
|
مشکل درک «درصد» هنگام کار کردن با فاصله اطمینان
|
26220
|
> **تکراری احتمالی:** > نرمال بودن فرض ANOVA/توزیع نرمال باقیمانده ها من یک مجموعه داده دارم که اندازه گیری های سطح بذر، رنگ و گردی را در 5 نقطه زمانی تقسیم بندی شده توسط 2 گروه درمانی ذخیره می کند. 12 تکرار برای هر گروه در نقاط زمانی وجود دارد. من می خواستم یک ANOVA معمولی (Area ~ group*time + Error(id)) و یک تجزیه و تحلیل اندازه گیری های مکرر و یک تست Tukey (زمان و گروه) انجام دهم، اما Area من در داده های من نرمال نیست اما همگن است، رنگ همان است. برعکس، گرد و گرد بودن نه نرمال است و نه همگن. من از boxcox برای تبدیل داده ها استفاده کردم اما هنوز همان نتایج را دریافت می کنم. برای تجزیه و تحلیل این داده ها چه چیزی را توصیه می کنید؟ پیشاپیش ممنون؟ لوانا
|
ANOVA اندازه گیری های مکرر زمانی که داده ها غیر عادی و غیر همگن هستند
|
6354
|
اکثر روشها برای تجزیه و تحلیل دادههای نمادین در حال حاضر در نرمافزار SODAS پیادهسازی میشوند. آیا بسته های R برای داده های نمادین به جز clamix و clusterSim وجود دارد؟
|
بسته R برای تجزیه و تحلیل داده های نمادین
|
45269
|
در زیر سوال و راه حل برای قسمت c است که بخشی است که من متوجه نمی شوم. کسی میتونه برام توضیح بده؟ من کاملا نمی دانم که چگونه آن را $3\ بیش از 7 $ دریافت می کند و چرا نیاز به آن دارد؟ آیا راهنمایی در مورد آن؟ رونویسی شده از دو تصویر: دورا بندر و جوی مارک با هم در مدرسه بازرگانی فارغ التحصیل شدند. هر دو امیدوارند یک کافی شاپ در گوشه و کنار مرکز مالی باز کنند. با استفاده از یک رویکرد سیستمی، دورا و جوی سه استراتژی را شناسایی کرده اند. استراتژی 1 دلاری سرمایه گذاری در یک قهوه ساز نسبتاً گران قیمت با دانه قهوه باکیفیت وارداتی از ایتالیا است. در یک بازار مطلوب، آنها باید بتوانند سود خالص 12000 دلاری را در یک ماه به دست آورند. اگر بازار نامطلوب باشد، آنها می توانند $8000 $ ضرر کنند. استراتژی 2 دلاری خرید یک آبجو ارزان تر است. در یک بازار مطلوب، آنها می توانند بازدهی 8000 دلاری کسب کنند، در حالی که در یک بازار نامطلوب، 5000 دلار ضرر خواهند داشت. استراتژی سوم این است که هیچ کاری انجام ندهید. اساسا جوی ریسک پذیر است، اما دورا ریسک گریز است. (الف) جوی باید از چه نوع روش تصمیم گیری استفاده کند؟ تصمیم جوی چه خواهد بود؟ (ب) منحنی سودمندی در مقابل ارزش پولی دورا و جوی را ترسیم کنید. (ج) در طول دوره تصمیم گیری، یک شرکت بازاریابی با دورا و جوی تماس گرفته است. پرایس اد مارکتینگ، که مدعی شد میتوانند تحلیل فنی را با اطمینان برای شرایط بازار در سال آینده ارائه کنند. با استفاده از تکنیک ارزش مورد انتظار اطلاعات کامل (EVPI)، تعیین کنید که جوی و دورا بیشترین تمایل به پرداخت را برای PriceAd دارند؟ $\begin{array}{} \text{(c)} &0 \le p \le \frac37\quad&\text{EVPI} = 5000 - 1000 p\\\ &\frac37 \lt p \lt 1\quad&\ متن{EVPI} = 8000 - 8000 p\\\ &p=0.5\quad&\text{EVPI} = \$4000 \end{آرایه}$
|
یک مشکل لجستیک در مورد نظریه تصمیم گیری
|
70220
|
من داده های چندین کلاس مدرسه (با چند دانش آموز) را دارم. من میخواهم مقادیر مورد انتظار/پیشبینی شده کلاس A را برای برخی از آیتمها با استفاده از یک رگرسیون (یک رگرسیون خطی چندگانه در آن مورد خاص) محاسبه کنم که میخواهم پارامترها/وزنهای رگرسیون را با استفاده از همه کلاسها به جز A تخمین بزنم. فرض کنید برای یک آیتم $. I$، میخواهم $f_{model}$ را به صورت $f_{model}\left( x_0، \dots، x_n \right) = I + \varepsilon$ تخمین بزنم با استفاده از دادههای $x_0، \dots، x_n$ از همه دانشآموزان $p\in \\{\mbox{دانشآموزان از همه کلاسها}/(p\in A)\\}$ که در آن $A$ مجموعهای از دانشآموزان است کلاس مدرسه $A$. با داشتن $f$ میخواهم $Y_{پیشبینی شده} = f_{model}\left(y_0, \dots,y_n \right)$ را برای دادههای $y_0, \dots, y_n$ از همه دانشآموزان $p' محاسبه کنم. \ به دلار استرالیا. اگرچه من می دانم که چگونه این کار را برای یک مورد انجام دهم (پارامترها را بنویسید و رگرسیون را به صورت دستی محاسبه کنید)، می خواهم بدانم آیا یک روش خودکار برای انجام این کار وجود دارد، به عنوان مثال. یک تابع یا روش یا یک چک باکس برای بررسی. حتی نام یک بسته اضافی نیز کافی است، احتمالاً دانشگاه من قبلاً مجوز آن را دارد.
|
رگرسیون پیشرفته در SPSS
|
57600
|
میانگین و انحراف معیار N توزیع نرمال x1,x2...xn به شما داده می شود احتمال اینکه x1 حداکثر باشد چقدر است؟ یعنی P(x1>x2,x3..xn) را پیدا کنید چگونه این را حل کنم؟ x1، x2، x3 و غیره مستقل هستند. هر گونه کمکی قدردانی خواهد شد، با تشکر!
|
احتمال اینکه یک توزیع نرمال معین در میان سایرین حداکثر باشد
|
49870
|
من در حال انجام ANCOVA هستم. متغیر وابسته من تعداد روزهای غیبت دانش آموز از مدرسه است. همانطور که می توان تصور کرد، این متغیر نرمال نیست، بنابراین من یک تبدیل log10 را انجام دادم. وقتی تجزیه و تحلیل را با متغیر تبدیل شده اجرا می کنم، هیچ رابطه معنی داری با متغیر مورد علاقه خود پیدا نمی کنم. با این حال، وقتی آن را با متغیر وابسته اصلی اجرا میکنم، رابطه معنادار است. همچنین، فرض همگنی با متغیر وابسته اصلی نقض می شود، اما با متغیر تبدیل شده نقض نمی شود. با توجه به تخلفات، این تصور را داشتم که باید قدرت آماری کاهش یابد. چرا من فقط زمانی نتایج قابل توجهی پیدا می کنم که این فرضیات نقض شوند؟ کسی میتونه کمک کنه اینو برام توضیح بده؟ همچنین باید اشاره کنم که حجم نمونه من کاملاً نابرابر است و در این مورد سلول کوچکتر واریانس کمتری روی متغیر وابسته دارد.
|
غیر نرمال بودن و ناهمگنی در ANCOVA
|
6355
|
من فرض الگوریتم kNN برای داده های مکانی را درک می کنم. و میدانم که میتوانم آن الگوریتم را گسترش دهم تا روی هر متغیر داده پیوسته (یا دادههای اسمی با فاصله همینگ) استفاده شود. با این حال، هنگام برخورد با داده های با ابعاد بالاتر از چه استراتژی هایی استفاده می شود؟ به عنوان مثال، بگویید من یک جدول از داده ها دارم (x[1]، x[2]، x[3]، ...، x[n]) و می خواهم مجموعه ای از طبقه بندی کننده ها را برای پیش بینی یکی از آن ستون ها بسازم. (بگویید x [n]). با استفاده از الگوریتم kNN، من هر دو ستون را از ستونهای باقیمانده (x[1]-x[n-1]) برای آموزش انتخاب میکنم. بنابراین بگویید میتوانم x[1] و x[2] را انتخاب کنم و از آنها یک طبقهبندی بسازم. یا میتوانم x[1] و x[4] را انتخاب کنم، یا میتوانم x[5] و x[8] و غیره را انتخاب کنم. طبقه بندی کننده از آن. آیا استفاده از ابعاد بالاتر (2 بعدی، سه بعدی و غیره) مزیتی دارد یا باید طبقه بندی کننده های تک بعدی x-1 بسازید و پیش بینی های آنها را به نحوی جمع آوری کنید؟ از آنجایی که ساخت همه این طبقهبندیکنندهها از همه ترکیبهای بالقوه متغیرها از نظر محاسباتی گران است. چگونه می توانم این جستجو را برای یافتن بهترین طبقه بندی کننده های kNN از آن مجموعه بهینه کنم؟ و وقتی یک سری طبقه بندی کننده پیدا کردم بهترین راه برای ترکیب خروجی آنها با یک پیش بینی واحد چیست؟ رای دادن شاید ساده ترین پاسخ به این سوال باشد. یا وزن دادن به هر رأی با نرخ خطا از داده های آموزشی برای هر طبقه بندی کننده. چگونه اکثر پیاده سازی ها از kNN برای یادگیری تعمیم یافته استفاده می کنند؟
|
به درک kNN برای داده های چند بعدی کمک کنید
|
72094
|
من نتایج 5 نظرسنجی را به فاصله 2 سال دارم و فرض کنیم هیچ موضوعی در بیش از یک نظرسنجی انتخاب نشده است. روش نمونهگیری مورد استفاده در این نظرسنجیها مغرضانه است و من وزن نمونهگیری را (با توجه به جامعه) برای هر نقطه داده در هر مطالعه محاسبه میکنم. سوال این است که چگونه می توانم 5 مجموعه داده را ترکیب کنم و وزن ها را مجدداً محاسبه کنم تا یک مجموعه داده غول پیکر برای تجزیه و تحلیل بر روی این جمعیت بدست آوریم؟ همچنین، اگر افراد در بیش از یک نظرسنجی ظاهر شوند، چه کاری باید انجام دهم؟ # بهروزرسانیها/ توضیحات بیشتر: با تشکر از شما @user30523، در اینجا اطلاعات بیشتری وجود دارد که ممکن است مفید باشد: فرض کنید میخواهم با استفاده از این 5 مجموعه داده، توزیع تخمینی قد را در بین جمعیت پیدا کنم. در برخی داده ها، افراد جوان تر به دلیل مکانی که در آن نظرسنجی انجام می شود بیش از حد نمونه گیری می شوند. فرض کنید وزن ها با توجه به سن آنها محاسبه می شود. به عنوان مثال با فرض اینکه 2٪ از جمعیت 15 ساله هستند، و مکان نظرسنجی در یک مرکز خرید است که در آن افراد 15 ساله 5٪ از کل خریداران را تشکیل می دهند، سپس وزن نمونه برای یک فرد 15 ساله در آن نظرسنجی به صورت محاسبه می شود. 0.02 / 0.05 = 0.4. برای سادگی، هر فرد در مرکز خرید شانس برابری برای نظرسنجی دارد و همه شرکتکنندگان در صورت درخواست از آنها پیروی کردند. با توجه به اینکه 5 نظرسنجی در 5 مرکز خرید مختلف انجام میشود و هر کدام مجموعه وزنهای خود را به یک روش محاسبه میکنند، چگونه میتوانم تمام 5 مجموعه داده را ترکیب کرده و وزنهای نمونه را دوباره محاسبه کنم؟ P.S: من با مبحث نمونه گیری وزن ها تازه کار هستم، بنابراین اگر در نحوه محاسبه وزن ها اشتباه کرده ام، مرا تصحیح کنید.
|
نحوه ترکیب دادههای 5 نظرسنجی از یک جمعیت در طول 10 سال
|
74458
|
من دو مجموعه توزیع Weibull از دو مجموعه داده باد دارم تا بررسی کنم که آیا آنها یکسان هستند یا خیر. من فکر میکردم که یک آزمون t 2 نمونه قابل اجرا باشد، اما هیچ راهی برای انجام آن در اینترنت پیدا نکردم. آیا کسی می داند چه نوع آزمونی برای هدف من قابل اجرا است؟ و چه تابع R را می توانید توصیه کنید؟ به علاوه، اگر معلوم شد که بین دو مجموعه داده تفاوت وجود دارد، آیا می توانم فقط یک خط خطی بین مجموعه داده ها قرار دهم؟
|
چگونه می توانم تفاوت دو توزیع Weibull را آزمایش کنم؟
|
77101
|
من متعجبم که اگر یک رگرسیون لجستیک اثرات تصادفی انجام دهید، معمولاً چه بررسیها/تشخیصهایی را محاسبه و گزارش میکنید. * منحنی C-statistic/ROC * چند خطی بودن را بررسی کنید؟ * ناهمسانی را بررسی کنید؟ * McKelvey & Zalvoina R-squared * ... اطلاعات زیادی در مورد رگرسیون لجستیک استاندارد و مواردی که باید بررسی کنید وجود دارد، اما من یک نمای کلی در مورد آنچه برای رگرسیون لجستیک در داده های تابلویی اعمال می شود را گم کرده ام. با تشکر
|
چه تشخیصی برای رگرسیون لجستیک اثرات تصادفی؟
|
70229
|
من چند زمان مجزا از رویدادها دارم و میخواهم آزمایشی انجام دهم تا ببینم آیا آنها احتمالاً از یک فرآیند پواسون همگن ناشی شدهاند یا خیر. از www.stat.wmich.edu/wang/667/classnotes/pp/pp.pdf من می بینم REMARK 6.3 (TESTING POISSON) قضیه بالا همچنین ممکن است برای آزمایش این فرضیه استفاده شود که یک فرآیند شمارش معین یک فرآیند پواسون است. این ممکن است با مشاهده فرآیند برای یک زمان ثابت انجام شود پواسون، زمانهای وقوع نامرتب به طور مستقل و یکنواخت روی (0, t] توزیع میشوند. بنابراین، میتوانیم با آزمایش این فرضیه که n زمان وقوع از یک جمعیت یکنواخت (0, t] است، پواسون بودن فرآیند را آزمایش کنیم. این ممکن است با روشهای آماری استاندارد مانند آزمون کولموگروف-اسمیروف انجام شود. 7، 18، 22، 41، 43، 66، 73، 86، 92] و بازه زمانی من از 1 دلار تا 100 دلار بود.
|
تست فرآیند پواسون
|
71176
|
اخیراً شروع به مطالعه یادگیری ماشین کردم، اما نتوانستم شهود پشت رگرسیون لجستیک را درک کنم. موارد زیر حقایقی در مورد رگرسیون لجستیک است که من آنها را درک می کنم. 1. به عنوان مبنای فرضیه از تابع سیگموئید استفاده می کنیم. من میدانم که چرا این انتخاب _a_ صحیح است، اما نمیفهمم چرا این انتخاب _تنهاست. فرضیه این احتمال را نشان می دهد که خروجی مناسب $1$ است، بنابراین دامنه تابع ما باید $[0,1]$ باشد، این تنها ویژگی تابع سیگموید است که من در اینجا مفید و مناسب یافتم، با این حال بسیاری از توابع این ویژگی را برآورده می کنند. علاوه بر این، تابع سیگموئید مشتقی به این شکل $f(x)(1-f(x))$ دارد، اما من سودمندی این فرم خاص را در رگرسیون لجستیک نمیبینم. **سوال**: ویژگی تابع sigmoid چیست و چرا ما نمی توانیم از هیچ تابع دیگری با دامنه $[0,1]$ استفاده کنیم؟ 2. تابع هزینه از دو پارامتر ${\rm Cost}(h_{\theta}(x),y)=-\log(h_{\theta}(x))$ تشکیل شده است اگر $y=1، {\ rm Cost}(h_{\theta}(x),y)=-\log(1-h_{\theta}(x))$ if $y=0$. همانطور که در بالا بود، من متوجه می شوم که چرا درست است، اما چرا تنها شکل است؟ به عنوان مثال، چرا $|h_{\theta(x)}-y|$ نمی تواند انتخاب خوبی برای تابع هزینه باشد؟ **سوال**: چه چیزی در مورد شکل بالا تابع هزینه خاص است. چرا نمی توانیم از فرم دیگری استفاده کنیم؟ اگر بتوانید درک خود را از رگرسیون لجستیک به اشتراک بگذارید سپاسگزار خواهم بود.
|
شهود پشت رگرسیون لجستیک
|
85700
|
ما یک ابزار نظرسنجی داریم و علاقه مند به ارزیابی ابعاد آن هستیم. با نگاهی به نمودارهای مقیاس بندی چند بعدی، به نظر می رسد که شاید 3 بعد متمایز برای بررسی وجود داشته باشد زیرا 3 خوشه به ظاهر به خوبی تعریف شده از پاسخ ها وجود دارد. وقتی طرح Scree را انجام میدهم، مشاهده میکنم که 7 بعد وجود دارد که مقادیر ویژه آنها بزرگتر از یک است، بنابراین Kaiser-Guttman این ابعاد بالای ضد محافظهکاری را نشان میدهد. انجام یک تحلیل موازی با تولید مقادیر عادی تصادفی مستقل با همان شکل ماتریس پاسخها، قبل از اینکه مقادیر ویژه با دادههای تولید شده بهطور تصادفی سازگار شوند، 4 بعد محافظهکارانهتر به دست میدهد. با این حال، تجزیه و تحلیل موازی در کدگذاری و قالب دادهها و توزیعهای متفاوت کوواریانسهای احتمالی تحت فرضیه صفر تأثیری نمیگذارد. انجام آزمایش جایگشت داده های پاسخ اصلی با جایگشت مقادیر در هر ستون منطقی است. این همان میانگین و انحراف استاندارد را برای این مقادیر حفظ می کند، اما یک توزیع نمونه برای ماتریس همبستگی تحت یک فرضیه صفر از داده های کاملاً مستقل پیدا می کند. آیا این قبلا بررسی شده است؟ آیا نامی برای چنین آزمونی وجود دارد؟ آیا اخطارهایی برای این رویکرد وجود دارد؟
|
تست جایگشت برای تحلیل عاملی
|
70221
|
فرض کنید دو نمونه A و B با اندازه N = 20 از یک جمعیت جفت $(Y_i، X_i)$ گرفته شده و رگرسیون OLS جداگانه از هر نمونه برای مدل محاسبه می شود: $$Y_i=\beta_1+\beta_2X_i+\varepsilon_i$ $ با توجه به ضریب شیب، دو تخمین $\hat\beta_{2A}$ و $\hat\beta_{2B}$ و خطاهای استاندارد مربوط به آنها $s_{2A}$ و $s_{2B}$. سپس می توان یک آزمون t برای یک فرضیه صفر به کار برد که به طور موقت به صورت زیر بیان می کنم: > $H_0$: تفاوت بین میانگین توزیع نمونه گیری > برآورد $\beta_2$ مربوط به نمونه A و میانگین نمونه گیری > توزیع تخمین $\beta_2$ مرتبط با نمونه B کمتر از $\Delta$ است. در اینجا $\Delta$ اندازه تفاوت است که با توجه به هدف مدل مورد توجه عملی است (من در اینجا با پاسخ به این سوال راهنمایی شده ام). از آنجایی که خطاهای استاندارد احتمالاً متفاوت هستند، به نظر می رسد آزمون مناسب آزمون t ولش باشد، آمار آزمون (با فرض $\hat\beta_{2A} > \hat\beta_{2B}$): $$t=\frac{\hat\beta_{2A}-\hat\beta_{2B}-\Delta}{\sqrt(s_{2A}^2+s_{2B}^2)}$$ میتوانم ببینم چگونه محاسبه را انجام دهیم و به طور کلی ببینیم که اگر فرضیه صفر رد شود، ممکن است انحراف از مفروضات مدل رگرسیون خطی کلاسیک یا تصادفی نبودن در انتخاب نمونه با این حال، من متحیر هستم که دقیقاً چه چیزی با چنین آزمون t آزمایش می شود. **سوال**: چگونه می توان فرمول $H_0$ من را بهبود بخشید تا دقیقاً نشان دهد که این کاربرد آزمون t واقعاً چه چیزی را آزمایش می کند؟ همانطور که فرمول بندی شد، به نظر می رسد فرض شود که ارجاع به توزیع نمونه گیری _از یک نمونه خاص_ منطقی است. این اشتباه به نظر می رسد زیرا توزیع نمونه (آماری مانند میانگین) ویژگی نمونه های _تکرار شده است، نه فقط یک نمونه. اگر این دو نمونه از زیرجمعیتهای متمایز گرفته شده بودند، منطقی است که به توزیع نمونهگیری میانگین برای هر زیرجمعیت اشاره کنیم. اما در اینجا اینطور نیست: هر دو نمونه از کل جامعه گرفته شده است.
|
معنی آزمون t مقایسه خروجی رگرسیون از دو نمونه
|
44136
|
آیا اگر از bootstrapping در یک نمونه فرعی از یک مجموعه داده بزرگتر استفاده کنم، نتایج کاملاً سوگیری به دست خواهم آورد؟ به جای ترسیم 100 نمونه بوت استرپ از مجموعه داده 50 میلیونی + رکورد، که می تواند منابع سرور را افزایش دهد، به این فکر می کنم که ابتدا یک نمونه تصادفی 5٪، با جایگزینی، از رکوردها از مجموعه داده اصلی ترسیم کنم. سپس با استفاده از نمونه 5 درصد، فواصل اطمینان 95 درصدی را برای چندین آمار مورد علاقه ایجاد کنید. بنابراین در اصل من از یک نمونه بوت استرپ بوت استرپ می کنم. من با دادههای بهداشتی کار میکنم که بر اساس ارائهدهنده و دوره مراقبت خوشهبندی شدهاند، از این رو ترسیم یک نمونه نماینده مناسب 5 درصد نیاز به مراقبت دارد. برخی توصیههای قبلی به من در جهت درست اشاره کرده است (تکنیک راهاندازی مناسب برای دادههای خوشهای؟).
|
مشکلات بوت استرپینگ در نمونه تصادفی داده های اصلی چیست؟
|
45267
|
هم تابع لجستیک و هم انحراف استاندارد معمولاً $\sigma$ نشان داده می شوند. من از $\sigma(x) = 1/(1+\exp(-x))$ و $s$ برای انحراف استاندارد استفاده خواهم کرد. من یک نورون لجستیک با ورودی تصادفی دارم که میانگین $\mu$ و انحراف استاندارد $s$ را می دانم. امیدوارم تفاوت از میانگین را بتوان با مقداری نویز گاوسی به خوبی تقریب زد. بنابراین، با سوء استفاده جزئی از نمادگذاری، فرض کنید که $\sigma(\mu + N(0,s^2))=\sigma(N(\mu,s^2))$ تولید می کند. **مقدار مورد انتظار $\sigma(N(\mu,s^2))$ چیست؟** انحراف استاندارد $s$ ممکن است در مقایسه با $\mu$ یا $1$ بزرگ یا کوچک باشد. یک تقریب فرم بسته خوب برای مقدار مورد انتظار تقریباً به خوبی یک راه حل شکل بسته است. فکر نمیکنم راهحل بستهای وجود داشته باشد. این را می توان به عنوان یک کانولوشن مشاهده کرد، و تابع مشخصه برای چگالی لجستیک شناخته شده است ($\pi t ~\text{csch} ~\pi t$)، اما من مطمئن نیستم که چقدر کمک می کند. ماشین حساب نمادین معکوس قادر به تشخیص چگالی 0$ از پیچیدگی چگالی توزیع لجستیک و توزیع نرمال استاندارد نبود، که نشان میدهد اما ثابت نمیکند که انتگرال ابتدایی ساده وجود ندارد. شواهد غیرمستقیم تر: در برخی از مقالات در مورد افزودن نویز ورودی گاوسی به شبکه های عصبی با نورون های لجستیک، این مقالات عبارات شکل بسته را نیز ارائه نکردند. این سوال در تلاش برای درک خطا در تقریب میدان میانگین در ماشینهای بولتزمن مطرح شد.
|
ورودی لجستیک با نویز گاوسی
|
85703
|
من با نظریه تصمیم بیزی تازه کار هستم و مفهوم زیر را درک نمی کنم: بنابراین از آنچه که فهمیدم، از خطای بیز برای گزارش عملکرد یک طبقه بندی کننده بیز از نظر احتمال ایجاد و خطا استفاده می شود. از احتمالات خطای شرطی ![خطای شرطی] (http://sebastianraschka.com/_my_resources/images/equations/cond_error.png) میتوانیم احتمال کل خطا (احتمال طبقهبندی اشتباه) را بدست آوریم.  حال، اگر طبقهبندیکننده Bayes من برای به حداقل رساندن ریسک کلی طراحی شده باشد، من یک تابع ضرر دارم که جریمههایی را برای تصمیمات خاص تعیین میکند.   بنابراین، اگر طبقهبندیکننده من دارای چنین تابع ضرری باشد وقتی طبقهبندیکننده خود را برای حداقل ریسک کلی بهینه میکنم، نباید خطای Bayes عبارت تابع ضرر را نیز شامل می شود؟ امیدوارم بتوانید در اینجا به من کمک کنید، زیرا فکر میکنم من چیزی را در اینجا گم کردهام... **ویرایش:** سعی میکنم مشکلم را با استفاده از یک مشکل طبقهبندی دو بعدی بیان کنم: فرض کنید من دو فایل pdf دارم (به عنوان مثال، p( x|c1) و p(x|c2) ) با همپوشانی جزئی. و طبقه بندی اشتباه یک الگو به عنوان c2 در جایی که واقعاً به c1 تعلق دارد پرهزینه تر از بالعکس است. در این مورد، من تلفات بیشتری را به **طبقه بندی الگوی x به عنوان c1 زمانی که واقعاً c2 است** نسبت به **طبقه بندی الگوی x به عنوان c2 زمانی که واقعاً c1 است** را به منظور محاسبه و به حداقل رساندن نسبت می دهم. ریسک کلی بنابراین احتمال طبقه بندی یک الگوی x را به عنوان c2 در مقابل c1 به دلیل حداقل بهینه سازی ریسک افزایش می دهم. آیا این چیزی نیست که من باید در p(error) نیز وارد کنم؟
|
سوال در مورد محاسبه خطای Bayes - با یا بدون تابع ضرر؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.