_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
37620
چه زمانی از رگرسیون ناپارامتریک استفاده کنیم؟
61551
الگوریتم جنگل تصادفی
37628
چگونه میانگین هارمونیک مقادیر صفر را کنترل می کند؟ معنی هارمونیک {3، 4، 5، 0} از $1/0=\infty$ چیست؟
55546
من می‌توانم از کمکی برای یافتن بهترین روش تجزیه و تحلیل داده‌هایم با SPSS استفاده کنم. من با تجزیه و تحلیل آماری و SPSS تازه کار هستم و تلاش برای حل این مسائل مغزم را ذوب می کند. ببخشید اگر این سوال گیج کننده یا خیلی غیر اختصاصی است. برخی از جزئیات تحقیق من به دلایل حفظ حریم خصوصی تغییر کرده است. من یک نظرسنجی را ایجاد کردم و بین دو مدرسه توزیع کردم - بیایید آنها را کالج آلفا و دانشگاه بتا بنامیم. من در حال مطالعه این هستم که دانشجویان چقدر فکر می کنند پیروی از قوانین مربوط به سرقت ادبی، مواد مخدر و جنسیت مهم است، و این فرضیه را مطرح کرده ام که، به دلیل تفاوت در فرهنگ دانشگاه، دانشجویان در کالج آلفا در چگونگی سازگاری بیشتری خواهند داشت. آنها قوانین را مشاهده می کنند - یعنی دانش آموزان آلفا قوانین را برای هر سه موضوع به طور مشابه مهم می یابند. برعکس، من فرض می کنم که فرهنگ دانشگاه در دانشگاه بتا در مورد قوانین بسیار کمتر برجسته است، و بنابراین انتظار دارم که دانشجویان بتا تنوع بیشتری را در اهمیت در سه موضوع تجربه کنند. من اهمیت قاعده را با سه مقیاس لیکرت چند موردی مختلف بر اساس موضوع اندازه‌گیری کردم - بنابراین سه متغیر SlagiarismImportanceScore، DrugsImportanceScore و SexImportanceScore دارم. هر یک از این مقیاس‌های لیکرت شامل تعداد آیتم‌های متفاوتی بود، بنابراین در جایی که حداکثر امتیاز در «میزان اهمیت سرقت ادبی» ممکن است 25 باشد، حداکثر امتیاز در «امتیاز اهمیت دارو» ممکن است 15 باشد. من همچنین مدرسه را اندازه گیری کرده ام - مقدار 1 به معنای کالج آلفا و مقدار 2 به معنای دانشگاه بتا است. چگونه، در SPSS، می توانم آزمایش کنم که نمرات SlagiarismImportanceScore، DrugsImportanceScore و sexImportanceScore بین دانش آموزان آلفا و دانش آموزان بتا چقدر مشابه است؟ در نهایت، آنچه من به دنبال آن هستم داده‌هایی است که اساساً می‌گویند: «دانش‌آموزان آلفا نسبت به دانش‌آموزان بتا نگرش‌های ثابت‌تری نسبت به قوانین به‌طور کلی دارند». از هر کمکی قدردانی خواهد شد. متشکرم.
55544
من مطمئن نیستم که چه بخواهم، بنابراین اگر این یک مقدار در همه جا وجود دارد، مرا ببخشید. من برنامه ای برای تجزیه و تحلیل زمان لازم برای پرس و جو از یک ساختار داده نوشته ام و نموداری را ایجاد کرده ام که در محور Y، مدت زمان یک پرس و جو و در محور X تعداد موارد موجود در ساختار را نشان می دهد. اصلاً نمی‌دانستم چه انتظاری داشته باشم، اما سعی می‌کنم نتایج را تفسیر کنم و به‌طور عینی آنچه را که ضبط کرده‌ام توصیف کنم. احتمالاً از توضیحات من می توانید حدس بزنید که من یک نوب کامل در عرصه آمار هستم. چیزی که من دریافت می کنم چیزی شبیه به این است![گراف تصادفی](http://i.stack.imgur.com/t6Mms.png) چند سوال به ذهنم می رسد: چگونه می توانم چیزی را از نموداری مانند این استنباط کنم. ? با توجه به مقادیر نامنظم Y آیا رویکرد مشترکی برای عادی سازی این مقادیر وجود دارد؟ همچنین به نظر نمی رسد که در آن شما فقط یک خط از بهترین تناسب را بکشید و با آن پیش بروید... آیا این کار درستی است؟ از تحقیقات من تاکنون، مردم انحراف معیار، توزیع لاگ و موارد دیگر را ذکر کرده‌اند، اما در این مورد آموزش ندیده‌ام، نمی‌دانم چه زمانی از این چیزها استفاده کنم و چه هدفی را در مورد من اعمال می‌کند. من می‌توانم نمودار واقعی را آپلود کنم، اما ترجیح می‌دهم نکاتی را در مورد نحوه رویکرد به این موضوع به طور کلی ارائه دهم تا بتوانم از آن یاد بگیرم و درک بهتری داشته باشم تا بتوانم دفعه بعد این کار را انجام دهم. نمودار نشان داده شده از http://openclipart.org/detail/170148 گرفته شده است
81477
من سعی کرده‌ام مشخص کنم که آیا می‌توانم داده‌هایم، مجموعه‌ای از ۹۰ مشاهده، را با استفاده از توزیع نرمال مدل‌سازی کنم. من تست های Shapiro-Wilk و Anderson-Darling را امتحان کرده ام اما هر کدام با نتایج متفاوتی برگشتند. **آزمایش نرمال بودن اندرسون-دارلینگ** داده ها: x A = 0.6994، p-value = 0.06555 ** آزمون نرمال بودن Shapiro-Wilk** داده ها: x W = 0.9645، p-value = 0.0154 اگر از 1 قوی استفاده کنیم سطح معناداری %، صفر نرمال بودن را نمی توان در هر دو مورد رد کرد. با این حال، با استفاده از اندازه 5٪، می بینیم که آزمون SW عدد صفر را رد می کند در حالی که تست AD به سختی آن را می پذیرد. نتایج متناقض هستند و من نمی دانم به کدام یک اعتماد کنم. اگر قدرت هر آزمون را می دانستم، می توانستم تصمیم خود را بگیرم، بنابراین آیا راهی برای به دست آوردن توابع قدرت در R وجود دارد؟ کار کردن با توزیع نرمال آسان است و در مورد من منطقی است زیرا مشاهدات من نمره های آزمون هستند اما نمی خواهم فرضیات دور از ذهن داشته باشم. همچنین باید بگویم که شخصاً متقاعد نشده ام که توزیع زیربنایی طبیعی است. لطفاً به هیستوگرام زیر نگاهی بیندازید، که من یک توزیع نرمال را با همان میانگین و انحراف معیار برازش کرده ام. ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/pkncK.jpg) به نظر نمی رسد مطابقت خوبی داشته باشد. نمودار qq معمولی در زیر آمده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7h5Tc.jpg) اشاره ای به خطی بودن وجود دارد، اما نقاط پرت زیادی نیز وجود دارد. تا آنجا که من می دانم، آزمون Shapiro-Wilk بر اساس آمار سفارش است و از فرضیه نرمال بودن پشتیبانی نمی کند. اگر بخواهیم نرمال بودن داده های من را رد کنیم، در اینجا چه توزیع قابل قبولی خواهد بود؟ توجه داشته باشید که ما به دنبال یک منحنی منفی هستیم. همه پیشنهادات استقبال می شود. متشکرم. **ویرایش**: این بردار مشاهدات من به ترتیب صعودی است، یعنی آمار ترتیب 89، در صورتی که کسی بخواهد آن را بیشتر آزمایش کند: > مرتب سازی (x) 19 32 37 37 37 42 42 45 45 45 46 46 46 47 47 48 48 50 51 54 55 55 55 55 55 55 55 56 56 56 56 57 57 58 58 58 60 60 60 60 61 61 62 62 62 62 62 62 62 62 62 62 62 63 656 67 67 67 68 68 68 68 70 70 71 71 71 72 72 75 75 75 76 76 77 77 77 77 77 77 78 78 78 78 80 81
تست های نرمال بودن متناقض
83019
من دانشجوی کارشناسی هستم و اطلاعات چندانی در مورد آمار ندارم. امیدوارم بتوانید با پاسخ دادن به یک سوال به من کمک کنید. در حال حاضر در حال بررسی پایایی و روایی پرسشنامه هستم. برای پایایی پرسشنامه، من قصد داشتم یک آزمون مجدد با دو دانش آموز انجام دهم که همان پرسشنامه را با تاخیر 2 هفته ای به آنها دادند تا ببینم آیا آنها به همان شیوه پاسخ می دهند یا خیر. می خواهم بدانم آیا می توان از ضریب کاپا کوهن برای پرسشنامه من استفاده کرد؟ من تحقیقاتی انجام دادم و معادله را یافتم: کاپا = نسبت توافق مشاهده شده - توافق شانس / 1 - توافق شانس در مورد من، آیا توافق شانس هنوز 0.5 خواهد بود، زیرا در پرسشنامه خودساخته من وجود دارد. گزینه های زیادی برای هر سوال وجود دارد و یک سوال بله یا خیر ساده نیست. اگر این چیزی نیست که من باید از آن استفاده کنم، آیا می توانید روش دیگری برای انجام پایایی پرسشنامه پیشنهاد دهید؟
سنجش پایایی پرسشنامه با استفاده از معیارهای آزمون-آزمون مجدد
40638
فرض کنید من سعی می کنم سری های زمانی را با یک شبکه عصبی پیش بینی کنم. مجموعه داده‌ها از یک ستون واحد از داده‌های زمانی ایجاد می‌شوند، که ورودی‌های هر الگوی عبارتند از «[t-n، t-n+1، ...، t]»، «t» مرحله زمانی و «n» است. اندازه جاسازی، و «[t+1]» بودن هدف (پیش‌بینی «مرحله بعدی» سری). سوال اینجاست: اگر از چنین مجموعه داده ای برای آموزش NN استفاده کنم، آیا باید آن را به هم بزنم؟ معمولاً برای جلوگیری از برازش بیش از حد با جلوگیری از به خاطر سپردن ترتیب الگو توسط NN انجام می شود. با این حال، در مورد سری های زمانی، آیا نظم الگو می تواند نوعی اطلاعات باشد که من نباید NN را از آن محروم کنم؟ اگر به NN های مکرر مربوط می شود، این موضوع حتی شدیدتر می شود، جایی که هر الگوی به طور مکرر اطلاعاتی در مورد الگوی قبلی دریافت می کند: آیا اگر الگوها درست باشند، یک RNN سود می برد؟
پیش‌بینی سری‌های زمانی با NN: آیا مجموعه داده‌ها باید مخلوط شوند؟
40639
من می خواهم مقادیر را از یک رگرسیون خطی تنظیم شده برای یک متغیر کمکی رسم کنم. لطفاً داده‌های ساختگی زیر را در نظر بگیرید که در آن y با x و متغیر کمکی a پیش‌بینی می‌شود. یک تعامل بین x و a وجود دارد. # ایجاد مقداری داده ساختگی x1 <- rnorm(20,10,5) x2 <- rnorm(20,20,5) a1 <- rnorm(20,10,5) a2 <- rnorm(20,20,5) y1 <- x1*a1+rnorm(20,5,3) y2 <- x2*a2+rnorm(20,5,3) x <- c(x1,x2) y <- c(y1,y2) a <- c(a1,a2) # ایجاد مدل با & بدون متغیر کمکی m1 <- lm(y~x*a) m2 <- lm(y ~a+a:x) m3 <- lm(m2$residuals~x) خلاصه (m1) خلاصه (m2) خلاصه (m3) # داده نمودار par(mfrow=c(1,2)) plot(x,y) abline(lm(y~x, subset=c(1:20))) abline(lm(y~x, subset=c(21:40 ))) نمودار(x, m2$residuals) abline(m3) * آیا این روش مناسبی برای تجسم داده ها است؟ * آیا ایده دیگری برای تجسم یک اثر اصلی در هنگام تعامل وجود دارد؟ * چرا در مدل m1 یک اثر اصلی x است، اما وقتی باقیمانده های مدل m2 را در مدل m3 تجزیه و تحلیل می کنم، هیچ اثر x وجود ندارد؟ * آیا گنجاندن پیش‌بینی‌کننده‌های مختلف همیشه اهمیت پیش‌بینی‌کننده‌های دیگر را تغییر می‌دهد؟
رگرسیون نمودار برای متغیر کمکی تنظیم شد
69241
63546
اندازه گیری شباهت برای درختان خوشه بندی سلسله مراتبی
63540
متغیرهای وابسته چندگانه با پیش‌بینی‌کننده‌های طبقه‌بندی: مشکل برآورد
1681
105923
متغیر وابسته محدود → مدل پروبیت مرتب با Stata
22955
نقاط پرت در تجزیه و تحلیل سری های زمانی، آیا باید داده ها را از قبل پردازش کنم یا خیر؟
72575
دقت پیش بینی متغیرهای کمکی لجستیک چقدر باید باشد تا اثر معکوس نشان داده شود؟
91831
چرا مدل های گرافیکی کارگردانی شده بیزی نامیده می شوند؟
34743
انتظار نمایی حاصل ضرب دو متغیر تصادفی چیست؟
30918
ساخت باکس پلات از داده های ساعتی در R
115181
مدل شاخص غیر پارامتریک (کلین اسپادی) برای بیش از دو گزینه در R
77437
یک مدل مبتنی بر فرمول توسط AIC انتخاب کنید
111545
نمره استاندارد یا مقدار p
33036
برازش توزیع log-normal در R در مقابل SciPy
51982
33038
آیا این نمودارهای باقیمانده نشان می‌دهند که برآوردهای ضریب رگرسیون حداقل مربعات من ممکن است بایاس باشد؟
45314
کاهش ابعاد برای ماتریس پراکنده برای خوشه بندی
93477
حداقل اندازه مجموعه آموزشی مورد نیاز برای تعداد مشخصی از ویژگی ها برای طبقه بندی اسناد چقدر است؟
76379
رگرسیون ترتیبی: فرض شانس متناسب
56019
سوال در مورد تصحیح بونفرونی
596
چیزی شبیه E-M برای مدل های متمایز؟
56010
پیش بینی خاصیت شیمیایی (نقطه جوش) از یک رشته SMILES
34741
کسی می تواند برای من توضیح دهد که این خروجی مدل ARIMA چه می گوید؟
81470
تشخیص الگو در یک سری زمانی
74161
چرا به آن «توزیع نمونه‌گیری میانگین نمونه» می‌گویند؟
71925
چگونه داده های سری زمانی را در CRFSuite مدل کنیم؟
86100
اثبات میانگین شرطی دو متغیره فاصله گاوسی
97006
95535
سوال خودآموزی در مورد فاصله اطمینان
73198
اغلب، من نیاز دارم که احتمال (نسبت زمان) رخ دادن یک رویداد نادر را تخمین بزنم. تخمین استاندارد MLE اغلب تخمین‌های شدیدی به من می‌دهد زیرا مخرج معمولاً 1 است و صورت‌گر 0 یا 1 است که به من 100% یا 0% می‌دهد. به عنوان مثال، من سعی می کنم نسبت ارجاع های وب را در نتیجه کمپین ایمیلم برای هر یک از کاربرانم تخمین بزنم. از آنجایی که رویدادها نادر هستند، اکثر کاربران من معمولاً فقط 1 ارجاع وب دارند و یا 0 ارجاع ایمیل یا 1 ارجاع ایمیل دارند. در چنین مواردی، برآورد MLE کاملا غیر قابل اعتماد است. آیا ترفندهای استانداردی برای اصلاح این تخمین بیش از حد وجود دارد؟ شاید چیزی شبیه صاف کردن لاپلاس؟ اگر بله، چگونه باید این کار را انجام دهم؟
50119
تجزیه و تحلیل ترکیبی در مقابل نسبت انتخاب مردانه
62374
41317
چگونه می توان عملیات دو متغیر تصادفی (هر برنولی) را وابسته اما نه همبستگی نشان داد؟
85362
نحوه تفسیر خروجی Choicemodelr (rhierMnlRwMixture) در R
85360
چگونه ارتباط آماری گره های پنهان را محاسبه کنیم؟
27414
سوال در مورد همگرایی
44717
104668
تست بوروتا و طبقه بندی ساده بیز
44718
59744
66390
رگرسیون بر اساس زیر مجموعه در R
41272
در نظر گرفتن تبدیل لگاریتمی متغیر برای رگرسیون
66397
پسین در آنالیز دیریکله نهفته
71480
من سعی می کنم یک پیش بینی لغو برای داده های مخابراتی بسازم. من از داده های ایستا (مانند مکان، دستگاه، تعداد شکایات و غیره) و زمانی (مثلاً استفاده از سری زمانی) استفاده می کنم. متغیر پاسخ این است که آیا آنها در 2 ماه اول فعال سازی لغو شده اند یا خیر. سوال من مربوط به متغیر پاسخ است. علاوه بر اینکه آیا آنها لغو کرده اند، من به یک فیلد متن کوتاه نیز دسترسی دارم که مشتری آن را پر کرده است و در آنجا توضیح می دهد که چرا لغو کرده است. در برخی موارد، دلیل لغو به‌طور قانونی غیرقابل پیش‌بینی به نظر می‌رسد (مثلاً تلفن من دزدیده شد یا در حال ادغام با حساب همسرم هستم یا از کشور خارج شدم یا من فقط داشتم سرویس را آزمایش می‌کردم). می خواستم بدانم که آیا باید این موارد را از مجموعه آموزشی حذف کنم؟ به نظر می‌رسد هر چقدر هم که مدل پیش‌بینی خوب باشد، هرگز نمی‌تواند به عنوان مثال یک گوشی را پیش‌بینی کند. بنابراین به نظر می رسد اگر اینها را کنار بگذارم، فقط به عملکرد مدل آسیب می رساند. آیا این یک فرض درست است؟
ایجاد یک پیش بینی کننده لغو مشتری
77439
> ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KEcP0.jpg) من می خواهم در این مورد به من کمک کنم. من نمی فهمم چرا نرخ همگرایی را بررسی می کنیم. همچنین منظور ما از گفتن خطا معمولاً توسط واریانس غالب است، نه سوگیری چیست بسیار متشکرم.
44990
من یک توزیع logNormal دم سنگین دارم و می‌خواهم بدانم آیا امکان ایجاد یک رگرسیون خطی برای محاسبه R² و شیب برای این داده وجود دارد یا خیر. من رگرسیون خطی خود را روی مقادیر محاسبه‌شده log10(رتبه) و log10 (جمعیت) انجام می‌دهم (ر.ک. نمودار اندازه رتبه است)! نمی دانم که آیا این روش خوبی است، به خصوص در مورد توزیع دم سنگین. آیا روش بهتر/مستحکم برای محاسبه شیب توزیع لگ نرمال را می شناسید؟
شیب محاسباتی در توزیع لگ نرمال دنباله سنگین
60345
اگر فرآیند این است: $(1-0.3L)(1-L)X_t=(1+0.5L)^2\epsilon_t$ مقادیر p,d و q در ARIMA (p,d,q) چقدر است؟ پیشاپیش از شما بسیار سپاسگزارم.
مقادیر p,d;q در ARIMA
72588
من مجموعه‌ای از ویژگی‌های باینری نسبتاً طولانی ($\sim 1000$) با مقادیر اسکالر[0-10]$ متصل به آنها دارم. هدف من نوشتن پیش‌بینی‌کننده‌ای است که یاد می‌گیرد ویژگی‌ها را در بازه $[0-10]$ ترسیم کند تا وقتی یک بردار باینری جدید داده می‌شود، ویژگی‌های جدید را پیش‌بینی کند. من از SVM و Lasso با تجزیه و تحلیل عملکرد یک خروجی استفاده کردم، اما هر دو همیشه مقدار میانگین توزیع را پیش‌بینی می‌کنند (مرتبط با هیستوگرام همه ویژگی‌ها - توزیع اسکالر). هیستوگرام ها نیز نسبتاً توزیع های هنجار/ریلی هستند. پیشنهادهایی برای الگوریتم ها / نقشه برداری فضای ویژگی؟ مشکل اصلی من این است که برای اولین بار با ویژگی های باینری سروکار دارم.
74164
افزایش انعطاف پذیری مدل ها آن را مستعد بیش از حد برازش می کند. از سوی دیگر، به نظر من اگر کلاس های تابع فضایی $\mathcal{F}$ خیلی بزرگ باشد، اثبات مرزهای خطرات تجربی و این چیزها دشوار است. به همین دلیل است که من ضرورت/اهمیت/کاربردی مدل های ناپارامتریک را زیر سوال می برم. در اینجا بیشتر منظور من از ناپارامتریک، فرآیندهای دیریکله و فرآیندهای بتا (و خانواده مرتبط) است. هر نظری؟
108632
سلام به همه و تشکر از همه کمک هایی که قبلاً ناخودآگاه به من کرده اید. من گروهی از درصدهای حدود صفر دارم که به دو دسته تقسیم می شوند و می خواستم بدانم آیا استفاده از آزمون t دو نمونه ای مناسب است یا خیر. هر دو مقدار مثبت و منفی وجود دارد، و مقادیر می توانند از 100٪ و -100٪ تجاوز کنند، اگرچه هیچ یک از آنها تا 50٪ بیشتر نیست. علاقه من این نیست که آیا میانگین نزدیک به صفر است یا خیر، بلکه صرفاً این است که دو گروه تفاوت قابل توجهی داشته باشند. داده ها توزیع گاوسی را نشان می دهند، اما میانگین در حدود صفر نیست و تقریباً 27-٪ است. آیا استفاده از آزمون t دو نمونه در اینجا مشکلی وجود دارد؟ من اینطور فرض نمی‌کنم، اما از نظر آماری با درصدها یا درصدهای منفی خیلی کار نکرده‌ام و فقط می‌خواهم مطمئن شوم.
55090
مایلیم در مورد رابطه بین کارآفرین بودن و مشروب خواری تحلیل های آماری انجام دهیم و متعجبیم که آیا می توانیم داده های حاصل از یک نظرسنجی را ماهیت ترتیبی در نظر بگیریم. و اگر بتوانیم آنها را به این ترتیب رتبه بندی کنیم. پاسخ های احتمالی به شرح زیر است: * نه، من هرگز الکل ننوشیده ام * نه، من دیگر الکل مصرف نمی کنم * بله، اما به ندرت * بله، 2 یا 3 روز در ماه الکل مصرف می کنم * بله، 1 یا 2 روز الکل مصرف می کنم. در هفته * بله، من 3 یا 4 روز در هفته الکل مصرف می کنم * بله، 5 یا 6 روز در هفته الکل مصرف می کنم * بله، هر روز الکل مصرف می کنم پاسخ های بله از نظر ما ترتیبی هستند. طبیعت مشکل از 2 بدون پاسخ است. آیا می توان پاسخ ها را مانند آنچه در اینجا انجام دادیم رتبه بندی کرد یا بهتر است آنها را فقط به عنوان افراد غیر مشروب گروه بندی کنیم؟ ویرایش: سوال تحقیق: آیا کارآفرینان بیشتر از غیر کارآفرینان (مزد کارگران) نوشیدنی می نوشند؟
115184
فرض کنید من می‌خواهم خطای پیش‌بینی خارج از نمونه یک مدل رگرسیون تقویت‌شده را که دارای وقفه‌ها و شیب‌های تصادفی است، تخمین بزنم. گروه‌های $G$ و مشاهدات $N$ وجود دارد. اگر بخواهم خطای پیش‌بینی خارج از نمونه را با استفاده از اعتبارسنجی متقاطع $k$-fold تخمین بزنم، چگونه پارتیشن بندی داده را تنظیم کنم؟ آیا اعتبار سنجی متقاطع $k$-fold پیچیده تر است؟ توجه: مورد استفاده من در اینجا پیش‌بینی داده‌های یک _new group_ است.
54727
من سعی می‌کنم با استفاده از بسته «دموگرافیک» در R، یک مدل جمعیت‌شناختی عملکردی («fdm») را با نرخ‌های باروری تطبیق دهم. وقتی باقی‌مانده‌ها را با استفاده از «filled.contour» رسم کردم، به نظر می‌رسد که باقی‌مانده‌ها در پایین‌ترین سن باقی می‌مانند. فاصله در طول دوره از آنجایی که باقیمانده ها به طور معمول باید تصادفی باشند، آیا طبیعی است که باقیمانده ها در این مورد این گونه رفتار می کنند یا به این معنی است که مدل من نرخ باروری را در این گروه سنی دست کم می گیرد؟ یا من به سادگی نمودار را اشتباه تفسیر می کنم؟ توجه داشته باشید که من کدهای adelaid.R را برای باروری استرالیایی که توسط پروفسور راب هیندمن ارائه شده است، امتحان کرده ام، و نتیجه یکسان است. کد اینجاست: library(demography) library(addb) ausfert <- extract.years(aus.fert, years = 1921:2000) ausf.sm <- smooth.demogdata(ausfert) ausf.fit <- fdm(ausf. sm، ترتیب = 3، روش = کلاسیک) نمودار (باقیمانده ها (ausf.fit)، نوع = filled.contour) ![کدها به این نمودار رسیدند](http://i.stack.imgur.com/QShny.png)
41274
یک سیستم راه رفتن تصادفی گسسته 1 بعدی وجود دارد که در آن احتمالات در همه نقاط $\frac{1}{2}$ (احتمال جلو و عقب رفتن) است به جز یک نقطه در $l$ (که یک عدد صحیح است). در این مرحله احتمال درست رفتن $p$ است ($p$ لزوماً $\frac{1}{2}$ نیست). فقط یک عدد وجود دارد که احتمال رفتن به راست و چپ با اعداد دیگر متفاوت است. * چگونه می توانم این فرآیند را مدل کنم؟ * برای $N$ ثابت (تعداد مراحل) چگونه می توانم احتمال رسیدن به یک نقطه مشخص را با شروع از $0$ پیدا کنم؟ به عنوان مثال، با $N=10$، $l=3$، و $p=1/3$، احتمال اینکه بعد از مراحل $10$ به (مثلا) $4$ ختم شود چقدر است؟
100255
موارد زیر با استفاده از http://www.wessa.net/rwasp_grangercausality.wasp ایجاد می شود: خلاصه تراکنش محاسباتی مشاهده ورودی خام ورودی خام (کد R) خروجی خام مشاهده خروجی خام موتور R زمان محاسبه 2 ثانیه R سرور 'Herman Ole Andreas Wold' @ wold.wessa.net آزمون علیت گرنجر: Y = f(X) مدل Res.DF Diff. DF F p-value مدل کامل 356 مدل کاهش یافته 357 -1 17.9144959720894 2.94360540545316e-05 آزمون علیت گرنجر: X = f(Y) مدل Res.DF Diff. DF F p-value مدل کامل 356 مدل کاهش یافته 357 -1 0.0929541667364279 0.760632773377753 تفسیر من این است که: (i) آزمون علیت گرنجر: _Y = f(X)_ p-value = 2.946-p-value = 2.946-2.945 بسیار کوچک است، بنابراین فرض صفر _Y = f(X)_، _X_ گرنجر باعث _Y_ می شود، رد می شود. (ii) آزمون علیت گرنجر: _X = f(Y)_ p-value = 0.760632773377753 مقدار p نزدیک به 1 است (یعنی 76%)، بنابراین فرضیه صفر _X = f(Y)_، _Y_ گرنجر باعث _X_ می شود، را نمی توان رد کرد. آیا تعبیر من درست است؟ [مربوط به سؤال کامل در تفسیر نتایج آزمون علیت گرنجر.]
85369
من سعی می‌کنم راهی برای تجزیه و تحلیل این داده‌هایی که دارم پیدا کنم: اینها داده‌هایی هستند که من از مطالعات مختلف به دست آورده‌ام، و هر مطالعه حجم نمونه متفاوتی دارد، و هر مطالعه نرخ حذف و نرخ بدون تشنج را گزارش می‌کند. یعنی مطالعه الف دارای 20 نفر با میزان حذف 70 درصد و نرخ بدون تشنج 65 درصد است. مطالعه B دارای 15 نفر با میزان حذف 65 درصد و نرخ بدون تشنج 50 درصد و غیره است. من در تلاشم تا ارتباط بین میزان نابودی و نرخ بدون تشنج را نشان دهم، بهترین راه برای انجام این کار چیست؟ من هر مطالعه را در یک نمودار پراکنده با نرخ‌های محو/بدون تشنج به عنوان محورهای _x_ و _y_ ترسیم می‌کردم و r$ پیرسون را محاسبه می‌کردم... با این حال، هر مطالعه تعداد افراد متفاوتی دارد، بنابراین باید وزن آن متفاوت باشد... لطفا راهنمایی کنید. من با این ...
2748
من در حال تلاش برای یافتن برنامه‌ای هستم که به من اجازه می‌دهد رگرسیون کاکس را روی مجموعه داده‌های مورد-شاهدی منطبق انجام دهم. لطفا راهنمایی کنید p.s. من STATA، SPSS و MedCalc دارم
41270
من یک متغیر طبقه‌بندی مستقل ($X$ با دو دسته، $x_{1}$ و $x_{2}$) و دو متغیر وابسته پیوسته ($y$ و $z$) دارم. با استفاده از آزمون من ویتنی، می دانم که $y$ به طور قابل توجهی با $x_{1}$ و $z$ نیز به طور قابل توجهی با $x_{1}$ مرتبط است. با این حال، ممکن است $y$ رابطه مشاهده شده بین $x_{1}$ و $z$ را مخدوش کند، یا _برعکس_، یعنی $z$ رابطه مشاهده شده بین $x_{1}$ و $y$ را مخدوش کند. از چه آزمون‌های بدون توزیع می‌توانم استفاده کنم تا هر عامل را در آزمون‌های $y$ _در مقابل_$X$ و $z$ _در مقابل_$X$ در نظر بگیرم؟ چگونه می توانم در R و SPSS به این امر برسم؟
35299
آیا کسی از پیاده سازی (غیر از ماکرو SAS) روش تخمین دوچندان قوی موجود در موارد زیر می داند: > Funk, M.J., Westreich, D. et al (2011). برآورد دوچندان قوی از علت و معلول. _American Journal of Epidemiology, 173_ (7): 761-767.[DOI]?
51642
من دو مجموعه داده سری زمانی دارم که می خواهم آنها را با هم مقایسه کنم. یکی از فرآیندهای خودکار نتایج آزمایش های پزشکی تولید شده در آزمایشگاه است. نتایج آزمایش مثبت هر روز در طول N سال رخ می دهد. مورد دوم از مجموعه دستی اطلاعات بالینی در مورد بیمارانی است که آزمایشات پزشکی بر روی آنها انجام شده است. فرضیه صفر من این است که هیچ ارتباطی بین تعداد مجموع ماهانه نتایج آزمایش‌های مثبت در طول زمان و تعداد کل ماهانه پیگیری‌های بالینی آن بیماران در همان دوره وجود ندارد. بنابراین، من به دنبال تایید نتایج آزمایشات آزمایشگاهی نیستم. من به دنبال ارتباط بین دو فرآیند تولید داده در طول زمان هستم. آیا کسی می تواند راهنمایی کند که آیا این امکان پذیر / مناسب به نظر می رسد و یک استراتژی برای انجام تجزیه و تحلیل پیشنهاد دهد. هر چیزی من را در جهت منبع مفید راهنمایی کند. با تشکر
44996
من یک مجموعه داده بیش از 100000 بار رویداد دارم. برای این مطالعه یک رویداد (در زمان 0) شروع می شود و می تواند برای مدت زمان نامشخصی اجرا شود. بسیاری از رویدادها به چند ساعت برای تکمیل نیاز دارند، اما رویدادهایی نیز وجود دارند که ممکن است ده ها ساعت طول بکشد. من یک هیستوگرام از زمان ها ایجاد کردم و شبیه یک توزیع دارای انحراف مثبت است. سوال من این است: چگونه می توانم نوع توزیع را برای مدل سازی این داده ها تعیین کنم؟ به عنوان مثال، داده‌ها به‌نظر نرمال به‌نظر می‌رسند، اما هیستوگرام گزارش داده‌ها، توزیع نرمال نیست (توزیع منحنی منفی است). من مدتی را صرف تماشای توزیع گاما کردم، اما علاوه بر شباهت بصری به داده‌هایم، نمی‌دانم گاما انتخاب مناسبی است یا خیر. من همچنین نگاهی به توزیع Gumbel نوع 2 داشتم، اما فقط به این دلیل که مانند داده‌های من نامتقارن و نیمه نامتناهی است. قوانین انتخاب توزیع برای مدل سازی مجموعه داده چیست؟
قوانین انتخاب توزیع برای مدلسازی مجموعه داده چیست؟
95530
ما در تلاش هستیم تا نحوه محاسبه سرمایه گذاری املاک در انواع مختلف املاک در مناطق مختلف را بیابیم. **_ما داریم:_** -بازده کل بازار املاک و مستغلات. -بازده برای بازارهای منطقه ای فردی (4) (شرق، جنوب، غرب، شمال). -بازده برای انواع منفرد (5) املاک (اداره، آپارتمان و غیره). **_حالا باید محاسبه کنیم:_** -چه مقدار از بازدهی در شرق/جنوب/غرب/شمال برای تک تک انواع املاک و مستغلات است. دلیل پشت آن این است که ما باید بهترین سبد املاک و مستغلات را با توجه به نسبت شارپ ایجاد کنیم. با احترام، اگر می‌خواهید نگاهی به آن بیندازید، Simon اینجا مجموعه داده‌های ما است: http://speedy.sh/2SXNY/Data-Case-2.2.xlsx این مقاله اساساً دقیقاً همان کاری را انجام داد که ما می‌خواهیم انجام دهیم، اما اشاره نمی‌کند که چگونه انجام شده است: http://mitcre.mit.edu/wp- content/uploads/2012/11/HCGPl_REIT_PurePlay.pdf
78521
سلام من در حال یافتن همبستگی بین یک متغیر شمارش (var1) (تعداد خطاها) و یک متغیر ترتیبی (var2) (هرگز، هفتگی، ماهانه، سالانه) هستم. من دستورات زیر را در Stata امتحان کرده ام: دو طرفه پراکنده var1 var2 spearman var1 var2، stats(rho obs p) مطمئن نیستم اگر در جهت درست حرکت کنم چه می شود؟ لطفاً کسی می تواند نظری داشته باشد!
3048
من یک ماتریس دارم که در آن a(i,j) به من می گوید که چند بار صفحه j را مشاهده کرده ام. 27 هزار نفر و 95 هزار صفحه وجود دارد. من مایلم تعداد انگشت شماری ابعاد یا جنبه در فضای صفحات داشته باشم که با مجموعه صفحاتی که اغلب با هم مشاهده می شوند مطابقت دارد. هدف نهایی من این است که بتوانم محاسبه کنم که هر چند وقت یکبار صفحاتی را که در ابعاد 1، بعد 2 و غیره دیده شده اند را محاسبه کرده ام. مطمئن نیستم چگونه ادامه دهم چگونه می توانم از کاهش ابعاد برای این کار استفاده کنم؟ یا این واقعاً یک مشکل خوشه‌بندی است و من باید در عوض به الگوریتم‌های خوشه‌بندی نگاه کنم؟ با تشکر فراوان برای هر بینش ~l
36240
من پایگاه داده بزرگی از صدها هزار مشاهدات دارم. وقتی از spss برای تجزیه و تحلیل بقای KM استفاده کردم، میانگین و میانه بقا را با فاصله اطمینان 95 درصد به من داد. با این حال، من به بقای 1، 3 و 5 ساله نیز نیاز دارم. تشخیص با استفاده از منحنی ها دشوار است. من چیزی را از دست داده ام؟ جداول زندگی را هم امتحان کردم، اما از صحت آن مطمئن نیستم؟ لطفاً کسی می تواند اینجا را روشن کند؟
24442
من در تطبیق یک مدل رگرسیون لجستیک چندتومی با استفاده از داده های گروه بندی شده با مشکل مواجه شده ام. داده ها به شکل (dput در پایین): > سر (تمساح) دریاچه اندازه جنسیت تعداد غذا 1 هنکوک نر ماهی کوچک 7 2 هنکوک نر کوچک معکوس 1 3 هنکوک خزنده کوچک نر 0 4 هنکوک پرنده کوچک نر 0 5 هنکوک نر کوچک دیگر 5 6 ماهی بزرگ نر هنکوک 4 و من سعی کردم مدل را با `vglm()` از بسته بندی مناسب کنم VGAM: > نتیجه <- vglm(غذا~ دریاچه+اندازه+جنس، داده=تمساح، فام=چندجمله ای، وزن=شمار) خطا در if (max(abs(ycounts - round(ycounts))) > smallno) warning( تبدیل ycounts به عدد صحیح در @loglikelihood) : مقدار از دست رفته در جایی که TRUE/FALSE مورد نیاز است علاوه بر این: پیام های هشدار: 1: در checkwz(wz، M = M، trace = trace، wzepsilon = control$wzepsilon) : 96 عنصر جایگزین شده با 1.819e-12 همچنین پیشنهاد شده است که «mlogit()» از بسته «globaltest» (در Bioconductor) نگاهی بیندازید. ، اما به نظر نمی رسد از داده های گروه بندی شده پشتیبانی کند. بدیهی است که پارامتر weights را پشتیبانی نمی کند، اما نمی توانم جایی که پارامتر معادل آن مستند شده است پیدا کنم: source(http://bioconductor.org/biocLite.R) biocLite(globaltest) نتیجه <- mlogit (غذا ~ دریاچه + اندازه + جنس ، وزن = تعداد ، داده = تمساح) خطا در mlogit (غذا ~ دریاچه + اندازه + جنس ، وزن = شمارش، داده = تمساح): آرگومان(های) استفاده نشده (وزن = شمارش) اگر کسی بتواند مرا در مسیر درست قرار دهد، ممنون می شوم! > ساختار dput( تمساح ، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1L، 1L)، .Label = c(جورج، هنکوک، اوکلاواها، ترافورد)، کلاس = عامل)، جنس = ساختار (c(2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1L، 1L، 1L)، .Label = c(مونث، نر)، کلاس = عامل)، اندازه = ساختار(c(2L، 2L، 2L، 2L، 2L، 1L، 1L، 1L، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر)، برچسب = c(بزرگ، کوچک)، کلاس = عامل)، غذا = ساختار(c(2L، 3L، 5L، 1L، 4L، 2L، 3L، 5L، ۱ لیتر، ۴ لیتر، ۲ لیتر، ۳ لیتر، ۵ لیتر، ۱ لیتر، ۴ لیتر، ۲ لیتر، ۳ لیتر، ۵ لیتر، ۱ لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 1 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 5L، 1L، 4L)، .Label = c(پرنده، ماهی، معکوس، سایر، خزنده)، کلاس = عامل)، تعداد = c(7L، 1L، 0L، 0 لیتر، 5 لیتر، 4 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 16 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 13 لیتر، 7 لیتر، 6 لیتر، 0 لیتر، 0 لیتر، 3 لیتر، 9 لیتر، 1 لیتر، 0 لیتر، 2 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 7 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 8 لیتر، 6 لیتر، 6 لیتر، 3 لیتر، 5 لیتر، 2 لیتر، 4 لیتر، 1 لیتر، 1 لیتر، 4 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 13 لیتر، 10 لیتر، 0 لیتر، 2 لیتر، 2 لیتر، 9 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر 3 لیتر، 9 لیتر، 1 لیتر، 0 لیتر، 1L، 8L، 1L، 0L، 0L، 1L))، .Names = c(دریاچه، جنس، اندازه، غذا، شمار)، کلاس = data.frame، ردیف. نام ها = c(NA، -80L))
71265
اگر بخواهم تحلیل رگرسیون لجستیک انجام دهم، آیا می توانم از مدل رگرسیون خطی برای محاسبه مقادیر پارامترها استفاده کنم و سپس فرمول را اعمال کنم: $$\frac{1} {1 + \exp-(\beta_0+x_1\beta_1+ \ldots +x_i\beta_i)}؟$$
22956
یک شبکه عصبی که برای سری های زمانی اعمال می شود باید تعداد گره های ورودی را تعریف کند. هر ورودی برای یک نقطه زمانی قبل از نقطه فعلی پیش بینی شده اعمال می شود. اگر $D$ تعداد نقاط زمانی گذشته است، این عدد چگونه تعیین می شود؟ آیا می توان از تابع همبستگی خودکار برای نمودار همبستگی تاخیر استفاده کرد تا بینشی در مورد بهترین تعداد مقادیر قبلی برای استفاده ارائه دهد؟ اگر چنین است چگونه؟
44995
آیا این احتمال باید در هر مرحله از الگوریتم EM افزایش یابد؟ من اخیرا یک الگوریتم EM نوشتم و به نظر می رسد تعداد آن حداکثر نباشد. من این را می دانم زیرا از تابع optim در R در همان مشکل استفاده کردم و پارامترهایی دریافت کرد که یک مقدار احتمال ورود به سیستم بزرگتر را نشان داد. اما حتی زمانی که در این حداکثر شروع کردم، الگوریتم EM خود را اجرا می‌کنم، به نظر می‌رسد که با مقدار دیگری که در ابتدا از الگوریتم EM خود استخراج کردم، همگرا می‌شود. محتمل ترین توضیح برای این چیست؟
آیا تابع احتمال باید در هر مرحله از الگوریتم EM افزایش یابد؟
77888
من دو مجموعه شناور تصادفی بین [0,1] دارم که هر کدام دارای تعداد عناصر متفاوتی است: $$A = \\{0.3637852، 0.2330702، 0.1683102، 0.2127219، 0.0152532، ...}، N_A\\ $$B = \\{0.4541056، 0.7521812، 0.0266602، 0.5099002، 0.3468181، ...، N_B\\}$$ که در آن $N_B > N_A$. من باید شباهت بین این دو مجموعه را بسنجیم _بدون در نظر گرفتن تفاوت در تعداد عناصر_ (یعنی این واقعیت که $N_B > N_A$ نباید در ارزیابی شباهت نقشی داشته باشد) زیرا من فقط به **چگونه** علاقه دارم. مقادیر بین [0،1] پراکنده هستند، نه **چند** از آنها در هر مجموعه وجود دارد. تا کنون من «kde.test» 1 بعدی موجود در بسته R Duong 'ks' را اعمال کرده ام (به صفحه 27 مراجعه کنید) که یک «p-value» برمی گرداند، و همچنین تابع «python» scipy.stats را اعمال کرده ام. ks_2samp که یک آمار کولموگروف-اسمیرنوف 1 بعدی است که یک آمار KS و یک P-value دو دنباله را برمی‌گرداند. سوال من اینه اگر چنین است، چرا؟ 2- تفاوت آمار KS و P-value دو دنباله چیست؟ 3- آیا تفاوت تعداد عناصر در هر مجموعه بر نتیجه این آمار تأثیر خواهد گذاشت؟ اگر چنین است، چگونه می توانم از آن اجتناب کنم؟ اصلا امکانش هست؟
شباهت بین دو مجموعه از مقادیر تصادفی
38269
در مقاله‌ای که به حرکات دست و زمان صرف شده برای تکمیل یک کار نگاه می‌کند، به نظر می‌رسد که نسبت حرکات در طول زمان ثابت است (یعنی حرکت و زمان بسیار همبسته هستند) اما در مقاله می‌گویند که می‌توانند به طور مستقل برای هر دو متغیر کنترل کنند - چگونه آیا این امکان پذیر است؟ ارتباط قوی بین زمان صرف شده و تعداد حرکات دست > انجام شده وجود دارد (ضریب اسپیرمن 0.79، P <0.01). این قبلاً با ICSAD نشان داده شده است. بنابراین، چرا فقط با یک کرونومتر زمان انجام کار را انجام ندهید؟ این زمانی پاسخ داده می شود که از آزمون های همبستگی جزئی > ضریب استفاده کنیم. هنگام کنترل زمان، تعداد حرکات انجام شده > به طور قابل توجهی با تجربه جراحی و نمره جهانی > مقایسه می شود (ضریب همبستگی به ترتیب -0.44 و 0.56، P <0.01 برای هر دو). با این حال، هنگام کنترل حرکت، زمان صرف شده چنین رابطه‌ای با تجربه و رتبه‌بندی جهانی نداشت (ضریب همبستگی > -0.02، P = 0.9؛ 0.10، P = 0.8، به ترتیب)، که نشان می‌دهد که سرعت عمل ثانویه به صرفه است. از حرکت دست Datta V، Chang A، Mackay S، Darzi A. رابطه بین آنالیز حرکت و ارزیابی‌های فنی جراحی. جی سرگ هستم. 2002 ژوئیه؛ 184 (1): 70-3.
کنترل یک متغیر با همبستگی بالا
41276
من سعی می کنم از اعتبار سنجی متقاطع k-fold برای انتخاب مدل برای یک مدل با جلوه ترکیبی (مجهز به تابع 'lme') استفاده کنم. اما، دقیقاً از چه چیزی به عنوان امتیاز برای هر فولد استفاده می کنم؟ احتمالاً من هر مدل کاندید را فقط با زیرمجموعه اعتبارسنجی مطابقت نمی‌دهم و ضرایب جدید را بر اساس داده‌های جدید محاسبه می‌کنم. اگر به درستی متوجه شده باشم، قرار است با توجه به اینکه یک مدل با ضرایب محاسبه شده با استفاده از داده های آموزشی چقدر با داده های اعتبارسنجی مطابقت دارد، به مدل ها امتیاز بدهم. اما چگونه می توان AIC، BIC، logLik، adjR^2 و غیره را بر روی یک مدل مصنوعی که ضرایب خود را از یک منبع و داده های خود را از منبع دیگر دریافت می کند، محاسبه کرد؟ با توجه به افراد زیادی که از اعتبارسنجی متقابل حمایت می کنند، فکر می کردم اطلاعات و کد بیشتری برای محاسبه امتیازهایی که مدل ها با آن مقایسه می شوند در دسترس باشد. من نمی‌توانم اولین کسی باشم که سعی می‌کند «lme» را در R تأیید اعتبار کنم، اما مطلقاً چیزی در مورد اینکه چه چیزی به‌عنوان امتیاز استفاده کنم، نمی‌بینم... بقیه چگونه این کار را انجام می‌دهند؟ من از چه چیزی غافل هستم؟
13902
من در حال آزمایش همبستگی بین متغیر A و متغیر B بر اساس جنسیت و وضعیت تاهل هستم. بنابراین من ضرایب مرد و زن و مجرد، متاهل و غیره را دارم. من می خواهم ضریب همبستگی مرد و زن را مقایسه کنم. به همین ترتیب، من می خواهم ضریب همبستگی مجرد را با متاهل و با دیگران مقایسه کنم. در نهایت می‌خواهم ضریب همبستگی مرد مجرد با زن مجرد، مرد متاهل با زن متاهل و سایر مردان و سایر زنان را مقایسه کنم. من هم این ضرایب را دارم. **آسان ترین راه برای انجام این مقایسه چیست؟**
چگونه می توانم ضرایب همبستگی متغیرهای مشابه را در گروه های مختلف مقایسه کنم؟
5571
من اخیراً 4 مدل رگرسیون چندگانه را برای داده های پیش بینی/پاسخ یکسان برازش داده ام. دو تا از مدل هایی که من با رگرسیون پواسون برازش کردم. model.pois <- glm(Response ~ P1 + P2 +...+ P5, family=poisson()، ...) model.pois.inter <- glm(پاسخ ~ (P1 + P2 +...+ P5 )^2، family=poisson()، ...) دو تا از مدل ها را با رگرسیون دو جمله ای منفی برازش می کنم. library(MASS) model.nb <- glm.nb(پاسخ ~ P1 + P2 +...+ P5، ...) model.nb.inter <- glm.nb(پاسخ ~ (P1 + P2 +... + P5)^2، ...) آیا آزمون آماری وجود دارد که بتوانم از آن برای مقایسه این مدل ها استفاده کنم؟ من از AIC به عنوان اندازه گیری تناسب استفاده کرده ام، اما AFAIK این یک آزمایش واقعی را نشان نمی دهد.
مقایسه مدل های رگرسیون
5573
من می خواهم یک هیستوگرام متعادل با تقریباً همان تعداد نقاط داده در هر سطل ایجاد کنم. محدودیت دومی که دارم این است که فقط 4 بن داشته باشم. با توجه به لیست زیر از اعداد زیر، چگونه می توانم به آن برسم؟ -2.153، -1.732، -1.699، -1.559، -1.355، -1.306، -1.151، -1.129، -0.636، 0.4085، 0.5408، 0.5731، 0.5820، 0.5842، 60. 0.8274، 0.8710، 1.3214، 1.5552، 2.2342 با تشکر!
چگونه یک هیستوگرام متعادل بسازیم؟
38262
من سعی می کنم ارزش یک پارامتر را با معادل سازی واریانس از یک توزیع به واریانس نمونه تخمین بزنم ... یعنی با استفاده از روش تخمین گشتاورها. آیا بهتر است از فرمول واریانس با $1/(n-1)$ در مخرج استفاده کنیم یا $1/n$؟ چرا یکی بهتر از دیگری است؟ با تشکر * * * مثالی می زنم: بگویم به من گفته شده است که متغیرهای تصادفی از توزیع هندسی دارای $\sum_{1}^n(X_i - \bar{X})^2$= 10 هستند. سپس به منظور تخمین پارامتر 'p' که $\frac{1-p}{p^2}$ واریانس توزیع هندسی است. آیا من در این شرایط از: $\frac{10}{n-1}=\frac{1-p}{p^2}$ استفاده می‌کنم و سپس برای p معادله درجه دوم را حل می‌کنم. یا باید به جای آن در LHS از $\frac{10}{n}$ استفاده کنم.
روش لحظات با واریانس=$\sigma^2$
30071
من در حال تجزیه و تحلیل مشخصات شیمیایی نمونه های آمفتامین هستم و هر نمونه دارای 26 متغیر عددی است که مقدار نسبی برخی از ترکیبات شیمیایی را توصیف می کند. تنها تعداد کمی از 26 متغیر دارای توزیع گاوسی بسیار خوبی هستند، بقیه بی شکل هستند (به عنوان مثال یک سطل 0 بسیار بزرگ و یک تپه کوچک گاوس مانند در سمت راست). من می خواهم آزمایش کنم که آیا جمعیت ها بر اساس منشاء جغرافیایی (یا برخی متغیرهای ترتیبی دیگر) متفاوت هستند یا خیر، اما مطمئن نیستم که چگونه در برابر این فرضیه صفر آزمایش کنم زیرا فرض اساسی نرمال بودن چند متغیره نقض شده است. آیا می توانم آزمون T-square Hotelling را از طریق جایگشت انجام دهم یا به دنبال چیزی مانند واگرایی Kullback-Leibler هستم؟ آموزش من در زیست شناسی است و مطمئناً من را برای این کار آماده نکرده است، بنابراین پیشاپیش به دلیل از دست دادن موارد واضح عذرخواهی می کنم. خیلی ممنون
تمایز بین جمعیت های چند متغیره وقتی متغیرها غیر عادی هستند؟
47945
من سعی کردم با استفاده از دستور 'gologit2' یک رگرسیون شانس نسبتی جزئی در STATA مشخص کنم. با این حال، «gologit2» در مجموعه داده من بسیار کند اجرا می شود (108 هزار مشاهدات 9 vars). برای مثال، سن logit PfSt اگر bund == 1 در کمتر از 1 ثانیه اجرا شود، در حالی که gologit2 PfSt سن اگر bund == 1 باشد، pl که اساساً یکسان است، زیرا گزینه «pl» خطوط موازی را در همه var ها اعمال می کند، به عنوان مثال، مشخصات «ologit»، در رایانه من حدود یک دقیقه طول می کشد. محاسبه مدل کاملاً مشخص شده با 'ologit' و 'mlogit' (~ 1 دقیقه) امکان پذیر است، اما نه با 'gologit2'، حتی اگر مشخص کنم برای کدام متغیرها باید خطوط موازی در نظر گرفته شود. دستور رگرسیون عبارت است از logit PfSt age_sq gender i.bundesland tt tt2 [fw=size]، cluster(bundesland) که در آن «PfSt» از 0 تا 7 و «tt» روندهای زمانی ثبت است («tt = سال − 1996» و « tt2 = -1/tt +1`، یک روند خروج تدریجی) اکنون، با توجه به اینکه خطوط موازی را شل می کنیم فرض برخی از متغیرها با افزودن اصطلاحات تعاملی به مشخصات مدل من یکسان است، می‌توانم دستور رگرسیون خود را به 'ologit PfSt سن* جنسیت i.bundesland#i.PfSt tt*، خوشه(bundesland)' تغییر دهم. سطح PfSt برای متغیری که برای آن فرض خطوط موازی را آرام می کنم. **این درست است؟** _اما_، فرآیند تخمین **همگرا نمی شود**، زیرا در حال حاضر (تکرار 1200) نسبت شبه درستنمایی گزارش منفی افزایش می یابد (یعنی کاهش مقادیر مطلق، اکنون <<0.0001) (غیر مقعر)`. من تعجب می کنم **چرا این مورد است؟**، زیرا هر دو «ologit» و «mlogit» پس از چند بار تکرار نتیجه دادند.
آرام کردن فرض خطوط موازی در یک مدل شانس متناسب
18100
من مناطق مختلف مغز و اطلاعاتی در مورد نحوه اتصال آنها دارم. (در این مورد نه FMRI، بلکه اطلاعات انتشار در مورد مسیرهای ماده سفید که نواحی ماده خاکستری را به هم متصل می‌کنند.) من می‌خواهم این اطلاعات را به طور معقولی ترسیم کنم تا به دانشمندی که این اطلاعات را از من خواسته است، همراه با صفحه‌گسترده‌ای که هر اتصال را توصیف می‌کند، ارائه دهم. من می‌خواهم هم موقعیت‌های نواحی ماده خاکستری را نشان دهم (می‌توانم آن‌ها را روی صفحه ساجیتال میانی برای بدست آوردن موقعیت‌های دو بعدی یا انجام کاری مشابه) و هم ویژگی‌های اتصالات را نشان دهم. (احتمالاً فقط 2 یا شاید 3، بنابراین تصور می کنم رنگ و ضخامت آن را کاهش می دهد.) من با ابزارهای تجسم گراف آشنایی چندانی ندارم -- من با فرمت graphviz dot شروع کردم -- اما اکنون در مورد تعداد زیادی از آنها می خوانم. ابزار. از چه نوع ابزارهای تجسم گراف باید استفاده کنم؟
تجسم یک گراف غیر جهت دار با گره ها در موقعیت های خاص
14754
من یک جدول داده دارم که باید تعداد روزهایی را که هر کاربر یک عمل انجام می دهد محاسبه کنم. ساختار اینگونه است. شناسه کاربری تاریخ زمان‌هاActionDone A 20110601 3 A 20110605 0 A 20110609 10 B 20110701 0 B 20110710 0 B 20110801 1 C 20110801 1 C 20110801 روز C 20110801 خواهد بود. TimesActionDone 0 برای یک روز برای A و دو روز برای B بود و C صفر است. این روزها را نباید حساب کرد. چگونه می توان این کار را در نحو SPSS انجام داد؟ AGGREGATE /OUTFILE=* /BREAK= تاریخ شناسه کاربری /N_BREAK=N /TimesActionDone =جمع (تعداد_عملکردها). این اولین جدول را ایجاد می کند. چگونه به دومی برسم؟ من تا این حد پیش رفتم اما کار نمی کند. AGGREGATE /OUTFILE=* /BREAK= UserID IF (TimesActionDone > 0 ). /N_user_days=N. من دانش زیادی از نحو SPSS ندارم و نتوانستم چیز زیادی برای جستجوی آنلاین خود پیدا کنم. می‌دانم که می‌توانم این کار را با حذف همه مواردی که TimeActionDone ابتدا 0 است انجام دهم و سپس محاسبه را انجام دهم، اما سپس اطلاعات مربوط به کاربر C را از دست خواهم داد. همچنین باید این را 0 داشته باشم.
استفاده از شرط If در سینتکس SPSS
18102
من تعداد زیادی از سیستم های معاملات مالی دارم که معتقدم بسیار تکراری هستند، به این معنی که معتقدم تعداد زیادی از سیستم های معاملاتی اساساً یکسان هستند. من به دنبال راهی برای اندازه گیری تفاوت بین هر یک از سیستم های معاملاتی هستم. یک راه ساده برای انجام این کار، همبستگی بازده روزانه است، هرچند که من را به روابط خطی و یک ماتریس همبستگی 100k x 100k محدود می‌کند، که واقعاً مفید نیست. **از چه روش هایی می توانم برای اندازه گیری تفاوت بین سری های زمانی و سپس خوشه بندی آنها با هم استفاده کنم، ** با هدف نهایی حذف سیستم های معاملاتی که بسیار مشابه هستند؟ من در این کار تازه کار هستم، بنابراین اگر اطلاعات مربوطه را کنار گذاشتم، لطفاً به من اطلاع دهید و من این سؤال را اصلاح خواهم کرد. با تشکر داده های نمونه در زیر آمده است: StratID SystemID تاریخ بازگشت ساده روزانه 1 1 1/25/2011 0.04 1 1 1 1/26/2011 0.49 1 1 1/27/2011 -0.02 1 1 1/28/2011 0.716/0 2011 0.61 1 2 1/3/2011 1.37 1 2 1/4/2011 -0.02 1 2 1/5/2011 -0.52 1 2 1/6/2011 0.16 1 2 1/7/2011 0.85 1 2 1/5/2010 - 0.52
اندازه گیری فاصله ساده برای سری های زمانی مالی
103193
من سابقه متوسطی در پیش بینی سری های زمانی دارم. من به چندین کتاب پیش بینی نگاه کرده ام و در هیچ یک از آنها به سؤالات زیر نمی بینم. من دو سوال دارم: 1. چگونه می توانم به طور عینی (از طریق آزمون آماری) تعیین کنم که یک سری زمانی معین: * فصلی تصادفی یا فصلی قطعی * روند تصادفی یا یک روند قطعی 2. اگر سری زمانی خود را به عنوان مدل سازی کنم چه اتفاقی می افتد. یک روند قطعی/فصل زمانی که سریال دارای یک جزء به وضوح تصادفی است؟ هر گونه کمکی برای رسیدگی به این سوالات بسیار قدردانی خواهد شد. داده‌های نمونه برای روند: 7,657 5,451 10,883 9,554 9,519 10,047 10,663 10,864 11,447 12,710 15,169 16,205 14,58014,5001 20,198 18,573 19,375 21,032 23,250 25,219 28,549 29,759 28,262 28,506 33,885 34,776 35,347 33,347 33,620 31,013 31,496 34,115 33,433 34,198 35,863 37,789 34,561 36,434 34,371 33,307 33,295 36,514 36,514 36,514 36,513 45,000 46,000 42,000 47,000 47,500 48,000 48,500 47,000 48,900
روند / فصلی تصادفی در مقابل قطعی در پیش‌بینی سری‌های زمانی
72905
من یک مدل خطی کلی را اجرا می کنم که در آن دو پیش بینی دارم: X و X-squared. من هر دوی این پیش‌بینی‌کننده‌ها را در تحلیل خود وارد کردم، زیرا فکر می‌کنم X ممکن است واریانس در اندازه‌گیری نتیجه را تا حدی خطی و تا حدی به صورت درجه دوم توضیح دهد. بدیهی است که در این مثال چند خطی وجود دارد. با این حال، من فکر می کردم که آیا شاید دلایلی وجود داشته باشد که چرا این ایده خوبی نیست که این دو پیش بینی کننده را در مدل خود قرار دهم.
GLM با دو پیش بینی کننده مرتبط (X و X-squared)
96348
من از این مدل استفاده کردم: Model1 <- glm(بیماری ~ Distance_ue + Pop_density + Alt + Ave.temp + Ave.precip + Urban.Rural + (1| Sites), family=gaussian) سپس از تابع «درج» برای به دست آوردن استفاده کردم. جدول نتایج AICc نتایج انتخاب مدل برای مدل‌های پیش‌بینی‌کننده تأثیر متغیرهای پیش‌بینی‌کننده مختلف بر «بیماری» (حضور یا عدم حضور) در پرندگان در 10 سایت تحقیقاتی. سایت به عنوان یک اصطلاح تصادفی استفاده شد. متغیرهای پیش‌بینی‌کننده طبقه‌بندی «شهری / روستایی» (مقوله‌ای - با برچسب شهری یا روستایی)، «فاصله تا لبه شهری» (مستمر)، «تراکم جمعیت» (مستمر)، «ارتفاع» (مستمر)، «دمای متوسط» بودند. « (پیوسته) و «متوسط ​​بارش» (پیوسته). مسئله ای که من دارم این است که در جدول نتایج هیچ تخمین پارامتری برای طبقه بندی شهری یا روستایی که متغیر طبقه بندی است ارائه نشده است - فقط یک علامت $\pm$ می دهد (لطفاً تصویر زیر را برای جدول نتایج ببینید). آیا این طبیعی است؟ چرا این کار را می کند؟ ![جدول نتایج AICc](http://i.stack.imgur.com/6c48U.png)
نتایج AICc در R
14752
انگیزه این سوال همین یکی است. من دو منبع را جستجو کردم و این چیزی است که پیدا کردم. A. van der Vaart، آمار مجانبی: به ندرت امکان محاسبه احتمال یک نمایه به صراحت وجود دارد، اما ارزیابی عددی آن اغلب امکان پذیر است. سپس احتمال نمایه ممکن است برای کاهش بعد تابع درستنمایی عمل کند. توابع درستنمایی نمایه اغلب به همان روشی که توابع درستنمایی (معمولی) > مدلهای پارامتریک استفاده می شوند. جدا از در نظر گرفتن نقاط حداکثر آنها به عنوان برآوردگرهای $\hat\theta$، مشتق دوم در $\hat\theta$ به عنوان تخمینی از منهای معکوس ماتریس کوواریانس مجانبی e استفاده می‌شود. > به نظر می رسد تحقیقات اخیر این عمل را تأیید می کند. J. Wooldridge، تجزیه و تحلیل اقتصاد سنجی داده های مقطع و تابلو (یکسان در هر دو نسخه): > به عنوان وسیله ای برای مطالعه ویژگی های مجانبی، تابع هدف متمرکز > ارزش محدودی دارد زیرا $g(W,\beta)$ عموماً بستگی دارد. روی همه > $W$، در این صورت تابع هدف را نمی توان به صورت مجموع مجموع > مستقل و به طور یکسان توزیع شده نوشت. یکی از تنظیمات که در آن معادله > (12.89) مجموع i.i.d است. توابع زمانی اتفاق می‌افتد که جلوه‌های خاص فردی را از مدل‌های داده‌های پانل غیرخطی خاص متمرکز کنیم. علاوه بر این، تابع هدف متمرکز می تواند برای ایجاد هم ارزی رویکردهای تخمین به ظاهر متفاوت مفید باشد. وولدریج مسئله را در زمینه وسیع‌تر برآوردگرهای M مورد بحث قرار می‌دهد، بنابراین برای برآوردگرهای حداکثر احتمال نیز اعمال می‌شود. بنابراین برای یک سوال دو پاسخ متفاوت دریافت می کنیم. شیطان به نظر من در جزئیات است. برای برخی از مدل‌ها می‌توانیم با خیال راحت از هسین احتمال پروفایل استفاده کنیم، برای برخی مدل‌ها نه. آیا نتایج کلی وجود دارد که شرایطی را ارائه دهد که چه زمانی می توانیم این کار را انجام دهیم (یا نمی توانیم)؟
Hessian از احتمال پروفایل برای تخمین خطای استاندارد استفاده می شود
47362
از بهترین روش بیان این سوال مطمئن نیستم، اما من آن را انجام می دهم. اگر بخواهم به طور تصادفی اعداد کامل بین 1 و $n$ را تعداد قابل توجهی نسبت به $n$ انتخاب کنم (مثلاً $m$، که $m$ چیزی حدود 70٪ از $n$ است) و سپس به توزیع فرکانس نتایج، من معتقدم که شما توزیعی خواهید داشت که مسطح نبود. یعنی تعداد بسیار کمی از نتایج بیش از 1 بار، اکثریت 1 بار و برخی از نتایج 0 بار می آیند. بدیهی است که اندازه نسبی $m$ تا $n$ بر این امر تأثیر می‌گذارد: اگر بخواهم فقط 10 عدد بین 0 تا 1,000,000 ($m$=10, $n$=1,000,000) انتخاب کنم. اکثریت قریب به اتفاق اعداد دارای فرکانس 0 هستند، با بقیه 1. من سؤالاتی دارم: 1. آیا این درست است؟ 2. فرکانس مورد انتظار بیشترین تعداد انتخاب شده را چگونه محاسبه می کنید؟ 3. اگر بخواهید نتایج را بر اساس فرکانس مرتب کنید و سپس فرکانس را نمودار میله ای کنید، آیا منحنی به دست آمده دارای نام یا ویژگی های جالبی است؟ امیدوارم این به نوعی منطقی باشد. اگر نه، به من اطلاع دهید و سعی می کنم به راه بهتری برای توضیح آن فکر کنم. همه اینها از یک سوال اصلی ناشی می شود که چیزی شبیه به این بود: اگر من یک دستگاه قرعه کشی با 15 میلیون ترکیب نتیجه اعداد قرعه کشی مختلف داشته باشم، با توجه به اینکه قبلا 10 میلیون قرعه کشی انجام داده ام، احتمال قرعه کشی 10,000,001 چقدر است. قبلاً کشیده شده است؟ **ویرایش:** چند شبیه سازی مونت کارلو را با قیمت 2$<n<650$، با $m$=$n$ و تعداد کل آزمایش ها برای هر $n$ اجرا 10000 بار اجرا کردم و نتایج به طور میانگین بدست آمد. من حداکثر فرکانس را ثبت کردم، تعداد دفعات بیرون آمدن یک عدد 1 بار و تعداد دفعاتی که یک عدد 0 بار بیرون می آید. دو چیز جالب: تعداد اعدادی که 1 بار بالا می آیند با $n p(k)$ محاسبه شده مطابقت دارد و این نیز نزدیک به تعداد دفعاتی است که یک عدد 0 بار بیرون می آید. من مطمئن نیستم که واضح باشد که این دو باید یکسان باشند، زیرا به نظر نمی رسد $p(k)$ برای $k=0$ منطقی باشد (آیا می توانید $m$ را انتخاب کنید $0$؟). همچنین، به طرز جالبی، نمودار $m$ در برابر میانگین حداکثر فرکانس منحنی به نظر می رسد: ![](http://i.imgur.com/h0Ttp.png) بدیهی است که نوعی رابطه log. گام بعدی این است که $m$ را به عنوان درصدی از $n$ تغییر دهید.
انتخاب تصادفی از $n$ گزینه تقریبا $n$ بار. توزیع فرکانس حاصل چه نام دارد؟
77883
پاسخ های من شامل بردارهای 12 بیتی است - هر بیت به معنای یک رویداد خاص در 1 ماه است. من باید احتمال یک رویداد را در تمام ماه ها پیش بینی کنم -> بنابراین پیش بینی ها نیز باید از 12 احتمال تشکیل شوند. نمونه هایی از پاسخ ها: 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 آیا راهی برای مدل سازی آن 12 بیت به صورت 1 پاسخ؟ من به مدل‌سازی ماه رویداد فکر می‌کردم تا پاسخ 13 باشد (یعنی هیچ رویدادی در 12 ماه رخ نمی‌دهد)، 2،6 و غیره. اما چگونه می‌توانم احتمالات هر ماه را بدست بیاورم؟ دلیل اینکه من می‌خواهم این کار را انجام دهم، ایجاد 12 مدل مستقل نیست، بلکه 1 مدل است که فواصل بین ماه‌ها را درک می‌کند، یعنی احتمال وقوع یک رویداد در ژانویه باید مشابه فوریه باشد، اما بسیار متفاوت از دسامبر است. شاید یک راه استاندارد برای مدل سازی این وجود داشته باشد. داشتم در مورد تجزیه و تحلیل بقا می خواندم اما نمی دانم بهترین گزینه است یا خیر. برای هر اشاره ای سپاسگزار خواهم بود.
پیش بینی بردارهای باینری به عنوان یک پاسخ واحد
72904
چند سوال در مورد کمینه‌سازی حداقل مربعات با داده‌های وزن‌نشده: 1) با فرض اینکه هیچ تخمینی از خطاها/وزن‌ها برای داده‌ها ندارید، آیا راهی برای ارائه یک تناسب وجود دارد؟ اگر خطاها شناخته شده باشند، می‌توان از $\chi^2$ برای انجام تست خوبی استفاده کرد، با این فرض که خطاها گاوسی هستند. 2) نظر شما در مورد وزن دادن به داده ها با مقادیر y واقعی، یعنی $w_i=\frac{1}{y_i}$ چیست. این در مورد من منطقی به نظر می رسد، زیرا داده ها باید خطاهای بزرگتری برای مقادیر y بزرگتر داشته باشند. با این حال، بدون برآورد دقیق خطاها، کاهش $\chi^2$ هنوز به احتمال زیاد $\sim1.0 $ نیست، بنابراین خوب بودن تست‌های تناسب معنایی ندارد. بنابراین اساساً، با استفاده از داده‌های بدون وزن، می‌توانیم بهترین پارامترهای برازش را پیدا کنیم، اما همین؟
حداقل مربعات به حداقل رساندن با داده های بدون وزن
31308
وقتی فاصله اقلیدسی اعمال نمی شود چگونه یک تابع فاصله تعریف کنیم؟ به عنوان مثال، بگویید من برخی از داده ها را دارم که شامل ملیت می شود. من احتمالاً برای هر ملتی یک عدد اختصاص می‌دهم، اما برای کشورهایی که اختلاف تعداد کمتری دارند، به این معنی نیست که آنها بیشتر مستعد قرار گرفتن در یک خوشه با کشورهایی هستند که اختلاف تعداد بیشتری دارند. آیا منطقی است که من فقط تابعی را تعریف کنم که اگر دو کشور یکسان باشند 0 برگرداند و در غیر این صورت مقداری عدد صحیح مثبت را برگردانم؟ اگر چنین است، آن عدد صحیح مثبت چقدر باید باشد؟
تابع فاصله برای دسته ها در K-means
31302
نمودارهای مدل در انجام تجزیه و تحلیل داده های بیزی، جان کروشکه نمودارهایی مانند این ایجاد می کند: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/bGw94.jpg) برای نشان دادن کد BUGS/JAGS زیر : ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/yw4vT.jpg) او در مورد این نمایش در وبلاگ مرتبط خود بحث می کند پست، نمودارهای مدل گرافیکی در انجام تجزیه و تحلیل داده های بیزی در مقابل قرارداد سنتی من فقط یکی را برای مدل نسبتاً پیچیده خود نوشتم و یک لحظه وضوح واقعی داشتم. نمودارها نمایش‌های عمومی توابع چگالی احتمال هستند - آنها واقعاً پیشین‌های مسطح بیان‌شده در مدل را منعکس نمی‌کنند (اگرچه از نظر فنی، محورهای x برچسب‌گذاری نشده‌اند). من واقعاً کتاب را نخوانده‌ام، اما فکر می‌کنم استفاده از این نمودار برای ارائه هم ساختار مدل _و_ نتایج مفیدتر باشد، به عنوان مثال، این توزیع‌های عمومی را با چگالی احتمال خلفی هر پارامتر (به عنوان مثال $\) جایگزین کنیم. textrm{N}(\textrm{شکل }M_0،\textrm{شکل }T_0)$ (به جای یک توزیع واحد برای نشان دادن هر دو پارامترها همانطور که در زیر است من سه سوال دارم: 1. آیا مسائل فنی (آماری) بالقوه با این روش وجود دارد آیا پیشنهاد دیگری برای اینکه چگونه می توان این کار را برای انتقال نتایج عالی انجام داد، یکی از ایده هایی که داشتم این بود که یک بتا نمایه شده (مثلاً یک اثر تصادفی برای 1 ... n درمان طبقه بندی شده، در مدل بالای آن ارائه دهم؟ بتا1[i] به عنوان تراکم های همپوشانی (یکی برای هر اثر درمانی) خواهد بود. (من فکر می کنم این بصری ترین ارائه ای است که تاکنون پیدا کرده ام، اما ممکن است جایی برای بهبود وجود داشته باشد)
استفاده از نمودارهای مدل بیزی برای ارائه توضیحات مدل و نتایج (پسین)؟
47942
من سعی می کنم یک مدل رگرسیون لجستیک بسازم که در آن یک متغیر وابسته $y$ و متغیرهای مستقل $x_1$، $x_2$... $x_n$ دارم. $y$ تنها دو مقدار را می‌تواند داشته باشد - 0 یا 1. مجموعه داده مدل‌سازی اصلی من دارای 100000 مشاهدات است - که آنها را به دو نمونه تقسیم کرده‌ام - یک نمونه آموزشی با 80000 مشاهده و یک نمونه آزمایشی از 20000 مشاهده. نمونه ها به طور تصادفی ایجاد شدند و نسبت یک به 0 را در هر دو نمونه حفظ کردند (با استفاده از روش SURVEYSELECT در SAS و $y$ به عنوان STRATA). فرض کنید درصد مشاهدات با مقدار 1 برای $y$ در هر دو نمونه 10٪ باشد. من از رویه LOGISTIC در SAS در نمونه آموزشی استفاده می کنم تا به متغیرهای $x_1$ - $x_5$ برسم که مدل نهایی من را تشکیل می دهند. مقادیر p مرتبط با میدان والد چی همگی <0001/0 هستند که نشان می دهد در سطح اطمینان 99/99 درصد معنی دار هستند. با این حال، زمانی که من رویه LOGISTIC را روی نمونه آزمایشی اجرا می‌کنم، فقط از $x_1$ - $x_5$ به عنوان متغیرهای مستقل استفاده می‌کنم، یکی از آنها می‌گوید $x_4$ دیگر در خروجی‌های رگرسیون معنی‌دار نیست - یعنی p-value مرتبط. 0.6 است. آیا این به این معنی است که نمونه گیری من درست نیست؟ یا مدلی که از نمونه آموزشی به دست می‌آورم، داده‌ها را «بیش از حد» می‌سازد؟ یا هر دو؟ آیا باید در این مورد نگران باشم و اطمینان حاصل کنم که متغیرهای نهایی که انتخاب می کنم در هر دو نمونه قابل توجه هستند یا این موضوع به طور کلی مشکلی نیست؟
آیا در رگرسیون لجستیک، عدم اهمیت تخمین پارامترها در نمونه آزمایشی نشان دهنده بیش از حد برازش است؟