_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
67619
من می خواهم زمان بقا را برای دو رویداد رقابتی با استفاده از R شبیه سازی کنم. در نظر بگیرید که هیچ داده سانسور شده ای وجود ندارد و زمان بقا برای هر رویداد دارای توزیع نمایی با نرخ 0.25 و 0.1 است. کسی میتونه کمکم کنه لطفا؟
داده های ریسک رقابتی
12637
من سعی می‌کنم ماتریس کوواریانس 8x8 مجهول X را در R با استفاده از حداکثر شباهت تخمین بزنم، اما زمانی که برخی از کوواریانس‌ها در X به صفر محدود می‌شوند، مشکلی در کشف راه کارآمد پارامترسازی X دارم. هنگامی که هیچ محدودیتی وجود ندارد، من از یک فاکتورسازی cholesky استفاده کرده ام. من پارامترهایی دارم که با ماتریس مثلثی پایینی L مطابقت دارند، و X<-t(L)%*%L را به دست می‌آورم که یک ماتریس قطعی مثبت مناسب است، اما اکنون که من می‌خواهم تعدادی از سلول‌های X به صفر محدود شود؟ در مورد من، X به گونه‌ای محدود شده است که ماتریس‌های 4×4 سمت راست بالا و پایین می‌توانند هر چیزی باشند (البته دارای ویژگی‌های ماتریس‌های کوواریانس مناسب)، و ماتریس خارج از مورب 4×4 یک ماتریس مورب است، یعنی. اولین متغیر x1 با متغیرهای x2، x3، x4 و x5، متغیر x2 با x1، x3، x4 و x6 و غیره مرتبط است.
پارامترسازی کارآمد ماتریس کوواریانس با برخی کوواریانس ها به صفر محدود شده است
15181
من به دنبال راهی برای طبقه بندی / دسته بندی جملات به دسته های از پیش تعریف شده (حدود 10-15) هستم. بله، در واقع جملات، نه مقاله یا پاراگراف. با توجه به اینکه میانگین طول مقالات خیلی طولانی نیست (2 تا 10 صفحه معمولی) و تعداد مقالات (ده ها تا صدها) نسبتاً کم است، این یک مشکل در مقیاس کوچک است. با این حال، دقت بسیار مهمتر است. از آنجایی که من در این زمینه کاملاً جدید هستم، با بررسی برخی از مقالات مقدماتی و چند پروژه منبع باز عمومی (مانند WEKA، GATE و LingPipe) شروع کردم. با این حال، آنچه من تا به حال پیدا کردم قطعات بسیار سختی است که نمی توان آن ها را کنار هم قرار داد تا با هدف من مطابقت داشته باشد. چه الگوریتم/نرم افزار/منبع خاصی را برای این مشکل توصیه می کنید؟ پیشاپیش ممنون * * * من ابزاری به نام TagHelper پیدا کردم که برای چند جنبه از هدف من کاملاً مناسب است و هنوز در حال بررسی آن هستم. اما همچنان انتظار دارم که بینش و پیشنهادات بیشتری ارائه شود. با تشکر
دسته بندی/طبقه بندی متن برای متن در مقیاس کوچک
39259
من یک منحنی رشد لجستیک به شرح زیر دارم: $y = \frac{1}{(1 + ae^{-bx})}$، که x اندازه‌گیری مستقل (محور x) و a و b پارامترها هستند. نقطه عطف این معادله زمانی است که y = 0.5 باشد. با توجه به این اطلاعات، من باید مقدار x را در y = 0.5 پیدا کنم. اما حل این معادله آسان نیست. من از زبان آماری R برای یافتن این تناسب ها استفاده می کنم. بنابراین، با توجه به پارامترهای a و b، چگونه می توانم مقدار x را در y = 0.5 پیدا کنم (و دوباره، نمی توانم کارهایی مانند مشتقات را انجام دهم زیرا از یک زبان برنامه نویسی استفاده می کنم). در ضمن من سعی کردم برای x حل کنم اما خیلی زشته و مطمئن نیستم چطور این کار رو انجام بدم...
نقطه عطف رشد لجستیک
16528
من سعی کرده‌ام بفهمم که تابع میانگین کوتاه‌شده R چگونه کار می‌کند. من گمان می‌کنم که ممکن است جانبدارانه باشد، اما می‌خواهم قبل از ارسال یک گزارش اشکال، در اینجا بازخورد دریافت کنم (اگر این انجمن برای چنین سؤالی نامناسب است، لطفاً به من اطلاع دهید). مثال زیر را در نظر بگیرید (برای وضوح مرتب شده است): > x <- c(1، 2، 3، 45، 55، 56، 57، 58، 403، 900) > length(x) [1] 10 > درصد تا. trim <- 0.25 انتظار می رود که میانگین برش بر اساس طول (x) - 2 * طول (x) * باشد درصد.to.trim = 5` مشاهدات. در این صورت، سه روش محاسبه وجود دارد: 1. حذف دو کوچکترین مشاهدات و سه مشاهده بزرگ. در این مورد، «mean(x[3:7]) = 43.2». 2. برای حذف سه مشاهده کوچک و دو مشاهده بزرگ. در این مورد، «mean(x[4:8]) = 54.2». 3. برای حذف دو کوچکترین مشاهدات، دو مشاهدات بزرگ و میانگین سوم کوچکترین و سومین مشاهده بزرگ (به دلایل واضح ترجیح داده می شود). در این مورد «mean(c(x[4:7]، mean(c(x[3]، x[8]))) = 48.7». با این حال، R نتیجه زیر را به دست می‌دهد: > mean(x، trim=percent.to.trim) [1] 45.66667 این باید از میانگین برش‌شده بر اساس «طول (x) - 2 * کف (طول (x) * باشد. %. 45.66667 آیا این یک اشکال است؟ من از _R نسخه 2.13.1 (2011-07-08)، svn rev 56322_ استفاده می کنم.
آیا R's trimmed به معنای تابع بایاس است؟
63588
من باید بدانم که این شانس را دارم که در یک نقطه به تعداد X$ از پرتاب سکه، دم های متوالی دریافت کنم (یعنی 2 دنباله پشت سر هم در بازگرداندن سکه های متوالی). به عنوان مثال، اگر سکه را دو بار پرتاب کنم، می دانم که 25 درصد شانس دارم. آنچه من واقعاً دنبال آن هستم فرمولی برای حل این سوال است.
فرمول احتمال به دست آوردن دنباله های متوالی در چرخش سکه X
63604
من سه متغیر دارم ($X_G$،$X_B$، و$X_R$)، که هر کدام به طور معمول توزیع شده اند. آیا راهی برای نشان دادن همپوشانی بین هر یک از جفت ها با استفاده از میانگین و انحراف معیار وجود دارد؟ یک آزمون t مستقل نشان می‌دهد که سه گروه بسیار متفاوت هستند، که خوب است، اما من می‌خواهم راهی را نشان دهم که یکی از جفت‌ها _بیشترین_ متفاوت است (در حالی که دو جفت دیگر _به یک اندازه متفاوت_ هستند) تا منظورم را از نظر گرافیکی نشان دهم. و توزیع های زیر را رسم کرد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xyuE2.jpg) یعنی قرمز و سبز بسیار متفاوت هستند، در حالی که آبی و سبز _کمتر_ متفاوت هستند. آیا راه خوبی برای تعیین کمیت این تفاوت در همپوشانی وجود دارد؟ آماره t برای قرمز و آبی 16.6789 است در حالی که آمار t برای سبز و قرمز 38.9686 است. با توجه به اینکه قرمز و آبی چقدر همپوشانی دارند، من این نوع عجیب را پیدا می کنم. با این حال، حدس می‌زنم فکر می‌کردم پیاده‌سازی‌های استانداردی در matlab/R برای انجام این کار وجود داشته باشد، اما نتوانستم هیچ کدام را پیدا کنم.
همپوشانی بین دو متغیر معمولی توزیع شده را دریافت کنید
21032
من با رگرسیون فرآیند گاوسی کار می کنم. در حال حاضر من شروع به آزمایش توابع و ترکیب‌های کوواریانس مختلف می‌کنم تا ببینم چه نوع داده‌هایی را می‌توانند بهترین توصیف کنند. من یک پیاده سازی در جاوا ساختم. **مشکل من:** اکثر توابع کوواریانس که من استفاده می کنم منجر به یک ماتریس کوواریانس منفرد می شوند که معکوس نیست. 1. آیا توابع کوواریانس پیشنهادی/برآورنده ها نباید فقط ماتریس های معکوس تولید کنند؟ 2. آیا روش ها یا نکاتی برای منظم کردن ماتریس ها وجود دارد؟ یا آیا می توان با استفاده از مقادیر یا محدوده های دیگر به عنوان ورودی این کار را انجام داد؟ ممکن است معرفی اصطلاحات خطا نیز کمک کند؟ اکثر مشکلات من با ورودی های $x$ عدد صحیح به تابع کوواریانس حرکت براونی $k(x,x') = \min(x,x')$ است. وقتی من از این ماتریس استفاده می کنم، همیشه مفرد است.
مشکل با ماتریس های کوواریانس منفرد هنگام انجام رگرسیون فرآیند گاوسی
69461
اجازه دهید $(X,Y)\sim N(\mu_x=1,\mu_y=1,\sigma^2_x=4,\sigma^2_y=1,\rho=1/2)$. $P(X+2Y\leq 4)$ را محاسبه کنید. چگونه احتمالات یک نرمال دو متغیره را محاسبه می کنید؟ برای توزیع عادی معمولی به یاد دارم که مجبور بودیم از جداول یا نرم افزار استفاده کنیم زیرا هیچ راه حل نزدیکی برای CDF معمولی وجود ندارد.
احتمالات عادی دو متغیره
46252
من در حال مطالعه یادگیری ماشین و پیاده سازی الگوریتم های ML با Matlab هستم. من کتاب های اتهم آلپایدین، دودا و هارت، بیشاپ و میچل را دنبال می کنم. با این حال، هیچ یک از آنها دقیقاً شبه کدها و نمونه های مبتنی بر الگوریتم و تکه های کد را طبق معمول ارائه نمی دهند. آیا کتابی وجود دارد که موضوعات را با نمونه کد با Matlab یا Java یا Python دنبال کند؟
کتاب یادگیری ماشین با نمونه کد
87524
من به تازگی اولین کلاس آمارم را شروع کرده ام و در رشته آمار تحصیل نمی کنم، بنابراین اگر این یک سوال مبتدی به نظر می رسد متاسفم و همچنین اگر زبان من نادرست است ببخشید. (در صورت تمایل من را تصحیح کنید.) من در مورد ایجاد توزیع های نمونه phat و همچنین توزیع های نمونه xbar یاد گرفته ام. می خواستم بدانم که آیا می توانید تفاوت بین این دو را فقط با مشاهده میانگین، انحراف معیار و اندازه نمونه تشخیص دهید. من دو نمونه از کلاس خود دارم، یکی توزیع نمونه phat و دیگری توزیع نمونه xbar ## اولین مثال با استفاده از توزیع نمونه xbar Aamco Heating and Cooling, Inc.، تبلیغ می کند که هر مشتری که یک کولر گازی خریداری می کند در طول دوره 16 روز اول تیرماه در صورتی که میانگین دمای بالا در این دوره 16 روزه بیش از 5 درجه بالاتر از حد نرمال باشد، 25 درصد تخفیف دریافت خواهید کرد. دمای بالای روزانه در ماه جولای معمولاً با میانگین 84 درجه و انحراف معیار 8 درجه توزیع می شود. اگر 16 روز اول تیرماه را نمونه تصادفی در نظر بگیریم، میانگین مقدار مورد انتظار، انحراف معیار و شکل توزیع نمونه گیری نمونه چقدر است؟ (به این سوال پاسخ ندهید، فقط برای نشان دادن سوال در زمینه است.) ## و حالا دومی با استفاده از توزیع نمونه phat فرض کنید 30 درصد از تمام دانشجویان بازرگانی در یک دانشگاه در بازار سهام سرمایه گذاری می کنند. ما به طور تصادفی 500 دانشجو را انتخاب می کنیم که توزیع نمونه phat را نشان می دهد، نسبت نمونه دانشجویان بازرگانی در این دانشگاه که در بازار سهام سرمایه گذاری می کنند. (باز هم نیازی به انجام این کار فقط با دادن زمینه نیست.) بنابراین باز هم من فقط می‌پرسم آیا راهی وجود دارد که بگویم وقتی میانگین، انحراف استاندارد و نمونه داده می‌شود، باید از معادلات xbar یا phat استفاده کنم. اندازه و از آنها خواسته شد که توزیع نمونه ارائه کنند. (و بله می‌دانم که مثال دوم می‌گوید توزیع نمونه‌ای از p-hat را بدهید، اما می‌خواهم بدانم آیا راهی وجود دارد که بگویم آیا آن را نگفته است یا خیر.) ممنون و بازم ببخشید اگر سوال بدی است.
چه زمانی یک نسبت نمونه p hat به جای x bar است
63600
می‌توانیم از «lm()» برای پیش‌بینی یک مقدار استفاده کنیم، اما همچنان در برخی موارد به معادله فرمول نتیجه نیاز داریم. به عنوان مثال، معادله را به نمودارها اضافه کنید.
چگونه نتایج را از lm() به معادله ترجمه کنیم؟
15239
اگر کسی بتواند این اختلاف را که در زیر به تفصیل شرح داده شده است، توضیح دهد، بسیار ممنون می شوم. بیایید ابتدا یک تست تئوری انجام دهیم. # مقداری داده آزمایشی با سه سطح و بردار اعداد تصادفی تست کنید <- data.frame(ind = gl(3, 10), val = runif(30)) # میانگین را با ind محاسبه کنید (در متغیری برای اهداف آموزشی ind.mean <- with(test, tapply(X = val, INDEX = ind, FUN = mean)) # محاسبه میانگین میانگین با ind و یک میانگین جهانی نتایج یکسانی را به همراه دارد - FINE mean(ind.mean) mean(test$val) در اینجا برای برخی از داده های پیچیده rld <- (list(date = c(2011, 2011, 2011) است. 2011، 2011، 2011، 2011، 2011، 2011، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010 ، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2010، 2009، 2009، 2009، 2009، 2009، 2009، 2009 ، 2009، 2009، 2009، 2009)، pm = c(1، 0.80952380952381، 0.75، 1، 0.866666666666667، 0.8، 1، 0.8، 0.833333333333333، 0.6666666666666666، 0.6666666666666666 1، 1، 1، 1، 1، 1، 1، 1، 0.6666666666666667، 0.75، 0.75، 1، 1، 0.833333333333333، 0.833333333323333، 0.833333333233333 . 1، 0.8، 0.5، 0.5، 0.25، 0.333333333333333، 0، 0.909090909090909))، .Names = c(date، pm)، class = data.frame, cL(NA, -4 = row.names )) > head(rld) date pm 1 2011 1.0000000 2 2011 0.8095238 3 2011 0.7500000 4 2011 1.0000000 5 2011 0.8666667 6 2011 0.800 مورد انتظار می رود (یکی از موارد 0.800 مورد انتظار می باشد. افسوس... > mean(rld$pm) [1] 0.7822699 > mean(tapply(X = rld$pm, INDEX = rld$date, FUN = mean)) [1] 0.7500214 _EDIT_ چیس آن را میخکوب کرد. اثبات این است: test3 <- data.frame(ind = تکرار(1:3، بار = c(5، 15، 10))، val = runif(30)) > mean(test3$val) [1] 0.4972464 > میانگین ((X = test3$val، INDEX = test3$ind، FUN = میانگین)) [1] 0.468399
میانگین میانگین با یک عامل در مقابل میانگین جهانی
81200
دارم مقاله تخصیص نهفته دیریکله را می خوانم و سعی می کنم آن را بفهمم. با این حال من در همان قسمت اول گیر کردم! وقتی از توزیع چندجمله ای نمونه گرفتند و نتیجه را یک عدد واحد در نظر گرفتند! درک من این است که آیا توزیع چندجمله ای بردار را برمی گرداند که تعداد عناصر آن با تعداد پارامتر بردار احتمال متصل به چند جمله ای برابر باشد. مطمئن نیستم که نشانه را اشتباه متوجه شده باشم. **ویرایش:** در نظر بگیرید که Q یک بردار احتمال با اندازه K است. Z باید یک اسکالر از 1 تا K باشد. اما من نمی دانم چگونه از نماد Z ~ multi(Q) به دست می آید. این لینک است. به مقاله (صفحه 4): http://www.cs.princeton.edu/~blei/papers/BleiNgJordan2003.pdf این یک عکس است: ![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/Zk3DV.png)
آیا ممکن است یک نمونه چند جمله ای یک عدد باشد؟
12187
تقریباً هر نمونه درخت تصمیمی که من با آن برخورد کرده‌ام، یک درخت باینری است. آیا این تقریباً جهانی است؟ آیا اکثر الگوریتم های استاندارد (C4.5، CART و غیره) فقط از درخت های باینری پشتیبانی می کنند؟ از آنچه من جمع آوری می کنم، CHAID به درختان دوتایی محدود نمی شود، اما به نظر می رسد که یک استثنا باشد. یک تقسیم دو طرفه و به دنبال آن یک تقسیم دو طرفه دیگر روی یکی از بچه ها با یک تقسیم سه طرفه یکسان نیست. این ممکن است یک نکته آکادمیک باشد، اما من سعی می‌کنم مطمئن شوم که رایج‌ترین موارد استفاده را می‌فهمم.
آیا درختان تصمیم تقریبا همیشه درختان باینری هستند؟
63607
من هر ماه یک نظرسنجی دارم که هر بار توسط یک مجموعه تصادفی از افراد پاسخ داده می شود. من می‌خواهم روند مجموعه‌ای از سؤالات را بررسی کنم تا ببینم آیا نظرات در طول زمان در حال تغییر هستند یا خیر. این یک سؤال تحقیقی نسبتاً استاندارد است، اما تا آنجا که من می دانم، روش معمول فقط آزمایش هر جفت نتایج متوالی است. اما این حرکت بلند مدت را شامل نمی شود. آیا راه بهتری برای پردازش داده ها به غیر از تست های Sig دوجمله ای متعدد برای شناسایی تغییرات در طول زمان وجود دارد؟
شناسایی یک روند در آزمایش های دوجمله ای
68999
از من خواسته شد که یک لکه گیری گاوسی روی سطل های یک هیستوگرام انجام دهم. این به چه معناست؟
چگونه هیستوگرام را اسمیر کنیم
87528
در دوره داده کاوی، ما از قانون 3-4-5 استفاده می کنیم تا داده ها را به طور یکنواخت تقسیم کنیم. من سعی می کنم این خطوط زیر را درک کنم، و چگونه آنها را به نمودار زیر پیوند می دهند. > اگر بازه ای 3، 6، 7 یا 9 مقدار متمایز را در مهم ترین رقم پوشش می دهد، محدوده را به 3 بازه با عرض مساوی تقسیم کنید > > اگر 2، 4 یا 8 مقدار متمایز را در مهم ترین رقم پوشش می دهد، > محدوده را به 4 بازه تقسیم کنید > > اگر 1، 5 یا 10 مقدار متمایز را در مهم ترین رقم پوشش می دهد، > قسمت را تقسیم کنید. محدوده به 5 بازه زمانی چرا مرحله 3 را به 3 بازه و مرحله 4 تا 4 را تقسیم کردیم؟ نمودار: ![3-4-5 قانون مثال](http://i.stack.imgur.com/iFF7P.png) واقعا ممنون می شوم اگر کسی بتواند در توضیح سوال من در بالا کمک کند. با تشکر
3-4-5 قانون چگونه مجموعه ها را پارتیشن بندی کنیم؟
81631
من باید روی مجموعه داده ای کار کنم که با روش Multiple Imputation درمان می شود تا داده های از دست رفته را مدیریت کنم. در واقع، من 5 نوع مختلف از یک مجموعه داده دارم که داده های گمشده با مقادیر احتمالی جایگزین شده اند. چگونه می توانم آن مجموعه داده ها را تجزیه و تحلیل کنم؟ آیا باید آنها را ادغام کنم؟ ممنون از وقتی که گذاشتید. بهترین، cml.
چگونه داده های Multiple Imputation را با SPSS تجزیه و تحلیل کنیم؟
15231
من در اثبات واقعیت زیر در تکالیف اقتصاد سنجی خود مشکل دارم. استاد گفت که من فقط باید به کتاب های آمارم نگاه کنم، اما به نظر می رسد جایی پیدا نمی کنم! بنابراین، ببخشید اگر این سوال (بیش از حد) نادان است. فرض کنید که متغیرهای تصادفی $\varepsilon_{1t}$, $\varepsilon_{2t} \sim IIN(0,\Sigma)$ (یعنی به طور یکسان به طور مستقل به طور عادی با بردار میانگین برابر $0$ و ماتریس واریانس-کوواریانس $ توزیع شده اند. \سیگما$). چگونه می توانم نشان دهم که $\varepsilon_{1t}=\lambda\varepsilon_{2t}+u_t$، که در آن $\lambda = \frac {\sigma_{12}} {\sigma_{22}}$ و $Var(u_t)=\sigma_{11}-\frac{\sigma_{12}^2}{\sigma_{22}}$ و $u_t$ یک اصطلاح اختلال است؟ ($\sigma_{ij}$ نشان دهنده عنصر متناظر ماتریس واریانس-کوواریانس است). همه کمک ها بسیار قدردانی می شود. :) * * * توضیح: فقط می خواستم اضافه کنم که این سوال از یک زمینه سری زمانی می آید. بنابراین، IIN به این معنی است که $\varepsilon$ها در طول زمان مستقل هستند (یعنی بدون خود همبستگی) و توزیع تغییر نمی کند. با این حال، همبستگی همزمانی بین $\varepsilon$ وجود دارد، زیرا آنها از توزیع دو متغیره می آیند.
رابطه بین دو متغیر تصادفی میانگین صفر IIN چیست؟
21036
من می خواهم از تجزیه و تحلیل متمایز بین دو جمعیت غیر عادی در R استفاده کنم. آیا کسی می تواند نام تابع R را برای انجام این کار به من بگوید؟ همچنین آیا کسی می تواند به من بگوید در صورت نقض فرض نرمال بودن نتایج من چقدر دقیق خواهد بود؟
تحلیل تفکیک ناپارامتریک در R
43434
تمرین زیر به من داده شد: نتایج بدست آمده توسط 10 دانش آموز در یک آزمون به شرح زیر است: 72 95 79 83 93 80 91 74 70 86 این فرضیه را امتحان کنید که میانگین نمره 75 است. از دو آزمون استفاده کنید: یکی پارامتریک و دیگری غیر غیر. پارامتریک شک من برای آزمون پارامتریک است آیا باید تست t-student بزنم؟ چون نمونه بزرگی برای استفاده از توزیع عادی ندارم...
آزمون ناپارامتریک
5765
با توجه به لیستی از اعداد، آیا می توان به نزدیک بودن اعداد پی برد (یا به عبارت دیگر، آیا معیاری آماری برای بیان آن وجود دارد) (توجه داشته باشید که من در مورد همبستگی صحبت نمی کنم - این برای 2 دنباله است - چیزی شبیه همبستگی بین قد و وزن). من به دنبال چیزی شبیه ضریب نزدیکی برای یک سری اعداد معین هستم، بنابراین با توجه به یک سری [0،10،20،30،40] - 'ضریب نزدیکی' به من گسترش اعداد را می دهد. همچنین اگر «ضریب نزدیکی» «چگالی» اعداد را نشان دهد خوب خواهد بود - اما اگر این یک معیار آماری قابل محاسبه متفاوت است، پس نباید مشکلی ایجاد شود.
اندازه گیری نزدیکی
87525
می‌دانم که می‌توانم همبستگی‌های جزئی یا نیمه جزئی را برای اندازه‌گیری سهم نسبی چندین متغیر مستقل در تغییر یک متغیر وابسته محاسبه کنم. با این حال، اگر من فقط به ضرایب رگرسیون استاندارد دسترسی داشته باشم، چگونه می توانم از آنها برای اندازه گیری سهم نسبی هر متغیر مستقل استفاده کنم؟ آیا مجذوب ضرایب رگرسیون کافی است و سپس ادعا می کنیم که این سهم آنها از تغییرات در متغیر مستقل است؟ در حالت ایده‌آل، من می‌خواهم به نقطه‌ای برسم که بتوانم ادعا کنم که IV X Z% تغییرات را در IV Y توضیح می‌دهد.
استفاده از ضرایب رگرسیون استاندارد برای اندازه گیری سهم نسبی
88200
چگونه می توان جهت آزمون را با مشاهده یک جفت فرضیه تعیین کرد؟ چگونه می توانید با نگاه کردن به بیان مسئله (سوال تحقیق) بگویید که در کدام جهت (یا بدون جهت) فرضیه را ایجاد کنید؟
چگونه می توانم تعیین کنم که کدام یک از دو فرضیه مکمل باید صفر باشد؟
81206
من در درک برابری ارائه شده در کتاب (پدیده های Speckle در اپتیک نوشته جوزف گودمن ص. 145) برای یک فرآیند گاوسی متوسط ​​و ثابت صفر: $\overline{\exp(i [\phi(x_1)- مشکل دارم. \phi(x_2)])}=\exp(-\sigma^2[1-\mu(x_1-x_2)])$ کجا $\sigma^2$ واریانس فرآیند $\phi$ و $\mu$ همبستگی خودکار نرمال شده فرآیند است. آیا کسی می تواند این برابری را برای من استخراج کند یا مرجعی به من بدهد که آن را توضیح دهد؟ نویسنده می گوید: از رابطه میانگین با توابع مشخصه ما ... با تشکر!
رابطه بین میانگین و تابع مشخصه یک فرآیند گاوسی
24187
من یک مجموعه داده حاوی نسبت های متعدد دارم که جمع آنها 1 می شود. من به تغییر این نسبت ها در امتداد یک گرادیان علاقه مند هستم (برای مثال داده ها را در زیر ببینید). گرادیان <- 1:99 A1 <- گرادیان * 0.005 A2 <- گرادیان * 0.004 A3 <- 1 - (A1 + A2) df <- data.frame( گرادیان = گرادیان، A1 = A1، A2 = A2، A3 = A3 ) require(ggplot2) require(reshape2) dfm <- melt(df, id = gradient) ggplot(dfm، aes(x = گرادیان، y = مقدار، fill = متغیر)) + geom_area() ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/aBbHc.png ) **اطلاعات اضافی:** لزوماً نباید خطی باشد، من این کار را فقط برای سهولت مثال انجام دادم. شمارش اصلی که این نسبت ها از روی آنها محاسبه می شود نیز موجود است. مجموعه داده واقعی حاوی متغیرهای بیشتری است که تا 1 را اضافه می کند (مثلاً B1، B2 و B3، C1 به C4، و غیره) - بنابراین راهنمایی برای یک راه حل چند متغیره نیز مفید خواهد بود... اما در حال حاضر به این موضوع می پردازم. جنبه تک متغیره آمار **سوال:** چگونه می توان چنین داده هایی را تحلیل کرد؟ من کمی در اطراف مطالعه کرده ام، و شاید یک مدل چند جمله ای یا glm مناسب باشد؟ - اگر من 3 (یا 2) glms را اجرا کنم، چگونه می توانم محدودیتی را در نظر بگیرم که مقادیر پیش بینی شده مجموعاً 1 باشد؟ من نمی‌خواهم فقط چنین داده‌هایی را ترسیم کنم، بلکه می‌خواهم یک رگرسیون عمیق‌تر مانند تحلیل انجام دهم. من ترجیحاً می خواهم از R استفاده کنم - چگونه می توانم این کار را در R انجام دهم؟
نسبت ها را تحلیل کنید
88206
من در حال خواندن صفحه ویکی‌پدیا در مورد نحوه تخصیص نهفته دیریکله به یک سند پس از یادگیری مدل هستم (این پیوند را ببینید). من با این بخش بسیار گیج شده ام: > اجازه دهید $n_{j,r}^i$ تعداد نشانه های کلمه در سند $j^{th}$ با نماد کلمه مشابه باشد ($r^ {th}$ کلمه در واژگان) اختصاص داده شده به موضوع > $i^{th}$. بنابراین، $n_{j,r}^i$ سه بعدی است. اگر هر یک از ابعاد سه > محدود به مقدار خاصی نباشد، از یک نقطه پرانتز > $(\cdot)$ برای نشان دادن استفاده می کنیم. به عنوان مثال، $n_{j,(\cdot)}^i$ تعداد > نشانه‌های کلمه در سند $j^{th}$ اختصاص داده شده به مبحث $i^{th}$ را نشان می‌دهد. آیا کسی می تواند این را به زبان ساده تر توضیح دهد؟ متشکرم!
درک استنتاج تخصیص دیریکله نهفته
100633
ما می دانیم که یک زنجیره مارکوف منظم به یک ماتریس منحصر به فرد همگرا می شود. زمان همگرایی ممکن است متناهی یا نامتناهی باشد. علاقه من در موردی است که زمان همگرایی محدود است. چگونه می توانیم این زمان یا به عبارت دیگر تعداد انتقال ها را برای همگرایی به طور دقیق تعیین کنیم؟ من علاقه مندم که از طریق مواد مربوطه مورد نیاز برای تعیین روش های مختلف که شاید برای محاسبه آن وجود داشته باشد، مرور کنم. اگر کسی بتواند یک مرجع خوب برای شروع پیشنهاد دهد، خوشحال می شوم. از هرگونه کمکی استقبال خواهد شد.
زمان همگرایی یک زنجیره مارکوف
15235
من دو نمونه A و B دارم. من همین مدل را برای A و B جداگانه اجرا می کنم تا تخمین ها را بدست بیاورم. اکنون می‌خواهم آزمایش کنم که آیا پارامترهای مدل‌های A با پارامترهای B با استفاده از SAS یکسان هستند یا خیر. لطفا راهنمایی کنید.
آزمایش تغییر رژیم در SAS
12186
در حال خواندن متنی به نام احتمال و آمار از دوور هستم. من به 2 مورد در صفحه 740 نگاه می کنم: مقدار مورد انتظار و واریانس تخمین $\beta_1$، که پارامتر شیب در رگرسیون خطی $Y_i = \beta_0 + \beta_1 X_i + \epsilon_i$ است. $\epsilon_i$ یک متغیر تصادفی گاوسی ($\mu = 0، variance=\sigma^2$) است و $\epsilon_i$ مستقل هستند. تخمین $\beta_1$ را می توان به صورت زیر بیان کرد: $\hat{\beta_1} = \frac{\sum (x_i - \bar{x}) (Y_i - \bar{Y})}{\sum(x_i- \bar{x})^2} = \frac{\sum (x_i - \bar{x})Y_i}{S_{xx}}$، که $S_{xx} = \sum (x_i - \bar{x})^2$. بنابراین، سوال من این است: چگونه $E(\hat{\beta_1})$ و $Var(\hat{\beta_1})$ را استخراج کنم؟ این کتاب قبلاً نتایج را ارائه کرده است: $E(\hat{\beta_1}) = \beta_1$ و $Var(\hat{\beta_1}) = \frac{\sigma^2}{S_xx}$. کار من در مشتق: $E\left(\frac{\sum (x_i - \bar{x})Y_i}{S_{xx}}\right) = E\left(\frac{\sum (x_i - \ نوار{x})(\beta_0 + \beta_1 x_i + \epsilon)}{S_{xx}}\راست) = E\left(\frac{\sum (x_i - \bar{x})\beta_1 x_i}{S_{xx}}\right)$، زیرا $\sum(x_i - \bar{x})c = 0$ و $E(c\epsilon) = 0$. اما من گیر کرده ام. همچنین، $Var\left(\frac{\sum (x_i - \bar{x})Y_i}{S_{xx}}\right) = Var\left(\frac{\sum (x_i - \bar{x} )(\beta_0 + \beta_1 x_i + \epsilon)}{S_{xx}}\right) = Var\left(\frac{\sum (x_i - \bar{x})\epsilon}{S_{xx}}\right) = Var\left(\frac{\sum (x_i - \bar{x})}{S_{xx}}\right) \sigma^ 2 دلار اما من گیر کرده ام. هر گونه کمکی قدردانی خواهد شد. با تشکر
مقدار مورد انتظار و واریانس تخمین پارامتر شیب $\beta_1$ در رگرسیون خطی ساده
39252
من سعی می کنم دقیق ترین رابطه بین دو متغیر را تعیین کنم (هر پیش بینی کننده در مقابل خروجی در نهایت). من می خواهم بدانم آیا رابطه خطی است یا log-linear یا log-log یا شکل دیگری. رویکرد سیستماتیک برای تعیین رابطه اساسی که کاملاً واضح نیست و گاهی اوقات وجود ندارد چیست؟ در برخی از مدل‌های رگرسیونی که من دیده‌ام، نویسنده 10 پیش‌بینی‌کننده داشته است، و سپس کل تابع را از خطی به ورود به سیستم تغییر داده و در نهایت قابلیت پیش‌بینی را دوبرابر کرده است (R^2 از ~40% به 80%). من کاملاً آگاه هستم که R^2 یا R^2 تنظیم شده بهترین گزینه برای تعیین رابطه نیست، اما فقط برای مثال است. پیشاپیش متشکرم
چگونه می توان بهترین رابطه (خطی، log و غیره) را بین متغیر(های) پیش بینی کننده ورودی و متغیر خروجی برای رگرسیون خطی چندگانه تعیین کرد؟
88207
چه زمانی تابع خودهمبستگی یک فرآیند ثابت به شدت کاهش یا غیرافزاینده است؟ آیا مارکوی بودن می تواند آن را واقعی کند؟ چه زمانی تابع همبستگی یک فرآیند ثابت (به شدت) افزایش می یابد؟ با تشکر
چه زمانی تابع خودهمبستگی یک فرآیند ثابت در حال کاهش/غیرافزایش است؟ مارکوین؟
12189
من به دنبال انجام یک تجزیه و تحلیل همبستگی متعارف (CCA) در R، با استفاده از بسته «CCA»، بر روی یک مجموعه داده چند برابری (به دست آمده از بسته موش) هستم. من می‌دانم که بسته «موش» به شما امکان می‌دهد مجموعه داده‌های کامل را جمع کنید و مدل‌های خطی و مدل‌های خطی کلی را با استفاده از فرمول‌ها انجام دهید، به عنوان مثال: mice.data <- mice(data, m = 5) mice.lm <- with(data = mice.data، exp = lm(y ~ x + ...)) pooled.mice.lm <- pool(mice.lm) اما فکر نمی کنم این توانایی را برای CCA دارد. دلیل آن این است که تابع pool به یک ماتریس واریانس کوواریانس نیاز دارد که CCA آن را محاسبه نمی کند. **سوال:** 1. بهترین راه برای ادغام مجموعه داده ها/نتایج من چیست؟ آیا انجام یک CCA روی هر مجموعه داده کامل به طور جداگانه معتبر است، سپس میانگین متغیرهای متعارف برای هر انتساب برای به دست آوردن مجموعه نهایی متغیرهای متعارف، معتبر است؟ 2. یا راهی برای انجام این کار به یکباره با یک مجموعه داده complete() با فرمت طولانی که شامل متغیرهای .id و .imp جداگانه است وجود دارد؟ به عنوان مثال برای سوال 1: متغیرهای 2-5 مجموعه پیش بینی کننده و متغیرهای 6-15 مجموعه معیار هستند. داده های ادغام شده که هر دو را شامل می شود برای تولید mice.data با هم نسبت داده می شوند. mice.data <- mice(data, m = 5) mice.data.list <- vector(list, 5) for (i در 1:5) { m.data <- full(mice.data, i) پیش بینی کننده ها <- m.data[, 2:5] criterions <- m.data[, 6:15] mice.data.list[[i]] <- cc(predictors, معیارها) } بنابراین من به لیستی از همبستگی های متعارف در هر مجموعه داده کامل منتسب می پردازم، که سپس باید نحوه میانگین/تجمیع آن ها را بفهمم. متناوباً، برای سؤال 2، من یک قاب داده واحد با یک متغیر .imp مجزا دارم که تعداد انتساب آن مجموعه داده را مشخص می‌کند، اما همچنان باید نحوه جمع‌آوری این نتایج را با هم، احتمالاً با یک تجمیع هوشمندانه، بیابم. ? شاید در واقع این امکان پذیر نباشد.
تجزیه و تحلیل همبستگی متعارف در یک مجموعه داده MICE
12180
من می خواهم توزیع یک جمعیت بسیار بزرگ با اندازه شناخته شده اما میانگین و واریانس ناشناخته را تخمین بزنم. من نمی توانم چیزی در مورد شکل توزیع اساسی فرض کنم. با این حال، من مطمئن هستم که مقادیر موجود در جمعیت، اعداد صحیح غیر منفی و غیرصفر هستند. من معتقدم که توزیع به طور طبیعی به گونه‌ای مجزا و به‌جای توزیع پیوسته در کل محدوده انجام می‌شود. من نمی توانم از کل جامعه نمونه برداری کنم اما می خواهم تابع چگالی احتمال را تخمین بزنم. من همچنین می خواهم سطحی از اطمینان از صحت توزیع تخمین زده شده را تضمین کنم. بهترین راه برای این کار چیست؟
تخمین توزیع یک جمعیت بسیار بزرگ با اندازه شناخته شده و واریانس ناشناخته
100636
حداکثر برآوردگر احتمال یک توزیع نمایی $f(x, \lambda) = \lambda e^{-\lambda x}$ $\lambda_{MLE} = \frac {n} {\sum x_i}$ است; من می دانم که چگونه می توانم آن را با پیدا کردن مشتق احتمال ورود و تنظیم برابر با صفر بدست بیاورم. سپس در یک مقاله آنلاین خواندم که متاسفانه این برآوردگر به وضوح مغرضانه است زیرا $<\sum_i x_i>$ در واقع $1/\lambda$ است اما $<1/\sum_i x_i > \neq \lambda$. چرا $<\sum_i x_i> = 1/\lambda$ است؟ اگر من در استنتاج عملگر $< >$ به معنای مقدار مورد انتظار درست باشم، پس فکر کردم $E(x_i) = 1/\lambda$ - یعنی مقدار مورد انتظار یکی از این $x_i$، $1/\lambda$ است. ، نه مجموع همه $x_i$ها. و آیا کسی می تواند مورد دوم بیانیه را توضیح دهد و اینکه چگونه این دو عبارت نشان می دهد که MLE مغرضانه است؟
بایاس تخمینگر حداکثر احتمال یک توزیع نمایی
49655
من سعی می‌کنم یک مدل رگرسیون لجستیک جریمه‌شده کمند را با داده‌های خاصی تطبیق دهم. من از lassoglm برای آن در متلب استفاده می کنم. من از تابع زیر استفاده می کنم [B,FitInfo] = lassoglm(X,Y,'binomial','Lambda',0.01,'CV',10); با استفاده از اعتبارسنجی متقاطع 10 برابری، هر بار از نمونه های مختلف برای تناسب با مدل استفاده می کند. با این حال، من متوجه نشدم که انحراف در این مورد به چه معناست. بگذارید بگوییم برای اولین اجرای اعتبارسنجی متقاطع، من k ویژگی غیر صفر دارم. برای اجرای بعدی، من یک مدل با ویژگی های m غیر صفر و غیره دارم. سپس انحراف چه چیزی را اندازه گیری می کند و چگونه نمودار با استفاده از آن lassoplot ایجاد می شود. پیشنهاد؟ در واقع من این رقم را نگرفتم. چه چیزی را مشخص می کند؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DAKzv.png)
انحراف در لاسوگلم چیست
21789
تیگواراپو و چاندرامولی (2005) روش ضریب همبستگی را برای درونیابی مکانی داده های رطوبت ذکر کرده اند که ضرایب بین یک نقطه و همسایه های آن را محاسبه کرده و از آن برای درونیابی استفاده می کند. R بسته های فضایی زیادی در سطوح مختلف دارد (sp، geoR، gstat، automap). من توانسته‌ام روش‌های زیادی از جمله روش‌های زمین‌آماری را که در R بخصوص برای اعتبارسنجی متقاطع پیاده‌سازی شده‌اند، بیابم. آیا کسی بسته ای می شناسد که روش فوق و مخصوصاً نسخه اعتبار سنجی متقاطع آن را پیاده سازی کند؟
ضریب همبستگی روش وزنی برای درونیابی فضایی
24185
من اخیراً با یک آماردان صحبت می کردم که پیشنهاد کرد استفاده از متغیرهای ساختگی به جای یک متغیر با چندین سطح، محدودیت های مدل ها را کاهش می دهد، به ویژه کاهش فرض خطی بودن. من توضیح را متوجه نشدم و می خواستم بدانم آیا کسی می تواند توضیح دهد؟
چرا متغیرهای ساختگی به جای یک متغیر عامل در مدل سازی؟
13582
سوال خیلی کوتاه تفاوت بین یک متغیر ابزاری و یک متغیر پروکسی در هنگام ساخت یک مدل رگرسیون دقیقاً چیست؟
متغیرهای پروکسی در مقابل متغیرهای ابزاری
17696
(بسیار از پاسخ های سریع متشکریم! من در پرسیدن سوال ضعیف عمل کردم، پس اجازه دهید دوباره امتحان کنم.) نمی دانم چگونه می توانم بفهمم که تفاوت بین دو همبستگی اسپیرمن از نظر آماری معنی دار است یا خیر. من می خواهم بدانم چگونه آن را پیدا کنم. دلیلی که می خواستم بدانم این است که در مقاله زیر: تفسیر معنایی مبتنی بر ویکی پدیا برای پردازش زبان طبیعی، توسط گابریلوویچ و مارکوویچ (_Journal of Artificial Intelligence Research_ 34 (2009) 443-498). در جدول 2 (ص 457)، نویسندگان نشان می دهند که روش آنها (ESA-Wikipedia) به همبستگی اسپیرمن بالاتر و از نظر آماری معنی داری نسبت به روش های دیگر دست می یابد، و من می خواهم همین کار را انجام دهم تا نشان دهم که روش من بهتر از روش های قبلی است. روش هایی برای برخی مشکلات من نمی دانم آنها اهمیت آماری را چگونه محاسبه کردند و دوست دارم بدانم. نویسنده مقاله بیان کرد که همبستگی رتبه اسپیرمن به عنوان همبستگی پیرسون در نظر گرفته شد. من مطمئن نیستم که آیا این راه درستی برای انجام آن است. من دو همبستگی اسپیرمن دارم و می‌خواهم بدانم که آیا تفاوت بین آنها از نظر آماری معنی‌دار است یا خیر؟ می‌دانم که وب‌سایت‌هایی مانند http://faculty.vassar.edu/lowry/rdiff.html، ماشین‌حساب آنلاینی را برای به دست آوردن تفاوت بین دو همبستگی پیرسون ارائه می‌دهند. من نمی توانم یک ماشین حساب آنلاین مشابه برای تفاوت بین دو همبستگی اسپیرمن پیدا کنم. ## راه حلی از پیوند ارائه شده توسط پیتر فلوم توجه: رویه ها فقط از همبستگی های Spearman که کمتر از 0.6 هستند پشتیبانی می کنند. 1. اجازه دهید $z_A$ = تبدیل فیشر از همبستگی مشاهده شده مجموعه $A$، $z_B$ = تبدیل فیشر از همبستگی مشاهده شده مجموعه $B$. 2. برای $i = 1,\dots,n$، اجازه دهید $y_{A_i} = nz_A- (n - 1)z_{A'i}$، که در آن $z_{A'i}$ تبدیل فیشر است $A$ از همبستگی یک سمت چپ را تنظیم کنید که با حذف $(x_i,y_i)$، رتبه‌بندی مجدد و محاسبه مجدد همبستگی به دست می‌آید. (هر $z_{A'i}$ براساس جفت‌های $n-1$ است؛ هر حذف موقتی است، فقط برای آن i، نه دائمی.) برای مجموعه $B$ تکرار کنید. 3. $\bar y_A = \sum y_{A_i}/n$ تبدیل فیشر جک‌نیف شده است. برای مجموعه $B$ تکرار کنید. 4. $v_{\bar y_A} = \sum (y_{A_i}-\bar y_A)^2 /(n(n-1))$ واریانس $\bar y_A$ است. برای مجموعه $B$ تکرار کنید. 5. از یک آزمون $t$-تست ناهمگن (Welch-Satterthwaite) برای مقایسه دو تخمین jackknifed استفاده کنید: $$ t = \frac{\bar y_A - \bar y_B}{\sqrt{v_{\bar y_A} + v_{ \bar y_B}}},\quad \text{df}=\frac{(v_{\bar y_A} + v_{\bar y_B})^2}{\frac{v_{\bar y_A}^2}{n_A-1}+\frac{v_{\bar y_B}^2}{n_B-1}} $$ که $n_A$ و $n_B$ به ترتیب تعداد نمونه‌های مجموعه $A$ و $B$ هستند. ## قبل از اولین ویرایش، مجموعه‌ای از رتبه‌بندی انسانی (HUMAN-RANKING)، مجموعه‌ای از رتبه‌بندی ایجاد شده توسط روش رایج مورد استفاده در حال حاضر (PRESENT-RANKING)، و در نهایت مجموعه‌ای از رتبه‌بندی ایجاد شده توسط روش هدف من دریافت کرده‌ام. (رده بندی من). من همبستگی اسپیرمن را بین رتبه‌بندی انسانی و رتبه‌بندی حال محاسبه کردم. بگذارید اسم این را بگذارم: انسان-حال- نیزه. سپس به همبستگی اسپیرمن بین HUMAN-RANKING و MY- RANKING پی بردم. بگذارید اسمش را بگذارم: HUMAN-MY-SPEARMAN. چگونه می توانم بفهمم که تفاوت بین HUMAN-MY-SPEARMAN و HUMAN-PRESENT-SPEARMAN از نظر آماری معنادار است؟
آزمون معناداری بر روی اختلاف ضریب همبستگی اسپیرمن
41876
این احتمالاً یک سؤال بسیار ساده است! من سعی می کنم دو گروه را در ارزیابی تعادل مقایسه کنم، یک گروه عادی و دیگری با نقص عصبی. با این حال، این دو گروه از نظر سنی تفاوت قابل توجهی دارند. از آنجایی که سن به طور قابل توجهی با نمره تعادل مرتبط است، آیا راهی برای مقایسه دو گروه من با در نظر گرفتن تأثیر سن وجود دارد؟ با تشکر
تفاوت بین دو گروه سنی نابرابر
41873
من به دنبال کتابخانه های موجود از پایتون برای محاسبه حاشیه ها بر روی یک مدل گرافیکی بدون جهت (یعنی یک فیلد تصادفی) با حلقه هستم. برخی از الگوریتم‌ها برای این کار می‌توانند LBP (انتشار باورهای حلقه‌ای) یا GBP (انتشار باور عمومی) باشند، اگرچه من نیازی به استفاده از الگوریتم خاصی ندارم. من SciKit Learn را بررسی کردم اما به نظر می رسد که آنها چیز زیادی برای مدل های گرافیکی ندارند.
محاسبه حاشیه ها بر روی یک مدل گرافیکی در پایتون
81636
اصطلاحات کوواریانس و کوواریانس ظاهراً به معنای یک و یک چیز هستند. آیا کوواریانس برابر با متغیر کمکی است؟
تفاوت بین کوواریانس و کوواریانس چیست؟
17697
من یک نماد نمونه در مساحت 60 متر مربع (متر مربع) از یک قلمرو 54077 متر مربعی دارم. این نمونه شامل تعداد گیاهان کوچکی است که برای هر متر مربع وجود دارد. نمونه در R به صورت زیر تعریف می شود: s=c(13,7,10,4,28,0,10,0,0,0,0,0,0,0,0,0,6, 0,0, 0,0,0,0,0,4,0,0,0,4,0,0,0,1,2,2,0, 2,3,3,3,1,3,12,33,1,31,0,1,21,0,3,1,8, 0,1,1,6,0,2,0) مجموع از `s` 227 است. برای محاسبه CI از `s` من از یک `t.test` استفاده کردم (همچنین توزیع عادی نیست: مشکل من این نیست). t.test(s) t = 3.9606، df = 59، p-value = 0.0002039 میانگین s = 3.783333 - 95 % فاصله اطمینان: 1.871905 - 5.694762 سؤال من این است: آیا می توانم فرض کنم که تعداد گیاه در کل CI باشد. قلمرو بین $1.871905 \ بار 227 \ بار (54077/60) - 5.694762 \ بار 227 \ بار (54077/60) دلار؟ فکر می کنم نه، زیرا شمارش بسیار ساده شده است، اما امیدوارم بله.
محاسبه فواصل اطمینان برای داده های شمارش
100632
من باید آزمایش کنم که آیا تفاوت بین 5 گروه از نظر آماری معنی دار است یا خیر. من باید از مدل های ترکیبی خطی با حداکثر احتمال محدود استفاده کنم. گروه و زمان باید فاکتورهای ثابت من و مقدار متغیر x متغیر وابسته باشد. میشه یه آموزش یا نمونه بهم معرفی کنید؟ اگر از Matlab استفاده کنید عالی می شود! با تشکر
مدل های خطی مختلط تفاوت بین گروه ها
12182
امیدوارم کسی در اینجا بتواند به من کمک کند تا یک مدل رگرسیون خطی را که در محل کار روی آن کار می کنم، اصلاح کنم. من به هیچ وجه آمارگیر نیستم، اما حدس می‌زنم که بیشترین تجربه (دوره آمار پایه و توانایی مناسب با اکسل) را در دفترم دارم. من وظیفه ایجاد مدلی را بر عهده گرفته ام که به پیش بینی قیمت آپارتمان (متغیر وابسته) در یک شهر خاص کمک کند. من داده ها را از خدمات فهرست چندگانه برای استفاده به عنوان متغیرهای مستقل خود جمع آوری کرده ام. داده‌هایی که من جمع‌آوری می‌کنم از کاندوهایی است که در 6 ماه گذشته فروخته شده یا در حال حاضر فعال هستند و بین 0 تا 2 سال سن دارند. داده ها همچنین به ساخت چهار طبقه چوبی در یک شهر خاص محدود شده است. متغیرهای مستقلی که من استفاده کرده ام عبارتند از: فوت مربع، طبقه بالا (متغیر ساختگی)، واحد گوشه (ساختگی)، نوع واحد (1 تخت، 2 تخت و غیره)، نوردهی (ساختگی، جهت آن)، مشخصات مواد (کیفیت اتمام). من از آن زمان مواجهه را از معادله حذف کردم زیرا از نظر آماری معنی دار نبود (t stat حدود 0.3 - 0.4 بود). همه ضرایب دیگر دارای t Stat بالای 2 هستند، با این حال دو تا از آنها مرا گیج می کنند. ضرایب واحد طبقه بالا و گوشه رابطه منفی دارند در حالی که منطقاً باید مثبت باشند. طبق تجربه من، واحدهای طبقه بالا و گوشه نسبت به واحدهای سطح پایین و داخلی برتری دارند. آیا کسی ایده ای دارد که چرا این می تواند باشد؟ من تا کنون حدود 40 نمونه دارم، آیا گسترش مجموعه داده‌هایم برای گنجاندن نمونه‌های بیشتر به رفع این مشکل کمک می‌کند؟ همچنین، من می‌دانم که قیمت‌های املاک و مستغلات می‌تواند به دلیل متغیرهای ذهنی که واقعاً نمی‌توانند در نظر گرفته شوند، مدل‌سازی مشکلی است. به هر حال، هر گونه کمکی قدردانی خواهد شد، زیرا من سعی می کنم در مورد رگرسیون یاد بگیرم که روی این کار می کنم! با احترام، راب
پالایش یک مدل رگرسیون خطی برای قیمت آپارتمان
17699
$X_1, X_2 \sim \text{i.i.d.} N(\mu, \sigma^2/n)$. هر ایده ای؟
نحوه یافتن انتظار $X_1X_2$ با توجه به $X_1$ و $X_2$ بصورت i.d. عادی؟
13584
در رابطه با سوال زیر من نمودار detrended و نمودار متفاوت را در لینک های زیر آپلود کرده ام (سعی کردم تصاویر را به پست اضافه کنم اما پیام خطای 'کاربر جدید' دریافت کردم). اگر کسی راهی برای ایجاد ارتباط آماری بین این دو بدون انجام تحلیل رگرسیون (به دلیل خط قرمز غیر ثابت) می داند، ممنون می شوم که بشنوم. http://imageshack.us/photo/my-images/27/differenced.jpg/ http://imageshack.us/photo/my-images/827/detrend.jpg/ * * * دارم سعی می کنم تمرین کنم چگونه می توان یک مجموعه از داده های سری زمانی را در مقابل مجموعه ای دیگر رگرسیون کرد. من یک نمودار از دو خط پیوست کرده ام: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jd5Lr.jpg) خط آبی (8 سال داده ماهانه) در همان زمان دارای یک بریپ است. هنگامی که خط قرمز (5 سال داده های نیمه سالانه) به سرعت افزایش می یابد. با کاهش خط قرمز، خط آبی به روند اصلی خود باز می گردد. آیا کسی روش استانداردی برای نشان دادن اینکه آیا خط قرمز باعث یا همراه با خط آبی در امتداد خطوط Step1: A و سپس مرحله 2: B...etc می‌داند؟ من دانش عملی رگرسیون داده های مقطعی دارم، اما بعد از 2 هفته تلاش برای حل این مشکل با گوگل و آزمون و خطا، خیلی بیشتر از این کار نمی کنم. من از اکسل استفاده میکنم از نظر آنچه من امتحان کرده ام... 1. با استفاده از آزمون آنلاین دیکی-فولر متوجه شدم که هر دو داده همبستگی خودکار دارند و ریشه واحد دارند. من همچنین باقیمانده‌های رگرسیون هرکدام را در برابر زمان با استفاده از آزمون D-W آزمایش کردم و این نیز همبستگی خودکار را نشان داد. 2. من خط آبی را با رسم نموداری از باقیمانده های یک رگرسیون در طول زمان حذف کردم. با این حال، خط بدون روند (باقیمانده ها) همچنان از نظر بصری روندی داشت که عجیب به نظر می رسید. همچنین طبق آزمون D-F ریشه واحد داشت. 3. من خط آبی را فقط با استفاده از داده ها تا شروع خط قرمز قطع کردم و هیچ روندی را نشان نداد. و سپس با شروع کاهش خط قرمز به روند بازگشت. در این بین همراه با خط قرمز به سمت بالا پرید اما عقب ماند. اگر نظری را بشنوم سپاسگزار خواهم بود.
تحلیل رابطه بین تغییرات دو سری زمانی
81209
من می‌خواهم گروه‌های مختلفی از پاسخ‌دهندگان را از بین حداکثر پنج متغیر مطالعه ارزش‌های اروپایی در سال 2008 شناسایی کنم. در ابتدا 4 سؤال را برای تجزیه و تحلیل خوشه‌ای در مقیاس 1 تا 10 مطرح کردم. با این حال، پس از انجام یک تحلیل خوشه‌ای دو مرحله‌ای، اندازه silhouette نزدیک به صفر بود و در نتیجه نشان دهنده یک راه حل ضعیف بود. بنابراین من می خواهم چند متغیر دیگر را انتخاب کنم. داشتم به این فکر می کردم: * چند وقت یکبار در مورد مسائل سیاسی با دوستان صحبت می کنیم [مقیاس از 1 (اغلب) تا 3 (هرگز)] * وضعیت سلامتی خود را در این روزها توصیف کنید [مقیاس از 1 (بسیار خوب) تا 5 (بسیار ضعیف)] * بیشتر مردم سعی می کنند از شما سوء استفاده کنند یا سعی می کنند منصف باشند [مقیاس از 1 (بیشتر مردم سعی می کنند از من سوء استفاده کنند) تا 5 (اکثر مردم سعی می کنند منصف باشند)] * چرا افرادی در این کشور هستند که در این کشور زندگی می کنند نیاز؟ کدام یک از دلایل را مهم تر می دانید؟ (چهار گزینه: به دلیل بدشانس بودن؛ به دلیل تنبلی و عدم اراده؛ به دلیل بی عدالتی در جامعه ما؛ بخشی اجتناب ناپذیر از پیشرفت مدرن است) دانش من در مورد تجزیه و تحلیل خوشه ای بر اساس Marija J. Norušis PASW Statistics 18 Statistical Procedures Companion است. و هر چیزی که در اینترنت پیدا کنم. متأسفانه، من قادر به یافتن پاسخ برای این سؤالات نیستم: 1. آیا باید پاسخ ها را دوباره رمزگذاری کنم تا همه آنها در یک مقیاس باشند؟ 2. آیا کاری هست که با سوال 4 گزینه ای انجام دهم؟ متشکرم
تجزیه و تحلیل خوشه ای، با مقیاس های مختلف چه باید کرد؟
81203
در اینجا نقل قولی از مقاله ای است که در مورد تکنیک های جاسازی غیرخطی خواندم: > این خانواده از تکنیک های جاسازی غیرخطی به عنوان جایگزینی برای > همتایان خطی خود که از محدودیت های شدید در هنگام برخورد با داده های دنیای واقعی رنج می برند، ظاهر شد: i) آنها فرض می کنند که داده ها در یک فضای اقلیدسی قرار دارند و > (ii) زمانی که تعداد نمونه ها خیلی کم است ممکن است شکست بخورند. من دلیل دو محدودیت ذکر شده در بالا را نمی فهمم، چرا وقتی تعداد نمونه ها خیلی کم است شکست می خورند و چرا محدودیت دیگر وجود دارد.
دو سوال در مورد محدودیت های تکنیک های جاسازی خطی
63605
من یک معمای آمار دارم من یک پایان نامه کارشناسی ارشد دارم که در آن دو گروه دستکاری شدند تا یا دیگران را در گروه خود بگنجانند، یا برای حذف دیگران (شامل c1 و انحصاری c2) دستکاری شدند. متغیر وابسته من این است که شرکت‌کننده مایل است چقدر مالیات بر درآمد برای گروه دیگر بپردازد، با این پیش‌بینی که از متون پیش‌بینی می‌شود که وقتی به طور فراگیر انتخاب شوند، مردم مقدار بیشتری مالیات برای آنها می‌پردازند (ما برای خودمان می‌پردازیم). ANOVA یک طرفه تفاوت معنی داری را بین گروه ها پیدا کرد. همچنین، تفاوت معناداری (در همان جهت) بین گروه ها در میزان هویت آنها با گروهی که باید برای آن هزینه کنند (هویت مافوق، که قرار است نشان دهنده دستکاری باشد) وجود دارد. در این مرحله من هیجان زده شدم. با این حال، بین هویت مافوق و DV من (میزان مالیات بر درآمد حاضر به پرداخت) همبستگی معناداری وجود ندارد. من واقعاً مطمئن نیستم که این یعنی چه؟ آیا این بدان معناست که دستکاری من مؤثر نیست؟ برای چیزهای دیگری که ممکن است برای DV مهم باشد اقداماتی انجام دادم. بسیاری از اینها به شدت با DV همبستگی داشتند. به عنوان مثال، نگرش نسبت به پرداخت مالیات (معنی است)، نگرش نسبت به گروه دیگر (معنی است)، میزان تهدید گروه دیگر (نتایج در زمینه چندان منطقی نبود). با این حال، تفاوت معنی‌داری در این اندازه‌گیری‌ها بین دو گروه وجود نداشت که نشان می‌دهد دستکاری تأثیر معنی‌داری بر این عوامل نداشته است. من یک رگرسیون چندگانه انجام دادم تا ببینم کدام پیش‌بینی‌کننده DV را بهتر پیش‌بینی می‌کند و این پیش‌بینی‌کننده‌های همبستگی قوی در مدل گنجانده شده‌اند، اما پیش‌بینی‌کننده مورد علاقه من (هویت برتر) نیست. حالا واقعا نمی دانم این یعنی چه. * چگونه بین گروه ها در DV و مقیاسی که دستکاری (هویت برتر) را منعکس می کند تفاوت معنی داری وجود دارد اما در سایر اندازه گیری ها تفاوت معنی داری بین گروه ها وجود ندارد؟ * علاوه بر این، چرا مقیاس هویت برتر من (منعکس کننده دستکاری) تفاوت معنی داری بین گروه ها پیدا می کند، اما با DV همبستگی ندارد یا در یک مدل MR برای پیش بینی DV گنجانده نشده است؟ یک شب بی قرار را با آن گذراندم که بارها و بارها در سرم می چرخید، اما هنوز نمی توانم بفهمم چه اتفاقی افتاده است. من متحجر هستم که کل پروژه من ممکن است وقت تلف کردن باشد.
چرا بررسی دستکاری من با نتیجه من ارتباط ندارد حتی اگر دستکاری اثر قابل توجهی داشته باشد؟
43431
من می خواهم مجموعه ای از فرکانس ها را با هم مقایسه کنم و مقدار p وابستگی آنها را تعیین کنم. یکی از آنها توزیع تهی فرکانس ها و دیگری توزیعی است که می خواهم آن را آزمایش کنم. داده ها به این شکل هستند: پس زمینه نوکلئوتیدی انتخاب شده 1 0.1489113 0.06074766 2 0.1428619 0.04205607 3 0.1189465 0.63084112 4 0.120905148 0.120905148 0108 0.07476636 6 0.1282073 0.04205607 7 0.2183589 0.09813084 من نمی توانم از تست $\chi^2$ استفاده کنم زیرا اعداد کمتر از 1 هستند. من سعی کردم مقدار $\log_2$ را بگیرم اما در نهایت با مقداری منفی می‌شوم. $\chi^2$ ممنوع است دوباره چگونه می توانم با این مقادیر تست استقلال انجام دهم و مقدار p را محاسبه کنم؟ ویرایش، اطلاعات اضافی: اساساً من روی توالی‌های DNA کار می‌کنم. من یک مجموعه پس‌زمینه از توالی‌ها دارم که مانند یک توزیع تهی عمل می‌کنند و از این پس‌زمینه تعدادی دنباله را برای یک عملکرد بیولوژیکی خاص انتخاب کرده‌ام. اکنون، من می‌خواهم توزیع جهش‌ها را در یک توالی کوچک از 7 نوکلئوتید در مجموعه توالی‌های انتخاب شده با پس‌زمینه مقایسه کنم. برای دستیابی به این هدف، من تمام مواردی را که این توالی با یک جهش در هر دو مجموعه وجود دارد، انتخاب کردم و فراوانی جهش را برای هر نوکلئوتید تعیین کردم (به عنوان مثال تعداد جهش در یک نوکلئوتید معین / تعداد کل جهش در تمام نوکلئوتیدها)، اینگونه است که من با آن فرکانس ها پایان می دهم. اکنون هدف من نشان دادن این بود که الگوی جهش در استخر انتخاب شده با توجه به پس زمینه واقعاً بسیار متفاوت است (63٪ از جهش ها در استخر انتخاب شده در نوکلئوتید 3 اتفاق می افتد و سایر نوکلئوتیدها به طور قابل توجهی جهش های کمتری را نسبت به جهش ها متحمل می شوند. پس زمینه) برای ارائه اطلاعات بیشتر، ستون انتخابی فراوانی 214 جهش را در 7 نوکلئوتید توصیف می کند در حالی که ستون پس زمینه فراوانی 120508 جهش بیش از 7 نوکلئوتید.
تست استقلال برای مقادیر بین 0 و 1
43436
برای بسیاری از الگوریتم‌های رگرسیون/طبقه‌بندی، نسخه بیزی آن را داریم. مانند رگرسیون خطی بیزی، رگرسیون لجستیک بیزی، شبکه عصبی بیزی. من به طور کامل ریاضی را در آنها درک نمی کنم، اما مزایای آن در مقایسه با الگوریتم اصلی چیست؟ آیا کاربرد عملی زیادی دارد؟
مزایای نسخه بیزی رگرسیون خطی، رگرسیون لجستیک و غیره چیست؟
90574
از یک کامپیوتر استفاده کنید و نمونه های تصادفی $50$، هر کدام به اندازه $n=25$، از یک توزیع احتمال عادی با $\mu=130$ و $\sigma=10$ تولید کنید. 1. فاصله اطمینان 95% را بر اساس میانگین هر نمونه محاسبه کنید. 2. چه نسبتی از این فواصل اطمینان شامل $\mu=130$ است؟ 3. توضیح دهید که نسبت یافت شده در قسمت (2) چه چیزی را نشان می دهد.
از یک کامپیوتر استفاده کنید و 50 نمونه تصادفی با اندازه n=25 از توزیع احتمال نرمال با μ=130 و σ=10 تولید کنید.
46597
احتمال یک دنباله از n آزمایش مستقل برنولی را می توان به راحتی به صورت $$p(x_1,...,x_n|p_1,...,p_n)=\prod_{i=1}^np_i^{x_i}( 1-p_i)^{1-x_i}$$ اما اگر آزمایشات مستقل نباشند چه؟ چگونه می توان احتمال تسخیر وابستگی را بیان کرد؟
آزمایشات برنولی وابسته
90577
من سعی می کنم تعیین کنم که آیا این یک روش آماری معتبر است یا خیر. من 1000 نمونه دارم و هر نمونه حدود 1-500 نقطه داده دارد. هر نقطه داده از دو کسر (مقدار 1 و مقدار 2) تشکیل شده است که از 0 تا 1 متغیر است. من سعی می کنم یک آزمایش دقیق فیشر را با دو کسر انجام دهم (من برای هر کسری در جدول 2x2 عدد و مخرج را دارم) برای آزمایش برابری آنها با این حال، در بررسی داده ها، متوجه شدم که، به طور کلی، کسرها برابر نیستند، بلکه مقدار 2 اغلب از مقدار 1 بیشتر است. به منظور تصحیح این موضوع، من می‌خواهم آزمون دقیق فیشر خود را با تغییر نسبت شانس تغییر دهم تا این فرضیه صفر اصلاح شده را منعکس کنم. در تنظیمات من، این نسبت شانس نباید در یک نمونه تغییر کند. من فکر می‌کنم نسبت شانس اصلاح‌شده باید انتظار نسبت value2/value1 در هر نمونه باشد. یکی از راه های بدست آوردن این نسبت این است که به سادگی یک رگرسیون مقدار2 روی مقدار 1 (برای هر نمونه) انجام دهیم. من این رگرسیون را از طریق مبدا انجام می دهم زیرا نقاط داده با value1=0 نیز باید مقدار2=0 داشته باشند. سپس، با استفاده از شیب این رگرسیون، مقدار جدیدی برای نسبت مورد انتظار (value2/value1) برای هر نمونه دارم و می‌توانم از آن به عنوان نسبت شانس در آزمون دقیق فیشر استفاده کنم. (توجه داشته باشید که برخی از نمونه ها فقط 1-5 نقطه داده دارند، بنابراین رگرسیون مقدار 2 روی مقدار 1 مشکل دارد، اما من می توانم شیب رگرسیون را با یافتن نمونه های مشابه تخمین بزنم). سوال من این است که آیا این روش از نظر آماری معتبر است؟ به نظر می رسد این ممکن است یک مورد بیش از حد مناسب باشد. همچنین، من مطمئن نیستم که آیا استفاده از داده ها قبل از انجام آزمایش آماری خود منطقی است یا خیر. با این حال، من فکر می‌کنم که این اساساً آزمایشی برای موارد پرت است، بنابراین استفاده از کل مجموعه داده معتبر به نظر می‌رسد.
اعتبار یک روش آماری برای محاسبه نسبت شانس برای آزمون دقیق فیشر؟
100631
من از Java API Weka برای اعمال طبقه بندی Naive Bayes در فایل arff. که ایجاد کرده ام استفاده می کنم. فایل (@data part) فرمت زیر را دارد: 0 0 0 0 1 0 ... 0 1 0 0 0 0 1 ... 0 . . . 0 0 1 0 0 1 ... 3 . . . 0 0 0 0 1 0 ... 5 که در آن هر عدد متعلق به [0,1] است، به جز آخرین عدد که کلاس [0,5] است. با توجه به اینکه من از اعتبارسنجی متقاطع 10 تقسیمی استفاده می کنم، آیا این اشتباه است که داده های من به صورت طبقه بندی شده باشد؟ آیا این امر منجر به گرفتن داده های آزمون از آخرین کلاس می شود؟ من ماتریس سردرگمی زیر را دریافت می کنم که بدیهی است اشتباه است: 0.0 |0.0 |0.0 |0.0 |0.0 |0.0| 0.0 |0.0 |0.0 |0.0 |0.0 |0.0| 0.0 |0.0 |0.0 |0.0 |0.0 |0.0| 0.0 |0.0 |0.0 |0.0 |0.0 |0.0| 42.0|14.0|15.0|114.0|233.0|7.0| 71.0|16.0|30.0|241.0|86.0 |7.0| آیا ایده ای دارید که چرا 4 کلاس اول فقط صفر هستند؟ فایل arff من دارای نمونه هایی از هر 6 کلاس است (نه به طور مساوی). ویرایش: من داده هایم را به هم ریختم و اکنون به نتیجه بسیار منطقی تری می رسم. 27.0|2.0|8.0 |24.0 |27.0 |2.0| 4.0 |2.0|0.0 |2.0 |1.0 |0.0| 6.0 |3.0|15.0|16.0 |19.0 |3.0| 29.0|4.0|13.0|326.0|87.0 |33.0| 20.0|5.0|7.0 |37.0 |110.0|6.0| 5.0 |0.0|1.0 |17.0 |8.0 |7.0| من از کدی که اینجا پیدا کردم استفاده می کنم. آیا اشکالی در آن وجود دارد؟
آیا یک کلاس مرتب شده به اعتبارسنجی متقاطع 10 تقسیم آسیب می رساند؟
45553
این بیشتر یک سوال برای اطمینان از اینکه درک خوبی دارم. 1. با فرض اینکه واریانس هر نمونه مشابه است، یعنی همگنی واریانس و $n_1$ و $n_2$ یکسان هستند. $$\text{df} = (n_1-1) + (n_2-1)$$ همچنین $$\text{MSE} = \frac{s_1^2 + s_2^2}{2}$$ 2. با فرض که واریانس هر نمونه مشابه است یعنی همگنی واریانس اما $n_1\neq n_2$ $$s_{x_1-x_2} = \sqrt{\frac{2\left(s_1^2+s_2^2\right)/ \left(n_1+n_2-2\right)}{1/n_1+1/n_2}}$$ $$\text{ df}= (n_1-1) + (n_2-1)$$ 3. همچنین، اگر می توانید فرض کنید که دو نمونه واریانس یکسانی دارند، می توانید آنها را ادغام کنید. $$s_p = \sqrt{\frac{\left(n_1-1\right)s_1^2 + \left(n_2-1\right)s_2^2}{n_1+n_2-2}}$$ با $\text {df} = n_1+n_2-2$ اما همچنین خوانده‌ام که از این روش استفاده نکنم 4. همچنین برای دقیق‌تر بودن استفاده از $$\text{df} آن را خوانده‌ام. = \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{1}{n_1-1}\left(\frac {s_1^2}{n_1}\right)^2+\frac{1}{n_2-1}\left(\frac{s_2^2}{n_2}\right)^2} $$ وقتی $n_1$ و $n_2$ هر دو بزرگتر از 5 باشند، خوب کار می کند. \frac{\left(\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}\right)^2}{\frac{s_1^4}{n_1^2\left(n_1- 1\right)}+\frac{s_2^4}{n_2^2\left(n_2-1\right)}} $$ صادقانه بگویم، نمی‌دانم از کدام یک استفاده کنم. من فکر می کنم استفاده از 4 خوب است، اما مطمئن نیستم که با کدام تست می آید. همچنین، چرا جمع کردن بد است (و اگر آنقدر بد است، چرا آن را در کتاب قرار دهید)؟ من برای آزمون آمار AP مطالعه می کنم.
یافتن درجات آزادی برای فاصله اطمینان برای اختلاف دو میانگین
41877
من داشتم این مقاله را می خواندم http://stat.wharton.upenn.edu/~lzhao/papers/MyPublication/MultiExpert_ICML_2009.pdf با این حال، من در این مقاله سردرگمی در رابطه با اشتقاق حداکثر احتمال دارم، ما پارامترهای مدل $\ را داریم. تتا = \\{w,\alpha,\beta\\}$ حداکثر احتمال توسط داده می‌شود $P(D|\theta) = \prod_{i=1}^{i=N}P(y_i^{1},...y_i^{R}|x_i,\theta)$ جایی که $y_i^1 ,...y_i^R$ برچسب های پر سر و صدایی هستند که توسط پیش بینی کننده های R من پیش بینی شده اند. سپس مقاله می‌گوید شرطی کردن روی برچسب واقعی، $y_i$ و همچنین با استفاده از این فرض که $\alpha^j$ و $\beta^j$ به نمونه $x_i$ بستگی ندارند، احتمال می‌تواند به صورت $P نوشته شود. D|\ تتا) = \prod_{i=1}^{i=N}P[y_i^1...y_i^R|y_i=1،\alpha].P[y_i=1,x_i,w] + P[y_i^1. ..y_i^R|y_i=0,\beta].P[y_i=0,x_i,w]$ من متوجه نشدم که چگونه این معادله استخراج شده است. هر گونه بینش مفید خواهد بود.
سردرگمی مربوط به احتمال
13586
من در حال حاضر با یک مجموعه داده طولی، بررسی شرکت Kauffman کار می کنم. این نظرسنجی حدود 5000 شرکت را از سال 2004 تا 2009 دنبال می کند. شرکت ها در طول سال ها از بین می روند. هم وزن مقطع دارد و هم وزن طولی. من بررسی های پیچیده Lumley را با استفاده از R بررسی کرده ام، اما بخش نمونه های مکرر راهنمایی در مورد استفاده از وزن های مختلف ارائه نمی دهد. من همچنین نمونه‌گیری از جمعیت‌های لوی و لمشو را دارم، اما بخش وزن‌دهی آن می‌گوید وزن‌های طولی خارج از محدوده کتاب است. صریح ترین توصیه ای که در این مورد پیدا کرده ام اینجاست: http://help.pop.psu.edu/help-by- statistical- method/weighting/Introduction%20to%20survey%20weights%20pri%20version.ppt، اسلاید 23. از این نقطه قدرت، موارد استفاده زیر را فرض می‌کنم: الف) فرض کنید می‌خواهم درآمد متوسط ​​را بدست بیاورم. از سال های 1،2،3، اما فقط برای شرکت هایی که تا سال 3 زنده مانده اند، از وزن طولی استفاده می کنم. ب) با این حال، اگر بخواهم میانگین درآمد همه شرکت‌ها را از سال‌های 1،2،3 (شامل شرکت‌هایی که منقرض شده‌اند) بدست بیاورم، از وزن پایه مقطع برای سال 1 استفاده می‌کنم - نه وزن‌های طولی آن سال، این همان چیزی است که من تصور می کردم باید مورد استفاده قرار گیرد. ج) در نهایت، اگر من فقط بخواهم به میانگین درآمد شرکت ها از سال 3 (بدون احتساب سال های 1 و 2) نگاه کنم، از وزن مقطعی برای سال 3 استفاده می کنم. سؤالات: 1\. آیا این گفته ها درست است؟ 2\. منابع خوب برای استفاده صحیح از وزنه های طولی (پانلی) کدامند؟
زمان استفاده از وزنه های طولی (پانلی) در مقابل وزنه های مقطعی در بررسی های پیچیده
63584
من در تشخیص الگوهای آماری تازه کار هستم و سعی می کنم یاد بگیرم. برای شروع، سعی می کنم با دو مشکل کلاس کار کنم و سعی می کنم فعالیت های حرکتی را همانطور که در مقاله طبقه بندی و تشخیص فعالیت مبتنی بر مسیر شی با استفاده از مدل های پنهان مارکوف ذکر شده است طبقه بندی کنم. در این مقاله، نویسندگان از GMM برای تخمین PDF برای هر کلاس الگوی حرکتی استفاده کرده‌اند. اما من چندین شک دارم و برای پاسخ های زیر سپاسگزار خواهم بود. آیا پی دی اف از مدل مخلوط گاوسی برای هر یک از 5 داده تجربی به دست می آید یا فقط برای هر کلاس؟ اگر برای هر کلاس است، پس چگونه انجام می شود؟ من واقعا نمی دانم و لطفا ببخشید اگر این خیلی بی اهمیت به نظر می رسد. 2. آیا همیشه لازم است pdf داده ها را قبل از طبقه بندی به طور کلی پیدا کنید؟ آیا pdf در تصمیم گیری برای انتخاب رویکرد مبتنی بر مدل برای هدف طبقه بندی کنترل می کند؟ 3. آیا چنین رویکردهای مبتنی بر مدل برای طبقه بندی وجود دارد؟ 4. تا جایی که من می فهمم، GMM یک الگوریتم خوشه بندی مانند k-means است. بنابراین، آیا راه های دیگری به جز استفاده از مدل پنهان مارکوف (من می خواهم از HMM به دلیل پیچیدگی های بیشتر در درک آن اجتناب کنم) برای طبقه بندی با GMM وجود دارد؟ 5. آیا می توان GMM را با مدل های رگرسیونی مانند AR، MA، ARMA برای طبقه بندی مبتنی بر مدل ترکیب کرد؟ اگر چنین است، پس اشاره به منابعی که این را توضیح می دهند مفید خواهد بود. 6. آیا پیاده سازی Matlab از GMM چند متغیره برای کاربرد طبقه بندی مذکور وجود دارد؟ پیشاپیش از شما متشکرم.
نحوه استفاده از مدل مخلوط گاوسی برای طبقه بندی الگوی چند متغیره
54464
من در سری های زمانی تازه کار هستم و مفهوم ثابت بودن مدتی است که من را درگیر کرده است:( تعریف ثابت بودن را می دانم اما 100% برای من روشن نیست که چرا مثلاً برای انجام زمان باید داده ها را با هم تفاوت دهیم. تجزیه و تحلیل سری می تواند به من یک مثال بسیار ساده و کوتاه از تجزیه و تحلیل سری های زمانی بدهد که در آن داده ها غیر ثابت هستند (به عنوان مثال نوعی رگرسیون) و رویه هایی را که باید انجام دهیم تا پیش بینی خوبی انجام دهیم. من دلیل تفاوت را تا اینجا فهمیدم: داده ها ثابت نیستند --> تفاوت داده ها (به عنوان مثال $\Delta x_t = x_t - x_{t-1}$) --> ایجاد مدل برای داده های متفاوت $\ دلتا x_t$ و حل ضرایب مدل --> پیش بینی $\widehat{x}_{t+m}$ با مدل --> عدم تفاوت داده های پیش بینی شده برای بدست آوردن بازگشت به مقیاس اصلی $\Delta^{-1}\widehat{x}_{t+m}$ آیا تفسیر من درست است یا خیر =) امیدوارم سوال من مبهم نباشد. دلیل اینکه من این سوال را پست کردم چون نمونه های کافی برای نشان دادن جزئیات رویه ها به من پیدا نکردم =(
به درک ثابت بودن کمک کنید
22912
می‌خواهم بدانم آیا ادبیاتی در مورد مشکل رگرسیون زیر وجود دارد: $$ Y=X\beta +\epsilon$$ که در آن $Y$ ناشناخته است. اما، من $X$ و تخمینگر OLS $\beta$ $$ \hat{\beta}=(X^\top X)^{-1}X^\top Y$$ را می‌دانم زیرا ارزش آن را می‌دانم $X^\top Y$ در واقع من یک مشکل معکوس برنامه نویسی درجه دوم دارم که در آن راه حل را می دانم و مشکل رگرسیون مرتبط با این حل را می خواهم. با تشکر
رگرسیون با متغیر وابسته ناشناخته
13587
برای اجرای یک فعالیت خاص، جمعیتی از شرکت ها از مجموعه محدودی از ورودی ها استفاده می کنند. 8 ورودی مختلف وجود دارد، اما هر شرکت ممکن است از همه آنها استفاده نکند. به عنوان مثال، شرکت 1 از ورودی های A، B و D استفاده می کند، در حالی که شرکت 2 از ورودی های B، D، E و F استفاده می کند. ورودی چه آزمون آماری را برای این کار پیشنهاد می کنید؟
شناسایی بیشترین نسبت در یک مجموعه بر اساس مجموعه مشترکی از شرکت ها
96801
من مدل های ترکیبی خطی تعمیم یافته را برای آزمایش اثرات یک درمان بر روی دو گروه مختلف انجام دادم (من برای هر گروه یک مدل انجام دادم). اکنون می‌خواهم آزمایش کنم که کدام یک از گروه‌ها بیشتر تحت تأثیر درمان قرار می‌گیرند، یعنی میزان پاسخ را مقایسه کنم. من می دانم که چگونه تفاوت در میانگین ها را آزمایش کنم، اما اکنون چگونه برای آزمایش تفاوت در یک قدر. آیا کسی می تواند به من سرنخی بدهد؟
چگونه می توان مقدار یک پاسخ را در بین دو گروه مقایسه کرد؟
49654
من آزمایش زیر را انجام می دهم: من شکاف هایی دارم که آنها را نظارت می کنم، شکاف می تواند اشغال شود / آزاد باشد. مطالعه در هر شکاف است، بنابراین ما در اینجا یک شکاف را مورد بحث قرار می دهیم. هرازگاهی نشانه‌های زیر را دریافت می‌کنم، برای مثال: «s(2)=free»، به این معنی که زمانی که یک نقطه آزاد بود (پس از اشغال آن) حداقل 2 دقیقه آزاد می‌ماند. من تمام این داده ها (سیگنال های `s(2)` و غیره) را در جداول جمع آوری می کنم. در اینجا یک مثال دیگر وجود دارد: `s(4)=occupy`، به این معنی که این اسلات در یک نقطه و سپس 4 دقیقه پس از اشغال آن آزاد بود. من می خواهم به این سوال پاسخ دهم: **چقدر شانس این است که یک نقطه به مدت X دقیقه آزاد بماند؟** در تلاش برای پاسخ به این موضوع، آن را به فواصل زمانی تقسیم کردم (1-2 دقیقه، 2-3 دقیقه، .. تا 10 دقیقه که حداکثر است). سپس هر نمونه را در یک بازه با مقدار آن (آزاد / اشغال) قرار دادم. مثلا برای فاصله 3-4 دقیقه من 120 آزاد و 60 اشغال دارم. پس برای این بازه i(3)=120/120+60=0.66 = 66% که در این بازه آزاد است. من می دانم i(1)=.. i(2)=.. و غیره نیز چیست. **چگونه می توانم سایر داده های بازه زمانی را که دارم در نظر بگیرم؟** واضح است که شانس آزاد ماندن نقطه در 3 دقیقه آینده 66٪ نیست، بلکه بر اساس نتایج بازه های دیگر نیز است.
محاسبه شانس رویداد در طول زمان از داده های نمونه
53111
بنابراین من به دنبال نحوه ترسیم داده های خوشه ای با ابعاد بالا بوده ام و یکی از گزینه هایی که پیش می آید یک نقشه حرارتی است. اگرچه صفحات وب زیادی وجود دارند که کدهایی را در مورد نحوه ایجاد یک صفحه ارائه می دهند، اطلاعات بسیار کمی در مورد نحوه تفسیر نقشه حرارتی وجود دارد. بنابراین می‌خواستم ببینم چگونه نقشه حرارتی زیر را تفسیر کنم؟ ![نقشه گرمایی و دندروگرام](http://i.stack.imgur.com/ToYNX.png)
تفسیر نقشه های گرمایی خوشه ای از R
13581
اگر یک پیش‌بینی‌کننده در یک رگرسیون لجستیک برای بیشتر محدوده بین «خوب» و «بد» تمایز قائل نباشد و فقط در مقادیر بالاتر یا پایین‌تر (یکنواخت) تمایز قائل شود، آیا متغیر باید به‌عنوان پیوسته یا ساختگی که محدوده را نشان می‌دهد استفاده شود. که در آن پیش بینی است؟
دسته بندی داده های پیوسته در رگرسیون لجستیک
41875
گلمن در مقاله پراستناد خود _ توزیع های قبلی برای پارامترهای واریانس در مدل های سلسله مراتبی _ (916 استناد تاکنون در Google Scholar) پیشنهاد می کند که توزیع های قبلی غیر اطلاعاتی خوب برای واریانس در مدل بیزی سلسله مراتبی، توزیع یکنواخت و توزیع نصف t است. اگر چیزها را درست بفهمم، وقتی پارامتر مکان (مثلاً میانگین) مورد توجه اصلی باشد، به خوبی کار می‌کند. گاهی اوقات پارامتر واریانس مورد توجه اصلی است، به عنوان مثال هنگام تجزیه و تحلیل داده‌های پاسخ انسانی از وظایف زمان‌بندی، متغیر زمان‌بندی معمولاً معیار مورد علاقه است. در آن موارد، برای من روشن نیست که چگونه می‌توان تنوع را به صورت سلسله مراتبی با توزیع‌های یکنواخت مدل‌سازی کرد، زیرا من پس از تجزیه و تحلیل می‌خواهم اعتبار واریانس میانگین را هم در سطح شرکت‌کننده و هم در سطح گروه به دست بیاورم. برای انجام این کار، باید از توزیع‌های قبلی استفاده کنم که می‌توانند با میانگین واریانس یا مشابه پارامتر شوند، درست است؟ سؤال من این است: ** هنگام ساخت یک مدل بیزی سلسله مراتبی، وقتی که واریانس داده ها مورد توجه اصلی است، چه توزیع هایی توصیه می شود؟** می دانم که توزیع گاما را می توان مجدداً پارامترسازی کرد تا با میانگین و SD مشخص شود. به عنوان مثال، مدل سلسله مراتبی زیر برگرفته از کتاب Kruschke Doing Bayesian Data Analysis است. اما گلمن در مقاله‌اش مشکلاتی را در مورد توزیع گاما بیان می‌کند و از پیشنهادهای جایگزین، ترجیحاً جایگزین‌هایی که برای کار در BUGS/JAGS چندان دشوار نیستند، سپاسگزار خواهم بود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZerKf.png)
وقتی میانگین واریانس مورد توجه است، چه توزیع های قبلی می تواند/باید برای واریانس در یک مدل بیزیسان سلسله مراتبی استفاده شود؟
96800
حداقل حد اطمینان طول برای واریانس جمعیت نرمال برای توزیع مجذور کای ![کد را اینجا وارد کنید](http://i.stack.imgur.com/4DQ1W.png) درست است؟ هدف: ایجاد یک مطالعه شبیه سازی با استفاده از R برای مقایسه دقت (95% نرخ ضبط) و طول فاصله اطمینان Chi-Squared: طول معمولی و حداقل. سپس، دریابید که فاصله معمولی از حداقل طول یک چقدر فاصله دارد. زیر کد R من برای تحریک است و می‌خواهم مطمئن شوم که درست هستند و قابل خواندن هستند. آیا کسی می تواند در مورد آنها به من نظر دهد؟ # ابتدا دنباله‌ای از اعداد را تولید می‌کنیم (با برچسب D برای مشتق‌شده) که از # در تابع quantile برای آزمایش کران‌های بالا و پایین بالقوه برای # معیارهای مشتق‌شده استفاده می‌کنیم. XAD کران پایینی خواهد بود.# n=10 start=3.283 max=3.284 interval=0.0001 XAD=seq(start,max,interval) # سپس با استفاده از تابع توزیع تجمعی # آن دنباله را به مجموعه ای از چندک ها تبدیل می کنیم. QXBD، چندک مکمل # برای فاصله اطمینان 95%، سپس تولید می‌شود. یک کران بالا.# XBD=qchisq(QXBD,n-1) # سپس یک عبارت خطا ایجاد می کنیم برای شرط مشتق شده به منظور تعیین # اینکه کدام کران بالا و پایین خطای قابل قبولی پایینی دارند، زیرا # انتظار داریم a^2*dchisq = b^dchisq# Error=abs(XBD^2*dchisq(XBD,n-1)- XAD^2*dchisq(XAD,n-1)) خطا<0.0005 XAD XBD # برای تجزیه و تحلیل بیشتر طول بازه، ما را انتخاب می کنیم مرزهایی که # خطای قابل قبولی پایینی دارند. اینها پررنگ هستند.# XAD=3.2836 XBD=26.07998 # در اینجا مجموعه ای از متغیرهای عادی تصادفی تولید می کنیم. مرزهای بالا و پایین برای # فاصله اطمینان متقارن استاندارد با تابع چندک # مشتق شده اند. =10 rnorm(10,0,20)->NORM var(NORM)->VAR qchisq(0.025,ns-1)->XAS qchisq(0.975,ns-1)->XBS # در نهایت مرزهای فاصله اطمینان را با استفاده از (n*V/a - nV/b) # برای بازه‌های مشتق شده و استاندارد محاسبه می‌کنیم. .# (ns)*VAR/(XAS^2)->UBS (ns)*VAR/(XBS^2)->LBS (n)*VAR/(XAD^2)->UBD (n)*VAR/(XBD^2)->LBD #نتیجه نهایی ما تفاوت در طول بازه بین بازه های #استاندارد و مشتق شده# است (UBS-LBS )-(UBD-LBD)
یک مطالعه شبیه سازی با استفاده از R ایجاد کنید تا دقت (نرخ ضبط 95٪) و طول فواصل اطمینان Chi-Squared را مقایسه کنید.
21783
من داده های شمارشی برای رویدادهای اندازه گیری شده در هر یک از افراد متعدد دارم. با این حال، مدت زمان مشاهده هر فرد متفاوت است. به طور معمول، اگر شمارش‌ها در مدت زمان مساوی به‌دست می‌آیند، من کاری شبیه این انجام می‌دهم: fit = lmer( data = my_data , formula = count ~ (1|individual) , family = poisson ) با این حال، مطمئن نیستم چگونه برای رسیدگی به امور زمانی که مقدار زمان نابرابر است. اگر تعداد هر فرد را به سادگی بر مقدار زمانی که مشاهده شده است تقسیم کنم، یک معیار شمارش در دقیقه بدست می آید، اما خانواده پواسون مقادیر غیر صحیح را در dv دوست ندارند. پیشنهادی دارید؟
شمارش داده ها از بازه های زمانی نابرابر
96809
اگر می خواهید یک PCA انجام دهید، حدس می زنم استفاده از SVD همیشه کارساز باشد. تجزیه ویژه در ماتریس کوواریانس فقط زمانی کار می کند که داده های شما ابعاد بالایی نداشته باشند (بنابراین n > p). اما من نمی دانم که آیا در عمل شرایطی وجود دارد که شما ترکیب ویژه را به SVD ترجیح می دهید؟
PCA: هنگام استفاده از eigendecompostion به جای تجزیه یک مقدار
53119
من به دنبال مجموعه داده ای هستم که بتوان برای ARIMA یا هر مدل پیش بینی استفاده کرد. داده ها باید به گونه ای باشند که در طی یک دوره زمانی محدوده ورودی ها تغییر کند، یعنی باند داده های ورودی به طور قابل توجهی تغییر کند. این باید به پیش بینی نادرست منجر شود. من باید خطا را در پیش بینی ببینم و باید مدل را دوباره آموزش دهم. من نمی خواهم شبیه سازی کنم و به دنبال مثالی در دنیای واقعی هستم.
مجموعه داده ها برای پیش بینی
53115
من یک مجموعه داده با N=51 دارم. مجموعه داده شامل دو گروه (n=26 و n=25) است. من یک متغیر نتیجه و یک متغیر کمکی دارم (هر دو متغیر ادامه دارند). من علاقه مندم که آیا تأثیر گروه بر اندازه گیری نتیجه وجود دارد یا خیر. من از یک مدل خطی کلی برای تخمین بتای گروه استفاده کردم. در GLM، من متغیر کمکی را درج کردم. با این حال، متغیر کمکی به طور قابل توجهی با گروه متغیر دوگانه (Pearson r=-.527، p(2-tailed)<.001) همبستگی دارد، و متغیر کمکی نیز با معیار نتیجه همبستگی حاشیه ای دارد (Pearson r=-.269، p(2-tailed)=.056). به دلیل این چند خطی بودن، فکر می کنم نمی توانم اثر گروه را تفسیر کنم. مقدار بتا در مدل بدون متغیر کمکی نسبتاً بزرگ و قابل توجه است. در مدل با متغیر کمکی، اثر گروه وجود ندارد (در واقع گروه بتا بسیار نزدیک به صفر است). تا آنجا که من می دانم، هیچ راه خوبی برای خلاص شدن از شر این چند خطی وجود ندارد (لطفا اگر اشتباه می کنم اصلاح کنید). بهترین چیز بعدی که به ذهن رسید، تخمین اثر متغیر کمکی **در** دو گروه است. اگر متغیر کمکی واقعاً مخدوش کننده است، تخمین ها باید در هر دو گروه معنی دار و مشابه باشند، درست است؟ من همبستگی متغیرهای کمکی و اندازه گیری نتیجه را برای هر دو گروه محاسبه کردم و نتایج زیر را به دست آوردم: گروه A (26=n): پیرسون r=0.047، p(2-tailed)=.819 گروه B (n= 25): پیرسون r=-.354، p(2-tailed)=.082 آیا این به این معنی است که می توانم تأثیر متغیر کمکی را نادیده بگیرم و با مدلی که این کار را انجام می دهد پیش بروم. متغیر کمکی را شامل نمی شود؟ با تشکر
سوال چند خطی
46604
من در درک روش مورد استفاده برای تجزیه و تحلیل نوع داده‌های زیر مشکل دارم: درجه دوره شناسه GLP NAB ROE ROA OSS ESS PMA P30 1 1 NA 1790835 769 0.3795033 0.1171393 1.66014 1.24139 0.007312334 1 2 NA 2597351 1143 0.5896583 0.188034 1.947474 1.748581 0.4865142 0.01906484 131347456. 0.1559151 1.814949 1.712795 0.4490202 0.02821528 2 3 16 12271110 15960 0.05 0.01 1.04 1.04 0.029 0.029 9290 -0.02 -0.01 0.96 0.7 -0.04 0.02 2 2 NA 11128069 1253 -0.03332067 -0.005665337 0.9908606 0.987104 0.987104 0.01818852 3 2 NA 820903 2225 0.06835087 0.004860066 1.012239 0.9919102 0.01209093 0.072 ... 9 2 7 20208. 1.027 0.982 0.026 0.008 10 2 NA 31731236 251352 0.07033455 0.01930156 1.11506 1.069495 0.10319206 0.10311856 33016098 247747 0.0750367 0.02032998 1.124112 1.086046 0.1104093 0.01443777 10 1 NA 251511189 20178 0.01133722 1.059813 1.052836 0.0564377 0.02853068 آنها به رتبه های اعتباری محاسبه شده در سه دوره اشاره دارند. متغیر وابسته درجه است (بنابراین مرتب شده) و همچنین به دوره های 1 و 2 بستگی دارد، اما تا دوره 3 اختصاص داده نمی شود و بنابراین وجود ندارد. من فکر کردم از GEE های مرتب شده با پیوند لاجیت استفاده کنم، اما در این صورت باید برای تجزیه و تحلیل همه چیز، بردار نمره 0 یا دوره 3 را برای هر موضوع قرار دهم. آیا ایده ای دارید که چگونه می توان مشاهدات گذشته را بدون جعل داده ها حفظ کرد؟ کمک بسیار قدردانی خواهد شد!
چگونه می توان نوع داده های مرتب شده را با مشاهدات گمشده گذشته تجزیه و تحلیل کرد؟
53112
مشکل این است: یک تولید کننده ادعا می کند که یک برند جدید از واحد تهویه مطبوع تنها 6.5 کیلووات برق در روز مصرف می کند، یک آژانس مصرف کننده معتقد است که رقم واقعی بالاتر است و آزمایشی را روی نمونه ای با اندازه 50 انجام می دهد. اگر میانگین نمونه باشد. 7.0 کیلووات با انحراف معیار 1.4، آیا ادعای سازنده باید در سطح معنی داری 5% ?از 1% رد شود؟ پاسخ این است: با فرض SRS که داریم: H0:mean=6.5 HA:mean>6.5 (فرآیند زیر را حذف کرده است) در اینجا، H0:mean=6.5 در کتاب، فکر نمی کنم درست باشد، باید باشد: H0:mean<=6.5 HA:mean>6.5 درسته؟
h0 مناسب چیست؟
58121
من باید مدلی بسازم که y به x (y~x) بستگی دارد. اما در حالی که من داده های معمول برای Y را دارم، من فقط محدوده ای از مقادیر را برای X دارم، به عنوان مثال. X=4..5; Y=2 X=4..5; Y=2.1 X=5..7; Y=3 .... X=10..12; Y=8 فکر می کنم از رگرسیون استاندارد و OLS نمی توان استفاده کرد. چه راهی برای ساخت مدل؟ مقدار Y در واقع نشان دهنده میانگین چندین مقدار است، مقادیر متناظر X ناشناخته هستند و فقط برای محدوده شناخته شده هستند.
ساخت مدل آماری
20786
برای داده های با ابعاد بالا، LASSO مفید است زیرا امکان تعیین چند متغیر کمکی مهم را فراهم می کند. من فکر می کنم سنجش فشرده ارتقاء LASSO است. با توجه به صفحه ویکی: > [برآورنده LASSO] راه‌حل‌های پراکنده را بازیابی کرد، اما نوع و تعداد اندازه‌گیری‌های مورد نیاز کمتر از حد بهینه بود و متعاقباً با حسگر فشرده بهبود زیادی یافت. آیا می‌توان از آن برای داده‌کاوی با ابعاد بالا استفاده کرد؟ آیا کسی می تواند مرجع ارائه دهد؟ متشکرم.
آیا سنجش فشرده می تواند برای داده کاوی اعمال شود؟
62559
من از یک مثال رگرسیون ساده $$Y=X\beta+\epsilon$$$X$ استفاده می کنم: ماتریس داده 10 در 15. $\beta$: بردار 15 در 1. $Y$: بردار 10 در 1. من از beta1 و beta2 برای مقایسه نتایج با یکدیگر استفاده می کنم. عنصر دوم در بتا2 1 است. چرا پس از اعتبارسنجی متقاطع، بتا2 پراکنده تر می شود (کمتر غیر صفر)؟ library(glmnet) beta1 <- c(0، 0، 2.2، 0، 0، 0، 0، -10، 0، 0، 0، -2.60، 0، 0، 0) beta2 <- c(0، 1، 2.2، 0، 0، 0، 0، -10، 0، 0، 0، -2.60، 0، 0، 0) X <- ماتریس (rnorm(10*15)، 10، 15) yhat1 <- X%*%beta1 yhat2 <- X%*%beta2 y1 <- rnorm(طول(yhat1)، میانگین=yhat1، sd=0.01) y2 <- rnorm(طول(yhat2)، mean=yhat2، sd=0.01) model1 = cv.glmnet(X, y1, nfold=3) model2 = cv.glmnet(X, y2, nfold=3) newBeta1 <- coef(model1) newBeta2 <- coef(model2) نتایج > as. vector(newBeta1)[-1] #first عنصر است intercept [1] 0.00000000 0.01635715 0.00000000 0.00000000 0.00000000 0.000000000 0.00000000 0.00000000 [8] -8.41872307 0.0000000000000 0.00000000 -1.49591818 0.00000000 0.00000000 [15] 0.00000000 > as.vector(newBeta2)[-1] [1] 0.00000000 0.0000000000.000 من beta2 قرار است کمتر پراکنده باشد (عناصر غیر صفر بیشتر)، اما چرا بعد از cv، عناصر غیر صفر بیشتری وجود دارد. چه خبر است؟ و چرا تخمین newBeta2 به دور است؟ کسی میتونه اینجا به من کمک کنه؟ خیلی ممنون
آیا ماتریس کمتر پراکنده با استفاده از اعتبارسنجی متقاطع تخمین دقیق تری ارائه می دهد؟
62554
با تعریف ریسک برآوردگر به عنوان زیان مربع مورد انتظار، آیا کاری وجود دارد که در مورد محدودیت‌های ریسک غیر مجانبی برای رگرسیون پواسون بر اساس برآورد حداکثر درستنمایی (MLE) بحث کند؟
مرزهای ریسک برای رگرسیون پواسون
96804
من به راهنمایی نیاز دارم که از کدام آزمون آماری استفاده کنم: می خواهم بدانم آیا ماهیت تماس قورباغه بسته به زمان روز تغییر می کند یا خیر. من 4 گونه قورباغه را به طور همزمان 3 بار برای چند روز مشاهده کردم. هر بار که قورباغه ای در حین مشاهده من صدا می کرد، طول و دامنه آن تماس خاص را ضبط می کردم. تفاوت گونه های طبیعی مانند سطح فعالیت (یک گروه فقط 60 بار و گروه دیگر بیش از 600 بار در طول مطالعه تماس گرفتند) و ویژگی های نامیده می شوند (یک گونه با صدای جیر جیر و دیگران با تریل های طولانی تماس می گیرد) که گفته می شود، من علاقه ای به این ندارم. تفاوت گونه ها من فقط به تفاوت‌های بین زمان روز به طور کلی علاقه دارم: آیا تأثیر کلی زمان روز در همه گونه‌ها وجود داشت؟ _اینها افکار من هستند، لطفا نظرات خود را به من بدهید که فکر می کنید بهترین/مناسب ترین است (من از SPSS استفاده خواهم کرد):_ 1) من در نظر داشتم یک مدل مختلط خطی انجام دهم زیرا می تواند داده های نامتعادل را مدیریت کند (چون فقط من دارای 60 نتیجه برای برخی و تا 600 نتیجه برای برخی دیگر) و سپس می توانم تفاوت های گونه های فردی را نیز توضیح دهم. 2) من همچنین در نظر داشتم از آنجایی که 60 کمترین تعداد تماس است، به طور تصادفی 60 مورد را از گروه های دیگر انتخاب کردم تا داده ها متعادل شوند - من 60 تماس در هر گونه خواهم داشت و سپس می توانم از ANOVA اندازه گیری های مکرر استفاده کنم. اما من نگرانم که این باعث شود بسیاری از داده ها را از دست بدهم، زیرا اکثر آنها صدها تماس را ایجاد کردند. 3) من همچنین در نظر داشتم فقط هر گونه را به طور جداگانه تجزیه و تحلیل کنم. اما آیا این هنوز باید به عنوان یک مدل مختلط خطی انجام شود زیرا داده ها همچنان نامتعادل هستند؟
ANOVA اقدامات مکرر یا مدل ترکیبی؟ و با تفاوت های گروهی گسترده؟
86256
من سعی می کنم بفهمم که چگونه در R تبدیل به عقب می شوم. فرض کنید مقادیر X و Y دارم: X<-c(1,2,3,4,5,6,7,8,9) Y<-c( 14،18،17،22،8،10،5،6،10) حالا فرض می کنیم که می خواهم Y را به ریشه مربع تبدیل کنم (یعنی sqrt(Y))، و X را به لاگ تبدیل کنم و سپس یک را اجرا کنم. مدل رگرسیون خطی ساده من می‌دانم که با چنین مجموعه نمونه کوچکی، چنین تبدیل‌هایی برای دستیابی به خطی بودن ایده‌آل نیستند، اما من فقط می‌خواستم سوال خود را با استفاده از این تبدیل‌های خاص توضیح دهم. به هر حال، روشی که من تبدیل برگشتی را فهمیدم این بود که Y را در واحدهای اصلی آن به دست آوردم، اما متوجه نشدم که چگونه واریانس باقیمانده (یا میانگین مربعات خطا) را محاسبه کنم. این کدی است که من برای جلوگیری از فواصل اطمینان جانبدارانه استفاده کردم: logX<-log(X) sqrtY<-sqrt(Y) hist(sqrtX) خلاصه<-lm(sqrtY ~ logX) سیگما<-summary(Summary)$sigma^ 2 سیگما NewX<-(logX)^2 NewX lm(Y ~ NewX) Back.X<-(logX)^2 NewX<-Sigma + NewX Back.lm<-lm(Y ~ NewX) من می دانم که نمودارهای تشخیصی مانند باقیمانده ها در مقابل برازش بهترین راه برای ارزیابی بهبود یک مدل پس از Y را تغییر می دهد، اما آیا کد بالا روش معتبری برای محاسبه میانگین مربعات خطا است؟ پاسخ به Moose (2/13/2014): آنچه که من می‌خواهم بگویم انجام دهید این است که از سوگیری تغییر شکل مجدد اجتناب کنید، بنابراین سؤال من این است: وقتی از مثال داده شده در R به عقب تبدیل می‌کنم، آیا فقط متغیر توضیحی را مربع می‌کنم * *یا** آیا لازم است نه تنها متغیر توضیحی را مربع کنم، بلکه واریانس باقیمانده تخمینی را نیز از شی Summary اضافه کنم (یعنی شیء NewX) به مدل جدید Back.lm می تواند توضیح دیگری داشته باشد که من پیشنهاد نکرده ام، اما نمی توانم به راه حل دیگری فکر کنم.
برگشت-تغییر متغیرهای تبدیل شده
2787
در User Interface Stack Exchange به من توصیه شد که این سوال را اینجا هم بپرسم. بنابراین... من در حال حاضر دارم کل اینترانت خود را از ابتدا بازسازی می کنم، بیشتر به این دلیل که فناوری پشت آن قدیمی است و ثابت شده است که یافتن بسیاری از اطلاعات دشوار است. اگر چه این موضوع در کنار موضوع است، اما آنچه که من تعجب می کنم این است که مقدار بهینه کاربران برای آزمایش کمی و کیفی با پایگاه کاربری حدود 1000 کاربر چقدر است؟ آیا یک قانون کلی برای هر دو بر اساس تعداد کل کاربرانی که دارید وجود دارد؟ یا فقط می گویند 5 برای کیفی و 10 برای کمی؟ بهترین رویکرد چه خواهد بود؟
چه چیزی برای استفاده از تعداد کاربران در مطالعات کاربردی کیفی و کمی توصیه می شود؟
96803
من مشاهدات $n_X$ از متغیر X، $n_Y$ از متغیر Y، و $n_Z$ از متغیر Z دارم. می‌خواهم این فرضیه را آزمایش کنم که میانگین واقعی $X$ برابر است با مجموع میانگین‌های Y و Z. $$H_0: \mu_X - (\mu_Y+\mu_Z) = 0$$ **افکار اولیه** می توانم از ابزار نمونه برای تعریف یک برآوردگر $\hat{\gamma} = \bar{y}_X - (\bar{y}_Y+\bar{y}_Z)$. آیا می توانم واریانس را با استفاده از $$\hat{\sigma}^2(\hat{\gamma}) = \sigma^2 (1/n_1+1/n_2+1/n_3) تخمین بزنم؟$$ اگر چنین است، آیا آمار آزمون $\hat{\gamma}/\sqrt{\hat{\sigma}^2(\hat{\gamma})}$ t-distributed?
آزمون فرضیه برای غیر خطی بودن
96805
من روی یک پازل/چالش برنامه‌نویسی برای سرگرمی کار می‌کنم، و یک سوال داشتم که آیا دو رویکرد برای انجام انتخاب تصادفی معادل هستند یا خیر. بیایید بگوییم که من یک کلاس عرشه دارم که در ابتدا شامل مجموعه ای از 52 کارت است. سپس من یک کلاس «کفش» دارم که مجموعه‌ای از «عرشه» را در خود جای داده است. آیا رویکردهای زیر از نظر آماری معادل هستند؟ رویکرد 1: یک «عرشه» تصادفی در «کفش» انتخاب کنید. سپس از عرشه انتخاب شده، یک کارت تصادفی را انتخاب کنید. رویکرد 2: همه کارت‌ها را از همه «عرشه‌های موجود در «کفش» به یک مجموعه بکشید و به‌طور تصادفی یک کارت از آن مجموعه انتخاب کنید؟ در حال استفاده، انتخاب بارها انجام می‌شود و کارت انتخاب شده از «عرشه» / «کفش» حذف می‌شود.
مقایسه الگوریتم انتخاب کارت تصادفی
48527
برای سری های زمانی آزمون علیت گرنجر وجود دارد. آیا آزمون علیت برای رگرسیون لجستیک وجود دارد؟
آزمون علیت برای رگرسیون لجستیک
62558
فرض کنید من 3 تحقق دو متغیر تصادفی غیر منفی و عدد صحیح $X$ و $Y$ را مشاهده کرده‌ام. هیچ چیز در مورد توزیع اساسی آنها مشخص نیست. نتایج $x = \\{4,~8,~2\\}$, و $y = \\{22,~11,~8\\}$ بود. بنابراین، $\overline{x} = 14/3$ و $\overline{y} = 41/3$، برای یک نمونه تفاوت میانگین 9 دلاری. سوال من این است: آیا راهی برای انجام یک آزمون فرضیه آماری معنی دار وجود دارد تا تصمیم بگیریم که آیا $H_0: E(X) = E(Y)$ می تواند رد شود؟ اولین ایده من استفاده از آزمون t دو نمونه ای یا تست Welch بود، اما حدس می زنم حجم نمونه برای آن بسیار کم باشد. آیا چیزی وجود دارد که بتوان آن را به طور منطقی آزمایش کرد؟
تفاوت تست بین نمونه هایی با حجم نمونه بسیار کوچک
44609
من احتمال یک رویداد را با استفاده از دو روش مختلف بر اساس جنبه های کاملاً متفاوت رویداد محاسبه می کنم. هر دو روش به یک درصد می رسند. آیا راهی برای ترکیب این دو درصد در یک درصد وجود دارد؟ درصد اول مهمتر از درصد دوم است و این باید در محاسبه در نظر گرفته شود. به عنوان مثال امروز درصد 1 (P1) 52٪ و درصد 2 (P2) 63٪ ​​است. اجازه دهید من برخی از اطلاعات را به عنوان درخواست اضافه کنم. اطلاعات آماری من به دانشگاه سال اول محدود شده است. من اصطلاحات اولیه محدودی را می دانم، اما خوشحالم که در مورد یک موضوع مطالعه می کنم. فقط باید یک جهت به من نشان داده شود، بقیه کارها را خودم می توانم انجام دهم. متأسفانه نمی توانم اطلاعات زیادی در مورد منبع داده ها یا هدف نتیجه بدهم، اما می توانم چند مثال بزنم. روش میانگین وزنی پیشنهاد شده برای این منظور کار نمی کند. تصمیم در درجه اول با استفاده از P1 گرفته می شود. P2 بر تصمیم گیری تأثیر می گذارد. برخی از نمونه‌های زیر، درصدها فقط گویا هستند. P1 P2 تصمیم 82% 67% بله 76% 55% شاید 80% 26% خیر 56% 70% بله 30% 80% خیر 50% 80% بله 50% 50% شاید شماره P1 باید به تدریج با یک > تقویت شود 50٪ P2 و ضعیف شدن توسط <50٪ P2. به عنوان مثال، ترکیب 82 درصد و 67 درصد بالا باید به درصدی بیشتر از 82 درصد مثلاً 85 درصد یا بیشتر منجر شود. امیدوارم اطلاعات اضافی کمک کند.
ترکیب دو درصد
56935
![هیستوگرام داده‌های من](http://i.stack.imgur.com/dDglK.jpg) من مجموعه‌ای از داده‌ها را دارم که به نظر من می‌توان آن‌ها را از توزیع پواسون تلقی کرد (همه آنها مثبت هستند و نشان‌دهنده روز). من باید چندین رگرسیون را با R، با استفاده از این داده ها به عنوان متغیرهای وابسته انجام دهم. من مدل‌های خطی (دستکاری داده‌ها با استفاده از تبدیل Box-Cox) و «glm» را با همه خانواده‌های ممکن امتحان کردم، اما وقتی بررسی می‌کنم که آیا باقیمانده‌ها به طور معمول توزیع شده‌اند (با استفاده از آزمون شاپیرو)، پاسخ همیشه منفی است. آیا نظری در مورد هر خانواده توزیع احتمالی دیگری دارید؟ با تشکر
توزیعی شبیه به پواسون؟
14916
طبقه بندی الگو توسط دودا، هارت، استورک (بخش 9.6.8) بیان می کند که مجموعه آموزشی 2 کلاسه از $d+1$ یا کمتر نمونه ها در یک فضای d-بعدی همیشه به صورت خطی قابل تفکیک است، یعنی اگر نمونه ها در محدوده $d$ قرار گیرند. ابعاد و نه در هیچ فضای فرعی $d$. به طور خلاصه، برای $n \le d + 1$، که در آن $n$ تعداد نمونه‌ها است، یک ابر صفحه جداکننده وجود دارد. چگونه می توان آن را ثابت کرد؟
چگونه می توان ثابت کرد که اگر تعداد نمونه ها کمتر از $d+1$ باشد، مجموعه نمونه به صورت خطی قابل تفکیک است؟
62553
این ممکن است یک سوال نسبتا ساده در مورد آمار بیزی باشد. مورد استنتاج بر روی خواص توزیع نرمال $N(µ,σ²)$ را در نظر بگیرید. اگر استاندارد غیر اطلاعاتی قبلی را روی σ² $1/σ²$ فرض کنیم، توزیع پسین حاصل $$ p(µ,σ²|y) ∝ (\frac{1}{σ²}) ^{\frac{N+1} {2}} exp(-\frac{Ns^{2}_{y}}{2σ²})\frac{1}{σ²}exp(-\frac{(y-\bar{y})²}{2σ²/N} ) $$ گفته می شود که **شکل بسته** دارد زیرا حاصلضرب توزیع گامای معکوس برای σ² و توزیع نرمال شرطی برای μ را فاکتور می کند. این بدان معناست که می‌توانیم مستقیماً از توزیع خلفی σ² از طریق رسم از توزیع گامای معکوس ترسیم کنیم، و سپس از توزیع خلفی μ از طریق رسم از توزیع نرمال ترسیم کنیم. این را می توان با کد R زیر انجام داد (به علاوه با تکیه بر برخی آمار خلاصه): S <- sum((داده - میانگین(داده))^2) n <- طول(داده) Sigma2 <- S/rchisq(5000, n-1) mu <- rnorm(5000,mean=mean(data),sd=sqrt(sigma2)/sqrt(n)) حتی وجود ندارد نیاز به عادی سازی تا اینجای کار خیلی خوبه. اکنون مورد شکل دیگری از تابع درستنمایی را در نظر بگیرید: $$ p(y|µ,σ²) = (\frac{1}{2πσ²})^{N/2} exp(-\frac{Ns^{2 }_{y}}{2σ²}) exp(-\frac{(y-\bar{y}+0.5)²}{2σ²/N}) - (\frac{1}{2πσ²})^{N/2} exp(-\frac{Ns^{2}_{y}}{2σ²}) exp(-\frac{(y-\bar{y} -0.5)²}{2σ²/N}) $$ یعنی احتمال قرار گرفتن یک مقدار واقعی در فاصله گرد کردن که منجر به مشاهده می شود. چگالی خلفی در حال حاضر متناسب با **تفاوت** دو محصول توزیع گامای معکوس و عادی شرطی است. آیا هنوز هم می توانم از همان رویکرد برای ترسیم از توزیع پسین استفاده کنم، یا این غیرممکن است زیرا توزیع پسین حاصل دیگر محصول توزیع های شناخته شده نیست؟
توزیع خلفی متغیر با توزیع نرمال در بازه زمانی
48529
من دو مجموعه داده از انتخابات عمومی (در یک سیستم چند حزبی تک رای) دارم که سعی دارم آنها را تحلیل کنم. هر کدام دارای حدود 10000 نقطه داده (رای گیری) با بیش از 30 ویژگی است - ویژگی های اصلی تعداد آرایی است که هر حزب به دست آورده است (بیایید آنها را با $P_i$ برای $i=1،...,N_{parties}$ نشان دهیم، اما من همچنین ویژگی هایی برای تعداد رای دهندگان واجد شرایط برای آن برگه رای دارم (تعداد آرای معتبر واقعی البته مجموع شمارش هر حزب است، بنابراین می توانم نیز محاسبه کنم مشارکت در هر برگه رای نیز دارای یک نماد است (که یک عدد است اما هیچ معنای عددی ندارد، من از تجزیه و تحلیل خود که عمدتاً با استفاده از PCA انجام می شود) راضی هستم. حدود 98 درصد از واریانس، دو مورد اول حدود 70 درصد، بنابراین ترسیم همه چیز در دو کامپیوتر اول، نمودار پراکندگی معنی‌داری به دست می‌دهد، و خوشه‌بندی K-Means (در رایانه مجموعه داده اصلی، قبل از PCA) که به خوبی برگه های رأی را بر اساس ترکیب سیاسی محلی جمعیت در آن برگه رای تقسیم می کند، اکنون می خواهم به مقایسه دو مجموعه داده برای مشاهده تغییرات سیاسی در طول زمان بپردازم. من در اینجا سه ​​مشکل مختلف دارم، اساسا. از آسان به دشوار عبارتند از: 1. مجموعه آراء در دو انتخابات یکسان نیست. برخی از برگه های رای، عمدتاً در نتیجه تقسیم یک برگه رای به دو برگه جدید، جدید هستند. اما بیایید بگوییم که بدون نقشه برداری بین برگه های رای قدیم و جدید، تنها کار معقولی که می توانم انجام دهم این است که تجزیه و تحلیل خود را به برگه هایی که در هر دو سال وجود داشت محدود کنم. 2. مجموعه احزاب در دو انتخابات یکسان نیست، برخی از احزاب مهم جدید هستند (به دلیل تغییر در صحنه سیاسی)، برخی احزاب قدیمی به سادگی ناپدید شدند/یکپارچه شدند و در احزاب جدید متحد شدند، و برخی از احزاب یکسان هستند اما دچار چنین شرایطی شدند. تغییر بزرگی که مقایسه آنها تا حدودی گمراه کننده خواهد بود. 3. اما مشکل عمده روش شناختی که نمی دانم چگونه پاسخ دهم این است: حتی اگر مجموعه برگه های رای و مجموعه احزاب یکسان باشد، چگونه بین دو مجموعه از ویژگی ها - که مربوط به انتخابات قدیمی و از جدید، به طوری که تجزیه و تحلیل می داند چگونه $P_{i_{old}}$ را با $P_{i_{new}}$ برای هر $i$ مقایسه کند. من نمی‌توانم فقط ویژگی‌های دو انتخابات را در یک مجموعه داده ترکیب کنم، زیرا اطلاعات مربوط به انتخاب هر ویژگی از بین می‌رود، و حتی بدتر: $P_{i_{old}}$ و $P_{ حتی ممکن است i_{new}}$ را به خوبی همبستگی در نظر بگیریم و یکی از آنها در هر نوع کاهش ابعاد در ویژگی‌ها کنار گذاشته شود. بنابراین اساساً من می‌خواهم PCA و خوشه‌بندی را مانند قبل انجام دهم، اما همچنین می‌خواهم چیزی در مورد تفاوت بین این دو مجموعه داده به صورت ماشینی بیاموزم (به عبارت دیگر: مجموعه داده من در اینجا 3 بعدی است، نه 2 بعدی). به طور خلاصه، من از هر گونه پیشنهادی برای رسیدگی به هر سه مشکل سپاسگزار خواهم بود.
مقایسه داده های رای گیری از دو انتخابات متوالی
86257
من سعی می کنم یک ردیابی چند هدفه با فیلتر کالمن پیاده سازی کنم. هر شی دارای یک نمونه از فیلتر Kalman است. موقعیت واقعی اشیاء $(x,Y)$ وضعیت تصحیح شده خارج از KF پس از مراحل پیش‌بینی و تصحیح است. تا الان همه چیز مشخص است. برای ارتباط مشاهدات با اجسام من از فاصله اقلیدسی تا کنون استفاده می کنم. اما من اینجا خوانده‌ام که می‌توان از فاصله رافینه‌تری استفاده کرد: فاصله mahalanobis، که شکل دروازه تداعی را در نظر می‌گیرد. این شکل با توجه به اینکه KF با پی دی اف گاوسی سروکار دارد یک بیضی است، در آنجا میانگین مرکز و شکل کوواریانس است. حالا، من گیر کرده ام که این دو پارامتر را از کجا باید دریافت کنم. من فکر می کنم که برای میانگین می توانم حالت پیش بینی شده را از KF خارج کنم. اما در مورد ماتریس کوواریانس چطور؟ به طور خاص، من از اجرای OpenCV فیلتر Kalman استفاده می کنم، و با خواندن در منبع، آن دو ماتریس را دارم که در هر مرحله پیش بینی به روز می شوند: Mat errorCovPre; //!< ماتریس کوواریانس برآورد خطای قبلی (P'(k)): P'(k)=A*P(k-1)*At + Q)*/ Mat errorCovPost; //!< ماتریس کوواریانس تخمین خطای پسینی (P(k)): P(k)=(I-K(k)*H)*P'(k) من واقعاً مشتق احتمالی فیلتر کالمن نیستم. مناسب چیست؟
ردیابی چند هدف: گیت ارتباط را از فیلتر کالمن محاسبه کنید
79987
من در مورد بخشی از اثبات تصحیح بونفرونی در ویکی پدیا گیج شده ام. آنها اثبات را اینگونه فهرست می کنند: فرض کنید فرضیه های $m$ با مقادیر p-m$ دارید. فرض کنید $I_0$ مجموعه شاخص فرضیه هایی باشد که برای آنها $H_0$ درست است. سپس احتمال حداقل یک خطای نوع I با $$P\left\\{ \bigcup_{I_{0}}\left(p_{i}\leq\frac{\alpha}{m}\right) محدود می‌شود. \راست\\} \leq\sum_{I_{0}}\left\\{P\left(p_{i}\leq\frac{\alpha}{m}\right)\right\\}\leq m_{0}\frac {\alpha}{m}\leq m\frac{\alpha}{m}=\alpha.$$ با این حال، اگر بخواهم آن را با احتمالات شرطی بنویسم، چیزی شبیه به این دریافت خواهم کرد: اجازه دهید $H_i=0 دلار اگر فرضیه صفر $i$th درست است و در غیر این صورت $H_i=1$. سپس محاسبه فوق باید به این صورت باشد: $$P\left(\bigvee_{i\in I_{0}}\left(p_{i}\le\frac{\alpha}{m}\right)|H_{i }=0\mbox{ f.a. }i\in I_{0}\right)\le\sum_{i\in I_{0}}P\left(p_{i}\le\frac{\alpha}{m}|H_{i}=0\right)\le m_0\frac{\alpha}{m}\le\alpha .$$ مشکل من زیر است، آیا اولین نابرابری با $$P\left(\bigvee_{i\in) نباید باشد I_{0}}\left(p_{i}\le\frac{\alpha}{m}\right)|H_{i}=0\mbox{ f.a }i\in I_{0}\right)\le \sum_{i\in I_{0}}P\left(p_{i}\le\frac{\alpha}{m}|H_{i}=0\mbox{ f.a. }i\in I_{0}\right)$$ و اگر درست باشد، چگونه می توانم به $$\sum_{i\in I_{0}}P\left(p_{i}\le\frac{\alpha} برسم {m}|H_{i}=0\mbox{ f.a }i\in I_{0}\right)\le\sum_{i\in I_{0}}P\left(p_{i}\le\frac{\alpha}{m}|H_{i}=0\راست)؟$$ اگر این احساس را دارید که نسخه ویکی‌پدیا بی‌صدا شرایط را تغییر داده است . مشکل این است که توزیع حاشیه ای $i$th p-value ($i\in I_0$) مشروط به $H_{i}=0\mbox{ f.a. }i\in I_{0}$ نیست یکنواخت برخلاف زمانی که ما فقط $H_i=0$ را شرط می کنیم.
تصحیح بونفرونی بر حسب احتمالات مشروط
9464
من سعی می کنم به طور کامل فاصله اطمینان ارائه شده در این سایت را درک کنم: $$\hat{\mu}\pm z_{1-\alpha/2}\sqrt{\frac{\hat{\mu}(1- \hat{\mu})}{n}}$$ تا بتوانم همان نوع فواصل را برای داده‌های خودم بازتولید کنم. اما من دقیقاً نمی فهمم پارامترهایی مانند $\alpha$ و $Z$ به چه معنا هستند. من حدس می‌زنم که اگر داده‌های شما به طور معمول توزیع شده باشد، آنها با تعریف فاصله اطمینان 95٪ مرتبط هستند. آیا می توانید برای من توضیح دهید که آن فرمول چگونه کار می کند یا مرجعی که بتوانم توضیحی از فرمول استفاده شده پیدا کنم؟
آیا کسی می تواند جزئیاتی در مورد یک فرمول فاصله اطمینان خاص به من بدهد؟
58126
من یک مجموعه داده بسیار بزرگ و پراکنده از حساب‌های اسپم توییتر دارم و برای اینکه بتوانم توزیع (هیستوگرام، kde و غیره) و cdf متغیرهای مختلف (تعداد_توییت، تعداد فالوور/دنبال‌کننده) را به تصویر بکشم، باید محور x را مقیاس‌بندی کنم. و غیره). > describe(spammers_class1$tweets_count) var n میانگین sd میانه برش خورده دیوانه حداقل محدوده حداکثر دامنه انحراف انحرافی se 1 1 1076817 443.47 3729.05 35 57.29 43 0 669873 669873 657.269 3.59 در این مجموعه داده، مقدار 0 اهمیت زیادی دارد (در واقع 0 باید بالاترین چگالی را داشته باشد). با این حال، با مقیاس لگاریتمی، این مقادیر نادیده گرفته می شوند. من به عنوان مثال فکر کردم مقدار را به 0.1 تغییر دهم، اما منطقی نیست که حساب های اسپم وجود داشته باشند که 10^-1 دنبال کننده دارند. P.S من عمدتاً از Python برای تجزیه و تحلیل استفاده می کنم، اما اگر کار آسانی در این زبان ها وجود داشته باشد می توانم از Matlab یا R استفاده کنم.
رسم 0 در یک محور log مقیاس شده
1790
من سعی می کنم چندین روش را با عملکرد آنها در مجموعه ای از نمونه های داده مصنوعی مقایسه کنم. برای هر روش، مقدار عملکردی بین 0 و 1 برای هر یک از آن نمونه ها به دست می آید. سپس نموداری را با میانگین عملکرد در هر روش رسم می‌کنم. مشکل اکنون این است که کیفیت قابل دستیابی به ازای هر نمونه بین نمونه‌های مختلف به شدت متفاوت است (اگر تعجب می‌کنید که چرا، من نمودارهای تصادفی ایجاد می‌کنم و روش‌های تشخیص جامعه را بر روی آنها ارزیابی می‌کنم، و گاهی اوقات اتفاقات عجیبی رخ می‌دهد. مانند عناصری از همان جامعه به دلیل پراکندگی و غیره قطع می شوند). بنابراین نمایش نوارهای خطا بر اساس انحراف استاندارد یا خطای استاندارد واقعاً بزرگ می شود. تصور کنید یک روش [1، 0.5، 1] و روش دیگر (یکی همان سه نمونه) [0.5، 0.25، 0.5] را به دست می‌آورد. کدام معیار را می توانم اعمال کنم تا *تأکید بر واریانس بین نمونه ها در سری ها نباشد و بر این واقعیت تأکید کنم که روش 1 همیشه از روش 2 بهتر است؟ یا، به بیان دیگر، چگونه می توانم آزمایش کنم که آیا روش 1 به طور قابل توجهی بهتر از روش 2 است، بدون اینکه توسط طیف مختلف نقاط داده منفرد گمراه شوم؟ (همچنین توجه داشته باشید که من معمولاً بیش از دو روش برای مقایسه دارم، این فقط برای مثال است) با تشکر، نیک **به روز رسانی** یک کاری که انجام دادم این است که برای هر روش شمارش کنم که عملکرد آن چند برابر است. 95% عملکرد برتر. تصویر تقریباً به نفع واریانس مبتنی بر نمونه صحبت می کند، نه روش های قوی در مقابل روش های کمتر قوی. با این حال، من هنوز در مورد چگونگی ایجاد یک بیانیه آماری معتبر از آن نامشخص هستم. ** به روز رسانی دو سال بعد ** فقط این پاسخ را دوباره پیدا کردم. فقط برای هر کسی که تصادفاً به این موضوع برخورد کند: من با یک آزمون علامت رفتم: روش x چند بار بهتر از روش y است. سپس فرضیه صفر این است که اگر تفاوتی وجود نداشته باشد، یکی باید در 50٪ موارد بهتر از دیگری باشد - محاسبه احتمال اینکه تعداد _واقعی_ برد/باخت ناشی از یک coinflip 0.5 باشد، می‌تواند از طریق توزیع دوجمله‌ای محاسبه شود و در خدمت باشد. به عنوان $p$ شما.
اندازه گیری انحراف معنی دار با نقاط داده به شدت متفاوت
41123
پس از تلاش برای بررسی متون در مورد چگونگی اجرای تجزیه و تحلیل مدل ترکیبی خود با استفاده از AIC برای انتخاب بهترین مدل یا مدل‌ها، احساس غمگینی می‌کنم. فکر نمی‌کنم داده‌های من آنقدر پیچیده باشد، اما به دنبال تأیید صحت کاری هستم که انجام داده‌ام و سپس در مورد چگونگی ادامه توصیه می‌کنم. من مطمئن نیستم که آیا باید از lme یا lmer و سپس با هر یک از آنها استفاده کنم، آیا باید از REML یا ML استفاده کنم. من یک مقدار انتخاب دارم و می‌خواهم بدانم کدام متغیرهای کمکی به بهترین وجه روی آن مقدار تأثیر می‌گذارند و امکان پیش‌بینی را فراهم می‌کنند. در اینجا برخی از داده های نمونه ساخته شده و کد من برای آزمایشم که با آنها کار می کنم آورده شده است: ID=as.character(rep(1:5,3)) season=c(s, w, w, s، s، s، s، w، w، w، s، w، s، w، w) time=c(n، d، d، n، d، d، n، n، n، n، n، n ddd) repro=as.character(rep(1:3,5)) risk=runif(15, min=0, max=1.1) comp1=rnorm(15, mean = 0، sd = 1) mydata=data.frame(ID, فصل, زمان, repro, risk, comp1) c1.mod1<-lmer(comp1~1+(1|ID),REML=T,data=mydata) c1.mod2<-lmer( comp1~risk+(1|ID)،REML=T،data=mydata) c1.mod3<-lmer(comp1~season+(1|ID)،REML=T،data=mydata) c1.mod4<-lmer(comp1~repro+(1|ID)،REML=T،data=mydata) c1. mod5<-lmer(comp1~time+(1|ID)،REML=T،data=mydata) c1.mod6<-lmer(comp1~season+repro+time+(1|ID),REML=T,data=mydata) c1.mod7<-lmer(comp1~risk+season+season*time+(1|ID), REML=T,data=mydata) من 19 مدل دارم که این داده‌ها را با ترکیب‌های مختلف و حداکثر اصطلاحات تعامل دو طرفه بررسی می‌کنند، اما همیشه با ID به عنوان یک اثر تصادفی و comp1 به عنوان متغیر وابسته من. * Q1. کدام را استفاده کنیم؟ lme یا lmer؟ آیا مهم است؟ در هر دوی اینها، من این گزینه را دارم که از ML یا REML استفاده کنم - و پاسخ های کاملاً متفاوتی دریافت می کنم - با استفاده از ML و به دنبال آن AIC، در نهایت به 6 مدل با مقادیر AIC مشابه می رسم و ترکیب مدل ها به سادگی معنی ندارد، در حالی که REML باعث می شود 2 مدل از محتمل ترین مدل ها بهترین باشند. با این حال، هنگام اجرای REML دیگر نمی توانم از anova استفاده کنم. * Q2. دلیل اصلی استفاده از ML به REML به دلیل استفاده با ANOVA است؟ این برای من روشن نیست. من هنوز قادر به اجرای stepAIC نیستم یا راه دیگری برای محدود کردن آن 19 مدل نمی‌دانم. * Q3. آیا راهی برای استفاده از stepAIC در این مرحله وجود دارد؟
REML در مقابل ML stepAIC
14910
چگونه می توانم یک ضلع مورب نمودار زیر (فقط یک ناحیه مثلث) را در R با رنگ پر کنم؟ من از «abline(0,1)» برای رسم خط مورب استفاده کرده ام. با این حال، همانطور که می بینیم، خط مورب در گوشه پایین سمت چپ کامل نیست. لطفاً کسی می تواند به من کمک کند تا یک خط مورب کامل بکشم که دقیقاً از گوشه سمت چپ پایین شروع می شود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0QxuF.jpg)
تجسم بهتر برای مقایسه؟