_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
10781
من واقعاً از این منبع لذت می برم - یادگیری و خواندن آن در حین کشف برخی مفاهیم برای یک سرمایه گذاری جدید بسیار مفید بود. اما اکنون به کمک واقعی نیاز دارم -- در قرارداد کوتاه مدت و در بلندمدت متخصصان آماری. بهترین سایت‌هایی که مردم به دنبال پروژه‌های جانبی و کنسرت‌ها بودند کدامند؟ بهترین توصیه ای که برای فردی که افراد آماری را استخدام می کند چیست؟
بهترین سایت برای استخدام افراد قراردادی یا آمار دائمی چیست؟
64368
من یک رویکرد ساده لوحانه برای خوشه بندی متغیرهای مختلف کار کرده ام، و نمی دانم چه رویکردهای بهتری وجود دارد. من داده‌هایی با ابعاد (متغیرها) بسیار بیشتر از مشاهدات (نمونه‌ها) دارم و می‌خواهم متغیرها را با همبستگی آنها خوشه‌بندی کنم. با این حال، مشاهدات مربوط به گروه های مختلف، به عنوان مثال درمان و کنترل است. اگر من فقط ضریب همبستگی را محاسبه کنم، همه متغیرهایی که در یک گروه بالا می روند، همبستگی مثبت خواهند داشت، و این چیزی نیست که من قصد دارم. من می خواهم آنها را با تأثیرات درون گروهی خوشه بندی کنم و تأثیرات بین گروهی را نادیده بگیرم. یک مثال خاص برای شما بگویم: متغیرها فراوانی مواد خاصی در سرم بیماران هستند. نمونه های سرم مشاهدات هستند و هر نمونه سرم با تعدادی فراوانی همراه است (به عنوان مثال، فراوانی اسیدهای آمینه، سیتوکین ها و غیره). مثلاً صد مشاهده (نمونه سرم) وجود دارد که هر کدام با همان 1000 متغیر (فراوانی) مرتبط هستند. من می‌خواهم ببینم که کدام فراوانی با هم مرتبط است: مثلاً کدام سیتوکین‌ها با کدام اسیدهای آمینه همبستگی دارند. رویکردی که من اتخاذ می‌کنم برازش یک مدل خطی ساده است که تأثیر گروه‌های مختلف را توضیح می‌دهد و باقیمانده‌های مدل را به هم مرتبط می‌کند. این اکتشافی به این معنا کار می‌کند که گروه‌بندی «معقول» (از نظر زیست‌شناسی) متغیرها را می‌دهد، برای مثال ژن‌هایی را با عملکردهای مشابه خوشه‌بندی می‌کند. این مثال را در گروه های R. در نظر بگیرید <- factor( rep( c( a, b ), every= 50 ) ) set.seed( 123 ) x1 <- rnorm( 100 ) x2 <- rnorm( 100 ) # با x1 همبستگی ندارد هنوز x3 <- x1 + rnorm( 100 ) # همبستگی مثبت با x1 # شبیه سازی اثر گروه x1 <- x1 + rep( c( 0, 2 ), every= 50 ) x2 <- x2 - rep( c( 0, 2 ), every= 50 ) x3 <- x3 - rep( c( 0, 2 ), هر = 50 ) اکنون x1 و x2 همبستگی منفی به نظر می رسند (اگرچه در هر گروه همبستگی وجود ندارد) و x1 و x3 اصلاً همبستگی ندارند. (اگرچه در هر گروه یک همبستگی مثبت وجود دارد): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/q1lkX.png) سپس، باقیمانده ها را محاسبه می کنم: x1r <- lm( x1 ~ گروه ها )$ باقیمانده ها x2r <- lm( x2 ~ گروه ها )$ باقیمانده ها x3r <- lm( x3 ~ گروه ها )$ باقی مانده ها وضعیت اکنون بسیار متفاوت است و خیلی بیشتر از آن چیزی که من قصد دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Ig7FJ.png) سوال من این است: از نظر آماری چه چیزی مناسب تر است راه دستیابی به همان؟ توجه داشته باشید که هیچ یک از x1، x2 یا x3 را نمی توان به عنوان متغیر مستقل یا متغیر پاسخ در نظر گرفت - آنها صرفاً همبسته هستند، بدون اینکه مشخص شود که کدام یک تعیین می کند کدام دیگری است. هدف نهایی من ایجاد خوشه‌هایی از متغیرها است که پس از حذف اثرات گروه‌ها با هم مرتبط هستند.
خوشه بندی با استفاده از همبستگی باقیمانده ها
49291
من با این تمرین در احتمال و آمار مشکل دارم: تابع چگالی احتمال (PDF) $$Z=X+Y$$ را محاسبه کنید که در آن $Y$ متغیر تصادفی گسسته است که برابر با $-1$ و $1$ است. احتمال برابر؛ $X$ یک متغیر تصادفی استاندارد گاوسی مستقل از $Y$ است. من می‌دانم که PDF مجموع دو متغیر مستقل پیوسته با پیچیدگی PDFهای حاشیه‌ای به دست می‌آید $$f_z(z)=f_x*f_y,$$، اما اگر یکی از دو متغیر گسسته باشد، چه کاری باید انجام دهم؟
چگونه PDF مجموع یک متغیر تصادفی گسسته و پیوسته را محاسبه کنیم؟
80510
من می خواهم یک رگرسیون خطی ایجاد کنم که در آن متغیر وابسته مقداری است که برای برخی کالاها خرج می شود و متغیرهای مستقل برخی از ویژگی های مصرف کننده (سن، جنسیت، دستمزد و غیره) هستند. به طور خاص، من می خواهم بدانم که این ویژگی چقدر بر هزینه های سالانه این کالا تأثیر می گذارد. اما نحوه انجام این نظرسنجی این است که در هفته مرجع چقدر برای کالاها هزینه شده است. بنابراین مقدار زیادی مصرف صفر ثبت شد (بیش از 90 درصد رکوردها صفر است). بنابراین، هر رگرسیونی که برای توضیح هزینه به عنوان تابعی از ویژگی های مصرف کننده انجام می دهم، هیچ اهمیتی ندارد. چه انتظاری می رود اگر کالاها روشی پراکنده برای مصرف داشته باشند. آیا کاری برای این مشکل وجود دارد؟
رگرسیون خطی با داده های هزینه هفتگی
80518
بنابراین، برخی از الگوریتم ها با کار نظری انگیزه داشتند، مانند مورد تقویت. Adaboost به عنوان الگوریتمی برای حل مسئله تقویت فرضیه معرفی شد. مرزهای خطای آموزشی و خطای تعمیم در کنار بسیاری از الحاقات و توضیحات دیگر در مورد چگونگی و چرایی کار الگوریتم فرموله شده است. سوالات من: 1.) در مورد طبقه بندی و رگرسیون tress (CART)، آیا این درست است که بگوییم یادگیری درخت تصمیم با انگیزه داده ها بوده و نه با تئوری؟ 2. با توجه به طبقه بندی و رگرسیون، آیا محدودیت های نظری در مورد خطاهای آموزش و آزمون وجود دارد؟ اگر چنین است یک مرجع عالی خواهد بود.
مرزهای خطای نظری درختان طبقه بندی و رگرسیون
54823
آیا مفاهیم یا تئوری های آماری در مورد چگونگی اندازه گیری موثر تازگی در جایی که به رویدادهای اخیر اهمیت بیشتری نسبت به رویدادهای قدیمی داده می شود وجود دارد؟ من در حال ایجاد یک مدل رگرسیون لجستیک هستم و می‌خواهم بر اساس رویدادهای اخیر، تعدیلی را برای عوامل مختلف اعمال کنم. ... یا، آیا این صرفاً به من بستگی دارد که یک فرمول دلخواه ارائه کنم؟ به عنوان مثال: یکی از پروژه های من پیش بینی عملکرد گلف بازان حرفه ای در مسابقات آینده از طریق رگرسیون لجستیک است. فرم اخیر آنها (نحوه بازی آنها در هفته گذشته) به طور کلی مهمتر از نحوه بازی آنها در شش ماه قبل است. آیا تکنیک/رویکرد خاصی وجود دارد که به این مفهوم کمک کند؟
استفاده از تازگی در رگرسیون لجستیک
49298
من یک داده ریزآرایه دارم که از طریق یک متغیر کمکی پیوسته (مثلا X) اجرا کردم. من این کار را با استفاده از 4 روش مختلف انجام دادم. برای نتایج به‌دست‌آمده از هر یک از 4 روش، من از هر یک از 4 روش زیر را دارم: 1. p-value، 2. مقدار معنی‌دار FDR، 3. «معنی‌داری Bonferonni» (با گفتن «درست» یا «نادرست») 4 Holm significance (با گفتن درست یا نادرست) من مایلم یک منحنی ROC که خطوط حساسیت و ویژگی را از هر یک از آنها نشان می دهد به دست بیاورم. 4 روش من به نوعی می‌دانم که منحنی ROC چیست، اما حتی پس از خواندن چند پیوند، متوجه نمی‌شوم که چه نوع ورودی برای ایجاد آن نیاز دارد. بنابراین اگر این یک سوال ساختگی به نظر می رسد عذرخواهی می کنم. بنابراین سوال من این است: 1. آیا می توان منحنی ROC را از 4 مقدار (p value، FDR، Bonferoni و Holm) که در بالا ذکر کردم ایجاد کرد؟ یا اینکه اول باید FP و FN رو حساب کنم؟ 2. آیا می توانید با دادن یک منحنی ROC با خطوط 4 روشی با استفاده از ورودی بالا، یک بسته کاربردی آسان را به من پیشنهاد دهید که بتواند این کار را برای من انجام دهد؟ کمک شما قدردانی می شود. پیشاپیش از شما تشکر می کنم.
چگونه منحنی ROC را محاسبه کنیم؟ چه نوع ورودی هایی برای آن نیاز دارید؟
12094
X,Y متغیرهای تصادفی مستقل هستند. pdf X = f(x) pdf Y = g(x) اگر Z= X+Y پی دی اف Z چیست؟ میشه محاسبه کرد؟
چگونه pdf دو متغیر تصادفی اضافه کنیم؟
10251
تجزیه و تحلیل مولفه اصلی _ می تواند از تجزیه ماتریس استفاده کند، اما این فقط ابزاری برای رسیدن به آن است. چگونه می توانید اجزای اصلی را بدون استفاده از جبر ماتریسی پیدا کنید؟ عملکرد هدف (هدف) شما چیست و چه محدودیت هایی دارید؟ با تشکر
چگونه اجزای اصلی را بدون جبر ماتریسی پیدا کنیم؟
10782
من در حال تجزیه و تحلیل داده های آزمایشی هستم که در آن سطوح درمان به طور درجه دوم افزایش می یابد، به عنوان مثال. سطوح درمان 0، 1، 4، 9 دلار است. هنگام تجزیه و تحلیل پاسخ با استفاده از رگرسیون، آیا استفاده از ریشه دوم سطح درمان به عنوان پیش بینی کننده منطقی است؟ اگر چنین است، این چگونه بر تفسیر تأثیر می گذارد؟
چه زمانی پیش بینی ها را تغییر دهیم؟
95719
من روی انبوهی از داده‌های مربوط به دستمزد در یک شرکت محلی و اطلاعات دیگر، مانند جنسیت، اینکه آیا فرد مورد نظر متعلق به یک گروه اقلیت است و غیره، نشسته‌ام. افزایش نسبی یکسان در دستمزدها برای تحصیلات پایین و عالی. برای این منظور، داده های اصلی را به دو دسته تقسیم کرده ام. یک گروه با حداکثر 12 سال تحصیل و گروه دیگر با 13 سال تحصیل یا بیشتر. چیزی که من می خواهم انجام دهم، آزمایش چاو تغییر ساختاری به شکل \begin{equation} است. F=\frac{\frac{(RSS-(RSS_{\text{lower}}+RSS_{\text{higher}}))}{2}}{\frac{RSS_{\text{lower}}+RSS_ {\ متن{بالاتر}}} {n-2k}}=\frac{(n-2k)((RSS-(RSS_{\text{lower}}+RSS_{\text{higher}}))}{2(RSS_{\text{lower} }+RSS_{\text{higher}})} \sim F(k,n-2k) \end{equation} که در آن $n$ تعداد کل مشاهدات و $k$ تعداد متغیرهای توضیحی است سپس به صراحت کل $F$ را بسازید<-lm(SALARY~EDUC+GENDER+MINORITY) کمتر<-lm(SALARY1~EDUC1+GENDER1+MINORITY1) بالاتر<-lm(SALARY2~EDUC2+GENDER2+MINORITY2) RSStot<-sum(residuals(total)^2) RSSlow<-sum(residuals(کمتر)^2) RSShig<-sum(residuals(بالاتر)^2) ((576-6)((RSStot-(RSSlow+RSShig)))/(2(RSSlow+RSShig)) > با این وجود، مطمئن هستم که باید راهی برای انجام مستقیم این کار در R وجود داشته باشد. من واقعاً از هرگونه روشنگری از سوی هر روح مهربانی قدردانی می کنم. به سلامتی همه!
تست سازه چاو در R
91006
من گاهی اوقات در درک شهود پشت برخی از آزمون ها مشکل دارم. آیا این مهم است که بدانیم چرا برخی از آزمون ها در یک موقعیت خاص کار می کنند یا کافی است چیزهایی را در سطح بسیار خوب، اکنون می توانم همسانی بودن را بررسی کنم یا من نمی دانم چرا در Mann-Whitney U- بر 12 تقسیم می کنیم کافی است. تست کنید، اما به من اعتماد کنید، کار می کند؟ یا کتاب هایی وجود دارد که نویسندگان ایده های پشت هر آزمون را توضیح داده اند و دلایلی برای «ثابت» کارآزمایی تست ها ارائه کرده اند؟
داشتن شهود از اینکه چرا آزمون های آماری مختلف کار می کنند چقدر مهم است؟
81161
اگر در حال آموزش یک مدل با استفاده از اعتبارسنجی متقاطع بر روی یک مجموعه از داده‌ها هستید، و سپس آن مدل را در مجموعه‌ای از داده‌های جداگانه امتیاز می‌دهید، آیا توصیه می‌شود که مثلاً 1000 بار در زیر مجموعه داده‌های خود امتیاز بگیرید؟ من به این فکر می‌کنم که نمونه‌های بوت استرپ یا چیزی را بگیرم، و سپس مدل را به ثمر برسانم، سپس یک بند بوت دیگر، و غیره. یا نه...
آیا دلیلی برای امتیاز دادن به زیر مجموعه های داده های شما وجود دارد؟
45779
آزمایش های فاکتوریال هنگامی که بخواهیم تأثیر چندین متغیر مستقل (عامل) را بر یک نتیجه بررسی کنیم، چندین مزیت دارند. شاید مهمتر از همه، آنها اغلب عوامل اضافی را بدون افزایش عمده در حجم نمونه اجازه می دهند. با این حال، نمونه گیری اغلب دشوارترین کار برای شروع است، و در برخی موارد، حتی یک طرح فاکتوریل 2×2 می تواند به نمونه ای نیاز داشته باشد که دستیابی به آن عملا غیرممکن است. مشکل لزوماً حجم نمونه نیست، بلکه امکان به دست آوردن یک نمونه _تصادفی_ است. من در حال بررسی موردی هستم که به دلایل عملی و اخلاقی، هیچ گزینه ای جز مقایسه یک گروه از پیش انتخاب شده از افراد با گروه دیگری که می توانم به طور تصادفی از یک جمعیت بزرگتر انتخاب کنم، ندارم. هدف این است که بررسی شود آیا یک درمان خاص بر رفتاری که همه افراد در جمعیت (از جمله گروه از پیش انتخاب شده) به طور مداوم با همکاری یکدیگر انجام می دهند تأثیر دارد یا خیر. هر کس در جمعیت یک فرآیند یکپارچه سازی را طی کرده است که در آن، به هر طریقی، این رفتار را آموخته است. سوال این است که آیا درمان برای یادگیری سریع رفتار مورد نظر در گروه از پیش انتخاب شده موثر است یا خیر؟ همچنین عوامل دیگری به جز درمان در طراحی وجود خواهد داشت. در یک حالت ایده آل، می توانم به طور تصادفی دو گروه را که بخشی از جمعیت هستند انتخاب کنم و به یکی از آنها درمان بدهم. با این حال، در این مورد غیرممکن است، زیرا من نمی توانم درمان را به کسی جز گروه از پیش انتخاب شده انجام دهم. علاوه بر این، به دلایل اخلاقی، من نمی توانم به طور تصادفی گروه از پیش انتخاب شده را به نصف تقسیم کنم و درمان را فقط به یک نیمه بدهم: همه افراد گروه باید درمان را دریافت کنند. بنابراین من مجبور هستم که درمان را به همه افراد در گروه از پیش انتخاب شده بدهم و از یک نمونه تصادفی از جمعیت موجود به عنوان نماینده برای گروه غیردرمان استفاده کنم. آیا روش‌های معتبری برای انجام آزمایش فاکتوریل در این شرایط وجود دارد که من باید با یک نمونه غیر تصادفی برخورد کنم؟ اگر نه، آیا راه های دیگری برای ارزیابی اثر درمان در این شرایط وجود دارد؟
آزمایش فاکتوریل با نمونه غیر تصادفی - آیا امکان پذیر است؟
54824
کنجکاو هستم که آیا کسی بسته ای را برای انجام رگرسیون های متغیرهای ابزاری با استفاده از LIML در R می شناسد یا خود پیاده سازی نوشته است. به نظر می رسد همه بسته های R که برای رگرسیون های IV دیده ام به 2SLS/GMM متوسل می شوند در مقابل LIML، که ممکن است چنین باشد. کیفیت های نمونه محدود مطلوب تر در مقایسه با 2SLS (Hayashi 2000) برای زمینه های اضافی، دستور ivregress stata شامل گزینه هایی برای از تخمین LIML استفاده کنید، و امیدواریم که کسی قبلاً چیزی مشابه را در R پیاده‌سازی کرده باشد، بنابراین من مجبور نیستم آن را خودم بنویسم.
برآورد حداکثر احتمال اطلاعات محدود (LIML) در R؟
10788
می‌خواستم بدانم آیا می‌توانید تجربیات خود را در مورد آنچه که فکر می‌کنید بهترین روش برای آزمایش روابط سرب / تاخیر بین متغیرهای سری زمانی I(1) (یعنی قیمت سهام) و مزایا و معایب روش(های) پیشنهادی شما است، به اشتراک بگذارید. همچنین اگر پیوندهایی به مقالات آکادمیک دارید که این روش ها را بیشتر توضیح می دهد، بسیار سپاسگزار خواهم بود. من چندین مقاله را خوانده ام که در مورد VECM، IRSUR، OLS ساده، رگرسیون آستانه و غیره صحبت می کنند. اما مطمئن نیستم که از کدام برای مطالعه خود استفاده کنم. من سعی می کنم روابط سرب/ تاخیر را در بازده داده های سهام درون روز (با استفاده از سری زمانی قیمت 1 دقیقه ای) بین قیمت سهام 50 شرکت در یک بخش خاص ایجاد کنم. از کمک قدردانی کنید.
روش‌هایی برای آزمایش بهترین روابط سرب/ تاخیر
10789
من در درک مفهوم متغیر تصادفی به عنوان یک تابع مشکل دارم. من مکانیک را می فهمم (فکر می کنم) اما انگیزه را نمی فهمم... بگویید $(\Omega, B, P) $ یک احتمال سه گانه است که $\Omega = [0,1]$, $B$ برابر است borel-$\sigma$-جبر در آن بازه و $P$ اندازه گیری منظم lebesgue است. اجازه دهید $X$ یک متغیر تصادفی از $B$ به $\{1,2,3,4,5,6\}$ باشد به طوری که $X([0,1/6)) = 1$, $X( [1/6,2/6)) = 2$، ...، $X([5/6,1]) = 6$، بنابراین $X$ دارای توزیع یکنواخت گسسته بر روی مقادیر 1 تا 6 است. همه چیز خوب است، اما من انجام می دهم لزوم سه گانه احتمال اولیه را درک نمی کنیم... می توانستیم مستقیما چیزی معادل $(\{1,2,3,4,5,6\}, S, P_x)$ بسازیم که در آن $S$ تمام جبر $\sigma$ مناسب فضا، و $P_x$ اندازه گیری است که به هر زیر مجموعه اندازه (# عنصر)/6 را اختصاص می دهد. همچنین، انتخاب $\Omega=[0,1]$ دلخواه بود-- می‌توانست $[0,2]$ یا هر مجموعه دیگری باشد. بنابراین سوال من این است که چرا زحمت ساختن یک $\Omega$ دلخواه با یک $\sigma$-جبر و یک اندازه گیری، و تعریف یک متغیر تصادفی به عنوان یک نقشه از $\sigma$-جبر به خط واقعی را به زحمت بیاندازیم؟
چرا متغیرهای تصادفی به عنوان توابع تعریف می شوند؟
54821
من یک پایگاه داده جراحی دارم که در آن تقریباً 100000 مشاهده و 200 ویژگی وجود دارد. هر مشاهده مربوط به یک بیمار جداگانه است در حالی که ویژگی ها با متغیرهای قبل از عمل، بعد از عمل یا بعد از عمل (مانند آزمایشگاه های قبل از عمل، طول عمل و روزهای تا مرگ) مطابقت دارد. به این ترتیب برخی از ویژگی ها فاکتور هستند، در حالی که برخی دیگر انواع داده های پیوسته هستند. پایگاه داده تمیز نیست زیرا بسیاری از ویژگی ها حاوی NA هستند زیرا این داده ها جمع آوری نشده اند. هر بیمار دارای ویژگی‌هایی با NA است، بنابراین وقتی سعی می‌کنم فقط مشاهدات بدون NA را انتخاب کنم، 0 مشاهده می‌شود. با این همه گفته شد که هدف نهایی من این است که ببینم آیا هر یک از این متغیرهای قبل از عمل ممکن است مرگ و میر را پیش بینی کند یا خیر. در ابتدا می خواستم از تنظیم L1 (کند) از طریق glmnet برای انجام انتخاب ویژگی استفاده کنم، اما به دلیل NA نمی توانم آن را اجرا کنم. آیا جایگزین یا تکنیکی برای دور زدن این مشکل وجود دارد؟ من فرض می کنم که معمول تر از نداشتن یک پایگاه داده با NA است، بنابراین می خواستم ببینم آیا می توانید من را پر کنید یا خیر.
جایگزین های glmnet برای انتخاب ویژگی روی داده ها با تعداد زیادی NA
21691
ما یک نشانگر زیستی بالقوه برای پیش بینی اینکه آیا بیمار سرطان دارد یا نه، داریم. نتیجه آزمایش بیومارکر دودویی مثبت یا منفی است. ما می‌خواهیم مقداری از بیمارانی را که باید آزمایش شوند تا مشخص کنیم که آیا این بیومارکر پیش‌بینی‌کننده خوبی است یا خیر، درک کنیم. از خواندن در اینترنت به نظر می رسد که راه بررسی حساسیت (برای تعداد موارد) و ویژگی (برای تعداد کنترل) است. پیشنهاد می شود که این وضعیت را به عنوان یک آزمون نسبت تک نمونه ای در نظر بگیرید، اما هنوز مشخص نیست که چگونه باید در مورد تخمین حساسیت و محدوده ای که به جز برای آن آماده هستید، اقدام کنید. اگر بگوییم هر نشانگر زیستی با حساسیت بیش از 0.8 را خوب در نظر بگیرم، چگونه این دو متغیر را تنظیم می کنید؟ من دوست دارم که فرضیه صفر من نشانگر زیستی باشد، بهتر از یک انتساب تصادفی یعنی حساسیت 0.5 نیست. آیا کسی می تواند مثالی از بهترین راه برای انجام این کار بزند (مخصوصاً اگر در R باشد).
محاسبات قدرت/اندازه نمونه برای مطالعه نشانگرهای زیستی
21692
لطفا کمک کنید! اخیراً به دلیل استفاده از مقایسه های زوجی برای توضیح هر سه سطح یک عامل در یک GLM دو جمله ای منفی به جای همه سطوح به طور همزمان مورد انتقاد قرار گرفته ام. به من گفته شد که «طولانی» و «غیرضروری» است. من این تصور را داشتم که در GLM ها نمی توان تمام سطوح یک فاکتور را با هم جمع کرد تا یک آمار آزمون و مقدار p متناظر به دست آید. بدیهی است که اگر عاملی در هر سطحی بی اهمیت باشد، انجام یک تحلیل پس از آن بی معنی است. سطوح من همگی دارای مقادیر p هستند، بنابراین من این مقادیر را از مدل جهانی زیر مورد بحث قرار دادم. به من گفته شد که به جای آن یک ANOVA انجام دهم که فکر نمی‌کنم برای داده‌های پراکنده و بدون تورم مناسب باشد. p-value برای همه سطوح یک عامل کسی؟ (زیر، لایه میدان پایین 0، لایه میدان فوقانی 1 و change1 در فاصله است) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -2.4284 -0.7956 -0.3862 0.4045 2.4233 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (تقاطع) 4.3410884 1.8219786 2.383 0.01719 * ارتفاع 0.0373584 0.0119929 3.115 0.00184 ** عرض -0.04070801.04 -0.957 0.33859 MeanMin -0.1731877 0.1404434 -1.233 0.21752 as.factor(Site_Treat)2 -0.4080256 0.2480438 -1.645 0.098 -1.645 as.factor(Change)2 -0.4940398 0.1755487 -2.814 0.00489 ** as.factor(Change)3 -0.1613766 0.1763677 -0.915 0.36019 0.36019 as.factor_87481_1 0.2931585 1.662 0.09643 . as.factor(Lower_Field_Layer)2 -0.3292409 0.3717863 -0.886 0.37585 as.factor(Upper_Field_Layer)2 -0.0081040 0.3257734 -0.025 0.9801 ----S. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 (پارامتر پراکندگی برای خانواده دوجمله ای منفی (4.7795) 1) انحراف صفر: 96.392 در 46 درجه آزادی انحراف باقیمانده: 47.968 در 37 درجه آزادی AIC: 403.94 بهترین آرزوها، Platypid
آیا هنگام انجام GLM می توان مقدار p را برای همه سطوح فاکتور بدست آورد؟
21698
من یک سری زمانی دارم که از یک فرآیند MA(1) پیروی می‌کند، تجمیع غیرهمپوشانی را با سطح تجمع $m=2,3,\dots$ انجام می‌دهم و سپس همبستگی خودکار سری‌های پایه و تجمیع را برای مقدار منفی حرکت محاسبه می‌کنم. پارامتر متوسط، خودهمبستگی تجمیع شده نزدیک به صفر می شود، یعنی سری های تجمیع شده می خواهند مانند نویز سفید باشند، می خواستم بدونم کسی می تواند دلایل این رفتار را توضیح دهد؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/D0Xun.png)
تجمیع و همبستگی بدون همپوشانی
49292
طبق این پست بهترین راه برای انجام آنالیز post hoc در ANOVA در R تست t + ptukey است. زیرا lme + glht «اصلاً فرض کروی بودن را فرض می‌کند». چگونه t-test + ptukey نگران کرویت هستند؟ معایب این روش چیست؟
ANOVA post hoc با نگرانی در مورد کروی بودن
12322
فرض کنید من دو مجموعه $X$ و $Y$ و یک توزیع احتمال مشترک روی این مجموعه ها $p(x,y)$ دارم. اجازه دهید $p(x)$ و $p(y)$ به ترتیب نشان دهنده توزیع های حاشیه ای بیش از $X$ و $Y$ باشند. اطلاعات متقابل بین $X$ و $Y$ به این صورت تعریف شده است: $$I(X; Y) = \sum_{x,y}p(x,y)\cdot\log\left(\frac{p( x,y)}{p(x)p(y)}\right)$$ یعنی مقدار متوسط ​​اطلاعات متقابل نقطه‌ای pmi$(x,y) \equiv است \log\left(\frac{p(x,y)}{p(x)p(y)}\right)$. فرض کنید من کران های بالا و پایین را در pmi$(x,y)$ می دانم: یعنی می دانم که برای همه $x,y$ موارد زیر برقرار است: $$-k \leq \log\left(\frac{p(x, y)}{p(x)p(y)}\right) \leq k$$ این به چه کران بالایی روی $I(X; Y)$ دلالت دارد. البته این به معنای $I(X; Y) \leq k$ است، اما در صورت امکان می‌خواهم کران محکم‌تری داشته باشد. این به نظر من قابل قبول است زیرا p توزیع احتمال را تعریف می کند و pmi$(x,y)$ نمی تواند حداکثر مقدار خود را (یا حتی غیرمنفی) برای هر مقدار $x$ و $y$ بگیرد.
محدود کردن اطلاعات متقابل با توجه به اطلاعات متقابل نقطه‌ای
10784
(با عرض پوزش اگر نمادها غیر معمول هستند، من مطمئن نیستم که نمادهای صحیح باید چه باشند. مثالی را در پایان سوال می‌آورم. فرض کنیم مجموعه داده اولیه یک ماتریس n در m $ وجود داشته باشد. M=(x_{ij})$ با $1<=i<=n$ و $1<=j<=m$، که از آن دو بردار زیر محاسبه شده است: * بردار به معنای ستونی، یعنی برداری به طول $n$ که در آن هر عنصر شاخص $j$ میانگین عناصر $m$ در ستون $j$ ماتریس است: $(\bar{x}_{ *j})$ با $1<=i<=n$، جایی که $\bar{x}_{*j} = \frac{1}{m}\sum_{i=1}^m{x_{ij} }$. * بردار متناظر انحرافات استاندارد ستونها ($s_{*j}$). من می‌خواهم میانگین و انحراف معیار بردار میانگین را از نظر ردیف، یعنی بردار ستونی که از میانگین هر سطر ساخته شده است: $(\bar{x}_{i*})$ با $1 بدست بیاورم. <=j<=m$، جایی که $\bar{x}_{i*} = \frac{1}{n}\sum_{j=1}^n{x_{ij}}$، با فرض اینکه مقدار اولیه ماتریس گم شده است. میانگین عناصر در بردار ردیفی نیز میانگین عناصر بردار ستونی است (که میانگین همه عناصر موجود در ماتریس با وزن برابر نیز می باشد): $\frac{1}{ m}\sum_{i=1}^m{\bar{x}_{i*}} = \frac{1}{m}\sum_{i=1}^m({\frac{1}{n}\sum_{j=1}^n{x_{ij}}}) = \frac{1} {n\times m}\sum_{i=1}^m\sum_{j=1}^n{x_{ij}}$ آیا راهی برای بدست آوردن انحراف معیار در بردار ردیفی میانگین وجود دارد ماتریس اصلی؟ به عنوان مثال: $$ M = \left(\begin{ماتریس} 1 & 2 & 3\\ 7 & 5 & 4\\ 8 & 2 & 3\\ 5 & 2 & 4 \end{ماتریس}\راست) $ $$ (\bar{x}_{*j}) = \left(\begin{matrix}5.25 & 2.75 & 3.5\end{matrix}\right) $$ $$ (s_{*j}) = \left(\begin{matrix} 2.68 & 1.29 & 0.5\end{matrix}\right) $$ $$ (\bar{ x}_{i*}) = \left(\begin{ماتریس} 2\\ 5.33 \\ 4.33 \\ 3.66\end{matrix}\right) $$ میانگین $\{2، 5.33، 4.33، 3.66\}$ 3.83$ است (همچنین میانگین ${5.25، 2.75، 3.5}$). انحراف استاندارد $\{2، 5.33، 4.33، 3.66\}$ 1.21$ است. آیا راهی برای محاسبه این انحراف معیار وجود دارد، با دانستن $(\bar{x}_{*j})$، $(s_{*j})$، اما بدون دانستن $M$ یا $(\bar{x }_{i*})$؟ آیا چیز دیگری وجود دارد که بتوان آن را بر اساس ستون محاسبه کرد (یعنی به طور مستقل برای هر ستون، بنابراین معنای ردیف خود را حذف می کند) که به کشف انحراف استاندارد (ترجیحاً نمونه) ردیف کمک کند. عاقلانه یعنی؟ متشکرم.
انحراف معیار میانگین در دو بعد
10787
من در حال بررسی روش‌های طبقه‌بندی مختلف برای پروژه‌ای هستم که روی آن کار می‌کنم و علاقه‌مندم که جنگل‌های تصادفی را امتحان کنم. من سعی می‌کنم در حین پیش‌روی خودم را آموزش دهم و از هر کمکی که توسط انجمن CV ارائه می‌شود قدردانی می‌کنم. من داده های خود را به مجموعه های آموزشی/آزمایشی تقسیم کرده ام. از آزمایش جنگل‌های تصادفی در R (با استفاده از بسته randomForest)، من با نرخ بالای طبقه‌بندی اشتباه برای کلاس کوچک‌ترم مشکل داشتم. من این مقاله را در مورد عملکرد جنگل‌های تصادفی بر روی داده‌های نامتعادل خوانده‌ام و نویسندگان دو روش برای مقابله با عدم تعادل طبقاتی هنگام استفاده از جنگل‌های تصادفی ارائه کردند. **1. جنگل های تصادفی وزن دار ** **2. جنگل های تصادفی متعادل** پکیج R اجازه وزن دهی به کلاس ها را نمی دهد (از فروم های راهنمای R، خوانده ام که پارامتر classwt به درستی کار نمی کند و به عنوان یک رفع اشکال در آینده برنامه ریزی شده است)، بنابراین گزینه 2 باقی مانده است. من می توانم تعداد اشیاء نمونه برداری شده از هر کلاس را برای هر تکرار جنگل تصادفی مشخص کنم. من در مورد تنظیم اندازه‌های نمونه مساوی برای جنگل‌های تصادفی احساس ناراحتی می‌کنم، زیرا احساس می‌کنم اطلاعات زیادی را در مورد کلاس بزرگتر از دست خواهم داد که منجر به عملکرد ضعیف با داده‌های آینده می‌شود. نرخ‌های طبقه‌بندی نادرست هنگام پایین‌نمونه‌سازی کلاس بزرگ‌تر نشان داده است که بهبود یافته است، اما می‌پرسیدم آیا راه‌های دیگری برای مقابله با اندازه کلاس‌های نامتعادل در جنگل‌های تصادفی وجود دارد؟
برای طبقه بندی با جنگل های تصادفی در R، چگونه باید اندازه کلاس های نامتعادل را تنظیم کرد؟
29096
ساده ترین راه / روش برای محاسبه همبستگی بین دو سری زمانی که دقیقاً هم اندازه هستند چیست؟ فکر کردم $(x[t]-\mu_x)$ و $(y[t] - \mu_y)$ را ضرب کنم و ضرب را جمع کنم. بنابراین اگر این عدد مثبت بود، آیا می‌توان گفت این دو سری با هم مرتبط هستند؟ با این حال، می‌توانم به مثال‌هایی فکر کنم که در آن یک سری زمانی دیگر که به صورت خطی در حال رشد نمایی هستند، هیچ ارتباطی با یکدیگر ندارند، اما محاسبات بالا نشان می‌دهد که آنها همبستگی دارند. هر فکری؟
همبستگی بین دو سری زمانی
78227
من یک مدل ترکیبی خطی را اجرا می کنم و می خواهم مفروضات آن را بررسی کنم. مدلی که من اجرا می‌کنم این است که آیا مردان و زنان در طول زمان رفتار متفاوتی از خود نشان می‌دهند (timeclass=1,2,3,4): x <- lme(response ~ timeclass*sex, random = ~ 1|subject, method=ML, data=dat) کد ایجاد نمودارها: plot(x) plot(x، پاسخ ~ fitted(.) | جنسیت، abline = c(0،1)) qqnorm(x,~resid(.)|timeclass) qqnorm(x,~resid(.)|sex) hist((resid(x) - mean(resid(x)، na.rm=T)) / sd(resid (x)، na.rm=T)، freq=F); منحنی (dnorm, add = TRUE) این خروجی است که من دریافت می کنم: ![نقشه باقیمانده](http://i.stack.imgur.com/4gYnC.png) ![رابطه خطی مردان و زنان](http:// i.stack.imgur.com/Pykhd.png) ![qqplot برای رابطه جنسی](http://i.stack.imgur.com/nm6aJ.png) ![qqplot for timeclass](http://i.stack.imgur.com/IyXNj.png) ![هیستوگرام](http://i.stack.imgur.com/66naf.png) نمودارها به جز نمودار باقیمانده به نظر می رسد نشان می دهد که به نظر می رسد یک رابطه خطی بین مقادیر برازش در هر جنس و پاسخ وجود دارد و خطاها به طور نسبی در هر دو جنس و در بین چهار جنس توزیع شده اند. کلاس های زمانی با این حال، طرح اول دارای یک شکل الماس بسیار واضح است، تقریباً به قدری واضح که به نظر می رسد مقادیر در چهار زاویه مثلثی قطع شده است. آیا کسی می تواند به من کمک کند بفهمم چه اتفاقی می افتد و این به چه معناست؟ آیا مدلی که من اجرا می کنم بر اساس نمودارها برای مفروضات معتبر است؟
بررسی فرضیات LMM: نمودار باقیمانده با شکل الماس
78223
من مجموعه ای از 16 سوال دارم که در مقیاس عددی از 1 تا 7 پاسخ داده شده است. 200 زوج به آنها پاسخ داده اند و می خواهم نشان دهم که تفاوتی در پاسخ ها بر اساس جنسیت وجود دارد. در یک نگاه معمولی به داده‌ها، می‌بینم که تفاوت کمی بین جنسیت‌ها برای 6 سؤال وجود دارد، اما برای سؤال دیگر تفاوت وجود دارد. اگر برای هر کدام یک سری آزمون t اجرا کنم و برای 10 تای آنها تفاوت های قابل توجهی نشان دهم. باید بتوانم نتیجه بگیرم که در کل مجموعه، تفاوت هایی وجود دارد. آیا راه بهتری برای نشان دادن این موضوع وجود دارد که برای این سریال، پاسخ ها بر اساس جنسیت متفاوت است؟ مو
چگونه نشان دهیم که پاسخ به یک مجموعه 16 سوالی بر اساس جنسیت متفاوت است.
12321
فرض کنید من یک بازه اطمینان $95 \%$ برای $\mu$ با واریانس جمعیت $\sigma^{2}$ شناخته شده دارم. این به شکل $$[\bar{X}-1.96 \sigma/\sqrt{n}، \bar{X}+1.96 \sigma/\sqrt{n}]$$ خواهد بود. تفسیر آماری این است که $95\%$ از فواصل اطمینان حاوی میانگین واقعی خواهد بود؟ من به‌صورت جداگانه می‌دانم، یک شانس 50$\%$ وجود دارد که فاصله اطمینان حاوی میانگین باشد. اما جمعاً جمله بالا من معتبر است؟
تفسیر فواصل اطمینان
12090
من می‌خواهم همبستگی درونی وقوع رویدادها را اندازه‌گیری کنم، یعنی می‌خواهم بین این دو (طراحی شده) تمایز قائل شوم و بگویم در نمونه دوم رویدادها نسبت به اولی کنگلومرا بیشتری رخ می‌دهند: ![توضیح تصویر را اینجا وارد کنید](http: //i.stack.imgur.com/NxRBP.png) آیا این تفاوت با burstiness نیست (یعنی محاسبه آن آسان تر است زیرا شامل مقادیر ترافیک نمی شود)؟ من یک نمایش احتمالی از نتیجه مورد انتظار (برای S2) را در تصویر زیر نمونه‌ها ترسیم کرده‌ام (همانطور که اکنون در ذهن من است)، اما از پیشنهاد پیشنهادهای مختلف دریغ نکنید. من نگاه کردم و توابع مختلف داخلی را امتحان کردم و CrossValidated را برای R و burstiness یا همبستگی درونی جستجو کردم، اما پیشرفت نکردم. شاید من به دنبال عبارات جستجوی اشتباهی هستم. اگر می‌خواستم واقعاً ترکیدگی را اندازه‌گیری کنم، به نظرم می‌رسید (با خواندن مقالاتی در مورد ترکیدگی) هیچ معیار شناخته شده رایجی وجود نخواهد داشت (اما معیارهای بسیار متفاوت). من یکی را انتخاب می کنیم که برای توجیه اینکه چرا این مورد خاص را انتخاب می کنیم، جالب است. در حال حاضر سری زمانی در R به این صورت نشان داده می شود: (نوشته شده توسط dput در فایل) c(3.256861, 3.377142, 3.941173, 4.304236, 4.485358, 4.606512, 4.707296,74,4.707296,70 5.815394، 5.835405، 5.936067، 5.957008، 6.964611، 7.045158، 7.065171، 7.165824، 7.669618، 7.669618، 8.1827، 8.1827 9.503988، 9.604991، 9.624853، 9.725522، 10.237766، 10.954529، 11.378399، 12.687714، 13.2919191919، 12.687714، 13.29191919، 13.291919، 215 14.380529, 14.743638, 15.247138, 15.851832, 15.952875, 15.972497, 16.456259, 16.476052, 17.2015. 18.068535، 18.309645، 18.390292، 18.410299، 18.430323، 18.531736، 18.652921، 18.793662، 19.2976.19.2970. 19.760698، 20.768096، 20.868441، 20.990499، 21.494412، 21.856368، 22.199341، 22.219143، 22.219143، 22.411404. 23.327013, 23.447678, 23.811188, 23.843, 24.113302)
همبستگی درونی رخدادها (شکستگی؟) در R
21695
من می خواهم مقدار باکتری را در 4 سطح $i=\{1..4\}$ محاسبه کنم. یک فرد برخی از آن 4 سطح را به صورت تصادفی لمس می کند و پس از هر تماس با سطح روی انگشت او شمارش می شود ($x_i$). فردی پس از هر سطح، شمارش باکتری ($x_i$) را از دست داد، اما من تعداد کل (X) را در انگشت افراد پس از لمس تعدادی از سطوح می دانم. من هم می دانم کدام ها و به کدام ترتیب. آنچه من می دانم: 1. تعداد باکتری های نهایی روی انگشت فرد: X$ 2. کارایی انتقال از سطحی به انگشت دیگر: $PT_i=\displaystyle \frac{\text{Finger contact area}}{\text{Area of ​​level} _i}\frac{1}{\gamma_i}$ که $\gamma$ یک ثابت وابسته به سطح است. 3. تعداد دفعاتی که فرد یک سطح خاص را لمس کرده است: $h_i$. اگر شمارش سطحی $C_i$ داشته باشم، مجموع باکتری ها خطی است: یعنی $\begin{eqnarray} h_1C_1PT_1&=&x_1\\ h_2C_2PT_2&=&x_2\\ \vdots\quad &=& \quad \vdots\\ h_iC___i end{eqnarray}$ طوری که جمع کردن روی همه سطوح $i$، تعداد کل x عبارت است از: $\displaystyle \sum_i h_iC_iPT_i=\sum_i x_i=X$. آیا می توانم $C_i$ را بدون $x_i$ حتی به صورت آماری یا احتمالی محاسبه کنم؟ با احترام
محاسبه آماری معکوس: زنجیره مارکوف؟
12320
فرض کنید برای برخی از پارامترهای $x$ دو برآوردگر $\alpha_1$ و $\alpha_2$ داریم. برای تعیین اینکه کدام برآوردگر «بهتر» است، به MSE (میانگین مربعات خطا) نگاه می کنیم؟ به عبارت دیگر ما به $$MSE = \beta^2+ \sigma^2$$ نگاه می کنیم که $\beta$ بایاس تخمینگر و $\sigma^2$ واریانس برآوردگر است؟ هر کدام که MSE بیشتری داشته باشد، برآوردگر بدتری است؟
آیا میانگین مربعات خطا برای ارزیابی برتری نسبی یک برآوردگر بر دیگری استفاده می شود؟
105502
می‌خواستم بدانم آیا هر یک از شما می‌تواند به من کمک کند تا پاسخی را که از این الگوریتم خوشه‌بندی (متیس) دریافت کردم، درک کنم. همانطور که احتمالاً می بینید، من سعی می کنم آدرس های IP را بر اساس سوابق معمولی که به آنها دسترسی دارند، خوشه بندی کنم. فایل گراف حاوی یک گره در هر IP و لبه های وزن دار است که وزن آن برابر با تعداد دسترسی های رایج است. چند سوال خاص: * این الگوریتم به تعداد از پیش تعریف شده خوشه نیاز دارد. چگونه باید بر اساس این پاسخ، در مورد عدد بهینه تصمیم بگیرم؟ (الگوریتم واقعا سریع است، بنابراین اجراهای مکرر امکان پذیر است). * چگونه باید این خوشه بندی را ارزیابی کنم؟ در حال حاضر مجموعه آموزشی/آزمونی ندارم. آیا باید یکی را ایجاد کنم؟ چگونه می توانم این کار را با یک گزارش دسترسی باینری انجام دهم؟ اگر نکات دیگری در رابطه با این الگوریتم دارید، بسیار خوش آمدید! ممنون که نگاه کردید در اینجا پاسخ می آید: ******************************************** ********************************* METIS 5.0 حق نسخه برداری 1998-13, Regents of University of Minnesota (سرپرست: ساخته شده در: 1 ژوئیه 2014، 14:23:44) اندازه idx_t: 32 بیت، real_t: 32 بیت، idx_t *: اطلاعات نمودار 64 بیتی ---------------------------------------------- ------------ نام: gt2rec_gt2ip_b_rec_sorted_nobots_pdf_full.graph، #راس: 103924، #لبه: 34678560، #قطعات: 10 گزینه ------------------------------------------ -------------------------- ptype=kway، objtype=cut، ctype=shem، rtype=طمع، iptype=metisrb dbglvl=0، ufactor=1.030، no2hop=NO، minconn=NO، contig=NO، nooutput=NO seed=-1، niter=10، ncuts=1 پارتیشن بندی مستقیم k-way ------------------------------------------------ - - Edgecut: 16083558، حجم ارتباط: 662037. - تعادل: محدودیت شماره 0: 1.030 از 0.000 - بیشترین اضافه وزن پارتیشن: pid: 4، واقعی: 10704، مورد نظر: 10392، نسبت: 1.03. - اتصال ساب دامنه: حداکثر: 9، حداقل: 9، میانگین: 9.00 - نمودار اصلی دارای 1243 مولفه متصل و پارتیشن بندی حاصل پس از حذف لبه های بریده شده دارای 2362 مولفه است. اطلاعات زمان ----------------------------------------------- ---------- ورودی/خروجی: 7.162 ثانیه پارتیشن بندی: 10.511 ثانیه (زمان METIS) گزارش: 2.118 ثانیه اطلاعات حافظه ------------------------------------------------ -------- حداکثر حافظه استفاده شده: 1021.427 مگابایت **************************************** ******************************************
برای درک پاسخ متیس به کمک نیاز دارید
81163
ما یک سیستم ردیابی مبتنی بر رویدادها برای وب سایت خود داریم، با تست تقسیم داخلی و ما از ABBA برای محاسبات استفاده می کنیم. این مشکل زمانی پیش می‌آید که ما در حال انجام آزمایش‌های تقسیم متوالی هستیم. به عنوان مثال، ما X و Y را تست می کنیم، Y برنده می شود، بنابراین تست بعدی Y و Z است. ما در اکثر مواقع می بینیم که نرخ تبدیل Y در دو تست متفاوت است... گاهی اوقات تا 50 نیز می رسد. ٪. ما ابزاری برای ردیابی نرخ تبدیل در طول زمان داریم، و من دو نمودار از نرخ تبدیل را بین دو تست مختلف جدید و پایه قرار داده‌ام. می بینید که بین دو آزمون، خط پایه قبلی جدید و بعدی به میزان قابل توجهی تفاوت دارند، حتی اگر از نظر تئوری یکسان باشند. هر دو آزمایش حدود 200000 اجرا برای جدید و پایه - 400k کل - 800k در دو آزمایش دارند و مقادیر P در هر دو 0.0001 است. من فقط نمی توانم توضیح دهم که چرا نرخ تبدیل جدید در test1 1.28٪ بود اما نرخ تبدیل پایه در test2 0.85٪ بود - در حالی که آنها دقیقاً همان محتوا هستند. من مطمئناً می‌توانم به چیزهایی فکر کنم که می‌توانند به چیزی شبیه به این کمک کنند: فقط گرفتن بخشی از چرخه کاربر/تغییرات زمان از روز/تنوعات فصلی/تعطیلات، اما قلبم به من می‌گوید که واقعاً نباید 50٪ تفاوت ایجاد کند. با این حال، ما امکان تأثیر Googlebot و سایر ربات‌ها بر نتایج را از بین برده‌ایم، زیرا حتی رویدادها را برای ربات‌ها ثبت نمی‌کنیم. متاسفانه ما چیزی نداریم که بتوانیم با آن مقایسه کنیم. ما از تجزیه و تحلیل گوگل استفاده می کنیم، اما تنها معیارهای کلیدی خود را در آنجا ثبت می کنیم، بنابراین هیچ سیبی وجود ندارد - سیب. آزمایش‌ها بلافاصله پس از دیگری اجرا شدند و من از هیچ کمپین بازاریابی خاصی اطلاعی ندارم (ما بازاریابی زیادی انجام نمی‌دهیم و CPC نداریم). ما شاهد تغییرات بسیار خوبی در ترافیک برخی کشورها هستیم، و من قطعاً می‌توانم آن را بررسی کنم تا ببینم آیا می‌تواند نقشی داشته باشد... اما، دوباره، 50%؟ تست 1: جدید برنده است![تبدیل تست 1](http://i.stack.imgur.com/1WSDF.png) تست2: جدید قدیمی اکنون به پایه تبدیل شده است...به عدم تطابق در تبدیل توجه کنید ![تبدیل آزمایش 2](http://i.stack.imgur.com/l1LFv.png)
چه چیزی می تواند باعث نرخ تبدیل متفاوت برای یک محتوا در تست های تقسیم جداگانه شود؟
54794
ما نکات زیر را داریم: $$ (0,0)(1,51.8)(1.9,101.3)(2.8,148.4)(3.7,201.5)(4.7,251.1)(5.6,302.3)(6.6,350.9)(7.5,397.1)(2.5,5) (9.3,496.3)$$ چگونه می توانیم پیدا کنیم بهترین خط تطبیق $y=ax$ از طریق نقاط؟ ماشین حساب من این گزینه را دارد که بهترین خط $y=ax+b$ را از طریق این نقاط پیدا کند، که عبارتند از: $$y = 53.28x + 0.37$$ چگونه می توانم بهترین تناسب $y=ax$ را پیدا کنم؟ به نظر من نمی‌توانیم 0.37$ را بدون جبران در $a$ حذف کنیم؟
رگرسیون از طریق مبدأ
54820
برای داده‌هایم، باید تحلیل‌های رگرسیون خطی متعددی را به‌طور جداگانه برای هر یک از دو گروه موضوعم و همچنین شرایط مختلف اجرا کنم. با هم، من باید تقریباً 40 تحلیل رگرسیون را در 3 شرط برای هر گروه اجرا کنم. من می‌دانم که باید مقایسه‌های چندگانه را برای ضرایب رگرسیون در یک مدل تصحیح کنیم. اما در مورد من، آیا باید اصلاح مشابهی را برای مقدار p مربوط به خود مدل رگرسیون (یعنی آزمون F) نیز انجام دهم؟ به عنوان مثال، اگر در یک شرط، من باید 25 تحلیل رگرسیون را برای هر گروه اجرا کنم، آیا منطقی است که alpha=.05 را بر 25 تقسیم کنم؟ من وب‌سایت‌ها و کتاب‌های درسی مختلفی را مرور کرده‌ام، اما به نظر نمی‌رسد پاسخی پیدا کنم. هر گونه پیشنهاد / کمک قدردانی خواهد شد!
آیا هنگام اجرای تحلیل‌های رگرسیون تک متغیره به اصلاح Bonferonni نیاز داریم؟
63359
فرض کنید 2 ویژگی متمایز x1 و x2 با مقادیر گسسته بین 1 و 10 دارید. هنگام ساخت یک شبکه عصبی، من 2 گزینه دارم: 1. یک ویژگی جدید x3 = 10*x1 + x2 ایجاد کنید و از آن به عنوان تنها ورودی استفاده کنید. 2. از هر دو ورودی x1 و x2 برای شبکه عصبی استفاده کنید. چگونه می توانم تصمیم بگیرم که بهترین گزینه کدام است؟ در اینجا یک مثال عملی با الهام از پوکر آورده شده است: شما 7 کارت دارید. 2 کارت اول از بازیکن 1 است. 2 کارت بعدی از بازیکن 2 و 3 کارت آخر فلاپ هستند. شما می خواهید تعیین کنید که چه کسی قوی ترین دست را دارد. دو گزینه عبارتند از: 1. هر کارت را به عنوان یک عدد از 1 تا 52 در نظر بگیرید. 2. دو ورودی ایجاد کنید: یکی برای رتبه (2،3،4،5،6...J،Q،K،A) و یکی برای کت و شلوار (کلوپ، الماس، قلب، بیل). به طور دقیق‌تر، می‌خواهم بفهمم که انتخاب هر گزینه چگونه بر میزان داده‌های آموزشی مورد نیاز، تعداد نورون‌های لایه پنهان که باید استفاده کنم و چقدر زمان برای آموزش لازم است، تأثیر می‌گذارد.
مبادله بین استفاده از ورودی های صریح و استفاده از ورودی های کمتر برای شبکه های عصبی
49872
من در حال حاضر در حال اجرای برخی از تجزیه و تحلیل ها بر روی یک مجموعه داده های زبانی با یک مدل اثر ترکیبی هستم. مشکل این است که من فکر می کنم یک عامل تصادفی باید حذف شود در حالی که همکار من فکر می کند که باید شامل شود. دو گزینه عبارتند از: lmer(intdiff ~ stress * vowel_group + (1|speaker) + (1|word)، data) lmer(intdiff ~ stress * vowel_group + (1|speaker), data) چگونه بررسی کنیم کدام مدل بهتر است متناسب با مجموعه داده های ما است؟ پیشنهاد شد که از آزمون نسبت درستنمایی استفاده کنم، اما تا آنجا که می توانم بگویم، تابعی در R وجود ندارد که بتوان آن را برای 2 مدل خطی اثرات مختلط اعمال کرد. آیا راه دیگری برای تشخیص اینکه کدام مدل پیش بینی تر است وجود دارد؟ با تشکر
آزمون‌های نسبت درستنمایی بر روی مدل‌های اثر مختلط خطی
49871
من از دو گروه نمونه دارم. نمونه ها از هر گروه از توزیع دیریکله پیروی می کنند. دو توزیع دیریکله میانگین یکسان اما دقت متفاوتی دارند. چگونه MLE میانگین و دو دقت را پیدا کنیم؟
چگونه MLE را برای دو توزیع دیریکله با میانگین یکسان پیدا کنیم
53445
من به تازگی مقاله ای را می خوانم که از روش زیر برای محاسبه عدم قطعیت پارامترها از سطح احتمال دو پارامتر استفاده می کند. مرحله 1) احتمال یافتن یک جفت پارامتر معین را با توجه به داده ها در هر نقطه از شبکه محاسبه کنید. مرحله 2) سطح را به 1 عادی کنید. اکنون مقدار Likelihood به پارامتری که L(a|x) متناسب با p(x|a) است، احتمال می دهد. من کاملاً با این قانع نیستم - حداقل به این دلیل که وسعت شبکه دلخواه است. احتمالاً می‌خواهم تیک «Forward it on to a Statician» را بزنم زیرا این یک بررسی است و من با این روش آشنا نیستم، اما کنجکاو بودم که آیا این تحت هیچ شرایطی کار می‌کند یا خیر. من همیشه فرض می‌کردم که قضیه ویلکس به همان خوبی است که شما می‌توانید این کار را انجام دهید.
عدم قطعیت از سطح احتمال
53444
این یک نمونه مصنوعی است. من می‌خواهم درآمد همان گروه افراد (یعنی «جفت شدن») را در زمانی که در ایالات متحده، اسپانیا و نیجریه کار می‌کردند، مقایسه کنم. به عبارت دیگر، من از درآمد ایالات متحده به عنوان مرجع استفاده می کنم و به سادگی 2 آزمون T زوجی دو نمونه انجام می دهم: t.test(dat[Country==US,]$Income, dat[Country==اسپانیا ,]$Income, paired=TRUE) t.test(dat[Country==US,]$Income, dat[Country==نیجریه،]$Income, paired=TRUE) اما چه تفاوتی با موارد زیر دارد؟ pairwise.t.test(dat$Income, dat$Country, paired=TRUE) در راهنمای pairwise.t.test() آمده است: ...با اصلاحات برای چندین آزمایش. آیا این تنها تفاوت است؟
دو (یا چندگانه) t-test با یک pairwise.t.test() منفرد جایگزین شده است؟
54790
من در حال مطالعه این مقاله در مورد فرآیندهای Wishart عمومی (GWP) هستم. این مقاله کوواریانس‌های بین متغیرهای تصادفی مختلف (به دنبال فرآیند گاوسی) را با استفاده از تابع کوواریانس نمایی مربعی محاسبه می‌کند، یعنی $K(x,x') = \exp\left(-\frac{|(x-x')|^2 {2l^2}\right)$. سپس می گوید که این ماتریس کوواریانس از GWP پیروی می کند. من قبلاً فکر می کردم که یک ماتریس کوواریانس محاسبه شده از ** تابع کوواریانس خطی ($K(x,x') = x^Tx'$)**، از توزیع Wishart با پارامترهای مناسب پیروی می کند. سوال من این است که چگونه می‌توانیم فرض کنیم که کوواریانس از توزیع Wishart با تابع کوواریانس نمایی مجذور پیروی می‌کند؟ همچنین به طور کلی شرط لازم برای یک تابع کوواریانس برای تولید ماتریس کوواریانس توزیع شده Wishart چیست؟
ماتریس کوواریانس برای فرآیند گاوسی و توزیع Wishart
29095
آیا کسی می تواند به من بگوید چرا این اشتباه است: من می خواهم خوب بودن تناسب را برای یک مدل جلوه های ترکیبی خطی تخمین بزنم. من مقادیر برازش را در برابر مقادیر خام پس می‌کشم و یک $R^2$ را محاسبه می‌کنم. من تصور می کنم یک جایگزین پذیرفته شده این باشد که مدل را فقط با اثر تصادفی و بدون جلوه های ثابت اجرا کنم و امتیازات AIC را مقایسه کنم، اما من به طور خاص به سناریوی بالا علاقه مند هستم.
مناسب بودن برای مدل‌های جلوه‌های خطی و ترکیبی
29091
من سعی می‌کنم ترسیم‌های زیادی (یعنی تحقق) یک فرآیند گاوسی $e_i(t)$, $1\leq t \leq T$ با میانگین 0 و تابع کوواریانس $\gamma(s,t)=\exp( -|t-s|)$. آیا روش کارآمدی برای انجام این کار وجود دارد که شامل محاسبه ریشه دوم ماتریس کوواریانس $T \times T$ نباشد؟ از طرف دیگر آیا کسی می‌تواند یک پکیج R را برای انجام این کار توصیه کند؟
شبیه سازی یک فرآیند گاوسی با یک تابع کوواریانس در حال فروپاشی نمایی
64766
می‌خواهم بدانم توزیع نظری بردار انحرافات (نشانه‌دار) $d_i$ از یک رگرسیون لجستیک چگونه است. در صورت عدم موفقیت، آیا راهی برای تبدیل آنها به r.v. تقریباً معمولی وجود دارد؟ مدل من برای فرآیند تولید داده ساده ترین مدل است، به عنوان مثال. $$y_i\sim\mathcal{B}(p_i)$$ که در آن $$p_i=\pmb x_i'\pmb\theta$$ و $\mathcal{B}$ توزیع برنولی است. بنابراین در کد R: n<-1000 p<-5 x<-ماتریس(rnorm(n*(p-1)),nc=p-1); y<-cbind(1,x)%*%rep(1,p) y0<-1/(exp(-y)+1); y0<-rbinom(n,1,y0) fit<-glm(y0~x,family=binomial) y<-residuals(fit,type=deviance) qqnorm(y) qqline(y)
توزیع انحرافات از رگرسیون لجستیک
54792
من دو ماتریس با چندین متغیر دارم. این دو ماتریس از یک نمونه می آیند. من آنها را ماتریس A و ماتریس B می نامم. هر کدام از آنها متغیرهای همبسته زیادی دارند. من می خواهم رابطه بین ماتریس A و ماتریس B را با در نظر گرفتن ماتریس B به عنوان توضیحی و ماتریس A به عنوان وابسته ارزیابی کنم. وقتی به ساختار ماتریس A نگاه کردم توانستم آن را به 4 عامل و ماتریس B را به 3 عامل توصیف کنم. من یک مدل mancova را با استفاده از نمرات عامل ماتریس A و امتیاز عامل ماتریس B برازش کردم. آیا این روش معتبری برای انجام تجزیه و تحلیل است.
برازش مدل مانکوا بر نمرات عاملی
63353
من دو مجموعه داده دارم، $D1$ و $D2$، که هر کدام شامل نمونه های زیادی $S_i$ از 100 عدد، هر نمونه از یک جمعیت متفاوت (ناشناخته) است. به عنوان مثال: $S_1=\{0.125، 0.122، 0.053، \dots\} \\ S_2=\{0.001، 0.013، 0.034، \dots\} \\ \dots $ هر دو بسیار بزرگ هستند. $D1$ شامل تقریبا 6 میلیون نمونه و $D2$ شامل تقریبا 500K نمونه است. من به طور تصادفی هر نمونه $S_i$ را به دو زیرنمونه فرعی جدا از هم با اندازه 50 تقسیم کردم، بگذارید آنها $S_i'$ و $S_i''$ باشند. برای هر نمونه فرعی یک آزمون t را برای فرضیه صفر میانگین برابر صفر اجرا می کنم، بنابراین دو مقدار p دارم: $p_i'$ و $p_i''$. سوال مورد علاقه من این است: اگر من اهمیت را در $S_i'$ مشاهده کردم، چند وقت یکبار اهمیت را در $S_i'$ مشاهده می کنم. بنابراین، برای سطوح معنی‌داری مختلف، این نسبت را ترسیم می‌کنم: $\displaystyle\frac {\#\{p_i' \leq \alpha~and~p_i''\leq\alpha\}} {\#\{p_i' \leq \alpha\}}$ با مجموعه داده $D1$ هیچ چیز نادری وجود ندارد: هرچه سطح اهمیت کمتر باشد نسبت کوچکتر است زیرا مشاهده اهمیت دشوارتر است. اما وقتی آن را با دیتاست $D2$ رسم می‌کنم، این رفتار عجیب را در طرح دارم: به نوعی با آلفا بالا می‌رود، اما در نقطه‌ای با آلفای بزرگ پایین می‌آید. من نمی توانم بفهمم چرا این اتفاق می افتد. همین امر در مورد سایر آزمایش ها مانند Wilcoxon و Sign نیز اتفاق می افتد. هر ایده ای؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KPUOV.png)
رفتار عجیب آزمون های مکان برای مجموعه داده های مختلف
63350
من برخی از داده‌ها را دارم که بین 0 و 1 محدود شده‌اند. من از بسته «betareg» در R استفاده کرده‌ام تا مدل رگرسیونی را با داده‌های کران‌دار به‌عنوان متغیر وابسته جا بدهم. سوال من این است: چگونه ضرایب را از رگرسیون تفسیر کنم؟
چگونه ضرایب را از رگرسیون بتا تفسیر کنیم؟
83670
من مجموعه ای از نقاط داده $\{x_i\}$ دارم. این نقاط داده طوری گروه بندی می شوند که (مثلاً) $i\in\{1,2,3\}$ گروه $A$ باشد، $i\in\{4,5,6,7\}$ گروه $B باشد. $، و غیره. من می خواهم فرضیه صفر عدم رابطه خطی بین میانگین گروه و واریانس گروه را آزمایش کنم. یک رویکرد ساده لوحانه این است که برای هر گروه، میانگین نمونه $\overline{x}_g$ و واریانس نمونه $S^2_g$ محاسبه شود، سپس $$ \overline{x}_g = \beta S^2_g + \ رگرسیون شود. varepsilon_g $$ این کار نمی کند، زیرا در نمونه های کوچک، $\hat{\beta}$ یک تخمین مغرضانه $\beta$ خواهد بود. به عنوان مثال، اگر $\beta=0$ اما $\{x_i\}$ بسیار دارای انحراف مثبت باشد، $\hat{\beta}$ به طور جعلی بالا تخمین زده می‌شود. این به این دلیل است که * گروه‌هایی که دارای پرت مثبت نیستند، $S^2_g$ پایین و $\overline{x}_g$ پایین خواهند داشت * گروه‌هایی که حاوی این اعداد پرت هستند، $S^2_g$ بالا و $\overline{ بالا خواهند داشت. x}_g$. آیا تکنیک کلی برای حل این مشکل وجود دارد؟ (از Math Stack Exchange ارسال شده است.)
تنظیم رگرسیون برای خطاهای همبسته در متغیرها
78590
من روی یک طبقه‌بندی جنگل تصادفی با CV 10 برابری کار می‌کنم تا فراپارامتر 'mtry' (انتخاب شده با به حداکثر رساندن AUROC) را تخمین بزنم. تصمیم گرفتم مجموعه آموزشی را از قبل به 8 نمونه مساوی تقسیم کنم (هر کدام حدود 100 مشاهده). من روند قطار را 8 بار تکرار کردم. در هر تکرار یک نمونه به مجموعه آموزشی واقعی خود اضافه کردم. بنابراین، اولین مدل قطار با استفاده از یک مجموعه آموزشی از 100 مشاهده نصب شد، دومی دارای 200 مشاهده بود... آخرین مدل دارای کل مجموعه آموزشی اصلی (حدود 800 مشاهده) است. در هر تکرار، خطای طبقه‌بندی اشتباه (FP + FN) را برای مجموعه‌های آموزشی و آزمایشی بر حسب درصد اندازه‌گیری کردم. من در نهایت این منحنی یادگیری را ترسیم می کنم. در محور x اندازه مجموعه آموزشی را دارم، در محور y خطای طبقه‌بندی اشتباه را در % دارم (مشکی برای مجموعه آموزشی، قرمز برای مجموعه آزمایشی). شکاف بین عملکرد قطار و تست به من نشان می‌دهد که واریانس بالایی در داده‌ها دارم (بیش از حد) اما واقعا نمی‌توانم درک کنم... چرا خطای تمرین اینقدر زیاد شروع می‌شود، سپس ناگهان کاهش می‌یابد، سپس با افزایش اندازه مجموعه تمرین دوباره شروع به افزایش می‌کند. ? اگر من مشکل بیش از حد برازش دارم، چگونه می توانم آن را برطرف کنم (شکاف را ببندم) اگر نتوانم نمونه های آموزشی بیشتری به دست بیاورم؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FKsnK.png)
منحنی یادگیری کاهش دقت را نشان می دهد
54791
من سعی می کنم یک مجموعه داده را برای شناسایی ادعاهای بیمه جعلی تجزیه و تحلیل کنم. متأسفانه، به غیر از مشخصات جمعیتی اولیه، بقیه ادعاها یک فایل متنی اسکن شده OCR با فرمت رایگان است که از اسناد ارسال شده توسط بیمار تهیه شده است. این اسناد شامل آزمایشات آزمایشگاهی، صورتحساب بیمارستان و غیره، خلاصه بیماران می باشد. در حال حاضر، کدنویسی دستی یک گزینه اما گران است. آیا احتمالی وجود دارد که استفاده از تجزیه و تحلیل متنی / متن کاوی قدرت پیش بینی را به همراه داشته باشد؟ لازم نیست کامل باشد، اما حتی اگر بتواند به طور قابل اعتماد ادعاهای بالقوه تقلب را شناسایی کند، این یک مزیت است. آیا ایده ای دارید که چگونه می توانم این را مدل کنم؟
تشخیص تقلب بیمه پزشکی: تجزیه و تحلیل متن
68464
فرض کنید من در حال ساخت یک مدل رگرسیون لجستیک باینری با حدود 400 متغیر هستم، پس چگونه وزن شواهد (WOE) را می توان در اینجا استفاده کرد؟ همچنین، من می دانستم که WOE در کاهش ابعاد در یک مدل مفید است، پس چرا به جای رفتن به WOE به سراغ تحلیل عاملی نرویم؟ اندازه تعداد متغیرها برای استفاده از WOE چقدر باید باشد؟ آیا استفاده دیگری از WOE در توسعه یک مدل وجود دارد؟ مناسب ترین سناریویی که WOE برای استفاده مناسب تر است چیست؟
چه زمانی از وزن شواهد در یک مدل پیش بینی استفاده کنیم؟
2958
من مقدار چارک 16% را می دانم، بنابراین انحراف افزودنی را برای توزیع داده شده می دانم. چگونه می توانم انحراف گزارش توزیع داده شده را در مقیاس ضربی پیدا کنم؟
چگونه انحراف معیار را در مقیاس ضربی برای توزیعی که به صورت لگاریتمی تبدیل شده است محاسبه می کنید؟
67639
یک i.i.d را در نظر بگیرید. نمونه $(X_{1},\ldots, X_{n})$ که در آن $X_{i}$ دارای چگالی $f(x) = k \cdot \exp(-(x - θ)^4)$ با $x$ و $\theta$ واقعی، آمار کافی و بعد آن را بدست آورید. این مثال چه چیزی را نشان می دهد؟ آیا آماری که پیدا کرده اید نیز کامل است؟
یافتن یک آمار کافی
63357
مدلی را با یک متغیر پاسخ پیوسته و یک متغیر توضیحی مقوله ای در نظر بگیرید. من قدردانی می‌کنم که در R، یک خروجی summary.lm از یک anova روی این داده، ردیف‌هایی را به شما می‌دهد که نشان‌دهنده مقدار میانگین هر سطح عامل است. ستارگان معنی‌داری نشان‌دهنده اهمیت تفاوت بین میانگین هر سطح و برق است که نشان‌دهنده میانگین سطح اول عامل است. چیزی که من تعجب می کنم این است که ستاره های مهم در این عبارت رهگیری چه چیزی را نشان می دهند؟ صرفاً اینکه میانگین این سطح عامل خاص با صفر متفاوت است؟
رهگیری قابل توجه در ANOVA به چه معناست؟
68463
من یک رگرسیون پشته را اجرا می کنم که به طور کلی مشابه رگرسیون موجود در http://www.mathworks.com.au/help/stats/ridge.html است. با این حال، من پیش بینی کننده های بسیار بیشتری (12) نسبت به مثال (که فقط 3 دارد) دارم. بنابراین وقتی تعاملات را درج می کنم، تعداد پارامترها منفجر می شود. چه کار کنم؟ من هیچ دلیل خاصی برای فکر کردن به اینکه تعاملات وجود دارد/نخواهد داشت، ندارم.
آیا باید فعل و انفعالات را در رگرسیون ریج لحاظ کنم؟
78593
من از بسته igraph در R برای تجزیه و تحلیل داده های شبکه استفاده می کنم. من در حال حاضر سعی می کنم برخی از معیارهای مرکزیت را برای رئوس نمودار خود و امتیازهای متمرکز مربوطه محاسبه کنم. شبکه من هم کارگردانی و هم وزن دار است. require(igraph) set.seed(12152) m <- expand.grid(از = 1:4، به = 1:4) m <- m[m$from != m$to، ] m$weight <- نمونه (1:7، 12، جایگزین = T) g <- graph.data.frame(m) من هیچ مشکلی در استفاده از تابع closeness برای به دست آوردن مرکزیت نزدیکی برای هر راس ندارم: closeness(g, mode = in) closeness(g, mode = out) closeness(g, mode = total) با این حال، به نظر می رسد که تابع centralization.closeness از igraph برای نمودارهای جهت دار «igraph» شامل روشی برای محاسبه متمرکزسازی سفارشی از امتیازهای مرکزیت فردی در یک نمودار است (عملکرد «centralize.scores»)، اما این تابع از کاربر می‌خواهد حداکثر نظری معیار مرکزیت را مشخص کند، و این واضح نیست. به نظر من در این مثال وزن دار چه چیزی خواهد بود (من معتقدم که تابع centralization.closeness.tmax داخلی در igraph یک نمودار وزنی را فرض می کند). آیا کسی می داند چگونه می توان امتیاز تمرکز را در نمودار وزنی محاسبه کرد؟ آیا راه خوبی برای انجام این کار در R با «igraph» یا بسته دیگری وجود دارد؟
معیارهای تمرکز در نمودارهای وزنی
68467
سوال: مدل رگرسیون عادی خطی کلاسیک زیر را فرض کنید: \begin{gather*} y_{i} = \beta_1 x_{1i} + \beta_2 x_{2i} + \cdots + \beta_K x_{Ki} + e_i \\ \ زیربند{\boldsymbol{y}}_{n \times 1} = \underbrace{\boldsymbol{X}}_{n \times K}\underbrace{\boldsymbol{\beta}}_{K \times 1} + \underbrace{\boldsymbol{e}}_{n \times 1} \end{gather*} که در آن $e_i \sim iid \ N(0، \sigma^2)$ برای $i = 1، 2، \cdots، n$ و $x_{1i} = 1$ برای $i = 1, 2, \cdots, n$ $\boldsymbol{\beta} = (\beta_1, \beta_2, \cdots, \beta_K)'$ را تعریف کنید و فرض کنید یک پیشین غیر اطلاعاتی به شکل $p(\boldsymbol{\beta}, \sigma) \propto \frac{1}{\sigma}$، مشتق پی دی اف های پسین مشروط برای $\boldsymbol{\beta}$ و $\sigma$، یعنی $p(\boldsymbol{\beta}|\sigma، \mathbf{y})$ و $p(\sigma|\ علامت پررنگ{\beta}، \mathbf{y})$. * * * من می توانم pdf شرطی پسین را برای $p(\boldsymbol{\beta}|\sigma, \mathbf{y})$ استخراج کنم، اما مطمئن نیستم که چگونه آن را برای $p(\sigma|\boldsymbol{) استخراج کنم. \beta}، \mathbf{y})$. پاسخ دومی این است: $p(\sigma|\boldsymbol{\beta}, \mathbf{y})=\frac{2}{\Gamma\left(\frac{n}{2}\right)} \left(\frac{na}{2}\right)^{\frac{n}{2}} \frac{1}{\sigma^{n+1}}\exp\left[-\frac{na}{2\sigma^2}\right] $ جایی که $a = \frac{1}{n}\left(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{\beta}\right)'\left(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{\ beta}\right)$ * * * کار من برای استخراج pdf پسین برای $p(\boldsymbol{\beta}|\sigma، \mathbf{y})$ داریم: \begin{align*} p(\boldsymbol{e}|\sigma) & = \prod_{i=1}^n p(e_i) \\ & = \prod_{i= 1}^n (2\pi \sigma^2)^{-\frac{1}{2}}\exp\left[-\frac{1}{2\sigma^2}e_i^2\right] \\ & = (2\pi \ sigma^2)^{-\frac{n}{2}}\exp\left[-\frac{1}{2\sigma^2}\sum_{i=1}^n e_i^2\right] \ \ & = (2\pi \sigma^2)^{-\frac{n}{2}} \exp\left[-\frac{1}{2\sigma^2} \boldsymbol{e'}\boldsymbol{ e}\right] \end{align*} از آنجایی که $p(\boldsymbol{y}) = p(\boldsymbol{e})\left|\frac{\partial \boldsymbol{e'}}{\partial \boldsymbol{y}} \right|$ and $\boldsymbol{y} = \boldsymbol{X}\boldsymbol{\beta} + \boldsymbol{e} \Longleftrightarrow \boldsymbol{ e} = \boldsymbol{y} - \boldsymbol{X}\boldsymbol{\beta}$، سپس $\frac{\جزئی \boldsymbol{e'}}{\partial \boldsymbol{y}} = \frac{\partial \boldsymbol{y'}}{\partial \boldsymbol{y}} = \boldsymbol{I}_{n}$. بنابراین، $\left|\frac{\partial \boldsymbol{e'}}{\partial \boldsymbol{y}} \right| = \چپ| \boldsymbol{I}_{n}\right| = 1 دلار بنابراین: \begin{align*} p(\boldsymbol{y}|\boldsymbol{\beta}, \sigma) & = p(\boldsymbol{e}) \\ & = (2\pi \sigma^2)^ {-\frac{n}{2}} \exp\left[-\frac{1}{2\sigma^2}\left(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{\beta}\right)'\left(\boldsymbol{y} -\boldsymbol{X}\boldsymbol{\beta}\right)\right] \ \ \text{ince} \ \ \boldsymbol{e} = \boldsymbol{y} - \boldsymbol{X}\boldsymbol{\beta} \end{align*} بنابراین داریم: $$L(\boldsymbol{\beta}, \sigma|\boldsymbol{y}) \propto ( \sigma^2)^{-\frac{n}{2}} \exp\left[-\frac{1}{2\sigma^2}\left(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{\beta}\right)'\left(\boldsymbol{y} -\boldsymbol{X}\boldsymbol{\beta}\right)\right]$$ با توجه به $p(\boldsymbol{\beta}, \sigma) \propto \frac{1}{\sigma}$، داریم: \begin{align*} p(\boldsymbol{\beta}، \sigma|\boldsymbol{y}) و \propto L(\boldsymbol{\beta}، \sigma|\boldsymbol{y}) \times p(\boldsymbol{\beta}, \sigma) \\ & \propto \frac{1}{\sigma^n}\exp\left[-\frac{1}{2\sigma^2}\left(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{\beta}\ راست)'\left(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{\beta}\right)\right] \times \frac{1}{\sigma} \\ & = \frac{1}{\sigma^{n+1}} \exp\left\{-\frac{1}{2\sigma^2}\left[ (n-K)\widehat{\sigma}^2 + (\boldsymbol{\beta} - \boldsymbol{b})'\boldsymbol{X}'\boldsymbol{X}(\boldsymbol{\beta}-\boldsymbol{b})\right] \right\} \\ & \text{where} \\\ widehat{\sigma}^2 = \frac{1}{n-K} (\boldsymbol{y} - \boldsymbol{X}\boldsymbol{b})'(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{b}) \ \ \text{و} \ \ \boldsymbol{b} = (\boldsymbol{X }'\boldsymbol{X})^{-1}\boldsymbol{X}'\boldsymbol{y} \\ & = \underbrace{\frac{1}{\sigma^K} \exp\left[-\frac{1}{2\sigma^2}(\boldsymbol{\beta} - \boldsymbol{b})'\boldsymbol{X}'\boldsymbol{X}(\boldsymbol{\beta}-\boldsymbol{b})\right]}_{f^n(\boldsymbol{\beta}|\ سیگما، \boldsymbol{y})} \underbrace{\frac{1}{\sigma^{n-K+1}} \exp\left[-\frac{(n-K)\widehat{\sigma}^2}{2\sigma^2}\right]}_{f^n(\sigma|\mathbf{y})} \end {align*} توجه داشته باشید که $f^n(\boldsymbol{\beta}|\sigma, \boldsymbol{y})$ یک هسته برای $\boldsymbol{\beta}$، جایی که $\boldsymbol{\beta} \sim MVN(\boldsymbol{b}, \sigma^2(\boldsymbol{X}'\boldsymbol{X})^{-1}) $ و $f^n(\sigma|\mathbf{y})$ یک هسته برای $\sigma$ است که در آن $\sigma \sim IG(v, \widehat{\sigma})$ و $v = n-K$, $\widehat{\sigma}^2 = \frac{1}{v} \left(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{ \beta}\right)'\left(\boldsymbol{y}-\boldsymbol{X}\boldsymbol{\beta}\right)$. بنابراین داریم: $$p(\boldsymbol{\beta}, \sigma|\mathbf{y}) = p(\boldsymbol{\beta}|\sigma, \boldsymbol{y})p(\sigma|\mathbf {y})$$ جایی که: \شروع{جمع‌آور*} p(\boldsymbol{\beta}|\sigma، \boldsymbol{y}) = (2\pi)^{-\frac{K}{2}}|\sigma^2(\boldsymbol{X}'\boldsymbo
استخراج pdf پسین در مدل رگرسیون نرمال خطی کلاسیک تحت پیشین غیر اطلاعاتی
24346
گلمن و هیل (2006) توضیح می دهند که چگونه یک مدل رگرسیون چند سطحی می تواند پراکندگی داده ها را با ادغام تخمین های پارامتر جبران کند. اما اگر داده ها به صورت تصادفی پراکنده نباشند چه اتفاقی می افتد؟ برای مثال، فرض کنید در حال ارزیابی یک داروی جدید فشار خون هستیم. در هر ویزیت، فشار خون بیمار را اندازه گیری می کنیم، درمان را انجام می دهیم و دوباره فشار خون را اندازه گیری می کنیم. ما ممکن است فرصت های کمتری برای مشاهده اثر یک درمان در برخی از بیماران نسبت به سایرین داشته باشیم، بنابراین ممکن است بخواهیم از ادغام استفاده کنیم. اما تعداد مشاهدات به ازای هر بیمار می تواند با این واقعیت مرتبط باشد که درمان برای برخی از بیماران بی اثر است (بنابراین آنها نمی خواهند وارد شوند)، یا باعث عوارض جانبی دو ساعت بعد (بنابراین نمی خواهند وارد شوند) یا دارو، بیماران را در کما قرار می دهد و آنها از مطالعه خارج می شوند. آیا دیگر ادغام در چنین مطالعه ای مناسب نیست؟
مدلسازی سلسله مراتبی زمانی که داده ها به طور تصادفی از دست نمی روند
24344
اجازه دهید $X_1$، $X_2$، ...، $X_n$ iid RV با محدوده $[0,1]$ اما توزیع ناشناخته باشد. (در صورت لزوم با فرض اینکه توزیع پیوسته است، و غیره موافقم.) $S_n = X_1 + \cdots + X_n$ را تعریف کنید. به من $S_k$ داده می شود و می پرسم: چه چیزی را می توانم به شیوه بیزی در مورد $S_n$ استنباط کنم؟ یعنی مجموع نمونه‌ای با اندازه k$ از RV به من داده می‌شود، و می‌خواهم بدانم با استفاده از رویکرد بیزی (و با فرض پیشین‌های معقول) در مورد توزیع مجموع همه RVها چه چیزی می‌توانم استنباط کنم. در مورد توزیع). اگر پشتیبانی $\{0,1\}$ به جای $[0,1]$ بود، پس این مشکل به خوبی مطالعه شده است، و (با پیشین‌های یکنواخت) توزیع‌های ترکیبی دوجمله‌ای بتا را برای توزیع استنباط‌شده در $ دریافت می‌کنید. S_n$. اما من مطمئن نیستم که چگونه با $[0,1]$ به عنوان محدوده به آن نزدیک شوم... **افشای کامل** : من قبلاً این را در MathOverflow پست کرده بودم، اما گفته شد که بهتر است اینجا پست شود، بنابراین این یک پست مجدد است
استنتاج بیزی بر روی مجموع متغیرهای تصادفی با ارزش واقعی iid
2956
من نویسنده بسته ez برای R هستم و دارم روی به‌روزرسانی کار می‌کنم تا محاسبه خودکار نسبت‌های احتمال (LR) را در خروجی ANOVA لحاظ کند. ایده این است که برای هر اثر یک LR ارائه شود که مشابه آزمایش آن اثری است که ANOVA به دست می‌آورد. به عنوان مثال، LR برای اثر اصلی، مقایسه یک مدل تهی با مدلی که شامل اثر اصلی است، LR برای یک تعامل، مقایسه مدلی را نشان می‌دهد که شامل هر دو اثر اصلی جزء در مقابل مدلی است که شامل هر دو اثر اصلی _و_ می‌شود. تعامل آنها و غیره. اکنون، درک من از محاسبات LR از Glover & Dixon (PDF) می آید که محاسبات اولیه و همچنین اصلاحات پیچیدگی و ضمیمه Bortolussi را پوشش می دهد. & Dixon (ضمیمه PDF)، که محاسبات مربوط به متغیرهای اندازه گیری مکرر را پوشش می دهد. برای آزمایش درک خود، من این صفحه گسترده را توسعه دادم که dfs و SS ها را از یک نمونه ANOVA (تولید شده از یک طرح 2*2*3*4 با استفاده از داده های جعلی) و مراحل محاسبه LR را برای هر افکت می گیرد. من واقعا ممنون می شوم اگر فردی با کمی اطمینان بیشتر با چنین محاسباتی بتواند نگاهی بیندازد و مطمئن شود که همه چیز را به درستی انجام داده ام. برای کسانی که کد انتزاعی را ترجیح می دهند، در اینجا کد R است که به روز رسانی به ezANOVA() را اجرا می کند (به طور خاص به خطوط 15-95 مراجعه کنید).
آیا این نسبت های احتمال را به درستی محاسبه کرده ام؟
67633
من دو عامل دارم: **منطقه مغز (4 سطح)** و **گروه (5 سطح)**. گلوتامات متغیر وابسته من است. من مدل های خطی عمومی را در SPSS (ANOVA دو عاملی) اجرا می کنم. آیا می توانم خروجی را به گونه ای بدست بیاورم که: بتوانم میانگین (آزمون پس از انجام آزمایش) کنترل را با سطوح دیگر مانند الکل، EW و غیره (گروه) در CC، CB و غیره (منطقه مغزی) مقایسه کنم؟
در SPSS ANOVA دو عاملی، چگونه می توان گروه های کنترل را با سایر عوامل مقایسه کرد؟
68468
من ابزارهای مالی زیادی دارم و باید آنها را بر اساس ثبات حرکت قیمت رتبه بندی کنم، یعنی ابزارهایی با نقاط پرت بزرگ باید کمترین رتبه ها را داشته باشند و ابزارهایی با حرکت های پایدار و ثابت باید بالاترین رتبه ها را داشته باشند. برای حل این مسئله من از نسبت «میانگین حسابی» به «انحراف استاندارد» برای هر ابزار استفاده می‌کنم و سپس آنها را بر اساس این نسبت مرتب می‌کنم. اما یک مشکل وجود دارد: این روش فقط تقریباً کار می کند و برخی از سازهای بد رتبه های بالاتری نسبت به سازهای خوب دارند. آیا رویکردهای مختلفی برای رتبه بندی وجود دارد؟ برای نقاط داده من از $\ln(\text{High} / \text{Low})$ استفاده می‌کنم و دوره 750 نقطه داده برای هر ابزار است.
رتبه‌بندی ابزارهای مالی بر اساس حرکت قیمت (فروت، ثبات)
67636
(1) من داده ها را با یک روش تطبیق (CEM) از پیش پردازش کردم (2) بر روی این داده ها (متغیر وابسته دودویی، متغیرهای توضیحی)، یک مدل لاجیت را اجرا کردم و احتمالات یا نسبت های شانس پیش بینی شده را تخمین زدم. من می‌خواهم تخمین‌هایم از مدل لاجیت را در چارچوب پیامد بالقوه ادغام کنم (می‌خواهم یک اثر درمانی متوسط ​​برای درمان شده (ATT) متغیر توضیحی خود دریافت کنم) می‌دانم که برای OLS امکان‌پذیر است (من آن را در Gelman & Hill پیدا کردم. 2007، فصل 9)، اما من چیزی در لاجیت پیدا نکردم.
آیا مدل رگرسیون لجستیک در چارچوب نتیجه بالقوه قابل ادغام است؟
63355
بهترین روش برای تعیین حداقل تعداد نمونه های آموزشی مورد نیاز برای یک طبقه بندی کننده چیست؟ من فقط یک طبقه بندی کننده (مسئله چهار کلاس)، تجزیه و تحلیل تابع متمایز (DFA) را با اندازه های مختلف نمونه آموزشی از مجموعه داده های مختلف مقایسه می کنم. با این حال، من می‌توانم در نظر بگیرم که بیش از یک طبقه‌بندی کننده را مقایسه می‌کنم، زیرا DFA را با استفاده از روش‌های درون ماتریس و ماتریس جداگانه مقایسه می‌کنم. داده ها داده های شتاب سنج هستند که برای طبقه بندی رفتار حیوانات استفاده می شوند. مجموعه داده‌های مختلف همگی از همان داده‌های اصلی هستند، اما درمان‌هایی به‌کار گرفته شده‌اند، به‌عنوان مثال صاف‌شده، حذف موارد پرت. من 100 تعامل با افزایش اندازه‌های نمونه فرعی به‌طور تصادفی (10 تا 2550) از هر مجموعه داده را از طریق هر طبقه‌بندی اجرا کرده‌ام. میانگین دقت طبقه بندی یا میزان خطا برای هر اندازه نمونه فرعی به طور جداگانه برای هر مجموعه داده به من منحنی یادگیری برای طبقه بندی کننده در هر یک از چهار کلاس می دهد. با استفاده از ناحیه ای که منحنی یادگیری در آن سطح می شود، می خواهم حداقل اندازه نمونه آموزشی احتمالی را برای هر کلاس مورد نیاز برای مطالعه آینده پیشنهاد کنم. به جای مشاهده بصری منحنی یادگیری و ارائه یک توصیه، آیا یک آزمون آماری مناسب وجود دارد. آیا من در مورد انتخاب ویژگی مبتنی بر داده صحبت می کنم؟ من نیازی به برون یابی ندارم زیرا به نظر می رسد نمونه های آموزشی کافی دارم. من فکر نمی‌کنم منحنی‌های ROC قابل اجرا باشند، زیرا من فقط نرخ‌های طبقه‌بندی را از هر اجرا از اندازه‌های نمونه فرعی به جای احتمالات عضویت پیش‌بینی‌شده دارم که فکر می‌کنم برای منحنی‌های ROC به آن نیاز دارم. من چندین پست را در اینجا نگاه کردم که در پیشبرد تفکر من مفید بوده است. این پست (مجموعه آموزشی چقدر بزرگ مورد نیاز است؟) به نیاز من مربوط می شود اما نمی بینم که تست مناسبی را پیشنهاد کند. این مقاله (http://jmlr.org/papers/volume7/demsar06a/demsar06a.pdf) آزمون فریدمن را با آزمون‌های تعقیبی مربوطه برای مقایسه طبقه‌بندی‌کننده‌های بیشتر در مجموعه داده‌های چندگانه پیشنهاد می‌کند. با این حال، به نظر نمی رسد افزایش حجم نمونه فرعی از همان مجموعه داده های آموزشی را در نظر بگیرد، بلکه از مجموعه داده های کاملاً مستقل استفاده می کند.
حداقل حجم نمونه آموزشی مورد نیاز برای طبقه بندی کننده
62669
آیا می توان همبستگی بین دو نسبت را محاسبه کرد، در حالی که حجم نمونه فردی را که برای محاسبه نسبت به ازای هر فرد استفاده می شود، در نظر گرفت؟ به عنوان مثال: چگونه می توانم ارتباط بین نسبت سر از یک سکه، و نسبت سر از سکه دیگر را در هنگام پرتاب توسط همان فرد محاسبه کنم. هر فردی هر سکه را به دفعات پرتاب نمی کند (برخی افراد حتی یکی از دو سکه را یک بار پرتاب می کنند). آیا این حتی ممکن است؟
نحوه محاسبه همبستگی بین متغیرهایی که نسبت مشاهدات متفاوت در حجم نمونه هستند
58746
من روی ماتریس های انتقال مارکوف کار می کنم. من می خواهم یک آزمون آماری برای مقایسه آنها پیدا کنم. ماتریس اول ماتریس انتقال جمعیت در نظر گرفته می شود و ماتریس دوم با تخمین از داده ها (شمارش انتقال ها) به دست می آید. اولین ایده من استفاده از تست مربع کای در هر خط از دو ماتریس بود. اما من یک مشکل دارم: برخی از انتقال ها ممکن است باطل باشند. وقتی این اتفاق می‌افتد، تست مربع چی دیگر کار نمی‌کند. اگر کسی ایده ای داشته باشد، عالی است. علاوه بر این، اگر مقاله علمی در این زمینه دارید، مایلم منابع آن را داشته باشم.
چگونه دو ماتریس را با هم مقایسه کنیم؟
78596
من اخیراً با روش فیشر برای ترکیب مقادیر p آشنا شدم. این مبتنی بر این واقعیت است که p-value زیر null از توزیع یکنواخت پیروی می کند و $$-2\sum_{i=1}^n{\log X_i} \sim \chi^2(2n), \text { داده شده } X \sim \text{Unif}(0,1)$$ که به نظر من نابغه است. اما سوال من این است که چرا به این راه پیچیده می رویم؟ و چرا (چه اشکالی دارد) فقط از میانگین مقادیر p استفاده نکنیم و از قضیه حد مرکزی استفاده نکنیم؟ یا میانه؟ من در تلاش برای درک نبوغ RA Fisher در پشت این طرح بزرگ هستم.
هنگام ترکیب مقادیر p، چرا فقط میانگین نگیریم؟
64767
یکی از همکاران از من خواسته است تا در تنظیم صفحه گسترده ای که در تجزیه و تحلیل ایمیل های مراقبت از مشتری استفاده می شود کمک کنم. به طور خاص، ما به سه دسته نگاه می کنیم - تخصیص متا داده ها، محتوا و مهارت های ارتباطی. یک سوال نمونه معمولی ممکن است این باشد: ایمیل چقدر برای سوالات مشتریان تنظیم شده است؟ کارمند چقدر به سوالات مشتریان پاسخ داد؟ من آمارگیر نیستم اما در گذشته چند نظرسنجی انجام داده ام. پس از مشاهده نظرسنجی اولیه، که اساساً مجموعه‌ای ویژه از سؤالات همراه با مکانیسم‌های مقیاس‌بندی متفاوت برای هر سؤال بود. من فکر کردم اولین قدم تکرار اهداف و بازگشت از آنجا خواهد بود. در غیر این صورت من اساساً روش‌های خودم را از ابتدا ابداع می‌کنم، که کمی پوسته‌پوسته به نظر می‌رسد. همه اینها باعث شد که نظرسنجی را با استفاده از مقیاس لیکرت به دلیل سادگی در اجرا و تحلیل دوباره طراحی کنم. با این حال، بدون پیش‌زمینه آماری عمیق، اعتبارسنجی اینکه چرا بهتر است از روش‌شناسی اثبات‌شده استفاده شود تا مجموعه‌ای از مقیاس‌ها و اندازه‌گیری‌های مختلف که در یک عدد واحد جمع‌آوری شده‌اند، دشوار است. چگونه می توانم آنها را در مورد مزایای استفاده از یک روش شناسی/مقیاس مانند لیکرت به جای انتخاب های مختلف اندازه گیری متقاعد کنم؟
سوالات نظرسنجی با فرمت‌های مختلف پاسخ: آیا این یک مشکل است؟
24348
من می‌خواهم یک آزمون آماری انجام دهم که به من امکان می‌دهد بگویم دو جمعیت به جای متفاوت شبیه هم هستند. همانطور که آماردانان می‌دانند، من نمی‌توانم این کار را با آزمون‌هایی مانند آزمون T انجام دهم، زیرا فرضیه صفر آزمون این است که میانگین جمعیت‌ها برابر است. از این رو سوال من است.
آیا آزمونی در R وجود دارد که فرضیه صفر آن تفاوت بین میانگین دو جمعیت باشد؟
77316
با نگاهی به کتابچه راهنمای GeoBUGS نسخه 12، یک سردرگمی وجود دارد که دقیقاً چگونه مدل «car.normal» مشخص شده است: 1) در صفحه 12، من خواندم > ### car.normal و car.l1 [بالا] > > ذاتی توزیع قبلی گاوسی CAR با استفاده از > توزیع car.normal برای بردار متغیرهای تصادفی مشخص می شود. 2) به پیوست 1 نگاه می کنیم، دقیقا چگونه آیا این مدل **ذاتی** ماشین مشخص شده است، من خواندم (صفحه 41): > ### مدل خودرو ذاتی [بالا] > > Besag، York و Mollie (1991) یک نسخه ذاتی از این مدل CAR را پیشنهاد کردند > که در آن [ ...] مدل آنها مطابق با انتخاب Cij = 1/ni است اگر نواحی i و > j مجاور باشند و Cij = 0 در غیر این صورت (با Cii نیز روی 0 تنظیم شده است) [...] توجه > که یک مشخصات معادل این است که وزن‌های غیرعادی Wij = 1 را اگر > ناحیه i و j در مجاورت یکدیگر باشند و Wij = 0 در غیر این صورت، بگیرید و Cij = Wij / Wi+ > را که Wi+ = ∑j Wij تنظیم کنید. توزیع car.normal و (car.l1) در GeoBUGS > کاربر را ملزم می‌کند که وزن‌های غیر عادی را مشخص کند. بگذریم از اینکه آنها از Cij و Wij برای وزن ها استفاده می کنند، که گیج کننده است، و اینکه تنظیم Cij = Wij / Wi+ با Wij = 1 برای همسایگان به طور بی اهمیتی با تنظیم Cij = 1/ni یکسان است، پس چرا آنها می گویند که معادل است - آنها احتمالاً می خواستم بگویم که یک مشخصات معادل این است که Cij = 1 را برای همسایگان و 0 را در غیر این صورت تنظیم کنید ... به نظر می رسد که ابهامات زیادی در راهنما وجود دارد. (مثلاً v در مدل در صفحه 41 چیست، Φ در مشخصات شرطی در صفحه 41 چیست و چگونه به پارامتر tau در صفحه 12 متصل می شود؟) اما به هر حال... سردرگمی عمده این است که «ماشین» .normal اجازه تعیین وزن های _خودسرانه (؟)_ را می دهد، با این حال می گویند وزن ها به 1 و 0 و در مشخصات مدل در انتهای صفحه 41 محدود شده است. (و ابتدای صفحه 42) وزنی در عبارت وجود ندارد. بنابراین مشخص نیست که مدل واقعی «car.normal» واقعاً چه کاری انجام می دهد. شرح پارامتر وزن در صفحه 12 آن را واضح تر نمی کند: > **وزن[]** : برداری به طول adj[] که وزن های غیرعادی مرتبط با هر جفت ناحیه را نشان می دهد. برای مدل CAR که > در بالا توضیح داده شد، با گرفتن Cij = 1 (معادل Wij = 1/ni ) اگر ناحیه i و j > همسایه باشند و 0 در غیر این صورت، بردار 1 را برای وزن ها [] به دست می دهد. من نمی دانم منظور آنها از مدل CAR شرح داده شده در بالا چیست، فقط یک فراخوان کلی به car.normal وجود دارد - بنابراین این یک نوع تعریف دایره ای است. پس آیا داشتن چنین وزنه هایی لازم است یا خیر؟ این نظر ابهامات زیادی را ایجاد می کند. (و btw از C و W برای وزن‌ها استفاده می‌کنند، در اینجا در صفحه 12 آنها را در متنی متفاوت از صفحه 41 استفاده می‌کنند - گاهی اوقات W نرمال می‌شود، گاهی اوقات C نرمال می‌شود.) من می‌خواهم بیان واقعی پشت آن را ببینم. این مدل من فقط می توانم حدس بزنم که مدل اینگونه باشد: $$ S_i|S_j \sim \mbox{Normal}(\frac{1}{n_i}\sum_{j}{S_j}, \frac{1}{\tau \space n_i}) $$ همانطور که در اسناد پیوست 1 (به طور نامشخص) پیشنهاد شده است، یا اگر شبیه ($w_{i+} = \sum_{k}{w_{ik}}$) $$ S_i|S_j \sim \mbox{Normal}(\frac{1}{w_{i+}}\sum_{j}{w_{ij} \space S_j }, \frac{1}{\tau \space n_i}) $$ همانطور که از تابع «car.normal» که وزن‌هایی به عنوان آرگومان دارد انتظار می‌رود (اگر باید همه باشد چرا باید آنجا باشد. 1s؟) آیا منبع معتبر/معتبر دیگری برای پاسخ به این سوال وجود دارد؟
مدل car.normal دقیقاً چگونه مشخص شده است؟
67634
**1. مشکل** من مقداری اندازه گیری از یک متغیر $y_t$ دارم، که $t=1,2,..,n$، که برای آن توزیع $f_{y_t}(y_t)$ از طریق MCMC به دست آمده است. سادگی را گاوسی از میانگین $\mu_t$ و واریانس $\sigma_t^2$ فرض می کنم. من یک مدل فیزیکی برای آن مشاهدات دارم، مثلاً $g(t)$، اما باقیمانده‌های $r_t = \mu_t-g(t)$ به نظر همبستگی دارند. به طور خاص، من دلایل فیزیکی دارم که فکر می کنم یک فرآیند $AR(1)$ برای در نظر گرفتن همبستگی کافی است، و من قصد دارم ضرایب تناسب را از طریق MCMC به دست بیاورم، که برای آن به **احتمال** نیاز دارم. . من فکر می کنم راه حل نسبتا ساده است، اما من خیلی مطمئن نیستم (به نظر می رسد آنقدر ساده است، که فکر می کنم چیزی را از دست داده ام). **2. استخراج احتمال** یک فرآیند $AR(1)$ با میانگین صفر را می توان به صورت زیر نوشت: $$X_t = \phi X_{t-1}+\varepsilon_t،\ \ \ (1)$$ که در آن فرض می‌کنم $\varepsilon_t\sim N(0,\sigma_w^2)$. پارامترهایی که باید تخمین زده شوند عبارتند از $\theta = \{\phi,\sigma_w^2\}$ (در مورد من، من باید پارامترهای مدل $g(t)$ را نیز اضافه کنم، اما اینطور نیست مشکل). با این حال، چیزی که من مشاهده می کنم، متغیر $$R_t = X_t+\eta_t، \ \ \ (2)$$ است که در آن $\eta_t\sim N(0,\sigma_t^2)$ و $\ را فرض می کنم. sigma_t^2$ شناخته شده است (خطاهای اندازه گیری). از آنجایی که $X_t$ یک فرآیند گاوسی است، $R_t$ نیز چنین است. به طور خاص، من می دانم که $X_1 \sim N(0,\sigma_w^2/[1-\phi^2])، $$ بنابراین، $$R_1 \sim N(0,\sigma_w^2/[1 -\phi^2]+\sigma_t^2).$$ چالش بعدی بدست آوردن $R_t|R_{t-1}$ برای $t\neq 1$ است. برای استخراج توزیع این متغیر تصادفی، توجه داشته باشید که با استفاده از معادله $(2)$ من می توانم $$X_{t-1} = R_{t-1}-\eta_{t-1} بنویسم.\ \ \ (3)$$ با استفاده از معادله. $(2)$، و با استفاده از تعریف معادله. $(1)$، من می توانم بنویسم، $$R_{t} = X_t+\eta_t = \phi X_{t-1}+\varepsilon_{t}+\eta_t.$$ با استفاده از معادله. $(3)$ در این عبارت آخر، سپس، $$R_{t} = \phi (R_{t-1}-\eta_{t-1})+\varepsilon_{t}+\eta_t، $$ بنابراین، $$R_t|R_{t-1} = \phi (r_{t-1}-\eta_{t-1})+\varepsilon_{t}+\eta_t،$$ و بنابراین، $$R_t|R_{t-1} \sim N(\phi r_{ t-1},\sigma_w^2+\sigma_t^2-\phi^2\sigma^2_{t-1}).$$ در نهایت، می توانم تابع درستنمایی را به صورت بنویسم $$L(\theta) = f_{R_1}(R_1=r_1) \prod_{t=2}^{n} f_{R_{t}|R_{t-1}}(R_t=r_t|R_{t -1}=r_{t-1})، $$ که در آن $f(\cdot)$ توزیع متغیرهایی است که من به تازگی تعریف کردم، یعنی تعریف کردم. $\sigma'^2 = \sigma_w^2/[1-\phi^2]+\sigma_t^2، $$f_{R_1}(R_1=r_1) = \frac{1}{\sqrt{2\ pi \sigma'^2}}\text{exp}\left(-\frac{r_1^2}{2\sigma'^2}\right)،$$ و تعریف $\sigma^2(t) = \sigma_w^2+\sigma_t^2-\phi^2\sigma^2_{t-1}$, $$f_{R_{t}|R_{t-1} }(R_t=r_t|R_{t-1}=r_{t-1})=\frac{1}{\sqrt{2\pi \sigma^2(t)}}\text{exp}\left(-\frac{(r_t-\phi r_{t-1})^2}{2\sigma^2(t)}\right)$ دلار **3. سوالات** 1. **آیا اشتقاق من خوب است؟** من هیچ منبعی برای مقایسه ندارم به غیر از شبیه سازی (که به نظر می رسد موافق هستند) و من یک آمارگیر نیستم! 2. **آیا اشتقاقی از این نوع چیزها در ادبیات برای فرآیندهای $MA(1)$ یا فرآیندهای $ARMA(1,1)$ وجود دارد؟** مطالعه برای فرآیندهای $ARMA(p,q)$ در کلی که بتوان به این مورد اختصاص داد خوب خواهد بود.
فرآیند AR(1) با خطاهای اندازه گیری ناهمسان
79173
اینها داده‌های من هستند: گونه‌های زیرلایه انسان. تعداد ضربه 1 قلوه سنگ E. چهار رنگ 0 0 2 مرجان و قلوه سنگ E. چهار رنگ 0 0 3 مرجان E. چهار رنگ 0 4 4 مرجان و ماسه E. چهار رنگ 0 0 5 شن و ماسه E. چهار رنگ0 6 قلوه سنگ S. mertensii 0 0 7 مرجان ها و قلوه سنگ ها S. mertensii 0 2 8 corals S. mertensii 0 10 9 مرجان ها و شن و ماسه S. mertensii 0 9 10 شن و ماسه S. mertensii 0 0 11 قلوه سنگ H. crispa 0 0 12 مرجان ها و قلوه سنگ ها H. crispa 0 کریسپا 0 6 14 مرجان و شن و ماسه H. crispa 0 5 15 شن و ماسه H. crispa 0 0 16 قلوه سنگ M. doreensis 0 0 17 مرجان و قلوه سنگ M. doreensis 0 0 18 مرجان M. doreensis 0 0 19 مرجان و شن و ماسه M. doreensis 0 0 20 شن و ماسه M. doreensis. 0 0 21 قلوه سنگ H. magnifica 0 0 22 مرجان ها و قلوه سنگ ها H. magnifica 0 0 23 corals H. magnifica 0 1 24 مرجان ها و شن و ماسه H. magnifica 0 0 25 شن و ماسه H. magnifica 0 0 26 قلوه سنگ S. gigantea 0 0 27 مرجان ها و روبل ها 28 مرجان S. gigantea 0 0 29 مرجان ها و شن و ماسه S. gigantea 0 0 30 شن و ماسه S. gigantea 0 0 31 قلوه سنگ H. aurora 0 0 32 مرجان ها و قلوه سنگ ها H. aurora 0 0 33 مرجان ها H. aurora 0 2 34 مرجان ها و شن و ماسه H. aurora 4 35 شنی H. aurora 0 0 36 قلوه سنگ E. quadricolor 1 0 37 corals and rubbles E. quadricolor 1 0 38 corals E. quadricolor 1 8 39 corals and sand E. quadricolor 1 0 40 sand E. quadricolor 1 0 41 rubbles S. mertensii mertensii مرتنسی 1 0 43 مرجان S. mertensii 1 0 44 مرجان و شن S. mertensii 1 0 45 شن و ماسه S. mertensii 1 0 46 قلوه سنگ H. crispa 1 0 47 مرجان و قلوه سنگ H. crispa 1 0 48 مرجان H. crispa 491 شن و ماسه H. crispa 1 0 50 شن و ماسه H. crispa 1 0 51 قلوه سنگ M. doreensis 1 0 52 مرجان و قلوه سنگ M. doreensis 1 0 53 corals M. doreensis 1 0 54 مرجان و شن و ماسه M. doreensis 1 0 55 شن و ماسه M. doreensis 1 0 56 قلوه سنگ 1 0 57 مرجان و قلوه سنگ H. magnifica 1 0 58 corals H. magnifica 1 3 59 مرجان ها و شن و ماسه H. magnifica 1 0 60 شن و ماسه H. magnifica 1 0 61 قلوه سنگ S. gigantea 1 0 62 مرجان و قلوه سنگ S. gigantea corals 1 0. 1 64 مرجان و ماسه S. gigantea 1 0 65 شن و ماسه S. gigantea 1 0 66 قلوه سنگ H. aurora 1 0 67 مرجان و قلوه سنگ H. aurora 1 0 68 مرجان H. aurora 1 1 69 مرجان و ماسه H. aurora 1 0 70 شن و ماسه H. aurora 0 71 قلوه سنگ E. چهار رنگ 2 0 72 مرجان و قلوه سنگ E. quadricolor 2 0 73 corals E. quadricolor 2 0 74 مرجان و شن E. quadricolor 2 1 75 شن و ماسه E. چهار رنگ 2 0 76 قلوه سنگ S. mertensii 2 0 77 مرجان و شن و ماسه 7 corals78 S. S. mertensii 2 2 79 مرجان و شن و ماسه S. mertensii 2 1 80 شن و ماسه S. mertensii 2 0 81 قلوه سنگ H. crispa 2 0 82 مرجان و قلوه سنگ H. crispa 2 0 83 مرجان H. crispa 2 0 84 مرجان و ماسه H. crispa 85 شن و ماسه H. crispa 2 0 86 قلوه سنگ M. doreensis 2 0 87 مرجان و قلوه سنگ M. doreensis 2 0 88 corals M. doreensis 2 0 89 مرجان و شن و ماسه M. doreensis 2 0 90 شن و ماسه M. doreensis 2 0 91 قلوه سنگ H. magnifica2 corals 2 09 magnifica 2 0 93 مرجان ها H. magnifica 2 0 94 مرجان ها و شن و ماسه H. magnifica 2 0 95 شن و ماسه H. magnifica 2 0 96 قلوه سنگ S. gigantea 2 0 97 مرجان ها و
آیا رگرسیون پواسون من درست است؟
24342
من سعی می کنم مدل خوبی برای تجزیه و تحلیل پویایی های اجتماعی با استفاده از یک مدل پیدا کنم. من داده های نظر دادن را از یک وب سایت دارم. مانند 500 مقاله، 10000 کاربر و 75000 نظر آنها. هر کاربر در مورد هر مقاله نظر نمی دهد. نظرات ارائه شده توسط هر کاربر به نظر کاربران قبلی و همچنین نظر خود مقاله مرتبط است. نظرات کاربران قبلی نیز به کاربران قبلی و مقاله لینک داده شده است. من می خواهم تأثیر نظر کاربر قبلی، نظر کاربر متوسط، نظر مقاله و تنوع نظرات را بر نظر فعلی تخمین بزنم. آیا می توانید روشی برای چنین مشکلی پیشنهاد دهید؟ همه چیز به هم مرتبط است. همچنین می خواهم بپرسم از چه نرم افزار و کدی برای مدل سازی چنین مشکلی استفاده می کنید؟ کدها بسیار بسیار قدردانی می شوند.
خطاهای مرتبط بین متغیرها [بین / درون موضوعات، درون متغیرها، همه چیز]!
50231
به عنوان مثال از جایزه نتفلیکس می دانم که بهترین RMSE = 0.8563 است که در آن مجموعه داده آزمایشی دارای اندازه n = 1,408,789 است. آیا می توانم یک مرز برای MAE محاسبه کنم؟ اگر نه، چرا نمی توانم یک مرز محاسبه کنم؟ من اینطور شروع کردم: RMSE = $\sqrt{\frac{\sum_{i=1}^{n}(y_{i}-\hat y_{i})^2}{n}}=0.8563$ اکنون من می‌خواهید MAE یا مرزی را برای MSE محاسبه کنید: MAE = $\frac{1}{n}\sum_{i=1}^{n}{|y_{i}-\hat y_{i}|}$ من می دانم که: $\sum_{i=1}^{n}(y_{i}-\hat y_{i})^2=RMSE^2*n$ از فرمول اول. آیا امکان تعیین مرز برای MAE وجود دارد به عنوان مثال؟ MAE < 1؟
مرز MAE داده شده RMSE را محاسبه کنید
67632
من به دنبال مقالاتی هستم، ترجیحاً در اقتصاد، که در آن از OLS ساده استفاده می شود. دلیل آن این است که برای انتقال عملکرد رگرسیون خطی، من می‌خواهم داده‌های واقعی از مقالات واقعی داشته باشم. بیشتر تحقیقات از مدل های همزمان یا سایر زنگ ها و سوت ها استفاده می کنند. همچنین تعداد کمی از محققان داده های خود را منتشر می کنند. من می‌توانم داده‌های خودم را تولید کنم، اما همانطور که گفتم، می‌خواهم کل داستان داده‌ها و تحقیقات را پشت آن داشته باشم. Wooldridge (اقتصاد سنجی مقدماتی) تحلیل های ساده زیادی از مقالات گذشته انجام می دهد، اما تا آنجا که من می دانم، اینها فقط نسخه ساده شده مدل های واقعی هستند.
تحقیق با استفاده از روش های پایه OLS
79174
من به دنبال تولید 450 نقطه داده در R هستم. سه مجموعه مجزا از هر 150 در یک باند دایره ای با شعاع های مختلف (در 1، 2.8 و 5) توزیع شده است. به طور خاص، من به دنبال بازتولید اولین نمودار در p546 از عناصر یادگیری آماری هستم. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/rMILV.png) برای کمک در کد R که بتواند این داده ها را ایجاد کند بسیار سپاسگزار خواهم بود. با تشکر
چگونه می توانم نقاط توزیع شده یکنواخت روی یک دایره ایجاد کنم؟
77313
من می خواهم خروجی های lmer (واقعاً glmer) را با یک مثال دو جمله ای اسباب بازی تطبیق دهم. من عکس ها را خوانده ام و معتقدم که می فهمم چه خبر است. اما ظاهرا این کار را نمی کنم. پس از گیر افتادن، حقیقت را از نظر اثرات تصادفی ثابت کردم و به تنهایی دنبال تخمین اثرات ثابت رفتم. من این کد را در زیر قرار می دهم. برای مشاهده قانونی بودن آن، می‌توانید «\+ Z %*% b.k» را نظر دهید و با نتایج یک glm معمولی مطابقت خواهد داشت. من امیدوار هستم که مقداری نیروی مغزی قرض بگیرم تا بفهمم چرا وقتی افکت های تصادفی گنجانده شده است، نمی توانم خروجی lmer را مطابقت دهم. # راه اندازی - کدگذاری سخت مجموعه داده های ساده df <- data.frame(x1 = rep(c(1:5)، 3)، موضوع = مرتب سازی(rep(c(1:3)، 5))) df$subject < - فاکتور(df$subject) # مقادیر ضریب واقعی بتا <- ماتریس (c(-3.3، 1)، ncol = 1) # فاصله و شیب، به ترتیب u <- ماتریس (c(-.5، 0.6، .9)، ncol = 1) # جلوه های تصادفی برای 3 موضوع # ماتریس های طراحی Z (اثرات تصادفی) و X (اثرات ثابت) Z <- model.matrix (~ 0 + فاکتور(موضوع)، داده = df) X <- model.matrix(~ 1 + x1، داده = df) # پاسخ df$y <- c(1، 1، 1، 1، 1، 0، 0، 0، 1، 1، 0، 1، 0، 1، 1) y <- df$y ### هدف: برآوردهای مطابقت از موارد زیر خروجی lmer! library(lme4) my.lmer <- lmer( y ~ x1 + (1 | موضوع)، داده = df، خانواده = دوجمله ای) خلاصه (my.lmer) ranef(my.lmer) ### تلاش برای تطبیق از اینجا بتا شروع می شود. k <- ماتریس(c(-3، 1.5)، ncol = 1) # مقادیر اولیه (نزدیک به حقیقت) b.k <- ماتریس(c(1.82478، -1.53618، -.5139356)، ncol = 1) # اثرات تصادفی lmer # الگوریتم تکراری گاوس-نیوتن برای (iter در 1:6) {lin.pred <- as.numeric(X %*% beta.k + Z %*% b.k) mu.k <- واریانس plogis(lin.pred) <- mu.k * (1 - mu.k) W.k <- diag(1/variances) y.star <- W.k^(.5) %*% (y - mu.k) X.star <- W.k^(.5) %*% (واریانس * X) delta.k <- حل(t(X.star) %*% X.star) %*% t(X.star) %*% y.star # Gauss-Newton Update beta.k <- beta.k + delta.k cat(iter, Fixed Effects: , beta.k, \n) }
چرا نمی توانم lmer را برای خانواده = دوجمله ای مطابقت دهم؟
58745
ویرایش 2: من در ابتدا فکر می‌کردم که باید یک ANOVA دو عاملی را با اندازه‌گیری‌های مکرر روی یک عامل اجرا کنم، اما اکنون فکر می‌کنم یک مدل خطی اثر مختلط برای داده‌های من بهتر کار می‌کند. فکر می‌کنم تقریباً می‌دانم چه اتفاقی باید بیفتد، اما هنوز با چند نکته سردرگم هستم. آزمایشاتی که باید تجزیه و تحلیل کنم به این صورت است: * آزمودنی ها به یکی از چندین گروه درمانی اختصاص داده شدند * اندازه گیری های هر آزمودنی در چند روز انجام شد * بنابراین: * آزمودنی در داخل درمان قرار دارد * درمان با روز تلاقی می شود (هر آزمودنی اختصاص داده می شود. فقط به یک درمان، و اندازه‌گیری‌ها روی هر موضوع در هر روز انجام می‌شود) مجموعه داده‌های من حاوی اطلاعات زیر است: * موضوع = عامل مسدودکننده (عامل تصادفی) * روز = در محدوده موضوع یا فاکتور اندازه‌گیری‌های مکرر (ثابت) فاکتور) * درمان = بین فاکتور موضوع (عامل ثابت) * Obs = متغیر اندازه گیری شده (وابسته) **به روز رسانی ** خوب، بنابراین من رفتم و با یک آمارگیر صحبت کردم، اما او کاربر SAS است. او فکر می کند که مدل باید به صورت زیر باشد: **درمان + روز + موضوع(درمان) + روز*موضوع(درمان)** بدیهی است که نشانه گذاری او با نحو R متفاوت است، اما این مدل قرار است برای: * درمان (ثابت) ) * روز (تثبیت شده) * درمان*تعامل روز * موضوع در داخل درمان (تصادفی) * روز تلاقی شده با موضوع درون درمان (تصادفی) بنابراین، آیا این نحو درستی برای استفاده است؟ m4 <- lmer(Obs~Treatment*Day + (1+Treatment/Subject) + (1+Day*Treatment/Subject)، mydata) من به ویژه نگران این هستم که آیا روز تلاقی شده با بخش موضوع در درمان درست است یا خیر . آیا کسی با SAS آشنایی دارد، یا مطمئن است که می‌داند در مدل او چه می‌گذرد، می‌تواند درباره مطابقت تلاش غم انگیز من در نحو R نظر بدهد؟ در اینجا تلاش‌های قبلی من برای ساختن یک مدل و نوشتن نحو (که در پاسخ‌ها و نظرات بحث شد): m1 <- lmer(Obs ~ درمان * روز + (1 | موضوع)، mydata) چگونه با این واقعیت کنار بیایم که موضوع تو در تو است. در طول درمان؟ «m1» چه تفاوتی با: m2 <- lmer(Obs ~ درمان * روز + (درمان|موضوع)، mydata) m3 <- lmer(Obs ~ درمان * روز + (درمان: موضوع)، mydata) و 'm2 هستند معادل ` و m3` (و اگر نه، چرا)؟ همچنین، اگر بخواهم ساختار همبستگی را مشخص کنم (مانند همبستگی = corAR1) باید به جای lme4 از nlme استفاده کنم؟ با توجه به اندازه‌گیری‌های مکرر، برای تحلیل اندازه‌گیری‌های مکرر با اندازه‌گیری‌های مکرر روی یک عامل، ساختار کوواریانس (ماهیت همبستگی بین اندازه‌گیری‌های یک موضوع) مهم است. وقتی سعی می کردم یک ANOVA با اندازه گیری های مکرر انجام دهم، تصمیم گرفتم از نوع II SS استفاده کنم. آیا این هنوز مرتبط است، و اگر چنین است، چگونه می توانم آن را مشخص کنم؟ در اینجا مثالی از شکل ظاهری داده ها آورده شده است: mydata <- data.frame( موضوع = c(13، 14، 15، 16، 17، 18، 19، 20، 21، 22، 23، 24، 29، 30، 31 ، 32، 33، 34، 35، 36، 37، 38، 39، 40، 62، 63، 64، 65، 13، 14، 15، 16، 17، 18، 19، 20، 21، 22، 23، 24، 29، 30، 31، 32، 33، 34، 36، 37، 38، 39، 40، 62، 63، 64، 65، 13، 14، 15، 16، 17، 18، 19، 20، 21، 22، 23، 24، 29، 30، 31، 32، 33، 34، 35، 37، 38، 39، 40، 62، 63، 64، 65)، روز = c(rep(c(روز1، روز3، روز6)، هر=28))، درمان = c(rep(c(B، A «، «ج»، «ب»، «ج»، «الف»، «الف»، «ب»، «الف»، «ج»، «ب»، «ج»، «الف»، «الف»، ب، الف، ج، ب، ج، الف، A)، هر = 4))، Obs = c(6.472687، 7.017110، 6.200715، 6.613928، 6.829968، 7.387583، 7.367293، 8.018853، 8.018853، 47،407. 7.296910، 6.983360، 6.816621، 6.571689، 5.911261، 6.954988، 7.624122، 7.669865، 7.676225، 7.676225، 7.2674، 7.267. 7.328716، 7.295610، 5.964180، 6.880814، 6.926342، 6.926342، 7.562293، 6.677607، 7.023526، 6.4470، 6.447 7.478931، 7.495336، 7.427709، 7.633020، 7.382091، 7.359731، 7.285889، 7.496863، 6.632403، 6.171366.171. 7.253833، 7.594852، 6.915225، 7.220147، 7.298227، 7.573612، 7.366550، 7.560513، 7.289078، 7.289078، 7.2331، 7.287. 7.394452، 7.465383، 6.976048، 7.222966، 6.584153، 7.013223، 7.569905، 7.459185، 7.504068، 7.504068، 7.807, 7.8078 7.475841، 7.511873، 7.518384، 6.618589، 5.854754، 6.125749، 6.962720، 7.540600، 7.379861، 7.379861، 7.318، 7.347. 7.805802، 7.764172، 7.789844، 7.616437، NA، NA، NA، NA))
استفاده از lmer برای مدل اثر مختلط خطی با اندازه گیری های مکرر
58741
این باید نسبتاً مستقیم باشد، اما به نظر نمی‌رسد که پاسخ آن را پیدا کنم. من در حال انجام برخی تست های A/B(C/D/E...) در یک وب سایت و اندازه گیری برداشت ها و کلیک ها هستم. برای تعیین برنده آماری معنی دار از چه روشی باید استفاده کنم؟ این داده های نمونه ای است که من باید داشته باشم. ممکن است تعداد زیادی تست وجود داشته باشد، همه در توزیع نسبتاً مساوی و اندازه گیری کلیک ها به عنوان یک نتیجه موفقیت آمیز نمایش داده می شوند. مانند: تست # | برداشت ها | کلیک 1 | 50 | 12 2 | 55 | 15 3 | 53 | 30 4 | 49 | 22 از چه الگوریتمی برای تعیین برنده از نظر آماری معنی دار استفاده کنم؟
معنی دار بودن آماری و برنده آزمون چند ظرفیتی
24343
من قبلاً این سؤال را پرسیدم: پیوند من دو مدل رگرسیون لجستیک شرح داده شده در پیوند را با استفاده از تمام داده های موجود (8 فصل برای همه 30 تیم) ایجاد کرده ام، و اکنون می خواهم تصمیم بگیرم که کدام یک پیش بینی کننده بهتر درصد برد در آینده است. فصل، درصد برد در فصل قبل یا انتظار فیثاغورث از فصل قبل. می‌دانم که اگر می‌خواهید توانایی‌های پیش‌بینی یک مدل را ارزیابی کنید، اغلب خوب است که بر روی داده‌هایی متفاوت از آنچه که مدل تولید کرده است، ارزیابی کنید. من تعجب می کنم که در اینجا چقدر مهم است، با توجه به اینکه مدل ها از یک نوع هستند و از داده های مشابه ایجاد شده اند. به نظر می‌رسد می‌توان گفت که مدلی که با توجه به داده‌هایی که هر دو مدل را ایجاد کرده است، تناسب بهتری داشت در این مورد بهتر است. بنابراین، سوال این است: 1) آیا من باید ببینم که چگونه مدل ها در یک مجموعه داده متفاوت مقایسه می شوند، و 2) معیار استاندارد برای مقایسه مدل در موقعیتی مانند آنچه توضیح دادم چیست. اصولا از کجا بفهمم کدام بهتر است؟
مقایسه مدل‌های رگرسیون لجستیک درصد برد
67984
این تقریباً همان عنوان سؤال قبلی من است، اما معلوم شد که من در مورد چندین موضوع سؤال می کردم. من هنوز مسائل اساسی تر را که مربوط به تفسیر رهگیری و نقش مقوله مرجع است، درک نکرده ام. فرض کنید من یک رگرسیون (در این مورد، یک رگرسیون لجستیک) با یک پیش‌بینی‌کننده منفرد، «رنگ»، یک متغیر مقوله‌ای رمزگذاری‌شده ساختگی که دارای سه دسته است («قرمز»، «آبی» و «سبز») انجام می‌دهم. رگرسیون و نتایج دارای دو متغیر پیش بینی کننده هستند، بیایید بگوییم قرمز و آبی با سبز به عنوان دسته مرجع حذف شده. در نتایج، رهگیری شانس ورود به سیستم زمانی است که قرمز و آبی صفر هستند. اما در این مورد، شانس ورود به سیستم زمانی که سبز = 1 است. نتایج یک رهگیری و آزمونی از اهمیت آن دارند. اگر وقفه معنی‌دار باشد اما ضرایب «قرمز» و «آبی» معنی‌دار نباشد، این در مورد چه چیزی می‌گوید: * مقدار «سبز» به‌عنوان پیش‌بینی‌کننده نتیجه؟ * متغیر مقوله ای رنگ به عنوان پیش بینی کننده نتیجه؟ (من تصور می کنم که پاسخ ها ممکن است به این بستگی دارد که رنگ چقدر نتیجه را کاملاً پیش بینی می کند، اما نمی دانم چگونه در این مورد صحبت کنم.) از کمک شما در مورد این سؤالات ابتدایی متشکرم.
چگونه می توان رهگیری رگرسیون را با یک پیش بینی کننده طبقه بندی شده ساختگی تفسیر کرد؟
67635
من به دنبال یک ماتریس شباهت اسباب بازی از هر نوع کلاس موجودیتی هستم تا کد پیاده روی تصادفی خود را آزمایش کنم. آیا چنین مجموعه ای وجود دارد یا چگونه می توانم مجموعه خود را ایجاد کنم؟ من باید نتایج پیاده‌روی تصادفی را تفسیر کنم تا نمونه‌های غالب داده‌ها را پیدا کنم.
آیا ماتریس شباهت اسباب بازی برای آزمایش کد پیاده روی تصادفی من وجود دارد؟
62000
من سعی کرده‌ام سه مدل (با استفاده از R) ایجاد کنم: یک رگرسیون خطی فقط رهگیری، یک رگرسیون اثرات مختلط ساده و یک رگرسیون اثرات مختلط توسط موضوع. یک رگرسیون فقط رهگیری، میانگین کل یک متغیر پاسخ به اضافه خطا را مدل می کند. در «mtcars»، متغیر «drat» ممکن است یک متغیر پاسخ در نظر گرفته شود. آیا در مدل زیر، میانگین بزرگ «drat» به اضافه خطا را به درستی مدل‌سازی کرده‌ام؟ interceptOnly <- lm(drat ~ 1، data=mtcars) یک رگرسیون اثرات مختلط ساده، میانگین کل متغیر پاسخ، به اضافه انحراف موضوع، به علاوه خطا را مدل می کند. در «mtcars»، «drat» ممکن است یک متغیر پاسخ و «cyl» یک انحراف موضوع در نظر گرفته شود. آیا در مدل زیر، میانگین کل «drat»، به علاوه انحراف «cyl» از «drat»، به علاوه خطا را به درستی مدل‌سازی کرده‌ام؟ library(lme4) simpleMixedEffects <- lmer(drat ~ (1|cyl)، data=mtcars) یک رگرسیون اثرات مختلط اثرات جانبی، میانگین کل متغیر پاسخ، به اضافه انحراف موضوع، به علاوه اثر شرط، به اضافه خطا را مدل می‌کند. در «mtcars»، «drat» ممکن است یک متغیر پاسخ، «cyl» یک انحراف موضوع و «wt» یک اثر شرط در نظر گرفته شود. آیا در مدل زیر، میانگین کل «drat»، به علاوه انحراف «cyl» از «drat»، به علاوه اثر «wt» به اضافه خطا را به درستی مدل‌سازی کرده‌ام؟ bySubjectMixedEffects <- lmer(drat ~ (1|cyl) + wt, data=mtcars) من یک سوال دیگر دارم: چگونه می توانم یک مدل اثر شرط متغیر توسط موضوع را مدل کنم. این یک مدل اثرات ترکیبی است که میانگین کل یک متغیر پاسخ، به اضافه انحراف گروه از میانگین کل (اثر تصادفی)، به اضافه اثر شرط (اثر ثابت)، به اضافه انحراف گروه از اثر شرط (اثر تصادفی)، به اضافه خطا را مدل می‌کند. آیا کسی می تواند کد R را ارائه کند که یک مدل اثر شرایط متغیر با موضوع را خروجی می دهد؟
ساخت مدل های مختلف جلوه های ترکیبی
77318
آیا کسی ایده ای در مورد این دارد که چرا همبستگی شرطی بین 2 متغیر را همبستگی جزئی می نامند و به همبستگی ساده بین آنها (بنابراین، وقتی به هیچ متغیر دیگری مشروط نمی شود) همبستگی حاشیه ای می گویند؟ شهود پشت کلمات جزئی و حاشیه ای چیست؟ با «قطعات» یا «حاشیه» چه می کنند؟ برای درک بهتر آن مفاهیم، ​​بهتر است پاسخ را یاد بگیرید.
شهود پشت نام‌های همبستگی «جزئی» و «حاشیه‌ای».
77311
من سعی می کنم با استفاده از 249 نمونه و یک بردار ویژگی 16 بعدی (در حال حاضر) یک طبقه بندی کننده را در 10 کلاس آموزش دهم. من از SVM با هسته RBF، از طریق ماژول scikit-learn پایتون استفاده می کنم. توزیع کلاس ها در آن 249 نمونه به شرح زیر است: [6، 45، 51، 38، 34، 23، 12، 15، 19، 6] هنگام ساخت مجموعه آموزشی 200 نمونه ای خود، مراقب هستم که این مجموعه را حفظ کنم. رابطه من در حال حاضر هیچ وزنه کلاسی را هنگام تمرین اعمال نمی کنم. من از جستجوی شبکه ای برای بهینه سازی مقادیر C و گامای خود استفاده کرده ام و بردارهای ویژگی نرمال شده اند. مشکل من این است: هنگامی که من به طور تصادفی مجموعه‌های تست/آموزش متفاوتی را از نمونه‌ها ایجاد می‌کنم (دوباره، همیشه رابطه فرکانس کلاس بالا را حفظ می‌کنم)، SVM‌های آموخته‌شده، زمانی که در مقابل مجموعه تست اعتبار متقاطع می‌شوند، مقادیری را برای دقت/فراخوانی/f می‌دهند. -امتیاز که از 0.20 تا 0.50 خواهد بود. این امر ارزیابی تغییرات عملکرد نسبی را هنگام امتحان بردارهای ویژگی های مختلف برای من دشوار می کند. باید اشاره کنم که داده ها تا حدودی ذهنی هستند. این شامل آن چیزی است که من آن را خطوط خمیده می نامم (برای جلوگیری از خشم کارفرمای خود) که توسط متخصصی که ما آن را کاه چشم طلایی می نامیم درجه بندی شده است، که ظاهراً می داند چگونه و چرا برخی از قیچی ها بهتر از دیگران هستند. بنابراین، همه ما بسیار خوشحالیم که در نمره +/- 1 از نمره واقعی او هستیم. سوال من: من برخی از داده های منحنی یادگیری دارم که نشان می دهد نمونه های آموزشی بیشتر به شما کمک می کند، اما آیا می توانم چیز دیگری از این عملکردهای متفاوت به دست بیاورم؟ یا این فقط به من می گوید که مدل من ایراد دارد؟ و یک سوال جانبی: آیا من خودم را گول می زنم که فکر کنم می توانم SVM را با بهترین عملکرد انتخاب کنم و بگویم انجام شد!؟ برای بصری: من دوست دارم انیمیشن بسازم تا به سرعت از طریق SVM های مختلف اسکن کنم. تصویر زیر ماتریس سردرگمی 20 SVM مختلف آموزش داده شده در بالا را نشان می دهد. احتمالاً خیلی مفید نیست، اما فکر می‌کنم گاهی اوقات می‌توانم در برخی از آن‌ها «چشمک‌های درخشان» ببینم که باعث می‌شود من از آن درگیر باشم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/S3NWu.gif) (اندازه بلوک های بالا نسبت به نسبت نمونه ها در آن کلاس است؛ کلاس پیش بینی شده در محور افقی است)
نوسانات گسترده در عملکرد SVM با مجموعه های مختلف آموزش/آزمون
2957
قضیه گاوس-مارکف به ما می گوید که برآوردگر OLS بهترین برآوردگر خطی بی طرفانه برای مدل رگرسیون خطی است. اما فرض کنید من به خطی بودن و بی طرفی اهمیت نمی دهم. آیا تخمین‌گر دیگری (غیرخطی/بایاس‌شده) دیگر برای مدل رگرسیون خطی وجود دارد که طبق مفروضات گاوس-مارکف یا مجموعه‌ای از مفروضات کلی دیگر کارآمدتر باشد؟ البته یک نتیجه استاندارد وجود دارد: OLS خود بهترین برآوردگر بی طرفانه است اگر علاوه بر مفروضات گاوس-مارکوف نیز فرض کنیم که خطاها به طور معمول توزیع شده اند. برای برخی دیگر از توزیع‌های خاص خطاها، می‌توانم برآوردگر حداکثر احتمال مربوطه را محاسبه کنم. اما می‌خواستم بدانم آیا برآوردگر وجود دارد که در برخی شرایط نسبتاً کلی بهتر از OLS باشد؟
OLS آبی است. اما اگر به بی طرفی و خطی بودن اهمیتی ندهم چه؟
103505
برای اعمال استنتاج بیز برای تجزیه و تحلیل داده یا یادگیری ماشین، باید _prior_ و _likelihood_ را بسازیم، درست است؟ اما اگر من نتوانم به یک _قبل_و_احتمال_ معقول برسم، آنگاه مدل بیز معنا نخواهد داشت، درست است؟ نمی دانم آیا می توان از تکنیکی برای ساخت مدل های بیز منطقی استفاده کرد؟ اجازه دهید با یک مثال، داده‌ای با ویژگی‌های $X$ و هدف $y$، که در آن $y=\{0,1\}$ و $X$ از متغیرهای $p$ تشکیل شده‌اند، با یک مثال مشخص کنم. این یک مشکل طبقه بندی باینری معمولی است، برای انجام استنتاج بیز، چه چیزی و چگونه باید برای پیشین و احتمال مشخص کنم؟ یک سوال دیگر، اگر نمی‌توانیم پیشینی معقولی را مشخص کنیم، پس استفاده از مدل‌سازی بیز چه فایده‌ای دارد؟
چگونه یک پیشین و احتمال معقول برای مدلسازی بیز بسازیم؟
62009
من یک پایگاه داده از داده های سری زمانی تولید شده توسط سنسور ژیروسکوپ دارم. بخش کوچکی از داده ها قبلاً برچسب گذاری شده است و برای تناسب با مدل استفاده می شود. فرض قوی من این است که بیشتر نمونه های باقی مانده در این پایگاه داده از همان کلاس حرکت هستند. آیا می توانم از این داده ها برای پر کردن مدل بدون برچسب زدن دستی استفاده کنم؟ مراحل مورد نیاز چیست؟
آیا می توانم مجموعه داده خود را با داده های بدون برچسب دوباره پر کنم؟
77317
من یک جمعیت مورد علاقه دارم ($N = 5000$) که برخی از اطلاعات جمعیت شناختی آن را می دانم. من یک نمونه 1500 نفری از آن جمعیت دارم. بنابراین من یک نمونه با اندازه خوب دارم و دقیقاً می دانم که چگونه مغرضانه است (حداقل بر اساس اطلاعات جمعیت شناختی که دارم). آیا امکان تعمیم کل جامعه بر اساس پاسخ های نمونه ام وجود دارد؟ آیا کسی می تواند منبع خوبی را به من نشان دهد که در مورد نحوه کار با استنتاج و محاسبه آمار در این شرایط کجا مطالعه کنم؟ آیا من این را به عنوان یک نمونه طبقه بندی شده در نظر می گیرم، اما همه اقشار برابر نیستند (یا به یک اندازه نماینده کل نیستند).
چگونه یک سوگیری شناخته شده در نمونه خود را برطرف کنم؟
24345
من در حال انجام چند آزمون t برای مقایسه شرایط داده ها هستم. به دلیل واریانس بالا بین نمونه ها مجبور به استفاده از آزمون های t مبتنی بر جایگشت (بر اساس تفاوت میانگین ها) شده ام. سوال من این است که اگر من از آزمون های t مبتنی بر جایگشت استفاده می کنم آیا اصلاح FWE هنوز مورد نیاز است؟ درک من این است که چون غیر پارامتری است، احتمال منفی کاذب به تعداد تست های اعمال شده برای همان مجموعه داده ها بستگی ندارد. بنابراین اصلاح FWE نباید مورد نیاز باشد؟ * * * در مورد موضوع خاص خود توضیح خواهم داد. من داده‌های مسیر اسکن را برای سوژه‌هایی که به دو نوع مختلف چهره (معکوس و راست) نگاه می‌کنند، مقایسه می‌کنم. من باید تعدادی از اقدامات را برای نواحی مختلف صورت (چشم، بینی، دهان، گوش و 'سایر') بین نواحی مقایسه کنم. برای این منظور من یک آزمون t برای هر ناحیه، برای هر اندازه گیری تنظیم کرده ام و سپس برای مقایسه های متعدد تصحیح می کنم. به عنوان مثال، من تعداد فیکساسیون ها و مدت زمان فیکساسیون را برای هر ناحیه صورت آزمایش می کنم. من این تست ها را محدود می کنم تا بتوانم با کارهای قبلی مقایسه کنم. من تا کنون نتوانسته ام به هیچ تست omnibus اعتماد کنم، زیرا به دلیل نرمال نبودن داده هایم، قدرت تست omnibus که امتحان کرده ام به شدت کاهش یافته است.
تصحیح FWE تا چه میزان برای آزمون های t مبتنی بر جایگشت چندگانه مورد نیاز است
79176
من با نمودارهای انتقال مختلف کار می کنم و می خواهم آمار نسبت احتمال را برای آزمایش همگن زمان محاسبه کنم. من دیدم که قبلاً چند سؤال قابل مقایسه وجود دارد، اما هنوز روش را متوجه نشده ام. به عنوان مثال، اگر نمودار انتقال زیر (احتمالات) را برای 1 سال داشته باشم: از حالت 1 به حالت 1،2،3: 0,3 0,4 0,3 <- (بر اساس 80 شرکت) از حالت 2 به حالت 1,2,3: 0,2 0,7 0,1 <-(بر اساس 500 شرکت) از حالت 3 تا ایالت 1,2,3: 0,5 0,2 0,3 <- (بر اساس 300 شرکت). و نمودار زیر برای 2 سال: از حالت 1 تا حالت 1،2،3: 0,2 0,5 0,3 <-(بر اساس 100 شرکت) از حالت 2 تا حالت 1,2,3: 0,1 0,2 0,7 <-(براساس 1000 شرکت) از حالت 3 تا حالت 1,2,3: 0,6 0,2 0,2 ​​<-(براساس 500 شرکت) چگونه می توانم آمار نسبت احتمال را با همان روشی که در مقاله آزمایش ساختارهای مارکوف ساده برای انتقال رتبه اعتباری انجام شد محاسبه کنم (http://www.occ.gov/publications/publications-by-type/occ-working) - مقالات/2008-2000/wp2004-3.pdf). امیدوارم کسی بتواند با این مثال به من در مورد این سوال کمک کند!
زمان تست زنجیره های مارکوف همگن
35716
> **تکراری احتمالی:** > بهبود مدل رگرسیون اخیراً شروع به یادگیری رگرسیون کرده ام. من یک مجموعه داده حاوی یک پاسخ و یک متغیر پیش بینی دارم. وقتی من متغیرهای پاسخ و پیش بینی را رسم می کنم هیچ رابطه خطی یا منحنی بین آنها وجود ندارد. من از رگرسیون چند جمله ای با درجه 6 برای برازش داده ها استفاده کردم، اما پیش بینی خوب به نظر نمی رسد (تفاوت بین مقادیر واقعی و پیش بینی شده زیاد است). بنابراین می خواهم بدانم که چگونه می توانم مدل رگرسیون خود را بهبود بخشم؟
چگونه می توان رگرسیون را بهبود بخشید؟
115132
من در حال بررسی نمره کسب شده در آزمون ریاضی پایه هشتم در دو شهر مختلف هستم. نمودار دو تابع توزیع تجمعی تجربی (_ECDF_) را نشان می دهد. ![Plot of two ECDF](http://i.stack.imgur.com/6vLlw.png) چگونه می توانم ارزیابی کنم که آیا این دو _ECDF_ از توزیع یکسانی پیروی می کنند یا خیر؟
توزیع دو ECDF را مقایسه کنید
91711
من یک سوال کلی در مورد تفسیر اثرات متقابل در یک مدل غیر خطی دارم. من دلایلی را که Ai و Norton (2004) پیشنهاد می کنند از دستور stata inteff برای کمک به تفسیر اثرات متقابل در یک مدل غیر خطی پیشنهاد می کنند، درک می کنم. http://www.unc.edu/~enorton/NortonWangAi.pdf با این حال، به نظر می رسد که Buis (2010) پیشنهاد می کند که تفسیر یک مدل لاجیت از طریق نسبت های شانس بر مشکل به روشی بسیار ساده تر غلبه می کند. http://www.stata-journal.com/sjpdf.html?articlenum=st0194 برای من روشن نیست که چگونه پیشنهاد Buis به مسائل Ai و Norton (2004) کمک می کند، یعنی اینکه علامت و اهمیت اثرات متقابل در غیر مدل های خطی در مشاهدات متفاوت است. هر گونه کمکی در درک این موضوع بسیار قدردانی خواهد شد؟
اثرات متقابل در مدل های غیر خطی
34446
چگونه می‌توان یک فرآیند ARMA(1،1) ثابت و معکوس را به‌عنوان یک فرآیند AR مرتبه نامتناهی یا فرآیند MA مرتبه نامتناهی نشان داد؟
مدل ARMA ثابت به عنوان فرآیند AR یا MA بی نهایت
34445
من واقعاً از توصیه های بسته ای قوی برای تطبیق مدل های گسسته گسسته برای حجم زیادی از داده ها ($n$ در میلیون ها و $p$ در محدوده 2000) سپاسگزار خواهم بود. من یک مدل هموار می خواهم که بتواند با متغیرهای وابسته چند خطی و مسائل وارونگی ماتریس به طور معقولی برخورد کند - مانند glmnet. من خوشحالم که نمونه‌ها را بوت استرپ می‌کنم، که ممکن است تنها راه مقابله با داده‌های بزرگ در R باشد. من با استفاده از بسته mlogit امتحان کرده‌ام و با بیش از چند صد پیش‌بینی‌کننده از هم می‌پاشد و خطاهایی را در رابطه با وارونگی ماتریس ایجاد می‌کند. جایگزین من استفاده از بسته glmnet برای رگرسیون باینری و سپس استفاده از تبدیل برای تقریب مدل انتخاب گسسته با استفاده از چیزی به نام تقریب بگ و گری است. این داده ها به معنای سنتی چند جمله ای نیستند. این انتخاب گسسته است، یعنی خود کلاس‌ها از مشاهده به مشاهده تغییر می‌کنند -- احتمالاً تعداد کلاس‌ها نیز. هر یک از کلاس‌ها دارای مجموعه‌ای از پیش‌بینی‌کننده‌ها هستند که در مقیاس یکسان اندازه‌گیری می‌شوند و مختص کلاس هستند -- رجوع کنید به. مدل های انتخاب گسسته من به نگهدارنده «glmnet»، Trevor Hastie، نوشتم، که می‌گوید هیچ نقشه‌برداری برای مدل‌های انتخابی گسسته در بسته آنها وجود ندارد. نام دیگر انتخاب گسسته، logit شرطی، با پارامترسازی صحیح است. من بسته pglm را پیدا کردم، اما از استحکام نیز برخوردار نیست. مرجع، مدل‌های پانل انتخاب گسسته در R تا lme4 نیز وجود دارد، اما من هیچ نمونه‌ای از لاجیت شرطی با آن پیدا نکردم.
برازش قوی مدل انتخاب گسسته در R
67986
من از طبقه‌بندی‌کننده مبتنی بر شبکه‌های عصبی برای اجرای یک طبقه‌بندی برای داده‌هایم در ابعاد n استفاده می‌کنم. سپس فکر کردم ممکن است ایده خوبی باشد که ابتدا کاهش ابعاد را مانند PCA برای داده های خود اجرا کنم و سپس نتایج PCA را در طبقه بندی کننده قرار دهم (من 3 رایانه شخصی را نگه می دارم). با این حال، طبقه بندی بر روی ویژگی های کاهش ابعاد به خوبی استفاده از ویژگی های اصلی با ابعاد بالا به طور مستقیم نیست. سپس با این پست NN به عنوان یک DR1 برخوردم که شبکه های عصبی را به عنوان یک روش کاهش ابعاد مورد بحث قرار می دهد. همچنین برخی اطلاعات را می توان در این مقاله NN به عنوان یک DR2 یافت که اکنون گیج می کنم: 1. اگر از طبقه بندی مبتنی بر شبکه های عصبی (در Matlab) استفاده کنم، آیا به طور خودکار کاهش ابعاد را برای من انجام می دهد؟ 2. آیا باید قبل از اجرای طبقه بندی شبکه های عصبی، کاهش ابعاد را مانند PCA اجرا کنم؟ 3. آیا دلایل دیگری وجود دارد که طبقه بندی نتایج PCA به خوبی استفاده از ویژگی های با ابعاد بالا اصلی نیست؟ خیلی ممنون الف
آیا طبقه بندی مبتنی بر شبکه های عصبی نیاز به کاهش ابعاد دارد؟
66588
من به این فکر می‌کنم که چگونه می‌توان مجموعه‌ای از داده‌ها را که حاوی یک رکورد برای هر فرد در کل جمعیت ایالات متحده است، از چیزی مانند نظرسنجی جامعه آمریکایی یا فایل‌های میکروداده استفاده عمومی سرشماری ده ساله ایالات متحده ایجاد کرد. هر دوی این نقاط شروع بسیار بزرگ خواهند بود، آنها بین 1 تا 5٪ از کل جمعیت ایالات متحده را در حال حاضر دارند. تا زمانی که این مفهوم از ابتدا نقص عمده ای نداشته باشد، داشتن این مجموعه داده مصنوعی اما کامل، ادغام اطلاعات (انتخاب عرشه سرد) از سایر مجموعه های داده کوچکتر را بسیار آسان تر می کند. بدیهی است که می‌توان رویکردی ساده‌تر را در پیش گرفت و - برای هر رکورد - به اندازه وزن‌های آن رکورد، رکورد داشت. این تفاوت چندانی با تجزیه و تحلیل مجموعه داده ها با وزن فرکانس Stata نخواهد داشت، اما بدیهی است که در مناطق جغرافیایی کوچکتر مشکلاتی ایجاد می کند. فرض کنید شهرستان کوچکی دارید که می‌دانید 10000 ساکن دارد، اما در نمونه شما فقط ده رکورد دارد. بدیهی است که شما نمی توانید آن ده رکورد را به تنهایی به 10000 ساکن گسترش دهید. از آنجایی که شما یک توزیع سنی، نژادی، درآمدی بسیار ناهموار (و اشتباه) در داخل شهرستان خواهید داشت. با این حال، اگر کمی اطلاعات را از مناطق نزدیک گرفته باشید و احتمالات سن، نژاد، درآمد و غیره هر یک از آن 10000 رکوردی که از ابتدا ایجاد می کنید را پیش بینی کرده باشید، می توانید به صورت نیمه تصادفی 10000 رکورد ایجاد کنید که ظاهر بیشتری دارند. منطقی برای آن شهرستان خاص است. من مطمئن نیستم که آیا این نوع کار انجام نشده است زیرا به دلایلی ایده وحشتناکی است یا اینکه آماردانان و جمعیت شناسان تا همین اواخر قدرت محاسباتی برای رسیدگی سریع به 300 میلیون رکورد داده را نداشتند.
چگونه از یک نمونه نظرسنجی یک مجموعه داده مصنوعی از جمعیت یا جهان خود ایجاد کنیم؟
34442
لطفاً مجموعه داده پانل زیر را در نظر بگیرید: صنعت comp obs weekDay ind10 ind15 day3 day4 day5 marketRet tweets stockRet ------------------------------------------------ -------------------------------------- 1 1 15 3 0 1 1 0 0 0.10 5321 -0.90 1 2 15 4 0 1 0 1 0 1.30 4244 -0.30 1 3 15 5 0 1 0 0 1 0.90 5543 1.32 2 1 10 3 1 0 1 0 0 0 1 0 0 0 1 0.10 0 0 1 0 1.30 842 0.16 2 3 10 5 1 0 0 0 1 0.90 734 0.00 * برای لیستی از شرکت ها (comp) تعداد تویت و بازده سهام (stockRet) برای یک سری از روز ('obs') * 'weekDay' روز هفته را نشان می دهد (`1` = دوشنبه، `2` = سه شنبه، ...)؛ این در قالب‌های 'day3' تا 'day5' استخراج شده است * 'صنعت' به صنعت شرکت می دهد ('15' = IT, '10' = بانکداری, ...); این در dummies ind10 و ind15 استخراج شده است * متغیر نهایی (marketRet) میانگین بازدهی بازار سهام در آن روز را نشان می دهد. توجه داشته باشید که برای هر روز ('obs')، بازده بازار یکسان است. **سؤال 1:** بگویید من یک رگرسیون OLS با تویت به عنوان متغیر مستقل و stockRet به عنوان متغیر وابسته اجرا می کنم. من همچنین در حال اضافه کردن dummies 'day3' به 'day5' و 'ind10' & 'ind15' به عنوان متغیرهای مستقل به مدل هستم. آیا این مدل، همانطور که می گویند، اکنون شامل اثرات ثابت برای صنعت و روز هفته است؟ **سوال 2:** من مقالاتی با تحقیقات مشابه با خودم خوانده ام و می گویند بازده بازار را به عنوان کنترل اضافه کرده اند. ترجیحاً در SPSS چگونه می توانم متغیر marketRet را به عنوان کنترل مدل وارد کنم؟ فقط با اضافه کردن آن به عنوان یک متغیر مستقل؟ ** سوال 3: ** تفاوت بین اثرات ثابت و متغیرهای کنترل چیست؟ این سوالات احتمالاً بسیار ابتدایی هستند، اما من نتوانستم پاسخ روشنی برای آنها پیدا کنم. به عنوان مثال، مقاله‌ها به آنها اشاره می‌کنند که آنها «بازده بازار را کنترل می‌کنند» اما هیچ اشاره‌ای به _چگونگی_و_چرا این کار را نمی‌کنند. بنابراین، هر کمکی بسیار قدردانی می شود :-)
چگونه بازده بازار را در یک OLS (SPSS) کنترل کنیم؟