_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
85820
من یک مجموعه داده از مهمانداران دارم. برای هر مهمانی می‌دانم که در کدام مهمانی شرکت کرده است. من می‌خواهم بتوانم تخمین بزنم که یک جفت مهمانی ($i، j$) _با توجه به تعداد شرکت‌کنندگان هر یک از دو مهمانی، چه تعداد مشترک دارند. ایده این است که در جفت مجموعه داده احزاب که تعداد مهمان‌های اشتراکی بالاتر یا کمتری نسبت به میانگین کنترل اندازه هر دو طرف دارند، مشخص شود. بیایید شفاف باشیم. من می دانم چه کسی به کدام مهمانی رفته است. نمی‌خواهم چیزی را پیش‌بینی کنم که در مجموعه داده نیست. چیزی که من می‌خواهم بدانم این است که آیا تعداد شرکت‌کنندگان مشترک توسط هر جفت از طرفین از میانگین مجموعه داده فاصله دارد یا خیر. اما به نحوی باید اندازه دو طرف را کنترل کنم زیرا البته هر چه اندازه بالاتر باشد شانس دیدن افراد در هر دو طرف بیشتر می شود. من یک مدل رگرسیون خطی مانند PartygoersInCommon $\approx \beta_0 + \beta_1 ($Partygoers$_i$ Partygoers$_j)$ را تصور کردم. متغیر است اما یک عدد صحیح تفسیر مدل را پیچیده می کند؟ 2) آیا ضرب Partygoers$_i$ و Partygoers$_j$ صحیح است یا بهتر است آنها را به عنوان دو متغیر مستقل مجزا در نظر بگیریم مانند PartygoersInCommon $\approx \beta_0 + \beta_1$ Partygoers$_i + \beta_2$ Partygoers$_j دلار؟
تفسیر تحلیل رگرسیون با مقدار صحیح به عنوان پاسخ و پیش بینی
57393
من طبقه‌بندی (0،1) را روی مجموعه داده‌ای انجام می‌دهم که برای انواع مختلف خطاها باید وزن متفاوتی داشته باشند. به عنوان مثال، موارد مثبت کاذب 10 برابر بیشتر از منفی کاذب وزن خواهند داشت. در درخت‌های تصمیم، به‌ویژه پیاده‌سازی rpart از CART در R، من به سادگی می‌توانم تابع را یک ماتریس از دست دادن منتقل کنم. [0,1] [10,0] که منجر به خطاهای وزن دهی متفاوت می شود و بر اساس آن درخت می سازد. برای جنگل تصادفی، باید دقیقاً همین کار را انجام داد، زیرا هنوز بر اساس همان الگوریتم است. با شبکه‌های عصبی، فکر می‌کنم هنوز امکان‌پذیر است، اما باید تابع خطا/از دست دادن را به گونه‌ای تغییر دهم تا تفاوت خطاها را محاسبه کنم. امیدوارم کسی مرا در مسیر درست راهنمایی کند که چگونه این کار را انجام دهم. با تشکر
معادل ماتریس ضرر با شبکه های عصبی و جنگل تصادفی
89616
سؤال زیر تقریباً کلمه به کلمه از «یادگیری با هسته» توسط Scholkopf و Smola گرفته شده است. تابع از دست دادن حاشیه نرم زیر را در نظر بگیرید: $max(0,1−yf(x))$. من مشکل نیاز به محاسبه احتمال شرطی p(y|x) مربوط به این تابع را دارم و در برقراری ارتباط بین احتمال شرطی و این تابع مشکل دارم. من به چند مقاله برخورد کرده ام (به عنوان مثال http://www.unc.edu/~yfliu/papers/lum.pdf) که می گویند طبقه بندی کننده های نرم به صراحت احتمالات شرطی کلاس را محاسبه می کنند، اما من نمی دانم چگونه به عنوان خروجی یک طبقه بندی کننده یک احتمال نیست. میشه لطفا یکی توضیح بده من چی از دست میدم؟
از دست دادن حاشیه نرم و احتمالات مشروط
34817
من می خواهم یک پی دی اف نمایی معکوس سفارشی با دامنه [0.00002, 0.0001] و محدوده [0،1] ایجاد کنم، که در آن x = 0.00002، y = 0 و x = 0.0001، y = 1 pdf باید شکلی مانند آن داشته باشد. تابعی مانند 1 - exp(-x). چگونه این تابع را تشکیل دهم؟
یک تابع نمایی سفارشی ایجاد کنید
83510
صبح/بعد از ظهر همگی بخیر، اول از همه از همه شما به خاطر اطلاعات ارزشمند ارائه شده تشکر می کنم. من در اینجا چالش فعلی خود را مطرح خواهم کرد و سعی می کنم تا حد امکان جزئیات را ارائه دهم. **زمینه:** من یک مجموعه داده با امتیازات مرتبط با لیستی از مشتریان شرکت خود دارم. این نمرات از طریق یک نظرسنجی طراحی شده برای ارزیابی ریسک انجام تجارت با چنین مشتریانی به دست آمده است که به موجب آن هر پاسخ دارای یک امتیاز مرتبط با آن است. هر چه مجموع نمرات به دست آمده توسط هر مشتری در هر سوال بیشتر باشد، پروفایل ریسک بالاتر است. چنین امتیازاتی از 0 (حداقل) تا چند هزار متغیر است. **کیفیت داده:** داده‌هایی که من دارم به طور معمول توزیع نمی‌شوند و حتی اگر با استفاده از Zscore و تابع NORM.DIST در اکسل استاندارد شده باشند، با توزیع عادی مطابقت ندارند. افراد باهوش‌تر از من توزیع‌هایی را یافته‌اند که می‌توانند با داده‌ها مطابقت داشته باشند (یعنی: گاما، دانشجویی T، و غیره) اما این توزیع‌ها به مجموعه داده‌های دوره زمانی متفاوت منتقل نمی‌شوند. یعنی، توزیع داده‌ها هر سال که یک نظرسنجی انجام می‌شود تغییر می‌کند و من می‌خواهم از تلاش برای کشف اینکه چه توزیعی با داده‌ها متناسب است، هر بار که یک نظرسنجی جدید انجام می‌شود، اجتناب کنم. ** کاری که می خواهم انجام دهم: ** من علاقه مند به ایجاد روشی برای مقایسه امتیازهای ریسک مرتبط با هر مشتری هستم تا راهی برای تصمیم گیری در مورد اینکه چه چیزی واجد شرایط پرخطر بودن و چه چیزی کم خطر است ایجاد کنم. در حالت ایده آل، من دوست دارم 5 دسته بندی داشته باشم: خطر بسیار زیاد، زیاد، متوسط، کم، بسیار کم. من باید راهی ابداع کنم که بگویم یک نمره خاص در مقابل پایین یا متوسط ​​است. **آنچه را رد کردم:** استفاده از میانگین حسابی و انحراف معیار را رد کردم. دلیل این امر این است که اکثر مشتریان نمرات نسبتاً پایینی دارند (0-400) و تعداد کمی از آنها هزاران امتیاز دارند. من می ترسم که میانگین امتیاز ریسک متوسط ​​را کم یا بیش از حد نشان دهد، که به شدت تحت تأثیر عوامل پرت قرار می گیرد. من به اندازه گیری قوی تری نیاز دارم، بنابراین به استفاده از میانه فکر می کردم. **سوال من:** چگونه به من پیشنهاد می کنید که سطل هایی را تعریف کنم که می توانم با هر یک از پنج دسته خطر مورد نظر خود (خطر زیاد، زیاد، متوسط، کم، بسیار کم) مرتبط کنم؟ می‌دانم که می‌توانم آن را با صدک‌ها نسبتاً ساده انجام دهم، اما این راه‌حل برای من جذاب نیست: برای مثال، گفتن این که 20 صدک بالا بسیار پرخطر هستند، تا حدودی خودسرانه خواهد بود، زیرا به احتمال زیاد شکاف بزرگی خواهد داشت. در بین مقادیر حداقل و حداکثر چنین سطلی، در حالی که این مورد در صدک 20 پایینی صدق نمی کند، زیرا مقادیر امتیاز پایین بسیار رایج تر است. **نکته:** من واقعاً مایلم از هرگونه راه حلی که شامل نسبت دادن توزیع به داده ها باشد اجتناب کنم، زیرا تغییر خواهد کرد و جدای از گاوسی، اکثر آنها حداقل در غیاب آماری، تعریف پارامترها را دشوار می کنند. نرم افزار تکامل یافته تر از اکسل از همه شما بسیار سپاسگزارم. برناردو
ایجاد مدلی برای تفسیر نمرات عددی
107768
تفاوت بین طبقه بندی چند برچسبی و طبقه بندی چند طبقه چیست؟ به طور خاص، تفاوت بین برچسب و کلاس چیست؟ لطفا یک مثال واضح ارائه دهید. _طبقه بندی چند کلاسه را نباید با طبقه بندی چند برچسبی اشتباه گرفت، جایی که قرار است چندین برچسب برای هر نمونه پیش بینی شود. -wikipedia_ ... خیلی مفید نبود.
تفاوت بین طبقه بندی چند برچسبی و چند طبقه ای چیست؟
58927
آیا تخمین پارامترها برای مخلوطی از دو توزیع نرمال با استفاده از الگوریتم EM بایاس هستند یا بدون سوگیری؟ به طور خاص، اگر از الگوریتم EM برای به دست آوردن تخمین‌های ML از $μ_1$، $μ_2$، $σ^2_1$، $σ^2_2$ و $p$ در یک مدل مخلوط نرمال دو جزء استفاده کنم، تخمین‌های ML هستند. از این پنج پارامتر بی طرف هستند یا برخی یا همه آنها مغرضانه هستند؟ اگر هر کدام سوگیری دارند، چگونه سوگیری را محاسبه کنم؟
تعصب در تخمین EM برای مخلوطی از توزیع های نرمال
107767
من امیدوارم که از یک تکنیک رگرسیون منظم، با استفاده از اعتبار سنجی متقاطع، برای برازش یک مدل خطی با مجموعه ای از پیش بینی کننده ها که دارای برخی متغیرهای بسیار همبسته هستند، استفاده کنم. با این حال، من همچنین می دانم (بسیار مشکوک) که مقدار قابل توجهی از هتروسکداستیکی در خطاها وجود دارد. من این سوال را دیدم: Ridge و LASSO یک ساختار کوواریانس داده اند؟، که نشان می دهد اگر من ساختار واریانس را بدانم، به راحتی می توان آن را در این روش ها گنجاند. با این حال من این کار را نمی‌کنم، و در عوض امیدوار بودم آن را با استفاده از یک چارچوب GLS یا Feasible-GLS تخمین بزنم. فکر اولیه من این است که فرآیند رگرسیون CV خود را بدون مدل واریانس اجرا کنم، یکی را از باقیمانده ها تخمین بزنم، مقیاس و رگرسیون را دوباره اجرا کنم. با این حال، این به نظر بسیار موقتی است و می‌خواهم بدانم آیا مشکل آشکاری در این رویکرد وجود دارد؟
GLS، ناهمگونی و رگرسیون ریج/کند
15760
(مطمئن نیستم که چگونه این سوال را فرموله کنم و همچنین هیچ برچسب مناسبی پیدا نکردم.) آیا سایت های آنلاینی وجود دارد که بتوان در آن افراد حرفه ای را پیدا کرد که مدل سازی ریاضی، تجزیه و تحلیل داده ها و غیره انجام می دهند؟ به طور کلی، اگر برای مدل‌سازی برخی داده‌ها در یک پروژه (با بودجه کم) به کمک نیاز دارید، به کجا مراجعه کنید؟
از کجا می توان کمک مدل سازی ریاضی در پروژه های کم بودجه پیدا کرد؟
15768
من به تازگی به این مقاله برخوردم، که نحوه محاسبه تکرارپذیری (با نام مستعار، قابلیت اطمینان، همبستگی درون کلاسی) اندازه گیری از طریق مدل سازی اثرات مختلط را شرح می دهد. کد R به این صورت خواهد بود: #مطابق با مدل مناسب = lmer(dv~(1|واحد)،داده=داده_من) #به دست آوردن برآوردهای واریانس vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #تکرارپذیری تنظیم نشده را محاسبه کنید R = intercept_var/(intercept_var+residual_var) #compute n0، تنظیم تکرارپذیری n = as.data.frame(table(my_data$unit)) k = nrow(n) N = sum (n$Freq) n0 = (N-(sum (n$Freq^2)/N))/(k-1) #محاسبه تکرارپذیری تنظیم شده Rn = R/(R+(1-R)/n0) من معتقدم که این رویکرد همچنین می تواند برای محاسبه قابلیت اطمینان اثرات (یعنی اثر مجموع کنتراست یک متغیر با 2 سطح) استفاده شود، مانند: #مطمئن شوید که متغیر اثر دارای مجموع کنتراست ها کنتراست ها(داده های_من $iv) = contr.sum #مطابق مدل مناسب = lmer(dv~(iv|واحد)+iv,data=داده های_من) #به دست آوردن واریانس تخمین می زند vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 effect_var = attr(vc$id,'stddev')[2]^2 #محاسبه تکرارپذیری تعدیل نشده R = effect_var/(effect_var+residual_var) #compute n0، تنظیم تکرارپذیری n = as.data.frame(table(my_data$unit,my_data$iv)) k = nrow(n) N = sum(n$Freq) n0 = (N-(sum(n$Freq^2)/N))/ (k-1) #تکرارپذیری تنظیم شده را محاسبه کنید Rn = R/(R+(1-R)/n0) سه سوال: 1. محاسبات بالا را برای به دست آوردن تخمین نقطه ای انجام دهید. تکرارپذیری یک اثر منطقی است؟ 2. وقتی چندین متغیر دارم که تکرارپذیری آنها را می‌خواهم تخمین بزنم، اضافه کردن همه آنها به یک تناسب (مثلاً `lmer(dv~(iv1+iv2|واحد)+iv1+iv2`) به نظر می‌رسد که تخمین تکرارپذیری بالاتری نسبت به ایجاد یک مدل جداگانه ای برای هر اثر از نظر محاسباتی برای من منطقی است، زیرا گنجاندن اثرات چندگانه باعث کاهش واریانس باقیمانده می شود، اما من تکرارپذیری حاصل را مثبت نمی دانم. آیا برآوردها معتبر هستند 3. مقاله ذکر شده در بالا نشان می دهد که نمایه احتمال به من کمک می کند تا فواصل اطمینان را برای تخمین های تکرارپذیری به دست بیاورم، اما تا آنجا که می توانم بگویم، محدوده(پروفایل(مناسب)) فقط فواصل زمانی را برای تخمین های تکرارپذیری ارائه می دهد. واریانس‌های رهگیری و اثرگذاری، در حالی که من به بازه واریانس باقیمانده نیز نیاز دارم تا بازه تکرارپذیری را محاسبه کنم، نه؟
محاسبه تکرارپذیری اثرات از مدل lmer
107769
وقتی در حال خواندن کتاب یادگیری ماشینی مورفی یک دیدگاه احتمالی هستم. در فصل 3.2. کمی شک دارم من فکر می کنم نویسنده می خواهد به بیان دو چیز است. اول، می‌توانیم از فرمول بیز برای کامپیوتر پسین استفاده کنیم، احتمال و پیشین را ترکیب کنیم. دوم، اگر داده ها به اندازه کافی بزرگ باشند، می توانیم مستقیماً آن را محاسبه کنیم. $1$ یا $0$ به این فرضیه بستگی دارد که حداکثر خود ($p(h|\mathcal{D})$) وجود دارد یا خیر. من نمی توانم این نتیجه گیری را به وضوح ببینم. و من احساس سوء هاضمه می کنم. در زیر جزئیاتی وجود دارد که نمی توانم از آنها عبور کنم. *احتمال او یک فرمول می دهد:$$p(\mathcal{D}|h)=\left[\frac{1}{\text{size}(h)}\right]^N=\left[\frac{1} {|h|}\right]^N$$ و نویسنده می‌گوید که این احتمال نمونه‌گیری مستقل از $N$ آیتم‌ها (با جایگزینی) از $h$ است. بله، اگر تابع جرم احتمال یکنواخت باشد. این برابر است با $\left[\frac{1}{|h|}\right]^N$. اما من فکر می کنم علامت $p(\mathcal{D}|h)$ معقول نیست. این نشان دهنده احتمال رویداد $\mathcal{D}$ زمانی است که $h$ اتفاق می افتد. با فرض **pmf** یکنواخت است. باید برابر با $$\frac{\text{size}(\mathcal{D})}{\text{size}(h)}$$ باشد. * پسین، فرمول $$p(h|\mathcal{D})=\frac{p(\mathcal{D}|h)p(h)}{p(\mathcal{D})}$$ آن است دقیقا فرمول بیز است. سپس، نویسنده می‌گوید اگر داده‌های کافی داشته باشیم، قبل مهم نیست. احتمال تقریباً همه چیز را تعیین می کند. سپس فرمولی می دهد: $$p(h|\mathcal{D})\rightarrow \delta_{\hat{h}^{MAP}}(h)$$ جایی که $\hat{h }^{MAP} = \max_{h}p(h|\mathcal{D})$ و $\delta$ اندازه گیری دیراک است. پس آیا به این معنی است که اگر فرضیه $\hat{h}$ در $\\{h\\}$ حداکثر $p(h|\mathcal{D})$ وجود داشته باشد. سپس $p(h|\mathcal{D}) \rightarrow 1$؟ برای پیدا کردن $\hat{h}$ حداکثر $p(h|\mathcal{D})$ برابر با حداکثر $\log p(\mathcal{D}|h) + \log h$ است. سپس نویسنده می‌گوید اگر داده‌های کافی داریم، فقط برای پیدا کردن $\hat{h}$ حداکثر $\log p(\mathcal{D}|h)$ کافی است. از آنجایی که عبارت احتمال به طور نمایی به $N$ بستگی دارد و قبلی ثابت می ماند. اما من اینطور فکر نمی کنم. به طور شهودی، اگر داده های زیادی داشته باشیم. قبلی مهم نیست اما برای این فرمول، هم $p(\mathcal{D}|h)$ و هم $p(h)$ احتمال هستند. آنها $\in[0,1]$. اگرچه $\mathcal{D}$ بزرگ است. برای فرضیه های مختلف $h$، $p(\mathcal{D}|h)$ متفاوت است. اما $\in [0,1]$ مشابه $p(h)$ است. بنابراین من فکر می کنم ما نمی توانیم $p(h)$ را نادیده بگیریم.
برخی تردیدها در خواندن یادگیری ماشینی یک دیدگاه احتمالی (فصل 3.2)
107761
**بهینه سازی تابع خطای شبکه عصبی با استفاده از پشتیبان به جای استفاده از گرادیان یا شیب تصادفی نزولی مستقیماً بر روی تابع خطا، چه فایده ای دارد؟** چگونه است که ما فقط مشتق جزئی تابع خطا را با احترام در نظر نمی گیریم. به هر وزن و شیب یا نزول شیب تصادفی بر اساس آن انجام دهید؟ به جای انجام انتشار مجدد برای رسیدن به این مقادیر خطای مصنوعی برای گره های پنهان و سپس برای هر گره پنهان ضربدر خطای آن مشتقات جزئی مختلف وزن های مرتبط با لبه های ورودی آن، گویی آن گره پنهان در واقع یک گره خروجی است.
سوال در مورد آموزش شبکه عصبی
33625
نسخه کوتاه: کارآمدترین روش محاسباتی برای تخمین حالت یک مجموعه داده چند بعدی، نمونه برداری از توزیع پیوسته چیست؟ نسخه طولانی: من یک مجموعه داده دارم که باید حالت آن را تخمین بزنم. حالت با میانگین یا میانه منطبق نیست. یک نمونه در زیر نشان داده شده است، این یک مثال دو بعدی است، اما راه حل N-D بهتر است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CpECM.png) در حال حاضر، روش من 1 است برآورد چگالی هسته را بر روی یک شبکه برابر با وضوح مورد نظر حالت 2 محاسبه کنید. نقاط غیر قابل قبول، که به خصوص اگر نقاط داده زیادی با ابعاد بالا وجود داشته باشد یا من انتظار وضوح خوبی در حالت داشته باشم، بد است. یک جایگزین استفاده از یک بازپخت شبیه سازی شده، الگوریتم ژنتیک و غیره برای یافتن اوج جهانی در KDE است. سوال این است که آیا روش هوشمندتری برای انجام این محاسبه وجود دارد؟
برآورد کارآمد محاسباتی حالت چند متغیره
83518
تعداد کتاب های منتشر شده در یک سال (noBook) متغیر وابسته من است و متغیرهای مستقلی از جمله سن نویسنده (سن) دارم. ضریب سن مثبت و معنی دار است. وقتی سن^2 را به مدل اضافه می کنم، سن و سن^2 قابل توجه است اما علامت سن منفی می شود. میشه لطفا راهنمایی کنید چرا اینطوری شده؟ و کدام مدل را باید در نظر بگیرم؟
اضافه کردن عبارت درجه دوم علامت متغیر را تغییر می دهد
6874
فرمول های آنلاین معروفی برای محاسبه میانگین متحرک وزن دار نمایی و انحرافات استاندارد یک فرآیند $(x_n)_{n=0,1,2,\dots}$ وجود دارد. برای میانگین، $\mu_n = (1-\alpha) \mu_{n-1} + \alpha x_n$ و برای واریانس $\sigma_n^2 = (1-\alpha) \sigma_{n-1}^ 2 + \alpha(x_n - \mu_{n-1})(x_n - \mu_n)$ که از آن می‌توانید انحراف استاندارد را محاسبه کنید. آیا فرمول های مشابهی برای محاسبه آنلاین ممان های سوم و چهارم مرکزی با وزن نمایی وجود دارد؟ شهود من این است که آنها باید به شکل $M_{3,n} = (1-\alpha) M_{3,n-1} + \alpha f(x_n,\mu_n,\mu_{n-1},S_n باشند. ,S_{n-1})$ و $M_{4,n} = (1-\alpha) M_{4,n-1} + \alpha f(x_n,\mu_n,\mu_{n-1},S_n,S_{n-1},M_{3,n},M_{3,n-1})$ که می توانید چولگی $\ را محاسبه کنید gamma_n = M_{3,n} / \sigma_n^3$ و کشش $k_n = M_{4,n}/\sigma_n^4$ اما من نبودم قادر به یافتن عبارت ساده و بسته برای توابع $f$ و $g$ است. * * * **ویرایش:** برخی اطلاعات بیشتر. فرمول به روز رسانی برای واریانس متحرک مورد خاصی از فرمول برای کوواریانس متحرک وزن دار نمایی است که می تواند از طریق $C_n(x,y) = (1-\alpha) C_{n-1}(x,y) محاسبه شود. + \alpha (x_n - \bar{x}_n) (y_n - \bar{y}_{n-1})$ که در آن $\bar{x}_n$ و $\bar{y}_n$ میانگین متحرک نمایی $x$ و $y$ هستند. عدم تقارن بین $x$ و $y$ واهی است و وقتی متوجه شوید که $y-\bar{y}_n = (1-\alpha) (y-\bar{y}_{n-1}) ناپدید می‌شود. $. فرمول‌هایی مانند این را می‌توان با نوشتن لحظه مرکزی به‌عنوان انتظار $E_n(\cdot)$، که در آن وزن‌های انتظار به صورت نمایی درک می‌شوند، و با استفاده از این واقعیت که برای هر تابع $f(x)$$ داریم، محاسبه می‌شوند. E_n(f(x)) = \alpha f(x_n) + (1-\alpha) E_{n-1}(f(x))$ استخراج فرمول های به روز رسانی آسان است برای میانگین و واریانس با استفاده از این رابطه، اما ثابت شده است که برای لحظات مرکزی سوم و چهارم دشوارتر است.
چولگی/کورتوز متحرک وزن دار نمایی
71455
من روی روشی کار می‌کنم که تخمینی (پر سر و صدا) از حجم مغز در طول زمان در بیماران آلزایمر ارائه می‌دهد. همانطور که می دانیم اگر در یک بازه زمانی چند ساله به آن نگاه شود، تکامل هموار و حتی بیشتر خطی است، یکی از راه های ارزیابی الگوریتم این است که به صافی یا خطی بودن سری های زمانی تخمین زده شده (حجم مغز در طول زمان) نگاه کنیم. به همین دلیل است که من به دنبال یک معیار خوب برای همواری یا خطی بودن سری های زمانی هستم. چیزی که من در حال حاضر استفاده می کنم میانگین R² از رگرسیون خطی بیمار است. این منعکس کننده خطی بودن است، اما به شدت به نمونه گیری بستگی دارد (با نقاط داده کمتر نتایج بهتری به دست می دهد). کسی میتونه معیار بهتری پیشنهاد کنه؟ **بعضی جزئیات چون ظاهرا سوال من واضح نبود**. من الگوریتمی دارم که چند (از یک تا پنج یا شش) اندازه‌گیری حجم مغز مجزا $V(t_n)$ را برای بسیاری از بیماران ارائه می‌دهد. من می‌خواهم اندازه‌گیری کنم که $V$ تا چه حد به چیزی خطی نزدیک است، مثلاً. $V(t_n) = a t_n + b$ در تمام بیماران (همه بیماران ضرایب متفاوتی خواهند داشت، اما من یک معیار کلی از خطی بودن می‌خواهم). همچنین باید اشاره کنم که مقادیر $t_n$ به طور منظم فاصله ندارند. **یک نظر دیگر** بدیهی است که بیماران با یک یا دو نقطه داده آموزنده نیستند. با این حال من می خواهم از تمام بیماران دیگر استفاده کنم. حتی یک بیمار با سه نقطه داده آموزنده است: سه نقطه تراز بسیار بهتر از سه نقطه کاملاً ناهموار است.
اندازه گیری صافی سری های زمانی
71456
دو مدل معادلات ساختاری مورد آزمایش قرار گرفت (یکی بر اساس نمونه ای با 199 نفر و مدل دوم بر روی نمونه ای با 93 نفر). هدف آزمایش این بود که آیا نتایج مدل اول را می توان با استفاده از یک مجموعه داده جدید تکرار کرد یا خیر. **آیا راهی برای محاسبه اینکه آیا $R^2$ (متغیر وابسته) بین هر دو مدل تفاوت قابل توجهی دارد وجود دارد؟** آیا می توان از Fisher Transformation برای این منظور استفاده کرد؟ با استفاده از معادلات پشت این ابزار، می‌توانم از R برای محاسبه z و مقدار p مربوطه استفاده کنم: $z_{A} = \frac{1}{2} \ln\left({1+\sqrt{R^2_A} \ بیش از 1-\sqrt{R^2_A}}\right) = \operatorname{artanh}(\sqrt{R^2_A})$se(z) = \sqrt{\frac{1}{n_a - 3} + \frac{1}{n_b - 3}}$z $ = \frac{z_A - z_B}{se(z)} \tilde{} t(n_A + n_B - 2)$ fisher_z <- تابع(rA, rB, nA, nB){ z_diff <- (atanh(sqrt(rA)) - atanh(sqrt(rB))) / sqrt((1/(nA-3)) + (1/(nB-3))); pvalue <- pt(z_diff، nA + nB - 2); return(list(z_diff=z_diff, p=pvalue)) }
آزمایش تفاوت معنادار بین دو ضریب تعیین $R^{2}$ برای دو مدل معادلات ساختاری مبتنی بر PLS
112745
من این مراحل (سفارش) را برای «پیش پردازش» در مسئله طبقه‌بندی باینری خود دارم. 1. تقسیم داده‌ها بر اساس معیارها (پایگاه‌های اطلاعاتی کلاس 1 و کلاس 2) 2. تشخیص پرت «(حذف X - mean(X) >= 2*std(X) بر اساس هر ویژگی)» 3. تعادل داده (در هر سال - I داده‌های مالی دارم و من داده‌ها را بر اساس برخی ویژگی‌های نمونه‌ها متعادل می‌کنم - پایگاه داده شامل 5 سال است و هر سال این مرحله را جداگانه انجام می‌دهم - اکنون نمونه‌های مساوی در هر کلاس) 4. عادی سازی داده ها 5. کاهش ابعاد (PCA» و غیره) آیا این ترتیب درست است؟ می‌دانید که «نرمال‌سازی»، «کاهش ابعاد» و «تشخیص پرت» پارامترهایی را ایجاد می‌کنند که باید این پارامترها را در پایگاه‌داده جدیدی اعمال کنیم که در آینده به پایگاه داده ایجاد شده ما وارد می‌شود (نمونه در استفاده واقعی از داده‌های خام مدل بدون هیچ‌گونه متعادل کردن). من می‌دانم که «تشخیص پرت» باید قبل از «عادی‌سازی» باشد. آیا این دو مرحله «پیش‌پردازش» («تشخیص پرت» و «عادی‌سازی») باید قبل از «تعادل» و پس از «تعادل» داده‌ها باشد؟
ترتیب مراحل پیش پردازش در یک مسئله طبقه بندی باینری
83513
من به کمک نیاز دارم زیرا مدت زیادی نیست که از R استفاده می کنم. من یک سال، هر روز، دو بار در روز (هر 6 ساعت) جزر و مد دارم. من می خواهم این را به منظور بررسی زمان غوطه ور شدن برخی مناطق در تالاب خود مدل کنم. میشه لطفا بگید چطوری میتونم انجام بدم؟ممنونم
نیاز به ساخت مدلی برای مشاهده زمان غوطه وری
31667
من سعی می کنم تفاوت بین علیت و همبستگی را با استفاده از احتمالات شرطی درک کنم. با توجه به آنچه من متوجه شدم، می توان علیت را با $P(E_1|E_2) / P(E_1)$ کمیت کرد. برای مثال، اگر این نسبت $> 1$ باشد، آنگاه $E_2$ احتمال $E_1$ را افزایش می دهد. حالا من سعی می‌کنم چیزی مشابه توضیح دهنده همبستگی پیدا کنم و به این فکر کردم: $$P\big(\left(E_1 \cap E_2\right) \cup \left(E_1^c \cap E_2^c\right)\big )$$ که در آن $E_1^c$ مکمل $E_1$ است. اما من نمی توانم از نظر احتمال شرطی به همبستگی فکر کنم. آیا همبستگی به تنهایی اطلاعاتی در مورد احتمال شرطی می دهد؟ ممنون میشم کمک کنید
افتراق همبستگی و علیت با استفاده از احتمال شرطی
76103
به نظر می رسد این سوال قبلاً به روش های مختلف پرسیده شده است، اما پاسخ ها همه چندان مفید نیستند. به طور کلی، فرض کنید سه عامل سه عامل ($A$، $B$، و $C$) هستند که هر کدام دارای دو سطح هستند. تعامل سه طرفه قابل توجه است. سپس تعاملات دو طرفه 6 دلاری ممکن است (شاید ترکیبی از آن تعاملات؟) که می تواند تعامل سه طرفه را توضیح دهد. A1: BxC، A2: BxC، B1: AxC، B2: AxC، و غیره... راه مناسب برای کشف این تعاملات ساده چیست؟ فقط فعل و انفعالات را اجرا کنید، تعاملات را با مقداری تصحیح برای مقایسه چندگانه اجرا کنید، یا F$$ را با استفاده از یک عبارت خطای دیگر در مخرج محاسبه کنید؟ به طور کلی، می توان فکر کرد که اگر $B\ برابر C$ در $A_1$ مهم بود اما نه $A_2$، آنگاه این بهترین توضیح برای تعامل سه طرفه خواهد بود. . . درست است؟
تست پیگیری برای تعامل 3 طرفه
76108
فرض کنید قرار بود 20 نمونه داده برای زمان عبور نور جمع آوری کنیم و در آن 20 نمونه، 3 مقدار منفی وجود داشت. اگر بخواهیم این مقادیر منفی را کنار بگذاریم، چه تأثیری در ساخت فواصل اطمینان برای میانگین و تغییرات خواهد داشت؟ می‌دانم که حجم نمونه کوچک‌تر منجر به فاصله اطمینان بیشتر می‌شود، اما اگر داده‌ها نادرست باشند (یعنی زمان‌های منفی مانند این مثال) چه می‌شود؟
تأثیر حجم نمونه کوچکتر بر فواصل اطمینان
76104
شبیه سازی داده ها برای رگرسیون خطی نسبتاً آسان است. شما یک بردار از مقادیر X از یک محدوده تولید می کنید، روی مقداری بتا تصمیم می گیرید و خطاهای تصادفی ایجاد می کنید و یک معادله خطی می سازید. حالا من می خواهم همین کار را برای یک مدل ترکیبی، با یک اثر تصادفی، و اقدامات تکراری انجام دهم. چرا من می خواهم این کار را انجام دهم؟ برای تخمین اندازه نمونه، می‌خواهم بررسی کنم که N در مطالعه آینده‌ام چقدر باید باشد. من نمی دانم چگونه شبیه سازی را ایجاد کنم. من مشکلی ندارم از R یا SAS استفاده کنم، هر کاری که شما می توانید به من کمک کنید، خوب با من. چند کلمه در مورد طراحی من من یک متغیر پاسخ پیوسته Y دارم. من یک عامل ثابت با دو سطح دارم، آن را X1 (درمان در مقابل کنترل) می نامم. این درمان ها برخی از تکنیک های عمل هستند. دو نوع عمل وجود دارد که این درمان ها را می توان بر روی آنها اعمال کرد، A و B. این یک عامل تصادفی است، زیرا ممکن است بیشتر باشد، اما تنها 2 مورد بررسی خواهد شد. من عامل تصادفی را Z1 (A در مقابل B) می نامم. هر آزمودنی دارای 2 روش عملیاتی (اقدامات مکرر) از هر دو نوع A یا B خواهد بود (هر دو اقدام مکرر از یک نوع - هر دو با استفاده از همان درمان، یعنی درمان یا کنترل جدید). من یک همبستگی 0.8 بین اندازه گیری های مکرر یک موضوع را برای همه آزمودنی ها فرض می کنم. همچنین فرض کنید که میانگین و انحراف معیار گروه های X1 و واریانس Z1 را می دانم یا پیش بینی می کنم. چگونه می توانم داده هایی را برای مطابقت با این توصیف شبیه سازی یا تولید کنم تا بتوانم یک مدل ترکیبی را با استفاده از اندازه های مختلف نمونه روی آن اجرا کنم و توان را محاسبه کنم؟ متشکرم P.S مشکل اصلی من ایجاد همبستگی و در نظر گرفتن اثر تصادفی است.
شبیه سازی داده ها برای مدل های ترکیبی
76109
می‌خواستم بدانم چگونه می‌توانم طرحی مانند این را تفسیر کنم: ![نقشه فاصله اطمینان](http://i.stack.imgur.com/cCrqr.png) که در آن بخش‌های خط عمودی نشان‌دهنده 50 تحقق یک اطمینان هستند. فاصله $\mu$ چگونه می توانم مکان $\mu$ را با توجه به بخش های خط توضیح دهم؟ فرض کنید خطوط بیشتر در سمت چپ یا راست $\mu$ باشند، این نشان دهنده چیست؟
تفسیر نمودار n فاصله اطمینان برای میانگین و واریانس
74391
من اطلاعات اداری از کل جمعیت دکترای جدید، در یک سال معین، از منطقه خود دارم. ما همچنین داده‌های نظرسنجی از نمونه‌ای از همین جمعیت داریم (جایی که با کل جمعیت برای شرکت در نظرسنجی تماس گرفته شد، اما فقط حدود 65٪ دکترا شرکت کردند: این نمونه‌ای است که باید روی آن کار کنم). اگر عدم پاسخ تصادفی نباشد، سوگیری انتخاب خود وجود خواهد داشت. من می خواهم شکاف دستمزد احتمالی بین گروه های مختلف در منطقه خود را بررسی کنم (متغیر وابسته گزارش نسبت بین دو دستمزد متوسط ​​است). هر ورودی در مورد چگونگی مقابله با این موضوع؟ ادبیات در مورد این موضوع؟
سوگیری انتخاب خود به دلیل عدم پاسخگویی؟
31666
من در حال انجام تحقیقاتی در زمینه فیزیولوژی تنفسی هستم اما در مرحله تجزیه و تحلیل گیر کرده ام (باید به سخنرانی های آمارم توجه بیشتری می کردم). من دو معیار تهویه همزمان را جمع آوری کرده ام: حجم هوای عبوری از دهان و تغییر مقاومت یک نوار قفسه سینه برای اندازه گیری انبساط قفسه سینه. من می خواهم سیگنال ها را مقایسه کنم و در نهایت امیدوارم بتوانم حجم را از سیگنال انبساط قفسه سینه استخراج کنم. اما ابتدا باید داده‌هایم را تراز/همگام‌سازی کنم. از آنجایی که ضبط دقیقاً در همان زمان شروع نمی‌شود و باز شدن قفسه سینه برای دوره‌های طولانی‌تری ثبت می‌شود، باید داده‌هایی را پیدا کنم که با داده‌های حجمی من مطابقت دارد در مجموعه داده‌های گسترش قفسه سینه. در حالی که می‌توانستم آن را به چشم بیاورم، باید این فرآیند را چند بار تکرار کنم، خدا می‌داند و می‌خواهم اندازه‌گیری از میزان همسویی آنها را داشته باشم. من کاملاً مطمئن نیستم که چگونه بدون لنگرگاه (مثلاً زمان شروع یکسان) و با داده‌ها در مقیاس‌های مختلف و با وضوح‌های مختلف، این کار را انجام دهم. من نمونه ای از دو سیگنال (https://docs.google.com/spreadsheet/ccc?key=0As4oZTKp4RZ3dFRKaktYWEhZLXlFbFVKNmllbGVXNHc) را ضمیمه کرده ام، لطفاً اگر چیز دیگری وجود دارد که می توانم ارائه کنم به من اطلاع دهید. پوزش می طلبم اگر این سوال کمی مبهم یا پیچیده است، یک روز طولانی و طولانی بوده است و حرف های من ناکام مانده است. من سعی می کنم فردا صبح آن را تمیز کنم، اما از هر پیشنهادی که در این مدت داشته باشید استقبال خواهم کرد. خیلی ممنون
چگونه می توانم دو سیگنال را تراز یا همگام کنم؟
18222
چیزی مرا در مورد E.T آزار می دهد. درمان جینز با پارامترهای پیوسته. در کتاب تئوری احتمالات: منطق علم از نشانه‌هایی استفاده می‌کند که من با آنها در هنگام بدست آوردن احتمالات برای پارامترهای پیوسته از چگالی آنها آشنا نیستم. به عنوان مثال، در فصل 4، صفحه 420، معادله 4-49، جینز با در نظر گرفتن بازه $(f, f+df)$ و قرار دادن یک احتمال، پارامتر پیوسته $f \in [0,1]$ را گسسته می کند. آن را از طریق $g$، چگالی $f$: > .. بنابراین از (4-3) به احتمال اولیه باز خواهیم گشت: > > $P(A|DX)=\frac{P(D|AX)P(A|X)}{P(D|X)}$ > > اکنون اجازه دهید A برای گزاره کسری از موارد بد در محدوده > $(f, f+df)$، یک pdf قبلی وجود دارد > > $P(A|X)=g(f|X)df$، > > که احتمال این را می دهد که کسری از موارد بد است در range > $df$، چرا موارد بالا به صورت $P(A|X)=\int_f^{f+dx} g(t|X)dt$ (با متغیر ساختگی $t$) نوشته نشده است؟ $g(f|X)df$ برای $df$ متناهی تقریب مستطیل چپ (مجموع a la Riemann) است، نه $P(A|X)$. اگر بخواهید $[0,1]$ را به بسیاری از گزاره‌های مجزا تقسیم کنید و احتمال تخصیص داده شده را مطابق بالا انجام دهید، ممکن است مجموع آن 1 نباشد. یا اینکه $df$ نشان‌دهنده نوعی نماد بی‌نهایت کوچک است که من با آن آشنا نیستم؟ به نظر من هرگز از علامت گذاری تنها استفاده نشده است-- البته فقط زمانی معنادار است که در زمینه تمایز/ادغام استفاده شود، مانند $\frac{d}{dx}$ یا $\int foo()dx$. اگر این نماد نامتناهی باشد، به نظر می‌رسد که این با فلسفه جینز مبنی بر پایبندی به تعداد متناهی گزاره‌ها تا پایان، که در آن حد ممکن است صریحاً در نظر گرفته شود، مخالف است. به عنوان مثال دیگر، در فصل 15، صفحه 1514، معادله (15-38)، او احتمال نرمال دو متغیره را با همبستگی $\rho$ به صورت زیر می نویسد: > $p(dx\ dy|I)=\frac{\sqrt{1 -\rho^2}}{2\pi}exp[-\frac{1}{2}(x^2 + y^2 -2 \rho > x y)]dxdy$ که دوباره کمی متفاوت است. احتمالاً $p(dx\dy|I)$ به این معنی است که احتمال اینکه مقدار واقعی $(x,y)$ در $(x+dx,y+dy)$ بیفتد، اما در اینجا دوباره جمع ریمان را می نویسد. تقریبی شبیه به جای انتگرال چگالی در $[(x,x+dx) \times (y,y+dy)]$. چه چیزی را از دست داده ام؟
نماد پی دی اف پیوسته g(x)dx جینز در واقع به چه معناست؟
71452
من مشکل زیر را دارم: در یک طرح 1 عاملی گروه های مستقل، دو گروه مستقل با حجم نمونه 20 هر کدام دارم. داده‌های گروه درمان به طور معمول توزیع نمی‌شوند، در حالی که داده‌های گروه کنترل (با تست نرمال بودن Shapiro-Wilk بررسی می‌شوند). حالا می‌خواهم بررسی کنم که آیا تفاوت میانگین‌های هر دو گروه معنی‌دار است یا خیر. تست مناسب برای این چیست؟ من فکر می کنم باید جمع رتبه ویلکاکسون و آزمون رتبه امضا شده باشد، اما مطمئن نیستم... لطفاً کسی می تواند به من کمک کند؟
آزمون معناداری بین میانگین ها، داشتن یک نمونه توزیع شده نرمال و یک نمونه توزیع شده غیر نرمال
11871
کتاب آمار مقدماتی با R شامل بخشی است که به همبستگی ها می پردازد (بخش 6.4 در ویرایش دوم). این کتاب ضرایب همبستگی پیرسون، اسپیرمن و کندال را نشان می‌دهد که بر روی ستون‌های «گلوکز خون» و «سرعت کوتاه» مجموعه داده‌های thuesen محاسبه شده‌اند. مقادیر p مرتبط با این ضرایب به ترتیب 0.048، 0.139 و 0.119 هستند. کتاب سپس موارد زیر را بیان می کند: > توجه کنید که هیچ یک از دو همبستگی ناپارامتریک در سطح > 5 درصد معنادار نیست، که همبستگی پیرسون، البته فقط مرزی > معنادار است. من با این پاراگراف چندین مشکل دارم. اول از همه، حدس ساده من این است که از آنجایی که ضرایب ناپارامتریک دلالت بر خطی بودن ندارند، بیشتر از r پیرسون «معنادار» خواهند بود. درست میگم؟ ثانیا، و مهمتر از آن، آیا چنین مقایسه ای بین مقادیر p تست های مختلف بر روی داده های یکسان اعمال می شود؟ (من در مورد مقایسه های زندگی واقعی صحبت می کنم و نه در مورد مثال های بی اهمیت در یک کتاب درسی) اگر چنین است، چگونه باید این مفهوم را تفسیر کرد که همبستگی خطی معنی داری است، در حالی که همبستگی رتبه ای یا تطابقی اینطور نیست؟
تفسیر مقادیر p مرتبط با اندازه گیری های همبستگی
71457
من 4 گروه بر اساس علائم BPD در ابتدا و پیگیری دارم. (BPD T1 و T2؛ BPD T1 نه T2؛ بدون BPD T1 اما BPD T2؛ هرگز BPD). من در حال بررسی این هستم که آیا نتایج عملکرد روانی اجتماعی (نمره SOFAS) در بین گروه ها متفاوت است یا خیر. از آنجایی که می‌خواهم اختلالات محور I (خلق، اضطراب و مصرف مواد) و درمان (سرویس 1 یا 2) را کنترل کنم، از ANCOVA استفاده می‌کنم. همچنین می‌خواهم معیار پایه متغیر نتیجه (SOFAS در T1) را کنترل کنم. اختلالات محور I و درمان همگی متغیرهای دوگانه هستند. نمرات SOFAS (هر دو T1 و T2) پیوسته هستند. هنگام استفاده از SPSS آیا قرار دادن متغیرهای دوگانه در کادر فاکتورهای ثابت صحیح است؟ ANCOVA عوامل ثابت = گروه ها. خلق و خوی اضطراب؛ مصرف مواد؛ خدمات کمکی = SOFAS T1 DV = SOFAS T2. آیا این معقول به نظر می رسد؟ از خوانش های من به نظر می رسد خوب است، اما سرپرست من مطمئن نیست و از من می خواهد راهنمایی های بیشتری دریافت کنم. بنابراین من از هر نظری قدردانی می کنم. متشکرم
از جمله اندازه گیری پایه DV به عنوان یک متغیر کمکی در ANCOVA
107762
سوال من در مورد دستکاری داده ها قبل از ANCOVA چند متغیره است. تحقیقات من بر روی تخم سخت پوستان متمرکز است. این مدل شامل یک متغیر کمکی و 2 x متغیر مستقل و 4 متغیر وابسته است. متغیرهای وابسته مربوط به صفات تخم مرغ هستند. دو تا از متغیرهای وابسته پیوسته (DV) با مرحله تخمک (1-4) افزایش می‌یابند (نه متغیر کمکی و نه یکی از DVها). DV 1 اندازه تخم‌مرغ است، نمونه‌های تخم‌مرغ تقریباً 25 تخم‌مرغ دارند که از نظر اندازه اندازه‌گیری می‌شوند و نمونه برای مرحله تخم‌مرغ ارزیابی می‌شود. فرض کنید 15 از 25 تخم مرغ مرحله 2 و 10 مرحله 3 هستند. بنابراین نسبتی از نمونه مرحله 2 و نسبت دیگری مرحله 3 است، من برای هر مرحله از کل مجموعه داده ها، اندازه متوسطی دارم. من می خواهم قبل از قرار دادن داده ها در MANCOVA، تأثیر مرحله تخم مرغ را بر اندازه کاهش دهم یا قطر را برای اندازه تخم مرغ استاندارد کنم. کمک شما قابل قدردانی است. با تشکر
وزن، استانداردسازی، تبدیل داده ها قبل از ANCOVA چند متغیره
34106
من سعی می کنم با یک مدل آریمکس شامل آرگومان «xtransf» پیش بینی کنم. من از مثال ارائه شده در فصل 11 کتاب تجزیه و تحلیل سری های زمانی با کاربردها در R، Jonathan D. Cryer & Kung-Sik Chan، ویرایش دوم استفاده کردم. بنابراین این اساسا یک مدل مداخله است. من فقط آرگومان «xreg» را وارد نکردم، بنابراین فعلاً مقادیر پرت افزودنی گنجانده نشده است. در اینجا کدها و اروری که دریافت کردم آمده است. >library(TSA) >data(airmiles) >air.m1=arimax(log(airmiles),order=c(0,1,1),seasonal=list(order=c(0,1,1),period= 12)، xtransf=data.frame(I911=1*(seq(airmiles)==69)، I911=1*(seq(airmiles)==69)),transfer=list(c(0,0),c(1,0)),method=ML) > air.m1 تماس: arimax(x = log(airmiles)، order = c(0, 1, 1), seasonal = list (order = c(0, 1, 1), period = 12)، روش = ML، xtransf = data.frame(I911 = 1 * (seq(airmiles) == 69)، I911 = 1 * (seq(airmiles) == 69))، انتقال = لیست (c(0، 0)، c(1، 0) )) ضرایب: ma1 sma1 I911-MA0 I911.1-AR1 I911.1-MA0 -0.5379 -0.7644 -0.1290 0.8901 -0.2419 s.e. 0.0854 0.1532 0.0606 0.1239 0.0513 sigma^2 تخمین زده شده به عنوان 0.0009739: احتمال ورود = 199.42، aic = -388.84 > پیش بینی (air.m1، n.ahead در صفت dim=20) NULL آیا می دانید اشتباه من کجاست؟
پیش بینی با مدل arimax شامل xtransf
71458
من امروز روی یک مجموعه داده کار می‌کردم که روی آن از الگوریتم خوشه‌بندی K-means استفاده کردم و سپس ضرایب Silhouette را برای هر نقطه محاسبه کردم. سپس 5 درصد از داده ها را با بدترین ضرایب شبح حذف کردم و دوباره خوشه بندی کردم. میانگین ضریب شبح برای هر خوشه پس از خوشه بندی مجدد و حذف آن نقاط پرت بدتر شد (من انتظار داشتم برعکس باشد). آیا پاسخ درستی دریافت می کنم یا اشتباه فاحشی مرتکب شده ام؟ نتایجی که به دست آوردم برای من شهودی به نظر نمی رسد.
ضرایب سیلوئت پس از حذف برخی داده ها و خوشه بندی مجدد
34107
من برای انجام وظیفه هیئت منصفه احضار شده ام. من از ارتباط آمار با برخی از محاکمات هیئت منصفه آگاه هستم. برای مثال، مفهوم «نرخ پایه» و کاربرد آن در محاسبات احتمال گاهی - شاید همیشه - مرتبط است. یک فرد در موقعیت من چه موضوعات آماری را می تواند مفید مطالعه کند و چه مطالبی برای کسی با سابقه من مناسب است؟ من مدرک علوم سخت دارم و همچنین دانش آماری محدودی دارم، اما مهارت های من زنگ زده است. من تمام وقت کار می کنم و زمان زیادی قبل از وظیفه هیئت منصفه ندارم. بنابراین مناسب است که پاسخ ها بر مفاهیم ابتدایی، مهارت های حل مسئله ساده و کاربرد آنها در مسائل مرتبط (و البته محدودیت های آن مفاهیم و روش ها) تمرکز کنند.
آمار ابتدایی برای هیئت منصفه
72468
من علاقه مند به یافتن رویه‌ای برای شبیه‌سازی داده‌هایی هستم که با یک مدل میانجی‌گری مشخص سازگار باشد. با توجه به چارچوب مدل معادلات ساختاری خطی کلی برای آزمایش مدل‌های میانجی‌گری که ابتدا توسط بارون و کنی (1986) مشخص شد و در جاهای دیگری مانند جاد، یزربیت و مولر (2013) توضیح داده شد، مدل‌های میانجی برای نتیجه $Y$، واسطه $med$، و پیش‌بینی‌کننده X$ هستند و توسط سه معادله رگرسیون زیر کنترل می‌شوند: 1. $Y = b_{11} + b_{12}*X + e_1$ 2. $med = b_{21} + b_{22}*X + e_2$ 3. $Y = b_{31} + b_{32}*X + b_{32} * med + e_3$ اثر غیرمستقیم یا اثر واسطه‌ای $X$ روی $Y$ تا $med$ می‌تواند به صورت $b_{22}*b_{32}$ یا، معادل $b_{12}-b_{32}$. تحت چارچوب قدیمی آزمایش میانجیگری، میانجیگری با آزمایش $b_{12}$ در معادله 1، $b_{22}$ در معادله 2، و $b_{32}$ در معادله 3 ایجاد شد. تا کنون، من سعی شد مقادیر $med$ و $Y$ را شبیه سازی کند که با مقادیر ضرایب رگرسیون مختلف با استفاده از rnorm در R، مانند کد، سازگار است. زیر: x <- rep(c(-.5، .5)، 50) med <- 4 + .7 * x + rnorm(100، sd = 1) # رابطه بین x و med mod <- lm( med ~ x) خلاصه (mod) y <- 2.5 + 0 * x + 0.4 * med + rnorm(100، sd = 1) # روابط را بررسی کنید بین x، med، و y mod <- lm(y ~ x + med) خلاصه (mod) # رابطه بین x و y را بررسی کنید -- mod موجود نیست <- lm(y ~ x) خلاصه (mod) به نظر می رسد که تولید متوالی $med$ و $Y$ با استفاده از معادلات 2 و 3 کافی نیست، زیرا من هیچ رابطه ای بین $X$ و $Y$ در معادله رگرسیونی 1 باقی نمانده ام. (که یک رابطه دو متغیره ساده بین $X$ و $Y$ را مدل می کند) با استفاده از این رویکرد. این مهم است زیرا یکی از تعریف‌های اثر غیرمستقیم (یعنی میانجیگری) $b_{12}-b_{32}$ است، همانطور که در بالا توضیح دادم. آیا کسی می‌تواند به من کمک کند تا رویه‌ای را در R پیدا کنم تا متغیرهای $X$، $med$، و $Y$ تولید کنم که محدودیت‌هایی را که با استفاده از معادلات 1، 2 و 3 تنظیم می‌کنم برآورده کند؟
شبیه سازی داده ها برای برازش مدل میانجیگری
11876
من در حال تخمین برخی از داده های شمارش هستم. من برای افراد مثلاً $m=100$ شمارش دارم. متأسفانه هنگام استفاده از رگرسیون پواسون، پراکندگی بیش از حد رخ می دهد. بنابراین من به این فکر می کردم که یک مدل نگبین مناسب کنم. اما این در مورد من مناسب نیست. بنابراین من فرض می‌کنم که نمی‌توانم رگرسیون پواسون را جابجا کنم، زیرا نحوه ایجاد توزیع پواسون در مورد من مناسب نیست ($n$ تا بی نهایت رشد نمی‌کند و $p$ به صفر همگرا نمی‌شود). بنابراین من مدل beta-bin را پیدا کردم. اما صادقانه بگویم که من در تخمین مدل‌های دوجمله‌ای بتا با استفاده از R کاملاً آشنا نیستم؟ اول از همه: آیا زمانی که کسی بخواهد تعداد را تخمین بزند، مناسب بودن یک مدل beta-bin منطقی است؟ Btw: اگر منطقی باشد، آیا کسی کتاب خوبی را می شناسد که در آن برنامه توضیح داده شده است؟
برازش یک مدل بتا دو جمله ای در مورد پراکندگی بیش از حد در R
34105
چگونه می توانم آزمون نسبت درستنمایی را اعمال کنم وقتی که فرضیه زیر را برای کشف collocation دارم: $$H_{1}: P(w^{2}|w^{1}) = p = P(w^{2}| \neg w^{1})$$ $$H_{2}: P(w^{2}|w^{1}) = p_1 \neq p_{2} = P(w^{2}| \neg w^{1})$$ اساساً، $H_{1}$ این فرضیه را توصیف می‌کند که کلمه دوم ($w^{2}$) در یک ترکیب احتمالی مستقل از کلمه اول ($w^{1) است. }$) و $H_{2}$ برعکس است، که کلمه دوم به کلمه اول بستگی دارد. فرض بر این است که این بیگرام ها از توزیع دو جمله ای پیروی می کنند $$b(k;n,x) = \displaystyle \binom{n}{k}x^{k}(1-x)^{(n-k)}$$ با این حال، کتابی که دنبال می کنم می گوید که احتمال $H_{1}$ وجود دارد $$L(H_{1})=b(c_{12};c_{1},p)b(c_{2}-c_{12};N-c_{1},p)$$ و برای $ H_{2}$ است $$L(H_{2})=b(c_{12};c_{1},p_{1})b(c_{2}-c_{12};N-c_{1},p_{2} )$$ که $c_{1}$، $c_{2}$ و $c_{12}$ تعداد وقوع $w^{1}$، $w^{2}$ و به ترتیب $w^{1}w^{2}$. چرا چنین است؟ من می‌دانم که احتمال به صورت $L(p, x)$ تعریف می‌شود که در آن $p$ یک پارامتر معین است و $x$ برخی از مشاهدات یا داده‌ها است، که سوال مخالفی است که وقتی با یک تابع جرم احتمال $ می‌پرسیم. f(x, p)$، یعنی احتمال داشتن $x$ با توجه به پارامتر $p$. علاوه بر این، من همچنین می‌دانم که وقتی تابع جرم احتمالی از یک سری مشاهدات $f(x_{i}, p)$ داریم، با فرض اینکه مشاهدات مستقل از یکدیگر هستند، احتمال یک پارامتر $p$ داده می‌شود. این مشاهدات $L(p, x_{i}) = \prod_{i} f(x_{i}, p) $ است، اما من نمی‌دانم چرا ظاهراً مثالی که در بالا توضیح داده شد در هر دو فرضیه، احتمال بدست آوردن $w^{1}w^{2}$ و $\neg w^{1}w^{2}$ را ضرب می‌کند. کسی می تواند آن را برای من توضیح دهد؟
آزمون فرضیه با استفاده از آزمون نسبت درستنمایی
77851
من در تلاش برای به دست آوردن یک گروه تقسیم ارزش برش بهینه با حداقل مجموع مربعات باقیمانده هستم (= y مشاهده شده - y تخمین زده شده) مدل مانند زیر است. > در گروه 1 : مدل y= a1x + b1z + C1v ... > > در گروه 2 : مدل y= a2x + b1z + C1v ... من داده های y, x, z, v را دارم... مشکل گروه 1 و 2 هنوز تقسیم نشده اند و هدف از تجزیه و تحلیل یافتن نقطه برش بهینه x با استفاده از مدل های رگرسیون است. من بارها و بارها جستجو کردم، اما نتوانستم راهی برای ساخت مدل‌هایی با «a» و اشتراک‌گذاری b1 و c1... و تطبیق آن با داده‌ها پیدا کنم. من سؤال مشابهی را در stackexchange پرسیدم، و کسی مشکلات این نوع رویکرد را به من توصیه کرد، با این حال، من به این رویکرد نیاز دارم، زیرا برخی تحقیقات بالینی می‌خواهند نقطه برش بهینه (نه کامل) x را پیدا کنند. مقاله ای که خواندم در زیر توضیح داده شد نویسندگان مقاله ذکر کردند که از R استفاده کرده اند، اما من نمی توانم مرجع یا مثالی در مورد این نوع تحلیل بیابم. برای تعیین رابطه بین غلظت 25(OH)D و iPTH در هنگام تنظیم عوامل مخدوش کننده که می توانند بر غلظت 25(OH)D> سرم تاثیر بگذارند (به عنوان مثال، سن، جنسیت، وزن بدن، دریافت کلسیم، فعالیت فیزیکی، و فصل سال)، ما دو مدل رگرسیون خطی را در نظر گرفتیم، > یکی برای افراد زیر غلظت معینی از 25(OH)D سرم و > دیگری برای افراد سوژه های بالاتر از آن غلظت برای تعیین برش‌های خاص، ما دو مدل رگرسیون خطی را که در بالا توضیح داده شد برازش دادیم و مجموع مربعات باقیمانده (=PTH مشاهده شده - PTH تخمینی) را از دو مدل برای هر غلظت سرمی 25(OH)D محاسبه کردیم. مدل‌هایی با کمترین مجموع مربعات باقی‌مانده بهترین مدل‌های ما بودند، و غلظت‌های مربوطه 25(OH)D سرم به‌عنوان مقادیر قطع بهینه تعریف شد. یکی گفت که این سوال قبلا در مدل رگرسیون مناسب برای تعریف برش پاسخ داده شده است، اما، فکر نمی‌کنم... این طراحی قطع شده رگرسیون نیست، زیرا هیچ برش پیشینی وجود ندارد. یافتن برش هدف تجزیه و تحلیل است. با تشکر
یافتن نقطه برش بهینه با دو مدل رگرسیون خطی
77850
من می خواهم وزن های مختلفی را به متغیرها در تجزیه و تحلیل خوشه ای خود اختصاص دهم، اما برنامه من (Stata) به نظر گزینه ای برای این کار ندارد، بنابراین باید آن را به صورت دستی انجام دهم. 4 متغیر A, B, C, D را تصور کنید. وزن آن متغیرها باید w(A)=50% w(B)=25% w(C)=10% w(D)=15% باشد. یکی از دو رویکرد زیر واقعاً این کار را انجام می دهد: 1. ابتدا همه متغیرها را استاندارد می کنم (مثلاً بر اساس محدوده آنها). سپس هر متغیر استاندارد شده را در وزن آنها ضرب می کنم. سپس تحلیل خوشه ای را انجام دهید. 2. همه متغیرها را با وزنشان ضرب می کنم و بعد استاندارد می کنم. سپس تحلیل خوشه ای را انجام دهید. یا هر دو ایده کاملا مزخرف هستند؟ **[ویرایش]** الگوریتم‌های خوشه‌بندی (من 3 مورد مختلف را امتحان کردم) که می‌خواهم استفاده کنم عبارتند از k-means، میانگین وزنی پیوند و میانگین پیوند. من قصد دارم از پیوند میانگین وزنی برای تعیین تعداد خوبی از خوشه ها استفاده کنم که پس از آن به k-means متصل می شوم.
در تحلیل خوشه ای به متغیرها وزن اختصاص دهید
77858
در تهیه چند مدل انباشته، می خواهم چند مدل ناهمگن را جمع آوری کنم. من مطمئن نیستم، اما انتظار دارم که وقتی مدل‌های بسیار متفاوتی داشته باشم، انباشتگی بهتر می‌شود، هرچند که همه دارای RMSE (نسبتا) کوچکی هستند. تصور کنید که 2 مدل مقادیر برازش را در مجموعه آموزشی تولید می کنند، همانطور که حقیقت مشخص است: Model1 Model2 Reality 10 5 5 6 3 3 6 3 6 10 5 10 در زیر RMSE هر مدل آورده شده است. با این حال، من می‌خواهم اندازه‌گیری از شباهت خود مدل‌ها را اندازه‌گیری کنم (در اینجا فکر کردم می‌توان RMSE بین آنها انجام داد) Model1 RMSE: 2.915 (RMSE(model1، واقعیت)) Model2 RMSE: 2.915 (RMSE(model2, واقعیت)) Model1 در مقابل Model2: 4.123 (RMSE(model1,model2)) من می خواهم راهی برای بیان تفاوت در شرایط پیدا کنم از میزان ارتباط آن با RMSE فعلی که سعی می کنم آن را به حداقل برسانم. نکته این است که وقتی مدل‌ها بیش از حد شبیه هستند، هیچ فایده‌ای برای گنجاندن همه آنها در انباشتگی وجود ندارد، در حالی که اگر تنوع وجود داشته باشد، ممکن است ارزش انباشتن را داشته باشد. بنابراین، از چه طریق می توان ارزیابی کرد که آیا مدل ها به اندازه کافی متفاوت هستند یا خیر. آیا فرمولی وجود دارد؟
ارزیابی اینکه آیا 2 مدل به طور قابل توجهی متفاوت هستند (اگرچه برابر با RMSE هستند)، برای بهبود پیش بینی
100411
آیا کسی می تواند ارجاعات یا نمونه های خوبی از آزمایش برای ارتباط بین بسیاری از (50-100) متغیرها/ویژگی های مختلف (که در مورد من عمدتاً دسته بندی یا باینری هستند) پیشنهاد کند. استخراج ب) یادگیری شبکه بیزی ایده کلی این است که به طور سیستماتیک تعداد زیادی جداول احتمالی 2×2 بسازیم و تست های جفتی ارتباط را اجرا کنیم (تنظیم برای تست های متعدد). این را می توان به تمام تست های دو طرفه مشروط به هر یک از متغیرهای دیگر، و به جداول 3 طرفه و غیره تعمیم داد. : * بهترین معیارها برای ارزیابی تداعی ها در این زمینه کدام است * نرم افزار برای کاوش و تجسم کارآمد این فضاهای انجمن ها * پیاده سازی های کارآمد برای اجرای همه این تست ها * به درستی کنترل آزمایش‌های چندگانه، زمانی که برخی از ویژگی‌ها با هم مرتبط هستند (خواه شناخته شده یا نه)
تحلیل اکتشافی ارتباط بین بسیاری از متغیرها
72378
بهترین راه برای پرسیدن سوالم ارائه یک سناریوی نمونه است: فرض کنید که نتیجه مورد نظر سرطان ریه است (1 = سرطان ریه؛ 0 = بدون سرطان ریه) و یک محقق 200 هزار سوابق دارد (که در آن 20 هزار بیمار سرطان ریه دارند. موارد) و 180 هزار بیمار سرطان ریه (غیر مورد) ندارند). از آنجایی که تنها 10٪ از بیماران (20/200k) در داده های نمونه سرطان ریه دارند، یک محقق از یک نمونه تصادفی 20k از بیمارانی که سرطان ریه ندارند استفاده می کند. با انجام این کار، محقق نمونه ای از 20 هزار بیمار مبتلا به سرطان ریه و 20 هزار بیمار بدون سرطان ریه را در نمونه خود خواهد داشت (نمونه از 200 هزار به 40 هزار رکورد کاهش می یابد). آیا انجام رگرسیون لجستیک باینری با تعداد موارد مساوی و موارد غیر موردی زمانی که توزیع واقعی نتیجه برابر نیست، مزایایی دارد؟ یا این مدل سوگیری قدرت پیش بینی/ تخمین می زند؟ پیشاپیش متشکرم
انجام رگرسیون لجستیک باینری با تعداد موارد و غیر مورد مساوی
100415
آیا آزمونی وجود دارد که فرضیه صفر آن این باشد که سری های زمانی همزمان هستند؟ تست های زیادی وجود دارد که تهی آنها بدون هم انباشتگی است. چگونه می توانم مقدار p را برای عدد صفر محاسبه کنم که دو سری هم انباشته شده اند؟ من فرض می‌کنم که p-value 0.95 برای تهی بدون هم انباشتگی با مقدار p 0.05 برای صفر هم انباشتگی یکسان نیست.
چگونه می توان آزمایش کرد که سری های زمانی همزمان نیستند؟
34100
من یک سوال در مورد توزیع مشترک میان p-value و p-value دارم. می دانیم که برای آزمون دنباله سمت راست با آماره آزمون گسسته $X$ با توزیع $F$، مقدار p به صورت $P=Pr(X \geq مشاهده شده~X)$ تعریف می شود و مقدار p mid به صورت تعریف می شود. $mid~P=Pr(X \gt مشاهده شده~X)+\frac{1}{2}*P(X=مشاهده)$. من می خواهم $Pr(P_{mid} \leq t~and~P \gt t)$ را برای مقداری $t \in (0,1)$ پیدا کنم. در اینجا $P$ مقدار p و $P_{mid}$ مقدار p وسط است.
توزیع مشترک مقدار p و p-value
72560
آیا کسی با استفاده از کد جنگل تصادفی Breiman and Cutler (http://stat-www.berkeley.edu/users/breiman/RandomForests/cc_home.htm) آشنایی دارد؟ می خواستم بدانم چگونه از کد FORTRAN برای پیش بینی برچسب های کلاس رکوردها در یک مجموعه داده بدون برچسب استفاده کنم؟
کد RF بریمن
100123
من سعی می کنم یک SEM را اجرا کنم تا رابطه علی بین متغیرهای پنهان را ببینم. من CFA و SEM را با استفاده از Amos اجرا کردم، اما متوجه شدم که این مدل بسیار پیچیده است، زیرا یکی از عوامل، که در ابتدا فکر می‌کردم تک‌بعدی است، دو بعدی است، و این باعث می‌شود که مدل بسیار نامرتب به نظر برسد. از آنجایی که این عامل از یک پیشینه نظری مشتق نشده است، به نظر می رسد سخت بتوان از آن به عنوان یک بعدی استفاده کرد. همچنین آزمون اعتبار سازه نیز دو بعدی بودن عامل را نشان داد. می‌دانم که ایجاد بسته‌ها و اجرای مدل مسیر دارای محدودیت‌های زیادی است، مانند عدم درج خطا، و لزوماً برای ایجاد یک مدل صرفه‌جویی استفاده نمی‌شود، اما می‌خواهم مقایسه کنم که آیا تفاوت‌های بزرگی بین CFA و یک مدل وجود دارد یا خیر. بسته بندی اقلام من مقالات زیادی را دیدم که در مورد بسته بندی اقلام بحث می کردند، اما نتوانستم نحوه انجام بسته بندی اقلام را در Amos پیدا کنم. چگونه می توانم بسته بندی اقلام را در آموس انجام دهم؟ با تشکر
چگونه بسته های آیتم را در SPSS Amos ایجاد کنیم؟
88011
من 3 مجموعه داده شطرنجی دارم. هر 3 مقادیر شاخص های پیوسته ای هستند که بین 1 و -1 تغییر می کنند. اینها اندازه‌گیری‌های ماهواره‌ای همان منطقه هستند که به صورت شطرنجی تقسیم می‌شوند. هر سلول برای هر شاخص مقداری دارد. شاخص هایی که معیارها را در یک پیکسل نشان می دهند عبارتند از: * «NDVI» که نمایانگر پوشش گیاهی است. * «NDWI» که نشان دهنده آب است. * SWI، نشان دهنده دما است. اکنون می‌خواهم تأثیر «NDWI» (آب) بر همبستگی بین «SWI» (دما) و «NDVI» (پوشش گیاهی) را بدانم. دما با پوشش گیاهی رابطه مثبت و آب با دما رابطه منفی دارد. آب رابطه مثبتی با پوشش گیاهی دارد. اکنون می خواهم نشان دهم که آب بر همبستگی بین پوشش گیاهی و دما تأثیر منفی دارد. بنابراین هنگام معرفی مقدار آب بالاتر، دما کاهش می یابد و پوشش گیاهی افزایش می یابد. بنابراین آب بیشتر مقدار کمتری از همبستگی پوشش گیاهی / دما را نشان می دهد. آیا می توانم «NDWI» (آب) را با نتایج همبستگی «SWI» (دما) و «NDVI» (پوشش گیاهی) مرتبط کنم؟ من به آزمون z Fisher نگاه کردم، اما این فقط در مورد مقایسه دو همبستگی است، و بنابراین فکر می کنم این سوال من را پوشش نمی دهد. امیدوارم تونسته باشید یه راهنمایی به من بکنید
نحوه اندازه گیری تأثیر یک شاخص بر همبستگی بین 2 شاخص دیگر
108161
بسته «lmerTest» یک تابع ANOVA را برای مدل‌های جلوه‌های ترکیبی خطی با تقریب Satterthwaite (پیش‌فرض) یا Kenward-Roger از درجات آزادی ارائه می‌کند. تفاوت این دو رویکرد چیست؟ چه زمانی کدام را انتخاب کنیم؟
تقریب ساترثویت در مقابل کنوارد-راجر برای df در مدل‌های جلوه‌های ترکیبی
115216
من برای یادگیری در مورد پس انتشار با این اپلت بازی کرده ام: http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html چیزی که همچنان مرا گیج می کند، این است که چرا نمی توانم تابع $sin()$ را با تابع فعال سازی Bipolar Sigmoid (ظاهراً $tanh$) در حالی که با Unipolar به خوبی کار می کند سیگموئید (ظاهراً تابع لجستیک). یا فقط باگ در اپلت است؟ مراحل تکثیر: 1. روی دکمه **function** کلیک کنید و **Sin** را انتخاب کنید. 2. روی **شبکه عصبی** کلیک کنید و **Unipolar Sigmoid** را برای **Hidden Layer Activation Function** انتخاب کنید. 3. روی **Training** کلیک کنید و **1000** را برای **تعداد چرخه های آموزشی** انتخاب کنید. 4. روی **Train** چند بار کلیک کنید تا همگرا شود. 5. سپس روی **شبکه عصبی** کلیک کنید و تابع فعالسازی را به **Bipolar Sigmoid** تغییر دهید. 6. برای شروع آموزش روی **تصادفی وزن** کلیک کنید. 7. چند بار روی **Train** کلیک کنید تا مشاهده کنید که اتفاق خاصی نمی افتد.
چرا نمی توانم سینوسی را با تابع فعال سازی tanh تقریبی کنم؟
109912
این سوال ممکن است خیلی بی اهمیت به نظر برسد، اما اصول اولیه من قوی نیستند و از کمک در این مفاهیم سپاسگزار خواهم بود. برای یک بردار ویژگی n بعدی و مسئله کلاس 3، آیا جدایی‌پذیری خطی باید بررسی شود؟، 1. من با مسئله XOR آشنا هستم که نمی‌توان آن را با شبکه عصبی مدل‌سازی کرد، زیرا کلاس به صورت خطی قابل تفکیک نیست. دقیقاً منظور ما از جداسازی خطی چیست؟ اگر مرز کلاس را بتوان به صورت منحنی رسم کرد و الگوها را به 2 کلاس تقسیم کرد، آیا می توان آن را به صورت خطی جدا کرد؟ 2. چگونه می توان تصمیم گرفت که آیا کلاس ها به صورت خطی قابل تفکیک هستند؟ 3. آیا تفکیک پذیری خطی برای مسائل بیش از 2 کلاس اعمال می شود؟ بگو برای 3 کلاس، چگونه تصمیم می گیرد؟ متشکرم.
تفکیک پذیری خطی کلاس ها چیست و چگونه تعیین می شود
47442
آیا کتاب/pdf خوب مشابه «عناصر یادگیری آماری» وجود دارد که به صورت رایگان در دسترس باشد، به صورت آنلاین که با آمار بیزی سروکار داشته باشد، به طور ایده آل با کد «R»؟
PDF رایگان برای Bayes
100417
من گاهی اوقات هنگام خواندن تعاریف آماری هنگام ذکر متغیرهای تصادفی (RV) گیج می شوم. آیا آنها در مورد یک قرعه کشی صحبت می کنند؟ آیا آنها در مورد یک برآوردگر صحبت می کنند؟ برای اینکه همه چیز را برای خودم (و دیگرانی که سؤال را می خوانند) روشن کنم، فهرستی از اظهارات درست کرده ام. آیا چیزی وجود دارد که من اینجا گفته ام که دروغ باشد؟ 1) یک عنصر در یک جمعیت **RV نیست** زیرا نمی تواند مجموعه ای از مقادیر مختلف را به خود بگیرد. 2) پارامتر یک جمعیت (مثلاً میانگین) ** RV نیست ** زیرا بر عناصری است که RV نیستند. 3) یک قرعه کشی تصادفی از یک جمعیت **** یک RV است زیرا تحقق آن بر اساس نسبت آن عنصر در جمعیت است. 4) یک نمونه از RV ساخته شده است زیرا هر عنصر نمونه خودش RV است. 5) آمار یک نمونه (مثلاً میانگین نمونه) ** یک RV است، زیرا نمونه از RV تشکیل شده است. 6) برآوردگر یک پارامتر جمعیت (مثلاً میانگین نمونه) ** یک RV است، زیرا بر اساس یک نمونه است و نمونه از RV تشکیل شده است. 7) دنباله ای از آمار (به عنوان مثال توالی میانگین های نمونه) دنباله ای از RV ها است. 8) یک دنباله ممکن است به یک ثابت یا یک RV همگرا شود.
متغیرهای تصادفی: درست یا نادرست
72375
شخصی ادعا می کند که $R^2$ تنظیم شده با افزودن یک متغیر اضافی افزایش می یابد. من تعجب می کنم که چرا، همانطور که به آن تنظیم شده می گویند (بر خلاف R^2$ معمولی). تنها شرطی که باید برآورده کند (برای افزایش $R^2$ تعدیل شده) این است که مقدار F (به هر حال، محاسبه آن چگونه ساده است؟) فرضیه صفر که متغیر جدید بزرگتر از 1 است. آیا کسی می تواند به من راهنمایی کند که پیوندهای بین $R^2$ تنظیم شده و F-Stat آن آزمایش کجاست؟ و با این حال، چه کسی می‌خواهد یک متغیر جدید را در یک مدل رگرسیون OLS چندگانه وارد کند، اگر بتا 0 باشد؟ بنابراین $R^2$ تنظیم شده همیشه تغییر می کند.
چگونه ضریب تعیین تنظیم شده ($R^2$) به مقادیر F یک آزمون در برابر صفر هنگام اضافه کردن یک متغیر جدید مرتبط می شود؟
72372
خوب پس این تئوری می گوید که ARMA باید فقط برای سری های ثابت اعمال شود. طبق تعریف فرآیند ایستا فرآیندی با میانگین و واریانس ثابت است. با این حال، اگر از اصطلاحات AR برای مدل‌سازی سری استفاده کنیم، آیا این منجر به وابستگی سری به ارزش گذشته نمی‌شود؟ کدام به نوبه خود منجر به میانگین و واریانس غیر ثابت می شود؟ همچنین سوال مرتبطی که هنوز پاسخ داده نشده است: ADF Test on Volatile Series. نتایج مورد انتظار؟
آیا داشتن اصطلاحات AR در سری های ثابت منطقی است؟
47444
من تمرین زیر را دارم: > مسابقه دقیقه 90 ویگان - شهر: ویگان بعد از 30 دقیقه گل می‌زند. با فرض اینکه شانس قبل از مسابقه برای برد/تساوی/برد به ترتیب 5.00 - 4.00 - 1.80 باشد، خانه، > خارج از خانه و تساوی را بر حسب درصد با رگرسیون پواسون محاسبه کنید. لطفا راهنمایی کنید که چگونه با این سوال برای امتحان خود ادامه دهم. علاوه بر این: پس از خواندن پاسخ های زیر و تلاش برای پاسخ به آن، تا جایی که در زیر آمده است. لطفا کمک کنید > (توجه: من فقط آن را ساده نگه داشتم و 2/3 بازی باقی مانده را فرض کردم) > > میانگین ویگان، میانگین گل در هر بازی = 1.20 میانگین مانو = 2.20 > > 60 دقیقه باقی مانده است، بنابراین میانگین ویگان جدید 2/3 x 1.20 = 0.8 نسخه جدید میانگین 2/3 x 2.2 = > 1.47 > > شانس برد WIGAN > > P(نمرات ویگان 1 یا بیشتر) = 1 - موقعیت (0، 0.8) = 1 - 0.45 = 0.55 > > OR، P(MANU FAIL TO SCORE) = پواسون(0، 1.47) = 0.23 > > شانس برنده شدن ویگان = 0.55 + 0.23 = 0.78 > > نقل قول: در مورد چیست P(wigan 2 AND manu 1) = P(wigan targets > manu)؟؟؟ > > MANU WIN ODDS > > Poss(manu 2 یا بیشتر) = 1 - [Poisson(0) + Poisson(1)] > > = 1 - [0.23 + 0.34] > > = 0.43 > > DRAW ODDS > > X = ManU دقیقاً 1 و ویگان از اینجا به بعد دقیقاً 0 امتیاز می گیرد و manu از اینجا به بعد همان امتیاز ویگان را می گیرد. > > PossM(1) x PossW(0) = 0.34 x 0.45 = 0.153 > > P(مانو = ویگان در گلزنی از اینجا به بعد)، 1.47 - 0.8 = 0.67 > > Poss(0 گل داده شده میانگین = 0.67) = 0.51 > > بنابراین P(X) = [0.34 x 0.45] x 0.5 = 0.077 > > 0.78 + 0.43 + 0.077 = 1.28 > > 1.28 = 100% بنابراین، 0.78/1.28 x 100% = 61% > > پس، 0.43/1.28 x 100% > 7 x 100% > 7 x 4 = 3. 100% = 5% > > شانس اعشاری = 100%/61% = 1.64 > > = 100%/34% = 2.94 > > = 100%/5% = 20.00 > > واضح است که من در جایی اشتباه کردم زیرا شانس ها خیلی زیاد است طولانی در تساوی در > 19/1 حتی اگر تساوی باید مورد علاقه یا نزدیک به برد ویگان در اینجا باشد.
ویگان پس از 30 دقیقه گل می زند. خانه، خارج از خانه را محاسبه کنید و با رگرسیون پواسون بر حسب درصد رسم کنید
4114
من در مورد حداقل مربعات تعمیم یافته (GLS) مطالبی را خوانده ام و سعی کرده ام آن را به پس زمینه اصلی اقتصاد سنجی خود پیوند دهم. به یاد می‌آورم که در مقطع کارشناسی ارشد از رگرسیون به ظاهر نامرتبط (SUR) استفاده می‌کردم که تا حدودی شبیه به GLS است. یکی از مقاله‌هایی که به طور تصادفی روی آن‌ها خوردم، حتی به SUR به عنوان مورد خاص GLS اشاره کرد. اما هنوز نمی توانم مغزم را در اطراف شباهت ها و تفاوت ها بپیچم. بنابراین سوال: شباهت ها و تفاوت های بین GLS و SUR چیست؟ مشخصه های مشکلی که باید از یک روش بر دیگری استفاده کرد چیست؟
تفاوت بین GLS و SUR
72469
من دو سری زمانی دارم که روند تقریباً مشابهی دارند، اگرچه هر دو متغیر نویز دارند. این نمودار میانگین و خطاهای استاندارد را در طول یک فصل اندازه گیری نشان می دهد. ! در حالی که دو مجموعه داده از همان نمودارهای آزمایشی جمع‌آوری شده‌اند، نمونه‌های فردی که میانگین و خطاهای استاندارد از آن‌ها محاسبه شده‌اند به طور معنی‌داری با یکدیگر جفت نشده‌اند، و می‌توانید ببینید که مجموعه داده‌های کربوهیدرات بیشتر اندازه‌گیری شده است. با گرفتن زیرمجموعه‌ای از اندازه‌گیری‌های کربوهیدرات که به تاریخ‌های اندازه‌گیری زیست توده میکروبی نزدیک‌ترین هستند، می‌توانم یک نمودار پراکنده نشان دهم که میانگین‌ها و خطاهای استاندارد را نشان می‌دهد که فکر می‌کنم یک نمایش بصری منصفانه از رابطه را نشان می‌دهد (TRS.ml کربوهیدرات‌ها است): ! [توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kLvc0.png) اینجا جایی است که من گیر کرده ام. من مطمئن نیستم که چگونه ضرایب رگرسیون را تخمین بزنم یا یک مقدار r2 را برای رگرسیونی از این نوع محاسبه کنم که در آن تخمین هایی از عدم قطعیت برای هر دو متغیر دارم. در اینجا چند رویکرد وجود دارد که من در نظر گرفته ام: 1. رگرسیون دمینگ. من مطمئن نیستم که این رویکرد درستی باشد. به نظر می رسد بیشتر برای مجموعه داده هایی است که در آن از تکنیک یکسانی برای هر دو متغیر استفاده شده است. اگر اینطور است، سوال من این است که چگونه نسبت واریانس را بر اساس اطلاعاتی که دارم محاسبه کنم؟ 2. رگرسیون تمام نقاط داده زیربنایی. این واقعاً کار نمی کند زیرا داده ها به طور معنی داری جفت نمی شوند، بنابراین از حدود 80 اندازه گیری زیست توده میکروبی که زیربنای داده های نشان داده شده در نمودارهای اینجا هستند، نمی توانم آنها را مستقیماً با اندازه گیری های فردی کربوهیدرات ها مطابقت دهم. تطبیق خودسرانه آنها بد به نظر می رسد. 3. رگرسیون کربوهیدرات بر اساس تاریخ در برابر زیست توده میکروبی به معنی بر اساس تاریخ. اساساً نقاط موجود در نمودار پراکنده من در بالا را عقب نشینی می کنم، اما اطلاعات مربوط به عدم قطعیت را از بین می بریم. این یک r2 بالایی را نشان می دهد که توسط پیک های همزمان در 1 جولای هدایت می شود، اما به نظر من، به نظر می رسد که قدرت رابطه را بیش از حد برآورد می کند. 4. رگرسیون تمام مقادیر زیست توده میکروبی در برابر کربوهیدرات به وسیله تاریخ یا بالعکس. این اجازه می دهد تا بیشتر از عدم قطعیت اساسی گنجانده شود در حالی که جفت شدن نقاط داده نامرتبط به روش دلخواه را مجبور نمی کند. با این حال، باز هم عدم قطعیت را در هر دو متغیر گنجانده است. سوال من این است که کدام یک از این رویکردها یا هر رویکرد فهرست نشده دیگری را برای تعیین کمیت رابطه بین این دو سری زمانی توصیه می کنید؟
کمی کردن رابطه بین دو سری زمانی متفاوت
31088
سازگاری بدیهی است که یک برآوردگرهای طبیعی و مهم املاک است ، اما آیا موقعیت هایی وجود دارد که ممکن است بهتر باشد از یک برآوردگر متناقض استفاده کنید نه یک سازگار؟ به طور خاص، آیا نمونه‌هایی از یک تخمین‌گر ناسازگار وجود دارد که از یک تخمین‌گر ثابت معقول برای همه $n$ محدود (با توجه به برخی از تابع تلفات مناسب) بهتر عمل کند؟
آیا برآوردگرهای ناسازگار همیشه ترجیح داده می شوند؟
100126
1. آیا الگوریتم KNN دارای یک مرکز به عنوان _k_ -means است؟ 2. آیا راهی برای بدست آوردن مرکز داده های طبقه بندی شده توسط KNN وجود دارد؟ 3. آیا راهی برای مقایسه طبقه بندی SVM با طبقه بندی KNN وجود دارد؟
سوال در مورد الگوریتم KNN
72461
من از بازده مربع به عنوان یک پروکسی برای محاسبه نوسانات استفاده می کنم، اما مطمئن نیستم که از بازده خام یا درصد بازده استفاده کنم. در بازده خام، همه تخمین‌های بازده زیر 1 هستند، اما در زیر درصد بازده ترکیبی از بازدهی بیشتر از 1 و کمتر از 1 وجود دارد. از سوی دیگر، درصد بازدهی زیر 1 به عنوان یک رقم نوسان کمتر از خود درصد بازده است. درصد بازده بالای 1 به عنوان یک رقم نوسان بیشتر از درصد بازده ختم می شود. سوال من این است: آیا این مشکلی در محاسبه نوسانات ایجاد نمی کند زیرا زمانی که بازده بالاتر از 1 است، تخمین بیش از حد وجود دارد؟ من قصد دارم از داده ها برای برازش مدل ARMA-GARCH استفاده کنم، آیا اگر از مقادیر درصد یا مقادیر مطلق استفاده کنم تفاوتی وجود دارد؟
بازده خام در مقابل درصد بازده برای محاسبه نوسانات
100413
برای مطالعه کاربری خود، سعی می کنم بفهمم مردم تا چه حد ترجیح می دهند با پای پیاده حرکت کنند. آنها این گزینه را داشتند که اولویت خود را برای «پیاده‌روی»، «دویدن» و «دویدن» برای چندین سؤال رتبه‌بندی کنند. اکنون می‌خواهم داده‌ها را با استفاده از آزمون کروسکال-والیس (Analyze -> Non Parametric Test -> Independent samples) تفسیر کنم. تجزیه و تحلیل زیر به من مقایسه های زوجی را ارائه می دهد. با این حال، وقتی به جدول زیر نگاه می‌کنم، نمی‌فهمم که چگونه نمودار مقایسه‌های زوجی ایجاد شده است. هنگام نگاه کردن به جدول زیر نمودار، نمودار از مقایسه زوجی چگونه ایجاد می شود؟ ![نمای کلی جدول](http://i.stack.imgur.com/mtIqL.png) ![رد فرضیه صفر](http://i.stack.imgur.com/WeNUy.png) ![boxplots] (http://i.stack.imgur.com/l1dUj.png) ![مقایسه زوجی plot](http://i.stack.imgur.com/EobhW.png)
نمودار مقایسه زوجی را از SPSS تفسیر کنید
100414
از کدام آزمون برای محاسبه همبستگی بین آنها استفاده کنیم؟ * Cramer's V، * Kruskal-Wallis، * یا چیز دیگری؟
چگونه متغیرهای باینری و ترتیبی را به هم مرتبط می کنید؟
72377
من با مدل سازی ترکیبی و استفاده از بسته glmmadmb تازه کار هستم. من علاقه مند به استفاده از glmmadmb برای مدل سازی داده های شمارش با توزیع دوجمله ای منفی، با استفاده از سال و سایت نمونه برداری شده به عنوان متغیرهای اثر تصادفی خود هستم، زیرا هر دو باید به طور مستقل متفاوت باشند. من می خواهم رهگیری های تصادفی را برای هر دو عامل در نظر بگیرم، اما همچنین شیب های تصادفی را برای سایت ها در تمام سال ها در نظر بگیرم. من مطمئن نیستم که چگونه این را در R کدنویسی کنم و چندین راه مختلف را امتحان کرده ام. معمولا R فقط زمان بسیار زیادی می برد و به نظر نمی رسد که محاسبات را کامل کند - که باعث می شود فکر کنم نحو من نادرست است. هر گونه پیشنهاد / افکار بسیار قدردانی خواهد شد! من از ویندوز 7 با RStudio v.0.98.312 استفاده می کنم. این چیزی است که کار می کند - مدل رهگیری تصادفی: mod <- glmmadmb(species~(1|year)+(1|site),data=cs, family=nbinom2,link=log) در اینجا چند تکرار وجود دارد که من دارم امتحان شد که به نظر کار نمی‌آمد: mod <- glmmadmb(species~(1+site|year)+(1|site),data=cs,...) mod <- glmmadmb(species~(site|year)+(1|site),data=cs,...) mod <- glmmadmb(species~(1|year)+(1|site)+(0|site),data =cs،...) متشکرم، تیفانی
شیب ها و برش های تصادفی با استفاده از glmmadmb در دو جمله ای R - منفی
72374
**اطلاعات پس زمینه: (برای سوال اسکرول کنید)** تلاش برای یافتن ارتباط بین میانگین تعداد خطاهای مرتکب شده توسط هر تیم بسکتبال در یک بازی و داورانی که بازی را اعلام می کنند. چنین رابطه ای یک مدل پیش بینی برای کل تعداد خطاهای پیش بینی شده در هر مسابقه ارائه می کند. با عنصر وابسته به انسان فوق العاده این داده ها و غیرقابل پیش بینی بودن نسبی یک بازی بسکتبال، چنین همبستگی در بهترین حالت ضعیف، اما با این وجود جالب خواهد بود. * * * استراتژی اولیه من این بود که در نظر بگیرم چه بخشی از نتیجه واقعی به ترتیب ناشی از انتظارات تیم ها و داوران است که منجر به رابطه زیر می شود: $$aX + bY = c \\\ a = مجموع \ میانگین \ متعهد \ خطاهای \ توسط \ هر دو \ تیم \\\ b = میانگین \ تعداد \ خطاها \ توسط \ خاص \ داورها \\\ c = واقعی \ نتیجه = کل \ تعداد \ fouls$$ من فرض کردم که $X$ و $Y$ احتمالات ساده‌ای هستند که با 1 جمع می‌شوند تا یک نتیجه کلی را کامل کنند. با این حال، به سرعت متوجه شدم که این امکان وجود ندارد، زیرا هر نتیجه $c$ بزرگتر از $a$ یا $b$ نامعتبر خواهد بود و بنابراین در مدل پیش‌بینی نادیده گرفته می‌شود و دقت در فرآیند را از بین می‌برد. * * * من داده های 20 بازی را در google doc زیر گردآوری کرده ام. همانطور که انتظار می رود برای چنین حجم نمونه کوچکی، داده ها چیزی جز قطعی نیستند. همانطور که گفته شد، پس از انتخاب یک مدل آماری، داده ها برای 1000 نمونه در دسترس است. من نموداری از داده ها را برای راحتی در زیر آورده ام. ![sample data](http://i.stack.imgur.com/P8IWD.jpg) نمونه داده: http://goo.gl/SrlRnQ [google doc] * * * **سوال و پرسش:** چرا من به Cross Validated آمده ام تا به دنبال یک روش آماری ایده آل برای تعیین چنین همبستگی در این داده ها باشم. به نظر می رسد رگرسیون لاینر ممکن است مسیری باشد که باید طی شود، اگرچه مطمئن نیستم چگونه ادامه دهم. داده های موجود به ترتیب 1000 مجموعه است، نه فقط 20 مجموعه ای که ارائه کرده ام. با توجه به این داده‌ها، بهترین راه برای تعیین یک پیش‌بینی ثابت یا حداقل متوسط ​​از مشارکت تیم‌ها و داوران در نتیجه چیست. یعنی به طور متوسط ​​چه بخشی از نتیجه را می توان مستقیماً به هر طرف در 1000 نمونه نسبت داد. مدل اولیه من مرا به این باور رساند که یک مقیاس‌کننده متوسط ​​و جهانی را می‌توان برای هر دو a و b محاسبه کرد تا نتیجه را پیش‌بینی کند. از آنجایی که این یک میانگین صرف است، خیلی دقیق نخواهد بود، اما من کنجکاو هستم که ببینم این همبستگی وجود دارد.
همبستگی داده ها برای مدل بسکتبال پیش بینی کننده
72376
من می خواهم یک مدل ARIMA _seasonal_ را با Statsmodels ARIMA پیاده سازی کنم. به طور خاص، من می خواهم قبل از فصلی هفتگی وارد سیستم شوم و سپس بتوانم پیش بینی کنم. شاید یک مثال با روش from_formula ARIMA بتواند این کار را انجام دهد. من همچنین دوست دارم بتوانم این کار را با پتسی انجام دهم. این کد نمونه من برای ورود به سیستم قبل از فصلی هفتگی، و سپس تبدیل مجدد برای مقایسه با سری زمانی اصلی است (من همچنین از بررسی اعتبار مدل از طریق آزمایش ثابت بودن و باقیمانده‌ها صرفنظر کرده‌ام): پانداها را به‌عنوان pd import numpy به عنوان np وارد کنید. از statsmodels.tsa.arima_model import ARIMA # ts یک سری زمانی است loged_ts = np.log(ts) # تفاوت در هفته ما را مجبور می کند که 7 مقدار اول را حذف کنیم. diffed_logged_ts = (logged_ts - logged_ts.shift(7))[7:] p = 0 d = 1 q = 1 arima = ARIMA(diffed_logged_ts.values, [p, d, q], exog=هیچکدام, dates=diffed_logged_ts.index. , freq='D', missing='none') diffed_logged_results = arima.fit(trend='c', disp=False) predicted_diffed_logged = diffed_logged_results.predict(exog=هیچکدام، dynamic=False) predicted_diffed_logged_ts = pd.Series(predicted_ index=diffed_logged_ts.index[d:]) predicted_diffed_logged_ts = np.exp(logged_ts.shift(7) + diffed_logged_ts.shift(d) + predicted_diffed_logged_ts) concatenated = pd.concat_logged([sff_ed] keys=['original', 'predicted']) print concatenated[-7:] نظر شما درباره این رویکرد چیست؟ امیدوارم در نسخه بعدی Statsmodels راه کمتری برای خطا وجود داشته باشد. آیا کسی می تواند این سوال را با statsmodels برچسب گذاری کند؟ با تشکر
ARIMA با فصلی در Statsmodels
96749
### سوال قبلی در سوال قبلی ام (آزمون کولموگروف-اسمیرنوف - پایایی) از آزمون دو نمونه ای KS برای تست نرمال بودن داده های یک نمونه ای سوء استفاده کردم. به من توصیه شد که از تست KS تک نمونه ای استفاده کنم، همچنین به من توصیه شد از تست اندرسون-دارلینگ استفاده کنم. ### وضعیت فعلی من از پیاده سازی های C++ از تست های Anderson-Darling (AD) و Kolmogorov-Smirnov (KS) استفاده می کنم تا بررسی کنم که آیا خوشه داده شده دارای توزیع نرمال است یا خیر. ### مشکلات اگر من با صدها امتیاز در هر خوشه سر و کار داشته باشم، AD نتایج رضایت بخشی به من می دهد. با این وجود، اگر من هزاران نقطه در خوشه خود داشته باشم، مقادیر زیادی از A-squared را از AD دریافت می کنم که از مقادیر بحرانی AD بسیار دور هستند. من اینجا خوانده ام که AD برای تعداد زیادی امتیاز شکست می خورد و بهتر است از KS استفاده کنید. با این حال، مطمئن نیستم که آیا کار اشتباهی انجام داده‌ام، اما KS تقریباً در همه موارد برابر با 1.0 است (در Matlab نیز متقاطع بررسی می‌شود). ### داده های مثال داده های نمونه در اینجا قرار دارند. این نشان دهنده یک خوشه از نقاط مخلوط گاوسی است. من می‌خواهم این خوشه را برای عادی بودن آزمایش کنم (و می‌خواهم در آن آزمایش برای این داده‌ها شکست بخورم). در نتیجه، من می‌خواهم داده‌ها را به خوشه‌های فرعی تقسیم کنم، هر زیر خوشه را دوباره آزمایش کنم و دوباره تقسیم کنم تا زمانی که به «خوشه‌های برگ» که معمولاً توزیع می‌شوند، برسم.
اندرسون-دارلینگ مقابل کولموگروف-اسمیرنوف (نمونه های بسیاری)
103858
من چندین موقعیت را دیده ام که فرضیه صفر در امتداد خطوط $\mu = \mu_0$ خوانده می شود، اما اگر بخواهم آزمایش کنم $\mu \leq \mu_0$ باشد چه؟ یا فرضیه صفر پیچیده تر؟ برای مثال ملموس‌تر، فرض کنید من داده‌هایی دارم که فکر می‌کنم از $N(\mu,1)$ هستند، جایی که $\mu$ ناشناخته است. من می خواهم این فرضیه صفر را آزمایش کنم که $\mu \leq 0$ است. چگونه می توانم این کار را انجام دهم؟
آزمون فرضیه با فاصله به عنوان فرضیه صفر
103857
من یک مشکل طبقه بندی دارم که در آن از گزینه «--ect» برای الگوریتم چند کلاسه استفاده می کنم. خروجی طبقه بندی کننده چیزی به شرح زیر است: 1.000000 805848386108096 2.000000 133087140195133 2.000000 598100953597523 3.000000 3.000000 3.000000 805848386108096 2.000000 547637911979064 1.000000 733923413306849 که قسمت اول کلاس (1 تا 3) و قسمت دوم تگ/id من است. آیا راهی برای به دست آوردن سطح اطمینان هر پیش بینی وجود دارد؟ به عنوان مثال، اگر اطمینان زیر یک آستانه خاص باشد، می‌خواهم مثال را به عنوان «غیر طبقه‌بندی‌شده» بگذارم.
چگونه با Vowpal Wabbit چند کلاسه در مورد پیش‌بینی‌های طبقه‌بندی اعتماد کنید
63520
من داده هایی از یک _2 (سیستم صوتی، سیستم دستی)_ x _2 (آسان، سخت)_ در آزمایش آزمودنی ها دارم. چندین DV جمع آوری شد. به دلیل مشکلاتی که در هر دو سیستم آزمایش شده وجود دارد، داده‌های یک وضعیت سیستم یا دیگری خراب هستند (به حدی که می‌توان آن را گمشده در نظر گرفت) برای بسیاری از موضوعات (ss). از بین داده های 34ss، تنها 14 داده برای هر دو شرایط سیستم دارند. 20 باقیمانده دارای داده های سیستم صوتی (9) یا سیستم دستی (11) هستند. برای فهرست کردن: * 14 x داده برای هر دو * 11 x داده برای وضعیت سیستم دستی، اما صدا وجود ندارد * 09 x داده برای وضعیت سیستم صوتی، اما دستی وجود ندارد ** من گزینه های خود را در نظر می گیرم:** * می توانم از یک تجزیه و تحلیل اندازه گیری های مکرر با حذف لیستی داده های از دست رفته و تجزیه و تحلیل من را فقط روی 14 با داده کامل اجرا کنید. * من می توانم از انتساب چندگانه برای پر کردن 20 مجموعه داده از دست رفته استفاده کنم، با این حال، داده های زیادی برای انتساب است. من تعجب می کنم که آیا این عاقلانه است. * من می‌توانم آزمایش را به یک آزمایش بین/داخل ss بازطراحی کنم، به‌طور تصادفی داده‌های 14 موردی را که دارای هر دو سیستم dara هستند دور ریخته و به 22n متعادل در هر گروه «بین» تازه ایجاد شده برسم. گروه دشواری همچنان به صورت درونی آنالیز می شود. * می توانم دوباره جمع آوری را شروع کنم. متأسفانه، در تعمیر تأسیسات نیز «ارتقای» شد، به این معنی که به اندازه کافی تغییراتی ایجاد شده است که باید از ابتدا شروع کنم. نظری در مورد اینکه بهترین مسیر پیش رو کدام است؟ مسیرهایی که در نظر نگرفته ام؟
داده های از دست رفته در طراحی اندازه گیری های مکرر
100125
من آزمایشی را اجرا می کنم که دارای مجموعه ای از متغیرهای طبقه بندی شده است (پاسخ های بله/خیر). اگر می‌خواستم این متغیرهای طبقه‌بندی را به یک امتیاز کاهش دهم (مثلاً یک نمره خلاصه/متوسط). 1. آیا روش مناسبی برای این کار وجود دارد؟ 2. می دانم که از مدل های rasch/IRT می توان برای ارزیابی ویژگی های مقیاس استفاده کرد. آیا می توان از مدل راش به عنوان مبنایی برای ایجاد امتیاز ترکیبی استفاده کرد؟ 3. اگر بله چگونه؟
ایجاد یک امتیاز ترکیبی از مجموعه ای از متغیرهای طبقه بندی شده
104702
$(X_1,X_2,\ldots,X_n)$ یک نمونه تصادفی از $\mathrm{N}(θ, 1)$ است. ما می دانیم که میانگین نمونه یک برآوردگر بی طرفانه است که سازگار است. برآوردگر مغرضانه اما ثابت برای θ چیست؟ آیا میانه نمونه خواهد بود؟ اگر چنین است، کسی می تواند آن را ثابت کند؟
برآوردگر مغرضانه اما سازگار برای میانگین توزیع گاوسی؟
73425
به نظر من، پس از داشتن سطح معناداری از پیش تعیین شده، رویکرد نیمن-پیرسون فقط مستلزم این است که ببینیم آیا x مشاهده شده در ناحیه رد قرار دارد یا خیر. در این مورد، چگونه آن را به p-value مرتبط کنیم؟ یا این یک راه جایگزین برای قضاوت در مورد رد یا عدم پذیرش x با استفاده از مقادیر p است؟ پس از خواندن برخی منابع در مورد NP و درمان فیشر، من گیج شدم. برای هر پیشنهادی از شما متشکرم
آیا مقدار p در روش تست نیمن-پیرسون دخالت دارد؟
92614
من یک مرد علوم کامپیوتر هستم، نه یک ریاضیدان، بنابراین اگر خطای مضحکی در توضیح مشکل من وجود دارد، با مهربانی ببخشید. من دو خوشه $C_1$ و $C_2$ در یک فضای ویژگی دارم که توسط ویژگی‌های $k$ در مقیاس بین $0$ و $1$ پوشیده شده است. این بدان معناست که هر ویژگی پس از عادی سازی حداقل حداکثری مقادیر ویژگی، بین $0 تا $1 $ متغیر است. خوشه ها هنگام نمونه برداری از دو توزیع گاوسی چند متغیره جداگانه $N_1(f_1, f_2, ...f_k )$ و $N_2(f_1, f_2, ...f_n )$ تولید می شوند که در آن $f_i \in [0,1]$ ، بیش از ویژگی های مقیاس شده. من شرطی برای میانگین یا ماتریس کوواریانس ندارم. با این حال، مشخص شده است که هر جفت بردار (یا نمونه) در یک خوشه معین نباید فاصله اقلیدسی بیش از یک مقیاس کننده مشخص شده $D$ داشته باشد. اکنون دو بردار دلخواه $A$ و $B$ به ترتیب از خوشه‌های $C_1$ و $C_2$ انتخاب می‌شوند. اکنون $R_A$ و $R_B$ ترتیب‌بندی ویژگی‌ها بر اساس مقادیر متناظرشان در بردارها هستند (به عنوان مثال، اگر $A$=(0.8,0.2,0.7)، $R_A$ یک لیست مرتب شده است $(f_2<f_3< f_1)$). احتمال اینکه فاصله تاو_کندال بین $R_A$ و $R_B$ $0 باشد چقدر است. من به یک عبارت برای $Pr(K(R_A,R_B)=0 | D=d)$ نیاز دارم. امیدوارم بتوانم مشکل را بدون ابهام توضیح دهم. با این حال، لطفاً در صورت وجود هرگونه سردرگمی به من اطلاع دهید. با تشکر
قابلیت تفکیک کلاس بر اساس رابطه ویژگی
58041
من در حال تجزیه و تحلیل شاخص های مورفو-عملکردی اندام های جلویی در یک جونده زیرزمینی هستم (به عنوان مثال طول اولکرانون / طول اولنا x 100) و نمی دانم چگونه داده های قبل از PCA را درمان کنم. کدام تحول بهتر است؟ لگاریتم طبیعی، log10، تبدیل زاویه ای، یا بدون تبدیل؟
کدام تبدیل برای PCA بهتر است؟
109911
من به دنبال مدل سازی تغییر در عملکرد مدرسه در طی سه سال (2010 تا 2012) با استفاده از تعدادی متغیرهای اجتماعی-اقتصادی هستم. داده های اقتصادی-اجتماعی از دو دوره سرشماری در دسترس است: 2000 و 2010. من می خواهم در مورد اینکه چه گزینه ای برای من بهتر است، راهنمایی کنم. رگرسیون عملکرد هر یک از این سال ها در برابر داده های اجتماعی-اقتصادی سال 2010، یا رگرسیون عملکرد سال های 2011 و 2012 با داده های سرشماری تخمینی با استفاده از تغییر بین داده های سرشماری سال های 2000 و 2010 (یعنی فقط عملکرد سال 2010 از داده های سال 2010 استفاده می کند).
رگرسیون با متغیرهای سرشماری
63039
من یک مدل رگرسیون بیزی در WinBUGS برای تعیین مقادیر پارامترهای ناشناخته (b1، b2، b3، b4) و مقدار قطع (b0) در یک مدل رگرسیون خطی تنظیم کرده‌ام. کد به شرح زیر است: model { for (i in 1:(J-1)) {FC[i] ~ dnorm(mu[i], tau) mu[i] <- b0 + b1*(Factor_b1[i] -mean_Factor_b1) + b2*(Factor_b2[i]-mean_Factor_b2) + b3*(Factor_b3[i]-mean_Factor_b3) + b4*(Factor_b4[i]-mean_Factor_b4) } b0 ~ dflat() b1 ~ dflat() b2 ~ dflat() b3 ~ dflat() b4 () ~d 1/sigma2 log(sigma2) <- 2*log.sigma log.sigma ~ dflat() } Inits: list(b0 =0,b1 = 0, b2 =0, b3 = 0, b4 =0, log.sigma=0) Data1 لیست(J = 20، FC = c(1.87315166256848، 1.87315166256848، 1.87315166256848، 1.8708501655802، 1.8708501655802، 1.8708501655802، 1.93242481 1.93248104062608، 1.93248104062608، 1.93248104062608، 1.80846914258265، 1.80846914258265، 1.80424، 1.80846914258265، 1.8024 2.10555453929548, 2.10555453929548, 2.10555453929548, 2.10555453929548, 2.10555453929548, 2.1360 2.12908503670568)، Factor_b1 = c(7.0057890192535، 7.0057890192535، 7.0057890192535، 7.05012252026905، 7.05012252026905، 26906، 26906، 7.005. 7.05012252026906، 7.13329595489607، 7.13329595489607، 7.13329595489607، 7.13329595489607، 7.15959607 7.13329595489607، 7.13329595489607، 7.11720550316434، 7.11720550316434، 7.11720550316434، 7.11720550316434، 7.11720550316434، 7.1034، 7.117 7.11720550316434، 7.14124512235049، 7.14124512235049)، mean_Factor_b1 = 7.09846620316814، Factor_b2 = c(7.22910 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.221110509، 7.221105098 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.221110509، 7.221105098 7.37650812632622، 7.37650812632622، 7.37650812632622، 7.37650812632622، 7.37650812632622، 7.436, 7.461 7.46565531013406)، mean_Factor_b2 = 7.28441087641358، Factor_b3 = c(2.37954613413017, 2.37954613413017, 2.313795 2.28238238567653، 2.28238238567653، 2.28238238567653، 2.28238238567653، 2.28238238567653، 2.28238238567653، 2.2856، 2.2856 2.28238238567653، 2.28238238567653، 2.28238238567653، 2.28238238567653، 2.33214389523559، 2.3932، 2.3932 2.33214389523559، 2.33214389523559، 2.33214389523559، 2.33214389523559، 2.33214389523559)، mean_Factor. Factor_b4 = c(2.06686275947298, 2.06686275947298, 2.06686275947298, 2.09186406167839, 2.091864061627839, 2.091864061627839, 2.091864061627839 2.10413415427021, 2.10413415427021, 2.10413415427021, 2.10413415427021, 2.06686275947298, 2.058,2.0594 2.06686275947298, 2.32238772029023, 2.32238772029023, 2.32238772029023, 2.32238772029023, 2.37223 2.2082744135228, 2.2082744135228)، mean_Factor_b4 = 2.15608963937253) این کد WinBUGS خروجی های زیر را برای رهگیری ناشناخته (b0) و پارامتر (b1, b4an error nos, bs3) برمی گرداند: 2.5% میانه 97.5% نمونه شروع b0 1.957 0.009337 3.764E-5 1.939 1.957 1.976 1001 56000 b1 0.1068 0.3296 0.00143850.001438 - 1001 56000 b2 0.5977 0.2758 0.001068 0.05286 0.5967 1.147 1001 56000 b3 0.1892 0.4394 0.001825 0.001871101010106 - 0.001825 56000 b4 0.5757 0.1886 7.423E-4 0.1986 0.5765 0.9472 1001 56000 مشکل من: وقتی این تخمین های بیزی را با نتایج حاصل از یک رگرسیون MLE خطی در R مقایسه می کنم (به نظر می رسد که یک مقدار رهگیری در R متفاوت است). کد رگرسیون خطی R به شرح زیر است: FC = c(1.87315166256848, 1.87315166256848, 1.87315166256848, 1.8708501655802, 1.87315166256848 1.8708501655802، 1.93248104062608، 1.93248104062608، 1.93248104062608، 1.93248104062608، 1.80284 1.80846914258265، 1.80846914258265، 2.10555453929548، 2.10555453929548، 2.10555453929548، 2.105545453929548، 2.10555453929548، 2.1039 2.10555453929548، 2.12908503670568، 2.12908503670568) b1 = c(7.0057890192535، 7.0057890192535، 7.0057890192535، 7.890525، 7.8901 7.05012252026906, 7.05012252026906, 7.13329595489607, 7.13329595489607, 7.13329595489607, 7.15949, 7.15949 7.13329595489607، 7.13329595489607، 7.13329595489607، 7.11720550316434، 7.11720550316434، 7.1054،117 7.11720550316434، 7.11720550316434، 7.14124512235049، 7.14124512235049) b2 = c(7.22110509818215، 7.22110509818215، 7.505 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.221110509، 7.221105098 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.2211050981825، 7.3765082126 7.37650812632622، 7.37650812632622، 7.37650812632622، 7.37650812632622، 7.46565531013406، 7.465326106، 7.46565531013406، 7.4632) b c(2.37954613413017, 2.37954613413017, 2.37954613413017, 2.28238238567653, 2.28238238567653, 2.28238567653, 2.2856 2.28238238567653، 2.28238238567653، 2.28238238567653، 2.2823823856
رگرسیون بیزی در مقابل MLE - دریافت نتایج متفاوت
88426
من به دنبال راهی برای رفع این مشکل بودم. من باید یک برنامه برای محاسبه رگرسیون خطی برای 100 نقطه 3 بعدی ایجاد کنم. من همچنین نتایج تطبیق امتیازات را دارم، بنابراین مانند یک مجموعه تمرینی است تا یک مجموعه تست. همچنین به من دستور داده شده است که اصطلاح سوگیری را در نظر بگیرم، اما مطمئن نیستم که معنای آن چیست. من می توانم مستندات خوبی برای نقاط 2 بعدی پیدا کنم، اما برای 3 بعدی نه. از آنجایی که معادلات زیادی برای انجام نقاط داده XY وجود دارد، مطمئناً معادله مشابهی برای نقاط XYZ وجود دارد. من واقعاً مایل نیستم که معادله به طور کامل به من داده شود، اما بیشتر به درک عملکرد و نحوه کارکرد آن و همچنین نحوه تعیین آن علاقه دارم. با تشکر از هر کسی که مطالعه می کند و می تواند به من در حل این مشکل کمک کند.
رگرسیون خطی با نقاط سه بعدی
108166
من داده هایی دارم که مطمئنم روند نزولی دارد. من سعی می کنم این داده ها را با استفاده از ARIMA پیش بینی کنم و می خواهم ARIMA هنگام پیش بینی روند را در نظر بگیرد. اولین قدم در ARIMA تعیین ترتیب تفکیک است که برای آن از آزمون KPSS استفاده می کنم. آزمون KPSS در R دارای گزینه روند و سطح است. اگر بدانم داده های من روند نزولی دارند، کدام یک را باید انتخاب کنم؟ من گیج شده‌ام زیرا نمی‌دانم در صورتی که روند برای پیش‌بینی در نظر گرفته شود، ARIMA منتظر چه ورودی است. سوال دیگر: آیا روش مطمئنی برای دانستن اینکه آیا داده ها از روندی پیروی می کنند وجود دارد؟
در نظر گرفتن ایستایی در ARIMA با استفاده از آزمون KPSS
103859
من سعی می کنم اندازه اثر $\omega^2$ را برای اندازه اثر دو فاکتوریل (هر کدام دو سطح) برای یک ANCOVA با یک متغیر کمکی محاسبه کنم. پس از مشورت هاول (2012) من فرمول زیر را برای محاسبه مولفه های واریانس برای هر یک از اثرات اصلی و اثر متقابل دریافت کردم (دو عامل من MC و TV نام دارند): $$ \begin{align} \tilde{\sigma} ^2_{MC} &= \frac{MS_{MC} - MS_R}{4n_{MC}}\\\ \tilde{\sigma}^2_{TV} &= \frac{MS_{TV} - MS_R}{4n_{TV}}\\\ \tilde{\sigma}^2_{MC\times TV} &= \frac {MS_{MC\times TV} - MS_R}{4n_{MC\times TV}} \end{align} $$ و محاسبه اندازه اثر نهایی بر اساس این موارد: $$ \omega^2 = \frac{\tilde{\sigma}^2}{\tilde{\sigma}^2_{MC}+\tilde{\sigma}^2_{TV}+\tilde{\sigma}^2_ {MC\times TV}+MS_R} $$ با این حال به نظر نمی‌رسد این فرمول هنوز اثر متغیر کمکی را شامل نمی‌شود. آیا کسی می داند چگونه می توانم آن را برای محاسبه اندازه افکت $\omega^2$ اضافه کنم؟ از شما برای هر ایده ای که ممکن است داشته باشید متشکرم! Mil
ANCOVA: $\omega^2$ را برای طراحی دو فاکتوریل محاسبه کنید
86032
من در حال حاضر با مجموعه داده‌ای کار می‌کنم که نمونه‌های متعددی در طول زمان در سایت‌های مختلف در یک منطقه مورد مطالعه جمع‌آوری شده است، و علاقه‌مندم روندی را در طول زمان برای آن منطقه شناسایی کنم. من می دانم که در یک موقعیت تجربی یا متعادل ایده آل، استفاده از یک مدل شیب و قطع تصادفی یک راه عالی برای رسیدن به روند کلی در منطقه مورد مطالعه است. با این حال، با داده‌های ما، بسیاری از سایت‌ها نمونه ندارند و تعداد انگشت شماری از سایت‌ها فقط یک نقطه داده دارند. من کنجکاو هستم که آیا راهی برای درک شهودی وجود دارد که چگونه عدم تعادل نمونه بر برآورد شیب کلی تأثیر می گذارد؟ به بیان دیگر، آیا راه‌هایی برای دانستن اینکه آیا عدم تعادل نمونه باعث ایجاد مشکل می‌شود وجود دارد یا چیزهایی وجود دارد که می‌توانم در خروجی مدل خود جستجو کنم که نشان می‌دهد نباید به آنچه مدل تخمین می‌زند اعتماد کنم؟ من یک مثال ساختگی با 20 نقطه داده ایجاد کردم تا به این موضوع نگاه کنم. من 10 نقطه داده با شیب 1 را در یک سایت (a) قرار دادم و 10 نقطه داده دیگر را با شیب -1 در سایت های منحصر به فرد (b تا l) قرار دادم. من فرض کرده بودم که وقتی به مدل رهگیری تصادفی و مدل شیب و رهگیری تصادفی نگاه می کنم تا حدودی شبیه به هم هستند یا حداقل این دومی با داده های خوب در طول زمان وزن بیشتری به سایت می دهد. > library(lme4) > set.seed(9999) > x = c(0,1,2,3,4,5,6,7,8,9,0,1,2,3,4,5,6 ,7,8,9) + rnorm(20,mean=0,sd=0.1) > y = c(0,1,2,3,4,5,6,7,8,9,9,8,7,6,5,4,3,2,1,0) + rnorm(20,mean=0 ,sd=0.1) > z = c(rep('a',10),'b','c','d','e','f','h','i','j' ,'k','l') > z = ضریب(z) > m0 = lm(y~x) > m1 = lmer(y~x+(1|z)) > m2 = lmer(y~x+(1+x|z)) > خلاصه (m0) همانطور که انتظار می رفت، شیب مدل خطی نزدیک به صفر بود، اما نتایج برای دو مدل اثرات مختلط تقریبا برعکس حتی اگر سایت‌های b تا l فقط یک نقطه داده دارند، به نظر می‌رسد که سهم بیشتری در شیب دارند زیرا این روند در بسیاری از سایت‌ها رخ می‌دهد. مدل شیب و برش تصادفی نیز به استفاده از معیارهای انتخاب مدل ترجیح داده شد. > summary(m0)$coefficients Estimate Std. خطای t مقدار Pr(>|t|) (برق) 4.53784796 1.2586990 3.6051890 0.002023703 x -0.01178748 0.2335094 -0.0504797 >2904797 0.96 مختلط مدل متناسب با REML ['lmerMod'] فرمول: y ~ x + (1 | z) معیار REML در همگرایی: 62.0877 اثرات تصادفی: نام گروه ها واریانس Std.Dev. z (Intercept) 33.30788 5.7713 Residual 0.01583 0.1258 تعداد obs: 20، گروه ها: z، 11 اثرات ثابت: Estimate Std. مقدار خطای t (فاصله) -0.03597 - 1.74163 -0.02 x 0.99332 0.01386 71.66 همبستگی جلوه‌های ثابت: (Intr) x -0.036 > خلاصه (m2) خطی مدل مختلط متناسب با REML (1~] x Mod'l + x | z) معیار REML در همگرایی: 31.0386 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr z (Intercept) 7.78818 2.7907 x 0.37691 0.6139 -1.00 Residual 0.01524 0.1234 تعداد obs: 20، گروه ها: z، 11 جلوه های ثابت: Estimate Std. خطا T (رهگیری) 8.2121 0.8566 9.587 x -0.8201 0.1882 -4.358 همبستگی جلوه های ثابت: (Int) x -0.999> ANOVA (M1 ، M2) داده ها: مدل ها: M1: Y ~ x + (1 | Z) M2: y ~ x + (1 + x | z) DF AIC Bic Loglik Deviance Chisq Chi Df Pr (> Chisq) M1 4 66.206 70.189 -29.103 58.206 M2 6 36.745 42.719 -12.372 24.745 33.462 2 5.419e -08 *********************** --------. کدها: 0 ‘*** '0.001‘ **' 0.01*'0.05 ‘.' 0.1‘ '1 می بینم که در این مثال شدید ، شیب تصادفی و رهگیری همبستگی تقریباً کاملی دارند. همان چیزی است که من می توانم از این امر بیرون بیاورم این است که ، به یک معنا ، مدل ارزش بیشتری به سایت ها با تنها یک نقطه داده می دهد زیرا روند کلی بسیار قوی است اما در چندین سایت ، اما من باید تخمین شیب را مشاهده کنم که این مدل تولید می کند به عنوان مظنون با چنین همبستگی بالا؟ آیا چیز دیگری وجود دارد که باید به دنبال آن بود؟ برای مطالعه خاص خود ، من همچنین می توانم نوعی معیارهایی را برای اینکه فکر می کردم برای انجام استنتاج های مناسب ، به عنوان مثال ، ضروری است ، تعیین کنم. حذف تمام سایت هایی که کمتر از پنج نمونه دارند. با تشکر فراوان از افکار شما
تفسیر ضرایب برای مدل های اثرات تصادفی با داده های بسیار نامتعادل
103855
فرض کنید یک مدل احتمالی $m$ داشته باشیم که من آن را با استفاده از حداکثر احتمال به داده ها برازش می کنم. اکنون، من می‌خواهم یک مدل نویز $n$ اضافه کنم که می‌توانم آن را به طور مستقل با استفاده از حداکثر احتمال، جاسازی کنم. بنابراین من فرض می کنم که داده ها با مجموع دو مدل تولید می شوند. چگونه می توانم مدل ترکیبی را مناسب کنم؟ آیا تکرار بین تخمین یکی با توجه به دیگری (سبک EM) کافی است؟ یا آیا باید تابع درستنمایی ترکیبی را به حداکثر برسانم و اگر چنین است آیا احتمال ترکیبی فقط مجموع احتمالات است؟
چگونه یک مدل نویز را در یک مدل احتمالی ترکیب کنیم؟
7257
من سعی می‌کنم بفهمم ماشین‌های بولتزمن چگونه کار می‌کنند، اما کاملاً مطمئن نیستم که وزن‌ها چگونه یاد می‌شوند و نتوانسته‌ام توضیح واضحی پیدا کنم. آیا موارد زیر صحیح است؟ (همچنین، اشاره‌گرها به توضیحات خوب ماشین بولتزمن نیز عالی خواهند بود.) ما مجموعه‌ای از واحدهای قابل مشاهده (مثلاً مربوط به پیکسل‌های سیاه/سفید در یک تصویر) و مجموعه‌ای از واحدهای پنهان داریم. وزن ها به نحوی مقداردهی اولیه می شوند (به عنوان مثال، به طور یکنواخت از [-0.5، 0.5])، و سپس بین دو فاز زیر به طور متناوب تا زمانی که به یک قاعده توقف برسیم: 1. فاز گیره - در این مرحله، تمام مقادیر واحدهای قابل مشاهده هستند. ثابت است، بنابراین ما فقط حالت های واحدهای پنهان را به روز می کنیم (طبق قانون فعال سازی تصادفی بولتزمن). ما تا زمانی که شبکه به تعادل برسد به روز می کنیم. هنگامی که به تعادل رسیدیم، به‌روزرسانی $N$ را بارها ادامه می‌دهیم (برای برخی از $N$ از پیش تعریف‌شده)، و میانگین $x_i x_j$ را دنبال می‌کنیم (که $x_i، x_j$ حالت‌های گره‌های $i$ و $j هستند. دلار). پس از به‌روزرسانی‌های تعادل $N$، $w_ij = w_ij + \frac{1}{C} Average(x_i x_j)$ را به‌روزرسانی می‌کنیم، که $C$ مقداری نرخ یادگیری است. (یا به جای انجام یک آپدیت دسته ای در انتها، آیا بعد از مرحله تعادل به روز رسانی می کنیم؟) 2. فاز آزاد - در این مرحله حالت های همه واحدها به روز می شوند. هنگامی که به تعادل رسیدیم، به طور مشابه N' را بارها به روز می کنیم، اما به جای اضافه کردن همبستگی ها در پایان، کم می کنیم: $w_{ij} = w_{ij} - \frac{1}{C} Average(x_i x_j) $. بنابراین سؤالات اصلی من این است: 1. هر زمان که در فاز گیره قرار داریم، آیا واحدهای قابل مشاهده را به یکی از الگوهایی که می خواهیم یاد بگیریم (با مقداری فرکانس که نشان دهنده اهمیت آن الگو است) بازنشانی می کنیم یا اینکه واحدهای قابل مشاهده در حالتی که در پایان فاز آزاد بودند؟ 2. آیا در پایان هر فاز یک به روز رسانی دسته ای وزن ها را انجام می دهیم یا وزن ها را در هر مرحله تعادل در فاز به روز می کنیم؟ (یا یکی خوبه؟)
آموزش وزنه ها در ماشین بولتزمن
10079
در چارچوب یک پیشنهاد پژوهشی در علوم اجتماعی، سؤال زیر از من پرسیده شد: > هنگام تعیین حداقل حجم نمونه برای رگرسیون چندگانه، همیشه 100 + m (که m تعداد پیش بینی کننده ها است) پیش رفته ام. آیا این > مناسب است؟ من اغلب سوالات مشابهی دریافت می کنم، اغلب با قوانین سرانگشتی متفاوت. من نیز چنین قوانین سرانگشتی را در کتاب های درسی مختلف بسیار خوانده ام. من گاهی تعجب می کنم که آیا محبوبیت یک قانون از نظر استنادها بر اساس میزان پایین تنظیم استاندارد است؟ با این حال، من همچنین از ارزش اکتشافی خوب در ساده سازی تصمیم گیری آگاه هستم. ### سؤالات: * کاربرد قواعد ساده سرانگشتی برای حداقل حجم نمونه در چارچوب پژوهشگران کاربردی طراحی مطالعات پژوهشی چیست؟ * آیا یک قانون کلی جایگزین برای حداقل حجم نمونه برای رگرسیون چندگانه پیشنهاد می کنید؟ * از طرف دیگر، چه راهبردهای جایگزینی را برای تعیین حداقل حجم نمونه برای رگرسیون چندگانه پیشنهاد می کنید؟ به ویژه، خوب است که ارزش به درجه ای که هر استراتژی می تواند به راحتی توسط یک غیر آمارگیر اعمال شود، اختصاص داده شود.
قوانین سرانگشتی برای حداقل حجم نمونه برای رگرسیون چندگانه
6024
با توجه به مشاهدات $\\{y، x_1، x_2، \cdots، x_n\\}$، همیشه می‌توانیم یک رگرسیون خطی انجام دهیم و همه ضرایب $\\{c_i\\}$ را برای مدل $$y = بدست آوریم. c_0 + c_1 x_1 + \cdots + c_n x_n.$$ با این حال، این ممکن است بهترین پاسخ نباشد. بذار توضیحش بدم هنگامی که ما یک رگرسیون انجام می دهیم، $\\{d_i\\}$ را برای انحراف معیار ضرایب $\\{c_i\\}$ تخمین زده ایم و ممکن است در مشکل خاص من معلوم شود که اکثر این ضرایب ضرایب دارای مقادیر $t$ پایینی هستند. از طرف دیگر، در مشکل من، من قبلاً می‌دانم که مدل اصلی بیشتر شبیه $$y = \Sigma_i c_i (x_{m_i} - x_{n_i})$$ است مانند $$y = c_1 (x_3 - x_4) + c_2 (x_1 - x_9)$$ و مشکل این است که $\\{m_i\\}$ را نمی‌دانم و $\\{n_i\\}$. یعنی، در مورد عجیب من، اگر از قبل بدانم که به شکل $y = c_1 (x_3 - x_4) + c_2 (x_1 - x_9)$ است، پس وقتی $c_1$ و $c_2$ را پیدا کردم، آن را پیدا خواهم کرد. آنها دارای مقادیر بالای $t$ باشند. با این وجود، نمی‌دانم $(x_3 - x_4)$ و $(x_1 - x_9)$ ترکیب‌های ویژه هستند. و اگر فقط $y = c_1 x_1 + \cdots + c_9 x_9$ را حل کنم، همه $\\{c_i\\}$ را با مقادیر کم $t$-مقادیر خواهم یافت. (دلیل این پدیده عجیب این است که $\\{x_i\\}$ من همبستگی قابل توجهی با یکدیگر دارند.) به نظر می رسد که می توانم مدل $$y = c_{1,2} (x_1 - x_2) را حل کنم. + c_{1,3} (x_1 - x_3) + \cdots + c_{4,6} (x_4 - x_6) + \cdots$$ و همه را پیدا کنید $\\{c_{i,j}\\}$ با مقادیر بالای $t$. اما پس از آن به جای 9 دلار، ضرایب 36$$\\{c_{i,j}\\}$ وجود خواهد داشت. نمی دانم آیا روش های سریع تری وجود دارد؟ متشکرم.
مناسب این نوع مدل: $y = c_1 (x_3 - x_4) + c_2 (x_1 - x_9)$
16103
متاسفم اگر اصطلاحات من اشتباه است، آن را جبران می کنم. من صدها شیء را به طور همزمان در دو درمان شمارش کرده ام که هر کدام سه بار اندازه گیری شده اند (نه جفت). به عنوان مثال: A1 A2 A3 B1 B2 B3 Object 1 2 4 3 5 8 1 Object 2 0 0 0 0 0 0 Object 3 20 15 12 1 0 3 Object 4 0 6 2 0 200 250 Object 5 705 I want 4 0 0 0 0 به دنبال تفاوت بین A و ب. مشکل این است که برخی از اشیاء در برخی نمونه‌ها مقادیر صفر یا بسیار کم می‌دهند حتی زمانی که نمونه‌های دیگر (برای همان شی و درمان) تعداد بسیار بالایی را ارائه می‌دهند (مثلاً 0,200,250). دلیل خوبی برای باور تعداد زیاد وجود دارد، اما این که تعداد کم به دلیل انسداد توسط پدیده های مشاهده نشده است. می دانم که می توانم از نوعی آزمون t غیر پارامتریک استفاده کنم و به دلیل واریانس بالا، بسیار محافظه کارانه خواهد بود. کاری که من می خواهم انجام دهم این است که شاید پدیده های مشاهده نشده را به عنوان یک پارامتر انسداد که بین درمان ها متفاوت است مدل سازی کنم. من تصور مبهمی دارم که آزمایش G یا حداکثر احتمال ممکن است راهی باشد، اما نمی دانم از کجا شروع کنم. این احتمالاً کمکی نخواهد کرد، اما این همان چیزی است که من به آن فکر می کنم: - p(counts(A,B)) = sum(p(counts(A) - obstructA * p(obstructA)) + sum(p(counts(B) - obstructB * p(obstructB) )
مقایسه نمونه با کمبود یا کاهش قیمت ناشناخته
4111
امروز دانشجویی از من پرسید: آنها از کجا می دانند که چند نفر در یک رویداد گروهی بزرگ شرکت کرده اند، به عنوان مثال، تجمع استوارت/کولبر برای بازگرداندن سلامت عقل در واشنگتن دی سی؟ خبرگزاری ها تخمین های ده ها هزار نفری را گزارش می کنند، اما چه روش هایی برای به دست آوردن این تخمین ها استفاده می شود و چقدر قابل اعتماد هستند؟ یک مقاله ظاهراً بر اساس مجوزهای پارکینگ تخمین زده است ... اما چه تکنیک های دیگری داریم؟ لطفاً توجه داشته باشید که من در مورد آزمایش های ضبط / بازپس گیری یا موارد مشابه صحبت نمی کنم. هیچ نظری ندارم من پیشاپیش حدس می‌زنم که روش‌های خاصی برای چنین چیزی وجود ندارد، و هر چیزی که وجود دارد بسیار موردی است (مانند تعداد مجوزهای پارکینگ فروخته شده). آیا این حقیقت دارد؟ برای اهداف امنیت ملی - البته - ممکن است یک تحلیلگر با عکس های ماهواره ای بنشیند و تعداد افراد آنجا را بشمارد. من شک دارم که این روش اغلب استفاده شود.
چگونه می توان تخمین زد که چند نفر در یک رویداد (مثلاً یک تجمع سیاسی) شرکت کردند؟
80122
با توجه به فهرستی از پرس و جوهای جستجوی بدون برچسب، آیا می توان گفت که کدام عبارت مربوط به موضوع خاصی است؟ به عنوان مثال، اگر بخواهیم جستارهایی را انتخاب کنیم که هدف کاربر دانلود یا گوش دادن به موسیقی آنلاین است، و مجموعه داده شامل جستارهایی مانند این است: * بهترین آهنگ ها در سال 2013 * فیس بوک * گوش دادن به موسیقی آنلاین * دانلود رایگان موسیقی * یوتیوب * اخبار * برنامه های کالج * آموزش حساب دیفرانسیل و انتگرال * خاطرات خون آشام من چند مقاله پیدا کردم اما آنها از روش های نظارت شده یا نیمه نظارت شده یا اطلاعات اضافی مانند کلیک استفاده می کنند شمارش می کند. پیشاپیش ممنون
شناسایی هدف کاربر در جستارهای جستجوی وب با استفاده از داده های بدون برچسب
6022
اگر فقط سه صدک بدانم از چه روش هایی می توانم برای استنتاج توزیع استفاده کنم؟ به عنوان مثال، من می دانم که در یک مجموعه داده خاص، صدک پنجم 8135، صدک 50 برابر با 11259 و صدک 95 برابر با 23611 است. من می خواهم بتوانم از هر عدد دیگری به صدک آن بروم. این اطلاعات من نیست، و این همه آماری است که من دارم. واضح است که توزیع نرمال نیست. تنها اطلاعات دیگری که من در اختیار دارم این است که این داده ها نشان دهنده بودجه سرانه دولت برای ولسوالی های مختلف مدرسه است. من به اندازه کافی در مورد آمار می دانم که بدانم این مشکل راه حل قطعی ندارد، اما نه به اندازه ای که بدانم چگونه باید حدس های خوب پیدا کرد. آیا توزیع لگ نرمال مناسب است؟ از چه ابزارهایی می توانم برای انجام رگرسیون استفاده کنم (یا باید خودم آن را انجام دهم)؟
تخمین توزیع بر اساس سه صدک
31083
من از R برای انجام خوشه بندی K-means استفاده می کنم. من از 14 متغیر برای اجرای K-means استفاده می کنم * یک راه زیبا برای رسم نتایج K-means چیست؟ * آیا پیاده سازی های موجود وجود دارد؟ * آیا داشتن 14 متغیر ترسیم نتایج را پیچیده می کند؟ من چیزی به نام GGcluster پیدا کردم که جالب به نظر می رسد اما هنوز در حال توسعه است. در مورد سامون نگاشت هم یه چیزایی خوندم ولی خوب متوجه نشدم. آیا این گزینه خوبی خواهد بود؟
چگونه یک نمودار زیبا از نتایج تحلیل خوشه‌ای k-means تولید کنیم؟
86972
من برای عادی سازی تعدادی از متغیرها مشکلاتی دارم، به طوری که معادل های نرمال شده آنها برخی از محدودیت های مرزی را رعایت می کنند. فرض کنید من دو متغیر $-1\leq w_1\leq 1$ و $-1\leq w_2\leq 1$ دارم که مجموع آنها $sum =w_1+w_2 \lneqq 1$ است، هدف من این است که مجموع را برابر با $1$ به طوری که متغیرهای جدید به مرزهای $[-1,1]$ احترام بگذارند. ظاهراً تقسیم بر $sum$ مشکل را حل نمی کند، زیرا می توانیم $(w_1/sum) >1$ داشته باشیم. چه نوع نرمال سازی را باید نگاه کنم. متشکرم.
نرمال سازی واحد با توجه به متغیرهای محدود
100124
سوال گویای همه چیز است. من هر دو را خوانده ام که نمی توان KS را به بعد مساوی یا بزرگتر از دو تعمیم داد، و اینکه پیاده سازی های معروفی مانند آن در Numerical Recipes به سادگی اشتباه هستند. میشه لطفا توضیح بدید چرا اینطوریه؟
چرا نمی توان آزمون کولموگروف-اسمیرنوف را به دو بعد یا بیشتر تعمیم داد؟
10074
پس از کمی جستجو، توانستم اطلاعاتی از سرشماری سال 1990 ایالات متحده در مورد فراوانی نام‌های کوچک مرد و زن و نام خانوادگی پیدا کنم. آن داده اینجاست. با این حال، من نمی توانم داده های مشابهی را برای هیچ سال سرشماری دیگری پیدا کنم. آیا کسی می داند که از کجا می توانم داده های سال های دیگر را چه زودتر و چه دیرتر دریافت کنم؟
از کجا می توانم اطلاعات نام سال های سرشماری ایالات متحده را به جز سال 1990 پیدا کنم؟
109334
اگر فرضیه ای برای آزمایش اثربخشی یک درمان یا یک کمپین بازاریابی انجام دهید، می خواهید مطمئن شوید که این دو گروه قابل مقایسه هستند. شما می توانید مقادیر مربوطه را بین دو گروه مقایسه کنید. حتی اگر اینها تفاوت قابل توجهی نداشته باشند، باز هم ممکن است تفاوت های پنهانی بین دو گروه وجود داشته باشد. فرض کنید هزینه های مشتری را با هم مقایسه می کنیم. گروه آزمون مشتریانی هستند که نام آنها با حرف a، b، c، d یا e شروع می شود. زمان و مبلغ هنگام تسویه حساب ذخیره می شود. آیا یادگیری ماشینی می تواند در یافتن تفاوت های (از لحاظ آماری معنی دار) بین گروه ها نقشی ایفا کند؟ آیا هیچ مرجعی در مورد این نوع استفاده از یادگیری ماشین وجود دارد؟
آیا یادگیری ماشین برای مقایسه گروه آزمایش و گروه کنترل مفید است؟
73426
من سعی می کنم کد بنویسم تا یک SOM رو به رشد برای داده های نوع مختلط بسازم. من به یک نقشه کاغذی رشد خودسازماندهی با درج متقاطع برای داده های نوع مختلط برخوردم (http://www.sciencedirect.com/science/article/pii/S1568494612001731). بسیار جالب بود و داده های دسته بندی و عددی را به صورت یکپارچه مدیریت می کرد. با این حال، مجموعه داده من دارای متغیرها/ویژگی هایی است که می توانند چندین مقدار داشته باشند (به عنوان مثال: ویژگی interests می تواند بیش از یک مقدار داشته باشد - فیلم ها، ورزش ها و غیره...). من در رسیدگی به چنین ویژگی هایی گیر کردم. آیا ورودی‌هایی وجود دارد که چگونه می‌توان ویژگی‌ها را با مجموعه‌ای از مقادیر در یک مجموعه داده ترکیبی مدیریت کرد؟ ارجاع به مطالبی که در مورد این مشکل صحبت می کند بسیار قدردانی می شود.
در حال رشد نقشه خودسازماندهی برای داده های ترکیبی
51932
حالت بسیار ساده فرض می کند که ما مدلی مانند $y = a + bx + e$ داریم که در آن شرط $cov(x,e)=0$ درست است. بنابراین می توان از رابطه شرایط لحظه برای تخمین پارامتر $b$ استفاده کرد، به عنوان مثال: $b = \frac{cov(x,y)}{var(x)}$ سپس تخمین $b$ توسط جایگزینی شرایط ممان با شرایط نمونه. در مرحله بعد فرض می کنیم که مدلی مانند $y = a + b_1*x_1 + b_2*x_2 + e$ داریم که دوباره شرایط $cov(x_1,e)=0$ و $cov(x_2,e)=0$ هستند. فرض شده درست است اگر اکنون بخواهم $b_1$ و $b_2$ را به همان روش تخمین بزنم، دوباره با شرایط لحظه شروع می کنم، به عنوان مثال با: $cov(x_1,y) = b_1*var(x_1) + b_2*cov(x_1، x_2)$b_2$ = \frac{cov(x_1,y) - b_2*cov(x_1,x_2)}{var(x_1)}$ برای b_1$ من دریافت خواهم کرد: $b_1 = \frac{cov(x_2,y) - b_1*cov(x_1,x_2)}{var( x_2)}$ حالا می‌توانم $b_1$ را به معادله $b_2$ وصل کنم و $b_2$ را به همان روشی که قبلاً $b$ محاسبه کردیم محاسبه کنم. با جایگزینی تمام شرایط با شرایط نمونه. سردرگمی من در حال حاضر به دلیل محاسباتی است که R با تابع 'lm' انجام می دهد که نتایج متفاوتی را به همراه دارد. مسلماً یک اشتباه وجود دارد زیرا نتایج مثال اول (محاسبه $b$) و نتایج تابع 'lm' مطابقت دارند. فقط به دلایل توضیحی من این کد R را ایجاد کردم که برای درک آنچه می خواهم در اینجا به آن برسم ضروری نیست. n <- 100 مجموعه. دانه (100) x1 <- rnorm(n,0,1) x2 <- rnorm(n,0,1) y <- 1 + 2*x1 + 3*x2 + rnorm(n,0 ,1) mod <- lm(y~x1+x2) cov_y_x1 <- cov(y,x1) cov_y_x2 <- cov(y,x2) cov_x1_x2 <- cov(x1,x2) var_x1 <- var(x1) var_x2 <- var(x2) coef(mod)[2] #(1) (cov_y_x1/var_x1 - (cov_y_x2*cov_x1_x2) /(var_x2*var_x1) ) / ( 1 - ((cov_x1_x2^2)/(var_x2*var_x1)) ) #(2) cov_y_x1/var_x1 #(3) در اینجا من قبلا معادله $b_1$ را به $b_2$ one متصل کردم.
سردرگمی در مورد استفاده از شرط گشتاور در یک مدل رگرسیون چندگانه
6020
من یک برنامه نویس با پیشینه آماری کمی هستم و سعی می کنم چیزی شبیه به آنچه اخیراً فیس بوک انجام داد (با سایر داده ها) ایجاد کنم: http://www.facebook.com/notes/facebook-data-team/whats- on-your- mind/477517358858 یعنی بتوانیم بین یک متغیر (سن) و دسته ای از متغیرها یا دسته های دیگر (نوع کلمات) همبستگی پیدا کنیم. برای نمودار اول، سن در مقابل نوع کلمه، حدس می‌زنم که آنها با داده‌هایی شروع کردند که به این صورت بود: (سرصفحه) به‌روزرسانی وضعیت، سن، درصد Word Cat1، درصد Word Cat2، درصد Word Cat3 و غیره و 1 میلیون از چنین ردیف هایی از آنجایی که من متوجه شدم، همبستگی به شما امکان می دهد یک متغیر را با متغیر دیگری مقایسه کنید، بنابراین چگونه می توانم یک متغیر (سن) را با تعدادی متغیر دیگر مقایسه کنم؟
انجام همبستگی روی یک متغیر در مقابل بسیاری از متغیرها
16107
آیا توضیح ساده (یا ساده شده) برای نحوه عملکرد شبیه سازی تصادفی وجود دارد؟ چگونه آن روش‌ها می‌توانند اطلاعاتی در مورد فرآیندهای زیربنایی ارائه دهند که دستیابی به آنها با مدل‌های غیر تصادفی تقریباً غیرممکن است؟ چگونه مدل تصادفی (تصادفی) می تواند با ویژگی ناشناخته سیستم ارتباط برقرار کند؟ به عنوان مثال، در ارزیابی توزیع مواد معدنی در یک منطقه (دو بعدی یا سه بعدی) همیشه توصیه می شود که از شبیه سازی ها (مخصوصا شبیه سازی های شرطی) به جای تخمین ها (مانند کریجینگ، idw و غیره) استفاده شود، زیرا نقشه های حاصل بر اساس شبیه سازی ها می توانند حفظ شوند. تغییرات محلی که در آن تقریباً در تمام روش های برآورد اثر هموارسازی وجود دارد. اکنون سؤالات بالا تا حدودی مفهوم فیزیکی دارند.
شبیه سازی های تصادفی چگونه کار می کنند؟
73423
چگونه می توانم تفاوت بین دو گروه را در سه متغیر وابسته آزمایش کنم؟ آیا این یک ANOVA یا چند آزمون t با سطح آلفای تنظیم شده است؟
دو گروه مستقل و سه متغیر وابسته
104707
من سعی می کنم بفهمم که چگونه هنگام اجرای یک طبقه بندی با استفاده از glmnet به احتمالات کلاسی مبتلا می شوم. من مدل را ساخته ام و پیش بینی هایی انجام داده ام. اما تنها چیزی که دارم یک ماتریس بزرگ است که واقعاً نمی دانم با آن چه کنم. صفحه 14 http://www.jstatsoft.org/v28/i05/paper در مورد چیزی مشابه صحبت می کند، اما توابع «extractProb» مقادیر «Y» من را می خواهند. برای انجام آنچه می خواهم به آن نیاز ندارد و دلیلی وجود ندارد که فرض کنیم آنها را دارم. منظورم این است که من می خواهم پیش بینی کنم! بنابراین، من احساس می کنم که آن چیزی نیست که می خواهم انجام دهم. اگر بدون دادن مقدار «Y» تلاش کنم، دریافت می‌کنم: extractProb(netFit$finalModel, postTestSet[,-ncol(posTestSet)]) خطا در x$method: عملگر $ برای بردارهای اتمی نامعتبر است چگونه باید کار کند؟
نحوه دریافت احتمالات طبقه بندی هنگام اجرای glmnet
32614
هنگام استفاده از یک طبقه‌بندی ساده بیز برای طبقه‌بندی اسناد، طبقه‌بندی‌کننده (حداقل در برنامه‌هایی که من دیده‌ام) همیشه فقط روی کلمات موجود در سند تکرار می‌شود. یعنی هنگام محاسبه (مثلاً) $P(SPAM|d) \propto P(d|SPAM) * P(SPAM) = [P(w_1 | SPAM) \cdots P(w_n | SPAM)] P(SPAM)$ $w_i$ فقط شامل کلماتی است که واقعاً در سند $d$ وجود دارد. بنابراین $P(w_1|SPAM)$ همیشه $P(w_1 \text{ present}|SPAM)$ است و هرگز $P(w_1 \text{ موجود نیست} | SPAM).$ چرا اینطور است؟ من نمی توانم هیچ دلیل پیشینی فکر کنم که چرا گنجاندن ویژگی های از دست رفته به عملکرد طبقه بندی کننده آسیب می رساند.
از جمله کلمات از دست رفته هنگام استفاده از Naive Bayes در طبقه بندی اسناد