_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
16958
در یک تکلیف روان‌زبانی، شرکت‌کنندگان به محرک‌ها گوش دادند و مشاهده کردند، و از آنها خواسته شد که درباره آنها قضاوت قابل قبولی داشته باشند: * 4 شرط * 4 گروه * مقیاس رتبه‌بندی از 1 تا 5 به من توصیه شده است از نمرات z و تبدیل log (برای R) استفاده کنم. در مورد امتیازات رتبه‌بندی: ### سوالات: * آیا رتبه‌بندی‌ها باید قبل از تبدیل log به نمرات Z محاسبه شوند؟ * آیا محاسبات (خواه z یا ابتدا log) باید توسط گروه انجام شود یا برای کل مجموعه داده؟ * آیا محاسبات (خواه ابتدا z یا log) باید بر اساس شرط انجام شود یا برای کل مجموعه داده؟
چگونه می توان ایجاد امتیاز z و تبدیل گزارش را در آزمایشی با گروه ها و شرایط متعدد ترتیب داد؟
18389
من طراحی ساختار تودرتو با مدل زیر دارم: Yijklt = m + ai + bij + rijk + sikl + (bs)ijkl + eijkl که i = 1, 2, ............... ....، اس; تعداد مجموعه ها j = 1، 2، ........................، r; تعداد تکرار k = 1، 2، .........................، m; مذکر l = 1،2،............................، f; ماده t = 1، 2، ................، n; نتاج که در آن m میانگین کلی است ai اثر یکمین مجموعه است. bij اثر تکرار j ام در مجموعه یکم است. ith مجموعه (bs)ijkl عبارت تعامل است. فرمول مدل غیر مخلوط در R به شرح زیر است: مدل <- lm(y ~ مجموعه + تکرار %in% مجموعه + مرد %in% مجموعه + ماده %در% مرد %در% مجموعه + تکرار %در% ماده %در% مرد %در% مجموعه) مدل <- lm(y ~ مجموعه + تکرار: مجموعه + مرد: مجموعه + ماده :male:set + replication: women:male:set) مدل متناظر آن در مدل مختلط با استفاده از بسته lme4 یا nlme در R چیست؟ من می خواهم آن را درست انجام دهم. لطفاً توجه داشته باشید که همه عبارت‌ها در مدل ترکیبی جدید تصادفی هستند، من فقط می‌خواهم مولفه‌های واریانس مرتبط را تخمین بزنم. ویرایش ها: نمونه ای را بر اساس پاسخ های زیر توسط @Aaron library(lme4) set.seed(5) d <- expand.grid(set=factor(1:3), male=factor(1:3),female= کار کنید فاکتور(1:3)، نتاج = فاکتور(1:3)، تکرار=فاکتور(1:4)) d$y <- rnorm(nrow(d))
مشخصات مدل ترکیبی در R
101457
من با یک مدل جنگل تصادفی کار می کنم و می خواهم بهتر بفهمم که متغیرها چگونه بر خروجی جنگل تأثیر می گذارند. استفاده از نمودارهای جزئی مفید است، اما این اساساً یک رفتار خطی از مدل است، زیرا فرض می‌کند هیچ تعاملی بین متغیرها وجود ندارد. آیا روش های شناخته شده ای برای ارزیابی غیرخطی بودن مدل جنگل تصادفی یا برای تجزیه و تحلیل چگونگی تعامل متغیرها با یکدیگر در مدل وجود دارد؟
تجزیه و تحلیل رفتار یک مدل غیر خطی
13454
به طور خاص، چگونه باید خطاهای استاندارد اثرات ثابت در یک مدل اثرات مختلط خطی محاسبه شود (به معنای مکرر)؟ من به این باور رسیده‌ام که تخمین‌های معمولی (${\rm Var}(\hat\beta)=(X'VX)^{-1}$)، مانند آن‌هایی که در Laird and Ware [1982] ارائه شده‌اند. SE هایی که از نظر اندازه دست کم گرفته می شوند زیرا مولفه های واریانس تخمینی به گونه ای رفتار می شوند که گویی مقادیر واقعی هستند. متوجه شده ام که SE تولید شده توسط توابع «lme» و «خلاصه» در بسته «nlme» برای R به سادگی با جذر قطرهای ماتریس واریانس-کوواریانس داده شده در بالا برابر نیست. چگونه محاسبه می شوند؟ همچنین این تصور را دارم که بیزی ها از پیشین های گامای معکوس برای تخمین مولفه های واریانس استفاده می کنند. آیا اینها نتایجی مشابه «lme» دارند (در تنظیمات مناسب)؟
خطاهای استاندارد برای برآورد مدل اثرات مختلط چگونه باید محاسبه شود؟
7994
این مسئله 12.10 در عناصر یادگیری آماری است: > فرض کنید می خواهید یک تحلیل تفکیک خطی (دو کلاس) انجام دهید > با استفاده از بردار تبدیل متغیرهای ورودی $h(x)$. از آنجایی که > $h(x)$ ابعاد بالایی دارد، شما از یک ماتریس کوواریانس منظم شده درون کلاسی > $W_h + \گاما I$ استفاده خواهید کرد. نشان دهید که مدل را می توان تخمین زد > فقط با استفاده از محصولات داخلی $K(x_i, x_{i'}) = \left < h(x_i), h(x_{i'}) > \right >$. چگونه می توانم نشان دهم که تجزیه و تحلیل متمایز خطی منظم را می توان تنها با استفاده از محصولات داخلی تخمین زد، همانطور که در ترفند هسته که اغلب با SVM استفاده می شود؟
تجزیه و تحلیل تشخیص خطی و ترفند هسته؟
78008
من در حال حاضر روی یک مدل رهگیری تصادفی چندسطحی با استفاده از مجموعه داده دور 6 بررسی اجتماعی اروپا کار می کنم. این یک مدل 2 سطحی با افراد (سطح 1) تو در تو در داخل کشورها (سطح 2) است. برای ساده کردن کارها، رگرسیون زیر را تصور کنید: $Y_{ij}=\beta_{0j}+\beta_{1j}X_{ij}+e_{ij}$ که در آن متغیر وابسته **اعتماد به پارلمان اروپا** است. در مقیاس 0-10، و پیش بینی سطح 1 **جنسیت ** است. در مجموعه داده‌ها، دو وزن وجود دارد: * _Design weight_: وزن‌های طراحی احتمالات برای افراد $i$ در کشورهای $j$ هستند. وزن طرح برای احتمالات کمی متفاوت انتخاب تصحیح می شود، در نتیجه نمونه را نماینده یک نمونه واقعی از افراد از هر کشور می کند. * _وزن اندازه جمعیت_: وزن اندازه جمعیت تنظیمی را انجام می دهد تا اطمینان حاصل شود که هر کشور متناسب با اندازه جمعیت آن نمایش داده می شود. وزن اندازه جمعیت به صورت PWEIGHT= [اندازه جمعیت]/[(اندازه خالص نمونه در فایل داده)*10 000 محاسبه می‌شود. من تمایل به گرفتن نتایج متفاوت دارم. در زیر رگرسیون با وزن های طراحی اعمال شده است (من از Stata استفاده می کنم): . xtmixed trstep gndr [pw = dweight]|| land:, mle var بدست آوردن مقادیر شروع توسط EM: انجام بهینه‌سازی مبتنی بر گرادیان: تکرار 0: شبه احتمال ورود به سیستم = -92442،22 تکرار 1: شبه احتمال ورود به سیستم = -92442،22 (پشتیبان‌گیری شده) خطاهای استاندارد محاسبه: اثر اعداد مختلط of obs = 39923 متغیر گروه: land تعداد گروه ها = 24 Obs در هر گروه: حداقل = 579 میانگین = 1663,5 حداکثر = 2711 Wald chi2(1) = 5,91 Log pseudolikelihood = -92442,22 Prob > chi2 = 0,0151 (Std. Err. تعدیل شده برای 24 خوشه در خشکی) ------------------------------------------------ ---------------------------- | trstep مقاوم | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ gndr | ,1147821 ,0472334 2,43 0,015 ,0222063 ,2073578 _cons | 4,144926 ,117911 35,15 0,000 3,913825 4,376027 ------------------------------------------------ ---------------------------- ------------------------------------------------ ---------------------------- | پارامترهای اثرات تصادفی قوی | برآورد Std. اشتباه [95% Conf. فاصله] ----------------------------------------------- ------------------------------ زمین: هویت | var(_cons) | ,3184852 ,0689119 ,2084065 ,4867066 ------------------------------------------ ------------------------------------ var(Residual) | 5,93535 ,2514202 5,462477 6,449158 -------------------------------------- --------------------------------------- و اینجاست رگرسیون با هر دو وزن طراحی، وزن اندازه جمعیت و مقیاس بندی اعمال شده: . xtmixed trstep gndr [pw = dweight]|| land:, mle var pweight(pweight) pwscale(size) بدست آوردن مقادیر شروع توسط EM: انجام بهینه سازی مبتنی بر گرادیان: تکرار 0: شبه احتمال ورود به سیستم = -81334,099 تکرار 1: شبه log شبه احتمال = -81333:24 تکرار شبه ثبت نام = -81333،24 خطاهای استاندارد محاسباتی: رگرسیون اثرات مختلط تعداد obs = 39923 متغیر گروه: زمین تعداد گروه ها = 24 Obs در هر گروه: حداقل = 579 میانگین = 1663,5 max = 2711 Wald chi2(1) = 10,73 Log شبه احتمال = - 81333,24 Prob > chi2 = 0,0011 (Std. Err. تنظیم شده برای 24 خوشه در زمین) ----------------------------------- ------------------------------------------- | trstep مقاوم | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ gndr | ,1680609 ,0513105 3,28 0,
وزنه های چندگانه در مدل های چند سطحی
1805
به من یاد داده شد که تست دقیق فیشر را فقط در جداول احتمالی که 2x2 بودند اعمال کنم. سؤالات: 1. آیا خود فیشر تا به حال تصور می کرد که این آزمایش در جداول بزرگتر از 2×2 مورد استفاده قرار گیرد (من از داستان او در حال ابداع آزمایش در حالی که تلاش می کرد حدس بزند که آیا یک پیرزن می تواند تشخیص دهد که شیر به چای اضافه شده است یا چای مطلع هستم. اضافه شده به شیر) 2. Stata به من اجازه می دهد تا از آزمایش دقیق فیشر برای هر جدول احتمالی استفاده کنم. آیا این معتبر است؟ 3. آیا استفاده از FET زمانی که تعداد سلول های مورد انتظار در جدول احتمالی کمتر از 5 است، ترجیح داده می شود؟
تست دقیق فیشر در جداول احتمالی بزرگتر از 2x2
62928
من 400 قسمت از مراقبت های پرستاری را در یک بیمارستان مشاهده کردم. من حرکت پرستاران را بین 5 اتاق $A,B,C,D$ و $E$ دنبال کردم. حداکثر احتمال احتمال حرکت از اتاق $i\rightarrow j$ توسط: \begin{equation} P_{ij}=\displaystyle \dfrac{\text{# بار از اتاق $i\rightarrow j$ به دست می‌آید. }}{\displaystyle \text{# مجموع انتقال به هر اتاق}}\end{equation} * آیا راهی برای تعریف فاصله اطمینان در این حداکثر وجود دارد برآورد احتمال $P_{ij}$؟ * و برای همه برآوردهای حداکثر احتمال همه ترکیبات اتاق ممکن ($n=25$ ترکیب)؟ این من را گیج می کند زیرا $P_{ij}$ که در آن $i=A..E$ و $j=A..E$ به یکدیگر وابسته هستند. چگونه می توانم این را حساب کنم؟ **مرجع**: من به این مرجع برخورد کردم: http://arxiv.org/pdf/0905.4131v1.pdf این نشان می دهد که برای n مشاهده $X_i$، تخمین تجربی حداکثر درستنمایی $\hat P_{ij}$ منهای احتمال واقعی $P_{ij}$ تمایل به توزیع نرمال با میانگین 0 و انحراف استاندارد $\epsilon$ دارد. $$\sqrt{n}|\hat{P_{ij}}-P_{ij}|\sim N(0,\epsilon)\quad \text{as}\quad n\rightarrow \infty$$ چگونه می توانم $\epsilon$ را محاسبه کنید؟
چگونه می توان فواصل اطمینان همزمان را برای فرکانس های همبسته به دست آورد؟
81973
چگونه می توانم تصمیم بگیرم که کدام روش اعتبارسنجی متقاطع برای مشکل و نوع داده من مناسب است؟ به عنوان مثال، انتخاب از بین ترک یک خارج، یا K-fold (و کدام K مناسب است؟). بیشتر جستجوهای من به انتخاب مدل به جای انتخاب روش اعتبار سنجی متقابل ختم می شود.
چگونه روش اعتبارسنجی متقابل را ارزیابی/انتخاب کنیم؟
17522
من مجموعه ای از داده های زیر را دارم: زمان شمارش کل شمارش % کامل 1 2 2 2/10 2 0 2 2/10 3 4 6 6/10 4 3 9 9/10 5 1 10 10/10 به عبارت دیگر، بعد از 1 دقیقه گذشت، 2 شمارش وجود داشت. بعد از 2 دقیقه، 0 شمارش وجود داشت، و غیره. من به راحتی می توانم این نمودار را در اکسل یا R ترسیم کنم. اما در یافتن این مشکل مشکل دارم که چگونه می توانم به راحتی نقطه ای را که در آن تعداد X٪ کامل می شود بدون خلاصه کردن پیدا کنم. کل پس از هر سطر اضافی و تقسیم بر تعداد کل در ستون چهارم محاسبه می شود. آیا راهی برای دریافت سریع ردیفی که در آن داده ها X% کامل است در اکسل یا R وجود دارد؟
یافتن صدک x در نمودار
112118
آیا کسی می تواند من را در مورد هر گونه مقاله نظرسنجی خوب و اجرای مقالات اخیراً منتشر شده در مورد تشخیص جامعه در شبکه اجتماعی تلفن همراه راهنمایی کند. من حاضرم هر الگوریتم موجود را پیاده سازی کنم و سپس الگوریتم خودم را تحقیق و توسعه کنم. من از شبیه ساز ONE برای شناسایی جامعه بر اساس ردیابی داده های واقعی از محوطه دانشگاه استفاده می کنم.
تشخیص جامعه در شبکه اجتماعی موبایل
62409
وقتی $X$ X_1$،...$X_n$ باشد، چگونه توزیع دوجمله ای منفی زیر را به صورت خانواده نمایی بیان می کنید؟ $$ f(k;r,p)\equiv\text{Pr}(X=k)=\binom{k+r-1}{k}(1-p)^{r}p^k~~~ ~~\text{for}~k=0,1,2,\ldots $$
چگونه باید توزیع دوجمله ای منفی را در یک خانواده نمایی بیان کنید؟
38501
فرض کنید به من میانگین و یک چندک (مثلاً 20 درصد) متغیر تصادفی $x$ داده شده است، و من می‌خواهم پارامترهای $\alpha$ و $\beta$ یک توزیع بتا را پیدا کنم که میانگین یکسانی دارد. و کمیت. آیا روش کارآمدی برای انجام آن وجود دارد؟ فقط با استفاده از میانگین، می دانم که از $\bar{x} = \frac{\alpha}{\alpha+\beta}$، ما $\beta = \frac{\alpha}{\bar{x}} داریم - \ آلفا $. بنابراین ما واقعاً فقط یک پارامتر برای تخمین داریم. اما من مطمئن نیستم که چگونه از اطلاعات کمیت برای برداشتن گام بعدی استفاده کنم. شاید وقتی نسبت $\frac{\beta}{\alpha} = \frac{1-\bar{x}}{\bar{x}}$ را بدانم، بتوانم با بتای ناقص کاری انجام دهم؟ من خودم به «R» دسترسی دارم، بنابراین می‌توانم از یک بهینه‌ساز عددی برای این کار استفاده کنم، اما در حالت ایده‌آل به روشی نیاز دارم که بتوان در اکسل در محیط شخص دیگری اجرا کرد. اکسل دارای توابع «BETA.DIST()» و «BETA.INV()» است. یک جدول جستجو خوب است، اما یک فرمول بسته در صورت امکان بهتر است.
توزیع بتا از میانگین و کمیت
62402
من یک مدل با یک متغیر وابسته طبقه بندی و متغیرهای مستقل دارم که حاوی یک متغیر متناسب نیز هستند. به نظر می‌رسد که چندجمله‌ای یک تناسب ایده‌آل است، اما در مورد چگونگی مدل‌سازی متغیر x حاوی داده‌های متناسب در mlogit مطمئن نیستم. آیا نوع رگرسیون دیگری وجود دارد که در این مورد قابل اجرا باشد؟ پیشاپیش ممنون
رگرسیون برای y مقوله ای و xs متناسب و گسسته
101451
من داده هایی مانند این دارم: pce pop psavert uempmed unemploy 507.8 198712 9.8 4.5 2944 510.9 198911 9.8 4.7 2945 516.7 199113 9.8 4.6 23913 4.9 3143 518.5 199498 9.8 4.7 3066 من سعی می کنم از SVM - رگرسیون برای برازش داده ها مانند این svmRbftune <- train(unemploy ~ pce + pop + psavert + uempmed, data = EconomicsTrain, روش = 4 استفاده کنم - رگرسیون. trControl = trainControl(method = cv)) svmRbfPredict <- predict(svmRbftune, EconomicsTest) چگونه می توانم دو تا سه مرحله جلوتر را پیش بینی کنم؟
پیش‌بینی سری‌های زمانی چند متغیره با استفاده از رگرسیون بردار پشتیبان در R
78005
برای برآورد m قوی، تمام نتایج همگرایی که من از آنها آگاه هستم، وزن‌های متقارن (مثلاً: تابع هوبر) را در فرمول‌بندی الگوریتم حداقل مربعات وزن‌دار تکراری فرض می‌کنند. آیا این روش برای وزن های نامتقارن اعمال می شود و آیا نتایج همگرایی مربوطه برقرار است؟ با تشکر
حداقل مربعات با وزن مجدد تکراری: وزن های نامتقارن
7996
من در حال ارزیابی وابستگی پارامتر خروجی یک سناریو به سه پارامتر هستم: A، B و C. برای این، آزمایش‌های زیر را انجام می‌دهم: * ثابت کردن A+B، تغییر C - در مجموع چهار مجموعه (A+B) که هر کدام دارای 4 تغییر هستند. از C * ثابت B+C، متغیر A - در مجموع چهار مجموعه (B+C) هر کدام دارای 3 تغییر C * ثابت C+A، متغیر B - مجموعا چهار مجموعه ای از (C+A) که هر کدام دارای 6 تغییر C هستند. خروجی هر شبیه سازی مقدار یک متغیر در طول زمان است. به عنوان مثال، A می تواند مساحت، B می تواند سرعت و C می تواند تعداد وسایل نقلیه باشد. متغیر خروجی که من مشاهده می کنم تعداد تصادفات اتومبیل در طول زمان است. من سعی می کنم تعیین کنم که کدام پارامتر بر نتیجه آزمایش غالب است. منظور من از تسلط این است که گاهی اوقات، با تغییر یکی از پارامترها، نتایج تغییر نمی کند، اما زمانی که برخی از پارامترهای دیگر حتی به مقدار کمی تغییر می کنند، یک تغییر بزرگ در خروجی مشاهده می شود. من باید این اثر را بگیرم و تجزیه و تحلیلی به دست بیاورم تا بتوانم وابستگی خروجی به پارامترهای ورودی را بفهمم. یکی از دوستان تجزیه و تحلیل حساسیت را پیشنهاد کرد اما مطمئن نیستم که آیا راه های ساده تری برای انجام آن وجود دارد یا خیر. آیا کسی می تواند به من در مورد یک تکنیک خوب (احتمالاً آسان زیرا من سابقه آماری ندارم) کمک کند؟ بسیار عالی است اگر بتوان همه اینها را در R انجام داد. **به روز رسانی:** من از رگرسیون خطی برای به دست آوردن موارد زیر استفاده کردم: lm(فرمول = T ~ A + S + V) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.35928 - 0.06842 -0.00698 0.05591 0.42844 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.01606 0.16437 -0.098 0.923391 A 0.80199 0.15792 5.078 0.000112 *** S -0.27440 0.27440 0.131 -0.27440 0.131 V -0.31898 0.14889 -2.142 0.047892 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1665 در 16 درجه آزادی چندگانه R-squared: 0.6563، R-squared تنظیم شده: 0.59 آمار: 10.18 در 3 و 16 DF، p-value: 0.0005416 آیا این بدان معناست که خروجی بیشتر به A و کمتر به V بستگی دارد؟
روش خوبی برای تخمین وابستگی یک متغیر خروجی به پارامترهای ورودی چیست؟
7990
فرض کنید فرآیند تصادفی زیر را داریم. با دو بردار $a_1=(0)$ و $b_1=(0)$ شروع می کنیم. در رفتن از $i$ به $i+1$، یک اغتشاش به $a_i$ و $b_i$ خواهیم داد. با احتمال $p$، Case 1 را انجام می دهیم، در غیر این صورت مورد 2 را انجام می دهیم. * مورد 1: عنصری از $a_i$ را انتخاب می کنیم، مثلاً در مختصات $x$ (به طور یکنواخت به طور تصادفی از بین همه مختصات $1,2،\ldots انتخاب می شود، |a_i|$، که در آن $|a_i|$ طول $a_i$ است)، و آن را به انتهای $a_i$ اضافه کنید تا شکل بگیرد. $a_{i+1}$. به طور مشابه، برای تشکیل $b_{i+1}$، عنصر را در مختصات $x$ از $b_i$ به انتهای $b_i$ اضافه کنید. باقیمانده $a_{i+1}$ و $b_{i+1}$ به ترتیب با $a_i$ و $b_i$ یکسان است. [عنصر کپی شده در مختصات $x$ در $a_i$ و $b_i$ است.] * مورد 2: $x$ و $y$ را انتخاب کنید تا دو مختصات به صورت تصادفی از $1,2,\ldots,| a_i|$. اگر $x \neq y$، سپس $a_{i+1}[x]=a_i[x]+1$ و $b_{i+1}[y]=b_i[y]+1$ را تنظیم کنید (اگر $x =y$ پس کاری انجام نده [در حال حاضر مشخص نیست که آیا می‌خواهم $x \neq y$] را اعمال کنم یا نه). باز هم، باقیمانده $a_{i+1}$ و $b_{i+1}$ به ترتیب با $a_i$ و $b_i$ یکسان است. > **سوال**: حاصل ضرب نقطه مورد انتظار $a_i$ و $b_i$ چیست؟ یعنی > $\mathrm{E}(\sum_x a_i[x] \cdot b_i[x])$ چیست؟ بنابراین در اینجا مثالی از اینکه این بردارها می توانند شبیه به نظر شوند آورده شده است: i a_i b_i 1 (0) (0) 2 (0,0) (0,0) [مورد 1 x=1] 3 (0,0,0) (0) ,0,0) [مورد 1 x=1] 4 (1,0,0) (0,1,0) [مورد 2 x=1 y=2] 5 (1,0,0,1) (0،1،0،0) [مورد 1 x=1] 6 (1،0،0،1) (0،1،0،0) [مورد 2 x=4 y=4] 7 (1،0 ,0,2) (0,1,1,0) [مورد 2 x=4 y=3] من در حال بررسی یک مسئله مرتبط با مطالعه نمودارهای تصادفی در حال تکامل هستم. در مسئله نمودار تصادفی، دو بردار درجات درون و برون درجات یک شبکه در حال تکامل را در طول زمان نشان می‌دهند. در نمودار، می توانیم رئوس را کپی کنیم یا یک یال را اضافه یا حذف کنیم (که مربوط به موارد 1 و 2 بالا است). در این حالت، حاصل ضرب نقطه‌ای تعداد مسیرهای هدایت‌شده به طول 3 را می‌شمارد. با این حال، مشکل فوق با مشکلی که من در نظر می‌گیرم متفاوت است زیرا (الف) لزوماً اینطور نیست که $\sum_x a_i[x]=\ sum_x b_i[x]$ و (b) هیچ چیزی برای جلوگیری از ایجاد یال های موازی در اینجا وجود ندارد. اگرچه، امیدوارم این سوال ساده شده پاسخگوتر باشد و بتوان از تکنیک ها دوباره استفاده کرد.
حاصل ضرب نقطه مورد انتظار دو بردار در حال تکامل چیست؟
48434
چرنده طولانی مدت، پوستر اولین بار. من امیدوارم که نظر مردم را در مورد موارد زیر جمع آوری کنم: روش های مجموعه مبتنی بر درخت مانند جنگل تصادفی و مشتقات بعدی (به عنوان مثال، جنگل شرطی)، همه به نظر می رسد در مسائل به اصطلاح small _n_، _p______ مفید باشند. برای شناسایی اهمیت متغیر نسبی در واقع، به نظر می رسد که چنین است، اما سوال من این است که تا کجا می توان این توانایی را پیش برد؟ آیا می توان مثلاً 30 مشاهده و 100 متغیر داشته باشد؟ نقطه شکست چنین رویکردی چیست، و آیا قوانین صحیح و مناسبی وجود دارد؟ ترجیحاً آنهایی که با شواهد و با استفاده از مجموعه داده های شبیه سازی شده یا واقعی پشتیبانی می شوند؟ من چیز زیادی در مورد دومی (اینجا و اینجا) پیدا نکردم، بنابراین از نظرات/توصیه/(درباره موضوع) پیشنهادات مرجع شما بسیار استقبال می شود! به سلامتی
محدودیت‌هایی برای روش‌های مجموعه‌ای مبتنی بر درخت در مسائل n کوچک، p بزرگ؟
20653
در R، c(3،1،0) * c(2،0،1) == c(6،0،0). این محصول نقطه‌ای نیست و محصول متقاطع نیست. اول اینکه اسم این محصول چیست و دوم اینکه آیا در WinBUGS، OpenBUGS و/یا JAGS کار می کند؟
ضرب برداری در BUGS و JAGS
25435
فرض کنید من لیستی از کاربرانی دارم که کشوری که در آن زندگی می کنند را با تایپ کردن چیزی مشخص کرده اند. من می‌خواهم تعداد کل کاربرانی را که از ایالات متحده، بریتانیا و هر جای دیگری آمده‌اند پیدا کنم. اما، از آنجایی که کاربران به صورت دستی در کشور خود تایپ می کنند، داده های من به این صورت است: USER COUNTRY 1 USA 2 United States 3 US 4 UK 5 England ... آیا مجموعه داده های عمومی یا الگوریتم های خوبی برای حل این نوع مشکل وجود دارد؟
چگونه می توان نام کشورها را با املا یا مخفف های جایگزین ممکن طبقه بندی کرد؟
80007
ابتدا یک سوال نظری من می‌دانم که به طور بومی، یک الگوریتم خوشه‌بندی سلسله مراتبی روی مکعب تعداد نمونه‌های N پیچیدگی دارد. این به این دلیل است که در هر تکرار، برای یافتن کوچک‌ترین مقدار، باید کل ماتریس فاصله را طی کرد. اما می توان آن را با پیچیدگی کمتر (N sqr) پیاده سازی کرد. چگونه انجام می شود و آیا می توانید به من یک مقاله یا توضیحاتی در مورد اجرا معرفی کنید؟ در نهایت، من از کتابخانه scikit برای انجام HClustering استفاده کردم. خوب بود اما به 15000 نمونه یا بیشتر محدود شده است. من می خواهم خیلی بیشتر خوشه بندی کنم. آیا کسی می تواند من را به پیاده سازی معرفی کند که با اعداد بزرگتر مطابقت داشته باشد (و ترجیحاً در sqr N اجرا شود)؟
نحوه پیاده سازی خوشه بندی سلسله مراتبی در $O(N^2)$ به جای $O(N^3)$
13184
امیدوارم این خیلی ذهنی نباشد... من به دنبال مسیری در تلاش برای تشخیص قطعات مختلف یک آهنگ، صرف نظر از سبک موسیقی هستم. نمی‌دانم کجا را ببینم، اما با اعتماد به قدرت سایر سایت‌های StackOverflow، فکر کردم که کسی در اینجا می‌تواند به نشان دادن جهت کمک کند. در بیشتر اصطلاحات اولیه، می توان بخش های مختلف یک آهنگ را تنها با گروه بندی الگوهای تکراری متوالی و نامیدن آن ها بخش تشخیص داد. شاید این کار چندان سخت نباشد -- کامپیوترها در تشخیص تکرار در سیگنال بسیار خوب هستند، حتی زمانی که تغییرات کوچکی وجود دارد. اما زمانی که قسمت ها با هم همپوشانی داشته باشند، سخت است، همانطور که در اکثر موسیقی ها انجام می شود. سخت است بگوییم چه نوع موسیقی برای این نوع سیستم مناسب تر است. من حدس می‌زنم که پردازش بیشتر موسیقی‌های سمفونیک سبک کلاسیک آسان‌تر باشد. > آیا ایده ای در مورد اینکه کجا برای تحقیق در این زمینه جستجو کنیم؟
تشخیص بخش هایی از یک آهنگ
80009
در حالی که می‌دانم چرا «متوسط» در شرایط خاص می‌تواند معیار بهتری نسبت به «میانگین» باشد (به عنوان مثال، شما در حال ایجاد/بازاریابی یک محصول هستید، می‌خواهید از «میانگین» استفاده کنید زیرا بزرگ‌ترین گروه سنی شما را نشان می‌دهد. جمعیت و در نتیجه خریداران بالقوه واقعی، در حالی که سن «میانگین» ممکن است عددی باشد که با هیچ کس مطابقت ندارد، یا تعداد بسیار کمی از افراد_) من نمی‌دانم که آیا «میانگین» معیار خوبی است در مورد اندازه گیری عملکرد وب سایت بیایید به داده‌های زیر که «زمان بارگذاری صفحه» را نشان می‌دهند نگاه کنیم (در ثانیه، هر چه کوچک‌تر، بهتر): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fOZKX.png) «نمونه 1» و «نمونه 2» یکسان هستند، به جز «C4»، به این معنی که وب سایت فقط برای 1 نفر سریعتر است. با این حال، میانگین به طور قابل توجهی بین 2 نمونه تغییر می کند (نزدیک به 40٪ بهبود) در حالی که میانگین بسیار پایدارتر است (کمتر از 10٪ اختلاف). بر این اساس برداشت من از این موضوع این است که «میانگین» دقیق‌تر است و زمان بارگذاری صفحه را نشان می‌دهد. ** موافقید؟ / آیا مشاهده من به دلیل نمونه‌های خاصی که انتخاب کرده‌ام مغرضانه است یا بدون توجه به نمونه‌ها، نماینده‌تر از «میانگین» است؟**
متوسط ​​بهتر از میانگین برای گزارش سرعت وب سایت است
80004
من سعی می کنم عدم قطعیت در تحلیل خوشه سلسله مراتبی را ارزیابی کنم. این مجموعه داده ای است که از 409 مشاهدات و 27 متغیر تشکیل شده است (با مقداری از 0 تا 100). مجموعه داده نشان دهنده نمرات ایمونوهیستوشیمی در سرطان های دستگاه گوارش است. خوشه‌بندی معنی‌داری از مشاهدات و نشانگرها با فاصله بدون مرکز پیرسون و پیوند متوسط ​​مشاهده می‌شود. hc <- hclust(Dist(t(imputedMatrix), method=pearson), method=average) hr <- hclust(Dist(imputedMatrix, method=pearson), method=average) heatmap.2 (imputedMatrix، Rowv=as.dendrogram(hr)، Colv=as.dendrogram(hc)، col=greenred(100)، scale=none, ColSideColors=patientcolors, density.info=none, trace=none) pv2 <- pvclust(imputedMatrix, method.dist=uncentered, method.hclust=average, nboot=10000 ) plot(pv2، hang=-1) pvrect(pv2، alpha=0.95) clsig <- unlist(pvpick(pv2, alpha=0.90, pv=au, type=geq, max.only=TRUE)$cluster) dend_colored <- dendrapply(as.dendrogram(pv2$hclust), dendroCol, keys=clsig , xPar=edgePar, bgr=black, fgr=red, pch=20) heatmap.2(imputedMatrix, Rowv=as.dendrogram(hr), Colv=dend_colored, col=greenred(1 با این حال، هنگام استفاده از pvclust برای ارزیابی عدم قطعیت آنها، بسیاری از زیرخوشه های کوچک سطح پایین به عنوان مهم برجسته می شوند، اما نه سطح بالاتر یک گروه از تومورها (در سمت راست در نمودارها) در واقع یک گروه کنترل هستند که باید به وضوح در بالاترین سطح متمایز شوند. از بقیه pvclust حتی در آنجا نیز همان نوع الگو را نشان می دهد. در واقع خوشه های مورد علاقه عبارتند از سرخابی، سبز و قرمز در نوار رنگ. آیا این نتایج pvclust وجود آنها را پشتیبانی می کند (در مقابل یک مصنوع خوشه بندی تصادفی)؟ چگونه می توان این نتایج pvclust را تفسیر کرد؟ شاید من از ابزار به روشی اشتباه استفاده می کنم؟ یا ابزار اشتباه برای این نوع داده ها؟ پیشاپیش از شما بسیار سپاسگزارم. ![pvclust dendrogram](http://i.stack.imgur.com/nedQr.png) ![hclust و pvclust که دومی در دندروگرام قرمز است](http://i.stack.imgur.com/KoaHW .png)
دشواری در تفسیر نتایج pvclust - فقط بسیاری از خوشه‌های درختی سطح پایین به‌عنوان معنی‌دار به نظر می‌رسند.
90241
من می خواهم توضیحی در مورد بیانیه با حروف درشت در زیر ارائه دهم. در نگاه اول، من فکر می‌کنم که یک متغیر ابزاری ضعیف تخمین خطای استاندارد حتی بزرگ‌تری را به همراه خواهد داشت. با این حال، وقتی ابزارها ضعیف هستند، دو مشکل جدی برای حداقل مربعات دو مرحله‌ای ظاهر می‌شود. اول مشکل سوگیری است. حتی اگر تخمین‌های ضریب حداقل مربعات دو مرحله‌ای سازگار باشند - به طوری که تقریباً به طور قطع به مقدار واقعی نزدیک می‌شوند. اندازه نمونه به بی‌نهایت نزدیک می‌شود - تخمین‌ها همیشه در نمونه‌های محدود بایاس می‌شوند، وقتی متغیر ابزاری ضعیف است، این سوگیری می‌تواند بزرگ باشد، **وقتی یک نمونه ابزاری است متغیر ضعیف است، خطاهای استاندارد تخمین زده شده در دو مرحله بسیار کوچک می شود** بنابراین، زمانی که ابزارها ضعیف هستند، فواصل اطمینان محاسبه شده برای برآوردهای حداقل مربعات دو مرحله ای می تواند بسیار گمراه کننده باشد، زیرا نقطه میانی آنها مغرضانه است. عرض بسیار باریک است، که آزمون‌های فرضیه مبتنی بر حداقل مربعات دو مرحله‌ای را تضعیف می‌کند._ موری، مایکل پی.. اجتناب از ابزارهای نامعتبر و مقابله با ابزار ضعیف مجله چشم انداز اقتصادی، ج 20، ص 111-132.
خطاهای استاندارد تخمین زده شده برای متغیر ابزاری ضعیف
101459
در حال حاضر، من روی یک مدل رگرسیون چندگانه کار می‌کنم که در مجموع شامل 9 متغیر است: دو متغیر کد ساختگی آموزش (مقوله‌ای) به عنوان یک کنترل، یک متغیر مستقل هدف (مستمر)، سه متغیر تعدیل‌کننده (مستمر) و سه عبارت تعاملی (مستمر). که تعدیل کننده ها را با متغیر مستقل اولیه ترکیب می کند). این مدل به این صورت به نظر می رسد: بلوک 1: آموزش کد ساختگی 1، آموزش کد ساختگی 2 بلوک 2: متغیر مستقل هدف، سه متغیر تعدیل کننده بلوک 3: سه عبارت تعامل چند نکته سریع: \- سه ناظر امتیازهای خرده مقیاس از یک معیار واحد هستند. ، اما هیچ مشکلی با هم خطی نشان نمی دهد \- یکی از کدهای ساختگی آموزش در هر مدل قابل توجه است \- از بین سه عبارت تعامل، فقط یکی از آنها قابل توجه است. کاری که من سعی می کنم انجام دهم این است که تعامل مهم را با استفاده از تحلیل شیب ساده تحلیل کنم، اما سعی می کنم دو عبارت تعامل دیگر را در نظر بگیرم. معادله چیزی شبیه به این خواهد بود: y = b0 + b1 (IV) + b2 (مدیرکننده) + b3 (Sig.Interaction) + b4 (مدیر کننده 2) + b5 (مدیر کننده 3) + b6 (تعامل2) + b7 (تعامل 3) ) + خطا برای من به اندازه کافی آسان است که با ثابت نگه داشتن همه چیز به جز IV، moderator و sig، یک تحلیل شیب ساده ایجاد کنم. تعامل با استفاده از مقادیر -SD/Mean/+SD. با این حال، خطوط در طرح به دلیل تأثیر عوامل دیگر تغییر می کند. سوال من این است که برای محاسبه تغییرات خطوط باید چه مقادیری را وارد فاکتورهای دیگر کنم؟ زیرا اگر فقط یک یا 0 را وارد کنم، به سادگی همه چیز را دوباره ثابت نگه می دارم.
تعاملات دو طرفه چندگانه در تحلیل شیب ساده
100345
فرض کنید من یک آزمون با چندین فرضیه دارم. به عنوان مثال، اگر X را به عنوان یک مجموعه ژن (مجموعه ای از نمادها) و مسیرهای A، B، C (مجموعه نمادها) داشته باشم، در حال آزمایش هستم که آیا A در X، B در X، C در X و غیره غنی شده است یا خیر. در سپس من در حال تصحیح مقادیر حاصل از آزمون فرضیه های چندگانه هستم. اکنون من چندین pvalue تصحیح شده دارم و می‌خواهم آنها را در یک pvalue واحد ترکیب کنم. آیا این امکان پذیر است؟ در صورت نیاز اطلاعات بیشتری اضافه خواهم کرد.
چگونه pvalue تعدیل شده چندگانه را در یک اندازه خلاصه کنیم؟
78007
آیا هنگام حرکت از OLS به رگرسیون اثرات ثابت می توان ضریب بزرگتری (اعم از منفی بزرگتر یا مثبت بزرگتر) بدست آورد؟ علاوه بر این، آیا امکان/احتمال دارد که علامت ضریب هنگام حرکت از OLS به رگرسیون اثر ثابت برگرداند؟ آیا این می تواند کاملاً عادی باشد یا نشانه ای از مشکل در مدل / داده است؟
ضرایب بزرگتر (از نظر اقتصادی) یا علامت برگشتی هنگام استفاده از جلوه های ثابت به جای OLS؟
80002
در مورد آزمون‌ها/روش‌های زیر مطمئن نیستم که آیا آن‌ها به دسته آزمون‌های تک متغیره یا چند متغیره تعلق دارند. آزمون‌ها/روش‌های تک متغیره: t-test، ANOVA، ANCOVA، رگرسیون خطی تک متغیره (Y=a+bX) آزمون‌ها/روش‌های چند متغیره: MANOVA، رگرسیون خطی چند متغیره (Y=a+bX+cX+…)، تحلیل خوشه‌ای، حداقل مربعات جزئی تجزیه و تحلیل متمایز (PLS-DA)، تجزیه و تحلیل مؤلفه اصلی آیا کسی می تواند تأیید کند که آیا این آزمون ها/روش ها اختصاص داده شده اند یا خیر به دسته های مناسب؟
دسته بندی آزمون های آماری به روش های تک متغیره و چند متغیره
54797
فرض کنید به ما یک توزیع P و یک K ثابت داده شده است. ما می‌خواهیم مراکز هدف kmeans w.r.t را به حداقل برسانیم ${C1,..Ck}$:! .png) چه محدودیت هایی در $P$ شناخته شده است که نشان می دهد راه حل بهینه منحصر به فرد است (تا مرتب سازی مجدد مراکز)؟ نمونه‌هایی از روش‌های موردی نیز قدردانی می‌شود. به طور خاص برای من توزیع های پیوسته جالب است. مثالی برای $P(x)$ و $k=2$ یک بعدی با راه حل بهینه منحصربفرد: $P(X=1)=0.5$$P(X=-1)=0.5$ تنها مراکز بهینه $C1=1، C2=-1$
چگونه می توان یک راه حل Kmeans را منحصر به فرد نشان داد؟
96957
من سعی می‌کنم داده‌ها را طبقه‌بندی کنم که با سری‌های زمانی چند کانالی نشان داده می‌شوند: یک مشاهده شامل 300 سری زمانی با طول 100 است. به نظر می رسد که من به نوع خاصی از PCA نیاز دارم. من چیزی در مورد توابع متعامد تجربی و SSA چند کاناله پیدا کردم، اما مطمئن نیستم که آیا آن چیزی است که من نیاز دارم (برای من کاملاً پیچیده به نظر می رسد). لطفاً چند مقاله در مورد این موضوع یا حداقل نام روش هایی که می توانند این کار را انجام دهند، توصیه کنید. خیلی ممنون!
سری زمانی چند کاناله
13182
فرض کنید من یک رگرسیون خطی را برای برخی از داده ها (مثلاً وزن در مقابل قد) برازش می کنم، و همه مفروضات رگرسیون خطی استاندارد برآورده می شوند (به ویژه، داده ها همسان هستند). برای مثال، این یک شکل تصادفی است که از amstat.org استخراج شده است که به نظر می رسد آنچه را که من به آن فکر می کنم برآورده می کند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kvDMa.jpg) اکنون من من در حال انجام برخی از تجزیه و تحلیل داده های اکتشافی هستم، بنابراین می خواهم به نمونه هایی نگاه کنم که در آنها رگرسیون خطی به ویژه خاموش است. یعنی، من می‌خواهم همه افراد را بر اساس میزان بد پیش‌بینی وزن آنها از روی قد طبقه‌بندی کنم (تا مثلاً بتوانم به جزئیات بیشتر نگاه کنم، مثلاً افرادی که وزن آنها را کمتر از حد پیش‌بینی می‌کند، تمایل به خوردن غذاهای ناسالم زیاد دارند یا خیر. ). سوال من این است: * آیا باید همه افراد را بر اساس باقیمانده های خام آنها مرتب کنم؟ * یا باید همه افراد را بر اساس باقیمانده ها به عنوان درصدی از پیش بینی، یعنی بر اساس «وزن باقیمانده / وزن پیش بینی شده» مرتب کنم؟ از یک طرف، به نظر می‌رسد مرتب‌سازی بر اساس باقیمانده‌های خام ممکن است راه حلی باشد، زیرا خطاهای رگرسیون خطی استاندارد بر اساس مجذور باقیمانده‌ها هستند و نه درصدهای باقیمانده. از سوی دیگر، زمانی که وزن پیش‌بینی‌شده‌شان 50 کیلوگرم است، وزنی 70 کیلوگرمی دارد تا زمانی که وزن پیش‌بینی‌شده‌شان 100 کیلوگرم است، بسیار دور از ذهن‌تر به نظر می‌رسد. آیا این فقط یک اولویت است یا مدل خاصی که در دست است؟
نگاهی به باقیمانده ها در مقابل درصدهای باقیمانده
20656
من در حال تحقیق درباره برخی مشکلات در بخش بیمه سلامت/پزشکی هستم و می‌خواهم از توزیع‌های احتمال واقعی (یا داده‌های فعلی) برای انجام نوعی تجزیه و تحلیل ریسک با استفاده از شبیه‌سازی‌های ساده و موارد مشابه استفاده کنم تا ببینم چگونه انواع مختلف بیمه‌نامه‌ها در مقابل یکدیگر قرار می‌گیرند. درک افراد مختلف از ریسک حدس می‌زنم تنها نوع داده‌ای که من به IMO نیاز دارم، احتمال مرگ برای انواع مختلف صدمات است (با فرض اینکه «انواع» کاملاً دانه‌دار هستند). به عنوان مثال: 0.05٪ احتمال آسیب کشنده، 25٪ احتمال شکستگی و غیره، اساساً برخی از داده های واقعی که من می توانم بر اساس آنها تجزیه و تحلیل خود را برای سنجش نگرش ریسک خریداران بیمه نامه انجام دهم. هر گونه ایده / اشاره بسیار قدردانی می شود. اگر داده‌ها مختص کشور باشد، ترجیحاً آمریکای شمالی، آمریکای جنوبی و اروپا را هدف قرار می‌دهم.
از کجا می توان داده ها/توزیعات واقعی اکچوئری/بیمه را دریافت کرد؟
54577
من به R عادت دارم که در آن می توانید از factor(variable) برای نشان دادن یک متغیر طبقه بندی استفاده کنید. با این حال، در scikit-learn، تلاش برای پاس دادن یک متغیر از رشته ها باعث می شود DecisionTreeClassifier خطا بدهد. چگونه قرار است از یک متغیر طبقه بندی در scikit-learn استفاده کنید؟ آیا تنها گزینه برای رمزگذاری متغیر چند کلاسه استفاده از متغیرهای ساختگی است؟
چگونه از متغیرهای طبقه بندی هنگام برازش درخت تصمیم در scikit-learn استفاده می شود؟
54572
من می دانم که شما بچه ها مجاز به دادن هیچ پاسخی نیستم (من نمی خواهم) من فقط در مورد چگونگی انجام آن به کمک نیاز دارم تا بتوانم خودم تمرین کنم. بگو به من بدی داده شد و S.D. فقط از x و y و همچنین به من ضریب همبستگی $r$ داده می شود. چگونه می توانم خطای استاندارد برآورد Y را پیدا کنم؟ من می دانم که فرمول $\sqrt{\frac{\sum{(y-y')^2}}{N}}$ است. و من واقعاً در این مورد سردرگم هستم. و همچنین من باید پیدا کنم اگر x داده شود چگونه y او را پیش بینی کنم؟
آمار اولیه کمک می کند
48437
من یک آزمایش رفتاری روی زنبورهای یک کندو انجام داده ام. من به آنها اجازه دادم تحت دو شرایط مختلف پرواز کنند و اکنون می خواهم میانگین سرعت پرواز را در این دو شرایط مقایسه کنم. تعداد زنبورها در دو حالت متفاوت است. در شرایط 1 من 17 زنبور و در شرایط 2 19 زنبور دارم. نمی دانم در هر دو شرایط همان افراد پرواز می کردند یا نه، زیرا من افراد را علامت گذاری نکردم. با این حال، به احتمال زیاد حداقل تعداد کمی از زنبورها در هر دو شرایط پرواز می کردند. علاوه بر این، ممکن است یک زنبور یکسان در هر شرایطی بیش از یک بار پرواز کرده باشد. به همین دلیل، حدس می‌زنم باید با داده‌هایم به عنوان وابسته (اقدامات مکرر) رفتار کنم، درست است؟ حالا سوال من اینه که از چه تستی استفاده کنم که ببینم معنی دو گروه با هم فرق داره؟ از آنجایی که دو گروه وابسته هستند، من نمی توانم آزمون t نمونه های مستقل را انجام دهم، اما از آنجایی که داده های من جفت نیستند، نمی توانم آزمون t-test نمونه های زوجی را نیز انجام دهم... هر نوع توصیه ای بسیار قابل تقدیر است. ! پیشاپیش از شما متشکرم Therese Edit 1: تخمین زده می شود که کندوها از حدود 200 زنبور تشکیل شده باشند، اما نمی توانم به طور قطع بگویم که این کندو از چند زنبور تشکیل شده است. ویرایش 2: اول از همه از نظرات شما متشکرم Placidia. این دو حالت به طور تصادفی در طی چند روز انجام شد، بنابراین من فرض می‌کنم که زنبورها از شرایط مختلف چیزی یاد نمی‌گیرند. با این حال، من در مورد تصحیح نمونه محدودی که شما اشاره کردید تعجب می کنم. در آزمایش مشابه دیگری از 40 زنبور عسل برای هر شرایط نمونه برداری کردم (اما برای هر شرایط از زنبورها در دو بازه زمانی صبح و بعدازظهر نمونه برداری کردم و این کار را طی 2 روز انجام دادم. به عبارت دیگر از 10 زنبور نمونه برداری کردم. در یک زمان). آیا در این صورت باید برای نمونه محدود تنظیمی انجام دهم؟ در آزمایش دیگری، از 17 زنبور از یک جمعیت وحشی نمونه برداری کردم. آیا این بدان معنی است که نمونه بی نهایت است و من مجبور نیستم برای یک نمونه محدود تنظیم کنم؟ باز هم از شما متشکرم، من واقعا از کمک شما متشکرم!
چگونه می توان میانگین دو گروه وابسته را در زمانی که گروه ها جفت نیستند مقایسه کرد؟
54578
من در حال حاضر روی پروژه سال آخرم برای مدرک ریاضی خود کار می کنم که بر اساس ارائه یک نمای کلی از الگوریتم متروپلیس-هیستینگ و چند مثال عددی است. تا کنون با استفاده از توزیع پروپوزال خود به عنوان یک گاوسی و نمونه برداری از چند توزیع دیگر به نتایج بسیار خوبی دست یافته ام، با این حال سعی می کنم با استفاده از توزیع پیشنهادی متفاوت یک قدم جلوتر بروم. تا کنون من این کد را دریافت کرده ام (من از Matlab استفاده می کنم)، اما با منابع محدود آنلاین در مورد استفاده از پروپوزال های مختلف، تشخیص اینکه آیا اصلاً نزدیک هستم یا نه، سخت است، زیرا در واقع من خیلی مطمئن نیستم که چگونه این کار را انجام دهم، (به خصوص زیرا تا کنون هیچ خروجی داده مفیدی ارائه نمی دهد). اگر کسی بتواند اطلاعاتی را که به راحتی در دسترس است به من کمک کند، بسیار عالی خواهد بود (من درک می کنم که من فقط در مورد برنامه نویسی توصیه نمی کنم، بلکه از ریاضیات نیز می خواهم). بنابراین، من می‌خواهم از یک گاوسی با استفاده از توزیع پیشنهادی یک لاپلاس نمونه‌برداری کنم، این کد من تاکنون: n = 1000; %%%%تعداد تکرار x(1) = -3; %%%% ایجاد نقطه شروع %%%% توزیع هدف: گاوسی: strg = '1/(sqrt(2*pi*(sig)))*exp(-0.5*((x - mu)/sqrt(sig )).^2)'; tnorm = inline(strg, 'x', 'mu', 'sig'); mu = 1; %%%% پارامترهای گاوسی (من اینها را از زنجیره مارکوف x تخمین خواهم زد) sig = 3; %%%% توزیع پیشنهاد: Laplace: strg = '(1/(2*b))*exp((-1)*abs(x - mu)/b)'; laplace = inline(strg, 'x', 'b', 'mu'); b = 2; %%%% پارامتر لاپلاس، من از مقادیر خود برای y و x(i-1) برای mu %%%% ایجاد زنجیره مارکوف با پذیرش-رد برای i = 2:n %%%% استفاده خواهم کرد یک نامزد از توزیع پیشنهادی y = laplace(randn(1)، b، x(i-1)); %%%%ایجاد یک فرم برای مقایسه u = rand(1); آلفا = min([1، (tnorm(y، mu، sig)*laplace(x(i-1)، b، y))/(tnorm(x(i-1)، mu، sig)*laplace(y , b, x(i-1)))]); اگر u <= آلفا x(i) = y; else x(i) = x(i-1); پایان پایان اگر کسی می تواند به من بگوید که آیا موارد فوق کاملاً اشتباه است/در راه اشتباه است یا فقط چند اشتباه وجود دارد (من در مورد نسل من از 'y' بسیار محتاط هستم زیرا حلقه for کاملاً اشتباه است) که فوق العاده خواهد بود ممنون، تام
الگوریتم متروپلیس-هیستینگ، با استفاده از توزیع پیشنهادی غیر از گاوسی در Matlab
20655
آرایشگر من استیسی همیشه چهره ای شاد دارد، اما اغلب در مورد مدیریت زمان خود استرس دارد. امروز استیسی برای قرار ملاقات من به تاخیر افتاده بود و بسیار عذرخواهی کردم. در حین کوتاه کردن موهایم به این فکر کردم: قرار ملاقات های استاندارد او چقدر باید باشد؟ (اگر ترجیح مشتری برای اعداد گرد تمیز را بتوان برای لحظه ای نادیده گرفت). چیزی که باید در نظر گرفت یک «اثر موج دار» است که در آن یک مشتری خیلی دیر می تواند منجر به یک رشته قرار ملاقات های تاخیری شود. در حقیقت، آرایشگران به طور شهودی یاد می‌گیرند که قرار ملاقات‌های خود را طولانی‌تر و طولانی‌تر بگذارند، زیرا از این روزهای پر استرس می‌ترسند. اما یک راه حل بهینه و ظریف باید توسط برخی از نابغه های آماری قابل دستیابی باشد. (اگر کمی واقعیت را نادیده بگیریم) بیایید فرض کنیم الف) زمان های کوتاه کردن مو به طور معمول توزیع شده است و ب) تنها یک آرایشگر وجود دارد. بدیهی است که هزینه تنظیم قرارهای _خیلی طولانی_، زمان تلف شده آرایشگر در انتظار قرار بعدی است. بیایید برای این زمان تلف شده 1 دلار در دقیقه هزینه کنیم. اما اگر قرار ملاقات به اندازه کافی طولانی نباشد، مشتری بعدی منتظر می ماند، که هزینه سنگین تری معادل 3 دلار در دقیقه برای استیسی مشتری دوست دارد. * استیسی تا 8 ساعت در روز کار می کند و به اندازه کافی تقاضا دارد که بتواند هر تعداد قرار ملاقات را که می تواند انجام دهد * متوسط ​​کوتاه کردن موی او 30 دقیقه طول می کشد. توسعه دهنده 10 دقیقه (همچنین فرض کنیم برش های مردانه و زنانه یکسان است!) ویرایش - برخی به درستی اشاره کرده اند که استیسی می تواند قبل از زمان تعیین شده به مشتریان EARLY رسیدگی کند. این یک لایه دیگر از پیچیدگی را اضافه می کند، اما اگر ما با آن به عنوان یک مشکل کاملاً واقع بینانه برخورد کنیم، باید آن را در نظر بگیریم. بیایید فرض 90/10 خود را فراموش کنیم و برای فرضیاتی تلاش کنیم که شاید کمی به واقعیت نزدیکتر باشد. * برخی از مشتریان دیر و برخی زود. میانگین تاخیر مشتریان 2 دقیقه با انحراف معیار 2 دقیقه (به نظر می رسد به طور منطقی نزدیک به واقعیت نیست؟) زمان قرار ملاقات های او دقیقا چقدر باید باشد؟ * * * @alexplanation متاسفم که پست های گل را روی شما منتقل کردم! من مطمئن هستم که خوانندگان R از پاسخ شما استقبال می کنند.
معمای یک آرایشگاه
20388
بگذارید هدفم را توضیح دهم: می خواهم یک مدل مارکوف پنهان با دو حالت پنهان تعریف کنم و بگویم، پنج مشاهده ممکن. همانطور که می‌دانم (من با HMM کاملاً تازه کار هستم)، در هر حالت HMM یکی از مشاهدات را بر اساس احتمالات خروجی داده شده خروجی می‌دهد. من می خواهم این رفتار را به گونه ای گسترش دهم که خروجی تنها به آن احتمالات وابسته نباشد، بلکه به آخرین مشاهده ای که توسط HMM خروجی شده است نیز وابسته باشد. شما می توانید آن را به گونه ای در نظر بگیرید که گویی هر حالت مخفی مدل مارکوف دیگری (غیر پنهان) در خودش تعبیه شده است و از آن برای تعریف خروجی استفاده کنید. هر دو حالت پنهان دقیقاً مدل‌های مارکوف یکسانی دارند، اما با احتمالات انتقال متفاوت. امیدوارم واضح باشه که چی میپرسم هر اشاره ای بسیار قدردانی می شود.
مدل‌های مارکوف پنهان: مشاهدات خروجی که توسط یک مدل مارکوف (غیر پنهان) تعریف شده‌اند؟
96951
من با تفسیر مقادیر منفرد به‌دست‌آمده توسط SVD، همچنین در رابطه با آنچه که اجزای اصلی PCA به من می‌گویند، مشکل دارم. پیشینه ریاضی در اینجا توضیح داده شده است. **1\. سوال** از خودم پرسیدم که آیا زمانی که ماتریس خود را جابجا می کنم و سپس SVD/PCA را اعمال می کنم، مهم است؟ بنابراین من یک ماتریس 2x2 را انتخاب کردم تا آن را ساده و قابل ترسیم نگه دارم (ستون ها در برابر یکدیگر با استفاده از R رسم می شوند): x = ماتریس(c(1,0,2,3),nrow=2) x [,1] [ ,2] [1،] 1 2 [2،] 0 3 طرح(x) ![Plot\(x\)](http://i60.tinypic.com/jrsoqv.jpg) استفاده از SVD و PCA: svd(x)$d [1] 3.6502815 0.8218544 prcomp(x) انحرافات استاندارد: [1] 1 0 PCA کاملاً همان چیزی را که من انتظار دارم انجام می دهد، یک بعد هیچ واریانسی نشان نمی دهد (زیرا ما فقط دو نقطه داده داریم) در حالی که دیگری همه واریانس ها را توضیح می دهد. من فکر کردم SV های SVD چیزی مشابه را نشان می دهند، پس چرا SV دوم > 0 است؟ **2\. سوال** اکنون ماتریس را جابجا می کنیم (یا: رسم ردیف های x در مقابل یکدیگر) y = t(x) y [,1] [,2] [1,] 1 0 [2,] 2 3 نمودار(y) ![plot\(y\)](http://i57.tinypic.com/2n1axcx.jpg) svd(y)$d [1] 3.6502815 0.8218544 prcomp(y) انحرافات استاندارد: [1] 2.236068 0.000000 در حالی که PCA کاری را که من انتظار دارم انجام می دهد (یک بعد تمام واریانس را نشان می دهد و این بار بیشتر از آنجایی که نقاط داده در آن بعد از یکدیگر دورتر هستند)، SV از SVD مانند بالا هستند. سوال اول هنوز اینجا پابرجاست، اما به علاوه: چرا مقادیر مفرد تغییر نکردند؟ (پاسخ ریاضی این است که X*X و XX* مقادیر ویژه یکسانی دارند.) این برای مجموعه داده هایی که ماتریس مربعی ندارند و همچنین مجموعه داده های ابعادی بالاتر نیز صادق است: > m = cbind(1:10+rnorm(10) ,1:10+rnorm(10)) > prcomp(m) انحرافات استاندارد: [1] 4.5043248 0.7969853 > svd(m)$d [1] 27.196875 3.064609 > prcomp(t(m)) انحرافات استاندارد: [1] 3.163586e+00 1.618444e-15 > svd(t(m) 3.064609 (می‌دانم که داده‌ها را آنطور که پیشنهاد می‌شود مقیاس‌بندی نکردم.)
SVD روی یک ماتریس جابجا شده
95367
من یک مدل خطی کلی برای پیش بینی متغیر وابسته Y خود ایجاد کرده ام. در مورد نحوه ارائه معادله خود مطمئن نیستم. آیا باید: (مطمئن نیستم که i باید آنجا باشد یا نه) $Yi= 0.432 + 0.320 Age_i + 0.520 WE_i + 0.300 JP1_i + 0.210 JP2_i$ یا $Y= 0.432 + 0.320 Age + . 520 WE + 0.300 JP1 + 0.210 JP2$ کجا: WE= تجربه کاری؛ JP= موقعیت شغلی; JP1= کارکنان سطح طبقه. JP2= مدیران;
آیا در معادله رگرسیون باید i وجود داشته باشد؟
48431
من مقاله ویکی مربوط به کریجینگ را مرور می کردم http://en.wikipedia.org/wiki/Kriging. با این حال، من نتوانستم برخی از اشتقاق ها را دنبال کنم. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hIx4y.png) در شکل اول برای کریجینگ ساده، چگونه واریانس خطا به این شکل تبدیل شد![شرح تصویر را اینجا وارد کنید ](http://i.stack.imgur.com/48T0x.png) در شکل سوم، چگونه واریانس خطا به این شکل بیان شده است. کسی میتونه لطف کنه اشتقاق رو بگه من واقعا گیج شدم. در عبارت بالا چگونه آمده است
سردرگمی مربوط به کریجینگ
81971
من چالش های مرتبط با تعداد اندک مشاهدات را درک می کنم. با این وجود، برخی از پیش بینی ها سیگنال های بسیار قدرتمندی دارند. سوال این است که چگونه می توان از R برای کدنویسی کارآمدتر برای ساخت مدلی با بهترین ترکیب پیش بینی کننده ها استفاده کرد. در بهترین حالت، معیار من کمترین مقدار از MAPE نمونه برای آخرین 3-4 مشاهده در سری زمانی من است. آیا راهی کارآمد برای ساخت این رویه/تست در R وجود دارد؟ فراتر از کد، بینش دیگری برای مقابله با این مشکل خاص وجود دارد؟ متشکرم
انتخاب ویژگی سری زمانی: 20 متغیر مستقل، 1 متغیر وابسته، 13 مشاهده
59127
اخیراً آزمایش نسبتاً پیچیده‌ای انجام داده‌ام و برای ارائه مدلی مناسب برای داده‌ها مشکل دارم. من چند روز را صرف مطالعه در مورد، به عنوان مثال، زمانی که اثرات تصادفی باید تو در تو یا متقاطع، و متغیرها باید در یک مدل کامل گنجانده شده است. با این حال، ادبیاتی که برای افراد غیر آماری مانند من قابل خواندن است معمولاً به دو سطح تودرتو محدود می شود، در حالی که من (ممکن است) بیشتر داشته باشم. ادبیاتی که به نظر می رسد کاربرد دارد، برای من پیچیده تر از آن است که بتوانم آن را درک کنم. امیدوارم بتوانید به من کمک کنید. هدف من این است که یک مدل کامل را مشخص کنم و ساده سازی مدل را از آنجا شروع کنم. آزمایشی که من انجام دادم به شرح زیر بود: * همه شرکت کنندگان سه کار را به ترتیب ثابت انجام دادند (Task1، Task2، Task3). * کار 1 شامل 30 کارآزمایی، وظایف 2 و 3 هر دو شامل 10 آزمایش بود. * هر کار سه بار توسط هر شرکت کننده تکمیل شد (Round1، Round2، Round3). * دستکاری شامل یک عامل با سه سطح (شرط 1، شرط 2 و شرط 3) بود. * شرایط به راندها گره خورده بود، بنابراین هر شرکت‌کننده قبل از رفتن به کار 2، وظیفه 1 را در هر شرایط تکمیل کرد (مثلاً 30 آزمایش در شرایط 1، به دنبال آن 30 آزمایش در شرایط 2، به دنبال آن 30 آزمایش در شرایط3). از شش محرک مختلف برای دستکاری این شرایط استفاده کرد (دو مورد برای هر شرایط؛ Stimulus1.1، Stimulus1.2، Stimulus2.1 .. Stimulus3.2) * متغیر وابسته باینری است برای پیچیده تر کردن مسائل، از 6 ترتیب مختلف ارائه محرک ها استفاده کردیم. من فکر می کنم ساده ترین کار برای نشان دادن ساختار داده با استفاده از یک مثال است: order <- rbind( c('Stimulus1.1', 'Stimulus2.1', 'Stimulus3.1', 'Stimulus2.2', 'Stimulus3.2', 'Stimulus1.2'، 'Stimulus3.1'، 'Stimulus1.2'، 'Stimulus2.1')، c('Stimulus1.1', 'Stimulus3.1', 'Stimulus2.1', 'Stimulus3.2', 'Stimulus2.2', 'Stimulus1.2', 'Stimulus2.1' , 'Stimulus1.2'، 'Stimulus3.1')، c('Stimulus2.1', 'Stimulus3.1'، 'Stimulus1.1'، 'Stimulus3.2'، 'Stimulus1.2'، 'Stimulus2.2'، 'Stimulus1.2'، 'Stimulus2.1'، 'Stimulus3.1')، c ('Stimulus2.1', 'Stimulus1.1', 'Stimulus3.1', 'Stimulus1.2'، 'Stimulus3.2'، 'Stimulus2.2'، 'Stimulus3.2'، 'Stimulus2.1'، 'Stimulus1.1')، c('Stimulus3.1'، 'Stimulus2.1' , 'Stimulus1.1', 'Stimulus2.2', 'Stimulus1.2', 'Stimulus3.2'، 'Stimulus1.1'، 'Stimulus3.2'، 'Stimulus2.1')، c('Stimulus3.1'، 'Stimulus1.1'، 'Stimulus2.1'، 'Stimulus1.2' , 'Stimulus2.2', 'Stimulus3.2', 'Stimulus2.1', 'Stimulus3.2'، 'Stimulus1.1')) تست <- expand.grid(trial=1:30, task=c('Task1', 'Task2', 'Task3'), round=c('Round1' , 'Round2', 'Round3')، pp=1:12) تست <- test[! (با (تست، آزمایش > 10 و وظیفه == 'Task2'))،] تست <- تست[! (با (تست، آزمایشی > 10 و وظیفه == 'Task3'))،] test$taskround <- factor(paste(test$task, test$round, sep=':')) test$task <- factor( test$task) test$round <- factor(test$round) test$stimulus <- factor(unlist(lapply(1:nrow(test), function(x) {order[1 + (test[x، 'pp'] %% 6), as.numeric(test[x,'taskround'])]})) test$condition <- factor(paste('Condition', substr(as.character (test$ محرک)، 9،9)، sep='')) test$response <- factor(rbinom(nrow(test),1, prob=.95)) test$pp <- factor(test$pp) ساختار داده به‌دست‌آمده عبارت است از: پاسخ شرایط محرک دور تکلیف آزمایشی 1 1 وظیفه 1 دور 1 1 وظیفه 1: دور1 محرک 1.1 شرط 1 1 2 2 وظیفه 1 دور 1 1 وظیفه 1: دور1 محرک 1.1 شرط 1 1 3 3 وظیفه 1 دور 1 . 1 شرط 1 1 4 4 Task1 Round1 1 Task1: Round1 Stimulus1.1 Condition1 1 5 5 Task1 Round1 1 Task1:Round1 Stimulus1.1 Condition1 1 6 6 Task1 Round1 1 Task1:Round1 Stimulus1.1 Condition1 Round1 Task11 Round Stimulus1.1 Condition1 1 8 8 Task1 Round1 1 Task1:Round1 Stimulus1.1 Condition1 1 9 9 Task1 Round1 1 Task1:Round1 Stimulus1.1 Condition1 1 10 10 Task1 Round1 111 Task1m1:Round به طور عمده علاقه مند است. را اثر اصلی شرط من پیش بینی می کنم که تمایل به پاسخ ممکن است بین وظایف و شرکت کنندگان متفاوت باشد. این به یک رهگیری متفاوت برای هر کار و شرکت کننده تبدیل می شود، درست است؟ من همچنین پیش بینی می کنم که دستکاری ممکن است بر برخی از شرکت کنندگان بیشتر از دیگران تأثیر بگذارد. و من گمان می‌کنم که شرکت‌کنندگان مختلف ممکن است به روش‌های متفاوتی به وظایف مختلف برخورد کنند (به عنوان مثال، وظیفه 1 ممکن است موفقیت‌های بیشتری نسبت به کار 2 ایجاد کند، اما شرکت‌کننده 1 ممکن است نسبت به شرکت‌کننده 2 نسبت به این جنبه از وظیفه حساس‌تر باشد). مدل فعلی من این است: `glmer(response ~ condition + (1 | pp/task/round) + (0 + task + condition | pp)، data=test, family = binomial)` با این حال، مطمئن نیستم که این مدل درست است. سوالات من عبارتند از: 1. من در مورد تودرتوی اثرات تصادفی در بند اول نامطمئن هستم. من معتقدم «تکلیف/گردش» درست است، اما مطمئن نیستم که آیا باید اینها را به‌عنوان تودرتو در زیر شرکت‌کنندگان در نظر بگیرم یا از طریق آن عبور کنم.
تعیین یک مدل کامل صحیح برای طراحی اندازه گیری های مکرر نامتعادل در R lme4
15934
در این مطالعه 13 آزمودنی وجود دارد که هر آزمودنی به طور مکرر پای راست و چپ را در 5 شرایط راه رفتن اندازه گیری کرد. متغیرهای این مجموعه داده عبارتند از: ID، Y، Leg، Conditions. سؤالات تحقیق برای یافتن تفاوت بین پاها و شرایط است. در ابتدا، من قصد دارم از RM-ANOVA استفاده کنم: $Y = \text{Leg} + \text{Conditions} + \text{Leg}\times\text{Conditions}$. اما RM-ANOVA ممکن است مناسب نباشد زیرا پای راست و چپ نیز همبستگی دارند (از یک موضوع). آیا کسی ایده ای برای تجزیه و تحلیل این نوع داده ها دارد؟
چگونه می توان مطالعه ای را تجزیه و تحلیل کرد که در آن اقدامات مکرر از پای راست و چپ در پنج شرایط راه رفتن انجام می شود؟
7336
من یک شبیه سازی را روی R و مجموعه ای از کامپیوترها اجرا می کنم و مشکل زیر را دارم. در هر یک از X کامپیوترهایی که اجرا می کنم: fxT2 <- function(i) runif(10) nessay <- 100 c(mclapply(1:nessay, fxT2), recursive=TRUE) 32 کامپیوتر وجود دارد که هر کدام 16 هسته دارند. با این حال، حدود 2٪ از اعداد تصادفی یکسان هستند. برای جلوگیری از این موضوع چه راهکارهایی را اتخاذ می کنید؟ من توانسته ام با تنظیم یک تأخیر از این مشکل برای fxT2 جلوگیری کنم (یعنی تأخیر یک ثانیه در زمان ارسال هر کار به هر یک از رایانه های X). اما برای fxt2 بسیار موقتی به نظر می رسد. مشکل این است که در واقعیت fxT2 یک کار طولانی است که شامل اعداد شبه تصادفی است. در پایان فرآیند، من انتظار دارم که بازتولید X*nessay از همان آزمایش آماری را بدست آوریم، **نه** بازتولیدهای nessay. چگونه می توان مطمئن شد که واقعاً چنین است و آیا راهی برای بررسی این موضوع وجود دارد؟
RNG، R، mclapply و خوشه کامپیوترها
46944
من داشتم این کتاب مربوط به فیلترهای کالمن رو میخوندم و یکی دوتا چیز رو متوجه نشدم. اسکرین شات صفحات کتاب را که در آن گیج شده بودم نیز پیوست کرده ام. کتاب Shumway, R.H. and Stoffer, D.S. Time Series Analysis and Its Applications: With R Examples از صفحه اول، من نفهمیدم چگونه این مورد استخراج شد![توضیح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/wEHbF.png) منظورم این است که چگونه است که ما $p(x_t|x_{t-1}) = داریم f_w(x_t-\phi_{x_{t-1}})$ و دارای میانگین 0 و کوواریانس Q است. منظورم این است که باید برای $w_t$ باشد که میانگین 0 دارد و کوواریانس Q نه $p(x_t|x_{t) -1})$ از صفحه دوم، زیر را متوجه نشدم![توضیحات تصویر را وارد کنید اینجا](http://i.stack.imgur.com/B0v7Q.png) منظورم واضح است که $p(\mu_t|Y_{t-1} => N(\mu_t^{t-1},P_t^{ t-1}))$. اما من متوجه نشدم که چگونه از انتگرال بدست می آوریم از صفحه سوم، من متوجه نشدم که چگونه این استخراج شده است![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pKfGh.png ) می دانم که ممکن است زیاد بپرسم، اما چندین روز وقت گذاشته ام تا دقیقاً مشتق معادلات در فیلترهای کالمن را درک کنم. واقعا ممنون میشم اگه کسی بتونه کمکم کنه پیشاپیش متشکرم![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Ru9wU.png)![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/whVb4.png ) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/A4diL.png)
سردرگمی مربوط به نمای چگالی فیلترهای کالمن
8639
با سلام، آیا امکان استفاده از شواهد در مدل Winbug وجود دارد؟ به عنوان مثال، یک متغیر تصادفی در یک مدل مشاهده شده است، و من می‌خواهم سایر متغیرهای مدل را به‌روزرسانی کنم، تقریباً همان به‌روزرسانی که در ابزارهایی مانند Smile یا سایر نرم‌افزارهای استنتاج انجام می‌شود. نمونه گیری گیبس قرار است از مقادیر مشاهده شده در توزیع شرطی کامل استفاده کند، زمانی که مشاهدات/شواهد وارد مدل می شود، اما مطمئن نیستم که Winbugs این اجازه را می دهد یا خیر. با احترام ویرایش برای روشن‌تر شدن: مستندات باگ می‌گوید یک گره تصادفی یک گره داده است اگر مشاهده شده باشد، اما یک گره تصادفی از طریق یک توزیع توصیف می‌شود که در some_var ~ dbin(theta,n) اگر مشاهده شده باشد، پس I' دوست دارم بدون از دست دادن معنای گره تصادفی این را به winbugs بگویم، و چیزی شبیه به some_var دارای این توزیع است، و مشاهده شده است که این ارزش خاص را دارد». پس چگونه این کار را انجام دهم؟ با اعلان some_var همانطور که در بالا انجام دادم و سپس یک مقدار برای آن مانند some_var = 5 تنظیم کنید؟ آیا این بیانگر چیزی است که من می خواهم بیان کنم؟ در این مورد، در هر مشاهده گره در یک شبکه بیزی، باید مدل winbugs را مجدداً تعریف کنم، (احتمالاً) مقادیر اولیه گره‌های مشاهده نشده را با نتایج شبیه‌سازی قبلی جایگزین کنم. به طور خلاصه، من سعی می کنم بفهمم چگونه می توان به روز رسانی ها را در یک شبکه بیزی شبیه به ارسال پیام در استنتاج دقیق انجام داد، اما در عوض از نمونه گیری گیبس از طریق Winbugs استفاده کرد.
آیا می توانم یک مشاهده (شواهد) را در مدل Winbugs وارد کنم؟
7330
من یک سوال در مورد یک ماتریس چرخشی دارم که می تواند در 2 بعد به صورت زیر نمایش داده شود: $$R_{2}(\theta)=\begin{bmatrix} \cos\theta & \sin\theta \\\ -\sin\ theta & \cos\theta \end{bmatrix}$$ برای برخی از زاویه‌های دلخواه $\theta$. این را می توان با اضافه کردن یک ماتریس هویت به تعداد دلخواه ابعاد گسترش داد: $$R_{n}(\theta)=\begin{bmatrix} R_{2}(\theta) & 0 \\\ 0 & I_{n -2}\end{bmatrix}$$ هنگامی که در 2 بعد دلخواه چرخانده می‌شود، برخی از ویژگی‌های «عدم تغییر» یک توزیع قبلی n بعدی را یافته‌ام. سوال من این است: آیا هر چرخشی در ابعاد دلخواه را می توان با دنباله ای از چرخش های دو بعدی نشان داد؟ فرقی نمی کند که سکانس برای اهداف من منحصر به فرد باشد یا نه. یا شاید یک سوال بهتر این باشد: اگر یک توزیع قبلی با چرخش در حدود 2 بعد دلخواه ثابت است، آیا زمانی که حول تعداد دلخواه از ابعاد می چرخد، ثابت است؟
ماتریس های چرخش و تغییر ناپذیری قبلی برای ابعاد دلخواه
8630
من یک تجزیه و تحلیل مؤلفه های اصلی از شش متغیر $A$، $B$، $C$، $D$، $E$ و $F$ انجام داده ام. اگر به درستی بفهمم -- PC1 چرخان نشده به من می گوید که کدام ترکیب خطی از این متغیرها بیشترین واریانس را در داده ها توصیف می کند/توضیح می دهد و PC2 به من می گوید که کدام ترکیب خطی از این متغیرها بیشترین واریانس بعدی را در داده ها توصیف می کند و غیره. فقط کنجکاو -- آیا راهی برای انجام این کار به عقب وجود دارد؟ بیایید بگوییم که من ترکیبی خطی از این متغیرها را انتخاب می کنم - به عنوان مثال. $A+2B+5C$، آیا می‌توانم بفهمم چه مقدار واریانس در داده‌هایی که این توضیح می‌دهد؟
تجزیه و تحلیل مؤلفه اصلی -- به عقب؟
95360
من در حال کار بر روی یک رگرسیون لجستیک بر روی برخی از داده های جمع آوری کمک هستم که در آن داده یک رویداد نادر است (تقریباً 3.5٪). مدل فعلی من 64% دقت در داده های تست و AUC 0.604 دارد. وقتی نمودار (مدل) استاندارد را اجرا می‌کنم، در هر نمودار مقداری پرت می‌بینم که کاملاً از بقیه مجموعه داده‌ها جدا شده‌اند. وقتی می بینید که جدایی در طرح اینگونه است، اولین فکر شما چیست؟ آیا این نشان دهنده یک مشکل است یا فقط ماهیت ماهیت چنین رویداد نادری؟ ![Residuals vs Fited plot](http://i.stack.imgur.com/209Ri.png)
نحوه تفسیر این باقیمانده ها در مقابل نمودار برازش برای رگرسیون لجستیک با استفاده از R
8631
من می خواهم بفهمم که چگونه می توان در مورد شیوع یک بیماری در جمعیت یک کشور محاسبات انجام داد و تأثیر عنصر میانگین امید به زندگی (کسانی که در زمان تشخیص از این بیماری رنج می برند) بر این محاسبه دارد. آیا مقاله «بهترین عمل» در مورد انجام محاسبات اپیدمیولوژی وجود دارد؟
امید به زندگی چگونه بر محاسبه شیوع بیماری تأثیر می گذارد؟
54576
من به تازگی شروع به یادگیری در مورد نقشه های خودسازماندهی بدون پیش زمینه زیادی در شبکه های عصبی کرده ام، پس اگر این سوال بی اهمیت به نظر می رسد مرا ببخشید، اما به نظر می رسد که یک SOM بستگی به این دارد که نقاط داده آموزشی ورودی به کدام ترتیب وارد SOM شوند؟ بنابراین آیا می‌توان برای داده‌های آموزشی مشابه تصویرسازی‌های متفاوتی به دست آورد؟
نقشه های خود سازماندهی و ترتیب نمونه ها
8633
اگر متوجه شوم که متغیر کمکی (زمان واکنش) من در طول آزمایش من تغییر می کند (مثلاً به دلیل خستگی)، آیا می توانم آن را به نحوی در مدل خود بسازم؟ بنابراین آنچه من می گویم این است که تأثیر متغیر کمکی من (بین موضوع ها و درون موضوعات) ثابت نیست.
ANCOVA با چندین نمونه از متغیر کمکی بین موضوعی
11963
من از تئوری تجزیه شده رفتار برنامه ریزی شده برای تجزیه و تحلیل متغیرهای پیش بینی کننده موثر بر عوامل معلم موثر بر پذیرش فناوری های وب 2.0 در کلاس استفاده می کنم. چندین سؤال وجود دارد که هر سازه از جمله متغیر وابسته را می سنجد. آیا می‌توانم هر ساختار جداگانه را تحت داده‌های تبدیل اضافه کنم و سپس یک رگرسیون چندگانه برای هر متغیر پیش‌بینی‌کننده در برابر وابسته انجام دهم؟ می‌دانم که باید نمودارهای پراکندگی را برای نقاط پرت نیز بررسی کنم. ممنون برتا
سازه ها و رگرسیون چندگانه
48436
بیایید فرض کنیم نقاطی در فضای دو بعدی داریم و می‌خواهیم اثرات ویژگی‌های $X$ را روی ویژگی $y$ اندازه‌گیری کنیم. البته مدل رگرسیون خطی معمولی $$y= X\beta + \epsilon$$ است که در اینجا دو مشکل وجود دارد: اول این که عبارت‌های $\epsilon$ ممکن است از نظر مکانی همبستگی داشته باشند (نقض فرض خطاهای مستقل و یکسان). و دوم این است که شیب رگرسیون ممکن است در سراسر فضا متفاوت باشد. اولین مسئله را می توان با گنجاندن اصطلاحات تاخیر مکانی در مدل حل کرد، همانطور که در $$y=\rho W y + X\beta + \epsilon$$ حتی می‌توانیم متغیرهای حذف شده خودبازگشت مکانی (اثرات ثابت مکانی) را با مدل دوربین فضایی که توسط LeSage و Pace در متن توضیح داده شده است $$y=\rho W y + X\beta + WX\lambda + \epsilon$$ که در آن $\rho$ قدرت همبستگی فضایی است که توسط ماتریس وزن $W$ کنترل می شود. واضح است که شکل تأخیر فضایی به فرضیاتی در مورد شکل همبستگی فضایی بستگی دارد. مشکل دوم با استفاده از رگرسیون وزن‌دار جغرافیایی (GWR) پرداخته شده است، تکنیکی که من با آن آشنا نیستم، اما توسط Brunsdon و همکارانش توضیح داده شده است. (1998). تا آنجا که من می توانم بگویم، این شامل برازش آرایه ای از مدل های رگرسیون به زیر منطقه های وزنی است، بنابراین تخمینی از هر $\beta_i$ که بر اساس فضای آن تغییر می کند، $$\hat{\beta}_i = (X) است. ^TW_iX)^{-1}X^T W_i y$$ که در آن $W$ ماتریس وزن های فضایی دیگری است که لزوماً با ماتریس بالا متفاوت نیست. **سوال من**: آیا روش اول (خودرگرسیون فضایی) برای به دست آوردن یک تخمین بی طرفانه از میانگین اثر حاشیه ای $X$ روی $y$ کافی نیست؟ به نظر می رسد GWR بیش از حد مناسب است: البته $\beta$ در فضا تغییر می کند، اما اگر بخواهیم میانگین اثر مورد انتظار یک درمان را بدون توجه به موقعیت مکانی آن بدانیم، GWR چه کمکی می تواند داشته باشد؟ در اینجا تلاش من برای پاسخ اولیه است: 1. اگر بخواهم حق بیمه یک اتاق خواب اضافی _در یک محله خاص_ را بدانم، به نظر می رسد که GWR بهترین گزینه من باشد. 2. اگر بخواهم حق بیمه بی طرفانه _ جهانی_ را برای یک اتاق خواب اضافی بدانم، باید از تکنیک های خودبازگشت فضایی استفاده کنم. دوست دارم دیدگاه های دیگر را بشنوم.
خودهمبستگی فضایی در مقابل ایستایی فضایی
59122
هنگام تغییر سطح اهمیت، مناطق رد را می توان به صورت تو در تو یا غیر تودرتو انتخاب کرد. می‌خواستم بدانم ملاحظات نظری و عملی در استفاده از مناطق رد تودرتو یا غیر تودرتو چیست؟ با تشکر و احترام!
مناطق رد تو در تو یا نه؟
13186
من چند نقطه داده دارم که هر کدام شامل 5 بردار از نتایج گسسته انباشته شده است، که نتایج هر بردار توسط توزیع متفاوتی تولید می شود (نوع خاصی که مطمئن نیستم، بهترین حدس من Weibull است، با پارامتر شکل که در حدود نمایی به توان متفاوت است. قانون (تقریباً از 1 تا 0).) من به دنبال استفاده از یک الگوریتم خوشه بندی مانند K-Means برای قرار دادن هر نقطه داده در گروه هایی بر اساس ویژگی های توزیع 5 جزء آن. می خواستم بدانم آیا معیارهای مسافت ثابتی وجود دارد که برای این اهداف زیبا باشد. من تا به حال سه ایده داشته ام، اما یک آماردان باتجربه نیستم (بیشتر یک دانشمند کامپیوتری مبتدی در زمینه داده کاوی) بنابراین نمی دانم که چقدر دور از مسیر هستم. 1. از آنجایی که من دقیقاً نمی دانم با چه نوع توزیع هایی سروکار دارم، رویکرد brute-force من برای حل این مشکل این بود که هر یک از توزیع ها (من 5 در هر نقطه) را به هر یک از مقادیر داده های گسسته مربوطه تقسیم کنم ( من هر کدام را به یک طول مشابه با صفر در انتها اضافه می کنم) و از هر یک از این مقادیر به عنوان یک ویژگی جداگانه برای خود نقطه داده استفاده می کنم. من سعی کردم از فاصله منهتن و فاصله اقلیدسی به عنوان معیارهای مبتنی بر این ویژگی ها برای PDF و CDF استفاده کنم. 2. دوباره، چون نمی‌دانم چه نوع توزیع‌هایی دارم، به این نتیجه رسیدم که اگر قرار باشد فاصله بین توزیع‌های کلی را اندازه‌گیری کنم، می‌توانم از نوعی آزمون ناپارامتری به صورت زوجی بین توزیع‌ها استفاده کنم، مانند KS. -تست، برای یافتن این احتمال که توزیع های داده شده توسط PDF های مختلف تولید شده اند. من فکر کردم که اولین گزینه من (در بالا) با استفاده از فاصله منهتن، نوعی حد بالایی برای آنچه ممکن است با استفاده از این رویکرد به دست بیاورم باشد (زیرا آمار KS حداکثر مقدار مطلق تفاوت CDFها است، جایی که فاصله منهتن برابر است با مجموع مقادیر مطلق تفاوت ها در فایل های PDF). سپس به ترکیب KS-Statistics یا P- مقادیر مختلف در هر نقطه داده فکر کردم، احتمالاً با استفاده از فاصله اقلیدسی، اما احتمالاً فقط حداکثر همه این مقادیر را در نظر بگیرم. 3. در نهایت، در تلاش برای استفاده از مقدار کمی که می توانم در مورد شکل توزیع ها تفسیر کنم، فکر کردم ممکن است سعی کنم پارامترهای توزیع ها را مطابق با منحنی Weibull تخمین بزنم. سپس می‌توانم توزیع‌ها را بر اساس تفاوت‌های موجود در دو پارامتر توزیع Weibull، لامبدا و k (مقیاس و شکل) خوشه‌بندی کنم، که احتمالاً طبق واریانس این پارامترها یا چیزی شبیه به آن نرمال شده‌اند. این تنها موردی است که فکر می‌کنم ممکن است ایده‌ای در مورد نحوه عادی‌سازی پارامترها داشته باشم. بنابراین سوال من این است که چه معیار/روش هایی را برای خوشه بندی توزیع ها توصیه می کنید؟ آیا من حتی با هر یک از اینها در مسیر درستی هستم؟ آیا K-Means حتی الگوریتم خوبی برای استفاده است؟ ویرایش: شفاف سازی داده ها. هر نقطه داده (هر شی «Obj» که می‌خواهم خوشه‌بندی کنم) در واقع حاوی «5 بردار» داده است. من می دانم که دقیقاً 5 فاز وجود دارد که این اشیاء می توانند در آن قرار گیرند. ما (به منظور ساده سازی) خواهیم گفت که هر بردار دارای طول N است. هر یک از این بردارها (آن را بردار i می نامند) یک توزیع احتمال با عدد صحیح x-value از 1 تا N است، که در آن هر مقدار y مربوطه نشان دهنده احتمال اندازه گیری مقدار x در فاز i است. شیء Obj. سپس N حداکثر مقدار x است که من انتظار دارم در هر مرحله از جسم اندازه گیری کنم (این در واقع یک عدد ثابت در تحلیل من نیست). من این احتمالات را به روش زیر تعیین می‌کنم: 1. یک «Obj» را می‌گیرم و آن را در «فاز i» برای «k آزمایش» قرار می‌دهم و در هر آزمایش اندازه‌گیری می‌کنم. هر اندازه گیری یک عدد کامل است. من این کار را برای هر یک از 5 فاز یک جسم واحد و به نوبه خود برای هر شی انجام می دهم. داده‌های اندازه‌گیری خام من برای یک شی منفرد ممکن است به این صورت باشد: بردار 1. [90، 42، 30، 9، 3، 4، 0، 1، 0، 0، 1] بردار 2. [150، 16، 5، 0، 1، 0، 0، 0، 0، 0، 0] ... بردار 5. [16، ... ...، 0] 2. سپس من با توجه به تعداد کل اندازه‌گیری‌ها در آن بردار، هر یک از بردارها را به تنهایی عادی کنید. این یک توزیع احتمال در آن بردار به من می دهد، که در آن هر مقدار y مربوطه نشان دهنده احتمال اندازه گیری مقدار x در فاز i است.
خوشه بندی توزیع های احتمال - روش ها و معیارها؟
8632
ISO VIM آنها را به صورت زیر تعریف می کند: > **روش اندازه گیری:** توصیف عمومی یک سازمان منطقی > عملیات مورد استفاده در یک اندازه گیری. > > **رویه اندازه گیری:** شرح دقیق یک اندازه گیری بر اساس > یک یا چند اصل اندازه گیری و یک روش اندازه گیری معین، > بر اساس یک مدل اندازه گیری و شامل هرگونه محاسبه برای به دست آوردن نتیجه اندازه گیری. اما من هنوز مطمئن نیستم که تفاوت آنها چیست. کسی می تواند این را برای من توضیح دهد، شاید با چند مثال؟
تفاوت بین روش اندازه گیری و روش اندازه گیری چیست؟
110813
تخمین پراکندگی ناشناخته در سنجش فشرده مقاله ای در مورد سیگنال پراکنده است. تازه دارم مفاهیم رو یاد میگیرم در پاراگراف اول، می گوید که وقتی تعداد نمونه های داده مشاهده $n$ کمتر از بعد سیگنال $p$ باشد، سیگنال مورد نظر $x$ پراکنده است. من هرگز با اصطلاح بعد سیگنال مواجه نشده ام. میشه لطفا یکی توضیح بده بعد سیگنال چیه؟
بعد سیگنال چیست
54579
سوژه های من موش هایی هستند که 60 ثانیه در استخر شنا می کنند. DV میزان زمانی است که آنها در هر ربع استخر صرف می کنند. عملکرد هر موضوع مستقل از هر موضوع دیگری است. با این حال، نرم افزار هر فریم 0.5 ثانیه را در یکی از چهار ربع طبقه بندی می کند. اگر موضوع در یک ربع باشد، طبق تعریف در سه ربع دیگر نیست. روش معمول برای تجزیه و تحلیل این داده ها با اندازه گیری های مکرر ANOVA است، با هر ربع یک اندازه، اما اگر هر یک از مشاهدات در هر ربع وابسته به آنچه در سه ربع دیگر اتفاق افتاده باشد، این به نظر من درست نیست. آیا من به این درست فکر می کنم یا اقدامات تکراری ANVOVA در این مورد خوب است؟
آیا وابستگی یک طبقه بندی به طبقه بندی دیگر نقض فرض استقلال برای ANOVA است؟
95365
اگر این خیلی واضح است یا قبلاً در جای دیگری از شما پرسیده شده است، پیشاپیش عذرخواهی می کنم - من خیلی ریاضی نیستم، بنابراین مطمئن نیستم که چگونه هوشمندانه این را بپرسم. بهترین راه برای گروه بندی مجموعه ای از مقادیر داده در گروه های _n_، به گونه ای که هر گروه کمترین محدوده ممکن را داشته باشد، چیست؟ فرض کنید مقادیر نمونه من به شرح زیر است: {1، 2، 7، 8، 9، 15، 16، 16، 17، 18، 18، 20} و من می خواهم 3 گروه با کمترین میزان اسپرد در هر کدام ایجاد کنم. گروه ما می‌توانیم سه گروه را مانند این انجام دهیم: {1، 2، 7} گسترش = 6 {8، 9} گسترش = 1 {15، 16، 16، 17، 18، 18، 20} گسترش = 5 ------ --------------------------------------- مجموع = 12 یا اگر ما دو گروه اول را دوباره کار کنیم که می توانیم آن را کاهش دهیم: {1, 2} spread = 1 {7, 8, 9} spread = 2 {15, 16, 16, 17, 18, 18, 20} spread = 5 ---- ----------------------------------------- کل = 8 سوال من این است: آیا روشی ریاضی برای تعیین نحوه تشکیل گروه ها وجود دارد؟ به عنوان نسخه معکوس سوال، آیا راهی وجود دارد که نه **تعداد** گروه ها، بلکه **حداکثر گسترش** یک گروه را مشخص کرد و گروه ها را به گونه ای تعیین کرد که از مقدار آنها تجاوز نکند. گسترش؟ این ممکن است متقاطع به الگوریتم های برنامه نویسی باشد، بنابراین من آن را در Stack Overflow نیز پست خواهم کرد.
مقادیر داده را گروه بندی کنید تا هر گروه حداقل محدوده را داشته باشد
81975
من فقط در یک مجله علمی نسبتاً معتبر (محبوب) (مدظله العالی آلمان، 02/2013، ص. 36) در مورد یک آزمایش جالب (متاسفانه بدون منبع) مطالعه کردم. توجه من را جلب کرد زیرا به طور شهودی در اهمیت نتیجه شک داشتم، اما اطلاعات ارائه شده برای بازتولید آزمایش آماری کافی بود. محققان این سوال را مطرح کردند که آیا سرماخوردگی در هوای سرد احتمال ابتلا به سرماخوردگی را افزایش می دهد. بنابراین آنها به طور تصادفی یک گروه 180 دانش آموز را به دو گروه تقسیم کردند. یک گروه مجبور شد پاهای خود را به مدت 20 دقیقه در آب سرد نگه دارد. دیگری کفش هایش را نگه داشت. به نظر من نوعی دستکاری خنده دار است، اما از طرف دیگر من پزشک نیستم و شاید پزشکان خنده دار فکر کنند. مسائل اخلاقی به کنار. به هر حال پس از 5 روز، 13 نفر از دانش آموزان گروه درمان سرما خورده بودند، اما فقط 5 نفر از گروهی که کفش خود را به پا می کردند. بنابراین نسبت شانس این آزمایش 2.87 است. با توجه به حجم نمونه نسبتاً کوچک، شروع به تعجب کردم که آیا این تفاوت ممکن است قابل توجه باشد. بنابراین من دو آزمایش انجام دادم. ابتدا یک آزمون ساده برای برابری نسبت ها با استفاده از تقریب عادی. این تست $z=1.988$ با $p=0.0468$ دارد. حدس من این است که این همان چیزی است که محققان آزمایش کردند. این واقعاً فقط قابل توجه است. با این حال، این آزمون z به دلیل تقریب معمولی، اگر اشتباه نکنم، فقط در نمونه های بزرگ معتبر است. علاوه بر این، میزان شیوع نسبتاً کوچک است و من نمی‌دانم که آیا این ممکن است بر میزان پوشش فاصله اطمینان اثر تأثیری نداشته باشد. بنابراین دومین تلاش من یک آزمون کای اسکوئر استقلال بود، هم با شبیه سازی مونت کارلو و هم با کای مربع استاندارد پیرسون. در اینجا من مقادیر p را هر دو در مورد $p=.082$ پیدا می کنم. اکنون همه اینها در مورد نتایج چندان اطمینان بخش نیست. من تعجب کردم که آیا گزینه های بیشتری برای آزمایش این داده ها وجود دارد و نظر شما در مورد این دو آزمون چیست (به ویژه مفروضات آزمون مهم اول)
تست $z$-test در مقابل $\chi^2$-تست برای مقایسه احتمال سرماخوردگی در 2 گروه
112706
من سعی می کنم یک برآوردگر GMM ساده برای میانگین یک متغیر تصادفی توزیع شده نرمال با استفاده از سه ممان مرکزی فرد اول یک توزیع نرمال ایجاد کنم (که همه آنها از نظر نظری باید صفر باشند). در GMM دو مرحله‌ای، معمولاً اولین مرحله به حداقل رساندن تابع هزینه حداقل مربعات خطاهای هر شرط لحظه‌ای در نمونه است. رسیدن به یک تخمین اولیه از میانگین مو. بردار خطاهای بعد از این مرحله اول (که در اولین تخمین پارامتر ارزیابی می شود) سپس برای ایجاد یک ماتریس کوواریانس شرایط لحظه ای که یک ماتریس وزن دهی از آن مشتق می شود استفاده می شود. سپس در مرحله دوم برای رسیدن به یک برآورد کارآمد از میانگین استفاده می شود. من این را در Matlab کدگذاری کرده ام و تا جایی که می دانم، این کار به درستی انجام شده است. مسئله ای که من دارم این است که ماتریس کوواریانس بسیار نزدیک به مفرد است - به این معنی که معکوس ندارد. به نظر می رسد که مرحله 1 خوب کار می کند - مشکل در مرحله دوم به دلیل این مشکل مطابق با نیاز کار نمی کند. هر گونه کمکی برای تشخیص اینکه چرا من با این مشکل مواجه شده ام بسیار قدردانی خواهد شد! این کد متلب است. روشن؛ همه را ببند clc; %% تولید داده های عادی mu = 10; var = 4; N = 10; X = mu + sqrt(var)*randn(N,1); %% تعاریف تابع برای GMM پایه f_cost_c = @(mu_hat,degree) (1/N)*sum((X-mu_hat).^degree); % تعداد لحظه های فرد را برای درج در هزینه مشخص کنید fn N_moments = 3; f_cost_v = @(mu_hat)f_cost_c(mu_hat,1); برای i = 1:N_moments-1 f_cost_v = @(mu_hat)[f_cost_v(mu_hat); f_cost_c(mu_hat،2*i+1)]؛ پایان f_L_cost_c = @(mu_hat) f_cost_v(mu_hat)'*f_cost_v(mu_hat); %% مقدار mu_hat را بیابید که هزینه مجذور پایه را به حداقل می رساند (مرحله اول 2S GMM) mu_hat_0 = 5; mu_hat = fminunc(f_L_cost_c,mu_hat_0); mu_hat_1 = mu_hat; %% برای تولید ماتریس وزنی v_cost = f_cost_v(mu_hat) از مقدار بردار هزینه در مقدار یافت شده در مرحله 1 استفاده کنید. S_hat = (1/N_moments)*(v_cost*v_cost'); W_hat = inv(S_hat); %% مرحله دوم 2SLS GMM % تعریف هزینه جدید با استفاده از ماتریس وزن تخمینی f_L2_cost_c = @(mu_hat) f_cost_v(mu_hat)'*W_hat*f_cost_v(mu_hat); mu_hat_0 = mu_hat; mu_hat = fminunc(f_L2_cost_c,mu_hat_0);
برآوردگر GMM دو مرحله ای در متلب
95369
من در حال ساخت یک مدل پیش بینی بر اساس روش k-امین نزدیکترین همسایه (KNN) هستم، زیرا رویدادهای مشابهی دارم. از آنجایی که الگوریتم نقاط را به مجموعه ها طبقه بندی نمی کند، می خواستم بدانم آیا راه یا معیاری برای تعیین تعداد همسایگان وجود دارد. نحوه تخمین احتمال مقادیر پیش بینی شده بر اساس نزدیکترین همسایگان
الگوریتم نزدیکترین همسایه برای پیش بینی
48435
من می خواهم بر اساس مجموعه داده های آموزشی و آزمایشی وضعیت بعدی را پیش بینی کنم. بنابراین من داده‌هایم را به یک مجموعه قطار و آزمایش تقسیم کردم و MLE را در مجموعه قطار محاسبه کردم و می‌خواهم وضعیت بعدی را در مجموعه داده آزمایشی پیش‌بینی کنم. مشکل اکنون این است که می‌تواند حالت‌هایی در مجموعه تست وجود داشته باشد که هرگز از طریق مجموعه قطار یاد نگرفته‌اند. چگونه با آن کنار بیایم؟ اگر من راه‌اندازی قطار/آزمایش مشابهی داشته باشم و بخواهم احتمال ورود به سیستم را در مجموعه داده آزمایشی محاسبه کنم، با حالت‌هایی که هرگز در مجموعه قطار رخ نمی‌دهند، مشکل مشابهی رخ می‌دهد. امیدوارم کسی بتواند در این مورد به من کمک کند! با احترام، فیلیپ
پیش‌بینی زنجیره مارکوف با حالت‌های ناشناخته
110933
من با زمان های اجرای یک الگوریتم کار می کنم و باید تغییرپذیری آنها را ارزیابی کنم. انحراف استاندارد معیاری است که به شما می گوید یک توزیع معین چقدر از میانگین آن متفاوت است. با توجه به سوال تعریف دقت تخمین‌گر، در پاسخ استپاشا می‌گوید که > دقت را می‌توان 1/واریانس، یا 1/انحراف استاندارد تعریف کرد، اما انحراف معیار به بزرگی داده‌ها بستگی دارد. بنابراین، چیزی که من به دنبال آن هستم، فرآیندی است که برای استخراج میزان تغییر داده ها، مستقل از بزرگی آن استفاده می شود. به عنوان مثال، توزیعی مانند {100،101،102،99،101} دقت بیشتری نسبت به {0.1،0.2،0.3،0.5} دارد اما انحراف استاندارد آن بسیار بزرگتر است. آیا باید فقط بر میانگین توزیع تقسیم کنم؟ این ممکن است فقط یک مورد بسیار پیش پا افتاده از آمار باشد (تقصیر من برای به خاطر سپردن آن کلاس ها)، اما می خواهم بدانم روش استاندارد برای ارزیابی این چیست و چگونه نام دارد.
دقت داده مستقل از محدوده داده
111140
من همیشه مفهوم تعیین تعداد «ایده‌آل» مؤلفه‌ها/فاکتورها برای یک ICA/PCA/FA از طریق یک طرح تصویری را مفید و سریع، اما همچنین کمی متزلزل می‌دانستم. در تلاشی برای واضح‌تر کردن «آرنج» طرح اسکری (و بدون تلاش برای تطبیق تابعی با نقاط داده‌ی نمودار خطی). داشتم به این فکر می‌کردم که آیا ترسیم مختصات در مقیاس لگاریتم می‌تواند به روشن شدن کمک کند. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/sLXWk.png) طرح بدون ورود به سیستم (اول از سمت چپ) بسیار دسته بندی شده است، اما به همان اندازه که با آن بدیهی است. پلات های اسکری را نشان می دهد که عامل سوم آرنج است (و بنابراین تعداد فاکتورهای ایده آل من باید 3 باشد). در حال حاضر، همچنین به نظر می‌رسد که مقیاس لاگ من در پایه 2 یا 10 باشد، تفاوت کمی برای ظاهر طرح دارد - که حدس می‌زنم خوب است. در نهایت، من متوجه شدم که نمودارهای ثبت X/Y بیشترین ویژگی را برای عامل سوم نشان می‌دهند، و آن را به نقطه‌ای تبدیل می‌کند که در آن دو نوع منحنی در نمودار به هم می‌رسند. همچنین فکر می کنم این ویژگی در اینجا بهتر از طرح (خطی) اول خودنمایی می کند. آیا می توان فرض کرد که همیشه اینطور است؟ آیا ارزش توصیه به استفاده از مختصات ورود به سیستم X/Y برای نمودارهای اسکری را دارد؟
آیا استفاده از مقیاس log در نمودارهای Scree برای PCA/ICA/FA ایده خوبی است؟
110935
**زمینه:** می خواهم آماری را به خوانندگان ارائه دهم که شباهت دو مجموعه اعداد را نشان می دهد. من فکر می کردم که آنچه را که با ضریب همبستگی نیاز دارم را دارم (در واقع، من ضریب تعیین / r2 98.7 دارم). اما من تازه متوجه شدم که r و r2 فقط این را می‌رسانند که دو مجموعه اعداد در حرکت به سمت بالا و پایین با هم ارتباط دارند. و آنچه من می خواهم (همچنین) منتقل کنم این است که آنها نیز تقریباً یکسان هستند. اما با این حال احساس می‌کنم تحلیل رگرسیون بیش از نیاز من است (یا به‌طور دقیق‌تر، بیشتر از آن چیزی که می‌توانم با اکسل انجام دهم). برای کمی دقیق تر، مجموعه ای از داده ها را با درآمد ماهانه برای دو فروشگاه در یک مرکز خرید تصور کنید. ضرایب همبستگی نشان می دهد که آیا درآمد فروشگاه ها متغیر است یا خیر. اما من می‌خواهم نشان دهم که درآمد ماهانه نیز تقریباً همان عدد واقعی است. در یک نمودار، آنها از نظر بصری یکی روی دیگری قرار دارند. اما آیا معیاری آماری وجود دارد که آن را نشان دهد؟ **سوال:** معیاری از ارتباط چیست که شباهت واقعی مقادیر را بین دو متغیر و نه فقط همبستگی را بیان می کند؟
معیار ارتباطی که شباهت واقعی مقادیر بین دو متغیر و نه فقط همبستگی را بیان می کند چیست؟
28230
متقاطع از ریاضی. اگر لازم است قبل از پست کردن اینجا کمی منتظر بمانم، به من اطلاع دهید. مثلاً 30 امتیاز). برای خطی بودن باید رگرسیون حداقل مربعات را انجام دهم. اگر مجموعه داده ها خطی است، باید ببینم که نزدیک به عمودی است یا افقی. چگونه می توانستم این کار را انجام دهم؟
تست هم خطی و موازی با محورها
31581
میدانم میدان گاوسی چیست. با این حال، من کاملاً مطمئن نیستم که منظور از ثابت چیست. من این چیز ثابت را در بسیاری از مکان‌ها مانند فرآیندهای خودرگرسیون ثابت و غیره دیده‌ام، اما در واقع نمی‌دانم منظور از ثابت چیست.
میدان گاوسی ساکن چیست؟
111149
من می خواهم تفاوت بین استفاده از ماتریس فاصله اقلیدسی یا ماتریس همبستگی را به عنوان ورودی به الگوریتم nMDS درک کنم. من نمودارهای MDS هر دو را تکمیل کرده ام، و با وجود مشابه بودن، فواصل بین نقاط متفاوت است (در برخی موارد کاملاً چنین است). من می‌دانم که هر دو مفاهیم مختلف شباهت را اندازه‌گیری می‌کنند، اما با استفاده از یک روش نسبت به روش دیگر، چه بینشی از داده‌ها به دست می‌آورم؟ با تشکر
مقیاس‌بندی چند بعدی: تفسیر خروجی ماتریس‌های فاصله مختلف (اقلیدسی یا همبستگی)
110819
من در حال یادگیری مفاهیم رگرسیون پراکنده و مواجهه با موانع اولیه در اصطلاح هستم. مدل رگرسیون پراکنده تعریفی را از اینکه منظور از پراکنده است را توضیح می دهد. وقتی تعداد نمونه‌های $n$ کمتر از بعد سیگنال $p$ باشد، می‌گوییم مدل رگرسیون پراکنده است. 1. برای یک مدل، $x_t = a1x_{t-1} + a2x_{t-2} + نویز گاوسی سفید$، پارامترهای $(a1,a2)$ با زمان و برای نمونه $n=t$ تغییر نمی کند. ما فقط دو پارامتر دریافت می کنیم. سپس، چگونه می شود که مقاله می گوید $A \in R^{n \times p}$؟ این به چه معناست؟ $A$ بردار ضرایب است و ماتریس نیست. سپس $R^{n \times p}$ به چه معناست؟ 2. چیزی که من فهمیدم این است که تعداد ضرایب صفر بیشتری وجود دارد، اما اگر چنین است، یک کران بالایی وجود دارد که نشان می دهد سیگنال پراکنده است؟ 3. من به دنبال مرجعی هستم که بتوانم چنین مدل AR و MA را پیدا کنم. کسی میتونه لینکی یا کمکی در ساختن همچین مدلی معرفی کنه؟ متشکرم
مدل رگرسیون پراکنده چیست؟
111492
من 60 بیمار سرطانی دارم. مرحله بندی و وزن تومورشان را بر حسب گرم بررسی کرده ام. یک متغیر مرحله بندی سرطان است - مرحله 1، مرحله 2، مرحله 3 و مرحله 4 (به ترتیب افزایش). متغیر دیگر وزن تومور است - یک متغیر پیوسته. من می خواهم با افزایش مرحله از مرحله 1 به 4 بررسی کنم که آیا وزن تومور نیز افزایش می یابد. میشه لطفا راهنمایی کنید که از کدام تست استفاده کنم؟
از کدام آزمایش برای مشاهده افزایش وزن تومور در مراحل مختلف استفاده کنیم؟
8634
با توجه به دو توزیع نرمال دو متغیره $P \equiv \mathcal{N}(\mu_p, \Sigma_p)$ و $Q \equiv \mathcal{N}(\mu_q, \Sigma_q)$، سعی می‌کنم جنسن-شانون را محاسبه کنم. واگرایی بین آنها، تعریف شده (برای حالت گسسته) به صورت: $JSD(P\|Q) = \frac{1}{2} (KLD(P\|M)+ KLD(Q\|M))$ که $KLD$ واگرایی Kullback-Leibler است و $M=\frac{1}{2}(P+Q)$ من راه را برای محاسبه $KLD$ بر حسب پارامترهای توزیع، و بنابراین $JSD$ پیدا کرد. شک من این است: 1. برای محاسبه $M$، من فقط $M \equiv \mathcal{N}(\frac{1}{2}(\mu_p + \mu_q), \frac{1}{2}( \Sigma_p + \Sigma_q))$. آیا این درست است؟ 2. من در [1] خوانده‌ام که $JSD$ محدود است، اما زمانی که آن را برای توزیع‌های معمولی همانطور که در بالا توضیح داده شد، درست به نظر نمی‌رسد. آیا این بدان معناست که من آن را اشتباه محاسبه می کنم، یک فرض را نقض می کنم یا چیز دیگری را که نمی فهمم؟
واگرایی جنسن-شانون برای توزیع های نرمال دو متغیره
95364
شرکت کنندگان در یک مطالعه بر اساس تعداد دفعاتی که این موارد در روز ارائه می شوند، از نظر توانایی آنها در به خاطر آوردن موارد مورد آزمایش قرار می گیرند. ما عملکرد آنها را در یک بازه زمانی 4 روزه دنبال می کنیم. بنابراین من دو متغیر مستقل دارم: تعداد ارائه ها و روزها. اساساً می‌خواهم بدانم آیا تأثیر خطی تعداد ارائه‌ها وجود دارد و این تأثیر چگونه در طول زمان تغییر می‌کند؟ در ابتدا به یک مدل خطی با یک بتا برای هر متغیر وابسته فکر می کردم. اما مسئله این است که انجام این کار به یک تعامل پاسخ نمی دهد، زیرا اگر به درستی متوجه شده باشم، عبارت تعامل به عنوان متغیر دیگری وارد می شود که از ضرب مقادیر دو رگرسیور دیگر تشکیل شده است. در نهایت، من به استفاده از مدلی فکر می‌کنم که در آن تعداد رگرسیور ارائه‌ها را به طور مستقل در هر روز تنظیم کنم و یک ANOVA روی نسخه‌های بتا برای آزمایش اثر تعامل اجرا کنم. آیا با انجام این کار درست خواهم بود یا رویکرد بهتری برای تحلیل وجود دارد؟
تکامل شیب ها در طول زمان
9997
من مقداری یادگیری ماشینی انجام داده ام و از اعتبار سنجی متقاطع k-fold برای ارزیابی عملکرد تعمیم الگوریتم استفاده کرده ام. من اعتبار متقاطع k-fold را با k = 5 و k = 200 امتحان کردم و نتایج بسیار متفاوتی را برای طبقه‌بندی ماشین بردار پشتیبان دریافت کردم. k دقت SVM ------------------ 5 75% 200 94% به نظر می رسد این تفاوت بزرگی در دقت است که ناشی از تغییر تعداد تقسیماتی است که برای k-fold انجام می دهیم. اعتبار سنجی متقابل آیا دلیلی برای این وجود دارد؟ به نظر نمی رسد هیچ مرجعی در مورد مطالعاتی که برای بررسی اثرات استفاده از مقادیر مختلف k انجام شده است، پیدا کنم. بدیهی است که من تصمیم دارم از کدام مقدار k در گزارش خود استفاده کنم، برداشت های کاملاً متفاوتی از کیفیت طبقه بندی کننده من می دهد!
اطلاعات در مورد اینکه چگونه مقدار k در اعتبار سنجی متقاطع k برابر بر دقت های حاصل تأثیر می گذارد
111147
بنابراین من کمی گیج هستم که چرا تعداد راه‌های دریافت خانه کامل این است: 13 دلار \انتخاب 1 $$ 12 \انتخاب 1$$ 4 \انتخاب 3$$ 4 \انتخاب 2$ در مقابل: 13 $ \ انتخاب 2 $ $ 4 \ انتخاب 3 $ $ 4 \ انتخاب 2 $. از طرف دیگر، با 2 جفت، چرا اینطور است: 13 دلار \انتخاب 2 $$ 4 \انتخاب 2$$ 4 \انتخاب 2$$4 \انتخاب 1$$11 \انتخاب 1$ بیش از: 13 $ \انتخاب 1 $$ 12 \انتخاب 1 $$ 4 \انتخاب 2$$ 4 \انتخاب 2$$4 \انتخاب 1$$11 \انتخاب 1 دلار
تفاوت بین فول هاوس و دو جفت با توجه به اعداد انتخاب شده؟
54570
من سنسوری دارم که می تواند تغییرات جزئی فاصله را تشخیص دهد. یک سری زمانی تولید می کند. من می خواهم آن را به سمت مردم نشان دهم و چیزهایی مانند الگوی خواب آنها را تشخیص دهم. چگونه می‌توان سیستمی ساخت که بفهمد «طبیعی» برای این کاربر چه معنایی دارد و می‌تواند جملاتی مانند «در 3 ماه گذشته الگوی خواب شما 3 ساعت تغییر کرده است، این بد است». در اینجا تصویری از ظاهر این سریال در طول یک روز آمده است![http://i.stack.imgur.com/9DbJy.jpg](http://i.stack.imgur.com/GJTF1.jpg ) یکی از دگرگونی های آن را موقعیت می نامیم، سعی می کند موقعیتی را که سوژه در اختیار دارد (دراز کشیدن، نشستن و غیره) نشان دهد. ![http://i.stack.imgur.com/h3G3j.png](http://i.stack.imgur.com/JvwoB.png) از هر ایده ای استقبال می شود. من تحلیل سری های زمانی و کاربردهای آن: با مثال های R توسط Shumway و Stoffer را بررسی کردم. من فکر می کنم به دلیل ماهیت چرخه ای داده ها باید تحلیل طیفی و فیلترینگ را بررسی کنم. من از پایتون/پاندا استفاده کرده‌ام و به دنبال انجام کار با مدل‌های آماری و scikit-learn هستم. ویرایش 1: فعالیت داده‌های «خام» از حسگر است. فاصله است (مقادیر بالاتر به سنسور نزدیکتر است) اما ارزش آن در حساسیت آن نهفته است. من می خواهم الگوهای تنفس را در صورت امکان تشخیص دهم. در مورد موقعیت، من در واقع مطمئن نیستم که فرمول آن دگرگونی چیست، از نویسنده می پرسم.
تشخیص ریتم شبانه روزی در یک سری زمانی
110811
### پیشینه عمومی من چندین بار دو نوع سوال را برای دانش آموزان مطرح کرده ام. نوع 1 من شش بار تزریق کرده ام و نوع 2 را پنج بار تجویز کرده ام. این دو سوال در یک ایده اصلی اما به روش های متفاوت هستند. هر سوال فقط یک سوال تک گزینه ای است. دانش‌آموزان فقط یک پاسخ ارائه می‌دهند (یعنی یک حباب روی یک صفحه اسکرانترون). من درصد درستی در هر مدیریت هر سوال را می دانم. یعنی داده های من برای یکی از سؤالات چیزی شبیه (35٪، 32٪، 24٪ ...) و برای دیگری (20٪، 24٪ ...) به نظر می رسد. من در مجموع حدود 11 نقطه داده دارم که به دو دسته تقسیم شده اند. ### سوال می‌خواهم بدانم که آیا دانش‌آموزان در یک نوع سوال در مقایسه با نوع دیگر بهتر عمل می‌کنند؟ آیا آزمون استنباط یا دسته ای از آزمون ها وجود دارد که در اینجا مناسب باشند؟ ### جزئیات احتمالاً مهم * **تعداد متفاوتی از دانش‌آموزان** با هر مدیریت درگیر هستند، اما همه آنها بین 60 تا 180 نفر هستند. وقتی به درصد درست نگاه می کنیم * انحرافات استاندارد مرتبط با توزیع هایی که به تازگی ذکر شد بستگی زیادی به سوال خاصی دارد که پرسیده می شود (احتمالاً به دلیل تفاوت در زمینه های دانشجویی و غیره) بنابراین، من نمی خواهم نوعی از $\sqrt{Np( را فرض یا تجویز کنم. 1-p)}$ یا سایر انحرافات استاندارد برای هر دولت. ### چیزی که من در نظر گرفتم تمایل اولیه من این است که نوعی آزمون t-weighted را انجام دهم، اما چیزی پیدا نکردم. سپس مسیر بررسی تست های متاآنالیز را دنبال کردم، اما با اینها کاملاً ناآشنا هستم. آیا آزمون های استنتاجی وجود دارد که به این وضعیت خاص رسیدگی کند؟
تست استنتاج زمانی که نقاط داده میانگین هستند
46941
مدل $ y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \epsilon$ را در نظر بگیرید. 1. رابطه بین ضرایب همبستگی $r_{y,x_1}$, $r_{y,x_2}$ و ضرایب رگرسیون $\beta_1$ و $\beta_2$ چیست؟ 2. به طور خاص، چگونه می توان موقعیتی را تفسیر کرد که یک ضریب همبستگی خاص از نظر آماری معنی دار است اما ضریب رگرسیون مربوطه از نظر آماری معنی دار نیست؟ 3. یادم می آید که مفهومی به نام «ضرایب همبستگی جزئی» را خوانده بودم. آیا این به نوعی در زمینه فوق مرتبط است؟
رابطه بین ضرایب همبستگی و ضرایب رگرسیون در رگرسیون چندگانه چیست؟
83054
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/SeF6U.jpg) من دستوری از rvf plot اجرا کردم. آیا این نمودار هتروسکداستیکی را نشان نمی دهد؟
هتروسکداستیکی تفسیر نمودار
1399
من علاقه مند به بدست آوردن یک فاصله اطمینان بوت استرپ در کمیت X هستم، زمانی که این کمیت در هر یک از 10 فرد 10 بار اندازه گیری شود. یک رویکرد این است که میانگین را برای هر فرد به دست آوریم، سپس ابزار را راه‌اندازی کنیم (مثلاً نمونه‌برداری مجدد از ابزار با جایگزینی). روش دیگر این است که در هر تکرار از رویه راه‌اندازی موارد زیر را انجام دهید: در هر فرد، 10 مشاهدات آن فرد را با جایگزینی مجدداً نمونه‌گیری کنید، سپس میانگین جدیدی را برای آن فرد محاسبه کنید، و در نهایت میانگین گروه جدیدی را محاسبه کنید. در این رویکرد، هر فردی که در مجموعه داده‌های اصلی مشاهده می‌شود، همیشه به میانگین گروهی در هر تکرار رویه بوت استرپ کمک می‌کند. در نهایت، رویکرد سوم ترکیب دو رویکرد فوق است: نمونه‌گیری مجدد از افراد و سپس نمونه‌گیری مجدد در درون آن افراد. این رویکرد با رویکرد قبلی متفاوت است زیرا به همان فرد اجازه می‌دهد در هر تکرار به میانگین گروه کمک کند، اگرچه از آنجایی که هر مشارکت از طریق یک روش نمونه‌گیری مجدد مستقل ایجاد می‌شود، ممکن است انتظار داشته باشیم که این مشارکت‌ها کمی از یکدیگر متفاوت باشند. در عمل، متوجه می‌شوم که این رویکردها تخمین‌های متفاوتی را برای فاصله اطمینان به دست می‌دهند (مثلاً با یک مجموعه داده، متوجه شدم که رویکرد سوم فاصله‌های اطمینان بسیار بزرگ‌تری نسبت به دو رویکرد اول به دست می‌دهد)، بنابراین کنجکاو هستم که هر کدام ممکن است چه باشند. به نمایندگی تفسیر شده است.
به دست آوردن و تفسیر فواصل اطمینان بوت استرپ از داده های سلسله مراتبی
104499
من از سرویسی استفاده می کنم (بهینه، همانطور که اتفاق می افتد) که فاصله اطمینان را نشان می دهد اما توضیح نمی دهد که چیست. من فرض می‌کنم که یک بازه اطمینان دوجمله‌ای است، اما نمی‌دانم درصد اطمینان محدوده یا معنای دقیق آن چیست. جستجو در اینترنت کمکی نمی کند - هیچ کس توضیح واضحی درباره اینکه پیش فرض این نوع چیزها چیست، ندارد. به عنوان مثال، برای موفقیت 97 از 939 آزمایش، Optimizely می گوید 10.33٪ (±1.95). این 1.95± احتمالاً به چه معناست، دقیقاً؟ و بله، من قبلاً از آنها شکایت کرده ام که باید آن را مستند کنند. اما به وضوح، برخی از پیش فرض ها وجود دارد که آماردانان معمولاً از آن استفاده می کنند. چیست؟
محتمل ترین معنای فاصله اطمینان چیست؟
65706
من متغیرهای تصادفی $N$ برنولی $X_1، ...، X_{N}$ با پارامترهای شناخته شده $p_1، ...، p_{N}$ دارم. آنها با کوواریانس های شناخته شده وابسته هستند. چگونه می توانم از توزیع مشترک X_i$ نمونه برداری کنم؟ من به طور ایده آل رویکرد کلی تر از این را می خواهم.
چگونه می توانم از توزیع برنولی چند متغیره همبسته با کوواریانس های شناخته شده نمونه برداری کنم؟
11033
من یک مدل نصب شده دارم (از ادبیات). من همچنین داده های خام برای متغیرهای پیش بینی را دارم. برای بدست آوردن احتمالات باید از چه معادله ای استفاده کنم؟ اساساً چگونه می توانم داده های خام و ضرایب را برای بدست آوردن احتمالات ترکیب کنم؟
چگونه می توانم از بتای رگرسیون لجستیک + داده های خام برای بدست آوردن احتمالات استفاده کنم
50982
خوانندگان معتبر، آیا کسی مجاز است به صورت دستی علامت یک تخمین را تغییر دهد (به دست آمده از طریق OLS)، اگر این توسط یک نظریه اساسی پشتیبانی می شود؟ اولین ایده من این بود که این اساساً یک دستکاری است که تخمین ها را مجبور می کند به سمتی بروند که ما می خواهیم. در واقع، علامت برآورد باید مستقیماً جهت درست اثر را نشان دهد. با این حال، من شروع به فکر می کنم که ممکن است در برخی موارد توجیه شود. مورد من به شرح زیر است. فرض من این است که یک متغیر X تأثیر منفی بر Y دارد، با این حال X با یک پروکسی X1 نشان داده می شود (که در نهایت در مدل گنجانده می شود؛ X در رگرسیون ظاهر نمی شود). بنابراین، این مانند این است که بگوییم X تابعی از X1 است. X1 می تواند یک اثر منفی یا مثبت بر X داشته باشد. بنابراین، علامت تخمین B1 منفی است (همانطور که انتظار می رود، زیرا تأثیر متغیری با تأثیر منفی بر Y را نشان می دهد)، زمانی که تأثیر X1 بر X همچنین منفی است، اما زمانی مثبت است که تأثیر X1 بر X مثبت باشد. در موقعیت دوم، آیا می توانم یک - را در مقابل B1 قرار دهم و به روشی که اکنون انجام دادم (البته رسمی تر) توجیه کنم؟ * * * باید خودم را اصلاح کنم. علامت ضریب را تغییر نداده ایم، اما علامت مقادیر مشاهده شده را برای این متغیر تغییر داده ایم. ما داده های تجربی داریم و از پروکسی برای رقابت در سمت تقاضای بازار کار (متغیر مورد علاقه ما) استفاده می کنیم. ما از ادبیات قبلی می دانیم که رقابت بر متغیر وابسته تأثیر منفی دارد. 2 پراکسی که ما استفاده کردیم با Y و در نتیجه با رقابت نیز مرتبط هستند (مقدار پراکسی کاهش می یابد، رقابت افزایش می یابد، Y کاهش می یابد). سومین پراکسی که ما استفاده می کنیم یک نرخ است و به جای آن در همان جهت رقابت حرکت می کند (افزایش نرخ، افزایش رقابت) بنابراین روی Y تأثیر مثبت دارد که آن را به یک پروکسی بد تبدیل می کند. بنابراین، من فکر کردم که ممکن است از متضاد این متغیر به عنوان یک پروکسی برای رقابت استفاده کنیم، به طوری که رابطه منفی بین پراکسی و متغیر وابسته را حفظ کنیم. نقطه مقابل این نرخ (منظورم این است: 1-rate) معیاری است که در واقع منطقی است.
تغییر تخمین علامت به صورت دستی
59124
من به نوعی تازه وارد جنگل تصادفی هستم، بنابراین هنوز با برخی مفاهیم اولیه درگیر هستم. در رگرسیون خطی، مشاهدات مستقل، واریانس ثابت را فرض می‌کنیم. * تفاوت های کلیدی بین جنگل های تصادفی و خلیج های ساده از نظر مفروضات مدل چیست؟
فرضیات تصادفی جنگل
68242
اخیراً در حال خواندن یک مسئله برای تست یک دم بودم، یک قطعه در وضوح توجه من را جلب کرد: همانطور که در بخش قبل ذکر شد، سطح اهمیت، که با > **_α_** نشان داده شده است، احتمال ایجاد یک است. خطای نوع I با رد کردن **_Ho_**> وقتی که فرضیه صفر به عنوان یک برابری درست است، تصمیم گیرنده باید سطح اهمیت را مشخص کند برای ایجاد ** خطای نوع I > زیاد است، یک مقدار کوچک باید برای سطح اهمیت انتخاب شود، اگر > هزینه زیاد نباشد، مقدار بزرگتر مناسب تر است. _(Statistics for > Business and Economics، Anderson, 11ed, page 357)_ ما مفهوم سطح معناداری را می دانیم، اما سوال این است که... بر اساس چه چیزی برای سطح معناداری یک مقدار تعیین می کنیم؟ هنگامی که یک ارزش بالا؟ وقتی یک مقدار کوچک؟ چگونه هزینه ایجاد یک نوع خطا در تجارت یا تحقیق را تعیین کنیم؟ در چند کلمه، سطح اهمیت چگونه روی زندگی واقعی کار می شود؟
سطح اهمیت در زندگی واقعی
50984
من از یک مدل زمان شکست تسریع شده با توزیع Weibull برای پیش بینی زمان شکست استفاده می کنم. زمان‌های خرابی من از 1 تا 365 متغیر است، با بسیاری از (80%) نقاط داده که درست سانسور شده‌اند (بدون شکست مشاهده‌ای). در میان مشاهداتی که شکست داشتند، میانگین زمان شکست 90 روز بود. وقتی ماشین‌هایی را که در تمام طول سال کار می‌کنند در نظر بگیرید، توزیع زمان خرابی U شکل است - جرم زیادی بین 1 تا 90 روز و جرم زیادی برای ماشین‌هایی که در طول سال کار می‌کنند. با توجه به survreg من می توانم پارامترهای مقیاس و شکل برای توزیع Weibull را از یک برازش survreg بدست بیاورم. پارامتر مقیاس برابر است با exp(term intercept) از survreg، که در مورد من exp(9.3) ~ 11k است. این بسیار بزرگ به نظر می رسد، برای مثال هیست (rweibull (100000، مقیاس = 11000، شکل = 0.5)) زمان های شکست را نشان می دهد که بسیار بزرگ هستند - میانه آن هیستوگرام 5000 روز، نزدیک به 14 سال است! من می‌دانم که برای بیشتر داده‌ها نمی‌توانستیم یک شکست را مشاهده کنیم، بنابراین زمان تخمینی تا شکست تا حدودی زیاد است، اما این برای پیش‌بینی کمی غیرمنطقی است. آیا کاری وجود دارد که بتوانم با مدل یا داده ها انجام دهم، یا این پدیده به این دلیل است که 80 درصد داده ها به درستی سانسور شده اند و ما زمان خرابی بیش از یک سال را نمی دانیم؟
هنگامی که داده ها به درستی سانسور می شوند، پارامتر مقیاس زمان شکست تسریع شده بسیار بزرگ است
15936
سوال احتمالی ساده (امیدوارم) دوست دارم اگر کسی بتواند برای من پاسخ دهد. شما یک سکه را 13 بار ورق می زنید (دو نتیجه: سر یا دم). قبل از پرتاب سکه، من سکانس برنده را یادداشت کرده ام، به عنوان مثال. یک توالی تصادفی از 13 نتیجه، سر یا دم برای هر پرتاب. به عنوان مثال: سر، سر، دم، سر، دم، دم، دم، سر، دم، سر، سر، دم، سر. شانس اینکه کسی سکه را پرتاب کند و همان سکانس (سر یا دم در همان ترتیب) من را بگیرد چقدر است؟
احتمال پرتاب همان دنباله 13 سر یا دم
28234
@JeromyAnglim، با تشکر از پاسخ شما به چگونه اندازه نمونه مورد نیاز برای ANOVA اندازه گیری مکرر را تعیین کنیم. سوال من: آیا فرمولی برای تخمین حداقل تعداد نقاط زمانی مورد نیاز برای اندازه گیری های مکرر هنگام انجام کارآزمایی بالینی وجود دارد؟ من می دانم که زمانی که قصد انجام کارآزمایی بالینی را داریم، فرمولی برای تخمین حجم نمونه وجود دارد. من به چنین چیزی امیدوار هستم. اکنون قصد دارم یک کارآزمایی بالینی برای ارزیابی تأثیر یک دستگاه جدید در مقایسه با دستگاه قدیمی انجام دهم. بیماران به صورت تصادفی 2:1 در یک بازوی مطالعه یا بازوی کنترل شده قرار می گیرند. متغیر نتیجه من پیوسته است. اگر مطالعه بیش از 1 سال انجام شود، می خواهم بدانم حداقل امتیاز زمانی که باید بگیرم چقدر است؟ ممکن است یک مرجع به من بدهید؟
حداقل تعداد نقاط زمانی مورد نیاز در اندازه گیری های مکرر
9990
من کاملاً با مدل‌های اثرات مختلط (MEM) آشنا هستم، اما یکی از همکاران اخیراً از من پرسید که چگونه آن را با مدل‌های رشد پنهان (LGM) مقایسه می‌کند. من کمی جستجو کردم، و به نظر می‌رسد که LGM نوعی مدل‌سازی معادلات ساختاری است که در شرایطی اعمال می‌شود که اندازه‌گیری‌های مکرر در هر سطح حداقل یک اثر تصادفی به دست می‌آید، بنابراین زمان را به یک اثر ثابت در مدل تبدیل می‌کند. در غیر این صورت، MEM و LGM تقریباً مشابه به نظر می رسند (به عنوان مثال، هر دو اجازه کاوش ساختارهای کوواریانس مختلف و غیره را می دهند). آیا من درست می گویم که LGM از نظر مفهومی مورد خاصی از MEM است، یا تفاوت هایی بین این دو رویکرد با توجه به مفروضات یا ظرفیت آنها برای ارزیابی انواع مختلف تئوری ها وجود دارد؟
تفاوت بین مدل سازی با اثرات مختلط و مدل سازی رشد نهفته چیست؟
82686
می دانیم که وقتی منحنی بازدهی خزانه داری وارونه می شود، نشانه آن است که اقتصاد به سمت مشکل پیش می رود. من می خواهم رابطه بین منحنی بازده و اقتصاد را تحلیل کنم. مشکل من ارائه روشی برای توصیف شکل منحنی بازده با استفاده از یک عدد است. من می خواهم کاری کمی پیچیده تر از اندازه گیری شیب بین سازهای نزدیک و دور انجام دهم. پیشنهادی دارید؟
چگونه می توانم منحنی بازدهی خزانه را به عنوان یک عدد مشخص کنم؟
50988
چند ماه پیش، این دو سوال را در مورد ملاحظات عملی در جمع آوری داده ها برای یک متاآنالیز شبکه و بسته های R موجود که می توانند چنین داده هایی را تجزیه و تحلیل کنند، پست کردم. برای کسانی که با متاآنالیز شبکه آشنا نیستند، این روشی است که مجموعه ای از درمان ها را با یکدیگر مقایسه می کند. بخشی از آنچه در مورد این روش جذاب است این است که توسعه های چند متغیره متاآنالیز شبکه می تواند مطالعاتی را در خود جای دهد که بیش از دو درمان را با یکدیگر مقایسه می کنند. روش‌های متاآنالیز سنتی تنها می‌توانند دو درمان را در خود جای دهند. من در حال حاضر سعی می کنم از بسته mvmeta برای انجام متاآنالیز استفاده کنم. با این حال، من کمی در کشف نحوه اجرای متاآنالیز گیر کرده ام. همانطور که من متوجه شدم، متاآنالیز شبکه می تواند در سطح بازو یا کنتراست پیاده سازی شود. با این حال، در متاآنالیز خود من، نویسندگان به ندرت نتیجه را در سطح بازو گزارش می‌کنند، و بسیاری از داده‌های من باید با استفاده از آمار آزمون از مقایسه بین بازوها استخراج می‌شد (به عنوان مثال، آزمون t که درمان A را با درمان B مقایسه می‌کند). . بنابراین، من از رویکرد مبتنی بر کنتراست استفاده می‌کنم که با مدل‌سازی مقایسه‌های مختلف بین بازوها به عنوان نتایج جداگانه، مطالعات بیش از سه بازو را در خود جای می‌دهد. برای مطالعه با k بازو، مقایسه k - 1 به طور کامل نشان دهنده تفاوت بین بازوها است. بنابراین، باید یک درمان مرجع را انتخاب کرد و مقایسه های k - 1 را با آن درمان مرجع محاسبه کرد. برای مثال، برای مطالعه‌ای که درمان‌های A، B و C را با یکدیگر مقایسه می‌کند، می‌توان اندازه‌های اثر جداگانه را برای مقایسه‌های AB و AC محاسبه کرد. چیزی که من نمی فهمم این است که چگونه می توان این چارچوب را برای نشان دادن مطالعاتی که شامل درمان مرجع نیستند، گسترش داد. بنابراین، در مثال بالا، من نمی‌دانم که چگونه می‌توان مطالعه‌ای را که درمان‌های B و C را مقایسه می‌کند، تطبیق داد. یک احتمال این است که من به سادگی یک تحلیل جدید با B به عنوان درمان مرجع اجرا کنم. آیا کسی از شما می داند که آیا واقعاً چنین است؟ برای مرجع، من تعدادی کد R را اضافه کردم که نوشتم که معتقدم متاآنالیز شبکه را با استفاده از mvmeta در زیر انجام می دهد. سوال من، که در زمینه کد R نمونه مجدداً بیان شد، این است که نمی‌دانم چگونه مطالعاتی را که مقایسه‌های BC را مشاهده می‌کنند، نشان دهم. library(mvmeta) # ساخت داده AB <- c(.5، .3، 0.2، .2، NA، NA، 0.1) AC <- c(NA، 0.3، 0.4، NA، 0.2، . 1، .5) # مقایسه های قبل از میلاد کجا هستند؟ d <- data.frame(AB, AC) n1 <- 50 n2 <- 50 nT <- 150 # مجموع N برای مطالعات 3 بازویی در این مثال # ایجاد لیستی از N = 7 ماتریس واریانس کوواریانس درون مطالعه (S ماتریس ها). # اینها تابعی از اندازه های افکت و N های مطالعه مشخص شده در بالا هستند. S <- لیست (ماتریس (c(1/n1 + 1/n2 + 0.5/(2*(n1 + n2))، NA، NA، NA)، ncol = 2، nrow = 2)، ماتریس (c( 1/n1 + 1/n2 + 0.3/(2*nT)، 1/n1 + 0.3 * 0.3 / (2*nT)، 1/n1 + 0.3 * .3 / (2*nT)، 1/n1 + 1/n2 + 0.3/(2*nT))، ncol = 2، nrow = 2)، ماتریس (c(1/n1 + 1/n2 + . 2/(2*nT)، 1/n1 + 0.2 * 0.4 / (2*nT)، 1/n1 + 0.2 * 0.4 / (2*nT)، 1/n1 + 1/n2 + 0.4/(2*nT))، ncol = 2، nrow = 2)، ماتریس (c(1/n1 + 1/n2 + 0.2/(2*(n1 + n2) )، NA، NA، NA)، ncol = 2، nrow = 2)، ماتریس (c(NA، NA، NA، 1/n1 + 1/n2 + 0.2/(2*(n1 + n2)))، ncol = 2، nrow = 2)، ماتریس (c(NA، NA، NA، 1/n1 + 1/n2 + 0.1/(2*(n1 + n2)))، ncol = 2، nrow = 2)، ماتریس (c(1/n1 + 1/n2 + 0.1/(2*nT)، 1/n1 + 0.1 * 0.5 / (2*nT)، 1/n1 + 0.1 * 0.5 / (2*nT)، 1/n1 + 1/n2 + 0.5/(2*nT))، ncol = 2، nrow = 2)) mod <- mvmeta(cbind(AB، AC) ~ 1، S = S، داده = d، روش = reml) خلاصه (Mod)
استفاده از mvmeta برای انجام متاآنالیز شبکه
28232
فرض کنید مجموعه داده‌های زیر را داریم: مردان زنانی که رژیم می‌گیرند 10 30 بدون رژیم 5 60 اگر آزمایش دقیق فیشر را در R اجرا کنم، «جایگزین = بیشتر» (یا کمتر) به چه معناست؟ به عنوان مثال: mat = matrix(c(10,5,30,60), 2,2) fisher.test(mat,alternative = بزرگتر) من p-value = 0.01588 و نسبت شانس = 3.943534 را دریافت می کنم. همچنین، وقتی ردیف‌های جدول احتمالی را به این صورت برمی‌گردانم: mat = matrix(c(5,10,60,30), 2,2) fisher.test(mat,alternative = بزرگتر) سپس p را دریافت می‌کنم. -value = 0.9967 و نسبت شانس = 0.2535796. اما، هنگامی که من دو جدول اقتضایی را بدون آرگومان جایگزین (یعنی «fisher.test(mat)») اجرا می‌کنم، مقدار p = 0.02063 را دریافت می‌کنم. 1. میشه لطفا دلیلش رو برام توضیح بدید؟ 2. همچنین فرض صفر و فرض جایگزین در موارد فوق چیست؟ 3. آیا می توانم آزمایش فیشر را روی یک جدول احتمالی مانند این اجرا کنم: mat = ماتریس(c(5000,10000,69999,39999), 2,2) PS: من آمارگیر نیستم. من سعی می کنم آمار را یاد بگیرم تا کمک شما (پاسخ به زبان انگلیسی ساده) بسیار قدردانی شود.
تست فیشر در R
1395
آیا کسی می تواند به من یک کتابخانه گرافیکی منبع باز برای ایجاد نقشه های جنگلی و قیفی به من توصیه کند؟ من قصد داشتم از آن در یک برنامه دسکتاپ جاوا استفاده کنم.
کتابخانه‌هایی برای قطعات جنگلی و قیفی
93208
همه، من می خواهم طبقه بندی را با استفاده از SVM انجام دهم. همانطور که می‌دانم باید با استفاده از هسته، داده‌های خود را به ابعاد بالاتر بفرستیم. و 4 هسته استفاده متداول وجود دارد (خطی، RBF، چند جمله ای و سیگموئید). 1. تفاوت بین آن هسته چیست؟ 2. برای طبقه بندی داده های خود باید خط / هایپرپلان قابل جداسازی خطی را پیدا کنیم. و برای انجام این کار، ما باید حاشیه بزرگ را انتخاب کنیم تا از هر گونه تطبیق بیش از حد جلوگیری کنیم؟ overfitting چیست؟ 3. همانطور که در این تصویر می بینید، یک w وجود دارد. و در بسیاری از مراجع گفتند w یک خط است؟ در واقع آن چیست؟ و اون لامدا چیه؟؟ 4. SMO در SVM به چه معناست؟
پارامترهای هسته SVM؟
114518
به مقاله ای برخوردم که از داده های پانل ایالت های ایالات متحده (از 2000 تا 2010) با مدل زیر استفاده می کند: $y_{it}=b_{1}x_{it} +b_{2}x_{it}*D_{ it}+ vars دیگر + \alpha_{t} + \gamma_{i}$ که در آن، $x$ و $y$ متغیرهای پیوسته هستند و $D$ یک متغیر ساختگی است که یک مقدار 1 در صورت کاهش x$ از یک سال به سال دیگر و در غیر این صورت صفر (یعنی برای افزایش یا عدم تغییر در $x$). سپس مقاله ضریب روی $x_1$ را به عنوان اثر افزایش $x$ روی $y$ و $b_{1}+b_{2}$ به عنوان اثر کاهش در $x$ تفسیر می‌کند. این یک تفسیر معتبر است.
مسائل مدلسازی در رگرسیون پانل