_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
16958 | در یک تکلیف روانزبانی، شرکتکنندگان به محرکها گوش دادند و مشاهده کردند، و از آنها خواسته شد که درباره آنها قضاوت قابل قبولی داشته باشند: * 4 شرط * 4 گروه * مقیاس رتبهبندی از 1 تا 5 به من توصیه شده است از نمرات z و تبدیل log (برای R) استفاده کنم. در مورد امتیازات رتبهبندی: ### سوالات: * آیا رتبهبندیها باید قبل از تبدیل log به نمرات Z محاسبه شوند؟ * آیا محاسبات (خواه z یا ابتدا log) باید توسط گروه انجام شود یا برای کل مجموعه داده؟ * آیا محاسبات (خواه ابتدا z یا log) باید بر اساس شرط انجام شود یا برای کل مجموعه داده؟ | چگونه می توان ایجاد امتیاز z و تبدیل گزارش را در آزمایشی با گروه ها و شرایط متعدد ترتیب داد؟ |
18389 | من طراحی ساختار تودرتو با مدل زیر دارم: Yijklt = m + ai + bij + rijk + sikl + (bs)ijkl + eijkl که i = 1, 2, ............... ....، اس; تعداد مجموعه ها j = 1، 2، ........................، r; تعداد تکرار k = 1، 2، .........................، m; مذکر l = 1،2،............................، f; ماده t = 1، 2، ................، n; نتاج که در آن m میانگین کلی است ai اثر یکمین مجموعه است. bij اثر تکرار j ام در مجموعه یکم است. ith مجموعه (bs)ijkl عبارت تعامل است. فرمول مدل غیر مخلوط در R به شرح زیر است: مدل <- lm(y ~ مجموعه + تکرار %in% مجموعه + مرد %in% مجموعه + ماده %در% مرد %در% مجموعه + تکرار %در% ماده %در% مرد %در% مجموعه) مدل <- lm(y ~ مجموعه + تکرار: مجموعه + مرد: مجموعه + ماده :male:set + replication: women:male:set) مدل متناظر آن در مدل مختلط با استفاده از بسته lme4 یا nlme در R چیست؟ من می خواهم آن را درست انجام دهم. لطفاً توجه داشته باشید که همه عبارتها در مدل ترکیبی جدید تصادفی هستند، من فقط میخواهم مولفههای واریانس مرتبط را تخمین بزنم. ویرایش ها: نمونه ای را بر اساس پاسخ های زیر توسط @Aaron library(lme4) set.seed(5) d <- expand.grid(set=factor(1:3), male=factor(1:3),female= کار کنید فاکتور(1:3)، نتاج = فاکتور(1:3)، تکرار=فاکتور(1:4)) d$y <- rnorm(nrow(d)) | مشخصات مدل ترکیبی در R |
101457 | من با یک مدل جنگل تصادفی کار می کنم و می خواهم بهتر بفهمم که متغیرها چگونه بر خروجی جنگل تأثیر می گذارند. استفاده از نمودارهای جزئی مفید است، اما این اساساً یک رفتار خطی از مدل است، زیرا فرض میکند هیچ تعاملی بین متغیرها وجود ندارد. آیا روش های شناخته شده ای برای ارزیابی غیرخطی بودن مدل جنگل تصادفی یا برای تجزیه و تحلیل چگونگی تعامل متغیرها با یکدیگر در مدل وجود دارد؟ | تجزیه و تحلیل رفتار یک مدل غیر خطی |
13454 | به طور خاص، چگونه باید خطاهای استاندارد اثرات ثابت در یک مدل اثرات مختلط خطی محاسبه شود (به معنای مکرر)؟ من به این باور رسیدهام که تخمینهای معمولی (${\rm Var}(\hat\beta)=(X'VX)^{-1}$)، مانند آنهایی که در Laird and Ware [1982] ارائه شدهاند. SE هایی که از نظر اندازه دست کم گرفته می شوند زیرا مولفه های واریانس تخمینی به گونه ای رفتار می شوند که گویی مقادیر واقعی هستند. متوجه شده ام که SE تولید شده توسط توابع «lme» و «خلاصه» در بسته «nlme» برای R به سادگی با جذر قطرهای ماتریس واریانس-کوواریانس داده شده در بالا برابر نیست. چگونه محاسبه می شوند؟ همچنین این تصور را دارم که بیزی ها از پیشین های گامای معکوس برای تخمین مولفه های واریانس استفاده می کنند. آیا اینها نتایجی مشابه «lme» دارند (در تنظیمات مناسب)؟ | خطاهای استاندارد برای برآورد مدل اثرات مختلط چگونه باید محاسبه شود؟ |
7994 | این مسئله 12.10 در عناصر یادگیری آماری است: > فرض کنید می خواهید یک تحلیل تفکیک خطی (دو کلاس) انجام دهید > با استفاده از بردار تبدیل متغیرهای ورودی $h(x)$. از آنجایی که > $h(x)$ ابعاد بالایی دارد، شما از یک ماتریس کوواریانس منظم شده درون کلاسی > $W_h + \گاما I$ استفاده خواهید کرد. نشان دهید که مدل را می توان تخمین زد > فقط با استفاده از محصولات داخلی $K(x_i, x_{i'}) = \left < h(x_i), h(x_{i'}) > \right >$. چگونه می توانم نشان دهم که تجزیه و تحلیل متمایز خطی منظم را می توان تنها با استفاده از محصولات داخلی تخمین زد، همانطور که در ترفند هسته که اغلب با SVM استفاده می شود؟ | تجزیه و تحلیل تشخیص خطی و ترفند هسته؟ |
78008 | من در حال حاضر روی یک مدل رهگیری تصادفی چندسطحی با استفاده از مجموعه داده دور 6 بررسی اجتماعی اروپا کار می کنم. این یک مدل 2 سطحی با افراد (سطح 1) تو در تو در داخل کشورها (سطح 2) است. برای ساده کردن کارها، رگرسیون زیر را تصور کنید: $Y_{ij}=\beta_{0j}+\beta_{1j}X_{ij}+e_{ij}$ که در آن متغیر وابسته **اعتماد به پارلمان اروپا** است. در مقیاس 0-10، و پیش بینی سطح 1 **جنسیت ** است. در مجموعه دادهها، دو وزن وجود دارد: * _Design weight_: وزنهای طراحی احتمالات برای افراد $i$ در کشورهای $j$ هستند. وزن طرح برای احتمالات کمی متفاوت انتخاب تصحیح می شود، در نتیجه نمونه را نماینده یک نمونه واقعی از افراد از هر کشور می کند. * _وزن اندازه جمعیت_: وزن اندازه جمعیت تنظیمی را انجام می دهد تا اطمینان حاصل شود که هر کشور متناسب با اندازه جمعیت آن نمایش داده می شود. وزن اندازه جمعیت به صورت PWEIGHT= [اندازه جمعیت]/[(اندازه خالص نمونه در فایل داده)*10 000 محاسبه میشود. من تمایل به گرفتن نتایج متفاوت دارم. در زیر رگرسیون با وزن های طراحی اعمال شده است (من از Stata استفاده می کنم): . xtmixed trstep gndr [pw = dweight]|| land:, mle var بدست آوردن مقادیر شروع توسط EM: انجام بهینهسازی مبتنی بر گرادیان: تکرار 0: شبه احتمال ورود به سیستم = -92442،22 تکرار 1: شبه احتمال ورود به سیستم = -92442،22 (پشتیبانگیری شده) خطاهای استاندارد محاسبه: اثر اعداد مختلط of obs = 39923 متغیر گروه: land تعداد گروه ها = 24 Obs در هر گروه: حداقل = 579 میانگین = 1663,5 حداکثر = 2711 Wald chi2(1) = 5,91 Log pseudolikelihood = -92442,22 Prob > chi2 = 0,0151 (Std. Err. تعدیل شده برای 24 خوشه در خشکی) ------------------------------------------------ ---------------------------- | trstep مقاوم | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ gndr | ,1147821 ,0472334 2,43 0,015 ,0222063 ,2073578 _cons | 4,144926 ,117911 35,15 0,000 3,913825 4,376027 ------------------------------------------------ ---------------------------- ------------------------------------------------ ---------------------------- | پارامترهای اثرات تصادفی قوی | برآورد Std. اشتباه [95% Conf. فاصله] ----------------------------------------------- ------------------------------ زمین: هویت | var(_cons) | ,3184852 ,0689119 ,2084065 ,4867066 ------------------------------------------ ------------------------------------ var(Residual) | 5,93535 ,2514202 5,462477 6,449158 -------------------------------------- --------------------------------------- و اینجاست رگرسیون با هر دو وزن طراحی، وزن اندازه جمعیت و مقیاس بندی اعمال شده: . xtmixed trstep gndr [pw = dweight]|| land:, mle var pweight(pweight) pwscale(size) بدست آوردن مقادیر شروع توسط EM: انجام بهینه سازی مبتنی بر گرادیان: تکرار 0: شبه احتمال ورود به سیستم = -81334,099 تکرار 1: شبه log شبه احتمال = -81333:24 تکرار شبه ثبت نام = -81333،24 خطاهای استاندارد محاسباتی: رگرسیون اثرات مختلط تعداد obs = 39923 متغیر گروه: زمین تعداد گروه ها = 24 Obs در هر گروه: حداقل = 579 میانگین = 1663,5 max = 2711 Wald chi2(1) = 10,73 Log شبه احتمال = - 81333,24 Prob > chi2 = 0,0011 (Std. Err. تنظیم شده برای 24 خوشه در زمین) ----------------------------------- ------------------------------------------- | trstep مقاوم | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ gndr | ,1680609 ,0513105 3,28 0, | وزنه های چندگانه در مدل های چند سطحی |
1805 | به من یاد داده شد که تست دقیق فیشر را فقط در جداول احتمالی که 2x2 بودند اعمال کنم. سؤالات: 1. آیا خود فیشر تا به حال تصور می کرد که این آزمایش در جداول بزرگتر از 2×2 مورد استفاده قرار گیرد (من از داستان او در حال ابداع آزمایش در حالی که تلاش می کرد حدس بزند که آیا یک پیرزن می تواند تشخیص دهد که شیر به چای اضافه شده است یا چای مطلع هستم. اضافه شده به شیر) 2. Stata به من اجازه می دهد تا از آزمایش دقیق فیشر برای هر جدول احتمالی استفاده کنم. آیا این معتبر است؟ 3. آیا استفاده از FET زمانی که تعداد سلول های مورد انتظار در جدول احتمالی کمتر از 5 است، ترجیح داده می شود؟ | تست دقیق فیشر در جداول احتمالی بزرگتر از 2x2 |
62928 | من 400 قسمت از مراقبت های پرستاری را در یک بیمارستان مشاهده کردم. من حرکت پرستاران را بین 5 اتاق $A,B,C,D$ و $E$ دنبال کردم. حداکثر احتمال احتمال حرکت از اتاق $i\rightarrow j$ توسط: \begin{equation} P_{ij}=\displaystyle \dfrac{\text{# بار از اتاق $i\rightarrow j$ به دست میآید. }}{\displaystyle \text{# مجموع انتقال به هر اتاق}}\end{equation} * آیا راهی برای تعریف فاصله اطمینان در این حداکثر وجود دارد برآورد احتمال $P_{ij}$؟ * و برای همه برآوردهای حداکثر احتمال همه ترکیبات اتاق ممکن ($n=25$ ترکیب)؟ این من را گیج می کند زیرا $P_{ij}$ که در آن $i=A..E$ و $j=A..E$ به یکدیگر وابسته هستند. چگونه می توانم این را حساب کنم؟ **مرجع**: من به این مرجع برخورد کردم: http://arxiv.org/pdf/0905.4131v1.pdf این نشان می دهد که برای n مشاهده $X_i$، تخمین تجربی حداکثر درستنمایی $\hat P_{ij}$ منهای احتمال واقعی $P_{ij}$ تمایل به توزیع نرمال با میانگین 0 و انحراف استاندارد $\epsilon$ دارد. $$\sqrt{n}|\hat{P_{ij}}-P_{ij}|\sim N(0,\epsilon)\quad \text{as}\quad n\rightarrow \infty$$ چگونه می توانم $\epsilon$ را محاسبه کنید؟ | چگونه می توان فواصل اطمینان همزمان را برای فرکانس های همبسته به دست آورد؟ |
81973 | چگونه می توانم تصمیم بگیرم که کدام روش اعتبارسنجی متقاطع برای مشکل و نوع داده من مناسب است؟ به عنوان مثال، انتخاب از بین ترک یک خارج، یا K-fold (و کدام K مناسب است؟). بیشتر جستجوهای من به انتخاب مدل به جای انتخاب روش اعتبار سنجی متقابل ختم می شود. | چگونه روش اعتبارسنجی متقابل را ارزیابی/انتخاب کنیم؟ |
17522 | من مجموعه ای از داده های زیر را دارم: زمان شمارش کل شمارش % کامل 1 2 2 2/10 2 0 2 2/10 3 4 6 6/10 4 3 9 9/10 5 1 10 10/10 به عبارت دیگر، بعد از 1 دقیقه گذشت، 2 شمارش وجود داشت. بعد از 2 دقیقه، 0 شمارش وجود داشت، و غیره. من به راحتی می توانم این نمودار را در اکسل یا R ترسیم کنم. اما در یافتن این مشکل مشکل دارم که چگونه می توانم به راحتی نقطه ای را که در آن تعداد X٪ کامل می شود بدون خلاصه کردن پیدا کنم. کل پس از هر سطر اضافی و تقسیم بر تعداد کل در ستون چهارم محاسبه می شود. آیا راهی برای دریافت سریع ردیفی که در آن داده ها X% کامل است در اکسل یا R وجود دارد؟ | یافتن صدک x در نمودار |
112118 | آیا کسی می تواند من را در مورد هر گونه مقاله نظرسنجی خوب و اجرای مقالات اخیراً منتشر شده در مورد تشخیص جامعه در شبکه اجتماعی تلفن همراه راهنمایی کند. من حاضرم هر الگوریتم موجود را پیاده سازی کنم و سپس الگوریتم خودم را تحقیق و توسعه کنم. من از شبیه ساز ONE برای شناسایی جامعه بر اساس ردیابی داده های واقعی از محوطه دانشگاه استفاده می کنم. | تشخیص جامعه در شبکه اجتماعی موبایل |
62409 | وقتی $X$ X_1$،...$X_n$ باشد، چگونه توزیع دوجمله ای منفی زیر را به صورت خانواده نمایی بیان می کنید؟ $$ f(k;r,p)\equiv\text{Pr}(X=k)=\binom{k+r-1}{k}(1-p)^{r}p^k~~~ ~~\text{for}~k=0,1,2,\ldots $$ | چگونه باید توزیع دوجمله ای منفی را در یک خانواده نمایی بیان کنید؟ |
38501 | فرض کنید به من میانگین و یک چندک (مثلاً 20 درصد) متغیر تصادفی $x$ داده شده است، و من میخواهم پارامترهای $\alpha$ و $\beta$ یک توزیع بتا را پیدا کنم که میانگین یکسانی دارد. و کمیت. آیا روش کارآمدی برای انجام آن وجود دارد؟ فقط با استفاده از میانگین، می دانم که از $\bar{x} = \frac{\alpha}{\alpha+\beta}$، ما $\beta = \frac{\alpha}{\bar{x}} داریم - \ آلفا $. بنابراین ما واقعاً فقط یک پارامتر برای تخمین داریم. اما من مطمئن نیستم که چگونه از اطلاعات کمیت برای برداشتن گام بعدی استفاده کنم. شاید وقتی نسبت $\frac{\beta}{\alpha} = \frac{1-\bar{x}}{\bar{x}}$ را بدانم، بتوانم با بتای ناقص کاری انجام دهم؟ من خودم به «R» دسترسی دارم، بنابراین میتوانم از یک بهینهساز عددی برای این کار استفاده کنم، اما در حالت ایدهآل به روشی نیاز دارم که بتوان در اکسل در محیط شخص دیگری اجرا کرد. اکسل دارای توابع «BETA.DIST()» و «BETA.INV()» است. یک جدول جستجو خوب است، اما یک فرمول بسته در صورت امکان بهتر است. | توزیع بتا از میانگین و کمیت |
62402 | من یک مدل با یک متغیر وابسته طبقه بندی و متغیرهای مستقل دارم که حاوی یک متغیر متناسب نیز هستند. به نظر میرسد که چندجملهای یک تناسب ایدهآل است، اما در مورد چگونگی مدلسازی متغیر x حاوی دادههای متناسب در mlogit مطمئن نیستم. آیا نوع رگرسیون دیگری وجود دارد که در این مورد قابل اجرا باشد؟ پیشاپیش ممنون | رگرسیون برای y مقوله ای و xs متناسب و گسسته |
101451 | من داده هایی مانند این دارم: pce pop psavert uempmed unemploy 507.8 198712 9.8 4.5 2944 510.9 198911 9.8 4.7 2945 516.7 199113 9.8 4.6 23913 4.9 3143 518.5 199498 9.8 4.7 3066 من سعی می کنم از SVM - رگرسیون برای برازش داده ها مانند این svmRbftune <- train(unemploy ~ pce + pop + psavert + uempmed, data = EconomicsTrain, روش = 4 استفاده کنم - رگرسیون. trControl = trainControl(method = cv)) svmRbfPredict <- predict(svmRbftune, EconomicsTest) چگونه می توانم دو تا سه مرحله جلوتر را پیش بینی کنم؟ | پیشبینی سریهای زمانی چند متغیره با استفاده از رگرسیون بردار پشتیبان در R |
78005 | برای برآورد m قوی، تمام نتایج همگرایی که من از آنها آگاه هستم، وزنهای متقارن (مثلاً: تابع هوبر) را در فرمولبندی الگوریتم حداقل مربعات وزندار تکراری فرض میکنند. آیا این روش برای وزن های نامتقارن اعمال می شود و آیا نتایج همگرایی مربوطه برقرار است؟ با تشکر | حداقل مربعات با وزن مجدد تکراری: وزن های نامتقارن |
7996 | من در حال ارزیابی وابستگی پارامتر خروجی یک سناریو به سه پارامتر هستم: A، B و C. برای این، آزمایشهای زیر را انجام میدهم: * ثابت کردن A+B، تغییر C - در مجموع چهار مجموعه (A+B) که هر کدام دارای 4 تغییر هستند. از C * ثابت B+C، متغیر A - در مجموع چهار مجموعه (B+C) هر کدام دارای 3 تغییر C * ثابت C+A، متغیر B - مجموعا چهار مجموعه ای از (C+A) که هر کدام دارای 6 تغییر C هستند. خروجی هر شبیه سازی مقدار یک متغیر در طول زمان است. به عنوان مثال، A می تواند مساحت، B می تواند سرعت و C می تواند تعداد وسایل نقلیه باشد. متغیر خروجی که من مشاهده می کنم تعداد تصادفات اتومبیل در طول زمان است. من سعی می کنم تعیین کنم که کدام پارامتر بر نتیجه آزمایش غالب است. منظور من از تسلط این است که گاهی اوقات، با تغییر یکی از پارامترها، نتایج تغییر نمی کند، اما زمانی که برخی از پارامترهای دیگر حتی به مقدار کمی تغییر می کنند، یک تغییر بزرگ در خروجی مشاهده می شود. من باید این اثر را بگیرم و تجزیه و تحلیلی به دست بیاورم تا بتوانم وابستگی خروجی به پارامترهای ورودی را بفهمم. یکی از دوستان تجزیه و تحلیل حساسیت را پیشنهاد کرد اما مطمئن نیستم که آیا راه های ساده تری برای انجام آن وجود دارد یا خیر. آیا کسی می تواند به من در مورد یک تکنیک خوب (احتمالاً آسان زیرا من سابقه آماری ندارم) کمک کند؟ بسیار عالی است اگر بتوان همه اینها را در R انجام داد. **به روز رسانی:** من از رگرسیون خطی برای به دست آوردن موارد زیر استفاده کردم: lm(فرمول = T ~ A + S + V) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.35928 - 0.06842 -0.00698 0.05591 0.42844 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.01606 0.16437 -0.098 0.923391 A 0.80199 0.15792 5.078 0.000112 *** S -0.27440 0.27440 0.131 -0.27440 0.131 V -0.31898 0.14889 -2.142 0.047892 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1665 در 16 درجه آزادی چندگانه R-squared: 0.6563، R-squared تنظیم شده: 0.59 آمار: 10.18 در 3 و 16 DF، p-value: 0.0005416 آیا این بدان معناست که خروجی بیشتر به A و کمتر به V بستگی دارد؟ | روش خوبی برای تخمین وابستگی یک متغیر خروجی به پارامترهای ورودی چیست؟ |
7990 | فرض کنید فرآیند تصادفی زیر را داریم. با دو بردار $a_1=(0)$ و $b_1=(0)$ شروع می کنیم. در رفتن از $i$ به $i+1$، یک اغتشاش به $a_i$ و $b_i$ خواهیم داد. با احتمال $p$، Case 1 را انجام می دهیم، در غیر این صورت مورد 2 را انجام می دهیم. * مورد 1: عنصری از $a_i$ را انتخاب می کنیم، مثلاً در مختصات $x$ (به طور یکنواخت به طور تصادفی از بین همه مختصات $1,2،\ldots انتخاب می شود، |a_i|$، که در آن $|a_i|$ طول $a_i$ است)، و آن را به انتهای $a_i$ اضافه کنید تا شکل بگیرد. $a_{i+1}$. به طور مشابه، برای تشکیل $b_{i+1}$، عنصر را در مختصات $x$ از $b_i$ به انتهای $b_i$ اضافه کنید. باقیمانده $a_{i+1}$ و $b_{i+1}$ به ترتیب با $a_i$ و $b_i$ یکسان است. [عنصر کپی شده در مختصات $x$ در $a_i$ و $b_i$ است.] * مورد 2: $x$ و $y$ را انتخاب کنید تا دو مختصات به صورت تصادفی از $1,2,\ldots,| a_i|$. اگر $x \neq y$، سپس $a_{i+1}[x]=a_i[x]+1$ و $b_{i+1}[y]=b_i[y]+1$ را تنظیم کنید (اگر $x =y$ پس کاری انجام نده [در حال حاضر مشخص نیست که آیا میخواهم $x \neq y$] را اعمال کنم یا نه). باز هم، باقیمانده $a_{i+1}$ و $b_{i+1}$ به ترتیب با $a_i$ و $b_i$ یکسان است. > **سوال**: حاصل ضرب نقطه مورد انتظار $a_i$ و $b_i$ چیست؟ یعنی > $\mathrm{E}(\sum_x a_i[x] \cdot b_i[x])$ چیست؟ بنابراین در اینجا مثالی از اینکه این بردارها می توانند شبیه به نظر شوند آورده شده است: i a_i b_i 1 (0) (0) 2 (0,0) (0,0) [مورد 1 x=1] 3 (0,0,0) (0) ,0,0) [مورد 1 x=1] 4 (1,0,0) (0,1,0) [مورد 2 x=1 y=2] 5 (1,0,0,1) (0،1،0،0) [مورد 1 x=1] 6 (1،0،0،1) (0،1،0،0) [مورد 2 x=4 y=4] 7 (1،0 ,0,2) (0,1,1,0) [مورد 2 x=4 y=3] من در حال بررسی یک مسئله مرتبط با مطالعه نمودارهای تصادفی در حال تکامل هستم. در مسئله نمودار تصادفی، دو بردار درجات درون و برون درجات یک شبکه در حال تکامل را در طول زمان نشان میدهند. در نمودار، می توانیم رئوس را کپی کنیم یا یک یال را اضافه یا حذف کنیم (که مربوط به موارد 1 و 2 بالا است). در این حالت، حاصل ضرب نقطهای تعداد مسیرهای هدایتشده به طول 3 را میشمارد. با این حال، مشکل فوق با مشکلی که من در نظر میگیرم متفاوت است زیرا (الف) لزوماً اینطور نیست که $\sum_x a_i[x]=\ sum_x b_i[x]$ و (b) هیچ چیزی برای جلوگیری از ایجاد یال های موازی در اینجا وجود ندارد. اگرچه، امیدوارم این سوال ساده شده پاسخگوتر باشد و بتوان از تکنیک ها دوباره استفاده کرد. | حاصل ضرب نقطه مورد انتظار دو بردار در حال تکامل چیست؟ |
48434 | چرنده طولانی مدت، پوستر اولین بار. من امیدوارم که نظر مردم را در مورد موارد زیر جمع آوری کنم: روش های مجموعه مبتنی بر درخت مانند جنگل تصادفی و مشتقات بعدی (به عنوان مثال، جنگل شرطی)، همه به نظر می رسد در مسائل به اصطلاح small _n_، _p______ مفید باشند. برای شناسایی اهمیت متغیر نسبی در واقع، به نظر می رسد که چنین است، اما سوال من این است که تا کجا می توان این توانایی را پیش برد؟ آیا می توان مثلاً 30 مشاهده و 100 متغیر داشته باشد؟ نقطه شکست چنین رویکردی چیست، و آیا قوانین صحیح و مناسبی وجود دارد؟ ترجیحاً آنهایی که با شواهد و با استفاده از مجموعه داده های شبیه سازی شده یا واقعی پشتیبانی می شوند؟ من چیز زیادی در مورد دومی (اینجا و اینجا) پیدا نکردم، بنابراین از نظرات/توصیه/(درباره موضوع) پیشنهادات مرجع شما بسیار استقبال می شود! به سلامتی | محدودیتهایی برای روشهای مجموعهای مبتنی بر درخت در مسائل n کوچک، p بزرگ؟ |
20653 | در R، c(3،1،0) * c(2،0،1) == c(6،0،0). این محصول نقطهای نیست و محصول متقاطع نیست. اول اینکه اسم این محصول چیست و دوم اینکه آیا در WinBUGS، OpenBUGS و/یا JAGS کار می کند؟ | ضرب برداری در BUGS و JAGS |
25435 | فرض کنید من لیستی از کاربرانی دارم که کشوری که در آن زندگی می کنند را با تایپ کردن چیزی مشخص کرده اند. من میخواهم تعداد کل کاربرانی را که از ایالات متحده، بریتانیا و هر جای دیگری آمدهاند پیدا کنم. اما، از آنجایی که کاربران به صورت دستی در کشور خود تایپ می کنند، داده های من به این صورت است: USER COUNTRY 1 USA 2 United States 3 US 4 UK 5 England ... آیا مجموعه داده های عمومی یا الگوریتم های خوبی برای حل این نوع مشکل وجود دارد؟ | چگونه می توان نام کشورها را با املا یا مخفف های جایگزین ممکن طبقه بندی کرد؟ |
80007 | ابتدا یک سوال نظری من میدانم که به طور بومی، یک الگوریتم خوشهبندی سلسله مراتبی روی مکعب تعداد نمونههای N پیچیدگی دارد. این به این دلیل است که در هر تکرار، برای یافتن کوچکترین مقدار، باید کل ماتریس فاصله را طی کرد. اما می توان آن را با پیچیدگی کمتر (N sqr) پیاده سازی کرد. چگونه انجام می شود و آیا می توانید به من یک مقاله یا توضیحاتی در مورد اجرا معرفی کنید؟ در نهایت، من از کتابخانه scikit برای انجام HClustering استفاده کردم. خوب بود اما به 15000 نمونه یا بیشتر محدود شده است. من می خواهم خیلی بیشتر خوشه بندی کنم. آیا کسی می تواند من را به پیاده سازی معرفی کند که با اعداد بزرگتر مطابقت داشته باشد (و ترجیحاً در sqr N اجرا شود)؟ | نحوه پیاده سازی خوشه بندی سلسله مراتبی در $O(N^2)$ به جای $O(N^3)$ |
13184 | امیدوارم این خیلی ذهنی نباشد... من به دنبال مسیری در تلاش برای تشخیص قطعات مختلف یک آهنگ، صرف نظر از سبک موسیقی هستم. نمیدانم کجا را ببینم، اما با اعتماد به قدرت سایر سایتهای StackOverflow، فکر کردم که کسی در اینجا میتواند به نشان دادن جهت کمک کند. در بیشتر اصطلاحات اولیه، می توان بخش های مختلف یک آهنگ را تنها با گروه بندی الگوهای تکراری متوالی و نامیدن آن ها بخش تشخیص داد. شاید این کار چندان سخت نباشد -- کامپیوترها در تشخیص تکرار در سیگنال بسیار خوب هستند، حتی زمانی که تغییرات کوچکی وجود دارد. اما زمانی که قسمت ها با هم همپوشانی داشته باشند، سخت است، همانطور که در اکثر موسیقی ها انجام می شود. سخت است بگوییم چه نوع موسیقی برای این نوع سیستم مناسب تر است. من حدس میزنم که پردازش بیشتر موسیقیهای سمفونیک سبک کلاسیک آسانتر باشد. > آیا ایده ای در مورد اینکه کجا برای تحقیق در این زمینه جستجو کنیم؟ | تشخیص بخش هایی از یک آهنگ |
80009 | در حالی که میدانم چرا «متوسط» در شرایط خاص میتواند معیار بهتری نسبت به «میانگین» باشد (به عنوان مثال، شما در حال ایجاد/بازاریابی یک محصول هستید، میخواهید از «میانگین» استفاده کنید زیرا بزرگترین گروه سنی شما را نشان میدهد. جمعیت و در نتیجه خریداران بالقوه واقعی، در حالی که سن «میانگین» ممکن است عددی باشد که با هیچ کس مطابقت ندارد، یا تعداد بسیار کمی از افراد_) من نمیدانم که آیا «میانگین» معیار خوبی است در مورد اندازه گیری عملکرد وب سایت بیایید به دادههای زیر که «زمان بارگذاری صفحه» را نشان میدهند نگاه کنیم (در ثانیه، هر چه کوچکتر، بهتر):  «نمونه 1» و «نمونه 2» یکسان هستند، به جز «C4»، به این معنی که وب سایت فقط برای 1 نفر سریعتر است. با این حال، میانگین به طور قابل توجهی بین 2 نمونه تغییر می کند (نزدیک به 40٪ بهبود) در حالی که میانگین بسیار پایدارتر است (کمتر از 10٪ اختلاف). بر این اساس برداشت من از این موضوع این است که «میانگین» دقیقتر است و زمان بارگذاری صفحه را نشان میدهد. ** موافقید؟ / آیا مشاهده من به دلیل نمونههای خاصی که انتخاب کردهام مغرضانه است یا بدون توجه به نمونهها، نمایندهتر از «میانگین» است؟** | متوسط بهتر از میانگین برای گزارش سرعت وب سایت است |
80004 | من سعی می کنم عدم قطعیت در تحلیل خوشه سلسله مراتبی را ارزیابی کنم. این مجموعه داده ای است که از 409 مشاهدات و 27 متغیر تشکیل شده است (با مقداری از 0 تا 100). مجموعه داده نشان دهنده نمرات ایمونوهیستوشیمی در سرطان های دستگاه گوارش است. خوشهبندی معنیداری از مشاهدات و نشانگرها با فاصله بدون مرکز پیرسون و پیوند متوسط مشاهده میشود. hc <- hclust(Dist(t(imputedMatrix), method=pearson), method=average) hr <- hclust(Dist(imputedMatrix, method=pearson), method=average) heatmap.2 (imputedMatrix، Rowv=as.dendrogram(hr)، Colv=as.dendrogram(hc)، col=greenred(100)، scale=none, ColSideColors=patientcolors, density.info=none, trace=none) pv2 <- pvclust(imputedMatrix, method.dist=uncentered, method.hclust=average, nboot=10000 ) plot(pv2، hang=-1) pvrect(pv2، alpha=0.95) clsig <- unlist(pvpick(pv2, alpha=0.90, pv=au, type=geq, max.only=TRUE)$cluster) dend_colored <- dendrapply(as.dendrogram(pv2$hclust), dendroCol, keys=clsig , xPar=edgePar, bgr=black, fgr=red, pch=20) heatmap.2(imputedMatrix, Rowv=as.dendrogram(hr), Colv=dend_colored, col=greenred(1 با این حال، هنگام استفاده از pvclust برای ارزیابی عدم قطعیت آنها، بسیاری از زیرخوشه های کوچک سطح پایین به عنوان مهم برجسته می شوند، اما نه سطح بالاتر یک گروه از تومورها (در سمت راست در نمودارها) در واقع یک گروه کنترل هستند که باید به وضوح در بالاترین سطح متمایز شوند. از بقیه pvclust حتی در آنجا نیز همان نوع الگو را نشان می دهد. در واقع خوشه های مورد علاقه عبارتند از سرخابی، سبز و قرمز در نوار رنگ. آیا این نتایج pvclust وجود آنها را پشتیبانی می کند (در مقابل یک مصنوع خوشه بندی تصادفی)؟ چگونه می توان این نتایج pvclust را تفسیر کرد؟ شاید من از ابزار به روشی اشتباه استفاده می کنم؟ یا ابزار اشتباه برای این نوع داده ها؟ پیشاپیش از شما بسیار سپاسگزارم.   | دشواری در تفسیر نتایج pvclust - فقط بسیاری از خوشههای درختی سطح پایین بهعنوان معنیدار به نظر میرسند. |
90241 | من می خواهم توضیحی در مورد بیانیه با حروف درشت در زیر ارائه دهم. در نگاه اول، من فکر میکنم که یک متغیر ابزاری ضعیف تخمین خطای استاندارد حتی بزرگتری را به همراه خواهد داشت. با این حال، وقتی ابزارها ضعیف هستند، دو مشکل جدی برای حداقل مربعات دو مرحلهای ظاهر میشود. اول مشکل سوگیری است. حتی اگر تخمینهای ضریب حداقل مربعات دو مرحلهای سازگار باشند - به طوری که تقریباً به طور قطع به مقدار واقعی نزدیک میشوند. اندازه نمونه به بینهایت نزدیک میشود - تخمینها همیشه در نمونههای محدود بایاس میشوند، وقتی متغیر ابزاری ضعیف است، این سوگیری میتواند بزرگ باشد، **وقتی یک نمونه ابزاری است متغیر ضعیف است، خطاهای استاندارد تخمین زده شده در دو مرحله بسیار کوچک می شود** بنابراین، زمانی که ابزارها ضعیف هستند، فواصل اطمینان محاسبه شده برای برآوردهای حداقل مربعات دو مرحله ای می تواند بسیار گمراه کننده باشد، زیرا نقطه میانی آنها مغرضانه است. عرض بسیار باریک است، که آزمونهای فرضیه مبتنی بر حداقل مربعات دو مرحلهای را تضعیف میکند._ موری، مایکل پی.. اجتناب از ابزارهای نامعتبر و مقابله با ابزار ضعیف مجله چشم انداز اقتصادی، ج 20، ص 111-132. | خطاهای استاندارد تخمین زده شده برای متغیر ابزاری ضعیف |
101459 | در حال حاضر، من روی یک مدل رگرسیون چندگانه کار میکنم که در مجموع شامل 9 متغیر است: دو متغیر کد ساختگی آموزش (مقولهای) به عنوان یک کنترل، یک متغیر مستقل هدف (مستمر)، سه متغیر تعدیلکننده (مستمر) و سه عبارت تعاملی (مستمر). که تعدیل کننده ها را با متغیر مستقل اولیه ترکیب می کند). این مدل به این صورت به نظر می رسد: بلوک 1: آموزش کد ساختگی 1، آموزش کد ساختگی 2 بلوک 2: متغیر مستقل هدف، سه متغیر تعدیل کننده بلوک 3: سه عبارت تعامل چند نکته سریع: \- سه ناظر امتیازهای خرده مقیاس از یک معیار واحد هستند. ، اما هیچ مشکلی با هم خطی نشان نمی دهد \- یکی از کدهای ساختگی آموزش در هر مدل قابل توجه است \- از بین سه عبارت تعامل، فقط یکی از آنها قابل توجه است. کاری که من سعی می کنم انجام دهم این است که تعامل مهم را با استفاده از تحلیل شیب ساده تحلیل کنم، اما سعی می کنم دو عبارت تعامل دیگر را در نظر بگیرم. معادله چیزی شبیه به این خواهد بود: y = b0 + b1 (IV) + b2 (مدیرکننده) + b3 (Sig.Interaction) + b4 (مدیر کننده 2) + b5 (مدیر کننده 3) + b6 (تعامل2) + b7 (تعامل 3) ) + خطا برای من به اندازه کافی آسان است که با ثابت نگه داشتن همه چیز به جز IV، moderator و sig، یک تحلیل شیب ساده ایجاد کنم. تعامل با استفاده از مقادیر -SD/Mean/+SD. با این حال، خطوط در طرح به دلیل تأثیر عوامل دیگر تغییر می کند. سوال من این است که برای محاسبه تغییرات خطوط باید چه مقادیری را وارد فاکتورهای دیگر کنم؟ زیرا اگر فقط یک یا 0 را وارد کنم، به سادگی همه چیز را دوباره ثابت نگه می دارم. | تعاملات دو طرفه چندگانه در تحلیل شیب ساده |
100345 | فرض کنید من یک آزمون با چندین فرضیه دارم. به عنوان مثال، اگر X را به عنوان یک مجموعه ژن (مجموعه ای از نمادها) و مسیرهای A، B، C (مجموعه نمادها) داشته باشم، در حال آزمایش هستم که آیا A در X، B در X، C در X و غیره غنی شده است یا خیر. در سپس من در حال تصحیح مقادیر حاصل از آزمون فرضیه های چندگانه هستم. اکنون من چندین pvalue تصحیح شده دارم و میخواهم آنها را در یک pvalue واحد ترکیب کنم. آیا این امکان پذیر است؟ در صورت نیاز اطلاعات بیشتری اضافه خواهم کرد. | چگونه pvalue تعدیل شده چندگانه را در یک اندازه خلاصه کنیم؟ |
78007 | آیا هنگام حرکت از OLS به رگرسیون اثرات ثابت می توان ضریب بزرگتری (اعم از منفی بزرگتر یا مثبت بزرگتر) بدست آورد؟ علاوه بر این، آیا امکان/احتمال دارد که علامت ضریب هنگام حرکت از OLS به رگرسیون اثر ثابت برگرداند؟ آیا این می تواند کاملاً عادی باشد یا نشانه ای از مشکل در مدل / داده است؟ | ضرایب بزرگتر (از نظر اقتصادی) یا علامت برگشتی هنگام استفاده از جلوه های ثابت به جای OLS؟ |
80002 | در مورد آزمونها/روشهای زیر مطمئن نیستم که آیا آنها به دسته آزمونهای تک متغیره یا چند متغیره تعلق دارند. آزمونها/روشهای تک متغیره: t-test، ANOVA، ANCOVA، رگرسیون خطی تک متغیره (Y=a+bX) آزمونها/روشهای چند متغیره: MANOVA، رگرسیون خطی چند متغیره (Y=a+bX+cX+…)، تحلیل خوشهای، حداقل مربعات جزئی تجزیه و تحلیل متمایز (PLS-DA)، تجزیه و تحلیل مؤلفه اصلی آیا کسی می تواند تأیید کند که آیا این آزمون ها/روش ها اختصاص داده شده اند یا خیر به دسته های مناسب؟ | دسته بندی آزمون های آماری به روش های تک متغیره و چند متغیره |
54797 | فرض کنید به ما یک توزیع P و یک K ثابت داده شده است. ما میخواهیم مراکز هدف kmeans w.r.t را به حداقل برسانیم ${C1,..Ck}$:! .png) چه محدودیت هایی در $P$ شناخته شده است که نشان می دهد راه حل بهینه منحصر به فرد است (تا مرتب سازی مجدد مراکز)؟ نمونههایی از روشهای موردی نیز قدردانی میشود. به طور خاص برای من توزیع های پیوسته جالب است. مثالی برای $P(x)$ و $k=2$ یک بعدی با راه حل بهینه منحصربفرد: $P(X=1)=0.5$$P(X=-1)=0.5$ تنها مراکز بهینه $C1=1، C2=-1$ | چگونه می توان یک راه حل Kmeans را منحصر به فرد نشان داد؟ |
96957 | من سعی میکنم دادهها را طبقهبندی کنم که با سریهای زمانی چند کانالی نشان داده میشوند: یک مشاهده شامل 300 سری زمانی با طول 100 است. به نظر می رسد که من به نوع خاصی از PCA نیاز دارم. من چیزی در مورد توابع متعامد تجربی و SSA چند کاناله پیدا کردم، اما مطمئن نیستم که آیا آن چیزی است که من نیاز دارم (برای من کاملاً پیچیده به نظر می رسد). لطفاً چند مقاله در مورد این موضوع یا حداقل نام روش هایی که می توانند این کار را انجام دهند، توصیه کنید. خیلی ممنون! | سری زمانی چند کاناله |
13182 | فرض کنید من یک رگرسیون خطی را برای برخی از داده ها (مثلاً وزن در مقابل قد) برازش می کنم، و همه مفروضات رگرسیون خطی استاندارد برآورده می شوند (به ویژه، داده ها همسان هستند). برای مثال، این یک شکل تصادفی است که از amstat.org استخراج شده است که به نظر می رسد آنچه را که من به آن فکر می کنم برآورده می کند:  اکنون من من در حال انجام برخی از تجزیه و تحلیل داده های اکتشافی هستم، بنابراین می خواهم به نمونه هایی نگاه کنم که در آنها رگرسیون خطی به ویژه خاموش است. یعنی، من میخواهم همه افراد را بر اساس میزان بد پیشبینی وزن آنها از روی قد طبقهبندی کنم (تا مثلاً بتوانم به جزئیات بیشتر نگاه کنم، مثلاً افرادی که وزن آنها را کمتر از حد پیشبینی میکند، تمایل به خوردن غذاهای ناسالم زیاد دارند یا خیر. ). سوال من این است: * آیا باید همه افراد را بر اساس باقیمانده های خام آنها مرتب کنم؟ * یا باید همه افراد را بر اساس باقیمانده ها به عنوان درصدی از پیش بینی، یعنی بر اساس «وزن باقیمانده / وزن پیش بینی شده» مرتب کنم؟ از یک طرف، به نظر میرسد مرتبسازی بر اساس باقیماندههای خام ممکن است راه حلی باشد، زیرا خطاهای رگرسیون خطی استاندارد بر اساس مجذور باقیماندهها هستند و نه درصدهای باقیمانده. از سوی دیگر، زمانی که وزن پیشبینیشدهشان 50 کیلوگرم است، وزنی 70 کیلوگرمی دارد تا زمانی که وزن پیشبینیشدهشان 100 کیلوگرم است، بسیار دور از ذهنتر به نظر میرسد. آیا این فقط یک اولویت است یا مدل خاصی که در دست است؟ | نگاهی به باقیمانده ها در مقابل درصدهای باقیمانده |
20656 | من در حال تحقیق درباره برخی مشکلات در بخش بیمه سلامت/پزشکی هستم و میخواهم از توزیعهای احتمال واقعی (یا دادههای فعلی) برای انجام نوعی تجزیه و تحلیل ریسک با استفاده از شبیهسازیهای ساده و موارد مشابه استفاده کنم تا ببینم چگونه انواع مختلف بیمهنامهها در مقابل یکدیگر قرار میگیرند. درک افراد مختلف از ریسک حدس میزنم تنها نوع دادهای که من به IMO نیاز دارم، احتمال مرگ برای انواع مختلف صدمات است (با فرض اینکه «انواع» کاملاً دانهدار هستند). به عنوان مثال: 0.05٪ احتمال آسیب کشنده، 25٪ احتمال شکستگی و غیره، اساساً برخی از داده های واقعی که من می توانم بر اساس آنها تجزیه و تحلیل خود را برای سنجش نگرش ریسک خریداران بیمه نامه انجام دهم. هر گونه ایده / اشاره بسیار قدردانی می شود. اگر دادهها مختص کشور باشد، ترجیحاً آمریکای شمالی، آمریکای جنوبی و اروپا را هدف قرار میدهم. | از کجا می توان داده ها/توزیعات واقعی اکچوئری/بیمه را دریافت کرد؟ |
54577 | من به R عادت دارم که در آن می توانید از factor(variable) برای نشان دادن یک متغیر طبقه بندی استفاده کنید. با این حال، در scikit-learn، تلاش برای پاس دادن یک متغیر از رشته ها باعث می شود DecisionTreeClassifier خطا بدهد. چگونه قرار است از یک متغیر طبقه بندی در scikit-learn استفاده کنید؟ آیا تنها گزینه برای رمزگذاری متغیر چند کلاسه استفاده از متغیرهای ساختگی است؟ | چگونه از متغیرهای طبقه بندی هنگام برازش درخت تصمیم در scikit-learn استفاده می شود؟ |
54572 | من می دانم که شما بچه ها مجاز به دادن هیچ پاسخی نیستم (من نمی خواهم) من فقط در مورد چگونگی انجام آن به کمک نیاز دارم تا بتوانم خودم تمرین کنم. بگو به من بدی داده شد و S.D. فقط از x و y و همچنین به من ضریب همبستگی $r$ داده می شود. چگونه می توانم خطای استاندارد برآورد Y را پیدا کنم؟ من می دانم که فرمول $\sqrt{\frac{\sum{(y-y')^2}}{N}}$ است. و من واقعاً در این مورد سردرگم هستم. و همچنین من باید پیدا کنم اگر x داده شود چگونه y او را پیش بینی کنم؟ | آمار اولیه کمک می کند |
48437 | من یک آزمایش رفتاری روی زنبورهای یک کندو انجام داده ام. من به آنها اجازه دادم تحت دو شرایط مختلف پرواز کنند و اکنون می خواهم میانگین سرعت پرواز را در این دو شرایط مقایسه کنم. تعداد زنبورها در دو حالت متفاوت است. در شرایط 1 من 17 زنبور و در شرایط 2 19 زنبور دارم. نمی دانم در هر دو شرایط همان افراد پرواز می کردند یا نه، زیرا من افراد را علامت گذاری نکردم. با این حال، به احتمال زیاد حداقل تعداد کمی از زنبورها در هر دو شرایط پرواز می کردند. علاوه بر این، ممکن است یک زنبور یکسان در هر شرایطی بیش از یک بار پرواز کرده باشد. به همین دلیل، حدس میزنم باید با دادههایم به عنوان وابسته (اقدامات مکرر) رفتار کنم، درست است؟ حالا سوال من اینه که از چه تستی استفاده کنم که ببینم معنی دو گروه با هم فرق داره؟ از آنجایی که دو گروه وابسته هستند، من نمی توانم آزمون t نمونه های مستقل را انجام دهم، اما از آنجایی که داده های من جفت نیستند، نمی توانم آزمون t-test نمونه های زوجی را نیز انجام دهم... هر نوع توصیه ای بسیار قابل تقدیر است. ! پیشاپیش از شما متشکرم Therese Edit 1: تخمین زده می شود که کندوها از حدود 200 زنبور تشکیل شده باشند، اما نمی توانم به طور قطع بگویم که این کندو از چند زنبور تشکیل شده است. ویرایش 2: اول از همه از نظرات شما متشکرم Placidia. این دو حالت به طور تصادفی در طی چند روز انجام شد، بنابراین من فرض میکنم که زنبورها از شرایط مختلف چیزی یاد نمیگیرند. با این حال، من در مورد تصحیح نمونه محدودی که شما اشاره کردید تعجب می کنم. در آزمایش مشابه دیگری از 40 زنبور عسل برای هر شرایط نمونه برداری کردم (اما برای هر شرایط از زنبورها در دو بازه زمانی صبح و بعدازظهر نمونه برداری کردم و این کار را طی 2 روز انجام دادم. به عبارت دیگر از 10 زنبور نمونه برداری کردم. در یک زمان). آیا در این صورت باید برای نمونه محدود تنظیمی انجام دهم؟ در آزمایش دیگری، از 17 زنبور از یک جمعیت وحشی نمونه برداری کردم. آیا این بدان معنی است که نمونه بی نهایت است و من مجبور نیستم برای یک نمونه محدود تنظیم کنم؟ باز هم از شما متشکرم، من واقعا از کمک شما متشکرم! | چگونه می توان میانگین دو گروه وابسته را در زمانی که گروه ها جفت نیستند مقایسه کرد؟ |
54578 | من در حال حاضر روی پروژه سال آخرم برای مدرک ریاضی خود کار می کنم که بر اساس ارائه یک نمای کلی از الگوریتم متروپلیس-هیستینگ و چند مثال عددی است. تا کنون با استفاده از توزیع پروپوزال خود به عنوان یک گاوسی و نمونه برداری از چند توزیع دیگر به نتایج بسیار خوبی دست یافته ام، با این حال سعی می کنم با استفاده از توزیع پیشنهادی متفاوت یک قدم جلوتر بروم. تا کنون من این کد را دریافت کرده ام (من از Matlab استفاده می کنم)، اما با منابع محدود آنلاین در مورد استفاده از پروپوزال های مختلف، تشخیص اینکه آیا اصلاً نزدیک هستم یا نه، سخت است، زیرا در واقع من خیلی مطمئن نیستم که چگونه این کار را انجام دهم، (به خصوص زیرا تا کنون هیچ خروجی داده مفیدی ارائه نمی دهد). اگر کسی بتواند اطلاعاتی را که به راحتی در دسترس است به من کمک کند، بسیار عالی خواهد بود (من درک می کنم که من فقط در مورد برنامه نویسی توصیه نمی کنم، بلکه از ریاضیات نیز می خواهم). بنابراین، من میخواهم از یک گاوسی با استفاده از توزیع پیشنهادی یک لاپلاس نمونهبرداری کنم، این کد من تاکنون: n = 1000; %%%%تعداد تکرار x(1) = -3; %%%% ایجاد نقطه شروع %%%% توزیع هدف: گاوسی: strg = '1/(sqrt(2*pi*(sig)))*exp(-0.5*((x - mu)/sqrt(sig )).^2)'; tnorm = inline(strg, 'x', 'mu', 'sig'); mu = 1; %%%% پارامترهای گاوسی (من اینها را از زنجیره مارکوف x تخمین خواهم زد) sig = 3; %%%% توزیع پیشنهاد: Laplace: strg = '(1/(2*b))*exp((-1)*abs(x - mu)/b)'; laplace = inline(strg, 'x', 'b', 'mu'); b = 2; %%%% پارامتر لاپلاس، من از مقادیر خود برای y و x(i-1) برای mu %%%% ایجاد زنجیره مارکوف با پذیرش-رد برای i = 2:n %%%% استفاده خواهم کرد یک نامزد از توزیع پیشنهادی y = laplace(randn(1)، b، x(i-1)); %%%%ایجاد یک فرم برای مقایسه u = rand(1); آلفا = min([1، (tnorm(y، mu، sig)*laplace(x(i-1)، b، y))/(tnorm(x(i-1)، mu، sig)*laplace(y , b, x(i-1)))]); اگر u <= آلفا x(i) = y; else x(i) = x(i-1); پایان پایان اگر کسی می تواند به من بگوید که آیا موارد فوق کاملاً اشتباه است/در راه اشتباه است یا فقط چند اشتباه وجود دارد (من در مورد نسل من از 'y' بسیار محتاط هستم زیرا حلقه for کاملاً اشتباه است) که فوق العاده خواهد بود ممنون، تام | الگوریتم متروپلیس-هیستینگ، با استفاده از توزیع پیشنهادی غیر از گاوسی در Matlab |
20655 | آرایشگر من استیسی همیشه چهره ای شاد دارد، اما اغلب در مورد مدیریت زمان خود استرس دارد. امروز استیسی برای قرار ملاقات من به تاخیر افتاده بود و بسیار عذرخواهی کردم. در حین کوتاه کردن موهایم به این فکر کردم: قرار ملاقات های استاندارد او چقدر باید باشد؟ (اگر ترجیح مشتری برای اعداد گرد تمیز را بتوان برای لحظه ای نادیده گرفت). چیزی که باید در نظر گرفت یک «اثر موج دار» است که در آن یک مشتری خیلی دیر می تواند منجر به یک رشته قرار ملاقات های تاخیری شود. در حقیقت، آرایشگران به طور شهودی یاد میگیرند که قرار ملاقاتهای خود را طولانیتر و طولانیتر بگذارند، زیرا از این روزهای پر استرس میترسند. اما یک راه حل بهینه و ظریف باید توسط برخی از نابغه های آماری قابل دستیابی باشد. (اگر کمی واقعیت را نادیده بگیریم) بیایید فرض کنیم الف) زمان های کوتاه کردن مو به طور معمول توزیع شده است و ب) تنها یک آرایشگر وجود دارد. بدیهی است که هزینه تنظیم قرارهای _خیلی طولانی_، زمان تلف شده آرایشگر در انتظار قرار بعدی است. بیایید برای این زمان تلف شده 1 دلار در دقیقه هزینه کنیم. اما اگر قرار ملاقات به اندازه کافی طولانی نباشد، مشتری بعدی منتظر می ماند، که هزینه سنگین تری معادل 3 دلار در دقیقه برای استیسی مشتری دوست دارد. * استیسی تا 8 ساعت در روز کار می کند و به اندازه کافی تقاضا دارد که بتواند هر تعداد قرار ملاقات را که می تواند انجام دهد * متوسط کوتاه کردن موی او 30 دقیقه طول می کشد. توسعه دهنده 10 دقیقه (همچنین فرض کنیم برش های مردانه و زنانه یکسان است!) ویرایش - برخی به درستی اشاره کرده اند که استیسی می تواند قبل از زمان تعیین شده به مشتریان EARLY رسیدگی کند. این یک لایه دیگر از پیچیدگی را اضافه می کند، اما اگر ما با آن به عنوان یک مشکل کاملاً واقع بینانه برخورد کنیم، باید آن را در نظر بگیریم. بیایید فرض 90/10 خود را فراموش کنیم و برای فرضیاتی تلاش کنیم که شاید کمی به واقعیت نزدیکتر باشد. * برخی از مشتریان دیر و برخی زود. میانگین تاخیر مشتریان 2 دقیقه با انحراف معیار 2 دقیقه (به نظر می رسد به طور منطقی نزدیک به واقعیت نیست؟) زمان قرار ملاقات های او دقیقا چقدر باید باشد؟ * * * @alexplanation متاسفم که پست های گل را روی شما منتقل کردم! من مطمئن هستم که خوانندگان R از پاسخ شما استقبال می کنند. | معمای یک آرایشگاه |
20388 | بگذارید هدفم را توضیح دهم: می خواهم یک مدل مارکوف پنهان با دو حالت پنهان تعریف کنم و بگویم، پنج مشاهده ممکن. همانطور که میدانم (من با HMM کاملاً تازه کار هستم)، در هر حالت HMM یکی از مشاهدات را بر اساس احتمالات خروجی داده شده خروجی میدهد. من می خواهم این رفتار را به گونه ای گسترش دهم که خروجی تنها به آن احتمالات وابسته نباشد، بلکه به آخرین مشاهده ای که توسط HMM خروجی شده است نیز وابسته باشد. شما می توانید آن را به گونه ای در نظر بگیرید که گویی هر حالت مخفی مدل مارکوف دیگری (غیر پنهان) در خودش تعبیه شده است و از آن برای تعریف خروجی استفاده کنید. هر دو حالت پنهان دقیقاً مدلهای مارکوف یکسانی دارند، اما با احتمالات انتقال متفاوت. امیدوارم واضح باشه که چی میپرسم هر اشاره ای بسیار قدردانی می شود. | مدلهای مارکوف پنهان: مشاهدات خروجی که توسط یک مدل مارکوف (غیر پنهان) تعریف شدهاند؟ |
96951 | من با تفسیر مقادیر منفرد بهدستآمده توسط SVD، همچنین در رابطه با آنچه که اجزای اصلی PCA به من میگویند، مشکل دارم. پیشینه ریاضی در اینجا توضیح داده شده است. **1\. سوال** از خودم پرسیدم که آیا زمانی که ماتریس خود را جابجا می کنم و سپس SVD/PCA را اعمال می کنم، مهم است؟ بنابراین من یک ماتریس 2x2 را انتخاب کردم تا آن را ساده و قابل ترسیم نگه دارم (ستون ها در برابر یکدیگر با استفاده از R رسم می شوند): x = ماتریس(c(1,0,2,3),nrow=2) x [,1] [ ,2] [1،] 1 2 [2،] 0 3 طرح(x)  استفاده از SVD و PCA: svd(x)$d [1] 3.6502815 0.8218544 prcomp(x) انحرافات استاندارد: [1] 1 0 PCA کاملاً همان چیزی را که من انتظار دارم انجام می دهد، یک بعد هیچ واریانسی نشان نمی دهد (زیرا ما فقط دو نقطه داده داریم) در حالی که دیگری همه واریانس ها را توضیح می دهد. من فکر کردم SV های SVD چیزی مشابه را نشان می دهند، پس چرا SV دوم > 0 است؟ **2\. سوال** اکنون ماتریس را جابجا می کنیم (یا: رسم ردیف های x در مقابل یکدیگر) y = t(x) y [,1] [,2] [1,] 1 0 [2,] 2 3 نمودار(y)  svd(y)$d [1] 3.6502815 0.8218544 prcomp(y) انحرافات استاندارد: [1] 2.236068 0.000000 در حالی که PCA کاری را که من انتظار دارم انجام می دهد (یک بعد تمام واریانس را نشان می دهد و این بار بیشتر از آنجایی که نقاط داده در آن بعد از یکدیگر دورتر هستند)، SV از SVD مانند بالا هستند. سوال اول هنوز اینجا پابرجاست، اما به علاوه: چرا مقادیر مفرد تغییر نکردند؟ (پاسخ ریاضی این است که X*X و XX* مقادیر ویژه یکسانی دارند.) این برای مجموعه داده هایی که ماتریس مربعی ندارند و همچنین مجموعه داده های ابعادی بالاتر نیز صادق است: > m = cbind(1:10+rnorm(10) ,1:10+rnorm(10)) > prcomp(m) انحرافات استاندارد: [1] 4.5043248 0.7969853 > svd(m)$d [1] 27.196875 3.064609 > prcomp(t(m)) انحرافات استاندارد: [1] 3.163586e+00 1.618444e-15 > svd(t(m) 3.064609 (میدانم که دادهها را آنطور که پیشنهاد میشود مقیاسبندی نکردم.) | SVD روی یک ماتریس جابجا شده |
95367 | من یک مدل خطی کلی برای پیش بینی متغیر وابسته Y خود ایجاد کرده ام. در مورد نحوه ارائه معادله خود مطمئن نیستم. آیا باید: (مطمئن نیستم که i باید آنجا باشد یا نه) $Yi= 0.432 + 0.320 Age_i + 0.520 WE_i + 0.300 JP1_i + 0.210 JP2_i$ یا $Y= 0.432 + 0.320 Age + . 520 WE + 0.300 JP1 + 0.210 JP2$ کجا: WE= تجربه کاری؛ JP= موقعیت شغلی; JP1= کارکنان سطح طبقه. JP2= مدیران; | آیا در معادله رگرسیون باید i وجود داشته باشد؟ |
48431 | من مقاله ویکی مربوط به کریجینگ را مرور می کردم http://en.wikipedia.org/wiki/Kriging. با این حال، من نتوانستم برخی از اشتقاق ها را دنبال کنم.  در شکل اول برای کریجینگ ساده، چگونه واریانس خطا به این شکل تبدیل شد در شکل سوم، چگونه واریانس خطا به این شکل بیان شده است. کسی میتونه لطف کنه اشتقاق رو بگه من واقعا گیج شدم. در عبارت بالا چگونه آمده است | سردرگمی مربوط به کریجینگ |
81971 | من چالش های مرتبط با تعداد اندک مشاهدات را درک می کنم. با این وجود، برخی از پیش بینی ها سیگنال های بسیار قدرتمندی دارند. سوال این است که چگونه می توان از R برای کدنویسی کارآمدتر برای ساخت مدلی با بهترین ترکیب پیش بینی کننده ها استفاده کرد. در بهترین حالت، معیار من کمترین مقدار از MAPE نمونه برای آخرین 3-4 مشاهده در سری زمانی من است. آیا راهی کارآمد برای ساخت این رویه/تست در R وجود دارد؟ فراتر از کد، بینش دیگری برای مقابله با این مشکل خاص وجود دارد؟ متشکرم | انتخاب ویژگی سری زمانی: 20 متغیر مستقل، 1 متغیر وابسته، 13 مشاهده |
59127 | اخیراً آزمایش نسبتاً پیچیدهای انجام دادهام و برای ارائه مدلی مناسب برای دادهها مشکل دارم. من چند روز را صرف مطالعه در مورد، به عنوان مثال، زمانی که اثرات تصادفی باید تو در تو یا متقاطع، و متغیرها باید در یک مدل کامل گنجانده شده است. با این حال، ادبیاتی که برای افراد غیر آماری مانند من قابل خواندن است معمولاً به دو سطح تودرتو محدود می شود، در حالی که من (ممکن است) بیشتر داشته باشم. ادبیاتی که به نظر می رسد کاربرد دارد، برای من پیچیده تر از آن است که بتوانم آن را درک کنم. امیدوارم بتوانید به من کمک کنید. هدف من این است که یک مدل کامل را مشخص کنم و ساده سازی مدل را از آنجا شروع کنم. آزمایشی که من انجام دادم به شرح زیر بود: * همه شرکت کنندگان سه کار را به ترتیب ثابت انجام دادند (Task1، Task2، Task3). * کار 1 شامل 30 کارآزمایی، وظایف 2 و 3 هر دو شامل 10 آزمایش بود. * هر کار سه بار توسط هر شرکت کننده تکمیل شد (Round1، Round2، Round3). * دستکاری شامل یک عامل با سه سطح (شرط 1، شرط 2 و شرط 3) بود. * شرایط به راندها گره خورده بود، بنابراین هر شرکتکننده قبل از رفتن به کار 2، وظیفه 1 را در هر شرایط تکمیل کرد (مثلاً 30 آزمایش در شرایط 1، به دنبال آن 30 آزمایش در شرایط 2، به دنبال آن 30 آزمایش در شرایط3). از شش محرک مختلف برای دستکاری این شرایط استفاده کرد (دو مورد برای هر شرایط؛ Stimulus1.1، Stimulus1.2، Stimulus2.1 .. Stimulus3.2) * متغیر وابسته باینری است برای پیچیده تر کردن مسائل، از 6 ترتیب مختلف ارائه محرک ها استفاده کردیم. من فکر می کنم ساده ترین کار برای نشان دادن ساختار داده با استفاده از یک مثال است: order <- rbind( c('Stimulus1.1', 'Stimulus2.1', 'Stimulus3.1', 'Stimulus2.2', 'Stimulus3.2', 'Stimulus1.2'، 'Stimulus3.1'، 'Stimulus1.2'، 'Stimulus2.1')، c('Stimulus1.1', 'Stimulus3.1', 'Stimulus2.1', 'Stimulus3.2', 'Stimulus2.2', 'Stimulus1.2', 'Stimulus2.1' , 'Stimulus1.2'، 'Stimulus3.1')، c('Stimulus2.1', 'Stimulus3.1'، 'Stimulus1.1'، 'Stimulus3.2'، 'Stimulus1.2'، 'Stimulus2.2'، 'Stimulus1.2'، 'Stimulus2.1'، 'Stimulus3.1')، c ('Stimulus2.1', 'Stimulus1.1', 'Stimulus3.1', 'Stimulus1.2'، 'Stimulus3.2'، 'Stimulus2.2'، 'Stimulus3.2'، 'Stimulus2.1'، 'Stimulus1.1')، c('Stimulus3.1'، 'Stimulus2.1' , 'Stimulus1.1', 'Stimulus2.2', 'Stimulus1.2', 'Stimulus3.2'، 'Stimulus1.1'، 'Stimulus3.2'، 'Stimulus2.1')، c('Stimulus3.1'، 'Stimulus1.1'، 'Stimulus2.1'، 'Stimulus1.2' , 'Stimulus2.2', 'Stimulus3.2', 'Stimulus2.1', 'Stimulus3.2'، 'Stimulus1.1')) تست <- expand.grid(trial=1:30, task=c('Task1', 'Task2', 'Task3'), round=c('Round1' , 'Round2', 'Round3')، pp=1:12) تست <- test[! (با (تست، آزمایش > 10 و وظیفه == 'Task2'))،] تست <- تست[! (با (تست، آزمایشی > 10 و وظیفه == 'Task3'))،] test$taskround <- factor(paste(test$task, test$round, sep=':')) test$task <- factor( test$task) test$round <- factor(test$round) test$stimulus <- factor(unlist(lapply(1:nrow(test), function(x) {order[1 + (test[x، 'pp'] %% 6), as.numeric(test[x,'taskround'])]})) test$condition <- factor(paste('Condition', substr(as.character (test$ محرک)، 9،9)، sep='')) test$response <- factor(rbinom(nrow(test),1, prob=.95)) test$pp <- factor(test$pp) ساختار داده بهدستآمده عبارت است از: پاسخ شرایط محرک دور تکلیف آزمایشی 1 1 وظیفه 1 دور 1 1 وظیفه 1: دور1 محرک 1.1 شرط 1 1 2 2 وظیفه 1 دور 1 1 وظیفه 1: دور1 محرک 1.1 شرط 1 1 3 3 وظیفه 1 دور 1 . 1 شرط 1 1 4 4 Task1 Round1 1 Task1: Round1 Stimulus1.1 Condition1 1 5 5 Task1 Round1 1 Task1:Round1 Stimulus1.1 Condition1 1 6 6 Task1 Round1 1 Task1:Round1 Stimulus1.1 Condition1 Round1 Task11 Round Stimulus1.1 Condition1 1 8 8 Task1 Round1 1 Task1:Round1 Stimulus1.1 Condition1 1 9 9 Task1 Round1 1 Task1:Round1 Stimulus1.1 Condition1 1 10 10 Task1 Round1 111 Task1m1:Round به طور عمده علاقه مند است. را اثر اصلی شرط من پیش بینی می کنم که تمایل به پاسخ ممکن است بین وظایف و شرکت کنندگان متفاوت باشد. این به یک رهگیری متفاوت برای هر کار و شرکت کننده تبدیل می شود، درست است؟ من همچنین پیش بینی می کنم که دستکاری ممکن است بر برخی از شرکت کنندگان بیشتر از دیگران تأثیر بگذارد. و من گمان میکنم که شرکتکنندگان مختلف ممکن است به روشهای متفاوتی به وظایف مختلف برخورد کنند (به عنوان مثال، وظیفه 1 ممکن است موفقیتهای بیشتری نسبت به کار 2 ایجاد کند، اما شرکتکننده 1 ممکن است نسبت به شرکتکننده 2 نسبت به این جنبه از وظیفه حساستر باشد). مدل فعلی من این است: `glmer(response ~ condition + (1 | pp/task/round) + (0 + task + condition | pp)، data=test, family = binomial)` با این حال، مطمئن نیستم که این مدل درست است. سوالات من عبارتند از: 1. من در مورد تودرتوی اثرات تصادفی در بند اول نامطمئن هستم. من معتقدم «تکلیف/گردش» درست است، اما مطمئن نیستم که آیا باید اینها را بهعنوان تودرتو در زیر شرکتکنندگان در نظر بگیرم یا از طریق آن عبور کنم. | تعیین یک مدل کامل صحیح برای طراحی اندازه گیری های مکرر نامتعادل در R lme4 |
15934 | در این مطالعه 13 آزمودنی وجود دارد که هر آزمودنی به طور مکرر پای راست و چپ را در 5 شرایط راه رفتن اندازه گیری کرد. متغیرهای این مجموعه داده عبارتند از: ID، Y، Leg، Conditions. سؤالات تحقیق برای یافتن تفاوت بین پاها و شرایط است. در ابتدا، من قصد دارم از RM-ANOVA استفاده کنم: $Y = \text{Leg} + \text{Conditions} + \text{Leg}\times\text{Conditions}$. اما RM-ANOVA ممکن است مناسب نباشد زیرا پای راست و چپ نیز همبستگی دارند (از یک موضوع). آیا کسی ایده ای برای تجزیه و تحلیل این نوع داده ها دارد؟ | چگونه می توان مطالعه ای را تجزیه و تحلیل کرد که در آن اقدامات مکرر از پای راست و چپ در پنج شرایط راه رفتن انجام می شود؟ |
7336 | من یک شبیه سازی را روی R و مجموعه ای از کامپیوترها اجرا می کنم و مشکل زیر را دارم. در هر یک از X کامپیوترهایی که اجرا می کنم: fxT2 <- function(i) runif(10) nessay <- 100 c(mclapply(1:nessay, fxT2), recursive=TRUE) 32 کامپیوتر وجود دارد که هر کدام 16 هسته دارند. با این حال، حدود 2٪ از اعداد تصادفی یکسان هستند. برای جلوگیری از این موضوع چه راهکارهایی را اتخاذ می کنید؟ من توانسته ام با تنظیم یک تأخیر از این مشکل برای fxT2 جلوگیری کنم (یعنی تأخیر یک ثانیه در زمان ارسال هر کار به هر یک از رایانه های X). اما برای fxt2 بسیار موقتی به نظر می رسد. مشکل این است که در واقعیت fxT2 یک کار طولانی است که شامل اعداد شبه تصادفی است. در پایان فرآیند، من انتظار دارم که بازتولید X*nessay از همان آزمایش آماری را بدست آوریم، **نه** بازتولیدهای nessay. چگونه می توان مطمئن شد که واقعاً چنین است و آیا راهی برای بررسی این موضوع وجود دارد؟ | RNG، R، mclapply و خوشه کامپیوترها |
46944 | من داشتم این کتاب مربوط به فیلترهای کالمن رو میخوندم و یکی دوتا چیز رو متوجه نشدم. اسکرین شات صفحات کتاب را که در آن گیج شده بودم نیز پیوست کرده ام. کتاب Shumway, R.H. and Stoffer, D.S. Time Series Analysis and Its Applications: With R Examples از صفحه اول، من نفهمیدم چگونه این مورد استخراج شد منظورم این است که چگونه است که ما $p(x_t|x_{t-1}) = داریم f_w(x_t-\phi_{x_{t-1}})$ و دارای میانگین 0 و کوواریانس Q است. منظورم این است که باید برای $w_t$ باشد که میانگین 0 دارد و کوواریانس Q نه $p(x_t|x_{t) -1})$ از صفحه دوم، زیر را متوجه نشدم منظورم واضح است که $p(\mu_t|Y_{t-1} => N(\mu_t^{t-1},P_t^{ t-1}))$. اما من متوجه نشدم که چگونه از انتگرال بدست می آوریم از صفحه سوم، من متوجه نشدم که چگونه این استخراج شده است می دانم که ممکن است زیاد بپرسم، اما چندین روز وقت گذاشته ام تا دقیقاً مشتق معادلات در فیلترهای کالمن را درک کنم. واقعا ممنون میشم اگه کسی بتونه کمکم کنه پیشاپیش متشکرم  | سردرگمی مربوط به نمای چگالی فیلترهای کالمن |
8639 | با سلام، آیا امکان استفاده از شواهد در مدل Winbug وجود دارد؟ به عنوان مثال، یک متغیر تصادفی در یک مدل مشاهده شده است، و من میخواهم سایر متغیرهای مدل را بهروزرسانی کنم، تقریباً همان بهروزرسانی که در ابزارهایی مانند Smile یا سایر نرمافزارهای استنتاج انجام میشود. نمونه گیری گیبس قرار است از مقادیر مشاهده شده در توزیع شرطی کامل استفاده کند، زمانی که مشاهدات/شواهد وارد مدل می شود، اما مطمئن نیستم که Winbugs این اجازه را می دهد یا خیر. با احترام ویرایش برای روشنتر شدن: مستندات باگ میگوید یک گره تصادفی یک گره داده است اگر مشاهده شده باشد، اما یک گره تصادفی از طریق یک توزیع توصیف میشود که در some_var ~ dbin(theta,n) اگر مشاهده شده باشد، پس I' دوست دارم بدون از دست دادن معنای گره تصادفی این را به winbugs بگویم، و چیزی شبیه به some_var دارای این توزیع است، و مشاهده شده است که این ارزش خاص را دارد». پس چگونه این کار را انجام دهم؟ با اعلان some_var همانطور که در بالا انجام دادم و سپس یک مقدار برای آن مانند some_var = 5 تنظیم کنید؟ آیا این بیانگر چیزی است که من می خواهم بیان کنم؟ در این مورد، در هر مشاهده گره در یک شبکه بیزی، باید مدل winbugs را مجدداً تعریف کنم، (احتمالاً) مقادیر اولیه گرههای مشاهده نشده را با نتایج شبیهسازی قبلی جایگزین کنم. به طور خلاصه، من سعی می کنم بفهمم چگونه می توان به روز رسانی ها را در یک شبکه بیزی شبیه به ارسال پیام در استنتاج دقیق انجام داد، اما در عوض از نمونه گیری گیبس از طریق Winbugs استفاده کرد. | آیا می توانم یک مشاهده (شواهد) را در مدل Winbugs وارد کنم؟ |
7330 | من یک سوال در مورد یک ماتریس چرخشی دارم که می تواند در 2 بعد به صورت زیر نمایش داده شود: $$R_{2}(\theta)=\begin{bmatrix} \cos\theta & \sin\theta \\\ -\sin\ theta & \cos\theta \end{bmatrix}$$ برای برخی از زاویههای دلخواه $\theta$. این را می توان با اضافه کردن یک ماتریس هویت به تعداد دلخواه ابعاد گسترش داد: $$R_{n}(\theta)=\begin{bmatrix} R_{2}(\theta) & 0 \\\ 0 & I_{n -2}\end{bmatrix}$$ هنگامی که در 2 بعد دلخواه چرخانده میشود، برخی از ویژگیهای «عدم تغییر» یک توزیع قبلی n بعدی را یافتهام. سوال من این است: آیا هر چرخشی در ابعاد دلخواه را می توان با دنباله ای از چرخش های دو بعدی نشان داد؟ فرقی نمی کند که سکانس برای اهداف من منحصر به فرد باشد یا نه. یا شاید یک سوال بهتر این باشد: اگر یک توزیع قبلی با چرخش در حدود 2 بعد دلخواه ثابت است، آیا زمانی که حول تعداد دلخواه از ابعاد می چرخد، ثابت است؟ | ماتریس های چرخش و تغییر ناپذیری قبلی برای ابعاد دلخواه |
8630 | من یک تجزیه و تحلیل مؤلفه های اصلی از شش متغیر $A$، $B$، $C$، $D$، $E$ و $F$ انجام داده ام. اگر به درستی بفهمم -- PC1 چرخان نشده به من می گوید که کدام ترکیب خطی از این متغیرها بیشترین واریانس را در داده ها توصیف می کند/توضیح می دهد و PC2 به من می گوید که کدام ترکیب خطی از این متغیرها بیشترین واریانس بعدی را در داده ها توصیف می کند و غیره. فقط کنجکاو -- آیا راهی برای انجام این کار به عقب وجود دارد؟ بیایید بگوییم که من ترکیبی خطی از این متغیرها را انتخاب می کنم - به عنوان مثال. $A+2B+5C$، آیا میتوانم بفهمم چه مقدار واریانس در دادههایی که این توضیح میدهد؟ | تجزیه و تحلیل مؤلفه اصلی -- به عقب؟ |
95360 | من در حال کار بر روی یک رگرسیون لجستیک بر روی برخی از داده های جمع آوری کمک هستم که در آن داده یک رویداد نادر است (تقریباً 3.5٪). مدل فعلی من 64% دقت در داده های تست و AUC 0.604 دارد. وقتی نمودار (مدل) استاندارد را اجرا میکنم، در هر نمودار مقداری پرت میبینم که کاملاً از بقیه مجموعه دادهها جدا شدهاند. وقتی می بینید که جدایی در طرح اینگونه است، اولین فکر شما چیست؟ آیا این نشان دهنده یک مشکل است یا فقط ماهیت ماهیت چنین رویداد نادری؟  | نحوه تفسیر این باقیمانده ها در مقابل نمودار برازش برای رگرسیون لجستیک با استفاده از R |
8631 | من می خواهم بفهمم که چگونه می توان در مورد شیوع یک بیماری در جمعیت یک کشور محاسبات انجام داد و تأثیر عنصر میانگین امید به زندگی (کسانی که در زمان تشخیص از این بیماری رنج می برند) بر این محاسبه دارد. آیا مقاله «بهترین عمل» در مورد انجام محاسبات اپیدمیولوژی وجود دارد؟ | امید به زندگی چگونه بر محاسبه شیوع بیماری تأثیر می گذارد؟ |
54576 | من به تازگی شروع به یادگیری در مورد نقشه های خودسازماندهی بدون پیش زمینه زیادی در شبکه های عصبی کرده ام، پس اگر این سوال بی اهمیت به نظر می رسد مرا ببخشید، اما به نظر می رسد که یک SOM بستگی به این دارد که نقاط داده آموزشی ورودی به کدام ترتیب وارد SOM شوند؟ بنابراین آیا میتوان برای دادههای آموزشی مشابه تصویرسازیهای متفاوتی به دست آورد؟ | نقشه های خود سازماندهی و ترتیب نمونه ها |
8633 | اگر متوجه شوم که متغیر کمکی (زمان واکنش) من در طول آزمایش من تغییر می کند (مثلاً به دلیل خستگی)، آیا می توانم آن را به نحوی در مدل خود بسازم؟ بنابراین آنچه من می گویم این است که تأثیر متغیر کمکی من (بین موضوع ها و درون موضوعات) ثابت نیست. | ANCOVA با چندین نمونه از متغیر کمکی بین موضوعی |
11963 | من از تئوری تجزیه شده رفتار برنامه ریزی شده برای تجزیه و تحلیل متغیرهای پیش بینی کننده موثر بر عوامل معلم موثر بر پذیرش فناوری های وب 2.0 در کلاس استفاده می کنم. چندین سؤال وجود دارد که هر سازه از جمله متغیر وابسته را می سنجد. آیا میتوانم هر ساختار جداگانه را تحت دادههای تبدیل اضافه کنم و سپس یک رگرسیون چندگانه برای هر متغیر پیشبینیکننده در برابر وابسته انجام دهم؟ میدانم که باید نمودارهای پراکندگی را برای نقاط پرت نیز بررسی کنم. ممنون برتا | سازه ها و رگرسیون چندگانه |
48436 | بیایید فرض کنیم نقاطی در فضای دو بعدی داریم و میخواهیم اثرات ویژگیهای $X$ را روی ویژگی $y$ اندازهگیری کنیم. البته مدل رگرسیون خطی معمولی $$y= X\beta + \epsilon$$ است که در اینجا دو مشکل وجود دارد: اول این که عبارتهای $\epsilon$ ممکن است از نظر مکانی همبستگی داشته باشند (نقض فرض خطاهای مستقل و یکسان). و دوم این است که شیب رگرسیون ممکن است در سراسر فضا متفاوت باشد. اولین مسئله را می توان با گنجاندن اصطلاحات تاخیر مکانی در مدل حل کرد، همانطور که در $$y=\rho W y + X\beta + \epsilon$$ حتی میتوانیم متغیرهای حذف شده خودبازگشت مکانی (اثرات ثابت مکانی) را با مدل دوربین فضایی که توسط LeSage و Pace در متن توضیح داده شده است $$y=\rho W y + X\beta + WX\lambda + \epsilon$$ که در آن $\rho$ قدرت همبستگی فضایی است که توسط ماتریس وزن $W$ کنترل می شود. واضح است که شکل تأخیر فضایی به فرضیاتی در مورد شکل همبستگی فضایی بستگی دارد. مشکل دوم با استفاده از رگرسیون وزندار جغرافیایی (GWR) پرداخته شده است، تکنیکی که من با آن آشنا نیستم، اما توسط Brunsdon و همکارانش توضیح داده شده است. (1998). تا آنجا که من می توانم بگویم، این شامل برازش آرایه ای از مدل های رگرسیون به زیر منطقه های وزنی است، بنابراین تخمینی از هر $\beta_i$ که بر اساس فضای آن تغییر می کند، $$\hat{\beta}_i = (X) است. ^TW_iX)^{-1}X^T W_i y$$ که در آن $W$ ماتریس وزن های فضایی دیگری است که لزوماً با ماتریس بالا متفاوت نیست. **سوال من**: آیا روش اول (خودرگرسیون فضایی) برای به دست آوردن یک تخمین بی طرفانه از میانگین اثر حاشیه ای $X$ روی $y$ کافی نیست؟ به نظر می رسد GWR بیش از حد مناسب است: البته $\beta$ در فضا تغییر می کند، اما اگر بخواهیم میانگین اثر مورد انتظار یک درمان را بدون توجه به موقعیت مکانی آن بدانیم، GWR چه کمکی می تواند داشته باشد؟ در اینجا تلاش من برای پاسخ اولیه است: 1. اگر بخواهم حق بیمه یک اتاق خواب اضافی _در یک محله خاص_ را بدانم، به نظر می رسد که GWR بهترین گزینه من باشد. 2. اگر بخواهم حق بیمه بی طرفانه _ جهانی_ را برای یک اتاق خواب اضافی بدانم، باید از تکنیک های خودبازگشت فضایی استفاده کنم. دوست دارم دیدگاه های دیگر را بشنوم. | خودهمبستگی فضایی در مقابل ایستایی فضایی |
59122 | هنگام تغییر سطح اهمیت، مناطق رد را می توان به صورت تو در تو یا غیر تودرتو انتخاب کرد. میخواستم بدانم ملاحظات نظری و عملی در استفاده از مناطق رد تودرتو یا غیر تودرتو چیست؟ با تشکر و احترام! | مناطق رد تو در تو یا نه؟ |
13186 | من چند نقطه داده دارم که هر کدام شامل 5 بردار از نتایج گسسته انباشته شده است، که نتایج هر بردار توسط توزیع متفاوتی تولید می شود (نوع خاصی که مطمئن نیستم، بهترین حدس من Weibull است، با پارامتر شکل که در حدود نمایی به توان متفاوت است. قانون (تقریباً از 1 تا 0).) من به دنبال استفاده از یک الگوریتم خوشه بندی مانند K-Means برای قرار دادن هر نقطه داده در گروه هایی بر اساس ویژگی های توزیع 5 جزء آن. می خواستم بدانم آیا معیارهای مسافت ثابتی وجود دارد که برای این اهداف زیبا باشد. من تا به حال سه ایده داشته ام، اما یک آماردان باتجربه نیستم (بیشتر یک دانشمند کامپیوتری مبتدی در زمینه داده کاوی) بنابراین نمی دانم که چقدر دور از مسیر هستم. 1. از آنجایی که من دقیقاً نمی دانم با چه نوع توزیع هایی سروکار دارم، رویکرد brute-force من برای حل این مشکل این بود که هر یک از توزیع ها (من 5 در هر نقطه) را به هر یک از مقادیر داده های گسسته مربوطه تقسیم کنم ( من هر کدام را به یک طول مشابه با صفر در انتها اضافه می کنم) و از هر یک از این مقادیر به عنوان یک ویژگی جداگانه برای خود نقطه داده استفاده می کنم. من سعی کردم از فاصله منهتن و فاصله اقلیدسی به عنوان معیارهای مبتنی بر این ویژگی ها برای PDF و CDF استفاده کنم. 2. دوباره، چون نمیدانم چه نوع توزیعهایی دارم، به این نتیجه رسیدم که اگر قرار باشد فاصله بین توزیعهای کلی را اندازهگیری کنم، میتوانم از نوعی آزمون ناپارامتری به صورت زوجی بین توزیعها استفاده کنم، مانند KS. -تست، برای یافتن این احتمال که توزیع های داده شده توسط PDF های مختلف تولید شده اند. من فکر کردم که اولین گزینه من (در بالا) با استفاده از فاصله منهتن، نوعی حد بالایی برای آنچه ممکن است با استفاده از این رویکرد به دست بیاورم باشد (زیرا آمار KS حداکثر مقدار مطلق تفاوت CDFها است، جایی که فاصله منهتن برابر است با مجموع مقادیر مطلق تفاوت ها در فایل های PDF). سپس به ترکیب KS-Statistics یا P- مقادیر مختلف در هر نقطه داده فکر کردم، احتمالاً با استفاده از فاصله اقلیدسی، اما احتمالاً فقط حداکثر همه این مقادیر را در نظر بگیرم. 3. در نهایت، در تلاش برای استفاده از مقدار کمی که می توانم در مورد شکل توزیع ها تفسیر کنم، فکر کردم ممکن است سعی کنم پارامترهای توزیع ها را مطابق با منحنی Weibull تخمین بزنم. سپس میتوانم توزیعها را بر اساس تفاوتهای موجود در دو پارامتر توزیع Weibull، لامبدا و k (مقیاس و شکل) خوشهبندی کنم، که احتمالاً طبق واریانس این پارامترها یا چیزی شبیه به آن نرمال شدهاند. این تنها موردی است که فکر میکنم ممکن است ایدهای در مورد نحوه عادیسازی پارامترها داشته باشم. بنابراین سوال من این است که چه معیار/روش هایی را برای خوشه بندی توزیع ها توصیه می کنید؟ آیا من حتی با هر یک از اینها در مسیر درستی هستم؟ آیا K-Means حتی الگوریتم خوبی برای استفاده است؟ ویرایش: شفاف سازی داده ها. هر نقطه داده (هر شی «Obj» که میخواهم خوشهبندی کنم) در واقع حاوی «5 بردار» داده است. من می دانم که دقیقاً 5 فاز وجود دارد که این اشیاء می توانند در آن قرار گیرند. ما (به منظور ساده سازی) خواهیم گفت که هر بردار دارای طول N است. هر یک از این بردارها (آن را بردار i می نامند) یک توزیع احتمال با عدد صحیح x-value از 1 تا N است، که در آن هر مقدار y مربوطه نشان دهنده احتمال اندازه گیری مقدار x در فاز i است. شیء Obj. سپس N حداکثر مقدار x است که من انتظار دارم در هر مرحله از جسم اندازه گیری کنم (این در واقع یک عدد ثابت در تحلیل من نیست). من این احتمالات را به روش زیر تعیین میکنم: 1. یک «Obj» را میگیرم و آن را در «فاز i» برای «k آزمایش» قرار میدهم و در هر آزمایش اندازهگیری میکنم. هر اندازه گیری یک عدد کامل است. من این کار را برای هر یک از 5 فاز یک جسم واحد و به نوبه خود برای هر شی انجام می دهم. دادههای اندازهگیری خام من برای یک شی منفرد ممکن است به این صورت باشد: بردار 1. [90، 42، 30، 9، 3، 4، 0، 1، 0، 0، 1] بردار 2. [150، 16، 5، 0، 1، 0، 0، 0، 0، 0، 0] ... بردار 5. [16، ... ...، 0] 2. سپس من با توجه به تعداد کل اندازهگیریها در آن بردار، هر یک از بردارها را به تنهایی عادی کنید. این یک توزیع احتمال در آن بردار به من می دهد، که در آن هر مقدار y مربوطه نشان دهنده احتمال اندازه گیری مقدار x در فاز i است. | خوشه بندی توزیع های احتمال - روش ها و معیارها؟ |
8632 | ISO VIM آنها را به صورت زیر تعریف می کند: > **روش اندازه گیری:** توصیف عمومی یک سازمان منطقی > عملیات مورد استفاده در یک اندازه گیری. > > **رویه اندازه گیری:** شرح دقیق یک اندازه گیری بر اساس > یک یا چند اصل اندازه گیری و یک روش اندازه گیری معین، > بر اساس یک مدل اندازه گیری و شامل هرگونه محاسبه برای به دست آوردن نتیجه اندازه گیری. اما من هنوز مطمئن نیستم که تفاوت آنها چیست. کسی می تواند این را برای من توضیح دهد، شاید با چند مثال؟ | تفاوت بین روش اندازه گیری و روش اندازه گیری چیست؟ |
110813 | تخمین پراکندگی ناشناخته در سنجش فشرده مقاله ای در مورد سیگنال پراکنده است. تازه دارم مفاهیم رو یاد میگیرم در پاراگراف اول، می گوید که وقتی تعداد نمونه های داده مشاهده $n$ کمتر از بعد سیگنال $p$ باشد، سیگنال مورد نظر $x$ پراکنده است. من هرگز با اصطلاح بعد سیگنال مواجه نشده ام. میشه لطفا یکی توضیح بده بعد سیگنال چیه؟ | بعد سیگنال چیست |
54579 | سوژه های من موش هایی هستند که 60 ثانیه در استخر شنا می کنند. DV میزان زمانی است که آنها در هر ربع استخر صرف می کنند. عملکرد هر موضوع مستقل از هر موضوع دیگری است. با این حال، نرم افزار هر فریم 0.5 ثانیه را در یکی از چهار ربع طبقه بندی می کند. اگر موضوع در یک ربع باشد، طبق تعریف در سه ربع دیگر نیست. روش معمول برای تجزیه و تحلیل این داده ها با اندازه گیری های مکرر ANOVA است، با هر ربع یک اندازه، اما اگر هر یک از مشاهدات در هر ربع وابسته به آنچه در سه ربع دیگر اتفاق افتاده باشد، این به نظر من درست نیست. آیا من به این درست فکر می کنم یا اقدامات تکراری ANVOVA در این مورد خوب است؟ | آیا وابستگی یک طبقه بندی به طبقه بندی دیگر نقض فرض استقلال برای ANOVA است؟ |
95365 | اگر این خیلی واضح است یا قبلاً در جای دیگری از شما پرسیده شده است، پیشاپیش عذرخواهی می کنم - من خیلی ریاضی نیستم، بنابراین مطمئن نیستم که چگونه هوشمندانه این را بپرسم. بهترین راه برای گروه بندی مجموعه ای از مقادیر داده در گروه های _n_، به گونه ای که هر گروه کمترین محدوده ممکن را داشته باشد، چیست؟ فرض کنید مقادیر نمونه من به شرح زیر است: {1، 2، 7، 8، 9، 15، 16، 16، 17، 18، 18، 20} و من می خواهم 3 گروه با کمترین میزان اسپرد در هر کدام ایجاد کنم. گروه ما میتوانیم سه گروه را مانند این انجام دهیم: {1، 2، 7} گسترش = 6 {8، 9} گسترش = 1 {15، 16، 16، 17، 18، 18، 20} گسترش = 5 ------ --------------------------------------- مجموع = 12 یا اگر ما دو گروه اول را دوباره کار کنیم که می توانیم آن را کاهش دهیم: {1, 2} spread = 1 {7, 8, 9} spread = 2 {15, 16, 16, 17, 18, 18, 20} spread = 5 ---- ----------------------------------------- کل = 8 سوال من این است: آیا روشی ریاضی برای تعیین نحوه تشکیل گروه ها وجود دارد؟ به عنوان نسخه معکوس سوال، آیا راهی وجود دارد که نه **تعداد** گروه ها، بلکه **حداکثر گسترش** یک گروه را مشخص کرد و گروه ها را به گونه ای تعیین کرد که از مقدار آنها تجاوز نکند. گسترش؟ این ممکن است متقاطع به الگوریتم های برنامه نویسی باشد، بنابراین من آن را در Stack Overflow نیز پست خواهم کرد. | مقادیر داده را گروه بندی کنید تا هر گروه حداقل محدوده را داشته باشد |
81975 | من فقط در یک مجله علمی نسبتاً معتبر (محبوب) (مدظله العالی آلمان، 02/2013، ص. 36) در مورد یک آزمایش جالب (متاسفانه بدون منبع) مطالعه کردم. توجه من را جلب کرد زیرا به طور شهودی در اهمیت نتیجه شک داشتم، اما اطلاعات ارائه شده برای بازتولید آزمایش آماری کافی بود. محققان این سوال را مطرح کردند که آیا سرماخوردگی در هوای سرد احتمال ابتلا به سرماخوردگی را افزایش می دهد. بنابراین آنها به طور تصادفی یک گروه 180 دانش آموز را به دو گروه تقسیم کردند. یک گروه مجبور شد پاهای خود را به مدت 20 دقیقه در آب سرد نگه دارد. دیگری کفش هایش را نگه داشت. به نظر من نوعی دستکاری خنده دار است، اما از طرف دیگر من پزشک نیستم و شاید پزشکان خنده دار فکر کنند. مسائل اخلاقی به کنار. به هر حال پس از 5 روز، 13 نفر از دانش آموزان گروه درمان سرما خورده بودند، اما فقط 5 نفر از گروهی که کفش خود را به پا می کردند. بنابراین نسبت شانس این آزمایش 2.87 است. با توجه به حجم نمونه نسبتاً کوچک، شروع به تعجب کردم که آیا این تفاوت ممکن است قابل توجه باشد. بنابراین من دو آزمایش انجام دادم. ابتدا یک آزمون ساده برای برابری نسبت ها با استفاده از تقریب عادی. این تست $z=1.988$ با $p=0.0468$ دارد. حدس من این است که این همان چیزی است که محققان آزمایش کردند. این واقعاً فقط قابل توجه است. با این حال، این آزمون z به دلیل تقریب معمولی، اگر اشتباه نکنم، فقط در نمونه های بزرگ معتبر است. علاوه بر این، میزان شیوع نسبتاً کوچک است و من نمیدانم که آیا این ممکن است بر میزان پوشش فاصله اطمینان اثر تأثیری نداشته باشد. بنابراین دومین تلاش من یک آزمون کای اسکوئر استقلال بود، هم با شبیه سازی مونت کارلو و هم با کای مربع استاندارد پیرسون. در اینجا من مقادیر p را هر دو در مورد $p=.082$ پیدا می کنم. اکنون همه اینها در مورد نتایج چندان اطمینان بخش نیست. من تعجب کردم که آیا گزینه های بیشتری برای آزمایش این داده ها وجود دارد و نظر شما در مورد این دو آزمون چیست (به ویژه مفروضات آزمون مهم اول) | تست $z$-test در مقابل $\chi^2$-تست برای مقایسه احتمال سرماخوردگی در 2 گروه |
112706 | من سعی می کنم یک برآوردگر GMM ساده برای میانگین یک متغیر تصادفی توزیع شده نرمال با استفاده از سه ممان مرکزی فرد اول یک توزیع نرمال ایجاد کنم (که همه آنها از نظر نظری باید صفر باشند). در GMM دو مرحلهای، معمولاً اولین مرحله به حداقل رساندن تابع هزینه حداقل مربعات خطاهای هر شرط لحظهای در نمونه است. رسیدن به یک تخمین اولیه از میانگین مو. بردار خطاهای بعد از این مرحله اول (که در اولین تخمین پارامتر ارزیابی می شود) سپس برای ایجاد یک ماتریس کوواریانس شرایط لحظه ای که یک ماتریس وزن دهی از آن مشتق می شود استفاده می شود. سپس در مرحله دوم برای رسیدن به یک برآورد کارآمد از میانگین استفاده می شود. من این را در Matlab کدگذاری کرده ام و تا جایی که می دانم، این کار به درستی انجام شده است. مسئله ای که من دارم این است که ماتریس کوواریانس بسیار نزدیک به مفرد است - به این معنی که معکوس ندارد. به نظر می رسد که مرحله 1 خوب کار می کند - مشکل در مرحله دوم به دلیل این مشکل مطابق با نیاز کار نمی کند. هر گونه کمکی برای تشخیص اینکه چرا من با این مشکل مواجه شده ام بسیار قدردانی خواهد شد! این کد متلب است. روشن؛ همه را ببند clc; %% تولید داده های عادی mu = 10; var = 4; N = 10; X = mu + sqrt(var)*randn(N,1); %% تعاریف تابع برای GMM پایه f_cost_c = @(mu_hat,degree) (1/N)*sum((X-mu_hat).^degree); % تعداد لحظه های فرد را برای درج در هزینه مشخص کنید fn N_moments = 3; f_cost_v = @(mu_hat)f_cost_c(mu_hat,1); برای i = 1:N_moments-1 f_cost_v = @(mu_hat)[f_cost_v(mu_hat); f_cost_c(mu_hat،2*i+1)]؛ پایان f_L_cost_c = @(mu_hat) f_cost_v(mu_hat)'*f_cost_v(mu_hat); %% مقدار mu_hat را بیابید که هزینه مجذور پایه را به حداقل می رساند (مرحله اول 2S GMM) mu_hat_0 = 5; mu_hat = fminunc(f_L_cost_c,mu_hat_0); mu_hat_1 = mu_hat; %% برای تولید ماتریس وزنی v_cost = f_cost_v(mu_hat) از مقدار بردار هزینه در مقدار یافت شده در مرحله 1 استفاده کنید. S_hat = (1/N_moments)*(v_cost*v_cost'); W_hat = inv(S_hat); %% مرحله دوم 2SLS GMM % تعریف هزینه جدید با استفاده از ماتریس وزن تخمینی f_L2_cost_c = @(mu_hat) f_cost_v(mu_hat)'*W_hat*f_cost_v(mu_hat); mu_hat_0 = mu_hat; mu_hat = fminunc(f_L2_cost_c,mu_hat_0); | برآوردگر GMM دو مرحله ای در متلب |
95369 | من در حال ساخت یک مدل پیش بینی بر اساس روش k-امین نزدیکترین همسایه (KNN) هستم، زیرا رویدادهای مشابهی دارم. از آنجایی که الگوریتم نقاط را به مجموعه ها طبقه بندی نمی کند، می خواستم بدانم آیا راه یا معیاری برای تعیین تعداد همسایگان وجود دارد. نحوه تخمین احتمال مقادیر پیش بینی شده بر اساس نزدیکترین همسایگان | الگوریتم نزدیکترین همسایه برای پیش بینی |
48435 | من می خواهم بر اساس مجموعه داده های آموزشی و آزمایشی وضعیت بعدی را پیش بینی کنم. بنابراین من دادههایم را به یک مجموعه قطار و آزمایش تقسیم کردم و MLE را در مجموعه قطار محاسبه کردم و میخواهم وضعیت بعدی را در مجموعه داده آزمایشی پیشبینی کنم. مشکل اکنون این است که میتواند حالتهایی در مجموعه تست وجود داشته باشد که هرگز از طریق مجموعه قطار یاد نگرفتهاند. چگونه با آن کنار بیایم؟ اگر من راهاندازی قطار/آزمایش مشابهی داشته باشم و بخواهم احتمال ورود به سیستم را در مجموعه داده آزمایشی محاسبه کنم، با حالتهایی که هرگز در مجموعه قطار رخ نمیدهند، مشکل مشابهی رخ میدهد. امیدوارم کسی بتواند در این مورد به من کمک کند! با احترام، فیلیپ | پیشبینی زنجیره مارکوف با حالتهای ناشناخته |
110933 | من با زمان های اجرای یک الگوریتم کار می کنم و باید تغییرپذیری آنها را ارزیابی کنم. انحراف استاندارد معیاری است که به شما می گوید یک توزیع معین چقدر از میانگین آن متفاوت است. با توجه به سوال تعریف دقت تخمینگر، در پاسخ استپاشا میگوید که > دقت را میتوان 1/واریانس، یا 1/انحراف استاندارد تعریف کرد، اما انحراف معیار به بزرگی دادهها بستگی دارد. بنابراین، چیزی که من به دنبال آن هستم، فرآیندی است که برای استخراج میزان تغییر داده ها، مستقل از بزرگی آن استفاده می شود. به عنوان مثال، توزیعی مانند {100،101،102،99،101} دقت بیشتری نسبت به {0.1،0.2،0.3،0.5} دارد اما انحراف استاندارد آن بسیار بزرگتر است. آیا باید فقط بر میانگین توزیع تقسیم کنم؟ این ممکن است فقط یک مورد بسیار پیش پا افتاده از آمار باشد (تقصیر من برای به خاطر سپردن آن کلاس ها)، اما می خواهم بدانم روش استاندارد برای ارزیابی این چیست و چگونه نام دارد. | دقت داده مستقل از محدوده داده |
111140 | من همیشه مفهوم تعیین تعداد «ایدهآل» مؤلفهها/فاکتورها برای یک ICA/PCA/FA از طریق یک طرح تصویری را مفید و سریع، اما همچنین کمی متزلزل میدانستم. در تلاشی برای واضحتر کردن «آرنج» طرح اسکری (و بدون تلاش برای تطبیق تابعی با نقاط دادهی نمودار خطی). داشتم به این فکر میکردم که آیا ترسیم مختصات در مقیاس لگاریتم میتواند به روشن شدن کمک کند.  طرح بدون ورود به سیستم (اول از سمت چپ) بسیار دسته بندی شده است، اما به همان اندازه که با آن بدیهی است. پلات های اسکری را نشان می دهد که عامل سوم آرنج است (و بنابراین تعداد فاکتورهای ایده آل من باید 3 باشد). در حال حاضر، همچنین به نظر میرسد که مقیاس لاگ من در پایه 2 یا 10 باشد، تفاوت کمی برای ظاهر طرح دارد - که حدس میزنم خوب است. در نهایت، من متوجه شدم که نمودارهای ثبت X/Y بیشترین ویژگی را برای عامل سوم نشان میدهند، و آن را به نقطهای تبدیل میکند که در آن دو نوع منحنی در نمودار به هم میرسند. همچنین فکر می کنم این ویژگی در اینجا بهتر از طرح (خطی) اول خودنمایی می کند. آیا می توان فرض کرد که همیشه اینطور است؟ آیا ارزش توصیه به استفاده از مختصات ورود به سیستم X/Y برای نمودارهای اسکری را دارد؟ | آیا استفاده از مقیاس log در نمودارهای Scree برای PCA/ICA/FA ایده خوبی است؟ |
110935 | **زمینه:** می خواهم آماری را به خوانندگان ارائه دهم که شباهت دو مجموعه اعداد را نشان می دهد. من فکر می کردم که آنچه را که با ضریب همبستگی نیاز دارم را دارم (در واقع، من ضریب تعیین / r2 98.7 دارم). اما من تازه متوجه شدم که r و r2 فقط این را میرسانند که دو مجموعه اعداد در حرکت به سمت بالا و پایین با هم ارتباط دارند. و آنچه من می خواهم (همچنین) منتقل کنم این است که آنها نیز تقریباً یکسان هستند. اما با این حال احساس میکنم تحلیل رگرسیون بیش از نیاز من است (یا بهطور دقیقتر، بیشتر از آن چیزی که میتوانم با اکسل انجام دهم). برای کمی دقیق تر، مجموعه ای از داده ها را با درآمد ماهانه برای دو فروشگاه در یک مرکز خرید تصور کنید. ضرایب همبستگی نشان می دهد که آیا درآمد فروشگاه ها متغیر است یا خیر. اما من میخواهم نشان دهم که درآمد ماهانه نیز تقریباً همان عدد واقعی است. در یک نمودار، آنها از نظر بصری یکی روی دیگری قرار دارند. اما آیا معیاری آماری وجود دارد که آن را نشان دهد؟ **سوال:** معیاری از ارتباط چیست که شباهت واقعی مقادیر را بین دو متغیر و نه فقط همبستگی را بیان می کند؟ | معیار ارتباطی که شباهت واقعی مقادیر بین دو متغیر و نه فقط همبستگی را بیان می کند چیست؟ |
28230 | متقاطع از ریاضی. اگر لازم است قبل از پست کردن اینجا کمی منتظر بمانم، به من اطلاع دهید. مثلاً 30 امتیاز). برای خطی بودن باید رگرسیون حداقل مربعات را انجام دهم. اگر مجموعه داده ها خطی است، باید ببینم که نزدیک به عمودی است یا افقی. چگونه می توانستم این کار را انجام دهم؟ | تست هم خطی و موازی با محورها |
31581 | میدانم میدان گاوسی چیست. با این حال، من کاملاً مطمئن نیستم که منظور از ثابت چیست. من این چیز ثابت را در بسیاری از مکانها مانند فرآیندهای خودرگرسیون ثابت و غیره دیدهام، اما در واقع نمیدانم منظور از ثابت چیست. | میدان گاوسی ساکن چیست؟ |
111149 | من می خواهم تفاوت بین استفاده از ماتریس فاصله اقلیدسی یا ماتریس همبستگی را به عنوان ورودی به الگوریتم nMDS درک کنم. من نمودارهای MDS هر دو را تکمیل کرده ام، و با وجود مشابه بودن، فواصل بین نقاط متفاوت است (در برخی موارد کاملاً چنین است). من میدانم که هر دو مفاهیم مختلف شباهت را اندازهگیری میکنند، اما با استفاده از یک روش نسبت به روش دیگر، چه بینشی از دادهها به دست میآورم؟ با تشکر | مقیاسبندی چند بعدی: تفسیر خروجی ماتریسهای فاصله مختلف (اقلیدسی یا همبستگی) |
110819 | من در حال یادگیری مفاهیم رگرسیون پراکنده و مواجهه با موانع اولیه در اصطلاح هستم. مدل رگرسیون پراکنده تعریفی را از اینکه منظور از پراکنده است را توضیح می دهد. وقتی تعداد نمونههای $n$ کمتر از بعد سیگنال $p$ باشد، میگوییم مدل رگرسیون پراکنده است. 1. برای یک مدل، $x_t = a1x_{t-1} + a2x_{t-2} + نویز گاوسی سفید$، پارامترهای $(a1,a2)$ با زمان و برای نمونه $n=t$ تغییر نمی کند. ما فقط دو پارامتر دریافت می کنیم. سپس، چگونه می شود که مقاله می گوید $A \in R^{n \times p}$؟ این به چه معناست؟ $A$ بردار ضرایب است و ماتریس نیست. سپس $R^{n \times p}$ به چه معناست؟ 2. چیزی که من فهمیدم این است که تعداد ضرایب صفر بیشتری وجود دارد، اما اگر چنین است، یک کران بالایی وجود دارد که نشان می دهد سیگنال پراکنده است؟ 3. من به دنبال مرجعی هستم که بتوانم چنین مدل AR و MA را پیدا کنم. کسی میتونه لینکی یا کمکی در ساختن همچین مدلی معرفی کنه؟ متشکرم | مدل رگرسیون پراکنده چیست؟ |
111492 | من 60 بیمار سرطانی دارم. مرحله بندی و وزن تومورشان را بر حسب گرم بررسی کرده ام. یک متغیر مرحله بندی سرطان است - مرحله 1، مرحله 2، مرحله 3 و مرحله 4 (به ترتیب افزایش). متغیر دیگر وزن تومور است - یک متغیر پیوسته. من می خواهم با افزایش مرحله از مرحله 1 به 4 بررسی کنم که آیا وزن تومور نیز افزایش می یابد. میشه لطفا راهنمایی کنید که از کدام تست استفاده کنم؟ | از کدام آزمایش برای مشاهده افزایش وزن تومور در مراحل مختلف استفاده کنیم؟ |
8634 | با توجه به دو توزیع نرمال دو متغیره $P \equiv \mathcal{N}(\mu_p, \Sigma_p)$ و $Q \equiv \mathcal{N}(\mu_q, \Sigma_q)$، سعی میکنم جنسن-شانون را محاسبه کنم. واگرایی بین آنها، تعریف شده (برای حالت گسسته) به صورت: $JSD(P\|Q) = \frac{1}{2} (KLD(P\|M)+ KLD(Q\|M))$ که $KLD$ واگرایی Kullback-Leibler است و $M=\frac{1}{2}(P+Q)$ من راه را برای محاسبه $KLD$ بر حسب پارامترهای توزیع، و بنابراین $JSD$ پیدا کرد. شک من این است: 1. برای محاسبه $M$، من فقط $M \equiv \mathcal{N}(\frac{1}{2}(\mu_p + \mu_q), \frac{1}{2}( \Sigma_p + \Sigma_q))$. آیا این درست است؟ 2. من در [1] خواندهام که $JSD$ محدود است، اما زمانی که آن را برای توزیعهای معمولی همانطور که در بالا توضیح داده شد، درست به نظر نمیرسد. آیا این بدان معناست که من آن را اشتباه محاسبه می کنم، یک فرض را نقض می کنم یا چیز دیگری را که نمی فهمم؟ | واگرایی جنسن-شانون برای توزیع های نرمال دو متغیره |
95364 | شرکت کنندگان در یک مطالعه بر اساس تعداد دفعاتی که این موارد در روز ارائه می شوند، از نظر توانایی آنها در به خاطر آوردن موارد مورد آزمایش قرار می گیرند. ما عملکرد آنها را در یک بازه زمانی 4 روزه دنبال می کنیم. بنابراین من دو متغیر مستقل دارم: تعداد ارائه ها و روزها. اساساً میخواهم بدانم آیا تأثیر خطی تعداد ارائهها وجود دارد و این تأثیر چگونه در طول زمان تغییر میکند؟ در ابتدا به یک مدل خطی با یک بتا برای هر متغیر وابسته فکر می کردم. اما مسئله این است که انجام این کار به یک تعامل پاسخ نمی دهد، زیرا اگر به درستی متوجه شده باشم، عبارت تعامل به عنوان متغیر دیگری وارد می شود که از ضرب مقادیر دو رگرسیور دیگر تشکیل شده است. در نهایت، من به استفاده از مدلی فکر میکنم که در آن تعداد رگرسیور ارائهها را به طور مستقل در هر روز تنظیم کنم و یک ANOVA روی نسخههای بتا برای آزمایش اثر تعامل اجرا کنم. آیا با انجام این کار درست خواهم بود یا رویکرد بهتری برای تحلیل وجود دارد؟ | تکامل شیب ها در طول زمان |
9997 | من مقداری یادگیری ماشینی انجام داده ام و از اعتبار سنجی متقاطع k-fold برای ارزیابی عملکرد تعمیم الگوریتم استفاده کرده ام. من اعتبار متقاطع k-fold را با k = 5 و k = 200 امتحان کردم و نتایج بسیار متفاوتی را برای طبقهبندی ماشین بردار پشتیبان دریافت کردم. k دقت SVM ------------------ 5 75% 200 94% به نظر می رسد این تفاوت بزرگی در دقت است که ناشی از تغییر تعداد تقسیماتی است که برای k-fold انجام می دهیم. اعتبار سنجی متقابل آیا دلیلی برای این وجود دارد؟ به نظر نمی رسد هیچ مرجعی در مورد مطالعاتی که برای بررسی اثرات استفاده از مقادیر مختلف k انجام شده است، پیدا کنم. بدیهی است که من تصمیم دارم از کدام مقدار k در گزارش خود استفاده کنم، برداشت های کاملاً متفاوتی از کیفیت طبقه بندی کننده من می دهد! | اطلاعات در مورد اینکه چگونه مقدار k در اعتبار سنجی متقاطع k برابر بر دقت های حاصل تأثیر می گذارد |
111147 | بنابراین من کمی گیج هستم که چرا تعداد راههای دریافت خانه کامل این است: 13 دلار \انتخاب 1 $$ 12 \انتخاب 1$$ 4 \انتخاب 3$$ 4 \انتخاب 2$ در مقابل: 13 $ \ انتخاب 2 $ $ 4 \ انتخاب 3 $ $ 4 \ انتخاب 2 $. از طرف دیگر، با 2 جفت، چرا اینطور است: 13 دلار \انتخاب 2 $$ 4 \انتخاب 2$$ 4 \انتخاب 2$$4 \انتخاب 1$$11 \انتخاب 1$ بیش از: 13 $ \انتخاب 1 $$ 12 \انتخاب 1 $$ 4 \انتخاب 2$$ 4 \انتخاب 2$$4 \انتخاب 1$$11 \انتخاب 1 دلار | تفاوت بین فول هاوس و دو جفت با توجه به اعداد انتخاب شده؟ |
54570 | من سنسوری دارم که می تواند تغییرات جزئی فاصله را تشخیص دهد. یک سری زمانی تولید می کند. من می خواهم آن را به سمت مردم نشان دهم و چیزهایی مانند الگوی خواب آنها را تشخیص دهم. چگونه میتوان سیستمی ساخت که بفهمد «طبیعی» برای این کاربر چه معنایی دارد و میتواند جملاتی مانند «در 3 ماه گذشته الگوی خواب شما 3 ساعت تغییر کرده است، این بد است». در اینجا تصویری از ظاهر این سریال در طول یک روز آمده است یکی از دگرگونی های آن را موقعیت می نامیم، سعی می کند موقعیتی را که سوژه در اختیار دارد (دراز کشیدن، نشستن و غیره) نشان دهد.  از هر ایده ای استقبال می شود. من تحلیل سری های زمانی و کاربردهای آن: با مثال های R توسط Shumway و Stoffer را بررسی کردم. من فکر می کنم به دلیل ماهیت چرخه ای داده ها باید تحلیل طیفی و فیلترینگ را بررسی کنم. من از پایتون/پاندا استفاده کردهام و به دنبال انجام کار با مدلهای آماری و scikit-learn هستم. ویرایش 1: فعالیت دادههای «خام» از حسگر است. فاصله است (مقادیر بالاتر به سنسور نزدیکتر است) اما ارزش آن در حساسیت آن نهفته است. من می خواهم الگوهای تنفس را در صورت امکان تشخیص دهم. در مورد موقعیت، من در واقع مطمئن نیستم که فرمول آن دگرگونی چیست، از نویسنده می پرسم. | تشخیص ریتم شبانه روزی در یک سری زمانی |
110811 | ### پیشینه عمومی من چندین بار دو نوع سوال را برای دانش آموزان مطرح کرده ام. نوع 1 من شش بار تزریق کرده ام و نوع 2 را پنج بار تجویز کرده ام. این دو سوال در یک ایده اصلی اما به روش های متفاوت هستند. هر سوال فقط یک سوال تک گزینه ای است. دانشآموزان فقط یک پاسخ ارائه میدهند (یعنی یک حباب روی یک صفحه اسکرانترون). من درصد درستی در هر مدیریت هر سوال را می دانم. یعنی داده های من برای یکی از سؤالات چیزی شبیه (35٪، 32٪، 24٪ ...) و برای دیگری (20٪، 24٪ ...) به نظر می رسد. من در مجموع حدود 11 نقطه داده دارم که به دو دسته تقسیم شده اند. ### سوال میخواهم بدانم که آیا دانشآموزان در یک نوع سوال در مقایسه با نوع دیگر بهتر عمل میکنند؟ آیا آزمون استنباط یا دسته ای از آزمون ها وجود دارد که در اینجا مناسب باشند؟ ### جزئیات احتمالاً مهم * **تعداد متفاوتی از دانشآموزان** با هر مدیریت درگیر هستند، اما همه آنها بین 60 تا 180 نفر هستند. وقتی به درصد درست نگاه می کنیم * انحرافات استاندارد مرتبط با توزیع هایی که به تازگی ذکر شد بستگی زیادی به سوال خاصی دارد که پرسیده می شود (احتمالاً به دلیل تفاوت در زمینه های دانشجویی و غیره) بنابراین، من نمی خواهم نوعی از $\sqrt{Np( را فرض یا تجویز کنم. 1-p)}$ یا سایر انحرافات استاندارد برای هر دولت. ### چیزی که من در نظر گرفتم تمایل اولیه من این است که نوعی آزمون t-weighted را انجام دهم، اما چیزی پیدا نکردم. سپس مسیر بررسی تست های متاآنالیز را دنبال کردم، اما با اینها کاملاً ناآشنا هستم. آیا آزمون های استنتاجی وجود دارد که به این وضعیت خاص رسیدگی کند؟ | تست استنتاج زمانی که نقاط داده میانگین هستند |
46941 | مدل $ y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \epsilon$ را در نظر بگیرید. 1. رابطه بین ضرایب همبستگی $r_{y,x_1}$, $r_{y,x_2}$ و ضرایب رگرسیون $\beta_1$ و $\beta_2$ چیست؟ 2. به طور خاص، چگونه می توان موقعیتی را تفسیر کرد که یک ضریب همبستگی خاص از نظر آماری معنی دار است اما ضریب رگرسیون مربوطه از نظر آماری معنی دار نیست؟ 3. یادم می آید که مفهومی به نام «ضرایب همبستگی جزئی» را خوانده بودم. آیا این به نوعی در زمینه فوق مرتبط است؟ | رابطه بین ضرایب همبستگی و ضرایب رگرسیون در رگرسیون چندگانه چیست؟ |
83054 |  من دستوری از rvf plot اجرا کردم. آیا این نمودار هتروسکداستیکی را نشان نمی دهد؟ | هتروسکداستیکی تفسیر نمودار |
1399 | من علاقه مند به بدست آوردن یک فاصله اطمینان بوت استرپ در کمیت X هستم، زمانی که این کمیت در هر یک از 10 فرد 10 بار اندازه گیری شود. یک رویکرد این است که میانگین را برای هر فرد به دست آوریم، سپس ابزار را راهاندازی کنیم (مثلاً نمونهبرداری مجدد از ابزار با جایگزینی). روش دیگر این است که در هر تکرار از رویه راهاندازی موارد زیر را انجام دهید: در هر فرد، 10 مشاهدات آن فرد را با جایگزینی مجدداً نمونهگیری کنید، سپس میانگین جدیدی را برای آن فرد محاسبه کنید، و در نهایت میانگین گروه جدیدی را محاسبه کنید. در این رویکرد، هر فردی که در مجموعه دادههای اصلی مشاهده میشود، همیشه به میانگین گروهی در هر تکرار رویه بوت استرپ کمک میکند. در نهایت، رویکرد سوم ترکیب دو رویکرد فوق است: نمونهگیری مجدد از افراد و سپس نمونهگیری مجدد در درون آن افراد. این رویکرد با رویکرد قبلی متفاوت است زیرا به همان فرد اجازه میدهد در هر تکرار به میانگین گروه کمک کند، اگرچه از آنجایی که هر مشارکت از طریق یک روش نمونهگیری مجدد مستقل ایجاد میشود، ممکن است انتظار داشته باشیم که این مشارکتها کمی از یکدیگر متفاوت باشند. در عمل، متوجه میشوم که این رویکردها تخمینهای متفاوتی را برای فاصله اطمینان به دست میدهند (مثلاً با یک مجموعه داده، متوجه شدم که رویکرد سوم فاصلههای اطمینان بسیار بزرگتری نسبت به دو رویکرد اول به دست میدهد)، بنابراین کنجکاو هستم که هر کدام ممکن است چه باشند. به نمایندگی تفسیر شده است. | به دست آوردن و تفسیر فواصل اطمینان بوت استرپ از داده های سلسله مراتبی |
104499 | من از سرویسی استفاده می کنم (بهینه، همانطور که اتفاق می افتد) که فاصله اطمینان را نشان می دهد اما توضیح نمی دهد که چیست. من فرض میکنم که یک بازه اطمینان دوجملهای است، اما نمیدانم درصد اطمینان محدوده یا معنای دقیق آن چیست. جستجو در اینترنت کمکی نمی کند - هیچ کس توضیح واضحی درباره اینکه پیش فرض این نوع چیزها چیست، ندارد. به عنوان مثال، برای موفقیت 97 از 939 آزمایش، Optimizely می گوید 10.33٪ (±1.95). این 1.95± احتمالاً به چه معناست، دقیقاً؟ و بله، من قبلاً از آنها شکایت کرده ام که باید آن را مستند کنند. اما به وضوح، برخی از پیش فرض ها وجود دارد که آماردانان معمولاً از آن استفاده می کنند. چیست؟ | محتمل ترین معنای فاصله اطمینان چیست؟ |
65706 | من متغیرهای تصادفی $N$ برنولی $X_1، ...، X_{N}$ با پارامترهای شناخته شده $p_1، ...، p_{N}$ دارم. آنها با کوواریانس های شناخته شده وابسته هستند. چگونه می توانم از توزیع مشترک X_i$ نمونه برداری کنم؟ من به طور ایده آل رویکرد کلی تر از این را می خواهم. | چگونه می توانم از توزیع برنولی چند متغیره همبسته با کوواریانس های شناخته شده نمونه برداری کنم؟ |
11033 | من یک مدل نصب شده دارم (از ادبیات). من همچنین داده های خام برای متغیرهای پیش بینی را دارم. برای بدست آوردن احتمالات باید از چه معادله ای استفاده کنم؟ اساساً چگونه می توانم داده های خام و ضرایب را برای بدست آوردن احتمالات ترکیب کنم؟ | چگونه می توانم از بتای رگرسیون لجستیک + داده های خام برای بدست آوردن احتمالات استفاده کنم |
50982 | خوانندگان معتبر، آیا کسی مجاز است به صورت دستی علامت یک تخمین را تغییر دهد (به دست آمده از طریق OLS)، اگر این توسط یک نظریه اساسی پشتیبانی می شود؟ اولین ایده من این بود که این اساساً یک دستکاری است که تخمین ها را مجبور می کند به سمتی بروند که ما می خواهیم. در واقع، علامت برآورد باید مستقیماً جهت درست اثر را نشان دهد. با این حال، من شروع به فکر می کنم که ممکن است در برخی موارد توجیه شود. مورد من به شرح زیر است. فرض من این است که یک متغیر X تأثیر منفی بر Y دارد، با این حال X با یک پروکسی X1 نشان داده می شود (که در نهایت در مدل گنجانده می شود؛ X در رگرسیون ظاهر نمی شود). بنابراین، این مانند این است که بگوییم X تابعی از X1 است. X1 می تواند یک اثر منفی یا مثبت بر X داشته باشد. بنابراین، علامت تخمین B1 منفی است (همانطور که انتظار می رود، زیرا تأثیر متغیری با تأثیر منفی بر Y را نشان می دهد)، زمانی که تأثیر X1 بر X همچنین منفی است، اما زمانی مثبت است که تأثیر X1 بر X مثبت باشد. در موقعیت دوم، آیا می توانم یک - را در مقابل B1 قرار دهم و به روشی که اکنون انجام دادم (البته رسمی تر) توجیه کنم؟ * * * باید خودم را اصلاح کنم. علامت ضریب را تغییر نداده ایم، اما علامت مقادیر مشاهده شده را برای این متغیر تغییر داده ایم. ما داده های تجربی داریم و از پروکسی برای رقابت در سمت تقاضای بازار کار (متغیر مورد علاقه ما) استفاده می کنیم. ما از ادبیات قبلی می دانیم که رقابت بر متغیر وابسته تأثیر منفی دارد. 2 پراکسی که ما استفاده کردیم با Y و در نتیجه با رقابت نیز مرتبط هستند (مقدار پراکسی کاهش می یابد، رقابت افزایش می یابد، Y کاهش می یابد). سومین پراکسی که ما استفاده می کنیم یک نرخ است و به جای آن در همان جهت رقابت حرکت می کند (افزایش نرخ، افزایش رقابت) بنابراین روی Y تأثیر مثبت دارد که آن را به یک پروکسی بد تبدیل می کند. بنابراین، من فکر کردم که ممکن است از متضاد این متغیر به عنوان یک پروکسی برای رقابت استفاده کنیم، به طوری که رابطه منفی بین پراکسی و متغیر وابسته را حفظ کنیم. نقطه مقابل این نرخ (منظورم این است: 1-rate) معیاری است که در واقع منطقی است. | تغییر تخمین علامت به صورت دستی |
59124 | من به نوعی تازه وارد جنگل تصادفی هستم، بنابراین هنوز با برخی مفاهیم اولیه درگیر هستم. در رگرسیون خطی، مشاهدات مستقل، واریانس ثابت را فرض میکنیم. * تفاوت های کلیدی بین جنگل های تصادفی و خلیج های ساده از نظر مفروضات مدل چیست؟ | فرضیات تصادفی جنگل |
68242 | اخیراً در حال خواندن یک مسئله برای تست یک دم بودم، یک قطعه در وضوح توجه من را جلب کرد: همانطور که در بخش قبل ذکر شد، سطح اهمیت، که با > **_α_** نشان داده شده است، احتمال ایجاد یک است. خطای نوع I با رد کردن **_Ho_**> وقتی که فرضیه صفر به عنوان یک برابری درست است، تصمیم گیرنده باید سطح اهمیت را مشخص کند برای ایجاد ** خطای نوع I > زیاد است، یک مقدار کوچک باید برای سطح اهمیت انتخاب شود، اگر > هزینه زیاد نباشد، مقدار بزرگتر مناسب تر است. _(Statistics for > Business and Economics، Anderson, 11ed, page 357)_ ما مفهوم سطح معناداری را می دانیم، اما سوال این است که... بر اساس چه چیزی برای سطح معناداری یک مقدار تعیین می کنیم؟ هنگامی که یک ارزش بالا؟ وقتی یک مقدار کوچک؟ چگونه هزینه ایجاد یک نوع خطا در تجارت یا تحقیق را تعیین کنیم؟ در چند کلمه، سطح اهمیت چگونه روی زندگی واقعی کار می شود؟ | سطح اهمیت در زندگی واقعی |
50984 | من از یک مدل زمان شکست تسریع شده با توزیع Weibull برای پیش بینی زمان شکست استفاده می کنم. زمانهای خرابی من از 1 تا 365 متغیر است، با بسیاری از (80%) نقاط داده که درست سانسور شدهاند (بدون شکست مشاهدهای). در میان مشاهداتی که شکست داشتند، میانگین زمان شکست 90 روز بود. وقتی ماشینهایی را که در تمام طول سال کار میکنند در نظر بگیرید، توزیع زمان خرابی U شکل است - جرم زیادی بین 1 تا 90 روز و جرم زیادی برای ماشینهایی که در طول سال کار میکنند. با توجه به survreg من می توانم پارامترهای مقیاس و شکل برای توزیع Weibull را از یک برازش survreg بدست بیاورم. پارامتر مقیاس برابر است با exp(term intercept) از survreg، که در مورد من exp(9.3) ~ 11k است. این بسیار بزرگ به نظر می رسد، برای مثال هیست (rweibull (100000، مقیاس = 11000، شکل = 0.5)) زمان های شکست را نشان می دهد که بسیار بزرگ هستند - میانه آن هیستوگرام 5000 روز، نزدیک به 14 سال است! من میدانم که برای بیشتر دادهها نمیتوانستیم یک شکست را مشاهده کنیم، بنابراین زمان تخمینی تا شکست تا حدودی زیاد است، اما این برای پیشبینی کمی غیرمنطقی است. آیا کاری وجود دارد که بتوانم با مدل یا داده ها انجام دهم، یا این پدیده به این دلیل است که 80 درصد داده ها به درستی سانسور شده اند و ما زمان خرابی بیش از یک سال را نمی دانیم؟ | هنگامی که داده ها به درستی سانسور می شوند، پارامتر مقیاس زمان شکست تسریع شده بسیار بزرگ است |
15936 | سوال احتمالی ساده (امیدوارم) دوست دارم اگر کسی بتواند برای من پاسخ دهد. شما یک سکه را 13 بار ورق می زنید (دو نتیجه: سر یا دم). قبل از پرتاب سکه، من سکانس برنده را یادداشت کرده ام، به عنوان مثال. یک توالی تصادفی از 13 نتیجه، سر یا دم برای هر پرتاب. به عنوان مثال: سر، سر، دم، سر، دم، دم، دم، سر، دم، سر، سر، دم، سر. شانس اینکه کسی سکه را پرتاب کند و همان سکانس (سر یا دم در همان ترتیب) من را بگیرد چقدر است؟ | احتمال پرتاب همان دنباله 13 سر یا دم |
28234 | @JeromyAnglim، با تشکر از پاسخ شما به چگونه اندازه نمونه مورد نیاز برای ANOVA اندازه گیری مکرر را تعیین کنیم. سوال من: آیا فرمولی برای تخمین حداقل تعداد نقاط زمانی مورد نیاز برای اندازه گیری های مکرر هنگام انجام کارآزمایی بالینی وجود دارد؟ من می دانم که زمانی که قصد انجام کارآزمایی بالینی را داریم، فرمولی برای تخمین حجم نمونه وجود دارد. من به چنین چیزی امیدوار هستم. اکنون قصد دارم یک کارآزمایی بالینی برای ارزیابی تأثیر یک دستگاه جدید در مقایسه با دستگاه قدیمی انجام دهم. بیماران به صورت تصادفی 2:1 در یک بازوی مطالعه یا بازوی کنترل شده قرار می گیرند. متغیر نتیجه من پیوسته است. اگر مطالعه بیش از 1 سال انجام شود، می خواهم بدانم حداقل امتیاز زمانی که باید بگیرم چقدر است؟ ممکن است یک مرجع به من بدهید؟ | حداقل تعداد نقاط زمانی مورد نیاز در اندازه گیری های مکرر |
9990 | من کاملاً با مدلهای اثرات مختلط (MEM) آشنا هستم، اما یکی از همکاران اخیراً از من پرسید که چگونه آن را با مدلهای رشد پنهان (LGM) مقایسه میکند. من کمی جستجو کردم، و به نظر میرسد که LGM نوعی مدلسازی معادلات ساختاری است که در شرایطی اعمال میشود که اندازهگیریهای مکرر در هر سطح حداقل یک اثر تصادفی به دست میآید، بنابراین زمان را به یک اثر ثابت در مدل تبدیل میکند. در غیر این صورت، MEM و LGM تقریباً مشابه به نظر می رسند (به عنوان مثال، هر دو اجازه کاوش ساختارهای کوواریانس مختلف و غیره را می دهند). آیا من درست می گویم که LGM از نظر مفهومی مورد خاصی از MEM است، یا تفاوت هایی بین این دو رویکرد با توجه به مفروضات یا ظرفیت آنها برای ارزیابی انواع مختلف تئوری ها وجود دارد؟ | تفاوت بین مدل سازی با اثرات مختلط و مدل سازی رشد نهفته چیست؟ |
82686 | می دانیم که وقتی منحنی بازدهی خزانه داری وارونه می شود، نشانه آن است که اقتصاد به سمت مشکل پیش می رود. من می خواهم رابطه بین منحنی بازده و اقتصاد را تحلیل کنم. مشکل من ارائه روشی برای توصیف شکل منحنی بازده با استفاده از یک عدد است. من می خواهم کاری کمی پیچیده تر از اندازه گیری شیب بین سازهای نزدیک و دور انجام دهم. پیشنهادی دارید؟ | چگونه می توانم منحنی بازدهی خزانه را به عنوان یک عدد مشخص کنم؟ |
50988 | چند ماه پیش، این دو سوال را در مورد ملاحظات عملی در جمع آوری داده ها برای یک متاآنالیز شبکه و بسته های R موجود که می توانند چنین داده هایی را تجزیه و تحلیل کنند، پست کردم. برای کسانی که با متاآنالیز شبکه آشنا نیستند، این روشی است که مجموعه ای از درمان ها را با یکدیگر مقایسه می کند. بخشی از آنچه در مورد این روش جذاب است این است که توسعه های چند متغیره متاآنالیز شبکه می تواند مطالعاتی را در خود جای دهد که بیش از دو درمان را با یکدیگر مقایسه می کنند. روشهای متاآنالیز سنتی تنها میتوانند دو درمان را در خود جای دهند. من در حال حاضر سعی می کنم از بسته mvmeta برای انجام متاآنالیز استفاده کنم. با این حال، من کمی در کشف نحوه اجرای متاآنالیز گیر کرده ام. همانطور که من متوجه شدم، متاآنالیز شبکه می تواند در سطح بازو یا کنتراست پیاده سازی شود. با این حال، در متاآنالیز خود من، نویسندگان به ندرت نتیجه را در سطح بازو گزارش میکنند، و بسیاری از دادههای من باید با استفاده از آمار آزمون از مقایسه بین بازوها استخراج میشد (به عنوان مثال، آزمون t که درمان A را با درمان B مقایسه میکند). . بنابراین، من از رویکرد مبتنی بر کنتراست استفاده میکنم که با مدلسازی مقایسههای مختلف بین بازوها به عنوان نتایج جداگانه، مطالعات بیش از سه بازو را در خود جای میدهد. برای مطالعه با k بازو، مقایسه k - 1 به طور کامل نشان دهنده تفاوت بین بازوها است. بنابراین، باید یک درمان مرجع را انتخاب کرد و مقایسه های k - 1 را با آن درمان مرجع محاسبه کرد. برای مثال، برای مطالعهای که درمانهای A، B و C را با یکدیگر مقایسه میکند، میتوان اندازههای اثر جداگانه را برای مقایسههای AB و AC محاسبه کرد. چیزی که من نمی فهمم این است که چگونه می توان این چارچوب را برای نشان دادن مطالعاتی که شامل درمان مرجع نیستند، گسترش داد. بنابراین، در مثال بالا، من نمیدانم که چگونه میتوان مطالعهای را که درمانهای B و C را مقایسه میکند، تطبیق داد. یک احتمال این است که من به سادگی یک تحلیل جدید با B به عنوان درمان مرجع اجرا کنم. آیا کسی از شما می داند که آیا واقعاً چنین است؟ برای مرجع، من تعدادی کد R را اضافه کردم که نوشتم که معتقدم متاآنالیز شبکه را با استفاده از mvmeta در زیر انجام می دهد. سوال من، که در زمینه کد R نمونه مجدداً بیان شد، این است که نمیدانم چگونه مطالعاتی را که مقایسههای BC را مشاهده میکنند، نشان دهم. library(mvmeta) # ساخت داده AB <- c(.5، .3، 0.2، .2، NA، NA، 0.1) AC <- c(NA، 0.3، 0.4، NA، 0.2، . 1، .5) # مقایسه های قبل از میلاد کجا هستند؟ d <- data.frame(AB, AC) n1 <- 50 n2 <- 50 nT <- 150 # مجموع N برای مطالعات 3 بازویی در این مثال # ایجاد لیستی از N = 7 ماتریس واریانس کوواریانس درون مطالعه (S ماتریس ها). # اینها تابعی از اندازه های افکت و N های مطالعه مشخص شده در بالا هستند. S <- لیست (ماتریس (c(1/n1 + 1/n2 + 0.5/(2*(n1 + n2))، NA، NA، NA)، ncol = 2، nrow = 2)، ماتریس (c( 1/n1 + 1/n2 + 0.3/(2*nT)، 1/n1 + 0.3 * 0.3 / (2*nT)، 1/n1 + 0.3 * .3 / (2*nT)، 1/n1 + 1/n2 + 0.3/(2*nT))، ncol = 2، nrow = 2)، ماتریس (c(1/n1 + 1/n2 + . 2/(2*nT)، 1/n1 + 0.2 * 0.4 / (2*nT)، 1/n1 + 0.2 * 0.4 / (2*nT)، 1/n1 + 1/n2 + 0.4/(2*nT))، ncol = 2، nrow = 2)، ماتریس (c(1/n1 + 1/n2 + 0.2/(2*(n1 + n2) )، NA، NA، NA)، ncol = 2، nrow = 2)، ماتریس (c(NA، NA، NA، 1/n1 + 1/n2 + 0.2/(2*(n1 + n2)))، ncol = 2، nrow = 2)، ماتریس (c(NA، NA، NA، 1/n1 + 1/n2 + 0.1/(2*(n1 + n2)))، ncol = 2، nrow = 2)، ماتریس (c(1/n1 + 1/n2 + 0.1/(2*nT)، 1/n1 + 0.1 * 0.5 / (2*nT)، 1/n1 + 0.1 * 0.5 / (2*nT)، 1/n1 + 1/n2 + 0.5/(2*nT))، ncol = 2، nrow = 2)) mod <- mvmeta(cbind(AB، AC) ~ 1، S = S، داده = d، روش = reml) خلاصه (Mod) | استفاده از mvmeta برای انجام متاآنالیز شبکه |
28232 | فرض کنید مجموعه دادههای زیر را داریم: مردان زنانی که رژیم میگیرند 10 30 بدون رژیم 5 60 اگر آزمایش دقیق فیشر را در R اجرا کنم، «جایگزین = بیشتر» (یا کمتر) به چه معناست؟ به عنوان مثال: mat = matrix(c(10,5,30,60), 2,2) fisher.test(mat,alternative = بزرگتر) من p-value = 0.01588 و نسبت شانس = 3.943534 را دریافت می کنم. همچنین، وقتی ردیفهای جدول احتمالی را به این صورت برمیگردانم: mat = matrix(c(5,10,60,30), 2,2) fisher.test(mat,alternative = بزرگتر) سپس p را دریافت میکنم. -value = 0.9967 و نسبت شانس = 0.2535796. اما، هنگامی که من دو جدول اقتضایی را بدون آرگومان جایگزین (یعنی «fisher.test(mat)») اجرا میکنم، مقدار p = 0.02063 را دریافت میکنم. 1. میشه لطفا دلیلش رو برام توضیح بدید؟ 2. همچنین فرض صفر و فرض جایگزین در موارد فوق چیست؟ 3. آیا می توانم آزمایش فیشر را روی یک جدول احتمالی مانند این اجرا کنم: mat = ماتریس(c(5000,10000,69999,39999), 2,2) PS: من آمارگیر نیستم. من سعی می کنم آمار را یاد بگیرم تا کمک شما (پاسخ به زبان انگلیسی ساده) بسیار قدردانی شود. | تست فیشر در R |
1395 | آیا کسی می تواند به من یک کتابخانه گرافیکی منبع باز برای ایجاد نقشه های جنگلی و قیفی به من توصیه کند؟ من قصد داشتم از آن در یک برنامه دسکتاپ جاوا استفاده کنم. | کتابخانههایی برای قطعات جنگلی و قیفی |
93208 | همه، من می خواهم طبقه بندی را با استفاده از SVM انجام دهم. همانطور که میدانم باید با استفاده از هسته، دادههای خود را به ابعاد بالاتر بفرستیم. و 4 هسته استفاده متداول وجود دارد (خطی، RBF، چند جمله ای و سیگموئید). 1. تفاوت بین آن هسته چیست؟ 2. برای طبقه بندی داده های خود باید خط / هایپرپلان قابل جداسازی خطی را پیدا کنیم. و برای انجام این کار، ما باید حاشیه بزرگ را انتخاب کنیم تا از هر گونه تطبیق بیش از حد جلوگیری کنیم؟ overfitting چیست؟ 3. همانطور که در این تصویر می بینید، یک w وجود دارد. و در بسیاری از مراجع گفتند w یک خط است؟ در واقع آن چیست؟ و اون لامدا چیه؟؟ 4. SMO در SVM به چه معناست؟ | پارامترهای هسته SVM؟ |
114518 | به مقاله ای برخوردم که از داده های پانل ایالت های ایالات متحده (از 2000 تا 2010) با مدل زیر استفاده می کند: $y_{it}=b_{1}x_{it} +b_{2}x_{it}*D_{ it}+ vars دیگر + \alpha_{t} + \gamma_{i}$ که در آن، $x$ و $y$ متغیرهای پیوسته هستند و $D$ یک متغیر ساختگی است که یک مقدار 1 در صورت کاهش x$ از یک سال به سال دیگر و در غیر این صورت صفر (یعنی برای افزایش یا عدم تغییر در $x$). سپس مقاله ضریب روی $x_1$ را به عنوان اثر افزایش $x$ روی $y$ و $b_{1}+b_{2}$ به عنوان اثر کاهش در $x$ تفسیر میکند. این یک تفسیر معتبر است. | مسائل مدلسازی در رگرسیون پانل |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.