_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
20381
چندی پیش با یک استاد آمار در مورد طعمهای مختلف آمار (تکرارگرا، بیزی، ...) بحث می کردم. او اظهار داشت که آمارها را به چهار دسته تقسیم می کند: آمارهای ناپارامتریک، قوی، فراوانی و بیزی. این تقسیم‌بندی با مقدار فرضی که روش‌ها در مورد توزیع‌های اساسی ایجاد می‌کنند مشخص می‌شود (آمار غیر پارامتری هیچ کدام را نشان نمی‌دهد، در حالی که بیزی آن مفروضات را بسیار صریح می‌کند). می‌خواستم بپرسم که آیا CrossValidated با این زیربخش موافق است یا خیر، اما از آنجایی که این یک سؤال ذهنی است، می‌پرسم: 1) آیا این زیربخش به طور گسترده در آمار شناخته شده است؟ 2) آیا مشکل «دنیای واقعی» معمولاً به یک روش خاص نیاز دارد؟ به عنوان مثال، با توجه به برخی مشکلات، آیا روشی برای حل آن مشکل وجود دارد یا اینکه چندین روش می توانند برای یک مشکل معین کار کنند؟ پیشاپیش ممنون
تقسیمات فرعی در آمار
32824
من داده‌های زیر را دارم و می‌خواهم یک مدل رشد نمایی منفی را با آن تطبیق دهم: روز <- c( 1،5،12،16،22،27،36،43) انتشار <- c(936.76، 1458.68، 1787.23، 1840.04، 1928.97، 1963.63، 1965.37، 1985.71) نمودار (روزها، انتشارات) متناسب <- nls(انتشارها ~ a* (1-exp(-b*Days))، شروع = لیست (a = 2000، b = 0.55)) منحنی ((y = 1882) * (1 - exp(-0.5108*x)))، از = 0، تا =45، اضافه کردن = T، col = سبز، lwd = 4) کد کار می کند و یک خط مناسب رسم می شود. با این حال، تناسب بصری ایده آل نیست، و مجموع مربعات باقی مانده به نظر می رسد بسیار بزرگ است (147073). چگونه می توانیم تناسب اندام خود را بهبود بخشیم؟ آیا داده ها اصلاً به تناسب بهتر اجازه می دهند؟ ما نتوانستیم راه حلی برای این چالش در شبکه پیدا کنیم. هر گونه کمک مستقیم یا پیوند به سایر وب سایت ها / پست ها بسیار قدردانی می شود.
چگونه مجموع باقیمانده مربع های یک تناسب نمایی را به حداقل برسانیم؟
56046
بگویید من می توانم یک RV $X$ را از یک PDF $f(x)$ نمونه برداری کنم، آیا می توانم از آن برای نمونه برداری کارآمد RV $Y \sim k \cdot f(g(y))$ (جایی که $k) استفاده کنم $ یک ثابت عادی است)؟ من به چیزی برای نمونه‌بردار گیبس علاقه‌مندم که بهتر از استفاده از نمونه‌برداری متروپلیس، برش، تبدیل معکوس و غیره باشد.
با توجه به اینکه می‌توان $X \sim f(x)$ را نمونه‌برداری کرد، آیا راه آسانی برای نمونه‌برداری از $Y \sim k \cdot f(g(y))$ وجود دارد (مانند $k \cdot f(e^y) دلار)؟
51615
من می خواهم یک مدل احتمال مناسب پیدا کنم اما مطمئن نیستم که آیا مدلی که به آن فکر کرده ام منطقی است یا خیر. هدف این است که از یک تحلیل بیزی برای داده های نظرسنجی که دو بار نمونه برداری شده است استفاده شود. تنظیمات: * از افراد یک سری نه سوال پرسیده می شود (از بسیاری دیگر) * این نه سوال بله/خیر هستند * از همان افراد یک سال بعد همان 9 سوال پرسیده می شود * می خواهم بدانم آیا وجود داشته است یا خیر. تغییر در پاسخ در طول زمان مدل‌سازی تعداد بله‌ها به صورت $X \sim$ Binomial(9, $\theta$) بدیهی به نظر می‌رسد، اما چگونه باید دو زمان نمونه‌برداری را ترکیب کنم؟ منطقی است که تعداد پاسخ‌ها را از نمونه‌گیری دوم برداریم و آنها را از نمونه‌گیری اول کم کنیم و روی $\theta_{diff} = \theta_{after} - \theta_{before}$ استنتاج کنیم. با این حال، تفاوت Binomial r.v.s زشت است و خوب است که conjugacy داشته باشیم. من فقط می توانستم $X \sim$ Binomial(9, $\theta_{قبل از}$) و $Y \sim$ Binomial(9, $\theta_{بعد از}$) را انجام دهم اما سوالات توسط همان افراد پاسخ داده شد. به عبارت دیگر، وقتی اطلاعات لازم برای آزمون t زوجی موجود است، چرا باید یک آزمون t دو نمونه ای انجام داد؟ از آنجایی که $X + Y \sim$ دو جمله ای($n_1 + n_2، \theta$) اگر $X \sim$ دو جمله ای ($n_1، \theta$) و $Y \sim$ دو جمله ای ($n_2، \theta$)، آیا منطقی است که دسته اول سوالات را به صورت $X \sim$ Binomial(9, $\theta_{first}$) مدل کنیم سپس دسته دوم را به اولین دسته اضافه کنیم و مدل X + را ارائه کنیم. Y \sim$ Binomial(18, $\theta_{both}$) و به تفاوت، همپوشانی و غیره در قسمت‌های خلفی $\theta_{first}$ و $\theta_{both}$ نگاه کنید؟ آیا من در مورد تفاوت دوجمله ای ها خیلی حساس هستم؟ آیا چیزی واضح را گم کرده ام؟ اگر کسی پیشنهاد یا منابع مفیدی دارد، بسیار متشکر خواهد بود.
مدل احتمال برای داده های پیمایش مکرر
36238
من یک ماتریس $n \times m$ از داده‌ها $\mathbf{D}$ و همچنین $k$-partition $P$ از شاخص‌های $n$ دارم که هر کدام یک ردیف را در $\mathbf{D}$ نشان می‌دهند. با فرض یک الگوریتم خوشه‌بندی دلخواه $A$، می‌خواهم زیرمجموعه‌ای $F$ از $\\{1,\ldots, m\\}$ پیدا کنم که نمایانگر شاخص‌های ستون‌های $\mathbf{D}$ است، مانند که اعمال $A$ فقط برای ستون های نمایه شده توسط $F$، یک ماتریس $n \times |F|$، میانگین تغییرات اطلاعات (VI) بین $P$ را به حداقل می رساند. و خروجی $A$. راه دیگری برای بیان این موضوع این است که من می‌خواهم بتوانم فضای فرعی را پیدا کنم که در آن $\mathbf{D}$ بیشترین اطلاعات را در مورد $P$ دارد. (اینکه متریک VI است یا اینکه آماری که در چندین اجرا انجام می شود یک میانگین است لزوماً مهم نیست. من به دنبال یک راه حل کلی هستم، اما اگر راه حلی وجود داشته باشد که متریک یا الگوریتم خوشه بندی را مشخص کند، من باید پاسخگو باشم. علاقه مند است.) تلاش برای ایجاد توزیع تغییرات (نرمال شده) مقادیر اطلاعات با استفاده از نیروی بی رحم عملی نیست زیرا تعداد زیر مجموعه های ممکن $\\{1،\ldots، m\\}$ عدد استرلینگ (از نوع دوم) $S(m، 2)$ است، که بدیهی است که با رسیدن $m$ به هر اندازه جالب، هیولا می شود.
یافتن آموزنده ترین زیرمجموعه ویژگی های داده شده، الگوریتم خوشه بندی و پارتیشن استاندارد طلایی
36231
در JMP، من با استفاده از Analyze -> Fit Model و انتخاب Stepwise برای شخصیت، یک مدل رگرسیون می سازم. هنگامی که روی Run در پنجره مشخصات مدل کلیک می کنم، پنجره Fit Stepwise را دریافت می کنم که به من امکان می دهد مشخص کنم که می خواهم مدل من چگونه ساخته شود. بنابراین من برو را زدم و مدل من را می سازد. سوال من در درک تفاوت بین آنچه در تخمین فعلی برای من نمایش داده می شود و مقادیری که اگر روی Run Model کلیک کنم و زیر Parameter Estimates به دست می آورم به دست می آید. به نظر می رسد که اینها باید یکسان باشند، اما واضح است که JMP کاری را بین پنجره Stepwise و پنجره Fit Model انجام می دهد. لطفاً کسی می تواند تفاوت بین تخمین فعلی (در پنجره Stepwise) و Parameter Estimates (در پنجره Fit Model) را برای من توضیح دهد؟
مدل های رگرسیون گام به گام در JMP
33046
من می خواهم یک شبکه عصبی بسازم، اما چون تصاویری با وضوح بالا دارم، ایده ارسال کل تصویر به NN را رد کردم. من متعجب بودم که _متداول ترین ویژگی های استخراج شده_ برای استفاده به عنوان ورودی به NN چیست. من می دانم که ویژگی ها به نوع تصاویر بستگی دارد. اما حدس می‌زنم دارم تعجب می‌کنم که ویژگی‌های استاندارد چیست. همچنین می‌خواهم درباره مقالات یا کتاب‌هایی با اطلاعات و/یا مثال‌هایی درباره این موضوع بدانم.
رایج ترین ویژگی های استخراج شده برای تشخیص تصویر
112708
در اینجا یک سوال مرتبط وجود دارد، در مورد نحوه محاسبه مربع R در رگرسیون با خطاهای ARIMA. من پاسخ را بسیار مفید یافتم، و امیدوار بودم که جزئیات بیشتری داشته باشم، به ویژه در مورد صحبت پایانی راب: > هنگامی که از رگرسیون معمولی که با خطاهای intercept و > iid تنظیم شده فاصله بگیرید، $R^2$ به طور منحصر به فرد تعریف نمی شود ** و به خصوص مفید نیست**. فرض کنید من سعی می کنم مدلی را با هدف ایجاد پیش بینی های معقول k-step رو انتخاب کنم. من همچنین متغیرهای برون زا را انتخاب می کنم (از جمله داده های k-steps پیش رو). به عنوان مثال، من مشاهداتی در $t \in [0,50]$ برای Y, X1, X2 دارم... همچنین یک تحلیل سناریو با داده‌های پیش‌بینی‌شده برای $t \in [51,60]$ برای X1 دارم، X2 ... پاسخ و متغیرهای برون زا به وضوح یکپارچه شده اند. به عنوان یک نوع آزمایش، من دو مدل مختلف را بررسی می کنم. یکی با «Y ~ L(Y,1)» و دیگری با «Y~X1» داده می شود. این اتفاق می افتد که مدل «Y~L(Y,1)» به طور دیوانه وار R^2$ بالایی دارد، اما می دانم که این مدل قدرت پیش بینی بسیار بدتری نسبت به مدل «Y~X1» دارد. چگونه توجیه کنم که $R^2$ نباید برای رتبه بندی این مدل ها استفاده شود؟ بهترین چیزی که می توانم به آن فکر کنم این است که داده ها را جمع آوری کنم، و آزمایش های خارج از نمونه را انجام دهم تا نشان دهم که «Y~X1» بهتر از «Y~L(Y,1)» است، اما این برای من حکایتی به نظر می رسد. آیا مدرک دقیق تری وجود دارد؟ متشکرم
چرا $R^2$ ضعیف برای انتخاب مدل AR برای پیش بینی استفاده می شود؟
32790
من داده های زیر را برای آزمون ANOVA اندازه گیری های مکرر یک طرفه دارم و نمی دانم چگونه با مقادیر از دست رفته برخورد کنم. داده ها چیزی شبیه به این هستند: کاربران | نوع 1 | نوع 2 | نوع 3 | نوع 4 | نوع 5 کاربر 1 | x | x | - | - | x کاربر 2 | x | x | x | - | - کاربر 3 | x | x | x | x | - کاربر 4 | x | x | - | x | x ... کسی می تواند به من کمک کند؟
ANOVA اندازه گیری های مکرر یک طرفه و داده های از دست رفته
101159
فرض کنید در حال انجام یک بررسی هستید و از روی داده ها می خواهید یک مدل معادلات ساختاری بسازید. مدل تحقیق شامل 5 سازه است که هر کدام بین 2 تا 5 گویه دارد. این نظرسنجی از مقیاس لیکرت استفاده می کند اما مقیاس ها بین سازه ها متفاوت است: 2 سازه از مقیاس لیکرت 7 درجه ای، یکی از مقیاس لیکرت 6 درجه ای و دو سازه از مقیاس لیکرت 4 درجه ای استفاده می کنند. 1. آیا مخلوط کردن این مقیاس های مختلف هنگام انجام مدل سازی معادلات ساختاری از نظر روش شناختی مشکلی است؟ (شاید به خصوص زمانی که مقیاس های اعداد فرد و زوج مخلوط می شوند؟) 2. آیا باید استفاده از مقیاس های لیکرت مختلف را در جایی در بدنه مقاله گزارش کنم، به عنوان مثال. در بخش محدودیت ها؟
گزارش استفاده از مقیاس‌های لیکرت مختلف در پیمایش برای مدل‌سازی معادلات ساختاری؟
82610
من علاقه مندم که چگونه افکت گذاری در R انجام شود. می دانم که شخص دیگری این سوال را پرسیده است (یعنی چگونه می توان رگرسیون را با کدگذاری افکت به جای کدگذاری ساختگی در R انجام داد؟). این مدل lm() به تنهایی است: Fixed.Full<-lm(sqrtClay_Tot ~ Physio.Code+ROCKTYPE1, data=PedonsTx_Reread, contrasts = list(Factor.0.Physio = contr.sum)) > summary(Fixed. کامل) تماس: lm(فرمول = sqrtClay_Tot ~ Physio.Code + ROCKTYPE1، داده = PedonsTx_Reread) باقیمانده ها: Min 1Q Median 3Q Max -4.5719 -1.1543 0.0102 1.1366 6.0146 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 5.18961 0.54194 9.576 < 2e-16 *** Physio.Code2 -0.90588 0.15752 -5.751 1.11e-08 *** Physio.Code2 -0.90588 1.11e-08 *** Physio.Code2.30.31.32. 0.000874 *** Physio.Code4 0.56462 0.31295 1.804 0.071444 . Physio.Code7 -0.04656 0.26410 -0.176 0.860075 Physio.Code8 -0.41242 0.24330 -1.695 0.090294 . Physio.Code9 -0.81833 0.32048 -2.553 0.010782 * Physio.Code11 -0.04619 0.16420 -0.281 0.778515 ROCKTYPE1chert 1.433190 1.4331901.4331901. ROCKTYPE1خاک رس یا گل 0.35031 0.53861 0.650 0.515562 ROCKTYPE1تبخیر -0.95719 0.65049 -1.471 0.141408 ROCKTYPE1 ریز دانه 1.219 - مخلوط شده -1.727 0.084377. ROCKTYPE1grevel -0.16708 0.56139 -0.298 0.766041 ROCKTYPE1آهک 0.36667 0.55323 0.663 0.507585 ROCKTYPE1mudstone 0.1893254 0.746476 ROCKTYPE1ریولیت -0.25743 0.83684 -0.308 0.758426 ROCKTYPE1sand -0.92281 0.53193 -1.735 0.083014. ROCKTYPE1 ماسه سنگ -1.57669 0.57599 -2.737 0.006281 ** ROCKTYPE1سرپانتینیت -0.18647 1.84384 -0.101 0.919464 ROCKTYPE1 ROCKTYPE1 0.3455870.3420 0.582518 ROCKTYPE1silt -0.82415 0.65554 -1.257 0.208912 ROCKTYPE1siltstone -1.21094 0.79293 -1.527 0.126970 ROCKTYPE10.1060 race -1.066 0.286663 ROCKTYPE1tuff 1.10034 1.31108 0.839 0.401482 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 1.748 در 1261 درجه آزادی چندگانه R-squared: 0.2072، R-squared تنظیم شده: 0.19 آمار: 14.33 در 23 و 1261 DF، p-value: < 2.2e-16 اکنون مدلی با استفاده از کدگذاری در lm(): > Fixed.Full<-lm(sqrtClay_Tot ~ Physio.Code+ROCKTYPE1، data=PedonsTx_Reread، + Contrass = list( Physio.Code = contr.sum)) > summary (Fixed. Full) تماس: lm(فرمول = sqrtClay_Tot ~ Physio.Code + ROCKTYPE1، داده = PedonsTx_Reread، تضادها = لیست (Physio.Code = contr.sum)) باقیمانده ها: حداقل 1Q Median 3Q Max -4.5719 -1.101146.6.10146.6. ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 5.06968 0.50933 9.954 <2e-16 *** Physio.Code1 0.11993 0.13291 0.902 0.36703 Physio.Code.Code. 2.68e-11 *** Physio.Code3 0.82525 0.15844 5.208 2.22e-07 *** Physio.Code4 0.68455 0.24897 2.750 0.00605 0.00605 2.750 0.00605 ** Physio. 0.72792 Physio.Code6 -0.29249 0.18905 -1.547 0.12208 Physio.Code7 -0.69840 0.26157 -2.670 0.00768 ** ROCKTYPE1chert 1.410301.419. 0.42632 ROCKTYPE1خاک رس یا گل 0.35031 0.53861 0.650 0.51556 ROCKTYPE1تبخیر -0.95719 0.65049 -1.471 0.14141 ROCKTYPE2ras19 مخلوط شده است. 0.59167 -1.727 0.08438 . ROCKTYPE1گراول -0.16708 0.56139 -0.298 0.76604 ROCKTYPE1 سنگ آهک 0.36667 0.55323 0.663 0.50759 ROCKTYPE1 گل سنگ 0.1858324340.18583434 ROCKTYPE1ریولیت -0.25743 0.83684 -0.308 0.75843 ROCKTYPE1sand -0.92281 0.53193 -1.735 0.08301. ROCKTYPE1 ماسه سنگ -1.57669 0.57599 -2.737 0.00628 ** ROCKTYPE1سرپانتینیت
کدنویسی افکت ها در R
51616
با سلام و تشکر از این منبع در مورد آمار. مشکل من در مورد وضعیتی است که در آن منحنی‌های کاپلان مایر از نظر معنی آزمون رتبه‌بندی لگ معنی‌دار متفاوت هستند، اما نسبت خطر هنگام نگاه کردن به CI 95% از 1 عبور می‌کند. چگونه این را تفسیر کنیم؟ ممکن است مشکل از داده های بیش از حد سانسور شده باشد؟ من برخی از افراد با داده های بیش از 3000 روز و بیشتر با داده های تنها برای حدود 500 روز دارم. پیشاپیش با تشکر از سوئیس. مارتین
منحنی KM: آزمون رتبه ورود به سیستم معنی دار است اما HR از 1 عبور می کند
101150
این سوال مربوط به سوال قبلی من بود. اجازه دهید $X_1،\dots،X_n$$ i.i.d باشند. با تابع توزیع $F$ و $Y_1،\dots,Y_n$$ i.i.d هستند. با تابع توزیع $G$. فرض کنید یک تابع افزایش ناشناخته $\psi:\mathbb{R}\mapsto\mathbb{R}$ وجود دارد به طوری که $\psi(X_i)\sim N(0,1)$ و $\psi(Y_j)\ سیم کارت N(0,\sigma^2)$ برای همه $i,j=1,\dots,n$. می‌خواهم واریانس تخمین‌گر پلاگین $\sigma^2$ را در این مشکل ارزیابی کنم. من حقایق زیر را به دست آورده ام: توجه داشته باشید که $F(x)=P(X\le x)=P(\psi(X)\le \psi(x))=\Phi(\psi(x))$ جایی که $\Phi$ توزیع نرمال استاندارد تجمعی است. این به معنای $\psi(x)=\Phi^{-1}(F(x))$ است. به یاد بیاورید که $\psi(Y_j)\sim N(0,\sigma^2)$. بنابراین، $$\check\sigma^2=\frac1n\sum_{j=1}^n\psi^2(Y_j)$$ یک برآوردگر بهینه برای $\sigma^2$ است. از آنجایی که $F$ ناشناخته است، آن را با تابع توزیع تجربی $\hat F_n$ بر اساس $X_1,\dots,X_n$ جایگزین می‌کنم. از این رو، جایگزینی $\psi$ با $\hat\psi=\Phi^{-1}(\hat F_n)$ طبیعی است. بنابراین، حدس می‌زنم که $$\hat\sigma^2=\frac1n\sum_{j=1}^n\hat\psi^2(Y_j)$$ تخمین‌گر مورد نظر من باشد. مشکل این است که من نمی دانم واریانس $\hat\sigma^2$ چیست. هر پیشنهادی؟ * * *
واریانس تخمینگر افزونه
74135
فرض کنید 4 گروه از حیوانات (خوک، سگ، خرگوش، گربه) داریم. در هر گروه 10 حیوان وجود دارد. وزن و نبض هر حیوان را اندازه گیری می کنیم. آیا تحلیل تفکیک خطی فرض می‌کند که داده‌های درون **هر** گروه به طور معمول چند متغیره توزیع شده است؟ یا اینکه داده ها به عنوان یک کل چند متغیره به طور معمول توزیع شده اند؟
مفروضات در تحلیل افتراقی خطی
74138
من یک مجموعه داده با ویژگی های همبستگی بسیار مثبت دارم که با LR طبقه بندی می کنم. وزن های همبسته AFAIK به همان شکلی که در Naive Bayes وجود دارد مشکلی ندارند - بیش شماری با LR رخ نخواهد داد. چیزهای عجیبی که من می بینم این است که برخی از ویژگی های بسیار همبسته وزن های متضادی را در نظر می گیرند: ویژگی A ممکن است بسیار مثبت و ویژگی B بسیار منفی باشد، البته نه به اندازه. آیا این نشانه مشکلی در بهینه‌سازی است یا این مورد انتظار است (من پیش از این انتظار دارم A و B شاخص‌های کلاس مثبت باشند)
ویژگی های همبسته وزن های عجیبی در رگرسیون لجستیک ایجاد می کنند
27146
من به تازگی شروع به یادگیری خودآموز در تحلیل سری های زمانی کرده ام. من متوجه شده ام که تعدادی از دام های بالقوه وجود دارد که برای آمارهای عمومی قابل اعمال نیستند. بنابراین، با تکیه بر گناهان آماری رایج چیست؟، می‌خواهم بپرسم: ** دام‌ها یا گناهان آماری رایج در تحلیل سری‌های زمانی چیست؟** این به عنوان یک ویکی جامعه، یک مفهوم در هر پاسخ در نظر گرفته شده است، و لطفاً، عدم تکرار مشکلات آماری عمومی‌تر که (یا باید) در فهرست گناهان آماری رایج چیست؟
مشکلات در تحلیل سری های زمانی
74134
در روش‌های ارسال پیام، عوامل و متغیرهای تصادفی پیام‌هایی را رد و بدل می‌کنند که معمولاً حاشیه‌ها را رمزگذاری می‌کنند، اما تا آنجا که به فرمول‌های آن‌ها نگاه می‌کنم، هنوز نمی‌فهمم آن پیام‌ها واقعاً چه شکلی هستند. به عنوان مثال، در انتشار باور، هنگام استفاده از نمایش نمودار عامل، طرح زیر را داریم: * پیام‌ها **از یک متغیر** گره $v$ **به یک عامل** گره $u$ $\forall x_v\in Dom(v),\; \mu_{v \to u} (x_v) = \prod_{u^* \in N(v)\setminus\\{u\\} } \mu_{u^* \to v} (x_v).$ * پیام‌های **از یک فاکتور** گره $u$ **به یک متغیر** گره $v$ حاصل ضرب فاکتور با پیام‌هایی از سایر گره‌ها هستند که روی همه متغیرها به جز متغیر مرتبط با $v$: $\forall x_v\در Dom(v),\; \mu_{u \to v} (x_v) = \sum_{\mathbf{x}'_u:x'_v = x_v } f_u (\mathbf{x}'_u) \prod_{v^* \in N(u ) \setminus \\{v\\}} \mu_{v^* \to u} (x'_{v^*}).$ می‌دانم که این پیام‌ها نشان‌دهنده حاشیه‌ها هستند و در نهایت ما با حاشیه‌های هر گره/عامل مواجه می‌شویم، اما سوال من این است: * آیا این پیام‌ها **بردار** دارای اعداد واقعی هستند؟ * *بعدی** آن بردارها چقدر است؟ * این ابعاد **نماینده** چیست؟ برای ملموس‌تر کردن مسائل، اجازه دهید توزیعی را بر روی متغیرهای تصادفی **واقعی** (مثلاً گاوسی) فرض کنیم، اگرچه من به حالت گسسته نیز علاقه دارم (مثلاً متغیرهای تصادفی طبقه‌ای). همچنین، چگونه این پیام ها مقداردهی اولیه می شوند؟
در روش های ارسال پیام، محتوای واقعی پیام ها چیست؟
18849
من 100 ایزوله باکتریایی را برای مقاومت به 6 آنتی بیوتیک (تتراسایکلین، اریترومایسین، کانامایسین، استرپتومایسین، جنتامایسین، کلرامفنیکل) آزمایش کرده ام. نتیجه هر آنتی بیوتیکی می تواند حساس (1) یا مقاوم (0) باشد. چگونه می توانم تعیین کنم که آیا ارتباط معنی داری بین مقاومت به آنتی بیوتیک های مختلف وجود دارد (من اغلب می توانم ایزوله های مقاوم به سه یا چند آنتی بیوتیک را پیدا کنم، اما چگونه می توانم بفهمم که آیا این مهم است یا خیر)؟ من می‌توانم از Chi-square برای مقایسه بین هر دو آنتی‌بیوتیک استفاده کنم، اما چگونه می‌توان چندین مقایسه انجام داد و آیا این تفاوتی جز صرفه‌جویی در زمان خواهد داشت. دانشمندان در مقالات از مربع کای با تنظیم بونفرونی استفاده کردند. من از نرم افزار Statistica برای ویندوز استفاده می کنم. با تشکر
چگونه می توان ارتباط بین نسبت ها را با چندین متغیر آزمایش کرد؟
56040
من باید pdf Y = کسینوس (X) را پیدا کنم که در آن X یک متغیر تصادفی است که به طور یکنواخت در [-pi,pi] توزیع شده است. من این را با استفاده از روش تابع توزیع حل کردم، و نتیجه این شد: $f_{Y}(y) = \dfrac{1}{\pi sin(cos^{-1}y)}، y\ \epsilon\ [-1 ,1]$ من قادر به درک این نتیجه به طور مستقیم نیستم. در ابتدا تصور شد که cos(X) نیز باید به طور یکنواخت توزیع شود، اما این به وضوح اشتباه است. من کاملاً نمی فهمم که چرا پی دی اف cos(X) به بی نهایت در ۱- و ۱ نیز می رود. لطفاً به من کمک کنید تا درک شهودی از این نتیجه داشته باشم، من اهل پیشینه آماری نیستم.
کسینوس یک متغیر تصادفی یکنواخت
113094
می‌خواهم مساحت بین دو ecdf را در R محاسبه کنم (زیر را ببینید): x<- 1 y <- c(0.329، 0.635، 0.558، 0.397، 0.719، 0.657، 0.356، 0.685، 0.618(xf) نمودار)،(ecd do.points = TRUE، عمودی = T، xlim=c(0,1)) خطوط (ecdf(y)، lty=3، verticals=T) یک اشاره در جهت درست بسیار قدردانی خواهد شد. نمودار به این شکل است: ![ecdf](http://i.stack.imgur.com/jL3Pr.jpg) من می خواهم مساحت بین خط نقطه چین (ecdf(x)) و خط جامد (ecdf) را محاسبه کنم. (y)).
تخمین مساحت بین دو ecdf
18848
من با این دو اصطلاح روبرو شده ام که در بسیاری از زمینه ها به جای یکدیگر استفاده می شوند. اساساً تعدیل کننده (M) عاملی است که بر رابطه بین X و Y تأثیر می گذارد. تحلیل تعدیل معمولاً با استفاده از مدل رگرسیون انجام می شود. به عنوان مثال، جنسیت (M) می تواند بر رابطه بین تحقیق محصول (X) و خرید محصول (Y) تأثیر بگذارد. در تعامل، X1 و X2 با هم تعامل دارند تا بر Y تأثیر بگذارند. مثال مشابه در اینجا این است که «تحقیق محصول» (X1) تحت تأثیر «جنسیت» (X2) قرار می‌گیرد و با هم بر «خرید محصول» (Y) تأثیر می‌گذارند. من می بینم که در حد اعتدال، M بر رابطه X-Y تأثیر می گذارد، اما در تعامل، M (که در این مورد جنسیت است) بر IV دیگر تأثیر می گذارد. **سوال**: اگر هدف پروژه من این است که ببینم جنسیت چگونه بر رابطه بین X و Y تأثیر می گذارد، آیا باید از اعتدال یا تعامل استفاده کنم؟ **توجه:** پروژه من در مورد همبستگی بین X و Y است، نه رابطه علی بین X و Y.
«اعتدال» در مقابل «تعامل»؟
61291
هنگام آموزش با استفاده از یادگیری متریک نظری اطلاعات (ITML)، آیا باید نگران این باشم که الگوریتم بیش از حد با داده ها مطابقت داشته باشد؟ اگر بله، بهترین راه برای جلوگیری از آن چیست؟ http://www.cs.utexas.edu/~pjain/itml/ با تشکر. P.S. آیا کسی با اجازه می تواند برچسب های ITML و Overfitting را به این سوال اضافه کند؟
آیا ITML می تواند بیش از حد مناسب باشد؟
33040
من تکنیک ها را مرور کرده ام و ایده های اساسی را درک کرده ام. اما من می خواهم بدانم که معمولاً انتظار می رود کدام یک بهتر کار کند، LDA یا Labeled LDA؟ ویژگی های مجموعه داده چیست که به تصمیم گیری در بین این دو کمک می کند؟
LDA در مقابل LDA با برچسب
18843
من در حال حاضر در حال پیاده سازی برنامه ای هستم که باید معکوس توزیع تجمعی F (Fisher-Snedecor) را بدست آورد. من قبلاً کتابخانه ای دارم که حاوی توزیع F است و به راحتی می توانم توزیع تجمعی را بر اساس فاصله اطمینان و درجات آزادی بدست بیاورم. چگونه می توانم به راحتی این کتابخانه را برای برگرداندن INVERSE توزیع تجمعی F تطبیق دهم؟
چگونه می توان معکوس توزیع تجمعی F را بر اساس توزیع تجمعی F بدست آورد؟
41220
من مشکلی دارم که نتوانستم آن را حل کنم، اگرچه سعی کردم و در فروم های راهنمای R نیز کمک گرفتم. من سعی می کنم فواصل ماهالانوبیس را روی یک چارچوب داده محاسبه کنم، جایی که چند صد گروه و چند صد متغیر دارم. هر کاری که انجام می‌دهم، به هر نحوی که آن را زیر مجموعه‌ای می‌گذارم، خطای «سیستم از نظر محاسباتی مفرد است: شماره شرط متقابل» دریافت می‌کنم. مشخص است که مفرد است، اما آیا راهی برای خلاص شدن از آن و اجرای ماها وجود دارد؟ ماها را فراموش کنم؟ از چه چیزی استفاده کنیم؟ من فایل داده را در ftp خود آپلود کرده ام: http://mkk.szie.hu/dep/talt/lv/CentInpDuplNoHeader.txt این یک فایل txt جدا شده از برگه است و بدون سرصفحه. من با تابع (R) StatMatch Mahalanobis (همچنین stats Mahalanobis را امتحان کردم) کار می کردم. من یک مهلت برای این پروژه دارم (نه یک تکلیف:))، و همیشه می توانستم از این تابع استفاده کنم، بنابراین فکر کردم می توانم محاسبات را کوتاه کنم، اما اکنون گم شده ام. پیوند به سوال قبلی، با عرض پوزش برای ارسال متقاطع، من نمی دانم چگونه سوال قبلی را مهاجرت کنم. http://stackoverflow.com/questions/13078909/system-is-computationally- singular-reciprocal-condition-number من واقعاً از هر کمکی ممنونم. برای هر کمکی متشکرم
فاصله ماهالانوبیس بر روی داده های منفرد
36233
چگونه می توانم جدول رده بندی فوتبال را پس از تعداد دور مشخصی بر اساس مسابقات/رده بندی های فعلی شبیه سازی/پیش بینی کنم. من می خواهم این کار را با R انجام دهم. بعد از دور اول، نتیجه دقیق نخواهد بود، اما پس از چند دور، احتمالا شبیه سازی به نتیجه واقعی نزدیک و نزدیکتر می شود. مثال داده: دور تیم میزبان امتیاز تیم میزبان امتیاز خارج از خانه 1 منچستر یونایتد آرسنال 3 1 1 لیورپول من سیتی 0 1 1 بلکپول نیوکاسل 0 0 1 کیو پی آر لیدز 2 1 1 چلسی ویگان 4 0 2 آرسنال چلسی 2 2 2 لیورپول 12 ویگان بلکپول لیدز 2 2 . . . . و غیره
شبیه سازی/پیش بینی جدول رده بندی فوتبال پس از X راند، بر اساس نتایج/ جایگاه فعلی
57312
آیا تابعی در `R` وجود دارد که بتواند مشکل را مانند این مثال از وب سایت SAS حل کند: > با شروع SAS 9.3، PROC FMM می تواند به عنوان جایگزینی برای رویه های LOGISTIC > و GENMOD برای برازش مدل های خطی تعمیم یافته مانند لجستیک استفاده شود. > و مدل های سم. می‌توانید مدل را در PROC FMM قرار دهید و از دستور RESTRICT > آن برای اعمال محدودیت‌های برابری یا نابرابری بر روی پارامترهای model استفاده کنید. > > برای مثال، در مدل لجستیک زیر فرض کنید می‌خواهید پارامترهای X1 و X2 را محدود کنید تا برابر باشند. >>> proc logistic; > مدل y = x1 x2 x3 x4; > اجرا؛ > > > عبارات زیر با مدل PROC FMM مطابقت دارند و محدودیت > را اعمال می کنند. >>> proc fmm; > مدل y = x1 x2 x3 x4 / dist=binary link=logit; > محدود x1 1 x2 -1; > اجرا؛ > > > برای محدود کردن پارامتر در X1 به بیش از X2، از دستور زیر > RESTRICT استفاده کنید. > > > محدود x1 1 x2 -1 > 0; >
محدود کردن پارامترهای مدل در مدل های لجستیک در R
86510
من سعی می کنم ارتباط بین داده های استخراج شده از یک برنامه ردیابی در حال اجرا را تجزیه و تحلیل کنم. از این مجموعه داده، ابتدا می‌خواهم بررسی کنم که چگونه برخی از متغیرهای پیوسته (در میان ارتفاع، ضربان قلب، ساعت جلسه، سرعت، و غیره) بر سرعت/سرعت تأثیر می‌گذارند. برای تحلیل این رابطه از کدام روش استفاده کنم؟ رگرسیون خطی با هر متغیر و محاسبه ضریب همبستگی؟ رگرسیون خطی چندگانه؟
یک متغیر پیوسته را با سایر متغیرهای پیوسته توضیح دهید
56047
من داشتم این مقاله مربوط به آمار اسکن فضایی بیزی را می خواندم و با آمار اسکن کولدورف مواجه شدم. اسکرین شات کاغذ را پیوست کردم. هدف من یافتن مکانی برای شیوع احتمالی بیماری است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ml9XB.png) من در فرمول ارائه شده در مقاله کمی شک دارم. در مقاله ذکر شده است که Fscore هر مکانی ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FALCe.png) سوال من این است که چه زمانی امتیاز F را محاسبه می کنند. تعداد افراد بیمار در مکان فعلی (Cin) = 5 جمعیت پایه حدود است (Bin) 50 تعداد افراد بیمار خارج از مکان فعلی (Cout) = 2245 تعداد افراد بیمار خارج از مکان فعلی (Bout) = 62475 تماس = 5+2245 = 2250 توپ = 50 + 62475 = 62525 حالا اگر Fscore را محاسبه کنم معلوم می شود نان. آیا فرمول درستی است؟ هر بینش در لینک بعدی چیزی شبیه به این پیدا کردم![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qyqQE.png) حالا با وجود اینکه از این فرمول استفاده می کنم، مقدار NaN است. به این دلیل است که مانند مخرج prob <1 و من آن را به توان بالایی می‌برم، بنابراین صفر می‌شود. بنابراین سوال من این است که آیا مشکل از خود داده های من است؟ اگر آن را به فرمول وصل کنم قطعاً اینطور خواهد شد.
سردرگمی مربوط به آمار اسکن Kulldorff
101154
من روی برازش یک مدل با استفاده از بسته nlme در R کار می کنم. `y` یک تابع اشباع کننده از `x` است که از نظر شکل شبیه به یک تابع michaelis-menten است که در آن y = Vm*x / (K+x) می خواهم برای پارامتری کردن این مدل با استفاده از مجموعه داده های من، و کنترل متغیر سوم، z، به عنوان یک اثر تصادفی. به نظر می رسد من نمی توانم این را تا کنون در چارچوب nlme پیاده کنم. هر گونه راهنمایی در مورد نحوه انجام این کار، یا نحوه انجام این کار در یک بسته متفاوت، بسیار قدردانی خواهد شد.
چگونه می توان یک تابع michaelis-menten را با یک افکت تصادفی با استفاده از بسته nlme در R جا داد؟
23871
یه سوال کلی داشتم آیا مدل های غیر خطی خوبی با نظم دهی وجود دارد؟ من در مورد برخی از مدل‌های خطی با منظم‌سازی شنیده‌ام اما مدل‌های غیرخطی خیلی زیاد نیستند. من می‌دانم که می‌توانید از SVM‌هایی استفاده کنید که به صورت منظم تنظیم شده‌اند، اما کنجکاو هستم که چه چیز دیگری ممکن است در دسترس باشد. با تشکر
مدل های منظم غیر خطی عمومی
36232
من داشتم یک PCA 4 جزء را امتحان می کردم که در آن مؤلفه های 1 و 2 دقیقاً همانطور که انتظار داشتم ظاهر شدند، اما دو مؤلفه دیگر با تئوری تناسبی ندارند. منظورم این است که انتظار داشتم بارهای کمی متفاوت باشد. برخی از متغیرهایی که انتظار می‌رود متعلق به مؤلفه 3 باشند، در واقع به شدت روی مؤلفه 4 بارگذاری شده‌اند و برخی که انتظار می‌رود متعلق به مؤلفه 4 باشند، روی مؤلفه 3 بارگذاری شده‌اند. جزء 4 برای من چندان منطقی نیست. می‌توانید در اینجا نمایی از جدول بارگیری داشته باشید-![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/BoOIH.jpg) اکنون، من قصد دارم از مؤلفه‌های 1 و 2 به عنوان رگرسیور استفاده کنم ( همانطور که آنها به وضوح ظهور کرده اند) به همراه 9 متغیر مجزا که بر روی دو مؤلفه دیگر بارگذاری زیادی داشته اند (زیرا ترکیب خطی آنها معنی دار نیست) در ادامه رگرسیون بر روی یک متغیر وابسته سؤالات من عبارتند از: 1) آیا استفاده از مؤلفه های 1 و 2 (اصولاً امتیاز مؤلفه ها) به همراه 9 متغیر جداگانه مؤلفه 3 و 4 به عنوان رگرسیون از نظر آماری معتبر است؟ 2) آیا می توان چند متغیر دیگر را نیز به عنوان رگرسیون در نظر گرفت که در PCA گنجانده نشده اند؟
آیا استفاده از برخی از مؤلفه‌ها به عنوان رگرسیون از PCA معتبر است؟
99158
من در حال انجام تجزیه و تحلیل داده های پانل هستم و برخی از متغیرهای من دارای کشیدگی بالایی هستند. من مطمئن نیستم که آیا باید این متغیرها را تغییر دهم. من سعی کردم مقادیر پرت را حذف کنم، اما یکی از متغیرها هنوز نرمال نیست، مگر اینکه مشاهدات زیادی را حذف کنم و سپس نتایج را به مدل ناچیز تغییر دهم. ورود به سیستم تبدیل هر گونه کمک قدردانی می شود. با تشکر
تبدیل داده ها در داده های تابلویی
41227
من دو گروه از شرکت کنندگان دارم و همه آنها اندازه گیری های یکسانی انجام دادند. هنگامی که من یک تقسیم میانه را روی یکی از اندازه‌گیری‌ها انجام می‌دهم تا فرضیه خود را در مورد یک تعامل آزمایش کنم، متغیر وابسته در آزمون Levene برای برابری واریانس‌ها مردود می‌شود. وقتی من یک تقسیم سوم را انجام می‌دهم، تست لوین را با موفقیت پشت سر می‌گذارم - هم وقتی که فقط یک سوم بالا و هم یک سوم را با هم مقایسه می‌کنم و هم وقتی هر سه سوم را مقایسه می‌کنم. در تمام ANOVA هایی که من اجرا کرده ام، اثرات اصلی و اثرات متقابل وجود دارد، اما تنها ANOVA 2x2 در آزمون Levene از نظر اهمیت مردود می شود، هیچ یک از ANOVA های 3x2 شکست نمی خورد. این چگونه ممکن است؟
توجیه تقسیمات کم/بالا یا درجه سوم در ANOVA
83592
به نظر من هم حرکت و هم استفاده از مینی بچ تقریباً به یک چیز می رسد. هر دو شکلی از مرتبط کردن تغییرات را به وزن های سایر موارد آزمایش اضافه می کنند. در مینی بچ، تغییرات وزن بر روی دسته جمع می شود، سپس قبل از دسته بعدی اعمال می شود. در تکانه، تغییر از این آزمون 1 (معمولاً با وزن گیری قوی به جدیدتر) با تغییرات گذشته میانگین می شود، سپس اعمال می شود. آنها ساکت نمی شوند همان کار را انجام می دهند، اما به نظر شبیه است. **آیا آنها واقعاً تأثیر متفاوتی دارند؟ ** آیا باید با هم استفاده شوند؟ در صورت استفاده از هر دو، اندازه مینی بچ باید کوچکتر باشد؟ * * * 1 یا مینی دسته آزمایش در صورت استفاده از هر دو
رابطه بین اندازه حرکت و مینی بچ، آیا باید با هم استفاده شوند؟
41221
من یک رگرسیون گام به گام را با استفاده از آزمون F به عنوان معیار اجرا می کنم. آیا راهی برای تنظیم صریح آستانه اضافه و رها کردن (سطوح آلفا) در R وجود دارد؟ مستندات آن را روشن نمی کند.
تعیین آستانه اضافه و رها کردن برای رگرسیون گام به گام در R
113432
من 2 جمعیت بیمار از یک دوره زمانی دارم که تحت 2 روش جراحی مختلف لاپاراسکوپی قرار گرفتند. من می خواهم نرخ تبدیل را به یک روش جراحی باز مقایسه کنم. در داده‌های من این به عنوان کد ساختگی تحت متغیر OpenConversion نشان داده می‌شود. آیا می توانم یک آزمون _t_ برای مقایسه نرخ ها انجام دهم یا اینکه آزمون اشتباهی را انتخاب کرده ام؟ با تشکر
آیا آزمون $t$-test دانشجویی انتخاب درستی است؟
70720
من از مدل خطی scikits برای مدل‌سازی دو متغیر ورودی و یک متغیر خروجی استفاده می‌کنم. من گمان می کنم که دو متغیر ورودی یک رابطه درجه دوم با متغیر خروجی دارند. بنابراین من مجموعه داده ($a^2$, $b^2$, $ab$, $a$, $b$, $1$) را برای دو متغیر ورودی اصلی $a$ و $b$ ایجاد کردم و سپس استفاده کردم. مدل خطی اسکیتس برای این داده ها که ضرایب را به دست می دهد: [ 0.21746023 0.3457555 -0.15043191 -0.15318758 -0.27072946 0. ] متد .predict() پیش بینی های بسیار خوبی تولید می کند، با این حال، وقتی کد i را در داده اجرا می کنم: print ضرایب i[5]*coeffs[5] خروجی ها به هیچ وجه با پیش بینی ها مطابقت ندارند. این کد کامل من است: def import_data(): data=np.genfromtxt(input_file) y=data[:,2] all_data=[(a**2,b**2,a*b,a,b ,1) برای (a,b,c) در داده] np.array(all_data),y def main(): data,y=import_data() regr = linear_model.LinearRegression() regr.fit(data, y) coeffs=regr.coef_ ضرایب چاپ برای i در داده: print ضرایب i[5]*coeffs[5] print regr.score(data, y) print regr.predict(data) آیا کسی می تواند به من بگوید کد من کجا اشتباه است؟
پیش‌بینی‌های مدل خطی Scikit مطابقت ندارند
91455
من شهری دارم با 12 منطقه و جدولی از تعداد افرادی که در داخل شهر به مناطق دیگر نقل مکان کرده اند، که تقریباً شبیه این است، اما اعداد فقط برای توضیح هستند: به\از 1 2 3 4 ... 12 1 - 100 200 100 300 2 200 - 100 300 100 3 250 100 - 100 300 ... 12 200 100 200 100 - همچنین، من منبع متفاوتی دارم که روند مهاجرت را نیز به نوعی ترسیم می کند، اما آنها تعداد کمتری از کاهش های کلی را اندازه گیری کرده اند، زیرا اندازه گیری های خود را به کل تعمیم نداده اند. جمعیت، به عنوان مثال به این صورت: به\از 1 2 3 4 ... 12 1 - 1 2 2 2 2 - 1 2 1 3 2 1 - 1 2 ... 12 2 2 1 1 - کدام تست ها برای مقایسه این نوع تست ها مفید هستند اندازه گیری ها؟ من فکر می‌کنم که نگاه کردن به PCA از این جداول (و جابجایی‌های آنها) ممکن است ایده‌ای را به شما بدهد که آیا این اندازه‌گیری‌ها متفاوت هستند، اما مطمئن نیستم که از کدام نوع آزمایش برای مقایسه این نوع اندازه‌گیری‌ها استفاده شود. آیا تست Chi-Squared در این تنظیمات کار می کند؟
مقایسه آمار مهاجرت همان شهر
111697
من داده‌هایی برای عملکرد 1000 دانش‌آموز در 10 آزمون مختلف در مقیاس 0 -100 (ماتریس 1000 ردیف X 10 Col) دارم. من میانگین امتیاز و std مربوطه را محاسبه کردم. انحراف برای هر دانش آموز می‌خواهم بدانم آیا دانش‌آموز (دانش‌آموزان) در یک آزمون خاص عملکرد ضعیفی دارند یا خیر. من فرض می کنم که اگر چنین آزمونی وجود داشته باشد، وزن آن در میانگین نمره کلی نسبت به سایر آزمون ها بیشتر خواهد بود. سوال این است که چگونه می توانم تأثیر آزمون انفرادی را بر میانگین نمره هر دانش آموز تعیین کنم؟ هر کسی؟ با تشکر
سهم باقیمانده ها در خطای میانگین
84061
من یک بار سوال جالب مربوط به توزیع زیر را خواندم: > یک شرکت بیمه 10 شهر امن و کم ایمن را از بیش از 200 شهر در ایالات متحده بر اساس میانگین سال هایی که رانندگان بین > تصادفات رانندگی طی کرده اند، شناسایی کرد. به نظر می رسد که شهرهای موجود در هر دو لیست همه > کوچکتر از 10 شهر بزرگ در لیست 200 شهر بودند. > > چگونه از مدل توزیع نمونه گیری میانگین برای توضیح این واقعیت استفاده می کنیم؟
یک سوال در مورد توزیع نمونه
83593
من 1000 کامپیوتر دارم و 2 تا با یک کد کد خاص خراب شده اند. همه آنها در معرض این باگ هستند، زیرا همگی کدهای مشابهی در حال اجرا دارند. فقط با استفاده از این اعداد، آیا احتمال وقوع شکست 2/1000 است؟
احتمال ساده یک رویداد
25528
دنباله‌های با اختلاف کم در یک فضای واقعی ($[0,1]^n$) ابزاری واقعا عالی برای نمونه‌برداری یکنواخت از فضای نمونه به نظر می‌رسند. تا آنجا که من می توانم بگویم، آنها به خوبی به هر فضای واقعی تعمیم می دهند، اگر از یک نقشه مناسب استفاده کنید (مثلاً نقشه خطی $[0,1]\to[a,b]$). آیا چنین توالی هایی به فضاهای گسسته تعمیم می یابند؟ به عنوان مثال اگر فضایی داشته باشم که در هر بعد فقط دو عنصر دارد (مثلاً سوئیچ‌های بولی)، آیا می‌توانم فقط $[0,0.5]\ به 0;\ (0.5,1]\ به 1$ را ترسیم کنم؟ برای ابعاد با چطور؟ عناصر بیشتر (مثلاً یک سوئیچ 4 حالته؟) و برای فضاهایی با تعداد حالت های مختلف در هر بعد، شهود من می گوید که این ممکن است خوب عمل کند، به خصوص اگر دنباله فرعی طولانی باشد، اما ممکن است برای آن بهتر عمل کند؟ برخی از دنباله‌ها نسبت به سایرین، بسته به تعداد حالت‌ها (به عنوان مثال، یک دنباله هالتون ممکن است برهمکنش‌های فرد با یک بعد با تعدادی حالت اول داشته باشد، یا یک دنباله Sobol فقط برای ابعاد با عناصر $2^n$ کار می‌کند). اما من هیچ آزمایشی انجام نداده ام اگر این کار نمی کند، چرا که نه؟
آیا توالی های کم اختلاف در فضاهای گسسته کار می کنند؟
111690
من به تازگی با ارزش های مورد انتظار روبرو شده ام و آنها کمی غم و اندوه به من می دهند تا آنها را درک کنم. به عنوان مثال برای کوواریانس معادله $\text{E}\left((x - \bar{x})(y - \bar{y})\right)$ برای من این بدان معنی است که مقدار مورد انتظار این است که مقدار x من را بگیرید، از آن کم کنید میانگین، و سپس آن را در مقدار y منهای میانگین y ضرب کنید. چیزی که من دریافت نمی کنم این است که چه چیزی در این معادله می گوید که برای هر جفت مقدار xy که دارم این کار را انجام دهم؟ من نمی توانم نمادی را در آن ببینم که بگوید همه چیز را خلاصه کنید ... $\Sigma$. چگونه بفهمیم همه چیز را خلاصه کنیم؟ همچنین با نگاهی به استفاده از یک تاس 4 طرفه، اجازه می‌دهیم به ارزش مورد انتظار رول خود نگاه کنیم. E = 1/4 * 1 + 1/4 * 2 + 1/4 * 3 + 1/4 * 4 = 2.5 در اینجا من هر مقدار ممکن را در احتمال وقوع آن ضرب کردم. این همان چیزی است که من یک مقدار مورد انتظار را فهمیدم، اما نمی‌دانم که چگونه این مقدار با $\text{E}((x - \bar x)(y -\bar y))$ ارتباط دارد ...??
نحوه خواندن (درک) یک معادله مقدار مورد انتظار (مثالی در داخل)
86512
فرض کنید ما یک مدل خطر متناسب کاکس داریم و طبق گروه بندی می کنیم. توجه داشته باشید که سه گروه وجود دارد. آیا این بدان معناست که ما سه تابع خطر خط پایه را تخمین می زنیم؟ اگر به جای طبقه بندی، فقط برای گروه تنظیم کنیم، آیا فقط یک تابع خطر خط پایه را تخمین می زنیم؟
تعداد توابع خطر پایه
111693
ما می دانیم که آزمون KS اصلی دارای محدودیت است و به جای تخمین زدن، نیاز به آزمایش فرضیه صفر توزیع اساسی دارد که به طور کامل مشخص شود. اما در عمل، ما معمولاً نیاز داریم که خوب بودن تناسب را برای توزیع برازش آزمایش کنیم. پیشنهاد می‌شود شبیه‌سازی مونت کارلو توسط ویکی‌پدیا برای آزمون KS انجام شود. اما مرور ادبیات محدودی در مورد چنین شبیه سازی وجود دارد. چندین ایده در ذهن من وجود دارد. * * * ## رویکرد 1 به نظر می‌رسد دلیل اینکه آزمون KS اصلی دیگر برای آزمایش توزیع تخمین زده معتبر نیست، این است که برای رد فرضیه صفر توزیع زیربنایی به آستانه بحرانی کمتر KS Distance (مقدار d) نیاز داریم. در اطراف داده ها نصب شده است. آزمون Lilliefors چنین مشکلی را حل می کند. اگرچه فقط برای توزیع عادی است، اما می توانیم روش آن را گسترش دهیم. 1. فاصله KS ($D_{0}$) بین داده ها (n نقطه داده) و توزیع زیربنایی تخمین زده شده را پیدا کنید، مانند آزمون KS اصلی. 2. n نقطه داده را بر اساس توزیع زیربنایی تخمینی برای M بار (حدود میلیون ها) ایجاد کنید، فاصله KS آنها را پیدا کنید $D_{m}$ مجموعه = {$D_{1}$, $D_{2}$, $D_{3 }$، ...، $D_{M}$} برای هر بار. 3. مقدار $D_{0}$ و صدک $D_{m}$ را که به عنوان مقدار p تنظیم شده است، مقایسه کنید. $P(>D_{0}|توزیع فرضیه صفر)$ * * * ## رویکرد 2 برخی از پست‌ها گفته‌اند که آزمون KS اصلی را نمی‌توان برای توزیع تخمینی اعمال کرد، زیرا خطای استاندارد تخمین را در نظر نمی‌گیرد. (یا مناسب). بنابراین آنها بوت استرپ از داده های خام را به عنوان شبیه سازی پیشنهاد می کنند، اما جزئیات را شرح نداده اند. من فکر می کنم رویکرد می تواند به شرح زیر باشد. 1. فاصله KS ($D_{0}$) بین داده‌ها (n نقطه داده) و توزیع زیربنایی تخمینی A را پیدا کنید، مانند آزمون KS اصلی. 2. از داده های خام بوت استرپ کنید و دوباره توزیع مناسب را دریافت کنید، یک توزیع برازش جدید دریافت کنید. B. فاصله KS ($D_{1}$) را بین این نمونه خام جدید و توزیع جدید B. پیدا کنید. فاصله KS آنها $D_{m}$ مجموعه = {$D_{1}$، $D_{2}$، $D_{3}$، ...، $D_{M}$} برای هر زمان 4. مقدار $D_{0}$ و صدک مجموعه $D_{m}$ را مقایسه کنید تا ببینید آیا از بازه تجربی 95٪ خارج است یا خیر. به نظر می رسد که این خطای تخمینی (یا فاصله اطمینان) در مورد تخمین را در نظر می گیرد که بر آزمون KS اصلی تأثیر می گذارد. اما به نظر می رسد که این رویکرد از تعریف p-value یا تعریف فرضیه با فرض فرض صفر و یافتن احتمال آمار نمونه پیروی نمی کند. * * * ## رویکرد 3 همکار من ایده‌ای مانند رویکرد 2 دارد. 1. فاصله KS ($D_{0}$) بین داده‌ها (n نقطه داده) و توزیع زیربنایی تخمینی A مانند تست KS اصلی 2. فرضیه صفر را تنظیم کنید که داده ها از توزیع مورد نظر (A) هستند. 3. n نقطه از توزیع مورد نظر (A) ایجاد کنید و همان توزیع را با این نمونه جدید که مجموعه پارامتر B را به دست می‌دهد، قرار دهید. فاصله KS $D_{1}$ بین این نمونه و توزیع مورد نظر را با مجموعه پارامتر B اندازه‌گیری کنید. 4. مرحله 3 را چندین بار تکرار کنید (M) که توزیعی از فواصل KS $D_{m}$ را با فرض اینکه داده های واقعی از توزیع مورد نظر با استفاده از روش برازش ما باشد، به دست می دهد. 5. اگر فاصله $D_{0}$ بیشتر از 95٪ از فواصل محاسبه شده در 4 باشد، فرضیه صفر مبنی بر اینکه داده ها از توزیع مورد نظر با مجموعه پارامتر A هستند را رد کنید. به نظر می رسد این چیزی است که بوت استرپ پارامتری از رویکرد است. 2. اما عجیب به نظر می رسد که دوباره چنین نمونه و داده های مناسبی تولید شود. و به نظر می رسد هنوز از تعریف فرضیه پیروی نمی کند. * * * نظری درباره این سه رویکرد دارید؟ یا هر تغییری؟ یا آیا ادبیات رسمی پیدا می‌کنید که جزئیات شبیه‌سازی را برای آزمون KS برای توزیع تخمین زده می‌گوید؟ من فقط دوربین (1973) را با جزئیات در این مورد پیدا کردم. اما متاسفم که نمی توانم متن کامل این کتاب را پیدا کنم. آیا کسی نسخه الکترونیکی دیگری از جزئیات مشابه در مورد شبیه سازی KS-test دارد؟ آیا تست اندرسون-دارلینگ نیز از این مشکل پارامتر تخمینی رنج می برد؟ هر گونه ایده یا بحث بسیار قدردانی می شود. متشکرم.
شبیه سازی آزمون KS با پارامترهای تخمین زده شده
84067
من سعی می کنم انحراف استاندارد گروه های درمان و کنترل لیفت داده شده و مقادیر پاسخ مربوطه را که باینری هستند برای هر موجودیت در گروه ها محاسبه کنم. مشکل به طور کامل اینجاست: داده‌های من به این شکل هستند: > کنترل: > D1، 0 > D2، 0 > D3، 1 > > درمان: > D4، 0 > D5، 1 در اینجا D_i، یک نقطه داده است، و مقدار مجاور، 0 یا 1، پاسخ است. میزان پاسخ در گروه کنترل 33 درصد و در گروه درمان 50 درصد است. بنابراین، بالابر 50/33 = 1.5 است. حالا، می‌خواهم بدانم که آیا محاسبه لیفت روی کل جمعیت کنترل/درمان، رنگ کردن چیزها با یک قلم موی خیلی چرب است؟ یعنی اگر گروه های کنترل و درمان را به تعداد مساوی از جمعیت های کوچکتر تقسیم کرده بودم، این گروه های کنترل و تیمار کوچکتر را جفت می کردم و بالابرها را در هر یک از این جمعیت های زوجی محاسبه می کردم، لیفت چقدر پراکندگی را نشان می داد؟ حدس می‌زنم، با توجه به توضیحات بالا، راه ساده‌ای برای انجام آن به شرح زیر است: به‌طور تصادفی گروه‌های اصلی را به تعداد مساوی از جمعیت تقسیم کنید، جفت‌های زیرمجموعه کنترل و درمان ایجاد کنید، افزایش‌ها را در هر یک از این جمعیت‌های زوجی محاسبه کنید، و سپس انحراف استاندارد این بالابرها را از میانگین بالابر محاسبه کنید. آیا راه بهتر/اصولی برای این کار وجود دارد؟
انحراف استاندارد بالابر
33048
من سعی می کنم نرخ رشد تعدادی از کلونی مورچه ها را تخمین بزنم. من توده کلنی را در سه نقطه زمانی مختلف اندازه گیری کرده ام. من به اندازه‌گیری نرخ رشد با برازش یک مدل رشد نمایی برای توده‌های هر مستعمره در طول زمان فکر می‌کردم. توجه من جلب شد که ممکن است نتوانم حداقل مربعات غیرخطی (nls) را همانطور که انتظار داشتم انجام دهم، زیرا پیش بینی کننده یک متغیر گسسته است (یعنی t1، t2 یا t3 است). من متعجب بودم: 1. آیا این واقعاً مشکل ساز است و 2. آیا کسی توصیه ای برای چگونگی برآورد نرخ رشد در این مورد دارد؟
آیا راهی برای برازش یک مدل نمایی با یک پیش بینی گسسته در R وجود دارد؟
86515
به نظر می رسد سانسور اداری زمانی است که اتفاقی می افتد که به مطالعه پایان می دهد (مثلا بی پولی). افرادی که این رویداد را در طول دوره پیگیری تجربه نکرده اند به درستی سانسور می شوند. آیا تفاوتی بین این دو وجود دارد؟
آیا تفاوتی بین سانسور اداری و سانسور صحیح وجود دارد؟
108931
من با مشکل انجام یک طبقه بندی باینری با نمونه های مثبت بسیار کمی روبرو شدم. به عنوان مثال: * طبقه بندی باینری با 1 نمونه (مثبت) یا 0 نمونه (نمونه منفی). * 110 مورد: 10 نمونه مثبت با 1 و 100 نمونه منفی با 0. * طبقه بندی کننده مانند SVM 5 مورد را مثبت طبقه بندی کرد اما 5 مورد دیگر را اشتباه طبقه بندی کرد. * دقت بسیار بالا است، اما AUC پایین است. آیا راهی بهتر از انجام اعتبار سنجی متقاطع ترک یک خروجی وجود دارد؟ آیا می توانم 100 نمونه منفی را به مجموعه های 10*10 تقسیم کنم و 10 آزمایش ترک تک با 10 نمونه neg + 10 pos انجام دهم و میانگین عملکرد را انجام دهم؟ یا اگر ایده بهتری دارید لطفا به من بگویید. خیلی ممنون الف
طبقه بندی باینری با نمونه های مثبت بسیار کم
14095
من به بررسی برخی مشکلات می پردازم و در برخی برای آزمایش ضرایب، گاهی افرادی را می بینم که از توزیع دانشجویی استفاده می کنند و گاهی اوقات توزیع عادی را می بینم. قاعده چیست؟
چه زمانی از توزیع Student یا Normal در رگرسیون خطی استفاده کنیم؟
33041
در 3 هفته گذشته کتاب، مقاله و منابع اینترنتی از جمله مطالعه کرده ام. متقاطع تایید شد اما نتوانستم چیزی را پیدا کنم که در مورد من کار کند. من داده هایی از یک آزمایش میدانی با طرح تقسیم شده دارم. مسیر میدانی به همان روش در 2 مکان در طول 2 سال طراحی شد. ادبیات می گوید که بهتر است آمار را در SAS با PROC MIXED انجام دهیم زیرا GLM نتایج نادرستی به من می دهد. بنابراین سوال من این است که بهترین مدل ترکیبی برای 2 سال و 2 مکان چه خواهد بود. عوامل ثابت عبارتند از: 1. خاک ورزی به عنوان فاکتور اصلی کرت 2. گیاه به عنوان فاکتور کرت فرعی 3. مکان عوامل تصادفی عبارتند از: 1. بلوک 2. سال برای یک سال و یک مکان من موفق به دریافت مدلی شده ام که می توان آن را پیدا کرد. در راهنمای خودروهای سواری به مدل های ترکیبی برای آزمایش های تصادفی. مدل برای یک سال یک مکان به این شکل خواهد بود. عملکرد مدل = خاک ورزی گیاه خاکورزی *گیاه; تصادفی = بلوک بلوک * بلوک خاک‌ورزی * خاک‌ورزی * کارخانه گام بعدی مدل‌سازی برای 2 سال در یک مکان است، اما برای این مورد، هیچ ادبیاتی را پیدا نکردم که برای یک طرح تقسیم‌بندی کار کند. از آنجا که هر سال یک تنظیم جدید برای آزمایش وجود داشت، فکر نمی‌کنم بتوانم آن را به عنوان اندازه‌گیری‌های مکرر در نظر بگیرم. مدل باید چگونه باشد؟ مرحله 3 مدل بیش از 2 مکان خواهد بود. خوانده‌ام که مکان‌ها را می‌توان به‌عنوان «سوپر بلوک» دید، اما نمی‌دانم چگونه باید مدلی را برای طرح تقسیم مکان ۲ سال ۲ بسازم. خیلی خوشحال می شوم اگر کسی بتواند به من کمک کند یا در مسیر درستی که بتوانم مدل هایی از این دست را پیدا کنم راهنمایی کند. پیشاپیش ممنون :)
ساخت یک مدل مختلط برای پلات چندمکانی در طی 2 سال در SAS
14099
**سوال:** می‌خواهم در مورد چیزی مطمئن شوم، آیا استفاده از اعتبارسنجی متقاطع k-fold با سری‌های زمانی ساده است یا قبل از استفاده نیاز به توجه ویژه دارد؟ **زمینه:** من در حال مدل سازی یک سری زمانی 6 ساله (با زنجیره نیمه مارکوف)، با داده های هر 5 دقیقه هستم. برای مقایسه چندین مدل، من از اعتبارسنجی متقاطع 6 برابری با جداسازی داده ها در 6 سال استفاده می کنم، بنابراین مجموعه های آموزشی من (برای محاسبه پارامترها) طول 5 سال دارند و مجموعه های آزمایشی دارای طول 1 سال هستند. . من ترتیب زمانی را در نظر نمی‌گیرم، بنابراین مجموعه‌های مختلف من عبارتند از: * فولد 1 : آموزش [1 2 3 4 5]، تست [6] * فولد 2: آموزش [1 2 3 4 6]، تست [5 ] * فولد 3 : آموزش [1 2 3 5 6]، تست [4] * فولد 4 : آموزش [1 2 4 5 6]، تست [3] * fold 5 : training [1 3 4 5 5]، test [2] * fold 6 : training [2 3 4 5 6]، test [1]. من این فرضیه را مطرح می کنم که هر سال از یکدیگر مستقل هستند. چگونه می توانم آن را تأیید کنم؟ آیا مرجعی وجود دارد که کاربرد اعتبارسنجی متقاطع k-fold با سری های زمانی را نشان دهد؟
استفاده از اعتبارسنجی متقاطع k-fold برای انتخاب مدل سری زمانی
51613
من در حال تلاش برای یافتن توزیع داده های جمع آوری شده از آزمایش دای رول و پرتاب سکه هستم. آزمایش به شرح زیر است: 1) یک قالب منصفانه بچرخانید تا یک عدد $D \in (1,...,6)$ بدست آورید. تاس) و تعداد دنباله ها را ثبت کنید $T$ این آزمایش را برای 10000 اجرا تکرار کنید و متغیر تصادفی $W$ را به عنوان تعداد اجراهای مورد نیاز تعریف کنید تا زمانی که نتیجه $T \geq شود. 5 دلار برای اولین بار رخ می دهد. آیا من درست فکر می کنم که $T$ به صورت دوجمله ای هندسی یا منفی توزیع می شود؟ فقط یک نکته، من تمام مدل سازی و شبیه سازی هایم را در R انجام می دهم.
نحوه یافتن توزیع نتیجه یک آزمایش ترکیبی
74968
من مشکلی دارم که باعث می‌شود انگشتان پاهایم را در آمار بیزی فرو کنم، و یک سوال در مورد فواصل اطمینان (یا، گمان می‌کنم، معتبر) دارم: بگویید که می‌خواهید بدانید چگونه $X$ به $y نگاشت می‌شود. $. شما با یک مدل $y=f(X)+\epsilon$ مطابقت دارید. سپس، می‌خواهید $X$ را بهینه کنید تا بهترین $y$ را بدست آورید: $$y_{max} = argmax_X(\hat{f}(X),s.t. \text{whatever constraints}) $$ این به شما مدل را می‌دهد بهترین تخمین از X$ بهینه برای بدست آوردن بزرگترین $y$. اما بدیهی است که $\hat{f}(X)$ نامشخص است. اگر دیدگاه بیزی دارید که $\beta$ به صورت نرمال چند متغیره توزیع شده است، می توانید از آن نمونه برداری کنید که ضرایب جدیدی به دست می دهد (برای مثال به این نگاه کنید). با گرفتن نمونه های زیادی، استفاده از آنها برای انتخاب مقادیر بهینه جدید $X$، توزیع $y_{max}$ بدست می آید که عدم قطعیت را در $\hat{f}(X)$ منعکس می کند. مشکل اینجاست: تخمین مرکزی $y_{max}$ (یعنی بهینه‌سازی بر اساس تخمین پارامترهای مدل برازش شده) لزوماً میانگین یا میانه توزیع $y_{max}$ نیست که وقتی بدست می‌آید. بهینه سازی توابع بر اساس ترسیم های پسین. پس با برآورد مرکزی چه کار کنم؟ کدام تخمین را باید به عنوان بهترین حدس من از ارزش $y_{max}$ در نظر بگیرم؟ آیا در برآوردهای پارامتر (ML) باید $y_{max}$ باشد؟ آیا باید میانگین یا میانه شبیه سازی های بعدی $y_{max}$ باشد؟ نمی‌دانم در اینجا پاسخ درستی وجود دارد یا خیر: شاید این یک سؤال فلسفی باشد؟ (یا من اشتباه نسبتاً اساسی مرتکب می شوم، که کل سؤال من را به چالش می کشد؟ اگر چنین است، از پاسخ هایی که به آن اشاره می کنند سپاسگزار خواهم بود.)
فواصل اطمینان و برآوردهای مرکزی برای عملکرد یک تابع تخمینی با پارامترهای نامشخص
115264
دختر 8 ساله من در حال انجام آزمایشی برای ارزیابی حافظه است. او 3 گروه دارد. شرط 1، شرط 2 و کنترل. آیا او به سادگی یک آزمون t برای «گروه 1» در مقابل «کنترل» و سپس آزمون t دیگری برای «گروه 2» در برابر «کنترل»، سپس یک آزمون t برای «گروه 1» در برابر «گروه 2» اجرا می‌کند؟
از چه آماری استفاده کنیم
84066
با مدلی مانند: $y \approx B_0 + B_1\cdot \log(x) + B_i\cdot \log(x):\text{group}_i +B_j\cdot group_i$، که در آن گروه می‌تواند چندین مقدار بگیرد. ($i = 2$ تا 15$، فرض کنید): در یک رگرسیون OLS، یک ضریب معنی دار آماری در هر یک از شرایط تعامل $B_2$ تا $B_{15}$ به این معنی است که من تا سطح قابل قبولی از خطای نوع 1 می دانم که ضریب 0 نیست. در این مدل خاص، این نظریه نشان می دهد که شیب بین $y$ و $\log(x )$ در هر گروه باید منفی باشد. بنابراین می‌خواهم این فرضیه را آزمایش کنم که برای مثال، $B1 + B2 < 0$، نشان می‌دهد که من مطمئن هستم که رابطه بین $y$ و $\log(x)$ در گروه 2 منفی است. چگونه می توانم چنین آزمونی را انجام دهم؟ اگر راهنمایی خاصی در مورد نحوه انجام این کار در بسته statsmodels پایتون داشته باشید، حتی مفیدتر خواهد بود.
ضریب آزمون رگرسیون بر روی متغیر بیشتر از ضریب ترم تعامل است
41222
آیا کسی می تواند مفهوم فاصله ماهالانوبیس را برای من توضیح دهد؟ به عنوان مثال، فاصله ماهالانوبیس بین دو نقطه x و y چقدر است و به خصوص برای تشخیص الگو چگونه تفسیر می شود؟
فاصله ماهالانوبیس چیست و چگونه از آن در تشخیص الگو استفاده می شود؟
3238
من مجموعه ای از داده های سری زمانی دارم. هر سری دوره یکسانی را پوشش می‌دهد، اگرچه تاریخ‌های واقعی در هر سری زمانی ممکن است همه دقیقاً «راستی» نداشته باشند. یعنی اگر قرار بود سری زمانی در یک ماتریس دو بعدی خوانده شود، چیزی شبیه به این خواهد بود: تاریخ T1 T2 T3 .... TN 1/1/01 100 59 42 N/A 2/1/01 120 29 N/A 42.5 3/1/01 110 N/A 12 36.82 4/1/01 N/A 59 40 61.82 5/1/01 05 99 42 23.68 ... 31/12/01 100 59 42 N/A غیره می خواهم یک اسکریپت R بنویسم که سری های زمانی {T1, T2, ... TN} را از هم جدا کند. به خانواده ها که در آن خانواده به عنوان مجموعه ای از سریال ها تعریف می شود که تمایل به همدردی با هر یک از آنها دیگر برای بخش «خوشه‌بندی»، باید نوعی اندازه‌گیری فاصله را انتخاب/تعریف کنم. من کاملاً مطمئن نیستم که چگونه این کار را انجام دهم، زیرا با سری های زمانی سر و کار دارم، و یک جفت سریال که ممکن است در یک بازه همدردی حرکت کنند، ممکن است در بازه بعدی این کار را انجام ندهند. من مطمئن هستم که افراد با تجربه/ باهوش‌تر از من در اینجا وجود دارند، بنابراین از هر گونه پیشنهاد، ایده‌ای در مورد اینکه از چه الگوریتم/اکتشافی برای اندازه‌گیری فاصله و نحوه استفاده از آن در خوشه‌بندی سری‌های زمانی استفاده کنیم، سپاسگزار خواهم بود. حدس من این است که یک روش آماری قوی برای انجام این کار وجود ندارد، بنابراین من بسیار علاقه مند هستم که ببینم مردم چگونه به این مشکل برخورد/حل می کنند - مانند یک آماردان فکر می کنند.
خوشه بندی سری های زمانی در R
38744
من سعی می‌کنم LTV مشتری را با استفاده از توزیع گامای نمایی پیشنهاد شده در مقاله مجله پیش‌بینی (مقایسه تجربی مدل‌های پیش‌بینی آزمایشی محصول جدید؛ تألیف بروس هاردی، پیتر فادر، و مایکل ویسنیوسکی) پیش‌بینی کنم. فرمول خاصی که من به دنبال حل آن هستم $P(t)=1-(α/(α+t))^r$ است، که $t$ دوره است، $P(t)$ احتمال یک مشتری هنوز در زمان $t$ مشتری است، $α$ پارامتر مقیاس و $r$ پارامتر شکل است. من برخی از داده های اولیه در مورد فرسایش در هر دوره / حفظ مشتریان در طی 12 دوره دارم، اما نمی دانم چگونه از این داده ها برای محاسبه $α$ یا $r$ استفاده کنم تا بتوانم فرسایش/حفظ دوره های آینده و در نهایت LTV را پیش بینی کنم. . **آیا کسی می تواند توضیح دهد که چگونه می توانم از داده هایی که دارم برای محاسبه $α$ و $r$ استفاده کنم؟**
چگونه پارامترهای شکل و مقیاس را تعیین کنم؟
86516
من یک مدل مانع بیزی را با فرض توزیع پواسون نصب کردم: $ P(Y_i=y_i) = \begin{cases} 1-\pi_{i} & \mbox{if }y_i=0\\\\[0.5em] \pi_ {i} \frac{\lambda_{i}^{y_i} e^{-\lambda_i}}{y_i!(1-e^{-\lambda_i})} &\mbox{if }y_i > 0 \end{cases} $ زیرا log-likelihood با توجه به $\ قابل تفکیک است pi$ و $\lambda$، من دو رگرسیون جداگانه (یعنی رگرسیون پواسون لجستیک و رگرسیون صفر کوتاه) را با استفاده از مجموعه ای از پیش بینی کننده ها به عبارت دیگر: $ \lambda = \log(\beta_{1}^T X) \\\ \pi = \mbox{logit}(\beta_{2}^T X) $ مشکل من در تلاش برای پیش‌بینی مقادیر جدید به وجود می‌آید. در زمینه بیزی، من توزیع های پسینی برای ضرایب از رگرسیون پواسون لجستیک و صفر بریده دارم. برای یک مقدار پیش‌بینی‌شده جدید، من یک توزیع پسین برای $\pi$ و $\lambda$ خواهم داشت. برای به دست آوردن $E(\pi \cdot \lambda)$ آسان است، من فقط می توانم حاصل ضرب میانگین های پسین را بگیرم. اما در مورد بدست آوردن صدک های 2.5 و 97.5% برای بازه معتبر برای مقدار پیش بینی شده جدید چه می شود؟
مدل و پیش‌بینی موانع بیزی
3232
مطب من قرار است مجموعه ای از اقدامات کنترل عفونت را در بیمارستان اجرا کند و ببیند که آیا می تواند به طور موثر میزان عفونت برخی از عوامل بیماری زا را کاهش دهد. واحد اندازه گیری «مورد در هزار روز تخت بیمار» خواهد بود. ما 4 بخش را برای اجرای اقدامات کنترلی به مدت 12 ماه انتخاب کرده‌ایم و اندازه‌گیری را به صورت ماهانه انجام می‌دهیم، اما با نگاهی به داده‌های فعلی عفونت، حتی این بخش‌ها نیز دارای بیشترین تعداد عفونت در نظر گرفته می‌شوند، همچنان نسبتاً تمیز محسوب می‌شوند. آنها چندین ماه با اندازه گیری صفر در زمان دارند. من یک مدل رگرسیون ایجاد کرده‌ام که نشان می‌دهد آیا آنها موفق به کاهش 50 درصد عفونت شده‌اند یا خیر، و بتای مدل (با سه متغیر در داخل)، از نظر آماری معنی‌دار نیستند. همکاران من نگران هستند که با این همه کار سخت، دادن نتیجه غیر قابل توجه برای کارکنان خط مقدم بسیار ناامید کننده باشد. آیا اندازه گیری پیامد جایگزین یا حتی روش های آماری جایگزین برای سری های زمانی رویدادهای نادر وجود دارد؟ با تشکر
انتخاب متغیر وابسته برای رگرسیون loglinear segmented در تجزیه و تحلیل سری زمانی رویدادهای نادر
80613
اجازه دهید $X_{n}$ و $Z$ متغیرهای تصادفی در فضای احتمال $(\Omega ,\mathcal F,P)$ و $Z$ باشند. نشان دهید که $X_{n} \ge Z \qquad \Longrightarrow \qquad E[\liminf_{n\to \infty} X_{n}] \le \liminf_{n\to \infty} E[X_{n} ] $$
$X_{n}$ و $Z$ متغیرهای تصادفی هستند اگر $X_{n} \ge Z$ سپس $ E[\liminf_{n\to \infty} X_{n}] \le \liminf_{n\to \ infty} E[X_{n}] دلار
110968
درست مثل چیزی که در عنوان می پرسم. من می بینم که تقریباً تمام داده های مالی قبل از مرحله تجزیه و تحلیل داده ها ثبت می شوند، چرا؟ آیا خواص خوبی دارد؟
چرا ورود به داده های مالی خوب است؟ آیا خواص خوبی دارد؟
76760
من اطلاعاتی در مورد تعداد علائم قابل مشاهده یک بیماری از چند بیمارستان (5 کلاس) و همچنین برخی داده های دیگر مانند جنسیت (2 کلاس)، طبقه سنی (3 کلاس) جمع آوری کرده ام. داده ها در 3 سال مختلف (یعنی 3 کلاس) جمع آوری شد. من سعی می کنم از مدل های خطی ورود به سیستم در جدول احتمالی برای تجزیه و تحلیل داده ها استفاده کنم تا بدانم آیا شیوع تعداد علائم قابل مشاهده بین سال ها، بیمارستان ها، جنس ها و طبقات سنی متفاوت است یا خیر. چیزی که من در مورد آن مطمئن نیستم این است که از کدام توزیع استفاده کنم و چگونه بهترین توزیع را برای داده های خود آزمایش کنم؟ من از هر گونه سرنخ در مورد آنچه که باید انجام دهم سپاسگزارم
چند سوال در مورد جداول احتمالی: کدام توزیع؟
14092
من یک آزمایش محاسباتی دارم که پارامتر اندازه $s$ را می گیرد و true یا false را برمی گرداند. پیشنهاد شده است که نتیجه آزمایش مستقل از $s$ است، اما من فکر نمی کنم. من انتظار دارم یک کاهش کلی در اعداد وجود داشته باشد، اگرچه فقط از نظر لگاریتمی به $s$ وابسته است. (این امر تشخیص آن را سخت می کند و دلیل اصلی پست من است -- تشخیص اثر بزرگتر آسان تر خواهد بود.) برای s = 5..30 من 1000 نمونه تولید کرده ام که به ترتیب تعداد موارد را ذکر می کنم: 108، 108، 99، 99، 98، 87، 82، 85، 84، 94، 97، 87، 86، 102، 82، 84، 83، 87، 75، 69، 66، 79، 91، 81، 74، 74 چین و چروک دیگر: زمان مورد نیاز برای تولید نمونه ها به پارامتر اندازه بستگی دارد. انجام 1000 تست در سایز 10 کمتر از یک ثانیه طول کشید. در سایز 30 نزدیک به یک دقیقه طول می کشد. بنابراین اگر مفید باشد، می‌توانم نمونه‌های بیشتری را در اندازه‌های کوچک تولید کنم. ($s$ مربوط به $10^s$ است، بنابراین من نمی توانم بیش از $10^s$ را برای $s$ معین انتخاب کنم. اما می توانم یک میلیارد تست در s = 10 بدون مشکل [در یک هفته یا دو].) طرف دیگر، البته، این است که تولید نمونه های بزرگ دشوار است، حتی اگر این نمونه ها بیشترین کاربرد را داشته باشند. با کمی تلاش بیشتر (نیم دوجین ساعت پردازنده) توانستم 1000 تست را در سطوح بالاتر انجام دهم: s = 40: 75 s = 45: 81 s = 50: 74 s = 55: 73 s = 60: 74 s = 65: 68 بنابراین سوال من: چگونه باید آزمایشی طراحی کنم تا تصمیم بگیرم که آیا اینها به طور یکسان توزیع شده اند؟ وقتی داده‌هایم را در اختیار گرفتم، چگونه می‌توانم تصمیم بگیرم (برای برخی از $\alpha$) آیا این فرضیه را که توزیع‌ها یکسان هستند، یعنی مستقل از $s$، رد کنم یا نه؟ به عنوان مثال، من می‌توانم به تولید داده‌ها برای 1000 تست در هر مقدار $s$ از 31 تا 70 ادامه دهم. اما با توجه به افزایش زمان مورد نیاز با افزایش پارامتر، مطمئن نیستم که این روش مناسبی برای نمونه‌برداری از داده‌ها باشد. اما هنگامی که عدم یکنواختی را معرفی می کنم، مطمئن نیستم که چه تکنیک تستی مناسب است. (من یک نوزاد آماری هستم.)
آزمایش یک مدل دو جمله ای
57319
> فرض کنید که $X_1، X_2، ...، X_n$ مستقل هستند، که در آن هر $X_i$ دارای > تابع احتمال (جرم) $p_i(x_i)$ به صورت $p_i(x_i) = > \frac{e^{ -\lambda} \lambda_i^{x_i}}{x_i!}$ (فقط پارامتر $\lambda_i$ > در توزیع متفاوت است از هر $X_i$ برای $x_i = 0, 1, ...$ چه مقدار است: $\sum\limits_{i=1}^n X_i$ توابع پاسخ: تابع تولید لحظه پواسون (مجموع $\lambda$) من متوجه نمی شوم که چگونه این سوال را انجام دهم و واقعاً نمی توانم سوال را درک کنم من پیشاپیش متشکرم
سوال توابع تولید لحظه
41596
من به تازگی (دوباره) کتاب گلمن _ چرا ما (معمولا) نیازی به نگرانی در مورد مقایسه های متعدد نداریم_ را خوانده ام. به ویژه در بخش **نتایج چندگانه و سایر چالش ها** استفاده از یک مدل سلسله مراتبی برای موقعیت هایی که چندین معیار مرتبط از یک فرد/واحد در زمان ها/شرایط مختلف وجود دارد، ذکر شده است. به نظر می رسد که دارای تعدادی خواص مطلوب باشد. من درک می کنم که این لزوماً یک چیز بیزی نیست. آیا کسی می تواند به من نشان دهد که چگونه با استفاده از rjags و/یا lmer یک مدل چند متغیره را به درستی بسازم (JAGS و BUGS معمولی نیز باید خوب باشند، و همچنین کتابخانه های مدل ترکیبی دیگر مانند MCMCglmm) تا بتوانم با آن برای مقایسه و بازی کنم. نتایج کنتراست؟ نوع موقعیتی که من برای آن مدلی می‌خواهم در داده‌های اسباب‌بازی زیر منعکس می‌شود (چند متغیره، اندازه‌های تکراری): set.seed(69) id <- factor(rep(1:20, 2)) # شناسه موضوع dv1 <- c(rnorm(20)، rnorm(20، 0.8، 0.3)) # داده متغیر وابسته 1 برای 2 شرط dv2 <- c(rnorm(20)، rnorm(20، 0.3، 0.6)) dv3 <- c(rnorm(20)، rnorm(20، -0.3، 0.8)) dv4 <- c(rnorm(20)، rnorm(20، 0.2، 1)) dv5 <- c(rnorm(20)، rnorm(20، 0.5, 4 )) rmFac <- factor(rep(c(1, 2), every=20)) # ضریب اندازه گیری مکرر dvFac <- factor(rep(1:5, every=40)) # نشانگر متغیر وابسته dfwide < - data.frame(id، dv1، dv2، dv3، dv4، dv5، rmFac) dflong <- data.frame(id، dv = c(dv1، dv2، dv3، dv4، dv5)، rmFac، dvFac) # فقط در صورتی که راحت تر باشد؟
مدل های سلسله مراتبی برای مقایسه های چندگانه - زمینه نتایج چندگانه
30532
مجموعه داده من حاوی حدود 12٪ داده های گم شده است، و بسیاری از داده های از دست رفته در امتداد مشاهدات گروه بندی می شوند (نه به طور تصادفی پراکنده یا در امتداد ستون ها). من یک روش رگرسیون را پس از حذف مشاهدات با مقادیر زیادی از داده های از دست رفته بهینه کردم (و از KNN-impute برای استنتاج داده های گمشده باقی مانده استفاده کردم). من اکنون سعی می‌کنم knn-impute را روی کل مجموعه داده‌ها، بدون حذف هیچ داده‌ای قبلی انجام دهم، و روش رگرسیون بهینه قبلی من اکنون بدتر عمل می‌کند. چرا ممکن است این باشد؟ نکته: روش رگرسیون بهینه == بهینه سازی پارامترها. بنابراین افزودن به این داده‌های جدید بدتر است: i) زیرا حاوی داده‌های گمشده زیادی است و knn-impute روش اشتباهی است، یا ii) من فقط باید پارامترهای بهینه جدید را جستجو کنم.
چرا یک مدل پس از معرفی مجدد مشاهدات با داده های گمشده نسبت داده شده بدتر عمل می کند؟
76767
ما یک خانواده مکان داریم، با پارامتر مکان $\theta$، و چگالی‌هایی که روی اعداد واقعی $\mathbb{R}$ تعریف شده‌اند به طوری که $p_\theta(x) = p(x-\theta)$. باید ثابت کنم که اطلاعات فیشر مورد انتظار $J(\theta) = \int_\mathbb{R} \frac{(p'(x))^2}{p(x)}\,\mathrm{d}x $ به این معنی است که $J(\theta)$ یک تابع ثابت است. آیا فقط در مورد حل انتگرال است؟ اگه آره لطفا یه راهنمایی بفرمایید، سوابق ریاضی ضعیفم این اجازه رو به من نمیده...
نشان دهید که اطلاعات فیشر مورد انتظار برای خانواده های مکان یک تابع ثابت است
76761
**مشکل:** من می‌خواهم BIC و AICc را از یک شی arima() در R استخراج کنم. AIC، BIC، و AICc. بیایید چند کد نمونه را اجرا کنیم تا ببینیم چگونه به نظر می رسد: # بارگذاری داده های مجموعه داده لکه های خورشیدی (لکه های خورشیدی) # یک مدل ARIMA(2,0,2) بسازید و به عنوان یک مدل شی ذخیره کنید <- arima(x=sunspots, order=c (2,0,2), method=ML) # نمایش خلاصه ای از مدل مدل خروجی نتایج برای مدل به این صورت است: سری: لکه های خورشیدی ARIMA(2,0,2) با میانگین غیر صفر ضرایب: ar1 ar2 ma1 ma2 intercept 0.9822 0.0004 -0.3997 -0.1135 51.2652 s.e. 0.1221 0.1196 0.1206 0.0574 8.1441 sigma^2 تخمین زده شده به عنوان 247.9: log likelihood=-11775.69 AIC=23563.39 AICc=23563.42 AICc=23563.42 BIC=23599، ما می توانیم مقدار IC=23599 را ببینیم. AICc. (توجه: این خروجی است که توسط arima() نشان داده می شود وقتی بسته پیش بینی بارگذاری شده است، یعنی کتابخانه (پیش بینی)) دسترسی به مقدار AIC بسیار آسان است. می توان به سادگی تایپ کرد: > model$aic [1] 23563.39 دسترسی به مقدار AIC به این روش امکان پذیر است، زیرا به عنوان یکی از ویژگی های مدل ذخیره می شود. کد و خروجی زیر این را روشن می کند: > ویژگی ها(model) $names [1] coef sigma2 var.coef mask loglik [6] aic arma residuals call series [11] code n.cond model $class [1] Arima اما توجه داشته باشید که bic و aicc مدل نیستند ویژگی ها، بنابراین کد زیر برای ما فایده ای ندارد: > model$bic NULL > model$aicc NULL مقادیر BIC و AICc در واقع توسط تابع arima() محاسبه می شوند، اما شیئی که برمی گرداند مستقیماً به ما نمی دهد. دسترسی به ارزش های آنها این ناخوشایند است و من با دیگرانی برخورد کرده ام که این موضوع را مطرح کرده اند. متاسفانه راه حلی برای مشکل پیدا نکردم. آیا کسی آنجا می تواند کمک کند؟ از کدام روش می توانم برای دسترسی به BIC و AICc از شی کلاس Arima استفاده کنم. **توجه:** من پاسخی را در زیر پیشنهاد کرده‌ام، اما می‌خواهم پیشرفت‌ها و پیشنهادات را بشنوم. ویرایش (جزئیات نسخه طبق درخواست): > R.Version() $platform [1] i686-pc-linux-gnu $arch [1] i686 $os [1] linux-gnu $system [1] ] i686, linux-gnu $status [1] $major [1] 3 $minor [1] 0.2 $year [1] 2013 $month [1] 09 $day [1] 25 $`svn rev` [1] 63987 $language [1] R $version.string [1] R نسخه 3.0. 2 (25/09/2013) $nickname [1] Frisbee Sailing
BIC و AICc را از شی arima() استخراج کنید
84063
چگونه می توان تعداد لایه های پنهان و تعداد نورون های یک شبکه عصبی مصنوعی را تعیین کرد؟ من یک شبکه عصبی مصنوعی برای برنامه پیش بینی بارندگی دارم که دارای چهار نورون در لایه ورودی و دو نورون در لایه خروجی است. برای انتخاب تعداد لایه های پنهان و تعداد نورون های شبکه خود از کدام روش ها و اکتشافات استفاده کنم؟
چگونه می توان تعداد لایه های پنهان و تعداد نورون های یک شبکه عصبی مصنوعی را تعیین کرد؟
30535
من از تابع factanal در R برای انجام تحلیل عاملی استفاده می کنم. کسی به من گفت که باید از Adjusted $R^2$ استفاده کنم تا نتایج دقیق تری در تحلیل عاملی بدست بیاورم. اما وقتی به گزینه تحلیل عاملی نگاه کردم، راهی برای انجام آن پیدا نکردم. هر ایده ای؟
آیا و چگونه می توان r-squared تعدیل شده را در تحلیل عاملی محاسبه کرد؟
89774
من از رگرسیون لجستیک برای ایجاد یک طبقه‌بندی کننده باینری در R استفاده می‌کنم. یک پیش‌بینی‌کننده برای داده‌های آزمایشی نوشتم و میانگین نتیجه پیش‌بینی‌شده‌ام را محاسبه کردم (من حدس می‌زنم می‌توان آن را به کارایی روش من ترجمه کرد). من برخی از ارجاعات به آموزش و محاسبه خطاهای تست را پیدا کردم، اما به نظر نمی رسد که بفهمم چگونه آنها را از روی تناسب پیش بینی شده محاسبه کنم. هر مرجعی کمک خواهد کرد! glm.fit=glm(حقوق~سن+کلاس کار+fnlwgt+تحصیلات+تحصیلات.تعداد+تأهل.وضعیت+شغل+رابطه+نژاد+جنس+سرمایه.کسب+سرمایه.زیان +ساعت.در هفته+ کشور بومی، خلاصه داده=trainبزرگسالان،خانواده=دوجمله ای(glm.fit) glm.probs=predict(glm.fit,newdata=testAdults, type=response) glm.probs[1:10] glm.pred=ifelse(glm.probs>0.5,2,1) setattr( testAdults$salary,levels,c(1, 2)) ضمیمه (testAdults) جدول (glm.pred,salary) mean(glm.pred==salary) plot(glm.probs) boxplot(glm.probs) نتیجه خلاصه: انحراف باقیمانده: Min 1Q Median 3Q Max -3.6016 -0.6337 -0.3539 -0.0731 -0.3539 -0.078 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -1.433467 0.029795 -48.111 < 2e-16 *** سن 0.437952 0.026454 16.555 < 2e-16 *** Workclass -0.104 -0.182 -0.106 1.31e-06 *** fnlwgt 0.052655 0.023348 2.255 0.024117 * آموزش 0.055044 0.028739 1.915 0.055455 . Education.num 0.851533 0.026941 31.607 < 2e-16 *** marital.status -0.342673 0.026837 -12.769 < 2e-16 *** شغل -0.027290 -0.027290 0.027290 0.0237719 - 0.023 -0.223131 0.033368 -6.687 2.28e-11 *** مسابقه 0.100934 0.026330 3.833 0.000126 *** جنسیت 0.404090 0.034456 0.034456 0.034456 8 اینچ 11.72 سرمایه 2.392861 0.108381 22.078 < 2e-16 *** سرمایه. ضرر 0.259485 0.019611 13.232 < 2e-16 *** ساعت در هر هفته -0.005913 0.024925 -0.237 0.812480 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دو جمله ای 1 گرفته شده است) انحراف صفر: 16832 در 15080 درجه آزادی انحراف باقیمانده: 11829 15066 درجه آزادی AIC: 11859 تعداد تکرارهای امتیاز دهی فیشر: 7
محاسبه خطا/دقت در رگرسیون لجستیک
34897
من یک پرسشنامه با مقیاس پنج درجه ای دارم. تفاوت در میانگین به دست می آید. از آنجایی که داده‌های من عادی نیستند، از آزمون‌های غیرپارامتری برای مقایسه‌هایم استفاده می‌کنم. جمعیت: 1 گروه (فقط داروسازان) مثال سوال: بیانیه حداقل حداکثر میانگین Std.D ابزار مرجع مهمی در هنگام تجویز دارو هستند 1 5 3.4 .829 ابزار مرجع مهمی هستند در هنگام پاسخ به علائم 1 5 3.7 .876 بین این دو عبارت وجود دارد؟
چه آزمایشی باید انجام دهم؟
41592
من در حال آزمایش یک سیستم توصیه برای مقالات (اخبار، مجلات و غیره) هستم. آیا مجموعه داده ای برای همان داده موجود است که شامل اطلاعات جمعیت شناختی کاربران نیز باشد؟ من در واقع سعی می‌کنم اطلاعات جمعیت‌شناختی را نیز در توصیه‌ها بگنجانم، از این رو به دنبال چنین مجموعه داده‌ای هستم. من واقعاً نمی‌خواهم چنین داده‌هایی را شبیه‌سازی کنم، زیرا فکر می‌کنم داده‌های واقعی بینش‌های بسیار جالب‌تری نسبت به شبیه‌سازی‌شده ارائه می‌دهند. کسی از چنین چیزی مطلع است؟ من یکی از http://contest.plista.com/ را پیدا کردم، اما متأسفانه به نظر می‌رسد که مجموعه داده‌های آلمانی و اطلاعات جمعیت‌شناختی آن وجود ندارد. صفحه اول یاهو وجود دارد اما فقط برای تحقیقات آکادمیک است. از هرگونه اطلاعاتی در اینجا قدردانی می کنیم.
مجموعه داده توصیه مقاله
74966
من با استفاده از شبکه های عصبی مصنوعی روی یک مسئله طبقه بندی باینری کار می کنم. سوالات من عبارتند از: 1) نمرات هدف و نمرات غیر هدف در یک طبقه بندی کننده چیست و چگونه می توانم طبقه بندی کننده خود را طوری بسازم که به جای تصمیم گیری سخت در خروجی آن امتیاز کسب کنم. (من از جعبه ابزار شبکه های عصبی مصنوعی Matlab برای انجام طبقه بندی استفاده می کنم.) 2) خروجی طبقه بندی کننده من خروجی های تخمینی، نسبت مثبت واقعی، نسبت منفی واقعی و آستانه است. من همچنین اهداف واقعی دارم. چگونه می توانم این ماتریس ها را با نمرات هدف و نمرات غیر هدف مرتبط کنم تا بتوانم از آنها در جعبه ابزار BOSARIS برای محاسبه میزان خطای برابر سیستم استفاده کنم؟
نمرات هدف و غیر هدف، جعبه ابزار BOSARIS
41591
من آزمایش‌های بیولوژیکی انجام می‌دهم و باید داده‌های خام خود را به مقدار کنترل درمان نشده نرمال کنم تا آنها را تجزیه و تحلیل کنم. این بدان معنی است که من برای نمونه درمان نشده چیزی مانند {1،1،1،1،1} و برای نمونه درمان شده چیزی مانند {1.12،2.1،2.05،1.85،1.78} دارم. چگونه می توانم تست کنم که هر دو مجموعه به طور قابل توجهی متفاوت هستند؟ واضح است که من نمی توانم 1،1،1،1،1 را در آزمون t وارد کنم، آیا می توانم؟ در صورتی که بخواهم تفاوت قابل توجهی را در دو نمونه تیمار شده آزمایش کنم، فرض کنید با دو دوز مختلف تیمار شده است که به خودی خود به کنترل درمان نشده نیز نرمال شده است (داده A {1.12،2.1،2.05،1.85،1.78} ، مجموعه داده B {2.2،3.1،2.5،2.9،1.8})، چگونه این کار را به روش صحیح انجام دهم؟ خیلی ممنون
آیا می توانم یک آزمون t را برای داده های نرمال شده اعمال کنم؟
38741
من در انجام SVM نیز تازه کار هستم... ما یک مجموعه داده حدود 50 عدد (25 در هر گروه) داریم. ما در حال تلاش برای شناسایی نوزادان در معرض خطر بالای ابتلا به اختلال از نوزادانی هستیم که در معرض خطر کم ابتلا به این اختلال هستند. وقتی SVM (LOOCV، کرنال خطی، فیلتر ttest) را اجرا می‌کنم، سطح دقت بسیار پایینی (یعنی 24 درصد در یک مورد) را دریافت می‌کنم، اما با مقادیر p از نظر آماری معنی‌دار. آیا کسی می تواند به من کمک کند تا بفهمم چرا این اتفاق می افتد / چه معنایی می تواند داشته باشد؟ با تشکر
SVM دقت پایین اما مقدار p قابل توجه است
5502
آیا زمانی که متغیرهای گسسته و ترتیبی دارید، روشی اصولی برای تخمین نمرات عامل وجود دارد؟ من متغیرهای ترتیبی، گسسته، $n$ دارم. اگر فرض کنم که زیربنای هر پاسخ یک متغیر پیوسته و به طور معمول توزیع شده است، می توانم یک ماتریس همبستگی چند کوریک $n\times n$ را محاسبه کنم. سپس می توانم تحلیل عاملی را روی این ماتریس اجرا کنم و بارهای عاملی را برای هر متغیر دریافت کنم. چگونه می توانم بارهای عاملی و متغیرها را برای تخمین امتیازهای عامل ترکیب کنم. به نظر می‌رسد که روش‌های معمولی برای تخمین نمرات مستلزم آن است که داده‌های ترتیبی را به‌عنوان فاصله در نظر بگیرم. فکر می‌کنم ممکن است لازم باشد برای کشف یک تابع پیوند، عمیق‌تر به عمق همبستگی چند کوریک بپردازم.
نمرات عامل از پاسخ های گسسته و ترتیبی
38742
من روی پایان نامه کارشناسی ارشد خود کار می کنم و از جستجوی جامع (که زیر مجموعه های معمولی نیز نامیده می شود) برای مدل های خطی استفاده می کنم. پاسخی در CrossValidated وجود داشت، به اعتقاد من توسط whuber، که در مورد خطرات استفاده از زیرمجموعه‌های معمولی صحبت می‌کرد و پیوندی به صفحه‌ای با چندین مقاله در مورد این خطر داشت. متاسفانه خیلی دنبال این پست گشتم و پیدا نکردم. اگر کسی بتواند من را به سمت این پست یا مقالاتی در مورد محدودیت ها / خطرات / مشکلات استفاده از جستجوی جامع برای مدل های خطی راهنمایی کند، بسیار سپاسگزار خواهم بود.
مقالاتی در مورد خطرات استفاده از زیر مجموعه های معمولی
38749
از نظر ورودی -> [فرایند] -> خروجی چه ویژگی هایی وجود دارد که خوشه بندی، جداسازی سیگنال کور و کاهش ابعاد را متمایز می کند؟ از این مقاله ویکی‌پدیا، مفهوم این است که دو نوع یادگیری بدون نظارت وجود دارد: * خوشه‌بندی. و * جداسازی سیگنال کور من قبلاً اصطلاح _جدایی سیگنال کور_ را نشنیده ام. چه تفاوتی با خوشه بندی دارد و کاهش ابعاد چگونه این امر را پایه ریزی می کند؟
چه ویژگی هایی وجود دارد که خوشه بندی، جداسازی سیگنال کور و کاهش ابعاد را متمایز می کند؟
18155
ما داده‌های اندازه‌گیری مکرر را از نمونه‌ای از افراد که در 4 نقطه زمانی در 2 گروه ارزیابی شدند، تولید کردیم. ما می خواهیم گروه ها را در طول زمان مقایسه کنیم. مقادیر قابل توجهی از دست رفته وجود دارد. این پرسشنامه بسیار حساس است و دارای دامنه امتیازی بین 1 تا 30 است، با این حال اکثریت قریب به اتفاق افراد امتیاز 29 یا 30 را کسب می کنند. این اعداد به صورت تصاعدی به زیر 29 سقوط می کنند. مسلماً در اندازه گیری های انجام شده در ابتدا، گسترش نزولی بیشتری وجود دارد. نقطه زمانی تبدیل لاگ (و نه هیچ تغییری) تفاوتی ایجاد نکرده است. با وجود آشفتگی آشکار پرسشنامه واقعی، آیا مردم قبلاً با این وضعیت مواجه شده اند؟ در حال حاضر ما به سادگی از 29 به عنوان یک برش برای تجزیه و تحلیل طبقه بندی استفاده می کنیم. آیا کار ظریف تری وجود دارد که بتوان انجام داد؟
چگونه داده ها را با افکت سقف تجزیه و تحلیل کنم؟
18151
من موقعیتی دارم که در آن مشاهدات $n$ دارم که هر کدام دارای متغیرهای مستقل $p$ و متغیرهای وابسته $q$ هستند. من می خواهم یک مدل یا مجموعه ای از مدل ها بسازم تا پیش بینی های متغیرهای وابسته $q$ را برای یک مشاهده جدید بدست آوریم. یک راه ساختن چندین مدل است که هر کدام یک متغیر وابسته را پیش‌بینی می‌کنند. یک رویکرد جایگزین، ساخت یک مدل واحد برای پیش‌بینی همه متغیرهای وابسته به یکباره است (رگرسیون چند متغیره یا PLS و غیره). سوال من این است: آیا در نظر گرفتن چندین DV به طور همزمان منجر به یک مدل قوی / دقیق / قابل اعتمادتر می شود؟ با توجه به این واقعیت که برخی از متغیرهای وابسته $q$ ممکن است با یکدیگر همبستگی داشته باشند، آیا این واقعیت یک رویکرد مدل واحد را مختل می کند یا کمک می کند؟ آیا منابعی وجود دارد که بتوانم در مورد این موضوع جستجو کنم؟
روش های پیش بینی متغیرهای وابسته چندگانه
40593
> **تکراری احتمالی:** > چرا خطای استاندارد شامل اندازه جمعیت نمی شود؟ هنگام محاسبه فواصل اطمینان برای پارامترهای جمعیت، اندازه جمعیت هرگز یک عامل نیست، بلکه از اندازه نمونه و پارامتر برآورد شده استفاده می شود. به نظر من بسیار غیر شهودی به نظر می رسد که برای ادعا با اطمینان خاصی مبنی بر اینکه یک دیدگاه خاص احتمال مشخصی دارد، صرف نظر از اینکه جامعه 2K نفر باشد یا 2 میلیون نفر، به همان حجم نمونه نیاز است. چرا اطمینان پارامترهای تخمین زده شده توزیع های نرمال مستقل از اندازه جمعیت است؟
چگونه است که حجم نمونه مورد نیاز برای یک خطا و اطمینان مشخص به حجم جامعه وابسته نیست؟
38297
جستجو کردم اما نتوانستم آن را پیدا کنم، بنابراین اگر این تکرار سؤالی است که قبلاً پرسیده شده است عذرخواهی می کنم - آیا می توانم یک EFA با متغیرهای N 180 و 70 انجام دهم؟ من می گویم نه، اما مشاورم همچنان از من می خواهد که این کار را انجام دهم. پیشاپیش از شما متشکرم
اندازه نمونه برای EFA
103143
من در حال ایجاد کیسه ای از کلمات بصری برای طبقه بندی فیلم ها هستم. من از توصیفگرهای SURF استفاده نمی‌کنم و به همین دلیل است که نمی‌توانم از «BOWImgDescriptorExtractor» OpenCV برای این منظور استفاده کنم. من توصیف کننده هایم را استخراج کردم و خودم آنها را خوشه بندی می کنم. من الان دایره لغاتم را دارم (اندازه 4000). کاری که من باید انجام دهم این است که توصیفگرهای آموزشی خود را به این خوشه ها اختصاص دهم و هیستوگرام بصری را برای مراحل بعدی ایجاد کنم. چگونه باید این پیش بینی را انجام دهم و هیستوگرام بصری را برای داده های آموزشی خود از فرهنگ لغت ایجاد شده ایجاد کنم؟
پیش‌بینی BOW خوشه برای داده‌های آموزشی
83049
پاراگراف زیر گزیده ای از مستندات R PerformanceAnalytics در مورد VaR بود. > رایج ترین تخمین توزیع نرمال (یا گوسی) $R\sim > \mathcal{N}(\mu,\sigma)$ برای سری بازگشتی است. در این مورد، برآورد > VaR به میانگین بازگشت $\bar{R}$، توزیع بازگشتی و > واریانس بازده $\sigma$ نیاز دارد. در رایج‌ترین حالت، VaR پارامتریک > بنابراین با > > $$\sigma=var(R)$$ > > $$VaR= -mean(R) - \sqrt{\sigma}*qnorm(c)$ محاسبه می‌شود. $ من کنجکاو هستم که چرا این مورد است. VaR فقط یک cdf معکوس است که در c٪ ارزیابی می شود. **ویرایش** پس از خواندن چند مقاله در مورد استانداردسازی پیشنهاد شده توسط @whuber، به مشاهدات زیر رسیدم. اجازه دهید $Z \sim \mathcal{N}(0, 1)$ و $X \sim \mathcal{N}(\mu, \sigma^2)$، رابطه بین دو متغیر تصادفی را می‌توان به صورت $$ بیان کرد. X = \mu + \sigma*Z$$ این را می توان از ویژگی خطی بودن متغیرهای تصادفی معمولی استنباط کرد. تنها سوال باقی مانده نشان دادن این بود که $$F^{-1}(X) = \mu + \sigma * F^{-1}(Z)$$ یعنی نشان دادن CDF معکوس یک تابع خطی است. من به این راه دور می روم. آیا قضیه ای وجود دارد که بگوید CDF معکوس یک R.V معمولی؟ خطی است؟
CDF معکوس متغیر نرمال
83044
من با مدل های ترکیبی خطی کار می کنم. من از «plotlmer.func» در بسته «lmerConvenienceFunctions» برای ساختن یک نمایش گرافیکی از مدلم استفاده کردم. من فقط می خواهم بپرسم که پارامتر verbose=TRUE به من چه می گوید. plotLMER.fnc(model, xlabel=NA, xlabs=NA, ylabel=NA, ylimit=NA, ilabel=NA, fun=NA, pred=NA, control=NA, ranefs=NA, n=100, intr=NA, lockYlim=TRUE، addlines=FALSE، withList=FALSE، cexsize=0.5، linecolor=1، addToExistingPlot=FALSE، verbose=TRUE، ...) در اینجا توضیح پارامتر آمده است: > verbose: اگر TRUE (پیش‌فرض)، اندازه‌های افکت و تبدیل‌های پیش‌فرض گزارش می‌شوند. می‌خواهم بدانم اندازه‌های این افکت چگونه محاسبه می‌شود و دقیقاً به چه چیزی اشاره می‌شود و برای داده‌های من چه می‌تواند بگوید. در تحلیل خود من یک تعامل بین دو گروه و یک عامل مستمر دارم. من برای گروه عامل x فاکتور تفاوت آماری دارم اما می‌خواهم بدانم این اطلاعات اندازه اثر در مورد روند متفاوت گروه‌های من چه می‌تواند بگوید و آیا می‌تواند در گزارش آزمایش مفید باشد؟
اندازه افکت در plotLMER.fnc
3235
1. من می خواهم زمان لازم برای تکرار اجرای یک تابع را اندازه گیری کنم. آیا «replicate()» و استفاده از حلقه‌های for معادل هستند؟ به عنوان مثال: system.time(replicate(1000, f())); system.time(for(i در 1:1000){f()}); که روش ارجح است. 2. در خروجی «system.time()»، «sys+user» زمان واقعی CPU برای اجرای برنامه است؟ آیا «سپری شده» معیار خوبی برای عملکرد زمانی برنامه است؟
توابع زمان بندی در R
76187
شرکت من مدل‌های رگرسیون لجستیک را ایجاد می‌کند که بر اساس داده‌های کلیک آنلاین شخص اول و سوم، پیش‌بینی می‌کند چه کسی خرید خواهد کرد. ما از این برای هدف قرار دادن بازدیدکنندگان آنلاین با مداخلاتی مانند هدف‌گیری مجدد تبلیغات استفاده می‌کنیم. اما هر زمان که محصولات یا قیمت‌های ما به‌طور قابل ملاحظه‌ای تغییر کرد، تحلیلگران ما باید این مدل‌ها را دوباره ایجاد کنند، زیرا تنها پیش‌بینی‌کننده‌ها داده‌های کلیک هستند و تنها متغیر هدف تبدیل است. این درست به نظر نمی رسد. به نظر می رسد ویژگی ها و قیمت محصولات ما نیز باید در مدل ما باشد. اما کجا؟ به عنوان پیش بینی بیشتر؟ یا باید متغیر هدف پیچیده‌تر از دوگانگی «خرید/عدم خرید» باشد و در عوض شامل ویژگی‌های محصول و قیمت‌هایی باشد که فرد می‌خرد؟ یا اینکه رگرسیون لجستیک راه اشتباهی برای مدیریت این موضوع است؟
آیا با تغییر محصولات/قیمت ها باید مدل های خرید پیش بینی تغییر کند؟
76763
من در یافتن هر منبع مبتنی بر وب یا (حتی بهتر) انتشاراتی که جزئیات (یا حتی نام‌گذاری) نوع مشکلاتی را که با اجرای یک آزمون t زوجی در مقایسه با آزمون غیر جفتی هنگام دو بار آزمایش یک جامعه، از آنها اجتناب می‌کند، با مشکل مواجه هستم. من تعجب می کنم که منابعی مانند ویکی پدیا نیز این را به تفصیل بیان نمی کنند. آیا یک تست جفت نشده _p_ من را بیش از حد یا دست کم می گیرد؟ یا این به ملاحظات دیگری بستگی دارد؟ آیا می توانید به من کمک کنید؟
مزایای آزمون تی زوجی - مرجع ادبیات
76371
من به دنبال موفقیت درخواست های متنی هستم. ما مجموعه داده‌ای از جفت‌های همسان داریم، یکی موفق، یکی ناموفق، و بر اساس طول درخواست در کلمات مطابقت داده می‌شوند (از آنجایی که می‌خواهم این اثر را حذف کنم). من می خواهم تعیین کنم که کدام ویژگی برای موفقیت مهم است. برای برخی از ویژگی ها، به عنوان مثال تعداد پست‌های یک کاربر قبل از این درخواست، نتایج اهمیت بسیار متفاوتی را برای آزمون رتبه‌بندی Mann Whitney U و Wilcoxon Signed Rank دریافت می‌کنم (من برای این کار از Python/SciPy.stats استفاده می‌کنم): **Mann Whitney U, 5.91e -6 (یک طرفه)** **رتبه امضای Wilcoxon، 1.4e-2 (دو طرفه)** چرا اینطور است؟ من آمارگیر نیستم اما از این نتیجه شگفت زده شدم. جفت‌های Mann-Whitney U و Wilcoxon Matched اساساً یکسان هستند زیرا بین دو میانه مقایسه می‌شوند تا نشان دهند که آیا هر دو نمونه از یک جمعیت هستند یا نه. از http://www.le.ac.uk/bl/gat/virtualfc/Stats/nonpcom.html چه فرضیاتی را از دست داده ام یا چه چیزی این شکاف را توضیح می دهد؟ با تشکر
تفاوت معنی داری بین آزمون من ویتنی و آزمون رتبه امضا شده ویلکاکسون
89772
من در حال حاضر در حال تجزیه و تحلیل برخی از داده ها هستم و چندین مقایسه برنامه ریزی شده دارم که می خواهم بررسی کنم. یک متغیر پاسخ پیوسته (پاسخ) و 3 متغیر عامل طبقه بندی (نمایه، دارو، بیماری) وجود دارد. هر متغیر عامل (پروفایل، دارو، بیماری) دارای 2 سطح (1،2) است. من یک ANOVA در Stata با دستور زیر انجام دادم: anova answer i.profile##i.drug##i.disease این به خوبی کار می کند. وقتی می‌خواهم شرایط خاص خود را آزمایش کنم و سعی کنم از دستور test استفاده کنم، وارد می‌کنم: test i1.profile#i1.drug#i1.disease = i2.profile#i1.drug#i1.disease این خطا را به من می‌دهد: محدودیت 1 حذف شد، و هیچ مقدار p به عنوان خروجی به من نمی دهد. با این حال، اگر به جای آن اجرا کنم: anova answer i.profile#i.drug#i.disease و سپس تست i1.profile#i1.drug#i1.disease = i2.profile#i1.drug#i1.disease را می‌گیرم. نتیجه مورد نظر آیا این روش صحیح انجام این کار است؟ چرا Stata یک محدودیت را حذف می کند (و چه محدودیتی)؟ من به مقایسه‌هایی مانند 1.profile در مقابل 2.profile اهمیتی نمی‌دهم، فقط در میان ترکیب‌های خاصی از مشخصات، دارو و بیماری. پیشاپیش از هرگونه کمکی متشکرم
ANOVA سه طرفه با کنتراست در Stata
34890
من از یک مدل ترکیبی خطی تعمیم یافته برای تجزیه و تحلیل داده های پواسون و باینری استفاده می کنم. حیوانات در چند لحظه مشاهده شدند، بنابراین مدل من باید آن را توضیح دهد، به همین دلیل است که من از GLMM استفاده می کنم. من متقاعد شده‌ام که مدل مناسب است، با این حال، باید برای پراکندگی بیش از حد آن را اصلاح کنم. با این حال، من نمی توانم راهی برای انجام این کار در SPSS 20 پیدا کنم. من متخصص SPSS نیستم، بنابراین آن را پیدا نکرده ام. آیا کسی می تواند به من بگوید که آیا می توان به overdispersion در SPSS GLMM پرداخت؟ متشکرم
پراکندگی بیش از حد در GLMM در SPSS
18152
فرض کنید $X$ و $Y$ دو متغیر تصادفی مستقل با توزیع یکسان $U(0,1)$ با چگالی $f(x)=1$ باشند اگر $0≤x≤1$ (و $0$ در جای دیگر). اجازه دهید $Z$ یک متغیر تصادفی واقعی باشد که توسط: $Z=X-Y$ اگر $X>Y$ (و $0$ در جای دیگر) تعریف شده باشد. 1. توزیع $Z$ را استخراج کنید. 2. انتظار $E(Z)$ و واریانس $V(Z)$ را محاسبه کنید.
توزیع تفاوت دو متغیر یکنواخت مستقل، کوتاه شده در 0
5508
من از پروبیت چند جمله‌ای برای تخمین برخی پارامترها استفاده می‌کنم و مدام به این واقعیت اشاره می‌کنم که MNP تا ​​اوایل قرن بیست و یکم نسبت به پروبیت دوجمله‌ای از نظر محاسباتی غیرقابل تحمل در نظر گرفته می‌شد. سوال این است: چرا؟ دریافتم که افزودن متغیرها کارها را طولانی‌تر می‌کند (من پیشینه‌ای در CS دارم)، اما تا آخر عمر نمی‌توانم ببینم چرا تخمین باید بدتر از مثلاً $O(n^3)$ باشد. اسمی بودن مدل. یعنی وقتی انتخاب جدیدی اضافه می‌کنید، می‌توانید شبیه‌سازی‌های خود را بر اساس تبدیل‌های عبارات خطای مشترک به‌روزرسانی کنید، و از آنجا به‌عنوان پروبیت دوجمله‌ای با چند نشانگر پرتاب می‌شود. در نظر نگرفتن؟ خیلی ممنون، کایل
ملاحظات محاسباتی پروبیت چند جمله ای در مقابل پروبیت دو جمله ای
76182
من در یک کلاس بهینه سازی ثبت نام کرده ام که راه حل های SAS و Risk Solver (در اکسل) را آموزش می دهد. اینها متأسفانه رایگان نیستند و می ترسم با پیگیری برنامه به آنها دسترسی نداشته باشم. در اینجا، من یک مشکل تکلیف را ارائه می کنم که داشتیم (که راه حل آن را نیز در SAS قرار داده ام). چیزی که من می خواهم بدانم این است که از چه بسته هایی برای حل این نوع مشکلات در پایتون و R استفاده کنم و در صورت امکان کد نمونه در هر یک از آن زبان ها را بنویسم. این مشکل 3 قسمتی بود این فقط قسمت 1 است: * * * _یک شرکت نفتی سه برند روغن تولید می کند: Regular، Multigrade و Supreme. هر برند نفت از یک یا چند ذخایر از چهار انبار خام تشکیل شده است که هر کدام دارای شاخص ویسکوزیته متفاوتی هستند. داده‌های مربوط به ذخایر نفت خام عبارتند از:_ شاخص ویسکوزیته سهام خام هزینه ($/بشکه) عرضه در روز (بشکه) 1 20 7.10 1000 2 40 8.50 1100 3 30 7.70 1200 40 _E 551 حداقل نام تجاری. استاندارد برای شاخص ویسکوزیته، و بنابراین هر برند با قیمت متفاوتی به فروش می رسد. داده های مربوط به سه مارک روغن عبارتند از: _ حداقل نام تجاری. شاخص ویسکوزیته قیمت فروش (دلار/بشکه) تقاضای روزانه (بشکه) Regular 25 8.50 2000 Multigrade 35 9.00 1500 Supreme 50 10.00 750 _تعیین برنامه تولید بهینه برای یک روز، با این فرض که تمام نفتی که در این روز فروخته می شود یا می تواند ذخیره شود. با هزینه ناچیز فرض کنید که تقاضاهای روزانه نشان دهنده فروش بالقوه است. به عبارت دیگر، مدل باید حاوی سقف های تقاضا (محدودیت های بالایی) باشد. سود بهینه تحت این مفروضات چقدر است؟_ * * * در اینجا راه حل SAS برای این بخش از مشکل آمده است: PROC OPTMODEL. VAR s1 >=0، s2 >=0، s3 >=0، s4 >=0، m1 >=0، m2 >=0، m3 >=0، m4 >=0، r1 >=0، r2 >=0 , r3 >=0, r4 >=0; حداکثر سود=(10*(s1+s2+s3+s4)+9*(m1+m2+m3+m4)+8.5*(r1+r2+r3+r4)) -(7.1*(s1+m1+r1 )+8.5*(s2+m2+r2)+7.7*(s3+m3+r3)+9*(s4+m4+r4)); CON crude1supply: s1+m1+r1<=1000; CON crude2supply: s2+m2+r2<=1100; CON crude3supply: s3+m3+r3<=1200; CON crude4supply: s4+m4+r4<=1100; CON supremedand: s1+s2+s3+s4<=750; تقاضای چندگانه CON: m1+m2+m3+m4<=1500; تقاضای عادی CON: r1+r2+r3+r4<=2000; CON v_supreme: (1/(s1+s2+s3+s4))*(20*s1+40*s2+30*s3+55*s4)>=50; CON v_multgrad: (1/(m1+m2+m3+m4))*(20*m1+40*m2+30*m3+55*m4)>=35; CON v_regular: (1/(r1+r2+r3+r4))*(20*r1+40*r2+30*r3+55*r4)>=25; حل کردن؛ PRINT s1 s2 s3 s4 m1 m2 m3 m4 r1 r2 r3 r4 profit; ترک؛ برای اینکه دوباره سؤالاتم را بیان کنم: بهترین بسته‌ها برای حل این نوع مشکلات در پایتون و/یا R کدامند؟ آیا می توانید چند کد نمونه (یا منابع) برای نحوه حل این مشکل در پایتون و/یا R ارائه دهید؟ من تا کنون به scipy.optimize و Pyomo نگاه کرده‌ام، اما برای من مشخص نیست که آنها بهترین کتابخانه‌ها را برای استفاده نشان می‌دهند.
حل مسائل بهینه سازی در پایتون و/یا R
38784
> **تکراری احتمالی:** > احتمال توزیع نرمال مشکلاتی که به مشکل HW می رسد، اما من به دنبال پاسخ نیستم، فقط به دنبال راهنمایی هستم. x توزیع نرمال با میانگین مشخص شده = 15.9 و انحراف استاندارد = 3.6 دارد احتمال مشخص شده P (10 ≤ x ≤ 26) را پیدا کنید؟ فرض می کنم باید مقادیر 10 و 26 را بگیرم و Z-Scores را محاسبه کنم و سپس به جدول Z-Score رفته و تفاوت های P-Values ​​را در نظر بگیرم؟ آیا این رویکرد درستی است یا چیزی را از دست داده ام؟ من از آن استدلال پیروی کردم و پاسخ اشتباه بود - بنابراین یا اشتباه گردی کردم، یا راه اشتباهی را انتخاب کردم. پیشاپیش از راهنمایی شما متشکرم
با توجه به توزیع نرمال، میانگین و انحراف معیار احتمال اینکه یک متغیر در یک محدوده باشد چقدر است
89776
احتمالاً یک سؤال بسیار احمقانه است، اما من تاکنون هیچ راه حلی پیدا نکرده ام: می خواهم موارد زیر را آزمایش کنم: اگر عملکرد در t-1 بد بود ($per_{t-1}$)، پس مدیران ریسک را افزایش می دهند ($\Delta risk_t$) و این کار را با افزایش اهرم ($\Delta lev_t$) انجام می دهند. بنابراین به یک معنا می خواهم نشان دهم که A (عملکرد) باعث B (اهرم) می شود که باعث C (ریسک) می شود. تاکنون موارد زیر را (با کنترل‌های گزارش‌نشده) آزمایش کردم: (1) $\Delta risk_t = \beta_1 * per_{t-1} + u_t $ (2) $\Delta lev_t = \beta_2 * per_{t-1} + u_t $ هر دو نسخه بتا همانطور که پیش بینی شده است. اکنون من به دنبال نوعی رگرسیون IV هستم، اما برای متغیر وابسته (ریسک). چیزی مانند: اهرم منجر به افزایش ریسک به میزان x% پس از عملکرد بد می شود. امیدوارم قابل درک باشد. با تشکر از همه کمک، Laurenz
نحوه اجرای رگرسیون متغیر ابزاری برای متغیر وابسته