_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
93206
اگر دو پزشک هر کدام در 55 درصد موارد بیماری را به درستی تشخیص دهند و هر دو در مورد خاصی موافق باشند که بیماری وجود دارد، احتمال بیماری چقدر است؟ حتما بالای 55 درصده؟
احتمال طبقه بندی با توجه به دو مشاهدات
73727
آنتروپی توزیع معکوس-ویشارت چیست؟ من فقط به یک مرجع نیاز دارم، اما اشتقاق (به عنوان مثال استفاده از ویژگی معکوس) نیز جالب خواهد بود.
آنتروپی توزیع معکوس-ویشارت
70137
من می خواهم با استفاده از `arima(1 1 1)` پیش بینی کنم. من همه کارها را انجام داده ام اما وقتی از کد R استفاده کردم: modelforecast <- forecast(model,2) خروجی می گوید: خطا در .cbind.ts(list(e1, e2), c(deparse(substitute(e1))[1L ]، deparse(substitute(e2))[1L])، : همه سری ها فرکانس یکسانی ندارند آیا کسی می تواند به من کمک کند که چگونه این مشکل را برطرف کنم؟
پیش بینی با استفاده از arima(1 1 1)
55931
من دو متغیر عادی X و Y مشترکاً با میانگین هر دو صفر و واریانس $\sigma^2_{X}$ و $\sigma^2_{Y}$ به طور جداگانه دارم، کوواریانس $\sigma_{XY}$ است. اکنون می خواهم مقدار مورد انتظار $Z=X*Y^{2}$, $E(Z)$ را محاسبه کنم. هر ایده ای؟ با تشکر
مقادیر مورد انتظار (X*Y^2) زمانی که X و Y به RVهای توزیع شده عادی وابسته هستند
74714
من داشتم این مقاله مربوط به مدل های موضوعی مرتبط را می خواندم. با این حال، من این رقم همبستگی را درک نکردم. در شکل زیر، من در مورد منحنی های سطح نشان داده شده در سیمپلکس گیج شده ام. در حالت اول می گوید که کوواریانس قطری با میانگین غیر صفر وجود دارد. در مورد دوم می گوید بین مولفه های 1 و 2 همبستگی منفی وجود دارد. در مورد سوم می گوید بین 1 و 2 همبستگی مثبت وجود دارد. من نفهمیدم چطور اینطور تعبیر کردند![توضیح تصویر را وارد کنید. اینجا](http://i.stack.imgur.com/yrx7P.png) در شکل زیر، موضوعات همانطور که می‌گوید با هم مرتبط نیستند![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/lzVlr.png) اما من متوجه نشدم چرا اینطور است؟ آیا کسی می تواند به من اطلاعاتی بدهد؟
سردرگمی مربوط به همبستگی در مدل های موضوعی
73090
من به دنبال انجام یک آزمایش ناپارامتریک برای روند روی یک نتیجه پیوسته در سه گروه، ترجیحاً در پایتون هستم. به عنوان مثال قد (تظاهر به قد طبیعی نیست) در کلاس های چهارم، پنجم و ششم. من می خواهم چیزی شبیه به روش Cuzick پیاده سازی کنم. Scipy دارای مجموع رتبه Wilcoxon و سایر روش‌های ناپارامتریک است اما فقط برای دو گروه. به طور مشابه، Scipy یک روش Kruskal-Wallis برای سه گروه دارد اما جهت یا روند را نشان نمی دهد. آیا چیزی شبیه به این برای کاوش روند جهت دار در سه گروه وجود دارد؟ * * * برای روشن شدن، سعی می کنم تعیین کنم که آیا تغییر قابل توجهی در یک صفت پیوسته اندازه گیری شده در سه گروه وجود دارد یا خیر. اندازه گروه ها بسیار متفاوت خواهد بود: گروه 1 دارای 1000 نمونه است و احتمالاً به طور معمول توزیع می شوند، گروه 2 نمونه های سیستم عامل 100، گروه 3 تا 10 یا کمتر. گروه 1 به عنوان گروه کنترل عمل می کند، و فرضیه من این است که مقدار میانگین گروه 1 در هر جهت نسبت به گروه 0 جابجا می شود و گروه 2 بیشتر **در همان جهت گروه 1** جابه جا می شود. . از آنجا که گروه 3 همیشه در مقایسه با گروه دیگر بسیار کوچک خواهد بود، غریزه من استفاده از روش های ناپارامتریک بود، اما من برای پیشنهادات دیگر آماده هستم. آیا کسی می تواند روشی برای کشف این نوع روند جهت دار پیشنهاد کند؟ با تشکر
تست ناپارامتریک برای روند با استفاده از پایتون
52929
چه روشی به من اجازه می دهد تا مقادیر متغیر مستقل را در جایی که دو (یا چند) مدل رگرسیون خطی واگرا از نظر آماری متفاوت هستند شناسایی کنم؟ به عنوان مثال دو مدل رگرسیون خطی ساده را در نظر بگیرید که از برخی آزمون‌های آزمایشی مشتق شده‌اند: $y_1 = -1x+100$ و $y_2 = -0.5x+100$. اینها می توانند دو نقطه زمانی را در رابطه دوز در مقابل بقا، یا دو ماده مختلف در رابطه دما و قدرت را نشان دهند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/d5Z7Q.jpg) در $x = 0$، دو مدل همان $y$ را می دهند. همانطور که از $x = 0$ دور می شوید، مقادیر $y_1$ و $y_2$ از هم متمایز می شوند، اما برای مدتی فواصل اطمینان آنها با هم تداخل پیدا می کند که نشان می دهد $y_1$ از $y_2$ در این منطقه قابل تشخیص نیست. با در نظر گرفتن رابطه دما و قدرت به عنوان مثال، این نشان می دهد که هیچ تفاوتی در استحکام دو ماده در این محدوده دما وجود ندارد. بنابراین، من می‌خواهم بتوانم این محدوده را محاسبه کنم، یا برعکس، محدوده مقادیر $x$ را زمانی که $y_1$ از نظر آماری با $y_2$ متفاوت است، شناسایی کنم. درک من از گروه های پیش بینی عالی نیست، اما فکر نمی کنم این راه حل باشد. تنها راه حلی که می توانم پیدا کنم این است که y$ و CI را در مقادیر گسسته x$ محاسبه کنم و یک سری تست را اجرا کنم. من به دنبال چیز شیک تر هستم!
آزمایش برای نشان دادن اینکه چه زمانی مدل های رگرسیون خطی واگرا از نظر آماری متفاوت هستند
52928
سوالات آمار من مربوط به مناسب بودن استفاده از تحولات مختلف متغیر یکسان در تجزیه و تحلیل های مختلف (در همان مطالعه بزرگتر) است. تحقیق من شامل بیان عاطفی به عنوان یک متغیر وابسته است. من به دنبال 1) تفاوت های اولیه بین کنترل های سالم (HCS) و افراد مبتلا به بیماری و 2) اثرات درمانی در گروه بیماری هستم (گروه های درمانی: HC-No-تحت درمان ، بیماری بدون درمان ، درمان 1 ، بیماری-درمان 2). هر آزمودنی در ابتدا، پس از درمان و پیگیری مورد ارزیابی قرار گرفت. ** هدف تحقیق 1. تفاوت های پایه بین گروه های وضعیت سلامت (کنترل سالم و بیماری). ** هنگام نگاه به داده های بیان احساسات ، در ابتدا ، توسط گروه وضعیت سلامت (2: کنترل سالم و بیماری) ، داده های خام نیست به طور معمول توزیع شده است (بر اساس Shapiro-Wilk). از آنجایی که تبدیل ریشه مربع توزیع را عادی می کند، من قصد داشتم از آزمون t (برخلاف من ویتنی) برای ارزیابی تفاوت های پایه بین گروه کنترل سالم و بیماری استفاده کنم. **هدف تحقیق 2. اثرات درمان.** هنگام مشاهده داده های بیان احساسات، بر اساس گروه درمان (HC، بیماری-بدون درمان، بیماری-درمان1، بیماری-درمان2) در هر زمان (بنایه، پست، پیگیری ، خام به طور معمول توزیع نمی شود (بر اساس Shapiro-Wilk). برای این گروه بندی ها، تبدیل ریشه دوم توزیع را عادی نمی کند. با این حال، یک تبدیل log10 توزیع را عادی می کند. سوال اصلی: آیا می توانم از تبدیل ریشه مربع برای هدف 1 و تبدیل متفاوت برای هدف 2 استفاده کنم (به عنوان مثال، log10 در ANOVA مدل مختلط، یا اگر در نهایت از آمار ناپارامتریک برای هدف 2 استفاده کنم)؟
آیا می توان در تحلیل های مختلف، تبدیل های متفاوتی را برای یک متغیر مشابه اعمال کرد؟
32314
من یک مدل خطی تعمیم یافته با یک متغیر پاسخ واحد (پیوسته/عادی توزیع شده) و 4 متغیر توضیحی (3 تای آنها عامل و چهارمی یک عدد صحیح) ساخته ام. من از توزیع خطای گاوسی با تابع پیوند هویت استفاده کرده ام. آیا باید چند خطی بودن و تعامل بین متغیرهای توضیحی را بررسی کنم؟ اگر بله، چگونه می توانم این کار را با متغیرهای توضیحی طبقه بندی انجام دهم؟
چگونه می توان با چند خطی بودن و تعاملات بین IV ها در مدل های خطی تعمیم یافته کنار آمد؟
52927
فرض کنید جدولی مانند این داریم: \begin{array}{ |l | ج | r |} \hline & \mathrm{win} & \mathrm{lose} \\\ \hline \mathrm{male} & X_{11} & X_{12} \\\ \hline \mathrm{female} و X_{ 21} & X_{22} \\\ \hline \end{array} $%![توضیح تصویر را اینجا وارد کنید][1]$ و ما می‌خواهیم بدانیم که برد یا باخت بستگی دارد در مورد جنسیت (مرد یا زن) به غیر از آزمون کای دو برای استقلال، از کدام آزمون های ناپارامتریک می توانیم استفاده کنیم؟ با تشکر
آزمون ناپارامتریک جایگزین برای آزمون کای دو برای استقلال
78844
چه چیزی را به عنوان یک گالری جامع از تکنیک های ارائه داده پیشنهاد می کنید؟ منبعی که می تواند برای ارجاع به آن استفاده شود، در حالی که در فکر راه های بهتر ارائه داده های خود هستید؟ من موارد زیر را شناسایی کرده ام، اما خوشحال می شوم اگر بتوانید گالری های خود را اضافه کنید: گالری های آنلاین: * http://www.mathworks.com/discovery/gallery.html * http://www.idlcoyote.com/gallery/ * https://developers.google.com/chart/interactive/docs/gallery?csw=1 * http://www.walkingrandomly.com/?p=4788 * http://en.wikipedia.org/wiki/Category:Statistical_charts_and_diagrams (گالری گرافیکی یک صفحه ای ارائه نمی دهد) * http://docs.ggplot2.org /current/ * http://www.itl.nist.gov/div898/handbook/graphgal.htm * http://scikit-learn.org/stable/auto_examples/index.html کتاب ها (نقشه های پراکنده در صفحات): * Edward R. Tufte, _The Visual Display of Quantitative Information_ * Nathan Yau, _Data Points_
گالری از نمودارها، نمودارها و انواع نمودارها
52922
من می‌خواهم شبکه‌ها/گراف‌هایی را فیلتر کنم که فقط یک جامعه هستند و نه جوامع به هم پیوسته. هر جامعه می تواند یک نمودار تصادفی یا یک گراف ستاره ای باشد، اما ساختار جامعه نباید وجود داشته باشد. با توجه به اینکه این مجموعه داده‌ها می‌توانند دارای اجتماعات متعدد با تعداد متفاوتی از لبه‌ها باشند که آنها را به یکدیگر متصل می‌کنند یا گره‌هایی که به عنوان جزایر پل عمل می‌کنند، تعریف ضعیف است. (این شبکه ها متصل هستند) من به دنبال شبکه هایی بودم که میانگین طول مسیر برای حداقل 10% گره ها بیشتر از 2 باشد. من از MATLAB استفاده می کنم و هرگونه ارجاع به کتابخانه های مفید قابل قدردانی است.
ویژگی های آماری یک شبکه/گراف بدون ساختار جامعه چیست؟
104860
فرض کنید یک مجموعه آموزشی از نقاط دو بعدی به ما داده شده است که به صورت خطی غیرقابل تفکیک هستند. من یک SVM باینری را با یک هسته RBF آموزش می دهم تا آنها را طبقه بندی کنم. کاری که می خواهم انجام دهم ترسیم مرز تصمیم است. هسته SVM من به یک تابع تصمیم گیری منتهی می شود: $$ f(\mathbf{x})=\sum_{i=1}^{N_s}\alpha_i y_i k(\mathbf{x}, \mathbf{ x}_i)+b، $$ که در آن $N_s$ تعداد بردارهای پشتیبانی است، $\mathbf{x}_i$، $\alpha_i$ و $y_i$ به ترتیب بردار پشتیبان $i$-امین، ضریب لاگرانژی مثبت مربوطه و برچسب حقیقت مرتبط هستند. من از بسته LIBSVM برای آموزش SVM استفاده می کنم، بنابراین همه موارد فوق از فایل مدل ایجاد شده مشخص می شوند. اگر تابع تصمیم بالا را گسترش دهیم، می بینیم که این مجموع گاوسیان است که در بردارهای پشتیبانی متمرکز شده است، به عنوان مثال، $$ f(\mathbf{x})=\sum_{i=1}^{N_s}\alpha_i y_i \operatorname{exp}\left(-\gamma\lVert\mathbf{x}-\mathbf{x}_i\rVert^2\right)+b، $$ جایی که $\gamma=\frac{1}{2\ sigma^2}>0$ یک پارامتر تعریف شده توسط کاربر است. چگونه می توانم در همان فضای داده های ورودی خود (فضای دو بعدی اقلیدسی)، خطوط تابع تصمیم را رسم کنم؟ میشه لطفا چند معادله یا ایده بفرمایید؟ من بعضی چیزها را امتحان کردم، اما شانسی نداشتم! خیلی ممنون
ترسیم مرز تصمیم یک هسته SVM (RBF)
74711
فرض کنید من یک تابع تولید لحظه مشترک $M_{X,Y}(s,t)$ برای توزیع مشترک با CDF $F_{X,Y}(x,y)$ دارم. آیا $M_{X,Y}(s,t)=M_{X,Y}(s,0)⋅M_{X,Y}(0,t)$ هم شرط لازم _و هم کافی برای استقلال X$ است و $Y$؟ به نظر می‌رسد که یادم می‌آید که اینطور است، اما من چند کتاب درسی خود را بررسی کردم و آنها فقط به _ضرورت_ اشاره کردند: $$F_{X,Y}(x,y)=F_X(x)\cdot F_Y(y) \implies M_{ X,Y}(s,t)=M_X(s) \cdot M_Y(t)$$ این نتیجه همانطور که استقلال دلالت دارد واضح است $M_{X,Y}(s,t)=\mathbb{E}(e^{sX+tY})=\mathbb{E}(e^{sX}) \mathbb{E}(e^{tY })$. از آنجایی که MGFهای حاشیه ها توسط MGF مشترک تعیین می شوند، داریم: $$X,Y\text{مستقل} \implies M_{X,Y}(s,t)=M_{X,Y}(s,0) ⋅M_{X,Y}(0,t)$$ اما پیدا کردن مرجعی برای معکوس - یا مثال متقابل برایم سخت بود! کمی در گوگل یک صفحه قدیمی Tennessee Tech پیدا شد که بدون مدرک یا استناد می‌گوید «معلوم است که» این موضوع درست است، که چندان اطمینان‌بخش نبود! آیا طرح زیر قابل اجرا است؟ با توجه به یک MGF مشترک $M_{X,Y}(s,t)$، این به طور منحصر به فرد توزیع حاشیه ای $X$ و $Y$ و MGF های آنها، $M_X(s)=M_{X,Y}(s) را تعیین می کند. ,0)$ و $M_Y(t)=M_{X,Y}(0,t)$. حاشیه ها به تنهایی با بسیاری از توزیع های مشترک احتمالی دیگر سازگار هستند و به طور منحصر به فرد توزیع مشترکی را تعیین می کنند که در آن $X$ و $Y$ مستقل هستند، با CDF $F_{X,Y}^{\text{ind}}(x, y)=F_X(x) \cdot F_Y(y)$ و MGF: $$M_{X,Y}^{\text{ind}}(s,t) = M_X(s) \cdot M_Y(t) = M_{X,Y}(s,0)⋅M_{X,Y}(0,t)$$ بنابراین اگر به ما داده شود، برای MGF اصلی ما، آن $M_{X,Y }(s,t) = M_{X,Y}(s,0)⋅M_{X,Y}(0,t)$، برای نشان دادن $M_{X,Y}(s,t) = کافی است M_{X,Y}^{\text{ind}}(s,t)$. سپس با یکپارچگی MGFها، توزیع مشترک اصلی ما دارای $F_{X,Y}(x,y) = F_{X,Y}^{\text{ind}}(x,y) = F_X(x) \ cdot F_Y(y)$ و $X$ و $Y$ مستقل هستند.
شرط لازم و کافی در MGF مشترک برای استقلال
77234
من می خواهم اثرات تجمعی آلودگی هوا بر مرگ و میر را با استفاده از روش های GLM یا Gam تخمین بزنم. با کد R زیر توانستم اثر تجمعی PM10 بر مرگ و میر را تخمین بزنم که 0.001513801 برآورد می شود (1.51٪ افزایش در مرگ و میر برای افزایش 10 ug/m3 در PM10). سوال من این است که چگونه می توانم بسازم خطای استاندارد کل را برای تخمین ها از تاخیر 0 تا 4 دریافت کنم و فاصله اطمینان 95% را برای برآورد تجمعی ایجاد کنم؟ آیا جمع کردن خطاهای استاندارد درست مانند تخمین های بتا از خروجی از نظر آماری معتبر است؟ همچنین می‌خواهم بدانم آیا روش‌های جایگزینی برای به دست آوردن کل برآوردها با خطاهای استاندارد وجود دارد یا خیر. library(dlnm) library(quantmod) chic <- chicagoNMMAPS fit <- glm(death ~ Lag(pm10, 0:4) + temp, data = chic, family = poisson) summary <- summary(fit) Call: glm(formula = مرگ ~ تاخیر (pm10، 0:4) + دما، خانواده = سم، داده = شیک) Deviance Residuals: Min 1Q Median 3Q Max -4.0461 -0.8594 -0.0705 0.7390 22.4579 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 4.749e+00 4.414e-03 1075.916 < 2e-16 *** تاخیر(pm10, 0:4) Lag.0 8.395e-04 8.362e-05 10.04 < 2e-16 *** تاخیر (pm10, 0:4) Lag.1 4.980e-04 8.993e-05 5.537 3.07e-08 *** Lag(pm10, 0:4) Lag.2 -2.279e-05 9.007e-05 -0.253 0.8103 Lag 0:4) تاخیر.3 2.198e-04 8.953e-05 2.455 0.0141 * تاخیر(pm10, 0:4) Lag.4 -2.068e-05 8.312e-05 -0.249 0.8035 دما -5.608e-5.608e-201-03-03-1-5 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson برابر با 1 در نظر گرفته شده است) برای به دست آوردن اثرات کل (انباشته) برای تاخیرهای 0 تا 4) : ردیف <- rownames(summ$coefficients) tot <- grep(pm10، rown, ثابت = درست) ضرایب <- summ$coefficients[tot , Estimate] مجموع <- sum(coefs) total [1] 0.001513801 بنابراین به طور خلاصه چگونه می توانم کل خطاهای استاندارد را برای تاخیر 0:4 دریافت کنم؟
چگونه می توان خطاهای استانداردهای تجمعی را از چندین مورد محاسبه کرد؟
25619
در نمونه ای از 250 بیمار قلبی که سکته قلبی داشته اند و به تازگی بیمارستان را ترک کرده اند، از آنها پرسیدم که دانستن چندین موضوع برای آنها چقدر مهم است، مانند چقدر برای شما مهم است که بدانید چه زمانی به سر کار برگردید، یا. زمان مراجعه مجدد به بیمارستان و غیره. پاسخ‌هایی از «اصلا مهم نیست» تا «بسیار مهم» ارائه شد (مقیاس لیکرت با 5 پاسخ، با فرض اینکه همه پاسخ‌ها داشته باشند. فواصل برابر بین آنها). می‌خواهم بدانم: 1. چگونه می‌توان با پاسخ‌های سؤالات بالا (به عنوان دسته‌بندی؟) رفتار کرد. 2. چگونه می توان به این موضوع نگاه کرد که آیا بین نوع سؤالات فوق و سؤالات دیگر طبقه بندی شده است یا خیر (مثلاً: چه کسی ترجیح می دهید به شما اطلاعات بدهد: الف-پزشک، ب-پرستار، ج-دیگر. یا سطح تحصیلات: a-سطح ابتدایی، ب-سطح متوسطه، c-لیسانس یا معادل d-مدرک فوق دیپلم). این پرسشنامه دارای هیچ نمره تجمعی یا نمره خرده مقیاسی نیست که بتوان از آن برای آزمون انجمن ها استفاده کرد.
ارتباط بین 2 داده طبقه بندی شده (با استفاده از SPSS)
108738
من نمی‌دانم چه رویکردهایی معمولاً برای اعتبارسنجی مدل‌های یادگیری ماشین طراحی‌شده برای کارهای طبقه‌بندی یا پیش‌بینی استفاده می‌شوند: رویکردهایی که در حال حاضر استفاده می‌شوند: **استفاده از مجموعه‌های حقیقت:** \- ROCs، Bootstrapping، دقت، حساسیت، ویژگی، متقاطع - اعتبارسنجی ** اعتبار سنجی متعامد:** \- از کلاس متفاوتی از الگوریتم استفاده کنید که می تواند کار پیش بینی یا طبقه بندی را انجام دهد و نتایج را با هم مقایسه کند. پیشنهاد دیگری دارید؟
چگونه مدل های یادگیری ماشین خود را تأیید می کنید؟
60839
برای دو طبقه‌بندی‌کننده **h1** و **h2**، من دقت، فراخوانی و امتیاز F1 را به عنوان درصد (همراه با مجموعه داده‌های برچسب‌دار اصلی که روی آنها آزمایش شده‌اند) دارم. اگر من به نمونه‌هایی که هر طبقه‌بندی کننده درست/غلط طبقه‌بندی می‌کند دسترسی داشتم، می‌توانستم، برای مثال، آزمون مک‌نمار را برای ارزیابی اهمیت انجام دهم، اما متأسفانه این کار را نمی‌کنم. من در حالت ایده آل دوست دارم بتوانم در مورد اهمیت نتایج بدست آمده توسط **h2** صحبت کنم، یعنی اینکه **h2** نسبت به **h1** پیشرفت قابل توجهی دارد یا خیر. آیا من نمی توانم این کار را انجام دهم، یا چیزی وجود دارد که بتوانم فقط با استفاده از Precision/Recal/F1 و مجموعه داده های برچسب زده شده بگویم؟
مقایسه دو طبقه بندی کننده فقط بر اساس دقت / فراخوان / F1؟
32313
من یک مدل رگرسیون خطی دارم که برای پیش‌بینی انرژی طبیعی (ANE) برخی از مناطق استفاده می‌شود. پیش بینی کننده های این مدل عبارتند از: * ماه قبل ANE (`ANE0`) * حجم باران ماه قبل (`PREC0`) * پیش بینی ماه جاری برای حجم باران (`PREC1`) ما 7 سال داده تاریخی برای همه داریم از این متغیرها برای هر ماه. مدل فعلی فقط یک رگرسیون خطی OLS را اجرا می کند. من احساس می‌کنم که پیشرفت‌های زیادی باید انجام شود، اما من متخصص سری زمانی نیستم. اولین چیزی که متوجه می شوم این است که پیش بینی کننده ها بسیار همبسته هستند (چند همخطی). من از تأثیرات چند خطی بر اطمینان پیش بینی مطمئن نیستم. من تصمیم گرفتم یک رویکرد سری زمانی را امتحان کنم، بنابراین یک ACF و PACF را روی داده های تاریخی اجرا کردم: ACF یک الگوی موج سینوسی را نشان می دهد، و PACF یک سنبله در 1 و 2 دارد. بنابراین من هر دو ARIMA را امتحان کردم (2، 0) ، 0) و ARIMA(2،0،1) برای پیش بینی 20 دوره آینده. ARIMA (2،0،1) نتایج خوبی را نشان می دهد، اما من مطمئن نیستم که چگونه آن را با مدل رگرسیون خطی مقایسه کنم. بهترین راه برای تست عملکرد این مدل ها چیست؟ من از R به عنوان ابزار تجزیه و تحلیل (همراه با بسته پیش بینی) استفاده می کنم.
ARIMA و رگرسیون خطی
77231
از دستگاه عمق سنج مداد برای تکه های مختلف کاغذ استفاده می شود. از دو مداد مختلف استفاده شده است. کلاس اندازه گیری عمق مدادها در تکه های مختلف کاغذ را می سنجد. عمق مداد کاغذی 1 2 5 2 1 3 3 1 2 4 2 6 5 2 7 6 1 8 7 2 2 8 1 9 چه نوع طرح آزمایشی استفاده می شود؟
نوع طراحی آزمایشی؟
73729
در داده های من حدود 1000 نفر احتمال 100 رویداد منحصر به فرد را تخمین زده اند. افراد به طور متوسط ​​حدود 50 رویداد را پیش بینی می کنند، اما برخی در مورد همه رویدادها و برخی فقط در مورد چند رویداد پیش بینی می کنند. حدود 500 نفر از این افراد در تیم های 15 نفره کار می کنند. آنها پیش بینی های یکدیگر را می بینند و با یکدیگر ارتباط برقرار می کنند، اما هر فردی هنوز تخمین های خود را ارائه می دهد). یک سوالی که می‌خواهم به آن پاسخ دهم این است که چقدر از واریانس این پیش‌بینی‌ها توسط افراد تیمی (به طور تصادفی) توضیح داده می‌شود. اما من همچنین گمان می کنم که سهم واریانس توضیح داده شده توسط تیم بسته به رویداد متفاوت باشد. بنابراین من می خواهم آن تنوع را نیز بررسی کنم. من تجربه کمی با مدل های ترکیبی با lmer دارم، اما برای من مشخص نیست که چگونه به این موضوع نزدیک شوم.
چگونه باید به مدل سازی این تخمین های احتمال ذهنی نزدیک شوم؟
108737
من سعی می کنم طبقه بندی باینری را انجام دهم که در آن ویژگی های خام من مجموعه ای از هیستوگرام ها هستند که در یک سری زمانی ثبت شده اند. این هیستوگرام ها برای مجموع 1 مقیاس بندی شده اند. برای دقیق تر شدن و تعریف نمادها، اجازه دهید $H_{t}$ یک هیستوگرام در یک زمان $t$ و $H_{t}(i)$ مقدار آن در $i باشد. سطل $th (در اینجا سطل $i$th با ترکیب مقادیر صحیح غیر منفی تولید می شود). من چنین $H_{t}$ برای هر یک از نقاط داده خود دارم (بنابراین می توانم $H^k_t$ را بنویسم تا هیستوگرام مرتبط با نقطه داده $k$ را در زمان $t$ نشان دهم). استفاده از هیستوگرام ها به عنوان ویژگی تا حدی ناامیدکننده است، زیرا آنچه که به نظر می رسد بیشترین ارتباط را با طبقه بندی من دارد، تغییری است که با تغییر زمان در هیستوگرام ها رخ می دهد. استراتژی فعلی من برای تعیین کمیت این تغییر این است که برای هر $i$، سطل $i$ را اصلاح کنم و سپس با استفاده از موجک haar، یک تبدیل موجک گسسته را در امتداد $t$ ایجاد کنم ($t$ قدرتی معادل 2 مقدار زیادی می گیرد، بنابراین DWT به راحتی قابل اعمال است). در حالی که این رویکرد تا حدودی به خوبی کار می کند، به دلیل ناتوانی آن در تشخیص تغییرات همزمان و کلی در هیستوگرام محدود شده است. به عنوان مثال، از نظر اکتشافی در مجموعه داده من این احتمال وجود دارد که کاهش در مقدار سطل $i=2,3$ بد باشد، مگر اینکه با افزایش مقادیر برخی از سطل های بزرگتر همراه باشد، یعنی هیستوگرام به شدت به سمت راست تغییر می کند. سوال من این است: آیا تکنیک ها/استراتژی های کلی وجود دارد که تغییرات هیستوگرام ها را در طول زمان توصیف کند که این تغییرات کلی تر را نشان دهد؟ باید توجه داشته باشم که محدوده $i$ و $t$ نسبتا کوچک است، هر کدام کمتر از 10.
تعیین کمیت تغییر در یک سری زمانی با ارزش هیستوگرام
51293
در یک کلاس ژنتیک ذکر شد که در تجزیه و تحلیل ارتباط ژنتیکی یک صفت با همه SNP ها، می توان اثر مورد انتظار هر SNP را با این صفت با استفاده از ساختار همبستگی بین SNPs و اندازه اثر در مقدار واقعی محاسبه کرد. نوع علی می توانید توضیح دهید که چرا اینطور است؟
اثر مورد انتظار هر پلی مورفیسم تک نوکلئوتیدی (SNP) در یک مطالعه ارتباط ژنومی (GWAS)
105381
اگر من در حال انجام یک مطالعه اکتشافی هستم و برخی از عواملی که به دست می‌آیند تا حدودی با آنچه در ادبیات یافته‌ام متفاوت است، محاسبه مقیاس‌های جمع‌بندی شده اشکالی ندارد؟ (من خوانده ام که اگر راه حل به دست آمده از تجزیه و تحلیل PCA/عاملی توسط ادبیات پشتیبانی نشود، مقیاس های جمع شده چندان کاربرد ندارند، برای مثال اگر من یک یا دو عامل داشته باشم که برخی از متغیرها را به شکلی متفاوت از آنچه من دارم ترکیب می کند. در ادبیات یافت می شود، بنابراین من آنها را نیز متفاوت نام می برم)
مقیاس های جمع شده (پس از تحلیل عاملی)
26497
SMV را با هسته چند جمله ای $k(x_1,x_2)=(\langle x_1, x_2\rangle + 1)^d,$ در نظر بگیرید که $d > 1.$ آیا این درست است که اگر مجموعه داده با یک ابر صفحه جدا شود، SVM (با هسته $k$) همیشه مجموعه داده را با یک ابر صفحه (بدون هیچ خطایی در مجموعه داده) جدا می کند؟
تابع هسته چند جمله ای
26141
من روی 20 شرکت‌کننده تحقیق می‌کنم که 10 نفر از پیش‌زمینه کامپیوتر و بقیه از پیش‌زمینه غیر محاسباتی خواهند بود. هر شرکت کننده در یک جلسه آزمایشگاهی شرکت خواهد کرد و عملکرد شرکت کنندگان بر اساس یک روبریک ارزیابی می شود. هر ردیف از روبریک در مقیاس 1 تا 4 ارزیابی می شود. سؤال تحقیق این است: آیا پیشینه مشارکت کننده در یادگیری در مورد xxxx تأثیر دارد؟ از کدام روش آماری برای تجزیه و تحلیل داده ها استفاده کنم؟
از کدام تحلیل آماری برای مطالعه استفاده کنم
26144
در بیشتر نمونه هایی که تاکنون از شبکه های عصبی دیده ام، از شبکه برای طبقه بندی استفاده می شود و گره ها با یک تابع سیگموئید تبدیل می شوند. با این حال، من می خواهم از یک شبکه عصبی برای خروجی یک مقدار واقعی پیوسته استفاده کنم (در واقع خروجی معمولاً در محدوده 5- تا 5+ خواهد بود). سؤالات من عبارتند از: 1. آیا هنوز باید ویژگی های ورودی را با استفاده از مقیاس بندی ویژگی ها مقیاس کنم؟ چه محدوده ای؟ 2. از چه تابع تبدیلی به جای سیگموئید استفاده کنم؟ من در ابتدا به دنبال پیاده سازی PyBrain هستم که این نوع لایه ها را توصیف می کند. بنابراین من فکر می کنم که باید 3 لایه برای شروع (یک لایه ورودی، پنهان و خروجی) داشته باشم که همه لایه های خطی هستند؟ آیا این یک راه معقول است؟ یا می توانم تابع سیگموئید را در محدوده 5- تا 5 کشش کنم؟
چگونه می توان خروجی پیوسته با ارزش واقعی را از شبکه عصبی دریافت کرد؟
26493
من باید یک ارزیابی انتقادی از مقاله بقای سرطان داشته باشم. امیدوارم کسی اینجا بتواند نکاتی را ارائه دهد. این مقاله نشانگرهای سطح فردی وضعیت اجتماعی-اقتصادی را به عنوان قرار گرفتن در معرض بررسی می‌کند و به دنبال ارتباط آنها با بقا و همچنین بیماری‌های همراه، عوامل بیماری/پیش‌آگهی و درمان با استفاده از خطرات متناسب کاکس برای بقا و رگرسیون لجستیک برای مرگ و میر است. فکر می کنم مقاله خوبی است و نمی توانم انتقادات را پیدا کنم. من مطمئن نیستم که آیا خطرات متناسب کاکس بهترین مدل برای استفاده است یا خیر. شاید یک مدل پارامتریک کامل بقای نسبی بهتر باشد، اما من نمی دانم. ممنون میشم اگه ممکنه راهنمایی کنید http://www.ncbi.nlm.nih.gov/pubmed/22315055
ارزیابی انتقادی مقاله بقا
108730
من دارم R.M.S را محاسبه می کنم. یک سیگنال تناوبی که دارای یک جزء تصادفی است. برای هر دوره می توانم مقداری برای R.M.S محاسبه کنم. با استفاده از تابع زیر: $R.M.S. = \sqrt{\frac{1}{N} \sum_{i=1}^N x_i^2 }$، که می‌دانم فقط در صورتی می‌توانم از آن استفاده کنم که سری زمانی میانگین صفر داشته باشد، در این صورت موارد بالا معادل انحراف معیار آن سری زمانی است. با این حال، من چندین دوره دارم که هر کدام یک مقدار برای R.M.S دارند. احتمالاً من می توانم میانگین و انحراف معیار را در دوره های مختلف محاسبه کنم. از نظر ریاضی، روش صحیح بیان این موضوع چیست؟
انحراف استاندارد از چند ریشه مقادیر میانگین مربع
25615
من با همگنی شیب های رگرسیون در ANCOVA مشکل دارم. من دو گونه مار دارم و می‌خواهم طول دم آنها را (متغیر وابسته) که به طول بدن بستگی دارد (در ANCOVA به عنوان متغیر کمکی استفاده می‌شود) مقایسه کنم. سایر فرضیات ANCOVA برآورده می شوند، اما تعامل قابل توجهی بین گونه ها * طول بدن وجود دارد (قطعات قابل مقایسه هستند، شیب ها متفاوت هستند). راهنمای SPSS اندی فیلد می گوید که فرض شکسته همگنی شیب های رگرسیون را می توان با استفاده از مدل آماری چندسطحی کنار گذاشت. من سعی می کنم تمام روز این تحلیل را به درستی اجرا کنم، اما نمی توانم آن را انجام دهم. مشکل این است که من می‌خواهم طول دم را بین گونه‌ها مقایسه کنم که بالای سلسله مراتب من است (در پایین نمونه‌های منفرد هستند). آیا باید گونه های متغیر را به عنوان موضوع (با فرض برخی سلسله مراتب) تنظیم کنم؟ بدون شک باید طول بدن را به عنوان متغیر کمکی و طول دم را به عنوان متغیر وابسته تنظیم کنم. چگونه می توانم گروه ها (گونه ها) خود را مستقل از شیب ها (شیب ها تصادفی هستند) مقایسه کنم؟ چه عواملی باید به عنوان فاکتورهای ثابت و چه عوامل تصادفی در SPSS تنظیم شوند؟ راهنمای فیلد همچنین می گوید که برای تجزیه و تحلیل مدل مختلط، اشکال (نسخه 17.0) مربوط به کادر محاوره ای عوامل وجود دارد، به طوری که متغیرهای طبقه بندی شده (در این مورد متغیر گونه من) باید در کادر متغیرهای کمکی قرار گیرند (حداقل اگر دو متغیره باشد). آیا او درست است؟ من می دانم چه کاری می خواهم انجام دهم اما نمی دانم چگونه آن را انجام دهم.
چگونه با استفاده از مدل سازی چند سطحی از ناهمگونی شیب های رگرسیون خلاص شویم؟
105383
به من این داده شده است: یک نورون ضربان ساز 10 اسپیک در ثانیه به شیوه ای نسبتاً منظم، با فواصل بین اسپایک (ISI) که بر اساس $\mathcal N(100, 5)$ توزیع می شود، شلیک می کند. از من خواسته می شود که هیستوگرام بازه زمانی (TIH) را رسم کنم، فاکتور فانو (FF) را تخمین بزنم و سپس ضریب تغییرات (CoV) را محاسبه کنم. **سوالات من:** 1. TIH، این فقط شبیه یک منحنی زنگی معمولی است که در مرکز ISI میانگین، 100، با $SD = \sqrt{5}$ است، درست است؟ 2. برای FF، که فکر می‌کنم در مورد تعداد سنبله است (یعنی تعداد سنبله‌ها؟)، میانگین 10 است، اما چگونه می‌توانم واریانس را تخمین بزنم؟ چگونه می توانم از واریانس ISI به واریانس در spike/s برسم؟ 3. به نظر من می‌توان CoV را محاسبه کرد زیرا به من واریانس و میانگین ISI داده شده است (یعنی ${\rm CoV}= SD/{\rm mean} = \sqrt{5}/100$) .
هیستوگرام فاصله زمانی (tih)، عامل فانو، ضریب واریانس
105380
آیا می توان یک دنباله سوبول برای مجموعه ای از اعداد ایجاد کرد؟ من 5 متغیر گسسته x1، x2، x3، x4 و x5 دارم و می‌گویم برای مثال x1 = {1,2,3,4,5}, x2 = {10,30,40,50,60}, x3 = {1 ,3,5,7,9}, x4 = {30,45,60,90}, x5 = {2,4,6,8}. اگر امکان ایجاد یک دنباله سوبول وجود داشته باشد، روتین VBA چگونه خواهد بود؟ من سعی کردم با استفاده از تابع Rnd در اکسل نمونه برداری کنم و خوب کار می کند.
دنباله سوبول برای مجموعه ای از اعداد گسسته
106211
من ایده فراگیران گروه، به خصوص بگینگ را دوست دارم، اما همیشه به این فکر می کردم که چرا آنها قوی ترین یادگیرندگان نیستند زیرا انگیزه پاکی دارند. من پاسخی برای این سوال ندارم اما ایده دیگری داشتم. به طور معمول در بگینگ افراد از طبقه بندی کننده مشابهی برای یادگیری استفاده می کنند. بنابراین آنها مجموعه داده را به برش ها تقسیم می کنند و برای هر برش طبقه بندی کننده ای از همان نوع (به عنوان مثال رگرسیون لجستیک) را آموزش می دهند و سپس از رای گیری استفاده می کنند. اما سوال من این است که چرا از آنسامبل ها استفاده نکنیم؟ چرا یک طبقه‌بندی‌کننده بسته‌بندی رگرسیون لجستیک، یک طبقه‌بندی کننده بسته‌بندی از SVM، یک طبقه‌بندی کننده بسته‌بندی از ANN، یک طبقه‌بندی کننده بسته‌بندی از جنگل تصادفی ایجاد نمی‌کنیم و سپس از رأی‌گیری استفاده نمی‌کنیم. بنابراین هر طبقه بندی کننده یک مجموعه است و سپس همه گروه ها به یک مجموعه تبدیل می شوند. سپس دوباره از رای گیری استفاده کنید. کسی قبلا اینو امتحان کرده؟ کاغذها؟ ... و غیره؟ باید وجود داشته باشد!
گروه های آنسامبل؟
26145
من روی 20 شرکت کننده تحقیق می کنم و شرکت کنندگان روی یک ماژول آزمایشگاهی کار خواهند کرد. یک پیش آزمون قبل از ماژول آزمایشگاهی و پس آزمون بعد از ماژول آزمایشگاهی در مورد مفاهیم مربوط به فلوچارت، شبه کد و غیره وجود خواهد داشت، نتایج احتمالی برای سؤال بله / خیر است. **از کدام روش آماری برای تجزیه و تحلیل داده های پیش آزمون بله/خیر استفاده کنم؟**
چگونه می توان داده های قبل و بعد از آزمون را تجزیه و تحلیل کرد زمانی که معیار نتیجه داده های بله / خیر است؟
5545
من باید همبستگی های مکرر را اجرا کنم. اگر یکی از آنها به مقدار قابل توجهی برسد (همانطور که در جدول پیرسون آورده شده است)، چگونه می توانم مطمئن شوم که در واقع مثبت کاذب نیست؟ من در تجزیه و تحلیل آماری کاملاً جدید هستم، بنابراین اگر سؤالم ساده به نظر می رسد عذرخواهی می کنم. با تشکر برای هر پاسخ.
چگونه از یافته های مثبت کاذب با همبستگی های مکرر جلوگیری کنیم؟
104365
من برخی از مدل‌های پواسون (یا Neg.Binomial بسته به پراکندگی بیش از حد) را اجرا می‌کنم و می‌خواهم به دلیل ماهیت داده‌ها (موارد ماهانه) همبستگی خودکار باقیمانده را بررسی کنم. من از R استفاده می کنم و با استفاده از دستور acf همبستگی تولید می کنم، جایی که می توانم بررسی کنم که آیا همبستگی خودکار برای تاخیرهای مختلف خارج از فواصل اطمینان تولید شده است یا خیر. از سوی دیگر، بر اساس مقالات منتشر شده که مطالعات مشابهی با من انجام داده اند، می بینم که آنها از آزمون دوربین-واتسون برای بررسی وجود خودهمبستگی مرتبه اول یا دوم که در اینجا مورد توجه است، استفاده کرده اند. در R من دو دستور برای این تست پیدا کردم: dwtest در بسته lmtest (بر اساس آنچه که الگوریتم پان نامیده می شود) و durbinWatsonTest در بسته ماشین که از بوت استرپ استفاده می کند. در هر دو این تست، مستندات نشان می‌دهد که از آنها برای اشیاء lm استفاده می‌شود که برای مدل‌های من (و نه نمونه‌های منتشر شده) صدق نمی‌کند. سوال من این است: آیا آزمون D-W برای استفاده برای خودهمبستگی باقیمانده در مدل های پواسون (Neg.Bin) معتبر است؟ آیا تست دیگری برای این مدل ها وجود دارد؟ اگر نتایج بین acf و دو تست D-W مطابقت داشت، احساس راحتی بیشتری می‌کردم، اما اینطور نیست و به درک من acf قابل اعتمادتر است.
خود همبستگی باقیمانده در مدل های پواسون (Neg.Bin) - آزمون دوربین واتسون
26140
من از بسته strucchange برای تشخیص تغییرات ساختاری در داده های خود استفاده می کنم. نمودار Fstats من چندین قله را نشان می دهد، اما اگر از «نقاط شکست» استفاده کنم، یک نقطه شکست اضافی پیدا می شود. آمار F من در آن نقطه پیشنهاد شده توسط «نقاط شکست» حتی زیر آستانه است. چرا بیشتر پیدا می کند؟
نقاط شکست تابع R شکست های بیشتری نسبت به Fstats پیدا می کند
105385
من می‌خواهم یک تابع همبستگی خودکار رسم کنم، آن را AC(tau) بنامم که در آن tau افست در خودهمبستگی است. بردار من به AC تغذیه می کنم قطار سنبله یک نورون است که پتانسیل عمل آن به شیوه ای پواسونی، یعنی مستقل از یکدیگر و احتمالاً به همان اندازه در هر مرحله زمانی شلیک می شود. من تصور می کنم که در تاو (تاخیر زمانی) = 0، AC = 1، و AC از این پس به جز قله های کوچکتر و کوچکتر در مضرب 1/لامبا (میانگین فاصله بین ورود) فرو می ریزد. درست است؟ حال، اگر این یک فرآیند سمی غیر همگن باشد، چه؟ سپس AC چگونه خواهد بود؟ آیا امکان تعمیم وجود دارد؟
تابع خود همبستگی پواسون
106217
من از بسته randomSurvivalForest برای R، نسخه 3.6.4 استفاده می کنم. من مدتی است که از آن برای یک پروژه استفاده می کنم، بدون مشکل. با این حال، اکنون من برخی از پیش‌بینی‌کننده‌های اضافی را به مجموعه داده‌ام اضافه کرده‌ام، و متوجه شدم که اکنون برخی از آنها نمره‌گذاری نمی‌شوند (اهمیت). به نظر می رسد 100 عدد جادویی است. قبل از اینکه من 95 داشتم و همه آنها گل می زدند. اکنون من 110 دارم و خروجی مقادیر اهمیت را برای 100 گزارش می دهد. پیش بینی های مختلف حذف می شوند، اما همیشه 10 مورد از آنها وجود دارد. آیا چیزی واضح را گم کرده ام؟ یا شاید خیلی واضح نیست؟ هیچ اخطار یا نشانه دیگری مبنی بر اینکه rsf() کاری با پیش بینی کننده های من انجام داده است وجود ندارد، و زمانی که rsf() تمام شد، آنها همچنان در dataframe هستند. با تشکر برای هر ایده.
randomSurvivalForest در R
91633
$$\frac{1}{C_t}=E_t\left[\beta \frac{1}{C_{t+1}} \right]R_{t+1}$$ چگونه تابع را خطی کنیم؟ $C_{t+1}$ عبارت تصادفی است. $\beta$ شناخته شده است.
عملگر انتظار و تابع لگاریتمی
106210
فرض کنید من یک متغیر تصادفی $X$ دارم که می‌دانم با پشتیبانی $[0,\theta]$ دارای مرز دوگانه است، اما من $\theta$ را نمی‌دانم (ما چیزی در مورد توزیع $X$ نمی‌دانیم، اما فرض کنید احمقانه نیست، بنابراین شرایط عادی زمانی که شما به آنها نیاز دارید اعمال می شود). $Y:=X+Z$ را در نظر بگیرید، جایی که $Z$ معمولی استاندارد است ($X$ و $Z$ مستقل هستند). و فرض کنید $Y_1,Y_2,...$ را ترسیم کنم که i.i.d هستند. قرائت $Y$. با استفاده از پاسخ ارسال شده (در واقع ضمیمه آن پاسخ) برای این (نظریه ارزش فوق العاده: نرمال را به گامبل نشان دهید)، و با فرض اینکه محاسباتم را درست انجام دادم، نشان دادم که $Y_{(n)}$ زمانی که به طور مناسب با $ نرمال شود. (a_n,b_n)$ داده شده در **ضمیمه** راه حل، به Gumbel نیز همگرا می شود. سوال من این است: آیا راهی برای استفاده از این فرآیند برای ارائه برخی برآوردها در $\theta$ وجود دارد؟ من احساس می‌کنم قبل از عادی‌سازی $Y_{(n)}$، این امکان وجود دارد که ما یک نسخه تغییر یافته و مقیاس‌پذیر از Gumbel داشته باشیم که تغییر آن مقدار $\theta$ را به نحوی منعکس می‌کند (به طور مستقیم، با بزرگ‌تر شدن $n$، مقدار ایندکس $j$ که برای آن $Y_j = Y_{(n)}$ بیشتر و بیشتر احتمال دارد به گونه ای باشد که $X_j = X_{(n)}$ که نزدیک تر می شود و به $\theta$ نزدیکتر است، بنابراین برای $n$ غول پیکر، شاید $Y_{(n)}$ تا حدودی شبیه $Z_{(n)} + \theta$ باشد؟) به نظر نمی رسد که از نظر ریاضی این را توجیه کنم یا پیدا کنم روشی برای استخراج برخی تخمین های $\theta$. پیشنهادی دارید؟
استفاده از نظریه ارزش افراطی برای تخمین کرانه ها
26499
من ورودی‌های آموزشی شبکه عصبی و اهداف آموزشی خود را عادی می‌کنم (یا استانداردسازی یا مقیاس‌بندی ویژگی‌ها). من فقط مقیاس‌بندی خطی را انجام می‌دهم و فرمولی که استفاده می‌کنم این است: «I = Imin + (Imax-Imin)*(D-Dmin)/(Dmax-Dmin)» که در آن «I» مقدار ورودی مقیاس‌شده، «Imin» است. و Imax محدوده حداقل و حداکثر مورد نظر مقادیر مقیاس شده، D مقدار داده اصلی، و Dmin و Dmax محدوده حداقل و حداکثر هستند. مقادیر داده های اصلی در مورد من، Imax را روی 1 و Imin را روی -1 تنظیم می کنم. من سعی می کنم یک خروجی با ارزش واقعی مداوم را پیش بینی کنم. چگونه می توانم خروجی شبکه خود را به محدوده مقیاس نشده برگردانم؟
چگونه مقیاس/نرمال‌سازی ویژگی را برای خروجی «لغو» کنیم؟
25611
من یک مجموعه داده با 9 متغیر مستقل پیوسته دارم. من سعی می‌کنم از بین این متغیرها، مدلی را با یک متغیر درصدی (وابسته) یعنی «امتیاز» منطبق کنم. متأسفانه، من می‌دانم که یک خط خطی جدی بین چندین متغیر وجود خواهد داشت. من سعی کرده‌ام از تابع «stepAIC()» در R برای انتخاب متغیر استفاده کنم، اما این روش، به‌طور عجیبی، به ترتیبی که متغیرها در معادله فهرست می‌شوند حساس به نظر می‌رسد... این کد R من است (چون درصد داده است. ، من از تبدیل لاجیت برای امتیاز استفاده می کنم: library(MASS) library(car) data.tst = read.table(data.txt,header=T) خلاصه data.lm = lm(logit(امتیاز) ~ Var1 + Var2 + Var3 + Var4 + Var5 + Var6 + Var7 + Var8 + Var9، data = data.tst) step = stepAIC(data.lm، جهت = هم) (مرحله) بنا به دلایلی، متوجه شدم که متغیرهای فهرست شده در ابتدای معادله در نهایت توسط تابع «stepAIC()» انتخاب می شوند و نتیجه می تواند با فهرست کردن، به عنوان مثال، «Var9» ابتدا (به دنبال تایلد) دستکاری شود. روش مؤثرتر (و کمتر بحث برانگیز) برای تطبیق یک مدل در اینجا چیست؟ من در واقع در مورد استفاده از رگرسیون خطی مرده نیستم: تنها چیزی که می‌خواهم این است که بتوانم بفهمم کدام یک از 9 متغیر واقعاً باعث ایجاد تغییر در متغیر «امتیاز» می‌شود. ترجیحاً، این روشی باشد که پتانسیل قوی برای همخطی بودن در این 9 متغیر را در نظر می گیرد.
هنگام انجام انتخاب متغیر چگونه با چند خطی بودن برخورد کنیم؟
105389
آیا می توانم یک متغیر پنهان (ساختار) را پس از فرمول محاسبه کنم: مجموع (مقیاس مجموع برای عامل i * واریانس توضیح داده شده با عامل i)، i مقادیر را از 1 تا n می گیرد (n تعداد عوامل است)؟ یا چه فرمولی را می توانید برای بدست آوردن یک متغیر پنهان با در نظر گرفتن همه عوامل بدست آمده از تحلیل عاملی به من توصیه کنید؟
نحوه محاسبه یک متغیر پنهان (به عنوان یک شاخص ترکیبی)
105387
برای مقیاس‌های جمع‌بندی شده: آیا می‌توانم از همه متغیرهایی که روی یک عامل بارگذاری می‌شوند استفاده کنم یا فقط باید از متغیرهایی با بارگذاری بالا (مثلاً بیش از 70/0) استفاده کرد؟
مقیاس های مجموع برای عوامل (متغیرهای پنهان)
105090
هنگام محاسبه ضریب تعیین برای یک مربع، چرا اگر از مجموعه داده ها برای طول ضلع X= (1،2،3،4) و محیط به عنوان Y=(4،8،12) استفاده می کنید، 16) ضریب تعیین برابر 100٪ است. اما هنگام انجام همین محاسبه برای استفاده از مساحت مربع با نقاط X (1،2،3،4) و نقطه داده Y (1،4،9،16) Coeff of Determ به 96% کاهش می یابد؟ هر بینشی عالی خواهد بود. هر چه زبان ساده تر باشد بهتر است. ممنون!!
ضریب تعیین: برای محیط و مساحت مربع: چرا متفاوت است؟
103189
تفاوت بین SVM و Sparse Extreme Learning Machine با هسته گاوسی که در مقاله زیر پیشنهاد شده است چیست: http://www.ntu.edu.sg/home/egbhuang/pdf/Sparse-ELM-IEEE-T- Cybernetics.pdf به عنوان استفاده هسته در ELM منجر به تصادفی صفر می شود و همه گره ها به عنوان بردار پشتیبان در نظر گرفته می شوند، بنابراین چه تفاوتی بین این نوع وجود خواهد داشت. ELM پراکنده و SVM معمولی
Sparse ELM در مقابل SVM
104366
من به تازگی یک پروژه تحقیقاتی کوچک در مورد مرغ مگس خوار و تأثیر تغذیه کننده مرغ مگس خوار را به پایان رساندم. من در مورد نحوه ادامه آمار کمی مطمئن نیستم. ما 15 نقطه را در شیب فاصله دور از فیدرها قرار دادیم، جایی که نمونه‌برداری از نرخ بازدید، گرده‌افشانی و فراوانی پرندگان/گل (همه داده‌های شمارش) انجام شد. ما از تمام نقاط دو بار نمونه برداری کردیم، کاری که من می خواهم انجام دهم این است که از رگرسیون پواسون روی میانگین دو نمونه استفاده کنیم. آیا این از نظر آماری منطقی است؟ اول، من حدس می‌زنم که استفاده از ابزارها، توزیع داده‌ها را به سمت عادی شدن سوق می‌دهد. دوم، آیا می توانید از رگرسیون پواسون روی اعداد غیر کامل استفاده کنید؟
رگرسیون پواسون بر روی میانگین داده های شمارش
4823
من یک دیتافریم مانند زیر دارم: شبیه سازی کیس دمای پلانک اکسیژن 1 1 1 8 7 11 2 2 1 16 10 15 ... 17 17 2 26 12 17 18 18 2 15 8 12 19 19 10 2 20 28 2 24 6 14 من می خواهم خلاصه هایی را به تفکیک سطوح متغیر شبیه سازی دریافت کنم. به عنوان مثال، من می‌خواهم میانگین «دمای» برای شبیه‌سازی==1 و شبیه‌سازی==2، و برای انحراف معیار یکسان باشد. در حال حاضر از کد زیر استفاده می کنم که بسیار وحشتناک است: df <- read.csv(data.csv) attach(df) # ایجاد متغیرهای زیرمجموعه temp1 = subset(temp, simulation==1) temp2 = زیرمجموعه ( دما، شبیه‌سازی==2) پلانک1 = زیر مجموعه (پلانک، شبیه‌سازی==1) پلانک2 = زیرمجموعه (پلانک، شبیه‌سازی==2) oxygen1 = زیر مجموعه (اکسیژن، شبیه‌سازی==1) oxygen2 = زیر مجموعه (اکسیژن، شبیه‌سازی==2) چاپ (sd(temp1)) print(sd(temp2)) print(sd(plank1)) print(sd(plank2)) من مطمئن هستم که باید یک راه خودکار برای انجام این کار در R وجود داشته باشد، اما نمی توانم آن را پیدا کنم. من سعی کردم از «خلاصه (df ~ شبیه‌سازی)» استفاده کنم، اما هیچ چیز مفیدی تولید نمی‌کند.
تولید خودکار خلاصه بر اساس متغیر عامل در R
104651
من می خواهم با بیز ساده لوح طبقه بندی کنم. من حدود 100 ویژگی دارم. هم عددی و هم دسته بندی. از آنجایی که من می‌خواهم فقط مرتبط‌ترین‌ها برای کار طبقه‌بندی گنجانده شوند، می‌خواهم آنها را با نوعی حذف ویژگی پیدا کنم. سوال من اکنون این است: روش استفاده از آن برای (کاغذ/مرجع؟!) چیست و آیا این روش در نوعی بسته نرم افزاری پیاده سازی شده است. از آنجایی که من از R استفاده می کنم، به ویژه برخی از بسته های R را ترجیح می دهم. پیشاپیش از کمک شما متشکرم!
بهترین روش انتخاب ویژگی برای طبقه بندی ساده بیز
63872
من فکر می کنم که می توان **یک مدل با اثرات تصادفی** را تجزیه و تحلیل کرد، اما مطمئن نیستم که هرگز آن را انجام نداده ام. من به دنبال راهنمایی در مورد اینکه آیا مناسب است، چه فرضیاتی باید از آن آگاه باشم و چگونه آن را به درستی انجام دهم، هستم. از مطالعه من در مورد یک حشره؛ * من یک متغیر پاسخ دارم (سن در هنگام مرگ، سن) * دو درمان (Treat1 و Treat2) که هر دو دارای دو سطح هستند (Treat1 دارای A و B و Treat2 دارای P است. و Q) * همچنین 40 ژنوتیپ وجود دارد (1-40) * با چهار تکرار (w,x,y,z) از هر ترکیب Genotype/Treat1/Treat2 * هر تکرار شامل 50 فرد است به عبارت ساده، داده‌های من مانند 32000 ردیف از این به نظر می‌رسد: Treat1 Treat2 بلوک ژنوتیپ سن فرد A P 1 w 1 23 A P 1 w 2 35 A P 1 w 3 44 . . . . . . . . . . . . . . . . . . B Q 40 z 50 76 من می خواهم بدانم که آیا هر ترکیبی از Treat1 و Treat2 (AP,AQ,BP,BQ) دارای تنوع ژنتیکی هستند - یعنی آیا بین 40 ژنوتیپ من در هر ترکیب درمانی تنوع وجود دارد؟ فکر می کنم برای هر یک از AP، AQ، BP و BQ، در امتداد خط سن ~ ژنوتیپ [ Treat1 == A & Treat2 == P] * Block [ Treat1 == A و به یک مدل نیاز دارم. Treat2 == P] که در آن ژنوتیپ و بلوک اثرات تصادفی هستند. من شنیده ام که توزیع گاما بهتر است در مدل های طول عمر (زمان تا مرگ) استفاده شود. **سوالات من این است:** الف. آیا این روش مناسبی برای نشان دادن تنوع یا عدم تنوع ژنوتیپ های من است؟ ب آیا می توانم چهار مدل را همانطور که در بالا تعریف شده است بسازم یا این روش واقعاً ضعیفی است؟ ج. در صورت امکان، از چه توابعی باید در R استفاده کنم (lm، glm، lmer... & summary، summary.lm، aov، anova...)؟ د چه انتظاری باید داشته باشم، اگر گاما از گاوسی مناسب‌تر است، وقتی «نقشه(مدل)» را برای گاما در مقایسه با گاوسی مقایسه می‌کنم، ببینم؟ * * * این مدل در حال حاضر من است... AP= df$Treat1==A & df$Treat2==P apmodel<- lmer(df$Age[AP]~(1|df$Genotype[AP ])+(1|df$Block[AP])) خلاصه (apmodel) که به نظر من درست است اما مطمئن نیستم با خروجی چه کار کنم.. > خلاصه (apmodel) مدل ترکیبی خطی متناسب با فرمول REML: df$Age[AP] ~ (1 | df$Genotype[AP]) + (1 | df$Block[AP]) AIC BIC logLik انحراف REMLdev 57343 57371 -273667 57335 اثرات تصادفی: نام گروه Variance Std.Dev. df$Genotype[AP] (Intercept) 17.23798 4.15186 df$Block[AP] (Intercept) 0.15416 0.39263 Residual 93.18777 9.65338 تعداد obs: 7df4$، گروه‌ها: 7df4$ df$Block[AP]، 4 جلوه‌های ثابت: Estimate Std. مقدار خطای t (Intercept) 49.9948 0.6939 72.05 **آیا واریانس ژنتیکی وجود دارد؟**
تست تغییرات با استفاده از مدل اثرات تصادفی
58238
من یک سوال در مورد الگوریتم **kmeans** دارم. من می دانم kmeans یک الگوریتم تصادفی است، اما چقدر تصادفی است و چه نتایجی را می توانم انتظار داشته باشم. فرض کنید یک مجموعه داده را در خوشه‌های $4$ دسته‌بندی کرده‌اید، که در آن هر نقطه دارای هویت $1$، $2$، $3$، یا $4$ است (که به شما می‌گوید متعلق به چه خوشه‌ای است). سپس یک خوشه بندی دوم را روی همان مجموعه داده با همان معیارها انجام می دهید. 1. آیا دفعه بعد که الگوریتم kmeans را اعمال می کنید، همه نقاط یک خوشه خاص در اولین خوشه بندی در یک خوشه قرار می گیرند؟ 2. اگر نه، آیا به احتمال زیاد در یک خوشه خواهند بود و آیا معیاری برای این احتمال وجود دارد؟ با برخی از خروجی‌هایی که در R دریافت کردم، معتقدم که 1. ثابت نمی‌شود، زیرا اندازه‌های خوشه‌ای متفاوتی را برای اجراهای مختلف در یک مجموعه داده دریافت می‌کنم. همه کمک ها بسیار قدردانی می شود!
نتایج الگوریتم kmeans چقدر تصادفی است؟
105525
من مجموعه ای از مشاهدات از یک آزمایش بیولوژیکی دارم. من وقوع یک رویداد خاص را در هر کروموزوم برای سلول های $n$ شمارش کرده ام و در نهایت مقدار میانگین نهایی را برای هر کروموزوم دارم. 2.2، 6.4، 3.4، 10.2، 4.45 بنابراین من 5 کروموزوم دارم که به طور متوسط ​​تعداد رویدادهای ذکر شده در بالا ساخته می شوند. من احتمال پواسون صفر شدن هر یک از کروموزوم های بالا را محاسبه کرده ام. من از تابع R استفاده کرده ام: ppois(q=0,lambda=wt[1:5]) و احتمالات 1.108032e-01 1.661557e-03 3.337327e-02 3.717032e-05 1.1672857e، که- نشان می دهد که احتمال کل 0.15 بنابراین وجود دارد برای مشاهده هر کروموزوم با رویداد صفر. حالا می خواهم بدانم در چه مقادیری این احتمالات صفر یا ناچیز می شوند. چگونه می توانم برای رسیدن به این هدف اقدام کنم؟
احتمال پواسون مشاهده حداقل یک صفر از k حالت مستقل
74885
من این مشکل را دارم: یک دانش آموز باید دقیقاً دو درس از سه انتخابی را انتخاب کند: هنر، فرانسه و ریاضی. هنر را با احتمال 5/8، فرانسوی را با احتمال 5/8 و هنر و فرانسه را با احتمال 1/4 انتخاب می کند. احتمال اینکه ریاضیات را انتخاب کند چقدر است؟ احتمال اینکه هنر یا فرانسه را انتخاب کند چقدر است؟ حالا دلیل من این بود: p(A و F)+p(F و M)+p(A و M)=1 چیزی باید بیفتد. 1/4+p(F and M)+p(A and M)=1 p(F and M)+p(A and M)=3/4 p(M)=p(F and M)+p( A و M) p(M)=3/4 اما چگونه می توانم p(A) یا p(F) را بدست بیاورم. با تشکر
مسئله احتمالات، محاسبه 2 رویداد
105098
من درک می کنم که یک مدل سوگیری راحت تر است در حالی که مدلی با واریانس زیاد انعطاف پذیرتر است. اما، این اصطلاحات از کجا آمده اند، و چرا سوگیری و چرا واریانس؟
واژه های سوگیری و واریانس از کجا آمده اند؟
104652
در حین انجام یک بازی دوستانه پوکر تگزاس هولدم، بازیکنی مستقیماً یک کارت 7 کشید. اگرچه در تگزاس هولدم یک بازیکن ممکن است فقط از 5 کارت از 7 کارت ممکن استفاده کند، بحث در مورد شانس بلافاصله مطرح شد. شانس گرفتن 7 کارت مستقیم چقدر است؟ برای کسانی که با پوکر آشنایی ندارند، می توان این سوال را به این صورت مطرح کرد: شانس کشیدن 7 کارت از یک عرشه 52 کارتی با پایان متوالی بودن آن کارت ها چقدر است؟ * من سعی کردم دانش گسترده اینترنت را جستجو کنم، اما نتوانستم به پاسخی برسم. نزدیکترین چیزی که به من می رسد احتمال کشیدن مستقیم 5 کارت در یک بازی گل میخ 5 کارتی است (0.00392465)، اما من در تلاش برای اضافه کردن احتمال 2 کارت بعدی - به دلیل پیچیدگی مستقیم (2 کارت بعدی) گم شدم. می تواند مستقیم را تکمیل کند - اگر 5 کارت اول مساوی شد **4.5.7.8.9** و 2 کارت بعدی **6.10** بود). هر گونه راهنمایی یا راهنمایی در مورد این موضوع بسیار مفید خواهد بود. محاسبه مستقیم *) از یک کارت آس می توان برای شروع یک استریت کم یا تکمیل یک استریت بالا استفاده کرد - **A.2.3.4.5.6.7** و **8.9.10.J.Q.K.A** قانونی هستند. اما نمی توان از آن برای بسته بندی استفاده کرد - _J.Q.K.A.2.3.4_ قانونی نیست.
شانس کشیدن 7 کارت که به ترتیب به پایان می رسند - از عرشه 52 کارتی چقدر است؟ (پوکر 7 کارت مستقیم)
74888
ما در حال تجزیه و تحلیل مجموعه داده‌ای هستیم که در آن به احتمال جابه‌جایی افراد و عواملی که جابجایی را پیش‌بینی می‌کنند، نگاه می‌کنیم. مشکل اینجاست که خیلی ها متاهل هستند و (معمولاً) اگر یکی خانه تکانی کند، همسرش هم خانه تکانی می کند (البته همه متاهل نیستند). ما دو گزینه داریم که هیچکدام رضایت بخش به نظر نمی رسند: 1. مدل سازی در سطح خانواده: اما پس از آن گنجاندن پیش بینی کننده ها در سطح فردی سخت است (همه متاهل نیستند). 2. در سطح فردی مدل کنید و از چیزی استفاده کنید که برای خوشه بندی تصحیح شود. به نظر نمی رسد برای خوشه بندی تقریباً کامل توضیح داده شود، و من احساس نمی کنم که تخمین ها مناسب باشند. علاوه بر این، احتمال حرکت کنجکاو است. اگر یک زوج نقل مکان کنند، و یک فرد مجرد نقل مکان نکند، احتمال جابجایی 0.5 بود (زیرا 1/2 خانوار نقل مکان کردند - مانند (1) بالا، یا 0.66، زیرا 2/3 خانوار نقل مکان کردند، مانند (2) بالا
احتمال جابجایی خانه (مشکل عدم استقلال)
33444
سعی می کنم الگویی برای وصول بدهی ایجاد کنم. در گذشته من از رگرسیون لجستیک برای پیش بینی پرداخت/عدم پرداخت استفاده کرده ام. این به خوبی عمل کرده است، اما چند عواقب ناگوار دارد. زمانی که موجودی معوقه کم است، مردم تمایل بیشتری به پرداخت دارند. بنابراین، مدل تمایل دارد تعادل های پایین را به سمت دم خوب فشار دهد. بنابراین، هدف واقعی، به حداکثر رساندن دلارهای جمع آوری شده در یک عمق خاص از پرونده است. استراتژی پیش فرض این است که حساب ها را بر اساس مقدار بدهی سفارش دهید که یک راه حل ساختگی در نظر گرفته می شود. بهبود این راه حل ساختگی دشوارتر از آنچه پیش بینی می کردم بوده است. مشکل این است که دلارهای جمع آوری شده منوط به میزان بدهی است! وقتی سعی می‌کنم دلارهای جمع‌آوری‌شده را مدل کنم، مقدار بدهی کاملاً بر هر چیز دیگری در مدل غلبه می‌کند. آیا راه دیگری برای کم کردن تأثیر مقدار بدهی یا کنترل آن وجود دارد؟ نتیجه مطلوب این است که دلارهای سفارش رتبه مدل بهتر از استفاده ساده از مبلغ بدهی جمع آوری شود. اینها چیزهایی هستند که من امتحان کرده‌ام: * مدل 2 مرحله‌ای با استفاده از تصحیح هکمن که پرداخت/عدم پرداخت را پیش‌بینی می‌کند و سپس دلار جمع‌آوری شده است. سپس هر مدل را با استفاده از شانس بخش آنها در مرکز قرار دهید. * رگرسیون خطی فقط بر روی پرداخت کنندگانی که دلارهای پرداخت شده را پیش بینی می کنند و مدل را برای کل جمعیت اعمال می کنند. * رگرسیون لجستیک مستقیم پیش بینی پرداخت / عدم پرداخت
حداکثر مقدار متغیر وابسته مشروط به متغیر مستقل
58848
در Luce (1959) اصل انتخاب تعریف شده است، که برای یک زیرمجموعه محدود $T$ از $U$ به طوری که، برای هر $S\ زیر مجموعه T$، $P_S$ تعریف می شود. * اگر $P(x,y)\ne 0,1$ برای همه $x,y\ در T$، پس برای $R\زیر مجموعه S\ زیر مجموعه T$: $P_T(R) = P_S(R)P_T( S)$ * اگر $P(x,y)= 0$ برای همه $x,y\در T$، سپس برای $S\زیر مجموعه T$: $P_T(S) = P_{T-\\{x\\}}(S - \\{x\\})$ اکنون نوشته شده است که (لم 2، صفحه 7) > اگر $P(x,y)\ne 0,1 $ برای همه $x,y\ در T$، سپس این اصل معادل > $P_S(R) = P_T(R|S)$، برای $R\زیر مجموعه S\ زیر مجموعه T$ است. نوشته شده است که این نتیجه به جز شرط $P_T(S)>0$ واضح است. ** سوال من (احتمالاً ساده لوحانه) این است: ** چرا واضح است؟ معیار مشروط القا شده توسط $P_T$ تنها در صورتی تعریف می شود که $P_T(S)>0$ توسط: $P_T(R|S) = \frac{P_T(R\cap S)}{P_T(S)}$. باز هم، چرا برای اثبات اینکه $P_T(S)>0$ کافی است؟
سوال در مورد اثبات اصل انتخاب لوس w.r.t. احتمال شرطی
105384
اگر نمونه ای با بیش از 350 پاسخ دهنده داشته باشم، آیا قابل قبول است که بارهای بالای 0.50 را عملاً معنی دار در نظر بگیرم یا باید بارهای بالای 0.30 را قابل توجه در نظر بگیرم (که برای مثال در مورد متغیری که با 0.60 بارگذاری می شود منجر می شود. بر روی یک ضریب و به ترتیب 0.30 بر روی عامل دیگری که دارای بارگذاری متقاطع در نظر گرفته شود)؟
بارگذاری در تحلیل عاملی
83265
من در تطبیق مدلی برای رگرسیون تفاوت در تفاوت ها در Stata مشکل دارم. به طور خاص، من در مورد ضریب B3 در زیر گیج شده ام: y = B0 + B1p + B2trt + B3(p*trt) + u در اینجا، p و trt متغیرهای ساختگی هستند که در آن p = 0 است. «برای قبل از درمان و «1» برای پس از درمان، و «trt = 0» برای گروه کنترل و «1» برای گروه درمان. p * trt یک اصطلاح تعاملی است که نشان دهنده تأثیر نهایی گروه درمانی در طول دوره آزمایشی است. سوال من این است که اگر p / trt = 0 و 1 اگر هر دو p / trt = 1 باشد، این باید یک متغیر ساختگی ساده برابر با صفر باشد؟
مدل‌سازی رگرسیون تفاوت‌ها در تفاوت‌ها در Stata
25613
من یک پایگاه داده دارم که حاوی بازده روزانه بیش از هزار سهم برای چندین دهه است. من می‌خواهم به اهداف زیر برسم: 1. یک معیار **متغیر زمان** از حرکت مشترک (یا جزء مشترک) بازده سهام ایجاد کنید. 2. تکامل این معیار را در طول زمان مقایسه کنید و بعداً آن را با سایر متغیرها مرتبط کنید. ایده اصلی این است که ببینیم آیا اهمیت جزء مشترک بازده سهام به طور سیستماتیک در چرخه تجاری متفاوت است یا خیر. اولین ایده من اجرای یک PCA در هر سه ماهه، صرفه جویی در سهم واریانس توضیح داده شده توسط اولین مؤلفه اصلی بود، و سپس این سری زمانی فصلی از واریانس توضیح داده شده، معیار حرکت مشترک در طول زمان خواهد بود. اما مشکل این است که تعداد متغیرهایی که PCA را برای آنها اجرا می کنم در طول زمان ثابت نیست. در بخش اولیه نمونه، من مثلاً 200 سهام و در بخش اخیر، مثلاً 1000 سهام دارم. فرض می‌کنم اگر تعداد متغیرها در طول زمان متفاوت باشد، مقایسه واریانس توضیح داده شده با PC1 منطقی نیست. من از هر ایده ای برای مقابله با این مشکل قدردانی می کنم. آیا در صورت تغییر تعداد متغیرها در طول زمان، معیاری وجود دارد که بتوان آن را با هم مقایسه کرد؟
مقایسه اجزای اصلی در صورت تغییر تعداد متغیرها
33448
ما یک فرآیند پیش‌بینی گردش مالی را از یک تحلیلگر قبلی به ارث برده‌ایم. ابزار مورد استفاده ما SPSS Modeler است. مدل مورد استفاده درخت تصمیم CHAID است. متغیر هدف باینری است: ماندن در مقابل مرکب (به عنوان مثال، شخص در شرکت می ماند، شخص شرکت را ترک می کند). این فرآیند در زیر در زیر پس زمینه به تفصیل آمده است. **من به دنبال این بازخورد خاص از جامعه CV هستم:** 1. چه اشکالی در روند زیر می بینید؟ 2. راه های بهتری برای رسیدن به پیش بینی با استفاده از مدل طبقه بندی درخت تصمیم چیست؟ (من فقط به مدل های درخت تصمیم نگاه می کنم زیرا در داده کاوی و مدل سازی پیش بینی تازه کار هستم و درک این مدل ها آسان تر است) باید اشاره کنم که دقت تا کنون مشکلی نداشته است. اما چیزی که این سوال را برانگیخت این واقعیت است که همه به عنوان مرحوم طبقه بندی می شوند (100٪ موارد مثبت کاذب). من یک سوال جداگانه در مورد آن اینجا ارسال کردم. اگر کسی بخواهد آن را ببیند، می‌توانم پیوندی به فایل SPSS Modeler .str (و فایل‌های متنی مرتبط، همگی بی‌نام) ارسال کنم. **پیش‌زمینه** وظیفه: با استفاده از خاتمه‌های تاریخی دو ساله و داده‌های تعداد کارکنان، تعداد خاتمه‌ها را برای سه اداره ما (به عنوان مثال ~ واحدهای تجاری) برای سال مالی آینده پیش‌بینی کنید. Datafile: داده های کارکنان با چندین فیلد جمعیتی. هر رکورد، کارمندی است که یا در کل دوره دو ساله باقی مانده است یا خاتمه یافته است (یعنی «بماند» در مقابل «بازگشت») فرآیند فعلی ما شامل اجرای یک مدل CHAID به صورت تعاملی با استفاده از SPSS Modeler برای یک دوره زمانی شناخته شده اخیر است. به عنوان مثال 2009-2010 (تنظیم فایل همانطور که در بالا توضیح داده شد). > Sidenote: این داده های آموزش است. داده ها به داده های «آموزش» و «آزمایش» به معنای طبقه بندی سنتی تقسیم نمی شوند. این > عمدتاً به این دلیل است که تعداد بازگشتگان در مقایسه با > (1:14) با ماندن نسبتاً کم است. ما این کار را به صورت زیر انجام می دهیم: 1) مدل تعاملی CHAID به صورت تکراری اجرا می شود (آزمایش و خطا)، هر بار عملکرد را توسط این فرآیند فرعی اندازه گیری می کند: > a. این مدل را برای جمعیت ابتدای سال (مثلاً 2011 در این مورد) بکار ببرید > تا امتیازهای گرایش را برای هر فرد بدست آورید. > > ب. امتیازهای گرایش را بر اساس سازمان جمع و تقسیم بر دو کنید. ما بر > دو تقسیم می کنیم زیرا خاتمه هایی که برای آموزش مدل استفاده می شود یک دوره دو ساله را شامل می شود > اما ما فقط علاقه مند به پیش بینی یک سال هستیم. این پیش‌بینی‌های مدیریت را تولید می‌کند. > > ج. هنگامی که دقت بالای 85٪ است، به مرحله بعدی بروید. 2) مدل جدید را با استفاده از مدل شماره 1 به عنوان راهنما بسازید. مدل جدید شبیه به یکی در شماره 1 خواهد بود - دانش کسب و کار و برخی حدس و گمان ها برای تنظیم تقسیم ها اعمال می شود ... اما این قسمت حداقل است. 3) مدل نهایی را برای جمعیت ابتدای سال اعمال کنید (مثلاً 2012 ... با فرض اینکه سال آینده باشد) تا پیش بینی های نهایی توسط اداره ارائه شود. BTW من سعی کردم به دنبال پست های مشابه در فرآیند استقرار مدل بگردم اما فقط پست هایی مانند موارد زیر را پیدا کردم که برای من مورد توجه قرار نگرفت - help with- Deploying-a-Model
فرآیند استقرار برای مدل های طبقه بندی (به عنوان مثال درختان تصمیم)
112127
آیا راهی برای تهیه جدول با ستون های از پیش تعیین شده وجود دارد؟ به عنوان مثال ، بیایید بگوییم v = c (1،2،3،2،3،2) ، جدول (v) چیزی شبیه به این را تولید می کند ، 1 2 3 1 3 2 اما من می خواهم یک جدول مانند این 1 2 3 4 1 3 2 0 یعنی باید ستون هایی با فرکانس صفر داشته باشد...
جدول با ستون های از پیش انتخاب شده؟
83266
من می‌خواهم یک الگوریتم انتشار باور حلقه‌ای را برای نمودارهای عاملی با متغیرهای پیوسته و پیام‌هایی که با استفاده از ذرات نشان داده می‌شوند، پیاده‌سازی کنم، یعنی بردارهای نمونه برای توزیع‌های تجربی. تمام کارهایی که در مورد فیلترهای ذرات پیدا کرده‌ام، فیلدهای تصادفی مارکوف را فقط با عبارت‌های یکپارچه و باینری یا دنباله‌های زمانی (مدل‌های مارکوف پنهان) در نظر می‌گیرند. در مورد یک نمودار عامل کلی، باید عباراتی مانند $$ m_{g_p\rightarrow z_q}(z_q)=\int_{z_1}\int_{z_2}\int_{z_3}g_p(z_1,z_2,z_3) را محاسبه کرد. ، z_q) M_ {z_1 \ RightArrow G_P} (z_1) M_ {Z_2 \ RightArrow G_P} (z_2) M_ {z_3 \ RightArrow G_P} (z_3) {\ rm d} z_1 {\ rm d} z_2 {\ rm d} z_3. $$ این عبارت برای پیامی است که از گره عامل $g_p$ به گره متغیر $z_q$ می رود که در آن $g_p(z_1,z_2,z_3,z_q)$ تابعی است با بسته شناخته شده برای بیان و پیام های $m_{ z_i\rightarrow g_p}(z_i)$ با توزیع ذره تعریف می شوند. تمام معادلاتی که من می بینم فقط یکی از این اصطلاحات ذره ای را دارند. آنچه من می خواهم بدانم روش مناسب برای گسترش نمونه برداری اهمیت و به طور کلی الگوریتم ذرات/MCMC به مواردی است که شما محصولات ذرات دارید. من می دانم که $m_{z_i\rightarrow g_p}(z_i)$ را می توان به صورت مجموع دیراک های وزنی نوشت، با این حال در مورد نحوه محاسبه محصولات مطمئن نیستم. هر گونه اشاره به ادبیات مرتبط بسیار قدردانی می شود.
فیلترهای ذرات و انتشار باورهای حلقه ای
63879
من مطمئن نیستم که از چه آزمون آماری برای مقایسه خوشه بندی بر روی داده های مرتبط استفاده کنم. من برای هر فرد دو مجموعه اندازه گیری دارم. من هر فرد را با هر اندازه گیری خوشه بندی می کنم. سپس اندازه‌گیری می‌کنم که این دو چقدر بر هم منطبق هستند. من می خواهم بدانم که چگونه می توانم میزان اهمیت توافق خوشه بندی را آزمایش کنم. به عنوان مثال من 10 نفر دارم و برای هر فرد دو مجموعه از ویژگی‌ها دارم که می‌گویند بردار A و بردار B هر دو 10 به طول 10. من 10 نفر را با استفاده از بردار A در 2 خوشه خوشه‌بندی می‌کنم و چیزی شبیه به 1 2 1 1 2 1 1 می‌گیرم. 1 2 2 یعنی شخص یک به خوشه یک اختصاص داده می شود، نفر دو به خوشه دو نفر سه به خوشه یک و غیره 10 مثال را در 2 خوشه با استفاده از بردار B بسازید و چیزی شبیه 1 2 1 1 2 1 1 1 1 1 بدست آورید که این دو خوشه با 80 درصد موافق هستند، اما این چقدر مهم است؟ فرمول محاسبه این چیست؟ آیا نسخه ای برای بیش از 2 خوشه وجود دارد؟ آیا منطقی است که برای هر اندازه گیری تعداد متفاوتی از خوشه ها وجود داشته باشد یا اینکه برخی از نمونه ها فقط یک مجموعه اندازه گیری داشته باشند؟ ممنون از هر نظری :)
مقایسه خوشه ها از داده های مرتبط
72913
در رگرسیون چندگانه، اگر فقط یک جدول ANOVA دارید، و هیچ چیز دیگری، هیچ داده خاصی ندارید، چگونه می توانید یک تست F جزئی را روی X1 انجام دهید، با توجه به اینکه X2 از قبل در مدل وجود دارد؟ بنابراین، شما جدول ANOVA را دارید: منبع df SS MS F ----------------------------------- رگرسیون 2 1.44 0.72 9.72 خطا 3 0.22 0.07 کل 5 1.66 ----------------------------------- همه مقادیر پر شده اند. فقط با این اطلاعات، چگونه می توانید انجام دهید آزمون F جزئی که در آن: * F = MSR(X1|X2) / MSE(X1, X2) * MSR(X1|X2) = SSR(X1, X2) - SS(X2) = 1.44 - ???? * MSE (X1, X2) = MSE = 0.07 SSR(X1, X2) را می توان از جدول به دست آورد (رگرسیون SS) MSE(X1, X2) را نیز می توان از جدول به دست آورد (فقط MSE) اما من نمی توانم SS را بدست بیاورم( X2) از جدول، تا جایی که من می دانم...... تا آنجا که من می دانم، برای انجام این کار به مقادیر X و Y خاصی نیاز دارید. آیا راه دیگری از روی میز وجود دارد؟
نسبت F جزئی از جدول ANOVA
112126
من یک چارچوب داده از 134 مشاهده، 9 متغیر مستقل، و یک پاسخ باینری و طبقه بندی دارم. لطفا ساختار آن را در زیر ببینید: > str(df) 'data.frame': 134 obs. از 10 متغیر: سفر $ : فاکتور w/ 11 سطح 1،2،3،4،...: 2 2 2 2 2 2 2 2 2 2 ... $ نفر : فاکتور w/ 16 سطح «1»، «2»، «3»، «4»،...: 14 7 2 14 7 14 2 14 14 7 ... $ f1 : Factor w/ 2 سطح 1،2: 1 2 2 1 2 1 2 1 1 2 ... $ f2 : num 146 163 179 190 194 172 172 175 240 214 ... $ f3 : num 37 38 2 37 41 37 52 38 37 ... $ شرط: فاکتور w/ 4 سطح 1،2،3،4: 1 1 4 1 4 2 2 1 2 1 ... $ f4 : num 80 45 114 110 60 121 56 140 93 68 ... $ f5 : num 60 136 128 136 165 118 220 90 177 240 ... $ f6 : num 15.2 15.2 15.2 15.3 15.3 15.2 15.2 15.5 15.6 15.6 ... $ مرگ و میر: فاکتور w/ 2 سطح 1، 2 121 1 1 1 ... برای این خاص مطالعه، ما در چندین سفر نمونه رفتیم که در آن هر فرد در شرکت ما سعی کرد حیوانات را با انواع خاصی از تجهیزات شکار کند. علاوه بر فاکتورهای «f1 - f6»، ما به صورت بصری میزان آسیب فیزیکی وارد شده به حیوان توسط هر نوع تجهیزات را ارزیابی کردیم و آن را در مقیاس 1-4 رتبه بندی کردیم. سپس حیوان را پس از بازگرداندن آن به محیطش ردیابی کردیم تا ببینیم که آیا در اثر اسیر شدن مرده است یا خیر. من سعی می کنم یک رگرسیون لجستیک باینری را با مرگ به عنوان پاسخ باینری (1 = خیر، 2 = بله) و f1،f2،f3،f4،f5،f6، و شرط به عنوان متغیرهای توضیحی جا بزنم. از آنجایی که من در SO پست می گذارم، فقط می تواند به این معنی باشد که من با مشکلاتی از جمله اثرات تصادفی سفر و شخص مواجه هستم. به طور خاص، من سعی می‌کنم این عبارات اثر تصادفی را با توجه به شرط وارد کنم، زیرا هر سفر و شخص می‌توانست زمانی که شرط نهایی می‌شد سوگیری ایجاد کند. برای مثال، وقتی به تعداد حیواناتی که در هر «سفر» و «شرط» صید و رها شده‌اند، نگاه می‌کنیم، می‌بینیم که هر سطح از عامل «شرایط» در هر «سفر» نمونه وجود ندارد: > xtabs(~condition + سفر، دف) شرایط سفر 1 2 3 4 5 6 7 8 9 10 11 1 17 9 4 4 1 2 4 4 4 4 4 2 5 9 6 4 0 3 2 8 8 0 0 3 1 0 1 4 1 5 3 0 0 5 0 4 1 3 2 3 1 0 1 0 1 0 0 این اطلاعات بالا به من این باور را می دهد که داده های شرایط من تو در تو «سفر». با این حال، از آنجایی که داده‌های ما به گرفتن فرصت‌طلبانه این حیوانات متکی بود، هر «سفر» شانس یکسانی برای گرفتن حیوانی در هر سطح «شرایط» داشت (که یک طرح متقاطع است). بنابراین... **سوال 1:** آیا اثرات تصادفی من یک طرح تودرتو یا متقاطع است؟ بسته به اینکه افراد چگونه به سوال 1 پاسخ می دهند، باید آن اثر تصادفی را در یک بسته R که قادر به مدیریت رگرسیون لجستیک اثرات مختلط است، به درستی نشان دهم. من از بسته ordinal استفاده می کنم زیرا هدف نهایی من این است که ببینم کدام متغیرهای مستقل بیشترین تأثیر را بر مرگ دارند، بنابراین می توانم از آنها به عنوان پیش بینی کننده در حیوانات استفاده کنم که پس از رهاسازی نمی توانیم آنها را ردیابی کنیم. علاوه بر این، بسته تعدادی توانایی پیش بینی احتمالات مرگ و میر را دارد: > کتابخانه (تدوینی) > mod <- clmm(مرگ ~ f1 + f2 + f3 + f4 + f5 + f6 + شرط + اثرات تصادفی، داده = df، هس = درست است) جایی که «تأثیر تصادفی» ترکیبی از «سفر»، «شخص» و/یا خواهد بود. شرط با توجه به وقفه ای مانند (1|شرط:سفر) برای شرط که در سفر تودرتو شده است یا (1|سفر در صورت عبور از آن. **سوال 2:* * نحوه نمایش صحیح نوع افکت‌های تصادفی در نحو R بسته به اینکه «شرایط»، «سفر» و/یا «شخص» مورد نیاز است، می‌دانم که بخش دوم این سؤال بیشتر مرتبط است StackOverflow اما کل سؤال مربوط به تنظیم صحیح این رگرسیون لجستیکی است.
برازش رگرسیون لجستیک اثرات مختلط با اثرات تصادفی
83263
فرض کنید من یک مجموعه داده کوچک (~50 مشاهده) و 50 یا بیشتر متغیر توضیحی دارم و می خواهم یک مدل خطی برای پیش بینی ایجاد کنم. ابتدا، من می خواهم یک ماتریس همبستگی یا یک تکنیک انتخاب متغیر بسازم تا تعداد کمتری از پیش بینی کننده ها را برای گنجاندن در مدل انتخاب کنم. با این حال، من نمی دانم هنگام تلاش برای آموزش مدل و بررسی اینکه آیا قدرت پیش بینی دارد یا خیر، اقدام مناسب چه خواهد بود؟ تقسیم داده های آزمون قطار؟ اعتبار متقابل؟ بهترین اقدام با مجموعه داده های کوچک و تعداد زیادی متغیر توضیحی چیست؟ w/R برچسب گذاری شد زیرا من از R برای انجام تجزیه و تحلیل استفاده خواهم کرد.
جایگزین هایی برای تقسیم آزمون قطار با مجموعه داده های کوچک
109044
من روی یک مدل ترکیبی نسبتا ساده کار می کنم که در آن دو پیش بینی پیوسته با یک اصطلاح تعامل و سه سایت دارم. من دو پیش‌بینی‌کننده را به‌عنوان اثرات ثابت و سایت را به‌عنوان تصادفی در نظر می‌گیرم. اگر بخواهم پیش بینی ها را با کم کردن میانگین هر یک در مرکز قرار دهم، آیا این کار را به طور جداگانه برای هر سایت انجام می دهم؟ یا بهتر است میانگین کلی هر پیش بینی کننده را محاسبه کنید و از آن برای مرکز استفاده کنید. از طرف دیگر، من به تمرکز بر اساس یک مقدار فیزیکی، یک آستانه، که بین هر سایت متفاوت است فکر می کنم. آیا این معتبر است؟ من از nlme در R استفاده می کنم. تماس lme(پاسخ ~ پیش بینی 1 + پیش بینی 2 + پیش بینی 1: پیش بینی 2، تصادفی = ~ 1 | سایت) است.
متغیر مرکزی به طور جداگانه برای هر عامل در مدل مختلط خطی؟
26147
بنابراین توضیحی که خواندم این است: > توجه به این نکته مهم است که فرمول های محاسبه واریانس و > انحراف معیار بسته به اینکه با توزیع > نمرات گرفته شده از یک نمونه کار می کنید یا از یک جامعه، متفاوت است. دلیل متفاوت بودن این دو فرمول بسیار پیچیده است و به فضایی بیشتر از حد مجاز در کتاب کوتاهی مانند این نیاز دارد. من در اینجا توضیحی بیش از حد کوتاه ارائه می‌دهم و سپس شما را تشویق می‌کنم که توضیح کامل‌تری را در کتاب درسی آمار سنتی بیابید. به طور خلاصه، زمانی که میانگین جمعیت را نمی دانیم، باید از میانگین نمونه به عنوان تخمین استفاده کنیم. اما نمونه > میانگین احتمالاً با میانگین جامعه متفاوت خواهد بود. هرگاه از عددی غیر از میانگین واقعی برای محاسبه واریانس استفاده کنیم، در نهایت با واریانس > بزرگتر و در نتیجه انحراف معیار بزرگتر نسبت به زمانی که از میانگین واقعی > استفاده کرده بودیم، خواهیم داشت. این صرف نظر از اینکه عددی که > در فرمول خود استفاده می کنیم، کوچکتر یا بزرگتر از میانگین واقعی ما باشد، صادق خواهد بود. از آنجا که میانگین نمونه معمولاً با میانگین جامعه متفاوت است، واریانس و > انحراف معیاری که با استفاده از میانگین نمونه محاسبه می‌کنیم احتمالاً > کوچکتر از آن خواهد بود که از میانگین جامعه استفاده می‌کردیم. بنابراین، وقتی از میانگین نمونه برای ایجاد تخمینی از جامعه > واریانس یا انحراف معیار استفاده می کنیم، در واقع اندازه > واریانس واقعی در جامعه را دست کم می گیریم زیرا اگر از میانگین > جامعه به جای نمونه استفاده می کردیم. به این معنی که مجموع بزرگتری از انحرافات مجذور > و واریانس و انحراف استاندارد بزرگتر ایجاد می کردیم. برای تنظیم > برای این کمتر برآورد، از n - 1 در مخرج فرمول های نمونه > خود استفاده می کنیم. مخرج های کوچکتر آمار واریانس کلی و انحراف استاندارد بزرگتر را تولید می کنند که تخمین دقیق تری از پارامترهای جمعیت خواهد بود. من هیچ کدام از اینها را نفهمیدم زیرا متناقض به نظر می رسد. می گوید که وقتی از عددی غیر از میانگین واقعی استفاده می شود (برای من، به عنوان مثال، میانگین نمونه) متفاوت خواهد بود، سپس میانگین جامعه واریانس بزرگتری ایجاد می کند. وسط میگه اگه از میانگین جامعه استفاده شده باشه واریانس و میانگین نمونه کمتر میشه... میشه توضیح بدید دقیقا کدومه و چرا؟
چرا مجموع مجذور اختلاف میانگین نمونه کوچکتر از مجذور اختلاف میانگین واقعی است؟
83260
من از تابع clogit (از بسته بقا) برای اجرای یک رگرسیون لجستیک شرطی در R با یک مجموعه داده بزرگ از جفت‌های همسان 1:M با n=300368964 و تعداد رویدادها = 39995 استفاده کردم. مدل <- clogit(Alliance ~ OVB + CVC + BVB + strata (Strata)، روش = دقیق) من نتایج زیر را دریافت کردم: coef exp(coef) se(coef) z Pr(>|z|) OVB -0.0498174 0.9514031 0.0166275 -2.996 0.00273 ** BVB 0.0277405 1.0281289 0.0281289 0.03046275 0.03041950 C. 1.1709851 3.2251683 0.1089709 10.746 < 2e-16 *** EarlyStage -1.3215824 0.2667129 0.0205851 -64.201 < 2e-V00CS *** 1.0088364 0.0002035 43.224 < 2e-16 *** NumberVC 0.0643579 1.0664740 0.0034502 18.653 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Rsquare = 0 (حداکثر امکان = 0.001 ) آزمون نسبت درستنمایی = 6511 در 6 df، p=0 آزمون Wald = 6471 در 6 df، p=0 نمره (لوگرانک) آزمون = 6801 روی 6 df، p=0 از آنجایی که Rsquare برابر با 0 است و نسبت های تست بسیار بالا به نظر می رسد، من سعی کردم نتایج را رسم کنم تا بررسی کنم که آیا مدل مطابقت دارد یا خیر. اما من نتوانستم آن را به درستی ترسیم کنم. من مقالات زیادی را آنلاین می‌کنم که از نسبت Prob > chi2 = 0 از Stata به عنوان نسبت آزمون برای اثبات تناسب مدل استفاده می‌کنند. چگونه می توانم این نسبت را در R محاسبه کنم؟ آیا راه های دیگری وجود دارد که بتوانم تناسب مدل نتایج کلگیت خود را بررسی کنم؟ من از هر کمکی قدردانی می کنم. پیشاپیش از شما بسیار سپاسگزارم
نحوه محاسبه Prob > chi2 در R برای آزمایش برازش مدل رگرسیون لجستیک شرطی
34940
من در مورد اینکه کدام الگوریتم درخت تصمیم در weka را برای برنامه خود استفاده کنم سردرگم هستم. من 5 متغیر ورودی واقعی و 2 کلاس دارم. در آموزش های آنلاین مختلف J48 (C 4.5) الگوریتم انتخابی به نظر می رسد. آیا قوانین سرانگشتی / نکات / ترفندهایی برای تصمیم گیری در مورد اینکه کدام الگوریتم درختی باید استفاده شود وجود دارد؟ ![انتخاب های درخت تصمیم Weka](http://i.stack.imgur.com/MFIGx.jpg)
چگونه تصمیم بگیریم که از کدام طبقه بندی درخت تصمیم استفاده کنیم؟
108927
روز قبل بدون پاسخ سوال مشابهی پرسیدم. فکر می کنم شاید سوال آنجا خیلی بزرگ باشد. در اینجا می خواهم یک مورد خاص را بپرسم: * 2 برچسب کلاس (طبقه بندی باینری که با 1 یا 0 برچسب گذاری شده است). * 50 مورد (20 مورد با عنوان 1 و 30 مورد با برچسب 0)؛ * 18 ویژگی استخراج شده (برخی مقادیر فیزیکی)؛ * 12 ویژگی پس از انتخاب ویژگی باقی مانده است. برای جلوگیری از تطبیق بیش از حد از چند ویژگی می توان برای طبقه بندی استفاده کرد؟ یا محدودیتی نداره؟ برخی از مقاله ها اشاره کردند که تعداد ویژگی ها باید کمتر از 1/3 کوچکترین داده های برچسب گذاری شده باشد. برای مثال من باید کمتر از (1/3)*20 باشد که حدود 7 است، یعنی حداکثر می توان از 6 یا 7 ویژگی استفاده کرد. درست میگم؟ خیلی ممنون الف
از چند ویژگی می توان برای طبقه بندی استفاده کرد؟
33449
به من آموزش داده شد که اگر من یک رگرسیون را در یک تعامل وارد کنم، باید آن را نیز جداگانه وارد کنم. یعنی اگر $y$ را روی $x_1 \times x_2$ عقب نشینی کنم، باید $x_1$ و $x_2$ را نیز جداگانه وارد کنم. اگرچه من هرگز این را در متنی ندیده‌ام، اما این برای من منطقی است - اگر ضمیمه متقاطع را وارد کنم، باید افکت مرتبه اول را نیز وارد کنم. با این حال، در مقالات منتشر شده اقتصادی (در مجلات خوب) مقدار زیادی $$y_i = \alpha + \beta x_{1,i} + \gamma x_{1,i} \times x_{2,i} + \ می‌بینم. epsilon_i$$ وقتی به نظر می رسد که $$y_i = \alpha + \بتا x_{1,i} + \gamma x_{1,i} \times x_{2,i} + \delta x_{2,i} + \epsilon_i$$ صحیح تر است. آیا حذف $x_2$ بدون تعامل مشکلی ندارد؟ آیا مرجع خوبی در این مورد وجود دارد؟ با تشکر
رگرسیون های تعامل را به طور جداگانه لحاظ کنید؟
108923
من در حال بررسی پروژه ای در مورد مقایسه روش های استاندارد ایجاد یک طبقه بندی کننده با برخی روش های اکتشافی هستم. روش‌های اکتشافی باید به آموزش سریع‌تری برای طبقه‌بندی‌کننده منجر شود، اما باید منجر به یک طبقه‌بندی با دقت کمتر شود - مبادله معمول. من مقایسه را روی 50 مجموعه داده انجام می دهم و می خواهم تفاوت را در دقت با استفاده از اکتشافی گزارش کنم. 1) من ابتدا قصد داشتم از h کوهن در تفاوت دقت استفاده کنم. $$ h = 2 \arcsin(ac1) - 2 \arcsin(ac2) $$ ویرایش: من دو فرمول متناقض برای h کوهن پیدا کردم. فرمول بالا در کتاب راهبردهای آماری برای تحقیقات نمونه کوچک است که توسط ریک اچ. هویل ویرایش شده است. فرمول دوم $$ h = 2 \arcsin(\sqrt{ac1}) - 2 \arcsin(\sqrt{ac2}) $$ و به نظر می رسد منبع خود کوهن در این لینک باشد http://people.ucalgary.ca/~ramsay/cohen-effect-size-h-arcsin- transformation.htm. ویرایش پایان (شهود در کوهن h این است که بهبود دقت یک طبقه‌بندی‌کننده از 0.90 به 0.95 بسیار دشوارتر از بهبود طبقه‌بندی‌کننده دیگر از 0.70 به 0.75 است، یعنی اندازه اثر اولین تغییر بزرگ‌تر از آن است. نظریه h کوهن در واقع در مورد واریانس صحبت می کند - واریانس در 0.90 کوچکتر از واریانس است. حدود 0.7.) 2) اما برای من منصفانه تر، باید در نظر بگیرم که برای شروع، داشتن دقت 0.9 یا 0.70 چقدر سخت است. اینجاست که کاپا وارد می شود. کاپا اندازه گیری می کند که چقدر بالاتر از یک طبقه بندی کننده حدس زدن دقت من است (ac) $$ \kappa = {ac - guess\over{1-guess}} $$ که در آن حدس، دقت طبقه بندی حدس زدن است که از نسبت کلاس های موجود در داده $$ guess = pos*pos + neg*neg $$ که در آن pos و neg نسبت مثال های مثبت و منفی هستند. 3) اینجا اولین سوال من است. آیا اندازه گیری اندازه اثر برای کاپا وجود دارد؟ آیا باید تبدیل arcsin را انجام دهم یا فقط از تفاوت میانگین در کاپا استفاده کنم؟ 4) همچنین متوجه شدم که می توانم از واریانس دقت یا کاپا برای هر طبقه بندی کننده استفاده کنم. من در ابتدا قصد داشتم از یک اعتبارسنجی متقاطع نگهدارنده استفاده کنم، اما اگر واریانس مورد استفاده قرار گیرد، می‌توانم از هر اعتبار متقاطع دیگری که تخمینی از واریانس را به من می‌دهد استفاده کنم (تکرار نگه‌داشتن، k-برابر، بوت استرپ). در این مورد می توانم از یک d کوهن برای گزارش تفاوت در دقت (یا کاپا) استفاده کنم. آیا این منطقی است؟ هر فکری؟ با تشکر
آیا اندازه افکتی برای کاپا وجود دارد؟
112123
من یک داده ورودی و یک متغیر باینری خروجی دارم. اگر بیمار بیمار شود، مقدار y 1 است. > خلاصه (x_یا) Symscore1 Symscore2 تمرین3 مدت تمرین3 تغییر گروه سن3 حداقل. :0.0000 دقیقه :0.0000 دقیقه : 1000 دقیقه :0.000 معمولی به معمولی: 340 دقیقه. :45.00 1st Qu.: 0.0000 1st Qu.:0.0000 Qu. 1st:3.000 Qu. 1:2.000 منظم تا یائسگی : 360 1st Qu.: 49.00 میانه :0.0000 میانه :0.0000 میانه: 0.000 Median:0.000 Transitional to Transitional: 171 Median :54.00 Mean :0.5504 Mean :0.5941 Mean :3.651 Mean :2.545 Transitional to Menopausal :1492 Mean :54.07 3rd Qu.:1.000:10.0000 Q.3rd س 3: 3.000 یائسگی تا یائسگی : 246 س 3: 59.00 حداکثر. حداکثر : 5.0000 حداکثر : 5.0000 حداکثر: 5000 حداکثر : 4000 :66.00 بسته سال bmi3 Education3 Min. : 0.000 دقیقه :16.77 پایه : 348 1st Qu.: 0.000 Q 1st Qu.:22.32 دبیرستان:1013 میانه : 0.000 میانه :24.84 دانشگاه: 1248 میانگین : 4.397 میانگین :25.60 5 Q.714: 3th Qu. حداکثر :97.143 :57.09 > summary(y_or) 0 1 2129 480 من یک مدل جنگل تصادفی برازش کرده ام و اندازه پرت را محاسبه کرده ام rf = randomForest(x = x_or، y = y_or، نزدیکی = T، ntree = 1000) outlier (x = rf) نزدیکی $، cls = y_or) نمودار (خارج، col=y_or) از نمودار پرت می توانم ببینم که برخی از نمونه های با y=1 دارای اندازه پرت بسیار پایینی هستند. عملکرد پیش‌بینی کلی مدل من بسیار پایین است. آیا می توانم از این طرح استنباط کنم که یک زیر گروه از بیماران وجود دارد که به احتمال زیاد بیمار می شوند؟ اساساً من می خواهم در تیم پزشکی بگویم که به دست آوردن یک مدل کلی دشوار است اما ما می توانیم افراد با این ویژگی ها را طبقه بندی کنیم... ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/oIg7P.png)
برای تشخیص گروهی از متغیرها از پرت تصادفی جنگل استفاده کنید
58846
لطفاً به من کمک کنید تا توزیع محدودکننده (به صورت $n \rightarrow \infty$) موارد زیر را پیدا کنم: $$ U_n = \frac{X_1 + X_2 + \ldots + X_n}{X_1^3 + X_2^3 + \ldots X_n ^3}، $$ که در آن $X_i$ iid $N(0,1)$ است.
نسبت مجموع نرمال به مجموع مکعب های نرمال
103181
من مقالات مختلفی را در مورد بحث و جدل p-value خوانده ام و از آنجایی که بهترین راه برای درک نظریه، تمرین آن است، یک مثال ابداع کردم. فرض کنید من یک روانشناس هستم و آزمایشی انجام دادم. مطالعه من ساده بود - هدف بررسی سطح همدلی در دو گروه بود: مردان و زنان. از برخی تئوری ها و مطالعات قبلی، من می دانم که توزیع همدلی در هر دو گروه نرمال است و انحراف معیار برابر با 1 است. من می خواهم آزمایش کنم که H_0: μ_men = μ_زنان، در مقابل H_1: μ_men برابر با μ_زنان نیست. اگر بخواهم از رویکرد Neyman-Pearson استفاده کنم و تمام آن مسئله p-value را حذف کنم، به معنای واقعی کلمه چه کاری باید انجام دهم؟ اخیراً، برای اینکه بتوانم به یاد بیاورم، آنچه در داخل بود، آن مقالات را خواندم: * Lew, M.J., به P یا نه به P: در مورد ماهیت اثباتی P-values ​​و جایگاه آنها در استنتاج علمی * Lehman, 1993، تئوری های فیشر، نیمن-پیرسون برای آزمون فرضیه ها * هاگن، R.L.، در ستایش از باطل آزمون آماری فرضیه * کوهن، جی، زمین گرد است، p>0.05 * هابارد، آر.، زمین به طور قابل توجهی گرد است (0001/0p<) [این یک نظر در مورد مقاله کوهن است] * اشمیت، هانتر، آیا مزایای NHST وجود دارد * Dienes، Z.، فصل 2،3 از درک روانشناسی به عنوان یک علم خب من سعی می کنم تا چند روز دیگر همانطور که @Glen_b پیشنهاد می کند محاسبه کنم. امیدوارم بتوانم نتایج خود را در اینجا ارائه دهم.
چگونه: P-value را حذف کنید و از رویکرد N-P در عمل استفاده کنید؟
71636
می خواستم بدونم که آیا خطاها همبستگی غیر صفر دارند، آیا حداقل مربعات وزنی در این مورد مناسب است؟
حداقل مربعات وزنی با همبستگی خطا
83269
من مطمئن نیستم که چگونه از تکالیف به این مشکل نزدیک شوم. تنها معادله ای که من برای محاسبه احتمال دارم این است که هر نتیجه در فضای نمونه فرصت برابر داشته باشد. موارد زیر فرصت برابر نیست درست است؟ یک کشو شامل 6 جوراب قرمز، 4 جوراب سبز و 2 جوراب مشکی است. دو جوراب به صورت تصادفی انتخاب می شوند. احتمال تطابق آنها چقدر است؟
چگونه احتمال هماهنگی جوراب را از کشو محاسبه کنیم؟
105523
بسیاری از تکنیک های یادگیری ماشین از نفرین حداقل های محلی رنج می برند، یکی از آنها K-means است. من از یک اسکریپت متلب برای کار بینایی کامپیوتر استفاده می کنم. یکی از اولین گام‌هایی که انجام می‌دهم، خوشه‌بندی kmeans روی یک تصویر در نمایش رنگ آزمایشگاهی است، من فقط اجزای ab را در نظر می‌گیرم. بنابراین من پیکسل‌هایم را مجموعه‌ای از نقاط داده ab بدون استفاده از اطلاعات هندسی (مثلاً مکان پیکسل) پیکسل‌ها می‌دانم. با این حال، حدس می‌زنم اینها جزئیات کمتر مهمی هستند. در اصل من فقط k-means را انجام می دهم. الگوریتم _آماری غیر قطعی_ من (بخوانید اسکریپت Matlab) می تواند یک نتیجه (c) درست یا یک (w) نتیجه اشتباه بدهد. خوشبختانه، (c) بیشتر اتفاق می‌افتد، اما (w) نیز اتفاق می‌افتد:(. من فقط می‌توانم این را با دست تأیید کنم، کامپیوتر کم و بیش نمی‌داند که پاسخ اشتباهی را محاسبه کرده است. با این حال، خطای نهایی k- میانگین به نظر می رسد کمی است، اما به طور مداوم در مورد (w) در مقایسه با (c) این نتیجه اجرای چندین بار الگوریتم روی یک تصویر با پارامترهای یکسان است (k=7). عبارت است از: تکرار 1، 36 تکرار، مجموع فاصله ها = 1.53591e+06، مجموع فاصله ها = 1.54903e+06، مجموع کل فاصله ها فواصل = 1.53591e+06. 129 تکرار، مجموع فواصل = 1.54903e+06، مجموع فواصل = 1.53591e+06 ، مجموع کل فواصل = 1.53591e+06 تکرار 1، 80 تکرار، مجموع فاصله ها = 1.54903e+06. تکرار 1، 106 تکرار، مجموع کل فواصل = 1.54903e+06. تکرار 1، 125 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 120 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 128 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 108 تکرار، مجموع کل فواصل = 1.54903e+06. تکرار 1، 129 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 112 تکرار، مجموع کل فواصل = 1.54903e+06. تکرار 1، 120 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 121 تکرار، مجموع کل فاصله ها = 1.54903e+06. اجراها منجر به (w): تکرار 1، 80 تکرار، مجموع کل فاصله ها = 1.61651e+06. تکرار 1، 33 تکرار، مجموع کل فواصل = 1.61651e+06. تکرار 1، 62 تکرار، مجموع کل فواصل = 1.62508e+06. بنابراین غریزه من به من می گوید که احتمال قبلی a (c) بسیار بیشتر از a (w) است که خوب است. از آنجایی که اکنون می توانم k-means n بار را تکرار کنم و در نتیجه یک الگوریتم nxk-means ایجاد کنم و نتیجه را با کمترین خطای نهایی انتخاب کنم. این به احتمال زیاد منجر به (c) خواهد شد. با این حال، این یک راه حل نسبتاً خام به نظر می رسد. آیا راه‌های هوشمندانه‌تر/سریع‌تر/آماری _صداتر_ برای مقابله با بهینه محلی در k-means وجود دارد؟
از حداقل های محلی در کیلومترها اجتناب کنید
107672
من روی یک مجموعه داده با ابعاد بالا (1776 متغیر) کار می کنم. وقتی فایل csv را می خوانم، R متغیرها (با مقادیر 0 یا 1) را به عنوان کلاس عدد صحیح بارگذاری می کند. آیا تبدیل این متغیرها به فاکتورها قبل از ساخت مدل های پیش بینی مهم است (به عنوان مثال gbm، randomForest، SVM، و غیره)؟ اگر بخواهم از PCA برای کاهش بعد استفاده کنم، آیا درست است که این متغیرها را به عنوان عدد صحیح نگه دارم؟ (از آنجایی که PCA با متغیرهای فاکتور کار نمی کند). به سلامتی
آیا تبدیل متغیرهای عدد صحیح (با مقادیر 0 یا 1) به فاکتور مهم است؟
33995
آیا کسی می تواند به من بگوید که در چه شرایطی تخمین های بتا بین lm و lmer با یک رهگیری تصادفی متفاوت است؟ من با موقعیتی مواجه شدم که در آن اثر ثابت به طور قابل توجهی متفاوت بود. من فکر کردم که خطاهای std باید تغییر کند اما اثرات ثابت باید بدون تغییر باقی بمانند. به نظر نمی رسد این تفاوت به دلیل داشتن اندازه های مختلف خوشه یا داشتن تعداد زیادی خوشه با یک مشاهده باشد. من نمی توانم داده ها را ارائه کنم اما یک مثال ساده را در زیر ساخته ام. در این حالت همبستگی درون خوشه ها باید ناچیز باشد. کتابخانه (lme4) x=c(rep(0,10),rep(1,10)) y=rnorm(طول(x),mean=3100,sd=400)-200*x m=c(1,2, 3،4،4،6،7،8،8،10،11،12،13،14،15،16،17،18،20،20) خلاصه (lm(y~x)) خلاصه (lmer(y~x+(1|m)))
آیا تخمین بتا نباید همیشه با استفاده از lm و lmer یکسان باشد؟
71635
به عنوان مثال، اگر چبیشف $P(|X-\mu|\geq k\sigma)\leq را 0.25$ بگوید و احتمال واقعی برای $k=2$ نیز 0.25$ باشد.
اگر کران بالای چبیشف همان مقدار محاسبه احتمال واقعی را بدهد، چه نتیجه ای می توانیم بگیریم؟
107679
فرض کنید سن معمولاً با میانگین 20 و انحراف معیار 5 توزیع می‌شود. چگونه مطمئن می‌شوید که وقتی سن را از این توزیع نمونه‌برداری می‌کنید، فقط مقادیر مثبت دریافت می‌کنید؟ من سعی می کنم داده های از دست رفته را نسبت دهم. من فرض می کنم که MAR است (به طور تصادفی گم شده است) زیرا گم شدن به جنسیت بستگی دارد. سن های گمشده هم از مرد و هم از زن است. بنابراین من از دو توزیع نرمال (یکی برای مردان و دیگری برای زنان) نمونه برداری می کنم.
چگونه می توان در هنگام وارد کردن داده ها فقط مقادیر مثبت را بدست آورد؟
71639
مقدار مورد انتظار برای واریانس نمونه برای نمونه‌ای که از نمونه‌گیری تصادفی ساده بدون جایگزینی گرفته شده است، چیست، به عنوان مثال، چگونه نشان دهیم که $$\mathrm{E}(s^2) = \sigma^2 \frac{N}{ N-1}$$ آیا فرض من این فقط برای نمونه‌های SRS بدون جایگزین صادق است؟ در یک یادداشت مرتبط، واریانس نمونه از دو عدد چگونه است، $x_1، x_2$ برابر با $((x_1-x_2)^2)/2$ همان نماد در این صفحه وب، http://www استفاده می‌شود. .utdallas.edu/~serfling/handouts/ExpValSampVar.pdf
اثبات اینکه $\mathrm{E}(s^2) = \sigma^2 \cdot N/(N-1)$
58849
من از بسته R Forecast استفاده کرده ام که برای ایجاد مدل های ETS و Arima مناسب استفاده کرده ام. من به راحتی می توانم در R با استفاده از بسته Forecast پیش بینی کنم اما باید بتوانم با استفاده از جاوا اسکریپت در داخل مرورگر پیش بینی کنم. یک مثال کوچک کار شده واقعاً به من در کار ریاضی کمک می کند. چگونه می توانم مدل ETS و ARIMA را به عنوان مجموعه ای از معادلات پیاده سازی کنم؟ ets(y = جسم) پارامترهای هموارسازی: آلفا = 0.376 گاما = 1e-04 حالت های اولیه: l = 155.9654 s=26.8689 16.1568 6.5561 -3.4351 -22.9801 -22.9801 -35.9801 -22.9801 -35.933 -35. 16.3216 6.0061 20.9192 25.2434 سیگما: 0.0277 ARIMA(0,0,0)(0,1,0)[12] sigma^2 تخمین زده شده به عنوان 62.5: log likelihood=-83.68
اجرای پیش بینی ETS و ARIMA
83264
من چگالی شرطی زیر را دارم: $$ P(x | \theta, \pi) = \prod_{i=1}^I \prod_{j=1}^J t_{ij}! \prod_{k=1}^K \frac{1}{x_{ijk}!}(\sum_{l=1}^L \theta_{il} \pi_{jkl})^{x_{ijk}} $ $ در اینجا، $x$ داده (مشاهده شده) است. $\theta$ و $\pi$ پارامترهای پنهانی هستند که مشاهده نمی شوند. در نهایت، $t_{ij}$ ثابتی است که از داده ها محاسبه می شود. هدف کلی من این است که پارامترهای پنهان ($\theta$ و $\pi$) را با توجه به داده ها ($x$) استنتاج کنم. اساساً $P(x | \theta, \pi)$ حاصل ضرب چندجمله‌ای I*J است. پارامترهای هر چند جمله ای توسط $\theta$ و $\pi$ کنترل می شوند. من این متغیرها را به اختصار توضیح خواهم داد. اول، $\theta_i$ یک بردار احتمال به طول L است. به عبارت دیگر، برای همه $i$، داریم: $$ \sum_{l=1}^L \theta_{il} = 1 $$ The $\ متغیرهای pi$ متغیرهای شاخص هستند. برای یک $j$ و $k$ معین، آنها به شما می گویند که کدام $\theta_{il}$ را باید در جمع قرار دهید. به طور شهودی، هر چند جمله ای از کل قطعات K$ ساخته شده است. برای هر قسمت $k$، همه $\theta_{il}$ ممکن را تکرار می‌کنیم و انتخاب می‌کنیم که کدام‌ها شامل شوند. چند محدودیت ساده روی متغیرهای $\pi$ وجود دارد. برای یک $j$ و $l$ معین، فقط یک $k$ وجود دارد که $\pi_{jkl}$ غیر صفر است. نتیجه این است که: $$ \sum_{k=1}^K \sum_{l=1}^L \theta_{il} \pi_{jkl} = 1 $$ امیدوارم این توضیح خوب باشد. به هر حال، هدف من استنتاج پارامترهای پنهان $\theta$ و $\pi$ است. من امیدوار بودم که بتوانم این کار را با EM انجام دهم. مشکل من این است که با توجه به $\pi$ و $x$، من نمی دانم چگونه متغیرهای $\theta$ را به روز کنم. من سعی کردم $P(x | \theta, \pi)$ را بیش از $\theta$ به حداکثر برسانم، اما با مشکل مواجه شدم زیرا $\theta_{il}$ها همه وابسته هستند (زیرا مجموع آنها باید برابر با 1 باشد). این باعث می شود محاسبه مشتق بسیار دشوار باشد. من امیدوار بودم که کسی بتواند به من مشاوره دهد یا در مسیر درست به من اشاره کند. همچنین، اگر مردم بتوانند راه‌حل‌های دیگری را پیشنهاد کنند، واقعاً ممنون می‌شوم. در حال حاضر، من به دنبال نمونه برداری از توزیع پسین پارامترها (با توجه به داده ها) هستم، اما باید مطالعه بیشتری انجام دهم تا به طور کامل بفهمم که چگونه این کار می کند. اگر کمک کند می‌توانم یک دیریکله را روی $\theta$ و یک لباس مجزا را روی $\pi$ قرار دهم. با تشکر
EM در حاصلضرب چندجمله ای
2059
به نظر می رسد که MLE (از طریق EM) به طور گسترده در یادگیری ماشین / آمار برای یادگیری پارامترهای مخلوطی از گاوسیان استفاده می شود. من فرض می کنم که نمونه های تصادفی از مخلوط به ما داده می شود. سوال من این است: آیا از نظر تعداد نمونه ها (و شاید پارامترهای گاوسی) حد و مرز _کمی_ اثبات شده ای روی خطا وجود دارد؟ به عنوان مثال، زمان اجرا مورد نیاز برای تخمین پارامترها تا یک خطای خاص چقدر است؟ در حالت ایده‌آل، این محدوده‌ها فرض نمی‌کنند که ما در یک محله محلی از راه‌حل بهینه یا هر چیز دیگری شروع می‌کنیم. (اگر EM روش انتخابی نیست و راه بهتری برای انجام آن وجود دارد، لطفاً به این موضوع نیز اشاره کنید.)
پارامترهای یادگیری مخلوطی از گاوسی با استفاده از MLE
15670
من چندین بار سعی کرده‌ام به تنهایی پیش بروم - اما با موفقیت محدود. من یک کاربر معمولی SPSS و تجربه SAS هستم. از یک یا دو اشاره گر از کسی که سابقه مشابهی دارد و اکنون از R استفاده می کند سپاسگزارم.
بهترین راه برای شروع و یادگیری R
78018
بگویید من دو متغیر عاملی دارم، X و Y که هر کدام دارای 3 سطح هستند. با این حال، X==3 اگر و فقط اگر Y==3 باشد، در حالی که چنین ارتباطی برای X,Y==1,2 برقرار نیست. در این حالت، در حالی که X و Y زائد نیستند، ماتریس طراحی من، هنگامی که گسترش می‌یابد، شامل همان ستون دو بار خواهد بود (0 در همه جا، به جز 1 که در آن X==Y==3). این خوب نیست. از نظر تئوری، مشکلی وجود ندارد: فقط یکی از ستون های اضافی را حذف کنید. با این حال، من نمی خواهم پیش بروم و کل رگرسیون خطی را فقط برای این مورد دوباره اجرا کنم. آیا ترفند فنی یا نظری وجود دارد که همچنان به من اجازه می دهد از `lm` R استفاده کنم؟
مدیریت سطوح متغیر عامل زائد برای رگرسیون خطی در R
33993
من در حال ایجاد یک موتور جستجو هستم که مجموعه آن شامل وب سایت هایی است که از طریق یک وب خزنده (Apache Nutch) خزیده شده اند. من نیاز دارم که جستجوهای پرس و جو سریع و مرتبط باشند. تا کنون، من در تلاش برای توسعه یک سیستم نمایه سازی معنایی پنهان بوده ام، اما اخیراً مقاله ای را خواندم که به من گفت که LSA برای آنها مفید نبوده است. اساسا، LSA از تقریب k-rank تجزیه مقدار منفرد ماتریسی استفاده می کند که ابعاد آن اسناد و فرکانس وزنی (IDF، TF-IDF، باینری و خام) است. آیا کسی الگوریتم داده کاوی بسیار بهتری را می شناسد که بتوانم از آن استفاده کنم؟ از طریق تجربه شخصی خودتان؟ من فقط حدود 2 هفته برای این پروژه فرصت دارم و باید مطمئن شوم که می توانم آن را به درستی به پایان برسانم.
آیا یک رویکرد نمایه سازی متفاوت می تواند ارتباط و کارایی نتایج موتورهای جستجو را بهبود بخشد؟
58840
چگالی توزیع GED توسط \begin{align} GED(l;\mu,\beta,\nu)&=\frac{\nu \exp\left[-(\frac{1}{2}) داده می‌شود. \left|\frac{l-\mu}{\beta \lambda}\right|^\nu \right]} {\lambda 2^{(1+1/\nu)}\beta\Gamma (1/\nu)} \end{align} که در آن $\Gamma(\cdot)$ تابع گاما است و \begin{align*} \lambda&=\left[ 2^{(-2/\nu)}\ Gamma(1/\nu) / \Gamma(3/\nu)\right]^{\frac{1}{2}} \end{align*} چگونه واریانس را محاسبه کنیم؟
چگونه واریانس توزیع GED را محاسبه کنیم؟
107671
من در حال حاضر در تلاش برای تجزیه و تحلیل برخی از داده های مردمک سنجی هستم. دستگاهی که استفاده می‌کنم اندازه‌گیری X و Y از ناحیه مردمک را به من می‌دهد (که از آن مساحت کل را از طریق $A = \pi \times \left(\frac{d}{2}\right)^2$ محاسبه می‌کنم. نمودار X-Y داده های من به این صورت است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0ey0a.png) در خاکستری می توانید نقاط داده خام من را ببینید. همانطور که می بینید، اگرچه به نظر نمی رسد این اثر به شدت بر ابزار شرکت کننده تأثیر بگذارد، انحراف جزئی از خط رگرسیون در ربع سمت راست بالای شکل وجود دارد. **سوال من این است**: در چنین شرایطی، آیا $d=X$ یا $d=\frac{X+Y}{2}$ اندازه گیری مطمئن تری به من می دهد؟
از اندازه گیری های بیشتر با کیفیت پایین تر استفاده می کنید یا فقط اندازه گیری هایی با بهترین کیفیت؟
5899
برای عنوان مبهم متاسفم - دلیلش این است که من نمی دانم در مورد چه چیزی صحبت می کنم. تصور کنید کمیته ای متشکل از افرادی که مسئول استخدام یک مدیر عامل هستند. یکی از اعضای کمیته می تواند برای یک کاندیدای بالقوه مدیرعامل، رای «عدم استخدام» (+0)، «شاید» (+1)، «استخدام» (+2) بدهد. به هر مدیر عامل بر اساس آرا امتیاز داده می شود و مدیر عاملی که بالاترین امتیاز را داشته باشد استخدام می شود. حال، وضعیتی را تصور کنید که دو نامزد مساوی باشند... هر دوی آنها امتیاز 5 دارند. با این حال، نامزد 1 دارای 2 استخدام و 1 شاید (یعنی 2+2+1) بود، در حالی که نامزد 2 دارای 5 شاید (یعنی 1+1+) بود. 1+1+1). سوال من اینجاست: * به طور شهودی، فکر می‌کنم می‌توانیم بگوییم که در صورت مساوی بودن امتیازات، در مورد نامزد 1 اطمینان بیشتری داریم. من در اینجا با چه حوزه خاصی از آمار سروکار دارم (تا بتوانم خودم تحقیق کنم) * در آمار، چگونه می توان چنین موقعیت هایی را حل کرد؟ و من فقط در مورد حل مشکل صحبت نمی کنم ... بلکه، چگونه می توان این را به شیوه ای عمومی حل کرد؟ متشکرم.
یک سوال اساسی در سیستم رای گیری
33999
من در حال حاضر در حال تجزیه و تحلیل داده های یک فروشگاه اینترنتی بزرگ با بیش از 31000 فروشنده کالا هستم، یعنی هر فروشنده اقلامی را از طریق فروشگاه اینترنتی می فروشد. نکته جالب این است که ما جنسیت این فروشندگان (=افراد) و دسته بندی محصولات آنها را می دانیم. اکنون، می‌خواهیم ببینیم که آیا تفاوت‌های جنسیتی وجود دارد یا خیر، یعنی می‌خواهیم آزمایش کنیم که آیا مردان اقلام بیشتری یا کمتری نسبت به زنان یک دسته خاص می‌فروشند و آیا این تفاوت‌ها قابل توجه است. این یک نمودار از داده ها است: ![http://i.stack.imgur.com/sitxf.png.](http://i.stack.imgur.com/I8srB.png) سوالی که اکنون دارم این است کدام آزمون آماری برای این نوع تحلیل مناسب است؟ تا کنون من از آزمون مجذور کای استفاده می کردم تا ببینم آیا توزیع در همه دسته ها به طور قابل توجهی بین مردان و زنان متفاوت است. حالا می‌خواهم بدانم: کدام آزمون آماری معتبر است تا به من نشان دهد که به عنوان مثال دو توزیع بین مردان و زنان رده پوشاک نیز معنی‌دار است؟
اگر بخواهم ببینم دو گروه در بسیاری از دسته ها با یکدیگر متفاوت هستند، چه آزمونی را باید انتخاب کنم؟
18446
برای انتخاب فرکانس موثر فیلتر پایین گذر، باید عرض پنجره (دهانه) یک فیلتر صاف کننده LOESS را تغییر دهم. هنگامی که از Savitzky-Golay برای صاف کردن استفاده می کردم، این گزارش فنی را پیدا کردم که اندازه پنجره را به فرکانس مرتبط می کرد، اما چیزی مشابه آنلاین برای LOESS پیدا نکردم. مقادیر LOESS مشابه مقادیر S-G خواهد بود، اما آیا اطلاعات خاصی در دسترس است (برای Tricube یا هر تابع وزن دیگری)؟ از طرف دیگر آیا یک محاسبه (بسته به تابع وزن) وجود دارد که بتواند فرکانس قطع S-G را به LOESS تبدیل کند؟
فرکانس قطع موثر برای هموارسازی LOESS
18447
به دنبال سوال من در اینجا، **چه زمانی مناسب است (یا نامناسب) r را برای یک همبستگی خطی دو متغیره مجذور گزارش کنیم. ** همانطور که در سوال قبلی توضیح داده شد، r = 0.74 که منجر به r مجذور 55٪ می شود. اندازه r یک نتیجه عالی است، اما وقتی r مجذور در نظر گرفته شود (مخصوصاً زمانی که 45٪ از واریانس در متغیر وابسته غیرقابل توضیح باقی بماند)، به نوعی پیام را رقیق می کند. همانطور که در پاسخ به سوال قبلی اشاره شد، من درک می کنم که برای یک عامل به آسانی امکان توضیح همه تغییرات وجود ندارد. فکر می‌کنم همه کتاب‌های درسی آماری که من با آنها مشورت کرده‌ام (مگر اینکه کتاب‌های اشتباهی را مطالعه کرده‌ام) بیان می‌کنند که r مربع روش بهتری برای درک r (یا اندازه اثر) است. من متوجه هستم که r حداقل 0.71 برای بدست آوردن r مجذور 50٪ مورد نیاز است. **سوالات** 1. آیا گزارش هر دو مجذور r و r یک عمل خوب (در تحقیقات علوم اجتماعی) است؟ 2. چه زمانی نمی توانم r مربع را گزارش کنم؟ من Q2 را به منظور اجتناب از موقعیتی مانند موارد بالا، که در آن مخاطبان هدف غیرآماری من ممکن است بیشتر بر روی 45٪ واریانس غیرقابل توضیح تمرکز کنند، به جای 55٪ واریانس توضیح داده شده، درخواست کرده ام.
گزارش $R^2$
83261
من یک مدل رگرسیون دارم که شبیه زیر است. $$ Y = \beta_0 + \beta_1T + \beta_2T^2 + \beta_3T^3 + \beta_4D + \beta_5D*T + \beta_6D*T^2 + \beta_7D*T^3 $$ جایی که T یک زمان است متغیر، که از 0 شروع می شود - نقطه شروع، و T^2 و T^3 چند جمله ای های طبیعی T هستند. D یک متغیر ساختگی است. «T»، «T^2» و «T^3» بسیار هم خط هستند. برای کاهش هم خطی، یکی از گزینه های ممکن استفاده از چند جمله ای متعامد است. با این حال، یک مشکل من در استفاده از چندجمله‌ای متعامد این است که فاصله رگرسیون چند جمله‌ای متعامد دیگر مقدار پیش‌بینی‌شده «Y» در «T = 0» نیست (و زمانی که «D = 0»). من به دلیل اهمیت نظری، برای نشان دادن مقدار میانگین «Y» در «T = 0» به شدت نیاز دارم. ### بنابراین سوالات من این است: ### 1). آیا می توان چند جمله ای های متعامد را به نحوی در مرکز قرار داد (مثلاً تمرکز حول مقدار کمینه؟ با توجه به اینکه یک ترم درجه دوم و یک ترم مکعب درگیر هستند، به درستی انجام شود. ### 2). اگر پاسخ سوال قبلی خیر است، نمی‌دانم آیا راه‌های جایگزینی وجود دارد که بتوانم با چند خطی بودن کنار بیایم در حالی که وقفه به معنای آن چیزی است که می‌خواهم - یعنی B0 = میانگین Y زمانی که T = 0 ( و D = 0).
آیا می توان چند جمله ای های متعامد را در رگرسیون چندگانه مرکز کرد؟