_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
93206
|
اگر دو پزشک هر کدام در 55 درصد موارد بیماری را به درستی تشخیص دهند و هر دو در مورد خاصی موافق باشند که بیماری وجود دارد، احتمال بیماری چقدر است؟ حتما بالای 55 درصده؟
|
احتمال طبقه بندی با توجه به دو مشاهدات
|
73727
|
آنتروپی توزیع معکوس-ویشارت چیست؟ من فقط به یک مرجع نیاز دارم، اما اشتقاق (به عنوان مثال استفاده از ویژگی معکوس) نیز جالب خواهد بود.
|
آنتروپی توزیع معکوس-ویشارت
|
70137
|
من می خواهم با استفاده از `arima(1 1 1)` پیش بینی کنم. من همه کارها را انجام داده ام اما وقتی از کد R استفاده کردم: modelforecast <- forecast(model,2) خروجی می گوید: خطا در .cbind.ts(list(e1, e2), c(deparse(substitute(e1))[1L ]، deparse(substitute(e2))[1L])، : همه سری ها فرکانس یکسانی ندارند آیا کسی می تواند به من کمک کند که چگونه این مشکل را برطرف کنم؟
|
پیش بینی با استفاده از arima(1 1 1)
|
55931
|
من دو متغیر عادی X و Y مشترکاً با میانگین هر دو صفر و واریانس $\sigma^2_{X}$ و $\sigma^2_{Y}$ به طور جداگانه دارم، کوواریانس $\sigma_{XY}$ است. اکنون می خواهم مقدار مورد انتظار $Z=X*Y^{2}$, $E(Z)$ را محاسبه کنم. هر ایده ای؟ با تشکر
|
مقادیر مورد انتظار (X*Y^2) زمانی که X و Y به RVهای توزیع شده عادی وابسته هستند
|
74714
|
من داشتم این مقاله مربوط به مدل های موضوعی مرتبط را می خواندم. با این حال، من این رقم همبستگی را درک نکردم. در شکل زیر، من در مورد منحنی های سطح نشان داده شده در سیمپلکس گیج شده ام. در حالت اول می گوید که کوواریانس قطری با میانگین غیر صفر وجود دارد. در مورد دوم می گوید بین مولفه های 1 و 2 همبستگی منفی وجود دارد. در مورد سوم می گوید بین 1 و 2 همبستگی مثبت وجود دارد. من نفهمیدم چطور اینطور تعبیر کردند در شکل زیر، موضوعات همانطور که میگوید با هم مرتبط نیستند اما من متوجه نشدم چرا اینطور است؟ آیا کسی می تواند به من اطلاعاتی بدهد؟
|
سردرگمی مربوط به همبستگی در مدل های موضوعی
|
73090
|
من به دنبال انجام یک آزمایش ناپارامتریک برای روند روی یک نتیجه پیوسته در سه گروه، ترجیحاً در پایتون هستم. به عنوان مثال قد (تظاهر به قد طبیعی نیست) در کلاس های چهارم، پنجم و ششم. من می خواهم چیزی شبیه به روش Cuzick پیاده سازی کنم. Scipy دارای مجموع رتبه Wilcoxon و سایر روشهای ناپارامتریک است اما فقط برای دو گروه. به طور مشابه، Scipy یک روش Kruskal-Wallis برای سه گروه دارد اما جهت یا روند را نشان نمی دهد. آیا چیزی شبیه به این برای کاوش روند جهت دار در سه گروه وجود دارد؟ * * * برای روشن شدن، سعی می کنم تعیین کنم که آیا تغییر قابل توجهی در یک صفت پیوسته اندازه گیری شده در سه گروه وجود دارد یا خیر. اندازه گروه ها بسیار متفاوت خواهد بود: گروه 1 دارای 1000 نمونه است و احتمالاً به طور معمول توزیع می شوند، گروه 2 نمونه های سیستم عامل 100، گروه 3 تا 10 یا کمتر. گروه 1 به عنوان گروه کنترل عمل می کند، و فرضیه من این است که مقدار میانگین گروه 1 در هر جهت نسبت به گروه 0 جابجا می شود و گروه 2 بیشتر **در همان جهت گروه 1** جابه جا می شود. . از آنجا که گروه 3 همیشه در مقایسه با گروه دیگر بسیار کوچک خواهد بود، غریزه من استفاده از روش های ناپارامتریک بود، اما من برای پیشنهادات دیگر آماده هستم. آیا کسی می تواند روشی برای کشف این نوع روند جهت دار پیشنهاد کند؟ با تشکر
|
تست ناپارامتریک برای روند با استفاده از پایتون
|
52929
|
چه روشی به من اجازه می دهد تا مقادیر متغیر مستقل را در جایی که دو (یا چند) مدل رگرسیون خطی واگرا از نظر آماری متفاوت هستند شناسایی کنم؟ به عنوان مثال دو مدل رگرسیون خطی ساده را در نظر بگیرید که از برخی آزمونهای آزمایشی مشتق شدهاند: $y_1 = -1x+100$ و $y_2 = -0.5x+100$. اینها می توانند دو نقطه زمانی را در رابطه دوز در مقابل بقا، یا دو ماده مختلف در رابطه دما و قدرت را نشان دهند.  در $x = 0$، دو مدل همان $y$ را می دهند. همانطور که از $x = 0$ دور می شوید، مقادیر $y_1$ و $y_2$ از هم متمایز می شوند، اما برای مدتی فواصل اطمینان آنها با هم تداخل پیدا می کند که نشان می دهد $y_1$ از $y_2$ در این منطقه قابل تشخیص نیست. با در نظر گرفتن رابطه دما و قدرت به عنوان مثال، این نشان می دهد که هیچ تفاوتی در استحکام دو ماده در این محدوده دما وجود ندارد. بنابراین، من میخواهم بتوانم این محدوده را محاسبه کنم، یا برعکس، محدوده مقادیر $x$ را زمانی که $y_1$ از نظر آماری با $y_2$ متفاوت است، شناسایی کنم. درک من از گروه های پیش بینی عالی نیست، اما فکر نمی کنم این راه حل باشد. تنها راه حلی که می توانم پیدا کنم این است که y$ و CI را در مقادیر گسسته x$ محاسبه کنم و یک سری تست را اجرا کنم. من به دنبال چیز شیک تر هستم!
|
آزمایش برای نشان دادن اینکه چه زمانی مدل های رگرسیون خطی واگرا از نظر آماری متفاوت هستند
|
52928
|
سوالات آمار من مربوط به مناسب بودن استفاده از تحولات مختلف متغیر یکسان در تجزیه و تحلیل های مختلف (در همان مطالعه بزرگتر) است. تحقیق من شامل بیان عاطفی به عنوان یک متغیر وابسته است. من به دنبال 1) تفاوت های اولیه بین کنترل های سالم (HCS) و افراد مبتلا به بیماری و 2) اثرات درمانی در گروه بیماری هستم (گروه های درمانی: HC-No-تحت درمان ، بیماری بدون درمان ، درمان 1 ، بیماری-درمان 2). هر آزمودنی در ابتدا، پس از درمان و پیگیری مورد ارزیابی قرار گرفت. ** هدف تحقیق 1. تفاوت های پایه بین گروه های وضعیت سلامت (کنترل سالم و بیماری). ** هنگام نگاه به داده های بیان احساسات ، در ابتدا ، توسط گروه وضعیت سلامت (2: کنترل سالم و بیماری) ، داده های خام نیست به طور معمول توزیع شده است (بر اساس Shapiro-Wilk). از آنجایی که تبدیل ریشه مربع توزیع را عادی می کند، من قصد داشتم از آزمون t (برخلاف من ویتنی) برای ارزیابی تفاوت های پایه بین گروه کنترل سالم و بیماری استفاده کنم. **هدف تحقیق 2. اثرات درمان.** هنگام مشاهده داده های بیان احساسات، بر اساس گروه درمان (HC، بیماری-بدون درمان، بیماری-درمان1، بیماری-درمان2) در هر زمان (بنایه، پست، پیگیری ، خام به طور معمول توزیع نمی شود (بر اساس Shapiro-Wilk). برای این گروه بندی ها، تبدیل ریشه دوم توزیع را عادی نمی کند. با این حال، یک تبدیل log10 توزیع را عادی می کند. سوال اصلی: آیا می توانم از تبدیل ریشه مربع برای هدف 1 و تبدیل متفاوت برای هدف 2 استفاده کنم (به عنوان مثال، log10 در ANOVA مدل مختلط، یا اگر در نهایت از آمار ناپارامتریک برای هدف 2 استفاده کنم)؟
|
آیا می توان در تحلیل های مختلف، تبدیل های متفاوتی را برای یک متغیر مشابه اعمال کرد؟
|
32314
|
من یک مدل خطی تعمیم یافته با یک متغیر پاسخ واحد (پیوسته/عادی توزیع شده) و 4 متغیر توضیحی (3 تای آنها عامل و چهارمی یک عدد صحیح) ساخته ام. من از توزیع خطای گاوسی با تابع پیوند هویت استفاده کرده ام. آیا باید چند خطی بودن و تعامل بین متغیرهای توضیحی را بررسی کنم؟ اگر بله، چگونه می توانم این کار را با متغیرهای توضیحی طبقه بندی انجام دهم؟
|
چگونه می توان با چند خطی بودن و تعاملات بین IV ها در مدل های خطی تعمیم یافته کنار آمد؟
|
52927
|
فرض کنید جدولی مانند این داریم: \begin{array}{ |l | ج | r |} \hline & \mathrm{win} & \mathrm{lose} \\\ \hline \mathrm{male} & X_{11} & X_{12} \\\ \hline \mathrm{female} و X_{ 21} & X_{22} \\\ \hline \end{array} $%![توضیح تصویر را اینجا وارد کنید][1]$ و ما میخواهیم بدانیم که برد یا باخت بستگی دارد در مورد جنسیت (مرد یا زن) به غیر از آزمون کای دو برای استقلال، از کدام آزمون های ناپارامتریک می توانیم استفاده کنیم؟ با تشکر
|
آزمون ناپارامتریک جایگزین برای آزمون کای دو برای استقلال
|
78844
|
چه چیزی را به عنوان یک گالری جامع از تکنیک های ارائه داده پیشنهاد می کنید؟ منبعی که می تواند برای ارجاع به آن استفاده شود، در حالی که در فکر راه های بهتر ارائه داده های خود هستید؟ من موارد زیر را شناسایی کرده ام، اما خوشحال می شوم اگر بتوانید گالری های خود را اضافه کنید: گالری های آنلاین: * http://www.mathworks.com/discovery/gallery.html * http://www.idlcoyote.com/gallery/ * https://developers.google.com/chart/interactive/docs/gallery?csw=1 * http://www.walkingrandomly.com/?p=4788 * http://en.wikipedia.org/wiki/Category:Statistical_charts_and_diagrams (گالری گرافیکی یک صفحه ای ارائه نمی دهد) * http://docs.ggplot2.org /current/ * http://www.itl.nist.gov/div898/handbook/graphgal.htm * http://scikit-learn.org/stable/auto_examples/index.html کتاب ها (نقشه های پراکنده در صفحات): * Edward R. Tufte, _The Visual Display of Quantitative Information_ * Nathan Yau, _Data Points_
|
گالری از نمودارها، نمودارها و انواع نمودارها
|
52922
|
من میخواهم شبکهها/گرافهایی را فیلتر کنم که فقط یک جامعه هستند و نه جوامع به هم پیوسته. هر جامعه می تواند یک نمودار تصادفی یا یک گراف ستاره ای باشد، اما ساختار جامعه نباید وجود داشته باشد. با توجه به اینکه این مجموعه دادهها میتوانند دارای اجتماعات متعدد با تعداد متفاوتی از لبهها باشند که آنها را به یکدیگر متصل میکنند یا گرههایی که به عنوان جزایر پل عمل میکنند، تعریف ضعیف است. (این شبکه ها متصل هستند) من به دنبال شبکه هایی بودم که میانگین طول مسیر برای حداقل 10% گره ها بیشتر از 2 باشد. من از MATLAB استفاده می کنم و هرگونه ارجاع به کتابخانه های مفید قابل قدردانی است.
|
ویژگی های آماری یک شبکه/گراف بدون ساختار جامعه چیست؟
|
104860
|
فرض کنید یک مجموعه آموزشی از نقاط دو بعدی به ما داده شده است که به صورت خطی غیرقابل تفکیک هستند. من یک SVM باینری را با یک هسته RBF آموزش می دهم تا آنها را طبقه بندی کنم. کاری که می خواهم انجام دهم ترسیم مرز تصمیم است. هسته SVM من به یک تابع تصمیم گیری منتهی می شود: $$ f(\mathbf{x})=\sum_{i=1}^{N_s}\alpha_i y_i k(\mathbf{x}, \mathbf{ x}_i)+b، $$ که در آن $N_s$ تعداد بردارهای پشتیبانی است، $\mathbf{x}_i$، $\alpha_i$ و $y_i$ به ترتیب بردار پشتیبان $i$-امین، ضریب لاگرانژی مثبت مربوطه و برچسب حقیقت مرتبط هستند. من از بسته LIBSVM برای آموزش SVM استفاده می کنم، بنابراین همه موارد فوق از فایل مدل ایجاد شده مشخص می شوند. اگر تابع تصمیم بالا را گسترش دهیم، می بینیم که این مجموع گاوسیان است که در بردارهای پشتیبانی متمرکز شده است، به عنوان مثال، $$ f(\mathbf{x})=\sum_{i=1}^{N_s}\alpha_i y_i \operatorname{exp}\left(-\gamma\lVert\mathbf{x}-\mathbf{x}_i\rVert^2\right)+b، $$ جایی که $\gamma=\frac{1}{2\ sigma^2}>0$ یک پارامتر تعریف شده توسط کاربر است. چگونه می توانم در همان فضای داده های ورودی خود (فضای دو بعدی اقلیدسی)، خطوط تابع تصمیم را رسم کنم؟ میشه لطفا چند معادله یا ایده بفرمایید؟ من بعضی چیزها را امتحان کردم، اما شانسی نداشتم! خیلی ممنون
|
ترسیم مرز تصمیم یک هسته SVM (RBF)
|
74711
|
فرض کنید من یک تابع تولید لحظه مشترک $M_{X,Y}(s,t)$ برای توزیع مشترک با CDF $F_{X,Y}(x,y)$ دارم. آیا $M_{X,Y}(s,t)=M_{X,Y}(s,0)⋅M_{X,Y}(0,t)$ هم شرط لازم _و هم کافی برای استقلال X$ است و $Y$؟ به نظر میرسد که یادم میآید که اینطور است، اما من چند کتاب درسی خود را بررسی کردم و آنها فقط به _ضرورت_ اشاره کردند: $$F_{X,Y}(x,y)=F_X(x)\cdot F_Y(y) \implies M_{ X,Y}(s,t)=M_X(s) \cdot M_Y(t)$$ این نتیجه همانطور که استقلال دلالت دارد واضح است $M_{X,Y}(s,t)=\mathbb{E}(e^{sX+tY})=\mathbb{E}(e^{sX}) \mathbb{E}(e^{tY })$. از آنجایی که MGFهای حاشیه ها توسط MGF مشترک تعیین می شوند، داریم: $$X,Y\text{مستقل} \implies M_{X,Y}(s,t)=M_{X,Y}(s,0) ⋅M_{X,Y}(0,t)$$ اما پیدا کردن مرجعی برای معکوس - یا مثال متقابل برایم سخت بود! کمی در گوگل یک صفحه قدیمی Tennessee Tech پیدا شد که بدون مدرک یا استناد میگوید «معلوم است که» این موضوع درست است، که چندان اطمینانبخش نبود! آیا طرح زیر قابل اجرا است؟ با توجه به یک MGF مشترک $M_{X,Y}(s,t)$، این به طور منحصر به فرد توزیع حاشیه ای $X$ و $Y$ و MGF های آنها، $M_X(s)=M_{X,Y}(s) را تعیین می کند. ,0)$ و $M_Y(t)=M_{X,Y}(0,t)$. حاشیه ها به تنهایی با بسیاری از توزیع های مشترک احتمالی دیگر سازگار هستند و به طور منحصر به فرد توزیع مشترکی را تعیین می کنند که در آن $X$ و $Y$ مستقل هستند، با CDF $F_{X,Y}^{\text{ind}}(x, y)=F_X(x) \cdot F_Y(y)$ و MGF: $$M_{X,Y}^{\text{ind}}(s,t) = M_X(s) \cdot M_Y(t) = M_{X,Y}(s,0)⋅M_{X,Y}(0,t)$$ بنابراین اگر به ما داده شود، برای MGF اصلی ما، آن $M_{X,Y }(s,t) = M_{X,Y}(s,0)⋅M_{X,Y}(0,t)$، برای نشان دادن $M_{X,Y}(s,t) = کافی است M_{X,Y}^{\text{ind}}(s,t)$. سپس با یکپارچگی MGFها، توزیع مشترک اصلی ما دارای $F_{X,Y}(x,y) = F_{X,Y}^{\text{ind}}(x,y) = F_X(x) \ cdot F_Y(y)$ و $X$ و $Y$ مستقل هستند.
|
شرط لازم و کافی در MGF مشترک برای استقلال
|
77234
|
من می خواهم اثرات تجمعی آلودگی هوا بر مرگ و میر را با استفاده از روش های GLM یا Gam تخمین بزنم. با کد R زیر توانستم اثر تجمعی PM10 بر مرگ و میر را تخمین بزنم که 0.001513801 برآورد می شود (1.51٪ افزایش در مرگ و میر برای افزایش 10 ug/m3 در PM10). سوال من این است که چگونه می توانم بسازم خطای استاندارد کل را برای تخمین ها از تاخیر 0 تا 4 دریافت کنم و فاصله اطمینان 95% را برای برآورد تجمعی ایجاد کنم؟ آیا جمع کردن خطاهای استاندارد درست مانند تخمین های بتا از خروجی از نظر آماری معتبر است؟ همچنین میخواهم بدانم آیا روشهای جایگزینی برای به دست آوردن کل برآوردها با خطاهای استاندارد وجود دارد یا خیر. library(dlnm) library(quantmod) chic <- chicagoNMMAPS fit <- glm(death ~ Lag(pm10, 0:4) + temp, data = chic, family = poisson) summary <- summary(fit) Call: glm(formula = مرگ ~ تاخیر (pm10، 0:4) + دما، خانواده = سم، داده = شیک) Deviance Residuals: Min 1Q Median 3Q Max -4.0461 -0.8594 -0.0705 0.7390 22.4579 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 4.749e+00 4.414e-03 1075.916 < 2e-16 *** تاخیر(pm10, 0:4) Lag.0 8.395e-04 8.362e-05 10.04 < 2e-16 *** تاخیر (pm10, 0:4) Lag.1 4.980e-04 8.993e-05 5.537 3.07e-08 *** Lag(pm10, 0:4) Lag.2 -2.279e-05 9.007e-05 -0.253 0.8103 Lag 0:4) تاخیر.3 2.198e-04 8.953e-05 2.455 0.0141 * تاخیر(pm10, 0:4) Lag.4 -2.068e-05 8.312e-05 -0.249 0.8035 دما -5.608e-5.608e-201-03-03-1-5 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson برابر با 1 در نظر گرفته شده است) برای به دست آوردن اثرات کل (انباشته) برای تاخیرهای 0 تا 4) : ردیف <- rownames(summ$coefficients) tot <- grep(pm10، rown, ثابت = درست) ضرایب <- summ$coefficients[tot , Estimate] مجموع <- sum(coefs) total [1] 0.001513801 بنابراین به طور خلاصه چگونه می توانم کل خطاهای استاندارد را برای تاخیر 0:4 دریافت کنم؟
|
چگونه می توان خطاهای استانداردهای تجمعی را از چندین مورد محاسبه کرد؟
|
25619
|
در نمونه ای از 250 بیمار قلبی که سکته قلبی داشته اند و به تازگی بیمارستان را ترک کرده اند، از آنها پرسیدم که دانستن چندین موضوع برای آنها چقدر مهم است، مانند چقدر برای شما مهم است که بدانید چه زمانی به سر کار برگردید، یا. زمان مراجعه مجدد به بیمارستان و غیره. پاسخهایی از «اصلا مهم نیست» تا «بسیار مهم» ارائه شد (مقیاس لیکرت با 5 پاسخ، با فرض اینکه همه پاسخها داشته باشند. فواصل برابر بین آنها). میخواهم بدانم: 1. چگونه میتوان با پاسخهای سؤالات بالا (به عنوان دستهبندی؟) رفتار کرد. 2. چگونه می توان به این موضوع نگاه کرد که آیا بین نوع سؤالات فوق و سؤالات دیگر طبقه بندی شده است یا خیر (مثلاً: چه کسی ترجیح می دهید به شما اطلاعات بدهد: الف-پزشک، ب-پرستار، ج-دیگر. یا سطح تحصیلات: a-سطح ابتدایی، ب-سطح متوسطه، c-لیسانس یا معادل d-مدرک فوق دیپلم). این پرسشنامه دارای هیچ نمره تجمعی یا نمره خرده مقیاسی نیست که بتوان از آن برای آزمون انجمن ها استفاده کرد.
|
ارتباط بین 2 داده طبقه بندی شده (با استفاده از SPSS)
|
108738
|
من نمیدانم چه رویکردهایی معمولاً برای اعتبارسنجی مدلهای یادگیری ماشین طراحیشده برای کارهای طبقهبندی یا پیشبینی استفاده میشوند: رویکردهایی که در حال حاضر استفاده میشوند: **استفاده از مجموعههای حقیقت:** \- ROCs، Bootstrapping، دقت، حساسیت، ویژگی، متقاطع - اعتبارسنجی ** اعتبار سنجی متعامد:** \- از کلاس متفاوتی از الگوریتم استفاده کنید که می تواند کار پیش بینی یا طبقه بندی را انجام دهد و نتایج را با هم مقایسه کند. پیشنهاد دیگری دارید؟
|
چگونه مدل های یادگیری ماشین خود را تأیید می کنید؟
|
60839
|
برای دو طبقهبندیکننده **h1** و **h2**، من دقت، فراخوانی و امتیاز F1 را به عنوان درصد (همراه با مجموعه دادههای برچسبدار اصلی که روی آنها آزمایش شدهاند) دارم. اگر من به نمونههایی که هر طبقهبندی کننده درست/غلط طبقهبندی میکند دسترسی داشتم، میتوانستم، برای مثال، آزمون مکنمار را برای ارزیابی اهمیت انجام دهم، اما متأسفانه این کار را نمیکنم. من در حالت ایده آل دوست دارم بتوانم در مورد اهمیت نتایج بدست آمده توسط **h2** صحبت کنم، یعنی اینکه **h2** نسبت به **h1** پیشرفت قابل توجهی دارد یا خیر. آیا من نمی توانم این کار را انجام دهم، یا چیزی وجود دارد که بتوانم فقط با استفاده از Precision/Recal/F1 و مجموعه داده های برچسب زده شده بگویم؟
|
مقایسه دو طبقه بندی کننده فقط بر اساس دقت / فراخوان / F1؟
|
32313
|
من یک مدل رگرسیون خطی دارم که برای پیشبینی انرژی طبیعی (ANE) برخی از مناطق استفاده میشود. پیش بینی کننده های این مدل عبارتند از: * ماه قبل ANE (`ANE0`) * حجم باران ماه قبل (`PREC0`) * پیش بینی ماه جاری برای حجم باران (`PREC1`) ما 7 سال داده تاریخی برای همه داریم از این متغیرها برای هر ماه. مدل فعلی فقط یک رگرسیون خطی OLS را اجرا می کند. من احساس میکنم که پیشرفتهای زیادی باید انجام شود، اما من متخصص سری زمانی نیستم. اولین چیزی که متوجه می شوم این است که پیش بینی کننده ها بسیار همبسته هستند (چند همخطی). من از تأثیرات چند خطی بر اطمینان پیش بینی مطمئن نیستم. من تصمیم گرفتم یک رویکرد سری زمانی را امتحان کنم، بنابراین یک ACF و PACF را روی داده های تاریخی اجرا کردم: ACF یک الگوی موج سینوسی را نشان می دهد، و PACF یک سنبله در 1 و 2 دارد. بنابراین من هر دو ARIMA را امتحان کردم (2، 0) ، 0) و ARIMA(2،0،1) برای پیش بینی 20 دوره آینده. ARIMA (2،0،1) نتایج خوبی را نشان می دهد، اما من مطمئن نیستم که چگونه آن را با مدل رگرسیون خطی مقایسه کنم. بهترین راه برای تست عملکرد این مدل ها چیست؟ من از R به عنوان ابزار تجزیه و تحلیل (همراه با بسته پیش بینی) استفاده می کنم.
|
ARIMA و رگرسیون خطی
|
77231
|
از دستگاه عمق سنج مداد برای تکه های مختلف کاغذ استفاده می شود. از دو مداد مختلف استفاده شده است. کلاس اندازه گیری عمق مدادها در تکه های مختلف کاغذ را می سنجد. عمق مداد کاغذی 1 2 5 2 1 3 3 1 2 4 2 6 5 2 7 6 1 8 7 2 2 8 1 9 چه نوع طرح آزمایشی استفاده می شود؟
|
نوع طراحی آزمایشی؟
|
73729
|
در داده های من حدود 1000 نفر احتمال 100 رویداد منحصر به فرد را تخمین زده اند. افراد به طور متوسط حدود 50 رویداد را پیش بینی می کنند، اما برخی در مورد همه رویدادها و برخی فقط در مورد چند رویداد پیش بینی می کنند. حدود 500 نفر از این افراد در تیم های 15 نفره کار می کنند. آنها پیش بینی های یکدیگر را می بینند و با یکدیگر ارتباط برقرار می کنند، اما هر فردی هنوز تخمین های خود را ارائه می دهد). یک سوالی که میخواهم به آن پاسخ دهم این است که چقدر از واریانس این پیشبینیها توسط افراد تیمی (به طور تصادفی) توضیح داده میشود. اما من همچنین گمان می کنم که سهم واریانس توضیح داده شده توسط تیم بسته به رویداد متفاوت باشد. بنابراین من می خواهم آن تنوع را نیز بررسی کنم. من تجربه کمی با مدل های ترکیبی با lmer دارم، اما برای من مشخص نیست که چگونه به این موضوع نزدیک شوم.
|
چگونه باید به مدل سازی این تخمین های احتمال ذهنی نزدیک شوم؟
|
108737
|
من سعی می کنم طبقه بندی باینری را انجام دهم که در آن ویژگی های خام من مجموعه ای از هیستوگرام ها هستند که در یک سری زمانی ثبت شده اند. این هیستوگرام ها برای مجموع 1 مقیاس بندی شده اند. برای دقیق تر شدن و تعریف نمادها، اجازه دهید $H_{t}$ یک هیستوگرام در یک زمان $t$ و $H_{t}(i)$ مقدار آن در $i باشد. سطل $th (در اینجا سطل $i$th با ترکیب مقادیر صحیح غیر منفی تولید می شود). من چنین $H_{t}$ برای هر یک از نقاط داده خود دارم (بنابراین می توانم $H^k_t$ را بنویسم تا هیستوگرام مرتبط با نقطه داده $k$ را در زمان $t$ نشان دهم). استفاده از هیستوگرام ها به عنوان ویژگی تا حدی ناامیدکننده است، زیرا آنچه که به نظر می رسد بیشترین ارتباط را با طبقه بندی من دارد، تغییری است که با تغییر زمان در هیستوگرام ها رخ می دهد. استراتژی فعلی من برای تعیین کمیت این تغییر این است که برای هر $i$، سطل $i$ را اصلاح کنم و سپس با استفاده از موجک haar، یک تبدیل موجک گسسته را در امتداد $t$ ایجاد کنم ($t$ قدرتی معادل 2 مقدار زیادی می گیرد، بنابراین DWT به راحتی قابل اعمال است). در حالی که این رویکرد تا حدودی به خوبی کار می کند، به دلیل ناتوانی آن در تشخیص تغییرات همزمان و کلی در هیستوگرام محدود شده است. به عنوان مثال، از نظر اکتشافی در مجموعه داده من این احتمال وجود دارد که کاهش در مقدار سطل $i=2,3$ بد باشد، مگر اینکه با افزایش مقادیر برخی از سطل های بزرگتر همراه باشد، یعنی هیستوگرام به شدت به سمت راست تغییر می کند. سوال من این است: آیا تکنیک ها/استراتژی های کلی وجود دارد که تغییرات هیستوگرام ها را در طول زمان توصیف کند که این تغییرات کلی تر را نشان دهد؟ باید توجه داشته باشم که محدوده $i$ و $t$ نسبتا کوچک است، هر کدام کمتر از 10.
|
تعیین کمیت تغییر در یک سری زمانی با ارزش هیستوگرام
|
51293
|
در یک کلاس ژنتیک ذکر شد که در تجزیه و تحلیل ارتباط ژنتیکی یک صفت با همه SNP ها، می توان اثر مورد انتظار هر SNP را با این صفت با استفاده از ساختار همبستگی بین SNPs و اندازه اثر در مقدار واقعی محاسبه کرد. نوع علی می توانید توضیح دهید که چرا اینطور است؟
|
اثر مورد انتظار هر پلی مورفیسم تک نوکلئوتیدی (SNP) در یک مطالعه ارتباط ژنومی (GWAS)
|
105381
|
اگر من در حال انجام یک مطالعه اکتشافی هستم و برخی از عواملی که به دست میآیند تا حدودی با آنچه در ادبیات یافتهام متفاوت است، محاسبه مقیاسهای جمعبندی شده اشکالی ندارد؟ (من خوانده ام که اگر راه حل به دست آمده از تجزیه و تحلیل PCA/عاملی توسط ادبیات پشتیبانی نشود، مقیاس های جمع شده چندان کاربرد ندارند، برای مثال اگر من یک یا دو عامل داشته باشم که برخی از متغیرها را به شکلی متفاوت از آنچه من دارم ترکیب می کند. در ادبیات یافت می شود، بنابراین من آنها را نیز متفاوت نام می برم)
|
مقیاس های جمع شده (پس از تحلیل عاملی)
|
26497
|
SMV را با هسته چند جمله ای $k(x_1,x_2)=(\langle x_1, x_2\rangle + 1)^d,$ در نظر بگیرید که $d > 1.$ آیا این درست است که اگر مجموعه داده با یک ابر صفحه جدا شود، SVM (با هسته $k$) همیشه مجموعه داده را با یک ابر صفحه (بدون هیچ خطایی در مجموعه داده) جدا می کند؟
|
تابع هسته چند جمله ای
|
26141
|
من روی 20 شرکتکننده تحقیق میکنم که 10 نفر از پیشزمینه کامپیوتر و بقیه از پیشزمینه غیر محاسباتی خواهند بود. هر شرکت کننده در یک جلسه آزمایشگاهی شرکت خواهد کرد و عملکرد شرکت کنندگان بر اساس یک روبریک ارزیابی می شود. هر ردیف از روبریک در مقیاس 1 تا 4 ارزیابی می شود. سؤال تحقیق این است: آیا پیشینه مشارکت کننده در یادگیری در مورد xxxx تأثیر دارد؟ از کدام روش آماری برای تجزیه و تحلیل داده ها استفاده کنم؟
|
از کدام تحلیل آماری برای مطالعه استفاده کنم
|
26144
|
در بیشتر نمونه هایی که تاکنون از شبکه های عصبی دیده ام، از شبکه برای طبقه بندی استفاده می شود و گره ها با یک تابع سیگموئید تبدیل می شوند. با این حال، من می خواهم از یک شبکه عصبی برای خروجی یک مقدار واقعی پیوسته استفاده کنم (در واقع خروجی معمولاً در محدوده 5- تا 5+ خواهد بود). سؤالات من عبارتند از: 1. آیا هنوز باید ویژگی های ورودی را با استفاده از مقیاس بندی ویژگی ها مقیاس کنم؟ چه محدوده ای؟ 2. از چه تابع تبدیلی به جای سیگموئید استفاده کنم؟ من در ابتدا به دنبال پیاده سازی PyBrain هستم که این نوع لایه ها را توصیف می کند. بنابراین من فکر می کنم که باید 3 لایه برای شروع (یک لایه ورودی، پنهان و خروجی) داشته باشم که همه لایه های خطی هستند؟ آیا این یک راه معقول است؟ یا می توانم تابع سیگموئید را در محدوده 5- تا 5 کشش کنم؟
|
چگونه می توان خروجی پیوسته با ارزش واقعی را از شبکه عصبی دریافت کرد؟
|
26493
|
من باید یک ارزیابی انتقادی از مقاله بقای سرطان داشته باشم. امیدوارم کسی اینجا بتواند نکاتی را ارائه دهد. این مقاله نشانگرهای سطح فردی وضعیت اجتماعی-اقتصادی را به عنوان قرار گرفتن در معرض بررسی میکند و به دنبال ارتباط آنها با بقا و همچنین بیماریهای همراه، عوامل بیماری/پیشآگهی و درمان با استفاده از خطرات متناسب کاکس برای بقا و رگرسیون لجستیک برای مرگ و میر است. فکر می کنم مقاله خوبی است و نمی توانم انتقادات را پیدا کنم. من مطمئن نیستم که آیا خطرات متناسب کاکس بهترین مدل برای استفاده است یا خیر. شاید یک مدل پارامتریک کامل بقای نسبی بهتر باشد، اما من نمی دانم. ممنون میشم اگه ممکنه راهنمایی کنید http://www.ncbi.nlm.nih.gov/pubmed/22315055
|
ارزیابی انتقادی مقاله بقا
|
108730
|
من دارم R.M.S را محاسبه می کنم. یک سیگنال تناوبی که دارای یک جزء تصادفی است. برای هر دوره می توانم مقداری برای R.M.S محاسبه کنم. با استفاده از تابع زیر: $R.M.S. = \sqrt{\frac{1}{N} \sum_{i=1}^N x_i^2 }$، که میدانم فقط در صورتی میتوانم از آن استفاده کنم که سری زمانی میانگین صفر داشته باشد، در این صورت موارد بالا معادل انحراف معیار آن سری زمانی است. با این حال، من چندین دوره دارم که هر کدام یک مقدار برای R.M.S دارند. احتمالاً من می توانم میانگین و انحراف معیار را در دوره های مختلف محاسبه کنم. از نظر ریاضی، روش صحیح بیان این موضوع چیست؟
|
انحراف استاندارد از چند ریشه مقادیر میانگین مربع
|
25615
|
من با همگنی شیب های رگرسیون در ANCOVA مشکل دارم. من دو گونه مار دارم و میخواهم طول دم آنها را (متغیر وابسته) که به طول بدن بستگی دارد (در ANCOVA به عنوان متغیر کمکی استفاده میشود) مقایسه کنم. سایر فرضیات ANCOVA برآورده می شوند، اما تعامل قابل توجهی بین گونه ها * طول بدن وجود دارد (قطعات قابل مقایسه هستند، شیب ها متفاوت هستند). راهنمای SPSS اندی فیلد می گوید که فرض شکسته همگنی شیب های رگرسیون را می توان با استفاده از مدل آماری چندسطحی کنار گذاشت. من سعی می کنم تمام روز این تحلیل را به درستی اجرا کنم، اما نمی توانم آن را انجام دهم. مشکل این است که من میخواهم طول دم را بین گونهها مقایسه کنم که بالای سلسله مراتب من است (در پایین نمونههای منفرد هستند). آیا باید گونه های متغیر را به عنوان موضوع (با فرض برخی سلسله مراتب) تنظیم کنم؟ بدون شک باید طول بدن را به عنوان متغیر کمکی و طول دم را به عنوان متغیر وابسته تنظیم کنم. چگونه می توانم گروه ها (گونه ها) خود را مستقل از شیب ها (شیب ها تصادفی هستند) مقایسه کنم؟ چه عواملی باید به عنوان فاکتورهای ثابت و چه عوامل تصادفی در SPSS تنظیم شوند؟ راهنمای فیلد همچنین می گوید که برای تجزیه و تحلیل مدل مختلط، اشکال (نسخه 17.0) مربوط به کادر محاوره ای عوامل وجود دارد، به طوری که متغیرهای طبقه بندی شده (در این مورد متغیر گونه من) باید در کادر متغیرهای کمکی قرار گیرند (حداقل اگر دو متغیره باشد). آیا او درست است؟ من می دانم چه کاری می خواهم انجام دهم اما نمی دانم چگونه آن را انجام دهم.
|
چگونه با استفاده از مدل سازی چند سطحی از ناهمگونی شیب های رگرسیون خلاص شویم؟
|
105383
|
به من این داده شده است: یک نورون ضربان ساز 10 اسپیک در ثانیه به شیوه ای نسبتاً منظم، با فواصل بین اسپایک (ISI) که بر اساس $\mathcal N(100, 5)$ توزیع می شود، شلیک می کند. از من خواسته می شود که هیستوگرام بازه زمانی (TIH) را رسم کنم، فاکتور فانو (FF) را تخمین بزنم و سپس ضریب تغییرات (CoV) را محاسبه کنم. **سوالات من:** 1. TIH، این فقط شبیه یک منحنی زنگی معمولی است که در مرکز ISI میانگین، 100، با $SD = \sqrt{5}$ است، درست است؟ 2. برای FF، که فکر میکنم در مورد تعداد سنبله است (یعنی تعداد سنبلهها؟)، میانگین 10 است، اما چگونه میتوانم واریانس را تخمین بزنم؟ چگونه می توانم از واریانس ISI به واریانس در spike/s برسم؟ 3. به نظر من میتوان CoV را محاسبه کرد زیرا به من واریانس و میانگین ISI داده شده است (یعنی ${\rm CoV}= SD/{\rm mean} = \sqrt{5}/100$) .
|
هیستوگرام فاصله زمانی (tih)، عامل فانو، ضریب واریانس
|
105380
|
آیا می توان یک دنباله سوبول برای مجموعه ای از اعداد ایجاد کرد؟ من 5 متغیر گسسته x1، x2، x3، x4 و x5 دارم و میگویم برای مثال x1 = {1,2,3,4,5}, x2 = {10,30,40,50,60}, x3 = {1 ,3,5,7,9}, x4 = {30,45,60,90}, x5 = {2,4,6,8}. اگر امکان ایجاد یک دنباله سوبول وجود داشته باشد، روتین VBA چگونه خواهد بود؟ من سعی کردم با استفاده از تابع Rnd در اکسل نمونه برداری کنم و خوب کار می کند.
|
دنباله سوبول برای مجموعه ای از اعداد گسسته
|
106211
|
من ایده فراگیران گروه، به خصوص بگینگ را دوست دارم، اما همیشه به این فکر می کردم که چرا آنها قوی ترین یادگیرندگان نیستند زیرا انگیزه پاکی دارند. من پاسخی برای این سوال ندارم اما ایده دیگری داشتم. به طور معمول در بگینگ افراد از طبقه بندی کننده مشابهی برای یادگیری استفاده می کنند. بنابراین آنها مجموعه داده را به برش ها تقسیم می کنند و برای هر برش طبقه بندی کننده ای از همان نوع (به عنوان مثال رگرسیون لجستیک) را آموزش می دهند و سپس از رای گیری استفاده می کنند. اما سوال من این است که چرا از آنسامبل ها استفاده نکنیم؟ چرا یک طبقهبندیکننده بستهبندی رگرسیون لجستیک، یک طبقهبندی کننده بستهبندی از SVM، یک طبقهبندی کننده بستهبندی از ANN، یک طبقهبندی کننده بستهبندی از جنگل تصادفی ایجاد نمیکنیم و سپس از رأیگیری استفاده نمیکنیم. بنابراین هر طبقه بندی کننده یک مجموعه است و سپس همه گروه ها به یک مجموعه تبدیل می شوند. سپس دوباره از رای گیری استفاده کنید. کسی قبلا اینو امتحان کرده؟ کاغذها؟ ... و غیره؟ باید وجود داشته باشد!
|
گروه های آنسامبل؟
|
26145
|
من روی 20 شرکت کننده تحقیق می کنم و شرکت کنندگان روی یک ماژول آزمایشگاهی کار خواهند کرد. یک پیش آزمون قبل از ماژول آزمایشگاهی و پس آزمون بعد از ماژول آزمایشگاهی در مورد مفاهیم مربوط به فلوچارت، شبه کد و غیره وجود خواهد داشت، نتایج احتمالی برای سؤال بله / خیر است. **از کدام روش آماری برای تجزیه و تحلیل داده های پیش آزمون بله/خیر استفاده کنم؟**
|
چگونه می توان داده های قبل و بعد از آزمون را تجزیه و تحلیل کرد زمانی که معیار نتیجه داده های بله / خیر است؟
|
5545
|
من باید همبستگی های مکرر را اجرا کنم. اگر یکی از آنها به مقدار قابل توجهی برسد (همانطور که در جدول پیرسون آورده شده است)، چگونه می توانم مطمئن شوم که در واقع مثبت کاذب نیست؟ من در تجزیه و تحلیل آماری کاملاً جدید هستم، بنابراین اگر سؤالم ساده به نظر می رسد عذرخواهی می کنم. با تشکر برای هر پاسخ.
|
چگونه از یافته های مثبت کاذب با همبستگی های مکرر جلوگیری کنیم؟
|
104365
|
من برخی از مدلهای پواسون (یا Neg.Binomial بسته به پراکندگی بیش از حد) را اجرا میکنم و میخواهم به دلیل ماهیت دادهها (موارد ماهانه) همبستگی خودکار باقیمانده را بررسی کنم. من از R استفاده می کنم و با استفاده از دستور acf همبستگی تولید می کنم، جایی که می توانم بررسی کنم که آیا همبستگی خودکار برای تاخیرهای مختلف خارج از فواصل اطمینان تولید شده است یا خیر. از سوی دیگر، بر اساس مقالات منتشر شده که مطالعات مشابهی با من انجام داده اند، می بینم که آنها از آزمون دوربین-واتسون برای بررسی وجود خودهمبستگی مرتبه اول یا دوم که در اینجا مورد توجه است، استفاده کرده اند. در R من دو دستور برای این تست پیدا کردم: dwtest در بسته lmtest (بر اساس آنچه که الگوریتم پان نامیده می شود) و durbinWatsonTest در بسته ماشین که از بوت استرپ استفاده می کند. در هر دو این تست، مستندات نشان میدهد که از آنها برای اشیاء lm استفاده میشود که برای مدلهای من (و نه نمونههای منتشر شده) صدق نمیکند. سوال من این است: آیا آزمون D-W برای استفاده برای خودهمبستگی باقیمانده در مدل های پواسون (Neg.Bin) معتبر است؟ آیا تست دیگری برای این مدل ها وجود دارد؟ اگر نتایج بین acf و دو تست D-W مطابقت داشت، احساس راحتی بیشتری میکردم، اما اینطور نیست و به درک من acf قابل اعتمادتر است.
|
خود همبستگی باقیمانده در مدل های پواسون (Neg.Bin) - آزمون دوربین واتسون
|
26140
|
من از بسته strucchange برای تشخیص تغییرات ساختاری در داده های خود استفاده می کنم. نمودار Fstats من چندین قله را نشان می دهد، اما اگر از «نقاط شکست» استفاده کنم، یک نقطه شکست اضافی پیدا می شود. آمار F من در آن نقطه پیشنهاد شده توسط «نقاط شکست» حتی زیر آستانه است. چرا بیشتر پیدا می کند؟
|
نقاط شکست تابع R شکست های بیشتری نسبت به Fstats پیدا می کند
|
105385
|
من میخواهم یک تابع همبستگی خودکار رسم کنم، آن را AC(tau) بنامم که در آن tau افست در خودهمبستگی است. بردار من به AC تغذیه می کنم قطار سنبله یک نورون است که پتانسیل عمل آن به شیوه ای پواسونی، یعنی مستقل از یکدیگر و احتمالاً به همان اندازه در هر مرحله زمانی شلیک می شود. من تصور می کنم که در تاو (تاخیر زمانی) = 0، AC = 1، و AC از این پس به جز قله های کوچکتر و کوچکتر در مضرب 1/لامبا (میانگین فاصله بین ورود) فرو می ریزد. درست است؟ حال، اگر این یک فرآیند سمی غیر همگن باشد، چه؟ سپس AC چگونه خواهد بود؟ آیا امکان تعمیم وجود دارد؟
|
تابع خود همبستگی پواسون
|
106217
|
من از بسته randomSurvivalForest برای R، نسخه 3.6.4 استفاده می کنم. من مدتی است که از آن برای یک پروژه استفاده می کنم، بدون مشکل. با این حال، اکنون من برخی از پیشبینیکنندههای اضافی را به مجموعه دادهام اضافه کردهام، و متوجه شدم که اکنون برخی از آنها نمرهگذاری نمیشوند (اهمیت). به نظر می رسد 100 عدد جادویی است. قبل از اینکه من 95 داشتم و همه آنها گل می زدند. اکنون من 110 دارم و خروجی مقادیر اهمیت را برای 100 گزارش می دهد. پیش بینی های مختلف حذف می شوند، اما همیشه 10 مورد از آنها وجود دارد. آیا چیزی واضح را گم کرده ام؟ یا شاید خیلی واضح نیست؟ هیچ اخطار یا نشانه دیگری مبنی بر اینکه rsf() کاری با پیش بینی کننده های من انجام داده است وجود ندارد، و زمانی که rsf() تمام شد، آنها همچنان در dataframe هستند. با تشکر برای هر ایده.
|
randomSurvivalForest در R
|
91633
|
$$\frac{1}{C_t}=E_t\left[\beta \frac{1}{C_{t+1}} \right]R_{t+1}$$ چگونه تابع را خطی کنیم؟ $C_{t+1}$ عبارت تصادفی است. $\beta$ شناخته شده است.
|
عملگر انتظار و تابع لگاریتمی
|
106210
|
فرض کنید من یک متغیر تصادفی $X$ دارم که میدانم با پشتیبانی $[0,\theta]$ دارای مرز دوگانه است، اما من $\theta$ را نمیدانم (ما چیزی در مورد توزیع $X$ نمیدانیم، اما فرض کنید احمقانه نیست، بنابراین شرایط عادی زمانی که شما به آنها نیاز دارید اعمال می شود). $Y:=X+Z$ را در نظر بگیرید، جایی که $Z$ معمولی استاندارد است ($X$ و $Z$ مستقل هستند). و فرض کنید $Y_1,Y_2,...$ را ترسیم کنم که i.i.d هستند. قرائت $Y$. با استفاده از پاسخ ارسال شده (در واقع ضمیمه آن پاسخ) برای این (نظریه ارزش فوق العاده: نرمال را به گامبل نشان دهید)، و با فرض اینکه محاسباتم را درست انجام دادم، نشان دادم که $Y_{(n)}$ زمانی که به طور مناسب با $ نرمال شود. (a_n,b_n)$ داده شده در **ضمیمه** راه حل، به Gumbel نیز همگرا می شود. سوال من این است: آیا راهی برای استفاده از این فرآیند برای ارائه برخی برآوردها در $\theta$ وجود دارد؟ من احساس میکنم قبل از عادیسازی $Y_{(n)}$، این امکان وجود دارد که ما یک نسخه تغییر یافته و مقیاسپذیر از Gumbel داشته باشیم که تغییر آن مقدار $\theta$ را به نحوی منعکس میکند (به طور مستقیم، با بزرگتر شدن $n$، مقدار ایندکس $j$ که برای آن $Y_j = Y_{(n)}$ بیشتر و بیشتر احتمال دارد به گونه ای باشد که $X_j = X_{(n)}$ که نزدیک تر می شود و به $\theta$ نزدیکتر است، بنابراین برای $n$ غول پیکر، شاید $Y_{(n)}$ تا حدودی شبیه $Z_{(n)} + \theta$ باشد؟) به نظر نمی رسد که از نظر ریاضی این را توجیه کنم یا پیدا کنم روشی برای استخراج برخی تخمین های $\theta$. پیشنهادی دارید؟
|
استفاده از نظریه ارزش افراطی برای تخمین کرانه ها
|
26499
|
من ورودیهای آموزشی شبکه عصبی و اهداف آموزشی خود را عادی میکنم (یا استانداردسازی یا مقیاسبندی ویژگیها). من فقط مقیاسبندی خطی را انجام میدهم و فرمولی که استفاده میکنم این است: «I = Imin + (Imax-Imin)*(D-Dmin)/(Dmax-Dmin)» که در آن «I» مقدار ورودی مقیاسشده، «Imin» است. و Imax محدوده حداقل و حداکثر مورد نظر مقادیر مقیاس شده، D مقدار داده اصلی، و Dmin و Dmax محدوده حداقل و حداکثر هستند. مقادیر داده های اصلی در مورد من، Imax را روی 1 و Imin را روی -1 تنظیم می کنم. من سعی می کنم یک خروجی با ارزش واقعی مداوم را پیش بینی کنم. چگونه می توانم خروجی شبکه خود را به محدوده مقیاس نشده برگردانم؟
|
چگونه مقیاس/نرمالسازی ویژگی را برای خروجی «لغو» کنیم؟
|
25611
|
من یک مجموعه داده با 9 متغیر مستقل پیوسته دارم. من سعی میکنم از بین این متغیرها، مدلی را با یک متغیر درصدی (وابسته) یعنی «امتیاز» منطبق کنم. متأسفانه، من میدانم که یک خط خطی جدی بین چندین متغیر وجود خواهد داشت. من سعی کردهام از تابع «stepAIC()» در R برای انتخاب متغیر استفاده کنم، اما این روش، بهطور عجیبی، به ترتیبی که متغیرها در معادله فهرست میشوند حساس به نظر میرسد... این کد R من است (چون درصد داده است. ، من از تبدیل لاجیت برای امتیاز استفاده می کنم: library(MASS) library(car) data.tst = read.table(data.txt,header=T) خلاصه data.lm = lm(logit(امتیاز) ~ Var1 + Var2 + Var3 + Var4 + Var5 + Var6 + Var7 + Var8 + Var9، data = data.tst) step = stepAIC(data.lm، جهت = هم) (مرحله) بنا به دلایلی، متوجه شدم که متغیرهای فهرست شده در ابتدای معادله در نهایت توسط تابع «stepAIC()» انتخاب می شوند و نتیجه می تواند با فهرست کردن، به عنوان مثال، «Var9» ابتدا (به دنبال تایلد) دستکاری شود. روش مؤثرتر (و کمتر بحث برانگیز) برای تطبیق یک مدل در اینجا چیست؟ من در واقع در مورد استفاده از رگرسیون خطی مرده نیستم: تنها چیزی که میخواهم این است که بتوانم بفهمم کدام یک از 9 متغیر واقعاً باعث ایجاد تغییر در متغیر «امتیاز» میشود. ترجیحاً، این روشی باشد که پتانسیل قوی برای همخطی بودن در این 9 متغیر را در نظر می گیرد.
|
هنگام انجام انتخاب متغیر چگونه با چند خطی بودن برخورد کنیم؟
|
105389
|
آیا می توانم یک متغیر پنهان (ساختار) را پس از فرمول محاسبه کنم: مجموع (مقیاس مجموع برای عامل i * واریانس توضیح داده شده با عامل i)، i مقادیر را از 1 تا n می گیرد (n تعداد عوامل است)؟ یا چه فرمولی را می توانید برای بدست آوردن یک متغیر پنهان با در نظر گرفتن همه عوامل بدست آمده از تحلیل عاملی به من توصیه کنید؟
|
نحوه محاسبه یک متغیر پنهان (به عنوان یک شاخص ترکیبی)
|
105387
|
برای مقیاسهای جمعبندی شده: آیا میتوانم از همه متغیرهایی که روی یک عامل بارگذاری میشوند استفاده کنم یا فقط باید از متغیرهایی با بارگذاری بالا (مثلاً بیش از 70/0) استفاده کرد؟
|
مقیاس های مجموع برای عوامل (متغیرهای پنهان)
|
105090
|
هنگام محاسبه ضریب تعیین برای یک مربع، چرا اگر از مجموعه داده ها برای طول ضلع X= (1،2،3،4) و محیط به عنوان Y=(4،8،12) استفاده می کنید، 16) ضریب تعیین برابر 100٪ است. اما هنگام انجام همین محاسبه برای استفاده از مساحت مربع با نقاط X (1،2،3،4) و نقطه داده Y (1،4،9،16) Coeff of Determ به 96% کاهش می یابد؟ هر بینشی عالی خواهد بود. هر چه زبان ساده تر باشد بهتر است. ممنون!!
|
ضریب تعیین: برای محیط و مساحت مربع: چرا متفاوت است؟
|
103189
|
تفاوت بین SVM و Sparse Extreme Learning Machine با هسته گاوسی که در مقاله زیر پیشنهاد شده است چیست: http://www.ntu.edu.sg/home/egbhuang/pdf/Sparse-ELM-IEEE-T- Cybernetics.pdf به عنوان استفاده هسته در ELM منجر به تصادفی صفر می شود و همه گره ها به عنوان بردار پشتیبان در نظر گرفته می شوند، بنابراین چه تفاوتی بین این نوع وجود خواهد داشت. ELM پراکنده و SVM معمولی
|
Sparse ELM در مقابل SVM
|
104366
|
من به تازگی یک پروژه تحقیقاتی کوچک در مورد مرغ مگس خوار و تأثیر تغذیه کننده مرغ مگس خوار را به پایان رساندم. من در مورد نحوه ادامه آمار کمی مطمئن نیستم. ما 15 نقطه را در شیب فاصله دور از فیدرها قرار دادیم، جایی که نمونهبرداری از نرخ بازدید، گردهافشانی و فراوانی پرندگان/گل (همه دادههای شمارش) انجام شد. ما از تمام نقاط دو بار نمونه برداری کردیم، کاری که من می خواهم انجام دهم این است که از رگرسیون پواسون روی میانگین دو نمونه استفاده کنیم. آیا این از نظر آماری منطقی است؟ اول، من حدس میزنم که استفاده از ابزارها، توزیع دادهها را به سمت عادی شدن سوق میدهد. دوم، آیا می توانید از رگرسیون پواسون روی اعداد غیر کامل استفاده کنید؟
|
رگرسیون پواسون بر روی میانگین داده های شمارش
|
4823
|
من یک دیتافریم مانند زیر دارم: شبیه سازی کیس دمای پلانک اکسیژن 1 1 1 8 7 11 2 2 1 16 10 15 ... 17 17 2 26 12 17 18 18 2 15 8 12 19 19 10 2 20 28 2 24 6 14 من می خواهم خلاصه هایی را به تفکیک سطوح متغیر شبیه سازی دریافت کنم. به عنوان مثال، من میخواهم میانگین «دمای» برای شبیهسازی==1 و شبیهسازی==2، و برای انحراف معیار یکسان باشد. در حال حاضر از کد زیر استفاده می کنم که بسیار وحشتناک است: df <- read.csv(data.csv) attach(df) # ایجاد متغیرهای زیرمجموعه temp1 = subset(temp, simulation==1) temp2 = زیرمجموعه ( دما، شبیهسازی==2) پلانک1 = زیر مجموعه (پلانک، شبیهسازی==1) پلانک2 = زیرمجموعه (پلانک، شبیهسازی==2) oxygen1 = زیر مجموعه (اکسیژن، شبیهسازی==1) oxygen2 = زیر مجموعه (اکسیژن، شبیهسازی==2) چاپ (sd(temp1)) print(sd(temp2)) print(sd(plank1)) print(sd(plank2)) من مطمئن هستم که باید یک راه خودکار برای انجام این کار در R وجود داشته باشد، اما نمی توانم آن را پیدا کنم. من سعی کردم از «خلاصه (df ~ شبیهسازی)» استفاده کنم، اما هیچ چیز مفیدی تولید نمیکند.
|
تولید خودکار خلاصه بر اساس متغیر عامل در R
|
104651
|
من می خواهم با بیز ساده لوح طبقه بندی کنم. من حدود 100 ویژگی دارم. هم عددی و هم دسته بندی. از آنجایی که من میخواهم فقط مرتبطترینها برای کار طبقهبندی گنجانده شوند، میخواهم آنها را با نوعی حذف ویژگی پیدا کنم. سوال من اکنون این است: روش استفاده از آن برای (کاغذ/مرجع؟!) چیست و آیا این روش در نوعی بسته نرم افزاری پیاده سازی شده است. از آنجایی که من از R استفاده می کنم، به ویژه برخی از بسته های R را ترجیح می دهم. پیشاپیش از کمک شما متشکرم!
|
بهترین روش انتخاب ویژگی برای طبقه بندی ساده بیز
|
63872
|
من فکر می کنم که می توان **یک مدل با اثرات تصادفی** را تجزیه و تحلیل کرد، اما مطمئن نیستم که هرگز آن را انجام نداده ام. من به دنبال راهنمایی در مورد اینکه آیا مناسب است، چه فرضیاتی باید از آن آگاه باشم و چگونه آن را به درستی انجام دهم، هستم. از مطالعه من در مورد یک حشره؛ * من یک متغیر پاسخ دارم (سن در هنگام مرگ، سن) * دو درمان (Treat1 و Treat2) که هر دو دارای دو سطح هستند (Treat1 دارای A و B و Treat2 دارای P است. و Q) * همچنین 40 ژنوتیپ وجود دارد (1-40) * با چهار تکرار (w,x,y,z) از هر ترکیب Genotype/Treat1/Treat2 * هر تکرار شامل 50 فرد است به عبارت ساده، دادههای من مانند 32000 ردیف از این به نظر میرسد: Treat1 Treat2 بلوک ژنوتیپ سن فرد A P 1 w 1 23 A P 1 w 2 35 A P 1 w 3 44 . . . . . . . . . . . . . . . . . . B Q 40 z 50 76 من می خواهم بدانم که آیا هر ترکیبی از Treat1 و Treat2 (AP,AQ,BP,BQ) دارای تنوع ژنتیکی هستند - یعنی آیا بین 40 ژنوتیپ من در هر ترکیب درمانی تنوع وجود دارد؟ فکر می کنم برای هر یک از AP، AQ، BP و BQ، در امتداد خط سن ~ ژنوتیپ [ Treat1 == A & Treat2 == P] * Block [ Treat1 == A و به یک مدل نیاز دارم. Treat2 == P] که در آن ژنوتیپ و بلوک اثرات تصادفی هستند. من شنیده ام که توزیع گاما بهتر است در مدل های طول عمر (زمان تا مرگ) استفاده شود. **سوالات من این است:** الف. آیا این روش مناسبی برای نشان دادن تنوع یا عدم تنوع ژنوتیپ های من است؟ ب آیا می توانم چهار مدل را همانطور که در بالا تعریف شده است بسازم یا این روش واقعاً ضعیفی است؟ ج. در صورت امکان، از چه توابعی باید در R استفاده کنم (lm، glm، lmer... & summary، summary.lm، aov، anova...)؟ د چه انتظاری باید داشته باشم، اگر گاما از گاوسی مناسبتر است، وقتی «نقشه(مدل)» را برای گاما در مقایسه با گاوسی مقایسه میکنم، ببینم؟ * * * این مدل در حال حاضر من است... AP= df$Treat1==A & df$Treat2==P apmodel<- lmer(df$Age[AP]~(1|df$Genotype[AP ])+(1|df$Block[AP])) خلاصه (apmodel) که به نظر من درست است اما مطمئن نیستم با خروجی چه کار کنم.. > خلاصه (apmodel) مدل ترکیبی خطی متناسب با فرمول REML: df$Age[AP] ~ (1 | df$Genotype[AP]) + (1 | df$Block[AP]) AIC BIC logLik انحراف REMLdev 57343 57371 -273667 57335 اثرات تصادفی: نام گروه Variance Std.Dev. df$Genotype[AP] (Intercept) 17.23798 4.15186 df$Block[AP] (Intercept) 0.15416 0.39263 Residual 93.18777 9.65338 تعداد obs: 7df4$، گروهها: 7df4$ df$Block[AP]، 4 جلوههای ثابت: Estimate Std. مقدار خطای t (Intercept) 49.9948 0.6939 72.05 **آیا واریانس ژنتیکی وجود دارد؟**
|
تست تغییرات با استفاده از مدل اثرات تصادفی
|
58238
|
من یک سوال در مورد الگوریتم **kmeans** دارم. من می دانم kmeans یک الگوریتم تصادفی است، اما چقدر تصادفی است و چه نتایجی را می توانم انتظار داشته باشم. فرض کنید یک مجموعه داده را در خوشههای $4$ دستهبندی کردهاید، که در آن هر نقطه دارای هویت $1$، $2$، $3$، یا $4$ است (که به شما میگوید متعلق به چه خوشهای است). سپس یک خوشه بندی دوم را روی همان مجموعه داده با همان معیارها انجام می دهید. 1. آیا دفعه بعد که الگوریتم kmeans را اعمال می کنید، همه نقاط یک خوشه خاص در اولین خوشه بندی در یک خوشه قرار می گیرند؟ 2. اگر نه، آیا به احتمال زیاد در یک خوشه خواهند بود و آیا معیاری برای این احتمال وجود دارد؟ با برخی از خروجیهایی که در R دریافت کردم، معتقدم که 1. ثابت نمیشود، زیرا اندازههای خوشهای متفاوتی را برای اجراهای مختلف در یک مجموعه داده دریافت میکنم. همه کمک ها بسیار قدردانی می شود!
|
نتایج الگوریتم kmeans چقدر تصادفی است؟
|
105525
|
من مجموعه ای از مشاهدات از یک آزمایش بیولوژیکی دارم. من وقوع یک رویداد خاص را در هر کروموزوم برای سلول های $n$ شمارش کرده ام و در نهایت مقدار میانگین نهایی را برای هر کروموزوم دارم. 2.2، 6.4، 3.4، 10.2، 4.45 بنابراین من 5 کروموزوم دارم که به طور متوسط تعداد رویدادهای ذکر شده در بالا ساخته می شوند. من احتمال پواسون صفر شدن هر یک از کروموزوم های بالا را محاسبه کرده ام. من از تابع R استفاده کرده ام: ppois(q=0,lambda=wt[1:5]) و احتمالات 1.108032e-01 1.661557e-03 3.337327e-02 3.717032e-05 1.1672857e، که- نشان می دهد که احتمال کل 0.15 بنابراین وجود دارد برای مشاهده هر کروموزوم با رویداد صفر. حالا می خواهم بدانم در چه مقادیری این احتمالات صفر یا ناچیز می شوند. چگونه می توانم برای رسیدن به این هدف اقدام کنم؟
|
احتمال پواسون مشاهده حداقل یک صفر از k حالت مستقل
|
74885
|
من این مشکل را دارم: یک دانش آموز باید دقیقاً دو درس از سه انتخابی را انتخاب کند: هنر، فرانسه و ریاضی. هنر را با احتمال 5/8، فرانسوی را با احتمال 5/8 و هنر و فرانسه را با احتمال 1/4 انتخاب می کند. احتمال اینکه ریاضیات را انتخاب کند چقدر است؟ احتمال اینکه هنر یا فرانسه را انتخاب کند چقدر است؟ حالا دلیل من این بود: p(A و F)+p(F و M)+p(A و M)=1 چیزی باید بیفتد. 1/4+p(F and M)+p(A and M)=1 p(F and M)+p(A and M)=3/4 p(M)=p(F and M)+p( A و M) p(M)=3/4 اما چگونه می توانم p(A) یا p(F) را بدست بیاورم. با تشکر
|
مسئله احتمالات، محاسبه 2 رویداد
|
105098
|
من درک می کنم که یک مدل سوگیری راحت تر است در حالی که مدلی با واریانس زیاد انعطاف پذیرتر است. اما، این اصطلاحات از کجا آمده اند، و چرا سوگیری و چرا واریانس؟
|
واژه های سوگیری و واریانس از کجا آمده اند؟
|
104652
|
در حین انجام یک بازی دوستانه پوکر تگزاس هولدم، بازیکنی مستقیماً یک کارت 7 کشید. اگرچه در تگزاس هولدم یک بازیکن ممکن است فقط از 5 کارت از 7 کارت ممکن استفاده کند، بحث در مورد شانس بلافاصله مطرح شد. شانس گرفتن 7 کارت مستقیم چقدر است؟ برای کسانی که با پوکر آشنایی ندارند، می توان این سوال را به این صورت مطرح کرد: شانس کشیدن 7 کارت از یک عرشه 52 کارتی با پایان متوالی بودن آن کارت ها چقدر است؟ * من سعی کردم دانش گسترده اینترنت را جستجو کنم، اما نتوانستم به پاسخی برسم. نزدیکترین چیزی که به من می رسد احتمال کشیدن مستقیم 5 کارت در یک بازی گل میخ 5 کارتی است (0.00392465)، اما من در تلاش برای اضافه کردن احتمال 2 کارت بعدی - به دلیل پیچیدگی مستقیم (2 کارت بعدی) گم شدم. می تواند مستقیم را تکمیل کند - اگر 5 کارت اول مساوی شد **4.5.7.8.9** و 2 کارت بعدی **6.10** بود). هر گونه راهنمایی یا راهنمایی در مورد این موضوع بسیار مفید خواهد بود. محاسبه مستقیم *) از یک کارت آس می توان برای شروع یک استریت کم یا تکمیل یک استریت بالا استفاده کرد - **A.2.3.4.5.6.7** و **8.9.10.J.Q.K.A** قانونی هستند. اما نمی توان از آن برای بسته بندی استفاده کرد - _J.Q.K.A.2.3.4_ قانونی نیست.
|
شانس کشیدن 7 کارت که به ترتیب به پایان می رسند - از عرشه 52 کارتی چقدر است؟ (پوکر 7 کارت مستقیم)
|
74888
|
ما در حال تجزیه و تحلیل مجموعه دادهای هستیم که در آن به احتمال جابهجایی افراد و عواملی که جابجایی را پیشبینی میکنند، نگاه میکنیم. مشکل اینجاست که خیلی ها متاهل هستند و (معمولاً) اگر یکی خانه تکانی کند، همسرش هم خانه تکانی می کند (البته همه متاهل نیستند). ما دو گزینه داریم که هیچکدام رضایت بخش به نظر نمی رسند: 1. مدل سازی در سطح خانواده: اما پس از آن گنجاندن پیش بینی کننده ها در سطح فردی سخت است (همه متاهل نیستند). 2. در سطح فردی مدل کنید و از چیزی استفاده کنید که برای خوشه بندی تصحیح شود. به نظر نمی رسد برای خوشه بندی تقریباً کامل توضیح داده شود، و من احساس نمی کنم که تخمین ها مناسب باشند. علاوه بر این، احتمال حرکت کنجکاو است. اگر یک زوج نقل مکان کنند، و یک فرد مجرد نقل مکان نکند، احتمال جابجایی 0.5 بود (زیرا 1/2 خانوار نقل مکان کردند - مانند (1) بالا، یا 0.66، زیرا 2/3 خانوار نقل مکان کردند، مانند (2) بالا
|
احتمال جابجایی خانه (مشکل عدم استقلال)
|
33444
|
سعی می کنم الگویی برای وصول بدهی ایجاد کنم. در گذشته من از رگرسیون لجستیک برای پیش بینی پرداخت/عدم پرداخت استفاده کرده ام. این به خوبی عمل کرده است، اما چند عواقب ناگوار دارد. زمانی که موجودی معوقه کم است، مردم تمایل بیشتری به پرداخت دارند. بنابراین، مدل تمایل دارد تعادل های پایین را به سمت دم خوب فشار دهد. بنابراین، هدف واقعی، به حداکثر رساندن دلارهای جمع آوری شده در یک عمق خاص از پرونده است. استراتژی پیش فرض این است که حساب ها را بر اساس مقدار بدهی سفارش دهید که یک راه حل ساختگی در نظر گرفته می شود. بهبود این راه حل ساختگی دشوارتر از آنچه پیش بینی می کردم بوده است. مشکل این است که دلارهای جمع آوری شده منوط به میزان بدهی است! وقتی سعی میکنم دلارهای جمعآوریشده را مدل کنم، مقدار بدهی کاملاً بر هر چیز دیگری در مدل غلبه میکند. آیا راه دیگری برای کم کردن تأثیر مقدار بدهی یا کنترل آن وجود دارد؟ نتیجه مطلوب این است که دلارهای سفارش رتبه مدل بهتر از استفاده ساده از مبلغ بدهی جمع آوری شود. اینها چیزهایی هستند که من امتحان کردهام: * مدل 2 مرحلهای با استفاده از تصحیح هکمن که پرداخت/عدم پرداخت را پیشبینی میکند و سپس دلار جمعآوری شده است. سپس هر مدل را با استفاده از شانس بخش آنها در مرکز قرار دهید. * رگرسیون خطی فقط بر روی پرداخت کنندگانی که دلارهای پرداخت شده را پیش بینی می کنند و مدل را برای کل جمعیت اعمال می کنند. * رگرسیون لجستیک مستقیم پیش بینی پرداخت / عدم پرداخت
|
حداکثر مقدار متغیر وابسته مشروط به متغیر مستقل
|
58848
|
در Luce (1959) اصل انتخاب تعریف شده است، که برای یک زیرمجموعه محدود $T$ از $U$ به طوری که، برای هر $S\ زیر مجموعه T$، $P_S$ تعریف می شود. * اگر $P(x,y)\ne 0,1$ برای همه $x,y\ در T$، پس برای $R\زیر مجموعه S\ زیر مجموعه T$: $P_T(R) = P_S(R)P_T( S)$ * اگر $P(x,y)= 0$ برای همه $x,y\در T$، سپس برای $S\زیر مجموعه T$: $P_T(S) = P_{T-\\{x\\}}(S - \\{x\\})$ اکنون نوشته شده است که (لم 2، صفحه 7) > اگر $P(x,y)\ne 0,1 $ برای همه $x,y\ در T$، سپس این اصل معادل > $P_S(R) = P_T(R|S)$، برای $R\زیر مجموعه S\ زیر مجموعه T$ است. نوشته شده است که این نتیجه به جز شرط $P_T(S)>0$ واضح است. ** سوال من (احتمالاً ساده لوحانه) این است: ** چرا واضح است؟ معیار مشروط القا شده توسط $P_T$ تنها در صورتی تعریف می شود که $P_T(S)>0$ توسط: $P_T(R|S) = \frac{P_T(R\cap S)}{P_T(S)}$. باز هم، چرا برای اثبات اینکه $P_T(S)>0$ کافی است؟
|
سوال در مورد اثبات اصل انتخاب لوس w.r.t. احتمال شرطی
|
105384
|
اگر نمونه ای با بیش از 350 پاسخ دهنده داشته باشم، آیا قابل قبول است که بارهای بالای 0.50 را عملاً معنی دار در نظر بگیرم یا باید بارهای بالای 0.30 را قابل توجه در نظر بگیرم (که برای مثال در مورد متغیری که با 0.60 بارگذاری می شود منجر می شود. بر روی یک ضریب و به ترتیب 0.30 بر روی عامل دیگری که دارای بارگذاری متقاطع در نظر گرفته شود)؟
|
بارگذاری در تحلیل عاملی
|
83265
|
من در تطبیق مدلی برای رگرسیون تفاوت در تفاوت ها در Stata مشکل دارم. به طور خاص، من در مورد ضریب B3 در زیر گیج شده ام: y = B0 + B1p + B2trt + B3(p*trt) + u در اینجا، p و trt متغیرهای ساختگی هستند که در آن p = 0 است. «برای قبل از درمان و «1» برای پس از درمان، و «trt = 0» برای گروه کنترل و «1» برای گروه درمان. p * trt یک اصطلاح تعاملی است که نشان دهنده تأثیر نهایی گروه درمانی در طول دوره آزمایشی است. سوال من این است که اگر p / trt = 0 و 1 اگر هر دو p / trt = 1 باشد، این باید یک متغیر ساختگی ساده برابر با صفر باشد؟
|
مدلسازی رگرسیون تفاوتها در تفاوتها در Stata
|
25613
|
من یک پایگاه داده دارم که حاوی بازده روزانه بیش از هزار سهم برای چندین دهه است. من میخواهم به اهداف زیر برسم: 1. یک معیار **متغیر زمان** از حرکت مشترک (یا جزء مشترک) بازده سهام ایجاد کنید. 2. تکامل این معیار را در طول زمان مقایسه کنید و بعداً آن را با سایر متغیرها مرتبط کنید. ایده اصلی این است که ببینیم آیا اهمیت جزء مشترک بازده سهام به طور سیستماتیک در چرخه تجاری متفاوت است یا خیر. اولین ایده من اجرای یک PCA در هر سه ماهه، صرفه جویی در سهم واریانس توضیح داده شده توسط اولین مؤلفه اصلی بود، و سپس این سری زمانی فصلی از واریانس توضیح داده شده، معیار حرکت مشترک در طول زمان خواهد بود. اما مشکل این است که تعداد متغیرهایی که PCA را برای آنها اجرا می کنم در طول زمان ثابت نیست. در بخش اولیه نمونه، من مثلاً 200 سهام و در بخش اخیر، مثلاً 1000 سهام دارم. فرض میکنم اگر تعداد متغیرها در طول زمان متفاوت باشد، مقایسه واریانس توضیح داده شده با PC1 منطقی نیست. من از هر ایده ای برای مقابله با این مشکل قدردانی می کنم. آیا در صورت تغییر تعداد متغیرها در طول زمان، معیاری وجود دارد که بتوان آن را با هم مقایسه کرد؟
|
مقایسه اجزای اصلی در صورت تغییر تعداد متغیرها
|
33448
|
ما یک فرآیند پیشبینی گردش مالی را از یک تحلیلگر قبلی به ارث بردهایم. ابزار مورد استفاده ما SPSS Modeler است. مدل مورد استفاده درخت تصمیم CHAID است. متغیر هدف باینری است: ماندن در مقابل مرکب (به عنوان مثال، شخص در شرکت می ماند، شخص شرکت را ترک می کند). این فرآیند در زیر در زیر پس زمینه به تفصیل آمده است. **من به دنبال این بازخورد خاص از جامعه CV هستم:** 1. چه اشکالی در روند زیر می بینید؟ 2. راه های بهتری برای رسیدن به پیش بینی با استفاده از مدل طبقه بندی درخت تصمیم چیست؟ (من فقط به مدل های درخت تصمیم نگاه می کنم زیرا در داده کاوی و مدل سازی پیش بینی تازه کار هستم و درک این مدل ها آسان تر است) باید اشاره کنم که دقت تا کنون مشکلی نداشته است. اما چیزی که این سوال را برانگیخت این واقعیت است که همه به عنوان مرحوم طبقه بندی می شوند (100٪ موارد مثبت کاذب). من یک سوال جداگانه در مورد آن اینجا ارسال کردم. اگر کسی بخواهد آن را ببیند، میتوانم پیوندی به فایل SPSS Modeler .str (و فایلهای متنی مرتبط، همگی بینام) ارسال کنم. **پیشزمینه** وظیفه: با استفاده از خاتمههای تاریخی دو ساله و دادههای تعداد کارکنان، تعداد خاتمهها را برای سه اداره ما (به عنوان مثال ~ واحدهای تجاری) برای سال مالی آینده پیشبینی کنید. Datafile: داده های کارکنان با چندین فیلد جمعیتی. هر رکورد، کارمندی است که یا در کل دوره دو ساله باقی مانده است یا خاتمه یافته است (یعنی «بماند» در مقابل «بازگشت») فرآیند فعلی ما شامل اجرای یک مدل CHAID به صورت تعاملی با استفاده از SPSS Modeler برای یک دوره زمانی شناخته شده اخیر است. به عنوان مثال 2009-2010 (تنظیم فایل همانطور که در بالا توضیح داده شد). > Sidenote: این داده های آموزش است. داده ها به داده های «آموزش» و «آزمایش» به معنای طبقه بندی سنتی تقسیم نمی شوند. این > عمدتاً به این دلیل است که تعداد بازگشتگان در مقایسه با > (1:14) با ماندن نسبتاً کم است. ما این کار را به صورت زیر انجام می دهیم: 1) مدل تعاملی CHAID به صورت تکراری اجرا می شود (آزمایش و خطا)، هر بار عملکرد را توسط این فرآیند فرعی اندازه گیری می کند: > a. این مدل را برای جمعیت ابتدای سال (مثلاً 2011 در این مورد) بکار ببرید > تا امتیازهای گرایش را برای هر فرد بدست آورید. > > ب. امتیازهای گرایش را بر اساس سازمان جمع و تقسیم بر دو کنید. ما بر > دو تقسیم می کنیم زیرا خاتمه هایی که برای آموزش مدل استفاده می شود یک دوره دو ساله را شامل می شود > اما ما فقط علاقه مند به پیش بینی یک سال هستیم. این پیشبینیهای مدیریت را تولید میکند. > > ج. هنگامی که دقت بالای 85٪ است، به مرحله بعدی بروید. 2) مدل جدید را با استفاده از مدل شماره 1 به عنوان راهنما بسازید. مدل جدید شبیه به یکی در شماره 1 خواهد بود - دانش کسب و کار و برخی حدس و گمان ها برای تنظیم تقسیم ها اعمال می شود ... اما این قسمت حداقل است. 3) مدل نهایی را برای جمعیت ابتدای سال اعمال کنید (مثلاً 2012 ... با فرض اینکه سال آینده باشد) تا پیش بینی های نهایی توسط اداره ارائه شود. BTW من سعی کردم به دنبال پست های مشابه در فرآیند استقرار مدل بگردم اما فقط پست هایی مانند موارد زیر را پیدا کردم که برای من مورد توجه قرار نگرفت - help with- Deploying-a-Model
|
فرآیند استقرار برای مدل های طبقه بندی (به عنوان مثال درختان تصمیم)
|
112127
|
آیا راهی برای تهیه جدول با ستون های از پیش تعیین شده وجود دارد؟ به عنوان مثال ، بیایید بگوییم v = c (1،2،3،2،3،2) ، جدول (v) چیزی شبیه به این را تولید می کند ، 1 2 3 1 3 2 اما من می خواهم یک جدول مانند این 1 2 3 4 1 3 2 0 یعنی باید ستون هایی با فرکانس صفر داشته باشد...
|
جدول با ستون های از پیش انتخاب شده؟
|
83266
|
من میخواهم یک الگوریتم انتشار باور حلقهای را برای نمودارهای عاملی با متغیرهای پیوسته و پیامهایی که با استفاده از ذرات نشان داده میشوند، پیادهسازی کنم، یعنی بردارهای نمونه برای توزیعهای تجربی. تمام کارهایی که در مورد فیلترهای ذرات پیدا کردهام، فیلدهای تصادفی مارکوف را فقط با عبارتهای یکپارچه و باینری یا دنبالههای زمانی (مدلهای مارکوف پنهان) در نظر میگیرند. در مورد یک نمودار عامل کلی، باید عباراتی مانند $$ m_{g_p\rightarrow z_q}(z_q)=\int_{z_1}\int_{z_2}\int_{z_3}g_p(z_1,z_2,z_3) را محاسبه کرد. ، z_q) M_ {z_1 \ RightArrow G_P} (z_1) M_ {Z_2 \ RightArrow G_P} (z_2) M_ {z_3 \ RightArrow G_P} (z_3) {\ rm d} z_1 {\ rm d} z_2 {\ rm d} z_3. $$ این عبارت برای پیامی است که از گره عامل $g_p$ به گره متغیر $z_q$ می رود که در آن $g_p(z_1,z_2,z_3,z_q)$ تابعی است با بسته شناخته شده برای بیان و پیام های $m_{ z_i\rightarrow g_p}(z_i)$ با توزیع ذره تعریف می شوند. تمام معادلاتی که من می بینم فقط یکی از این اصطلاحات ذره ای را دارند. آنچه من می خواهم بدانم روش مناسب برای گسترش نمونه برداری اهمیت و به طور کلی الگوریتم ذرات/MCMC به مواردی است که شما محصولات ذرات دارید. من می دانم که $m_{z_i\rightarrow g_p}(z_i)$ را می توان به صورت مجموع دیراک های وزنی نوشت، با این حال در مورد نحوه محاسبه محصولات مطمئن نیستم. هر گونه اشاره به ادبیات مرتبط بسیار قدردانی می شود.
|
فیلترهای ذرات و انتشار باورهای حلقه ای
|
63879
|
من مطمئن نیستم که از چه آزمون آماری برای مقایسه خوشه بندی بر روی داده های مرتبط استفاده کنم. من برای هر فرد دو مجموعه اندازه گیری دارم. من هر فرد را با هر اندازه گیری خوشه بندی می کنم. سپس اندازهگیری میکنم که این دو چقدر بر هم منطبق هستند. من می خواهم بدانم که چگونه می توانم میزان اهمیت توافق خوشه بندی را آزمایش کنم. به عنوان مثال من 10 نفر دارم و برای هر فرد دو مجموعه از ویژگیها دارم که میگویند بردار A و بردار B هر دو 10 به طول 10. من 10 نفر را با استفاده از بردار A در 2 خوشه خوشهبندی میکنم و چیزی شبیه به 1 2 1 1 2 1 1 میگیرم. 1 2 2 یعنی شخص یک به خوشه یک اختصاص داده می شود، نفر دو به خوشه دو نفر سه به خوشه یک و غیره 10 مثال را در 2 خوشه با استفاده از بردار B بسازید و چیزی شبیه 1 2 1 1 2 1 1 1 1 1 بدست آورید که این دو خوشه با 80 درصد موافق هستند، اما این چقدر مهم است؟ فرمول محاسبه این چیست؟ آیا نسخه ای برای بیش از 2 خوشه وجود دارد؟ آیا منطقی است که برای هر اندازه گیری تعداد متفاوتی از خوشه ها وجود داشته باشد یا اینکه برخی از نمونه ها فقط یک مجموعه اندازه گیری داشته باشند؟ ممنون از هر نظری :)
|
مقایسه خوشه ها از داده های مرتبط
|
72913
|
در رگرسیون چندگانه، اگر فقط یک جدول ANOVA دارید، و هیچ چیز دیگری، هیچ داده خاصی ندارید، چگونه می توانید یک تست F جزئی را روی X1 انجام دهید، با توجه به اینکه X2 از قبل در مدل وجود دارد؟ بنابراین، شما جدول ANOVA را دارید: منبع df SS MS F ----------------------------------- رگرسیون 2 1.44 0.72 9.72 خطا 3 0.22 0.07 کل 5 1.66 ----------------------------------- همه مقادیر پر شده اند. فقط با این اطلاعات، چگونه می توانید انجام دهید آزمون F جزئی که در آن: * F = MSR(X1|X2) / MSE(X1, X2) * MSR(X1|X2) = SSR(X1, X2) - SS(X2) = 1.44 - ???? * MSE (X1, X2) = MSE = 0.07 SSR(X1, X2) را می توان از جدول به دست آورد (رگرسیون SS) MSE(X1, X2) را نیز می توان از جدول به دست آورد (فقط MSE) اما من نمی توانم SS را بدست بیاورم( X2) از جدول، تا جایی که من می دانم...... تا آنجا که من می دانم، برای انجام این کار به مقادیر X و Y خاصی نیاز دارید. آیا راه دیگری از روی میز وجود دارد؟
|
نسبت F جزئی از جدول ANOVA
|
112126
|
من یک چارچوب داده از 134 مشاهده، 9 متغیر مستقل، و یک پاسخ باینری و طبقه بندی دارم. لطفا ساختار آن را در زیر ببینید: > str(df) 'data.frame': 134 obs. از 10 متغیر: سفر $ : فاکتور w/ 11 سطح 1،2،3،4،...: 2 2 2 2 2 2 2 2 2 2 ... $ نفر : فاکتور w/ 16 سطح «1»، «2»، «3»، «4»،...: 14 7 2 14 7 14 2 14 14 7 ... $ f1 : Factor w/ 2 سطح 1،2: 1 2 2 1 2 1 2 1 1 2 ... $ f2 : num 146 163 179 190 194 172 172 175 240 214 ... $ f3 : num 37 38 2 37 41 37 52 38 37 ... $ شرط: فاکتور w/ 4 سطح 1،2،3،4: 1 1 4 1 4 2 2 1 2 1 ... $ f4 : num 80 45 114 110 60 121 56 140 93 68 ... $ f5 : num 60 136 128 136 165 118 220 90 177 240 ... $ f6 : num 15.2 15.2 15.2 15.3 15.3 15.2 15.2 15.5 15.6 15.6 ... $ مرگ و میر: فاکتور w/ 2 سطح 1، 2 121 1 1 1 ... برای این خاص مطالعه، ما در چندین سفر نمونه رفتیم که در آن هر فرد در شرکت ما سعی کرد حیوانات را با انواع خاصی از تجهیزات شکار کند. علاوه بر فاکتورهای «f1 - f6»، ما به صورت بصری میزان آسیب فیزیکی وارد شده به حیوان توسط هر نوع تجهیزات را ارزیابی کردیم و آن را در مقیاس 1-4 رتبه بندی کردیم. سپس حیوان را پس از بازگرداندن آن به محیطش ردیابی کردیم تا ببینیم که آیا در اثر اسیر شدن مرده است یا خیر. من سعی می کنم یک رگرسیون لجستیک باینری را با مرگ به عنوان پاسخ باینری (1 = خیر، 2 = بله) و f1،f2،f3،f4،f5،f6، و شرط به عنوان متغیرهای توضیحی جا بزنم. از آنجایی که من در SO پست می گذارم، فقط می تواند به این معنی باشد که من با مشکلاتی از جمله اثرات تصادفی سفر و شخص مواجه هستم. به طور خاص، من سعی میکنم این عبارات اثر تصادفی را با توجه به شرط وارد کنم، زیرا هر سفر و شخص میتوانست زمانی که شرط نهایی میشد سوگیری ایجاد کند. برای مثال، وقتی به تعداد حیواناتی که در هر «سفر» و «شرط» صید و رها شدهاند، نگاه میکنیم، میبینیم که هر سطح از عامل «شرایط» در هر «سفر» نمونه وجود ندارد: > xtabs(~condition + سفر، دف) شرایط سفر 1 2 3 4 5 6 7 8 9 10 11 1 17 9 4 4 1 2 4 4 4 4 4 2 5 9 6 4 0 3 2 8 8 0 0 3 1 0 1 4 1 5 3 0 0 5 0 4 1 3 2 3 1 0 1 0 1 0 0 این اطلاعات بالا به من این باور را می دهد که داده های شرایط من تو در تو «سفر». با این حال، از آنجایی که دادههای ما به گرفتن فرصتطلبانه این حیوانات متکی بود، هر «سفر» شانس یکسانی برای گرفتن حیوانی در هر سطح «شرایط» داشت (که یک طرح متقاطع است). بنابراین... **سوال 1:** آیا اثرات تصادفی من یک طرح تودرتو یا متقاطع است؟ بسته به اینکه افراد چگونه به سوال 1 پاسخ می دهند، باید آن اثر تصادفی را در یک بسته R که قادر به مدیریت رگرسیون لجستیک اثرات مختلط است، به درستی نشان دهم. من از بسته ordinal استفاده می کنم زیرا هدف نهایی من این است که ببینم کدام متغیرهای مستقل بیشترین تأثیر را بر مرگ دارند، بنابراین می توانم از آنها به عنوان پیش بینی کننده در حیوانات استفاده کنم که پس از رهاسازی نمی توانیم آنها را ردیابی کنیم. علاوه بر این، بسته تعدادی توانایی پیش بینی احتمالات مرگ و میر را دارد: > کتابخانه (تدوینی) > mod <- clmm(مرگ ~ f1 + f2 + f3 + f4 + f5 + f6 + شرط + اثرات تصادفی، داده = df، هس = درست است) جایی که «تأثیر تصادفی» ترکیبی از «سفر»، «شخص» و/یا خواهد بود. شرط با توجه به وقفه ای مانند (1|شرط:سفر) برای شرط که در سفر تودرتو شده است یا (1|سفر در صورت عبور از آن. **سوال 2:* * نحوه نمایش صحیح نوع افکتهای تصادفی در نحو R بسته به اینکه «شرایط»، «سفر» و/یا «شخص» مورد نیاز است، میدانم که بخش دوم این سؤال بیشتر مرتبط است StackOverflow اما کل سؤال مربوط به تنظیم صحیح این رگرسیون لجستیکی است.
|
برازش رگرسیون لجستیک اثرات مختلط با اثرات تصادفی
|
83263
|
فرض کنید من یک مجموعه داده کوچک (~50 مشاهده) و 50 یا بیشتر متغیر توضیحی دارم و می خواهم یک مدل خطی برای پیش بینی ایجاد کنم. ابتدا، من می خواهم یک ماتریس همبستگی یا یک تکنیک انتخاب متغیر بسازم تا تعداد کمتری از پیش بینی کننده ها را برای گنجاندن در مدل انتخاب کنم. با این حال، من نمی دانم هنگام تلاش برای آموزش مدل و بررسی اینکه آیا قدرت پیش بینی دارد یا خیر، اقدام مناسب چه خواهد بود؟ تقسیم داده های آزمون قطار؟ اعتبار متقابل؟ بهترین اقدام با مجموعه داده های کوچک و تعداد زیادی متغیر توضیحی چیست؟ w/R برچسب گذاری شد زیرا من از R برای انجام تجزیه و تحلیل استفاده خواهم کرد.
|
جایگزین هایی برای تقسیم آزمون قطار با مجموعه داده های کوچک
|
109044
|
من روی یک مدل ترکیبی نسبتا ساده کار می کنم که در آن دو پیش بینی پیوسته با یک اصطلاح تعامل و سه سایت دارم. من دو پیشبینیکننده را بهعنوان اثرات ثابت و سایت را بهعنوان تصادفی در نظر میگیرم. اگر بخواهم پیش بینی ها را با کم کردن میانگین هر یک در مرکز قرار دهم، آیا این کار را به طور جداگانه برای هر سایت انجام می دهم؟ یا بهتر است میانگین کلی هر پیش بینی کننده را محاسبه کنید و از آن برای مرکز استفاده کنید. از طرف دیگر، من به تمرکز بر اساس یک مقدار فیزیکی، یک آستانه، که بین هر سایت متفاوت است فکر می کنم. آیا این معتبر است؟ من از nlme در R استفاده می کنم. تماس lme(پاسخ ~ پیش بینی 1 + پیش بینی 2 + پیش بینی 1: پیش بینی 2، تصادفی = ~ 1 | سایت) است.
|
متغیر مرکزی به طور جداگانه برای هر عامل در مدل مختلط خطی؟
|
26147
|
بنابراین توضیحی که خواندم این است: > توجه به این نکته مهم است که فرمول های محاسبه واریانس و > انحراف معیار بسته به اینکه با توزیع > نمرات گرفته شده از یک نمونه کار می کنید یا از یک جامعه، متفاوت است. دلیل متفاوت بودن این دو فرمول بسیار پیچیده است و به فضایی بیشتر از حد مجاز در کتاب کوتاهی مانند این نیاز دارد. من در اینجا توضیحی بیش از حد کوتاه ارائه میدهم و سپس شما را تشویق میکنم که توضیح کاملتری را در کتاب درسی آمار سنتی بیابید. به طور خلاصه، زمانی که میانگین جمعیت را نمی دانیم، باید از میانگین نمونه به عنوان تخمین استفاده کنیم. اما نمونه > میانگین احتمالاً با میانگین جامعه متفاوت خواهد بود. هرگاه از عددی غیر از میانگین واقعی برای محاسبه واریانس استفاده کنیم، در نهایت با واریانس > بزرگتر و در نتیجه انحراف معیار بزرگتر نسبت به زمانی که از میانگین واقعی > استفاده کرده بودیم، خواهیم داشت. این صرف نظر از اینکه عددی که > در فرمول خود استفاده می کنیم، کوچکتر یا بزرگتر از میانگین واقعی ما باشد، صادق خواهد بود. از آنجا که میانگین نمونه معمولاً با میانگین جامعه متفاوت است، واریانس و > انحراف معیاری که با استفاده از میانگین نمونه محاسبه میکنیم احتمالاً > کوچکتر از آن خواهد بود که از میانگین جامعه استفاده میکردیم. بنابراین، وقتی از میانگین نمونه برای ایجاد تخمینی از جامعه > واریانس یا انحراف معیار استفاده می کنیم، در واقع اندازه > واریانس واقعی در جامعه را دست کم می گیریم زیرا اگر از میانگین > جامعه به جای نمونه استفاده می کردیم. به این معنی که مجموع بزرگتری از انحرافات مجذور > و واریانس و انحراف استاندارد بزرگتر ایجاد می کردیم. برای تنظیم > برای این کمتر برآورد، از n - 1 در مخرج فرمول های نمونه > خود استفاده می کنیم. مخرج های کوچکتر آمار واریانس کلی و انحراف استاندارد بزرگتر را تولید می کنند که تخمین دقیق تری از پارامترهای جمعیت خواهد بود. من هیچ کدام از اینها را نفهمیدم زیرا متناقض به نظر می رسد. می گوید که وقتی از عددی غیر از میانگین واقعی استفاده می شود (برای من، به عنوان مثال، میانگین نمونه) متفاوت خواهد بود، سپس میانگین جامعه واریانس بزرگتری ایجاد می کند. وسط میگه اگه از میانگین جامعه استفاده شده باشه واریانس و میانگین نمونه کمتر میشه... میشه توضیح بدید دقیقا کدومه و چرا؟
|
چرا مجموع مجذور اختلاف میانگین نمونه کوچکتر از مجذور اختلاف میانگین واقعی است؟
|
83260
|
من از تابع clogit (از بسته بقا) برای اجرای یک رگرسیون لجستیک شرطی در R با یک مجموعه داده بزرگ از جفتهای همسان 1:M با n=300368964 و تعداد رویدادها = 39995 استفاده کردم. مدل <- clogit(Alliance ~ OVB + CVC + BVB + strata (Strata)، روش = دقیق) من نتایج زیر را دریافت کردم: coef exp(coef) se(coef) z Pr(>|z|) OVB -0.0498174 0.9514031 0.0166275 -2.996 0.00273 ** BVB 0.0277405 1.0281289 0.0281289 0.03046275 0.03041950 C. 1.1709851 3.2251683 0.1089709 10.746 < 2e-16 *** EarlyStage -1.3215824 0.2667129 0.0205851 -64.201 < 2e-V00CS *** 1.0088364 0.0002035 43.224 < 2e-16 *** NumberVC 0.0643579 1.0664740 0.0034502 18.653 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Rsquare = 0 (حداکثر امکان = 0.001 ) آزمون نسبت درستنمایی = 6511 در 6 df، p=0 آزمون Wald = 6471 در 6 df، p=0 نمره (لوگرانک) آزمون = 6801 روی 6 df، p=0 از آنجایی که Rsquare برابر با 0 است و نسبت های تست بسیار بالا به نظر می رسد، من سعی کردم نتایج را رسم کنم تا بررسی کنم که آیا مدل مطابقت دارد یا خیر. اما من نتوانستم آن را به درستی ترسیم کنم. من مقالات زیادی را آنلاین میکنم که از نسبت Prob > chi2 = 0 از Stata به عنوان نسبت آزمون برای اثبات تناسب مدل استفاده میکنند. چگونه می توانم این نسبت را در R محاسبه کنم؟ آیا راه های دیگری وجود دارد که بتوانم تناسب مدل نتایج کلگیت خود را بررسی کنم؟ من از هر کمکی قدردانی می کنم. پیشاپیش از شما بسیار سپاسگزارم
|
نحوه محاسبه Prob > chi2 در R برای آزمایش برازش مدل رگرسیون لجستیک شرطی
|
34940
|
من در مورد اینکه کدام الگوریتم درخت تصمیم در weka را برای برنامه خود استفاده کنم سردرگم هستم. من 5 متغیر ورودی واقعی و 2 کلاس دارم. در آموزش های آنلاین مختلف J48 (C 4.5) الگوریتم انتخابی به نظر می رسد. آیا قوانین سرانگشتی / نکات / ترفندهایی برای تصمیم گیری در مورد اینکه کدام الگوریتم درختی باید استفاده شود وجود دارد؟ 
|
چگونه تصمیم بگیریم که از کدام طبقه بندی درخت تصمیم استفاده کنیم؟
|
108927
|
روز قبل بدون پاسخ سوال مشابهی پرسیدم. فکر می کنم شاید سوال آنجا خیلی بزرگ باشد. در اینجا می خواهم یک مورد خاص را بپرسم: * 2 برچسب کلاس (طبقه بندی باینری که با 1 یا 0 برچسب گذاری شده است). * 50 مورد (20 مورد با عنوان 1 و 30 مورد با برچسب 0)؛ * 18 ویژگی استخراج شده (برخی مقادیر فیزیکی)؛ * 12 ویژگی پس از انتخاب ویژگی باقی مانده است. برای جلوگیری از تطبیق بیش از حد از چند ویژگی می توان برای طبقه بندی استفاده کرد؟ یا محدودیتی نداره؟ برخی از مقاله ها اشاره کردند که تعداد ویژگی ها باید کمتر از 1/3 کوچکترین داده های برچسب گذاری شده باشد. برای مثال من باید کمتر از (1/3)*20 باشد که حدود 7 است، یعنی حداکثر می توان از 6 یا 7 ویژگی استفاده کرد. درست میگم؟ خیلی ممنون الف
|
از چند ویژگی می توان برای طبقه بندی استفاده کرد؟
|
33449
|
به من آموزش داده شد که اگر من یک رگرسیون را در یک تعامل وارد کنم، باید آن را نیز جداگانه وارد کنم. یعنی اگر $y$ را روی $x_1 \times x_2$ عقب نشینی کنم، باید $x_1$ و $x_2$ را نیز جداگانه وارد کنم. اگرچه من هرگز این را در متنی ندیدهام، اما این برای من منطقی است - اگر ضمیمه متقاطع را وارد کنم، باید افکت مرتبه اول را نیز وارد کنم. با این حال، در مقالات منتشر شده اقتصادی (در مجلات خوب) مقدار زیادی $$y_i = \alpha + \beta x_{1,i} + \gamma x_{1,i} \times x_{2,i} + \ میبینم. epsilon_i$$ وقتی به نظر می رسد که $$y_i = \alpha + \بتا x_{1,i} + \gamma x_{1,i} \times x_{2,i} + \delta x_{2,i} + \epsilon_i$$ صحیح تر است. آیا حذف $x_2$ بدون تعامل مشکلی ندارد؟ آیا مرجع خوبی در این مورد وجود دارد؟ با تشکر
|
رگرسیون های تعامل را به طور جداگانه لحاظ کنید؟
|
108923
|
من در حال بررسی پروژه ای در مورد مقایسه روش های استاندارد ایجاد یک طبقه بندی کننده با برخی روش های اکتشافی هستم. روشهای اکتشافی باید به آموزش سریعتری برای طبقهبندیکننده منجر شود، اما باید منجر به یک طبقهبندی با دقت کمتر شود - مبادله معمول. من مقایسه را روی 50 مجموعه داده انجام می دهم و می خواهم تفاوت را در دقت با استفاده از اکتشافی گزارش کنم. 1) من ابتدا قصد داشتم از h کوهن در تفاوت دقت استفاده کنم. $$ h = 2 \arcsin(ac1) - 2 \arcsin(ac2) $$ ویرایش: من دو فرمول متناقض برای h کوهن پیدا کردم. فرمول بالا در کتاب راهبردهای آماری برای تحقیقات نمونه کوچک است که توسط ریک اچ. هویل ویرایش شده است. فرمول دوم $$ h = 2 \arcsin(\sqrt{ac1}) - 2 \arcsin(\sqrt{ac2}) $$ و به نظر می رسد منبع خود کوهن در این لینک باشد http://people.ucalgary.ca/~ramsay/cohen-effect-size-h-arcsin- transformation.htm. ویرایش پایان (شهود در کوهن h این است که بهبود دقت یک طبقهبندیکننده از 0.90 به 0.95 بسیار دشوارتر از بهبود طبقهبندیکننده دیگر از 0.70 به 0.75 است، یعنی اندازه اثر اولین تغییر بزرگتر از آن است. نظریه h کوهن در واقع در مورد واریانس صحبت می کند - واریانس در 0.90 کوچکتر از واریانس است. حدود 0.7.) 2) اما برای من منصفانه تر، باید در نظر بگیرم که برای شروع، داشتن دقت 0.9 یا 0.70 چقدر سخت است. اینجاست که کاپا وارد می شود. کاپا اندازه گیری می کند که چقدر بالاتر از یک طبقه بندی کننده حدس زدن دقت من است (ac) $$ \kappa = {ac - guess\over{1-guess}} $$ که در آن حدس، دقت طبقه بندی حدس زدن است که از نسبت کلاس های موجود در داده $$ guess = pos*pos + neg*neg $$ که در آن pos و neg نسبت مثال های مثبت و منفی هستند. 3) اینجا اولین سوال من است. آیا اندازه گیری اندازه اثر برای کاپا وجود دارد؟ آیا باید تبدیل arcsin را انجام دهم یا فقط از تفاوت میانگین در کاپا استفاده کنم؟ 4) همچنین متوجه شدم که می توانم از واریانس دقت یا کاپا برای هر طبقه بندی کننده استفاده کنم. من در ابتدا قصد داشتم از یک اعتبارسنجی متقاطع نگهدارنده استفاده کنم، اما اگر واریانس مورد استفاده قرار گیرد، میتوانم از هر اعتبار متقاطع دیگری که تخمینی از واریانس را به من میدهد استفاده کنم (تکرار نگهداشتن، k-برابر، بوت استرپ). در این مورد می توانم از یک d کوهن برای گزارش تفاوت در دقت (یا کاپا) استفاده کنم. آیا این منطقی است؟ هر فکری؟ با تشکر
|
آیا اندازه افکتی برای کاپا وجود دارد؟
|
112123
|
من یک داده ورودی و یک متغیر باینری خروجی دارم. اگر بیمار بیمار شود، مقدار y 1 است. > خلاصه (x_یا) Symscore1 Symscore2 تمرین3 مدت تمرین3 تغییر گروه سن3 حداقل. :0.0000 دقیقه :0.0000 دقیقه : 1000 دقیقه :0.000 معمولی به معمولی: 340 دقیقه. :45.00 1st Qu.: 0.0000 1st Qu.:0.0000 Qu. 1st:3.000 Qu. 1:2.000 منظم تا یائسگی : 360 1st Qu.: 49.00 میانه :0.0000 میانه :0.0000 میانه: 0.000 Median:0.000 Transitional to Transitional: 171 Median :54.00 Mean :0.5504 Mean :0.5941 Mean :3.651 Mean :2.545 Transitional to Menopausal :1492 Mean :54.07 3rd Qu.:1.000:10.0000 Q.3rd س 3: 3.000 یائسگی تا یائسگی : 246 س 3: 59.00 حداکثر. حداکثر : 5.0000 حداکثر : 5.0000 حداکثر: 5000 حداکثر : 4000 :66.00 بسته سال bmi3 Education3 Min. : 0.000 دقیقه :16.77 پایه : 348 1st Qu.: 0.000 Q 1st Qu.:22.32 دبیرستان:1013 میانه : 0.000 میانه :24.84 دانشگاه: 1248 میانگین : 4.397 میانگین :25.60 5 Q.714: 3th Qu. حداکثر :97.143 :57.09 > summary(y_or) 0 1 2129 480 من یک مدل جنگل تصادفی برازش کرده ام و اندازه پرت را محاسبه کرده ام rf = randomForest(x = x_or، y = y_or، نزدیکی = T، ntree = 1000) outlier (x = rf) نزدیکی $، cls = y_or) نمودار (خارج، col=y_or) از نمودار پرت می توانم ببینم که برخی از نمونه های با y=1 دارای اندازه پرت بسیار پایینی هستند. عملکرد پیشبینی کلی مدل من بسیار پایین است. آیا می توانم از این طرح استنباط کنم که یک زیر گروه از بیماران وجود دارد که به احتمال زیاد بیمار می شوند؟ اساساً من می خواهم در تیم پزشکی بگویم که به دست آوردن یک مدل کلی دشوار است اما ما می توانیم افراد با این ویژگی ها را طبقه بندی کنیم... 
|
برای تشخیص گروهی از متغیرها از پرت تصادفی جنگل استفاده کنید
|
58846
|
لطفاً به من کمک کنید تا توزیع محدودکننده (به صورت $n \rightarrow \infty$) موارد زیر را پیدا کنم: $$ U_n = \frac{X_1 + X_2 + \ldots + X_n}{X_1^3 + X_2^3 + \ldots X_n ^3}، $$ که در آن $X_i$ iid $N(0,1)$ است.
|
نسبت مجموع نرمال به مجموع مکعب های نرمال
|
103181
|
من مقالات مختلفی را در مورد بحث و جدل p-value خوانده ام و از آنجایی که بهترین راه برای درک نظریه، تمرین آن است، یک مثال ابداع کردم. فرض کنید من یک روانشناس هستم و آزمایشی انجام دادم. مطالعه من ساده بود - هدف بررسی سطح همدلی در دو گروه بود: مردان و زنان. از برخی تئوری ها و مطالعات قبلی، من می دانم که توزیع همدلی در هر دو گروه نرمال است و انحراف معیار برابر با 1 است. من می خواهم آزمایش کنم که H_0: μ_men = μ_زنان، در مقابل H_1: μ_men برابر با μ_زنان نیست. اگر بخواهم از رویکرد Neyman-Pearson استفاده کنم و تمام آن مسئله p-value را حذف کنم، به معنای واقعی کلمه چه کاری باید انجام دهم؟ اخیراً، برای اینکه بتوانم به یاد بیاورم، آنچه در داخل بود، آن مقالات را خواندم: * Lew, M.J., به P یا نه به P: در مورد ماهیت اثباتی P-values و جایگاه آنها در استنتاج علمی * Lehman, 1993، تئوری های فیشر، نیمن-پیرسون برای آزمون فرضیه ها * هاگن، R.L.، در ستایش از باطل آزمون آماری فرضیه * کوهن، جی، زمین گرد است، p>0.05 * هابارد، آر.، زمین به طور قابل توجهی گرد است (0001/0p<) [این یک نظر در مورد مقاله کوهن است] * اشمیت، هانتر، آیا مزایای NHST وجود دارد * Dienes، Z.، فصل 2،3 از درک روانشناسی به عنوان یک علم خب من سعی می کنم تا چند روز دیگر همانطور که @Glen_b پیشنهاد می کند محاسبه کنم. امیدوارم بتوانم نتایج خود را در اینجا ارائه دهم.
|
چگونه: P-value را حذف کنید و از رویکرد N-P در عمل استفاده کنید؟
|
71636
|
می خواستم بدونم که آیا خطاها همبستگی غیر صفر دارند، آیا حداقل مربعات وزنی در این مورد مناسب است؟
|
حداقل مربعات وزنی با همبستگی خطا
|
83269
|
من مطمئن نیستم که چگونه از تکالیف به این مشکل نزدیک شوم. تنها معادله ای که من برای محاسبه احتمال دارم این است که هر نتیجه در فضای نمونه فرصت برابر داشته باشد. موارد زیر فرصت برابر نیست درست است؟ یک کشو شامل 6 جوراب قرمز، 4 جوراب سبز و 2 جوراب مشکی است. دو جوراب به صورت تصادفی انتخاب می شوند. احتمال تطابق آنها چقدر است؟
|
چگونه احتمال هماهنگی جوراب را از کشو محاسبه کنیم؟
|
105523
|
بسیاری از تکنیک های یادگیری ماشین از نفرین حداقل های محلی رنج می برند، یکی از آنها K-means است. من از یک اسکریپت متلب برای کار بینایی کامپیوتر استفاده می کنم. یکی از اولین گامهایی که انجام میدهم، خوشهبندی kmeans روی یک تصویر در نمایش رنگ آزمایشگاهی است، من فقط اجزای ab را در نظر میگیرم. بنابراین من پیکسلهایم را مجموعهای از نقاط داده ab بدون استفاده از اطلاعات هندسی (مثلاً مکان پیکسل) پیکسلها میدانم. با این حال، حدس میزنم اینها جزئیات کمتر مهمی هستند. در اصل من فقط k-means را انجام می دهم. الگوریتم _آماری غیر قطعی_ من (بخوانید اسکریپت Matlab) می تواند یک نتیجه (c) درست یا یک (w) نتیجه اشتباه بدهد. خوشبختانه، (c) بیشتر اتفاق میافتد، اما (w) نیز اتفاق میافتد:(. من فقط میتوانم این را با دست تأیید کنم، کامپیوتر کم و بیش نمیداند که پاسخ اشتباهی را محاسبه کرده است. با این حال، خطای نهایی k- میانگین به نظر می رسد کمی است، اما به طور مداوم در مورد (w) در مقایسه با (c) این نتیجه اجرای چندین بار الگوریتم روی یک تصویر با پارامترهای یکسان است (k=7). عبارت است از: تکرار 1، 36 تکرار، مجموع فاصله ها = 1.53591e+06، مجموع فاصله ها = 1.54903e+06، مجموع کل فاصله ها فواصل = 1.53591e+06. 129 تکرار، مجموع فواصل = 1.54903e+06، مجموع فواصل = 1.53591e+06 ، مجموع کل فواصل = 1.53591e+06 تکرار 1، 80 تکرار، مجموع فاصله ها = 1.54903e+06. تکرار 1، 106 تکرار، مجموع کل فواصل = 1.54903e+06. تکرار 1، 125 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 120 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 128 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 108 تکرار، مجموع کل فواصل = 1.54903e+06. تکرار 1، 129 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 112 تکرار، مجموع کل فواصل = 1.54903e+06. تکرار 1، 120 تکرار، مجموع کل فاصله ها = 1.54903e+06. تکرار 1، 121 تکرار، مجموع کل فاصله ها = 1.54903e+06. اجراها منجر به (w): تکرار 1، 80 تکرار، مجموع کل فاصله ها = 1.61651e+06. تکرار 1، 33 تکرار، مجموع کل فواصل = 1.61651e+06. تکرار 1، 62 تکرار، مجموع کل فواصل = 1.62508e+06. بنابراین غریزه من به من می گوید که احتمال قبلی a (c) بسیار بیشتر از a (w) است که خوب است. از آنجایی که اکنون می توانم k-means n بار را تکرار کنم و در نتیجه یک الگوریتم nxk-means ایجاد کنم و نتیجه را با کمترین خطای نهایی انتخاب کنم. این به احتمال زیاد منجر به (c) خواهد شد. با این حال، این یک راه حل نسبتاً خام به نظر می رسد. آیا راههای هوشمندانهتر/سریعتر/آماری _صداتر_ برای مقابله با بهینه محلی در k-means وجود دارد؟
|
از حداقل های محلی در کیلومترها اجتناب کنید
|
107672
|
من روی یک مجموعه داده با ابعاد بالا (1776 متغیر) کار می کنم. وقتی فایل csv را می خوانم، R متغیرها (با مقادیر 0 یا 1) را به عنوان کلاس عدد صحیح بارگذاری می کند. آیا تبدیل این متغیرها به فاکتورها قبل از ساخت مدل های پیش بینی مهم است (به عنوان مثال gbm، randomForest، SVM، و غیره)؟ اگر بخواهم از PCA برای کاهش بعد استفاده کنم، آیا درست است که این متغیرها را به عنوان عدد صحیح نگه دارم؟ (از آنجایی که PCA با متغیرهای فاکتور کار نمی کند). به سلامتی
|
آیا تبدیل متغیرهای عدد صحیح (با مقادیر 0 یا 1) به فاکتور مهم است؟
|
33995
|
آیا کسی می تواند به من بگوید که در چه شرایطی تخمین های بتا بین lm و lmer با یک رهگیری تصادفی متفاوت است؟ من با موقعیتی مواجه شدم که در آن اثر ثابت به طور قابل توجهی متفاوت بود. من فکر کردم که خطاهای std باید تغییر کند اما اثرات ثابت باید بدون تغییر باقی بمانند. به نظر نمی رسد این تفاوت به دلیل داشتن اندازه های مختلف خوشه یا داشتن تعداد زیادی خوشه با یک مشاهده باشد. من نمی توانم داده ها را ارائه کنم اما یک مثال ساده را در زیر ساخته ام. در این حالت همبستگی درون خوشه ها باید ناچیز باشد. کتابخانه (lme4) x=c(rep(0,10),rep(1,10)) y=rnorm(طول(x),mean=3100,sd=400)-200*x m=c(1,2, 3،4،4،6،7،8،8،10،11،12،13،14،15،16،17،18،20،20) خلاصه (lm(y~x)) خلاصه (lmer(y~x+(1|m)))
|
آیا تخمین بتا نباید همیشه با استفاده از lm و lmer یکسان باشد؟
|
71635
|
به عنوان مثال، اگر چبیشف $P(|X-\mu|\geq k\sigma)\leq را 0.25$ بگوید و احتمال واقعی برای $k=2$ نیز 0.25$ باشد.
|
اگر کران بالای چبیشف همان مقدار محاسبه احتمال واقعی را بدهد، چه نتیجه ای می توانیم بگیریم؟
|
107679
|
فرض کنید سن معمولاً با میانگین 20 و انحراف معیار 5 توزیع میشود. چگونه مطمئن میشوید که وقتی سن را از این توزیع نمونهبرداری میکنید، فقط مقادیر مثبت دریافت میکنید؟ من سعی می کنم داده های از دست رفته را نسبت دهم. من فرض می کنم که MAR است (به طور تصادفی گم شده است) زیرا گم شدن به جنسیت بستگی دارد. سن های گمشده هم از مرد و هم از زن است. بنابراین من از دو توزیع نرمال (یکی برای مردان و دیگری برای زنان) نمونه برداری می کنم.
|
چگونه می توان در هنگام وارد کردن داده ها فقط مقادیر مثبت را بدست آورد؟
|
71639
|
مقدار مورد انتظار برای واریانس نمونه برای نمونهای که از نمونهگیری تصادفی ساده بدون جایگزینی گرفته شده است، چیست، به عنوان مثال، چگونه نشان دهیم که $$\mathrm{E}(s^2) = \sigma^2 \frac{N}{ N-1}$$ آیا فرض من این فقط برای نمونههای SRS بدون جایگزین صادق است؟ در یک یادداشت مرتبط، واریانس نمونه از دو عدد چگونه است، $x_1، x_2$ برابر با $((x_1-x_2)^2)/2$ همان نماد در این صفحه وب، http://www استفاده میشود. .utdallas.edu/~serfling/handouts/ExpValSampVar.pdf
|
اثبات اینکه $\mathrm{E}(s^2) = \sigma^2 \cdot N/(N-1)$
|
58849
|
من از بسته R Forecast استفاده کرده ام که برای ایجاد مدل های ETS و Arima مناسب استفاده کرده ام. من به راحتی می توانم در R با استفاده از بسته Forecast پیش بینی کنم اما باید بتوانم با استفاده از جاوا اسکریپت در داخل مرورگر پیش بینی کنم. یک مثال کوچک کار شده واقعاً به من در کار ریاضی کمک می کند. چگونه می توانم مدل ETS و ARIMA را به عنوان مجموعه ای از معادلات پیاده سازی کنم؟ ets(y = جسم) پارامترهای هموارسازی: آلفا = 0.376 گاما = 1e-04 حالت های اولیه: l = 155.9654 s=26.8689 16.1568 6.5561 -3.4351 -22.9801 -22.9801 -35.9801 -22.9801 -35.933 -35. 16.3216 6.0061 20.9192 25.2434 سیگما: 0.0277 ARIMA(0,0,0)(0,1,0)[12] sigma^2 تخمین زده شده به عنوان 62.5: log likelihood=-83.68
|
اجرای پیش بینی ETS و ARIMA
|
83264
|
من چگالی شرطی زیر را دارم: $$ P(x | \theta, \pi) = \prod_{i=1}^I \prod_{j=1}^J t_{ij}! \prod_{k=1}^K \frac{1}{x_{ijk}!}(\sum_{l=1}^L \theta_{il} \pi_{jkl})^{x_{ijk}} $ $ در اینجا، $x$ داده (مشاهده شده) است. $\theta$ و $\pi$ پارامترهای پنهانی هستند که مشاهده نمی شوند. در نهایت، $t_{ij}$ ثابتی است که از داده ها محاسبه می شود. هدف کلی من این است که پارامترهای پنهان ($\theta$ و $\pi$) را با توجه به داده ها ($x$) استنتاج کنم. اساساً $P(x | \theta, \pi)$ حاصل ضرب چندجملهای I*J است. پارامترهای هر چند جمله ای توسط $\theta$ و $\pi$ کنترل می شوند. من این متغیرها را به اختصار توضیح خواهم داد. اول، $\theta_i$ یک بردار احتمال به طول L است. به عبارت دیگر، برای همه $i$، داریم: $$ \sum_{l=1}^L \theta_{il} = 1 $$ The $\ متغیرهای pi$ متغیرهای شاخص هستند. برای یک $j$ و $k$ معین، آنها به شما می گویند که کدام $\theta_{il}$ را باید در جمع قرار دهید. به طور شهودی، هر چند جمله ای از کل قطعات K$ ساخته شده است. برای هر قسمت $k$، همه $\theta_{il}$ ممکن را تکرار میکنیم و انتخاب میکنیم که کدامها شامل شوند. چند محدودیت ساده روی متغیرهای $\pi$ وجود دارد. برای یک $j$ و $l$ معین، فقط یک $k$ وجود دارد که $\pi_{jkl}$ غیر صفر است. نتیجه این است که: $$ \sum_{k=1}^K \sum_{l=1}^L \theta_{il} \pi_{jkl} = 1 $$ امیدوارم این توضیح خوب باشد. به هر حال، هدف من استنتاج پارامترهای پنهان $\theta$ و $\pi$ است. من امیدوار بودم که بتوانم این کار را با EM انجام دهم. مشکل من این است که با توجه به $\pi$ و $x$، من نمی دانم چگونه متغیرهای $\theta$ را به روز کنم. من سعی کردم $P(x | \theta, \pi)$ را بیش از $\theta$ به حداکثر برسانم، اما با مشکل مواجه شدم زیرا $\theta_{il}$ها همه وابسته هستند (زیرا مجموع آنها باید برابر با 1 باشد). این باعث می شود محاسبه مشتق بسیار دشوار باشد. من امیدوار بودم که کسی بتواند به من مشاوره دهد یا در مسیر درست به من اشاره کند. همچنین، اگر مردم بتوانند راهحلهای دیگری را پیشنهاد کنند، واقعاً ممنون میشوم. در حال حاضر، من به دنبال نمونه برداری از توزیع پسین پارامترها (با توجه به داده ها) هستم، اما باید مطالعه بیشتری انجام دهم تا به طور کامل بفهمم که چگونه این کار می کند. اگر کمک کند میتوانم یک دیریکله را روی $\theta$ و یک لباس مجزا را روی $\pi$ قرار دهم. با تشکر
|
EM در حاصلضرب چندجمله ای
|
2059
|
به نظر می رسد که MLE (از طریق EM) به طور گسترده در یادگیری ماشین / آمار برای یادگیری پارامترهای مخلوطی از گاوسیان استفاده می شود. من فرض می کنم که نمونه های تصادفی از مخلوط به ما داده می شود. سوال من این است: آیا از نظر تعداد نمونه ها (و شاید پارامترهای گاوسی) حد و مرز _کمی_ اثبات شده ای روی خطا وجود دارد؟ به عنوان مثال، زمان اجرا مورد نیاز برای تخمین پارامترها تا یک خطای خاص چقدر است؟ در حالت ایدهآل، این محدودهها فرض نمیکنند که ما در یک محله محلی از راهحل بهینه یا هر چیز دیگری شروع میکنیم. (اگر EM روش انتخابی نیست و راه بهتری برای انجام آن وجود دارد، لطفاً به این موضوع نیز اشاره کنید.)
|
پارامترهای یادگیری مخلوطی از گاوسی با استفاده از MLE
|
15670
|
من چندین بار سعی کردهام به تنهایی پیش بروم - اما با موفقیت محدود. من یک کاربر معمولی SPSS و تجربه SAS هستم. از یک یا دو اشاره گر از کسی که سابقه مشابهی دارد و اکنون از R استفاده می کند سپاسگزارم.
|
بهترین راه برای شروع و یادگیری R
|
78018
|
بگویید من دو متغیر عاملی دارم، X و Y که هر کدام دارای 3 سطح هستند. با این حال، X==3 اگر و فقط اگر Y==3 باشد، در حالی که چنین ارتباطی برای X,Y==1,2 برقرار نیست. در این حالت، در حالی که X و Y زائد نیستند، ماتریس طراحی من، هنگامی که گسترش مییابد، شامل همان ستون دو بار خواهد بود (0 در همه جا، به جز 1 که در آن X==Y==3). این خوب نیست. از نظر تئوری، مشکلی وجود ندارد: فقط یکی از ستون های اضافی را حذف کنید. با این حال، من نمی خواهم پیش بروم و کل رگرسیون خطی را فقط برای این مورد دوباره اجرا کنم. آیا ترفند فنی یا نظری وجود دارد که همچنان به من اجازه می دهد از `lm` R استفاده کنم؟
|
مدیریت سطوح متغیر عامل زائد برای رگرسیون خطی در R
|
33993
|
من در حال ایجاد یک موتور جستجو هستم که مجموعه آن شامل وب سایت هایی است که از طریق یک وب خزنده (Apache Nutch) خزیده شده اند. من نیاز دارم که جستجوهای پرس و جو سریع و مرتبط باشند. تا کنون، من در تلاش برای توسعه یک سیستم نمایه سازی معنایی پنهان بوده ام، اما اخیراً مقاله ای را خواندم که به من گفت که LSA برای آنها مفید نبوده است. اساسا، LSA از تقریب k-rank تجزیه مقدار منفرد ماتریسی استفاده می کند که ابعاد آن اسناد و فرکانس وزنی (IDF، TF-IDF، باینری و خام) است. آیا کسی الگوریتم داده کاوی بسیار بهتری را می شناسد که بتوانم از آن استفاده کنم؟ از طریق تجربه شخصی خودتان؟ من فقط حدود 2 هفته برای این پروژه فرصت دارم و باید مطمئن شوم که می توانم آن را به درستی به پایان برسانم.
|
آیا یک رویکرد نمایه سازی متفاوت می تواند ارتباط و کارایی نتایج موتورهای جستجو را بهبود بخشد؟
|
58840
|
چگالی توزیع GED توسط \begin{align} GED(l;\mu,\beta,\nu)&=\frac{\nu \exp\left[-(\frac{1}{2}) داده میشود. \left|\frac{l-\mu}{\beta \lambda}\right|^\nu \right]} {\lambda 2^{(1+1/\nu)}\beta\Gamma (1/\nu)} \end{align} که در آن $\Gamma(\cdot)$ تابع گاما است و \begin{align*} \lambda&=\left[ 2^{(-2/\nu)}\ Gamma(1/\nu) / \Gamma(3/\nu)\right]^{\frac{1}{2}} \end{align*} چگونه واریانس را محاسبه کنیم؟
|
چگونه واریانس توزیع GED را محاسبه کنیم؟
|
107671
|
من در حال حاضر در تلاش برای تجزیه و تحلیل برخی از داده های مردمک سنجی هستم. دستگاهی که استفاده میکنم اندازهگیری X و Y از ناحیه مردمک را به من میدهد (که از آن مساحت کل را از طریق $A = \pi \times \left(\frac{d}{2}\right)^2$ محاسبه میکنم. نمودار X-Y داده های من به این صورت است:  در خاکستری می توانید نقاط داده خام من را ببینید. همانطور که می بینید، اگرچه به نظر نمی رسد این اثر به شدت بر ابزار شرکت کننده تأثیر بگذارد، انحراف جزئی از خط رگرسیون در ربع سمت راست بالای شکل وجود دارد. **سوال من این است**: در چنین شرایطی، آیا $d=X$ یا $d=\frac{X+Y}{2}$ اندازه گیری مطمئن تری به من می دهد؟
|
از اندازه گیری های بیشتر با کیفیت پایین تر استفاده می کنید یا فقط اندازه گیری هایی با بهترین کیفیت؟
|
5899
|
برای عنوان مبهم متاسفم - دلیلش این است که من نمی دانم در مورد چه چیزی صحبت می کنم. تصور کنید کمیته ای متشکل از افرادی که مسئول استخدام یک مدیر عامل هستند. یکی از اعضای کمیته می تواند برای یک کاندیدای بالقوه مدیرعامل، رای «عدم استخدام» (+0)، «شاید» (+1)، «استخدام» (+2) بدهد. به هر مدیر عامل بر اساس آرا امتیاز داده می شود و مدیر عاملی که بالاترین امتیاز را داشته باشد استخدام می شود. حال، وضعیتی را تصور کنید که دو نامزد مساوی باشند... هر دوی آنها امتیاز 5 دارند. با این حال، نامزد 1 دارای 2 استخدام و 1 شاید (یعنی 2+2+1) بود، در حالی که نامزد 2 دارای 5 شاید (یعنی 1+1+) بود. 1+1+1). سوال من اینجاست: * به طور شهودی، فکر میکنم میتوانیم بگوییم که در صورت مساوی بودن امتیازات، در مورد نامزد 1 اطمینان بیشتری داریم. من در اینجا با چه حوزه خاصی از آمار سروکار دارم (تا بتوانم خودم تحقیق کنم) * در آمار، چگونه می توان چنین موقعیت هایی را حل کرد؟ و من فقط در مورد حل مشکل صحبت نمی کنم ... بلکه، چگونه می توان این را به شیوه ای عمومی حل کرد؟ متشکرم.
|
یک سوال اساسی در سیستم رای گیری
|
33999
|
من در حال حاضر در حال تجزیه و تحلیل داده های یک فروشگاه اینترنتی بزرگ با بیش از 31000 فروشنده کالا هستم، یعنی هر فروشنده اقلامی را از طریق فروشگاه اینترنتی می فروشد. نکته جالب این است که ما جنسیت این فروشندگان (=افراد) و دسته بندی محصولات آنها را می دانیم. اکنون، میخواهیم ببینیم که آیا تفاوتهای جنسیتی وجود دارد یا خیر، یعنی میخواهیم آزمایش کنیم که آیا مردان اقلام بیشتری یا کمتری نسبت به زنان یک دسته خاص میفروشند و آیا این تفاوتها قابل توجه است. این یک نمودار از داده ها است:  سوالی که اکنون دارم این است کدام آزمون آماری برای این نوع تحلیل مناسب است؟ تا کنون من از آزمون مجذور کای استفاده می کردم تا ببینم آیا توزیع در همه دسته ها به طور قابل توجهی بین مردان و زنان متفاوت است. حالا میخواهم بدانم: کدام آزمون آماری معتبر است تا به من نشان دهد که به عنوان مثال دو توزیع بین مردان و زنان رده پوشاک نیز معنیدار است؟
|
اگر بخواهم ببینم دو گروه در بسیاری از دسته ها با یکدیگر متفاوت هستند، چه آزمونی را باید انتخاب کنم؟
|
18446
|
برای انتخاب فرکانس موثر فیلتر پایین گذر، باید عرض پنجره (دهانه) یک فیلتر صاف کننده LOESS را تغییر دهم. هنگامی که از Savitzky-Golay برای صاف کردن استفاده می کردم، این گزارش فنی را پیدا کردم که اندازه پنجره را به فرکانس مرتبط می کرد، اما چیزی مشابه آنلاین برای LOESS پیدا نکردم. مقادیر LOESS مشابه مقادیر S-G خواهد بود، اما آیا اطلاعات خاصی در دسترس است (برای Tricube یا هر تابع وزن دیگری)؟ از طرف دیگر آیا یک محاسبه (بسته به تابع وزن) وجود دارد که بتواند فرکانس قطع S-G را به LOESS تبدیل کند؟
|
فرکانس قطع موثر برای هموارسازی LOESS
|
18447
|
به دنبال سوال من در اینجا، **چه زمانی مناسب است (یا نامناسب) r را برای یک همبستگی خطی دو متغیره مجذور گزارش کنیم. ** همانطور که در سوال قبلی توضیح داده شد، r = 0.74 که منجر به r مجذور 55٪ می شود. اندازه r یک نتیجه عالی است، اما وقتی r مجذور در نظر گرفته شود (مخصوصاً زمانی که 45٪ از واریانس در متغیر وابسته غیرقابل توضیح باقی بماند)، به نوعی پیام را رقیق می کند. همانطور که در پاسخ به سوال قبلی اشاره شد، من درک می کنم که برای یک عامل به آسانی امکان توضیح همه تغییرات وجود ندارد. فکر میکنم همه کتابهای درسی آماری که من با آنها مشورت کردهام (مگر اینکه کتابهای اشتباهی را مطالعه کردهام) بیان میکنند که r مربع روش بهتری برای درک r (یا اندازه اثر) است. من متوجه هستم که r حداقل 0.71 برای بدست آوردن r مجذور 50٪ مورد نیاز است. **سوالات** 1. آیا گزارش هر دو مجذور r و r یک عمل خوب (در تحقیقات علوم اجتماعی) است؟ 2. چه زمانی نمی توانم r مربع را گزارش کنم؟ من Q2 را به منظور اجتناب از موقعیتی مانند موارد بالا، که در آن مخاطبان هدف غیرآماری من ممکن است بیشتر بر روی 45٪ واریانس غیرقابل توضیح تمرکز کنند، به جای 55٪ واریانس توضیح داده شده، درخواست کرده ام.
|
گزارش $R^2$
|
83261
|
من یک مدل رگرسیون دارم که شبیه زیر است. $$ Y = \beta_0 + \beta_1T + \beta_2T^2 + \beta_3T^3 + \beta_4D + \beta_5D*T + \beta_6D*T^2 + \beta_7D*T^3 $$ جایی که T یک زمان است متغیر، که از 0 شروع می شود - نقطه شروع، و T^2 و T^3 چند جمله ای های طبیعی T هستند. D یک متغیر ساختگی است. «T»، «T^2» و «T^3» بسیار هم خط هستند. برای کاهش هم خطی، یکی از گزینه های ممکن استفاده از چند جمله ای متعامد است. با این حال، یک مشکل من در استفاده از چندجملهای متعامد این است که فاصله رگرسیون چند جملهای متعامد دیگر مقدار پیشبینیشده «Y» در «T = 0» نیست (و زمانی که «D = 0»). من به دلیل اهمیت نظری، برای نشان دادن مقدار میانگین «Y» در «T = 0» به شدت نیاز دارم. ### بنابراین سوالات من این است: ### 1). آیا می توان چند جمله ای های متعامد را به نحوی در مرکز قرار داد (مثلاً تمرکز حول مقدار کمینه؟ با توجه به اینکه یک ترم درجه دوم و یک ترم مکعب درگیر هستند، به درستی انجام شود. ### 2). اگر پاسخ سوال قبلی خیر است، نمیدانم آیا راههای جایگزینی وجود دارد که بتوانم با چند خطی بودن کنار بیایم در حالی که وقفه به معنای آن چیزی است که میخواهم - یعنی B0 = میانگین Y زمانی که T = 0 ( و D = 0).
|
آیا می توان چند جمله ای های متعامد را در رگرسیون چندگانه مرکز کرد؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.