_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
63176
من سعی می کنم بر روی داده هایی که از برخی آزمایش های علوم اعصاب به دست آورده ام، تجزیه و تحلیل های آماری انجام دهم. از آنجایی که من پیش‌زمینه ریاضی محکمی ندارم، من واقعاً از هرگونه اطلاعاتی در مورد اینکه از چه ابزاری برای موارد زیر استفاده کنم قدردانی می‌کنم: * متغیری که اندازه‌گیری می‌شود، تغییر قطر یک کشتی است. من داده‌هایی دارم که قطرهای مختلف را در طول آزمایش (به میکرومتر) نشان می‌دهد، که آن‌ها را نیز بر اساس مقدار اولیه به درصد تغییر تبدیل کرده‌ام. مراحل اندازه گیری: 1. اندازه گیری قطر قبل از درمان 2. اندازه گیری قطر بعد از درمان 3. اندازه گیری قطر قبل از اولین حمله صرع 4. اندازه گیری قطر بعد از اولین حمله صرع 5. اندازه گیری قطر قبل از حمله صرع دوم. رویداد همه اندازه‌گیری‌های قطر در یک مکان در ظرف انجام می‌شود. یک تکنیک آماری کافی برای مقایسه قطرها در این نقاط مختلف زمان چیست؟ با توجه به آنچه خوانده ام، احساس می کنم که ANOVA بیش از حد است، اما باز هم، من هیچ سرنخی ندارم... اگر کمکی کرد، من آنالیز را در SPSS انجام می دهم.
تکنیک برای تجزیه و تحلیل تجربی عصبی عروقی؟
45006
من در آنجا، در حال توسعه تجزیه و تحلیل انتخاب زیستگاه هستم و از یک شاخص دامنه طاقچه استفاده کردم، اما کسی به من پیشنهاد می دهد که یک بوت استرپ برای تقویت شاخص انجام دهم. آیا کسی می تواند به من کمک کند؟ با تشکر
چگونه می توانم یک بوت استرپ برای شاخص دامنه طاقچه انجام دهم؟
29279
من یک مسئله حداقل مربع با دو مسئله نابرابری متفاوت دارم. من نمی‌توانم از NNLS استفاده کنم، زیرا آن فقط مسئله حداقل مربع را با مسائل برابری و نابرابری یا فقط یک محدودیت نابرابری حل می‌کند. آیا می توانم از NNLS یا هر الگوریتم یا بسته R دیگری استفاده کنم که بتوانم این حداقل مربع را حل کنم؟ چگونه می توانم از بسته limSolve استفاده کنم؟ چگونه می توانم ماتریس G را در lsei معرفی کنم؟ آیا شخص دیگری پیشنهادی دارد؟ دقیقه|| Ax-b||^2 x = c(c, d, f) یک بردار است x >= 0 g(a) = c - d * a + f * a >= 0 که a یک مقدار از پیش تعیین شده است
چگونه می توانم این مسئله حداقل مربعات را با محدودیت های نابرابری به حداقل برسانم؟
76790
با توجه به برآوردگر OLS (کمترین مربعات معمولی) $$ Y=XB+e $$ تخمین‌گر رگرسیون PC را می‌توان به صورت زیر ارائه کرد: $$ B_PCR=T_r(T'_rX'XT_r)^{-1}T_r'X'Y= T_r \Delta_r^{-1}T_r'X'Y $$ که در آن $T$ بردارهای ویژه و $\Delta$ مقادیر ویژه X'X سوگیری (در مقایسه با OLS) به صورت $$ [T_r T'_r-I_p]B=-T_{p-r}T'_{p-r}B $$ داده شده است. به این نتیجه؟ لطفاً کسی می تواند به من یک اشتقاق کامل بدهد/اشاره کند زیرا من واقعاً به درک این نتیجه نیاز دارم. باز
چگونه می توان بایاس تخمینگر PCA را استخراج کرد
80400
من سعی می‌کنم توزیع دوجمله‌ای پواسون و منفی را به داده‌هایم تطبیق دهم و این دو را با هم مقایسه کنم. اما مشکل این است که پواسون نمی تواند پراکندگی بیش از حد را ضبط کند و به نظر می رسد دوجمله ای منفی بیش از حد برازنده است و همچنین در تخمین پارامتر پراکندگی مشکل دارد. می خواستم بدانم که آیا ترکیب وزنی از این دو نتایج بهتری به همراه خواهد داشت. اما در آن صورت چگونه پارامترها و ضریب وزنی را تخمین می زنیم؟
مخلوط پواسون و دوجمله ای منفی
26471
> **موضوع تکراری:** > یادگیری ماشین: طبقه بندی کننده خطی فرض کنید ما 2 تابع هسته $K_1(x,y)$ و $K_2(x,y)$ داریم. می دانیم که مجموعه داده ($(x_1,y_1),\ldots,(x_l,y_l),$ $y_i \in \\{-1,1\\}$ ) با اولین مورد جدا شده است (یعنی $w,$ $w_0$ وجود دارد: $$y_i(K_1(w,x_i)-w_0)>0 $$ برای همه $i=1,\ldots,l$) و با تابع هسته دوم جدا نشده است. در مورد تابع هسته $K_1(x,y)+K_2(x,y)$ چه می توانیم بگوییم؟ چگونه می توانم نشان دهم که همان مجموعه داده با آن جدا شده است؟ (یا دروغ است؟)
یادگیری ماشینی: طبقه بندی کننده خطی و امکان جداسازی
29271
من به دنبال دستورالعمل هایی در مورد نحوه تفسیر نمودارهای باقی مانده از مدل های glm هستم. به خصوص poisson، دو جمله ای منفی، مدل های دو جمله ای. وقتی مدل‌ها «درست» هستند، از این طرح‌ها چه انتظاری می‌توان داشت؟ (برای مثال، ما انتظار داریم که واریانس با افزایش مقدار پیش‌بینی‌شده افزایش یابد، زیرا وقتی با یک مدل پواسون سروکار داریم) می‌دانم که پاسخ‌ها به مدل‌ها بستگی دارد. هر گونه مرجع (یا نکات کلی برای در نظر گرفتن) مفید / قدردانی خواهد شد.
تفسیر نمودارهای تشخیصی باقیمانده برای مدل‌های glm؟
45008
من شاخص پیچیدگی را با استفاده از TraMineR محاسبه می کنم. آیا استفاده از روش بوت استرپ برای به دست آوردن فواصل اطمینان برای شاخص های پیچیدگی منطقی است؟ در این صورت آیا دستور TraMineR خاصی وجود دارد یا باید از روش کلاسیک استفاده کنم؟ متشکرم، امانوئلا
شاخص پیچیدگی را در (Ex)TraMineR بوت استرپ کنید؟
10478
آیا نتایج تحلیلی یا مقالات تجربی در مورد انتخاب _optimal_ ضریب عبارت جریمه $\ell_1$ وجود دارد؟ منظور من از _optimal_ پارامتری است که احتمال انتخاب بهترین مدل را به حداکثر می رساند یا ضرر مورد انتظار را به حداقل می رساند. من می‌پرسم زیرا اغلب انتخاب پارامتر با اعتبارسنجی متقابل یا بوت استرپ غیرعملی است، یا به دلیل تعداد زیادی از نمونه‌های مشکل، یا به دلیل اندازه مشکل در دست. تنها نتیجه مثبتی که من از آن آگاهم Candes و Plan است، انتخاب مدل تقریبا ایده آل با حداقل سازی $\ell_1$.
انتخاب پنالتی بهینه برای کمند
44993
برنامه من یک مدل Cox با n=685 است و یک مد پیش بینی پیوسته <- coxph(srv ~ predi) `summary(mod)` مقدار p برای ضریب حدود $10^{-6}$ `anova(mod) می دهد. )` یک p-value برابر با $>10^{-4}$ می دهد. بسته: library(car) Anova(mod, test.statistic=Wald) Anova(mod, test.statistic=LR) توضیحات ممکن برای این اختلاف چیست؟ آیا باید مقدار p-LR را ترجیح دهم؟ نه «predi» و نه توزیع بوت استرپ نسبت خطر آن به طور معمول توزیع شده به نظر نمی رسد. ممکنه مشکل همین باشه؟
چرا مقادیر p LR و Wald بر اساس مرتبه های بزرگی متفاوت هستند؟
62506
اگر درست گفته باشم، مدل رگرسیون خطی مدلی است که در آن پاسخ در پارامترها خطی است. این اجازه می دهد تا پاسخ در متغیرهای پیش بینی غیر خطی باشد. می خواستم بدونم اسمی برای مدلی وجود دارد که پاسخ آن هم در پارامترها و هم در متغیرهای پیش بینی خطی باشد تا مردم به راحتی تفاوت آن را با مدل رگرسیون خطی درک کنند؟
آیا پاسخ در متغیر پیش بینی در مدل رگرسیون خطی خطی است؟
59521
با فرض اینکه یک متغیر تصادفی $X\sim \operatorname{Gamma}\left(\alpha,\beta \right )$:$\frac{1}{\Gamma (\alpha)\beta ^{\alpha}}x داریم ^{\alpha-1}e^{\frac{-x}{\beta }}$ می‌خواهم این فرضیه را آزمایش کنم: $H_{0}:\beta=\beta_0$ در مقابل: $H_{A}:\beta\neq \beta_0$ با استفاده از آزمون نسبت درستنمایی. من فرض می کنم آلفا شناخته شده است و MLE من را مشتق کرده ام: $\hat{\beta}_{MLE}=\frac{\bar{x}}{\alpha}$. من از طریق آن کار کرده ام و تا کنون و به درک من از MLE به عنوان جایگزین استفاده شده است. تاکنون به این موارد رسیده ام: $D=2\ln \left( \frac{L(\hat{\beta})}{L{\beta_0}}\right )=2\left[n\alpha\ln \left(\frac{\beta_0}{\hat{\beta}} \right )+\sum_{i=1}^{n} x_i\left(\frac{1}{\beta_0}-\frac{1}{\hat{\beta}} \right ) \right ]$ من واقعاً نمی دانم که آیا این کار را به درستی انجام داده ام یا نه. اگر موارد فوق صحیح باشد، توزیع مجانبی که این آمار به صورت $n \ به \infty$ به آن همگرا می شود چیست؟
آزمون نسبت درستنمایی برای یک متغیر تصادفی به دنبال توزیع گاما
95602
من متغیری دارم که مقادیر آن به شدت به سمت صفر منحرف شده است: `table()` 0 1 2 3 4 5 6 7 488444 9384 557 100 12 2 1 1 `summary()` Min. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0000 0.0000 0.0000 0.0218 0.0000 7.0000 که رسم می کند![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gaiTz.jpg) دلیلی دارم که باور کنم دو متغیر دیگر ممکن است با متغیر کج همبستگی داشته باشند. برای ساختن مدل پیش‌بینی خود، با استفاده از متغیر اریب به عنوان متغیر وابسته Y، کدام استراتژی را باید اتخاذ کنم؟ آیا باید داده های خود را فقط به گونه ای زیرمجموعه قرار دهم که مقادیر غیرصفری برای Y خود داشته باشد؟
مدل پیش بینی برای توزیع دم سنگین
49389
من سعی می کنم تمرین پروف استرنگ را دنبال کنم اما با علائم ماتریس حاصل مشکل دارم. او در حین تمرین نیز با علائم مشکل داشت، بنابراین من هیچ راهی برای پیدا کردن خطا ندارم. آیا کسی می تواند به من نشان دهد که چه کار اشتباهی انجام می دهم؟ پیشاپیش متشکرم، دیگو این نتایج من است: > A [,1] [,2] [1,] 4 4 [2,] -3 3 > SVD_of_A [,1] [,2] [1,] -4 4 [2،] -3 -3 > U [،1] [،2] [1،] -1 0 [2،] 0 -1 > سیگما [،1] [،2] [1،] 5.656854 0.000000 [2،] 0.000000 4.242641 > V [,1] [,2] [1,] 0.7071068 -0.7071068 [2،] 0.7071068 0.7071068 0.70710 $d [1] 5.656854 4.242641 $u [,1] [,2] [1,] -1 0 [2,] 0 1 $v [,1] [,2] [1,] -0.7071068 -0.7071068 [2 ,] -0.7071068 0.7071068 این کدی است که من برای آن استفاده می کنم تمرین: rm(list=ls()) #--------------------------------------- ---------------------------- تجزیه مقدار مفرد ماتریس A را پیدا کنید #----------------------------------------------- ----------------- A = ماتریس(c(4,-3,4,3,2) #----------------------------------------------- ----------------- # می خواهیم به دست آوریم: # SVD = U*sigma*t(V) #----------------------------------------------- ----------------- #----------------------------------------------- ------------------ ابتدا باید جابجایی A # t را بدست آوریم = با توجه به یک ماتریس یا data.frame x، t انتقال x را برمی گرداند. #----------------------------------------------- ----------------- At= t(A) #----------------------------------------------- ----------------- # 2 ماتریس At و A را ضرب کنید تا AtA # %*% = ضرب ماتریس #----------------------------------------------- ----------------- AtA=در%*%A #----------------------------------------------- ------------------ اکنون باید تجزیه طیفی ماتریس AtA # ویژه را بدست آوریم = مقادیر ویژه و بردارهای ویژه # واقعی را محاسبه می کند (دوبرابر، عدد صحیح، منطقی) یا ماتریس های پیچیده. #----------------------------------------------- ----------------- eig1 = eigen(AtA) #----------------------------------------------- ----------------- # با مقادیر ویژه AtA می توانیم سیگما بسازیم. # من این کار را به صورت دستی در اینجا برای هدف رویه انجام دادم. # اما توجه داشته باشید که سیگما برابر است با sqrt(AAt) #------------------------------------- ----------------------------- sigma=ماتریس(c(sqrt(eig1$values[1]),0,0,sqrt(eig1$values[2])),2) #---------------- ------------------------------------------------ # بردارهای ویژه AtA مقادیر V هستند #----------------------------------------- ------------------------- V=as.matrix(eig1$vectors) #----------------------------------------------- ----------------- # بعد باید A*At را محاسبه کنیم #----------------------------------------------- ----------------- AAt=A%*%At #----------------------------------------------- ----------------- اکنون باید تجزیه طیفی ماتریس AAt را بدست آوریم. #----------------------------------------------- ----------------- eig2=eigen(AAt) #----------------------------------------------- ----------------- # U برابر است با بردارهای ویژه AAt #----------------------------------------------- ----------------- U=as.matrix(eig2$vectors) #----------------------------------------------- ----------------- در نهایت تجزیه مقدار مفرد A برابر است با U*sigma*V #----------------------------------------------- ----------------- SVD_of_A=U%*%سیگما%*%V #----------------------------------------------- ----------------- # نتایج #----------------------------------------------- ----------------- A SVD_of_A U sigma V PS: من V transpose را نیز امتحان کردم، اما نتایج هنوز اشتباه است...
روش تجزیه مقدار منفرد در R
58299
من به مجموعه داده شبکه اجتماعی مبتنی بر موقعیت جغرافیایی نیاز دارم. اما من هیچ منبعی را پیدا نکردم که بتوانم مجموعه داده را پیدا کنم. من به پست با موقعیت مکانی و اطلاعات اشتراک گذاری مجدد آن اطلاعات با زمان و لایک ها نیاز دارم. بنابراین من به این فکر می کردم که از داده های تصادفی برای شبیه سازی شبکه استفاده کنم. آیا می توانم ادعای خود را با داده های تصادفی تأیید کنم؟ زیرا داده های واقعی باید تصادفی ترین باشند.
شبیه سازی شبکه های اجتماعی
112627
من سعی کردم مدل رگرسیون کاکس (معروف به خطر متناسب) را بر روی برخی از داده های سرطان (N=2288) برازش دهم. من خروجی زیر را از SAS **proc phreg** دریافت کردم: پارامتر Chi-Square p HR RaceN 3.7375 0.0532 1.198 Chemo 51.2541 <.0001 0.474 Surgery 251.6561 251.6561 <.0001 Ch20.01 <.0001 Ch. 2.000 سن 53.1842 <.0001 1.018 مرحله 1 220.5925 <.0001 0.133 مرحله 2 66.7599 <.0001 0.353 مرحله 3 24.3555 A برای اطمینان از معتبر بودن مدل، من دو روش زیر را امتحان کردم: 1. نمودار log-log برای متغیرهای طبقه بندی شده 2. رسم باقیمانده های شوئنفلد از مدل و سپس قرار دادن یک خط در سراسر آن، با توجه به عدم وجود p-value شیب آن. 0 من نتایج زیر را دریافت کردم: مرحله جراحی شیمی نژادی تست سن 1: خوب بد خوب 2 n 3 تست NA متقاطع 2: 0.2674 p<.0001 p<.0001 0.4622 0.0655 به دنبال توصیه های اینجا (http://statistics.ats.ucla.edu/stat/examples/asa/test_proportionality.htm)، Race_t، Chemo_t، Surgery_t، ChSu_t را ایجاد کردم. (تعامل شیمی درمانی و جراحی) و یک کاکس دیگر انجام دهید رگرسیون، این چیزی است که من به دست آوردم: پارامتر Chi-Square p HR RaceN 27.1173 <.0001 1.888 Ra_t 57.5135 <.0001 0.999 ChemoN 0.4524 0.5012 1.086 Ch_059 <0.086 Ch_019 <.09. 2.101 0.1472 1.195 Su_t 96.4175 <.0001 0.999 ChSu 14.9843 0.0001 1.687 سن 817.9242 <.0001 1.113 Age_t 119 169.5012 <.0001 0.162 Stage 2 68.4689 <.0001 0.29 Stage 3 6.6744 0.0098 0.839 همه متغیرهای وابسته به زمان از نظر آماری معنی دار هستند، در حالی که جهت اصلی ChemoN و جراحی دیگر ادامه دارد!! --> جراحی، شیمی درمانی هر دو منجر به خطر بالاتری می شود!!) با تعجب دیدم که Ra_t از نظر آماری معنی دار است. من مطمئن نیستم که از نتایجم چه کنم. سوال اصلی من اینجاست: 1. چگونه باید برای مدل خود اقدام کنم؟ برای تصمیم گیری برای انجام چه کاری باید به چه چیزی نگاه کنم؟ به طور کلی تر: 1. آیا یک آزمون (یا مجموعه ای از) قطعی برای فرض تناسب برای رگرسیون کاکس وجود دارد؟ اگر چنین است، چگونه آن را در SAS پیاده سازی کنیم؟ 2. برای آزمون ذهنی / گرافیکی، فاصله از حد انتظار چقدر دور است؟ 3. تست شامل متغیرهای وابسته به زمان در مدل کاکس چقدر خوب (مطمئن نیستم اصطلاحات آماری از نظر خطاهای نوع I و نوع II چیست؟)؟ به عنوان مثال چرا Ra_t مهم است حتی اگر Race1 در هر دو تست ذهنی خوب به نظر برسد؟ 4. آیا کسی در مورد آزمون جهانی تناسب اندام شونفلد شنیده است (http://www.sljol.info/index.php/JNSFSL/article/view/456) من در تعیین تعداد مورد انتظار در سلول ها مشکل دارم. هر گونه کمکی قدردانی خواهد شد. خیلی ممنونم!
آزمون عینی برای فرض تناسب در مدل رگرسیون کاکس (SAS)؟
8924
من از راهنمایی شما در مورد مشکل زیر بسیار سپاسگزارم: من یک مجموعه داده پیوسته بزرگ با تعداد زیادی صفر (~95٪) دارم و باید بهترین راه را برای آزمایش اینکه آیا زیرمجموعه های خاصی از آن جالب هستند، پیدا کنم. به نظر می‌رسد که از توزیع مشابه بقیه گرفته شده است. تورم صفر از این واقعیت ناشی می شود که هر نقطه داده مبتنی بر یک اندازه گیری شمارش با صفرهای واقعی و نمونه است، اما نتیجه پیوسته است زیرا برخی پارامترهای دیگر وزن شده توسط شمارش را در نظر می گیرد (و بنابراین اگر شمارش صفر باشد، نتیجه حاصل می شود. نیز صفر است). بهترین راه برای انجام این کار چه خواهد بود؟ من احساس می‌کنم که تست‌های Wilcoxon و حتی تست‌های جایگشت نیروی brute-force ناکافی هستند زیرا با این صفرها منحرف می‌شوند. تمرکز بر اندازه گیری های غیر صفر نیز صفرهای واقعی را که بسیار مهم هستند حذف می کند. مدل های صفر تورم برای داده های شمارش به خوبی توسعه یافته اند، اما برای مورد من نامناسب هستند. من در نظر گرفتم که توزیع Tweedie را به داده‌ها برازش کنم و سپس یک glm را روی answer=f (subset_label) قرار دهم. از نظر تئوری، این امکان پذیر به نظر می رسد، اما من نمی دانم که آیا (الف) این بیش از حد است و (ب) همچنان به طور ضمنی فرض می کند که همه صفرها صفرهای نمونه هستند، یعنی به همان شیوه (در بهترین حالت) به عنوان یک جایگشت بایاس می شوند؟ به طور شهودی، به نظر می رسد که نوعی طراحی سلسله مراتبی داریم که یک آمار دوجمله ای بر اساس نسبت صفرها و مثلاً یک آمار Wilcoxon محاسبه شده بر روی مقادیر غیر صفر (یا بهتر از آن، مقادیر غیر صفر تکمیل شده با کسری از صفر بر اساس برخی قبلی). شبیه یک شبکه بیزی به نظر می رسد... امیدوارم من اولین کسی نباشم که این مشکل را دارد، بنابراین بسیار ممنون می شوم اگر بتوانید تکنیک های موجود مناسب را به من معرفی کنید... بسیار متشکرم!
آزمون فرضیه بر روی داده های پیوسته با تورم صفر
78377
من فرض می‌کنم دلیل بهینه‌ای برای تنظیم داده‌هایم برای دستیابی به هدفم برای پیش‌بینی بازنشستگی سال آینده وجود دارد. من می توانم به دو روش فکر کنم. به نظر شما کدام مناسب تر است و چرا؟ یا اگر می توانید جایگزین دیگری فکر کنید لطفا به من اطلاع دهید. اگر بخواهم بدانم چه کسانی در دو سال آینده بازنشسته خواهند شد، آیا پاسخ شما متفاوت خواهد بود؟ سه سال؟ هر روش 5 سال داده های آموزشی را در نظر می گیرد، برای مثال 2008 - 2012 برای پیش بینی اینکه چه کسی در سال 2013 بازنشسته می شود. یک ردیف برای زمانی که بازنشسته می شوند. در سالی که بازنشسته می شوند معمولاً دو ردیف دارند (یکی برای فعال و دیگری برای بازنشستگی). * هر سال فعال، از اول ژانویه، عکس فوری داده های کارکنان است. اطلاعات بازنشستگان در تاریخ بازنشستگی است. * سناریوهای نمونه در زیر ارائه شده است. **روش 2** * شامل یک ردیف داده برای هر کارمندی که در کل دوره زمانی فعال بوده (بازنشسته نشده) و یک ردیف برای هر کارمندی که بازنشسته شده است. در این مثال، هر کارمند فقط یک بار در مجموعه آموزشی ظاهر می شود. **پیشینه:** * من سعی می کنم پیش بینی کنم چه کسی احتمالاً سال آینده بازنشسته می شود. * جمعيت: كليه كاركناني كه 55 سال به بالا دارند و حداقل 5 سال سابقه خدمت دارند. * من از Random Forest استفاده می کنم (آزمایش با رگرسیون لجستیک را آغاز کرده ام... هرچند تجربه زیادی ندارم). * من یک نتیجه باینری دارم و پیش بینی کننده های من از متغیرهای پیوسته و عاملی ساخته شده اند. نتیجه باینری من بازنشستگی یا عدم بازنشستگی است (ادامه کار). نمونه هایی از متغیرهای پیوسته عبارتند از سن کارمند، سال های حضور در شرکت و حقوق. نمونه هایی از متغیرهای عامل عبارتند از: نوع برنامه بازنشستگی (بازنشستگی یا 401k)، نوع شغل (معاف در مقابل غیرمعاف)، بالاترین سطح تحصیلات، گروه. **نمونه های داده روش 1 (پیش بینی '13)** * نفر A اینجا از 08 تا 12 بود و در سال 13 بازنشسته شد * نفر B اینجا بود از 08 تا 11 و در سال 12 بازنشسته شد * شخص C اینجا بود 08 تا سال 13 * شخص D در سال 08 بازنشسته شد (او سال های قبل نیز اینجا بود اما داده های آموزشی در مثال فقط به 08 برمی گردد)
چگونه باید داده‌هایم را برای طبقه‌بندی تنظیم کنم وقتی مؤلفه زمانی وجود دارد؟
58295
من دو متغیر دارم، قیمت یونجه و استفاده از بیمه. Stata ضریب همبستگی آنها را 0.1227 می دهد. این به من می گوید که آنها خیلی همبستگی ندارند. وقتی من هر متغیر را در یک رگرسیون جداگانه داشته باشم، هر کدام بسیار مهم هستند، اما با هم اهمیت از بین می رود. در مرحله بعد، هنگامی که خطاهای رگرسیون موجودی روی یونجه در بیمه اجرا می شود، بیمه بسیار مهم است. هنگامی که خطاهای رگرسیون موجودی در بیمه روی یونجه اجرا می شود، یونجه قابل توجه نیست. من فرض می‌کنم بیمه با برخی متغیرها مرتبط است، اما به نظر می‌رسد که یونجه خوب است. آیا جز خلاص شدن از متغیر بیمه، چاره ای وجود دارد؟ پیشاپیش از شما متشکرم.
همبستگی پیچیده در رگرسیون من؟
29182
در حال حاضر، می‌خواستم بدانم آیا می‌توانیم دو متغیر تصادفی را دقیقاً مانند روشی که دو عدد واقعی را مقایسه می‌کنیم، مقایسه کنیم؟ آیا این منطقی است؟ برای مثال، $X$ و $Y$ دو متغیر تصادفی هستند، آیا $X>Y$ به معنی چیزی است؟ یا آشکارا مزخرف است؟ کسی ایده هایی دارد؟ نظر شما بسیار قابل تقدیر است!
آیا مقایسه دو متغیر تصادفی معنادار است؟
95607
من 3 متغیر دارم (2 متغیر مستقل و 1 متغیر است). هر سه متغیر با پرسشنامه‌های متشکل از چند سؤال که در مقیاس 5 درجه‌ای ثبت شده‌اند، اندازه‌گیری می‌شوند. من می خواهم تحلیل رگرسیون را برای بررسی میانجیگری انجام دهم. چگونه می توانم این کار را انجام دهم؟ آیا باید متغیرها را تبدیل یا رمزگذاری مجدد کنم؟ متغیرهای من در زیر توضیح داده شده است. Q4 + Q5 + Q6 + Q7 + Q8 (Q1-Q8 به تک متغیر) انگیزه = Q1 + Q2 + Q3 (Q1-Q3 به تک متغیره) همه سؤالات (Q1، Q2، ...) در مقیاس 5 امتیازی، 1 برای کاملاً مخالف و 5 برای کاملاً موافقم اندازه گیری می شوند. من می خواهم زیر مدل اجرا کنم. خلاقیت $=$ ثابت $+\ \beta_1$ آب و هوا $+\ \beta_2$ انگیزه + خطا من از SPSS استفاده می کنم.
متغیرهای مستقل ترتیبی و تحلیل رگرسیون متغیر وابسته
85607
من به دنبال نمودارهای کنترلی برای نظارت بر زمان بین رویدادها برای رویدادهای نادر هستم. بررسی سریع ادبیات نشان داد که چهار روش زیر ارزش بررسی دارند: نمودار تعداد تجمعی مطابقت (CCC). نمودار کنترل کمیت تجمعی (CQC)؛ نمودار CUSUM نمایی و نمودار EWMA نمایی. من با اصطلاحات کمی گیج شده ام و نمی دانم که آیا EWMA نمایی فقط یک میانگین متحرک نمایی وزنی عادی است؟ من شک دارم که اینطور نیست، اما نمی توانم ادبیاتی پیدا کنم که تفاوت بین این دو رویکرد را توضیح دهد... اگر کسی چنین کند، خوشحال می شوم به آن نگاه کنم. همچنین به نظر می رسد که من نمی توانم رویکردهای ذکر شده در بالا را در بسته R Qcc که تاکنون برای نمودارهای spc ساده تر استفاده کرده ام، پیاده سازی کنم. آیا کسی با بسته های R دیگر تجربه ای دارد که ممکن است؟
کنترل فرآیند آماری EWMA نمایی برای نظارت بر زمان بین رویدادها
48034
من سعی می کنم یک متغیر پاسخ را مدل کنم که از لحاظ نظری بین -225 و +225 محدود است. متغیر مجموع امتیازی است که آزمودنی ها هنگام انجام یک بازی کسب کردند. اگرچه از نظر تئوری امکان کسب امتیاز 225+ برای آزمودنی ها وجود دارد. با وجود این، زیرا امتیاز نه تنها به اقدامات آزمودنی‌ها، بلکه به اقدامات سایر اقدامات نیز بستگی داشت، حداکثر امتیاز هر کسی 125 بود (این بالاترین امتیازی است که 2 بازیکنی که هر دو با یکدیگر بازی می‌کنند می‌توانند امتیاز بگیرند) این با فرکانس بسیار بالایی اتفاق افتاد. کمترین امتیاز 35+ بود. این مرز 125 با رگرسیون خطی مشکل ایجاد می کند. تنها کاری که می‌توانم انجام دهم این است که پاسخ را بین 0 و 1 تغییر دهم و از رگرسیون بتا استفاده کنم. اگر این کار را انجام دهم، مطمئن نیستم که واقعاً بتوانم بگویم 125 مرز بالایی است (یا 1 بعد از تبدیل) را توجیه کنم، زیرا ممکن است نمره 225+ را به دست آوریم. علاوه بر این، اگر من این کار را انجام دهم، مرز پایینی من چقدر خواهد بود، 35؟ ممنون جاناتان
برخورد با رگرسیون متغیر پاسخ غیرمعمول محدود
78370
اجازه دهید $y$ یک متغیر وابسته باینری باشد. من از یک مدل لاجیت برای توضیح رابطه بین $y$ و بسیاری از متغیرهای توضیحی باینری استفاده می کنم. من عمدتا علاقه مند به یافتن این هستم که کدام گروه (یا تقاطع گروه ها) بیشترین احتمال موفقیت را دارد. اکنون، این نوع تحلیل نسبتاً ساده است. با این حال، مشکل اصلی من این است که میلیون‌ها دسته‌بندی ممکن مختلف را به خوبی می‌بینم (زمانی که همه اثرات متقابل ممکن را در نظر بگیرید). آیا توصیه ای در مورد نحوه برخورد با این مشکل دارید؟ باز هم، نقطه گیر من در اینجا این است که متغیرهای ساختگی توضیحی زیادی دارم.
بهترین راه برای استفاده از بسیاری از متغیرهای ساختگی توضیحی برای تعیین بالاترین نسبت موفقیت ها
78379
آیا روش معقولی برای محاسبه اندازه اثر (به طور ایده آل Hedges g* / d یا نسبت پاسخ log کوهن) از داده های گزارش شده در درصد وجود دارد؟ نمونه ای از چنین داده هایی در زیر. برای مثال، من علاقه مند به محاسبه فعالیت قبل و بعد از انکوباتور بزرگسالان هستم (نوار سیاه). در حالی که جذاب است، تصور می کنم که نسبت پاسخ ورود به سیستم کافی نیست زیرا درصدها در مقیاس نسبت واقعی نیستند؟ گزینه جایگزین رد این مقاله از تجزیه و تحلیل است. پیشنهادی دارید؟ با تشکر ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VemcA.png)
آیا روش معقولی برای محاسبه اندازه اثر از داده های گزارش شده در درصد وجود دارد؟
29188
من می خواهم Graph Clustering را در یک گراف **بدون جهت** عظیم با میلیون ها یال و گره انجام دهم. نمودار تقریباً با خوشه‌های مختلف که فقط توسط برخی گره‌ها به یکدیگر متصل شده‌اند (نوعی گره‌های مبهم که می‌توانند به خوشه‌های متعدد مربوط شوند) خوشه‌بندی شده است. بین دو خوشه لبه های بسیار کم یا تقریباً هیچ وجود نخواهد داشت. این مشکل تقریباً شبیه یافتن **مجموعه برش رأس** یک گراف است، با یک استثنا که گراف باید به اجزای زیادی تقسیم شود (تعداد آنها ناشناخته است). لطفاً به این تصویر رجوع کنید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZThlX.png) تقریباً مانند اجزای مختلف متصل قوی است که چند گره را بین خود به اشتراک می گذارند و من قرار است **آن گره ها را بردارید** تا آن اجزای متصل قوی را جدا کنید. یال ها وزن دارند اما این مشکل بیشتر شبیه یافتن ساختارها در یک نمودار است، بنابراین وزن لبه ها اهمیتی ندارند. (روش دیگری برای فکر کردن در مورد مشکل این است که تصور کنید کره‌های جامد در برخی نقاط یکدیگر را لمس می‌کنند، در حالی که کره‌ها آن اجزای قوی متصل هستند و نقاط لمسی آن گره‌های مبهم هستند.) من در حال نمونه‌سازی چیزی هستم، بنابراین زمان کمی برای برداشتن دارم. الگوریتم های خوشه بندی نمودار توسط خودم و انتخاب بهترین های ممکن. به علاوه، من به راه حلی نیاز دارم که گره ها را برش دهد نه لبه ها، زیرا خوشه های مختلف گره ها را به اشتراک می گذارند و در مورد من لبه ها را ندارند. آیا مقاله پژوهشی، وبلاگی وجود دارد که به این مشکل یا تا حدودی مرتبط با آن بپردازد؟ یا هر کسی می تواند راه حلی برای این مشکل ارائه دهد، هرچند کثیف باشد. از آنجایی که میلیون ها گره و لبه درگیر هستند، من به پیاده سازی MapReduce از راه حل نیاز دارم. هر ورودی، پیوندهایی برای آن نیز وجود دارد؟ آیا اجرای متن باز فعلی در MapReduce وجود دارد که بتوان مستقیماً از آن استفاده کرد؟ من فکر می کنم این مشکل مشابه ** یافتن انجمن ها در شبکه های اجتماعی آنلاین با حذف رئوس است.**
یافتن جوامع در شبکه های اجتماعی آنلاین با حذف گره ها
59527
می‌دانم که آمار آزمون $$F=S_1^2/S_2^2 $$ است، اما من به نمونه‌ای از سوالات استادم نگاه می‌کنم و برخی مرا گیج کرده‌اند. به عنوان مثال: برای یک بازی خاص، امتیازات بازی به طور معمول توزیع می شود. دو بازیکن هر کدام 10 بازی انجام دادند و امتیازات خود را در هر بازی ثبت کردند. برای بازیکن A میانگین امتیاز 375 و واریانس نمونه 17312 است. برای بازیکن B میانگین امتیاز 360 و واریانس نمونه 13208 است. در سطح 5 درصد این فرضیه را امتحان کنید که واریانس امتیازات دو بازیکن برابر است. با این فرض که ابزار واقعی ناشناخته است. و او از معادله $$F=(17312/9)/(13208/9) $$ استفاده می کند بدیهی است که راه حل در اینجا یکسان است، اما در نمونه های دیگری که من به آنها نگاه کردم (که اکنون نمی توانم آنها را پیدا کنم) ns انجام می دهند. لغو نیست پس نیست. چگونه بفهمم چه زمانی از کدام معادله استفاده کنم؟
آزمون F برای برابری واریانس ها
29272
من می خواهم با پراکندگی بیش از حد یک مدل پواسون مقابله کنم. مدل‌های دوجمله‌ای منفی (glm.nb) و شبه درست‌نمایی (خانواده=شبه در glm) ساختار به اندازه کافی انعطاف‌پذیر از رابطه واریانس در مقابل میانگین ارائه نمی‌دهند. من می خواهم یک مدل مرتبه سوم کامل را بین میانگین و واریانس جا بدهم، و نتوانستم تابع R را پیدا کنم که این اجازه را بدهد. آیا وجود دارد؟ با تشکر
برازش یک مدل پیچیده واریانس در مقابل میانگین برای مدل‌های شبه احتمال؟ (در R)
16608
بگویید من دو توزیع معمولی A و B با میانگین های $\mu_A$ و $\mu_B$ و واریانس های $\sigma_A$ و $\sigma_B$ دارم. من می‌خواهم ترکیب وزنی از این دو توزیع را با استفاده از وزن‌های $p$ و $q$ که در آن $0\le p\le 1$ و $q = 1-p$ است، انتخاب کنم. می دانم که میانگین این مخلوط $\mu_{AB} = (p\times\mu_A) + (q\times\mu_B)$ خواهد بود. واریانس چقدر خواهد بود؟ * * * اگر من پارامترهای توزیع قد مرد و زن را بدانم، یک مثال عینی می‌تواند باشد. اگر اتاقی از افراد داشتم که 60 درصد آن مرد بود، می توانستم میانگین قد مورد انتظار را برای کل اتاق ایجاد کنم، اما در مورد واریانس چطور؟
واریانس مخلوط وزنی دو گاوس چقدر است؟
92550
من می خواهم رگرسیون چند متغیره (رگرسیون بیش از 1 متغیر وابسته) را در SPSS انجام دهم. اما هیچ گزینه ای پیدا نکردم من از SPSS 22 استفاده می کنم. تنها چیزی که می توانم پیدا کنم گزینه رگرسیون خطی است اما این به هدف من نمی رسد. سوال من این است که چگونه می توانم رگرسیون چند متغیره را در spss انجام دهم:(
رگرسیون چند متغیره در SPSS .... چگونه؟
49927
آیا کسی می تواند یک تعریف ساده از اینکه متغیر توضیحی باینری چیست؟ توصیف به زبان ساده ایده آل خواهد بود. چگونه یکی را تشخیص می دهید؟
متغیر توضیحی باینری چیست؟
34262
من یک نظرسنجی آنلاین ساده انجام دادم تا از 249 نفر بپرسم که کدام یک از سه درخواست اهدایی را قانع‌کننده‌تر می‌دانستند. این نظرسنجی با تصادفی سازی ترتیب پاسخ ها اندکی بهبود یافته است. پیام A 116 رای دریافت کرد، پیام B 49 رای دریافت کرد و پیام C 85 رای دریافت کرد. اولین حدس من شناسایی فاصله اطمینان 95% برای نسبت های مختلف جمعیت است (به عنوان مثال، 46.2% +/- 0.5% هنوز بالاتر از 34.1% است. +/- 0.3% و غیره) و برنده را انتخاب کنید اگر کران پایین آن بالاتر از کران بالایی هر رقیب باشد، اما چیزی در این مورد کاملاً درست نیست. یک چیز دیگر: پیام ها از کاربران خواسته شده است که یک دلار به یک موسسه خیریه اهدا کنند. ما در نظرسنجی توصیه کردیم که به 10٪ از پاسخ دهندگان یک پاداش 1 دلاری ارائه می شود. سپس از پاسخ دهندگان خواسته شد که به ما بگویند در صورت انتخاب شدن، آیا حاضرند آن دلار را به خیریه اهدا کنند یا خیر. از 249 پاسخ دهنده، 174 نفر به ما اجازه دادند که از طرف آنها وجوه خود را اهدا کنیم. به نظر نمی‌رسد که فیلتر کردن نتایج فقط برای کاربرانی که به ما اجازه اهدای وجوه خود را داده‌اند، نحوه پاسخ‌دهی افراد را تغییر دهد، اما نمی‌دانم که آیا این یک نقطه مرجع جالب خواهد بود؟ نظر یا بازخوردی دارید؟ با تشکر
چگونه تعیین کنیم که آیا برنده نظرسنجی 3 طرفه از نظر آماری معنادار است؟
58290
من دو گروه از فرکانس هایی دارم که در آن 4 رویداد اتفاق افتاده است و در حال آزمایش هستم که آیا آنها از یک جمعیت هستند یا خیر. من از آزمون برازش مجذور کای با مقدار مورد انتظار مربوط به میانگین فراوانی آنها استفاده کردم (که آمار آزمون مجذور کای را به حداقل می رساند). آماره آزمون مجذور کای زیر مقدار بحرانی برای 3 درجه آزادی و آلفا=0.05 بود، بنابراین من فرضیه جایگزین را رد می کنم که آنها متفاوت هستند. حالا می خواهم بدانم که احتمال خطای نوع دو زیر 0.05 است اما تستی نمی شناسم که بتواند این کار را انجام دهد. آیا آزمونی وجود دارد که بتوان از آن استفاده کرد که فرضیه صفر این است که دو گروه فرکانس متفاوت هستند و فرضیه جایگزین این است که دو گروه یکسان هستند؟ اگر بتوانم از آن تست برای نشان دادن اینکه آنها در سطح آلفا=0.05 یکسان هستند استفاده کنم، احتمال خطای نوع 2 در مورد اصلی من به اندازه کافی کم خواهد بود.
نمایش دو گروه دارای توزیع فرکانسی یکسان هستند
34263
ماه گذشته این سوال را اینجا پرسیدم. بعد از اینکه اخیراً در مورد آن فکر کردم، فکر کردم که آیا منطقی است که در مورد احتمالات لاجیت در این زمینه فکر کنیم. از آنجایی که پیش‌بینی‌کننده یک ضریب، تغییر شانس ورود به سیستم را در متغیر پاسخ مستقل از همه پیش‌بینی‌کننده‌های دیگر نشان می‌دهد، انتظار داریم که ترسیم قیمت پیشنهادی در مقابل pr(نتیجه)، با منحنی نشان‌دهنده یک پیش‌بینی‌کننده متفاوت، به سادگی مفید نباشد. بنابراین اگر ضریب برای متغیر x 0.5 باشد، بدون توجه به مقادیر y، z یا f، شانس ورود تغییر می کند. بنابراین، من نمی دانم که آیا ایجاد چنین نموداری منطقی است؟ 1. آیا به رگرسیون لجستیک درست فکر می کنم؟ از آنجایی که ضرایب لاجیت مستقل از سایر پیش بینی کننده ها هستند، آیا طرحی مانند آن تا حد زیادی بی فایده نخواهد بود. 2. اگر چنین است، کاربرد اصلی احتمالات پیش بینی شده در هنگام استفاده از مدل های لاجیت چیست؟ در صورت تمایل فقط چند کد نمونه: df=data.frame(income=c(5,5,3,3,6,5), win=c(0,0,1,1,1,0), age= c(18,18,23,50,19,39), home=c(0,0,1,0,0,1)) str(df) md1 = glm(عامل(برنده) ~ درآمد + سن + home, data=df, family=binomial(link=logit)) با تشکر!
احتمالات پیش بینی شده برای مدل های لاجیت
63171
من یک مجموعه داده غیر عادی دارم. برای اهداف برنامه ریزی باید میانگین اعداد در این مجموعه داده را محاسبه کنیم. من از استاندارد کردن برای عادی سازی داده های خود در اکسل استفاده کردم. آیا می توانم میانگین به دست آمده از مجموعه داده های استاندارد شده را به نسخه اصلی برگردانم تا میانگین جدیدی داشته باشم؟ * * * اجازه دهید سعی کنم برخی از سوالات مطرح شده در اینجا را روشن کنم. مجموعه داده دارای منابع سفارش داده شده/هفته است. میانگین این برای اهداف برنامه ریزی آینده استفاده می شود. شخصی پیشنهاد کرد که این مجموعه داده را نرمال کنیم و سپس میانگین را پیدا کنیم و از میانگین به دست آمده از نرمال سازی استفاده کنیم. بنابراین سوال من این است که اگر من از تابع استانداردسازی در اکسل استفاده کنم و میانگین جدید را از مجموعه داده های استاندارد دریافت کنم، آیا می توانم آن را به مجموعه داده های اصلی خود بازگردانم؟ مثال زیر را ببینید X1 Mean Std Dev مقدار استاندارد شده 282 252 55 0.52 آیا می توانم بفهمم 0.52 در مجموعه داده های اصلی من به چه چیزی مربوط می شود؟ آیا من چیزی دریافت می کنم که بگوید 0.52 مطابق با مقدار نرمال شده 265 است؟ اگر ممکن است من می خواهم این کار را برای هر مطالعه انجام دهم و سپس میانگین جدیدی پیدا کنم متشکرم!
استاندارد سازی داده ها
93413
منظور من از ضریب همبستگی، ضریب همبستگی لحظه-محصول پیرسون است. همه ما می دانیم که همبستگی به معنای علیت نیست، اما آیا ضریب همبستگی بالا معنایی دارد؟ دلیلی که من این را می پرسم این است که اگر به اندازه کافی دقیق نگاه کنیم، می توان انواع همبستگی را بین هر مجموعه ای از داده ها در بورس پیدا کرد (داده ها را شکنجه کنید تا زمانی که اعتراف کند)، بنابراین اکنون فکر می کنم که ضریب همبستگی بالا نمی تواند اصلا معنی به جز موقعیتی که بتوانیم علیت بین دو موضوع را ردیابی کنیم، آیا موقعیت دیگری وجود دارد که ضریب همبستگی بالا معنی خاصی داشته باشد؟ یک مثال خاص بزنید، اگر ببینم که سهام A و سهام B دارای ضریب همبستگی کامل هستند (پس از داده کاوی گسترده) و نمی توانم دلیل یا دلیلی بین آنها و زمانی که سهام A افزایش می یابد پیدا کنم. نتیجه بگیرید (با درصد بالایی از سطح اطمینان) که سهام B نیز افزایش خواهد یافت؟ در مورد سهام B، چه استنتاجی می توانم از افزایش یا کاهش قیمت سهام A بگیرم؟
آیا ضریب همبستگی بالا معنایی دارد؟
63170
من اخیراً شروع به خواندن برنامه نویسی احتمالی و روش های بیزی برای هکرها کردم و واقعاً به موضوع و PyMC علاقه مند شدم. من به خصوص مثال فصل اول را دوست دارم که در آن از برنامه ریزی احتمالی برای تعیین اینکه آیا رفتار ارسال پیامک (که بر اساس تعداد پیام ها در هر روز کمیت می شود) در طول زمان تغییر می کند یا خیر استفاده می شود. من اکنون فکر می کنم که آیا این می تواند به نحوی مشابه با مشکل من اعمال شود. به طور مشخص، من داده های زمانی متشکل از کلمات اضافه شده به یک سند دارم. اکنون به من علاقه مند است که آیا این سری زمانی در طول زمان تثبیت می شود و اگر چنین است چه زمانی تثبیت می شود. تثبیت به این معنی است که نویسنده (یا نویسندگان) سند بر سر مجموعه ای از شرایط توافق کرده اند و نوعی تثبیت معنایی وجود دارد (سکوت). در ادبیات این اغلب با نشان دادن اینکه توزیع بسامدهای کلمات قانون توان است انجام می شود. تکنیک های دیگر استفاده از واگرایی Kullback-Leibler بین نقاط زمانی t و t+1 است و سعی می کنیم نشان دهیم که بعد از مدتی واگرایی KL کمتر و کمتر می شود و تثبیت می شود. با این وجود، این روش‌ها محدودیت‌هایی دارند و من نمی‌دانم که آیا این روش با مدل‌سازی احتمالی قابل حل است؟ از آنجایی که من با این موضوع چندان مناسب نیستم هنوز کنجکاو هستم که آیا کسی نکاتی را برای یک راه حل احتمالی در صورت امکان مدل سازی در هر حال ارائه دهد. ممنون، فیلیپ
تعیین ثبات در یک سری زمانی از طریق مدل سازی احتمالی
29187
من به طور سیستماتیک کلمات کمیاب را از سه گروه متون (#1، #2 و #3) انتخاب کردم (کلمات کمیاب در هر گروه متفاوت است، اما برخی از کلمات نادر ممکن است در بیش از یک گروه ظاهر شوند). سپس، برای هر کلمه نادر، سعی کردم بفهمم که در یک مجموعه (مجموعه بزرگ و منظم متون)، به نام Corpus P، چقدر فراوان است و در دیگری (Corpus B) چقدر فراوان است. با استفاده از فرکانس ها، آمار ورود به سیستم احتمال را برای هر نسبت فرکانس ها دریافتم. این یک آمار رایج در زبان‌شناسی پیکره‌ای است و هر چه بزرگ‌تر باشد، اندازه‌گیری «شگفت‌انگیز» در نسبت فراوانی بزرگ‌تر است. من به ویژه به کلمات نادری که در Corpus P به طور قابل توجهی فراوانتر از Corpus B بودند، علاقه مند بودم. می خواهم ببینم آیا امتیازات کلمات نادری که این شرط را برآورده می کنند به طور قابل توجهی در گروه متن متفاوت است (#1-3). نمرات این مجموعه از کلمات نادر را می توان به صورت گروه متنی و به ترتیب نزولی در این مجموعه داده یافت: 1. گروه #1 (1362 = n) 2. گروه #2 (n = 285) 3. گروه #3 ( n = 112) من به نمودارهای Q-Q در هر یک از سری ها نگاه کردم و مطمئناً به طور معمول توزیع نمی شوند. سپس بر اساس بررسی ادبیات به این فرضیه رسیدم که این آمارها دارای توزیع کای اسکوئر هستند، به اعتقاد من با یک درجه آزادی. من می‌خواهم این فرض را بررسی کنم، و سپس بفهمم که آیا این سه سری به طور قابل توجهی متفاوت هستند، یعنی آیا کلمات نادر از هر گروه امتیازهای متفاوتی دارند یا خیر. (من سعی کردم بدون ** این فرض با استفاده از آزمون مجموع رتبه ناپارامتریک Wilcoxon تفاوت داشته باشند، اما نتیجه معنی دار نبود.) ** چگونه می توانم ببینم که هر ستون در داده ها دارای توزیع است یا خیر. شبیه چی مربع، 1 d.f. اگر ببینم که هرکدام با مدل مناسب هستند، چگونه می توانم بفهمم که سریال ها با یکدیگر متفاوت هستند؟** پیشاپیش متشکرم.
با فرض اینکه سه سری داده من هر کدام $\chi^2(1)$ توزیع شده اند، آیا آنها با یکدیگر متفاوت هستند؟
34264
من می خواهم مرزهای نرخ مثبت کاذب یک طبقه بندی کننده باینری را تخمین بزنم. در داده های نمونه من 50 درصد نقاط داده مثبت و 50 درصد نقاط داده منفی دارم. با این حال، در داده‌های واقعی، که من به آنها دسترسی ندارم، می‌توانم تخمین بزنم که نمونه‌های مثبت $N$ و نمونه‌های منفی $N^2$ وجود خواهند داشت که در آن $N$ بزرگ است، به ترتیب میلیون ها نفر از آنجایی که من به دنبال یک سوزن با اندازه $N$ در انبار کاه $N^2$ هستم، بسیار مهم است که نرخ مثبت کاذب من تا حد امکان نزدیک به صفر باشد. 40 هزار نمونه مثبت و 40 هزار نمونه منفی دارم. تا زمان فراخوانی 0.8، نرخ مثبت کاذب 0 را دارم. می‌خواهم از آن برای تخمین نرخ مثبت کاذب واقعی استفاده کنم. من می توانم نرخ مثبت کاذب را به عنوان احتمال برچسب زدن یک نمونه منفی به عنوان مثبت مدل کنم. بیایید این را $P_{np}$ (برای منفی -> مثبت) بنامیم. من ارزش واقعی آن را نمی دانم، اما می دانم که پس از برچسب زدن 0.8*40000 من 0 مثبت کاذب دارم. تعداد موارد مثبت کاذب به مقدار $P_{np}$ بستگی دارد و باید به صورت دوجمله ای توزیع شود. با فرض اینکه این درست باشد، می توانم فاصله اطمینانی را در حدود تخمین تجربی خود از $P_{np}$ تخمین بزنم. آیا این منطقی است؟ آیا می توانید به من به کار مرتبط در ادبیات اشاره کنید؟
تخمین مرزهای نرخ مثبت کاذب
58293
فرض کنید $v[n]$ یک بردار $N$ $iid$ نمونه‌های گاوسی باشد، از ~$N(0,\sigma^2)$ همچنین، اجازه دهید $v_{max}$ حداکثر مقدار مطلق همه نمونه‌ها را نشان دهد. داده شده است. (یعنی، اگر من مقدار مطلق همه نمونه‌های تصادفی $N$ داده شده را بگیرم و حداکثر را انتخاب کنم، $v_{max}$ خواهد بود). من سعی می‌کنم دلیل درستی این جمله را مشخص کنم: **به انگلیسی:** احتمال $v_{max}$ بیش از $\sigma \sqrt{2log_e N}$ به $0$ نزدیک می‌شود، زیرا اندازه نمونه $N$ به بی نهایت نزدیک می شود. **از نظر ریاضی:** $$ \lim_{N \to \infty} P \left( v_{max} > \sigma \sqrt{2log_e{N}} \right) = 0 $$ حتی مطمئن نیستم در این مورد از کجا شروع کنیم به طور شهودی، من حتی مطمئن نیستم که چرا اندازه نمونه $N$ باید مهم باشد، بنابراین حتی یک کشش بصری اولیه برای این مشکل خاص ندارم. از هرگونه بینش قدردانی می کنم. **TLDR: $\sigma \sqrt{2log_e{N}}$ دقیقاً چگونه مشتق می‌شود؟** * * * **ویرایش، آنچه را تا کنون امتحان کرده‌ام:** با تشکر از نظرات، من موفق شدم قطعه‌سازی کنم با هم چیزی، اما هنوز به نظر می رسد که من یک راه دور هستم. می‌خواهم نشان دهم که $\lim_{N \to \infty} P(v_{max} > z) = 0$ زمانی درست می‌شود که $z=\sigma \sqrt{2log_eN})$. بر اساس فرض $iid$، می توانیم بگوییم که $$P(v_{max} > z) = P(|v_1|، |v_2|، |v_3| ... |v_N| > z) = \ سمت چپ [2 - 2\Phi_{\sigma}(z) \right]^N$$، جایی که $\Phi_{\sigma}$ CDF گاوسی رایج است توزیع، ارائه شده توسط: $$ \Phi_{\sigma}(z) = \frac{1}{2} + \frac{1}{2} erf \left [\frac{z}{\sigma \sqrt{2 }} \right] $$ سپس این بدان معنی است که با جایگزینی ساده، $$ P(v_{max} > z) = \left[1 - erf \left( \frac{z}{\sigma \sqrt{2}}\right) \right]^N $$ و بنابراین، $$ \lim_{N \to \infty} P(v_{max} > z) = \lim_{N \to \lim_{N \to \infty} left[1 - erf \left( \frac{z}{\sigma \sqrt{2}}\right) \right]^N = 0 $$ در اینجا اما من گیر کردم. چگونه می توان از اینجا نشان داد که $z=\sigma \sqrt{2log_eN})$؟... با تشکر
احتمال مجانبی مربوط به بزرگترین مقدار مطلق در نمونه گاوسی iid
34266
شخصی در حال انجام آزمایش **فرضی** زیر است و به من گفته است که ANOVA اندازه گیری های مکرر لازم است. من در قاب بندی آن مشکل دارم، همانطور که در متن ها به من آموزش داده شده است. یعنی شناسایی فاکتورها، سطوح، متغیرهای مستقل/عمق، و غیره. از چند شرکت‌کننده خواسته می‌شود که به یک مربع قرمز، مربع آبی و مربع سبز نگاه کنند، همانطور که ما کدورت مردمک چشم آنها را به عنوان یک سری زمانی پیوسته برای 1000 میلی‌ثانیه (1 ثانیه) اندازه‌گیری می‌کنیم. در هر آزمایش در هر آزمایش ما یک مربع را نشان می دهیم. ما 100 کارآزمایی را جمع‌آوری می‌کنیم که به رنگ قرمز، 100 مورد به رنگ آبی و 100 آزمایش به رنگ سبز نشان داده شده‌اند. ما این کار را برای 50 شرکت کننده انجام می دهیم. بنابراین داده‌های ما به این شکل به نظر می‌رسند 50 (شرکت‌کنندگان) * 3 (گروه‌های قرمز آبی یا سبز) * 100 (آزمایش در هر گروه) * 1000 (میلی‌ثانیه نمونه در هر آزمایش) پس فرضیه‌ای داریم که وقتی به رنگ قرمز نگاه می‌کنیم کدورت بیشتر است و یا آبی یا سبز (آبی یا سبز واقعاً با یکدیگر تفاوت ندارند). ** اندازه گیری های تکراری یک طرفه آنووا** آیا می توانید به من کمک کنید تا این را کمی بیشتر در **سطح گروهی** و سطح تک موضوعی رسمی کنم؟ به وضوح مشخص کنید که چرا و چگونه ANOVA اندازه گیری های مکرر مناسب است، متغیر مستقل من چیست، متغیر وابسته من چیست، عوامل من، سطوح و غیره؟ آنچه من فکر می کنم این است: بر اساس اطلاعات موجود در اینجا: > اندازه گیری متغیر وابسته تکرار می شود. در چنین حالتی نمی توان از ANOVA استاندارد استفاده کرد زیرا این داده ها فرض استقلال داده ها را نقض می کنند و به این ترتیب نمی توانند همبستگی بین اندازه گیری های تکراری را مدل کنند. با این حال، باید توجه داشت که طرح اندازه گیری های تکراری بسیار متفاوت از طراحی چند متغیره است. > > برای هر دو، نمونه ها در چندین موقعیت یا آزمایش اندازه گیری می شوند، اما در طرح > > اندازه گیری های مکرر، هر آزمایش نشان دهنده اندازه گیری ویژگی > یکسان در شرایط متفاوت است. بنابراین اندازه گیری های مکرر مناسب است زیرا ما در حال اندازه گیری کدورت یک شرکت کننده در شرایط مختلف هستیم، جایی که شرایط مختلف مربع های قرمز، آبی یا سبز را نشان می دهد؟ کسی همچنین گفت که می توانم بین موضوعات و/یا بین رنگ ها مقایسه کنم؟ همچنین این موضوع وجود دارد که **سه اقدام تکراری جداگانه**، یکی برای بررسی قرمز در مقابل آبی، قرمز در مقابل سبز و در نهایت آبی در مقابل سبز وجود دارد. آیا این منطقی است؟ ** اندازه گیری های مکرر دو طرفه آنووا ** برای اضافه کردن توهین به آسیب، اجازه دهید بگوییم که من می خواستم برای هر آزمایشی، کدورت را در سه مکان مختلف در چشم یک نفر اندازه گیری کنم. به این معنی که اکنون هر مسیر دارای 3 اندازه گیری کدورت است. چگونه آن را در بالا مناسب است؟ شخصی به من گفت که این یک اندازه گیری دو طرفه آنوای مکرر است که در آن فاکتور 1: فاکتور شرط 2: مکان اندازه گیری است. **ویرایش** من سوال را به روز کردم تا نشان دهم که علاقه مند به نگاه کردن در سطح گروهی و فردی هستم. چگونه می توانم این کار را در سطح فردی انجام دهم؟ آیا این شامل نگاه کردن به زمان است؟ من فکر می‌کنم که می‌توانم 1. میانگین آزمون‌ها را برای ایجاد یک مقدار مشخصی از شفافیت در هر نقطه زمانی ایجاد کنم. سپس آنها را در جدولی شبیه به جدولی که در اینجا نشان داده شده است، در ستون اول قرار دهید. ستون دوم مقدار متوسط ​​تمام آزمایشات برای آن نقطه زمانی خواهد بود. یا می‌توانم در طول زمان میانگین بگیرم و آزمایش‌هایم را در آنجا قرار دهم. نظر شما چیست؟
آزمایش قاب در لنز ANOVA با اندازه‌گیری‌های مکرر
49924
من R را یاد می‌گیرم و سعی می‌کنم بفهمم «lm()» چگونه متغیرهای فاکتور را مدیریت می‌کند و چگونه جدول ANOVA را درک می‌کند. من با آمار نسبتاً تازه کار هستم، پس لطفاً با من مهربان باشید. در اینجا برخی از داده های فیلم از Rotten Tomatoes آورده شده است. من سعی می‌کنم امتیاز هر فیلم را بر اساس میانگین امتیازات همه فیلم‌ها در 4 گروه مدل‌سازی کنم: آنهایی که دارای رتبه‌بندی G، PG، PG-13، و R. download.file (http://www.rossmanchance .com/iscam2/data/movies03RT.txt, destfile = ./movies.txt) فیلم <- read.table(./movies.txt, sep = \t، header = T، quote = ) lm1 <- lm(movies$score ~ ​​as.factor(movies$rating)) anova(lm1) و خروجی ANOVA: ## تحلیل واریانس جدول ## # # پاسخ: movies$score ## Df Sum Sq میانگین مربع F مقدار Pr(>F) ## as.factor(movies$rating) 3 570 190 0.92 0.43 ## Residuals 136 28149 207 من می‌دانم چگونه می‌توان همه اعداد این جدول را به‌جز «Sum Sq» و «Mean Sq» برای «as.factor(movies$rating)» بدست آورد. لطفاً کسی توضیح دهد که Sum Sq چگونه از داده های من محاسبه می شود؟ من می‌دانم که میانگین مربع فقط «Sum Sq» بر «Df» تقسیم می‌شود.
anova.lm در R چگونه Sum Sq را محاسبه می کند؟
66279
آیا کسی بسته ای به R نوشته است تا نمودارهای تشخیصی را بعد از 'clogit'، رگرسیون لجستیک شرطی محاسبه کند؟ به عنوان مثال اهرم. یا یک سوال مرتبط، چگونه با استفاده از «glm» طبقه بندی می کنید (شاید بتوانم با استفاده از «glm» و «خانواده =دوجمله ای» طبقه بندی کنم و سپس از بسته های تشخیصی برای «glm» استفاده کنم؟)
آیا کسی بسته ای به زبان R برای محاسبه نمودارهای تشخیصی پس از کلوگیت (رگرسیون لجستیک شرطی) نوشته است؟ به عنوان مثال اهرم
26684
**نسخه کوتاه:** آیا روش آماری وجود دارد که بتوان از آن برای توسعه تخمین فراوانی، توزیع مکانی و/یا نرخ گسترش یک گونه استفاده کرد، در صورتی که مجموعه داده من فقط شامل داده های حضور باشد و نه غیبت؟ من با فسیل ها به معنای دقیق آن سروکار ندارم، اما حدس می زنم که اگر چنین روشی وجود داشته باشد ممکن است در زمینه دیرینه شناسی یافت شود. **نسخه طولانی:** اخیراً پروژه آزمایشی کوچکی را انجام دادم که سعی می‌کردم اطلاعاتی را در مورد پراکنش گونه‌های تازه معرفی‌شده شب پره در ایالات متحده جمع‌آوری کنم و احتمالاً به عقب و تخمین تاریخ و مکان معرفی را بپردازم. ما فقط در سال 2009 از این گونه آگاه شدیم، اما من پایگاه‌های اطلاعاتی عکاسی حشرات را جست‌وجو کردم (بیشتر توسط آماتورها: bugguide.net، mothphotographersgroup.org، _etc._) و دریافتم که عکس‌های زیادی از این جانور وجود دارد که به سال 2004 بازمی‌گردد. و پوشش 8 یا 9 ایالت در جنوب شرقی ایالات متحده باعث شد به این فکر کنم که چگونه می توان از چنین مجموعه داده ای استفاده کرد. این عکس‌ها از نظر عملکردی دقیقاً مانند یک رکورد فسیلی هستند، از این نظر که داده‌های مثبت کم هستند، اما ذاتاً بسیار آموزنده هستند زیرا تاریخ و مکان قطعی را برای ارگانیسم هدف نشان می‌دهند. از سوی دیگر، داده‌های منفی واقعی حتی پراکنده‌تر هستند (به این معنی که داده‌ها وجود دارند و نشان می‌دهند که ارگانیسم در مکان و زمان خاصی حضور نداشته است). من نوع سوم زیادی از داده دارم، و مطمئن نیستم که اصلا بتوان از آن استفاده کرد: نبود داده های مثبت. از یک طرف، اگر هیچ داده مثبتی برای یک سایت خاص وجود نداشته باشد، به همان اندازه که در مورد شرایط ایجاد «فسیل» (یا عکس) و جمع‌آوری بعدی می‌گوید، در مورد پراکنش گونه‌ها نیز می‌گوید. برای فسیل‌ها تصور می‌کنم شرایط زمین‌شناسی/توپوگرافی است، در حالی که برای عکس‌ها به تراکم عکاسان بالقوه مربوط می‌شود، و احتمال اینکه آنها عکسی را در جایی که من می‌توانم پیدا کنم، پست کنند. از طرف دیگر، هیچ داده ای با بی اطلاعاتی یکسان نیست، درست است؟ اگر من تراکم جمعیت انسان را استاندارد کنم، شهروندان دانشمندان در سراسر ایالات متحده باید از نظر احتمال مواجهه با پروانه و عکاسی از آن برابر باشند. اگر تراکم پروانه به ازای هر عکاس زیاد باشد، شانس بیشتری برای گرفتن عکس وجود خواهد داشت. اگر تراکم پروانه کم باشد، احتمال عکس کمتری وجود دارد. اگر پروانه واقعاً وجود نداشته باشد، احتمال عکس وجود ندارد. به عبارت دیگر، فکر نمی‌کنم **تصادفی*** باشد که همه عکس‌ها از ایالت‌های جنوب شرقی هستند، و عکس‌های بیشتری از برخی ایالت‌ها نسبت به سایرین در بین آن گروه پیدا شده است. فقط نمی‌دانم راهی برای پشتیبانی آماری بر اساس نوع داده‌های من وجود دارد یا خیر. * ** افشای کامل: ** می دانم که تصادفی نیست. من نمی خواستم سطح دیگری از پیچیدگی را به سوال خود اضافه کنم، اما توزیع درخت میزبان آن به خوبی مستند شده است و یک مرز مطلق برای این پروانه را نشان می دهد.
تخمین پراکندگی گونه ها و سرعت گسترش تنها با استفاده از داده های مثبت
29189
من شماره های زیر را دارم 0.889046409368551 1.22726162946495 1.22726162946495 1.35785109728356 1.35785109728350 1.10358 1.10974 1.4424189950435 1.2277843378837 1.35785109728356 0.970883941918588 0.822170913920467 1.35783109 0.358815782262543 0.774234247460432 0.822170913920467 0.822170913920467 0.72599976881814 0.674425 0.813223271443211 0.774234247460432 1.00184802593319 1.4424189950435 1.22726162946495 0.97018839 0.358815782262543 1.31016840948316 0.970883941918588 1.4424189950435 0.889046409368551 4.9183799 1.2277843378837 1.21605333196293 0.369861996166875 0.774748148811057 0.369861996166875 1.4424439 1.22726162946495 1.4424189950435 1.22726162946495 1.16291100715022 2.33863311242767 0.77462342424 4.91679981837699 0.9670580678417 0.970883941918588 0.9670580678417 1.10704609982913 4.9167998418 4.9167998418 1.05410985855726 1.22726162946495 1.21605333196293 1.35785109728356 0.822170913920467 1.4424189 0.970883941918588 0.835429195630044 0.774234247460432 1.61328986496929 0.970883941918588 1.227784 1.22778 1.22726162946495 0.970883941918588 1.10704609982913 1.10704609982913 1.10704609982913 1.4424189 1.22726162946495 1.4424189950435 1.35785109728356 0.9670580678417 0.9670580678417 0.885419165717 0.885419165714 0.369861996166875 0.9670580678417 0.774748148811057 1.22726162946495 1.4424189950435 1.22747481629 1.31016840948316 0.813223271443211 1.4424189950435 0.822170913920467 1.05410985855726 0.8515201411 1.3245534157835 0.774234247460432 0.774234247460432 1.22726162946495 0.889046409368551 1.4424418 0.842622628771215 0.889046409368551 0.889046409368551 1.31898472833595 1.4424189950435 1.35728515 0.682617341489085 0.965180291004232 نمی‌خواهم با ترسیم داده‌های بالا بررسی کنم (چون هزاران چنین ساختار داده‌ای دارم). آیا تابعی در R وجود دارد که آن را بررسی کند؟ چگونه می توانم اعتبار را با برنامه نویسی بررسی کنم؟
چگونه بررسی کنیم که دنباله ای از اعداد سری زمانی است یا خیر؟
29185
من 5 پیش بینی کننده در یک مدل رگرسیون چندگانه با اندازه نمونه دارم که از 157 تا 330 برای هر پیش بینی متغیر است. با توجه به تنوع در اندازه نمونه، آیا بهتر است از مقدار R-squared تنظیم شده به جای R-squared استفاده شود.
$R^2$ در مقابل $R^2$ در رگرسیون چندگانه تنظیم شد
24257
در بیشتر مواقع، ما فقط با یک متغیر نتیجه/پاسخ مانند $y = a + bx +\epsilon$ سروکار داریم. با این حال، در برخی سناریوها، به ویژه در داده‌های بالینی، متغیرهای پیامد می‌توانند دارای ابعاد بالا/چند متغیری باشند. مانند $\mathsf{Y} = \beta{x} + \mathsf{\epsilon}$، که در آن $\mathsf{Y}$ حاوی متغیرهای $Y_1$، $Y_2$ و $Y_3$ است و این نتایج همه با هم مرتبط هستند. . اگر $x$ نشان دهنده دریافت درمان است (بله/خیر)، چگونه می توانم این نوع داده ها را در R شبیه سازی کنم؟ به عنوان مثال در زندگی واقعی، هر بیمار یکی از 2 نوع جراحی بای پس را دریافت می کند و محققان پس از جراحی بای پس، درد، تورم، خستگی و غیره هر بیمار را اندازه گیری می کنند (نرخ هر علامت از 0 تا 10). من فرض می کنم پیامدها (شدت علائم) چند متغیره طبیعی هستند. امیدوارم این مثال واقعی بتواند سوال من را روشن کند. پیشاپیش سپاس فراوان
چگونه می توان نتایج چند متغیره را در R شبیه سازی کرد؟
58435
من با اجرای یک ANOVA با اندازه گیری های مکرر در R با استفاده از تابع ezANOVA مشکل دارم. من داده‌هایی از 18 آزمودنی دارم - هر آزمودنی در 3 شرایط شرکت کرد و داده‌ها در هر ترکیب موضوع/شرایط در 29 مکان الکترود جمع‌آوری شد (1566 نقطه داده کل در یک طرح متعادل بدون سلول‌های از دست رفته). وقتی می‌خواهم مدل ANOVA کامل را اجرا کنم = ezANOVA(داده، dv=ولتاژ، wid=موضوع، درون=.(الکترود، کانال)) با خطای زیر مواجه می‌شوم: > خطا در لامبدا > 0: مقایسه نامعتبر با مقادیر مختلط خطا در > ezANOVA_main(داده = داده، dv = dv، wid = wid، درون = درون، : > car::Anova () تابعی که برای محاسبه نتایج و تست‌های فرضی استفاده می‌شود، معمولاً به این دلیل است که شما نسبت به تعداد سلول‌های طراحی درون Ss، تعداد بسیار کمی از موضوعات دارید ANOVA دوباره با type=1 ممکن است نتایجی را به همراه داشته باشد (اما اگر من سطوح کمتری از الکترود را نسبت به آزمودنی‌هایم بگنجانم، قطعاً هیچ آزمایش فرضی درست نیست کمتر)، اما اگر تعداد بیشتری را اضافه کنم، چرا این یک مشکل است، فکر نمی‌کنم که داشتن سطوح بیشتر از n برای یک فاکتور درون موضوعی، مشکل ساز باشد. (SPSS همه چیز را به خوبی محاسبه می کند، با استفاده از نوع I SS کار می کند، اما اگر این گزینه را انتخاب کنم، مقادیر p اصلاح شده کروی را که باید گزارش کنم، به من نمی دهم).
خطای اندازه گیری های مکرر در R ezANOVA با استفاده از سطوح بیشتر از افراد (طراحی متعادل)
92556
من می‌خواهم یک نمونه بزرگ را دسته‌بندی کنم و برای هر زیرمجموعه زیرمجموعه‌ای تخمین بزنم. مشکل این است که برخی از زیر مجموعه ها حاوی نقاط داده بسیار کمی هستند. چگونه با آن برخورد کنم؟ به عنوان مثال: ## 1) مجموعه داده ها می گویند نمونه بزرگی از درآمد سالانه شخصی (یورو) در اروپا وجود دارد. زمینه ها و نمونه ورودی: کشور منطقه شغل سن درآمد آلمان باواریا مهندس 31 50200 ## 2) خوانندگان توسکانی میانگین درآمد خوانندگان حرفه ای 53 ساله در توسکانی، ایتالیا را تخمین بزنید. چگونه آن را انجام می دهید؟ اولین فکر من این است که فقط میانگین درآمد همه ورودی‌هایی را که در آن کشور=ایتالیا، منطقه=توسکانی، شغل=خواننده و سن=53 است، محاسبه کنم. اما اگر فقط دو مدخل با آن معیارها مطابقت داشته باشند چه؟ کشور منطقه شغل سن درآمد ایتالیا توسکانی سینگر 53 22500 ایتالیا توسکانی خواننده 53 13700 I can then maybe at e.g. سنین 50-56 در توسکانی برای گرفتن نمونه بزرگتر. همچنین می‌توانم به میانگین درآمد همه خوانندگان 53 ساله در کل ایتالیا نگاه کنم و اگر درآمد در توسکانی به طور کلی با بقیه ایتالیا متفاوت باشد، آن را تنظیم کنم. بنابراین به صورت دستی و شهودی می‌توانم یک عدد را حدس بزنم، اما باید بتوانم به رایانه بگویم چگونه این کار را انجام دهد... ## 3) رانندگان تاکسی لندن بزرگ در مرحله بعد، میانگین درآمد جمعیت رانندگان تاکسی 37 ساله را تخمین بزنید. لندن بزرگ، انگلستان برای این ترکیب، فرض کنید مجموعه داده‌ها شامل 1230 ورودی است، که باید نمونه‌ای به اندازه کافی بزرگ باشد، بنابراین برای بدست آوردن تخمین فقط آنها را میانگین می‌گیرید، درست است؟ نیازی نیست به سنین یا مناطق دیگر نگاه کنید. ## 4) سوالی که من به دنبال آن هستم راهی است برای به دست آوردن تخمینی از میانگین درآمد جمعیت برای هر ترکیبی از سن، شغل و منطقه - چیزی که بدون وجود داده های زیاد (با مشاهده اطلاعات مشابه) کار می کند. داده ها اگر نمونه کوچک باشد). من تصور می کنم که شما از فرمول/روش یکسانی در 2) و 3 استفاده می کنید، اما با زیر مجموعه نمونه لندن بزرگ، وزن بسیار کمی (اما چقدر کم؟) به سنین و مناطق دیگر اختصاص داده می شود، زیرا نمونه بزرگ است. . همچنین باید معیاری از اطمینان در برآورد وجود داشته باشد، برای مثال خطای استاندارد یا فاصله اطمینان. مطمئناً این نوع مشکل باید در آمار کاملاً رایج باشد. به عنوان مثال http://en.wikipedia.org/wiki/Multilevel_model برخی از موارد مشابه را مورد بحث قرار می دهد، اما به نظر می رسد هنوز با مشکل من سازگار نیست. **اگر کسی بتواند روش ها یا مفاهیمی را نام ببرد که ممکن است به این مشکل کمک کند، بسیار مفید خواهد بود.** فقط چیزی که ممکن است مرا در مسیر درست قرار دهد - من کاملاً گیر کرده ام و حتی نمی دانم در این مورد چه چیزی را در گوگل جستجو کنم. نقطه با تشکر از شما برای خواندن!
نحوه گسترش زیر مجموعه نمونه با داده های مشابه
49929
من یک سوال در مورد تجزیه و تحلیل خوشه ای دارم و امیدوارم بتوانید به من کمک کنید. من نمونه ای متشکل از 30 بیمار را با مقیاس های مشابه (A، B، C، D، E، F) آزمایش کردم و دو خوشه به دست آوردم، یکی با نتایج دو مقیاس (A و B) و دیگری با نتایج چهار مقیاس متفاوت دیگر. ترازو (C، D، E، F). من می‌خواهم این دو خوشه را که شباهت زیادی دارند با هم مقایسه کنم تا همپوشانی خوشه‌های به‌دست‌آمده در یکی و در دیگری را پیدا کنم و نتیجه را تأیید کنم. چه نوع تحلیلی باید انجام دهم؟
مقایسه تحلیل خوشه ای
50360
نحوه رسم توزیع دو جمله ای برای p = 0.3، p = 0.5 و p = 0.7 و تعداد کل آزمایش ها n = 60 به عنوان تابعی از k تعداد آزمایش های موفق. برای هر مقدار p، ربع 1، میانه، میانگین، انحراف معیار و ربع سوم را تعیین کنید. آن مقادیر را به صورت نمودار کادر عمودی با احتمال p در محور افقی ارائه دهید.
توزیع دو جمله ای را رسم کنید
66271
من اخیراً سعی کردم راهی برای محاسبه واگرایی KL بین 2 جمعیت پیدا کنم که به طور معمول با استفاده از میانگین و واریانس هر جمعیت توزیع می شوند. اما من چندین فرمول مختلف پیدا کردم و نمی‌دانم از کدام یک دقیقا استفاده کنم. اولین معادله زیر از یک مقاله تحقیقاتی به نام Endo A, Nagatani F, et al. (2006). روش حداقل سازی برای متعادل کردن متغیرهای پیش آگهی پیوسته بین گروه های درمان و کنترل با استفاده از واگرایی Kullback-Leibler. Contemp Clin Trials 27 (5): 420 -31. ![فرمول KLD از مقاله تحقیقاتی](http://i.stack.imgur.com/zvyFM.png) معادله دوم از یک سوال دیگر است: log(σ2/σ1) + ((σ12 + (μ1- μ2)² )/(2*σ2²)) - ½ آیا کسی می تواند به من کمک کند تا بفهمم کدام معادله صحیح است؟
واگرایی کولبک-لایبلر دو توزیع نرمال
49925
من سعی می کنم تابع خطر را برای یک نوع جزء مکانیکی با توجه به مجموعه داده ای با زمان شروع و خرابی هر جزء محاسبه کنم. در مجموعه داده، تمام اجزاء در نهایت از کار می افتند. ابتدا، من درصد مؤلفه هایی را که بیش از 3 ماه زنده مانده اند به صورت $s = 0.458 $ محاسبه کردم. دوم، من تابع خطر را محاسبه کردم، با فرض اینکه تابع خطر برای شکست در هر دوره ثابت است، مانند این: \begin{align} h(t) &= (1-s)^{t} \\\ &= ( 1-0.458)^3 \\\ &= 0.15922 \end{align} که در آن $t$ طول هر دوره است (در این مورد، 3 ماه، اگرچه من مطمئن نیستم این). با این حال، یادداشت‌هایی که من دنبال می‌کنم تابع خطر را به این صورت محاسبه می‌کنند: \begin{align} h(t) &= 1-0.458^{1/3} \\\ &= 0.2292 \end{align} عدم وجود پرانتز و قدرت متفاوت من را گیج می کند. آیا من، یادداشت های من، یا هر دوی ما نادرست هستیم؟
چگونه تابع خطر را از روی میزان بقا محاسبه کنم؟
92552
با وجود خواندن مستندات فنی rpart، هنوز برای من مشخص نیست که خطای اعتبارسنجی متقاطع (xerror) چگونه محاسبه می شود. آیا با استفاده از اعتبارسنجی متقاطع 10 برابری استاندارد، آیا این بدان معناست که الف) تابع rpart، داده ها را به 10 قطعه تقسیم می کند، برای هر مجموعه 9 قطعه، یک درخت متناسب می کند و خطای پیش بینی را در هر تقسیم از یک قطعه حذف می کند و محاسبه می کند. میانگین خطاهای پیش بینی؟ در اصل، 10 درخت مختلف مناسب هستند و با یک تکه کنار گذاشته می شوند. آیا این بدان معنا نیست که درختان ممکن است متغیرهای تقسیم متفاوتی داشته باشند، و با این حال، ما خطای پیش‌بینی را برای هر تقسیم میانگین می‌کنیم و از آن برای هرس درختی استفاده می‌کنیم که از داده‌های کامل ساخته شده است و ممکن است در هر تقسیم متغیرهای مختلفی داشته باشد؟ ب) اینکه تابع rpart داده ها را به 10 قطعه تقسیم می کند و سپس خطای پیش بینی را در هر تقسیم برای هر یک از 10 قطعه بررسی می کند، اما بر اساس یک درخت اصلی که بر روی داده های کامل ساخته شده است؟ با تشکر
خطای اعتبارسنجی متقابل Rpart
50363
من با این مشکل دست و پنجه نرم می کنم، آیا کسی می تواند به من بگوید چگونه می توانم مهم ترین متغیرها را از بین چندین متغیر مستقل قبل از جا دادن هر مدلی در GLM انتخاب کنم؟ من واقعا آن را قدردانی می کنم. من قبلاً چند مدل را نصب کرده ام اما برای من منطقی نیست. پیشاپیش ممنون
انتخاب مهم ترین متغیرها در GLM ها
66276
من روی یک مدل طبقه‌بندی کار می‌کنم که با توجه به ویژگی‌های مختلف فرصت، پیش‌بینی می‌کند که آیا یک فرصت فروش در نهایت برنده یا از دست رفته خواهد بود. من از داده های آموزشی خود برای ساخت چندین مدل از جمله یک مدل جنگل تصادفی، رگرسیون لجستیک، یک مدل درخت تصمیم، مدل ada boost و ماشین بردار پشتیبانی استفاده کرده ام. هر یک از این مدل‌ها احتمالی را به دست می‌دهد که برای تخصیص برچسب «برنده» یا «از دست رفته» به فرصت‌های ناشناخته استفاده می‌شود. من از این احتمالات استفاده کرده ام، به جای دودویی «برنده» یا «باخته»، برای محاسبه مقدار مورد انتظار فرصت بر اساس ارزش آن در صورتی که در نهایت «برنده» شود. سوال من این است که چگونه باید تخمین‌های این مدل‌های مختلف را ترکیب کنم تا به یک تخمین کلی (احتمالاً بهتر از هر یک به صورت جداگانه) برای محاسبه مقدار مورد انتظار برسم؟ ساده ترین میانگین حسابی است که من آن را امتحان کردم. من همچنین در نظر دارم داده‌های آموزشی خود را تقسیم کنم و همه مدل‌ها را مثلاً بر روی 70 درصد داده‌ها آموزش دهم. سپس، از مدل‌ها برای تولید احتمالات در 30 درصد باقی‌مانده استفاده کنید و سپس یک رگرسیون لجستیک نهایی را بر روی آن 30 درصد با استفاده از احتمالات برآورد شده از مدل‌های اصلی به عنوان ورودی‌های رگرسیون لجستیک آموزش دهید. سپس، به‌جای استفاده از میانگین حسابی تخمین‌ها در فرصت‌های جدید، دو مرحله را انجام می‌دهم، ابتدا تخمین‌هایی را از مدل‌های آموزش‌دیده بر روی 70% دریافت می‌کنم، سپس با استفاده از آن‌ها به عنوان ورودی مدل لجستیک، یک تخمین نهایی را دریافت می‌کنم. . این قلمرو جدید برای من است، بنابراین هرگونه توصیه، ایده جدید، یا مطالعه پیشنهادی بسیار قدردانی می شود.
استفاده از یک مدل لجستیک بر روی برآورد چندین مدل طبقه بندی دیگر
92558
آیا می توان با استفاده از تئوری پاسخ آیتم، ساختار تست را در مجموعه ای از موارد استنباط کرد؟ به طور خاص، من تغییرات زیادی در وظیفه یادآوری داستان ایجاد کرده‌ام، هر کدام از تغییرات در ۲۵ جزئیات به‌عنوان قبول/شکست نمره‌گذاری می‌شوند. از اجرای آن مشخص است که مردم «تکه‌هایی» از داستان‌ها را به خاطر می‌آورند، که نشان‌دهنده یک ساختار آزمایشی واضح است. بنابراین، فرض IRT ساده اقلام مستقل، داده ها را به خوبی نشان نمی دهد. به جای حدس زدن، می خواهم عضویت (احتمالی) آزمون هر مورد را از داده ها استنتاج کنم. من در حال حاضر IRT بیزی را با استفاده از مدل Rasch و JAGS برای نمونه برداری انجام می دهم. اما هر گونه فکری در مورد چگونگی انجام این کار قابل قدردانی خواهد بود.
استنباط ساختار آزمایشی در نظریه پاسخ آیتم
24251
داده‌های نظرسنجی پیچیده معمولاً توسط مرکز ملی آمار سلامت (NCHS) یا NSLY تهیه می‌شود. معمولاً حاوی اطلاعات مربوط به PSU، لایه ها و وزن ها است. برای ساختن نمونه‌های نماینده ملی، به طور سنتی یک رگرسیون وزنی انجام می‌شود که طراحی نمونه‌گیری را با خطی‌سازی تیلور (یعنی آنالوگ بررسی با خطاهای Huber-White) محاسبه می‌کند. من به تحلیل‌های همسان (مثلاً برنامه King's MatchIt) به عنوان روشی برای بهبود استنتاج علی علاقه‌مندم. آنچه از نگاه اول مبهم باقی می‌ماند این است: (1) چه معیارهایی باید برای تعیین اینکه چه زمانی تحلیل‌های همسان با داده‌های نظرسنجی پیچیده مناسب هستند، استفاده شود. و (2) چگونه چنین تجزیه و تحلیل های منطبق باید وزن و/یا نمونه برداری نظرسنجی را در نظر بگیرند. درک من از (1) این است که هیچ تفاوتی در مورد این تحلیل‌ها نسبت به تحلیل‌های دیگر وجود ندارد، اما ممکن است/باید استنتاج و کارایی را زمانی که تعداد موارد منطبق کم است بهبود بخشد. در مورد (2)، درک من این است که توصیه‌های رایج شامل وزن‌ها، و نه طرح نمونه‌گیری، در تطابق (به عنوان مثال، رگرسیون لجستیک وزن‌دار برای ایجاد امتیازات تمایل) و نه استنتاج علی بعدی را پیشنهاد می‌کنند. آیا ساختار نمونه گیری (به عنوان مثال، PSU، اقشار) نباید در نظر گرفته شود؟ از هرگونه ارجاع، پیشنهاد، تایید یا تناقض با آنچه در بالا آمده استقبال می شود.
تجزیه و تحلیل همسان با داده های نظرسنجی پیچیده
66278
من یک مدل جغرافیایی سه بعدی از داده های اشباع را کریج می کنم. اشباع آب ($SWT$)، اشباع گاز ($SGT$) و اشباع نفت ($SOT$) وجود دارد. یک محدودیت این است که اشباع ها باید تا یک جمع شوند. ($SWT + SGT + SOT = 1$). من مدل‌های SWT و SGT را می‌خواهم و واقعاً به اشباع روغن اهمیت نمی‌دهم، اما برای راضی شدن به $SWT + SGT <= 1$ نیاز دارم. من یک مدل کریگد اشباع آب ($SWT$) دارم. من یک مدل $SGT$ را کریگ کردم، اما در برخی مناطق کوچک مدل های کریگ شده $SWT + SGT > 1$. ایده من این بود که مدل کریگ شده $SWT$ را حفظ کنم، و $SGT$ و $SOT$ را با کل اشباع هیدروکربنی استاندارد کنیم، $SHT = 1 - SWT$: $SGT_{standardized}=SGT/{(1-SWT) )}$SOT_{standardized}=1-SGT_{standardized}$ سپس مدلی از $SGT_{استاندارد شده}$. سپس، من باید تبدیل را پشتیبان کنم: $SGT = SGT_{استاندارد شده}(1-SWT)$ این به نظر می رسد تضمین کند که من یک مدل زمین آماری به دست می آورم که $SWT + SGT <= 1$ باشد. با این حال، من نگران هستم که این تحول ممکن است برخی از سوگیری ها را معرفی کند؟ اگر میانگین داده های SGT را داشته باشم: $E[SGT] = x$ و میانگین SGT استاندارد شده است: $E[SGT_{استاندارد شده}] = y$ حال، اگر من میانگین استاندارد شده را تغییر دهم چه می شود SGT $y(1-E[SWT])\neq x$ نزدیک به x است، اما برابر x نیست. آیا این به این معنی است که تبدیل بایاس است؟ یا اینکه برآورد من از $SGT$ مغرضانه خواهد بود؟
تبدیل داده ها با ارائه یک سوگیری در مدل زمین آماری کریگد؟
58439
من سعی می کنم یک مشکل ساده را انجام دهم. من مجموعه ای از اعداد صحیح دارم: $$N={1, 2, 3, 4, 5, 6} $$ من می خواهم این عناصر را در مجموعه ای از ترکیبات به اندازه $k=3$ از این مجموعه ترکیب کنم، یعنی $. C_6^3$، جایی که $n=|N|$. با این حال، من می‌خواهم هر مجموعه ترکیبی با اندازه 3 حداقل یک عنصر مجموعه داشته باشد: $$M={1, 2}$$ احتمال اینکه مجموعه $C_6^3$ از $N$ حداقل یک عنصر داشته باشد چقدر است. M$؟ من معتقدم که می خواهم احتمال مجموعه من دارای 1 یا بیشتر عنصر $M$ باشد. با استفاده از قانون احتمال کل من نیاز دارم که احتمال مجموعه حاصل کمتر از 1 عنصر M$ داشته باشد. من می دانم که این مسئله با استفاده از ترکیبات راه حل آسانی دارد، اما می خواهم با استفاده از قانون احتمال کل انجام دهم.
احتمال عناصر $C_n^k$ که شامل حداقل عناصر K باشد
92554
اگر من یک متغیر x داشته باشم که lognormal است (mu=0، sd=.1) و بگویم می‌خواهم P(x < 0.90) را محاسبه کنم، آیا می‌توانم بگویم P(x <.90) = P (log(x ) < log(.90) ) ? با توجه به کتابی که از آن می خوانم، به نظر می رسد این درست باشد، اما دلیل آن را نمی فهمم. من می دانم که log(x) نرمال است (mu=0، sd=.1)، اما متوجه نمی شوم که چرا مقدار cdf مربوط به log(0.90) از توزیع نرمال همان مقدار cdf 0.90 را دارد. توزیع لگ نرمال
احتمالات ناشی از توزیع لگ نرمال
72037
اگر شرط را بردم 200 دلار می گیرم و احتمال برد من 0.1 است و اگر ببازم 20 دلار می دهم. آیا باید شرط بندی کنم؟
آیا باید شرط بندی کنم؟
28581
من یک مجموعه داده دارم که دارای 600 مشاهده است که به دو گروه تقسیم شده اند. من قصد دارم گرایش های مرکزی (مثلاً وسایل) این دو گروه را با هم مقایسه کنم. با این حال، نقض مفروضات کلاسیک موجود، مانند نرمال بودن و برابری واریانس ها وجود دارد. * آیا می توانم از یک رویکرد پارامتری (مخصوصاً آزمون t) استفاده کنم، زیرا حجم نمونه ها بزرگ است (بر اساس قضیه حد مرکزی)، یا باید از رویکرد ناپارامتریک استفاده کنم؟ * اگر باید از یک رویکرد ناپارامتریک استفاده کنم، کدام آزمون (من ویتنی، میانه یا کولموگروف-اسمیرنوف) مناسب‌تر است؟
استفاده از آزمون‌های ناپارامتریک برای مقایسه دو گروه زمانی که حجم نمونه بزرگ است اما مفروضات نقض می‌شوند.
24253
ما یک پایگاه داده با کشورهای مختلف داریم و هر کشور در تعدادی از صنایع تقسیم شده است. ما می خواهیم معیار جدیدی برای سودآوری صنعت ایجاد کنیم که میانگین هر صنعت در هر کشور باشد. دستور در Stata چه خواهد بود؟ ما قبلا معیاری برای سودآوری داریم.
چگونه میانه را به شرط چندین عامل در داده های سلسله مراتبی محاسبه کنیم؟
50366
معلم من 50 سوال آزمون احتمالی را به ما داد که از بین آنها 25 سوال را به طور تصادفی انتخاب می کند تا ما را امتحان کند. از 25، سپس می‌توانیم 10 مورد را برای انجام انتخاب کنیم که او به 8 بهترین نمره می‌دهد. سوال این است که چند مشکل را نمی توانم (از 50 مورد) مطالعه کنم و هنوز 100 در آزمون تضمین شود؟ (با فرض اینکه آنهایی را که مطالعه می کنم، کاملاً انجام می دهم)
چگونه می توانم بگویم این احتمال است؟
24259
من می خواهم نتایج چندین روش تشخیصی را در یک جمعیت برای شناسایی یک بیماری مقایسه کنم. به طور خاص تر، من می خواهم حساسیت روش ها را مقایسه کنم (همه 100٪ ویژگی دارند) و مایلم ملاحظات هزینه را نیز لحاظ کنم. آیا کسی می تواند به منابع اطلاعاتی در مورد روش مناسب برای تجزیه و تحلیل و گزارش هزینه-فایده یا اثربخشی به من اشاره کند؟ خیلی ممنون
هزینه فایده/اثربخشی
44465
من با مشکلی روبرو هستم که در آن یک متغیر مستقل، که نباید قدرت پیش بینی بر روی متغیر وابسته بر اساس دانش دامنه داشته باشد، با مقدار p بسیار کوچک ظاهر می شود زیرا اندازه نمونه بسیار بزرگ است (~100000). اگر من فقط از کمتر از 5000 نقطه داده استفاده کنم، آنگاه مقدار p به اندازه‌ای بزرگ می‌شود که از قبل حمایت کند که متغیر ناچیز است. با این حال، من فکر نمی‌کنم تغییر حجم نمونه برای رسیدن به نتیجه مطلوب، عمل خوبی باشد. آیا روشی برای تنظیم مقدار p کوچک صرفاً به دلیل حجم نمونه زیاد وجود دارد؟
نحوه تصحیح مقدار p کوچک به دلیل حجم نمونه بسیار زیاد
24789
من نمی دانم که آیا راهی برای محاسبه نسبت شانس ترکیبی برای SNP های خاص در یک متاآنالیز چندین GWAS وجود دارد، حتی زمانی که شما SE و نه بتا را برای هر مطالعه جداگانه ندارید؟ متشکرم
نسبت شانس ترکیبی
24782
من حدود 400 قطعه نقره در ابعاد مختلف هندسی دارم. آنها به شش گروه تقسیم شدند و هر گروه یک سری تست های استرس مانند خم شدن، کشیدن، آتش زدن برای مدتی و غیره را انجام دادند. درمان هایی که برای شش گروه انجام شد یکسان نبود، اما نسبتاً عادلانه بود. مشابه اندازه شش گروه یکسان نبود. قطعات یا در مرحله ای شکستند و به عنوان موفقیت ثبت شد یا نشد که به عنوان یک شکست ثبت شد. زمان هر موفقیت نیز ثبت شد. تعداد موفقیت‌ها حدود 80 مورد بود. هدف من ساخت یک مدل پیش‌بینی‌کننده برای تعیین اینکه آیا یک تکه نقره بر اساس ابعاد فیزیکی آن و روشی که انجام می‌شود، می‌شکند یا خیر. من تا حدودی در ساخت یک مدل با استفاده از ابعاد فیزیکی موفق بوده ام، اما افزودن جنبه های مختلف درمان (مثلا کل زمان صرف شده در آتش) به هیچ وجه باعث بهبود عملکرد نشد. من حتی سعی کرده‌ام ویژگی‌هایی (مثلاً فشار کلی روی فلز در جهات مختلف، فشار کلی روی فلز و غیره) را بر اساس ابعاد فیزیکی و درمان برای هر قطعه جداگانه ایجاد کنم، اما حتی اینها هم هیچ چیزی اضافه نکردند. عملکرد پیش بینی کننده چگونه می توانم اطلاعات درمان را به گونه ای ترکیب کنم که به قدرت پیش بینی من بیفزاید؟ واضح است که درمان عاملی برای شکستن یا عدم شکستن یک قطعه است و باید به نوعی در جایی خود را نشان دهد. N.B. من هیچ کنترلی روی طراحی درمان نداشتم و آزمایش نمونه های بیشتر با سایر درمان ها برای من گزینه ای نیست. من بسیار قدردان هر پیشنهاد یا نظری هستم. با تشکر فراوان
گنجاندن یک درمان در یک طرح طبقه بندی
73780
من در حال طراحی یک مدل شبکه عصبی هستم که تخمین پارامترهای حفظ آب van genuchten (theta_r، thera_s، alpha، n) را با استفاده از داده‌های ورودی محدودتر مانند بافت، چگالی حجمی و یک یا دو احتباس آب پیش‌بینی می‌کند. با بررسی شبکه های عصبی در پروژه R، بسته RSNNS را پیدا کردم و پرسپترون های چند لایه (MLP) را با تنظیم تعداد واحدهای پنهان و نرخ یادگیری ایجاد و آموزش دادم. عملکرد کلی که با آموزش و آزمایش RMSE برای این مدل ها مشخص می شود، واقعا ضعیف و تصادفی است، در واقع، من از مقادیر تغییر شکل log پارامترهای آلفا و n استفاده کردم تا از سوگیری جلوگیری کنم و توزیع تقریباً لگ نرمال آنها را در نظر بگیرم، اما این کمک زیادی نمی کند. می دانم که اشتباه می کنم، کد من این است: #input database basic <- read.table(url(https://dl.dropboxusercontent.com/s/m8qe4k5swz1m3ij/basic.txt?dl=1&token_hash=AAH6Z3d6fWTLoQZYi04Ys72sdufdERE5gm4v7QeF0)، headergm4v7QeF0)، headergm4v7QeF0) نصب شده <- read.table(url(https://dl.dropboxusercontent.com/s/rjx745ej80osbbu/fitted.txt?dl=1&token_hash=AAHP1zcPQyw4uSe8rw8swVm3Buqe3TP_7Ie1j-4، head3TP_7Ie1j-4 #استفاده از مقادیر تغییر شکل داده شده آلفا و n پارامتر خروجی fitted$alpha <- log(fitted$alpha) fitted$n <- log(fitted$n) #require RSNNS package library(RSNNS) #تقسیم مجموعه داده ورودی و خروجی < - splitForTrainingAndTest (پایه، برازش، نسبت = 0.15) مدل چند لایه #RSNNS پرسپترون با تنظیم تعداد واحدهای پنهان و پارامتر سرعت یادگیری , learnRate) rownames(parameterGrid) <- paste(nnet-, application(parameterGrid, 1, function(x) {paste(x,sep=, collapse=-)}), sep=) set.seed(1) models <- application(parameterGrid, 1, function (p) {mlp(dataset$inputsTrain, dataset$targetsTrain, size=p[1], learnFunc=SCG, LearnFuncParams=c(p[2], 0.1), maxit=200, inputsTest=dataset$inputsTest, targetsTest=dataset$targetsTest) }) #plotting errors it every model par(mfrow=c(4,3)) for(modInd در 1: طول (مدل ها)) plotIterativeError(models[[modInd]], main=names(models)[modInd]) #RSME برای هر مدل آموزش داده trainErrors <- data.frame(lapply(models, function(mod) { error <- sqrt(mean(( mod$fitted.values ​​- مجموعه داده$targetsTrain)^2)) خطا })) t(trainErrors) #RSME برای تست داده‌های تست هر مدل Errors <- data.frame(lapply(models, function(mod) { pred <- predict(mod,dataset$inputsTest) خطا <- sqrt(mean((pred - database$targetsTest)^2 )) خطا })) t(testErrors) #انتخاب بهترین مدل trainErrors[which(min(trainErrors) == trainErrors)] testErrors[which(min(testErrors) == testErrors)] model <- models[[which(min(testErrors) == testErrors)]] model.main <- names(models)[[which(min (testErrors) == testErrors)]] #plotting results par(mfrow=c(2,2)) plotIterativeError(model, main = model.main) plotRegressionError(dataset$targetsTrain, model$fitted.values) plotRegressionError(dataset$targetsTest, model$fittedTestValues) hist(model$fitted.values ​​- مجموعه داده$targetsTrain) NN دارم فکر می کنم طراحی مجموعه داده ها تجزیه و تحلیل با روش بوت استرپ ترکیب شده است، اما من نمی دانم چگونه. هر پیشنهادی برای همیشه سپاسگزار خواهد بود.
پیش‌بینی بد مدل‌های شبکه‌های عصبی چندلایه
72032
من می خواهم دو نسبت را مقایسه کنم، مثلاً $p_1$ و $p_2$. من می‌خواهم عدد تهی را آزمایش کنم که $\pi_1 = \pi_2$ که $\pi_i$ نسبت ناشناخته واقعی برای نمونه $i$ است. مشکل این است که من حجم نمونه را که مبنای محاسبه $p_2$ است نمی دانم و از این رو نمی توانم از آزمون استاندارد دو نمونه ای و نسبت مستقل استفاده کنم. آیا می توانم به جای آن فرض کنم که $p_2$ یک مقدار ثابت است و سپس یک تست استاندارد تک نمونه ای را انجام دهم؟ آیا رویکرد بهتری وجود دارد؟
تست نسبت ها زمانی که اندازه نمونه مشخص نیست
73788
برای استفاده از همبستگی پیرسون برای اندازه گیری شباهت دو سری زمانی، آیا توزیع نرمال هر دو سری زمانی شرط لازم است؟
همبستگی پیرسون برای سری های زمانی به داده های توزیع شده نرمال نیاز دارد؟
72017
فرض کنید VAR روی (x,y) است و من می‌خواهم یک عبارت ARMA(2,1) برای x دریافت کنم، چگونه می‌توانم این کار را انجام دهم؟ برای مثال، $\left[ \begin{array}{l} x_t\\\ y_t \end{array} \right] = \left[ \begin{array}{l} c_1\\\ c_2 \end{array} \right] + \left[ \begin{array}{l} 0.2\\\ \alpha \end{array} \begin{array}{l} 0.3\\\ 0.1 \end{array} \right] \left[ \begin{array}{l} x_{t - 1}\\\ y_{t - 1} \end{array} \right] + \text{} \left [ \begin{array}{l} \varepsilon_{1 t}\\\ \varepsilon_{2 t} \end{array} \right],$ سپس، $\begin{array}{lll} y_t & = & c_2 + \alpha x_{t - 1} + 0.1 y_{t - 1} + \varepsilon_{2 t}\\\ & = & c_2 + \alpha x_{ t - 1} + 0.1 (c_2 + \alpha x_{t - 2} + 0.1 y_{t - 2} \+ \varepsilon_{2 t - 1}) + \varepsilon_{2 t}\\\ & = & \ldots . \end{آرایه}$y_t = 1.1 c_2 + \alpha \sum_{j = 0}^{\infty} (0.1)^j x_{t - j - 1} + \sum_{j = 0}^{\ infty} ( 0.1)^j \varepsilon_{2 (t - j)}$ خوب است؟
آیا می توانم یک نمایش ARMA(2،1) تک متغیره از یک فرآیند VAR دو متغیره دریافت کنم؟
72039
مایلم به طور خودکار (نه با بازرسی بصری) تشخیص دهم که انحرافات بزرگ در یک نمودار باقیمانده از یک رگرسیون در کجا رخ می دهد. به عنوان مثال، فرض کنید من نمودار باقیمانده را در زیر دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/IWgZV.png) من می‌خواهم مشاهدات حدود 30:35 را به طور خودکار تشخیص دهم که انحراف از یک الگوی باقیمانده معمولی برخی از سرنخ ها حاکی از آن است که بزرگی بسیار زیاد است و باقیمانده ها در این منطقه مستقل به نظر نمی رسند. چگونه می توانم در این مورد اقدام کنم؟
تشخیص الگوها در نمودار باقیمانده
1469
آیا کسی می تواند متنی را با مشتقاتی از نتایج کارایی برآوردگر کلاسیک توصیه کند؟ من به ویژه به برآوردگرهای احتمال و شبه احتمال برای مدل های گسسته چند متغیره علاقه مند هستم.
آغازگر در مورد بهره وری تخمینگر؟
72030
من داشتم این مقاله را مرور می کردم و مشکلی را می خواندم (نوع کمند) که با استفاده از آستانه نرم حل می شد، اما متوجه نشدم که چگونه به دست آمده است. کسی میتونه لطفا چند پیشنهاد ارائه کنه؟ من متوجه نشدم که چگونه $\mu = -c +S(c-b/a,\lambda/a)$ $f(\mu) = \frac{1}{2}a\mu^2 + b\mu + \lambda|c+\mu|)$\ $\underset{\mu}{\operatorname{argmin}} f(\mu)$ = $\underset{\mu} {\operatorname{argmin}} {\; \mu^2 + 2*b/a\mu + 2*\lambda/a|c+\mu|}$\ اگر $\mu$ برابر با 0 نباشد با گرفتن مشتق wrt $\mu$ و معادل 0 ما دریافت\ \nwline $2\mu + 2b/a + 2\lambda/a*sign(u) = 0$\ یا $\mu = -b/a - \lambda/a*sign(\mu)$\ اگر $\mu$ > 0\ $\mu = -b/a - \lambda/a$\ از آنجایی که c یک کمیت مثبت است، $c -b/a-\ lambda/a$ > 0 و با استفاده از عملگر آستانه در مقاله به صورت \ $\mu = -c + S(c-b/a,\lambda/a)$\ S(z,r) = sign(z) max{|z|-r,0} می توانم $\mu = -b/a-lambda/a$\ را دریافت کنم حالا اگر $\mu < 0$ باشد، $\mu = -b/a + \lambda/ را دریافت می کنم a$ من گیج شده ام که چگونه می توان این شرط را از عملگر آستانه ارائه شده در مقاله بدست آورد. همچنین شرط زمانی که $\mu$ = 0 ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/eCO10.png)
سردرگمی مربوط به اشتقاق تابع آستانه نرم
79042
من نمی‌پرسم برای PCA که برای آن متغیرهای عددی خود را تغییر مقیاس می‌دهم، باید متغیرهای ساختگی خود را نیز تغییر مقیاس دهم؟ من در اینترنت خوانده ام که نباید انجام دهم اما دلیل آن را نمی دانم. حدس می‌زنم این سوال بسیار شبیه به این سوال است: آیا برای LASSO باید مقیاس مجدد شاخص / باینری / پیش‌بینی‌کننده ساختگی انجام شود، اما در مورد پاسخ مطمئن نبودم. اگر خیر لطفاً دلیل آن را توضیح دهید. با تشکر
آیا نیاز به تغییر مقیاس متغیرهای ساختگی برای PCA دارم؟
72034
من سعی می کنم از JAGS برای پیش بینی از مدل فضای حالت استفاده کنم. من از JAGS برای تخمین پارامترها در مدل و پیش بینی استفاده می کنم. من نمودار هیست را برای a.new و r.new رسم می کنم، نمودار r.new شبیه توزیع دوجمله ای نیست. من با این نمودار خیلی گیج شدم. واضح است که نمی توانم به این شکل پیش بینی کنم. ![hist graph](http://i.imgur.com/0oy9kYX.png) require(R2jags) modelfile <- cat( model { for (t in 1:N) { r[t] ~ dbin(p[ t],66) ## r.new[t] ~ dbin(p[t],66) logit(p[t]) <- a[t,1] + a[t,2]*x[t] } ## پیش‌بینی کنید r.new ~ dbin(p[N],66) a.new ~ dmnorm(a[N-1,],P[,]) برای ( t در 2:N) { a[t,1:2] ~ dmnorm(a[t-1,],P[,]) } P[1:2,1:2] ~ dwish(T[,],2) T[1,1] <- 1000 T[2,1] <- 0 T[1,2] <- 0 T[2,2] <- 1000 برای (i در 1 :2) { a[1,i] ~ dnorm(0,0.001) } }, file=tvad1_os.txt) mcmcchains = 3 mcmcthin = 1 mcmcburn = 5000 samples2Save=20000 jags.params = c(a.new, r.new) N=100 x=c(1,1.5,2.2,2,2.8,3,3.6,3.2,3.3,3.5,4.2,4.9,5.5,6.5,7.5,7.7,8.2,8,7.9,7,6.5,5.9,6.5, 6.7، ، 4.4،4. 5،3.8،3.7،3.7،4،4،4.2،3.7،3.5،3،2.9،2.6،3.3،3.7،4.4،4.1،4.8،4،3.8،3.3،3،2.7،2.6،2.2،2.2، 1. 8،1.8،1.5،1.5،1.3،1.3،1.1،1.1،1،0.9،0.9،0.6،0.8،0.8،0.8،0.7،0.5،0.8،0.9،1.3،2،2.5،3،3.1) r=c(8,14,18,20,19,22,27,23,23,NA,NA,NA,31,35,26,31,29,29,29,28,27,27,21, 26 ,30,30,26,33,22,28,22,16,17,22,19,17,24,25,24,19,29,23,28,34,29,29,34,30,20 ,36,22,22,26,22,20,29,18,29,20,22,20,NA,NA,NA,22,32,27,29,27,23,25,25,15,2 0,14,15,15,17,15,10,14,11,13,5,17,11,14,5,15,7,10,10,15,7,9,13,11,12, 15، NA) jags.data <- list(x=x,r=r,N=N) tvad= jags(jags.data, inits = NULL, parameters.to.save= jags.params,model.file=tvad1_os.txt n.chains = mcmcchains، n.thin = mcmcthin، n.burnin = mcmcburn، n.iter=(mcmcburn+samples2Save)، DIC = FALSE) gelman.diag(as.mcmc(tvad)) temp=do.call(rbind، as.mcmc(tvad)) par(mfrow=c(3،1) ) hist(temp[,1],xlab=a1,main=) hist(temp[,2],xlab=a2,main=) hist(temp[,3],xlab=r,main=)
یک سوال در مورد ساخت پیش بینی از مدل فضای حالت
24780
من روی پروژه ای کار می کنم که در آن سعی می کنم یک جفت سند را بردارم و کلمات و عبارات مشابه را بین آنها پیدا و گروه بندی کنم (خوشه ای). کدام الگوریتم می تواند این نوع مشکل را حل کند؟ می‌دانم که این یک سؤال بسیار پیش پا افتاده و احتمالاً ذهنی است، اما من در خوشه‌بندی جدید هستم، و هنوز هم سعی می‌کنم راهم را در مورد واژگان کار کنم. کمک شما قدردانی خواهد شد.
الگوریتم هایی برای خوشه بندی اسناد با کلمات و عبارات مشابه
1462
فرض کنید می خواهم یک شبیه ساز فوتبال بر اساس داده های واقعی بسازم. بگویید من بازیکنی دارم که میانگین 5.3 یارد در هر حمل با SD 1.7 یارد دارد. من می خواهم یک متغیر تصادفی ایجاد کنم که چند بازی بعدی را شبیه سازی کند. به عنوان مثال: 5.7، 4.9، 5.3، و غیره. چه شرایط آماری را باید جستجو کنم تا این ایده را دنبال کنم؟ تابع چگالی؟ منحنی نرمال تخمین می زند که داده ها معمولاً در چه مرزهایی قرار می گیرند، اما چگونه می توانم آن را به شبیه سازی نقاط داده بعدی ترجمه کنم؟ با تشکر از هر گونه راهنمایی!
استفاده از Std.Dev و Mean برای تولید نقاط داده فرضی/اضافی؟
79049
من مدلی دارم که توسط تابع **coxph** ایجاد شده است و تناسب خطرات را با استفاده از تابع **cox.zph** بررسی کردم. coxph(فرمول = Surv(OS، OSCheck) ~ سن + جنس + درجه هیستولوژی + RTCT + مرحله پاتولوژیک + مرحله پاتولوژیک + تومور باقیمانده + سیکل های شیمی درمانی + کمکی + RTوقفه غیرمنتظره روزهای دو دلیل پزشکی، 7 = تعداد داده ها، تعداد داده ها، 8 = 8 مجموعه داده. 428 coef exp(coef) se(coef) z Pr(>|z|) سن 0.016781 1.016923 0.004548 3.690 0.000224 جنسیت 0.218564 1.244289 0.10019 0.10018 Gradeofhistology 0.483098 1.621089 0.105719 4.570 4.89e-06 RTCT -0.309947 0.733485 0.111247 -2.786 0.0053334 0.0053334 Pathological 0.126524 3.353 0.000799 مرحله پاتولوژیک 0.626894 1.871787 0.067099 9.343 < 2e-16 تومور باقیمانده 0.655163 1.92548551.9254851-1.9254851-1010. Chemotherapy Cyclesadjuvant -0.054194 0.947248 0.015549 -3.485 0.000492 RT وقفه غیرمنتظره 0.016878 1.017021 0.005063 0.005063 3.308 3.308=3.303. (se = 0.015 ) Rsquare = 0.127 (حداکثر ممکن = 0.964) آزمون نسبت درستنمایی = 244.6 در 9 df، p=0 آزمون Wald = 279.2 در 9 df، p = 0 امتیاز (logrank) آزمون = 319.5 در p. 0 سه مورد از 9 متغیر کمکی مهم در به نظر می رسد خروجی از فرض تناسب پیروی نمی کند rho chisq p سن 0.0122 0.0684 7.94e-01 جنسیت 0.0618 1.6171 2.03e-01 Gradeofhistology -0.1836 14.7069 -0.1836 14.7069 -0.269 1.269 - 1.269 7.94e-01 6.78e-01 PathologicalTstage 0.0205 0.1847 6.67e-01 PathologicalNstage -0.1006 4.4607 3.47e-02 تومور باقیمانده -0.0669 1.9260 1.65e-01. 7.5641 5.95e-03 RTوقفه‌های غیرمنتظره روزها به دلایل پزشکی -0.0199 0.2091 6.48e-01 GLOBAL NA 34.9298 6.13e-05 مانند این مورد در تصویر احساس شد ![Scal باقیمانده ها](http://i.stack.imgur.com/ZwB5A.png) به نظر می رسد این متغیر کمکی (مانند سایر متغیرهایی که از فرض PH پیروی نمی کنند) بیش از همه بر مقدار ضریب در 2 سال اول پیگیری تأثیر می گذارد. و پس از آن ارزش از اهمیت کمتری برخوردار می شود. من مدل دیگری را با استفاده از تبدیل زمان ایجاد کرده ام اما می خواهم فرضیات PH را برای متغیرهای کمکی تبدیل شده آزمایش کنم. **cox.zph** به نظر نمی رسد (خطا می دهد) برای ارزیابی متغیرهای کمکی تبدیل شده به زمان مدل Cox PH. چگونه می توانم آن را انجام دهم؟
بررسی cox.zph در R پس از تبدیل زمانی متغیرهای کمکی
114112
من در تصمیم گیری برای استفاده از نوع تجزیه و تحلیل برای داده های زیر مشکل دارم: من دو گروه دارم (یک کنترل، یک درمان) و یک پیش اندازه گیری از متغیر وابسته خود و سپس 3 اندازه گیری پس از آن انجام دادم. من علاقه مند به درک این هستم که آیا درمان در طول مطالعه بر متغیر وابسته تأثیر گذاشته است یا خیر. من در ابتدا rmANOVA را انجام دادم و هیچ اثر متقابل قابل توجهی (درمان در زمان) پیدا نکردم، اما اثر اصلی درمان را پیدا کردم. فکر می‌کنم این بدان معناست که گروه درمان با گروه کنترل در کل مطالعه، از جمله قبل از شروع درمان، متفاوت بود. سوال من این است که آیا تجزیه و تحلیل بهتری وجود دارد که به این موضوع توجه کند که آیا گروه ها در واقع قبل از درمان متفاوت بودند؟ با آزمون t، آنها متفاوت نبودند، اما به نوعی با همه داده ها در طول آزمایش، آنها متفاوت هستند. با تشکر
تجزیه و تحلیل قبل از پست با چند اندازه گیری پست
72016
من از بسته «flexsurv» (در «R») استفاده می‌کنم تا توزیع نمایی را در مجموعه داده «کهنه‌کار» در «بقا» جا بدهم. من می خواهم پارامتر نرخ توزیع نمایی و همچنین تخمینی از خطای استاندارد MLE را تخمین بزنم. در اینجا مقداری کد (و خروجی) وجود دارد: library(flexsurv) testPatients <- subset(veteran,trt==2) testPatSurvObj <- with(data=testPatients,expr={Surv(time,status,type=right)}) ### متناسب نمایی expFit <- flexsurvreg(testPatSurvObj ~ 1، dist=exp) expFit$res ### est L95% U95% ### rate 0.007341177 0.005746003 0.009379195 expFit$res.t ### est L95% U95% ### rate -4.91414 -4.9142. من می‌بینم که «expFit$cov» ماتریس کوواریانس تخمین‌های پارامتر است، با پارامترهای مثبت در مقیاس گزارش، اما نمی‌دانم چگونه می‌توانم از این واقعیت برای تبدیل «expFit$cov» به چیزی استفاده کنم که بتوانم از آن استفاده کنم. یک فاصله اطمینان 95 درصدی (مثلاً) بر اساس نرمال ایجاد کنید.
خطاهای استاندارد از flexsurvreg
73785
به نظر می‌رسد که اغلب چیزی که کسی واقعاً می‌خواهد ترسیم کند نوعی فاصله اطمینان است، اما استفاده از SE برای این منظور من فکر می‌کنم تنها چیزی شبیه به یک باند اطمینان 68٪ را شامل می‌شود. بنابراین، رسم SE برای نوارهای خطا به جای یک باند وسیع تر که نشان دهنده سطح اهمیت تجزیه و تحلیل شما است، به صورت بصری نشان دهنده اهمیت داده های شما است که ممکن است در واقع وجود نداشته باشد. مثال عینی زیر را در نظر بگیرید: set.seed(123) X <- rnorm(100, 0, 1) Y <- rnorm(100,1.7,5) df = data.frame(X,Y) boxplot(df) se. x = sd(X)/sqrt(طول(X)) se.y = sd(Y)/sqrt(طول(Y)) X.err.CI = 1.96*se.x Y.err.CI = 1.96*se.y نمودار(1:2، colMeans(df)، ylim=c(-1،3)، xlim = c(0.5،4.5 ), col=سبز تیره , main=مقایسه نوارهای SE در مقابل 95% CI) خطوط(c(1,1), c(mean(X) + X.err.CI، mean(X) - X.err.CI)، col=سبز تیره) خطوط (c(2،2)، c(mean(Y) + Y.err.CI، mean(Y ) - Y.err.CI)، col=سبز تیره) text(1:2 + 0.2، colMeans(df)، c(X،Y)) points(3:4، colMeans(df ) col = آبی) خطوط (c(3،3)، c(mean(X) + se.x، mean(X) - se.x)، col=آبی) خطوط (c(4،4) , c(mean(Y) + se.y، mean(Y) - se.y)، col=blue) text(3:4 + 0.2، colMeans(df)، c(X،Y )) abline(v=2.5، lty=2) legend(topright ,c(95% CI, +/- SE) ,lty=c(1,1) ,pch=c(1,1) , col=c(سبز تیره، آبی) ) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/IyUoQ.jpg) اگر فقط تحلیل خود را پایه گذاری کنیم در SE (تصویر سمت راست)، از نظر بصری به نظر می رسد که بین میانگین های X و Y اهمیت وجود دارد زیرا ما در نوارهای خطای خود همپوشانی نداریم. اما اگر در سطح معنی داری 5 درصد آزمایش کنیم، ترسیم نوارهای اطمینان 95 درصد نشان می دهد که به وضوح اینطور نیست. از آنجایی که ما می توانیم انتظار داشته باشیم که آزمون در سطح 32٪ هرگز مناسب نباشد، چرا حتی میله های SE را نشان دهیم زیرا احتمالاً به گونه ای تفسیر می شوند که نشان دهنده یک فاصله اطمینان هستند؟ آیا مردم از نوارهای SE به جای CI های معنادارتر استفاده می کنند زیرا محاسبه آن نسبتاً ساده تر است (به عنوان مثال استفاده از یک تابع داخلی در اکسل)؟ به نظر می رسد که ما هزینه بسیار بالایی از نظر تفسیرپذیری گرافیک خود در ازای چند دقیقه کار کمتر می پردازیم. آیا مقداری ارزش/کاربرد در نوارهای SE وجود دارد که من آن را گم کرده ام؟ برای زمینه، پس از بررسی این مقاله از من خواسته شد این را بنویسم. من از فقدان فواصل اطمینان در طرح های ارائه شده توسط نویسندگان ناامید شدم، و سپس وقتی آنها در نهایت آنها را ارائه کردند، معلوم شد که آنها فقط نوارهای SE هستند.
چرا گاهی اوقات از خطای استاندارد برای باندهای خطا در نمودارها استفاده می شود؟
28633
من در حال حاضر از روش‌های مختلفی برای تخمین احتمال اینکه یک متغیر تصادفی گاوسی $D$-بعدی با میانگین $\mu$ و کوواریانس $\Sigma$ در کره‌ای به شعاع $R$ که در مرکز مبدا قرار دارد، استفاده می‌کنم. یعنی من $P(|| X ||_2 <R)$ را که در آن $X \sim N(\mu، \Sigma)$ و $X \در \mathbb{R}^D$ تخمین می زنم. من نمی دانم که آیا راهی برای بدست آوردن مقدار **دقیق** این احتمال به صورت تحلیلی وجود دارد (یعنی بدون استفاده از ادغام عددی یا مونت کارلو)؟ من در حال حاضر دو رویکرد اساسی برای دنبال کردن دارم: **رویکرد 1** یافتن راهی برای ارزیابی تحلیلی انتگرال: $\int_{x \in S} (2\pi)^{-\frac{D}{2}} |\Sigma|^{-\frac{1}{2}} \exp(-\frac{1}{2} (x-\mu)^T \Sigma^{-1} (x-\mu) dx $ روی ناحیه کروی: $S = \\{||x|| <R \\} = \\{x^Tx <R^2\\}$ **رویکرد 2** از این واقعیت استفاده کنید که اگر $x باشد \sim N(\mu,\Sigma)$ سپس $(x-\mu)^T \Sigma^{-1} (x-\mu) \sim \chi^2(D) $ این نشان می‌دهد که $P( (x-\mu)^T \Sigma^{-1} (x-\mu) <R^2 ) = P(\chi^2(D) <R^2)$ که ارزیابی آن بسیار ساده است.. من امیدوارم که راهی برای استفاده از این واقعیت برای ارزیابی وجود داشته باشد: $P( x^T x <R^2) $.
احتمال اینکه یک RV نرمال چند متغیره در کره ای به شعاع R قرار گیرد چقدر است؟
28632
من در تلاش برای حل این سوال هستم: با فرض اینکه ضریب انشعاب B، روی 2 تنظیم شده است، حداکثر تعداد زیر خوشه ها در هر گره برگ، L، روی 2 تنظیم شده است و آستانه قطر زیر خوشه های ذخیره شده در گره های برگ است. 1.5. من به طور کامل در گوگل جستجو کرده ام، اما جدا از آنچه که به نظر می رسد همان مجموعه اسلایدهایی است که به من تعاریف خشک و گرد و غباری را ارائه می دهد (هزاران بار در دانشگاه های مختلف سرقت ادبی شده است) من یک نمونه واحد (با اعداد واقعی) پیدا نکردم که به من نشان دهد چگونه واقعاً این کار را انجام دهم. الگوریتم با دست آیا کسی می تواند به من بگوید چگونه الگوریتم را اجرا کنم (و درخت را بسازم) یا جایی را به من نشان دهد که مثال هایی ارائه دهد؟ خیلی ممنون
خوشه بندی با استفاده از الگوریتم BIRCH
111813
من می دانم که PCA و SVD مشابه هستند - PCA میانگین را حذف می کند و SVD اینطور نیست؟ فکر می‌کنم من درک درستی از PCA دارم - شما از آن برای کاهش ابعاد داده‌ها و تفکیک آن به ترکیب‌های خطی متغیرها استفاده می‌کنید که بزرگترین واریانس SS را توضیح می‌دهند. اما من نمی توانم همان مفهوم را برای SVD درک کنم - و به خصوص نمی توانم بفهمم که چه زمانی از SVD روی PCA استفاده می کنید، اگر قرار باشد آنها بسیار شبیه باشند. آیا کسی می تواند به طور خیلی ابتدایی توضیح دهد که چرا SVD را در مقابل PCA انتخاب می کنم و SVD چگونه کار می کند؟ برنامه دنیای واقعی که در آن SVD بهتر از PCA است چیست؟
PCA در مقابل SVD - درک تفاوت و ترجیح SVD بر PCA
72783
من از تابع scipy.stats.gaussian_kde برای ایجاد یک KDE از مجموعه ای از نقاط $N$ در یک فضای دوبعدی استفاده می کنم: $A = \\{(x_1,y_1), (x_2,y_2), (x_3 ,y_2), ..., (x_N,y_N)\\}$ هر یک از این نقاط دارای یک خطای داده شده است. برای مثال، نقطه $(x_1,y_1)$ دارای خطاهای $(e_{x_1},e_{y_1})$ و غیره است. من می توانم فرض کنم که خطاها به طور معمول در هر دو محور توزیع شده اند. تابع python که من برای تولید KDE استفاده می‌کنم راهی برای ادغام این خطاها در محاسبات ندارد و من تعجب می‌کنم که اگر آن را به صورت دستی انجام دهم چگونه چنین کاری را انجام می‌دهم. به عنوان مثال: روش آماری صحیح برای ایجاد حسابداری «KDE» برای خطاهای موجود در داده های مورد استفاده چیست؟
افزودن خطا به تخمینگر چگالی هسته گاوسی
24781
من دانشجوی کارشناسی ارشد کامپیوتر هستم. من در حال انجام برخی تحلیل عاملی اکتشافی برای یک پروژه تحقیقاتی بوده ام. همکاران من (که پروژه را هدایت می کنند) از SPSS استفاده می کنند، در حالی که من ترجیح می دهم از R استفاده کنم. ما از **فاکتورسازی محور اصلی** به عنوان روش استخراج استفاده می‌کنیم (لطفاً توجه داشته باشید که من به خوبی از تفاوت بین PCA و تحلیل عاملی آگاه هستم و از **PCA** استفاده نمی‌کنیم، حداقل نه عمدا). با توجه به آنچه من خوانده ام، این باید مطابق با روش محور اصلی در R، و یا فاکتورگیری محور اصلی یا حداقل مربع های بدون وزن در SPSS، طبق مستندات R باشد. ما از **روش چرخش مورب** (به طور خاص، **promax**) استفاده می کنیم، زیرا انتظار عوامل همبسته را داریم و در حال تفسیر **ماتریس الگوی** هستیم. اجرای این دو رویه در R و SPSS، تفاوت های عمده ای دارد. ماتریس الگو بارگذاری های مختلفی می دهد. اگرچه این عامل کم و بیش یکسانی را به روابط متغیر می دهد، اما بین بارگذاری های متناظر تا 0.15 تفاوت وجود دارد، که به نظر می رسد بیش از آن چیزی است که فقط با اجرای متفاوت روش استخراج و چرخش های promax انتظار می رود. با این حال، این شگفت انگیزترین تفاوت نیست. واریانس تجمعی توضیح داده شده توسط فاکتورها در نتایج SPSS حدود 40 درصد و در نتایج R 31 درصد است. این یک تفاوت بزرگ است و باعث شده است که همکاران من بخواهند به جای R از SPSS استفاده کنند. من با این مشکلی ندارم، اما یک تفاوت بزرگ باعث می شود فکر کنم ممکن است چیزی را اشتباه تفسیر کنیم، که یک مشکل است. هنگامی که فاکتورگیری حداقل مربعات بدون وزن را اجرا می کنیم، SPSS که آب را حتی بیشتر گل آلود می کند، انواع مختلفی از واریانس توضیح داده شده را گزارش می کند. نسبت واریانس توضیح داده شده توسط مقادیر ویژه اولیه 40٪ است، در حالی که نسبت واریانس توضیح داده شده از مجموع استخراج بارهای مربعی (SSL) 33٪ است. این باعث می‌شود فکر کنم که مقادیر ویژه اولیه عدد مناسبی برای بررسی نیست (من گمان می‌کنم که این واریانسی است که قبل از چرخش توضیح داده شده است، اگرچه بزرگ بودن آن فراتر از من است). حتی گیج‌کننده‌تر، SPSS چرخش SSL را نیز نشان می‌دهد، اما درصد واریانس توضیح‌داده‌شده را محاسبه نمی‌کند (SPSS به من می‌گوید که داشتن فاکتورهای همبسته به این معنی است که نمی‌توانم SSLها را برای یافتن واریانس کل اضافه کنم، که با ریاضیاتی که دیده‌ام منطقی است). SSLهای گزارش شده از R با هیچ یک از اینها مطابقت ندارند و R به من می گوید که 31٪ از واریانس کل را توصیف می کند. SSLهای R بیشتر از همه با SSLهای چرخشی مطابقت دارند. مقادیر ویژه R از ماتریس همبستگی اصلی با مقادیر ویژه اولیه از SPSS مطابقت دارد. همچنین، لطفاً توجه داشته باشید که من با استفاده از روش‌های مختلف بازی کرده‌ام، و به نظر می‌رسد ULS و PAF SPSS با روش PA R نزدیک‌ترین همخوانی دارند. سوالات خاص من: 1. چقدر باید بین R و SPSS با پیاده سازی تحلیل عاملی تفاوت انتظار داشته باشم؟ 2. کدام یک از مجموع بارهای مربعی از SPSS را باید تفسیر کنم، مقادیر ویژه اولیه، استخراج یا چرخش؟ 3. آیا مسائل دیگری وجود دارد که ممکن است نادیده گرفته باشم؟ پیشاپیش از هر پاسخی، و از هر کسی که این سوال بسیار طولانی را خوانده است، سپاسگزارم! * * * تماس های من با SPSS و R به شرح زیر است: SPSS: FACTOR /VARIABLES <variables> / Missing PAIRWISE /ANALYSIS <variables> /PRINT INITIAL KMO AIC EXTRACTION ROTATION /FORMAT BLANK(.35) /CRITERIA IATES (25) /EXTRACTION ULS /CRITERIA ITERATE(25) /ROTATION PROMAX(4). R: کتابخانه (روانی) fa.results <- fa(data, nfactors=6, rotate=promax, scores=TRUE, fm=pa, oblique.scores=FALSE, max.iter=25)
تفسیر اختلاف بین R و SPSS با تحلیل عاملی اکتشافی
24788
فرض کنید در حال انجام یک مطالعه مقطعی در مورد بیماری قلبی در مردان و زنان هستیم. اگر مردان 16/10000 دلاری بیماری قلبی و زنان 10/10000 دلاری بیماری قلبی داشته باشند، آیا می‌توان نتیجه گرفت که خطر ابتلا به بیماری قلبی در مردان بسیار بیشتر از زنان است؟ چرا یا چرا نه؟ من فکر می کنم شما نمی توانید زیرا ما در حال مقایسه نسبت ها هستیم. نسبت شانس نداریم
محاسبه خطر بیماری
72036
من در حال تلاش برای تعیین اینکه آیا باید از یک آزمون ANOVA استفاده کنم یا یک آزمون ناپارامتریک. DV من رتبه بندی اعتماد در مقیاس لیکرت (1-5) و 4 IV طبقه بندی (_n_ = 496) است. توزیع داده ها در هر IV غیر طبیعی بود، همه آزمون های Shapiro-Wilk _p_ < 0.001، و آزمون Levene برای 2 مورد از 4 IV معنی دار بود. همچنین 13 نقطه پرت (که در مقیاس لیکرت نمره 5 داشتند) وجود دارد. پس از حذف موارد پرت، تنها 1 IV تست Levene قابل توجهی داشت - جنس شرکت کننده IV، که در آن اندازه گروه ها بسیار نابرابر بود (70٪ زن). انجام یک ANOVA با و بدون پرت نتایج مشابه، برابری واریانس، عدم تعامل، 1 عامل معنی دار (با نقاط پرت)، 2 عامل معنی دار (بدون پرت) را پیدا می کند. استفاده از آزمون کروسکال-والیس نیز نتایجی مشابه با ANOVA ایجاد می کند. من مطمئن نیستم که مناسب ترین تحلیل برای استفاده، پارامتری یا غیر پارامتری چیست؟ آیا مفروضات زیادی را برای ANOVA نقض کرده ام؟ هر توصیه ای بسیار قابل تقدیر است، با تشکر.
نقض مفروضات بیش از حد؟
28637
من مجموعه داده هایی از ترافیک شبکه دارم که اثرات روزانه قوی از خود نشان می دهند و آنها را ثابت نمی کند. یکی از تحلیل هایی که می خواهم اجرا کنم نشان دادن همبستگی بین روزها است. اگر سری‌های زمانی را به روزهای جداگانه تقسیم کنیم، چگونه 1. ... نشان می‌دهم سری‌های زمانی فردی ثابت هستند؟ آیا استفاده از Dickey-Fuller Augmented کافی است؟ 2. ... انجام همبستگی متقابل؟ آیا محاسبه پیرسون کافی است؟ مرحله بعدی بررسی وابستگی به برد بلند است. این یک چالش سخت تر است زیرا من نمی توانم سری های زمانی را به روزهای جداگانه تقسیم کنم. هر ایده ای؟ سوال آخر مربوط به شکلی است که من پیوست می کنم، 3 سری زمانی روی آن شکل غیر ثابت هستند. من می‌خواهم همبستگی را بررسی کنم، آیا از خرد کردن آنها به سری‌های زمانی ساعتی/روزانه کوچک‌تر استفاده کنم یا از روش تجزیه استفاده کنم. من با روش‌های بی‌روند یا متفاوت آشنا نیستم. هر اشاره ای عالی خواهد بود. ![شکل](http://i.stack.imgur.com/Hxf0a.png)
بررسی همبستگی و وابستگی طولانی مدت در داده های سری زمانی با اثرات قوی روزانه
28638
می‌خواهم دست‌نوشته‌ام را در arXiv، در بخش stat.ME (آمار- روش‌شناسی) قرار دهم. از آنجایی که این اولین بار است که دستنوشته ای را در بخش آمار قرار می دهم، arXiv از کسی می خواهد که من را تأیید کند. هرکسی که در پنج سال گذشته دو نسخه خطی تهیه کرده باشد می تواند تایید کند. من از یک تایید قدردانی می کنم. بخش من آماردانی ندارد که قبلاً در arXiv پست گذاشته باشد. اگر می خواهید پیش چاپ را ببینید، خوشحال می شوم آن را برای شما ایمیل کنم.
برای انتشار یک پیش چاپ در arXiv به تأیید شخصی نیاز دارید
72788
من از پیاده سازی scikit-learn از فرآیندهای گاوسی استفاده می کنم. یک کار ساده این است که چندین هسته را به عنوان یک ترکیب خطی ترکیب کنید تا سری زمانی خود را به درستی توصیف کنید. بنابراین من می‌خواهم هم هسته نمایی مربعی و هم هسته تناوبی را شامل شود. ترکیبات خطی هسته‌های معتبر، هسته‌های معتبر تولید می‌کنند، و همین امر در مورد ضرب هسته‌های معتبر (که توسط راسموسن و ویلیامز ارائه شده‌اند) صدق می‌کند. متأسفانه من متوجه نشده ام که چگونه پارامترهای تتا را به درستی به مدل بدهم. به عنوان مثال، اگر ما: $$ k_{Gauss}(x,x') = \exp{(\theta (x-x')^2)} $$ داشته باشیم، مشکلی نیست (به این ترتیب مربع-نمایی هسته در scikit-learn تعریف شده است). اما اگر می‌خواستم: $$ k_{Gauss}(x,x') = \theta_0 \exp{(\theta_1 (x-x')^2)} $$ پس غیرممکن است، به نظر می‌رسد. چیزی $\mathbf{\theta}$ قرار است یک آرایه باشد، در صورتی که چندین بعد/ویژگی داشته باشید (اگرچه scikit-lear از GP های چند بعدی پشتیبانی نمی کند، شخصی آن را توسعه داده است و به زودی ادغام خواهد شد). بنابراین یک ردیف وجود دارد که ستون ها پارامتر در بعد فلان و فلان هستند. اما شما نمی توانید ردیف های بیشتری داشته باشید، در غیر این صورت بر سر شما فریاد می زند. بنابراین سوال: آیا واقعاً کسی توانسته است از هسته هایی استفاده کند که از بیش از یک هایپرپارامتر استفاده می کنند؟ اگر چنین است، من چه اشتباهی انجام می دهم؟ و اگر واقعاً با کد فعلی در scikit امکان پذیر نیست، آیا کسی نکاتی در مورد نحوه گسترش آن دارد تا بتواند؟ این یک ویژگی واقعا مهم است که من به آن نیاز دارم. با تشکر
فرآیندهای گاوسی Scikit-learn: چگونه چندین ابرپارامتر را در تابع هسته/cov قرار دهیم؟
1142
من با تعداد زیادی سری زمانی کار می کنم. این سری‌های زمانی اساساً اندازه‌گیری‌های شبکه هستند که هر 10 دقیقه انجام می‌شوند و برخی از آنها دوره‌ای هستند (یعنی پهنای باند)، در حالی که برخی دیگر نیستند (مثلاً میزان ترافیک مسیریابی). من یک الگوریتم ساده برای انجام یک تشخیص بیرونی آنلاین می خواهم. اساساً، من می‌خواهم کل داده‌های تاریخی را برای هر سری زمانی در حافظه (یا روی دیسک) نگه دارم، و می‌خواهم هر گونه پرت را در یک سناریوی زنده (هر بار که یک نمونه جدید گرفته می‌شود) شناسایی کنم. بهترین راه برای رسیدن به این نتایج چیست؟ من در حال حاضر از میانگین متحرک برای حذف مقداری نویز استفاده می کنم، اما بعد از آن چه می شود؟ چیزهای ساده ای مانند انحراف معیار، دیوانه، ... در برابر کل مجموعه داده به خوبی کار نمی کنند (من نمی توانم فرض کنم سری های زمانی ثابت هستند)، و من چیزی دقیق تر می خواهم، در حالت ایده آل یک جعبه سیاه مانند: double outlier_detection (وکتور دوگانه*، مقدار دوگانه)؛ که در آن بردار آرایه مضاعف حاوی داده های تاریخی است و مقدار بازگشتی امتیاز ناهنجاری برای نمونه جدید مقدار است.
الگوریتم ساده برای تشخیص پرت آنلاین یک سری زمانی عمومی
36271
> **تکراری احتمالی:** > الگوریتم ساده برای تشخیص پرت آنلاین یک سری زمانی عمومی چگونه می‌توانم از شر داده‌های جرقه‌دار در مجموعه‌ای از داده‌های نامشخص، اما به شیوه‌ای صاف‌تر خلاص شوم؟ به عنوان مثال http://i.stack.imgur.com/vb44Q.png دو جرقه وجود دارد، در 20000، اما جرقه بعدی در 600 نیز یک جرقه در نظر گرفته می شود. من موفق شده ام که موارد بسیار بالا را به صفر برسانم، با a = 2 b = 5 beta_dist = RealDistribution('beta', [a, b]) f(x) = x / 19968 normalized_insertions = [f(i) برای i insertions] insertions_pairs = [(i, beta_dist.distribution_function(i)) برای i در normalized_insertions] plot_b = beta_dist.plot() show(list_plot(insertions_pairs)+plot_b) هیچ ایده ای در مورد موارد پایین تر وجود ندارد. ماکزیمم باید در 100 باشد، شاید پارامترهای توزیع بتا کمی بیشتر نیاز دارند؟ در حال حاضر، به این شکل است: http://i.stack.imgur.com/7hKHT.png در صورت امکان، از مریم گلی به عنوان مرجع برای توضیحات خود استفاده کنید.
خلاص شدن از سنبله در داده های نمونه
66494
من تعجب می کنم که چگونه می توانم تابع همبستگی واقعی را زمانی که چند نمونه پر سر و صدا از فضایی دارم، تخمین بزنم. بیایید بگوییم، من یک فضا دارم و مکان‌ها در فضا متغیرهایی هستند که از توزیع گاوسی چند متغیره پیروی می‌کنند. من چند نمونه با تابع همبستگی خودکار داده شده تولید می کنم و مقداری نویز به طور مستقل به همه آنها اضافه می کنم. اکنون از نمونه‌ها یک تابع همبستگی تجربی پیدا می‌کنم و سپس یک تابع همبستگی خودکار مدل را برای آن برازش می‌دهم. این مدل ممکن است اثرات قطعه ای داشته باشد یا ممکن است تابع همبستگی خودکار واقعی را نشان ندهد. چگونه با این موضوع برخورد کنیم؟ برای مثال، من برخی از داده‌ها را با تابع همبستگی نمایی با محدوده 10 تولید کردم. من تقریباً عملکرد واقعی را دریافت می کنم. من داده هایی را با تابع همبستگی نمایی با محدوده 10 تولید کردم. سپس چند نمونه از این تابع به دست آوردم. من تابع همبستگی تجربی را دریافت کردم و سپس یک مدل (نمایی) را برای آن قرار دادم تا تقریباً همان پارامترها را بدست آوریم، یعنی محدوده 9.5، با این حال، وقتی مقداری نویز گاوسی سفید را به تابع همبستگی/کوواریانس اضافه می کنم (من std را 1 فرض می کنم) سپس سعی کردم یک تابع همبستگی مدل را با تابع تجربی جا بزنم، محدوده 5 و همچنین قطعه 0.8 را دریافت کردم. چگونه می توان تابع زیربنایی را در این مورد تخمین زد؟
تخمین تابع همبستگی با برخی مشاهدات پر سر و صدا
114110
آیا بسته ای در R برای توزیع کولموگروف وجود دارد که به من امکان ترسیم چگالی، توزیع، محاسبه چندک و غیره را می دهد؟ توزیع کولموگروف از $K=\sup|B|$ ناشی می شود، جایی که $B$ یک پل براونی است. مقادیر آن معمولاً جدول‌بندی می‌شوند، بنابراین من فکر می‌کردم که مانند توزیع نرمال عملکرد خودش را در R داشته باشد. به نظر می‌رسد «ks.test()» از یک تابع R برای چندک‌ها استفاده نمی‌کند، اما در واقع یک تابع C++ را فراخوانی می‌کند.
توزیع کولموگروف
91602
فرض کنید من یک نظرسنجی دارم که شامل 10 سوال است، برای هر سوال می توان به پاسخ مفید/غیر مفید/خنثی پاسخ داد. وقتی جمع‌آوری داده‌ها را به پایان می‌رسانم، متوجه شدم که برخی افراد تمایل دارند بازخوردهای مفید/غیر مفید زیادی داشته باشند، در حالی که برخی دیگر تمایل دارند که بازخورد خنثی زیادی داشته باشند. با فرض اینکه هر یک از افراد در نظرسنجی با بهترین دانش و تلاش خود این کار را انجام داده اند، بدیهی است که یک بازخورد مفید/غیر مفید از یک فرد با افراد خنثی بسیار بیشتر از فردی با تعداد زیادی مفید/غیر مفید وزن خواهد داشت، بنابراین چگونه آیا باید نتایج را عادی کنم؟ با تشکر
عادی سازی بازخورد داده های نظرسنجی
72786
با انجام یک رگرسیون خطی، می توانم فاصله اطمینان برای پاسخ مشروط به مقدار x خاص را پیدا کنم. با این حال، من علاقه مند به یک C.I برای پاسخ _mean_ برای مجموعه ای از N مشاهدات جدید هستم. یعنی باید N فواصل پیش بینی را ترکیب کنم. نزدیک‌ترین پستی که می‌توانم پیدا کنم، محاسبه میانگین با استفاده از داده‌های رگرسیون بود، اما فقط حالت تک متغیره را کنترل می‌کند. من سعی کردم خطای استاندارد پاسخ متوسط ​​را در زیر استخراج کنم، اما مطمئن نیستم که آیا درست است یا خیر. $\begin{align} var(\hat{\bar{y}}) &= var \left( \frac{1}{n} \sum_i \hat{y}_i|x_1 \ldots x_n \right) \\ \ &= var \left( \frac{1}{n} \sum_i \hat{y}_i|x_i \right)، \quad \text{که در آن } \hat{y_i}|x_i \text{ مستقل هستند} \\\ &= \frac{1}{n^2} \sum_i var(\hat{y}_i|x_i) \\\ \end{align}$ جایی که $var(\hat{y}_i|x_i) = \sqrt{\sigma^2 x_i^T (X^TX)^{-1}x_i}$ برای $x_i$ در داده های آموزشی و $var(\hat{y}_i|x^*_i) = \sqrt{\sigma^2 (1+ x_i^{*T} (X^TX)^{-1}x^*_i) }$ برای $x^*_i$ در داده های آزمایشی. آیا من در اینجا در مسیر درستی هستم؟ همچنین آیا در جایی پیاده سازی R وجود دارد یا باید آن را از ابتدا انجام دهم؟ ویرایش: من همچنین در حال مطالعه روش‌های رگرسیون بیزی هستم که توزیع پیش‌بینی‌کننده $P(y_i|x_i^*)$ و یک بازه معتبر برای پاسخ را مشخص می‌کند. ما در اینجا با مشکل مشابهی روبرو هستیم، یعنی چگونه توزیع پیش‌بینی‌کننده را برای پاسخ میانگین $P(\overline{y}|x_1^* \ldots x_n^*)$ محاسبه کنیم؟ با تشکر، A.
ترکیب فواصل پیش بینی در رگرسیون