_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
63176 | من سعی می کنم بر روی داده هایی که از برخی آزمایش های علوم اعصاب به دست آورده ام، تجزیه و تحلیل های آماری انجام دهم. از آنجایی که من پیشزمینه ریاضی محکمی ندارم، من واقعاً از هرگونه اطلاعاتی در مورد اینکه از چه ابزاری برای موارد زیر استفاده کنم قدردانی میکنم: * متغیری که اندازهگیری میشود، تغییر قطر یک کشتی است. من دادههایی دارم که قطرهای مختلف را در طول آزمایش (به میکرومتر) نشان میدهد، که آنها را نیز بر اساس مقدار اولیه به درصد تغییر تبدیل کردهام. مراحل اندازه گیری: 1. اندازه گیری قطر قبل از درمان 2. اندازه گیری قطر بعد از درمان 3. اندازه گیری قطر قبل از اولین حمله صرع 4. اندازه گیری قطر بعد از اولین حمله صرع 5. اندازه گیری قطر قبل از حمله صرع دوم. رویداد همه اندازهگیریهای قطر در یک مکان در ظرف انجام میشود. یک تکنیک آماری کافی برای مقایسه قطرها در این نقاط مختلف زمان چیست؟ با توجه به آنچه خوانده ام، احساس می کنم که ANOVA بیش از حد است، اما باز هم، من هیچ سرنخی ندارم... اگر کمکی کرد، من آنالیز را در SPSS انجام می دهم. | تکنیک برای تجزیه و تحلیل تجربی عصبی عروقی؟ |
45006 | من در آنجا، در حال توسعه تجزیه و تحلیل انتخاب زیستگاه هستم و از یک شاخص دامنه طاقچه استفاده کردم، اما کسی به من پیشنهاد می دهد که یک بوت استرپ برای تقویت شاخص انجام دهم. آیا کسی می تواند به من کمک کند؟ با تشکر | چگونه می توانم یک بوت استرپ برای شاخص دامنه طاقچه انجام دهم؟ |
29279 | من یک مسئله حداقل مربع با دو مسئله نابرابری متفاوت دارم. من نمیتوانم از NNLS استفاده کنم، زیرا آن فقط مسئله حداقل مربع را با مسائل برابری و نابرابری یا فقط یک محدودیت نابرابری حل میکند. آیا می توانم از NNLS یا هر الگوریتم یا بسته R دیگری استفاده کنم که بتوانم این حداقل مربع را حل کنم؟ چگونه می توانم از بسته limSolve استفاده کنم؟ چگونه می توانم ماتریس G را در lsei معرفی کنم؟ آیا شخص دیگری پیشنهادی دارد؟ دقیقه|| Ax-b||^2 x = c(c, d, f) یک بردار است x >= 0 g(a) = c - d * a + f * a >= 0 که a یک مقدار از پیش تعیین شده است | چگونه می توانم این مسئله حداقل مربعات را با محدودیت های نابرابری به حداقل برسانم؟ |
76790 | با توجه به برآوردگر OLS (کمترین مربعات معمولی) $$ Y=XB+e $$ تخمینگر رگرسیون PC را میتوان به صورت زیر ارائه کرد: $$ B_PCR=T_r(T'_rX'XT_r)^{-1}T_r'X'Y= T_r \Delta_r^{-1}T_r'X'Y $$ که در آن $T$ بردارهای ویژه و $\Delta$ مقادیر ویژه X'X سوگیری (در مقایسه با OLS) به صورت $$ [T_r T'_r-I_p]B=-T_{p-r}T'_{p-r}B $$ داده شده است. به این نتیجه؟ لطفاً کسی می تواند به من یک اشتقاق کامل بدهد/اشاره کند زیرا من واقعاً به درک این نتیجه نیاز دارم. باز | چگونه می توان بایاس تخمینگر PCA را استخراج کرد |
80400 | من سعی میکنم توزیع دوجملهای پواسون و منفی را به دادههایم تطبیق دهم و این دو را با هم مقایسه کنم. اما مشکل این است که پواسون نمی تواند پراکندگی بیش از حد را ضبط کند و به نظر می رسد دوجمله ای منفی بیش از حد برازنده است و همچنین در تخمین پارامتر پراکندگی مشکل دارد. می خواستم بدانم که آیا ترکیب وزنی از این دو نتایج بهتری به همراه خواهد داشت. اما در آن صورت چگونه پارامترها و ضریب وزنی را تخمین می زنیم؟ | مخلوط پواسون و دوجمله ای منفی |
26471 | > **موضوع تکراری:** > یادگیری ماشین: طبقه بندی کننده خطی فرض کنید ما 2 تابع هسته $K_1(x,y)$ و $K_2(x,y)$ داریم. می دانیم که مجموعه داده ($(x_1,y_1),\ldots,(x_l,y_l),$ $y_i \in \\{-1,1\\}$ ) با اولین مورد جدا شده است (یعنی $w,$ $w_0$ وجود دارد: $$y_i(K_1(w,x_i)-w_0)>0 $$ برای همه $i=1,\ldots,l$) و با تابع هسته دوم جدا نشده است. در مورد تابع هسته $K_1(x,y)+K_2(x,y)$ چه می توانیم بگوییم؟ چگونه می توانم نشان دهم که همان مجموعه داده با آن جدا شده است؟ (یا دروغ است؟) | یادگیری ماشینی: طبقه بندی کننده خطی و امکان جداسازی |
29271 | من به دنبال دستورالعمل هایی در مورد نحوه تفسیر نمودارهای باقی مانده از مدل های glm هستم. به خصوص poisson، دو جمله ای منفی، مدل های دو جمله ای. وقتی مدلها «درست» هستند، از این طرحها چه انتظاری میتوان داشت؟ (برای مثال، ما انتظار داریم که واریانس با افزایش مقدار پیشبینیشده افزایش یابد، زیرا وقتی با یک مدل پواسون سروکار داریم) میدانم که پاسخها به مدلها بستگی دارد. هر گونه مرجع (یا نکات کلی برای در نظر گرفتن) مفید / قدردانی خواهد شد. | تفسیر نمودارهای تشخیصی باقیمانده برای مدلهای glm؟ |
45008 | من شاخص پیچیدگی را با استفاده از TraMineR محاسبه می کنم. آیا استفاده از روش بوت استرپ برای به دست آوردن فواصل اطمینان برای شاخص های پیچیدگی منطقی است؟ در این صورت آیا دستور TraMineR خاصی وجود دارد یا باید از روش کلاسیک استفاده کنم؟ متشکرم، امانوئلا | شاخص پیچیدگی را در (Ex)TraMineR بوت استرپ کنید؟ |
10478 | آیا نتایج تحلیلی یا مقالات تجربی در مورد انتخاب _optimal_ ضریب عبارت جریمه $\ell_1$ وجود دارد؟ منظور من از _optimal_ پارامتری است که احتمال انتخاب بهترین مدل را به حداکثر می رساند یا ضرر مورد انتظار را به حداقل می رساند. من میپرسم زیرا اغلب انتخاب پارامتر با اعتبارسنجی متقابل یا بوت استرپ غیرعملی است، یا به دلیل تعداد زیادی از نمونههای مشکل، یا به دلیل اندازه مشکل در دست. تنها نتیجه مثبتی که من از آن آگاهم Candes و Plan است، انتخاب مدل تقریبا ایده آل با حداقل سازی $\ell_1$. | انتخاب پنالتی بهینه برای کمند |
44993 | برنامه من یک مدل Cox با n=685 است و یک مد پیش بینی پیوسته <- coxph(srv ~ predi) `summary(mod)` مقدار p برای ضریب حدود $10^{-6}$ `anova(mod) می دهد. )` یک p-value برابر با $>10^{-4}$ می دهد. بسته: library(car) Anova(mod, test.statistic=Wald) Anova(mod, test.statistic=LR) توضیحات ممکن برای این اختلاف چیست؟ آیا باید مقدار p-LR را ترجیح دهم؟ نه «predi» و نه توزیع بوت استرپ نسبت خطر آن به طور معمول توزیع شده به نظر نمی رسد. ممکنه مشکل همین باشه؟ | چرا مقادیر p LR و Wald بر اساس مرتبه های بزرگی متفاوت هستند؟ |
62506 | اگر درست گفته باشم، مدل رگرسیون خطی مدلی است که در آن پاسخ در پارامترها خطی است. این اجازه می دهد تا پاسخ در متغیرهای پیش بینی غیر خطی باشد. می خواستم بدونم اسمی برای مدلی وجود دارد که پاسخ آن هم در پارامترها و هم در متغیرهای پیش بینی خطی باشد تا مردم به راحتی تفاوت آن را با مدل رگرسیون خطی درک کنند؟ | آیا پاسخ در متغیر پیش بینی در مدل رگرسیون خطی خطی است؟ |
59521 | با فرض اینکه یک متغیر تصادفی $X\sim \operatorname{Gamma}\left(\alpha,\beta \right )$:$\frac{1}{\Gamma (\alpha)\beta ^{\alpha}}x داریم ^{\alpha-1}e^{\frac{-x}{\beta }}$ میخواهم این فرضیه را آزمایش کنم: $H_{0}:\beta=\beta_0$ در مقابل: $H_{A}:\beta\neq \beta_0$ با استفاده از آزمون نسبت درستنمایی. من فرض می کنم آلفا شناخته شده است و MLE من را مشتق کرده ام: $\hat{\beta}_{MLE}=\frac{\bar{x}}{\alpha}$. من از طریق آن کار کرده ام و تا کنون و به درک من از MLE به عنوان جایگزین استفاده شده است. تاکنون به این موارد رسیده ام: $D=2\ln \left( \frac{L(\hat{\beta})}{L{\beta_0}}\right )=2\left[n\alpha\ln \left(\frac{\beta_0}{\hat{\beta}} \right )+\sum_{i=1}^{n} x_i\left(\frac{1}{\beta_0}-\frac{1}{\hat{\beta}} \right ) \right ]$ من واقعاً نمی دانم که آیا این کار را به درستی انجام داده ام یا نه. اگر موارد فوق صحیح باشد، توزیع مجانبی که این آمار به صورت $n \ به \infty$ به آن همگرا می شود چیست؟ | آزمون نسبت درستنمایی برای یک متغیر تصادفی به دنبال توزیع گاما |
95602 | من متغیری دارم که مقادیر آن به شدت به سمت صفر منحرف شده است: `table()` 0 1 2 3 4 5 6 7 488444 9384 557 100 12 2 1 1 `summary()` Min. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0000 0.0000 0.0000 0.0218 0.0000 7.0000 که رسم می کند دلیلی دارم که باور کنم دو متغیر دیگر ممکن است با متغیر کج همبستگی داشته باشند. برای ساختن مدل پیشبینی خود، با استفاده از متغیر اریب به عنوان متغیر وابسته Y، کدام استراتژی را باید اتخاذ کنم؟ آیا باید داده های خود را فقط به گونه ای زیرمجموعه قرار دهم که مقادیر غیرصفری برای Y خود داشته باشد؟ | مدل پیش بینی برای توزیع دم سنگین |
49389 | من سعی می کنم تمرین پروف استرنگ را دنبال کنم اما با علائم ماتریس حاصل مشکل دارم. او در حین تمرین نیز با علائم مشکل داشت، بنابراین من هیچ راهی برای پیدا کردن خطا ندارم. آیا کسی می تواند به من نشان دهد که چه کار اشتباهی انجام می دهم؟ پیشاپیش متشکرم، دیگو این نتایج من است: > A [,1] [,2] [1,] 4 4 [2,] -3 3 > SVD_of_A [,1] [,2] [1,] -4 4 [2،] -3 -3 > U [،1] [،2] [1،] -1 0 [2،] 0 -1 > سیگما [،1] [،2] [1،] 5.656854 0.000000 [2،] 0.000000 4.242641 > V [,1] [,2] [1,] 0.7071068 -0.7071068 [2،] 0.7071068 0.7071068 0.70710 $d [1] 5.656854 4.242641 $u [,1] [,2] [1,] -1 0 [2,] 0 1 $v [,1] [,2] [1,] -0.7071068 -0.7071068 [2 ,] -0.7071068 0.7071068 این کدی است که من برای آن استفاده می کنم تمرین: rm(list=ls()) #--------------------------------------- ---------------------------- تجزیه مقدار مفرد ماتریس A را پیدا کنید #----------------------------------------------- ----------------- A = ماتریس(c(4,-3,4,3,2) #----------------------------------------------- ----------------- # می خواهیم به دست آوریم: # SVD = U*sigma*t(V) #----------------------------------------------- ----------------- #----------------------------------------------- ------------------ ابتدا باید جابجایی A # t را بدست آوریم = با توجه به یک ماتریس یا data.frame x، t انتقال x را برمی گرداند. #----------------------------------------------- ----------------- At= t(A) #----------------------------------------------- ----------------- # 2 ماتریس At و A را ضرب کنید تا AtA # %*% = ضرب ماتریس #----------------------------------------------- ----------------- AtA=در%*%A #----------------------------------------------- ------------------ اکنون باید تجزیه طیفی ماتریس AtA # ویژه را بدست آوریم = مقادیر ویژه و بردارهای ویژه # واقعی را محاسبه می کند (دوبرابر، عدد صحیح، منطقی) یا ماتریس های پیچیده. #----------------------------------------------- ----------------- eig1 = eigen(AtA) #----------------------------------------------- ----------------- # با مقادیر ویژه AtA می توانیم سیگما بسازیم. # من این کار را به صورت دستی در اینجا برای هدف رویه انجام دادم. # اما توجه داشته باشید که سیگما برابر است با sqrt(AAt) #------------------------------------- ----------------------------- sigma=ماتریس(c(sqrt(eig1$values[1]),0,0,sqrt(eig1$values[2])),2) #---------------- ------------------------------------------------ # بردارهای ویژه AtA مقادیر V هستند #----------------------------------------- ------------------------- V=as.matrix(eig1$vectors) #----------------------------------------------- ----------------- # بعد باید A*At را محاسبه کنیم #----------------------------------------------- ----------------- AAt=A%*%At #----------------------------------------------- ----------------- اکنون باید تجزیه طیفی ماتریس AAt را بدست آوریم. #----------------------------------------------- ----------------- eig2=eigen(AAt) #----------------------------------------------- ----------------- # U برابر است با بردارهای ویژه AAt #----------------------------------------------- ----------------- U=as.matrix(eig2$vectors) #----------------------------------------------- ----------------- در نهایت تجزیه مقدار مفرد A برابر است با U*sigma*V #----------------------------------------------- ----------------- SVD_of_A=U%*%سیگما%*%V #----------------------------------------------- ----------------- # نتایج #----------------------------------------------- ----------------- A SVD_of_A U sigma V PS: من V transpose را نیز امتحان کردم، اما نتایج هنوز اشتباه است... | روش تجزیه مقدار منفرد در R |
58299 | من به مجموعه داده شبکه اجتماعی مبتنی بر موقعیت جغرافیایی نیاز دارم. اما من هیچ منبعی را پیدا نکردم که بتوانم مجموعه داده را پیدا کنم. من به پست با موقعیت مکانی و اطلاعات اشتراک گذاری مجدد آن اطلاعات با زمان و لایک ها نیاز دارم. بنابراین من به این فکر می کردم که از داده های تصادفی برای شبیه سازی شبکه استفاده کنم. آیا می توانم ادعای خود را با داده های تصادفی تأیید کنم؟ زیرا داده های واقعی باید تصادفی ترین باشند. | شبیه سازی شبکه های اجتماعی |
112627 | من سعی کردم مدل رگرسیون کاکس (معروف به خطر متناسب) را بر روی برخی از داده های سرطان (N=2288) برازش دهم. من خروجی زیر را از SAS **proc phreg** دریافت کردم: پارامتر Chi-Square p HR RaceN 3.7375 0.0532 1.198 Chemo 51.2541 <.0001 0.474 Surgery 251.6561 251.6561 <.0001 Ch20.01 <.0001 Ch. 2.000 سن 53.1842 <.0001 1.018 مرحله 1 220.5925 <.0001 0.133 مرحله 2 66.7599 <.0001 0.353 مرحله 3 24.3555 A برای اطمینان از معتبر بودن مدل، من دو روش زیر را امتحان کردم: 1. نمودار log-log برای متغیرهای طبقه بندی شده 2. رسم باقیمانده های شوئنفلد از مدل و سپس قرار دادن یک خط در سراسر آن، با توجه به عدم وجود p-value شیب آن. 0 من نتایج زیر را دریافت کردم: مرحله جراحی شیمی نژادی تست سن 1: خوب بد خوب 2 n 3 تست NA متقاطع 2: 0.2674 p<.0001 p<.0001 0.4622 0.0655 به دنبال توصیه های اینجا (http://statistics.ats.ucla.edu/stat/examples/asa/test_proportionality.htm)، Race_t، Chemo_t، Surgery_t، ChSu_t را ایجاد کردم. (تعامل شیمی درمانی و جراحی) و یک کاکس دیگر انجام دهید رگرسیون، این چیزی است که من به دست آوردم: پارامتر Chi-Square p HR RaceN 27.1173 <.0001 1.888 Ra_t 57.5135 <.0001 0.999 ChemoN 0.4524 0.5012 1.086 Ch_059 <0.086 Ch_019 <.09. 2.101 0.1472 1.195 Su_t 96.4175 <.0001 0.999 ChSu 14.9843 0.0001 1.687 سن 817.9242 <.0001 1.113 Age_t 119 169.5012 <.0001 0.162 Stage 2 68.4689 <.0001 0.29 Stage 3 6.6744 0.0098 0.839 همه متغیرهای وابسته به زمان از نظر آماری معنی دار هستند، در حالی که جهت اصلی ChemoN و جراحی دیگر ادامه دارد!! --> جراحی، شیمی درمانی هر دو منجر به خطر بالاتری می شود!!) با تعجب دیدم که Ra_t از نظر آماری معنی دار است. من مطمئن نیستم که از نتایجم چه کنم. سوال اصلی من اینجاست: 1. چگونه باید برای مدل خود اقدام کنم؟ برای تصمیم گیری برای انجام چه کاری باید به چه چیزی نگاه کنم؟ به طور کلی تر: 1. آیا یک آزمون (یا مجموعه ای از) قطعی برای فرض تناسب برای رگرسیون کاکس وجود دارد؟ اگر چنین است، چگونه آن را در SAS پیاده سازی کنیم؟ 2. برای آزمون ذهنی / گرافیکی، فاصله از حد انتظار چقدر دور است؟ 3. تست شامل متغیرهای وابسته به زمان در مدل کاکس چقدر خوب (مطمئن نیستم اصطلاحات آماری از نظر خطاهای نوع I و نوع II چیست؟)؟ به عنوان مثال چرا Ra_t مهم است حتی اگر Race1 در هر دو تست ذهنی خوب به نظر برسد؟ 4. آیا کسی در مورد آزمون جهانی تناسب اندام شونفلد شنیده است (http://www.sljol.info/index.php/JNSFSL/article/view/456) من در تعیین تعداد مورد انتظار در سلول ها مشکل دارم. هر گونه کمکی قدردانی خواهد شد. خیلی ممنونم! | آزمون عینی برای فرض تناسب در مدل رگرسیون کاکس (SAS)؟ |
8924 | من از راهنمایی شما در مورد مشکل زیر بسیار سپاسگزارم: من یک مجموعه داده پیوسته بزرگ با تعداد زیادی صفر (~95٪) دارم و باید بهترین راه را برای آزمایش اینکه آیا زیرمجموعه های خاصی از آن جالب هستند، پیدا کنم. به نظر میرسد که از توزیع مشابه بقیه گرفته شده است. تورم صفر از این واقعیت ناشی می شود که هر نقطه داده مبتنی بر یک اندازه گیری شمارش با صفرهای واقعی و نمونه است، اما نتیجه پیوسته است زیرا برخی پارامترهای دیگر وزن شده توسط شمارش را در نظر می گیرد (و بنابراین اگر شمارش صفر باشد، نتیجه حاصل می شود. نیز صفر است). بهترین راه برای انجام این کار چه خواهد بود؟ من احساس میکنم که تستهای Wilcoxon و حتی تستهای جایگشت نیروی brute-force ناکافی هستند زیرا با این صفرها منحرف میشوند. تمرکز بر اندازه گیری های غیر صفر نیز صفرهای واقعی را که بسیار مهم هستند حذف می کند. مدل های صفر تورم برای داده های شمارش به خوبی توسعه یافته اند، اما برای مورد من نامناسب هستند. من در نظر گرفتم که توزیع Tweedie را به دادهها برازش کنم و سپس یک glm را روی answer=f (subset_label) قرار دهم. از نظر تئوری، این امکان پذیر به نظر می رسد، اما من نمی دانم که آیا (الف) این بیش از حد است و (ب) همچنان به طور ضمنی فرض می کند که همه صفرها صفرهای نمونه هستند، یعنی به همان شیوه (در بهترین حالت) به عنوان یک جایگشت بایاس می شوند؟ به طور شهودی، به نظر می رسد که نوعی طراحی سلسله مراتبی داریم که یک آمار دوجمله ای بر اساس نسبت صفرها و مثلاً یک آمار Wilcoxon محاسبه شده بر روی مقادیر غیر صفر (یا بهتر از آن، مقادیر غیر صفر تکمیل شده با کسری از صفر بر اساس برخی قبلی). شبیه یک شبکه بیزی به نظر می رسد... امیدوارم من اولین کسی نباشم که این مشکل را دارد، بنابراین بسیار ممنون می شوم اگر بتوانید تکنیک های موجود مناسب را به من معرفی کنید... بسیار متشکرم! | آزمون فرضیه بر روی داده های پیوسته با تورم صفر |
78377 | من فرض میکنم دلیل بهینهای برای تنظیم دادههایم برای دستیابی به هدفم برای پیشبینی بازنشستگی سال آینده وجود دارد. من می توانم به دو روش فکر کنم. به نظر شما کدام مناسب تر است و چرا؟ یا اگر می توانید جایگزین دیگری فکر کنید لطفا به من اطلاع دهید. اگر بخواهم بدانم چه کسانی در دو سال آینده بازنشسته خواهند شد، آیا پاسخ شما متفاوت خواهد بود؟ سه سال؟ هر روش 5 سال داده های آموزشی را در نظر می گیرد، برای مثال 2008 - 2012 برای پیش بینی اینکه چه کسی در سال 2013 بازنشسته می شود. یک ردیف برای زمانی که بازنشسته می شوند. در سالی که بازنشسته می شوند معمولاً دو ردیف دارند (یکی برای فعال و دیگری برای بازنشستگی). * هر سال فعال، از اول ژانویه، عکس فوری داده های کارکنان است. اطلاعات بازنشستگان در تاریخ بازنشستگی است. * سناریوهای نمونه در زیر ارائه شده است. **روش 2** * شامل یک ردیف داده برای هر کارمندی که در کل دوره زمانی فعال بوده (بازنشسته نشده) و یک ردیف برای هر کارمندی که بازنشسته شده است. در این مثال، هر کارمند فقط یک بار در مجموعه آموزشی ظاهر می شود. **پیشینه:** * من سعی می کنم پیش بینی کنم چه کسی احتمالاً سال آینده بازنشسته می شود. * جمعيت: كليه كاركناني كه 55 سال به بالا دارند و حداقل 5 سال سابقه خدمت دارند. * من از Random Forest استفاده می کنم (آزمایش با رگرسیون لجستیک را آغاز کرده ام... هرچند تجربه زیادی ندارم). * من یک نتیجه باینری دارم و پیش بینی کننده های من از متغیرهای پیوسته و عاملی ساخته شده اند. نتیجه باینری من بازنشستگی یا عدم بازنشستگی است (ادامه کار). نمونه هایی از متغیرهای پیوسته عبارتند از سن کارمند، سال های حضور در شرکت و حقوق. نمونه هایی از متغیرهای عامل عبارتند از: نوع برنامه بازنشستگی (بازنشستگی یا 401k)، نوع شغل (معاف در مقابل غیرمعاف)، بالاترین سطح تحصیلات، گروه. **نمونه های داده روش 1 (پیش بینی '13)** * نفر A اینجا از 08 تا 12 بود و در سال 13 بازنشسته شد * نفر B اینجا بود از 08 تا 11 و در سال 12 بازنشسته شد * شخص C اینجا بود 08 تا سال 13 * شخص D در سال 08 بازنشسته شد (او سال های قبل نیز اینجا بود اما داده های آموزشی در مثال فقط به 08 برمی گردد) | چگونه باید دادههایم را برای طبقهبندی تنظیم کنم وقتی مؤلفه زمانی وجود دارد؟ |
58295 | من دو متغیر دارم، قیمت یونجه و استفاده از بیمه. Stata ضریب همبستگی آنها را 0.1227 می دهد. این به من می گوید که آنها خیلی همبستگی ندارند. وقتی من هر متغیر را در یک رگرسیون جداگانه داشته باشم، هر کدام بسیار مهم هستند، اما با هم اهمیت از بین می رود. در مرحله بعد، هنگامی که خطاهای رگرسیون موجودی روی یونجه در بیمه اجرا می شود، بیمه بسیار مهم است. هنگامی که خطاهای رگرسیون موجودی در بیمه روی یونجه اجرا می شود، یونجه قابل توجه نیست. من فرض میکنم بیمه با برخی متغیرها مرتبط است، اما به نظر میرسد که یونجه خوب است. آیا جز خلاص شدن از متغیر بیمه، چاره ای وجود دارد؟ پیشاپیش از شما متشکرم. | همبستگی پیچیده در رگرسیون من؟ |
29182 | در حال حاضر، میخواستم بدانم آیا میتوانیم دو متغیر تصادفی را دقیقاً مانند روشی که دو عدد واقعی را مقایسه میکنیم، مقایسه کنیم؟ آیا این منطقی است؟ برای مثال، $X$ و $Y$ دو متغیر تصادفی هستند، آیا $X>Y$ به معنی چیزی است؟ یا آشکارا مزخرف است؟ کسی ایده هایی دارد؟ نظر شما بسیار قابل تقدیر است! | آیا مقایسه دو متغیر تصادفی معنادار است؟ |
95607 | من 3 متغیر دارم (2 متغیر مستقل و 1 متغیر است). هر سه متغیر با پرسشنامههای متشکل از چند سؤال که در مقیاس 5 درجهای ثبت شدهاند، اندازهگیری میشوند. من می خواهم تحلیل رگرسیون را برای بررسی میانجیگری انجام دهم. چگونه می توانم این کار را انجام دهم؟ آیا باید متغیرها را تبدیل یا رمزگذاری مجدد کنم؟ متغیرهای من در زیر توضیح داده شده است. Q4 + Q5 + Q6 + Q7 + Q8 (Q1-Q8 به تک متغیر) انگیزه = Q1 + Q2 + Q3 (Q1-Q3 به تک متغیره) همه سؤالات (Q1، Q2، ...) در مقیاس 5 امتیازی، 1 برای کاملاً مخالف و 5 برای کاملاً موافقم اندازه گیری می شوند. من می خواهم زیر مدل اجرا کنم. خلاقیت $=$ ثابت $+\ \beta_1$ آب و هوا $+\ \beta_2$ انگیزه + خطا من از SPSS استفاده می کنم. | متغیرهای مستقل ترتیبی و تحلیل رگرسیون متغیر وابسته |
85607 | من به دنبال نمودارهای کنترلی برای نظارت بر زمان بین رویدادها برای رویدادهای نادر هستم. بررسی سریع ادبیات نشان داد که چهار روش زیر ارزش بررسی دارند: نمودار تعداد تجمعی مطابقت (CCC). نمودار کنترل کمیت تجمعی (CQC)؛ نمودار CUSUM نمایی و نمودار EWMA نمایی. من با اصطلاحات کمی گیج شده ام و نمی دانم که آیا EWMA نمایی فقط یک میانگین متحرک نمایی وزنی عادی است؟ من شک دارم که اینطور نیست، اما نمی توانم ادبیاتی پیدا کنم که تفاوت بین این دو رویکرد را توضیح دهد... اگر کسی چنین کند، خوشحال می شوم به آن نگاه کنم. همچنین به نظر می رسد که من نمی توانم رویکردهای ذکر شده در بالا را در بسته R Qcc که تاکنون برای نمودارهای spc ساده تر استفاده کرده ام، پیاده سازی کنم. آیا کسی با بسته های R دیگر تجربه ای دارد که ممکن است؟ | کنترل فرآیند آماری EWMA نمایی برای نظارت بر زمان بین رویدادها |
48034 | من سعی می کنم یک متغیر پاسخ را مدل کنم که از لحاظ نظری بین -225 و +225 محدود است. متغیر مجموع امتیازی است که آزمودنی ها هنگام انجام یک بازی کسب کردند. اگرچه از نظر تئوری امکان کسب امتیاز 225+ برای آزمودنی ها وجود دارد. با وجود این، زیرا امتیاز نه تنها به اقدامات آزمودنیها، بلکه به اقدامات سایر اقدامات نیز بستگی داشت، حداکثر امتیاز هر کسی 125 بود (این بالاترین امتیازی است که 2 بازیکنی که هر دو با یکدیگر بازی میکنند میتوانند امتیاز بگیرند) این با فرکانس بسیار بالایی اتفاق افتاد. کمترین امتیاز 35+ بود. این مرز 125 با رگرسیون خطی مشکل ایجاد می کند. تنها کاری که میتوانم انجام دهم این است که پاسخ را بین 0 و 1 تغییر دهم و از رگرسیون بتا استفاده کنم. اگر این کار را انجام دهم، مطمئن نیستم که واقعاً بتوانم بگویم 125 مرز بالایی است (یا 1 بعد از تبدیل) را توجیه کنم، زیرا ممکن است نمره 225+ را به دست آوریم. علاوه بر این، اگر من این کار را انجام دهم، مرز پایینی من چقدر خواهد بود، 35؟ ممنون جاناتان | برخورد با رگرسیون متغیر پاسخ غیرمعمول محدود |
78370 | اجازه دهید $y$ یک متغیر وابسته باینری باشد. من از یک مدل لاجیت برای توضیح رابطه بین $y$ و بسیاری از متغیرهای توضیحی باینری استفاده می کنم. من عمدتا علاقه مند به یافتن این هستم که کدام گروه (یا تقاطع گروه ها) بیشترین احتمال موفقیت را دارد. اکنون، این نوع تحلیل نسبتاً ساده است. با این حال، مشکل اصلی من این است که میلیونها دستهبندی ممکن مختلف را به خوبی میبینم (زمانی که همه اثرات متقابل ممکن را در نظر بگیرید). آیا توصیه ای در مورد نحوه برخورد با این مشکل دارید؟ باز هم، نقطه گیر من در اینجا این است که متغیرهای ساختگی توضیحی زیادی دارم. | بهترین راه برای استفاده از بسیاری از متغیرهای ساختگی توضیحی برای تعیین بالاترین نسبت موفقیت ها |
78379 | آیا روش معقولی برای محاسبه اندازه اثر (به طور ایده آل Hedges g* / d یا نسبت پاسخ log کوهن) از داده های گزارش شده در درصد وجود دارد؟ نمونه ای از چنین داده هایی در زیر. برای مثال، من علاقه مند به محاسبه فعالیت قبل و بعد از انکوباتور بزرگسالان هستم (نوار سیاه). در حالی که جذاب است، تصور می کنم که نسبت پاسخ ورود به سیستم کافی نیست زیرا درصدها در مقیاس نسبت واقعی نیستند؟ گزینه جایگزین رد این مقاله از تجزیه و تحلیل است. پیشنهادی دارید؟ با تشکر  | آیا روش معقولی برای محاسبه اندازه اثر از داده های گزارش شده در درصد وجود دارد؟ |
29188 | من می خواهم Graph Clustering را در یک گراف **بدون جهت** عظیم با میلیون ها یال و گره انجام دهم. نمودار تقریباً با خوشههای مختلف که فقط توسط برخی گرهها به یکدیگر متصل شدهاند (نوعی گرههای مبهم که میتوانند به خوشههای متعدد مربوط شوند) خوشهبندی شده است. بین دو خوشه لبه های بسیار کم یا تقریباً هیچ وجود نخواهد داشت. این مشکل تقریباً شبیه یافتن **مجموعه برش رأس** یک گراف است، با یک استثنا که گراف باید به اجزای زیادی تقسیم شود (تعداد آنها ناشناخته است). لطفاً به این تصویر رجوع کنید:  تقریباً مانند اجزای مختلف متصل قوی است که چند گره را بین خود به اشتراک می گذارند و من قرار است **آن گره ها را بردارید** تا آن اجزای متصل قوی را جدا کنید. یال ها وزن دارند اما این مشکل بیشتر شبیه یافتن ساختارها در یک نمودار است، بنابراین وزن لبه ها اهمیتی ندارند. (روش دیگری برای فکر کردن در مورد مشکل این است که تصور کنید کرههای جامد در برخی نقاط یکدیگر را لمس میکنند، در حالی که کرهها آن اجزای قوی متصل هستند و نقاط لمسی آن گرههای مبهم هستند.) من در حال نمونهسازی چیزی هستم، بنابراین زمان کمی برای برداشتن دارم. الگوریتم های خوشه بندی نمودار توسط خودم و انتخاب بهترین های ممکن. به علاوه، من به راه حلی نیاز دارم که گره ها را برش دهد نه لبه ها، زیرا خوشه های مختلف گره ها را به اشتراک می گذارند و در مورد من لبه ها را ندارند. آیا مقاله پژوهشی، وبلاگی وجود دارد که به این مشکل یا تا حدودی مرتبط با آن بپردازد؟ یا هر کسی می تواند راه حلی برای این مشکل ارائه دهد، هرچند کثیف باشد. از آنجایی که میلیون ها گره و لبه درگیر هستند، من به پیاده سازی MapReduce از راه حل نیاز دارم. هر ورودی، پیوندهایی برای آن نیز وجود دارد؟ آیا اجرای متن باز فعلی در MapReduce وجود دارد که بتوان مستقیماً از آن استفاده کرد؟ من فکر می کنم این مشکل مشابه ** یافتن انجمن ها در شبکه های اجتماعی آنلاین با حذف رئوس است.** | یافتن جوامع در شبکه های اجتماعی آنلاین با حذف گره ها |
59527 | میدانم که آمار آزمون $$F=S_1^2/S_2^2 $$ است، اما من به نمونهای از سوالات استادم نگاه میکنم و برخی مرا گیج کردهاند. به عنوان مثال: برای یک بازی خاص، امتیازات بازی به طور معمول توزیع می شود. دو بازیکن هر کدام 10 بازی انجام دادند و امتیازات خود را در هر بازی ثبت کردند. برای بازیکن A میانگین امتیاز 375 و واریانس نمونه 17312 است. برای بازیکن B میانگین امتیاز 360 و واریانس نمونه 13208 است. در سطح 5 درصد این فرضیه را امتحان کنید که واریانس امتیازات دو بازیکن برابر است. با این فرض که ابزار واقعی ناشناخته است. و او از معادله $$F=(17312/9)/(13208/9) $$ استفاده می کند بدیهی است که راه حل در اینجا یکسان است، اما در نمونه های دیگری که من به آنها نگاه کردم (که اکنون نمی توانم آنها را پیدا کنم) ns انجام می دهند. لغو نیست پس نیست. چگونه بفهمم چه زمانی از کدام معادله استفاده کنم؟ | آزمون F برای برابری واریانس ها |
29272 | من می خواهم با پراکندگی بیش از حد یک مدل پواسون مقابله کنم. مدلهای دوجملهای منفی (glm.nb) و شبه درستنمایی (خانواده=شبه در glm) ساختار به اندازه کافی انعطافپذیر از رابطه واریانس در مقابل میانگین ارائه نمیدهند. من می خواهم یک مدل مرتبه سوم کامل را بین میانگین و واریانس جا بدهم، و نتوانستم تابع R را پیدا کنم که این اجازه را بدهد. آیا وجود دارد؟ با تشکر | برازش یک مدل پیچیده واریانس در مقابل میانگین برای مدلهای شبه احتمال؟ (در R) |
16608 | بگویید من دو توزیع معمولی A و B با میانگین های $\mu_A$ و $\mu_B$ و واریانس های $\sigma_A$ و $\sigma_B$ دارم. من میخواهم ترکیب وزنی از این دو توزیع را با استفاده از وزنهای $p$ و $q$ که در آن $0\le p\le 1$ و $q = 1-p$ است، انتخاب کنم. می دانم که میانگین این مخلوط $\mu_{AB} = (p\times\mu_A) + (q\times\mu_B)$ خواهد بود. واریانس چقدر خواهد بود؟ * * * اگر من پارامترهای توزیع قد مرد و زن را بدانم، یک مثال عینی میتواند باشد. اگر اتاقی از افراد داشتم که 60 درصد آن مرد بود، می توانستم میانگین قد مورد انتظار را برای کل اتاق ایجاد کنم، اما در مورد واریانس چطور؟ | واریانس مخلوط وزنی دو گاوس چقدر است؟ |
92550 | من می خواهم رگرسیون چند متغیره (رگرسیون بیش از 1 متغیر وابسته) را در SPSS انجام دهم. اما هیچ گزینه ای پیدا نکردم من از SPSS 22 استفاده می کنم. تنها چیزی که می توانم پیدا کنم گزینه رگرسیون خطی است اما این به هدف من نمی رسد. سوال من این است که چگونه می توانم رگرسیون چند متغیره را در spss انجام دهم:( | رگرسیون چند متغیره در SPSS .... چگونه؟ |
49927 | آیا کسی می تواند یک تعریف ساده از اینکه متغیر توضیحی باینری چیست؟ توصیف به زبان ساده ایده آل خواهد بود. چگونه یکی را تشخیص می دهید؟ | متغیر توضیحی باینری چیست؟ |
34262 | من یک نظرسنجی آنلاین ساده انجام دادم تا از 249 نفر بپرسم که کدام یک از سه درخواست اهدایی را قانعکنندهتر میدانستند. این نظرسنجی با تصادفی سازی ترتیب پاسخ ها اندکی بهبود یافته است. پیام A 116 رای دریافت کرد، پیام B 49 رای دریافت کرد و پیام C 85 رای دریافت کرد. اولین حدس من شناسایی فاصله اطمینان 95% برای نسبت های مختلف جمعیت است (به عنوان مثال، 46.2% +/- 0.5% هنوز بالاتر از 34.1% است. +/- 0.3% و غیره) و برنده را انتخاب کنید اگر کران پایین آن بالاتر از کران بالایی هر رقیب باشد، اما چیزی در این مورد کاملاً درست نیست. یک چیز دیگر: پیام ها از کاربران خواسته شده است که یک دلار به یک موسسه خیریه اهدا کنند. ما در نظرسنجی توصیه کردیم که به 10٪ از پاسخ دهندگان یک پاداش 1 دلاری ارائه می شود. سپس از پاسخ دهندگان خواسته شد که به ما بگویند در صورت انتخاب شدن، آیا حاضرند آن دلار را به خیریه اهدا کنند یا خیر. از 249 پاسخ دهنده، 174 نفر به ما اجازه دادند که از طرف آنها وجوه خود را اهدا کنیم. به نظر نمیرسد که فیلتر کردن نتایج فقط برای کاربرانی که به ما اجازه اهدای وجوه خود را دادهاند، نحوه پاسخدهی افراد را تغییر دهد، اما نمیدانم که آیا این یک نقطه مرجع جالب خواهد بود؟ نظر یا بازخوردی دارید؟ با تشکر | چگونه تعیین کنیم که آیا برنده نظرسنجی 3 طرفه از نظر آماری معنادار است؟ |
58290 | من دو گروه از فرکانس هایی دارم که در آن 4 رویداد اتفاق افتاده است و در حال آزمایش هستم که آیا آنها از یک جمعیت هستند یا خیر. من از آزمون برازش مجذور کای با مقدار مورد انتظار مربوط به میانگین فراوانی آنها استفاده کردم (که آمار آزمون مجذور کای را به حداقل می رساند). آماره آزمون مجذور کای زیر مقدار بحرانی برای 3 درجه آزادی و آلفا=0.05 بود، بنابراین من فرضیه جایگزین را رد می کنم که آنها متفاوت هستند. حالا می خواهم بدانم که احتمال خطای نوع دو زیر 0.05 است اما تستی نمی شناسم که بتواند این کار را انجام دهد. آیا آزمونی وجود دارد که بتوان از آن استفاده کرد که فرضیه صفر این است که دو گروه فرکانس متفاوت هستند و فرضیه جایگزین این است که دو گروه یکسان هستند؟ اگر بتوانم از آن تست برای نشان دادن اینکه آنها در سطح آلفا=0.05 یکسان هستند استفاده کنم، احتمال خطای نوع 2 در مورد اصلی من به اندازه کافی کم خواهد بود. | نمایش دو گروه دارای توزیع فرکانسی یکسان هستند |
34263 | ماه گذشته این سوال را اینجا پرسیدم. بعد از اینکه اخیراً در مورد آن فکر کردم، فکر کردم که آیا منطقی است که در مورد احتمالات لاجیت در این زمینه فکر کنیم. از آنجایی که پیشبینیکننده یک ضریب، تغییر شانس ورود به سیستم را در متغیر پاسخ مستقل از همه پیشبینیکنندههای دیگر نشان میدهد، انتظار داریم که ترسیم قیمت پیشنهادی در مقابل pr(نتیجه)، با منحنی نشاندهنده یک پیشبینیکننده متفاوت، به سادگی مفید نباشد. بنابراین اگر ضریب برای متغیر x 0.5 باشد، بدون توجه به مقادیر y، z یا f، شانس ورود تغییر می کند. بنابراین، من نمی دانم که آیا ایجاد چنین نموداری منطقی است؟ 1. آیا به رگرسیون لجستیک درست فکر می کنم؟ از آنجایی که ضرایب لاجیت مستقل از سایر پیش بینی کننده ها هستند، آیا طرحی مانند آن تا حد زیادی بی فایده نخواهد بود. 2. اگر چنین است، کاربرد اصلی احتمالات پیش بینی شده در هنگام استفاده از مدل های لاجیت چیست؟ در صورت تمایل فقط چند کد نمونه: df=data.frame(income=c(5,5,3,3,6,5), win=c(0,0,1,1,1,0), age= c(18,18,23,50,19,39), home=c(0,0,1,0,0,1)) str(df) md1 = glm(عامل(برنده) ~ درآمد + سن + home, data=df, family=binomial(link=logit)) با تشکر! | احتمالات پیش بینی شده برای مدل های لاجیت |
63171 | من یک مجموعه داده غیر عادی دارم. برای اهداف برنامه ریزی باید میانگین اعداد در این مجموعه داده را محاسبه کنیم. من از استاندارد کردن برای عادی سازی داده های خود در اکسل استفاده کردم. آیا می توانم میانگین به دست آمده از مجموعه داده های استاندارد شده را به نسخه اصلی برگردانم تا میانگین جدیدی داشته باشم؟ * * * اجازه دهید سعی کنم برخی از سوالات مطرح شده در اینجا را روشن کنم. مجموعه داده دارای منابع سفارش داده شده/هفته است. میانگین این برای اهداف برنامه ریزی آینده استفاده می شود. شخصی پیشنهاد کرد که این مجموعه داده را نرمال کنیم و سپس میانگین را پیدا کنیم و از میانگین به دست آمده از نرمال سازی استفاده کنیم. بنابراین سوال من این است که اگر من از تابع استانداردسازی در اکسل استفاده کنم و میانگین جدید را از مجموعه داده های استاندارد دریافت کنم، آیا می توانم آن را به مجموعه داده های اصلی خود بازگردانم؟ مثال زیر را ببینید X1 Mean Std Dev مقدار استاندارد شده 282 252 55 0.52 آیا می توانم بفهمم 0.52 در مجموعه داده های اصلی من به چه چیزی مربوط می شود؟ آیا من چیزی دریافت می کنم که بگوید 0.52 مطابق با مقدار نرمال شده 265 است؟ اگر ممکن است من می خواهم این کار را برای هر مطالعه انجام دهم و سپس میانگین جدیدی پیدا کنم متشکرم! | استاندارد سازی داده ها |
93413 | منظور من از ضریب همبستگی، ضریب همبستگی لحظه-محصول پیرسون است. همه ما می دانیم که همبستگی به معنای علیت نیست، اما آیا ضریب همبستگی بالا معنایی دارد؟ دلیلی که من این را می پرسم این است که اگر به اندازه کافی دقیق نگاه کنیم، می توان انواع همبستگی را بین هر مجموعه ای از داده ها در بورس پیدا کرد (داده ها را شکنجه کنید تا زمانی که اعتراف کند)، بنابراین اکنون فکر می کنم که ضریب همبستگی بالا نمی تواند اصلا معنی به جز موقعیتی که بتوانیم علیت بین دو موضوع را ردیابی کنیم، آیا موقعیت دیگری وجود دارد که ضریب همبستگی بالا معنی خاصی داشته باشد؟ یک مثال خاص بزنید، اگر ببینم که سهام A و سهام B دارای ضریب همبستگی کامل هستند (پس از داده کاوی گسترده) و نمی توانم دلیل یا دلیلی بین آنها و زمانی که سهام A افزایش می یابد پیدا کنم. نتیجه بگیرید (با درصد بالایی از سطح اطمینان) که سهام B نیز افزایش خواهد یافت؟ در مورد سهام B، چه استنتاجی می توانم از افزایش یا کاهش قیمت سهام A بگیرم؟ | آیا ضریب همبستگی بالا معنایی دارد؟ |
63170 | من اخیراً شروع به خواندن برنامه نویسی احتمالی و روش های بیزی برای هکرها کردم و واقعاً به موضوع و PyMC علاقه مند شدم. من به خصوص مثال فصل اول را دوست دارم که در آن از برنامه ریزی احتمالی برای تعیین اینکه آیا رفتار ارسال پیامک (که بر اساس تعداد پیام ها در هر روز کمیت می شود) در طول زمان تغییر می کند یا خیر استفاده می شود. من اکنون فکر می کنم که آیا این می تواند به نحوی مشابه با مشکل من اعمال شود. به طور مشخص، من داده های زمانی متشکل از کلمات اضافه شده به یک سند دارم. اکنون به من علاقه مند است که آیا این سری زمانی در طول زمان تثبیت می شود و اگر چنین است چه زمانی تثبیت می شود. تثبیت به این معنی است که نویسنده (یا نویسندگان) سند بر سر مجموعه ای از شرایط توافق کرده اند و نوعی تثبیت معنایی وجود دارد (سکوت). در ادبیات این اغلب با نشان دادن اینکه توزیع بسامدهای کلمات قانون توان است انجام می شود. تکنیک های دیگر استفاده از واگرایی Kullback-Leibler بین نقاط زمانی t و t+1 است و سعی می کنیم نشان دهیم که بعد از مدتی واگرایی KL کمتر و کمتر می شود و تثبیت می شود. با این وجود، این روشها محدودیتهایی دارند و من نمیدانم که آیا این روش با مدلسازی احتمالی قابل حل است؟ از آنجایی که من با این موضوع چندان مناسب نیستم هنوز کنجکاو هستم که آیا کسی نکاتی را برای یک راه حل احتمالی در صورت امکان مدل سازی در هر حال ارائه دهد. ممنون، فیلیپ | تعیین ثبات در یک سری زمانی از طریق مدل سازی احتمالی |
29187 | من به طور سیستماتیک کلمات کمیاب را از سه گروه متون (#1، #2 و #3) انتخاب کردم (کلمات کمیاب در هر گروه متفاوت است، اما برخی از کلمات نادر ممکن است در بیش از یک گروه ظاهر شوند). سپس، برای هر کلمه نادر، سعی کردم بفهمم که در یک مجموعه (مجموعه بزرگ و منظم متون)، به نام Corpus P، چقدر فراوان است و در دیگری (Corpus B) چقدر فراوان است. با استفاده از فرکانس ها، آمار ورود به سیستم احتمال را برای هر نسبت فرکانس ها دریافتم. این یک آمار رایج در زبانشناسی پیکرهای است و هر چه بزرگتر باشد، اندازهگیری «شگفتانگیز» در نسبت فراوانی بزرگتر است. من به ویژه به کلمات نادری که در Corpus P به طور قابل توجهی فراوانتر از Corpus B بودند، علاقه مند بودم. می خواهم ببینم آیا امتیازات کلمات نادری که این شرط را برآورده می کنند به طور قابل توجهی در گروه متن متفاوت است (#1-3). نمرات این مجموعه از کلمات نادر را می توان به صورت گروه متنی و به ترتیب نزولی در این مجموعه داده یافت: 1. گروه #1 (1362 = n) 2. گروه #2 (n = 285) 3. گروه #3 ( n = 112) من به نمودارهای Q-Q در هر یک از سری ها نگاه کردم و مطمئناً به طور معمول توزیع نمی شوند. سپس بر اساس بررسی ادبیات به این فرضیه رسیدم که این آمارها دارای توزیع کای اسکوئر هستند، به اعتقاد من با یک درجه آزادی. من میخواهم این فرض را بررسی کنم، و سپس بفهمم که آیا این سه سری به طور قابل توجهی متفاوت هستند، یعنی آیا کلمات نادر از هر گروه امتیازهای متفاوتی دارند یا خیر. (من سعی کردم بدون ** این فرض با استفاده از آزمون مجموع رتبه ناپارامتریک Wilcoxon تفاوت داشته باشند، اما نتیجه معنی دار نبود.) ** چگونه می توانم ببینم که هر ستون در داده ها دارای توزیع است یا خیر. شبیه چی مربع، 1 d.f. اگر ببینم که هرکدام با مدل مناسب هستند، چگونه می توانم بفهمم که سریال ها با یکدیگر متفاوت هستند؟** پیشاپیش متشکرم. | با فرض اینکه سه سری داده من هر کدام $\chi^2(1)$ توزیع شده اند، آیا آنها با یکدیگر متفاوت هستند؟ |
34264 | من می خواهم مرزهای نرخ مثبت کاذب یک طبقه بندی کننده باینری را تخمین بزنم. در داده های نمونه من 50 درصد نقاط داده مثبت و 50 درصد نقاط داده منفی دارم. با این حال، در دادههای واقعی، که من به آنها دسترسی ندارم، میتوانم تخمین بزنم که نمونههای مثبت $N$ و نمونههای منفی $N^2$ وجود خواهند داشت که در آن $N$ بزرگ است، به ترتیب میلیون ها نفر از آنجایی که من به دنبال یک سوزن با اندازه $N$ در انبار کاه $N^2$ هستم، بسیار مهم است که نرخ مثبت کاذب من تا حد امکان نزدیک به صفر باشد. 40 هزار نمونه مثبت و 40 هزار نمونه منفی دارم. تا زمان فراخوانی 0.8، نرخ مثبت کاذب 0 را دارم. میخواهم از آن برای تخمین نرخ مثبت کاذب واقعی استفاده کنم. من می توانم نرخ مثبت کاذب را به عنوان احتمال برچسب زدن یک نمونه منفی به عنوان مثبت مدل کنم. بیایید این را $P_{np}$ (برای منفی -> مثبت) بنامیم. من ارزش واقعی آن را نمی دانم، اما می دانم که پس از برچسب زدن 0.8*40000 من 0 مثبت کاذب دارم. تعداد موارد مثبت کاذب به مقدار $P_{np}$ بستگی دارد و باید به صورت دوجمله ای توزیع شود. با فرض اینکه این درست باشد، می توانم فاصله اطمینانی را در حدود تخمین تجربی خود از $P_{np}$ تخمین بزنم. آیا این منطقی است؟ آیا می توانید به من به کار مرتبط در ادبیات اشاره کنید؟ | تخمین مرزهای نرخ مثبت کاذب |
58293 | فرض کنید $v[n]$ یک بردار $N$ $iid$ نمونههای گاوسی باشد، از ~$N(0,\sigma^2)$ همچنین، اجازه دهید $v_{max}$ حداکثر مقدار مطلق همه نمونهها را نشان دهد. داده شده است. (یعنی، اگر من مقدار مطلق همه نمونههای تصادفی $N$ داده شده را بگیرم و حداکثر را انتخاب کنم، $v_{max}$ خواهد بود). من سعی میکنم دلیل درستی این جمله را مشخص کنم: **به انگلیسی:** احتمال $v_{max}$ بیش از $\sigma \sqrt{2log_e N}$ به $0$ نزدیک میشود، زیرا اندازه نمونه $N$ به بی نهایت نزدیک می شود. **از نظر ریاضی:** $$ \lim_{N \to \infty} P \left( v_{max} > \sigma \sqrt{2log_e{N}} \right) = 0 $$ حتی مطمئن نیستم در این مورد از کجا شروع کنیم به طور شهودی، من حتی مطمئن نیستم که چرا اندازه نمونه $N$ باید مهم باشد، بنابراین حتی یک کشش بصری اولیه برای این مشکل خاص ندارم. از هرگونه بینش قدردانی می کنم. **TLDR: $\sigma \sqrt{2log_e{N}}$ دقیقاً چگونه مشتق میشود؟** * * * **ویرایش، آنچه را تا کنون امتحان کردهام:** با تشکر از نظرات، من موفق شدم قطعهسازی کنم با هم چیزی، اما هنوز به نظر می رسد که من یک راه دور هستم. میخواهم نشان دهم که $\lim_{N \to \infty} P(v_{max} > z) = 0$ زمانی درست میشود که $z=\sigma \sqrt{2log_eN})$. بر اساس فرض $iid$، می توانیم بگوییم که $$P(v_{max} > z) = P(|v_1|، |v_2|، |v_3| ... |v_N| > z) = \ سمت چپ [2 - 2\Phi_{\sigma}(z) \right]^N$$، جایی که $\Phi_{\sigma}$ CDF گاوسی رایج است توزیع، ارائه شده توسط: $$ \Phi_{\sigma}(z) = \frac{1}{2} + \frac{1}{2} erf \left [\frac{z}{\sigma \sqrt{2 }} \right] $$ سپس این بدان معنی است که با جایگزینی ساده، $$ P(v_{max} > z) = \left[1 - erf \left( \frac{z}{\sigma \sqrt{2}}\right) \right]^N $$ و بنابراین، $$ \lim_{N \to \infty} P(v_{max} > z) = \lim_{N \to \lim_{N \to \infty} left[1 - erf \left( \frac{z}{\sigma \sqrt{2}}\right) \right]^N = 0 $$ در اینجا اما من گیر کردم. چگونه می توان از اینجا نشان داد که $z=\sigma \sqrt{2log_eN})$؟... با تشکر | احتمال مجانبی مربوط به بزرگترین مقدار مطلق در نمونه گاوسی iid |
34266 | شخصی در حال انجام آزمایش **فرضی** زیر است و به من گفته است که ANOVA اندازه گیری های مکرر لازم است. من در قاب بندی آن مشکل دارم، همانطور که در متن ها به من آموزش داده شده است. یعنی شناسایی فاکتورها، سطوح، متغیرهای مستقل/عمق، و غیره. از چند شرکتکننده خواسته میشود که به یک مربع قرمز، مربع آبی و مربع سبز نگاه کنند، همانطور که ما کدورت مردمک چشم آنها را به عنوان یک سری زمانی پیوسته برای 1000 میلیثانیه (1 ثانیه) اندازهگیری میکنیم. در هر آزمایش در هر آزمایش ما یک مربع را نشان می دهیم. ما 100 کارآزمایی را جمعآوری میکنیم که به رنگ قرمز، 100 مورد به رنگ آبی و 100 آزمایش به رنگ سبز نشان داده شدهاند. ما این کار را برای 50 شرکت کننده انجام می دهیم. بنابراین دادههای ما به این شکل به نظر میرسند 50 (شرکتکنندگان) * 3 (گروههای قرمز آبی یا سبز) * 100 (آزمایش در هر گروه) * 1000 (میلیثانیه نمونه در هر آزمایش) پس فرضیهای داریم که وقتی به رنگ قرمز نگاه میکنیم کدورت بیشتر است و یا آبی یا سبز (آبی یا سبز واقعاً با یکدیگر تفاوت ندارند). ** اندازه گیری های تکراری یک طرفه آنووا** آیا می توانید به من کمک کنید تا این را کمی بیشتر در **سطح گروهی** و سطح تک موضوعی رسمی کنم؟ به وضوح مشخص کنید که چرا و چگونه ANOVA اندازه گیری های مکرر مناسب است، متغیر مستقل من چیست، متغیر وابسته من چیست، عوامل من، سطوح و غیره؟ آنچه من فکر می کنم این است: بر اساس اطلاعات موجود در اینجا: > اندازه گیری متغیر وابسته تکرار می شود. در چنین حالتی نمی توان از ANOVA استاندارد استفاده کرد زیرا این داده ها فرض استقلال داده ها را نقض می کنند و به این ترتیب نمی توانند همبستگی بین اندازه گیری های تکراری را مدل کنند. با این حال، باید توجه داشت که طرح اندازه گیری های تکراری بسیار متفاوت از طراحی چند متغیره است. > > برای هر دو، نمونه ها در چندین موقعیت یا آزمایش اندازه گیری می شوند، اما در طرح > > اندازه گیری های مکرر، هر آزمایش نشان دهنده اندازه گیری ویژگی > یکسان در شرایط متفاوت است. بنابراین اندازه گیری های مکرر مناسب است زیرا ما در حال اندازه گیری کدورت یک شرکت کننده در شرایط مختلف هستیم، جایی که شرایط مختلف مربع های قرمز، آبی یا سبز را نشان می دهد؟ کسی همچنین گفت که می توانم بین موضوعات و/یا بین رنگ ها مقایسه کنم؟ همچنین این موضوع وجود دارد که **سه اقدام تکراری جداگانه**، یکی برای بررسی قرمز در مقابل آبی، قرمز در مقابل سبز و در نهایت آبی در مقابل سبز وجود دارد. آیا این منطقی است؟ ** اندازه گیری های مکرر دو طرفه آنووا ** برای اضافه کردن توهین به آسیب، اجازه دهید بگوییم که من می خواستم برای هر آزمایشی، کدورت را در سه مکان مختلف در چشم یک نفر اندازه گیری کنم. به این معنی که اکنون هر مسیر دارای 3 اندازه گیری کدورت است. چگونه آن را در بالا مناسب است؟ شخصی به من گفت که این یک اندازه گیری دو طرفه آنوای مکرر است که در آن فاکتور 1: فاکتور شرط 2: مکان اندازه گیری است. **ویرایش** من سوال را به روز کردم تا نشان دهم که علاقه مند به نگاه کردن در سطح گروهی و فردی هستم. چگونه می توانم این کار را در سطح فردی انجام دهم؟ آیا این شامل نگاه کردن به زمان است؟ من فکر میکنم که میتوانم 1. میانگین آزمونها را برای ایجاد یک مقدار مشخصی از شفافیت در هر نقطه زمانی ایجاد کنم. سپس آنها را در جدولی شبیه به جدولی که در اینجا نشان داده شده است، در ستون اول قرار دهید. ستون دوم مقدار متوسط تمام آزمایشات برای آن نقطه زمانی خواهد بود. یا میتوانم در طول زمان میانگین بگیرم و آزمایشهایم را در آنجا قرار دهم. نظر شما چیست؟ | آزمایش قاب در لنز ANOVA با اندازهگیریهای مکرر |
49924 | من R را یاد میگیرم و سعی میکنم بفهمم «lm()» چگونه متغیرهای فاکتور را مدیریت میکند و چگونه جدول ANOVA را درک میکند. من با آمار نسبتاً تازه کار هستم، پس لطفاً با من مهربان باشید. در اینجا برخی از داده های فیلم از Rotten Tomatoes آورده شده است. من سعی میکنم امتیاز هر فیلم را بر اساس میانگین امتیازات همه فیلمها در 4 گروه مدلسازی کنم: آنهایی که دارای رتبهبندی G، PG، PG-13، و R. download.file (http://www.rossmanchance .com/iscam2/data/movies03RT.txt, destfile = ./movies.txt) فیلم <- read.table(./movies.txt, sep = \t، header = T، quote = ) lm1 <- lm(movies$score ~ as.factor(movies$rating)) anova(lm1) و خروجی ANOVA: ## تحلیل واریانس جدول ## # # پاسخ: movies$score ## Df Sum Sq میانگین مربع F مقدار Pr(>F) ## as.factor(movies$rating) 3 570 190 0.92 0.43 ## Residuals 136 28149 207 من میدانم چگونه میتوان همه اعداد این جدول را بهجز «Sum Sq» و «Mean Sq» برای «as.factor(movies$rating)» بدست آورد. لطفاً کسی توضیح دهد که Sum Sq چگونه از داده های من محاسبه می شود؟ من میدانم که میانگین مربع فقط «Sum Sq» بر «Df» تقسیم میشود. | anova.lm در R چگونه Sum Sq را محاسبه می کند؟ |
66279 | آیا کسی بسته ای به R نوشته است تا نمودارهای تشخیصی را بعد از 'clogit'، رگرسیون لجستیک شرطی محاسبه کند؟ به عنوان مثال اهرم. یا یک سوال مرتبط، چگونه با استفاده از «glm» طبقه بندی می کنید (شاید بتوانم با استفاده از «glm» و «خانواده =دوجمله ای» طبقه بندی کنم و سپس از بسته های تشخیصی برای «glm» استفاده کنم؟) | آیا کسی بسته ای به زبان R برای محاسبه نمودارهای تشخیصی پس از کلوگیت (رگرسیون لجستیک شرطی) نوشته است؟ به عنوان مثال اهرم |
26684 | **نسخه کوتاه:** آیا روش آماری وجود دارد که بتوان از آن برای توسعه تخمین فراوانی، توزیع مکانی و/یا نرخ گسترش یک گونه استفاده کرد، در صورتی که مجموعه داده من فقط شامل داده های حضور باشد و نه غیبت؟ من با فسیل ها به معنای دقیق آن سروکار ندارم، اما حدس می زنم که اگر چنین روشی وجود داشته باشد ممکن است در زمینه دیرینه شناسی یافت شود. **نسخه طولانی:** اخیراً پروژه آزمایشی کوچکی را انجام دادم که سعی میکردم اطلاعاتی را در مورد پراکنش گونههای تازه معرفیشده شب پره در ایالات متحده جمعآوری کنم و احتمالاً به عقب و تخمین تاریخ و مکان معرفی را بپردازم. ما فقط در سال 2009 از این گونه آگاه شدیم، اما من پایگاههای اطلاعاتی عکاسی حشرات را جستوجو کردم (بیشتر توسط آماتورها: bugguide.net، mothphotographersgroup.org، _etc._) و دریافتم که عکسهای زیادی از این جانور وجود دارد که به سال 2004 بازمیگردد. و پوشش 8 یا 9 ایالت در جنوب شرقی ایالات متحده باعث شد به این فکر کنم که چگونه می توان از چنین مجموعه داده ای استفاده کرد. این عکسها از نظر عملکردی دقیقاً مانند یک رکورد فسیلی هستند، از این نظر که دادههای مثبت کم هستند، اما ذاتاً بسیار آموزنده هستند زیرا تاریخ و مکان قطعی را برای ارگانیسم هدف نشان میدهند. از سوی دیگر، دادههای منفی واقعی حتی پراکندهتر هستند (به این معنی که دادهها وجود دارند و نشان میدهند که ارگانیسم در مکان و زمان خاصی حضور نداشته است). من نوع سوم زیادی از داده دارم، و مطمئن نیستم که اصلا بتوان از آن استفاده کرد: نبود داده های مثبت. از یک طرف، اگر هیچ داده مثبتی برای یک سایت خاص وجود نداشته باشد، به همان اندازه که در مورد شرایط ایجاد «فسیل» (یا عکس) و جمعآوری بعدی میگوید، در مورد پراکنش گونهها نیز میگوید. برای فسیلها تصور میکنم شرایط زمینشناسی/توپوگرافی است، در حالی که برای عکسها به تراکم عکاسان بالقوه مربوط میشود، و احتمال اینکه آنها عکسی را در جایی که من میتوانم پیدا کنم، پست کنند. از طرف دیگر، هیچ داده ای با بی اطلاعاتی یکسان نیست، درست است؟ اگر من تراکم جمعیت انسان را استاندارد کنم، شهروندان دانشمندان در سراسر ایالات متحده باید از نظر احتمال مواجهه با پروانه و عکاسی از آن برابر باشند. اگر تراکم پروانه به ازای هر عکاس زیاد باشد، شانس بیشتری برای گرفتن عکس وجود خواهد داشت. اگر تراکم پروانه کم باشد، احتمال عکس کمتری وجود دارد. اگر پروانه واقعاً وجود نداشته باشد، احتمال عکس وجود ندارد. به عبارت دیگر، فکر نمیکنم **تصادفی*** باشد که همه عکسها از ایالتهای جنوب شرقی هستند، و عکسهای بیشتری از برخی ایالتها نسبت به سایرین در بین آن گروه پیدا شده است. فقط نمیدانم راهی برای پشتیبانی آماری بر اساس نوع دادههای من وجود دارد یا خیر. * ** افشای کامل: ** می دانم که تصادفی نیست. من نمی خواستم سطح دیگری از پیچیدگی را به سوال خود اضافه کنم، اما توزیع درخت میزبان آن به خوبی مستند شده است و یک مرز مطلق برای این پروانه را نشان می دهد. | تخمین پراکندگی گونه ها و سرعت گسترش تنها با استفاده از داده های مثبت |
29189 | من شماره های زیر را دارم 0.889046409368551 1.22726162946495 1.22726162946495 1.35785109728356 1.35785109728350 1.10358 1.10974 1.4424189950435 1.2277843378837 1.35785109728356 0.970883941918588 0.822170913920467 1.35783109 0.358815782262543 0.774234247460432 0.822170913920467 0.822170913920467 0.72599976881814 0.674425 0.813223271443211 0.774234247460432 1.00184802593319 1.4424189950435 1.22726162946495 0.97018839 0.358815782262543 1.31016840948316 0.970883941918588 1.4424189950435 0.889046409368551 4.9183799 1.2277843378837 1.21605333196293 0.369861996166875 0.774748148811057 0.369861996166875 1.4424439 1.22726162946495 1.4424189950435 1.22726162946495 1.16291100715022 2.33863311242767 0.77462342424 4.91679981837699 0.9670580678417 0.970883941918588 0.9670580678417 1.10704609982913 4.9167998418 4.9167998418 1.05410985855726 1.22726162946495 1.21605333196293 1.35785109728356 0.822170913920467 1.4424189 0.970883941918588 0.835429195630044 0.774234247460432 1.61328986496929 0.970883941918588 1.227784 1.22778 1.22726162946495 0.970883941918588 1.10704609982913 1.10704609982913 1.10704609982913 1.4424189 1.22726162946495 1.4424189950435 1.35785109728356 0.9670580678417 0.9670580678417 0.885419165717 0.885419165714 0.369861996166875 0.9670580678417 0.774748148811057 1.22726162946495 1.4424189950435 1.22747481629 1.31016840948316 0.813223271443211 1.4424189950435 0.822170913920467 1.05410985855726 0.8515201411 1.3245534157835 0.774234247460432 0.774234247460432 1.22726162946495 0.889046409368551 1.4424418 0.842622628771215 0.889046409368551 0.889046409368551 1.31898472833595 1.4424189950435 1.35728515 0.682617341489085 0.965180291004232 نمیخواهم با ترسیم دادههای بالا بررسی کنم (چون هزاران چنین ساختار دادهای دارم). آیا تابعی در R وجود دارد که آن را بررسی کند؟ چگونه می توانم اعتبار را با برنامه نویسی بررسی کنم؟ | چگونه بررسی کنیم که دنباله ای از اعداد سری زمانی است یا خیر؟ |
29185 | من 5 پیش بینی کننده در یک مدل رگرسیون چندگانه با اندازه نمونه دارم که از 157 تا 330 برای هر پیش بینی متغیر است. با توجه به تنوع در اندازه نمونه، آیا بهتر است از مقدار R-squared تنظیم شده به جای R-squared استفاده شود. | $R^2$ در مقابل $R^2$ در رگرسیون چندگانه تنظیم شد |
24257 | در بیشتر مواقع، ما فقط با یک متغیر نتیجه/پاسخ مانند $y = a + bx +\epsilon$ سروکار داریم. با این حال، در برخی سناریوها، به ویژه در دادههای بالینی، متغیرهای پیامد میتوانند دارای ابعاد بالا/چند متغیری باشند. مانند $\mathsf{Y} = \beta{x} + \mathsf{\epsilon}$، که در آن $\mathsf{Y}$ حاوی متغیرهای $Y_1$، $Y_2$ و $Y_3$ است و این نتایج همه با هم مرتبط هستند. . اگر $x$ نشان دهنده دریافت درمان است (بله/خیر)، چگونه می توانم این نوع داده ها را در R شبیه سازی کنم؟ به عنوان مثال در زندگی واقعی، هر بیمار یکی از 2 نوع جراحی بای پس را دریافت می کند و محققان پس از جراحی بای پس، درد، تورم، خستگی و غیره هر بیمار را اندازه گیری می کنند (نرخ هر علامت از 0 تا 10). من فرض می کنم پیامدها (شدت علائم) چند متغیره طبیعی هستند. امیدوارم این مثال واقعی بتواند سوال من را روشن کند. پیشاپیش سپاس فراوان | چگونه می توان نتایج چند متغیره را در R شبیه سازی کرد؟ |
58435 | من با اجرای یک ANOVA با اندازه گیری های مکرر در R با استفاده از تابع ezANOVA مشکل دارم. من دادههایی از 18 آزمودنی دارم - هر آزمودنی در 3 شرایط شرکت کرد و دادهها در هر ترکیب موضوع/شرایط در 29 مکان الکترود جمعآوری شد (1566 نقطه داده کل در یک طرح متعادل بدون سلولهای از دست رفته). وقتی میخواهم مدل ANOVA کامل را اجرا کنم = ezANOVA(داده، dv=ولتاژ، wid=موضوع، درون=.(الکترود، کانال)) با خطای زیر مواجه میشوم: > خطا در لامبدا > 0: مقایسه نامعتبر با مقادیر مختلط خطا در > ezANOVA_main(داده = داده، dv = dv، wid = wid، درون = درون، : > car::Anova () تابعی که برای محاسبه نتایج و تستهای فرضی استفاده میشود، معمولاً به این دلیل است که شما نسبت به تعداد سلولهای طراحی درون Ss، تعداد بسیار کمی از موضوعات دارید ANOVA دوباره با type=1 ممکن است نتایجی را به همراه داشته باشد (اما اگر من سطوح کمتری از الکترود را نسبت به آزمودنیهایم بگنجانم، قطعاً هیچ آزمایش فرضی درست نیست کمتر)، اما اگر تعداد بیشتری را اضافه کنم، چرا این یک مشکل است، فکر نمیکنم که داشتن سطوح بیشتر از n برای یک فاکتور درون موضوعی، مشکل ساز باشد. (SPSS همه چیز را به خوبی محاسبه می کند، با استفاده از نوع I SS کار می کند، اما اگر این گزینه را انتخاب کنم، مقادیر p اصلاح شده کروی را که باید گزارش کنم، به من نمی دهم). | خطای اندازه گیری های مکرر در R ezANOVA با استفاده از سطوح بیشتر از افراد (طراحی متعادل) |
92556 | من میخواهم یک نمونه بزرگ را دستهبندی کنم و برای هر زیرمجموعه زیرمجموعهای تخمین بزنم. مشکل این است که برخی از زیر مجموعه ها حاوی نقاط داده بسیار کمی هستند. چگونه با آن برخورد کنم؟ به عنوان مثال: ## 1) مجموعه داده ها می گویند نمونه بزرگی از درآمد سالانه شخصی (یورو) در اروپا وجود دارد. زمینه ها و نمونه ورودی: کشور منطقه شغل سن درآمد آلمان باواریا مهندس 31 50200 ## 2) خوانندگان توسکانی میانگین درآمد خوانندگان حرفه ای 53 ساله در توسکانی، ایتالیا را تخمین بزنید. چگونه آن را انجام می دهید؟ اولین فکر من این است که فقط میانگین درآمد همه ورودیهایی را که در آن کشور=ایتالیا، منطقه=توسکانی، شغل=خواننده و سن=53 است، محاسبه کنم. اما اگر فقط دو مدخل با آن معیارها مطابقت داشته باشند چه؟ کشور منطقه شغل سن درآمد ایتالیا توسکانی سینگر 53 22500 ایتالیا توسکانی خواننده 53 13700 I can then maybe at e.g. سنین 50-56 در توسکانی برای گرفتن نمونه بزرگتر. همچنین میتوانم به میانگین درآمد همه خوانندگان 53 ساله در کل ایتالیا نگاه کنم و اگر درآمد در توسکانی به طور کلی با بقیه ایتالیا متفاوت باشد، آن را تنظیم کنم. بنابراین به صورت دستی و شهودی میتوانم یک عدد را حدس بزنم، اما باید بتوانم به رایانه بگویم چگونه این کار را انجام دهد... ## 3) رانندگان تاکسی لندن بزرگ در مرحله بعد، میانگین درآمد جمعیت رانندگان تاکسی 37 ساله را تخمین بزنید. لندن بزرگ، انگلستان برای این ترکیب، فرض کنید مجموعه دادهها شامل 1230 ورودی است، که باید نمونهای به اندازه کافی بزرگ باشد، بنابراین برای بدست آوردن تخمین فقط آنها را میانگین میگیرید، درست است؟ نیازی نیست به سنین یا مناطق دیگر نگاه کنید. ## 4) سوالی که من به دنبال آن هستم راهی است برای به دست آوردن تخمینی از میانگین درآمد جمعیت برای هر ترکیبی از سن، شغل و منطقه - چیزی که بدون وجود داده های زیاد (با مشاهده اطلاعات مشابه) کار می کند. داده ها اگر نمونه کوچک باشد). من تصور می کنم که شما از فرمول/روش یکسانی در 2) و 3 استفاده می کنید، اما با زیر مجموعه نمونه لندن بزرگ، وزن بسیار کمی (اما چقدر کم؟) به سنین و مناطق دیگر اختصاص داده می شود، زیرا نمونه بزرگ است. . همچنین باید معیاری از اطمینان در برآورد وجود داشته باشد، برای مثال خطای استاندارد یا فاصله اطمینان. مطمئناً این نوع مشکل باید در آمار کاملاً رایج باشد. به عنوان مثال http://en.wikipedia.org/wiki/Multilevel_model برخی از موارد مشابه را مورد بحث قرار می دهد، اما به نظر می رسد هنوز با مشکل من سازگار نیست. **اگر کسی بتواند روش ها یا مفاهیمی را نام ببرد که ممکن است به این مشکل کمک کند، بسیار مفید خواهد بود.** فقط چیزی که ممکن است مرا در مسیر درست قرار دهد - من کاملاً گیر کرده ام و حتی نمی دانم در این مورد چه چیزی را در گوگل جستجو کنم. نقطه با تشکر از شما برای خواندن! | نحوه گسترش زیر مجموعه نمونه با داده های مشابه |
49929 | من یک سوال در مورد تجزیه و تحلیل خوشه ای دارم و امیدوارم بتوانید به من کمک کنید. من نمونه ای متشکل از 30 بیمار را با مقیاس های مشابه (A، B، C، D، E، F) آزمایش کردم و دو خوشه به دست آوردم، یکی با نتایج دو مقیاس (A و B) و دیگری با نتایج چهار مقیاس متفاوت دیگر. ترازو (C، D، E، F). من میخواهم این دو خوشه را که شباهت زیادی دارند با هم مقایسه کنم تا همپوشانی خوشههای بهدستآمده در یکی و در دیگری را پیدا کنم و نتیجه را تأیید کنم. چه نوع تحلیلی باید انجام دهم؟ | مقایسه تحلیل خوشه ای |
50360 | نحوه رسم توزیع دو جمله ای برای p = 0.3، p = 0.5 و p = 0.7 و تعداد کل آزمایش ها n = 60 به عنوان تابعی از k تعداد آزمایش های موفق. برای هر مقدار p، ربع 1، میانه، میانگین، انحراف معیار و ربع سوم را تعیین کنید. آن مقادیر را به صورت نمودار کادر عمودی با احتمال p در محور افقی ارائه دهید. | توزیع دو جمله ای را رسم کنید |
66271 | من اخیراً سعی کردم راهی برای محاسبه واگرایی KL بین 2 جمعیت پیدا کنم که به طور معمول با استفاده از میانگین و واریانس هر جمعیت توزیع می شوند. اما من چندین فرمول مختلف پیدا کردم و نمیدانم از کدام یک دقیقا استفاده کنم. اولین معادله زیر از یک مقاله تحقیقاتی به نام Endo A, Nagatani F, et al. (2006). روش حداقل سازی برای متعادل کردن متغیرهای پیش آگهی پیوسته بین گروه های درمان و کنترل با استفاده از واگرایی Kullback-Leibler. Contemp Clin Trials 27 (5): 420 -31.  معادله دوم از یک سوال دیگر است: log(σ2/σ1) + ((σ12 + (μ1- μ2)² )/(2*σ2²)) - ½ آیا کسی می تواند به من کمک کند تا بفهمم کدام معادله صحیح است؟ | واگرایی کولبک-لایبلر دو توزیع نرمال |
49925 | من سعی می کنم تابع خطر را برای یک نوع جزء مکانیکی با توجه به مجموعه داده ای با زمان شروع و خرابی هر جزء محاسبه کنم. در مجموعه داده، تمام اجزاء در نهایت از کار می افتند. ابتدا، من درصد مؤلفه هایی را که بیش از 3 ماه زنده مانده اند به صورت $s = 0.458 $ محاسبه کردم. دوم، من تابع خطر را محاسبه کردم، با فرض اینکه تابع خطر برای شکست در هر دوره ثابت است، مانند این: \begin{align} h(t) &= (1-s)^{t} \\\ &= ( 1-0.458)^3 \\\ &= 0.15922 \end{align} که در آن $t$ طول هر دوره است (در این مورد، 3 ماه، اگرچه من مطمئن نیستم این). با این حال، یادداشتهایی که من دنبال میکنم تابع خطر را به این صورت محاسبه میکنند: \begin{align} h(t) &= 1-0.458^{1/3} \\\ &= 0.2292 \end{align} عدم وجود پرانتز و قدرت متفاوت من را گیج می کند. آیا من، یادداشت های من، یا هر دوی ما نادرست هستیم؟ | چگونه تابع خطر را از روی میزان بقا محاسبه کنم؟ |
92552 | با وجود خواندن مستندات فنی rpart، هنوز برای من مشخص نیست که خطای اعتبارسنجی متقاطع (xerror) چگونه محاسبه می شود. آیا با استفاده از اعتبارسنجی متقاطع 10 برابری استاندارد، آیا این بدان معناست که الف) تابع rpart، داده ها را به 10 قطعه تقسیم می کند، برای هر مجموعه 9 قطعه، یک درخت متناسب می کند و خطای پیش بینی را در هر تقسیم از یک قطعه حذف می کند و محاسبه می کند. میانگین خطاهای پیش بینی؟ در اصل، 10 درخت مختلف مناسب هستند و با یک تکه کنار گذاشته می شوند. آیا این بدان معنا نیست که درختان ممکن است متغیرهای تقسیم متفاوتی داشته باشند، و با این حال، ما خطای پیشبینی را برای هر تقسیم میانگین میکنیم و از آن برای هرس درختی استفاده میکنیم که از دادههای کامل ساخته شده است و ممکن است در هر تقسیم متغیرهای مختلفی داشته باشد؟ ب) اینکه تابع rpart داده ها را به 10 قطعه تقسیم می کند و سپس خطای پیش بینی را در هر تقسیم برای هر یک از 10 قطعه بررسی می کند، اما بر اساس یک درخت اصلی که بر روی داده های کامل ساخته شده است؟ با تشکر | خطای اعتبارسنجی متقابل Rpart |
50363 | من با این مشکل دست و پنجه نرم می کنم، آیا کسی می تواند به من بگوید چگونه می توانم مهم ترین متغیرها را از بین چندین متغیر مستقل قبل از جا دادن هر مدلی در GLM انتخاب کنم؟ من واقعا آن را قدردانی می کنم. من قبلاً چند مدل را نصب کرده ام اما برای من منطقی نیست. پیشاپیش ممنون | انتخاب مهم ترین متغیرها در GLM ها |
66276 | من روی یک مدل طبقهبندی کار میکنم که با توجه به ویژگیهای مختلف فرصت، پیشبینی میکند که آیا یک فرصت فروش در نهایت برنده یا از دست رفته خواهد بود. من از داده های آموزشی خود برای ساخت چندین مدل از جمله یک مدل جنگل تصادفی، رگرسیون لجستیک، یک مدل درخت تصمیم، مدل ada boost و ماشین بردار پشتیبانی استفاده کرده ام. هر یک از این مدلها احتمالی را به دست میدهد که برای تخصیص برچسب «برنده» یا «از دست رفته» به فرصتهای ناشناخته استفاده میشود. من از این احتمالات استفاده کرده ام، به جای دودویی «برنده» یا «باخته»، برای محاسبه مقدار مورد انتظار فرصت بر اساس ارزش آن در صورتی که در نهایت «برنده» شود. سوال من این است که چگونه باید تخمینهای این مدلهای مختلف را ترکیب کنم تا به یک تخمین کلی (احتمالاً بهتر از هر یک به صورت جداگانه) برای محاسبه مقدار مورد انتظار برسم؟ ساده ترین میانگین حسابی است که من آن را امتحان کردم. من همچنین در نظر دارم دادههای آموزشی خود را تقسیم کنم و همه مدلها را مثلاً بر روی 70 درصد دادهها آموزش دهم. سپس، از مدلها برای تولید احتمالات در 30 درصد باقیمانده استفاده کنید و سپس یک رگرسیون لجستیک نهایی را بر روی آن 30 درصد با استفاده از احتمالات برآورد شده از مدلهای اصلی به عنوان ورودیهای رگرسیون لجستیک آموزش دهید. سپس، بهجای استفاده از میانگین حسابی تخمینها در فرصتهای جدید، دو مرحله را انجام میدهم، ابتدا تخمینهایی را از مدلهای آموزشدیده بر روی 70% دریافت میکنم، سپس با استفاده از آنها به عنوان ورودی مدل لجستیک، یک تخمین نهایی را دریافت میکنم. . این قلمرو جدید برای من است، بنابراین هرگونه توصیه، ایده جدید، یا مطالعه پیشنهادی بسیار قدردانی می شود. | استفاده از یک مدل لجستیک بر روی برآورد چندین مدل طبقه بندی دیگر |
92558 | آیا می توان با استفاده از تئوری پاسخ آیتم، ساختار تست را در مجموعه ای از موارد استنباط کرد؟ به طور خاص، من تغییرات زیادی در وظیفه یادآوری داستان ایجاد کردهام، هر کدام از تغییرات در ۲۵ جزئیات بهعنوان قبول/شکست نمرهگذاری میشوند. از اجرای آن مشخص است که مردم «تکههایی» از داستانها را به خاطر میآورند، که نشاندهنده یک ساختار آزمایشی واضح است. بنابراین، فرض IRT ساده اقلام مستقل، داده ها را به خوبی نشان نمی دهد. به جای حدس زدن، می خواهم عضویت (احتمالی) آزمون هر مورد را از داده ها استنتاج کنم. من در حال حاضر IRT بیزی را با استفاده از مدل Rasch و JAGS برای نمونه برداری انجام می دهم. اما هر گونه فکری در مورد چگونگی انجام این کار قابل قدردانی خواهد بود. | استنباط ساختار آزمایشی در نظریه پاسخ آیتم |
24251 | دادههای نظرسنجی پیچیده معمولاً توسط مرکز ملی آمار سلامت (NCHS) یا NSLY تهیه میشود. معمولاً حاوی اطلاعات مربوط به PSU، لایه ها و وزن ها است. برای ساختن نمونههای نماینده ملی، به طور سنتی یک رگرسیون وزنی انجام میشود که طراحی نمونهگیری را با خطیسازی تیلور (یعنی آنالوگ بررسی با خطاهای Huber-White) محاسبه میکند. من به تحلیلهای همسان (مثلاً برنامه King's MatchIt) به عنوان روشی برای بهبود استنتاج علی علاقهمندم. آنچه از نگاه اول مبهم باقی میماند این است: (1) چه معیارهایی باید برای تعیین اینکه چه زمانی تحلیلهای همسان با دادههای نظرسنجی پیچیده مناسب هستند، استفاده شود. و (2) چگونه چنین تجزیه و تحلیل های منطبق باید وزن و/یا نمونه برداری نظرسنجی را در نظر بگیرند. درک من از (1) این است که هیچ تفاوتی در مورد این تحلیلها نسبت به تحلیلهای دیگر وجود ندارد، اما ممکن است/باید استنتاج و کارایی را زمانی که تعداد موارد منطبق کم است بهبود بخشد. در مورد (2)، درک من این است که توصیههای رایج شامل وزنها، و نه طرح نمونهگیری، در تطابق (به عنوان مثال، رگرسیون لجستیک وزندار برای ایجاد امتیازات تمایل) و نه استنتاج علی بعدی را پیشنهاد میکنند. آیا ساختار نمونه گیری (به عنوان مثال، PSU، اقشار) نباید در نظر گرفته شود؟ از هرگونه ارجاع، پیشنهاد، تایید یا تناقض با آنچه در بالا آمده استقبال می شود. | تجزیه و تحلیل همسان با داده های نظرسنجی پیچیده |
66278 | من یک مدل جغرافیایی سه بعدی از داده های اشباع را کریج می کنم. اشباع آب ($SWT$)، اشباع گاز ($SGT$) و اشباع نفت ($SOT$) وجود دارد. یک محدودیت این است که اشباع ها باید تا یک جمع شوند. ($SWT + SGT + SOT = 1$). من مدلهای SWT و SGT را میخواهم و واقعاً به اشباع روغن اهمیت نمیدهم، اما برای راضی شدن به $SWT + SGT <= 1$ نیاز دارم. من یک مدل کریگد اشباع آب ($SWT$) دارم. من یک مدل $SGT$ را کریگ کردم، اما در برخی مناطق کوچک مدل های کریگ شده $SWT + SGT > 1$. ایده من این بود که مدل کریگ شده $SWT$ را حفظ کنم، و $SGT$ و $SOT$ را با کل اشباع هیدروکربنی استاندارد کنیم، $SHT = 1 - SWT$: $SGT_{standardized}=SGT/{(1-SWT) )}$SOT_{standardized}=1-SGT_{standardized}$ سپس مدلی از $SGT_{استاندارد شده}$. سپس، من باید تبدیل را پشتیبان کنم: $SGT = SGT_{استاندارد شده}(1-SWT)$ این به نظر می رسد تضمین کند که من یک مدل زمین آماری به دست می آورم که $SWT + SGT <= 1$ باشد. با این حال، من نگران هستم که این تحول ممکن است برخی از سوگیری ها را معرفی کند؟ اگر میانگین داده های SGT را داشته باشم: $E[SGT] = x$ و میانگین SGT استاندارد شده است: $E[SGT_{استاندارد شده}] = y$ حال، اگر من میانگین استاندارد شده را تغییر دهم چه می شود SGT $y(1-E[SWT])\neq x$ نزدیک به x است، اما برابر x نیست. آیا این به این معنی است که تبدیل بایاس است؟ یا اینکه برآورد من از $SGT$ مغرضانه خواهد بود؟ | تبدیل داده ها با ارائه یک سوگیری در مدل زمین آماری کریگد؟ |
58439 | من سعی می کنم یک مشکل ساده را انجام دهم. من مجموعه ای از اعداد صحیح دارم: $$N={1, 2, 3, 4, 5, 6} $$ من می خواهم این عناصر را در مجموعه ای از ترکیبات به اندازه $k=3$ از این مجموعه ترکیب کنم، یعنی $. C_6^3$، جایی که $n=|N|$. با این حال، من میخواهم هر مجموعه ترکیبی با اندازه 3 حداقل یک عنصر مجموعه داشته باشد: $$M={1, 2}$$ احتمال اینکه مجموعه $C_6^3$ از $N$ حداقل یک عنصر داشته باشد چقدر است. M$؟ من معتقدم که می خواهم احتمال مجموعه من دارای 1 یا بیشتر عنصر $M$ باشد. با استفاده از قانون احتمال کل من نیاز دارم که احتمال مجموعه حاصل کمتر از 1 عنصر M$ داشته باشد. من می دانم که این مسئله با استفاده از ترکیبات راه حل آسانی دارد، اما می خواهم با استفاده از قانون احتمال کل انجام دهم. | احتمال عناصر $C_n^k$ که شامل حداقل عناصر K باشد |
92554 | اگر من یک متغیر x داشته باشم که lognormal است (mu=0، sd=.1) و بگویم میخواهم P(x < 0.90) را محاسبه کنم، آیا میتوانم بگویم P(x <.90) = P (log(x ) < log(.90) ) ? با توجه به کتابی که از آن می خوانم، به نظر می رسد این درست باشد، اما دلیل آن را نمی فهمم. من می دانم که log(x) نرمال است (mu=0، sd=.1)، اما متوجه نمی شوم که چرا مقدار cdf مربوط به log(0.90) از توزیع نرمال همان مقدار cdf 0.90 را دارد. توزیع لگ نرمال | احتمالات ناشی از توزیع لگ نرمال |
72037 | اگر شرط را بردم 200 دلار می گیرم و احتمال برد من 0.1 است و اگر ببازم 20 دلار می دهم. آیا باید شرط بندی کنم؟ | آیا باید شرط بندی کنم؟ |
28581 | من یک مجموعه داده دارم که دارای 600 مشاهده است که به دو گروه تقسیم شده اند. من قصد دارم گرایش های مرکزی (مثلاً وسایل) این دو گروه را با هم مقایسه کنم. با این حال، نقض مفروضات کلاسیک موجود، مانند نرمال بودن و برابری واریانس ها وجود دارد. * آیا می توانم از یک رویکرد پارامتری (مخصوصاً آزمون t) استفاده کنم، زیرا حجم نمونه ها بزرگ است (بر اساس قضیه حد مرکزی)، یا باید از رویکرد ناپارامتریک استفاده کنم؟ * اگر باید از یک رویکرد ناپارامتریک استفاده کنم، کدام آزمون (من ویتنی، میانه یا کولموگروف-اسمیرنوف) مناسبتر است؟ | استفاده از آزمونهای ناپارامتریک برای مقایسه دو گروه زمانی که حجم نمونه بزرگ است اما مفروضات نقض میشوند. |
24253 | ما یک پایگاه داده با کشورهای مختلف داریم و هر کشور در تعدادی از صنایع تقسیم شده است. ما می خواهیم معیار جدیدی برای سودآوری صنعت ایجاد کنیم که میانگین هر صنعت در هر کشور باشد. دستور در Stata چه خواهد بود؟ ما قبلا معیاری برای سودآوری داریم. | چگونه میانه را به شرط چندین عامل در داده های سلسله مراتبی محاسبه کنیم؟ |
50366 | معلم من 50 سوال آزمون احتمالی را به ما داد که از بین آنها 25 سوال را به طور تصادفی انتخاب می کند تا ما را امتحان کند. از 25، سپس میتوانیم 10 مورد را برای انجام انتخاب کنیم که او به 8 بهترین نمره میدهد. سوال این است که چند مشکل را نمی توانم (از 50 مورد) مطالعه کنم و هنوز 100 در آزمون تضمین شود؟ (با فرض اینکه آنهایی را که مطالعه می کنم، کاملاً انجام می دهم) | چگونه می توانم بگویم این احتمال است؟ |
24259 | من می خواهم نتایج چندین روش تشخیصی را در یک جمعیت برای شناسایی یک بیماری مقایسه کنم. به طور خاص تر، من می خواهم حساسیت روش ها را مقایسه کنم (همه 100٪ ویژگی دارند) و مایلم ملاحظات هزینه را نیز لحاظ کنم. آیا کسی می تواند به منابع اطلاعاتی در مورد روش مناسب برای تجزیه و تحلیل و گزارش هزینه-فایده یا اثربخشی به من اشاره کند؟ خیلی ممنون | هزینه فایده/اثربخشی |
44465 | من با مشکلی روبرو هستم که در آن یک متغیر مستقل، که نباید قدرت پیش بینی بر روی متغیر وابسته بر اساس دانش دامنه داشته باشد، با مقدار p بسیار کوچک ظاهر می شود زیرا اندازه نمونه بسیار بزرگ است (~100000). اگر من فقط از کمتر از 5000 نقطه داده استفاده کنم، آنگاه مقدار p به اندازهای بزرگ میشود که از قبل حمایت کند که متغیر ناچیز است. با این حال، من فکر نمیکنم تغییر حجم نمونه برای رسیدن به نتیجه مطلوب، عمل خوبی باشد. آیا روشی برای تنظیم مقدار p کوچک صرفاً به دلیل حجم نمونه زیاد وجود دارد؟ | نحوه تصحیح مقدار p کوچک به دلیل حجم نمونه بسیار زیاد |
24789 | من نمی دانم که آیا راهی برای محاسبه نسبت شانس ترکیبی برای SNP های خاص در یک متاآنالیز چندین GWAS وجود دارد، حتی زمانی که شما SE و نه بتا را برای هر مطالعه جداگانه ندارید؟ متشکرم | نسبت شانس ترکیبی |
24782 | من حدود 400 قطعه نقره در ابعاد مختلف هندسی دارم. آنها به شش گروه تقسیم شدند و هر گروه یک سری تست های استرس مانند خم شدن، کشیدن، آتش زدن برای مدتی و غیره را انجام دادند. درمان هایی که برای شش گروه انجام شد یکسان نبود، اما نسبتاً عادلانه بود. مشابه اندازه شش گروه یکسان نبود. قطعات یا در مرحله ای شکستند و به عنوان موفقیت ثبت شد یا نشد که به عنوان یک شکست ثبت شد. زمان هر موفقیت نیز ثبت شد. تعداد موفقیتها حدود 80 مورد بود. هدف من ساخت یک مدل پیشبینیکننده برای تعیین اینکه آیا یک تکه نقره بر اساس ابعاد فیزیکی آن و روشی که انجام میشود، میشکند یا خیر. من تا حدودی در ساخت یک مدل با استفاده از ابعاد فیزیکی موفق بوده ام، اما افزودن جنبه های مختلف درمان (مثلا کل زمان صرف شده در آتش) به هیچ وجه باعث بهبود عملکرد نشد. من حتی سعی کردهام ویژگیهایی (مثلاً فشار کلی روی فلز در جهات مختلف، فشار کلی روی فلز و غیره) را بر اساس ابعاد فیزیکی و درمان برای هر قطعه جداگانه ایجاد کنم، اما حتی اینها هم هیچ چیزی اضافه نکردند. عملکرد پیش بینی کننده چگونه می توانم اطلاعات درمان را به گونه ای ترکیب کنم که به قدرت پیش بینی من بیفزاید؟ واضح است که درمان عاملی برای شکستن یا عدم شکستن یک قطعه است و باید به نوعی در جایی خود را نشان دهد. N.B. من هیچ کنترلی روی طراحی درمان نداشتم و آزمایش نمونه های بیشتر با سایر درمان ها برای من گزینه ای نیست. من بسیار قدردان هر پیشنهاد یا نظری هستم. با تشکر فراوان | گنجاندن یک درمان در یک طرح طبقه بندی |
73780 | من در حال طراحی یک مدل شبکه عصبی هستم که تخمین پارامترهای حفظ آب van genuchten (theta_r، thera_s، alpha، n) را با استفاده از دادههای ورودی محدودتر مانند بافت، چگالی حجمی و یک یا دو احتباس آب پیشبینی میکند. با بررسی شبکه های عصبی در پروژه R، بسته RSNNS را پیدا کردم و پرسپترون های چند لایه (MLP) را با تنظیم تعداد واحدهای پنهان و نرخ یادگیری ایجاد و آموزش دادم. عملکرد کلی که با آموزش و آزمایش RMSE برای این مدل ها مشخص می شود، واقعا ضعیف و تصادفی است، در واقع، من از مقادیر تغییر شکل log پارامترهای آلفا و n استفاده کردم تا از سوگیری جلوگیری کنم و توزیع تقریباً لگ نرمال آنها را در نظر بگیرم، اما این کمک زیادی نمی کند. می دانم که اشتباه می کنم، کد من این است: #input database basic <- read.table(url(https://dl.dropboxusercontent.com/s/m8qe4k5swz1m3ij/basic.txt?dl=1&token_hash=AAH6Z3d6fWTLoQZYi04Ys72sdufdERE5gm4v7QeF0)، headergm4v7QeF0)، headergm4v7QeF0) نصب شده <- read.table(url(https://dl.dropboxusercontent.com/s/rjx745ej80osbbu/fitted.txt?dl=1&token_hash=AAHP1zcPQyw4uSe8rw8swVm3Buqe3TP_7Ie1j-4، head3TP_7Ie1j-4 #استفاده از مقادیر تغییر شکل داده شده آلفا و n پارامتر خروجی fitted$alpha <- log(fitted$alpha) fitted$n <- log(fitted$n) #require RSNNS package library(RSNNS) #تقسیم مجموعه داده ورودی و خروجی < - splitForTrainingAndTest (پایه، برازش، نسبت = 0.15) مدل چند لایه #RSNNS پرسپترون با تنظیم تعداد واحدهای پنهان و پارامتر سرعت یادگیری , learnRate) rownames(parameterGrid) <- paste(nnet-, application(parameterGrid, 1, function(x) {paste(x,sep=, collapse=-)}), sep=) set.seed(1) models <- application(parameterGrid, 1, function (p) {mlp(dataset$inputsTrain, dataset$targetsTrain, size=p[1], learnFunc=SCG, LearnFuncParams=c(p[2], 0.1), maxit=200, inputsTest=dataset$inputsTest, targetsTest=dataset$targetsTest) }) #plotting errors it every model par(mfrow=c(4,3)) for(modInd در 1: طول (مدل ها)) plotIterativeError(models[[modInd]], main=names(models)[modInd]) #RSME برای هر مدل آموزش داده trainErrors <- data.frame(lapply(models, function(mod) { error <- sqrt(mean(( mod$fitted.values - مجموعه داده$targetsTrain)^2)) خطا })) t(trainErrors) #RSME برای تست دادههای تست هر مدل Errors <- data.frame(lapply(models, function(mod) { pred <- predict(mod,dataset$inputsTest) خطا <- sqrt(mean((pred - database$targetsTest)^2 )) خطا })) t(testErrors) #انتخاب بهترین مدل trainErrors[which(min(trainErrors) == trainErrors)] testErrors[which(min(testErrors) == testErrors)] model <- models[[which(min(testErrors) == testErrors)]] model.main <- names(models)[[which(min (testErrors) == testErrors)]] #plotting results par(mfrow=c(2,2)) plotIterativeError(model, main = model.main) plotRegressionError(dataset$targetsTrain, model$fitted.values) plotRegressionError(dataset$targetsTest, model$fittedTestValues) hist(model$fitted.values - مجموعه داده$targetsTrain) NN دارم فکر می کنم طراحی مجموعه داده ها تجزیه و تحلیل با روش بوت استرپ ترکیب شده است، اما من نمی دانم چگونه. هر پیشنهادی برای همیشه سپاسگزار خواهد بود. | پیشبینی بد مدلهای شبکههای عصبی چندلایه |
72032 | من می خواهم دو نسبت را مقایسه کنم، مثلاً $p_1$ و $p_2$. من میخواهم عدد تهی را آزمایش کنم که $\pi_1 = \pi_2$ که $\pi_i$ نسبت ناشناخته واقعی برای نمونه $i$ است. مشکل این است که من حجم نمونه را که مبنای محاسبه $p_2$ است نمی دانم و از این رو نمی توانم از آزمون استاندارد دو نمونه ای و نسبت مستقل استفاده کنم. آیا می توانم به جای آن فرض کنم که $p_2$ یک مقدار ثابت است و سپس یک تست استاندارد تک نمونه ای را انجام دهم؟ آیا رویکرد بهتری وجود دارد؟ | تست نسبت ها زمانی که اندازه نمونه مشخص نیست |
73788 | برای استفاده از همبستگی پیرسون برای اندازه گیری شباهت دو سری زمانی، آیا توزیع نرمال هر دو سری زمانی شرط لازم است؟ | همبستگی پیرسون برای سری های زمانی به داده های توزیع شده نرمال نیاز دارد؟ |
72017 | فرض کنید VAR روی (x,y) است و من میخواهم یک عبارت ARMA(2,1) برای x دریافت کنم، چگونه میتوانم این کار را انجام دهم؟ برای مثال، $\left[ \begin{array}{l} x_t\\\ y_t \end{array} \right] = \left[ \begin{array}{l} c_1\\\ c_2 \end{array} \right] + \left[ \begin{array}{l} 0.2\\\ \alpha \end{array} \begin{array}{l} 0.3\\\ 0.1 \end{array} \right] \left[ \begin{array}{l} x_{t - 1}\\\ y_{t - 1} \end{array} \right] + \text{} \left [ \begin{array}{l} \varepsilon_{1 t}\\\ \varepsilon_{2 t} \end{array} \right],$ سپس، $\begin{array}{lll} y_t & = & c_2 + \alpha x_{t - 1} + 0.1 y_{t - 1} + \varepsilon_{2 t}\\\ & = & c_2 + \alpha x_{ t - 1} + 0.1 (c_2 + \alpha x_{t - 2} + 0.1 y_{t - 2} \+ \varepsilon_{2 t - 1}) + \varepsilon_{2 t}\\\ & = & \ldots . \end{آرایه}$y_t = 1.1 c_2 + \alpha \sum_{j = 0}^{\infty} (0.1)^j x_{t - j - 1} + \sum_{j = 0}^{\ infty} ( 0.1)^j \varepsilon_{2 (t - j)}$ خوب است؟ | آیا می توانم یک نمایش ARMA(2،1) تک متغیره از یک فرآیند VAR دو متغیره دریافت کنم؟ |
72039 | مایلم به طور خودکار (نه با بازرسی بصری) تشخیص دهم که انحرافات بزرگ در یک نمودار باقیمانده از یک رگرسیون در کجا رخ می دهد. به عنوان مثال، فرض کنید من نمودار باقیمانده را در زیر دارم:  من میخواهم مشاهدات حدود 30:35 را به طور خودکار تشخیص دهم که انحراف از یک الگوی باقیمانده معمولی برخی از سرنخ ها حاکی از آن است که بزرگی بسیار زیاد است و باقیمانده ها در این منطقه مستقل به نظر نمی رسند. چگونه می توانم در این مورد اقدام کنم؟ | تشخیص الگوها در نمودار باقیمانده |
1469 | آیا کسی می تواند متنی را با مشتقاتی از نتایج کارایی برآوردگر کلاسیک توصیه کند؟ من به ویژه به برآوردگرهای احتمال و شبه احتمال برای مدل های گسسته چند متغیره علاقه مند هستم. | آغازگر در مورد بهره وری تخمینگر؟ |
72030 | من داشتم این مقاله را مرور می کردم و مشکلی را می خواندم (نوع کمند) که با استفاده از آستانه نرم حل می شد، اما متوجه نشدم که چگونه به دست آمده است. کسی میتونه لطفا چند پیشنهاد ارائه کنه؟ من متوجه نشدم که چگونه $\mu = -c +S(c-b/a,\lambda/a)$ $f(\mu) = \frac{1}{2}a\mu^2 + b\mu + \lambda|c+\mu|)$\ $\underset{\mu}{\operatorname{argmin}} f(\mu)$ = $\underset{\mu} {\operatorname{argmin}} {\; \mu^2 + 2*b/a\mu + 2*\lambda/a|c+\mu|}$\ اگر $\mu$ برابر با 0 نباشد با گرفتن مشتق wrt $\mu$ و معادل 0 ما دریافت\ \nwline $2\mu + 2b/a + 2\lambda/a*sign(u) = 0$\ یا $\mu = -b/a - \lambda/a*sign(\mu)$\ اگر $\mu$ > 0\ $\mu = -b/a - \lambda/a$\ از آنجایی که c یک کمیت مثبت است، $c -b/a-\ lambda/a$ > 0 و با استفاده از عملگر آستانه در مقاله به صورت \ $\mu = -c + S(c-b/a,\lambda/a)$\ S(z,r) = sign(z) max{|z|-r,0} می توانم $\mu = -b/a-lambda/a$\ را دریافت کنم حالا اگر $\mu < 0$ باشد، $\mu = -b/a + \lambda/ را دریافت می کنم a$ من گیج شده ام که چگونه می توان این شرط را از عملگر آستانه ارائه شده در مقاله بدست آورد. همچنین شرط زمانی که $\mu$ = 0  | سردرگمی مربوط به اشتقاق تابع آستانه نرم |
79042 | من نمیپرسم برای PCA که برای آن متغیرهای عددی خود را تغییر مقیاس میدهم، باید متغیرهای ساختگی خود را نیز تغییر مقیاس دهم؟ من در اینترنت خوانده ام که نباید انجام دهم اما دلیل آن را نمی دانم. حدس میزنم این سوال بسیار شبیه به این سوال است: آیا برای LASSO باید مقیاس مجدد شاخص / باینری / پیشبینیکننده ساختگی انجام شود، اما در مورد پاسخ مطمئن نبودم. اگر خیر لطفاً دلیل آن را توضیح دهید. با تشکر | آیا نیاز به تغییر مقیاس متغیرهای ساختگی برای PCA دارم؟ |
72034 | من سعی می کنم از JAGS برای پیش بینی از مدل فضای حالت استفاده کنم. من از JAGS برای تخمین پارامترها در مدل و پیش بینی استفاده می کنم. من نمودار هیست را برای a.new و r.new رسم می کنم، نمودار r.new شبیه توزیع دوجمله ای نیست. من با این نمودار خیلی گیج شدم. واضح است که نمی توانم به این شکل پیش بینی کنم.  require(R2jags) modelfile <- cat( model { for (t in 1:N) { r[t] ~ dbin(p[ t],66) ## r.new[t] ~ dbin(p[t],66) logit(p[t]) <- a[t,1] + a[t,2]*x[t] } ## پیشبینی کنید r.new ~ dbin(p[N],66) a.new ~ dmnorm(a[N-1,],P[,]) برای ( t در 2:N) { a[t,1:2] ~ dmnorm(a[t-1,],P[,]) } P[1:2,1:2] ~ dwish(T[,],2) T[1,1] <- 1000 T[2,1] <- 0 T[1,2] <- 0 T[2,2] <- 1000 برای (i در 1 :2) { a[1,i] ~ dnorm(0,0.001) } }, file=tvad1_os.txt) mcmcchains = 3 mcmcthin = 1 mcmcburn = 5000 samples2Save=20000 jags.params = c(a.new, r.new) N=100 x=c(1,1.5,2.2,2,2.8,3,3.6,3.2,3.3,3.5,4.2,4.9,5.5,6.5,7.5,7.7,8.2,8,7.9,7,6.5,5.9,6.5, 6.7، ، 4.4،4. 5،3.8،3.7،3.7،4،4،4.2،3.7،3.5،3،2.9،2.6،3.3،3.7،4.4،4.1،4.8،4،3.8،3.3،3،2.7،2.6،2.2،2.2، 1. 8،1.8،1.5،1.5،1.3،1.3،1.1،1.1،1،0.9،0.9،0.6،0.8،0.8،0.8،0.7،0.5،0.8،0.9،1.3،2،2.5،3،3.1) r=c(8,14,18,20,19,22,27,23,23,NA,NA,NA,31,35,26,31,29,29,29,28,27,27,21, 26 ,30,30,26,33,22,28,22,16,17,22,19,17,24,25,24,19,29,23,28,34,29,29,34,30,20 ,36,22,22,26,22,20,29,18,29,20,22,20,NA,NA,NA,22,32,27,29,27,23,25,25,15,2 0,14,15,15,17,15,10,14,11,13,5,17,11,14,5,15,7,10,10,15,7,9,13,11,12, 15، NA) jags.data <- list(x=x,r=r,N=N) tvad= jags(jags.data, inits = NULL, parameters.to.save= jags.params,model.file=tvad1_os.txt n.chains = mcmcchains، n.thin = mcmcthin، n.burnin = mcmcburn، n.iter=(mcmcburn+samples2Save)، DIC = FALSE) gelman.diag(as.mcmc(tvad)) temp=do.call(rbind، as.mcmc(tvad)) par(mfrow=c(3،1) ) hist(temp[,1],xlab=a1,main=) hist(temp[,2],xlab=a2,main=) hist(temp[,3],xlab=r,main=) | یک سوال در مورد ساخت پیش بینی از مدل فضای حالت |
24780 | من روی پروژه ای کار می کنم که در آن سعی می کنم یک جفت سند را بردارم و کلمات و عبارات مشابه را بین آنها پیدا و گروه بندی کنم (خوشه ای). کدام الگوریتم می تواند این نوع مشکل را حل کند؟ میدانم که این یک سؤال بسیار پیش پا افتاده و احتمالاً ذهنی است، اما من در خوشهبندی جدید هستم، و هنوز هم سعی میکنم راهم را در مورد واژگان کار کنم. کمک شما قدردانی خواهد شد. | الگوریتم هایی برای خوشه بندی اسناد با کلمات و عبارات مشابه |
1462 | فرض کنید می خواهم یک شبیه ساز فوتبال بر اساس داده های واقعی بسازم. بگویید من بازیکنی دارم که میانگین 5.3 یارد در هر حمل با SD 1.7 یارد دارد. من می خواهم یک متغیر تصادفی ایجاد کنم که چند بازی بعدی را شبیه سازی کند. به عنوان مثال: 5.7، 4.9، 5.3، و غیره. چه شرایط آماری را باید جستجو کنم تا این ایده را دنبال کنم؟ تابع چگالی؟ منحنی نرمال تخمین می زند که داده ها معمولاً در چه مرزهایی قرار می گیرند، اما چگونه می توانم آن را به شبیه سازی نقاط داده بعدی ترجمه کنم؟ با تشکر از هر گونه راهنمایی! | استفاده از Std.Dev و Mean برای تولید نقاط داده فرضی/اضافی؟ |
79049 | من مدلی دارم که توسط تابع **coxph** ایجاد شده است و تناسب خطرات را با استفاده از تابع **cox.zph** بررسی کردم. coxph(فرمول = Surv(OS، OSCheck) ~ سن + جنس + درجه هیستولوژی + RTCT + مرحله پاتولوژیک + مرحله پاتولوژیک + تومور باقیمانده + سیکل های شیمی درمانی + کمکی + RTوقفه غیرمنتظره روزهای دو دلیل پزشکی، 7 = تعداد داده ها، تعداد داده ها، 8 = 8 مجموعه داده. 428 coef exp(coef) se(coef) z Pr(>|z|) سن 0.016781 1.016923 0.004548 3.690 0.000224 جنسیت 0.218564 1.244289 0.10019 0.10018 Gradeofhistology 0.483098 1.621089 0.105719 4.570 4.89e-06 RTCT -0.309947 0.733485 0.111247 -2.786 0.0053334 0.0053334 Pathological 0.126524 3.353 0.000799 مرحله پاتولوژیک 0.626894 1.871787 0.067099 9.343 < 2e-16 تومور باقیمانده 0.655163 1.92548551.9254851-1.9254851-1010. Chemotherapy Cyclesadjuvant -0.054194 0.947248 0.015549 -3.485 0.000492 RT وقفه غیرمنتظره 0.016878 1.017021 0.005063 0.005063 3.308 3.308=3.303. (se = 0.015 ) Rsquare = 0.127 (حداکثر ممکن = 0.964) آزمون نسبت درستنمایی = 244.6 در 9 df، p=0 آزمون Wald = 279.2 در 9 df، p = 0 امتیاز (logrank) آزمون = 319.5 در p. 0 سه مورد از 9 متغیر کمکی مهم در به نظر می رسد خروجی از فرض تناسب پیروی نمی کند rho chisq p سن 0.0122 0.0684 7.94e-01 جنسیت 0.0618 1.6171 2.03e-01 Gradeofhistology -0.1836 14.7069 -0.1836 14.7069 -0.269 1.269 - 1.269 7.94e-01 6.78e-01 PathologicalTstage 0.0205 0.1847 6.67e-01 PathologicalNstage -0.1006 4.4607 3.47e-02 تومور باقیمانده -0.0669 1.9260 1.65e-01. 7.5641 5.95e-03 RTوقفههای غیرمنتظره روزها به دلایل پزشکی -0.0199 0.2091 6.48e-01 GLOBAL NA 34.9298 6.13e-05 مانند این مورد در تصویر احساس شد  به نظر می رسد این متغیر کمکی (مانند سایر متغیرهایی که از فرض PH پیروی نمی کنند) بیش از همه بر مقدار ضریب در 2 سال اول پیگیری تأثیر می گذارد. و پس از آن ارزش از اهمیت کمتری برخوردار می شود. من مدل دیگری را با استفاده از تبدیل زمان ایجاد کرده ام اما می خواهم فرضیات PH را برای متغیرهای کمکی تبدیل شده آزمایش کنم. **cox.zph** به نظر نمی رسد (خطا می دهد) برای ارزیابی متغیرهای کمکی تبدیل شده به زمان مدل Cox PH. چگونه می توانم آن را انجام دهم؟ | بررسی cox.zph در R پس از تبدیل زمانی متغیرهای کمکی |
114112 | من در تصمیم گیری برای استفاده از نوع تجزیه و تحلیل برای داده های زیر مشکل دارم: من دو گروه دارم (یک کنترل، یک درمان) و یک پیش اندازه گیری از متغیر وابسته خود و سپس 3 اندازه گیری پس از آن انجام دادم. من علاقه مند به درک این هستم که آیا درمان در طول مطالعه بر متغیر وابسته تأثیر گذاشته است یا خیر. من در ابتدا rmANOVA را انجام دادم و هیچ اثر متقابل قابل توجهی (درمان در زمان) پیدا نکردم، اما اثر اصلی درمان را پیدا کردم. فکر میکنم این بدان معناست که گروه درمان با گروه کنترل در کل مطالعه، از جمله قبل از شروع درمان، متفاوت بود. سوال من این است که آیا تجزیه و تحلیل بهتری وجود دارد که به این موضوع توجه کند که آیا گروه ها در واقع قبل از درمان متفاوت بودند؟ با آزمون t، آنها متفاوت نبودند، اما به نوعی با همه داده ها در طول آزمایش، آنها متفاوت هستند. با تشکر | تجزیه و تحلیل قبل از پست با چند اندازه گیری پست |
72016 | من از بسته «flexsurv» (در «R») استفاده میکنم تا توزیع نمایی را در مجموعه داده «کهنهکار» در «بقا» جا بدهم. من می خواهم پارامتر نرخ توزیع نمایی و همچنین تخمینی از خطای استاندارد MLE را تخمین بزنم. در اینجا مقداری کد (و خروجی) وجود دارد: library(flexsurv) testPatients <- subset(veteran,trt==2) testPatSurvObj <- with(data=testPatients,expr={Surv(time,status,type=right)}) ### متناسب نمایی expFit <- flexsurvreg(testPatSurvObj ~ 1، dist=exp) expFit$res ### est L95% U95% ### rate 0.007341177 0.005746003 0.009379195 expFit$res.t ### est L95% U95% ### rate -4.91414 -4.9142. من میبینم که «expFit$cov» ماتریس کوواریانس تخمینهای پارامتر است، با پارامترهای مثبت در مقیاس گزارش، اما نمیدانم چگونه میتوانم از این واقعیت برای تبدیل «expFit$cov» به چیزی استفاده کنم که بتوانم از آن استفاده کنم. یک فاصله اطمینان 95 درصدی (مثلاً) بر اساس نرمال ایجاد کنید. | خطاهای استاندارد از flexsurvreg |
73785 | به نظر میرسد که اغلب چیزی که کسی واقعاً میخواهد ترسیم کند نوعی فاصله اطمینان است، اما استفاده از SE برای این منظور من فکر میکنم تنها چیزی شبیه به یک باند اطمینان 68٪ را شامل میشود. بنابراین، رسم SE برای نوارهای خطا به جای یک باند وسیع تر که نشان دهنده سطح اهمیت تجزیه و تحلیل شما است، به صورت بصری نشان دهنده اهمیت داده های شما است که ممکن است در واقع وجود نداشته باشد. مثال عینی زیر را در نظر بگیرید: set.seed(123) X <- rnorm(100, 0, 1) Y <- rnorm(100,1.7,5) df = data.frame(X,Y) boxplot(df) se. x = sd(X)/sqrt(طول(X)) se.y = sd(Y)/sqrt(طول(Y)) X.err.CI = 1.96*se.x Y.err.CI = 1.96*se.y نمودار(1:2، colMeans(df)، ylim=c(-1،3)، xlim = c(0.5،4.5 ), col=سبز تیره , main=مقایسه نوارهای SE در مقابل 95% CI) خطوط(c(1,1), c(mean(X) + X.err.CI، mean(X) - X.err.CI)، col=سبز تیره) خطوط (c(2،2)، c(mean(Y) + Y.err.CI، mean(Y ) - Y.err.CI)، col=سبز تیره) text(1:2 + 0.2، colMeans(df)، c(X،Y)) points(3:4، colMeans(df ) col = آبی) خطوط (c(3،3)، c(mean(X) + se.x، mean(X) - se.x)، col=آبی) خطوط (c(4،4) , c(mean(Y) + se.y، mean(Y) - se.y)، col=blue) text(3:4 + 0.2، colMeans(df)، c(X،Y )) abline(v=2.5، lty=2) legend(topright ,c(95% CI, +/- SE) ,lty=c(1,1) ,pch=c(1,1) , col=c(سبز تیره، آبی) )  اگر فقط تحلیل خود را پایه گذاری کنیم در SE (تصویر سمت راست)، از نظر بصری به نظر می رسد که بین میانگین های X و Y اهمیت وجود دارد زیرا ما در نوارهای خطای خود همپوشانی نداریم. اما اگر در سطح معنی داری 5 درصد آزمایش کنیم، ترسیم نوارهای اطمینان 95 درصد نشان می دهد که به وضوح اینطور نیست. از آنجایی که ما می توانیم انتظار داشته باشیم که آزمون در سطح 32٪ هرگز مناسب نباشد، چرا حتی میله های SE را نشان دهیم زیرا احتمالاً به گونه ای تفسیر می شوند که نشان دهنده یک فاصله اطمینان هستند؟ آیا مردم از نوارهای SE به جای CI های معنادارتر استفاده می کنند زیرا محاسبه آن نسبتاً ساده تر است (به عنوان مثال استفاده از یک تابع داخلی در اکسل)؟ به نظر می رسد که ما هزینه بسیار بالایی از نظر تفسیرپذیری گرافیک خود در ازای چند دقیقه کار کمتر می پردازیم. آیا مقداری ارزش/کاربرد در نوارهای SE وجود دارد که من آن را گم کرده ام؟ برای زمینه، پس از بررسی این مقاله از من خواسته شد این را بنویسم. من از فقدان فواصل اطمینان در طرح های ارائه شده توسط نویسندگان ناامید شدم، و سپس وقتی آنها در نهایت آنها را ارائه کردند، معلوم شد که آنها فقط نوارهای SE هستند. | چرا گاهی اوقات از خطای استاندارد برای باندهای خطا در نمودارها استفاده می شود؟ |
28633 | من در حال حاضر از روشهای مختلفی برای تخمین احتمال اینکه یک متغیر تصادفی گاوسی $D$-بعدی با میانگین $\mu$ و کوواریانس $\Sigma$ در کرهای به شعاع $R$ که در مرکز مبدا قرار دارد، استفاده میکنم. یعنی من $P(|| X ||_2 <R)$ را که در آن $X \sim N(\mu، \Sigma)$ و $X \در \mathbb{R}^D$ تخمین می زنم. من نمی دانم که آیا راهی برای بدست آوردن مقدار **دقیق** این احتمال به صورت تحلیلی وجود دارد (یعنی بدون استفاده از ادغام عددی یا مونت کارلو)؟ من در حال حاضر دو رویکرد اساسی برای دنبال کردن دارم: **رویکرد 1** یافتن راهی برای ارزیابی تحلیلی انتگرال: $\int_{x \in S} (2\pi)^{-\frac{D}{2}} |\Sigma|^{-\frac{1}{2}} \exp(-\frac{1}{2} (x-\mu)^T \Sigma^{-1} (x-\mu) dx $ روی ناحیه کروی: $S = \\{||x|| <R \\} = \\{x^Tx <R^2\\}$ **رویکرد 2** از این واقعیت استفاده کنید که اگر $x باشد \sim N(\mu,\Sigma)$ سپس $(x-\mu)^T \Sigma^{-1} (x-\mu) \sim \chi^2(D) $ این نشان میدهد که $P( (x-\mu)^T \Sigma^{-1} (x-\mu) <R^2 ) = P(\chi^2(D) <R^2)$ که ارزیابی آن بسیار ساده است.. من امیدوارم که راهی برای استفاده از این واقعیت برای ارزیابی وجود داشته باشد: $P( x^T x <R^2) $. | احتمال اینکه یک RV نرمال چند متغیره در کره ای به شعاع R قرار گیرد چقدر است؟ |
28632 | من در تلاش برای حل این سوال هستم: با فرض اینکه ضریب انشعاب B، روی 2 تنظیم شده است، حداکثر تعداد زیر خوشه ها در هر گره برگ، L، روی 2 تنظیم شده است و آستانه قطر زیر خوشه های ذخیره شده در گره های برگ است. 1.5. من به طور کامل در گوگل جستجو کرده ام، اما جدا از آنچه که به نظر می رسد همان مجموعه اسلایدهایی است که به من تعاریف خشک و گرد و غباری را ارائه می دهد (هزاران بار در دانشگاه های مختلف سرقت ادبی شده است) من یک نمونه واحد (با اعداد واقعی) پیدا نکردم که به من نشان دهد چگونه واقعاً این کار را انجام دهم. الگوریتم با دست آیا کسی می تواند به من بگوید چگونه الگوریتم را اجرا کنم (و درخت را بسازم) یا جایی را به من نشان دهد که مثال هایی ارائه دهد؟ خیلی ممنون | خوشه بندی با استفاده از الگوریتم BIRCH |
111813 | من می دانم که PCA و SVD مشابه هستند - PCA میانگین را حذف می کند و SVD اینطور نیست؟ فکر میکنم من درک درستی از PCA دارم - شما از آن برای کاهش ابعاد دادهها و تفکیک آن به ترکیبهای خطی متغیرها استفاده میکنید که بزرگترین واریانس SS را توضیح میدهند. اما من نمی توانم همان مفهوم را برای SVD درک کنم - و به خصوص نمی توانم بفهمم که چه زمانی از SVD روی PCA استفاده می کنید، اگر قرار باشد آنها بسیار شبیه باشند. آیا کسی می تواند به طور خیلی ابتدایی توضیح دهد که چرا SVD را در مقابل PCA انتخاب می کنم و SVD چگونه کار می کند؟ برنامه دنیای واقعی که در آن SVD بهتر از PCA است چیست؟ | PCA در مقابل SVD - درک تفاوت و ترجیح SVD بر PCA |
72783 | من از تابع scipy.stats.gaussian_kde برای ایجاد یک KDE از مجموعه ای از نقاط $N$ در یک فضای دوبعدی استفاده می کنم: $A = \\{(x_1,y_1), (x_2,y_2), (x_3 ,y_2), ..., (x_N,y_N)\\}$ هر یک از این نقاط دارای یک خطای داده شده است. برای مثال، نقطه $(x_1,y_1)$ دارای خطاهای $(e_{x_1},e_{y_1})$ و غیره است. من می توانم فرض کنم که خطاها به طور معمول در هر دو محور توزیع شده اند. تابع python که من برای تولید KDE استفاده میکنم راهی برای ادغام این خطاها در محاسبات ندارد و من تعجب میکنم که اگر آن را به صورت دستی انجام دهم چگونه چنین کاری را انجام میدهم. به عنوان مثال: روش آماری صحیح برای ایجاد حسابداری «KDE» برای خطاهای موجود در داده های مورد استفاده چیست؟ | افزودن خطا به تخمینگر چگالی هسته گاوسی |
24781 | من دانشجوی کارشناسی ارشد کامپیوتر هستم. من در حال انجام برخی تحلیل عاملی اکتشافی برای یک پروژه تحقیقاتی بوده ام. همکاران من (که پروژه را هدایت می کنند) از SPSS استفاده می کنند، در حالی که من ترجیح می دهم از R استفاده کنم. ما از **فاکتورسازی محور اصلی** به عنوان روش استخراج استفاده میکنیم (لطفاً توجه داشته باشید که من به خوبی از تفاوت بین PCA و تحلیل عاملی آگاه هستم و از **PCA** استفاده نمیکنیم، حداقل نه عمدا). با توجه به آنچه من خوانده ام، این باید مطابق با روش محور اصلی در R، و یا فاکتورگیری محور اصلی یا حداقل مربع های بدون وزن در SPSS، طبق مستندات R باشد. ما از **روش چرخش مورب** (به طور خاص، **promax**) استفاده می کنیم، زیرا انتظار عوامل همبسته را داریم و در حال تفسیر **ماتریس الگوی** هستیم. اجرای این دو رویه در R و SPSS، تفاوت های عمده ای دارد. ماتریس الگو بارگذاری های مختلفی می دهد. اگرچه این عامل کم و بیش یکسانی را به روابط متغیر می دهد، اما بین بارگذاری های متناظر تا 0.15 تفاوت وجود دارد، که به نظر می رسد بیش از آن چیزی است که فقط با اجرای متفاوت روش استخراج و چرخش های promax انتظار می رود. با این حال، این شگفت انگیزترین تفاوت نیست. واریانس تجمعی توضیح داده شده توسط فاکتورها در نتایج SPSS حدود 40 درصد و در نتایج R 31 درصد است. این یک تفاوت بزرگ است و باعث شده است که همکاران من بخواهند به جای R از SPSS استفاده کنند. من با این مشکلی ندارم، اما یک تفاوت بزرگ باعث می شود فکر کنم ممکن است چیزی را اشتباه تفسیر کنیم، که یک مشکل است. هنگامی که فاکتورگیری حداقل مربعات بدون وزن را اجرا می کنیم، SPSS که آب را حتی بیشتر گل آلود می کند، انواع مختلفی از واریانس توضیح داده شده را گزارش می کند. نسبت واریانس توضیح داده شده توسط مقادیر ویژه اولیه 40٪ است، در حالی که نسبت واریانس توضیح داده شده از مجموع استخراج بارهای مربعی (SSL) 33٪ است. این باعث میشود فکر کنم که مقادیر ویژه اولیه عدد مناسبی برای بررسی نیست (من گمان میکنم که این واریانسی است که قبل از چرخش توضیح داده شده است، اگرچه بزرگ بودن آن فراتر از من است). حتی گیجکنندهتر، SPSS چرخش SSL را نیز نشان میدهد، اما درصد واریانس توضیحدادهشده را محاسبه نمیکند (SPSS به من میگوید که داشتن فاکتورهای همبسته به این معنی است که نمیتوانم SSLها را برای یافتن واریانس کل اضافه کنم، که با ریاضیاتی که دیدهام منطقی است). SSLهای گزارش شده از R با هیچ یک از اینها مطابقت ندارند و R به من می گوید که 31٪ از واریانس کل را توصیف می کند. SSLهای R بیشتر از همه با SSLهای چرخشی مطابقت دارند. مقادیر ویژه R از ماتریس همبستگی اصلی با مقادیر ویژه اولیه از SPSS مطابقت دارد. همچنین، لطفاً توجه داشته باشید که من با استفاده از روشهای مختلف بازی کردهام، و به نظر میرسد ULS و PAF SPSS با روش PA R نزدیکترین همخوانی دارند. سوالات خاص من: 1. چقدر باید بین R و SPSS با پیاده سازی تحلیل عاملی تفاوت انتظار داشته باشم؟ 2. کدام یک از مجموع بارهای مربعی از SPSS را باید تفسیر کنم، مقادیر ویژه اولیه، استخراج یا چرخش؟ 3. آیا مسائل دیگری وجود دارد که ممکن است نادیده گرفته باشم؟ پیشاپیش از هر پاسخی، و از هر کسی که این سوال بسیار طولانی را خوانده است، سپاسگزارم! * * * تماس های من با SPSS و R به شرح زیر است: SPSS: FACTOR /VARIABLES <variables> / Missing PAIRWISE /ANALYSIS <variables> /PRINT INITIAL KMO AIC EXTRACTION ROTATION /FORMAT BLANK(.35) /CRITERIA IATES (25) /EXTRACTION ULS /CRITERIA ITERATE(25) /ROTATION PROMAX(4). R: کتابخانه (روانی) fa.results <- fa(data, nfactors=6, rotate=promax, scores=TRUE, fm=pa, oblique.scores=FALSE, max.iter=25) | تفسیر اختلاف بین R و SPSS با تحلیل عاملی اکتشافی |
24788 | فرض کنید در حال انجام یک مطالعه مقطعی در مورد بیماری قلبی در مردان و زنان هستیم. اگر مردان 16/10000 دلاری بیماری قلبی و زنان 10/10000 دلاری بیماری قلبی داشته باشند، آیا میتوان نتیجه گرفت که خطر ابتلا به بیماری قلبی در مردان بسیار بیشتر از زنان است؟ چرا یا چرا نه؟ من فکر می کنم شما نمی توانید زیرا ما در حال مقایسه نسبت ها هستیم. نسبت شانس نداریم | محاسبه خطر بیماری |
72036 | من در حال تلاش برای تعیین اینکه آیا باید از یک آزمون ANOVA استفاده کنم یا یک آزمون ناپارامتریک. DV من رتبه بندی اعتماد در مقیاس لیکرت (1-5) و 4 IV طبقه بندی (_n_ = 496) است. توزیع داده ها در هر IV غیر طبیعی بود، همه آزمون های Shapiro-Wilk _p_ < 0.001، و آزمون Levene برای 2 مورد از 4 IV معنی دار بود. همچنین 13 نقطه پرت (که در مقیاس لیکرت نمره 5 داشتند) وجود دارد. پس از حذف موارد پرت، تنها 1 IV تست Levene قابل توجهی داشت - جنس شرکت کننده IV، که در آن اندازه گروه ها بسیار نابرابر بود (70٪ زن). انجام یک ANOVA با و بدون پرت نتایج مشابه، برابری واریانس، عدم تعامل، 1 عامل معنی دار (با نقاط پرت)، 2 عامل معنی دار (بدون پرت) را پیدا می کند. استفاده از آزمون کروسکال-والیس نیز نتایجی مشابه با ANOVA ایجاد می کند. من مطمئن نیستم که مناسب ترین تحلیل برای استفاده، پارامتری یا غیر پارامتری چیست؟ آیا مفروضات زیادی را برای ANOVA نقض کرده ام؟ هر توصیه ای بسیار قابل تقدیر است، با تشکر. | نقض مفروضات بیش از حد؟ |
28637 | من مجموعه داده هایی از ترافیک شبکه دارم که اثرات روزانه قوی از خود نشان می دهند و آنها را ثابت نمی کند. یکی از تحلیل هایی که می خواهم اجرا کنم نشان دادن همبستگی بین روزها است. اگر سریهای زمانی را به روزهای جداگانه تقسیم کنیم، چگونه 1. ... نشان میدهم سریهای زمانی فردی ثابت هستند؟ آیا استفاده از Dickey-Fuller Augmented کافی است؟ 2. ... انجام همبستگی متقابل؟ آیا محاسبه پیرسون کافی است؟ مرحله بعدی بررسی وابستگی به برد بلند است. این یک چالش سخت تر است زیرا من نمی توانم سری های زمانی را به روزهای جداگانه تقسیم کنم. هر ایده ای؟ سوال آخر مربوط به شکلی است که من پیوست می کنم، 3 سری زمانی روی آن شکل غیر ثابت هستند. من میخواهم همبستگی را بررسی کنم، آیا از خرد کردن آنها به سریهای زمانی ساعتی/روزانه کوچکتر استفاده کنم یا از روش تجزیه استفاده کنم. من با روشهای بیروند یا متفاوت آشنا نیستم. هر اشاره ای عالی خواهد بود.  | بررسی همبستگی و وابستگی طولانی مدت در داده های سری زمانی با اثرات قوی روزانه |
28638 | میخواهم دستنوشتهام را در arXiv، در بخش stat.ME (آمار- روششناسی) قرار دهم. از آنجایی که این اولین بار است که دستنوشته ای را در بخش آمار قرار می دهم، arXiv از کسی می خواهد که من را تأیید کند. هرکسی که در پنج سال گذشته دو نسخه خطی تهیه کرده باشد می تواند تایید کند. من از یک تایید قدردانی می کنم. بخش من آماردانی ندارد که قبلاً در arXiv پست گذاشته باشد. اگر می خواهید پیش چاپ را ببینید، خوشحال می شوم آن را برای شما ایمیل کنم. | برای انتشار یک پیش چاپ در arXiv به تأیید شخصی نیاز دارید |
72788 | من از پیاده سازی scikit-learn از فرآیندهای گاوسی استفاده می کنم. یک کار ساده این است که چندین هسته را به عنوان یک ترکیب خطی ترکیب کنید تا سری زمانی خود را به درستی توصیف کنید. بنابراین من میخواهم هم هسته نمایی مربعی و هم هسته تناوبی را شامل شود. ترکیبات خطی هستههای معتبر، هستههای معتبر تولید میکنند، و همین امر در مورد ضرب هستههای معتبر (که توسط راسموسن و ویلیامز ارائه شدهاند) صدق میکند. متأسفانه من متوجه نشده ام که چگونه پارامترهای تتا را به درستی به مدل بدهم. به عنوان مثال، اگر ما: $$ k_{Gauss}(x,x') = \exp{(\theta (x-x')^2)} $$ داشته باشیم، مشکلی نیست (به این ترتیب مربع-نمایی هسته در scikit-learn تعریف شده است). اما اگر میخواستم: $$ k_{Gauss}(x,x') = \theta_0 \exp{(\theta_1 (x-x')^2)} $$ پس غیرممکن است، به نظر میرسد. چیزی $\mathbf{\theta}$ قرار است یک آرایه باشد، در صورتی که چندین بعد/ویژگی داشته باشید (اگرچه scikit-lear از GP های چند بعدی پشتیبانی نمی کند، شخصی آن را توسعه داده است و به زودی ادغام خواهد شد). بنابراین یک ردیف وجود دارد که ستون ها پارامتر در بعد فلان و فلان هستند. اما شما نمی توانید ردیف های بیشتری داشته باشید، در غیر این صورت بر سر شما فریاد می زند. بنابراین سوال: آیا واقعاً کسی توانسته است از هسته هایی استفاده کند که از بیش از یک هایپرپارامتر استفاده می کنند؟ اگر چنین است، من چه اشتباهی انجام می دهم؟ و اگر واقعاً با کد فعلی در scikit امکان پذیر نیست، آیا کسی نکاتی در مورد نحوه گسترش آن دارد تا بتواند؟ این یک ویژگی واقعا مهم است که من به آن نیاز دارم. با تشکر | فرآیندهای گاوسی Scikit-learn: چگونه چندین ابرپارامتر را در تابع هسته/cov قرار دهیم؟ |
1142 | من با تعداد زیادی سری زمانی کار می کنم. این سریهای زمانی اساساً اندازهگیریهای شبکه هستند که هر 10 دقیقه انجام میشوند و برخی از آنها دورهای هستند (یعنی پهنای باند)، در حالی که برخی دیگر نیستند (مثلاً میزان ترافیک مسیریابی). من یک الگوریتم ساده برای انجام یک تشخیص بیرونی آنلاین می خواهم. اساساً، من میخواهم کل دادههای تاریخی را برای هر سری زمانی در حافظه (یا روی دیسک) نگه دارم، و میخواهم هر گونه پرت را در یک سناریوی زنده (هر بار که یک نمونه جدید گرفته میشود) شناسایی کنم. بهترین راه برای رسیدن به این نتایج چیست؟ من در حال حاضر از میانگین متحرک برای حذف مقداری نویز استفاده می کنم، اما بعد از آن چه می شود؟ چیزهای ساده ای مانند انحراف معیار، دیوانه، ... در برابر کل مجموعه داده به خوبی کار نمی کنند (من نمی توانم فرض کنم سری های زمانی ثابت هستند)، و من چیزی دقیق تر می خواهم، در حالت ایده آل یک جعبه سیاه مانند: double outlier_detection (وکتور دوگانه*، مقدار دوگانه)؛ که در آن بردار آرایه مضاعف حاوی داده های تاریخی است و مقدار بازگشتی امتیاز ناهنجاری برای نمونه جدید مقدار است. | الگوریتم ساده برای تشخیص پرت آنلاین یک سری زمانی عمومی |
36271 | > **تکراری احتمالی:** > الگوریتم ساده برای تشخیص پرت آنلاین یک سری زمانی عمومی چگونه میتوانم از شر دادههای جرقهدار در مجموعهای از دادههای نامشخص، اما به شیوهای صافتر خلاص شوم؟ به عنوان مثال http://i.stack.imgur.com/vb44Q.png دو جرقه وجود دارد، در 20000، اما جرقه بعدی در 600 نیز یک جرقه در نظر گرفته می شود. من موفق شده ام که موارد بسیار بالا را به صفر برسانم، با a = 2 b = 5 beta_dist = RealDistribution('beta', [a, b]) f(x) = x / 19968 normalized_insertions = [f(i) برای i insertions] insertions_pairs = [(i, beta_dist.distribution_function(i)) برای i در normalized_insertions] plot_b = beta_dist.plot() show(list_plot(insertions_pairs)+plot_b) هیچ ایده ای در مورد موارد پایین تر وجود ندارد. ماکزیمم باید در 100 باشد، شاید پارامترهای توزیع بتا کمی بیشتر نیاز دارند؟ در حال حاضر، به این شکل است: http://i.stack.imgur.com/7hKHT.png در صورت امکان، از مریم گلی به عنوان مرجع برای توضیحات خود استفاده کنید. | خلاص شدن از سنبله در داده های نمونه |
66494 | من تعجب می کنم که چگونه می توانم تابع همبستگی واقعی را زمانی که چند نمونه پر سر و صدا از فضایی دارم، تخمین بزنم. بیایید بگوییم، من یک فضا دارم و مکانها در فضا متغیرهایی هستند که از توزیع گاوسی چند متغیره پیروی میکنند. من چند نمونه با تابع همبستگی خودکار داده شده تولید می کنم و مقداری نویز به طور مستقل به همه آنها اضافه می کنم. اکنون از نمونهها یک تابع همبستگی تجربی پیدا میکنم و سپس یک تابع همبستگی خودکار مدل را برای آن برازش میدهم. این مدل ممکن است اثرات قطعه ای داشته باشد یا ممکن است تابع همبستگی خودکار واقعی را نشان ندهد. چگونه با این موضوع برخورد کنیم؟ برای مثال، من برخی از دادهها را با تابع همبستگی نمایی با محدوده 10 تولید کردم. من تقریباً عملکرد واقعی را دریافت می کنم. من داده هایی را با تابع همبستگی نمایی با محدوده 10 تولید کردم. سپس چند نمونه از این تابع به دست آوردم. من تابع همبستگی تجربی را دریافت کردم و سپس یک مدل (نمایی) را برای آن قرار دادم تا تقریباً همان پارامترها را بدست آوریم، یعنی محدوده 9.5، با این حال، وقتی مقداری نویز گاوسی سفید را به تابع همبستگی/کوواریانس اضافه می کنم (من std را 1 فرض می کنم) سپس سعی کردم یک تابع همبستگی مدل را با تابع تجربی جا بزنم، محدوده 5 و همچنین قطعه 0.8 را دریافت کردم. چگونه می توان تابع زیربنایی را در این مورد تخمین زد؟ | تخمین تابع همبستگی با برخی مشاهدات پر سر و صدا |
114110 | آیا بسته ای در R برای توزیع کولموگروف وجود دارد که به من امکان ترسیم چگالی، توزیع، محاسبه چندک و غیره را می دهد؟ توزیع کولموگروف از $K=\sup|B|$ ناشی می شود، جایی که $B$ یک پل براونی است. مقادیر آن معمولاً جدولبندی میشوند، بنابراین من فکر میکردم که مانند توزیع نرمال عملکرد خودش را در R داشته باشد. به نظر میرسد «ks.test()» از یک تابع R برای چندکها استفاده نمیکند، اما در واقع یک تابع C++ را فراخوانی میکند. | توزیع کولموگروف |
91602 | فرض کنید من یک نظرسنجی دارم که شامل 10 سوال است، برای هر سوال می توان به پاسخ مفید/غیر مفید/خنثی پاسخ داد. وقتی جمعآوری دادهها را به پایان میرسانم، متوجه شدم که برخی افراد تمایل دارند بازخوردهای مفید/غیر مفید زیادی داشته باشند، در حالی که برخی دیگر تمایل دارند که بازخورد خنثی زیادی داشته باشند. با فرض اینکه هر یک از افراد در نظرسنجی با بهترین دانش و تلاش خود این کار را انجام داده اند، بدیهی است که یک بازخورد مفید/غیر مفید از یک فرد با افراد خنثی بسیار بیشتر از فردی با تعداد زیادی مفید/غیر مفید وزن خواهد داشت، بنابراین چگونه آیا باید نتایج را عادی کنم؟ با تشکر | عادی سازی بازخورد داده های نظرسنجی |
72786 | با انجام یک رگرسیون خطی، می توانم فاصله اطمینان برای پاسخ مشروط به مقدار x خاص را پیدا کنم. با این حال، من علاقه مند به یک C.I برای پاسخ _mean_ برای مجموعه ای از N مشاهدات جدید هستم. یعنی باید N فواصل پیش بینی را ترکیب کنم. نزدیکترین پستی که میتوانم پیدا کنم، محاسبه میانگین با استفاده از دادههای رگرسیون بود، اما فقط حالت تک متغیره را کنترل میکند. من سعی کردم خطای استاندارد پاسخ متوسط را در زیر استخراج کنم، اما مطمئن نیستم که آیا درست است یا خیر. $\begin{align} var(\hat{\bar{y}}) &= var \left( \frac{1}{n} \sum_i \hat{y}_i|x_1 \ldots x_n \right) \\ \ &= var \left( \frac{1}{n} \sum_i \hat{y}_i|x_i \right)، \quad \text{که در آن } \hat{y_i}|x_i \text{ مستقل هستند} \\\ &= \frac{1}{n^2} \sum_i var(\hat{y}_i|x_i) \\\ \end{align}$ جایی که $var(\hat{y}_i|x_i) = \sqrt{\sigma^2 x_i^T (X^TX)^{-1}x_i}$ برای $x_i$ در داده های آموزشی و $var(\hat{y}_i|x^*_i) = \sqrt{\sigma^2 (1+ x_i^{*T} (X^TX)^{-1}x^*_i) }$ برای $x^*_i$ در داده های آزمایشی. آیا من در اینجا در مسیر درستی هستم؟ همچنین آیا در جایی پیاده سازی R وجود دارد یا باید آن را از ابتدا انجام دهم؟ ویرایش: من همچنین در حال مطالعه روشهای رگرسیون بیزی هستم که توزیع پیشبینیکننده $P(y_i|x_i^*)$ و یک بازه معتبر برای پاسخ را مشخص میکند. ما در اینجا با مشکل مشابهی روبرو هستیم، یعنی چگونه توزیع پیشبینیکننده را برای پاسخ میانگین $P(\overline{y}|x_1^* \ldots x_n^*)$ محاسبه کنیم؟ با تشکر، A. | ترکیب فواصل پیش بینی در رگرسیون |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.