_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
99900
من می‌دانم که MCMC چگونه کار می‌کند، و می‌دانم که توزیع چندجمله‌ای چگونه کار می‌کند. من یک مجموعه داده دارم که برخی از داده ها به صورت تصادفی گم شده اند (MAR). من نمی توانم این دو نقطه را به یکدیگر متصل کنم (MCMC -> Multinomial Distribution) برای رسم نمونه های تصادفی. لطفاً کسی می تواند توضیح دهد که چگونه نمونه برداری MCMC برای توزیع Mutlinomaial با استفاده از یک مثال ساده کار می کند. ممنون از وقتی که گذاشتید امیدوارم چیز خیلی پیچیده ای نپرسم.
توضیح نمونه‌گیری MCMC برای توزیع چندجمله‌ای و گمشده به صورت تصادفی
93280
من 16 مدل رگرسیون لجستیک را بر روی داده های خود نصب کرده ام و مطمئن نیستم که کدام مدل را به عنوان مدل نهایی خود انتخاب کنم. من به چند مورد نگاه کردم تا به من در انتخاب مدل نهایی کمک کند. 1) اهمیت متغیرهای پیش بینی کننده 2) AIC و BIC 3) ناحیه زیر منحنی ROC 4) خطای اعتبارسنجی متقاطع. مدلی با مقدار AIC یا BIC پایین ممکن است در زیر منحنی ROC نسبت به مدل دیگری با AIC یا BIC بالاتر، سطح کمتری داشته باشد. و مدلی با بیشترین مساحت زیر منحنی ROC ممکن است خطای اعتبار متقاطع بالاتری نسبت به مدلی با مساحت کمتر زیر منحنی ROC داشته باشد. من توانستم 16 مدل ممکن را به 4-5 مدل محدود کنم، اما نمی توانم بر اساس معیارهایی که استفاده کردم (1-4) تصمیم نهایی را بگیرم زیرا به نظر می رسد که آنها با یکدیگر تضاد دارند. چگونه می توانم بهترین مدل رگرسیون لجستیک را برای داده های خود انتخاب کنم؟
معیارهای انتخاب مناسب ترین مدل رگرسیون لجستیک
114592
من در SAS Reporting تازه کار هستم و می خواهم یاد بگیرم که از آن در کارم استفاده کنم. اما نتوانستم بهترین کتاب را برای همان کتاب پیدا کنم. لطفاً من را راهنمایی کنید، هر نام کتاب یا آموزش آنلاین موجود است تا بتوانم به آن مراجعه کنم و گزارش SAS را بیاموزم.
لطفا مرا برای یادگیری SAS راهنمایی کنید
9917
من در واقع به این مشکل در اسلاید 12 نگاه می کردم. آن را به طور خلاصه اینجا می نویسم: **مشکل:** تعداد ناشناخته ای از افراد در یک دوره زمانی ثابت وارد می شوند و هدف من این است که احتمال انتخاب بهترین نامزد را به حداکثر برسانم **فرض ها :** * فرض کنید افراد به طور مستقل در بازه [0،1] می‌رسند * ممکن است به طور یکنواخت نیز فرض شود * نمی‌توان احتمال را شکست داد $\frac{1}{e}$ برای برنده شدن. **اثبات:** یک دیوار را در زمان $T$ تعمیر کنید و بهترین نامزد را بعد از $T$ انتخاب کنید. اجازه دهید $t$ زمانی باشد که بهترین نامزد می‌رسد، سپس: $Prob(Win) \geq E_{t}[1_{\\{t>T\\}}\frac{T}{t}] = \int_{T}^{1}\frac{T}{t}dt = -T~ln~T$ این در $T=\frac{1}{e}$ با یک $Prob(Win) = بهینه است. \frac{1}{e} = 36.7\%$ چند سوال دارم. لطفاً کسی توضیح دهد که چگونه معادله انتظار را تفسیر می کند؟ به علاوه، اهمیت عبارت _فرض کنید افراد به طور مستقل در بازه $[0,1]$ می رسند._ چیست؟ آیا به این معنی است که نمی توانم بازه زمانی دیگری را در نظر بگیرم، مثلاً $[0، \alpha]$ یا باید فقط $\alpha$ را در $\frac{1}{e}$ ضرب کنم تا زمان واقعی ساخت را بدست بیاورم. تصمیم؟ من فقط سعی می کنم بفهمم برای تبدیل این به یک پیاده سازی واقعی در دنیای واقعی چه کاری باید انجام دهم. پیشنهادی دارید؟
معنی این معادله انتظار؟
57776
منظور من مجموعه داده «iris.arff» است که همراه با توزیع Weka است. 3 کلاس و 4 ویژگی وجود دارد. در زیر اطلاعات مربوط به 4 ویژگی- % حداقل حداکثر میانگین کلاس SD همبستگی % طول کاسبرگ: 4.3 7.9 5.84 0.83 0.7826 % عرض کاسبرگ: 2.0 4.4 3.05 0.43 -0.4194 ٪ طول گلبرگ: 1.0 7.9 1.06706. (بالا!) % عرض گلبرگ: 0.1 2.5 1.20 0.76 0.9565 (بالا!) آخرین ستون چگونه محاسبه می شود؟ بعد از جستجوی همبستگی کلاس، Intraclass_correlation را پیدا کردم، مطمئن نیستم که آیا همان چیزی است، همچنین چگونه می توان یک عدد همبستگی کلاس واحد را زمانی که تعداد کلاس ها سه است، ارائه داد؟
همبستگی طبقاتی چیست؟
57778
من در حال انجام آزمایشی با یک گروه کنترل و یک گروه درمانی هستم. هر دو گروه یک پرسشنامه افسردگی قبل و بعد از درمان را تهیه خواهند کرد. از چه روش آماری برای تعیین اینکه آیا درمان به میزان قابل توجهی علائم افسردگی را کاهش می دهد، استفاده کنم؟ T-test یا ANOVA، کدام نوع و چرا؟
با دو گروه، ارزیابی های قبل و بعد از درمان آزمایش کنید
56280
در تناسب gls نشان داده شده در زیر، تخمین انحراف استاندارد برای هر سطح X ظاهراً با حاصلضرب (1.000000، 3.913972، 10.684698، 11.350910، 26.476561، 27.255072 استاندارد error) ارائه می شود. 0.04896334. چگونه می توان خطای استاندارد این انحرافات (یا واریانس) برآورد شده را برآورد کرد؟ > m X Y F 1 1 1.07 1 2 1 1.01 1 3 1 0.99 1 4 1 1.09 1 5 1 0.94 1 6 1 1.00 1 7 1 1.01 1 8 1 0.98 1 0 1 01 01 11 4 3.66 4 12 4 3.75 4 13 4 3.77 4 14 4 3.92 4 15 4 4.08 4 16 4 3.99 4 17 4 3.95 4 18 4 14 4 3.92 4 15 4 4.08 4 16 4 3.99 4 17 4 3.95 4 18 4 4.104 4. 4 21 10 10.13 10 22 10 10.20 10 23 10 9.77 10 24 10 10.28 10 25 10 8.71 10 26 10 9.79 10 27 1010 9.79 10 27 1010. 29 10 10.07 10 30 10 9.63 10 31 20 20.22 20 32 20 19.46 20 33 20 19.02 20 34 20 20.06 20 3035 20.202020.06 20 37 20 19.96 20 38 20 20.04 20 39 20 19.67 20 40 20 19.96 20 41 30 31.04 30 42 30 31.40 30 304 304 30 43. 30.77 30 45 30 32.13 30 46 30 31.17 30 47 30 30.36 30 48 30 29.95 30 49 30 30.74 30 50 30 47 30 48 30 30 49 30 40 40.29 40 53 40 42.77 40 54 40 38.36 40 55 40 39.17 40 56 40 39.61 40 57 40 40.73 40 58 420 40 40 56 40 60 40 40.24 40 > Fit.gls <- gls(Y ~ X,weights=varIdent(form = ~ 1 | F),data=m) > summary(Fit.gls) حداقل مربعات تعمیم یافته متناسب با مدل REML: Y ~ X داده: m AIC BIC logLik 78.96207 95.44562 -31.48104 تابع واریانس: ساختار: انحرافات استاندارد مختلف در هر لایه فرمول: ~1 | F تخمین پارامتر: 1 4 10 20 30 40 1.000000 3.913972 10.684698 11.350910 26.476561 27.255072
خطای استاندارد انحرافات استاندارد برآورد شده با gls در R
56427
بنابراین من و یکی از همکاران از تجزیه و تحلیل مؤلفه های اصلی (PCA) یا مقیاس بندی چند بعدی غیر متریک (NMDS) استفاده می کنیم تا چگونگی تأثیر متغیرهای محیطی بر الگوها در ترکیب جامعه اعماق دریا را بررسی کنیم. یک روش متداول این است که بردارهای محیطی را بر روی یک ترتیب قرار دهیم. طول و جهت بردارها تا حدودی ساده به نظر می رسد، اما من نمی دانم که چگونه یک مقدار مربع R یا یک مقدار p برای این بردارها محاسبه می شود. من به ده ها مقاله نگاه کردم و بیشترین چیزی که می توانم جمع آوری کنم این است که این اعداد با استفاده از جایگشت داده ها محاسبه می شوند. این خیلی شهودی به نظر نمی رسد. چه داده هایی در حال تغییر هستند؟ چگونه این جایگشت یک مقدار مربع R ایجاد می کند و چه واریانسی توضیح داده شده است؟ درک محدود من از مقدار مجذور R از رگرسیون های خطی ناشی می شود. من باید این را برای افرادی توضیح دهم که سابقه کمی یا بدون پیشینه آماری دارند، بنابراین هرگونه کمکی برای درک این مفاهیم یا پیوند به یک متن موجود بسیار قدردانی خواهد شد. خیلی ممنون
تفسیر تناسب برداری NMDS
104415
من در حال انجام یک تجزیه و تحلیل بقا هستم و پس از ترسیم باقیمانده‌های شوئنفلد و آزمایش اهمیت همبستگی باقیمانده‌ها با زمان، تصمیم گرفتم یک تعامل را در مدل بگنجانم. منطقی است زیرا نتیجه متغیر در طول زمان تأثیر متفاوتی دارد، برای کسانی که قسمت قبلی را پیش‌فرض کرده‌اند، احتمال داشتن یک قسمت دیگر بسیار سریع‌تر از کسانی است که قسمت قبلی را کامل کرده‌اند. من سعی کردم یک تعامل اضافه کنم اما این کمی گیج کننده است و منجر به **تکینگی عددی** می شود. > modf <\- coxph(Surv(زمان، وضعیت) ~ Vac + CliForm + Sit + Prison + HIV + سن > + Sit:time, data2) > > پیام هشدار: در fitter(X, Y, strats, offset, init) ، کنترل، وزن = > وزن، : تکرارها تمام شد و همگرا نشد، اما با استفاده از این نیز همان خطا را داد: > modf <\- coxph(Surv(ini، پایان، وضعیت) ~ Vac + CliForm + Sit + Prison + HIV + > سن + نشستن: پایان، داده 2) > > پیام هشدار: در fitter (X, Y, strats, offset, init, control, weights = > weights, : تکرارهای تمام شد و همگرا نشد گزینه دیگر این است که زمان را به دو قسمت تقسیم کنید: data4$statusCured <- ifelse(data4$time >= 250, data4$status, 0) data4$statusDef <- ifelse(data4$time < 250, data4$status, 0) summary(coxph(Surv(time, statusDef) ~ Vac + CliForm + Sit + زندان + HIV + سن، داده 4)) خلاصه (coxph (Surv (زمان، وضعیت درمان شده) ~ Vac + CliForm + Sit + Prison + HIV + سن، data4)) **سوال اصلی من این است که بهترین رویکرد برای این مشکل چیست؟** چگونه باید یک تعامل را در مدل خود قرار دهم؟ در صورتی که نتیجه متغیر با زمان تغییر کند. هر اشاره‌ای بسیار مفید خواهد بود.
خطا در افزودن تعامل در مدل کاکس؟
81623
من در حال تلاش برای پیاده سازی الگوریتم ساده بیس در جاوا هستم. اما من چند ابهام در مدل ساده بیز دارم. مدل بایزهای ساده لوح چیست؟ آیا این یک جدول است؟ چگونه می توانیم از مدل پیش بینی کنیم؟ من می‌توانم الگوریتم را در کد جاوا پیاده‌سازی کنم و پیش‌بینی کنم. اما شنیدم که این راه درستی برای انجام آن نیست. ما باید از روی مدل پیش بینی کنیم .. اما چگونه ??اگر کسی در این مورد نظری دارد لطفاً سعی کنید به این پاسخ دهید. و همچنین چگونه می توانیم مجموعه آموزشی و مجموعه تست را از مجموعه داده جدا کنیم ؟؟؟ متشکرم.
مدل ساده بیز
60140
این احتمالاً یک سؤال نسبتاً ساده است، اما آیا b0 و b1 در یک مدل رگرسیون خطی ساده مستقل هستند؟
استقلال در رگرسیون خطی
3616
من یک سری زمانی ساده با 5-10 نقطه داده در هر مجموعه داده در فواصل زمانی منظم دارم. من در تعجبم که بهترین راه برای تعیین اینکه آیا دو مجموعه داده متفاوت هستند چیست؟ آیا باید تست های t را روی هر نقطه داده امتحان کنم، یا به ناحیه زیر منحنی ها نگاه کنم یا نوعی مدل چند متغیره وجود دارد که بهتر کار کند؟
بهترین آزمون آماری برای یک سری زمانی چیست؟
52058
من می خواهم از یک داده آموزشی یک درخت تصمیم بسازم. من یک ویژگی با مقادیر اسمی زیادی دارم. به عنوان مثال، ویژگی نام بخش دارای حدود 20-30 مقدار است. من می خواهم این مقادیر را به 4-5 گروه یا هر مقدار مناسب گروه بندی کنم. چگونه می توانم این کار را انجام دهم (در Weka ارجح است)؟ آیا باید این کار را در مرحله پیش پردازش یا/یا مرحله یادگیری انجام دهم؟
درخت تصمیم: ویژگی دسته با مقادیر اسمی زیاد
96105
مفروضات همسانی و همگنی رایج هستند و شاید با ANOVA و رگرسیون سروکار دارند. این فرضیات سردرگمی زیادی ایجاد می کند.
تفاوت های کلیدی بین همسانی و همگنی چیست؟
60149
DV: ساختگی پاسخ کار، (1= افزایش کار خانگی، 0=hh کار را افزایش نداد) IV: اندازه خانواده (متغیر پیوسته) من یک رگرسیون لجستیک روی این متغیرها انجام می دهم. نگرانی من این است که می دانم هنگام استفاده از پیش بینی کننده های طبقه بندی باید مطمئن شوم که هیچ سلول خالی وجود ندارد. با این حال، من دقیقاً مطمئن نیستم که رگرسیون لجستیک با یک پیش‌بینی‌کننده پیوسته چگونه کار می‌کند. من می دانم که به تغییر شانس DV ناشی از تغییر یک واحد در پیش بینی پیوسته نگاه خواهد کرد. با این حال، آیا با متغیر پیوسته به روشی مشابه رفتار می کند؟ آیا در این مورد باید نگران سلول های خالی باشم؟ به عنوان مثال، ممکن است تنها یک خانواده با 17 عضو وجود داشته باشد. امیدوارم سوال من کاملا واضح باشد. از هر کمکی که می توانید به من بکنید قدردانی می کنم. متشکرم.
آیا باید متغیر پیوسته خود را برای استفاده در رگرسیون لجستیک باینری دسته بندی کنم؟
56282
من به دنبال پاسخی بصری هستم که چرا یک مدل GLM LASSO یک پیش‌بینی‌کننده خاص را از میان گروهی از موارد بسیار همبسته انتخاب می‌کند، و چرا این کار را متفاوت از بهترین انتخاب ویژگی زیر مجموعه انجام می‌دهد. از هندسه LASSO نشان داده شده در شکل 2 در Tibshirani 1996، من به این باور رسیدم که LASSO پیش بینی کننده را با واریانس بیشتر انتخاب می کند. حالا فرض کنید که من از بهترین انتخاب زیرمجموعه با CV 10 برابری برای به دست آوردن 2 پیش بینی کننده برای یک مدل رگرسیون لجستیک استفاده می کنم و از قبل دانش معقولی دارم که این 2 پیش بینی کننده بهینه هستند (به معنای ضرر 0-1). راه‌حل LASSO از یک راه‌حل کم‌تر (5 پیش‌بینی‌کننده) با خطای پیش‌بینی بیشتر استفاده می‌کند. به طور شهودی، چه چیزی باعث ایجاد تفاوت می شود؟ آیا دلیل آن روشی است که LASSO از میان پیش بینی کننده های همبسته انتخاب می کند؟
LASSO چگونه از میان پیش بینی کننده های خطی انتخاب می کند؟
93285
من یک مجموعه داده دارم که از 5000 مشاهده تشکیل شده است. هر مشاهده شامل درآمد سالانه یک فرد (از 50 تا 50.000.000) و واقعیت داشتن ماشین (بله/خیر) است. من می خواهم بررسی کنم که آیا بین این دو ویژگی همبستگی وجود دارد یا خیر. کدام آزمون را اجرا کنم؟ پیشاپیش متشکرم
همبستگی بین متغیرهای کمی و کیفی
57484
در صورت استفاده از رویکرد ARMA-GARCH چگونه می توانم VaR را محاسبه کنم؟ من در سری های زمانی خوب نیستم، بنابراین کم و بیش با نمادهای مختلف ممکن یک فرآیند ARMA-GARCH گیج شده ام. امیدوارم نشانه ای که استفاده می کنم درست باشد. فرض کنید از AR(1)-GARCH(1,1) زیر استفاده می کنم: \begin{align*} r_t=\delta + \phi_1 r_{t-1} + z_t\\\ z_t = \sigma_t \epsilon_t\\\ \epsilon_t \text{ is } N(0,1)\\\ \sigma_t^2=\alpha_0+\alpha_1 z_{t-1}^2+\beta \sigma_{t-1}^2 \end{align*} منظورم این است که باید یک کمیت را در نقطه زمانی t محاسبه کنم. معمولاً در صورت رویکرد ساده‌تر: $r_t=\mu + \sigma_t*\epsilon_t$ و $\epsilon_t$ N(0,1) است که $VaR=\mu + \hat{\sigma_t}* را نشان می‌دهد. z_\alpha$ که در آن $z_\alpha$ چندک نرمال استاندارد است. در مورد رویکرد ARMA-GARCH چگونه می توان این کار را انجام داد؟ من اکنون $\mu$ ندارم، اما یک فرآیند AR دارم؟ من برخی از مقالات را خواندم، همه آنها کم و بیش فرمول ARMA-GARCH را می دهند و می گویند که آنها پیش بینی را ایجاد می کنند، اما هیچ فرمولی نمی دهند که چگونه این کار را انجام دهیم.
VaR در مورد ARMA-GARCH؟
52052
من به دنبال راهی برای تنظیم توزیع احتمال یک تابع تصادفی یکنواختی هستم که در یک برنامه استفاده می کنم. من می خواهم مقداری توزیع احتمال گسسته را پیدا کنم که شامل پارامتری برای تنظیم یکنواختی توزیع نسبت به رویداد مرکز باشد. برای مثال، اگر آن پارامتر، فرض کنیم _s=0_، احتمال 5 رویداد دقیقاً برابر با 20 درصد است. اگر بخواهم آن پارامتر را به _s=1_ تغییر دهم، تابع اکنون احتمال را بسته به فاصله از مرکز تنظیم می کند. بنابراین، احتمال به صورت زیر تغییر می‌کند: * رویداد 1: 16% * رویداد 2: 18% * رویداد 3: 20% * رویداد 4: 22% * رویداد 5: 24% و با تنظیم _s_ بالاتر، احتمال افزایشی در بالای مرکز به دست می‌آید. رویداد و کاهش احتمال در زیر رویداد مرکز، بسته به فاصله از مرکز - همه در حالی که احتمال کل را حفظ می کنیم. 100% آمار نقطه قوت من نیست، بنابراین امیدوارم کسی با تجربه بتواند بفهمد من به دنبال چه هستم :)
تنظیم توزیع احتمال یکنواخت
102811
من از اینجا فهمیدم: آیا این بیانیه صحیحی از قانون زنجیره احتمال است؟ که در قانون زنجیره برای احتمال، شرطی سازی را می توان بر روی متغیرهای مختلف انجام داد. من متعجب بودم که این چه نوع مفاهیمی برای مدل‌سازی زبان دارد، جایی که ما سعی می‌کنیم به دنباله‌ای از m کلمات P(w_1، w_2، ...، w_m) یا هر دنباله‌ای برای آن موضوع، احتمال نسبت دهیم. به عنوان مثال، فرض کنید می خواهیم یک احتمال را به P (the, cat, ran) اختصاص دهیم. همانطور که در اینجا مشاهده می شود: http://en.wikipedia.org/wiki/Language_model#N-gram_models می توان P(the, cat, ran) را با محاسبه P(the)*P(cat|the)*P(ran|) محاسبه کرد. گربه). اما با توجه به اینکه شرطی سازی را می توان روی متغیرهای مختلف انجام داد، آیا درست است که بگوییم P(the, cat, ran) = P(ran)*P(the|ran)*P(cat|ran,the)؟ اگر چنین است، توالی کلمات در واقع چگونه در نظر گرفته می شود؟ بدیهی است که احتمال گربه دوید بیشتر از گربه دوید است.
سوال در مورد قانون زنجیره احتمال
32088
پرسشنامه من شامل 48 سوال (متغیرهای مشاهده شده) است که نشان دهنده 8 عامل مختلف (متغیرهای پنهان) است. همه متغیرها پیوسته هستند. من باید قبل از انجام تحلیل های همبستگی و رگرسیون متغیرهای پنهان را محاسبه کنم، اما مشکل اینجاست که SPSS به طور مستقیم متغیرهای پنهان مانند نرم افزارهای SEM را ایجاد نمی کند. چگونه می توانم متغیرهای پنهان را در SPSS ایجاد کنم؟
چگونه می توان متغیرهای مشاهده شده را به متغیر پنهان زیرین آنها در SPSS تبدیل کرد؟
60142
من سعی می کنم یک تحلیل سری زمانی ساده با داده های سری زمانی انجام دهم. داده های من دنباله ای از مقادیر صحیح کوچک مانند 0،1،2 و 3 است. من از منابع مختلف یاد گرفتم که مدل INAR با چنین داده هایی مناسب است. سوال من این است که آیا کسی کدهای R را برای برازش یک مدل INAR(1) ساده می‌داند (بازگشت داده‌های سری زمانی روی یک متغیر ساختگی باینری). از هر کمکی قدردانی کنید.
چگونه یک سری زمانی شمارش ساده مدل INAR(1) را در R تنظیم کنیم
99909
من یک مجموعه داده با 20 محصول دارم و اینکه آیا کسی آنها را خریده است، قیمت آنها و سایر ویژگی ها. من سعی می کنم کشش های قیمتی خود و متقاطع این 20 کالا را پیدا کنم. من از یک مدل لجستیک شرطی در Stata استفاده کرده‌ام و اکنون باید کشش‌ها را ترجیحاً در یک ماتریس پیدا کنم. من به استفاده از حاشیه یا mfx فکر می کنم. آیا با استفاده از mfx باید از موارد زیر استفاده کنم؟ یا آیا رویکرد بهتری برای یافتن ماتریس کشش قیمت در Stata وجود دارد؟ mfx پیش بینی (خرید = 1) dyex(ln(محصول = '1')) mfx پیش بینی(خرید = 2) dyex(ln(محصول = '2')) و غیره. نتایج رگرسیون بر اساس: clogit خرید محصولX attrY برای X = 1..20 و Y = 1..15. آیا می توانم از mfx eyex برای بدست آوردن کشش های خود و قیمت متقاطع استفاده کنم؟
مدل لاجیت مشروط و کشش قیمت
21827
شرکت مبتنی بر وب که من در آن کار می کنم دارای سیستمی است که بسته های اطلاعاتی را از سایت های خارجی دریافت می کند. من می خواهم بدانم از چه رویکردهایی می توان برای شناسایی الگوها یا ارتباط بین سایت های خارجی استفاده کرد. به عنوان مثال سایت A بسته ای را در مورد موضوع 1 ارسال می کند. مدت کوتاهی پس از آن بسیاری از سایت های دیگر ممکن است از طریق بسته هایی با همان شناسه ارسال کنند. این ممکن است به این دلیل باشد که سایت 2 نیز اطلاعات را از سایت 1 دریافت کرده و سپس آن را برای ما ارسال کرده است. برای پیچیده‌تر کردن آن، این امکان نیز وجود دارد که به محض دریافت داده‌ها، آن‌ها را به یک یا چند سایت ارسال کنیم، که ممکن است فرآیند دوباره شروع شود. بسته ها حاوی یک فیلد شناسه هستند که می توان از آن برای شناسایی موضوعی که هر بسته به آن اشاره می کند استفاده کرد. صدها سایت وجود دارد که بسیاری از آنها بسته ها را قبل از ارسال برای ما از یکدیگر جمع می کنند. بسیاری از سایت‌های کوچک‌تر می‌توانند از تجزیه و تحلیل حذف شوند، در صورتی که آن را ساده‌تر کند. ما داده های زیادی داریم. در طی چند روز ممکن است صدها بسته را ببینیم که همه مربوط به یک شناسه هستند. همچنین، از چه رویکردهایی می توان برای تجسم یا نمایش نتایج/الگوها به بهترین وجه برای مخاطبان غیرآماری استفاده کرد؟ سفارش _ممکن است مهم باشد. به عنوان مثال، اگر سایت 1 همیشه قبل از سایت 2 یک شناسه ارسال می کند، سایت 2 (احتمالاً) بسته های خود را از سایت 1 دریافت می کند. بابت مبهم بودن سؤال پوزش می طلبیم. در صورت درخواست جزئیات بیشتر، قصد دارم این سوال را روشن کنم. با تشکر EDIT: همچنین جالب است که به تجزیه و تحلیل سایت های جداگانه نگاه کنید.
چگونه الگوها/ارتباطات را در ترافیک شبکه شناسایی کنیم؟
56284
من به دنبال یک تابع چگالی احتمال صاف با گشتاورهای محدود و تابع چندک فرم بسته هستم. همانطور که می دانید، یک مثال از تابع چگالی احتمال صاف با گشتاورهای محدود، تابع چگالی گاوسی است، اما تابع چندک شکل بسته ندارد. و نمونه ای از چگالی احتمال هموار با تابع چندک شکل بسته تابع چگالی کوشی است، اما گشتاورهای محدودی ندارد. در نهایت، یک مثال از تابع چگالی احتمال با گشتاورهای محدود و تابع چندک شکل بسته با گسترش تابع چگالی توزیع نمایی با چرخاندن آن در امتداد محور y و تقسیم آن بر 2 به دست می‌آید، اما تابع چگالی مشتق‌شده در یک نقطه صاف نیست ( میانگین). نمی‌دانم آیا می‌توان تابع چگالی احتمالی را ساخت که صاف، دارای گشتاورهای محدود و تابع چندک شکل بسته باشد. ویرایش: که در آن صاف به معنای _بی نهایت قابل تمایز_ است و دارای لحظه های متناهی است به این معنی است که _همه لحظه های عدد صحیح مثبت متناهی هستند_
آیا یک تابع چگالی احتمال هموار با گشتاورهای محدود و یک تابع چندک شکل بسته وجود دارد؟
96103
آیا کسی می تواند به من کمک کند تا آن نتایج را تفسیر کنم؟ من در مدل پروبیت خود مقدار p بسیار بالایی دریافت می کنم اما نمی دانم چرا... ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/S0wAw.png) برخی جزئیات در مورد متغیرهای من: کنفوسیوس = وابسته (باینری 1 = بله، 0 = خیر) توتالاگری = مستمر (تن) رشوه = اندازه درصد = پیوسته (کیلومتر مربع) ساحل = agrigdp باینری = درصد impchina، expchina، Gdp = پیوسته (ارزش بر حسب دلار) lifeexp = پیوسته (سال) urbpop = درصد زغال‌سنگ، نارگاسپراد، ذخایر نفتی = الماس پیوسته = محصول باینری = شاخص با تشکر!
مقادیر p بالا در مدل پروبیت
100404
من به تازگی کشف کردم که mgcv::s() به شخص اجازه می دهد یک ماتریس به آرگومان by خود ارائه دهد، و به شخص اجازه می دهد یک متغیر پیوسته را با هموارهای جداگانه برای هر یک از ترکیبی از متغیرها هموار کند (و در صورت تمایل، برهمکنش های آنها) . با این حال، من در گرفتن پیش‌بینی‌های معقول از چنین مدل‌هایی مشکل دارم، برای مثال: library(mgcv) #for gam library(ggplot2) #برای ترسیم #تولید برخی داده‌های جعلی set.seed(1) #برای تکرارپذیری این مثال myData = expand.grid( var1 = c(-1,1), var2 = c(-1,1) , z = -10:10 ) myData$y = rnorm(nrow(myData)) + (myData$z^2 + myData$z*4) * myData$var1 + (3*myData$z^2 + myData$z) * myData$var2 #توجه داشته باشید اثرات افزودنی var1 و var2 #plot داده ggplot( data = myData , mapping = aes ( x = z , y = y , color = factor(var1) , linetype = factor(var2) )+ geom_line( alpha = 0.5 ) #reformat to matrices zMat = matrix(rep(myData$z,times=2),ncol=2) xMat = matrix(c(myData$var1, myData$var2),ncol=2) #get fit fit = gam( formula = myData$y ~ s(zMat,by=xMat,k=5) ) #پیش‌بینی‌ها را دریافت کنید و آنها را ترسیم کنید. = ضریب(var1)، نوع خط = ضریب(var2) )+ geom_line(آلفا = 0.5) این نمودار را به دست می دهد از داده های ورودی: ![نمودار داده های ورودی](http://i.stack.imgur.com/bE8uC.png) و این نمودار آشکارا نادرست مقادیر پیش بینی شده: ![ نمودار داده های خروجی](http://i .stack.imgur.com/CYr3k.png) در حالی که جایگزین کردن گام فیت بالا با: fit = gam (فرمول = y ~ s(z,by=var1,k=5) + s(z,by=var2,k=5) , data = myData ) اما در غیر این صورت اجرای همان کد این نمودار معقول از مقادیر پیش بینی شده را به دست می دهد: ![دیگر نمودار خروجی] (http://i.stack.imgur.com/FvsGv.png) من اینجا چه غلطی می کنم؟
به دست آوردن پیش‌بینی‌ها از یک برازش mgcv::gam که حاوی ماتریس متغیر «by» به یک متغیر است.
99907
من به یک **توصیه/ بهترین روش** در مورد چگونگی آزمایش دقیق **تأثیر پیش بینی کننده های طبقه بندی** (واحد) یا مدت آنها (مدت زمان جنگ/صلح در این مورد) **روی سری های زمانی** نیاز دارم. **چگونه ثابت کنیم که افزایش قیمت نفت ناشی از جنگ است؟** من می خواهم مقداری _p-value_ بدست بیاورم. # مثال - تاثیر جنگ بر قیمت نفت # (البته کاملاً سفته بازی ;D) قیمت <- c(13,13.5,13,13.5,13,15,15.5,15.5,15,12.5,12,12,12, 12.5،14،15، 14,13.5,12.5,13,13,14,15,13.5,12,12,12,12.5,12,12) سال <- دنباله (از = 1960 طول = 30) دوره <- rep(c(صلح جنگ، صلح، جنگ، صلح، جنگ، صلح)، بار = c(5،4،5،2،3،4،7)) my.data <- data.frame(قیمت = قیمت، سال = سال، دوره = دوره) # plot plot(my.data$year، my. data$price، xlab = year، ylab = قیمت نفت، pch = 20، ylim = c(11,17)، cex = 2.2) خطوط (my.data$year، my.data$price، col = آبی، lty = 2، lwd = 2) کسی می تواند به من کمک کند؟ از شما برای هر گونه راهنمایی پیشاپیش متشکرم! حداقل نام تکنیک مناسب مفید خواهد بود. * * * ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Y4A5A.png)
نحوه آزمایش تأثیر عوامل خارجی بر سری های زمانی
113433
من در محاسبه ماتریس اطلاعات فیشر برای مدل سلسله مراتبی بیزی دچار مشکل هستم. برای سادگی، تتا را مدل بیزی سلسله مراتبی زیر در نظر بگیرید: $$X|\sigma \sim N(0,\sigma^2)$$ $$\sigma|\gamma\sim LN(\gamma,0)$$ $$\ pi(\gamma)\propto1$$$X$ یک نقطه داده قابل مشاهده است، $\pi(\gamma)\propto1$ به این معنی است که پارامتر ناشناخته $\gamma$ دارای توزیع قبلی مسطح است و $LN$ نشان دهنده توزیع log-normal است. احتمال داده‌ها به شرح زیر است: $$f(X|\sigma,\gamma)=\frac{1}{\sigma}e^{-\frac{x^2}{2\sigma^2} }\frac{1}{\sigma}e^{-\frac{(ln\sigma-\gamma)^2}{2}}$$ Log-likelihood این است: $$L(X|\sigma،\gamma)=-2ln\sigma-\frac{x^2}{2\sigma^2}-\frac{(ln\sigma-\gamma)^2}{2} $$ مشتقات مرتبه اول: $$\partial_{\sigma}L=-\frac{2}{\sigma}+\frac{x^2}{\sigma^3}-\frac{1}{\sigma}(ln\sigma-\ گاما) $$ $$\partial_{\gamma}L=ln\sigma-\gamma.$$ مشتقات مرتبه دوم عبارتند از: $$\partial_{\sigma}^2L=\frac{1}{\sigma^2}-\frac{3x^2}{\sigma^4}+\frac{1}{\sigma^2}(ln \sigma-\gamma) $$ $$\partial_{\sigma,\gamma}^2L=\frac{1}{\sigma}$$ $$\partial_{\gamma}^2L=-1$$ بنابراین، هسیان احتمال ورود به سیستم عبارت است از: $$Hess(L)=\begin{pmatrix} \frac{1}{\sigma^2}-\frac{3x^2}{\sigma^4}+\frac{1}{\sigma^2}(ln\sigma-\gamma)&\frac{1 }{\sigma} \\\ \frac{1}{\sigma}&-1 \end{pmatrix}$$ معیار اطلاعات فیشر به صورت زیر تعریف می‌شود: $$G=-E_{p(x,\theta)}\left [ Hess(L)) \right ]$$ Since $E_{f(x,\theta)}\left [x^2\right ]= \sigma^2$ داریم که متریک فیشر $$G=\begin{pmatrix} است -\frac{-2+ln\sigma-\gamma}{\sigma^2}&-\frac{1}{\sigma} \\\ -\frac{1}{\sigma}&1 \end{pmatrix} $$ اما (و پیچش پیش می‌آید)، اگر مقادیر پارامترهای $\sigma=1$ و $\gamma=-3$ را اضافه کنیم، ماتریس معین منفی به دست می‌آوریم: $$G=\begin{pmatrix} -1&-1 \\\ -1&1 \end{pmatrix}$$ اما ماتریس اطلاعات فیشر باید نیمه معین باشد. بنابراین، سوال من این است - من چه اشتباهی انجام می دهم؟ من تصور می کنم که انتظار از پارامتر $\sigma$ باید با در نظر گرفتن این که یک متغیر تصادفی است، نه فقط داده $X$، به عنوان مثال $E_{f(X,\sigma,\) باید در نظر گرفته شود. gamma)}\left [\sigma \right ]\neq\sigma$ but $E_{f(X,\sigma,\gamma)}\left [\sigma \right ]=e^{\gamma+\frac{1}{2}}$ - زیرا $\sigma$ دارای توزیع log-normal است. من به دنبال ادبیاتی در مورد تشکیل ماتریس اطلاعات فیشر برای مدل های سلسله مراتبی هستم، اما بیهوده.
متریک اطلاعات فیشر برای مدل بیزی سلسله مراتبی منفی - قطعی است؟
99905
سری های زمانی قیمت ثابت نیستند. بنابراین ما آنها را از هم جدا می کنیم و سری های زمانی بازگشت را می گیریم که ثابت هستند. آیا این بدان معناست که همیشه مدلسازی فقط سری بازده دارایی های مالی ایده خوبی است. از طرف دیگر، آیا ما هرگز نیازی به مدل سازی قیمت ها نداریم؟
مدل سازی سری زمانی مالی
57773
من روی یک مشکل اسباب‌بازی کار می‌کردم که پیش‌بینی بررسی‌هایی که یک محصول در آینده دریافت خواهد کرد. من متوجه شدم که SVR با هسته خطی بهتر از انجام رگرسیون حداقل مربعات خطی روی داده ها کار می کند (حتی اگر هر دو بسیار وحشتناک بودند)، اما هیچ شهودی درباره اینکه کدام یک بهتر کار می کند و چرا کار می کند، نداشتم. چند نمونه از استفاده از یکی در مقابل دیگری چیست؟ معمولا می توان از هر دو استفاده کرد؟
تفاوت بین SVR با هسته خطی و حداقل مربعات خطی
52053
من فهرستی از اندازه‌گیری‌ها دارم که نرمال نیستند و نیاز به ثبت تبدیل دارند تا بتوان آمار پارامتریک را اعمال کرد (مثلاً میانگین، CI). من می‌توانم میانگین و CI را بدون مشکل محاسبه کنم وقتی داده‌ها تبدیل می‌شوند، اما نحوه تفسیر مقدار تبدیل‌شده با log برای خوانندگان من ساده نیست. (CI برای طول شی 1-5 log cm است، مردم معمولاً می پرسند log cm چیست؟) من وسوسه می شوم CI را با واحد تبدیل شده به واحد اصلی آن برگردانم، اما نمی دانم که آیا این راه درستی است. این کار را انجام دهید یا اگر جایگزین های دیگری وجود دارد؟ اسکریپت R زیر سوال من را به طور کامل توضیح می دهد: library(epicalc) # ایجاد مجموعه داده های نمونه.seed(1) sample.measurement <- 10^(rnorm(1000, mean=1, 0.5)) # رسم هیستوگرام برای داده های نمونه ، برای استفاده از میانگین برای خلاصه کردن داده‌ها بسیار اریب است، # باید آن را تغییر شکل دهید hist(sample.measurement) # رسم هیستوگرام برای نمونه داده ها، این بار خیلی بهتر است hist(log(sample.measurement, base=10)) # محاسبه زیر باید اشتباه باشد، زیرا داده های عادی نیست ci.numeric(sample.measurement) # این یکی باید بهتر باشد، زیرا داده‌ها تبدیل به log می‌شوند و عادی می‌شوند، # اما تفسیر/درک مقدار ci.numeric(log(sample.measurement, base=10)) # نمی‌دانم آیا روش زیر مناسب است، به منظور تفسیر آسان تر # با استفاده از واحدهای اصلی 10^ci.numeric(log(sample.measurement, base=10))
ارائه خلاصه داده‌های تبدیل شده با ورود به سیستم با هدف تفسیر آسان‌تر
56281
من دو مجموعه داده دارم یکی با $n=15$ دیگری با $n=25$. هر مجموعه داده حدود 90 متغیر دارد. داده‌های جمع‌آوری‌شده تجربی بودند، بنابراین وقتی سعی می‌کنم دو مجموعه داده‌ام را ترکیب کنم، تفاوت‌های واضحی را در برخی از متغیرها به دلیل این اثر دسته‌ای مشاهده می‌کنم. من این متغیرها را در یک ماتریس پراکنده می بینم و برخی از آنها جدایی را بر اساس دسته ها نشان نمی دهند در حالی که برخی دیگر به وضوح جدایی را نشان می دهند. آیا راهی برای عادی سازی آنها برای ترکیب این دو مجموعه وجود دارد؟ من سعی کردم نمره z را در هر مجموعه به طور جداگانه بگیرم و آنها را بر اساس امتیاز آنها ترکیب کنم. وقتی سعی می کنم ماتریس پراکندگی امتیازهای z را ببینم، جلوه های دسته ای قابل مشاهده نیستند. آیا روشی معتبر برای عادی سازی است؟
خلاص شدن از شر اثرات دسته ای
32083
من می خواهم یک متاآنالیز را در یک صفحه اصلی ارائه کنم. این باید شامل یک طرح جنگلی برای تجسم اندازه اثر از مطالعات فردی و همچنین آمار خلاصه باشد. من نمی‌دانستم که آیا این طرح «قانونی» است زیرا من نتایج (اندازه‌های تأثیرات) را از مقالات منتشر شده می‌گیرم و آنها را «رایگان» به عنوان بخشی از این متاآنالیز ارائه می‌دهم؟
آیا انتشار یک متاآنالیز آنلاین قانونی است؟
24815
**زمینه:** من داده‌های توییتر را از طریق منبعی جمع‌آوری می‌کنم که به من امکان می‌دهد یک نمونه آماری از توییت‌هایی که با یک فیلتر مطابقت دارند، تهیه کنم. من می‌خواهم نرخ نمونه مناسب را تعیین کنم تا به یک اطمینان آماری خاص در برآوردم از تعداد واقعی توییت‌هایی که با آن فیلتر مطابقت دارند دست یابیم. **جزئیات نمونه‌گیر:** برای هر توییت، نمونه‌گر یک عدد ممیز شناور تصادفی جدید را محاسبه می‌کند که به طور یکنواخت در محدوده [0100] توزیع شده است، سپس آن عدد را با یک آستانه معین مقایسه می‌کند (مثلاً 1.6 برای 1.6٪). اگر عدد کمتر از آستانه باشد، از توییت نمونه برداری می شود. در غیر این صورت دور انداخته می شود. **یک مثال:** فرض کنید @justinbieber روزانه 500150 منشن دریافت می کند. من ابتدا فیلتر می کنم تا تمام توییت هایی که به @justinbieber اشاره می کنند را دریافت کنم، سپس با احتمال 1 درصد نمونه برداری می کنم. این باید چیزی در حدود 5001 به من بدهد، که سپس آن را بر 1% تقسیم می کنم تا تخمینی 500،100 ذکر در روز داشته باشم. در اینجا دو منبع خطا وجود دارد: 1) **خطای گرد کردن.** من لزوماً دقت داده های شمارش خود را کاهش می دهم، سپس به اصل برون یابی می کنم. 2) **خطای نمونه گیری.** در حالی که نمونه‌بردار از احتمال توزیع یکنواخت در محدوده استفاده می‌کند، ممکن است دقیقاً درصد توییت‌هایی را که درخواست می‌کنم دریافت نکنم. **هدف** من می‌خواهم احتمال نمونه مناسبی را محاسبه کنم تا بتوانم با اطمینان خاصی به تخمین تعداد ذکر در توییتر برسم. به عنوان مثال، ممکن است بخواهم با اطمینان 95٪ بگویم که برآورد من در 2٪ از تعداد واقعی است. با توجه به هر دو منبع خطا در اینجا، چه فرمول‌ها یا تکنیک‌هایی به من اجازه می‌دهند تا احتمال مناسب استفاده در نمونه‌گر خود را با توجه به تعداد تخمینی در روز محاسبه کنم؟ **نکته** بهترین راه حل باید با شمارش های کوچک (<40) و شمارش های بزرگ به همان اندازه خوب عمل کند. مطمئناً نمونه برداری 100٪ برای دسته های توییتر با تعداد کمی قابل قبول است، اما هزینه ثابتی برای هر توییت وجود دارد، و بنابراین به حداقل رساندن تعداد توییت های مورد نیاز در صورت امکان مهم است.
تعیین نرخ نمونه مناسب برای داده های شمارش
32080
اگر فردی بیانیه ای مانند زیر را بیان کند: > به طور کلی، غیرسیگاری هایی که در معرض دود محیطی قرار دارند، در مقایسه با غیرسیگاری هایی که در معرض دود قرار نمی گیرند، خطر نسبی > بیماری عروق کرونر قلب 1.25 (95 درصد فاصله اطمینان، 1.17 تا > 1.32) دارند. > > خطر نسبی برای کل جمعیت چیست؟ چند چیز > با بیماری عروق کرونر قلب مرتبط است؟ از تعداد زیادی از مواردی که می‌توان آنها را آزمایش کرد، تعداد بسیار کمی از آنها در واقع به بیماری عروق کرونر قلب مرتبط هستند، بنابراین احتمال اینکه هر چیزی که به‌طور تصادفی انتخاب شده باشد، بسیار ناچیز است. بنابراین می توانیم بگوییم که ریسک نسبی برای جمعیت > 1 است. اما بازه نقل شده حاوی مقدار 1 نیست. بنابراین یا در واقع ارتباطی بین این دو چیز وجود دارد که احتمال آن به طور ناپدید کننده > کم است، یا این یکی از 5% بازه هایی است که شامل > پارامتر نیست. از آنجایی که احتمال دومی بسیار بیشتر از اولی است، این همان چیزی است که ما باید فرض کنیم. بنابراین، نتیجه گیری مناسب این است که مجموعه داده > تقریباً به طور قطع غیرمعمول از جمعیت بود، و بنابراین هیچ ارتباطی نمی توان > دلالت کرد. البته، اگر مبنایی برای این فرض وجود داشته باشد که بیش از 5 درصد موارد مرتبط با بیماری عروق کرونر قلب است، ممکن است شواهدی در این آمار وجود داشته باشد که این پیشنهاد را تایید کند که دود محیطی یکی از آنهاست. عقل سلیم نشان می دهد که این بعید است. چه اشتباهی در استدلال آنها وجود دارد (همانطور که همه سازمان های بهداشتی متفق القول هستند که ادبیات قابل توجهی در مورد اثرات مخرب سیگار کشیدن دست دوم وجود دارد)؟ آیا به دلیل این فرضیه است که از تعداد زیادی چیزهایی که می توان آزمایش کرد، تعداد بسیار کمی واقعاً به بیماری عروق کرونر قلب مرتبط هستند؟ این جمله ممکن است برای هر عاملی که به طور تصادفی انتخاب شده است (یعنی چند سگ با خطر بیماری عروق کرونر دارد) صادق باشد، اما احتمال پیشینی برای سیگار کشیدن دست دوم و بیماری عروق کرونر قلب بسیار بیشتر از هر عامل تصادفی است. . آیا این استدلال درستی است؟ یا چیز دیگری هست؟
فاصله اطمینان و احتمال - خطا در این عبارت کجاست؟
102812
من با داده های مختلف نمایندگی ملی بسیار کار کرده ام. این منابع داده دارای طراحی پیمایشی پیچیده ای هستند، بنابراین تجزیه و تحلیل مستلزم تعیین متغیرهای طبقه بندی و وزن است. در میان منابع داده ای که در حوزه مطالعه من هستند، ابزارهای یادگیری ماشین برای آنها اعمال نشده است. یک دلیل واضح این است که روش های یادگیری ماشین (در حال حاضر) متغیرهای وزن و طبقه بندی را در نظر نمی گیرند. هدف تجزیه و تحلیل های وزنی / طبقه بندی شده به دست آوردن تخمین های جمعیت تنظیم شده است که با هدف / هدف یادگیری ماشین متفاوت است. مردم در مورد استفاده از منابع داده ملی و نادیده گرفتن متغیرهای وزن و طبقه بندی چه افکاری دارند؟ به عبارت دیگر، اگر یک مطالعه یادگیری ماشینی را مرور می‌کنید که از داده‌های نماینده ملی استفاده می‌شود، اما متغیرهای وزن و طبقه‌بندی را نادیده می‌گیرد، با این فرض که محقق/نویسنده در مورد این تصمیم روش‌شناختی پیشقدم بوده و ادعایی درباره آن ندارد، چه فکری می‌کنید. نتایج نماینده ملی؟ پیشاپیش متشکرم
یادگیری ماشینی با داده های نظرسنجی وزن دار / پیچیده
57772
من به معیاری از واگرایی دو توزیع نیاز دارم. (آنها پیچیده هستند و با خانواده نمایی، نرمال، log-normal، قانون قدرت تناسب ندارند. شاید ترکیبی از آن باشد، اما من در حال حاضر احساس نمی کنم که آن را بفهمم.) من بین Kullback-Leibler فکر می کنم. واگرایی و اطلاعات متقابل من هیچ توزیع پیش‌فرضی ندارم، بنابراین دوست ندارم DKL نامتقارن باشد (البته می‌توانم آن را متقارن کنم، اما در مورد آن اطمینان ندارم.) کدام یک را انتخاب می‌کنید؟ هر گونه ایده دیگر نیز استقبال می شود!
واگرایی متقارن Kullback-Leibler یا اطلاعات متقابل به عنوان معیار فاصله بین دو توزیع؟
106302
من دو نسخه از همین برنامه دارم. من تعدادی تست عملکرد را برای هر دو اعمال می‌کنم و زمان پاسخ‌دهی آنها را اندازه‌گیری می‌کنم، برای مثال https://gist.github.com/valtih1978/d2cc2fe96fbbe1987ada // random(10000) //> پیام‌های 10000 کاراکتری فشرده در 66271 بیت //| در 59 (درخت) در مقابل 20 (جدول) میلی ثانیه //| در 68 (درخت) در مقابل 17 (جدول) msec //| در 45 (درخت) در مقابل 23 (جدول) msec //| در 44 (درخت) در مقابل 19 (جدول) msec //| در 42 (درخت) در مقابل 16 (جدول) msec //| پیام های 10000 کاراکتری را در 66319 بیت فشرده کرد //| در 44 (درخت) در مقابل 15 (جدول) msec //| در 77 (درخت) در مقابل 15 (جدول) msec //| در 40 (درخت) در مقابل 95 (جدول) میلی ثانیه //| در 47 (درخت) در مقابل 17 (جدول) msec //| در 42 (درخت) در مقابل 15 (جدول) میلی ثانیه //| پیام های 10000 کاراکتری را در 66264 بیت فشرده کرد //| در 45 (درخت) در مقابل 15 (جدول) msec //| در 86 (درخت) در مقابل 15 (جدول) msec //| در 39 (درخت) در مقابل 20 (جدول) میلی ثانیه //| در 43 (درخت) در مقابل 14 (جدول) msec //| در 41 (درخت) در مقابل 14 (جدول) msec //| پیام های 10000 کاراکتری را در 66315 بیت فشرده کرد //| در 109 (درخت) در مقابل 17 (جدول) msec //| در 85 (درخت) در مقابل 15 (جدول) msec //| در 41 (درخت) در مقابل 21 (جدول) msec //| در 94 (درخت) در مقابل 29 (جدول) msec //| در 45 (درخت) در مقابل 30 (جدول) میلی ثانیه //| فشرده 10000 کاراکتر //| خروجی بیش از حد قطع است. من می خواهم بفهمم که آیا یکی سریعتر است و چقدر؟ این بدان معنی است که من دو نمونه دارم که هر کدام دارای تغییراتی هستند. حال، چگونه مطمئن شوم که یکی n برابر سریعتر از دیگری است؟ آیا باید مقداری توزیع اطمینان ایجاد کنم که به من بگوید با آن احتمال k برابر سریعتر است؟ تنوع جیره ها چه چیزی می تواند به من بدهد؟ آیا باید از نمونه برداری مجدد استفاده کنم؟ من حتی نمی توانم بفهمم که چگونه سرعت متوسط ​​را محاسبه کنم. آیا باید میانگین سرعت های مربوطه را بگیرم، $speedup_{avg} = (b_1/a_1 + b_2/a_2 + \ldots)/n$ یا به نحوی $b_1$ را در مقابل همه $a_n$s محاسبه کنم و سپس آنها را جمع کنم؟ اگر به تفاوت‌های مطلق علاقه داشتم، $speedup_{avg} = (b_1 - a_1 + b_2 - a_2 + \ldots)/n$ را می‌گرفتم، زیرا برابر است با اجرای همه تست‌های $a$، سپس همه تست‌های $b$ و با گرفتن تفاوت میانگین $speedup_{avg} = ((b_1 + b_2 + \ldots) - (a_1 + a_2 + \ldots))/n$ یا میانگین نمونه‌گیری مجدد همه $b_i$ در برابر همه $a_j$، $$speedup_{avg} = {1/n\ (b_1 - a_1 + b_1 - a_2 + \ldots) + (b_2 - a_1 + b_2 - a_2 + \ldots)/n + \sum_{i=3}^n{\sum{(b_i - a_j)}/n} \over n}.$$ این واقعیت که میانگین سنی ها همگرا می شوند، به نظر نمی رسد برای نسبت ها صادق باشد. به عنوان مثال، $$avg_1 = {(b_1 + b_2)/(a_1 + a_2) \ بیش از 2} $$ $$avg_2 = {b_1/a_1 + b_2/a_2 \ بیش از 2} = {(b_1 + b_2 + b_2 a_1 /a_2 + b_1 a_2/a_1) \بیش از 2 (a_1+a_2)} = avg_1 + {b_2 {a_1 \over a_2} + b_1 {a_2 \over a_1} \over 2 (a_1+a_2)} $$ گم شدم. آیا این بدان معناست که هر آماری مبتنی بر نسبت ارگودیک نیست؟ منظورم این است که آیا می توانم فقط زمان اجرای نمونه اول را جمع کنم و بر زمان اجرای کل ثانیه تقسیم کنم تا نسبت میانگین را بدست آوریم، آیا می توانم به جای شکستن آنها، فقط یک اجرای طولانی از برنامه اول و اجرای طولانی برنامه دوم ایجاد کنم. به قطعات یا من برای واریانس به آن نیاز دارم؟ آیا باید از اندازه گیری هارمونیک استفاده کنم (بار کاری برای همه تست ها یکسان است)؟ یا برای میانگین گیری از ریشه دوم استفاده کنم؟ چگونه تصمیم بگیرم؟ بعضی ها می گویند که باید از قضیه فیلر استفاده کرد، اما من نمی فهمم چه چیزی باید در اینجا ثابت شود. آیا معیار درستی برای هدف من وجود دارد یا تعداد زیادی وجود دارد؟ کدام ساده است و کار را انجام می دهد؟
چگونه سرعت را اندازه گیری کنم؟
105452
من رگرسیون لجستیک را روی داده ها اجرا کرده ام. درصد همخوانی دارد 45. این خیلی کم است. با این حال، تست Hosmer-Lemeshow بی اهمیت است. به این معنی که نمی‌توانیم فرضیه صفر را رد کنیم و بیان می‌کند که مدل به خوبی با داده‌ها تناسب دارد. این خوب است! ctable همچنین 70 درصد از داده های پیش بینی شده را به درستی نشان می دهد. نتایج متناقض آزمون هماهنگ و هاسمر-لمشو را چگونه باید در نظر گرفت؟ چگونه باید این مدل را تفسیر کنم؟
ارزیابی برازش مدل رگرسیون لجستیک
91465
فرض کنید می خواهم حجم نمونه مورد نیاز برای تشخیص یک درصد تغییر را در نسبتی که معمولاً 35 درصد است محاسبه کنم. منظورم 35 تا 36 درصد نیست، 35 درصد تا 35.35 درصد است. در اینجا محاسبه در R در حال انفجار است: > library(pwr) > p2 = 0.35 > p1 = p2*1.01 > p1 [1] 0.3535 > h = 2 * asin(sqrt(p1)) - 2 * asin(sqrt(p2 )) > آلفا = 0.05 > بتا = 0.05 > pwr.2p.test(h=h, sig.level=alpha, power = 1-beta) خطا در uniroot(function(n) eval(p.body) - power, c(2 + 1e-10, 1e+05) )) : مقادیر f() در نقاط انتهایی که علامت مخالف ندارند در اینجا یک محاسبه 3% موفقیت آمیز است و می گوید که نمونه باید اندازه 53,991 باشد: > کتابخانه (pwr) > p2 = 0.35 > p1 = p2*1.03 > p1 [1] 0.3605 > h = 2 * asin(sqrt(p1)) - 2 * asin(sqrt(p2)) > آلفا = 0.05 > بتا = 0.05 > pwr.2p.test(h=h، sig.level=alpha، power = 1-بتا) تفاوت محاسبه توان نسبت برای توزیع دوجمله ای (تبدیل آرکسین) h = 0.02194005 n = 53990.98 sig.level = 0.05 توان = 0.95 جایگزین = دو طرفه توجه: اندازه های نمونه یکسان من تمام فرضیات اندازه نمونه بالا را قبول دارم ، تست دو طرفه و غیره). برای اطلاعات بیشتر در مورد pwr اینجا و اینجا را ببینید.
چگونه اندازه نمونه را برای تشخیص یک تغییر کوچک محاسبه کنیم؟
99904
من یک ANOVA یک طرفه انجام دادم: من دو گروه داشتم و آزمایش کردم، اگر آنها در سه DV مختلف متفاوت هستند. از آنجایی که من سه بار تست کردم، فکر کردم عاقلانه است که به سراغ اصلاح بونفرونی بروم. اما بعد از آن اعلان دریافت کردم که اصلاح را نمی توان انجام داد زیرا کمتر از سه گروه وجود دارد. کسی می تواند این را برای من توضیح دهد؟ فکر می‌کردم تصحیح Bonferroni دقیقاً برای این مورد است: چندین بار آزمایش داده‌ها روی همان گروه‌ها.
اصلاح بونفرونی پس از ANOVA یک طرفه
105456
فرض کنید N سیب از چندین فروشنده (A، B، C، D) داریم و می‌خواهیم آزمایش کنیم که آیا میانگین وزن هر گروه فروشنده متفاوت از میانگین وزن بدون قید و شرط است. می‌دانم که می‌توانم از متغیر ساختگی مقطعی برای آزمایش اینکه آیا میانگین B، C، D با میانگین A متفاوت است یا خیر، با ایجاد 3 نشانگر Is B، Is C و Is D و ایجاد حالت پایه A استفاده کنم. اما در اینجا می خواهم از میانگین جمعیت به عنوان مورد پایه استفاده کنم. راهی هست؟ شاید لازم باشد فاکتورهای بیشتری مانند مکان و رنگ به این مدل اضافه کنم با تشکر
چگونه می توان با استفاده از رگرسیون، میانگین چند گروه متفاوت از میانگین غیرشرطی را آزمایش کرد؟
24810
من در حال حاضر روی یک مدل رگرسیون تقسیم‌بندی شده با دو متغیر $(x_i,y_i)$ برای $i = 1..N$ کار می‌کنم. مدل باید این شکل را داشته باشد: $y_i = \beta_0 + \beta_1 x_i$ برای $x_i < x_{crit}$ $y_i = \alpha_0 + \beta_0 + \beta_1 x_i$ برای $x_i \geq x_{crit}$ جایی که $x_{crit}$ یک مقدار نقطه شکست است که باید از داده‌ها و همچنین ضرایب $\alpha_0 تعیین شود. \beta_0$ و $\beta_1$. من ایده های مشابهی را در مقالات آماری / اقتصادسنجی (مثلاً مدل های رگرسیون تقسیم بندی شده / طراحی ناپیوستگی رگرسیون) دیده ام، اما مایلم در مورد نوع مدلی که باید استفاده کنم بازخوردی دریافت کنم. در حالت ایده‌آل، من می‌خواهم از یک چارچوب کاملاً مستند استفاده کنم که در آن بتوانم نوعی فاصله اطمینان را در نقطه شکست $x_{crit}$ بدست بیاورم.
مدل های رگرسیون ساده برای داده ها با نقطه شکست
106308
با شروع با بردارهای داده پر سر و صدا $\mathbf{x}$ و $\mathbf{y}$، داده‌ها را به بردارهای $\mathbf{x}_b$ و $\mathbf{y}_b$ با طول $N_b$ متصل کردم. با خطی ثابت ($\mathbf{x}_b^i - \mathbf{x}_b^{i-1} = \delta$) یا فاصله لگاریتمی ($\mathbf{x}_b^i/ \mathbf{x}_b^{i-1} = \rho$). اکنون می‌خواهم یک تناسب را با استفاده از، به عنوان مثال scipy.optimize.curve_fit محاسبه کنم. قبل از Bining، الگوریتم حداقل مربعات به تمام نقاط و مقادیر نگاه می کند و بنابراین وزن مناسبی دریافت می کند. با این حال، اکنون که من آن اطلاعات را از بین برده ام، چگونه می توانم فاکتورهای وزنی/خطایی خوبی برای نقاط داده خود تولید کنم؟ من یک پاسخ بسیار کامل برای یک مشکل یک بعدی در این سایت دیدم اما نمی دانم چگونه نسخه های دو بعدی فرمول ها را استخراج کنم. تفاوت این است که گسترش نقاط در محور x و محور y هر دو باید در یک پارامتر خطا ترکیب شوند.
چگونه یک خطا/وزن را برای داده‌های دوبعدی انتخاب کنیم؟
114629
من سعی می کنم با استفاده از ggplot یک نمودار پراکندگی ایجاد کنم. مقدار x تقریباً از 0-20 می رود و مقدار y از 0-~50 می رود. داده ها خام هستند، بنابراین خوب و مرتب نیستند و من باید یک خط منحنی را در اکثر داده ها رسم کنم. کدی که می‌خواهم از آن استفاده کنم ggplot (دما، Number.of.Fish،aes(x=Temperature،y=Number.of.Fish))+geom_smooth است، اما همیشه یک پیام خطا دریافت می‌کنم: خطا در ارث (نقشه‌برداری، uneval)، تابع Number.of.Fish را پیدا نکرد
نمودارهای پراکنده در ggplot2 با خط روند غیر خطی
105457
بنابراین، من یک نمودار پویا وزن دار داشتم که اطلاعاتی در مورد 10 گام متوالی (در اصل 10 فایل) داشت. اکنون، من باید الگوهایی را در وزن و ساختار نمودار کامل استخراج می‌کردم. من این کار را کردم. فایل خروجی (دارای حدود 10000 ردیف) چیزی شبیه به Node 1 Node 2 Pattern 191 570 00 21 570 00 378 570 00 459 570 00 552 570 00 1907 00 223 بود. 00 570 689 00 ................... اساساً 2 گره و الگوی مرتبط را می دهد. آنچه من می خواهم بپرسم این است که از چه مدلی مانند (رگرسیون خطی، یا نمودارهای نواری، ....) می توانم در اینجا استفاده کنم تا اطلاعات معنی داری را جمع آوری کنم، مثلاً بگوییم، می توانم به یک مدل پیش بینی یا می توانم بگویم که اینها 2 نمودار هستند که ماهیت مشابهی دارند.
استنتاج های ممکن از الگوی نمودار
57487
من قصد دارم از دو متغیر پاسخ استفاده کنم. یکی بین 0 و 1 محدود شده است، و من حدس می‌زنم می‌توانم از ساختار خطای دوجمله‌ای (یا مرتبط) استفاده کنم. متغیر دوم بین -1 و 1 محدود شده است. من مطمئن نیستم که برای این یکی چه کاری باید انجام دهم. آیا باید آن را تبدیل کنم؟ لطفاً توجه داشته باشید که من قصد دارم از این متغیرها در مدل‌سازی اثر مختلط استفاده کنم (به پست مرتبط در مدل‌سازی اثر ترکیبی مراجعه کنید: مدل‌سازی اثر ترکیبی با مشاهدات زوجی و متغیرهای پاسخ محدود). هر گونه کمک بسیار قدردانی می کنم.
متغیر پاسخ محدود [-1;1] - آیا باید آن را تبدیل کنم؟
57482
فرض کنید من داده‌های یک متغیر $V$ را دارم که برای دو گروه از افراد اندازه‌گیری شده است ($a$ و $b$) و می‌خواهم ببینم آیا تفاوت معنی‌داری بین آنها و _over time_ وجود دارد، یعنی $V_a$ ثابت می‌ماند. با گذشت زمان اما $V_b$ کاهش می یابد. فقط برای تاکید بر اینکه $a$ و $b$ دو گروه از افراد با سنین مختلف هستند، و نه دو نفر که در یک دوره زمانی اندازه گیری می شوند، چگونه این کار را انجام دهم؟ من شروع به خواندن چیزهایی در مورد مدل های ARIMA کردم، اما کاملاً فنی می شود، و من طرفدار سادگی هستم :-) بسیار متشکرم! عمر
محاسبه تفاوت بین گروه ها و در طول زمان (سن)
27895
من در حال خواندن مقاله نرخ های بهینه همگرایی برای تخمین ماتریس کوواریانس پراکنده توسط T. Cai و H. Zhou هستم. آنها به نسخه خاصی از لمای اسواد اشاره می کنند (به لم 2، ص 6 مقاله مرتبط مراجعه کنید)، که با نسخه ای که من در یو [1] و لو کم [2] یافتم، متفاوت است. من همچنین ون در فارت [3] را سفارش داده ام، اما هنوز به دستم نرسیده است. آیا می‌توانید منبعی را بشناسید که حاوی مدرکی برای نسخه‌ای که Cai بیان می‌کند باشد؟ یا می توانید دلیل بیاورید؟ من به خصوص علاقه مندم زیرا با اثبات لم 3 آنها (ص. 7 مقاله پیوندی، اثبات ص 21) مشکل دارم و لم ها بسیار مرتبط به نظر می رسند. به طور خاص، من نمی‌دانم که چگونه استفاده از $\hat{\theta} = \mbox{argmin}_{\theta \in \Theta} d(T,\psi (\theta))$ در معادله چگونه است. (37) معنی دار است زیرا $T$ یک متغیر تصادفی است. [1] B. Yu (1997). اسود، فانو و لو کم. Festschrift برای لوسین لو کم. D. Pollard, E. Torgersen, and G. Yang (eds), pp. 423-435, Springer-Verlag. [2] Le Cam, L. (1986). روش های مجانبی در تئوری تصمیم گیری آماری. SpringerVerlag، نیویورک. [3] van der Vaart، A.W. (1998). آمار مجانبی. انتشارات دانشگاه کمبریج، کمبریج.
انواع لم اسعود
86519
من در تلاش برای یافتن راهی مناسب برای مقایسه پراکندگی نسبی داده ها بین دو گروه و همچنین بررسی معنی دار بودن آنها از نظر آماری بودم. در هفته های گذشته، من خیلی جستجو کردم و چندین مقاله خواندم و در نهایت به یک راه حل رسیدم. از آنجایی که من اهل پیشینه آماری نیستم، اگر اشتباه می کنم، در این مورد از شما راهنمایی می خواهم! 1. طبق Jeerapa [1]، چندین روش برای محاسبه فاصله اطمینان برای یک ضریب تغییرات وجود دارد ($cv=\frac{\sigma}{\mu}$، که در آن $\sigma$ نشان دهنده انحراف استاندارد است، و $ \mu$ نشان دهنده مقدار میانگین است). من هم از فاصله اطمینان میلر و هم از فاصله اطمینان مک کی استفاده کرده ام. معادلات را می توان در مقاله ذکر شده (3 و 4) یافت. 2. با توجه به آلتمن [2]، ما می توانیم هم مقدار p (به طور قابل توجهی متفاوت از 0) و هم خطای استاندارد را از 95% CI و مقدار میانگین محاسبه کنیم. 3. طبق این وب سایت، می توانیم آمار t تفاوت میانگین ها را محاسبه کنیم و سپس می توانیم p-value را از جدول توزیع t مربوطه بدست آوریم. سؤالات من این است: 1. آیا روشی معتبر برای مقایسه پراکندگی نسبی داده ها بین دو گروه است؟ آیا می توانیم از تصحیح بونفرونی برای بیش از دو گروه استفاده کنیم؟ 2. اساسا، من یک مجموعه داده را با استفاده از روش‌های مختلف عادی کرده‌ام و پراکندگی نسبی را مقایسه کرده‌ام. به عنوان مثال، cv یک ویژگی خام 12٪ است، پس از نرمال سازی این ویژگی با استفاده از روش a1، cv به 10٪ می شود و پس از نرمال سازی با استفاده از روش a2، cv به 6٪ می رسد. از آنجایی که CV از مجموعه داده های مستقل محاسبه نمی شود، آیا می توانیم آزمون t را به جای آزمون t زوجی انجام دهیم؟ برای آزمون t زوجی، ما به انحراف استاندارد تفاوت ها نیاز داریم که نمی توانیم محاسبه کنیم (cv یک مقدار اسکالر است!). با استفاده از روش بالا، متوجه شدم که مقدار p برای روش a1 و a2 کمتر از 0.05 است که در آن cv a2 به طور قابل توجهی کمتر از cv a1 است. 3. محدودیت های CV عبارتند از: الف) std یکسان اما میانگین متفاوت می تواند مقدار cv متفاوتی ایجاد کند، اگرچه پراکندگی هر دو داده یکسان است. ب) زمانی که میانگین نزدیک به 0 باشد بسیار حساس است. بیشتر مقادیر میانگین از روش a1 نزدیک به 0 هستند (مثلاً 0.6). آیا راه دیگری برای مقایسه پراکندگی داده ها بین دو یا چند گروه وجود دارد؟ من واقعا از کمک شما قدردانی می کنم. [1] Sappakitkamjorn, J. and Niwitpong, S. 2013, 'فواصل اطمینان برای ضرایب تغییرات با پارامترهای محدود', International Journal of Mathematical, Computational Science and Engineering, Vol. 7 (9). [2] آلتمن، دی.جی. و بلاند، J.M. 2011، چگونه مقدار P را از فاصله اطمینان بدست آوریم، BMJ، 2011.
مقایسه آماری پراکندگی داده ها بین دو گروه
65563
من در حال انجام یک خوشه بندی سلسله مراتبی و یک خوشه بندی DBSCAN بر روی یک ماتریس فاصله هستم (نقشه خودسازماندهی چیزی است که من نیز می خواهم انجام دهم). من در حال تلاش برای یافتن روشی برای انتخاب تعداد خوشه ها بر اساس برخی معیارها هستم (مانند نمودار زانویی با برخی معیارهای شیب آن یا معیارهای BIG یا ...)، اما مطمئن نیستم که روش های کارآمد و قابل اعتماد برای انجام این کار چیست. بنابراین زمانی که فقط ماتریس فاصله وجود داشته باشد. هر گونه پیشنهاد قدردانی می شود.
انتخاب تعداد خوشه ها زمانی که فقط ماتریس فاصله موجود است
102810
طبق برخی از مقاله هایی که می خوانم، معمولاً از فاصله جفریس و ماتوزیتا استفاده می شود. اما من نتوانستم اطلاعات زیادی در مورد آن پیدا کنم به جز فرمول زیر JMD(x,y)=$\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i}) ^2}$ شبیه فاصله اقلیدسی است به جز ریشه دوم E(x,y)=$\sqrt[2]{\sum(x_i-y_i)^2}$ JM فاصله برابر است ادعا می شود که از نظر طبقه بندی قابل اعتمادتر از فاصله اقلیدسی است. آیا کسی می تواند توضیح دهد که چرا این تفاوت فاصله JM را بهتر می کند؟
نکات مثبت فاصله جفریس ماتوزیتا
24819
در متلب، من [p,stats,~] = anova1(X) را با برخی از نمونه ها اجرا کردم و نشان دهنده تفاوت معنی داری در (حداقل) 2 میانگین از نمونه ها است. یعنی $p < \alpha$ برای مقداری از $\alpha$. با این حال، اجرای multicompare (stats,'alpha', alpha) هیچ تفاوت قابل توجهی را بین مجموعه داده‌ها نشان نمی‌دهد (یعنی هیچ فاصله اطمینانی وجود ندارد که حاوی 0 نباشد). آیا این یک تناقض است یا ممکن است و چرا؟ با تشکر فراوان.
در متلب، نتایج حاصل از anova1 و multicompare مخالف هستند؟
57486
در بسیاری از موارد، ریزداده‌های خام به دلیل حفظ حریم خصوصی توسط مؤسسات منتشر نمی‌شوند. تکنیک های زیادی برای محافظت از مقادیر حساس در داده ها استفاده می شود. اما بسیاری از آنها می توانند ساختارهای چند متغیره را در داده ها از بین ببرند و خود داده ها برای تحقیق اصلا مناسب نیستند. از سوی دیگر، اگر داده ها به اندازه کافی محافظت نشوند، حفظ حریم خصوصی ممکن است تضمین نشود. بنابراین، هر گونه مبادله بین حفظ حریم خصوصی و استفاده از داده ها مورد نظر است. چه روش هایی برای این منظور محبوب هستند و سعی می کنند ساختار چند متغیره داده ها را با حفظ حریم خصوصی تا حد امکان از بین نبرند؟
کدام روش های فعلی برای محدودیت افشای آماری بهترین مبادله بین حریم خصوصی داده و ابزار داده است؟
105455
من با استفاده از کتابخانه encog Kmeans روی مشکلی کار می کنم و مهم نیست که چه ویژگی هایی به مدل اضافه می کنم، همیشه در یکی از خوشه ها گیر می کند. همه نمونه ها هر بار در یک خوشه جمع می شوند. آیا کسی می‌داند که آیا در کد K-means برای Encog خطایی وجود دارد یا اینکه من فقط یک کار فوق‌العاده احمقانه انجام می‌دهم؟ برای ثبت، من آن را با بسیاری از ویژگی های مختلف که دارای محدوده اعداد مختلف هستند، امتحان کرده ام.
K-به معنای گیر کرده در 1 خوشه است
33759
من دو گروه دارم با توجه به آزمون KW تفاوت معنی داری وجود دارد. اما آیا باید میانگین یا میانه گروه ها را گزارش کنم؟
آیا هنگام استفاده از آزمون کروسکال والیس نیاز به گزارش میانه یا میانگین داریم؟
99906
برای مدل نرمال چند متغیره در آمار بیزی، که در آن توزیع نمونه $y|\theta،\Sigma \sim N_n(\theta، \Sigma)$، و $\theta$ یک بردار n بعدی است و $\Sigma است. $ a n در n ماتریس کوواریانس واریانس، من سعی می کنم دوباره پارامتری کنم $\Sigma=\Psi^{-1}$. من با پیدا کردن ژاکوبین $\Psi^{-1} $ مشکل دارم. چطوری پیداش کنم و جوابش چیه؟
پارامترسازی مجدد مدل نرمال چند متغیره در آمارهای بیزی، ژاکوبین ماتریس واریانس کوواریانس؟
82823
**این چیزی است که من قبلاً می‌دانم:** در مقیاس‌های فاصله‌ای مانند دما، _مقدار صفر واقعی_ وجود ندارد. مقدار صفر بیانگر این نیست که دما در آن نقطه در دسترس نیست. صفر فقط یک عدد تعریف شده توسط انسان است که سطح معینی از دما را نشان می دهد. همه اینها به این دلیل است که دما یک مقیاس نسبی است. **چیزی که من گیج شدم:** * چرا نمی توانم بگویم 40$^\circ\\!$C دو برابر گرمای 20$^\circ\\!$C است؟ * وزن چطور؟ نسبی است اما می توانم بگویم وزن 40 کیلوگرم دو برابر 20 کیلوگرم است.
چرا ضرب و تقسیم در هنگام استفاده از مقیاس فاصله مجاز نیست؟
113012
نمونه‌های زیر را از چهار توزیع در نظر بگیرید: $a = \\{20, 2, 200\\} \qquad\qquad c = \\{1, 10, 100\\}$b = \\{22, 2.2, 220\\} \qquad\quad\:\,d = \\{1.2, 12, 120\\}$ می خواهم بگویم که افزایش نسبی از $a$ به $b$ بطور قابل توجهی کمتر از افزایش نسبی از $c$ به $d$ است. * * * اگر فرض شود که نمونه ها جفت شده اند، با عنصر $n$th $a$ مربوط به $n$th عنصر $b$، این را می توان با آزمون Mann-Whitney U بر روی عنصر انجام داد. نسبت‌های عاقلانه توزیع‌ها: $\frac{b}{a} = \\{1.1، 1.1، 1.1\\}$ در مقابل $\frac{d}{c} = \\{1.2، 1.2، 1.2\\}$ با دادن مقدار p 0.02 (با نمونه های بزرگتر به سمت 0 می رود). * * * اما اگر نمونه ها جفت فرض نشوند، یا اندازه های متفاوتی داشته باشند، چه؟ به جای آن می‌توان از تست «راه‌اندازی نسبت» استفاده کرد: به‌طور تصادفی اعداد $a_i$، $b_j$، $c_k$، $d_l$ را با جایگزینی از هر توزیع انتخاب کنید و ببینید چقدر $b_j / a_i < d_l / c_k$ است. برای این مثال، 31 مورد از 81 انتخاب ممکن، $b_j / a_i > d_l / c_k$ دارند، که یک مقدار p برابر با $\frac{31}{81} \حدود 0.38$ است. راه‌اندازی نسبت در اینجا قطعی نیست زیرا واریانس در هر توزیع بزرگتر از تغییرپذیری (به عنوان مثال تفاوت در میانگین یا میانه) بین جفت توزیع‌ها است. آیا آزمون آماری وجود دارد که همان کار راه‌اندازی نسبت را انجام دهد، اما نسبت به واریانس درون توزیعی حساس نباشد و فقط بر تغییرپذیری بین توزیع‌ها تمرکز کند؟
افزایش نسبی بین دو جفت نمونه
58939
بگویید من در حال انجام یک تجزیه و تحلیل هستم که به یک معیار بهداشتی خاص نگاه می کند. من علاقه مند به تفاوت در آن معیار بین بیماران و گروه شاهد هستم و تفاوت آب و هوا یا نبودن آن با 0 متفاوت است. مطالعاتی در گذشته انجام شده است که به همان سؤال تحقیقاتی و معیارهای بهداشتی من نگاه کرده است، اما در نمونه های مختلف بیماران. در تجزیه و تحلیل بیزی خود، یک توزیع قبلی بر اساس مطالعات قبلی ایجاد می کنم که تفاوت میانگین و خطای استاندارد را در بر می گیرد. لطفاً من را ببخشید اگر این یک سؤال تازه وارد است، زیرا من به تازگی آمار بیزی را یاد می‌گیرم، اما **نتایج تجزیه و تحلیل بیزی من از چه جهت با نتایجی که از استفاده از متاآنالیز وزنی واریانس معکوس برای ترکیب میانگین به دست می‌آورم متفاوت خواهد بود. تفاوت برآوردها از مطالعات قبلی با داده های فعلی من **؟
تفاوت بین رویکرد مکررگرایی با متاآنالیز و رویکرد بیزی چیست؟
33753
با خواندن بسیاری از صفحات راهنما، می بینم که یک راه متداول برای تصحیح پراکندگی بیش از حد، برازش مدل ها با استفاده از توزیع های شبه باینومیال یا بتابینومیال است. با این حال، من نمی توانم در مورد اینکه تا چه حد اصلاح به دست آمده است یا اینکه چگونه می توانم مطمئن باشم که یک مدل قابل اعتماد نصب شده است، کمکی پیدا نمی کنم. من به داده های جهش از بسیاری از ژن ها که در 10 کلاس مرتب شده قرار می گیرند علاقه مند هستم. هر مشاهده شامل تعدادی پایه بررسی شده ('N') و تعداد تعویض های مشاهده شده ('S') است. پراکندگی بیش از حد عالی است (~22!) زیرا ژن ها در سرعت تکامل آنها به طور قابل توجهی متفاوت هستند. همچنین این مسئله وجود دارد که N نیز از <100 تا >30000 بسیار متفاوت است. من می خواهم این فرضیه را آزمایش کنم که میانگین نرخ جانشینی ('S/N') با تعداد کلاس افزایش می یابد. من گزینه های زیر را امتحان کرده ام: 1. (افتضاح!) این واقعیت را نادیده بگیرید که داده ها دو جمله ای هستند، حداقل N>=1000 را تنظیم کنید و یک مدل گاوسی را با S/N به عنوان پاسخ مناسب کنید. تناسب اندک است، اگرچه مسلماً وحشتناک نیست. 2. از cbind(S, N-S) استفاده کنید و مدلی با ساختار خطای شبه دوجمله ای برازش دهید. به نظر می‌رسد که پاسخ مشابهی می‌دهد که از P-مقدارهای بسیار پایینی که هنگام استفاده از خانواده=دوجمله‌ای دریافت می‌کنم اجتناب می‌کند، اما چگونه می‌توانم بفهمم که درجه تصحیح معتبر است؟ این یک مشکل نسبتاً ساده به نظر می رسد، اما من می خواهم مطمئن شوم که مدل به درستی نصب شده است و در صورت وجود محافظه کارانه است.
محدودیت های تصحیح برای پراکندگی بیش از حد با داده های پواسون / دو جمله ای
58930
من می خواهم دو درصد را روی یک متغیر طبقه ای از یک نمونه مقایسه کنم. به عنوان مثال، در مجموعه داده من، یک متغیر می تواند دو مقدار (یعنی A و B) داشته باشد. از 586 مورد، 87.4٪ در رده A (512 از 586) و 12.6٪ در رده B (74 از 586) قرار دارد. * آیا می توانم بگویم که شرکت کنندگان من بیشتر نگران رده A هستند تا B؟ * آیا برای طرح چنین ادعایی نیاز به آزمون آماری است؟ اگر چنین است چه آزمون آماری لازم است؟
چگونه درصدها را برای دو دسته از یک نمونه مقایسه کنیم؟
99012
من اخیراً در حال مطالعه مدل مارکوف پنهان (HMM) بودم. من به دنبال بررسی متقابل آنچه فهمیدم بودم. من یک کد روی Forward-Backward پیدا کردم و Viterbi با عبارت ساده پایتون در ویکی پدیا آورده شده است. من می‌توانم پیاده‌سازی‌های R(HMM)، Python (NLTK، Scikit-Learn)، جاوا (JHMM، Lingpipe) را پیدا کنم. من اینجا سه ​​سوال داشتم (الف) نمونه‌های ویکی‌پدیا خوب هستند، اما با مرور آنها پاسخ‌های متفاوتی دریافت کردم. برخی منابع می گویند که آنها نمونه های خوبی هستند در حالی که برخی در اجراها تردید دارند. حالشون چطوره؟ (ب) در NLTK HMM من سعی کردم منبع را از پیوند زیر بخوانم، متوجه شدم که در http://www.nltk.org/_modules/nltk/tag/hmm.html آورده شده است. من احتمال رو به جلو را در def _forward_probability(self, unlabeled_sequence) و الگوریتم Viterbi در def _best_path (خود، بدون برچسب_توالی) پیدا کردم آیا می توانم آنها را به خوبی شناسایی کنم؟ (ج) من به دنبال یک مثال ساده از اجرای الگوریتم Forward Probability و Viterbi هستم [ترجیحاً یک مثال از متن، اگر پیاده‌سازی Python/R نیز دریافت کنم عالی است]، -- می‌توانم در وب جستجو کنم اما چیز زیادی پیدا نکردم. ممکن است کسی به من کمک کند؟ اگر یکی از اعضای محترم گروه ممکن است مرا راهنمایی کند. بابت هرگونه سوال اشتباه عذرخواهی کنید با احترام، Subhabrata Banerjee.
مثال در مورد مدل پنهان مارکوف
99013
من تعجب کردم که شما چگونه مقدار p یک ضریب را برای یک رگرسیون خطی چند متغیره تفسیر می کنید. آیا مقدار p فقط زمانی تفسیر می شود که همه چیز ثابت باشد؟ آیا راهی برای ترکیب وابستگی های متغیرهای دیگر وجود دارد؟
تفسیر مقدار p یک ضریب رگرسیون
113016
من دکتری هستم. دانشجوی روانشناسی و در یافتن اطلاعاتی در مورد اینکه از کدام آزمون برای اندازه گیری مکرر مداوم IV و DV طبقه ای استفاده کنم، مشکل دارم. من واقعا قدردان کمک در این زمینه هستم. متغیر پیامد، مسیرهای علائم افسردگی است (کلاس‌هایی که از تحلیل رشد کلاس نهفته علائم افسردگی به دست می‌آیند، چهار بار اندازه‌گیری می‌شوند). سه سطح (کلاس) از این متغیر نتیجه وجود دارد. پیش بینی کننده ارزش های فرهنگی است، داده های پیوسته دو بار جمع آوری شده است. می‌خواهم آزمایش کنم که آیا تغییر در ارزش‌های فرهنگی پیش‌بینی می‌کند که شرکت‌کنندگان به کدام مسیر علائم افسردگی تعلق دارند. با استفاده از رگرسیون لجستیک چندجمله‌ای، نتایجی که فقط به اولین نقطه زمانی IV نگاه می‌کنند بسیار جالب هستند، و من می‌خواهم با تجزیه و تحلیل IV به عنوان یک اندازه‌گیری مکرر، این مدل را بنا کنم. به نظر می رسد که رگرسیون لجستیک اقدامات مکرر فقط برای DV های مکرر است. من تا ابد سپاسگزار خواهم بود برای یک حرکت در جهت درست. با مهربانی، پنه لوپه
DV تک طبقه ای (3 سطح) و اندازه گیری تکراری پیوسته IV: کدام آزمون؟
105451
من یک بردار $n$-بعدی از آزمایش‌های چندگانه مرتب‌شده $p$-values ​​دارم و می‌خواهم اولین مقادیری را که زیر یک آستانه مشخص $\alpha$ هستند رد کنم. من به این مشکل به عنوان یک تشخیص ناهنجاری و خوشه‌بندی زمانی که یک تغییر ناگهانی بین مقادیر رد شده و رد نشده اتفاق می‌افتد نگاه می‌کنم. و بنابراین، من در تعجب هستم که چگونه می توانم به این مشکل ادامه دهم، زمانی که من فقط یک فضای ویژگی دارم که مقادیر p مرتب شده من است. آیا باید بردار خود را در فضای ویژگی متفاوتی ترسیم کنم که در آن تعداد ویژگی های بیشتری دارم یا این یک مشکل ساده دو خوشه ای است که فقط با استفاده از یک ویژگی انجام می شود.
تشخیص ناهنجاری برای یک بردار ویژگی
30223
من به دنبال یک بیان نظری برای ARE میانگین و میانه برای توزیع دانشجویی-t در برابر حجم نمونه (درجه آزادی) هستم، دقیقاً منحنی آبی نشان داده شده در وبلاگ جان کوک. آیا کسی می تواند من را به مرجع مناسب با بیان آن راهنمایی کند؟ با تشکر
کارایی نسبی مجانبی میانه در برابر میانگین برای توزیع t Student
15160
من یک مجموعه داده بزرگ با بیماران دارم و در حال مطالعه یک نتیجه نادر (~ 2٪) هستم و مرگ یک خطر رقابتی است (میانگین سنی ~69 سال). من از بسته R cmprsk برای آمار خود استفاده کرده‌ام و به نظر می‌رسد که ریسک‌های رقابتی و رگرسیون کاکس عملکرد مشابهی دارند، اگرچه تحلیل ریسک رقابتی محافظه‌کارانه‌تر است و نسبت‌های خطر نزدیک‌تر به 1 است. به من پیشنهاد شده است که پواسون انجام دهم. رگرسیون بر روی داده‌ها، اما نتایج هیچ معنایی ندارند و من واقعاً سپاسگزار خواهم بود که در مورد مزایای انجام این نوع تجزیه و تحلیل در مورد بقا اطلاعاتی دریافت کنم. داده ها من این شبیه‌سازی را برای ایجاد مجموعه داده‌ای با عوامل خطر مشابه ایجاد کرده‌ام: کتابخانه (cmprsk) # زمان برای زمان تعهدی مطالعه <- 10_زمان_پیگیری <- 1_پایه_ریسک <- لیست(رویداد = 0.015، cmprsk = 0.1) عوامل_ریسک <- list(list(فرکانس=.1، رویداد = پایه_ریسک$ رویداد*.5، cmprsk = base_risk$cmprsk*2)، list(frequency=.05، Event = base_risk$event*1، cmprsk = base_risk$cmprsk*1)، list(فرکانس=.05، رویداد = پایه_ریسک$ رویداد*-.5، cmprsk = پایه_ریسک$cmprsk*0)) # تعداد موضوعات n <- 5000 # ایجاد زمان پایه، زمان گنجاندن متوالی_در_مطالعه <- rep(c(1:n)/n*accrual_time + followup_time, 1) set.seed(100) # ایجاد مجموعه های خالی x <- ماتریس(0، ncol=طول(عوامل_ریسک) ), nrow=n) time_2_event <- rep(0, n) time_2_comprsk <- rep(0, n) # ایجاد هر مشاهده و نتیجه مطالعه شده برای (i در 1:n){ # تنظیم ریسک رویداد_ریسک پایه <- base_risk$event comp_risk <- base_risk$cmprsk for(j in 1:length(factors_risk) )){ x[i، j] <- rbinom(1، 1، عوامل_ریسک[[j]]$ فراوانی)[1] # اگر یک عامل خطر تعریف شده باشد اگر (x[i, j] > 0){ خطر_رویداد <- ریسک_ریسک + عوامل_ریسک[[j]]$رویداد comp_risk <- comp_risk + risk_factors[[j]]$cmprsk } } # Time 2 event/risk 1/rate است به این معنی که عدد بالاتر -> زمان کوتاهتر time_2_event[i] <- rexp(1, rate=event_risk)[1] time_2_comprsk[i] <- rexp(1, rate=comp_risk)[1] } cn <- c() for(i in 1:length(factors_risk )){ ev_rsk <- عوامل_ریسک[[i]]$event/base_risk$event+1 cmp_rsk <- risk_factors[[i]]$cmprsk/base_risk$cmprsk+1 name <- paste(Risk factor no: , i, \n * ev=, ev_rsk, cr=, cmp_rsk, * , sep=) cn <- c(cn, name) } colnames(x) <- cn # رویدادی را که اول اتفاق می‌افتد انتخاب کنید: پایان مطالعه، رویداد رخ می‌دهد، رویداد رقابتی زمان وقوع <- اعمال (cbind(time_in_study، time_2_event، time_2_comprsk)، 1، دقیقه) # رویداد شناسه‌های نتیجه <- (time_2_event == زمان) + 0 comprsk <- (time_2_comprsk == time) + 0 cens <- event+2*(event==0 & comprsk==1) out.cox_ev <- coxph(Surv(زمان، رویداد)~x) خلاصه (out.cox_ev) out.crr_ev <- crr(time, cens, x, failcode=1) summary(out.crr_ev) out.cox_cmprsk <- coxph(Surv(زمان، comprsk)~x) خلاصه (out.cox_cmprsk) out.crr_cmprsk <- crr(time, cens, x, failcode=2) summary(out.crr_cmprsk) خروجی منطقی است اما وقتی این کار را انجام می دهم: out.glm_pr <- glm(event ~ x, family=poisson) summary(out.glm_pr ) تخمین هایی از: * RF 1 ~ 0.14 * RF 2 ~ 0.41 * RF 3 ~ -.23 My سوالات: * آیا کد glm() صحیح است یا باید به نحوی داده های خود را تغییر دهم؟ * آیا خروجی پواسون معنی دارد و اگر چنین است چگونه باید آن را تفسیر کرد؟ * مزایا / مشکلات استفاده از رگرسیون پواسون برای داده های بقا چیست؟ با تشکر * * * ## به روز رسانی پس از افزودن ضرایب exp(out.glm_pr$) نتایج تقریباً با رگرسیون ریسک رقابتی یکسان است، در اینجا یک نمودار جنگلی وجود دارد که این سه را با هم مقایسه می کند: ![قطعه جنگلی که روش های مختلف را مقایسه می کند - پواسون: 1.152 1.509 0.794 , CRR: 1.151 1.524 0.812، Cox PH: 1.897 1.931 0.798](http://i.stack.imgur.com/14Zt0.png) محور x شاید کاملاً معتبر نباشد (برای رگرسیون پواسون باید «نسبت‌های نرخ وقوع» باشد) اما چرا نتایج برای CRR و Poisson تقریباً یکسان است؟ در مورد آزمایش پراکندگی بیش از حد، من این دو روش را پیدا کردم: > library(qcc) > qcc.overdispersion.test(event) تست Overdispersion Obs.Var/Theor.Var آمار p-value داده پواسون 0.9391878 4695 0.99902 > > library( pscl) > out.glm_nb <- glm.nb(رویداد ~ x) پیام های هشدار: 1: در theta.ml(Y، mu، sum(w)، w، limit = control$maxit، trace = control$trace > : حد تکرار به 2 رسیده است: در theta.ml(Y، mu , sum(w), w, limit = control$maxit, trace = control$trace > : به حد تکرار رسیده > odTest(out.glm_nb) تست نسبت درستنمایی از H0: پواسون، به عنوان مدل NB محدود: n.b، توزیع آزمون
رگرسیون پواسون در یک محیط بقا در یک مجموعه شبیه سازی شده
96891
من سعی می کنم دقت را برای طبقه بندی چند طبقه برای مجموعه داده های مختلف محاسبه کنم. اما بیشتر من مقدار دقیق 1 را دریافت می کنم. معنی آن چیست؟ آیا الگوریتم من مشکلی دارد؟
اگر دقت برابر با 1 باشد چه؟
106300
من چند مدل خطی شبیه سازی شده $y = X\beta+\epsilon$ دارم که در آن $\beta$ پراکنده است. من در حال مقایسه تکنیک های مختلف برای بازیابی ساختار $\beta$ هستم. من 4 مقدار مثبت واقعی، مثبت کاذب، منفی واقعی، منفی کاذب دارم. چگونه می توانم عملکرد را تنها با یک مقدار خلاصه کنم؟
نحوه اندازه گیری عملکرد بازیابی مدل
15161
Map/Reduce مفهومی عالی برای مرتب‌سازی تعداد زیادی داده در یک زمان است. اگر بخش‌های کوچکی از داده دارید و باید دائماً آن را کاهش دهید، چه باید کرد؟ مثال ساده - انتخاب یک سرویس برای درخواست. تصور کنید ما 10 سرویس داریم. هر کدام میزبان خدمات را با مجموعه‌ای از «سرصفحه‌های» درخواست و آرگومان‌های ارسال/دریافت ارائه می‌کنند. هر سرویس اعلام می کند که «30» کلید منحصر به فرد دارد - «10» در هر مجموعه. service A: name id ... حال تصور کنید که یک میزبان خدمات توزیع شده داریم. ما 200 دستگاه با 10 خدمات در هر کدام داریم. هر سرویس دارای 30 کلید منحصر به فرد در مجموعه خود است. اما اکنون برای یافتن اینکه درخواست دریافتی را به کدام سرویس نگاشت می کنیم، سرویس های ما مقادیر منحصر به فردی را ارسال می کنیم که به آن مجموعه ها نگاشت می شوند. ما می توانیم تا یا بیشتر از 10000 چنین مقادیری را در هر دستگاه در هر سرویس داشته باشیم. service A machine 1 name = Sam id = 13245 ... service A machine 1 name = Ben id = 33232 ... ... service A machine 100 name = Ron id = 777888 ... پس می گیریم `200 * 10 * 30 * 30 * 10 000 == 18 000 000 000` و ما 500 درخواست در هر ثانیه دریافت می کنیم دروازه ما هر کدام حاوی 45 آیتم 15 است که فقط نویز هستند. و وظیفه ما یافتن یک سرویس برای درخواست است (حداقل ماشینی که روی آن کار می کند). در همه ماشین‌ها در سرتاسر کلاستر برای خدمات یکسان، قوانین یکسانی داریم. ابتدا می‌توانیم از طریق فیلتر قوانین '10 * 30' انتخاب کنیم که درخواست ما به کدام سرویس رسیده است. و ما 200 * 30 * 10 000 == 60 000 000 خواهیم داشت. بنابراین... 60 mil قطعا یک مشکل است... من امیدوارم که ایده نقشه برداری 30 * 10 000 را در یک شبکه عصبی مصنوعی مانند Perceptron که در صورت 30 کلمه 1 را خروجی می کند (برخی هش از کلمات) از درخواست صحیح هستند یا اگر کمتر از Perceptron باید 0 را برگرداند. و من هر یک از این Perceptron را برای هر سرویس از هر ماشین به دروازه ارسال خواهم کرد. بنابراین من یک نقشه «ماشین Perceptron <->» برای هر سرویس خواهم داشت. اگر ایده Perceptron من حداقل عاقلانه باشد، آیا کسی می تواند من را بلند کند؟ یا افراد عادی این کار را به روش دیگری انجام می دهند؟ یا اگر ANN های بهتری برای چنین اهدافی وجود دارد؟
چگونه می توان از کدام ماشین درخواست در یک سیستم خدمات توزیع شده را انتخاب کرد؟
15168
اگر ضریب همبستگی معنی‌داری بین متغیر A و B 80/r= داشته باشم، می‌توانم اندازه اثر (ضریب تعیین) را با مجذور کردن آن که 64 درصد است، محاسبه کنم. من می‌خواهم این را به ساده‌ترین شکل ممکن (با توجه به مخاطبان هدف غیرآماری‌ام) ترسیم کنم. آیا می توانم برای این منظور از یک نمودار نواری 100% انباشته استفاده کنم؟ این متغیر B را 100% نشان می‌دهد و در بالای آن متغیر A که 64% خواهد بود را نشان می‌دهد. سپس به صورت گرافیکی می توانم بگویم که 64% از واریانس در متغیر B را می توان به متغیر A نسبت داد. من می توانم اندازه اثر بین A و B را روی تعدادی از متغیرها (به عنوان مثال جنسیت، سن، تحصیلات) در یک نمودار نشان دهم. این همچنین یک ارائه رنگارنگ ایجاد می کند (که برای یک مخاطب هدف غیر آماری خوب است!). من برخی از کتاب‌های درسی را دیده‌ام که دو دایره را نشان می‌دهند که هر کدام یک متغیر را نشان می‌دهند (مانند A و B). بخشی از دایره ها که روی هم قرار می گیرند اندازه اثر را نشان می دهد. من فکر می‌کردم که انجام یک نمودار میله‌ای 100% انباشته راه بهتری است. **از بحث زیر به نظر می رسد که طرح پراکندگی راه حل این موضوع است. با این حال، چگونه می توانم 64٪ را در یک نمودار پراکنده نشان دهم؟** فکر می کنم این نکته در بحث زیر نادیده گرفته شده است. به راحتی می توان رابطه را از طریق نمودار پراکنده نشان داد، اما اندازه اثر چگونه نشان داده می شود، یعنی درصد واقعی در بالا. من نمی توانم این درصد را در هیچ یک از نمودارهای زیر ببینم.
اندازه اثر نموداری برای ضریب تعیین
33750
من مجموعه ای از داده ها را دارم و می خواهم بدانم آیا این مجموعه داده توزیع لجستیکی دارد یا خیر. هنگامی که من یک هیستوگرام از مجموعه داده‌هایم ساختم، به نظر می‌رسد که توزیع لجستیکی دارد، اما برای اطمینان، می‌خواهم یک توزیع لجستیک در R. ![توضیح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/38kLD.png) بنابراین سوال من این است: **آیا راهی برای آزمایش داده های شما برای توزیع لجستیک در R وجود دارد و چگونه این کار را انجام می دهید؟** اطلاعات اضافی: مجموعه داده شامل 8544 مورد. داده ها فواصل افقی در کیلومتر بین 2 نقطه جغرافیایی هستند. من به داده ها نیاز دارم تا یک هسته پراکندگی برای فیل ها بسازم. اگر داده ها دارای توزیع نرمال یا لجستیکی بودند، می توانستم این هسته پراکندگی را راحت تر بسازم. من قبلاً از آزمون کولموگروف اسمیرنوف برای آزمایش توزیع نرمال استفاده کردم (05/0p<)، اما نتیجه معنی دار بود، بنابراین داده ها به طور معمول توزیع نمی شوند.
آزمایش توزیع لجستیک در R
102813
من در حال انجام یک تجزیه و تحلیل چند سطحی هستم که در آن آزمایش می کنم که آیا تعامل بین دو پیش بینی کننده سطح 1 (IV1 و IV2) توسط یک پیش بینی کننده سطح 2 (IV3) تعدیل می شود یا خیر. پیش بینی کننده سطح 2 یک متغیر دوگانه است. مدلی که من تخمین می زنم به شرح زیر است: Level-1 Model DVij = β0j + β1j*(IV1ij) + β2j*(IV2ij) + β3j*(IV1xIV2ij) + rij Level-2 مدل β0j = γ00 + γ01*(IV3j) + u0j β1j = γ10 + γ11*(IV3) β2j = γ20 + γ21*(IV3j) β3j = γ30 + γ31*(IV3j) IV1 IV2 حول میانگین کل متمرکز شده اند. من دو سوال دارم: 1. من دریافتم که تعامل سه طرفه (γ31) قابل توجه است. من یک نمودار شامل چهار شیب رسم کردم. من تعجب کردم که آیا راهی برای آزمایش اینکه کدام شیب ها به طور قابل توجهی با یکدیگر متفاوت هستند، مشابه رویکرد داوسون و ریشتر (2006) برای رگرسیون چندگانه وجود دارد. مرجع: داوسون، جی اف، و ریشتر، ای. دبلیو (2006). بررسی فعل و انفعالات سه طرفه در رگرسیون چندگانه تعدیل شده: توسعه و کاربرد آزمون اختلاف شیب. مجله روانشناسی کاربردی، 91، 917-926 2. هنگامی که من مدل را می سازم، تعامل بین IV1 و IV2 ابتدا معنی دار نیست (γ30). با این حال، وقتی پیش‌بینی‌کننده سطح 2 را به معادله اضافه می‌کنم، تعامل بین IV1 و IV2 و همچنین تعامل سه‌طرفه (γ31) معنی‌دار می‌شود. چگونه باید این الگوی نتایج را تفسیر کنم؟ آیا فرضیه من مبنی بر وجود تعامل بین IV1 و IV2 تایید می شود یا خیر؟
تعامل سه طرفه در مدل چند سطحی
30221
من چند سوال در مورد تعمیم و یادآوری دارم: 1. معمولا شنیده می شود که یک طبقه بندی خوب باید از داده های آموزشی تعمیم کند. آیا این درست است؟ 2. من احساس می کنم (؟) که یک طبقه بندی کننده عمومی باید یادآوری را بهبود بخشد، اما یک طبقه بندی خاص باید دقت بیشتری داشته باشد، آیا این درست است؟ 3. اگر به طبقه‌بندی‌کننده‌ای فکر کنیم که باید از یک دامنه D1 آموخته شود و سپس روی یک دامنه دیگر D2 استفاده شود، طبقه‌بندی‌کننده «تعمیم‌شده» ترجیح داده می‌شود. در کدام شرایط دیگر یک طبقه‌بندی «تعمیم‌شده» ترجیح داده می‌شود؟ پیشاپیش ممنون و با عرض پوزش از سوالات مبهم...
تعمیم و یادآوری
113901
من سعی می کنم این فرضیه را آزمایش کنم که گونه های مرتبط هر چه بیشتر در فضای جغرافیایی همپوشانی داشته باشند باید در فضای طاقچه بیشتر منحرف شوند. به عبارت دیگر، گونه های مرتبط یا به طور مشابه علوفه می کنند و همپوشانی جغرافیایی زیادی نشان نمی دهند، یا اگر از نظر جغرافیایی همپوشانی زیادی داشته باشند، در فضای طاقچه جابجا شده اند. فاصله فیلوژنتیکی (نزدیک بودن گونه ها) مقدار زیادی از واریانس در یک ماتریس فاصله را توضیح می دهد که گونه ها چقدر از هم در فضای طاقچه فاصله دارند. بنابراین، من سه ماتریس فاصله در میان گونه‌ها دارم: فاصله ژنتیکی، فاصله در فضای طاقچه، و میانگین همپوشانی جغرافیایی. فکر نمی کنم تست جزئی مانتل دقیقاً همان چیزی باشد که می خواهم، اما قطعاً ممکن است اشتباه کنم. از نظر نیمه ریاضی، من فکر می کنم یک همبستگی قوی بین ماتریس فاصله ژنتیکی و فاصله در فضای طاقچه وجود دارد (یعنی گونه های نزدیک به هم در فضای طاقچه از هم دور نیستند)، اما وقتی این درست نیست، به این دلیل است که وجود دارد. یک مقدار بزرگ در سلول مربوطه در ماتریس فاصله همپوشانی جغرافیایی. رویکرد آماری صحیح برای استخدام چیست؟ هر گونه جزئیات در مورد نحوه اجرای این در R استقبال می شود اما لازم نیست.
همبستگی جزئی بین سه ماتریس فاصله
27898
چگونه می توان توزیع گاما را از طریق کانولوشن دو توزیع مختلف بدست آورد؟ آیا می‌توان توزیع گاما را به‌عنوان مجموع غیر ضروری $N$ متغیرهای تصادفی $X$ که توزیع و پارامترهای یکسانی دارند ایجاد کرد؟ حالت بی اهمیت، جمع تعداد ثابت $N$ متغیرها با توزیع گاما است که در ویکی پدیا توضیح داده شده است.
چگونه می توان توزیع گاما را از طریق کانولوشن دو توزیع مختلف بدست آورد؟
33758
من در حال مطالعه چگونگی ایجاد یک شاخص پیش آگهی در پزشکی هستم. من برخی از مقالات را خوانده ام و در همه آنها روش شناسی کاملاً یکسان است. اکثر آنها از رگرسیون لجستیک استفاده می کنند، متغیرها را انتخاب می کنند و یک مدل می سازند. هر متغیر در مدل دارای وزن است. به عنوان مثال، اگر امتیاز دارای سه متغیر باشد (تب، سرفه، درد) هر یک از آنها تعدادی امتیاز اضافه می کند و مجموع کل مقدار شاخص پیش آگهی است. اگر از شاخص پیش آگهی برای تصمیم گیری در مورد بستری شدن بیمار در بیمارستان استفاده شود، می توانید بگویید که تب 2 امتیاز، سرفه 1 امتیاز و احساس کامل 1 امتیاز را کم می کند (1- امتیاز اضافه می کند). اگر شاخص پیش آگهی I بالاتر از 2 بیمار بستری شود و در غیر این صورت خیر. چیزی که من بعد از خواندن برخی مقالات با استفاده از این روش متوجه نمی شوم این است که چگونه متغیرها وزن می کنند. آیا از رگرسیون لجستیک شانس به دست آمده برای وزن سهم متغیر در شاخص استفاده می کنند؟ آیا دادن وزن بیشتر به شانس های بزرگتر صحیح است؟ آیا روش های دیگری برای این کار وجود دارد؟ چه نوع آزمایشی برای تست تناسب اندام این مدل پیش آگهی استفاده می شود؟ با احترام،. مارکوس
متغیرهای وزن برای توسعه الگوریتم امتیازدهی
101042
لطفاً برای بررسی زمینه به سؤال قبلی من مراجعه کنید. اکنون یک بیمار جدید با کلاس بیماری $Y'$ دارای شدت های اندازه گیری شده $x'$ داده می شود. احتمال شرطی پسینی که $Y'=1$ به $x'$ و داده اصلی $D$ داده شود چقدر است؟ رویکرد من $$ \begin{align*} \mathbb{P}(Y=1\mid x',D)&=\int\mathbb{P}(Y=1\mid x',\pi,\theta است ,D)\mathbb{P}(\pi,\theta\mid D) d\pi d\theta\\\ &=\int\mathbb{P}(Y=1\mid x',\pi,\theta)\mathbb{P}(\pi\mid D)\mathbb{P}(\theta\mid D)d\pi d\theta \\\ &=\int\frac{\ mathbb{P}((X=x',Y=1)\mid\pi,\theta)}{\mathbb{P}(X=x')}\mathbb{P}(\pi\mid D)\mathbb{P}(\theta\mid D)d\pi d\theta \end{align*} $$ اما پس از آن به نظر مرده است. کسی می تواند کمک کند؟ BTW، میانگین توزیع بتا و توزیع دیریکله در سوال آورده شده است، فکر کردم ممکن است مفید باشند.
احتمال شرطی پسین برگرفته از یادگیری بیزی
99014
با توجه به i.i.d. $x_1,...,x_n$ را از $X$ ترسیم می کند، که در آن: * $X$ دارای میانگین متناهی است $E[X]=\mu < \infty$، * $X$ نسبت به میانگین آن متقارن است، به معنی $ f_X(\mu+c)=f_X(\mu-c)$ برای همه $c$، * تابع چگالی احتمال $f_X$ به طور دیگری شناخته نشده است. آیا می توان موارد زیر را اثبات کرد؟ **گزاره.** MLE برای میانگین $X$ میانگین نمونه است، $\hat \mu_{MLE}=\bar x = \sum_{i=1}^n x_i$. یک اثبات یا یک مثال متقابل عالی خواهد بود. مایلم فرض کنم که $X$ دارای یک واریانس متناهی $Var[X]=\sigma^2 < \infty$ یا سایر مفروضات اساسی رایج است، در صورتی که برای حفظ گزاره ضروری باشد یا بسیار ساده شود. اثبات من گمان می کنم که ممکن است بتوان از تغییر ناپذیری MLE برای تبدیل داده ها برای اثبات این موضوع استفاده کرد، اما ممکن است از حقایق ساده تر در مورد میانگین نمونه نتیجه بگیرد.
MLE برای میانگین توزیع متقارن اما در غیر این صورت ناشناخته
82820
خطای من زمانی افزایش می یابد که مقدار n_estimators را در ada=AdaBoostClassifier(n_estimators=1, base_estimator=SVC(probability=True,kernel=rbf,gamma=.1,C=1)) برای n_estmators که پیش بینی می کند افزایش می دهد. کمترین خطا، در حالی که من مقدار n_estmator را افزایش می‌دهم، خطا نیز آنچه را که می‌توان تفسیر کرد افزایش می‌دهد. از این؟ با تشکر
افزایش خطا بدون برآوردگر در adaboost
27896
**داده** آزمایشی با 40 نفر انجام شد. 20 نفر در شرایط 1 و 20 نفر در شرایط 2 هستند. در طول دوره آزمایش، آزمودنی ها 60 کارآزمایی را پشت سر گذاشتند. 20 کارآزمایی با محرک های نوع A، 20 کارآزمایی با محرک های نوع B و 20 کارآزمایی با محرک های نوع C. در هر کارآزمایی 6 امتیاز (در مرحله دوم) اندازه گیری می شود. **تصویر** ![](http://i.stack.imgur.com/WbZsY.jpg) شکل. دو نمودار، یکی برای شرط 1 و دیگری برای شرط 2. نمرات دوم به صورت جمع شده روی آزمودنی ها ترسیم می شوند (20 در هر شرایط) اما بر اساس نوع آزمایشی (A/B/C) تقسیم می شود. نوارهای خطا SEM را نشان می دهند. **آیا نمرات بین شرط 1 و شرط 2 از نظر آماری متفاوت است؟** رویکرد تاکنون: نمرات کاهش یافته در مورد نوع کارآزمایی برای هر آزمودنی، به طوری که به جای 3*20*6، 3*6 نقطه اندازه گیری برای هر آزمودنی وجود دارد. داده ها را به فرمت گسترده تبدیل کرد و ANOVA اندازه گیری های مکرر را در SPSS اجرا کرد. تنها اثر اصلی دوم قابل توجه است. با نگاهی به نمودارها، با این حال، رنگ آبی بین این دو شرایط بسیار متفاوت به نظر می رسد. **سوال** آیا قبل از اجرای ANOVA اطلاعات را با جمع کردن داده ها دور انداختم؟
در حال جمع کردن داده ها برای اندازه گیری های مکرر ANOVA؟
99018
مدل زیر را در نظر بگیرید: $wage_i = \beta_0 + \beta_1male_i + \beta_2private_i +u_i$ که $male_i=1$ اگر مرد باشد. $0$ اگر زن، و $private_i=1$ اگر مدرسه خصوصی. 0 دلار اگر مدرسه دولتی باشد. **گروه پایه دختران مدارس دولتی** هستند. بنابراین وقتی $male_i=1$ و $private_i=1$، ضرایب $\beta_1 + \beta_2$ تفاوت دستمزد متوسط ​​پسران مدارس خصوصی را در مقایسه با دختران مدارس دولتی اندازه‌گیری می‌کند. اما حالا فرض کنید یک **تعامل بین دو متغیر ساختگی** را به مدل اضافه می کنیم به طوری که: $wage_i = \beta_0 + \beta_1male_i + \beta_2private_i + \beta_3male_iprivate_i+u_i$ بنابراین حالا وقتی $male_i=1$ و $private_i =1$، **ضرایب $\beta_1 + \beta_2 چیست +\beta_3$ اندازه گیری؟** **تعامل بین این دو متغیر ساختگی که به مدل اضافه می کند چیست؟** متشکرم!
تعامل متغیر ساختگی
99010
من ویژگی های زیادی با مقادیر مختلف دارم، این ویژگی ها به $(x,y)$ منجر می شود. مثال برای ویژگی ها و مقادیر آنها: F1 = روسیه F2 = 120 کیلومتر F3 = بی ثباتی سیاسی F4 = 80٪ F5 = زمستان F6 = 80000 تن ویژگی های از F1 تا F6 تولید خواهد شد (20، 75432). کدام مدل/الگوریتم برای آموزش ماشین بر روی ویژگی‌های F1 تا F6 برای پیش‌بینی $(x,y)$ مناسب‌تر است؟ و بهترین راه برای تبدیل این مقادیر مختلف به کرانچ شدن توسط الگوریتم چیست؟
از چه الگوریتم/مدلی برای این نوع پیش بینی استفاده کنم؟
30220
مقاله نویسندگان در مورد این روش (هیندمن و خنداکار 2008) بیان می‌کند که از یک آزمون توسعه یافته Canova-Hansen استفاده می‌شود، اگرچه فایل کمکی این را به‌روزرسانی می‌کند تا از آزمون OCSB استفاده شود. بنابراین من دو سوال دارم: 1. آزمون OCSB چیست؟ 2. آیا روش تعیین تفاوت فصلی برای رگرسیون با خطاهای ARIMA مانند مدل سازی ARIMA بدون متغیرهای کمکی است؟
عملکرد R's auto.arima () چگونه ترتیب تفاوت را هنگام تخمین رگرسیون با خطاهای ARIMA فصلی تعیین می کند؟
13266
من یک رگرسیون خطی ساده از لاگ طبیعی 2 متغیر را اجرا کردم تا تعیین کنم که آیا همبستگی دارند یا خیر. خروجی من این است: R^2 = 0.0893 شیب = 0.851 p < 0.001 من گیج شدم. با نگاهی به مقدار $R^2$، می توانم بگویم که این دو متغیر **همبستگی ندارند**، زیرا بسیار نزدیک به $0 است. با این حال، شیب خط رگرسیون تقریباً 1 دلار است (علیرغم اینکه در نمودار تقریباً افقی به نظر می رسد)، و p-value نشان می دهد که رگرسیون بسیار معنی دار است. آیا این بدان معنی است که دو متغیر **** همبستگی بالایی دارند؟ اگر چنین است، مقدار $R^2$ نشان دهنده چیست؟ باید اضافه کنم که آمار دوربین واتسون در نرم افزار من آزمایش شد و فرضیه صفر را رد نکرد (معادل 1.357 دلار بود). من فکر کردم که این برای استقلال بین متغیرهای $2$ تست شده است. در این مورد، من انتظار دارم که متغیرها وابسته باشند، زیرا آنها 2 دلار اندازه گیری یک پرنده جداگانه هستند. من این رگرسیون را به عنوان بخشی از یک روش منتشر شده برای تعیین وضعیت بدن یک فرد انجام می دهم، بنابراین فرض کردم که استفاده از رگرسیون به این روش منطقی است. با این حال، با توجه به این خروجی ها، به این فکر می کنم که شاید برای این پرندگان، این روش مناسب نباشد. آیا این نتیجه گیری منطقی به نظر می رسد؟
تفسیر خروجی رگرسیون خطی ساده
31096
من در مورد نحوه استفاده از SVD در فیلترینگ مشارکتی گیج شده ام. فرض کنید من یک نمودار اجتماعی دارم، و یک ماتریس مجاورت از لبه‌ها می‌سازم، سپس یک SVD می‌گیرم (قابلیت‌سازی، نرخ یادگیری، بهینه‌سازی پراکندگی و غیره را فراموش کنیم)، چگونه از این SVD برای بهبود توصیه‌هایم استفاده کنم؟ فرض کنید گراف اجتماعی من با اینستاگرام مطابقت دارد و من وظیفه توصیه به کاربران در این سرویس را تنها بر اساس نمودار اجتماعی بر عهده داشتم. من ابتدا یک ماتریس مجاورت A (mxm) می‌سازم، SVD، A = Us V را می‌گیرم، اولین k مقادیر ویژه را انتخاب می‌کنم، سپس چه؟ احتمالاً مجموعه جدیدی از ماتریس‌ها را ایجاد می‌کنم: U_new ~ mxk s_new ~ kxk V_new ~ kxm پس چه کار می‌کند؟ من در وب جستجو کرده‌ام و بیشتر لینک‌ها بر محاسبه SVD تمرکز دارند، اما هیچ‌کس به شما نمی‌گوید که با آن چه کار کنید. پس باید چکار کنم؟
چگونه از SVD در فیلترینگ مشترک استفاده کنم؟
96892
رویکردهای مختلفی برای تعیین تأثیر یک IV (متغیر مستقل) بر متغیر دیگر موجود است. دو فرض ذکر شده در سؤال چگونه بر برآوردها تأثیر می گذارد.
آیا بین نظریه توزیع نرمال و نظریه حداقل مربع تفاوتی وجود دارد؟
30228
من سعی می‌کنم کلماتی را بیابم که در یک بخش کوچک از یک مجموعه بزرگ نسبت به کل پیکره توزیع قابل توجهی داشته باشند. من از آماره آزمون نسبت درستنمایی استاندارد $$\chi^2 = 2 \sum_{i} O_i log(O_i/E_i)$$ استفاده می کنم که در آن دو کلاس بخش کوچکی از پیکره و بقیه بدنه هستند. . مشکلی که من با آن مواجه شدم این است که بخش کوچکی از پیکره بسیار کوچکتر از کل مجموعه است که تعداد مورد انتظار هر کلمه در آن بخش کوچک در مرتبه 0.001 است. بنابراین، این واقعیت که یک کلمه اصلاً در بخش کوچک وجود دارد، بسیار مهم است، حتی اگر یک کلمه بسیار رایج مانند a، the، of، یا کلیدواژه دیگری باشد. آیا راهی برای برآورد بهتری وجود دارد که مقادیر مورد انتظار را به شدت دست کم نگیرد؟ یا آیا یک آزمایش متفاوت در اینجا مناسب تر است؟ خیلی ممنون از کمک شما
آزمون نسبت احتمال، اهمیت را بیش از حد برآورد می کند. تست مناسب تر؟
58934
من نیاز به شبیه سازی داده ها در R با استفاده از موارد زیر دارم: شبیه سازی داده ها برای 5 (یا بیشتر) موضوع، نمایه سازی شده توسط $i$, $(i=1,~...,~5)$ با $6$ مشاهدات در هر موضوع نمایه شده توسط $t$ $(t=1,~2,~...,~6)$. مشاهدات متغیر $Y$ در زمان‌های مختلف $(\text{TIME}=2,~3,~5,~9,~11,~13)$ برای هر موضوع با استفاده از فرضیات مختلف در مورد $u_{0i} انجام می‌شود. $ , $u_{1i}$: $$ Y_{ti} = (β_0 + u_{0i} ) + (β_1+ u_{1i})*\text{TIME}_t + ε_{ti} \\\ \text{where }ε_{ti} \sim\mathcal N(0, σ^2),~σ^2=0.01,~β_0=5,~β_1=0,7 $$ این یک مشکلی که به من داده شده است (برای یک دوره غیر اعتباری است که برای سرگرمی می گذرانم). «جواب» را نمی‌خواهم، اما شاید مثالی که بتوانم بر آن بنا کنم یا یک یا دو پیشنهاد.
شبیه سازی داده های LMM با مقادیر خطای خاص با استفاده از R
113907
من سعی می کنم کد نمونه را در مقاله ساختن مدل های پیش بینی در R با استفاده از بسته caret از Max Kuhn [1] دنبال کنم. این بخشی از کد است: library(caret) set.seed(1) inTrain <- createDataPartition(mutagen, p = 3/4, list = FALSE) اما پس از موارد زیر trainDescr<-descr[ inTrain, ] خطا: شیء 'descr' یافت نشد پیام خطا: شی descr یافت نشد را دریافت می کنم. به نظر می‌رسد «decr» شناسایی نشده است. کسی میتونه بهم بگه چطوری اینو درست کنم لطفا؟ [1]: Kuhn, M. (2008), Building Models Predictive in R Using the Caret Package _Journal of Statistical Software_, نوامبر, جلد **28**, شماره 5. پیوند
خطا: شیء 'descr' یافت نشد
113909
من ریشه میانگین مربعات خطا (RMSE) را برای مقایسه مقادیر شبیه سازی شده یک مدل هیدرولوژیکی با مشاهدات مربوطه برای سه مجموعه داده مشاهده ای محاسبه کردم. تعداد نقاط داده در این مجموعه داده ها 30، 40 و 60 است. چگونه متوجه شویم که آیا مقادیر RMSE محاسبه شده با توجه به این مجموعه داده ها معادل هستند؟ آیا تغییر در اندازه مجموعه داده ها بر قدرت معیار عملکرد تأثیر می گذارد؟ چگونه می توانم تشخیص دهم که این کار را انجام می دهد؟ آیا مکانیزم تست وجود دارد؟ هر پیشنهادی؟ با تشکر
هم ارزی در معیارهای عملکرد مدل مانند RMSE
13977
فرض کنید من 4 گیاه دارم و چیزی را در 2 شرایط اندازه می‌گیرم. به عنوان مثال: ورودی‌های جدول نشان می‌دهد که من چند بار چیزی را تحت شرایط (C1 یا C2) برای گیاه (P1، P2، P3 یا P4 دیدم). P1, P2, P3, P4 C1 0 20 0 19 C2 100 80 180 150 حال می خواهم به این سوال پاسخ دهم که احتمال این که این 39 بار دیدن چیزی به طور نابرابر بین این 4 گیاه توزیع شود چقدر است؟ من علاقه زیادی به مشاهده اینگونه دارم، نه اینکه بگویم: P1, P2, P3, P4 C1 25 20 15 19 C2 100 80 180 150 آیا استفاده از آزمون دقیق فیشر برای این کار درست است؟ من فقط سوال را از جدول 2*2 به 2*4 گسترش دادم.
آیا آزمایش دقیق فیشر برای این مشکل مناسب است؟
96897
من در حال تمرین با استفاده از احتمال شرطی هستم و سوال زیر را دارم > فرض کنید احتمال ابتلا به یک بیماری نادر استوایی Chickungunya > در تعطیلات به هند 0.0001 است. فرد، در بازگشت به بریتانیا > از یک سافاری جنگلی در هند، احساس ناخوشی می کند و تصمیم می گیرد به پزشک خود مراجعه کند. > فرد از درد مفاصل به پزشک خود شکایت می کند. دکتر شنیده بود که مواردی از Chickungunya در هند گزارش شده است و همچنین می دانست که 64٪ از افراد مبتلا به Chickungunya از درد مفاصل شکایت دارند. دلایل دیگری برای درد مفاصل وجود دارد، اما پزشک تخمین می‌زند که احتمال درد مفاصل در غیاب Chickungunya 0.6 است. پزشک آزمایش بسیار مطمئنی را برای تشخیص Chickungunya تجویز کرد که در 99٪ موارد زمانی که بیمار Chickungunya داشت، نتیجه مثبت داشت و فقط در 4٪ موارد زمانی که بیمار آزمایش شده از این بیماری رنج نمی برد، نتیجه مثبت را نشان داد. بیماری. نتیجه آزمایشی که برای فرد برگشت داده شد مثبت بود. سپس از من سه سوال پرسیده می شود: > (الف) آیا دکتر بر اساس شواهد تا به امروز می تواند نتیجه بگیرد که فرد > Chickungunya دارد؟ > > (ب) پزشک با درک اینکه هیچ علامت دیگری از بیماری یا هیچ آزمایش دقیق تری در دسترس نیست، تصمیم می گیرد تا آزمایش را تکرار کند. یک بار دیگر نتیجه آزمایش مثبت به دست می آید. اگر اصلاً > چه تأثیری بر اعتقاد او به تشخیص Chickungunya خواهد گذاشت؟ > > (ج) آیا استراتژی تکرار یک آزمایش یکسان می تواند باور او را در تشخیص مثبت Chickengunya بهبود بخشد؟ اگر چنین است، حداقل تعداد دفعاتی که آزمایش باید انجام شود، با فرض یک نتیجه مثبت در هر بار، چقدر است تا باور به Chickungunya بیشتر از > اعتقاد به Chickungunya نباشد؟ این راه حل تلاش من برای بخش (الف) است: ابتدا تمام اطلاعات را از متن داده شده با استفاده از علامت $P(d),P(JP),P(+)$ به عنوان احتمال بیماری، احتمال درد مفاصل استخراج کردم. و به ترتیب احتمال مثبت شدن در آزمون. $$P(d)=0.0001\quad P(JP|d) = 0.64$$$$P(JP|¬d) = 0.6 \quad P(+|d) = 0.99$$$$P(+|¬ د) = 0.04$$$$P(d|(+، JP)) = \frac{P((+، JP)|d)P(d)}{P(+، JP)} = \frac{P(+|d)P(JP|d)P(d)}{P(+،JP)}$$ I همه اعداد بالا را به غیر از $P(+, JP)$ داشته باشید، اما من متوجه شدم که می توانید آن را با مشاهده موارد غیرمرتبط ابتلا به این بیماری محاسبه کنید و $P(+, JP) = دریافت کنید. P(d)P(+|d)P(JP|d) + P(¬d)P(+|¬d)P(JP|¬d)$$ آیا این مجاز است؟ سپس پاسخ به صورت 0.0026 ظاهر می شود. برای بخش (ب) من به طور شهودی می دانم چه اتفاقی می افتد اما نمی توانم آن را در نمادها قرار دهم آیا کسی می تواند به من پیشنهاد دهد؟ فکر می کنم اگر بتوانم قسمت (ب) را حل کنم، باید بتوانم (ج) را حل کنم.
کاربرد ساده احتمال شرطی
18533
من بردار x<-c(1,2,3,4,5,5,5,6,6,6,6,7,7,7,7,7,7,7,7,7,7 را دارم ,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,8,8,8,8,9,9,9,10 ) (بردار واقعی من طول دارد >10.000) و من می خواهم فواصلی را پیدا کنم که 90٪ چگالی در آن قرار دارد. آیا «چک» (x، probs=c(0.05، 0.95)، نوع=5» مناسب‌ترین است یا راه دیگری وجود دارد؟ خیلی ممنون E.C
فواصل چگالی احتمال را بیابید
113903
با استفاده از بسته **CARET** می‌توان تفاوت‌های بین مدل‌های مختلف به‌دست‌آمده با استفاده از مجموعه داده (مجموعه داده آموزشی، trainSet) و مدلی را که به بهترین شکل با trainSet مطابقت دارد، تجزیه و تحلیل کرد: به عنوان مثال، دو مدل با استفاده از تابع _train_، marsFit و rfFit: resamps <- resamples(list(MARSCV = marsFit,RFCV = rfFit)) خلاصه (resamps) #Since models بر روی همان نسخه‌های داده‌های آموزشی مناسب هستند، می‌توانیم تفاوت‌ها را محاسبه کنیم، سپس از یک آزمون t ساده برای ارزیابی فرضیه صفر مبنی بر عدم وجود تفاوت بین مدل‌ها استفاده کنیم. modelDifferences <- diff(resamps) summary(modelDifferences) bwplot(modelDifferences, layout = c(2, 1), scales = list(x = list(relation=free))) آیا راهی برای انجام تحلیل مشابه وجود دارد ( آزمون t برای مقایسه مقادیر میانگین برای مثال) با استفاده از پیش‌بینی‌های مدل در مجموعه آزمون (داده‌های مجزا از trainSet)؟ **CARET** دارای یک تابع _predict_ است که از طریق آن می توان تفاوت بین مقادیر مشاهده شده (testSet) و پیش بینی شده (خروجی مدل) را ارزیابی کرد. با تشکر
انجام تجزیه و تحلیل در مورد تفاوت های پیش بینی مدل با استفاده از CARET
76462
سلام من در حال انجام آنالیز بر روی یک تحقیق هستم و باید موارد زیر را انجام دهم. ما دو گروه (شاهد و بیمار) داریم که غلظت خون آنها را هر 10 دقیقه به مدت 48 بار اندازه گیری می کنیم (اندازه گیری مکرر). از چه تجزیه و تحلیل آماری استفاده کنیم. با توجه به اینکه آیا دو گروه (یکی از دو گروه کنترل / بیمار) در غلظت خون اهمیت دارند و همچنین آیا بین اندازه‌گیری‌های غلظت خون (مشت 10 در مقابل 20 در مقابل 480 دقیقه) معنی‌دار است یا خیر، حدس می‌زنم که باید از خطی تعمیم‌یافته استفاده کنیم. معادله یا MANOVA ... یا دیگر؟. متشکرم
دو گروه اهمیت خون خود را بین دو گروه و زمان اندازه گیری می کنند؟
113902
من چند پارامتر مرتبط دارم (بیایید آنها را X1 و X2 بنامیم)، و می خواهم از هر کدام که قوی ترین مدل را ارائه می دهد استفاده کنم. مدل دارای پارامترهای زیادی است. آیا می توانم به سادگی AICc این دو مدل را با هم مقایسه کنم؟ مدل با استفاده از X1: Y ~ X1 + X3 + X4 + X5 + X6 مدل با استفاده از X2: Y ~ X2 + X3 + X4 + X5 + X6 این من را گیج می کند زیرا مطمئن نیستم که در نهایت چه پارامترهای دیگری به درست تعلق دارند. مدل. در نهایت X3، X4 و غیره ممکن است به بیرون پرتاب شوند. بنابراین آیا می خواهم این را با پارامترهای بالقوه بد آزمایش کنم؟
انتخاب بین دو پارامتر در یک مدل
108364
می توانم بفهمم **رگرسیون خط الراس** بهتر از **رگرسیون معمولی** در صورت **تقاعدگی چندگانه** است. set.seed(123) x1 <- rnorm(100) set.seed(223) x2 <- rnorm(100,mean=x1,sd=.01) set.seed(344) y <- rnorm(100,mean= 3+x1+x2) myd <- data.frame(x1, x2,y) cor(myd) x1 x2 y x1 1.0000000 0.9999383 0.8701704 x2 0.9999383 1.0000000 0.8702772 y 0.8701704 0.8702772 1.00000000000. (برق) x1 x2 3.063971 -1.027534 3.097806 رگرسیون پشته با استفاده از بسته «MASS» نیاز دارد (MASS) lm.ridge(y~x1+x2,lambda=1) x1 x2 3.066382 1.0190401 1.0190401 = 6.0190301 mb. برابر با رگرسیون معمولی lm.ridge(y~x1+x2,lambda=0) x1 x2 3.063971 -1.027534 3.097806 **سوالات:** (1) چگونه می توانیم نشان دهیم که **رگرسیون رج بهتر از معمولی عمل می کند**؟ هر برآوردگر مانند خطا؟ چگونه محاسبه کنیم؟ (2) آیا موقعیت های دیگری وجود دارد که رج بهتر OLR است؟
نشان دادن مزایای رگرسیون پشته نسبت به رگرسیون معمولی