_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
99900 | من میدانم که MCMC چگونه کار میکند، و میدانم که توزیع چندجملهای چگونه کار میکند. من یک مجموعه داده دارم که برخی از داده ها به صورت تصادفی گم شده اند (MAR). من نمی توانم این دو نقطه را به یکدیگر متصل کنم (MCMC -> Multinomial Distribution) برای رسم نمونه های تصادفی. لطفاً کسی می تواند توضیح دهد که چگونه نمونه برداری MCMC برای توزیع Mutlinomaial با استفاده از یک مثال ساده کار می کند. ممنون از وقتی که گذاشتید امیدوارم چیز خیلی پیچیده ای نپرسم. | توضیح نمونهگیری MCMC برای توزیع چندجملهای و گمشده به صورت تصادفی |
93280 | من 16 مدل رگرسیون لجستیک را بر روی داده های خود نصب کرده ام و مطمئن نیستم که کدام مدل را به عنوان مدل نهایی خود انتخاب کنم. من به چند مورد نگاه کردم تا به من در انتخاب مدل نهایی کمک کند. 1) اهمیت متغیرهای پیش بینی کننده 2) AIC و BIC 3) ناحیه زیر منحنی ROC 4) خطای اعتبارسنجی متقاطع. مدلی با مقدار AIC یا BIC پایین ممکن است در زیر منحنی ROC نسبت به مدل دیگری با AIC یا BIC بالاتر، سطح کمتری داشته باشد. و مدلی با بیشترین مساحت زیر منحنی ROC ممکن است خطای اعتبار متقاطع بالاتری نسبت به مدلی با مساحت کمتر زیر منحنی ROC داشته باشد. من توانستم 16 مدل ممکن را به 4-5 مدل محدود کنم، اما نمی توانم بر اساس معیارهایی که استفاده کردم (1-4) تصمیم نهایی را بگیرم زیرا به نظر می رسد که آنها با یکدیگر تضاد دارند. چگونه می توانم بهترین مدل رگرسیون لجستیک را برای داده های خود انتخاب کنم؟ | معیارهای انتخاب مناسب ترین مدل رگرسیون لجستیک |
114592 | من در SAS Reporting تازه کار هستم و می خواهم یاد بگیرم که از آن در کارم استفاده کنم. اما نتوانستم بهترین کتاب را برای همان کتاب پیدا کنم. لطفاً من را راهنمایی کنید، هر نام کتاب یا آموزش آنلاین موجود است تا بتوانم به آن مراجعه کنم و گزارش SAS را بیاموزم. | لطفا مرا برای یادگیری SAS راهنمایی کنید |
9917 | من در واقع به این مشکل در اسلاید 12 نگاه می کردم. آن را به طور خلاصه اینجا می نویسم: **مشکل:** تعداد ناشناخته ای از افراد در یک دوره زمانی ثابت وارد می شوند و هدف من این است که احتمال انتخاب بهترین نامزد را به حداکثر برسانم **فرض ها :** * فرض کنید افراد به طور مستقل در بازه [0،1] میرسند * ممکن است به طور یکنواخت نیز فرض شود * نمیتوان احتمال را شکست داد $\frac{1}{e}$ برای برنده شدن. **اثبات:** یک دیوار را در زمان $T$ تعمیر کنید و بهترین نامزد را بعد از $T$ انتخاب کنید. اجازه دهید $t$ زمانی باشد که بهترین نامزد میرسد، سپس: $Prob(Win) \geq E_{t}[1_{\\{t>T\\}}\frac{T}{t}] = \int_{T}^{1}\frac{T}{t}dt = -T~ln~T$ این در $T=\frac{1}{e}$ با یک $Prob(Win) = بهینه است. \frac{1}{e} = 36.7\%$ چند سوال دارم. لطفاً کسی توضیح دهد که چگونه معادله انتظار را تفسیر می کند؟ به علاوه، اهمیت عبارت _فرض کنید افراد به طور مستقل در بازه $[0,1]$ می رسند._ چیست؟ آیا به این معنی است که نمی توانم بازه زمانی دیگری را در نظر بگیرم، مثلاً $[0، \alpha]$ یا باید فقط $\alpha$ را در $\frac{1}{e}$ ضرب کنم تا زمان واقعی ساخت را بدست بیاورم. تصمیم؟ من فقط سعی می کنم بفهمم برای تبدیل این به یک پیاده سازی واقعی در دنیای واقعی چه کاری باید انجام دهم. پیشنهادی دارید؟ | معنی این معادله انتظار؟ |
57776 | منظور من مجموعه داده «iris.arff» است که همراه با توزیع Weka است. 3 کلاس و 4 ویژگی وجود دارد. در زیر اطلاعات مربوط به 4 ویژگی- % حداقل حداکثر میانگین کلاس SD همبستگی % طول کاسبرگ: 4.3 7.9 5.84 0.83 0.7826 % عرض کاسبرگ: 2.0 4.4 3.05 0.43 -0.4194 ٪ طول گلبرگ: 1.0 7.9 1.06706. (بالا!) % عرض گلبرگ: 0.1 2.5 1.20 0.76 0.9565 (بالا!) آخرین ستون چگونه محاسبه می شود؟ بعد از جستجوی همبستگی کلاس، Intraclass_correlation را پیدا کردم، مطمئن نیستم که آیا همان چیزی است، همچنین چگونه می توان یک عدد همبستگی کلاس واحد را زمانی که تعداد کلاس ها سه است، ارائه داد؟ | همبستگی طبقاتی چیست؟ |
57778 | من در حال انجام آزمایشی با یک گروه کنترل و یک گروه درمانی هستم. هر دو گروه یک پرسشنامه افسردگی قبل و بعد از درمان را تهیه خواهند کرد. از چه روش آماری برای تعیین اینکه آیا درمان به میزان قابل توجهی علائم افسردگی را کاهش می دهد، استفاده کنم؟ T-test یا ANOVA، کدام نوع و چرا؟ | با دو گروه، ارزیابی های قبل و بعد از درمان آزمایش کنید |
56280 | در تناسب gls نشان داده شده در زیر، تخمین انحراف استاندارد برای هر سطح X ظاهراً با حاصلضرب (1.000000، 3.913972، 10.684698، 11.350910، 26.476561، 27.255072 استاندارد error) ارائه می شود. 0.04896334. چگونه می توان خطای استاندارد این انحرافات (یا واریانس) برآورد شده را برآورد کرد؟ > m X Y F 1 1 1.07 1 2 1 1.01 1 3 1 0.99 1 4 1 1.09 1 5 1 0.94 1 6 1 1.00 1 7 1 1.01 1 8 1 0.98 1 0 1 01 01 11 4 3.66 4 12 4 3.75 4 13 4 3.77 4 14 4 3.92 4 15 4 4.08 4 16 4 3.99 4 17 4 3.95 4 18 4 14 4 3.92 4 15 4 4.08 4 16 4 3.99 4 17 4 3.95 4 18 4 4.104 4. 4 21 10 10.13 10 22 10 10.20 10 23 10 9.77 10 24 10 10.28 10 25 10 8.71 10 26 10 9.79 10 27 1010 9.79 10 27 1010. 29 10 10.07 10 30 10 9.63 10 31 20 20.22 20 32 20 19.46 20 33 20 19.02 20 34 20 20.06 20 3035 20.202020.06 20 37 20 19.96 20 38 20 20.04 20 39 20 19.67 20 40 20 19.96 20 41 30 31.04 30 42 30 31.40 30 304 304 30 43. 30.77 30 45 30 32.13 30 46 30 31.17 30 47 30 30.36 30 48 30 29.95 30 49 30 30.74 30 50 30 47 30 48 30 30 49 30 40 40.29 40 53 40 42.77 40 54 40 38.36 40 55 40 39.17 40 56 40 39.61 40 57 40 40.73 40 58 420 40 40 56 40 60 40 40.24 40 > Fit.gls <- gls(Y ~ X,weights=varIdent(form = ~ 1 | F),data=m) > summary(Fit.gls) حداقل مربعات تعمیم یافته متناسب با مدل REML: Y ~ X داده: m AIC BIC logLik 78.96207 95.44562 -31.48104 تابع واریانس: ساختار: انحرافات استاندارد مختلف در هر لایه فرمول: ~1 | F تخمین پارامتر: 1 4 10 20 30 40 1.000000 3.913972 10.684698 11.350910 26.476561 27.255072 | خطای استاندارد انحرافات استاندارد برآورد شده با gls در R |
56427 | بنابراین من و یکی از همکاران از تجزیه و تحلیل مؤلفه های اصلی (PCA) یا مقیاس بندی چند بعدی غیر متریک (NMDS) استفاده می کنیم تا چگونگی تأثیر متغیرهای محیطی بر الگوها در ترکیب جامعه اعماق دریا را بررسی کنیم. یک روش متداول این است که بردارهای محیطی را بر روی یک ترتیب قرار دهیم. طول و جهت بردارها تا حدودی ساده به نظر می رسد، اما من نمی دانم که چگونه یک مقدار مربع R یا یک مقدار p برای این بردارها محاسبه می شود. من به ده ها مقاله نگاه کردم و بیشترین چیزی که می توانم جمع آوری کنم این است که این اعداد با استفاده از جایگشت داده ها محاسبه می شوند. این خیلی شهودی به نظر نمی رسد. چه داده هایی در حال تغییر هستند؟ چگونه این جایگشت یک مقدار مربع R ایجاد می کند و چه واریانسی توضیح داده شده است؟ درک محدود من از مقدار مجذور R از رگرسیون های خطی ناشی می شود. من باید این را برای افرادی توضیح دهم که سابقه کمی یا بدون پیشینه آماری دارند، بنابراین هرگونه کمکی برای درک این مفاهیم یا پیوند به یک متن موجود بسیار قدردانی خواهد شد. خیلی ممنون | تفسیر تناسب برداری NMDS |
104415 | من در حال انجام یک تجزیه و تحلیل بقا هستم و پس از ترسیم باقیماندههای شوئنفلد و آزمایش اهمیت همبستگی باقیماندهها با زمان، تصمیم گرفتم یک تعامل را در مدل بگنجانم. منطقی است زیرا نتیجه متغیر در طول زمان تأثیر متفاوتی دارد، برای کسانی که قسمت قبلی را پیشفرض کردهاند، احتمال داشتن یک قسمت دیگر بسیار سریعتر از کسانی است که قسمت قبلی را کامل کردهاند. من سعی کردم یک تعامل اضافه کنم اما این کمی گیج کننده است و منجر به **تکینگی عددی** می شود. > modf <\- coxph(Surv(زمان، وضعیت) ~ Vac + CliForm + Sit + Prison + HIV + سن > + Sit:time, data2) > > پیام هشدار: در fitter(X, Y, strats, offset, init) ، کنترل، وزن = > وزن، : تکرارها تمام شد و همگرا نشد، اما با استفاده از این نیز همان خطا را داد: > modf <\- coxph(Surv(ini، پایان، وضعیت) ~ Vac + CliForm + Sit + Prison + HIV + > سن + نشستن: پایان، داده 2) > > پیام هشدار: در fitter (X, Y, strats, offset, init, control, weights = > weights, : تکرارهای تمام شد و همگرا نشد گزینه دیگر این است که زمان را به دو قسمت تقسیم کنید: data4$statusCured <- ifelse(data4$time >= 250, data4$status, 0) data4$statusDef <- ifelse(data4$time < 250, data4$status, 0) summary(coxph(Surv(time, statusDef) ~ Vac + CliForm + Sit + زندان + HIV + سن، داده 4)) خلاصه (coxph (Surv (زمان، وضعیت درمان شده) ~ Vac + CliForm + Sit + Prison + HIV + سن، data4)) **سوال اصلی من این است که بهترین رویکرد برای این مشکل چیست؟** چگونه باید یک تعامل را در مدل خود قرار دهم؟ در صورتی که نتیجه متغیر با زمان تغییر کند. هر اشارهای بسیار مفید خواهد بود. | خطا در افزودن تعامل در مدل کاکس؟ |
81623 | من در حال تلاش برای پیاده سازی الگوریتم ساده بیس در جاوا هستم. اما من چند ابهام در مدل ساده بیز دارم. مدل بایزهای ساده لوح چیست؟ آیا این یک جدول است؟ چگونه می توانیم از مدل پیش بینی کنیم؟ من میتوانم الگوریتم را در کد جاوا پیادهسازی کنم و پیشبینی کنم. اما شنیدم که این راه درستی برای انجام آن نیست. ما باید از روی مدل پیش بینی کنیم .. اما چگونه ??اگر کسی در این مورد نظری دارد لطفاً سعی کنید به این پاسخ دهید. و همچنین چگونه می توانیم مجموعه آموزشی و مجموعه تست را از مجموعه داده جدا کنیم ؟؟؟ متشکرم. | مدل ساده بیز |
60140 | این احتمالاً یک سؤال نسبتاً ساده است، اما آیا b0 و b1 در یک مدل رگرسیون خطی ساده مستقل هستند؟ | استقلال در رگرسیون خطی |
3616 | من یک سری زمانی ساده با 5-10 نقطه داده در هر مجموعه داده در فواصل زمانی منظم دارم. من در تعجبم که بهترین راه برای تعیین اینکه آیا دو مجموعه داده متفاوت هستند چیست؟ آیا باید تست های t را روی هر نقطه داده امتحان کنم، یا به ناحیه زیر منحنی ها نگاه کنم یا نوعی مدل چند متغیره وجود دارد که بهتر کار کند؟ | بهترین آزمون آماری برای یک سری زمانی چیست؟ |
52058 | من می خواهم از یک داده آموزشی یک درخت تصمیم بسازم. من یک ویژگی با مقادیر اسمی زیادی دارم. به عنوان مثال، ویژگی نام بخش دارای حدود 20-30 مقدار است. من می خواهم این مقادیر را به 4-5 گروه یا هر مقدار مناسب گروه بندی کنم. چگونه می توانم این کار را انجام دهم (در Weka ارجح است)؟ آیا باید این کار را در مرحله پیش پردازش یا/یا مرحله یادگیری انجام دهم؟ | درخت تصمیم: ویژگی دسته با مقادیر اسمی زیاد |
96105 | مفروضات همسانی و همگنی رایج هستند و شاید با ANOVA و رگرسیون سروکار دارند. این فرضیات سردرگمی زیادی ایجاد می کند. | تفاوت های کلیدی بین همسانی و همگنی چیست؟ |
60149 | DV: ساختگی پاسخ کار، (1= افزایش کار خانگی، 0=hh کار را افزایش نداد) IV: اندازه خانواده (متغیر پیوسته) من یک رگرسیون لجستیک روی این متغیرها انجام می دهم. نگرانی من این است که می دانم هنگام استفاده از پیش بینی کننده های طبقه بندی باید مطمئن شوم که هیچ سلول خالی وجود ندارد. با این حال، من دقیقاً مطمئن نیستم که رگرسیون لجستیک با یک پیشبینیکننده پیوسته چگونه کار میکند. من می دانم که به تغییر شانس DV ناشی از تغییر یک واحد در پیش بینی پیوسته نگاه خواهد کرد. با این حال، آیا با متغیر پیوسته به روشی مشابه رفتار می کند؟ آیا در این مورد باید نگران سلول های خالی باشم؟ به عنوان مثال، ممکن است تنها یک خانواده با 17 عضو وجود داشته باشد. امیدوارم سوال من کاملا واضح باشد. از هر کمکی که می توانید به من بکنید قدردانی می کنم. متشکرم. | آیا باید متغیر پیوسته خود را برای استفاده در رگرسیون لجستیک باینری دسته بندی کنم؟ |
56282 | من به دنبال پاسخی بصری هستم که چرا یک مدل GLM LASSO یک پیشبینیکننده خاص را از میان گروهی از موارد بسیار همبسته انتخاب میکند، و چرا این کار را متفاوت از بهترین انتخاب ویژگی زیر مجموعه انجام میدهد. از هندسه LASSO نشان داده شده در شکل 2 در Tibshirani 1996، من به این باور رسیدم که LASSO پیش بینی کننده را با واریانس بیشتر انتخاب می کند. حالا فرض کنید که من از بهترین انتخاب زیرمجموعه با CV 10 برابری برای به دست آوردن 2 پیش بینی کننده برای یک مدل رگرسیون لجستیک استفاده می کنم و از قبل دانش معقولی دارم که این 2 پیش بینی کننده بهینه هستند (به معنای ضرر 0-1). راهحل LASSO از یک راهحل کمتر (5 پیشبینیکننده) با خطای پیشبینی بیشتر استفاده میکند. به طور شهودی، چه چیزی باعث ایجاد تفاوت می شود؟ آیا دلیل آن روشی است که LASSO از میان پیش بینی کننده های همبسته انتخاب می کند؟ | LASSO چگونه از میان پیش بینی کننده های خطی انتخاب می کند؟ |
93285 | من یک مجموعه داده دارم که از 5000 مشاهده تشکیل شده است. هر مشاهده شامل درآمد سالانه یک فرد (از 50 تا 50.000.000) و واقعیت داشتن ماشین (بله/خیر) است. من می خواهم بررسی کنم که آیا بین این دو ویژگی همبستگی وجود دارد یا خیر. کدام آزمون را اجرا کنم؟ پیشاپیش متشکرم | همبستگی بین متغیرهای کمی و کیفی |
57484 | در صورت استفاده از رویکرد ARMA-GARCH چگونه می توانم VaR را محاسبه کنم؟ من در سری های زمانی خوب نیستم، بنابراین کم و بیش با نمادهای مختلف ممکن یک فرآیند ARMA-GARCH گیج شده ام. امیدوارم نشانه ای که استفاده می کنم درست باشد. فرض کنید از AR(1)-GARCH(1,1) زیر استفاده می کنم: \begin{align*} r_t=\delta + \phi_1 r_{t-1} + z_t\\\ z_t = \sigma_t \epsilon_t\\\ \epsilon_t \text{ is } N(0,1)\\\ \sigma_t^2=\alpha_0+\alpha_1 z_{t-1}^2+\beta \sigma_{t-1}^2 \end{align*} منظورم این است که باید یک کمیت را در نقطه زمانی t محاسبه کنم. معمولاً در صورت رویکرد سادهتر: $r_t=\mu + \sigma_t*\epsilon_t$ و $\epsilon_t$ N(0,1) است که $VaR=\mu + \hat{\sigma_t}* را نشان میدهد. z_\alpha$ که در آن $z_\alpha$ چندک نرمال استاندارد است. در مورد رویکرد ARMA-GARCH چگونه می توان این کار را انجام داد؟ من اکنون $\mu$ ندارم، اما یک فرآیند AR دارم؟ من برخی از مقالات را خواندم، همه آنها کم و بیش فرمول ARMA-GARCH را می دهند و می گویند که آنها پیش بینی را ایجاد می کنند، اما هیچ فرمولی نمی دهند که چگونه این کار را انجام دهیم. | VaR در مورد ARMA-GARCH؟ |
52052 | من به دنبال راهی برای تنظیم توزیع احتمال یک تابع تصادفی یکنواختی هستم که در یک برنامه استفاده می کنم. من می خواهم مقداری توزیع احتمال گسسته را پیدا کنم که شامل پارامتری برای تنظیم یکنواختی توزیع نسبت به رویداد مرکز باشد. برای مثال، اگر آن پارامتر، فرض کنیم _s=0_، احتمال 5 رویداد دقیقاً برابر با 20 درصد است. اگر بخواهم آن پارامتر را به _s=1_ تغییر دهم، تابع اکنون احتمال را بسته به فاصله از مرکز تنظیم می کند. بنابراین، احتمال به صورت زیر تغییر میکند: * رویداد 1: 16% * رویداد 2: 18% * رویداد 3: 20% * رویداد 4: 22% * رویداد 5: 24% و با تنظیم _s_ بالاتر، احتمال افزایشی در بالای مرکز به دست میآید. رویداد و کاهش احتمال در زیر رویداد مرکز، بسته به فاصله از مرکز - همه در حالی که احتمال کل را حفظ می کنیم. 100% آمار نقطه قوت من نیست، بنابراین امیدوارم کسی با تجربه بتواند بفهمد من به دنبال چه هستم :) | تنظیم توزیع احتمال یکنواخت |
102811 | من از اینجا فهمیدم: آیا این بیانیه صحیحی از قانون زنجیره احتمال است؟ که در قانون زنجیره برای احتمال، شرطی سازی را می توان بر روی متغیرهای مختلف انجام داد. من متعجب بودم که این چه نوع مفاهیمی برای مدلسازی زبان دارد، جایی که ما سعی میکنیم به دنبالهای از m کلمات P(w_1، w_2، ...، w_m) یا هر دنبالهای برای آن موضوع، احتمال نسبت دهیم. به عنوان مثال، فرض کنید می خواهیم یک احتمال را به P (the, cat, ran) اختصاص دهیم. همانطور که در اینجا مشاهده می شود: http://en.wikipedia.org/wiki/Language_model#N-gram_models می توان P(the, cat, ran) را با محاسبه P(the)*P(cat|the)*P(ran|) محاسبه کرد. گربه). اما با توجه به اینکه شرطی سازی را می توان روی متغیرهای مختلف انجام داد، آیا درست است که بگوییم P(the, cat, ran) = P(ran)*P(the|ran)*P(cat|ran,the)؟ اگر چنین است، توالی کلمات در واقع چگونه در نظر گرفته می شود؟ بدیهی است که احتمال گربه دوید بیشتر از گربه دوید است. | سوال در مورد قانون زنجیره احتمال |
32088 | پرسشنامه من شامل 48 سوال (متغیرهای مشاهده شده) است که نشان دهنده 8 عامل مختلف (متغیرهای پنهان) است. همه متغیرها پیوسته هستند. من باید قبل از انجام تحلیل های همبستگی و رگرسیون متغیرهای پنهان را محاسبه کنم، اما مشکل اینجاست که SPSS به طور مستقیم متغیرهای پنهان مانند نرم افزارهای SEM را ایجاد نمی کند. چگونه می توانم متغیرهای پنهان را در SPSS ایجاد کنم؟ | چگونه می توان متغیرهای مشاهده شده را به متغیر پنهان زیرین آنها در SPSS تبدیل کرد؟ |
60142 | من سعی می کنم یک تحلیل سری زمانی ساده با داده های سری زمانی انجام دهم. داده های من دنباله ای از مقادیر صحیح کوچک مانند 0،1،2 و 3 است. من از منابع مختلف یاد گرفتم که مدل INAR با چنین داده هایی مناسب است. سوال من این است که آیا کسی کدهای R را برای برازش یک مدل INAR(1) ساده میداند (بازگشت دادههای سری زمانی روی یک متغیر ساختگی باینری). از هر کمکی قدردانی کنید. | چگونه یک سری زمانی شمارش ساده مدل INAR(1) را در R تنظیم کنیم |
99909 | من یک مجموعه داده با 20 محصول دارم و اینکه آیا کسی آنها را خریده است، قیمت آنها و سایر ویژگی ها. من سعی می کنم کشش های قیمتی خود و متقاطع این 20 کالا را پیدا کنم. من از یک مدل لجستیک شرطی در Stata استفاده کردهام و اکنون باید کششها را ترجیحاً در یک ماتریس پیدا کنم. من به استفاده از حاشیه یا mfx فکر می کنم. آیا با استفاده از mfx باید از موارد زیر استفاده کنم؟ یا آیا رویکرد بهتری برای یافتن ماتریس کشش قیمت در Stata وجود دارد؟ mfx پیش بینی (خرید = 1) dyex(ln(محصول = '1')) mfx پیش بینی(خرید = 2) dyex(ln(محصول = '2')) و غیره. نتایج رگرسیون بر اساس: clogit خرید محصولX attrY برای X = 1..20 و Y = 1..15. آیا می توانم از mfx eyex برای بدست آوردن کشش های خود و قیمت متقاطع استفاده کنم؟ | مدل لاجیت مشروط و کشش قیمت |
21827 | شرکت مبتنی بر وب که من در آن کار می کنم دارای سیستمی است که بسته های اطلاعاتی را از سایت های خارجی دریافت می کند. من می خواهم بدانم از چه رویکردهایی می توان برای شناسایی الگوها یا ارتباط بین سایت های خارجی استفاده کرد. به عنوان مثال سایت A بسته ای را در مورد موضوع 1 ارسال می کند. مدت کوتاهی پس از آن بسیاری از سایت های دیگر ممکن است از طریق بسته هایی با همان شناسه ارسال کنند. این ممکن است به این دلیل باشد که سایت 2 نیز اطلاعات را از سایت 1 دریافت کرده و سپس آن را برای ما ارسال کرده است. برای پیچیدهتر کردن آن، این امکان نیز وجود دارد که به محض دریافت دادهها، آنها را به یک یا چند سایت ارسال کنیم، که ممکن است فرآیند دوباره شروع شود. بسته ها حاوی یک فیلد شناسه هستند که می توان از آن برای شناسایی موضوعی که هر بسته به آن اشاره می کند استفاده کرد. صدها سایت وجود دارد که بسیاری از آنها بسته ها را قبل از ارسال برای ما از یکدیگر جمع می کنند. بسیاری از سایتهای کوچکتر میتوانند از تجزیه و تحلیل حذف شوند، در صورتی که آن را سادهتر کند. ما داده های زیادی داریم. در طی چند روز ممکن است صدها بسته را ببینیم که همه مربوط به یک شناسه هستند. همچنین، از چه رویکردهایی می توان برای تجسم یا نمایش نتایج/الگوها به بهترین وجه برای مخاطبان غیرآماری استفاده کرد؟ سفارش _ممکن است مهم باشد. به عنوان مثال، اگر سایت 1 همیشه قبل از سایت 2 یک شناسه ارسال می کند، سایت 2 (احتمالاً) بسته های خود را از سایت 1 دریافت می کند. بابت مبهم بودن سؤال پوزش می طلبیم. در صورت درخواست جزئیات بیشتر، قصد دارم این سوال را روشن کنم. با تشکر EDIT: همچنین جالب است که به تجزیه و تحلیل سایت های جداگانه نگاه کنید. | چگونه الگوها/ارتباطات را در ترافیک شبکه شناسایی کنیم؟ |
56284 | من به دنبال یک تابع چگالی احتمال صاف با گشتاورهای محدود و تابع چندک فرم بسته هستم. همانطور که می دانید، یک مثال از تابع چگالی احتمال صاف با گشتاورهای محدود، تابع چگالی گاوسی است، اما تابع چندک شکل بسته ندارد. و نمونه ای از چگالی احتمال هموار با تابع چندک شکل بسته تابع چگالی کوشی است، اما گشتاورهای محدودی ندارد. در نهایت، یک مثال از تابع چگالی احتمال با گشتاورهای محدود و تابع چندک شکل بسته با گسترش تابع چگالی توزیع نمایی با چرخاندن آن در امتداد محور y و تقسیم آن بر 2 به دست میآید، اما تابع چگالی مشتقشده در یک نقطه صاف نیست ( میانگین). نمیدانم آیا میتوان تابع چگالی احتمالی را ساخت که صاف، دارای گشتاورهای محدود و تابع چندک شکل بسته باشد. ویرایش: که در آن صاف به معنای _بی نهایت قابل تمایز_ است و دارای لحظه های متناهی است به این معنی است که _همه لحظه های عدد صحیح مثبت متناهی هستند_ | آیا یک تابع چگالی احتمال هموار با گشتاورهای محدود و یک تابع چندک شکل بسته وجود دارد؟ |
96103 | آیا کسی می تواند به من کمک کند تا آن نتایج را تفسیر کنم؟ من در مدل پروبیت خود مقدار p بسیار بالایی دریافت می کنم اما نمی دانم چرا...  برخی جزئیات در مورد متغیرهای من: کنفوسیوس = وابسته (باینری 1 = بله، 0 = خیر) توتالاگری = مستمر (تن) رشوه = اندازه درصد = پیوسته (کیلومتر مربع) ساحل = agrigdp باینری = درصد impchina، expchina، Gdp = پیوسته (ارزش بر حسب دلار) lifeexp = پیوسته (سال) urbpop = درصد زغالسنگ، نارگاسپراد، ذخایر نفتی = الماس پیوسته = محصول باینری = شاخص با تشکر! | مقادیر p بالا در مدل پروبیت |
100404 | من به تازگی کشف کردم که mgcv::s() به شخص اجازه می دهد یک ماتریس به آرگومان by خود ارائه دهد، و به شخص اجازه می دهد یک متغیر پیوسته را با هموارهای جداگانه برای هر یک از ترکیبی از متغیرها هموار کند (و در صورت تمایل، برهمکنش های آنها) . با این حال، من در گرفتن پیشبینیهای معقول از چنین مدلهایی مشکل دارم، برای مثال: library(mgcv) #for gam library(ggplot2) #برای ترسیم #تولید برخی دادههای جعلی set.seed(1) #برای تکرارپذیری این مثال myData = expand.grid( var1 = c(-1,1), var2 = c(-1,1) , z = -10:10 ) myData$y = rnorm(nrow(myData)) + (myData$z^2 + myData$z*4) * myData$var1 + (3*myData$z^2 + myData$z) * myData$var2 #توجه داشته باشید اثرات افزودنی var1 و var2 #plot داده ggplot( data = myData , mapping = aes ( x = z , y = y , color = factor(var1) , linetype = factor(var2) )+ geom_line( alpha = 0.5 ) #reformat to matrices zMat = matrix(rep(myData$z,times=2),ncol=2) xMat = matrix(c(myData$var1, myData$var2),ncol=2) #get fit fit = gam( formula = myData$y ~ s(zMat,by=xMat,k=5) ) #پیشبینیها را دریافت کنید و آنها را ترسیم کنید. = ضریب(var1)، نوع خط = ضریب(var2) )+ geom_line(آلفا = 0.5) این نمودار را به دست می دهد از داده های ورودی:  و این نمودار آشکارا نادرست مقادیر پیش بینی شده:  در حالی که جایگزین کردن گام فیت بالا با: fit = gam (فرمول = y ~ s(z,by=var1,k=5) + s(z,by=var2,k=5) , data = myData ) اما در غیر این صورت اجرای همان کد این نمودار معقول از مقادیر پیش بینی شده را به دست می دهد: ![دیگر نمودار خروجی] (http://i.stack.imgur.com/FvsGv.png) من اینجا چه غلطی می کنم؟ | به دست آوردن پیشبینیها از یک برازش mgcv::gam که حاوی ماتریس متغیر «by» به یک متغیر است. |
99907 | من به یک **توصیه/ بهترین روش** در مورد چگونگی آزمایش دقیق **تأثیر پیش بینی کننده های طبقه بندی** (واحد) یا مدت آنها (مدت زمان جنگ/صلح در این مورد) **روی سری های زمانی** نیاز دارم. **چگونه ثابت کنیم که افزایش قیمت نفت ناشی از جنگ است؟** من می خواهم مقداری _p-value_ بدست بیاورم. # مثال - تاثیر جنگ بر قیمت نفت # (البته کاملاً سفته بازی ;D) قیمت <- c(13,13.5,13,13.5,13,15,15.5,15.5,15,12.5,12,12,12, 12.5،14،15، 14,13.5,12.5,13,13,14,15,13.5,12,12,12,12.5,12,12) سال <- دنباله (از = 1960 طول = 30) دوره <- rep(c(صلح جنگ، صلح، جنگ، صلح، جنگ، صلح)، بار = c(5،4،5،2،3،4،7)) my.data <- data.frame(قیمت = قیمت، سال = سال، دوره = دوره) # plot plot(my.data$year، my. data$price، xlab = year، ylab = قیمت نفت، pch = 20، ylim = c(11,17)، cex = 2.2) خطوط (my.data$year، my.data$price، col = آبی، lty = 2، lwd = 2) کسی می تواند به من کمک کند؟ از شما برای هر گونه راهنمایی پیشاپیش متشکرم! حداقل نام تکنیک مناسب مفید خواهد بود. * * *  | نحوه آزمایش تأثیر عوامل خارجی بر سری های زمانی |
113433 | من در محاسبه ماتریس اطلاعات فیشر برای مدل سلسله مراتبی بیزی دچار مشکل هستم. برای سادگی، تتا را مدل بیزی سلسله مراتبی زیر در نظر بگیرید: $$X|\sigma \sim N(0,\sigma^2)$$ $$\sigma|\gamma\sim LN(\gamma,0)$$ $$\ pi(\gamma)\propto1$$$X$ یک نقطه داده قابل مشاهده است، $\pi(\gamma)\propto1$ به این معنی است که پارامتر ناشناخته $\gamma$ دارای توزیع قبلی مسطح است و $LN$ نشان دهنده توزیع log-normal است. احتمال دادهها به شرح زیر است: $$f(X|\sigma,\gamma)=\frac{1}{\sigma}e^{-\frac{x^2}{2\sigma^2} }\frac{1}{\sigma}e^{-\frac{(ln\sigma-\gamma)^2}{2}}$$ Log-likelihood این است: $$L(X|\sigma،\gamma)=-2ln\sigma-\frac{x^2}{2\sigma^2}-\frac{(ln\sigma-\gamma)^2}{2} $$ مشتقات مرتبه اول: $$\partial_{\sigma}L=-\frac{2}{\sigma}+\frac{x^2}{\sigma^3}-\frac{1}{\sigma}(ln\sigma-\ گاما) $$ $$\partial_{\gamma}L=ln\sigma-\gamma.$$ مشتقات مرتبه دوم عبارتند از: $$\partial_{\sigma}^2L=\frac{1}{\sigma^2}-\frac{3x^2}{\sigma^4}+\frac{1}{\sigma^2}(ln \sigma-\gamma) $$ $$\partial_{\sigma,\gamma}^2L=\frac{1}{\sigma}$$ $$\partial_{\gamma}^2L=-1$$ بنابراین، هسیان احتمال ورود به سیستم عبارت است از: $$Hess(L)=\begin{pmatrix} \frac{1}{\sigma^2}-\frac{3x^2}{\sigma^4}+\frac{1}{\sigma^2}(ln\sigma-\gamma)&\frac{1 }{\sigma} \\\ \frac{1}{\sigma}&-1 \end{pmatrix}$$ معیار اطلاعات فیشر به صورت زیر تعریف میشود: $$G=-E_{p(x,\theta)}\left [ Hess(L)) \right ]$$ Since $E_{f(x,\theta)}\left [x^2\right ]= \sigma^2$ داریم که متریک فیشر $$G=\begin{pmatrix} است -\frac{-2+ln\sigma-\gamma}{\sigma^2}&-\frac{1}{\sigma} \\\ -\frac{1}{\sigma}&1 \end{pmatrix} $$ اما (و پیچش پیش میآید)، اگر مقادیر پارامترهای $\sigma=1$ و $\gamma=-3$ را اضافه کنیم، ماتریس معین منفی به دست میآوریم: $$G=\begin{pmatrix} -1&-1 \\\ -1&1 \end{pmatrix}$$ اما ماتریس اطلاعات فیشر باید نیمه معین باشد. بنابراین، سوال من این است - من چه اشتباهی انجام می دهم؟ من تصور می کنم که انتظار از پارامتر $\sigma$ باید با در نظر گرفتن این که یک متغیر تصادفی است، نه فقط داده $X$، به عنوان مثال $E_{f(X,\sigma,\) باید در نظر گرفته شود. gamma)}\left [\sigma \right ]\neq\sigma$ but $E_{f(X,\sigma,\gamma)}\left [\sigma \right ]=e^{\gamma+\frac{1}{2}}$ - زیرا $\sigma$ دارای توزیع log-normal است. من به دنبال ادبیاتی در مورد تشکیل ماتریس اطلاعات فیشر برای مدل های سلسله مراتبی هستم، اما بیهوده. | متریک اطلاعات فیشر برای مدل بیزی سلسله مراتبی منفی - قطعی است؟ |
99905 | سری های زمانی قیمت ثابت نیستند. بنابراین ما آنها را از هم جدا می کنیم و سری های زمانی بازگشت را می گیریم که ثابت هستند. آیا این بدان معناست که همیشه مدلسازی فقط سری بازده دارایی های مالی ایده خوبی است. از طرف دیگر، آیا ما هرگز نیازی به مدل سازی قیمت ها نداریم؟ | مدل سازی سری زمانی مالی |
57773 | من روی یک مشکل اسباببازی کار میکردم که پیشبینی بررسیهایی که یک محصول در آینده دریافت خواهد کرد. من متوجه شدم که SVR با هسته خطی بهتر از انجام رگرسیون حداقل مربعات خطی روی داده ها کار می کند (حتی اگر هر دو بسیار وحشتناک بودند)، اما هیچ شهودی درباره اینکه کدام یک بهتر کار می کند و چرا کار می کند، نداشتم. چند نمونه از استفاده از یکی در مقابل دیگری چیست؟ معمولا می توان از هر دو استفاده کرد؟ | تفاوت بین SVR با هسته خطی و حداقل مربعات خطی |
52053 | من فهرستی از اندازهگیریها دارم که نرمال نیستند و نیاز به ثبت تبدیل دارند تا بتوان آمار پارامتریک را اعمال کرد (مثلاً میانگین، CI). من میتوانم میانگین و CI را بدون مشکل محاسبه کنم وقتی دادهها تبدیل میشوند، اما نحوه تفسیر مقدار تبدیلشده با log برای خوانندگان من ساده نیست. (CI برای طول شی 1-5 log cm است، مردم معمولاً می پرسند log cm چیست؟) من وسوسه می شوم CI را با واحد تبدیل شده به واحد اصلی آن برگردانم، اما نمی دانم که آیا این راه درستی است. این کار را انجام دهید یا اگر جایگزین های دیگری وجود دارد؟ اسکریپت R زیر سوال من را به طور کامل توضیح می دهد: library(epicalc) # ایجاد مجموعه داده های نمونه.seed(1) sample.measurement <- 10^(rnorm(1000, mean=1, 0.5)) # رسم هیستوگرام برای داده های نمونه ، برای استفاده از میانگین برای خلاصه کردن دادهها بسیار اریب است، # باید آن را تغییر شکل دهید hist(sample.measurement) # رسم هیستوگرام برای نمونه داده ها، این بار خیلی بهتر است hist(log(sample.measurement, base=10)) # محاسبه زیر باید اشتباه باشد، زیرا داده های عادی نیست ci.numeric(sample.measurement) # این یکی باید بهتر باشد، زیرا دادهها تبدیل به log میشوند و عادی میشوند، # اما تفسیر/درک مقدار ci.numeric(log(sample.measurement, base=10)) # نمیدانم آیا روش زیر مناسب است، به منظور تفسیر آسان تر # با استفاده از واحدهای اصلی 10^ci.numeric(log(sample.measurement, base=10)) | ارائه خلاصه دادههای تبدیل شده با ورود به سیستم با هدف تفسیر آسانتر |
56281 | من دو مجموعه داده دارم یکی با $n=15$ دیگری با $n=25$. هر مجموعه داده حدود 90 متغیر دارد. دادههای جمعآوریشده تجربی بودند، بنابراین وقتی سعی میکنم دو مجموعه دادهام را ترکیب کنم، تفاوتهای واضحی را در برخی از متغیرها به دلیل این اثر دستهای مشاهده میکنم. من این متغیرها را در یک ماتریس پراکنده می بینم و برخی از آنها جدایی را بر اساس دسته ها نشان نمی دهند در حالی که برخی دیگر به وضوح جدایی را نشان می دهند. آیا راهی برای عادی سازی آنها برای ترکیب این دو مجموعه وجود دارد؟ من سعی کردم نمره z را در هر مجموعه به طور جداگانه بگیرم و آنها را بر اساس امتیاز آنها ترکیب کنم. وقتی سعی می کنم ماتریس پراکندگی امتیازهای z را ببینم، جلوه های دسته ای قابل مشاهده نیستند. آیا روشی معتبر برای عادی سازی است؟ | خلاص شدن از شر اثرات دسته ای |
32083 | من می خواهم یک متاآنالیز را در یک صفحه اصلی ارائه کنم. این باید شامل یک طرح جنگلی برای تجسم اندازه اثر از مطالعات فردی و همچنین آمار خلاصه باشد. من نمیدانستم که آیا این طرح «قانونی» است زیرا من نتایج (اندازههای تأثیرات) را از مقالات منتشر شده میگیرم و آنها را «رایگان» به عنوان بخشی از این متاآنالیز ارائه میدهم؟ | آیا انتشار یک متاآنالیز آنلاین قانونی است؟ |
24815 | **زمینه:** من دادههای توییتر را از طریق منبعی جمعآوری میکنم که به من امکان میدهد یک نمونه آماری از توییتهایی که با یک فیلتر مطابقت دارند، تهیه کنم. من میخواهم نرخ نمونه مناسب را تعیین کنم تا به یک اطمینان آماری خاص در برآوردم از تعداد واقعی توییتهایی که با آن فیلتر مطابقت دارند دست یابیم. **جزئیات نمونهگیر:** برای هر توییت، نمونهگر یک عدد ممیز شناور تصادفی جدید را محاسبه میکند که به طور یکنواخت در محدوده [0100] توزیع شده است، سپس آن عدد را با یک آستانه معین مقایسه میکند (مثلاً 1.6 برای 1.6٪). اگر عدد کمتر از آستانه باشد، از توییت نمونه برداری می شود. در غیر این صورت دور انداخته می شود. **یک مثال:** فرض کنید @justinbieber روزانه 500150 منشن دریافت می کند. من ابتدا فیلتر می کنم تا تمام توییت هایی که به @justinbieber اشاره می کنند را دریافت کنم، سپس با احتمال 1 درصد نمونه برداری می کنم. این باید چیزی در حدود 5001 به من بدهد، که سپس آن را بر 1% تقسیم می کنم تا تخمینی 500،100 ذکر در روز داشته باشم. در اینجا دو منبع خطا وجود دارد: 1) **خطای گرد کردن.** من لزوماً دقت داده های شمارش خود را کاهش می دهم، سپس به اصل برون یابی می کنم. 2) **خطای نمونه گیری.** در حالی که نمونهبردار از احتمال توزیع یکنواخت در محدوده استفاده میکند، ممکن است دقیقاً درصد توییتهایی را که درخواست میکنم دریافت نکنم. **هدف** من میخواهم احتمال نمونه مناسبی را محاسبه کنم تا بتوانم با اطمینان خاصی به تخمین تعداد ذکر در توییتر برسم. به عنوان مثال، ممکن است بخواهم با اطمینان 95٪ بگویم که برآورد من در 2٪ از تعداد واقعی است. با توجه به هر دو منبع خطا در اینجا، چه فرمولها یا تکنیکهایی به من اجازه میدهند تا احتمال مناسب استفاده در نمونهگر خود را با توجه به تعداد تخمینی در روز محاسبه کنم؟ **نکته** بهترین راه حل باید با شمارش های کوچک (<40) و شمارش های بزرگ به همان اندازه خوب عمل کند. مطمئناً نمونه برداری 100٪ برای دسته های توییتر با تعداد کمی قابل قبول است، اما هزینه ثابتی برای هر توییت وجود دارد، و بنابراین به حداقل رساندن تعداد توییت های مورد نیاز در صورت امکان مهم است. | تعیین نرخ نمونه مناسب برای داده های شمارش |
32080 | اگر فردی بیانیه ای مانند زیر را بیان کند: > به طور کلی، غیرسیگاری هایی که در معرض دود محیطی قرار دارند، در مقایسه با غیرسیگاری هایی که در معرض دود قرار نمی گیرند، خطر نسبی > بیماری عروق کرونر قلب 1.25 (95 درصد فاصله اطمینان، 1.17 تا > 1.32) دارند. > > خطر نسبی برای کل جمعیت چیست؟ چند چیز > با بیماری عروق کرونر قلب مرتبط است؟ از تعداد زیادی از مواردی که میتوان آنها را آزمایش کرد، تعداد بسیار کمی از آنها در واقع به بیماری عروق کرونر قلب مرتبط هستند، بنابراین احتمال اینکه هر چیزی که بهطور تصادفی انتخاب شده باشد، بسیار ناچیز است. بنابراین می توانیم بگوییم که ریسک نسبی برای جمعیت > 1 است. اما بازه نقل شده حاوی مقدار 1 نیست. بنابراین یا در واقع ارتباطی بین این دو چیز وجود دارد که احتمال آن به طور ناپدید کننده > کم است، یا این یکی از 5% بازه هایی است که شامل > پارامتر نیست. از آنجایی که احتمال دومی بسیار بیشتر از اولی است، این همان چیزی است که ما باید فرض کنیم. بنابراین، نتیجه گیری مناسب این است که مجموعه داده > تقریباً به طور قطع غیرمعمول از جمعیت بود، و بنابراین هیچ ارتباطی نمی توان > دلالت کرد. البته، اگر مبنایی برای این فرض وجود داشته باشد که بیش از 5 درصد موارد مرتبط با بیماری عروق کرونر قلب است، ممکن است شواهدی در این آمار وجود داشته باشد که این پیشنهاد را تایید کند که دود محیطی یکی از آنهاست. عقل سلیم نشان می دهد که این بعید است. چه اشتباهی در استدلال آنها وجود دارد (همانطور که همه سازمان های بهداشتی متفق القول هستند که ادبیات قابل توجهی در مورد اثرات مخرب سیگار کشیدن دست دوم وجود دارد)؟ آیا به دلیل این فرضیه است که از تعداد زیادی چیزهایی که می توان آزمایش کرد، تعداد بسیار کمی واقعاً به بیماری عروق کرونر قلب مرتبط هستند؟ این جمله ممکن است برای هر عاملی که به طور تصادفی انتخاب شده است (یعنی چند سگ با خطر بیماری عروق کرونر دارد) صادق باشد، اما احتمال پیشینی برای سیگار کشیدن دست دوم و بیماری عروق کرونر قلب بسیار بیشتر از هر عامل تصادفی است. . آیا این استدلال درستی است؟ یا چیز دیگری هست؟ | فاصله اطمینان و احتمال - خطا در این عبارت کجاست؟ |
102812 | من با داده های مختلف نمایندگی ملی بسیار کار کرده ام. این منابع داده دارای طراحی پیمایشی پیچیده ای هستند، بنابراین تجزیه و تحلیل مستلزم تعیین متغیرهای طبقه بندی و وزن است. در میان منابع داده ای که در حوزه مطالعه من هستند، ابزارهای یادگیری ماشین برای آنها اعمال نشده است. یک دلیل واضح این است که روش های یادگیری ماشین (در حال حاضر) متغیرهای وزن و طبقه بندی را در نظر نمی گیرند. هدف تجزیه و تحلیل های وزنی / طبقه بندی شده به دست آوردن تخمین های جمعیت تنظیم شده است که با هدف / هدف یادگیری ماشین متفاوت است. مردم در مورد استفاده از منابع داده ملی و نادیده گرفتن متغیرهای وزن و طبقه بندی چه افکاری دارند؟ به عبارت دیگر، اگر یک مطالعه یادگیری ماشینی را مرور میکنید که از دادههای نماینده ملی استفاده میشود، اما متغیرهای وزن و طبقهبندی را نادیده میگیرد، با این فرض که محقق/نویسنده در مورد این تصمیم روششناختی پیشقدم بوده و ادعایی درباره آن ندارد، چه فکری میکنید. نتایج نماینده ملی؟ پیشاپیش متشکرم | یادگیری ماشینی با داده های نظرسنجی وزن دار / پیچیده |
57772 | من به معیاری از واگرایی دو توزیع نیاز دارم. (آنها پیچیده هستند و با خانواده نمایی، نرمال، log-normal، قانون قدرت تناسب ندارند. شاید ترکیبی از آن باشد، اما من در حال حاضر احساس نمی کنم که آن را بفهمم.) من بین Kullback-Leibler فکر می کنم. واگرایی و اطلاعات متقابل من هیچ توزیع پیشفرضی ندارم، بنابراین دوست ندارم DKL نامتقارن باشد (البته میتوانم آن را متقارن کنم، اما در مورد آن اطمینان ندارم.) کدام یک را انتخاب میکنید؟ هر گونه ایده دیگر نیز استقبال می شود! | واگرایی متقارن Kullback-Leibler یا اطلاعات متقابل به عنوان معیار فاصله بین دو توزیع؟ |
106302 | من دو نسخه از همین برنامه دارم. من تعدادی تست عملکرد را برای هر دو اعمال میکنم و زمان پاسخدهی آنها را اندازهگیری میکنم، برای مثال https://gist.github.com/valtih1978/d2cc2fe96fbbe1987ada // random(10000) //> پیامهای 10000 کاراکتری فشرده در 66271 بیت //| در 59 (درخت) در مقابل 20 (جدول) میلی ثانیه //| در 68 (درخت) در مقابل 17 (جدول) msec //| در 45 (درخت) در مقابل 23 (جدول) msec //| در 44 (درخت) در مقابل 19 (جدول) msec //| در 42 (درخت) در مقابل 16 (جدول) msec //| پیام های 10000 کاراکتری را در 66319 بیت فشرده کرد //| در 44 (درخت) در مقابل 15 (جدول) msec //| در 77 (درخت) در مقابل 15 (جدول) msec //| در 40 (درخت) در مقابل 95 (جدول) میلی ثانیه //| در 47 (درخت) در مقابل 17 (جدول) msec //| در 42 (درخت) در مقابل 15 (جدول) میلی ثانیه //| پیام های 10000 کاراکتری را در 66264 بیت فشرده کرد //| در 45 (درخت) در مقابل 15 (جدول) msec //| در 86 (درخت) در مقابل 15 (جدول) msec //| در 39 (درخت) در مقابل 20 (جدول) میلی ثانیه //| در 43 (درخت) در مقابل 14 (جدول) msec //| در 41 (درخت) در مقابل 14 (جدول) msec //| پیام های 10000 کاراکتری را در 66315 بیت فشرده کرد //| در 109 (درخت) در مقابل 17 (جدول) msec //| در 85 (درخت) در مقابل 15 (جدول) msec //| در 41 (درخت) در مقابل 21 (جدول) msec //| در 94 (درخت) در مقابل 29 (جدول) msec //| در 45 (درخت) در مقابل 30 (جدول) میلی ثانیه //| فشرده 10000 کاراکتر //| خروجی بیش از حد قطع است. من می خواهم بفهمم که آیا یکی سریعتر است و چقدر؟ این بدان معنی است که من دو نمونه دارم که هر کدام دارای تغییراتی هستند. حال، چگونه مطمئن شوم که یکی n برابر سریعتر از دیگری است؟ آیا باید مقداری توزیع اطمینان ایجاد کنم که به من بگوید با آن احتمال k برابر سریعتر است؟ تنوع جیره ها چه چیزی می تواند به من بدهد؟ آیا باید از نمونه برداری مجدد استفاده کنم؟ من حتی نمی توانم بفهمم که چگونه سرعت متوسط را محاسبه کنم. آیا باید میانگین سرعت های مربوطه را بگیرم، $speedup_{avg} = (b_1/a_1 + b_2/a_2 + \ldots)/n$ یا به نحوی $b_1$ را در مقابل همه $a_n$s محاسبه کنم و سپس آنها را جمع کنم؟ اگر به تفاوتهای مطلق علاقه داشتم، $speedup_{avg} = (b_1 - a_1 + b_2 - a_2 + \ldots)/n$ را میگرفتم، زیرا برابر است با اجرای همه تستهای $a$، سپس همه تستهای $b$ و با گرفتن تفاوت میانگین $speedup_{avg} = ((b_1 + b_2 + \ldots) - (a_1 + a_2 + \ldots))/n$ یا میانگین نمونهگیری مجدد همه $b_i$ در برابر همه $a_j$، $$speedup_{avg} = {1/n\ (b_1 - a_1 + b_1 - a_2 + \ldots) + (b_2 - a_1 + b_2 - a_2 + \ldots)/n + \sum_{i=3}^n{\sum{(b_i - a_j)}/n} \over n}.$$ این واقعیت که میانگین سنی ها همگرا می شوند، به نظر نمی رسد برای نسبت ها صادق باشد. به عنوان مثال، $$avg_1 = {(b_1 + b_2)/(a_1 + a_2) \ بیش از 2} $$ $$avg_2 = {b_1/a_1 + b_2/a_2 \ بیش از 2} = {(b_1 + b_2 + b_2 a_1 /a_2 + b_1 a_2/a_1) \بیش از 2 (a_1+a_2)} = avg_1 + {b_2 {a_1 \over a_2} + b_1 {a_2 \over a_1} \over 2 (a_1+a_2)} $$ گم شدم. آیا این بدان معناست که هر آماری مبتنی بر نسبت ارگودیک نیست؟ منظورم این است که آیا می توانم فقط زمان اجرای نمونه اول را جمع کنم و بر زمان اجرای کل ثانیه تقسیم کنم تا نسبت میانگین را بدست آوریم، آیا می توانم به جای شکستن آنها، فقط یک اجرای طولانی از برنامه اول و اجرای طولانی برنامه دوم ایجاد کنم. به قطعات یا من برای واریانس به آن نیاز دارم؟ آیا باید از اندازه گیری هارمونیک استفاده کنم (بار کاری برای همه تست ها یکسان است)؟ یا برای میانگین گیری از ریشه دوم استفاده کنم؟ چگونه تصمیم بگیرم؟ بعضی ها می گویند که باید از قضیه فیلر استفاده کرد، اما من نمی فهمم چه چیزی باید در اینجا ثابت شود. آیا معیار درستی برای هدف من وجود دارد یا تعداد زیادی وجود دارد؟ کدام ساده است و کار را انجام می دهد؟ | چگونه سرعت را اندازه گیری کنم؟ |
105452 | من رگرسیون لجستیک را روی داده ها اجرا کرده ام. درصد همخوانی دارد 45. این خیلی کم است. با این حال، تست Hosmer-Lemeshow بی اهمیت است. به این معنی که نمیتوانیم فرضیه صفر را رد کنیم و بیان میکند که مدل به خوبی با دادهها تناسب دارد. این خوب است! ctable همچنین 70 درصد از داده های پیش بینی شده را به درستی نشان می دهد. نتایج متناقض آزمون هماهنگ و هاسمر-لمشو را چگونه باید در نظر گرفت؟ چگونه باید این مدل را تفسیر کنم؟ | ارزیابی برازش مدل رگرسیون لجستیک |
91465 | فرض کنید می خواهم حجم نمونه مورد نیاز برای تشخیص یک درصد تغییر را در نسبتی که معمولاً 35 درصد است محاسبه کنم. منظورم 35 تا 36 درصد نیست، 35 درصد تا 35.35 درصد است. در اینجا محاسبه در R در حال انفجار است: > library(pwr) > p2 = 0.35 > p1 = p2*1.01 > p1 [1] 0.3535 > h = 2 * asin(sqrt(p1)) - 2 * asin(sqrt(p2 )) > آلفا = 0.05 > بتا = 0.05 > pwr.2p.test(h=h, sig.level=alpha, power = 1-beta) خطا در uniroot(function(n) eval(p.body) - power, c(2 + 1e-10, 1e+05) )) : مقادیر f() در نقاط انتهایی که علامت مخالف ندارند در اینجا یک محاسبه 3% موفقیت آمیز است و می گوید که نمونه باید اندازه 53,991 باشد: > کتابخانه (pwr) > p2 = 0.35 > p1 = p2*1.03 > p1 [1] 0.3605 > h = 2 * asin(sqrt(p1)) - 2 * asin(sqrt(p2)) > آلفا = 0.05 > بتا = 0.05 > pwr.2p.test(h=h، sig.level=alpha، power = 1-بتا) تفاوت محاسبه توان نسبت برای توزیع دوجمله ای (تبدیل آرکسین) h = 0.02194005 n = 53990.98 sig.level = 0.05 توان = 0.95 جایگزین = دو طرفه توجه: اندازه های نمونه یکسان من تمام فرضیات اندازه نمونه بالا را قبول دارم ، تست دو طرفه و غیره). برای اطلاعات بیشتر در مورد pwr اینجا و اینجا را ببینید. | چگونه اندازه نمونه را برای تشخیص یک تغییر کوچک محاسبه کنیم؟ |
99904 | من یک ANOVA یک طرفه انجام دادم: من دو گروه داشتم و آزمایش کردم، اگر آنها در سه DV مختلف متفاوت هستند. از آنجایی که من سه بار تست کردم، فکر کردم عاقلانه است که به سراغ اصلاح بونفرونی بروم. اما بعد از آن اعلان دریافت کردم که اصلاح را نمی توان انجام داد زیرا کمتر از سه گروه وجود دارد. کسی می تواند این را برای من توضیح دهد؟ فکر میکردم تصحیح Bonferroni دقیقاً برای این مورد است: چندین بار آزمایش دادهها روی همان گروهها. | اصلاح بونفرونی پس از ANOVA یک طرفه |
105456 | فرض کنید N سیب از چندین فروشنده (A، B، C، D) داریم و میخواهیم آزمایش کنیم که آیا میانگین وزن هر گروه فروشنده متفاوت از میانگین وزن بدون قید و شرط است. میدانم که میتوانم از متغیر ساختگی مقطعی برای آزمایش اینکه آیا میانگین B، C، D با میانگین A متفاوت است یا خیر، با ایجاد 3 نشانگر Is B، Is C و Is D و ایجاد حالت پایه A استفاده کنم. اما در اینجا می خواهم از میانگین جمعیت به عنوان مورد پایه استفاده کنم. راهی هست؟ شاید لازم باشد فاکتورهای بیشتری مانند مکان و رنگ به این مدل اضافه کنم با تشکر | چگونه می توان با استفاده از رگرسیون، میانگین چند گروه متفاوت از میانگین غیرشرطی را آزمایش کرد؟ |
24810 | من در حال حاضر روی یک مدل رگرسیون تقسیمبندی شده با دو متغیر $(x_i,y_i)$ برای $i = 1..N$ کار میکنم. مدل باید این شکل را داشته باشد: $y_i = \beta_0 + \beta_1 x_i$ برای $x_i < x_{crit}$ $y_i = \alpha_0 + \beta_0 + \beta_1 x_i$ برای $x_i \geq x_{crit}$ جایی که $x_{crit}$ یک مقدار نقطه شکست است که باید از دادهها و همچنین ضرایب $\alpha_0 تعیین شود. \beta_0$ و $\beta_1$. من ایده های مشابهی را در مقالات آماری / اقتصادسنجی (مثلاً مدل های رگرسیون تقسیم بندی شده / طراحی ناپیوستگی رگرسیون) دیده ام، اما مایلم در مورد نوع مدلی که باید استفاده کنم بازخوردی دریافت کنم. در حالت ایدهآل، من میخواهم از یک چارچوب کاملاً مستند استفاده کنم که در آن بتوانم نوعی فاصله اطمینان را در نقطه شکست $x_{crit}$ بدست بیاورم. | مدل های رگرسیون ساده برای داده ها با نقطه شکست |
106308 | با شروع با بردارهای داده پر سر و صدا $\mathbf{x}$ و $\mathbf{y}$، دادهها را به بردارهای $\mathbf{x}_b$ و $\mathbf{y}_b$ با طول $N_b$ متصل کردم. با خطی ثابت ($\mathbf{x}_b^i - \mathbf{x}_b^{i-1} = \delta$) یا فاصله لگاریتمی ($\mathbf{x}_b^i/ \mathbf{x}_b^{i-1} = \rho$). اکنون میخواهم یک تناسب را با استفاده از، به عنوان مثال scipy.optimize.curve_fit محاسبه کنم. قبل از Bining، الگوریتم حداقل مربعات به تمام نقاط و مقادیر نگاه می کند و بنابراین وزن مناسبی دریافت می کند. با این حال، اکنون که من آن اطلاعات را از بین برده ام، چگونه می توانم فاکتورهای وزنی/خطایی خوبی برای نقاط داده خود تولید کنم؟ من یک پاسخ بسیار کامل برای یک مشکل یک بعدی در این سایت دیدم اما نمی دانم چگونه نسخه های دو بعدی فرمول ها را استخراج کنم. تفاوت این است که گسترش نقاط در محور x و محور y هر دو باید در یک پارامتر خطا ترکیب شوند. | چگونه یک خطا/وزن را برای دادههای دوبعدی انتخاب کنیم؟ |
114629 | من سعی می کنم با استفاده از ggplot یک نمودار پراکندگی ایجاد کنم. مقدار x تقریباً از 0-20 می رود و مقدار y از 0-~50 می رود. داده ها خام هستند، بنابراین خوب و مرتب نیستند و من باید یک خط منحنی را در اکثر داده ها رسم کنم. کدی که میخواهم از آن استفاده کنم ggplot (دما، Number.of.Fish،aes(x=Temperature،y=Number.of.Fish))+geom_smooth است، اما همیشه یک پیام خطا دریافت میکنم: خطا در ارث (نقشهبرداری، uneval)، تابع Number.of.Fish را پیدا نکرد | نمودارهای پراکنده در ggplot2 با خط روند غیر خطی |
105457 | بنابراین، من یک نمودار پویا وزن دار داشتم که اطلاعاتی در مورد 10 گام متوالی (در اصل 10 فایل) داشت. اکنون، من باید الگوهایی را در وزن و ساختار نمودار کامل استخراج میکردم. من این کار را کردم. فایل خروجی (دارای حدود 10000 ردیف) چیزی شبیه به Node 1 Node 2 Pattern 191 570 00 21 570 00 378 570 00 459 570 00 552 570 00 1907 00 223 بود. 00 570 689 00 ................... اساساً 2 گره و الگوی مرتبط را می دهد. آنچه من می خواهم بپرسم این است که از چه مدلی مانند (رگرسیون خطی، یا نمودارهای نواری، ....) می توانم در اینجا استفاده کنم تا اطلاعات معنی داری را جمع آوری کنم، مثلاً بگوییم، می توانم به یک مدل پیش بینی یا می توانم بگویم که اینها 2 نمودار هستند که ماهیت مشابهی دارند. | استنتاج های ممکن از الگوی نمودار |
57487 | من قصد دارم از دو متغیر پاسخ استفاده کنم. یکی بین 0 و 1 محدود شده است، و من حدس میزنم میتوانم از ساختار خطای دوجملهای (یا مرتبط) استفاده کنم. متغیر دوم بین -1 و 1 محدود شده است. من مطمئن نیستم که برای این یکی چه کاری باید انجام دهم. آیا باید آن را تبدیل کنم؟ لطفاً توجه داشته باشید که من قصد دارم از این متغیرها در مدلسازی اثر مختلط استفاده کنم (به پست مرتبط در مدلسازی اثر ترکیبی مراجعه کنید: مدلسازی اثر ترکیبی با مشاهدات زوجی و متغیرهای پاسخ محدود). هر گونه کمک بسیار قدردانی می کنم. | متغیر پاسخ محدود [-1;1] - آیا باید آن را تبدیل کنم؟ |
57482 | فرض کنید من دادههای یک متغیر $V$ را دارم که برای دو گروه از افراد اندازهگیری شده است ($a$ و $b$) و میخواهم ببینم آیا تفاوت معنیداری بین آنها و _over time_ وجود دارد، یعنی $V_a$ ثابت میماند. با گذشت زمان اما $V_b$ کاهش می یابد. فقط برای تاکید بر اینکه $a$ و $b$ دو گروه از افراد با سنین مختلف هستند، و نه دو نفر که در یک دوره زمانی اندازه گیری می شوند، چگونه این کار را انجام دهم؟ من شروع به خواندن چیزهایی در مورد مدل های ARIMA کردم، اما کاملاً فنی می شود، و من طرفدار سادگی هستم :-) بسیار متشکرم! عمر | محاسبه تفاوت بین گروه ها و در طول زمان (سن) |
27895 | من در حال خواندن مقاله نرخ های بهینه همگرایی برای تخمین ماتریس کوواریانس پراکنده توسط T. Cai و H. Zhou هستم. آنها به نسخه خاصی از لمای اسواد اشاره می کنند (به لم 2، ص 6 مقاله مرتبط مراجعه کنید)، که با نسخه ای که من در یو [1] و لو کم [2] یافتم، متفاوت است. من همچنین ون در فارت [3] را سفارش داده ام، اما هنوز به دستم نرسیده است. آیا میتوانید منبعی را بشناسید که حاوی مدرکی برای نسخهای که Cai بیان میکند باشد؟ یا می توانید دلیل بیاورید؟ من به خصوص علاقه مندم زیرا با اثبات لم 3 آنها (ص. 7 مقاله پیوندی، اثبات ص 21) مشکل دارم و لم ها بسیار مرتبط به نظر می رسند. به طور خاص، من نمیدانم که چگونه استفاده از $\hat{\theta} = \mbox{argmin}_{\theta \in \Theta} d(T,\psi (\theta))$ در معادله چگونه است. (37) معنی دار است زیرا $T$ یک متغیر تصادفی است. [1] B. Yu (1997). اسود، فانو و لو کم. Festschrift برای لوسین لو کم. D. Pollard, E. Torgersen, and G. Yang (eds), pp. 423-435, Springer-Verlag. [2] Le Cam, L. (1986). روش های مجانبی در تئوری تصمیم گیری آماری. SpringerVerlag، نیویورک. [3] van der Vaart، A.W. (1998). آمار مجانبی. انتشارات دانشگاه کمبریج، کمبریج. | انواع لم اسعود |
86519 | من در تلاش برای یافتن راهی مناسب برای مقایسه پراکندگی نسبی داده ها بین دو گروه و همچنین بررسی معنی دار بودن آنها از نظر آماری بودم. در هفته های گذشته، من خیلی جستجو کردم و چندین مقاله خواندم و در نهایت به یک راه حل رسیدم. از آنجایی که من اهل پیشینه آماری نیستم، اگر اشتباه می کنم، در این مورد از شما راهنمایی می خواهم! 1. طبق Jeerapa [1]، چندین روش برای محاسبه فاصله اطمینان برای یک ضریب تغییرات وجود دارد ($cv=\frac{\sigma}{\mu}$، که در آن $\sigma$ نشان دهنده انحراف استاندارد است، و $ \mu$ نشان دهنده مقدار میانگین است). من هم از فاصله اطمینان میلر و هم از فاصله اطمینان مک کی استفاده کرده ام. معادلات را می توان در مقاله ذکر شده (3 و 4) یافت. 2. با توجه به آلتمن [2]، ما می توانیم هم مقدار p (به طور قابل توجهی متفاوت از 0) و هم خطای استاندارد را از 95% CI و مقدار میانگین محاسبه کنیم. 3. طبق این وب سایت، می توانیم آمار t تفاوت میانگین ها را محاسبه کنیم و سپس می توانیم p-value را از جدول توزیع t مربوطه بدست آوریم. سؤالات من این است: 1. آیا روشی معتبر برای مقایسه پراکندگی نسبی داده ها بین دو گروه است؟ آیا می توانیم از تصحیح بونفرونی برای بیش از دو گروه استفاده کنیم؟ 2. اساسا، من یک مجموعه داده را با استفاده از روشهای مختلف عادی کردهام و پراکندگی نسبی را مقایسه کردهام. به عنوان مثال، cv یک ویژگی خام 12٪ است، پس از نرمال سازی این ویژگی با استفاده از روش a1، cv به 10٪ می شود و پس از نرمال سازی با استفاده از روش a2، cv به 6٪ می رسد. از آنجایی که CV از مجموعه داده های مستقل محاسبه نمی شود، آیا می توانیم آزمون t را به جای آزمون t زوجی انجام دهیم؟ برای آزمون t زوجی، ما به انحراف استاندارد تفاوت ها نیاز داریم که نمی توانیم محاسبه کنیم (cv یک مقدار اسکالر است!). با استفاده از روش بالا، متوجه شدم که مقدار p برای روش a1 و a2 کمتر از 0.05 است که در آن cv a2 به طور قابل توجهی کمتر از cv a1 است. 3. محدودیت های CV عبارتند از: الف) std یکسان اما میانگین متفاوت می تواند مقدار cv متفاوتی ایجاد کند، اگرچه پراکندگی هر دو داده یکسان است. ب) زمانی که میانگین نزدیک به 0 باشد بسیار حساس است. بیشتر مقادیر میانگین از روش a1 نزدیک به 0 هستند (مثلاً 0.6). آیا راه دیگری برای مقایسه پراکندگی داده ها بین دو یا چند گروه وجود دارد؟ من واقعا از کمک شما قدردانی می کنم. [1] Sappakitkamjorn, J. and Niwitpong, S. 2013, 'فواصل اطمینان برای ضرایب تغییرات با پارامترهای محدود', International Journal of Mathematical, Computational Science and Engineering, Vol. 7 (9). [2] آلتمن، دی.جی. و بلاند، J.M. 2011، چگونه مقدار P را از فاصله اطمینان بدست آوریم، BMJ، 2011. | مقایسه آماری پراکندگی داده ها بین دو گروه |
65563 | من در حال انجام یک خوشه بندی سلسله مراتبی و یک خوشه بندی DBSCAN بر روی یک ماتریس فاصله هستم (نقشه خودسازماندهی چیزی است که من نیز می خواهم انجام دهم). من در حال تلاش برای یافتن روشی برای انتخاب تعداد خوشه ها بر اساس برخی معیارها هستم (مانند نمودار زانویی با برخی معیارهای شیب آن یا معیارهای BIG یا ...)، اما مطمئن نیستم که روش های کارآمد و قابل اعتماد برای انجام این کار چیست. بنابراین زمانی که فقط ماتریس فاصله وجود داشته باشد. هر گونه پیشنهاد قدردانی می شود. | انتخاب تعداد خوشه ها زمانی که فقط ماتریس فاصله موجود است |
102810 | طبق برخی از مقاله هایی که می خوانم، معمولاً از فاصله جفریس و ماتوزیتا استفاده می شود. اما من نتوانستم اطلاعات زیادی در مورد آن پیدا کنم به جز فرمول زیر JMD(x,y)=$\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i}) ^2}$ شبیه فاصله اقلیدسی است به جز ریشه دوم E(x,y)=$\sqrt[2]{\sum(x_i-y_i)^2}$ JM فاصله برابر است ادعا می شود که از نظر طبقه بندی قابل اعتمادتر از فاصله اقلیدسی است. آیا کسی می تواند توضیح دهد که چرا این تفاوت فاصله JM را بهتر می کند؟ | نکات مثبت فاصله جفریس ماتوزیتا |
24819 | در متلب، من [p,stats,~] = anova1(X) را با برخی از نمونه ها اجرا کردم و نشان دهنده تفاوت معنی داری در (حداقل) 2 میانگین از نمونه ها است. یعنی $p < \alpha$ برای مقداری از $\alpha$. با این حال، اجرای multicompare (stats,'alpha', alpha) هیچ تفاوت قابل توجهی را بین مجموعه دادهها نشان نمیدهد (یعنی هیچ فاصله اطمینانی وجود ندارد که حاوی 0 نباشد). آیا این یک تناقض است یا ممکن است و چرا؟ با تشکر فراوان. | در متلب، نتایج حاصل از anova1 و multicompare مخالف هستند؟ |
57486 | در بسیاری از موارد، ریزدادههای خام به دلیل حفظ حریم خصوصی توسط مؤسسات منتشر نمیشوند. تکنیک های زیادی برای محافظت از مقادیر حساس در داده ها استفاده می شود. اما بسیاری از آنها می توانند ساختارهای چند متغیره را در داده ها از بین ببرند و خود داده ها برای تحقیق اصلا مناسب نیستند. از سوی دیگر، اگر داده ها به اندازه کافی محافظت نشوند، حفظ حریم خصوصی ممکن است تضمین نشود. بنابراین، هر گونه مبادله بین حفظ حریم خصوصی و استفاده از داده ها مورد نظر است. چه روش هایی برای این منظور محبوب هستند و سعی می کنند ساختار چند متغیره داده ها را با حفظ حریم خصوصی تا حد امکان از بین نبرند؟ | کدام روش های فعلی برای محدودیت افشای آماری بهترین مبادله بین حریم خصوصی داده و ابزار داده است؟ |
105455 | من با استفاده از کتابخانه encog Kmeans روی مشکلی کار می کنم و مهم نیست که چه ویژگی هایی به مدل اضافه می کنم، همیشه در یکی از خوشه ها گیر می کند. همه نمونه ها هر بار در یک خوشه جمع می شوند. آیا کسی میداند که آیا در کد K-means برای Encog خطایی وجود دارد یا اینکه من فقط یک کار فوقالعاده احمقانه انجام میدهم؟ برای ثبت، من آن را با بسیاری از ویژگی های مختلف که دارای محدوده اعداد مختلف هستند، امتحان کرده ام. | K-به معنای گیر کرده در 1 خوشه است |
33759 | من دو گروه دارم با توجه به آزمون KW تفاوت معنی داری وجود دارد. اما آیا باید میانگین یا میانه گروه ها را گزارش کنم؟ | آیا هنگام استفاده از آزمون کروسکال والیس نیاز به گزارش میانه یا میانگین داریم؟ |
99906 | برای مدل نرمال چند متغیره در آمار بیزی، که در آن توزیع نمونه $y|\theta،\Sigma \sim N_n(\theta، \Sigma)$، و $\theta$ یک بردار n بعدی است و $\Sigma است. $ a n در n ماتریس کوواریانس واریانس، من سعی می کنم دوباره پارامتری کنم $\Sigma=\Psi^{-1}$. من با پیدا کردن ژاکوبین $\Psi^{-1} $ مشکل دارم. چطوری پیداش کنم و جوابش چیه؟ | پارامترسازی مجدد مدل نرمال چند متغیره در آمارهای بیزی، ژاکوبین ماتریس واریانس کوواریانس؟ |
82823 | **این چیزی است که من قبلاً میدانم:** در مقیاسهای فاصلهای مانند دما، _مقدار صفر واقعی_ وجود ندارد. مقدار صفر بیانگر این نیست که دما در آن نقطه در دسترس نیست. صفر فقط یک عدد تعریف شده توسط انسان است که سطح معینی از دما را نشان می دهد. همه اینها به این دلیل است که دما یک مقیاس نسبی است. **چیزی که من گیج شدم:** * چرا نمی توانم بگویم 40$^\circ\\!$C دو برابر گرمای 20$^\circ\\!$C است؟ * وزن چطور؟ نسبی است اما می توانم بگویم وزن 40 کیلوگرم دو برابر 20 کیلوگرم است. | چرا ضرب و تقسیم در هنگام استفاده از مقیاس فاصله مجاز نیست؟ |
113012 | نمونههای زیر را از چهار توزیع در نظر بگیرید: $a = \\{20, 2, 200\\} \qquad\qquad c = \\{1, 10, 100\\}$b = \\{22, 2.2, 220\\} \qquad\quad\:\,d = \\{1.2, 12, 120\\}$ می خواهم بگویم که افزایش نسبی از $a$ به $b$ بطور قابل توجهی کمتر از افزایش نسبی از $c$ به $d$ است. * * * اگر فرض شود که نمونه ها جفت شده اند، با عنصر $n$th $a$ مربوط به $n$th عنصر $b$، این را می توان با آزمون Mann-Whitney U بر روی عنصر انجام داد. نسبتهای عاقلانه توزیعها: $\frac{b}{a} = \\{1.1، 1.1، 1.1\\}$ در مقابل $\frac{d}{c} = \\{1.2، 1.2، 1.2\\}$ با دادن مقدار p 0.02 (با نمونه های بزرگتر به سمت 0 می رود). * * * اما اگر نمونه ها جفت فرض نشوند، یا اندازه های متفاوتی داشته باشند، چه؟ به جای آن میتوان از تست «راهاندازی نسبت» استفاده کرد: بهطور تصادفی اعداد $a_i$، $b_j$، $c_k$، $d_l$ را با جایگزینی از هر توزیع انتخاب کنید و ببینید چقدر $b_j / a_i < d_l / c_k$ است. برای این مثال، 31 مورد از 81 انتخاب ممکن، $b_j / a_i > d_l / c_k$ دارند، که یک مقدار p برابر با $\frac{31}{81} \حدود 0.38$ است. راهاندازی نسبت در اینجا قطعی نیست زیرا واریانس در هر توزیع بزرگتر از تغییرپذیری (به عنوان مثال تفاوت در میانگین یا میانه) بین جفت توزیعها است. آیا آزمون آماری وجود دارد که همان کار راهاندازی نسبت را انجام دهد، اما نسبت به واریانس درون توزیعی حساس نباشد و فقط بر تغییرپذیری بین توزیعها تمرکز کند؟ | افزایش نسبی بین دو جفت نمونه |
58939 | بگویید من در حال انجام یک تجزیه و تحلیل هستم که به یک معیار بهداشتی خاص نگاه می کند. من علاقه مند به تفاوت در آن معیار بین بیماران و گروه شاهد هستم و تفاوت آب و هوا یا نبودن آن با 0 متفاوت است. مطالعاتی در گذشته انجام شده است که به همان سؤال تحقیقاتی و معیارهای بهداشتی من نگاه کرده است، اما در نمونه های مختلف بیماران. در تجزیه و تحلیل بیزی خود، یک توزیع قبلی بر اساس مطالعات قبلی ایجاد می کنم که تفاوت میانگین و خطای استاندارد را در بر می گیرد. لطفاً من را ببخشید اگر این یک سؤال تازه وارد است، زیرا من به تازگی آمار بیزی را یاد میگیرم، اما **نتایج تجزیه و تحلیل بیزی من از چه جهت با نتایجی که از استفاده از متاآنالیز وزنی واریانس معکوس برای ترکیب میانگین به دست میآورم متفاوت خواهد بود. تفاوت برآوردها از مطالعات قبلی با داده های فعلی من **؟ | تفاوت بین رویکرد مکررگرایی با متاآنالیز و رویکرد بیزی چیست؟ |
33753 | با خواندن بسیاری از صفحات راهنما، می بینم که یک راه متداول برای تصحیح پراکندگی بیش از حد، برازش مدل ها با استفاده از توزیع های شبه باینومیال یا بتابینومیال است. با این حال، من نمی توانم در مورد اینکه تا چه حد اصلاح به دست آمده است یا اینکه چگونه می توانم مطمئن باشم که یک مدل قابل اعتماد نصب شده است، کمکی پیدا نمی کنم. من به داده های جهش از بسیاری از ژن ها که در 10 کلاس مرتب شده قرار می گیرند علاقه مند هستم. هر مشاهده شامل تعدادی پایه بررسی شده ('N') و تعداد تعویض های مشاهده شده ('S') است. پراکندگی بیش از حد عالی است (~22!) زیرا ژن ها در سرعت تکامل آنها به طور قابل توجهی متفاوت هستند. همچنین این مسئله وجود دارد که N نیز از <100 تا >30000 بسیار متفاوت است. من می خواهم این فرضیه را آزمایش کنم که میانگین نرخ جانشینی ('S/N') با تعداد کلاس افزایش می یابد. من گزینه های زیر را امتحان کرده ام: 1. (افتضاح!) این واقعیت را نادیده بگیرید که داده ها دو جمله ای هستند، حداقل N>=1000 را تنظیم کنید و یک مدل گاوسی را با S/N به عنوان پاسخ مناسب کنید. تناسب اندک است، اگرچه مسلماً وحشتناک نیست. 2. از cbind(S, N-S) استفاده کنید و مدلی با ساختار خطای شبه دوجمله ای برازش دهید. به نظر میرسد که پاسخ مشابهی میدهد که از P-مقدارهای بسیار پایینی که هنگام استفاده از خانواده=دوجملهای دریافت میکنم اجتناب میکند، اما چگونه میتوانم بفهمم که درجه تصحیح معتبر است؟ این یک مشکل نسبتاً ساده به نظر می رسد، اما من می خواهم مطمئن شوم که مدل به درستی نصب شده است و در صورت وجود محافظه کارانه است. | محدودیت های تصحیح برای پراکندگی بیش از حد با داده های پواسون / دو جمله ای |
58930 | من می خواهم دو درصد را روی یک متغیر طبقه ای از یک نمونه مقایسه کنم. به عنوان مثال، در مجموعه داده من، یک متغیر می تواند دو مقدار (یعنی A و B) داشته باشد. از 586 مورد، 87.4٪ در رده A (512 از 586) و 12.6٪ در رده B (74 از 586) قرار دارد. * آیا می توانم بگویم که شرکت کنندگان من بیشتر نگران رده A هستند تا B؟ * آیا برای طرح چنین ادعایی نیاز به آزمون آماری است؟ اگر چنین است چه آزمون آماری لازم است؟ | چگونه درصدها را برای دو دسته از یک نمونه مقایسه کنیم؟ |
99012 | من اخیراً در حال مطالعه مدل مارکوف پنهان (HMM) بودم. من به دنبال بررسی متقابل آنچه فهمیدم بودم. من یک کد روی Forward-Backward پیدا کردم و Viterbi با عبارت ساده پایتون در ویکی پدیا آورده شده است. من میتوانم پیادهسازیهای R(HMM)، Python (NLTK، Scikit-Learn)، جاوا (JHMM، Lingpipe) را پیدا کنم. من اینجا سه سوال داشتم (الف) نمونههای ویکیپدیا خوب هستند، اما با مرور آنها پاسخهای متفاوتی دریافت کردم. برخی منابع می گویند که آنها نمونه های خوبی هستند در حالی که برخی در اجراها تردید دارند. حالشون چطوره؟ (ب) در NLTK HMM من سعی کردم منبع را از پیوند زیر بخوانم، متوجه شدم که در http://www.nltk.org/_modules/nltk/tag/hmm.html آورده شده است. من احتمال رو به جلو را در def _forward_probability(self, unlabeled_sequence) و الگوریتم Viterbi در def _best_path (خود، بدون برچسب_توالی) پیدا کردم آیا می توانم آنها را به خوبی شناسایی کنم؟ (ج) من به دنبال یک مثال ساده از اجرای الگوریتم Forward Probability و Viterbi هستم [ترجیحاً یک مثال از متن، اگر پیادهسازی Python/R نیز دریافت کنم عالی است]، -- میتوانم در وب جستجو کنم اما چیز زیادی پیدا نکردم. ممکن است کسی به من کمک کند؟ اگر یکی از اعضای محترم گروه ممکن است مرا راهنمایی کند. بابت هرگونه سوال اشتباه عذرخواهی کنید با احترام، Subhabrata Banerjee. | مثال در مورد مدل پنهان مارکوف |
99013 | من تعجب کردم که شما چگونه مقدار p یک ضریب را برای یک رگرسیون خطی چند متغیره تفسیر می کنید. آیا مقدار p فقط زمانی تفسیر می شود که همه چیز ثابت باشد؟ آیا راهی برای ترکیب وابستگی های متغیرهای دیگر وجود دارد؟ | تفسیر مقدار p یک ضریب رگرسیون |
113016 | من دکتری هستم. دانشجوی روانشناسی و در یافتن اطلاعاتی در مورد اینکه از کدام آزمون برای اندازه گیری مکرر مداوم IV و DV طبقه ای استفاده کنم، مشکل دارم. من واقعا قدردان کمک در این زمینه هستم. متغیر پیامد، مسیرهای علائم افسردگی است (کلاسهایی که از تحلیل رشد کلاس نهفته علائم افسردگی به دست میآیند، چهار بار اندازهگیری میشوند). سه سطح (کلاس) از این متغیر نتیجه وجود دارد. پیش بینی کننده ارزش های فرهنگی است، داده های پیوسته دو بار جمع آوری شده است. میخواهم آزمایش کنم که آیا تغییر در ارزشهای فرهنگی پیشبینی میکند که شرکتکنندگان به کدام مسیر علائم افسردگی تعلق دارند. با استفاده از رگرسیون لجستیک چندجملهای، نتایجی که فقط به اولین نقطه زمانی IV نگاه میکنند بسیار جالب هستند، و من میخواهم با تجزیه و تحلیل IV به عنوان یک اندازهگیری مکرر، این مدل را بنا کنم. به نظر می رسد که رگرسیون لجستیک اقدامات مکرر فقط برای DV های مکرر است. من تا ابد سپاسگزار خواهم بود برای یک حرکت در جهت درست. با مهربانی، پنه لوپه | DV تک طبقه ای (3 سطح) و اندازه گیری تکراری پیوسته IV: کدام آزمون؟ |
105451 | من یک بردار $n$-بعدی از آزمایشهای چندگانه مرتبشده $p$-values دارم و میخواهم اولین مقادیری را که زیر یک آستانه مشخص $\alpha$ هستند رد کنم. من به این مشکل به عنوان یک تشخیص ناهنجاری و خوشهبندی زمانی که یک تغییر ناگهانی بین مقادیر رد شده و رد نشده اتفاق میافتد نگاه میکنم. و بنابراین، من در تعجب هستم که چگونه می توانم به این مشکل ادامه دهم، زمانی که من فقط یک فضای ویژگی دارم که مقادیر p مرتب شده من است. آیا باید بردار خود را در فضای ویژگی متفاوتی ترسیم کنم که در آن تعداد ویژگی های بیشتری دارم یا این یک مشکل ساده دو خوشه ای است که فقط با استفاده از یک ویژگی انجام می شود. | تشخیص ناهنجاری برای یک بردار ویژگی |
30223 | من به دنبال یک بیان نظری برای ARE میانگین و میانه برای توزیع دانشجویی-t در برابر حجم نمونه (درجه آزادی) هستم، دقیقاً منحنی آبی نشان داده شده در وبلاگ جان کوک. آیا کسی می تواند من را به مرجع مناسب با بیان آن راهنمایی کند؟ با تشکر | کارایی نسبی مجانبی میانه در برابر میانگین برای توزیع t Student |
15160 | من یک مجموعه داده بزرگ با بیماران دارم و در حال مطالعه یک نتیجه نادر (~ 2٪) هستم و مرگ یک خطر رقابتی است (میانگین سنی ~69 سال). من از بسته R cmprsk برای آمار خود استفاده کردهام و به نظر میرسد که ریسکهای رقابتی و رگرسیون کاکس عملکرد مشابهی دارند، اگرچه تحلیل ریسک رقابتی محافظهکارانهتر است و نسبتهای خطر نزدیکتر به 1 است. به من پیشنهاد شده است که پواسون انجام دهم. رگرسیون بر روی دادهها، اما نتایج هیچ معنایی ندارند و من واقعاً سپاسگزار خواهم بود که در مورد مزایای انجام این نوع تجزیه و تحلیل در مورد بقا اطلاعاتی دریافت کنم. داده ها من این شبیهسازی را برای ایجاد مجموعه دادهای با عوامل خطر مشابه ایجاد کردهام: کتابخانه (cmprsk) # زمان برای زمان تعهدی مطالعه <- 10_زمان_پیگیری <- 1_پایه_ریسک <- لیست(رویداد = 0.015، cmprsk = 0.1) عوامل_ریسک <- list(list(فرکانس=.1، رویداد = پایه_ریسک$ رویداد*.5، cmprsk = base_risk$cmprsk*2)، list(frequency=.05، Event = base_risk$event*1، cmprsk = base_risk$cmprsk*1)، list(فرکانس=.05، رویداد = پایه_ریسک$ رویداد*-.5، cmprsk = پایه_ریسک$cmprsk*0)) # تعداد موضوعات n <- 5000 # ایجاد زمان پایه، زمان گنجاندن متوالی_در_مطالعه <- rep(c(1:n)/n*accrual_time + followup_time, 1) set.seed(100) # ایجاد مجموعه های خالی x <- ماتریس(0، ncol=طول(عوامل_ریسک) ), nrow=n) time_2_event <- rep(0, n) time_2_comprsk <- rep(0, n) # ایجاد هر مشاهده و نتیجه مطالعه شده برای (i در 1:n){ # تنظیم ریسک رویداد_ریسک پایه <- base_risk$event comp_risk <- base_risk$cmprsk for(j in 1:length(factors_risk) )){ x[i، j] <- rbinom(1، 1، عوامل_ریسک[[j]]$ فراوانی)[1] # اگر یک عامل خطر تعریف شده باشد اگر (x[i, j] > 0){ خطر_رویداد <- ریسک_ریسک + عوامل_ریسک[[j]]$رویداد comp_risk <- comp_risk + risk_factors[[j]]$cmprsk } } # Time 2 event/risk 1/rate است به این معنی که عدد بالاتر -> زمان کوتاهتر time_2_event[i] <- rexp(1, rate=event_risk)[1] time_2_comprsk[i] <- rexp(1, rate=comp_risk)[1] } cn <- c() for(i in 1:length(factors_risk )){ ev_rsk <- عوامل_ریسک[[i]]$event/base_risk$event+1 cmp_rsk <- risk_factors[[i]]$cmprsk/base_risk$cmprsk+1 name <- paste(Risk factor no: , i, \n * ev=, ev_rsk, cr=, cmp_rsk, * , sep=) cn <- c(cn, name) } colnames(x) <- cn # رویدادی را که اول اتفاق میافتد انتخاب کنید: پایان مطالعه، رویداد رخ میدهد، رویداد رقابتی زمان وقوع <- اعمال (cbind(time_in_study، time_2_event، time_2_comprsk)، 1، دقیقه) # رویداد شناسههای نتیجه <- (time_2_event == زمان) + 0 comprsk <- (time_2_comprsk == time) + 0 cens <- event+2*(event==0 & comprsk==1) out.cox_ev <- coxph(Surv(زمان، رویداد)~x) خلاصه (out.cox_ev) out.crr_ev <- crr(time, cens, x, failcode=1) summary(out.crr_ev) out.cox_cmprsk <- coxph(Surv(زمان، comprsk)~x) خلاصه (out.cox_cmprsk) out.crr_cmprsk <- crr(time, cens, x, failcode=2) summary(out.crr_cmprsk) خروجی منطقی است اما وقتی این کار را انجام می دهم: out.glm_pr <- glm(event ~ x, family=poisson) summary(out.glm_pr ) تخمین هایی از: * RF 1 ~ 0.14 * RF 2 ~ 0.41 * RF 3 ~ -.23 My سوالات: * آیا کد glm() صحیح است یا باید به نحوی داده های خود را تغییر دهم؟ * آیا خروجی پواسون معنی دارد و اگر چنین است چگونه باید آن را تفسیر کرد؟ * مزایا / مشکلات استفاده از رگرسیون پواسون برای داده های بقا چیست؟ با تشکر * * * ## به روز رسانی پس از افزودن ضرایب exp(out.glm_pr$) نتایج تقریباً با رگرسیون ریسک رقابتی یکسان است، در اینجا یک نمودار جنگلی وجود دارد که این سه را با هم مقایسه می کند:  محور x شاید کاملاً معتبر نباشد (برای رگرسیون پواسون باید «نسبتهای نرخ وقوع» باشد) اما چرا نتایج برای CRR و Poisson تقریباً یکسان است؟ در مورد آزمایش پراکندگی بیش از حد، من این دو روش را پیدا کردم: > library(qcc) > qcc.overdispersion.test(event) تست Overdispersion Obs.Var/Theor.Var آمار p-value داده پواسون 0.9391878 4695 0.99902 > > library( pscl) > out.glm_nb <- glm.nb(رویداد ~ x) پیام های هشدار: 1: در theta.ml(Y، mu، sum(w)، w، limit = control$maxit، trace = control$trace > : حد تکرار به 2 رسیده است: در theta.ml(Y، mu , sum(w), w, limit = control$maxit, trace = control$trace > : به حد تکرار رسیده > odTest(out.glm_nb) تست نسبت درستنمایی از H0: پواسون، به عنوان مدل NB محدود: n.b، توزیع آزمون | رگرسیون پواسون در یک محیط بقا در یک مجموعه شبیه سازی شده |
96891 | من سعی می کنم دقت را برای طبقه بندی چند طبقه برای مجموعه داده های مختلف محاسبه کنم. اما بیشتر من مقدار دقیق 1 را دریافت می کنم. معنی آن چیست؟ آیا الگوریتم من مشکلی دارد؟ | اگر دقت برابر با 1 باشد چه؟ |
106300 | من چند مدل خطی شبیه سازی شده $y = X\beta+\epsilon$ دارم که در آن $\beta$ پراکنده است. من در حال مقایسه تکنیک های مختلف برای بازیابی ساختار $\beta$ هستم. من 4 مقدار مثبت واقعی، مثبت کاذب، منفی واقعی، منفی کاذب دارم. چگونه می توانم عملکرد را تنها با یک مقدار خلاصه کنم؟ | نحوه اندازه گیری عملکرد بازیابی مدل |
15161 | Map/Reduce مفهومی عالی برای مرتبسازی تعداد زیادی داده در یک زمان است. اگر بخشهای کوچکی از داده دارید و باید دائماً آن را کاهش دهید، چه باید کرد؟ مثال ساده - انتخاب یک سرویس برای درخواست. تصور کنید ما 10 سرویس داریم. هر کدام میزبان خدمات را با مجموعهای از «سرصفحههای» درخواست و آرگومانهای ارسال/دریافت ارائه میکنند. هر سرویس اعلام می کند که «30» کلید منحصر به فرد دارد - «10» در هر مجموعه. service A: name id ... حال تصور کنید که یک میزبان خدمات توزیع شده داریم. ما 200 دستگاه با 10 خدمات در هر کدام داریم. هر سرویس دارای 30 کلید منحصر به فرد در مجموعه خود است. اما اکنون برای یافتن اینکه درخواست دریافتی را به کدام سرویس نگاشت می کنیم، سرویس های ما مقادیر منحصر به فردی را ارسال می کنیم که به آن مجموعه ها نگاشت می شوند. ما می توانیم تا یا بیشتر از 10000 چنین مقادیری را در هر دستگاه در هر سرویس داشته باشیم. service A machine 1 name = Sam id = 13245 ... service A machine 1 name = Ben id = 33232 ... ... service A machine 100 name = Ron id = 777888 ... پس می گیریم `200 * 10 * 30 * 30 * 10 000 == 18 000 000 000` و ما 500 درخواست در هر ثانیه دریافت می کنیم دروازه ما هر کدام حاوی 45 آیتم 15 است که فقط نویز هستند. و وظیفه ما یافتن یک سرویس برای درخواست است (حداقل ماشینی که روی آن کار می کند). در همه ماشینها در سرتاسر کلاستر برای خدمات یکسان، قوانین یکسانی داریم. ابتدا میتوانیم از طریق فیلتر قوانین '10 * 30' انتخاب کنیم که درخواست ما به کدام سرویس رسیده است. و ما 200 * 30 * 10 000 == 60 000 000 خواهیم داشت. بنابراین... 60 mil قطعا یک مشکل است... من امیدوارم که ایده نقشه برداری 30 * 10 000 را در یک شبکه عصبی مصنوعی مانند Perceptron که در صورت 30 کلمه 1 را خروجی می کند (برخی هش از کلمات) از درخواست صحیح هستند یا اگر کمتر از Perceptron باید 0 را برگرداند. و من هر یک از این Perceptron را برای هر سرویس از هر ماشین به دروازه ارسال خواهم کرد. بنابراین من یک نقشه «ماشین Perceptron <->» برای هر سرویس خواهم داشت. اگر ایده Perceptron من حداقل عاقلانه باشد، آیا کسی می تواند من را بلند کند؟ یا افراد عادی این کار را به روش دیگری انجام می دهند؟ یا اگر ANN های بهتری برای چنین اهدافی وجود دارد؟ | چگونه می توان از کدام ماشین درخواست در یک سیستم خدمات توزیع شده را انتخاب کرد؟ |
15168 | اگر ضریب همبستگی معنیداری بین متغیر A و B 80/r= داشته باشم، میتوانم اندازه اثر (ضریب تعیین) را با مجذور کردن آن که 64 درصد است، محاسبه کنم. من میخواهم این را به سادهترین شکل ممکن (با توجه به مخاطبان هدف غیرآماریام) ترسیم کنم. آیا می توانم برای این منظور از یک نمودار نواری 100% انباشته استفاده کنم؟ این متغیر B را 100% نشان میدهد و در بالای آن متغیر A که 64% خواهد بود را نشان میدهد. سپس به صورت گرافیکی می توانم بگویم که 64% از واریانس در متغیر B را می توان به متغیر A نسبت داد. من می توانم اندازه اثر بین A و B را روی تعدادی از متغیرها (به عنوان مثال جنسیت، سن، تحصیلات) در یک نمودار نشان دهم. این همچنین یک ارائه رنگارنگ ایجاد می کند (که برای یک مخاطب هدف غیر آماری خوب است!). من برخی از کتابهای درسی را دیدهام که دو دایره را نشان میدهند که هر کدام یک متغیر را نشان میدهند (مانند A و B). بخشی از دایره ها که روی هم قرار می گیرند اندازه اثر را نشان می دهد. من فکر میکردم که انجام یک نمودار میلهای 100% انباشته راه بهتری است. **از بحث زیر به نظر می رسد که طرح پراکندگی راه حل این موضوع است. با این حال، چگونه می توانم 64٪ را در یک نمودار پراکنده نشان دهم؟** فکر می کنم این نکته در بحث زیر نادیده گرفته شده است. به راحتی می توان رابطه را از طریق نمودار پراکنده نشان داد، اما اندازه اثر چگونه نشان داده می شود، یعنی درصد واقعی در بالا. من نمی توانم این درصد را در هیچ یک از نمودارهای زیر ببینم. | اندازه اثر نموداری برای ضریب تعیین |
33750 | من مجموعه ای از داده ها را دارم و می خواهم بدانم آیا این مجموعه داده توزیع لجستیکی دارد یا خیر. هنگامی که من یک هیستوگرام از مجموعه دادههایم ساختم، به نظر میرسد که توزیع لجستیکی دارد، اما برای اطمینان، میخواهم یک توزیع لجستیک در R.  بنابراین سوال من این است: **آیا راهی برای آزمایش داده های شما برای توزیع لجستیک در R وجود دارد و چگونه این کار را انجام می دهید؟** اطلاعات اضافی: مجموعه داده شامل 8544 مورد. داده ها فواصل افقی در کیلومتر بین 2 نقطه جغرافیایی هستند. من به داده ها نیاز دارم تا یک هسته پراکندگی برای فیل ها بسازم. اگر داده ها دارای توزیع نرمال یا لجستیکی بودند، می توانستم این هسته پراکندگی را راحت تر بسازم. من قبلاً از آزمون کولموگروف اسمیرنوف برای آزمایش توزیع نرمال استفاده کردم (05/0p<)، اما نتیجه معنی دار بود، بنابراین داده ها به طور معمول توزیع نمی شوند. | آزمایش توزیع لجستیک در R |
102813 | من در حال انجام یک تجزیه و تحلیل چند سطحی هستم که در آن آزمایش می کنم که آیا تعامل بین دو پیش بینی کننده سطح 1 (IV1 و IV2) توسط یک پیش بینی کننده سطح 2 (IV3) تعدیل می شود یا خیر. پیش بینی کننده سطح 2 یک متغیر دوگانه است. مدلی که من تخمین می زنم به شرح زیر است: Level-1 Model DVij = β0j + β1j*(IV1ij) + β2j*(IV2ij) + β3j*(IV1xIV2ij) + rij Level-2 مدل β0j = γ00 + γ01*(IV3j) + u0j β1j = γ10 + γ11*(IV3) β2j = γ20 + γ21*(IV3j) β3j = γ30 + γ31*(IV3j) IV1 IV2 حول میانگین کل متمرکز شده اند. من دو سوال دارم: 1. من دریافتم که تعامل سه طرفه (γ31) قابل توجه است. من یک نمودار شامل چهار شیب رسم کردم. من تعجب کردم که آیا راهی برای آزمایش اینکه کدام شیب ها به طور قابل توجهی با یکدیگر متفاوت هستند، مشابه رویکرد داوسون و ریشتر (2006) برای رگرسیون چندگانه وجود دارد. مرجع: داوسون، جی اف، و ریشتر، ای. دبلیو (2006). بررسی فعل و انفعالات سه طرفه در رگرسیون چندگانه تعدیل شده: توسعه و کاربرد آزمون اختلاف شیب. مجله روانشناسی کاربردی، 91، 917-926 2. هنگامی که من مدل را می سازم، تعامل بین IV1 و IV2 ابتدا معنی دار نیست (γ30). با این حال، وقتی پیشبینیکننده سطح 2 را به معادله اضافه میکنم، تعامل بین IV1 و IV2 و همچنین تعامل سهطرفه (γ31) معنیدار میشود. چگونه باید این الگوی نتایج را تفسیر کنم؟ آیا فرضیه من مبنی بر وجود تعامل بین IV1 و IV2 تایید می شود یا خیر؟ | تعامل سه طرفه در مدل چند سطحی |
30221 | من چند سوال در مورد تعمیم و یادآوری دارم: 1. معمولا شنیده می شود که یک طبقه بندی خوب باید از داده های آموزشی تعمیم کند. آیا این درست است؟ 2. من احساس می کنم (؟) که یک طبقه بندی کننده عمومی باید یادآوری را بهبود بخشد، اما یک طبقه بندی خاص باید دقت بیشتری داشته باشد، آیا این درست است؟ 3. اگر به طبقهبندیکنندهای فکر کنیم که باید از یک دامنه D1 آموخته شود و سپس روی یک دامنه دیگر D2 استفاده شود، طبقهبندیکننده «تعمیمشده» ترجیح داده میشود. در کدام شرایط دیگر یک طبقهبندی «تعمیمشده» ترجیح داده میشود؟ پیشاپیش ممنون و با عرض پوزش از سوالات مبهم... | تعمیم و یادآوری |
113901 | من سعی می کنم این فرضیه را آزمایش کنم که گونه های مرتبط هر چه بیشتر در فضای جغرافیایی همپوشانی داشته باشند باید در فضای طاقچه بیشتر منحرف شوند. به عبارت دیگر، گونه های مرتبط یا به طور مشابه علوفه می کنند و همپوشانی جغرافیایی زیادی نشان نمی دهند، یا اگر از نظر جغرافیایی همپوشانی زیادی داشته باشند، در فضای طاقچه جابجا شده اند. فاصله فیلوژنتیکی (نزدیک بودن گونه ها) مقدار زیادی از واریانس در یک ماتریس فاصله را توضیح می دهد که گونه ها چقدر از هم در فضای طاقچه فاصله دارند. بنابراین، من سه ماتریس فاصله در میان گونهها دارم: فاصله ژنتیکی، فاصله در فضای طاقچه، و میانگین همپوشانی جغرافیایی. فکر نمی کنم تست جزئی مانتل دقیقاً همان چیزی باشد که می خواهم، اما قطعاً ممکن است اشتباه کنم. از نظر نیمه ریاضی، من فکر می کنم یک همبستگی قوی بین ماتریس فاصله ژنتیکی و فاصله در فضای طاقچه وجود دارد (یعنی گونه های نزدیک به هم در فضای طاقچه از هم دور نیستند)، اما وقتی این درست نیست، به این دلیل است که وجود دارد. یک مقدار بزرگ در سلول مربوطه در ماتریس فاصله همپوشانی جغرافیایی. رویکرد آماری صحیح برای استخدام چیست؟ هر گونه جزئیات در مورد نحوه اجرای این در R استقبال می شود اما لازم نیست. | همبستگی جزئی بین سه ماتریس فاصله |
27898 | چگونه می توان توزیع گاما را از طریق کانولوشن دو توزیع مختلف بدست آورد؟ آیا میتوان توزیع گاما را بهعنوان مجموع غیر ضروری $N$ متغیرهای تصادفی $X$ که توزیع و پارامترهای یکسانی دارند ایجاد کرد؟ حالت بی اهمیت، جمع تعداد ثابت $N$ متغیرها با توزیع گاما است که در ویکی پدیا توضیح داده شده است. | چگونه می توان توزیع گاما را از طریق کانولوشن دو توزیع مختلف بدست آورد؟ |
33758 | من در حال مطالعه چگونگی ایجاد یک شاخص پیش آگهی در پزشکی هستم. من برخی از مقالات را خوانده ام و در همه آنها روش شناسی کاملاً یکسان است. اکثر آنها از رگرسیون لجستیک استفاده می کنند، متغیرها را انتخاب می کنند و یک مدل می سازند. هر متغیر در مدل دارای وزن است. به عنوان مثال، اگر امتیاز دارای سه متغیر باشد (تب، سرفه، درد) هر یک از آنها تعدادی امتیاز اضافه می کند و مجموع کل مقدار شاخص پیش آگهی است. اگر از شاخص پیش آگهی برای تصمیم گیری در مورد بستری شدن بیمار در بیمارستان استفاده شود، می توانید بگویید که تب 2 امتیاز، سرفه 1 امتیاز و احساس کامل 1 امتیاز را کم می کند (1- امتیاز اضافه می کند). اگر شاخص پیش آگهی I بالاتر از 2 بیمار بستری شود و در غیر این صورت خیر. چیزی که من بعد از خواندن برخی مقالات با استفاده از این روش متوجه نمی شوم این است که چگونه متغیرها وزن می کنند. آیا از رگرسیون لجستیک شانس به دست آمده برای وزن سهم متغیر در شاخص استفاده می کنند؟ آیا دادن وزن بیشتر به شانس های بزرگتر صحیح است؟ آیا روش های دیگری برای این کار وجود دارد؟ چه نوع آزمایشی برای تست تناسب اندام این مدل پیش آگهی استفاده می شود؟ با احترام،. مارکوس | متغیرهای وزن برای توسعه الگوریتم امتیازدهی |
101042 | لطفاً برای بررسی زمینه به سؤال قبلی من مراجعه کنید. اکنون یک بیمار جدید با کلاس بیماری $Y'$ دارای شدت های اندازه گیری شده $x'$ داده می شود. احتمال شرطی پسینی که $Y'=1$ به $x'$ و داده اصلی $D$ داده شود چقدر است؟ رویکرد من $$ \begin{align*} \mathbb{P}(Y=1\mid x',D)&=\int\mathbb{P}(Y=1\mid x',\pi,\theta است ,D)\mathbb{P}(\pi,\theta\mid D) d\pi d\theta\\\ &=\int\mathbb{P}(Y=1\mid x',\pi,\theta)\mathbb{P}(\pi\mid D)\mathbb{P}(\theta\mid D)d\pi d\theta \\\ &=\int\frac{\ mathbb{P}((X=x',Y=1)\mid\pi,\theta)}{\mathbb{P}(X=x')}\mathbb{P}(\pi\mid D)\mathbb{P}(\theta\mid D)d\pi d\theta \end{align*} $$ اما پس از آن به نظر مرده است. کسی می تواند کمک کند؟ BTW، میانگین توزیع بتا و توزیع دیریکله در سوال آورده شده است، فکر کردم ممکن است مفید باشند. | احتمال شرطی پسین برگرفته از یادگیری بیزی |
99014 | با توجه به i.i.d. $x_1,...,x_n$ را از $X$ ترسیم می کند، که در آن: * $X$ دارای میانگین متناهی است $E[X]=\mu < \infty$، * $X$ نسبت به میانگین آن متقارن است، به معنی $ f_X(\mu+c)=f_X(\mu-c)$ برای همه $c$، * تابع چگالی احتمال $f_X$ به طور دیگری شناخته نشده است. آیا می توان موارد زیر را اثبات کرد؟ **گزاره.** MLE برای میانگین $X$ میانگین نمونه است، $\hat \mu_{MLE}=\bar x = \sum_{i=1}^n x_i$. یک اثبات یا یک مثال متقابل عالی خواهد بود. مایلم فرض کنم که $X$ دارای یک واریانس متناهی $Var[X]=\sigma^2 < \infty$ یا سایر مفروضات اساسی رایج است، در صورتی که برای حفظ گزاره ضروری باشد یا بسیار ساده شود. اثبات من گمان می کنم که ممکن است بتوان از تغییر ناپذیری MLE برای تبدیل داده ها برای اثبات این موضوع استفاده کرد، اما ممکن است از حقایق ساده تر در مورد میانگین نمونه نتیجه بگیرد. | MLE برای میانگین توزیع متقارن اما در غیر این صورت ناشناخته |
82820 | خطای من زمانی افزایش می یابد که مقدار n_estimators را در ada=AdaBoostClassifier(n_estimators=1, base_estimator=SVC(probability=True,kernel=rbf,gamma=.1,C=1)) برای n_estmators که پیش بینی می کند افزایش می دهد. کمترین خطا، در حالی که من مقدار n_estmator را افزایش میدهم، خطا نیز آنچه را که میتوان تفسیر کرد افزایش میدهد. از این؟ با تشکر | افزایش خطا بدون برآوردگر در adaboost |
27896 | **داده** آزمایشی با 40 نفر انجام شد. 20 نفر در شرایط 1 و 20 نفر در شرایط 2 هستند. در طول دوره آزمایش، آزمودنی ها 60 کارآزمایی را پشت سر گذاشتند. 20 کارآزمایی با محرک های نوع A، 20 کارآزمایی با محرک های نوع B و 20 کارآزمایی با محرک های نوع C. در هر کارآزمایی 6 امتیاز (در مرحله دوم) اندازه گیری می شود. **تصویر**  شکل. دو نمودار، یکی برای شرط 1 و دیگری برای شرط 2. نمرات دوم به صورت جمع شده روی آزمودنی ها ترسیم می شوند (20 در هر شرایط) اما بر اساس نوع آزمایشی (A/B/C) تقسیم می شود. نوارهای خطا SEM را نشان می دهند. **آیا نمرات بین شرط 1 و شرط 2 از نظر آماری متفاوت است؟** رویکرد تاکنون: نمرات کاهش یافته در مورد نوع کارآزمایی برای هر آزمودنی، به طوری که به جای 3*20*6، 3*6 نقطه اندازه گیری برای هر آزمودنی وجود دارد. داده ها را به فرمت گسترده تبدیل کرد و ANOVA اندازه گیری های مکرر را در SPSS اجرا کرد. تنها اثر اصلی دوم قابل توجه است. با نگاهی به نمودارها، با این حال، رنگ آبی بین این دو شرایط بسیار متفاوت به نظر می رسد. **سوال** آیا قبل از اجرای ANOVA اطلاعات را با جمع کردن داده ها دور انداختم؟ | در حال جمع کردن داده ها برای اندازه گیری های مکرر ANOVA؟ |
99018 | مدل زیر را در نظر بگیرید: $wage_i = \beta_0 + \beta_1male_i + \beta_2private_i +u_i$ که $male_i=1$ اگر مرد باشد. $0$ اگر زن، و $private_i=1$ اگر مدرسه خصوصی. 0 دلار اگر مدرسه دولتی باشد. **گروه پایه دختران مدارس دولتی** هستند. بنابراین وقتی $male_i=1$ و $private_i=1$، ضرایب $\beta_1 + \beta_2$ تفاوت دستمزد متوسط پسران مدارس خصوصی را در مقایسه با دختران مدارس دولتی اندازهگیری میکند. اما حالا فرض کنید یک **تعامل بین دو متغیر ساختگی** را به مدل اضافه می کنیم به طوری که: $wage_i = \beta_0 + \beta_1male_i + \beta_2private_i + \beta_3male_iprivate_i+u_i$ بنابراین حالا وقتی $male_i=1$ و $private_i =1$، **ضرایب $\beta_1 + \beta_2 چیست +\beta_3$ اندازه گیری؟** **تعامل بین این دو متغیر ساختگی که به مدل اضافه می کند چیست؟** متشکرم! | تعامل متغیر ساختگی |
99010 | من ویژگی های زیادی با مقادیر مختلف دارم، این ویژگی ها به $(x,y)$ منجر می شود. مثال برای ویژگی ها و مقادیر آنها: F1 = روسیه F2 = 120 کیلومتر F3 = بی ثباتی سیاسی F4 = 80٪ F5 = زمستان F6 = 80000 تن ویژگی های از F1 تا F6 تولید خواهد شد (20، 75432). کدام مدل/الگوریتم برای آموزش ماشین بر روی ویژگیهای F1 تا F6 برای پیشبینی $(x,y)$ مناسبتر است؟ و بهترین راه برای تبدیل این مقادیر مختلف به کرانچ شدن توسط الگوریتم چیست؟ | از چه الگوریتم/مدلی برای این نوع پیش بینی استفاده کنم؟ |
30220 | مقاله نویسندگان در مورد این روش (هیندمن و خنداکار 2008) بیان میکند که از یک آزمون توسعه یافته Canova-Hansen استفاده میشود، اگرچه فایل کمکی این را بهروزرسانی میکند تا از آزمون OCSB استفاده شود. بنابراین من دو سوال دارم: 1. آزمون OCSB چیست؟ 2. آیا روش تعیین تفاوت فصلی برای رگرسیون با خطاهای ARIMA مانند مدل سازی ARIMA بدون متغیرهای کمکی است؟ | عملکرد R's auto.arima () چگونه ترتیب تفاوت را هنگام تخمین رگرسیون با خطاهای ARIMA فصلی تعیین می کند؟ |
13266 | من یک رگرسیون خطی ساده از لاگ طبیعی 2 متغیر را اجرا کردم تا تعیین کنم که آیا همبستگی دارند یا خیر. خروجی من این است: R^2 = 0.0893 شیب = 0.851 p < 0.001 من گیج شدم. با نگاهی به مقدار $R^2$، می توانم بگویم که این دو متغیر **همبستگی ندارند**، زیرا بسیار نزدیک به $0 است. با این حال، شیب خط رگرسیون تقریباً 1 دلار است (علیرغم اینکه در نمودار تقریباً افقی به نظر می رسد)، و p-value نشان می دهد که رگرسیون بسیار معنی دار است. آیا این بدان معنی است که دو متغیر **** همبستگی بالایی دارند؟ اگر چنین است، مقدار $R^2$ نشان دهنده چیست؟ باید اضافه کنم که آمار دوربین واتسون در نرم افزار من آزمایش شد و فرضیه صفر را رد نکرد (معادل 1.357 دلار بود). من فکر کردم که این برای استقلال بین متغیرهای $2$ تست شده است. در این مورد، من انتظار دارم که متغیرها وابسته باشند، زیرا آنها 2 دلار اندازه گیری یک پرنده جداگانه هستند. من این رگرسیون را به عنوان بخشی از یک روش منتشر شده برای تعیین وضعیت بدن یک فرد انجام می دهم، بنابراین فرض کردم که استفاده از رگرسیون به این روش منطقی است. با این حال، با توجه به این خروجی ها، به این فکر می کنم که شاید برای این پرندگان، این روش مناسب نباشد. آیا این نتیجه گیری منطقی به نظر می رسد؟ | تفسیر خروجی رگرسیون خطی ساده |
31096 | من در مورد نحوه استفاده از SVD در فیلترینگ مشارکتی گیج شده ام. فرض کنید من یک نمودار اجتماعی دارم، و یک ماتریس مجاورت از لبهها میسازم، سپس یک SVD میگیرم (قابلیتسازی، نرخ یادگیری، بهینهسازی پراکندگی و غیره را فراموش کنیم)، چگونه از این SVD برای بهبود توصیههایم استفاده کنم؟ فرض کنید گراف اجتماعی من با اینستاگرام مطابقت دارد و من وظیفه توصیه به کاربران در این سرویس را تنها بر اساس نمودار اجتماعی بر عهده داشتم. من ابتدا یک ماتریس مجاورت A (mxm) میسازم، SVD، A = Us V را میگیرم، اولین k مقادیر ویژه را انتخاب میکنم، سپس چه؟ احتمالاً مجموعه جدیدی از ماتریسها را ایجاد میکنم: U_new ~ mxk s_new ~ kxk V_new ~ kxm پس چه کار میکند؟ من در وب جستجو کردهام و بیشتر لینکها بر محاسبه SVD تمرکز دارند، اما هیچکس به شما نمیگوید که با آن چه کار کنید. پس باید چکار کنم؟ | چگونه از SVD در فیلترینگ مشترک استفاده کنم؟ |
96892 | رویکردهای مختلفی برای تعیین تأثیر یک IV (متغیر مستقل) بر متغیر دیگر موجود است. دو فرض ذکر شده در سؤال چگونه بر برآوردها تأثیر می گذارد. | آیا بین نظریه توزیع نرمال و نظریه حداقل مربع تفاوتی وجود دارد؟ |
30228 | من سعی میکنم کلماتی را بیابم که در یک بخش کوچک از یک مجموعه بزرگ نسبت به کل پیکره توزیع قابل توجهی داشته باشند. من از آماره آزمون نسبت درستنمایی استاندارد $$\chi^2 = 2 \sum_{i} O_i log(O_i/E_i)$$ استفاده می کنم که در آن دو کلاس بخش کوچکی از پیکره و بقیه بدنه هستند. . مشکلی که من با آن مواجه شدم این است که بخش کوچکی از پیکره بسیار کوچکتر از کل مجموعه است که تعداد مورد انتظار هر کلمه در آن بخش کوچک در مرتبه 0.001 است. بنابراین، این واقعیت که یک کلمه اصلاً در بخش کوچک وجود دارد، بسیار مهم است، حتی اگر یک کلمه بسیار رایج مانند a، the، of، یا کلیدواژه دیگری باشد. آیا راهی برای برآورد بهتری وجود دارد که مقادیر مورد انتظار را به شدت دست کم نگیرد؟ یا آیا یک آزمایش متفاوت در اینجا مناسب تر است؟ خیلی ممنون از کمک شما | آزمون نسبت احتمال، اهمیت را بیش از حد برآورد می کند. تست مناسب تر؟ |
58934 | من نیاز به شبیه سازی داده ها در R با استفاده از موارد زیر دارم: شبیه سازی داده ها برای 5 (یا بیشتر) موضوع، نمایه سازی شده توسط $i$, $(i=1,~...,~5)$ با $6$ مشاهدات در هر موضوع نمایه شده توسط $t$ $(t=1,~2,~...,~6)$. مشاهدات متغیر $Y$ در زمانهای مختلف $(\text{TIME}=2,~3,~5,~9,~11,~13)$ برای هر موضوع با استفاده از فرضیات مختلف در مورد $u_{0i} انجام میشود. $ , $u_{1i}$: $$ Y_{ti} = (β_0 + u_{0i} ) + (β_1+ u_{1i})*\text{TIME}_t + ε_{ti} \\\ \text{where }ε_{ti} \sim\mathcal N(0, σ^2),~σ^2=0.01,~β_0=5,~β_1=0,7 $$ این یک مشکلی که به من داده شده است (برای یک دوره غیر اعتباری است که برای سرگرمی می گذرانم). «جواب» را نمیخواهم، اما شاید مثالی که بتوانم بر آن بنا کنم یا یک یا دو پیشنهاد. | شبیه سازی داده های LMM با مقادیر خطای خاص با استفاده از R |
113907 | من سعی می کنم کد نمونه را در مقاله ساختن مدل های پیش بینی در R با استفاده از بسته caret از Max Kuhn [1] دنبال کنم. این بخشی از کد است: library(caret) set.seed(1) inTrain <- createDataPartition(mutagen, p = 3/4, list = FALSE) اما پس از موارد زیر trainDescr<-descr[ inTrain, ] خطا: شیء 'descr' یافت نشد پیام خطا: شی descr یافت نشد را دریافت می کنم. به نظر میرسد «decr» شناسایی نشده است. کسی میتونه بهم بگه چطوری اینو درست کنم لطفا؟ [1]: Kuhn, M. (2008), Building Models Predictive in R Using the Caret Package _Journal of Statistical Software_, نوامبر, جلد **28**, شماره 5. پیوند | خطا: شیء 'descr' یافت نشد |
113909 | من ریشه میانگین مربعات خطا (RMSE) را برای مقایسه مقادیر شبیه سازی شده یک مدل هیدرولوژیکی با مشاهدات مربوطه برای سه مجموعه داده مشاهده ای محاسبه کردم. تعداد نقاط داده در این مجموعه داده ها 30، 40 و 60 است. چگونه متوجه شویم که آیا مقادیر RMSE محاسبه شده با توجه به این مجموعه داده ها معادل هستند؟ آیا تغییر در اندازه مجموعه داده ها بر قدرت معیار عملکرد تأثیر می گذارد؟ چگونه می توانم تشخیص دهم که این کار را انجام می دهد؟ آیا مکانیزم تست وجود دارد؟ هر پیشنهادی؟ با تشکر | هم ارزی در معیارهای عملکرد مدل مانند RMSE |
13977 | فرض کنید من 4 گیاه دارم و چیزی را در 2 شرایط اندازه میگیرم. به عنوان مثال: ورودیهای جدول نشان میدهد که من چند بار چیزی را تحت شرایط (C1 یا C2) برای گیاه (P1، P2، P3 یا P4 دیدم). P1, P2, P3, P4 C1 0 20 0 19 C2 100 80 180 150 حال می خواهم به این سوال پاسخ دهم که احتمال این که این 39 بار دیدن چیزی به طور نابرابر بین این 4 گیاه توزیع شود چقدر است؟ من علاقه زیادی به مشاهده اینگونه دارم، نه اینکه بگویم: P1, P2, P3, P4 C1 25 20 15 19 C2 100 80 180 150 آیا استفاده از آزمون دقیق فیشر برای این کار درست است؟ من فقط سوال را از جدول 2*2 به 2*4 گسترش دادم. | آیا آزمایش دقیق فیشر برای این مشکل مناسب است؟ |
96897 | من در حال تمرین با استفاده از احتمال شرطی هستم و سوال زیر را دارم > فرض کنید احتمال ابتلا به یک بیماری نادر استوایی Chickungunya > در تعطیلات به هند 0.0001 است. فرد، در بازگشت به بریتانیا > از یک سافاری جنگلی در هند، احساس ناخوشی می کند و تصمیم می گیرد به پزشک خود مراجعه کند. > فرد از درد مفاصل به پزشک خود شکایت می کند. دکتر شنیده بود که مواردی از Chickungunya در هند گزارش شده است و همچنین می دانست که 64٪ از افراد مبتلا به Chickungunya از درد مفاصل شکایت دارند. دلایل دیگری برای درد مفاصل وجود دارد، اما پزشک تخمین میزند که احتمال درد مفاصل در غیاب Chickungunya 0.6 است. پزشک آزمایش بسیار مطمئنی را برای تشخیص Chickungunya تجویز کرد که در 99٪ موارد زمانی که بیمار Chickungunya داشت، نتیجه مثبت داشت و فقط در 4٪ موارد زمانی که بیمار آزمایش شده از این بیماری رنج نمی برد، نتیجه مثبت را نشان داد. بیماری. نتیجه آزمایشی که برای فرد برگشت داده شد مثبت بود. سپس از من سه سوال پرسیده می شود: > (الف) آیا دکتر بر اساس شواهد تا به امروز می تواند نتیجه بگیرد که فرد > Chickungunya دارد؟ > > (ب) پزشک با درک اینکه هیچ علامت دیگری از بیماری یا هیچ آزمایش دقیق تری در دسترس نیست، تصمیم می گیرد تا آزمایش را تکرار کند. یک بار دیگر نتیجه آزمایش مثبت به دست می آید. اگر اصلاً > چه تأثیری بر اعتقاد او به تشخیص Chickungunya خواهد گذاشت؟ > > (ج) آیا استراتژی تکرار یک آزمایش یکسان می تواند باور او را در تشخیص مثبت Chickengunya بهبود بخشد؟ اگر چنین است، حداقل تعداد دفعاتی که آزمایش باید انجام شود، با فرض یک نتیجه مثبت در هر بار، چقدر است تا باور به Chickungunya بیشتر از > اعتقاد به Chickungunya نباشد؟ این راه حل تلاش من برای بخش (الف) است: ابتدا تمام اطلاعات را از متن داده شده با استفاده از علامت $P(d),P(JP),P(+)$ به عنوان احتمال بیماری، احتمال درد مفاصل استخراج کردم. و به ترتیب احتمال مثبت شدن در آزمون. $$P(d)=0.0001\quad P(JP|d) = 0.64$$$$P(JP|¬d) = 0.6 \quad P(+|d) = 0.99$$$$P(+|¬ د) = 0.04$$$$P(d|(+، JP)) = \frac{P((+، JP)|d)P(d)}{P(+، JP)} = \frac{P(+|d)P(JP|d)P(d)}{P(+،JP)}$$ I همه اعداد بالا را به غیر از $P(+, JP)$ داشته باشید، اما من متوجه شدم که می توانید آن را با مشاهده موارد غیرمرتبط ابتلا به این بیماری محاسبه کنید و $P(+, JP) = دریافت کنید. P(d)P(+|d)P(JP|d) + P(¬d)P(+|¬d)P(JP|¬d)$$ آیا این مجاز است؟ سپس پاسخ به صورت 0.0026 ظاهر می شود. برای بخش (ب) من به طور شهودی می دانم چه اتفاقی می افتد اما نمی توانم آن را در نمادها قرار دهم آیا کسی می تواند به من پیشنهاد دهد؟ فکر می کنم اگر بتوانم قسمت (ب) را حل کنم، باید بتوانم (ج) را حل کنم. | کاربرد ساده احتمال شرطی |
18533 | من بردار x<-c(1,2,3,4,5,5,5,6,6,6,6,7,7,7,7,7,7,7,7,7,7 را دارم ,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,8,8,8,8,9,9,9,10 ) (بردار واقعی من طول دارد >10.000) و من می خواهم فواصلی را پیدا کنم که 90٪ چگالی در آن قرار دارد. آیا «چک» (x، probs=c(0.05، 0.95)، نوع=5» مناسبترین است یا راه دیگری وجود دارد؟ خیلی ممنون E.C | فواصل چگالی احتمال را بیابید |
113903 | با استفاده از بسته **CARET** میتوان تفاوتهای بین مدلهای مختلف بهدستآمده با استفاده از مجموعه داده (مجموعه داده آموزشی، trainSet) و مدلی را که به بهترین شکل با trainSet مطابقت دارد، تجزیه و تحلیل کرد: به عنوان مثال، دو مدل با استفاده از تابع _train_، marsFit و rfFit: resamps <- resamples(list(MARSCV = marsFit,RFCV = rfFit)) خلاصه (resamps) #Since models بر روی همان نسخههای دادههای آموزشی مناسب هستند، میتوانیم تفاوتها را محاسبه کنیم، سپس از یک آزمون t ساده برای ارزیابی فرضیه صفر مبنی بر عدم وجود تفاوت بین مدلها استفاده کنیم. modelDifferences <- diff(resamps) summary(modelDifferences) bwplot(modelDifferences, layout = c(2, 1), scales = list(x = list(relation=free))) آیا راهی برای انجام تحلیل مشابه وجود دارد ( آزمون t برای مقایسه مقادیر میانگین برای مثال) با استفاده از پیشبینیهای مدل در مجموعه آزمون (دادههای مجزا از trainSet)؟ **CARET** دارای یک تابع _predict_ است که از طریق آن می توان تفاوت بین مقادیر مشاهده شده (testSet) و پیش بینی شده (خروجی مدل) را ارزیابی کرد. با تشکر | انجام تجزیه و تحلیل در مورد تفاوت های پیش بینی مدل با استفاده از CARET |
76462 | سلام من در حال انجام آنالیز بر روی یک تحقیق هستم و باید موارد زیر را انجام دهم. ما دو گروه (شاهد و بیمار) داریم که غلظت خون آنها را هر 10 دقیقه به مدت 48 بار اندازه گیری می کنیم (اندازه گیری مکرر). از چه تجزیه و تحلیل آماری استفاده کنیم. با توجه به اینکه آیا دو گروه (یکی از دو گروه کنترل / بیمار) در غلظت خون اهمیت دارند و همچنین آیا بین اندازهگیریهای غلظت خون (مشت 10 در مقابل 20 در مقابل 480 دقیقه) معنیدار است یا خیر، حدس میزنم که باید از خطی تعمیمیافته استفاده کنیم. معادله یا MANOVA ... یا دیگر؟. متشکرم | دو گروه اهمیت خون خود را بین دو گروه و زمان اندازه گیری می کنند؟ |
113902 | من چند پارامتر مرتبط دارم (بیایید آنها را X1 و X2 بنامیم)، و می خواهم از هر کدام که قوی ترین مدل را ارائه می دهد استفاده کنم. مدل دارای پارامترهای زیادی است. آیا می توانم به سادگی AICc این دو مدل را با هم مقایسه کنم؟ مدل با استفاده از X1: Y ~ X1 + X3 + X4 + X5 + X6 مدل با استفاده از X2: Y ~ X2 + X3 + X4 + X5 + X6 این من را گیج می کند زیرا مطمئن نیستم که در نهایت چه پارامترهای دیگری به درست تعلق دارند. مدل. در نهایت X3، X4 و غیره ممکن است به بیرون پرتاب شوند. بنابراین آیا می خواهم این را با پارامترهای بالقوه بد آزمایش کنم؟ | انتخاب بین دو پارامتر در یک مدل |
108364 | می توانم بفهمم **رگرسیون خط الراس** بهتر از **رگرسیون معمولی** در صورت **تقاعدگی چندگانه** است. set.seed(123) x1 <- rnorm(100) set.seed(223) x2 <- rnorm(100,mean=x1,sd=.01) set.seed(344) y <- rnorm(100,mean= 3+x1+x2) myd <- data.frame(x1, x2,y) cor(myd) x1 x2 y x1 1.0000000 0.9999383 0.8701704 x2 0.9999383 1.0000000 0.8702772 y 0.8701704 0.8702772 1.00000000000. (برق) x1 x2 3.063971 -1.027534 3.097806 رگرسیون پشته با استفاده از بسته «MASS» نیاز دارد (MASS) lm.ridge(y~x1+x2,lambda=1) x1 x2 3.066382 1.0190401 1.0190401 = 6.0190301 mb. برابر با رگرسیون معمولی lm.ridge(y~x1+x2,lambda=0) x1 x2 3.063971 -1.027534 3.097806 **سوالات:** (1) چگونه می توانیم نشان دهیم که **رگرسیون رج بهتر از معمولی عمل می کند**؟ هر برآوردگر مانند خطا؟ چگونه محاسبه کنیم؟ (2) آیا موقعیت های دیگری وجود دارد که رج بهتر OLR است؟ | نشان دادن مزایای رگرسیون پشته نسبت به رگرسیون معمولی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.