_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
60081 | اگر من یک سری زمانی را با یک مدل AR مطابقت دهم، میتوانم با بررسی همبستگی باقیمانده (معتبر اگر همبسته نباشد) بگویم که آیا این تناسب معتبر است یا خیر. اما اگر آن را با یک مدل MA مناسب کنم، چگونه می توانم تشخیص دهم که این تناسب معتبر است یا خیر؟ در R، وقتی تعیین میکنم سری زمانی را با مثلا MA(1) متناسب کنم، به طور خودکار از نویز سفید برای اپسیلون استفاده میکند، درست است؟ $y_t = \epsilon_t + \text{ضریب} \cdot \epsilon_{t-1}$ با تشکر | سوال مدل سری زمانی پایه |
25358 | من می خواهم توزیع z را به عنوان فاصله اقلیدسی بین 2 نقطه که در مبدا مرکز نیستند بدانم. اگر 2 نقطه در صفحه دو بعدی را فرض کنم $A = (X_a,Y_a)$ و $B = (X_b,Y_b)$، جایی که $X_a \sim \mathcal N(\mu_a,s^2)$, $X_b \sim\mathcal N(\mu_b,s^2)$, $Y_a\sim\mathcal N(\nu_a,s^2)$, $Y_b\sim\mathcal N(\nu_b,s^2)$، سپس فاصله اقلیدسی بین $A$ و $B$، خواهد بود $z= \sqrt{(X_a-X_b)^2 + (Y_a-Y_b )^2}$. اکنون: $X=X_a-X_b$ و $Y=Y_a-Y_b$ خود متغیرهای تصادفی هستند که به معنای $(\mu_b-\mu_a)$ و $(\nu_b-\nu_a)$ و واریانس $2s^2$ هستند، بنابراین مشکلی که من دارم تعیین pdf $z=\sqrt{X^2 +Y^2}$ است، با دانستن اینکه $X$ و $Y$ هستند 2 متغیر تصادفی گاوسی نامرتبط با **میانگین غیرصفر** و واریانس یکسان $2s^2$. توزیع Rician زمانی اعمال میشود که $z$ فاصله مبدا تا یک متغیر تصادفی دو متغیره باشد. این تنها زمانی ثابت شده است که متغیرهای تصادفی ($A$ و $B$) **دایره** متغیرهای تصادفی دو متغیره باشند (یک اثبات را می توان در L. C. Andres and R. L. Phillips، _تکنیک های ریاضی برای مهندسین و دانشمندان_، 2003، Ch یافت می شود. 13، بخش 13.8.2، ص 680). من میخواهم pdf/cdf $z$ را بهعنوان فاصله بین دو نقطه (هیچکدام از آنها در مبدا قرار نگرفتهاند) وقتی که دایرهای نیستند بدانم. آیا توزیع پارامتری شناخته شده ای برای $z$ وجود دارد؟ اگر شکل تعمیم یافته توزیع ریسی باشد، این توزیع چگونه خواهد بود؟ متشکرم | توزیع فاصله اقلیدسی بین دو نقطه تصادفی در فضای 2 بعدی چگونه است؟ |
105152 | من اطلاعات مصرف انرژی را از یک دستگاه برای دو هفته گذشته دارم. تا یک هفته دیگر باید مصرف انرژی این دستگاه را پیش بینی کنم. من مطمئن نیستم که چگونه این را پیش بینی کنم. آیا کسی می داند چگونه این کار را انجام دهد؟ اگر راهی برای انجام این کار در R وجود دارد؟ من تازه شروع به یادگیری زبان R کردم. | کمک کمی به پیش بینی |
60088 | من با روش های رگرسیون اولیه آشنا هستم، اما تجربه ای در استفاده از GEE ندارم. من از SPSS استفاده میکنم و سعی میکنم از GEE برای مجموعه دادهای که دارم استفاده کنم، زیرا یک مؤلفه اندازهگیری مکرر در مدل من وجود دارد. به هر حال، در مدل من، من 3 پیش بینی دوگانه دارم (مثلاً x_1$، $x_2$، و $x_3$)، و همچنین یک متغیر کمکی پیوسته ($x_4$). خروجی من به من می گوید که من یک تعامل 4 طرفه دارم، و فقط با نگاه کردن به طرح های من، به نظر می رسد که این تعامل 4 طرفه توسط یک تعامل 3 طرفه در یک سطح از متغیر کمکی من هدایت می شود، اما نه سطح دیگری. یعنی یک تعامل 3 طرفه بین 3 پیش بینی دوگانه من در سطوح بالای x_4$ وجود دارد، اما نه در سطوح پایین. اگر این رگرسیون ساده OLS بود، من فقط مدل را در سطوح پایین در مقابل سطوح بالای متغیر کمکی متمرکز میکردم و تعامل را در این دو سطح آزمایش میکردم. با این حال، من مطمئن نیستم که چگونه این کار را با استفاده از GEE انجام دهم. به طور خاص، وقتی من برای مقایسه های زوجی درخواست می کنم، مدل همیشه خود را در میانگین متغیر کمکی متمرکز می کند. بنابراین، من دو سوال دارم: (الف) آیا می توان مقایسه های زوجی را در 2 سطح متغیر کمکی (به عنوان مثال، در صدک های 25 و 75) انجام داد؟، اگر نه (ب) چگونه باید این 4 طرفه را بررسی کنم. تعامل؟ متشکرم | GEE: مقایسه های زوجی در سطوح مختلف یک متغیر کمکی؟ |
105150 | من سعی می کنم برچسب ها را برای یک مجموعه آزمایشی (حدود 15000 نمونه از حدود 400 ویژگی) بر اساس یک مدل آموزش دیده با یک مجموعه آموزشی (حدود 86 نمونه از حدود 400 ویژگی) پیش بینی کنم. من از Weka 3.6.11 در یک لپ تاپ ساده با ویندوز استفاده می کنم. هر دو مجموعه آموزشی و آزمایشی از یک فایل csv. بارگذاری میشوند (یک فایل برای هر کدام). مجموعه آزمایشی برچسبهایی نداشت (این برای پیشبینی است، نه اعتبارسنجی)، بنابراین من یک ستون NaN برای این ویژگی در فایل csv. با استفاده از Matlab اضافه کردم. (در ابتدا بدون این مرحله امتحان کردم و با خطا مواجه شدم، در انجمن ها خواندم که این راه اندازی مناسب بود). این اولین بار است که از Weka برای پیش بینی استفاده می کنم. من دو راه اندازی مختلف را در رابط کاربری گرافیکی KnowledgeFlow امتحان کردم، و هر دو بار ناموفق بود. **SETUP 1: استفاده از ClassAssigner در FilteredClassifier** فیلتر: weka.filters.MultiFilter weka.filters.unsupervised.attribute.ClassAssigner <- کلاس در اینجا اختصاص داده شده است (ستون های آخر) weka.filters.unsupervised.attribute.NumericToNomin weka.filters.unsupervised.attribute.Remove weka.filters.unsupervised.attribute.Remove weka.filters.unsupervised.attribute.Normalize classifier: weka.classifiers.bayes.NaiveBayes اسلات های اجرایی: 2 (این به طور پیش فرض است، مطمئن نیستم چه چیزی است. معنی) سپس کاری که من انجام دادم این بود که به صورت دستی بر روی شروع بارگیری کلیک کردم مجموعه آموزشی، و سپس شروع بارگیری برای مجموعه تست. این منجر به قطع شدن Classifier در حین آموزش شد و سپس در حین تست یک خطا ایجاد می شود: هیچ ویژگی در داده های تست تنظیم نشده است. من این خطا را درک نمی کنم زیرا ClassAssigner اولین ماژولی است که بعد از TestSetMaker اجرا می شود. اگر کمک کند، گزارش خطا در اینجا آمده است: 22:08:11: [Loader] CSVLoader$22564265|-M ? -E ،'|بارگذاری filename_training 22:08:11: [Classifier] FilteredClassifier$24309584|-F weka.filters.MultiFilter -F \weka.filters.unsupervised.attribute.ClassAssigner -C last\ -F \weka.filters.unsupervised.attribute.NumericToNominal -R آخرین\ -F \weka.filters.unsupervised.attribute.Remove -R first\ -F \weka.filters.unsupervised.attribute.Remove -V - اعداد R \ -F \weka.filters.unsupervised.attribute.Normalize -S 1.0 -T 0.0\ -W weka.classifiers.bayes.NaiveBayes --| شروع استخر اجرایی ( 2 اسلات)... 22:08:11: [طبقه بندی کننده] [همان اطلاعات بالا] --| صف های خروجی را تنظیم کنید. 22:08:11: [طبقهبند] [همان اطلاعات بالا] --| زمانبندی اجرا 1 برابر 1برای اجرا... 22:08:11: [طبقه بندی کننده] [اطلاعات مشابه در بالا] --|خطا: هیچ ویژگی کلاسی در داده های آزمایشی تنظیم نشده است 22:08:11: [طبقه بندی کننده] [همان اطلاعات بالا] --| |( اجرای 1fold1) قطع شد 22:08:21: [Loader] CSVLoader$11661342|-M ? -E ،'|loaded filename_test 22:08:21: [Classifier] FilteredClassifier$24309584|-F weka.filters.MultiFilter -F \weka.filters.unsupervised.attribute.ClassAssigner -C last\ -F \ weka.filters.unsupervised.attribute.NumericToNominal -R last\ -F \weka.filters.unsupervised.attribute.Remove -R first\ -F \weka.filters.unsupervised.attribute.Remove -V -R numbers \ -F \weka.filters .unsupervised.attribute.Normalize -S 1.0 -T 0.0\ -W weka.classifiers.bayes.NaiveBayes --|خطا: هیچ ویژگی کلاسی در داده های آزمایشی تنظیم نشده است و در زیر تصویری از KnowledgeFlow وجود دارد:  **SETUP 2: از ClassAssigner قبل از FilteredClassifier استفاده کنید** مانند SETUP1، اما کلاس برای آموزش اختصاص داده شده است. و قبل از استفاده از FilteredClassifier به طور جداگانه مجموعه آزمایشی (اسکرین شات زیر) را دریافت نمی کنم، به نظر می رسد که قسمت آموزشی به خوبی کار می کند، اما در مجموعه آزمایشی هیچ اتفاقی نمی افتد، به عنوان مثال اگر بخواهم بصری کنم آن را پس از اختصاص کلاس (روی کار در زیر)، من هیچ نتیجه ای برای دیدن دریافت نمی کنم.  اینجا گزارش است: 22:33:31: [Loader] CSVLoader$13145810|-M ? -E ،'|بارگذاری finename_train 22:33:31: [Classifier] FilteredClassifier$13512466|-F weka.filters.MultiFilter -F \weka.filters.unsupervised.attribute.NumericToNominal -R last\ -F \ weka.filters.unsupervised.attribute.Remove -R first\ -F \weka.filters.unsupervised.attribute.Remove -V -R numbers -F \weka.filters.unsupervised.attribute.Normalize -S 1.0 -T 0.0\ -W weka.classifiers.bayes .NaiveBayes --|استخر اجرایی ( 2 اسلات)... 22:33:31: [Classifier] [همانطور که در بالا] --|صف های خروجی را تنظیم کنید. 22:33:31: [طبقهبند] [همانطور که در بالا] --| زمانبندی اجرا 1 برابر 1 برای اجرا... 22:33:31: [طبقهبند] [همانطور که در بالا] --|ذخیرهسازی مدل برای اجرا 1 برابر 1 22: 33:40: [Loader] CSVLoader$22945919|-M ? -E ,'|loaded test_FNC_SBM_1 من کاملاً از دست دادهام و چندین ساعت است که سعی میکنم این کار را انجام دهم. تست .csv را بررسی کردم و ستون NaNs وجود دارد. با استفاده از DataVisualizer مجموعه آزمایشی را در Weka تجسم کردم. مستقیماً بعد از TestSetMaker | Weka: مجموعه تست در Knowledge Flow پردازش نمی شود؟ ClassAssigner شکست می خورد؟ |
25352 | من سعی می کنم بر اساس اندازه گیری های WiFi تعیین کنم که یک فرد در کدام اتاق است. من در حال حاضر اندازه گیری وای فای برای 3 اتاق دارم. این اندازه گیری شامل 100 اسکن وای فای است که از مکان های مختلف داخل هر اتاق جمع آوری شده است. هر اسکن تعداد APهای WiFi قابل مشاهده در برخی از مکانهای داخل اتاق را نشان میدهد. تعداد APهای مشاهده شده در هر یک از 100 اسکن متغیر است. در اینجا یکی از این اسکن ها وجود دارد: 1.SSID: بی سیم، BSSID: 00:21:6c:63:cc:dd، ss: -54، فرکانس: 2437 2.SSID: بازدید کننده، BSSID: 00:24:6c:61: aa:bb، ss: -58، فرکانس: 2462 3.SSID: بازدید کننده، BSSID: 00:24:6e:6d:ab:ab، ss: -60، فرکانس: 2437 ss: قدرت سیگنال این از یک اسکن از 100 اسکن جمع آوری شده برای هر اتاق گرفته شده است. هر اسکن مانند یک مجموعه ویژگی برای اتاق است. من باید به نحوی سیستم خود را با استفاده از این داده ها آموزش دهم تا بتواند یک اسکن (ممکن است چندین AP) گرفته شده در طول آزمایش را در یک اتاق خاص طبقه بندی کند. از چه الگوریتم آموزشی نظارت شده می توانم استفاده کنم؟ من قبلاً SVM ها را امتحان کردم، اما آنها مجموعه ویژگی های متغیر را اجازه نمی دهند. | بومی سازی WiFi با استفاده از یادگیری ماشینی |
51991 | با داشتن توزیع های حاشیه ای، مثلاً $f(x)$ و $f(y)$، چگونه توزیع شرطی $f(x|y)$ را بدست آوریم؟ این رابطه به صورت زیر بدست می آید: $$f(x)=\int f(x|y)f(y)dy$$ آیا باید مشتقات هر دو طرف را پیدا کنیم و سپس یک معادله دیفرانسیل را حل کنیم؟! | چگونه توزیع مشروط را بدست آوریم؟ |
105154 | من سه متغیر دارم که می خواهم آنها را در یکی ترکیب کنم. انتخاب واضح، تحلیل عاملی یا تجزیه و تحلیل مؤلفه های اصلی است، اما با داده های پانل چندان ساده نیست زیرا به میانگین و انحرافات استاندارد نیاز دارد و در غیاب اطلاعات در مورد ساختار پانل، نرم افزار میانگین و sd را برای کل استخر محاسبه می کند. بنابراین لیست متغیرهای من (همه متغیرهای پیوسته): 1) شاخص متغیر سرمایه انسانی بر اساس میانگین سنوات تحصیلی و بازده تحصیلی 2) شاخص های کیفیت سرمایه انسانی 2(الف) انتشارات مجلات به ازای هر کارگر 2(ب) درخواست های ثبت اختراع برای هر کارگر من می خواهم این سه را در یک شاخص ترکیب کنم که به آن سرمایه انسانی تعدیل شده با کیفیت می گویند. من نمی توانم راهی برای انجام آن پیدا کنم جز اینکه میانگین ساده نسبت های 2(a) و 2(b) را در نظر بگیرم و آن را در (1) ضرب کنم، اما این درست به نظر نمی رسد. هر ایده ای، لطفا؟ | ایجاد شاخص از سه متغیر در داده های پانل |
61935 | من 2 مطالعه دارم که به پاسخ بیمار به همان دارو می پردازد. مطالعه 1 نشان داد که 10000 ژن در بالای پسزمینه بیان میشوند و 500 مورد از آنها به طور متفاوت بیان میشوند و به عنوان امضای پاسخ دارویی نامیده میشوند. مطالعه 2 1000 ژن را نشان داد که نشان دهنده امضای پاسخ دارویی است. همپوشانی بین این دو امضا 100 ژن است. من می خواهم اهمیت آماری همپوشانی بین امضاها را محاسبه کنم. اگر درست متوجه شده باشم، یکی از راههای انجام آن (براساس پستهای اینجا: محاسبه احتمال همپوشانی فهرست ژنها بین دنبالههای RNA و مجموعه دادههای تراشههای ChLP و اینجا: استفاده از فیپر R برای بدست آوردن احتمال همپوشانی فهرست) از طریق است. `phyper()`: > همپوشانی <- 100 > list1 <- 500 > totalPop <- 10000 > list2 <- 1000 > > 1-phyper(overlap-1, list1, totalPop-list1, list2) [1] 4.103051e-12 1. آیا این معقول به نظر می رسد؟ 2. اگر بخواهم تصحیح بونفرونی را اعمال کنم، باید این مقدار p را در تعداد مقایسه ها ضرب کنم. تعداد مقایسه ها در این مورد با چه چیزی مطابقت دارد؟ لیست 2؟ روش دیگر، چه راهی سریع برای انجام اصلاحات کمتر محافظه کارانه خواهد بود (به عنوان مثال، بنجامینی-هوچبرگ)؟ | نحوه اعمال تصحیح آزمایش چندگانه برای همپوشانی فهرست ژن ها با استفاده از R |
25354 | من در تلاش برای یافتن پاسخ برای این سوال ساده هستم. من اطلاعات دارم (فهرست اعداد). من 20000 عدد دارم کوچکترین عدد 100 و بزرگترین آن 15000 است. من می خواهم این داده ها، نحوه توزیع آن یا هر پیشنهاد دیگری را تفسیر کنم که چگونه می توانم با این داده ها بازی کنم و کارهای مختلفی انجام دهم؟ موضوع این است که من باید یک ارائه در مورد آمار خلاصه در مورد این داده ها ارائه دهم و همچنین می خواهم نمودارهای این داده ها را در ارائه خود بگنجانم تا بتوانم به راحتی به همه نشان دهم که داده ها چگونه به نظر می رسند و به آنها بگویم که بیشترین تعداد است. ، کوچکترین، که محدوده اعداد بیشتر رخ می دهد. بنابراین من هیستوگرام را در R ساخته ام اما برای تعداد زیادی از اعداد، هیستوگرام انتخاب خوبی نیست. همچنین من می دانم که چگونه تمام این میانگین، میانه و انحراف معیار را محاسبه کنم. این یک تکلیف نیست، من می خواهم در مورد داده ها ارائه کنم و من آمارگیر نیستم. | مجموعه بزرگی از دادههای اریب تک متغیره را تجسم و تفسیر کنید |
41918 | من از معیار اطلاعات انحراف برای ارزیابی تناسب در مدل سلسله مراتبی بیزی خود استفاده می کنم. شکل عملکردی این معیار به شرح زیر است: $$DIC=p_{D}+\bar{D}$$ که در آن $p_{D}=\bar{D(\theta)}+D(\bar{\theta })$ تعداد موثر پارامترها و $D(\theta)=-2log(p(y|\theta))$، $p(y|\theta)$ توزیع نمونه و $\theta$ ناشناخته است. پارامترها و مشکل این است که وقتی از انتظار به عنوان تخمین $\theta$ استفاده می کنم، تعداد موثر پارامترها منفی است، اما اگر یک میانه را به عنوان تخمین پارامترها وصل کنم - $p_{D}$ مثبت است. من میدانم که $p_{D}$ منفی نشاندهنده تضاد دادههای قبلی در توزیعهای غیر log-مقعر است، اما بازرسی بصری مقادیر برازش نشاندهنده تناسب بسیار خوب است. بنابراین، آیا استفاده از میانه به عنوان تخمین پارامتر به جای انتظارات در DIC خوب است؟ | تعداد منفی پارامترها در مدل بیزی سلسله مراتبی |
82339 | > فرض کنید $X_1, ... , X_n$ iid با چگالی مشترک $f(x) = ax^{a-1}$, $ 0 < x < > 1$ باشد که $a$ یک پارامتر ناشناخته $a است > 0 دلار > > (a) MLE را برای $a.$ پیدا کنید > > (ب) نشان دهید که $W = - \sum^n_{i=1} \ln X_i$ دارای توزیع گاما با > پارامترهای $\alpha = n$ است. ، $\beta = 1/a$. نکته: از mgf استفاده کنید. > > (c) نشان دهید که $2aW$ دارای توزیع $\chi^2 (2n)$ است. > > (د) از (c) برای یافتن فاصله اطمینان 100$(1-a)%$ برای $a$ استفاده کنید. در مورد قسمت (د) کمی مطمئن نیستم. فرض کنید مقادیر بحرانی $\chi^2_{1 - \alpha/2}$ و $\chi^2_{\alpha/2}$ هستند. سپس داریم $$ (1 - \alpha) = P(\chi^2_{1-\alpha/2} < 2aW < \chi^2_{\alpha/2}) = P \left(\frac{\chi ^2_{1-\alpha /2}}{2W} < a < \frac{\chi^2_{\alpha/2}}{2W} \right)$$ اما مطمئن نیستم که کار کند، زیرا من بر یک متغیر تصادفی تقسیم می کنم. پس آیا این درست است؟ اگه نه میشه راهنماییم کنید پیشاپیش ممنون | یافتن فاصله اطمینان برای یک پارامتر |
51378 | من می خواهم یک lm ساده از y~x انجام دهم که در آن متغیر پاسخ خود را وزن کنم. این به این دلیل است که مقادیر y در واقع هر یک به نوبه خود مقدار شیب رگرسیون دیگری از سال y است، یعنی نرخ های تغییر در طول زمان، و برای هر یک از این رگرسیون های اولیه تعداد سال های ثبت شده متغیر بود (برخی داده هایی برای 20 سال، برخی برای 40، برخی برای 45 و غیره). متوجه شدم که وزن lm در اینجا مورد بحث قرار گرفته است: چگونه از وزن ها در تابع lm در R استفاده کنیم؟ با این حال، مطمئن نیستم که آیا با استفاده از دستورالعملهای سادهای که در این پست توضیح داده شده است، y را وزن میکنم (که همان چیزی است که میخواهم) یا x، یا اینکه آیا وزن در کل lm عمل میکند و تمایزی که بین وزن y قائل هستم. به طور خاص، به جای x، نامعتبر است... | وزن کردن متغیر پاسخ در lm |
104200 | پردازش سیگنال آشوب، pg147--148 توضیح می دهد که چگونه یک سیگنال (خروجی لیزر) که در رژیم هرج و مرج کار می کند ارگودیک است. ادبیات می گوید که یک سیگنال ثابت ارگودیک است، اگر میانگین مجموعه آن = میانگین زمانی باشد. آیا باید آمار محاسبه شده با میانگین زمانی = آمار محاسبه شده توسط میانگین گیری گروهی باشد؟ روشی که من از کتاب در پیوند فهمیدم به شرح زیر است: مورد 1: N نمونه در یک سری زمانی وجود دارد که من میانگین 1, چولگی1, kurtosis1 را محاسبه می کنم. حالت 2: سپس با N نمونه آزمایش T انجام شده و در هر یک از آزمایش ها آمار محاسبه می شود. پس از انجام آزمایشهای T، میانگین این آمارها را محاسبه میکنیم - mean_avg، skewness_avg، kurtosis_avg. این به عنوان میانگین گیری گروهی یا میانگین گیری احتمالی نامیده می شود. اگر mean1 = mean_avg و غیره، فرآیند/سیگنال ارگودیک است. آیا درک من درست است؟ آخرین سوالی که در مورد pdf در تصویر دارم. شکل اول 6.12 پی دی اف یک تحقق و دومی برای یک نمونه واحد است. بنابراین، آیا به این معنی است که شکل اول pdf میانگین زمان و شکل دوم 6.13 مربوط به میانگین گیری گروهی است؟ برای توضیح اصطلاحات ergodicity، time averaging و ensemble averaging سپاسگزار خواهم بود. متشکرم | درک معنای ارگودیسیته و میانگین گیری گروهی مشکل است |
56342 | من دارم روی یک مشکل داستانی برای یک پروژه کار می کنم. شما برای یک بنیاد کوچک زیست محیطی کار می کنید که می خواهد مصرف سوخت را تجزیه و تحلیل کند. رئیس شما (در سال 2002) از شما خواسته است که به او کمک کنید تا داده های سال 2001 در مورد مصرف سوخت بزرگراه را تجزیه و تحلیل کند تا بفهمد تغییر در نرخ مالیات چه تاثیری بر سوخت دارد. مصرف فایل داده ای (با برچسب Fuel2001) ارائه کرده است که دارای داده های مربوط به متغیرهای زیر است: رانندگان تعداد رانندگان دارای مجوز در ایالت FuelC. بنزین فروخته شده برای استفاده در جاده ها (1000 میلیون گال.) «درآمد» درآمد سرانه شخصی (سال 2000) «مایل ها» مایل ها مایل بزرگراه کمک فدرال در ایالت «MPC» مایل های تخمینی طی شده سرانه «پاپ» جمعیت 16 ساله و بیش از «مالیات» نرخ مالیات ایالتی بنزین، سنت در هر گالن او از شما میخواهد تحلیلی تهیه کنید که بهترین کار را برای کمک به او انجام دهد. استدلال میکند که نرخهای مالیاتی بالاتر منجر به مصرف سوخت کمتر میشود برای فهمیدن اینکه آیا رابطه وجود دارد؟ یک یادداشت کوتاه در مورد آن موضوع برای او بنویسید که شامل تجزیه و تحلیل شما، از جمله تخمین های خاص از رابطه است.» من قرار است بهترین حالت ممکن را برای حمایت از هدف او (افزایش مالیات بنزین برای کاهش مصرف سوخت) به او ارائه دهم، اما باید همچنین شامل بهترین مدل، برای اطلاعات او، من همه متغیرهای کج را با گرفتن گزارش طبیعی آنها تغییر دادم تا زمانی که یکی از آنها را پیدا کردم که از نظر آماری معنی دار بود همان مالیات رگرسیون قوی دیگر از نظر آماری معنی دار نبود (از لحاظ گرافیکی، از جمله جداول یا نمودارها) به چه معناست که رگرسیون قوی مالیات را ناچیز می کند، اما می دانم؟ من نمی توانم بفهمم چگونه آن را آپلود کنم، پیشاپیش برای هر ورودی متشکرم. | برآوردهای خاص در مورد مصرف سوخت - رگرسیون خطی ساده؟ |
60085 | آیا کسی می تواند توزیع مشترک متغیرهای تصادفی X، Y را به گونه ای تصور کند که سه شرط زیر برآورده شوند: $E[X] = 1$، $E[Y] = 1$، و $E[XY] = 0$؟ یکی از دوستانم این را از من پرسید، که به نظر ساده می رسد، اما من اهل آمار نیستم، بنابراین این باعث می شود سرم بچرخد. ممنون میشم جواب بدین | توزیع های مشترک برای متغیرهای غیر همبسته |
51997 | من دو سوال زیر را دارم: 1. تصور کنید من دو مجموعه از مشاهدات دارم، و هر دو مجموعه توزیع لگ نرمال دارند. اکنون، با توجه به اتحاد این دو مجموعه - آیا توزیع هنوز یک لگ نرمال است؟ 2. با توجه به اکنون من دوباره مجموعه ای از مشاهدات با توزیع لگ نرمال دارم. با توجه به اینکه من یک اسکالر را به $LogN(\mu, \sigma^2)$ اضافه یا کم می کنم، برای هر مشاهده چه اتفاقی می افتد. فرض کنید من یک شیفت سمت راست 2+ دارم. آیا این بدان معناست که ارزش هر مشاهده 2 بزرگتر است؟ با تشکر | دو سوال کلی در مورد توزیع های log-normal: shift و mix |
56341 | کسی میدونه کد شبه یا کد متلب الگوریتم فوروارد HMM رو از کجا میتونم پیدا کنم؟ | الگوریتم فوروارد HMM در متلب |
64507 | من در آمارهایم فراتر از انحراف معیار و رگرسیون خطی کاملا زنگ زده هستم، بنابراین حتی در مورد چگونگی بیان این سوال مطمئن نیستم. من به تاریخچه طولانی داده های صلاحیت کارت اعتباری نگاه می کنم، بنابراین می دانم که چقدر پول به عنوان کارت های پاداش، AMEX، کارت های جهانی و غیره پردازش شده است. من این داده ها را برای هر ماه دارم. اکنون من به روشی نیاز دارم تا آزمایش کنم که آیا داده های یک ماهه از نظر آماری غیرعادی هستند یا خیر. به عنوان مثال، در ژانویه، 21٪ از حجم در پاداش بود، و در فوریه، تنها 19٪ در پاداش بود، به همین ترتیب حداقل تا یک سال. من می خواهم بدانم که آیا حجم در Rewards در ژانویه آینده بی سابقه بود یا خیر. آیا کسی می تواند نام آزمونی را که می توانم برای دریافت پاسخ به آن نگاه کنم ارائه دهد؟ | مقایسه داده های طبقه بندی شده |
93851 | انواع مختلفی از نوع حل کننده در liblinear وجود دارد اما من تفاوت آنها را درک نمی کنم. کدام یک را باید انتخاب کنم؟ همچنین چرا داده ها باید مقیاس شوند؟ دو به برخی از مسائل عددی؟ > > -s نوع : مجموعه ای از نوع حل کننده (پیش فرض 1) > برای طبقه بندی چند کلاسه > 0 -- رگرسیون لجستیک منظم شده با L2 (اولیه) > 1 -- طبقه بندی بردار پشتیبان اتلاف L2 با تنظیم L2 (دوگانه) > 2 -- L2-regularized L2-L2-L2-L2-classification vector support (اولیه) > 3 -- L2-regularized L1-L1-less رده بندی بردار پشتیبانی پشتیبانی (دوگانه) > 4 -- طبقه بندی بردار پشتیبان توسط کرامر و سینگر > 5 -- طبقه بندی بردار پشتیبان ضایعات L1 منظم > 6 -- رگرسیون لجستیک منظم شده با L1 > 7 -- رگرسیون لجستیک منظم شده با L2 (دوگانه) > | انواع Liblinear حل کننده |
61931 | این یک سوال ساده در مورد مدلسازی فضایی بیزی از طریق مدلسازی خودرگرسیون شرطی است. طبق قضاوت شما (و احتمالاً برخی منابع روش شناختی)، حداقل تعداد مناطقی که CAR برای آنها مناسب است چقدر است؟ آیا میخواهید بگویید که با تعداد کم مناطق، مثلاً 9، استفاده از مدلی با کمترین پارامترهای ممکن، یعنی مدل ذاتی به جای مشخصات Leroux با عملکرد بهتر، بسیار توصیه میشود؟ مرجع: لی 2011: مقایسه مدل های خودبازگشت شرطی مورد استفاده در نقشه برداری بیماری بیزی، اپیدمیولوژی فضایی و مکانی-زمانی 2/2، ص 79-89 | تعداد نواحی در مدل های خودرگرسیون شرطی |
16439 | من یک رگرسیون بر روی متغیرهای مستقل انجام می دهم، که برخی از آنها در واحدهای مختلف اندازه گیری می شوند، به عنوان مثال: * میزان اتصالات پهنای باند در یک کشور * میزان اتصالات پهن باند در یک کشور به ازای هر 100 نفر، زیرا دومی کاملاً همبسته نیست. در مورد اول (آن بر جمعیت تقسیم بر 100 تقسیم می شود)، من فرض می کنم هیچ مشکلی شامل هر دو اندازه گیری در رگرسیون OLS وجود ندارد. سوال این است که آیا از اهمیت هر یک از ضرایب می کاهد؟ | آیا گنجاندن معیارهای خام و سرانه به عنوان پیشبینیکننده، اهمیت هر یک از پیشبینیکنندهها را کاهش میدهد؟ |
93858 | اولین مورد از Andrew Ng است دومی از فرانسیس باخ است ممکن است کمی گیج باشم، اما چرا در توضیح دوم مشتقات جزئی جمع بندی شده و در توضیح اول هیچ کدام وجود ندارد؟ بالاخره آنها در مورد یک چیز صحبت می کنند؟ | آیا این توصیفات از الگوریتم نزول گرادیان دسته ای با یکدیگر تضاد دارند؟ |
108282 | از کتاب جان کروشکه، فصل 7، ص. 120 (خلاصه شده برای موجز بودن): > یک سیاستمدار دائماً از جزیره ای به جزیره دیگر در زنجیره ای از جزایر سفر می کند... هدف او این است که از همه جزایر به نسبت جمعیت نسبی آنها بازدید کند تا به نسبت زمان بیشتری را در جزیره بگذراند. بیشتر > جزایر پرجمعیت...او حتی نمی داند دقیقا چند جزیره > وجود دارد!.. مشاورانش می توانند از شهردار جزیره بپرسند که چند > نفر در جزیره هستند. و هنگامی که سیاستمدار پیشنهاد بازدید از یک جزیره مجاور (در شرق یا غرب، با زدن یک سکه) را می دهد، می تواند از شهردار آن جزیره مجاور بپرسد که چند نفر در آن جزیره وجود دارد. من مقداری کد پایتون نوشتم که در آن 'A' زنجیره جزیره است و 'run_Metropolis(A, N, start, burn_in)' محاسبات را انجام می دهد. این کد به طور عمدی گیج شده است تا برای انسان قابل خواندن باشد. import random def run_Metropolis(A, N, start, burn_in): ''' A: توزیعی که باید پیش بینی شود (لیست). N: تعداد آزمایش ها / شروع حرکت ها: شاخص شروع در A burn_in: تعداد حرکات اولیه که باید کنار گذاشته شوند. ''' خلفی = [0] * len(A) # باید برگردانده شود cur_pos = شروع # شاخص شروع برای i در محدوده (N): توزیع # پیشنهاد مختصات (-1، +1) است، با در نظر گرفتن مرزهای فهرست اگر cur_pos<len(A)-1 و cur_pos>0: پیشنهادات_پوزیشن = [cur_pos-1, cur_pos+1] elif cur_pos == len(A)-1: #موقعیت_پیشنهاد شده =[cur_pos-1] # اگر این مورد اجرا شود، موقعیتهای پسینی شبیه موقعیتهای_پیشنهادی A نیست = [0,cur_pos-1] elif cur_pos == 0 : #موقعیت_پیشنهادی = [cur_pos+1] # اگر این مورد اجرا شود، قسمت عقبی شبیه A نیست پیشنهاد_پوزیشن = [len(A)-1, cur_pos+1] پیشنهاد_pos = random.choice(موقعیت_های_پیشنهادی) # تصمیم بگیرید که اگر A[proposed_pos] > A[cur_pos] حرکت کنید: # قطعا حرکت cur_pos = پیشنهاد_pos other: # حرکت با یک prob متناسب با نزدیکی A[cur_pos] به A[proposed_pos] u = random.random() # نمونه از توزیع یکنواخت از 0 تا 1 if float(A[proposed_pos])/A[cur_pos] > u: # move to proposed cur_pos = proposed_pos other: # در پاس cur_pos # اگر از نقطه brun_in گذشته است، مکان را 1 در توزیع پسین افزایش دهید. if i > burn_in: پسین[cur_pos] += 1 بازگشت پسین A = [20,30,10,50,80,20,90] # جمعیت جزایر خلفی_A = run_Metropolis(A, 4000, 3, 1000) # اعتبارسنجی نمونهبرداری کار میکند: [n/float(sum(A)) برای n در A] > [0.0666، 0.1، 0.0333، 0.166، 0.266، 0.066، 0.3] [n/float(مجموع(پسین_A)) برای n در A_پسینی] > [0.0593، 0.0910، 0.026، 0.0397، 0.0397، 0.0666، 0.302] بنابراین، پسین_A توزیع جمعیت A را منعکس می کند. چیزی که کروشکه روشن نمی کند این است که **برای اینکه این کار عمل کند، زنجیره جزیره باید چرخه ای باشد**، یعنی شما باید بتوانید از جزیره هفتم به جزیره اول سفر کنید و بالعکس. در غیر این صورت، پسین_A شبیه A نیست. میتوانید این را با تغییر توزیعهای پیشنهادی مرزی با توزیعهای نظر داده شده، که چرخهای فرض نمیکنند، آزمایش کنید. **سوالات:** 1. آیا این به این دلیل است که فرض ارگودیسیته نقض می شود؟ 2. آیا میتوانیم معیارهای پذیرش (تصمیم حرکت) را تغییر دهیم تا عدم تقارن برای شرقترین و غربیترین جزایر را در نظر بگیریم؟ (من حدس می زنم این متروپلیس هاستینگ است) 3. اگر چنین است، می توانید کد را برای نشان دادن تغییر دهید؟ | جزیره پرش با الگوریتم متروپلیس |
16432 | سوال من در مورد تجزیه و تحلیل سیگنال ها با PCA در حوزه فرکانس است. * از آنجایی که تجزیه و تحلیل فرکانس ابزار قدرتمندی برای پردازش سیگنال ارائه می دهد، آیا تجزیه و تحلیل مؤلفه اصلی (PCA) مزایا یا کاربردهای «مشهور» در حوزه فرکانس دارد؟ * آیا می توان گفت که PCA در حال انجام نوعی تحلیل فرکانس است زیرا اجزای اصلی نشان دهنده مهم ترین فرکانس ها در سیگنال هستند؟ | آیا PCA مزایا یا کاربردهایی در حوزه فرکانس دارد؟ |
93853 | > الف) برای کدام یک از مشاهدات زیر (obs1, obs2, obs3) > واریانس باقیمانده بزرگترین است؟ کدام مشاهده بیشترین > اهرم را دارد؟ و کدام یک کوچکترین؟ توضیح دهید چرا. > > ب) کدام یک از سه مشاهده بیشترین DFBETAS را دارد؟ > > ج) در مورد کدام مشاهده بیشتر نگران هستید؟ > >  من فکر کردم که پاسخ a) obs 1 خواهد بود، زیرا فکر می کنم که بیشترین اهرم را خواهد داشت زیرا فاصله از ابر بزرگترین است (البته کاملاً مطمئن نیستم که درست باشد یا خیر). بقیه سوال ها رو من هیچ اطلاعی نداشتم. کسی میتونه لطفا کمک کنه؟ | کدام مشاهده بیشترین واریانس باقیمانده را دارد؟ |
108287 | آیا بسته ای وجود دارد که Maxent Markov Models را در R پیاده سازی کند؟ (http://en.wikipedia.org/wiki/Maximum-entropy_Markov_model). میدانم که بسته crf فیلدهای تصادفی شرطی مرتبط را پیادهسازی میکند، و بستههایی وجود دارند که مدلهای مارکوف پنهان را پیادهسازی میکنند. اما من به طور خاص به دنبال بسته هایی هستم که مدل های مارکوف maxent را پیاده سازی کنند. | مدل های Maxent Markov در R |
105151 | آیا معادله زیر نامی دارد یا شبیه به برخی از فرآیندها/معادله معروف دیگر است؟ معادله مورد علاقه: $$S_c = S_{c-1} + S_{c-1}\omega_c\delta_c$$ $\delta\sim\mathcal{N}(0,1)$ یک شوک نرمال استاندارد $\ است. omega\sim\mathcal{B}(1، ~ 0.5) دلار یک سکه ورق است با 50٪ احتمال 1 (0 در غیر این صورت) $c=(1,~2,~\dots,~C^{\ast})$ دنباله ای از ورق زدن سکه است ($C^{\ast}$ مجموع ورق ها) $S_0\sim\mathcal{N}(0 ,1)$ فرآیند را مقداردهی اولیه می کند $S_{C^{\ast}}$ مقدار $S_c$ در پایان تکرارها است و مقدار مورد علاقه است. توجه داشته باشید که چرخش سکه $c^{th}$ تعیین میکند که آیا شوک نرمال استاندارد $c^{th}$ رخ دهد یا خیر، و بنابراین تفاوت $S_c$ با $S_{c-1}$ است یا خیر. در زیر چند کد R وجود دارد که وقتی $C^{\ast}$ 4 باشد، یک مقدار $S_{C^{\ast}}$ ایجاد میکند. این کد به گونهای تنظیم شده است که هر بار امگاها و دلتاها یکسان شوند، اما اجازه دهید ترتیبی که در آن انباشته می شوند تصادفی باشد. توجه داشته باشید که ترتیب تجمع برای یک مجموعه معین از امگا و دلتا بر مقدار $S_{C^{\ast}}$ تأثیر نمیگذارد. set.seed(2) # دانه RNG را طوری تنظیم کنید که همه شوکها و چرخشهای سکه یکسان باشند Cstar <- 4 # تعداد ورق سکه/ تعداد تکرار S0 <- rnorm(1) # اولیه شوک عادی استاندارد Sc <- c(S0, rep(NA, Cstar)) # بردار برای نگه داشتن شوک ها در حین انباشته شدن دلتاها <- rnorm(Cstar) # شوک معمولی استاندارد omegas <- rbinom(Cstar, 1, 0.5) # coin پرتاب rm(.Random.seed, envir=globalenv()) # دانه غیرتصادفی را حذف کنید، بنابراین ترتیب انباشته شدن شوک ها/برگرداندن سکه تصادفی c است. .2.Cstar <- نمونه (1:Cstar, Cstar) # یک دنباله درهم از c=1 تا C* ctr <- 1 # شمارنده مورد استفاده برای نمایه سازی Sc (اما نه امگا و دلتا) for(i در c.2.Cstar){ ctr <- ctr+1 Sc[ctr] <- Sc[ctr-1] + Sc [ctr-1]*omegas[i]*deltas[i] } SCstar <- Sc[ctr] print(c.2.Cstar) چاپ (SCstar) | آیا نامی برای این فرآیند/توزیع وجود دارد؟ |
61933 | لطفاً به گزیده زیر از «اندازهگیری و توضیح رقابت در بخش مالی» توسط Bikker و Spierdijk (2008) توجه کنید: «در بسیاری از نظریههای اقتصادی، رقابت به اندازه (نسبی) > افزایش قیمت تمام شده مرتبط است. به عنوان جزئی از قیمت خروجی، اطلاعات مربوط به حاشیه قیمت-هزینه (PCM) معمولاً در بازارهای مالی موجود نیست اندازه گیری رقابت به طور غیرمستقیم > [...] این مقاله یک بررسی از معیارهای رقابت بیش از 100 > کشور بر اساس مدل **Panzar-Rosse (P-R)** را نشان می دهد درآمدهای بهره بانکها در یک کشور یا بازار به تغییرات قیمتهای نهاده واکنش نشان میدهند مدل P-R یک **آمار H** معین را تولید می کند که در شرایط خاص نشان دهنده درجه > رقابت با H=1 به رقابت کامل و H≤0 نشان دهنده > انحصار یا کارتل کامل است. محدوده ای که H 0 تا 1 است نشان دهنده رقابت انحصاری یا نوعی انحصارطلبی است. من از این آماره H در مدل رگرسیونی (OLS) خود استفاده کرده ام که در آن رفتار اجتماعی شرکت ها متغیر وابسته است (در مقیاس 0 تا 100). حدود 2500 شرکت از 30 کشور در مجموعه داده ها وجود دارد (هر کشور دارای «آمار H» است در مورد رفتار اجتماعی: *رقابت خیلی کم: به هر حال مصرف کنندگان هیچ جایگزینی ندارند، بنابراین شرکت ها انگیزه ای برای انجام مسئولیت اجتماعی ندارند. امتیازات اجتماعی پایین به این دلیل که شرکتها نمیتوانند با برنامههای اجتماعی اذیت شوند، زیرا رقابت شدید آنها را به صرفهجویی در هزینههای خود سوق میدهد تا ببینم آیا این فرضیه درست است، من ابتدا «آمار H» را وارد کردم در OLS و دوم «(آمار H)^2». در مورد اول ضریب مثبت و در مورد دوم ضریب منفی را انتظار داشتم. با این حال: H-statistic 0.150 (p<0.01) (H-statistic)^2 0.159 (p<0.01) >>> به جای -0.159 چیزی که انتظار داشتم سوال من این است: ** چگونه باید این نتیجه را تفسیر کنم؟* * به عبارت دیگر: بر اساس این نتیجه، رابطه بین رقابت در صنعت بانکداری و نمرات اجتماعی آن بانک ها را چگونه توصیف می کنید؟ | چگونه باید نتیجه OLS خود (شامل آماره H) را تفسیر کنم؟ |
108281 |  در اینجا من دو خط اول قاب داده خود را نشان داده ام. برای تعدادی از خطوط ادامه دارد. من می خواهم نقشه هایی بسازم تا نشان دهم در طول زمان چه اتفاقی می افتد. به عنوان مثال نموداری که توالی تغییرات گرفتن را در طول زمان نشان می دهد و چه کسی تغییرات P1 یا P2 را انجام می دهد. من از R استفاده می کنم، بنابراین چیزهایی که می توانم در R پیاده سازی کنم مرتبط هستند - و راهنمایی در مورد نحوه انجام این کار به ویژه مفید خواهد بود. من سعی کردم از کدهایی مانند plot(mydata$Start,mydata$Name) و stripchart(mydata$Name) استفاده کنم اما موفق نبودم. در برخی موارد من خطایی مانند خطا در stripchart.default(mydata$Name) دریافت میکنم: آرگومان اول نامعتبر است. آیا نباید یک چارچوب داده باشد؟ | چگونه این داده ها را تجسم کنیم؟ |
25355 | من یک مجموعه داده آموزشی با متغیرهای عددی و دستهای و یک متغیر کلاس دارم. من می خواهم یک مدل طبقه بندی بسازم (مانند SVM) و برای این هدف باید همه متغیرها را به قالب مناسب تبدیل کنم. من در مورد متغیرهای طبقه بندی خود گیج شده ام. بگذارید در مورد یکی از آنها مثالی بزنم. متغیر طبقه بندی شده در هر مشاهده نشان دهنده یک عبارت جستجوی گوگل است (معمولاً 3-10 کلمه جدا شده با کاما، مثال زیر را ببینید). ------------------------------------------------- ---------+---------------- search_id | **query_words (مقوله ای)** |..(متغیرهای دیگر)| متغیر کلاس ----------+------------------------------------ -----------+---------------- 1 | چگونه،به،رشد،درخت |.. | 4 2 | گوشی هوشمند,htc,خرید,قیمت |.. | 7 3 | خرید، خانه، ملک، لندن |.. | 6 4 | کجا،به،آخر هفته،سینما |.. | 4 ... | ... |.. | ... ---------------------------------------------- ------------+---------------- کلمات موجود در این متغیر طبقه بندی بی نظم هستند و همان کلمات ممکن است در مشاهدات مختلف رخ دهد (این منطقی است) . تعداد کلمات منحصر به فرد برای همه مشاهدات = چند هزار. تعداد مشاهدات: ~150.000.000 از آنجایی که این متغیر طبقه بندی شده (query_words) برای تجزیه و تحلیل طبقه بندی من بسیار مهم است، باید مدل خود را با آن آموزش دهم. سوال من این است که چگونه می توان آن را برای استفاده برای مثال SVM نشان داد. در هر مشاهده می توانم کلمات را به ترتیب حروف الفبا مرتب کنم. اگر از یک بردار عددی با چند هزار عنصر (یکی برای هر کلمه منحصر به فرد) استفاده کنم، می توانم این متغیر را برای هر مشاهده به عنوان مثال: query_words[1] = (0,0,..1,..0,..1) نشان دهم. ,..1،..0،...1،..0) # بردار بسیار بزرگ اما من باور ندارم که به طور موثر کار کند. چگونه باید این متغیر طبقه بندی را مدیریت کنم. من از R برای تجزیه و تحلیل استفاده می کنم. | ویژگی های دسته بندی چند ارزشی در R |
51999 | من یک مدل سلسله مراتبی را در JAGS اجرا می کنم. این یک مدل رگرسیون بقای ثابت تکه ای است. بنابراین من 4 مجموعه ضرایب رگرسیون و نرخ خطر پایه دارم. من میخواهم یک منحنی و محدوده میانگین را با استفاده از میانگین و 95٪ بالاترین فاصله چگالی (HDI) این پارامترها با استفاده از متغیرهای کمکی از دادههایم رسم کنم. من خروجی از CODA دارم، و فواصل حداکثر چگالی حاشیه ای را برای هر پارامتر فراهم می کند. راه صحیح برای بدست آوردن HDI مشترک برای همه پارامترها چیست؟ | خروجی کدا، کمیت مشترک |
81551 | من یک سوال در مورد تعاملات در GLM دارم. من یک رگرسیون پواسون را با هدف پیش بینی خسارت در بیمه اجرا می کنم. من مشکل زیر را دارم: مدل 1: CLAIMS ~ X1 + X2 مدل 2: CLAIMS ~ X1 + X2 + X1: X2 X1 دارای 10 سطح است، X2 دارای 4 سطح هنگامی که من یک تست انحراف (Chi Square) انجام می دهم، نتیجه من این است که مدل 2 به طور قابل توجهی در مقایسه با مدل 1 (در سطح 5٪) بهتر است. از طرف دیگر AIC مدل 2 بدتر است. (بالاتر) وقتی به تخمین پارامترهای فردی و خطای استاندارد مربوطه آنها نگاه می کنم، می بینم که فقط 3 سطح از 27 سطح X1:X2 به طور قابل توجهی با سطح پایه متفاوت است. من مطمئن نیستم که چگونه این مشاهدات را تفسیر کنم. آیا کسی می تواند به من کمک کند و چیزی در مورد آن معنادار بگوید؟ و مهمتر از آن، چگونه با آن برخورد کنیم؟ تلاش من این خواهد بود: در مدل فعل و انفعالاتی وجود دارد که معنی دار هستند، اما اکثر آنها معنی دار نیستند. این افزایش AIC را توضیح می دهد، اگرچه تست انحراف می گوید که مدل 2 بهتر است. آیا باید سعی کنم چند متغیر ساختگی برای این سه تعامل که به نظر مهم میرسند بسازم؟ (با این حال، من مطمئن نیستم که این رویکرد درستی باشد، زیرا فقط نسبت به سطح پایه قابل توجه است...) | شامل اصطلاحات تعاملی خاص |
101440 | در GEE، واریانس هر نتیجه برابر است با تابع واریانس ضرب در پارامتر مقیاس. برای یک نتیجه پیوسته تابع واریانس =1. من میدانم که پارامتر مقیاس برای یک نتیجه پیوسته همیشه در تجزیه و تحلیل GEE تخمین زده میشود، برخلاف اینکه برای یک نتیجه پویسون یا باینری روی 1 تنظیم شود. بنابراین این بدان معنی است که واریانس همیشه برابر با پارامتر مقیاس است (هنگام تخمین یک نتیجه پیوسته با GEE). آیا این درست است؟ اگر چنین است، آیا این بدان معناست که پارامتر مقیاس بالاتر بهتر از پارامتر پایین تر است؟ به عنوان مثال، پارامتر مقیاس 0.9 به این معنی است که 90٪ از واریانس توسط GEE توضیح داده شده است؟ پیشاپیش از شما متشکرم | پارامتر مقیاس را از خروجی GEEGLM در R تفسیر کنید |
113717 | من میخواهم از روش نزدیکترین همسایه حریصانه برای انجام تطبیق امتیاز تمایل استفاده کنم. اگرچه من تجربه کمی در اینجا دارم، به نظر می رسد که اندازه گیری فاصله استفاده شده به طور کلی یک امتیاز تمایل است که از یک رگرسیون لجستیک ایجاد می شود. سوال من این است: چرا رگرسیون لجستیک؟ چرا جنگل تصادفی، SVM یا روش دیگری نیست؟ آیا منطقی وجود دارد که نشان دهد این بی ثمر است؟ برنامه من در حال حاضر این است که از بسته «MatchIt» در R استفاده کنم و اندازهگیری فاصله خودم را که از پشت یک جنگل تصادفی محاسبه میشود، وارد کنم (شما میتوانید امتیاز تمایل خود را در آرگومان «فاصله» تابع «Matchit» وارد کنید). من از این واقعیت که بستههای امتیازدهی گرایش مدرن مانند PSAboot امکاناتی برای انجام این کار برای روشهای نزدیکترین همسایه ندارند، ترسیدهام. آنها از «party» و «rpart» استفاده میکنند، اما فقط برای مطابقت با استفاده از _strata_ (بهعلاوه آنها فقط از درختهای منفرد استفاده میکنند). من شیفته این هستم که روش هایی با (معمولا) قدرت پیش بینی بیشتر از رگرسیون لجستیک به نظر نمی رسد برای ایجاد یک امتیاز تمایل بهتر برای تطبیق یک به یک استفاده شود. آیا کسی وجود دارد که بتواند این موضوع را روشن کند؟ سوال مرتبط: امتیاز تمایل | تطبیق امتیاز تمایل: استفاده از روش های جایگزین برای ایجاد اندازه گیری فاصله |
53267 | من در حال تلاش برای ساخت مدل a هستم که تنها خروجی معتبر در محدوده [0,100] برای آن باشد. می خواستم بدانم که آیا می توان جریمه را در مقادیر کمتر از 0 و بیش از 100 کاهش داد زیرا به هر حال برای به دست آوردن تناسب بهتر محدود می شوند. | رگرسیون خطی چندگانه محدود |
16437 | من نمی دانم که آیا این یک سوال آماری، ریاضی یا برنامه نویسی خالص است، بنابراین لطفاً اگر جای بهتری برای ارسال این سؤال وجود دارد، به من اطلاع دهید. من سعی می کنم زمانی که گره ها دارای تحرک هستند، مدل اپیدمی SIS را پیاده سازی کنم. من می دانم که چگونه این شبیه سازی را به صورت تحلیلی انجام دهم. با این حال، وقتی گره ها متحرک هستند، همه چیز نسبتاً گیج کننده می شود. مدل فرض می کند که هر گره می تواند **هر گره** را آلوده کند و بنابراین معادلات معتبر هستند. اما وقتی گرهها متحرک هستند، هر گره **نمیتواند** هر گره دیگری را آلوده کند (گره دیگر ممکن است در محدوده نباشد) و باید به طور صریح پیامی را به گرهای که مستعد است ارسال کند تا آن را آلوده کند. در آن صورت، یک نرخ آلودگی «B» بدهید، وقتی گرهها متحرک هستند، چگونه این را شبیهسازی کنم؟ در حال حاضر، روشی که من این کار را انجام می دهم به روش زیر است: def Controller(): برای i در محدوده (1,100): randNum = getRand() if (randNum <= InfectionRate): همسایگان = getNeighbors(i) ScheduleTransmission(getCurrentTime( ), i, همسایگان) Schedule(getCurrentTime() + 1, Controller) مشکل من این است که من نیستم درک اینکه آیا اکنون میتوان میزان آلودگی را از طریق یک مقدار (که قبلاً «B» بود دریافت کرد یا خیر. اگر نه، چگونه می توان این سناریو را تحلیل کرد؟ آیا «InfectionRate» را بهعنوان «B/numNodes» تنظیم میکنم تا احتمال کلی «B» باشد؟ پیشنهادی دارید؟ **به روز رسانی: محاسبه برگشت بتا و استراتژی بهبود عفونت** def Controller(): برای i در محدوده (1,100): همسایگان = getNeighbors(i) k = len(همسایگان) برای j در همسایگان: بتا = -k log(1 -c) if (بتا <= InfectionThreshold): ScheduleTransmission(getCurrentTime()، i، j) Schedule(getCurrentTime() + 1، Controller) | مدل های اپیدمی در صورت تحرک چگونه شبیه سازی می شوند؟ |
16430 | اگر می خواهید $E[y| را تخمین بزنید x = \text{some value}]$ آیا این فقط مربوط به وصل کردن $x$ به معادله رگرسیون است؟ از آنجا که شما ضرایب رگرسیون را تخمین می زنید، بنابراین مقداری که به دست می آورید نیز یک تخمین است؟ | چگونه مقدار مورد انتظار مشروط را در یک رگرسیون تفسیر کنیم؟ |
93857 | من احساس میکنم این ایده خوبی نیست، اما تلاش میکنم دلیلی برای اشتباه بودن آن بیاندیشم، غیر از این که فرض همگن بودن واریانسها مطمئناً نقض میشود. آیا دلیل اساسی تری وجود دارد که چرا این اشتباه است؟ آیا این بستگی به تعداد شرکت کنندگان در سطوح دیگر فاکتور دارد یا به چند سطح دیگر بستگی دارد؟ | آیا انجام ANOVA مستقل یک طرفه زمانی که یکی از سطوح فقط یک شرکت کننده دارد، نامناسب است؟ |
107798 | من یک مجموعه داده دارم که شامل زمان های مختلف پاسخگویی کاربر است که از یک برنامه وب بازدید می کند. به عنوان مثال، یک بازدید کننده وارد www.test.com در مرورگر می شود و از طریق این دامنه پیمایش می کند و صفحات فرزند مانند www.test.com/news، www.test.com/overview، www.test.com/overview/current، و غیره را مشاهده می کند. اگر کاربر یک وب سایت را تماشا کند، به آن اقدام کاربر می گویند. فرض کنید یک کاربر 5 عملکرد کاربر را با زمان پاسخ 200ms، 500ms، 350ms، 1200ms، 154ms انجام داده است. اکنون میخواهم نقاط پرت را پیدا کنم که بارگذاری سریع صفحه یا بارگذاری کند صفحه را بیان میکنند. آیا این به نحوی امکان پذیر است؟ با تشکر EDIT: من می خواهم موارد پرت را شناسایی کنم زیرا می خواهم تجربه کاربر را بسته به زمان پاسخگویی تعیین کنم. فرض کنید من سه حالت ux دارم، یعنی خوشحال، خوب و ناراضی. همه اقدامات کاربر به جز موارد پرت خوب است. آنها یا ناراضی هستند اگر زمان پاسخگویی خیلی زیاد باشد یا خوشحال هستند اگر زمان پاسخگویی بسیار کم باشد. | تشخیص نقاط پرت در مجموعه داده های بسیار کوچک |
113711 | مقدار $\chi^{2}$ پیرسون 115.778 است و 4 سلول (33.33٪) تعداد مورد انتظار کمتر از 5 دارند. من گیج هستم که چگونه این خروجی را تفسیر کنم. من یک جدول احتمالی 2 در 6 دارم. کسی می تواند به من بگوید چه مشکلی پیش آمده است؟ | ارزش $\chi^{2}$ پیرسون؟ |
108286 | من آزمایش هایی را روی تشخیص گفتار مداوم انجام می دهم. پس از استفاده اولیه از شناساگر، دنباله واجی را دارم که شامل برخی خطاها است (سه نوع خطا: جایگزینی، حذف و گنجاندن). به عنوان مثال: من _h e l' l o n y k f r a n d s t_ را به جای _h e l l o m y f r i e n d s_ به دست می آورم بنابراین، وظیفه استفاده از اطلاعات مربوط به زبان (رونویسی صحیح هر کلمه، ترتیب کلمات معتبر و غیره) برای بازیابی رونویسی صحیح خراب شده از تلفن است. توسط سر و صدا من در مورد مدل های پنهان مارکوف تعجب کردم، اما نمی دانم چگونه از آن در اینجا استفاده کنم. هر ایده ای قابل تقدیر است. پیشاپیش متشکرم | مناسب ترین روش برای بازیابی رونویسی کلمات از دنباله واج با خطا چیست؟ |
21300 | توجه: من به SAS دسترسی ندارم تا خودم این مشکل را حل کنم. من سعی می کنم تفاوت بین عبارت «FREQ» در «PROC GENMOD» (به عنوان مثال) و عبارت «REPLICATE» در «PROC NLMIXED» را پیدا کنم. توضیح «SAS» تفاوت عملی ریاضی را برای من روشن نمی کند. آزمون توضیحی «REPLICATE» (پیوند مستندات در اینجا): > عبارت REPLICATE راهی برای تطبیق مدل هایی ارائه می دهد که در آنها > موضوعات مختلف داده های یکسانی دارند. این معمولا زمانی اتفاق می افتد که متغیر وابسته > باینری باشد. وقتی یک متغیر REPLICATE را مشخص میکنید، PROC > NLMIXED فرض میکند که مقدار آن نشاندهنده تعداد موضوعاتی است که دادههای > یکسان با مقادیر فعلی متغیر SUBJECT= (مشخص شده > در عبارت RANDOM) دارند. فقط آخرین مشاهده متغیر REPLICATE > برای هر موضوع استفاده می شود و متغیر replicate باید فقط مقادیر صحیح > مثبت داشته باشد. توجه داشته باشید که مکانیسم REPLICATE با > استفاده از عبارت FREQ در سایر روش های مدل سازی آماری، مانند > PROC GLM، GENMOD، GLIMMIX و LOGISTIC متفاوت است. یک متغیر FREQ برای شناسایی > مقادیر گروه بندی شده برای مشاهدات استفاده می شود، که اساساً احتمال ورود به سیستم > یا مجموع سهم مربع ها برای مشاهده را ضرب می کند. یک متغیر REPLICATE برای ضرب کردن سهم یک موضوع که شامل یک یا چند > مشاهدات است استفاده می شود. متن توضیحی «FREQ» در «PROC GENMOD» این است (پیوند مستندات در اینجا): > متغیر در عبارت FREQ متغیری را در داده های ورودی مشخص می کند > مجموعه حاوی فراوانی وقوع هر مشاهده است. PROC GENMOD > با هر مشاهداتی طوری رفتار می کند که انگار _n_ بار به نظر می رسد، جایی که _n_ مقدار > متغیر FREQ برای مشاهده است. اگر یک عدد صحیح نباشد، مقدار فرکانس > به یک عدد صحیح کوتاه می شود. اگر کمتر از 1 باشد یا وجود نداشته باشد، > از مشاهده استفاده نمی شود. در مورد مدلهایی که با معادلات تخمین تعمیمیافته (GEEs) مطابقت دارند، فرکانسها برای موضوع/خوشه > اعمال میشوند و بنابراین باید برای همه مشاهدات درون هر موضوع یکسان باشند. با فرض اینکه متغیر replicate فقط حاوی مقادیر صحیح باشد، به نظر می رسد که عبارت «REPLICATE» در «PROC NLMIXED» فقط یک عبارت «FREQ» است. اما اسناد «SAS» چیز دیگری می گوید. چه چیزی را در مورد چگونگی تأثیر دستورات بر تعداد مشاهدات استفاده شده و جریان تأثیرات به تخمین ها از دست داده ام؟ به ویژه، این موضوع چگونه بر مطالعات اندازه گیری های مکرر تأثیر می گذارد؟ به روز رسانی: آیا پاسخ به تفاوت در برخورد با درجات آزادی می تواند باشد؟ نمیدانم «SAS» چگونه از این دستورات برای کشف این موضوع برای خودم استفاده میکند. | دستور SAS RePLICATE در PROC NLMIXED چه تفاوتی با دستور FREQ دارد؟ |
53269 | من سعی می کنم یک فیلتر کالمن را در R پیاده سازی کنم. با استفاده از تحلیل سری های زمانی توسط همیلتون، معادلات فضای حالت به صورت زیر تعریف می شوند: حالت: $z(t) = F_z(t-1) + v(t)$ مشاهده: $y(t) = A'x(t) + H'z(t-1) + w(t)$ که در آن $x(t)$ متغیرهای برونزا هستند. مدلی که من سعی در پیاده سازی آن را دارم به این صورت تعریف شده است. بستههای متعددی وجود دارند که مدلهای فضای حالت را در R پیادهسازی میکنند، اما با خواندن مستندات به نظر میرسد که معادلات بهطور متفاوتی تعریف شدهاند، با $A'x(t)$ که در معادله حالت گنجانده شده است. کوتاه از نوشتن کد تخمین حداکثر احتمال، کسی راهی برای جا دادن این مدل در R می شناسد؟ به روز رسانی: به روز رسانی قبلی من حذف شد. مقاله دیگری پیدا کردم که این را به روشی بسیار واضحتر پیادهسازی میکند، پس از هضم آن بهروزرسانی میشود. به روز رسانی 2: بنابراین من مقاله دیگری پیدا کردم که چیزی شبیه به آنچه من تلاش می کنم انجام می دهد، اما برای من بسیار واضح تر است که چگونه معادلات فضای حالت را تنظیم کنم. مشکلی که اکنون با آن روبرو هستم اجرای فیلتر با استفاده از بسته dlm است. اگه کسی تجربه ای داره که کمک کنه ممنون میشم من میتوانم مدل را راهاندازی کنم و سپس فیلتر را اجرا کنم، اما فقط 2 مقدار فیلتر شده (وضعیت اولیه و t=1) بر خلاف t-values برگردانده میشود. من واقعاً نمی دانم چرا اینطور است. از اسناد dlm: مشاهده: $y= \mathbf{F}\theta + v_t$ حالت: $\theta = \mathbf{G}\theta_{t-1} +w_t$ جایی که m تعداد مشاهدات و p است تعداد پارامترها در $\mathbf{F}$ * $\mathbf{V}$ m x m * $\mathbf{G}$ است p x p * $\mathbf{W}$ p x p * $c_0$ است p x p کد نمونه: require(dlm) FMat<-cbind(rnorm(123),rnorm(123)) GMat<-diag(1,2) WMat< -diag(0.02،2) Vmat<-diag(0.02،123) m0Vec<-c(1,1) c0Vec<-diag(0.05,2) y<-rnorm(123) ssMod<-dlm(FF=FMat,V=Vmat,GG=GMat,W=WMat,m0=m0Vec, C0=c0Vec) kFilter<-dlmFilter(y,ssMod) kFilter$m > kFilter$m [,1] [,2] [1,] 1.00000000 1.00000000 [2،] -0.02417179 0.05107227 | پیاده سازی فیلتر کالمن در R |
49257 | من سه سال اطلاعات عفونت از 6 بیمارستان مختلف دارم. 2010 2011 2012 1 1.3 2.5 1.03 2 3.35 2.5 2.6 3 4.1 1.8 2.5 4 2.0 3.65 .7 5 3.4 3.75 2.4 6 1.2 2.6 3.1. (عفونت/10000 ptd). من باید اهمیت بین سال ها را تعیین کنم. کاری که من قصد انجام آن را دارم این است که یک آزمون t-paired برای سال های 2010/2011 و 2011/2012 یا یک آزمون من ویتنی U را اجرا کنم. از آنجایی که من فقط سه سال داده دارم، احساس میکنم برای مقایسه همه دادهها با ANOVA، قدرت کافی برای یافتن اهمیت وجود ندارد. آیا این معقول به نظر می رسد یا آزمایش های جایگزینی وجود دارد که می توانم انجام دهم تا بفهمم آیا بین سال ها اهمیت آماری وجود دارد؟ | تجزیه و تحلیل داده های آلودگی بین دو سال با استفاده از آزمون های پارامتریک یا ناپارامتریک؟ |
96447 | من چیزی در مورد خطای استاندارد خواندم، که می گوید میانگین نمونه تخمین دقیقی نیست، زیرا ما از جمعیت کامل با اندازه N نمونه برداری نمی کنیم. اما، اگر اندازه نمونه n = N یا از N بیشتر شود، یعنی n > N چه؟ آیا خطای استاندارد می تواند دقیق تر از انحراف معیار باشد؟ | اگر حجم نمونه بزرگتر از حجم جامعه باشد چه؟ |
21303 | من سعی می کنم منطقه رد را برای آزمایش جایگشت در مورد تفاوت بین میانه ها پیدا کنم که در آن: H0: تفاوت بین میانه ها برابر 0 است. Ha: تفاوت بین میانه ها بیشتر از 0 است. با توجه به اینکه من توزیع آمار آزمون خود را بر روی مجموعه داده های نمونه گیری مجدد دارم، چگونه می توانم مقدار بحرانی را برای آزمون پیدا کنم تا بتوانم منطقه رد را استنباط کنم؟ > sum(permstats>=obs.median)/length(permstats) #pvalue برای من کاملاً مشخص نیست چگونه می توانم ناحیه رد را با توجه به توزیع جایگشت (و شاید p-value) پیدا کنم؟ | چگونه ناحیه رد را برای تست جایگشت تعریف کنیم؟ |
61932 | من سیستمی دارم که تغییرات خاصی در آن ایجاد می کنم. من می خواهم تأثیر آن تغییرات را بر عملکرد سیستم مقایسه کنم. برای این کار، عملکرد را به عنوان تابعی از مجموعهای از ورودیها چندین بار، قبل و بعد از ایجاد تغییرات، ضبط میکنم. چگونه می توانم تأثیر این تغییرات را با توجه به اینکه تأثیرات محیطی تصادفی همیشه بر روی سیستم اعمال می شود، کمیت کنم؟ من معتقدم که این یک مشکل عمومی در آمار است و ANOVA، Student's t-test و K-S را خوانده ام. با این حال، هنگام تصمیم گیری در مورد یک روش، چه ملاحظاتی باید در نظر گرفته شود؟ فرض توزیع نرمال وجود ندارد، بنابراین به نظر می رسد که آزمون K-S بهترین راه حل باشد. آیا می توانید منبعی را به من معرفی کنید که این دسته از مشکلات را مورد بحث قرار دهد؟ من با توضیحات تکه تکه ای که تاکنون در اینترنت پیدا کرده ام، بسیار گیج شده ام. | مقایسه چندین مجموعه داده از یک آزمایش کنترل شده |
56967 | من یک طرح آزمایشی اندازهگیریهای مکرر (زمان 1، زمان 2) دارم و میخواهم یک تحلیل عاملی تأییدی بر روی مقیاسهایی که استفاده کردهام اجرا کنم و با آلفای کرونباخ پیگیری کنم. با این حال، مطمئن نیستم که باید تجزیه و تحلیل ها را در زمان 1 یا زمان 2 اجرا کنم. هر توصیه ای؟ | آلفای کرونباخ و تحلیل عاملی برای طراحی اندازهگیریهای مکرر |
61930 | من یک بازخوانی پر سر و صدا از یک منحنی دارم که برای محدوده باریکی از نقاط به طور یکنواخت افزایش یا کاهش می یابد و سپس به سرعت اشباع می شود. من دقیقاً نمیدانم نقطه اشباع کجاست، اما از طریق فرآیند زیربنایی (بیولوژیکی) میدانم که وجود دارد و پس از رسیدن به آن، انحرافات شدید از یک خط صاف به احتمال زیاد پرت هستند. من به دنبال بهترین راه برای صاف کردن این داده ها هستم. چیزی شبیه به این (داده ها در واقع برای سری های زمانی نیستند، اما قیاس خوبی هستند):  تا کنون سعی کردهام از این موارد استفاده کنم: * فیلتر Hampel * رگرسیون لس (از جمله نسخه قوی آن، Family=symmetric در R) * ترکیبی از هر دو مشکل با لس این است که از آنجایی که بیت غیراشباع بسیار کوچک است، لس تمایل دارد که آن را کمتر کند و خط روند را به سمت نقطه اشباع به سمت بالا یا پایین کشیدن کند. مشکل فیلتر هامپل این است که اگرچه در فیلتر کردن نقاط پرت قوی کار می کند، اما برای صاف کردن آن، یعنی صیقل دادن انحرافات کوچک از خط روند، چندان عالی نیست. به نظر می رسد بهترین کار این باشد که نقطه اشباع را پیدا کنید و سپس دو مدل جداگانه قبل و پس از آن را در نظر بگیرید. این کار بدون نویز ساده خواهد بود، اما من مطمئن نیستم که چگونه آن را در یک محیط پر سر و صدا انجام دهم. من همچنین آماده هرگونه پیشنهاد دیگری هستم. این بخشی از یک پروژه بزرگ در R است، بنابراین اگر یک الگوریتم پیشنهادی پیادهسازی R داشته باشد، بسیار عالی خواهد بود. | الگوریتم هموارسازی برای تابع اشباع |
96440 | اگر از لایه های مخفی بیش از حد در شبکه عصبی استفاده کنیم مشکلی وجود دارد؟ آیا کسی می تواند به سادگی توضیح دهد که اگر لایه های پنهان بیش از حد داشته باشیم چه مشکلاتی ممکن است رخ دهد. | مشکلات بسیاری از لایه های پنهان چیست؟ |
5831 | من فکر می کنم منصفانه است که بگوییم آمار یک علم کاربردی است، بنابراین وقتی میانگین ها و انحرافات استاندارد محاسبه می شود به این دلیل است که کسی به دنبال تصمیم گیری بر اساس آن اعداد است. بخشی از یک آماردان خوب بودن، امیدوارم بتوانیم حس کنیم که چه زمانی می توان به داده های نمونه اعتماد کرد و زمانی که برخی از آزمون های آماری به طور کامل داده های واقعی مورد علاقه ما را نادرست نشان می دهد. برنامه نویسی که به تجزیه و تحلیل علاقه مند است. مجموعههای کلان دادهها من در حال یادگیری مجدد برخی از آمار و نظریه احتمال هستم، اما نمیتوانم از این احساس آزاردهنده خلاص شوم که همه کتابهایی که نگاه کردهام به نوعی شبیه به سیاستمدارانی هستند که از آنها سر در میآورند. مرحله و یک سری چیزها را بگویید و سپس سلب مسئولیت زیر را در پایان صحبت های خود اضافه کنید > حالا نمی گویم این خوب است یا بد اما اعداد می گویند خوب است > به هر حال باید به من رای دهید. شاید شما آن را دریافت کنید، اما ممکن است شما این را نداشته باشید، این یک سوال است. کجا بروم تا داستان های جنگی توسط آماردان ها را پیدا کنم که برخی از تصمیمات بر اساس برخی اطلاعات آماری است که بعداً معلوم شد کاملاً اشتباه بوده است؟ | آمار، داستان های جنگ، شهود داده ها |
10621 | من علاقه مند به برازش یک مدل رگرسیون پواسون شرطی با استفاده از PROC GENMOD در SAS برای تجزیه و تحلیل یک مطالعه کوهورت همسان هستم. با این حال، برای من کاملاً روشن نیست که دقیقاً چگونه باید این کار را انجام دهم. تصور من این است که عبارت REPEATED باید همراه با نحو رویدادها/آزمایی ها استفاده شود، اما اگر چنین است، چگونه متغیرهای کمکی پیوسته در مدل، مانند سن، محاسبه می شود؟ اگر کسی راهنمایی داشته باشد بسیار سپاسگزار خواهم بود. تا اینجا گوگل و اینترنت من را ناامید کرده اند. به سلامتی | چگونه یک رگرسیون شرطی پواسون در SAS مناسب است؟ |
53262 | آیا مقاله تحقیقاتی یادگیری ماشین/ دادهکاوی وجود دارد که به پیشبینی عملکرد دو تیم شامل هر یک از بازیکنان x$ میپردازد؟ | پیش بینی عملکرد تیم |
78621 | من یک مشکل رگرسیون پراکنده دارم (Sparse زیرا چند ورودی فاکتور هستند بنابراین ما تعداد زیادی ستون 1 و 0 داریم). من به رگرسیون ریج به دلیل پراکندگی فکر می کنم، اما همچنین به این دلیل که بسیاری از اصطلاحات اثرات متقابل خواهند داشت. من یک مدل قابل تفسیر هم می خواهم. آیا راهی برای استفاده از پنالتی ریج برای طبقه بندی کننده رگرسیون خطی وجود دارد؟ اگر نه، آیا یادگیرنده پایه ای وجود دارد که به من اجازه دهد اثرات تعاملی را اضافه کنم و همچنان به یک راه حل پراکنده منجر شود. | چگونه از رگرسیون ریج برای طبقه بندی استفاده کنیم؟ (یا پیشنهادات دیگر) |
107795 | فرض کنید متغیری را با استفاده از یک توزیع نرمال با میانگین 10 و sd 5 نسبت می دهید. آیا بهتر است 1000 نمونه تصادفی از این توزیع نرمال رسم کنید، میانگین را بگیرید و سپس از آن برای نسبت دادن این مقدار از دست رفته استفاده کنید؟ یا می توانم فقط یک قرعه کشی از این توزیع بگیرم و از آن به عنوان مقدار برای منتسب کردن داده های از دست رفته استفاده کنم؟ | نسبت و توزیع |
113715 | من یک مجموعه داده ساده از قد افراد دارم، بسیاری از افراد با اندازه گیری در چند روز (مثلاً یک بار در سال به مدت 10 سال). من تاریخ هر اندازه گیری را دارم. برخی از مقادیر ارتفاع پوچ هستند. من قبلاً مقادیری را که غیرممکن هستند (مثلاً مقادیر ارتفاع بالای 3 متر) حذف می کنم. با این حال، من می خواهم مقادیر غیرعادی را در یک بیمار شناسایی کنم. اگر یک بیمار 5 رکورد در حدود 1.8 متر داشته باشد، اگر مقداری برای 2.1 متر باشد، من یک پرچم قرمز می خواهم. قبل از شروع ایده های بهتری هستند. با تشکر ویرایش: آزمون ESD که من به آن اشاره میکنم، آزمون [[Generalized] 'Extreme Studentized Deviate'][1] است. مشابه تست گرابز، برای تشخیص یک یا چند نقطه پرت در یک مجموعه داده تک متغیره که از توزیع تقریباً نرمال پیروی می کند استفاده می شود. من برای بیش از 100000 نفر اندازه گیری خواهم داشت - با این حال، هر فرد فقط بین 0 تا 20 اندازه گیری خواهد داشت. امیدوارم بتوانم این را به اندازهگیریهای دیگری مانند BMI، آزمایشهای آزمایشگاهی (ائوزینوفیلها، شمارش سفید خون)، آزمایشهای تنفسی (FEV1) و غیره تعمیم دهم. فکر میکنم اندازهگیریهای دومی دشوار خواهند بود، زیرا متنوعتر هستند، افزایش و کاهش مییابند. با کمی وابستگی به زمان - از این رو من با قد شروع کردم! | شناسایی نقاط پرت برای داده های عددی درون بیمار |
49259 | نویسنده ای اندازه افکت را گزارش نکرده است، بنابراین امیدوارم بتوانید در محاسبه آن به من کمک کنید. می دانم که میانگین ها عبارتند از: شرط 1: 326 شرط 2: 558 حجم نمونه: Cond1: 11 Cond2: 12 T-test مقدار p: 0.04 | تعیین اندازه اثر با مقدار P برای آزمون t، میانگین نمونه و اندازه نمونه |
56966 | آیا برای یک گروه شغلی آینده نگر که در آن همه در معرض یک یا چند عامل شیمیایی قرار دارند، BMI در زمان پیگیری در مقایسه با مواجهه با مواد شیمیایی خاص در ابتدا بررسی می شود، آیا کنترل BMI پایه ضروری است؟ آیا بهتر است تغییر در BMI را مدل کنیم یا BMI در پیگیری؟ هیچ گروهی وجود ندارد که در معرض دید قرار نگرفته باشند -- فقط اعضای گروهی که در معرض برخی از عوامل در مقابل دیگران قرار نگرفته اند. همه تحلیل ها درون گروهی هستند. | BMI در ابتدا و پیگیری با قرار گرفتن در معرض در ابتدا. تغییر مدل یا BMI در FUP؟ کنترل برای BMI پایه؟ |
71934 | من با مفهوم آستانه گذاری یک ماتریس واریانس-کوواریانس جدید هستم و در درک فرآیند دقیق مشکل دارم. من بیکل و لوینا (2008) را در انتخاب آستانه سخت دنبال می کنم. چیزی که من را آزار می دهد معادله شماره آنها (3) برای عملگر آستانه است: $$ T_{s}(M) = [m_{ij}1(|m_{ij}| \ge s)] $$ تفسیر من از آن معادله این است که عملیات آستانه برای عناصر مورب ماتریس $M$ اعمال می شود. این برای من زیاد منطقی نیست. در یک ماتریس واریانس کوواریانس، مطمئن نیستم که چرا بخواهید هر یک از واریانس ها را برابر با صفر قرار دهید. برای صریح، سؤالات من این است: * آیا عملگر آستانه برای عناصر مورب اعمال می شود؟ * اگر عملگر آستانه را فقط برای عناصر خارج از مورب اعمال کنم، به تخمین بدی از ماتریس واریانس-کوواریانس منجر میشود؟ زمینه ای که مشکل من پیش می آید این است که من یک مدل پروبیت را با رگرسیون های درون زا از طریق روش تعمیم یافته لحظات به دنبال وایلد (2008) تخمین می زنم. من تعداد زیادی رگرسیون دارم و تعدادی از آنها متغیرهای شاخص هستند. با برخی از مشخصات مدل، ماتریس واریانس کوواریانس منفرد است که یک مشکل را ارائه می دهد. من برای همه راه حل ها باز هستم، اما راه حلی که در مورد آن خواندم، این عملیات آستانه گذاری است. میخواهم اشاره کنم که میخواهم تخمین یک مدل پروبیت درونزا را از طریق GMM در یک بسته R قرار دهم. من واقعاً از هرگونه کمکی برای قوی و مفید بودن آن برای جامعه آماری/اقتصادسنجی سپاسگزارم. | آستانه سخت یک ماتریس کوواریانس |
22961 | آیا روشی برای تصحیح سوگیری در مدل خطر متناسب کاکس ناشی از نمونه انتخابی غیرتصادفی (چیزی مانند تصحیح هکمن) وجود دارد؟ **زمینه**: فرض کنید وضعیت به این صورت است: \- در دو سال اول همه مشتریان پذیرفته می شوند. \- بعد از این دو سال یک مدل Cox PH ساخته می شود. مدل پیش بینی می کند که مشتریان چه مدت از خدمات ما استفاده خواهند کرد. \- با توجه به سیاست شرکت از این پس فقط مشتریان با احتمال بقای 3 ماه بیشتر از 0.5 پذیرفته می شوند و بقیه رد می شوند. \- بعد از دو سال دیگر باید یک مدل جدید ساخته شود. مشکل این است که ما فقط برای مشتریان پذیرفته شده هدف داریم و استفاده از این مشتریان ممکن است باعث سوگیری جدی شود. | مدل خطر متناسب کاکس و نمونه غیرتصادفی انتخاب شده |
56962 | طمع به همه من مجموعه داده ای را در اختیار دارم که می توانید در اینجا پیدا کنید، حاوی بسیاری از ویژگی های مختلف خانه های مختلف، از جمله نوع گرمایش آنها، یا تعداد بزرگسالان و کودکان ساکن در خانه. در کل حدود 500 رکورد وجود دارد. من می خواهم از الگوریتمی استفاده کنم که بتوان با استفاده از مجموعه داده بالا آموزش داد تا بتوانم مصرف برق خانه ای را که در مجموعه نیست پیش بینی کنم. من هر الگوریتم یادگیری ماشین ممکن را (با استفاده از weka) (رگرسیون خطی، SVM و غیره) امتحان کردهام. با این حال من حدود 350 میانگین خطای مطلق داشتم که خوب نیست. سعی کردم داده هایم را از 0 تا 1 بگیرم یا برخی از ویژگی ها را حذف کنم. من نتوانستم نتایج خوبی پیدا کنم. من هم سعی کردم از ابزار R استفاده کنم و نتیجه خوبی هم نداشتم...خیلی ممنون میشم اگه یکی راهنماییم کنه یا کمی دیتاست رو بررسی کنه و چند الگوریتم روی اون اجرا کنه. از چه نوع پیش پردازشی و چه نوع الگوریتمی باید استفاده کنم؟ | تخمین انرژی از طریق یادگیری ماشینی |
54568 | فرض کنید نقاط داده پایه $m$ و نقاط داده پس از خط پایه $n$ داریم که در آن $m < n$ است. این برای یک موضوع است. آیا می توان یک آزمون t زوجی روی این داده ها انجام داد حتی اگر $m+n$ فرد باشد؟ آیا می توانیم داده هایی را که جفت نشده اند دور بریزیم و آزمایش را انجام دهیم؟ برای مثال، فرض کنید دادههای پایه $(1،2،3)$ و دادههای پس از خط مبنا برای یک موضوع $(6،7،8،9،10)$ باشد. سپس می توانیم جفت های $(1,6)$, $(2,7)$ و $(3,8)$ را تشکیل دهیم. 9 دلار و 10 دلار دور ریخته می شوند. حدس میزنم اگر $m$ خیلی بزرگتر از $n$ نباشد، باز هم میتوانیم تست t زوجی را بدون افت توان انجام دهیم؟ یا شاید برخی از دادهها را در نظر بگیرید؟ | تفاوت های زوجی آزمون های تی برای تعداد فرد مشاهدات |
22964 | من مجموعه داده ای دارم که به این شکل است: id start end score1 score2 [...] LmjF.31 280000 290000 . . LmjF.31 290000 300000 . 2686 LmjF.31 300000 310000 . . LmjF.31 310000 320000 . 74 LmjF.31 320000 330000 . 1897 LmjF.31 330000 340000 . 4116 LmjF.31 340000 350000 705 3156 LmjF.31 350000 360000 663 4145 LmjF.31 360000 370000 170 414F.31 [...] 1150000 2284 2751 LmjF.34 1150000 1160000 . . LmjF.34 1160000 1170000 . . LmjF.34 1170000 1180000 572 . [...] (dot=`.` یعنی امتیاز 0 است) من می خواهم مناطقی را برای هر «id» رتبه بندی کنم که همبستگی بین امتیاز 1 و امتیاز 2 بالاترین است. ستونهای دوم و سوم موقعیتهای شروع و پایان برای پنجرههای کشویی هستند که در حداقل اندازه آنها میتواند اندازه 1 باشد، اما با پنجرههای کوچکتر، تعداد کمتری از آنها در هر دو امتیاز غیر صفر هستند، بنابراین من از پنجرههای بزرگتر استفاده میکنم. . از آنجایی که این پنجرهها در کروموزومهای مختلف برای دو گونه مختلف، همبستگیهای «نمره ۱» و «نمره ۲» که همپوشانی ندارند اما نزدیک به هم هستند همچنان مرتبط هستند، اما اگر به طور جزئی یا کامل همپوشانی داشته باشند، حتی بهتر است. به همین دلیل است که اندازه پنجره کشویی نسبی است، زیرا من می خواهم از روشی استفاده کنم که مواردی مانند موارد LmjF.31 start=340000 to end=370000 را در نظر می گیرد که در آن سه ردیف متوالی با امتیاز بزرگتر از 0 وجود دارد. پیشنهادی دارید؟ | یافتن پنجره هایی با همبستگی بالا در بین مختصات در R |
49251 | اگر پارامترهای یک مدل رگرسیون لجستیک و همچنین خود مدل قابل توجه است، اما آزمون خوب بودن برازش نشان میدهد که مدل بد است (یعنی مقادیر P انحراف و غیره کم هستند) چه باید کرد؟ | مدل رگرسیون لجستیک معنی دار اما برازش ضعیف |
78628 | فرض کنید من یک متغیر توزیع شده گاوسی متغییر $u\sim\mathcal{N}(\mu,\Sigma)$ دارم، که در آن $\Sigma$ یک ماتریس متراکم است. من می خواهم انتظار $f(u_i)$ را محاسبه کنم. آیا $$E(f(u_i))=\int f(u_i)\mathcal{N}(u_i|\mu_i,\Sigma_{ii})\,du_i$$ اگر چنین است یک اثبات ساده ارائه دهید؟ همچنین آیا این برای سایر توزیع های چند متغیره صدق می کند؟ به عنوان مثال T چند متغیره. در غیر این صورت باید در نظر بگیرم که $$E(f(u_i))=\int f(u_i)P(u_i|u_{\backslash i})\,du_i \,P(u_{\backslash i} )\,du_{\backslash i}$$ جایی که، $u_{\backslash i}$ متغیر $u$ را بدون بعد i-ام نشان میدهد. به کنار: در مورد خاص من $f(u_i)=\exp(-u_i)$، با این حال من بیشتر نگران حالت کلی هستم. | آیا انتظار متغیر تک متغیره به چند متغیره وابسته است؟ |
108647 | برای پاسخ به سوال تحقیقم، من علاقه مند به همبستگی بین شیب های تصادفی و برش های تصادفی در یک مدل چند سطحی هستم که با استفاده از کتابخانه R lme4 تخمین زده شده است. دادههای من عبارتند از: Y (نمرات آزمون دانشآموزان)، SES (وضعیت اجتماعی-اقتصادی برای هر دانشآموز) و دانشآموز (ID برای هر مدرسه). من از نحو زیر برای تخمین فاصله ها و شیب های تصادفی برای مدارس استفاده می کنم: library(lme4) model3 <- lmer(Y ~ SES + (1 + SES | schoolid)) مرجعی که برای این نحو استفاده کردم این pdf است: http: //www.bristol.ac.uk/cmm/learning/module-samples/5-concepts-sample.pdf در صفحه 19، یک تحلیل مشابه شرح داده شده است. گفته می شود که با تعریف بریدگی ها و شیب های تصادفی با هم، به طور غیر مستقیم مشخص می شود که می خواهیم بریدگی ها و شیب های تصادفی همواری شوند. بنابراین، همبستگی بین شیبهای تصادفی و بریدگیهای تصادفی برآورد میشود. اساساً دقیقاً همان چیزی است که من برای پاسخ به فرضیه تحقیق خود نیاز دارم. با این حال، وقتی به نتایج نگاه میکنم: summary(model3) خروجی زیر را دریافت میکنم: مدل ترکیبی خطی متناسب با REML ['lmerMod'] فرمول: Y ~ SES + (1 + SES | schoolid) معیار REML در همگرایی: 8256.4 باقیمانده های مقیاس شده: حداقل 1Q Median 3Q Max -3.1054 -0.6633 -0.0028 0.6810 3.5606 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr schoolid (Intercept) 0.6427924 0.80174 SES 0.0009143 0.03024 1.00 Residual 0.3290902 0.57366 تعداد obs: 4376، گروهها: schoolid، 179 Stimated effect. مقدار خطای t (Intercept) -0.036532 0.060582 -0.603 SES 0.062491 0.009984 6.259 همبستگی اثرات ثابت: (Intr) SES 0.226 همانطور که در خروجی بیان شد، همبستگی بین 0.0.1 برابر است. باورش برایم سخت است. وقتی R: VarCorr(model3)$schoolid را فراخوانی میکنم، خروجی زیر را دریافت میکنم که همبستگی و ماتریس کوواریانس را نشان میدهد: (Intercept) SES (Intercept) 0.64279243 0.0242429680 SES 0.02424297 0.02424297 0.02424297 0.024297 0.025 0.025d9 0.00d, 0.000, 0.00, 0.00, 0.00, 14.00, 0.000. (Intercept) SES 0.80174337 0.03023782 attr(correlation) (Intercept) SES (Intercept) 1 1 SES 1 1 به نظر می رسد که همبستگی بین شیب ها و بریدگی ها توسط R روی 1.00 تنظیم شده است. من این را در خروجی هر شخص دیگری زمانی که من در اینترنت در مورد مراجع مدل سازی چند سطحی جستجو می کردم. کسی میدونه دلیل این همبستگی چی میتونه باشه؟ آیا ممکن است همبستگی روی 1.00 تنظیم شود زیرا در غیر این صورت مدل شناسایی نمی شود؟ یا به این دلیل است که واریانس شیب های تصادفی آنقدر کوچک است (0009/0) که نمی توان همبستگی را تخمین زد؟ من سعی کرده ام داده ها را شبیه سازی کنم تا کد یک مجموعه داده کوچک قابل تکرار را ارائه کنم. با این حال من هنوز نتوانستم این خروجی را با استفاده از داده های شبیه سازی شده بازتولید کنم. تا جایی که من کد داشته باشم، پست خود را ویرایش می کنم و کد را اضافه می کنم. ویرایش: در پاسخ به نظر رومن لوشتریک، طرح زیر: ggplot(data[1:261,]، aes(x = SES، y = Y)) + geom_point() + facet_wrap(~ schoolid) + geom_smooth(روش =lm) از آنجایی که در مجموع 179 مدرسه وجود دارد، طرح کاملاً آشفته می شود، بنابراین من 10 مدرسه اول را فقط برای ایجاد آن وارد کردم. قابل خواندن:  | تخمین همبستگی بین شیب های تصادفی و قطع های تصادفی با استفاده از بسته lme4 در R |
78558 | من خوانده ام که مساحت زیر منحنی ROC معادل نمره U Mann-Whitney است. آیا نمره AUC چند کلاسه (که میانگین نمرات AUC برای جفت کلاس ها را نشان می دهد) با آمار آزمون Kruskal-Wallis مرتبط است؟ | AUC معادل یک امتیاز U Mann-Whitney است، آیا AUC چند کلاسه اولیه مربوط به آمار آزمون Kruskal-Wallis است؟ |
105521 | چگونه ژنراتورها را در Minitab 16 تعریف کنم؟ من یک طرح آزمایشی (DOE) با 5 فاکتور و 2 ژنراتور دارم. من در جعبه ژنراتورها D=ABC E=AC را وارد کردم اما فقط از F تا G می گوید؟ | چگونه ژنراتورها را در Minitab تعریف کنم |
63573 | میخواهم بدانم آیا روشهای پیشبینی معمولی برای دادههای شمارش، در مجموعه دادهای خاص که حاوی چندین صفر است، اعمال میشود؟ من مجموعه دادهای دارم که میزان استفاده از یک سرویس را به صورت ساعتی محاسبه میکند و میخواهم بر اساس دادههای تاریخی، ساعتی را که قرار است در آن سرویس استفاده شود، پیشبینی کنم. همچنین، می خواهم بدانم که آیا اصطلاح صحیح کاری که می خواهم انجام دهم، پیش بینی است یا پیش بینی؟ | پیش بینی/پیش بینی داده های شمارش |
63576 | کمک شما در مورد سوال زیر قابل تقدیر است. با تشکر میدانم که آزمون t زوجی برای همان گروهی از افراد است که تستهای پیش و پس آزمون خود را آزمایش کنند و ببینند که آیا بین آزمونهای پیش و پس آزمون خود سود قابل توجهی دارند یا خیر. اگر درمان پیشرونده باشد، آیا میتوانم از همان افراد برای جمعآوری دادهها در طول زمان استفاده کنم و آزمایش t نمونهای زوجی را با هم انجام دهم، زیرا حجم نمونه بسیار کوچک است (فقط 6 نفر)؟ سال 1: درمان 1 با آزمایشات پیش و پس از 3 نفر (ABC) سال 2: درمان 2 (بهبود درمان 1) با همان 3 نفر (ABC) آزمایشات قبل و بعد از آن سال 3: درمان 2 (بهبود درمان 1) با سه نفر دیگر (DEF) آزمون های پیش آگهی پست تبلیغاتی در این مورد، آیا می توانم آزمون t زوجی را برای 9 نقطه داده اجرا کنم؟ (3 نقطه داده [ABC] از سال 1، 3 نقطه داده [ABC] از سال 2، و 3 نقطه داده [DEF] از سال 3) و سپس اثر درمان 1 را به طور کلی گزارش کنید (زیرا درمان 2 بر اساس بهبود درمان 1)؟ می دانم که برخی ممکن است استدلال کنند که من از همان افراد دو بار در سال 1 و سال 2 استفاده می کنم (ABC). بنابراین، اگرچه ممکن است آنها برای پیش آزمون در سال دوم نمره بالاتری کسب کنند، اما انتظار داریم که برای پس آزمون نیز نمره بالاتری کسب کنند. یعنی ما انتظار داریم که ABC در هر دو سال اول و دوم یک سود داشته باشد. بینش و توصیه های شما بسیار قابل تقدیر است. مراجع نیز بسیار قدردانی می شوند. | سوالی در مورد آزمون t نمونه زوجی؟ |
58661 | اگر 10 دقت طبقهبندی برای 3 پارامتر مختلف داشته باشم و یک تست ANOVA انجام دهم که $F=1.19$ و $\text{Prob>F}$0.3201$ را به دست میدهد. مقدار پارامتر تعداد ویژگی ها را نشان می دهد. آیا این بدان معناست که هیچ یک از 3 مقدار پارامتر نتیجه متفاوتی نسبت به دیگری ندارد؟ مهمتر از آن، چگونه می توانم انتخاب یک مقدار پارامتر بر دیگری را توجیه کنم؟ موضوع این است که با 3 ویژگی دقت 96% را بدست میآورم در حالی که با 2 و 4 ویژگی به ترتیب 92% و 88% میگیرم. از این رو، من می خواهم استفاده از 3 ویژگی را به جای 2 توجیه کنم. | عدم قطعیت ANOVA |
49258 | در [1]، شرودولف الگوریتمی را برای به روز رسانی وزن $w$ و برخی متغیرهای کمکی $p$ و $v$ با توجه به یک گرادیان برداری $g$ و یک بردار دیگر $Cv$ ارائه می دهد. قوانین به روز رسانی سعی می کند آن را به گونه ای انجام دهد که v به $C^{-1}g$ می رود که در آن $C$ می تواند، به عنوان مثال، Hessian باشد. $Cv$ برداری مانند $g$ است که به الگوریتم ارسال می شود. قوانین بهروزرسانی عبارتند از: \begin{align}\DeclareMathOperator{\diag}{diag} \DeclareMathOperator{\max}{max} w_{t+1} &= w_t - \diag(p_t)g \\\ p_t &= \diag(p_{t-1})\max\left(\frac12, 1 + \mu\diag(v)g\right) \\\ v_{t+1} &= \lambda v_t + \diag(p_t) (g - \lambda Cv_t) \end{align} که در آن $\mu$ و $\lambda$ ثابت هستند. چگونه این قوانین بهروزرسانی را تغییر میدهید تا کاربرد آموزش بتواند با 0 $ \le u$ وزن شود، به طوری که شبیه به آموزش $u$ بار با الگوریتم اصلاحنشده باشد. اولین تلاش من جایگزینی $g$ با $ug$ و جایگزینی $\lambda$ با $\lambda^u$ بود. من به دنبال بینش هستم. [1]: Schraudolph, N. N. (2002). محصولات ماتریس-بردار انحنای سریع برای نزول گرادیان مرتبه دوم. محاسبات عصبی، 14 (7)، 1723-38. | اصلاح متانزول تصادفی برای وزن متغیر |
89204 | من به دنبال مشاوره در مورد چگونگی تجزیه و تحلیل داده های نظرسنجی پیچیده با مدل های چند سطحی در R هستم. من از بسته نظرسنجی برای وزن کردن احتمالات نابرابر انتخاب در مدل های یک سطحی استفاده کرده ام، اما این بسته دارای توابع برای چند سطح نیست. مدل سازی بسته «lme4» برای مدلسازی چند سطحی عالی است، اما راهی وجود ندارد که بتوانم وزنها را در سطوح مختلف خوشهبندی لحاظ کنم. آسپاروهوف (2006) این مسئله را مطرح می کند: > مدل های چند سطحی اغلب برای تجزیه و تحلیل داده های نمونه گیری خوشه ای > طرح ها استفاده می شوند. با این حال، چنین طرحهای نمونهگیری اغلب از احتمال نابرابر انتخاب در سطح خوشهای و در سطح فردی استفاده میکنند. وزن های نمونه > در یک یا هر دو سطح برای منعکس کردن این احتمالات تخصیص داده می شود. اگر وزنهای نمونهگیری در هر دو سطح نادیده گرفته شود، تخمینهای پارامتر میتواند بهطور قابلتوجهی مغرضانه باشد. یک رویکرد برای مدلهای دو سطحی تخمینگر شبه حداکثر درستنمایی چندسطحی (MPML) است که در MPLUS پیادهسازی شده است (Asparouhov و همکاران، ?). کارل (2009) بستههای نرمافزاری اصلی را بررسی میکند و چند توصیه در مورد نحوه ادامه کار ارائه میکند: > برای اجرای صحیح MLM با دادههای نظرسنجی پیچیده و وزنهای طراحی، > تحلیلگران به نرمافزاری نیاز دارند که بتواند وزنهای مقیاسبندی شده خارج از برنامه را شامل شود و شامل «جدید» باشد. وزنه های مقیاس شده بدون برنامه خودکار > اصلاح. در حال حاضر، سه تا از برنامه های اصلی نرم افزار MLM این اجازه را می دهند: Mplus (5.2)، MLwiN (2.02)، و GLLAMM. متأسفانه، نه HLM و نه SAS نمی توانند این کار را انجام دهند. وست و گالکی (2013) مروری به روزتر ارائه می دهند، و من متن مربوطه را به طور کامل نقل می کنم: > گاهی اوقات، تحلیلگران مایلند LMM ها را برای بررسی مجموعه داده های جمع آوری شده از > نمونه هایی با طرح های پیچیده تطبیق دهند (به Heeringa و همکاران، 2010 مراجعه کنید، فصل 12). طرح های پیچیده > نمونه به طور کلی با تقسیم جمعیت > به طبقات، انتخاب چند مرحله ای از خوشه های افراد از داخل > طبقات، و احتمال نابرابر انتخاب برای هر دو گروه و > افراد نهایی نمونه مشخص می شود. این احتمالات نابرابر انتخاب به طور کلی منجر به ساخت وزنهای نمونهگیری برای افراد میشود، که تخمین بیطرفانه پارامترهای توصیفی را هنگام گنجاندن در تجزیه و تحلیل تضمین میکند. این وزنها ممکن است بیشتر برای بررسی > عدم پاسخ تنظیم شوند و به مجموع جمعیت شناخته شده کالیبره شوند. به طور سنتی، تحلیلگران ممکن است یک رویکرد مبتنی بر طراحی را برای ترکیب این ویژگیهای نمونهگیری پیچیده در هنگام تخمین مدلهای رگرسیون در نظر بگیرند (Heeringa و همکاران، 2010). اخیراً، آماردانان شروع به کاوش رویکردهای مبتنی بر مدل برای تجزیه و تحلیل این دادهها کردهاند و از LMMs برای ترکیب اثرات ثابت لایههای نمونهگیری و اثرات تصادفی خوشههای نمونهگیری شده استفاده میکنند. مشکل اصلی توسعه رویکردهای مبتنی بر مدل برای تجزیه و تحلیل این دادهها، انتخاب روشهای مناسب برای ترکیب وزنهای نمونه بوده است (برای خلاصهای از مسائل به گلمن، 2007 مراجعه کنید). > Pfeffermann و همکاران. (1998)، آسپاروهوف و موتن (2006)، و Rabe-Hesketh > و Skrondal (2006) نظریه ای را برای تخمین مدل های چند سطحی به گونه ای توسعه داده اند که وزن های بررسی را در بر می گیرد، و Rabe-Hesketh و Skrondal > (2006)، Carle. (2009) و هیرینگا و همکاران. (2010، فصل 12) برنامه های کاربردی را با استفاده از روش های نرم افزاری فعلی ارائه کرده اند، اما این همچنان یک منطقه فعال تحقیقاتی آماری است. رویههای نرمافزاری که میتوانند LMM را برازش کنند در مراحل مختلف پیادهسازی رویکردهایی هستند که تاکنون در ادبیات برای ترکیب ویژگیهای طراحی پیچیده پیشنهاد شدهاند، و تحلیلگران باید این را در هنگام تطبیق LMMها با دادههای پیمایش نمونه پیچیده در نظر بگیرند. تحلیلگرانی که علاقه مند به تطبیق LMM ها با داده های جمع آوری شده > از نظرسنجی های نمونه پیچیده هستند، جذب رویه هایی می شوند که می توانند وزن های نظرسنجی را به درستی در روش های تخمین ادغام کنند > (HLM، MLwiN، Mplus، xtmixed، و gllamm)، مطابق با حال. > ادبیات در این زمینه. این من را به سوال من میرساند: آیا کسی بهترین توصیههای عملی را برای تطبیق LMM به دادههای نظرسنجی پیچیده در R دارد؟ | برازش مدل های چند سطحی به داده های پیمایش پیچیده در R |
81617 | عنوان ممکن است برای چیزی که من به دنبال آن هستم کاملاً دقیق نباشد. من رشد یک جدول پایگاه داده را در طول زمان اندازه گیری می کنم تا تخمین بزنم که در آینده به چه مقدار دیسک نیاز خواهم داشت. حدس میزنم فقط با یک جدول میتوانم از رگرسیون خطی برای تخمین خود استفاده کنم و با اندازهگیریهای بیشتر دقیقتر میشوم. با این حال، مسئله این است که پایگاه داده مورد بحث چند مستاجر است. مشتریان از کاربران بسیار مکرر تا کاربران بسیار نادر متغیر هستند و هر کاربر جدول مخصوص به خود را دارد. استفاده مکررتر برابر با رشد بیشتر در طول زمان است. با توجه به این موضوع، چگونه می توانم حدس دقیقی از رشد داشته باشم؟ در درک من، کاربران نادر داده ها را منحرف می کنند، و بالعکس برای کاربران مکرر. نمیدانم چگونه میتوانم کاربران را خوشهبندی کنم، زیرا ممکن است در اندازهگیری ۱ کاربر مکرر در نظر گرفته شوند اما در اندازهگیری ۲ کاربر نادری در نظر گرفته شوند. | تخمین رشد بر روی مجموعه ای از داده های خوشه ای |
78550 | من مجموعه ای از متغیرهای باینری داشتم. برای اعمال رگرسیون لجستیک، ارتباط بین متغیرهای وابسته و مستقل را بررسی کردم و تنها آن دسته از متغیرهای مستقل را در مدل در نظر گرفتم که با متغیر وابسته مرتبط شدند. سوال من این است که آیا این روش مناسبی برای برازش مدل رگرسیون لجستیک است؟ | مراحل رگرسیون لجستیک باینری زمانی که متغیرهای وابسته و مستقل باینری هستند، دنبال میشوند |
78554 | من باید بفهمم mvpart چه می کند. از کدام شاخص به عنوان معیار تقسیم (در مورد من، روش = کلاس) استفاده می کند؟ آیا از پارتیشن بندی همزمان در امتداد چند محور (چند متغیره) استفاده می کند؟ آیا منابعی وجود دارد که بتوانم در این زمینه مطالعه کنم؟ | R mvpart - شاخص تقسیم |
62623 | من یک مجموعه داده دارم که در آن افراد تعدادی از موضوعات را رتبه بندی کرده اند. من سعی می کنم بر اساس این رتبه بندی ها یک نتیجه در سطح موضوعی (دودویی) را پیش بینی کنم. در حین تجزیه و تحلیل این داده ها، متوجه شدم که هرگاه یک رهگیری تصادفی را برای موضوع وارد می کنم، این اثر تصادفی تقریباً تمام واریانس در نتیجه سطح موضوع را به حساب می آورد، بنابراین هیچ پیش بینی وجود ندارد. در تلاش برای یافتن اینکه آیا این به دلیل عدم ارتباط بین پیشبینیکننده و نتیجه است یا به دلیل وجود مشکلی که دادهها را مدلسازی کردهام، نحو بسیار ساده زیر را نوشتم که مشکل را نشان میدهد. این داده های سطح گروه را تولید می کند. set.seed(1234) pred <- rnorm(n=200, mean=5, sd=2) outcome <- rbinom(length(pred), size=1, prob=.5+(pred / 25)) summary( glm (نتیجه ~ pred، دو جمله ای)) تخمین B مربوطه و p-value: pred 0.21782 0.07951 2.740 0.00615 ** اکنون هم پیشبینیکنندهها و هم نتایج همه 5 بار تکرار میشوند، به این معنا که پنج مشاهده (یکسان) از پیشبینیکننده در یک گروه وجود دارد، و نتیجه در سطح گروه تغییر نمیکند: pred <- rep(pred ، هر=5) نتیجه <- rep(onoff, every=5) grp <- فاکتور(1:(طول(پیش از) / 5)، هر=5)) خلاصه (glmer(نتیجه ~ pred + (1 | grp)، خانواده=دوجمله ای)) خروجی: اثرات تصادفی: نام گروه ها Variance Std. توسعه دهنده grp (Intercept) 4038.8 63.552 تعداد obs: 1000، گروهها: grp، 200 جلوههای ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 12.389 22.094 0.561 0.575 pred 0.204 4.793 0.043 0.966 همان مدل با استفاده از aov (می دانم، برای نتایج باینری مناسب نیست) نتایجی را به دست می دهد که خیلی بهتر به نظر می رسند(asumary >com: ~ pred + خطا(grp))) خطا: grp Df Sum Sq Mean Sq F مقدار Pr(>F) pred 1 8.86 8.858 8.078 0.00495 ** Residuals 198 217.12 1.097 خوب، پس در مورد اضافه کردن مقداری واریانس درون گروهی چطور؟ شاید برخی از واریانس های درون گروهی به این کار کمک کند: indiv <- factor(rep(1:5, times=length(unique(grp)))) pred <- pred + rnorm(length(pred), 0, .2 ) خلاصه (glmer(نتیجه ~ pred + (1 | grp/indiv)، خانواده = دوجمله ای)) indiv:grp (Intercept) 2.6142e-10 1.6168e-05 grp (Intercept) 4.0416e+03 6.3574e+01 تعداد obs: 1000 گروه: indiv:grp، 1000; grp، 200 اثرات ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (واسط) 12.4160 20.1808 0.615 0.538 pred 0.1986 4.3130 0.046 0.963 و باز هم خروجی aov بهتر است: summary(aov(outcome error ~pgr)+indi Df Sum Sq Mean Sq F مقدار Pr(>F) pred 1 8.73 8.731 7.958 0.00528 ** باقیمانده ها 198 217.24 1.097 بررسی اثرات تصادفی در دو مدل گلمر نشان می دهد که رهگیری گروه زمانی که 1 و کام پایین است بالا است نتیجه 0 است - بنابراین همه چیز را توضیح می دهد واریانس در سطح گروه ممکن است اینطور باشد که من در اینجا کار کاملاً اشتباهی انجام میدهم، اما فکر میکردم که آیا واقعاً این روشی است که lme4 قصد دارد رفتار کند. اگر پیشنهادی در مورد بهبود مشخصات مدل دارید، خوشحال می شوم. PS: می دانم که می توانم داده ها را در سطح گروه جمع کنم، اما مجموعه داده واقعی کامل نیست. یعنی همه قاضی ها همه موضوعات را قضاوت نکرده اند و همه افراد توسط همه قضات قضاوت نشده اند. بنابراین، من می خواهم از مدلی استفاده کنم که بتوانم از رهگیری های تصادفی هم برای افراد و هم برای داوران استفاده کنم. و تجمیع داده ها در سطح گروه واریانس بین داور را در نظر نمی گیرد. | پیشبینی دقیق نتیجه سطح گروه دوجملهای با lme4 |
54561 | من در مورد تبدیل چندک یکنواخت در صورت توزیع t تعجب می کنم. ابتدا برای توضیح، یک توزیع نرمال را در نظر می گیریم: \begin{align*} f(l | \mu , \sigma ^2)=\frac{1}{\sigma \sqrt{2 \pi}} e^{- \frac{(l-\mu)^2}{2 \sigma ^2}} \end{align*} یک چندک در $\alpha$ را می توان با $Quantile_\alpha=\mu + \sigma \Phi^{-1}(\alpha)$ بنابراین به عنوان مثال. فرض کنید $\mu = -0.0000615$ و $\sigma=0,0145$، 0,95 کمیت توزیع نرمال 1,644854 است بنابراین $Quantile_{0.95}=-0.0000615+0,0145*1,644854= 0.02379$ بنابراین اکنون برای توزیع t، از موارد زیر استفاده می کنم نماد: \begin{align*} f(l|\nu ,\mu ,\beta) = \frac{\Gamma (\frac{\nu+1}{2})}{\Gamma (\frac{\nu {2}) \sqrt{\pi \nu} \beta} \left(1+\frac{1}{\nu}\left(\frac{l - \mu}{\beta}\right)^2 \right)^{\text{$-\frac{1+\nu}{2}$}} \end{align*} اکنون، من این را از یک کتاب دارم:  VaR را نادیده بگیرید، فقط می گوید، ما روی سمت راست توزیع تمرکز می کنیم. و اکنون دیگر در مورد محاسبه کمی مطمئن نیستم. فکر می کنم $\beta$ من $\sigma^2$ باشد درست است؟ این درست است: $Quantile_{\alpha}^{t}=\mu + \beta t_\nu^{-1}(\alpha) $ یا این: $Quantile_{\alpha}^{t}=\mu + \sqrt{\beta} t_\nu^{-1}(\alpha) $ به عنوان مثال، مقادیر زیر را دارم: $\mu=-0.0012827$ $\beta=0.009891722$ $\nu = 3.34331$ و بنابراین $t_{3.34331}^{-1}(0.95)=2.258039$ اکنون است $Quantile_{0.95}^{t}=-0.0012827+0.009891722*2.258039=0.02105319$ یا $Quantile_{0.95}^{t}=-0.0012827+\sqrt{0.009891722}*2.258039=0.2232954$ درست است؟ Mh، مطمئن نیستم، زیرا من در مورد $\sigma^2$ آنها گیج شدهام، اما 0.2232954 نمیتواند از نظر تجربی صحیح باشد، بنابراین باید 0.021 باشد؟ اشتباه من کجاست؟ کتاب: الکساندر جی مک نیل، رودیگر فری، پل امبرچتس: مدیریت ریسک کمی، 2005 صفحه 40. | تبدیل چندک با توزیع t |
56964 | آیا می توان یک فرضیه یک طرفه را با آزمون دقیق فیشر برای بیش از یک جدول احتمالی 2×2 آزمایش کرد؟ من میپرسم زیرا ماشینحسابهای آنلاینی که برای این مورد پیدا کردم فقط یک مقدار دو طرفه میدهند (به عنوان مثال، مانند این: http://vassarstats.net/fisher2x4.html). بنابراین، آیا با این وجود، تقسیم p-نتیجه داده شده بر دو و گفتن من یک آزمایش یک طرفه انجام دادم؟ | تست دقیق فیشر جدول احتمالی 2*4 امکان تست یک طرفه را دارد؟ |
53268 | چنین تست حافظه ای را برای یک موش تصور کنید. موشها یک آزمایش $E$ را با دو مشکل احتمالی $0$ (شکست) و $1$ (موفقیت) انجام دادند. اگر موش ها 1 دلار دریافت کنند پاداش دریافت می کنند، اگر 0 دلار دریافت کنند مجازات می شود. آزمایش $E$ بارها با همان موشها تکرار میشود، و ما فرآیند تصادفی $(X_n)$ را برای مدلسازی آزمایشهای متوالی در نظر میگیریم. من در مورد روش تجزیه و تحلیل چنین داده هایی تعجب می کنم. موشها قرار است در طول زمان یاد بگیرند، بنابراین ما نمیتوانیم استقلال را فرض کنیم و حتی نمیتوانیم یک گذار مارکویی همگن را فرض کنیم. برای سادگی می توانیم مارکوف را ناهمگن فرض کنیم. ما به احتمالات انتقال علاقه مندیم $p^n_{ij}=\Pr(X_{n+1}=j\mid X_n=i)$ ($i,j \in\\{0,1\\}$) ). در واقع دو احتمال $p^n_{01}$ و $p^n_{11}$ مرحله مارکوف را در زمان $n$ تعیین میکنند. با چندین موش می توان $p^n_{ij}$ را تخمین زد. اما با حجم نمونه متوسط، میتوانیم یک محدودیت پارامتری را برای داشتن «قدرت» فرض کنیم. حتی با حجم نمونه بزرگ، فرض یک محدودیت پارامتریک برای مشاهده یک روند در طول زمان جالب است. برای مثال میتوانیم یک رابطه logit $\text{logit } p^n_{ij} = \alpha + \beta n$ را فرض کنیم. در نگاه اول تخمین این مدل ها با حداکثر احتمال باید آسان باشد. درخواست های من این است: * آیا مدل های آماری با همین روحیه در ادبیات وجود دارد؟ من علاقه مند به دریافت برخی ارجاع هستم (الزاما محدود به فرض مارکوف نیست). * من همچنین علاقه مند به دریافت برخی از ارجاعات --- اگر مواردی وجود دارد --- در مورد مورد پیچیده تر یک فرآیند زمان پیوسته $\\{0,1\\}$-valued $(X_t)$ مدل سازی در مدت زمان آزمایش $E$ را اضافه کنید. به عبارت دقیقتر، موشها میتوانند در مدت زمان کمتری به موفقیت دست یابند و اگر موشها هنوز موفق نشده باشند، آزمایش پس از یک دقیقه متوقف میشود. برای مثال، میتوانیم برای سادگی فرض کنیم که ماوس همیشه پس از مدتی پس از توزیع نمایی، آزمایش $E$ را با موفقیت انجام میدهد. | مدل هایی برای فرآیند اکتساب یادگیری |
71935 | من مجموعه ای از داده ها را دارم و می خواهم بدانم که آیا آنها در 1، 2 یا 3 گروه قرار می گیرند. من شروع به بررسی این سوال با استفاده از k-means در متلب کردم. فقط با نگاه کردن به فاصله از مرکز هر خوشه با چشم، به نظر می رسد که ممکن است دو خوشه داشته باشم، اما می خواهم بتوانم این را با برخی آمار پشتیبان بگیرم. من خوانده ام که **استفاده از BIC** ممکن است راه خوبی باشد. من در خوشه بندی تازه وارد هستم، به این معنی که وقتی تمام پاسخ های سؤالاتی مشابه این سؤال که به مقالات تحقیقاتی در مورد موضوع مربوط می شود را می خوانم، فقط نمی توانم آنها را دنبال کنم، و امیدوار بودم که کسی بتواند اطلاعات اساسی در مورد اینکه آیا BIC یا چیز دیگری ممکن است مناسب باشد و مقداری کد متلب (محاسبات BIC یا چیزی مشابه) با توضیحات برای dummies (من تازه وارد متلب هم هستم) تا بتوانم از آن استفاده کنم. | محاسبه BIC برای تعیین تعداد بهینه خوشه ها (k-means clustering) |
108641 | من می دانم که متعامدسازی در LS برای جلوگیری از معکوس کردن _X'X_ است. ایده پشت آن یافتن متغیرهای _Z_ است که متعامد با یکدیگر هستند. اگرچه فرآیند یافتن آنها برای من روشن است، اما راهی برای یافتن ضرایب پیدا نمیکنم. الگوریتم $Z_1=X_1$ را ترک میکند (اولین متغیر تبدیلشده را مانند اصلی میگذارم)، و سپس ضرایب را در فضای جدید $z,\ \alpha_1=\frac{<Y,Z_1>}{{|| محاسبه میکند. Z_i||}^2}$ (در نقطه 4 در کد شبه). بعد، $Z_i=Z_i-\frac{<Z_j,Z_i>}{{||Z_i||}^2}$ (نقطه 5 در کد شبه). خوب است. من این را درک می کنم. مسئله این است که برای بدست آوردن $\beta$ (ضرایب در فضای اصلی)، (نقطه 10 در کد شبه): $\beta_m=\alpha_m-\frac{\sum<\beta\cdot X,Z>} {{||Z_m||}^2}$. و با آخرین $Z$ شروع میشود، بنابراین وقتی m=M، $\beta_m=\alpha_m$ است (زیرا $i=m+1$ و مجموع به $m$ ختم میشود). در نهایت وقتی به $\beta_1$ رسید، با $\alpha_1$ متفاوت است. اما ما $Z_1=X_1$ را انجام میدادیم، **بنابراین نمیفهمم چرا $\beta_1\ne\alpha_1$.** کسی میتواند به من ایده بدهد که چرا؟ با تشکر الگوریتم این خواهد بود (به زبان اسپانیایی، اما می توانید متوجه شوید که چه کار می کند): >  | پیش بینی کننده های متعامد برای برآورد حداقل مربعات |
56969 | از ویکیپدیا > به طور رسمی، همبستگی جزئی بین $X$ و $Y$ با مجموعهای از $n$ > متغیرهای کنترلی $Z = \\{Z_1، Z_2، …، Z_n\\}$، نوشته شده $ρ_{XY· Z}$، همبستگی بین باقیماندههای $RX$ و $RY$ است که از رگرسیون خطی $X$ با $Z$ و $Y$ با $Z$ به ترتیب. 1. قبلاً گفته شد که > همبستگی جزئی، درجه ارتباط بین دو متغیر تصادفی > را با اثر مجموعه ای از متغیرهای تصادفی کنترل کننده حذف می کند. من تعجب کردم که چگونه همبستگی جزئی $ρ_{XY·Z}$ با همبستگی بین $X$ و $Y$ مشروط در $Z$ مرتبط است؟ 2. یک مورد خاص برای $n=1$ وجود دارد. > در واقع، همبستگی جزئی مرتبه اول (یعنی وقتی $n=1$) چیزی نیست جز تفاوت بین یک همبستگی و حاصلضرب همبستگی های > قابل جابجایی تقسیم بر حاصلضرب ضرایب > بیگانگی قابل جابجایی همبستگی ها ضریب بیگانگی، و > رابطه آن با واریانس مشترک از طریق همبستگی در > Guilford (1973، صفحات 344-345) موجود است. می خواستم بدانم چگونه می توان موارد بالا را به صورت ریاضی نوشت؟ با تشکر و احترام! | معنی همبستگی جزئی |
108640 | اگر بخواهم نحوه پیوند دو متغیر پیوسته را بررسی کنم، تفاوت بین محاسبه ضریب همبستگی (r پیرسون) با محاسبه ضریب رگرسیون (خطی ساده) چیست؟ من افرادی را می بینم که اگر ضریب رگرسیون به طور قابل توجهی با صفر متفاوت باشد، در مورد دو متغیر به گونه ای صحبت می کنند که گویی با هم مرتبط هستند، که گیج کننده است زیرا نشان می دهد که این دو ضریب (همبستگی، رگرسیون) یک چیز هستند. با این حال، آیا r معیاری برای شیب (خط رگرسیون) نیست؟ من گیج شدم!! | شباهت ها و تفاوت های بین همبستگی و رگرسیون |
89207 | بگویید من می خواهم یک ANOVA دو طرفه انجام دهم و می خواهم از منابع A, B استفاده کنم. برای A I در سطوح A1 و A2، برای B در B1، B2 و B3 تست کنید. بنابراین، وقتی تجزیه و تحلیل را انجام میدهم، بهعنوان مثال، A1، B1 بهعنوان حالت پایه، روی آدمکها پسرفت میکنم. بنابراین من مدل $$y = \beta_0 + x_{A2}\alpha_2 + x_{B2}\beta_2 + x_{B3}\beta_3$$ را دریافت میکنم که در آن $x$های ساختگی هستند. اکنون، من همچنین میخواهم تعاملات را نیز اضافه کنم، و در کتاب آمارم خواندم که باید آدمکهای $x_{A2}x_{B2}$ و $x_{A2}x_{B3}$ را با ضرایب مربوطه اضافه کنم. اما مورد پایه در اینجا چیست؟ در مدل اول من می دانم که میانگین $y$ برای A1 x B1 $\beta_0$ است. و سپس میانگین $y$ برای A1 x B2 $\beta_0 + \beta_2$ و غیره است، زیرا همه آدمکهای دیگر 0 خواهند بود. اما زمانی که من این تعامل را داشته باشم. من همه تعاملات $x_{A1}x_{B2}$، $x_{A1}x_{B1}$، $x_{A1}x_{B3}$ را بهعنوان حالت پایه دریافت میکنم، اما درست به نظر نمیرسد. | Anova: مورد پایه برای فعل و انفعالات هنگام پسرفت بر روی آدمک ها |
103253 | من مشکل را همانطور که دریافت کردم اینجا می نویسم. من دو متغیر تصادفی دارم. که یکی از آنها **مستمر** (Y) و دیگری گسسته **ترتیبی** (X) است. طرحی را که دریافت کردم همراه با پرس و جو در زیر قرار دادم.  شخصی که داده ها را برای من ارسال می کند می خواهد **قدرت ارتباط** بین X و Y را اندازه گیری کند. من به دنبال ایدههایی هستم که مملو از فرضیاتی در مورد اینکه چه فرآیندی دادهها را تولید میکند، وجود نداشته باشد. توجه داشته باشید که این در مورد یافتن یک _آزمون_ غیر پارامتری_ قدرت رابطه (مانند بوت استرپ) نیست، بلکه در مورد یافتن راهی غیر پارامتریک برای _اندازه_گیری_ آن است. از سوی دیگر، کارایی یک مسئله نیست زیرا نقاط داده زیادی وجود دارد. | اندازه گیری غیر پارامتری قدرت ارتباط بین یک متغیر تصادفی گسسته و پیوسته |
56961 | هنوز روی مجموعه داده های مالی خود کار می کنم، اکنون در تلاش هستم تا تأثیرات پیش پردازش را بر نتایج مطالعه خود مشاهده کنم. به طور خلاصه: من سی سری زمانی قیمت دارم (شاخص های اصلی، فارکس و اوراق قرضه در طول ده سال) و می خواهم روند بازارها را مشاهده کنم. ایده اصلی این است که ماتریس همبستگی بازده log نرمال شده و بالاترین مقدار ویژه آن را مشاهده کنیم. این باید روند کلی بازار را نشان دهد. من نتایج جالبی به دست آوردم که با واقعیت و پویایی همبستگی که قرار است داشته باشیم مطابقت دارد. من با قیمت های روز بازار با مشکل زیادی مواجه شدم. و راه حل های بسیار بیشتری وجود دارد. به عنوان مثال: * همگام سازی بازار: به دلیل ساعات کاری متفاوت، ما واقعاً نمی توانیم همبستگی محاسبه شده را روز به روز انجام دهیم. راهحلها از بررسی همبستگی تاخیر یک، یا قیمت میانگین متحرک هفتگی، یا قیمت هفتگی، تا استفاده از مدلهای تخمین GARCH را شامل میشود. * نرمال سازی داده ها: برای استفاده از PCA داده ها باید نرمال شوند، اما به دلیل هتروسکداستیکی بودن، استفاده از نرمال سازی محلی وسوسه انگیز است. فرآیند عادی سازی محلی از پارامترهای زیادی مانند پنجره زمانی و وزن استفاده می کند. * فیلتر کردن داده ها: می توانیم از میانگین متحرک برای حذف نویز HF، فیلتر کالمن یا نظریه ماتریس تصادفی استفاده کنیم (اینجا را ببینید: http://arxiv.org/pdf/0910.1205v1.pdf). همه این روشها از پارامترها استفاده میکنند، برخی به طور مستقیم برای تناسب با ویژگیهای داده انتخاب میشوند، اما برخی دیگر فقط با تکنیک انگشت مرطوب انتخاب میشوند. * پنجره داده: من سعی می کنم به تحولات همبستگی نگاه کنم، بنابراین مجبور شدم یک پنجره متحرک و عرض آن را انتخاب کنم. عرض یک سازش بین دقت نتیجه (شکل) و تعداد پنجره های زمانی به دست آمده است. فراموش نکنم، هر بار که مجبور شدم به میانگین متحرک یا پنجره فکر کنم، یک سوال وزن نیز وجود دارد، به عنوان مثال میانگین متحرک موزون نمایی معمولاً در امور مالی استفاده می شود. هر بار که مجبور می شدم پارامتر یا روشی را انتخاب کنم، یک سوال در ذهنم بود: چگونه راه حل بهتر را انتخاب کنیم؟ تکنیک من استفاده از همبستگی بود. من فکر می کنم همبستگی واقعی همیشه در امور مالی دست کم گرفته می شود، بنابراین تحولی که همبستگی را افزایش دهد همیشه یک تحول خوب است. برای رتبه بندی فرآیند از این ایده استفاده کردم که رشد بیشتر در همبستگی به معنای تبدیل بهتر است. من اخیراً با آنتروپی در آمار و کاربرد آن در تئوری اطلاعات آشنا شدم. اکنون میخواهم نگاهی به آنچه برای مطالعه من خواهد آورد بیاندازم. من به این فکر میکردم که از ارزش آن استفاده کنم تا بدانم آیا روش پیش پردازش اطلاعات کافی را برای استفاده نگه میدارد یا خیر. بنابراین من یک یا دو سوال دارم: آنتروپی با $ H(X)= - \sum_{i=1}^np(x_i)\log_b p(x_i)$ تعریف می شود. من توزیع احتمال ندارم، آیا باید آن را تخمین بزنم؟ یا باید آنتروپی را مستقیماً تخمین بزنم؟ من کاملاً متعجب هستم که پویایی در نظر گرفته نشده است. منظورم این است که فقط توزیع ارزش ها مهم است. من مطالعاتی را دیده ام که در آن مقادیر در هم ریخته به صورت گاوسی توزیع شده اند، اما جایی که دینامیک نقش مهمی ایفا می کند. من فکر می کنم که بازگشت از یک روز به روز دیگر مستقل نیست و ما باید آن را در نظر بگیریم. راست میگم؟ بنابراین، چگونه از آنتروپی برای رتبه بندی روش ها در عمل استفاده می شود؟ با فکر کردن در مورد آنتروپی، من همچنین تعجب کردم که چگونه می تواند چیزی مستقیم از خود اطلاعات بازار را آشکار کند. آیا مطالعه ای در این زمینه شنیده اید؟ اصل آنها چه بود؟ | محاسبات آنتروپی و رتبه بندی فرآیند |
71933 | من در حال انجام آزمایشی هستم که به بررسی تغییرات حجم مغز در یک اختلال نادر می پردازد. ما تعداد کمی از بیماران (n = 8) اما یک گروه کنترل بزرگ (n = 100) داریم. برخی از همکاران پیشنهاد کرده اند که از یک گروه متعادل استفاده شود، یعنی. انتخاب 8 مغز کنترل کننده، اما من این را غیرقابل تصور می دانم. آیا استفاده از کل گروه کنترل برای به دست آوردن تخمین بهتری از حجم مغز جمعیت منطقی تر نیست؟ | آیا زمانی که گروه درمان کوچک است، یک نمونه کنترل بزرگ بهتر از یک نمونه متعادل است؟ |
108649 | من تازه وارد این انجمن هستم. من شروع به کار با سری های زمانی کردم، من یک مجموعه داده دمایی روزانه (25000+ مشاهده) دارم (01/01/1946 - 07/01/2014) می خواهم موارد زیر را آزمایش کنم: 1. **روندها:** بنابراین من از OLS استفاده کردم، اما شنیده ام که استفاده از تست Mann-Kendall ممکن است مفید باشد. 2. **فصلی:** همانطور که در نکته قبل تا اینجا سعی کردم آنها را با OLS تجزیه و تحلیل کنم، از هر توصیه ای استقبال می شود. 3. **شکست های ساختاری:** مشکل این جنبه این است که از نظر گرافیکی نمی توان هیچ شکستی را مشاهده کرد، بنابراین من با CUSUM و CUSUMSQ سعی کرده ام این شکست های ساختاری را شناسایی کنم، چند توصیه اضافی؟ به عنوان نکته اضافی باید این کار را در STATA انجام دهم. من در وب در مورد بسته کندال برای R دیدم، اما نمی توانم از R استفاده کنم. در حال حاضر از Gretl و STATA استفاده می کنم، امیدوارم کسی به من کمک کند. پیشاپیش از کمک شما سپاسگزارم خورخه | آزمون من-کندال STATA |
105527 | من می خواهم موفقیت یک توییت را پیش بینی کنم. در مورد من، یک توییت زمانی موفق است که مجموع تعداد علاقه مندی ها و تعداد بازتوییت ها بیشتر از 5 باشد. بنابراین مقدار نتیجه y من این است: **y= if((بازتوییت + موارد دلخواه) >5 ==1** else == 0 بنابراین من مجموعه داده زیر را ایجاد کردم: (این نمونه فقط داده های یک کاربر توییتر را نشان می دهد و بنابراین friendCount و غیره همیشه یکسان است. در مجموعه داده واقعی من هزاران کاربر و آخرین توییت های آنها وجود دارد) head(dataTrain) +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ |. تعداد دنبال کنندگان |. nb +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ 0.710542815 0.710542815 | -125.525.459.396 | -22.192.436.207 | 0 | 0 | -0,777283372 | 1 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 1 | 0 | 1 | -0.5838923895 | -0.68260381719 | 0.2862346486 | 1 | 1 | -0,330839739 | 0 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 1 | 1 | 1 | -0.6884084855 | -125.525.459.396 | 19.565.534.949 | 1 | 5 | 0,562047528 | 1 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 0 | 0 | 1 | -0.2006667041 | -0.10995304042 | -0.2562620706 | 1 | 3 | 0,6364548 | 0 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 0 | 0 | 1 | 0.9490103521 | 122.623.210.539 | -0.6388650200 | 0 | 0 | -0,777283372 | 1 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 0 | 0 | 1 | 0.3567524747 | 0.08093055184 | 0.4350079872 | 1 | 2 | 0,227214803 | 1 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ بنابراین مجموعه داده شامل ویژگی های زیر است: * friendsCount (کاربر چند نفر را دنبال می کند؟) * followersCount (چند نفر کاربر را دنبال می کنند؟) * nbTweets (کاربر در هفته های گذشته چند توییت ارسال کرده است؟) * در ( آیا توییت حاوی یک @ است؟ توییت) * r_nachar_words (نسبت بین کاراکترها و کلمات) * هش (آیا پیام حاوی هشتگ است؟ ) * no_hash (پیام حاوی چند هشتگ است؟ ) * hash_mean (میانگین طول هشتگ ها چقدر است؟ ) * y ( آیا مجموع تعداد علاقه مندی ها و تعداد ریتوییت ها بیشتر از 5 بود) در حال حاضر از یک پشتیبانی استفاده می کنم؟ ماشین برداری برای ایجاد مدل و الگوریتم SVMlight. اما مقیاس آن واقعا خوب نیست و بسیار کند است. من دقتی در حدود 80% دریافت می کنم اما مقادیر بسیار ضعیفی برای Sensitivity و Kappe دریافت می کنم. سوالات من: * برای ایجاد مدل چه رویکردی بهتر است؟ آیا برای مثال یک شبکه یادگیری عمیق را به جای SVM ترجیح می دهید؟ * آیا از امکانات کافی استفاده می کنم؟ آیا می توانید به ویژگی های دیگری فکر کنید که می تواند عملکرد مدل من را افزایش دهد؟ | پیش بینی موفقیت یک توییت |
22968 | من در حال توسعه یک سیستم ارزیابی آنلاین هستم و باید بانک سوالات را کالیبره کنم، اما افراد کافی برای اجرای آزمون آزمایشی ندارم. به همین دلیل تصمیم گرفتم پاسخ های بانک سوال را شبیه سازی کنم. من از مدل Rasch برای توسعه یک آزمون تطبیقی کامپیوتری (CAT) استفاده خواهم کرد. من فقط از بانک سوال دارم و تعداد گزینه ها برای هر کدام. چگونه می توانم فقط با استفاده از این داده ها یک شبیه سازی انجام دهم؟ من فکر کردم که آن را یک عدد تصادفی $X$ ایجاد کنم، اگر $X < 1 / N$، که در آن $N$ تعداد گزینه های یک سوال خاص است، آن شخص پاسخ صحیح را دریافت کرده است، در غیر این صورت نادرست است. . **آیا این یک رویکرد صحیح برای کالیبره کردن بانک اقلام به مدل راش از طریق شبیه سازی است؟** PS: کاری که من می خواهم انجام دهم این است که سطح دشواری هر سوال را محاسبه کنم. درک من این است که برای کالیبره کردن یک بانک سؤال، آن بانک باید برای نمونه ای از موضوعات اعمال شود، اما من افراد کافی برای انجام این کار را ندارم، بنابراین تصمیم گرفتم یک رویکرد شبیه سازی را امتحان کنم. من تابع sim.rasch را در بسته psych آزمایش کردم، و می بینم که باید تعداد گزینه ها را برای هر سوال در نظر بگیرم، زیرا ممکن است بر دشواری آنها تأثیر بگذارد. | شبیه سازی پاسخ به یک آزمون برای نظریه پاسخ آیتم |
78556 | من در مورد تعیین خودکار پارامترها برای DBSCAN (یک الگوریتم خوشهبندی مبتنی بر چگالی -- http://en.wikipedia.org/wiki/DBSCAN)، به خصوص _eps_ تحقیق کردهام و مقاله زیر را پیدا کردم که روشی را پیشنهاد میکند. برای تعیین بهترین _eps_ از روی خود داده ها: http://www.joics.com/publishedpapers/2012_9_7_1967_1973.pdf با این حال، مقاله، در صفحه 1969، بخش 3.1، در مورد یک ماتریس فاصله DIST$_{n \times n}$: > ما مقدار هر یک را محاسبه میکند، ادعا میکند. عنصر در DIST$_{n\times n}$ متوالی، > و سپس آنها را در یک خط ترتیب صعودی مرتب کنید توسط خط ما از DIST$_{n > \times i}$ برای بیان مقدار ستون $i$th در DIST$_{n \times n}$ استفاده میکنیم. از آنجایی که همه > دادهها در DIST$_{n \times i}$ از توزیع پواسون پیروی میکنند[6]، ما از تخمین حداکثر احتمال در ریاضیات برای تخمین مقدار > پارامتر $\lambda$ استفاده میکنیم. یعنی $\lambda$ را می توان با استفاده از > میانگین هندسی مقدار DIST$_{n \times i}$ بدست آورد. این مقاله ادعا می کند که این $\lambda$ می تواند به عنوان _eps_ استفاده شود. آیا این ادعا دلیلی دارد؟ من در مورد توزیع پواسون خواندهام، اما هیچ جا برای این ادعا که فاصلهها باید از این توزیع پیروی کنند، پشتوانهای پیدا نکردم (اما اعتراف میکنم که در مورد توزیعهای احتمال آگاهی چندانی ندارم). اگر این ادعا جعلی نباشد، کار با DBSCAN را بسیار ساده می کند، زیرا حدس و گمان لازم برای تعیین پارامترها را کاهش می دهد. | استفاده از توزیع پواسون از ماتریس فاصله برای تعیین پارامترهای dbscan |
62621 | من برخی از تعاریف یادآوری و دقت را خواندم، اگرچه هر بار در زمینه بازیابی اطلاعات است. میخواستم بدانم آیا کسی میتواند این را کمی بیشتر در زمینه طبقهبندی توضیح دهد و شاید نمونههایی را توضیح دهد. مثلاً بگویید من یک طبقهبندی باینری دارم که دقت 60% و فراخوانی 95% را به من میدهد، آیا این طبقهبندی خوب است؟ شاید برای کمک بیشتر به هدفم، بهترین طبقه بندی از نظر شما کدام است؟ (مجموعه داده نامتعادل است. کلاس اکثریت دو برابر نمونه های کلاس اقلیت دارد) من شخصاً به دلیل مساحت زیر منحنی اپراتور گیرنده می گویم **5**. (همانطور که در اینجا می بینید مدل 8 دقت کم، فراخوانی بسیار بالایی دارد، اما یکی از پایین ترین AUC_ROC است، آیا این باعث می شود مدل خوبی باشد؟ یا بد؟)  * * * **ویرایش:** من یک فایل اکسل با اطلاعات بیشتر دارم: https://www.dropbox.com/s/6hq7ew5qpztwbo8/comparissoninbalance.xlsx در این سند می توان ناحیه زیر منحنی عملگر گیرنده و ناحیه زیر منحنی فراخوان دقیق را پیدا کرد. همراه با توطئه ها. | یادآوری و دقت در طبقه بندی |
96944 | من 3 متغیر دارم. درآمد متغیر وابسته (مستمر)، جنسیت (دوجمله ای)، workhrs (مقوله) است که یک مدل خطی برازش کردم و به نتیجه رسیدم: سوال من این است: آیا این مدل قابل استفاده است؟ مقادیر NA از این واقعیت ناشی می شود که workhrs 4 دسته را ندارد. پنجمین مورد فکر می کنم به دلیل همبستگی است. مربع R تنظیم شده بسیار زیاد است، اما آیا این مدل برای پیش بینی مفید است؟ یا تعامل مفید نیست و باید حذف شود؟ تماس: lm (فرمول = درآمد ~ فاکتور (جنس) + عامل (ساعت کاری) + فاکتور (جنس): عامل (ساعت کاری)) باقیمانده ها: حداقل 1Q Median 3Q Max -6.757 -1.261 0.000 1.531 5.690 ضرایب: (5 به دلیل تعریف نشده است تکینگی ها) Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 31.330 4.645 6.744 8.42e-05 *** factor(sex)1 0.160 6.569 0.024 0.981101 factor(workhrs) 1 2.9890 5.601 2.9890 5.6. فاکتور(ساعت کاری)2 13.240 8.691 1.523 0.161968 ضریب(ساعت کاری)4 10.935 5.689 1.922 0.086773. ضریب (ساعت کاری) 5 6.960 6.569 1.059 0.316997 ضریب (ساعت کاری)6 30.045 8.691 3.457 0.007192 ** ضریب (ساعت کاری) 7 18.315 5.689 0 3.689 0 3.215 * 0.219 ساعت 26.947 5.364 5.024 0.000715 *** factor(workhrs)9 25.340 6.569 3.857 0.003863 ** factor(workhrs)10 38.850 9.291 ** 4.182(factors7shrs) 0.0 9.160 8.691 1.054 0.319347 factor(sex)1:factor(workhrs)2 NA NA NA NA factor(sex)1:factor(workhrs)4 9.060 8.046 1.126 0.289271: 5.289276:factor (ساعت کاری)5 8.691 2.651 0.026451 * ضریب (جنس) 1: عامل (ساعت کاری)6 NA NA NA ضریب (جنس) 1: عامل (ساعت کاری) 7 3.325 8.691 0.383 0.710895 عامل (ساعت کاری جنسی) NA 1: عامل NA (NA) 8 عامل(جنس)1:عامل(ساعت کاری)9 NA NA NA NA ضریب(جنس)1:عامل(ساعت کاری)10 NA NA NA NA --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 4.645 در 9 درجه آزادی چندگانه R-squared: 0.9263، تنظیم شده R-squared: 0.8117 F آمار: 8.083 در 14 و 9 DF، p-value: 0.001742 | تفسیر رگرسیون خطی با NA برای برآوردها |
58667 | من در محاسبه 95% فواصل اطمینان برای تغییر نسبت دوجمله ای مشکل دارم. به عنوان مثال، در گروه $A$، $4$ موفقیت از $n =20$ وجود دارد. در گروه $B$، 12$ موفقیت از $n =20$ وجود دارد. من می توانم CI را برای نسبت ها به طور جداگانه در R با استفاده از: binom.test(4,20,(1/2),alternative=two.sided) binom.test(12,20,(1/2) محاسبه کنم. ,alternative=two.sided) با این حال، من علاقه مند به تغییر نسبت این دو گروه هستم، گروه $A = 0.2$ و گروه $B = 0.6$ با تغییر نسبت 0.4 دلار چیزی که من واقعاً از دست داده ام این است که چگونه می توان CI برای این تغییر (0.4 دلار) را محاسبه کرد؟ | تغییر در فاصله اطمینان نسبت دو جمله ای |
62628 | در یک تنظیم رگرسیون میانگین استاندارد $y_i=x_i^T \beta + \epsilon_i$، اگر اشتباهات $\epsilon_i$ را ثابت و با مقداری کوواریانس $\Sigma$ فرض کنیم، در مورد $x_i$ چه می توان گفت؟ آیا $x_i$ نیز ثابت است؟ همچنین آیا $\epsilon_i|x_i$ ثابت است؟ اگر $x_i$ شامل متغیرهای کمکی غیر ثابت باشد، در مورد $\epsilon_i$ چه می توان گفت. | رگرسیون با خطاهای همبسته |
62478 | من معمولاً محاسبات تخمینی سودآوری برخی از مشاغل را انجام می دهم. این محاسبات تابع برخی از پارامترها هستند: قیمت های تخمینی، تقاضای تخمینی، نرخ ارز تخمینی، ... من اغلب فرض می کنم که همه این پارامترهای ورودی به طور معمول توزیع شده اند و میانگین و انحراف استاندارد آنها را ارزیابی می کنم. سوالات من این است: بهترین راه برای پیش بینی توزیع سود برآورد شده کدام است؟ آیا می توانم میانگین + انحراف معیار سودآوری را تعیین کنم؟ من اتفاقاً با استفاده از «R» یا «NumPy»، 1000 مقدار تصادفی قیمت (بر اساس توزیع نرمال)، 1000 مقدار تصادفی دیگر برای تقاضا و غیره ایجاد کردم، محاسبات 1000$^N$ را انجام دادم و میانگین را بدست آوردم. + انحراف استاندارد مقادیر $1000^N$، همیشه با این فرض که نتیجه نیز توزیع نرمال است. | محاسبه توزیع نرمال یک محاسبه، تابع چندین پارامتر توزیع شده نرمال |
91177 | من قصد دارم سیستمی را برای تشخیص هرزنامه پیکربندی کنم. آنچه من دارم مجموعه داده ای از رشته های برچسب دار (هرزنامه/غیر هرزنامه) است که عمدتاً شامل جملات است. من سابقه ای در زمینه تکنیک های یادگیری ماشین دارم، اما هیچ پیشینه ای در زمینه یادگیری ماشینی به کار رفته در متن ندارم. یک رویکرد میتواند ایجاد بردارهایی با ابعاد بسیار بالا باشد، که در آن ویژگیها بولی هستند و هر ویژگی یک کلمه ممکن را نشان میدهد (حال/حال نیست). البته چنین رویکردی به دلیل ابعاد بالا رضایت بخش نیست، اما همچنین برای پراکندگی شدید یک ویژگی در سراسر نمونه ها و پراکندگی شدید در بین ویژگی ها. چیزی که من میپرسم فقط چند اشاره (مثلاً به آموزشها) به تکنیکهای ساده سطح ابتدایی است که ممکن است کاستیهای ذکر شده در رمزگذاری هر کلمه بولی را برطرف کند. آیا ایده ای در مورد اینکه کدام ابزار ممکن است برای این کار مناسب تر باشد؟ شاید RapidMiner؟ | تکنیک های یادگیری ماشین برای تشخیص هرزنامه و به طور کلی برای طبقه بندی متن |
11975 | من سعی می کنم داده های چند متغیره به شکل زحل (داستان طولانی) تولید کنم. به طور رسمی تر؛ 1. *خوشه 1 یک گاوسی رتبه-p با ماتریس همبستگی R است (که در آن هر ورودی قطری R همان عدد در $(0,1)$ است). 2. خوشه 2 مجموعه ای از نقاط است که بر روی یک طرح فوق العاده با رتبه p-1، در اطراف خط استوای خوشه 1، توزیع شده است، که همگی فراتر از فاصله خاصی از mahalanobis wrt تا cluster1 مثلا $\zeta$ قرار دارند. نمونهگیری رد کردن مشکلی ندارد، تا زمانی که نرخ رد کوچک باشد: این پیکربندی باید بارها برای $n$ و $p$ بزرگ به طور قابل اعتماد ایجاد شود. **به روز رسانی:** بنابراین راه حل باب دورانت را اجرا کردم: x0<-matrix(rnorm(n*p),n,p) b0<-matrix(rnorm(n*p),n,p) b1<-qchisq( 0.99,df=p)؛ b2<-sqrt(c(b1,b1*1.25)) b0<-b0/sqrt(rowSums(b0*b0))*runif(n,b2[1],b2[2]) نمودار(rbind(x0,x1 )) mahalanobis(cbind(0,b0),colMeans(x0),var(x0))/(qchisq(0.99,df=p)) تصویر پیوست را ارائه می دهد که در واقع شبیه زحل است. با حلقه هایی که حداقل @ qchisq (0.99,df=p) دور از مرکز قرار دارند. با این حال، اکنون میخواهم زحل من بیضی شکل باشد، یعنی ساختار همبستگی R داشته باشد. مشکل اینجاست که $\verb+x0+$ و $\verb+cbind(0,x1)+$ را از قبل در $R ضرب میکنم. ^{1/2}$، حلقهها دیگر در خط استوا نیستند :( **Update2:** برای مثال، وقتی من آن را جایگزین میکنم همه چیز خراب میشود ساختار واریانس مورب در بالا با چیز دیگری به عنوان مثال: کتابخانه (MASS) x0<-mvrnorm(n,rep(0,p),diag(rchisq(p,p),p)) b0<-mvrnorm(n,rep(. 0,p-1),diag(rchisq(p-1,p-1),p-1)) b1<-qchisq(0.99,df=p); b2<-sqrt(c(b1,b1*1.25)) b0<-b0/sqrt(rowSums(b0*b0))*runif(n,b2[1],b2[2]) mahalanobis(cbind(0,b0 ,colMeans(x0),var(x0))/(qchisq(0.99,df=p)) بیشتر فواصل نیز بسیار زیاد هستند بزرگ (بعد از استفاده از ماتریس کوواریانس مورب در بالا با خروجی مشابه مقایسه کنید) **به روز رسانی 3** دلتا<-0.9 p<-3 R<-matrix(runif(p^2,delta*0.99,delta)! ,p,p) #برای جلوگیری از تکرار مقادیر ویژه، کمی diag(R)<-1 | نحوه ایجاد یک جفت بیضی به شکل زحل در $\mathbb{R}^p$ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.