_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
60081
اگر من یک سری زمانی را با یک مدل AR مطابقت دهم، می‌توانم با بررسی همبستگی باقیمانده (معتبر اگر همبسته نباشد) بگویم که آیا این تناسب معتبر است یا خیر. اما اگر آن را با یک مدل MA مناسب کنم، چگونه می توانم تشخیص دهم که این تناسب معتبر است یا خیر؟ در R، وقتی تعیین می‌کنم سری زمانی را با مثلا MA(1) متناسب کنم، به طور خودکار از نویز سفید برای اپسیلون استفاده می‌کند، درست است؟ $y_t = \epsilon_t + \text{ضریب} \cdot \epsilon_{t-1}$ با تشکر
سوال مدل سری زمانی پایه
25358
من می خواهم توزیع z را به عنوان فاصله اقلیدسی بین 2 نقطه که در مبدا مرکز نیستند بدانم. اگر 2 نقطه در صفحه دو بعدی را فرض کنم $A = (X_a,Y_a)$ و $B = (X_b,Y_b)$، جایی که $X_a \sim \mathcal N(\mu_a,s^2)$, $X_b \sim\mathcal N(\mu_b,s^2)$, $Y_a\sim\mathcal N(\nu_a,s^2)$, $Y_b\sim\mathcal N(\nu_b,s^2)$، سپس فاصله اقلیدسی بین $A$ و $B$، خواهد بود $z= \sqrt{(X_a-X_b)^2 + (Y_a-Y_b )^2}$. اکنون: $X=X_a-X_b$ و $Y=Y_a-Y_b$ خود متغیرهای تصادفی هستند که به معنای $(\mu_b-\mu_a)$ و $(\nu_b-\nu_a)$ و واریانس $2s^2$ هستند، بنابراین مشکلی که من دارم تعیین pdf $z=\sqrt{X^2 +Y^2}$ است، با دانستن اینکه $X$ و $Y$ هستند 2 متغیر تصادفی گاوسی نامرتبط با **میانگین غیرصفر** و واریانس یکسان $2s^2$. توزیع Rician زمانی اعمال می‌شود که $z$ فاصله مبدا تا یک متغیر تصادفی دو متغیره باشد. این تنها زمانی ثابت شده است که متغیرهای تصادفی ($A$ و $B$) **دایره** متغیرهای تصادفی دو متغیره باشند (یک اثبات را می توان در L. C. Andres and R. L. Phillips، _تکنیک های ریاضی برای مهندسین و دانشمندان_، 2003، Ch یافت می شود. 13، بخش 13.8.2، ص 680). من می‌خواهم pdf/cdf $z$ را به‌عنوان فاصله بین دو نقطه (هیچ‌کدام از آنها در مبدا قرار نگرفته‌اند) وقتی که دایره‌ای نیستند بدانم. آیا توزیع پارامتری شناخته شده ای برای $z$ وجود دارد؟ اگر شکل تعمیم یافته توزیع ریسی باشد، این توزیع چگونه خواهد بود؟ متشکرم
توزیع فاصله اقلیدسی بین دو نقطه تصادفی در فضای 2 بعدی چگونه است؟
105152
من اطلاعات مصرف انرژی را از یک دستگاه برای دو هفته گذشته دارم. تا یک هفته دیگر باید مصرف انرژی این دستگاه را پیش بینی کنم. من مطمئن نیستم که چگونه این را پیش بینی کنم. آیا کسی می داند چگونه این کار را انجام دهد؟ اگر راهی برای انجام این کار در R وجود دارد؟ من تازه شروع به یادگیری زبان R کردم.
کمک کمی به پیش بینی
60088
من با روش های رگرسیون اولیه آشنا هستم، اما تجربه ای در استفاده از GEE ندارم. من از SPSS استفاده می‌کنم و سعی می‌کنم از GEE برای مجموعه داده‌ای که دارم استفاده کنم، زیرا یک مؤلفه اندازه‌گیری مکرر در مدل من وجود دارد. به هر حال، در مدل من، من 3 پیش بینی دوگانه دارم (مثلاً x_1$، $x_2$، و $x_3$)، و همچنین یک متغیر کمکی پیوسته ($x_4$). خروجی من به من می گوید که من یک تعامل 4 طرفه دارم، و فقط با نگاه کردن به طرح های من، به نظر می رسد که این تعامل 4 طرفه توسط یک تعامل 3 طرفه در یک سطح از متغیر کمکی من هدایت می شود، اما نه سطح دیگری. یعنی یک تعامل 3 طرفه بین 3 پیش بینی دوگانه من در سطوح بالای x_4$ وجود دارد، اما نه در سطوح پایین. اگر این رگرسیون ساده OLS بود، من فقط مدل را در سطوح پایین در مقابل سطوح بالای متغیر کمکی متمرکز می‌کردم و تعامل را در این دو سطح آزمایش می‌کردم. با این حال، من مطمئن نیستم که چگونه این کار را با استفاده از GEE انجام دهم. به طور خاص، وقتی من برای مقایسه های زوجی درخواست می کنم، مدل همیشه خود را در میانگین متغیر کمکی متمرکز می کند. بنابراین، من دو سوال دارم: (الف) آیا می توان مقایسه های زوجی را در 2 سطح متغیر کمکی (به عنوان مثال، در صدک های 25 و 75) انجام داد؟، اگر نه (ب) چگونه باید این 4 طرفه را بررسی کنم. تعامل؟ متشکرم
GEE: مقایسه های زوجی در سطوح مختلف یک متغیر کمکی؟
105150
من سعی می کنم برچسب ها را برای یک مجموعه آزمایشی (حدود 15000 نمونه از حدود 400 ویژگی) بر اساس یک مدل آموزش دیده با یک مجموعه آموزشی (حدود 86 نمونه از حدود 400 ویژگی) پیش بینی کنم. من از Weka 3.6.11 در یک لپ تاپ ساده با ویندوز استفاده می کنم. هر دو مجموعه آموزشی و آزمایشی از یک فایل csv. بارگذاری می‌شوند (یک فایل برای هر کدام). مجموعه آزمایشی برچسب‌هایی نداشت (این برای پیش‌بینی است، نه اعتبارسنجی)، بنابراین من یک ستون NaN برای این ویژگی در فایل csv. با استفاده از Matlab اضافه کردم. (در ابتدا بدون این مرحله امتحان کردم و با خطا مواجه شدم، در انجمن ها خواندم که این راه اندازی مناسب بود). این اولین بار است که از Weka برای پیش بینی استفاده می کنم. من دو راه اندازی مختلف را در رابط کاربری گرافیکی KnowledgeFlow امتحان کردم، و هر دو بار ناموفق بود. **SETUP 1: استفاده از ClassAssigner در FilteredClassifier** فیلتر: weka.filters.MultiFilter weka.filters.unsupervised.attribute.ClassAssigner <- کلاس در اینجا اختصاص داده شده است (ستون های آخر) weka.filters.unsupervised.attribute.NumericToNomin weka.filters.unsupervised.attribute.Remove weka.filters.unsupervised.attribute.Remove weka.filters.unsupervised.attribute.Normalize classifier: weka.classifiers.bayes.NaiveBayes اسلات های اجرایی: 2 (این به طور پیش فرض است، مطمئن نیستم چه چیزی است. معنی) سپس کاری که من انجام دادم این بود که به صورت دستی بر روی شروع بارگیری کلیک کردم مجموعه آموزشی، و سپس شروع بارگیری برای مجموعه تست. این منجر به قطع شدن Classifier در حین آموزش شد و سپس در حین تست یک خطا ایجاد می شود: هیچ ویژگی در داده های تست تنظیم نشده است. من این خطا را درک نمی کنم زیرا ClassAssigner اولین ماژولی است که بعد از TestSetMaker اجرا می شود. اگر کمک کند، گزارش خطا در اینجا آمده است: 22:08:11: [Loader] CSVLoader$22564265|-M ? -E ،'|بارگذاری filename_training 22:08:11: [Classifier] FilteredClassifier$24309584|-F weka.filters.MultiFilter -F \weka.filters.unsupervised.attribute.ClassAssigner -C last\ -F \weka.filters.unsupervised.attribute.NumericToNominal -R آخرین\ -F \weka.filters.unsupervised.attribute.Remove -R first\ -F \weka.filters.unsupervised.attribute.Remove -V - اعداد R \ -F \weka.filters.unsupervised.attribute.Normalize -S 1.0 -T 0.0\ -W weka.classifiers.bayes.NaiveBayes --| شروع استخر اجرایی ( 2 اسلات)... 22:08:11: [طبقه بندی کننده] [همان اطلاعات بالا] --| صف های خروجی را تنظیم کنید. 22:08:11: [طبقه‌بند] [همان اطلاعات بالا] --| زمان‌بندی اجرا 1 برابر 1برای اجرا... 22:08:11: [طبقه بندی کننده] [اطلاعات مشابه در بالا] --|خطا: هیچ ویژگی کلاسی در داده های آزمایشی تنظیم نشده است 22:08:11: [طبقه بندی کننده] [همان اطلاعات بالا] --| |( اجرای 1fold1) قطع شد 22:08:21: [Loader] CSVLoader$11661342|-M ? -E ،'|loaded filename_test 22:08:21: [Classifier] FilteredClassifier$24309584|-F weka.filters.MultiFilter -F \weka.filters.unsupervised.attribute.ClassAssigner -C last\ -F \ weka.filters.unsupervised.attribute.NumericToNominal -R last\ -F \weka.filters.unsupervised.attribute.Remove -R first\ -F \weka.filters.unsupervised.attribute.Remove -V -R numbers \ -F \weka.filters .unsupervised.attribute.Normalize -S 1.0 -T 0.0\ -W weka.classifiers.bayes.NaiveBayes --|خطا: هیچ ویژگی کلاسی در داده های آزمایشی تنظیم نشده است و در زیر تصویری از KnowledgeFlow وجود دارد: ![setup1](http://i.stack.imgur.com/wYnpR.png) **SETUP 2: از ClassAssigner قبل از FilteredClassifier استفاده کنید** مانند SETUP1، اما کلاس برای آموزش اختصاص داده شده است. و قبل از استفاده از FilteredClassifier به طور جداگانه مجموعه آزمایشی (اسکرین شات زیر) را دریافت نمی کنم، به نظر می رسد که قسمت آموزشی به خوبی کار می کند، اما در مجموعه آزمایشی هیچ اتفاقی نمی افتد، به عنوان مثال اگر بخواهم بصری کنم آن را پس از اختصاص کلاس (روی کار در زیر)، من هیچ نتیجه ای برای دیدن دریافت نمی کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FDluX.png) اینجا گزارش است: 22:33:31: [Loader] CSVLoader$13145810|-M ? -E ،'|بارگذاری finename_train 22:33:31: [Classifier] FilteredClassifier$13512466|-F weka.filters.MultiFilter -F \weka.filters.unsupervised.attribute.NumericToNominal -R last\ -F \ weka.filters.unsupervised.attribute.Remove -R first\ -F \weka.filters.unsupervised.attribute.Remove -V -R numbers -F \weka.filters.unsupervised.attribute.Normalize -S 1.0 -T 0.0\ -W weka.classifiers.bayes .NaiveBayes --|استخر اجرایی ( 2 اسلات)... 22:33:31: [Classifier] [همانطور که در بالا] --|صف های خروجی را تنظیم کنید. 22:33:31: [طبقه‌بند] [همانطور که در بالا] --| زمان‌بندی اجرا 1 برابر 1 برای اجرا... 22:33:31: [طبقه‌بند] [همان‌طور که در بالا] --|ذخیره‌سازی مدل برای اجرا 1 برابر 1 22: 33:40: [Loader] CSVLoader$22945919|-M ? -E ,'|loaded test_FNC_SBM_1 من کاملاً از دست داده‌ام و چندین ساعت است که سعی می‌کنم این کار را انجام دهم. تست .csv را بررسی کردم و ستون NaNs وجود دارد. با استفاده از DataVisualizer مجموعه آزمایشی را در Weka تجسم کردم. مستقیماً بعد از TestSetMaker
Weka: مجموعه تست در Knowledge Flow پردازش نمی شود؟ ClassAssigner شکست می خورد؟
25352
من سعی می کنم بر اساس اندازه گیری های WiFi تعیین کنم که یک فرد در کدام اتاق است. من در حال حاضر اندازه گیری وای فای برای 3 اتاق دارم. این اندازه گیری شامل 100 اسکن وای فای است که از مکان های مختلف داخل هر اتاق جمع آوری شده است. هر اسکن تعداد APهای WiFi قابل مشاهده در برخی از مکان‌های داخل اتاق را نشان می‌دهد. تعداد APهای مشاهده شده در هر یک از 100 اسکن متغیر است. در اینجا یکی از این اسکن ها وجود دارد: 1.SSID: بی سیم، BSSID: 00:21:6c:63:cc:dd، ss: -54، فرکانس: 2437 2.SSID: بازدید کننده، BSSID: 00:24:6c:61: aa:bb، ss: -58، فرکانس: 2462 3.SSID: بازدید کننده، BSSID: 00:24:6e:6d:ab:ab، ss: -60، فرکانس: 2437 ss: قدرت سیگنال این از یک اسکن از 100 اسکن جمع آوری شده برای هر اتاق گرفته شده است. هر اسکن مانند یک مجموعه ویژگی برای اتاق است. من باید به نحوی سیستم خود را با استفاده از این داده ها آموزش دهم تا بتواند یک اسکن (ممکن است چندین AP) گرفته شده در طول آزمایش را در یک اتاق خاص طبقه بندی کند. از چه الگوریتم آموزشی نظارت شده می توانم استفاده کنم؟ من قبلاً SVM ها را امتحان کردم، اما آنها مجموعه ویژگی های متغیر را اجازه نمی دهند.
بومی سازی WiFi با استفاده از یادگیری ماشینی
51991
با داشتن توزیع های حاشیه ای، مثلاً $f(x)$ و $f(y)$، چگونه توزیع شرطی $f(x|y)$ را بدست آوریم؟ این رابطه به صورت زیر بدست می آید: $$f(x)=\int f(x|y)f(y)dy$$ آیا باید مشتقات هر دو طرف را پیدا کنیم و سپس یک معادله دیفرانسیل را حل کنیم؟!
چگونه توزیع مشروط را بدست آوریم؟
105154
من سه متغیر دارم که می خواهم آنها را در یکی ترکیب کنم. انتخاب واضح، تحلیل عاملی یا تجزیه و تحلیل مؤلفه های اصلی است، اما با داده های پانل چندان ساده نیست زیرا به میانگین و انحرافات استاندارد نیاز دارد و در غیاب اطلاعات در مورد ساختار پانل، نرم افزار میانگین و sd را برای کل استخر محاسبه می کند. بنابراین لیست متغیرهای من (همه متغیرهای پیوسته): 1) شاخص متغیر سرمایه انسانی بر اساس میانگین سنوات تحصیلی و بازده تحصیلی 2) شاخص های کیفیت سرمایه انسانی 2(الف) انتشارات مجلات به ازای هر کارگر 2(ب) درخواست های ثبت اختراع برای هر کارگر من می خواهم این سه را در یک شاخص ترکیب کنم که به آن سرمایه انسانی تعدیل شده با کیفیت می گویند. من نمی توانم راهی برای انجام آن پیدا کنم جز اینکه میانگین ساده نسبت های 2(a) و 2(b) را در نظر بگیرم و آن را در (1) ضرب کنم، اما این درست به نظر نمی رسد. هر ایده ای، لطفا؟
ایجاد شاخص از سه متغیر در داده های پانل
61935
من 2 مطالعه دارم که به پاسخ بیمار به همان دارو می پردازد. مطالعه 1 نشان داد که 10000 ژن در بالای پس‌زمینه بیان می‌شوند و 500 مورد از آنها به طور متفاوت بیان می‌شوند و به عنوان امضای پاسخ دارویی نامیده می‌شوند. مطالعه 2 1000 ژن را نشان داد که نشان دهنده امضای پاسخ دارویی است. همپوشانی بین این دو امضا 100 ژن است. من می خواهم اهمیت آماری همپوشانی بین امضاها را محاسبه کنم. اگر درست متوجه شده باشم، یکی از راه‌های انجام آن (براساس پست‌های اینجا: محاسبه احتمال همپوشانی فهرست ژن‌ها بین دنباله‌های RNA و مجموعه داده‌های تراشه‌های ChLP و اینجا: استفاده از فیپر R برای بدست آوردن احتمال همپوشانی فهرست) از طریق است. `phyper()`: > همپوشانی <- 100 > list1 <- 500 > totalPop <- 10000 > list2 <- 1000 > > 1-phyper(overlap-1, list1, totalPop-list1, list2) [1] 4.103051e-12 1. آیا این معقول به نظر می رسد؟ 2. اگر بخواهم تصحیح بونفرونی را اعمال کنم، باید این مقدار p را در تعداد مقایسه ها ضرب کنم. تعداد مقایسه ها در این مورد با چه چیزی مطابقت دارد؟ لیست 2؟ روش دیگر، چه راهی سریع برای انجام اصلاحات کمتر محافظه کارانه خواهد بود (به عنوان مثال، بنجامینی-هوچبرگ)؟
نحوه اعمال تصحیح آزمایش چندگانه برای همپوشانی فهرست ژن ها با استفاده از R
25354
من در تلاش برای یافتن پاسخ برای این سوال ساده هستم. من اطلاعات دارم (فهرست اعداد). من 20000 عدد دارم کوچکترین عدد 100 و بزرگترین آن 15000 است. من می خواهم این داده ها، نحوه توزیع آن یا هر پیشنهاد دیگری را تفسیر کنم که چگونه می توانم با این داده ها بازی کنم و کارهای مختلفی انجام دهم؟ موضوع این است که من باید یک ارائه در مورد آمار خلاصه در مورد این داده ها ارائه دهم و همچنین می خواهم نمودارهای این داده ها را در ارائه خود بگنجانم تا بتوانم به راحتی به همه نشان دهم که داده ها چگونه به نظر می رسند و به آنها بگویم که بیشترین تعداد است. ، کوچکترین، که محدوده اعداد بیشتر رخ می دهد. بنابراین من هیستوگرام را در R ساخته ام اما برای تعداد زیادی از اعداد، هیستوگرام انتخاب خوبی نیست. همچنین من می دانم که چگونه تمام این میانگین، میانه و انحراف معیار را محاسبه کنم. این یک تکلیف نیست، من می خواهم در مورد داده ها ارائه کنم و من آمارگیر نیستم.
مجموعه بزرگی از داده‌های اریب تک متغیره را تجسم و تفسیر کنید
41918
من از معیار اطلاعات انحراف برای ارزیابی تناسب در مدل سلسله مراتبی بیزی خود استفاده می کنم. شکل عملکردی این معیار به شرح زیر است: $$DIC=p_{D}+\bar{D}$$ که در آن $p_{D}=\bar{D(\theta)}+D(\bar{\theta })$ تعداد موثر پارامترها و $D(\theta)=-2log(p(y|\theta))$، $p(y|\theta)$ توزیع نمونه و $\theta$ ناشناخته است. پارامترها و مشکل این است که وقتی از انتظار به عنوان تخمین $\theta$ استفاده می کنم، تعداد موثر پارامترها منفی است، اما اگر یک میانه را به عنوان تخمین پارامترها وصل کنم - $p_{D}$ مثبت است. من می‌دانم که $p_{D}$ منفی نشان‌دهنده تضاد داده‌های قبلی در توزیع‌های غیر log-مقعر است، اما بازرسی بصری مقادیر برازش نشان‌دهنده تناسب بسیار خوب است. بنابراین، آیا استفاده از میانه به عنوان تخمین پارامتر به جای انتظارات در DIC خوب است؟
تعداد منفی پارامترها در مدل بیزی سلسله مراتبی
82339
> فرض کنید $X_1, ... , X_n$ iid با چگالی مشترک $f(x) = ax^{a-1}$, $ 0 < x < > 1$ باشد که $a$ یک پارامتر ناشناخته $a است > 0 دلار > > (a) MLE را برای $a.$ پیدا کنید > > (ب) نشان دهید که $W = - \sum^n_{i=1} \ln X_i$ دارای توزیع گاما با > پارامترهای $\alpha = n$ است. ، $\beta = 1/a$. نکته: از mgf استفاده کنید. > > (c) نشان دهید که $2aW$ دارای توزیع $\chi^2 (2n)$ است. > > (د) از (c) برای یافتن فاصله اطمینان 100$(1-a)%$ برای $a$ استفاده کنید. در مورد قسمت (د) کمی مطمئن نیستم. فرض کنید مقادیر بحرانی $\chi^2_{1 - \alpha/2}$ و $\chi^2_{\alpha/2}$ هستند. سپس داریم $$ (1 - \alpha) = P(\chi^2_{1-\alpha/2} < 2aW < \chi^2_{\alpha/2}) = P \left(\frac{\chi ^2_{1-\alpha /2}}{2W} < a < \frac{\chi^2_{\alpha/2}}{2W} \right)$$ اما مطمئن نیستم که کار کند، زیرا من بر یک متغیر تصادفی تقسیم می کنم. پس آیا این درست است؟ اگه نه میشه راهنماییم کنید پیشاپیش ممنون
یافتن فاصله اطمینان برای یک پارامتر
51378
من می خواهم یک lm ساده از y~x انجام دهم که در آن متغیر پاسخ خود را وزن کنم. این به این دلیل است که مقادیر y در واقع هر یک به نوبه خود مقدار شیب رگرسیون دیگری از سال y است، یعنی نرخ های تغییر در طول زمان، و برای هر یک از این رگرسیون های اولیه تعداد سال های ثبت شده متغیر بود (برخی داده هایی برای 20 سال، برخی برای 40، برخی برای 45 و غیره). متوجه شدم که وزن lm در اینجا مورد بحث قرار گرفته است: چگونه از وزن ها در تابع lm در R استفاده کنیم؟ با این حال، مطمئن نیستم که آیا با استفاده از دستورالعمل‌های ساده‌ای که در این پست توضیح داده شده است، y را وزن می‌کنم (که همان چیزی است که می‌خواهم) یا x، یا اینکه آیا وزن در کل lm عمل می‌کند و تمایزی که بین وزن y قائل هستم. به طور خاص، به جای x، نامعتبر است...
وزن کردن متغیر پاسخ در lm
104200
پردازش سیگنال آشوب، pg147--148 توضیح می دهد که چگونه یک سیگنال (خروجی لیزر) که در رژیم هرج و مرج کار می کند ارگودیک است. ادبیات می گوید که یک سیگنال ثابت ارگودیک است، اگر میانگین مجموعه آن = میانگین زمانی باشد. آیا باید آمار محاسبه شده با میانگین زمانی = آمار محاسبه شده توسط میانگین گیری گروهی باشد؟ روشی که من از کتاب در پیوند فهمیدم به شرح زیر است: مورد 1: N نمونه در یک سری زمانی وجود دارد که من میانگین 1, چولگی1, kurtosis1 را محاسبه می کنم. حالت 2: سپس با N نمونه آزمایش T انجام شده و در هر یک از آزمایش ها آمار محاسبه می شود. پس از انجام آزمایش‌های T، میانگین این آمارها را محاسبه می‌کنیم - mean_avg، skewness_avg، kurtosis_avg. این به عنوان میانگین گیری گروهی یا میانگین گیری احتمالی نامیده می شود. اگر mean1 = mean_avg و غیره، فرآیند/سیگنال ارگودیک است. آیا درک من درست است؟ آخرین سوالی که در مورد pdf در تصویر دارم. شکل اول 6.12 پی دی اف یک تحقق و دومی برای یک نمونه واحد است. بنابراین، آیا به این معنی است که شکل اول pdf میانگین زمان و شکل دوم 6.13 مربوط به میانگین گیری گروهی است؟ برای توضیح اصطلاحات ergodicity، time averaging و ensemble averaging سپاسگزار خواهم بود. متشکرم![PDF](http://i.stack.imgur.com/MVezp.jpg)
درک معنای ارگودیسیته و میانگین گیری گروهی مشکل است
56342
من دارم روی یک مشکل داستانی برای یک پروژه کار می کنم. شما برای یک بنیاد کوچک زیست محیطی کار می کنید که می خواهد مصرف سوخت را تجزیه و تحلیل کند. رئیس شما (در سال 2002) از شما خواسته است که به او کمک کنید تا داده های سال 2001 در مورد مصرف سوخت بزرگراه را تجزیه و تحلیل کند تا بفهمد تغییر در نرخ مالیات چه تاثیری بر سوخت دارد. مصرف فایل داده ای (با برچسب Fuel2001) ارائه کرده است که دارای داده های مربوط به متغیرهای زیر است: رانندگان تعداد رانندگان دارای مجوز در ایالت FuelC. بنزین فروخته شده برای استفاده در جاده ها (1000 میلیون گال.) «درآمد» درآمد سرانه شخصی (سال 2000) «مایل ها» مایل ها مایل بزرگراه کمک فدرال در ایالت «MPC» مایل های تخمینی طی شده سرانه «پاپ» جمعیت 16 ساله و بیش از «مالیات» نرخ مالیات ایالتی بنزین، سنت در هر گالن او از شما می‌خواهد تحلیلی تهیه کنید که بهترین کار را برای کمک به او انجام دهد. استدلال می‌کند که نرخ‌های مالیاتی بالاتر منجر به مصرف سوخت کمتر می‌شود برای فهمیدن اینکه آیا رابطه وجود دارد؟ یک یادداشت کوتاه در مورد آن موضوع برای او بنویسید که شامل تجزیه و تحلیل شما، از جمله تخمین های خاص از رابطه است.» من قرار است بهترین حالت ممکن را برای حمایت از هدف او (افزایش مالیات بنزین برای کاهش مصرف سوخت) به او ارائه دهم، اما باید همچنین شامل بهترین مدل، برای اطلاعات او، من همه متغیرهای کج را با گرفتن گزارش طبیعی آنها تغییر دادم تا زمانی که یکی از آنها را پیدا کردم که از نظر آماری معنی دار بود همان مالیات رگرسیون قوی دیگر از نظر آماری معنی دار نبود (از لحاظ گرافیکی، از جمله جداول یا نمودارها) به چه معناست که رگرسیون قوی مالیات را ناچیز می کند، اما می دانم؟ من نمی توانم بفهمم چگونه آن را آپلود کنم، پیشاپیش برای هر ورودی متشکرم.
برآوردهای خاص در مورد مصرف سوخت - رگرسیون خطی ساده؟
60085
آیا کسی می تواند توزیع مشترک متغیرهای تصادفی X، Y را به گونه ای تصور کند که سه شرط زیر برآورده شوند: $E[X] = 1$، $E[Y] = 1$، و $E[XY] = 0$؟ یکی از دوستانم این را از من پرسید، که به نظر ساده می رسد، اما من اهل آمار نیستم، بنابراین این باعث می شود سرم بچرخد. ممنون میشم جواب بدین
توزیع های مشترک برای متغیرهای غیر همبسته
51997
من دو سوال زیر را دارم: 1. تصور کنید من دو مجموعه از مشاهدات دارم، و هر دو مجموعه توزیع لگ نرمال دارند. اکنون، با توجه به اتحاد این دو مجموعه - آیا توزیع هنوز یک لگ نرمال است؟ 2. با توجه به اکنون من دوباره مجموعه ای از مشاهدات با توزیع لگ نرمال دارم. با توجه به اینکه من یک اسکالر را به $LogN(\mu, \sigma^2)$ اضافه یا کم می کنم، برای هر مشاهده چه اتفاقی می افتد. فرض کنید من یک شیفت سمت راست 2+ دارم. آیا این بدان معناست که ارزش هر مشاهده 2 بزرگتر است؟ با تشکر
دو سوال کلی در مورد توزیع های log-normal: shift و mix
56341
کسی میدونه کد شبه یا کد متلب الگوریتم فوروارد HMM رو از کجا میتونم پیدا کنم؟
الگوریتم فوروارد HMM در متلب
64507
من در آمارهایم فراتر از انحراف معیار و رگرسیون خطی کاملا زنگ زده هستم، بنابراین حتی در مورد چگونگی بیان این سوال مطمئن نیستم. من به تاریخچه طولانی داده های صلاحیت کارت اعتباری نگاه می کنم، بنابراین می دانم که چقدر پول به عنوان کارت های پاداش، AMEX، کارت های جهانی و غیره پردازش شده است. من این داده ها را برای هر ماه دارم. اکنون من به روشی نیاز دارم تا آزمایش کنم که آیا داده های یک ماهه از نظر آماری غیرعادی هستند یا خیر. به عنوان مثال، در ژانویه، 21٪ از حجم در پاداش بود، و در فوریه، تنها 19٪ در پاداش بود، به همین ترتیب حداقل تا یک سال. من می خواهم بدانم که آیا حجم در Rewards در ژانویه آینده بی سابقه بود یا خیر. آیا کسی می تواند نام آزمونی را که می توانم برای دریافت پاسخ به آن نگاه کنم ارائه دهد؟
مقایسه داده های طبقه بندی شده
93851
انواع مختلفی از نوع حل کننده در liblinear وجود دارد اما من تفاوت آنها را درک نمی کنم. کدام یک را باید انتخاب کنم؟ همچنین چرا داده ها باید مقیاس شوند؟ دو به برخی از مسائل عددی؟ > > -s نوع : مجموعه ای از نوع حل کننده (پیش فرض 1) > برای طبقه بندی چند کلاسه > 0 -- رگرسیون لجستیک منظم شده با L2 (اولیه) > 1 -- طبقه بندی بردار پشتیبان اتلاف L2 با تنظیم L2 (دوگانه) > 2 -- L2-regularized L2-L2-L2-L2-classification vector support (اولیه) > 3 -- L2-regularized L1-L1-less رده بندی بردار پشتیبانی پشتیبانی (دوگانه) > 4 -- طبقه بندی بردار پشتیبان توسط کرامر و سینگر > 5 -- طبقه بندی بردار پشتیبان ضایعات L1 منظم > 6 -- رگرسیون لجستیک منظم شده با L1 > 7 -- رگرسیون لجستیک منظم شده با L2 (دوگانه) >
انواع Liblinear حل کننده
61931
این یک سوال ساده در مورد مدل‌سازی فضایی بیزی از طریق مدل‌سازی خودرگرسیون شرطی است. طبق قضاوت شما (و احتمالاً برخی منابع روش شناختی)، حداقل تعداد مناطقی که CAR برای آنها مناسب است چقدر است؟ آیا می‌خواهید بگویید که با تعداد کم مناطق، مثلاً 9، استفاده از مدلی با کمترین پارامترهای ممکن، یعنی مدل ذاتی به جای مشخصات Leroux با عملکرد بهتر، بسیار توصیه می‌شود؟ مرجع: لی 2011: مقایسه مدل های خودبازگشت شرطی مورد استفاده در نقشه برداری بیماری بیزی، اپیدمیولوژی فضایی و مکانی-زمانی 2/2، ص 79-89
تعداد نواحی در مدل های خودرگرسیون شرطی
16439
من یک رگرسیون بر روی متغیرهای مستقل انجام می دهم، که برخی از آنها در واحدهای مختلف اندازه گیری می شوند، به عنوان مثال: * میزان اتصالات پهنای باند در یک کشور * میزان اتصالات پهن باند در یک کشور به ازای هر 100 نفر، زیرا دومی کاملاً همبسته نیست. در مورد اول (آن بر جمعیت تقسیم بر 100 تقسیم می شود)، من فرض می کنم هیچ مشکلی شامل هر دو اندازه گیری در رگرسیون OLS وجود ندارد. سوال این است که آیا از اهمیت هر یک از ضرایب می کاهد؟
آیا گنجاندن معیارهای خام و سرانه به عنوان پیش‌بینی‌کننده، اهمیت هر یک از پیش‌بینی‌کننده‌ها را کاهش می‌دهد؟
93858
اولین مورد از Andrew Ng است![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/JNfEv.png) دومی از فرانسیس باخ است![شرح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/hvFdv.png) ممکن است کمی گیج باشم، اما چرا در توضیح دوم مشتقات جزئی جمع بندی شده و در توضیح اول هیچ کدام وجود ندارد؟ بالاخره آنها در مورد یک چیز صحبت می کنند؟
آیا این توصیفات از الگوریتم نزول گرادیان دسته ای با یکدیگر تضاد دارند؟
108282
از کتاب جان کروشکه، فصل 7، ص. 120 (خلاصه شده برای موجز بودن): > یک سیاستمدار دائماً از جزیره ای به جزیره دیگر در زنجیره ای از جزایر سفر می کند... هدف او این است که از همه جزایر به نسبت جمعیت نسبی آنها بازدید کند تا به نسبت زمان بیشتری را در جزیره بگذراند. بیشتر > جزایر پرجمعیت...او حتی نمی داند دقیقا چند جزیره > وجود دارد!.. مشاورانش می توانند از شهردار جزیره بپرسند که چند > نفر در جزیره هستند. و هنگامی که سیاستمدار پیشنهاد بازدید از یک جزیره مجاور (در شرق یا غرب، با زدن یک سکه) را می دهد، می تواند از شهردار آن جزیره مجاور بپرسد که چند نفر در آن جزیره وجود دارد. من مقداری کد پایتون نوشتم که در آن 'A' زنجیره جزیره است و 'run_Metropolis(A, N, start, burn_in)' محاسبات را انجام می دهد. این کد به طور عمدی گیج شده است تا برای انسان قابل خواندن باشد. import random def run_Metropolis(A, N, start, burn_in): ''' A: توزیعی که باید پیش بینی شود (لیست). N: تعداد آزمایش ها / شروع حرکت ها: شاخص شروع در A burn_in: تعداد حرکات اولیه که باید کنار گذاشته شوند. ''' خلفی = [0] * len(A) # باید برگردانده شود cur_pos = شروع # شاخص شروع برای i در محدوده (N): توزیع # پیشنهاد مختصات (-1، +1) است، با در نظر گرفتن مرزهای فهرست اگر cur_pos<len(A)-1 و cur_pos>0: پیشنهادات_پوزیشن = [cur_pos-1, cur_pos+1] elif cur_pos == len(A)-1: #موقعیت_پیشنهاد شده =[cur_pos-1] # اگر این مورد اجرا شود، موقعیت‌های پسینی شبیه موقعیت‌های_پیشنهادی A نیست = [0,cur_pos-1] elif cur_pos == 0 : #موقعیت_پیشنهادی = [cur_pos+1] # اگر این مورد اجرا شود، قسمت عقبی شبیه A نیست پیشنهاد_پوزیشن = [len(A)-1, cur_pos+1] پیشنهاد_pos = random.choice(موقعیت_های_پیشنهادی) # تصمیم بگیرید که اگر A[proposed_pos] > A[cur_pos] حرکت کنید: # قطعا حرکت cur_pos = پیشنهاد_pos other: # حرکت با یک prob متناسب با نزدیکی A[cur_pos] به A[proposed_pos] u = random.random() # نمونه از توزیع یکنواخت از 0 تا 1 if float(A[proposed_pos])/A[cur_pos] > u: # move to proposed cur_pos = proposed_pos other: # در پاس cur_pos # اگر از نقطه brun_in گذشته است، مکان را 1 در توزیع پسین افزایش دهید. if i > burn_in: پسین[cur_pos] += 1 بازگشت پسین A = [20,30,10,50,80,20,90] # جمعیت جزایر خلفی_A = run_Metropolis(A, 4000, 3, 1000) # اعتبارسنجی نمونه‌برداری کار می‌کند: [n/float(sum(A)) برای n در A] > [0.0666، 0.1، 0.0333، 0.166، 0.266، 0.066، 0.3] [n/float(مجموع(پسین_A)) برای n در A_پسینی] > [0.0593، 0.0910، 0.026، 0.0397، 0.0397، 0.0666، 0.302] بنابراین، پسین_A توزیع جمعیت A را منعکس می کند. چیزی که کروشکه روشن نمی کند این است که **برای اینکه این کار عمل کند، زنجیره جزیره باید چرخه ای باشد**، یعنی شما باید بتوانید از جزیره هفتم به جزیره اول سفر کنید و بالعکس. در غیر این صورت، پسین_A شبیه A نیست. می‌توانید این را با تغییر توزیع‌های پیشنهادی مرزی با توزیع‌های نظر داده شده، که چرخه‌ای فرض نمی‌کنند، آزمایش کنید. **سوالات:** 1. آیا این به این دلیل است که فرض ارگودیسیته نقض می شود؟ 2. آیا می‌توانیم معیارهای پذیرش (تصمیم حرکت) را تغییر دهیم تا عدم تقارن برای شرق‌ترین و غربی‌ترین جزایر را در نظر بگیریم؟ (من حدس می زنم این متروپلیس هاستینگ است) 3. اگر چنین است، می توانید کد را برای نشان دادن تغییر دهید؟
جزیره پرش با الگوریتم متروپلیس
16432
سوال من در مورد تجزیه و تحلیل سیگنال ها با PCA در حوزه فرکانس است. * از آنجایی که تجزیه و تحلیل فرکانس ابزار قدرتمندی برای پردازش سیگنال ارائه می دهد، آیا تجزیه و تحلیل مؤلفه اصلی (PCA) مزایا یا کاربردهای «مشهور» در حوزه فرکانس دارد؟ * آیا می توان گفت که PCA در حال انجام نوعی تحلیل فرکانس است زیرا اجزای اصلی نشان دهنده مهم ترین فرکانس ها در سیگنال هستند؟
آیا PCA مزایا یا کاربردهایی در حوزه فرکانس دارد؟
93853
> الف) برای کدام یک از مشاهدات زیر (obs1, obs2, obs3) > واریانس باقیمانده بزرگترین است؟ کدام مشاهده بیشترین > اهرم را دارد؟ و کدام یک کوچکترین؟ توضیح دهید چرا. > > ب) کدام یک از سه مشاهده بیشترین DFBETAS را دارد؟ > > ج) در مورد کدام مشاهده بیشتر نگران هستید؟ > > ![plot](http://i.stack.imgur.com/uk9lO.jpg) من فکر کردم که پاسخ a) obs 1 خواهد بود، زیرا فکر می کنم که بیشترین اهرم را خواهد داشت زیرا فاصله از ابر بزرگترین است (البته کاملاً مطمئن نیستم که درست باشد یا خیر). بقیه سوال ها رو من هیچ اطلاعی نداشتم. کسی میتونه لطفا کمک کنه؟
کدام مشاهده بیشترین واریانس باقیمانده را دارد؟
108287
آیا بسته ای وجود دارد که Maxent Markov Models را در R پیاده سازی کند؟ (http://en.wikipedia.org/wiki/Maximum-entropy_Markov_model). می‌دانم که بسته crf فیلدهای تصادفی شرطی مرتبط را پیاده‌سازی می‌کند، و بسته‌هایی وجود دارند که مدل‌های مارکوف پنهان را پیاده‌سازی می‌کنند. اما من به طور خاص به دنبال بسته هایی هستم که مدل های مارکوف maxent را پیاده سازی کنند.
مدل های Maxent Markov در R
105151
آیا معادله زیر نامی دارد یا شبیه به برخی از فرآیندها/معادله معروف دیگر است؟ معادله مورد علاقه: $$S_c = S_{c-1} + S_{c-1}\omega_c\delta_c$$ $\delta\sim\mathcal{N}(0,1)$ یک شوک نرمال استاندارد $\ است. omega\sim\mathcal{B}(1، ~ 0.5) دلار یک سکه ورق است با 50٪ احتمال 1 (0 در غیر این صورت) $c=(1,~2,~\dots,~C^{\ast})$ دنباله ای از ورق زدن سکه است ($C^{\ast}$ مجموع ورق ها) $S_0\sim\mathcal{N}(0 ,1)$ فرآیند را مقداردهی اولیه می کند $S_{C^{\ast}}$ مقدار $S_c$ در پایان تکرارها است و مقدار مورد علاقه است. توجه داشته باشید که چرخش سکه $c^{th}$ تعیین می‌کند که آیا شوک نرمال استاندارد $c^{th}$ رخ دهد یا خیر، و بنابراین تفاوت $S_c$ با $S_{c-1}$ است یا خیر. در زیر چند کد R وجود دارد که وقتی $C^{\ast}$ 4 باشد، یک مقدار $S_{C^{\ast}}$ ایجاد می‌کند. این کد به گونه‌ای تنظیم شده است که هر بار امگاها و دلتاها یکسان شوند، اما اجازه دهید ترتیبی که در آن انباشته می شوند تصادفی باشد. توجه داشته باشید که ترتیب تجمع برای یک مجموعه معین از امگا و دلتا بر مقدار $S_{C^{\ast}}$ تأثیر نمی‌گذارد. set.seed(2) # دانه RNG را طوری تنظیم کنید که همه شوک‌ها و چرخش‌های سکه یکسان باشند Cstar <- 4 # تعداد ورق سکه/ تعداد تکرار S0 <- rnorm(1) # اولیه شوک عادی استاندارد Sc <- c(S0, rep(NA, Cstar)) # بردار برای نگه داشتن شوک ها در حین انباشته شدن دلتاها <- rnorm(Cstar) # شوک معمولی استاندارد omegas <- rbinom(Cstar, 1, 0.5) # coin پرتاب rm(.Random.seed, envir=globalenv()) # دانه غیرتصادفی را حذف کنید، بنابراین ترتیب انباشته شدن شوک ها/برگرداندن سکه تصادفی c است. .2.Cstar <- نمونه (1:Cstar, Cstar) # یک دنباله درهم از c=1 تا C* ctr <- 1 # شمارنده مورد استفاده برای نمایه سازی Sc (اما نه امگا و دلتا) for(i در c.2.Cstar){ ctr <- ctr+1 Sc[ctr] <- Sc[ctr-1] + Sc [ctr-1]*omegas[i]*deltas[i] } SCstar <- Sc[ctr] print(c.2.Cstar) چاپ (SCstar)
آیا نامی برای این فرآیند/توزیع وجود دارد؟
61933
لطفاً به گزیده زیر از «اندازه‌گیری و توضیح رقابت در بخش مالی» توسط Bikker و Spierdijk (2008) توجه کنید: «در بسیاری از نظریه‌های اقتصادی، رقابت به اندازه (نسبی) > افزایش قیمت تمام شده مرتبط است. به عنوان جزئی از قیمت خروجی، اطلاعات مربوط به حاشیه قیمت-هزینه (PCM) معمولاً در بازارهای مالی موجود نیست اندازه گیری رقابت به طور غیرمستقیم > [...] این مقاله یک بررسی از معیارهای رقابت بیش از 100 > کشور بر اساس مدل **Panzar-Rosse (P-R)** را نشان می دهد درآمدهای بهره بانک‌ها در یک کشور یا بازار به تغییرات قیمت‌های نهاده واکنش نشان می‌دهند مدل P-R یک **آمار H** معین را تولید می کند که در شرایط خاص نشان دهنده درجه > رقابت با H=1 به رقابت کامل و H≤0 نشان دهنده > انحصار یا کارتل کامل است. محدوده ای که H 0 تا 1 است نشان دهنده رقابت انحصاری یا نوعی انحصارطلبی است. من از این آماره H در مدل رگرسیونی (OLS) خود استفاده کرده ام که در آن رفتار اجتماعی شرکت ها متغیر وابسته است (در مقیاس 0 تا 100). حدود 2500 شرکت از 30 کشور در مجموعه داده ها وجود دارد (هر کشور دارای «آمار H» است در مورد رفتار اجتماعی: *رقابت خیلی کم: به هر حال مصرف کنندگان هیچ جایگزینی ندارند، بنابراین شرکت ها انگیزه ای برای انجام مسئولیت اجتماعی ندارند. امتیازات اجتماعی پایین به این دلیل که شرکت‌ها نمی‌توانند با برنامه‌های اجتماعی اذیت شوند، زیرا رقابت شدید آن‌ها را به صرفه‌جویی در هزینه‌های خود سوق می‌دهد تا ببینم آیا این فرضیه درست است، من ابتدا «آمار H» را وارد کردم در OLS و دوم «(آمار H)^2». در مورد اول ضریب مثبت و در مورد دوم ضریب منفی را انتظار داشتم. با این حال: H-statistic 0.150 (p<0.01) (H-statistic)^2 0.159 (p<0.01) >>> به جای -0.159 چیزی که انتظار داشتم سوال من این است: ** چگونه باید این نتیجه را تفسیر کنم؟* * به عبارت دیگر: بر اساس این نتیجه، رابطه بین رقابت در صنعت بانکداری و نمرات اجتماعی آن بانک ها را چگونه توصیف می کنید؟
چگونه باید نتیجه OLS خود (شامل آماره H) را تفسیر کنم؟
108281
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sX1yH.png) در اینجا من دو خط اول قاب داده خود را نشان داده ام. برای تعدادی از خطوط ادامه دارد. من می خواهم نقشه هایی بسازم تا نشان دهم در طول زمان چه اتفاقی می افتد. به عنوان مثال نموداری که توالی تغییرات گرفتن را در طول زمان نشان می دهد و چه کسی تغییرات P1 یا P2 را انجام می دهد. من از R استفاده می کنم، بنابراین چیزهایی که می توانم در R پیاده سازی کنم مرتبط هستند - و راهنمایی در مورد نحوه انجام این کار به ویژه مفید خواهد بود. من سعی کردم از کدهایی مانند plot(mydata$Start,mydata$Name) و stripchart(mydata$Name) استفاده کنم اما موفق نبودم. در برخی موارد من خطایی مانند خطا در stripchart.default(mydata$Name) دریافت می‌کنم: آرگومان اول نامعتبر است. آیا نباید یک چارچوب داده باشد؟
چگونه این داده ها را تجسم کنیم؟
25355
من یک مجموعه داده آموزشی با متغیرهای عددی و دسته‌ای و یک متغیر کلاس دارم. من می خواهم یک مدل طبقه بندی بسازم (مانند SVM) و برای این هدف باید همه متغیرها را به قالب مناسب تبدیل کنم. من در مورد متغیرهای طبقه بندی خود گیج شده ام. بگذارید در مورد یکی از آنها مثالی بزنم. متغیر طبقه بندی شده در هر مشاهده نشان دهنده یک عبارت جستجوی گوگل است (معمولاً 3-10 کلمه جدا شده با کاما، مثال زیر را ببینید). ------------------------------------------------- ---------+---------------- search_id | **query_words (مقوله ای)** |..(متغیرهای دیگر)| متغیر کلاس ----------+------------------------------------ -----------+---------------- 1 | چگونه،به،رشد،درخت |.. | 4 2 | گوشی هوشمند,htc,خرید,قیمت |.. | 7 3 | خرید، خانه، ملک، لندن |.. | 6 4 | کجا،به،آخر هفته،سینما |.. | 4 ... | ... |.. | ... ---------------------------------------------- ------------+---------------- کلمات موجود در این متغیر طبقه بندی بی نظم هستند و همان کلمات ممکن است در مشاهدات مختلف رخ دهد (این منطقی است) . تعداد کلمات منحصر به فرد برای همه مشاهدات = چند هزار. تعداد مشاهدات: ~150.000.000 از آنجایی که این متغیر طبقه بندی شده (query_words) برای تجزیه و تحلیل طبقه بندی من بسیار مهم است، باید مدل خود را با آن آموزش دهم. سوال من این است که چگونه می توان آن را برای استفاده برای مثال SVM نشان داد. در هر مشاهده می توانم کلمات را به ترتیب حروف الفبا مرتب کنم. اگر از یک بردار عددی با چند هزار عنصر (یکی برای هر کلمه منحصر به فرد) استفاده کنم، می توانم این متغیر را برای هر مشاهده به عنوان مثال: query_words[1] = (0,0,..1,..0,..1) نشان دهم. ,..1،..0،...1،..0) # بردار بسیار بزرگ اما من باور ندارم که به طور موثر کار کند. چگونه باید این متغیر طبقه بندی را مدیریت کنم. من از R برای تجزیه و تحلیل استفاده می کنم.
ویژگی های دسته بندی چند ارزشی در R
51999
من یک مدل سلسله مراتبی را در JAGS اجرا می کنم. این یک مدل رگرسیون بقای ثابت تکه ای است. بنابراین من 4 مجموعه ضرایب رگرسیون و نرخ خطر پایه دارم. من می‌خواهم یک منحنی و محدوده میانگین را با استفاده از میانگین و 95٪ بالاترین فاصله چگالی (HDI) این پارامترها با استفاده از متغیرهای کمکی از داده‌هایم رسم کنم. من خروجی از CODA دارم، و فواصل حداکثر چگالی حاشیه ای را برای هر پارامتر فراهم می کند. راه صحیح برای بدست آوردن HDI مشترک برای همه پارامترها چیست؟
خروجی کدا، کمیت مشترک
81551
من یک سوال در مورد تعاملات در GLM دارم. من یک رگرسیون پواسون را با هدف پیش بینی خسارت در بیمه اجرا می کنم. من مشکل زیر را دارم: مدل 1: CLAIMS ~ X1 + X2 مدل 2: CLAIMS ~ X1 + X2 + X1: X2 X1 دارای 10 سطح است، X2 دارای 4 سطح هنگامی که من یک تست انحراف (Chi Square) انجام می دهم، نتیجه من این است که مدل 2 به طور قابل توجهی در مقایسه با مدل 1 (در سطح 5٪) بهتر است. از طرف دیگر AIC مدل 2 بدتر است. (بالاتر) وقتی به تخمین پارامترهای فردی و خطای استاندارد مربوطه آنها نگاه می کنم، می بینم که فقط 3 سطح از 27 سطح X1:X2 به طور قابل توجهی با سطح پایه متفاوت است. من مطمئن نیستم که چگونه این مشاهدات را تفسیر کنم. آیا کسی می تواند به من کمک کند و چیزی در مورد آن معنادار بگوید؟ و مهمتر از آن، چگونه با آن برخورد کنیم؟ تلاش من این خواهد بود: در مدل فعل و انفعالاتی وجود دارد که معنی دار هستند، اما اکثر آنها معنی دار نیستند. این افزایش AIC را توضیح می دهد، اگرچه تست انحراف می گوید که مدل 2 بهتر است. آیا باید سعی کنم چند متغیر ساختگی برای این سه تعامل که به نظر مهم می‌رسند بسازم؟ (با این حال، من مطمئن نیستم که این رویکرد درستی باشد، زیرا فقط نسبت به سطح پایه قابل توجه است...)
شامل اصطلاحات تعاملی خاص
101440
در GEE، واریانس هر نتیجه برابر است با تابع واریانس ضرب در پارامتر مقیاس. برای یک نتیجه پیوسته تابع واریانس =1. من می‌دانم که پارامتر مقیاس برای یک نتیجه پیوسته همیشه در تجزیه و تحلیل GEE تخمین زده می‌شود، برخلاف اینکه برای یک نتیجه پویسون یا باینری روی 1 تنظیم شود. بنابراین این بدان معنی است که واریانس همیشه برابر با پارامتر مقیاس است (هنگام تخمین یک نتیجه پیوسته با GEE). آیا این درست است؟ اگر چنین است، آیا این بدان معناست که پارامتر مقیاس بالاتر بهتر از پارامتر پایین تر است؟ به عنوان مثال، پارامتر مقیاس 0.9 به این معنی است که 90٪ از واریانس توسط GEE توضیح داده شده است؟ پیشاپیش از شما متشکرم
پارامتر مقیاس را از خروجی GEEGLM در R تفسیر کنید
113717
من می‌خواهم از روش نزدیک‌ترین همسایه حریصانه برای انجام تطبیق امتیاز تمایل استفاده کنم. اگرچه من تجربه کمی در اینجا دارم، به نظر می رسد که اندازه گیری فاصله استفاده شده به طور کلی یک امتیاز تمایل است که از یک رگرسیون لجستیک ایجاد می شود. سوال من این است: چرا رگرسیون لجستیک؟ چرا جنگل تصادفی، SVM یا روش دیگری نیست؟ آیا منطقی وجود دارد که نشان دهد این بی ثمر است؟ برنامه من در حال حاضر این است که از بسته «MatchIt» در R استفاده کنم و اندازه‌گیری فاصله خودم را که از پشت یک جنگل تصادفی محاسبه می‌شود، وارد کنم (شما می‌توانید امتیاز تمایل خود را در آرگومان «فاصله» تابع «Matchit» وارد کنید). من از این واقعیت که بسته‌های امتیازدهی گرایش مدرن مانند PSAboot امکاناتی برای انجام این کار برای روش‌های نزدیک‌ترین همسایه ندارند، ترسیده‌ام. آن‌ها از «party» و «rpart» استفاده می‌کنند، اما فقط برای مطابقت با استفاده از _strata_ (به‌علاوه آنها فقط از درخت‌های منفرد استفاده می‌کنند). من شیفته این هستم که روش هایی با (معمولا) قدرت پیش بینی بیشتر از رگرسیون لجستیک به نظر نمی رسد برای ایجاد یک امتیاز تمایل بهتر برای تطبیق یک به یک استفاده شود. آیا کسی وجود دارد که بتواند این موضوع را روشن کند؟ سوال مرتبط: امتیاز تمایل
تطبیق امتیاز تمایل: استفاده از روش های جایگزین برای ایجاد اندازه گیری فاصله
53267
من در حال تلاش برای ساخت مدل a هستم که تنها خروجی معتبر در محدوده [0,100] برای آن باشد. می خواستم بدانم که آیا می توان جریمه را در مقادیر کمتر از 0 و بیش از 100 کاهش داد زیرا به هر حال برای به دست آوردن تناسب بهتر محدود می شوند.
رگرسیون خطی چندگانه محدود
16437
من نمی دانم که آیا این یک سوال آماری، ریاضی یا برنامه نویسی خالص است، بنابراین لطفاً اگر جای بهتری برای ارسال این سؤال وجود دارد، به من اطلاع دهید. من سعی می کنم زمانی که گره ها دارای تحرک هستند، مدل اپیدمی SIS را پیاده سازی کنم. من می دانم که چگونه این شبیه سازی را به صورت تحلیلی انجام دهم. با این حال، وقتی گره ها متحرک هستند، همه چیز نسبتاً گیج کننده می شود. مدل فرض می کند که هر گره می تواند **هر گره** را آلوده کند و بنابراین معادلات معتبر هستند. اما وقتی گره‌ها متحرک هستند، هر گره **نمی‌تواند** هر گره دیگری را آلوده کند (گره دیگر ممکن است در محدوده نباشد) و باید به طور صریح پیامی را به گره‌ای که مستعد است ارسال کند تا آن را آلوده کند. در آن صورت، یک نرخ آلودگی «B» بدهید، وقتی گره‌ها متحرک هستند، چگونه این را شبیه‌سازی کنم؟ در حال حاضر، روشی که من این کار را انجام می دهم به روش زیر است: def Controller(): برای i در محدوده (1,100): randNum = getRand() if (randNum <= InfectionRate): همسایگان = getNeighbors(i) ScheduleTransmission(getCurrentTime( ), i, همسایگان) Schedule(getCurrentTime() + 1, Controller) مشکل من این است که من نیستم درک اینکه آیا اکنون می‌توان میزان آلودگی را از طریق یک مقدار (که قبلاً «B» بود دریافت کرد یا خیر. اگر نه، چگونه می توان این سناریو را تحلیل کرد؟ آیا «InfectionRate» را به‌عنوان «B/numNodes» تنظیم می‌کنم تا احتمال کلی «B» باشد؟ پیشنهادی دارید؟ **به روز رسانی: محاسبه برگشت بتا و استراتژی بهبود عفونت** def Controller(): برای i در محدوده (1,100): همسایگان = getNeighbors(i) k = len(همسایگان) برای j در همسایگان: بتا = -k log(1 -c) if (بتا <= InfectionThreshold): ScheduleTransmission(getCurrentTime()، i، j) Schedule(getCurrentTime() + 1، Controller)
مدل های اپیدمی در صورت تحرک چگونه شبیه سازی می شوند؟
16430
اگر می خواهید $E[y| را تخمین بزنید x = \text{some value}]$ آیا این فقط مربوط به وصل کردن $x$ به معادله رگرسیون است؟ از آنجا که شما ضرایب رگرسیون را تخمین می زنید، بنابراین مقداری که به دست می آورید نیز یک تخمین است؟
چگونه مقدار مورد انتظار مشروط را در یک رگرسیون تفسیر کنیم؟
93857
من احساس می‌کنم این ایده خوبی نیست، اما تلاش می‌کنم دلیلی برای اشتباه بودن آن بیاندیشم، غیر از این که فرض همگن بودن واریانس‌ها مطمئناً نقض می‌شود. آیا دلیل اساسی تری وجود دارد که چرا این اشتباه است؟ آیا این بستگی به تعداد شرکت کنندگان در سطوح دیگر فاکتور دارد یا به چند سطح دیگر بستگی دارد؟
آیا انجام ANOVA مستقل یک طرفه زمانی که یکی از سطوح فقط یک شرکت کننده دارد، نامناسب است؟
107798
من یک مجموعه داده دارم که شامل زمان های مختلف پاسخگویی کاربر است که از یک برنامه وب بازدید می کند. به عنوان مثال، یک بازدید کننده وارد www.test.com در مرورگر می شود و از طریق این دامنه پیمایش می کند و صفحات فرزند مانند www.test.com/news، www.test.com/overview، www.test.com/overview/current، و غیره را مشاهده می کند. اگر کاربر یک وب سایت را تماشا کند، به آن اقدام کاربر می گویند. فرض کنید یک کاربر 5 عملکرد کاربر را با زمان پاسخ 200ms، 500ms، 350ms، 1200ms، 154ms انجام داده است. اکنون می‌خواهم نقاط پرت را پیدا کنم که بارگذاری سریع صفحه یا بارگذاری کند صفحه را بیان می‌کنند. آیا این به نحوی امکان پذیر است؟ با تشکر EDIT: من می خواهم موارد پرت را شناسایی کنم زیرا می خواهم تجربه کاربر را بسته به زمان پاسخگویی تعیین کنم. فرض کنید من سه حالت ux دارم، یعنی خوشحال، خوب و ناراضی. همه اقدامات کاربر به جز موارد پرت خوب است. آنها یا ناراضی هستند اگر زمان پاسخگویی خیلی زیاد باشد یا خوشحال هستند اگر زمان پاسخگویی بسیار کم باشد.
تشخیص نقاط پرت در مجموعه داده های بسیار کوچک
113711
مقدار $\chi^{2}$ پیرسون 115.778 است و 4 سلول (33.33٪) تعداد مورد انتظار کمتر از 5 دارند. من گیج هستم که چگونه این خروجی را تفسیر کنم. من یک جدول احتمالی 2 در 6 دارم. کسی می تواند به من بگوید چه مشکلی پیش آمده است؟
ارزش $\chi^{2}$ پیرسون؟
108286
من آزمایش هایی را روی تشخیص گفتار مداوم انجام می دهم. پس از استفاده اولیه از شناساگر، دنباله واجی را دارم که شامل برخی خطاها است (سه نوع خطا: جایگزینی، حذف و گنجاندن). به عنوان مثال: من _h e l' l o n y k f r a n d s t_ را به جای _h e l l o m y f r i e n d s_ به دست می آورم بنابراین، وظیفه استفاده از اطلاعات مربوط به زبان (رونویسی صحیح هر کلمه، ترتیب کلمات معتبر و غیره) برای بازیابی رونویسی صحیح خراب شده از تلفن است. توسط سر و صدا من در مورد مدل های پنهان مارکوف تعجب کردم، اما نمی دانم چگونه از آن در اینجا استفاده کنم. هر ایده ای قابل تقدیر است. پیشاپیش متشکرم
مناسب ترین روش برای بازیابی رونویسی کلمات از دنباله واج با خطا چیست؟
21300
توجه: من به SAS دسترسی ندارم تا خودم این مشکل را حل کنم. من سعی می کنم تفاوت بین عبارت «FREQ» در «PROC GENMOD» (به عنوان مثال) و عبارت «REPLICATE» در «PROC NLMIXED» را پیدا کنم. توضیح «SAS» تفاوت عملی ریاضی را برای من روشن نمی کند. آزمون توضیحی «REPLICATE» (پیوند مستندات در اینجا): > عبارت REPLICATE راهی برای تطبیق مدل هایی ارائه می دهد که در آنها > موضوعات مختلف داده های یکسانی دارند. این معمولا زمانی اتفاق می افتد که متغیر وابسته > باینری باشد. وقتی یک متغیر REPLICATE را مشخص می‌کنید، PROC > NLMIXED فرض می‌کند که مقدار آن نشان‌دهنده تعداد موضوعاتی است که داده‌های > یکسان با مقادیر فعلی متغیر SUBJECT= (مشخص شده > در عبارت RANDOM) دارند. فقط آخرین مشاهده متغیر REPLICATE > برای هر موضوع استفاده می شود و متغیر replicate باید فقط مقادیر صحیح > مثبت داشته باشد. توجه داشته باشید که مکانیسم REPLICATE با > استفاده از عبارت FREQ در سایر روش های مدل سازی آماری، مانند > PROC GLM، GENMOD، GLIMMIX و LOGISTIC متفاوت است. یک متغیر FREQ برای شناسایی > مقادیر گروه بندی شده برای مشاهدات استفاده می شود، که اساساً احتمال ورود به سیستم > یا مجموع سهم مربع ها برای مشاهده را ضرب می کند. یک متغیر REPLICATE برای ضرب کردن سهم یک موضوع که شامل یک یا چند > مشاهدات است استفاده می شود. متن توضیحی «FREQ» در «PROC GENMOD» این است (پیوند مستندات در اینجا): > متغیر در عبارت FREQ متغیری را در داده های ورودی مشخص می کند > مجموعه حاوی فراوانی وقوع هر مشاهده است. PROC GENMOD > با هر مشاهداتی طوری رفتار می کند که انگار _n_ بار به نظر می رسد، جایی که _n_ مقدار > متغیر FREQ برای مشاهده است. اگر یک عدد صحیح نباشد، مقدار فرکانس > به یک عدد صحیح کوتاه می شود. اگر کمتر از 1 باشد یا وجود نداشته باشد، > از مشاهده استفاده نمی شود. در مورد مدل‌هایی که با معادلات تخمین تعمیم‌یافته (GEEs) مطابقت دارند، فرکانس‌ها برای موضوع/خوشه > اعمال می‌شوند و بنابراین باید برای همه مشاهدات درون هر موضوع یکسان باشند. با فرض اینکه متغیر replicate فقط حاوی مقادیر صحیح باشد، به نظر می رسد که عبارت «REPLICATE» در «PROC NLMIXED» فقط یک عبارت «FREQ» است. اما اسناد «SAS» چیز دیگری می گوید. چه چیزی را در مورد چگونگی تأثیر دستورات بر تعداد مشاهدات استفاده شده و جریان تأثیرات به تخمین ها از دست داده ام؟ به ویژه، این موضوع چگونه بر مطالعات اندازه گیری های مکرر تأثیر می گذارد؟ به روز رسانی: آیا پاسخ به تفاوت در برخورد با درجات آزادی می تواند باشد؟ نمی‌دانم «SAS» چگونه از این دستورات برای کشف این موضوع برای خودم استفاده می‌کند.
دستور SAS RePLICATE در PROC NLMIXED چه تفاوتی با دستور FREQ دارد؟
53269
من سعی می کنم یک فیلتر کالمن را در R پیاده سازی کنم. با استفاده از تحلیل سری های زمانی توسط همیلتون، معادلات فضای حالت به صورت زیر تعریف می شوند: حالت: $z(t) = F_z(t-1) + v(t)$ مشاهده: $y(t) = A'x(t) + H'z(t-1) + w(t)$ که در آن $x(t)$ متغیرهای برونزا هستند. مدلی که من سعی در پیاده سازی آن را دارم به این صورت تعریف شده است. بسته‌های متعددی وجود دارند که مدل‌های فضای حالت را در R پیاده‌سازی می‌کنند، اما با خواندن مستندات به نظر می‌رسد که معادلات به‌طور متفاوتی تعریف شده‌اند، با $A'x(t)$ که در معادله حالت گنجانده شده است. کوتاه از نوشتن کد تخمین حداکثر احتمال، کسی راهی برای جا دادن این مدل در R می شناسد؟ به روز رسانی: به روز رسانی قبلی من حذف شد. مقاله دیگری پیدا کردم که این را به روشی بسیار واضح‌تر پیاده‌سازی می‌کند، پس از هضم آن به‌روزرسانی می‌شود. به روز رسانی 2: بنابراین من مقاله دیگری پیدا کردم که چیزی شبیه به آنچه من تلاش می کنم انجام می دهد، اما برای من بسیار واضح تر است که چگونه معادلات فضای حالت را تنظیم کنم. مشکلی که اکنون با آن روبرو هستم اجرای فیلتر با استفاده از بسته dlm است. اگه کسی تجربه ای داره که کمک کنه ممنون میشم من می‌توانم مدل را راه‌اندازی کنم و سپس فیلتر را اجرا کنم، اما فقط 2 مقدار فیلتر شده (وضعیت اولیه و t=1) بر خلاف t-values ​​برگردانده می‌شود. من واقعاً نمی دانم چرا اینطور است. از اسناد dlm: مشاهده: $y= \mathbf{F}\theta + v_t$ حالت: $\theta = \mathbf{G}\theta_{t-1} +w_t$ جایی که m تعداد مشاهدات و p است تعداد پارامترها در $\mathbf{F}$ * $\mathbf{V}$ m x m * $\mathbf{G}$ است p x p * $\mathbf{W}$ p x p * $c_0$ است p x p کد نمونه: require(dlm) FMat<-cbind(rnorm(123),rnorm(123)) GMat<-diag(1,2) WMat< -diag(0.02،2) Vmat<-diag(0.02،123) m0Vec<-c(1,1) c0Vec<-diag(0.05,2) y<-rnorm(123) ssMod<-dlm(FF=FMat,V=Vmat,GG=GMat,W=WMat,m0=m0Vec, C0=c0Vec) kFilter<-dlmFilter(y,ssMod) kFilter$m > kFilter$m [,1] [,2] [1,] 1.00000000 1.00000000 [2،] -0.02417179 0.05107227
پیاده سازی فیلتر کالمن در R
49257
من سه سال اطلاعات عفونت از 6 بیمارستان مختلف دارم. 2010 2011 2012 1 1.3 2.5 1.03 2 3.35 2.5 2.6 3 4.1 1.8 2.5 4 2.0 3.65 .7 5 3.4 3.75 2.4 6 1.2 2.6 3.1. (عفونت/10000 ptd). من باید اهمیت بین سال ها را تعیین کنم. کاری که من قصد انجام آن را دارم این است که یک آزمون t-paired برای سال های 2010/2011 و 2011/2012 یا یک آزمون من ویتنی U را اجرا کنم. از آنجایی که من فقط سه سال داده دارم، احساس می‌کنم برای مقایسه همه داده‌ها با ANOVA، قدرت کافی برای یافتن اهمیت وجود ندارد. آیا این معقول به نظر می رسد یا آزمایش های جایگزینی وجود دارد که می توانم انجام دهم تا بفهمم آیا بین سال ها اهمیت آماری وجود دارد؟
تجزیه و تحلیل داده های آلودگی بین دو سال با استفاده از آزمون های پارامتریک یا ناپارامتریک؟
96447
من چیزی در مورد خطای استاندارد خواندم، که می گوید میانگین نمونه تخمین دقیقی نیست، زیرا ما از جمعیت کامل با اندازه N نمونه برداری نمی کنیم. اما، اگر اندازه نمونه n = N یا از N بیشتر شود، یعنی n > N چه؟ آیا خطای استاندارد می تواند دقیق تر از انحراف معیار باشد؟
اگر حجم نمونه بزرگتر از حجم جامعه باشد چه؟
21303
من سعی می کنم منطقه رد را برای آزمایش جایگشت در مورد تفاوت بین میانه ها پیدا کنم که در آن: H0: تفاوت بین میانه ها برابر 0 است. Ha: تفاوت بین میانه ها بیشتر از 0 است. با توجه به اینکه من توزیع آمار آزمون خود را بر روی مجموعه داده های نمونه گیری مجدد دارم، چگونه می توانم مقدار بحرانی را برای آزمون پیدا کنم تا بتوانم منطقه رد را استنباط کنم؟ > sum(permstats>=obs.median)/length(permstats) #pvalue برای من کاملاً مشخص نیست چگونه می توانم ناحیه رد را با توجه به توزیع جایگشت (و شاید p-value) پیدا کنم؟
چگونه ناحیه رد را برای تست جایگشت تعریف کنیم؟
61932
من سیستمی دارم که تغییرات خاصی در آن ایجاد می کنم. من می خواهم تأثیر آن تغییرات را بر عملکرد سیستم مقایسه کنم. برای این کار، عملکرد را به عنوان تابعی از مجموعه‌ای از ورودی‌ها چندین بار، قبل و بعد از ایجاد تغییرات، ضبط می‌کنم. چگونه می توانم تأثیر این تغییرات را با توجه به اینکه تأثیرات محیطی تصادفی همیشه بر روی سیستم اعمال می شود، کمیت کنم؟ من معتقدم که این یک مشکل عمومی در آمار است و ANOVA، Student's t-test و K-S را خوانده ام. با این حال، هنگام تصمیم گیری در مورد یک روش، چه ملاحظاتی باید در نظر گرفته شود؟ فرض توزیع نرمال وجود ندارد، بنابراین به نظر می رسد که آزمون K-S بهترین راه حل باشد. آیا می توانید منبعی را به من معرفی کنید که این دسته از مشکلات را مورد بحث قرار دهد؟ من با توضیحات تکه تکه ای که تاکنون در اینترنت پیدا کرده ام، بسیار گیج شده ام.
مقایسه چندین مجموعه داده از یک آزمایش کنترل شده
56967
من یک طرح آزمایشی اندازه‌گیری‌های مکرر (زمان 1، زمان 2) دارم و می‌خواهم یک تحلیل عاملی تأییدی بر روی مقیاس‌هایی که استفاده کرده‌ام اجرا کنم و با آلفای کرونباخ پیگیری کنم. با این حال، مطمئن نیستم که باید تجزیه و تحلیل ها را در زمان 1 یا زمان 2 اجرا کنم. هر توصیه ای؟
آلفای کرونباخ و تحلیل عاملی برای طراحی اندازه‌گیری‌های مکرر
61930
من یک بازخوانی پر سر و صدا از یک منحنی دارم که برای محدوده باریکی از نقاط به طور یکنواخت افزایش یا کاهش می یابد و سپس به سرعت اشباع می شود. من دقیقاً نمی‌دانم نقطه اشباع کجاست، اما از طریق فرآیند زیربنایی (بیولوژیکی) می‌دانم که وجود دارد و پس از رسیدن به آن، انحرافات شدید از یک خط صاف به احتمال زیاد پرت هستند. من به دنبال بهترین راه برای صاف کردن این داده ها هستم. چیزی شبیه به این (داده ها در واقع برای سری های زمانی نیستند، اما قیاس خوبی هستند): ![نمونه ای از داده ها و منحنی ای که می خواهم متناسب باشد](http://i.stack.imgur.com/MhPhA. png) تا کنون سعی کرده‌ام از این موارد استفاده کنم: * فیلتر Hampel * رگرسیون لس (از جمله نسخه قوی آن، Family=symmetric در R) * ترکیبی از هر دو مشکل با لس این است که از آنجایی که بیت غیراشباع بسیار کوچک است، لس تمایل دارد که آن را کمتر کند و خط روند را به سمت نقطه اشباع به سمت بالا یا پایین کشیدن کند. مشکل فیلتر هامپل این است که اگرچه در فیلتر کردن نقاط پرت قوی کار می کند، اما برای صاف کردن آن، یعنی صیقل دادن انحرافات کوچک از خط روند، چندان عالی نیست. به نظر می رسد بهترین کار این باشد که نقطه اشباع را پیدا کنید و سپس دو مدل جداگانه قبل و پس از آن را در نظر بگیرید. این کار بدون نویز ساده خواهد بود، اما من مطمئن نیستم که چگونه آن را در یک محیط پر سر و صدا انجام دهم. من همچنین آماده هرگونه پیشنهاد دیگری هستم. این بخشی از یک پروژه بزرگ در R است، بنابراین اگر یک الگوریتم پیشنهادی پیاده‌سازی R داشته باشد، بسیار عالی خواهد بود.
الگوریتم هموارسازی برای تابع اشباع
96440
اگر از لایه های مخفی بیش از حد در شبکه عصبی استفاده کنیم مشکلی وجود دارد؟ آیا کسی می تواند به سادگی توضیح دهد که اگر لایه های پنهان بیش از حد داشته باشیم چه مشکلاتی ممکن است رخ دهد.
مشکلات بسیاری از لایه های پنهان چیست؟
5831
من فکر می کنم منصفانه است که بگوییم آمار یک علم کاربردی است، بنابراین وقتی میانگین ها و انحرافات استاندارد محاسبه می شود به این دلیل است که کسی به دنبال تصمیم گیری بر اساس آن اعداد است. بخشی از یک آماردان خوب بودن، امیدوارم بتوانیم حس کنیم که چه زمانی می توان به داده های نمونه اعتماد کرد و زمانی که برخی از آزمون های آماری به طور کامل داده های واقعی مورد علاقه ما را نادرست نشان می دهد. برنامه نویسی که به تجزیه و تحلیل علاقه مند است. مجموعه‌های کلان داده‌ها من در حال یادگیری مجدد برخی از آمار و نظریه احتمال هستم، اما نمی‌توانم از این احساس آزاردهنده خلاص شوم که همه کتاب‌هایی که نگاه کرده‌ام به نوعی شبیه به سیاستمدارانی هستند که از آنها سر در می‌آورند. مرحله و یک سری چیزها را بگویید و سپس سلب مسئولیت زیر را در پایان صحبت های خود اضافه کنید > حالا نمی گویم این خوب است یا بد اما اعداد می گویند خوب است > به هر حال باید به من رای دهید. شاید شما آن را دریافت کنید، اما ممکن است شما این را نداشته باشید، این یک سوال است. کجا بروم تا داستان های جنگی توسط آماردان ها را پیدا کنم که برخی از تصمیمات بر اساس برخی اطلاعات آماری است که بعداً معلوم شد کاملاً اشتباه بوده است؟
آمار، داستان های جنگ، شهود داده ها
10621
من علاقه مند به برازش یک مدل رگرسیون پواسون شرطی با استفاده از PROC GENMOD در SAS برای تجزیه و تحلیل یک مطالعه کوهورت همسان هستم. با این حال، برای من کاملاً روشن نیست که دقیقاً چگونه باید این کار را انجام دهم. تصور من این است که عبارت REPEATED باید همراه با نحو رویدادها/آزمایی ها استفاده شود، اما اگر چنین است، چگونه متغیرهای کمکی پیوسته در مدل، مانند سن، محاسبه می شود؟ اگر کسی راهنمایی داشته باشد بسیار سپاسگزار خواهم بود. تا اینجا گوگل و اینترنت من را ناامید کرده اند. به سلامتی
چگونه یک رگرسیون شرطی پواسون در SAS مناسب است؟
53262
آیا مقاله تحقیقاتی یادگیری ماشین/ داده‌کاوی وجود دارد که به پیش‌بینی عملکرد دو تیم شامل هر یک از بازیکنان x$ می‌پردازد؟
پیش بینی عملکرد تیم
78621
من یک مشکل رگرسیون پراکنده دارم (Sparse زیرا چند ورودی فاکتور هستند بنابراین ما تعداد زیادی ستون 1 و 0 داریم). من به رگرسیون ریج به دلیل پراکندگی فکر می کنم، اما همچنین به این دلیل که بسیاری از اصطلاحات اثرات متقابل خواهند داشت. من یک مدل قابل تفسیر هم می خواهم. آیا راهی برای استفاده از پنالتی ریج برای طبقه بندی کننده رگرسیون خطی وجود دارد؟ اگر نه، آیا یادگیرنده پایه ای وجود دارد که به من اجازه دهد اثرات تعاملی را اضافه کنم و همچنان به یک راه حل پراکنده منجر شود.
چگونه از رگرسیون ریج برای طبقه بندی استفاده کنیم؟ (یا پیشنهادات دیگر)
107795
فرض کنید متغیری را با استفاده از یک توزیع نرمال با میانگین 10 و sd 5 نسبت می دهید. آیا بهتر است 1000 نمونه تصادفی از این توزیع نرمال رسم کنید، میانگین را بگیرید و سپس از آن برای نسبت دادن این مقدار از دست رفته استفاده کنید؟ یا می توانم فقط یک قرعه کشی از این توزیع بگیرم و از آن به عنوان مقدار برای منتسب کردن داده های از دست رفته استفاده کنم؟
نسبت و توزیع
113715
من یک مجموعه داده ساده از قد افراد دارم، بسیاری از افراد با اندازه گیری در چند روز (مثلاً یک بار در سال به مدت 10 سال). من تاریخ هر اندازه گیری را دارم. برخی از مقادیر ارتفاع پوچ هستند. من قبلاً مقادیری را که غیرممکن هستند (مثلاً مقادیر ارتفاع بالای 3 متر) حذف می کنم. با این حال، من می خواهم مقادیر غیرعادی را در یک بیمار شناسایی کنم. اگر یک بیمار 5 رکورد در حدود 1.8 متر داشته باشد، اگر مقداری برای 2.1 متر باشد، من یک پرچم قرمز می خواهم. قبل از شروع ایده های بهتری هستند. با تشکر ویرایش: آزمون ESD که من به آن اشاره می‌کنم، آزمون [[Generalized] 'Extreme Studentized Deviate'][1] است. مشابه تست گرابز، برای تشخیص یک یا چند نقطه پرت در یک مجموعه داده تک متغیره که از توزیع تقریباً نرمال پیروی می کند استفاده می شود. من برای بیش از 100000 نفر اندازه گیری خواهم داشت - با این حال، هر فرد فقط بین 0 تا 20 اندازه گیری خواهد داشت. امیدوارم بتوانم این را به اندازه‌گیری‌های دیگری مانند BMI، آزمایش‌های آزمایشگاهی (ائوزینوفیل‌ها، شمارش سفید خون)، آزمایش‌های تنفسی (FEV1) و غیره تعمیم دهم. فکر می‌کنم اندازه‌گیری‌های دومی دشوار خواهند بود، زیرا متنوع‌تر هستند، افزایش و کاهش می‌یابند. با کمی وابستگی به زمان - از این رو من با قد شروع کردم!
شناسایی نقاط پرت برای داده های عددی درون بیمار
49259
نویسنده ای اندازه افکت را گزارش نکرده است، بنابراین امیدوارم بتوانید در محاسبه آن به من کمک کنید. می دانم که میانگین ها عبارتند از: شرط 1: 326 شرط 2: 558 حجم نمونه: Cond1: 11 Cond2: 12 T-test مقدار p: 0.04
تعیین اندازه اثر با مقدار P برای آزمون t، میانگین نمونه و اندازه نمونه
56966
آیا برای یک گروه شغلی آینده نگر که در آن همه در معرض یک یا چند عامل شیمیایی قرار دارند، BMI در زمان پیگیری در مقایسه با مواجهه با مواد شیمیایی خاص در ابتدا بررسی می شود، آیا کنترل BMI پایه ضروری است؟ آیا بهتر است تغییر در BMI را مدل کنیم یا BMI در پیگیری؟ هیچ گروهی وجود ندارد که در معرض دید قرار نگرفته باشند -- فقط اعضای گروهی که در معرض برخی از عوامل در مقابل دیگران قرار نگرفته اند. همه تحلیل ها درون گروهی هستند.
BMI در ابتدا و پیگیری با قرار گرفتن در معرض در ابتدا. تغییر مدل یا BMI در FUP؟ کنترل برای BMI پایه؟
71934
من با مفهوم آستانه گذاری یک ماتریس واریانس-کوواریانس جدید هستم و در درک فرآیند دقیق مشکل دارم. من بیکل و لوینا (2008) را در انتخاب آستانه سخت دنبال می کنم. چیزی که من را آزار می دهد معادله شماره آنها (3) برای عملگر آستانه است: $$ T_{s}(M) = [m_{ij}1(|m_{ij}| \ge s)] $$ تفسیر من از آن معادله این است که عملیات آستانه برای عناصر مورب ماتریس $M$ اعمال می شود. این برای من زیاد منطقی نیست. در یک ماتریس واریانس کوواریانس، مطمئن نیستم که چرا بخواهید هر یک از واریانس ها را برابر با صفر قرار دهید. برای صریح، سؤالات من این است: * آیا عملگر آستانه برای عناصر مورب اعمال می شود؟ * اگر عملگر آستانه را فقط برای عناصر خارج از مورب اعمال کنم، به تخمین بدی از ماتریس واریانس-کوواریانس منجر می‌شود؟ زمینه ای که مشکل من پیش می آید این است که من یک مدل پروبیت را با رگرسیون های درون زا از طریق روش تعمیم یافته لحظات به دنبال وایلد (2008) تخمین می زنم. من تعداد زیادی رگرسیون دارم و تعدادی از آنها متغیرهای شاخص هستند. با برخی از مشخصات مدل، ماتریس واریانس کوواریانس منفرد است که یک مشکل را ارائه می دهد. من برای همه راه حل ها باز هستم، اما راه حلی که در مورد آن خواندم، این عملیات آستانه گذاری است. می‌خواهم اشاره کنم که می‌خواهم تخمین یک مدل پروبیت درون‌زا را از طریق GMM در یک بسته R قرار دهم. من واقعاً از هرگونه کمکی برای قوی و مفید بودن آن برای جامعه آماری/اقتصادسنجی سپاسگزارم.
آستانه سخت یک ماتریس کوواریانس
22961
آیا روشی برای تصحیح سوگیری در مدل خطر متناسب کاکس ناشی از نمونه انتخابی غیرتصادفی (چیزی مانند تصحیح هکمن) وجود دارد؟ **زمینه**: فرض کنید وضعیت به این صورت است: \- در دو سال اول همه مشتریان پذیرفته می شوند. \- بعد از این دو سال یک مدل Cox PH ساخته می شود. مدل پیش بینی می کند که مشتریان چه مدت از خدمات ما استفاده خواهند کرد. \- با توجه به سیاست شرکت از این پس فقط مشتریان با احتمال بقای 3 ماه بیشتر از 0.5 پذیرفته می شوند و بقیه رد می شوند. \- بعد از دو سال دیگر باید یک مدل جدید ساخته شود. مشکل این است که ما فقط برای مشتریان پذیرفته شده هدف داریم و استفاده از این مشتریان ممکن است باعث سوگیری جدی شود.
مدل خطر متناسب کاکس و نمونه غیرتصادفی انتخاب شده
56962
طمع به همه من مجموعه داده ای را در اختیار دارم که می توانید در اینجا پیدا کنید، حاوی بسیاری از ویژگی های مختلف خانه های مختلف، از جمله نوع گرمایش آنها، یا تعداد بزرگسالان و کودکان ساکن در خانه. در کل حدود 500 رکورد وجود دارد. من می خواهم از الگوریتمی استفاده کنم که بتوان با استفاده از مجموعه داده بالا آموزش داد تا بتوانم مصرف برق خانه ای را که در مجموعه نیست پیش بینی کنم. من هر الگوریتم یادگیری ماشین ممکن را (با استفاده از weka) (رگرسیون خطی، SVM و غیره) امتحان کرده‌ام. با این حال من حدود 350 میانگین خطای مطلق داشتم که خوب نیست. سعی کردم داده هایم را از 0 تا 1 بگیرم یا برخی از ویژگی ها را حذف کنم. من نتوانستم نتایج خوبی پیدا کنم. من هم سعی کردم از ابزار R استفاده کنم و نتیجه خوبی هم نداشتم...خیلی ممنون میشم اگه یکی راهنماییم کنه یا کمی دیتاست رو بررسی کنه و چند الگوریتم روی اون اجرا کنه. از چه نوع پیش پردازشی و چه نوع الگوریتمی باید استفاده کنم؟
تخمین انرژی از طریق یادگیری ماشینی
54568
فرض کنید نقاط داده پایه $m$ و نقاط داده پس از خط پایه $n$ داریم که در آن $m < n$ است. این برای یک موضوع است. آیا می توان یک آزمون t زوجی روی این داده ها انجام داد حتی اگر $m+n$ فرد باشد؟ آیا می توانیم داده هایی را که جفت نشده اند دور بریزیم و آزمایش را انجام دهیم؟ برای مثال، فرض کنید داده‌های پایه $(1،2،3)$ و داده‌های پس از خط مبنا برای یک موضوع $(6،7،8،9،10)$ باشد. سپس می توانیم جفت های $(1,6)$, $(2,7)$ و $(3,8)$ را تشکیل دهیم. 9 دلار و 10 دلار دور ریخته می شوند. حدس می‌زنم اگر $m$ خیلی بزرگتر از $n$ نباشد، باز هم می‌توانیم تست t زوجی را بدون افت توان انجام دهیم؟ یا شاید برخی از داده‌ها را در نظر بگیرید؟
تفاوت های زوجی آزمون های تی برای تعداد فرد مشاهدات
22964
من مجموعه داده ای دارم که به این شکل است: id start end score1 score2 [...] LmjF.31 280000 290000 . . LmjF.31 290000 300000 . 2686 LmjF.31 300000 310000 . . LmjF.31 310000 320000 . 74 LmjF.31 320000 330000 . 1897 LmjF.31 330000 340000 . 4116 LmjF.31 340000 350000 705 3156 LmjF.31 350000 360000 663 4145 LmjF.31 360000 370000 170 414F.31 [...] 1150000 2284 2751 LmjF.34 1150000 1160000 . . LmjF.34 1160000 1170000 . . LmjF.34 1170000 1180000 572 . [...] (dot=`.` یعنی امتیاز 0 است) من می خواهم مناطقی را برای هر «id» رتبه بندی کنم که همبستگی بین امتیاز 1 و امتیاز 2 بالاترین است. ستون‌های دوم و سوم موقعیت‌های شروع و پایان برای پنجره‌های کشویی هستند که در حداقل اندازه آنها می‌تواند اندازه 1 باشد، اما با پنجره‌های کوچک‌تر، تعداد کمتری از آنها در هر دو امتیاز غیر صفر هستند، بنابراین من از پنجره‌های بزرگ‌تر استفاده می‌کنم. . از آنجایی که این پنجره‌ها در کروموزوم‌های مختلف برای دو گونه مختلف، همبستگی‌های «نمره ۱» و «نمره ۲» که همپوشانی ندارند اما نزدیک به هم هستند همچنان مرتبط هستند، اما اگر به طور جزئی یا کامل همپوشانی داشته باشند، حتی بهتر است. به همین دلیل است که اندازه پنجره کشویی نسبی است، زیرا من می خواهم از روشی استفاده کنم که مواردی مانند موارد LmjF.31 start=340000 to end=370000 را در نظر می گیرد که در آن سه ردیف متوالی با امتیاز بزرگتر از 0 وجود دارد. پیشنهادی دارید؟
یافتن پنجره هایی با همبستگی بالا در بین مختصات در R
49251
اگر پارامترهای یک مدل رگرسیون لجستیک و همچنین خود مدل قابل توجه است، اما آزمون خوب بودن برازش نشان می‌دهد که مدل بد است (یعنی مقادیر P انحراف و غیره کم هستند) چه باید کرد؟
مدل رگرسیون لجستیک معنی دار اما برازش ضعیف
78628
فرض کنید من یک متغیر توزیع شده گاوسی متغییر $u\sim\mathcal{N}(\mu,\Sigma)$ دارم، که در آن $\Sigma$ یک ماتریس متراکم است. من می خواهم انتظار $f(u_i)$ را محاسبه کنم. آیا $$E(f(u_i))=\int f(u_i)\mathcal{N}(u_i|\mu_i,\Sigma_{ii})\,du_i$$ اگر چنین است یک اثبات ساده ارائه دهید؟ همچنین آیا این برای سایر توزیع های چند متغیره صدق می کند؟ به عنوان مثال T چند متغیره. در غیر این صورت باید در نظر بگیرم که $$E(f(u_i))=\int f(u_i)P(u_i|u_{\backslash i})\,du_i \,P(u_{\backslash i} )\,du_{\backslash i}$$ جایی که، $u_{\backslash i}$ متغیر $u$ را بدون بعد i-ام نشان می‌دهد. به کنار: در مورد خاص من $f(u_i)=\exp(-u_i)$، با این حال من بیشتر نگران حالت کلی هستم.
آیا انتظار متغیر تک متغیره به چند متغیره وابسته است؟
108647
برای پاسخ به سوال تحقیقم، من علاقه مند به همبستگی بین شیب های تصادفی و برش های تصادفی در یک مدل چند سطحی هستم که با استفاده از کتابخانه R lme4 تخمین زده شده است. داده‌های من عبارتند از: Y (نمرات آزمون دانش‌آموزان)، SES (وضعیت اجتماعی-اقتصادی برای هر دانش‌آموز) و دانش‌آموز (ID برای هر مدرسه). من از نحو زیر برای تخمین فاصله ها و شیب های تصادفی برای مدارس استفاده می کنم: library(lme4) model3 <- lmer(Y ~ SES + (1 + SES | schoolid)) مرجعی که برای این نحو استفاده کردم این pdf است: http: //www.bristol.ac.uk/cmm/learning/module-samples/5-concepts-sample.pdf در صفحه 19، یک تحلیل مشابه شرح داده شده است. گفته می شود که با تعریف بریدگی ها و شیب های تصادفی با هم، به طور غیر مستقیم مشخص می شود که می خواهیم بریدگی ها و شیب های تصادفی همواری شوند. بنابراین، همبستگی بین شیب‌های تصادفی و بریدگی‌های تصادفی برآورد می‌شود. اساساً دقیقاً همان چیزی است که من برای پاسخ به فرضیه تحقیق خود نیاز دارم. با این حال، وقتی به نتایج نگاه می‌کنم: summary(model3) خروجی زیر را دریافت می‌کنم: مدل ترکیبی خطی متناسب با REML ['lmerMod'] فرمول: Y ~ SES + (1 + SES | schoolid) معیار REML در همگرایی: 8256.4 باقیمانده های مقیاس شده: حداقل 1Q Median 3Q Max -3.1054 -0.6633 -0.0028 0.6810 3.5606 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr schoolid (Intercept) 0.6427924 0.80174 SES 0.0009143 0.03024 1.00 Residual 0.3290902 0.57366 تعداد obs: 4376، گروهها: schoolid، 179 Stimated effect. مقدار خطای t (Intercept) -0.036532 0.060582 -0.603 SES 0.062491 0.009984 6.259 همبستگی اثرات ثابت: (Intr) SES 0.226 همانطور که در خروجی بیان شد، همبستگی بین 0.0.1 برابر است. باورش برایم سخت است. وقتی R: VarCorr(model3)$schoolid را فراخوانی می‌کنم، خروجی زیر را دریافت می‌کنم که همبستگی و ماتریس کوواریانس را نشان می‌دهد: (Intercept) SES (Intercept) 0.64279243 0.0242429680 SES 0.02424297 0.02424297 0.02424297 0.024297 0.025 0.025d9 0.00d, 0.000, 0.00, 0.00, 0.00, 14.00, 0.000. (Intercept) SES 0.80174337 0.03023782 attr(correlation) (Intercept) SES (Intercept) 1 1 SES 1 1 به نظر می رسد که همبستگی بین شیب ها و بریدگی ها توسط R روی 1.00 تنظیم شده است. من این را در خروجی هر شخص دیگری زمانی که من در اینترنت در مورد مراجع مدل سازی چند سطحی جستجو می کردم. کسی میدونه دلیل این همبستگی چی میتونه باشه؟ آیا ممکن است همبستگی روی 1.00 تنظیم شود زیرا در غیر این صورت مدل شناسایی نمی شود؟ یا به این دلیل است که واریانس شیب های تصادفی آنقدر کوچک است (0009/0) که نمی توان همبستگی را تخمین زد؟ من سعی کرده ام داده ها را شبیه سازی کنم تا کد یک مجموعه داده کوچک قابل تکرار را ارائه کنم. با این حال من هنوز نتوانستم این خروجی را با استفاده از داده های شبیه سازی شده بازتولید کنم. تا جایی که من کد داشته باشم، پست خود را ویرایش می کنم و کد را اضافه می کنم. ویرایش: در پاسخ به نظر رومن لوشتریک، طرح زیر: ggplot(data[1:261,]، aes(x = SES، y = Y)) + geom_point() + facet_wrap(~ schoolid) + geom_smooth(روش =lm) از آنجایی که در مجموع 179 مدرسه وجود دارد، طرح کاملاً آشفته می شود، بنابراین من 10 مدرسه اول را فقط برای ایجاد آن وارد کردم. قابل خواندن: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gSPI5.jpg)
تخمین همبستگی بین شیب های تصادفی و قطع های تصادفی با استفاده از بسته lme4 در R
78558
من خوانده ام که مساحت زیر منحنی ROC معادل نمره U Mann-Whitney است. آیا نمره AUC چند کلاسه (که میانگین نمرات AUC برای جفت کلاس ها را نشان می دهد) با آمار آزمون Kruskal-Wallis مرتبط است؟
AUC معادل یک امتیاز U Mann-Whitney است، آیا AUC چند کلاسه اولیه مربوط به آمار آزمون Kruskal-Wallis است؟
105521
چگونه ژنراتورها را در Minitab 16 تعریف کنم؟ من یک طرح آزمایشی (DOE) با 5 فاکتور و 2 ژنراتور دارم. من در جعبه ژنراتورها D=ABC E=AC را وارد کردم اما فقط از F تا G می گوید؟
چگونه ژنراتورها را در Minitab تعریف کنم
63573
می‌خواهم بدانم آیا روش‌های پیش‌بینی معمولی برای داده‌های شمارش، در مجموعه داده‌ای خاص که حاوی چندین صفر است، اعمال می‌شود؟ من مجموعه داده‌ای دارم که میزان استفاده از یک سرویس را به صورت ساعتی محاسبه می‌کند و می‌خواهم بر اساس داده‌های تاریخی، ساعتی را که قرار است در آن سرویس استفاده شود، پیش‌بینی کنم. همچنین، می خواهم بدانم که آیا اصطلاح صحیح کاری که می خواهم انجام دهم، پیش بینی است یا پیش بینی؟
پیش بینی/پیش بینی داده های شمارش
63576
کمک شما در مورد سوال زیر قابل تقدیر است. با تشکر می‌دانم که آزمون t زوجی برای همان گروهی از افراد است که تست‌های پیش و پس آزمون خود را آزمایش کنند و ببینند که آیا بین آزمون‌های پیش و پس آزمون خود سود قابل توجهی دارند یا خیر. اگر درمان پیشرونده باشد، آیا می‌توانم از همان افراد برای جمع‌آوری داده‌ها در طول زمان استفاده کنم و آزمایش t نمونه‌ای زوجی را با هم انجام دهم، زیرا حجم نمونه بسیار کوچک است (فقط 6 نفر)؟ سال 1: درمان 1 با آزمایشات پیش و پس از 3 نفر (ABC) سال 2: درمان 2 (بهبود درمان 1) با همان 3 نفر (ABC) آزمایشات قبل و بعد از آن سال 3: درمان 2 (بهبود درمان 1) با سه نفر دیگر (DEF) آزمون های پیش آگهی پست تبلیغاتی در این مورد، آیا می توانم آزمون t زوجی را برای 9 نقطه داده اجرا کنم؟ (3 نقطه داده [ABC] از سال 1، 3 نقطه داده [ABC] از سال 2، و 3 نقطه داده [DEF] از سال 3) و سپس اثر درمان 1 را به طور کلی گزارش کنید (زیرا درمان 2 بر اساس بهبود درمان 1)؟ می دانم که برخی ممکن است استدلال کنند که من از همان افراد دو بار در سال 1 و سال 2 استفاده می کنم (ABC). بنابراین، اگرچه ممکن است آنها برای پیش آزمون در سال دوم نمره بالاتری کسب کنند، اما انتظار داریم که برای پس آزمون نیز نمره بالاتری کسب کنند. یعنی ما انتظار داریم که ABC در هر دو سال اول و دوم یک سود داشته باشد. بینش و توصیه های شما بسیار قابل تقدیر است. مراجع نیز بسیار قدردانی می شوند.
سوالی در مورد آزمون t نمونه زوجی؟
58661
اگر 10 دقت طبقه‌بندی برای 3 پارامتر مختلف داشته باشم و یک تست ANOVA انجام دهم که $F=1.19$ و $\text{Prob>F}$0.3201$ را به دست می‌دهد. مقدار پارامتر تعداد ویژگی ها را نشان می دهد. آیا این بدان معناست که هیچ یک از 3 مقدار پارامتر نتیجه متفاوتی نسبت به دیگری ندارد؟ مهمتر از آن، چگونه می توانم انتخاب یک مقدار پارامتر بر دیگری را توجیه کنم؟ موضوع این است که با 3 ویژگی دقت 96% را بدست می‌آورم در حالی که با 2 و 4 ویژگی به ترتیب 92% و 88% می‌گیرم. از این رو، من می خواهم استفاده از 3 ویژگی را به جای 2 توجیه کنم.
عدم قطعیت ANOVA
49258
در [1]، شرودولف الگوریتمی را برای به روز رسانی وزن $w$ و برخی متغیرهای کمکی $p$ و $v$ با توجه به یک گرادیان برداری $g$ و یک بردار دیگر $Cv$ ارائه می دهد. قوانین به روز رسانی سعی می کند آن را به گونه ای انجام دهد که v به $C^{-1}g$ می رود که در آن $C$ می تواند، به عنوان مثال، Hessian باشد. $Cv$ برداری مانند $g$ است که به الگوریتم ارسال می شود. قوانین به‌روزرسانی عبارتند از: \begin{align}\DeclareMathOperator{\diag}{diag} \DeclareMathOperator{\max}{max} w_{t+1} &= w_t - \diag(p_t)g \\\ p_t &= \diag(p_{t-1})\max\left(\frac12, 1 + \mu\diag(v)g\right) \\\ v_{t+1} &= \lambda v_t + \diag(p_t) (g - \lambda Cv_t) \end{align} که در آن $\mu$ و $\lambda$ ثابت هستند. چگونه این قوانین به‌روزرسانی را تغییر می‌دهید تا کاربرد آموزش بتواند با 0 $ \le u$ وزن شود، به طوری که شبیه به آموزش $u$ بار با الگوریتم اصلاح‌نشده باشد. اولین تلاش من جایگزینی $g$ با $ug$ و جایگزینی $\lambda$ با $\lambda^u$ بود. من به دنبال بینش هستم. [1]: Schraudolph, N. N. (2002). محصولات ماتریس-بردار انحنای سریع برای نزول گرادیان مرتبه دوم. محاسبات عصبی، 14 (7)، 1723-38.
اصلاح متانزول تصادفی برای وزن متغیر
89204
من به دنبال مشاوره در مورد چگونگی تجزیه و تحلیل داده های نظرسنجی پیچیده با مدل های چند سطحی در R هستم. من از بسته نظرسنجی برای وزن کردن احتمالات نابرابر انتخاب در مدل های یک سطحی استفاده کرده ام، اما این بسته دارای توابع برای چند سطح نیست. مدل سازی بسته «lme4» برای مدل‌سازی چند سطحی عالی است، اما راهی وجود ندارد که بتوانم وزن‌ها را در سطوح مختلف خوشه‌بندی لحاظ کنم. آسپاروهوف (2006) این مسئله را مطرح می کند: > مدل های چند سطحی اغلب برای تجزیه و تحلیل داده های نمونه گیری خوشه ای > طرح ها استفاده می شوند. با این حال، چنین طرح‌های نمونه‌گیری اغلب از احتمال نابرابر انتخاب در سطح خوشه‌ای و در سطح فردی استفاده می‌کنند. وزن های نمونه > در یک یا هر دو سطح برای منعکس کردن این احتمالات تخصیص داده می شود. اگر وزن‌های نمونه‌گیری در هر دو سطح نادیده گرفته شود، تخمین‌های پارامتر می‌تواند به‌طور قابل‌توجهی مغرضانه باشد. یک رویکرد برای مدل‌های دو سطحی تخمین‌گر شبه حداکثر درستنمایی چندسطحی (MPML) است که در MPLUS پیاده‌سازی شده است (Asparouhov و همکاران، ?). کارل (2009) بسته‌های نرم‌افزاری اصلی را بررسی می‌کند و چند توصیه در مورد نحوه ادامه کار ارائه می‌کند: > برای اجرای صحیح MLM با داده‌های نظرسنجی پیچیده و وزن‌های طراحی، > تحلیلگران به نرم‌افزاری نیاز دارند که بتواند وزن‌های مقیاس‌بندی شده خارج از برنامه را شامل شود و شامل «جدید» باشد. وزنه های مقیاس شده بدون برنامه خودکار > اصلاح. در حال حاضر، سه تا از برنامه های اصلی نرم افزار MLM این اجازه را می دهند: Mplus (5.2)، MLwiN (2.02)، و GLLAMM. متأسفانه، نه HLM و نه SAS نمی توانند این کار را انجام دهند. وست و گالکی (2013) مروری به روزتر ارائه می دهند، و من متن مربوطه را به طور کامل نقل می کنم: > گاهی اوقات، تحلیلگران مایلند LMM ها را برای بررسی مجموعه داده های جمع آوری شده از > نمونه هایی با طرح های پیچیده تطبیق دهند (به Heeringa و همکاران، 2010 مراجعه کنید، فصل 12). طرح های پیچیده > نمونه به طور کلی با تقسیم جمعیت > به طبقات، انتخاب چند مرحله ای از خوشه های افراد از داخل > طبقات، و احتمال نابرابر انتخاب برای هر دو گروه و > افراد نهایی نمونه مشخص می شود. این احتمالات نابرابر انتخاب به طور کلی منجر به ساخت وزن‌های نمونه‌گیری برای افراد می‌شود، که تخمین بی‌طرفانه پارامترهای توصیفی را هنگام گنجاندن در تجزیه و تحلیل تضمین می‌کند. این وزن‌ها ممکن است بیشتر برای بررسی > عدم پاسخ تنظیم شوند و به مجموع جمعیت شناخته شده کالیبره شوند. به طور سنتی، تحلیلگران ممکن است یک رویکرد مبتنی بر طراحی را برای ترکیب این ویژگی‌های نمونه‌گیری پیچیده در هنگام تخمین مدل‌های رگرسیون در نظر بگیرند (Heeringa و همکاران، 2010). اخیراً، آماردانان شروع به کاوش رویکردهای مبتنی بر مدل برای تجزیه و تحلیل این داده‌ها کرده‌اند و از LMMs برای ترکیب اثرات ثابت لایه‌های نمونه‌گیری و اثرات تصادفی خوشه‌های نمونه‌گیری شده استفاده می‌کنند. مشکل اصلی توسعه رویکردهای مبتنی بر مدل برای تجزیه و تحلیل این داده‌ها، انتخاب روش‌های مناسب برای ترکیب وزن‌های نمونه بوده است (برای خلاصه‌ای از مسائل به گلمن، 2007 مراجعه کنید). > Pfeffermann و همکاران. (1998)، آسپاروهوف و موتن (2006)، و Rabe-Hesketh > و Skrondal (2006) نظریه ای را برای تخمین مدل های چند سطحی به گونه ای توسعه داده اند که وزن های بررسی را در بر می گیرد، و Rabe-Hesketh و Skrondal > (2006)، Carle. (2009) و هیرینگا و همکاران. (2010، فصل 12) برنامه های کاربردی را با استفاده از روش های نرم افزاری فعلی ارائه کرده اند، اما این همچنان یک منطقه فعال تحقیقاتی آماری است. رویه‌های نرم‌افزاری که می‌توانند LMM را برازش کنند در مراحل مختلف پیاده‌سازی رویکردهایی هستند که تاکنون در ادبیات برای ترکیب ویژگی‌های طراحی پیچیده پیشنهاد شده‌اند، و تحلیلگران باید این را در هنگام تطبیق LMMها با داده‌های پیمایش نمونه پیچیده در نظر بگیرند. تحلیلگرانی که علاقه مند به تطبیق LMM ها با داده های جمع آوری شده > از نظرسنجی های نمونه پیچیده هستند، جذب رویه هایی می شوند که می توانند وزن های نظرسنجی را به درستی در روش های تخمین ادغام کنند > (HLM، MLwiN، Mplus، xtmixed، و gllamm)، مطابق با حال. > ادبیات در این زمینه. این من را به سوال من می‌رساند: آیا کسی بهترین توصیه‌های عملی را برای تطبیق LMM به داده‌های نظرسنجی پیچیده در R دارد؟
برازش مدل های چند سطحی به داده های پیمایش پیچیده در R
81617
عنوان ممکن است برای چیزی که من به دنبال آن هستم کاملاً دقیق نباشد. من رشد یک جدول پایگاه داده را در طول زمان اندازه گیری می کنم تا تخمین بزنم که در آینده به چه مقدار دیسک نیاز خواهم داشت. حدس می‌زنم فقط با یک جدول می‌توانم از رگرسیون خطی برای تخمین خود استفاده کنم و با اندازه‌گیری‌های بیشتر دقیق‌تر می‌شوم. با این حال، مسئله این است که پایگاه داده مورد بحث چند مستاجر است. مشتریان از کاربران بسیار مکرر تا کاربران بسیار نادر متغیر هستند و هر کاربر جدول مخصوص به خود را دارد. استفاده مکررتر برابر با رشد بیشتر در طول زمان است. با توجه به این موضوع، چگونه می توانم حدس دقیقی از رشد داشته باشم؟ در درک من، کاربران نادر داده ها را منحرف می کنند، و بالعکس برای کاربران مکرر. نمی‌دانم چگونه می‌توانم کاربران را خوشه‌بندی کنم، زیرا ممکن است در اندازه‌گیری ۱ کاربر مکرر در نظر گرفته شوند اما در اندازه‌گیری ۲ کاربر نادری در نظر گرفته شوند.
تخمین رشد بر روی مجموعه ای از داده های خوشه ای
78550
من مجموعه ای از متغیرهای باینری داشتم. برای اعمال رگرسیون لجستیک، ارتباط بین متغیرهای وابسته و مستقل را بررسی کردم و تنها آن دسته از متغیرهای مستقل را در مدل در نظر گرفتم که با متغیر وابسته مرتبط شدند. سوال من این است که آیا این روش مناسبی برای برازش مدل رگرسیون لجستیک است؟
مراحل رگرسیون لجستیک باینری زمانی که متغیرهای وابسته و مستقل باینری هستند، دنبال می‌شوند
78554
من باید بفهمم mvpart چه می کند. از کدام شاخص به عنوان معیار تقسیم (در مورد من، روش = کلاس) استفاده می کند؟ آیا از پارتیشن بندی همزمان در امتداد چند محور (چند متغیره) استفاده می کند؟ آیا منابعی وجود دارد که بتوانم در این زمینه مطالعه کنم؟
R mvpart - شاخص تقسیم
62623
من یک مجموعه داده دارم که در آن افراد تعدادی از موضوعات را رتبه بندی کرده اند. من سعی می کنم بر اساس این رتبه بندی ها یک نتیجه در سطح موضوعی (دودویی) را پیش بینی کنم. در حین تجزیه و تحلیل این داده ها، متوجه شدم که هرگاه یک رهگیری تصادفی را برای موضوع وارد می کنم، این اثر تصادفی تقریباً تمام واریانس در نتیجه سطح موضوع را به حساب می آورد، بنابراین هیچ پیش بینی وجود ندارد. در تلاش برای یافتن اینکه آیا این به دلیل عدم ارتباط بین پیش‌بینی‌کننده و نتیجه است یا به دلیل وجود مشکلی که داده‌ها را مدل‌سازی کرده‌ام، نحو بسیار ساده زیر را نوشتم که مشکل را نشان می‌دهد. این داده های سطح گروه را تولید می کند. set.seed(1234) pred <- rnorm(n=200, mean=5, sd=2) outcome <- rbinom(length(pred), size=1, prob=.5+(pred / 25)) summary( glm (نتیجه ~ pred، دو جمله ای)) تخمین B مربوطه و p-value: pred 0.21782 0.07951 2.740 0.00615 ** اکنون هم پیش‌بینی‌کننده‌ها و هم نتایج همه 5 بار تکرار می‌شوند، به این معنا که پنج مشاهده (یکسان) از پیش‌بینی‌کننده در یک گروه وجود دارد، و نتیجه در سطح گروه تغییر نمی‌کند: pred <- rep(pred ، هر=5) نتیجه <- rep(onoff, every=5) grp <- فاکتور(1:(طول(پیش از) / 5)، هر=5)) خلاصه (glmer(نتیجه ~ pred + (1 | grp)، خانواده=دوجمله ای)) خروجی: اثرات تصادفی: نام گروه ها Variance Std. توسعه دهنده grp (Intercept) 4038.8 63.552 تعداد obs: 1000، گروه‌ها: grp، 200 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 12.389 22.094 0.561 0.575 pred 0.204 4.793 0.043 0.966 همان مدل با استفاده از aov (می دانم، برای نتایج باینری مناسب نیست) نتایجی را به دست می دهد که خیلی بهتر به نظر می رسند(asumary >com: ~ pred + خطا(grp))) خطا: grp Df Sum Sq Mean Sq F مقدار Pr(>F) pred 1 8.86 8.858 8.078 0.00495 ** Residuals 198 217.12 1.097 خوب، پس در مورد اضافه کردن مقداری واریانس درون گروهی چطور؟ شاید برخی از واریانس های درون گروهی به این کار کمک کند: indiv <- factor(rep(1:5, times=length(unique(grp)))) pred <- pred + rnorm(length(pred), 0, .2 ) خلاصه (glmer(نتیجه ~ pred + (1 | grp/indiv)، خانواده = دوجمله ای)) indiv:grp (Intercept) 2.6142e-10 1.6168e-05 grp (Intercept) 4.0416e+03 6.3574e+01 تعداد obs: 1000 گروه: indiv:grp، 1000; grp، 200 اثرات ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (واسط) 12.4160 20.1808 0.615 0.538 pred 0.1986 4.3130 0.046 0.963 و باز هم خروجی aov بهتر است: summary(aov(outcome error ~pgr)+indi Df Sum Sq Mean Sq F مقدار Pr(>F) pred 1 8.73 8.731 7.958 0.00528 ** باقیمانده ها 198 217.24 1.097 بررسی اثرات تصادفی در دو مدل گلمر نشان می دهد که رهگیری گروه زمانی که 1 و کام پایین است بالا است نتیجه 0 است - بنابراین همه چیز را توضیح می دهد واریانس در سطح گروه ممکن است اینطور باشد که من در اینجا کار کاملاً اشتباهی انجام می‌دهم، اما فکر می‌کردم که آیا واقعاً این روشی است که lme4 قصد دارد رفتار کند. اگر پیشنهادی در مورد بهبود مشخصات مدل دارید، خوشحال می شوم. PS: می دانم که می توانم داده ها را در سطح گروه جمع کنم، اما مجموعه داده واقعی کامل نیست. یعنی همه قاضی ها همه موضوعات را قضاوت نکرده اند و همه افراد توسط همه قضات قضاوت نشده اند. بنابراین، من می خواهم از مدلی استفاده کنم که بتوانم از رهگیری های تصادفی هم برای افراد و هم برای داوران استفاده کنم. و تجمیع داده ها در سطح گروه واریانس بین داور را در نظر نمی گیرد.
پیش‌بینی دقیق نتیجه سطح گروه دوجمله‌ای با lme4
54561
من در مورد تبدیل چندک یکنواخت در صورت توزیع t تعجب می کنم. ابتدا برای توضیح، یک توزیع نرمال را در نظر می گیریم: \begin{align*} f(l | \mu , \sigma ^2)=\frac{1}{\sigma \sqrt{2 \pi}} e^{- \frac{(l-\mu)^2}{2 \sigma ^2}} \end{align*} یک چندک در $\alpha$ را می توان با $Quantile_\alpha=\mu + \sigma \Phi^{-1}(\alpha)$ بنابراین به عنوان مثال. فرض کنید $\mu = -0.0000615$ و $\sigma=0,0145$، 0,95 کمیت توزیع نرمال 1,644854 است بنابراین $Quantile_{0.95}=-0.0000615+0,0145*1,644854= 0.02379$ بنابراین اکنون برای توزیع t، از موارد زیر استفاده می کنم نماد: \begin{align*} f(l|\nu ,\mu ,\beta) = \frac{\Gamma (\frac{\nu+1}{2})}{\Gamma (\frac{\nu {2}) \sqrt{\pi \nu} \beta} \left(1+\frac{1}{\nu}\left(\frac{l - \mu}{\beta}\right)^2 \right)^{\text{$-\frac{1+\nu}{2}$}} \end{align*} اکنون، من این را از یک کتاب دارم: ![quantile](http://i. stack.imgur.com/dnrep.png) VaR را نادیده بگیرید، فقط می گوید، ما روی سمت راست توزیع تمرکز می کنیم. و اکنون دیگر در مورد محاسبه کمی مطمئن نیستم. فکر می کنم $\beta$ من $\sigma^2$ باشد درست است؟ این درست است: $Quantile_{\alpha}^{t}=\mu + \beta t_\nu^{-1}(\alpha) $ یا این: $Quantile_{\alpha}^{t}=\mu + \sqrt{\beta} t_\nu^{-1}(\alpha) $ به عنوان مثال، مقادیر زیر را دارم: $\mu=-0.0012827$ $\beta=0.009891722$ $\nu = 3.34331$ و بنابراین $t_{3.34331}^{-1}(0.95)=2.258039$ اکنون است $Quantile_{0.95}^{t}=-0.0012827+0.009891722*2.258039=0.02105319$ یا $Quantile_{0.95}^{t}=-0.0012827+\sqrt{0.009891722}*2.258039=0.2232954$ درست است؟ Mh، مطمئن نیستم، زیرا من در مورد $\sigma^2$ آنها گیج شده‌ام، اما 0.2232954 نمی‌تواند از نظر تجربی صحیح باشد، بنابراین باید 0.021 باشد؟ اشتباه من کجاست؟ کتاب: الکساندر جی مک نیل، رودیگر فری، پل امبرچتس: مدیریت ریسک کمی، 2005 صفحه 40.
تبدیل چندک با توزیع t
56964
آیا می توان یک فرضیه یک طرفه را با آزمون دقیق فیشر برای بیش از یک جدول احتمالی 2×2 آزمایش کرد؟ من می‌پرسم زیرا ماشین‌حساب‌های آنلاینی که برای این مورد پیدا کردم فقط یک مقدار دو طرفه می‌دهند (به عنوان مثال، مانند این: http://vassarstats.net/fisher2x4.html). بنابراین، آیا با این وجود، تقسیم p-نتیجه داده شده بر دو و گفتن من یک آزمایش یک طرفه انجام دادم؟
تست دقیق فیشر جدول احتمالی 2*4 امکان تست یک طرفه را دارد؟
53268
چنین تست حافظه ای را برای یک موش تصور کنید. موش‌ها یک آزمایش $E$ را با دو مشکل احتمالی $0$ (شکست) و $1$ (موفقیت) انجام دادند. اگر موش ها 1 دلار دریافت کنند پاداش دریافت می کنند، اگر 0 دلار دریافت کنند مجازات می شود. آزمایش $E$ بارها با همان موش‌ها تکرار می‌شود، و ما فرآیند تصادفی $(X_n)$ را برای مدل‌سازی آزمایش‌های متوالی در نظر می‌گیریم. من در مورد روش تجزیه و تحلیل چنین داده هایی تعجب می کنم. موش‌ها قرار است در طول زمان یاد بگیرند، بنابراین ما نمی‌توانیم استقلال را فرض کنیم و حتی نمی‌توانیم یک گذار مارکویی همگن را فرض کنیم. برای سادگی می توانیم مارکوف را ناهمگن فرض کنیم. ما به احتمالات انتقال علاقه مندیم $p^n_{ij}=\Pr(X_{n+1}=j\mid X_n=i)$ ($i,j \in\\{0,1\\}$) ). در واقع دو احتمال $p^n_{01}$ و $p^n_{11}$ مرحله مارکوف را در زمان $n$ تعیین می‌کنند. با چندین موش می توان $p^n_{ij}$ را تخمین زد. اما با حجم نمونه متوسط، می‌توانیم یک محدودیت پارامتری را برای داشتن «قدرت» فرض کنیم. حتی با حجم نمونه بزرگ، فرض یک محدودیت پارامتریک برای مشاهده یک روند در طول زمان جالب است. برای مثال می‌توانیم یک رابطه logit $\text{logit } p^n_{ij} = \alpha + \beta n$ را فرض کنیم. در نگاه اول تخمین این مدل ها با حداکثر احتمال باید آسان باشد. درخواست های من این است: * آیا مدل های آماری با همین روحیه در ادبیات وجود دارد؟ من علاقه مند به دریافت برخی ارجاع هستم (الزاما محدود به فرض مارکوف نیست). * من همچنین علاقه مند به دریافت برخی از ارجاعات --- اگر مواردی وجود دارد --- در مورد مورد پیچیده تر یک فرآیند زمان پیوسته $\\{0,1\\}$-valued $(X_t)$ مدل سازی در مدت زمان آزمایش $E$ را اضافه کنید. به عبارت دقیق‌تر، موش‌ها می‌توانند در مدت زمان کمتری به موفقیت دست یابند و اگر موش‌ها هنوز موفق نشده باشند، آزمایش پس از یک دقیقه متوقف می‌شود. برای مثال، می‌توانیم برای سادگی فرض کنیم که ماوس همیشه پس از مدتی پس از توزیع نمایی، آزمایش $E$ را با موفقیت انجام می‌دهد.
مدل هایی برای فرآیند اکتساب یادگیری
71935
من مجموعه ای از داده ها را دارم و می خواهم بدانم که آیا آنها در 1، 2 یا 3 گروه قرار می گیرند. من شروع به بررسی این سوال با استفاده از k-means در متلب کردم. فقط با نگاه کردن به فاصله از مرکز هر خوشه با چشم، به نظر می رسد که ممکن است دو خوشه داشته باشم، اما می خواهم بتوانم این را با برخی آمار پشتیبان بگیرم. من خوانده ام که **استفاده از BIC** ممکن است راه خوبی باشد. من در خوشه بندی تازه وارد هستم، به این معنی که وقتی تمام پاسخ های سؤالاتی مشابه این سؤال که به مقالات تحقیقاتی در مورد موضوع مربوط می شود را می خوانم، فقط نمی توانم آنها را دنبال کنم، و امیدوار بودم که کسی بتواند اطلاعات اساسی در مورد اینکه آیا BIC یا چیز دیگری ممکن است مناسب باشد و مقداری کد متلب (محاسبات BIC یا چیزی مشابه) با توضیحات برای dummies (من تازه وارد متلب هم هستم) تا بتوانم از آن استفاده کنم.
محاسبه BIC برای تعیین تعداد بهینه خوشه ها (k-means clustering)
108641
من می دانم که متعامدسازی در LS برای جلوگیری از معکوس کردن _X'X_ است. ایده پشت آن یافتن متغیرهای _Z_ است که متعامد با یکدیگر هستند. اگرچه فرآیند یافتن آن‌ها برای من روشن است، اما راهی برای یافتن ضرایب پیدا نمی‌کنم. الگوریتم $Z_1=X_1$ را ترک می‌کند (اولین متغیر تبدیل‌شده را مانند اصلی می‌گذارم)، و سپس ضرایب را در فضای جدید $z,\ \alpha_1=\frac{<Y,Z_1>}{{|| محاسبه می‌کند. Z_i||}^2}$ (در نقطه 4 در کد شبه). بعد، $Z_i=Z_i-\frac{<Z_j,Z_i>}{{||Z_i||}^2}$ (نقطه 5 در کد شبه). خوب است. من این را درک می کنم. مسئله این است که برای بدست آوردن $\beta$ (ضرایب در فضای اصلی)، (نقطه 10 در کد شبه): $\beta_m=\alpha_m-\frac{\sum<\beta\cdot X,Z>} {{||Z_m||}^2}$. و با آخرین $Z$ شروع می‌شود، بنابراین وقتی m=M، $\beta_m=\alpha_m$ است (زیرا $i=m+1$ و مجموع به $m$ ختم می‌شود). در نهایت وقتی به $\beta_1$ رسید، با $\alpha_1$ متفاوت است. اما ما $Z_1=X_1$ را انجام می‌دادیم، **بنابراین نمی‌فهمم چرا $\beta_1\ne\alpha_1$.** کسی می‌تواند به من ایده بدهد که چرا؟ با تشکر الگوریتم این خواهد بود (به زبان اسپانیایی، اما می توانید متوجه شوید که چه کار می کند): > ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Aj94C.png)
پیش بینی کننده های متعامد برای برآورد حداقل مربعات
56969
از ویکی‌پدیا > به طور رسمی، همبستگی جزئی بین $X$ و $Y$ با مجموعه‌ای از $n$ > متغیرهای کنترلی $Z = \\{Z_1، Z_2، …، Z_n\\}$، نوشته شده $ρ_{XY· Z}$، همبستگی بین باقیمانده‌های $RX$ و $RY$ است که از رگرسیون خطی $X$ با $Z$ و $Y$ با $Z$ به ترتیب. 1. قبلاً گفته شد که > همبستگی جزئی، درجه ارتباط بین دو متغیر تصادفی > را با اثر مجموعه ای از متغیرهای تصادفی کنترل کننده حذف می کند. من تعجب کردم که چگونه همبستگی جزئی $ρ_{XY·Z}$ با همبستگی بین $X$ و $Y$ مشروط در $Z$ مرتبط است؟ 2. یک مورد خاص برای $n=1$ وجود دارد. > در واقع، همبستگی جزئی مرتبه اول (یعنی وقتی $n=1$) چیزی نیست جز تفاوت بین یک همبستگی و حاصلضرب همبستگی های > قابل جابجایی تقسیم بر حاصلضرب ضرایب > بیگانگی قابل جابجایی همبستگی ها ضریب بیگانگی، و > رابطه آن با واریانس مشترک از طریق همبستگی در > Guilford (1973، صفحات 344-345) موجود است. می خواستم بدانم چگونه می توان موارد بالا را به صورت ریاضی نوشت؟ با تشکر و احترام!
معنی همبستگی جزئی
108640
اگر بخواهم نحوه پیوند دو متغیر پیوسته را بررسی کنم، تفاوت بین محاسبه ضریب همبستگی (r پیرسون) با محاسبه ضریب رگرسیون (خطی ساده) چیست؟ من افرادی را می بینم که اگر ضریب رگرسیون به طور قابل توجهی با صفر متفاوت باشد، در مورد دو متغیر به گونه ای صحبت می کنند که گویی با هم مرتبط هستند، که گیج کننده است زیرا نشان می دهد که این دو ضریب (همبستگی، رگرسیون) یک چیز هستند. با این حال، آیا r معیاری برای شیب (خط رگرسیون) نیست؟ من گیج شدم!!
شباهت ها و تفاوت های بین همبستگی و رگرسیون
89207
بگویید من می خواهم یک ANOVA دو طرفه انجام دهم و می خواهم از منابع A, B استفاده کنم. برای A I در سطوح A1 و A2، برای B در B1، B2 و B3 تست کنید. بنابراین، وقتی تجزیه و تحلیل را انجام می‌دهم، به‌عنوان مثال، A1، B1 به‌عنوان حالت پایه، روی آدمک‌ها پسرفت می‌کنم. بنابراین من مدل $$y = \beta_0 + x_{A2}\alpha_2 + x_{B2}\beta_2 + x_{B3}\beta_3$$ را دریافت می‌کنم که در آن $x$‌های ساختگی هستند. اکنون، من همچنین می‌خواهم تعاملات را نیز اضافه کنم، و در کتاب آمارم خواندم که باید آدمک‌های $x_{A2}x_{B2}$ و $x_{A2}x_{B3}$ را با ضرایب مربوطه اضافه کنم. اما مورد پایه در اینجا چیست؟ در مدل اول من می دانم که میانگین $y$ برای A1 x B1 $\beta_0$ است. و سپس میانگین $y$ برای A1 x B2 $\beta_0 + \beta_2$ و غیره است، زیرا همه آدمک‌های دیگر 0 خواهند بود. اما زمانی که من این تعامل را داشته باشم. من همه تعاملات $x_{A1}x_{B2}$، $x_{A1}x_{B1}$، $x_{A1}x_{B3}$ را به‌عنوان حالت پایه دریافت می‌کنم، اما درست به نظر نمی‌رسد.
Anova: مورد پایه برای فعل و انفعالات هنگام پسرفت بر روی آدمک ها
103253
من مشکل را همانطور که دریافت کردم اینجا می نویسم. من دو متغیر تصادفی دارم. که یکی از آنها **مستمر** (Y) و دیگری گسسته **ترتیبی** (X) است. طرحی را که دریافت کردم همراه با پرس و جو در زیر قرار دادم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bidGa.png) شخصی که داده ها را برای من ارسال می کند می خواهد **قدرت ارتباط** بین X و Y را اندازه گیری کند. من به دنبال ایده‌هایی هستم که مملو از فرضیاتی در مورد اینکه چه فرآیندی داده‌ها را تولید می‌کند، وجود نداشته باشد. توجه داشته باشید که این در مورد یافتن یک _آزمون_ غیر پارامتری_ قدرت رابطه (مانند بوت استرپ) نیست، بلکه در مورد یافتن راهی غیر پارامتریک برای _اندازه_گیری_ آن است. از سوی دیگر، کارایی یک مسئله نیست زیرا نقاط داده زیادی وجود دارد.
اندازه گیری غیر پارامتری قدرت ارتباط بین یک متغیر تصادفی گسسته و پیوسته
56961
هنوز روی مجموعه داده های مالی خود کار می کنم، اکنون در تلاش هستم تا تأثیرات پیش پردازش را بر نتایج مطالعه خود مشاهده کنم. به طور خلاصه: من سی سری زمانی قیمت دارم (شاخص های اصلی، فارکس و اوراق قرضه در طول ده سال) و می خواهم روند بازارها را مشاهده کنم. ایده اصلی این است که ماتریس همبستگی بازده log نرمال شده و بالاترین مقدار ویژه آن را مشاهده کنیم. این باید روند کلی بازار را نشان دهد. من نتایج جالبی به دست آوردم که با واقعیت و پویایی همبستگی که قرار است داشته باشیم مطابقت دارد. من با قیمت های روز بازار با مشکل زیادی مواجه شدم. و راه حل های بسیار بیشتری وجود دارد. به عنوان مثال: * همگام سازی بازار: به دلیل ساعات کاری متفاوت، ما واقعاً نمی توانیم همبستگی محاسبه شده را روز به روز انجام دهیم. راه‌حل‌ها از بررسی همبستگی تاخیر یک، یا قیمت میانگین متحرک هفتگی، یا قیمت هفتگی، تا استفاده از مدل‌های تخمین GARCH را شامل می‌شود. * نرمال سازی داده ها: برای استفاده از PCA داده ها باید نرمال شوند، اما به دلیل هتروسکداستیکی بودن، استفاده از نرمال سازی محلی وسوسه انگیز است. فرآیند عادی سازی محلی از پارامترهای زیادی مانند پنجره زمانی و وزن استفاده می کند. * فیلتر کردن داده ها: می توانیم از میانگین متحرک برای حذف نویز HF، فیلتر کالمن یا نظریه ماتریس تصادفی استفاده کنیم (اینجا را ببینید: http://arxiv.org/pdf/0910.1205v1.pdf). همه این روش‌ها از پارامترها استفاده می‌کنند، برخی به طور مستقیم برای تناسب با ویژگی‌های داده انتخاب می‌شوند، اما برخی دیگر فقط با تکنیک انگشت مرطوب انتخاب می‌شوند. * پنجره داده: من سعی می کنم به تحولات همبستگی نگاه کنم، بنابراین مجبور شدم یک پنجره متحرک و عرض آن را انتخاب کنم. عرض یک سازش بین دقت نتیجه (شکل) و تعداد پنجره های زمانی به دست آمده است. فراموش نکنم، هر بار که مجبور شدم به میانگین متحرک یا پنجره فکر کنم، یک سوال وزن نیز وجود دارد، به عنوان مثال میانگین متحرک موزون نمایی معمولاً در امور مالی استفاده می شود. هر بار که مجبور می شدم پارامتر یا روشی را انتخاب کنم، یک سوال در ذهنم بود: چگونه راه حل بهتر را انتخاب کنیم؟ تکنیک من استفاده از همبستگی بود. من فکر می کنم همبستگی واقعی همیشه در امور مالی دست کم گرفته می شود، بنابراین تحولی که همبستگی را افزایش دهد همیشه یک تحول خوب است. برای رتبه بندی فرآیند از این ایده استفاده کردم که رشد بیشتر در همبستگی به معنای تبدیل بهتر است. من اخیراً با آنتروپی در آمار و کاربرد آن در تئوری اطلاعات آشنا شدم. اکنون می‌خواهم نگاهی به آنچه برای مطالعه من خواهد آورد بیاندازم. من به این فکر می‌کردم که از ارزش آن استفاده کنم تا بدانم آیا روش پیش پردازش اطلاعات کافی را برای استفاده نگه می‌دارد یا خیر. بنابراین من یک یا دو سوال دارم: آنتروپی با $ H(X)= - \sum_{i=1}^np(x_i)\log_b p(x_i)$ تعریف می شود. من توزیع احتمال ندارم، آیا باید آن را تخمین بزنم؟ یا باید آنتروپی را مستقیماً تخمین بزنم؟ من کاملاً متعجب هستم که پویایی در نظر گرفته نشده است. منظورم این است که فقط توزیع ارزش ها مهم است. من مطالعاتی را دیده ام که در آن مقادیر در هم ریخته به صورت گاوسی توزیع شده اند، اما جایی که دینامیک نقش مهمی ایفا می کند. من فکر می کنم که بازگشت از یک روز به روز دیگر مستقل نیست و ما باید آن را در نظر بگیریم. راست میگم؟ بنابراین، چگونه از آنتروپی برای رتبه بندی روش ها در عمل استفاده می شود؟ با فکر کردن در مورد آنتروپی، من همچنین تعجب کردم که چگونه می تواند چیزی مستقیم از خود اطلاعات بازار را آشکار کند. آیا مطالعه ای در این زمینه شنیده اید؟ اصل آنها چه بود؟
محاسبات آنتروپی و رتبه بندی فرآیند
71933
من در حال انجام آزمایشی هستم که به بررسی تغییرات حجم مغز در یک اختلال نادر می پردازد. ما تعداد کمی از بیماران (n = 8) اما یک گروه کنترل بزرگ (n = 100) داریم. برخی از همکاران پیشنهاد کرده اند که از یک گروه متعادل استفاده شود، یعنی. انتخاب 8 مغز کنترل کننده، اما من این را غیرقابل تصور می دانم. آیا استفاده از کل گروه کنترل برای به دست آوردن تخمین بهتری از حجم مغز جمعیت منطقی تر نیست؟
آیا زمانی که گروه درمان کوچک است، یک نمونه کنترل بزرگ بهتر از یک نمونه متعادل است؟
108649
من تازه وارد این انجمن هستم. من شروع به کار با سری های زمانی کردم، من یک مجموعه داده دمایی روزانه (25000+ مشاهده) دارم (01/01/1946 - 07/01/2014) می خواهم موارد زیر را آزمایش کنم: 1. **روندها:** بنابراین من از OLS استفاده کردم، اما شنیده ام که استفاده از تست Mann-Kendall ممکن است مفید باشد. 2. **فصلی:** همانطور که در نکته قبل تا اینجا سعی کردم آنها را با OLS تجزیه و تحلیل کنم، از هر توصیه ای استقبال می شود. 3. **شکست های ساختاری:** مشکل این جنبه این است که از نظر گرافیکی نمی توان هیچ شکستی را مشاهده کرد، بنابراین من با CUSUM و CUSUMSQ سعی کرده ام این شکست های ساختاری را شناسایی کنم، چند توصیه اضافی؟ به عنوان نکته اضافی باید این کار را در STATA انجام دهم. من در وب در مورد بسته کندال برای R دیدم، اما نمی توانم از R استفاده کنم. در حال حاضر از Gretl و STATA استفاده می کنم، امیدوارم کسی به من کمک کند. پیشاپیش از کمک شما سپاسگزارم خورخه
آزمون من-کندال STATA
105527
من می خواهم موفقیت یک توییت را پیش بینی کنم. در مورد من، یک توییت زمانی موفق است که مجموع تعداد علاقه مندی ها و تعداد بازتوییت ها بیشتر از 5 باشد. بنابراین مقدار نتیجه y من این است: **y= if((بازتوییت + موارد دلخواه) >5 ==1** else == 0 بنابراین من مجموعه داده زیر را ایجاد کردم: (این نمونه فقط داده های یک کاربر توییتر را نشان می دهد و بنابراین friendCount و غیره همیشه یکسان است. در مجموعه داده واقعی من هزاران کاربر و آخرین توییت های آنها وجود دارد) head(dataTrain) +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ |. تعداد دنبال کنندگان |. nb +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ 0.710542815 0.710542815 | -125.525.459.396 | -22.192.436.207 | 0 | 0 | -0,777283372 | 1 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 1 | 0 | 1 | -0.5838923895 | -0.68260381719 | 0.2862346486 | 1 | 1 | -0,330839739 | 0 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 1 | 1 | 1 | -0.6884084855 | -125.525.459.396 | 19.565.534.949 | 1 | 5 | 0,562047528 | 1 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 0 | 0 | 1 | -0.2006667041 | -0.10995304042 | -0.2562620706 | 1 | 3 | 0,6364548 | 0 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 0 | 0 | 1 | 0.9490103521 | 122.623.210.539 | -0.6388650200 | 0 | 0 | -0,777283372 | 1 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ | 0.7105428815 | 0.7105428815 | 0.7105428815 | 0 | 0 | 1 | 0.3567524747 | 0.08093055184 | 0.4350079872 | 1 | 2 | 0,227214803 | 1 | +------------------------------------------------ --+----+------+-------------- ------------------------------------------------ --------+--------------+---+ بنابراین مجموعه داده شامل ویژگی های زیر است: * friendsCount (کاربر چند نفر را دنبال می کند؟) * followersCount (چند نفر کاربر را دنبال می کنند؟) * nbTweets (کاربر در هفته های گذشته چند توییت ارسال کرده است؟) * در ( آیا توییت حاوی یک @ است؟ توییت) * r_nachar_words (نسبت بین کاراکترها و کلمات) * هش (آیا پیام حاوی هشتگ است؟ ) * no_hash (پیام حاوی چند هشتگ است؟ ) * hash_mean (میانگین طول هشتگ ها چقدر است؟ ) * y ( آیا مجموع تعداد علاقه مندی ها و تعداد ریتوییت ها بیشتر از 5 بود) در حال حاضر از یک پشتیبانی استفاده می کنم؟ ماشین برداری برای ایجاد مدل و الگوریتم SVMlight. اما مقیاس آن واقعا خوب نیست و بسیار کند است. من دقتی در حدود 80% دریافت می کنم اما مقادیر بسیار ضعیفی برای Sensitivity و Kappe دریافت می کنم. سوالات من: * برای ایجاد مدل چه رویکردی بهتر است؟ آیا برای مثال یک شبکه یادگیری عمیق را به جای SVM ترجیح می دهید؟ * آیا از امکانات کافی استفاده می کنم؟ آیا می توانید به ویژگی های دیگری فکر کنید که می تواند عملکرد مدل من را افزایش دهد؟
پیش بینی موفقیت یک توییت
22968
من در حال توسعه یک سیستم ارزیابی آنلاین هستم و باید بانک سوالات را کالیبره کنم، اما افراد کافی برای اجرای آزمون آزمایشی ندارم. به همین دلیل تصمیم گرفتم پاسخ های بانک سوال را شبیه سازی کنم. من از مدل Rasch برای توسعه یک آزمون تطبیقی ​​کامپیوتری (CAT) استفاده خواهم کرد. من فقط از بانک سوال دارم و تعداد گزینه ها برای هر کدام. چگونه می توانم فقط با استفاده از این داده ها یک شبیه سازی انجام دهم؟ من فکر کردم که آن را یک عدد تصادفی $X$ ایجاد کنم، اگر $X < 1 / N$، که در آن $N$ تعداد گزینه های یک سوال خاص است، آن شخص پاسخ صحیح را دریافت کرده است، در غیر این صورت نادرست است. . **آیا این یک رویکرد صحیح برای کالیبره کردن بانک اقلام به مدل راش از طریق شبیه سازی است؟** PS: کاری که من می خواهم انجام دهم این است که سطح دشواری هر سوال را محاسبه کنم. درک من این است که برای کالیبره کردن یک بانک سؤال، آن بانک باید برای نمونه ای از موضوعات اعمال شود، اما من افراد کافی برای انجام این کار را ندارم، بنابراین تصمیم گرفتم یک رویکرد شبیه سازی را امتحان کنم. من تابع sim.rasch را در بسته psych آزمایش کردم، و می بینم که باید تعداد گزینه ها را برای هر سوال در نظر بگیرم، زیرا ممکن است بر دشواری آنها تأثیر بگذارد.
شبیه سازی پاسخ به یک آزمون برای نظریه پاسخ آیتم
78556
من در مورد تعیین خودکار پارامترها برای DBSCAN (یک الگوریتم خوشه‌بندی مبتنی بر چگالی -- http://en.wikipedia.org/wiki/DBSCAN)، به خصوص _eps_ تحقیق کرده‌ام و مقاله زیر را پیدا کردم که روشی را پیشنهاد می‌کند. برای تعیین بهترین _eps_ از روی خود داده ها: http://www.joics.com/publishedpapers/2012_9_7_1967_1973.pdf با این حال، مقاله، در صفحه 1969، بخش 3.1، در مورد یک ماتریس فاصله DIST$_{n \times n}$: > ما مقدار هر یک را محاسبه می‌کند، ادعا می‌کند. عنصر در DIST$_{n\times n}$ متوالی، > و سپس آنها را در یک خط ترتیب صعودی مرتب کنید توسط خط ما از DIST$_{n > \times i}$ برای بیان مقدار ستون $i$th در DIST$_{n \times n}$ استفاده می‌کنیم. از آنجایی که همه > داده‌ها در DIST$_{n \times i}$ از توزیع پواسون پیروی می‌کنند[6]، ما از تخمین حداکثر احتمال در ریاضیات برای تخمین مقدار > پارامتر $\lambda$ استفاده می‌کنیم. یعنی $\lambda$ را می توان با استفاده از > میانگین هندسی مقدار DIST$_{n \times i}$ بدست آورد. این مقاله ادعا می کند که این $\lambda$ می تواند به عنوان _eps_ استفاده شود. آیا این ادعا دلیلی دارد؟ من در مورد توزیع پواسون خوانده‌ام، اما هیچ جا برای این ادعا که فاصله‌ها باید از این توزیع پیروی کنند، پشتوانه‌ای پیدا نکردم (اما اعتراف می‌کنم که در مورد توزیع‌های احتمال آگاهی چندانی ندارم). اگر این ادعا جعلی نباشد، کار با DBSCAN را بسیار ساده می کند، زیرا حدس و گمان لازم برای تعیین پارامترها را کاهش می دهد.
استفاده از توزیع پواسون از ماتریس فاصله برای تعیین پارامترهای dbscan
62621
من برخی از تعاریف یادآوری و دقت را خواندم، اگرچه هر بار در زمینه بازیابی اطلاعات است. می‌خواستم بدانم آیا کسی می‌تواند این را کمی بیشتر در زمینه طبقه‌بندی توضیح دهد و شاید نمونه‌هایی را توضیح دهد. مثلاً بگویید من یک طبقه‌بندی باینری دارم که دقت 60% و فراخوانی 95% را به من می‌دهد، آیا این طبقه‌بندی خوب است؟ شاید برای کمک بیشتر به هدفم، بهترین طبقه بندی از نظر شما کدام است؟ (مجموعه داده نامتعادل است. کلاس اکثریت دو برابر نمونه های کلاس اقلیت دارد) من شخصاً به دلیل مساحت زیر منحنی اپراتور گیرنده می گویم **5**. (همانطور که در اینجا می بینید مدل 8 دقت کم، فراخوانی بسیار بالایی دارد، اما یکی از پایین ترین AUC_ROC است، آیا این باعث می شود مدل خوبی باشد؟ یا بد؟) ![توضیح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/LZAHw.jpg) * * * **ویرایش:** من یک فایل اکسل با اطلاعات بیشتر دارم: https://www.dropbox.com/s/6hq7ew5qpztwbo8/comparissoninbalance.xlsx در این سند می توان ناحیه زیر منحنی عملگر گیرنده و ناحیه زیر منحنی فراخوان دقیق را پیدا کرد. همراه با توطئه ها.
یادآوری و دقت در طبقه بندی
96944
من 3 متغیر دارم. درآمد متغیر وابسته (مستمر)، جنسیت (دوجمله ای)، workhrs (مقوله) است که یک مدل خطی برازش کردم و به نتیجه رسیدم: سوال من این است: آیا این مدل قابل استفاده است؟ مقادیر NA از این واقعیت ناشی می شود که workhrs 4 دسته را ندارد. پنجمین مورد فکر می کنم به دلیل همبستگی است. مربع R تنظیم شده بسیار زیاد است، اما آیا این مدل برای پیش بینی مفید است؟ یا تعامل مفید نیست و باید حذف شود؟ تماس: lm (فرمول = درآمد ~ فاکتور (جنس) + عامل (ساعت کاری) + فاکتور (جنس): عامل (ساعت کاری)) باقیمانده ها: حداقل 1Q Median 3Q Max -6.757 -1.261 0.000 1.531 5.690 ضرایب: (5 به دلیل تعریف نشده است تکینگی ها) Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 31.330 4.645 6.744 8.42e-05 *** factor(sex)1 0.160 6.569 0.024 0.981101 factor(workhrs) 1 2.9890 5.601 2.9890 5.6. فاکتور(ساعت کاری)2 13.240 8.691 1.523 0.161968 ضریب(ساعت کاری)4 10.935 5.689 1.922 0.086773. ضریب (ساعت کاری) 5 6.960 6.569 1.059 0.316997 ضریب (ساعت کاری)6 30.045 8.691 3.457 0.007192 ** ضریب (ساعت کاری) 7 18.315 5.689 0 3.689 0 3.215 * 0.219 ساعت 26.947 5.364 5.024 0.000715 *** factor(workhrs)9 25.340 6.569 3.857 0.003863 ** factor(workhrs)10 38.850 9.291 ** 4.182(factors7shrs) 0.0 9.160 8.691 1.054 0.319347 factor(sex)1:factor(workhrs)2 NA NA NA NA factor(sex)1:factor(workhrs)4 9.060 8.046 1.126 0.289271: 5.289276:factor (ساعت کاری)5 8.691 2.651 0.026451 * ضریب (جنس) 1: عامل (ساعت کاری)6 NA NA NA ضریب (جنس) 1: عامل (ساعت کاری) 7 3.325 8.691 0.383 0.710895 عامل (ساعت کاری جنسی) NA 1: عامل NA (NA) 8 عامل(جنس)1:عامل(ساعت کاری)9 NA NA NA NA ضریب(جنس)1:عامل(ساعت کاری)10 NA NA NA NA --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 4.645 در 9 درجه آزادی چندگانه R-squared: 0.9263، تنظیم شده R-squared: 0.8117 F آمار: 8.083 در 14 و 9 DF، p-value: 0.001742
تفسیر رگرسیون خطی با NA برای برآوردها
58667
من در محاسبه 95% فواصل اطمینان برای تغییر نسبت دوجمله ای مشکل دارم. به عنوان مثال، در گروه $A$، $4$ موفقیت از $n =20$ وجود دارد. در گروه $B$، 12$ موفقیت از $n =20$ وجود دارد. من می توانم CI را برای نسبت ها به طور جداگانه در R با استفاده از: binom.test(4,20,(1/2),alternative=two.sided) binom.test(12,20,(1/2) محاسبه کنم. ,alternative=two.sided) با این حال، من علاقه مند به تغییر نسبت این دو گروه هستم، گروه $A = 0.2$ و گروه $B = 0.6$ با تغییر نسبت 0.4 دلار چیزی که من واقعاً از دست داده ام این است که چگونه می توان CI برای این تغییر (0.4 دلار) را محاسبه کرد؟
تغییر در فاصله اطمینان نسبت دو جمله ای
62628
در یک تنظیم رگرسیون میانگین استاندارد $y_i=x_i^T \beta + \epsilon_i$، اگر اشتباهات $\epsilon_i$ را ثابت و با مقداری کوواریانس $\Sigma$ فرض کنیم، در مورد $x_i$ چه می توان گفت؟ آیا $x_i$ نیز ثابت است؟ همچنین آیا $\epsilon_i|x_i$ ثابت است؟ اگر $x_i$ شامل متغیرهای کمکی غیر ثابت باشد، در مورد $\epsilon_i$ چه می توان گفت.
رگرسیون با خطاهای همبسته
62478
من معمولاً محاسبات تخمینی سودآوری برخی از مشاغل را انجام می دهم. این محاسبات تابع برخی از پارامترها هستند: قیمت های تخمینی، تقاضای تخمینی، نرخ ارز تخمینی، ... من اغلب فرض می کنم که همه این پارامترهای ورودی به طور معمول توزیع شده اند و میانگین و انحراف استاندارد آنها را ارزیابی می کنم. سوالات من این است: بهترین راه برای پیش بینی توزیع سود برآورد شده کدام است؟ آیا می توانم میانگین + انحراف معیار سودآوری را تعیین کنم؟ من اتفاقاً با استفاده از «R» یا «NumPy»، 1000 مقدار تصادفی قیمت (بر اساس توزیع نرمال)، 1000 مقدار تصادفی دیگر برای تقاضا و غیره ایجاد کردم، محاسبات 1000$^N$ را انجام دادم و میانگین را بدست آوردم. + انحراف استاندارد مقادیر $1000^N$، همیشه با این فرض که نتیجه نیز توزیع نرمال است.
محاسبه توزیع نرمال یک محاسبه، تابع چندین پارامتر توزیع شده نرمال
91177
من قصد دارم سیستمی را برای تشخیص هرزنامه پیکربندی کنم. آنچه من دارم مجموعه داده ای از رشته های برچسب دار (هرزنامه/غیر هرزنامه) است که عمدتاً شامل جملات است. من سابقه ای در زمینه تکنیک های یادگیری ماشین دارم، اما هیچ پیشینه ای در زمینه یادگیری ماشینی به کار رفته در متن ندارم. یک رویکرد می‌تواند ایجاد بردارهایی با ابعاد بسیار بالا باشد، که در آن ویژگی‌ها بولی هستند و هر ویژگی یک کلمه ممکن را نشان می‌دهد (حال/حال نیست). البته چنین رویکردی به دلیل ابعاد بالا رضایت بخش نیست، اما همچنین برای پراکندگی شدید یک ویژگی در سراسر نمونه ها و پراکندگی شدید در بین ویژگی ها. چیزی که من می‌پرسم فقط چند اشاره (مثلاً به آموزش‌ها) به تکنیک‌های ساده سطح ابتدایی است که ممکن است کاستی‌های ذکر شده در رمزگذاری هر کلمه بولی را برطرف کند. آیا ایده ای در مورد اینکه کدام ابزار ممکن است برای این کار مناسب تر باشد؟ شاید RapidMiner؟
تکنیک های یادگیری ماشین برای تشخیص هرزنامه و به طور کلی برای طبقه بندی متن
11975
من سعی می کنم داده های چند متغیره به شکل زحل (داستان طولانی) تولید کنم. به طور رسمی تر؛ 1. *خوشه 1 یک گاوسی رتبه-p با ماتریس همبستگی R است (که در آن هر ورودی قطری R همان عدد در $(0,1)$ است). 2. خوشه 2 مجموعه ای از نقاط است که بر روی یک طرح فوق العاده با رتبه p-1، در اطراف خط استوای خوشه 1، توزیع شده است، که همگی فراتر از فاصله خاصی از mahalanobis wrt تا cluster1 مثلا $\zeta$ قرار دارند. نمونه‌گیری رد کردن مشکلی ندارد، تا زمانی که نرخ رد کوچک باشد: این پیکربندی باید بارها برای $n$ و $p$ بزرگ به طور قابل اعتماد ایجاد شود. **به روز رسانی:** بنابراین راه حل باب دورانت را اجرا کردم: x0<-matrix(rnorm(n*p),n,p) b0<-matrix(rnorm(n*p),n,p) b1<-qchisq( 0.99,df=p)؛ b2<-sqrt(c(b1,b1*1.25)) b0<-b0/sqrt(rowSums(b0*b0))*runif(n,b2[1],b2[2]) نمودار(rbind(x0,x1 )) mahalanobis(cbind(0,b0),colMeans(x0),var(x0))/(qchisq(0.99,df=p)) تصویر پیوست را ارائه می دهد که در واقع شبیه زحل است![زحل](http://i .stack.imgur.com/Rv6VE.jpg). با حلقه هایی که حداقل @ qchisq (0.99,df=p) دور از مرکز قرار دارند. با این حال، اکنون می‌خواهم زحل من بیضی شکل باشد، یعنی ساختار همبستگی R داشته باشد. مشکل اینجاست که $\verb+x0+$ و $\verb+cbind(0,x1)+$ را از قبل در $R ضرب می‌کنم. ^{1/2}$، حلقه‌ها دیگر در خط استوا نیستند :( **Update2:** برای مثال، وقتی من آن را جایگزین می‌کنم همه چیز خراب می‌شود ساختار واریانس مورب در بالا با چیز دیگری به عنوان مثال: کتابخانه (MASS) x0<-mvrnorm(n,rep(0,p),diag(rchisq(p,p),p)) b0<-mvrnorm(n,rep(. 0,p-1),diag(rchisq(p-1,p-1),p-1)) b1<-qchisq(0.99,df=p); b2<-sqrt(c(b1,b1*1.25)) b0<-b0/sqrt(rowSums(b0*b0))*runif(n,b2[1],b2[2]) mahalanobis(cbind(0,b0 ,colMeans(x0),var(x0))/(qchisq(0.99,df=p)) بیشتر فواصل نیز بسیار زیاد هستند بزرگ (بعد از استفاده از ماتریس کوواریانس مورب در بالا با خروجی مشابه مقایسه کنید) **به روز رسانی 3** دلتا<-0.9 p<-3 R<-matrix(runif(p^2,delta*0.99,delta)! ,p,p) #برای جلوگیری از تکرار مقادیر ویژه، کمی diag(R)<-1
نحوه ایجاد یک جفت بیضی به شکل زحل در $\mathbb{R}^p$