_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
44209
اجازه دهید مدل زیر را در نظر بگیریم: $$Y_j = X_j + \epsilon_j \hspace{15pt} j=1، ...، n$$ جایی که $Y_j$ یک سیگنال نویزدار است، $\epsilon_j$ نویز مستقل است. از سیگنال $X_j$. ما فقط i.i.d داریم. نمونه هایی از $Y_j$ و $\epsilon_j$ و علاقه مند به توزیع $X_j$ هستند. چگالی $f_{\epsilon}$ ناشناخته فرض می‌شود. کنت و لاکور روشی مبتنی بر تبدیل فوریه را برای حل این مشکل پیشنهاد می کنند (به بخش 2.2 مراجعه کنید). بیایید $\varphi_X(t)$ تابع مشخصه را برای $X$ و $f^{*}_X$ را تبدیل فوریه چگالی $f_X$ بنامیم. سوال من اینجاست: ایده اصلی در دکانولوشن این است که از فرض استقلال برای $X$ و $\epsilon$ استفاده کنیم و سپس از تبدیل فوریه برای حل معادله $f^{*}_X = f^{*}_Y/f استفاده کنیم. ^{*}_{\epsilon}$. اعمال تبدیل فویر معکوس منجر به تخمینی برای $f_X$ می شود. آیا می توانم به جای تبدیل فوریه از تابع مشخصه استفاده کنم؟ آیا این برای من مزایا یا معایبی دارد؟ من فرض می کنم که می توان از هر دو تبدیل فوریه یا تابع مشخصه استفاده کرد اما می خواهم بدانم دیگران چه فکر می کنند.
دکانولوشن با تبدیل فوریه یا تابع مشخصه؟
44979
من در حال حاضر در حال توسعه یک برنامه نرم افزاری هستم که چندین آزمایش آماری را با استفاده از کتابخانه های Net اجرا می کند و نتیجه می دهد. من نتایج خود را با R و یک بسته آماری دیگر (غیر رایگان) مقایسه کرده ام. برای تست ANOVA می توانم با مجموعه داده های NIST مقایسه کنم، با این حال می خواستم بدانم که آیا مجموعه داده های مشابهی وجود دارد که با مقادیر p تایید شده استاندارد صنعتی برای تست های T و سایر تست های آماری استفاده کنم؟
مجموعه داده های مرجع/گواهی شده برای مقایسه نتایج نرم افزار سفارشی
45505
فرض کنید من یک مدل رگرسیونی دارم که در زیر نشان داده شده است **مدل 1:** $$ Y = \beta_0^\ + \beta_1SEX\ + \beta_2ALCOHOL\ + \beta_3SEX*ALCOHOL\ $$ پیش‌بینی‌کننده‌هایی که من به آنها علاقه‌مندم جنسیت هستند (دودویی: 0 زن، 1 مرد) و مصرف الکل (دودویی: مصرف کننده، غیر مصرف کننده). فرض کنید که من یک تعامل قابل توجه بین جنسیت و الکل پیدا کردم و تصمیم گرفتم داده ها را بر اساس جنسیت طبقه بندی کنم. بنابراین من دو مدل جدید خواهم داشت: **Model 2a:** $$ \text{Female: } Y_F = \beta_0^\ + \beta_2ALCOHOL\ $$ بنابراین برای زیرمجموعه مونث، فاصله هنوز $ \beta_0$ است و شیب الکل $ \beta_2$ است **مدل 2b:** $$ \text{نر: } Y_M = (\beta_0^\ + \beta_1) + (\beta_2\ +\beta_3) ALCOHOL $$ برای زیرمجموعه مذکر، وقفه اکنون $\beta_0^\ + \beta_1$ است و شیب ALCOHOL $\beta_2^\ است. + \beta_3$ این بسیار ساده است. اگر مدلی مانند این را در هر بسته آماری بگنجانید، این نوع نتیجه را دریافت خواهید کرد. با این حال، اگر بگوییم، در مدل، من در واقع یک متغیر اضافی AGE را گنجانده ام که یک متغیر کمکی است (با فرض اینکه با جنسیت یا الکل تعاملی ندارد)، مدل اصلی مدل زیر خواهد بود: **مدل 3:* * $$ Y = \beta_0^\ + \beta_1SEX\ + \beta_2ALCOHOL\ + \beta_3SEX*ALCOHOL\ + \beta_4AGE\ $$ بیشتر فرض کنید که ما هنوز یک تعامل قابل توجه بین جنسیت و الکل داریم و من می خواهم دوباره داده ها را طبقه بندی کنم. اگر از منطق بالا پیروی کنم، دو مدل زیر دریافت می کنم: ** مدل 4a:** $$ \text{Female: } Y_F = \beta_0^\ + \beta_2ALCOHOL\ + \beta_4AGE\ $$ **Model 4b:* * $$ \text{مرد: } Y_M = (\beta_0^\ + \beta_1) + (\beta_2\ +\beta_3)ALCOHOL + \beta_4AGE\ $$ با این حال، ضرایب بتا واقعی به‌دست‌آمده با استفاده از یک برنامه رایانه‌ای می‌تواند با آنچه که با استفاده از معادلات به‌روزرسانی‌شده بالا به‌دست می‌آورید، بسیار متفاوت باشد. تفاوت در $\beta_0$ منطقی است، زیرا مدل های طبقه بندی شده در 4a و 4b هنوز میانگین سنی را فرض می کنند. یعنی، $\bar{Y}$ را در میانگین سنی همه آزمودنی ها تخمین می زند، در حالی که در تحلیل های طبقه بندی شده انجام شده توسط یک برنامه کامپیوتری، رهگیری مدل ها $\bar{Y}$ را در میانگین سنی یک سال تخمین می زند. زیر گروه **اما من تعجب می کنم که چرا شیب ها متفاوت است. به عبارت دیگر، چرا شیب ها در مدل های 4a و 4b با شیب های تولید شده توسط یک بسته آماری متفاوت است.**
ضرایب بتا از تجزیه و تحلیل طبقه بندی شده زمانی که متغیرهای کمکی وجود دارد؟
8058
من در حال ساخت یک رگرسیون لجستیک هستم و دو تا از متغیرهای من دارای سه سطح هستند. (مثلاً یک متغیر مرد، زن یا ناشناخته است و دیگری مجرد، متاهل یا ناشناس است.) قرار است چند متغیر ساختگی ایجاد کنم؟ آیا در مجموع 4 عدد (2 برای هر یک از متغیرهای طبقه بندی شده، به عنوان مثال، یک متغیر مذکر، یک متغیر زن، یک متغیر مجرد و یک متغیر متاهل) یا در کل 5 (2 برای یکی از متغیرهای طبقه بندی، 3 برای دیگر)؟ می‌دانم که اکثر کتاب‌های درسی می‌گویند که وقتی یک متغیر طبقه‌بندی را با سطوح k به صورت ساختگی رمزگذاری می‌کنید، فقط باید متغیرهای ساختگی k-1 بسازید، زیرا در غیر این صورت یک هم خطی با ثابت دریافت خواهید کرد. اما وقتی چندین متغیر طبقه‌بندی را به صورت ساختگی رمزگذاری می‌کنید، چه می‌کنید؟ با آرگومان هم خطی، به نظر می رسد که من فقط برای یکی از متغیرهای طبقه بندی، متغیرهای ساختگی k-1 ایجاد می کنم، و برای بقیه متغیرهای طبقه بندی، همه متغیرهای k ساختگی را می سازم.
چگونه می توان تعداد متغیرهای ساختگی را هنگام رمزگذاری چندین متغیر طبقه بندی انتخاب کرد؟
30012
من در حال انجام برخی تشخیص اشیاء هستم، و وقتی دو تصویر را با هم مقایسه می‌کنم، مقداری فاصله نامحدود بین دو تصویر دریافت می‌کنم که نشان‌دهنده شباهت آنهاست. این تا حدودی مفید است، اما به نظر می رسد مفیدتر باشد اگر بتوانم از این فضای فاصله به فضای احتمالی حرکت کنم، جایی که به جای فاصله بین تصویر A و تصویر B X است، می توانم به دست بیاورم. P(تصویر از کلاس B است | تصویر A) = X `. یک راه معقول برای حرکت از یک فضای دور به یک فضای احتمال چیست؟
چگونه می توان از مقداری فاصله دلخواه به یک توزیع احتمال حرکت کرد؟
71796
من می‌دانم که از آزمون t برای آزمایش تفاوت میانگین‌ها برای دو جمعیت استفاده می‌شود، زمانی که جمعیت‌ها واریانس‌های نسبتاً مشابهی دارند، واحدها مستقل هستند و نرمال هستند (مخصوصاً با اندازه‌های نمونه کوچکتر). با این حال، نمی‌دانستم که چگونه از آزمون t برای بررسی تفاوت در توزیع داده‌ها بین دو گروه استفاده می‌شود؟ من این را می پرسم زیرا اساساً عبارتی است که در سؤالی که می خواهم به آن پاسخ دهم استفاده می شود. با استفاده از آزمون t می خواهد مقایسه شود که آیا توزیع آیتم مورد علاقه متفاوت است یا خیر. دلیل اینکه من گیج شده‌ام این است که حتی اگر می‌دانم میانگین حاصلضرب توزیع است و آزمون‌های t ممکن است به شدت تحت تأثیر مقادیر پرت قرار بگیرند، بنابراین آزمون t ممکن است اطلاعاتی در مورد دو توزیع ارائه دهد، ممکن است موردی وجود داشته باشد که دو توزیع بسیار شبیه بودند، اما اندازه اثر بزرگ بود، صرفاً به این دلیل که آنها در میانگین‌های متفاوتی متمرکز بودند، و ممکن است موردی وجود داشته باشد که این دو توزیع با واریانس‌های متفاوت و غیره بد به نظر برسند، و این می‌تواند منجر به t-stat یکسان شود. بنابراین چگونه می توان چیزی را از آزمون t تشخیص داد؟
چگونه می توان از آزمون t برای مقایسه توزیع بین گروه های داده استفاده کرد؟
8052
فرض کنید من در حال انجام طبقه بندی باینری هستم و می خواهم آزمایش کنم که آیا استفاده از ویژگی X مهم است یا خیر. (به عنوان مثال، من می‌توانم یک درخت تصمیم بسازم، و می‌خواهم ببینم که آیا باید ویژگی X را هرس کنم یا نه.) من معتقدم روش استاندارد استفاده از آزمون کای اسکوئر در جدول 2x2 است X = 0 X = 1 نتیجه = 0 A B نتیجه = 1 C D یک آزمون ساده تر (IMO) با این حال، محاسبه آماری در مورد احتمال اینکه X نتیجه صحیح را می دهد: P = را محاسبه کنید. [(x = 0 و نتیجه = 0) + (x = 1 و نتیجه = 1)] / [تعداد کل مشاهدات]، و اهمیت دور بودن p از 0.5 را محاسبه کنید (مثلاً با استفاده از یک تقریب معمولی یا ویلسون امتیاز). معایب/مزایای این روش در مقایسه با روش مربع کای چیست؟ آیا کاملاً اشتباه است؟ آیا آنها معادل هستند؟
آزمون مجذور کای 2×2 در مقابل آماره نسبت دو جمله ای
71793
من در یک محیط پزشکی کار می کنم. من شرایطی دارم که نمی‌دانم کدام آزمون آماری با آنچه که می‌خواهم بدانم مناسب است و فکر می‌کنم ممکن است بتوانید به من راهنمایی کنید. من در حال بررسی مرگ و میر مرتبط با عفونتی است که توسط برخی بیماران شناسایی شده است، و اینکه آیا احتمال وجود محل (خون، ادرار و خلط) جایی که حشره در آن پیدا شده است، در بین کسانی که فوت کرده اند و کسانی که زنده مانده اند به اندازه کافی قابل توجه است. من مطمئن نیستم که آیا تست کای اسکوئر درست است یا نه، نه اینکه یادم باشد چگونه از آن استفاده کنم! اساساً جمعیت من 74 نفر است و 22 نفر فوت کرده اند و بیشتر آنها با سایر بیماری های همراه بودند. عفونت اساساً یک عفونت فرصت طلب است. با این حال، ادبیات نشان می دهد که کسانی که آن را در جریان خون خود دارند یا بخشی از ذات الریه دارند، بیشتر از کسانی که ممکن است آن را به عنوان عفونت زخم و غیره داشته باشند، بمیرند. مرگ (22) ترخیص شده (52) خلط 22% (5) 15% (15) خون 31% (7) 13% (7) ادرار 22% (5) 31% (16) آیا هیچ گونه اهمیت آماری مرتبط با سایت عفونت؟
اهمیت آماری محل عفونت
28898
من از کد MATLAB برای کتاب Rasmussen & Williams _Processes Gaussian for Machine Learning_ استفاده می کنم. چگونه می توان دانش قبلی را در رگرسیون فرآیند گاوسی گنجاند؟ بگویید که واریانس در یک بعد یک بردار دو بعدی بیشتر است. آیا فقط با در نظر گرفتن پارامترهای یک توزیع نرمال است یا می توان جزئیات بیشتری را ارائه کرد؟
چگونه دانش قبلی را در GPML ترکیب کنیم؟
69914
من می خواهم اثبات همگرایی را برای الگوریتم EM در موردی پیدا کنم که متغیرهای پنهان پیوسته هستند. آیا مدرکی برای داشتن مرجع می دانید؟ متشکرم
اثبات همگرایی الگوریتم EM با متغیرهای پنهان پیوسته
18745
در پاسخ به سوال قبلی، ادغام عامل در انتخاب مدل مورد بحث قرار گرفت. اگر قرار باشد یک عامل یا متغیر طبقه بندی در انتخاب مدل حذف شود، آیا باید همه سطوح به طور همزمان حذف شوند؟ اگر چنین است، چرا؟ انگیزه حذف عوامل کمک به تفسیر مدل است. به عنوان مثال، من ممکن است علاقه مند به توضیح عواملی باشم که بر رفتار مشتری در هنگام بازدید از فروشگاه تأثیر می گذارد و یک متغیر طبقه بندی شده حالت سفر با عوامل پیاده روی، اتوبوس، ماشین شخصی، تاکسی و غیره دارد. در این زمینه، من می‌توانم همه متغیرهای ساختگی را به جز خودروی شخصی حذف کنم، زیرا آنها اندازه تخمینی غیرقابل توجهی دارند و پیش‌بینی‌کننده رفتار قابل توجهی نیستند. سپس به متغیر «با ماشین شخصی سفر کرده‌ام» در مقابل «با ماشین شخصی سفر نکرده‌ام» به پایان می‌رسم و لازم نیست نگران این باشم که خواننده را با تفسیر سایر متغیرهای عمدتاً غیرجالب، آزار دهم.
اگر قرار باشد یک متغیر عامل در انتخاب مدل حذف شود، آیا باید همه سطوح به طور همزمان حذف شوند؟ اگر چنین است، چرا؟
8055
آیا کسی می تواند من را با مثالی در مورد نحوه استفاده از فیلتر DLM Kalman در R در یک سری زمانی راهنمایی کند. بگویید من این مقادیر را دارم (مقادیر فصلی با فصلی سالانه). چگونه از DLM برای پیش بینی مقادیر بعدی استفاده می کنید؟ و BTW، آیا اطلاعات تاریخی کافی دارم (حداقل چقدر است)؟ 89 2009Q1 82 2009Q2 89 2009Q3 131 2009Q4 97 2010Q1 94 2010Q2 101 2010Q3 151 2010Q4 100 2011Q1 ? 2011 Q2 من به دنبال پاسخ گام به گام به سبک کتاب آشپزی کد R هستم. دقت پیش‌بینی هدف اصلی من نیست، فقط می‌خواهم دنباله کدهایی را یاد بگیرم که به من عددی برای Q2 2011 می‌دهد، حتی اگر اطلاعات کافی نداشته باشم. با تشکر
نحوه استفاده از DLM با فیلتر کالمن برای پیش بینی
81441
من چند سوال مشابه پیدا کردم، اما هیچ کدام جوابی را که من به دنبالش بودم نداشتند. من قصد دارم از رگرسیون لجستیک استفاده کنم و دو IV (متغیرهای مستقل) دارم که هر کدام سه دسته دارند. من فقط IV ها را در رگرسیون لجستیک ترتیبی دیده ام که قبلاً به صورت پیوسته یا باینری بوده اند. من همچنین نمی توانم این IV ها را به فرمت پیوسته تبدیل کنم، زیرا این کار تفسیرپذیری متغیرها را تغییر می دهد. آیا می توانم این IV ها را در وضعیت فعلی خود قرار دهم یا باید به دنبال استفاده از الگوریتم دیگری در اینجا باشم؟ (به عنوان مثال درخت تصمیم؟) با تشکر.
آیا می توانم از یک متغیر مستقل طبقه بندی چندتومی در رگرسیون لجستیک استفاده کنم؟
44977
آیا واقعاً توضیح ساده ای از تفاوت های عملی بین این دو تکنیک وجود دارد؟ * به نظر می رسد که هر دو برای یادگیری تحت نظارت استفاده می شوند (اگرچه قوانین انجمن می توانند بدون نظارت نیز کنترل شوند). * هر دو را می‌توان برای پیش‌بینی استفاده کرد. نزدیک‌ترین توصیفی که من به توصیف «خوب» پیدا کردم، از کتاب درسی Statsoft است. آنها می گویند قوانین انجمن برای: > ... تشخیص روابط یا ارتباط بین مقادیر خاص > متغیرهای طبقه بندی در مجموعه داده های بزرگ استفاده می شود. در حالی که طبقه‌بندی‌کننده‌های درخت تصمیم برای موارد زیر استفاده می‌شوند: > ... پیش‌بینی عضویت موارد یا اشیا در کلاس‌های یک متغیر وابسته از اندازه‌گیری‌های آن‌ها بر روی یک یا چند متغیر پیش‌بینی‌کننده. با این حال، در R داده کاوی، آنها نمونه ای از قوانین انجمن را ارائه می دهند که با یک فیلد هدف استفاده می شود. بنابراین هر دو می‌توانند برای پیش‌بینی عضویت گروه استفاده شوند، آیا تفاوت اصلی این است که درخت‌های تصمیم می‌توانند داده‌های ورودی غیر طبقه‌بندی را مدیریت کنند در حالی که قوانین تداعی نمی‌توانند؟ یا چیز اساسی تری وجود دارد؟ یکی از سایت‌ها (sqlserverdatamining.com) می‌گوید که تفاوت کلیدی این است: > قوانین درخت تصمیم بر اساس کسب اطلاعات است، در حالی که قوانین مرتبط > بر اساس محبوبیت و/یا اطمینان هستند. بنابراین (احتمالاً در پاسخ به سؤال خودم) آیا این بدان معنی است که قوانین تداعی صرفاً بر اساس تعداد دفعات ظاهر شدن آنها در مجموعه داده ارزیابی می شوند (و هر چند وقت یکبار درست هستند) در حالی که درختان تصمیم در واقع سعی می کنند واریانس را به حداقل برسانند؟ اگر کسی توصیف خوبی می داند، مایل است به من اشاره کند، عالی است.
تفاوت عملی بین قوانین تداعی و درخت تصمیم در داده کاوی چیست؟
37649
می‌خواستم بدانم آیا اکولوژیست‌های فضایی وجود دارد که بتواند بینشی در مورد مشکلی که من در تحقیقات کارشناسی ارشدم دارم ارائه دهد. من به دنبال ارتباط یک گونه خفاش با تجمعات با تراکم بالا از یک گیاه گلدار هستم. خفاش ها در طول شب با یک نقطه در فواصل تقریباً 10 دقیقه ای ردیابی شدند. خفاش‌ها در طول شب‌های متوالی ردیابی شدند تا زمانی که به مجانبی در فضای استفاده شده از آن‌ها رسیدند. بنابراین اکنون من الگوهای نقطه ای برای هر خفاش دارم که تقریباً کل فضای استفاده شده از آنها را در آن دوره پوشش می دهد. هنگامی که داده ها به صورت بصری نمایش داده می شوند، الگوی واضحی از خفاش هایی وجود دارد که در طول دوره گلدهی ردیابی شده اند و به داخل تجمعات گیاه می روند، اما آنها همچنین زمان زیادی را صرف جستجوی غذا در اطراف محل های خود می کنند. من الگوی نقطه هر خفاش را 999 بار با جابجایی و چرخش تصادفی نقاط در پنجره مطالعه شبیه‌سازی کرده‌ام (ساختار داخلی الگوی مشاهده‌شده در شبیه‌سازی‌ها حفظ شد تا همبستگی خودکار را در نظر بگیرد). سپس آزمایش‌های تصادفی‌سازی را انجام دادم تا ببینم آیا میانگین فاصله تا نزدیک‌ترین تجمع گیاه برای داده‌های مشاهده‌شده در 5 درصد پایین‌تر توزیع میانگین‌ها برای الگوهای نقطه‌ای شبیه‌سازی شده است یا خیر. با این حال، از آنجا که اکثر نقاط جمع‌آوری‌شده به شدت با جوجه‌ها مرتبط هستند، میانگین فاصله در درجه اول تحت تأثیر موقعیت گلخانه در رابطه با هر یک از تجمع‌های گیاهی است. من به راه‌هایی فکر کرده‌ام که بتوانم ارتباط با خروس‌ها و ارتباط با گیاه را از هم جدا کنم. ابتدا به فکر قرار دادن یک بافر در اطراف روست‌ها و حذف نقاطی که در این بافرها قرار می‌گیرند از تجزیه و تحلیل افتادم. مشکل تصمیم گیری در مورد بافر است. در مناطق دیگر من از بافری برابر با خطای دایره‌ای احتمالی خطای ردیابی رادیویی استفاده کرده‌ام، اما قرار دادن آن در اطراف محل نگهداری تنها نقاطی را در بر می‌گیرد که خفاش در واقع در داخل اتاقک بوده و در اطراف آن غذا نمی‌جوید. همه خفاش‌ها الگوهای جستجوی متفاوتی در اطراف محل نگهداری خود دارند و من نمی‌توانم ببینم چگونه یک فاصله بافری که کاملاً دلخواه نیست تعیین کنم. روش دومی که ما به آن توجه کرده‌ایم این است که نقاطی را که نزدیک‌تر (از فاصله نزدیک‌تر) با خزانه مرتبط هستند تا نزدیک‌ترین تجمع گیاه و سپس اجرای تصادفی‌سازی برای بررسی ارتباط نقاط باقی‌مانده با گیاه. من می‌خواهم ایده‌ای داشته باشم که آیا حذف ارتباط با روست‌ها به این روش به طور بالقوه باعث سوگیری تحلیل می‌شود یا خیر. نظر یا پیشنهاد دیگری دارید؟! پیشاپیش متشکرم
کمک به طراحی تجزیه و تحلیل یک مطالعه تله متری رادیویی
7499
هنگام ارائه اطلاعات آماری با استفاده از نمودار میله ای، چه زمانی نیاز به استفاده از نمودارهای نوار خطا دارید؟
کدام نوع اطلاعات آماری برای ارائه به نمودارهای نوار خطا نیاز دارد؟
63276
هدف من این است که تأیید کنم که یک مقیاس خاص یک بعدی است، و اینکه ساختار یک بعدی در طول زمان پایدار است. من یک مقیاس 10 موردی، حدود 200 مورد و مقادیر امتیاز در دو نقطه زمانی مختلف دارم. اگر فقط یک اندازه گیری بود، ساده بود: من داده ها را به نصف تقسیم می کردم، PCA را در یک نیمه و CFA را در نیمه دیگر انجام می دادم، رویکردی که در واقع برای اندازه گیری اول به خوبی کار می کند. با این حال، من می خواهم به نحوی معیاری ارائه کنم که ساختار عامل منحصر به فرد در طول زمان پایدار است. **چگونه می توان این کار را انجام داد؟**
نحوه انجام اندازه گیری مکرر CFA
44972
این سوال در مورد آمار بیزی و محاسباتی است. من همین الان در حال یادگیری آنها هستم، دو خروجی بسیار رایج از نرم افزارم دارم، یکی **تقریبا لاپلاس** و دیگری **میانگین هارمونیک اصلاح شده**. هر دوی آنها برای تقریب احتمال حاشیه ای ورود به سیستم استفاده می شوند، معمولاً ارزش بسیار نزدیکی دارند. تفاوت آنها چیست؟ و آیا کسی می تواند اطلاعاتی را بدون این روش ها به من ارائه دهد؟ با تشکر
تفاوت بین تقریبا لاپلاس و میانگین هارمونیک اصلاح شده چیست؟
44973
من دو مجموعه داده (دما و گیر) دارم و یک روش پیشنهادی را در مقاله ای که در مورد تحلیل تابع تجمعی تجربی (ECDF) می خوانم دنبال می کنم. اولاً، من ECDF را برای داده‌های دمایی خود با استفاده از تابع ecdf در R به دست آورده‌ام. مرحله دوم دریافت توزیع تجمعی با وزن گیر برای دما بود که صادقانه بگویم نمی‌توانم مفهوم آن را درک کنم. $$W(t)=\frac1n\sum_{i=1}^n\frac{y_i}{y}I_{\\{x_i\\}}$$ جایی که $y_i$ برای روز $i$ است ; میانگین $y$ میانگین گرفتن برای همه روزها و I_{{x_i}} تابع نشانگر است چگونه این منحنی را محاسبه کنم؟ خیلی ممنون.
توزیع فرکانس تجمعی وزنی به چه معناست؟
86670
آیا می توان تأثیر متغیر را بر زمان بقا در مدل کاکس و در مدل رگرسیون وایبول مقایسه کرد؟
اثر متغیر در مدل های Weibull و Cox
11168
آیا n برای اندازه نمونه باید با حروف بزرگ نوشته شود؟ آیا تفاوتی بین n و N وجود دارد؟
بزرگ کردن n برای حجم نمونه
76222
من به دنبال تابع از دست دادن پیش‌فرض هستم که تابع ksvm() از بسته R 'kernlab' استفاده می‌کند. حدس من از دست دادن لولا است اما هیچ مرجع یا استنادی برای آن پیدا نمی کنم (هیچ چیزی در مستندات توضیح داده نشده است). آیا کسی می تواند تابع ضرر را به من بگوید و بهتر است یک پیوند برای استناد به من نشان دهد؟
عملکرد از دست دادن kernlab
81543
من در حال آموزش نقشه خود سازماندهی هستم، باید مقدار شعاع آن را تنظیم کنم. آیا روشی برای یافتن اندازه شعاع بهینه وجود دارد؟
چگونه مقدار شعاع را در نقشه خود سازماندهی تنظیم کنیم؟
2
در بسیاری از روش های مختلف آماری فرض نرمال بودن وجود دارد. طبیعی چیست و چگونه می توانم بفهمم که نرمال وجود دارد؟
عادی بودن چیست؟
86673
من می خواهم یک مدل مکانی-زمانی با مجموعه داده های SIDS کارولینای شمالی ایجاد کنم. من از یک مدل سلسله مراتبی-بیزی مانند http://www.sciencedirect.com/science/article/pii/S1572312711000098 استفاده می کنم. می خواهم از نرم افزار R استفاده کنم: آیا بسته هایی برای انجام تحلیل من وجود دارد؟ من _spdep_ را برای مدل‌های CAR & SAR فضایی خالص و _spBayes_ را برای تحلیل بیزی مکانی-زمانی پیدا کردم، اما به نظر می‌رسد این دومی با نقاط کار می‌کند و نه با داده‌های منطقه‌ای (منطقه‌ای). هر گونه اشاره، هم در مورد نرم افزارهای جایگزین برای استفاده و هم در مورد روش های مطالعه، قدردانی می شود!
آیا بسته‌های R برای توسعه مدل‌های CAR فضایی و زمانی وجود دارد؟
86678
معادلات مدل ترکیبی کلاسیک هندرسون را در نظر بگیرید: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/u4KLX.gif) ماهیت ماتریس وزن، S-1 چیست؟ من معتقدم که این از ماتریس کوواریانس تشکیل شده است، اما در عین حال مورب است. چگونه می تواند کار کند؟ اگر X 100 X 5 باشد، S-1 لزوماً 100 X 100 است. با این حال، ماتریس کوواریانس 5 X 5 است. آیا این بدان معناست که S-1 یک سری از ماتریس های 5 X 5 روی قطر دارد؟ اگر عناصر خارج از مورب صفر باشند، آیا همه آنها ماتریس 5x5 هستند؟ اگر این درست است، ضرب چگونه کار می کند؟
ماتریس وزن مدل مخلوط
7497
این یک سوال در مورد اصطلاحات است. آیا «قبلی مبهم» همان پیشینی غیر آموزنده است یا تفاوتی بین این دو وجود دارد؟ تصور من این است که آنها یکسان هستند (از نگاه مبهم و غیر اطلاعاتی با هم)، اما نمی توانم مطمئن باشم.
آیا مقدمات مبهم با مقدمات غیر اطلاعاتی یکی است؟
104956
من در تلاش برای درک نظریه اولیه پورتفولیو با استفاده از R هستم. تا آنجا که متوجه شدم، مجموع وزن دارایی ها باید برابر با 1 باشد. اما در این پیوند، که نحوه محاسبه مرز کارآمد یک پورتفولیو را آموزش می دهد، مجموع نهایی اوزان برابر با 1 نیست. این به چه معناست؟ لینک آموزش: http://economistatlarge.com/portfolio-theory/r-optimized- portfolio Weights نتیجه نهایی: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rUc1k.png)
مجموع اوزان در نظریه پورتفولیو برابر با 1 نیست
86679
با توجه به یک مسیر نمونه، تقریباً می‌توانیم بگوییم که آیا میانگین در طول زمان تغییر می‌کند یا خیر، و اگر تغییر نمی‌کند، آیا انحراف از میانگین در طول زمان تغییر می‌کند یا خیر. (اگر اشتباه می کنم، مرا تصحیح کنید.) اما این برای تشخیص ثابت بودن فرآیند کافی نیست (در اینجا، ایستایی بر حسب لحظه های اول و دوم تعریف می شود)، زیرا هنوز باید کوواریانس نمونه را برای هر بار بررسی کنیم. تاخیر بنابراین آیا می‌توانیم این کار را با نگاه مستقیم به یک مسیر نمونه بدون تخمین کوواریانس انجام دهیم؟ با تشکر
چگونه ثابت بودن را از مسیر نمونه تشخیص دهیم؟
81545
من این N مجموعه از ویژگی های F را دارم که هر کدام با تعداد $F_i$ ویژگی ها. همه مجموعه ویژگی ها 20000 نمونه دارند و ما 20000 برچسب برای آنها داریم. فرض کنید مجموعه ویژگی $F_1$ دارای 10 ویژگی و مجموعه ویژگی $F_2$ دارای 20 ویژگی است. هر یک از این مجموعه ویژگی ها 20000 نمونه دارد. اکنون همه این نمونه ها دارای برچسب هستند. بنابراین من می خواهم تصمیم بگیرم که کدام یک از این مجموعه ویژگی ها برای طبقه بندی مفید است. من نمی خواهم یک طبقه بندی ایجاد کنم و تصمیم بگیرم زیرا برچسب های من به شدت نامتعادل هستند. من در فکر انجام این کار با همبستگی متعارف بودم. من یک مجموعه ویژگی $F_i$ و بردار برچسب را می‌گیرم و همبستگی معمولی انجام می‌دهم، امتیاز را می‌گیرم. این کار را برای همه مجموعه‌های ویژگی انجام دهید و سپس آنها را بر اساس امتیازات به‌دست‌آمده مرتب کنید. چگونه می شود؟
انتخاب بهترین ویژگی برای پیش بینی
8059
من در حال انجام برخی کارها بر روی مدل‌سازی ماتریس‌های انتقال هستم، و برای این کار به معیاری از عدم تطابق یا عدم تناسب نیاز دارم: یعنی اگر ماتریس $T$ و ماتریس هدف $T_0$ داشته باشم، می‌خواهم بتوانم فاصله $T$ از $T_0$ را محاسبه کنید. آیا کسی می‌تواند راهنمایی‌هایی درباره معیارهایی که باید استفاده کنم ارائه دهد؟ من برخی از ارجاعات را برای استفاده از اندازه گیری مربع خطای عنصری دیده ام، به عنوان مثال مجذور تفاوت عناصر $T$ و $T_0$ را خلاصه کنید، اما این به نظر می رسد که به طور موقت.
معیارهای اختلاف برای ماتریس های انتقال
43319
من در یک دوره مقدماتی آمار ثبت نام کرده ام. در یکی از یادداشت‌های سخنرانی‌ام، مدرس دلیل محبوبیت نسبت شانس را توضیح می‌دهد و می‌گوید: «Exposure» و «Outcome» را می‌توان بدون تغییر نسبت شانس تغییر داد. کسی می تواند توضیح دهد که این به چه معناست؟ من از کمک شما قدردانی می کنم.
آیا می توان بدون تغییر نسبت شانس، معرض قرار گرفتن و نتیجه را تغییر داد؟
44971
چگونه می توانم با ویژگی های دسته بندی در الگوریتم های ML خطی برخورد کنم؟ راه حل واضح این است که هر مقدار را به عنوان یک ویژگی باینری نشان دهیم. به عنوان مثال، اگر رنگ ویژگی دسته بندی دارای سه مقدار ممکن باشد: قرمز، آبی و سبز، آن را با سه ویژگی باینری [color == red]، [color == green]، [color == blue] جایگزین می کنیم. آیا راه حل های بهتری وجود دارد؟ به طور خاص، من از رگرسیون لجستیک Vowpal Wabbit استفاده می کنم. تا آنجا که من از آموزش فهمیدم VW می تواند با ویژگی های دسته بندی کار کند، اما من متوجه نشدم که چگونه کار می کند.
ویژگی های دسته بندی در الگوریتم های یادگیری ماشین خطی
13656
من یک خط دارم و آن را حذف کرده ام اما به نظر می رسد هنوز روند دارد. از نظر بصری یکی دارد (به jpg مراجعه کنید) و یک ریشه واحد دارد (Dickey-Fuller) و در آزمون Durbin-Watson مردود است، بنابراین ثابت نیست. خطی که من آن را «درون زده» می‌نامم، نموداری از باقیمانده‌ها (خطاهای) رگرسیون داده‌ها در زمان است. سوال من این است که چرا یک خط ظاهراً کاهش یافته همچنان روندی دارد؟ ![data](http://i.stack.imgur.com/TQ3wF.jpg)![data detrend](http://i.stack.imgur.com/UsTtn.jpg)
خط Detrended هنوز یک روند دارد
55033
من یک ابزار (4 خرده مقیاس، کل آیتم های 32، تعداد آیتم ها در هر خرده مقیاس 12، 7، 9 و 4) را سه بار در طول یک سال اجرا کرده ام. من نمرات فاکتورها را محاسبه کرده ام. من مطمئن نیستم که باید میانگین ها را مقایسه کنم یا مدل خطی عمومی و سپس اندازه گیری مکرر را انتخاب کنم. من باید بدانم از کدام راه و چرا باید بروم، همچنین مراحل در SPSS
اقدامات مکرر
44978
من یک سوال در رابطه با **نمایش درختی** یک **تابع غیر بولی** دارم. آیا در نمایش یک تابع از فضای Boolean-> **Limited** Integer یا **Limited** Integer-> **Limited** عدد صحیح توسط یک (تصمیم) **درخت** مشکلی وجود دارد؟ من هیچ مشکلی نمی بینم، اما هیچ نکته ای در مورد آن در شبکه پیدا نکردم. با تشکر از مشارکت شما
آیا می توانم یک تابع غیر بولی را با یک TREE نشان دهم؟
5807
همکاران من اخیراً کاری را ارائه کردند که در آن مدل‌های درخت‌های رگرسیون تقویت‌شده (BRT) را بر روی مجموعه‌های داده کوچک ($n=30$) کالیبره کردند. آنها مدل ها را با استفاده از اعتبار سنجی متقاطع ترک یک خروجی (LOOCV) با استفاده از شاخص های R2، RMSPE و RPD تأیید کردند. آنها همچنین این شاخص ها را با آموزش و اعتبارسنجی مدل بر روی مجموعه داده کامل محاسبه کردند. مقادیر R2، RMSPE و RPD به‌دست‌آمده از طریق LOOCV تقریباً با مقادیر R2، RMSPE و RPD به‌دست‌آمده در هنگام اعتبارسنجی در مجموعه داده‌های آموزشی برابر بود. سوالات من این است: * آیا چنین نتایجی برای LOOCV در BRT انتظار می رود؟ * آیا این به این دلیل است که BRT نسبتاً نسبتاً غیر حساس به موارد پرت است (و به افراد مجرد؟) که کنار گذاشتن یک فرد در طول LOOCV تفاوتی ایجاد نمی‌کند و مدل‌های کالیبره‌شده تقریباً مشابهی با معیارهای عملکرد یکسان در افراد حذف شده ارائه می‌کند؟ * در این صورت آیا LOOCV برای BRT در مقایسه با CV مکرر k-fold با $k < n$ منطقی است؟ پیشاپیش از شما متشکرم
اعتبار سنجی متقاطع و درختان رگرسیون تقویت شده را ترک کنید
81544
_طول عمر یک برند لامپ به صورت نمایی با پارامتر $\lambda=0.01\;h^{-1}$ توزیع می شود. چند لامپ لازم است تا به احتمال 95 درصد یک اتاق به مدت 1000 ساعت روشن باشد، اگر _ الف) وقتی لامپ می سوزد، لامپ بعدی استفاده می شود؟_ _ب) همه لامپ ها به طور همزمان روشن می شوند؟_ * * * a ) طول عمر $X_1,…,X_n$ مستقل هستند و من می دانم که مجموع i. من د متغیرهای نمایی دارای توزیع گاما هستند. $X_1+...+X_n\triangleq Y\overset\perp\sim \mathrm{Gamma}(n,\lambda)\\\ \mathbb P(Y\ge 1000) \ge 0.95\\\ \mathbb P( 2\lambda Y\gt 2000\lambda) \ge 0.95\\\ 2\lambda Y\triangleq T\sim \mathrm{Gamma}(n,0.5)\equiv \mathrm{\chi^2}(2n)\\\ \mathbb P(T\gt 20) \ge 0.95\quad,$$ و chi- جدول مربعی (و محدودیت زوج بودن $2n$) $n=16$ را نشان می دهد. آیا راهی برای پاسخ به این بدون جدول (یا فقط یک جدول معمولی) وجود دارد؟ * * * ب) از آنجایی که آیتم قبلی هر بار از یک لامپ استفاده می کند، فرض می کنم یکی برای روشنایی اتاق کافی است. بنابراین، من نیاز دارم که بیشترین طول عمر 1000 ساعت یا بیشتر باشد. $$\max\\{X_1,...,X_n\\}\triangleq Z\\\ \begin{align}\mathbb P(Z\ge1000) &= 1-\mathbb P(Z\le1000) =\ \\ &=1 - \mathbb P(X_1\le1000,...,X_n\le1000)\overset{\mathrm{i.i.d.}}=\\\ &=1 - [\mathrm{cdf_{Exp(0.01)}}(1000)]^n = 1 - (1-e^{-0.01\cdot1000})^n \end{align}\\\ 1 - (1-e^{-10})^n \ge 0.95\\\ (1-e^{-10})^n \le 0.05\\\ n\log(1-e^{-10}) \le \log 0.05\\\ n\log[(1-e^{-10})^{-1}] \ge \log 20\\\ 4.5401\cdot10^{-5}\cdot n\ge 2.9957\\\ n\ge 65983.9\quad,$$ و بنابراین من به 65984 لامپ نیاز دارم، یک عدد مشکوک بزرگ، حتی اگر می خواهم یکی از آنها ده برابر طول عمر داشته باشد. طول عمر متوسط آیا چیزی اشتباه است؟
انتخاب کوچکترین عدد i. من د متغیرهای نمایی برای ارضای یک شرط
95849
من سعی می کنم تجزیه و تحلیلی از مناطق QTL و ژن های بیان شده متفاوت در Arabidopsis انجام دهم، و ویژگی مورد علاقه من، قدرت هیبریدی است. من در حال حاضر 9 ناحیه QTL (که هر کدام حاوی ژن های زیادی است) مرتبط با هتروزیس زیست توده دارم که از مطالعه قبلی شناسایی شده بود. من همچنین فهرستی از ژن هایی دارم که در هیبریدها به طور متفاوت بیان می شوند (DEG). سپس برای همپوشانی بین 9 لیست ژنی مجزا (از 9 ناحیه ژنومی) و لیست DEG ها آزمایش کردم. من می بینم که با استفاده از تست هایپرهندسی، همپوشانی قابل توجهی بین DEG ها و 2 لیست از 9 ژن وجود دارد. من نمی دانم آیا راه بهتری برای تعیین اینکه آیا همپوشانی بین لیست ها/مناطق قابل توجه است یا خیر وجود دارد. من در برخی از مقالات QTL دیده ام که می توان یک نوع آزمایش جایگشت یا تصادفی سازی را انجام داد، و نمی دانم که آیا می توان آن را در شرایط من اعمال کرد. مشکل این است که من با این نوع تست های جایگشت آشنا نیستم و مطمئن نیستم که شامل چه چیزی می شود. پیشنهادی دارید؟
تعیین کنید که آیا یک ناحیه فاصله QTL به طور قابل توجهی با ژن های بیان شده متفاوت همپوشانی دارد یا خیر
89214
در پاسخ به این سوال، استفاده از AIC در انتخاب مدل معادل استفاده از مقدار p 0.154 است. من آن را در R امتحان کردم، جایی که از یک الگوریتم انتخاب زیرمجموعه به عقب برای بیرون ریختن متغیرها از یک مشخصات کامل استفاده کردم. اول، با بیرون انداختن متوالی متغیر با بالاترین مقدار p و توقف زمانی که همه مقادیر p زیر 0.154 هستند و ثانیاً، با حذف متغیری که منجر به کمترین AIC در هنگام حذف می شود تا زمانی که هیچ بهبودی حاصل نشود. معلوم شد که وقتی من از p-value 0.154 به عنوان آستانه استفاده می کنم، تقریباً همان نتایج را می دهند. آیا این واقعا درست است؟ اگر بله، آیا کسی می داند چرا یا می تواند به منبعی که آن را توضیح می دهد مراجعه کند؟ P.S. من نتوانستم از شخصی که نظر می دهد بپرسم یا نظری بنویسم، زیرا فقط ثبت نام کرده ام. من می دانم که این مناسب ترین رویکرد برای انتخاب مدل و استنتاج و غیره نیست.
معادل سازی AIC و مقادیر p در انتخاب مدل
43315
مدلی که من در R ایجاد کردم این است: > تناسب <\- lm(استخدام ~ آموزش + اکسپرت + جنسیت، داده = داده) چیزی که من مطمئن نیستم این است که چگونه با مدل مطابقت کنم تا احتمال علاقه را پیش بینی کنم که در آن p = pr(استخدام = 1). با تشکر از هرگونه کمکی، Clay **ویرایش:** این خروجی کامپیوتر برای آنچه من تا کنون محاسبه کرده ام است. من مطمئن نیستم که آیا این حتی گامی در مسیر درست برای یافتن پاسخ این سوال است یا خیر. کاری که من سعی می کنم انجام دهم این است که با استفاده از سال ها تحصیل، سال ها تجربه و جنسیت متقاضیان کار، یک مدل رگرسیون لجستیک را برای پیش بینی احتمال استخدام پیش بینی کنم. > test<-glm(استخدام ~ آموزش + اکسپرت + جنسیت، داده = داده، خانواده = دوجمله ای (لینک = logit)) > خلاصه (تست) تماس: glm(فرمول = استخدام ~ آموزش + کارشناس + جنسیت، خانواده = دو جمله ای (پیوند = logit)، داده = داده) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -1.4380 -0.4573 -0.1009 0.1294 2.1804 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -14.2483 6.0805 -2.343 0.0191 * educ 1.1549 0.6023 1.917 0.0552 . exper 0.9098 0.4293 2.119 0.0341 * sex 5.6037 2.6028 2.153 0.0313 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 35.165 در 27 درجه آزادی انحراف باقیمانده: 14.735 روشن 24 درجه آزادی AIC: 22.735 تعداد تکرار امتیازدهی فیشر: 7
احتمال علاقه
89212
آیا کسی می تواند به من بگوید چگونه می توانم پلاگین R را برای SPSS نسخه 17 یکپارچه کنم؟ من باید با استفاده از افزونه R برای SPSS آماری را انجام دهم، متأسفانه نمی توانم افزونه را در اینترنت پیدا کنم، بنابراین کسی می تواند به من کمک کند.
پلاگین R برای SPSS
19031
اجازه دهید $X$ دارای توزیع دوجمله ای منفی با پارامترهای $r$ و $p$ باشد. توزیع دوجمله ای منفی یک توزیع مخلوط یا توزیع ترکیبی است. یعنی $X$ $\text{Poisson}(\lambda)$ است که در آن $\lambda$ به طور تصادفی از یک $\text{Gamma}(r, p/(1-p))$ انتخاب می‌شود. از این رابطه برای نوشتن یک تابع R برای ترسیم تصادفی $n$ نمونه های تصادفی دو جمله ای منفی استفاده کنید. _Hint_: از توابع R rpois و rgamma استفاده کنید.
چگونه از یک توزیع دوجمله ای منفی در R نمونه های تصادفی استخراج کنیم؟
13654
من سپتامبر امسال به دانشگاه برمی گردم و درسی را انتخاب کردم که دارای برخی پیش نیازها > ریاضیات و آمار (علمی) است: فضای نمونه، رویدادها، شرطی > احتمال، استقلال رویدادها، قضیه بیز. ترکیبی پایه > احتمال، متغیرهای تصادفی، توزیع های تک متغیره گسسته و پیوسته و > چند متغیره. استقلال متغیرهای تصادفی نابرابری ها، قانون ضعیف اعداد بزرگ، قضیه حد مرکزی. من سال‌ها پیش آمار را مطالعه کرده‌ام، اما چون از آن در کارم استفاده نمی‌کنم، همه آن‌ها را کاملا فراموش کردم. از آنجایی که هنوز یک ماه تا سپتامبر باقی مانده است، فکر می‌کنم اگر نمی‌خواهم دوره را رها کنم باید برای مطالعه‌ام آمادگی لازم را داشته باشم. بنابراین آیا منابع مطالعه اینترنتی خوبی وجود دارد که بتوانم از آن برای تازه کردن دانش آماری خود استفاده کنم؟ (من به خرید کتاب های درسی فکر کردم، اما واقعا گران هستند)
منبع اینترنتی خوب برای آمادگی برای مطالعه آمار ریاضی
28892
من یک سوال در مورد نحوه تصحیح خطاهای استاندارد دارم زمانی که متغیر مستقل دارای همبستگی است. در یک تنظیم سری زمانی ساده می‌توانیم از ماتریس کوواریانس نیوی وست با دسته‌ای از تأخیرها استفاده کنیم و مشکل همبستگی در باقیمانده‌ها را برطرف کند. در تنظیمات پانل دیتا چه کاری انجام می شود؟ موقعیتی را تصور کنید که در طول زمان شرکت ها را مشاهده می کنید: $$ Y_{i,t} = a + b\Delta{X_{i,t}} + \epsilon_{i,t} $$ که در آن $\Delta{X_{ i,t}} = X_{i,t} - X_{i,t-n}$. به نظر می رسد که خوشه بندی خطاهای استاندارد در $i$ و $t$ باید این مشکل را برطرف کند. درست میگم؟
تصحیح خطاهای استاندارد زمانی که متغیرهای مستقل همبستگی خودکار دارند
65045
من در حال حاضر در حال تجزیه و تحلیل انواع سیگنال هستم. مشکلی که من دارم این است که چندین مقدار از دست رفته دارم. این مقادیر فقدان نشان دهنده عدم وجود سیگنال هستند، آنها خطا در نمونه گیری یا چیز دیگری نیستند. بنابراین حفظ آنها در هنگام انجام تجزیه و تحلیل داده ها مهم به نظر می رسد. با این حال، من در مورد بهترین راه برای گنجاندن آنها در تجزیه و تحلیل مطمئن نیستم. من 2 گزینه اصلی را ابداع کرده ام که هر دو با استفاده از داده های استاندارد شده اند: 1. تبدیل داده های پیوسته به داده های طبقه بندی شده با استفاده از انحرافات استاندارد داده های نرمال شده، و اضافه کردن یک دسته برای بدون سیگنال. 2. جایگزین کردن همه مقادیر از دست رفته با z-score 4- یا -6. می خواهم نظر شما (مزایا و معایب) استفاده از یکی از این روش ها را بپرسم. PS: شاید ارزش این را داشته باشد که بگویم داده های من به درستی از ~ (-2) تا (+5) SD منحرف شده اند.
انباشت در سیگنال های نرمال شده
13658
در R جدید هستم و سعی می کنم طبقه بندی متن را انجام دهم. من از R package tm برای تبدیل داده های txt خام به ماتریس استفاده می کنم. در اینجا قطعه کد مربوطه آمده است. col <- Corpus(DirSource(path), readerControl = list(reader = readPlain, language = en, load = TRUE))) tdm <- TermDocumentMatrix(col, control = list(tokenize = NGramTokenizer)) موارد زیر را دارم سؤالات: 1) انتخاب ویژگی من باید بر روی داده های خود انتخاب ویژگی های مربع خی یا مبتنی بر کسب اطلاعات را انجام دهم. کدام بسته های R را می توانم نگاه کنم؟ من به caret و boruta برخورد کردم اما به نظر می رسد آنها برای کاری که می خواهم انجام دهم مناسب نیستند. 2) مدیریت نمونه های جدید (دیده نشده) فرض کنید من مدل خود را با استفاده از مجموعه آموزشی خود آموزش داده ام. وقتی مجموعه آزمایشی وارد می‌شود، باید آن را از فیلترهای مشابهی (پایه، حذف کلید واژه، وزن tf-idf، انتخاب ویژگی و غیره) عبور دهم. من هیچ ایده ای برای انجام این کار ندارم! هر گونه راهنمایی / کمک بسیار قدردانی خواهد شد. پیشاپیش ممنون
طبقه بندی متن در R
11249
من یک مجموعه داده بزرگ دارم که در حال حاضر با فرمت dbf است و کاری که می خواهم انجام دهم این است که بتوانم آن را به راحتی در اکسل دستکاری کنم و کاری مانند subtotal انجام دهم و stdev و نسبت ها را محاسبه کنم. جزئیات مجموعه داده ها؛ این مجموعه داده حاوی اطلاعات خریدار است. دارای 1.2 میلیون سطر و 20 ستون است که در آن سطرها هر کدام یک خریدار منحصر به فرد هستند و ستون ها اطلاعات خرید خود را (آنچه خریداری کرده اند) نگه می دارند. من از برنامه‌های آفیس 2007 استفاده می‌کنم، اکسل را به بهترین شکل می‌شناسم، اما فکر می‌کردم از چه جایگزین‌هایی می‌توانم برای دستیابی به اهدافم استفاده کنم (مجموع فرعی، محاسبه stdev و نسبت).
راه خوبی برای کار با مجموعه داده های بزرگ در اکسل چیست؟
71139
فولدها در اعتبارسنجی متقاطع libSVM چگونه انجام می‌شوند؟ به عنوان مثال اگر من 100 داده داشته باشم و آن 4 برابر باشد، وقتی این یک تاشو است، می توان به این شکل تقسیم کرد؟ * 20-45 : fold1 * 45-70 : fold2 * 70-95 : fold3 * 95-20 : fold4 یا باعث می شود تا همیشه از اولی شروع شود: * 1-25 : fold1 * 25-50 : fold2 * 50 -75 : fold3 * 75-100: fold4 پس چگونه می توانم کدام نوع را انتخاب کنم در تاشو می خواهم استفاده کنم؟ ممنون از پاسخ های شما
Cross Validation در LibSVM تا می شود
94349
نمی‌توانستم تصمیم بگیرم که آیا این سؤال به اینجا تعلق دارد یا در صرافی پشته ریاضی، اما آن را اینجا پست می‌کنم زیرا به نظر می‌رسد مستقیم‌تر مرتبط است. اساساً من یک دسته دسته دارم که مثلاً A-Z برچسب گذاری شده اند. هر یک از این دسته‌بندی‌ها یک دسته «وظایف» درون خود دارند. وظایف مختص یک دسته هستند - آنها فقط در یک دسته قرار می گیرند. برای اهداف انتزاعی موقعیت، می گوییم وظایف بی نهایت وجود دارد. هر دسته سطح دشواری متفاوتی دارد - یک کار در رده A ممکن است 30-40 ثانیه طول بکشد، در حالی که یک کار در رده X ممکن است 10-15 دقیقه طول بکشد. من به خاطر اعداد خوب، 100 کاربر دارم که در این دسته ها کار می کنند. آنها یک دسته شبه تصادفی را انتخاب می کنند (بنابراین نمی توانید برای عادی سازی موارد به انتخاب دسته آنها اعتماد کنید) و ممکن است چندین بار در روز جابجا شوند. برخی از کاربران فقط دسته های A-C، برخی از D-F را کار می کنند، برخی ممکن است در همه آنها کار کنند - کاملاً ناسازگار است. کاری که من سعی می کنم انجام دهم این است که این کاربران را با یکدیگر مقایسه کنم تا بفهمم چه کسی بهترین/سریع ترین است. با این حال، نمی‌توانم فقط به این موضوع نگاه کنم که چه کسی سریع‌ترین کار را در ساعت انجام می‌دهد، زیرا ممکن است آن‌ها آن وظایف را در دسته‌بندی آسان انجام می‌دهند. من باید برای هر دسته ضریبی بیاورم تا نوعی مجموع وظایف وزنی را در هر ساعت برای هر کاربر محاسبه کنم تا بتوانم آنها را به طور عادلانه رتبه بندی کنم. من قبلاً چیزی شبیه این را انجام می‌دادم: «(مجموع (همه کاربران) کارهای تکمیل شده در A/کل (همه کاربران) زمان صرف شده در A)/(کل (همه کاربران) زمان صرف شده در همه دسته‌ها/مجموع (همه کاربران) وظایف تکمیل شده در همه دسته ها)` امیدوارم منطقی باشد. این یک ضریب (با میانگین همه ضرایب در '1') برای هر دسته ارائه می دهد که می توانستم برای عادی سازی چیزها استفاده کنم. با این حال، در بررسی دقیق تر این موضوع، فکر نمی کنم منصفانه باشد. اگر کاربر 23 واقعاً سریع است، اما آنها فقط در رده A کار می کنند، همه کسانی که در رده A کار می کنند بد به نظر می رسند به جز کاربر 23 - کاربر 23 ضریب را پایین می آورد. فکر می‌کنم به راهی نیاز دارم که ابتدا یک کاربر را برای خودش عادی کند، سپس ضرایب دسته‌ها را با استفاده از داده‌های نرمال‌سازی شده توسط کاربر عادی کند. اگر اصلاً منطقی باشد - من دارم به مغز خودم آسیب می زنم، اینجا. آیا کسی می تواند به من کمک کند، یا من را در مسیر درست راهنمایی کند؟ PS: دشواری دسته‌ها به‌طور شبه تصادفی به‌صورت زنده تغییر می‌کند، بنابراین معیارسنجی کاربران در هر دسته ممنوع است.
عادی سازی داده ها در چندین دسته
13659
در رگرسیون چندگانه، اگر یک آزمون F جهانی معنی دار باشد، آیا آزمون های t (یا آزمون های والد) برای ضرایب به عنوان مقایسه های چندگانه و آزمون های تعقیبی در نظر گرفته می شوند و آیا باید آنها را تنظیم کرد؟
آیا آزمون t ضرایب در آزمون های تعقیبی رگرسیون چندگانه است؟
90859
فرض کنید من یک نمونه $\\{(x_{1i}, x_{2i}, \dots, x_{mi}), i=1,\dots, n\\}$از $m$ متغیر تصادفی ناشناخته $X_1 دارم. , X_2,\dots, X_m$. چگونه می توانم X_1 $ = X_2 = \ نقطه = X_m $ را آزمایش کنم؟ علاوه بر این، اگر یک متغیر توضیحی غیرتصادفی $Y$ وجود داشته باشد، به طوری که $Y=y_j$ برای $X_j، j=1، \dots، m$، چگونه می توانم آزمایش کنم که آیا $Y$ روی تفاوت بین X_1 $ تأثیر دارد یا خیر. , X_2,\dots, X_m$?
چگونه این آزمایش را انجام دهیم؟
103248
من می‌خواهم این فرضیه را آزمایش کنم که ضریب همبستگی بین X و Y با یک بوت استرپ 0 است، اما نمی‌دانم کدام راه درست برای ساختن نمونه‌های بوت استرپ است. من چندین ایده دارم که ممکن است اشتباه باشد: 1) جایگشت تصادفی Y در بین Xها مانند آزمایش جایگشت، اما نمونه Y با جایگزینی 2) جایگشت Y بین X بدون جایگزین و جفت نمونه (X,Y) با جایگزینی لطفاً به من بگویید راه درست بوت استرپینگ در این مورد و توجیه آن چیست؟ خیلی ممنون
تست بوت استرپ برای ضریب همبستگی
109846
من در حال یادگیری رگرسیون خطی برای رگرسیون از عناصر یادگیری آماری هستم. چرا ماتریس واریانس-کوواریانس تخمین های پارامتر حداقل مربعات به راحتی مشتق می شود(از(3.6) و با $$ Var(\hat{\beta}) = (X^TX)^{-1}\sigma2 به دست می آید. $ $ معمولاً واریانس $\sigma^2$ توسط $$ \hat{\sigma^2} = تخمین می‌زند \frac{1}{N-p-1}\sum_{i=1}^N(y_i-\hat{y}_i)^2 $$ آیا کسی می‌تواند فرمول‌های بالا را با جزئیات توضیح دهد، مانند موارد زیر: $$ E( \hat{\beta})=E((X^TX)^{-1}X^Ty) \\\ =(X^TX)^{-1}X^TE(y) \\\ =(X^TX)^{-1}X^TX\بتا \\\ =\بتا $$
ماتریس واریانس-کوواریانس برآورد پارامتر حداقل مربعات
17378
آیا یک ANOVA تقاطع پلات با دو عامل یکسان با ANOVA دو طرفه با اندازه گیری های مکرر در یک عامل است؟ اگر نه، تفاوت چیست؟
آیا آنالیز واریانس تقسیم شده با دو عامل با آنالیز واریانس دو طرفه با اندازه گیری های مکرر در یک فاکتور یکسان است؟
19035
آیا یک نسبت خطر می تواند تعریف نشده باشد زیرا شما یک مقدار پایین تر را با مقدار بالاتر مقایسه می کنید؟ برای مثال، فرض کنید به متغیری $x \in [0, 100]$ علاقه دارید. بگویید که علاقه مند به مقایسه 5 مقدار x$ هستید. اگر بالاترین مقدار x$ را به عنوان سطح مرجع انتخاب کنید... آیا همه نسبت های خطر سایر مقادیر تعریف نشده است؟ **ویرایش.** فرض کنید گروه های زیر را دارید: $A,B,C$ و $D$ با $D$ به عنوان سطح مرجع. شما به مرگ نتیجه هر یک از این گروه ها نگاه می کنید. برای مثال، اگر هیچ رویدادی در گروه $A$ وجود نداشته باشد، آیا نسبت خطرات برای گروه $A$ $0$ خواهد بود یا تعریف نشده است؟
آیا نسبت های خطر قابل تعریف نیستند؟
58159
من یک مدل ARMA خاص نصب کرده ام و خروجی زیر را دریافت کرده ام: ![sp](http://i.stack.imgur.com/TedV8.png) همانطور که می بینید، مقداری ضریب روی صفر تنظیم شده است و تمرکز روی آن است. ضریب ma5 و رهگیری. به طور دقیق، ضریب ma5 -0.05077979 و نقطه قطع -0.00044509 است. همچنین دقیق s.e. عبارتند از: «0.02078887» (ma5) و «0.00032599» (وقفه). من می خواهم مقادیر p را محاسبه کنم: از پاسخ با 7 شست در این موضوع (از mpiktas) آن را با: (1-pnorm(abs(-0.05077979)/sqrt(0.02078887^2))/2 محاسبه کردم که باید مقدار p را برای ضریب ma5 به من بدهد و خروجی آن است 0.003645037 برای رهگیری که انجام می‌دهم (1-pnorm(abs(-0.00044509)/sqrt(0.00032599^2)))/2 و 0.04303588 دریافت می‌کنم اکنون این را از طریق تست همف از بسته lmtest lmtest کنترل می‌کنم: librarytestl و می گیرم ![ot](http://i.stack.imgur.com/kZFax.png) همانطور که می بینید، برآوردها و s.e. یکسان هستند، اما p-value متفاوت است. سوال من این است: چرا؟ چه اشکالی دارد؟ p-value lmtest اشتباه است یا راه حل در پست دیگر؟
آزمون Z ضرایب خروجی؟
52369
من در حال بررسی تفاوت در تاریخ حداکثر تعداد غازها در 3 سایت در بریتانیا هستم. داده های من شبیه این هستند که در R ایجاد شده اند: df <- data.frame(day.number=c(sample(70:75, 30, replace=T), sample(77:82, 30, replace=T), sample( 80:84, 30, replace=T)), site=paste0('site', sort(rep(1:3,30)))) متغیر day.number عدد روزی است که در آن حداکثر تعداد غازها در هر سال ثبت شد. بنابراین روز شماره 70 70 روز از اول ژانویه آن سال خواهد بود. هر ردیف نشان دهنده یک سال است و داده های 30 ساله از هر سایت وجود دارد. من در نظر دارم یک ANOVA انجام دهم تا ببینم آیا تاریخ حداکثر تعداد در بین سایت ها متفاوت است یا خیر. کد R مثال: summary(aov(day.number ~ site, data=df)) آیا ANOVA در اینجا مناسب است؟ آیا راه بهتری برای بررسی تفاوت در تعداد روز حداکثر شمارش در بین سایت ها وجود دارد؟
ANOVA با استفاده از اعداد روز
90857
من یک پروبیت هکمن را در Stata انجام می‌دهم و هر زمان که سعی می‌کنم متغیرهای ساختگی منطقه را وارد کنم (که در پروبیت معمولی همه مهم هستند)، مدل یا همگرا نمی‌شود یا با rho ~ 1 همگرا می‌شود که در مدل من معنی ندارد. . بنابراین آیا چیزی در مورد متغیرهای ساختگی است که هکمن برای تخمین زدن آن تلاش می کند؟ خیلی ممنون
آیا هکمن دو مرحله ای بیش از حد به متغیرهای ساختگی حساس است؟
96451
ما با تخمین پارامترهای GARCH (1,1) مشکل داریم. معادله بازگشتی ما $$ r_t = \mu + h_t^{1/2} \cdot z_t است، $$ که $z_t$ توزیع نرمال دارد و $h_t$ واریانس شرطی و باقیمانده $\epsilon_t = h_t^{1/ است. 2} z_t$. برای GARCH(1,1) $$ h_{t+1} = \omega + (\alpha + \beta)h_t + \beta(r^2_t - h_t)، $$ داریم و نمی‌توانیم توضیح دهیم که چرا $ r_t^2 $ مربوط به $\epsilon^2_t$ است اگر $v_t=\epsilon^2_t - h_t$ برای فرض ARMA. ما معمولاً به طور کلی برای GARCH (1,1) $$ h_t = \omega + (\alpha + \beta) h_{t−1} + \alpha(\epsilon^2_{t−1} – h_{t− می‌یابیم 1}). $$
فرض GARCH (1،1)
13650
من این سوال را ابتدا در math.stackexchange.com پرسیدم، اما کسی جواب نداد. شاید کارشناسان آمار بتوانند به من کمک کنند. سوال به این صورت است: من یک مولد سیگنال دارم که هر ثانیه یکی از حروف a، b یا c را تولید می کند. من چیز دیگری در مورد این سیگنال مولد نمی دانم، اما گمان می کنم که الگوهایی در آن وجود دارد. مولد سیگنال در زمان 0 راه اندازی می شود. با توجه به خروجی سیگنال از زمان 0 تا زمان n، باید خروجی آن را در زمان n+1 پیش بینی کنم. من گمان می‌کنم الگوهایی برای سیگنال وجود دارد، بنابراین یک جدول فرکانس ایجاد می‌کنم: برای هر رشته فرعی (تا طول 7) از اولین n نماد سیگنال تولید شده، سه مقدار را محاسبه می‌کنم: تعداد وقوع 'a'، 'b'، و 'c' بعد از رشته فرعی. بنابراین، برای مثال برای رشته فرعی abc (اگر در داده ها وجود داشته باشد)، من ذخیره می کنم: * تعداد مواردی که علامت a بعد از رشته abc می آید * تعداد مواردی که نماد b می آید. بعد از رشته abc * تعداد مواردی که نماد 'c' بعد از رشته abc می آید اکنون که همه این داده ها را دارم، 7 پیش بینی دارم که نماد بعدی چه خواهد بود. اگر به عنوان مثال 7 کاراکتر آخر سیگنال acbccba باشد، پس: اگر فقط به جدول فرکانس یک نویسه نگاه کنم، پیش بینی خاصی خواهم داشت که به نظر می رسد: از آخرین کاراکتر رشته a است، و از آنجایی که مستقیماً بعد از کاراکتر a می آید، 40 مورد حرف a، 25 مورد از حرف ب و 130 مورد از حرف c وجود دارد، پیش بینی می کنم که کاراکتر بعدی حرف c خواهد بود به طور مشابه برای 2 حرف آخر (ba)، 3 حرف (cba)، ...، 7 حرف (acbccba). بنابراین در پایان من 7 پیش بینی دارم. سوال این است که چگونه می توانم مشخص کنم کدام کاراکتر بعدی در واقع برای این سیگنال مولد محتمل ترین است؟ پیش‌بینی‌های مختلف بر اساس اندازه‌های نمونه متفاوت است، بنابراین چگونه آنها را به طور مؤثر ترکیب کنم؟
پیش‌بینی کاراکتر بعدی بر اساس چند مورد قبلی - چگونه پیش‌بینی‌ها را ترکیب کنیم؟
56868
اجازه دهید $c_i$ مرکز یک ریز خوشه باشد (یعنی ما مراکز زیادی داریم که نشان دهنده برخی از قطعات خوشه هستند). اجازه دهید $c_1$ مرکزی باشد که نزدیکترین نقطه داده جدید $x$ است، به طوری که $d_{x,c_1} = فاصله(x, c_1)$. (1) آیا می توان d را با یک احتمال $d_{x,c_1}$ با یک احتمال $p_{x,c_1}$ بیان کرد که به 1 تمایل دارد زیرا $d_{x,c_1}$ بالاتر است و به 0 می رسد چون $d_{x,c_1}$ کوچکتر است؟ به نظر من دستکاری یک احتمال به جای فاصله، شهودی تر است. (2) همان سوال (1)، اما این بار فرض می‌کنم که $p_{x,c_1} = 0$ اگر $d_{x,c_1} < شعاع$ باشد.
تبدیل مقدار فاصله از یک مرکز، به یک مقدار احتمال
103242
من این سوال را داشتم که چگونه می توان با یک مدل رگرسیون که شامل یک مجموعه پیش بینی کننده av است، برخورد کرد. مدل مورد نظر مدلی بود که در آن پاسخ باید بر انحراف استاندارد (غیر ثابت) خطا تقسیم شود، اما این انحراف استاندارد یک تابع خطی ساده از یکی از پیش بینی کننده ها است (σ(x) = a+bx) بنابراین پاسخ Y/σ(x) خواهد بود. به فردی که از من می‌پرسید، پیشنهاد شده بود که یک روش تخمین احتمال حداکثر، یک روش تکراری، تنظیم کند. اما حتی اگر این امکان پذیر باشد، به نظر می رسد که این مشکل به اندازه کافی ساده است که جستجو برای راه حلی که قبلاً پیدا شده است را تضمین کند. پیشنهادی دارید؟ رابرت
رگرسیون با انحراف معیار وابسته به پیش بینی کننده؟
52363
خیلی ساده من به دنبال بسته ای هستم که رگرسیون خطی چند متغیره را با وزن روی مشاهدات انجام دهد. آیا کسی بسته ای می شناسد که این کار را انجام دهد؟ من شوکه شده ام که نتوانستم هیچ کدام را پیدا کنم. **توجه:** R رگرسیون چند متغیره را _NOT_ انجام نمی دهد. صفحه راهنمای `lm()` به طور خاص بیان می کند: اگر پاسخ یک ماتریس است، یک مدل خطی به طور جداگانه با حداقل مربعات به هر ستون ماتریس برازش می شود. این به معنای مدل های رگرسیون مستقل برای هر متغیر پاسخ است. بنابراین «lm()» ** رگرسیون خطی چند متغیره را انجام نمی دهد. این فقط چندین رگرسیون خطی تک متغیره را برای راحتی انجام می دهد.
رگرسیون خطی وزنی چند متغیره
96457
روز همگی بخیر، من در حال حاضر در حال بررسی یک تمرین خودیاری هستم که رفتار زیر را نشان می دهد که واقعاً من را متحیر کرده است. \شروع{معادله} > P(D) = P(A \cap D) + P(B \cap D) + P(C \cap D) \end{معادله} پس از ترسیم نمودار ون، به نظر نمی رسد معنا پیدا کند. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/at76u.jpg) سوال اصلی که سوال من را برانگیخت به شرح زیر است: ![شرح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/aKqzJ.jpg)
جمع احتمال تقاطع
11248
من از نمونه گیری گیبس برای یادگیری توزیع ضرایب برای مدل رگرسیون لجستیک چند جمله ای استفاده می کنم. در پایان، من از مقادیر میانگین توزیع ضرایب استفاده می کنم و رگرسیون لجستیک حاصل به عنوان طبقه بندی کننده استفاده می شود. من سعی می‌کنم مزایای داشتن توزیع احتمال برای ضرایب و متغیر پاسخ را پیدا کنم، اما واقعاً نمی‌توانم راهی برای استفاده از فواصل اعتبار را ببینم. با این توزیع هایی که در نهایت به آنها می رسم، به غیر از استفاده از مقادیر میانگین آنها چه کاری می توانم انجام دهم؟ خوب، فکر می کنم نتوانستم سوالم را واضح بیان کنم. این به روز رسانی است. فرض می کنیم y = b1*x1 + b2*x2 + b3*x3 را در دست دارم. برای همه b1,b2,b3 توزیعهای نرمال با میانگین و چندک دارم. این توزیع ها از نتایج mcmc به دست می آیند. من می توانم از ابزارهای b1،b2،b3 استفاده کنم و این به من یک طبقه بندی می دهد. من همچنین می توانم از مقادیر کمیت 2.5% و مقادیر کمیت 97.5 برای b1،b2،b3 و غیره استفاده کنم. تفسیر احتمالی این معادلات دیگر چه خواهد بود؟ آیا می توانم به جای استفاده از وسایل، طبقه بندی نرم افزاری را از این طریق تولید کنم؟ استفاده از فواصل اعتبار زمانی که برای یک متغیر منفرد استفاده می شود برای من کاملاً واضح است، اما در این مورد، من در مورد N متغیر (در واقع 5) صحبت می کنم که هر کدام با فواصل اعتبار خاص خود را دارند. من در درک معنایی این تنظیمات مشکل دارم. من هیچ مقاله و غیره ای ندیده ام که در این مورد بحث کند، و هر اشاره ای قابل قدردانی است.
چگونه می توانم از فواصل اعتبار در رگرسیون لجستیک بیزی استفاده کنم؟
103244
من یک خوشه بندی سلسله مراتبی را روی نمونه ای از داده ها با استفاده از مراحل زیر اجرا می کنم: library(RODBC) setwd('D:/r/cluster2') کانال <- odbcConnectExcel('cluster.xls') داده <- sqlFetch(channel, 'clust9') y9 <- data.frame(inf=data$infest, faible=data$faible, moyen=data$moyen, fort=data$fort, lon=data$Lon, lat=data$Lat) y9 <- na.omit(y9) # حذف لیستی از y9 از دست رفته استفاده کنید <- y9 y9 <- scale(y9) # استاندارد کردن متغیرها wss <- (nrow(y9)-1)*sum(apply(y9,2,var)) برای (i در 2:15) wss[i] <- sum(kmeans(y9, centers=i)$withinss) plot(1 :15, wss, type=b, xlab=تعداد خوشه ها، ylab=در گروه های مجموع مربع ها) # K-Means تحلیل خوشه ای مناسب <- kmeans(y9, 5) # 5 راه حل کلستری تجمع (y9,by=list(fit$cluster),FUN=mean) y9 <- data.frame(y9, fit$cluster) # بخش بندی سلسله مراتبی d <- dist (y9، روش = اقلیدسی) # ماتریس فاصله مناسب <- hclust(d, method=ward) plot(fit) # نمایش dendogram rect.hclust(fit, k=5, border=red) و این نتایج را گرفتم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/65YdS.png) اما وقتی همان مراحل را روز بعد انجام دادم که نتایج متفاوتی گرفتم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/clS5h.png) آنها در همه چیز با هم تفاوت ندارند، اما افرادی وجود دارند که اکنون آنها را دارند. متعلق به به خوشه ای دیگر! پس من نمی دانم چرا این رفتار؟ من علاقه مند به تفسیر و توضیح نتایج هستم، بنابراین وقتی هر بار نتایج متفاوتی دریافت می کنم، تفسیر قبلی من اشتباه می شود، در حال حاضر چه کاری می توانم انجام دهم؟
نتایج خوشه بندی سلسله مراتبی مختلف
11795
اگر $$E[f(x)]=0$$ می‌توانیم آن را استخراج کنیم که $$E[f'(x)]=0؟$$ برای مثال $f(x)$ به معنای مقداری نویز با میانگین صفر، توزیع گاوسی است. .
آیا می توان در انتظار تفاوت قائل شد؟
89210
من دو بردار داده از داده های تعداد مشاهده شده دارم: $A$ و $B$، که در آن تعداد $A_n$ و $B_n$ به یک نقطه مشاهده اشاره دارد. فرض بر این است که $A$ از توزیع دوجمله ای منفی پیروی می کند. فرض بر این است که $B$ نتیجه دو فرآیند اساسی است. برای یک بار دیگر یک توزیع دوجمله ای منفی مستقل و به علاوه یک نوع اثر سایه از $A$، که در آن کسر معینی $f$ از شمارش از $A$ نیز در $B$ مشاهده می شود. بر این اساس، می توان چنین داده هایی را با: set.seed(13579) f <- runif(1) A <- rnbinom(100، mu = 100، اندازه = 1) B <- floor(f*A) + rnbinom(100) شبیه سازی کرد. ، mu = 20، اندازه = 1) **حالا به سوال من می پردازم: از آنجایی که $B$ مدل مخلوطی از دو متغیر توزیع شده دو جمله ای منفی است، چگونه می توانم تخمین بزنم مقدار ضریب $f$ که داده های اساسی را به بهترین شکل توضیح می دهد؟** نتیجه نهایی باید بردار $B^\prime$ باشد، که $B$ را برای قسمت سایه آن تصحیح می کند: $B^\prime = B - (A/f ) دلار. از آنجایی که من $A$ و $B$ را می شناسم، برای به دست آوردن آن باید $f$ را از روی داده ها و فرض اساسی توزیع دوجمله ای منفی تخمین بزنم. من نه یک متخصص آمار هستم و نه یک متخصص R، بنابراین هر کمکی بسیار قدردانی می شود.
مدل مخلوط توزیع دوجمله ای منفی با R
5808
یکی از مفروضات ANCOVA، همانطور که در اینجا خواندم، می گوید: _**متغیرهای مستقل متعامد به متغیرهای کمکی**. در ANCOVA سنتی، ناحیه مستقل‌ها متعامد به عوامل فرض می‌شد. اگر متغیر کمکی تحت تأثیر مستقل‌های طبقه‌ای باشد، آنگاه تنظیم کنترلی که ANCOVA روی متغیر وابسته انجام می‌دهد قبل از ارزیابی اثرات مستقل‌های طبقه‌ای، سوگیری خواهد داشت زیرا برخی از اثرات غیرمستقیم مستقل‌ها از وابسته حذف می‌شوند. فرض سوم در اینجا آیا می توانید به من بگویید چگونه باید تأیید کنم که این فرض در یک مدل داده شده حاوی سه عامل و یک متغیر کمکی برآورده شده است؟ برای انجام این کار می توانید به روش های SPSS یا R مراجعه کنید. خیلی ممنون
بررسی استقلال عامل / متغیر در ANCOVA
11242
این سوالی است که به شدت با «شخصیت‌های کوشی» مرتبط است. من در حال ساخت یک پرسشنامه 4 سوالی هستم که به رای دهنده احتمالی که با آنها تماس گرفته می شود می گوید که کدام یک از نامزدهای ریاست جمهوری بیشتر با آنها مطابقت دارد. مزیت این رویکرد برای یک نامزد ریاست جمهوری اسب تیره بدیهی است، البته با این فرض که اکثر رأی دهندگان احتمالی با او مطابقت دارند. من علاقه شفاهی به این موضوع را از سوی مدیر اجرایی در سطح دولتی برای چنین نامزد ریاست جمهوری دارم. ممکن است کسی حق داشته باشد فکر کند که این کار بارها توسط هزاران دکترای علوم سیاسی و/یا سازمان‌های نظرسنجی بزرگ انجام شده است - حداقل با استفاده از داده‌های عمومی سروی اجتماعی اگر هیچ چیز دیگری نباشد - و اشتباه می‌کند. علاوه بر این، ما زمان زیادی برای استقرار نداریم. در حالت ایده‌آل، ساخت پرسشنامه منجر به نوعی درخت تصمیم می‌شود که در آن داوطلب جستجوی خانه به خانه می‌تواند یک برنامه دستگاه تلفن همراه داشته باشد که سؤال بعدی را بر اساس پاسخ به سؤالات قبلی بپرسد. همچنین در حالت ایده‌آل، فرآیند ساخت و ساز به خودی خود، تماس احتمالی رای دهندگان را به حداقل می‌رساند زیرا این امر هزینه را افزایش می‌دهد. استفاده از داده‌های GSS این هزینه را کاهش می‌دهد و اگر بتوانیم به داده‌های خام GSS دسترسی داشته باشیم، بهینه خواهد بود، اما نمی‌توانیم. برای جمع‌آوری داده‌ها برای ساخت درخت 4 عمیق سؤالات، باید یک نظرسنجی انجام دهیم. در سمت نتیجه، به عنوان یک مصالحه عملی، پیشنهاد کرده‌ام به جای یافتن درختی با 4 سؤال عمیق، به یافتن تنها 4 سؤال بازگردیم. در بخش ساخت و ساز، به عنوان یک مصالحه عملی، من یک صندوق جایزه را پیشنهاد کرده ام که از یک تورنمنت حمایت می کند: 1. شرکت کنندگان هر کدام 4 سوال ارسال می کنند. 2. پرسشنامه های ارسالی برای مسابقات جفت می شوند. 3. داوطلبان کمپین هر کدام یک جفت پرسشنامه رقابتی دریافت می کنند و ده رای دهنده احتمالی را می گیرند که به طور کامل به هر 8 سوال پاسخ دهند. 4. پرسشنامه برنده مسابقه، پرسشنامه ای است که نویسنده آن بتواند از پاسخ پرسشنامه خود، پاسخ پرسشنامه حریف را به بهترین نحو حدس بزند. 5. پس از اینکه مسابقات log2(N) برنده آن مسابقات را انتخاب کرد، جوایز را اهدا کنید. 6. رتبه بندی پرسشنامه ها و با اجازه نویسندگان آنها را منتشر کنید. همانطور که منابع اجازه می دهند، این مسابقات برای چندین دور تکرار می شود. ما واقعاً باید به ارزش زمان داوطلبانه اولیه اهمیت دهیم، بنابراین به حداقل رساندن کار ساخت و ساز بسیار مهم است. من می‌دانم که این کاملاً از یک سؤال ریاضی محض دور است، اما من آن را تا جایی که می‌توانم به نوعی ارزش وزنی که شامل کار با ارزش بالا در مرحله ساخت و ساز و دقت مورد انتظار از 4 سؤال حاصل شده است نزدیک کردم. احتمالاً رای دهندگانی که در حین انجام نظرسنجی کور با نیروی کار با ارزش کمتر تماس گرفته اند. سوال: در مورد اینکه سازش عملی پیشنهادی پرسشنامه 4 سوالی (ساخته شده همانطور که توضیح داده شد) از درخت تصمیم گیری ایده آل 4 عمیق از سوالات ساخته شده از تعداد نامتناهی نمونه در طول مرحله ساخت، چقدر از بهینه فاصله دارد؟ یک سوال ثانویه: آیا راه بهتری برای استفاده از همان زمان داوطلبانه اولیه وجود دارد؟
ساخت نظرسنجی کور بهینه
11246
خط آخر نمونه ای از چیزی است که من به دنبال آن هستم: داده (کیفیت هوا) پیوست (کیفیت هوا) lm1 <- lm(ازون ~ خورشیدی.R+باد) lm2 <- lm(ازون ~ خورشیدی.R+باد+دمای) anova(lm1، lm2) نیازمند (rpart) rp1 <- rpart(ازون ~ Solar.R+Wind) rp2 <- rpart(Ozone ~ Solar.R+Wind+Temp) anova(rp1, rp2) # این وجود ندارد - آیا چیزی شبیه آن وجود دارد؟ نوعی تابع anova.rpart؟ با تشکر
آیا تعمیم جدول ANOVA برای دو مدل CART تودرتو وجود دارد؟
52365
دیروز با تعجب متوجه شدم که آمارهای خلاصه مختلفی را می توان بر روی تاریخ ها محاسبه کرد. گوگل تعداد زیادی در نحو مورد نیاز برای محاسبه آمار خلاصه در تاریخ پیدا کرده است، اما در مورد نحوه انجام محاسبات بسیار کم است. چگونه آمار خلاصه (میانگین، sd و غیره) در تاریخ ها محاسبه می شود؟ کد R مثال: myDates <- as.Date(paste0(sample(1:28، 100، جایگزین=T)، '/'، نمونه (1:12، 100، جایگزین=T)، '/'، 2013)، '%d/%m/%Y') میانگین (myDates) میانه (myDates) sd (myDates) var (myDates)
میانگین تاریخ چگونه محاسبه می شود؟
60270
من روی یک طبقه‌بندی کار می‌کنم تا حالت‌های حمل‌ونقل را بر اساس ویژگی‌های خاصی از یک فعالیت مرتب کند. من از الگوریتم نزدیکترین همسایه مانند این استفاده می‌کنم: 2 مجموعه نمونه از داده‌های آموزشی (فرض کنیم آنها تنها مواردی هستند که من دارم) این مجموعه نشان‌دهنده یک ماشین سواری است: ویژگی | AvgSpeed ​​TopSpeed ​​GyroValue --------------------------------------------- ارزش | 40 80 20 این مجموعه یک پیاده روی را نشان می دهد: ویژگی | AvgSpeed ​​TopSpeed ​​GyroValue --------------------------------------------- ارزش | 5 8 90 AvgSpeed، TopSpeed ​​و GyroValue وزن‌های متفاوتی دارند (مثلاً 0.3، 0.3، 0.4) اگر برنامه را چیزی مانند «A=25، B=60، C=40» تغذیه کنم، باید بتواند سواری ماشین را پیش‌بینی کند. من در حال حاضر از یک سیستم طبقه بندی k-neighbors برای این کار استفاده می کنم (به طور خاص الگوریتم KNeighborsClassifier با scikit-learn در پایتون). آیا مورد قوی تری برای نوع دیگری از الگوریتم ML در اینجا وجود دارد؟ من متقاعد نیستم که این بهترین مناسب برای داده های من است، و این دقیقاً زمینه تخصص من نیست. متشکرم.
دسته بندی حالت های حمل و نقل با k-نزدیک ترین همسایه؟
65044
فرض کنید شما مجموعه ای از مقادیر دارید و می خواهید بدانید که آیا احتمال بیشتری دارد که از یک توزیع گاوسی (نرمال) نمونه برداری شده باشند یا از یک توزیع لگ نرمال نمونه برداری شده اند؟ البته، در حالت ایده‌آل شما چیزی در مورد جمعیت یا منابع خطای آزمایشی می‌دانید، بنابراین اطلاعات بیشتری برای پاسخ دادن به سؤال مفید خواهید داشت. اما در اینجا، فرض کنید ما فقط مجموعه ای از اعداد داریم و هیچ اطلاعات دیگری نداریم. کدام محتمل تر است: نمونه برداری از گاوسی یا نمونه برداری از توزیع لگ نرمال؟ احتمالش چقدر بیشتره؟ چیزی که من به آن امیدوار هستم الگوریتمی برای انتخاب بین دو مدل است و امیدوارم احتمال نسبی هر کدام را کمی سازی کند.
برای محاسبه احتمال نسبی که داده ها از توزیع نرمال در مقابل لگ نرمال نمونه هستند، به الگوریتم نیاز دارید
17377
من الگوریتمی ابداع کرده ام که یک مجموعه داده $s$ و دو پارامتر $k$ و $d$ را به عنوان ورودی می گیرد. $k$ گسسته است در حالی که $d$ مقوله ای است. الگوریتم من یک بردار $v$ به طول 20 را خروجی می دهد که حاوی اعداد واقعی بین 0 تا 1 است. من الگوریتم خود را بر روی سه مجموعه داده مختلف $s_1$، $s_2$، $s_3$ اجرا می کنم. برای هر مجموعه داده، $k$ را در محدوده {5، 10، 20، 30، 40، 50، 60} تغییر می‌دهم و $d$ را از {1، 2، 3} تغییر می‌دهم. من هر ترکیب را اجرا می کنم و $v$ حاصل را ذخیره می کنم. هدف من این است که بفهمم کدام مقادیر $k$ و $d$ بهترین عملکرد متوسط ​​را در هر سه مجموعه داده نشان می دهند (از نظر $v$، مقادیر بزرگتر بهتر است). من در حالت ایده‌آل به دنبال آزمایش یا روشی هستم که دقیقاً به من بگوید کدام مقدار $k$ و $d$ بهترین مقادیر کلی برای این سه مجموعه داده هستند. چگونه می توانم این کار را انجام دهم؟
چگونه بهترین مقدار 2 پارامتر را به طور همزمان انتخاب کنیم؟
109848
سیستم های پویا سیستم هایی هستند که تکامل آنها را می توان با یک قاعده توصیف کرد، با گذشت زمان تکامل می یابد و قطعی است. در این زمینه می توانم بگویم که شبکه های عصبی یک قانون تکامل دارند که تابع فعال سازی $f(\مجموع حاصل ضرب وزن ها و ویژگی ها)$ است؟ آیا شبکه های عصبی (A) سیستم دینامیکی (B) سیستم های دینامیکی خطی هستند یا غیرخطی؟ آیا کسی می تواند لطفاً در این مورد روشن کند؟
شبکه عصبی و سیستم دینامیکی
69012
چگونه می توانم یک متغیر تصادفی تعریف کنم که: * مقداری تصادفی (توزیع یکنواخت) اگر بزرگی اختلاف پارامترها بیشتر از مقدار آستانه $t$ باشد * در غیر این صورت متغیر تصادفی مقدار پارامتر اول را می گیرد. من به چیزی شبیه به این فکر می کنم: $$ g(x,y) = \left\\{ \begin{array}{l l} x & \quad |x-y| < t\\\ \text{واقعی تصادفی بین $0$ و $N$} و \quad |x-y|>t \end{array} \right. $$ اما من هیچ ایده ای برای استفاده از این تابع ندارم، به عنوان مثال می خواهم انتظار $g(X,Y)$ را محاسبه کنم اما نمی توانم راهی برای انجام این کار با استفاده از تعریف فعلی خود پیدا کنم. واقعاً سؤال من این است که آیا ارزیابی این انتگرال با توجه به تعریف من از $g(X,Y)$ امکان پذیر است: $$ E[g(X,Y)] = \int_{-\infty}^\infty \int_{ -\infty}^\infty g(x,y)f_{X,Y}(x,y)\mathrm{d}x\mathrm{d}y $$ کجا $f_{X,Y}(x,y)$ PDF مشترک دو متغیر تصادفی پیوسته $X$ و $Y$ است. هر گونه پیشنهاد یا توصیه بسیار قدردانی خواهد شد!
انتظار تابع چند متغیره از متغیرهای تصادفی
90854
من مجموعه ای از داده های شمارش مرتبط با فواصل زمانی (به طور بالقوه همپوشانی و با طول های متغیر) دارم، مثلاً $(s_i، t_i، n_i، N_i)$ که در آن $N_i$ تعداد کل رویدادهای مشاهده شده توسط یک ناظر خاص است. در یک بازه زمانی $[s_i، t_i]$، و $n_i$ تعداد رویدادهای برخی از کلاس های مورد علاقه است. من علاقه مند به مدلسازی چگونگی تغییر _نسبت_ رویدادهای جالب در طول زمان هستم، با این فرض که این نسبت مستقل از ناظر است. تعداد کل رویدادهای مشاهده‌شده در هر بازه ممکن است تا حدودی به‌طور دلخواه بر اساس مشاهده‌گر تغییر کند، اگرچه در صورت لزوم می‌توانیم با خیال راحت فرض کنیم که در مجموع روی همه ناظران، تصویر معقولی از چگالی رویداد کلی ارائه می‌دهد. ساده‌ترین مدلی که می‌توانم برای این داده‌ها در نظر بگیرم این است که $n_i \sim Binomial\left[N_i, \frac{1}{t_i-s_i}\int_{s_i}^{t_i}\theta(w) dw\ را فرض کنیم. راست]$ برای برخی از تابع صاف ناشناخته $\theta(t)$ که در $[0,1]$ برای همه $t$ قرار دارد، و به دنبال روش‌های ناپارامتریک برای تخمین باشید. $\تتا$. یک مدل کمی بهتر شاید این باشد که یک فرآیند پواسون ناهمگن را برای رویدادهای کلی با نرخ $\lambda(t)$ فرض کنیم، و اینکه رویدادهای مورد علاقه نازک شدن این فرآیند در نسبت متغیر زمانی هستند $\theta(t )$ بازده یک ناهمگون دیگر. فرآیند پواسون با نرخ $\lambda(t)\theta(t)$. ما همچنین می‌توانیم فرض کنیم که هر دو این فرآیندها توسط هر ناظر، مستقل از نازک شدن «رویداد مورد علاقه»، با نسبت ثابت ناشناخته‌ای که نشان‌دهنده نسبت رویدادهای هر دو نوع است که مشاهده‌گر می‌بیند، رقیق‌تر می‌شوند. این نسبت خروج را لغو می‌کند: $n_i \sim Binomial\left[N_i, \frac{\int_{s_i}^{t_i}\theta(w)\lambda(w) dw}{\int_{s_i}^{t_i} \lambda(w) dw}\right]$. در اینجا $\lambda(t)$ فقط تا یک فاکتور ثابت اهمیت دارد، بنابراین شاید بهتر باشد آن را به عنوان یک چگالی به جای نرخ فرآیند پواسون مدل کنیم؟ به هر حال اگر فرض کنید $\lambda(t)$ ثابت/یکنواخت باشد، مدل ساده‌تر به عنوان یک مورد خاص از آن خارج می‌شود. می‌خواستم بدانم آیا کسی در مورد چگونگی تخمین تابع نسبت $\theta(t)$ در این نوع مدل اشاره‌ای دارد؟ یک حدس موقت ساده لوحانه این است که یک تخمین جداگانه برای نرخ کلی و نرخ بهره با استفاده از روش‌های هموارسازی هسته محاسبه کنید، سپس نسبتی از این دو تخمین را محاسبه کنید (شاید با اضافه کردن برخی ثابت‌های کوچک مشابه آنچه که استفاده می‌کنید. یک بتا قبل از تخمین نسبت دوجمله ای مستقل به عنوان مثال $\frac{n+\alpha}{N+\alpha+\beta}$). برای بیرون آوردن اسلحه‌های سنگین، فکر می‌کنم می‌توان یک فرآیند گاوسی لجستیکی را بر روی $\theta$ قرار داد و تخمینی را برای تخمین بعدی جستجو کرد. تصور می‌کنم که این به روش‌های تقریبی بیزی نسبتاً مودار نیاز دارد. من نمی‌دانستم که برآوردگرهای ساده‌تری برای این کار وجود دارد (مثلاً بر اساس برآوردگرهای چگالی هسته)، و اگر چیزی در مورد انتخاب فراپارامتر، نرخ‌های همگرایی، فواصل اطمینان و غیره شناخته شده باشد. اگر در ابتدا به بررسی یک مسئله ساده‌تر کمک کند، شاید بتوانیم فرض کنیم که ما مشاهدات نقطه‌ای برای رویدادها (مورد علاقه و غیر مورد علاقه) داریم. با تشکر
برآوردگرهای ناپارامتریک برای نسبت دوجمله ای متغیر با زمان
52360
اجازه دهید $a,b,c,d$ متغیرهای تصادفی با توزیع عادی مستقل باشند. من می دانم که توزیع های زیر: $$c a + d b$$ $$(c+d)a$$ هر دو دارای انحراف معیار یکسانی هستند ($=\sqrt{2}$ if $a,b,c,d $ دارای واریانس واحد است). من به آمار تولید شده توسط فرآیند زیر علاقه مند هستم: اجازه دهید $a,b$ بردارهای حاوی تعداد زیادی نمونه را نشان دهد، در حالی که $c,d$ هر یک نمونه واحد را نشان می دهد. سپس انحراف استاندارد مورد انتظار دو توزیع بالا چقدر است؟ با استفاده از کد MATLAB زیر، میانگین انحرافات استاندارد به ترتیب حدود 1.25 دلار و 1.125 دلار را دریافت می کنم. N=100; برای m=1:100000 a = randn(N,1); b = randn(N,1); c = randn(1); d = randn(1); x(m)=std(c*a+d*b); y(m)=std((c+d)*a); پایان mean(x) mean(y) در صورت امکان، من می خواهم توزیع انحرافات استاندارد را به طور کامل مشخص کنم، اما روشی برای استخراج میانگین نیز مفید خواهد بود. اگر این سوال خیلی آسان است عذرخواهی می کنم (امیدوارم اینطور باشد!).
انحراف استاندارد مجموع وزنی توزیع های تصادفی با وزن های تصادفی اما ثابت
60275
من تازه وارد سایت هستم، بنابراین اگر قبلاً به این سؤال (احتمالاً کاملاً ساده) پاسخ داده شده است عذرخواهی می کنم - من در مورد یک مداخله با 2 گروه (کنترل و مداخله) تحقیق انجام داده ام و داده های قبل و بعد را برای تعدادی از اقدامات جمع آوری کرده ام. استرس، خلق و خو و غیره). برای اندازه‌گیری اثربخشی مداخله (یا فقدان آن)، فکر می‌کنم باید از یک ANOVA ترکیبی استفاده کنم تا دو گروه را در هر یک از این متغیرهای وابسته مقایسه کنم. آیا این را درست می گویم؟ من نسبتاً مطمئن هستم، اما فکر کردم بهتر است با کسانی که می دانند بررسی کنم! من قصد دارم تجزیه و تحلیل های بیشتری انجام دهم، اما این تمرکز اصلی من است، بنابراین هر کمکی قابل قدردانی خواهد بود.
اثربخشی یک مداخله
64790
من سعی می کنم نتایج تحلیل خوشه سلسله مراتبی را پس از مقاله ای توسط گای براک و همکاران تأیید کنم. _clValid: یک بسته R برای اعتبارسنجی خوشه ای_ (pdf). آیا باید از همه این روش ها استفاده کنم؟ رایج ترین روش های اعتبار سنجی کدامند؟ همچنین من در کد زیر گیر کرده ام: emp <- as.matrix(emp) library(clValid) intern <- clValid(emp, 4:10, clMethods = c(سلسله مراتبی، kmeans، diana، فانی، سوم، پم، سوتا، کلارا، مدل)، اعتبارسنجی = داخلی) خلاصه (کارآموز) خطا در اگر (xx != 0) xx/10 else z/10 : آرگومان دارای طول صفر است علاوه بر این: 50 هشدار یا بیشتر وجود داشت (برای دیدن 50 مورد اول از warnings() استفاده کنید) چگونه با صفرهای ماتریس برخورد کنیم؟
اعتبارسنجی تحلیل خوشه ای در R
90853
من داده‌هایی درباره اندازه‌گیری‌های پیوسته (طول زمان یک رفتار) از دو گروه از افراد دارم که در فنوتیپ آنها متفاوت است (فنوتیپ A یا B، متغیری که برای گروه‌بندی آنها استفاده می‌شود). هر گروه از تعداد کمی از افراد (4-5) تشکیل شده است، و من چندین اندازه گیری (بیش از 100) از هر فرد در هر گروه دارم. تعداد افراد در هر گروه و تعداد اندازه گیری ها در هر فرد برابر نیست. چگونه می‌توانم میانگین و واریانس این اندازه‌گیری‌ها را بین گروه‌ها (فنوتیپ‌ها) مقایسه کنم و این واقعیت را در نظر بگیرم که هر اندازه‌گیری مستقل نیست (یعنی مشاهدات متعددی از هر فرد در گروه‌ها وجود دارد، نه اینکه هر اندازه‌گیری از یک گروه باشد. من اساساً می خواهم بدانم که آیا مدت زمان صرف شده در یک رفتار خاص بین فنوتیپ A و فنوتیپ B متفاوت است - آیا میانگین ها متفاوت است و آیا یکی است؟ فنوتیپ سازگارتر (دارای توزیع فشرده تر) از دیگری پیشاپیش متشکرم.
چگونه توزیع های دو گروه را که در آن هر گروه مشاهدات متعددی از یک گروه کوچک دارد، مقایسه کنیم؟
16022
چندین خروجی از یک محاسبات عددی وجود دارد، من به دنبال روشی برای مدل کردن آنها با یک _مدل آماری عمومی_ هستم (به عنوان مثال، تابع توزیع). به عنوان مثال: ... 0.044423 0.127713 0.010692 0.019980 0.013242 0.071450 0.054766 0.013618 0.067680 ... هر سری طول متفاوتی دارد. به طور مستقیم، Statistica گزینه ای مانند Distribution Fitting دارد که به خوبی کار می کند اما فقط روی یک سری داده در یک زمان. نمودار و مدلی را برای هر سری به شرح زیر ارائه می‌کند: نمایی، تست Chi-Square = 72.94، df = 12 (تعدیل شده)، p = 0.00![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com /ljy0e.png) حداقل 30 مورد از این سری وجود دارد. چگونه می توان یک مدل کلی (بهترین) را برای هر یک از آنها منطبق کرد اما در نهایت بهترین مدل توزیع برازش کلی را انتخاب کرد؟ چگونه از انجام کار به صورت دستی اجتناب کنیم؟ یک نظر کوتاه در مورد خروجی فوق نیز قابل تقدیر است. چگونه می توان اطلاعات را تفسیر کرد؟ * * * این چیزی است که اخیراً انجام دادم. من فقط تمام هیستوگرام های سری 30 (نقاط سیاه) را کنار هم قرار دادم و سپس از یک الگوریتم هموارسازی مبتنی بر هسته برای یافتن یک منحنی (منحنی قرمز) استفاده کردم. اکنون باید به راحتی بتوان یک توزیع شناخته شده را به آن منحنی منطبق کرد (زیرا فقط یکی است). **نظری در مورد این راه حل دارید؟** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Bo5FD.jpg) ** لطفاً به نظرات به روز شده در پاسخ ها توجه کنید.
چگونه می توان یک مدل آماری متناسب با یک سری داده را پیدا کرد؟
11243
**زمینه** من یک چارچوب رگرسیون و دو مجموعه داده دارم. با استفاده از اعتبارسنجی متقاطع ترک یک خارج، مجموعه اول عملکرد بسیار خوبی را ارائه می دهد و مجموعه دوم عملکرد نسبتاً ضعیفی را ارائه می دهد. من باید دلیل این تفاوت در عملکرد را توضیح دهم. با نگاهی به داده ها، واضح است که مجموعه اول یک مورد آزمایشی بسیار ساده تر است. داده های مجموعه اول به اندازه مجموعه دوم تغییر نمی کند. علاوه بر این، داده‌های تست و آموزش مجموعه اول به طور قابل توجهی مشابه هستند، که در مجموعه داده دوم چنین نیست. برای توضیح دلیل تفاوت عملکرد، می توانم این تفاوت ها را در داده ها به صورت کیفی با استفاده از تصاویر پدیده های فیزیکی مدل سازی شده نشان دهم. با این حال، من همچنین می‌خواهم این تفاوت‌های مجموعه داده را کمیت کنم و آن را به اختلاف عملکرد مرتبط کنم. **سوالات** از چه معیارهایی می توانم استفاده کنم تا نشان دهم که مجموعه داده اول یک مورد آزمایشی بی اهمیت است و مجموعه دوم چالش برانگیزتر است؟ به عنوان یک آمارگیر، چه چیز دیگری می خواهید بدانید تا مطمئن شوید که اختلاف عملکرد ناشی از این تفاوت ها در داده ها است و نه چیز دیگری؟
تبیین تفاوت های عملکرد رگرسیون
69014
بیایید تصور کنیم که دارم داروی جدیدی را آزمایش می‌کنم که مدعی است اثر خماری را زمانی که دارو کمی قبل از یک دوره نوشیدن شدید مصرف می‌شود، کاهش می‌دهد. جمعه شب، من در ورودی یک مهمانی پرخاشگر قرار می‌دهم و با استفاده از تکالیف تصادفی، به هر مهمان جدید یک دارونما یا داروی فعال می‌دهم. صبح روز بعد، از هر یک از شرکت کنندگان می خواهم این پرسشنامه دو ماده ای را تکمیل کنند: > 1. آیا دیشب مست شدید؟ > > * نه > * بله > 2. اگر «بله»، امروز صبح چقدر احساس خماری می کنید؟ > > * 1: اصلاً > * 2 > * 3 > * 4: فوق العاده > به طور معمول من یک آزمون t ساده برای تفاوت میانگین پاسخ به مقیاس لیکرت انجام می دهم. اما در این مورد، **دارو می تواند در وهله اول تا حدودی در منصرف کردن افراد از مستی تأثیر داشته باشد**. هرکسی که به سوال 1 پاسخ نه می دهد، لزوماً داده های سؤال 2 را از دست داده است. چگونه می توانم آزمون فرضیه معمول را انجام دهم - که دارو با دارونما تفاوت دارد یا ندارد - با توجه به این ویژگی های خاص؟
آزمون فرضیه با مقیاس پاسخ 1، 2، 3، 4، یا غیر قابل اجرا
52366
من سه مجموعه داده A، B و C دارم. A و C می‌توانند یک جدول احتمالی بسازند، و من می‌توانم یک مقدار p (pValue1) را با Fisher Exact Test دریافت کنم. B و C می توانند جدول اقتضایی دیگری بسازند، و من می توانم مقدار p دیگر (pValue2) را با Fisher Exact Test دریافت کنم. من می خواهم بدانم چگونه می توان این دو مقدار p را ترکیب کرد و یک عدد واحد بدست آورد. یک روش ممکن استفاده از روش فیشر است، اما تمایل دارد مقدار جدیدی نزدیک به حداقل تولید کند. من می خواهم از روش دیگری برای تولید نزدیک به حداکثر استفاده کنم، یعنی هر دو فرضیه صفر را رد کنند. کسی میتونه بگه از کدوم روش میتونم استفاده کنم؟ با تشکر
چگونه مقادیر p را ترکیب کنیم؟
20840
فرض کنید مدل پیچیده ای دارید که می خواهید از آن توسط زنجیره مارکوف مونت کارلو نمونه برداری کنید. موقعیت‌های زیادی وجود دارد که می‌توانید متغیرهای خود را مثلاً به دو گروه تقسیم کنید و به طور مؤثر و دقیق از متغیرهای یک گروه مشروط به گروه دیگر نمونه‌برداری کنید. یعنی ما می‌توانیم از $ p(x | y)$ و $ p(y | x)$ نمونه‌برداری کنیم و بنابراین نمونه‌گر گیبس خود را با کشیدن مکرر $x$ از $p(x|y)$ و $y اجرا می‌کنیم. $ از $p(y | x)$. به عنوان مثال می توان به ماشین محدود شده بولتزمن، مخلوط مقیاس گوسی ها در مدل های تصویری خاص و برخی مدل های بیزی (یک بلوک برای حالت و یکی برای پارامترها) اشاره کرد. به هر حال، در عمل، به نظر می رسد که بتوانیم نمونه برداری بلوکی گیبس را پیاده سازی کنیم به اختلاط بسیار سریعتر زنجیره مارکوف منجر می شود. اما آیا نتایج نظری در این مورد وجود دارد؟ احتمالاً برخی از شرایط باید توسط دو توزیع برآورده شوند، که منجر به محدود شدن رسانایی، یا نوعی جفت شدن خواهد شد. پیشاپیش متشکرم
نتایج همگرایی برای نمونه گیری بلوک-گیبس؟
69011
من در تلاش برای استخراج الگوریتم EM از مخلوط های توزیع دوجمله ای منفی $Neg\;Bin(r,p)$ هستم. من معادلات به روز رسانی برای به روز رسانی مرحله E و همچنین $p$ و ضرایب اختلاط $\phi_j$ s را دارم. با این حال، وقتی می‌خواهم گام M را برای $r$ استخراج کنم، با معادله‌ای گیر کردم که تابع دیگاما را در بر می‌گیرد. $$\frac{dQ}{dr} = \sum_{i=1}^m w^{(i)} \left( \psi(x^{(i)} + r) - \psi(r) + log (p) \right) = 0$$ توجه داشته باشید که $Q$ انتظار شرطی log-likelihood است و $w^{(i)}$ از مرحله E می آید و از این رو می تواند به عنوان یک ثابت در نظر گرفته شود. و $\psi$ تابع digamma است. زیرنویس $w$ و $x$ فقط شاخص داده ها هستند. من مقاله ای را در اینجا خواندم که عمدتاً به مخلوط توزیع گاما می پردازد. و از الگوریتم صعود گرادیان برای تخمین $\alpha$ استفاده می کند. اگر از رویکرد مقاله برای تخمین $r$ پیروی کنم، الگوریتم شیب صعودی زیر را خواهم داشت: $$r^{(t+1)} = r^{(t)} + \frac{a_t}{n} \frac{dQ}{dr}$$ مطمئن نیستم که آیا این راه درستی برای حل این مشکل است. آیا کسی چیزی را که من می توانم انجام دهم برای $r$ حل می کند؟
الگوریتم EM برای مخلوطی از توزیع های دو جمله ای منفی
11799
من می خواهم معادله $\dot P = K'P+PK'^T + Cov(Kv-Gw)$ را از سیستم $\dot x=Fx+Gw \ \ \ \ \\ w \sim N(0) استخراج کنم. ,Q)$z=Hx+v \ \ \ \ \ \ v \sim N(0,R)$ داده شده $\dot {\hat x}=K'\hat x+Kz$ $K'=F- KH$ $\dot {\hat x}=F\hat x+K(z-H\hat x)$d\tilde x/dt = K'\tilde x + Kv -Gw$ $\tilde x = \hat x - x $$P(t)=E[\tilde x\tilde x^T]$ که در آن $K'$ و $K$ باید برای بهینه‌سازی تخمین $\hat x$ انتخاب شوند. در اینجا چگونه سعی کردم (و شکست خوردم) این را نشان دهم: $P(t)=E[\tilde x\tilde x^T]$$\dot P(t)=E[(K'\tilde x+Kv- Gw)\tilde x^T+\tilde x(K'\tilde x+Kv-Gw)^T]$$=E[(K'\tilde x)\tilde x^T+\tilde x(K'\tilde x)^T]+E[(Kv-Gw)\tilde x^T+\tilde x(Kv-Gw)^T]$=K'P+PK'^T+E[(Kv-Gw)\tilde x^T+\tilde x(Kv-Gw)^T]$ نمی‌توانم بفهمم چگونه ادامه دهم. هر گونه کمکی قدردانی خواهد شد.
چگونه می توان $P$ را در فیلتر کالمن پیوسته استخراج کرد؟
20845
من فهرستی از نشانه ها/کلماتی دارم که با همدیگر وجود دارند. برخی از این توکن ها بیشتر از بقیه به صورت همزمان وجود دارند. علاوه بر این، یک رابطه مشروط بین بسیاری وجود دارد. به عنوان مثال، bat به صورت مشروط با ورزش و بیس بال رخ می دهد. چنین روابط شرطی می تواند روی چندین متغیر باشد. من می‌خواهم این روابط شرطی (بسته به وجود یا عدم وجود مقادیر) را با استفاده از یک DAG نشان دهم. آیا یک مدل گرافیکی راه درستی برای انجام این کار است؟ از نظر ریاضی، من یک ماتریس متقارن بزرگ r x c دارم. مقادیر این ماتریس باینری هستند که به معنای هم‌آمیزی r,c هستند. اگر r,c = 1 به این معنی است که r,c همزمان هستند و ممکن است بین آنها وابستگی داشته باشند.
چه مدل گرافیکی برای گرفتن روابط شرطی بین توکن ها؟
11794
من باید قابلیت اطمینان یک مقیاس لیکرت 5 درجه ای را با 6 گویه محاسبه کنم. از تجزیه و تحلیل عاملی دریافتم که مقیاس من یک مقیاس چند بعدی است (3 عامل)، بنابراین نمی توانم از آلفای کرونباخ برای محاسبه پایایی استفاده کنم. من در چندین مقاله دیده ام که می توان از پسوند چند بعدی امگا مک دونالد استفاده کرد. آیا عملکرد omega در بسته **روان** این امکان را می دهد؟ همچنین آیا تابع R برای محاسبه آلفای طبقه بندی شده وجود دارد؟
نحوه محاسبه امگا چند بعدی با R
17371
می خواستم بدانم آیا می توان ضریب همبستگی بسیار قوی (مثلاً 0.9 یا بالاتر)، با مقدار p بالا (مثلاً 0.25 یا بالاتر) داشت؟ در اینجا مثالی از یک ضریب همبستگی پایین، با مقدار p بالا آورده شده است: set.seed(10) y <- rnorm(100) x <- rnorm(100)+.1*y cor.test(x,y) cor = 0.03908927، p=0.6994 ضریب همبستگی بالا، مقدار p پایین: y <- rnorm(100) x <- rnorm(100)+2*y cor.test(x,y) cor = 0.8807809، p=2.2e-16 ضریب همبستگی پایین، مقدار p پایین: y <- rnorm(100000) x <- rnorm(100000)+. 1*y cor.test(x,y) cor = 0.1035018، p=2.2e-16 ضریب همبستگی بالا، مقدار p بالا: ???
مثالی از ضریب همبستگی قوی با مقدار p بالا
16680
من به متن، _A Practitioner's Guide to Resampling for Data Analysis, Data Mining, and Modeling_، نوشته فیلیپ گود (آمازون) نگاه می کنم. * می‌خواهم ببینم آیا کسی این کتاب را خوانده است (یا نقدی را دیده است) و می‌تواند در مورد آن توصیه‌های عینی ارائه دهد (امتیاز و سطح مطالب). (من شک دارم که این سوال - ذهنی بودن - باید در یک مکان اجتماعی گذاشته شود. مشکل این است که مطمئن نیستم چگونه این کار را انجام دهم. بنابراین، پیشاپیش عذرخواهی می کنم و به یک ناظم نگاه می کنم تا به من کمک کند.)
بررسی کتاب راهنمای یک پزشک برای نمونه گیری مجدد برای تجزیه و تحلیل داده ها، داده کاوی و مدل سازی
99546
من مطمئن نیستم که بفهمم چرا glmnet 2 رهگیری را در نتیجه خود برمی گرداند. اگر ماتریس مدل قبلاً دارای ستون رهگیری است، چرا ما به رهگیری دیگری برای مدل نیاز داریم؟ > mm = model.matrix(...) > colnames(mm) [1] (Intercept) v1 v2.... > model.fit = glmnet(mm، resp، standardize=FALSE، خانواده ='دو جمله ای'، nlambda = 10) > coef(model.fit, s= 1e-05) 48 x 1 ماتریس پراکنده کلاس dgCMatrix 1 (Intercept) 5.9487109234 (Intercept) . v1 0.2580378293 v2 -0.4693849121 .....
2 ضریب رهگیری در خروجی glmnet
56861
کمک کنید من 2 گروه (حرفه ای های جدید و حرفه ای های با تجربه) دارم که همین آموزش ها را دیده اند. قبل و بعد از آموزش به هر دو گروه نظرسنجی داده شد. نظرسنجی به من داده نشده است، اما 18 متغیر در مجموعه داده‌ها به عنوان سرنخ‌هایی در مورد آنچه که نظرسنجی بود ارائه شده است. من قرار است در مورد سودمندی نظرسنجی گزارش دهم و برای آموزش های آینده نتیجه گیری کنم. در مجموع 59 شرکت کننده وجود دارد. 35 متخصص جدید و 24 متخصص با تجربه وجود دارد. آیا باید از تجزیه و تحلیل عامل مؤلفه اصلی استفاده کنم، سپس از مربع کای برای آزمایش تفاوت بین گروه ها استفاده کنم یا MANOVA را با پیش آزمون به عنوان متغیر کمکی اجرا کنم؟ آیا تعداد متفاوت متخصصان در گروه ها به تحلیل من آسیب می زند؟
پیش آزمون پس آزمون با 2 گروه
20846
من موقعیتی دارم که قرار است هر x دقیقه یک رویداد برای تعدادی سایت مختلف رخ دهد (هر سایت می تواند برای بازه زمانی متفاوت x پیکربندی شود). هر از گاهی ممکن است رویداد شکست بخورد. می‌خواهم بتوانم بازه‌ای از زمان را پیش‌بینی کنم که اگر رویدادی رخ نداده باشد، باید نگران باشم. (به عنوان مثال برای سایت A 1 رویداد از دست رفته نشان دهنده مشکلی است که نیاز به توجه دارد، اما سایت B موارد زیادی را از دست می دهد، بنابراین من نگران 5 رویداد از دست رفته نیستم). برای اینکه این موضوع کمی ملموس تر شود. فرض کنید من 3 فروشگاه دارم که قرار است اطلاعات فروش خود را هر 30 دقیقه بارگذاری کنند. اگر فروشگاه 1 بارگذاری را از دست بدهد، ممکن است یک مشکل موقتی باشد و آنها می توانند در فاصله 30 دقیقه آینده آپلود کنند. این امر مخصوصاً در صورتی صادق است که اغلب برای فروشگاه 1 این اتفاق بیفتد. از طرف دیگر فروشگاه 2 ممکن است تقریباً همیشه در فاصله زمانی 30 دقیقه آپلود شود، به طوری که یک خرابی نشان دهنده مشکلی است که کسی باید به آن نگاه کند. با فرض اینکه من اطلاعات تاریخی زیادی در مورد اینکه هر فروشگاه بارها بارگذاری نمی‌شود، دارم، چگونه می‌توانم مدلی برای هر فروشگاه بر اساس تاریخچه آن‌ها ایجاد کنم که بتوانم از آن برای تعیین پیش‌بینی تخمینی از زمان بارگذاری بعدی داده‌های هر فروشگاه استفاده کنم؟
پیش بینی زمان تا وقوع یک رویداد مورد انتظار
16688
یکی از همکاران من با تجربه آمار کمی در تلاش است تا یک ارزیابی تجربی از یک برنامه کامپیوتری انجام دهد. او بین طرح موضوعی و درخواست آزمودنی ها ایجاد کرد. به 11 نفر برنامه کامپیوتری جدید و بهبود یافته او داده شد تا از آن استفاده کنند. 10 نفر دیگر برنامه رایانه ای قدیمی و خسته کننده را برای استفاده از همان کار دریافت کردند. او از من و چند نفر دیگر در اطراف آزمایشگاه پرسید که چگونه داده های او را تجزیه و تحلیل کنیم. من به او گفتم که باید داده ها را برای عادی بودن بررسی کند. اگر به طور معمول توزیع شده بود، باید از آزمون t استفاده کند. اگر اینطور نبود، باید از آزمون مجموع رتبه ویلکاکسون استفاده کند. یکی از همکارانم به او گفت که باید از ANOVA استفاده کند، حتی اگر فقط 2 گروه دارد. ظاهراً استفاده از ANOVA روی داده‌های غیرعادی در R درجه جدیدی از اندازه‌گیری آزادی ایجاد می‌کند که می‌تواند در آزمون t قرار داده شود. من هرگز در مورد چنین چیزی نشنیده ام. آیا این حقیقت دارد؟ آیا از نظر آماری معتبر است؟ چرا کسی به جای انجام یک آزمون مجموع رتبه از آن استفاده کند؟
چرا از ANOVA به جای آزمون Rank-Sum استفاده کنم؟
11797
من یک شبکه هم‌روی نامحدود کلمات از مجموعه آهنگ‌ها ساخته‌ام. برای تبدیل آن به یک شبکه محدود، رامون فرر کانچو و ریکارد وی. سول رویکرد زیر را در مقاله خود دنیای کوچک زبان انسان توصیف می‌کنند: > این تکنیک را می‌توان تنها با انتخاب جفت کلمات متوالی بهبود بخشید، > همزمانی متقابل. که بزرگتر از حد انتظار است. این > را می‌توان با شرط $p_{ij} > p_i*p_j$ اندازه‌گیری کرد، که وجود > همبستگی‌هایی فراتر از آنچه از ترتیب تصادفی > کلمات انتظار می‌رود، تعریف می‌کند. اگر زمانی که استقلال بین چنین کلماتی فرض می شود، یک جفت کلمه کمتر از حد انتظار اتفاق می افتد، جفت جعلی در نظر گرفته می شود. نمودارهایی > که در آنها از این شرط استفاده می شود، محدود (غیر محدود > در غیر این صورت) نامیده می شوند. جفت کلمات اگر در فاصله حداکثر 2 در یک آهنگ اتفاق بیفتند، همزمان در نظر گرفته می شوند. در اینجا، $i$ و $j$ دو کلمه هستند. $p_{ij}$ احتمال همزمانی این دو کلمه است. اگر $i$ و $j$ از نظر آماری مستقل باشند، احتمال وقوع همزمان آنها توسط محصول $p_{i}\cdot p_{j}$ داده می‌شود. اگر مستقل نباشند، و تمایل به وقوع همزمان داشته باشند، آنگاه $p_{ij}$ بزرگتر از $p_{i}\cdot p_{j}$ خواهد بود. من در نحوه محاسبه $p_{ij}$، $p_{i}$، و $p_{j}$ سردرگم هستم. به عنوان مثال، برای محاسبه $p_{i}$، آیا می‌توانم تعداد همه رخدادهای $i$ را بر تعداد کل آهنگ‌های موجود در مجموعه‌ام تقسیم کنم؟ از طرف دیگر، $p_{i}$ را نیز می‌توان با تقسیم تعداد رخدادهای $i$ بر تعداد کل کلمات موجود در مجموعه محاسبه کرد. از بین این دو، کدام رویکرد درست است؟ به طور مشابه، برای محاسبه $p_{ij}$، آیا می‌توانم تعداد تکرارهای $i$ و $j$ را تقسیم بر تعداد کل کلمات یا تعداد کل جفت‌های احتمالی همزمان کنم؟ **ویرایش:** علاوه بر این، اگر $i$ و $j$ از نظر آماری مستقل باشند، پس احتمال وقوع همزمان آنها نباید با $4∗p_{i}⋅p_{j}$ داده شود زیرا جفت‌های کلمه عبارتند از اگر در فاصله حداکثر 2 در یک آهنگ اتفاق بیفتند، به عنوان همزمان در نظر گرفته می شوند.
چگونه یک شبکه همزمان نامحدود را به یک شبکه محدود تبدیل کنیم؟
17374
کنجکاو هستم که آیا روش‌های تحلیلی یا تجربی برای تخمین زمان لازم برای پردازش یک مجموعه داده (گروه‌بندی یا الگوریتم‌های پیش‌بینی مختلف) وجود دارد یا خیر. متغیرهای شناخته شده بدیهی است که شامل اندازه مجموعه داده، اما همچنین انواع متغیرها (پیوسته/گسسته)، تعداد عوامل برای متغیرهای گسسته، مقدار حافظه در دسترس، و قدرت پردازنده است. این به نظر من یک شات طولانی است، اما فکر کردم به هر حال آن را بیرون بیاورم.
آیا می توان زمان پردازش داده ها را تخمین زد؟