_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
13389
اندرو مور افزایش اطلاعات را اینگونه تعریف می کند: $IG(Y|X) = H(Y) - H(Y|X)$ که در آن $H(Y|X)$ آنتروپی شرطی است. با این حال، ویکی‌پدیا مقدار فوق را اطلاعات متقابل می‌نامد. از سوی دیگر، ویکی‌پدیا افزایش اطلاعات را به عنوان واگرایی Kullback–Leibler (معروف به واگرایی اطلاعات یا آنتروپی نسبی) بین دو متغیر تصادفی تعریف می‌کند: $D_{KL}(P||Q) = H(P,Q) - H(P) $ که در آن $H(P,Q)$ به عنوان آنتروپی متقابل تعریف می شود. به نظر می رسد این دو تعریف با یکدیگر همخوانی ندارند. همچنین نویسندگان دیگری را دیده‌ام که در مورد دو مفهوم مرتبط دیگر، یعنی آنتروپی دیفرانسیل و کسب اطلاعات نسبی صحبت می‌کنند. تعریف دقیق یا رابطه بین این مقادیر چیست؟ آیا کتاب درسی خوبی وجود دارد که همه آنها را پوشش دهد؟ * به دست آوردن اطلاعات * اطلاعات متقابل * آنتروپی متقاطع * آنتروپی شرطی * آنتروپی دیفرانسیل * به دست آوردن اطلاعات نسبی
کسب اطلاعات، اطلاعات متقابل و اقدامات مرتبط
49191
تمرینی به من داده شد که چیزی شبیه به این بود: تیم فوتبال آریزونا در فصل 2007/08 در بازی های 19 دلاری 45 دلار گل زد. اگر $y_i$ نشان دهنده تعداد گل های زده شده در $i$-th بازی است، مدل زیر را در نظر بگیرید: $Y_1,\dots,Y_n \sim \operatorname{Poisson}(\lambda)$ به طور مستقل با $\lambda > 0 $. توزیع محدود $$T_n = \sqrt n\cdot\frac1{n\sqrt\frac1n\sum_{i=1}^nY_i}\cdot\sum_{i=1}^n(Y_i-\lambda) چقدر است $$ به عنوان $n\to\infty$؟ از $T_n$ برای ایجاد فاصله اطمینان 95$% برای $\lambda$ استفاده کنید. لطفاً کسی می تواند به من بگوید توزیع محدود چیست و چگونه آن را پیدا کنم؟ بعد از آن باید بتوانم به تنهایی از پس این سوال برسم. با تشکر
یافتن توزیع محدود کننده
81033
ظاهراً هر ویدیوی جدیدی در یوتیوب برای مدتی قبل از شروع بازتاب بازدیدهای واقعی، در 301 بازدید ثابت می ماند. به نظر می رسد دلیل آن این است که یوتیوب در این مدت متوجه می شود که آیا بازدیدها بازدیدهای واقعی هستند و توسط برخی ربات ها خودکار نیستند. این رویکرد کمی عجیب به نظر می رسد. چرا این کار را فقط برای ویدیوهای جدید انجام دهید؟ در مورد ویدیوهای قدیمی چطور؟ در حالی که این سوالات در اینجا مناسب نیستند (آنها به آمار مربوط نیستند). سوال من در حال حاضر برای این انجمن مختص همین نقل قول از این مقاله است. > بنابراین YouTube شمارنده را با 301 بازدید متوقف می کند در حالی که سیستم های آن > ویدیو - و موارد تکراری ذخیره شده آن را در سرورهای سراسر جهان - تحت یک > فرآیند آماری قرار می دهند که ترافیک را تأیید می کند. این فرآیند آماری که در اینجا به آن اشاره شده چیست؟
یوتیوب 301 بازدید. آماری در مورد آن چیست؟
89923
فرضیه ای وجود دارد که A باعث B (A -> B) می شود، و احتمال درستی این فرضیه وجود دارد (AB1%). اکنون، آزمایشی اجرا می‌شود که ادعا می‌کند یک همبستگی بین A و B پیدا می‌کند. آنچه من می‌خواهم بدانم این است که آیا احتمال جدید من (AB2٪) بیشتر یا کمتر از احتمال قبلی من است (AB1٪). عقل سلیم به من می گوید که AB2% **باید ** بیشتر از AB1% باشد -- که هیچ راهی وجود ندارد که یافتن یک همبستگی احتمال A -> B را کاهش دهد. آیا عقل سلیم من درست است؟ من می‌خواهم احتمال سوگیری نمونه‌گیری، خطای عظیم تجربی، سوگیری گزارش‌دهی و غیره را در نظر بگیرم -- همه چیز به جز داده‌های جعلی. به عنوان مثال، دانستن این که مواردی از این دست ممکن است اتفاق بیفتد: * آزمایش بسیار مغرضانه ای که در آن هر گونه همبستگی به احتمال زیاد به دلیل نمونه گیری مغرضانه نسبت به A -> B است. * طراحی آزمایشی بسیار پر سر و صدا، که در آن همبستگی تصادفی بین نویز بسیار بیشتر است. به احتمال زیاد از مشاهده هر همبستگی واقعی * داده های کاملاً تصادفی، انتخاب شده برای یافتن همبستگی ها چگونه می توانم دانش خود را از آن عوامل (یکی دیگر از عوامل) در یک برآورد ترکیب کنم. برای AB2٪؟ * * * tl,dr; آیا این جمله درست است: یک همبستگی پیدا شده است، بنابراین احتمال اینکه یک رابطه علی واقعی بین دو متغیر وجود داشته باشد بیشتر از قبل از پیدا شدن همبستگی است؟ * * * من آمارگیر نیستم -- لطفا مهربان باشید! :)
برآورد احتمال علیت بر اساس یافتن یک همبستگی، از جمله جزئیات تجربی
108073
من یک سری مبالغ دلاری دارم که به شدت دارای انحراف هستند، اما تقریباً طبیعی هستند. من می‌خواهم این مقدار دلار گروه‌بندی‌شده را به‌عنوان یک متغیر پیش‌بینی‌کننده در تحلیل خوشه‌ای کلاس پنهان قرار دهم. در این مورد، من مطمئن نیستم که آیا تبدیل به log-normal برای یک متغیر پیش‌بینی کننده منطقی است یا خیر، برخلاف صرفاً ترکیب کردن داده‌های خام و منحرف. توزیع خام: ![توزیع فراوانی مبالغ دلار خام](http://i.stack.imgur.com/lxJyk.png) ![قطع QQ مقادیر دلار خام](http://i.stack.imgur.com /9G3Jl.png) توزیع Log-normal: ![توزیع فرکانس دلار ثبت شده مبالغ](http://i.stack.imgur.com/iUohS.png) ![قطع QQ از مبالغ ثبت شده دلار](http://i.stack.imgur.com/4vlN6.png)
ایجاد سطل برای داده های lognormal برای تجزیه و تحلیل خوشه
49441
من یک مشکل نمونه گیری غیر معمول دارم. من یک فایل به طور مداوم در حال رشد با میلیون ها کلمه در آن دارم. هر کلمه می تواند 1 تا 8 کاراکتر در خود داشته باشد. یک کلمه می تواند دارای کاراکترهای تکراری باشد. وظیفه حذف کاراکترهای تکراری در هر کلمه است، اما من می‌خواهم این کار را فقط در صورتی انجام دهم که تعداد کل کاراکترهای حذف شده بالاتر از 25٪ از تعداد کاراکترهای کل باشد. من می‌خواهم این مشکل را با نمونه‌گیری تصادفی از کلمات و تخمینی از کاراکترهای حذف شده برای کل فایل در 1٪ حاشیه خطا حل کنم. چگونه می توانم حجم نمونه را محاسبه کنم؟ این واقعیت که طول کلمه متغیر است و همچنین تعداد کاراکترهای تکراری ممکن است این مشکل را بسیار سخت می کند. آیا مشکلی معادل وجود دارد که بتوانم به آن مراجعه کنم؟
مشکل نمونه برداری کلمه با طول متغیر
62747
من می‌خواهم ضریب همبستگی مرتبه اول یک فرآیند AR(1) را استخراج کنم، که در آن فرآیند AR(1) می‌تواند به صورت زیر بیان شود: $$y_t = \Theta y_{t-1} + u_t$$ با $|\ تتا|<1$. لطفاً راهنمایی کنید که چگونه با این مشکل شروع کنم؟
چگونه می توان ضریب همبستگی مرتبه اول یک فرآیند AR(1) را استخراج کرد؟
90706
من به آمار این مقاله نگاه می کنم: http://emotional.intelligence.uma.es/documentos/6-Extremera2011Emotional.pdf من تعجب می کنم که چگونه می توانید از آزمون z برای مقایسه دو ضریب همبستگی استفاده کنید؟ اما در اینجا، ما در مورد تفاوت قابل توجهی در همبستگی بین X,Y و X,Z صحبت می کنیم در حالی که 5 متغیر دیگر را در دو نقطه زمانی مختلف کنترل می کنیم. در واقع، شما باید از مقایسه ضریب همبستگی ویلیامز-هتلینگ استفاده کنید نه از آزمون z، درست است؟ با این حال، آزمون معنی‌داری همبستگی W-H هیچ متغیر دیگری را کنترل نمی‌کند، بنابراین، نمی‌دانم که آیا این واقعاً مناسب‌ترین کار برای انجام است؟ هر گونه نظر در مورد آن به شدت قدردانی خواهد شد. Moimeme
z-test در کاغذ نادرست است؟ آیا می توان به جای آن از آزمون هتلینگ ویلیامز استفاده کرد؟
68017
من مطمئن نیستم که کلمات کلیدی مناسب برای این کار چه هستند، اما می‌خواهم بدانم آیا امکان اعمال توابع برای متغیرهای تصادفی وجود دارد یا خیر. من فکر می کنم ممکن است از نظر ارزش مورد انتظار منطقی باشد، اما من از هرگونه اطلاعات در مورد رویکرد رسمی یا دقیق تر به این مفهوم قدردانی می کنم. به عنوان مثال اگر یک متغیر تصادفی X و یک تابع f(x)=2*x و E[X] = 2 وجود داشته باشد، آیا E[f(X)] = 4 خواهد بود؟
تابع متغیرهای تصادفی
68018
فرض کنید من تعدادی موضوع دارم که به سه نمایه تقسیم می شوند: 1، 2 و 3. برای هر موضوع من دو ویژگی سن و قد را ثبت کرده ام. ابتدا، من می خواهم تعیین کنم که آیا تفاوت سنی قابل توجهی بین پروفایل ها وجود دارد یا خیر. این را می توان با استفاده از یک تست ANOVA ساده انجام داد. اکنون می خواهم تعیین کنم که آیا با توجه به قد (به عنوان متغیر کمکی) بین پروفایل ها تفاوت سنی قابل توجهی وجود دارد یا خیر. چگونه می توانم این آزمون آماری را انجام دهم؟
تفاوت معنی داری بین دو متغیر با توجه به متغیر سوم
58372
من یک جفت سری زمانی دارم که با آنها تفاوت کردم و اکنون مقادیر {-1، -0.5، 0، 0.5، 1} را می گیرند. هدف من این است که آنها را برای علیت گرنجر آزمایش کنم و هر گونه رابطه سرب/ تاخیر را کشف کنم. از آنجایی که این امر مستلزم ثابت بودن سری های زمانی است، من adf.test را روی آنها اجرا کردم و با تعجب متوجه شدم که مقدار p برای هر دو 0.99 است. همچنین اخطاری دریافت کردم که می‌گفت p-value بیشتر از p-value چاپ شده است. من امیدوار بودم که بفهمم در اینجا چه اشتباهی انجام می دهم، لطفاً به من اطلاع دهید که چه اطلاعات بیشتری می توانم ارائه دهم.
adf.test مقدار p> 0.99 را برمی گرداند حتی زمانی که داده ها ثابت هستند
109135
من سعی می‌کنم یکی از امتیازهای خطر رویداد قلبی عروقی فرامینگهام را در مجموعه داده جدیدی اعمال کنم تا خطر مطلق را به دست بیاورم. D'Agostino 2013 ارزیابی خطر بیماری های قلبی عروقی: بینش های فرامینگام می گوید که این روش 1 است. مجموعه به معنای $M_1،\dots،M_p$ است که میانگین هر یک از عوامل خطر مطالعه جدید شما $1،\dots،p$ 2 باشد. تخمین بقای پایه فرامینگهام S_0(t)$ را با تخمین بقای Kaplan-Meier در زمان خود جایگزین کنید. t مطالعه جدید 3. احتمالات نهایی بقای مطلق $$S(t|X) = S_0(t)^{exp(\beta_1(X_1-M_1)+\dots+\beta_p(X_p-M_p))}،$ است. X دلار عوامل خطر هستند. سؤالات من: آیا این منحنی KM اساساً فرض نمی‌کند که میانگین بقا در کل گروه جدید برابر با خطر واقعی پایه است (در اینجا به عنوان ریسک برای یک فرد با هر عامل خطر در سطح متوسط ​​فرض می‌شود) که ممکن است نباشد. مورد باشد. به عنوان مثال، اگر مجموعه داده ای با تعداد زیادی از افراد با HDL بالا دارید، میانگین شما در داده ها میانگین واقعی کل جمعیت نخواهد بود. آیا این جایگزین بهتری خواهد بود: از امتیازهای پیش‌بینی‌شده، پس از کم کردن میانگین‌های هر عامل خطر، برای تشکیل یک پیش‌بینی‌کننده واحد (یک بردار) استفاده کنید، سپس رگرسیون کاکس را در داده‌های جدید انجام دهید، و از exp(-hazard) در جایی که خطر از آن است استفاده کنید. survival::basehaz() برای بدست آوردن بقای پایه؟ آیا یک افست در اینجا برای جلوگیری از تنظیم مجدد پیش بینی کننده در داده های جدید مفید است (مدل را صادقانه نگه دارید).
استفاده از مدل خطرات متناسب کاکس برای داده های جدید برای به دست آوردن ریسک مطلق (امتیاز ریسک فرامینگهام)
108077
من یک مجموعه داده بزرگ (بیش از 300000 ردیف) با دو متغیر دارم. y دودویی و x پیوسته و عددی است. من می خواهم y را رسم کنم و منحنی صاف را در برابر x اضافه کنم. من می‌دانم که loess(y~x) یک راه‌حل است، اما از آنجایی که من مجموعه داده بزرگی دارم، اجرای آن خیلی طول می‌کشد، حتی اگر پارامتر 'cell' را روی 500 تنظیم کنم. با استفاده از scatter.smooth، بسیار سریع‌تر اجرا می‌شود. و من فکر می کنم از لس نیز استفاده می کند. اما در درک پارامتر ارزیابی = 50 مشکل دارم. آیا این بدان معناست که فقط از 1/50 داده برای تولید منحنی صاف استفاده می کند؟ من همچنین سعی کردم از geom_smooth استفاده کنم، به طور خودکار به method=gam تغییر می کند زیرا بیش از 1000 نقطه داده دارم. اما منحنی با منحنی که من با استفاده از scatter.smooth دریافت کردم متفاوت به نظر می رسد (من حدس می زنم که طبیعی است زیرا آنها مدل های مختلف هستند). هدف من فقط دیدن الگوی داده ها بود. از کدام روش صاف کردن استفاده کنم؟ آیا می توانم به scatter.smooth اعتماد کنم؟ تفاوت بین استفاده از لس و گام چیست؟ در زیر طرح از scatter.smooth است. خوب به نظر می رسد، اما بسیار سریعتر از () loess معمولی اجرا می شود. من مطمئن نیستم که چگونه کار می کند... ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/n28Q6.png) با استفاده از روش ارائه شده whuber: ![شرح تصویر را اینجا وارد کنید](http ://i.stack.imgur.com/pEFV4.png) هر کمکی بسیار قدردانی می شود! با تشکر
هموارسازی پراکندگی در r با مجموعه داده بزرگ: روش های مختلف
54653
من چندین سوال مرتبط با داده دارم که امیدوارم پاسخ آنها را بگیرم. من یک مداخله 4 هفته‌ای دارم (بدون گروه کنترل) و به همه شرکت‌کنندگان ارزیابی قبل و بعد از آزمون شامل دو معیار بسیار معتبر، معتبر و همبسته (BAI و BDI) داده می‌شود. در اینجا سؤالاتی وجود دارد که سعی دارم به آنها پاسخ دهم: 1. آیا تفاوت مشاهده شده در نمرات BAI / BDI بین قبل و بعد از آزمون قابل توجه است؟ 2. آیا تفاوت مشاهده شده در نمرات BAI / BDI بین قبل و بعد از آزمون به دلیل شانس است یا مداخله 4 هفته ای من؟ 3. آیا تعداد جلسات شرکت‌شده بر تغییر نمرات قبل و بعد از آزمون تأثیری دارد (مثلاً آیا تعداد هفته‌های جادویی برای شرکت وجود دارد، آیا فقط کسانی که هر 4 جلسه را کامل کرده‌اند تغییرات قابل توجهی دریافت می‌کنند و غیره) _(توجه: من مطمئن نیستم که این یکی از روی داده ها پاسخگو باشد، اما فکر می کنم که پرسیدن در اینجا ضرری ندارد)_ 4. آیا راهی وجود دارد که بگوییم تمدید مداخله از 4 به 6 هفته می تواند تأثیر داشته باشد یا خیر. از بهبود نمرات پس آزمون؟
برای انتخاب آزمون های آماری مناسب به کمک نیاز دارید
107452
من آزمایشی دارم که در آن چهار قطعه بزرگ حصارکشی شده دارم. من هر قطعه حصارکشی شده را به سه حصار کوچکتر تقسیم کردم تا سه سطح چرا داشته باشم. در هر سطح چرا، 20 نهال را زیر درختچه یا به تنهایی کاشتم. من می‌خواهم یک مدل آماری بسازم که در آن میکروسایت (زیر درختچه، به تنهایی) و چرا (بالا، کم، چرا نشده) متغیرهای فاکتوریل هستند که رشد نهال‌ها را توضیح می‌دهند. با این حال، من باید برای شبیه سازی کاذب نیز حساب کنم، زیرا تیمارهای چرا در داخل کرت ها تودرتو هستند (نقاط تقسیم شده) و میکروسایت فاکتور در داخل تیمارهای چرا تو در تو قرار می گیرد. A من تاکنون از کتاب R Crawly متوجه شده ام که مدل من باید به این شکل باشد: model <- aov(growth~ grazingtreatment *microsite + Error (plot/ grazingtreatment / microsite)) خروجی به شرح زیر است: خطا: Terras Df Sum Sq Mean Sq GrazingTreatment 2 20.85 10.42 میکروسایت 1 38.88 38.88 خطا: Terras:GrazingTreatment Df Sum Sq Mean Sq F value Pr(>F) GrazingTreatment 2 37.24 18.621 7.256 0.0709 . Microsite 1 6.04 6.038 2.353 0.2226 GrazingTreatment:Microsite 2 7.27 3.634 1.416 0.3689 Residuals 3 7.70 2.566 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: Terras:GrazingTreatment:Microsite Df Sum Sq Mean Sq F value Pr(>F) Microsite 1 6.063 6.04010 1 ** GrazingTreatment:Microsite 2 2.185 1.093 2.057 0.18375 Residuals 9 4.780 0.531 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: در Df Sum Sq Mean Sq F مقدار Pr(>F) باقیمانده 807 302.2 0.3745 من در تفسیر مشکل دارم خروجی سوال من این است که چگونه می توان با مقایسه های پست هوک برای تیمار چرا و میکروسایت هایی که طرح تودرتو (قطعات تقسیم شده) را در نظر می گیرد، پیگیری کرد تا بررسی شود که ریز سایت ها در کدام تیمار چرا تفاوت قابل توجهی دارند.
طراحی طرح اسپلیت پست هاک
2410
یکی از همکاران در دفتر من امروز به من گفت: مدل های درختی خوب نیستند، زیرا توسط مشاهدات شدید گرفتار می شوند. جستجو در اینجا منجر به این موضوع شد که اساساً این ادعا را پشتیبانی می کند. که من را به این سوال سوق می دهد - در چه شرایطی یک مدل CART می تواند قوی باشد و چگونه نشان داده می شود؟
آیا می توان مدل های CART را قوی ساخت؟
63901
من از مقیاسی استفاده می کنم که از مقادیر گسسته تشکیل شده است: 0 (طبیعی)، 1 (خفیف)، 2 (متوسط)، 3 (شدید) و این مقادیر برای 4 جزء هستند. من 200 بیمار را در این مقیاس اندازه گیری کرده ام. هر بیمار دارای چهار شماره مجزا است. من قصد دارم همبستگی بین این مقیاس و برخی متغیرهای پیوسته را پیدا کنم. این متغیرهای پیوسته نیز برای 200 بیمار اندازه گیری شده است. هدف: تولید این مقادیر گسسته با یک الگوریتم یادگیری ماشینی بر اساس متغیرهای پیوسته. 1. بهترین روش برای انتخاب ویژگی (برای متغیرهای پیوسته)، همبستگی اسپیرمن چیست؟ اگر متغیرهای پیوسته با مقادیر گسسته همبستگی بالایی داشتند. یعنی باید آنها را به عنوان ویژگی در نظر بگیرم؟ 2. کدام روش طبقه بندی بهترین خواهد بود؟ 3. پیشنهاد میکنید از Weka استفاده کنم؟
بهترین رویکرد برای همبستگی متغیرهای گسسته و پیوسته با استفاده از تکنیک یادگیری ماشینی
93574
فرض کنید برای برخی (بسیاری) آزمودنی ها 1 تا 6 اندازه گیری تکرار شده در طول زمان داریم، و نتیجه مقادیر بین 0 تا 23 است (بنابراین توزیع نرمال را فرض می کنیم). برای توزیع نرمال، اثرات ثابت دارای تفسیر میانگین جمعیت در یک مدل ترکیبی است. بنابراین می توانیم از مدل ترکیبی یا مدل حاشیه ای (gee) استفاده کنیم. اگر علاقه فقط به جمعیت باشد، می‌توانیم از یک مدل حاشیه‌ای استفاده کنیم، اما آیا زمانی که ما فقط به جمعیت علاقه‌مندیم، بهتر از یک مدل ترکیبی است؟ من فکر می کنم که با یک مدل ترکیبی از آزادی غیر ضروری زیادی استفاده کنیم؟ وقتی فقط به پارامترهای جمعیت علاقه مند است به کسی که می خواهد از مدل ترکیبی (عادی) استفاده کند، چه باید بگویم؟
مدل مختلط خطی زمانی که علاقه فقط در جمعیت باشد
94637
فرض کنید من سناریوی زیر را دارم: > یک موش در پیچ و خم قرار می گیرد که به صورت زیر ساخته شده است: > > ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/iv0jP.jpg) > > آنجا 9 اتاق با اتصالات بین اتاق ها که با یک > شکاف در دیوارها نشان داده شده است. فرض کنید ماوس به صورت تصادفی در اتاق‌ها حرکت می‌کند و > که انتقال خودکار مجاز است. یعنی اگر $k$ راه هایی برای خروج از اتاق > (یا ماندن در همان اتاق) وجود داشته باشد، هر یک از این ها را با احتمال > برابر انتخاب می کند. **سوال:** کسر زمانی مورد انتظار درازمدت که موش در هر اتاق می گذراند چقدر است؟
زمان گسسته زنجیره مارکوف - فرکانس طولانی مدت
54655
من داده هایی دارم که در یک ماتریس 365*804 شبیه به این هستند: نمونه Variant1 Variant2 Variant3 Person1 1/0 0/0 1/1 Person2 0/1 1/1 0/0 Person3 0/0 0/0 0/0 من می خواهم برای دیدن اینکه آیا هر کدام از انواع به طور قابل توجهی با یکدیگر مرتبط هستند یا خیر. منظورم این است که اگر یکی را ببینید چقدر احتمال دارد دیگری را ببینید؟ مقادیر ممکن یا (0/0، 1/0، 0/1 یا 1/1) هستند که 1/0 و 0/1 یکسان هستند. اگر وزن دهی امکان پذیر باشد، ارزش 1/0 و 0/1 باید نصف 1/1 باشد. من ترجیح می دهم این کار را در R انجام دهم.
آیا انواع مرتبط در این ستون ها وجود دارد؟
58373
فرض کنید یک توزیع تصادفی گسسته $X$ که مقادیر صحیح را در یک محدوده کوچک (اما نه باینری) می گیرد، به عنوان مثال. $[0, 255]$ و pmf واقعی آن ناشناخته است (اما، فرض صفر این است که یکنواخت است). اگر من یک نمونه بزرگ $\\{x\\}$ از این توزیع ترسیم کنم، می توانم pmf را با شمارش تعداد $x_i$ که هر مقدار را می گیرد و تقسیم بر کل تخمین بزنم. اما اگر نمونه بزرگ دیگری ترسیم کنم، به احتمال زیاد برآورد متفاوتی خواهم داشت. من می‌خواهم راهی برای توصیف عدم قطعیت در هر نقطه از pmf داشته باشم، در حالت ایده‌آل که بتوان آن را به‌روزرسانی کرد، زیرا من (یعنی رایانه) به طور مداوم نمونه‌های جدیدی را می‌کشم. به نظر می‌رسد که فاصله‌های اطمینان برای CDF تجربی با کاری که می‌خواهم انجام دهم، ارتباط نزدیکی داشته باشد، اما AFAICT فقط برای توزیع‌های_پیوسته اعمال می‌شود.
مشخص کردن عدم قطعیت در PMF تجربی توزیع تصادفی گسسته ناشناخته
98968
من در حال حاضر در حال نوشتن پایان نامه خود هستم و برخی از راه حل های فرم بسته را استخراج می کنم. با این حال، این راه حل ها برای استفاده در عمل باید تخمین زده شوند. بنابراین من باید توزیع های چند متغیره برخی از استوکاست ها را بدانم. فرمول یافت شده به شرح زیر است: $\frac{ \sum_{i=1}^n \sum_{j\neq i} var(\bar{c}_{i,j}) - cov( c_{i,j } , \bar{c}_{i,j} )}{ \sum_{i=1}^n \sum_{j\neq i} var( c_{i,j} - \bar{c}_{i ,j}) }$ جایی که $c_{i,j}$ به عنصر (i,j) یک ماتریس همبستگی نمونه و $\bar{c}_{i,j}$ به عنصر (i,j) امین اشاره دارد. از یک ماتریس که در آن هر عنصر خارج از قطر با میانگین عناصر غیر قطری $c_{i,j}$ جایگزین شده است. ماتریس‌های $C$ (با عناصر $c_{i,j}$) و $\bar{C}$ (با عناصر $\bar{c}_{i,j}$) می‌توانند به عنوان تصادفی در نظر گرفته شوند. در طول زمان من باید توزیع‌هایی را برای $C$ و $\bar{C}$ پیدا کنم، اما واقعاً نمی‌دانم چگونه با این مشکل مقابله کنم. فکر می کنم باید قضیه حد مرکزی را در جایی بیاورم تا توزیع های محدود کننده $C$ و $\bar{C}$ را تقریب بزنم..؟ من بسیار قدردان کمک خواهم بود زیرا من در مورد آمار نابغه نیستم. پیشاپیش متشکرم!
یافتن توزیع چند متغیره یک ماتریس تصادفی
112410
من برای ارزیابی مدل خود از تکنیک اعتبار سنجی متقابل ترک one out استفاده می کنم. اگر پیش‌بینی نمونه آزمایشی درست باشد، خروجی 1 در غیر این صورت 0 است. بنابراین من آرایه‌ای از N نمونه با 0 و 1 در انتهای آن دارم. سپس این مقادیر را میانگین می‌کنم تا دقت پیش‌بینی متوسط ​​را بدست بیاورم و انحراف استاندارد را محاسبه کنم. من میانگین را 0.6 دریافت می کنم اما انحراف استاندارد 0.5 است (که بزرگ است). اما میانگین + انحراف استاندارد بیشتر از محدوده است، آیا طبیعی است یا اشتباه است؟ خوانده ام که کنار گذاشتن، به دلیل همبستگی زیاد بین مدل ها، واریانس بالایی دارد. سوال دوم آیا آزمون معناداری وجود دارد که بتوانم روی نتایج اعتبار سنجی متقاطع انجام دهم تا آنها را ارزیابی کنم؟
انحراف استاندارد بالا برای اعتبار سنجی متقاطع کنار گذاشته شود؟
94631
با استفاده از روش احتمال جریمه‌شده فرث در رگرسیون لجستیک، چرا وقتی فاصله اطمینان برای برآورد شامل 1 است، می‌توانید مقدار p برابر 05/0 را دریافت کنید؟ کد: PROC LOGISTIC DATA= مدل PLOTS(ONLY)=effectplot OUTMODEL=fq2; نتیجه مدل (EVENT='1')= variable1 variable2 /FIRTH CLODDS=pl CLPARM=pl; OUTPUT OUT= تخمین زده شده PREDICTED=estprob L=lower95 u=upper95 STDRESDEV=res; اجرا؛ تحت خروجی SAS با عنوان تحلیل برآوردهای حداکثر احتمال مجازات، مقدار p من برای متغیر 1 0.0464 است، اما حد اطمینان 95٪ من در برآوردهای نسبت شانس و فواصل اطمینان نمایه-احتمال 0.39-1.041 است. . این چگونه ممکن است؟ ETA: به نظر می‌رسد که SAS مقادیر p مربوط به آزمون‌های نسبت درستنمایی مجازات‌شده را محاسبه نمی‌کند. یک ماکرو موجود [اینجا] (http://cemsiis.meduniwien.ac.at/en/kb/science-research/software/statistical- software/fllogistf/) یک مقدار p متناظر متفاوتی را ارائه می‌کند (که درست به نظر می‌رسد).
فواصل اطمینان احتمالی پروفایل SAS و مقادیر p - چرا اختلاف وجود دارد؟
54651
من یک مجموعه داده دارم که می‌خواهم آن را بر اساس $$\log(y) = a + b_1\log(x_1) + b_2\log(x_2) +\cdots + b_k\log (x_k) متناسب کنم. $$ بسته آماری من گزینه هایی برای انجام رگرسیون خطی و لگ نرمال دارد. من مطمئن نیستم که کدام یک را انتخاب کنم.
آیا مدل های log-log همانند مدل های lognormal هستند؟
104908
من داشتم مقاله ویکی‌پدیا در مورد معادلات تخمین تعمیم‌یافته را می‌خواندم، در آنجا به جمله زیر برخوردم: > تخمین‌های پارامتر از GEE حتی زمانی که ساختار کوواریانس نادرست مشخص شده باشد، در شرایط منظمی ملایم، سازگار است. در این زمینه، منظور از _شرایط منظم بودن خفیف_ چیست؟
شرایط ملایم منظم در زمینه GEE چیست؟
58371
فرض کنید به من دو گروه اندازه گیری جرم (به میلی گرم) داده می شود که به آنها y1 و y2 می گویند. من می‌خواهم آزمایشی انجام دهم تا مشخص شود آیا این دو نمونه از جمعیت‌هایی با میانگین‌های متفاوت گرفته شده‌اند یا خیر. چیزی شبیه به این برای مثال (در R): y1 <- c(10.5،2.9،2.0،4.4،2.8،5.9،4.2،2.7،4.7،6.6) y2 <- c(3.8،4.3،2.8،5.0،9.3، 6.0،7.6،3.8،6.8،7.9) t.test (y1،y2) I مقدار p 0.3234 را دریافت کنید و در سطح معنی داری 0.05 فرضیه صفر را رد نکنید که دو گروه از جمعیت هایی با میانگین یکسان گرفته شده اند. اکنون برای هر اندازه گیری عدم قطعیت هایی به من داده می شود: u1 <- c(2.3،1.7،1.7،1.7،2.0،2.2،2.1،1.7،2.3،2.2) u2 <- c(2.4،1.8،1.6،2.3،2.5،1.8 ,1.9،1.5،2.3،2.3) که در آن u1[1] استاندارد ترکیبی است عدم قطعیت در اندازه گیری y1[1] (و غیره). چگونه می توانم این عدم قطعیت ها را در آزمون آماری بگنجانم؟
آزمون های آماری که عدم قطعیت اندازه گیری را در بر می گیرند
3313
من یک کتابخانه S-Plus دارم که می خواهم آن را به R تبدیل کنم. من یک برنامه نویس هستم، اما چیزی در مورد S-Plus یا R نمی دانم. از تحقیقات من به نظر می رسد که آنها بسیار سازگار هستند. آیا این درست است؟ کدی که می خواهم تبدیل کنم فقط از کتابخانه های هسته S-Plus استفاده می کند. من تصویری از کتابخانه را که در S-Plus 8.0 Object Explorer دیده می شود پیوست کرده ام. علاوه بر فایل‌های منبع تابع، چند ورودی وجود دارد که من مطمئن نیستم چگونه آنها را به R منتقل کنم. برای مثال 5 مورد آخر (oneDay، ...)، که به نظر می‌رسد نوعی متغیر جهانی هستند و مقادیر خاصی دارند. به آنها معادل آنها در R چیست؟ ![متن جایگزین](http://i.stack.imgur.com/102FK.png)
تبدیل کتابخانه از S-PLUS 8.0 به R چقدر سخت است؟
108079
انجام یک «تحلیل توان» برای محاسبه «حداقل حجم نمونه»، به ویژه در R که محیط محاسباتی آماری ترجیحی من است، معمولاً ساده است. با این حال، از من خواسته شده است که یک تحلیل قدرت انجام دهم که کمی متفاوت از هر کاری است که انجام داده‌ام یا می‌توانم به آن مرجع آنلاین بیابم. من نمی دانم که آیا آنچه از من خواسته می شود حتی ممکن است/معتبر است. این پروژه اساساً دارای دو حالت «گروه نابرابر» است و فرضیه این است که این دو گروه از نظر متغیر نتیجه (که مدت زمان تماس تلفنی با مشتریان است) به طور قابل توجهی متفاوت هستند. گروه کنترل متشکل از 40 ایالت است و حدود 2500 مشاهده انجام داده است. گروه آزمون حدود 10 حالت و 500 مشاهده دارد. در ابتدا، گروه «میانگین» \+ «انحراف استاندارد ترکیبی» را پیدا کردم که برای محاسبه «اندازه اثر» از آن استفاده کردم. سپس از بسته‌ای به نام «pwr» در «R» استفاده کردم و دریافتم که به حداقل اندازه نمونه حدود 135 مشاهده در هر گروه، با توجه به اهمیت 0.05 و توان 0.8 نیاز دارم. با این حال، آنها پاسخ من را رد کردند زیرا می‌خواهند یک گروه از گروه دیگر بسیار بزرگتر باشد مانند آنچه که اکنون است، و انتظار دارند یا دو حداقل تعداد مشاهدات مختلف در هر گروه یا حداقل درصد جمعیت از نظر تعداد ایالت‌ها و یا مشاهداتی که باید در گروه آزمون خود قرار گیرند. من برای دو نمونه t-test (یعنی تابع R pwr.t2n.test) Power Analyses را می بینم، اما باید حداقل یکی از اندازه های نمونه را مشخص کنم، در حالی که آنها می خواهند حداقل اندازه نمونه را به آنها بگویم. هر دو گروه (اعم از اعداد یا درصد) و این تابع تفاوت‌های انحراف معیار را برای دو گروه نشان نمی‌دهد. آیا این امکان پذیر است یا من فقط به آنها می گویم که این روش کار نمی کند (یعنی بهترین کاری که می توانم انجام دهم این است که به آنها بگویم با توجه به یکی از اندازه های نمونه و یک انحراف استاندارد جمع شده، گروه دوم باید حداقل اندازه خاصی داشته باشد)؟
آیا می توانم برای گروه های اندازه نابرابر که 2 حداقل n متفاوت تولید می کند، یک تحلیل توان آزمون t انجام دهم؟
1829
من معمولا در مورد حداقل مربع های معمولی می شنوم. آیا این پرکاربردترین الگوریتم مورد استفاده برای رگرسیون خطی است؟ آیا دلایلی برای استفاده از یکی دیگر وجود دارد؟
چه الگوریتمی در رگرسیون خطی استفاده می شود؟
2934
من داده های توزیعی دارم که آنها را به عنوان چگالی نشان می دهم. داده‌ها فرکانس‌های فعالیت‌های کاربر را بر روی صفحه رایانه نشان می‌دهند (مثلاً میزان کلیک روی محور y یا x آن صفحه، اما همچنین فعالیت‌های دیگری که می‌توانند به مختصات مرتبط باشند و بنابراین می‌توانند توسط آن مختصات باند شوند (مثلاً 5 پیکسل bin) ). من می خواهم دو نوع از آن رفتار را با هم مقایسه کنم و بفهمم که توزیع آنها چقدر سازگار است. خیلی کلی هیچ فرضی وجود ندارد من نمی توانم شرایط پارامتری مانند خطی بودن یا نرمال بودن را فرض کنم. من در مورد منحنی‌های لورنز و ضریب جینی مطالعه کردم تا بسیار شبیه آنچه برای مقایسه توزیع‌ها نیاز دارم باشد، اما همچنین می‌دانم که این روش‌ها عمدتاً برای مسائل اقتصادی و جامعه‌شناختی کاربرد دارند و معمولاً برای توزیع‌های عمومی استفاده نمی‌شوند. آیا از ابزار اشتباهی برای کار استفاده می کنم؟ نظر شما در این مورد چیست؟ برای اینکه بفهمید دو توزیع چقدر شبیه هم هستند چه جایگزین هایی را پیشنهاد می کنید؟
استفاده از منحنی لورنز / ضریب جینی برای داده های توزیع (غیر اقتصادی).
58379
فرآیند دیریکله، فرآیندهای پیتمن یور و انواع آنها انواع خاصی از توزیع‌ها هستند که دامنه آن‌ها در قفسه‌های یک توزیع هستند. آیا نامی برای اشاره به این توزیع ها به طور کلی وجود دارد؟ چه توزیع های دیگری همین ویژگی را دارند؟
توزیع‌هایی که دامنه‌شان در قفسه‌هایشان است، یک توزیع را در اختیار دارند
91366
من داده ای دارم که از توزیع گاما پیروی می کند و می خواهم عدم قطعیت پارامترهای این داده را بدانم. * $\text{Data} \sim \text{Gamma} (\alpha, \beta)$ * پارامترهای $\alpha \sim \text{Gamma} (k_\alpha، \theta_\alpha)$ $\beta \sim \text{Gamma}(k_\beta، \theta_\beta)$ من از Winbugs استفاده کردم (کد زیر). model{ for (i در 1:N){ Y[i] ~ dgamma(k، تتا) } k ~ dgamma(0.1, 0.1) theta ~ dgamma(0.1، 0.1) } 1. برای ترسیم احتمال از یک یکنواخت استفاده کردم پیش از آن، پسین را بر پیشین تقسیم می کنیم که پسین را همان احتمال می کند. (شکل 1) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/GCkaq.png) 2. بعد چندین بار قبلی را تغییر دادم و دیدم چه اتفاقی می افتد، اما مشکل زمانی است که احتمال را ترسیم کردم با تقسیم پسین بر قبلی، احتمال تغییر می کند که نباید، هر زمان که قبلی را تغییر می دهم. (شکل 2، 3) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uiB9R.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ 1cAQo.png) سؤال آیا ممکن است که احتمال تغییر با تغییر قبلی تغییر کند؟ کسی میتونه کمکم کنه مشکل چیه؟ اگر قبلی خیلی باریک باشد، آیا احتمال اشتباه وجود دارد؟
آیا با تغییرات قبلی می توان احتمال را تغییر داد؟
83147
من دو glm دارم، یکی با پیوند توزیع و هویت گاوسی و یکی با پیوند خانواده گاما و لاگ. پیش‌بینی‌کننده‌ها یکسان هستند، تنها چیزی که تغییر می‌کند پاسخی است که در glm گاوسی تبدیل به log است و در glm گاما نه. انحراف در مدل دوم کمتر است و هنگام ترسیم باقیمانده ها، مدل دوم بسیار بهتر از مدل اول به نظر می رسد. با این حال، هنگام نگاه کردن و AIC، مدل اول نصف AIC دومی دارد! چگونه ممکن است؟ آیا مقایسه AIC glm با خانواده های توزیع مختلف اشتباه است؟ خلاصه (mod1) فراخوانی: glm (فرمول = log_RS ~ DIET + log_Disp + log_II + log_LS + log_SM + log_AS + log_LONG، خانواده = گاوسی) باقیمانده‌های انحراف: حداقل 1Q Median 3Q Max -5.1050 -0.36-5.1050 0.6-5.1050. 1.3012 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 1.061888 0.008574 123.856 < 2e-16 *** DIETOH -0.077913 0.012762 -6.105 1.07e-09 *** 1.07e-09 *** 15.609.609. 219.822 < 2e-16 *** log_II -0.422808 0.006786 -62.310 < 2e-16 *** log_LS 0.325270 0.006093 53.382 < 2e-16 -0.422808 0.006786 -0.708 log_LS -32.048 < 2e-16 *** log_AS 0.185077 0.010166 18.205 < 2e-16 *** log_LONG 0.067347 0.010494 6.418 1.45e-10 *** --- Sign کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاوسی 0.3246263 گرفته شده است) انحراف صفر: 24060.5 در 9345 درجه انحراف 31:4 9338 درجه آزادی AIC: 16018 تعداد تکرارهای امتیازدهی فیشر: 2 > خلاصه (mod2) فراخوانی: glm(فرمول = RS ~ DIET + log_Disp + log_II + log_LS + log_SM + log_AS + log_LONG، خانواده = گاما (پیوند = log resuals) : حداقل 1Q میانه 3Q حداکثر -2.94338 -0.35264 -0.00239 0.27669 1.40915 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 1.186181 0.006435 184.332 < 2e-16 *** DIETOH -0.075002 0.009579 -7.830 5.41e-15 *** 1.5.20.4 1.5.20.4. 294.104 < 2e-16 *** log_II -0.364580 0.005093 -71.585 < 2e-16 *** log_LS 0.306213 0.004573 66.955 < 2e-16 -0.364580 2e-16 -0.2030 log. -37.216 < 2e-16 *** log_AS 0.156994 0.007630 20.575 < 2e-16 *** log_LONG 0.053129 0.007876 6.745 1.62e-11 *** --- Sign کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاما 0.1828775 در نظر گرفته شده است) انحراف صفر: 23484.5 در 9345 درجه آزادی: انحراف باقیمانده 43 9338 درجه آزادی AIC: 33167 تعداد تکرارهای امتیازدهی فیشر: 8 >
AIC با بررسی مدل موافق نیست
81282
من مجموعه‌ای از مقاله‌ها را بررسی کرده‌ام که هر کدام میانگین مشاهده‌شده و SD اندازه‌گیری X$ را در نمونه مربوطه با اندازه شناخته شده، $n$ گزارش می‌کنند. من می‌خواهم بهترین حدس ممکن را در مورد توزیع احتمالی همان اندازه‌گیری در مطالعه جدیدی که دارم طراحی می‌کنم، و میزان عدم قطعیت در این حدس وجود دارد. من خوشحالم که $X \sim N(\mu, \sigma^2$) را فرض کنم. اولین فکر من متاآنالیز بود، اما مدل‌ها معمولاً بر تخمین‌های نقطه‌ای و فواصل اطمینان مربوطه تمرکز می‌کردند. با این حال، می‌خواهم در مورد توزیع کامل $X$ چیزی بگویم، که در این مورد شامل حدس زدن در مورد واریانس، $\sigma^2$ نیز می‌شود. من در مورد رویکردهای احتمالی Bayeisan برای تخمین مجموعه کامل پارامترهای یک توزیع معین در پرتو دانش قبلی مطالعه کرده ام. این به طور کلی برای من منطقی تر است، اما من تجربه ای با تحلیل بیزی ندارم. به نظر می رسد این نیز یک مشکل ساده و نسبتاً ساده برای بریدن دندان های من باشد. 1) با توجه به مشکل من، کدام رویکرد منطقی تر است و چرا؟ متاآنالیز یا رویکرد بیزی؟ 2) اگر فکر می کنید رویکرد بیزی بهترین است، آیا می توانید راهی برای پیاده سازی آن (ترجیحاً در R) به من نشان دهید؟ سوال مرتبط ویرایش‌ها: من سعی کرده‌ام این موضوع را به شیوه‌ای «ساده» بیزی حل کنم. همانطور که در بالا بیان کردم، من فقط به میانگین تخمینی، $\mu$ علاقه مند نیستم، بلکه به واریانس $\sigma^2$ نیز در پرتو اطلاعات قبلی، یعنی $P(\mu، \sigma^2| Y) $ باز هم، من در عمل چیزی در مورد بایانیزم نمی دانم، اما طولی نکشید که متوجه شدم قسمت خلفی یک توزیع نرمال با میانگین و واریانس ناشناخته دارای راه حل شکل بسته از طریق مزدوج است، با توزیع گاما معکوس نرمال مشکل به صورت $P(\mu, \sigma^2|Y) = P(\mu|\sigma^2, Y)P(\sigma^2|Y)$ دوباره فرموله شده است. $P(\mu|\sigma^2, Y)$ با توزیع نرمال تخمین زده می شود. $P(\sigma^2|Y)$ با توزیع گاما معکوس. مدتی طول کشید تا سرم را درگیر کنم، اما فکر می‌کنم از طریق این پیوندها (1، 2) توانستم نحوه انجام این کار را در R مرتب کنم. من با یک قاب داده که از یک ردیف برای هر یک ساخته شده بود شروع کردم. از 33 مطالعه/نمونه، و ستون برای میانگین، واریانس، و حجم نمونه. من از میانگین، واریانس و حجم نمونه از مطالعه اول در ردیف 1 به عنوان اطلاعات قبلی استفاده کردم. سپس این را با اطلاعات مطالعه بعدی به‌روزرسانی کردم، پارامترهای مربوطه را محاسبه کردم و از گامای معکوس نرمال نمونه‌برداری کردم تا توزیع $\mu$ و $\sigma^2$ را بدست بیاورم. این تا زمانی که تمام 33 مطالعه گنجانده شوند، تکرار می شود. # مقادیر شروع حلقه مقادیر i <- 2 k <- 1 # نتایج به اینجا بروید muL <- list() # میانگین توزیع میانگین تخمینی varL <- list() # واریانس توزیع میانگین تخمینی nL <- list() # اندازه نمونه eVarL <- list() # میانگین توزیع واریانس تخمینی distL <- list() # نمونه برداری 10k بار از میانگین و توزیع واریانس # موارد قبلی، از مطالعه ردیف 1 قاب داده muPrior <- bayesDf[1, 14] # میانگین شروع nPrior <- bayesDf[1, 10] # اندازه نمونه شروع varPrior <- bayesDf[1, 16]^2 # واریانس شروع برای (i در 2:nrow(bayesDf)){ # داده جدید، آمار کافی برای تخمین پارامتر مورد نیاز muSamp <- bayesDf[i, 14] # میانگین nSamp <- bayesDf[i, 10] # اندازه نمونه sumSqSamp <- bayesDf[i, 16]^2*(nSamp-1) # مجموع مربعات (واریانس) * (n-1)) # پستی nPost <- nPrior + nSamp muPost <- (nPrior * muPrior + nSamp * muSamp) / (nPost) sPost <- (nPrior * varPrior) + sumSqSamp + ((nPrior * nSamp) / (nPost)) * ((muSamp - muPrior)^2) varPost < - sPost/nPost bPost <- (nPrior * varPrior) + sumSqSamp + (nPrior * nSamp / (nPost)) * ((muPrior - muSamp)^2) # به روز رسانی muPrior <- muPost nPrior <- nPost varPrior <- varPost # فروشگاه muL[[i]] <- muPost varL [[i]] <- varPost nL[[i]] <- nPost eVarL[[i]] <- (bPost/2) / ((nPost/2) - 1) # نمونه muDistL <- list() varDistL <- list() برای (j در 1:10000){ varDistL[[j ]] <- 1/rgamma(1، nPost/2، bPost/2) v <- 1/rgamma(1، nPost/2، bPost/2) muDistL[[j]] <- rnorm(1, muPost, v/nPost) } # Store varDist <- do.call(rbind, varDistL) muDist <- do.call(rbind, muDistL) dist <- as.data.frame(cbind(varDist, muDist)) distL[[k]] <- dist # Advance k <- k+1 i <- i+1 } var <- do.call(rbind, varL) mu <- do.call(rbind, muL) n <- do.call(rbind, nL) eVar <- do. call(rbind, eVarL) normsDf <- as.data.frame(cbind(mu, var,
ترکیب اطلاعات از مطالعات متعدد برای تخمین میانگین و واریانس داده‌های توزیع شده نرمال - رویکردهای بیزی در مقابل متا تحلیلی
48713
من در حال انجام یک کار تحقیقاتی هستم که نیاز به محاسبه احتمال دارد. اگر جامعه متقابل فرمولی را که من با استفاده از ایده رشته‌های باینری به دست آورده‌ام و به دنبال پاسخی عالی توسط whuber به این سؤال، تأیید کند، سپاس‌گزار خواهم بود. اما من واقعا از شما بابت این موضوع طولانی معذرت می خواهم! در طراحی خود، من قصد دارم یک بیمار را به خط مشی درمانی B1 یا سیاست درمانی B2 بر اساس زمان بهبودی که در روز اندازه گیری می شود، اختصاص دهم. مثلاً در مجموع $mn^2$ مشاهدات وجود دارد. برای تصویر زیر $m=2$ و $n=4$. بیماران $mn^2$ را به طور تصادفی به گروه‌های $m$ با اندازه $n^2$ تقسیم می‌کنیم و سپس بیماران $n^2$ را مجدداً به $n$ بلوک‌های هر کدام دارای $n$ مشاهدات تصادفی می‌کنیم. همه اینها مانند تقسیم بیماران $mn^2$ به بلوک های $mn$ با اندازه $n$ است. سپس بیمارانی را با کمترین زمان بهبودی در بلوک 1، 2 کوچکترین در بلوک 2، 3 کوچکترین در بلوک 3 تا بزرگترین بلوک n (در اینجا n=4) به درمان B1 اختصاص می دهیم. به همین ترتیب ما بیماران را به درمان B2 اختصاص می دهیم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hVyTN.jpg) اکنون داده های اصلی ممکن است حاوی مشاهدات مرتبط باشند. بنابراین می‌خواستم پاسخ whuber را برای موردی که $x_1<=x_2<=\ldots<=x_n$ ممکن است، گسترش دهم. در اینجا $x_i$ زمان‌های بهبودی است که ممکن است مشاهدات مرتبط داشته باشند یا نداشته باشند. این بار می خواهم احتمال تخصیص $x_i$ به درمان B1 را محاسبه کنم. **بنابراین، تعمیم من این است:** بعد از اینکه داده ها را در «R» مرتب کردیم، اجازه دهید نمادهای زیر را تعریف کنیم: $r1$=تعداد مشاهدات مرتبط که قبل از $x_i$ در داده های مرتب شده قرار می گیرند $r2$= تعداد مشاهدات مرتبطی که بعد از $x_i$ در داده های مرتب شده قرار می گیرند $p$=تعداد مشاهدات در رشته باینری (لطفاً به پاسخ whuber که قبلاً ذکر شد مراجعه کنید) که در مکان های $r1$ قبل از $x_i$ قرار می گیرند. $q$=تعداد یک‌هایی در رشته باینری که در مکان‌های $r2$ بعد از $x_i$ قرار می‌گیرند. $k$ نشان دهنده ترتیب $x_i$ در بلوک RSS است. بنابراین وقتی، $r1=r2=0$، سپس $p=q=0$ و $(p+1+q)$=تعداد مشاهدات مرتبط به همراه $x_i$ در بلوک RSS. با این نمادها طبق محاسبات من، احتمال اینکه $x_i$ B1 را دریافت کند توسط-$prob(i)=\sum_{k=1}^{n}\frac{\sum_{p=0}^{ داده می شود. min(r1,n-1)}\sum_{q=0}^{min(r2,n-1-p)} \dbinom{i-r1-1}{k-1-p} \dbinom{r1}{p} \dbinom{r2}{q} \dbinom{mn^{2}-i-r2}{n-k-q}}{\dbinom{mn^2}{n}}$ > از آنجایی که هر RSS بلوک ممکن است حاوی مشاهدات گره خورده به $x_i$ باشد و سپس همه > مشاهدات گره خورده احتمال انتخابی مشابه > k-امین کوچکترین بلوک RSS (با احتمال) را داشته باشند. $1/(p+1+q)$، حدس می‌زنم)، > پس آیا نیاز به تنظیم دارم؟ اگرچه مجموع احتمالات (بیش از > همه $i$) k-امین کوچکترین بلوک RSS به نظر می رسد 1 > همیشه باشد که قانون کل احتمال است. **برای نسل بعدی...** آیا کسی می تواند به من پیشنهاد دهد که اگر سانسور وجود داشت و من $C_i$ داشتم، زمان سانسور برای هر مشاهده، پس چه تنظیمی در فرمول باید انجام شود؟
احتمال قرار گرفتن در یک مجموعه رتبه بندی شده نمونه
101288
من یک سیستم دینامیکی خطی مانند مدل گرافیکی زیر دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qUDHu.png) هر متغیر تصادفی یک اسکالر است. ما $B$ و $x_1$ را پیشینی می دانیم. $A$ از گاوسی می آید، واریانس $R$ و $Q$ از توزیع گامای معکوس می آید. یک $N$ حالت های پنهان وجود دارد. $x_{1:N}$ و $N$ مشاهدات. $y_{1:N}$. تراکم انتقال و انتشار حالت گاوسی است با: $$ x_t \sim N(x_t|Ax_{t-1},R) $$ $$ y_t \sim N(y_t|Bx_{t},Q) $$ خواسته برای محاسبه توزیع پسین $x_t$ با توجه به همه متغیرهای دیگر است. من محاسبات را به موارد زیر رساندم: $$ P(x_t|x_{1:t-1},x_{t+1:N},y_{1:N},A,R,B,Q) = \frac{N(x_t|Ax_{t-1},R)N(y_t|Bx_t,Q)N(x_{t+1}|Ax_{t},R)}{\int_{-\in fty}^{\infty}N(x_t|Ax_{t-1},R)N(y_t|Bx_t,Q)N(x_{t+1}|Ax_{t},R)dx_t} $$ $$ \propto \exp\left(\frac{-(A^2Q+Q+RB^2)}{2RQ}\left(x_t - \frac{AQx_{t-1}+AQx_{t+1 }+RBy_t}{A^2Q+Q+RB^2}\right)^2\right) $$ اگر همه محاسبات را به درستی انجام داده باشم، به نظر می رسد قسمت نمایی توزیع گاوسی اکنون آنچه من تعجب می کنم این است که آیا نمونه برداری از این گاوسی معادل نمونه برداری از کامل خلفی $P(x_t|x_{1:t-1},x_{t+1:N},y_{1:N},A است ,R,B,Q)$، از آنجایی که این گاوسی نهایی تنها تا یک ثابت نرمال کننده برابر است. اگر پاسخ مثبت است، چگونه ممکن است که توزیع ها دقیقاً مساوی و فقط متناسب نیستند؟ پیشاپیش ممنون
ساخت گاوسی از توزیع خلفی
99616
من اطلاعاتی در مورد شرط بندی های متوالی انجام شده توسط مشتریان دارم. می‌خواهم ببینم که آیا با هر شرط بعدی تغییر آماری معنی‌داری در شرط شرط وجود دارد یا خیر. داده ها منحرف هستند، بنابراین من تمام شرط های اولیه را با 1 برابر کرده ام. پس از آن، تغییر متناسب در شرط شرط را محاسبه می کنم. بنابراین اگر کسی شرط اول 15 و شرط سوم 30 داشته باشد، ارزش شرط در شرط سوم 2.00 را نشان می دهد. برای یک سری از گروه‌ها، من میانگین شرط استاندارد شده را در دور دوم، سوم و چهارم شرط‌بندی نشان می‌دهم. اگرچه داده ها کاملاً منحرف هستند، من از آزمون t برای آزمایش اینکه آیا تفاوت آماری معنی داری بین این میانگین و 1 وجود دارد (یعنی هیچ تغییری در اندازه شرط از زمان شرط اولیه وجود ندارد) استفاده کرده ام. با توجه به کج بودن داده ها، من می خواهم یک تست ناپارامتریک نیز انجام دهم، اما با میانه و تست میانه یک نمونه مشکل دارم. اگرچه برای بسیاری از گروه‌ها میانگین 1 است، آزمون میانه تفاوت آماری معنی‌داری را با 1 نشان می‌دهد. برای مثال، یک گروه تقریباً 4000 مشاهده دارد که 1800 مورد آن تساوی/صفر یا دقیقاً برابر با 1 است. هنگام انجام رتبه علامت ` آزمایش، 1800 مشاهده ما را به عنوان صفر نشان می دهد، در حالی که از 2200 مشاهده باقی مانده، 200 عدد مثبت بیشتر وجود دارد. منفی است، بنابراین نتیجه آزمون میانه یک نمونه بسیار معنی دار است. درست به نظر نمی رسد. آیا اصلاً باید از آزمون signrank برای این کار استفاده کنم؟ آیا آزمایش دیگری مناسب تر است؟
آزمون میانه یک نمونه:: Signrank نامناسب به نظر می رسد
18585
من می خواهم تأثیر یک مداخله را با استفاده از شکل سری های زمانی یا برخی تکنیک های مرتبط (مانند رگرسیون تقسیم شده) اندازه گیری کنم. من می خواهم از نظرسنجی مدارس و کارکنان استفاده کنم، که متغیر مورد علاقه من را در طول زمان ارزیابی می کند، با این حال، پاسخ دهندگان در هر مقطع زمانی متفاوت هستند. من فرض می کنم که پاسخ دهندگان مختلف برای این نوع تحلیل مشکلی را ارائه می دهند. آیا کسی می تواند تکنیک دیگری را پیشنهاد کند که به من امکان می دهد تأثیر مداخله را بسنجم؟
سری های زمانی با متغیرهای یکسان اما پاسخ دهندگان متفاوت
48718
من داده‌های کارآزمایی سرطان سینه را دارم که در آن، برای زیر گروه‌های 1 و 2، دو گروه درمانی در حال مقایسه هستند. نتایج عبارتند از: * برای **زیرگروه 1**، «N=33»، میانگین بقا در «trt1=10mo»، میانگین بقا در «trt2=5.7mo»، p-value برای تفاوت`=0.18`. * برای **زیرگروه 2**، «N=16»، میانگین بقا در «trt1=10mo»، میانگین بقا در «trt2=5.5mo»، p-value برای تفاوت`=0.003`. چگونه p-value برای زیرگروه 2 با N کوچکتر و سیستم عامل متوسط ​​در هر دو زیرگروه مشابه است؟
مقادیر p Kaplan-Meier
29396
فرض کنید شما 40 کتاب مختلف دارید (20 کتاب ریاضی، 15 کتاب تاریخ و 5 کتاب جغرافیا). اجازه دهید M = کتاب های ریاضی، H = کتاب های تاریخ، G = کتاب های جغرافیا. احتمال اینکه کتاب‌هایی را حداکثر از دو رشته انتخاب کرده باشید چقدر است؟ می دانم که این اساسی است، اما... روشی که من به این مشکل نزدیک شده ام این است: تنها راهی که می توانید حداکثر دو رشته داشته باشید این است که 1 داشته باشید. { H H M M G } 2. { H H G G G M } 3. { G G M M H } پس پاسخ من دریافت کردم: $$ \left(\left(\frac{15}{40}\right)^2\cdot\left(\frac{20}{40}\right)^2\cdot\left(\frac{5}{40} \راست)\راست) + \left(\left(\frac{15}{40}\right)^2\cdot\left(\frac{5}{40}\right)^2\cdot\left(\frac{20}{40} \راست)\راست) + \left(\left(\frac{5}{40}\right)^2\cdot\left(\frac{20}{40}\right)^2\cdot\left(\frac{15}{40} \right)\right) $$ من احساس می کنم که این مشکل را اشتباه انجام می دهم. آیا راه ساده تری برای این کار وجود دارد؟ من سعی کردم این کار را با ترکیبات انجام دهم، اما جنبه با جایگزینی من را کمی پرت کرد. من احساس می‌کنم که نظم نباید در اینجا مهم باشد، اما نمی‌دانم اینطور است یا خیر. هر گونه کمکی قدردانی خواهد شد! با تشکر
نمونه برداری با جایگزینی
104904
من یک AMELIA را برای مجموعه داده ای از جمله داده های از دست رفته اجرا کرده ام. من باید نقطه گم شده را با نتیجه amelia() جایگزین کنم. اما حاوی 5 گروه از مقادیر منتسب است. چگونه می توانم بهترین را برای جایگزینی مقادیر از دست رفته انتخاب کنم (برای رسم نموداری از مجموعه داده ها پس از وارد کردن)
نحوه جایگزینی داده های از دست رفته از نتایج AMELIA
18580
من در تجزیه و تحلیل داده ها تازه کار هستم. من متعجب بودم که چگونه می توانم رشد هیپ (جعلی) و رشد دهان به دهان (واقعی) در Google Trends را به طور خاص تشخیص دهم (اما حدس می زنم که حتی برای بازارهای سهام و بقیه موارد نیز صدق می کند). برای مثال، هنگام جستجوی «iPhone»، تصویر زیر بر اساس نمودار Google Trends است: ![iPhone trend](http://i.stack.imgur.com/pYHRS.gif) _(نارنجی، سرخابی، و حاشیه نویسی سبز به نسخه اصلی اضافه شد.)_
چگونه تبلیغات تبلیغاتی را از تبلیغات دهان به دهان در Google Trends متمایز کنیم؟
99610
من داده های بقا با بیان RNA دارم. بسیاری از داده ها سانسور شده است. آیا بسته R وجود دارد که مدل خطرات متناسب را انجام دهد که در آن تعداد متغیرهای کمکی بسیار بیشتر از تعداد نمونه ها باشد؟ تنها چیزی که من پیدا کردم گلکوکسف بود. آیا دیگران وجود دارند؟
بسته R برای مدیریت بیان ژن و مدل خطرات متناسب
62748
پاسخ به این سوال ممکن است بسیار ساده باشد، اما به دلایلی اکنون مدتی است که سرم را به دیوار می کوبند. برای من، به نظر می رسد که $f_{X,Y}(X,Y)$ همان $f_{X,Y|X}(X,Y|X)$ است، اما من نمی توانم تا پایان عمر من متوجه می شوم که چگونه آن را نشان دهم اما در عین حال، اگر آن دو توزیع مشترک یکسان بودند، آیا این بدان معنا نیست که $X$ و $Y|X$ مستقل هستند؟ که قطعا به نظرم میرسه پیشاپیش متشکرم
آیا $f_{X,Y}(X,Y)$ با $f_{X,Y|X}(X,Y|X)$ یکسان است
631
اگر بتوان نرمال بودن داده ها را فرض کرد، برآورد کننده انحراف معیار انحراف معیار چیست؟
انحراف معیار انحراف معیار
23136
من به دنبال مجموعه داده های 2 دیتاپوینت بعدی (هر نقطه داده بردار دو مقدار (x,y)) به دنبال توزیع ها و اشکال مختلف هستم. کد برای تولید چنین داده هایی نیز مفید خواهد بود. من می خواهم از آنها برای ترسیم / تجسم نحوه عملکرد برخی از الگوریتم های خوشه بندی استفاده کنم. در اینجا چند نمونه آورده شده است: * ستاره مانند داده های ابر * چهار خوشه، یکی به راحتی قابل جدا شدن * یک مارپیچ (بدون خوشه) * یک حلقه * دو ابر به سختی جدا شده * دو خوشه موازی که یک مارپیچ را تشکیل می دهند * ... و غیره
به دنبال داده های مصنوعی دو بعدی برای نشان دادن ویژگی های الگوریتم های خوشه بندی
29390
من یک مدل خطی تعمیم یافته (رگرسیون شبه پواسون) را به عنوان کار cron در R اجرا می کنم که بر روی داده های یک پرس و جوی SQL آموزش می دهد. پرس و جوی SQL داده های 30 روز گذشته را جمع آوری می کند. بسته به نمونه داده های 30 روز گذشته، البته ضرایب رگرسیون تغییر می کند. در نتیجه، من ضرایب رگرسیون تولید شده در R را در جدول SQL با سال/ماه/روز به عنوان کلید اصلی می نویسم. بنابراین، من می توانم تغییر روزانه در ضرایب رگرسیون را بر اساس داده های 30 روز اخیر ببینم. سوال من این است: چگونه تغییر ضرایب رگرسیون را در طول زمان به بهترین شکل تفسیر کنم؟ اگر بتوانم یک نمای کلی از تکنیک ها ببینم، امیدوارم بتوانم با توجه به داده هایم، مناسب ترین روش را پیدا کنم. هدف من کاهش RMSE یک مدل پیش بینی است. متغیر پاسخ تعداد رویدادها در فاصله 30 روزه از زمان فعلی است. من چندین پیش بینی دارم، از جمله شرایط تعامل. ویرایش: فقط پرس و جوی داده های 30 روز گذشته الزامی نیست. من به سادگی می‌خواهم داده‌ها را در زمان به شدت نزدیک‌تر کنم. یک رگرسیون وزنی گسسته (روزها، در این مورد) روی همه داده ها احتمالا ایده آل خواهد بود.
ایجاد پویا ضرایب رگرسیون و ردیابی تغییر آنها در طول زمان
29398
من در حال خواندن کتاب _خوب به عالی_ نوشته جیم کالینز بودم. می گوید که باید روی اطلاعاتی تمرکز کنید که «نمی توان آنها را نادیده گرفت» و باید روی «مخرج» درست تمرکز کنید. فکر کردم خوب است که «متوسط ​​نرخ رشد به ازای هر نهاد تولیدکننده» را اندازه گیری کنم. اگر ما ارزش و پشتیبانی ارائه می کنیم، انتظار داریم که به آنها کمک کنیم تولید بیشتر کنند. من داده های تولید را در یک صفحه گسترده اکسل دارم که می توانم آنها را خلاصه کنم. من در درجه اول از جدول محوری برای تجزیه و تحلیل داده های خود استفاده می کنم. من می دانم که شما می توانید درصد تغییر نسبت به دوره زمانی قبلی را انجام دهید، اما من در سال اول با تحریفات مواجه می شوم، زمانی که مردم دوره کاملی برای تولید ندارند. همچنین نمی دانم چگونه آن را خلاصه کنم. آیا برنامه بهتری هست که برای این کار استفاده کنم؟ آیا راه خوبی برای انجام این کار در اکسل وجود دارد؟ من فکر می‌کردم می‌توانید میانگین هندسی را بگیرید (به چه نرخ رشدی در عدد تولید اولیه نیاز دارید تا به عدد نهایی برسید - یا فکر می‌کنم توضیح داده شده است) و علاوه بر این من مطمئن نیستم کجا باید شروع کنید. من دوست دارم از جداول محوری یا چیزی شبیه به آن استفاده کنم که می توانم refresh را بزنم و نسخه به روز شده اعداد را دریافت کنم. هر ایده ای وجود دارد؟
چگونه می توانید رشد نرخ تولید به ازای هر نفر را خلاصه کنید؟
101289
من از جعبه ابزار GPML توسط C.E.Rasmussen برای حل مشکل اساسی رگرسیون GP (ارائه شده در کتاب) با مشاهدات پر سر و صدا استفاده می کنم. به عبارت دیگر، تابع زیربنایی $f$ یک نگاشت استاتیک نویزدار را تخمین بزنید $$y = f(\mathbf{x}) + e, \qquad e \sim \mathcal{N}(0, \sigma^2) $$ از مجموعه‌ای از مثال‌های آموزشی $\\{ (\mathbf{x}_i، y_i) \\}_{i=1}^{n}$. تا آنجا که من متوجه شدم، باید با انتخاب هسته به عنوان مجموع $$ k(\mathbf{x}_j) = k_f(\mathbf{x}_i, \ به نویز بودن مشاهدات احترام بگذارم. mathbf{x}_j) + \sigma^2_{e}\delta_{ij}$$ که در آن جمله نهایی در مجموع، هسته نویز سفید (یعنی نویز مشاهدات). هنگام استفاده از جعبه ابزار GPML، برای کسانی که آشنا هستند، باید یک احتمال را مشخص کنید. در مورد من، احتمال گاوسی را انتخاب کردم که دارای یک فراپارامتر است - در مستندات کد این با پارامتر رسمی $s_n$ مطابقت دارد. بنابراین، با هم، وقتی بهینه‌سازی را انجام می‌دهم، یک هایپرپارامتر برای هسته نویز ($\sigma_e$)، یکی برای احتمال ($s_n$) و $d$ (مثلاً) برای $k_f$ دارم. من در مورد معنای هایپرپارامترهای $\sigma_e$ و $s_n$ سردرگم هستم. کدام یک از فراپارامترها ($\sigma_e$ یا $s_n$) واریانس نویز در مشاهدات را نشان می دهد؟ اگر احتمال گاوسی مدل اندازه گیری باشد، آنگاه $s_n$ باید واریانس مشاهدات $y_i$ باشد، اما به چه دلیلی هسته نویز را اضافه می کنیم (با هایپرپارامتر اضافی ($\sigma_e$)، که فکر می کنم این باشد. زائد است، در این مرحله چون ما از قبل $s_n$ برای انجام کار داریم)؟ شاید آنها یکی هستند و باید در طول بهینه سازی به هم گره بخورند. من گیج شده ام. کد GPML برای استنتاج دقیق: [n, D] = size(x); K = feval(cov{:}، hyp.cov، x); % ارزیابی ماتریس کوواریانس m = feval(mean{:}, hyp.mean, x); % ارزیابی میانگین بردار sn2 = exp(2*hyp.lik); % واریانس نویز likGauss اگر sn2<1e-6 % sn2 بسیار ریز می تواند منجر به مشکل عددی شود L = chol(K+sn2*eye(n)); sl = 1; % ضریب کواریانس کلسکی با نویز pL = -solve_chol(L,eye(n)); % L = -inv(K+inv(sW^2)) other L = chol(K/sn2 + eye(n)); sl = sn2; % ضریب کولسکی B pL = L; % L = chol(eye(n)+sW*sW'.*K) end alpha =sol_chol(L,y-m)/sl; sn2 پارامتر احتمال است، hyp.cov حاوی فراپارامترهای هسته است (از جمله فراپارامتر هسته نویز $\sigma_e$)
Hyperparameter هسته احتمال در مقابل نویز در جعبه ابزار GPML
97674
هنگام انجام یک آزمون اندازه گیری مکرر که در آن فرد مقادیر قبل و بعد را برای چندین جفت اندازه گیری می کند، چگونه واریانس درون خود جفت ها را محاسبه می کند؟ به عنوان مثال اجازه دهید به این مثال از 3 نمره دانش آموز بخش ریاضی SAT به عنوان نتیجه یک دوره مقدماتی نگاه کنیم. ![example](http://i.stack.imgur.com/AdDwo.png) در این سطح، به نظر می رسد که آزمون در بهبود نمره کلی آنها قابل توجه بوده است. با این حال، چه می شود اگر اکنون اطلاعاتی را اضافه کنم که هر دانش آموز 3 بار قبل از کلاس امتحان داده است و امتیازات آنها در هر بار 50 امتیاز +/- متفاوت است. اکنون افزایش 30 امتیازی به نظر نمی رسد مرتبط باشد. چگونه می توان این نوع سناریوها را هنگام اجرای آزمون های t زوجی در نظر گرفت؟
واریانس نمونه آزمون تی وابسته (جفت شده).
81283
> فرض کنید $X$ دارای تابع چگالی احتمال $$f(x, \theta) = \theta > e^{-\theta x}$$ است وقتی $x ​​> 0$ و $\theta > 0$ و در غیر این صورت $0$ ; داده شده > $\Theta = \theta$. فرض کنید تابع چگالی احتمال قبلی > $\Theta$ $$h(\theta) = 1$$ باشد وقتی $0 < \theta < 1$ و در غیر این صورت $0$. تابع چگالی احتمال خلفی $\Theta$ را با توجه به $X = x$ (برای $x > > 0$) پیدا کنید. اجازه دهید $k( \theta | x)$ نشان دهنده پی دی اف بعدی باشد. $k( \theta | x) = \frac{L(x | \theta)h(\theta)}{f_1(x)}$ داریم، که $f_1(x)$ pdf مشترک **$ است. X$**. ما $L(x | \theta)h(\theta) = (\theta^n e^{ - \theta \sum^{n}_{i=1} x_i})(1) = \theta^n e^ داریم { - \theta \sum^{n}_{i=1} x_i}$. اجازه دهید $Y= \sum^{n}_{i=1}$ همچنین $f_1(x) = \int^{\infty}_0 \theta^n e^{-\theta Y} d \theta$ داریم. اما از آنجایی که $\Gamma(n+1) = \int^{\infty}_0 \frac{\theta^{(n+1)-1} e^{-\theta Y}}{(1/Y)^ {n+1}} d\theta$، داریم $f_1(x) = \int^{\infty}_0 \theta^n e^{-\theta Y} d \theta = \frac{\Gamma(n+1)}{Y^{n+1}}$. بنابراین $k(\theta | x) = \frac{(\sum x_i)^{n+1} \theta^n e^{-\theta \sum x_i}}{\Gamma(n+1)}$ برای همه $x_i > 0$ و $0< \theta < 1$ و در غیر این صورت $0$. به نظر شما پاسخ من درست است؟ پیشاپیش ممنون
پیدا کردن پی دی اف پشتی
59424
آزمون Nyblom-Hansen اطلاعاتی در مورد پایداری پارامترهای برآورد شده در یک مدل می دهد. تا آنجا که من این تست را درک می کنم، به نمره ML در ارزیابی ها نگاه می کند که چقدر نزدیک به صفر است. اما آیا کسی می تواند توضیح واضح تری برای این موضوع به من بدهد؟ مخصوصاً من یک چیز را متوجه نمی شوم: این تست چگونه با نگاه کردن به امتیاز، پایداری پارامترها را ارزیابی می کند؟ تصور می‌کنم که آزمون باید شامل نقاط زمانی مختلف داده باشد، بنابراین باید اطلاعات زمان را در نظر بگیرد تا تغییر پارامترها در طول زمان را ارزیابی کند، اما نمی‌توانم ببینم چگونه این به آمار آزمون متصل است. بنابراین چگونه آزمون زمان را در نظر می گیرد؟
ایده تست نایبلوم هانسن؟
99612
من سعی می کنم به خودم در مورد اعتبار سنجی متقابل بیاموزم - من در این کار تازه کار هستم - و یک مشکل مفهومی دارم. من کتاب رگرسیون کلاسیک و مدرن مایرز، فصل چهارم را می خوانم که در مورد اعتبارسنجی متقابل برای انتخاب مدل، به طور خاص، بخش آمار PRESS است. تعریف شهودی آمار PRESS - که به عنوان مجموع باقیمانده های مربعی تعریف می شود که وقتی یک نقطه داده را رها می کنید، رگرسیون را با حذف نقطه داده دوباره محاسبه می کنید و سپس باقیمانده بین رگرسیون جدید و نقطه داده کاهش یافته را محاسبه می کنید. - برای من کاملا منطقی است. اما آمار PRESS معمولاً به این شکل محاسبه نمی شود. معمولاً با استفاده از قضیه شرمن-وودبری- موریسون محاسبه می شود، که به شما امکان می دهد باقیمانده های PRESS را بر حسب باقیمانده معمولی محاسبه کنید، که به نظر می رسد: $(y_i - \hat{y}_i)/(1 - x_i ^t (X^t X)^{-1} x_i) $ که در آن صورت‌گر فقط باقیمانده رگرسیون اصلی در داده است نقطه _i_. اما اگر رگرسیون اصلی دقیقاً نقطه داده را درون یابی کند، به طوری که عدد صفر باشد، چه؟ به نظر می رسد تعریف شهودی PRESS نشان می دهد که نقطه داده کاهش می یابد و رگرسیون جدید بعید است که هنوز نقطه را درون یابی کند، بنابراین باقیمانده PRESS باید غیر صفر باشد. اما معادله داده شده در بالا نشان می دهد که یا دقیقاً صفر است یا اگر مخرج صفر باشد، تعریف نشده است. واضح است که من چیزی را از دست داده ام. اما چی؟
منظور از آمار PRESS در صورت درون یابی دقیق چیست؟
3316
فرض کنید یک سری زمانی دارد که از آن می توان اندازه گیری های مختلفی مانند دوره، حداکثر، حداقل، میانگین و غیره را گرفت و سپس از آنها برای ایجاد یک موج سینوسی مدل با همان ویژگی ها استفاده کرد، آیا روش های آماری وجود دارد که بتوان از آنها استفاده کرد که بتواند کمیت کند. داده های واقعی چقدر با مدل فرضی مطابقت دارد؟ تعداد نقاط داده در این سری بین 10 تا 50 نقطه است. اولین فکر بسیار ساده من این بود که مقداری را به حرکت جهتی موج سینوسی نسبت دهم، یعنی 1 +1 +1 +1 -1 -1 -1 -1 -1 -1 -1 -1 -1 +1 +1 1 +1، همین کار را با داده های واقعی انجام دهید و سپس به نحوی میزان شباهت حرکت جهت را کمی کنید. ویرایش: با فکر کردن بیشتر به آنچه واقعاً می‌خواهم با داده‌هایم انجام دهم، و با توجه به پاسخ به سؤال اصلی‌ام، چیزی که من نیاز دارم یک الگوریتم تصمیم‌گیری برای انتخاب بین مفروضات رقیب است: یعنی اینکه داده‌های من اساساً خطی هستند (یا روند) با نویز که احتمالاً می تواند دارای عناصر چرخه ای باشد. داده‌های من اساساً چرخه‌ای هستند و هیچ روند جهت‌گیری وجود ندارد. داده ها در اصل فقط نویز هستند. یا در حال انتقال بین هر یک از این حالات است. اکنون افکار من این است که شاید نوعی از تحلیل بیزی و متریک اقلیدسی/LMS را ترکیب کنم. مراحل این رویکرد ایجاد موج سینوسی مفروض از اندازه‌گیری داده‌ها، متناسب کردن یک خط مستقیم LMS برای داده‌ها، استخراج یک متریک اقلیدسی یا LMS برای انحراف از داده‌های اصلی برای هر یک از موارد بالا، ایجاد یک پیشین بیزی برای هر یک بر اساس این متریک. یعنی 60٪ از خروجی های ترکیبی به یکی، 40٪ به دیگری متصل می شود، بنابراین به نفع 40٪ داده های اسلاید یک پنجره یک است. در امتداد داده ها اشاره کنید و موارد بالا را تکرار کنید تا معیارهای ٪ جدیدی برای این مجموعه داده کمی تغییر یافته به دست آورید - این شواهد جدید است - تجزیه و تحلیل بیزی را برای ایجاد یک پسین و تغییر احتمالاتی که به نفع تکرار هر فرض در کل مجموعه داده است (3000) انجام دهید. + نقاط داده) با این پنجره کشویی (طول پنجره 10-50 نقطه داده). امید/هدف این است که فرضیه غالب/مطلوب را در هر نقطه از مجموعه داده‌ها شناسایی کنیم و این که چگونه با گذشت زمان تغییر می‌کند، هر گونه نظر در مورد این روش بالقوه مورد استقبال قرار می‌گیرد، به ویژه در مورد اینکه چگونه می‌توانم واقعاً بخش تحلیل بیزی را اجرا کنم.
شباهت آماری سری های زمانی
99614
من در حال تجزیه و تحلیل انتشار خط‌مشی با استفاده از داده‌های پانل هستم، و گنجاندن کنترل‌های زمانی به طور قابل‌توجهی بر نتایج من تأثیر می‌گذارد. من نمی‌دانم که آیا از نظر تئوری می‌تواند برای تخمین‌های **سایر** متغیرهای من تفاوت ایجاد کند اگر من آدمک‌های زمانی رایج برای همه واحدهای مشاهده را در نظر بگیرم، یا مثلاً. من برای کشورهای اتحادیه اروپا و غیر اتحادیه اروپا از زمان‌بندی مجزا استفاده می‌کنم. آیا آدمک های زمانی رایج نباید شوک های خاص اتحادیه اروپا را نیز ثبت کنند؟
آدمک های زمانی معمول یا منطقه ای به عنوان کنترل: آیا تفاوتی ایجاد می کند؟
109696
من نگران شبیه سازی داده ها برای یک مدل رگرسیون خطی هستم. من باید میانگین ها، واریانس ها و همبستگی ها (کوواریانس ها) بین پیش بینی کننده ها و متغیر معیار را کنترل کنم. علاوه بر این، باید بتوانم واریانس های توضیح داده شده را تغییر دهم ($R^2$). برای من واضح است که دومی باید تابعی از قبلی باشد، بنابراین حداقل یک همبستگی (کوواریانس) در $\Sigma$ شاید به انتخاب $R^2$ بستگی داشته باشد، جایی که $\Sigma=E(( Y,X)(Y,X)^T)$، برای $X$ و $Y$ در مرکز، ماتریس واریانس کوواریانس همه متغیرها است. بنابراین طرح من به شرح زیر است: 1. $\Sigma$، میانگین، و $R^2$ 2 را مشخص کنید. داده ها را با این آمار کافی شبیه سازی کنید، به عنوان مثال. با نمونه برداری از نرمال چند متغیره 3. بردار $\beta$ (ضریب رگرسیون) تخمین زده شده را در برابر ضرایب جمعیت (نظری) بررسی کنید و از مدل برای آزمون ها/علم نامرتبط استفاده کنید. بنابراین، رویکرد من تعیین $\beta$ را پیشنهاد نمی‌کند، بلکه اجازه می‌دهد ضرایب تابعی از جمعیت $\Sigma$، میانگین و $R^2$ باشند. دلیلی که باید این کار را انجام دهم این است که مقداری مقیاس واقعی را به $X$ و $Y$ نسبت دهم (به عنوان مثال، اجازه دهید $Y$ یک مقیاس درآمد را در نظر بگیرد و به $X$ یک مقیاس واقعی برای سالهای تحصیل ارائه دهد). بنابراین به جای ضرایب رگرسیون آمار کافی را مشخص می کنم. اما شاید راه بهتری وجود داشته باشد. علاوه بر این، من دو سوال خاص دارم: 1. با توجه به ماتریس واریانس-کوواریانس جمعیت $\Sigma$ یک متغیر معیار $Y$ و یک سری از پیش بینی کننده ها (متغیرهای کمکی) $X$، می خواهم بردار جمعیت واقعی را محاسبه کنم. ضرایب رگرسیون البته، می‌توانم داده‌های $X$ و $Y$ را شبیه‌سازی کنم و از تخمین‌گر OLS استفاده کنم، اما باید یک راه مستقیم برای استفاده از $\Sigma$ در تخمین جمعیت $\beta$ وجود داشته باشد؟ 2. چه گزینه هایی برای تعیین کوواریانس ها (همبستگی ها) در $\Sigma$ وجود دارد، با توجه به اینکه من به یک $R^2$ ثابت از یک رگرسیون خطی $Y$ در $X$ نیاز دارم؟ این، برای تغییر سیستماتیک قدرت توضیحی مدل رگرسیون.
بهترین راه برای شبیه سازی داده ها برای مدل رگرسیون خطی چیست؟
59426
من یک سوال در مورد خوشه بندی دارم. من داده های ریزآرایه بیان ژن را مدیریت می کنم و می خواهم آنها را در کلاس ها خوشه بندی کنم. من در اطراف جستجو کردم تا بهترین الگوریتم خوشه‌بندی را برای داده‌هایم بیابم، اما از آنجایی که مانند همه آزمایش‌های ریزآرایه بیان ژن، تعداد ژن‌ها بسیار بیشتر از تعداد نمونه‌های مورد تجزیه و تحلیل است، اکثر این الگوریتم‌ها مستقل بودن متغیرها را فرض می‌کنند (بنابراین ژن‌ها) . اما در واقعیت همه ما می دانیم که فعالیت یک ژن مستقل از فعالیت یک ژن دیگر نیست. سوال من این است: آیا الگوریتم یا تکنیکی وجود دارد که بتواند با ساده سازی چنین وابستگی بین ژن ها را در نظر بگیرد؟ خیلی ممنون بهترین e.
خوشه بندی داده های بیان ژن
109304
آیا کسی از الگوهای قوی قوی برای تخمین مشتقات جزئی یک مدل رگرسیون می شناسد؟ من در مورد یک مدل رگرسیون عمومی مانند این صحبت می کنم: $\mathbb{E}(y|x_1, x_2, ... x_n) = f(x_1, x_2, ... x_n)$ که در آن من تخمینی از $\ می خواهم frac{\partial f}{\partial x_k}$. اینها در پزشکی، اقتصاد، علوم اجتماعی و غیره اهمیت زیادی دارند. اکنون یک مدل خطی تقریبی از این مشتقات جزئی (پارامترهای آن) را در اطراف نقطه میانگین ارائه می دهد. این تقریب را می‌توان با گنجاندن عبارت‌های چندجمله‌ای در اطراف میانگین معتبرتر کرد، اما افزایش نمایی در تعداد پارامترها با افزایش درجه چند جمله‌ای، این را با یک مدل خطی غیرممکن می‌کند (به جز شاید با کمند؟). برای تخمین‌های محلی بهتر در کل فضای ورودی، کاندیداهای طبیعی رگرسیون هسته و شبکه‌های عصبی پیش‌خور هستند که شکل‌های صافی دارند (برخلاف روش‌های مبتنی بر درخت) و مشتقات جزئی به راحتی بازیابی می‌شوند. اما من در مورد استحکام این تخمین ها اطلاعی ندارم، زیرا هدف اصلی این مدل ها کاهش خطای پیش بینی است، نه یافتن مشتقات مناسب... می دانم که تقویت گرادیان (و واقعاً همه مدل های رگرسیون) وابستگی جزئی می دهند. ، اما آنها مشتقات جزئی نیستند: آنها یک تابع $f_k(x_k)$ هستند که میانگین مقدار تابع رگرسیون پیش بینی شده را می دهد. $\widehat{f}$ برای مقدار معینی از $x_k$، به طور میانگین بیش از تحقق سایر متغیرهای $(x_1, x_2 ... x_n)$ در مجموعه داده آموزشی. هر گونه کمکی بسیار قدردانی خواهد شد!
الگوی یادگیری ماشین خوب برای مشتقات جزئی؟
112975
من اینجا چند ست چند صد امتیازی دارم که به طور معمول توزیع نمی شوند. من می خواهم این نمرات را در یک مقیاس صدک عادی کنم. حالت میانگین میانه برای اینها به این صورت است: 3-2-0، 1-1-0، 9-3-0، 1-5-5، من امتیازات واریانس/std dev و z را برای اینها محاسبه کرده ام. اما اکنون مطمئن نیستم که با این اطلاعات چه کنم. وقتی توزیع نرمال نیست، امتیاز z به چه درد می خورد؟ بهترین راه برای به دست آوردن یک نمره صدک نرمال شده برای اینها چیست؟
داده های غیرعادی توزیع شده -- با امتیازهای z چه کاری می توانم انجام دهم؟
103491
من باید رویکردهای ممکن (و همچنین مزایا و معایب آنها) را برای مشکل پیش‌بینی سری‌های آماری خلاصه کنم. این یک سوال تئوری خالص است، یک مثال در زیر فقط برای راحتی و مشخص بودن آورده شده است. اول از همه برای عبارت سریال آماری متاسفم. این سوال در ابتدا به زبان دیگری پرسیده شد و من برای ترجمه آن مشکل داشتم. اما اینکه چه نوع سریالی است باید از مثال مشخص شود. یک مثال مجموعه ای از آزمایش های پرتاب تاس را نشان می دهد. ما 20 مشاهده داریم و توزیع فراوانی مشاهده شده توسط جدول زیر توضیح داده شده است. $\begin{matrix} \text{Text face} & 1 & 2 & 3 & 4 & 5 & 6 \\\ \text{sum} & 2 & 6 & 8 & 2 & 1 & 1 \\\ \text{ فرکانس} و 0.1 و 0.3 و 0.4 و 0.1 و 0.05 و 0.05\end{matrix}$ بیایید برگردیم به وظیفه ما در حال حاضر اکنون باید یک مدل پیش‌بینی کننده استخراج کنیم. من توانستم تنها به یک رویکرد فکر کنم: * خطای استاندارد و میانگین را محاسبه می کنیم، سپس می توانیم هر فرضیه ای را در مورد مشاهدات آینده با استفاده از آزمون t ایجاد و اثبات کنیم. یک جنبه منفی این رویکرد دخالت عدم قطعیت در پاسخ است (فاصله های اطمینان و غیره) وقتی بیشتر به آن فکر کردم، ممکن است روند خیلی خوب پیش بینی را در اینجا درک نکنم. اگر نمونه برداری ادامه یابد، هیستوگرام ما دقیق تر و دقیق تر می شود، اما ارزش پیش بینی در وهله اول چقدر خواهد بود؟ تابع تراکم، میانگین جمعیت؟ با توجه به آخرین پاراگراف، من ماشین های داده کاوی را در اینجا قابل اجرا نمی بینم (رگرسیون ها، شبکه های عصبی، درختان تصمیم). من از بینش و توضیحات قدردانی می کنم.
پیش بینی سری های آماری
72198
داشتم این آموزش را می خواندم که در آن به Make predictions on the development set اشاره کردند. به جدول احتمالی نگاه کنید؛ اشتباهات کجاست؟ دلت برای چی تنگ شده؟ تحلیل خطا! طبقه‌بندی‌کننده به چه ویژگی نیاز دارد تا این را درست انجام دهد؟ چه ویژگی هایی طبقه بندی کننده را گیج می کند؟ ... اگر هرگز در مجموعه توسعه ظاهر نشد، مفید نیست ... اگر اغلب ظاهر نمی شود، مفید نیست یک جدول احتمالی برای آن ویژگی بسازید (باید اطلاعات خوبی به شما بدهد) آن را پرتاب کنید. در طبقه‌بندی‌کننده شما (دقت باید بهبود یابد) من متوجه نشدم که چگونه جدول احتمالی را ببینم و ببینم کدام ویژگی برای طبقه‌بندی کننده لازم است تا آن را درست انجام دهد؟ مثلاً برخی از ویژگی‌ها را خودم تعریف کردم، می‌توانم بگویم خوب این ویژگی‌ها اغلب دیده نمی‌شوند، پس آنها را دور بریزید. اما چگونه می توانم بدانم که به کدام ویژگی های بیشتر نیاز دارد. منظور از جدول احتمالی یک ویژگی بیشتر است
سردرگمی مربوط به مهندسی ویژگی
80128
بردار تصادفی واقعی سه بعدی $(X_1,X_2,X_3)$ را در نظر بگیرید که به طور یکنواخت روی سطح یک کره واحد توزیع شده است. در مورد توزیع $(aX_1،bX_2،cX_3)$، که $a،b،c،$ ثابت های واقعی غیرصفر و غیر یکسان هستند، چه چیزی می توان گفت؟ آیا این درست است که بگوییم آنها به طور یکنواخت روی سطح یک بیضی با پارامترهای مربوطه $a,b,c$ توزیع شده اند؟
تبدیل یک بردار تصادفی یکنواخت روی کره
29399
من یک ماتریس با 1024 ویژگی و 10000 نمونه با بردار برچسب از سه کلاس مختلف دارم. من از تابع R MASS کتابخانه `lda` برای محاسبه مدل و بدست آوردن ضرایب متمایز کننده خطی استفاده می کنم: > library (MASS) > > ldamodel = lda(data$X, data$y) > head (ldamodel$scaling) LD1 LD2 V5 -0.053074978 0.14565211 V6 -0.009618016 -0.11198306 V7 -0.003863230 0.28189459 V8 0.063191889 -0.26726050 V9 -0.029950632 0.16121364 V10 0.0158 - 0.0158 -2 متمایز کننده های خطی، که خوب است. اما می‌خواهم بدانم، اگر امکان دارد تابع 'lda' بیش از دو متمایز خطی ایجاد کند و چگونه آن را در R انجام دهیم؟ من هنوز خیلی با LDA آشنا نیستم، بنابراین متاسفم، اگر این سوال یک مزخرف آماری است.
تعداد متمایز کننده های خطی را در تابع R MASS lda مشخص کنید
91361
من در حال حاضر در حال برازش مدل هایی هستم که برای برون یابی از یک نمونه محدود به یک جمعیت بزرگ در نظر گرفته شده است. برای یک مثال خاص، یک مدل پیش‌بینی دمای آب در رودخانه‌ها بر اساس ویژگی‌های رودخانه است. نمونه شامل داده‌هایی از تقریباً 1000 بخش رودخانه است (یک بخش رودخانه طول منحصر به فرد یک رودخانه است) که برای برون‌یابی به بیش از 100000 بخش رودخانه استفاده خواهد شد. این یک مدل شبکه عصبی است، اما من همین سوال را برای مدل دیگری با استفاده از مدل‌های رگرسیون لجستیک سلسله مراتبی دارم، بنابراین سوال مربوط به روش آماری نیست. من خوانده‌ام و از طریق تجربه دریافته‌ام که عادی‌سازی مجموعه داده‌های مدل‌سازی من می‌تواند تناسب مدل را بهبود بخشد. با این حال، من در این مورد مطمئن نیستم زیرا هدف برون یابی به جمعیت است. آیا باید پیش بینی کننده ها [(y - mean)/stdev] بر اساس میانگین و sdev آنها در نمونه یا در جمعیت بخش های رودخانه نرمال شوند؟ من عقیده دارم که باید بر اساس جمعیت عادی سازی کنم تا اطمینان حاصل شود که تنوع جمعیت به اندازه کافی در مجموعه داده مدل سازی نشان داده می شود. من عذرخواهی می کنم اگر پست متقاطع وجود دارد، زیرا من این پاسخ را به طور کامل جستجو کرده ام و سوال یا بحث مشابهی در جایی ندیده ام. بنابراین من این را اینجا می پرسم. لطفا اگر پاسخی در جای دیگری وجود دارد به من اشاره کنید.
نرمال کردن مجموعه داده برای برون یابی - میانگین نمونه یا جمعیت و انحراف معیار؟
23137
کلماتی از _The Elements of Statistical Learning_ در صفحه 119 وجود دارد: > نشان دادن اینکه مبنای زیر یک اسپلاین مکعبی را نشان می دهد، دشوار نیست > با گره هایی در $\xi_1$ و $\xi_2$: * $h_1(X)= 1$ * $h_2(X)=X$ * $h_3(X)=X^2$ * $h_4(X)=X^3$ * $h_5(X)=(X-\xi_1)_+^3$ * $h_6(X)=(X-\xi_2)_+^3$ سپس سوال من این است که، طبق تحلیل عددی، چندجمله‌ای مکعبی تکه‌ای سعی می‌کند تابع را در منطقه $[\xi_1,\xi_2]$ با چندجمله‌ای در مرتبه 3 مطابقت دهد، بنابراین فکر می‌کنم مبنای باید * باشد. $h_1(X)=f(\xi_1)$ * $h_2(X)=(X-\xi_1)$ * $h_3(X)=(X-\xi_1)^2$ * $h_4(X)=( X-\xi_1)^3$. حداکثر 4 پایه وجود دارد، پس من کجا اشتباه می کنم؟
پایه های اسپلین مکعبی تکه ای چگونه ساخته می شوند؟
79230
فرض کنید که من 10 ANOVA فاکتوریل 2x2 انجام دادم. در مجموع 30 افکت دریافت می کنم (دو اثر اصلی و یک تعامل برای هر ANOVA). هنگام تنظیم سطح آلفا برای مقایسه های چندگانه، باید 30 آزمون فرضیه را در نظر بگیرم یا فقط 10؟ به طور رسمی آنها 30 مقایسه نیستند، زیرا در هر ANOVA به صورت سه قلو تودرتو هستند.
تنظیم آلفا برای اثرات اصلی و تعاملی در ANOVAهای فاکتوریل متعدد
91365
من دو آگهی مختلف را اجرا می کنم که به صورت تصادفی ارائه می شوند. من نظارت می کنم که چند نفر به هر تبلیغ پاسخ می دهند. من سعی می کنم تعیین کنم که آیا یک تبلیغ بهتر از دیگری است یا خیر. اگر آزمون معناداری فیشر را روی نتایج اجرا کنم، می توانم بفهمم که آیا فرضیه صفر را می توان در هر مقطع زمانی رد کرد یا خیر. فکر می‌کنم با اطمینان می‌توان گفت که این دو آگهی هر چقدر هم که تفاوت کم باشد، نرخ پاسخ‌دهی متفاوتی خواهند داشت، اما چگونه می‌توانم آزمایش کنم که نتایج از نظر میزان پاسخگویی بیش از 5٪ تفاوت ندارند؟
اندازه نمونه مورد نیاز برای آزمایش دوجمله ای با استفاده از آزمون دقیق فیشر
109693
من سعی می کنم درک خود را از هسته ها در ماشین بردار پشتیبان (SVM) و اینکه چرا برخی از آنها محبوب تر هستند را توضیح دهم، اما مطمئن نیستم که آیا این مفاهیم را اشتباه متوجه شده ام: 1) تعداد زیادی توابع هسته در SVM وجود دارد، مانند RBF، چند جمله ای، خطی و غیره. به طور کلی می توان آنها را به دو گروه خطی و غیر خطی تقسیم کرد. برای هسته های خطی، آنها می توانند داده ها را به صورت خطی در فضای اصلی جدا کنند. توابع هسته غیرخطی داده ها را با استفاده از مرزهای غیر خطی در فضای اصلی جدا می کند (اما پس از نگاشت، مطابق با قضیه مرسر، داده ها همچنان به صورت خطی در فضای ویژگی ابعاد بالاتر از هم جدا می شوند). اگر داده‌ها را نتوان به صورت خطی در فضای اصلی جدا کرد، این باعث می‌شود هسته غیرخطی انعطاف‌پذیرتر شود. 2) در مقایسه با سایر هسته های غیر خطی، چرا هسته RBF در SVM محبوبیت بیشتری دارد؟ آیا می توانم دلیل آن را این باشد که این هسته بی نهایت قابل تمایز (گاوسی) است، و این بدان معنی است که داده ها را می توان به فضای ویژگی های بعدی بی نهایت نگاشت. سایر هسته‌های غیرخطی نیز می‌توانند این کار را انجام دهند، به عنوان مثال، با افزودن پارامترها، یک هسته چند جمله‌ای نیز می‌تواند داده‌ها را به یک فضای ویژگی با ابعاد بسیار بالا نگاشت کند، اما این کار راحت نیست. اگر درک من درست است؟ 3) در فرآیندهای گاوسی (GP)، ما از توابع هسته برای اندازه گیری شباهت بین نقاط داده مختلف استفاده می کنیم. چه ویژگی هایی از هسته نمایی مربعی (SE) این هسته را محبوب می کند؟ (می دانم گاوسی است و بی نهایت قابل تمایز است، دلایل دیگری وجود دارد؟) ضمناً اگر بخواهم تجزیه و تحلیل دینامیک داده ها را انجام دهم (داده ها دوره ای نیستند) آیا این هسته هنوز مناسب است و چگونه می توان یک تابع هسته مناسب را انتخاب کرد؟ پیشاپیش از کمک و شکیبایی شما کمال تشکر را داریم.
چگونه توابع هسته را درک کنیم و چگونه یک هسته مناسب انتخاب کنیم؟
72225
من سعی می کنم خط پیش بینی یک GLM را با داده های متناسب ترسیم کنم. بعد از اینکه با مثال کرولی مشکل داشتم، این پیوند را پیدا کردم: مشکلات ترسیم داده های GLM از داده های متناسب دوجمله ای داده های من از 3 ستون تشکیل شده است: ارتفاع، تعداد سوسک ها و تعداد حشرات دیگر. من می خواهم تغییر نسبت سوسک را در ارتفاعات مختلف بررسی کنم. پس از وارد کردن جدول، نسبت را همانطور که در موضوع پیوند بالا نشان داده شده است محاسبه کردم. سپس y=cbind(mean$beetles,mean$rest) model=glm(y~altitude,family=binomial(logit),data=data) plot(p~data$altitude, ylab=Beetles (متناسب), xlab =Altitude) p گزاره ای است که قبل از خطوط محاسبه کردم (mean$altitude,predict(model,type=response)) سپس دریافت می کنم این طرح: ![plot](http://s12.postimg.org/5osjjbjyl/Rplot.png) بدیهی است که این درست نیست، اما نمی توانم بفهمم اینجا چه چیزی اشتباه است. خیلی خوشحال میشم اگه کمکم کنید این مجموعه داده های کوچک است: ارتفاع، سوسک، استراحت 304،88،35 842،7،18 877،21،27 1505،2،25 1118،11،19 702،25،24 806،16،17 960،16 ,32 975,34,61 1112,11,17 1348,11,32 502,58,24 1428,2,13 1521,0,35 1040,9,6 1412,8,19 1231,5,19 980,14,16 1053,2,10 به سلامتی پیتر
مشکل ترسیم داده های GLM داده های متناسب دوجمله ای 2
633
من مجموعه داده ای از حدود 3000 مشاهدات میدانی دارم. داده های جمع آوری شده به 20 متغیر (اعداد واقعی)، 30 متغیر بولی، و 10 یا بیشتر متغیر جستجو و یک متغیر پاسخ تقسیم شده است. برای 20000 شیء بر اساس 3000 مشاهدات. برخی از روش‌های موجود که شامل Booleans و جستجوی جداول هستند چیست؟ هیچ پیشنهادی در مورد اینکه چگونه باید ادامه دهم؟ **ویرایش** متغیر پاسخ نیز یک بولی است **ویرایش 2** نمونه ای از داده های متغیر: * سن نمونه * طول، مساحت، حجم * زمان از آخرین بازرسی * ارتفاع * عمر طراحی جدول جستجو * مواد نوع * نوع پوشش * استاندارد طراحی * اثربخشی طراحی نمونه ای از بولی * آیا بازرسی شده است؟ * آیا وضعیت بدی دارد * آیا به زودی نیاز به تعمیر دارد متغیر پاسخ که f(x) من است این است: * آیا قابل استفاده است
گنجاندن داده های بولی در تجزیه و تحلیل
73825
بر اساس این پاسخ، پایتون نیاز دارد که مقادیر مورد انتظار در آزمون مربع کای فرکانس مطلق باشد. موارد زیر را در پایتون در نظر بگیرید: import numpy import scipy.stats # تابع chisquare به scipy.stats.chisquare(numpy.array([0,0,23,0]), numpy.array([1,1) (مشاهده شده، مورد انتظار) نیاز دارد ,1794,1])) (1751.2948717948718، 0.0) منجر به یک مقدار p 0 (هر چه که بدان معنی است). همان محاسبه در R، که مستلزم آن است که مقادیر مورد انتظار پروپوشن باشند: chisq.test(c(0, 0, 23, 0), p=c(1/1797,1/1797,1794/1797, 1/1797) ) آزمون کای دو برای داده های احتمالات داده شده: c(0, 0, 23, 0) X-squared = 0.0385، df = 3، p-value = 0.998 که منجر به p-value 0.998 می شود. کدام صحیح است؟
نتایج مربع چی در R و پایتون
59421
من این مجموعه داده x y 0.5 306.3 1 622.3 2 1230.1 3 2017.7 4 2589 5 3175.4 6 3751.9 9 5585.7 12 7388.8 15 9201. 15056.5 30 18081.2 45 27095.3 60 35609.2 80 47263.1 وقتی x در مقابل y را با R رسم می‌کنم، یک نمودار تقریباً خطی به دست می‌آورم، وقتی آنها را با Libre Office Calc رسم می‌کنم، یک نمودار سهمی به دست می‌آورم. چگونه ممکن است؟ کدام یک مناسب است؟
نتایج متفاوت با استفاده از R یا Libre Office calc
23134
من در حال انجام یک مطالعه در مورد اثرات کنترل بد قند خون بر بیماران هستم. BMI، سن، نوع دیابت (نوع 1 و 2 یا دیابت بارداری) همه متغیر هستند. نتایج شامل بخش C، زایمان زودرس و غیره است. یک بازبین به من گفت > مقایسه‌ها باید با سن مادر و BMI پایه تنظیم شود. چگونه می توان این کار را با ماشین حساب آنلاین انجام داد؟ من محاسبات خود را فقط با ماشین حساب های آنلاین انجام داده ام و هرگز جرات استفاده از SPSS را نداشته ام. کسی میتونه منو راهنمایی کنه؟
تنظیم داده ها برای سن و bmi
73822
من می‌خواهم یک تخمین‌گر بی‌طرفانه برای $b_1$ را در یک رگرسیون ساده به دست بیاورم: $Y_i = B_0 + B_1X_i + u_i$ وقتی دو نمونه دارم، همیشه اندازه Y و X یکسان است، اما یک بار اندازه نمونه l و یک بار است. حجم نمونه متر است. نمونه مربوطه به این معنی است که $\bar{Y_l}،\bar{X_l}$ و $\bar{Y_m}،\bar{X_m}$ داده شده است. حالا من تعجب می کنم که چگونه می توانم تارت کنم تا یک برآوردگر بی طرف بگیرم؟ ایده من این بود که از فرمول «عادی/یک نمونه» استفاده کنم و فقط وزن‌ها (تصحیح اندازه نمونه‌های مختلف بین دو مجموعه مستقل از داده‌ها) را در جلو قرار دهم. یک برآوردگر برای $b_1$ خواهد بود: (X'X)$^{-1}$X'Y بدون ماتریس: $\frac{\sum X_iY_i - N \bar{Y}\bar{X}}{\sum X_i^2 -N \bar{X}^2}$ که می‌خواستم آن را به $\frac{l}{m+l} \frac{\sum X_iY_i - L تغییر دهم \bar{Y_l}\bar{X_l}}{\sum X_i^2 - L \bar{X_l}^2} + \frac{m}{m+l} \frac{\sum X_iY_i - M \bar{Y_m }\bar{X_m}}{\sum X_i^2 - M \bar{X_m}^2}$ M و L بزرگ که اندازه نمونه مربوطه را نشان می‌دهد. اکنون مطمئن نیستم که نتیجه من درست است یا نه، زیرا صادقانه بگویم نمی توانم نشان دهم که بی طرفانه است یا خیر. آیا از نظر احتمالی بی طرف است؟ یا این فقط یک تخمین زن اشتباه است؟
OLS ساده با دو نمونه
59423
از Stack Overflow منتقل شد آیا کسی می تواند به من کمک کند تا مدل رگرسیون مناسب برای داده هایم پیدا کنم؟ من سعی کردم با تغییر مدل و تقریب اولیه (ln 15-16) در این برنامه ساده پایتون یکی را پیدا کنم: # -*- کدگذاری: utf-8 -*- import matplotlib.pyplot به عنوان plt import numpy به عنوان np import scipy.linalg به عنوان la از numpy import تصادفی از scipy.optimize import Minimize def main(): a = np.loadtxt('group_all_tweets.dat', dtype=np.float32, delimiter='\t') sin_model = lambda p, x: (p[0] + p[1] * np.exp(np.sin(( np.pi / p[2]) * x + p[3]))**3) x0 = np.array([1.58e+04, -1.72e+03, 24.0, 7.59]) res =minime(lambda p: la.norm(sin_model(p, a[:, 0]) - a[:, 1] ), x0=x0, method='Powell') print res sin_params = res['x'] plt.plot(a[:, 0]، a[:، 1]) plt.plot(a[:، 0]، sin_model(sin_params، a[:، 0])) plt.figure() rss = a[:، 1] - sin_model(sin_params , a[:, 0]) pol_model = لامبدا p, x: sum([p[i] * x**i برای i در xrange(4)]) x0 = np.array([0.0 برای i در xrange(4)]) res =minime(lambda p: la.norm(pol_model(p, a[:, 0]) - rss)، x0 =x0, method='Powell') print res pol_params = res['x'] rss = a[:, 1] - sin_model(sin_params, a[:, 0]) - pol_model(pol_params, a[:, 0]) plt.plot(a[:, 0], rss) plt.figure() plt.plot(a[:, 0) ], a[:, 1]) plt.plot(a[:, 0], sin_model(sin_params, a[:, 0]) + pol_model(pol_params, a[:, 0])) plt.show() if __name__ == '__main__': main() در اینجا، ابتدا سعی می کنم یک الگوی تناوبی پیدا کنم `((p[0] + p[1] * np.exp(np.sin((np.pi / p[2]) * x + p[3]))**3))` در حالی که `p[i]` هستند پارامترهای مختلف، سپس بقایای رگرسیون اول را با رگرسیون چند جمله ای دوم تقریب بزنید. بهترین نتیجه ای که با روش توصیف شده به دست آوردم در نمودار زیر نشان داده شده است: ![graph](http://i.stack.imgur.com/bE5A1.png) من از نحوه تناسب راضی هستم نزدیک شدن به قسمت پایین نمودار، اما قسمت های بالایی را دوست ندارم. کسی در اینجا تجربه ای از پیدا کردن مدل های رگرسیون دارد؟ من برای هر کمکی سپاسگزار خواهم بود. متشکرم. فایل دیتا اینجاست. من باید وابستگی ستون دوم را از ستون اول پیدا کنم. فکر می‌کنم می‌خواهم مدلی بسازم که شامل یک مؤلفه دوره‌ای باشد، با مؤلفه‌های «روند بالا» و «روند پایین»، دوتای آخر مستقل هستند.
مدل رگرسیون برای داده های دوره ای
73824
![بازگشت](http://i.stack.imgur.com/vvOCA.jpg) بنابراین من نمودار ACF/PACF بازده نفت را ترسیم کردم و انتظار داشتم مقداری خودهمبستگی مثبت ببینم، اما در کمال تعجب من فقط خودهمبستگی معنادار منفی دریافت کردم. چگونه باید نمودار بالا را تفسیر کنم؟ به نظر می رسد آنها نشان می دهند که تمایل به افزایش بازده نفت زمانی وجود دارد که قبلا کاهش یافته و بالعکس، بنابراین رفتار نوسانی. لطفا اگر اشتباه می کنم اصلاح کنید.
چگونه ACF منفی (تابع همبستگی خودکار) را تفسیر کنیم؟
72195
من سه ماتریس A، B، C دارم. A یک ماتریس 200 X 32 است. 2000 ماتریس A مختلف وجود دارد که ماتریس B را تشکیل می دهند. B یک ماتریس 2000 x A است. یعنی 2000 x 200 ردیف در ماتریس B با 32 ستون وجود دارد. C یک ماتریس 2000 x 14 است. هر یک از ماتریس A مربوط به یک ردیف در ماتریس C است. فرض کنید ماتریس A1 از 200 X 32 با ردیف اول در ماتریس C مطابقت دارد. من می خواهم همبستگی بین ماتریس A1 و ردیف C را ببینم. یکی از راه های انجام آن این است که برای هر یک از ماتریس های A به ردیف های C یک نگاشت یک به یک داشته باشیم. اما من مطمئن نیستم که چگونه A را به بردار کوچک کنیم که بتوان آن را یک به یک مقایسه کرد. آیا این کار شدنی و امکان پذیر است؟ اگر بله چگونه؟ آیا رویکردهای دیگری برای برخورد با این نوع داده ها وجود دارد؟ جزئیات همبستگی: ردیف C دارای 14 ویژگی است، این 14 مقدار مشخصه به دلیل داده های یکی از ماتریس های A است. اینطور فکر کنید، فرآیندی وجود دارد که ماتریس ورودی A1 به اندازه 200 x 32 را می گیرد و یک ردیف C با 14 ویژگی ایجاد می کند. این 14 ویژگی ممکن است بسته به ورودی مقادیر بزرگ و به دلیل ورودی کم داشته باشند. من نمی دانم چه خروجی ممکن است دریافت کنم. ممکن است یک رابطه مستقیم یا معکوس باشد.
آیا اندازه داده را کاهش می دهید تا با مجموعه داده دیگری همبستگی متقابل داشته باشد؟
29642
در پروژه من یک متغیر به نام فرهنگ سازمانی دارای 5 بعد توسعه کارکنان، هماهنگی، مشتری مداری، مسئولیت اجتماعی و نوآوری است. در SPSS، من باید این 5 بعد را به 4 نوع پیکربندی کنم تا: 1. فرهنگ بسیار یکپارچه امتیازات بالایی در هر 5 بعد داشته باشد. 2. فرهنگ بازارمحور سازمان هایی را توصیف می کند که بر مشتری مداری بیش از هر بعد فرهنگی دیگری تاکید دارند. 3. فرهنگ نسبتاً یکپارچه نمرات متوسط ​​را در همه ابعاد فرهنگ نشان می دهد. 4. در نهایت، فرهنگ سلسله مراتبی در همه ابعاد فرهنگ امتیاز پایینی را نشان می دهد. به طور خلاصه، این چیزی است که من به آن نیاز دارم: من باید شرکت هایی را که از آنها داده ها را به دست آورده ام، بر اساس امتیازی که مدیران آنها (شرکت ها) به آنها اختصاص داده اند، به 4 نوع (بسیار یکپارچه، نسبتاً یکپارچه و غیره) دسته بندی کنم. 5 بعد فرهنگ در نتیجه من چهار نوع شرکت خواهم داشت که چهار نوع فرهنگ متفاوت خواهند داشت. من امیدی به روشی که در پست بالا پیشنهاد کردید می بینم. از وقتی که گذاشتید بسیار متشکرم و از هر کمکی قدردانی می کنم :)
خوشه بندی 5 بعد به 4 بر اساس میانگین؟
78762
من یک نتیجه دارم که از هر دو سمت چپ و راست کوتاه شده است. می‌خواهم بدانم کدام روش رگرسیون ممکن است این نوع تحلیل را توضیح دهد. در اینجا یک مثال آورده شده است: set.seed(123) z<-rnorm(300) y<-z[z>=-0.8 & z<=1.2] #truncated x1<-sample(1:3، length(y), T) x2<-rbinom(طول(y)، 1، 0.3) بهترین روش رگرسیون برای مدل‌سازی «y~x1+x2» چیست؟ به نظر می‌رسد بسته R «truncreg» فقط دارای آرگومان‌هایی برای برش چپ یا راست است، نه اینکه هر دو طرف مانند این مثال باشند.
رگرسیون برای نتایج کوتاه شده از هر دو طرف
3868
مدل غیر خطی من توزیع گاما را با معکوس یا لاگ برازش می کنم همگرا نیست. یک مشاهده با مقدار صفر در متغیر پاسخ وجود دارد. آیا این صفر بر مدل سازی داده ها تأثیر می گذارد؟ هر پاسخی به گرمی قدردانی می شود!
تابع پیوند تعریف نشده در توزیع گاما
59425
روز بخیر من می دانم که دریافت فاصله کلاسی که 3 به عنوان بالاترین مقدار و 0.65 به عنوان کمترین مقدار داده می شود آسان است. در اینجا نتیجه، توزیع فاصله از 1 شروع می شود که به عنوان خط پایه یا مقدار قابل قبول در نظر گرفته می شود. بنابراین ابتدا سعی کردم محدوده را با استفاده از روش های معمول انجام کارها محاسبه کنم. تعداد کلاس های مورد نظر: 5 فاصله کلاس = بالاترین مقدار - کمترین مقدار / تعداد کلاس ها ... = 3 - 0.65 / 5 ... = 0.47 فاصله کلاس 0.47 می شود. مشکل اینجاست، چون فاصله کلاس باید به یک اضافه یا کم شود، در اینجا به نظر می رسد ... محاسبه محدوده کلاس بالای 1: 1 + 0.47 = 1.47 (کلاس اول بالای 1) 1.47 + 0.47 = 1.94 1.94 + 2.41 = 2.88 محاسبه محدوده کلاس زیر 1: 1 - 0.47 = 0.53 (کلاس اول زیر 1) 0.53 - 0.47 = 0.06 محدوده: .. 2.88 - 3.58 .. 2.41 - 2.87 .. 1.94 - 2.40 .. 1.47 - 1.93 .. 1.09 - .. 1.06 - .. 1.05 - .. .. 0.06 - 0.52 .. 0.00 - 0.05 این بسیار اشتباه به نظر می رسد بنابراین من از مشاورم کمک خواستم و روش دیگری را ارائه کردم. به جای استفاده از 0.65 به عنوان کمترین مقدار، از 0 استفاده کردیم. بنابراین ... تعداد کلاس های مورد نظر: 5 کلاس فاصله = بالاترین مقدار - کمترین مقدار / تعداد کلاس ها ... = 3 - 0 / 5 ... = 0.60 و دوباره سعی کردیم محدوده هایی را ایجاد کنیم که هنوز 1 به عنوان مقدار قابل قبول یا باید حد پایین کلاس در وسط باشد. محاسبه محدوده کلاس بالاتر از 1: 1 + 0.60 = 1.60 (کلاس اول بالای 1) 1.60 + 0.60 = 2.20 2.20 + 0.60 = 2.80 محاسبه محدوده کلاس زیر 1: 1 - 0.60 = 0.40 (فرست کلاس .2: 1) - 3.00 .. 2.20 - 2.79 .. 1.60 - 2.19 .. 1.00 - 1.59 .. 0.40 - 0.99 .. 0.00 - 0.39 دوباره ، ما 5 محدوده کلاس می خواستیم اما 6 عدد بالاتر از کلاس را گرفتیم و مشکل دیگر این است که 1 عدد باید برابر با تعداد کلاس های زیر 1. بدیهی است در نتیجه داده شده اینطور نیست.. مجدداً سعی کردیم از مشاور دیگری بپرسیم و تأیید شد که توزیع مقیاس باید برابر با بالا و زیر 1 باشد. بنابراین پیشنهاد بعدی استفاده از انحراف معیار و استفاده از آن به عنوان معیار بود. فاصله کلاس.. انحراف استاندارد نیاز به استفاده از میانگین برای همه مجموعه داده ها دارد. 800 فایل در مجموعه داده های ما وجود دارد، بنابراین من زحمت ارسال آن را ندارم. میانگین برای همه داده ها = 1.85 a. ) مجموع مجذور تفاوت بین میانگین محاسبه شده و داده = 158.39 ب.) تعداد مجموعه داده ها منهای یک (1) = 799 تقسیم a و b = 0.20 ریشه مربع 0.20 = 0.45 ایجاد محدوده ها ... محاسبه محدوده کلاس بالاتر از 1: 1 + 0.45 = 1.45 (کلاس اول بالا 1) 1.45 + 0.45 = 1.90 1.90 + 0.45 = 2.35 2.35 + 0.45 = 2.80 2.80 + 0.45 = 3.25 محاسبه محدوده کلاس زیر 1: 1 - 0.45 = 0.55 - 0.55 = 0.55 - 0. 0.10 بنابراین... .. 2.80 - 3.25 .. 2.35 - 2.79 .. 1.90 - 2.34 .. 1.45 - 1.89 .. 1.00 - 1.44 .. 0.45 - 0.94 - 0.94 - .. 0.0. 0.09 مشکلات با کارهایی که تا به حال انجام می دهم تعداد کلاس ها باید فقط 5 باشد، اما محاسبه من همیشه بیش از آن است. باید توزیع برابر با کلاس های بالا و پایین 1 باشد، اما تعداد محدوده های بالای 1 همیشه بیشتر است. تمام فاصله باید برابر باشد (طبق خواندن من) و نباید منفی باشد (طبق مطالعه ما) من واقعاً گیج می شوم که چه کار کنم و از چه روش یا ابزار آماری استفاده کنم. آیا کسی می تواند در این مشکل به من کمک کند. در اسرع وقت.. خیلی مفید خواهد بود..
چگونه محدوده کلاسی را که 1 به عنوان طبقه متوسط، 3 به عنوان بالاترین مقدار و 0.65 به عنوان پایین ترین مقدار داده شده است ایجاد کنیم؟
31159
من یک مدل خطی ساده $y = bX$ را به یک مجموعه داده امروزی برازش کردم و 24 نقطه باقیمانده تولید کرد (من 24 نقطه داده دارم، یکی برای هر سال از 1984-2007). من می خواهم استقلال زمانی باقیمانده های مدل خود را آزمایش کنم و توسط سرپرستم به من توصیه شد از تست Ljung-Box استفاده کنم. تابع Box.test در R 4 آرگومان می گیرد: * `x`: یک بردار عددی یا سری زمانی تک متغیره. * `لگ`: آمار بر اساس ضرایب خود همبستگی تاخیر خواهد بود. * نوع: آزمایشی که باید انجام شود: تطبیق جزئی استفاده می شود. * fitdf: تعداد درجات آزادی که باید تفریق شود اگر x مجموعه ای از باقیمانده ها باشد. تاخیر به چه معناست، و بچه ها توصیه می کنید از چه مقداری برای تست استفاده کنم؟ همچنین، «fitdf» چه چیزی را نشان می‌دهد، و مقدار آن پارامتر در مورد من چقدر خواهد بود؟ در نهایت، مقدار «x» بردار 24 باقیمانده من است، درست است؟
با تست Ljung-Box برای استقلال زمانی باقیمانده ها کمک کنید
59429
من یک مدل رگرسیون خطی چندگانه (OLS) دارم که دارای یک ثابت، 5 متغیر و یک جمله تعامل بین دو متغیر ساختگی است. من باید آزمون دوربین واتسون را برای همبستگی مرتبه اول انجام دهم و برای یافتن مقادیر بحرانی باید تعداد متغیرهای توضیحی را بدانم (بدون در نظر گرفتن ثابت). آیا عبارت تعامل به خودی خود یک متغیر توضیحی برای این اهداف است (بنابراین من 6 متغیر توضیحی دارم)، یا آیا مقادیر بحرانی را برای 5 متغیر توضیحی پیدا می کنم؟ با تشکر
آزمون دوربین-واتسون برای خود همبستگی مرتبه اول در صورت وجود اثرات متقابل
73829
من آلیس و باب را به بیرون می فرستم تا رنگ چشم افراد (آبی، قهوه ای، سبز، و غیره) را ضبط کنند. آلیس کار بزرگی انجام می دهد و رنگ چشم 2000 نفر را یادداشت می کند. باب فقط رنگ چشم 20 نفر را ثبت می کند. آلیس متوجه شد که همه 2000 نفر چشمان قهوه ای داشتند. باب 19 نفر را با چشمان قهوه ای و یک نفر با چشمان سبز پیدا کرد. یک نتیجه سبز چقدر مهم است؟ چگونه می توانم نتایج را مقایسه کنم؟ آیا نتیجه سبز قابل توجه است؟ ** به روز رسانی ** اکنون آلیس و باب را در روز دیگری به منطقه دیگری می فرستم. آلیس کاملاً دقیق است و دوباره 2000 نفر را پیدا می کند، در حالی که باب هنوز تنبل است و فقط 20 نفر را پیدا می کند. نتایج آنها چیزی شبیه به این خواهد بود: | روز | مجموعه داده | آبی | قهوه ای | سبز | دیگر | | 1 | آلیس | 0 | 2000 | 0 | 0 | | 1 | باب | 0 | 19 | 1 | 0 | | 2 | آلیس | 10 | 1900 | 45 | 45 | | 2 | باب | 2 | 10 | 6 | 6 | من این روند را تکرار می کنم و آنها را در روزهای مختلف به مناطق مختلف می فرستم. آلیس همیشه 2000 نفر و باب همیشه 20 نفر را پیدا می کند. با در نظر گرفتن هر روز به طور جداگانه، چگونه می توانم تعیین کنم که آیا نتایج آلیس یا باب معرف جمعیتی است که آنها در یک روز معین نمونه برداری کردند؟ چگونه می توانم نتایج آنها را برای یک روز معین مقایسه کنم؟
آزمایش برای مقایسه مجموعه داده های بزرگ و کوچک
72194
مقدار C دقیقاً چه ارتباطی با هسته های مختلفی دارد که می توانیم برای SVM از آنها استفاده کنیم؟ در هنگام تغییر درجه چند جمله ای یک هسته یا هنگام استفاده از هسته گاوسی چگونه تغییر می کند؟
رابطه بین هسته و مقدار C در SVM
72446
من از کتابخانه R e1071 برای الگوریتم SVM (Support Vector Machine) استفاده می کنم. و من از آهنگ برای یافتن بهترین پارامترهای هزینه و گاما استفاده کردم. اگرچه به نظر نمی رسد که طرح بهترین پیش بینی واقعی را ارائه دهد. در اینجا برخی جزئیات وجود دارد: gammalist <- c(0.005،0.01،0.015،0.02،0.025،0.03،0.035،0.04،0.045،0.05) obj <- tune(svm, Class~., data = trainData, ranges = list(gama = gammalist، هزینه = 2^(2:4))، کنترل تنظیم = tune.control(sampling = fix) ) plot(obj) نمودار به دست آمده در اینجا است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Al0QG.png) نمودار من را هدایت می کند باور کنید 0.02 بهترین گاما است. اما من در واقع چندین مورد دیگر را به صورت دستی آزمایش کردم و نتایج بهتری برای 0.042 پیدا کردم. در یک نمونه 200، 23 خطا با گاما=0.042 و 26 خطا با گاما=0.02 دریافت می کنم. این را چگونه توضیح می دهید؟
طرح آهنگ R e1071 بهترین گاما را به من نمی دهد؟
72448
من یک سوال دارم. من یک مجموعه داده با مقادیر گمشده دارم که MCAR نیستند. من آنها را با تکرارهای روش مشخصات کاملاً شرطی نسبت دادم. سپس تجزیه و تحلیل خود را بر اساس مجموعه داده های منتسب شده اجرا کردم. نتایج مدل اصلی (با مقادیر از دست رفته: حذف لیستی) در مدل تلفیقی نهایی تغییر چندانی نکرد. ایده من این است که به مجموعه داده مقادیر از دست رفته برگردم. نظر شما چیست؟
انتساب چندگانه - مدل اصلی
109307
مثلاً بگوییم N متغیر مستقل وجود دارد، و شما با سه تا از آنها که دارای یک R2 تنظیم شده مناسب هستند، تطبیق می‌دهید، چگونه می‌دانید چه زمانی باید متوقف شود؟ این یک سوال نظری است.
آیا می توان حداکثر دقت پیش بینی را برای یک مجموعه داده معین با رگرسیون خطی تعیین کرد؟ به عنوان مثال حداکثر R^2 تنظیم شده است
31158
من یک بردار از داده های شبیه سازی شده دارم: داده = c(0.47، 0.45، 0.30، 1.15، 0.82، 0.38، 0.51، 1.36، 1.72، 0.36) با ایجاد اعداد تصادفی مختلف با محوریت 0، نویز را به این اضافه کردم. انحرافات: نویز = rnorm (10، میانگین = 0، sd = 0.1) data_wNoise = داده + نویز من انحراف استاندارد را خودسرانه تنظیم کرده ام (بین 0.001 و 1.5). آیا راه بهتری برای شبیه سازی با تنظیم نسبت سیگنال به نویز خاص وجود دارد؟ من در مورد قدرت سیگنال در داده ها چیزی نمی دانم.
چگونه نسبت سیگنال به نویز را شبیه سازی کنیم؟
78765
داده‌های داده‌شده در زیر زمان را بر حسب ثانیه بین اتومبیل‌های سفید متوالی در جریان ترافیک در یک جاده باز نشان می‌دهد. آیا می‌توان آنها را با توزیع نمایی مدل‌سازی کرد. زمان 0- 20- 40- 60- 90- 120-180 فرکانس 41 19 16 13 9 2 سوال من این است که چه زمانی فرکانس های مورد انتظار را محاسبه می کنم اگرچه کل باید تا 100 جمع شود اما به دلیل **گرد کردن ** این کار را نمی کند. اشتباهات درسته؟ من مقدار 98.89 را دریافت می کنم. در اینجا باید دسته دیگری را به عنوان بازه **180-infinity** اضافه کنم و مقدار مورد انتظار آن را 100-98.89=1.11 دریافت کنم. آیا اضافه کردن این دسته ضروری است زیرا این یک **توزیع نمایی** است که به سمت بی نهایت می رود؟ البته از آنجایی که مقدار Expected دسته ایجاد شده کمتر از 5 است، در این مورد باید این را با دسته بالا جمع کنم. اما اگر این دسته جدید را در نظر نگیرم، درجات آزادی تغییر می کند. آیا لازم است این دسته جدید به عنوان 180-بی نهایت اضافه شود.
آزمون خوب بودن برازش برای توزیع نمایی
77052
هنگام انجام یک تجزیه و تحلیل داده های گمشده با FIML در Lisrel، آمار خوبی از برازش را دریافت نمی کنم. من کشف کرده ام که شما می توانید شاخص های برازش را با استفاده از مجذور کای از یک مدل استقلال محاسبه کنید. حال این سوال پیش از هر چیز این است که چگونه می توانم یک مدل استقلال را در تجزیه و تحلیل داده های گمشده با FIML در Lisrel (سینتکس ساده) تخمین بزنم؟ آیا این امکان پذیر است؟ متشکرم!
Lisrel: مناسب بودن با FIML و داده های از دست رفته
99619
برای هدف این سوال، لطفاً من را یک تازه کار آمار در نظر بگیرید. من روی یک پروژه تحقیقاتی (بسیار سرگرم‌کننده!) کار می‌کنم که شامل تخمین پی‌دی‌اف «ارزش‌های شخصی» می‌شود - یعنی اینکه یک فرد خاص چقدر برای کالایی که می‌تواند بخرد ارزش قائل است. من می‌خواستم شکل کاربردی PDF را پیدا کنم تا بتوانم براساس توزیعی که در داده‌های تجربی که با آن کار می‌کردم دیدم، داده تولید کنم. اما پیشنهادی برای پیروی از تخمین حداکثر احتمال دریافت کردم، کاری که در گذشته انجام نداده ام. من آزمایش کرده‌ام، اما به نظر نمی‌رسد که داده‌های من با توزیع معمولی مطابقت داشته باشد... این بیشتر یک توزیع شتر باکتریایی است. **بنابراین آنچه من علاقه مند به دانستن آن هستم این است:** 1. آیا رویکرد فعلی من درست است؟ (به زیر مراجعه کنید) 2. چگونه می توانم با برآورد حداکثر احتمال به این موضوع نزدیک شوم؟ **در اینجا کاری که من تاکنون انجام داده‌ام این است:** 1. یک CDF از داده‌هایی که دارم ساخته‌ام (آنها را به عنوان ارزش‌گذاری در نظر می‌گیریم) 2. به معنای واقعی کلمه... تخمین‌گر OLS CDF را به شکل عملکردی پیدا کرد، بنابراین اکنون من یک تخمین چند جمله‌ای از CDF دارم 3. مشتق آن تابع را گرفتم (که باید با PDF برابر باشد) 4. داده‌ها را مطابق آن مشتق تولید کرد. به طور کلی، این رویکرد نسبتاً خوب عمل کرده است. من هیچ معیاری برای مقایسه داده های تولید شده خود با داده های واقعی ندارم -- من هیچ معیاری را نمی دانم! -- اما از مقایسه دو مجموعه داده، آنها از نظر میانگین و واریانس نسبتاً نزدیک هستند. بسیار قدردانی می شود! \-- یک بچه دانشگاهی مشتاق ویرایش: اضافه کردن جزئیات: تابع چگالی من به این شکل است. من می خواهم یک شکل عملکردی از این را تقریبی کنم، زیرا باید دو کار را انجام دهم: 1. استنباط توزیع داده های بالای 150; بر اساس تئوری، داده هایی وجود دارد که بالای 150 است، اما در این توزیع نیست. 2. داده های تصادفی تولید کنید (مثلاً اندازه نمونه 5000 -> 10000) ! تخمین به این شکل است (مقیاس‌گذاری نامناسب محور y را نادیده بگیرید - این بزرگ‌شده است) ![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/Od6tK.png)
ایجاد PDF با فرم عملکردی از تخمین حداکثر احتمال
72191
من اطلاعات زیادی در مورد برازش ARMA(p,q) با استفاده از حداکثر احتمال دقیق پیدا کردم، اما برای حداکثر احتمال شرطی بسیار کم. آیا کسی می‌تواند من را به یک تابع R هدایت کند که با حداکثر احتمال شرطی با ARMA(p,q) مطابقت دارد و همچنین برخی از اسنادی که مفهوم را توضیح می‌دهند؟
برازش ARMA(p,q) با حداکثر احتمال مشروط
25997
من یک طرح 2 در 2 با 12 موضوع دارم. این دو عامل متغیرهای درون موضوعی هستند. برای هر سلول، 24 پاسخ از هر آزمودنی جمع آوری شد. سوال من این است که آیا باید هر 24 پاسخ را در یک میانگین جمع کنم و سپس از میانگین در lmer به عنوان متغیر وابسته استفاده کنم؟ به نظر می رسد این صفحه وب http://talklab.psy.gla.ac.uk/simgen/faq.html نشان می دهد که در صورت استفاده از مدل جلوه های ترکیبی نیازی به تجمیع نیست، اما من شک دارم که درست باشد. همچنین، اگر پاسخ‌ها پاسخ‌های باینری هستند، آیا می‌توانم آنها را میانگین‌گیری کنم و از lmer تعمیم‌یافته با خانواده دوجمله‌ای استفاده کنم؟ با تشکر
آیا هنگام استفاده از مدل اثرات مختلط خطی باید داده ها را جمع آوری کنم؟
29646
من متوجه هستم که روشی که توسط اردوگاه های فرکنتیست و بیزی دنبال می شود، به طور کلی متفاوت است. با این حال، یکی از روش‌های تخمینی که آن‌ها به اشتراک می‌گذارند، بهینه‌سازی یک تابع خاص است: * فرکانسیست‌ها تابع _likelihood_ را به حداکثر می‌رسانند و حداکثر را می‌دهند. برآوردگر احتمال (ML). * بیزی‌ها تابع _پسری_ را به حداکثر می‌رسانند و تخمین‌گر Max A-Posteriori (MAP) را می‌دهند. هر دو تابع معمولاً با استفاده از قاعده/قضیه بی ساخته شده اند، که مورد توافق جهانی است و ممکن است یک بار (در حالت دسته ای) یا چندین بار به صورت تکراری اعمال شده باشد. به طور مشابه، هم فرکانسیست ها و هم بیزی ها فاصله زمانی (اطمینان/اعتبار) خود را از این تابع استنتاج می کنند. بنابراین اگر قبلی غیر اطلاعاتی باشد (با فرض اینکه بتوانیم چنین قبلی را فرمول بندی کنیم)، نباید بین «نتایج» به دست آمده توسط بیزی ها و مکررگرایان تمایزی وجود داشته باشد، حتی اگر تفسیر نتایج مذکور متفاوت باشد. اگر این درست باشد، پس تنها تفاوت عملی بین بیزی ها و فرکنتیست ها، اولویت است. آیا این حقیقت دارد؟ * * * ویرایش: در واقع، بیت بهینه سازی سوال من کمی گمراه کننده است، زیرا فقط یک نمونه خاص از تفاوت بین تفکر بیزی و مکرر است. سوال من را می توان به سادگی به عنوان تفاوت بین تابع احتمال و پسین مطرح کرد. به عنوان مثال، آیا افراد مکرر هرگز از MCMC برای محاسبه تابع درستنمایی استفاده خواهند کرد؟
بهینه سازی و فواصل بیزی و مکرر
79411
من مجموعه داده A دارم که در آن خانواده ها هر سه ماهه به مدت یک سال مصاحبه می شوند. من فقط روی خانواده‌هایی تمرکز می‌کنم که داده‌های مربوط به همه بخش‌ها را دارند. با این تحمیل، مشاهدات بیش از نصف کاهش می یابد. بعد، من مجموعه داده B را دارم که در آن یک متغیر notinA وجود دارد که در داده A نیست، اما در dataB است. من سعی می‌کنم این متغیر را با استفاده از متغیرهای جمعیتی رایج (موجود در هر دو مجموعه داده) و تطبیق نزدیک‌ترین محله در داده‌های A قرار دهم. در این مورد از همه مشاهدات در داده B استفاده نمی شود و برخی از مشاهدات بیش از یک بار در هنگام نسبت دادن متغیر notinA در A از داده B استفاده می شوند. ممکن است، که سپس حذف می شوند. بنابراین، سوال من این است که آیا استفاده از وزن نمونه (pweights) مجموعه داده A برای داده های نهایی (با متغیر ورودی از dataB) قابل توجیه است؟ آیا می توانید لطفاً به ادبیاتی اشاره کنید که نشان می دهد چگونه با وزن نمونه برای مثالی مانند این برخورد کنیم؟
استفاده از وزن نمونه در رگرسیون
34670
من می دانم که نمونه های یکنواختی که در cdf های معکوس استفاده می شود را می توان برای تولید نمونه های معمولی استفاده کرد. من فکر می کردم چگونه یک تکنیک یک نمونه یکنواخت تولید می کند!؟
چگونه یک نمونه یکنواخت توسط کامپیوتر تولید می شود؟
31152
من مشکل زیر را دارم: من 3200 همبستگی بین معیار خاصی از اتصال و 1 نتیجه رفتاری در نمونه ای از افراد انجام داده ام. از آنجایی که همبستگی‌های منفرد (که با R و p ارائه می‌شوند) مستقل از یکدیگر نیستند، اصلاح بونفرونی یا FDR (در مقادیر p داده‌شده) نتوانست هیچ همبستگی قابل‌توجهی باقی بگذارد. بنابراین سعی کردم این رویکرد جایگشت را دنبال کنم: در حالی که داده‌های اتصال سوژه موجود را تغییر می‌دادم، و همچنین داده‌های رفتاری را از سوی دیگر تغییر می‌دادم، یک شبه نمونه جدید ایجاد کردم (که در آن ارتباط و رفتار سوژه‌ها دیگر مطابقت ندارند) که برای آن همه همبستگی ها را دوباره محاسبه کردم (3200). من این کار را 10000x انجام دادم و بنابراین 10000x3200 p-value تصادفی بر اساس مجموعه داده های واقعی ایجاد کردم. پس از سفارش دادن همه مقادیر p (کم به بالا) به کمترین 5٪ از آن مقادیر p (آلفا) نگاه کردم: همبستگی های تصادفی به احتمال 5٪ به مقدار p 0.01 می رسد. در گروهی دیگر، 5% کمترین مقدار p فقط به 0.052 می رسد. سوال من این است که آیا این روشی قابل قبول برای تصحیح همبستگی های چندگانه در یک مجموعه داده با تعداد زیادی همبستگی مجرد غیر مستقل است؟ به ویژه، آیا منطقی است که از یک p-value تعدیل شده استفاده کنید که حتی بالاتر از مقدار اصلی یعنی 0.05 باشد. شاید شانس رسیدن به 0.05 در آن مجموعه داده به دلیل واریانس و غیره حتی کمتر از 5٪ باشد. منتظر پاسخ ها و نظرات شما هستم. خیلی ممنون بهترین، رابرت
تنظیم p-value از طریق جایگشت برای همبستگی های متعدد
109300
من با گفتن اینکه درک دقیقی از آنچه در زیر سرپوش یک طبقه‌بندی کننده SVM وجود دارد، ندارم. من علاقه مند به استفاده از یک SVM با هسته RBF برای آموزش یک طبقه بندی کننده دو کلاس هستم. با این حال، متوجه شدم که آموزش (و حتی پیش‌بینی) هنگام کار با هسته RBF زمان زیادی می‌برد (در متلب با استفاده از libsvm و پایتون با استفاده از sklearn اجرا شده‌اند). سوال من این است که آیا می توان داده های خود را با استفاده از یک هسته RBF به خودی خود به بعد بالاتر فرستاد و سپس یک SVM خطی را روی این داده تبدیل شده اعمال کرد، یعنی تا زمانی که استفاده از یک RBF SVM نتایج مشابهی را به همراه داشته باشد. همانطور که من از همان C و Gamma استفاده می کنم؟ من خیلی مطمئن نیستم که هسته ها چگونه اعمال می شوند، بنابراین امیدوارم این بخش منطقی باشد. اگر این درست باشد، من می‌توانم داده‌ها را با استفاده از هسته RBF در فضای ویژگی‌های ابعاد بالاتر از قبل پردازش کنم و سپس با استفاده از یک طبقه‌بندی خطی ساده، آموزش و پیش‌بینی را بسیار سریع انجام دهم.
ابتدا یک هسته RBF را اعمال کنید و سپس با استفاده از یک طبقه‌بندی خطی آموزش دهید