_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
13389 | اندرو مور افزایش اطلاعات را اینگونه تعریف می کند: $IG(Y|X) = H(Y) - H(Y|X)$ که در آن $H(Y|X)$ آنتروپی شرطی است. با این حال، ویکیپدیا مقدار فوق را اطلاعات متقابل مینامد. از سوی دیگر، ویکیپدیا افزایش اطلاعات را به عنوان واگرایی Kullback–Leibler (معروف به واگرایی اطلاعات یا آنتروپی نسبی) بین دو متغیر تصادفی تعریف میکند: $D_{KL}(P||Q) = H(P,Q) - H(P) $ که در آن $H(P,Q)$ به عنوان آنتروپی متقابل تعریف می شود. به نظر می رسد این دو تعریف با یکدیگر همخوانی ندارند. همچنین نویسندگان دیگری را دیدهام که در مورد دو مفهوم مرتبط دیگر، یعنی آنتروپی دیفرانسیل و کسب اطلاعات نسبی صحبت میکنند. تعریف دقیق یا رابطه بین این مقادیر چیست؟ آیا کتاب درسی خوبی وجود دارد که همه آنها را پوشش دهد؟ * به دست آوردن اطلاعات * اطلاعات متقابل * آنتروپی متقاطع * آنتروپی شرطی * آنتروپی دیفرانسیل * به دست آوردن اطلاعات نسبی | کسب اطلاعات، اطلاعات متقابل و اقدامات مرتبط |
49191 | تمرینی به من داده شد که چیزی شبیه به این بود: تیم فوتبال آریزونا در فصل 2007/08 در بازی های 19 دلاری 45 دلار گل زد. اگر $y_i$ نشان دهنده تعداد گل های زده شده در $i$-th بازی است، مدل زیر را در نظر بگیرید: $Y_1,\dots,Y_n \sim \operatorname{Poisson}(\lambda)$ به طور مستقل با $\lambda > 0 $. توزیع محدود $$T_n = \sqrt n\cdot\frac1{n\sqrt\frac1n\sum_{i=1}^nY_i}\cdot\sum_{i=1}^n(Y_i-\lambda) چقدر است $$ به عنوان $n\to\infty$؟ از $T_n$ برای ایجاد فاصله اطمینان 95$% برای $\lambda$ استفاده کنید. لطفاً کسی می تواند به من بگوید توزیع محدود چیست و چگونه آن را پیدا کنم؟ بعد از آن باید بتوانم به تنهایی از پس این سوال برسم. با تشکر | یافتن توزیع محدود کننده |
81033 | ظاهراً هر ویدیوی جدیدی در یوتیوب برای مدتی قبل از شروع بازتاب بازدیدهای واقعی، در 301 بازدید ثابت می ماند. به نظر می رسد دلیل آن این است که یوتیوب در این مدت متوجه می شود که آیا بازدیدها بازدیدهای واقعی هستند و توسط برخی ربات ها خودکار نیستند. این رویکرد کمی عجیب به نظر می رسد. چرا این کار را فقط برای ویدیوهای جدید انجام دهید؟ در مورد ویدیوهای قدیمی چطور؟ در حالی که این سوالات در اینجا مناسب نیستند (آنها به آمار مربوط نیستند). سوال من در حال حاضر برای این انجمن مختص همین نقل قول از این مقاله است. > بنابراین YouTube شمارنده را با 301 بازدید متوقف می کند در حالی که سیستم های آن > ویدیو - و موارد تکراری ذخیره شده آن را در سرورهای سراسر جهان - تحت یک > فرآیند آماری قرار می دهند که ترافیک را تأیید می کند. این فرآیند آماری که در اینجا به آن اشاره شده چیست؟ | یوتیوب 301 بازدید. آماری در مورد آن چیست؟ |
89923 | فرضیه ای وجود دارد که A باعث B (A -> B) می شود، و احتمال درستی این فرضیه وجود دارد (AB1%). اکنون، آزمایشی اجرا میشود که ادعا میکند یک همبستگی بین A و B پیدا میکند. آنچه من میخواهم بدانم این است که آیا احتمال جدید من (AB2٪) بیشتر یا کمتر از احتمال قبلی من است (AB1٪). عقل سلیم به من می گوید که AB2% **باید ** بیشتر از AB1% باشد -- که هیچ راهی وجود ندارد که یافتن یک همبستگی احتمال A -> B را کاهش دهد. آیا عقل سلیم من درست است؟ من میخواهم احتمال سوگیری نمونهگیری، خطای عظیم تجربی، سوگیری گزارشدهی و غیره را در نظر بگیرم -- همه چیز به جز دادههای جعلی. به عنوان مثال، دانستن این که مواردی از این دست ممکن است اتفاق بیفتد: * آزمایش بسیار مغرضانه ای که در آن هر گونه همبستگی به احتمال زیاد به دلیل نمونه گیری مغرضانه نسبت به A -> B است. * طراحی آزمایشی بسیار پر سر و صدا، که در آن همبستگی تصادفی بین نویز بسیار بیشتر است. به احتمال زیاد از مشاهده هر همبستگی واقعی * داده های کاملاً تصادفی، انتخاب شده برای یافتن همبستگی ها چگونه می توانم دانش خود را از آن عوامل (یکی دیگر از عوامل) در یک برآورد ترکیب کنم. برای AB2٪؟ * * * tl,dr; آیا این جمله درست است: یک همبستگی پیدا شده است، بنابراین احتمال اینکه یک رابطه علی واقعی بین دو متغیر وجود داشته باشد بیشتر از قبل از پیدا شدن همبستگی است؟ * * * من آمارگیر نیستم -- لطفا مهربان باشید! :) | برآورد احتمال علیت بر اساس یافتن یک همبستگی، از جمله جزئیات تجربی |
108073 | من یک سری مبالغ دلاری دارم که به شدت دارای انحراف هستند، اما تقریباً طبیعی هستند. من میخواهم این مقدار دلار گروهبندیشده را بهعنوان یک متغیر پیشبینیکننده در تحلیل خوشهای کلاس پنهان قرار دهم. در این مورد، من مطمئن نیستم که آیا تبدیل به log-normal برای یک متغیر پیشبینی کننده منطقی است یا خیر، برخلاف صرفاً ترکیب کردن دادههای خام و منحرف. توزیع خام:   توزیع Log-normal:   | ایجاد سطل برای داده های lognormal برای تجزیه و تحلیل خوشه |
49441 | من یک مشکل نمونه گیری غیر معمول دارم. من یک فایل به طور مداوم در حال رشد با میلیون ها کلمه در آن دارم. هر کلمه می تواند 1 تا 8 کاراکتر در خود داشته باشد. یک کلمه می تواند دارای کاراکترهای تکراری باشد. وظیفه حذف کاراکترهای تکراری در هر کلمه است، اما من میخواهم این کار را فقط در صورتی انجام دهم که تعداد کل کاراکترهای حذف شده بالاتر از 25٪ از تعداد کاراکترهای کل باشد. من میخواهم این مشکل را با نمونهگیری تصادفی از کلمات و تخمینی از کاراکترهای حذف شده برای کل فایل در 1٪ حاشیه خطا حل کنم. چگونه می توانم حجم نمونه را محاسبه کنم؟ این واقعیت که طول کلمه متغیر است و همچنین تعداد کاراکترهای تکراری ممکن است این مشکل را بسیار سخت می کند. آیا مشکلی معادل وجود دارد که بتوانم به آن مراجعه کنم؟ | مشکل نمونه برداری کلمه با طول متغیر |
62747 | من میخواهم ضریب همبستگی مرتبه اول یک فرآیند AR(1) را استخراج کنم، که در آن فرآیند AR(1) میتواند به صورت زیر بیان شود: $$y_t = \Theta y_{t-1} + u_t$$ با $|\ تتا|<1$. لطفاً راهنمایی کنید که چگونه با این مشکل شروع کنم؟ | چگونه می توان ضریب همبستگی مرتبه اول یک فرآیند AR(1) را استخراج کرد؟ |
90706 | من به آمار این مقاله نگاه می کنم: http://emotional.intelligence.uma.es/documentos/6-Extremera2011Emotional.pdf من تعجب می کنم که چگونه می توانید از آزمون z برای مقایسه دو ضریب همبستگی استفاده کنید؟ اما در اینجا، ما در مورد تفاوت قابل توجهی در همبستگی بین X,Y و X,Z صحبت می کنیم در حالی که 5 متغیر دیگر را در دو نقطه زمانی مختلف کنترل می کنیم. در واقع، شما باید از مقایسه ضریب همبستگی ویلیامز-هتلینگ استفاده کنید نه از آزمون z، درست است؟ با این حال، آزمون معنیداری همبستگی W-H هیچ متغیر دیگری را کنترل نمیکند، بنابراین، نمیدانم که آیا این واقعاً مناسبترین کار برای انجام است؟ هر گونه نظر در مورد آن به شدت قدردانی خواهد شد. Moimeme | z-test در کاغذ نادرست است؟ آیا می توان به جای آن از آزمون هتلینگ ویلیامز استفاده کرد؟ |
68017 | من مطمئن نیستم که کلمات کلیدی مناسب برای این کار چه هستند، اما میخواهم بدانم آیا امکان اعمال توابع برای متغیرهای تصادفی وجود دارد یا خیر. من فکر می کنم ممکن است از نظر ارزش مورد انتظار منطقی باشد، اما من از هرگونه اطلاعات در مورد رویکرد رسمی یا دقیق تر به این مفهوم قدردانی می کنم. به عنوان مثال اگر یک متغیر تصادفی X و یک تابع f(x)=2*x و E[X] = 2 وجود داشته باشد، آیا E[f(X)] = 4 خواهد بود؟ | تابع متغیرهای تصادفی |
68018 | فرض کنید من تعدادی موضوع دارم که به سه نمایه تقسیم می شوند: 1، 2 و 3. برای هر موضوع من دو ویژگی سن و قد را ثبت کرده ام. ابتدا، من می خواهم تعیین کنم که آیا تفاوت سنی قابل توجهی بین پروفایل ها وجود دارد یا خیر. این را می توان با استفاده از یک تست ANOVA ساده انجام داد. اکنون می خواهم تعیین کنم که آیا با توجه به قد (به عنوان متغیر کمکی) بین پروفایل ها تفاوت سنی قابل توجهی وجود دارد یا خیر. چگونه می توانم این آزمون آماری را انجام دهم؟ | تفاوت معنی داری بین دو متغیر با توجه به متغیر سوم |
58372 | من یک جفت سری زمانی دارم که با آنها تفاوت کردم و اکنون مقادیر {-1، -0.5، 0، 0.5، 1} را می گیرند. هدف من این است که آنها را برای علیت گرنجر آزمایش کنم و هر گونه رابطه سرب/ تاخیر را کشف کنم. از آنجایی که این امر مستلزم ثابت بودن سری های زمانی است، من adf.test را روی آنها اجرا کردم و با تعجب متوجه شدم که مقدار p برای هر دو 0.99 است. همچنین اخطاری دریافت کردم که میگفت p-value بیشتر از p-value چاپ شده است. من امیدوار بودم که بفهمم در اینجا چه اشتباهی انجام می دهم، لطفاً به من اطلاع دهید که چه اطلاعات بیشتری می توانم ارائه دهم. | adf.test مقدار p> 0.99 را برمی گرداند حتی زمانی که داده ها ثابت هستند |
109135 | من سعی میکنم یکی از امتیازهای خطر رویداد قلبی عروقی فرامینگهام را در مجموعه داده جدیدی اعمال کنم تا خطر مطلق را به دست بیاورم. D'Agostino 2013 ارزیابی خطر بیماری های قلبی عروقی: بینش های فرامینگام می گوید که این روش 1 است. مجموعه به معنای $M_1،\dots،M_p$ است که میانگین هر یک از عوامل خطر مطالعه جدید شما $1،\dots،p$ 2 باشد. تخمین بقای پایه فرامینگهام S_0(t)$ را با تخمین بقای Kaplan-Meier در زمان خود جایگزین کنید. t مطالعه جدید 3. احتمالات نهایی بقای مطلق $$S(t|X) = S_0(t)^{exp(\beta_1(X_1-M_1)+\dots+\beta_p(X_p-M_p))}،$ است. X دلار عوامل خطر هستند. سؤالات من: آیا این منحنی KM اساساً فرض نمیکند که میانگین بقا در کل گروه جدید برابر با خطر واقعی پایه است (در اینجا به عنوان ریسک برای یک فرد با هر عامل خطر در سطح متوسط فرض میشود) که ممکن است نباشد. مورد باشد. به عنوان مثال، اگر مجموعه داده ای با تعداد زیادی از افراد با HDL بالا دارید، میانگین شما در داده ها میانگین واقعی کل جمعیت نخواهد بود. آیا این جایگزین بهتری خواهد بود: از امتیازهای پیشبینیشده، پس از کم کردن میانگینهای هر عامل خطر، برای تشکیل یک پیشبینیکننده واحد (یک بردار) استفاده کنید، سپس رگرسیون کاکس را در دادههای جدید انجام دهید، و از exp(-hazard) در جایی که خطر از آن است استفاده کنید. survival::basehaz() برای بدست آوردن بقای پایه؟ آیا یک افست در اینجا برای جلوگیری از تنظیم مجدد پیش بینی کننده در داده های جدید مفید است (مدل را صادقانه نگه دارید). | استفاده از مدل خطرات متناسب کاکس برای داده های جدید برای به دست آوردن ریسک مطلق (امتیاز ریسک فرامینگهام) |
108077 | من یک مجموعه داده بزرگ (بیش از 300000 ردیف) با دو متغیر دارم. y دودویی و x پیوسته و عددی است. من می خواهم y را رسم کنم و منحنی صاف را در برابر x اضافه کنم. من میدانم که loess(y~x) یک راهحل است، اما از آنجایی که من مجموعه داده بزرگی دارم، اجرای آن خیلی طول میکشد، حتی اگر پارامتر 'cell' را روی 500 تنظیم کنم. با استفاده از scatter.smooth، بسیار سریعتر اجرا میشود. و من فکر می کنم از لس نیز استفاده می کند. اما در درک پارامتر ارزیابی = 50 مشکل دارم. آیا این بدان معناست که فقط از 1/50 داده برای تولید منحنی صاف استفاده می کند؟ من همچنین سعی کردم از geom_smooth استفاده کنم، به طور خودکار به method=gam تغییر می کند زیرا بیش از 1000 نقطه داده دارم. اما منحنی با منحنی که من با استفاده از scatter.smooth دریافت کردم متفاوت به نظر می رسد (من حدس می زنم که طبیعی است زیرا آنها مدل های مختلف هستند). هدف من فقط دیدن الگوی داده ها بود. از کدام روش صاف کردن استفاده کنم؟ آیا می توانم به scatter.smooth اعتماد کنم؟ تفاوت بین استفاده از لس و گام چیست؟ در زیر طرح از scatter.smooth است. خوب به نظر می رسد، اما بسیار سریعتر از () loess معمولی اجرا می شود. من مطمئن نیستم که چگونه کار می کند...  با استفاده از روش ارائه شده whuber:  هر کمکی بسیار قدردانی می شود! با تشکر | هموارسازی پراکندگی در r با مجموعه داده بزرگ: روش های مختلف |
54653 | من چندین سوال مرتبط با داده دارم که امیدوارم پاسخ آنها را بگیرم. من یک مداخله 4 هفتهای دارم (بدون گروه کنترل) و به همه شرکتکنندگان ارزیابی قبل و بعد از آزمون شامل دو معیار بسیار معتبر، معتبر و همبسته (BAI و BDI) داده میشود. در اینجا سؤالاتی وجود دارد که سعی دارم به آنها پاسخ دهم: 1. آیا تفاوت مشاهده شده در نمرات BAI / BDI بین قبل و بعد از آزمون قابل توجه است؟ 2. آیا تفاوت مشاهده شده در نمرات BAI / BDI بین قبل و بعد از آزمون به دلیل شانس است یا مداخله 4 هفته ای من؟ 3. آیا تعداد جلسات شرکتشده بر تغییر نمرات قبل و بعد از آزمون تأثیری دارد (مثلاً آیا تعداد هفتههای جادویی برای شرکت وجود دارد، آیا فقط کسانی که هر 4 جلسه را کامل کردهاند تغییرات قابل توجهی دریافت میکنند و غیره) _(توجه: من مطمئن نیستم که این یکی از روی داده ها پاسخگو باشد، اما فکر می کنم که پرسیدن در اینجا ضرری ندارد)_ 4. آیا راهی وجود دارد که بگوییم تمدید مداخله از 4 به 6 هفته می تواند تأثیر داشته باشد یا خیر. از بهبود نمرات پس آزمون؟ | برای انتخاب آزمون های آماری مناسب به کمک نیاز دارید |
107452 | من آزمایشی دارم که در آن چهار قطعه بزرگ حصارکشی شده دارم. من هر قطعه حصارکشی شده را به سه حصار کوچکتر تقسیم کردم تا سه سطح چرا داشته باشم. در هر سطح چرا، 20 نهال را زیر درختچه یا به تنهایی کاشتم. من میخواهم یک مدل آماری بسازم که در آن میکروسایت (زیر درختچه، به تنهایی) و چرا (بالا، کم، چرا نشده) متغیرهای فاکتوریل هستند که رشد نهالها را توضیح میدهند. با این حال، من باید برای شبیه سازی کاذب نیز حساب کنم، زیرا تیمارهای چرا در داخل کرت ها تودرتو هستند (نقاط تقسیم شده) و میکروسایت فاکتور در داخل تیمارهای چرا تو در تو قرار می گیرد. A من تاکنون از کتاب R Crawly متوجه شده ام که مدل من باید به این شکل باشد: model <- aov(growth~ grazingtreatment *microsite + Error (plot/ grazingtreatment / microsite)) خروجی به شرح زیر است: خطا: Terras Df Sum Sq Mean Sq GrazingTreatment 2 20.85 10.42 میکروسایت 1 38.88 38.88 خطا: Terras:GrazingTreatment Df Sum Sq Mean Sq F value Pr(>F) GrazingTreatment 2 37.24 18.621 7.256 0.0709 . Microsite 1 6.04 6.038 2.353 0.2226 GrazingTreatment:Microsite 2 7.27 3.634 1.416 0.3689 Residuals 3 7.70 2.566 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: Terras:GrazingTreatment:Microsite Df Sum Sq Mean Sq F value Pr(>F) Microsite 1 6.063 6.04010 1 ** GrazingTreatment:Microsite 2 2.185 1.093 2.057 0.18375 Residuals 9 4.780 0.531 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: در Df Sum Sq Mean Sq F مقدار Pr(>F) باقیمانده 807 302.2 0.3745 من در تفسیر مشکل دارم خروجی سوال من این است که چگونه می توان با مقایسه های پست هوک برای تیمار چرا و میکروسایت هایی که طرح تودرتو (قطعات تقسیم شده) را در نظر می گیرد، پیگیری کرد تا بررسی شود که ریز سایت ها در کدام تیمار چرا تفاوت قابل توجهی دارند. | طراحی طرح اسپلیت پست هاک |
2410 | یکی از همکاران در دفتر من امروز به من گفت: مدل های درختی خوب نیستند، زیرا توسط مشاهدات شدید گرفتار می شوند. جستجو در اینجا منجر به این موضوع شد که اساساً این ادعا را پشتیبانی می کند. که من را به این سوال سوق می دهد - در چه شرایطی یک مدل CART می تواند قوی باشد و چگونه نشان داده می شود؟ | آیا می توان مدل های CART را قوی ساخت؟ |
63901 | من از مقیاسی استفاده می کنم که از مقادیر گسسته تشکیل شده است: 0 (طبیعی)، 1 (خفیف)، 2 (متوسط)، 3 (شدید) و این مقادیر برای 4 جزء هستند. من 200 بیمار را در این مقیاس اندازه گیری کرده ام. هر بیمار دارای چهار شماره مجزا است. من قصد دارم همبستگی بین این مقیاس و برخی متغیرهای پیوسته را پیدا کنم. این متغیرهای پیوسته نیز برای 200 بیمار اندازه گیری شده است. هدف: تولید این مقادیر گسسته با یک الگوریتم یادگیری ماشینی بر اساس متغیرهای پیوسته. 1. بهترین روش برای انتخاب ویژگی (برای متغیرهای پیوسته)، همبستگی اسپیرمن چیست؟ اگر متغیرهای پیوسته با مقادیر گسسته همبستگی بالایی داشتند. یعنی باید آنها را به عنوان ویژگی در نظر بگیرم؟ 2. کدام روش طبقه بندی بهترین خواهد بود؟ 3. پیشنهاد میکنید از Weka استفاده کنم؟ | بهترین رویکرد برای همبستگی متغیرهای گسسته و پیوسته با استفاده از تکنیک یادگیری ماشینی |
93574 | فرض کنید برای برخی (بسیاری) آزمودنی ها 1 تا 6 اندازه گیری تکرار شده در طول زمان داریم، و نتیجه مقادیر بین 0 تا 23 است (بنابراین توزیع نرمال را فرض می کنیم). برای توزیع نرمال، اثرات ثابت دارای تفسیر میانگین جمعیت در یک مدل ترکیبی است. بنابراین می توانیم از مدل ترکیبی یا مدل حاشیه ای (gee) استفاده کنیم. اگر علاقه فقط به جمعیت باشد، میتوانیم از یک مدل حاشیهای استفاده کنیم، اما آیا زمانی که ما فقط به جمعیت علاقهمندیم، بهتر از یک مدل ترکیبی است؟ من فکر می کنم که با یک مدل ترکیبی از آزادی غیر ضروری زیادی استفاده کنیم؟ وقتی فقط به پارامترهای جمعیت علاقه مند است به کسی که می خواهد از مدل ترکیبی (عادی) استفاده کند، چه باید بگویم؟ | مدل مختلط خطی زمانی که علاقه فقط در جمعیت باشد |
94637 | فرض کنید من سناریوی زیر را دارم: > یک موش در پیچ و خم قرار می گیرد که به صورت زیر ساخته شده است: > >  > > آنجا 9 اتاق با اتصالات بین اتاق ها که با یک > شکاف در دیوارها نشان داده شده است. فرض کنید ماوس به صورت تصادفی در اتاقها حرکت میکند و > که انتقال خودکار مجاز است. یعنی اگر $k$ راه هایی برای خروج از اتاق > (یا ماندن در همان اتاق) وجود داشته باشد، هر یک از این ها را با احتمال > برابر انتخاب می کند. **سوال:** کسر زمانی مورد انتظار درازمدت که موش در هر اتاق می گذراند چقدر است؟ | زمان گسسته زنجیره مارکوف - فرکانس طولانی مدت |
54655 | من داده هایی دارم که در یک ماتریس 365*804 شبیه به این هستند: نمونه Variant1 Variant2 Variant3 Person1 1/0 0/0 1/1 Person2 0/1 1/1 0/0 Person3 0/0 0/0 0/0 من می خواهم برای دیدن اینکه آیا هر کدام از انواع به طور قابل توجهی با یکدیگر مرتبط هستند یا خیر. منظورم این است که اگر یکی را ببینید چقدر احتمال دارد دیگری را ببینید؟ مقادیر ممکن یا (0/0، 1/0، 0/1 یا 1/1) هستند که 1/0 و 0/1 یکسان هستند. اگر وزن دهی امکان پذیر باشد، ارزش 1/0 و 0/1 باید نصف 1/1 باشد. من ترجیح می دهم این کار را در R انجام دهم. | آیا انواع مرتبط در این ستون ها وجود دارد؟ |
58373 | فرض کنید یک توزیع تصادفی گسسته $X$ که مقادیر صحیح را در یک محدوده کوچک (اما نه باینری) می گیرد، به عنوان مثال. $[0, 255]$ و pmf واقعی آن ناشناخته است (اما، فرض صفر این است که یکنواخت است). اگر من یک نمونه بزرگ $\\{x\\}$ از این توزیع ترسیم کنم، می توانم pmf را با شمارش تعداد $x_i$ که هر مقدار را می گیرد و تقسیم بر کل تخمین بزنم. اما اگر نمونه بزرگ دیگری ترسیم کنم، به احتمال زیاد برآورد متفاوتی خواهم داشت. من میخواهم راهی برای توصیف عدم قطعیت در هر نقطه از pmf داشته باشم، در حالت ایدهآل که بتوان آن را بهروزرسانی کرد، زیرا من (یعنی رایانه) به طور مداوم نمونههای جدیدی را میکشم. به نظر میرسد که فاصلههای اطمینان برای CDF تجربی با کاری که میخواهم انجام دهم، ارتباط نزدیکی داشته باشد، اما AFAICT فقط برای توزیعهای_پیوسته اعمال میشود. | مشخص کردن عدم قطعیت در PMF تجربی توزیع تصادفی گسسته ناشناخته |
98968 | من در حال حاضر در حال نوشتن پایان نامه خود هستم و برخی از راه حل های فرم بسته را استخراج می کنم. با این حال، این راه حل ها برای استفاده در عمل باید تخمین زده شوند. بنابراین من باید توزیع های چند متغیره برخی از استوکاست ها را بدانم. فرمول یافت شده به شرح زیر است: $\frac{ \sum_{i=1}^n \sum_{j\neq i} var(\bar{c}_{i,j}) - cov( c_{i,j } , \bar{c}_{i,j} )}{ \sum_{i=1}^n \sum_{j\neq i} var( c_{i,j} - \bar{c}_{i ,j}) }$ جایی که $c_{i,j}$ به عنصر (i,j) یک ماتریس همبستگی نمونه و $\bar{c}_{i,j}$ به عنصر (i,j) امین اشاره دارد. از یک ماتریس که در آن هر عنصر خارج از قطر با میانگین عناصر غیر قطری $c_{i,j}$ جایگزین شده است. ماتریسهای $C$ (با عناصر $c_{i,j}$) و $\bar{C}$ (با عناصر $\bar{c}_{i,j}$) میتوانند به عنوان تصادفی در نظر گرفته شوند. در طول زمان من باید توزیعهایی را برای $C$ و $\bar{C}$ پیدا کنم، اما واقعاً نمیدانم چگونه با این مشکل مقابله کنم. فکر می کنم باید قضیه حد مرکزی را در جایی بیاورم تا توزیع های محدود کننده $C$ و $\bar{C}$ را تقریب بزنم..؟ من بسیار قدردان کمک خواهم بود زیرا من در مورد آمار نابغه نیستم. پیشاپیش متشکرم! | یافتن توزیع چند متغیره یک ماتریس تصادفی |
112410 | من برای ارزیابی مدل خود از تکنیک اعتبار سنجی متقابل ترک one out استفاده می کنم. اگر پیشبینی نمونه آزمایشی درست باشد، خروجی 1 در غیر این صورت 0 است. بنابراین من آرایهای از N نمونه با 0 و 1 در انتهای آن دارم. سپس این مقادیر را میانگین میکنم تا دقت پیشبینی متوسط را بدست بیاورم و انحراف استاندارد را محاسبه کنم. من میانگین را 0.6 دریافت می کنم اما انحراف استاندارد 0.5 است (که بزرگ است). اما میانگین + انحراف استاندارد بیشتر از محدوده است، آیا طبیعی است یا اشتباه است؟ خوانده ام که کنار گذاشتن، به دلیل همبستگی زیاد بین مدل ها، واریانس بالایی دارد. سوال دوم آیا آزمون معناداری وجود دارد که بتوانم روی نتایج اعتبار سنجی متقاطع انجام دهم تا آنها را ارزیابی کنم؟ | انحراف استاندارد بالا برای اعتبار سنجی متقاطع کنار گذاشته شود؟ |
94631 | با استفاده از روش احتمال جریمهشده فرث در رگرسیون لجستیک، چرا وقتی فاصله اطمینان برای برآورد شامل 1 است، میتوانید مقدار p برابر 05/0 را دریافت کنید؟ کد: PROC LOGISTIC DATA= مدل PLOTS(ONLY)=effectplot OUTMODEL=fq2; نتیجه مدل (EVENT='1')= variable1 variable2 /FIRTH CLODDS=pl CLPARM=pl; OUTPUT OUT= تخمین زده شده PREDICTED=estprob L=lower95 u=upper95 STDRESDEV=res; اجرا؛ تحت خروجی SAS با عنوان تحلیل برآوردهای حداکثر احتمال مجازات، مقدار p من برای متغیر 1 0.0464 است، اما حد اطمینان 95٪ من در برآوردهای نسبت شانس و فواصل اطمینان نمایه-احتمال 0.39-1.041 است. . این چگونه ممکن است؟ ETA: به نظر میرسد که SAS مقادیر p مربوط به آزمونهای نسبت درستنمایی مجازاتشده را محاسبه نمیکند. یک ماکرو موجود [اینجا] (http://cemsiis.meduniwien.ac.at/en/kb/science-research/software/statistical- software/fllogistf/) یک مقدار p متناظر متفاوتی را ارائه میکند (که درست به نظر میرسد). | فواصل اطمینان احتمالی پروفایل SAS و مقادیر p - چرا اختلاف وجود دارد؟ |
54651 | من یک مجموعه داده دارم که میخواهم آن را بر اساس $$\log(y) = a + b_1\log(x_1) + b_2\log(x_2) +\cdots + b_k\log (x_k) متناسب کنم. $$ بسته آماری من گزینه هایی برای انجام رگرسیون خطی و لگ نرمال دارد. من مطمئن نیستم که کدام یک را انتخاب کنم. | آیا مدل های log-log همانند مدل های lognormal هستند؟ |
104908 | من داشتم مقاله ویکیپدیا در مورد معادلات تخمین تعمیمیافته را میخواندم، در آنجا به جمله زیر برخوردم: > تخمینهای پارامتر از GEE حتی زمانی که ساختار کوواریانس نادرست مشخص شده باشد، در شرایط منظمی ملایم، سازگار است. در این زمینه، منظور از _شرایط منظم بودن خفیف_ چیست؟ | شرایط ملایم منظم در زمینه GEE چیست؟ |
58371 | فرض کنید به من دو گروه اندازه گیری جرم (به میلی گرم) داده می شود که به آنها y1 و y2 می گویند. من میخواهم آزمایشی انجام دهم تا مشخص شود آیا این دو نمونه از جمعیتهایی با میانگینهای متفاوت گرفته شدهاند یا خیر. چیزی شبیه به این برای مثال (در R): y1 <- c(10.5،2.9،2.0،4.4،2.8،5.9،4.2،2.7،4.7،6.6) y2 <- c(3.8،4.3،2.8،5.0،9.3، 6.0،7.6،3.8،6.8،7.9) t.test (y1،y2) I مقدار p 0.3234 را دریافت کنید و در سطح معنی داری 0.05 فرضیه صفر را رد نکنید که دو گروه از جمعیت هایی با میانگین یکسان گرفته شده اند. اکنون برای هر اندازه گیری عدم قطعیت هایی به من داده می شود: u1 <- c(2.3،1.7،1.7،1.7،2.0،2.2،2.1،1.7،2.3،2.2) u2 <- c(2.4،1.8،1.6،2.3،2.5،1.8 ,1.9،1.5،2.3،2.3) که در آن u1[1] استاندارد ترکیبی است عدم قطعیت در اندازه گیری y1[1] (و غیره). چگونه می توانم این عدم قطعیت ها را در آزمون آماری بگنجانم؟ | آزمون های آماری که عدم قطعیت اندازه گیری را در بر می گیرند |
3313 | من یک کتابخانه S-Plus دارم که می خواهم آن را به R تبدیل کنم. من یک برنامه نویس هستم، اما چیزی در مورد S-Plus یا R نمی دانم. از تحقیقات من به نظر می رسد که آنها بسیار سازگار هستند. آیا این درست است؟ کدی که می خواهم تبدیل کنم فقط از کتابخانه های هسته S-Plus استفاده می کند. من تصویری از کتابخانه را که در S-Plus 8.0 Object Explorer دیده می شود پیوست کرده ام. علاوه بر فایلهای منبع تابع، چند ورودی وجود دارد که من مطمئن نیستم چگونه آنها را به R منتقل کنم. برای مثال 5 مورد آخر (oneDay، ...)، که به نظر میرسد نوعی متغیر جهانی هستند و مقادیر خاصی دارند. به آنها معادل آنها در R چیست؟  | تبدیل کتابخانه از S-PLUS 8.0 به R چقدر سخت است؟ |
108079 | انجام یک «تحلیل توان» برای محاسبه «حداقل حجم نمونه»، به ویژه در R که محیط محاسباتی آماری ترجیحی من است، معمولاً ساده است. با این حال، از من خواسته شده است که یک تحلیل قدرت انجام دهم که کمی متفاوت از هر کاری است که انجام دادهام یا میتوانم به آن مرجع آنلاین بیابم. من نمی دانم که آیا آنچه از من خواسته می شود حتی ممکن است/معتبر است. این پروژه اساساً دارای دو حالت «گروه نابرابر» است و فرضیه این است که این دو گروه از نظر متغیر نتیجه (که مدت زمان تماس تلفنی با مشتریان است) به طور قابل توجهی متفاوت هستند. گروه کنترل متشکل از 40 ایالت است و حدود 2500 مشاهده انجام داده است. گروه آزمون حدود 10 حالت و 500 مشاهده دارد. در ابتدا، گروه «میانگین» \+ «انحراف استاندارد ترکیبی» را پیدا کردم که برای محاسبه «اندازه اثر» از آن استفاده کردم. سپس از بستهای به نام «pwr» در «R» استفاده کردم و دریافتم که به حداقل اندازه نمونه حدود 135 مشاهده در هر گروه، با توجه به اهمیت 0.05 و توان 0.8 نیاز دارم. با این حال، آنها پاسخ من را رد کردند زیرا میخواهند یک گروه از گروه دیگر بسیار بزرگتر باشد مانند آنچه که اکنون است، و انتظار دارند یا دو حداقل تعداد مشاهدات مختلف در هر گروه یا حداقل درصد جمعیت از نظر تعداد ایالتها و یا مشاهداتی که باید در گروه آزمون خود قرار گیرند. من برای دو نمونه t-test (یعنی تابع R pwr.t2n.test) Power Analyses را می بینم، اما باید حداقل یکی از اندازه های نمونه را مشخص کنم، در حالی که آنها می خواهند حداقل اندازه نمونه را به آنها بگویم. هر دو گروه (اعم از اعداد یا درصد) و این تابع تفاوتهای انحراف معیار را برای دو گروه نشان نمیدهد. آیا این امکان پذیر است یا من فقط به آنها می گویم که این روش کار نمی کند (یعنی بهترین کاری که می توانم انجام دهم این است که به آنها بگویم با توجه به یکی از اندازه های نمونه و یک انحراف استاندارد جمع شده، گروه دوم باید حداقل اندازه خاصی داشته باشد)؟ | آیا می توانم برای گروه های اندازه نابرابر که 2 حداقل n متفاوت تولید می کند، یک تحلیل توان آزمون t انجام دهم؟ |
1829 | من معمولا در مورد حداقل مربع های معمولی می شنوم. آیا این پرکاربردترین الگوریتم مورد استفاده برای رگرسیون خطی است؟ آیا دلایلی برای استفاده از یکی دیگر وجود دارد؟ | چه الگوریتمی در رگرسیون خطی استفاده می شود؟ |
2934 | من داده های توزیعی دارم که آنها را به عنوان چگالی نشان می دهم. دادهها فرکانسهای فعالیتهای کاربر را بر روی صفحه رایانه نشان میدهند (مثلاً میزان کلیک روی محور y یا x آن صفحه، اما همچنین فعالیتهای دیگری که میتوانند به مختصات مرتبط باشند و بنابراین میتوانند توسط آن مختصات باند شوند (مثلاً 5 پیکسل bin) ). من می خواهم دو نوع از آن رفتار را با هم مقایسه کنم و بفهمم که توزیع آنها چقدر سازگار است. خیلی کلی هیچ فرضی وجود ندارد من نمی توانم شرایط پارامتری مانند خطی بودن یا نرمال بودن را فرض کنم. من در مورد منحنیهای لورنز و ضریب جینی مطالعه کردم تا بسیار شبیه آنچه برای مقایسه توزیعها نیاز دارم باشد، اما همچنین میدانم که این روشها عمدتاً برای مسائل اقتصادی و جامعهشناختی کاربرد دارند و معمولاً برای توزیعهای عمومی استفاده نمیشوند. آیا از ابزار اشتباهی برای کار استفاده می کنم؟ نظر شما در این مورد چیست؟ برای اینکه بفهمید دو توزیع چقدر شبیه هم هستند چه جایگزین هایی را پیشنهاد می کنید؟ | استفاده از منحنی لورنز / ضریب جینی برای داده های توزیع (غیر اقتصادی). |
58379 | فرآیند دیریکله، فرآیندهای پیتمن یور و انواع آنها انواع خاصی از توزیعها هستند که دامنه آنها در قفسههای یک توزیع هستند. آیا نامی برای اشاره به این توزیع ها به طور کلی وجود دارد؟ چه توزیع های دیگری همین ویژگی را دارند؟ | توزیعهایی که دامنهشان در قفسههایشان است، یک توزیع را در اختیار دارند |
91366 | من داده ای دارم که از توزیع گاما پیروی می کند و می خواهم عدم قطعیت پارامترهای این داده را بدانم. * $\text{Data} \sim \text{Gamma} (\alpha, \beta)$ * پارامترهای $\alpha \sim \text{Gamma} (k_\alpha، \theta_\alpha)$ $\beta \sim \text{Gamma}(k_\beta، \theta_\beta)$ من از Winbugs استفاده کردم (کد زیر). model{ for (i در 1:N){ Y[i] ~ dgamma(k، تتا) } k ~ dgamma(0.1, 0.1) theta ~ dgamma(0.1، 0.1) } 1. برای ترسیم احتمال از یک یکنواخت استفاده کردم پیش از آن، پسین را بر پیشین تقسیم می کنیم که پسین را همان احتمال می کند. (شکل 1)  2. بعد چندین بار قبلی را تغییر دادم و دیدم چه اتفاقی می افتد، اما مشکل زمانی است که احتمال را ترسیم کردم با تقسیم پسین بر قبلی، احتمال تغییر می کند که نباید، هر زمان که قبلی را تغییر می دهم. (شکل 2، 3)   سؤال آیا ممکن است که احتمال تغییر با تغییر قبلی تغییر کند؟ کسی میتونه کمکم کنه مشکل چیه؟ اگر قبلی خیلی باریک باشد، آیا احتمال اشتباه وجود دارد؟ | آیا با تغییرات قبلی می توان احتمال را تغییر داد؟ |
83147 | من دو glm دارم، یکی با پیوند توزیع و هویت گاوسی و یکی با پیوند خانواده گاما و لاگ. پیشبینیکنندهها یکسان هستند، تنها چیزی که تغییر میکند پاسخی است که در glm گاوسی تبدیل به log است و در glm گاما نه. انحراف در مدل دوم کمتر است و هنگام ترسیم باقیمانده ها، مدل دوم بسیار بهتر از مدل اول به نظر می رسد. با این حال، هنگام نگاه کردن و AIC، مدل اول نصف AIC دومی دارد! چگونه ممکن است؟ آیا مقایسه AIC glm با خانواده های توزیع مختلف اشتباه است؟ خلاصه (mod1) فراخوانی: glm (فرمول = log_RS ~ DIET + log_Disp + log_II + log_LS + log_SM + log_AS + log_LONG، خانواده = گاوسی) باقیماندههای انحراف: حداقل 1Q Median 3Q Max -5.1050 -0.36-5.1050 0.6-5.1050. 1.3012 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 1.061888 0.008574 123.856 < 2e-16 *** DIETOH -0.077913 0.012762 -6.105 1.07e-09 *** 1.07e-09 *** 15.609.609. 219.822 < 2e-16 *** log_II -0.422808 0.006786 -62.310 < 2e-16 *** log_LS 0.325270 0.006093 53.382 < 2e-16 -0.422808 0.006786 -0.708 log_LS -32.048 < 2e-16 *** log_AS 0.185077 0.010166 18.205 < 2e-16 *** log_LONG 0.067347 0.010494 6.418 1.45e-10 *** --- Sign کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاوسی 0.3246263 گرفته شده است) انحراف صفر: 24060.5 در 9345 درجه انحراف 31:4 9338 درجه آزادی AIC: 16018 تعداد تکرارهای امتیازدهی فیشر: 2 > خلاصه (mod2) فراخوانی: glm(فرمول = RS ~ DIET + log_Disp + log_II + log_LS + log_SM + log_AS + log_LONG، خانواده = گاما (پیوند = log resuals) : حداقل 1Q میانه 3Q حداکثر -2.94338 -0.35264 -0.00239 0.27669 1.40915 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 1.186181 0.006435 184.332 < 2e-16 *** DIETOH -0.075002 0.009579 -7.830 5.41e-15 *** 1.5.20.4 1.5.20.4. 294.104 < 2e-16 *** log_II -0.364580 0.005093 -71.585 < 2e-16 *** log_LS 0.306213 0.004573 66.955 < 2e-16 -0.364580 2e-16 -0.2030 log. -37.216 < 2e-16 *** log_AS 0.156994 0.007630 20.575 < 2e-16 *** log_LONG 0.053129 0.007876 6.745 1.62e-11 *** --- Sign کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاما 0.1828775 در نظر گرفته شده است) انحراف صفر: 23484.5 در 9345 درجه آزادی: انحراف باقیمانده 43 9338 درجه آزادی AIC: 33167 تعداد تکرارهای امتیازدهی فیشر: 8 > | AIC با بررسی مدل موافق نیست |
81282 | من مجموعهای از مقالهها را بررسی کردهام که هر کدام میانگین مشاهدهشده و SD اندازهگیری X$ را در نمونه مربوطه با اندازه شناخته شده، $n$ گزارش میکنند. من میخواهم بهترین حدس ممکن را در مورد توزیع احتمالی همان اندازهگیری در مطالعه جدیدی که دارم طراحی میکنم، و میزان عدم قطعیت در این حدس وجود دارد. من خوشحالم که $X \sim N(\mu, \sigma^2$) را فرض کنم. اولین فکر من متاآنالیز بود، اما مدلها معمولاً بر تخمینهای نقطهای و فواصل اطمینان مربوطه تمرکز میکردند. با این حال، میخواهم در مورد توزیع کامل $X$ چیزی بگویم، که در این مورد شامل حدس زدن در مورد واریانس، $\sigma^2$ نیز میشود. من در مورد رویکردهای احتمالی Bayeisan برای تخمین مجموعه کامل پارامترهای یک توزیع معین در پرتو دانش قبلی مطالعه کرده ام. این به طور کلی برای من منطقی تر است، اما من تجربه ای با تحلیل بیزی ندارم. به نظر می رسد این نیز یک مشکل ساده و نسبتاً ساده برای بریدن دندان های من باشد. 1) با توجه به مشکل من، کدام رویکرد منطقی تر است و چرا؟ متاآنالیز یا رویکرد بیزی؟ 2) اگر فکر می کنید رویکرد بیزی بهترین است، آیا می توانید راهی برای پیاده سازی آن (ترجیحاً در R) به من نشان دهید؟ سوال مرتبط ویرایشها: من سعی کردهام این موضوع را به شیوهای «ساده» بیزی حل کنم. همانطور که در بالا بیان کردم، من فقط به میانگین تخمینی، $\mu$ علاقه مند نیستم، بلکه به واریانس $\sigma^2$ نیز در پرتو اطلاعات قبلی، یعنی $P(\mu، \sigma^2| Y) $ باز هم، من در عمل چیزی در مورد بایانیزم نمی دانم، اما طولی نکشید که متوجه شدم قسمت خلفی یک توزیع نرمال با میانگین و واریانس ناشناخته دارای راه حل شکل بسته از طریق مزدوج است، با توزیع گاما معکوس نرمال مشکل به صورت $P(\mu, \sigma^2|Y) = P(\mu|\sigma^2, Y)P(\sigma^2|Y)$ دوباره فرموله شده است. $P(\mu|\sigma^2, Y)$ با توزیع نرمال تخمین زده می شود. $P(\sigma^2|Y)$ با توزیع گاما معکوس. مدتی طول کشید تا سرم را درگیر کنم، اما فکر میکنم از طریق این پیوندها (1، 2) توانستم نحوه انجام این کار را در R مرتب کنم. من با یک قاب داده که از یک ردیف برای هر یک ساخته شده بود شروع کردم. از 33 مطالعه/نمونه، و ستون برای میانگین، واریانس، و حجم نمونه. من از میانگین، واریانس و حجم نمونه از مطالعه اول در ردیف 1 به عنوان اطلاعات قبلی استفاده کردم. سپس این را با اطلاعات مطالعه بعدی بهروزرسانی کردم، پارامترهای مربوطه را محاسبه کردم و از گامای معکوس نرمال نمونهبرداری کردم تا توزیع $\mu$ و $\sigma^2$ را بدست بیاورم. این تا زمانی که تمام 33 مطالعه گنجانده شوند، تکرار می شود. # مقادیر شروع حلقه مقادیر i <- 2 k <- 1 # نتایج به اینجا بروید muL <- list() # میانگین توزیع میانگین تخمینی varL <- list() # واریانس توزیع میانگین تخمینی nL <- list() # اندازه نمونه eVarL <- list() # میانگین توزیع واریانس تخمینی distL <- list() # نمونه برداری 10k بار از میانگین و توزیع واریانس # موارد قبلی، از مطالعه ردیف 1 قاب داده muPrior <- bayesDf[1, 14] # میانگین شروع nPrior <- bayesDf[1, 10] # اندازه نمونه شروع varPrior <- bayesDf[1, 16]^2 # واریانس شروع برای (i در 2:nrow(bayesDf)){ # داده جدید، آمار کافی برای تخمین پارامتر مورد نیاز muSamp <- bayesDf[i, 14] # میانگین nSamp <- bayesDf[i, 10] # اندازه نمونه sumSqSamp <- bayesDf[i, 16]^2*(nSamp-1) # مجموع مربعات (واریانس) * (n-1)) # پستی nPost <- nPrior + nSamp muPost <- (nPrior * muPrior + nSamp * muSamp) / (nPost) sPost <- (nPrior * varPrior) + sumSqSamp + ((nPrior * nSamp) / (nPost)) * ((muSamp - muPrior)^2) varPost < - sPost/nPost bPost <- (nPrior * varPrior) + sumSqSamp + (nPrior * nSamp / (nPost)) * ((muPrior - muSamp)^2) # به روز رسانی muPrior <- muPost nPrior <- nPost varPrior <- varPost # فروشگاه muL[[i]] <- muPost varL [[i]] <- varPost nL[[i]] <- nPost eVarL[[i]] <- (bPost/2) / ((nPost/2) - 1) # نمونه muDistL <- list() varDistL <- list() برای (j در 1:10000){ varDistL[[j ]] <- 1/rgamma(1، nPost/2، bPost/2) v <- 1/rgamma(1، nPost/2، bPost/2) muDistL[[j]] <- rnorm(1, muPost, v/nPost) } # Store varDist <- do.call(rbind, varDistL) muDist <- do.call(rbind, muDistL) dist <- as.data.frame(cbind(varDist, muDist)) distL[[k]] <- dist # Advance k <- k+1 i <- i+1 } var <- do.call(rbind, varL) mu <- do.call(rbind, muL) n <- do.call(rbind, nL) eVar <- do. call(rbind, eVarL) normsDf <- as.data.frame(cbind(mu, var, | ترکیب اطلاعات از مطالعات متعدد برای تخمین میانگین و واریانس دادههای توزیع شده نرمال - رویکردهای بیزی در مقابل متا تحلیلی |
48713 | من در حال انجام یک کار تحقیقاتی هستم که نیاز به محاسبه احتمال دارد. اگر جامعه متقابل فرمولی را که من با استفاده از ایده رشتههای باینری به دست آوردهام و به دنبال پاسخی عالی توسط whuber به این سؤال، تأیید کند، سپاسگزار خواهم بود. اما من واقعا از شما بابت این موضوع طولانی معذرت می خواهم! در طراحی خود، من قصد دارم یک بیمار را به خط مشی درمانی B1 یا سیاست درمانی B2 بر اساس زمان بهبودی که در روز اندازه گیری می شود، اختصاص دهم. مثلاً در مجموع $mn^2$ مشاهدات وجود دارد. برای تصویر زیر $m=2$ و $n=4$. بیماران $mn^2$ را به طور تصادفی به گروههای $m$ با اندازه $n^2$ تقسیم میکنیم و سپس بیماران $n^2$ را مجدداً به $n$ بلوکهای هر کدام دارای $n$ مشاهدات تصادفی میکنیم. همه اینها مانند تقسیم بیماران $mn^2$ به بلوک های $mn$ با اندازه $n$ است. سپس بیمارانی را با کمترین زمان بهبودی در بلوک 1، 2 کوچکترین در بلوک 2، 3 کوچکترین در بلوک 3 تا بزرگترین بلوک n (در اینجا n=4) به درمان B1 اختصاص می دهیم. به همین ترتیب ما بیماران را به درمان B2 اختصاص می دهیم.  اکنون داده های اصلی ممکن است حاوی مشاهدات مرتبط باشند. بنابراین میخواستم پاسخ whuber را برای موردی که $x_1<=x_2<=\ldots<=x_n$ ممکن است، گسترش دهم. در اینجا $x_i$ زمانهای بهبودی است که ممکن است مشاهدات مرتبط داشته باشند یا نداشته باشند. این بار می خواهم احتمال تخصیص $x_i$ به درمان B1 را محاسبه کنم. **بنابراین، تعمیم من این است:** بعد از اینکه داده ها را در «R» مرتب کردیم، اجازه دهید نمادهای زیر را تعریف کنیم: $r1$=تعداد مشاهدات مرتبط که قبل از $x_i$ در داده های مرتب شده قرار می گیرند $r2$= تعداد مشاهدات مرتبطی که بعد از $x_i$ در داده های مرتب شده قرار می گیرند $p$=تعداد مشاهدات در رشته باینری (لطفاً به پاسخ whuber که قبلاً ذکر شد مراجعه کنید) که در مکان های $r1$ قبل از $x_i$ قرار می گیرند. $q$=تعداد یکهایی در رشته باینری که در مکانهای $r2$ بعد از $x_i$ قرار میگیرند. $k$ نشان دهنده ترتیب $x_i$ در بلوک RSS است. بنابراین وقتی، $r1=r2=0$، سپس $p=q=0$ و $(p+1+q)$=تعداد مشاهدات مرتبط به همراه $x_i$ در بلوک RSS. با این نمادها طبق محاسبات من، احتمال اینکه $x_i$ B1 را دریافت کند توسط-$prob(i)=\sum_{k=1}^{n}\frac{\sum_{p=0}^{ داده می شود. min(r1,n-1)}\sum_{q=0}^{min(r2,n-1-p)} \dbinom{i-r1-1}{k-1-p} \dbinom{r1}{p} \dbinom{r2}{q} \dbinom{mn^{2}-i-r2}{n-k-q}}{\dbinom{mn^2}{n}}$ > از آنجایی که هر RSS بلوک ممکن است حاوی مشاهدات گره خورده به $x_i$ باشد و سپس همه > مشاهدات گره خورده احتمال انتخابی مشابه > k-امین کوچکترین بلوک RSS (با احتمال) را داشته باشند. $1/(p+1+q)$، حدس میزنم)، > پس آیا نیاز به تنظیم دارم؟ اگرچه مجموع احتمالات (بیش از > همه $i$) k-امین کوچکترین بلوک RSS به نظر می رسد 1 > همیشه باشد که قانون کل احتمال است. **برای نسل بعدی...** آیا کسی می تواند به من پیشنهاد دهد که اگر سانسور وجود داشت و من $C_i$ داشتم، زمان سانسور برای هر مشاهده، پس چه تنظیمی در فرمول باید انجام شود؟ | احتمال قرار گرفتن در یک مجموعه رتبه بندی شده نمونه |
101288 | من یک سیستم دینامیکی خطی مانند مدل گرافیکی زیر دارم:  هر متغیر تصادفی یک اسکالر است. ما $B$ و $x_1$ را پیشینی می دانیم. $A$ از گاوسی می آید، واریانس $R$ و $Q$ از توزیع گامای معکوس می آید. یک $N$ حالت های پنهان وجود دارد. $x_{1:N}$ و $N$ مشاهدات. $y_{1:N}$. تراکم انتقال و انتشار حالت گاوسی است با: $$ x_t \sim N(x_t|Ax_{t-1},R) $$ $$ y_t \sim N(y_t|Bx_{t},Q) $$ خواسته برای محاسبه توزیع پسین $x_t$ با توجه به همه متغیرهای دیگر است. من محاسبات را به موارد زیر رساندم: $$ P(x_t|x_{1:t-1},x_{t+1:N},y_{1:N},A,R,B,Q) = \frac{N(x_t|Ax_{t-1},R)N(y_t|Bx_t,Q)N(x_{t+1}|Ax_{t},R)}{\int_{-\in fty}^{\infty}N(x_t|Ax_{t-1},R)N(y_t|Bx_t,Q)N(x_{t+1}|Ax_{t},R)dx_t} $$ $$ \propto \exp\left(\frac{-(A^2Q+Q+RB^2)}{2RQ}\left(x_t - \frac{AQx_{t-1}+AQx_{t+1 }+RBy_t}{A^2Q+Q+RB^2}\right)^2\right) $$ اگر همه محاسبات را به درستی انجام داده باشم، به نظر می رسد قسمت نمایی توزیع گاوسی اکنون آنچه من تعجب می کنم این است که آیا نمونه برداری از این گاوسی معادل نمونه برداری از کامل خلفی $P(x_t|x_{1:t-1},x_{t+1:N},y_{1:N},A است ,R,B,Q)$، از آنجایی که این گاوسی نهایی تنها تا یک ثابت نرمال کننده برابر است. اگر پاسخ مثبت است، چگونه ممکن است که توزیع ها دقیقاً مساوی و فقط متناسب نیستند؟ پیشاپیش ممنون | ساخت گاوسی از توزیع خلفی |
99616 | من اطلاعاتی در مورد شرط بندی های متوالی انجام شده توسط مشتریان دارم. میخواهم ببینم که آیا با هر شرط بعدی تغییر آماری معنیداری در شرط شرط وجود دارد یا خیر. داده ها منحرف هستند، بنابراین من تمام شرط های اولیه را با 1 برابر کرده ام. پس از آن، تغییر متناسب در شرط شرط را محاسبه می کنم. بنابراین اگر کسی شرط اول 15 و شرط سوم 30 داشته باشد، ارزش شرط در شرط سوم 2.00 را نشان می دهد. برای یک سری از گروهها، من میانگین شرط استاندارد شده را در دور دوم، سوم و چهارم شرطبندی نشان میدهم. اگرچه داده ها کاملاً منحرف هستند، من از آزمون t برای آزمایش اینکه آیا تفاوت آماری معنی داری بین این میانگین و 1 وجود دارد (یعنی هیچ تغییری در اندازه شرط از زمان شرط اولیه وجود ندارد) استفاده کرده ام. با توجه به کج بودن داده ها، من می خواهم یک تست ناپارامتریک نیز انجام دهم، اما با میانه و تست میانه یک نمونه مشکل دارم. اگرچه برای بسیاری از گروهها میانگین 1 است، آزمون میانه تفاوت آماری معنیداری را با 1 نشان میدهد. برای مثال، یک گروه تقریباً 4000 مشاهده دارد که 1800 مورد آن تساوی/صفر یا دقیقاً برابر با 1 است. هنگام انجام رتبه علامت ` آزمایش، 1800 مشاهده ما را به عنوان صفر نشان می دهد، در حالی که از 2200 مشاهده باقی مانده، 200 عدد مثبت بیشتر وجود دارد. منفی است، بنابراین نتیجه آزمون میانه یک نمونه بسیار معنی دار است. درست به نظر نمی رسد. آیا اصلاً باید از آزمون signrank برای این کار استفاده کنم؟ آیا آزمایش دیگری مناسب تر است؟ | آزمون میانه یک نمونه:: Signrank نامناسب به نظر می رسد |
18585 | من می خواهم تأثیر یک مداخله را با استفاده از شکل سری های زمانی یا برخی تکنیک های مرتبط (مانند رگرسیون تقسیم شده) اندازه گیری کنم. من می خواهم از نظرسنجی مدارس و کارکنان استفاده کنم، که متغیر مورد علاقه من را در طول زمان ارزیابی می کند، با این حال، پاسخ دهندگان در هر مقطع زمانی متفاوت هستند. من فرض می کنم که پاسخ دهندگان مختلف برای این نوع تحلیل مشکلی را ارائه می دهند. آیا کسی می تواند تکنیک دیگری را پیشنهاد کند که به من امکان می دهد تأثیر مداخله را بسنجم؟ | سری های زمانی با متغیرهای یکسان اما پاسخ دهندگان متفاوت |
48718 | من دادههای کارآزمایی سرطان سینه را دارم که در آن، برای زیر گروههای 1 و 2، دو گروه درمانی در حال مقایسه هستند. نتایج عبارتند از: * برای **زیرگروه 1**، «N=33»، میانگین بقا در «trt1=10mo»، میانگین بقا در «trt2=5.7mo»، p-value برای تفاوت`=0.18`. * برای **زیرگروه 2**، «N=16»، میانگین بقا در «trt1=10mo»، میانگین بقا در «trt2=5.5mo»، p-value برای تفاوت`=0.003`. چگونه p-value برای زیرگروه 2 با N کوچکتر و سیستم عامل متوسط در هر دو زیرگروه مشابه است؟ | مقادیر p Kaplan-Meier |
29396 | فرض کنید شما 40 کتاب مختلف دارید (20 کتاب ریاضی، 15 کتاب تاریخ و 5 کتاب جغرافیا). اجازه دهید M = کتاب های ریاضی، H = کتاب های تاریخ، G = کتاب های جغرافیا. احتمال اینکه کتابهایی را حداکثر از دو رشته انتخاب کرده باشید چقدر است؟ می دانم که این اساسی است، اما... روشی که من به این مشکل نزدیک شده ام این است: تنها راهی که می توانید حداکثر دو رشته داشته باشید این است که 1 داشته باشید. { H H M M G } 2. { H H G G G M } 3. { G G M M H } پس پاسخ من دریافت کردم: $$ \left(\left(\frac{15}{40}\right)^2\cdot\left(\frac{20}{40}\right)^2\cdot\left(\frac{5}{40} \راست)\راست) + \left(\left(\frac{15}{40}\right)^2\cdot\left(\frac{5}{40}\right)^2\cdot\left(\frac{20}{40} \راست)\راست) + \left(\left(\frac{5}{40}\right)^2\cdot\left(\frac{20}{40}\right)^2\cdot\left(\frac{15}{40} \right)\right) $$ من احساس می کنم که این مشکل را اشتباه انجام می دهم. آیا راه ساده تری برای این کار وجود دارد؟ من سعی کردم این کار را با ترکیبات انجام دهم، اما جنبه با جایگزینی من را کمی پرت کرد. من احساس میکنم که نظم نباید در اینجا مهم باشد، اما نمیدانم اینطور است یا خیر. هر گونه کمکی قدردانی خواهد شد! با تشکر | نمونه برداری با جایگزینی |
104904 | من یک AMELIA را برای مجموعه داده ای از جمله داده های از دست رفته اجرا کرده ام. من باید نقطه گم شده را با نتیجه amelia() جایگزین کنم. اما حاوی 5 گروه از مقادیر منتسب است. چگونه می توانم بهترین را برای جایگزینی مقادیر از دست رفته انتخاب کنم (برای رسم نموداری از مجموعه داده ها پس از وارد کردن) | نحوه جایگزینی داده های از دست رفته از نتایج AMELIA |
18580 | من در تجزیه و تحلیل داده ها تازه کار هستم. من متعجب بودم که چگونه می توانم رشد هیپ (جعلی) و رشد دهان به دهان (واقعی) در Google Trends را به طور خاص تشخیص دهم (اما حدس می زنم که حتی برای بازارهای سهام و بقیه موارد نیز صدق می کند). برای مثال، هنگام جستجوی «iPhone»، تصویر زیر بر اساس نمودار Google Trends است:  _(نارنجی، سرخابی، و حاشیه نویسی سبز به نسخه اصلی اضافه شد.)_ | چگونه تبلیغات تبلیغاتی را از تبلیغات دهان به دهان در Google Trends متمایز کنیم؟ |
99610 | من داده های بقا با بیان RNA دارم. بسیاری از داده ها سانسور شده است. آیا بسته R وجود دارد که مدل خطرات متناسب را انجام دهد که در آن تعداد متغیرهای کمکی بسیار بیشتر از تعداد نمونه ها باشد؟ تنها چیزی که من پیدا کردم گلکوکسف بود. آیا دیگران وجود دارند؟ | بسته R برای مدیریت بیان ژن و مدل خطرات متناسب |
62748 | پاسخ به این سوال ممکن است بسیار ساده باشد، اما به دلایلی اکنون مدتی است که سرم را به دیوار می کوبند. برای من، به نظر می رسد که $f_{X,Y}(X,Y)$ همان $f_{X,Y|X}(X,Y|X)$ است، اما من نمی توانم تا پایان عمر من متوجه می شوم که چگونه آن را نشان دهم اما در عین حال، اگر آن دو توزیع مشترک یکسان بودند، آیا این بدان معنا نیست که $X$ و $Y|X$ مستقل هستند؟ که قطعا به نظرم میرسه پیشاپیش متشکرم | آیا $f_{X,Y}(X,Y)$ با $f_{X,Y|X}(X,Y|X)$ یکسان است |
631 | اگر بتوان نرمال بودن داده ها را فرض کرد، برآورد کننده انحراف معیار انحراف معیار چیست؟ | انحراف معیار انحراف معیار |
23136 | من به دنبال مجموعه داده های 2 دیتاپوینت بعدی (هر نقطه داده بردار دو مقدار (x,y)) به دنبال توزیع ها و اشکال مختلف هستم. کد برای تولید چنین داده هایی نیز مفید خواهد بود. من می خواهم از آنها برای ترسیم / تجسم نحوه عملکرد برخی از الگوریتم های خوشه بندی استفاده کنم. در اینجا چند نمونه آورده شده است: * ستاره مانند داده های ابر * چهار خوشه، یکی به راحتی قابل جدا شدن * یک مارپیچ (بدون خوشه) * یک حلقه * دو ابر به سختی جدا شده * دو خوشه موازی که یک مارپیچ را تشکیل می دهند * ... و غیره | به دنبال داده های مصنوعی دو بعدی برای نشان دادن ویژگی های الگوریتم های خوشه بندی |
29390 | من یک مدل خطی تعمیم یافته (رگرسیون شبه پواسون) را به عنوان کار cron در R اجرا می کنم که بر روی داده های یک پرس و جوی SQL آموزش می دهد. پرس و جوی SQL داده های 30 روز گذشته را جمع آوری می کند. بسته به نمونه داده های 30 روز گذشته، البته ضرایب رگرسیون تغییر می کند. در نتیجه، من ضرایب رگرسیون تولید شده در R را در جدول SQL با سال/ماه/روز به عنوان کلید اصلی می نویسم. بنابراین، من می توانم تغییر روزانه در ضرایب رگرسیون را بر اساس داده های 30 روز اخیر ببینم. سوال من این است: چگونه تغییر ضرایب رگرسیون را در طول زمان به بهترین شکل تفسیر کنم؟ اگر بتوانم یک نمای کلی از تکنیک ها ببینم، امیدوارم بتوانم با توجه به داده هایم، مناسب ترین روش را پیدا کنم. هدف من کاهش RMSE یک مدل پیش بینی است. متغیر پاسخ تعداد رویدادها در فاصله 30 روزه از زمان فعلی است. من چندین پیش بینی دارم، از جمله شرایط تعامل. ویرایش: فقط پرس و جوی داده های 30 روز گذشته الزامی نیست. من به سادگی میخواهم دادهها را در زمان به شدت نزدیکتر کنم. یک رگرسیون وزنی گسسته (روزها، در این مورد) روی همه داده ها احتمالا ایده آل خواهد بود. | ایجاد پویا ضرایب رگرسیون و ردیابی تغییر آنها در طول زمان |
29398 | من در حال خواندن کتاب _خوب به عالی_ نوشته جیم کالینز بودم. می گوید که باید روی اطلاعاتی تمرکز کنید که «نمی توان آنها را نادیده گرفت» و باید روی «مخرج» درست تمرکز کنید. فکر کردم خوب است که «متوسط نرخ رشد به ازای هر نهاد تولیدکننده» را اندازه گیری کنم. اگر ما ارزش و پشتیبانی ارائه می کنیم، انتظار داریم که به آنها کمک کنیم تولید بیشتر کنند. من داده های تولید را در یک صفحه گسترده اکسل دارم که می توانم آنها را خلاصه کنم. من در درجه اول از جدول محوری برای تجزیه و تحلیل داده های خود استفاده می کنم. من می دانم که شما می توانید درصد تغییر نسبت به دوره زمانی قبلی را انجام دهید، اما من در سال اول با تحریفات مواجه می شوم، زمانی که مردم دوره کاملی برای تولید ندارند. همچنین نمی دانم چگونه آن را خلاصه کنم. آیا برنامه بهتری هست که برای این کار استفاده کنم؟ آیا راه خوبی برای انجام این کار در اکسل وجود دارد؟ من فکر میکردم میتوانید میانگین هندسی را بگیرید (به چه نرخ رشدی در عدد تولید اولیه نیاز دارید تا به عدد نهایی برسید - یا فکر میکنم توضیح داده شده است) و علاوه بر این من مطمئن نیستم کجا باید شروع کنید. من دوست دارم از جداول محوری یا چیزی شبیه به آن استفاده کنم که می توانم refresh را بزنم و نسخه به روز شده اعداد را دریافت کنم. هر ایده ای وجود دارد؟ | چگونه می توانید رشد نرخ تولید به ازای هر نفر را خلاصه کنید؟ |
101289 | من از جعبه ابزار GPML توسط C.E.Rasmussen برای حل مشکل اساسی رگرسیون GP (ارائه شده در کتاب) با مشاهدات پر سر و صدا استفاده می کنم. به عبارت دیگر، تابع زیربنایی $f$ یک نگاشت استاتیک نویزدار را تخمین بزنید $$y = f(\mathbf{x}) + e, \qquad e \sim \mathcal{N}(0, \sigma^2) $$ از مجموعهای از مثالهای آموزشی $\\{ (\mathbf{x}_i، y_i) \\}_{i=1}^{n}$. تا آنجا که من متوجه شدم، باید با انتخاب هسته به عنوان مجموع $$ k(\mathbf{x}_j) = k_f(\mathbf{x}_i, \ به نویز بودن مشاهدات احترام بگذارم. mathbf{x}_j) + \sigma^2_{e}\delta_{ij}$$ که در آن جمله نهایی در مجموع، هسته نویز سفید (یعنی نویز مشاهدات). هنگام استفاده از جعبه ابزار GPML، برای کسانی که آشنا هستند، باید یک احتمال را مشخص کنید. در مورد من، احتمال گاوسی را انتخاب کردم که دارای یک فراپارامتر است - در مستندات کد این با پارامتر رسمی $s_n$ مطابقت دارد. بنابراین، با هم، وقتی بهینهسازی را انجام میدهم، یک هایپرپارامتر برای هسته نویز ($\sigma_e$)، یکی برای احتمال ($s_n$) و $d$ (مثلاً) برای $k_f$ دارم. من در مورد معنای هایپرپارامترهای $\sigma_e$ و $s_n$ سردرگم هستم. کدام یک از فراپارامترها ($\sigma_e$ یا $s_n$) واریانس نویز در مشاهدات را نشان می دهد؟ اگر احتمال گاوسی مدل اندازه گیری باشد، آنگاه $s_n$ باید واریانس مشاهدات $y_i$ باشد، اما به چه دلیلی هسته نویز را اضافه می کنیم (با هایپرپارامتر اضافی ($\sigma_e$)، که فکر می کنم این باشد. زائد است، در این مرحله چون ما از قبل $s_n$ برای انجام کار داریم)؟ شاید آنها یکی هستند و باید در طول بهینه سازی به هم گره بخورند. من گیج شده ام. کد GPML برای استنتاج دقیق: [n, D] = size(x); K = feval(cov{:}، hyp.cov، x); % ارزیابی ماتریس کوواریانس m = feval(mean{:}, hyp.mean, x); % ارزیابی میانگین بردار sn2 = exp(2*hyp.lik); % واریانس نویز likGauss اگر sn2<1e-6 % sn2 بسیار ریز می تواند منجر به مشکل عددی شود L = chol(K+sn2*eye(n)); sl = 1; % ضریب کواریانس کلسکی با نویز pL = -solve_chol(L,eye(n)); % L = -inv(K+inv(sW^2)) other L = chol(K/sn2 + eye(n)); sl = sn2; % ضریب کولسکی B pL = L; % L = chol(eye(n)+sW*sW'.*K) end alpha =sol_chol(L,y-m)/sl; sn2 پارامتر احتمال است، hyp.cov حاوی فراپارامترهای هسته است (از جمله فراپارامتر هسته نویز $\sigma_e$) | Hyperparameter هسته احتمال در مقابل نویز در جعبه ابزار GPML |
97674 | هنگام انجام یک آزمون اندازه گیری مکرر که در آن فرد مقادیر قبل و بعد را برای چندین جفت اندازه گیری می کند، چگونه واریانس درون خود جفت ها را محاسبه می کند؟ به عنوان مثال اجازه دهید به این مثال از 3 نمره دانش آموز بخش ریاضی SAT به عنوان نتیجه یک دوره مقدماتی نگاه کنیم.  در این سطح، به نظر می رسد که آزمون در بهبود نمره کلی آنها قابل توجه بوده است. با این حال، چه می شود اگر اکنون اطلاعاتی را اضافه کنم که هر دانش آموز 3 بار قبل از کلاس امتحان داده است و امتیازات آنها در هر بار 50 امتیاز +/- متفاوت است. اکنون افزایش 30 امتیازی به نظر نمی رسد مرتبط باشد. چگونه می توان این نوع سناریوها را هنگام اجرای آزمون های t زوجی در نظر گرفت؟ | واریانس نمونه آزمون تی وابسته (جفت شده). |
81283 | > فرض کنید $X$ دارای تابع چگالی احتمال $$f(x, \theta) = \theta > e^{-\theta x}$$ است وقتی $x > 0$ و $\theta > 0$ و در غیر این صورت $0$ ; داده شده > $\Theta = \theta$. فرض کنید تابع چگالی احتمال قبلی > $\Theta$ $$h(\theta) = 1$$ باشد وقتی $0 < \theta < 1$ و در غیر این صورت $0$. تابع چگالی احتمال خلفی $\Theta$ را با توجه به $X = x$ (برای $x > > 0$) پیدا کنید. اجازه دهید $k( \theta | x)$ نشان دهنده پی دی اف بعدی باشد. $k( \theta | x) = \frac{L(x | \theta)h(\theta)}{f_1(x)}$ داریم، که $f_1(x)$ pdf مشترک **$ است. X$**. ما $L(x | \theta)h(\theta) = (\theta^n e^{ - \theta \sum^{n}_{i=1} x_i})(1) = \theta^n e^ داریم { - \theta \sum^{n}_{i=1} x_i}$. اجازه دهید $Y= \sum^{n}_{i=1}$ همچنین $f_1(x) = \int^{\infty}_0 \theta^n e^{-\theta Y} d \theta$ داریم. اما از آنجایی که $\Gamma(n+1) = \int^{\infty}_0 \frac{\theta^{(n+1)-1} e^{-\theta Y}}{(1/Y)^ {n+1}} d\theta$، داریم $f_1(x) = \int^{\infty}_0 \theta^n e^{-\theta Y} d \theta = \frac{\Gamma(n+1)}{Y^{n+1}}$. بنابراین $k(\theta | x) = \frac{(\sum x_i)^{n+1} \theta^n e^{-\theta \sum x_i}}{\Gamma(n+1)}$ برای همه $x_i > 0$ و $0< \theta < 1$ و در غیر این صورت $0$. به نظر شما پاسخ من درست است؟ پیشاپیش ممنون | پیدا کردن پی دی اف پشتی |
59424 | آزمون Nyblom-Hansen اطلاعاتی در مورد پایداری پارامترهای برآورد شده در یک مدل می دهد. تا آنجا که من این تست را درک می کنم، به نمره ML در ارزیابی ها نگاه می کند که چقدر نزدیک به صفر است. اما آیا کسی می تواند توضیح واضح تری برای این موضوع به من بدهد؟ مخصوصاً من یک چیز را متوجه نمی شوم: این تست چگونه با نگاه کردن به امتیاز، پایداری پارامترها را ارزیابی می کند؟ تصور میکنم که آزمون باید شامل نقاط زمانی مختلف داده باشد، بنابراین باید اطلاعات زمان را در نظر بگیرد تا تغییر پارامترها در طول زمان را ارزیابی کند، اما نمیتوانم ببینم چگونه این به آمار آزمون متصل است. بنابراین چگونه آزمون زمان را در نظر می گیرد؟ | ایده تست نایبلوم هانسن؟ |
99612 | من سعی می کنم به خودم در مورد اعتبار سنجی متقابل بیاموزم - من در این کار تازه کار هستم - و یک مشکل مفهومی دارم. من کتاب رگرسیون کلاسیک و مدرن مایرز، فصل چهارم را می خوانم که در مورد اعتبارسنجی متقابل برای انتخاب مدل، به طور خاص، بخش آمار PRESS است. تعریف شهودی آمار PRESS - که به عنوان مجموع باقیمانده های مربعی تعریف می شود که وقتی یک نقطه داده را رها می کنید، رگرسیون را با حذف نقطه داده دوباره محاسبه می کنید و سپس باقیمانده بین رگرسیون جدید و نقطه داده کاهش یافته را محاسبه می کنید. - برای من کاملا منطقی است. اما آمار PRESS معمولاً به این شکل محاسبه نمی شود. معمولاً با استفاده از قضیه شرمن-وودبری- موریسون محاسبه می شود، که به شما امکان می دهد باقیمانده های PRESS را بر حسب باقیمانده معمولی محاسبه کنید، که به نظر می رسد: $(y_i - \hat{y}_i)/(1 - x_i ^t (X^t X)^{-1} x_i) $ که در آن صورتگر فقط باقیمانده رگرسیون اصلی در داده است نقطه _i_. اما اگر رگرسیون اصلی دقیقاً نقطه داده را درون یابی کند، به طوری که عدد صفر باشد، چه؟ به نظر می رسد تعریف شهودی PRESS نشان می دهد که نقطه داده کاهش می یابد و رگرسیون جدید بعید است که هنوز نقطه را درون یابی کند، بنابراین باقیمانده PRESS باید غیر صفر باشد. اما معادله داده شده در بالا نشان می دهد که یا دقیقاً صفر است یا اگر مخرج صفر باشد، تعریف نشده است. واضح است که من چیزی را از دست داده ام. اما چی؟ | منظور از آمار PRESS در صورت درون یابی دقیق چیست؟ |
3316 | فرض کنید یک سری زمانی دارد که از آن می توان اندازه گیری های مختلفی مانند دوره، حداکثر، حداقل، میانگین و غیره را گرفت و سپس از آنها برای ایجاد یک موج سینوسی مدل با همان ویژگی ها استفاده کرد، آیا روش های آماری وجود دارد که بتوان از آنها استفاده کرد که بتواند کمیت کند. داده های واقعی چقدر با مدل فرضی مطابقت دارد؟ تعداد نقاط داده در این سری بین 10 تا 50 نقطه است. اولین فکر بسیار ساده من این بود که مقداری را به حرکت جهتی موج سینوسی نسبت دهم، یعنی 1 +1 +1 +1 -1 -1 -1 -1 -1 -1 -1 -1 -1 +1 +1 1 +1، همین کار را با داده های واقعی انجام دهید و سپس به نحوی میزان شباهت حرکت جهت را کمی کنید. ویرایش: با فکر کردن بیشتر به آنچه واقعاً میخواهم با دادههایم انجام دهم، و با توجه به پاسخ به سؤال اصلیام، چیزی که من نیاز دارم یک الگوریتم تصمیمگیری برای انتخاب بین مفروضات رقیب است: یعنی اینکه دادههای من اساساً خطی هستند (یا روند) با نویز که احتمالاً می تواند دارای عناصر چرخه ای باشد. دادههای من اساساً چرخهای هستند و هیچ روند جهتگیری وجود ندارد. داده ها در اصل فقط نویز هستند. یا در حال انتقال بین هر یک از این حالات است. اکنون افکار من این است که شاید نوعی از تحلیل بیزی و متریک اقلیدسی/LMS را ترکیب کنم. مراحل این رویکرد ایجاد موج سینوسی مفروض از اندازهگیری دادهها، متناسب کردن یک خط مستقیم LMS برای دادهها، استخراج یک متریک اقلیدسی یا LMS برای انحراف از دادههای اصلی برای هر یک از موارد بالا، ایجاد یک پیشین بیزی برای هر یک بر اساس این متریک. یعنی 60٪ از خروجی های ترکیبی به یکی، 40٪ به دیگری متصل می شود، بنابراین به نفع 40٪ داده های اسلاید یک پنجره یک است. در امتداد داده ها اشاره کنید و موارد بالا را تکرار کنید تا معیارهای ٪ جدیدی برای این مجموعه داده کمی تغییر یافته به دست آورید - این شواهد جدید است - تجزیه و تحلیل بیزی را برای ایجاد یک پسین و تغییر احتمالاتی که به نفع تکرار هر فرض در کل مجموعه داده است (3000) انجام دهید. + نقاط داده) با این پنجره کشویی (طول پنجره 10-50 نقطه داده). امید/هدف این است که فرضیه غالب/مطلوب را در هر نقطه از مجموعه دادهها شناسایی کنیم و این که چگونه با گذشت زمان تغییر میکند، هر گونه نظر در مورد این روش بالقوه مورد استقبال قرار میگیرد، به ویژه در مورد اینکه چگونه میتوانم واقعاً بخش تحلیل بیزی را اجرا کنم. | شباهت آماری سری های زمانی |
99614 | من در حال تجزیه و تحلیل انتشار خطمشی با استفاده از دادههای پانل هستم، و گنجاندن کنترلهای زمانی به طور قابلتوجهی بر نتایج من تأثیر میگذارد. من نمیدانم که آیا از نظر تئوری میتواند برای تخمینهای **سایر** متغیرهای من تفاوت ایجاد کند اگر من آدمکهای زمانی رایج برای همه واحدهای مشاهده را در نظر بگیرم، یا مثلاً. من برای کشورهای اتحادیه اروپا و غیر اتحادیه اروپا از زمانبندی مجزا استفاده میکنم. آیا آدمک های زمانی رایج نباید شوک های خاص اتحادیه اروپا را نیز ثبت کنند؟ | آدمک های زمانی معمول یا منطقه ای به عنوان کنترل: آیا تفاوتی ایجاد می کند؟ |
109696 | من نگران شبیه سازی داده ها برای یک مدل رگرسیون خطی هستم. من باید میانگین ها، واریانس ها و همبستگی ها (کوواریانس ها) بین پیش بینی کننده ها و متغیر معیار را کنترل کنم. علاوه بر این، باید بتوانم واریانس های توضیح داده شده را تغییر دهم ($R^2$). برای من واضح است که دومی باید تابعی از قبلی باشد، بنابراین حداقل یک همبستگی (کوواریانس) در $\Sigma$ شاید به انتخاب $R^2$ بستگی داشته باشد، جایی که $\Sigma=E(( Y,X)(Y,X)^T)$، برای $X$ و $Y$ در مرکز، ماتریس واریانس کوواریانس همه متغیرها است. بنابراین طرح من به شرح زیر است: 1. $\Sigma$، میانگین، و $R^2$ 2 را مشخص کنید. داده ها را با این آمار کافی شبیه سازی کنید، به عنوان مثال. با نمونه برداری از نرمال چند متغیره 3. بردار $\beta$ (ضریب رگرسیون) تخمین زده شده را در برابر ضرایب جمعیت (نظری) بررسی کنید و از مدل برای آزمون ها/علم نامرتبط استفاده کنید. بنابراین، رویکرد من تعیین $\beta$ را پیشنهاد نمیکند، بلکه اجازه میدهد ضرایب تابعی از جمعیت $\Sigma$، میانگین و $R^2$ باشند. دلیلی که باید این کار را انجام دهم این است که مقداری مقیاس واقعی را به $X$ و $Y$ نسبت دهم (به عنوان مثال، اجازه دهید $Y$ یک مقیاس درآمد را در نظر بگیرد و به $X$ یک مقیاس واقعی برای سالهای تحصیل ارائه دهد). بنابراین به جای ضرایب رگرسیون آمار کافی را مشخص می کنم. اما شاید راه بهتری وجود داشته باشد. علاوه بر این، من دو سوال خاص دارم: 1. با توجه به ماتریس واریانس-کوواریانس جمعیت $\Sigma$ یک متغیر معیار $Y$ و یک سری از پیش بینی کننده ها (متغیرهای کمکی) $X$، می خواهم بردار جمعیت واقعی را محاسبه کنم. ضرایب رگرسیون البته، میتوانم دادههای $X$ و $Y$ را شبیهسازی کنم و از تخمینگر OLS استفاده کنم، اما باید یک راه مستقیم برای استفاده از $\Sigma$ در تخمین جمعیت $\beta$ وجود داشته باشد؟ 2. چه گزینه هایی برای تعیین کوواریانس ها (همبستگی ها) در $\Sigma$ وجود دارد، با توجه به اینکه من به یک $R^2$ ثابت از یک رگرسیون خطی $Y$ در $X$ نیاز دارم؟ این، برای تغییر سیستماتیک قدرت توضیحی مدل رگرسیون. | بهترین راه برای شبیه سازی داده ها برای مدل رگرسیون خطی چیست؟ |
59426 | من یک سوال در مورد خوشه بندی دارم. من داده های ریزآرایه بیان ژن را مدیریت می کنم و می خواهم آنها را در کلاس ها خوشه بندی کنم. من در اطراف جستجو کردم تا بهترین الگوریتم خوشهبندی را برای دادههایم بیابم، اما از آنجایی که مانند همه آزمایشهای ریزآرایه بیان ژن، تعداد ژنها بسیار بیشتر از تعداد نمونههای مورد تجزیه و تحلیل است، اکثر این الگوریتمها مستقل بودن متغیرها را فرض میکنند (بنابراین ژنها) . اما در واقعیت همه ما می دانیم که فعالیت یک ژن مستقل از فعالیت یک ژن دیگر نیست. سوال من این است: آیا الگوریتم یا تکنیکی وجود دارد که بتواند با ساده سازی چنین وابستگی بین ژن ها را در نظر بگیرد؟ خیلی ممنون بهترین e. | خوشه بندی داده های بیان ژن |
109304 | آیا کسی از الگوهای قوی قوی برای تخمین مشتقات جزئی یک مدل رگرسیون می شناسد؟ من در مورد یک مدل رگرسیون عمومی مانند این صحبت می کنم: $\mathbb{E}(y|x_1, x_2, ... x_n) = f(x_1, x_2, ... x_n)$ که در آن من تخمینی از $\ می خواهم frac{\partial f}{\partial x_k}$. اینها در پزشکی، اقتصاد، علوم اجتماعی و غیره اهمیت زیادی دارند. اکنون یک مدل خطی تقریبی از این مشتقات جزئی (پارامترهای آن) را در اطراف نقطه میانگین ارائه می دهد. این تقریب را میتوان با گنجاندن عبارتهای چندجملهای در اطراف میانگین معتبرتر کرد، اما افزایش نمایی در تعداد پارامترها با افزایش درجه چند جملهای، این را با یک مدل خطی غیرممکن میکند (به جز شاید با کمند؟). برای تخمینهای محلی بهتر در کل فضای ورودی، کاندیداهای طبیعی رگرسیون هسته و شبکههای عصبی پیشخور هستند که شکلهای صافی دارند (برخلاف روشهای مبتنی بر درخت) و مشتقات جزئی به راحتی بازیابی میشوند. اما من در مورد استحکام این تخمین ها اطلاعی ندارم، زیرا هدف اصلی این مدل ها کاهش خطای پیش بینی است، نه یافتن مشتقات مناسب... می دانم که تقویت گرادیان (و واقعاً همه مدل های رگرسیون) وابستگی جزئی می دهند. ، اما آنها مشتقات جزئی نیستند: آنها یک تابع $f_k(x_k)$ هستند که میانگین مقدار تابع رگرسیون پیش بینی شده را می دهد. $\widehat{f}$ برای مقدار معینی از $x_k$، به طور میانگین بیش از تحقق سایر متغیرهای $(x_1, x_2 ... x_n)$ در مجموعه داده آموزشی. هر گونه کمکی بسیار قدردانی خواهد شد! | الگوی یادگیری ماشین خوب برای مشتقات جزئی؟ |
112975 | من اینجا چند ست چند صد امتیازی دارم که به طور معمول توزیع نمی شوند. من می خواهم این نمرات را در یک مقیاس صدک عادی کنم. حالت میانگین میانه برای اینها به این صورت است: 3-2-0، 1-1-0، 9-3-0، 1-5-5، من امتیازات واریانس/std dev و z را برای اینها محاسبه کرده ام. اما اکنون مطمئن نیستم که با این اطلاعات چه کنم. وقتی توزیع نرمال نیست، امتیاز z به چه درد می خورد؟ بهترین راه برای به دست آوردن یک نمره صدک نرمال شده برای اینها چیست؟ | داده های غیرعادی توزیع شده -- با امتیازهای z چه کاری می توانم انجام دهم؟ |
103491 | من باید رویکردهای ممکن (و همچنین مزایا و معایب آنها) را برای مشکل پیشبینی سریهای آماری خلاصه کنم. این یک سوال تئوری خالص است، یک مثال در زیر فقط برای راحتی و مشخص بودن آورده شده است. اول از همه برای عبارت سریال آماری متاسفم. این سوال در ابتدا به زبان دیگری پرسیده شد و من برای ترجمه آن مشکل داشتم. اما اینکه چه نوع سریالی است باید از مثال مشخص شود. یک مثال مجموعه ای از آزمایش های پرتاب تاس را نشان می دهد. ما 20 مشاهده داریم و توزیع فراوانی مشاهده شده توسط جدول زیر توضیح داده شده است. $\begin{matrix} \text{Text face} & 1 & 2 & 3 & 4 & 5 & 6 \\\ \text{sum} & 2 & 6 & 8 & 2 & 1 & 1 \\\ \text{ فرکانس} و 0.1 و 0.3 و 0.4 و 0.1 و 0.05 و 0.05\end{matrix}$ بیایید برگردیم به وظیفه ما در حال حاضر اکنون باید یک مدل پیشبینی کننده استخراج کنیم. من توانستم تنها به یک رویکرد فکر کنم: * خطای استاندارد و میانگین را محاسبه می کنیم، سپس می توانیم هر فرضیه ای را در مورد مشاهدات آینده با استفاده از آزمون t ایجاد و اثبات کنیم. یک جنبه منفی این رویکرد دخالت عدم قطعیت در پاسخ است (فاصله های اطمینان و غیره) وقتی بیشتر به آن فکر کردم، ممکن است روند خیلی خوب پیش بینی را در اینجا درک نکنم. اگر نمونه برداری ادامه یابد، هیستوگرام ما دقیق تر و دقیق تر می شود، اما ارزش پیش بینی در وهله اول چقدر خواهد بود؟ تابع تراکم، میانگین جمعیت؟ با توجه به آخرین پاراگراف، من ماشین های داده کاوی را در اینجا قابل اجرا نمی بینم (رگرسیون ها، شبکه های عصبی، درختان تصمیم). من از بینش و توضیحات قدردانی می کنم. | پیش بینی سری های آماری |
72198 | داشتم این آموزش را می خواندم که در آن به Make predictions on the development set اشاره کردند. به جدول احتمالی نگاه کنید؛ اشتباهات کجاست؟ دلت برای چی تنگ شده؟ تحلیل خطا! طبقهبندیکننده به چه ویژگی نیاز دارد تا این را درست انجام دهد؟ چه ویژگی هایی طبقه بندی کننده را گیج می کند؟ ... اگر هرگز در مجموعه توسعه ظاهر نشد، مفید نیست ... اگر اغلب ظاهر نمی شود، مفید نیست یک جدول احتمالی برای آن ویژگی بسازید (باید اطلاعات خوبی به شما بدهد) آن را پرتاب کنید. در طبقهبندیکننده شما (دقت باید بهبود یابد) من متوجه نشدم که چگونه جدول احتمالی را ببینم و ببینم کدام ویژگی برای طبقهبندی کننده لازم است تا آن را درست انجام دهد؟ مثلاً برخی از ویژگیها را خودم تعریف کردم، میتوانم بگویم خوب این ویژگیها اغلب دیده نمیشوند، پس آنها را دور بریزید. اما چگونه می توانم بدانم که به کدام ویژگی های بیشتر نیاز دارد. منظور از جدول احتمالی یک ویژگی بیشتر است | سردرگمی مربوط به مهندسی ویژگی |
80128 | بردار تصادفی واقعی سه بعدی $(X_1,X_2,X_3)$ را در نظر بگیرید که به طور یکنواخت روی سطح یک کره واحد توزیع شده است. در مورد توزیع $(aX_1،bX_2،cX_3)$، که $a،b،c،$ ثابت های واقعی غیرصفر و غیر یکسان هستند، چه چیزی می توان گفت؟ آیا این درست است که بگوییم آنها به طور یکنواخت روی سطح یک بیضی با پارامترهای مربوطه $a,b,c$ توزیع شده اند؟ | تبدیل یک بردار تصادفی یکنواخت روی کره |
29399 | من یک ماتریس با 1024 ویژگی و 10000 نمونه با بردار برچسب از سه کلاس مختلف دارم. من از تابع R MASS کتابخانه `lda` برای محاسبه مدل و بدست آوردن ضرایب متمایز کننده خطی استفاده می کنم: > library (MASS) > > ldamodel = lda(data$X, data$y) > head (ldamodel$scaling) LD1 LD2 V5 -0.053074978 0.14565211 V6 -0.009618016 -0.11198306 V7 -0.003863230 0.28189459 V8 0.063191889 -0.26726050 V9 -0.029950632 0.16121364 V10 0.0158 - 0.0158 -2 متمایز کننده های خطی، که خوب است. اما میخواهم بدانم، اگر امکان دارد تابع 'lda' بیش از دو متمایز خطی ایجاد کند و چگونه آن را در R انجام دهیم؟ من هنوز خیلی با LDA آشنا نیستم، بنابراین متاسفم، اگر این سوال یک مزخرف آماری است. | تعداد متمایز کننده های خطی را در تابع R MASS lda مشخص کنید |
91361 | من در حال حاضر در حال برازش مدل هایی هستم که برای برون یابی از یک نمونه محدود به یک جمعیت بزرگ در نظر گرفته شده است. برای یک مثال خاص، یک مدل پیشبینی دمای آب در رودخانهها بر اساس ویژگیهای رودخانه است. نمونه شامل دادههایی از تقریباً 1000 بخش رودخانه است (یک بخش رودخانه طول منحصر به فرد یک رودخانه است) که برای برونیابی به بیش از 100000 بخش رودخانه استفاده خواهد شد. این یک مدل شبکه عصبی است، اما من همین سوال را برای مدل دیگری با استفاده از مدلهای رگرسیون لجستیک سلسله مراتبی دارم، بنابراین سوال مربوط به روش آماری نیست. من خواندهام و از طریق تجربه دریافتهام که عادیسازی مجموعه دادههای مدلسازی من میتواند تناسب مدل را بهبود بخشد. با این حال، من در این مورد مطمئن نیستم زیرا هدف برون یابی به جمعیت است. آیا باید پیش بینی کننده ها [(y - mean)/stdev] بر اساس میانگین و sdev آنها در نمونه یا در جمعیت بخش های رودخانه نرمال شوند؟ من عقیده دارم که باید بر اساس جمعیت عادی سازی کنم تا اطمینان حاصل شود که تنوع جمعیت به اندازه کافی در مجموعه داده مدل سازی نشان داده می شود. من عذرخواهی می کنم اگر پست متقاطع وجود دارد، زیرا من این پاسخ را به طور کامل جستجو کرده ام و سوال یا بحث مشابهی در جایی ندیده ام. بنابراین من این را اینجا می پرسم. لطفا اگر پاسخی در جای دیگری وجود دارد به من اشاره کنید. | نرمال کردن مجموعه داده برای برون یابی - میانگین نمونه یا جمعیت و انحراف معیار؟ |
23137 | کلماتی از _The Elements of Statistical Learning_ در صفحه 119 وجود دارد: > نشان دادن اینکه مبنای زیر یک اسپلاین مکعبی را نشان می دهد، دشوار نیست > با گره هایی در $\xi_1$ و $\xi_2$: * $h_1(X)= 1$ * $h_2(X)=X$ * $h_3(X)=X^2$ * $h_4(X)=X^3$ * $h_5(X)=(X-\xi_1)_+^3$ * $h_6(X)=(X-\xi_2)_+^3$ سپس سوال من این است که، طبق تحلیل عددی، چندجملهای مکعبی تکهای سعی میکند تابع را در منطقه $[\xi_1,\xi_2]$ با چندجملهای در مرتبه 3 مطابقت دهد، بنابراین فکر میکنم مبنای باید * باشد. $h_1(X)=f(\xi_1)$ * $h_2(X)=(X-\xi_1)$ * $h_3(X)=(X-\xi_1)^2$ * $h_4(X)=( X-\xi_1)^3$. حداکثر 4 پایه وجود دارد، پس من کجا اشتباه می کنم؟ | پایه های اسپلین مکعبی تکه ای چگونه ساخته می شوند؟ |
79230 | فرض کنید که من 10 ANOVA فاکتوریل 2x2 انجام دادم. در مجموع 30 افکت دریافت می کنم (دو اثر اصلی و یک تعامل برای هر ANOVA). هنگام تنظیم سطح آلفا برای مقایسه های چندگانه، باید 30 آزمون فرضیه را در نظر بگیرم یا فقط 10؟ به طور رسمی آنها 30 مقایسه نیستند، زیرا در هر ANOVA به صورت سه قلو تودرتو هستند. | تنظیم آلفا برای اثرات اصلی و تعاملی در ANOVAهای فاکتوریل متعدد |
91365 | من دو آگهی مختلف را اجرا می کنم که به صورت تصادفی ارائه می شوند. من نظارت می کنم که چند نفر به هر تبلیغ پاسخ می دهند. من سعی می کنم تعیین کنم که آیا یک تبلیغ بهتر از دیگری است یا خیر. اگر آزمون معناداری فیشر را روی نتایج اجرا کنم، می توانم بفهمم که آیا فرضیه صفر را می توان در هر مقطع زمانی رد کرد یا خیر. فکر میکنم با اطمینان میتوان گفت که این دو آگهی هر چقدر هم که تفاوت کم باشد، نرخ پاسخدهی متفاوتی خواهند داشت، اما چگونه میتوانم آزمایش کنم که نتایج از نظر میزان پاسخگویی بیش از 5٪ تفاوت ندارند؟ | اندازه نمونه مورد نیاز برای آزمایش دوجمله ای با استفاده از آزمون دقیق فیشر |
109693 | من سعی می کنم درک خود را از هسته ها در ماشین بردار پشتیبان (SVM) و اینکه چرا برخی از آنها محبوب تر هستند را توضیح دهم، اما مطمئن نیستم که آیا این مفاهیم را اشتباه متوجه شده ام: 1) تعداد زیادی توابع هسته در SVM وجود دارد، مانند RBF، چند جمله ای، خطی و غیره. به طور کلی می توان آنها را به دو گروه خطی و غیر خطی تقسیم کرد. برای هسته های خطی، آنها می توانند داده ها را به صورت خطی در فضای اصلی جدا کنند. توابع هسته غیرخطی داده ها را با استفاده از مرزهای غیر خطی در فضای اصلی جدا می کند (اما پس از نگاشت، مطابق با قضیه مرسر، داده ها همچنان به صورت خطی در فضای ویژگی ابعاد بالاتر از هم جدا می شوند). اگر دادهها را نتوان به صورت خطی در فضای اصلی جدا کرد، این باعث میشود هسته غیرخطی انعطافپذیرتر شود. 2) در مقایسه با سایر هسته های غیر خطی، چرا هسته RBF در SVM محبوبیت بیشتری دارد؟ آیا می توانم دلیل آن را این باشد که این هسته بی نهایت قابل تمایز (گاوسی) است، و این بدان معنی است که داده ها را می توان به فضای ویژگی های بعدی بی نهایت نگاشت. سایر هستههای غیرخطی نیز میتوانند این کار را انجام دهند، به عنوان مثال، با افزودن پارامترها، یک هسته چند جملهای نیز میتواند دادهها را به یک فضای ویژگی با ابعاد بسیار بالا نگاشت کند، اما این کار راحت نیست. اگر درک من درست است؟ 3) در فرآیندهای گاوسی (GP)، ما از توابع هسته برای اندازه گیری شباهت بین نقاط داده مختلف استفاده می کنیم. چه ویژگی هایی از هسته نمایی مربعی (SE) این هسته را محبوب می کند؟ (می دانم گاوسی است و بی نهایت قابل تمایز است، دلایل دیگری وجود دارد؟) ضمناً اگر بخواهم تجزیه و تحلیل دینامیک داده ها را انجام دهم (داده ها دوره ای نیستند) آیا این هسته هنوز مناسب است و چگونه می توان یک تابع هسته مناسب را انتخاب کرد؟ پیشاپیش از کمک و شکیبایی شما کمال تشکر را داریم. | چگونه توابع هسته را درک کنیم و چگونه یک هسته مناسب انتخاب کنیم؟ |
72225 | من سعی می کنم خط پیش بینی یک GLM را با داده های متناسب ترسیم کنم. بعد از اینکه با مثال کرولی مشکل داشتم، این پیوند را پیدا کردم: مشکلات ترسیم داده های GLM از داده های متناسب دوجمله ای داده های من از 3 ستون تشکیل شده است: ارتفاع، تعداد سوسک ها و تعداد حشرات دیگر. من می خواهم تغییر نسبت سوسک را در ارتفاعات مختلف بررسی کنم. پس از وارد کردن جدول، نسبت را همانطور که در موضوع پیوند بالا نشان داده شده است محاسبه کردم. سپس y=cbind(mean$beetles,mean$rest) model=glm(y~altitude,family=binomial(logit),data=data) plot(p~data$altitude, ylab=Beetles (متناسب), xlab =Altitude) p گزاره ای است که قبل از خطوط محاسبه کردم (mean$altitude,predict(model,type=response)) سپس دریافت می کنم این طرح:  بدیهی است که این درست نیست، اما نمی توانم بفهمم اینجا چه چیزی اشتباه است. خیلی خوشحال میشم اگه کمکم کنید این مجموعه داده های کوچک است: ارتفاع، سوسک، استراحت 304،88،35 842،7،18 877،21،27 1505،2،25 1118،11،19 702،25،24 806،16،17 960،16 ,32 975,34,61 1112,11,17 1348,11,32 502,58,24 1428,2,13 1521,0,35 1040,9,6 1412,8,19 1231,5,19 980,14,16 1053,2,10 به سلامتی پیتر | مشکل ترسیم داده های GLM داده های متناسب دوجمله ای 2 |
633 | من مجموعه داده ای از حدود 3000 مشاهدات میدانی دارم. داده های جمع آوری شده به 20 متغیر (اعداد واقعی)، 30 متغیر بولی، و 10 یا بیشتر متغیر جستجو و یک متغیر پاسخ تقسیم شده است. برای 20000 شیء بر اساس 3000 مشاهدات. برخی از روشهای موجود که شامل Booleans و جستجوی جداول هستند چیست؟ هیچ پیشنهادی در مورد اینکه چگونه باید ادامه دهم؟ **ویرایش** متغیر پاسخ نیز یک بولی است **ویرایش 2** نمونه ای از داده های متغیر: * سن نمونه * طول، مساحت، حجم * زمان از آخرین بازرسی * ارتفاع * عمر طراحی جدول جستجو * مواد نوع * نوع پوشش * استاندارد طراحی * اثربخشی طراحی نمونه ای از بولی * آیا بازرسی شده است؟ * آیا وضعیت بدی دارد * آیا به زودی نیاز به تعمیر دارد متغیر پاسخ که f(x) من است این است: * آیا قابل استفاده است | گنجاندن داده های بولی در تجزیه و تحلیل |
73825 | بر اساس این پاسخ، پایتون نیاز دارد که مقادیر مورد انتظار در آزمون مربع کای فرکانس مطلق باشد. موارد زیر را در پایتون در نظر بگیرید: import numpy import scipy.stats # تابع chisquare به scipy.stats.chisquare(numpy.array([0,0,23,0]), numpy.array([1,1) (مشاهده شده، مورد انتظار) نیاز دارد ,1794,1])) (1751.2948717948718، 0.0) منجر به یک مقدار p 0 (هر چه که بدان معنی است). همان محاسبه در R، که مستلزم آن است که مقادیر مورد انتظار پروپوشن باشند: chisq.test(c(0, 0, 23, 0), p=c(1/1797,1/1797,1794/1797, 1/1797) ) آزمون کای دو برای داده های احتمالات داده شده: c(0, 0, 23, 0) X-squared = 0.0385، df = 3، p-value = 0.998 که منجر به p-value 0.998 می شود. کدام صحیح است؟ | نتایج مربع چی در R و پایتون |
59421 | من این مجموعه داده x y 0.5 306.3 1 622.3 2 1230.1 3 2017.7 4 2589 5 3175.4 6 3751.9 9 5585.7 12 7388.8 15 9201. 15056.5 30 18081.2 45 27095.3 60 35609.2 80 47263.1 وقتی x در مقابل y را با R رسم میکنم، یک نمودار تقریباً خطی به دست میآورم، وقتی آنها را با Libre Office Calc رسم میکنم، یک نمودار سهمی به دست میآورم. چگونه ممکن است؟ کدام یک مناسب است؟ | نتایج متفاوت با استفاده از R یا Libre Office calc |
23134 | من در حال انجام یک مطالعه در مورد اثرات کنترل بد قند خون بر بیماران هستم. BMI، سن، نوع دیابت (نوع 1 و 2 یا دیابت بارداری) همه متغیر هستند. نتایج شامل بخش C، زایمان زودرس و غیره است. یک بازبین به من گفت > مقایسهها باید با سن مادر و BMI پایه تنظیم شود. چگونه می توان این کار را با ماشین حساب آنلاین انجام داد؟ من محاسبات خود را فقط با ماشین حساب های آنلاین انجام داده ام و هرگز جرات استفاده از SPSS را نداشته ام. کسی میتونه منو راهنمایی کنه؟ | تنظیم داده ها برای سن و bmi |
73822 | من میخواهم یک تخمینگر بیطرفانه برای $b_1$ را در یک رگرسیون ساده به دست بیاورم: $Y_i = B_0 + B_1X_i + u_i$ وقتی دو نمونه دارم، همیشه اندازه Y و X یکسان است، اما یک بار اندازه نمونه l و یک بار است. حجم نمونه متر است. نمونه مربوطه به این معنی است که $\bar{Y_l}،\bar{X_l}$ و $\bar{Y_m}،\bar{X_m}$ داده شده است. حالا من تعجب می کنم که چگونه می توانم تارت کنم تا یک برآوردگر بی طرف بگیرم؟ ایده من این بود که از فرمول «عادی/یک نمونه» استفاده کنم و فقط وزنها (تصحیح اندازه نمونههای مختلف بین دو مجموعه مستقل از دادهها) را در جلو قرار دهم. یک برآوردگر برای $b_1$ خواهد بود: (X'X)$^{-1}$X'Y بدون ماتریس: $\frac{\sum X_iY_i - N \bar{Y}\bar{X}}{\sum X_i^2 -N \bar{X}^2}$ که میخواستم آن را به $\frac{l}{m+l} \frac{\sum X_iY_i - L تغییر دهم \bar{Y_l}\bar{X_l}}{\sum X_i^2 - L \bar{X_l}^2} + \frac{m}{m+l} \frac{\sum X_iY_i - M \bar{Y_m }\bar{X_m}}{\sum X_i^2 - M \bar{X_m}^2}$ M و L بزرگ که اندازه نمونه مربوطه را نشان میدهد. اکنون مطمئن نیستم که نتیجه من درست است یا نه، زیرا صادقانه بگویم نمی توانم نشان دهم که بی طرفانه است یا خیر. آیا از نظر احتمالی بی طرف است؟ یا این فقط یک تخمین زن اشتباه است؟ | OLS ساده با دو نمونه |
59423 | از Stack Overflow منتقل شد آیا کسی می تواند به من کمک کند تا مدل رگرسیون مناسب برای داده هایم پیدا کنم؟ من سعی کردم با تغییر مدل و تقریب اولیه (ln 15-16) در این برنامه ساده پایتون یکی را پیدا کنم: # -*- کدگذاری: utf-8 -*- import matplotlib.pyplot به عنوان plt import numpy به عنوان np import scipy.linalg به عنوان la از numpy import تصادفی از scipy.optimize import Minimize def main(): a = np.loadtxt('group_all_tweets.dat', dtype=np.float32, delimiter='\t') sin_model = lambda p, x: (p[0] + p[1] * np.exp(np.sin(( np.pi / p[2]) * x + p[3]))**3) x0 = np.array([1.58e+04, -1.72e+03, 24.0, 7.59]) res =minime(lambda p: la.norm(sin_model(p, a[:, 0]) - a[:, 1] ), x0=x0, method='Powell') print res sin_params = res['x'] plt.plot(a[:, 0]، a[:، 1]) plt.plot(a[:، 0]، sin_model(sin_params، a[:، 0])) plt.figure() rss = a[:، 1] - sin_model(sin_params , a[:, 0]) pol_model = لامبدا p, x: sum([p[i] * x**i برای i در xrange(4)]) x0 = np.array([0.0 برای i در xrange(4)]) res =minime(lambda p: la.norm(pol_model(p, a[:, 0]) - rss)، x0 =x0, method='Powell') print res pol_params = res['x'] rss = a[:, 1] - sin_model(sin_params, a[:, 0]) - pol_model(pol_params, a[:, 0]) plt.plot(a[:, 0], rss) plt.figure() plt.plot(a[:, 0) ], a[:, 1]) plt.plot(a[:, 0], sin_model(sin_params, a[:, 0]) + pol_model(pol_params, a[:, 0])) plt.show() if __name__ == '__main__': main() در اینجا، ابتدا سعی می کنم یک الگوی تناوبی پیدا کنم `((p[0] + p[1] * np.exp(np.sin((np.pi / p[2]) * x + p[3]))**3))` در حالی که `p[i]` هستند پارامترهای مختلف، سپس بقایای رگرسیون اول را با رگرسیون چند جمله ای دوم تقریب بزنید. بهترین نتیجه ای که با روش توصیف شده به دست آوردم در نمودار زیر نشان داده شده است:  من از نحوه تناسب راضی هستم نزدیک شدن به قسمت پایین نمودار، اما قسمت های بالایی را دوست ندارم. کسی در اینجا تجربه ای از پیدا کردن مدل های رگرسیون دارد؟ من برای هر کمکی سپاسگزار خواهم بود. متشکرم. فایل دیتا اینجاست. من باید وابستگی ستون دوم را از ستون اول پیدا کنم. فکر میکنم میخواهم مدلی بسازم که شامل یک مؤلفه دورهای باشد، با مؤلفههای «روند بالا» و «روند پایین»، دوتای آخر مستقل هستند. | مدل رگرسیون برای داده های دوره ای |
73824 |  بنابراین من نمودار ACF/PACF بازده نفت را ترسیم کردم و انتظار داشتم مقداری خودهمبستگی مثبت ببینم، اما در کمال تعجب من فقط خودهمبستگی معنادار منفی دریافت کردم. چگونه باید نمودار بالا را تفسیر کنم؟ به نظر می رسد آنها نشان می دهند که تمایل به افزایش بازده نفت زمانی وجود دارد که قبلا کاهش یافته و بالعکس، بنابراین رفتار نوسانی. لطفا اگر اشتباه می کنم اصلاح کنید. | چگونه ACF منفی (تابع همبستگی خودکار) را تفسیر کنیم؟ |
72195 | من سه ماتریس A، B، C دارم. A یک ماتریس 200 X 32 است. 2000 ماتریس A مختلف وجود دارد که ماتریس B را تشکیل می دهند. B یک ماتریس 2000 x A است. یعنی 2000 x 200 ردیف در ماتریس B با 32 ستون وجود دارد. C یک ماتریس 2000 x 14 است. هر یک از ماتریس A مربوط به یک ردیف در ماتریس C است. فرض کنید ماتریس A1 از 200 X 32 با ردیف اول در ماتریس C مطابقت دارد. من می خواهم همبستگی بین ماتریس A1 و ردیف C را ببینم. یکی از راه های انجام آن این است که برای هر یک از ماتریس های A به ردیف های C یک نگاشت یک به یک داشته باشیم. اما من مطمئن نیستم که چگونه A را به بردار کوچک کنیم که بتوان آن را یک به یک مقایسه کرد. آیا این کار شدنی و امکان پذیر است؟ اگر بله چگونه؟ آیا رویکردهای دیگری برای برخورد با این نوع داده ها وجود دارد؟ جزئیات همبستگی: ردیف C دارای 14 ویژگی است، این 14 مقدار مشخصه به دلیل داده های یکی از ماتریس های A است. اینطور فکر کنید، فرآیندی وجود دارد که ماتریس ورودی A1 به اندازه 200 x 32 را می گیرد و یک ردیف C با 14 ویژگی ایجاد می کند. این 14 ویژگی ممکن است بسته به ورودی مقادیر بزرگ و به دلیل ورودی کم داشته باشند. من نمی دانم چه خروجی ممکن است دریافت کنم. ممکن است یک رابطه مستقیم یا معکوس باشد. | آیا اندازه داده را کاهش می دهید تا با مجموعه داده دیگری همبستگی متقابل داشته باشد؟ |
29642 | در پروژه من یک متغیر به نام فرهنگ سازمانی دارای 5 بعد توسعه کارکنان، هماهنگی، مشتری مداری، مسئولیت اجتماعی و نوآوری است. در SPSS، من باید این 5 بعد را به 4 نوع پیکربندی کنم تا: 1. فرهنگ بسیار یکپارچه امتیازات بالایی در هر 5 بعد داشته باشد. 2. فرهنگ بازارمحور سازمان هایی را توصیف می کند که بر مشتری مداری بیش از هر بعد فرهنگی دیگری تاکید دارند. 3. فرهنگ نسبتاً یکپارچه نمرات متوسط را در همه ابعاد فرهنگ نشان می دهد. 4. در نهایت، فرهنگ سلسله مراتبی در همه ابعاد فرهنگ امتیاز پایینی را نشان می دهد. به طور خلاصه، این چیزی است که من به آن نیاز دارم: من باید شرکت هایی را که از آنها داده ها را به دست آورده ام، بر اساس امتیازی که مدیران آنها (شرکت ها) به آنها اختصاص داده اند، به 4 نوع (بسیار یکپارچه، نسبتاً یکپارچه و غیره) دسته بندی کنم. 5 بعد فرهنگ در نتیجه من چهار نوع شرکت خواهم داشت که چهار نوع فرهنگ متفاوت خواهند داشت. من امیدی به روشی که در پست بالا پیشنهاد کردید می بینم. از وقتی که گذاشتید بسیار متشکرم و از هر کمکی قدردانی می کنم :) | خوشه بندی 5 بعد به 4 بر اساس میانگین؟ |
78762 | من یک نتیجه دارم که از هر دو سمت چپ و راست کوتاه شده است. میخواهم بدانم کدام روش رگرسیون ممکن است این نوع تحلیل را توضیح دهد. در اینجا یک مثال آورده شده است: set.seed(123) z<-rnorm(300) y<-z[z>=-0.8 & z<=1.2] #truncated x1<-sample(1:3، length(y), T) x2<-rbinom(طول(y)، 1، 0.3) بهترین روش رگرسیون برای مدلسازی «y~x1+x2» چیست؟ به نظر میرسد بسته R «truncreg» فقط دارای آرگومانهایی برای برش چپ یا راست است، نه اینکه هر دو طرف مانند این مثال باشند. | رگرسیون برای نتایج کوتاه شده از هر دو طرف |
3868 | مدل غیر خطی من توزیع گاما را با معکوس یا لاگ برازش می کنم همگرا نیست. یک مشاهده با مقدار صفر در متغیر پاسخ وجود دارد. آیا این صفر بر مدل سازی داده ها تأثیر می گذارد؟ هر پاسخی به گرمی قدردانی می شود! | تابع پیوند تعریف نشده در توزیع گاما |
59425 | روز بخیر من می دانم که دریافت فاصله کلاسی که 3 به عنوان بالاترین مقدار و 0.65 به عنوان کمترین مقدار داده می شود آسان است. در اینجا نتیجه، توزیع فاصله از 1 شروع می شود که به عنوان خط پایه یا مقدار قابل قبول در نظر گرفته می شود. بنابراین ابتدا سعی کردم محدوده را با استفاده از روش های معمول انجام کارها محاسبه کنم. تعداد کلاس های مورد نظر: 5 فاصله کلاس = بالاترین مقدار - کمترین مقدار / تعداد کلاس ها ... = 3 - 0.65 / 5 ... = 0.47 فاصله کلاس 0.47 می شود. مشکل اینجاست، چون فاصله کلاس باید به یک اضافه یا کم شود، در اینجا به نظر می رسد ... محاسبه محدوده کلاس بالای 1: 1 + 0.47 = 1.47 (کلاس اول بالای 1) 1.47 + 0.47 = 1.94 1.94 + 2.41 = 2.88 محاسبه محدوده کلاس زیر 1: 1 - 0.47 = 0.53 (کلاس اول زیر 1) 0.53 - 0.47 = 0.06 محدوده: .. 2.88 - 3.58 .. 2.41 - 2.87 .. 1.94 - 2.40 .. 1.47 - 1.93 .. 1.09 - .. 1.06 - .. 1.05 - .. .. 0.06 - 0.52 .. 0.00 - 0.05 این بسیار اشتباه به نظر می رسد بنابراین من از مشاورم کمک خواستم و روش دیگری را ارائه کردم. به جای استفاده از 0.65 به عنوان کمترین مقدار، از 0 استفاده کردیم. بنابراین ... تعداد کلاس های مورد نظر: 5 کلاس فاصله = بالاترین مقدار - کمترین مقدار / تعداد کلاس ها ... = 3 - 0 / 5 ... = 0.60 و دوباره سعی کردیم محدوده هایی را ایجاد کنیم که هنوز 1 به عنوان مقدار قابل قبول یا باید حد پایین کلاس در وسط باشد. محاسبه محدوده کلاس بالاتر از 1: 1 + 0.60 = 1.60 (کلاس اول بالای 1) 1.60 + 0.60 = 2.20 2.20 + 0.60 = 2.80 محاسبه محدوده کلاس زیر 1: 1 - 0.60 = 0.40 (فرست کلاس .2: 1) - 3.00 .. 2.20 - 2.79 .. 1.60 - 2.19 .. 1.00 - 1.59 .. 0.40 - 0.99 .. 0.00 - 0.39 دوباره ، ما 5 محدوده کلاس می خواستیم اما 6 عدد بالاتر از کلاس را گرفتیم و مشکل دیگر این است که 1 عدد باید برابر با تعداد کلاس های زیر 1. بدیهی است در نتیجه داده شده اینطور نیست.. مجدداً سعی کردیم از مشاور دیگری بپرسیم و تأیید شد که توزیع مقیاس باید برابر با بالا و زیر 1 باشد. بنابراین پیشنهاد بعدی استفاده از انحراف معیار و استفاده از آن به عنوان معیار بود. فاصله کلاس.. انحراف استاندارد نیاز به استفاده از میانگین برای همه مجموعه داده ها دارد. 800 فایل در مجموعه داده های ما وجود دارد، بنابراین من زحمت ارسال آن را ندارم. میانگین برای همه داده ها = 1.85 a. ) مجموع مجذور تفاوت بین میانگین محاسبه شده و داده = 158.39 ب.) تعداد مجموعه داده ها منهای یک (1) = 799 تقسیم a و b = 0.20 ریشه مربع 0.20 = 0.45 ایجاد محدوده ها ... محاسبه محدوده کلاس بالاتر از 1: 1 + 0.45 = 1.45 (کلاس اول بالا 1) 1.45 + 0.45 = 1.90 1.90 + 0.45 = 2.35 2.35 + 0.45 = 2.80 2.80 + 0.45 = 3.25 محاسبه محدوده کلاس زیر 1: 1 - 0.45 = 0.55 - 0.55 = 0.55 - 0. 0.10 بنابراین... .. 2.80 - 3.25 .. 2.35 - 2.79 .. 1.90 - 2.34 .. 1.45 - 1.89 .. 1.00 - 1.44 .. 0.45 - 0.94 - 0.94 - .. 0.0. 0.09 مشکلات با کارهایی که تا به حال انجام می دهم تعداد کلاس ها باید فقط 5 باشد، اما محاسبه من همیشه بیش از آن است. باید توزیع برابر با کلاس های بالا و پایین 1 باشد، اما تعداد محدوده های بالای 1 همیشه بیشتر است. تمام فاصله باید برابر باشد (طبق خواندن من) و نباید منفی باشد (طبق مطالعه ما) من واقعاً گیج می شوم که چه کار کنم و از چه روش یا ابزار آماری استفاده کنم. آیا کسی می تواند در این مشکل به من کمک کند. در اسرع وقت.. خیلی مفید خواهد بود.. | چگونه محدوده کلاسی را که 1 به عنوان طبقه متوسط، 3 به عنوان بالاترین مقدار و 0.65 به عنوان پایین ترین مقدار داده شده است ایجاد کنیم؟ |
31159 | من یک مدل خطی ساده $y = bX$ را به یک مجموعه داده امروزی برازش کردم و 24 نقطه باقیمانده تولید کرد (من 24 نقطه داده دارم، یکی برای هر سال از 1984-2007). من می خواهم استقلال زمانی باقیمانده های مدل خود را آزمایش کنم و توسط سرپرستم به من توصیه شد از تست Ljung-Box استفاده کنم. تابع Box.test در R 4 آرگومان می گیرد: * `x`: یک بردار عددی یا سری زمانی تک متغیره. * `لگ`: آمار بر اساس ضرایب خود همبستگی تاخیر خواهد بود. * نوع: آزمایشی که باید انجام شود: تطبیق جزئی استفاده می شود. * fitdf: تعداد درجات آزادی که باید تفریق شود اگر x مجموعه ای از باقیمانده ها باشد. تاخیر به چه معناست، و بچه ها توصیه می کنید از چه مقداری برای تست استفاده کنم؟ همچنین، «fitdf» چه چیزی را نشان میدهد، و مقدار آن پارامتر در مورد من چقدر خواهد بود؟ در نهایت، مقدار «x» بردار 24 باقیمانده من است، درست است؟ | با تست Ljung-Box برای استقلال زمانی باقیمانده ها کمک کنید |
59429 | من یک مدل رگرسیون خطی چندگانه (OLS) دارم که دارای یک ثابت، 5 متغیر و یک جمله تعامل بین دو متغیر ساختگی است. من باید آزمون دوربین واتسون را برای همبستگی مرتبه اول انجام دهم و برای یافتن مقادیر بحرانی باید تعداد متغیرهای توضیحی را بدانم (بدون در نظر گرفتن ثابت). آیا عبارت تعامل به خودی خود یک متغیر توضیحی برای این اهداف است (بنابراین من 6 متغیر توضیحی دارم)، یا آیا مقادیر بحرانی را برای 5 متغیر توضیحی پیدا می کنم؟ با تشکر | آزمون دوربین-واتسون برای خود همبستگی مرتبه اول در صورت وجود اثرات متقابل |
73829 | من آلیس و باب را به بیرون می فرستم تا رنگ چشم افراد (آبی، قهوه ای، سبز، و غیره) را ضبط کنند. آلیس کار بزرگی انجام می دهد و رنگ چشم 2000 نفر را یادداشت می کند. باب فقط رنگ چشم 20 نفر را ثبت می کند. آلیس متوجه شد که همه 2000 نفر چشمان قهوه ای داشتند. باب 19 نفر را با چشمان قهوه ای و یک نفر با چشمان سبز پیدا کرد. یک نتیجه سبز چقدر مهم است؟ چگونه می توانم نتایج را مقایسه کنم؟ آیا نتیجه سبز قابل توجه است؟ ** به روز رسانی ** اکنون آلیس و باب را در روز دیگری به منطقه دیگری می فرستم. آلیس کاملاً دقیق است و دوباره 2000 نفر را پیدا می کند، در حالی که باب هنوز تنبل است و فقط 20 نفر را پیدا می کند. نتایج آنها چیزی شبیه به این خواهد بود: | روز | مجموعه داده | آبی | قهوه ای | سبز | دیگر | | 1 | آلیس | 0 | 2000 | 0 | 0 | | 1 | باب | 0 | 19 | 1 | 0 | | 2 | آلیس | 10 | 1900 | 45 | 45 | | 2 | باب | 2 | 10 | 6 | 6 | من این روند را تکرار می کنم و آنها را در روزهای مختلف به مناطق مختلف می فرستم. آلیس همیشه 2000 نفر و باب همیشه 20 نفر را پیدا می کند. با در نظر گرفتن هر روز به طور جداگانه، چگونه می توانم تعیین کنم که آیا نتایج آلیس یا باب معرف جمعیتی است که آنها در یک روز معین نمونه برداری کردند؟ چگونه می توانم نتایج آنها را برای یک روز معین مقایسه کنم؟ | آزمایش برای مقایسه مجموعه داده های بزرگ و کوچک |
72194 | مقدار C دقیقاً چه ارتباطی با هسته های مختلفی دارد که می توانیم برای SVM از آنها استفاده کنیم؟ در هنگام تغییر درجه چند جمله ای یک هسته یا هنگام استفاده از هسته گاوسی چگونه تغییر می کند؟ | رابطه بین هسته و مقدار C در SVM |
72446 | من از کتابخانه R e1071 برای الگوریتم SVM (Support Vector Machine) استفاده می کنم. و من از آهنگ برای یافتن بهترین پارامترهای هزینه و گاما استفاده کردم. اگرچه به نظر نمی رسد که طرح بهترین پیش بینی واقعی را ارائه دهد. در اینجا برخی جزئیات وجود دارد: gammalist <- c(0.005،0.01،0.015،0.02،0.025،0.03،0.035،0.04،0.045،0.05) obj <- tune(svm, Class~., data = trainData, ranges = list(gama = gammalist، هزینه = 2^(2:4))، کنترل تنظیم = tune.control(sampling = fix) ) plot(obj) نمودار به دست آمده در اینجا است:  نمودار من را هدایت می کند باور کنید 0.02 بهترین گاما است. اما من در واقع چندین مورد دیگر را به صورت دستی آزمایش کردم و نتایج بهتری برای 0.042 پیدا کردم. در یک نمونه 200، 23 خطا با گاما=0.042 و 26 خطا با گاما=0.02 دریافت می کنم. این را چگونه توضیح می دهید؟ | طرح آهنگ R e1071 بهترین گاما را به من نمی دهد؟ |
72448 | من یک سوال دارم. من یک مجموعه داده با مقادیر گمشده دارم که MCAR نیستند. من آنها را با تکرارهای روش مشخصات کاملاً شرطی نسبت دادم. سپس تجزیه و تحلیل خود را بر اساس مجموعه داده های منتسب شده اجرا کردم. نتایج مدل اصلی (با مقادیر از دست رفته: حذف لیستی) در مدل تلفیقی نهایی تغییر چندانی نکرد. ایده من این است که به مجموعه داده مقادیر از دست رفته برگردم. نظر شما چیست؟ | انتساب چندگانه - مدل اصلی |
109307 | مثلاً بگوییم N متغیر مستقل وجود دارد، و شما با سه تا از آنها که دارای یک R2 تنظیم شده مناسب هستند، تطبیق میدهید، چگونه میدانید چه زمانی باید متوقف شود؟ این یک سوال نظری است. | آیا می توان حداکثر دقت پیش بینی را برای یک مجموعه داده معین با رگرسیون خطی تعیین کرد؟ به عنوان مثال حداکثر R^2 تنظیم شده است |
31158 | من یک بردار از داده های شبیه سازی شده دارم: داده = c(0.47، 0.45، 0.30، 1.15، 0.82، 0.38، 0.51، 1.36، 1.72، 0.36) با ایجاد اعداد تصادفی مختلف با محوریت 0، نویز را به این اضافه کردم. انحرافات: نویز = rnorm (10، میانگین = 0، sd = 0.1) data_wNoise = داده + نویز من انحراف استاندارد را خودسرانه تنظیم کرده ام (بین 0.001 و 1.5). آیا راه بهتری برای شبیه سازی با تنظیم نسبت سیگنال به نویز خاص وجود دارد؟ من در مورد قدرت سیگنال در داده ها چیزی نمی دانم. | چگونه نسبت سیگنال به نویز را شبیه سازی کنیم؟ |
78765 | دادههای دادهشده در زیر زمان را بر حسب ثانیه بین اتومبیلهای سفید متوالی در جریان ترافیک در یک جاده باز نشان میدهد. آیا میتوان آنها را با توزیع نمایی مدلسازی کرد. زمان 0- 20- 40- 60- 90- 120-180 فرکانس 41 19 16 13 9 2 سوال من این است که چه زمانی فرکانس های مورد انتظار را محاسبه می کنم اگرچه کل باید تا 100 جمع شود اما به دلیل **گرد کردن ** این کار را نمی کند. اشتباهات درسته؟ من مقدار 98.89 را دریافت می کنم. در اینجا باید دسته دیگری را به عنوان بازه **180-infinity** اضافه کنم و مقدار مورد انتظار آن را 100-98.89=1.11 دریافت کنم. آیا اضافه کردن این دسته ضروری است زیرا این یک **توزیع نمایی** است که به سمت بی نهایت می رود؟ البته از آنجایی که مقدار Expected دسته ایجاد شده کمتر از 5 است، در این مورد باید این را با دسته بالا جمع کنم. اما اگر این دسته جدید را در نظر نگیرم، درجات آزادی تغییر می کند. آیا لازم است این دسته جدید به عنوان 180-بی نهایت اضافه شود. | آزمون خوب بودن برازش برای توزیع نمایی |
77052 | هنگام انجام یک تجزیه و تحلیل داده های گمشده با FIML در Lisrel، آمار خوبی از برازش را دریافت نمی کنم. من کشف کرده ام که شما می توانید شاخص های برازش را با استفاده از مجذور کای از یک مدل استقلال محاسبه کنید. حال این سوال پیش از هر چیز این است که چگونه می توانم یک مدل استقلال را در تجزیه و تحلیل داده های گمشده با FIML در Lisrel (سینتکس ساده) تخمین بزنم؟ آیا این امکان پذیر است؟ متشکرم! | Lisrel: مناسب بودن با FIML و داده های از دست رفته |
99619 | برای هدف این سوال، لطفاً من را یک تازه کار آمار در نظر بگیرید. من روی یک پروژه تحقیقاتی (بسیار سرگرمکننده!) کار میکنم که شامل تخمین پیدیاف «ارزشهای شخصی» میشود - یعنی اینکه یک فرد خاص چقدر برای کالایی که میتواند بخرد ارزش قائل است. من میخواستم شکل کاربردی PDF را پیدا کنم تا بتوانم براساس توزیعی که در دادههای تجربی که با آن کار میکردم دیدم، داده تولید کنم. اما پیشنهادی برای پیروی از تخمین حداکثر احتمال دریافت کردم، کاری که در گذشته انجام نداده ام. من آزمایش کردهام، اما به نظر نمیرسد که دادههای من با توزیع معمولی مطابقت داشته باشد... این بیشتر یک توزیع شتر باکتریایی است. **بنابراین آنچه من علاقه مند به دانستن آن هستم این است:** 1. آیا رویکرد فعلی من درست است؟ (به زیر مراجعه کنید) 2. چگونه می توانم با برآورد حداکثر احتمال به این موضوع نزدیک شوم؟ **در اینجا کاری که من تاکنون انجام دادهام این است:** 1. یک CDF از دادههایی که دارم ساختهام (آنها را به عنوان ارزشگذاری در نظر میگیریم) 2. به معنای واقعی کلمه... تخمینگر OLS CDF را به شکل عملکردی پیدا کرد، بنابراین اکنون من یک تخمین چند جملهای از CDF دارم 3. مشتق آن تابع را گرفتم (که باید با PDF برابر باشد) 4. دادهها را مطابق آن مشتق تولید کرد. به طور کلی، این رویکرد نسبتاً خوب عمل کرده است. من هیچ معیاری برای مقایسه داده های تولید شده خود با داده های واقعی ندارم -- من هیچ معیاری را نمی دانم! -- اما از مقایسه دو مجموعه داده، آنها از نظر میانگین و واریانس نسبتاً نزدیک هستند. بسیار قدردانی می شود! \-- یک بچه دانشگاهی مشتاق ویرایش: اضافه کردن جزئیات: تابع چگالی من به این شکل است. من می خواهم یک شکل عملکردی از این را تقریبی کنم، زیرا باید دو کار را انجام دهم: 1. استنباط توزیع داده های بالای 150; بر اساس تئوری، داده هایی وجود دارد که بالای 150 است، اما در این توزیع نیست. 2. داده های تصادفی تولید کنید (مثلاً اندازه نمونه 5000 -> 10000) ! تخمین به این شکل است (مقیاسگذاری نامناسب محور y را نادیده بگیرید - این بزرگشده است)  | ایجاد PDF با فرم عملکردی از تخمین حداکثر احتمال |
72191 | من اطلاعات زیادی در مورد برازش ARMA(p,q) با استفاده از حداکثر احتمال دقیق پیدا کردم، اما برای حداکثر احتمال شرطی بسیار کم. آیا کسی میتواند من را به یک تابع R هدایت کند که با حداکثر احتمال شرطی با ARMA(p,q) مطابقت دارد و همچنین برخی از اسنادی که مفهوم را توضیح میدهند؟ | برازش ARMA(p,q) با حداکثر احتمال مشروط |
25997 | من یک طرح 2 در 2 با 12 موضوع دارم. این دو عامل متغیرهای درون موضوعی هستند. برای هر سلول، 24 پاسخ از هر آزمودنی جمع آوری شد. سوال من این است که آیا باید هر 24 پاسخ را در یک میانگین جمع کنم و سپس از میانگین در lmer به عنوان متغیر وابسته استفاده کنم؟ به نظر می رسد این صفحه وب http://talklab.psy.gla.ac.uk/simgen/faq.html نشان می دهد که در صورت استفاده از مدل جلوه های ترکیبی نیازی به تجمیع نیست، اما من شک دارم که درست باشد. همچنین، اگر پاسخها پاسخهای باینری هستند، آیا میتوانم آنها را میانگینگیری کنم و از lmer تعمیمیافته با خانواده دوجملهای استفاده کنم؟ با تشکر | آیا هنگام استفاده از مدل اثرات مختلط خطی باید داده ها را جمع آوری کنم؟ |
29646 | من متوجه هستم که روشی که توسط اردوگاه های فرکنتیست و بیزی دنبال می شود، به طور کلی متفاوت است. با این حال، یکی از روشهای تخمینی که آنها به اشتراک میگذارند، بهینهسازی یک تابع خاص است: * فرکانسیستها تابع _likelihood_ را به حداکثر میرسانند و حداکثر را میدهند. برآوردگر احتمال (ML). * بیزیها تابع _پسری_ را به حداکثر میرسانند و تخمینگر Max A-Posteriori (MAP) را میدهند. هر دو تابع معمولاً با استفاده از قاعده/قضیه بی ساخته شده اند، که مورد توافق جهانی است و ممکن است یک بار (در حالت دسته ای) یا چندین بار به صورت تکراری اعمال شده باشد. به طور مشابه، هم فرکانسیست ها و هم بیزی ها فاصله زمانی (اطمینان/اعتبار) خود را از این تابع استنتاج می کنند. بنابراین اگر قبلی غیر اطلاعاتی باشد (با فرض اینکه بتوانیم چنین قبلی را فرمول بندی کنیم)، نباید بین «نتایج» به دست آمده توسط بیزی ها و مکررگرایان تمایزی وجود داشته باشد، حتی اگر تفسیر نتایج مذکور متفاوت باشد. اگر این درست باشد، پس تنها تفاوت عملی بین بیزی ها و فرکنتیست ها، اولویت است. آیا این حقیقت دارد؟ * * * ویرایش: در واقع، بیت بهینه سازی سوال من کمی گمراه کننده است، زیرا فقط یک نمونه خاص از تفاوت بین تفکر بیزی و مکرر است. سوال من را می توان به سادگی به عنوان تفاوت بین تابع احتمال و پسین مطرح کرد. به عنوان مثال، آیا افراد مکرر هرگز از MCMC برای محاسبه تابع درستنمایی استفاده خواهند کرد؟ | بهینه سازی و فواصل بیزی و مکرر |
79411 | من مجموعه داده A دارم که در آن خانواده ها هر سه ماهه به مدت یک سال مصاحبه می شوند. من فقط روی خانوادههایی تمرکز میکنم که دادههای مربوط به همه بخشها را دارند. با این تحمیل، مشاهدات بیش از نصف کاهش می یابد. بعد، من مجموعه داده B را دارم که در آن یک متغیر notinA وجود دارد که در داده A نیست، اما در dataB است. من سعی میکنم این متغیر را با استفاده از متغیرهای جمعیتی رایج (موجود در هر دو مجموعه داده) و تطبیق نزدیکترین محله در دادههای A قرار دهم. در این مورد از همه مشاهدات در داده B استفاده نمی شود و برخی از مشاهدات بیش از یک بار در هنگام نسبت دادن متغیر notinA در A از داده B استفاده می شوند. ممکن است، که سپس حذف می شوند. بنابراین، سوال من این است که آیا استفاده از وزن نمونه (pweights) مجموعه داده A برای داده های نهایی (با متغیر ورودی از dataB) قابل توجیه است؟ آیا می توانید لطفاً به ادبیاتی اشاره کنید که نشان می دهد چگونه با وزن نمونه برای مثالی مانند این برخورد کنیم؟ | استفاده از وزن نمونه در رگرسیون |
34670 | من می دانم که نمونه های یکنواختی که در cdf های معکوس استفاده می شود را می توان برای تولید نمونه های معمولی استفاده کرد. من فکر می کردم چگونه یک تکنیک یک نمونه یکنواخت تولید می کند!؟ | چگونه یک نمونه یکنواخت توسط کامپیوتر تولید می شود؟ |
31152 | من مشکل زیر را دارم: من 3200 همبستگی بین معیار خاصی از اتصال و 1 نتیجه رفتاری در نمونه ای از افراد انجام داده ام. از آنجایی که همبستگیهای منفرد (که با R و p ارائه میشوند) مستقل از یکدیگر نیستند، اصلاح بونفرونی یا FDR (در مقادیر p دادهشده) نتوانست هیچ همبستگی قابلتوجهی باقی بگذارد. بنابراین سعی کردم این رویکرد جایگشت را دنبال کنم: در حالی که دادههای اتصال سوژه موجود را تغییر میدادم، و همچنین دادههای رفتاری را از سوی دیگر تغییر میدادم، یک شبه نمونه جدید ایجاد کردم (که در آن ارتباط و رفتار سوژهها دیگر مطابقت ندارند) که برای آن همه همبستگی ها را دوباره محاسبه کردم (3200). من این کار را 10000x انجام دادم و بنابراین 10000x3200 p-value تصادفی بر اساس مجموعه داده های واقعی ایجاد کردم. پس از سفارش دادن همه مقادیر p (کم به بالا) به کمترین 5٪ از آن مقادیر p (آلفا) نگاه کردم: همبستگی های تصادفی به احتمال 5٪ به مقدار p 0.01 می رسد. در گروهی دیگر، 5% کمترین مقدار p فقط به 0.052 می رسد. سوال من این است که آیا این روشی قابل قبول برای تصحیح همبستگی های چندگانه در یک مجموعه داده با تعداد زیادی همبستگی مجرد غیر مستقل است؟ به ویژه، آیا منطقی است که از یک p-value تعدیل شده استفاده کنید که حتی بالاتر از مقدار اصلی یعنی 0.05 باشد. شاید شانس رسیدن به 0.05 در آن مجموعه داده به دلیل واریانس و غیره حتی کمتر از 5٪ باشد. منتظر پاسخ ها و نظرات شما هستم. خیلی ممنون بهترین، رابرت | تنظیم p-value از طریق جایگشت برای همبستگی های متعدد |
109300 | من با گفتن اینکه درک دقیقی از آنچه در زیر سرپوش یک طبقهبندی کننده SVM وجود دارد، ندارم. من علاقه مند به استفاده از یک SVM با هسته RBF برای آموزش یک طبقه بندی کننده دو کلاس هستم. با این حال، متوجه شدم که آموزش (و حتی پیشبینی) هنگام کار با هسته RBF زمان زیادی میبرد (در متلب با استفاده از libsvm و پایتون با استفاده از sklearn اجرا شدهاند). سوال من این است که آیا می توان داده های خود را با استفاده از یک هسته RBF به خودی خود به بعد بالاتر فرستاد و سپس یک SVM خطی را روی این داده تبدیل شده اعمال کرد، یعنی تا زمانی که استفاده از یک RBF SVM نتایج مشابهی را به همراه داشته باشد. همانطور که من از همان C و Gamma استفاده می کنم؟ من خیلی مطمئن نیستم که هسته ها چگونه اعمال می شوند، بنابراین امیدوارم این بخش منطقی باشد. اگر این درست باشد، من میتوانم دادهها را با استفاده از هسته RBF در فضای ویژگیهای ابعاد بالاتر از قبل پردازش کنم و سپس با استفاده از یک طبقهبندی خطی ساده، آموزش و پیشبینی را بسیار سریع انجام دهم. | ابتدا یک هسته RBF را اعمال کنید و سپس با استفاده از یک طبقهبندی خطی آموزش دهید |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.