_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
82797 | من یک نمونه 100 نقطه ای دارم که پیوسته و تک بعدی هستند. من چگالی ناپارامتری آن را با استفاده از روش های هسته تخمین زدم. چگونه می توانم نمونه های تصادفی را از این توزیع تخمین زده بگیرم؟ | چگونه می توان نمونه های تصادفی را از یک توزیع تخمینی ناپارامتریک استخراج کرد؟ |
6535 | آیا استفاده از ANOVA با اندازه گیری مکرر وقتی یک فاکتور 2 سطحی درون آزمودنی دارید که در آن 1 سطح با آزمایش های بیشتری نسبت به سطح دیگر نشان داده می شود، اشکالی دارد. من می دانم که در ANOVA ما در حال مقایسه میانگین ها هستیم، اما آیا خطای استاندارد سخت تر در یک سطح ANOVA را از بین می برد؟ برای مثال، اگر IV من همخوانی محرک است و من 80 بار کارآزماییهای همخوان را ارائه میکنم در حالی که فقط 20 بار کارآزماییهای ناسازگار ارائه میدهم، آیا میتوانم فقط ANOVA را شامل همه کارآزماییها اجرا کنم یا باید با انتخاب همان مقدار کارآزمایی، آنالیز را اجرا کنم. هر سطح عامل (یعنی فقط 20 کارآزمایی متجانس را برای جفت شدن با 20 کارآزمایی ناهمخوان انتخاب کنید)؟ اگر این برای یک طراحی کاملاً درون موضوعی خوب است، آیا اگر یک متغیر متعادل یا نامتعادل بین موضوعات به طرح اضافه شود، مشکلی ایجاد میکند؟ | آیا یک عامل درون آزمودنی با سطوح نابرابر نمایش داده شده، ANOVA با اندازه گیری های مکرر را خراب می کند؟ |
31381 | توابع چگالی احتمال $f_{1}\left(x\right)$ و $f_{2}\left(x\right)$ و توزیع مخلوط $f_{3}\left(x\right)\equiv را در نظر بگیرید pf_{1}\left(x\right)+\left(1-p\right)f_{2}\left(x\right)$$ فرض کنید لحظات مرتبط با $f_{1}\left(x\right)$ همه به وضوح تعریف شدهاند، اما لحظههای $f_{2}\left(x\right)$ ممکن است لزوماً نباشند (مثلاً توزیع کوشی یا لوی). برای محاسبه مقدار مورد انتظار می توان یافت $$\int_{-\infty}^{\infty}xf_{3}\left(x\right)dx=p\int_{-\infty}^{\infty}xf_{1}\left(x\right) )dx+\left(1-p\right)\int_{-\infty}^{\infty}xf_{2}\left(x\right)dx$$ احتمالاً اگر $\int_{-\infty}^{\infty}xf_{2}\left(x\right)dx$ بی نهایت یا تعریف نشده باشد، آنگاه مقدار مورد انتظار فقط زمانی وجود دارد که $p=1$ باشد. آیا این منطق درست است، حتی اگر $p$ نزدیک اما کمتر از $1 باشد؟ آیا به لحظات بالاتر نیز گسترش می یابد؟ | اگر یک توزیع دارای گشتاورهای نامحدود/بی نهایت باشد، مخلوط گشتاورها را توزیع می کند |
83093 | من در حال آزمایش ترکیبی از فعالیت های پیش پردازش روی یک مجموعه داده کوچک هستم (n=48، p=30). این اسکریپت 3200 نسخه مختلف از داده های اصلی را تولید می کند و نحوه عملکرد آنها را در یک کار طبقه بندی در برابر 5 طبقه بندی کننده اندازه گیری می کند. پارامترهای طبقه بندی کننده با 10 بار بوت استرپ تنظیم می شوند. من فرض میکنم یک طرح نمونهگیری خوب این است که اعتبارسنجی متقاطع 10 برابری را 10 بار تکرار کنیم، اما این از نظر محاسباتی بسیار زیاد است، حداقل برای منابع من: * 3200 بار * 10 * 10 (اعتبار متقابل) * برای هر آهنگ دور و آموزش پنج مدل 10 * 5 ایده در حال حاضر 1 است. برای هر داده نسخه 2. پارامترهای مدل ها را با 10 بار نمونه بوت استرپ (2/3 مجموعه تیونینگ - 1/3 مجموعه تست تیونینگ) 3. آموزش مدل ها با نمونه بوت استرپ جدید با توجه به پارامترها. طرح نمونه گیری و مجموعه های آموزشی و آزمایشی را ترکیب می کند. یک طرح نمونه برداری خوب و در عین حال محاسباتی عملی در این شرایط چه خواهد بود؟ | مشاوره در مورد طرح نمونه برداری مجدد برای یک نمونه کوچک / موقعیت محاسباتی پرهزینه؟ |
43331 | در مورد اینکه آیا باید تعاملات را از نظر آماری پیگیری کرد یا خیر، بحث های زیادی وجود دارد. در برخی زمینه ها انجام ندادن این کار غیرعادی است. من یک تعامل سه طرفه با یک متغیر پیوسته، یکی دوگانه و یکی با سه دسته دارم و در این انجمن راهنمایی خواستم. من توصیه های مفیدی از گلن دی پالما دریافت کردم که گفت باید یک برهمکنش 2×3 را یک بار به اضافه یک انحراف استاندارد متغیر پیوسته و یک بار در منهای یک انحراف استاندارد رسم کنم. من این کار را انجام دادم. در مقاله من مقدار F، df و p-value را میدهم و بدون آزمایش بیشتر آنچه را میتوان در دو نمودار مشاهده کرد، توضیح داد. آیا کسی مقاله ای دارد که بتوانم به آن مراجعه کنم که از این رویکرد حمایت کند؟ من کنجکاو هستم که نظر دیگران را نیز در مورد این موضوع بشنوم. بهترین آرزوها، Mariska | پیگیری آماری تعاملات؟ |
89723 | من در حال حاضر در حال اجرای یک آزمون AB روی تعدادی وب سایت برای تغییری که در همه وب سایت ها ایجاد کرده ایم و در حال اندازه گیری درآمد/سایت/گروه هستم، بنابراین گروه های آزمایشی من به این صورت هستند: وب سایت a | گروه آزمون a | بازدیدکنندگان منحصر به فرد | درآمد وب سایت a | گروه آزمایشی b | بازدیدکنندگان منحصر به فرد | درآمد وب سایت b | گروه آزمون a | بازدیدکنندگان منحصر به فرد | درآمد وب سایت b | گروه آزمایشی b | بازدیدکنندگان منحصر به فرد | درآمد و غیره در ابتدا می خواهم نشان دهم که بین دو گروه آزمایشی به طور کلی تفاوت وجود دارد و بنابراین از یک فرضیه صفر استفاده کردم: گروه آزمایشی هیچ تفاوتی برای درآمد/کوکی در همه سایت ها ایجاد نمی کند. سپس می توانم با خوشحالی تمام بازدیدکنندگان منحصر به فرد (در سراسر سایت ها) و درآمد را برای هر گروه آزمایشی جمع آوری کنم. با این حال، من واقعاً نمی دانم از اینجا چه کار کنم. من می دانم که می توان با تبدیل ها به صورت دوجمله ای رفتار کرد، اما درآمد را نمی توان انجام داد. ما همچنین نمی توانیم مقدار سفارش متوسط را به عنوان یک توزیع نمایی یا عادی در نظر بگیریم (ایده هایی که من به آنها نگاه کردم). در ابتدا، من در مورد استفاده از آزمون Mann-Whitney U فکر کردم، اما به نظر میرسد که بیشتر چیزهایی که خواندهام نشان میدهند که اینها برای <20 ورودی در آرایه شما بهترین کار را دارند. هنگامی که من یک بردار حاوی مقداری که هر مشتری خرج کرده است ایجاد می کنم (بردار بسیار کم جمعیت - بیشتر مردم چیزی نمی خرند)، هر گروه آزمایشی بردار طول متفاوتی با اندازه 100000 دارد. تلاش بعدی من شامل راهاندازی (فکر میکنم) بود - من اساساً با نمونهبرداری از بردار درآمد کم جمعیت ذکر شده، یک توزیع نرمال برای هر گروه آزمایشی ایجاد کردم. ایجاد حدود 10000 بردار مانند این و اجرای یک آزمون نرمال بودن بر روی مجموع هر یک از بردارها، توزیع نرمال را برای هر گروه آزمایشی به من می دهد. از این رو، فکر میکنم میتوانم آزمون t را روی دو بردار توزیع شده معمولی انجام دهم تا اهمیت تغییر ایجاد شده را بیابم و از این رو فرضیه صفر را پشتیبانی/رد کنم؟ سوال من این است که آیا هر یک از تلاش های بالا کار درستی است؟ من نمی توانم تصور کنم که این کار آنقدر غیرمعمول باشد که بخواهیم انجامش بدهی که روشی برای انجام این کار به طور کلی پذیرفته نشده است. علاوه بر این، من همچنین میخواهم بتوانم چیزی را در این مسیر گزارش کنم: گروه آزمایشی x y% بهتر از گروه آزمایشی z با صدک 5 و 95 در آن درصد افزایش q و j است. بهترین راه برای محاسبه این بیت های اطلاعات چیست؟ متشکرم، مت | محاسبه اهمیت و افزایش در آزمونهای A/B درآمد |
71645 | من نسبتاً با R جدید هستم و با استفاده از روش anova یک شی rpart ایجاد می کنم (از آنجایی که با ستون های پیوسته سروکار دارم) EstimationModel <- rpart(OutpoutColumn ~ ., data=DATAFRAME,method=anova) اکنون می خواهم واریانس هر گره را پیدا کنید. شی rpart میانگین را به من می دهد اما چگونه می توانم واریانس را بدست بیاورم؟ | نحوه یافتن Variance از شی rpart در R |
88458 | من یک پروبیت هکمن را اجرا می کنم. هر دو مرحله خطاهای عادی متغیر پنهان را فرض می کنند، درست است؟ داده های من از یک نظرسنجی است و بسیاری از متغیرها به شدت منحرف هستند، بنابراین من نگران هستم که آیا این فرض صادق است یا خیر. آیا آزمایشی وجود دارد که بتوانم از آن استفاده کنم؟ نمونه 10000 هست کمکی میکنه؟ همچنین آیا می توانم با تغییر شکل داده ها به نوعی خطاها را به حالت عادی نزدیک کنم؟ بگو، گرفتن سیاهههای مربوط؟ با تشکر | تست نرمال بودن باقیمانده های نهفته (هکمن) پروبیت؟ |
71640 | من یک مدل پیش بینی برای ساختن دارم و به دنبال ایده هایی در مورد این رویکرد هستم. من مجموعه داده آموزشی بزرگی از موجودی مشتریان دارم (یک حساب پس انداز را در نظر بگیرید) در زمان t=1 تا 36 که میانگین های ماهانه در طول سه سال را نشان می دهد. من می خواهم مدلی برای پیش بینی ارزش حساب مشتری در t=4..36 با استفاده از اطلاعات موجود در انتهای t=3 بسازم. _بنابراین، این یک مشکل از نوع پیش بینی است، اما نه در مفهوم سری زمانی که در آن دنباله ای از داده ها را به طور قابل توجهی طولانی تر از افق زمانی که می خواهید پیش بینی کنید، مشاهده می کنید. ردیف در مجموعه داده برای هر ترکیب مشتری/ماه ایجاد می شود (بنابراین در اینجا هر مشتری 33 ردیف در داده دارد و متغیری به نام t مقادیر 4 تا 36 را می گیرد). برای هر ماه، متغیرهای وضعیت اولیه برای مشتری که در پایان ماه 3 شناخته می شوند، تکرار می شود. این تنظیمات به اصطلاح داده های دوره شخص است. سپس یک مدل رگرسیون بر روی این داده ها را با استفاده از داده های حالت اولیه و 't' یاد خواهم گرفت. هیچ حسابداری برای این واقعیت وجود ندارد که مشتریان در داده ها تکرار می شوند. این برای یک مدل مخاطره زمانی گسسته کار می کند، اما سوال من این است که آیا این برای یک رگرسیون خطی یا یک الگوریتم یادگیری ماشینی (مثلاً شبکه عصبی) خوب است؟ آیا راه بهتری وجود دارد؟ **افزودن**: به طور خاص میپرسم اگر چنین مدلی بهصراحت اندازهگیریهای مکرر و همبستگی بین ردیفها (مشتریان یکسان در مقادیر مختلف 't') را در نظر نگیرد، شکست خواهد خورد. هنگام برخورد با یک مدل پیشبینی، چگونه میتوان آن را به حساب آورد؟ | مدل های پیش بینی طولی |
77808 | اخیراً در تفسیر اصطلاح تعاملی که در رگرسیون استفاده میکنم با مشکل مواجه شدهام. من دو متغیر ساختگی و یک متغیر پیوسته دارم. برای توضیح، BLACK اگر پاسخ دهنده سیاه باشد مقدار 1 و در غیر این صورت 0 را می گیرد. MAR در صورت ازدواج مقدار 1 و در غیر این صورت 0 را می گیرد. من همچنین یک متغیر پیوسته برای تحصیلات EDUC پاسخگو درج می کنم. من متغیر MARBLACK را ایجاد می کنم که برای سیاهان متاهل مقدار یک را می گیرد. هنگام ساخت مدل خود، تخمین می زنم: $$ EARNINGS= \alpha + \beta_1 BLACK + \beta_2 MAR + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_5 MAR*EDUC + \beta_6 MARBLACK*EDUC + \beta_7 EDUC $$ این دیدگاه من از آن است: $\alpha + \beta_1 BLACK + \beta_2 MAR + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_5 MAR*EDUC + \beta_6 MARBLACK*EDUC + \beta_7 EDUC $ مقدار پیشبینیشده برای سیاهپوستان متاهل $\alpha + \beta_1 BLACK + \beta_4 BLACK*EDUC + \ را میدهد. beta_7 EDUC $ مقدار پیشبینیشده برای سیاهپوستان غیرمتاهل را میدهد $\alpha + \beta_2 MAR + \beta_5 MAR*EDUC + \beta_7 EDUC $ مقدار پیشبینیشده برای غیرسیاهپوستان متاهل را میدهد $\alpha + \beta_7 EDUC $ مقدار پیشبینیشده را برای غیرسیاهپوستان غیرمتاهل میدهد (کلاس مرجع من ). بنابراین، اگر بخواهم حق بیمه متاهل و سیاه پوست بودن را محاسبه کنم، $\beta_1 BLACK + \beta_2 MAR + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_5 MAR*EDUC + \beta_6 MARBLACK*EDUC $ و نه فقط $ \beta_3 MARBLACK + \beta_6 MARBLACK*EDUC $ شهود من این است که سیاهپوست بودن و متاهل بودن سه اثر برای مخاطب ایجاد می کند: سیاه بودن، متاهل بودن و تعلق داشتن به هر دو دسته. با این حال، در بحث با محقق دیگری، او ادعا می کند که فقط ضرایب MARBLACK است که باید در نظر بگیرم. او آن را با انتظارات مشروط توضیح میدهد: اجازه دهید $E[EARNINGS|BLACK=1,MAR=1]= \alpha + \beta_1 BLACK + \beta_2 MAR + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_5 MAR*EDUC + \ beta_6 MARBLACK*EDUC + \beta_7 EDUC $ و $E[EARNINGS|BLACK=0,MAR=1]= \alpha + \beta_2 MAR + \beta_5 MAR*EDUC + \beta_6 + \beta_7 EDUC $ سپس اثر تغییر را محاسبه میکند، یعنی $E[EARNINGS|BLACK =1,MAR=1]-E[EARNINGS|BLACK=0,MAR=1]= \beta_1 BLACK + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_6 MARBLACK*EDUC $. او آن را EARNINGSbis می نامد. سپس ادامه می دهد و کارهای زیر را انجام می دهد: $E[EARNINGSbis|MAR=1]=\beta_1 BLACK + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_6 MARBLACK*EDUC$ و $E[EARNINGSbis|MAR=0]= \beta_1 BLACK + \beta_4 BLACK*EDUC$ او دوباره اثر تغییر را محاسبه میکند و او با $\beta_3 MARBLACK + \beta_6 MARBLACK*EDUC$ باقی مانده است. و به خصوص در جایی که از نظر تفسیر منحرف می شوند؟ خیلی ممنون. با احترام، اولیویه. | تعامل بین آدمک ها و یک متغیر پیوسته |
15000 | با قرض گرفتن از این پست در SAS و R: http://sas- and-r.blogspot.com/2011/07/example-92-transparency-and-bivariate.html من مجموعه بزرگی از داده ها را دارم که بهترین راه حل (یا حداقل به خوبی نزدیک شده است) با استفاده از نوعی نمودار پراکندگی با هموارسازی یا باینینگ. تابع smoothScatter R به طرز شگفت انگیزی کار می کند، اما تعداد سطل های زیادی دارد (من معتقدم 128 پیش فرض است). مشکل نمودار کانتور در SAS 9.2 است. به نظر می رسد که تنها 10 سطح در طرح کانتور SAS امکان پذیر است. خود داده دارای _تن_مقادیر در حدود صفر است و سپس مقادیر مثبت بیشتری دارد که همگی در یک دسته جمع می شوند و در نتیجه در نمودار پنهان می شوند. آیا کسی می داند چگونه می توان تعداد کانتورهایی را که SAS رسم می کند افزایش داد یا روی 10 ثابت شده است؟ به عنوان مثال، طرح در R نشان می دهد که تقریباً کجا می خواهم باشم، و نزدیک ترین چیزی که در SAS به آن رسیده ام:   | افزایش تعداد سطل ها در طرح کانتور SAS 9.2 |
72329 | من باید مسئله زیر را حل کنم: 1. من مدل رگرسیون خطی خود را چندین بار (مثلا 1000 بار) با دو متغیر اجرا می کنم: y - متغیر وابسته پیوسته، x - متغیر مستقل پیوسته (میانگین چندین اندازه گیری متوالی). 2. متغیر مستقل در هر مدل به طور تصادفی با استفاده از میانگین و انحراف معیار ترسیم شد. به نوعی باید این نتایج را در یک نتیجه رگرسیونی ترکیب کنم. تا آنجایی که من می دانم ضرایب رگرسیون 1000 مدل را می توان فقط میانگین کرد. با این حال، این واقعا برای من روشن نیست که چگونه می توانم کل واریانس 1000 مدل را تخمین بزنم. | نتایج رگرسیون ادغامی در SPSS |
88185 | هنگام استفاده از کتابخانه موش در R برای انتساب داده ها با مشکل زیر مواجه می شوم. من یک ماتریس دادهای دارم که اطلاعات موجود در «y1» و «y2» و متغیر پیشبینیکننده «x» وجود ندارد. با این حال، به جای اینکه همه دادههای گمشده «NA» را در «y1» و «y2» درج کنم، میخواهم فقط زیرمجموعهای از دادههایی را که با «s1==1» و «s2==1» شناسایی شدهاند، درج کنم. به دلیل ساختار داده، من نمی توانم فقط موارد را با `s1==0` یا `s2==0` حذف کنم. داده ها مشابه این به نظر می رسند: n=20 y1=c(rnorm(n)) y2=c(rnorm(n)) x=c(y1+y2+rnorm(1)) y1[c(1:10,16 :20)]<-NA y2[11:20]<-NA s1=c(rep(0,10),rep(NA,5),rep(1,5)) s2=c(rep(NA,10),rep(1,5),rep(0,5)) (data<-data.frame(y1,y2,x,s1,s2)) اکنون سؤال این است که «موش» دادههای گمشده را در «y1» و «y2» برای «s1==1» قرار دهد. و `s2==1`، اما نه برای `s1==0` و `s2==0`. واضح است که انتخاب روی «data$s1==1» همه مشاهدات روی «y2» را حذف میکند. دلیلی که میخواهم این کار را انجام دهم این است که در یک فایل داده بزرگتر، تعداد انتسابهای لازم منجر به مشکلات پوششی در موش با meth=polyreg میشود. با تنظیم شاخصهای `s` من سعی میکنم پیچیدگی بخشهایی از دادهها را که برای استنتاج مربوطه نیاز دارند کاهش دهم. | با استفاده از MICE در R: آیا می توان تنها بخش های فرعی از داده ها را نسبت داد؟ |
77805 | یک جفت مرتب شده از متغیرهای تصادفی $(x_i,y_i)$ و رابطه زیر را در نظر بگیرید: $$\frac{\left(\sum_i^n x_i\right)^2}{\sum_i^n x_i y_i}\leq \ sum_i^n\frac{x_i}{y_i}$$ آیا روش مفیدی برای تنظیم مجدد رابطه از نظر توابع آماری وجود دارد؟ آیا می توان رابطه بین دو متغیر را به روشی شهودی و غیررسمی خلاصه کرد؟ اصطلاحات در LHS در استخراج معادله برازش حداقل مربعات ظاهر می شوند، اما من اصطلاح RHS را نمی شناسم. | چگونه می توان این نابرابری را به گونه ای دیگر بیان کرد؟ |
90203 | من سعی می کنم نتیجه ای را از یک کتاب بازتولید کنم (پایین را ببینید) و کار نمی کند. من می خواهم در مورد این روش مطالعه بیشتری انجام دهم، اما او به طور خاص روشی غیر از یک فرمول ارائه نمی دهد. من قبلاً سعی کردم روش را با استفاده از ویکیپدیا شناسایی کنم اما موفقیت آمیز نبود. این مدل خطی است: $Z = cX + dY$ او معادله ای برای $c$ ارائه می دهد: $$ c = \frac{{\rm corr}(X,Z) - {\rm corr}(Y,Z) {\rm corr}(X,Y)}{1-{\rm corr}(X,Y)^2} $$ وزن $d$ به طور معادل محاسبه میشود. سپس می نویسد که $c$ و $d$ می توانند برای محاسبه مربع خطا استفاده شوند. با استفاده از آزمون و خطا، متوجه شدم که ضریب همبستگی ${\rm corr}()$ به احتمال زیاد اسپیرمن $\rho$ است (حداقل این روشی است که او تاکنون برای محاسبه ضرایب همبستگی استفاده کرده است.). علاوه بر این، او اشاره میکند که فرض میشود که میانگین X$ و Y$ در حال ناپدید شدن است. من با رگرسیون خطی نسبتاً تازه کار هستم، بنابراین در ابتدا فکر کردم که حداقل مربعات است، اما این معادله به نظر من شبیه آن نیست. آیا کسی این روش را می شناسد و می تواند نامی برای من بگذارد تا بتوانم بیشتر در مورد آن مطالعه کنم؟ همه اینها از یک کتاب علمی محبوب در مورد آمار فوتبال / فوتبال آمده است. کتاب به زبان آلمانی است. فرمول را می توان در ضمیمه A7.3 در صفحه 297 یافت. مثال خاص را که من سعی می کنم بازتولید کنم در صفحه 140 یافت می شود. | این چه نوع رگرسیون خطی چند متغیره است؟ |
15002 | فرض کنید من بردارهای متغیر مستقل $\vec{x}$ و $\vec{z}$ و متغیر وابسته $y$ را مشاهده میکنم. من میخواهم مدلی از این فرم را بسازم: $$y = \vec{x}^{\top}\vec{\beta_1} + \sigma g\left(\vec{z}^{\top} \vec {\beta_2}\right) \epsilon، $$ که در آن $g$ یک تابع دوبار متمایز با ارزش مثبت است، $\sigma$ یک پارامتر مقیاسبندی ناشناخته است، و $\epsilon$ است یک متغیر تصادفی گاوسی با میانگین صفر، واریانس واحد (فرض میشود مستقل از $\vec{x}$ و $\vec{z}$). این اساساً تنظیم آزمون ناهمگونی کوئنکر است (حداقل تا جایی که من آن را درک می کنم). من $n$ مشاهدات $\vec{x}، \vec{z}$ و $y$ دارم، و میخواهم $\vec{\beta_1}$ و $\vec{\beta_2}$ را تخمین بزنم. اما من چند مشکل دارم: 1. من مطمئن نیستم که چگونه مسئله تخمین را به عنوان چیزی شبیه حداقل مربعات مطرح کنم (من فرض می کنم یک ترفند معروف وجود دارد). اولین حدس من چیزی شبیه $$min_{\vec{\beta_1}، \vec{\beta_2}} \left(\sum_{i=1}^n \frac{\left(y_i - خواهد بود \vec{x_i}^{\top}\vec{\beta_1}\right)^2}{g\left(\vec{z_i}^{\top}\vec{\beta_2}\right)^2}\ راست)\left(\sum_{i=1}^n \frac{1}{g\left(\vec{z_i}^{\top}\vec{\beta_2}\right)^2}\right)^{-1}، $$، اما من مطمئن نیستم چگونه آن را به صورت عددی حل کنید (شاید یک روش تکراری شبه نیوتنی ممکن است انجام دهد). 2. با فرض اینکه بتوانم مشکل را به روشی معقول مطرح کنم و تخمینهایی را بیابم $\hat{\beta}_1, \hat{\beta}_2$، میخواهم توزیع تخمینها را بدانم بهطوری که _ به عنوان مثال. _ من می توانم آزمون های فرضیه را انجام دهم. من میتوانم دو بردار ضریب را جداگانه آزمایش کنم، اما روشی را برای آزمایش ترجیح میدهم، مثلاً $H_0: \vec{w_1}^{\top} \vec{\beta_1} + \vec{w_2} ^{\top} \vec{\beta_2} \le c$ برای $\vec{w_1}، \vec{w_2}، c$ داده شده. | استنتاج در مدل خطی با هتروسکداستیکی شرطی |
35803 | سناریوی زیر را در نظر بگیرید: آلیس مشترک یک سرویس اجاره ویدیو می شود که به او امکان تماشای فیلم را می دهد. هر بار که A فیلمی را تماشا می کند، به آن نمره شست بالا (1) یا انگشت شست پایین (0) می دهد و سپس فیلم بعدی را که می خواهد تماشا کند انتخاب می کند. هر فیلم دقیقاً متعلق به یک کارگردان است و یک کارگردان می تواند فیلم های زیادی را کارگردانی کند. سوال این است که بهترین راه برای تعیین کارگردان «مورد علاقه» A چیست؟ فکر اولیه من این بود که کاری انجام دهم: * برای هر کارگردان حداقل یک فیلمی که A تماشا کرده است، حد پایین فاصله اطمینان دو جمله ای (مثلاً فاصله امتیاز ویلسون) را به عنوان امتیاز مطلوب بودن A برای آن کارگردان محاسبه کنید، اما، این رویکرد دو جمله ای ناقص به نظر می رسد زیرا اطلاعات به ظاهر حیاتی را نادیده می گیرد: آلیس مجموعه ای کامل از فیلم ها را برای انتخاب دارد و اگر به طور مداوم فیلم تماشا کند یک کارگردان خاص، پس آیا این چیزی در مورد ترجیح او برای آن کارگردان به ما نمی گوید، حتی اگر او به فیلم های آن کارگردان کمتر از میانگین خود امتیاز دهد؟ من احساس میکنم اگر فقط رتبهبندی فیلمهای تماشا شده را در نظر بگیریم، باید عنصری از رای دادن با پا وجود داشته باشد که نادیده گرفته شود. بهترین راه برای ترکیب انتخاب فیلم/کارگردان با رتبه بندی فیلم های جداگانه برای تعیین کارگردان مورد علاقه A چیست؟ به نظر میرسد ترجیح A برای کارگردان D باید تابعی از امتیازات A در مورد فیلمهای D باشد که او تماشا کرده است، و همچنین درصد تمام فیلمهای D که A برای تماشای انتخاب کرده است. به روز رسانی: باید روشن کنم، مشکلی که من با آن دست و پنجه نرم میکنم به این سادگی نیست، بلکه بیشتر شبیه این است که «A فیلمی را تماشا میکند و اگر آن را دوست داشت، کادری را چک میکند». بنابراین، هر مشاهده به 0 یا 1 منجر میشود، اما عدم علامت زدن یک کادر کاملاً شبیه «شست پایین» نیست، زیرا بیننده ممکن است احساس کند فقط در صورتی که واقعاً دوست داشته باشد، کادر «تأیید» را بررسی کند. چیزی دلیل بیشتر این است که انتخاب آنچه برای تماشا کردن باید در اولویتها لحاظ شود | چگونه تولید کننده محتوای مورد علاقه کاربر را از روی رتبه بندی فردی مشخص کنیم؟ |
108974 | من مجموعه داده ای از پردازش سفارش با 8 میلیون ردیف با ستون های زیر دارم: * HistoryId \- ستون هویت رکوردها * ItemId \- شناسه مورد پیگیری شده * وضعیت قبلی \- وضعیت مورد قبل از تاریخچه رکورد ایجاد شده * `وضعیت جدید` \- وضعیت مورد هنگام ایجاد سابقه سابقه * `زمان تا تغییر وضعیت` \- اختلاف زمانی بین رکورد قبلی مورد تا این سابقه سابقه ایجاد شده است. من می خواهم این داده ها را با یک نمودار / نمودار تجسم کنم که جریانی مشابه این را نشان می دهد: وضعیت 1 --> وضعیت 2 --> وضعیت 3 --> وضعیت 4 --> وضعیت 5 وضعیت 5 وضعیت 4 --> وضعیت 5 وضعیت 2 --> وضعیت 3 --> وضعیت 5 --> وضعیت 2 --> وضعیت 4 --> وضعیت 5 وضعیت 5 --> وضعیت 4 --> وضعیت 5 وضعیت 4 --> وضعیت 5 در مثال بالا - فرض کنید که همه موارد دارای موارد زیر هستند: 1. وضعیت اول یا وضعیت 1 یا وضعیت 2 است. 2. همه مواردی که با وضعیت 1 شروع می شوند دارای وضعیت دوم هستند وضعیت 2، در حالی که برای موارد شروع با وضعیت 2 تا حدی وضعیت 3 هستند و بقیه موارد وضعیت 4 هستند 3. حرکت بر روی منطق مشابه (2) .) با شکست توسط هر جریان. من می خواهم داده ها را کاوش کنم و تمام جریان های ممکن داده ها را تجسم کنم. سپس آنها را با شمارش تعداد آیتمهایی که از هر «وضعیت» هر جریان عبور میکنند، خلاصه کنید. در حال حاضر، من آنها را به صورت دستی انجام می دهم. آیا می توان این را خودکار کرد و آن را روی نمودار تجسم کرد؟ دادههای نمونه: HistoryID ItemId Previous_status New_Status 1 1 NA status_1 2 2 NA status_2 3 1 status_1 status_2 4 1 status_3 status_4 5 2 status_1 status_3 6 1 status_4 status_5 7 2 status_3 status_5 7 2 status_3 status_5. - توضیح: * `X` \- شاخص وضعیتی است که یک آیتم در چرخه عمر خود دارد. * Y \- نام وضعیت است * اندازه \- تعداد آیتم هایی که از وضعیت Y در نمایه X عبور می کند. * همانطور که می بینید اکثر موارد دارای وضعیت Y به عنوان وضعیت شروع هستند (ستون اول سمت چپ). * سپس به سمت راست حرکت می کنند و به وضعیت دیگری تبدیل می شوند (گاهی ممکن است به وضعیت اولیه برگردند اما در نمایه بعدی) * محدودیت این است که جریان را با جزئیات نشان نمی دهد حتی من می توانم جریان را با تغییر اندازه ببینم. از وقت اضافه امتیاز. * چیزی که من واقعاً میخواهم چیزی شبیه درخت تصمیم است که در آن میتوانید نحوه جریان آیتم از طریق وضعیت را ببینید و هر جریان از یکدیگر جدا است.  * * * من موفق شدم از بسته riverplot استفاده کنم. با این حال من برخی از مشکلات مانند تصویر زیر دارم. کسی میداند چگونه میتوان نشانگر را به جای درست روی نقطهها در کناره نشان داد؟ از آنجایی که من یک وضعیت حدود 30 دارم و زمانی که آنها مانند تصویر زیر نمایش داده شوند بسیار گیج کننده است. برای مرجع شما، در اینجا پیوند به آموزش بسته riverplot وجود دارد | تجسم داده های فرآیند |
30387 | اگر حجم نمونه کوچکی داشته باشیم، آیا توزیع قبلی تأثیر زیادی بر توزیع پسین خواهد داشت؟ | رابطه بین حجم نمونه و تأثیر پیشین بر پسین چیست؟ |
4165 | من می خواهم تصمیم بگیرم که آیا باید درسی به نام مقدمه ای بر فرآیندهای تصادفی را که ترم آینده در دانشگاه من برگزار می شود، بگذرانم. از مدرس پرسیدم که مطالعه چنین درسی چه کمکی به من به عنوان یک آمارگیر می کند، او گفت که چون از احتمال می آید، آمار بسیار کمی می داند و نمی داند چگونه به سوال من پاسخ دهد. من میتوانم حدس بیسوادی بزنم که فرآیندهای تصادفی در آمار مهم هستند. اما من نیز کنجکاو هستم که بدانم چگونه. یعنی **درک اساسی در فرایندهای تصادفی در چه زمینهها/روشهایی به من در انجام آمار بهتر کمک میکند؟** | مطالعه «فرایندهای تصادفی» چگونه به من به عنوان یک آمارگیر کمک می کند؟ |
96439 | آیا تحقیقی در مورد چگونگی تخمین میانه جمعیت با استفاده از نمونه گیری چند مرحله ای انجام شده است؟ نمونه گیری تصادفی ساده در مورد من امکان پذیر نیست، من واقعاً دوست دارم از چیزی مانند نمونه گیری چند مرحله ای استفاده کنم. | نمونه گیری چند مرحله ای برای میانه جمعیت |
88183 | من روی یک مشکل طبقه بندی کار می کنم که یک متریک شباهت بین دو عکس ورودی اشعه ایکس را محاسبه می کند. اگر تصاویر مربوط به یک شخص باشند (برچسب راست)، یک متریک بالاتر محاسبه خواهد شد. تصاویر ورودی دو فرد مختلف (برچسب اشتباه) متریک کمتری را در پی خواهد داشت. من از اعتبارسنجی متقاطع 10 برابری طبقه بندی شده برای محاسبه احتمال طبقه بندی اشتباه استفاده کردم. اندازه نمونه فعلی من حدود 40 مطابقت درست و 80 منطبق اشتباه است که هر نقطه داده معیار محاسبه شده است. من یک احتمال طبقه بندی اشتباه 0.00 دریافت می کنم، اما به نوعی تجزیه و تحلیل فاصله اطمینان / خطا در این مورد نیاز دارم. من به دنبال استفاده از فاصله اطمینان نسبت دو جمله ای بودم (که در آن از نتایج اعتبارسنجی متقاطع به عنوان یک برچسب گذاری صحیح یا برچسب زدن نادرست برای تعداد موفقیت هایم استفاده می کردم). با این حال، یکی از مفروضات پشت آنالیز دوجملهای، احتمال موفقیت یکسان برای هر آزمایش است، و مطمئن نیستم که آیا روشی که در پس طبقهبندی «درست» یا «اشتباه» در اعتبارسنجی متقاطع در نظر گرفته شده است. همان احتمال موفقیت تنها تحلیل دیگری که میتوانم به آن فکر کنم تکرار X بار اعتبارسنجی متقاطع و محاسبه میانگین/انحراف استاندارد خطای طبقهبندی است، اما مطمئن نیستم که آیا این حتی مناسب است یا نه، زیرا میخواهم از دادههای خود استفاده مجدد کنم. حجم نمونه نسبتاً کوچک چندین بار. هر فکری؟ من از MATLAB برای تمام تحلیل هایم استفاده می کنم و جعبه ابزار Statistics را دارم. از هر گونه کمکی قدردانی می کنیم! | فاصله اطمینان برای دقت طبقه بندی تایید شده متقابل |
88452 | فرض کنید $X = ( x_1, ..., x_n ) $ نمونه $n$ از یک توزیع عادی با میانگین مجهول باشد. بهترین برآورد کننده برای این به چه معناست؟ من می توانم حداقل 2 برآوردگر بی طرفانه فکر کنم: * میانگین تجربی $ \hat \mu_1 = \frac{\sum_i x_i }{n} $ * یک رویکرد بیزی $ \hat \mu_2 = E[ P( \theta | X ) ] $، که در آن $ P( \theta | X) $ توزیع پسین بر میانگین است. توزیع قبلی بیش از میانگین $ \cal N (m, s^2) $ برای برخی متا پارامترهای $(m, s^2)$ است. آیا برآوردگرهای مغرضانه یا بی طرف دیگری برای این مشکل وجود دارد؟ کدام یک بهترین است؟ | بهترین روش برای تخمین میانگین توزیع نرمال؟ |
88456 | من آزمایشی را انجام میدهم که در آن چندین تیم هر کدام چندین کار را انجام میدهند (همه تیمها همه وظایف را انجام نمیدهند، اما به طور کلی، میتوانم مطمئن شوم که تیمها به اندازه کافی هر وظیفه معین را انجام میدهند، و هر تیم به اندازه کافی وظایف را انجام میدهد). من 30 کار مختلف دارم، اما به خاطر سوال بیایید بگوییم t tasks، g teams و اینکه هر تیم k task را انجام دهد. نتیجه به برخی از متغیرهای شناخته شده در سطح تیم (کنترل) بستگی دارد، اما عمدتاً به 9 متغیری بستگی دارد که من باید تخمین بزنم. در هر وظیفه وزن متغیر مختلف متفاوت است (اما شناخته شده). این را می توان در معادله زیر خلاصه کرد: $T_i = controls_{team(i)} + \sum_{j=1}^9 w_j^{task(i)}*v_j + \epsilon_i$ سوال من این است که چگونه می توانم قدرت را در این تنظیمات محاسبه کنید. به طور خاص میخواهم بتوانم حجم نمونه را محاسبه کنم (مثلاً تعداد تیمها و/یا تعداد تکرار در هر تیم و/یا تعداد وظایف مختلف) تا متغیرهای $v_j$ را به طور قابل اعتماد تخمین بزنم. من می دانم که اگر من فقط یک کار داشتم، این یک رگرسیون خطی منظم به نظر می رسید، اما از آنجایی که وزن ها ثابت هستند، این یک مدل غیرشناسایی خواهد بود. با 30 کار مدل مشخص شده است (حداقل در تئوری)، اما من نمی توانم بفهمم چگونه توان را محاسبه کنم. به نظر می رسد که با SEM مرتبط باشد زیرا هر وظیفه بر اساس وزن های شناخته شده خود معادله متفاوتی را به دست می دهد. همچنین به نظر میرسد که به دلیل ساختار تیم*به تجزیه و تحلیل دادههای پانل مربوط باشد. من در هیچکدام تخصص ندارم، پس ممکن است اشتباه کنم. هر گونه کمک / بینش / مرجع استقبال می شود. | توان/اندازه نمونه برای مجموعه پیچیده ای از معادلات |
88457 | یکی از همکاران درمانی برای پیشگیری از زمین خوردن در بیماران روانپزشکی دارای اختلال شناختی ایجاد کرده است. از آنجایی که این درمان در این جمعیت بسیار مفید خواهد بود، ما به خصوص نمیخواهیم خطای نوع II ایجاد کنیم (یعنی در رد کردن null شکست بخوریم، زمانی که باید آن را رد کنیم). از آنجایی که دادهها به طور معمول توزیع نمیشوند، همکار دیگری دادههای کامل را با استفاده از آزمون Wilcoxon (به اعتقاد من بهطور مناسب) ارزیابی کرد و معنیدار نشد. ممکن است دلایل روششناختی معتبری برای این وجود داشته باشد، که ممکن است بعداً با سؤال دیگری آنها را پیگیری کنم. من نگران ارتکاب خطای نوع II بودم و برخی از داده های اولیه را به دست آوردم که در زیر آورده ام. این داده ها منعکس کننده نمرات قبل و بعد (# سقوط) برای همان بیماران (بدون گروه کنترل) هستند، بنابراین باید جفت و نه مستقل در نظر گرفته شوند: قبل از <- c(9,8,37,12,8,3,4,4,3,5,4,8,4,8,9,11,2,4,0,0,5,12,10,2, 8,3,0,22,1,0,0,5,0,3,1,5) پست <- c(10,8,6,4,5,2,4,4,2,2,1,7,2,1,3,9,2,2,0,0,6,16,4,3, 4،7،0،10،3،0،0،4،0،1،1،5) هنگامی که یک رویه بوت استرپ را روی این داده های اولیه اجرا کردم (اقتباس از کراولی، کتاب R، صفحه 385) preBoot <- numeric(10000) برای (i در 1:10000) {preBoot[i] <- mean(sample(pre, replace=T))} quantile(preBoot, c(0.025, 0.975)) و میانگین پست را با با تخمین بوت استرپ توزیع نمونه گیری میانگین، دریافتم که درمان اثر مفید قابل توجهی داشته است. برای ارزیابی اهمیت، من به سادگی چندک ها را برای برآورد نمونه در 0.025 و 0.975 در نظر گرفتم. آیا این درست است یا من کاری را که با توزیع نرمال انجام می دهم با توزیع تخمین های نمونه از میانگین اشتباه گرفته ام؟ همچنین، استفاده از wilcox.test در R در دادههای اولیه (یعنی wilcox.test(pre, post, paired=T, exact=F) این را نشان میدهد که قابل توجه است. میخواهم بدانم، قبل از اینکه ادامه دهم، آیا من از روش بوت استرپینگ به درستی استفاده کنید، و آیا این یک آزمایش قانونی برای این نوع داده ها است، آیا ما باید آزمایش های دیگری را در نظر بگیریم، و من به خصوص به روش هایی علاقه مند هستم که این را گزارش کنیم؟ به ما این امکان را می دهد که فواصل اطمینان را به دست آوریم، همچنین، من در این سوال قبلی می بینم که پاسخ آزمایش یک دم ویلکاکسون نشان داد که به خاطر داشته باشید که استفاده از تست های یک دنباله به طور کلی توصیه نمی شود. سقوط های کمتر پس از مداخله درمانی، آیا آزمایش یک دم مناسب نیست **اطلاعات تکمیلی به روز رسانی:** من به تازگی یک بررسی فوق العاده در مورد داده های شمارش و تجزیه و تحلیل توسط نیل الکساندر پیدا کردم؟ _بازبینی: تجزیه و تحلیل انگل ها و دیگر شمارش های کج شده_، قابل دسترسی از طریق PubMed http://www.ncbi.nlm.nih.gov/pubmed/22943299 که مسائلی را که من با آن مواجه بوده ام به شیوه ای بسیار در دسترس مورد بحث قرار می دهد (و به صورت آنلاین رایگان است. ). سایر خواندن این سوال نیز ممکن است این را بسیار مفید بیابند. من هنوز در حال هضم این اطلاعات هستم. این احتمالاً مربوط به یک سؤال جدید است، اما در اصل، من معتقدم در رشته من (روانشناسی بالینی) روش استاندارد نگاه کردن به این داده ها با آزمون Wilcoxon است، احتمالاً با تبدیل ریشه مربع و آزمون t-test در ثانیه محل اکثر مردم در حال حاضر از R استفاده نمی کنند، و بنابراین به نظر نمی رسد از بوت استرپینگ آگاه باشند یا از آن استفاده کنند، که در واقع معتقدم بهتر از دو روش بالا خواهد بود. اگر کسی اطلاعات/یا اطلاعات بیشتری در مورد خلاف آن دارد، ممنون می شوم). | تست فرضیه - تست Wilcoxon، bootstrapping یا چیز دیگری؟ |
94367 | من مجموعه ای از داده ها دارم که توسط 2.000.000 پروژه تشکیل شده است که هر یک از آنها با تعداد کاربران فعال و اندازه (KBs) پروژه تعریف می شود. من می خواهم بررسی کنم که آیا بین این دو ویژگی همبستگی وجود دارد یا خیر. آیا استفاده از ضریب همبستگی رتبه اسپیرمن در کل جمعیت منطقی است؟ پیشاپیش متشکرم | ضریب همبستگی رتبه اسپیرمن بر جمعیت |
88451 | من عبارت زیر را دارم: $$\frac{1}{p} \ln\left(1+\frac{p^1}{1!n}\sum_{i=1}^n x_i + \frac{p ^2}{2!n} \sum_{i=1}^n x_i^2 + \frac{p^3}{3!n} \sum_{i=1}^n x_i^3 + \frac{p^4}{4!n} \sum_{i=1}^n x_i^4 + \cdots \right)$$ حالا اجازه دهید $$Y = \frac{p^1}{1!n} \sum_{i=1}^n x_i + \frac{p^2}{2!n} \sum_{i=1}^n x_i^2 + \frac{p^3}{3!n} \sum_{i=1}^n x_i^3 + \frac{p^4}{4!n} \sum_{i=1}^n x_i^4 + \cdots$$ سپس $$\frac{ 1}{p}\ln\left(1+Y\right)$$ با استفاده از بسط سری تیلور در گزارش، $$\frac{1}{p}\ln(1+Y) = داریم \frac{1}{p}\sum_{n=1}^{\infty} (-1)^{n+1} \frac{Y^n}{n} = \frac{1}{p}\ چپ[Y - \frac{Y^2}{2} + \frac{Y^3}{3} - \frac{Y^4}{4} + \frac{Y^5}{5} - \cdots \right] $$ سوال من این است که چگونه می توانم عبارت بالا را بسط دهید تا تقریب نهایی من شامل متغیرهای زیر باشد: میانگین نمونه: $\displaystyle \overline{x} = \frac{1}{n} \sum_{i=1}^n x_i$ واریانس نمونه: $\ displaystyle s^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \overline{x})^2 $ چولگی نمونه: $\displaystyle g_1 = \frac{\sum_{i=1}^n (x_i - \overline{x})^3}{(n-1)s^3}$ کشش نمونه: $\displaystyle g_2 = \frac {\sum_{i=1}^n (x_i - \overline{x})^4}{(n-1)s^4}$ * * * برای اینکه دقیقاً منظورم را توضیح دهم، می دانم نحوه به دست آوردن تقریب به طوری که شامل میانگین نمونه و واریانس نمونه باشد. با عبارت مشتق شده در بالا شروع کنید: $$\frac{1}{p}\left[Y - \frac{Y^2}{2} + \frac{Y^3}{3} - \frac{Y^ 4}{4} + \frac{Y^5}{5} - \cdots\right]\ \ \ \cdots \ \ (1)$$ نادیده گرفتن شرایط $\frac{Y^3}{3}$ به بعد و جایگزین در عبارت اصلی برای $Y$: $$\frac{1}{p}\left[ \left(\frac{p}{n}\sum_{i=1}^n x_i + \frac{p^2} {2!n} \sum_{i=1}^n x_i^2 + \cdots \right) - \frac{1}{2}\left(\frac{p}{n}\sum_{i=1} ^n x_i + \frac{p^2}{2!n} \sum_{i=1}^n x_i^2 + \cdots\right)^2 + \cdots \right]$$ $$=\frac{1}{p } \left[\frac{p}{n} \sum_{i=1}^n x_i + \frac{p^2}{2n} \sum_{i=1}^n x_i^2 - \frac{p^2}{2n^2}\left(\sum_{i=1}^n x_i \right)^2 + \cdots\right] $$ $$\ approx \frac{1}{n} \sum_{i=1}^n x_i + \frac{p}{2n} \sum_{i=1}^n x_i^2 - \frac{p}{2} \left( \frac{1}{n } \sum_{i=1}^n x_i\right)^2 $$ $$ = \overline{x} + \frac{p}{2} \left[\frac{1}{n}\sum_{i= 1}^n x_i^2 - \left(\frac{1}{n}\sum_{i=1}^n x_i \right)^2\right]$$ $$= \overline{x} + \frac{p}{2} \left[\frac{n-1}{n} s^2 \right] \ \ \ \cdots \ \ (2)$$ * * * همانطور که در بالا مشاهده می شود، آخرین تقریب شامل میانگین نمونه و واریانس نمونه است. با این حال، من مطمئن نیستم که دقیقا چگونه می توانم انبساط را برای کنترل چولگی نمونه و کشیدگی نمونه دستکاری کنم. هر گونه کمکی قدردانی خواهد شد. | بسط تیلور شامل میانگین نمونه، واریانس نمونه، چولگی نمونه و کشیدگی نمونه |
88450 | من قصد دارم از رگرسیون لجستیک با چندین (~5) متغیر پیش بینی کننده برای پیش بینی اینکه آیا چیزی اتفاق می افتد یا خیر استفاده کنم. من دو نوع متغیر پیش بینی دارم: متغیرهای شناخته شده (قابل اندازه گیری) و متغیرهای ناشناخته (غیر قابل اندازه گیری). از منظر اندازه گیری فقط اولی را می توان اندازه گیری کرد و بعدی را باید تخمین زد. برای ارزیابی میزان خوب بودن برآوردهایم، یک تنظیم ویژه (با کمک دیدگاه دیگری) ایجاد کردم تا برای هر مقدار تخمینی مقدار واقعی را نیز داشته باشم. اگر من فقط متغیرهای اندازهگیری شده داشتم، دادههایم را به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم میکردم تا یک مدل رگرسیون بسازم و ویژگیهای عملکرد آن را به دست بیاورم. با این حال، اکنون 2 مجموعه آموزشی و 2 مجموعه تست دارم: الف) مجموعه تمرینی با مقادیر واقعی ب) مجموعه تمرینی با مقادیر تخمینی ج) مجموعه تست با مقادیر واقعی د) مجموعه تست با مقادیر تخمینی از آنجایی که تنظیمات ویژه من برای روزانه مناسب نیست. در عمل، مدل رگرسیونی که من می سازم به احتمال زیاد فقط بر روی داده های تخمینی عمل می کند. از کدام ترکیب الف یا ب و ج یا د استفاده کنم و چرا؟ | ساخت مدل پیش بینی با متغیرهای پیش بینی برآورد شده |
69520 | من میدانم که یکی از مزایای GEE این است که شما هیچ فرضی در مورد توزیع احتمال مشترک نمیکنید و در عوض بر میانگین، واریانس و ارتباط (corr) تکیه میکنید. پس چرا یک خانواده را در دستور «gee» مشخص می کنیم؟ مدل <- geeglm(y~x، داده=داده، id=id، خانواده=گاوسی('هویت')، corstr='ar1') | اگر هیچ فرضی در مورد توزیع مشترک نداشته باشد، چرا ممکن است تعیین یک خانواده هنگام استفاده از GEE مهم باشد؟ |
103803 | من در اینجا سؤالات جالب زیادی در مورد انتساب چندگانه و همچنین پاسخهای عالی دیدهام که به من کمک زیادی کرد تا دادههایم را درج کنم. من از Predictive Mean Matching، EMB استفاده کردهام و میخواهم از Random Forest استفاده کنم اما نمیتوانم مدل را اجرا کنم (بسیار ناراحت کننده). من همچنین نتایجی از مجموعه داده کامل دارم. به طور کلی، مجموعه داده توسط 8364 مشاهده تشکیل شده است و تنها 2860 مشاهدات کامل بدون هیچ داده از دست رفته هستند. مدل های منتسب تا حدودی نتایج مشابهی دارند، مدل های انباشته دارای فواصل اطمینان باریکی هستند و مدل به دست آمده توسط PMM از طریق موش ها یک متغیر را به دلیل استفاده از پیش بینی کننده ها انتخاب نمی کند _(توضیح: این تابع با استفاده از روش انتخاب متغیر توضیح داده شده یک ماتریس پیش بینی ایجاد می کند. در Van Buuren و همکاران ~ (1999، p.~687--688) این تابع برای کمک به راه اندازی طراحی شده است یک مدل انتساب خوب برای دادهها با متغیرهای زیاد.)_ میدانم که میتوانم مدل را با تابع اعتبارسنجی از بسته rms تأیید کنم (من قصد دارم این کار را انجام دهم اما باید آن را بهتر درک کنم). اما چه کسی می توانم مدل های نسبت داده شده را مقایسه کنم و نتیجه گیری کنم. آیا خروجی validate() کافی است؟ به عنوان مثال، اگر بخواهم تحلیل دیگری را با همان داده ها تکرار کنم، آیا می توانم روش بهترین را انتخاب کنم یا بهتر است آنالیزها را برای همه روش ها تکرار کنم؟ میدانم که این سؤال میتواند کاملاً اساسی باشد، اما برای یافتن بهترین راه برای ادامه، با مشکلاتی روبرو هستم. خیلی ممنونم! | اعتبار سنجی - مدل های انتساب به درستی مقایسه و تایید شده است |
69524 | من سعی میکنم یک مدل رگرسیون غیرخطی را با استفاده از «nls()» در R قرار دهم. من شکلی از معادله را دارم که میخواهم با آن مطابقت کنم: $$y = (a \times x_{1}^c +b \times x_{2}^d) (x_{3}^e)$$ که در آن ضرایبی که در رگرسیون یافت می شوند عبارتند از a،b،c،d و e. داده های من از یک مدل شبیه سازی خروجی می شود که در آن $x_{1}$، $x_{2}$، و $x_{3}$ همه اعداد صحیح از $0$ تا $10$ هستند، با این شرط که $x_{1} + x_{2} + x_{3} \le 10$. $y$ نیز عدد صحیح است و از $0$ تا تقریبا $1000$ متغیر است. هدف این است که این داده ها را با یک تابع نرخ که در زنجیره مارکوف استفاده می شود، برازش دهیم. وقتی سعی میکنم این مدل رگرسیون را مستقیماً با استفاده از «nls()» منطبق کنم، نمودار «nlsResiduals» من به این شکل به نظر میرسد:  میدانم که باقیمانده های خودهمبسته مشکل ساز هستند و باقیمانده های غیر عادی نیز می توانند مشکل ساز باشند. چگونه می توانم این مشکل را برطرف کنم؟ من به استفاده از تبدیلهایی روی دادهها فکر میکردم مانند $$\log(y) = \log((a \times x_{1}^c +b \times x_{2}^d) (x_{3}^e) )$$ یا $$y^{1/n} = ((a \times x_{1}^c +b \times x_{2}^d) (x_{3}^e))^{1/n }$$ کجا $n > 1$. متوجه شده ام که اگر $n$ افزایش یابد، نمودار همبستگی خودکار و QQ-plot من بهتر به نظر می رسند (به ترتیب پراکنده تر و عادی تر). به نظر میرسد که هر دوی این موارد بسیاری (اما نه همه) باقیماندههای خودهمبسته را تصحیح میکنند و به توزیع نرمالتر باقیماندهها کمک میکنند. آیا من در اینجا در مسیر درستی هستم یا در آمار مرتکب گناه بزرگی هستم؟ هنگامی که به یک تحول رضایت دادم، چگونه می توانم تشخیص دهم که کدام یک بهترین است؟ هر گونه کمک، پیشنهاد، یا نظر بسیار قدردانی می شود. | در مورد رگرسیون غیرخطی، برازش ها و تبدیل ها |
91926 | من باید اعداد تصادفی توزیع دو جمله ای را برای شبیه سازی کارلو خود تولید کنم (برای یک پارامتر به آزمایش های برنولی نیاز دارم). تا کنون، من از تابع R rbinom برای آن استفاده کرده ام. با این حال، همانطور که میدانم، میتوانم با استفاده از یک دنباله با اختلاف کم برای تولید اعداد تصادفی، به طور مؤثرتری از فضای پارامتر استفاده کنم. آیا می توان از دنباله سوبول برای تولید اعداد تصادفی دو جمله ای استفاده کرد؟ یا اصلا منطقی است؟ اگر بله، پس چگونه می توان دنباله سوبول را به توزیع برنولی یا دو جمله ای تبدیل کرد؟ با تشکر | استفاده از توالی با اختلاف کم برای آزمایشات برنولی در MC sim |
69521 | من هنوز با مدلهای خطی تعمیمیافته کاملاً تازه کار هستم، و با بسیاری از نمادها در بیشتر متون GLM که انتخاب کردهام، مشکل دارم. آیا کتابهای بسیار محبوب GLM وجود دارند که خوانایی بهتری داشته باشند؟ | بهترین کتاب در مورد مدل های خطی تعمیم یافته برای تازه کارها چیست؟ |
88182 | این ممکن است یک سوال بسیار نادرست باشد، اما نمی توانم بفهمم چرا درست نیست. در اینجا آمده است: طبق ویکی پدیا و این پست، هسین یک تابع درستنمایی برابر با ماتریس اطلاعات یا ماتریس کوواریانس توابع امتیاز است، یعنی: $$I(\theta)_{i,j} = \mathrm{E }_\theta \left[ \left(\partial_i \log f_{X\mid\Theta}(X\mid\theta)\right) \left(\partial_j \log f_{X\mid\Theta}(X\mid\theta)\right)\right] \, , = -E\left[\frac{\partial^{2} \log(f (X|\theta))}{\partial \theta_{i} \partial \theta_{j}}\bigg|\theta\right]$$ اگر این درست باشد، این نتیجهگیری درست نیست درست: 1. Hessian توابع درستنمایی همیشه مثبت نیمه معین است (PSD) 2. بنابراین تابع درستنمایی همیشه محدب است (زیرا مشتق دوم PSD است) 3. تابع درستنمایی حداقل محلی ندارد، فقط حداقل جهانی خواهد داشت!! ! این نتایج برای درست بودن خیلی خوب به نظر می رسند، اما به نظر می رسد نمی توانم درک کنم که چرا آنها نادرست هستند. با تشکر | چه زمانی تابع احتمال مثبت نیمه معین است |
31387 | به عنوان مثال: من می خواهم مقادیر آینده یک سری زمانی را بر اساس مقادیر قبلی چندین سری زمانی با استفاده از ANN و/یا SVM پیش بینی کنم. ورودیها مقادیر تاخیری از هر سری زمانی خواهند بود، و خروجیها پیشبینیهای یک مرحلهای جلوتر خواهند بود (پیشبینیهایی با افقهای بیشتر با نقل دادن پیشبینیها به جلو با استفاده از پیشبینیهای قبلی انجام میشود). حال آیا SVM ها و ANN ها نباید بتوانند روندها و چرخه ها را یاد بگیرند؟ آیا آنها نمی توانند چیزهایی از این قبیل بیاموزند، با همه مساوی بودن، خروجی این سری باید 2 برابر خروجی قبلی باشد؟ یا اگر یک متغیر طبقه بندی برای ماه ارائه کنم، از آنجایی که ژانویه است، پیش بینی ای که می کردم را بر 2 تقسیم کنید؟ آیا تلاش برای چرخهزدایی و کاهش روند دادهها منجر به تحمیل سوگیری بیش از حد لازم میشود؟ | آیا هنگام استفاده از روشهای یادگیری ماشینی نیاز است که دادههای سریهای زمانی را کاهش داد و چرخه زد؟ |
52344 | آیا کسی راهی برای نمونه برداری از توزیع دو متغیره گاما نرمال یا توزیع دو متغیره گاما معمولی در R می داند؟ من میتوانم توزیع را خودم به عنوان یک تابع ایجاد کنم، اما نمیدانم برای نمونهبرداری از آن چه کار کنم. | نمونه برداری از توزیع گامای نرمال در R |
88186 | من دو گروه دارم: A) کنترل: $25\times2000$، B) بیماران: $12\times2000$. گروه A یک رایانه دارد که بسیاری از واریانس ها را توضیح می دهد. (پیشنهاد یک جمعیت همگن؟) گروه B را نمی توان با 2 یا 3 اول توضیح داد (به نظر می رسد هر یک از رایانه های شخصی تحت سلطه بیماران مجرد هستند). اگر از گروه «A» PC1 به عنوان مثالی برای «کنترل عادی» استفاده کنم، آیا راهی وجود دارد که نشان دهد هر یک از بیماران چقدر از این «دور» یا «نزدیک» هستند؟ یعنی چگونه می توانم ثابت کنم که برخی از بیماران بسیار شبیه به گروه کنترل هستند و برخی نه؟ * * * من 25 کنترل دارم اما فقط 12 بیمار. هر یک از آنها یک طیفگرام (زمان x فرکانس x کانالها) دارند که به 1 بردار کاهش مییابد. من PCA را فقط روی کنترلها امتحان کردهام و یک PC اول خوب دریافت کردهام (تحت تسلط هیچ موضوعی نیست) و شبیه دادههای فردی است. . با بیماران به تنهایی، من این را درک نمی کنم. اگر PCA را هم روی بیماران و هم بر روی افراد عادی [کنترل] با هم انجام دهم، PC 1 هنوز مانند نرمال به نظر می رسد اما 2 گروه را از هم جدا نمی کند. بنابراین **به من پیشنهاد شد که PCA فقط نرمال ها را بگیرم و سپس بیماران را در این فضا بفرستم، اما نحوه انجام آن نامشخص است. ** فقط می خواهم اضافه کنم - فکر نمی کنم دو جمعیت وجود داشته باشد. یعنی کنترل ها و بیماران تفاوت چندانی با هم ندارند (حداقل در معیاری که من در اینجا استفاده می کنم). اما، برخی از بیماران دورتر از هم نسبت به دیگران از گروه کنترل هستند. به عنوان مثال، برخی شبیه به عادی هستند، اما برخی دیگر از آنها بسیار دور هستند. | چگونه با استفاده از PCA گروه ها را جدا کنیم؟ |
103800 | من دو توزیع نرمال دارم که با میانگین و انحراف استاندارد آنها تعریف شده است. نمونه 1: میانگین=5.28; SD=0.91 نمونه 2: Mean=8.45; SD=1.36 میتوانید در تصویر بعدی ببینید که چگونه به نظر میرسند:  چگونه میتوانم احتمال به دست آوردن یک فرد را از ناحیه همپوشانی (سبز)؟ آیا احتمال آن مساحت است؟ | محاسبه احتمال (مساحت) زیر ناحیه همپوشانی دو توزیع نرمال |
86061 | من اطلاعاتی برای دو سال در مورد کاراکترهای گیاهی برای تعداد مشخصی از خطوط دارم. از آنجایی که شامل پارامترهای یکسانی است، ANOVA به مدت دو سال به طور جداگانه محاسبه می شود. سپس چگونه می توانم اهمیت واریانس تلفیقی را که در مورد محاسبه آن ذکر شده است اما مقدار جدولی وجود ندارد (در صورت وجود) آزمایش کنم و نتیجه گیری کنم؟ هدف اصلی دستیابی به تجزیه و تحلیل دقیق تر با تجمیع داده های دو ساله است. | واریانس ادغام شده |
72327 | نمی دانم که آیا کسی نظری در مورد اینکه آیا بوت استرپ تفاوت در میانگین ها روش درستی است یا خیر، با توجه به اینکه وضعیتی با نقاط داده شدید دارم، دارد یا خیر. من تصمیم گرفتم از این استفاده کنم زیرا فکر نمیکنم آزمون t مناسب باشد. من تقریباً 30 هزار مشاهده در هر گروه دارم (3 گروه) وضعیت من در مورد هزینهها است، و من مقادیر پرت شدیدی دارم: نقاط پرت کاملاً مانند درآمد نیستند. توزیع یعنی اکثر کاربران (+95%) صفر خرج می کنند، زیر مجموعه ای از کاربران 5 تا 10 دلار خرج می کنند. برخی حدود 20 یا 50 دلار خرج می کنند و سپس تعداد کمی از آنها 500+ خرج می کنند، با چند کاربر که 5000 یا 10000+ خرج می کنند، من سعی می کنم آزمایش کنم که کدام گروه بیشترین درآمد را برای هر کاربر داشته است. آیا کسی می تواند در مورد اینکه کدام آزمون آماری مناسب تر است، راهنمایی کند؟ | آیا بوت استرپ روش مناسبی برای توزیع های شدید است؟ |
35807 | من دو مقدار ناشناخته $v_1$ و $v_2$ و دو مجموعه اندازه گیری $S_1$ و $S_2$ از این مقادیر دارم. اندازه گیری ها را می توان به عنوان توزیع نرمال فرض کرد. میخواهم چیزی شبیه به _$v_2$ حداکثر $x$ بیشتر از $v_1$ با اطمینان 95%_ بگویم. بنابراین، چقدر ممکن است $x$ کوچک باشد، تا 95% مطمئن باشیم که $v_2$ بزرگتر از $v_1 + x$ است؟ | فاصله اطمینان: $v_2$ حداکثر $x$ بزرگتر از $v_1$ است، با اطمینان $95\%$ |
113823 | من سعی میکنم سطح گلوکز خون را از دفتر خاطرات دیابتم مدلسازی/پیشبینی کنم، بنابراین باید با 5 تا 7 اندازهگیری روزانه کربوهیدراتهای تخمینی، فعالیت بدنی، دوزهای انسولین و قند خون اندازهگیری شده مقابله کنم. این یک سری زمانی با فواصل نامناسب است که من دریافت کردهام (و نمونهبرداری آنقدر متراکم نیست که مثلاً اوج گلوکز خون را در یک ساعت بعد از غذا نشان دهد). از آنجایی که همه این دادهها از نوعی چرخه کنترل هستند، من به طور تصادفی با موضوع تعبیه تاخیر زمانی یا بازسازی جذب کننده برخورد کردم. می خواهم بدانم آیا تکنیک یادگیری ماشین استانداردی وجود دارد که از ساختار چرخه کنترل زیربنایی استفاده می کند؟ از نظر شما بسیار سپاسگزارم. دامیان | آیا در برخی از الگوریتم های یادگیری ماشینی از جاسازی/بازسازی جذب کننده با تاخیر زمانی استفاده می شود؟ |
108972 | من داده هایی از آزمایشی دارم که در آن شرکت کنندگان یک بازی تکراری 50 بار انجام دادند. یعنی برای هر شرکت کننده 50 امتیاز داده دارم. من میخواهم یک رگرسیون لجستیک اجرا کنم و البته باید در نظر بگیرم که نقاط دادهای دارم که همبستگی دارند، اما نمیدانم **آیا باید از اقدامات تکراری استفاده کنم یا باید با نمونه خوشهای کار کنم**. من مقالات بسیار واضحی در مورد اینکه چرا خوشهها بهتر از تکنیکهای دیگر هستند (ویلیامز، 2000؛ پیترسن، 2009) پیدا کردهام، اما در مورد اندازهگیریهای مکرر یا مقایسه بین این دو چیزی پیدا نکردم. اگر بتوانید در این مورد به من کمک کنید ممنون می شوم! با تشکر | اقدامات مکرر در مقابل خوشه در رگرسیون لجستیک |
88188 | ~~**ویرایش:** اساس سوال من ناقص است، و باید کمی وقت بگذارم تا بفهمم آیا حتی می توان آن را منطقی کرد یا خیر. p-value اندازه گیری مستقیم احتمال یک فرضیه صفر نیست، اما من فرض می کنم که هرچه مقدار p به 1 نزدیک تر باشد، احتمال انتخاب یک فرضیه بیشتر است. برای آزمایش تجربی که فرضیه صفر متناظر آن درست است، در حالی که هرچه مقدار p به 0 نزدیکتر باشد، احتمال بیشتری وجود دارد که فرضیهای برای آزمایش تجربی انتخاب شده باشد که فرضیه صفر متناظر آن نادرست است. من نمی توانم بفهمم که چگونه این نادرست است مگر اینکه مجموعه همه فرضیه ها (یا همه فرضیه هایی که برای آزمایش انتخاب شده اند) به نوعی آسیب شناسی باشند. **ویرایش 3:** فکر می کنم هنوز از اصطلاحات واضح برای پرسیدن سوالم استفاده نمی کنم. همانطور که اعداد قرعه کشی خوانده می شوند و شما آنها را یک به یک با بلیط خود مطابقت می دهید، چیزی تغییر می کند. احتمال برنده شدن شما تغییر نمی کند، اما احتمال اینکه بتوانید رادیو را خاموش کنید تغییر می کند. تغییری مشابه هنگام انجام آزمایشها اتفاق میافتد، اما من احساس میکنم اصطلاحی که من استفاده میکنم - p-value احتمال انتخاب یک فرضیه واقعی را تغییر میدهد - اصطلاح درستی نیست. **ویرایش 4:** من دو پاسخ شگفتانگیز با جزئیات و آموزنده دریافت کردهام که حاوی اطلاعات زیادی است که میتوانم آنها را بررسی کنم. اکنون به هر دوی آنها رای می دهم و پس از آن که به اندازه کافی از هر دو پاسخ یاد گرفتم برای اینکه بدانم آنها یا به سؤال من پاسخ داده اند یا باطل شده اند، دوباره یکی را بپذیرم. این سوال قوطی بسیار بزرگتر از کرمی را که من انتظار داشتم بخورم باز کرد. در مقالاتی که خوانده ام، نتایجی با p > 0.05 پس از اعتبارسنجی به نام مثبت نادرست دیده ام. با این حال، آیا زمانی که داده های تجربی p ~~< 0.50~~ دارند که پایین است اما > 0.05، و هر دو نیستند، فرضیه ای را برای آزمایش با یک فرضیه صفر متناظر نادرست انتخاب کرده ام، آیا احتمال بیشتری وجود ندارد. فرضیه صفر و فرضیه تحقیق از نظر آماری نامطمئن/غیر معنادار (با توجه به بریدگی معنی دار آماری متعارف) در هر نقطه بین 0.05 < p <~~ 0.95~~ هر چه معکوس p <0.05 باشد، با توجه به عدم تقارن اشاره شده در پیوند @NickStauner؟ بیایید آن عدد A را صدا کنیم، و آن را به عنوان مقدار p تعریف کنیم که همان چیزی است که در مورد احتمال اینکه شما یک فرضیه صفر واقعی برای آزمایش/تحلیل خود انتخاب کرده اید که یک p-value 0.05 در مورد احتمال اینکه شما می گوید یکسان است، تعریف کنیم. برای آزمایش/تحلیل شما یک فرضیه غیر صفر واقعی انتخاب کرده اید. آیا 0.05 < p < A فقط بگویید: اندازه نمونه شما به اندازه کافی بزرگ نبود تا به سوال پاسخ دهد، و تا زمانی که نمونه بزرگتری را بدست نیاورید و آمار خود را بدست آورید، نمی توانید اهمیت کاربرد/دنیای واقعی را قضاوت کنید. اهمیت مرتب شد؟ به عبارت دیگر، آیا درست نیست که یک نتیجه را به طور قطعی نادرست (و نه صرفاً پشتیبانی نشده) بخوانیم اگر و فقط اگر p > A باشد؟ این به نظر من ساده است، اما چنین استفاده گسترده ای به من می گوید که ممکن است اشتباه کنم. آیا من: الف) ریاضیات را اشتباه تفسیر می کنم، ب) از یک قرارداد بی ضرر-اگر-نه-دقیقا-درست شکایت می کنم، ج) کاملاً صحیح است، یا د) دیگری؟ میدانم که به نظر میرسد این یک درخواست برای نظرات است، اما به نظر میرسد که این یک سؤال با یک پاسخ ریاضی قطعی درست (هنگامی که یک بریدگی اهمیت تعیین شود) است که یا من یا (تقریبا) همه افراد دیگر اشتباه میکنیم. با تشکر | چرا نتایج 0.05 < p < 0.95 مثبت کاذب نامیده می شوند؟ |
113707 | رابطه دقیق بین منطق فازی و فاصله ماهانوبولیس چیست؟ چگونه می توانیم آنها را در یک برنامه ببینیم؟ | چگونه منطق فازی و فاصله ماهانوبلیس را به هم مرتبط کنیم؟ |
88180 | من با تابع neuralnet() به دلیل عدم همگرایی مشکل دارم. کد مثال زیر مشکل را نشان می دهد. من همان نوع نتیجه را با استفاده از داده های واقعی خودم نیز دریافت می کنم. nnet() قادر به یافتن پاسخ با همان داده است (به مثال nnet در لینک مراجعه کنید). پیشفرضها در مستندات معقول به نظر میرسند، بنابراین آنها را به حال خود رها کردم. آیا به نظر می رسد که این فقط داده است یا می توان روش را با تنظیم پارامترها تنظیم کرد؟ معلوم نیست کدومشون مثال از http://beckmw.wordpress.com/2013/11/14/visualizing-neural- networks-in-r-update/ > library(clusterGeneration) > seed.val<-2 > set.seed(seed .val) > num.vars<-8 > num.obs<-1000 > #input variables > cov.mat<-genPositiveDefMat(num.vars,covMethod=c(unifcorrmat))$Sigma > rand.vars<-mvrnorm(num.obs,rep(0,num.vars),Sigma=cov.mat) > متغیرهای #output > parms<-runif(num.vars,-10,10) > y1<-rand.vars %*% ماتریس(parms) + rnorm(num.obs,sd=20) > parms2<-runif(num.vars,-10,10) > y2<-rand.vars %*% ماتریس (parms2) + rnorm(num.obs,sd=20) > #مجموعه داده نهایی > rand.vars<-data.frame(rand.vars) > resp<-data.frame(y1,y2) > names(resp)<-c('Y1','Y2') > dat.in<-data. Frame(resp,rand.vars) > تابع #neuralnet از بسته عصبی، توجه کنید که فقط از یک پاسخ استفاده کنید > کتابخانه (neuralnet) > form.in<-as.formula('Y1~X1+X2+X3+X4+X5+X6+X7+X8') > set.seed(seed.val) > mod2<-neuralnet(form.in,data= dat.in,hidden=10) > پیام اخطار: الگوریتم در 1 از 1 تکرار همگرا نشد > stepmax stepmax در پیش فرض است 1e5 | همگرایی ناموفق در تابع ()neuralnet |
56848 | من سعی می کنم روند ساخت DP را درک کنم، با این حال، با پیشینه کمی در تئوری اندازه گیری، خواندن مقالات اصلی سخت است، اما معتقدم ایده های پشت این مقالات قابل پیگیری است. اجازه دهید $y_1، y_2، \ldots، y_n$ i.i.d باشند. با تابع توزیع $F$، که با $k$ احتمالات مجهول $\theta_1، \ldots، \theta_k$ مشخص میشود، یعنی $y_i$s گسسته هستند و یک عدد محدود $k$ از مقادیر ممکن را میگیرند. استنتاج بیزی بر اساس این مشاهدات اغلب دیریکله را بر پارامترهای $F$ مقدم میدارد. سپس می توان توزیع پسین و پیش بینی را محاسبه کرد. درک این مدلهای مخلوط محدود سخت نیست، اما... وقتی $y_i$s میتواند بینهایت مقادیر ممکن را بگیرد ($k \rightarrow \infty$)، آنوقت مدلهای ناپارامتریک بیزی میتوانند با این وضعیت مقابله کنند، اما من نمیکنم. نمی فهمم چرا سؤالات من اینجاست: 1. $k \rightarrow \infty$ به این معنی است که $y_i$ میتواند هر جرم نقطهای را روی $\mathcal{R}$ بگیرد، بنابراین یک r.v پیوسته است. اینطور نیست؟ 2. در حالت محدود، $F$ با $1، \ldots، k$ نمایه میشود، در حالی که در حالت نامتناهی، $F$ باید توسط پارتیشنهای $(T_1، \ldots، T_k)$ نمایه شود (فرگوسن، 1972) ، چگونه می توانم شهود مورد دوم را از اولی دریافت کنم؟ | درک ساخت و ساز فرآیند دیریکله |
69525 | در بسیاری از کتاب های درسی آمار، برخی از ویژگی های نماد Op و Op وجود دارد، اما اثبات آنها در هیچ کجا ارائه نشده است. من توانسته ام اکثر آنها را ثابت کنم، اما نمی توانم ببینم که چگونه این ویژگی برقرار است: $$ (1+o_p(1))^{-1}=O_p(1) $$ آیا کسی می تواند نشان دهد که چرا این ویژگی به طور کامل برقرار است روش؟ با تشکر | سوال مرتبط با ویژگی همگرایی عملیات و عملیات |
19639 | کدام تابع هزینه برای یک درخت جنگل تصادفی بهتر است: شاخص جینی یا آنتروپی؟ من سعی می کنم جنگل تصادفی را در Clojure پیاده سازی کنم. | کدام تابع هزینه برای یک درخت جنگل تصادفی بهتر است: شاخص جینی یا آنتروپی؟ |
69528 | این کد R و نتیجه در حال اجرا من است: (به زیر مراجعه کنید) چگونه قضاوت کنیم که آیا مدل رگرسیون خطی برای این مجموعه داده مناسب است؟ به جز مقدار R^2، آیا p-value در ردیف آخر نتیجه در حال اجرا به معنای چیزی است؟ این مقدار p به چه معناست و آیا می تواند به معنای مدل رگرسیون خطی مناسب برای این مجموعه داده باشد؟ چرا؟ پیشاپیش ممنون x=c(7,12,10,10,14,25,30,25,18,10,4,6) y=c(128,213,191,178,205,446,540,547,324,117,75,107) لیست (x, ~xL) ) خلاصه (reg1) نمودار (x, y) abline(reg1) reg2 <- lm(y~x-1) خلاصه reg2(reg2) #------------------- فراخوانی: lm(فرمول = y ~ x) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -55.805 -21.085 3.139 14.946 80.859 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) -22.753 21.846 -1.041 0.322 x 19.556 1.335 14.652 4.38e-08 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 37.23 در 10 درجه آزادی چندگانه R-squared: 0.9555، R-squared تنظیم شده: 0.951 F آمار: 214.7 در 1 و 10 DF، p-value: 4.38e-08 | استفاده از R برای رگرسیون خطی برای دیدن اینکه آیا یک مدل رگرسیون خطی برای مجموعه داده مناسب است یا خیر |
43551 | من یک رگرسیون لجستیک چند جملهای را با استفاده از بسته «mlogit» و تابع «mlogit» در R اجرا میکنم. اکنون باید مقادیر پرت را برای مدل بررسی کنم. آیا رویکرد یا تابعی در R برای آزمایش نقاط پرت در مدل «mlogit» وجود دارد؟ | چگونه برای آزمایش نقاط پرت در یک مدل mlogit در R |
72320 | من دو میانگین را راهاندازی کردهام - هر نمونه 10000 مشاهده داشت، بنابراین هر میانگین را با جایگزینی 10000 عدد از هر نمونه دوباره نمونهبرداری کردم. من این کار را بیش از 50000 تکرار انجام دادم که توزیع ابزارهای بوت استرپ را ترسیم کردم و به نظر می رسد که آنها متفاوت هستند. با این حال من در مرحله بعدی گم شده ام. آیا کسی می تواند به زبان ساده به من بگوید که چگونه می توانم یک مقدار P را محاسبه کنم و چگونه بفهمم که آیا یک توزیع بوت استرپ تفاوت قابل توجهی با دیگری دارد؟ من از R برای انجام بوت استرپینگ استفاده می کنم. | مقدار P برای راهاندازی دو به معنای غیر عادی است |
110948 | من در شرکتی کار می کنم که لباس می فروشد، و با استفاده از شباهت کسینوس برای تعیین اینکه کدام محصولات به یکدیگر «شبیه» هستند، نتایج خوبی به دست آورده ام. من میخواستم توصیههای محصول را یک قدم جلوتر بردارم و یک محصول «سازگار» (مانند کراوات محکم برای پیراهن راه راه) را با استفاده از مجموعه دادهای جدید توصیه کنم - بنابراین نه فقط مالک چه چیزی. من یک مجموعه آموزشی با این ساختار دارم: * هر محصول دارای داده های ویژگی مانند رنگ، الگو و غیره است (فرض کنید اینها اندازه گیری های ترتیبی هستند). * من یک هدف بله/خیر روی برخی **جفت*های محصول** دارم که می گوید آیا دو محصول با هم سازگار هستند یا خیر. هدف این است که بتوانیم بگوییم دو محصول جدید با توجه به داده های ویژگی هر دو محصول سازگار هستند. این جنبه زوجی است که مرا در چارچوب یادگیری تحت نظارت پرت می کند. اگر من فقط یک هدف باینری را بر اساس رنگ، الگو و غیره پیشبینی میکردم، این یک راهاندازی اولیه با چندین الگوریتم برای انتخاب است. اما به نظر من، مشکل کمی پیچیدهتر به نظر میرسد، زیرا پیشبینی بر اساس دادههای ویژگی از دو محصول است - و پیشبینی باید متقارن باشد تا مهم نیست که کدام محصول «اول» باشد، یکسان باشد. بنابراین، زمانی که (1) دادههای ویژگی روی محصولات و (2) دادههای هدف در جفت محصولات را دارم، سعی میکنم یک معیار سازگاری متقارن به دست بیاورم. | متریک سازگاری زوجی |
8649 | من از آموزشی که پیدا کردم استفاده می کنم و مقادیر میانگین را همراه با خطاهای استاندارد برای نمایش داده های خود ترسیم می کنم. اما من در بحث در مورد نتایج مشکل دارم. نمودار من مطابق شکل زیر است: برخی از خطاهای استاندارد (که به عنوان نوار خطا نشان داده شده است) بسیار متفاوت هستند و برخی از آنها بسیار نزدیک به صفر هستند.  | خطای استاندارد برای چیست؟ |
19638 | > دنباله ای از متغیرهای تصادفی مستقل $(y_k)_k$ را با یک > چگالی احتمال $p_{\theta}(y)$ در نظر بگیرید که فقط به یک پارامتر اسکالر > بستگی دارد. قبل از زمان تغییر ناشناخته $t_0$، پارامتر $\theta$ > برابر با $\theta_0$ است و بعد از تغییر برابر با $\theta_1 \neq > \theta_0$ است. سپس مشکل شناسایی و تخمین این تغییر در پارامتر > است. _snip... snip..._ > ابزار رسیدن به این هدف به شرح زیر است. ابتدا، توصیف ما از > همه الگوریتمهای این فصل مبتنی بر مفهومی است که در آمار ریاضی بسیار مهم است، یعنی لگاریتم احتمال >، که با $$s(y) = \ln\frac{p_ تعریف شده است. {\theta_1}(y)}{p_{\theta_0}(y)}$$ و > بهعنوان نسبت log-likelihood نامیده میشود. ویژگی آماری کلیدی > این نسبت به شرح زیر است: اجازه دهید $E_{\theta_0}$ و $E_{\theta_1}$ انتظارات متغیرهای تصادفی را در دو توزیع > $p_{\theta_0}$ و $ نشان دهند. p_{\theta_1}$، به ترتیب. سپس، > > $$E_{\theta_0}(s) < 0\space \text{and} \space E_{\theta_1}(s) > 0 $$ (به نظر می رسد این نقل قول از Chand & Xiao، _Change باشد -نظارت نقطه ای برای تجمع امن در شبکه در شبکه های حسگر بی سیم_، 2007.) سوال من این است که چگونه می توانیم فرمول دوم؟ $E_{\theta_0}(s)$ به چه معناست (می دانم که $E$ انتظار $y$ است، اما $(s)$ چطور؟) چگونه می توانیم > 0 یا < 0 را بدست آوریم؟ | الگوریتم تشخیص تغییر - نسبت احتمال |
19635 | من در ابتدا سوال را در این پست پرسیدم، جایی که توضیح دادم که فقط 25 اقدام در اختیار دارم. از این رو، محاسبه SD نمونه $\sigma_x$ و فرض اینکه این نمونه از توزیع است، بسیار خوش بینانه به نظر می رسد و من می خواستم یک فاصله اطمینان را محاسبه کنم. به من پیشنهاد شد که از روش بوت استرپینگ استفاده کنم، اما دقیقاً نمی دانم چگونه از آن استفاده کنم. من معتقدم که باید به صورت زیر عمل کنم: * مقداری فرض را در مورد توزیع احتمال زیربنایی در پشت نمونه من ایجاد کنم، به عنوان مثال، فرض می کنم که طبیعی است، و پارامتری را که تخمین زده ام اعمال کنم: $\mathcal{N}(s, \sigma_x)$ * $n$ نمونه با اندازه 25 تولید کنید (دقیقاً به اندازه نمونه اصلی من) * SD نمونه هر یک از 25 * را محاسبه کنید و سپس به (85%) که نزدیکترین به میانگین هستند نگاه کنید. همه آنها در بازه 85٪ خواهند بود. حدس میزنم درست متوجه شدم، اما من **_have_** میتوانم فرضی در مورد توزیع زیربنایی داشته باشم، که واقعاً مایلم از آن اجتناب کنم. آیا راه دیگری برای رفتن وجود دارد یا من چیزی را اشتباه متوجه شدم؟ | جزئیات بیشتر در مورد روش بوت استرپ برای تخمین فاصله اطمینان نمونه SD |
43559 | آیا تجزیه و تحلیل تفکیک خطی، به ویژه برنامه ریزی خطی تجزیه و تحلیل متمایز (LPDA)، یادگیری تحت نظارت است؟ آیا می توانید در صورت امکان یک مرجع معتبر ارائه دهید که چنین باشد. من و استاد راهنما در مورد آن اختلاف نظر داشتیم. من متقاعد شدهام که تحلیل تشخیصی خطی، چه Fisher LDA یا LPDA، یادگیری تحت نظارت است. هر دو تکنیک از مجموعه ای برچسب دار از اشیاء برای استخراج تابعی استفاده می کنند که می تواند برای پیش بینی برچسب های کلاس برای اشیاء بدون برچسب استفاده شود. استاد راهنمای مطالعه من موافق نیست و بیان می کند که با استفاده از تجزیه و تحلیل متمایز هیچ چیز یاد گرفته نمی شود. | آیا تحلیل تمایز بر یادگیری نظارت شده است؟ |
31388 | من سعی می کنم این مشکل را حل کنم اما مطمئن نیستم که چگونه برای بدست آوردن فرمول آماره آزمون و مقادیر بحرانی اقدام کنم. فرض کنید $X_1،X_2،\ldots X_n$ i.i.d هستند. مشاهدات از یک توزیع نرمال چند متغیره $N(\mu,\Sigma)$ که در آن $\Sigma$ شناخته شده است. علاوه بر این فرض کنید که **R** یک ماتریس معین و **r** یک بردار معین است. از روش نسبت درستنمایی برای تولید یک آمار آزمایشی برای $$H_0\colon R\mu = r \\\ H_1\colon R\mu \neq r$$ استفاده کنید. آیا کسی می تواند به من راهنمایی کند که چگونه ادامه دهم؟ | چگونه آمار آزمون نسبت درستنمایی را در این مسئله محاسبه می کنید؟ |
114547 | در حین اجرای فیلتر ساده بیز، به مشکلی در محاسبه احتمالات شرطی $p(w|c)$ یک کلمه $w \in \mathcal{W}$ با توجه به کلاس $c \in \mathcal{ برخورد کردم. C}$. پس از این پاسخ در StackOverflow درباره طبقهبندی میوهها $\mathcal{C} = \left\\{ \text{banana}, \text{orange}, \text{other} \right\\}$ دارای ویژگیهای $\mathcal{ W} = \left\\{\text{long}، \text{sweet}، \text{yellow}\right\\}$، مشکل من در مورد این است: فرض کنید ما سه جمله (یا سند) مشاهده شده را داریم $\mathcal{D} = \left\\{ D_{1}, \dotsc, D_{3}\right\\}$ در کلاس $c = \text{ موز}$ به صورت $ \begin{align} D_1 = \left\\{\text{long}، \text{sweet}، \text{زرد}\راست\\} و\to \left\\{\text{long}، \text{sweet}، \text{زرد}\راست\\} \\\ D_2 = \left\\{\text{long} \راست\\} &\to \left\\{\text{long}, \neg \text{sweet}, \neg \text{yellow} \right\\} \\\ D_3 = \left\\{ \text{زرد}، \text{sweet} \راست\\} &\to \ چپ\\{ \neg \text{long}، \text{زرد}، \text{sweet} \راست\\} \end {align} $ سپس احتمال $p(w = \text{long}|c = \text{موز})$ چقدر است؟ با توجه به پاسخ پیوندی، احتمال به صورت $ \begin{align} p(w = \text{long}|\text{banana}) &= \frac{\left|w\right|}{\left محاسبه میشود. |\mathcal{D}\right|} = \frac{\left|w\right|}{\left|w\right| + \left|\neg w\right|} = \frac{2}{3} = 0.\overline{6} \end{align} $ زیرا کلمه در دو جمله از سه جمله ظاهر میشود. با توجه به اینکه بعداً می خواهم اسناد/جملاتی با طول های مختلف** را طبقه بندی کنم (طبقه بندی ایمیل فکر کنید)، آیا نمی توان گفت که احتمالات ظاهر شدن کلمه در جملات آموزشی فردی عبارتند از: $ \begin {align} p(w = \text{long}|\text{D}_1) &= \frac{\left|w\right|}{\left|\text{D}_1\right|} = \frac{1}{3} = 0.\overline{3} \\\ p(w = \ text{long}|\text{D}_2) &= \frac{\left|w\right|}{\left|\text{D}_2\right|} = \frac{1}{1} = 1.0 \\\ p(w = \text{long}|\text{D}_3) &= \frac{\left|w\right|}{\left|\text{D}_3\right|} = \frac {0}{2} = 0.0 \end{align} $ زیرا کلمه $1$ از $3$ بار در $\text{D}_1$ و غیره ظاهر میشود. پس احتمال (خوب، مورد انتظار) نخواهد بود $ \begin{align} p(\text{long}|\text{banana}) &= \frac{1}{N} \sum_{i=1}^{N} p(\text{long}|\ text{D}_N) = \frac{1}{3}\left(\frac{1}{3} + \frac{1}{1} + \frac{0}{2}\right) = \frac {4}{9} = 0.\overline{4} \end{align} $ (?) که به طور تصادفی شبیه مکمل است. یا اینطور فکر می کنیم که $ \begin{align} p(\text{long}|D_1) &= p(\text{long}|\text{long}، \text{sweet}، \text{زرد} ) = p(\text{long}|\text{long}) = 1 \\\ p(\text{long}|D_2) &= p(\text{long}|\text{long}, \neg \text{sweet}، \neg \text{زرد}) = p(\text{long}|\text{long}) = 1 \\\ p(\text{long}|D_3) &= p( = 0 \end{align} $ زیرا $\text{long}$ به طور مشروط مستقل از سایر ویژگیها است (با پیروی از فرض سادهلوح)؟ اما پس از آن، در مورد کلمات دوبار شمارش (یعنی در طبقه بندی نامه) چطور؟ روش شمارش روی همه کلمات، $2/6 = 0.\overline{3}$ را در اینجا به دست میدهد که عدد متفاوت دیگری است. من فرض میکنم که ترکیب میانگینگیری راه حلی نیست، اما ترکیب احتمالات هر جمله چگونه درست کار میکند؟ | احتمالات کلمه در فیلتر ساده بیز |
100933 | مدل خطی زیر \begin{equation} Y_{j}=\beta_{1}+\beta_{2}E_{j}+\beta_{3}B_{j}+\epsilon_{j} \tag{* را در نظر بگیرید } \end{معادله} که در آن $Y_{j}$ نشاندهنده لگاریتم طبیعی حقوق سالانه یک کارمند در حال حاضر، $E_{j}$ تعداد سالهای پایان تحصیلی است. موسسه، و $B_{j}$ لگاریتم طبیعی حقوق اولیه کارمند است. من $(*)$ را روی یک مجموعه داده بزرگ پسرفت کردم و ضرایب $\beta_{2}، \beta_{3}$، را با مدل دیگری که شامل دو متغیر ساختگی اضافی است، $D_{1j}$ (جنسیت) مقایسه کردم. ) و $D_{2j}$ (اقلیت). اگرچه آنها به شدت تغییر نکرده اند، اما هنوز مقداری تغییر وجود دارد. در حال حاضر، من هیچ مشکلی برای توضیح کیفی در مورد چرایی این موضوع ندارم. چیزی که من به دنبال آن هستم این است: > **آیا محاسباتی وجود دارد، شاید آزمایشی، که توضیح > کیفی را تسهیل کند که چرا ضرایب $(*)$ ممکن است با اضافه کردن دو متغیر ساختگی تغییر کند؟** | تبیین کمی تغییرات ناشی از متغیرهای ساختگی |
13409 | من باید بر اساس یک تابع هدف که غیراستاندارد است، بهینه سازی کنم. اگر پیشبینیکنندهها $X$ باشند، خروجی مدل $\hat y$، و پاسخ $y$ باشد، هدف من اساساً این است: $$j = \sum( \hat y \cdot y). $$ به حداقل برسد فقط $-j$ خواهد بود. آیا کسی روشی برای بهینهسازی/رگرسیون میشناسد که از هدفی مانند این استفاده کند؟ $\hat y\cdot y$ معادل چیزی است که در یادگیری ماشین حاشیه نامیده می شود، اما من نمی توانم کاری پیدا کنم که مستقیماً بهینه سازی آن را مورد بحث قرار دهد. بدیهی است که میتوانم این را در یک بهینهساز جهانی جمع کنم، اما به هر کاری که از قبل موجود است علاقهمندم. | به حداکثر رساندن/به حداقل رساندن محصول خروجی و پاسخ |
94500 | من در درک نحوه یادگیری پارامترهای HMM از داده های مشاهده شده مشکل دارم. بیایید بگوییم که مدل HMM من دارای یک متغیر پنهان برای عاطفه (احساس) با سه مقدار/حالت (خشم، شادی، سردرگمی) است و هر متغیر پنهان در t دارای سه مشاهده است (بلندی و حجم صدا، حالت چهره). چگونه در مورد جمع آوری داده ها و آموزش اقدام کنم؟ به این فکر میکردم که شاید بتوانم از افرادی که در حالتهای خاصی هستند ضبط کنم (سه مورد مشاهدهپذیر را دریافت کنم) یعنی از بازیگرانم بخواهم با استفاده از هر یک از سه احساس جداگانه چند خط بگویند. حالا بعد از آن نمی فهمم باید چه کار کنم. فرض کنید من 3 بازیگر دارم یعنی 9 نمونه فقط برای آموزش هستم. اگر هر نمونه 3 دقیقه است، آیا مدل را روی طول هر یک از نمونه ها آموزش می دهم؟ اگر طول نمونه ها کمی متفاوت باشد چه؟ همچنین، چگونه مدل میآموزد که P(خشم(t+1)| شادی(t)) از دادهها با مقادیر خاص جدا میشود (یعنی هر نمونه فقط یک احساس خاص است)؟ آیا کسی می تواند به من کمک کند تا این را بفهمم؟ متشکرم. | HMM از داده های ویدیویی یاد می گیرد؟ |
31386 | من یک مشکل رگرسیون لجستیک دارم که در آن میخواهم سهم کل گروههای پارامترها (متغیرهای مستقل) را در مجموعههای مختلف مشاهدات ارزیابی کنم. برای مثال، فرض کنید من 10 پارامتر کل دارم که 5 تای آن متعلق به گروه 1 است، برای یک مجموعه داده معین. من به راحتی می توانم مدل کامل را با مدل بدون Group1 مقایسه کنم، با استفاده از یک شبه R^2، آزمون نسبت احتمال، AIC یا مشابه، برای توصیف سهم Group1 در DataSet1. کاری که من باید انجام دهم این است که این مقایسه ها را در مجموعه داده های مختلف جمع آوری کنم، جایی که راه حل ها لزوماً به هم مرتبط نیستند (یعنی ضرایب واقعی در هر پارامتر در بین مجموعه داده ها یکسان نیستند) - من به مقدار اطلاعات منتقل شده توسط گروهی از پارامترها در مجموع، نه خود ضرایب. بنابراین، من نمی توانم یک مدل را با استفاده از همه مشاهدات آموزش دهم. یک مثال راه حلی که به آن رسیدم این است که پس از حل هر مدل به طور مستقل، انحرافات مدل (انحراف = -2*loglikelihood) را اضافه کنم و نسبت احتمال/AIC/شبه R^2 و غیره را طوری محاسبه کنم که انگار یک مدل بزرگ است. با این حال، یکی از عوارض این است که تعداد پارامترها در گروه یا مدل کامل ممکن است در هر مجموعه داده تغییر کند. به عنوان مثال، در DataSet1، Group1 ممکن است 5 پارامتر داشته باشد (یا 6 پارامتر اما هیچ مشاهده ای برای پارامتر 6 وجود ندارد - پارامترها معمولاً دسته بندی هستند - و غیره)، اما در DataSet2، Group1 ممکن است 3 یا 7 یا 150 پارامتر و غیره داشته باشد. بنابراین، محاسبه AIC یا p-value برای آزمون نسبت درستنمایی، من #پارام های موثر را به عنوان میانگین وزنی #پارام ها محاسبه کرده ام. #مشاهدات در هر مجموعه داده. از طرف دیگر، میتوانم #پارامها را بهعنوان حداکثر از هر مجموعه داده ثابت کنم، اما میترسم این بهطور مصنوعی نتایج من را از بین ببرد. من دوست دارم بازخوردی در مورد این رویکرد یا اشارهای به گزینههای جایگزین داشته باشم. | ارزیابی گروههای پارامترها در مجموعه دادههای چندگانه در رگرسیون لجستیک |
46452 | من علاقه مند به استفاده از تحلیل عاملی چندگانه برای تجزیه و تحلیل داده های جمع آوری شده از قطعات سرامیکی هستم. داده ها بسیار پیچیده هستند و شامل متغیرهای پیوسته (قطر لبه رگ، ضخامت دیواره رگ) و متغیرهای دسته بندی شده (وجود یا عدم وجود لعاب پایه و بیش از حد در داخل و خارج رگ) می باشد. پس از مقیاس بندی و مرکزیت کردن متغیرهای پیوسته، داده های من چیزی شبیه به این می شود: row.names RimDiameter SherdThickness2cmBelowRim BGIBrown BGIclear... 23 -1.05924698 0.1160736 0 1... 56 0.155080613 FactoMineR، من MFA را به صورت زیر اجرا کردم: sherdMFA = MFA(cleanRimGlaze[,-1], group=c(2,17,13,1,1), type=c(s,rep(n,4 ))، ncp=5، name.group=c(RimDiamThickness،BGI،BGE،LI، LE)) اما این خطا را ایجاد می کند. در MFA(cleanRimGlaze[, -1]، group = c(2, 17, 13, 1, 1), type = c(s, : تعریف گروه مناسب نیست ~~نمی توانم بفهمم چگونه این مشکل را برطرف کنم با نگاهی به مثال MFA در وب سایت FactoMineR، به نظر می رسد که MFA برای رسیدگی به متغیرهای طبقه بندی شده به عنوان فاکتور، و تبدیل متغیرهای ساختگی من به سطوح فاکتور ساخته شده است. ممکن است مشکل تعریف گروه را حل کند. با این حال، از آنجایی که در دادههای من ممکن است چندین لعاب وجود داشته باشد، به نظر عجیب میرسد که فاکتورهای جداگانهای برای «قهوهای»، «روشن» و «شفاف و قهوهای» وجود داشته باشد. آیا من درست فکر می کنم که بهتر است از متغیرهای دوگانه برای حضور/غیاب استفاده کنیم و به سادگی حضور را هم برای قهوه ای و هم روشن علامت گذاری کنیم؟ آیا راهی برای اجرای MFA در FactoMineR با متغیرهای طبقه بندی شده به عنوان متغیرهای ساختگی وجود دارد؟ یا شاید حتی یک تجزیه و تحلیل آماری مناسبتر؟~~ چندین خطا را به شرح زیر برطرف کرد: 1. [,-1] را حذف کرد زیرا باعث خطای تعریف گروهی مناسب نیست. 2. تبدیل ستون های کیفی به فاکتورهایی با دو سطح برای رفع خطای عوامل در گروه های کیفی تعریف نشده اند. 3. ستونهای کیفی حذف شده که حاوی تنها یکی از دو عامل برای رفع «خطا در کنتراستها هستند<-( _tmp_ , value = contr.funs[1 + isOF[nn]]): کنتراستها را میتوان فقط برای فاکتورهایی با 2 یا 2 اعمال کرد. سطوح بیشتر خطایی که ظاهر شد. و اکنون وزارت امور خارجه اجرا می شود. من هنوز در مورد نظرات مردم در مورد مناسب بودن تحلیل عاملی چندگانه برای چنین داده هایی کنجکاو هستم. نمونه من (حدود 300 قطعه ظروف درخشان از تعداد بسیار بیشتری که در دهه 1930 حفاری شده بود) حاوی 81 قطعه لبه بود. برای این قطعات، قطر لبه تخمین زده شد، ضخامت قطعه 2 سانتی متر زیر لبه اندازه گیری شد و وجود یا عدم وجود لعاب های رنگی متفاوت در داخل و خارج قطعات (به عنوان مثال آبی مات، آبی شفاف، سفید، شفاف) اندازه گیری شد. ، براق ، فیروزه ای ، بدون لعاب قابل مشاهده). از آنجایی که برخی از ترکیبات داخلی و خارجی معمول به نظر می رسید، مانند لعاب سفید در داخل و لعاب آبی در بیرون با لعاب بیش از حد براق در هر دو، منطقی به نظر می رسید که هر دو متغیر Base Glaze Interior Blue و Base Glaze Exterior Blue نیز داشته باشند. به عنوان متغیرهای Over Glaze Interior و Over Glaze Exterior برای درخشندگی. این مقدار به 20 متغیر و یک row.names برای شناسه های sherd می رسد. 20 متغیر به اندازه نمونه 81 به نظر می رسد که برای چنین تحلیلی قابل قبول است، اگرچه بدیهی است که حجم نمونه بزرگتر مطلوب است (من به اندازه نمونه و نسبت آیتم در تجزیه و تحلیل اجزای اصلی برای این کار نگاه می کنم، اما ممکن است شما کار جدیدتر آن را بدانید). مواد سرامیکی بسیار بیشتری در دسترس است، بنابراین هر فرضیه ای که بر اساس این نمونه کوچکتر ایجاد شده باشد، می تواند با جمع آوری داده های بیشتری آزمایش شود. من MFA را انتخاب کردم زیرا داده ها متغیرهای پیوسته و مقوله ای را مخلوط می کنند. تا آنجا که گروه ها پیش می روند، به نظر می رسد ایده خوبی است که تمام وجود/غیاب لعاب های پایه در داخل و لعاب های بیرونی را با هم ترکیب کنیم. بر اساس قیاس، وجود لعاب بیش از حد براق در داخل و خارج هر یک به یک گروه اختصاص یافت و در نهایت قطر لبه تخمینی و ضخامت قطعه نیز گروه خاص خود را به دست آورد (یک گروه پیوسته و 4 گروه طبقه بندی شده). اولین فکر من PCA بود، اما دادههای لعاب طبقهای، در حالی که قابل تبدیل به متغیرهای ساختگی هستند، فرض توزیع نرمال را که PCA بر اساس آن پیشبینی میشود، میشکند. من به تجزیه و تحلیل کلاس پنهان نیز نگاه کردم، اما به نظر نمی رسد که برای داده های پیوسته متغیرهای قطر رینگ و ضخامت قطعه مناسب باشد. به نظر می رسید که وزارت امور خارجه قادر به مدیریت هر دو، و تصدیق گروه های واقعی موجود در داده های جمع آوری شده است. با تشکر فراوان از @dcarlson برای سوالات روشنگرش. | متغیرهای مقوله ای و ساختگی در تحلیل عاملی چندگانه با FactoMineR |
19636 | با فرض $g(x)=\sqrt[3]{x}$، میخواهم مقدار مورد انتظار g, $E(\sqrt[3]{x})$ را با استفاده از روش مونت کارلو با ایجاد x_i$ محاسبه کنم. $ از توزیع Weibull با پارامترهای $(1,5)$. بعد از آن می خواهم از **روش متغیرهای کنترلی** و *روش **ضد ضد** استفاده کنم تا واریانس تخمینگر خود را که با مونت کارلو ساده پیدا کردم کاهش دهم. **و مشکل من اینجاست، من نمیدانم چگونه این روشها را انجام دهم.** اگر کسی میتواند به من در انجام این کار کمک کند یا راهنمایی/راهنمایی بدهد، ممنون میشوم. پیشاپیش از نگرانی شما بسیار سپاسگزارم. ### کاری که من تاکنون انجام دادهام با فرض اینکه $S$ تخمینگر ما باشد، پس میدانیم که $S=(\sum \limits_{i=1}^{N} g(x_i))/N$. با استفاده از Matlab، مقدار مورد انتظار $S$ را با تولید 1000 عدد تصادفی از توزیع weibull(1,5) پیدا کردم و مجموع را محاسبه کردم. الگوریتم من اینجاست: N=1000 sum=0; برای i=1:N; X = wblrnd(1,5); res(i)=X.^(1/3); sum=sum+res(i); انتهای S=sum/N | استفاده از متغیرهای کنترلی و روش ضد مونت کارلو |
101401 | سلام این اولین پست من در این سایت است، من در حال ساخت یک مدل رگرسیون لجستیک در SAS با استفاده از proc logistic هستم، هدف من 0 و 1 است، من 10-15 پیش بینی دارم 2 پیوسته و بقیه طبقه بندی می شوند، کل نمونه را به دو تقسیم کردم. تست قطعات (80%) (20%)، هنگامی که من در حال بررسی پایداری ضرایب در نمونه آزمایشی هستم، متوجه شدم که تعداد کمی از پیشبینیکنندههای طبقهبندی علامت خود را تغییر میدهند، همچنین تعداد کمی تغییر میدهند. در داده های تست ناچیز است. من از متغیرهای طبقهبندی همانطور که هست (نه ساختگی) در دستور کلاس در proc logistics استفاده میکنم. بنابراین به طور خلاصه دلیل تغییر علامت در داده های آزمایشی چیست؟ ممنون، آبیشک | چرا علامت ضریب متغیر طبقهبندی در رگرسیون لجستیک هنگام اجرای مدل بر روی نمونه آزمایشی تغییر میکند؟ |
101400 | وقتی $\Theta$ را برای Feasible GLS در دادههای پانل تعریف میکنیم، باید $\text{plim} \;\sigma$ را در تصویر زیر تعریف کنیم.  چگونه می توانم نشان دهم که $\hat{\sigma}^{*2} \overset{p}{\longrightarrow} \frac{\sigma_\varepsilon^2}{T}+\sigma_u^2$؟ | GLS امکان پذیر داده های پانل اثر تصادفی |
13142 | من همیشه رگرسیون لجستیک را صرفاً یک مورد خاص از رگرسیون دو جمله ای می دانستم که در آن تابع پیوند تابع لجستیک است (به جای مثلاً یک تابع پروبیت). با این حال، از خواندن پاسخ های سؤال دیگری که داشتم، به نظر می رسد که ممکن است گیج شده باشم، و بین رگرسیون لجستیک و رگرسیون دو جمله ای با پیوند لجستیک تفاوت وجود دارد. چه فرقی دارد؟ | تفاوت بین رگرسیون دو جمله ای و رگرسیون لجستیک چیست؟ |
20608 | میدانم که با مدلی که قابل شناسایی نیست، میتوان گفت که دادهها توسط چندین تخصیص مختلف به پارامترهای مدل تولید میشوند. من می دانم که گاهی اوقات ممکن است پارامترها را به گونه ای محدود کنیم که همه قابل شناسایی باشند، مانند مثال در Cassella & Berger 2nd ed، بخش 11.2. با توجه به یک مدل خاص، چگونه می توانم ارزیابی کنم که آیا قابل شناسایی است یا خیر؟ | قابلیت شناسایی مدل چیست؟ |
43558 | من یک نمونهگر گیبس را با مدلی مشابه مدل موجود در این مقاله استخراج میکنم (یک مدل گرافیکی در صفحه 4 نشان داده شده است). به بیان ساده، سوال من فقط مربوط به $w_i$ (بردار $K$-بعدی که از یک توزیع معمولی گرفته شده است) و دقت آن $\gamma_w$ است، بنابراین من فقط این 2 متغیر را ناشناخته میکنم و بقیه را به عنوان شناخته شده در نظر میگیرم. امیدوارم بدون از دست دادن سختی های ریاضی): $w_i \sim \mathcal{N}(0, \sigma_w^2I_K)$ $\gamma_w = \frac{1}{\sigma_w^2} \sim \Gamma(\alpha_0, \beta_0)$، در اینجا $\alpha_0، \beta_0$ فراپارامترها هستند. و احتمال شرطی این است: $p(w_{ik}|-) \sim \mathcal{N}(\mu_{w_{ik}}، \sigma_{w_{ik}}^2)$، جایی که $\sigma_ {w_{ik}}^2 = (\gamma_w + T)^{-1}$. $T$ در واقع یک اصطلاح بسیار پیچیده است اما غیر منفی است. $p(\gamma_w|-) = \Gamma(\alpha_0 + \frac{1}{2}KN، \beta_0 + \frac{1}{2}\sum_{i=1}^N w_i^Tw_i)$ من آن را کدنویسی می کنم و برخی از داده های شبیه سازی شده را مطابق مدل گرافیکی تولید می کنم. من همه متغیرهای غیر از $w_i$ و $\gamma_w$ را روی مقدار واقعی خود تنظیم کردم و بدون تغییر نگه داشتم. هایپرپارامترها روی 0.001 تنظیم شده اند که اساساً مقدار قبلی $\gamma_w$ را مجبور می کند 0 باشد (در واقع مطمئن نیستم که آیا این انتخاب خوبی است یا خیر). نمونهگر با $\gamma_w$ اجرا میشود تا بی نهایت میرود. لگاریتم احتمال نمونه ها بسیار بیشتر از احتمال ورود به سیستم داده های واقعی است. از توزیع شرطی، این عدم همگرایی در واقع نوعی مشاهده پذیر است، زیرا هر $w_{ik}$ با دقت بیشتری نسبت به نمونه از $p(\gamma_w|-)$ ترسیم می شود (به دلیل عبارت غیرمنفی) ). سپس هنگام نمونه برداری از $\gamma_w$، از $\sum_{i=1}^N w_i^Tw_i$ کوچکتر استفاده می کنیم. بنابراین نمونه های $\gamma_w$ بزرگتر می شوند. این اشتباه به نظر می رسد، اما نمی توانم بفهمم مشکل از کجاست. هر گونه نظر بسیار قدردانی خواهد شد. با تشکر به روز شده: فکر می کنم این ممکن است به طور کلی برای یک مدل عادی سلسله مراتبی با واریانس ناشناخته درست باشد، سپس این مقاله را پیدا کردم که به نظر می رسد تا حدی با مشاهدات من موافق است. اما این مقاله کمی فراتر از پیشینه ریاضی بد من است... | نمونهگر گیبس بر روی دقت (با گاما قبل) در مدل بیزی سلسله مراتبی همگرا نیست |
74863 | من در تلاش برای درک معنای بیان انحراف معیار (SD) تفاوت میانگین (MD) هستم [یا بهطور دیگری به آن تفاوت میانگین مطلق میگویند]. این برای مقاله ای است که من در حال نوشتن آن هستم که در آن نمونه های دیگر نیز SD MD را به عنوان بخشی از خلاصه تجزیه و تحلیل نقل می کنند. در حالی که میدانم تفاوت میانگین نشاندهنده چه چیزی است، یعنی «اندازهگیری پراکندگی آماری»، از مفید بودن گزارش انحراف استاندارد این مقدار مطمئن نیستم. من می توانم معنای آن را به نوعی مفهوم سازی کنم، اما مسئله دوباره سودمندی است. برای مرجع، تجزیه و تحلیل داده های اندازه گیری های مکرر برای هم ارزی است. من ضریب همبستگی و همچنین احتمال آماری برای هم ارزی (با محدوده هم ارزی) را با استفاده از آزمون T دو یک طرفه (TOST) گزارش خواهم کرد. بنابراین سوال من در مورد سودمندی انحراف معیار تفاوت میانگین. شاید من از نظر آماری کمبود دارم و لطفاً یک مرجع مناسب برای مشاوره برای من معرفی کنید. پیشاپیش ممنون **به روز رسانی - مثال:** _ماشین A_ سیستم اندازه گیری مرجع است. _ماشین B_ سیستم اندازه گیری جدید است. تعداد معینی از اندازهگیریهای واقعی با هر ماشین (_N_) روی یک شی مشترک انجام میشود تا بفهمیم چقدر ماشینها معادل هستند. در حالت ایده آل، آنها یکسان هستند - البته طراحان می گویند، و حتی می توان انتظار داشت - اما این آزمایش برای پشتیبانی از محدودیت هم ارزی +/- _x_ واحد استفاده می شود. (با توجه به واقعیت، نمی توان گفت _A_ دقیقاً معادل _B_ است.) بنابراین یک مقایسه اندازه گیری زوجی. هنگام گزارش این نتایج، گزارش تفاوت میانگین و انحراف استاندارد تفاوت میانگین، به اضافه ضریب همبستگی (پیرسون) با مقدار p آن معمول بوده است. **به روز رسانی - نظرات:** 1\. این سؤال در واقع به انحراف معیار تفاوت میانگین اشاره دارد، نه صرفاً به تفاوت. 2\. من به خوبی درک می کنم که انحراف معیار از نظر توزیع به چه معناست. اما سوال من واقعاً این است که معنای انحراف معیار اختلاف میانگین در رابطه با کمیت مورد اندازه گیری چیست؟ 3\. اگر به اندازه یک راهنمای تغییرپذیری تفاوت ساده است، پس همینطور باشد. 4\. اگر نتیجه به صورت واحدهای A = B +/- _x_ با p <0.05 گزارش شده باشد، میدانم که این با نقلقول کردن یک عدد نوع انحراف استاندارد متفاوت است، اما هنوز به طور مستقیم آن را دریافت میکنم. من SD یک MD را در رابطه با موجودیت اندازه گیری اصلی نیز تقریباً دریافت نمی کنم. | معنی انحراف معیار اختلاف میانگین |
46454 | کد R زیر سه CDF را با استفاده از سه رویکرد مختلف تولید می کند. چگونه می توانم این CDF ها را روی یک گراف در R رسم کنم؟ #روش 1 z <- rnorm(n=100000، m=0، sd=1) z1 <- rnorm(n=100000، m=0، sd=1) z2 <- rnorm(n=100000، m=0، sd=1) z_app <- (z1/sqrt(3)) + z*(1+(z2/sqrt(2*3))) #CDF F_z_app <- ecdf(z_app) plot(F_z_app, xlim=c(0,5),ylim=c(0.5,1)) #روش 2 v3 <- rt(100000, 1)/sqrt(3-2) w3 <- rchisq(100000,2) z3 <- rnorm(n=100000، m=0، sd=1) z_eff_3 <- v3 + z3 * sqrt((3*(1+v3*v3))/w3) #CDF F_z_eff_3 <- ecdf(z_eff_3) (F_z_eff_3، xlim=c(0,5),ylim=c(0.5,1)) # روش 3 z <- rnorm(n=100000, m=0, sd=1) #CDF F_z <- ecdf(z) نمودار(F_z , xlim=c(0,5),ylim=c(0,5,1)) | رسم چگالی های متعدد بر روی یک نمودار در R |
113202 | من یک انتخاب کمند با استفاده از lars::lars برای یک نتیجه به خوبی توزیع شده با استفاده از مجموعه ای از 86 پیش بینی انجام دادم. این نمودار خروجی است:  تست کوواریانس زیر تایید کرد که clive بهترین انتخاب شده است: متغیر Drop_in_covariance P.value 1 clive 13.4357 0.0000 2 pepl 0.2965 0.7436 3 sb5y 0.1028 0.9023 4 radio 0.0656 0.9365 5 roof 0.9746 0.3781 با این حال، زمانی که مدلی ساختم و سپس با استفاده از «glm» با «clive» و برخی متغیرهای بیولوژیکی دیگر (همه آنها در محدوده 86 متغیری هستند)، این نتیجه را به دست آوردم. : ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.41025 0.05518 -7.43 4.2e-13 *** clive 0.06499 0.04110 1.58 0.1144 cdaysbms2 -0.007195 0.0071956 -0.00719560.60. -0.01194 0.00386 -3.10 0.0021 ** bodr -0.00052 0.04004 -0.01 0.9896 medu 0.02642 0.01343 1.97 0.0496 * 0.0496 * 0.00052 0.08150. 0.0065 ** در اینجا میتوانید ببینید که بهترین «کلایو» انتخابشده از نظر آماری معنیدار نیست در حالی که برخی دیگر از موارد انتخاب نشده حتی قابل توجه هستند. درست است وقتی مدل فقط شامل 'clive' باشد، معنی دار می شود: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.4269 0.0304 -14.02 < 2e-16 *** clive 0.0743 0.0133 5.58 3.9e-08 *** اما من هنوز در نحوه تفسیر آن گیج هستم. من فکر می کنم اگر 'clive' بهترین مورد از یک استخر باشد، پس مقدار p. آن باید کمترین مقدار باشد، حتی زمانی که متغیرهای دیگری از استخر در مدل وجود دارد. کسی توضیحی ارائه می دهد؟ | چرا متغیر lasso انتخاب شده حتی مهم نیست؟ |
45184 | لی و لمیوکس (ص. 31، 2009) به محقق پیشنهاد می کنند که نمودارها را در حین انجام تحلیل طراحی ناپیوستگی رگرسیون (RDD) ارائه کند. آنها روش زیر را پیشنهاد می کنند: > ...برای مقداری پهنای باند $h$، و برای تعدادی از bin ها $K_0$ و $K_1$، به ترتیب به سمت چپ و راست مقدار قطع، ایده این است که > ساخت سطل ($b_k$,$b_{k+1}$]، برای $k = 1، . . . ,K = K_0$+$K_1$، که در آن > $b_k = c−(K_0−k+1) \cdot h.$ c=نقطه برش یا مقدار آستانه متغیر تخصیص h=پهنای باند یا پهنای پنجره. ...سپس میانگین نتایج را درست در سمت چپ و راست نقطه برش مقایسه کنید. ... .. در همه موارد، مقادیر برازش را از یک مدل رگرسیون کوارتیک که به طور جداگانه در هر طرف نقطه برش تخمین زده شده است را نشان می دهیم... (ص. 34 از همان مقاله) سوال من این است که چگونه آن رویه را در Stata یا R برای ترسیم نمودارهای متغیر نتیجه در برابر متغیر تخصیص (با فواصل اطمینان) برای RDD تیز برنامه ریزی کنیم. نمونه نمونه در Stata ` در اینجا و اینجا ذکر شده است (rd_obs را جایگزین کنید) و یک نمونه نمونه در `R` در اینجا آمده است، با این حال، من فکر می کنم هر دوی اینها مرحله 1 را اجرا نکردند. که هر دو داده های خام را به همراه خطوط برازش در نمودارها دارند. نمودار نمونه بدون متغیر اطمینان [Lee and Lemieux,2009]  پیشاپیش از شما متشکرم. | نمودارها در طراحی ناپیوستگی رگرسیون در Stata یا R |
19632 | برخی از مراجع سریع برای آمار. **شرایط**: 1- آفلاین، یعنی مستقل از اینترنت 2- نسخه نرم افزاری، یعنی (قابل اجرا در رایانه) کتاب چاپ نشده یا غیره 3- متوسط تا پیشرفته، جامع 4- دایره المعارف با لینک های زیادی به آن صفحه یا اصطلاح دیگر 5- ... 6- رایگان یا تقریباً رایگان 7- قابل اعتماد و حرفه ای 8- عمومی، یعنی وابسته به نرم افزار خاص یا بسته 9- ... 10- اصطلاحات به خوبی طبقه بندی شده 11- تعدادی را اضافه می کنید. ضمناً به نظر من لیست شرایط زیاد طولانی نیست. این چیزی است که من و تو به آن نیاز داریم. ** به روز رسانی ها: ** یک پاسخ بخشدار پیدا کنید که در زیر آورده شده است! | مرجع سریع آمار |
43554 | من در حال الگوبرداری از تأثیر بارداری بر نتیجه یک بیماری (مرده-زنده) هستم. تقریباً 40 درصد از بیماران پس از تشخیص باردار شدند، اما در مقاطع مختلف زمانی. تاکنون نمودارهای KM را انجام دادهام که یک اثر محافظتی واضح از بارداری بر بقا و همچنین یک مدل معمولی کاکس را نشان میدهد - اما اینها تنها با استفاده از یک متغیر حاملگی تقسیمبندی شده مدلسازی شدهاند و با فرض اینکه اثر از زمان تشخیص وجود داشته باشد که به وضوح غیر واقعی است. از آنجایی که میانگین زمان بارداری از زمان تشخیص 4 سال است. چه نوع مدلی می تواند تأثیر حاملگی های چند قلو را در مقاطع زمانی مختلف پس از تشخیص جذب کند؟ آیا مدلسازی بارداریهایی که در تعامل با زمان هستند (که نیاز به بازسازی جدی دادهها دارد - هر نرمافزار خودکاری که میتواند به این موضوع کمک کند؟) درست است یا استراتژی مدلسازی ترجیحی دیگری برای این مشکلات وجود دارد؟ همچنین استراتژی ترسیمی ترجیحی برای این مشکلات چیست؟ | پیشنهاد مدل برای رگرسیون کاکس با متغیرهای کمکی وابسته به زمان |
101405 | من مطالعه ای دارم که روی 30 موضوع در 7 نقطه زمانی اندازه گیری می کند. سپس گرادیان بهترین خط مناسب محاسبه میشود (به آن بتا1 میگویند)، که برای محاسبه نرخ تولید (بتا1*ثابت) استفاده میشود. beta1 در هر موضوع یک خطای استاندارد خواهد داشت. من می خواهم میانگین beta1 (میانگین میزان تولید) برای کل گروه 30 و خطای استاندارد آن اندازه گیری را بدانم. سپس، چندین ماه بعد، مطالعه روی همه 30 موضوع تکرار میشود و نرخ تولید دوباره محاسبه میشود. میانگین این نرخ تولید با میانگین نرخ تولید اولیه مقایسه می شود. کسی میتونه در مورد آمار به من کمک کنه؟ با تشکر فراوان. | محاسبه تفاوت بین دو میانگین بر اساس رگرسیون خطی |
45189 | من یک سوال در مورد تفسیر تحلیل رگرسیون دارم. وضعیت زیر را تصور کنید: یک همبستگی بسیار بالا (و معنی دار) بین متغیر A و متغیر وابسته در ماتریس همبستگی وجود دارد. در تحلیل رگرسیون، من چندین متغیر مستقل دیگر دارم و متغیر A تنها یکی از آنهاست. در همه موارد، متغیر A تأثیر زیادی دارد (بتا بالا) و این نیز قابل توجه است. با این حال یک استثنا وجود دارد. فقط زمانی که متغیر A را در ترکیب با یک متغیر خاص (متغیر X) قرار میدهم، تأثیر متغیرهای قطرهها دیگر معنیدار نیست. بنابراین، تنها زمانی که متغیر X در متغیر رگرسیونی A در نظر گرفته نشده باشد، معنی دار است و قدرت پیش بینی زیادی دارد. وقتی متغیر X نیز گرفته می شود، معنی دار نیست. قطعاً چند همسویی دخیل نیست. آیا این بدان معناست که تأثیر متغیر A بر روی متغیر وابسته از طریق متغیر X کار می کند؟ | تفسیر یک متغیر در تحلیل رگرسیون |
81175 | سناریو: من دو گروه (درمان و کنترل) دارم که در یک دوره پیش با یکدیگر همسان هستند. یعنی کنترل ها به گونه ای انتخاب شدند که رفتار آنها در زمان های قبل از درمان با گروهی که در نهایت تحت درمان قرار گرفته بودند همبستگی خوبی داشت. پس از دورههای درمان، میخواهم اثر درمان را با یافتن تفاوت بین رشد رفتار مورد انتظار یا ارگانیک در گروه درمان و رفتار واقعی درمان مقایسه کنم. رفتار مورد انتظار با یک رگرسیون خطی بین گروه های درمان و کنترل در طول دوره پیش محاسبه می شود و با فرض اینکه این رابطه عملکردی پس از دوره درمان ادامه دارد. $$ Y_{expected} = A X_{t>t_{0}} + B $$ که در آن $t_0$ زمان درمان و $X_{t>t_0}$ مقادیر مشاهدهشده گروه کنترل پس از درمان است. سپس این اثر توسط $$ L = \frac{Y_{t>t_0} - Y_{expected}}{Y_{expected}} $$ پیدا میشود: اکنون سؤال من این است: آیا استفاده از روش دلتا برای یافتن اطمینان ضروری است فاصله برای $L$؟ میدانم که $Y_{expected}$ یک تبدیل عملکردی از مشاهده تصادفی $X_{t>t_0}$ است، اما برای من روشن نیست که چرا نمیتوانم به سادگی مرزهای اطمینان برای $Y_{expected}$ را با اندازهگیری پیدا کنم. تغییر در باقیمانده $Y_{t<t_0} - Y_{pre-expected}$ در طول زمان قبل از درمان. پیشاپیش برای هر ورودی یا اشارهای متشکریم. | روش دلتا برای فواصل اطمینان در تست آنلاین A/B |
17576 | من می خواهم ابعاد مناطق تجاری را برای گروهی از فروشگاه ها مدل کنم. من داده های فروش را برای هر فروشگاه جغرافیایی کدگذاری کرده ام که برای ساخت بدنه محدب با استفاده از یک برنامه GIS استفاده کردم. اساساً، من نزدیکترین 80 درصد فروش را برای هر فروشگاه گرفتم، و سپس یک نوار لاستیکی در اطراف آن نقاط پیچیدم تا مرز منطقه تجاری برای هر فروشگاه را به دست بیاورم. سپس مساحت این نواحی را محاسبه کردم و شعاع ها را طوری مدل کردم که گویی نواحی تجاری دایره ای هستند، با استفاده از ویژگی های ناحیه درست در اطراف فروشگاه به عنوان پیش بینی کننده. این پیش بینی های وحشتناکی را ارائه می دهد زیرا بسیاری از نواحی بیضوی هستند یا دارای برآمدگی های سنبله مانند هستند. آیا کسی پیشنهادی برای مدل سازی شکل و اندازه این مناطق به روش بهتری دارد؟ | چگونه اندازه یک منطقه تجاری را مدل کنیم؟ |
17578 | فرض کنید من مجموعه ای از متغیرهای گسسته و دلخواه دارم که در مختصات پیوسته نمونه برداری شده اند، به عنوان مثال. ================================== x = y = مقدار ========== ========================== 4.1 = 3.4 = A = = 4.6 = 7.9 = A = = 4.7 = 8.1 = A = = 2.1 = 5.0 = B = = 3.5 = 9.0 = B = = 7.0 = 1.1 = C = = 9.8 = 4.2 = C = ======================= =========== من می خواهم نقشه ای ایجاد کنم که توزیع مقادیر را در محدوده ای از مختصات نشان دهد (مثلاً «0<x<=10، 0<y<=10»)، که در آن هر مقدار دارای یک رنگ دلخواه است و هر نقطه در آن مختصات دارای یک مقدار درون یابی محاسبه شده است، جایی که منطقی است این کار انجام شود. به عنوان مثال به هر یک از A، B و C یک رنگ می دهیم. نقطه (5.0،5.0) در وسط خوشه As قرار دارد، بنابراین باید مطابق با A رنگ شود. نقطه (7.0،4.0) بین As و C است. بنابراین رنگ باید از طریق تجزیه و تحلیل فاصله تا هر یک از آن نقاط اطراف محاسبه شود. به طور کلی، من انتظار دارم که ربع بالا سمت چپ رنگی باشد که به B اختصاص داده شده است، ربع پایین سمت راست رنگی باشد که به C اختصاص داده شده است، با یک نوار رنگ به A بین و نقطه ای که مرزهای بین 3 رنگ در آن رخ می دهد اختصاص داده شود. از طریق نوعی الگوریتم نزدیکترین همسایه محاسبه می شود. آیا الگوریتم های موجود برای ترسیم نوع اطلاعاتی که می خواهم نمایش دهم وجود دارد؟ این باید هر نوع عبارت را در نظر بگیرد (اگر این اصطلاح درست باشد). | نگاشت متغیرهای گسسته |
88189 | من در پیچیدن سرم دور چیزی کمی مشکل دارم. من یک مجموعه داده دارم که شامل دو ستون است که اساساً سعی در اندازه گیری یک چیز دارند، یکی در مقیاس پیوسته 1-50 و دیگری در یک مقیاس ترتیبی (5 سطح). فرض کنید آنها خطر برخورد دنباله دار را اندازه گیری می کنند (فقط یک مثال). با این حال، نحوه به دست آوردن دو ستون بسیار متفاوت است، مقیاس 1-50 توسط مجموعه ای از شبیه سازی ها ایجاد می شود، در حالی که مقیاس ترتیبی بر اساس نظر متخصص است. حالا می خواهم بدانم این دو اندازه گیری چقدر با هم «توافق» دارند. بنابراین کاری که من انجام دادم این بود: برای مقیاس پیوسته (آن را $u$ بنامید) یک تخمین تراکم هسته برای هر یک از سطوح نظر صادرات انجام دادم (آن را $w\in W$ بنامید). این توابع چگالی احتمال را برای هر یک از کلاس ها در $w$ با توجه به $u$ تخمین می زند. با قانون بیز، من احتمال عقبی $P(x|x \sim w_i)$ را محاسبه کردم که $x$ یک نمونه (ردیف) و $w_i$ یک کلاس از نظر متخصص بود. حالا این به نظر من منطقی به نظر می رسید. به جز انتخاب پیشینها (یکنواخت، درصد در دادههای اصلی، تجربی؟) و تخمین چگالی (نوع هسته، یا اینکه spline برازش بهتری دارد...) اما اینجا ناموفق بود. به یاد داشته باشید که من میخواهم توافق را بدانم، و شاید مهمتر از آن نمونههایی که شبیهسازی و متخصص در مورد آنها اختلاف نظر دارند. بنابراین برای هر یک از نمونه ها همه احتمالات پسین را محاسبه کردم و سپس حداکثر یک را انتخاب کردم. این به من اجازه میدهد تا یک کوهنز کاپا را برای توافق محاسبه کنم و ردیفهایی را که متفاوت هستند برای بازرسی بیشتر انتخاب کنم (چه کسی درست میگفت؟). اما همه اینها کمی، خوب، اشتباه به نظر می رسد. من اینجا چه چیزی را از دست داده ام؟ | محاسبه توافق بین مقیاس ترتیبی و پیوسته |
100934 | من فقط شبیه سازی ساده را انجام دادم. دو جمعیت با ابزارهای مختلف و واریانس یکسان ساخته است. از آنجایی که من آنها را آماده کردم می دانم که آنها: نرمال هستند، از نظر مکان متفاوت هستند و هر دو مقیاس یکسانی دارند. سپس اسکریپت ساده ای را در R نوشتم که 1000 بار از هر دو جمعیت نمونه می گیرد، آنها را برای نرمال بودن (Shapiro-Wilk)، برای واریانس های مساوی (F) و برای تفاوت (t) آزمایش می کند. اگر مفروضات آزمون t برآورده شود، آزمون t را اجرا می کنم. خوب، در واقع من همه آنها را یکی یکی اجرا می کنم، اما نتایج را با عملگر AND منطقی ترکیب می کنم. بنابراین، اگر **IsNormal** (A) AND **IsNormal** (B) AND **VarsAreEqual** (A, B) AND **MeansAreDifferent** (A, B)، آنگاه نتیجه را حساب می کنم. در نهایت تعداد مقادیر TRUE را تقسیم می کنم و آن را بر تعداد تکرارها تقسیم می کنم. بنابراین، هر آزمون فرض ممکن است شکست بخورد. Shapiro-Wilk ممکن است به اشتباه (آنها **طبیعی هستند) تست H0 و همچنین F را رد کنند (دارای واریانس های مساوی **دارند**). و من مقادیر نزدیک به 0.05 را دریافت نمی کنم! بنابراین، سوال من این است: آیا این نمونه ای از پدیده های آزمایش چندگانه (مانند مقایسه های چندگانه) است؟ اگر چنین است، در مورد آزمایش فرضیات چطور؟ چنین آزمایشی بسیار مهم است، زیرا اگر مفروضات برآورده نشوند، کمیت های توزیع نمونه از یک آزمون معین ممکن است کاملاً متفاوت از انتظار باشد و بنابراین نتایج داده شده ممکن است کاملاً بی فایده باشند. اما آزمایش فرضیات به وضوح آلفا را تغییر می دهد. درست میگم؟ شاید باید از اصلاحات برای آلفا استفاده کنیم، مانند بونفرونی؟ data<- data.frame(populA=rnorm(1000، میانگین=1)، populB=rnorm(1000، میانگین=3)) iternum <- 1000 آلفا <- 0.05 nsample <- 50 نتیجه <- آرایه (FALSE، iternum) ; for(i در 1:iternum) { sampA <- sample(data$populA, 30); sampB <- sample(data$populB, 30); result_t <- t.test(sampA, sampB)$p.value; result_F <- var.test(sampA, sampB)$p.value; result_normA <- shapiro.test(sampA)$p.value; result_normB <- shapiro.test(sampB)$p.value; results[i] <- (result_normA >= آلفا) & (result_normB >= آلفا) & (result_F >= آلفا) & (result_t <آلفا) } > 1-(میانگین (نتایج)) [1] 0.158 | آیا آزمایش مفروضات بر خطای نوع I تأثیر می گذارد؟ |
101402 | من روی یک مشکل مالی در مورد بودجه خانوارها کار می کنم. خانوارها در یک ایالت هر سال فرمی را در مورد بودجه خالص خود پر می کنند و شرکت بیمه ما وضعیت مالی آنها را بررسی می کند و میزان دقیق بودجه آنها را پیدا می کند. بودجه خالص می تواند مثبت یا منفی باشد. من در حال طراحی سیستمی با شبکه عصبی هستم که بتوانیم خانوارهایی را پیدا کنیم که بودجه خالص خود را جعل می کنند، بنابراین خروجی من یک باینری [0 و 1] است که 1 بودجه خالص کاذب و 0 بودجه خالص واقعی است. فرض کنید که بودجه خالص خانوارها P است و نتیجه بررسی شده ما از بودجه خالص R است. همانطور که می دانید: R>=P اکنون این را داریم: اگر P=R پس: معیار = 0 (بودجه خالص واقعی) اگر P> 0 و R>0 : معیار = R-P/R اگر P<0 و R<0 : معیار = (abs(P)-abs(R)) / abs(P) اگر P<0 و R>0 : ???? (بسیاری از خانوارها این وضعیت را دارند و من معیاری برای آن پیدا نمی کنم) اگر P<0 و R=0 : ???? (برخی از خانوارها این وضعیت را دارند و من معیاری برای آن پیدا نمی کنم) اگر P=0 و R>0 : ???? (بعضی از خانواده ها این وضعیت را دارند و من معیاری برای آن پیدا نمی کنم) پس از یافتن این معیارها که باید بین **0 تا 1 [0 1]** باشد، یک آستانه (مثل 0.5) تعیین می کنم، اگر این معیار بالاتر باشد. بیش از 0.5 خانوار در حال جعل بودجه خالص هستند (خروجی = 1) و اگر کمتر از 0.5 باشد بودجه واقعی داریم و مشکلی در بودجه وجود ندارد. اعلام خانوارها (بازده = 0). ** در محدوده [0 1]، اگر جعل بیشتر باشد (بستگی به توابع بالا - P و R دارد) ایجاد به سمت 1 و اگر خانواده صادق باشد به سمت 0 می رود. بنابراین هر خانوار (نمونه) معیاری بین 0 و 1. مشکل اصلی من پیدا کردن یک معیار خوب است که **(P <0 , R>0)**، پس از آن **(P <0، R=0)** و در نهایت **(P=0، R>0)**. اگر در ملاک اول و دوم و سوم مشکلی دارم بی زحمت بگو. من فکر می کنم خروجی وضعیت دوم با سوم متفاوت است زیرا ساختار معیارها متفاوت است. در صورت امکان، من یک تابع معیار واحد را پیدا خواهم کرد. **مثال:** رسانش اول: P = 10، R = 15: معیارها: (15-10/15) = 33.3% (نرخ جعل برای این خانواده) هدایت دوم: P = -16، R = -10: معیارها : (abs(-16)-abs(-10))/abs(-16) = 37.5% ( نرخ جعل برای این خانوار ) حال اگر به عنوان مثال P=-20 و R = 40 باشد، چگونه می توانیم نرخ جعل را محاسبه کنیم؟ . این سوال اصلی است پس از آن چگونه می توانیم زمان (P<0 , R=0) و در نهایت (P=0 , R>0) را محاسبه کنیم؟ **من این معیار را با این روش بررسی می کنم:** برای مثال در معیار اول وقتی P>0 و R>0 داریم P = 5 و R = 10 بنابراین E = 50٪. حال اگر P=fix=5 و R=افزایش (مثلا R=20) E=75% داریم. این از نظر مفهومی در مشکل ما صادق است. وقتی P=5 و R=20 در مقایسه با P=5 و R=10 باید جعل بیشتری داشته باشیم. + وقتی R=fix و P=increase (یا کاهش) باید آن را بررسی کنیم. خیلی ممنون از کمک های شما PS. من 2000 نمونه با مقادیر مختلف P و R دارم. | یافتن معیارهای جعل بودجه مالی خانوار |
17577 | من الگوریتمی را توسعه دادم که از آزمون کای دو برای انجام گسسته سازی نظارت شده یک متغیر پیوسته استفاده می کند. من آن را در مقاله الگوریتم گسسته سازی Chi-Squared ChiD-A منتشر شده در مجموعه مقالات WUSS 2011 که در http://www.wuss.org/proceedings11 در دسترس است شرح دادم. معیار توقف چندان هوشمندانه نیست و من می خواهم بدانم اگر راه های بهتری برای توقف فرآیند گسسته سازی وجود دارد. | قانون توقف برای الگوریتم گسسته سازی مجذور کای |
74865 | احتمالاً یک سؤال بسیار اساسی برای پیشبینیکنندگان در اینجا است، اما من میپرسیدم که آیا تفاوت آشکاری بین پیشبینیهای _در نمونه_ و _پیشبینیهای شبه خارج از نمونه_ وجود دارد. هر دو در زمینه ارزیابی و مقایسه مدلهای پیشبینی منظور میشوند. | تفاوت بین پیش بینی های داخل نمونه و شبه خارج از نمونه. |
81924 | آیا کسی می تواند به من توضیح دهد که یک اسپلاین مکعبی چیست و چگونه می توانیم از آن برای درون یابی یک تابع استفاده کنیم؟ من تو اینترنت سرچ کردم ولی یه توضیح ساده میخوام. | توضیح درون یابی اسپلاین مکعبی |
101047 | من یک نمونه از افراد $N$ دارم. من می دانم (فرض می کنم) که توزیع فراوانی گونه ها از شکل خاصی پیروی می کند، به عنوان مثال، دو جمله ای منفی. یک مثال تودرتو از این نوع توزیع ها در زیر آمده است. (این رقم فرض می کند فراوانی غیر صحیح ممکن است. مال من چنین نیست.)  نکته مهم این است که من عدد را نمی دانم. از گونه های نمونه من من فقط تعداد کل افراد را می دانم. من می خواهم تعداد گونه ها و فراوانی آنها را با توجه به توزیع خاصی از فراوانی گونه ها محاسبه کنم. فراوانی ها دارای مقادیر صحیح هستند. چگونه می توانم از شکل فرضی (مثلاً دوجمله ای منفی) و تعداد کل افراد، گونه ها و فراوانی آنها را درک کنم؟ راه حل های عددی خوب هستند. _افکار بیشتر:_ فکر می کنم یک مرحله ادغام بسیار ابتدایی وجود دارد که من نمی بینم. من میدانم برای یک مشکل مرتبط که در آن فهرستی از گونهها و فراوانی هر کدام را دارم، چه کاری انجام دهم: برای یک نمونه معین $N$، میتوانم از یک چندجملهای برای ترسیم تحقق با استفاده از فراوانی نسبی استفاده کنم. | ایجاد تحقق توزیع های نمونه |
46455 | من روی پیش بینی (نه توضیح) یک نتیجه 0/1 کار می کنم که به طور کلی فقط حدود 10٪ 1 دارد (من آزادی نام بردن متغیرها را ندارم). N ~ 40000. رگرسیون لجستیک هم در هنگام استفاده از حدود 5 تا 10 اثر اصلی و هم پس از ایجاد چندین اصطلاح تعاملی پیشنهاد شده توسط روشهای CHAID، رضایتبخش نبود. حساسیت در نهایت فقط حدود 25٪ بود. سپس به شبکه های عصبی (شبکه های تابع پایه شعاعی، در SPSS) روی آوردم. از اینکه دیدم برنامه نتوانست هیچ موردی را به عنوان 1 طبقه بندی کند، بسیار شوکه شدم. یعنی حساسیت صفر بود. **سوال اول**: آیا این یک نتیجه NN معمولی یا قابل درک در این شرایط است؟ در مرحله بعد سعی کردم به طور تصادفی تعداد زیادی از موارد 0 را در مجموعه آموزشی حذف کنم، و کسر 1 را به حدود 40٪ رساندم. اکنون این برنامه توانست به درستی تعداد نیمه مناسبی از موارد را در مجموعه آموزشی با حساسیت حدود 30 درصد شناسایی کند، اما زمانی که محلول روی مجموعه آزمایشی اعمال شد، که یک بار دیگر تنها شامل 10 مورد بود، این میزان به 20 درصد کاهش یافت. % 1 s. **سوال دوم**: چگونه می توانید از این مشکل دور شوید؟ | چگونه می توان حساسیت شبکه عصبی را با یک نتیجه باینری یک طرفه بهبود بخشید؟ |
114545 | من نمیپرسم آیا پیادهسازیهایی از جنگلهای تصادفی وجود دارد که به فرد اجازه میدهد شرایط خطا را برای ورودیها ارائه کند. یک عبارت خطا می تواند بر اساس هر متغیر یا بر اساس هر نمونه / متغیر باشد. اگر یک عبارت خطا بر اساس هر متغیر مشخص شده بود، به الگوریتم جنگل تصادفی اجازه میدهیم بداند که «این متغیر $A$ دارای خطای نمونهگیری $\pm 5\%$ است، در حالی که این متغیر $B$ دارای خطای نمونهگیری است. از $\pm 10\%$. اگر یک عبارت خطا بر اساس هر نمونه/متغیر مشخص شده باشد، ما شرایط خطا را در تمام نمونههای جداگانه مشخص میکنیم. ما به جنگل تصادفی اطلاع می دهیم که برای نمونه 1، متغیر $A$ دارای خطای نمونه برداری $\pm 5\%$ است، و متغیر B دارای خطای نمونه برداری $\pm 8\%$ است، در حالی که نمونه 2، متغیر $A$ دارای خطای نمونهبرداری $\pm 6\%$ و متغیر $B$ دارای خطای نمونهبرداری $\pm 12\%$ است. من به ویژه به پیاده سازی در R، C++، C# یا Python علاقه مند هستم. | آیا با Random Forests می توان برای هر متغیر یا هر نمونه یک عبارت خطا ارائه کرد؟ |
45183 | من یک نظرسنجی بسیار ساده برای سنجش نگرش دانش آموزان نسبت به نمایشگاه های علمی ایجاد کرده ام. از مقیاس لیکرت و سؤالات باز استفاده می کند. آیا توصیه ای برای نوع آماری که برای اعتبارسنجی این نظرسنجی استفاده شود دارید؟ | چگونه با استفاده از مقیاس لیکرت یک نظرسنجی را اعتبار سنجی کنیم؟ |
80038 | روش آمار احتمالی مورد استفاده در این پست قدیمی OKCupid چیست؟: http://www.economist.com/blogs/johnson/2010/10/sexuality_and_language و این: http://blog.okcupid.com/index.php/ موارد-واقعی-سفیدپوستان-مانند/ در اینجا تنظیم مشکل است: شما مجموعه ای از توصیفات خود کاربران را دارید. کلمات رایج (مسئله شماره 1!) را انتخاب کنید که تفاوت (مسئله شماره 2!) بین N گروه را به حداکثر می رساند، در اینجا N=4 گروه، 2 در 2 بر اساس جنسیت و جنسیت. بنابراین، همانطور که من این را فهمیدم، شما در حال انجام یک NLP معمولی هستید، و یک ماتریس پراکنده می سازید که دارای فرکانس (یا نوعی فرکانس هنجاردار، مانند tf-idf) است. ردیفها اسناد هستند، ستونها تعداد کلماتی هستند که در تمام اسناد در آن مشاهده استفاده میشوند. سپس شما از آن شمارشهای کلمهای استفاده میکنید تا مبنایی ایجاد کنید که بر اساس آن مجموعهای از کاربران، مثلاً زنان دگرجنسگرا، امتیاز بالایی داشته باشند، اما امتیاز نسبتاً پایینی در 3 مبنای دیگر انتخاب شده در همان زمان دارند. کلمات/ابعاد با بالاترین بارگذاری بر اساس آن/IS/مجموعه خروجی کلمات در نمودار. مسائلی که در بالا به نظر میرسند به نظر من دشوار میآیند: 1. چه چیزی باعث میشود افرادی که این کار را انجام دادهاند، بهعنوان وسیله احتمالی تصمیمگیری در مورد اینکه آیا کلمات بهعنوان «متداول» محسوب میشوند یا خیر؟ آیا از آستانه استفاده می کنید؟ روش مناسب برای انتخاب برجسته ترین کلمات چیست؟ اگر کاری مانند tf-idf، pmi را انجام دهید، ممکن است موضوعی بودن نسبی یک سند در مقابل یک پیکره را به شما بگوید، اما به نظر میرسد این مشکل مشابه موضوعی بودن نسبی مجموعهای از اسناد در مقابل پیکره نیست. 2. روش گروه بندی چیست؟ از آنجایی که من تعداد گروه ها را می دانم، k-means مناسب به نظر می رسد، اما چگونه به صورت مکانیکی روی یک ماتریس پراکنده غول پیکر مانند واژه نامه ها کار می کند؟ من بیش از کمی در بالا دست تکان دادم تا بفهمم کلمه رخداد به عنوان ابعاد مانند ماتریس هایی است که به آن عادت کرده ام. اگر 10000 کلمه در ماتریس پراکنده وجود داشته باشد، آیا تعداد بی نهایت پایه وجود ندارد؟ چه چیزی برای به حداکثر رساندن تفاوت بین گروهها استفاده میشود و آیا حداکثر تضمینی وجود دارد؟ علاوه بر K-means، این نیز ساده لوحانه به نظر من شبیه LDA فیشر است، به این معنا که من از ترکیب خطی ویژگی ها (مجموعه ای از کلمات) درخواست می کنم که تفاوت بین گروه ها را به حداکثر می رساند. 3. امتیاز: اگر استمینگ را برای تطبیق یک کلمه در بخشهای گفتار انجام میدهید، چه مدیریت دادهای انجام میدهید تا فرمهای ریشهدار را به نمایش زیبا بازگردانید؟ (شما نمی توانید یک تابع پایه را معکوس کنید --- بنابراین f(jumping) = jump، f(jumped) = jump، اما هیچ 1-to-1 f^-1 ( jump) = پرش.) یا شاید در این مورد، فیلتری در ابتدا اعمال شده است تا عبارات اسمی را جدا کند؟ هر گونه توصیه یا پیوند به کد در R یا Python مفید خواهد بود | متدولوژی پشت ابرترین-تفاوت-بین-گروه-برچسب-ابر چیست؟ |
80033 | من یک مدل احتمال خطی (LPM) $ p (y = 1 | x_1) = b_0 + b_1x_1 + u $ و یک مدل پروبیت $ p (y = 1 | x_1) = \ phi (b_0 + b_1x_1 + u) $ را تخمین زده ام. جایی که $ \ phi () $ توزیع عادی تجمعی را نشان می دهد. رگرسیون $x_1$ همان متغیر باینری است. مشاهده کردم که احتمالات پیش بینی شده برای هر دو مدل $\hat{y} =\hat{b_0} +\hat{b_1}x_1 $ و $\hat{y} =\Phi(\hat{b_0} + \hat{b_1 }x_1)$ در هر دو مدل یکسان هستند. چرا از منظر تئوریک چنین است؟ | چرا احتمالات برازش شده برای مدل احتمال خطی و مدل پروبیت یکسان است؟ |
62430 | مشکل من این است: من نیاز به تجزیه و تحلیل نتایج آزمون دانش آموزان دارم و به دنبال ابزارهایی برای انجام این کار هستم. آنچه من دارم مجموعه ای از نمرات برای تعدادی از آزمون های مختلف و تعدادی از دانش آموزان مختلف است. بنابراین هر دانش آموز ممکن است صفر یا بیشتر نمرات داشته باشد و هر آزمون ممکن است صفر یا بیشتر باشد. برای برخی از آزمون ها (مثلاً **آزمون A**) من 30 امتیاز دارم که در محدوده ممکن (1 تا 9) توزیع شده است. برای یک نقطه جمع آوری دوم من یک مجموعه نتایج مشابه دارم. نمرات به طور متفاوتی توزیع می شوند، اما همچنان در همان محدوده توزیع می شوند. بنابراین، می دانم که می توانم میانگین را محاسبه کنم و به آنها نگاه کنم. اما این مقدار زیادی را به من نمی گوید. اساساً میخواهم (1) راهی برای مقایسه یک مجموعه با مجموعه دیگر، و (2) راهی برای کمی کردن آن به یک مقدار عددی پیدا کنم. به این ترتیب می توانم بگویم میزان بهبود بین مجموعه های 1 و 2 دو برابر بیشتر از بین مجموعه های 2 و 3 بود - یا چیزی مشابه. من کمی در مورد اندازه افکت خوانده ام، اما مطمئن نیستم که با هدف من مطابقت داشته باشد یا خیر. علاوه بر این، هر آزمون با محدوده و مقیاس متفاوتی مطابقت دارد. من الگوریتمی را پیدا کرده ام که برای من کار می کند تا نمرات را در یک پایه مشترک نرمال کنم. به شرطی که الگوریتم کاملاً وزن داشته باشد (به خاطر استدلال)، آیا استفاده از داده های چندین آزمون مختلف با هم به عنوان یک «مجموعه» از نمرات بی خطر است؟ برای جمعبندی همه چیز، فکر میکنم به دنبال ابزاری هستم که در تلاش من برای تعیین کمیت و مقایسه مجموعه دادههای نمرات آزمون مفید باشد. | تفاوت بین دو نمونه را کمی کنید |
13403 | من داده هایی دارم که شبیه این هستند، با اندازه گیری تناژ و اندازه گیری تراکم برای هر واگن در دسته ای از قطارها. واگن قطار_بدون تن چگالی A 1 105.5 2.12 A 2 104.9 2.28 A 3 101.2 2.30 A 4 108.7 2.41 B 1 112.3 2.51 B 2 109.7 2.51 B 2 109.7 2.3 تن؟ اسم این کار چیه؟ کد «R» بسیار مفید خواهد بود!** هدف ما این است که تن های بیشتری را در هر کالسکه بگنجانیم، اما تغییر در میانگین به گونه ای است که درصد غیرقابل قبولی از واگن ها را بارگذاری می کنیم. بنابراین باید تغییرات را سخت تر کنیم تا بتوانیم میانگین (یعنی تن کل بیشتر) را بدون اضافه بار افزایش دهیم. چند کار وجود دارد که می توانیم برای بهبود تنوع تناژ انجام دهیم، اما کنترل تراکم یکی از آنها نیست (واکنش به تغییرات چگالی ممکن است امکان پذیر باشد). بنابراین میخواهم بفهمم که چگالی چقدر باعث تغییر در تن میشود. | تعیین سهم یک متغیر در تغییر متغیر دیگر |
62439 | فرضیه پروژه تحقیقاتی من این است که آموزش خاصی توانایی در موضوع A را بهبود می بخشد. _**جزئیات نمونه_** گروه ها: 1A (25)، 1B (21)، 2A (25)، 2B(27)، 3A(23)، 3B (23). اعداد داخل پرانتز نشان دهنده تعداد در هر گروه است. کنترل/تجربی: 1A، 2A، 3A گروه های آزمایشی و 1B، 2B، 3B گروه های کنترل هستند. گروه با برچسب (1A, 1B); (2A,2B)؛ (3A,3B) به ترتیب زیر 3 گروه سنی مختلف قرار می گیرند. دادههای جمعآوریشده به شرح زیر بود: 1. نمرات پیشآزمون و پسآزمون برای هر گروه که با استفاده از آزمون توانایی موضوع الف گرفته شد. آزمون های واحد کلاسی که توسط معلم داده می شود). _**تحلیل آماری_** با دانش محدود در آمار تجربی، از نتایج پیش آزمون و پس آزمون برای همه گروه ها برای آزمون توانایی موضوع الف گرفته شد. من یک آزمون تی زوجی برای هر گروه به طور جداگانه انجام دادم. نمرات آزمون واحد B نیز صرفاً برای بررسی تأثیر آموزش بر پیشرفت یک موضوع دیگر، متفاوت از موضوع الف، گرفته شد. سؤالات: به جز آزمون t زوجی، چه ابزار آماری دیگری در راستای فرضیه من کمک خواهد کرد؟ 1\. من می خواهم نمرات توانایی موضوع A را بین گروه کنترل و آزمایش 2 مقایسه کنم. نمرات توانایی موضوع A را در 3 گروه سنی مختلف 3 مقایسه کنید. نمرات آزمون واحد انجام شده در کلاس را به طور جداگانه برای موضوع A و موضوع B 4\ مقایسه کنید. مقایسه نمرات توانایی در موضوع A برای مرد و زن در هر گروه و PS کلی: من از SPSS برای تجزیه و تحلیل آماری استفاده خواهم کرد. | چگونه می توان تأثیر مداخله پیش از درمان، مداخله کنترلی را با سه گروه سنی، دو متغیر وابسته و تأثیرات جنسیتی آزمایش کرد؟ |
46982 | مجلات و کتاب های مربوط به آزمون هم انباشتگی یوهانسن پیشنهاد می کنند که فقط متغیرهای I(1) باید در آزمون هم انباشتگی قرار گیرند. با این حال بسیاری از مجلات مدل سازی رشد اقتصادی و تورم از دو متغیر I(0) در آزمون هم انباشتگی استفاده می کنند. آیا این رویه قابل قبولی است؟ اگر از دو متغیر I(0) در رگرسیون هم انباشته استفاده شود، تفسیر باقیمانده چیست؟ | آزمون همجمعی یوهانسن با متغیرهای ثابت |
48464 | من گزارشی درباره «فاصلههای اطمینان مبتنی بر نرمال بودن مجانبی» نوشتم. با این حال سرپرستم گفت که تعریف بند دوم اشتباه است اما من نمی دانم چه اشکالی دارد. گزارش را اینجا پیوست کرده ام. میشه لطفا یه نگاهی بندازید و بگید مشکلش چیه؟  | فواصل اطمینان بر اساس نرمال بودن مجانبی |
46989 | به نظر می رسد که باید به طور گسترده پاسخ داده شود، اما من زمان زیادی را صرف جستجو و خواندن کتاب های درسی کرده ام و نتوانسته ام آن را بفهمم. فرض کنید قرص درمانی هیجان انگیز جدیدم را به یک نمونه تصادفی از N نفر و یک قرص دارونما را به نمونه تصادفی M نفر می دهم. A از N نفر می میرند و B از افراد M می میرند. من می خواهم بدانم احتمال مرگ افراد با مصرف دارونما بیشتر از درمان است. در حال حاضر من این کار را انجام می دهم: > داده <- ماتریس(c(A,B,N-A,M-B), nrow=2) > chisq.test(data, correct=FALSE) و به مقدار p نگاه می کنم (که متوجه می شوم اینطور نیست در واقع پاسخ به سوال من است، اما این برای شما مکرر است). و اگر بخواهم فاصله زمانی را بدانم که به احتمال 95% مقدار واقعی در آن قرار دارد، فقط انجام می دهم: > pbar = A/N; se = sqrt(pbar * (1-pbar)/N); e = qnorm(.975)*se; pbar + c(-e, e) اما من معادل بیزی را می خواهم. اکنون میدانم که میتوانم توزیع بتا را با یک پیشین یکنواخت محاسبه کنم و سپس از نمونهگیری مونت کارلو برای یافتن پاسخها استفاده کنم، اما به نظر هک و ناکارآمد است. راه مستقیم تری برای محاسبه پاسخ چیست؟ | چگونه می توانم آزمون فرضیه های پایه را در چارچوب بیزی انجام دهم؟ |
113824 | من سعی میکنم یک متغیر سری زمانی را مدلسازی کنم که درصدی را نشان میدهد که بین 0 و 1 محدود شده است، که در مورد میانگین نیز غیر ثابت است. ** آیا فرم مدلی وجود دارد که بتواند رفتار غیر ثابت را در حین تولید پیشبینیها در بازه [0،1] توضیح دهد؟ سوال خاص (فقط یک قوز بر اساس خواندن سریع): > پارک، جون ی.، و پیتر سی بی فیلیپس. رگرسیون های غیرخطی با سری های زمانی یکپارچه. Econometrica 69.1 (2001): 117-161. > > پارک، جون وای و پیتر سی بی فیلیپس. انتخاب باینری غیر ثابت. > Econometrica 68.5 (2000): 1249-1280. > > هو، لینگ و رابرت دی یونگ. رگرسیون سانسور شده غیر ثابت mimeo، Ohio > State Uni، 2006. متأسفانه، من از هیچ گونه پیاده سازی (ترجیحاً در R) برآوردگرهای ML مورد بحث بی اطلاع هستم. * * * بنا به درخواست الکوس، در زیر طرحی از سریال است که منجر به این سوال شد! //imgur.com/W6PYAiK.jpeg) | مدلسازی یک سری کراندار غیر ساکن |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.