_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
82797
من یک نمونه 100 نقطه ای دارم که پیوسته و تک بعدی هستند. من چگالی ناپارامتری آن را با استفاده از روش های هسته تخمین زدم. چگونه می توانم نمونه های تصادفی را از این توزیع تخمین زده بگیرم؟
چگونه می توان نمونه های تصادفی را از یک توزیع تخمینی ناپارامتریک استخراج کرد؟
6535
آیا استفاده از ANOVA با اندازه گیری مکرر وقتی یک فاکتور 2 سطحی درون آزمودنی دارید که در آن 1 سطح با آزمایش های بیشتری نسبت به سطح دیگر نشان داده می شود، اشکالی دارد. من می دانم که در ANOVA ما در حال مقایسه میانگین ها هستیم، اما آیا خطای استاندارد سخت تر در یک سطح ANOVA را از بین می برد؟ برای مثال، اگر IV من همخوانی محرک است و من 80 بار کارآزمایی‌های همخوان را ارائه می‌کنم در حالی که فقط 20 بار کارآزمایی‌های ناسازگار ارائه می‌دهم، آیا می‌توانم فقط ANOVA را شامل همه کارآزمایی‌ها اجرا کنم یا باید با انتخاب همان مقدار کارآزمایی، آنالیز را اجرا کنم. هر سطح عامل (یعنی فقط 20 کارآزمایی متجانس را برای جفت شدن با 20 کارآزمایی ناهمخوان انتخاب کنید)؟ اگر این برای یک طراحی کاملاً درون موضوعی خوب است، آیا اگر یک متغیر متعادل یا نامتعادل بین موضوعات به طرح اضافه شود، مشکلی ایجاد می‌کند؟
آیا یک عامل درون آزمودنی با سطوح نابرابر نمایش داده شده، ANOVA با اندازه گیری های مکرر را خراب می کند؟
31381
توابع چگالی احتمال $f_{1}\left(x\right)$ و $f_{2}\left(x\right)$ و توزیع مخلوط $f_{3}\left(x\right)\equiv را در نظر بگیرید pf_{1}\left(x\right)+\left(1-p\right)f_{2}\left(x\right)$$ فرض کنید لحظات مرتبط با $f_{1}\left(x\right)$ همه به وضوح تعریف شده‌اند، اما لحظه‌های $f_{2}\left(x\right)$ ممکن است لزوماً نباشند (مثلاً توزیع کوشی یا لوی). برای محاسبه مقدار مورد انتظار می توان یافت $$\int_{-\infty}^{\infty}xf_{3}\left(x\right)dx=p\int_{-\infty}^{\infty}xf_{1}\left(x\right) )dx+\left(1-p\right)\int_{-\infty}^{\infty}xf_{2}\left(x\right)dx$$ احتمالاً اگر $\int_{-\infty}^{\infty}xf_{2}\left(x\right)dx$ بی نهایت یا تعریف نشده باشد، آنگاه مقدار مورد انتظار فقط زمانی وجود دارد که $p=1$ باشد. آیا این منطق درست است، حتی اگر $p$ نزدیک اما کمتر از $1 باشد؟ آیا به لحظات بالاتر نیز گسترش می یابد؟
اگر یک توزیع دارای گشتاورهای نامحدود/بی نهایت باشد، مخلوط گشتاورها را توزیع می کند
83093
من در حال آزمایش ترکیبی از فعالیت های پیش پردازش روی یک مجموعه داده کوچک هستم (n=48، p=30). این اسکریپت 3200 نسخه مختلف از داده های اصلی را تولید می کند و نحوه عملکرد آنها را در یک کار طبقه بندی در برابر 5 طبقه بندی کننده اندازه گیری می کند. پارامترهای طبقه بندی کننده با 10 بار بوت استرپ تنظیم می شوند. من فرض می‌کنم یک طرح نمونه‌گیری خوب این است که اعتبارسنجی متقاطع 10 برابری را 10 بار تکرار کنیم، اما این از نظر محاسباتی بسیار زیاد است، حداقل برای منابع من: * 3200 بار * 10 * 10 (اعتبار متقابل) * برای هر آهنگ دور و آموزش پنج مدل 10 * 5 ایده در حال حاضر 1 است. برای هر داده نسخه 2. پارامترهای مدل ها را با 10 بار نمونه بوت استرپ (2/3 مجموعه تیونینگ - 1/3 مجموعه تست تیونینگ) 3. آموزش مدل ها با نمونه بوت استرپ جدید با توجه به پارامترها. طرح نمونه گیری و مجموعه های آموزشی و آزمایشی را ترکیب می کند. یک طرح نمونه برداری خوب و در عین حال محاسباتی عملی در این شرایط چه خواهد بود؟
مشاوره در مورد طرح نمونه برداری مجدد برای یک نمونه کوچک / موقعیت محاسباتی پرهزینه؟
43331
در مورد اینکه آیا باید تعاملات را از نظر آماری پیگیری کرد یا خیر، بحث های زیادی وجود دارد. در برخی زمینه ها انجام ندادن این کار غیرعادی است. من یک تعامل سه طرفه با یک متغیر پیوسته، یکی دوگانه و یکی با سه دسته دارم و در این انجمن راهنمایی خواستم. من توصیه های مفیدی از گلن دی پالما دریافت کردم که گفت باید یک برهمکنش 2×3 را یک بار به اضافه یک انحراف استاندارد متغیر پیوسته و یک بار در منهای یک انحراف استاندارد رسم کنم. من این کار را انجام دادم. در مقاله من مقدار F، df و p-value را می‌دهم و بدون آزمایش بیشتر آنچه را می‌توان در دو نمودار مشاهده کرد، توضیح داد. آیا کسی مقاله ای دارد که بتوانم به آن مراجعه کنم که از این رویکرد حمایت کند؟ من کنجکاو هستم که نظر دیگران را نیز در مورد این موضوع بشنوم. بهترین آرزوها، Mariska
پیگیری آماری تعاملات؟
89723
من در حال حاضر در حال اجرای یک آزمون AB روی تعدادی وب سایت برای تغییری که در همه وب سایت ها ایجاد کرده ایم و در حال اندازه گیری درآمد/سایت/گروه هستم، بنابراین گروه های آزمایشی من به این صورت هستند: وب سایت a | گروه آزمون a | بازدیدکنندگان منحصر به فرد | درآمد وب سایت a | گروه آزمایشی b | بازدیدکنندگان منحصر به فرد | درآمد وب سایت b | گروه آزمون a | بازدیدکنندگان منحصر به فرد | درآمد وب سایت b | گروه آزمایشی b | بازدیدکنندگان منحصر به فرد | درآمد و غیره در ابتدا می خواهم نشان دهم که بین دو گروه آزمایشی به طور کلی تفاوت وجود دارد و بنابراین از یک فرضیه صفر استفاده کردم: گروه آزمایشی هیچ تفاوتی برای درآمد/کوکی در همه سایت ها ایجاد نمی کند. سپس می توانم با خوشحالی تمام بازدیدکنندگان منحصر به فرد (در سراسر سایت ها) و درآمد را برای هر گروه آزمایشی جمع آوری کنم. با این حال، من واقعاً نمی دانم از اینجا چه کار کنم. من می دانم که می توان با تبدیل ها به صورت دوجمله ای رفتار کرد، اما درآمد را نمی توان انجام داد. ما همچنین نمی توانیم مقدار سفارش متوسط ​​را به عنوان یک توزیع نمایی یا عادی در نظر بگیریم (ایده هایی که من به آنها نگاه کردم). در ابتدا، من در مورد استفاده از آزمون Mann-Whitney U فکر کردم، اما به نظر می‌رسد که بیشتر چیزهایی که خوانده‌ام نشان می‌دهند که اینها برای <20 ورودی در آرایه شما بهترین کار را دارند. هنگامی که من یک بردار حاوی مقداری که هر مشتری خرج کرده است ایجاد می کنم (بردار بسیار کم جمعیت - بیشتر مردم چیزی نمی خرند)، هر گروه آزمایشی بردار طول متفاوتی با اندازه 100000 دارد. تلاش بعدی من شامل راه‌اندازی (فکر می‌کنم) بود - من اساساً با نمونه‌برداری از بردار درآمد کم جمعیت ذکر شده، یک توزیع نرمال برای هر گروه آزمایشی ایجاد کردم. ایجاد حدود 10000 بردار مانند این و اجرای یک آزمون نرمال بودن بر روی مجموع هر یک از بردارها، توزیع نرمال را برای هر گروه آزمایشی به من می دهد. از این رو، فکر می‌کنم می‌توانم آزمون t را روی دو بردار توزیع شده معمولی انجام دهم تا اهمیت تغییر ایجاد شده را بیابم و از این رو فرضیه صفر را پشتیبانی/رد کنم؟ سوال من این است که آیا هر یک از تلاش های بالا کار درستی است؟ من نمی توانم تصور کنم که این کار آنقدر غیرمعمول باشد که بخواهیم انجامش بدهی که روشی برای انجام این کار به طور کلی پذیرفته نشده است. علاوه بر این، من همچنین می‌خواهم بتوانم چیزی را در این مسیر گزارش کنم: گروه آزمایشی x y% بهتر از گروه آزمایشی z با صدک 5 و 95 در آن درصد افزایش q و j است. بهترین راه برای محاسبه این بیت های اطلاعات چیست؟ متشکرم، مت
محاسبه اهمیت و افزایش در آزمون‌های A/B درآمد
71645
من نسبتاً با R جدید هستم و با استفاده از روش anova یک شی rpart ایجاد می کنم (از آنجایی که با ستون های پیوسته سروکار دارم) EstimationModel <- rpart(OutpoutColumn ~ ., data=DATAFRAME,method=anova) اکنون می خواهم واریانس هر گره را پیدا کنید. شی rpart میانگین را به من می دهد اما چگونه می توانم واریانس را بدست بیاورم؟
نحوه یافتن Variance از شی rpart در R
88458
من یک پروبیت هکمن را اجرا می کنم. هر دو مرحله خطاهای عادی متغیر پنهان را فرض می کنند، درست است؟ داده های من از یک نظرسنجی است و بسیاری از متغیرها به شدت منحرف هستند، بنابراین من نگران هستم که آیا این فرض صادق است یا خیر. آیا آزمایشی وجود دارد که بتوانم از آن استفاده کنم؟ نمونه 10000 هست کمکی میکنه؟ همچنین آیا می توانم با تغییر شکل داده ها به نوعی خطاها را به حالت عادی نزدیک کنم؟ بگو، گرفتن سیاهههای مربوط؟ با تشکر
تست نرمال بودن باقیمانده های نهفته (هکمن) پروبیت؟
71640
من یک مدل پیش بینی برای ساختن دارم و به دنبال ایده هایی در مورد این رویکرد هستم. من مجموعه داده آموزشی بزرگی از موجودی مشتریان دارم (یک حساب پس انداز را در نظر بگیرید) در زمان t=1 تا 36 که میانگین های ماهانه در طول سه سال را نشان می دهد. من می خواهم مدلی برای پیش بینی ارزش حساب مشتری در t=4..36 با استفاده از اطلاعات موجود در انتهای t=3 بسازم. _بنابراین، این یک مشکل از نوع پیش بینی است، اما نه در مفهوم سری زمانی که در آن دنباله ای از داده ها را به طور قابل توجهی طولانی تر از افق زمانی که می خواهید پیش بینی کنید، مشاهده می کنید. ردیف در مجموعه داده برای هر ترکیب مشتری/ماه ایجاد می شود (بنابراین در اینجا هر مشتری 33 ردیف در داده دارد و متغیری به نام t مقادیر 4 تا 36 را می گیرد). برای هر ماه، متغیرهای وضعیت اولیه برای مشتری که در پایان ماه 3 شناخته می شوند، تکرار می شود. این تنظیمات به اصطلاح داده های دوره شخص است. سپس یک مدل رگرسیون بر روی این داده ها را با استفاده از داده های حالت اولیه و 't' یاد خواهم گرفت. هیچ حسابداری برای این واقعیت وجود ندارد که مشتریان در داده ها تکرار می شوند. این برای یک مدل مخاطره زمانی گسسته کار می کند، اما سوال من این است که آیا این برای یک رگرسیون خطی یا یک الگوریتم یادگیری ماشینی (مثلاً شبکه عصبی) خوب است؟ آیا راه بهتری وجود دارد؟ **افزودن**: به طور خاص می‌پرسم اگر چنین مدلی به‌صراحت اندازه‌گیری‌های مکرر و همبستگی بین ردیف‌ها (مشتریان یکسان در مقادیر مختلف 't') را در نظر نگیرد، شکست خواهد خورد. هنگام برخورد با یک مدل پیش‌بینی، چگونه می‌توان آن را به حساب آورد؟
مدل های پیش بینی طولی
77808
اخیراً در تفسیر اصطلاح تعاملی که در رگرسیون استفاده می‌کنم با مشکل مواجه شده‌ام. من دو متغیر ساختگی و یک متغیر پیوسته دارم. برای توضیح، BLACK اگر پاسخ دهنده سیاه باشد مقدار 1 و در غیر این صورت 0 را می گیرد. MAR در صورت ازدواج مقدار 1 و در غیر این صورت 0 را می گیرد. من همچنین یک متغیر پیوسته برای تحصیلات EDUC پاسخگو درج می کنم. من متغیر MARBLACK را ایجاد می کنم که برای سیاهان متاهل مقدار یک را می گیرد. هنگام ساخت مدل خود، تخمین می زنم: $$ EARNINGS= \alpha + \beta_1 BLACK + \beta_2 MAR + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_5 MAR*EDUC + \beta_6 MARBLACK*EDUC + \beta_7 EDUC $$ این دیدگاه من از آن است: $\alpha + \beta_1 BLACK + \beta_2 MAR + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_5 MAR*EDUC + \beta_6 MARBLACK*EDUC + \beta_7 EDUC $ مقدار پیش‌بینی‌شده برای سیاه‌پوستان متاهل $\alpha + \beta_1 BLACK + \beta_4 BLACK*EDUC + \ را می‌دهد. beta_7 EDUC $ مقدار پیش‌بینی‌شده برای سیاه‌پوستان غیرمتاهل را می‌دهد $\alpha + \beta_2 MAR + \beta_5 MAR*EDUC + \beta_7 EDUC $ مقدار پیش‌بینی‌شده برای غیرسیاه‌پوستان متاهل را می‌دهد $\alpha + \beta_7 EDUC $ مقدار پیش‌بینی‌شده را برای غیرسیاه‌پوستان غیرمتاهل می‌دهد (کلاس مرجع من ). بنابراین، اگر بخواهم حق بیمه متاهل و سیاه پوست بودن را محاسبه کنم، $\beta_1 BLACK + \beta_2 MAR + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_5 MAR*EDUC + \beta_6 MARBLACK*EDUC $ و نه فقط $ \beta_3 MARBLACK + \beta_6 MARBLACK*EDUC $ شهود من این است که سیاهپوست بودن و متاهل بودن سه اثر برای مخاطب ایجاد می کند: سیاه بودن، متاهل بودن و تعلق داشتن به هر دو دسته. با این حال، در بحث با محقق دیگری، او ادعا می کند که فقط ضرایب MARBLACK است که باید در نظر بگیرم. او آن را با انتظارات مشروط توضیح می‌دهد: اجازه دهید $E[EARNINGS|BLACK=1,MAR=1]= \alpha + \beta_1 BLACK + \beta_2 MAR + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_5 MAR*EDUC + \ beta_6 MARBLACK*EDUC + \beta_7 EDUC $ و $E[EARNINGS|BLACK=0,MAR=1]= \alpha + \beta_2 MAR + \beta_5 MAR*EDUC + \beta_6 + \beta_7 EDUC $ سپس اثر تغییر را محاسبه می‌کند، یعنی $E[EARNINGS|BLACK =1,MAR=1]-E[EARNINGS|BLACK=0,MAR=1]= \beta_1 BLACK + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_6 MARBLACK*EDUC $. او آن را EARNINGSbis می نامد. سپس ادامه می دهد و کارهای زیر را انجام می دهد: $E[EARNINGSbis|MAR=1]=\beta_1 BLACK + \beta_3 MARBLACK + \beta_4 BLACK*EDUC + \beta_6 MARBLACK*EDUC$ و $E[EARNINGSbis|MAR=0]= \beta_1 BLACK + \beta_4 BLACK*EDUC$ او دوباره اثر تغییر را محاسبه می‌کند و او با $\beta_3 MARBLACK + \beta_6 MARBLACK*EDUC$ باقی مانده است. و به خصوص در جایی که از نظر تفسیر منحرف می شوند؟ خیلی ممنون. با احترام، اولیویه.
تعامل بین آدمک ها و یک متغیر پیوسته
15000
با قرض گرفتن از این پست در SAS و R: http://sas- and-r.blogspot.com/2011/07/example-92-transparency-and-bivariate.html من مجموعه بزرگی از داده ها را دارم که بهترین راه حل (یا حداقل به خوبی نزدیک شده است) با استفاده از نوعی نمودار پراکندگی با هموارسازی یا باینینگ. تابع smoothScatter R به طرز شگفت انگیزی کار می کند، اما تعداد سطل های زیادی دارد (من معتقدم 128 پیش فرض است). مشکل نمودار کانتور در SAS 9.2 است. به نظر می رسد که تنها 10 سطح در طرح کانتور SAS امکان پذیر است. خود داده دارای _تن_مقادیر در حدود صفر است و سپس مقادیر مثبت بیشتری دارد که همگی در یک دسته جمع می شوند و در نتیجه در نمودار پنهان می شوند. آیا کسی می داند چگونه می توان تعداد کانتورهایی را که SAS رسم می کند افزایش داد یا روی 10 ثابت شده است؟ به عنوان مثال، طرح در R نشان می دهد که تقریباً کجا می خواهم باشم، و نزدیک ترین چیزی که در SAS به آن رسیده ام: ![Smoothed R Plot](http://i.stack.imgur.com/iLeYR.png) ![SAS ](http://i.stack.imgur.com/ymLLY.png)
افزایش تعداد سطل ها در طرح کانتور SAS 9.2
72329
من باید مسئله زیر را حل کنم: 1. من مدل رگرسیون خطی خود را چندین بار (مثلا 1000 بار) با دو متغیر اجرا می کنم: y - متغیر وابسته پیوسته، x - متغیر مستقل پیوسته (میانگین چندین اندازه گیری متوالی). 2. متغیر مستقل در هر مدل به طور تصادفی با استفاده از میانگین و انحراف معیار ترسیم شد. به نوعی باید این نتایج را در یک نتیجه رگرسیونی ترکیب کنم. تا آنجایی که من می دانم ضرایب رگرسیون 1000 مدل را می توان فقط میانگین کرد. با این حال، این واقعا برای من روشن نیست که چگونه می توانم کل واریانس 1000 مدل را تخمین بزنم.
نتایج رگرسیون ادغامی در SPSS
88185
هنگام استفاده از کتابخانه موش در R برای انتساب داده ها با مشکل زیر مواجه می شوم. من یک ماتریس داده‌ای دارم که اطلاعات موجود در «y1» و «y2» و متغیر پیش‌بینی‌کننده «x» وجود ندارد. با این حال، به جای اینکه همه داده‌های گمشده «NA» را در «y1» و «y2» درج کنم، می‌خواهم فقط زیرمجموعه‌ای از داده‌هایی را که با «s1==1» و «s2==1» شناسایی شده‌اند، درج کنم. به دلیل ساختار داده، من نمی توانم فقط موارد را با `s1==0` یا `s2==0` حذف کنم. داده ها مشابه این به نظر می رسند: n=20 y1=c(rnorm(n)) y2=c(rnorm(n)) x=c(y1+y2+rnorm(1)) y1[c(1:10,16 :20)]<-NA y2[11:20]<-NA s1=c(rep(0,10),rep(NA,5),rep(1,5)) s2=c(rep(NA,10),rep(1,5),rep(0,5)) (data<-data.frame(y1,y2,x,s1,s2)) اکنون سؤال این است که «موش» داده‌های گمشده را در «y1» و «y2» برای «s1==1» قرار دهد. و `s2==1`، اما نه برای `s1==0` و `s2==0`. واضح است که انتخاب روی «data$s1==1» همه مشاهدات روی «y2» را حذف می‌کند. دلیلی که می‌خواهم این کار را انجام دهم این است که در یک فایل داده بزرگ‌تر، تعداد انتساب‌های لازم منجر به مشکلات پوششی در موش با meth=polyreg می‌شود. با تنظیم شاخص‌های `s` من سعی می‌کنم پیچیدگی بخش‌هایی از داده‌ها را که برای استنتاج مربوطه نیاز دارند کاهش دهم.
با استفاده از MICE در R: آیا می توان تنها بخش های فرعی از داده ها را نسبت داد؟
77805
یک جفت مرتب شده از متغیرهای تصادفی $(x_i,y_i)$ و رابطه زیر را در نظر بگیرید: $$\frac{\left(\sum_i^n x_i\right)^2}{\sum_i^n x_i y_i}\leq \ sum_i^n\frac{x_i}{y_i}$$ آیا روش مفیدی برای تنظیم مجدد رابطه از نظر توابع آماری وجود دارد؟ آیا می توان رابطه بین دو متغیر را به روشی شهودی و غیررسمی خلاصه کرد؟ اصطلاحات در LHS در استخراج معادله برازش حداقل مربعات ظاهر می شوند، اما من اصطلاح RHS را نمی شناسم.
چگونه می توان این نابرابری را به گونه ای دیگر بیان کرد؟
90203
من سعی می کنم نتیجه ای را از یک کتاب بازتولید کنم (پایین را ببینید) و کار نمی کند. من می خواهم در مورد این روش مطالعه بیشتری انجام دهم، اما او به طور خاص روشی غیر از یک فرمول ارائه نمی دهد. من قبلاً سعی کردم روش را با استفاده از ویکی‌پدیا شناسایی کنم اما موفقیت آمیز نبود. این مدل خطی است: $Z = cX + dY$ او معادله ای برای $c$ ارائه می دهد: $$ c = \frac{{\rm corr}(X,Z) - {\rm corr}(Y,Z) {\rm corr}(X,Y)}{1-{\rm corr}(X,Y)^2} $$ وزن $d$ به طور معادل محاسبه می‌شود. سپس می نویسد که $c$ و $d$ می توانند برای محاسبه مربع خطا استفاده شوند. با استفاده از آزمون و خطا، متوجه شدم که ضریب همبستگی ${\rm corr}()$ به احتمال زیاد اسپیرمن $\rho$ است (حداقل این روشی است که او تاکنون برای محاسبه ضرایب همبستگی استفاده کرده است.). علاوه بر این، او اشاره می‌کند که فرض می‌شود که میانگین X$ و Y$ در حال ناپدید شدن است. من با رگرسیون خطی نسبتاً تازه کار هستم، بنابراین در ابتدا فکر کردم که حداقل مربعات است، اما این معادله به نظر من شبیه آن نیست. آیا کسی این روش را می شناسد و می تواند نامی برای من بگذارد تا بتوانم بیشتر در مورد آن مطالعه کنم؟ همه اینها از یک کتاب علمی محبوب در مورد آمار فوتبال / فوتبال آمده است. کتاب به زبان آلمانی است. فرمول را می توان در ضمیمه A7.3 در صفحه 297 یافت. مثال خاص را که من سعی می کنم بازتولید کنم در صفحه 140 یافت می شود.
این چه نوع رگرسیون خطی چند متغیره است؟
15002
فرض کنید من بردارهای متغیر مستقل $\vec{x}$ و $\vec{z}$ و متغیر وابسته $y$ را مشاهده می‌کنم. من می‌خواهم مدلی از این فرم را بسازم: $$y = \vec{x}^{\top}\vec{\beta_1} + \sigma g\left(\vec{z}^{\top} \vec {\beta_2}\right) \epsilon، $$ که در آن $g$ یک تابع دوبار متمایز با ارزش مثبت است، $\sigma$ یک پارامتر مقیاس‌بندی ناشناخته است، و $\epsilon$ است یک متغیر تصادفی گاوسی با میانگین صفر، واریانس واحد (فرض می‌شود مستقل از $\vec{x}$ و $\vec{z}$). این اساساً تنظیم آزمون ناهمگونی کوئنکر است (حداقل تا جایی که من آن را درک می کنم). من $n$ مشاهدات $\vec{x}، \vec{z}$ و $y$ دارم، و می‌خواهم $\vec{\beta_1}$ و $\vec{\beta_2}$ را تخمین بزنم. اما من چند مشکل دارم: 1. من مطمئن نیستم که چگونه مسئله تخمین را به عنوان چیزی شبیه حداقل مربعات مطرح کنم (من فرض می کنم یک ترفند معروف وجود دارد). اولین حدس من چیزی شبیه $$min_{\vec{\beta_1}، \vec{\beta_2}} \left(\sum_{i=1}^n \frac{\left(y_i - خواهد بود \vec{x_i}^{\top}\vec{\beta_1}\right)^2}{g\left(\vec{z_i}^{\top}\vec{\beta_2}\right)^2}\ راست)\left(\sum_{i=1}^n \frac{1}{g\left(\vec{z_i}^{\top}\vec{\beta_2}\right)^2}\right)^{-1}، $$، اما من مطمئن نیستم چگونه آن را به صورت عددی حل کنید (شاید یک روش تکراری شبه نیوتنی ممکن است انجام دهد). 2. با فرض اینکه بتوانم مشکل را به روشی معقول مطرح کنم و تخمین‌هایی را بیابم $\hat{\beta}_1, \hat{\beta}_2$، می‌خواهم توزیع تخمین‌ها را بدانم به‌طوری که _ به عنوان مثال. _ من می توانم آزمون های فرضیه را انجام دهم. من می‌توانم دو بردار ضریب را جداگانه آزمایش کنم، اما روشی را برای آزمایش ترجیح می‌دهم، مثلاً $H_0: \vec{w_1}^{\top} \vec{\beta_1} + \vec{w_2} ^{\top} \vec{\beta_2} \le c$ برای $\vec{w_1}، \vec{w_2}، c$ داده شده.
استنتاج در مدل خطی با هتروسکداستیکی شرطی
35803
سناریوی زیر را در نظر بگیرید: آلیس مشترک یک سرویس اجاره ویدیو می شود که به او امکان تماشای فیلم را می دهد. هر بار که A فیلمی را تماشا می کند، به آن نمره شست بالا (1) یا انگشت شست پایین (0) می دهد و سپس فیلم بعدی را که می خواهد تماشا کند انتخاب می کند. هر فیلم دقیقاً متعلق به یک کارگردان است و یک کارگردان می تواند فیلم های زیادی را کارگردانی کند. سوال این است که بهترین راه برای تعیین کارگردان «مورد علاقه» A چیست؟ فکر اولیه من این بود که کاری انجام دهم: * برای هر کارگردان حداقل یک فیلمی که A تماشا کرده است، حد پایین فاصله اطمینان دو جمله ای (مثلاً فاصله امتیاز ویلسون) را به عنوان امتیاز مطلوب بودن A برای آن کارگردان محاسبه کنید، اما، این رویکرد دو جمله ای ناقص به نظر می رسد زیرا اطلاعات به ظاهر حیاتی را نادیده می گیرد: آلیس مجموعه ای کامل از فیلم ها را برای انتخاب دارد و اگر به طور مداوم فیلم تماشا کند یک کارگردان خاص، پس آیا این چیزی در مورد ترجیح او برای آن کارگردان به ما نمی گوید، حتی اگر او به فیلم های آن کارگردان کمتر از میانگین خود امتیاز دهد؟ من احساس می‌کنم اگر فقط رتبه‌بندی فیلم‌های تماشا شده را در نظر بگیریم، باید عنصری از رای دادن با پا وجود داشته باشد که نادیده گرفته شود. بهترین راه برای ترکیب انتخاب فیلم/کارگردان با رتبه بندی فیلم های جداگانه برای تعیین کارگردان مورد علاقه A چیست؟ به نظر می‌رسد ترجیح A برای کارگردان D باید تابعی از امتیازات A در مورد فیلم‌های D باشد که او تماشا کرده است، و همچنین درصد تمام فیلم‌های D که A برای تماشای انتخاب کرده است. به روز رسانی: باید روشن کنم، مشکلی که من با آن دست و پنجه نرم می‌کنم به این سادگی نیست، بلکه بیشتر شبیه این است که «A فیلمی را تماشا می‌کند و اگر آن را دوست داشت، کادری را چک می‌کند». بنابراین، هر مشاهده به 0 یا 1 منجر می‌شود، اما عدم علامت زدن یک کادر کاملاً شبیه «شست پایین» نیست، زیرا بیننده ممکن است احساس کند فقط در صورتی که واقعاً دوست داشته باشد، کادر «تأیید» را بررسی کند. چیزی دلیل بیشتر این است که انتخاب آنچه برای تماشا کردن باید در اولویت‌ها لحاظ شود
چگونه تولید کننده محتوای مورد علاقه کاربر را از روی رتبه بندی فردی مشخص کنیم؟
108974
من مجموعه داده ای از پردازش سفارش با 8 میلیون ردیف با ستون های زیر دارم: * HistoryId \- ستون هویت رکوردها * ItemId \- شناسه مورد پیگیری شده * وضعیت قبلی \- وضعیت مورد قبل از تاریخچه رکورد ایجاد شده * `وضعیت جدید` \- وضعیت مورد هنگام ایجاد سابقه سابقه * `زمان تا تغییر وضعیت` \- اختلاف زمانی بین رکورد قبلی مورد تا این سابقه سابقه ایجاد شده است. من می خواهم این داده ها را با یک نمودار / نمودار تجسم کنم که جریانی مشابه این را نشان می دهد: وضعیت 1 --> وضعیت 2 --> وضعیت 3 --> وضعیت 4 --> وضعیت 5 وضعیت 5 وضعیت 4 --> وضعیت 5 وضعیت 2 --> وضعیت 3 --> وضعیت 5 --> وضعیت 2 --> وضعیت 4 --> وضعیت 5 وضعیت 5 --> وضعیت 4 --> وضعیت 5 وضعیت 4 --> وضعیت 5 در مثال بالا - فرض کنید که همه موارد دارای موارد زیر هستند: 1. وضعیت اول یا وضعیت 1 یا وضعیت 2 است. 2. همه مواردی که با وضعیت 1 شروع می شوند دارای وضعیت دوم هستند وضعیت 2، در حالی که برای موارد شروع با وضعیت 2 تا حدی وضعیت 3 هستند و بقیه موارد وضعیت 4 هستند 3. حرکت بر روی منطق مشابه (2) .) با شکست توسط هر جریان. من می خواهم داده ها را کاوش کنم و تمام جریان های ممکن داده ها را تجسم کنم. سپس آن‌ها را با شمارش تعداد آیتم‌هایی که از هر «وضعیت» هر جریان عبور می‌کنند، خلاصه کنید. در حال حاضر، من آنها را به صورت دستی انجام می دهم. آیا می توان این را خودکار کرد و آن را روی نمودار تجسم کرد؟ داده‌های نمونه: HistoryID ItemId Previous_status New_Status 1 1 NA status_1 2 2 NA status_2 3 1 status_1 status_2 4 1 status_3 status_4 5 2 status_1 status_3 6 1 status_4 status_5 7 2 status_3 status_5 7 2 status_3 status_5. - توضیح: * `X` \- شاخص وضعیتی است که یک آیتم در چرخه عمر خود دارد. * Y \- نام وضعیت است * اندازه \- تعداد آیتم هایی که از وضعیت Y در نمایه X عبور می کند. * همانطور که می بینید اکثر موارد دارای وضعیت Y به عنوان وضعیت شروع هستند (ستون اول سمت چپ). * سپس به سمت راست حرکت می کنند و به وضعیت دیگری تبدیل می شوند (گاهی ممکن است به وضعیت اولیه برگردند اما در نمایه بعدی) * محدودیت این است که جریان را با جزئیات نشان نمی دهد حتی من می توانم جریان را با تغییر اندازه ببینم. از وقت اضافه امتیاز. * چیزی که من واقعاً می‌خواهم چیزی شبیه درخت تصمیم است که در آن می‌توانید نحوه جریان آیتم از طریق وضعیت را ببینید و هر جریان از یکدیگر جدا است. ![Sample out put اما نه دقیقا](http://i.stack.imgur.com/811af.png) * * * من موفق شدم از بسته riverplot استفاده کنم. با این حال من برخی از مشکلات مانند تصویر زیر دارم. کسی می‌داند چگونه می‌توان نشانگر را به جای درست روی نقطه‌ها در کناره نشان داد؟ از آنجایی که من یک وضعیت حدود 30 دارم و زمانی که آنها مانند تصویر زیر نمایش داده شوند بسیار گیج کننده است. برای مرجع شما، در اینجا پیوند به آموزش بسته riverplot وجود دارد![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uksfg.png)
تجسم داده های فرآیند
30387
اگر حجم نمونه کوچکی داشته باشیم، آیا توزیع قبلی تأثیر زیادی بر توزیع پسین خواهد داشت؟
رابطه بین حجم نمونه و تأثیر پیشین بر پسین چیست؟
4165
من می خواهم تصمیم بگیرم که آیا باید درسی به نام مقدمه ای بر فرآیندهای تصادفی را که ترم آینده در دانشگاه من برگزار می شود، بگذرانم. از مدرس پرسیدم که مطالعه چنین درسی چه کمکی به من به عنوان یک آمارگیر می کند، او گفت که چون از احتمال می آید، آمار بسیار کمی می داند و نمی داند چگونه به سوال من پاسخ دهد. من می‌توانم حدس بی‌سوادی بزنم که فرآیندهای تصادفی در آمار مهم هستند. اما من نیز کنجکاو هستم که بدانم چگونه. یعنی **درک اساسی در فرایندهای تصادفی در چه زمینه‌ها/روش‌هایی به من در انجام آمار بهتر کمک می‌کند؟**
مطالعه «فرایندهای تصادفی» چگونه به من به عنوان یک آمارگیر کمک می کند؟
96439
آیا تحقیقی در مورد چگونگی تخمین میانه جمعیت با استفاده از نمونه گیری چند مرحله ای انجام شده است؟ نمونه گیری تصادفی ساده در مورد من امکان پذیر نیست، من واقعاً دوست دارم از چیزی مانند نمونه گیری چند مرحله ای استفاده کنم.
نمونه گیری چند مرحله ای برای میانه جمعیت
88183
من روی یک مشکل طبقه بندی کار می کنم که یک متریک شباهت بین دو عکس ورودی اشعه ایکس را محاسبه می کند. اگر تصاویر مربوط به یک شخص باشند (برچسب راست)، یک متریک بالاتر محاسبه خواهد شد. تصاویر ورودی دو فرد مختلف (برچسب اشتباه) متریک کمتری را در پی خواهد داشت. من از اعتبارسنجی متقاطع 10 برابری طبقه بندی شده برای محاسبه احتمال طبقه بندی اشتباه استفاده کردم. اندازه نمونه فعلی من حدود 40 مطابقت درست و 80 منطبق اشتباه است که هر نقطه داده معیار محاسبه شده است. من یک احتمال طبقه بندی اشتباه 0.00 دریافت می کنم، اما به نوعی تجزیه و تحلیل فاصله اطمینان / خطا در این مورد نیاز دارم. من به دنبال استفاده از فاصله اطمینان نسبت دو جمله ای بودم (که در آن از نتایج اعتبارسنجی متقاطع به عنوان یک برچسب گذاری صحیح یا برچسب زدن نادرست برای تعداد موفقیت هایم استفاده می کردم). با این حال، یکی از مفروضات پشت آنالیز دوجمله‌ای، احتمال موفقیت یکسان برای هر آزمایش است، و مطمئن نیستم که آیا روشی که در پس طبقه‌بندی «درست» یا «اشتباه» در اعتبارسنجی متقاطع در نظر گرفته شده است. همان احتمال موفقیت تنها تحلیل دیگری که می‌توانم به آن فکر کنم تکرار X بار اعتبارسنجی متقاطع و محاسبه میانگین/انحراف استاندارد خطای طبقه‌بندی است، اما مطمئن نیستم که آیا این حتی مناسب است یا نه، زیرا می‌خواهم از داده‌های خود استفاده مجدد کنم. حجم نمونه نسبتاً کوچک چندین بار. هر فکری؟ من از MATLAB برای تمام تحلیل هایم استفاده می کنم و جعبه ابزار Statistics را دارم. از هر گونه کمکی قدردانی می کنیم!
فاصله اطمینان برای دقت طبقه بندی تایید شده متقابل
88452
فرض کنید $X = ( x_1, ..., x_n ) $ نمونه $n$ از یک توزیع عادی با میانگین مجهول باشد. بهترین برآورد کننده برای این به چه معناست؟ من می توانم حداقل 2 برآوردگر بی طرفانه فکر کنم: * میانگین تجربی $ \hat \mu_1 = \frac{\sum_i x_i }{n} $ * یک رویکرد بیزی $ \hat \mu_2 = E[ P( \theta | X ) ] $، که در آن $ P( \theta | X) $ توزیع پسین بر میانگین است. توزیع قبلی بیش از میانگین $ \cal N (m, s^2) $ برای برخی متا پارامترهای $(m, s^2)$ است. آیا برآوردگرهای مغرضانه یا بی طرف دیگری برای این مشکل وجود دارد؟ کدام یک بهترین است؟
بهترین روش برای تخمین میانگین توزیع نرمال؟
88456
من آزمایشی را انجام می‌دهم که در آن چندین تیم هر کدام چندین کار را انجام می‌دهند (همه تیم‌ها همه وظایف را انجام نمی‌دهند، اما به طور کلی، می‌توانم مطمئن شوم که تیم‌ها به اندازه کافی هر وظیفه معین را انجام می‌دهند، و هر تیم به اندازه کافی وظایف را انجام می‌دهد). من 30 کار مختلف دارم، اما به خاطر سوال بیایید بگوییم t tasks، g teams و اینکه هر تیم k task را انجام دهد. نتیجه به برخی از متغیرهای شناخته شده در سطح تیم (کنترل) بستگی دارد، اما عمدتاً به 9 متغیری بستگی دارد که من باید تخمین بزنم. در هر وظیفه وزن متغیر مختلف متفاوت است (اما شناخته شده). این را می توان در معادله زیر خلاصه کرد: $T_i = controls_{team(i)} + \sum_{j=1}^9 w_j^{task(i)}*v_j + \epsilon_i$ سوال من این است که چگونه می توانم قدرت را در این تنظیمات محاسبه کنید. به طور خاص می‌خواهم بتوانم حجم نمونه را محاسبه کنم (مثلاً تعداد تیم‌ها و/یا تعداد تکرار در هر تیم و/یا تعداد وظایف مختلف) تا متغیرهای $v_j$ را به طور قابل اعتماد تخمین بزنم. من می دانم که اگر من فقط یک کار داشتم، این یک رگرسیون خطی منظم به نظر می رسید، اما از آنجایی که وزن ها ثابت هستند، این یک مدل غیرشناسایی خواهد بود. با 30 کار مدل مشخص شده است (حداقل در تئوری)، اما من نمی توانم بفهمم چگونه توان را محاسبه کنم. به نظر می رسد که با SEM مرتبط باشد زیرا هر وظیفه بر اساس وزن های شناخته شده خود معادله متفاوتی را به دست می دهد. همچنین به نظر می‌رسد که به دلیل ساختار تیم*به تجزیه و تحلیل داده‌های پانل مربوط باشد. من در هیچکدام تخصص ندارم، پس ممکن است اشتباه کنم. هر گونه کمک / بینش / مرجع استقبال می شود.
توان/اندازه نمونه برای مجموعه پیچیده ای از معادلات
88457
یکی از همکاران درمانی برای پیشگیری از زمین خوردن در بیماران روانپزشکی دارای اختلال شناختی ایجاد کرده است. از آنجایی که این درمان در این جمعیت بسیار مفید خواهد بود، ما به خصوص نمی‌خواهیم خطای نوع II ایجاد کنیم (یعنی در رد کردن null شکست بخوریم، زمانی که باید آن را رد کنیم). از آنجایی که داده‌ها به طور معمول توزیع نمی‌شوند، همکار دیگری داده‌های کامل را با استفاده از آزمون Wilcoxon (به اعتقاد من به‌طور مناسب) ارزیابی کرد و معنی‌دار نشد. ممکن است دلایل روش‌شناختی معتبری برای این وجود داشته باشد، که ممکن است بعداً با سؤال دیگری آن‌ها را پیگیری کنم. من نگران ارتکاب خطای نوع II بودم و برخی از داده های اولیه را به دست آوردم که در زیر آورده ام. این داده ها منعکس کننده نمرات قبل و بعد (# سقوط) برای همان بیماران (بدون گروه کنترل) هستند، بنابراین باید جفت و نه مستقل در نظر گرفته شوند: قبل از <- c(9,8,37,12,8,3,4,4,3,5,4,8,4,8,9,11,2,4,0,0,5,12,10,2, 8,3,0,22,1,0,0,5,0,3,1,5) پست <- c(10,8,6,4,5,2,4,4,2,2,1,7,2,1,3,9,2,2,0,0,6,16,4,3, 4،7،0،10،3،0،0،4،0،1،1،5) هنگامی که یک رویه بوت استرپ را روی این داده های اولیه اجرا کردم (اقتباس از کراولی، کتاب R، صفحه 385) preBoot <- numeric(10000) برای (i در 1:10000) {preBoot[i] <- mean(sample(pre, replace=T))} quantile(preBoot, c(0.025, 0.975)) و میانگین پست را با با تخمین بوت استرپ توزیع نمونه گیری میانگین، دریافتم که درمان اثر مفید قابل توجهی داشته است. برای ارزیابی اهمیت، من به سادگی چندک ها را برای برآورد نمونه در 0.025 و 0.975 در نظر گرفتم. آیا این درست است یا من کاری را که با توزیع نرمال انجام می دهم با توزیع تخمین های نمونه از میانگین اشتباه گرفته ام؟ همچنین، استفاده از wilcox.test در R در داده‌های اولیه (یعنی wilcox.test(pre, post, paired=T, exact=F) این را نشان می‌دهد که قابل توجه است. می‌خواهم بدانم، قبل از اینکه ادامه دهم، آیا من از روش بوت استرپینگ به درستی استفاده کنید، و آیا این یک آزمایش قانونی برای این نوع داده ها است، آیا ما باید آزمایش های دیگری را در نظر بگیریم، و من به خصوص به روش هایی علاقه مند هستم که این را گزارش کنیم؟ به ما این امکان را می دهد که فواصل اطمینان را به دست آوریم، همچنین، من در این سوال قبلی می بینم که پاسخ آزمایش یک دم ویلکاکسون نشان داد که به خاطر داشته باشید که استفاده از تست های یک دنباله به طور کلی توصیه نمی شود. سقوط های کمتر پس از مداخله درمانی، آیا آزمایش یک دم مناسب نیست **اطلاعات تکمیلی به روز رسانی:** من به تازگی یک بررسی فوق العاده در مورد داده های شمارش و تجزیه و تحلیل توسط نیل الکساندر پیدا کردم؟ _بازبینی: تجزیه و تحلیل انگل ها و دیگر شمارش های کج شده_، قابل دسترسی از طریق PubMed http://www.ncbi.nlm.nih.gov/pubmed/22943299 که مسائلی را که من با آن مواجه بوده ام به شیوه ای بسیار در دسترس مورد بحث قرار می دهد (و به صورت آنلاین رایگان است. ). سایر خواندن این سوال نیز ممکن است این را بسیار مفید بیابند. من هنوز در حال هضم این اطلاعات هستم. این احتمالاً مربوط به یک سؤال جدید است، اما در اصل، من معتقدم در رشته من (روانشناسی بالینی) روش استاندارد نگاه کردن به این داده ها با آزمون Wilcoxon است، احتمالاً با تبدیل ریشه مربع و آزمون t-test در ثانیه محل اکثر مردم در حال حاضر از R استفاده نمی کنند، و بنابراین به نظر نمی رسد از بوت استرپینگ آگاه باشند یا از آن استفاده کنند، که در واقع معتقدم بهتر از دو روش بالا خواهد بود. اگر کسی اطلاعات/یا اطلاعات بیشتری در مورد خلاف آن دارد، ممنون می شوم).
تست فرضیه - تست Wilcoxon، bootstrapping یا چیز دیگری؟
94367
من مجموعه ای از داده ها دارم که توسط 2.000.000 پروژه تشکیل شده است که هر یک از آنها با تعداد کاربران فعال و اندازه (KBs) پروژه تعریف می شود. من می خواهم بررسی کنم که آیا بین این دو ویژگی همبستگی وجود دارد یا خیر. آیا استفاده از ضریب همبستگی رتبه اسپیرمن در کل جمعیت منطقی است؟ پیشاپیش متشکرم
ضریب همبستگی رتبه اسپیرمن بر جمعیت
88451
من عبارت زیر را دارم: $$\frac{1}{p} \ln\left(1+\frac{p^1}{1!n}\sum_{i=1}^n x_i + \frac{p ^2}{2!n} \sum_{i=1}^n x_i^2 + \frac{p^3}{3!n} \sum_{i=1}^n x_i^3 + \frac{p^4}{4!n} \sum_{i=1}^n x_i^4 + \cdots \right)$$ حالا اجازه دهید $$Y = \frac{p^1}{1!n} \sum_{i=1}^n x_i + \frac{p^2}{2!n} \sum_{i=1}^n x_i^2 + \frac{p^3}{3!n} \sum_{i=1}^n x_i^3 + \frac{p^4}{4!n} \sum_{i=1}^n x_i^4 + \cdots$$ سپس $$\frac{ 1}{p}\ln\left(1+Y\right)$$ با استفاده از بسط سری تیلور در گزارش، $$\frac{1}{p}\ln(1+Y) = داریم \frac{1}{p}\sum_{n=1}^{\infty} (-1)^{n+1} \frac{Y^n}{n} = \frac{1}{p}\ چپ[Y - \frac{Y^2}{2} + \frac{Y^3}{3} - \frac{Y^4}{4} + \frac{Y^5}{5} - \cdots \right] $$ سوال من این است که چگونه می توانم عبارت بالا را بسط دهید تا تقریب نهایی من شامل متغیرهای زیر باشد: میانگین نمونه: $\displaystyle \overline{x} = \frac{1}{n} \sum_{i=1}^n x_i$ واریانس نمونه: $\ displaystyle s^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \overline{x})^2 $ چولگی نمونه: $\displaystyle g_1 = \frac{\sum_{i=1}^n (x_i - \overline{x})^3}{(n-1)s^3}$ کشش نمونه: $\displaystyle g_2 = \frac {\sum_{i=1}^n (x_i - \overline{x})^4}{(n-1)s^4}$ * * * برای اینکه دقیقاً منظورم را توضیح دهم، می دانم نحوه به دست آوردن تقریب به طوری که شامل میانگین نمونه و واریانس نمونه باشد. با عبارت مشتق شده در بالا شروع کنید: $$\frac{1}{p}\left[Y - \frac{Y^2}{2} + \frac{Y^3}{3} - \frac{Y^ 4}{4} + \frac{Y^5}{5} - \cdots\right]\ \ \ \cdots \ \ (1)$$ نادیده گرفتن شرایط $\frac{Y^3}{3}$ به بعد و جایگزین در عبارت اصلی برای $Y$: $$\frac{1}{p}\left[ \left(\frac{p}{n}\sum_{i=1}^n x_i + \frac{p^2} {2!n} \sum_{i=1}^n x_i^2 + \cdots \right) - \frac{1}{2}\left(\frac{p}{n}\sum_{i=1} ^n x_i + \frac{p^2}{2!n} \sum_{i=1}^n x_i^2 + \cdots\right)^2 + \cdots \right]$$ $$=\frac{1}{p } \left[\frac{p}{n} \sum_{i=1}^n x_i + \frac{p^2}{2n} \sum_{i=1}^n x_i^2 - \frac{p^2}{2n^2}\left(\sum_{i=1}^n x_i \right)^2 + \cdots\right] $$ $$\ approx \frac{1}{n} \sum_{i=1}^n x_i + \frac{p}{2n} \sum_{i=1}^n x_i^2 - \frac{p}{2} \left( \frac{1}{n } \sum_{i=1}^n x_i\right)^2 $$ $$ = \overline{x} + \frac{p}{2} \left[\frac{1}{n}\sum_{i= 1}^n x_i^2 - \left(\frac{1}{n}\sum_{i=1}^n x_i \right)^2\right]$$ $$= \overline{x} + \frac{p}{2} \left[\frac{n-1}{n} s^2 \right] \ \ \ \cdots \ \ (2)$$ * * * همانطور که در بالا مشاهده می شود، آخرین تقریب شامل میانگین نمونه و واریانس نمونه است. با این حال، من مطمئن نیستم که دقیقا چگونه می توانم انبساط را برای کنترل چولگی نمونه و کشیدگی نمونه دستکاری کنم. هر گونه کمکی قدردانی خواهد شد.
بسط تیلور شامل میانگین نمونه، واریانس نمونه، چولگی نمونه و کشیدگی نمونه
88450
من قصد دارم از رگرسیون لجستیک با چندین (~5) متغیر پیش بینی کننده برای پیش بینی اینکه آیا چیزی اتفاق می افتد یا خیر استفاده کنم. من دو نوع متغیر پیش بینی دارم: متغیرهای شناخته شده (قابل اندازه گیری) و متغیرهای ناشناخته (غیر قابل اندازه گیری). از منظر اندازه گیری فقط اولی را می توان اندازه گیری کرد و بعدی را باید تخمین زد. برای ارزیابی میزان خوب بودن برآوردهایم، یک تنظیم ویژه (با کمک دیدگاه دیگری) ایجاد کردم تا برای هر مقدار تخمینی مقدار واقعی را نیز داشته باشم. اگر من فقط متغیرهای اندازه‌گیری شده داشتم، داده‌هایم را به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم می‌کردم تا یک مدل رگرسیون بسازم و ویژگی‌های عملکرد آن را به دست بیاورم. با این حال، اکنون 2 مجموعه آموزشی و 2 مجموعه تست دارم: الف) مجموعه تمرینی با مقادیر واقعی ب) مجموعه تمرینی با مقادیر تخمینی ج) مجموعه تست با مقادیر واقعی د) مجموعه تست با مقادیر تخمینی از آنجایی که تنظیمات ویژه من برای روزانه مناسب نیست. در عمل، مدل رگرسیونی که من می سازم به احتمال زیاد فقط بر روی داده های تخمینی عمل می کند. از کدام ترکیب الف یا ب و ج یا د استفاده کنم و چرا؟
ساخت مدل پیش بینی با متغیرهای پیش بینی برآورد شده
69520
من می‌دانم که یکی از مزایای GEE این است که شما هیچ فرضی در مورد توزیع احتمال مشترک نمی‌کنید و در عوض بر میانگین، واریانس و ارتباط (corr) تکیه می‌کنید. پس چرا یک خانواده را در دستور «gee» مشخص می کنیم؟ مدل <- geeglm(y~x، داده=داده، id=id، خانواده=گاوسی('هویت')، corstr='ar1')
اگر هیچ فرضی در مورد توزیع مشترک نداشته باشد، چرا ممکن است تعیین یک خانواده هنگام استفاده از GEE مهم باشد؟
103803
من در اینجا سؤالات جالب زیادی در مورد انتساب چندگانه و همچنین پاسخ‌های عالی دیده‌ام که به من کمک زیادی کرد تا داده‌هایم را درج کنم. من از Predictive Mean Matching، EMB استفاده کرده‌ام و می‌خواهم از Random Forest استفاده کنم اما نمی‌توانم مدل را اجرا کنم (بسیار ناراحت کننده). من همچنین نتایجی از مجموعه داده کامل دارم. به طور کلی، مجموعه داده توسط 8364 مشاهده تشکیل شده است و تنها 2860 مشاهدات کامل بدون هیچ داده از دست رفته هستند. مدل های منتسب تا حدودی نتایج مشابهی دارند، مدل های انباشته دارای فواصل اطمینان باریکی هستند و مدل به دست آمده توسط PMM از طریق موش ها یک متغیر را به دلیل استفاده از پیش بینی کننده ها انتخاب نمی کند _(توضیح: این تابع با استفاده از روش انتخاب متغیر توضیح داده شده یک ماتریس پیش بینی ایجاد می کند. در Van Buuren و همکاران ~ (1999، p.~687--688) این تابع برای کمک به راه اندازی طراحی شده است یک مدل انتساب خوب برای داده‌ها با متغیرهای زیاد.)_ می‌دانم که می‌توانم مدل را با تابع اعتبارسنجی از بسته rms تأیید کنم (من قصد دارم این کار را انجام دهم اما باید آن را بهتر درک کنم). اما چه کسی می توانم مدل های نسبت داده شده را مقایسه کنم و نتیجه گیری کنم. آیا خروجی validate() کافی است؟ به عنوان مثال، اگر بخواهم تحلیل دیگری را با همان داده ها تکرار کنم، آیا می توانم روش بهترین را انتخاب کنم یا بهتر است آنالیزها را برای همه روش ها تکرار کنم؟ می‌دانم که این سؤال می‌تواند کاملاً اساسی باشد، اما برای یافتن بهترین راه برای ادامه، با مشکلاتی روبرو هستم. خیلی ممنونم!
اعتبار سنجی - مدل های انتساب به درستی مقایسه و تایید شده است
69524
من سعی می‌کنم یک مدل رگرسیون غیرخطی را با استفاده از «nls()» در R قرار دهم. من شکلی از معادله را دارم که می‌خواهم با آن مطابقت کنم: $$y = (a \times x_{1}^c +b \times x_{2}^d) (x_{3}^e)$$ که در آن ضرایبی که در رگرسیون یافت می شوند عبارتند از a،b،c،d و e. داده های من از یک مدل شبیه سازی خروجی می شود که در آن $x_{1}$، $x_{2}$، و $x_{3}$ همه اعداد صحیح از $0$ تا $10$ هستند، با این شرط که $x_{1} + x_{2} + x_{3} \le 10$. $y$ نیز عدد صحیح است و از $0$ تا تقریبا $1000$ متغیر است. هدف این است که این داده ها را با یک تابع نرخ که در زنجیره مارکوف استفاده می شود، برازش دهیم. وقتی سعی می‌کنم این مدل رگرسیون را مستقیماً با استفاده از «nls()» منطبق کنم، نمودار «nlsResiduals» من به این شکل به نظر می‌رسد: ![nls residuals](http://i.stack.imgur.com/6scJ3.png) می‌دانم که باقیمانده های خودهمبسته مشکل ساز هستند و باقیمانده های غیر عادی نیز می توانند مشکل ساز باشند. چگونه می توانم این مشکل را برطرف کنم؟ من به استفاده از تبدیل‌هایی روی داده‌ها فکر می‌کردم مانند $$\log(y) = \log((a \times x_{1}^c +b \times x_{2}^d) (x_{3}^e) )$$ یا $$y^{1/n} = ((a \times x_{1}^c +b \times x_{2}^d) (x_{3}^e))^{1/n }$$ کجا $n > 1$. متوجه شده ام که اگر $n$ افزایش یابد، نمودار همبستگی خودکار و QQ-plot من بهتر به نظر می رسند (به ترتیب پراکنده تر و عادی تر). به نظر می‌رسد که هر دوی این موارد بسیاری (اما نه همه) باقیمانده‌های خودهمبسته را تصحیح می‌کنند و به توزیع نرمال‌تر باقیمانده‌ها کمک می‌کنند. آیا من در اینجا در مسیر درستی هستم یا در آمار مرتکب گناه بزرگی هستم؟ هنگامی که به یک تحول رضایت دادم، چگونه می توانم تشخیص دهم که کدام یک بهترین است؟ هر گونه کمک، پیشنهاد، یا نظر بسیار قدردانی می شود.
در مورد رگرسیون غیرخطی، برازش ها و تبدیل ها
91926
من باید اعداد تصادفی توزیع دو جمله ای را برای شبیه سازی کارلو خود تولید کنم (برای یک پارامتر به آزمایش های برنولی نیاز دارم). تا کنون، من از تابع R rbinom برای آن استفاده کرده ام. با این حال، همانطور که می‌دانم، می‌توانم با استفاده از یک دنباله با اختلاف کم برای تولید اعداد تصادفی، به طور مؤثرتری از فضای پارامتر استفاده کنم. آیا می توان از دنباله سوبول برای تولید اعداد تصادفی دو جمله ای استفاده کرد؟ یا اصلا منطقی است؟ اگر بله، پس چگونه می توان دنباله سوبول را به توزیع برنولی یا دو جمله ای تبدیل کرد؟ با تشکر
استفاده از توالی با اختلاف کم برای آزمایشات برنولی در MC sim
69521
من هنوز با مدل‌های خطی تعمیم‌یافته کاملاً تازه کار هستم، و با بسیاری از نمادها در بیشتر متون GLM که انتخاب کرده‌ام، مشکل دارم. آیا کتاب‌های بسیار محبوب GLM وجود دارند که خوانایی بهتری داشته باشند؟
بهترین کتاب در مورد مدل های خطی تعمیم یافته برای تازه کارها چیست؟
88182
این ممکن است یک سوال بسیار نادرست باشد، اما نمی توانم بفهمم چرا درست نیست. در اینجا آمده است: طبق ویکی پدیا و این پست، هسین یک تابع درستنمایی برابر با ماتریس اطلاعات یا ماتریس کوواریانس توابع امتیاز است، یعنی: $$I(\theta)_{i,j} = \mathrm{E }_\theta \left[ \left(\partial_i \log f_{X\mid\Theta}(X\mid\theta)\right) \left(\partial_j \log f_{X\mid\Theta}(X\mid\theta)\right)\right] \, , = -E\left[\frac{\partial^{2} \log(f (X|\theta))}{\partial \theta_{i} \partial \theta_{j}}\bigg|\theta\right]$$ اگر این درست باشد، این نتیجه‌گیری درست نیست درست: 1. Hessian توابع درستنمایی همیشه مثبت نیمه معین است (PSD) 2. بنابراین تابع درستنمایی همیشه محدب است (زیرا مشتق دوم PSD است) 3. تابع درستنمایی حداقل محلی ندارد، فقط حداقل جهانی خواهد داشت!! ! این نتایج برای درست بودن خیلی خوب به نظر می رسند، اما به نظر می رسد نمی توانم درک کنم که چرا آنها نادرست هستند. با تشکر
چه زمانی تابع احتمال مثبت نیمه معین است
31387
به عنوان مثال: من می خواهم مقادیر آینده یک سری زمانی را بر اساس مقادیر قبلی چندین سری زمانی با استفاده از ANN و/یا SVM پیش بینی کنم. ورودی‌ها مقادیر تاخیری از هر سری زمانی خواهند بود، و خروجی‌ها پیش‌بینی‌های یک مرحله‌ای جلوتر خواهند بود (پیش‌بینی‌هایی با افق‌های بیشتر با نقل دادن پیش‌بینی‌ها به جلو با استفاده از پیش‌بینی‌های قبلی انجام می‌شود). حال آیا SVM ها و ANN ها نباید بتوانند روندها و چرخه ها را یاد بگیرند؟ آیا آنها نمی توانند چیزهایی از این قبیل بیاموزند، با همه مساوی بودن، خروجی این سری باید 2 برابر خروجی قبلی باشد؟ یا اگر یک متغیر طبقه بندی برای ماه ارائه کنم، از آنجایی که ژانویه است، پیش بینی ای که می کردم را بر 2 تقسیم کنید؟ آیا تلاش برای چرخه‌زدایی و کاهش روند داده‌ها منجر به تحمیل سوگیری بیش از حد لازم می‌شود؟
آیا هنگام استفاده از روش‌های یادگیری ماشینی نیاز است که داده‌های سری‌های زمانی را کاهش داد و چرخه زد؟
52344
آیا کسی راهی برای نمونه برداری از توزیع دو متغیره گاما نرمال یا توزیع دو متغیره گاما معمولی در R می داند؟ من می‌توانم توزیع را خودم به عنوان یک تابع ایجاد کنم، اما نمی‌دانم برای نمونه‌برداری از آن چه کار کنم.
نمونه برداری از توزیع گامای نرمال در R
88186
من دو گروه دارم: A) کنترل: $25\times2000$، B) بیماران: $12\times2000$. گروه A یک رایانه دارد که بسیاری از واریانس ها را توضیح می دهد. (پیشنهاد یک جمعیت همگن؟) گروه B را نمی توان با 2 یا 3 اول توضیح داد (به نظر می رسد هر یک از رایانه های شخصی تحت سلطه بیماران مجرد هستند). اگر از گروه «A» PC1 به عنوان مثالی برای «کنترل عادی» استفاده کنم، آیا راهی وجود دارد که نشان دهد هر یک از بیماران چقدر از این «دور» یا «نزدیک» هستند؟ یعنی چگونه می توانم ثابت کنم که برخی از بیماران بسیار شبیه به گروه کنترل هستند و برخی نه؟ * * * من 25 کنترل دارم اما فقط 12 بیمار. هر یک از آنها یک طیف‌گرام (زمان x فرکانس x کانال‌ها) دارند که به 1 بردار کاهش می‌یابد. من PCA را فقط روی کنترل‌ها امتحان کرده‌ام و یک PC اول خوب دریافت کرده‌ام (تحت تسلط هیچ موضوعی نیست) و شبیه داده‌های فردی است. . با بیماران به تنهایی، من این را درک نمی کنم. اگر PCA را هم روی بیماران و هم بر روی افراد عادی [کنترل] با هم انجام دهم، PC 1 هنوز مانند نرمال به نظر می رسد اما 2 گروه را از هم جدا نمی کند. بنابراین **به من پیشنهاد شد که PCA فقط نرمال ها را بگیرم و سپس بیماران را در این فضا بفرستم، اما نحوه انجام آن نامشخص است. ** فقط می خواهم اضافه کنم - فکر نمی کنم دو جمعیت وجود داشته باشد. یعنی کنترل ها و بیماران تفاوت چندانی با هم ندارند (حداقل در معیاری که من در اینجا استفاده می کنم). اما، برخی از بیماران دورتر از هم نسبت به دیگران از گروه کنترل هستند. به عنوان مثال، برخی شبیه به عادی هستند، اما برخی دیگر از آنها بسیار دور هستند.
چگونه با استفاده از PCA گروه ها را جدا کنیم؟
103800
من دو توزیع نرمال دارم که با میانگین و انحراف استاندارد آنها تعریف شده است. نمونه 1: میانگین=5.28; SD=0.91 نمونه 2: Mean=8.45; SD=1.36 می‌توانید در تصویر بعدی ببینید که چگونه به نظر می‌رسند: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZfxV9.png) چگونه می‌توانم احتمال به دست آوردن یک فرد را از ناحیه همپوشانی (سبز)؟ آیا احتمال آن مساحت است؟
محاسبه احتمال (مساحت) زیر ناحیه همپوشانی دو توزیع نرمال
86061
من اطلاعاتی برای دو سال در مورد کاراکترهای گیاهی برای تعداد مشخصی از خطوط دارم. از آنجایی که شامل پارامترهای یکسانی است، ANOVA به مدت دو سال به طور جداگانه محاسبه می شود. سپس چگونه می توانم اهمیت واریانس تلفیقی را که در مورد محاسبه آن ذکر شده است اما مقدار جدولی وجود ندارد (در صورت وجود) آزمایش کنم و نتیجه گیری کنم؟ هدف اصلی دستیابی به تجزیه و تحلیل دقیق تر با تجمیع داده های دو ساله است.
واریانس ادغام شده
72327
نمی دانم که آیا کسی نظری در مورد اینکه آیا بوت استرپ تفاوت در میانگین ها روش درستی است یا خیر، با توجه به اینکه وضعیتی با نقاط داده شدید دارم، دارد یا خیر. من تصمیم گرفتم از این استفاده کنم زیرا فکر نمی‌کنم آزمون t مناسب باشد. من تقریباً 30 هزار مشاهده در هر گروه دارم (3 گروه) وضعیت من در مورد هزینه‌ها است، و من مقادیر پرت شدیدی دارم: نقاط پرت کاملاً مانند درآمد نیستند. توزیع یعنی اکثر کاربران (+95%) صفر خرج می کنند، زیر مجموعه ای از کاربران 5 تا 10 دلار خرج می کنند. برخی حدود 20 یا 50 دلار خرج می کنند و سپس تعداد کمی از آنها 500+ خرج می کنند، با چند کاربر که 5000 یا 10000+ خرج می کنند، من سعی می کنم آزمایش کنم که کدام گروه بیشترین درآمد را برای هر کاربر داشته است. آیا کسی می تواند در مورد اینکه کدام آزمون آماری مناسب تر است، راهنمایی کند؟
آیا بوت استرپ روش مناسبی برای توزیع های شدید است؟
35807
من دو مقدار ناشناخته $v_1$ و $v_2$ و دو مجموعه اندازه گیری $S_1$ و $S_2$ از این مقادیر دارم. اندازه گیری ها را می توان به عنوان توزیع نرمال فرض کرد. می‌خواهم چیزی شبیه به _$v_2$ حداکثر $x$ بیشتر از $v_1$ با اطمینان 95%_ بگویم. بنابراین، چقدر ممکن است $x$ کوچک باشد، تا 95% مطمئن باشیم که $v_2$ بزرگتر از $v_1 + x$ است؟
فاصله اطمینان: $v_2$ حداکثر $x$ بزرگتر از $v_1$ است، با اطمینان $95\%$
113823
من سعی می‌کنم سطح گلوکز خون را از دفتر خاطرات دیابتم مدل‌سازی/پیش‌بینی کنم، بنابراین باید با 5 تا 7 اندازه‌گیری روزانه کربوهیدرات‌های تخمینی، فعالیت بدنی، دوزهای انسولین و قند خون اندازه‌گیری شده مقابله کنم. این یک سری زمانی با فواصل نامناسب است که من دریافت کرده‌ام (و نمونه‌برداری آنقدر متراکم نیست که مثلاً اوج گلوکز خون را در یک ساعت بعد از غذا نشان دهد). از آنجایی که همه این داده‌ها از نوعی چرخه کنترل هستند، من به طور تصادفی با موضوع تعبیه تاخیر زمانی یا بازسازی جذب کننده برخورد کردم. می خواهم بدانم آیا تکنیک یادگیری ماشین استانداردی وجود دارد که از ساختار چرخه کنترل زیربنایی استفاده می کند؟ از نظر شما بسیار سپاسگزارم. دامیان
آیا در برخی از الگوریتم های یادگیری ماشینی از جاسازی/بازسازی جذب کننده با تاخیر زمانی استفاده می شود؟
108972
من داده هایی از آزمایشی دارم که در آن شرکت کنندگان یک بازی تکراری 50 بار انجام دادند. یعنی برای هر شرکت کننده 50 امتیاز داده دارم. من می‌خواهم یک رگرسیون لجستیک اجرا کنم و البته باید در نظر بگیرم که نقاط داده‌ای دارم که همبستگی دارند، اما نمی‌دانم **آیا باید از اقدامات تکراری استفاده کنم یا باید با نمونه خوشه‌ای کار کنم**. من مقالات بسیار واضحی در مورد اینکه چرا خوشه‌ها بهتر از تکنیک‌های دیگر هستند (ویلیامز، 2000؛ پیترسن، 2009) پیدا کرده‌ام، اما در مورد اندازه‌گیری‌های مکرر یا مقایسه بین این دو چیزی پیدا نکردم. اگر بتوانید در این مورد به من کمک کنید ممنون می شوم! با تشکر
اقدامات مکرر در مقابل خوشه در رگرسیون لجستیک
88188
~~**ویرایش:** اساس سوال من ناقص است، و باید کمی وقت بگذارم تا بفهمم آیا حتی می توان آن را منطقی کرد یا خیر. p-value اندازه گیری مستقیم احتمال یک فرضیه صفر نیست، اما من فرض می کنم که هرچه مقدار p به 1 نزدیک تر باشد، احتمال انتخاب یک فرضیه بیشتر است. برای آزمایش تجربی که فرضیه صفر متناظر آن درست است، در حالی که هرچه مقدار p به 0 نزدیک‌تر باشد، احتمال بیشتری وجود دارد که فرضیه‌ای برای آزمایش تجربی انتخاب شده باشد که فرضیه صفر متناظر آن نادرست است. من نمی توانم بفهمم که چگونه این نادرست است مگر اینکه مجموعه همه فرضیه ها (یا همه فرضیه هایی که برای آزمایش انتخاب شده اند) به نوعی آسیب شناسی باشند. **ویرایش 3:** فکر می کنم هنوز از اصطلاحات واضح برای پرسیدن سوالم استفاده نمی کنم. همانطور که اعداد قرعه کشی خوانده می شوند و شما آنها را یک به یک با بلیط خود مطابقت می دهید، چیزی تغییر می کند. احتمال برنده شدن شما تغییر نمی کند، اما احتمال اینکه بتوانید رادیو را خاموش کنید تغییر می کند. تغییری مشابه هنگام انجام آزمایش‌ها اتفاق می‌افتد، اما من احساس می‌کنم اصطلاحی که من استفاده می‌کنم - p-value احتمال انتخاب یک فرضیه واقعی را تغییر می‌دهد - اصطلاح درستی نیست. **ویرایش 4:** من دو پاسخ شگفت‌انگیز با جزئیات و آموزنده دریافت کرده‌ام که حاوی اطلاعات زیادی است که می‌توانم آنها را بررسی کنم. اکنون به هر دوی آنها رای می دهم و پس از آن که به اندازه کافی از هر دو پاسخ یاد گرفتم برای اینکه بدانم آنها یا به سؤال من پاسخ داده اند یا باطل شده اند، دوباره یکی را بپذیرم. این سوال قوطی بسیار بزرگتر از کرمی را که من انتظار داشتم بخورم باز کرد. در مقالاتی که خوانده ام، نتایجی با p > 0.05 پس از اعتبارسنجی به نام مثبت نادرست دیده ام. با این حال، آیا زمانی که داده های تجربی p ~~< 0.50~~ دارند که پایین است اما > 0.05، و هر دو نیستند، فرضیه ای را برای آزمایش با یک فرضیه صفر متناظر نادرست انتخاب کرده ام، آیا احتمال بیشتری وجود ندارد. فرضیه صفر و فرضیه تحقیق از نظر آماری نامطمئن/غیر معنادار (با توجه به بریدگی معنی دار آماری متعارف) در هر نقطه بین 0.05 < p <~~ 0.95~~ هر چه معکوس p <0.05 باشد، با توجه به عدم تقارن اشاره شده در پیوند @NickStauner؟ بیایید آن عدد A را صدا کنیم، و آن را به عنوان مقدار p تعریف کنیم که همان چیزی است که در مورد احتمال اینکه شما یک فرضیه صفر واقعی برای آزمایش/تحلیل خود انتخاب کرده اید که یک p-value 0.05 در مورد احتمال اینکه شما می گوید یکسان است، تعریف کنیم. برای آزمایش/تحلیل شما یک فرضیه غیر صفر واقعی انتخاب کرده اید. آیا 0.05 < p < A فقط بگویید: اندازه نمونه شما به اندازه کافی بزرگ نبود تا به سوال پاسخ دهد، و تا زمانی که نمونه بزرگتری را بدست نیاورید و آمار خود را بدست آورید، نمی توانید اهمیت کاربرد/دنیای واقعی را قضاوت کنید. اهمیت مرتب شد؟ به عبارت دیگر، آیا درست نیست که یک نتیجه را به طور قطعی نادرست (و نه صرفاً پشتیبانی نشده) بخوانیم اگر و فقط اگر p > A باشد؟ این به نظر من ساده است، اما چنین استفاده گسترده ای به من می گوید که ممکن است اشتباه کنم. آیا من: الف) ریاضیات را اشتباه تفسیر می کنم، ب) از یک قرارداد بی ضرر-اگر-نه-دقیقا-درست شکایت می کنم، ج) کاملاً صحیح است، یا د) دیگری؟ می‌دانم که به نظر می‌رسد این یک درخواست برای نظرات است، اما به نظر می‌رسد که این یک سؤال با یک پاسخ ریاضی قطعی درست (هنگامی که یک بریدگی اهمیت تعیین شود) است که یا من یا (تقریبا) همه افراد دیگر اشتباه می‌کنیم. با تشکر
چرا نتایج 0.05 < p < 0.95 مثبت کاذب نامیده می شوند؟
113707
رابطه دقیق بین منطق فازی و فاصله ماهانوبولیس چیست؟ چگونه می توانیم آنها را در یک برنامه ببینیم؟
چگونه منطق فازی و فاصله ماهانوبلیس را به هم مرتبط کنیم؟
88180
من با تابع neuralnet() به دلیل عدم همگرایی مشکل دارم. کد مثال زیر مشکل را نشان می دهد. من همان نوع نتیجه را با استفاده از داده های واقعی خودم نیز دریافت می کنم. nnet() قادر به یافتن پاسخ با همان داده است (به مثال nnet در لینک مراجعه کنید). پیش‌فرض‌ها در مستندات معقول به نظر می‌رسند، بنابراین آنها را به حال خود رها کردم. آیا به نظر می رسد که این فقط داده است یا می توان روش را با تنظیم پارامترها تنظیم کرد؟ معلوم نیست کدومشون مثال از http://beckmw.wordpress.com/2013/11/14/visualizing-neural- networks-in-r-update/ > library(clusterGeneration) > seed.val<-2 > set.seed(seed .val) > num.vars<-8 > num.obs<-1000 > #input variables > cov.mat<-genPositiveDefMat(num.vars,covMethod=c(unifcorrmat))$Sigma > rand.vars<-mvrnorm(num.obs,rep(0,num.vars),Sigma=cov.mat) > متغیرهای #output > parms<-runif(num.vars,-10,10) > y1<-rand.vars %*% ماتریس(parms) + rnorm(num.obs,sd=20) > parms2<-runif(num.vars,-10,10) > y2<-rand.vars %*% ماتریس (parms2) + rnorm(num.obs,sd=20) > #مجموعه داده نهایی > rand.vars<-data.frame(rand.vars) > resp<-data.frame(y1,y2) > names(resp)<-c('Y1','Y2') > dat.in<-data. Frame(resp,rand.vars) > تابع #neuralnet از بسته عصبی، توجه کنید که فقط از یک پاسخ استفاده کنید > کتابخانه (neuralnet) > form.in<-as.formula('Y1~X1+X2+X3+X4+X5+X6+X7+X8') > set.seed(seed.val) > mod2<-neuralnet(form.in,data= dat.in,hidden=10) > پیام اخطار: الگوریتم در 1 از 1 تکرار همگرا نشد > stepmax stepmax در پیش فرض است 1e5
همگرایی ناموفق در تابع ()neuralnet
56848
من سعی می کنم روند ساخت DP را درک کنم، با این حال، با پیشینه کمی در تئوری اندازه گیری، خواندن مقالات اصلی سخت است، اما معتقدم ایده های پشت این مقالات قابل پیگیری است. اجازه دهید $y_1، y_2، \ldots، y_n$ i.i.d باشند. با تابع توزیع $F$، که با $k$ احتمالات مجهول $\theta_1، \ldots، \theta_k$ مشخص می‌شود، یعنی $y_i$s گسسته هستند و یک عدد محدود $k$ از مقادیر ممکن را می‌گیرند. استنتاج بیزی بر اساس این مشاهدات اغلب دیریکله را بر پارامترهای $F$ مقدم می‌دارد. سپس می توان توزیع پسین و پیش بینی را محاسبه کرد. درک این مدل‌های مخلوط محدود سخت نیست، اما... وقتی $y_i$s می‌تواند بی‌نهایت مقادیر ممکن را بگیرد ($k \rightarrow \infty$)، آن‌وقت مدل‌های ناپارامتریک بیزی می‌توانند با این وضعیت مقابله کنند، اما من نمی‌کنم. نمی فهمم چرا سؤالات من اینجاست: 1. $k \rightarrow \infty$ به این معنی است که $y_i$ می‌تواند هر جرم نقطه‌ای را روی $\mathcal{R}$ بگیرد، بنابراین یک r.v پیوسته است. اینطور نیست؟ 2. در حالت محدود، $F$ با $1، \ldots، k$ نمایه می‌شود، در حالی که در حالت نامتناهی، $F$ باید توسط پارتیشن‌های $(T_1، \ldots، T_k)$ نمایه شود (فرگوسن، 1972) ، چگونه می توانم شهود مورد دوم را از اولی دریافت کنم؟
درک ساخت و ساز فرآیند دیریکله
69525
در بسیاری از کتاب های درسی آمار، برخی از ویژگی های نماد Op و Op وجود دارد، اما اثبات آنها در هیچ کجا ارائه نشده است. من توانسته ام اکثر آنها را ثابت کنم، اما نمی توانم ببینم که چگونه این ویژگی برقرار است: $$ (1+o_p(1))^{-1}=O_p(1) $$ آیا کسی می تواند نشان دهد که چرا این ویژگی به طور کامل برقرار است روش؟ با تشکر
سوال مرتبط با ویژگی همگرایی عملیات و عملیات
19639
کدام تابع هزینه برای یک درخت جنگل تصادفی بهتر است: شاخص جینی یا آنتروپی؟ من سعی می کنم جنگل تصادفی را در Clojure پیاده سازی کنم.
کدام تابع هزینه برای یک درخت جنگل تصادفی بهتر است: شاخص جینی یا آنتروپی؟
69528
این کد R و نتیجه در حال اجرا من است: (به زیر مراجعه کنید) چگونه قضاوت کنیم که آیا مدل رگرسیون خطی برای این مجموعه داده مناسب است؟ به جز مقدار R^2، آیا p-value در ردیف آخر نتیجه در حال اجرا به معنای چیزی است؟ این مقدار p به چه معناست و آیا می تواند به معنای مدل رگرسیون خطی مناسب برای این مجموعه داده باشد؟ چرا؟ پیشاپیش ممنون x=c(7,12,10,10,14,25,30,25,18,10,4,6) y=c(128,213,191,178,205,446,540,547,324,117,75,107) لیست (x, ~xL) ) خلاصه (reg1) نمودار (x, y) abline(reg1) reg2 <- lm(y~x-1) خلاصه reg2(reg2) #------------------- فراخوانی: lm(فرمول = y ~ x) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -55.805 -21.085 3.139 14.946 80.859 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) -22.753 21.846 -1.041 0.322 x 19.556 1.335 14.652 4.38e-08 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 37.23 در 10 درجه آزادی چندگانه R-squared: 0.9555، R-squared تنظیم شده: 0.951 F آمار: 214.7 در 1 و 10 DF، p-value: 4.38e-08
استفاده از R برای رگرسیون خطی برای دیدن اینکه آیا یک مدل رگرسیون خطی برای مجموعه داده مناسب است یا خیر
43551
من یک رگرسیون لجستیک چند جمله‌ای را با استفاده از بسته «mlogit» و تابع «mlogit» در R اجرا می‌کنم. اکنون باید مقادیر پرت را برای مدل بررسی کنم. آیا رویکرد یا تابعی در R برای آزمایش نقاط پرت در مدل «mlogit» وجود دارد؟
چگونه برای آزمایش نقاط پرت در یک مدل mlogit در R
72320
من دو میانگین را راه‌اندازی کرده‌ام - هر نمونه 10000 مشاهده داشت، بنابراین هر میانگین را با جایگزینی 10000 عدد از هر نمونه دوباره نمونه‌برداری کردم. من این کار را بیش از 50000 تکرار انجام دادم که توزیع ابزارهای بوت استرپ را ترسیم کردم و به نظر می رسد که آنها متفاوت هستند. با این حال من در مرحله بعدی گم شده ام. آیا کسی می تواند به زبان ساده به من بگوید که چگونه می توانم یک مقدار P را محاسبه کنم و چگونه بفهمم که آیا یک توزیع بوت استرپ تفاوت قابل توجهی با دیگری دارد؟ من از R برای انجام بوت استرپینگ استفاده می کنم.
مقدار P برای راه‌اندازی دو به معنای غیر عادی است
110948
من در شرکتی کار می کنم که لباس می فروشد، و با استفاده از شباهت کسینوس برای تعیین اینکه کدام محصولات به یکدیگر «شبیه» هستند، نتایج خوبی به دست آورده ام. من می‌خواستم توصیه‌های محصول را یک قدم جلوتر بردارم و یک محصول «سازگار» (مانند کراوات محکم برای پیراهن راه راه) را با استفاده از مجموعه داده‌ای جدید توصیه کنم - بنابراین نه فقط مالک چه چیزی. من یک مجموعه آموزشی با این ساختار دارم: * هر محصول دارای داده های ویژگی مانند رنگ، الگو و غیره است (فرض کنید اینها اندازه گیری های ترتیبی هستند). * من یک هدف بله/خیر روی برخی **جفت*های محصول** دارم که می گوید آیا دو محصول با هم سازگار هستند یا خیر. هدف این است که بتوانیم بگوییم دو محصول جدید با توجه به داده های ویژگی هر دو محصول سازگار هستند. این جنبه زوجی است که مرا در چارچوب یادگیری تحت نظارت پرت می کند. اگر من فقط یک هدف باینری را بر اساس رنگ، الگو و غیره پیش‌بینی می‌کردم، این یک راه‌اندازی اولیه با چندین الگوریتم برای انتخاب است. اما به نظر من، مشکل کمی پیچیده‌تر به نظر می‌رسد، زیرا پیش‌بینی بر اساس داده‌های ویژگی از دو محصول است - و پیش‌بینی باید متقارن باشد تا مهم نیست که کدام محصول «اول» باشد، یکسان باشد. بنابراین، زمانی که (1) داده‌های ویژگی روی محصولات و (2) داده‌های هدف در جفت محصولات را دارم، سعی می‌کنم یک معیار سازگاری متقارن به دست بیاورم.
متریک سازگاری زوجی
8649
من از آموزشی که پیدا کردم استفاده می کنم و مقادیر میانگین را همراه با خطاهای استاندارد برای نمایش داده های خود ترسیم می کنم. اما من در بحث در مورد نتایج مشکل دارم. نمودار من مطابق شکل زیر است: برخی از خطاهای استاندارد (که به عنوان نوار خطا نشان داده شده است) بسیار متفاوت هستند و برخی از آنها بسیار نزدیک به صفر هستند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3sUze.jpg)
خطای استاندارد برای چیست؟
19638
> دنباله ای از متغیرهای تصادفی مستقل $(y_k)_k$ را با یک > چگالی احتمال $p_{\theta}(y)$ در نظر بگیرید که فقط به یک پارامتر اسکالر > بستگی دارد. قبل از زمان تغییر ناشناخته $t_0$، پارامتر $\theta$ > برابر با $\theta_0$ است و بعد از تغییر برابر با $\theta_1 \neq > \theta_0$ است. سپس مشکل شناسایی و تخمین این تغییر در پارامتر > است. _snip... snip..._ > ابزار رسیدن به این هدف به شرح زیر است. ابتدا، توصیف ما از > همه الگوریتم‌های این فصل مبتنی بر مفهومی است که در آمار ریاضی بسیار مهم است، یعنی لگاریتم احتمال >، که با $$s(y) = \ln\frac{p_ تعریف شده است. {\theta_1}(y)}{p_{\theta_0}(y)}$$ و > به‌عنوان نسبت log-likelihood نامیده می‌شود. ویژگی آماری کلیدی > این نسبت به شرح زیر است: اجازه دهید $E_{\theta_0}$ و $E_{\theta_1}$ انتظارات متغیرهای تصادفی را در دو توزیع > $p_{\theta_0}$ و $ نشان دهند. p_{\theta_1}$، به ترتیب. سپس، > > $$E_{\theta_0}(s) < 0\space \text{and} \space E_{\theta_1}(s) > 0 $$ (به نظر می رسد این نقل قول از Chand & Xiao، _Change باشد -نظارت نقطه ای برای تجمع امن در شبکه در شبکه های حسگر بی سیم_، 2007.) سوال من این است که چگونه می توانیم فرمول دوم؟ $E_{\theta_0}(s)$ به چه معناست (می دانم که $E$ انتظار $y$ است، اما $(s)$ چطور؟) چگونه می توانیم > 0 یا < 0 را بدست آوریم؟
الگوریتم تشخیص تغییر - نسبت احتمال
19635
من در ابتدا سوال را در این پست پرسیدم، جایی که توضیح دادم که فقط 25 اقدام در اختیار دارم. از این رو، محاسبه SD نمونه $\sigma_x$ و فرض اینکه این نمونه از توزیع است، بسیار خوش بینانه به نظر می رسد و من می خواستم یک فاصله اطمینان را محاسبه کنم. به من پیشنهاد شد که از روش بوت استرپینگ استفاده کنم، اما دقیقاً نمی دانم چگونه از آن استفاده کنم. من معتقدم که باید به صورت زیر عمل کنم: * مقداری فرض را در مورد توزیع احتمال زیربنایی در پشت نمونه من ایجاد کنم، به عنوان مثال، فرض می کنم که طبیعی است، و پارامتری را که تخمین زده ام اعمال کنم: $\mathcal{N}(s, \sigma_x)$ * $n$ نمونه با اندازه 25 تولید کنید (دقیقاً به اندازه نمونه اصلی من) * SD نمونه هر یک از 25 * را محاسبه کنید و سپس به (85%) که نزدیکترین به میانگین هستند نگاه کنید. همه آنها در بازه 85٪ خواهند بود. حدس می‌زنم درست متوجه شدم، اما من **_have_** می‌توانم فرضی در مورد توزیع زیربنایی داشته باشم، که واقعاً مایلم از آن اجتناب کنم. آیا راه دیگری برای رفتن وجود دارد یا من چیزی را اشتباه متوجه شدم؟
جزئیات بیشتر در مورد روش بوت استرپ برای تخمین فاصله اطمینان نمونه SD
43559
آیا تجزیه و تحلیل تفکیک خطی، به ویژه برنامه ریزی خطی تجزیه و تحلیل متمایز (LPDA)، یادگیری تحت نظارت است؟ آیا می توانید در صورت امکان یک مرجع معتبر ارائه دهید که چنین باشد. من و استاد راهنما در مورد آن اختلاف نظر داشتیم. من متقاعد شده‌ام که تحلیل تشخیصی خطی، چه Fisher LDA یا LPDA، یادگیری تحت نظارت است. هر دو تکنیک از مجموعه ای برچسب دار از اشیاء برای استخراج تابعی استفاده می کنند که می تواند برای پیش بینی برچسب های کلاس برای اشیاء بدون برچسب استفاده شود. استاد راهنمای مطالعه من موافق نیست و بیان می کند که با استفاده از تجزیه و تحلیل متمایز هیچ چیز یاد گرفته نمی شود.
آیا تحلیل تمایز بر یادگیری نظارت شده است؟
31388
من سعی می کنم این مشکل را حل کنم اما مطمئن نیستم که چگونه برای بدست آوردن فرمول آماره آزمون و مقادیر بحرانی اقدام کنم. فرض کنید $X_1،X_2،\ldots X_n$ i.i.d هستند. مشاهدات از یک توزیع نرمال چند متغیره $N(\mu,\Sigma)$ که در آن $\Sigma$ شناخته شده است. علاوه بر این فرض کنید که **R** یک ماتریس معین و **r** یک بردار معین است. از روش نسبت درستنمایی برای تولید یک آمار آزمایشی برای $$H_0\colon R\mu = r \\\ H_1\colon R\mu \neq r$$ استفاده کنید. آیا کسی می تواند به من راهنمایی کند که چگونه ادامه دهم؟
چگونه آمار آزمون نسبت درستنمایی را در این مسئله محاسبه می کنید؟
114547
در حین اجرای فیلتر ساده بیز، به مشکلی در محاسبه احتمالات شرطی $p(w|c)$ یک کلمه $w \in \mathcal{W}$ با توجه به کلاس $c \in \mathcal{ برخورد کردم. C}$. پس از این پاسخ در StackOverflow درباره طبقه‌بندی میوه‌ها $\mathcal{C} = \left\\{ \text{banana}, \text{orange}, \text{other} \right\\}$ دارای ویژگی‌های $\mathcal{ W} = \left\\{\text{long}، \text{sweet}، \text{yellow}\right\\}$، مشکل من در مورد این است: فرض کنید ما سه جمله (یا سند) مشاهده شده را داریم $\mathcal{D} = \left\\{ D_{1}, \dotsc, D_{3}\right\\}$ در کلاس $c = \text{ موز}$ به صورت $ \begin{align} D_1 = \left\\{\text{long}، \text{sweet}، \text{زرد}\راست\\} و\to \left\\{\text{long}، \text{sweet}، \text{زرد}\راست\\} \\\ D_2 = \left\\{\text{long} \راست\\} &\to \left\\{\text{long}, \neg \text{sweet}, \neg \text{yellow} \right\\} \\\ D_3 = \left\\{ \text{زرد}، \text{sweet} \راست\\} &\to \ چپ\\{ \neg \text{long}، \text{زرد}، \text{sweet} \راست\\} \end {align} $ سپس احتمال $p(w = \text{long}|c = \text{موز})$ چقدر است؟ با توجه به پاسخ پیوندی، احتمال به صورت $ \begin{align} p(w = \text{long}|\text{banana}) &= \frac{\left|w\right|}{\left محاسبه می‌شود. |\mathcal{D}\right|} = \frac{\left|w\right|}{\left|w\right| + \left|\neg w\right|} = \frac{2}{3} = 0.\overline{6} \end{align} $ زیرا کلمه در دو جمله از سه جمله ظاهر می‌شود. با توجه به اینکه بعداً می خواهم اسناد/جملاتی با طول های مختلف** را طبقه بندی کنم (طبقه بندی ایمیل فکر کنید)، آیا نمی توان گفت که احتمالات ظاهر شدن کلمه در جملات آموزشی فردی عبارتند از: $ \begin {align} p(w = \text{long}|\text{D}_1) &= \frac{\left|w\right|}{\left|\text{D}_1\right|} = \frac{1}{3} = 0.\overline{3} \\\ p(w = \ text{long}|\text{D}_2) &= \frac{\left|w\right|}{\left|\text{D}_2\right|} = \frac{1}{1} = 1.0 \\\ p(w = \text{long}|\text{D}_3) &= \frac{\left|w\right|}{\left|\text{D}_3\right|} = \frac {0}{2} = 0.0 \end{align} $ زیرا کلمه $1$ از $3$ بار در $\text{D}_1$ و غیره ظاهر می‌شود. پس احتمال (خوب، مورد انتظار) نخواهد بود $ \begin{align} p(\text{long}|\text{banana}) &= \frac{1}{N} \sum_{i=1}^{N} p(\text{long}|\ text{D}_N) = \frac{1}{3}\left(\frac{1}{3} + \frac{1}{1} + \frac{0}{2}\right) = \frac {4}{9} = 0.\overline{4} \end{align} $ (?) که به طور تصادفی شبیه مکمل است. یا اینطور فکر می کنیم که $ \begin{align} p(\text{long}|D_1) &= p(\text{long}|\text{long}، \text{sweet}، \text{زرد} ) = p(\text{long}|\text{long}) = 1 \\\ p(\text{long}|D_2) &= p(\text{long}|\text{long}, \neg \text{sweet}، \neg \text{زرد}) = p(\text{long}|\text{long}) = 1 \\\ p(\text{long}|D_3) &= p( = 0 \end{align} $ زیرا $\text{long}$ به طور مشروط مستقل از سایر ویژگی‌ها است (با پیروی از فرض ساده‌لوح)؟ اما پس از آن، در مورد کلمات دوبار شمارش (یعنی در طبقه بندی نامه) چطور؟ روش شمارش روی همه کلمات، $2/6 = 0.\overline{3}$ را در اینجا به دست می‌دهد که عدد متفاوت دیگری است. من فرض می‌کنم که ترکیب میانگین‌گیری راه حلی نیست، اما ترکیب احتمالات هر جمله چگونه درست کار می‌کند؟
احتمالات کلمه در فیلتر ساده بیز
100933
مدل خطی زیر \begin{equation} Y_{j}=\beta_{1}+\beta_{2}E_{j}+\beta_{3}B_{j}+\epsilon_{j} \tag{* را در نظر بگیرید } \end{معادله} که در آن $Y_{j}$ نشان‌دهنده لگاریتم طبیعی حقوق سالانه یک کارمند در حال حاضر، $E_{j}$ تعداد سال‌های پایان تحصیلی است. موسسه، و $B_{j}$ لگاریتم طبیعی حقوق اولیه کارمند است. من $(*)$ را روی یک مجموعه داده بزرگ پسرفت کردم و ضرایب $\beta_{2}، \beta_{3}$، را با مدل دیگری که شامل دو متغیر ساختگی اضافی است، $D_{1j}$ (جنسیت) مقایسه کردم. ) و $D_{2j}$ (اقلیت). اگرچه آنها به شدت تغییر نکرده اند، اما هنوز مقداری تغییر وجود دارد. در حال حاضر، من هیچ مشکلی برای توضیح کیفی در مورد چرایی این موضوع ندارم. چیزی که من به دنبال آن هستم این است: > **آیا محاسباتی وجود دارد، شاید آزمایشی، که توضیح > کیفی را تسهیل کند که چرا ضرایب $(*)$ ممکن است با اضافه کردن دو متغیر ساختگی تغییر کند؟**
تبیین کمی تغییرات ناشی از متغیرهای ساختگی
13409
من باید بر اساس یک تابع هدف که غیراستاندارد است، بهینه سازی کنم. اگر پیش‌بینی‌کننده‌ها $X$ باشند، خروجی مدل $\hat y$، و پاسخ $y$ باشد، هدف من اساساً این است: $$j = \sum( \hat y \cdot y). $$ به حداقل برسد فقط $-j$ خواهد بود. آیا کسی روشی برای بهینه‌سازی/رگرسیون می‌شناسد که از هدفی مانند این استفاده کند؟ $\hat y\cdot y$ معادل چیزی است که در یادگیری ماشین حاشیه نامیده می شود، اما من نمی توانم کاری پیدا کنم که مستقیماً بهینه سازی آن را مورد بحث قرار دهد. بدیهی است که می‌توانم این را در یک بهینه‌ساز جهانی جمع کنم، اما به هر کاری که از قبل موجود است علاقه‌مندم.
به حداکثر رساندن/به حداقل رساندن محصول خروجی و پاسخ
94500
من در درک نحوه یادگیری پارامترهای HMM از داده های مشاهده شده مشکل دارم. بیایید بگوییم که مدل HMM من دارای یک متغیر پنهان برای عاطفه (احساس) با سه مقدار/حالت (خشم، شادی، سردرگمی) است و هر متغیر پنهان در t دارای سه مشاهده است (بلندی و حجم صدا، حالت چهره). چگونه در مورد جمع آوری داده ها و آموزش اقدام کنم؟ به این فکر می‌کردم که شاید بتوانم از افرادی که در حالت‌های خاصی هستند ضبط کنم (سه مورد مشاهده‌پذیر را دریافت کنم) یعنی از بازیگرانم بخواهم با استفاده از هر یک از سه احساس جداگانه چند خط بگویند. حالا بعد از آن نمی فهمم باید چه کار کنم. فرض کنید من 3 بازیگر دارم یعنی 9 نمونه فقط برای آموزش هستم. اگر هر نمونه 3 دقیقه است، آیا مدل را روی طول هر یک از نمونه ها آموزش می دهم؟ اگر طول نمونه ها کمی متفاوت باشد چه؟ همچنین، چگونه مدل می‌آموزد که P(خشم(t+1)| شادی(t)) از داده‌ها با مقادیر خاص جدا می‌شود (یعنی هر نمونه فقط یک احساس خاص است)؟ آیا کسی می تواند به من کمک کند تا این را بفهمم؟ متشکرم.
HMM از داده های ویدیویی یاد می گیرد؟
31386
من یک مشکل رگرسیون لجستیک دارم که در آن می‌خواهم سهم کل گروه‌های پارامترها (متغیرهای مستقل) را در مجموعه‌های مختلف مشاهدات ارزیابی کنم. برای مثال، فرض کنید من 10 پارامتر کل دارم که 5 تای آن متعلق به گروه 1 است، برای یک مجموعه داده معین. من به راحتی می توانم مدل کامل را با مدل بدون Group1 مقایسه کنم، با استفاده از یک شبه R^2، آزمون نسبت احتمال، AIC یا مشابه، برای توصیف سهم Group1 در DataSet1. کاری که من باید انجام دهم این است که این مقایسه ها را در مجموعه داده های مختلف جمع آوری کنم، جایی که راه حل ها لزوماً به هم مرتبط نیستند (یعنی ضرایب واقعی در هر پارامتر در بین مجموعه داده ها یکسان نیستند) - من به مقدار اطلاعات منتقل شده توسط گروهی از پارامترها در مجموع، نه خود ضرایب. بنابراین، من نمی توانم یک مدل را با استفاده از همه مشاهدات آموزش دهم. یک مثال راه حلی که به آن رسیدم این است که پس از حل هر مدل به طور مستقل، انحرافات مدل (انحراف = -2*loglikelihood) را اضافه کنم و نسبت احتمال/AIC/شبه R^2 و غیره را طوری محاسبه کنم که انگار یک مدل بزرگ است. با این حال، یکی از عوارض این است که تعداد پارامترها در گروه یا مدل کامل ممکن است در هر مجموعه داده تغییر کند. به عنوان مثال، در DataSet1، Group1 ممکن است 5 پارامتر داشته باشد (یا 6 پارامتر اما هیچ مشاهده ای برای پارامتر 6 وجود ندارد - پارامترها معمولاً دسته بندی هستند - و غیره)، اما در DataSet2، Group1 ممکن است 3 یا 7 یا 150 پارامتر و غیره داشته باشد. بنابراین، محاسبه AIC یا p-value برای آزمون نسبت درستنمایی، من #پارام های موثر را به عنوان میانگین وزنی #پارام ها محاسبه کرده ام. #مشاهدات در هر مجموعه داده. از طرف دیگر، می‌توانم #پارام‌ها را به‌عنوان حداکثر از هر مجموعه داده ثابت کنم، اما می‌ترسم این به‌طور مصنوعی نتایج من را از بین ببرد. من دوست دارم بازخوردی در مورد این رویکرد یا اشاره‌ای به گزینه‌های جایگزین داشته باشم.
ارزیابی گروه‌های پارامترها در مجموعه داده‌های چندگانه در رگرسیون لجستیک
46452
من علاقه مند به استفاده از تحلیل عاملی چندگانه برای تجزیه و تحلیل داده های جمع آوری شده از قطعات سرامیکی هستم. داده ها بسیار پیچیده هستند و شامل متغیرهای پیوسته (قطر لبه رگ، ضخامت دیواره رگ) و متغیرهای دسته بندی شده (وجود یا عدم وجود لعاب پایه و بیش از حد در داخل و خارج رگ) می باشد. پس از مقیاس بندی و مرکزیت کردن متغیرهای پیوسته، داده های من چیزی شبیه به این می شود: row.names RimDiameter SherdThickness2cmBelowRim BGIBrown BGIclear... 23 -1.05924698 0.1160736 0 1... 56 0.155080613 FactoMineR، من MFA را به صورت زیر اجرا کردم: sherdMFA = MFA(cleanRimGlaze[,-1], group=c(2,17,13,1,1), type=c(s,rep(n,4 ))، ncp=5، name.group=c(RimDiamThickness،BGI،BGE،LI، LE)) اما این خطا را ایجاد می کند. در MFA(cleanRimGlaze[, -1]، group = c(2, 17, 13, 1, 1), type = c(s, : تعریف گروه مناسب نیست ~~نمی توانم بفهمم چگونه این مشکل را برطرف کنم با نگاهی به مثال MFA در وب سایت FactoMineR، به نظر می رسد که MFA برای رسیدگی به متغیرهای طبقه بندی شده به عنوان فاکتور، و تبدیل متغیرهای ساختگی من به سطوح فاکتور ساخته شده است. ممکن است مشکل تعریف گروه را حل کند. با این حال، از آنجایی که در داده‌های من ممکن است چندین لعاب وجود داشته باشد، به نظر عجیب می‌رسد که فاکتورهای جداگانه‌ای برای «قهوه‌ای»، «روشن» و «شفاف و قهوه‌ای» وجود داشته باشد. آیا من درست فکر می کنم که بهتر است از متغیرهای دوگانه برای حضور/غیاب استفاده کنیم و به سادگی حضور را هم برای قهوه ای و هم روشن علامت گذاری کنیم؟ آیا راهی برای اجرای MFA در FactoMineR با متغیرهای طبقه بندی شده به عنوان متغیرهای ساختگی وجود دارد؟ یا شاید حتی یک تجزیه و تحلیل آماری مناسب‌تر؟~~ چندین خطا را به شرح زیر برطرف کرد: 1. [,-1] را حذف کرد زیرا باعث خطای تعریف گروهی مناسب نیست. 2. تبدیل ستون های کیفی به فاکتورهایی با دو سطح برای رفع خطای عوامل در گروه های کیفی تعریف نشده اند. 3. ستون‌های کیفی حذف شده که حاوی تنها یکی از دو عامل برای رفع «خطا در کنتراست‌ها هستند<-( _tmp_ , value = contr.funs[1 + isOF[nn]]): کنتراست‌ها را می‌توان فقط برای فاکتورهایی با 2 یا 2 اعمال کرد. سطوح بیشتر خطایی که ظاهر شد. و اکنون وزارت امور خارجه اجرا می شود. من هنوز در مورد نظرات مردم در مورد مناسب بودن تحلیل عاملی چندگانه برای چنین داده هایی کنجکاو هستم. نمونه من (حدود 300 قطعه ظروف درخشان از تعداد بسیار بیشتری که در دهه 1930 حفاری شده بود) حاوی 81 قطعه لبه بود. برای این قطعات، قطر لبه تخمین زده شد، ضخامت قطعه 2 سانتی متر زیر لبه اندازه گیری شد و وجود یا عدم وجود لعاب های رنگی متفاوت در داخل و خارج قطعات (به عنوان مثال آبی مات، آبی شفاف، سفید، شفاف) اندازه گیری شد. ، براق ، فیروزه ای ، بدون لعاب قابل مشاهده). از آنجایی که برخی از ترکیبات داخلی و خارجی معمول به نظر می رسید، مانند لعاب سفید در داخل و لعاب آبی در بیرون با لعاب بیش از حد براق در هر دو، منطقی به نظر می رسید که هر دو متغیر Base Glaze Interior Blue و Base Glaze Exterior Blue نیز داشته باشند. به عنوان متغیرهای Over Glaze Interior و Over Glaze Exterior برای درخشندگی. این مقدار به 20 متغیر و یک row.names برای شناسه های sherd می رسد. 20 متغیر به اندازه نمونه 81 به نظر می رسد که برای چنین تحلیلی قابل قبول است، اگرچه بدیهی است که حجم نمونه بزرگتر مطلوب است (من به اندازه نمونه و نسبت آیتم در تجزیه و تحلیل اجزای اصلی برای این کار نگاه می کنم، اما ممکن است شما کار جدیدتر آن را بدانید). مواد سرامیکی بسیار بیشتری در دسترس است، بنابراین هر فرضیه ای که بر اساس این نمونه کوچکتر ایجاد شده باشد، می تواند با جمع آوری داده های بیشتری آزمایش شود. من MFA را انتخاب کردم زیرا داده ها متغیرهای پیوسته و مقوله ای را مخلوط می کنند. تا آنجا که گروه ها پیش می روند، به نظر می رسد ایده خوبی است که تمام وجود/غیاب لعاب های پایه در داخل و لعاب های بیرونی را با هم ترکیب کنیم. بر اساس قیاس، وجود لعاب بیش از حد براق در داخل و خارج هر یک به یک گروه اختصاص یافت و در نهایت قطر لبه تخمینی و ضخامت قطعه نیز گروه خاص خود را به دست آورد (یک گروه پیوسته و 4 گروه طبقه بندی شده). اولین فکر من PCA بود، اما داده‌های لعاب طبقه‌ای، در حالی که قابل تبدیل به متغیرهای ساختگی هستند، فرض توزیع نرمال را که PCA بر اساس آن پیش‌بینی می‌شود، می‌شکند. من به تجزیه و تحلیل کلاس پنهان نیز نگاه کردم، اما به نظر نمی رسد که برای داده های پیوسته متغیرهای قطر رینگ و ضخامت قطعه مناسب باشد. به نظر می رسید که وزارت امور خارجه قادر به مدیریت هر دو، و تصدیق گروه های واقعی موجود در داده های جمع آوری شده است. با تشکر فراوان از @dcarlson برای سوالات روشنگرش.
متغیرهای مقوله ای و ساختگی در تحلیل عاملی چندگانه با FactoMineR
19636
با فرض $g(x)=\sqrt[3]{x}$، می‌خواهم مقدار مورد انتظار g, $E(\sqrt[3]{x})$ را با استفاده از روش مونت کارلو با ایجاد x_i$ محاسبه کنم. $ از توزیع Weibull با پارامترهای $(1,5)$. بعد از آن می خواهم از **روش متغیرهای کنترلی** و *روش **ضد ضد** استفاده کنم تا واریانس تخمینگر خود را که با مونت کارلو ساده پیدا کردم کاهش دهم. **و مشکل من اینجاست، من نمی‌دانم چگونه این روش‌ها را انجام دهم.** اگر کسی می‌تواند به من در انجام این کار کمک کند یا راهنمایی/راهنمایی بدهد، ممنون می‌شوم. پیشاپیش از نگرانی شما بسیار سپاسگزارم. ### کاری که من تاکنون انجام داده‌ام با فرض اینکه $S$ تخمین‌گر ما باشد، پس می‌دانیم که $S=(\sum \limits_{i=1}^{N} g(x_i))/N$. با استفاده از Matlab، مقدار مورد انتظار $S$ را با تولید 1000 عدد تصادفی از توزیع weibull(1,5) پیدا کردم و مجموع را محاسبه کردم. الگوریتم من اینجاست: N=1000 sum=0; برای i=1:N; X = wblrnd(1,5); res(i)=X.^(1/3); sum=sum+res(i); انتهای S=sum/N
استفاده از متغیرهای کنترلی و روش ضد مونت کارلو
101401
سلام این اولین پست من در این سایت است، من در حال ساخت یک مدل رگرسیون لجستیک در SAS با استفاده از proc logistic هستم، هدف من 0 و 1 است، من 10-15 پیش بینی دارم 2 پیوسته و بقیه طبقه بندی می شوند، کل نمونه را به دو تقسیم کردم. تست قطعات (80%) (20%)، هنگامی که من در حال بررسی پایداری ضرایب در نمونه آزمایشی هستم، متوجه شدم که تعداد کمی از پیش‌بینی‌کننده‌های طبقه‌بندی علامت خود را تغییر می‌دهند، همچنین تعداد کمی تغییر می‌دهند. در داده های تست ناچیز است. من از متغیرهای طبقه‌بندی همانطور که هست (نه ساختگی) در دستور کلاس در proc logistics استفاده می‌کنم. بنابراین به طور خلاصه دلیل تغییر علامت در داده های آزمایشی چیست؟ ممنون، آبیشک
چرا علامت ضریب متغیر طبقه‌بندی در رگرسیون لجستیک هنگام اجرای مدل بر روی نمونه آزمایشی تغییر می‌کند؟
101400
وقتی $\Theta$ را برای Feasible GLS در داده‌های پانل تعریف می‌کنیم، باید $\text{plim} \;\sigma$ را در تصویر زیر تعریف کنیم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HoAPv.png) چگونه می توانم نشان دهم که $\hat{\sigma}^{*2} \overset{p}{\longrightarrow} \frac{\sigma_\varepsilon^2}{T}+\sigma_u^2$؟
GLS امکان پذیر داده های پانل اثر تصادفی
13142
من همیشه رگرسیون لجستیک را صرفاً یک مورد خاص از رگرسیون دو جمله ای می دانستم که در آن تابع پیوند تابع لجستیک است (به جای مثلاً یک تابع پروبیت). با این حال، از خواندن پاسخ های سؤال دیگری که داشتم، به نظر می رسد که ممکن است گیج شده باشم، و بین رگرسیون لجستیک و رگرسیون دو جمله ای با پیوند لجستیک تفاوت وجود دارد. چه فرقی دارد؟
تفاوت بین رگرسیون دو جمله ای و رگرسیون لجستیک چیست؟
20608
می‌دانم که با مدلی که قابل شناسایی نیست، می‌توان گفت که داده‌ها توسط چندین تخصیص مختلف به پارامترهای مدل تولید می‌شوند. من می دانم که گاهی اوقات ممکن است پارامترها را به گونه ای محدود کنیم که همه قابل شناسایی باشند، مانند مثال در Cassella & Berger 2nd ed، بخش 11.2. با توجه به یک مدل خاص، چگونه می توانم ارزیابی کنم که آیا قابل شناسایی است یا خیر؟
قابلیت شناسایی مدل چیست؟
43558
من یک نمونه‌گر گیبس را با مدلی مشابه مدل موجود در این مقاله استخراج می‌کنم (یک مدل گرافیکی در صفحه 4 نشان داده شده است). به بیان ساده، سوال من فقط مربوط به $w_i$ (بردار $K$-بعدی که از یک توزیع معمولی گرفته شده است) و دقت آن $\gamma_w$ است، بنابراین من فقط این 2 متغیر را ناشناخته می‌کنم و بقیه را به عنوان شناخته شده در نظر می‌گیرم. امیدوارم بدون از دست دادن سختی های ریاضی): $w_i \sim \mathcal{N}(0, \sigma_w^2I_K)$ $\gamma_w = \frac{1}{\sigma_w^2} \sim \Gamma(\alpha_0, \beta_0)$، در اینجا $\alpha_0، \beta_0$ فراپارامترها هستند. و احتمال شرطی این است: $p(w_{ik}|-) \sim \mathcal{N}(\mu_{w_{ik}}، \sigma_{w_{ik}}^2)$، جایی که $\sigma_ {w_{ik}}^2 = (\gamma_w + T)^{-1}$. $T$ در واقع یک اصطلاح بسیار پیچیده است اما غیر منفی است. $p(\gamma_w|-) = \Gamma(\alpha_0 + \frac{1}{2}KN، \beta_0 + \frac{1}{2}\sum_{i=1}^N w_i^Tw_i)$ من آن را کدنویسی می کنم و برخی از داده های شبیه سازی شده را مطابق مدل گرافیکی تولید می کنم. من همه متغیرهای غیر از $w_i$ و $\gamma_w$ را روی مقدار واقعی خود تنظیم کردم و بدون تغییر نگه داشتم. هایپرپارامترها روی 0.001 تنظیم شده اند که اساساً مقدار قبلی $\gamma_w$ را مجبور می کند 0 باشد (در واقع مطمئن نیستم که آیا این انتخاب خوبی است یا خیر). نمونه‌گر با $\gamma_w$ اجرا می‌شود تا بی نهایت می‌رود. لگاریتم احتمال نمونه ها بسیار بیشتر از احتمال ورود به سیستم داده های واقعی است. از توزیع شرطی، این عدم همگرایی در واقع نوعی مشاهده پذیر است، زیرا هر $w_{ik}$ با دقت بیشتری نسبت به نمونه از $p(\gamma_w|-)$ ترسیم می شود (به دلیل عبارت غیرمنفی) ). سپس هنگام نمونه برداری از $\gamma_w$، از $\sum_{i=1}^N w_i^Tw_i$ کوچکتر استفاده می کنیم. بنابراین نمونه های $\gamma_w$ بزرگتر می شوند. این اشتباه به نظر می رسد، اما نمی توانم بفهمم مشکل از کجاست. هر گونه نظر بسیار قدردانی خواهد شد. با تشکر به روز شده: فکر می کنم این ممکن است به طور کلی برای یک مدل عادی سلسله مراتبی با واریانس ناشناخته درست باشد، سپس این مقاله را پیدا کردم که به نظر می رسد تا حدی با مشاهدات من موافق است. اما این مقاله کمی فراتر از پیشینه ریاضی بد من است...
نمونه‌گر گیبس بر روی دقت (با گاما قبل) در مدل بیزی سلسله مراتبی همگرا نیست
74863
من در تلاش برای درک معنای بیان انحراف معیار (SD) تفاوت میانگین (MD) هستم [یا به‌طور دیگری به آن تفاوت میانگین مطلق می‌گویند]. این برای مقاله ای است که من در حال نوشتن آن هستم که در آن نمونه های دیگر نیز SD MD را به عنوان بخشی از خلاصه تجزیه و تحلیل نقل می کنند. در حالی که می‌دانم تفاوت میانگین نشان‌دهنده چه چیزی است، یعنی «اندازه‌گیری پراکندگی آماری»، از مفید بودن گزارش انحراف استاندارد این مقدار مطمئن نیستم. من می توانم معنای آن را به نوعی مفهوم سازی کنم، اما مسئله دوباره سودمندی است. برای مرجع، تجزیه و تحلیل داده های اندازه گیری های مکرر برای هم ارزی است. من ضریب همبستگی و همچنین احتمال آماری برای هم ارزی (با محدوده هم ارزی) را با استفاده از آزمون T دو یک طرفه (TOST) گزارش خواهم کرد. بنابراین سوال من در مورد سودمندی انحراف معیار تفاوت میانگین. شاید من از نظر آماری کمبود دارم و لطفاً یک مرجع مناسب برای مشاوره برای من معرفی کنید. پیشاپیش ممنون **به روز رسانی - مثال:** _ماشین A_ سیستم اندازه گیری مرجع است. _ماشین B_ سیستم اندازه گیری جدید است. تعداد معینی از اندازه‌گیری‌های واقعی با هر ماشین (_N_) روی یک شی مشترک انجام می‌شود تا بفهمیم چقدر ماشین‌ها معادل هستند. در حالت ایده آل، آنها یکسان هستند - البته طراحان می گویند، و حتی می توان انتظار داشت - اما این آزمایش برای پشتیبانی از محدودیت هم ارزی +/- _x_ واحد استفاده می شود. (با توجه به واقعیت، نمی توان گفت _A_ دقیقاً معادل _B_ است.) بنابراین یک مقایسه اندازه گیری زوجی. هنگام گزارش این نتایج، گزارش تفاوت میانگین و انحراف استاندارد تفاوت میانگین، به اضافه ضریب همبستگی (پیرسون) با مقدار p آن معمول بوده است. **به روز رسانی - نظرات:** 1\. این سؤال در واقع به انحراف معیار تفاوت میانگین اشاره دارد، نه صرفاً به تفاوت. 2\. من به خوبی درک می کنم که انحراف معیار از نظر توزیع به چه معناست. اما سوال من واقعاً این است که معنای انحراف معیار اختلاف میانگین در رابطه با کمیت مورد اندازه گیری چیست؟ 3\. اگر به اندازه یک راهنمای تغییرپذیری تفاوت ساده است، پس همینطور باشد. 4\. اگر نتیجه به صورت واحدهای A = B +/- _x_ با p <0.05 گزارش شده باشد، می‌دانم که این با نقل‌قول کردن یک عدد نوع انحراف استاندارد متفاوت است، اما هنوز به طور مستقیم آن را دریافت می‌کنم. من SD یک MD را در رابطه با موجودیت اندازه گیری اصلی نیز تقریباً دریافت نمی کنم.
معنی انحراف معیار اختلاف میانگین
46454
کد R زیر سه CDF را با استفاده از سه رویکرد مختلف تولید می کند. چگونه می توانم این CDF ها را روی یک گراف در R رسم کنم؟ #روش 1 z <- rnorm(n=100000، m=0، sd=1) z1 <- rnorm(n=100000، m=0، sd=1) z2 <- rnorm(n=100000، m=0، sd=1) z_app <- (z1/sqrt(3)) + z*(1+(z2/sqrt(2*3))) #CDF F_z_app <- ecdf(z_app) plot(F_z_app, xlim=c(0,5),ylim=c(0.5,1)) #روش 2 v3 <- rt(100000, 1)/sqrt(3-2) w3 <- rchisq(100000,2) z3 <- rnorm(n=100000، m=0، sd=1) z_eff_3 <- v3 + z3 * sqrt((3*(1+v3*v3))/w3) #CDF F_z_eff_3 <- ecdf(z_eff_3) (F_z_eff_3، xlim=c(0,5),ylim=c(0.5,1)) # روش 3 z <- rnorm(n=100000, m=0, sd=1) #CDF F_z <- ecdf(z) نمودار(F_z , xlim=c(0,5),ylim=c(0,5,1))
رسم چگالی های متعدد بر روی یک نمودار در R
113202
من یک انتخاب کمند با استفاده از lars::lars برای یک نتیجه به خوبی توزیع شده با استفاده از مجموعه ای از 86 پیش بینی انجام دادم. این نمودار خروجی است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/21WGb.png) تست کوواریانس زیر تایید کرد که clive بهترین انتخاب شده است: متغیر Drop_in_covariance P.value 1 clive 13.4357 0.0000 2 pepl 0.2965 0.7436 3 sb5y 0.1028 0.9023 4 radio 0.0656 0.9365 5 roof 0.9746 0.3781 با این حال، زمانی که مدلی ساختم و سپس با استفاده از «glm» با «clive» و برخی متغیرهای بیولوژیکی دیگر (همه آنها در محدوده 86 متغیری هستند)، این نتیجه را به دست آوردم. : ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.41025 0.05518 -7.43 4.2e-13 *** clive 0.06499 0.04110 1.58 0.1144 cdaysbms2 -0.007195 0.0071956 -0.00719560.60. -0.01194 0.00386 -3.10 0.0021 ** bodr -0.00052 0.04004 -0.01 0.9896 medu 0.02642 0.01343 1.97 0.0496 * 0.0496 * 0.00052 0.08150. 0.0065 ** در اینجا می‌توانید ببینید که بهترین «کلایو» انتخاب‌شده از نظر آماری معنی‌دار نیست در حالی که برخی دیگر از موارد انتخاب نشده حتی قابل توجه هستند. درست است وقتی مدل فقط شامل 'clive' باشد، معنی دار می شود: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.4269 0.0304 -14.02 < 2e-16 *** clive 0.0743 0.0133 5.58 3.9e-08 *** اما من هنوز در نحوه تفسیر آن گیج هستم. من فکر می کنم اگر 'clive' بهترین مورد از یک استخر باشد، پس مقدار p. آن باید کمترین مقدار باشد، حتی زمانی که متغیرهای دیگری از استخر در مدل وجود دارد. کسی توضیحی ارائه می دهد؟
چرا متغیر lasso انتخاب شده حتی مهم نیست؟
45184
لی و لمیوکس (ص. 31، 2009) به محقق پیشنهاد می کنند که نمودارها را در حین انجام تحلیل طراحی ناپیوستگی رگرسیون (RDD) ارائه کند. آنها روش زیر را پیشنهاد می کنند: > ...برای مقداری پهنای باند $h$، و برای تعدادی از bin ها $K_0$ و $K_1$، به ترتیب به سمت چپ و راست مقدار قطع، ایده این است که > ساخت سطل ($b_k$,$b_{k+1}$]، برای $k = 1، . . . ,K = K_0$+$K_1$، که در آن > $b_k = c−(K_0−k+1) \cdot h.$ c=نقطه برش یا مقدار آستانه متغیر تخصیص h=پهنای باند یا پهنای پنجره. ...سپس میانگین نتایج را درست در سمت چپ و راست نقطه برش مقایسه کنید. ... .. در همه موارد، مقادیر برازش را از یک مدل رگرسیون کوارتیک که به طور جداگانه در هر طرف نقطه برش تخمین زده شده است را نشان می دهیم... (ص. 34 از همان مقاله) سوال من این است که چگونه آن رویه را در Stata یا R برای ترسیم نمودارهای متغیر نتیجه در برابر متغیر تخصیص (با فواصل اطمینان) برای RDD تیز برنامه ریزی کنیم. نمونه نمونه در Stata ` در اینجا و اینجا ذکر شده است (rd_obs را جایگزین کنید) و یک نمونه نمونه در `R` در اینجا آمده است، با این حال، من فکر می کنم هر دوی اینها مرحله 1 را اجرا نکردند. که هر دو داده های خام را به همراه خطوط برازش در نمودارها دارند. نمودار نمونه بدون متغیر اطمینان [Lee and Lemieux,2009] ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/a2KPD.png) پیشاپیش از شما متشکرم.
نمودارها در طراحی ناپیوستگی رگرسیون در Stata یا R
19632
برخی از مراجع سریع برای آمار. **شرایط**: 1- آفلاین، یعنی مستقل از اینترنت 2- نسخه نرم افزاری، یعنی (قابل اجرا در رایانه) کتاب چاپ نشده یا غیره 3- متوسط ​​تا پیشرفته، جامع 4- دایره المعارف با لینک های زیادی به آن صفحه یا اصطلاح دیگر 5- ... 6- رایگان یا تقریباً رایگان 7- قابل اعتماد و حرفه ای 8- عمومی، یعنی وابسته به نرم افزار خاص یا بسته 9- ... 10- اصطلاحات به خوبی طبقه بندی شده 11- تعدادی را اضافه می کنید. ضمناً به نظر من لیست شرایط زیاد طولانی نیست. این چیزی است که من و تو به آن نیاز داریم. ** به روز رسانی ها: ** یک پاسخ بخشدار پیدا کنید که در زیر آورده شده است!
مرجع سریع آمار
43554
من در حال الگوبرداری از تأثیر بارداری بر نتیجه یک بیماری (مرده-زنده) هستم. تقریباً 40 درصد از بیماران پس از تشخیص باردار شدند، اما در مقاطع مختلف زمانی. تاکنون نمودارهای KM را انجام داده‌ام که یک اثر محافظتی واضح از بارداری بر بقا و همچنین یک مدل معمولی کاکس را نشان می‌دهد - اما اینها تنها با استفاده از یک متغیر حاملگی تقسیم‌بندی شده مدل‌سازی شده‌اند و با فرض اینکه اثر از زمان تشخیص وجود داشته باشد که به وضوح غیر واقعی است. از آنجایی که میانگین زمان بارداری از زمان تشخیص 4 سال است. چه نوع مدلی می تواند تأثیر حاملگی های چند قلو را در مقاطع زمانی مختلف پس از تشخیص جذب کند؟ آیا مدل‌سازی بارداری‌هایی که در تعامل با زمان هستند (که نیاز به بازسازی جدی داده‌ها دارد - هر نرم‌افزار خودکاری که می‌تواند به این موضوع کمک کند؟) درست است یا استراتژی مدل‌سازی ترجیحی دیگری برای این مشکلات وجود دارد؟ همچنین استراتژی ترسیمی ترجیحی برای این مشکلات چیست؟
پیشنهاد مدل برای رگرسیون کاکس با متغیرهای کمکی وابسته به زمان
101405
من مطالعه ای دارم که روی 30 موضوع در 7 نقطه زمانی اندازه گیری می کند. سپس گرادیان بهترین خط مناسب محاسبه می‌شود (به آن بتا1 می‌گویند)، که برای محاسبه نرخ تولید (بتا1*ثابت) استفاده می‌شود. beta1 در هر موضوع یک خطای استاندارد خواهد داشت. من می خواهم میانگین beta1 (میانگین میزان تولید) برای کل گروه 30 و خطای استاندارد آن اندازه گیری را بدانم. سپس، چندین ماه بعد، مطالعه روی همه 30 موضوع تکرار می‌شود و نرخ تولید دوباره محاسبه می‌شود. میانگین این نرخ تولید با میانگین نرخ تولید اولیه مقایسه می شود. کسی میتونه در مورد آمار به من کمک کنه؟ با تشکر فراوان.
محاسبه تفاوت بین دو میانگین بر اساس رگرسیون خطی
45189
من یک سوال در مورد تفسیر تحلیل رگرسیون دارم. وضعیت زیر را تصور کنید: یک همبستگی بسیار بالا (و معنی دار) بین متغیر A و متغیر وابسته در ماتریس همبستگی وجود دارد. در تحلیل رگرسیون، من چندین متغیر مستقل دیگر دارم و متغیر A تنها یکی از آنهاست. در همه موارد، متغیر A تأثیر زیادی دارد (بتا بالا) و این نیز قابل توجه است. با این حال یک استثنا وجود دارد. فقط زمانی که متغیر A را در ترکیب با یک متغیر خاص (متغیر X) قرار می‌دهم، تأثیر متغیرهای قطره‌ها دیگر معنی‌دار نیست. بنابراین، تنها زمانی که متغیر X در متغیر رگرسیونی A در نظر گرفته نشده باشد، معنی دار است و قدرت پیش بینی زیادی دارد. وقتی متغیر X نیز گرفته می شود، معنی دار نیست. قطعاً چند همسویی دخیل نیست. آیا این بدان معناست که تأثیر متغیر A بر روی متغیر وابسته از طریق متغیر X کار می کند؟
تفسیر یک متغیر در تحلیل رگرسیون
81175
سناریو: من دو گروه (درمان و کنترل) دارم که در یک دوره پیش با یکدیگر همسان هستند. یعنی کنترل ها به گونه ای انتخاب شدند که رفتار آنها در زمان های قبل از درمان با گروهی که در نهایت تحت درمان قرار گرفته بودند همبستگی خوبی داشت. پس از دوره‌های درمان، می‌خواهم اثر درمان را با یافتن تفاوت بین رشد رفتار مورد انتظار یا ارگانیک در گروه درمان و رفتار واقعی درمان مقایسه کنم. رفتار مورد انتظار با یک رگرسیون خطی بین گروه های درمان و کنترل در طول دوره پیش محاسبه می شود و با فرض اینکه این رابطه عملکردی پس از دوره درمان ادامه دارد. $$ Y_{expected} = A X_{t>t_{0}} + B $$ که در آن $t_0$ زمان درمان و $X_{t>t_0}$ مقادیر مشاهده‌شده گروه کنترل پس از درمان است. سپس این اثر توسط $$ L = \frac{Y_{t>t_0} - Y_{expected}}{Y_{expected}} $$ پیدا می‌شود: اکنون سؤال من این است: آیا استفاده از روش دلتا برای یافتن اطمینان ضروری است فاصله برای $L$؟ می‌دانم که $Y_{expected}$ یک تبدیل عملکردی از مشاهده تصادفی $X_{t>t_0}$ است، اما برای من روشن نیست که چرا نمی‌توانم به سادگی مرزهای اطمینان برای $Y_{expected}$ را با اندازه‌گیری پیدا کنم. تغییر در باقیمانده $Y_{t<t_0} - Y_{pre-expected}$ در طول زمان قبل از درمان. پیشاپیش برای هر ورودی یا اشاره‌ای متشکریم.
روش دلتا برای فواصل اطمینان در تست آنلاین A/B
17576
من می خواهم ابعاد مناطق تجاری را برای گروهی از فروشگاه ها مدل کنم. من داده های فروش را برای هر فروشگاه جغرافیایی کدگذاری کرده ام که برای ساخت بدنه محدب با استفاده از یک برنامه GIS استفاده کردم. اساساً، من نزدیک‌ترین 80 درصد فروش را برای هر فروشگاه گرفتم، و سپس یک نوار لاستیکی در اطراف آن نقاط پیچیدم تا مرز منطقه تجاری برای هر فروشگاه را به دست بیاورم. سپس مساحت این نواحی را محاسبه کردم و شعاع ها را طوری مدل کردم که گویی نواحی تجاری دایره ای هستند، با استفاده از ویژگی های ناحیه درست در اطراف فروشگاه به عنوان پیش بینی کننده. این پیش بینی های وحشتناکی را ارائه می دهد زیرا بسیاری از نواحی بیضوی هستند یا دارای برآمدگی های سنبله مانند هستند. آیا کسی پیشنهادی برای مدل سازی شکل و اندازه این مناطق به روش بهتری دارد؟
چگونه اندازه یک منطقه تجاری را مدل کنیم؟
17578
فرض کنید من مجموعه ای از متغیرهای گسسته و دلخواه دارم که در مختصات پیوسته نمونه برداری شده اند، به عنوان مثال. ================================== x = y = مقدار ========== ========================== 4.1 = 3.4 = A = = 4.6 = 7.9 = A = = 4.7 = 8.1 = A = = 2.1 = 5.0 = B = = 3.5 = 9.0 = B = = 7.0 = 1.1 = C = = 9.8 = 4.2 = C = ======================= =========== من می خواهم نقشه ای ایجاد کنم که توزیع مقادیر را در محدوده ای از مختصات نشان دهد (مثلاً «0<x<=10، 0<y<=10»)، که در آن هر مقدار دارای یک رنگ دلخواه است و هر نقطه در آن مختصات دارای یک مقدار درون یابی محاسبه شده است، جایی که منطقی است این کار انجام شود. به عنوان مثال به هر یک از A، B و C یک رنگ می دهیم. نقطه (5.0،5.0) در وسط خوشه As قرار دارد، بنابراین باید مطابق با A رنگ شود. نقطه (7.0،4.0) بین As و C است. بنابراین رنگ باید از طریق تجزیه و تحلیل فاصله تا هر یک از آن نقاط اطراف محاسبه شود. به طور کلی، من انتظار دارم که ربع بالا سمت چپ رنگی باشد که به B اختصاص داده شده است، ربع پایین سمت راست رنگی باشد که به C اختصاص داده شده است، با یک نوار رنگ به A بین و نقطه ای که مرزهای بین 3 رنگ در آن رخ می دهد اختصاص داده شود. از طریق نوعی الگوریتم نزدیکترین همسایه محاسبه می شود. آیا الگوریتم های موجود برای ترسیم نوع اطلاعاتی که می خواهم نمایش دهم وجود دارد؟ این باید هر نوع عبارت را در نظر بگیرد (اگر این اصطلاح درست باشد).
نگاشت متغیرهای گسسته
88189
من در پیچیدن سرم دور چیزی کمی مشکل دارم. من یک مجموعه داده دارم که شامل دو ستون است که اساساً سعی در اندازه گیری یک چیز دارند، یکی در مقیاس پیوسته 1-50 و دیگری در یک مقیاس ترتیبی (5 سطح). فرض کنید آنها خطر برخورد دنباله دار را اندازه گیری می کنند (فقط یک مثال). با این حال، نحوه به دست آوردن دو ستون بسیار متفاوت است، مقیاس 1-50 توسط مجموعه ای از شبیه سازی ها ایجاد می شود، در حالی که مقیاس ترتیبی بر اساس نظر متخصص است. حالا می خواهم بدانم این دو اندازه گیری چقدر با هم «توافق» دارند. بنابراین کاری که من انجام دادم این بود: برای مقیاس پیوسته (آن را $u$ بنامید) یک تخمین تراکم هسته برای هر یک از سطوح نظر صادرات انجام دادم (آن را $w\in W$ بنامید). این توابع چگالی احتمال را برای هر یک از کلاس ها در $w$ با توجه به $u$ تخمین می زند. با قانون بیز، من احتمال عقبی $P(x|x \sim w_i)$ را محاسبه کردم که $x$ یک نمونه (ردیف) و $w_i$ یک کلاس از نظر متخصص بود. حالا این به نظر من منطقی به نظر می رسید. به جز انتخاب پیشین‌ها (یکنواخت، درصد در داده‌های اصلی، تجربی؟) و تخمین چگالی (نوع هسته، یا اینکه spline برازش بهتری دارد...) اما اینجا ناموفق بود. به یاد داشته باشید که من می‌خواهم توافق را بدانم، و شاید مهم‌تر از آن نمونه‌هایی که شبیه‌سازی و متخصص در مورد آن‌ها اختلاف نظر دارند. بنابراین برای هر یک از نمونه ها همه احتمالات پسین را محاسبه کردم و سپس حداکثر یک را انتخاب کردم. این به من اجازه می‌دهد تا یک کوهنز کاپا را برای توافق محاسبه کنم و ردیف‌هایی را که متفاوت هستند برای بازرسی بیشتر انتخاب کنم (چه کسی درست می‌گفت؟). اما همه اینها کمی، خوب، اشتباه به نظر می رسد. من اینجا چه چیزی را از دست داده ام؟
محاسبه توافق بین مقیاس ترتیبی و پیوسته
100934
من فقط شبیه سازی ساده را انجام دادم. دو جمعیت با ابزارهای مختلف و واریانس یکسان ساخته است. از آنجایی که من آنها را آماده کردم می دانم که آنها: نرمال هستند، از نظر مکان متفاوت هستند و هر دو مقیاس یکسانی دارند. سپس اسکریپت ساده ای را در R نوشتم که 1000 بار از هر دو جمعیت نمونه می گیرد، آنها را برای نرمال بودن (Shapiro-Wilk)، برای واریانس های مساوی (F) و برای تفاوت (t) آزمایش می کند. اگر مفروضات آزمون t برآورده شود، آزمون t را اجرا می کنم. خوب، در واقع من همه آنها را یکی یکی اجرا می کنم، اما نتایج را با عملگر AND منطقی ترکیب می کنم. بنابراین، اگر **IsNormal** (A) AND **IsNormal** (B) AND **VarsAreEqual** (A, B) AND **MeansAreDifferent** (A, B)، آنگاه نتیجه را حساب می کنم. در نهایت تعداد مقادیر TRUE را تقسیم می کنم و آن را بر تعداد تکرارها تقسیم می کنم. بنابراین، هر آزمون فرض ممکن است شکست بخورد. Shapiro-Wilk ممکن است به اشتباه (آنها **طبیعی هستند) تست H0 و همچنین F را رد کنند (دارای واریانس های مساوی **دارند**). و من مقادیر نزدیک به 0.05 را دریافت نمی کنم! بنابراین، سوال من این است: آیا این نمونه ای از پدیده های آزمایش چندگانه (مانند مقایسه های چندگانه) است؟ اگر چنین است، در مورد آزمایش فرضیات چطور؟ چنین آزمایشی بسیار مهم است، زیرا اگر مفروضات برآورده نشوند، کمیت های توزیع نمونه از یک آزمون معین ممکن است کاملاً متفاوت از انتظار باشد و بنابراین نتایج داده شده ممکن است کاملاً بی فایده باشند. اما آزمایش فرضیات به وضوح آلفا را تغییر می دهد. درست میگم؟ شاید باید از اصلاحات برای آلفا استفاده کنیم، مانند بونفرونی؟ data<- data.frame(populA=rnorm(1000، میانگین=1)، populB=rnorm(1000، میانگین=3)) iternum <- 1000 آلفا <- 0.05 nsample <- 50 نتیجه <- آرایه (FALSE، iternum) ; for(i در 1:iternum) { sampA <- sample(data$populA, 30); sampB <- sample(data$populB, 30); result_t <- t.test(sampA, sampB)$p.value; result_F <- var.test(sampA, sampB)$p.value; result_normA <- shapiro.test(sampA)$p.value; result_normB <- shapiro.test(sampB)$p.value; results[i] <- (result_normA >= آلفا) & (result_normB >= آلفا) & (result_F >= آلفا) & (result_t <آلفا) } > 1-(میانگین (نتایج)) [1] 0.158
آیا آزمایش مفروضات بر خطای نوع I تأثیر می گذارد؟
101402
من روی یک مشکل مالی در مورد بودجه خانوارها کار می کنم. خانوارها در یک ایالت هر سال فرمی را در مورد بودجه خالص خود پر می کنند و شرکت بیمه ما وضعیت مالی آنها را بررسی می کند و میزان دقیق بودجه آنها را پیدا می کند. بودجه خالص می تواند مثبت یا منفی باشد. من در حال طراحی سیستمی با شبکه عصبی هستم که بتوانیم خانوارهایی را پیدا کنیم که بودجه خالص خود را جعل می کنند، بنابراین خروجی من یک باینری [0 و 1] است که 1 بودجه خالص کاذب و 0 بودجه خالص واقعی است. فرض کنید که بودجه خالص خانوارها P است و نتیجه بررسی شده ما از بودجه خالص R است. همانطور که می دانید: R>=P اکنون این را داریم: اگر P=R پس: معیار = 0 (بودجه خالص واقعی) اگر P> 0 و R>0 : معیار = R-P/R اگر P<0 و R<0 : معیار = (abs(P)-abs(R)) / abs(P) اگر P<0 و R>0 : ???? (بسیاری از خانوارها این وضعیت را دارند و من معیاری برای آن پیدا نمی کنم) اگر P<0 و R=0 : ???? (برخی از خانوارها این وضعیت را دارند و من معیاری برای آن پیدا نمی کنم) اگر P=0 و R>0 : ???? (بعضی از خانواده ها این وضعیت را دارند و من معیاری برای آن پیدا نمی کنم) پس از یافتن این معیارها که باید بین **0 تا 1 [0 1]** باشد، یک آستانه (مثل 0.5) تعیین می کنم، اگر این معیار بالاتر باشد. بیش از 0.5 خانوار در حال جعل بودجه خالص هستند (خروجی = 1) و اگر کمتر از 0.5 باشد بودجه واقعی داریم و مشکلی در بودجه وجود ندارد. اعلام خانوارها (بازده = 0). ** در محدوده [0 1]، اگر جعل بیشتر باشد (بستگی به توابع بالا - P و R دارد) ایجاد به سمت 1 و اگر خانواده صادق باشد به سمت 0 می رود. بنابراین هر خانوار (نمونه) معیاری بین 0 و 1. مشکل اصلی من پیدا کردن یک معیار خوب است که **(P <0 , R>0)**، پس از آن **(P <0، R=0)** و در نهایت **(P=0، R>0)**. اگر در ملاک اول و دوم و سوم مشکلی دارم بی زحمت بگو. من فکر می کنم خروجی وضعیت دوم با سوم متفاوت است زیرا ساختار معیارها متفاوت است. در صورت امکان، من یک تابع معیار واحد را پیدا خواهم کرد. **مثال:** رسانش اول: P = 10، R = 15: معیارها: (15-10/15) = 33.3% (نرخ جعل برای این خانواده) هدایت دوم: P = -16، R = -10: معیارها : (abs(-16)-abs(-10))/abs(-16) = 37.5% ( نرخ جعل برای این خانوار ) حال اگر به عنوان مثال P=-20 و R = 40 باشد، چگونه می توانیم نرخ جعل را محاسبه کنیم؟ . این سوال اصلی است پس از آن چگونه می توانیم زمان (P<0 , R=0) و در نهایت (P=0 , R>0) را محاسبه کنیم؟ **من این معیار را با این روش بررسی می کنم:** برای مثال در معیار اول وقتی P>0 و R>0 داریم P = 5 و R = 10 بنابراین E = 50٪. حال اگر P=fix=5 و R=افزایش (مثلا R=20) E=75% داریم. این از نظر مفهومی در مشکل ما صادق است. وقتی P=5 و R=20 در مقایسه با P=5 و R=10 باید جعل بیشتری داشته باشیم. + وقتی R=fix و P=increase (یا کاهش) باید آن را بررسی کنیم. خیلی ممنون از کمک های شما PS. من 2000 نمونه با مقادیر مختلف P و R دارم.
یافتن معیارهای جعل بودجه مالی خانوار
17577
من الگوریتمی را توسعه دادم که از آزمون کای دو برای انجام گسسته سازی نظارت شده یک متغیر پیوسته استفاده می کند. من آن را در مقاله الگوریتم گسسته سازی Chi-Squared ChiD-A منتشر شده در مجموعه مقالات WUSS 2011 که در http://www.wuss.org/proceedings11 در دسترس است شرح دادم. معیار توقف چندان هوشمندانه نیست و من می خواهم بدانم اگر راه های بهتری برای توقف فرآیند گسسته سازی وجود دارد.
قانون توقف برای الگوریتم گسسته سازی مجذور کای
74865
احتمالاً یک سؤال بسیار اساسی برای پیش‌بینی‌کنندگان در اینجا است، اما من می‌پرسیدم که آیا تفاوت آشکاری بین پیش‌بینی‌های _در نمونه_ و _پیش‌بینی‌های شبه خارج از نمونه_ وجود دارد. هر دو در زمینه ارزیابی و مقایسه مدل‌های پیش‌بینی منظور می‌شوند.
تفاوت بین پیش بینی های داخل نمونه و شبه خارج از نمونه.
81924
آیا کسی می تواند به من توضیح دهد که یک اسپلاین مکعبی چیست و چگونه می توانیم از آن برای درون یابی یک تابع استفاده کنیم؟ من تو اینترنت سرچ کردم ولی یه توضیح ساده میخوام.
توضیح درون یابی اسپلاین مکعبی
101047
من یک نمونه از افراد $N$ دارم. من می دانم (فرض می کنم) که توزیع فراوانی گونه ها از شکل خاصی پیروی می کند، به عنوان مثال، دو جمله ای منفی. یک مثال تودرتو از این نوع توزیع ها در زیر آمده است. (این رقم فرض می کند فراوانی غیر صحیح ممکن است. مال من چنین نیست.) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vYG9C.jpg) نکته مهم این است که من عدد را نمی دانم. از گونه های نمونه من من فقط تعداد کل افراد را می دانم. من می خواهم تعداد گونه ها و فراوانی آنها را با توجه به توزیع خاصی از فراوانی گونه ها محاسبه کنم. فراوانی ها دارای مقادیر صحیح هستند. چگونه می توانم از شکل فرضی (مثلاً دوجمله ای منفی) و تعداد کل افراد، گونه ها و فراوانی آنها را درک کنم؟ راه حل های عددی خوب هستند. _افکار بیشتر:_ فکر می کنم یک مرحله ادغام بسیار ابتدایی وجود دارد که من نمی بینم. من می‌دانم برای یک مشکل مرتبط که در آن فهرستی از گونه‌ها و فراوانی هر کدام را دارم، چه کاری انجام دهم: برای یک نمونه معین $N$، می‌توانم از یک چندجمله‌ای برای ترسیم تحقق با استفاده از فراوانی نسبی استفاده کنم.
ایجاد تحقق توزیع های نمونه
46455
من روی پیش بینی (نه توضیح) یک نتیجه 0/1 کار می کنم که به طور کلی فقط حدود 10٪ 1 دارد (من آزادی نام بردن متغیرها را ندارم). N ~ 40000. رگرسیون لجستیک هم در هنگام استفاده از حدود 5 تا 10 اثر اصلی و هم پس از ایجاد چندین اصطلاح تعاملی پیشنهاد شده توسط روش‌های CHAID، رضایت‌بخش نبود. حساسیت در نهایت فقط حدود 25٪ بود. سپس به شبکه های عصبی (شبکه های تابع پایه شعاعی، در SPSS) روی آوردم. از اینکه دیدم برنامه نتوانست هیچ موردی را به عنوان 1 طبقه بندی کند، بسیار شوکه شدم. یعنی حساسیت صفر بود. **سوال اول**: آیا این یک نتیجه NN معمولی یا قابل درک در این شرایط است؟ در مرحله بعد سعی کردم به طور تصادفی تعداد زیادی از موارد 0 را در مجموعه آموزشی حذف کنم، و کسر 1 را به حدود 40٪ رساندم. اکنون این برنامه توانست به درستی تعداد نیمه مناسبی از موارد را در مجموعه آموزشی با حساسیت حدود 30 درصد شناسایی کند، اما زمانی که محلول روی مجموعه آزمایشی اعمال شد، که یک بار دیگر تنها شامل 10 مورد بود، این میزان به 20 درصد کاهش یافت. % 1 s. **سوال دوم**: چگونه می توانید از این مشکل دور شوید؟
چگونه می توان حساسیت شبکه عصبی را با یک نتیجه باینری یک طرفه بهبود بخشید؟
114545
من نمی‌پرسم آیا پیاده‌سازی‌هایی از جنگل‌های تصادفی وجود دارد که به فرد اجازه می‌دهد شرایط خطا را برای ورودی‌ها ارائه کند. یک عبارت خطا می تواند بر اساس هر متغیر یا بر اساس هر نمونه / متغیر باشد. اگر یک عبارت خطا بر اساس هر متغیر مشخص شده بود، به الگوریتم جنگل تصادفی اجازه می‌دهیم بداند که «این متغیر $A$ دارای خطای نمونه‌گیری $\pm 5\%$ است، در حالی که این متغیر $B$ دارای خطای نمونه‌گیری است. از $\pm 10\%$. اگر یک عبارت خطا بر اساس هر نمونه/متغیر مشخص شده باشد، ما شرایط خطا را در تمام نمونه‌های جداگانه مشخص می‌کنیم. ما به جنگل تصادفی اطلاع می دهیم که برای نمونه 1، متغیر $A$ دارای خطای نمونه برداری $\pm 5\%$ است، و متغیر B دارای خطای نمونه برداری $\pm 8\%$ است، در حالی که نمونه 2، متغیر $A$ دارای خطای نمونه‌برداری $\pm 6\%$ و متغیر $B$ دارای خطای نمونه‌برداری $\pm 12\%$ است. من به ویژه به پیاده سازی در R، C++، C# یا Python علاقه مند هستم.
آیا با Random Forests می توان برای هر متغیر یا هر نمونه یک عبارت خطا ارائه کرد؟
45183
من یک نظرسنجی بسیار ساده برای سنجش نگرش دانش آموزان نسبت به نمایشگاه های علمی ایجاد کرده ام. از مقیاس لیکرت و سؤالات باز استفاده می کند. آیا توصیه ای برای نوع آماری که برای اعتبارسنجی این نظرسنجی استفاده شود دارید؟
چگونه با استفاده از مقیاس لیکرت یک نظرسنجی را اعتبار سنجی کنیم؟
80038
روش آمار احتمالی مورد استفاده در این پست قدیمی OKCupid چیست؟: http://www.economist.com/blogs/johnson/2010/10/sexuality_and_language و این: http://blog.okcupid.com/index.php/ موارد-واقعی-سفیدپوستان-مانند/ در اینجا تنظیم مشکل است: شما مجموعه ای از توصیفات خود کاربران را دارید. کلمات رایج (مسئله شماره 1!) را انتخاب کنید که تفاوت (مسئله شماره 2!) بین N گروه را به حداکثر می رساند، در اینجا N=4 گروه، 2 در 2 بر اساس جنسیت و جنسیت. بنابراین، همانطور که من این را فهمیدم، شما در حال انجام یک NLP معمولی هستید، و یک ماتریس پراکنده می سازید که دارای فرکانس (یا نوعی فرکانس هنجاردار، مانند tf-idf) است. ردیف‌ها اسناد هستند، ستون‌ها تعداد کلماتی هستند که در تمام اسناد در آن مشاهده استفاده می‌شوند. سپس شما از آن شمارش‌های کلمه‌ای استفاده می‌کنید تا مبنایی ایجاد کنید که بر اساس آن مجموعه‌ای از کاربران، مثلاً زنان دگرجنس‌گرا، امتیاز بالایی داشته باشند، اما امتیاز نسبتاً پایینی در 3 مبنای دیگر انتخاب شده در همان زمان دارند. کلمات/ابعاد با بالاترین بارگذاری بر اساس آن/IS/مجموعه خروجی کلمات در نمودار. مسائلی که در بالا به نظر می‌رسند به نظر من دشوار می‌آیند: 1. چه چیزی باعث می‌شود افرادی که این کار را انجام داده‌اند، به‌عنوان وسیله احتمالی تصمیم‌گیری در مورد اینکه آیا کلمات به‌عنوان «متداول» محسوب می‌شوند یا خیر؟ آیا از آستانه استفاده می کنید؟ روش مناسب برای انتخاب برجسته ترین کلمات چیست؟ اگر کاری مانند tf-idf، pmi را انجام دهید، ممکن است موضوعی بودن نسبی یک سند در مقابل یک پیکره را به شما بگوید، اما به نظر می‌رسد این مشکل مشابه موضوعی بودن نسبی مجموعه‌ای از اسناد در مقابل پیکره نیست. 2. روش گروه بندی چیست؟ از آنجایی که من تعداد گروه ها را می دانم، k-means مناسب به نظر می رسد، اما چگونه به صورت مکانیکی روی یک ماتریس پراکنده غول پیکر مانند واژه نامه ها کار می کند؟ من بیش از کمی در بالا دست تکان دادم تا بفهمم کلمه رخداد به عنوان ابعاد مانند ماتریس هایی است که به آن عادت کرده ام. اگر 10000 کلمه در ماتریس پراکنده وجود داشته باشد، آیا تعداد بی نهایت پایه وجود ندارد؟ چه چیزی برای به حداکثر رساندن تفاوت بین گروه‌ها استفاده می‌شود و آیا حداکثر تضمینی وجود دارد؟ علاوه بر K-means، این نیز ساده لوحانه به نظر من شبیه LDA فیشر است، به این معنا که من از ترکیب خطی ویژگی ها (مجموعه ای از کلمات) درخواست می کنم که تفاوت بین گروه ها را به حداکثر می رساند. 3. امتیاز: اگر استمینگ را برای تطبیق یک کلمه در بخش‌های گفتار انجام می‌دهید، چه مدیریت داده‌ای انجام می‌دهید تا فرم‌های ریشه‌دار را به نمایش زیبا بازگردانید؟ (شما نمی توانید یک تابع پایه را معکوس کنید --- بنابراین f(jumping) = jump، f(jumped) = jump، اما هیچ 1-to-1 f^-1 ( jump) = پرش.) یا شاید در این مورد، فیلتری در ابتدا اعمال شده است تا عبارات اسمی را جدا کند؟ هر گونه توصیه یا پیوند به کد در R یا Python مفید خواهد بود
متدولوژی پشت ابرترین-تفاوت-بین-گروه-برچسب-ابر چیست؟
80033
من یک مدل احتمال خطی (LPM) $ p (y = 1 | x_1) = b_0 + b_1x_1 + u $ و یک مدل پروبیت $ p (y = 1 | x_1) = \ phi (b_0 + b_1x_1 + u) $ را تخمین زده ام. جایی که $ \ phi () $ توزیع عادی تجمعی را نشان می دهد. رگرسیون $x_1$ همان متغیر باینری است. مشاهده کردم که احتمالات پیش بینی شده برای هر دو مدل $\hat{y} =\hat{b_0} +\hat{b_1}x_1 $ و $\hat{y} =\Phi(\hat{b_0} + \hat{b_1 }x_1)$ در هر دو مدل یکسان هستند. چرا از منظر تئوریک چنین است؟
چرا احتمالات برازش شده برای مدل احتمال خطی و مدل پروبیت یکسان است؟
62430
مشکل من این است: من نیاز به تجزیه و تحلیل نتایج آزمون دانش آموزان دارم و به دنبال ابزارهایی برای انجام این کار هستم. آنچه من دارم مجموعه ای از نمرات برای تعدادی از آزمون های مختلف و تعدادی از دانش آموزان مختلف است. بنابراین هر دانش آموز ممکن است صفر یا بیشتر نمرات داشته باشد و هر آزمون ممکن است صفر یا بیشتر باشد. برای برخی از آزمون ها (مثلاً **آزمون A**) من 30 امتیاز دارم که در محدوده ممکن (1 تا 9) توزیع شده است. برای یک نقطه جمع آوری دوم من یک مجموعه نتایج مشابه دارم. نمرات به طور متفاوتی توزیع می شوند، اما همچنان در همان محدوده توزیع می شوند. بنابراین، می دانم که می توانم میانگین را محاسبه کنم و به آنها نگاه کنم. اما این مقدار زیادی را به من نمی گوید. اساساً می‌خواهم (1) راهی برای مقایسه یک مجموعه با مجموعه دیگر، و (2) راهی برای کمی کردن آن به یک مقدار عددی پیدا کنم. به این ترتیب می توانم بگویم میزان بهبود بین مجموعه های 1 و 2 دو برابر بیشتر از بین مجموعه های 2 و 3 بود - یا چیزی مشابه. من کمی در مورد اندازه افکت خوانده ام، اما مطمئن نیستم که با هدف من مطابقت داشته باشد یا خیر. علاوه بر این، هر آزمون با محدوده و مقیاس متفاوتی مطابقت دارد. من الگوریتمی را پیدا کرده ام که برای من کار می کند تا نمرات را در یک پایه مشترک نرمال کنم. به شرطی که الگوریتم کاملاً وزن داشته باشد (به خاطر استدلال)، آیا استفاده از داده های چندین آزمون مختلف با هم به عنوان یک «مجموعه» از نمرات بی خطر است؟ برای جمع‌بندی همه چیز، فکر می‌کنم به دنبال ابزاری هستم که در تلاش من برای تعیین کمیت و مقایسه مجموعه داده‌های نمرات آزمون مفید باشد.
تفاوت بین دو نمونه را کمی کنید
13403
من داده هایی دارم که شبیه این هستند، با اندازه گیری تناژ و اندازه گیری تراکم برای هر واگن در دسته ای از قطارها. واگن قطار_بدون تن چگالی A 1 105.5 2.12 A 2 104.9 2.28 A 3 101.2 2.30 A 4 108.7 2.41 B 1 112.3 2.51 B 2 109.7 2.51 B 2 109.7 2.3 تن؟ اسم این کار چیه؟ کد «R» بسیار مفید خواهد بود!** هدف ما این است که تن های بیشتری را در هر کالسکه بگنجانیم، اما تغییر در میانگین به گونه ای است که درصد غیرقابل قبولی از واگن ها را بارگذاری می کنیم. بنابراین باید تغییرات را سخت تر کنیم تا بتوانیم میانگین (یعنی تن کل بیشتر) را بدون اضافه بار افزایش دهیم. چند کار وجود دارد که می توانیم برای بهبود تنوع تناژ انجام دهیم، اما کنترل تراکم یکی از آنها نیست (واکنش به تغییرات چگالی ممکن است امکان پذیر باشد). بنابراین می‌خواهم بفهمم که چگالی چقدر باعث تغییر در تن می‌شود.
تعیین سهم یک متغیر در تغییر متغیر دیگر
62439
فرضیه پروژه تحقیقاتی من این است که آموزش خاصی توانایی در موضوع A را بهبود می بخشد. _**جزئیات نمونه_** گروه ها: 1A (25)، 1B (21)، 2A (25)، 2B(27)، 3A(23)، 3B (23). اعداد داخل پرانتز نشان دهنده تعداد در هر گروه است. کنترل/تجربی: 1A، 2A، 3A گروه های آزمایشی و 1B، 2B، 3B گروه های کنترل هستند. گروه با برچسب (1A, 1B); (2A,2B)؛ (3A,3B) به ترتیب زیر 3 گروه سنی مختلف قرار می گیرند. داده‌های جمع‌آوری‌شده به شرح زیر بود: 1. نمرات پیش‌آزمون و پس‌آزمون برای هر گروه که با استفاده از آزمون توانایی موضوع الف گرفته شد. آزمون های واحد کلاسی که توسط معلم داده می شود). _**تحلیل آماری_** با دانش محدود در آمار تجربی، از نتایج پیش آزمون و پس آزمون برای همه گروه ها برای آزمون توانایی موضوع الف گرفته شد. من یک آزمون تی زوجی برای هر گروه به طور جداگانه انجام دادم. نمرات آزمون واحد B نیز صرفاً برای بررسی تأثیر آموزش بر پیشرفت یک موضوع دیگر، متفاوت از موضوع الف، گرفته شد. سؤالات: به جز آزمون t زوجی، چه ابزار آماری دیگری در راستای فرضیه من کمک خواهد کرد؟ 1\. من می خواهم نمرات توانایی موضوع A را بین گروه کنترل و آزمایش 2 مقایسه کنم. نمرات توانایی موضوع A را در 3 گروه سنی مختلف 3 مقایسه کنید. نمرات آزمون واحد انجام شده در کلاس را به طور جداگانه برای موضوع A و موضوع B 4\ مقایسه کنید. مقایسه نمرات توانایی در موضوع A برای مرد و زن در هر گروه و PS کلی: من از SPSS برای تجزیه و تحلیل آماری استفاده خواهم کرد.
چگونه می توان تأثیر مداخله پیش از درمان، مداخله کنترلی را با سه گروه سنی، دو متغیر وابسته و تأثیرات جنسیتی آزمایش کرد؟
46982
مجلات و کتاب های مربوط به آزمون هم انباشتگی یوهانسن پیشنهاد می کنند که فقط متغیرهای I(1) باید در آزمون هم انباشتگی قرار گیرند. با این حال بسیاری از مجلات مدل سازی رشد اقتصادی و تورم از دو متغیر I(0) در آزمون هم انباشتگی استفاده می کنند. آیا این رویه قابل قبولی است؟ اگر از دو متغیر I(0) در رگرسیون هم انباشته استفاده شود، تفسیر باقیمانده چیست؟
آزمون همجمعی یوهانسن با متغیرهای ثابت
48464
من گزارشی درباره «فاصله‌های اطمینان مبتنی بر نرمال بودن مجانبی» نوشتم. با این حال سرپرستم گفت که تعریف بند دوم اشتباه است اما من نمی دانم چه اشکالی دارد. گزارش را اینجا پیوست کرده ام. میشه لطفا یه نگاهی بندازید و بگید مشکلش چیه؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vJ5BT.png)
فواصل اطمینان بر اساس نرمال بودن مجانبی
46989
به نظر می رسد که باید به طور گسترده پاسخ داده شود، اما من زمان زیادی را صرف جستجو و خواندن کتاب های درسی کرده ام و نتوانسته ام آن را بفهمم. فرض کنید قرص درمانی هیجان انگیز جدیدم را به یک نمونه تصادفی از N نفر و یک قرص دارونما را به نمونه تصادفی M نفر می دهم. A از N نفر می میرند و B از افراد M می میرند. من می خواهم بدانم احتمال مرگ افراد با مصرف دارونما بیشتر از درمان است. در حال حاضر من این کار را انجام می دهم: > داده <- ماتریس(c(A,B,N-A,M-B), nrow=2) > chisq.test(data, correct=FALSE) و به مقدار p نگاه می کنم (که متوجه می شوم اینطور نیست در واقع پاسخ به سوال من است، اما این برای شما مکرر است). و اگر بخواهم فاصله زمانی را بدانم که به احتمال 95% مقدار واقعی در آن قرار دارد، فقط انجام می دهم: > pbar = A/N; se = sqrt(pbar * (1-pbar)/N); e = qnorm(.975)*se; pbar + c(-e, e) اما من معادل بیزی را می خواهم. اکنون می‌دانم که می‌توانم توزیع بتا را با یک پیشین یکنواخت محاسبه کنم و سپس از نمونه‌گیری مونت کارلو برای یافتن پاسخ‌ها استفاده کنم، اما به نظر هک و ناکارآمد است. راه مستقیم تری برای محاسبه پاسخ چیست؟
چگونه می توانم آزمون فرضیه های پایه را در چارچوب بیزی انجام دهم؟
113824
من سعی می‌کنم یک متغیر سری زمانی را مدل‌سازی کنم که درصدی را نشان می‌دهد که بین 0 و 1 محدود شده است، که در مورد میانگین نیز غیر ثابت است. ** آیا فرم مدلی وجود دارد که بتواند رفتار غیر ثابت را در حین تولید پیش‌بینی‌ها در بازه [0،1] توضیح دهد؟ سوال خاص (فقط یک قوز بر اساس خواندن سریع): > پارک، جون ی.، و پیتر سی بی فیلیپس. رگرسیون های غیرخطی با سری های زمانی یکپارچه. Econometrica 69.1 (2001): 117-161. > > پارک، جون وای و پیتر سی بی فیلیپس. انتخاب باینری غیر ثابت. > Econometrica 68.5 (2000): 1249-1280. > > هو، لینگ و رابرت دی یونگ. رگرسیون سانسور شده غیر ثابت mimeo، Ohio > State Uni، 2006. متأسفانه، من از هیچ گونه پیاده سازی (ترجیحاً در R) برآوردگرهای ML مورد بحث بی اطلاع هستم. * * * بنا به درخواست الکوس، در زیر طرحی از سریال است که منجر به این سوال شد! //imgur.com/W6PYAiK.jpeg)
مدلسازی یک سری کراندار غیر ساکن