_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
94807
این تکنیک استانداردی است که من برای محاسبه پارامتر یک مسئله رگرسیون خطی با یک متغیر مستقل استفاده کرده‌ام. چگونه مسئله تخمین پارامتر در رگرسیون خطی چندگانه با متغیرهای مستقل 'k' متفاوت است. من فرض می‌کنم که هر متغیر مستقل را در یک مسئله رگرسیون خطی چندگانه به‌طور جداگانه بررسی می‌کنم، که سپس به من «k» مسائل رگرسیون خطی ساده زیر را می‌دهد، و سپس پارامترهایی را به آن‌ها اضافه می‌کنم تا مدل نهایی خود را ارائه کنم. من درخواست اصلاح یا بهبود دارم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lYevl.gif)
تفاوت عمده بین تخمین پارامتر یک رگرسیون خطی ساده در مقابل چندگانه چیست؟
103086
در ویکی پدیا آمده است که: > به یک خانواده نمایی برداری گفته می شود که بعد $$ > {\boldsymbol \theta} = \left (\theta_1, \theta_2, \ldots, \theta_d \right > ) منحنی است. T$$ کمتر از بعد بردار است $$ {\boldsymbol > \eta}(\boldsymbol \theta) = \left (\eta_1(\boldsymbol \theta)، > \eta_2(\boldsymbol \theta)، \ldots، \eta_s(\boldsymbol \theta) \right )^T.$$ با > $$ f_X(x|\boldsymbol \ تتا) = h(x) g(\boldsymbol \theta) > \exp\Big(\boldsymbol\eta({\boldsymbol \theta}) \cdot \mathbf{T}(x)\Big) $$ اما وقتی بعد $\boldsymbol \eta$ کوچکتر از $\boldsymbol \theta$ باشد چه اتفاقی می‌افتد؟
بعد یک خانواده نمایی در مورد آن خانواده به ما چه می گوید؟
89315
استفاده از کنتراست نوع ویلیامز در آزمون مقایسه چندگانه با بسته «multcomp»، آمار آزمون و مقادیر p-آزمایی متفاوتی را برای مجموعه داده‌های مشابه و فرضیه‌های مشابه ارائه می‌دهد. من می خواهم تفاوت بین این دو روش را بدانم. آیا می توانم از کنتراست نوع ویلیامز از بسته «multcomp» برای انجام آزمایش ویلیامز استفاده کنم (ویلیامز، 1971)؟ من می بینم که افراد زیادی این کار را انجام می دهند، اما مطمئن نیستم که آیا این درست است یا خیر. یک مثال در زیر آورده شده است. مجموعه داده warpbreaks است. نتیجه «glht» این است: آزمون‌های همزمان برای فرضیه‌های خطی عمومی مقایسه‌های چندگانه میانگین‌ها: تضادهای ویلیامز برازش: aov(فرمول = شکست ~ کشش، داده = شکستگی) فرضیه‌های خطی: برآورد Std. خطای t مقدار Pr(>|t|) C 1 == 0 -14.72 3.96 -3.718 0.000827 *** C 2 == 0 -12.36 3.43 -3.604 0.001166 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (مقادیر تنظیم شده p -- روش تک مرحله ای) ماتریس کنتراست برای آزمایش این است: (قطع) کششMH C 1 0 0.0 1.0 C 2 0 0.5 0.5 attr(نوع) [1] ویلیامز و نتیجه اعمال آزمایش اصلی ویلیامز (1971) این است: دوز میانگین MLE Tbar pvaltab WillTab.95% 1 L 36.38889 -36.38889 0.000000 NA NA 2 M 26.38889 -26.3885 -26.385 -26.385% 1.673529 3 H 21.66667 -21.66667 3.458476 <1% 1.753529 WillTab.99% critical_tab.95critical_tab.99 1 NA NA NA 2 2.400588 2.400561 269 -229 -29. 2.444118 -28.92437 -25.98464 کدی که استفاده کردم اینجاست و 'EcotoxTests' بسته ای است که خودم برای انجام تست ویلیامز نوشتم. {r} library(multcomp) amod <- aov(breaks ~ tension, data = warpbreaks) g <- glht(amod, linfct = mcp(tension = Williams)) خلاصه (g) نیاز (EcotoxTests) dat1 <- data.frame(dose=warpbreaks$tension,breaks=warpbreaks$breaks,nums=warpbreaks$breaks) calcWilliams(dat1)
آیا می توانم از کنتراست نوع ویلیامز از بسته «multcomp» برای انجام آزمایش ویلیامز استفاده کنم (ویلیامز، 1971)؟
89318
من داده های فصلی با یک متغیر علی (X) و یک متغیر وابسته (Y) دارم. 30 مشاهده از این قبیل. من متغیر X را برای یک چهارم دارم، و به دنبال پیش بینی Y آن سه ماهه هستم. ساختار سری زمانی من به یک ساختگی فصلی در هر سه ماهه چهارم نیاز دارد - افزایش خرید تعطیلات در Q4. می‌خواهم بدانم نرخ خطا برای پیش‌بینی یک دوره (با استفاده از X)، برای 5-10 دوره آخر چقدر است. چگونه می توانم این را در R پیاده سازی کنم؟
R: یک دوره اعتبار متقاطع ما با سری های زمانی
96260
من می خواهم داده های آب و هوای روزانه یا هفتگی (دما و بارندگی) را از ایستگاه های اندازه گیری خاص در سراسر ایالات متحده دریافت کنم. من به چیزی برون یابی به مختصات خاص خود نیاز ندارم، یک ایستگاه اندازه گیری نسبتا نزدیک کافی است. ترجیحاً می‌خواهم آن داده‌ها را تا آنجا که ممکن است در گذشته داشته باشم. حداقل دهه هفتاد. من می خواهم با داده ها در matlab (و/یا R) کار کنم. چگونه می توانم به راحتی به آنجا برسم؟ من می بینم که Wunderground/NOAA چیزهایی دارد. اما هیچ چیز خیلی آسان به نظر نمی رسد، wunderground به شما نیاز دارد که هزاران فایل متنی را دانلود کنید و نحوه ساخت یک سری زمانی را بیابید.
داده های بلند مدت آب و هوا - چگونه بدون درد به آنجا برسیم
16142
من یک نظرسنجی انجام دادم و از افراد گروه‌های درآمدی مختلف در مورد مخارج سالانه‌شان در گروه‌های مصرفی مختلف مانند غذا، پوشاک، مسکن و غیره پرسیدم. سپس میزان هزینه‌شده توسط افراد با گروه‌های درآمدی مختلف در این دسته‌ها را به عنوان درصدی از درآمد کل آنها محاسبه کردم. اکنون، برای رسم این داده ها و یافتن بهترین خط مناسب از کدام نوع تحلیل رگرسیون باید استفاده کنم. همچنین آیا ابزارهای آماری خوب دیگری وجود دارد که بتوانم از آنها برای بهره برداری از این داده ها استفاده کنم؟
از کدام نوع تحلیل رگرسیون برای داده های الگوی مصرف استفاده کنم؟
56980
من نمی دانم که آیا باید سطح معنی داری آزمون های t زوجی را به دلیل آزمایش های متعدد (برای جلوگیری از احتمال خطای نوع 1) تنظیم کنم، اگرچه آزمون ها مستقل هستند. این چیزی است که من سعی می کنم آزمایش کنم: 4 گروه از شرکت کنندگان هر کدام تحت یک روش دستکاری خلقی متفاوت قرار گرفتند. برای آزمایش اثر دستکاری خلق و خو، از تست یادآوری کلمه استفاده می‌کنم، که در آن مقدار کلمات مثبت به‌خاطر به‌درستی با مقدار کلمات منفی که به‌درستی یادآوری شده‌اند مقایسه می‌شود. به عبارت دیگر، من در حال انجام 4 آزمون t زوجی (تعداد کلمات مثبت در برابر تعداد کلمات منفی)، یکی برای هر گروه هستم. آیا باید آزمایش های متعدد را تصحیح کنم - و اگر بله - در این شرایط کدام روش تصحیح را توصیه می کنید؟
تصحیح خطای نوع 1 در آزمون های t زوجی چندگانه؟
69802
من در حال کار با PCA برای کاهش ابعاد به مجموعه ای از داده ها هستم. من 1600 نقطه داده با 36 متغیر دارم و می خواهم ماتریسی با مجموعه داده جدید با 6 جزء اصلی داشته باشم. من موفق شدم این کار را در متلب انجام دهم، بنابراین دارم: xtrain (نرمال شده) <1600x36> و می نویسم: coeff=pca(xtrain,'NumComponents',6) که یک ماتریس <36x6> به من می دهد تا اینجا خیلی خوب است. حالا می‌خواهم بدانم چگونه روند را معکوس کنم. اگر مجموعه داده ای به من داده شود که چگونه از ماتریس coeff برای ارسال آن به یک نمایش n x 36 استفاده کنم؟ من می خواهم این کار را در متلب انجام دهم اما یک توضیح ساده می تواند به من کمک کند.
PCA معکوس با ماتریس غیر مربعی
51976
من با 'shapiro.test' از R بازی می کنم و غیرعادی بودن واریانس خطا را بررسی می کنم. > shapiro.test(residuals(fit)) داده های تست نرمال Shapiro-Wilk: residuals(fit) W = 0.9525، p-value = 0.0003303 > shapiro.test(residuals(lm(sqrt(V1)~V2,data=market) ) ) داده های تست نرمال بودن Shapiro-Wilk: residuals(lm(sqrt(V1) ~ V2، داده = بازار)) W = 0.8895، p-value = 5.89e-08 > shapiro.test(residuals(lm(log(V1)~V2،data=market))) داده های تست نرمال Shapiro-Wilk: باقیمانده (lm(log(V1) ~ V2، داده = بازار)) W = 0.7698، p-value = 1.95e-12 > shapiro.test(residuals(lm(1/(V1) ~ V2,data=market))) داده های تست نرمال Shapiro-Wilk: residuals(lm(1 /(V1) ~ V2، داده = بازار)) W = 0.3954، p-value < 2.2e-16 مقدار p برای تست نرمال بودن <0.001 است. بنابراین من یک تبدیل روی V1، log(Y)، inverse(Y) و sqrt(Y) انجام دادم اما مقادیر p آنها حتی کوچکتر می شود. آیا این بدان معنی است که این تحولات کار نمی کند؟ من همچنین یک تبدیل boxcox انجام دادم و مقدار p 0.3 را دریافت کردم. بنابراین در این مورد، boxcox بهترین درمان فقط در این مورد است؟ یا باید در آینده برای رفع غیرعادی بودن از «boxcox» استفاده کنم؟ بقیه روش های تبدیل معمول بی فایده هستند؟
تست شاپیرو و تبدیل
65164
فرض کنید یک نمونه iid $X_1، \dots، X_n$ داریم. ما می خواهیم آزمایش کنیم که آیا توزیع نرمال استاندارد دارد یا خیر. یک آمار آزمایشی که از مقدمه براکول و دیویس بر سری های زمانی و پیش بینی آموختم این است که * ابتدا بازه $(-b, b)$ را پیدا کنید که احتمال $95\%$ را تحت توزیع نرمال استاندارد دارد * سپس نسبت $ را محاسبه کنید. r$ از نقاط نمونه به $(-b,b)$ می‌افتد. کتاب همچنان می‌گوید اگر $r$ برابر با $95\%$ نیست، آن را رد کنید. اما به نظر من درست نیست. کاری که من فکر می کنم باید به جای آن انجام شود این است که توزیع $r$ را در زیر null پیدا کنیم (و سپس ناحیه رد $r$ را پیدا کنیم). اما من مطمئن نیستم که چگونه این کار را انجام دهم؟ این تست باید قدرت بسیار کمی داشته باشد، اینطور نیست؟ زیرا آمار آزمون فقط اطلاعات کمی در مورد توزیع نمونه می گیرد؟ با تشکر و احترام! PS: در صورتی که درک من اشتباه باشد، متن اصلی کتاب می گوید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Xo7rS.png) توجه داشته باشید که کتاب نحوه تست کردن یک نمونه iid است، اما ایده اصلی آن این است که آزمایش کند آیا همبستگی خودکار نمونه با توزیع $N(0,1/n)$ iid است، که همان سوالی است که در پست من وجود دارد.
آزمایشی برای اینکه آیا یک نمونه توزیع مشخصی دارد یا خیر
90953
_R in Action_ (Kabacoff، 2011) روال زیر را برای آزمایش پراکندگی بیش از حد در رگرسیون لجستیک پیشنهاد می کند: رگرسیون لجستیک متناسب با استفاده از توزیع دو جمله ای: model_binom <- glm(Species==versicolor ~ Sepal.Width, family=binomial() داده = عنبیه) رگرسیون لجستیک برازش با استفاده از توزیع شبه‌جملی: model_overdispersed <- glm(Species==versicolor ~ Sepal.Width, family=quasibinomial(), data=iris) برای آزمایش پراکندگی بیش از حد از مربع خی استفاده کنید: pchisq(summary(model_overdispersed)$dispersion * model_binom$df.residual, model_binom$df.residual، پایین تر = F) # [1] 0.7949171 آیا کسی می تواند توضیح دهد که چگونه و چرا از توزیع خی دو برای آزمایش پراکندگی بیش از حد در اینجا استفاده می شود؟ مقدار p 0.79 است - چگونه این نشان می دهد که پراکندگی بیش از حد در مدل توزیع دوجمله ای مشکلی ندارد؟
آزمایش برای پراکندگی بیش از حد در رگرسیون لجستیک
51974
بگویید من توزیعی دارم، یا با تابع چگالی احتمال که قابل انتگرال و پیوسته است، یا با مجموعه ای از احتمالات گسسته بر روی مجموعه ای محدود از نمادها توصیف می شود. من می خواهم نمونه هایی را از این توزیع به طور موثر تولید کنم. من به ارجاع به الگوریتم‌های دیگر اهمیتی نمی‌دهم، می‌خواهم بدانم آیا این ایده اساساً درست است یا چگونه آن را بهبود بخشم. من در حال حاضر چگونه این کار را برای حالت گسسته انجام می دهم: 1. تابع احتمال تجمعی را تشکیل می دهم (که در نماد i به عنوان مجموع همه احتمالات از نماد اول تا نماد ith تعریف می شود). 2. سپس، یک بازه، [0,max(CDF)] وجود دارد و خروجی یک عدد تصادفی IID در هر نقطه از آن بازه با استفاده از یک PRNG معمولی امری بی اهمیت است. 3. از آنجایی که اکنون هر نماد با یک بازه مرتبط است، نمادی را که شماره IID در بازه آن قرار گرفته است را خروجی می دهیم. برای من کاملاً بدیهی به نظر می رسد که دنباله خروجی ویژگی های توزیع گسسته داده شده را داشته باشد و تا PRNG اصلی بهینه است. اکنون می‌خواهم به حالت پیوسته بپردازم (این ممکن است الگوریتم Ziggurat باشد، و اگر چنین است، پسر خوشحالم که مستقیماً به آن پریدم). اما آیا نمی‌توانیم PDF را به سادگی ادغام کنیم تا یک CDF بدست آوریم، دوباره بازه [0,max(CDF)] را تشکیل دهیم و دوباره در این بازه به صورت تصادفی IID شلیک کنیم، و دوباره، و این قسمت مشکل برای من است، _associate_ **_each_ ** _نمونه_نماد_ (که تعداد آنها بی نهایت زیاد است) _با یک_ **_فاصله_**. سپس نماد نمونه را که شماره ID در بازه آن قرار گرفته است، خارج کنید. بنابراین، سوال من این است: چگونه می توانم نمادهای نمونه را با بازه ها مرتبط کنم؟ احتمالاً با گسسته کردن (قرار دادن در سطل ها) فاصله نماد نمونه، و دادن احتمال یکسان به هر چیزی در یک سطل. اندازه سطل ها را می توان طوری تعیین کرد که در طول جریان خروجی مورد نظر، هیچ انحراف قابل تشخیصی از توزیع پیوسته زیرین ایجاد نکند. همچنین، من این کار را در جاوا اسکریپت انجام می دهم. این یک DIY است بنابراین من علاقه ای به اعتماد یا استفاده از کد شخص دیگری ندارم. اما من هم علاقه ای به صرف 2 روز برای آن ندارم. من اینجا می پرسم چون در توزیع ها متخصص نیستم و می خواهم قبل از اجرای این ایده، ایده ها را اصلاح کنم.
در مورد این روش نمونه گیری از هر توزیع نظر دهید؟
5967
ما در حال کار بر روی یک مدل رگرسیون خطی چند متغیره هستیم. هدف ما پیش‌بینی رشد سه ماهه وام‌های رهنی معوق است. متغیرهای مستقل عبارتند از: 1) سطح داو جونز. 2) درصد تغییر در داو جونز در سه ماهه گذشته. 3) شاخص قیمت مسکن مورد شیلر. 4) درصد تغییر در شاخص قیمت مسکن کیس شیلر طی سه ماهه گذشته. در یک فرآیند رگرسیون گام به گام، تمامی متغیرهای فوق انتخاب شدند. و متغیرهای 1) و 3) به طرز شگفت آوری معنی دار بودند. اما، این زمانی است که در ترکیب استفاده شود. به نوعی، چیزی در مورد تفاوت این دو شاخص وجود دارد که تا حدودی درصد تغییر در وام های رهنی معوق را توضیح می دهد. به نوبه خود، من متغیرهای 1) و 3) را مشکل ساز می دانم. این به این دلیل است که من معتقدم آنها هتروسکداستیک هستند. و بنابراین، فاصله اطمینان ضرایب مربوطه آنها غیر قابل اعتماد است. من همچنین فکر می کنم که آنها ممکن است مشکلات چند خطی با متغیرهای مرتبط خود را بر اساس تغییر درصد داشته باشند. آنها همچنین ممکن است برخی از مشکلات خودهمبستگی را ایجاد کنند. با این حال، در ابتدا به نظر می رسد برخی از نگرانی های من ممکن است اغراق آمیز باشد. پس از ترسیم نمودار باقیمانده‌های کل مدل، به نظر خوب می‌رسند. آنها روند صعودی ندارند. بنابراین، به نظر می‌رسد که هتروسکداستیکی یک مسئله برای کل مدل نیست. چند خطی بودن خیلی بد نیست. متغیر با بالاترین VIF حدود 5 بسیار کمتر از آستانه معمول 10 است. ضرایب رگرسیون خاص متغیرهای ذکر شده ممکن است (یا به طور خاص، فواصل اطمینان مربوطه) نباشد.
آیا می توانید از متغیرهای سری زمانی هتروسکداستی در یک مدل رگرسیون استفاده کنید؟
5969
من تحقیقات روانشناسی تفاوت های فردی شبه تجربی انجام می دهم. من بررسی می‌کنم که چگونه افرادی که در توانایی شناختی متفاوت هستند (که من اندازه‌گیری می‌کنم) در کار دیگری که همیشه حداقل شامل دستکاری‌های درون موضوعی (و گاهی اوقات بین سوژه‌ها) است – DV معمولاً زمان پاسخ و/یا دقت دارند. برای این سوال می‌خواهم روی زمان‌های پاسخ تمرکز کنم (فرض کنیم که معمولاً توزیع می‌شوند). سپس از روابط توانایی-تکلیف استنباط می کنم که از نظر نظری برای توانایی شناختی چه معنایی دارد. ماهیت این کار همبستگی است و شامل اندازه گیری های مکرر است که در آن هر آزمودنی کارآزمایی های زیادی را تکمیل می کند (بیشتر من به تغییرات در طول زمان علاقه ای ندارم، فقط به تفاوت کلی). محققان رشته من اغلب متغیرهای طبقه بندی شده را از نمرات توانایی شناختی ایجاد می کنند و چارک های بالایی و پایینی توزیع را با ANOVA اندازه گیری های مکرر مقایسه می کنند. از آنجایی که توانایی شناختی به طور مداوم سنجیده می شود، من به دنبال یک استراتژی تحلیلی هستم که توانایی شناختی را به این شکل درمان کند. من اخیراً در حال بررسی مدل‌های مختلط بوده‌ام و فکر می‌کنم که می‌توانم افراد را به‌عنوان یک متغیر گروه‌بندی اثر تصادفی و امتیاز توانایی شناختی را به‌عنوان یک اثر تصادفی در درون افراد در نظر بگیرم. من می خواهم تعامل بین این اثر تصادفی تودرتو (توانایی شناختی) و اثرات ثابت درمان های تجربی را با انجام مقایسه مدل بررسی کنم. آیا این یک استراتژی تحلیلی معقول به نظر می رسد؟ آیا به این موضوع درست فکر می کنم؟ راه‌های دیگری (هرچه ساده‌تر، بهتر) وجود دارد که می‌توانم از اقدامات مکرر -حذف واریانس موضوع تجربی- بهره ببرم و در عین حال معیار توانایی شناختی را به عنوان یک معیار مستمر حفظ کنم؟ هر گونه نقل قول یا مثال در R قدردانی می شود. در یک آزمایش معمولی، من انتظار دارم که از 1-3 IV طبقه بندی شده با 2-4 سطح (اندازه گیری شده توسط آزمایش های متعدد) و 1 IV مداوم (توانایی شناختی) وجود داشته باشد. ماهیت دقیق متغیرهای طبقه بندی از مطالعه ای به مطالعه دیگر تغییر می کند. طرح ها به طور کامل تلاقی دارند.
چگونه باید آزمایش‌های تفاوت‌های فردی با اندازه‌گیری‌های مکرر را تجزیه و تحلیل کنم؟
51977
من داده های شمارش طبقه بندی شده ای دارم که از یک نظرسنجی پیچیده به دست آمده است. هر واحد تجزیه و تحلیل در نظرسنجی (خانوار، فرد، و غیره) در یک دسته بندی در هر بعد قرار می گیرد که از 2 تا 20 دسته در هر بعد متغیر است. تعداد ابعاد بیش از 50 است. نظرسنجی یک برآورد واریانس را گزارش می‌کند که بر اساس خوشه‌بندی و طبقه‌بندی در طرح بررسی برای هر شمارش تصحیح شده است. من سه سوال نزدیک به هم دارم: 1. آیا این واقعیت که واریانس تعداد سلول‌ها به چیزی غیر از مقدار تعداد یا احتمال سلول زیربنایی بستگی دارد، نشان می‌دهد که این سلول‌ها بر اساس توزیع پواسون توزیع نشده‌اند؟ 2. اگر نه، چرا؟ 3. اگر چنین است، می توانیم بگوییم که کدام توزیع احتمالاً صحیح است یا نامزدهای خوب کدامند؟ من به دوجمله ای منفی فکر می کردم، اما این فقط یک ضریب بیشتر به شما می دهد، در حالی که نتایج نظرسنجی شامل یک تصحیح واریانس متمایز برای هر سلول است.
برای داده های شمارش از یک نظرسنجی، آیا اصلاحات واریانس برای طراحی پیمایش نشان می دهد که توزیع پواسون به طور دقیق شمارش ها را مدل نمی کند؟
89317
من سعی می کنم برخی از محاسبات نسبت شانس را که در این مقاله گزارش شده است تکرار کنم. به عنوان مثال در مقاله صفحه 3 در Strome et al. داده های مربوط به لوزه ها: 52 مورد و 48 مورد کنترل وجود دارد. HPV % موارد = 40 % و شاهد = 6 % . با تبدیل درصدها به ارقام خام، جدول 2×2 زیر را دریافت می کنم: مورد کنترل HPV مثبت 21 3 HPV منفی 31 45 بنابراین نسبت شانس باید $=\frac{21\cdot45}{31\cdot3} = 10.16$ باشد. با این حال مقاله این نسبت شانس خاص را در صفحه زیر 18.2 گزارش می کند. کسی میدونه چرا اینجوریه؟ آیا آنها از فرمول متفاوتی استفاده می کنند؟
نمی توان نسبت شانس را تکرار کرد
56982
توجه: این سوال عمدتاً مربوط به پیش‌بینی‌های یک مدل است. اگر واحد تجزیه و تحلیل یک رگرسیون (یا هر مدل پیش‌بینی‌کننده واقعاً) خرده‌فروشی فردی باشد و این فروشگاه‌ها در مناطق جغرافیایی سازماندهی شوند، چه زمانی منطقی است که متغیرهایی را که منطقه جغرافیایی را توصیف می‌کنند (یعنی دانه درشت‌تر از واحد) لحاظ کنیم. از تجزیه و تحلیل) در مقابل فقط اضافه کردن یک عامل (متغیر اسمی) برای هر منطقه؟ به عنوان مثال، افزودن یک عامل برای هر منطقه به معنای واقعی کلمه متغیری است که مقادیر 'A'، 'B'...... و غیره را به خود می گیرد. سایر توصیفات منطقه ممکن است تعداد کل خانوارها، درآمد سرانه باشد. و غیره با توجه به این تنظیم، دو مورد وجود دارد که می‌توانم به آن فکر کنم و می‌خواهم بدانم که اضافه کردن توضیحات اضافی در مورد منطقه (در مقابل فقط عامل) منطقی است: 1) ما انتظار توصیف را نداریم. برای تغییر در طول زمان، از مدل برای پیش‌بینی استفاده می‌کنیم (به عنوان مثال، ما 2013 اطلاعات کل خانواده در هر منطقه داریم و تا سال 2016 به‌روزرسانی دریافت نخواهیم کرد). 2) ما انتظار داریم که در طول زمانی که از مدل برای پیش‌بینی استفاده می‌کنیم، توضیحات تغییر کند (به عنوان مثال، ما اطلاعات کل خانوار 2013 را در هر منطقه داریم و ماه آینده به‌روزرسانی دریافت خواهیم کرد - یا هر زمان که بعد از پیش‌بینی استفاده کنیم).
پیش بینی های سلسله مراتبی در یک رگرسیون
89310
من سعی می‌کنم با راه‌اندازی مناطق پیش‌بینی مشترک که در این مقاله توضیح داده شده است راحت باشم: http://www.nccr-finrisk.uzh.ch/media/pdf/wp/WP748_A3.pdf این بازه‌های پیش‌بینی را محاسبه می‌کند، $I_j$ برای تمام نقاط زمانی $j$، به طوری که تمام نقاط داده یک مسیر پیش بینی در این منطقه با احتمال $1-\alpha$ قرار دارند، یعنی: $P(y_j \in I_j \forall j) = 1-\alpha$ نویسندگان مقاله این ایده را به «نرخ خطای k-family عاقلانه» تعمیم می‌دهند که با نیاز به حداقل k نقطه داده از مسیر پیش‌بینی، فواصل زمانی را محدود می‌کند. خارج از منطقه قرار دارد: $P(\sum_1^N1[y_j \notin I_j] >= k) = 1-\alpha$ که در آن $1[.]$ تابع نشانگر است که در صورت مطابقت با شرط 1 و در صورت نادرست بودن 0 می دهد. N تعداد نقاط داده پیش بینی شده است. با بازی کردن، متوجه شدم که برای $k=N/2$، فواصل پیش‌بینی مشترک نرخ خطای k-family با فواصل پیش‌بینی حاشیه‌ای یکسان به نظر می‌رسد، به‌عنوان مثال: به نظر می‌رسد موارد زیر $I_j$ $P(\sum_1) یکسان را نشان می‌دهند. ^N1[y_j \notin I_j] >= N/2) = 1-\alpha$ $P(y_j \in I_j) = 1-\alpha$ آیا این تصادفی است؟ چگونه می توان این را به صورت رسمی نشان داد؟
فواصل پیش‌بینی مشترک در مقابل حاشیه برای پیش‌بینی مسیر (با میزان خطای k-family)
64699
من می خواهم 3 طبقه بندی کننده (kNN، SVM و CT) را با استفاده از دقت طبقه بندی آنها در 10 برابر مقایسه کنم تا تفاوت های احتمالی بین آنها را برجسته کنم. من فکر می کنم می توان آن را با تجزیه و تحلیل ANOVA دو طرفه، که در آن طبقه بندی کننده ها = فاکتورها و folds = بلوک ها، در صورتی که برخی فرضیات در مورد داده ها تأیید شوند، انجام شود. پس از ویکی‌پدیا، مفروضات عبارتند از: 1. جمعیت‌هایی که نمونه‌ها از آن‌ها به دست می‌آیند باید به طور معمول توزیع شوند. 2. نمونه برداری به درستی انجام می شود. مشاهدات برای درون و بین گروه ها باید مستقل باشد. 3. واریانس بین جمعیت ها باید برابر باشد (همسانی). 4. داده ها فاصله ای یا اسمی هستند. من به کمک نیاز دارم که چگونه آنها را در پرونده خود تأیید کنم. 1. آیا باید بررسی کنم که برای هر طبقه‌بندی کننده، 10 دقت آن به طور معمول توزیع می‌شود و/یا اینکه برای هر فولد، 3 دقت به طور معمول توزیع شده است؟ 2. مشاهدات درون گروهی مستقل هستند زیرا من از مجموعه تست های متفاوتی برای هر فولد استفاده می کنم. آیا من اشتباه می کنم؟ مشاهدات بین گروه‌ها مستقل هستند زیرا تصور می‌کنم طبقه‌بندی‌کننده‌ها به روشی مستقل عمل می‌کنند. آیا آنها نیستند؟ 3. آیا باید بررسی کنم که هر گروهی که در نقطه اول توضیح داده شد واریانس یکسانی دارند؟ 4. مشکلی در مورد من وجود ندارد. آیا راهی سریع برای تأیید همه فرضیات در Matlab وجود دارد؟
مفروضات ANOVA دو طرفه و اعتبار سنجی متقابل k-fold
60536
وضعیت من این است: طبقه بندی باینری و من یک مجموعه آموزشی از تقریباً 250 هزار نمونه و 10 ویژگی و یک مجموعه اعتبار سنجی تقریباً 100 هزار با همان تعداد ویژگی دارم. من GBDT را با نمونه برداری فرعی به داده ها تطبیق می دهم، بنابراین حدس می زنم BGBDT؟ به هر حال من مجموعه آموزشی را برداشتم و آن را 80/20 تقسیم کردم و یک جستجوی شبکه ای در فضای پارامتر (با استفاده از اعتبارسنجی متقاطع) روی 80٪ انجام دادم و سپس با استفاده از پارامترهای به دست آمده از شبکه، یک مدل جدید را در 20٪ قرار دادم. جستجو کنید و از Log loss برای تعیین خطا استفاده کنید. 20٪ از 80٪ جدا هستند و آموزش می بینند. باشه خوبه من در حال دریافت نتایج خوبی برای از دست دادن ورود به سیستم در مدل نگه‌داشته‌شده برای 20% هستم و بر تخمین خارج از کیف انحراف در طول فرآیند درخت‌سازی نظارت می‌کنم که در طول اجرا در حال کاهش است. به طور کلی من تقریباً 150 درخت را آموزش می‌دهم، نمونه‌برداری فرعی در 0.25، با نرخ یادگیری 0.1، و حداکثر عمق 10. نتایج حاصل از آموزش نمونه‌های نگه‌داشته‌شده به این روش، نتایج خوبی به دست می‌دهد... اگر مشکلی در اضافه کردن وجود داشت. من انتظار دارم که نمونه های نگهداری شده عملکرد خوبی نداشته باشند. اما وقتی مدل را در کل مجموعه آموزشی مجدداً آموزش می‌دهم و سپس روی مجموعه اعتبارسنجی پیش‌بینی می‌کنم، نتایج من بسیار ضعیف است. نکته قابل توجه این است که مجموعه های آموزشی و اعتبارسنجی به طور یکنواخت از توزیع یکسان نمونه برداری می شوند و کلاس ها متعادل هستند. پیشنهادات؟
GBDT و ساختمان مدل: چگونه بیش از حد برازش می کنم؟
56986
من مدل coxph زیر را دارم: Surv(Y) ~ ژنوتیپ + درمان + سن + شکنندگی (دسته ای) + ژنوتیپ: شکنندگی (دسته ای) گروهی یک اثر تصادفی است (دو تکرار از آزمایش با افراد مختلف انجام شد) . رویدادها فقط می توانند یک بار در هر موضوع اتفاق بیفتند. خروجی خلاصه به این صورت است: coef se(coef) se2 Chisq DF p genotypeTG -0.2504 0.44224 0.43550 0.32 1.00 5.7e-01 treatX -0.6695 0.16379 0.1604-0.160570. 0.0135 0.00839 0.00829 2.59 1.00 1.1e-01 شکنندگی (دسته ای) 1.39 0.94 2.2e-01 ژنوتیپTG: شکنندگی (دسته ای) -1.3479 0.41193035.0. 7.6e-04 ژنوتیپ TG:شکستگی(دسته ای) 0.00000 0.00000 1.00 سوال من این است: با توجه به اینکه تعامل قابل توجهی بین ژنوتیپ و دسته وجود دارد، آیا ضریب ژنوتیپ خلاصه ای از دو دسته است یا فقط برای دسته ای است که مدل وجود دارد. استفاده به عنوان گروه مرجع؟ اگر اولی بود، چگونه می توانم برآوردهای دسته ای خاص را استخراج کنم؟ اگر مورد دوم است، چگونه ضریب کلی و SE آن را بسازم؟ با تشکر * * * به‌روزرسانی: با بازی کردن با «predict()» و «coef()» متوجه شدم: > coef(myfit) genotypeTG treatX سن گاما:batch1 گاما:batch2 genotypeTG:شکستگی(بچ)1 ژنوتیپTG:شکستگی(گروهی) 2 -0.25044857 -0.66945067 0.01350297 -0.17817716 0.15117985 -1.34789198 NA > cbind(mynewdata,predict(myfit,mynewdata)) گروه سنی تیمار ژنوتیپ پیش‌بینی‌شده 1 WT Z 0 دسته Z1 0.61 T -0.95417945 3 WT X 0 Batch1 -0.02528956 4 TG X 0 Batch1 -1.62363012 5 WT Z 0 batch2 0.97351812 6 TG Z 0 Batch2 0.723063040 0.723063050 TG X 0 batch2 0.05361887 ...با فرض عدم وجود اشکال در «predict.coxph.penal()»، به این معنی است که سه ضریب اول فقط برای «batch1» هستند. برای گروه هایی که سطحی دارند که با عبارت شکنندگی تعامل دارد، ضریب تعامل آن دسته را علاوه بر ضریب/های آن متغیرها اضافه می کنم. برای به دست آوردن تخمین‌های «batch2»، کارهای بالا را انجام می‌دهم، اما وقفه شکنندگی «batch1» را نیز کم می‌کنم، وقفه شکنندگی «batch2» را اضافه می‌کنم و سپس ضرایب دیگری را در صورت لزوم اضافه می‌کنم. اصطلاح تعامل برای «batch2» NA است اما ظاهراً اضافه نمی‌شود. سوال من اکنون به این کاهش می یابد که چگونه می توانم ضرایب و SE های کلی را بدست بیاورم (یعنی معادل آنچه که summary.lme() گزارش می دهد اگر این lme تناسب بود)؟ همچنین، آیا باید نگران این باشم که یکی از ضرایب برهمکنش شکنندگی NA است و خلاصه برخی از ضرایب شکنندگی را حذف می کند؟ * * * یا آیا با اجازه دادن به تعامل بین یک اصطلاح ضعیف و یک اثر ثابت مشکلات غیرضروری برای خودم ایجاد می کنم؟ استدلال من این بود که stepAIC() دو طرفه این تعامل را به عنوان بهبود تناسب مدل شناسایی کرد. این نشان می دهد که پاسخ موجودات تراریخته ممکن است به طور سیستماتیک متفاوت از پاسخ موجودات عادی بین دو آزمایش تکراری باشد. بنابراین، نادیده گرفتن تعامل به منزله نادیده گرفتن این منبع خطا از طریق رفتار با آزمایش‌ها به گونه‌ای است که گویی فقط خطر خط پایه بین آنها متفاوت است. آیا این استدلال در جایی ایراد دارد؟
چگونه اصطلاحات شکنندگی را در یک مدل coxph.penal تفسیر کنیم؟
17239
من در حال تجزیه و تحلیل یک ابزار نظارتی هستم که در آن افراد می توانند با یک یا هر دو روش جمع آوری شوند. بنابراین به نظر می رسد مانند یک نمودار ون. اگر تفاوت های قابل توجهی در روش ها برای ویژگی های مختلف وجود دارد، از چه آزمایشی برای آزمایش استفاده کنم؟ تنها بسته آماری که من به آن دسترسی دارم SAS است، بنابراین لطفاً کاری را که می توان در آن انجام داد توصیه کنید. با تشکر
از چه آزمونی برای دسته بندی های همپوشانی استفاده شود
5696
من چندین کدنویس مستقل دارم که سعی می‌کنند رویدادها را در یک سری زمانی شناسایی کنند -- در این مورد، تماشای ویدیوی گفتگوی رو در رو و جستجوی رفتارهای غیرکلامی خاص (مثلاً تکان دادن سر) و کدگذاری زمان و دسته‌بندی هر کدام رویداد این داده‌ها می‌توانند به‌عنوان یک سری زمانی گسسته با نرخ نمونه‌برداری بالا (30 فریم در ثانیه) یا به‌عنوان یک سری زمانی پیوسته در نظر گرفته شوند، هر کدام که کار با آن آسان‌تر است. من می‌خواهم مقداری از قابلیت اطمینان بین ارزیاب‌ها را محاسبه کنم، اما انتظار دارم در رویدادهای _when_ عدم قطعیت وجود داشته باشد. یعنی، من انتظار دارم که یک کدنویس ممکن است، برای مثال، رمز کند که یک حرکت خاص یک ربع دیرتر از زمانی که دیگر کدنویس ها فکر می کردند شروع شده است، کد کند. اگر کمک کند، این رویدادهای نادر هستند. معمولاً حداقل چند ثانیه (صدها فریم ویدیو) بین رویدادها. آیا روش خوبی برای ارزیابی قابلیت اطمینان بین ارزیاب‌ها وجود دارد که به هر دو نوع توافق و عدم توافق نگاه می‌کند: (1) آیا ارزیاب‌ها در مورد رویدادی که رخ داده است (در صورت وجود) توافق دارند و (2) آیا آنها در مورد زمان وقوع آن توافق دارند؟ مورد دوم برای من مهم است زیرا علاقه مندم به زمان وقوع این رویدادها نسبت به سایر اتفاقات در گفتگو نگاه کنم، مانند آنچه مردم می گویند. به نظر می‌رسد تمرین استاندارد در زمینه من این است که چیزها را به برش‌های زمانی تقسیم کنم، مثلاً 1/4 ثانیه یا بیشتر، رویدادهایی را که هر کدگذار در هر برش زمانی گزارش می‌کند، جمع‌آوری کنم، سپس کاپا کوهن یا برخی معیارهای مشابه را محاسبه کنم. اما انتخاب مدت زمان تکه تکه‌ای است، و من تصور خوبی از عدم قطعیت در زمان رویدادها ندارم. بهترین فکری که تاکنون داشته ام این است که بتوانم نوعی منحنی قابلیت اطمینان را محاسبه کنم. چیزی شبیه کاپا به عنوان تابعی از اندازه پنجره که در آن دو رویداد را همزمان در نظر می‌گیرم. من واقعاً مطمئن نیستم که از آنجا به کجا بروم ...
قابلیت اطمینان بین ارزیاب برای رویدادهای یک سری زمانی با عدم قطعیت در مورد زمان رویداد
69112
من حجم نمونه کل 12 نمونه خاک را دارم که به 4 گروه $n=3$ تقسیم شده اند. تعدادی از متغیرهای مختلف مانند محتوای کربن آلی اندازه گیری شد. جمع آوری این داده ها از نظر لجستیکی دشوار و پرهزینه است، بنابراین جمع آوری داده های بیشتر امکان پذیر نیست. حالا میخواهم میانگین 4 گروه ($n=3$) را با تست مقایسه کنم. اما این مشکل وجود دارد که توزیع نرمال (Shapiro-Wilk) و homoscedasticity (Brown-Forsythe/Levene) در هر نمونه داده نشده است. پس کدام آزمون را ترجیح دهم؟ نظر شما چیست؟ آیا حتی استفاده از آمار تست در این مورد مفید است؟ آیا هیچ جایگزینی در زیر آمار توصیفی وجود دارد؟ * * * خوب، در اینجا برخی جزئیات وجود دارد. نمونه های خاک از محل آزمایش طولانی مدت با چهار تیمار مختلف (شخم، بدون خاکورزی و غیره) می باشد. از هر یک از این چهار تیمار 3 نمونه خاک دارم. متغیرهای مختلف در داده های متریک اندازه گیری می شوند. به عنوان مثال - محتوای کربن آلی [g/kg]: (گروه 1: 12.1 // 13.2 // 13.5)، (گروه 2: 13.1 // 13.9 // 13.5)، (گروه 3: 8.9 // 10.2 // 11.9 ). حالا می خواستم بررسی کنم که آیا تفاوت معنی داری بین میانه این گروه ها وجود دارد یا خیر. و اطلاعات دیگر این است که غلظت مواد مختلف در خاک به طور کلی توزیع نرمال نیست.
کدام آزمون برای حجم نمونه کوچک؟
5962
من 12 مجموعه تمرین مثبت دارم (سلول های سرطانی تحت درمان با داروها با هر یک از 12 مکانیسم اثر متفاوت). برای هر یک از این مجموعه‌های آموزشی مثبت، می‌خواهم یک ماشین بردار پشتیبان را آموزش دهم تا آن را از یک مجموعه منفی با اندازه مساوی که از آزمایش نمونه‌برداری شده است متمایز کند. هر مجموعه بین 1000 تا 6000 سلول دارد و 476 ویژگی (ویژگی تصویر) برای هر سلول وجود دارد که هر کدام به صورت خطی تا [0، 1] مقیاس بندی شده اند. من از LIBSVM و هسته RGB Gaussian استفاده می کنم. با استفاده از اعتبارسنجی متقابل پنج برابری، من جستجوی شبکه ای برای log2 C ∈ [-5, 15] و log2 ɣ ∈ [-15, 3] انجام داده ام. نتایج به شرح زیر است: ![نتایج جستجوی شبکه](http://i.stack.imgur.com/8GiiB.png) من ناامید شدم که یک مجموعه از پارامترها وجود ندارد که دقت بالایی برای همه 12 طبقه بندی داشته باشد. مشکلات من همچنین متعجب شدم که شبکه‌ها معمولاً ناحیه‌ای با دقت بالا که با دقت‌های کمتر احاطه شده است را نشان نمی‌دهند. آیا این فقط به این معنی است که باید فضای پارامتر جستجو را گسترش دهم یا جستجوی شبکه ای نشان دهنده این است که چیز دیگری اشتباه است؟
آیا جستجوی شبکه SVM باید ناحیه ای با دقت بالا با دقت پایین اطراف را نشان دهد؟
27913
در الگوریتم متروپلیس–هیستینگ برای نمونه‌برداری از توزیع هدف. اجازه دهید * $\pi_{i}$ چگالی هدف در حالت $i$ باشد، * $\pi_j$ چگالی هدف در حالت پیشنهادی $j$ باشد، * $h_{ij}$ چگالی پیشنهاد برای انتقال به حالت $j$ با توجه به وضعیت فعلی $i$، * $a_{ij}$ احتمال پذیرش حالت پیشنهادی $j$ با توجه به وضعیت فعلی $i$ باشد. سپس با معادله تراز تفصیلی، پس از انتخاب چگالی پیشنهاد $h$، احتمالات پذیرش $a$ به صورت $$ a_{ij} = \min(1, \frac{\pi_{j} h_{ji}} محاسبه می‌شود. {\pi_{i} h_{ij}}). $$ اگر $h$ متقارن باشد، یعنی $h_{ij}=h_{ji}$، سپس $$ a_{ij} = \min(1, \frac{\pi_{j}}{\pi_{i} }). $$ وقتی $h_i$ یک توزیع گواسی است که در حالت $i$ متمرکز شده است و دارای واریانس یکسان $\sigma^2$ برای همه $i$ است، $h$ متقارن است. از ویکی پدیا: > اگر $\sigma^2 \,$ خیلی بزرگ باشد، تقریباً تمام مراحل تحت الگوریتم MH > رد خواهند شد. از طرف دیگر، اگر $\sigma^2 \,$ خیلی کوچک باشد، تقریباً همه > مراحل پذیرفته خواهند شد. من تعجب می کنم که چرا همانطور که در نقل قول بالا ذکر شد، احتمال پذیرش در جهت معکوس تغییر واریانس چگالی پیشنهاد تغییر می کند؟ با تشکر
نرخ پذیرش در الگوریتم متروپلیس-هیستینگ
64348
تصحیح پست قبلی من یک مدل رگرسیون خطی ورود به سیستم دارم که در آن متغیر وابسته ثبت شده و یک متغیر مستقل خطی است. ضریب شیب برای یک متغیر مستقل کلیدی منفی است: -.0564. نمی دانم چگونه تفسیر کنم. آیا از مقدار مطلق 0.0564 استفاده کنم و سپس آن را به صورت منفی تبدیل کنم: ((exp.(.0564)-1) * 100 = -5.80) یا آیا ضریب منفی را به این صورت وصل کنم: ((exp .(-.0564)-1) * 100 = -5.48) به عبارت دیگر، آیا از رقم مطلق استفاده می کنم و سپس آن را به منفی تبدیل می کنم یا منفی را وصل می کنم ضریب؟ همانطور که می بینید آنها 2 پاسخ متفاوت تولید می کنند.
چگونه این ضریب رگرسیون خطی لاگ را تفسیر کنم؟
46155
من داشتم این مقاله مربوط به آمار اسکن فضایی بیزی را می خواندم. http://books.nips.cc/papers/files/nips18/NIPS2005_0513.pdf. گفته می شود که وقتی از آمار اسکن فضایی بیزی استفاده می کنیم، نیازی به استفاده از آزمایش تصادفی سازی یا آزمون معناداری خوشه بالقوه پیدا شده نداریم. چرا اینطور است؟ متوجه نشدم آیا بینشی در این مورد دارید؟
سردرگمی مربوط به آمار اسکن فضایی بیزی
5698
لطفا من را ببخشید اگر این صرافی پشته (و برای ابداع شرایط) مناسب نیست. برای متغیرهای تصادفی گسسته X و Y، اطلاعات متقابل X و Y را می توان به صورت زیر تعریف کرد: $I(X;Y) = \sum_{y \in Y} \sum_{x \in X} p(x,y ) \log{ \left( \frac{p(x,y)}{p_1(x)\,p_2(y)} \right) }, \,\\!$ اطلاعات متقابل را تعریف خواهم کرد از یک سلول $x_0$ باشد: $CI(x_0,Y) = \sum_{y \in Y} p(x_0,y) \log{ \left( \frac{p(x_0,y)}{ p_1(x_0)\,p_2(y)} \right) }, \,\\!$ مطمئن نیستم که این کمیت با نام دیگری باشد. اساساً من تمرکز را به یک حالت واحد از متغیر X محدود می‌کنم (و سپس MI کامل را می‌توان با جمع کردن تمام MI سلول‌ها محاسبه کرد). سوال من: آیا تضمین شده است که $CI(x_0,Y) \ge 0$؟ ما $I(X;Y)\ge0$ را می دانیم و می دانیم که اطلاعات متقابل نقطه ای می تواند منفی باشد. من احساس می کنم که CI باید غیرمنفی باشد و ممکن است شواهد واضحی را از دست بدهم.
آیا اطلاعات متقابل یک سلول می تواند منفی باشد؟
64694
من در حال تحقیق در مورد تجزیه و تحلیل خوشه‌ای هستم و به متغیرهایی علاقه‌مندم که هم مقوله‌ای و هم پیوسته هستند، که برای آن‌ها خوانده‌ام که ضریب تشابه Gower معیار خوبی برای مجاورت است. من علاقه مندم که ابتدا از یک الگوریتم پیوند متوسط ​​استفاده کنم، و دریافتم که برخی توصیه کرده اند به دنبال زانو در نمودار مجموع خطای مربع (SSE) به عنوان راهنمایی برای تصمیم گیری در مورد تعداد خوشه ها بگردند. می‌خواستم بدانم که آیا ضریب شباهت Gower (غیر متریک و غیر اقلیدسی بودن) به من اجازه می‌دهد که یک نمودار SSE Scree ایجاد کنم یا از نظر آماری منطقی نیست.
تعیین تعداد خوشه با نمودار SSE با ضریب شباهت گوور
99351
فکر می‌کنم در درک PCA مشکل دارم: می‌خواهم از این تکنیک برای کاهش تعداد ویژگی‌های مشکلم استفاده کنم. من در اصل 10000 ویژگی و 500 نمونه دارم. با این حال، استفاده از PCA تعداد مؤلفه‌های اصلی من را به کمترین مقدار بین تعداد نمونه‌ها (ستون‌های ماتریس داده‌های من) و تعداد ویژگی‌ها (ردیف‌های این ماتریس) محدود می‌کند. بنابراین، 100٪ واریانس را می توان با 500 مؤلفه توضیح داد. اما 500 کامپوننت به مراتب کوچکتر از 10000 ویژگی است... چگونه می توان این همه واریانس را با کمتر از تعداد نمونه ها (که ربطی به تعداد ویژگی ها ندارد) توضیح داد؟
تعداد اجزا در PCA
90957
من یک پانل داده از 21 کشور در طول 12 سال دارم و هنگام انجام تست هاسمن برای انتخاب بین FE و RE با مشکل مواجه هستم. هنگام انجام تست هاسمن و این را گرفتم (V_b-V_B قطعی مثبت نیست)، بنابراین sigmamore و sigmaless را اعمال کردم و مشکلی در مورد رتبه وجود داشت، بنابراین متغیرهای خود را مجدداً مقیاس کردم اما دوباره این پیام را هنگام اجرای هاسمن دریافت کردم. تست (V_b-V_B قطعی مثبت نیست). من استفاده از usest را در stata 12 انتخاب کرده ام و این را دارم. تغییر شکل گسترده pdgdp gcfdebt GDP inflation libor نرخ مبادله باز بودن، i (سال) j (کد کشور) (توجه: j = 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 no201 متغیرها تا 120 متغیر با این نسخه Stata مجاز است. نسخه هایی در دسترس هستند که حداکثر 32767 متغیر را مجاز می کنند. r(900); بنابراین، من سعی کردم varlist را افزایش دهم اما عبارت آن maxvar در این نسخه Stata قابل تنظیم نیست پس از انجام تحقیقاتی متوجه شدم که می توانم از xtoverid استفاده کنم اما واقعاً نمی توانم تمام این موارد را در مورد تخمین های IV درک کنم. آیا کسی می تواند به من کمک کند که چه کاری می توانم برای غلبه بر این مشکلات انجام دهم و آزمون مناسب را برای انتخاب بین FE و RE انجام دهم. من واقعاً با اقتصاد سنجی راحت نیستم، بنابراین واقعاً از یک پاسخ ساده قدردانی خواهم کرد.
مشکلات در انجام تست هاسمن
56981
چگونه باید تفاوت آماری میانگین (یا میانه؟) غلظت آنزیم را بین دو گروه از بیماران آزمایش کنم که توزیع در یک گروه نرمال و در گروه دیگر غیر طبیعی است؟ توزیع مقادیر برای کل جامعه مورد مطالعه غیر عادی است. آیا از آزمون من ویتنی یا آزمون تی دانشجویی استفاده می کنم؟
من ویتنی در مقابل آزمون t برای مقایسه دو نمونه با توزیع های مختلف
46152
من می خواهم مهارت های مربی ای را ارزیابی کنم که 4 زبان مختلف کامپیوتری را به یک دسته از 150 دانش آموز آموزش داده است. من یک پرسشنامه آماده کرده ام که به هر یک از دانش آموزان می دهم. اما من هنوز تصمیم نگرفته‌ام که دانش‌آموزان در چه مقیاسی مهارت مربی را برای آن 4 زبان ارزیابی می‌کنند. من احساس می کنم مقیاس 10 بسیار راحت است و دانش آموزان می توانند بر اساس این مقیاس بازخورد را برای مربی ارائه دهند. اما من بارها دیده ام که مردم عملکرد را در مقیاس 5 ارزیابی می کنند. حتی یک بار من در مقیاس 5 ارزیابی شده ام. آیا انتخاب یک مقیاس خاص اهمیتی دارد؟ منظورم این است که آیا چیزی مانند مقیاس خوب، مقیاس بد، بهترین مقیاس برای نوع خاصی از بازخورد وجود دارد؟ قدردان وقت شما برای پاسخ دادن باشید.
ارزیابی سطح مهارت در یک مقیاس خاص
52404
من در حال حاضر در حال مطالعه مدل های پنهان مارکوف هستم. مجموعه‌ای از مشاهدات وجود دارد که باید از روی آنها تعداد بهینه حالت‌ها را تعیین کنم. پس از یافتن حداکثر احتمال با استفاده از Baum-Welch، دو معیار انتخاب مدل را برای تعیین حالت های بهینه در نظر گرفتم. اینها حداقل طول توصیف (MDL) و معیار استنتاج بیزی (BIC) هستند. با این حال، با MDL، تعداد حالت ها = 2 است، در حالی که با BIC 4 است. آیا این بدان معنی است که MDL بهتر از BIC عمل می کند؟
مقایسه بین MDL و BIC
51971
من می دانم که این یک سوال کلی است، اما برای CVers مفید است که در مورد مشکلات رایج، چیزهایی که باید در نظر گرفته شوند و اخطارهایی در مورد نحوه انجام مدل سازی دقیق GLMM یاد بگیرند. آیا کسانی که در GLMM تجربه دارند می‌توانند بینشی که ممکن است داشته باشند را به اشتراک بگذارند؟
مشکلات در انجام GLMM یا تفسیر نتایج GLMM
82934
آیا کسی می تواند تفاوت های عمده بین مدل های الگوی کوواریانس (هدکر و گیبون، فصل 6، 2006؛ جنریچ و شلوچتر 1986) و مدل های معادله برآورد تعمیم یافته را توضیح دهد (هاردین و هیلب، 2012؛ لیانگ و زگر، 1986). پیش‌فرض من این است که تفاوت اصلی در مورد تخمین ML/REML در مورد مدل‌های الگوی کوواریانس است. در مقابل، تخمین شبه احتمال در مورد GEE. آیا این درست است؟ و همچنین، کاربرد مدل‌های الگوی کوواریانس برای داده‌های پاسخ گاوسی در حالی که GEE برای داده‌های پاسخ بسیاری از توزیع‌های دیگر (گاوسی، باینری، دوجمله‌ای، پواسون و غیره) کاربرد بیشتری دارد. آیا مدل‌های الگوی کوواریانس با پاسخ گاوسی و برخی پیوندهای هویتی و GEE (پیوند هویت، پاسخ گوسی) مشابه/یکسان هستند؟
مدل‌های الگوی کوواریانس در مقابل مدل‌های معادله برآورد تعمیم‌یافته
46156
به نظر شما، بهترین راه برای مدیریت شبکه های بیزی با استفاده از داده های پیوسته، در این مورد خاص، مقادیر p چیست؟ من در مورد چندین تکنیک گسسته‌سازی، رویکردهای گاوسی و غیره خوانده‌ام، اما به دلیل جنجال‌هایی که هر رویکرد دارد کاملاً گم شده‌ام. همچنین، در حالی که ادبیات زیادی در مورد نحوه مدیریت سری های زمانی برای شبکه های بیزی ثابت و پویا پیدا کردم، مرجع خوبی برای مدیریت مقادیر p پیدا نکردم.
شبکه های بیزی ایستا با استفاده از مقادیر p
11699
من سعی می کنم از SPSS برای ایجاد یک رگرسیون خطی بر روی داده های تاریخی (متغیرهای وابسته و مستقل) استفاده کنم و سپس آن را برای داده های جدید (فقط متغیرهای مستقل) برای تولید مقادیر پیش بینی شده و فواصل پیش بینی مرتبط اعمال کنم. من به طور مفصل به مستندات رویه «REGRESSION» در SPSS نگاه کردم، و در حالی که واضح است که چگونه می توانم پیش بینی و فاصله زمانی داده های مورد استفاده برای ساخت رگرسیون را دریافت کنم (با استفاده از یک دستور فرعی «/SAVE» برای ذخیره کردن متغیرهای موقت «PRED»، «LICIN» و «UICIN»). اساساً من به دنبال معادل «PROC SCORE» در SAS یا «predict.lm» در R هستم.
چگونه می توان یک رگرسیون خطی ساخته شده در SPSS را برای داده های جدید اعمال کرد و فواصل پیش بینی را ایجاد کرد
27918
من می دانم که به دلایل مختلف لگاریتمی کردن متغیرها در مقادیر مطلق در سری های زمانی ترجیح داده می شود. اما آیا متغیرها در مقادیر درصد (نرخ تورم) نیز باید لگاریتم شوند، همانطور که در یک مطالعه مشاهده کردم، اما مطمئن نیستم که خوب است یا خیر. با تشکر
لگاریتم مقادیر درصد در سری های زمانی
27911
اجازه دهید $(n_1،...،n_k)$ نمونه ای از یک دوجمله ای$(N,p)$ باشد که در آن هر دو پارامتر ناشناخته هستند. در بسیاری از موارد، احتمال نمایه $N$ مجانبی است به این معنا که هرگز به $0$ کاهش نمی یابد. نمونه ای از این مورد در اینجا آورده شده است. کد زیر احتمال $N$ را برای این مجموعه داده نشان می دهد. داده = c(16، 18، 22، 25، 27) prof = تابع (n) مجموع (dbinom(data,n,mean(data)/n,log=TRUE)) n ​​= امتیاز = seq(25,500,1) for(i در 1:length(n)) points[i] = exp(prof(n[i])) m = max(points) نمودار (n,points/m) از دیدگاه کلاسیک در چنین سناریویی چه کاری می توانیم انجام دهیم؟ آیا فقط باید بگوییم که فاصله احتمال-اطمینان $(N_0،\infty)$ است؟ توجه: با استفاده از رویکرد بیزی، قسمت عقبی $N$ به دلیل یکپارچگی آن به $0$ برای هر قبلی کاهش می یابد. مسئله در اینجا این است که استنباط ها به شدت تحت تأثیر موارد قبلی هستند، با توجه به اینکه، به عبارت مبهم، احتمال اطلاعات کمی در مورد $N$ دارد.
احتمال N در مدل دوجمله ای
60537
من یک نتیجه باینری دارم و ویژگی های من عمدتاً پیوسته هستند. با این حال، بیشتر ویژگی‌ها داده‌های گمشده دارند و به‌عنوان گمشده کدگذاری می‌شوند. موارد مفقود به عنوان 9999، 999999 و غیره کدگذاری می شوند. اگر چیزی شبیه به این داشته باشم، چگونه می توانم ویژگی های خود را مقیاس کنم؟ وقتی مدل پیاده سازی شد و در زمان واقعی، مقادیر گم شده ای خواهیم داشت. بنابراین به من توصیه می شود که گمشده ها را نگه دارم و مدل را بسازم.
آموزش شبکه عصبی - ویژگی ها/متغیرها دارای ارزش گمشده هستند
99356
فرض کنید من دارم: N = 100، 5 متغیر پیش بینی کننده ادامه دارد و 1 پاسخ ادامه دارد. اکنون می‌خواهم با استفاده از رگرسیون خطی چندگانه، نقشه‌ای بین پیش‌بینی‌کننده‌ها و پاسخ پیدا کنم. فرض کنید می‌دانم که 100 نمونه من از زیرگروه‌های x تشکیل شده‌اند، که در آن برای هر زیرگروهی می‌توانم مشابهی با MSE بسیار پایین پیدا کنم، اما برای کل جمعیت، MSE من به شدت افزایش می‌یابد. آیا یک راه استاندارد برای یافتن اینکه آیا این زیر گروه ها وجود دارند وجود دارد؟
خوشه بندی قبل از رگرسیون خطی چندگانه؟
97601
من به دنبال برخی کاربردهای معیارهای تقلیل ناپذیری چندجمله ای های صحیح در داخل و خارج ریاضیات هستم. من داشتم رزومه فیلاستا، محققی بزرگ در این زمینه را می خواندم، و او کمک هزینه هایی را از NSA دریافت کرده است. این باعث می شود به این فکر کنم که آیا کاربردهایی از این موضوع در علوم کامپیوتر وجود دارد یا خیر. معیارهای تقلیل ناپذیری مانند آیزنشتاین، معیار دوما و غیره در دنیای واقعی یا سایر حوزه های ریاضی کدام کاربرد دارند؟ با تشکر
چند جمله ای ها و NSA
97605
با توجه به دو متغیر تصادفی مستقل $X\sim\Gamma(s,r)$ و $Y\sim\Gamma(t,u)$، توزیع تفاوت چگونه است، یعنی $D=X−Y$؟ من فرض می کنم که $s$ و $t$ اعداد صحیح هستند. چگونه می توانم چولگی توزیع تفاوت را بدست بیاورم؟
تفاوت دو توزیع گامای مستقل
64691
من یک مطالعه کوچک از 21 پاسخ دهنده دارم که به برخی از موارد از 0 تا 5 امتیاز داده اند که 0 بی اهمیت و 5 بسیار مهم است. من از قبل می دانم که موارد مرتبط هستند (آنها لیست منتشر شده از موارد از یک سند هستند). و من اقداماتی را نمی خواهم که نشان دهد این موارد چقدر به هم مرتبط هستند. لیست اقلام ثابت است. آیا روشی ناپارامتریک برای نشان دادن نوعی توافق در رتبه بندی بین پاسخ دهندگان وجود دارد؟ من مطالعه ای را دیده ام که از کندال دبلیو استفاده می کند، اما پیوندهای زیادی وجود دارد و شاید این مفیدترین راه نباشد. فقط برای روشن شدن، من به دنبال نوعی اندازه گیری توافق برای هر مورد در داده ها هستم، نه به طور خاص یک مورد.
به دنبال توافق در میان پاسخ دهندگان
35981
> **تکراری احتمالی:** > چگونه تشخیص دهیم که داده ها به اندازه کافی خوشه بندی شده اند تا الگوریتم های خوشه بندی > نتایج معناداری تولید کنند؟ من از خوشه بندی سلسله مراتبی استفاده کرده ام، به عنوان مثال، روش وارد، تک، کامل، و غیره. من هم همین مشکل را دارم، نمی دانم چگونه الگوریتم خوشه بندی خود را ارزیابی کنم. چگونه می توانم بفهمم که خوشه ها معنادار هستند؟ من نمی دانم نرم افزار FPC چیست، آیا کسی می تواند از FPC استفاده کند و زبان برنامه نویسی این نرم افزار چیست؟ اگر من با FPC آشنا نیستم، آیا روش دیگری برای ارزیابی وجود دارد؟
آیا راهی وجود دارد که بفهمیم خوشه های من معنادار هستند یا بی معنی؟
89361
من سعی می کنم احتمال یک نتیجه باینری را با متغیر مستقل که یک متغیر ساعت باشد مدل کنم. من درک می کنم که رگرسیون خطی روش درستی برای این نوع کار نیست (من به درک ساده خود از چرایی آن نمی پردازم، اگر کسی بخواهد توضیح مختصری اضافه کند، من کاملاً موافق هستم). مشکلی که من با آن روبرو هستم این است که به نظر نمی رسد رگرسیون لجستیک به طور دقیق روند داده های من را که سهمی معکوس است (احتمال کم در اوایل، افزایش به اوج در وسط روز و کاهش در پایان) به درستی ثبت کند. داده‌های آزمایشی من به شرح زیر است، من منحنی «ggplot» و «stat_smooth()» را در مقابل خود مدل ارائه کردم: testset <- data.frame(hour=c(rep(100,100), rep(200,100) )، تکرار (300،100)، تکرار (400،100)، تکرار (500،100))، data=c(rbinom(100،1،.25)، rbinom(100،1،.3)، rbinom(100،1،.5)، rbinom(100،1،.25)، rbinom(100،1، .1))) ggplot(data=testset,aes(hour,data))+stat_smooth(method=glm,family=binomial) اطلاعیه یعنی من به تابع stat_smooth اجازه می‌دهم تا به طور پیش‌فرض روی یک روش برازش/صاف کردن (loess در این مورد) تنظیم شود، نمایش به داده‌های واقعی نزدیک‌تر است. می‌دانم که چیز بسیار ساده‌ای را از دست می‌دهم، یا چیزی را به طرز احمقانه‌ای اشتباه می‌فهمم، اما به همین دلیل است که این سوال را می‌پرسم، جستجو کمکی نکرد. ggplot(data=testset,aes(hour,data))+stat_smooth()
مدل سازی نتایج باینری - مدل نادرست هنگام استفاده از رگرسیون لجستیک؟
89311
من با برخی از داده‌ها کار می‌کنم که ویژگی‌ها جنبه _زمانی دارند (مثلاً هر چند وقت یکبار یک ویژگی بین $t_{begin}$ و $t_{end}$ رخ می‌دهد). من سعی می کنم یک طبقه بندی کننده باینری برای این داده ها بسازم. با این حال، مشکل این است که هر ویژگی یک توزیع احتمال است. به طور معمول، چیزی شبیه یک طبقه‌بندی‌کننده SVM کار می‌کند: هر شی که با یک بردار نشان داده می‌شود، که در آن شاخص $i^{th}$ بردار یک عدد است (به عنوان مثال tf-idf و غیره). من نمی دانم چگونه می توانم در جایی که هر شی با مجموعه ای از توزیع های احتمال نمایش داده می شود، ادامه دهم. نمایش برداری ساده به وضوح مناسب نخواهد بود. من خیلی دور جستجو کردم، اما چیزی که مناسب این نوع داده ها باشد، پیدا نکردم. هر گونه اشاره / ایده خواهد شد تا حد زیادی قدردانی می شود. همچنین، می‌خواهم اضافه کنم که به فواصل بین توابع توزیع و چگالی نگاه کرده‌ام (مثلاً متریک Wasserstein، آماره Kolmogorov-Smirnov)، اما نمی‌دانم محاسبه این معیارها چگونه در طبقه‌بندی کمک می‌کند.
تکنیک‌های طبقه‌بندی ممکن برای استفاده زمانی که هر ویژگی یک توزیع احتمال است
89367
من یک glm را به مجموعه داده‌های خود نصب کرده‌ام و از آزمون دوربین واتسون برای بررسی تناسب مدل استفاده کردم. من به نتیجه رسیده ام. چگونه می توانم آن را تفسیر کنم؟ تاخیر خودهمبستگی D-W آماری p-value 1 0.7750748 0.4466024 0 فرضیه جایگزین: rho != 0
تفسیر نتایج دوربین واتسون
11696
آیا می توانید یک الگوریتم یادگیری مبتنی بر مدل خوب را برای توصیه موارد به کاربر به من پیشنهاد دهید؟ آیا اجرای متن باز بر اساس الگوریتم یادگیری مبتنی بر مدل وجود دارد؟ من مطمئن هستم که Apache Mahout هیچ الگوریتم یادگیری مبتنی بر مدل را پیاده سازی نکرده است.
الگوریتم یادگیری مبتنی بر مدل برای موتور توصیه
93488
من نمی دانم که مفید بودن خوشه بندی k-means در فضاهای با ابعاد بالا چیست و چرا می تواند بهتر (یا نه) از سایر روش های خوشه بندی در هنگام برخورد با فضاهای با ابعاد بالا باشد.
سودمندی خوشه بندی k-means بر روی داده های با ابعاد بالا
97600
روز بخیر بچه ها من با SPSS تازه کار هستم و قصد دارم تعیین کنم که آیا رابطه ای بین نمرات و زمان صرف شده برای تماشای بازی های تلویزیونی/ویدیویی با استفاده از همبستگی رتبه اسپیرمن وجود دارد یا خیر. سوال این است که چگونه متغیر زمان را وارد کنم؟ آیا 2 ساعت و 30 دقیقه را به دقیقه تبدیل کنم تا 150 را در تب زمان قرار دهم؟ تحقیقاتم من را به این سمت سوق داد، اما واقعاً متوجه نشدم: پاسخ این است که داده ها را در محدوده ای قرار دهیم که به موجب آن همه محدوده اندازه گیری یکسانی دارند (منظورم برای مثال 45 متر در یک محدوده است به طوری که [0-45] باشم. [46-90] و غیره .... بنابراین شما قبلاً با ترتیب داده ها انجام داده اید. ..) و در نهایت می توانید وارد spss شوید. هر کمکی بی نهایت ممنون خواهد بود. :) (و در صورت امکان با توضیح. خیلی ممنون :D)
اضافه کردن متغیر زمان؟
82939
من در تعیین اینکه آیا برخی از ضرایب تصادفی را در یک مدل ترکیبی نگه دارم یا حذف کنم، کمی سردرگم هستم. تعداد کمی از واحدهای سطح دو وجود دارد، بنابراین من باید از تخمین MCMC استفاده کنم. در نتیجه، خطاهای استاندارد برای اکثر متغیرها در بخش تصادفی حدود 60 درصد از برآورد نقطه مربوطه است. از سوی دیگر، هنگام اضافه کردن هر متغیر به طور جداگانه به بخش تصادفی، DIC برای کل مدل به طور قابل توجهی کاهش می یابد. تا آنجایی که من مدل سازی با ML را درک می کنم، اگر خطای استاندارد بیش از نیمی از مقدار تخمین نقطه ای باشد، نشانه ناچیز بودن ضریب مربوطه است. آیا می توانم خطای استاندارد را در MCMC به همین صورت تفسیر کنم؟ اگر چنین است، چه چیزی اولویت دارد، DIC یا نسبت خطای تخمینی/استاندارد؟ من با توجه به مدل های ترکیبی مبتدی هستم، بنابراین هر مرجعی برای خودآموزی همراه با توضیح نهایی مورد قدردانی قرار خواهد گرفت. متشکرم ضمیمه: برای روشن تر شدن سوال با یک مثال: مورد یک مورد دوم در مورد اول من تمایل به پذیرش پارامتر دارم، با توجه به اینکه حالت آن از صفر فاصله دارد و 95% فواصل معتبر 2.2 و 11.1 هستند. در مورد دوم، من تمایل دارم که پارامتر را رد کنم، به ویژه به نمودار چگالی هسته نگاه می کنم. احتمال صفر تقریباً به اندازه حالت است. با این حال، 95٪ فواصل معتبر 0.002 و 0.012 هستند. اگر فقط به اینها نگاه کنم احساس می کنم باید پارامتر را حفظ کنم. کران سمت چپ نزدیک به صفر است، اما برآورد خود آنقدر بزرگ نیست. و این یک اثر متقابل است، بنابراین این اندازه منطقی است. علاوه بر این، DIC برای کل مدل حدود 50 کاهش می یابد که بسیار زیاد است. سیگنال های مختلط، به اصطلاح، حداقل به نظر من می رسد.
تخمین MCMC در مدل های ترکیبی: آیا چیزی شبیه اهمیت وجود دارد؟
97604
چگونه پیرسون در سال 1900 به آمار کای دو پیرسون زیر دست یافت؟ $$ K = \sum \frac{(O_{ij} -E_{ij})^2}{E_{ij}} $$ that $$ K \sim \chi^2 $$ آیا او chi-squared در فکر کنید و متریک $K$ (رویکرد از پایین به بالا) را طراحی کنید، یا آیا او این آمار را ابداع کرد و بعداً ثابت کرد که از توزیع خی دو (از بالا به پایین) پیروی می کند؟ من می خواهم بدانم چرا او آن فرم خاص را انتخاب کرده است و نه دیگران مانند $\sum(O_{ij} -E_{ij})^2$ یا $\sum|O_{ij} -E_{ij}|$، و همچنین چرا مربع را با مخرج تقسیم کرد.
کارل پیرسون چگونه به آمار کای دو دست یافت؟
82930
پایان نامه من در مورد عوامل تعیین کننده اقتصاد خرد و کلان حواله است و من این تحقیق را با استفاده از داده های اولیه که مستقیماً از مهاجرانی که در خارج از کشور کار می کنند گرفته شده است انجام می دهم. متغیر وابسته من میزان حواله هایی است که به کشور وارد می شود. اکثر مقالاتی که من مرور کرده ام دارای متغیرهای وابسته گسسته بوده یا متغیر وابسته آنها را دسته بندی کرده اند. من نمی‌خواهم اطلاعات را از دست بدهم، بنابراین می‌خواهم از مقدار دقیق حواله‌هایی که توسط مهاجران ارسال می‌شود به عنوان متغیر وابسته استفاده کنم. آیا می توانم از آن برای رگرسیون استفاده کنم؟ متغیرهای مستقل من محتاط هستند، و آیا می‌توانید مدل‌های مناسبی را نیز برای تجزیه و تحلیل مجموعه نظرسنجی خود پیشنهاد دهید؟ من سعی می کنم ببینم که آیا نفع شخصی، نوع دوستی، بیمه خود و غیره تأثیری بر میزان حواله های ارسال شده توسط مهاجران دارد یا خیر.
متغیر وابسته مقدار حواله های یک نظرسنجی است
9237
من چندین متغیر وابسته دارم که معیارهای عدم تناسب نژادی هستند. من آنها را به این صورت محاسبه کرده ام: % رویدادهای ناشی از گروه اقلیت نژادی / % رویدادهای ناشی از گروه اکثریت نژادی من یک متغیر وابسته برای هر گروه اقلیت نژادی در نمونه خود دارم. من معادلات تخمین تعمیم‌یافته طولی (GEE) را روی این مدل‌ها اجرا می‌کنم، اما تا حدودی درمورد اینکه کدام خانواده برای این متغیرهای وابسته مناسب است، گیج شده‌ام. محدوده احتمال نسبت های من در 0 کوتاه شده است، زیرا امکان وجود مقادیر منفی در DV های من وجود ندارد. این باعث می‌شود اعتبار استفاده از خانواده گاوسی برای مدل‌هایم را زیر سوال ببرم. ایده پشت این متغیرها این است که نسبت بزرگتر از 1 نشان دهنده سطحی از بار بیشتر رویدادها است که یک اقلیت نژادی معین در مقایسه با اکثریت نژادی متحمل می شود و نسبت کمتر از 1 نشان دهنده عکس آن است. * مناسب ترین خانواده برای استفاده از رگرسیون های GEE کدام است؟ ویرایش: من در مورد معیار عدم تناسب نژادی که استفاده می کردم اشتباه صحبت کردم. فرمول صحیح این است: ٪ رویدادها بر اساس اقلیت / ٪ از کل ثبت نام که اقلیت است بیش از ٪ رویدادها توسط غیر اقلیت / ٪ از کل ثبت نام که غیر اقلیت است زیرا آنها نسبت هستند، تعداد مشاهدات با مقدار کمتر از 1 قابل مقایسه است. به تعداد مشاهدات بیشتر از 1، که کران پایین 0 و کران بالایی غیرمحدود است. با نگاهی به هیستوگرام متغیرهای پاسخ من، به نظر می رسد که آنها قطعاً با توزیع دوجمله ای منفی بهتر از حالت عادی مطابقت دارند. QIC (تنظیم GEE به AIC) این شک را تأیید می کند. سوال من اکنون این است: * آیا می توانم به این شواهد برای پیشبرد خانواده دوجمله ای منفی اعتماد کنم؟ * اگر چنین است، چگونه می توانم ضرایب توان را از مدل های به دست آمده تفسیر کنم؟ به نظر نمی‌رسد که نسبت‌های نرخ بروز باشند، همانطور که می‌توان آنها را از متغیرهای شمارش تفسیر کرد...
خانواده توزیع برای یک متغیر وابسته به نسبت در یک معادله برآورد تعمیم یافته
114987
یکی از همکاران اسنادی را برای یک پرسشنامه استاندارد شده به من ارائه کرد که استفاده از محدوده میانه و بین ربعی را برای توصیف متغیرهای خلاصه ایجاد شده با ترکیب پاسخ به چندین سؤال توصیه می کرد. در بیشتر موارد، این متغیرهای خلاصه بیش از 20 مقدار ممکن داشتند (مثلاً مجموع پاسخ‌ها به 5 سؤال هر کدام در مقیاس 0-4 که ​​منجر به مقیاس 0-20 می‌شود). به طرز عجیبی، این توصیه برای خلاصه‌های تکی سؤالات بله/خیر نیز اعمال می‌شود - یعنی متغیر خلاصه جدید فقط پاسخ به سؤال بله/خیر است. واضح است که برای یک متغیر باینری مانند این، میانه + IQR اطلاعات بسیار کمتری نسبت به گزارش نسبت پاسخ‌های «بله» و «خیر» می‌دهد. سوال من این است - یک متغیر به چند سطح نیاز دارد تا میانه + IQR یک خلاصه آموزنده از گرایش مرکزی و گسترش آن متغیر باشد؟
زمان گزارش نسبت ها و زمان گزارش میانگین + IQR برای متغیر ترتیبی
99352
من در حال انجام طراحی ناپیوستگی رگرسیون شدید با متغیر درمانم $$ D_i = \begin{cases} 1 \enspace \quad \text{if $x_i \geq \overline{x}$} \\\ 0 \quad \text{ در غیر این صورت} \end{cases} $$ که $\overline{x}$ مقدار آستانه متغیر اجباری من است. درمان از سطح درآمد معینی انجام می شود و نتیجه Y$ برخی از وضعیت سلامت بیمار است. من تجزیه و تحلیل خود را انجام داده ام و نتایج بسیار خوبی کسب کرده ام اما اکنون می خواهم استحکام نتایج خود را آزمایش کنم. شاید سایر عوامل مشاهده نشده بتواند بر نتیجه تأثیر بگذارد (من متغیرهای مختلفی روی بیماران دارم) یا بیماران بتوانند مقدار آستانه درآمد خود را دستکاری کنند زیرا آستانه از قبل مشخص است. دیگر چگونه می توانم استحکام نتایج خود را نشان دهم؟ تاکنون از چند جمله ای RD و RD با رگرسیون خطی محلی استفاده کرده ام و نتایج پایدار هستند. آیا بیشتر وجود دارد؟ آیا باید از برخی روش های تجسم داده ها استفاده کنم؟
آزمون های گرافیکی و آماری برای استحکام شارپ RD
64342
من باید میانگین بین دو گروه را در طول زمان مقایسه کنم. مشکل اینجاست که من باید این مقایسه را حدود 80 بار انجام دهم. و دانستن اینکه آیا تفاوتی وجود دارد کافی نیست، بلکه باید بگویم که چه زمانی رخ می دهد. برای زمینه: یک نشانگر رفتاری اندازه گیری شده در 2 گروه 5 تایی موش، که بارها و بارها در شرایط مختلف، در روز و شب، قبل و بعد از برخی درمان ها و غیره اندازه گیری شد.
مقایسه مکرر در طول زمان بین دو گروه
90379
من در تعیین ضریب تصحیح برای انتخاب تصحیح بونفرونی مشکل دارم. بذار توضیح بدم من دو مجموعه داده، کنترل ($x$) و داده‌های مربوط به چپ ($y_1$، اندام آسیب‌دیده) و اندام راست ($y_2$، اندام بدون آسیب) یک گروه آسیب‌شناسی دارم. از آنجایی که $y_1$ و $y_2$ از یک موضوع بودند (داده‌های جفت شده)، من یک آزمون رتبه‌بندی علامت‌دار Wilcoxon برای مقایسه اینکه آیا این داده‌ها از نظر آماری متفاوت بودند انجام داده‌ام. با این حال، وقتی داده‌ها را بین $x$ و $y_1$ یا بین $x$ و $y_2$ مقایسه کردم، از تست جمع‌آوری رتبه Wilcoxon استفاده کردم. از آنجایی که چندین آزمایش وجود دارد، آیا باید از ضریب تصحیح 3 ($p<=\frac{0.05}{3}$) استفاده کنم؟ یا ($p<=\frac{0.05}{2}$) فقط برای گروه ($x$ و $y_1$) و ($x$ و $y_2$) و بدون اصلاح برای گروه ($y_1$ و $y_2 دلار)؟ من واقعا از پاسخ محبت آمیز شما قدردانی می کنم. متشکرم.
تصحیح Bonferroni برای دو آزمایش مختلف در یک مجموعه داده
78206
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/yzcGx.png) مشکل من این است که می‌خواهیم 1/2 Norm(w)^2 را تحت محدودیت‌های مناسب y(i){[wTxi کمینه کنیم +b}-1}.. لاگرانژی می نویسیم و معادلات بالا را می گیریم.. من در تفکیک نسبت به w مشکل دارم. معادله
تمایز در ماشین بردار پشتیبان
97491
من یک رگرسیون لاجیت باینری گام به گام در Stata با استفاده از 14 متغیر مستقل اجرا می کنم. دو تا از متغیرهای مستقل ساختگی هستند (با فرض مقدار 0 یا 1). من متغیرهای مستقل را برای چند خطی بودن آزمایش کرده‌ام و آنها را با استانداردسازی یا استفاده از لگاریتم طبیعی مقادیر آنها به منظور کاهش این موضوع تطبیق داده‌ام (VIF<2.5). مدل معمولی هموار اجرا می شود. با این حال، وقتی می‌خواهم نمونه (تعداد مشاهدات: 73) را با 1000 تکرار بوت‌استرپ کنم، مقادیر p 1.0000 را دریافت می‌کنم. علاوه بر این، نتایج با این نکته به پایان می رسد: یک یا چند پارامتر را نمی توان در 314 تکرار بوت استرپ تخمین زد؛ برآوردهای خطای استاندارد فقط شامل تکرارهای کامل است. دو سوال: 1\. آیا آستانه VIF که استفاده کردم درست است (VIF<2.5)؟ چه راه های دیگری برای خلاص شدن از شر چند خطی، بدون حذف یکی از متغیرها وجود دارد؟ 2\. از آنجایی که فکر نمی‌کنم چند خطی بودن دیگر یک مسئله باشد، چه اشتباه دیگری در مورد روش راه‌اندازی خود می‌توانستم انجام دهم؟ پیشاپیش از پاسخ(های) شما سپاسگزارم! بهترین! تیم
رگرسیون لاجیت باینری گام به گام - کمک به راه‌اندازی در Stata
54805
من در حال راه اندازی یک طرح شبه تجربی هستم و باید هر حساب درمانی را با تمام حساب های کنترلی بالقوه در یک منطقه جغرافیایی خاص مقایسه کنم. من می خواهم فاصله بین یک حساب درمان و هر حساب کنترل همسایه را به همراه مصرف انرژی آنها اندازه گیری کنم تا به انتخاب مشابه ترین جفت کمک کنم. بدیهی است که متغیرها (EW coord، NS coord و مصرف انرژی) همه در مقیاس های مختلف هستند، آیا این بدان معناست که ابتدا باید هر متغیر را استاندارد کنم؟ همچنین، آیا لازم است همبستگی بین متغیرها را در نظر بگیرم - فکر می‌کنم مختصات جغرافیایی به دلیل متعامد بودن آنها به وزن صفر نزدیک می‌شوند. اگر بخواهم از فاصله ماهالانوبیس یا معیارهای آماری دیگری استفاده کنم، چگونه ماتریس کوواریانس را محاسبه کنم؟ من می دانم که چگونه در یک محیط چند متغیره معمولی انجام دهم، اما من به تعداد انگشت شماری از 3 تاپل های کنترلی نسبت به یک درمان 3 تایی نگاه می کنم. آیا می توانم فقط درمان 3-tuple را به عنوان بردار میانگین در نظر بگیرم و از آن انحرافات برای محاسبه یک ماتریس کوواریانس استفاده کنم؟
اندازه گیری فاصله بین مختصات جغرافیایی در میان متغیرهای دیگر
9233
در اینجا برخی زمینه ها وجود دارد. من علاقه مند به تعیین چگونگی تأثیر دو متغیر محیطی (دما، سطوح مواد مغذی) بر مقدار میانگین یک متغیر پاسخ در یک دوره 11 ساله هستم. در هر سال، داده هایی از بیش از 100 هزار مکان وجود دارد. هدف تعیین این است که آیا در طول دوره 11 ساله، مقدار میانگین متغیرهای پاسخ به تغییرات متغیرهای محیطی پاسخ داده است (به عنوان مثال دمای گرمتر + مواد مغذی بیشتر = پاسخ بیشتر). متأسفانه، از آنجایی که پاسخ مقدار متوسط ​​است (بدون بررسی میانگین، فقط تغییرات منظم بین سالانه سیگنال را باتلاق می کند)، رگرسیون 11 نقطه داده (1 مقدار متوسط ​​در سال) با 2 متغیر توضیحی خواهد بود. برای من حتی یک رگرسیون مثبت خطی به عنوان معنی دار در نظر گرفته نمی شود، زیرا مجموعه داده بسیار کوچک است (حتی 40 امتیاز اسمی/متغیر را برآورده نمی کند مگر اینکه رابطه فوق العاده قوی باشد). آیا درست است که این فرض را بکنم؟ آیا کسی می‌تواند افکار/دیدگاه‌های دیگری را که ممکن است از دست داده باشم، ارائه دهد؟ با تشکر PS: برخی از هشدارها: هیچ راهی برای به دست آوردن اطلاعات بیشتر بدون انتظار سال های اضافی وجود ندارد. بنابراین داده های موجود همان چیزی است که ما واقعاً باید با آن کار کنیم.
آیا سری های زمانی کوتاه ارزش مدل سازی را دارند؟
69111
من اخیراً در مورد مدل‌های جلوه‌های ترکیبی (مثلاً از طریق کتاب Fitzmaurice، Laird و Ware _Applied Longitudinal Analysis_) و همچنین مدل‌های سلسله مراتبی بیزی (مثلاً از طریق کتاب Gelman و Hill _Data Analysis Using Regression and Multilevel One/Hier) یاد گرفته‌ام. چیز عجیبی که من متوجه شدم: بیزی ادبیات تمایل دارد تأکید کند که مدل‌های آنها می‌توانند متغیرهای کمکی را در سطوح چندگانه تحلیل مدیریت کنند. به عنوان مثال، اگر خوشه‌بندی توسط شخص باشد، و هر فرد در چندین «آزمایش» اندازه‌گیری شود، مدل‌های سلسله مراتبی بیزی می‌توانند تأثیرات اصلی متغیرهای کمکی را هم در سطح موضوع و هم در سطح آزمایشی و همچنین تعاملات بین «سطوح» بررسی کنند. با این حال، من در کتاب‌های درسی این مدل‌ها را ندیده‌ام که روش‌های مکرر را معرفی کنند. من مطمئن نیستم که آیا این یک تصادف است یا مثالی از جایی که روش های بیزی می توانند کارهای پیچیده تری انجام دهند. آیا می توان از مدل های اثرات مختلط (مانند بسته های lme4 یا nlme در نرم افزار آماری R) برای بررسی تعاملات متغیرهای کمکی در سطوح تحلیل استفاده کرد؟
آیا مدل‌های چند سطحی «واقعی» به روش‌های بیزی نیاز دارند؟
101328
فرض کنید که یک متغیر پاسخ داریم که برای هر موضوع اندازه گیری می شود. 2 متغیر طبقه بندی (عامل) وجود دارد: یکی گروه عامل بین آزمودنی با دو سطح (کنترل و درمان) و دیگری دسته عامل درون آزمودنی با سه سطح (بالا، متوسط ​​و پایین). چنین ANOVA مختلط 2 $\ برابر $ 3 را می توان از طریق یک مدل خطی عمومی (GLM) با کدگذاری ساختگی فاکتورها تجزیه و تحلیل کرد. برای نشان دادن فرمول GLM، فرض کنید شش موضوع وجود دارد، سه نفر در هر گروه، و ما معادله زیر را با کدگذاری اثر داریم: $$ \begin{bmatrix} y_{11} \\\ y_{12} \\\ y_{ 13} \\\ y_{21} \\\ y_{22} \\\ y_{23} \\\ y_{31} \\\ y_{32} \\\ y_{33} \\\ y_{41} \\\ y_{42} \\\ y_{43} \\\ y_{51} \\\ y_{52} \ \\ y_{53} \\\ y_{61} \\\ y_{62} \\\ y_{63} \end{bmatrix} = \begin{bmatrix} 1 & 1 & 1 & 0 & 1 & 0 & 1 & 0 & 0 & 0 \\\ 1 & 1 & 0 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\\ 1 و 1 و -1 و -1 و -1 و -1 و 1 و 0 و 0 و 0\\\ 1 و 1 و 1 و 0 و 1 و 0 و 0 و 1 و 0 و 0\\\ 1 و 1 و 0 و 1 و 0 و 1 و 0 و 1 و 0 و 0 \\\ 1 و 1 و -1 و -1 و -1 و - 1 و 0 و 1 و 0 و 0 \\\ 1 و 1 و 1 و 0 و 1 و 0 و -1 و -1 و 0 و 0\\\ 1 & 1 & 0 & 1 & 0 & 1 & -1 & -1 & 0 & 0\\\ 1 & 1 & -1 & -1 & -1 & -1 & -1 & -1 & 0 & 0 \\ \ 1 & -1 & 1 & 0 & -1 & 0 & 0 & 0 & 1 & 0 \\\ 1 & -1 & 0 & 1 & 0 & -1 & 0 & 0 & 1 و 0\\\ 1 و -1 و -1 و -1 و 1 و 1 و 0 و 0 و 1 و 0 \\\ 1 و -1 و 1 و 0 و -1 و 0 و 0 و 0 و 0 و 1 \\\ 1 & -1 & 0 & 1 & 0 & -1 & 0 & 0 & 0 & 1 \\\ 1 & -1 & -1 & -1 & 1 & 1 & 0 & 0 & 0 & 1 \\\ 1 & -1 & 1 & 0 & -1 & 0 & 0 & 0& -1 & -1 \\\ 1 & -1 & 0 & 1 & 0 & -1 & 0 & 0 & -1 & -1 \\\ 1 & -1 & -1 & -1 & 1 & 1 & 0 & 0& -1 & -1 \end{bmatrix}\\\ \begin{bmatrix} \beta_0 \\\ \beta_1 \\\ \beta_2 \\\ \beta_3 \\\ \beta_4 \\\ \beta_5 \\\ \beta_6 \\\ \beta_7 \\\ \beta_8 \\\ \beta_9 \end{bmatrix}+\begin{bmatrix} \epsilon_{11} \\\ \epsilon_{12} \\\ \epsilon_{13} \\\ \epsilon_{21} \\\ \epsilon_{22} \\\ \epsilon_{23} \\\ \epsilon_{31} \\\ \epsilon_ {32} \\\ \epsilon_{33} \\\ \epsilon_{41} \\\ \epsilon_{42} \\\ \epsilon_{43} \\\ \epsilon_{51} \\\ \epsilon_{52} \\\ \epsilon_{53} \\\ \epsilon_{61} \\\ \epsilon_{62} \\ \ \epsilon_{63} \end{bmatrix} $$ آمار F$ برای هر افکت (مثلاً جلوه‌های اصلی و تعاملات) با عباراتی فرموله شده است که هر کدام با یک مدل جزئی همراه است که تعدادی ستون از ماتریس مدل حذف شده است. فرض کنید من می خواهم وزن بدن هر آزمودنی را نیز به عنوان یک متغیر در نظر بگیرم. من به سختی هیچ بحثی در مورد مدل سازی چنین متغیری تحت چارچوب GLM می بینم. این واقعاً یک رویکرد ایده‌آل نیست زیرا فرض می‌شود که هر سه دسته دارای اثر وزن بدن یکسان هستند. بنابراین، وقتی یک متغیر کمکی در یک GLM گنجانده شده است، دقیقاً چه مشکلی وجود دارد؟ متعامد شکسته یا چیز دیگری؟
مدل خطی عمومی با یک متغیر کمکی در حضور یک عامل اندازه گیری مکرر
11695
قدرت در رگرسیون لجستیک چیست؟ آیا این توانایی آزمون برای رد فرضیه صفر در حالی است که واقعاً نادرست است؟ دوم، اگر می‌خواهید قدرت آماری خود را هنگام انجام یک رگرسیون لجستیک به حداکثر برسانید، آیا بهتر است از مقادیر پیش‌بینی‌کننده که فقط بالا یا پایین هستند یا طیفی از مقادیر پیش‌بینی‌کننده استفاده کنید؟
رگرسیون لجستیک - قدرت و مقادیر پیش بینی کننده
80814
برآوردگر حداقل مربعات پارامتر B (بتا) را در مدل رگرسیونی زیر بیابید: y= B + u واریانس برآوردگر چقدر است؟
برآوردگر حداقل مربعات پارامتر B (بتا) را در مدل رگرسیونی زیر بیابید: y= B + u واریانس برآوردگر چقدر است؟
89369
فاصله اطمینان برای میانگین متغیر تصادفی $Y$ دارای پوشش $1-\alpha$ است که من سعی دارم نشان دهم. شروع از $$\widehat{E(Y)} - q_{1-\frac{\alpha}{2}}\sqrt{\frac{\widehat{Var(Y)}}{n}} \leq E( Y) \leq \widehat{E(Y)} + q_{1-\frac{\alpha}{2}}\sqrt{\frac{\widehat{Var(Y)}}{n}} $$ من دوباره این را به $$- q_{1-\frac{\alpha}{2}} \leq \sqrt{n} \left( \frac{\widehat{E(Y)}-E(Y)} تنظیم کردم {\sqrt{Var(Y)}} \right) \leq q_{1-\frac{\alpha}{2}} $$ سپس با قضیه حد مرکزی $\sqrt{n} (\widehat{E(Y)} - E(Y)) \rightarrow N(0,Var(Y))$. سپس از قضیه نگاشت پیوسته استفاده می کنم. با توجه به اینکه $\widehat{Var(Y)} = \frac{1}{n}\sum^{n}_{i=1} Y_i^2 - (\frac{1}{n}\sum^n_i Y_i )^2$، تابع $m:(x,y) \rightarrow x - y^2$ را تعریف کنید. سپس $$x \equiv \sum^{n}_{i=1} Y_i^2 \rightarrow E(Y^2)$$ و $$y \equiv \sum^{n}_{i=1} Y_i \rightarrow E(Y)$$ توسط قانون ضعیف اعداد بزرگ. سپس $\widehat{Var(Y)} = g(x,y) \rightarrow g(E(Y^2),E(Y)) = Var(Y)$ برآوردگر ثابت واریانس است. بنابراین $$\sqrt{n} \left( \frac{\widehat{E(Y)}-E(Y)}{\sqrt{Var(Y)}} \right) \rightarrow N(0,1)$ $ اما اکنون من در چگونگی ادامه برای به دست آوردن نرخ پوشش نهایی گیر کرده ام. اگر کسی می تواند به من راهنمایی کند که چگونه می توانم به آنجا برسم، بسیار سپاسگزار خواهد بود. @AlexH با تشکر از اشاره به اشتباه تایپی. فکر می کنم نکته را متوجه شده ام. این باید $$ \begin{align} Pr \left(\sqrt{n} \left( \frac{\widehat{E(Y)}-E(Y)}{\sqrt{\widehat{Var(Y) باشد }}} \in (-q_{1-\frac{\alpha}{2}}, q_{1-\frac{\alpha}{2}} \right) \right) &= Pr(N(0,1) \in (-q_{1-\frac{\alpha}{2}}, q_{1-\frac{\alpha}{2}} )) \newline &= Pr(N (0,1) \leq q_{1-\frac{\alpha}{2}} - Pr(N(0,1) > q_{\frac{\alpha}{2}}) \newline &= \ فی (q_{1- \frac{\alpha}{2}}) - \Phi (q_{\frac{\alpha}{2}}) \newline &= 1 - \frac{\alpha}{2} - \ frac{\alpha}{2} \newline &= 1 - \alpha \end{align} $$
بازه های زمانی اثبات اطمینان پوشش
90371
من یک مجموعه داده دارم که از 15 مقدار سن تشکیل شده است. من می خواهم قبل از انجام هر کاری اطلاعات را پاک کنم. چند سوال در مورد پاکسازی داده ها و یکپارچگی داده ها دارم. اگر مجموعه داده حاوی مقدار غیرقانونی باشد (مانند '${\rm F1}$'، به عنوان مثال) بهترین درمان چیست؟ من فکر کردم که گرفتن میانگین از 14 مقدار باقیمانده و انجام یک جایگزینی میانگین ممکن است ایده خوبی باشد. اگر مقادیری وجود دارد که نمی توانند درست باشند، مانند -99 دلار (هیچکس نمی تواند -99 دلار سال سن داشته باشد)، آیا بهترین اقدام یک درمان ذهنی است؟ یا باید از روش آماری مثل جایگزینی میانگین استفاده کنم؟ به نظر من منطقی به نظر می رسد که 99-$ را به $99+ تبدیل کنم و آن را به عنوان یک خطای ورود داده در نظر بگیرم. آیا $0$ می تواند یک سن باشد؟ مجموعه داده حاوی مقدار $0$ است. من بیشتر به دنبال این هستم که بدانم آیا رویکرد رسمی برای مقابله با این نوع مشکلات وجود دارد یا خیر.
چگونه با مقادیر داده های نامعتبر مانند سن (به عنوان مثال، -99، 0، F1) برخورد کنیم؟
12341
من می خواهم از BIC برای انتخاب مدل HMM استفاده کنم: BIC = -2*logLike + num_of_params * log(num_of_data) بنابراین چگونه می توانم تعداد پارامترهای مدل HMM را بشمارم. یک HMM 2 حالته ساده را در نظر بگیرید، که در آن داده های زیر را داریم: داده = [1 2 1 1 2 2 2 1 2 3 3 2 3 2 1 2 2 3 4 5 5 3 3 2 6 6 5 6 4 3 4 4 4 4 4 4 3 3 2 2]; model = hmmFit (داده، 2، 'گسسته')؛ model.pi = 0.6661 0.3339; model.A = 0.8849 0.1151 0.1201 0.8799 model.emission.T = 0.2355 0.5232 0.2259 0.0052 0.0049 0.0053 0.0053 0.0053 0.021450.02149 0.1578 logLike = hmmLogprob (مدل، داده)؛ logLike = -55.8382 بنابراین من فکر می کنم: Nparams = اندازه (model.A,2)*(size(model.A,2)-1) + size(model.pi,2)-1) + size(model.emission. T,1)*(size(model.emission.T,2)-1) Nparams = 13 بنابراین در پایان داریم: BIC = -2*logLike + num_of_params*log(length(x)) BIC = 159.6319 من راه‌حلی پیدا کردم که در آن فرمول «تعداد_پارام‌ها» (برای مدل ساده مارکوف) به نظر می‌رسد: Nparams = تعداد_حالات*(تعداد_حالات-1) - Nbzeros_in_transition_matrix ? آیا باید برخی از احتمالات صفر را در ماتریس های انتقال یا انتشار در نظر بگیرم؟ ====به‌روزرسانی شده از تاریخ 2011/07/15==== فکر می‌کنم بتوانم در مورد تأثیر بعد داده‌ها توضیحی ارائه کنم (با استفاده از مثال «توزیع مخلوط گاوسی») X یک ماتریس n-by-d است که در آن (n- ردیف مطابقت دارد) به مشاهدات، d-ستون ها با متغیرها مطابقت دارند (Ndimensions) 3,17 3,43 2,94 3,92 5,04 1,65 1,79 1,59 3,92 2,53 3,73 2,26 3,60 3,87 5,01 3,71 4,83 1,89 3,30 ]; [n d] = اندازه (X) d = 2 این مدل دارای پارامترهای زیر است GMM: nParam = (k_mixtures - 1) + (k_mixtures * NDDimensions ) + k_mixtures * Ndimensions % برای ماتریس های کوواریانس دایگونال nParam = (k_mixtures – 1) + (k_mixtures * NDimensions * NDimensions s *NDimensions s (NDimensions ) *NDimensions s (NDimensions ) + k_mixtures % برای ماتریس‌های کوواریانس کامل اگر X را به عنوان **داده یک بعدی** در نظر بگیریم، «تعداد_داده = (n*d)» داریم، بنابراین برای داده‌های **دوبعدی**، «تعداد_داده = n» داریم. **داده های 2 بعدی**: nParam = 11 ; logLike = -11.8197; BIC = 1.689 **داده یک بعدی**: nParam = 5 ; logLike = -24.8753; BIC = -34.7720 من تمرین بسیار کمی با HMM دارم. **آیا داشتن HMM با (پارامترهای 5000، 6000 و بیشتر) طبیعی است؟**
تعداد پارامترها در مدل مارکوف
114065
من با مجموعه داده‌ای از دانش‌آموزان و دروس آنها برای یک ترم کار می‌کنم و تلاش می‌کنم بر اساس دروس و ویژگی‌های مختلف دیگر که در آن «دوره‌ها» جنبه «تعدادی» یک رابطه یک به چند است، خوشه‌بندی کنم. اگر مهم است، من R، JMP و RapidMiner را در اختیار دارم. من می‌توانم مجموعه داده‌ها را به چند روش در یک ساختار جدول واحد پیشنهاد کنم، اما هیچ چیز برای من به دلایلی منطقی نیست: می‌توانم مجموعه داده‌ها را با ویژگی‌های چند جمله‌ای چند جمله‌ای ساختار دهم که می‌تواند مقدار هر نام دوره را بگیرد. به عنوان مثال، STUDENT course1 course2 course3 course4 course5 GPA TEST1 TEST2 TEST3 1 ENGL2 MATH1 HIST1 ACCT1 BIOL2 3.2 87 342 18 2 ENGL1 CHEM2 COMP1 HIST1 N/A 3.5 93 312 22 و غیره. اما ترتیب دوره ها مهم نیست، به عنوان مثال، فرقی نمی کند HIST1 در course3 ظاهر شود یا course4. از طرف دیگر، می‌توانم تمام دوره‌ها را به مقادیر باینری تقسیم کنم، به‌عنوان مثال، آزمون معدل دانشجویی TEST1 TEST2 TEST3 ACCT1 BIOL2 CHEM2 COMP1 ENGL1 ENGL2 HIST1 MATH1 1 3.2 87 342 18 1 1 0 0 151223. 0 0 1 1 1 0 1 0 با این حال، در مجموعه داده های کامل، حدود 400 ویژگی به دست می آید. این بسیار ناکارآمد به نظر می رسد، و مجموعه داده هایی با ویژگی های بسیار کمتر، 16 گیگابایت رم سیستم من را خفه کرده اند. بنابراین، من مطمئن نیستم که چگونه ادامه دهم. هر گونه بینشی در مورد نحوه برخورد با چنین ساختارهای یک به چند معمولا مفید خواهد بود. با تشکر
چگونه می توان یک مجموعه داده رابطه ای را برای تجزیه و تحلیل خوشه بندی پیشنهاد کرد؟
45714
در یک صف M/M/1، می دانیم که زمان های بین ورود به صورت تصاعدی توزیع می شوند و زمان های سرویس یکسان است. توزیع زمان های بین ورود به سرور (معروف به زمان شروع سرویس) چگونه است؟ به عبارت دیگر، توزیع زمان بین زمانی که یک سرور شروع به کمک به مشتری می کند چگونه است؟ مقداری شهود: اگر $\lambda \ll \mu$، به ندرت منتظر می‌ماند، و سرور فقط ورودها را با همان نرخ ورود به صف تجربه می‌کند. اگر $\lambda \approx \mu$، سرور تقریباً همیشه مشغول است و ورودها را با همان نرخ سرویس/رسیدن تجربه می‌کند. با این حال، وقتی $\lambda < \mu$، چرخه هایی وجود دارد که مشتریان به خطوط خالی و اشغال شده می رسند. بنابراین، سرور در مواقعی نرخ واقعی ورود $\lambda$ را می بیند و در زمان های دیگر، ورود به آنها $\mu$ خواهد بود. یکی از اثبات های این قضیه از مجموع وزنی و احتمال مشغول بودن سرور استفاده می کند. من فکر می کنم ممکن است رویکرد مشابهی برای حل این مشکل وجود داشته باشد.
توزیع زمان رسیدن به سرور برای یک صف M/M/1 (آنچه سرور تجربه می کند)
114981
من سه دسته از نرخ های سلب حق اقامه دعوی در نیویورک دارم (نرخ ها تعداد دفعات سلب مالکیت در هر 1000 خانه است). این سه دسته عبارتند از: نرخ کلی سلب حق سلب مالکیت، نرخ برای خانه های داخل منطقه سیل، و نرخ برای خانه های خارج از مناطق سیل. نرخ ها برای 2.5 سال گذشته ماهانه است. نرخ ها در سطح شهرستان / شهرستان (برانکس، بروکلین، منهتن، کوئینز، استیتن آیلند) ارائه می شود. کدام فرآیند آماری می‌تواند تعیین کند که آیا تفاوت قابل‌توجهی در نرخ‌های سلب مالکیت هم در سطح شهر و هم در بین مناطق برای خانه‌های واقع در منطقه سیل در مقایسه با خانه‌های واقع در خارج از منطقه سیل‌زده وجود دارد؟ هر گونه اشاره در جهت درست قدردانی خواهد شد. با تشکر داده‌های مثال (با عرض پوزش برای قالب‌بندی) ماه کلی برونکس بروکلین منهتن کوئینز استیتن آیلند نیویورک 12-ژانویه 0.91 0.99 0.20 0.83 0.55 0.77 12-فوریه 1.08 0.86 0.17 0.87 0.84 0.17 بروکلین منهتن کوئینز استیتن آیلند نیویورک 12-ژانویه 0.96 0.90 0.15 0.81 0.43 0.71 12-فوریه 1.20 0.66 0.37 0.81 0.64 0.67 خارج از سیل منطقه ایالت کوئینهتن سیتی برونک سیتی ماهانه برانک 12 ژانویه 0.91 1.01 0.21 0.83 0.56 0.78 12-فوریه 1.08 0.91 0.14 0.84 0.80 0.80
چگونه می توان مجموعه ای از نرخ های سلب حق اقامه دعوی را با زمان و مکان مقایسه کرد
12343
من یک زیست شناس هستم تا آمارگیر، بنابراین ممکن است بینش کافی نداشته باشم. من روی دو گروه جفتی (پایه و پیگیری) به همراه یک گروه جداگانه از کنترل سالم اندازه گیری کردم. علاوه بر این، طراحی مطالعه نامتعادل است (12 = برای B و F و n = 5 برای HC). ### سوال * آیا تکنیک ANOVA وجود دارد که به من اجازه دهد یک ANOVA منصفانه را با در نظر گرفتن جفت‌سازی ذاتی برای گروه‌های پایه و پیگیری انجام دهم؟ من قبلاً با تست‌های t زوجی برای خط پایه در مقابل پیگیری و سپس تست‌های جفت‌نشده برای هر گروه در مقابل گروه کنترل سالم، تجزیه و تحلیل انجام داده‌ام، اما تعجب کردم که آیا تکنیک ظریف‌تری را از دست داده‌ام.
ANOVA با برخی از سوژه‌های جفت شده و برخی غیرجفت‌شده
12344
من پروتئین را در انسان با استفاده از دو روش مختلف اندازه گیری می کنم، X و Y (در مقیاس های مختلف اندازه گیری می شود). من دو تکرار برای نوع X و چهار تکرار برای نوع Y دارم. دو اندازه گیری را برای X و میانگین چهار اندازه گیری را برای Y برای به دست آوردن میانگین پروتئین واقعی می کنم. حدود 120 موضوع وجود دارد. تنوع زیادی در اندازه‌گیری‌های تکرار وجود دارد و به‌طور شگفت‌انگیزی، رابطه بین مقادیر متوسط ​​X و میانگین Y خیلی قوی نیست (r = 0.36). من سعی می کنم تعیین کنم که کدام روش اندازه گیری بهتر است. من می خواهم از سطح پروتئین آزمودنی به عنوان پیش بینی کننده در یک مدل رگرسیون استفاده کنم. من به بررسی ضریب تغییرات و آلفای کرونباخ فکر کرده ام. آیا این دو نتیجه باید هماهنگ باشند؟ آیا آنها اینجا درخواست می دهند؟ چه چیزی را توصیه می کنید؟ داده های مثال: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/l6jfL.png) به روز رسانی: از همه برای پاسخ های متفکرانه متشکریم. من اطلاعات بیشتری در مورد داده ها پیدا کرده ام (به نوعی به سمت من پرتاب شد). اندازه گیری پروتئین در روزهای متوالی انجام شد (بنابراین X دو روز و Y 4 روز بود). بنابراین به طور طبیعی پروتئین فرد از روز به روز متفاوت است که تنوع در اندازه گیری ها را توضیح می دهد. سپس میانگین به عنوان تخمینی از مصرف پروتئین فعلی آنها استفاده می شود. در حال حاضر این یک رویکرد رایج برای اندازه‌گیری سطح پروتئین افراد است، زیرا هیچ راهی برای دانستن سطح فعلی پروتئین مصرفی افراد وجود ندارد. من دوست ندارم اندازه گیری پروتئین را انتخاب کنم که بیشترین ارتباط را با نتیجه دارد. فکر نمی‌کنم داوران این توجیه را دوست داشته باشند. نگاه کردن به اندازه‌گیری‌های مختلف قابلیت اطمینان برای من رویکرد بهتری به نظر می‌رسد (من ضریب تغییرات را ترجیح می‌دهم). من همیشه فکر می کردم که آلفای کرونباخ برای قابلیت اطمینان یک ساختار نهفته استفاده می شود (شما می توانید در اینجا استدلال کنید که فکر می کنم پروتئین نهفته است). همچنین همبستگی واقعاً بین X و Y کم است. با این حال من آن همبستگی را با نادیده گرفتن خطای اندازه‌گیری مشهود در X و Y محاسبه کردم. تصحیح آن منجر به همبستگی قوی‌تر می‌شود. همچنین آموخته‌ام که جمع‌آوری داده‌ها نامرتب بوده است، بنابراین نداشتن همبستگی قوی تعجب‌آور نیست.
چگونه تشخیص دهم که کدام مجموعه اندازه گیری بهتر است؟
20124
من می خواهم همبستگی بین یک متغیر ترتیبی 7 طبقه ای (X) و تعدادی متغیر دیگر را ارزیابی کنم که برخی از آنها ترتیبی با 3-6 دسته، برخی دیگر پیوسته و یک زوج دوگانه هستند. مجموعه داده شامل تنها 24 مشاهدات است و بنابراین فقدان نرمال بودن و مشاهدات مرتبط مسائلی هستند که باید در نظر گرفته شوند. * آیا بهتر است از ضریب کندال برای ارزیابی همبستگی بین X و هر یک از متغیرهای دیگر استفاده شود؟ اگر چنین است، کدام یک (یعنی tau-a یا tau-b؛ من می دانم که راجر نیوسون طرفدار اولی است)؟ * آیا استفاده از اسپیرمن نیز منطقی است؟ * و بهترین آزمون برای ارزیابی همبستگی با هر یک از متغیرهای دوگانه چیست؟
همبستگی اسپیرمن یا کندال؟
63370
من بارها از مردم به من گفته‌ام که وقتی ارقام را در طول زمان با هم مقایسه می‌کنید، می‌توانید / باید آزمایش‌هایی را که معمولاً برای آمار نمونه (مثلاً تفاوت میانگین‌ها و غیره) در نظر گرفته شده انجام دهید. معمولاً ادعا می شود که این به این دلیل است که هر سرشماری «نمونه ای در زمان» است. درک من این است که بسط نظریه نمونه گیری به این شکل مناسب نیست. به طور خاص، توضیح زیر (که از تکنیک های آماری سرشماری کپی شده است) دیدگاه من را به خوبی توصیف می کند. > وقتی نمونه ای دارید، از آمار استنباطی برای تعمیم به جمعیت > استفاده می کنید. هنگامی که شما یک سرشماری دارید، از قبل اطلاعاتی برای کل جمعیت دارید، بنابراین نیازی به تعمیم نیست. به عنوان مثال، اگر از نمونه گیری استفاده کرده اید، و بین > گروه ها 3 درصد تفاوت وجود دارد، باید از آمار استنباطی استفاده کنید تا تصمیم بگیرید که آیا این تفاوت 3 درصد واقعی است یا فقط به دلیل شانس تصادفی هنگام نمونه گیری است. . > > اما اگر یک سرشماری انجام دادید، و بین گروه ها 3 درصد تفاوت وجود داشت، خوب، > قطعاً 3 درصد تفاوت وجود دارد. این تفاوت 3 درصدی به دلیل > شانس تصادفی در نمونه گیری نیست، زیرا شما داده هایی برای کل جامعه دارید. > با این حال، حتی با یک سرشماری، باز هم باید از قضاوت خود استفاده کنید تا به این فکر کنید که چرا یک تفاوت 3٪ (به دلایلی غیر از شانس تصادفی در نمونه گیری) وجود دارد، و اینکه آیا تفاوت 3٪ به اندازه کافی بزرگ است که می توانید داشته باشید. > هر گونه اهمیت عملی برای کاری که انجام می دهید. > > بنابراین اساسا، فقط از آمار توصیفی استفاده کنید. همبستگی ها خوب هستند، اما شما > فقط به مقدار r برای نشان دادن قدرت همبستگی نیاز دارید، نه مقدار p > که مربوط به شانس تصادفی در نمونه گیری است. > > بسیاری از مردم تفاوت بین آمار نمونه و آمار سرشماری > را درک نمی کنند و از اینکه شما آمار را به درستی انجام نداده اید شکایت خواهند کرد. من مواردی داشتم که در نهایت مجبور شدم آمار استنباطی را روی داده های سرشماری انجام دهم فقط به این دلیل که مردم آنقدر شکایت کردند که هیچ مقدار p در هیچ چیزی وجود نداشت! > > اگر داده‌های گمشده زیادی از سرشماری دارید، گاهی اوقات به برخی آمارهای استنباطی فانتزی برای پر کردن آن نیاز دارید. من شک دارم که این برای شما صدق کند، اما > در مورد سرشماری جمعیت ایالات متحده صدق می‌کند زیرا (برای برخی عجیب و غریب) دلیل آزادیخواهانه) تکمیل نظرسنجی سرشماری در ایالات متحده اجباری نیست. با این حال، **سوال من به مقایسه بین گروه ها مربوط می شود**. استدلالی که به من داده شد این است که وقتی به زمان نگاه می کنید، هر پارامتر سرشماری در واقع یک نمونه تک نقطه ای از تمام پارامترهای ممکن در طول زمان است. من با این موضوع چند مشکل دارم: 1. تفاوت در ارقام سرشماری در طول زمان به شانس نسبت داده نخواهد شد. آنها باید منتسب به تغییرات در محیط / جمعیت اساسی باشند و 2. حتی اگر استدلال «نمونه‌ها در زمان» درست باشد، شما فقط نقاط داده بسیار کمی از این «جمعیت نامحدود» نمونه‌گیری می‌کنید - شاید پارامترهای چهار یا پنج سرشماری هایی که می خواهید مقایسه کنید - که به این معنی است که $n$ آنقدر کوچک است که برای تولید آمار نمونه بی فایده است. مطمئناً دیگران به طور رسمی تری به این وضعیت پرداخته اند، اما من نتوانسته ام مطالبی را پیدا کنم که این وضعیت را پوشش دهد. بنابراین سوال من این است: **آیا کسی در اینجا می تواند من را در جهت مطالبی که در مورد این موضوع بحث می کند راهنمایی کند یا توضیحی در مورد استدلال نمونه ها در زمان ارائه دهد که پایه رسمی تری برای پذیرش اینکه واقعاً استفاده از آزمون های آماری نمونه مناسب است ارائه می دهد. در مورد پارامترهای سرشماری؟**
آیا آمار نمونه هنگام مقایسه داده های سرشماری در طول دوره های زمانی مرتبط است؟
99229
در حال مطالعه در زمینه شناخت و رفتار هستم. من در حال سخنرانی دروس زبان شناسی و آموزش اصطلاحات زبان شناسی با تصاویر بصری هستم. در تحقیقاتم، درست قبل از هر دوره، از شرکت کنندگان 20 سوال رفتاری بله-نه پرسیدم، مانند آیا تا به حال توسط سگ گاز گرفته شده اید یا تا به حال سینفل را تماشا کرده اید. بعد شروع کردم و در طول دوره، تعدادی عکس را به آنها نشان دادم که با اصطلاحات زبانی مرتبط است. این تصاویر مطابق با این سوالات مانند تصویر یک پیتبول یا صحنه ای از سینفلد است. سپس در پایان دوره، از آنها خواسته می شود که این تصاویر را روی اصطلاحات زبانی خاصی که مرتبط هستند قرار دهند. من در مورد حفظ آنها تعجب می کنم که کدام تصاویر را به خاطر می آورند و به درستی قرار می دهند. فرضیه من این است که 20 سوالی که از آنها پرسیدم در انتخاب تصاویر آنها موثر است. به عنوان مثال، تماشای seinfeld یادآوری مجدد آن را آسان تر می کند. من داده هایم را در SPSS آماده کردم، سوالات بله-خیر 1-0 هستند و تست حفظ آنها به همان اندازه اشتباه و صحیح 1-2 است. چگونه می توانم رابطه علت و معلولی بین این متغیرهای دوگانه را اندازه گیری کنم، از کدام آزمون برای اندازه گیری تأثیر 20 مورد رفتاری بر حفظ صحیح و غلط استفاده کنم. من 16 شرکت کننده دارم. لطفا، من واقعاً به کمک نیاز دارم، می دانم که نمی توانم دو متغیره کنم. خیلی ممنون.
برای انتخاب کدام آزمون به کمک نیاز دارید؟
101321
من این ابزار را پیدا کردم که برخی از عملکردهای ارزیابی شناخته شده مانند دقت و یادآوری را ارائه می دهد. متأسفانه این ابزار فقط C-SVM کلاس باینری را پشتیبانی می کند. می خواستم بدانم کجا می توانم توابع ارزیابی مشابهی را پیدا کنم که برای تخمین احتمال SVM مناسب هستند؟ اگر ابزار توسعه LIBSVM مانند ابزار بالا وجود داشته باشد، حتی بهتر است. در غیر این صورت خوشحال می شوم در مورد توابع ارزیابی برای تخمین احتمال SVM بیشتر بخوانید. با تشکر
توابع ارزیابی LIBSVM برای تخمین احتمال
62972
من نگاهی به چندین الگوریتم یادگیری ویژگی بدون نظارت انداختم. بسیاری از آنها (ماشین های محدود بولتزمن و رمزگذارهای خودکار پراکنده) حتی در مجموعه داده های کوچکی مانند MNIST زمان آموزش بسیار طولانی دارند. نمی دانم آیا الگوریتم های مشابهی وجود دارد که بتوان در زمان کمتری آموزش داد؟ الگوریتم‌های مشابهی که امیدوارکننده به نظر می‌رسند ممکن است هزینه فیلترینگ و بازسازی پراکنده ICA (RICA) باشد. آیا ممکن است بیشتر باشد؟ مشکل دیگر برخی از این الگوریتم‌ها این است: اکثر آنها به آموزش دسته‌ای با الگوریتم‌هایی مانند L-BFGS نیاز دارند. در یک محیط آنلاین، به احتمال زیاد آموزش دادن آن‌ها بدون ذخیره‌سازی مجموعه‌ای از نمونه‌ها برای آموزش، دشوار خواهد بود. آیا جایگزین هایی وجود دارد؟ آیا چیزی در ادبیات وجود دارد؟ چیزی پیدا نکردم.
سریعترین الگوریتم یادگیری ویژگی بدون نظارت چیست؟
49814
من خیلی دور برای پاسخ روشن به سؤالم جستجو کرده ام (و می دانم که ممکن است پاسخ روشنی وجود نداشته باشد) و امیدوارم کسی بتواند به من کمک کند: من داده های نظرسنجی برای 4 نمونه با اندازه های نابرابر دارم (n = 500، 490، 101، 103). من می‌خواهم داده‌ها را برای تجزیه و تحلیل رگرسیون (به طور خاص لاجیت و توبیت) جمع‌آوری کنم، اما نمی‌دانم چگونه اندازه‌های مختلف نمونه و تأثیر آن‌ها بر نتایج مدل را محاسبه کنم. هیچ ایده ای دارید که چه کاری باید انجام دهم؟ خیلی ممنون
ادغام داده ها با حجم نمونه نابرابر
62975
بگویید من 4 متغیر دارم: اضطراب، افسردگی، حافظه و توجه. من برای آزمودنی ها تست داده ام و اکنون فهرستی از نمرات هر متغیر را دارم. بگویید من می خواهم رابطه بین ظرفیت های شناختی (حافظه و توجه) و خلق (افسردگی و اضطراب) را بدانم. مشکل اینجاست که هیچ راهی برای انتخاب یک متغیر وابسته تئوری پشتیبانی شده در مورد من وجود ندارد. قوای شناختی بد منجر به خلق بدتر می شود، اما خلق بد باعث عملکرد شناختی بدتر نیز می شود. بنابراین اکنون می‌پرسم: چگونه این چیز را مدل کنم؟ آیا باید 2 متغیر خلقی را به عنوان وابسته انتخاب کنم و حافظه و توجه را به عنوان پیش بینی اجرا کنم؟ اگر این را برعکس کنم برای نتایج مهم است؟ یا فقط برای تفسیر نتایج مهم است؟ احساس می کنم با یک مشکل بسیار واضح دست و پنجه نرم می کنم اما نمی توانم بفهمم چه کار کنم. تنها فکر دیگر من این بود که رگرسیون به سادگی برای یک مدل بدون اثرات مستقیم اعمال نمی شود و من این کار را کاملاً اشتباه انجام می دهم.
رگرسیون بدون متغیر وابسته آشکار
10279
من در حال تجزیه و تحلیل تعداد زیادی از مجموعه داده ها (تعداد بیش از 100) از نرخ های حادثه هستم، با هدف تشکیل یک توزیع نرمال. سپس می‌دانم که آیا نرخ رویداد آینده (x%) به میانگین تاریخی نزدیک است یا خیر، و می‌توانم آن را با فرمولی که از قبل ایجاد شده است امتیاز/امتیاز دهم. داده ها دارای انحراف مثبت هستند، زیرا بیشتر نقاط داده در اطراف یا نزدیک به صفر درصد جمع می شوند. من باید این داده ها را به یک توزیع عادی تبدیل کنم، درست است؟ روش ارجح در برخورد با درصدها چیست (اینها همیشه بین 0 تا 100 درصد خواهند بود؟ آیا روش های غیر عادی جایگزینی وجود دارد که بتوانم از آن برای رسیدن به خروجی مورد نظر خود استفاده کنم؟ به هر حال، فرض کنید من داده ها را تبدیل کرده ام و از توزیع نرمال پیروی می کند. اکنون می توانم میانگین و std dev را پیدا کنم، سپس آنها را در اکسل با استفاده از z-scores رسم کنم. سپس من باید بتوانم تعیین کنم که آیا نرخ حادثه x% در 10%، 20% بالای مقادیر قرار دارد یا خیر، و بر این اساس آن را با فرمول خود نمره دهم. آیا مشکلی در این روش وجود دارد؟
تجزیه و تحلیل نرخ حوادث تاریخی و رتبه بندی عملکرد آینده
54801
من یک مدل 3 پارامتری (میانگین، سیگما و تاو) را بر روی داده های خود قرار داده ام و همچنین خطای استاندارد را برای هر یک از آنها محاسبه کرده ام. آمار مورد علاقه برای داده های من مجموع میانگین و تاو است. سوال من این است که چگونه کل خطای این آمار جدید را تخمین بزنم؟ می دانم که نمی توانم به سادگی خطاهای میانگین و تاو را جمع کنم. هر گونه کمکی بسیار قدردانی خواهد شد. پیشاپیش ممنون
ترکیب خطاهای استاندارد پارامترهای برازش
68440
من در حال انجام تجزیه و تحلیل بقا در Stata با داده هایی هستم که به عنوان چندین رکورد در طول زمان ساختار یافته اند. برای نشان دادن، فرض کنید در حال مطالعه مرگ و میر بیماران هستم. **می‌خواهم بررسی کنم که آیا دو متغیر توضیحی، مثلاً وزن و فشار خون، با هم مرتبط هستند یا خیر.** می‌توانم یک همبستگی جفتی را با استفاده از «فشار خون وزن pwcorr» انجام دهم، اما این واقعیت را در نظر نمی‌گیرد که مشاهدات می تواند از همان بیماران باشد. چگونه باید همبستگی بین وزن و فشار خون را در حالی که خوشه بندی را در بیمار کنترل می کنم، آزمایش کنم؟ من ضریب تورم واریانس (VIF) را دیده ام که برای آزمایش همبستگی در داده های نظرسنجی استفاده می شود، اما مطمئن نیستم که چگونه آن را به داده های بقا منتقل کنم.
همبستگی بین متغیرهای توضیحی در تحلیل بقا
10274
من lmrob، cor.mve و cor.mcd را در R برای همبستگی قوی دو سری اعداد (با طول یکسان) A و B امتحان می‌کنم. اگر A~B یا A,B قرار دهم نتایج متفاوتی به دست می‌آورم. B~A یا B,A. کسی میتونه منو راهنمایی کنه که چرا؟ با تشکر
همبستگی قوی در R، جهت
89164
من دارم روی یک مشکل ابهام‌زدایی حس کلمه کار می‌کنم. به طور خاص، من از لیست های تصمیم برای طبقه بندی کلمه مبهم استفاده می کنم. لیست های تصمیم گیری به روش زیر عمل می کنند. مقدار $$log(\frac{P(sense_1 | collocation)}{P(sense_2 | collocation)})$$ برای کلمه مبهم محاسبه می‌شود. و اگر ریاضی من درست باشد، $$\frac{P(sense_1|هم‌آهنگی)}{P(sense_2|هم‌آهنگی)}=\frac{\frac{count(collocation,sense_1)}{count(collocation)}}{\frac{count(collocation,sense_2 )}{count(collocation)}}=\frac{count(collocation,sense_1)}{count(collocation,sense_2)}$$ بنابراین اگر مطلق مقدار گزارش این کمیت بالاتر از یک آستانه معین است، سپس یک قانون تصمیم گیری (بر اساس علامت روی گزارش این کمیت) ایجاد می شود. مسئله ای که من دارم این است که در این مقدار کل نمونه های آموزشی هر کلاس در نظر گرفته نمی شود. به عنوان مثال، چه می شود اگر sense_1 دارای 100 مثال و 99 مورد از آنها دارای 'همنشینی' باشد و sense_2 دارای 10000 مثال و 105 مورد از آنها دارای 'Colocation' در آنها باشد. در آن صورت، «هم‌آمیزی» به احتمال زیاد با sense_2 مرتبط است که از نظر شهودی درست نیست. آیا بهتر است این شمارش ها را با اندازه کل کلاس خاص در داده های آموزشی مقیاس کنیم؟
مشکل عدم تعادل طبقاتی در مشکل طبقه بندی
90373
من به مسئله 5.01 مربوط به داده های گالتون در مورد قد بزرگسالان پدران و پسران، از **فصل 5 مدل سازی آماری: رویکردی تازه** نگاه می کنم _ پیوند به این کتاب:_ http://www.mosaic- web.org/ go/StatisticalModeling/index.html _آیا کسی می تواند به من توضیح دهد که چرا فاصله اطمینان با فاصله پوشش آنقدر متفاوت است؟_ **مشکل 5.01. میانگین کودکان بزرگسال در داده‌های گالتون **> میانگین (قد، داده=گالتون) است [1] 66.76069 > اگر گالتون نمونه متفاوتی از بچه‌ها را انتخاب می‌کرد، احتمالاً نتیجه کمی متفاوت می‌گرفت. فاصله اطمینان محدوده احتمالی > نتایج ممکن را در اطراف نتیجه واقعی نشان می دهد. > > از bootstrapping برای محاسبه فاصله اطمینان 95 درصدی میانگین > قد کودکان بزرگسال در داده های گالتون استفاده کنید. عبارت زیر 500 آزمایش بوت استرپینگ را ایجاد می کند. trials = do(500) * mean(height, data= resample (Galton) ) > **(a) فاصله اطمینان 95% روی میانگین ارتفاع چقدر است؟** > > **A. 66.5 تا 67.0 اینچ. ** > B. 66.1 تا 67.3 اینچ. > C. 61.3 تا 72 اینچ. > D. 65.3 تا 66.9 اینچ. > > **(ب) بازه پوشش 95% روی قد تک تک کودکان را می توان به صورت زیر محاسبه کرد:** qdata(c(0.025,0.975)، قد، داده = گالتون) 2.5% 97.5% 60 73 > ** س: توضیح دهید که چرا فاصله پوشش 95 درصدی قد کودکان > بسیار متفاوت از فاصله اطمینان 95 درصد در میانگین است. قد همه > بچه ها؟**
چرا فواصل برای وسایل باریکتر از فواصل برای مشاهدات فردی است؟
78207
من برخی از داده های دوره زمانی دارم که می خواهم اولین مشتق آن را بدست بیاورم. از آنجایی که مدل‌سازی بسیار دشوار به نظر می‌رسد، من قصد ندارم تابعی را با آن تطبیق دهم، بلکه مشتق اول را به صورت عددی محاسبه می‌کنم (تفاوت هر اندازه‌گیری را از اندازه قبل از طریق تابع numpy.diff محاسبه می‌کنم. اکنون، من همچنین می‌خواهم از داده‌هایم نمونه برداری کنم تا از شر نویز خلاص شوم. من سعی کرده‌ام محاسبه کنم که آیا فرقی می‌کند که ابتدا آن را استخراج کنم و آن را کاهش دهم یا ابتدا مقیاس را کاهش دهم و آن را استخراج کنم. اما با وجود این که سعی می‌کنم به آن نگاه کنم، به نظر نمی‌رسد که نمی‌توانم متغیرهای یکسانی را در هر دو طرف معادله خود قرار دهم (سمت اول - چگونه به کار تمایز و نمونه‌برداری بعدی اعتقاد دارم، و در طرف دوم برعکس). $ \frac{(b-a)+(c-b)}{2} = \frac{c+d}{2}-\frac{b+a}{2} $ آیا می‌توانید به من کمک کنید تا بفهمم به چه ترتیبی مهم است یا خیر؟ من عملیاتم را انجام دهم؟
تمایز عددی (مشتق) و نمونه برداری پایین
67612
یکی از دوستانم به من مراجعه کرد تا به او کمک کنم تا مدل رگرسیون لجستیک چند جمله ای خود را تفسیر کند. آنها افراد را به عنوان 1 حالت از 2 حالت در 2 دوره زمانی اندازه گیری کردند. بنابراین، هر فرد می تواند 1 از 4 پیکربندی را داشته باشد: شروع در حالت 1، پایان در حالت 1. شروع در حالت 1، پایان در حالت 2. حالت شروع 2، حالت پایان 1; حالت شروع 2، حالت پایان 2. آنها تجزیه و تحلیلی را انجام داده بودند که در آن نتیجه دارای 4 سطح مربوط به هر یک از این تنظیمات بود. این به نظر من یک روش غیرطبیعی برای انجام این کار بود. من احساس می کنم که این وضعیتی شبیه به حالتی است که شما یک نتیجه مستمر داشتید، که در 2 نقطه زمانی اندازه گیری می شد. اگر به تغییر از خط پایه علاقه مند بودید، می توانید مقدار پایانی را مدل کنید و برای خط مبنا و سایر متغیرهای کمکی تنظیم کنید. آیا این به رگرسیون لجستیک ترجمه می شود؟ آیا می توانید حالت پایان را مدل کنید و حالت شروع را با سایر متغیرهای کمکی تنظیم کنید؟ نمی‌توانستم دلیل خوبی برای اینکه این کار نمی‌کند فکر کنم، اما این مشکل را هم داشتم. آیا این بهتر از مدل سازی نتیجه به عنوان 4 دسته ممکن است؟
رگرسیون لجستیک قبل از بعد
21545
اجازه دهید $p_1$ و $p_2$ دو توزیع احتمال مجزا باشند. $$ L(q)=D(q||p_1)-D(q||p_2) $$ را تعریف کنید که $D$ واگرایی معمول Kullback-Leibler است. فرض کنید پشتیبانی از $p_2$ در پشتیبانی از $p_1$ گنجانده شده است. آیا این درست است که $L(q)$ به حداکثر (جهانی) در $q=p_2$ دست می یابد؟ از کجا می توانم دلیلی برای این واقعیت پیدا کنم (اگر درست باشد)؟ **ویرایش** : فرض می کنم (الف) PMF گسسته (ب) به دنبال حداکثر در زیر مجموعه $$ \Delta = \\{ q| supp(q)\subsetq supp(p_1)\\}. $$ با تشکر فراوان،
خاصیت KL-واگرایی
44440
من مجموعه ای از 20 متغیر دارم که آنها را از طریق تحلیل عاملی در SPSS قرار داده ام. برای اهداف تحقیق، من باید 6 عامل را توسعه دهم. SPSS نشان داده است که 8 متغیر (از 20 متغیر) با وزن کم بارگذاری شده اند یا به طور مساوی بر روی چندین عامل بارگذاری شده اند، بنابراین آنها را حذف کردم. 12 متغیر باقیمانده به صورت جفت 2 تایی در 6 عامل بارگذاری شده اند، که عالی است - درست همانطور که من می خواستم، اما اکنون، یکی از اساتیدی که با من کار می کند از من می خواهد که دلیل مناسب بودن (یا تحت چه شرایطی) را پیدا کنم. استفاده از 2 مورد در هر عامل مناسب است، زیرا معمولاً مشخص است که تحلیل عاملی با 3 یا بیشتر در هر عامل استفاده می شود. آیا کسی می تواند به من در این موضوع کمک کند، ترجیحاً با یک مرجع منتشر شده نیز؟
چه زمانی در تحلیل عاملی استفاده از دو آیتم (متغیر) برای هر عامل قابل قبول است؟
49816
من مجموعه داده ای با روابط خطی و درجه دوم برای متغیر پاسخ خود در بین افراد دارم. مجموعه داده من شامل افراد نمونه برداری شده از دو جمعیت است (9 نفر از جمعیت A و 8 نفر از جمعیت B). برای هر فرد، ایزوتوپ های نیتروژن پایدار را از 9 پر بال که به طور متوالی رشد کرده اند (سری های زمانی) اندازه گیری کرده ام. من دو فرضیه دارم: 1. تفاوت آنها در مقادیر میانگین ایزوتوپ در سراسر بال برای افراد بین دو منطقه است. 2. تفاوت آنها در تغییرات مقادیر ایزوتوپ در سراسر بال برای افراد بین دو منطقه، باید اعتراف کنم که من یک مدل های تازه کار تا ترکیبی در اصل من به اشتباه فرض می‌کردم که داده‌های من برای هر فرد «خطی» است. به لطف بن بولکر، اکنون می دانم که چگونه این فرضیات را آزمایش کنم و متوجه شدم که یک نفر از 17 نفر رابطه درجه دوم دارد. قبل از کشف خطای خود، GLMM های زیر را با استفاده از بسته 'nlme' در 'R' ساخته بودم: model1 <- lme(Delta15N~factor(Population)، روش = REML، داده = داده، تصادفی = ~ 1 | فردی، همبستگی = corAR1 (شکل = ~ 1 | فردی)) model2 <- lme(Delta15N ~ فاکتور (جمعیت)*پر، روش = REML، داده = داده، تصادفی = ~ 1 فرد، همبستگی = corAR1(فرم = ~ 1 | فردی)) لطفاً یک مرجع یا کد مثالی را پیشنهاد دهید که ممکن است از آن استفاده کنم | داده های من را به درستی مدل سازی کنید؟
آیا می توانم از یک مدل ترکیبی غیر خطی برای داده های حاوی هر دو رابطه خطی و درجه دوم استفاده کنم؟
78203
در مثال اول http://statisticshelp.com/siguri-interval خطای استاندارد نسبت $$\frac{\sqrt {p(1-p)}}{n}$$ چرا؟
خطای استاندارد نسبت
63372
من مجموعه‌ای از $n=1000$ نمونه‌های 4 بعدی (چند متغیری) دارم که در آن هر اندازه‌گیری به‌دست‌آمده از داده‌های ردیابی GPS در یک بازه زمانی گرفته می‌شود که مختصات فضایی $(x,y)$، سرعت را نشان می‌دهد. بنابراین، مجموعه داده شامل 5 ستون (بعد دیگری برای زمان) از 1000 تاپل است. از آنجایی که 4 بردار همبسته وجود دارد، پس باید 4 متغیر در مدل وجود داشته باشد که هر کدام یک اندازه گیری را نشان می دهند. من واقعاً در تلاش هستم تا تعیین کنم: 1. چگونه می توان مدل سازی را با ورودی های متعدد و تک خروجی آغاز کرد 2. کدام مدل را انتخاب کرد؟ 3. آیا انتخاب مدلسازی به توزیع احتمال بستگی دارد؟ اگر چنین است پس چه رابطه ای وجود دارد؟ 4. مدل های خطی باید باشد یا غیرخطی؟ تصویرسازی با یک مثال کوچک واقعا مفید خواهد بود.
نحوه مدل سازی سری های زمانی چند متغیره
48656
من سعی می کنم مقادیری را در یک جدول برای تابع زیر ایجاد کنم: $$ W = \int_0^1 [B(t)]^2 dt $$ که در آن $B(t)$ یک حرکت استاندارد براونی است. مثال: $W_{0.05} = 1.656$، $W_{0.025} = 2.135$. این از جدول C.6 در تحلیل بقا توسط Klein & Moeschberger گرفته شده است. (آنها اشاره ای به نحوه محاسبه مقادیر نمی دهند). من از «R» برای این استفاده می‌کنم: تابع BM2 <- (x) (rnorm(n=1، میانگین=0، sd=x))^2 اما البته استاندارد «ادغام» (BM2، پایین‌تر=0، بالا=1) )» برای این کار نمی کند: «ارزیابی تابع نتیجه طول اشتباه را نشان داد». با نگاهی به این سوال مشابه، مشابه است، اما واضح است که به این سادگی نیست: $$ W_t = \frac{t^3}{3} $$ من حدس می‌زنم که تابع با روش Ito یکپارچه شده است، اما به نظر نمی‌رسد که هیچ کدام را پیدا کند. نمونه های کار شده مشابه فرمول بالا. هر گونه راهنمایی یا نشانگر (مخصوصاً در R که به نظر نمی رسد تابعی برای این کار داشته باشد) بسیار قدردانی می شود، به خصوص اگر مقادیر عددی داده شده در بالا قابل بازتولید باشند. به روز رسانی 1/29: با تشکر @ThePawn. سوال تصحیح شد من روش نمونه‌گیری مجدد را دوست دارم و تقریب‌های منطقی را تولید می‌کند. در ابتدا فکر کردم این به دلیل کوچک بودن حجم نمونه یا تکرارهای حلقه است. به نظر نمی رسد که تابع در «R» به راحتی «vecorize» شود، بنابراین آن را در C++ بازنویسی کردم. استفاده از نمونه های >10000 یا dt <0.0001 تمایل زیادی به بهبود اوضاع ندارد (که احتمالاً باید حدس می زدم) و نسبتاً کند می شود. به نظر نمی رسد این روش دقتی فراتر از 1 رقم قابل توجه ارائه دهد (اگرچه این مطمئناً برای یک کاربرد عملی به اندازه کافی خوب است): require(rcpp) require(inline) src <- arma::colvec b1 = Rcpp::as<arma ::vec>(B); dt1 = as<double>(dt double dtrt1 = pow(dt1, 0.5). { دامنه RNGScope // بازنشانی مولد اعداد تصادفی هر بار arma::colvec rn1 = rnorm(nb1, 0, dtrt1 += rn1; integer,dt=double), src, plugin = RcppArmadillo) n <- 1e4 # اندازه نمونه B <- rep(0, n) # نتیجه را نگه دارید dt <- 1e-5 T <- seq(0, 1, dt) lt <- length(T) B <- f1(B,lt,dt) sum (B >2.135) /n # تقریبی = 0.025 مجموع (B > 1.656)/n # تقریباً = 0.05 @probabilityislogic - مطمئن نیستم چه فرآیندی محدود می‌کند من استفاده می کنم، برای پیشنهاد وجود دارد. آیا سعی می‌کنم فرمولی را که پیشنهاد می‌کنید پیاده‌سازی کنید، اما به نظر می‌رسد که راه‌حل تقریبی دیگری خواهد بود... * * * هنوز نمی‌دانم آیا روش دقیقی برای این کار وجود دارد - یا فکر می‌کنید مقادیر از یک رویکرد نمونه‌گیری مجدد مانند موارد بالا ایجاد شده‌اند؟
مقادیر برای انتگرال مربع فرآیند براونی استاندارد
12345
برای یک امتحان، نمرات 10 دانش آموز (همه از کلاس 4B) به دست آمد. من می خواهم هر امتیاز را به E-value تبدیل کنم. اگر درست متوجه شده باشم، برای محاسبه E-value ابتدا باید یک جمعیت نامرتبط را تعیین کنم، بنابراین، برای 30 دانش آموز در کلاس 4A نیز امتیاز گرفتم. برای بحث، من دو مجموعه داده در اینجا ایجاد کرده ام: class4B <- c (0، 10، 20، 30، 50، 40، 70، 80، 90، 99) class4A <- c(1، 3، 3، 3، 5، 6، 7، 2، 1، 90، 12، 14، 15، 44، 66، 88، 67، 78، 90، 45، 67، 99، 100، 12، 45، 56، 100، 23، 45، 29) * آیا مایلید به من اطلاع دهید که چگونه می توان مقادیر E-TEN برای هر دانش آموز را در Class4B با R؟ * آیا باید جمعیت کلاس 4A را در نظر بگیریم؟ * آیا بدست آوردن ارزش E بر اساس جمعیت نامرتبط یا به اصطلاح جمعیت تصادفی یک رویکرد آماری صحیح است؟
چگونه انتظارات (E-value) را برای یک مجموعه داده بدست آوریم؟
111291
من یک سوال نسبتا ساده دارم، اما شاید من اشتباه متوجه شده باشم. برای اهداف شبیه سازی استفاده از شاخص پراکندگی (SI) ابزار خوبی است، اما من این ایده را داشتم که هر چه شاخص پراکندگی کوچکتر باشد، نتایج شبیه سازی شده بهتر است. در مقاله‌ای که اخیراً داشتم می‌خواندم، آنها SI 0.90 را به عنوان یک نتیجه خوب ارائه کردند، در حالی که نتایج مشابه خودم معمولاً دارای SI 0.3-0.4 هستند که به نظر شما بهتر است. p.s من به رابطه اندازه گیری های واقعی و نتایج شبیه سازی در مدل های جوی اشاره می کنم. پیشاپیش از شما متشکرم
سوال شاخص پراکندگی