_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
94807 | این تکنیک استانداردی است که من برای محاسبه پارامتر یک مسئله رگرسیون خطی با یک متغیر مستقل استفاده کردهام. چگونه مسئله تخمین پارامتر در رگرسیون خطی چندگانه با متغیرهای مستقل 'k' متفاوت است. من فرض میکنم که هر متغیر مستقل را در یک مسئله رگرسیون خطی چندگانه بهطور جداگانه بررسی میکنم، که سپس به من «k» مسائل رگرسیون خطی ساده زیر را میدهد، و سپس پارامترهایی را به آنها اضافه میکنم تا مدل نهایی خود را ارائه کنم. من درخواست اصلاح یا بهبود دارم.  | تفاوت عمده بین تخمین پارامتر یک رگرسیون خطی ساده در مقابل چندگانه چیست؟ |
103086 | در ویکی پدیا آمده است که: > به یک خانواده نمایی برداری گفته می شود که بعد $$ > {\boldsymbol \theta} = \left (\theta_1, \theta_2, \ldots, \theta_d \right > ) منحنی است. T$$ کمتر از بعد بردار است $$ {\boldsymbol > \eta}(\boldsymbol \theta) = \left (\eta_1(\boldsymbol \theta)، > \eta_2(\boldsymbol \theta)، \ldots، \eta_s(\boldsymbol \theta) \right )^T.$$ با > $$ f_X(x|\boldsymbol \ تتا) = h(x) g(\boldsymbol \theta) > \exp\Big(\boldsymbol\eta({\boldsymbol \theta}) \cdot \mathbf{T}(x)\Big) $$ اما وقتی بعد $\boldsymbol \eta$ کوچکتر از $\boldsymbol \theta$ باشد چه اتفاقی میافتد؟ | بعد یک خانواده نمایی در مورد آن خانواده به ما چه می گوید؟ |
89315 | استفاده از کنتراست نوع ویلیامز در آزمون مقایسه چندگانه با بسته «multcomp»، آمار آزمون و مقادیر p-آزمایی متفاوتی را برای مجموعه دادههای مشابه و فرضیههای مشابه ارائه میدهد. من می خواهم تفاوت بین این دو روش را بدانم. آیا می توانم از کنتراست نوع ویلیامز از بسته «multcomp» برای انجام آزمایش ویلیامز استفاده کنم (ویلیامز، 1971)؟ من می بینم که افراد زیادی این کار را انجام می دهند، اما مطمئن نیستم که آیا این درست است یا خیر. یک مثال در زیر آورده شده است. مجموعه داده warpbreaks است. نتیجه «glht» این است: آزمونهای همزمان برای فرضیههای خطی عمومی مقایسههای چندگانه میانگینها: تضادهای ویلیامز برازش: aov(فرمول = شکست ~ کشش، داده = شکستگی) فرضیههای خطی: برآورد Std. خطای t مقدار Pr(>|t|) C 1 == 0 -14.72 3.96 -3.718 0.000827 *** C 2 == 0 -12.36 3.43 -3.604 0.001166 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (مقادیر تنظیم شده p -- روش تک مرحله ای) ماتریس کنتراست برای آزمایش این است: (قطع) کششMH C 1 0 0.0 1.0 C 2 0 0.5 0.5 attr(نوع) [1] ویلیامز و نتیجه اعمال آزمایش اصلی ویلیامز (1971) این است: دوز میانگین MLE Tbar pvaltab WillTab.95% 1 L 36.38889 -36.38889 0.000000 NA NA 2 M 26.38889 -26.3885 -26.385 -26.385% 1.673529 3 H 21.66667 -21.66667 3.458476 <1% 1.753529 WillTab.99% critical_tab.95critical_tab.99 1 NA NA NA 2 2.400588 2.400561 269 -229 -29. 2.444118 -28.92437 -25.98464 کدی که استفاده کردم اینجاست و 'EcotoxTests' بسته ای است که خودم برای انجام تست ویلیامز نوشتم. {r} library(multcomp) amod <- aov(breaks ~ tension, data = warpbreaks) g <- glht(amod, linfct = mcp(tension = Williams)) خلاصه (g) نیاز (EcotoxTests) dat1 <- data.frame(dose=warpbreaks$tension,breaks=warpbreaks$breaks,nums=warpbreaks$breaks) calcWilliams(dat1) | آیا می توانم از کنتراست نوع ویلیامز از بسته «multcomp» برای انجام آزمایش ویلیامز استفاده کنم (ویلیامز، 1971)؟ |
89318 | من داده های فصلی با یک متغیر علی (X) و یک متغیر وابسته (Y) دارم. 30 مشاهده از این قبیل. من متغیر X را برای یک چهارم دارم، و به دنبال پیش بینی Y آن سه ماهه هستم. ساختار سری زمانی من به یک ساختگی فصلی در هر سه ماهه چهارم نیاز دارد - افزایش خرید تعطیلات در Q4. میخواهم بدانم نرخ خطا برای پیشبینی یک دوره (با استفاده از X)، برای 5-10 دوره آخر چقدر است. چگونه می توانم این را در R پیاده سازی کنم؟ | R: یک دوره اعتبار متقاطع ما با سری های زمانی |
96260 | من می خواهم داده های آب و هوای روزانه یا هفتگی (دما و بارندگی) را از ایستگاه های اندازه گیری خاص در سراسر ایالات متحده دریافت کنم. من به چیزی برون یابی به مختصات خاص خود نیاز ندارم، یک ایستگاه اندازه گیری نسبتا نزدیک کافی است. ترجیحاً میخواهم آن دادهها را تا آنجا که ممکن است در گذشته داشته باشم. حداقل دهه هفتاد. من می خواهم با داده ها در matlab (و/یا R) کار کنم. چگونه می توانم به راحتی به آنجا برسم؟ من می بینم که Wunderground/NOAA چیزهایی دارد. اما هیچ چیز خیلی آسان به نظر نمی رسد، wunderground به شما نیاز دارد که هزاران فایل متنی را دانلود کنید و نحوه ساخت یک سری زمانی را بیابید. | داده های بلند مدت آب و هوا - چگونه بدون درد به آنجا برسیم |
16142 | من یک نظرسنجی انجام دادم و از افراد گروههای درآمدی مختلف در مورد مخارج سالانهشان در گروههای مصرفی مختلف مانند غذا، پوشاک، مسکن و غیره پرسیدم. سپس میزان هزینهشده توسط افراد با گروههای درآمدی مختلف در این دستهها را به عنوان درصدی از درآمد کل آنها محاسبه کردم. اکنون، برای رسم این داده ها و یافتن بهترین خط مناسب از کدام نوع تحلیل رگرسیون باید استفاده کنم. همچنین آیا ابزارهای آماری خوب دیگری وجود دارد که بتوانم از آنها برای بهره برداری از این داده ها استفاده کنم؟ | از کدام نوع تحلیل رگرسیون برای داده های الگوی مصرف استفاده کنم؟ |
56980 | من نمی دانم که آیا باید سطح معنی داری آزمون های t زوجی را به دلیل آزمایش های متعدد (برای جلوگیری از احتمال خطای نوع 1) تنظیم کنم، اگرچه آزمون ها مستقل هستند. این چیزی است که من سعی می کنم آزمایش کنم: 4 گروه از شرکت کنندگان هر کدام تحت یک روش دستکاری خلقی متفاوت قرار گرفتند. برای آزمایش اثر دستکاری خلق و خو، از تست یادآوری کلمه استفاده میکنم، که در آن مقدار کلمات مثبت بهخاطر بهدرستی با مقدار کلمات منفی که بهدرستی یادآوری شدهاند مقایسه میشود. به عبارت دیگر، من در حال انجام 4 آزمون t زوجی (تعداد کلمات مثبت در برابر تعداد کلمات منفی)، یکی برای هر گروه هستم. آیا باید آزمایش های متعدد را تصحیح کنم - و اگر بله - در این شرایط کدام روش تصحیح را توصیه می کنید؟ | تصحیح خطای نوع 1 در آزمون های t زوجی چندگانه؟ |
69802 | من در حال کار با PCA برای کاهش ابعاد به مجموعه ای از داده ها هستم. من 1600 نقطه داده با 36 متغیر دارم و می خواهم ماتریسی با مجموعه داده جدید با 6 جزء اصلی داشته باشم. من موفق شدم این کار را در متلب انجام دهم، بنابراین دارم: xtrain (نرمال شده) <1600x36> و می نویسم: coeff=pca(xtrain,'NumComponents',6) که یک ماتریس <36x6> به من می دهد تا اینجا خیلی خوب است. حالا میخواهم بدانم چگونه روند را معکوس کنم. اگر مجموعه داده ای به من داده شود که چگونه از ماتریس coeff برای ارسال آن به یک نمایش n x 36 استفاده کنم؟ من می خواهم این کار را در متلب انجام دهم اما یک توضیح ساده می تواند به من کمک کند. | PCA معکوس با ماتریس غیر مربعی |
51976 | من با 'shapiro.test' از R بازی می کنم و غیرعادی بودن واریانس خطا را بررسی می کنم. > shapiro.test(residuals(fit)) داده های تست نرمال Shapiro-Wilk: residuals(fit) W = 0.9525، p-value = 0.0003303 > shapiro.test(residuals(lm(sqrt(V1)~V2,data=market) ) ) داده های تست نرمال بودن Shapiro-Wilk: residuals(lm(sqrt(V1) ~ V2، داده = بازار)) W = 0.8895، p-value = 5.89e-08 > shapiro.test(residuals(lm(log(V1)~V2،data=market))) داده های تست نرمال Shapiro-Wilk: باقیمانده (lm(log(V1) ~ V2، داده = بازار)) W = 0.7698، p-value = 1.95e-12 > shapiro.test(residuals(lm(1/(V1) ~ V2,data=market))) داده های تست نرمال Shapiro-Wilk: residuals(lm(1 /(V1) ~ V2، داده = بازار)) W = 0.3954، p-value < 2.2e-16 مقدار p برای تست نرمال بودن <0.001 است. بنابراین من یک تبدیل روی V1، log(Y)، inverse(Y) و sqrt(Y) انجام دادم اما مقادیر p آنها حتی کوچکتر می شود. آیا این بدان معنی است که این تحولات کار نمی کند؟ من همچنین یک تبدیل boxcox انجام دادم و مقدار p 0.3 را دریافت کردم. بنابراین در این مورد، boxcox بهترین درمان فقط در این مورد است؟ یا باید در آینده برای رفع غیرعادی بودن از «boxcox» استفاده کنم؟ بقیه روش های تبدیل معمول بی فایده هستند؟ | تست شاپیرو و تبدیل |
65164 | فرض کنید یک نمونه iid $X_1، \dots، X_n$ داریم. ما می خواهیم آزمایش کنیم که آیا توزیع نرمال استاندارد دارد یا خیر. یک آمار آزمایشی که از مقدمه براکول و دیویس بر سری های زمانی و پیش بینی آموختم این است که * ابتدا بازه $(-b, b)$ را پیدا کنید که احتمال $95\%$ را تحت توزیع نرمال استاندارد دارد * سپس نسبت $ را محاسبه کنید. r$ از نقاط نمونه به $(-b,b)$ میافتد. کتاب همچنان میگوید اگر $r$ برابر با $95\%$ نیست، آن را رد کنید. اما به نظر من درست نیست. کاری که من فکر می کنم باید به جای آن انجام شود این است که توزیع $r$ را در زیر null پیدا کنیم (و سپس ناحیه رد $r$ را پیدا کنیم). اما من مطمئن نیستم که چگونه این کار را انجام دهم؟ این تست باید قدرت بسیار کمی داشته باشد، اینطور نیست؟ زیرا آمار آزمون فقط اطلاعات کمی در مورد توزیع نمونه می گیرد؟ با تشکر و احترام! PS: در صورتی که درک من اشتباه باشد، متن اصلی کتاب می گوید:  توجه داشته باشید که کتاب نحوه تست کردن یک نمونه iid است، اما ایده اصلی آن این است که آزمایش کند آیا همبستگی خودکار نمونه با توزیع $N(0,1/n)$ iid است، که همان سوالی است که در پست من وجود دارد. | آزمایشی برای اینکه آیا یک نمونه توزیع مشخصی دارد یا خیر |
90953 | _R in Action_ (Kabacoff، 2011) روال زیر را برای آزمایش پراکندگی بیش از حد در رگرسیون لجستیک پیشنهاد می کند: رگرسیون لجستیک متناسب با استفاده از توزیع دو جمله ای: model_binom <- glm(Species==versicolor ~ Sepal.Width, family=binomial() داده = عنبیه) رگرسیون لجستیک برازش با استفاده از توزیع شبهجملی: model_overdispersed <- glm(Species==versicolor ~ Sepal.Width, family=quasibinomial(), data=iris) برای آزمایش پراکندگی بیش از حد از مربع خی استفاده کنید: pchisq(summary(model_overdispersed)$dispersion * model_binom$df.residual, model_binom$df.residual، پایین تر = F) # [1] 0.7949171 آیا کسی می تواند توضیح دهد که چگونه و چرا از توزیع خی دو برای آزمایش پراکندگی بیش از حد در اینجا استفاده می شود؟ مقدار p 0.79 است - چگونه این نشان می دهد که پراکندگی بیش از حد در مدل توزیع دوجمله ای مشکلی ندارد؟ | آزمایش برای پراکندگی بیش از حد در رگرسیون لجستیک |
51974 | بگویید من توزیعی دارم، یا با تابع چگالی احتمال که قابل انتگرال و پیوسته است، یا با مجموعه ای از احتمالات گسسته بر روی مجموعه ای محدود از نمادها توصیف می شود. من می خواهم نمونه هایی را از این توزیع به طور موثر تولید کنم. من به ارجاع به الگوریتمهای دیگر اهمیتی نمیدهم، میخواهم بدانم آیا این ایده اساساً درست است یا چگونه آن را بهبود بخشم. من در حال حاضر چگونه این کار را برای حالت گسسته انجام می دهم: 1. تابع احتمال تجمعی را تشکیل می دهم (که در نماد i به عنوان مجموع همه احتمالات از نماد اول تا نماد ith تعریف می شود). 2. سپس، یک بازه، [0,max(CDF)] وجود دارد و خروجی یک عدد تصادفی IID در هر نقطه از آن بازه با استفاده از یک PRNG معمولی امری بی اهمیت است. 3. از آنجایی که اکنون هر نماد با یک بازه مرتبط است، نمادی را که شماره IID در بازه آن قرار گرفته است را خروجی می دهیم. برای من کاملاً بدیهی به نظر می رسد که دنباله خروجی ویژگی های توزیع گسسته داده شده را داشته باشد و تا PRNG اصلی بهینه است. اکنون میخواهم به حالت پیوسته بپردازم (این ممکن است الگوریتم Ziggurat باشد، و اگر چنین است، پسر خوشحالم که مستقیماً به آن پریدم). اما آیا نمیتوانیم PDF را به سادگی ادغام کنیم تا یک CDF بدست آوریم، دوباره بازه [0,max(CDF)] را تشکیل دهیم و دوباره در این بازه به صورت تصادفی IID شلیک کنیم، و دوباره، و این قسمت مشکل برای من است، _associate_ **_each_ ** _نمونه_نماد_ (که تعداد آنها بی نهایت زیاد است) _با یک_ **_فاصله_**. سپس نماد نمونه را که شماره ID در بازه آن قرار گرفته است، خارج کنید. بنابراین، سوال من این است: چگونه می توانم نمادهای نمونه را با بازه ها مرتبط کنم؟ احتمالاً با گسسته کردن (قرار دادن در سطل ها) فاصله نماد نمونه، و دادن احتمال یکسان به هر چیزی در یک سطل. اندازه سطل ها را می توان طوری تعیین کرد که در طول جریان خروجی مورد نظر، هیچ انحراف قابل تشخیصی از توزیع پیوسته زیرین ایجاد نکند. همچنین، من این کار را در جاوا اسکریپت انجام می دهم. این یک DIY است بنابراین من علاقه ای به اعتماد یا استفاده از کد شخص دیگری ندارم. اما من هم علاقه ای به صرف 2 روز برای آن ندارم. من اینجا می پرسم چون در توزیع ها متخصص نیستم و می خواهم قبل از اجرای این ایده، ایده ها را اصلاح کنم. | در مورد این روش نمونه گیری از هر توزیع نظر دهید؟ |
5967 | ما در حال کار بر روی یک مدل رگرسیون خطی چند متغیره هستیم. هدف ما پیشبینی رشد سه ماهه وامهای رهنی معوق است. متغیرهای مستقل عبارتند از: 1) سطح داو جونز. 2) درصد تغییر در داو جونز در سه ماهه گذشته. 3) شاخص قیمت مسکن مورد شیلر. 4) درصد تغییر در شاخص قیمت مسکن کیس شیلر طی سه ماهه گذشته. در یک فرآیند رگرسیون گام به گام، تمامی متغیرهای فوق انتخاب شدند. و متغیرهای 1) و 3) به طرز شگفت آوری معنی دار بودند. اما، این زمانی است که در ترکیب استفاده شود. به نوعی، چیزی در مورد تفاوت این دو شاخص وجود دارد که تا حدودی درصد تغییر در وام های رهنی معوق را توضیح می دهد. به نوبه خود، من متغیرهای 1) و 3) را مشکل ساز می دانم. این به این دلیل است که من معتقدم آنها هتروسکداستیک هستند. و بنابراین، فاصله اطمینان ضرایب مربوطه آنها غیر قابل اعتماد است. من همچنین فکر می کنم که آنها ممکن است مشکلات چند خطی با متغیرهای مرتبط خود را بر اساس تغییر درصد داشته باشند. آنها همچنین ممکن است برخی از مشکلات خودهمبستگی را ایجاد کنند. با این حال، در ابتدا به نظر می رسد برخی از نگرانی های من ممکن است اغراق آمیز باشد. پس از ترسیم نمودار باقیماندههای کل مدل، به نظر خوب میرسند. آنها روند صعودی ندارند. بنابراین، به نظر میرسد که هتروسکداستیکی یک مسئله برای کل مدل نیست. چند خطی بودن خیلی بد نیست. متغیر با بالاترین VIF حدود 5 بسیار کمتر از آستانه معمول 10 است. ضرایب رگرسیون خاص متغیرهای ذکر شده ممکن است (یا به طور خاص، فواصل اطمینان مربوطه) نباشد. | آیا می توانید از متغیرهای سری زمانی هتروسکداستی در یک مدل رگرسیون استفاده کنید؟ |
5969 | من تحقیقات روانشناسی تفاوت های فردی شبه تجربی انجام می دهم. من بررسی میکنم که چگونه افرادی که در توانایی شناختی متفاوت هستند (که من اندازهگیری میکنم) در کار دیگری که همیشه حداقل شامل دستکاریهای درون موضوعی (و گاهی اوقات بین سوژهها) است – DV معمولاً زمان پاسخ و/یا دقت دارند. برای این سوال میخواهم روی زمانهای پاسخ تمرکز کنم (فرض کنیم که معمولاً توزیع میشوند). سپس از روابط توانایی-تکلیف استنباط می کنم که از نظر نظری برای توانایی شناختی چه معنایی دارد. ماهیت این کار همبستگی است و شامل اندازه گیری های مکرر است که در آن هر آزمودنی کارآزمایی های زیادی را تکمیل می کند (بیشتر من به تغییرات در طول زمان علاقه ای ندارم، فقط به تفاوت کلی). محققان رشته من اغلب متغیرهای طبقه بندی شده را از نمرات توانایی شناختی ایجاد می کنند و چارک های بالایی و پایینی توزیع را با ANOVA اندازه گیری های مکرر مقایسه می کنند. از آنجایی که توانایی شناختی به طور مداوم سنجیده می شود، من به دنبال یک استراتژی تحلیلی هستم که توانایی شناختی را به این شکل درمان کند. من اخیراً در حال بررسی مدلهای مختلط بودهام و فکر میکنم که میتوانم افراد را بهعنوان یک متغیر گروهبندی اثر تصادفی و امتیاز توانایی شناختی را بهعنوان یک اثر تصادفی در درون افراد در نظر بگیرم. من می خواهم تعامل بین این اثر تصادفی تودرتو (توانایی شناختی) و اثرات ثابت درمان های تجربی را با انجام مقایسه مدل بررسی کنم. آیا این یک استراتژی تحلیلی معقول به نظر می رسد؟ آیا به این موضوع درست فکر می کنم؟ راههای دیگری (هرچه سادهتر، بهتر) وجود دارد که میتوانم از اقدامات مکرر -حذف واریانس موضوع تجربی- بهره ببرم و در عین حال معیار توانایی شناختی را به عنوان یک معیار مستمر حفظ کنم؟ هر گونه نقل قول یا مثال در R قدردانی می شود. در یک آزمایش معمولی، من انتظار دارم که از 1-3 IV طبقه بندی شده با 2-4 سطح (اندازه گیری شده توسط آزمایش های متعدد) و 1 IV مداوم (توانایی شناختی) وجود داشته باشد. ماهیت دقیق متغیرهای طبقه بندی از مطالعه ای به مطالعه دیگر تغییر می کند. طرح ها به طور کامل تلاقی دارند. | چگونه باید آزمایشهای تفاوتهای فردی با اندازهگیریهای مکرر را تجزیه و تحلیل کنم؟ |
51977 | من داده های شمارش طبقه بندی شده ای دارم که از یک نظرسنجی پیچیده به دست آمده است. هر واحد تجزیه و تحلیل در نظرسنجی (خانوار، فرد، و غیره) در یک دسته بندی در هر بعد قرار می گیرد که از 2 تا 20 دسته در هر بعد متغیر است. تعداد ابعاد بیش از 50 است. نظرسنجی یک برآورد واریانس را گزارش میکند که بر اساس خوشهبندی و طبقهبندی در طرح بررسی برای هر شمارش تصحیح شده است. من سه سوال نزدیک به هم دارم: 1. آیا این واقعیت که واریانس تعداد سلولها به چیزی غیر از مقدار تعداد یا احتمال سلول زیربنایی بستگی دارد، نشان میدهد که این سلولها بر اساس توزیع پواسون توزیع نشدهاند؟ 2. اگر نه، چرا؟ 3. اگر چنین است، می توانیم بگوییم که کدام توزیع احتمالاً صحیح است یا نامزدهای خوب کدامند؟ من به دوجمله ای منفی فکر می کردم، اما این فقط یک ضریب بیشتر به شما می دهد، در حالی که نتایج نظرسنجی شامل یک تصحیح واریانس متمایز برای هر سلول است. | برای داده های شمارش از یک نظرسنجی، آیا اصلاحات واریانس برای طراحی پیمایش نشان می دهد که توزیع پواسون به طور دقیق شمارش ها را مدل نمی کند؟ |
89317 | من سعی می کنم برخی از محاسبات نسبت شانس را که در این مقاله گزارش شده است تکرار کنم. به عنوان مثال در مقاله صفحه 3 در Strome et al. داده های مربوط به لوزه ها: 52 مورد و 48 مورد کنترل وجود دارد. HPV % موارد = 40 % و شاهد = 6 % . با تبدیل درصدها به ارقام خام، جدول 2×2 زیر را دریافت می کنم: مورد کنترل HPV مثبت 21 3 HPV منفی 31 45 بنابراین نسبت شانس باید $=\frac{21\cdot45}{31\cdot3} = 10.16$ باشد. با این حال مقاله این نسبت شانس خاص را در صفحه زیر 18.2 گزارش می کند. کسی میدونه چرا اینجوریه؟ آیا آنها از فرمول متفاوتی استفاده می کنند؟ | نمی توان نسبت شانس را تکرار کرد |
56982 | توجه: این سوال عمدتاً مربوط به پیشبینیهای یک مدل است. اگر واحد تجزیه و تحلیل یک رگرسیون (یا هر مدل پیشبینیکننده واقعاً) خردهفروشی فردی باشد و این فروشگاهها در مناطق جغرافیایی سازماندهی شوند، چه زمانی منطقی است که متغیرهایی را که منطقه جغرافیایی را توصیف میکنند (یعنی دانه درشتتر از واحد) لحاظ کنیم. از تجزیه و تحلیل) در مقابل فقط اضافه کردن یک عامل (متغیر اسمی) برای هر منطقه؟ به عنوان مثال، افزودن یک عامل برای هر منطقه به معنای واقعی کلمه متغیری است که مقادیر 'A'، 'B'...... و غیره را به خود می گیرد. سایر توصیفات منطقه ممکن است تعداد کل خانوارها، درآمد سرانه باشد. و غیره با توجه به این تنظیم، دو مورد وجود دارد که میتوانم به آن فکر کنم و میخواهم بدانم که اضافه کردن توضیحات اضافی در مورد منطقه (در مقابل فقط عامل) منطقی است: 1) ما انتظار توصیف را نداریم. برای تغییر در طول زمان، از مدل برای پیشبینی استفاده میکنیم (به عنوان مثال، ما 2013 اطلاعات کل خانواده در هر منطقه داریم و تا سال 2016 بهروزرسانی دریافت نخواهیم کرد). 2) ما انتظار داریم که در طول زمانی که از مدل برای پیشبینی استفاده میکنیم، توضیحات تغییر کند (به عنوان مثال، ما اطلاعات کل خانوار 2013 را در هر منطقه داریم و ماه آینده بهروزرسانی دریافت خواهیم کرد - یا هر زمان که بعد از پیشبینی استفاده کنیم). | پیش بینی های سلسله مراتبی در یک رگرسیون |
89310 | من سعی میکنم با راهاندازی مناطق پیشبینی مشترک که در این مقاله توضیح داده شده است راحت باشم: http://www.nccr-finrisk.uzh.ch/media/pdf/wp/WP748_A3.pdf این بازههای پیشبینی را محاسبه میکند، $I_j$ برای تمام نقاط زمانی $j$، به طوری که تمام نقاط داده یک مسیر پیش بینی در این منطقه با احتمال $1-\alpha$ قرار دارند، یعنی: $P(y_j \in I_j \forall j) = 1-\alpha$ نویسندگان مقاله این ایده را به «نرخ خطای k-family عاقلانه» تعمیم میدهند که با نیاز به حداقل k نقطه داده از مسیر پیشبینی، فواصل زمانی را محدود میکند. خارج از منطقه قرار دارد: $P(\sum_1^N1[y_j \notin I_j] >= k) = 1-\alpha$ که در آن $1[.]$ تابع نشانگر است که در صورت مطابقت با شرط 1 و در صورت نادرست بودن 0 می دهد. N تعداد نقاط داده پیش بینی شده است. با بازی کردن، متوجه شدم که برای $k=N/2$، فواصل پیشبینی مشترک نرخ خطای k-family با فواصل پیشبینی حاشیهای یکسان به نظر میرسد، بهعنوان مثال: به نظر میرسد موارد زیر $I_j$ $P(\sum_1) یکسان را نشان میدهند. ^N1[y_j \notin I_j] >= N/2) = 1-\alpha$ $P(y_j \in I_j) = 1-\alpha$ آیا این تصادفی است؟ چگونه می توان این را به صورت رسمی نشان داد؟ | فواصل پیشبینی مشترک در مقابل حاشیه برای پیشبینی مسیر (با میزان خطای k-family) |
64699 | من می خواهم 3 طبقه بندی کننده (kNN، SVM و CT) را با استفاده از دقت طبقه بندی آنها در 10 برابر مقایسه کنم تا تفاوت های احتمالی بین آنها را برجسته کنم. من فکر می کنم می توان آن را با تجزیه و تحلیل ANOVA دو طرفه، که در آن طبقه بندی کننده ها = فاکتورها و folds = بلوک ها، در صورتی که برخی فرضیات در مورد داده ها تأیید شوند، انجام شود. پس از ویکیپدیا، مفروضات عبارتند از: 1. جمعیتهایی که نمونهها از آنها به دست میآیند باید به طور معمول توزیع شوند. 2. نمونه برداری به درستی انجام می شود. مشاهدات برای درون و بین گروه ها باید مستقل باشد. 3. واریانس بین جمعیت ها باید برابر باشد (همسانی). 4. داده ها فاصله ای یا اسمی هستند. من به کمک نیاز دارم که چگونه آنها را در پرونده خود تأیید کنم. 1. آیا باید بررسی کنم که برای هر طبقهبندی کننده، 10 دقت آن به طور معمول توزیع میشود و/یا اینکه برای هر فولد، 3 دقت به طور معمول توزیع شده است؟ 2. مشاهدات درون گروهی مستقل هستند زیرا من از مجموعه تست های متفاوتی برای هر فولد استفاده می کنم. آیا من اشتباه می کنم؟ مشاهدات بین گروهها مستقل هستند زیرا تصور میکنم طبقهبندیکنندهها به روشی مستقل عمل میکنند. آیا آنها نیستند؟ 3. آیا باید بررسی کنم که هر گروهی که در نقطه اول توضیح داده شد واریانس یکسانی دارند؟ 4. مشکلی در مورد من وجود ندارد. آیا راهی سریع برای تأیید همه فرضیات در Matlab وجود دارد؟ | مفروضات ANOVA دو طرفه و اعتبار سنجی متقابل k-fold |
60536 | وضعیت من این است: طبقه بندی باینری و من یک مجموعه آموزشی از تقریباً 250 هزار نمونه و 10 ویژگی و یک مجموعه اعتبار سنجی تقریباً 100 هزار با همان تعداد ویژگی دارم. من GBDT را با نمونه برداری فرعی به داده ها تطبیق می دهم، بنابراین حدس می زنم BGBDT؟ به هر حال من مجموعه آموزشی را برداشتم و آن را 80/20 تقسیم کردم و یک جستجوی شبکه ای در فضای پارامتر (با استفاده از اعتبارسنجی متقاطع) روی 80٪ انجام دادم و سپس با استفاده از پارامترهای به دست آمده از شبکه، یک مدل جدید را در 20٪ قرار دادم. جستجو کنید و از Log loss برای تعیین خطا استفاده کنید. 20٪ از 80٪ جدا هستند و آموزش می بینند. باشه خوبه من در حال دریافت نتایج خوبی برای از دست دادن ورود به سیستم در مدل نگهداشتهشده برای 20% هستم و بر تخمین خارج از کیف انحراف در طول فرآیند درختسازی نظارت میکنم که در طول اجرا در حال کاهش است. به طور کلی من تقریباً 150 درخت را آموزش میدهم، نمونهبرداری فرعی در 0.25، با نرخ یادگیری 0.1، و حداکثر عمق 10. نتایج حاصل از آموزش نمونههای نگهداشتهشده به این روش، نتایج خوبی به دست میدهد... اگر مشکلی در اضافه کردن وجود داشت. من انتظار دارم که نمونه های نگهداری شده عملکرد خوبی نداشته باشند. اما وقتی مدل را در کل مجموعه آموزشی مجدداً آموزش میدهم و سپس روی مجموعه اعتبارسنجی پیشبینی میکنم، نتایج من بسیار ضعیف است. نکته قابل توجه این است که مجموعه های آموزشی و اعتبارسنجی به طور یکنواخت از توزیع یکسان نمونه برداری می شوند و کلاس ها متعادل هستند. پیشنهادات؟ | GBDT و ساختمان مدل: چگونه بیش از حد برازش می کنم؟ |
56986 | من مدل coxph زیر را دارم: Surv(Y) ~ ژنوتیپ + درمان + سن + شکنندگی (دسته ای) + ژنوتیپ: شکنندگی (دسته ای) گروهی یک اثر تصادفی است (دو تکرار از آزمایش با افراد مختلف انجام شد) . رویدادها فقط می توانند یک بار در هر موضوع اتفاق بیفتند. خروجی خلاصه به این صورت است: coef se(coef) se2 Chisq DF p genotypeTG -0.2504 0.44224 0.43550 0.32 1.00 5.7e-01 treatX -0.6695 0.16379 0.1604-0.160570. 0.0135 0.00839 0.00829 2.59 1.00 1.1e-01 شکنندگی (دسته ای) 1.39 0.94 2.2e-01 ژنوتیپTG: شکنندگی (دسته ای) -1.3479 0.41193035.0. 7.6e-04 ژنوتیپ TG:شکستگی(دسته ای) 0.00000 0.00000 1.00 سوال من این است: با توجه به اینکه تعامل قابل توجهی بین ژنوتیپ و دسته وجود دارد، آیا ضریب ژنوتیپ خلاصه ای از دو دسته است یا فقط برای دسته ای است که مدل وجود دارد. استفاده به عنوان گروه مرجع؟ اگر اولی بود، چگونه می توانم برآوردهای دسته ای خاص را استخراج کنم؟ اگر مورد دوم است، چگونه ضریب کلی و SE آن را بسازم؟ با تشکر * * * بهروزرسانی: با بازی کردن با «predict()» و «coef()» متوجه شدم: > coef(myfit) genotypeTG treatX سن گاما:batch1 گاما:batch2 genotypeTG:شکستگی(بچ)1 ژنوتیپTG:شکستگی(گروهی) 2 -0.25044857 -0.66945067 0.01350297 -0.17817716 0.15117985 -1.34789198 NA > cbind(mynewdata,predict(myfit,mynewdata)) گروه سنی تیمار ژنوتیپ پیشبینیشده 1 WT Z 0 دسته Z1 0.61 T -0.95417945 3 WT X 0 Batch1 -0.02528956 4 TG X 0 Batch1 -1.62363012 5 WT Z 0 batch2 0.97351812 6 TG Z 0 Batch2 0.723063040 0.723063050 TG X 0 batch2 0.05361887 ...با فرض عدم وجود اشکال در «predict.coxph.penal()»، به این معنی است که سه ضریب اول فقط برای «batch1» هستند. برای گروه هایی که سطحی دارند که با عبارت شکنندگی تعامل دارد، ضریب تعامل آن دسته را علاوه بر ضریب/های آن متغیرها اضافه می کنم. برای به دست آوردن تخمینهای «batch2»، کارهای بالا را انجام میدهم، اما وقفه شکنندگی «batch1» را نیز کم میکنم، وقفه شکنندگی «batch2» را اضافه میکنم و سپس ضرایب دیگری را در صورت لزوم اضافه میکنم. اصطلاح تعامل برای «batch2» NA است اما ظاهراً اضافه نمیشود. سوال من اکنون به این کاهش می یابد که چگونه می توانم ضرایب و SE های کلی را بدست بیاورم (یعنی معادل آنچه که summary.lme() گزارش می دهد اگر این lme تناسب بود)؟ همچنین، آیا باید نگران این باشم که یکی از ضرایب برهمکنش شکنندگی NA است و خلاصه برخی از ضرایب شکنندگی را حذف می کند؟ * * * یا آیا با اجازه دادن به تعامل بین یک اصطلاح ضعیف و یک اثر ثابت مشکلات غیرضروری برای خودم ایجاد می کنم؟ استدلال من این بود که stepAIC() دو طرفه این تعامل را به عنوان بهبود تناسب مدل شناسایی کرد. این نشان می دهد که پاسخ موجودات تراریخته ممکن است به طور سیستماتیک متفاوت از پاسخ موجودات عادی بین دو آزمایش تکراری باشد. بنابراین، نادیده گرفتن تعامل به منزله نادیده گرفتن این منبع خطا از طریق رفتار با آزمایشها به گونهای است که گویی فقط خطر خط پایه بین آنها متفاوت است. آیا این استدلال در جایی ایراد دارد؟ | چگونه اصطلاحات شکنندگی را در یک مدل coxph.penal تفسیر کنیم؟ |
17239 | من در حال تجزیه و تحلیل یک ابزار نظارتی هستم که در آن افراد می توانند با یک یا هر دو روش جمع آوری شوند. بنابراین به نظر می رسد مانند یک نمودار ون. اگر تفاوت های قابل توجهی در روش ها برای ویژگی های مختلف وجود دارد، از چه آزمایشی برای آزمایش استفاده کنم؟ تنها بسته آماری که من به آن دسترسی دارم SAS است، بنابراین لطفاً کاری را که می توان در آن انجام داد توصیه کنید. با تشکر | از چه آزمونی برای دسته بندی های همپوشانی استفاده شود |
5696 | من چندین کدنویس مستقل دارم که سعی میکنند رویدادها را در یک سری زمانی شناسایی کنند -- در این مورد، تماشای ویدیوی گفتگوی رو در رو و جستجوی رفتارهای غیرکلامی خاص (مثلاً تکان دادن سر) و کدگذاری زمان و دستهبندی هر کدام رویداد این دادهها میتوانند بهعنوان یک سری زمانی گسسته با نرخ نمونهبرداری بالا (30 فریم در ثانیه) یا بهعنوان یک سری زمانی پیوسته در نظر گرفته شوند، هر کدام که کار با آن آسانتر است. من میخواهم مقداری از قابلیت اطمینان بین ارزیابها را محاسبه کنم، اما انتظار دارم در رویدادهای _when_ عدم قطعیت وجود داشته باشد. یعنی، من انتظار دارم که یک کدنویس ممکن است، برای مثال، رمز کند که یک حرکت خاص یک ربع دیرتر از زمانی که دیگر کدنویس ها فکر می کردند شروع شده است، کد کند. اگر کمک کند، این رویدادهای نادر هستند. معمولاً حداقل چند ثانیه (صدها فریم ویدیو) بین رویدادها. آیا روش خوبی برای ارزیابی قابلیت اطمینان بین ارزیابها وجود دارد که به هر دو نوع توافق و عدم توافق نگاه میکند: (1) آیا ارزیابها در مورد رویدادی که رخ داده است (در صورت وجود) توافق دارند و (2) آیا آنها در مورد زمان وقوع آن توافق دارند؟ مورد دوم برای من مهم است زیرا علاقه مندم به زمان وقوع این رویدادها نسبت به سایر اتفاقات در گفتگو نگاه کنم، مانند آنچه مردم می گویند. به نظر میرسد تمرین استاندارد در زمینه من این است که چیزها را به برشهای زمانی تقسیم کنم، مثلاً 1/4 ثانیه یا بیشتر، رویدادهایی را که هر کدگذار در هر برش زمانی گزارش میکند، جمعآوری کنم، سپس کاپا کوهن یا برخی معیارهای مشابه را محاسبه کنم. اما انتخاب مدت زمان تکه تکهای است، و من تصور خوبی از عدم قطعیت در زمان رویدادها ندارم. بهترین فکری که تاکنون داشته ام این است که بتوانم نوعی منحنی قابلیت اطمینان را محاسبه کنم. چیزی شبیه کاپا به عنوان تابعی از اندازه پنجره که در آن دو رویداد را همزمان در نظر میگیرم. من واقعاً مطمئن نیستم که از آنجا به کجا بروم ... | قابلیت اطمینان بین ارزیاب برای رویدادهای یک سری زمانی با عدم قطعیت در مورد زمان رویداد |
69112 | من حجم نمونه کل 12 نمونه خاک را دارم که به 4 گروه $n=3$ تقسیم شده اند. تعدادی از متغیرهای مختلف مانند محتوای کربن آلی اندازه گیری شد. جمع آوری این داده ها از نظر لجستیکی دشوار و پرهزینه است، بنابراین جمع آوری داده های بیشتر امکان پذیر نیست. حالا میخواهم میانگین 4 گروه ($n=3$) را با تست مقایسه کنم. اما این مشکل وجود دارد که توزیع نرمال (Shapiro-Wilk) و homoscedasticity (Brown-Forsythe/Levene) در هر نمونه داده نشده است. پس کدام آزمون را ترجیح دهم؟ نظر شما چیست؟ آیا حتی استفاده از آمار تست در این مورد مفید است؟ آیا هیچ جایگزینی در زیر آمار توصیفی وجود دارد؟ * * * خوب، در اینجا برخی جزئیات وجود دارد. نمونه های خاک از محل آزمایش طولانی مدت با چهار تیمار مختلف (شخم، بدون خاکورزی و غیره) می باشد. از هر یک از این چهار تیمار 3 نمونه خاک دارم. متغیرهای مختلف در داده های متریک اندازه گیری می شوند. به عنوان مثال - محتوای کربن آلی [g/kg]: (گروه 1: 12.1 // 13.2 // 13.5)، (گروه 2: 13.1 // 13.9 // 13.5)، (گروه 3: 8.9 // 10.2 // 11.9 ). حالا می خواستم بررسی کنم که آیا تفاوت معنی داری بین میانه این گروه ها وجود دارد یا خیر. و اطلاعات دیگر این است که غلظت مواد مختلف در خاک به طور کلی توزیع نرمال نیست. | کدام آزمون برای حجم نمونه کوچک؟ |
5962 | من 12 مجموعه تمرین مثبت دارم (سلول های سرطانی تحت درمان با داروها با هر یک از 12 مکانیسم اثر متفاوت). برای هر یک از این مجموعههای آموزشی مثبت، میخواهم یک ماشین بردار پشتیبان را آموزش دهم تا آن را از یک مجموعه منفی با اندازه مساوی که از آزمایش نمونهبرداری شده است متمایز کند. هر مجموعه بین 1000 تا 6000 سلول دارد و 476 ویژگی (ویژگی تصویر) برای هر سلول وجود دارد که هر کدام به صورت خطی تا [0، 1] مقیاس بندی شده اند. من از LIBSVM و هسته RGB Gaussian استفاده می کنم. با استفاده از اعتبارسنجی متقابل پنج برابری، من جستجوی شبکه ای برای log2 C ∈ [-5, 15] و log2 ɣ ∈ [-15, 3] انجام داده ام. نتایج به شرح زیر است:  من ناامید شدم که یک مجموعه از پارامترها وجود ندارد که دقت بالایی برای همه 12 طبقه بندی داشته باشد. مشکلات من همچنین متعجب شدم که شبکهها معمولاً ناحیهای با دقت بالا که با دقتهای کمتر احاطه شده است را نشان نمیدهند. آیا این فقط به این معنی است که باید فضای پارامتر جستجو را گسترش دهم یا جستجوی شبکه ای نشان دهنده این است که چیز دیگری اشتباه است؟ | آیا جستجوی شبکه SVM باید ناحیه ای با دقت بالا با دقت پایین اطراف را نشان دهد؟ |
27913 | در الگوریتم متروپلیس–هیستینگ برای نمونهبرداری از توزیع هدف. اجازه دهید * $\pi_{i}$ چگالی هدف در حالت $i$ باشد، * $\pi_j$ چگالی هدف در حالت پیشنهادی $j$ باشد، * $h_{ij}$ چگالی پیشنهاد برای انتقال به حالت $j$ با توجه به وضعیت فعلی $i$، * $a_{ij}$ احتمال پذیرش حالت پیشنهادی $j$ با توجه به وضعیت فعلی $i$ باشد. سپس با معادله تراز تفصیلی، پس از انتخاب چگالی پیشنهاد $h$، احتمالات پذیرش $a$ به صورت $$ a_{ij} = \min(1, \frac{\pi_{j} h_{ji}} محاسبه میشود. {\pi_{i} h_{ij}}). $$ اگر $h$ متقارن باشد، یعنی $h_{ij}=h_{ji}$، سپس $$ a_{ij} = \min(1, \frac{\pi_{j}}{\pi_{i} }). $$ وقتی $h_i$ یک توزیع گواسی است که در حالت $i$ متمرکز شده است و دارای واریانس یکسان $\sigma^2$ برای همه $i$ است، $h$ متقارن است. از ویکی پدیا: > اگر $\sigma^2 \,$ خیلی بزرگ باشد، تقریباً تمام مراحل تحت الگوریتم MH > رد خواهند شد. از طرف دیگر، اگر $\sigma^2 \,$ خیلی کوچک باشد، تقریباً همه > مراحل پذیرفته خواهند شد. من تعجب می کنم که چرا همانطور که در نقل قول بالا ذکر شد، احتمال پذیرش در جهت معکوس تغییر واریانس چگالی پیشنهاد تغییر می کند؟ با تشکر | نرخ پذیرش در الگوریتم متروپلیس-هیستینگ |
64348 | تصحیح پست قبلی من یک مدل رگرسیون خطی ورود به سیستم دارم که در آن متغیر وابسته ثبت شده و یک متغیر مستقل خطی است. ضریب شیب برای یک متغیر مستقل کلیدی منفی است: -.0564. نمی دانم چگونه تفسیر کنم. آیا از مقدار مطلق 0.0564 استفاده کنم و سپس آن را به صورت منفی تبدیل کنم: ((exp.(.0564)-1) * 100 = -5.80) یا آیا ضریب منفی را به این صورت وصل کنم: ((exp .(-.0564)-1) * 100 = -5.48) به عبارت دیگر، آیا از رقم مطلق استفاده می کنم و سپس آن را به منفی تبدیل می کنم یا منفی را وصل می کنم ضریب؟ همانطور که می بینید آنها 2 پاسخ متفاوت تولید می کنند. | چگونه این ضریب رگرسیون خطی لاگ را تفسیر کنم؟ |
46155 | من داشتم این مقاله مربوط به آمار اسکن فضایی بیزی را می خواندم. http://books.nips.cc/papers/files/nips18/NIPS2005_0513.pdf. گفته می شود که وقتی از آمار اسکن فضایی بیزی استفاده می کنیم، نیازی به استفاده از آزمایش تصادفی سازی یا آزمون معناداری خوشه بالقوه پیدا شده نداریم. چرا اینطور است؟ متوجه نشدم آیا بینشی در این مورد دارید؟ | سردرگمی مربوط به آمار اسکن فضایی بیزی |
5698 | لطفا من را ببخشید اگر این صرافی پشته (و برای ابداع شرایط) مناسب نیست. برای متغیرهای تصادفی گسسته X و Y، اطلاعات متقابل X و Y را می توان به صورت زیر تعریف کرد: $I(X;Y) = \sum_{y \in Y} \sum_{x \in X} p(x,y ) \log{ \left( \frac{p(x,y)}{p_1(x)\,p_2(y)} \right) }, \,\\!$ اطلاعات متقابل را تعریف خواهم کرد از یک سلول $x_0$ باشد: $CI(x_0,Y) = \sum_{y \in Y} p(x_0,y) \log{ \left( \frac{p(x_0,y)}{ p_1(x_0)\,p_2(y)} \right) }, \,\\!$ مطمئن نیستم که این کمیت با نام دیگری باشد. اساساً من تمرکز را به یک حالت واحد از متغیر X محدود میکنم (و سپس MI کامل را میتوان با جمع کردن تمام MI سلولها محاسبه کرد). سوال من: آیا تضمین شده است که $CI(x_0,Y) \ge 0$؟ ما $I(X;Y)\ge0$ را می دانیم و می دانیم که اطلاعات متقابل نقطه ای می تواند منفی باشد. من احساس می کنم که CI باید غیرمنفی باشد و ممکن است شواهد واضحی را از دست بدهم. | آیا اطلاعات متقابل یک سلول می تواند منفی باشد؟ |
64694 | من در حال تحقیق در مورد تجزیه و تحلیل خوشهای هستم و به متغیرهایی علاقهمندم که هم مقولهای و هم پیوسته هستند، که برای آنها خواندهام که ضریب تشابه Gower معیار خوبی برای مجاورت است. من علاقه مندم که ابتدا از یک الگوریتم پیوند متوسط استفاده کنم، و دریافتم که برخی توصیه کرده اند به دنبال زانو در نمودار مجموع خطای مربع (SSE) به عنوان راهنمایی برای تصمیم گیری در مورد تعداد خوشه ها بگردند. میخواستم بدانم که آیا ضریب شباهت Gower (غیر متریک و غیر اقلیدسی بودن) به من اجازه میدهد که یک نمودار SSE Scree ایجاد کنم یا از نظر آماری منطقی نیست. | تعیین تعداد خوشه با نمودار SSE با ضریب شباهت گوور |
99351 | فکر میکنم در درک PCA مشکل دارم: میخواهم از این تکنیک برای کاهش تعداد ویژگیهای مشکلم استفاده کنم. من در اصل 10000 ویژگی و 500 نمونه دارم. با این حال، استفاده از PCA تعداد مؤلفههای اصلی من را به کمترین مقدار بین تعداد نمونهها (ستونهای ماتریس دادههای من) و تعداد ویژگیها (ردیفهای این ماتریس) محدود میکند. بنابراین، 100٪ واریانس را می توان با 500 مؤلفه توضیح داد. اما 500 کامپوننت به مراتب کوچکتر از 10000 ویژگی است... چگونه می توان این همه واریانس را با کمتر از تعداد نمونه ها (که ربطی به تعداد ویژگی ها ندارد) توضیح داد؟ | تعداد اجزا در PCA |
90957 | من یک پانل داده از 21 کشور در طول 12 سال دارم و هنگام انجام تست هاسمن برای انتخاب بین FE و RE با مشکل مواجه هستم. هنگام انجام تست هاسمن و این را گرفتم (V_b-V_B قطعی مثبت نیست)، بنابراین sigmamore و sigmaless را اعمال کردم و مشکلی در مورد رتبه وجود داشت، بنابراین متغیرهای خود را مجدداً مقیاس کردم اما دوباره این پیام را هنگام اجرای هاسمن دریافت کردم. تست (V_b-V_B قطعی مثبت نیست). من استفاده از usest را در stata 12 انتخاب کرده ام و این را دارم. تغییر شکل گسترده pdgdp gcfdebt GDP inflation libor نرخ مبادله باز بودن، i (سال) j (کد کشور) (توجه: j = 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 no201 متغیرها تا 120 متغیر با این نسخه Stata مجاز است. نسخه هایی در دسترس هستند که حداکثر 32767 متغیر را مجاز می کنند. r(900); بنابراین، من سعی کردم varlist را افزایش دهم اما عبارت آن maxvar در این نسخه Stata قابل تنظیم نیست پس از انجام تحقیقاتی متوجه شدم که می توانم از xtoverid استفاده کنم اما واقعاً نمی توانم تمام این موارد را در مورد تخمین های IV درک کنم. آیا کسی می تواند به من کمک کند که چه کاری می توانم برای غلبه بر این مشکلات انجام دهم و آزمون مناسب را برای انتخاب بین FE و RE انجام دهم. من واقعاً با اقتصاد سنجی راحت نیستم، بنابراین واقعاً از یک پاسخ ساده قدردانی خواهم کرد. | مشکلات در انجام تست هاسمن |
56981 | چگونه باید تفاوت آماری میانگین (یا میانه؟) غلظت آنزیم را بین دو گروه از بیماران آزمایش کنم که توزیع در یک گروه نرمال و در گروه دیگر غیر طبیعی است؟ توزیع مقادیر برای کل جامعه مورد مطالعه غیر عادی است. آیا از آزمون من ویتنی یا آزمون تی دانشجویی استفاده می کنم؟ | من ویتنی در مقابل آزمون t برای مقایسه دو نمونه با توزیع های مختلف |
46152 | من می خواهم مهارت های مربی ای را ارزیابی کنم که 4 زبان مختلف کامپیوتری را به یک دسته از 150 دانش آموز آموزش داده است. من یک پرسشنامه آماده کرده ام که به هر یک از دانش آموزان می دهم. اما من هنوز تصمیم نگرفتهام که دانشآموزان در چه مقیاسی مهارت مربی را برای آن 4 زبان ارزیابی میکنند. من احساس می کنم مقیاس 10 بسیار راحت است و دانش آموزان می توانند بر اساس این مقیاس بازخورد را برای مربی ارائه دهند. اما من بارها دیده ام که مردم عملکرد را در مقیاس 5 ارزیابی می کنند. حتی یک بار من در مقیاس 5 ارزیابی شده ام. آیا انتخاب یک مقیاس خاص اهمیتی دارد؟ منظورم این است که آیا چیزی مانند مقیاس خوب، مقیاس بد، بهترین مقیاس برای نوع خاصی از بازخورد وجود دارد؟ قدردان وقت شما برای پاسخ دادن باشید. | ارزیابی سطح مهارت در یک مقیاس خاص |
52404 | من در حال حاضر در حال مطالعه مدل های پنهان مارکوف هستم. مجموعهای از مشاهدات وجود دارد که باید از روی آنها تعداد بهینه حالتها را تعیین کنم. پس از یافتن حداکثر احتمال با استفاده از Baum-Welch، دو معیار انتخاب مدل را برای تعیین حالت های بهینه در نظر گرفتم. اینها حداقل طول توصیف (MDL) و معیار استنتاج بیزی (BIC) هستند. با این حال، با MDL، تعداد حالت ها = 2 است، در حالی که با BIC 4 است. آیا این بدان معنی است که MDL بهتر از BIC عمل می کند؟ | مقایسه بین MDL و BIC |
51971 | من می دانم که این یک سوال کلی است، اما برای CVers مفید است که در مورد مشکلات رایج، چیزهایی که باید در نظر گرفته شوند و اخطارهایی در مورد نحوه انجام مدل سازی دقیق GLMM یاد بگیرند. آیا کسانی که در GLMM تجربه دارند میتوانند بینشی که ممکن است داشته باشند را به اشتراک بگذارند؟ | مشکلات در انجام GLMM یا تفسیر نتایج GLMM |
82934 | آیا کسی می تواند تفاوت های عمده بین مدل های الگوی کوواریانس (هدکر و گیبون، فصل 6، 2006؛ جنریچ و شلوچتر 1986) و مدل های معادله برآورد تعمیم یافته را توضیح دهد (هاردین و هیلب، 2012؛ لیانگ و زگر، 1986). پیشفرض من این است که تفاوت اصلی در مورد تخمین ML/REML در مورد مدلهای الگوی کوواریانس است. در مقابل، تخمین شبه احتمال در مورد GEE. آیا این درست است؟ و همچنین، کاربرد مدلهای الگوی کوواریانس برای دادههای پاسخ گاوسی در حالی که GEE برای دادههای پاسخ بسیاری از توزیعهای دیگر (گاوسی، باینری، دوجملهای، پواسون و غیره) کاربرد بیشتری دارد. آیا مدلهای الگوی کوواریانس با پاسخ گاوسی و برخی پیوندهای هویتی و GEE (پیوند هویت، پاسخ گوسی) مشابه/یکسان هستند؟ | مدلهای الگوی کوواریانس در مقابل مدلهای معادله برآورد تعمیمیافته |
46156 | به نظر شما، بهترین راه برای مدیریت شبکه های بیزی با استفاده از داده های پیوسته، در این مورد خاص، مقادیر p چیست؟ من در مورد چندین تکنیک گسستهسازی، رویکردهای گاوسی و غیره خواندهام، اما به دلیل جنجالهایی که هر رویکرد دارد کاملاً گم شدهام. همچنین، در حالی که ادبیات زیادی در مورد نحوه مدیریت سری های زمانی برای شبکه های بیزی ثابت و پویا پیدا کردم، مرجع خوبی برای مدیریت مقادیر p پیدا نکردم. | شبکه های بیزی ایستا با استفاده از مقادیر p |
11699 | من سعی می کنم از SPSS برای ایجاد یک رگرسیون خطی بر روی داده های تاریخی (متغیرهای وابسته و مستقل) استفاده کنم و سپس آن را برای داده های جدید (فقط متغیرهای مستقل) برای تولید مقادیر پیش بینی شده و فواصل پیش بینی مرتبط اعمال کنم. من به طور مفصل به مستندات رویه «REGRESSION» در SPSS نگاه کردم، و در حالی که واضح است که چگونه می توانم پیش بینی و فاصله زمانی داده های مورد استفاده برای ساخت رگرسیون را دریافت کنم (با استفاده از یک دستور فرعی «/SAVE» برای ذخیره کردن متغیرهای موقت «PRED»، «LICIN» و «UICIN»). اساساً من به دنبال معادل «PROC SCORE» در SAS یا «predict.lm» در R هستم. | چگونه می توان یک رگرسیون خطی ساخته شده در SPSS را برای داده های جدید اعمال کرد و فواصل پیش بینی را ایجاد کرد |
27918 | من می دانم که به دلایل مختلف لگاریتمی کردن متغیرها در مقادیر مطلق در سری های زمانی ترجیح داده می شود. اما آیا متغیرها در مقادیر درصد (نرخ تورم) نیز باید لگاریتم شوند، همانطور که در یک مطالعه مشاهده کردم، اما مطمئن نیستم که خوب است یا خیر. با تشکر | لگاریتم مقادیر درصد در سری های زمانی |
27911 | اجازه دهید $(n_1،...،n_k)$ نمونه ای از یک دوجمله ای$(N,p)$ باشد که در آن هر دو پارامتر ناشناخته هستند. در بسیاری از موارد، احتمال نمایه $N$ مجانبی است به این معنا که هرگز به $0$ کاهش نمی یابد. نمونه ای از این مورد در اینجا آورده شده است. کد زیر احتمال $N$ را برای این مجموعه داده نشان می دهد. داده = c(16، 18، 22، 25، 27) prof = تابع (n) مجموع (dbinom(data,n,mean(data)/n,log=TRUE)) n = امتیاز = seq(25,500,1) for(i در 1:length(n)) points[i] = exp(prof(n[i])) m = max(points) نمودار (n,points/m) از دیدگاه کلاسیک در چنین سناریویی چه کاری می توانیم انجام دهیم؟ آیا فقط باید بگوییم که فاصله احتمال-اطمینان $(N_0،\infty)$ است؟ توجه: با استفاده از رویکرد بیزی، قسمت عقبی $N$ به دلیل یکپارچگی آن به $0$ برای هر قبلی کاهش می یابد. مسئله در اینجا این است که استنباط ها به شدت تحت تأثیر موارد قبلی هستند، با توجه به اینکه، به عبارت مبهم، احتمال اطلاعات کمی در مورد $N$ دارد. | احتمال N در مدل دوجمله ای |
60537 | من یک نتیجه باینری دارم و ویژگی های من عمدتاً پیوسته هستند. با این حال، بیشتر ویژگیها دادههای گمشده دارند و بهعنوان گمشده کدگذاری میشوند. موارد مفقود به عنوان 9999، 999999 و غیره کدگذاری می شوند. اگر چیزی شبیه به این داشته باشم، چگونه می توانم ویژگی های خود را مقیاس کنم؟ وقتی مدل پیاده سازی شد و در زمان واقعی، مقادیر گم شده ای خواهیم داشت. بنابراین به من توصیه می شود که گمشده ها را نگه دارم و مدل را بسازم. | آموزش شبکه عصبی - ویژگی ها/متغیرها دارای ارزش گمشده هستند |
99356 | فرض کنید من دارم: N = 100، 5 متغیر پیش بینی کننده ادامه دارد و 1 پاسخ ادامه دارد. اکنون میخواهم با استفاده از رگرسیون خطی چندگانه، نقشهای بین پیشبینیکنندهها و پاسخ پیدا کنم. فرض کنید میدانم که 100 نمونه من از زیرگروههای x تشکیل شدهاند، که در آن برای هر زیرگروهی میتوانم مشابهی با MSE بسیار پایین پیدا کنم، اما برای کل جمعیت، MSE من به شدت افزایش مییابد. آیا یک راه استاندارد برای یافتن اینکه آیا این زیر گروه ها وجود دارند وجود دارد؟ | خوشه بندی قبل از رگرسیون خطی چندگانه؟ |
97601 | من به دنبال برخی کاربردهای معیارهای تقلیل ناپذیری چندجمله ای های صحیح در داخل و خارج ریاضیات هستم. من داشتم رزومه فیلاستا، محققی بزرگ در این زمینه را می خواندم، و او کمک هزینه هایی را از NSA دریافت کرده است. این باعث می شود به این فکر کنم که آیا کاربردهایی از این موضوع در علوم کامپیوتر وجود دارد یا خیر. معیارهای تقلیل ناپذیری مانند آیزنشتاین، معیار دوما و غیره در دنیای واقعی یا سایر حوزه های ریاضی کدام کاربرد دارند؟ با تشکر | چند جمله ای ها و NSA |
97605 | با توجه به دو متغیر تصادفی مستقل $X\sim\Gamma(s,r)$ و $Y\sim\Gamma(t,u)$، توزیع تفاوت چگونه است، یعنی $D=X−Y$؟ من فرض می کنم که $s$ و $t$ اعداد صحیح هستند. چگونه می توانم چولگی توزیع تفاوت را بدست بیاورم؟ | تفاوت دو توزیع گامای مستقل |
64691 | من یک مطالعه کوچک از 21 پاسخ دهنده دارم که به برخی از موارد از 0 تا 5 امتیاز داده اند که 0 بی اهمیت و 5 بسیار مهم است. من از قبل می دانم که موارد مرتبط هستند (آنها لیست منتشر شده از موارد از یک سند هستند). و من اقداماتی را نمی خواهم که نشان دهد این موارد چقدر به هم مرتبط هستند. لیست اقلام ثابت است. آیا روشی ناپارامتریک برای نشان دادن نوعی توافق در رتبه بندی بین پاسخ دهندگان وجود دارد؟ من مطالعه ای را دیده ام که از کندال دبلیو استفاده می کند، اما پیوندهای زیادی وجود دارد و شاید این مفیدترین راه نباشد. فقط برای روشن شدن، من به دنبال نوعی اندازه گیری توافق برای هر مورد در داده ها هستم، نه به طور خاص یک مورد. | به دنبال توافق در میان پاسخ دهندگان |
35981 | > **تکراری احتمالی:** > چگونه تشخیص دهیم که داده ها به اندازه کافی خوشه بندی شده اند تا الگوریتم های خوشه بندی > نتایج معناداری تولید کنند؟ من از خوشه بندی سلسله مراتبی استفاده کرده ام، به عنوان مثال، روش وارد، تک، کامل، و غیره. من هم همین مشکل را دارم، نمی دانم چگونه الگوریتم خوشه بندی خود را ارزیابی کنم. چگونه می توانم بفهمم که خوشه ها معنادار هستند؟ من نمی دانم نرم افزار FPC چیست، آیا کسی می تواند از FPC استفاده کند و زبان برنامه نویسی این نرم افزار چیست؟ اگر من با FPC آشنا نیستم، آیا روش دیگری برای ارزیابی وجود دارد؟ | آیا راهی وجود دارد که بفهمیم خوشه های من معنادار هستند یا بی معنی؟ |
89361 | من سعی می کنم احتمال یک نتیجه باینری را با متغیر مستقل که یک متغیر ساعت باشد مدل کنم. من درک می کنم که رگرسیون خطی روش درستی برای این نوع کار نیست (من به درک ساده خود از چرایی آن نمی پردازم، اگر کسی بخواهد توضیح مختصری اضافه کند، من کاملاً موافق هستم). مشکلی که من با آن روبرو هستم این است که به نظر نمی رسد رگرسیون لجستیک به طور دقیق روند داده های من را که سهمی معکوس است (احتمال کم در اوایل، افزایش به اوج در وسط روز و کاهش در پایان) به درستی ثبت کند. دادههای آزمایشی من به شرح زیر است، من منحنی «ggplot» و «stat_smooth()» را در مقابل خود مدل ارائه کردم: testset <- data.frame(hour=c(rep(100,100), rep(200,100) )، تکرار (300،100)، تکرار (400،100)، تکرار (500،100))، data=c(rbinom(100،1،.25)، rbinom(100،1،.3)، rbinom(100،1،.5)، rbinom(100،1،.25)، rbinom(100،1، .1))) ggplot(data=testset,aes(hour,data))+stat_smooth(method=glm,family=binomial) اطلاعیه یعنی من به تابع stat_smooth اجازه میدهم تا به طور پیشفرض روی یک روش برازش/صاف کردن (loess در این مورد) تنظیم شود، نمایش به دادههای واقعی نزدیکتر است. میدانم که چیز بسیار سادهای را از دست میدهم، یا چیزی را به طرز احمقانهای اشتباه میفهمم، اما به همین دلیل است که این سوال را میپرسم، جستجو کمکی نکرد. ggplot(data=testset,aes(hour,data))+stat_smooth() | مدل سازی نتایج باینری - مدل نادرست هنگام استفاده از رگرسیون لجستیک؟ |
89311 | من با برخی از دادهها کار میکنم که ویژگیها جنبه _زمانی دارند (مثلاً هر چند وقت یکبار یک ویژگی بین $t_{begin}$ و $t_{end}$ رخ میدهد). من سعی می کنم یک طبقه بندی کننده باینری برای این داده ها بسازم. با این حال، مشکل این است که هر ویژگی یک توزیع احتمال است. به طور معمول، چیزی شبیه یک طبقهبندیکننده SVM کار میکند: هر شی که با یک بردار نشان داده میشود، که در آن شاخص $i^{th}$ بردار یک عدد است (به عنوان مثال tf-idf و غیره). من نمی دانم چگونه می توانم در جایی که هر شی با مجموعه ای از توزیع های احتمال نمایش داده می شود، ادامه دهم. نمایش برداری ساده به وضوح مناسب نخواهد بود. من خیلی دور جستجو کردم، اما چیزی که مناسب این نوع داده ها باشد، پیدا نکردم. هر گونه اشاره / ایده خواهد شد تا حد زیادی قدردانی می شود. همچنین، میخواهم اضافه کنم که به فواصل بین توابع توزیع و چگالی نگاه کردهام (مثلاً متریک Wasserstein، آماره Kolmogorov-Smirnov)، اما نمیدانم محاسبه این معیارها چگونه در طبقهبندی کمک میکند. | تکنیکهای طبقهبندی ممکن برای استفاده زمانی که هر ویژگی یک توزیع احتمال است |
89367 | من یک glm را به مجموعه دادههای خود نصب کردهام و از آزمون دوربین واتسون برای بررسی تناسب مدل استفاده کردم. من به نتیجه رسیده ام. چگونه می توانم آن را تفسیر کنم؟ تاخیر خودهمبستگی D-W آماری p-value 1 0.7750748 0.4466024 0 فرضیه جایگزین: rho != 0 | تفسیر نتایج دوربین واتسون |
11696 | آیا می توانید یک الگوریتم یادگیری مبتنی بر مدل خوب را برای توصیه موارد به کاربر به من پیشنهاد دهید؟ آیا اجرای متن باز بر اساس الگوریتم یادگیری مبتنی بر مدل وجود دارد؟ من مطمئن هستم که Apache Mahout هیچ الگوریتم یادگیری مبتنی بر مدل را پیاده سازی نکرده است. | الگوریتم یادگیری مبتنی بر مدل برای موتور توصیه |
93488 | من نمی دانم که مفید بودن خوشه بندی k-means در فضاهای با ابعاد بالا چیست و چرا می تواند بهتر (یا نه) از سایر روش های خوشه بندی در هنگام برخورد با فضاهای با ابعاد بالا باشد. | سودمندی خوشه بندی k-means بر روی داده های با ابعاد بالا |
97600 | روز بخیر بچه ها من با SPSS تازه کار هستم و قصد دارم تعیین کنم که آیا رابطه ای بین نمرات و زمان صرف شده برای تماشای بازی های تلویزیونی/ویدیویی با استفاده از همبستگی رتبه اسپیرمن وجود دارد یا خیر. سوال این است که چگونه متغیر زمان را وارد کنم؟ آیا 2 ساعت و 30 دقیقه را به دقیقه تبدیل کنم تا 150 را در تب زمان قرار دهم؟ تحقیقاتم من را به این سمت سوق داد، اما واقعاً متوجه نشدم: پاسخ این است که داده ها را در محدوده ای قرار دهیم که به موجب آن همه محدوده اندازه گیری یکسانی دارند (منظورم برای مثال 45 متر در یک محدوده است به طوری که [0-45] باشم. [46-90] و غیره .... بنابراین شما قبلاً با ترتیب داده ها انجام داده اید. ..) و در نهایت می توانید وارد spss شوید. هر کمکی بی نهایت ممنون خواهد بود. :) (و در صورت امکان با توضیح. خیلی ممنون :D) | اضافه کردن متغیر زمان؟ |
82939 | من در تعیین اینکه آیا برخی از ضرایب تصادفی را در یک مدل ترکیبی نگه دارم یا حذف کنم، کمی سردرگم هستم. تعداد کمی از واحدهای سطح دو وجود دارد، بنابراین من باید از تخمین MCMC استفاده کنم. در نتیجه، خطاهای استاندارد برای اکثر متغیرها در بخش تصادفی حدود 60 درصد از برآورد نقطه مربوطه است. از سوی دیگر، هنگام اضافه کردن هر متغیر به طور جداگانه به بخش تصادفی، DIC برای کل مدل به طور قابل توجهی کاهش می یابد. تا آنجایی که من مدل سازی با ML را درک می کنم، اگر خطای استاندارد بیش از نیمی از مقدار تخمین نقطه ای باشد، نشانه ناچیز بودن ضریب مربوطه است. آیا می توانم خطای استاندارد را در MCMC به همین صورت تفسیر کنم؟ اگر چنین است، چه چیزی اولویت دارد، DIC یا نسبت خطای تخمینی/استاندارد؟ من با توجه به مدل های ترکیبی مبتدی هستم، بنابراین هر مرجعی برای خودآموزی همراه با توضیح نهایی مورد قدردانی قرار خواهد گرفت. متشکرم ضمیمه: برای روشن تر شدن سوال با یک مثال: مورد یک مورد دوم در مورد اول من تمایل به پذیرش پارامتر دارم، با توجه به اینکه حالت آن از صفر فاصله دارد و 95% فواصل معتبر 2.2 و 11.1 هستند. در مورد دوم، من تمایل دارم که پارامتر را رد کنم، به ویژه به نمودار چگالی هسته نگاه می کنم. احتمال صفر تقریباً به اندازه حالت است. با این حال، 95٪ فواصل معتبر 0.002 و 0.012 هستند. اگر فقط به اینها نگاه کنم احساس می کنم باید پارامتر را حفظ کنم. کران سمت چپ نزدیک به صفر است، اما برآورد خود آنقدر بزرگ نیست. و این یک اثر متقابل است، بنابراین این اندازه منطقی است. علاوه بر این، DIC برای کل مدل حدود 50 کاهش می یابد که بسیار زیاد است. سیگنال های مختلط، به اصطلاح، حداقل به نظر من می رسد. | تخمین MCMC در مدل های ترکیبی: آیا چیزی شبیه اهمیت وجود دارد؟ |
97604 | چگونه پیرسون در سال 1900 به آمار کای دو پیرسون زیر دست یافت؟ $$ K = \sum \frac{(O_{ij} -E_{ij})^2}{E_{ij}} $$ that $$ K \sim \chi^2 $$ آیا او chi-squared در فکر کنید و متریک $K$ (رویکرد از پایین به بالا) را طراحی کنید، یا آیا او این آمار را ابداع کرد و بعداً ثابت کرد که از توزیع خی دو (از بالا به پایین) پیروی می کند؟ من می خواهم بدانم چرا او آن فرم خاص را انتخاب کرده است و نه دیگران مانند $\sum(O_{ij} -E_{ij})^2$ یا $\sum|O_{ij} -E_{ij}|$، و همچنین چرا مربع را با مخرج تقسیم کرد. | کارل پیرسون چگونه به آمار کای دو دست یافت؟ |
82930 | پایان نامه من در مورد عوامل تعیین کننده اقتصاد خرد و کلان حواله است و من این تحقیق را با استفاده از داده های اولیه که مستقیماً از مهاجرانی که در خارج از کشور کار می کنند گرفته شده است انجام می دهم. متغیر وابسته من میزان حواله هایی است که به کشور وارد می شود. اکثر مقالاتی که من مرور کرده ام دارای متغیرهای وابسته گسسته بوده یا متغیر وابسته آنها را دسته بندی کرده اند. من نمیخواهم اطلاعات را از دست بدهم، بنابراین میخواهم از مقدار دقیق حوالههایی که توسط مهاجران ارسال میشود به عنوان متغیر وابسته استفاده کنم. آیا می توانم از آن برای رگرسیون استفاده کنم؟ متغیرهای مستقل من محتاط هستند، و آیا میتوانید مدلهای مناسبی را نیز برای تجزیه و تحلیل مجموعه نظرسنجی خود پیشنهاد دهید؟ من سعی می کنم ببینم که آیا نفع شخصی، نوع دوستی، بیمه خود و غیره تأثیری بر میزان حواله های ارسال شده توسط مهاجران دارد یا خیر. | متغیر وابسته مقدار حواله های یک نظرسنجی است |
9237 | من چندین متغیر وابسته دارم که معیارهای عدم تناسب نژادی هستند. من آنها را به این صورت محاسبه کرده ام: % رویدادهای ناشی از گروه اقلیت نژادی / % رویدادهای ناشی از گروه اکثریت نژادی من یک متغیر وابسته برای هر گروه اقلیت نژادی در نمونه خود دارم. من معادلات تخمین تعمیمیافته طولی (GEE) را روی این مدلها اجرا میکنم، اما تا حدودی درمورد اینکه کدام خانواده برای این متغیرهای وابسته مناسب است، گیج شدهام. محدوده احتمال نسبت های من در 0 کوتاه شده است، زیرا امکان وجود مقادیر منفی در DV های من وجود ندارد. این باعث میشود اعتبار استفاده از خانواده گاوسی برای مدلهایم را زیر سوال ببرم. ایده پشت این متغیرها این است که نسبت بزرگتر از 1 نشان دهنده سطحی از بار بیشتر رویدادها است که یک اقلیت نژادی معین در مقایسه با اکثریت نژادی متحمل می شود و نسبت کمتر از 1 نشان دهنده عکس آن است. * مناسب ترین خانواده برای استفاده از رگرسیون های GEE کدام است؟ ویرایش: من در مورد معیار عدم تناسب نژادی که استفاده می کردم اشتباه صحبت کردم. فرمول صحیح این است: ٪ رویدادها بر اساس اقلیت / ٪ از کل ثبت نام که اقلیت است بیش از ٪ رویدادها توسط غیر اقلیت / ٪ از کل ثبت نام که غیر اقلیت است زیرا آنها نسبت هستند، تعداد مشاهدات با مقدار کمتر از 1 قابل مقایسه است. به تعداد مشاهدات بیشتر از 1، که کران پایین 0 و کران بالایی غیرمحدود است. با نگاهی به هیستوگرام متغیرهای پاسخ من، به نظر می رسد که آنها قطعاً با توزیع دوجمله ای منفی بهتر از حالت عادی مطابقت دارند. QIC (تنظیم GEE به AIC) این شک را تأیید می کند. سوال من اکنون این است: * آیا می توانم به این شواهد برای پیشبرد خانواده دوجمله ای منفی اعتماد کنم؟ * اگر چنین است، چگونه می توانم ضرایب توان را از مدل های به دست آمده تفسیر کنم؟ به نظر نمیرسد که نسبتهای نرخ بروز باشند، همانطور که میتوان آنها را از متغیرهای شمارش تفسیر کرد... | خانواده توزیع برای یک متغیر وابسته به نسبت در یک معادله برآورد تعمیم یافته |
114987 | یکی از همکاران اسنادی را برای یک پرسشنامه استاندارد شده به من ارائه کرد که استفاده از محدوده میانه و بین ربعی را برای توصیف متغیرهای خلاصه ایجاد شده با ترکیب پاسخ به چندین سؤال توصیه می کرد. در بیشتر موارد، این متغیرهای خلاصه بیش از 20 مقدار ممکن داشتند (مثلاً مجموع پاسخها به 5 سؤال هر کدام در مقیاس 0-4 که منجر به مقیاس 0-20 میشود). به طرز عجیبی، این توصیه برای خلاصههای تکی سؤالات بله/خیر نیز اعمال میشود - یعنی متغیر خلاصه جدید فقط پاسخ به سؤال بله/خیر است. واضح است که برای یک متغیر باینری مانند این، میانه + IQR اطلاعات بسیار کمتری نسبت به گزارش نسبت پاسخهای «بله» و «خیر» میدهد. سوال من این است - یک متغیر به چند سطح نیاز دارد تا میانه + IQR یک خلاصه آموزنده از گرایش مرکزی و گسترش آن متغیر باشد؟ | زمان گزارش نسبت ها و زمان گزارش میانگین + IQR برای متغیر ترتیبی |
99352 | من در حال انجام طراحی ناپیوستگی رگرسیون شدید با متغیر درمانم $$ D_i = \begin{cases} 1 \enspace \quad \text{if $x_i \geq \overline{x}$} \\\ 0 \quad \text{ در غیر این صورت} \end{cases} $$ که $\overline{x}$ مقدار آستانه متغیر اجباری من است. درمان از سطح درآمد معینی انجام می شود و نتیجه Y$ برخی از وضعیت سلامت بیمار است. من تجزیه و تحلیل خود را انجام داده ام و نتایج بسیار خوبی کسب کرده ام اما اکنون می خواهم استحکام نتایج خود را آزمایش کنم. شاید سایر عوامل مشاهده نشده بتواند بر نتیجه تأثیر بگذارد (من متغیرهای مختلفی روی بیماران دارم) یا بیماران بتوانند مقدار آستانه درآمد خود را دستکاری کنند زیرا آستانه از قبل مشخص است. دیگر چگونه می توانم استحکام نتایج خود را نشان دهم؟ تاکنون از چند جمله ای RD و RD با رگرسیون خطی محلی استفاده کرده ام و نتایج پایدار هستند. آیا بیشتر وجود دارد؟ آیا باید از برخی روش های تجسم داده ها استفاده کنم؟ | آزمون های گرافیکی و آماری برای استحکام شارپ RD |
64342 | من باید میانگین بین دو گروه را در طول زمان مقایسه کنم. مشکل اینجاست که من باید این مقایسه را حدود 80 بار انجام دهم. و دانستن اینکه آیا تفاوتی وجود دارد کافی نیست، بلکه باید بگویم که چه زمانی رخ می دهد. برای زمینه: یک نشانگر رفتاری اندازه گیری شده در 2 گروه 5 تایی موش، که بارها و بارها در شرایط مختلف، در روز و شب، قبل و بعد از برخی درمان ها و غیره اندازه گیری شد. | مقایسه مکرر در طول زمان بین دو گروه |
90379 | من در تعیین ضریب تصحیح برای انتخاب تصحیح بونفرونی مشکل دارم. بذار توضیح بدم من دو مجموعه داده، کنترل ($x$) و دادههای مربوط به چپ ($y_1$، اندام آسیبدیده) و اندام راست ($y_2$، اندام بدون آسیب) یک گروه آسیبشناسی دارم. از آنجایی که $y_1$ و $y_2$ از یک موضوع بودند (دادههای جفت شده)، من یک آزمون رتبهبندی علامتدار Wilcoxon برای مقایسه اینکه آیا این دادهها از نظر آماری متفاوت بودند انجام دادهام. با این حال، وقتی دادهها را بین $x$ و $y_1$ یا بین $x$ و $y_2$ مقایسه کردم، از تست جمعآوری رتبه Wilcoxon استفاده کردم. از آنجایی که چندین آزمایش وجود دارد، آیا باید از ضریب تصحیح 3 ($p<=\frac{0.05}{3}$) استفاده کنم؟ یا ($p<=\frac{0.05}{2}$) فقط برای گروه ($x$ و $y_1$) و ($x$ و $y_2$) و بدون اصلاح برای گروه ($y_1$ و $y_2 دلار)؟ من واقعا از پاسخ محبت آمیز شما قدردانی می کنم. متشکرم. | تصحیح Bonferroni برای دو آزمایش مختلف در یک مجموعه داده |
78206 |  مشکل من این است که میخواهیم 1/2 Norm(w)^2 را تحت محدودیتهای مناسب y(i){[wTxi کمینه کنیم +b}-1}.. لاگرانژی می نویسیم و معادلات بالا را می گیریم.. من در تفکیک نسبت به w مشکل دارم. معادله | تمایز در ماشین بردار پشتیبان |
97491 | من یک رگرسیون لاجیت باینری گام به گام در Stata با استفاده از 14 متغیر مستقل اجرا می کنم. دو تا از متغیرهای مستقل ساختگی هستند (با فرض مقدار 0 یا 1). من متغیرهای مستقل را برای چند خطی بودن آزمایش کردهام و آنها را با استانداردسازی یا استفاده از لگاریتم طبیعی مقادیر آنها به منظور کاهش این موضوع تطبیق دادهام (VIF<2.5). مدل معمولی هموار اجرا می شود. با این حال، وقتی میخواهم نمونه (تعداد مشاهدات: 73) را با 1000 تکرار بوتاسترپ کنم، مقادیر p 1.0000 را دریافت میکنم. علاوه بر این، نتایج با این نکته به پایان می رسد: یک یا چند پارامتر را نمی توان در 314 تکرار بوت استرپ تخمین زد؛ برآوردهای خطای استاندارد فقط شامل تکرارهای کامل است. دو سوال: 1\. آیا آستانه VIF که استفاده کردم درست است (VIF<2.5)؟ چه راه های دیگری برای خلاص شدن از شر چند خطی، بدون حذف یکی از متغیرها وجود دارد؟ 2\. از آنجایی که فکر نمیکنم چند خطی بودن دیگر یک مسئله باشد، چه اشتباه دیگری در مورد روش راهاندازی خود میتوانستم انجام دهم؟ پیشاپیش از پاسخ(های) شما سپاسگزارم! بهترین! تیم | رگرسیون لاجیت باینری گام به گام - کمک به راهاندازی در Stata |
54805 | من در حال راه اندازی یک طرح شبه تجربی هستم و باید هر حساب درمانی را با تمام حساب های کنترلی بالقوه در یک منطقه جغرافیایی خاص مقایسه کنم. من می خواهم فاصله بین یک حساب درمان و هر حساب کنترل همسایه را به همراه مصرف انرژی آنها اندازه گیری کنم تا به انتخاب مشابه ترین جفت کمک کنم. بدیهی است که متغیرها (EW coord، NS coord و مصرف انرژی) همه در مقیاس های مختلف هستند، آیا این بدان معناست که ابتدا باید هر متغیر را استاندارد کنم؟ همچنین، آیا لازم است همبستگی بین متغیرها را در نظر بگیرم - فکر میکنم مختصات جغرافیایی به دلیل متعامد بودن آنها به وزن صفر نزدیک میشوند. اگر بخواهم از فاصله ماهالانوبیس یا معیارهای آماری دیگری استفاده کنم، چگونه ماتریس کوواریانس را محاسبه کنم؟ من می دانم که چگونه در یک محیط چند متغیره معمولی انجام دهم، اما من به تعداد انگشت شماری از 3 تاپل های کنترلی نسبت به یک درمان 3 تایی نگاه می کنم. آیا می توانم فقط درمان 3-tuple را به عنوان بردار میانگین در نظر بگیرم و از آن انحرافات برای محاسبه یک ماتریس کوواریانس استفاده کنم؟ | اندازه گیری فاصله بین مختصات جغرافیایی در میان متغیرهای دیگر |
9233 | در اینجا برخی زمینه ها وجود دارد. من علاقه مند به تعیین چگونگی تأثیر دو متغیر محیطی (دما، سطوح مواد مغذی) بر مقدار میانگین یک متغیر پاسخ در یک دوره 11 ساله هستم. در هر سال، داده هایی از بیش از 100 هزار مکان وجود دارد. هدف تعیین این است که آیا در طول دوره 11 ساله، مقدار میانگین متغیرهای پاسخ به تغییرات متغیرهای محیطی پاسخ داده است (به عنوان مثال دمای گرمتر + مواد مغذی بیشتر = پاسخ بیشتر). متأسفانه، از آنجایی که پاسخ مقدار متوسط است (بدون بررسی میانگین، فقط تغییرات منظم بین سالانه سیگنال را باتلاق می کند)، رگرسیون 11 نقطه داده (1 مقدار متوسط در سال) با 2 متغیر توضیحی خواهد بود. برای من حتی یک رگرسیون مثبت خطی به عنوان معنی دار در نظر گرفته نمی شود، زیرا مجموعه داده بسیار کوچک است (حتی 40 امتیاز اسمی/متغیر را برآورده نمی کند مگر اینکه رابطه فوق العاده قوی باشد). آیا درست است که این فرض را بکنم؟ آیا کسی میتواند افکار/دیدگاههای دیگری را که ممکن است از دست داده باشم، ارائه دهد؟ با تشکر PS: برخی از هشدارها: هیچ راهی برای به دست آوردن اطلاعات بیشتر بدون انتظار سال های اضافی وجود ندارد. بنابراین داده های موجود همان چیزی است که ما واقعاً باید با آن کار کنیم. | آیا سری های زمانی کوتاه ارزش مدل سازی را دارند؟ |
69111 | من اخیراً در مورد مدلهای جلوههای ترکیبی (مثلاً از طریق کتاب Fitzmaurice، Laird و Ware _Applied Longitudinal Analysis_) و همچنین مدلهای سلسله مراتبی بیزی (مثلاً از طریق کتاب Gelman و Hill _Data Analysis Using Regression and Multilevel One/Hier) یاد گرفتهام. چیز عجیبی که من متوجه شدم: بیزی ادبیات تمایل دارد تأکید کند که مدلهای آنها میتوانند متغیرهای کمکی را در سطوح چندگانه تحلیل مدیریت کنند. به عنوان مثال، اگر خوشهبندی توسط شخص باشد، و هر فرد در چندین «آزمایش» اندازهگیری شود، مدلهای سلسله مراتبی بیزی میتوانند تأثیرات اصلی متغیرهای کمکی را هم در سطح موضوع و هم در سطح آزمایشی و همچنین تعاملات بین «سطوح» بررسی کنند. با این حال، من در کتابهای درسی این مدلها را ندیدهام که روشهای مکرر را معرفی کنند. من مطمئن نیستم که آیا این یک تصادف است یا مثالی از جایی که روش های بیزی می توانند کارهای پیچیده تری انجام دهند. آیا می توان از مدل های اثرات مختلط (مانند بسته های lme4 یا nlme در نرم افزار آماری R) برای بررسی تعاملات متغیرهای کمکی در سطوح تحلیل استفاده کرد؟ | آیا مدلهای چند سطحی «واقعی» به روشهای بیزی نیاز دارند؟ |
101328 | فرض کنید که یک متغیر پاسخ داریم که برای هر موضوع اندازه گیری می شود. 2 متغیر طبقه بندی (عامل) وجود دارد: یکی گروه عامل بین آزمودنی با دو سطح (کنترل و درمان) و دیگری دسته عامل درون آزمودنی با سه سطح (بالا، متوسط و پایین). چنین ANOVA مختلط 2 $\ برابر $ 3 را می توان از طریق یک مدل خطی عمومی (GLM) با کدگذاری ساختگی فاکتورها تجزیه و تحلیل کرد. برای نشان دادن فرمول GLM، فرض کنید شش موضوع وجود دارد، سه نفر در هر گروه، و ما معادله زیر را با کدگذاری اثر داریم: $$ \begin{bmatrix} y_{11} \\\ y_{12} \\\ y_{ 13} \\\ y_{21} \\\ y_{22} \\\ y_{23} \\\ y_{31} \\\ y_{32} \\\ y_{33} \\\ y_{41} \\\ y_{42} \\\ y_{43} \\\ y_{51} \\\ y_{52} \ \\ y_{53} \\\ y_{61} \\\ y_{62} \\\ y_{63} \end{bmatrix} = \begin{bmatrix} 1 & 1 & 1 & 0 & 1 & 0 & 1 & 0 & 0 & 0 \\\ 1 & 1 & 0 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\\ 1 و 1 و -1 و -1 و -1 و -1 و 1 و 0 و 0 و 0\\\ 1 و 1 و 1 و 0 و 1 و 0 و 0 و 1 و 0 و 0\\\ 1 و 1 و 0 و 1 و 0 و 1 و 0 و 1 و 0 و 0 \\\ 1 و 1 و -1 و -1 و -1 و - 1 و 0 و 1 و 0 و 0 \\\ 1 و 1 و 1 و 0 و 1 و 0 و -1 و -1 و 0 و 0\\\ 1 & 1 & 0 & 1 & 0 & 1 & -1 & -1 & 0 & 0\\\ 1 & 1 & -1 & -1 & -1 & -1 & -1 & -1 & 0 & 0 \\ \ 1 & -1 & 1 & 0 & -1 & 0 & 0 & 0 & 1 & 0 \\\ 1 & -1 & 0 & 1 & 0 & -1 & 0 & 0 & 1 و 0\\\ 1 و -1 و -1 و -1 و 1 و 1 و 0 و 0 و 1 و 0 \\\ 1 و -1 و 1 و 0 و -1 و 0 و 0 و 0 و 0 و 1 \\\ 1 & -1 & 0 & 1 & 0 & -1 & 0 & 0 & 0 & 1 \\\ 1 & -1 & -1 & -1 & 1 & 1 & 0 & 0 & 0 & 1 \\\ 1 & -1 & 1 & 0 & -1 & 0 & 0 & 0& -1 & -1 \\\ 1 & -1 & 0 & 1 & 0 & -1 & 0 & 0 & -1 & -1 \\\ 1 & -1 & -1 & -1 & 1 & 1 & 0 & 0& -1 & -1 \end{bmatrix}\\\ \begin{bmatrix} \beta_0 \\\ \beta_1 \\\ \beta_2 \\\ \beta_3 \\\ \beta_4 \\\ \beta_5 \\\ \beta_6 \\\ \beta_7 \\\ \beta_8 \\\ \beta_9 \end{bmatrix}+\begin{bmatrix} \epsilon_{11} \\\ \epsilon_{12} \\\ \epsilon_{13} \\\ \epsilon_{21} \\\ \epsilon_{22} \\\ \epsilon_{23} \\\ \epsilon_{31} \\\ \epsilon_ {32} \\\ \epsilon_{33} \\\ \epsilon_{41} \\\ \epsilon_{42} \\\ \epsilon_{43} \\\ \epsilon_{51} \\\ \epsilon_{52} \\\ \epsilon_{53} \\\ \epsilon_{61} \\\ \epsilon_{62} \\ \ \epsilon_{63} \end{bmatrix} $$ آمار F$ برای هر افکت (مثلاً جلوههای اصلی و تعاملات) با عباراتی فرموله شده است که هر کدام با یک مدل جزئی همراه است که تعدادی ستون از ماتریس مدل حذف شده است. فرض کنید من می خواهم وزن بدن هر آزمودنی را نیز به عنوان یک متغیر در نظر بگیرم. من به سختی هیچ بحثی در مورد مدل سازی چنین متغیری تحت چارچوب GLM می بینم. این واقعاً یک رویکرد ایدهآل نیست زیرا فرض میشود که هر سه دسته دارای اثر وزن بدن یکسان هستند. بنابراین، وقتی یک متغیر کمکی در یک GLM گنجانده شده است، دقیقاً چه مشکلی وجود دارد؟ متعامد شکسته یا چیز دیگری؟ | مدل خطی عمومی با یک متغیر کمکی در حضور یک عامل اندازه گیری مکرر |
11695 | قدرت در رگرسیون لجستیک چیست؟ آیا این توانایی آزمون برای رد فرضیه صفر در حالی است که واقعاً نادرست است؟ دوم، اگر میخواهید قدرت آماری خود را هنگام انجام یک رگرسیون لجستیک به حداکثر برسانید، آیا بهتر است از مقادیر پیشبینیکننده که فقط بالا یا پایین هستند یا طیفی از مقادیر پیشبینیکننده استفاده کنید؟ | رگرسیون لجستیک - قدرت و مقادیر پیش بینی کننده |
80814 | برآوردگر حداقل مربعات پارامتر B (بتا) را در مدل رگرسیونی زیر بیابید: y= B + u واریانس برآوردگر چقدر است؟ | برآوردگر حداقل مربعات پارامتر B (بتا) را در مدل رگرسیونی زیر بیابید: y= B + u واریانس برآوردگر چقدر است؟ |
89369 | فاصله اطمینان برای میانگین متغیر تصادفی $Y$ دارای پوشش $1-\alpha$ است که من سعی دارم نشان دهم. شروع از $$\widehat{E(Y)} - q_{1-\frac{\alpha}{2}}\sqrt{\frac{\widehat{Var(Y)}}{n}} \leq E( Y) \leq \widehat{E(Y)} + q_{1-\frac{\alpha}{2}}\sqrt{\frac{\widehat{Var(Y)}}{n}} $$ من دوباره این را به $$- q_{1-\frac{\alpha}{2}} \leq \sqrt{n} \left( \frac{\widehat{E(Y)}-E(Y)} تنظیم کردم {\sqrt{Var(Y)}} \right) \leq q_{1-\frac{\alpha}{2}} $$ سپس با قضیه حد مرکزی $\sqrt{n} (\widehat{E(Y)} - E(Y)) \rightarrow N(0,Var(Y))$. سپس از قضیه نگاشت پیوسته استفاده می کنم. با توجه به اینکه $\widehat{Var(Y)} = \frac{1}{n}\sum^{n}_{i=1} Y_i^2 - (\frac{1}{n}\sum^n_i Y_i )^2$، تابع $m:(x,y) \rightarrow x - y^2$ را تعریف کنید. سپس $$x \equiv \sum^{n}_{i=1} Y_i^2 \rightarrow E(Y^2)$$ و $$y \equiv \sum^{n}_{i=1} Y_i \rightarrow E(Y)$$ توسط قانون ضعیف اعداد بزرگ. سپس $\widehat{Var(Y)} = g(x,y) \rightarrow g(E(Y^2),E(Y)) = Var(Y)$ برآوردگر ثابت واریانس است. بنابراین $$\sqrt{n} \left( \frac{\widehat{E(Y)}-E(Y)}{\sqrt{Var(Y)}} \right) \rightarrow N(0,1)$ $ اما اکنون من در چگونگی ادامه برای به دست آوردن نرخ پوشش نهایی گیر کرده ام. اگر کسی می تواند به من راهنمایی کند که چگونه می توانم به آنجا برسم، بسیار سپاسگزار خواهد بود. @AlexH با تشکر از اشاره به اشتباه تایپی. فکر می کنم نکته را متوجه شده ام. این باید $$ \begin{align} Pr \left(\sqrt{n} \left( \frac{\widehat{E(Y)}-E(Y)}{\sqrt{\widehat{Var(Y) باشد }}} \in (-q_{1-\frac{\alpha}{2}}, q_{1-\frac{\alpha}{2}} \right) \right) &= Pr(N(0,1) \in (-q_{1-\frac{\alpha}{2}}, q_{1-\frac{\alpha}{2}} )) \newline &= Pr(N (0,1) \leq q_{1-\frac{\alpha}{2}} - Pr(N(0,1) > q_{\frac{\alpha}{2}}) \newline &= \ فی (q_{1- \frac{\alpha}{2}}) - \Phi (q_{\frac{\alpha}{2}}) \newline &= 1 - \frac{\alpha}{2} - \ frac{\alpha}{2} \newline &= 1 - \alpha \end{align} $$ | بازه های زمانی اثبات اطمینان پوشش |
90371 | من یک مجموعه داده دارم که از 15 مقدار سن تشکیل شده است. من می خواهم قبل از انجام هر کاری اطلاعات را پاک کنم. چند سوال در مورد پاکسازی داده ها و یکپارچگی داده ها دارم. اگر مجموعه داده حاوی مقدار غیرقانونی باشد (مانند '${\rm F1}$'، به عنوان مثال) بهترین درمان چیست؟ من فکر کردم که گرفتن میانگین از 14 مقدار باقیمانده و انجام یک جایگزینی میانگین ممکن است ایده خوبی باشد. اگر مقادیری وجود دارد که نمی توانند درست باشند، مانند -99 دلار (هیچکس نمی تواند -99 دلار سال سن داشته باشد)، آیا بهترین اقدام یک درمان ذهنی است؟ یا باید از روش آماری مثل جایگزینی میانگین استفاده کنم؟ به نظر من منطقی به نظر می رسد که 99-$ را به $99+ تبدیل کنم و آن را به عنوان یک خطای ورود داده در نظر بگیرم. آیا $0$ می تواند یک سن باشد؟ مجموعه داده حاوی مقدار $0$ است. من بیشتر به دنبال این هستم که بدانم آیا رویکرد رسمی برای مقابله با این نوع مشکلات وجود دارد یا خیر. | چگونه با مقادیر داده های نامعتبر مانند سن (به عنوان مثال، -99، 0، F1) برخورد کنیم؟ |
12341 | من می خواهم از BIC برای انتخاب مدل HMM استفاده کنم: BIC = -2*logLike + num_of_params * log(num_of_data) بنابراین چگونه می توانم تعداد پارامترهای مدل HMM را بشمارم. یک HMM 2 حالته ساده را در نظر بگیرید، که در آن داده های زیر را داریم: داده = [1 2 1 1 2 2 2 1 2 3 3 2 3 2 1 2 2 3 4 5 5 3 3 2 6 6 5 6 4 3 4 4 4 4 4 4 3 3 2 2]; model = hmmFit (داده، 2، 'گسسته')؛ model.pi = 0.6661 0.3339; model.A = 0.8849 0.1151 0.1201 0.8799 model.emission.T = 0.2355 0.5232 0.2259 0.0052 0.0049 0.0053 0.0053 0.0053 0.021450.02149 0.1578 logLike = hmmLogprob (مدل، داده)؛ logLike = -55.8382 بنابراین من فکر می کنم: Nparams = اندازه (model.A,2)*(size(model.A,2)-1) + size(model.pi,2)-1) + size(model.emission. T,1)*(size(model.emission.T,2)-1) Nparams = 13 بنابراین در پایان داریم: BIC = -2*logLike + num_of_params*log(length(x)) BIC = 159.6319 من راهحلی پیدا کردم که در آن فرمول «تعداد_پارامها» (برای مدل ساده مارکوف) به نظر میرسد: Nparams = تعداد_حالات*(تعداد_حالات-1) - Nbzeros_in_transition_matrix ? آیا باید برخی از احتمالات صفر را در ماتریس های انتقال یا انتشار در نظر بگیرم؟ ====بهروزرسانی شده از تاریخ 2011/07/15==== فکر میکنم بتوانم در مورد تأثیر بعد دادهها توضیحی ارائه کنم (با استفاده از مثال «توزیع مخلوط گاوسی») X یک ماتریس n-by-d است که در آن (n- ردیف مطابقت دارد) به مشاهدات، d-ستون ها با متغیرها مطابقت دارند (Ndimensions) 3,17 3,43 2,94 3,92 5,04 1,65 1,79 1,59 3,92 2,53 3,73 2,26 3,60 3,87 5,01 3,71 4,83 1,89 3,30 ]; [n d] = اندازه (X) d = 2 این مدل دارای پارامترهای زیر است GMM: nParam = (k_mixtures - 1) + (k_mixtures * NDDimensions ) + k_mixtures * Ndimensions % برای ماتریس های کوواریانس دایگونال nParam = (k_mixtures – 1) + (k_mixtures * NDimensions * NDimensions s *NDimensions s (NDimensions ) *NDimensions s (NDimensions ) + k_mixtures % برای ماتریسهای کوواریانس کامل اگر X را به عنوان **داده یک بعدی** در نظر بگیریم، «تعداد_داده = (n*d)» داریم، بنابراین برای دادههای **دوبعدی**، «تعداد_داده = n» داریم. **داده های 2 بعدی**: nParam = 11 ; logLike = -11.8197; BIC = 1.689 **داده یک بعدی**: nParam = 5 ; logLike = -24.8753; BIC = -34.7720 من تمرین بسیار کمی با HMM دارم. **آیا داشتن HMM با (پارامترهای 5000، 6000 و بیشتر) طبیعی است؟** | تعداد پارامترها در مدل مارکوف |
114065 | من با مجموعه دادهای از دانشآموزان و دروس آنها برای یک ترم کار میکنم و تلاش میکنم بر اساس دروس و ویژگیهای مختلف دیگر که در آن «دورهها» جنبه «تعدادی» یک رابطه یک به چند است، خوشهبندی کنم. اگر مهم است، من R، JMP و RapidMiner را در اختیار دارم. من میتوانم مجموعه دادهها را به چند روش در یک ساختار جدول واحد پیشنهاد کنم، اما هیچ چیز برای من به دلایلی منطقی نیست: میتوانم مجموعه دادهها را با ویژگیهای چند جملهای چند جملهای ساختار دهم که میتواند مقدار هر نام دوره را بگیرد. به عنوان مثال، STUDENT course1 course2 course3 course4 course5 GPA TEST1 TEST2 TEST3 1 ENGL2 MATH1 HIST1 ACCT1 BIOL2 3.2 87 342 18 2 ENGL1 CHEM2 COMP1 HIST1 N/A 3.5 93 312 22 و غیره. اما ترتیب دوره ها مهم نیست، به عنوان مثال، فرقی نمی کند HIST1 در course3 ظاهر شود یا course4. از طرف دیگر، میتوانم تمام دورهها را به مقادیر باینری تقسیم کنم، بهعنوان مثال، آزمون معدل دانشجویی TEST1 TEST2 TEST3 ACCT1 BIOL2 CHEM2 COMP1 ENGL1 ENGL2 HIST1 MATH1 1 3.2 87 342 18 1 1 0 0 151223. 0 0 1 1 1 0 1 0 با این حال، در مجموعه داده های کامل، حدود 400 ویژگی به دست می آید. این بسیار ناکارآمد به نظر می رسد، و مجموعه داده هایی با ویژگی های بسیار کمتر، 16 گیگابایت رم سیستم من را خفه کرده اند. بنابراین، من مطمئن نیستم که چگونه ادامه دهم. هر گونه بینشی در مورد نحوه برخورد با چنین ساختارهای یک به چند معمولا مفید خواهد بود. با تشکر | چگونه می توان یک مجموعه داده رابطه ای را برای تجزیه و تحلیل خوشه بندی پیشنهاد کرد؟ |
45714 | در یک صف M/M/1، می دانیم که زمان های بین ورود به صورت تصاعدی توزیع می شوند و زمان های سرویس یکسان است. توزیع زمان های بین ورود به سرور (معروف به زمان شروع سرویس) چگونه است؟ به عبارت دیگر، توزیع زمان بین زمانی که یک سرور شروع به کمک به مشتری می کند چگونه است؟ مقداری شهود: اگر $\lambda \ll \mu$، به ندرت منتظر میماند، و سرور فقط ورودها را با همان نرخ ورود به صف تجربه میکند. اگر $\lambda \approx \mu$، سرور تقریباً همیشه مشغول است و ورودها را با همان نرخ سرویس/رسیدن تجربه میکند. با این حال، وقتی $\lambda < \mu$، چرخه هایی وجود دارد که مشتریان به خطوط خالی و اشغال شده می رسند. بنابراین، سرور در مواقعی نرخ واقعی ورود $\lambda$ را می بیند و در زمان های دیگر، ورود به آنها $\mu$ خواهد بود. یکی از اثبات های این قضیه از مجموع وزنی و احتمال مشغول بودن سرور استفاده می کند. من فکر می کنم ممکن است رویکرد مشابهی برای حل این مشکل وجود داشته باشد. | توزیع زمان رسیدن به سرور برای یک صف M/M/1 (آنچه سرور تجربه می کند) |
114981 | من سه دسته از نرخ های سلب حق اقامه دعوی در نیویورک دارم (نرخ ها تعداد دفعات سلب مالکیت در هر 1000 خانه است). این سه دسته عبارتند از: نرخ کلی سلب حق سلب مالکیت، نرخ برای خانه های داخل منطقه سیل، و نرخ برای خانه های خارج از مناطق سیل. نرخ ها برای 2.5 سال گذشته ماهانه است. نرخ ها در سطح شهرستان / شهرستان (برانکس، بروکلین، منهتن، کوئینز، استیتن آیلند) ارائه می شود. کدام فرآیند آماری میتواند تعیین کند که آیا تفاوت قابلتوجهی در نرخهای سلب مالکیت هم در سطح شهر و هم در بین مناطق برای خانههای واقع در منطقه سیل در مقایسه با خانههای واقع در خارج از منطقه سیلزده وجود دارد؟ هر گونه اشاره در جهت درست قدردانی خواهد شد. با تشکر دادههای مثال (با عرض پوزش برای قالببندی) ماه کلی برونکس بروکلین منهتن کوئینز استیتن آیلند نیویورک 12-ژانویه 0.91 0.99 0.20 0.83 0.55 0.77 12-فوریه 1.08 0.86 0.17 0.87 0.84 0.17 بروکلین منهتن کوئینز استیتن آیلند نیویورک 12-ژانویه 0.96 0.90 0.15 0.81 0.43 0.71 12-فوریه 1.20 0.66 0.37 0.81 0.64 0.67 خارج از سیل منطقه ایالت کوئینهتن سیتی برونک سیتی ماهانه برانک 12 ژانویه 0.91 1.01 0.21 0.83 0.56 0.78 12-فوریه 1.08 0.91 0.14 0.84 0.80 0.80 | چگونه می توان مجموعه ای از نرخ های سلب حق اقامه دعوی را با زمان و مکان مقایسه کرد |
12343 | من یک زیست شناس هستم تا آمارگیر، بنابراین ممکن است بینش کافی نداشته باشم. من روی دو گروه جفتی (پایه و پیگیری) به همراه یک گروه جداگانه از کنترل سالم اندازه گیری کردم. علاوه بر این، طراحی مطالعه نامتعادل است (12 = برای B و F و n = 5 برای HC). ### سوال * آیا تکنیک ANOVA وجود دارد که به من اجازه دهد یک ANOVA منصفانه را با در نظر گرفتن جفتسازی ذاتی برای گروههای پایه و پیگیری انجام دهم؟ من قبلاً با تستهای t زوجی برای خط پایه در مقابل پیگیری و سپس تستهای جفتنشده برای هر گروه در مقابل گروه کنترل سالم، تجزیه و تحلیل انجام دادهام، اما تعجب کردم که آیا تکنیک ظریفتری را از دست دادهام. | ANOVA با برخی از سوژههای جفت شده و برخی غیرجفتشده |
12344 | من پروتئین را در انسان با استفاده از دو روش مختلف اندازه گیری می کنم، X و Y (در مقیاس های مختلف اندازه گیری می شود). من دو تکرار برای نوع X و چهار تکرار برای نوع Y دارم. دو اندازه گیری را برای X و میانگین چهار اندازه گیری را برای Y برای به دست آوردن میانگین پروتئین واقعی می کنم. حدود 120 موضوع وجود دارد. تنوع زیادی در اندازهگیریهای تکرار وجود دارد و بهطور شگفتانگیزی، رابطه بین مقادیر متوسط X و میانگین Y خیلی قوی نیست (r = 0.36). من سعی می کنم تعیین کنم که کدام روش اندازه گیری بهتر است. من می خواهم از سطح پروتئین آزمودنی به عنوان پیش بینی کننده در یک مدل رگرسیون استفاده کنم. من به بررسی ضریب تغییرات و آلفای کرونباخ فکر کرده ام. آیا این دو نتیجه باید هماهنگ باشند؟ آیا آنها اینجا درخواست می دهند؟ چه چیزی را توصیه می کنید؟ داده های مثال:  به روز رسانی: از همه برای پاسخ های متفکرانه متشکریم. من اطلاعات بیشتری در مورد داده ها پیدا کرده ام (به نوعی به سمت من پرتاب شد). اندازه گیری پروتئین در روزهای متوالی انجام شد (بنابراین X دو روز و Y 4 روز بود). بنابراین به طور طبیعی پروتئین فرد از روز به روز متفاوت است که تنوع در اندازه گیری ها را توضیح می دهد. سپس میانگین به عنوان تخمینی از مصرف پروتئین فعلی آنها استفاده می شود. در حال حاضر این یک رویکرد رایج برای اندازهگیری سطح پروتئین افراد است، زیرا هیچ راهی برای دانستن سطح فعلی پروتئین مصرفی افراد وجود ندارد. من دوست ندارم اندازه گیری پروتئین را انتخاب کنم که بیشترین ارتباط را با نتیجه دارد. فکر نمیکنم داوران این توجیه را دوست داشته باشند. نگاه کردن به اندازهگیریهای مختلف قابلیت اطمینان برای من رویکرد بهتری به نظر میرسد (من ضریب تغییرات را ترجیح میدهم). من همیشه فکر می کردم که آلفای کرونباخ برای قابلیت اطمینان یک ساختار نهفته استفاده می شود (شما می توانید در اینجا استدلال کنید که فکر می کنم پروتئین نهفته است). همچنین همبستگی واقعاً بین X و Y کم است. با این حال من آن همبستگی را با نادیده گرفتن خطای اندازهگیری مشهود در X و Y محاسبه کردم. تصحیح آن منجر به همبستگی قویتر میشود. همچنین آموختهام که جمعآوری دادهها نامرتب بوده است، بنابراین نداشتن همبستگی قوی تعجبآور نیست. | چگونه تشخیص دهم که کدام مجموعه اندازه گیری بهتر است؟ |
20124 | من می خواهم همبستگی بین یک متغیر ترتیبی 7 طبقه ای (X) و تعدادی متغیر دیگر را ارزیابی کنم که برخی از آنها ترتیبی با 3-6 دسته، برخی دیگر پیوسته و یک زوج دوگانه هستند. مجموعه داده شامل تنها 24 مشاهدات است و بنابراین فقدان نرمال بودن و مشاهدات مرتبط مسائلی هستند که باید در نظر گرفته شوند. * آیا بهتر است از ضریب کندال برای ارزیابی همبستگی بین X و هر یک از متغیرهای دیگر استفاده شود؟ اگر چنین است، کدام یک (یعنی tau-a یا tau-b؛ من می دانم که راجر نیوسون طرفدار اولی است)؟ * آیا استفاده از اسپیرمن نیز منطقی است؟ * و بهترین آزمون برای ارزیابی همبستگی با هر یک از متغیرهای دوگانه چیست؟ | همبستگی اسپیرمن یا کندال؟ |
63370 | من بارها از مردم به من گفتهام که وقتی ارقام را در طول زمان با هم مقایسه میکنید، میتوانید / باید آزمایشهایی را که معمولاً برای آمار نمونه (مثلاً تفاوت میانگینها و غیره) در نظر گرفته شده انجام دهید. معمولاً ادعا می شود که این به این دلیل است که هر سرشماری «نمونه ای در زمان» است. درک من این است که بسط نظریه نمونه گیری به این شکل مناسب نیست. به طور خاص، توضیح زیر (که از تکنیک های آماری سرشماری کپی شده است) دیدگاه من را به خوبی توصیف می کند. > وقتی نمونه ای دارید، از آمار استنباطی برای تعمیم به جمعیت > استفاده می کنید. هنگامی که شما یک سرشماری دارید، از قبل اطلاعاتی برای کل جمعیت دارید، بنابراین نیازی به تعمیم نیست. به عنوان مثال، اگر از نمونه گیری استفاده کرده اید، و بین > گروه ها 3 درصد تفاوت وجود دارد، باید از آمار استنباطی استفاده کنید تا تصمیم بگیرید که آیا این تفاوت 3 درصد واقعی است یا فقط به دلیل شانس تصادفی هنگام نمونه گیری است. . > > اما اگر یک سرشماری انجام دادید، و بین گروه ها 3 درصد تفاوت وجود داشت، خوب، > قطعاً 3 درصد تفاوت وجود دارد. این تفاوت 3 درصدی به دلیل > شانس تصادفی در نمونه گیری نیست، زیرا شما داده هایی برای کل جامعه دارید. > با این حال، حتی با یک سرشماری، باز هم باید از قضاوت خود استفاده کنید تا به این فکر کنید که چرا یک تفاوت 3٪ (به دلایلی غیر از شانس تصادفی در نمونه گیری) وجود دارد، و اینکه آیا تفاوت 3٪ به اندازه کافی بزرگ است که می توانید داشته باشید. > هر گونه اهمیت عملی برای کاری که انجام می دهید. > > بنابراین اساسا، فقط از آمار توصیفی استفاده کنید. همبستگی ها خوب هستند، اما شما > فقط به مقدار r برای نشان دادن قدرت همبستگی نیاز دارید، نه مقدار p > که مربوط به شانس تصادفی در نمونه گیری است. > > بسیاری از مردم تفاوت بین آمار نمونه و آمار سرشماری > را درک نمی کنند و از اینکه شما آمار را به درستی انجام نداده اید شکایت خواهند کرد. من مواردی داشتم که در نهایت مجبور شدم آمار استنباطی را روی داده های سرشماری انجام دهم فقط به این دلیل که مردم آنقدر شکایت کردند که هیچ مقدار p در هیچ چیزی وجود نداشت! > > اگر دادههای گمشده زیادی از سرشماری دارید، گاهی اوقات به برخی آمارهای استنباطی فانتزی برای پر کردن آن نیاز دارید. من شک دارم که این برای شما صدق کند، اما > در مورد سرشماری جمعیت ایالات متحده صدق میکند زیرا (برای برخی عجیب و غریب) دلیل آزادیخواهانه) تکمیل نظرسنجی سرشماری در ایالات متحده اجباری نیست. با این حال، **سوال من به مقایسه بین گروه ها مربوط می شود**. استدلالی که به من داده شد این است که وقتی به زمان نگاه می کنید، هر پارامتر سرشماری در واقع یک نمونه تک نقطه ای از تمام پارامترهای ممکن در طول زمان است. من با این موضوع چند مشکل دارم: 1. تفاوت در ارقام سرشماری در طول زمان به شانس نسبت داده نخواهد شد. آنها باید منتسب به تغییرات در محیط / جمعیت اساسی باشند و 2. حتی اگر استدلال «نمونهها در زمان» درست باشد، شما فقط نقاط داده بسیار کمی از این «جمعیت نامحدود» نمونهگیری میکنید - شاید پارامترهای چهار یا پنج سرشماری هایی که می خواهید مقایسه کنید - که به این معنی است که $n$ آنقدر کوچک است که برای تولید آمار نمونه بی فایده است. مطمئناً دیگران به طور رسمی تری به این وضعیت پرداخته اند، اما من نتوانسته ام مطالبی را پیدا کنم که این وضعیت را پوشش دهد. بنابراین سوال من این است: **آیا کسی در اینجا می تواند من را در جهت مطالبی که در مورد این موضوع بحث می کند راهنمایی کند یا توضیحی در مورد استدلال نمونه ها در زمان ارائه دهد که پایه رسمی تری برای پذیرش اینکه واقعاً استفاده از آزمون های آماری نمونه مناسب است ارائه می دهد. در مورد پارامترهای سرشماری؟** | آیا آمار نمونه هنگام مقایسه داده های سرشماری در طول دوره های زمانی مرتبط است؟ |
99229 | در حال مطالعه در زمینه شناخت و رفتار هستم. من در حال سخنرانی دروس زبان شناسی و آموزش اصطلاحات زبان شناسی با تصاویر بصری هستم. در تحقیقاتم، درست قبل از هر دوره، از شرکت کنندگان 20 سوال رفتاری بله-نه پرسیدم، مانند آیا تا به حال توسط سگ گاز گرفته شده اید یا تا به حال سینفل را تماشا کرده اید. بعد شروع کردم و در طول دوره، تعدادی عکس را به آنها نشان دادم که با اصطلاحات زبانی مرتبط است. این تصاویر مطابق با این سوالات مانند تصویر یک پیتبول یا صحنه ای از سینفلد است. سپس در پایان دوره، از آنها خواسته می شود که این تصاویر را روی اصطلاحات زبانی خاصی که مرتبط هستند قرار دهند. من در مورد حفظ آنها تعجب می کنم که کدام تصاویر را به خاطر می آورند و به درستی قرار می دهند. فرضیه من این است که 20 سوالی که از آنها پرسیدم در انتخاب تصاویر آنها موثر است. به عنوان مثال، تماشای seinfeld یادآوری مجدد آن را آسان تر می کند. من داده هایم را در SPSS آماده کردم، سوالات بله-خیر 1-0 هستند و تست حفظ آنها به همان اندازه اشتباه و صحیح 1-2 است. چگونه می توانم رابطه علت و معلولی بین این متغیرهای دوگانه را اندازه گیری کنم، از کدام آزمون برای اندازه گیری تأثیر 20 مورد رفتاری بر حفظ صحیح و غلط استفاده کنم. من 16 شرکت کننده دارم. لطفا، من واقعاً به کمک نیاز دارم، می دانم که نمی توانم دو متغیره کنم. خیلی ممنون. | برای انتخاب کدام آزمون به کمک نیاز دارید؟ |
101321 | من این ابزار را پیدا کردم که برخی از عملکردهای ارزیابی شناخته شده مانند دقت و یادآوری را ارائه می دهد. متأسفانه این ابزار فقط C-SVM کلاس باینری را پشتیبانی می کند. می خواستم بدانم کجا می توانم توابع ارزیابی مشابهی را پیدا کنم که برای تخمین احتمال SVM مناسب هستند؟ اگر ابزار توسعه LIBSVM مانند ابزار بالا وجود داشته باشد، حتی بهتر است. در غیر این صورت خوشحال می شوم در مورد توابع ارزیابی برای تخمین احتمال SVM بیشتر بخوانید. با تشکر | توابع ارزیابی LIBSVM برای تخمین احتمال |
62972 | من نگاهی به چندین الگوریتم یادگیری ویژگی بدون نظارت انداختم. بسیاری از آنها (ماشین های محدود بولتزمن و رمزگذارهای خودکار پراکنده) حتی در مجموعه داده های کوچکی مانند MNIST زمان آموزش بسیار طولانی دارند. نمی دانم آیا الگوریتم های مشابهی وجود دارد که بتوان در زمان کمتری آموزش داد؟ الگوریتمهای مشابهی که امیدوارکننده به نظر میرسند ممکن است هزینه فیلترینگ و بازسازی پراکنده ICA (RICA) باشد. آیا ممکن است بیشتر باشد؟ مشکل دیگر برخی از این الگوریتمها این است: اکثر آنها به آموزش دستهای با الگوریتمهایی مانند L-BFGS نیاز دارند. در یک محیط آنلاین، به احتمال زیاد آموزش دادن آنها بدون ذخیرهسازی مجموعهای از نمونهها برای آموزش، دشوار خواهد بود. آیا جایگزین هایی وجود دارد؟ آیا چیزی در ادبیات وجود دارد؟ چیزی پیدا نکردم. | سریعترین الگوریتم یادگیری ویژگی بدون نظارت چیست؟ |
49814 | من خیلی دور برای پاسخ روشن به سؤالم جستجو کرده ام (و می دانم که ممکن است پاسخ روشنی وجود نداشته باشد) و امیدوارم کسی بتواند به من کمک کند: من داده های نظرسنجی برای 4 نمونه با اندازه های نابرابر دارم (n = 500، 490، 101، 103). من میخواهم دادهها را برای تجزیه و تحلیل رگرسیون (به طور خاص لاجیت و توبیت) جمعآوری کنم، اما نمیدانم چگونه اندازههای مختلف نمونه و تأثیر آنها بر نتایج مدل را محاسبه کنم. هیچ ایده ای دارید که چه کاری باید انجام دهم؟ خیلی ممنون | ادغام داده ها با حجم نمونه نابرابر |
62975 | بگویید من 4 متغیر دارم: اضطراب، افسردگی، حافظه و توجه. من برای آزمودنی ها تست داده ام و اکنون فهرستی از نمرات هر متغیر را دارم. بگویید من می خواهم رابطه بین ظرفیت های شناختی (حافظه و توجه) و خلق (افسردگی و اضطراب) را بدانم. مشکل اینجاست که هیچ راهی برای انتخاب یک متغیر وابسته تئوری پشتیبانی شده در مورد من وجود ندارد. قوای شناختی بد منجر به خلق بدتر می شود، اما خلق بد باعث عملکرد شناختی بدتر نیز می شود. بنابراین اکنون میپرسم: چگونه این چیز را مدل کنم؟ آیا باید 2 متغیر خلقی را به عنوان وابسته انتخاب کنم و حافظه و توجه را به عنوان پیش بینی اجرا کنم؟ اگر این را برعکس کنم برای نتایج مهم است؟ یا فقط برای تفسیر نتایج مهم است؟ احساس می کنم با یک مشکل بسیار واضح دست و پنجه نرم می کنم اما نمی توانم بفهمم چه کار کنم. تنها فکر دیگر من این بود که رگرسیون به سادگی برای یک مدل بدون اثرات مستقیم اعمال نمی شود و من این کار را کاملاً اشتباه انجام می دهم. | رگرسیون بدون متغیر وابسته آشکار |
10279 | من در حال تجزیه و تحلیل تعداد زیادی از مجموعه داده ها (تعداد بیش از 100) از نرخ های حادثه هستم، با هدف تشکیل یک توزیع نرمال. سپس میدانم که آیا نرخ رویداد آینده (x%) به میانگین تاریخی نزدیک است یا خیر، و میتوانم آن را با فرمولی که از قبل ایجاد شده است امتیاز/امتیاز دهم. داده ها دارای انحراف مثبت هستند، زیرا بیشتر نقاط داده در اطراف یا نزدیک به صفر درصد جمع می شوند. من باید این داده ها را به یک توزیع عادی تبدیل کنم، درست است؟ روش ارجح در برخورد با درصدها چیست (اینها همیشه بین 0 تا 100 درصد خواهند بود؟ آیا روش های غیر عادی جایگزینی وجود دارد که بتوانم از آن برای رسیدن به خروجی مورد نظر خود استفاده کنم؟ به هر حال، فرض کنید من داده ها را تبدیل کرده ام و از توزیع نرمال پیروی می کند. اکنون می توانم میانگین و std dev را پیدا کنم، سپس آنها را در اکسل با استفاده از z-scores رسم کنم. سپس من باید بتوانم تعیین کنم که آیا نرخ حادثه x% در 10%، 20% بالای مقادیر قرار دارد یا خیر، و بر این اساس آن را با فرمول خود نمره دهم. آیا مشکلی در این روش وجود دارد؟ | تجزیه و تحلیل نرخ حوادث تاریخی و رتبه بندی عملکرد آینده |
54801 | من یک مدل 3 پارامتری (میانگین، سیگما و تاو) را بر روی داده های خود قرار داده ام و همچنین خطای استاندارد را برای هر یک از آنها محاسبه کرده ام. آمار مورد علاقه برای داده های من مجموع میانگین و تاو است. سوال من این است که چگونه کل خطای این آمار جدید را تخمین بزنم؟ می دانم که نمی توانم به سادگی خطاهای میانگین و تاو را جمع کنم. هر گونه کمکی بسیار قدردانی خواهد شد. پیشاپیش ممنون | ترکیب خطاهای استاندارد پارامترهای برازش |
68440 | من در حال انجام تجزیه و تحلیل بقا در Stata با داده هایی هستم که به عنوان چندین رکورد در طول زمان ساختار یافته اند. برای نشان دادن، فرض کنید در حال مطالعه مرگ و میر بیماران هستم. **میخواهم بررسی کنم که آیا دو متغیر توضیحی، مثلاً وزن و فشار خون، با هم مرتبط هستند یا خیر.** میتوانم یک همبستگی جفتی را با استفاده از «فشار خون وزن pwcorr» انجام دهم، اما این واقعیت را در نظر نمیگیرد که مشاهدات می تواند از همان بیماران باشد. چگونه باید همبستگی بین وزن و فشار خون را در حالی که خوشه بندی را در بیمار کنترل می کنم، آزمایش کنم؟ من ضریب تورم واریانس (VIF) را دیده ام که برای آزمایش همبستگی در داده های نظرسنجی استفاده می شود، اما مطمئن نیستم که چگونه آن را به داده های بقا منتقل کنم. | همبستگی بین متغیرهای توضیحی در تحلیل بقا |
10274 | من lmrob، cor.mve و cor.mcd را در R برای همبستگی قوی دو سری اعداد (با طول یکسان) A و B امتحان میکنم. اگر A~B یا A,B قرار دهم نتایج متفاوتی به دست میآورم. B~A یا B,A. کسی میتونه منو راهنمایی کنه که چرا؟ با تشکر | همبستگی قوی در R، جهت |
89164 | من دارم روی یک مشکل ابهامزدایی حس کلمه کار میکنم. به طور خاص، من از لیست های تصمیم برای طبقه بندی کلمه مبهم استفاده می کنم. لیست های تصمیم گیری به روش زیر عمل می کنند. مقدار $$log(\frac{P(sense_1 | collocation)}{P(sense_2 | collocation)})$$ برای کلمه مبهم محاسبه میشود. و اگر ریاضی من درست باشد، $$\frac{P(sense_1|همآهنگی)}{P(sense_2|همآهنگی)}=\frac{\frac{count(collocation,sense_1)}{count(collocation)}}{\frac{count(collocation,sense_2 )}{count(collocation)}}=\frac{count(collocation,sense_1)}{count(collocation,sense_2)}$$ بنابراین اگر مطلق مقدار گزارش این کمیت بالاتر از یک آستانه معین است، سپس یک قانون تصمیم گیری (بر اساس علامت روی گزارش این کمیت) ایجاد می شود. مسئله ای که من دارم این است که در این مقدار کل نمونه های آموزشی هر کلاس در نظر گرفته نمی شود. به عنوان مثال، چه می شود اگر sense_1 دارای 100 مثال و 99 مورد از آنها دارای 'همنشینی' باشد و sense_2 دارای 10000 مثال و 105 مورد از آنها دارای 'Colocation' در آنها باشد. در آن صورت، «همآمیزی» به احتمال زیاد با sense_2 مرتبط است که از نظر شهودی درست نیست. آیا بهتر است این شمارش ها را با اندازه کل کلاس خاص در داده های آموزشی مقیاس کنیم؟ | مشکل عدم تعادل طبقاتی در مشکل طبقه بندی |
90373 | من به مسئله 5.01 مربوط به داده های گالتون در مورد قد بزرگسالان پدران و پسران، از **فصل 5 مدل سازی آماری: رویکردی تازه** نگاه می کنم _ پیوند به این کتاب:_ http://www.mosaic- web.org/ go/StatisticalModeling/index.html _آیا کسی می تواند به من توضیح دهد که چرا فاصله اطمینان با فاصله پوشش آنقدر متفاوت است؟_ **مشکل 5.01. میانگین کودکان بزرگسال در دادههای گالتون **> میانگین (قد، داده=گالتون) است [1] 66.76069 > اگر گالتون نمونه متفاوتی از بچهها را انتخاب میکرد، احتمالاً نتیجه کمی متفاوت میگرفت. فاصله اطمینان محدوده احتمالی > نتایج ممکن را در اطراف نتیجه واقعی نشان می دهد. > > از bootstrapping برای محاسبه فاصله اطمینان 95 درصدی میانگین > قد کودکان بزرگسال در داده های گالتون استفاده کنید. عبارت زیر 500 آزمایش بوت استرپینگ را ایجاد می کند. trials = do(500) * mean(height, data= resample (Galton) ) > **(a) فاصله اطمینان 95% روی میانگین ارتفاع چقدر است؟** > > **A. 66.5 تا 67.0 اینچ. ** > B. 66.1 تا 67.3 اینچ. > C. 61.3 تا 72 اینچ. > D. 65.3 تا 66.9 اینچ. > > **(ب) بازه پوشش 95% روی قد تک تک کودکان را می توان به صورت زیر محاسبه کرد:** qdata(c(0.025,0.975)، قد، داده = گالتون) 2.5% 97.5% 60 73 > ** س: توضیح دهید که چرا فاصله پوشش 95 درصدی قد کودکان > بسیار متفاوت از فاصله اطمینان 95 درصد در میانگین است. قد همه > بچه ها؟** | چرا فواصل برای وسایل باریکتر از فواصل برای مشاهدات فردی است؟ |
78207 | من برخی از داده های دوره زمانی دارم که می خواهم اولین مشتق آن را بدست بیاورم. از آنجایی که مدلسازی بسیار دشوار به نظر میرسد، من قصد ندارم تابعی را با آن تطبیق دهم، بلکه مشتق اول را به صورت عددی محاسبه میکنم (تفاوت هر اندازهگیری را از اندازه قبل از طریق تابع numpy.diff محاسبه میکنم. اکنون، من همچنین میخواهم از دادههایم نمونه برداری کنم تا از شر نویز خلاص شوم. من سعی کردهام محاسبه کنم که آیا فرقی میکند که ابتدا آن را استخراج کنم و آن را کاهش دهم یا ابتدا مقیاس را کاهش دهم و آن را استخراج کنم. اما با وجود این که سعی میکنم به آن نگاه کنم، به نظر نمیرسد که نمیتوانم متغیرهای یکسانی را در هر دو طرف معادله خود قرار دهم (سمت اول - چگونه به کار تمایز و نمونهبرداری بعدی اعتقاد دارم، و در طرف دوم برعکس). $ \frac{(b-a)+(c-b)}{2} = \frac{c+d}{2}-\frac{b+a}{2} $ آیا میتوانید به من کمک کنید تا بفهمم به چه ترتیبی مهم است یا خیر؟ من عملیاتم را انجام دهم؟ | تمایز عددی (مشتق) و نمونه برداری پایین |
67612 | یکی از دوستانم به من مراجعه کرد تا به او کمک کنم تا مدل رگرسیون لجستیک چند جمله ای خود را تفسیر کند. آنها افراد را به عنوان 1 حالت از 2 حالت در 2 دوره زمانی اندازه گیری کردند. بنابراین، هر فرد می تواند 1 از 4 پیکربندی را داشته باشد: شروع در حالت 1، پایان در حالت 1. شروع در حالت 1، پایان در حالت 2. حالت شروع 2، حالت پایان 1; حالت شروع 2، حالت پایان 2. آنها تجزیه و تحلیلی را انجام داده بودند که در آن نتیجه دارای 4 سطح مربوط به هر یک از این تنظیمات بود. این به نظر من یک روش غیرطبیعی برای انجام این کار بود. من احساس می کنم که این وضعیتی شبیه به حالتی است که شما یک نتیجه مستمر داشتید، که در 2 نقطه زمانی اندازه گیری می شد. اگر به تغییر از خط پایه علاقه مند بودید، می توانید مقدار پایانی را مدل کنید و برای خط مبنا و سایر متغیرهای کمکی تنظیم کنید. آیا این به رگرسیون لجستیک ترجمه می شود؟ آیا می توانید حالت پایان را مدل کنید و حالت شروع را با سایر متغیرهای کمکی تنظیم کنید؟ نمیتوانستم دلیل خوبی برای اینکه این کار نمیکند فکر کنم، اما این مشکل را هم داشتم. آیا این بهتر از مدل سازی نتیجه به عنوان 4 دسته ممکن است؟ | رگرسیون لجستیک قبل از بعد |
21545 | اجازه دهید $p_1$ و $p_2$ دو توزیع احتمال مجزا باشند. $$ L(q)=D(q||p_1)-D(q||p_2) $$ را تعریف کنید که $D$ واگرایی معمول Kullback-Leibler است. فرض کنید پشتیبانی از $p_2$ در پشتیبانی از $p_1$ گنجانده شده است. آیا این درست است که $L(q)$ به حداکثر (جهانی) در $q=p_2$ دست می یابد؟ از کجا می توانم دلیلی برای این واقعیت پیدا کنم (اگر درست باشد)؟ **ویرایش** : فرض می کنم (الف) PMF گسسته (ب) به دنبال حداکثر در زیر مجموعه $$ \Delta = \\{ q| supp(q)\subsetq supp(p_1)\\}. $$ با تشکر فراوان، | خاصیت KL-واگرایی |
44440 | من مجموعه ای از 20 متغیر دارم که آنها را از طریق تحلیل عاملی در SPSS قرار داده ام. برای اهداف تحقیق، من باید 6 عامل را توسعه دهم. SPSS نشان داده است که 8 متغیر (از 20 متغیر) با وزن کم بارگذاری شده اند یا به طور مساوی بر روی چندین عامل بارگذاری شده اند، بنابراین آنها را حذف کردم. 12 متغیر باقیمانده به صورت جفت 2 تایی در 6 عامل بارگذاری شده اند، که عالی است - درست همانطور که من می خواستم، اما اکنون، یکی از اساتیدی که با من کار می کند از من می خواهد که دلیل مناسب بودن (یا تحت چه شرایطی) را پیدا کنم. استفاده از 2 مورد در هر عامل مناسب است، زیرا معمولاً مشخص است که تحلیل عاملی با 3 یا بیشتر در هر عامل استفاده می شود. آیا کسی می تواند به من در این موضوع کمک کند، ترجیحاً با یک مرجع منتشر شده نیز؟ | چه زمانی در تحلیل عاملی استفاده از دو آیتم (متغیر) برای هر عامل قابل قبول است؟ |
49816 | من مجموعه داده ای با روابط خطی و درجه دوم برای متغیر پاسخ خود در بین افراد دارم. مجموعه داده من شامل افراد نمونه برداری شده از دو جمعیت است (9 نفر از جمعیت A و 8 نفر از جمعیت B). برای هر فرد، ایزوتوپ های نیتروژن پایدار را از 9 پر بال که به طور متوالی رشد کرده اند (سری های زمانی) اندازه گیری کرده ام. من دو فرضیه دارم: 1. تفاوت آنها در مقادیر میانگین ایزوتوپ در سراسر بال برای افراد بین دو منطقه است. 2. تفاوت آنها در تغییرات مقادیر ایزوتوپ در سراسر بال برای افراد بین دو منطقه، باید اعتراف کنم که من یک مدل های تازه کار تا ترکیبی در اصل من به اشتباه فرض میکردم که دادههای من برای هر فرد «خطی» است. به لطف بن بولکر، اکنون می دانم که چگونه این فرضیات را آزمایش کنم و متوجه شدم که یک نفر از 17 نفر رابطه درجه دوم دارد. قبل از کشف خطای خود، GLMM های زیر را با استفاده از بسته 'nlme' در 'R' ساخته بودم: model1 <- lme(Delta15N~factor(Population)، روش = REML، داده = داده، تصادفی = ~ 1 | فردی، همبستگی = corAR1 (شکل = ~ 1 | فردی)) model2 <- lme(Delta15N ~ فاکتور (جمعیت)*پر، روش = REML، داده = داده، تصادفی = ~ 1 فرد، همبستگی = corAR1(فرم = ~ 1 | فردی)) لطفاً یک مرجع یا کد مثالی را پیشنهاد دهید که ممکن است از آن استفاده کنم | داده های من را به درستی مدل سازی کنید؟ | آیا می توانم از یک مدل ترکیبی غیر خطی برای داده های حاوی هر دو رابطه خطی و درجه دوم استفاده کنم؟ |
78203 | در مثال اول http://statisticshelp.com/siguri-interval خطای استاندارد نسبت $$\frac{\sqrt {p(1-p)}}{n}$$ چرا؟ | خطای استاندارد نسبت |
63372 | من مجموعهای از $n=1000$ نمونههای 4 بعدی (چند متغیری) دارم که در آن هر اندازهگیری بهدستآمده از دادههای ردیابی GPS در یک بازه زمانی گرفته میشود که مختصات فضایی $(x,y)$، سرعت را نشان میدهد. بنابراین، مجموعه داده شامل 5 ستون (بعد دیگری برای زمان) از 1000 تاپل است. از آنجایی که 4 بردار همبسته وجود دارد، پس باید 4 متغیر در مدل وجود داشته باشد که هر کدام یک اندازه گیری را نشان می دهند. من واقعاً در تلاش هستم تا تعیین کنم: 1. چگونه می توان مدل سازی را با ورودی های متعدد و تک خروجی آغاز کرد 2. کدام مدل را انتخاب کرد؟ 3. آیا انتخاب مدلسازی به توزیع احتمال بستگی دارد؟ اگر چنین است پس چه رابطه ای وجود دارد؟ 4. مدل های خطی باید باشد یا غیرخطی؟ تصویرسازی با یک مثال کوچک واقعا مفید خواهد بود. | نحوه مدل سازی سری های زمانی چند متغیره |
48656 | من سعی می کنم مقادیری را در یک جدول برای تابع زیر ایجاد کنم: $$ W = \int_0^1 [B(t)]^2 dt $$ که در آن $B(t)$ یک حرکت استاندارد براونی است. مثال: $W_{0.05} = 1.656$، $W_{0.025} = 2.135$. این از جدول C.6 در تحلیل بقا توسط Klein & Moeschberger گرفته شده است. (آنها اشاره ای به نحوه محاسبه مقادیر نمی دهند). من از «R» برای این استفاده میکنم: تابع BM2 <- (x) (rnorm(n=1، میانگین=0، sd=x))^2 اما البته استاندارد «ادغام» (BM2، پایینتر=0، بالا=1) )» برای این کار نمی کند: «ارزیابی تابع نتیجه طول اشتباه را نشان داد». با نگاهی به این سوال مشابه، مشابه است، اما واضح است که به این سادگی نیست: $$ W_t = \frac{t^3}{3} $$ من حدس میزنم که تابع با روش Ito یکپارچه شده است، اما به نظر نمیرسد که هیچ کدام را پیدا کند. نمونه های کار شده مشابه فرمول بالا. هر گونه راهنمایی یا نشانگر (مخصوصاً در R که به نظر نمی رسد تابعی برای این کار داشته باشد) بسیار قدردانی می شود، به خصوص اگر مقادیر عددی داده شده در بالا قابل بازتولید باشند. به روز رسانی 1/29: با تشکر @ThePawn. سوال تصحیح شد من روش نمونهگیری مجدد را دوست دارم و تقریبهای منطقی را تولید میکند. در ابتدا فکر کردم این به دلیل کوچک بودن حجم نمونه یا تکرارهای حلقه است. به نظر نمی رسد که تابع در «R» به راحتی «vecorize» شود، بنابراین آن را در C++ بازنویسی کردم. استفاده از نمونه های >10000 یا dt <0.0001 تمایل زیادی به بهبود اوضاع ندارد (که احتمالاً باید حدس می زدم) و نسبتاً کند می شود. به نظر نمی رسد این روش دقتی فراتر از 1 رقم قابل توجه ارائه دهد (اگرچه این مطمئناً برای یک کاربرد عملی به اندازه کافی خوب است): require(rcpp) require(inline) src <- arma::colvec b1 = Rcpp::as<arma ::vec>(B); dt1 = as<double>(dt double dtrt1 = pow(dt1, 0.5). { دامنه RNGScope // بازنشانی مولد اعداد تصادفی هر بار arma::colvec rn1 = rnorm(nb1, 0, dtrt1 += rn1; integer,dt=double), src, plugin = RcppArmadillo) n <- 1e4 # اندازه نمونه B <- rep(0, n) # نتیجه را نگه دارید dt <- 1e-5 T <- seq(0, 1, dt) lt <- length(T) B <- f1(B,lt,dt) sum (B >2.135) /n # تقریبی = 0.025 مجموع (B > 1.656)/n # تقریباً = 0.05 @probabilityislogic - مطمئن نیستم چه فرآیندی محدود میکند من استفاده می کنم، برای پیشنهاد وجود دارد. آیا سعی میکنم فرمولی را که پیشنهاد میکنید پیادهسازی کنید، اما به نظر میرسد که راهحل تقریبی دیگری خواهد بود... * * * هنوز نمیدانم آیا روش دقیقی برای این کار وجود دارد - یا فکر میکنید مقادیر از یک رویکرد نمونهگیری مجدد مانند موارد بالا ایجاد شدهاند؟ | مقادیر برای انتگرال مربع فرآیند براونی استاندارد |
12345 | برای یک امتحان، نمرات 10 دانش آموز (همه از کلاس 4B) به دست آمد. من می خواهم هر امتیاز را به E-value تبدیل کنم. اگر درست متوجه شده باشم، برای محاسبه E-value ابتدا باید یک جمعیت نامرتبط را تعیین کنم، بنابراین، برای 30 دانش آموز در کلاس 4A نیز امتیاز گرفتم. برای بحث، من دو مجموعه داده در اینجا ایجاد کرده ام: class4B <- c (0، 10، 20، 30، 50، 40، 70، 80، 90، 99) class4A <- c(1، 3، 3، 3، 5، 6، 7، 2، 1، 90، 12، 14، 15، 44، 66، 88، 67، 78، 90، 45، 67، 99، 100، 12، 45، 56، 100، 23، 45، 29) * آیا مایلید به من اطلاع دهید که چگونه می توان مقادیر E-TEN برای هر دانش آموز را در Class4B با R؟ * آیا باید جمعیت کلاس 4A را در نظر بگیریم؟ * آیا بدست آوردن ارزش E بر اساس جمعیت نامرتبط یا به اصطلاح جمعیت تصادفی یک رویکرد آماری صحیح است؟ | چگونه انتظارات (E-value) را برای یک مجموعه داده بدست آوریم؟ |
111291 | من یک سوال نسبتا ساده دارم، اما شاید من اشتباه متوجه شده باشم. برای اهداف شبیه سازی استفاده از شاخص پراکندگی (SI) ابزار خوبی است، اما من این ایده را داشتم که هر چه شاخص پراکندگی کوچکتر باشد، نتایج شبیه سازی شده بهتر است. در مقالهای که اخیراً داشتم میخواندم، آنها SI 0.90 را به عنوان یک نتیجه خوب ارائه کردند، در حالی که نتایج مشابه خودم معمولاً دارای SI 0.3-0.4 هستند که به نظر شما بهتر است. p.s من به رابطه اندازه گیری های واقعی و نتایج شبیه سازی در مدل های جوی اشاره می کنم. پیشاپیش از شما متشکرم | سوال شاخص پراکندگی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.