_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
93061
من تابع احتمال زیر را دارم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1d5Tw.gif) این اطلاعات در مورد ماتریس $\Omega$ ($\boldsymbol{1) به من داده شده است }$ یک بردار $T \times 1$ از یکها است): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/YLjFa.gif) دوست دارم بتوانم نشان دهم که تابع احتمال می‌تواند به این شکل بازنویسی شود: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sKuPa.gif) فکر می‌کنم یک اشتباه چاپی در مقاله وجود دارد، بنابراین تصاویر صفحه از مقاله ای که من پیوست کردم اشتباه است، به این معنی که $\Omega^{-1}$ قرار است $$\Omega^{-1}=\frac{1}{\sigma^2_{\varepsilon}+T\sigma^2_{c}}\boldsymbol{1}(\boldsymbol{1}'\boldsymbol{1 })^{-1}\bold نماد{1}'+\frac{1}{\sigma^2_{\varepsilon}}(I_t-\boldsymbol{1}(\boldsymbol{1}'\boldsymbol{1})^{-1}\boldsymbol{ 1}')$$ و نه همانطور که در بالا ذکر شد. تاکنون عبارت $\Omega^{-1}$ را در تابع log- likelihood بالا درج کرده‌ام. با این حال، به خصوص آخرین عبارت تابع log-likelihood بازنویسی شده مرا آزار می دهد، یعنی این بخش: \begin{equation*} \begin{split} ...&+\frac{1}{2}\frac{1} {\sigma^2_{\varepsilon}}\frac{1}{N}\sum_{i=1}^{N} \left(Y_i-\boldsymbol{1}\bar{Y}_i-\left(X_i-\boldsymbol{1}\bar{X}_i\right)\beta\right)'\left(Y_i-\boldsymbol{ 1}\bar{Y}_i-\left(X_i-\boldsymbol{1}\bar{X}_i\right)\beta\right). \end{split} \end{equation*} آیا کسی راه حل را می بیند؟ من هم این لم را دارم، اما مطمئن نیستم که در بازنویسی تابع احتمال استفاده شود یا نه: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wlhbU.gif)
درک اشتقاق برآوردگر ML
110057
من از یک MANCOVA مستقل یک طرفه با 4 متغیر وابسته و یک متغیر کمکی استفاده می کنم. پیش بینی من دو متغیره است. من در حال حاضر در تلاش برای آزمایش ناهمگنی رگرسیون در SPSS با ارزیابی تعامل بین متغیر کمکی و پیش بینی هستم. سوال این است که آیا باید تعامل را برای هر متغیر وابسته در یک زمان آزمایش کنم یا برای مدل MANCOVA به عنوان یک کل؟ در ابتدا، تعامل در مدل MANCOVA غیر معنی‌دار است، در حالی که دو مورد از تعاملات در مقایسه‌های چندگانه ANCOVA من قابل توجه است. در حال حاضر این من را در یک بن بست قرار می دهد. من معتقدم که فعل و انفعالات متعدد ANCOVA خطای خانوادگی در یافتن ناهمگنی قابل توجه را افزایش می دهد - آیا این فرض درست است؟ از لحاظ نظری، من دلیلی برای استنباط همگنی رگرسیون دارم.
چگونه می توانم همگنی رگرسیون را در MANCOVA آزمایش کنم؟
51232
من تازه شروع به یادگیری رگرسیون کردم، بنابراین پیشینه من خیلی قوی نیست. من باید مشکل خاصی را حل کنم که خیلی سخت به نظر نمی رسد، با این حال در درک آن مشکل دارم. فرض کنید x<-seq(1,50,1), y<-3*x+2+6*rnorm(length(x)) را تعریف کنیم بنابراین پاسخ من $Y$ دقیقا از این نوع است: $Y=X\ beta+\epsilon$، که در آن $\epsilon$ خطا است و به طور معمول توزیع می شود (در اینجا با میانگین 0 و واریانس 1). اکنون باید یک رگرسیون خطی ساده $n$ بار انجام دهیم و شیب $n$ رگرسیون را ذخیره کنیم. reg <-lm(y~x) مقدار واقعی شیب باید $3 باشد، همانطور که فرض می شود. من شیب $n$ را محاسبه کردم و آنها را در بردار $s$ ذخیره کردم. کار بعدی ترسیم یک هیستوگرام از شیب های تخمینی $n$ و اضافه کردن چگالی نرمال توزیع نظری واقعی شیب ها است. مشکل من از اینجا شروع می شود: واضح است که شیب ها به طور معمول توزیع شده اند. بنابراین من باید میانگین و واریانس را محاسبه کنم. نگاهی به مدل: $y_i=\beta_1+x_{i,2}\beta_2 +\epsilon_i$، جایی که $\epsilon_i\sim\mathcal{N}(0,6^2)$. نکته این است که از «حل» برای معکوس یک ماتریس استفاده کنید. من نمی دانم چگونه این باید کمک کند؟ آیا منظور این است که من باید این را محاسبه کنم: $$X^{-1}(Y-\epsilon)=\beta$$ چگونه میانگین و واریانس را از آنجا بدست بیاورم؟ و تفاوت میانگین و انحراف معیار تجربی شیب های برآورد شده چیست؟ پیشاپیش از کمک شما متشکرم
تخمین میزان دقیق رگرسیون خطی
61145
با دیدن جدول زیر به این نتیجه رسیدم که در دسته بسیار ناامن پراکندگی زیادی وجود دارد. اولین واکنش من این بود که آن را با دسته ناامن ادغام کردم و من را با 3 دسته باقی گذاشتم. اما گزینه دیگر این است که فقط دسته را حذف کنید. قبل از انتخاب یک گزینه چه ملاحظاتی را باید رعایت کرد؟ همچنین، می‌خواهم بدانم که آیا نگهداری 2 درجه ایمن و فقط 1 درجه ناامن خوب است؟ به نظر من، هنگام بحث در مورد شانس، چندان منطقی نخواهد بود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vSNvO.png) در پاسخ به نیک کاکس ویرایش کنید: فکر می‌کنم باید دسته را حذف کنم زیرا نتیجه‌گیری‌ها با انتظارات نظری مطابقت ندارند. به عنوان مثال، فرض بر این است که کسانی که در مناطق شهری بیشتر زندگی می کنند سطوح بیشتری از ترس را تجربه می کنند. و در واقع، احتمال احساس امنیت (در مقابل امنیت) عبارتند از: روستا > شهر کوچک > شهر بزرگ. شانس احساس امنیت (در مقابل ناامن) به همین ترتیب است. اما پس از آن برای ناامن (در مقابل بسیار ناامن) تبدیل به حومه > شهر بزرگ > شهر کوچک می شود که با تئوری و روند قبلی خارج است. می‌توانم بگویم، اگرچه شهرنشینی با احساس ناامنی بیشتری همراه می‌شود، اما زمانی که شهرنشینی آغاز شده به سطوح بالاتر پیش می‌رود، این احساس درجات شدیدتری پیدا می‌کند. اما البته، من نمی‌خواهم چنین نتیجه‌گیری‌هایی را گزارش کنم، وقتی این نتیجه‌گیری‌ها به دلیل پراکندگی داده‌ها باشد تا واقعیت‌های اجتماعی.
ادغام دسته ها یا حذف یکی؟
93060
من دو سوال دارم: 1. _کدام رگرسیون را انتخاب کنم و چرا؟_ بر اساس مقدار مجذور R، رگرسیون نمایی مناسب تر به نظر می رسد. اما من واقعاً مطمئن نیستم که آیا باید فقط با آن همراه شوم زیرا مقدار مربع R بالاتری دارد؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2XIPi.png) 2. _چگونه اعتبار آن را تایید کنم؟_ فرض کنید که تصمیم گرفتم با رگرسیون خطی (علیرغم مقدار مجذور R کوچکتر آن) اقدام کنم. .) تنها فرآیندی که من دنبال می کنم محاسبه دستی باقیمانده ها و تنظیم یک هیستوگرام برای بررسی اینکه آیا آنها به طور معمول توزیع شده اند یا خیر. و ظاهراً در این مورد مشکلی ندارند. با این حال، نگرانی من این است که برخی از مقادیر (مقادیر دایره ای قرمز) به نظر نمی رسد به خوبی مطابقت داشته باشند زیرا خطای آنها بسیار زیاد است. اما هنوز، من گمان می کنم که آنها ارزش مربع R را تضعیف نمی کنند، زیرا متقارن با یکدیگر هستند. بنابراین احتمالاً یک سوگیری اضافه خواهد کرد؟ بنابراین بهترین راه برای اعتبارسنجی انتخاب رگرسیون من در برابر چنین مواردی چیست (علاوه بر ارزش مربع R بالا و بررسی نرمال بودن). و آیا سوگیری های دیگری وجود دارد که باید به دنبال آنها باشم؟
انتخاب رگرسیون مناسب و اعتبارسنجی آن
82278
آیا می‌توانید لطفاً به من بگویید که از کدام تابع/کتابخانه R (نه لزوماً R) برای رسم نتیجه آزمایش Nemenyi با تفاوت‌های مهم استفاده کنم؟ در زیر نمونه ای وجود دارد که از این مقاله بازیابی شده است (صفحه 9). ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/SPp8E.png) ***مرجع**: BROWN، I. مقایسه تجربی تکنیک های طبقه بندی برای مجموعه داده های امتیازدهی اعتبار نامتعادل با استفاده از SAS® Enterprise Miner™. انجمن جهانی SAS 2012. مقاله 129-2012. دانشگاه ساوتهمپتون، ساوتهمپتون، انگلستان.
نتیجه طرح آزمایش نمنی
104328
من مجموعه داده ای از 400 موضوع دارم. برای هر موضوع، من حدود 18 متغیر دارم (V1...V18)، که همه آنها پیوسته و در یک نقطه زمانی اندازه گیری شده اند. مقاله ای که من روی آن کار می کنم از نشان دادن اینکه یکی از آن متغیرها (مثلاً V1) با یکی از سه متغیر دیگر (مثلا V2، V3 یا V4) همبستگی قابل توجهی دارد سود می برد - همه اینها جنبه های مختلف یکسان را می سنجند. بیماری. و من همبستگی های قابل توجهی بین جفت ها پیدا کرده ام (V1-V2، V1-V3، V1-V4). با این حال، من متغیر دیگری دارم، مثلاً V5، که ارتباط قوی‌تری با همه آنها دارد (V1-V4). وقتی V5 را (به صورت خطی) تصحیح می کنم، همبستگی بین V1–(V2/V3/V4) دیگر قابل توجه نیست. بنابراین در این مرحله، هر منتقدی می‌تواند بگوید که V1 با V5 مرتبط است، V5 با V2/3/4 مرتبط است، و من نمی‌توانم نکته‌ای را که می‌خواهم بیان کنم. با این حال، دلیلی دارم که باور کنم زیرگروه‌های افراد (بیشتر مستعد ابتلا به بیماری)، همبستگی قوی بین V1 و V2-4 نشان می‌دهند که مستقل از V5 است. _آیا راهی برای یافتن این زیرگروه ها وجود دارد؟_ من می خواهم پارتیشن(هایی) را پیدا کنم، A < Vx < B، که در آن ارتباط معنی داری بین V1 و V2/V3/V4 وجود دارد که می توانم نشان دهم مستقل از آن است. V5. از طرف دیگر، اگر راهی برای تعیین کمیت میزان همبستگی بین V1 و V2-4 وجود داشته باشد که به دلیل همبستگی بین V1-V5 و مقدار مستقل است، این نیز راه حل خوبی خواهد بود. من در مورد ANOVA دو طرفه مطالب زیادی خوانده‌ام و به انجام آن بین V1 به عنوان ردیف، V5 به عنوان ستون و یکی از V2-4 به عنوان نتیجه فکر می‌کنم. اما حتی اگر این کار را انجام دهم (که به تلاش قابل توجهی نیاز دارد، زیرا نتوانستم یک پیاده سازی ساده پایتون پیدا کنم)، مطمئن نیستم که آیا این کار من را به سمت اهدافم پیش می برد یا خیر. هر کمکی قابل تقدیر است.
یافتن زیرمجموعه ای از داده ها که در آن دو متغیر مستقل هستند
51237
چگونه است که کاهش تعداد فراوانی، $n$ به $1$ در فرمول for برای جمعیت و واریانس نمونه، تفاوت استفاده از نمونه را به جای جمعیت به حساب می آورد. منظورم این است که چگونه تقسیم کل عبارت بر $n-1$ در واریانس نمونه بهتر از تقسیم بر $n$ است؟ من به فرمول $$s^2=\frac{\sum_{i=1}^{n}({x_i- x_{avg}})^2}{n-1}$$ دقیق تر از $ اشاره می کنم $s^2=\frac{\sum_{i=1}^{n}({x_i- x_{avg}})^2}{n}$$ متشکرم.
واریانس جمعیت و واریانس نمونه
107564
من در حال برنامه ریزی برای اجرای همان تست های معیار (یعنی توان عملیاتی، زمان پاسخگویی،...) در 3 محیط هستم: 1) یک دستگاه تلفن همراه، 2) یک ماشین مجازی در VirtualBox، 3) یک ماشین مجازی در Amazon EC2. بهترین راه برای تعریف فرضیه، صفر یا جایگزین در هنگام در نظر گرفتن تفاوت‌ها یا روابط معنی‌دار بین میانگین‌های به‌دست‌آمده از آزمایش‌ها چه می‌تواند باشد؟ هر توصیه ای پذیرفته می شود
چگونه می توانم یک فرضیه قابل آزمایش برای مقایسه نتایج محک برای آزمایش های مشابه اجرا شده در 3 محیط ایجاد کنم؟
92919
امیدوارم در تاپیک درست پست کنم من نمونه ای از ژن ها را دارم که در آن تعدادی ویژگی را در ابتدای هر ژن و تعدادی ویژگی را در انتهای هر ژن محاسبه می کنم. من نتایج را در 2 منحنی رسم کردم، یکی تعداد ویژگی‌های ابتدای هر ژن و دیگری تعداد ویژگی‌های انتهای هر ژن با توجه به موقعیت ژن. اکنون می‌خواهم بدانم آیا نتایجی که به دست آوردم قابل توجه هستند، زیرا می‌دانم که ۲ منحنی از یک جمعیت ژن‌ها می‌آیند (تفاوت این است که تعداد ویژگی‌ها در یک مکان ژن‌ها محاسبه نمی‌شود). بهترین آزمون آماری برای اینکه ببینم آیا نتایج من قابل توجه است چیست؟ پیشاپیش ممنون PS: من این را در مورد خطاهای استاندارد پیدا کردم. آیا فکر می کنید در مورد من، من فقط می توانم از خطاهای استاندارد استفاده کنم و اگر بین 2 منحنی همپوشانی نداشته باشند، می توانم بگویم داده های من قابل توجه هستند؟ http://www.biochemia-medica.com/content/standard- error-meaning-and-interpretation ویرایش: کاری که می خواهم انجام دهم این است که نشان دهم آن منحنی ها را تصادفی به دست نیاوردم. محور y تعداد ویژگی ها و محور x نشان دهنده موقعیت در ژن است. من از همان نمونه ژن ها برای 2 اندازه گیری در 2 منحنی مختلف استفاده کردم. آیا آزمایشی وجود دارد که بتوانم نشان دهم که نتایج من خوب است؟ و در اینجا منحنی های مربوط به نتایج من با خطاهای استاندارد برای هر یک از آنها: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/9QCdI.png)
بهترین آزمون آماری برای نشان دادن اهمیت دو داده از یک جامعه؟
105589
من با R جدید هستم. از بسته plm برای اجرای OLS و جلوه ثابت استفاده می کنم. مجموعه داده های من دارای 130 کشور در طول 33 سال با مقادیر زیادی از دست رفته است. مدل من 9 متغیر مستقل دارد. وقتی مدل‌هایم را اجرا می‌کنم، موارد زیر را دریافت می‌کنم: پانل نامتعادل: n=34، T=1-6، N=61 آیا کسی می‌تواند این را توضیح دهد؟ آیا به این معنی است که 61 کشور برای تمام 33 سال مشاهداتی از 9 متغیر مستقل دارند؟ من همان سوال را در اینجا دیدم: تفسیر خروجی plm در R - تعداد مشاهدات استفاده شده با پانل بسیار نامتعادل لطفاً اگر می توانید راهنمایی کنید. با تشکر
تعداد مشاهدات در بسته plm، n، T، N
105055
من یک مجموعه داده اندازه گیری مکرر دارم که هر موضوع ($N = 32$) با دو تکرار از دو کار در دو سطح اندازه گیری می شود. مقادیر من از ضریب همبستگی $r$ عبارتند از: تکرار اول در مقابل تکرار دوم: 0.6847 سطح 1 در مقابل سطح 2: 0.6930 وظیفه A در مقابل وظیفه B: 0.4081 فرض این است که اولین و دومین تکرار یک کار در یک سطح خاص باید باشد. اندازه گیری های پر سر و صدا از همان چیز. فکر می‌کنم چیزی که می‌خواهم بدانم این است که آیا وظیفه A و کار B چیزهای متفاوتی را اندازه‌گیری می‌کنند و آیا یک کار در سطح 1 همان چیزی است که یک کار در سطح 2 اندازه‌گیری می‌کند. همبستگی با همبستگی وظیفه/سطح متفاوت است. فکر می کنم اولین سوال من این است که آیا این درست است؟ سوال دوم من این است که چگونه ضرایب همبستگی را با طرح اندازه گیری مکرر مقایسه کنم؟
مقایسه همبستگی های وابسته
99029
برای تست تفاوت نظرسنجی ماهانه از کدام تست استفاده کنم؟ اگر بخواهم بدانم نتیجه نظرسنجی ماه آوریل با مارس تفاوت معنی داری دارد، آیا باید از آزمون t مستقل استفاده کنم یا از تست زوجی؟ اگر از آزمون t مستقل استفاده کنم، به نظر می رسد که به جای تغییر در طول زمان، دو گروه از افراد را با هم مقایسه می کنم، اما نمونه ها بین دو نقطه زمانی کاملاً متفاوت هستند. بنابراین، من مطمئن نیستم که از کدام استفاده کنم. Thx!!
نظرسنجی، آزمون تی یا تست زوجی یا موارد دیگر
61147
من روی برخی از داده ها با همکاری یک آمارگیر کار کرده ام. از آنجایی که داده ها به طور معمول توزیع نمی شدند، یک تبدیل ورود به سیستم انجام شد. با این حال، برای من توضیح داده شد که به دلیل این تغییر، نمی‌توانیم اندازه اثر یافته‌های خود را در واحدهای اصلی گزارش کنیم. بنابراین ما به استفاده از درصد متوسل شدیم. من باید دلیل این امر را به زبان ساده برای همکاران (که در زمینه بالینی هستند، نه آماردان) توضیح دهم. آیا کسی پیشنهادی برای انجام این کار دارد؟
اندازه های اثر داده تبدیل شده
107569
فرمول followgin معمولا برای مقایسه دو همبستگی Pearson $r$ استفاده می شود: ! برای مقایسه همبستگی های $\rho$ اسپیرمن و $V$ کرامر استفاده می شود؟
آیا می توان از فرمول توسعه یافته توسط اولکین و سیوتانی (1964) برای مقایسه همبستگی های $\rho$ اسپیرمن و $V$ کرامر استفاده کرد.
107567
من $\boldsymbol{A} = \boldsymbol{G}^H \boldsymbol{G}$ یک ماتریس Wishart است، یعنی $\boldsymbol{G}^H \boldsymbol{G} \sim \mathcal{W}_K (M، \boldsymbol{\Lambda})$ با $\boldsymbol{\Lambda} = \mathrm{diag} (\rho_1، \cdots، \rho_K)$. ($\boldsymbol{G}$ ماتریس $M \times K$ است). ما می دانیم که $\boldsymbol{B} = (\boldsymbol{G}^H \boldsymbol{G})^{-1}$ یک ماتریس Wishart معکوس است. بنابراین چگونه می توانیم انتظار $\boldsymbol{B}$، یعنی $\mathbb{E} \\{\boldsymbol{B}\\}$ را محاسبه کنیم؟ با تشکر
محاسبه انتظار ماتریس Wishart معکوس
105587
من باید برای یک مشکل طبقه بندی با ویژگی های عددی مقداری ویژگی را انتخاب کنم. من مطمئن نیستم که از کدام روش انتخاب ویژگی استفاده کنم. آزمون Chisquared یا ضریب همبستگی رتبه Spearmann که کدام یک بهترین خواهد بود. بچه ها پیشنهادی دارید؟
کدام روش انتخاب ویژگی برای مشکل طبقه بندی استفاده شود
101505
من 2 متغیر کاملاً وابسته (هر دو دو جمله ای) در رگرسیون لجستیک دارم که هر دو به صورت جداگانه تخمین های مثبتی را در برابر پاسخ (دوجمله ای) ارائه می دهند. اما اگر با هم مدل شوند، یکی مثبت و دیگری منفی می دهد. من چند خطی را با استفاده از VIF بررسی کردم که خوب به نظر می رسد. دلیل احتمالی چنین رفتاری چه می تواند باشد.
رگرسیون لجستیک درک ماهیت متغیر
61143
فرض کنید ما در حال ساختن یک سیستم با ویژگی های خاصی هستیم که به آن علاقه مندیم، به عنوان مثال. زمان پاسخگویی، مصرف باتری و غیره. هر یک از کیفیت های سیستم به تصمیم ما در مورد اجزایی که برای ساختن سیستم استفاده می کنیم بستگی دارد. ما فقط می دانیم که **تصمیمات** چگونه روی **کیفیت*های سیستم ما با عدم قطعیت تأثیر می گذارد، به عنوان مثال. تصمیم به استفاده از ماژول GPS به احتمال زیاد 10 میکروژول اضافی به مصرف باتری ما اضافه می کند، اما می تواند چیزی بین 9 تا 14 میکروژول اضافه کند. آیا مدل‌سازی این عدم قطعیت با استفاده از توزیع‌های احتمال رایج است؟ آیا توزیع بتا در اینجا انتخاب خوبی است؟ یا توزیع مثلثی یا یکنواخت در این مورد معقول تر است؟ در صورت توزیع بتا، چگونه می توانم پارامترهای α و β را تنها با دانستن محتمل ترین و محدودکننده ترین تخمین ها به کار ببرم؟ توجه: دانش من در آمار نسبتاً محدود است.
مدلسازی عدم قطعیت با توزیع احتمال
9068
من در محاسبه ضریب همبستگی پیرسون مجموعه داده‌ها با انحراف معیار احتمالاً صفر مشکل دارم (یعنی همه داده‌ها مقدار یکسانی دارند). فرض کنید من دو مجموعه داده زیر را دارم: float x[] = {2, 2, 2, 3, 2}; شناور y[] = {2، 2، 2، 2، 2}; ضریب همبستگی r با استفاده از معادله زیر محاسبه می شود: float r = کوواریانس (x, y) / (std_dev(x) * std_dev(y)); با این حال، از آنجایی که تمام داده‌های مجموعه داده y دارای یک مقدار هستند، انحراف استاندارد std_dev(y) صفر و r تعریف نشده خواهد بود. آیا راه حلی برای این مشکل وجود دارد؟ یا باید از روش های دیگری برای اندازه گیری رابطه داده ها در این مورد استفاده کنم؟
همبستگی پیرسون مجموعه داده ها با احتمالاً انحراف معیار صفر؟
104326
من یک ANCOVA را اجرا کردم که ثابت کرد متغیر کمکی قابل توجه است. اگر درست متوجه شده باشم، میانگین‌های حاشیه‌ای تخمینی نشان می‌دهند که وقتی متغیر کمکی را محاسبه می‌کنیم، میانگین DV چیست. سپس می‌توانیم آنها را با میانگین‌های آمار توصیفی مقایسه کنیم و ببینیم که تحت تأثیر این متغیر کمکی چه تفاوتی دارند. در مورد من، متغیر کمکی تعهد به برند و DV احتمال خرید است. بنابراین چیزی که به دست می‌آورم این است که - وقتی ارزش زیادی برای تعهد به برند داشته باشم، میانگین احتمال خرید برای همه شرایط آزمایشی من افزایش می‌یابد و بالعکس وقتی که تعهدم پایین است. اگر کسی بتواند تأیید کند که مشاهدات من درست است، از آن تشکر می کنم. همچنین، آیا روش خاصی برای گزارش این یعنی «آکادمیک‌تر» به نظر رسیدن وجود دارد؟ و آیا نکته مهم دیگری برای تفسیر از نتایج ANCOVA، به جز مقادیر f، تخمین پارامترها وجود دارد؟ با تشکر
برآورد میانگین ها و میانگین های حاشیه ای از آمار توصیفی - تفسیر در ANCOVA؟
82270
من مدل خطی زیر را در R اجرا می‌کنم: lm(فرمول = NA. ~ PC + I(1/SPCI)، داده = DSET) مقدار p برای هر پیش‌بینی‌کننده قابل‌توجه است، و نسبت به اکثر موارد نسبتاً خوب عمل می‌کند. مفروضات در رگرسیون خطی، مانند: * توزیع نرمال خطاها. * همبستگی بالا بین مقادیر پیش بینی شده و مقادیر تخمینی. * همسانی. * عدم تطابق بین پیش بینی کننده ها: PC و (1/SPCI) اصلاً همبستگی ندارند! اما، با کنکاش بیشتر در موضوع، یک فرضیه وجود دارد که در مدل من شکست می خورد و می گوید: > خطی بودن رابطه بین متغیرهای وابسته و مستقل. این نوع با فرض غیر هم خطی در تضاد است زیرا، اگر NA. و PC همبستگی بالایی دارند و NA. و (1/SPCI) نیز هستند، سپس PC و (1/SPCI) همبستگی دارند و این فرض عدم هم خطی بودن را نقض می‌کند. من فکر می کنم که من این فرض را اشتباه متوجه شده ام، یا توضیحی برای این وجود دارد.
خطی بودن بین پیش بینی کننده ها و متغیر وابسته در یک مدل خطی
49356
فرض کنید من علاقه مند به انتخاب یک کشور جدید $c_1, \ldots, c_k$ برای زندگی هستم. من برای هر کشور مجموعه ای از 2000 مشاهده (نفر) را می شناسم که هر کدام شامل 20 ویژگی است و برای هر کشور می دانم که آیا پذیرفته شده اند یا رد شده اند. (من همچنین مقادیر خود را برای هر یک از آن ویژگی ها می دانم.) دو سؤال من این است: 1) مطمئن نیستم که توزیع احتمال پذیرش/رد به طور مستقل برای هر کشور را تخمین بزنم یا خیر. انگیزه ترکیب مشاهدات (یا بخش‌هایی از آن) کشورهای مختلف ممکن است این باشد که کشورها احتمالاً دستورالعمل‌های مشابهی برای رد کردن دارند (مثلاً برای یک محکوم). 2) با توجه به اندازه آموزش (2000) و تعداد ابعاد (20)، آیا یک مدل افتراقی (رگرسیون لجستیک،...) مناسب خواهد بود یا مقدار داده برای یک مدل تولیدی مانند (Naive Bayes) کافی خواهد بود. یا هر رویکرد دیگری ممکن است درست باشد؟ البته من فقط این مثال را ساختم تا سوالم کمتر انتزاعی شود.
درمان دوگانگی های متعدد ترکیبی؟
112182
برای پایان نامه ام پرسشنامه ای ارسال کردم که 10 سوال دارد. من پیش‌فرض‌ها را تنظیم کردم: هفت سؤال اول به طور پیش‌فرض روی پاسخ دلخواه و سه سؤال آخر به طور پیش‌فرض روی پاسخ نامطلوب تنظیم شده بود. من می خواهم اندازه گیری کنم که آیا افراد با استفاده از SPSS از پیش فرض پیروی می کنند یا خیر. من فکر می کنم باید از آزمون t استفاده کنم، اما این عمدتا برای اندازه گیری تفاوت بین جمعیت ها استفاده می شود، نه بین سؤالات در یک نظرسنجی. آیا کسی ایده ای دارد که چگونه می توانم اگر نمونه من تحت تأثیر پیش فرض قرار گرفت، اندازه گیری کنم؟ نمونه‌ای از چیزی که می‌خواهم آزمایش کنم این است: دو سؤال مشابه هستند اما پیش‌فرض متفاوتی دارند، آیا آنها به آنها یکسان پاسخ می‌دهند یا از پیش‌فرض پیروی می‌کنند.
تفاوت در پاسخ ها را در نظرسنجی بسته به گزینه های پاسخ مورد اندازه گیری کنید
9064
من کمی در مورد ترفند هسته برای ماشین‌های بردار پشتیبان شنیده‌ام، و می‌پرسیدم: 1. چگونه مشکلاتی را شناسایی می‌کنید که ممکن است از ترفند هسته سود ببرند؟ 2. چگونه آن را در R پیاده سازی کنیم؟ متشکرم
پیاده سازی «ترفند هسته» برای یک ماشین بردار پشتیبان در R
22846
یکی از اهداف یک نظرسنجی می تواند درک نسبت کاربران مرد به زن باشد. تا حدی که یک جنسیت خاص با موارد استفاده خاص از یک فناوری مرتبط باشد، طراحی محصول، اولویت‌بندی محصول/ویژگی و بازاریابی می‌تواند متفاوت مدیریت شود. نظرسنجی از کاربران موجود ذاتاً دارای نوارهای خطا بر اساس حجم نمونه، فراوانی نمونه گیری و غیره است. به عنوان بخشی از یک نظرسنجی جمعیت شناختی که در آن همه زمینه ها مورد نیاز است، یک سوگیری انتخاب اضافی در نظرسنجی معرفی می شود. به طور خاص، اگر نظرسنجی برای 100 کاربر ارسال شود که 50 نفر از آنها پاسخ می‌دهند، نسبت پاسخ‌دهندگان مرد ممکن است نشان دهنده نسبت 100 مشتری نباشد که در ابتدا مورد بررسی قرار گرفته‌اند. با فرض اینکه مجموعه‌ای از نمونه‌های موجود از مردان و زنان شناخته شده وجود نداشته باشد که به منظور برآورد سوگیری پاسخ‌دهنده نظرسنجی شود، چه رویکردهایی برای جلوگیری یا اصلاح این خطا وجود دارد؟
چگونه می توان از عدم پاسخگویی نظرسنجی جلوگیری کرد و آن را مدیریت کرد؟
2650
روز بخیر، من دارم با مجموعه داده های پانل کار می کنم، از مدل های زیادی استفاده کرده ام، همگن (اثر ثابت، OLهای جمع شده و دریسکول و کرای) ناهمگن (ضرایب تصادفی شناور) و می خواهم برای انتخاب مدل یک تخمین پس از آن انجام دهم. که بهترین تناسب با رگرسیون من است. آیا روش، دستوری وجود دارد که به من اجازه دهد این کار را انجام دهم؟ هر اشاره ای بسیار قدردانی خواهد شد. آما
داده های پانل و مدل های انتخاب مشکل
71874
هنگام مطالعه تحلیل سری زمانی، مثال زیر را خواندم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8FhDZ.png) من نمی دانم چگونه این فرآیند لغو را درک کنم. بله، می توان آن را مانند فرمول جبری معمولی لغو کرد. اما این z به جای اینکه فقط یک متغیر باشد یک عملگر است. چگونه می توانیم عامل مشترک را مانند آنچه در جبر انجام می دهیم لغو کنیم؟
عملیات لغو در تحلیل سری زمانی
20992
من سعی می کنم بفهمم که چگونه یک رگرسیون لجستیک داده ها را با یک متغیر وابسته 0/1 مدیریت می کند. 95 درصد داده ها یکی هستند. هدف مدل تخمین احتمال قرار گرفتن در یکی از گروه ها می باشد. البته متغیرهای توضیحی متعددی در آن گنجانده شده است. برازش مدل منجر به نتایج نامناسبی می‌شود، زیرا مدل تقریباً برای هر مشاهداتی پیش‌بینی می‌کند که در رده=1 قرار دارد. من وزنه های بسیار ساده ای را امتحان کردم که قبلاً مدل را بهبود بخشید. من به سادگی نسبت را تغییر دادم و فرآیند اتصال را با وزن های مختلف دوباره اجرا کردم. وزن ها نسبت را در متغیر وابسته تغییر دادند (من هیچ فرضی در مورد متغیرهای توضیحی ندارم، بنابراین هر مشاهده در دسته=1 وزن یکسانی دارد) به 50:50، 60:40، 70:30 و 80:20. با اعتماد به برخی معیارهای اعتبارسنجی مانند AIC، شبه R2 های مختلف و جدول طبقه بندی، مدلی با وزن 50:50 بهترین است. (محاسبات این معیارها بیشتر بر اساس احتمال ورود به سیستم مدل مربوطه است. بنابراین بر اساس نمونه های وزنی خواهد بود.) این معیارها احتمالاً کار نمی کنند و شاید برای یافتن روش وزن دهی بهینه نامناسب باشند. ادبیات من به نوعی این نکته را نادیده می گیرد، اگرچه فکر نمی کنم که گروه های بسیار نابرابر در متغیر وابسته وضعیت غیر معمولی باشند. از یکی از همکارانم شنیدم که برای یافتن وزن های بهینه باید از منحنی ROC استفاده کنم. آیا کسی می تواند به یک راه حل سنگ معدن کتاب برای این مشکل مراجعه کند؟ یا می تواند راهنمایی کند که چگونه آن را اداره کند؟ پیشاپیش متشکرم
چگونه می توان رگرسیون لجستیک را با گروه های نابرابر در متغیر وابسته انجام داد؟
9062
من یک جدول احتمالی 2x3 دارم - متغیر ردیف یک عامل است، متغیر ستون یک عامل مرتب شده است (سطح ترتیبی). من می خواهم از تکنیک تداعی متقارن یا نامتقارن استفاده کنم. چه کاری را به من توصیه می کنید؟ کدام تکنیک را مناسب ترین می دانید؟
اندازه گیری ارتباط برای جدول احتمالی 2x3
64546
من اخیراً داده ها را با استفاده از روش هموارسازی سه گانه H-W پیش بینی کردم که فصلی و روند را در نظر می گیرد. داده هایی که من استفاده کردم داده های هفتگی بود که تعداد تماس های تلفنی دریافتی یک رستوران را نشان می داد. می خواستم حداقل 10 هفته آینده را پیش بینی کنم (با استفاده از داده های 45 هفته). این کد من بود: orders_hw <- HoltWinters(calls) library(forecast) orders_hw_forecast <- forecast.HoltWinters(orders_hw, h = 70) #70 = 70 روز یا 10 هفته نمودار. پیش بینی (orders_hw_forecast) داده هایی که استفاده کردم به شرح زیر است (تماس می گیرد): ساختار <- (c(568, 485 360 523 514 370 332 758 580 613 544 568 394 389 841 685 719 647 615 615 647 594, 551, 354, 317, 731, 721, 819, 662, 581, 436, 394, 779, 770, 793, 763, 619, 412, 427, 85,785,000 429 424 935 805 915 780 685 430 404 797 733 766 747 697 446 334 598 868 894 950 806 826 804 730 541 439 1070 770 989 863 737 525 461 982 925 906 877 921 1010, 786, 787, 499, 410, 1041, 863, 989, 833, 783, 506, 496, 1057, 1031, 983, 897, 783, 492, 497, 783, 492, 24 808, 655, 358, 356, 740, 581, 771, 722, 628, 417, 442, 895, 791, 854, 779, 767, 513, 415, 916,194 561, 552, 988, 982, 857, 289, 515, 337, 403, 895, 879, 702, 778, 721, 515, 572, 912, 873, 875,892,78 1047, 933, 965, 931, 795, 628, 421, 444, 361, 788, 680, 619, 464, 451, 861, 851, 801, 780, 444, 361, 788, 451, 861, 851, 801, 780, 780, 671, 672 1022 905 758 574 516 1045 1107 1177 1068 1044 640 718 755 772 798 817 779 5313 992, 748, 527, 475, 935, 853, 983, 985, 880, 548, 631, 996, 1041, 1184, 1015, 905, 641, 547, 125, 641, 547, 125 1046, 662, 711, 1216, 1370, 1404, 1233, 1464, 973, 587, 980, 1202, 997, 1022, 876, 552, 549, 539, 10 962, 682, 685, 1311, 1289, 1220, 1227, 1105, 758, 667, 1258, 1511, 1509, 1462, 1185, 834, 1227, 1105, 1109 883, 555, 502, 1055, 979, 1048, 938, 825, 519, 351, 574, 983, 989, 1116, 927, 707, 588, 1121, 1010 600, 528, 1052, 1019, 1036, 1154, 1043, 740, 570, 1042, 990, 1149, 1063, 895, 579, 503, 1103, 1103, 1042, 1042 632, 602)، .Tsp = c(1, 7.9777777777778, 45), class = ts) آنچه من از این داده ها متوجه شدم این بود (پس از انجام یک آزمون p برای باقیمانده ها)، مقدار p من '2.2e بود. -16` (`acf(orders_hw_forecast$residuals, lag.max=20)`). بنابراین، من فکر می کنم ممکن است روش بهتری برای پیش بینی داده های بالا (برای تماس) وجود داشته باشد. من مطمئن نیستم که چه نوع تغییراتی می توانم ایجاد کنم تا نتایج دقیق تری داشته باشم.
بهبود روش هموارسازی نمایی سه گانه H-W در R
107563
آیا pdf و pmf و cdf اطلاعات یکسانی دارند؟ برای من pdf کل احتمال را به یک نقطه خاص می دهد (در اصل منطقه زیر احتمال). pmf احتمال یک نقطه خاص را می دهد. سی دی اف احتمال را در یک نقطه مشخص می دهد. بنابراین برای من pdf و cdf اطلاعات یکسانی دارند، اما pmf این اطلاعات را ندارد زیرا احتمال یک نقطه x را در توزیع می دهد.
آیا pdf و pmf و cdf اطلاعات یکسانی دارند؟
58244
من یک مجموعه داده شامل دو گروه با 1 متغیر کمکی پیوسته (مقیاس نسبت) دارم. متغیر وابسته یک متغیر count است. توزیع متغیر وابسته به این صورت است: ![Distribution of my variable of my interest by group](http://i.stack.imgur.com/E768z.png) من فکر می کردم که مدل مناسبی برای تجزیه و تحلیل این مجموعه داده چیست؟ باشد. من سم، دوجمله ای و دوجمله ای منفی را امتحان کردم. برای دوجمله ای منفی، Log Likelihood نزدیک ترین به صفر (یا اگر بخواهید بزرگترین) بود. بنابراین، من فرض می‌کنم مدل دوجمله‌ای منفی برای داده‌های من بهترین است (لطفاً اگر استدلال من اشتباه است، من را اصلاح کنید). **آیا باید مدلی را امتحان کنم که دارای تورم صفر باشد؟**
آیا تورم صفر را در مدل متغیر باینری بر روی متغیر شمارش وارد کنیم؟
105588
پایان نامه روانشناسی من یک تحلیل خوشه ای با یک متغیر گروه بندی خواهد بود. چگونه بفهمم به چند شرکت کننده نیاز دارم؟ من تصور می کنم نباید بیش از 5 خوشه وجود داشته باشد. 79 مورد، 9 ویژگی را تشکیل می دهند که شرکت کنندگان بر روی آنها خوشه بندی می شوند. من متوجه شدم که تجزیه و تحلیل توان بحث برانگیز است زیرا تجزیه و تحلیل خوشه ای استنتاجی نیست. من دیده ام که برای تحلیل عاملی 10 در هر آیتم است، اما به نظر نمی رسد دستورالعملی برای تحلیل خوشه ای پیدا کنم. با تشکر از هر کمک یا بینشی که می توانید ارائه دهید.
حجم نمونه تجزیه و تحلیل خوشه ای برای پیشنهاد دیس
22843
بیایید بگوییم که تجزیه و تحلیل PCA من 2 مولفه را استخراج کرد که 80٪ از واریانس را قبل از چرخش توضیح می دهد. سپس مؤلفه ها با استفاده از چرخش مایل (Oblimin مستقیم) چرخانده شدند، بنابراین SPSS نمی تواند محاسبه کند که هر مؤلفه چقدر درصد واریانس را توضیح می دهد. وقتی نمودار را رسم می کنم، معمولاً ویرایشگرها این درصدها را در پرانتز بعد از مؤلفه ها می خواهند. بنابراین من می خواهم درصد نسبی واریانس را برای هر جزء محاسبه کنم. بنابراین اگر داده‌ها قبل از چرخش به این شکل به نظر می‌رسند: PC1 60% واریانس را به خود اختصاص می‌دهد، مقدار ویژه 6.000. PC2 20% واریانس را تشکیل می دهد، مقدار ویژه 2000; کل - 80% واریانس، مقدار ویژه 8000; پس از چرخش: PC1: مقدار ویژه 5000; PC2: مقدار ویژه 4000; * * * آیا می توانم این درصدها را از این طریق محاسبه کنم؟ من انتظار دارم که پس از چرخش، واریانس کل توضیح داده شده توسط هر دو مؤلفه تغییر نکند، بنابراین باید 80٪ باشد. درست میگم؟ در راه حل چرخان نشده، می توانید واریانس توضیح داده شده توسط مؤلفه 2 را به این ترتیب محاسبه کنید: مقدار ویژه مؤلفه 2 / مقدار ویژه کل * درصد کل توضیح داده شده = 2/8 * 80٪ = 20٪ ما همچنین می توانیم محاسبه کنیم که 1000 مقدار ویژه = 10 درصد واریانس می تواند من از این معادله (1000 مقدار ویژه = 10%) برای محاسبه واریانس توضیح داده شده توسط هر مؤلفه بعد از چرخش، بنابراین واریانس توضیح داده شده توسط PC1 پس از چرخش باید 50% باشد (مقدار ویژه = 5 پس 50%) و واریانس توضیح داده شده توسط PC2 پس از چرخش باید 40% باشد (مقدار ویژه = 4 تا 40%)؟ البته در این مورد ما نمی‌توانیم واریانس کل را با PC1+PC2 محاسبه کنیم زیرا مؤلفه‌ها همبسته هستند و واریانس کل باید هنوز 80٪ باشد (شاید). من فکر نمی کنم که آنقدر آسان باشد، زیرا SPSS این اعداد را به من می دهد. بنابراین آیا می توانم به نحوی محاسبه کنم (از داده های بالای خط) چند درصد از واریانس توسط PC1 بعد از چرخش مایل توضیح داده می شود؟ با تشکر
آیا می توانم به نحوی واریانس توضیح داده شده توسط PC را پس از چرخش مورب در PCA محاسبه کنم؟
49350
من داده های طبقه بندی شده ای در مورد مقوله های ایستگاه های پلیس علیه جرم و جنایت در جدول احتمالی دو طرفه دارم. من یک نقشه ردیف و ستون نامتقارن از تجزیه و تحلیل مکاتبات با استفاده از XLSTAT دارم. کدام یک از دو نقشه باید برای تفسیر نتایج استفاده شود؟
نحوه انتخاب دو پلات نامتقارن در تحلیل مکاتبات
64466
آیا کسی می تواند به من بگوید چگونه می توانم یک مجموعه داده را برای مقایسه مدل لاجیت و پروبیت شبیه سازی کنم؟ اگر من یک داده از یک توزیع عادی چند متغیره استاندارد را با توجه به 5 متغیر شبیه سازی کنم ، می توانم از یکی از آنها به عنوان متغیر پنهان مداوم استفاده کنم (که برای آن کواریانس غیر صفر را در ماتریس کواریانس می دانم)؟ اگر بتوانم، پس نقطه برش (متغیر پنهان $y^{*}$) برای در نظر گرفتن $Y=1$ و $Y=0$ چه باید باشد. و من به مرجعی نیاز دارم که در آن این آثار کوتاه انجام شود.
چگونه می توانم داده ها را برای مقایسه مدل لاجیت و پروبیت شبیه سازی کنم؟
113589
من تعجب می کنم که اگر من مدیران را در مدل خود قرار ندهم چه تأثیری دارد؟ آیا این با یک سوگیری متغیر حذف شده یکسان است یا متفاوت است؟ برای درک مفهومی این موضوع مشکل دارم. اطلاعات بیشتر: من یک تجزیه و تحلیل GEE برای یک نتیجه باینری برای یک نشریه انجام دادم. متغیرهای مستقل گروه مورد مطالعه و چند متغیر جمعیت شناختی به همراه چند ویژگی دیگر شرکت کنندگان بودند. CI نسبت‌های شانس بسیار وسیع بود، اما فکر می‌کنم به دلیل حجم نمونه کوچک است. یک بازبین نشان داد که باید ناظران را در مدل بگنجانیم تا تغییرپذیری برآوردها را کاهش دهیم. من هرگز در مورد این چیزی نشنیده بودم، بنابراین فکر می کردم که آیا این درست است یا خیر.
حذف ناظم
107562
من سعی می کنم یک نمودار کنترل چند متغیره بسازم اما هیچ توضیح خوبی در مورد نحوه انجام این کار پیدا نکردم. با شروع با $x_0$ بخشی از نمونه هایی که در کنترل هستند، $\mu_0$ و $\Sigma_0$ میانگین و ماتریس کوواریانس را محاسبه می کنم. اکنون با داده‌های جدید $x_n$، $d= (\bar{x}_n-\mu_0)\Sigma^{-1}(\bar{x}_n-\mu_0)$ را محاسبه می‌کنم. بعد از این مرحله واقعاً نمی دانم چگونه جلوتر بروم. بهترین پاسخ یک توضیح تئوری و یک کد R یا پایتون خواهد بود.
نمودار کنترل چند متغیره
95170
من یک مدل رگرسیونی دارم که هیچ متغیر زمانی ندارد و ترتیب متغیرها و مقادیر آنها هنگام انجام رگرسیون مهم نیست. آیا آزمون های خودهمبستگی مانند دوربین-واتسون هنوز برای این نوع داده ها قابل اجرا هستند؟
تست همبستگی خودکار روی داده های غیر سری زمانی
1241
چه زمانی تمایل دارید از منحنی‌های ROC نسبت به برخی تست‌های دیگر برای تعیین توانایی پیش‌بینی برخی از اندازه‌گیری‌ها در یک نتیجه استفاده کنید؟ هنگام برخورد با نتایج گسسته (زنده/مرده، حال/غایب)، چه چیزی منحنی های ROC را بیشتر یا کمتر از چیزی مانند مربع کای قدرتمند می کند؟
منحنی های ROC چه چیزی را به شما می گویند که استنتاج سنتی نمی تواند؟
33200
من یک مجموعه داده با یک سوال واضح دارم که می‌خواهم به آن پاسخ دهم، اما مطمئن نیستم که بهترین رویکرد آماری برای پاسخ به سوالم چیست. در اینجا نمونه‌ای وجود دارد که با ساختار داده‌های من مطابقت دارد: فرض کنید ما گروهی متشکل از 200 پزشک داریم که برای آنها 10 معیار کیفیت قابل مقایسه را اندازه‌گیری می‌کنیم (مثلاً پایبندی به دستورالعمل‌ها)، واحد اندازه‌گیری درصد پایبندی به معیار است. سوالی که می‌خواهم بپرسم این است که آیا پزشکان تمایل دارند به طور مداوم به همه معیارها پایبند باشند یا نه، یا اینکه آیا پزشکان پایبندی نابرابر دارند و تمایل دارند در برخی از معیارها عملکرد خوبی داشته باشند، اما سایر اقدامات را ندارند. در حالت ایده‌آل، آزمون یا روشی که من استفاده می‌کنم می‌تواند اطلاعات معناداری را برای هر فرد به من بدهد. من فکر می‌کنم که 10 معیار کیفی مجزا را می‌توان به‌عنوان یک «معیار تکراری» مفهوم‌سازی کرد، زیرا از نظر بالینی بسیار مشابه هستند و من به جز برخی از همبستگی‌های درون موضوعی. من ANOVA اندازه گیری های مکرر را برای آزمایش فرضیه صفر که تفاوت معنی داری بین معیارهای کیفیت وجود ندارد، بررسی کردم. اما نگران این هستم که بیش از حد حساس باشد و تقریباً مطمئناً فرضیه صفر را رد می‌کند و چیز زیادی یاد نخواهم گرفت، به خصوص در سطح پزشک فردی. من می‌خواهم هر پزشک را به یک صدک برای اندازه‌گیری‌ها اختصاص دهم و برخی آزمایش‌های غیر پارامتریک را انجام دهم، اما از عمق خودم خارج می‌شوم و به این فکر می‌کردم که آیا انجمن CrossValidated می‌تواند به من کمک کند تا در جهت درست راهنمایی کنم. پیشنهادات برای بسته های R نیز قدردانی می شود. با تشکر
چگونه می‌توانم «انسجام» درون موضوعی را در مقیاس‌های مکرر آزمایش کنم؟
82277
### پس زمینه من مجموعه داده ای از بیمارانی دارم که در دو بیمارستان مختلف، A و B، عمل شده اند. می‌خواهم بدانم تعداد غدد لنفاوی چقدر تغییر می‌کند که **نه** بر اساس جنسیت، سال عمل یا سن بیمار هنگام عمل در نظر گرفته می‌شود. فرضیه من (فرضیه) این است که هر گونه تنوع اضافی به احتمال زیاد ناشی از آسیب شناس در موسسه است (این در واقع در مطالعه من اندازه گیری نشده است). ### سوال من بهترین راه برای تخمین تنوع در تعداد غدد لنفاوی که بر اساس جنسیت (یک عامل)، سال (یک متغیر پیوسته) یا سن (یک متغیر پیوسته) محاسبه نمی‌شود، چیست؟ ### تلاش اولیه من برای پاسخ به این سوال یک مدل رگرسیون خطی با استفاده از تعداد گره های لنفاوی به عنوان متغیر پاسخ و جنسیت، سال عمل و سن عمل به عنوان پیش بینی کننده ایجاد کردم. من مطمئن نیستم که چگونه نتایج را برای پاسخ به سوال خاص خود تفسیر کنم. آیا باید به مربع R نگاه کنم؟ اگر چنین است، آیا راهی برای گرفتن فاصله اطمینان برای آن وجود دارد؟ با تشکر از هر کسی که می تواند کمک کند. اگر فکر می کنید که من این راه را اشتباه انجام می دهم، لطفاً به من اطلاع دهید. تماس: lm(فرمول = LN_بازبینی شده ~ جنسیت + عملیات__سال + عملیات__سن، داده = نمونه_داده) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -49.436 -15.280 -0.495 13.450 61.564 ضرایب: برآورد. خطای t مقدار Pr(>|t|) (Intercept) -1.190e+04 1.459e+03 -8.159 9.95e-14 *** جنسیتMALE -5.542e+00 4.685e+00 -1.183 0.239 عملیات_8_e+2900. e-01 8.196 8.01e-14 *** Operation__age -2.524e-01 1.675e-01 -1.507 0.134 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 22.46 در 158 درجه آزادی چندگانه R-squared: 0.2999، R-squad تنظیم شده: 0.28 F آمار: 22.56 در 3 و 158 DF، p-value: 3.268e-12
تخمین تغییرپذیری در یک متغیر پاسخ که توسط پیش بینی کننده های اندازه گیری شده با استفاده از رگرسیون خطی و R محاسبه نشده است.
9067
من در کلاس داده کاوی شرکت می کنم و روی یک پروژه ترمی با استفاده از مجموعه داده BRFSS کار می کنم. من یک مجموعه داده عظیم با 405 ستون و 12000 ردیف دارم. ستون های زیادی وجود دارد که کاملا خالی هستند. من سعی کردم ستون های خالی را با استفاده از SAS، R یا Excel حذف کنم اما کار نمی کند. آیا می توانید روشی برای حذف ستون های خالی یا هر آموزشی که به من در پاک کردن داده ها کمک کند پیشنهاد دهید؟ تعداد زیادی سلول از دست رفته نیز وجود دارد. من از KNIME برای آموزش داده های خود استفاده می کنم و در صورت وجود مقادیر از دست رفته کار نمی کند. چگونه می توانم مقادیر از دست رفته را مدیریت کنم؟
حذف ستون های خالی از مجموعه داده
49358
من سعی می کنم تعیین کنم که چگونه می توان واریانس درون گروهی را برای یک اندازه گیری ترکیبی بر اساس مجموعه ای از نسبت ها (وزنی) بدست آورد. من 50 گروه دارم که بر روی 8 اندازه گیری نسبت مقایسه می شوند، که 4 معیار با وزن 1/5 و 4 معیار با وزن 1/20 وزن شده اند. برای هر گروه یک امتیاز ترکیبی وجود دارد که 8 امتیاز ضرب در اوزان و جمع می شود. اکنون برای استفاده در HLM به واریانس امتیاز ترکیبی هر گروه نیاز دارم. گزارش فناوری RAND قابلیت اطمینان از پروفایل ارائه‌دهنده یک نمای کلی (و کد SAS) برای معیارهای دوجمله‌ای جداگانه دارد، اما آموزش برای ارزیابی قابلیت اطمینان کامپوزیت، به‌ویژه با نسبت‌های وزنی، ناگهان مبهم می‌شود. در ص. 31: برای ترکیب وزنی چندین معیار باینری، واریانس نمونه گیری را می توان با ضرب واریانس اندازه گیری های فردی در وزن های مجذور و جمع مولفه ها محاسبه کرد. سؤال اصلی: آیا این بدان معناست که الف) واریانس اندازه گیری فردی (p(1-p))/n) است، زیرا یک نسبت است، و ب) من آن را در وزن مجذور ضرب می کنم، بنابراین ج) وزن شده واریانس برای هر معیار جمع می شود تا مقدار واریانس خطای نهایی برای امتیاز ترکیبی هر گروه ایجاد شود؟ به نظر می رسد این چیزی است که آموزش نشان می دهد. یا برای بدست آوردن مقدار واریانس نهایی باید واریانس جمع شده و وزنی را بر N تقسیم کنید؟ (من آن فرمول را گذرا دیده ام.) یا هیچ کدام مناسب نیستند؟ سوالات مرتبط چگونه واریانس برای این دو موقعیت به دست می آید: 1) اگر کامپوزیت شما یک O/E باشد که E میانگین کلی باشد چه؟ 2) اگر داده های شما پیوسته باشد چه؟
محاسبات واریانس خطا برای تجزیه و تحلیل قابلیت اطمینان یک متریک ترکیبی در HLM
61144
من دانشجوی زیست شناسی هستم. ما بسیاری از آزمایش‌های سنجش ایمونوسوربنت مرتبط با آنزیم (ELISA) و تشخیص برادفورد را انجام می‌دهیم. یک رگرسیون لجستیک 4 پارامتری (مرجع) اغلب برای رگرسیون این داده ها به دنبال این تابع استفاده می شود: $$ F(x) = \left(\frac{A-D}{1+(x/C)^B}\right) + D $$ چگونه می توانم این کار را در `R` انجام دهم؟ من می خواهم مقادیر $A$، $B$، $C$ و $D$ را دریافت کنم و منحنی را رسم کنم. PS. اگر مقداری داده دارم، چگونه می توانم از تابع محاسبه شده $F(x)$ برای بدست آوردن مقدار استفاده کنم؟ منظورم این است که چگونه از data -> F(x) -> value بروم؟
نحوه انجام رگرسیون 4 پارامتری برای داده های ELISA در R
113586
من با بررسی مفروضات یک متغیر پیوسته در مدل خطرات متناسب مشکل دارم. اگر یک متغیر عاملی با سطوح مختلف بود، می‌توانم از آزمون لوگرانک استفاده کنم یا بررسی کنم که آیا تبدیل‌های log(-log) منحنی‌های بقا موازی هستند یا خیر. اما اگر یک متغیر پیوسته باشد چه؟ آیا آن روش هنوز معتبر است؟ آیا تست شوئنفلد راه حلی است؟
چگونه می توان فرض خطرات متناسب را برای یک متغیر پیوسته ارزیابی کرد
105058
من یک نمونه داده عددی با میانگین $\mu$ و انحراف استاندارد $\sigma$ دارم. من معتقدم که این داده دارای توزیع نرمال است که به $[0,1]$ کوتاه شده است. 1. آیا یک فرمول نسبتاً ساده برای تخمین پارامترهای $\mu'، \sigma'$ آن توزیع نرمال کوتاه شده وجود دارد؟ آیا دستور R وجود دارد که این کار را انجام می دهد؟ 2. می‌دانم که می‌توانم $\mu'، \sigma'$ را با اعمال الگوریتم برازش حداکثر احتمال مستقیماً روی داده‌هایم (مثلاً از طریق fitdistr در R) پیدا کنم. 3. آیا درک خوبی وجود دارد که چقدر رویکرد دقیق تر (2) بیش از رویکرد (1) است؟ فرض کنید حجم نمونه از 10 تا 100 است، $\mu=0.75، $ $\sigma=0.15$.
محاسبه پارامترهای توزیع نرمال کوتاه شده
25010
آیا هیچ توزیع غیر یکسانی وجود دارد که تابع تولید لحظه یکسانی داشته باشد؟
شناسایی توابع مولد لحظه
105052
من باید یک ماشین بولتزمن محدود را برای مدل‌سازی احتمال مشترک متغیرهای طبقه‌بندی آموزش دهم. برای این کار من یک RBM برنولی را برای داشتن گروه‌هایی از واحدهای سافت مکس در لایه مرئی تطبیق دادم. کد اصلی scikit-learn که من با آن شروع کردم یک RBM برنولی را آموزش می دهد و مقدار شبه احتمال را در هر تکرار آموزشی برای اندازه گیری پیشرفت محاسبه می کند. سوال من این است: **با تغییر تفسیر احتمالی واحدهای مرئی RBM (RBM برنولی به Softmax RBM)، آیا ادامه استفاده از محاسبات شبه درستنمایی مانند قبل صحیح است؟ یا باید به نوعی اصلاح شود؟** از آنجایی که استقلال شرطی بین واحدهای مرئی علیرغم تغییر در تفسیر احتمالی آنها همچنان پابرجاست، من تمایل دارم فکر کنم که استفاده از همان محاسبات شبه درستنمایی اشکالی ندارد. با این حال، من بیشتر یک برنامه نویس هستم و درک نظری من از آمار بسیار ضعیف است، بنابراین توجیه نظری برای این موضوع ندارم. شروع به خواندن مقاله Besag, J. (1975) تحلیل آماری داده های غیر شبکه ای کردم. The Statistician, 24(3), 179-195 که به نظر می رسد یک مرجع استاندارد در مورد شبه احتمال می باشد، اما من همچنین در این فکر بودم که آیا کسی در اینجا می تواند پاسخ ساده تری به من بدهد. با تشکر
شبه احتمال و RBMs
93734
من تعداد غازها را در یک پهنه گلی جزر و مدی بیش از 100 روز در زمستان شمارش کردم. من در هر یک از این روزها دو شمارش کردم: یکی در جزر و دیگری در جزر. من می خواهم بدانم که آیا تعداد غازهای موجود در جزر و مد متفاوت است؟ از آنجایی که داده ها دارای انحراف بسیار مثبت هستند، استفاده از تست Wilcoxon مناسب است. با این حال، آیا باید از آزمون مجموع رتبه (آزمون بدون جفت) یا آزمون رتبه امضا شده (آزمون زوجی) استفاده کنم؟
تست ویلکاکسون جفت یا جفت نشده؟
105051
من باید یک تجزیه و تحلیل جایگشت روی نمونه های نابرابر انجام دهم، یکی (X) با 579 نقطه داده و دیگری (Y) با 1289 نقطه داده. تفاوت آشکاری در داده ها وجود دارد. با این حال، این تفاوت ممکن است به دلیل عدم تعادل بین اندازه نمونه باشد. من باید یک تجزیه و تحلیل جایگشتی را با استفاده از تمام جفت‌های ممکن (ترکیب) از این نقاط داده اجرا کنم تا ببینم احتمال واقعی بودن این تفاوت‌ها و عدم وجود مصنوع به دلیل عدم تعادل چقدر است. نتایج باید مقادیر p را به من بدهند تا برای آزمون معناداری تفسیر کنم. من با R بسیار جدید هستم. همچنین، بیشتر هر چیزی که پیدا کرده‌ام، نمونه‌های جفتی به من می‌دهد. آیا کسی کد یا پیشنهادی برای انجام این کار دارد؟ با تشکر
تجزیه و تحلیل جایگشت با استفاده از نمونه های نابرابر
24054
من یک دسته (حدود 1000) تخمین دارم و قرار است همه آنها تخمین هایی از کشش بلندمدت باشند. کمی بیش از نیمی از اینها با استفاده از روش A و بقیه با استفاده از روش B تخمین زده شده است. در جایی من چیزی شبیه به من فکر می کنم روش B چیزی را بسیار متفاوت از روش A تخمین می زند، زیرا برآوردها بسیار (50-60٪) بیشتر است. . دانش من از آمار قوی تقریباً هیچ است، بنابراین من فقط میانگین و میانه نمونه هر دو نمونه را محاسبه کردم ... و بلافاصله تفاوت را دیدم. روش A بسیار متمرکز است، تفاوت بین میانه و میانگین بسیار کم است، اما نمونه روش B بسیار متفاوت بود. من به این نتیجه رسیدم که نقاط پرت و خطاهای اندازه گیری، نمونه روش B را منحرف می کند، بنابراین حدود 50 مقدار (حدود 15٪) را دور انداختم که با تئوری بسیار ناسازگار بود ... و ناگهان میانگین هر دو نمونه (از جمله CI آنها) بسیار شبیه بود. . نمودار تراکم نیز. (در تلاش برای حذف موارد پرت، به محدوده نمونه A نگاه کردم و تمام نقاط نمونه در B را که خارج از آن بودند حذف کردم.) می خواهم به من بگویید از کجا می توانم برخی از اصول اولیه تخمین قوی میانگین ها را پیدا کنم. اجازه دهید این وضعیت را دقیق تر قضاوت کنم. و برای داشتن چند مرجع. من نیازی به درک عمیق تکنیک های مختلف ندارم، بلکه از طریق یک بررسی جامع از روش شناسی برآورد قوی مطالعه کنید. من آزمون t را برای معنی‌داری تفاوت میانگین پس از حذف نقاط پرت انجام دادم و p-value 0.0559 (t در حدود 1.9) است، برای نمونه‌های کامل آمار t در حدود 4.5 بود. اما واقعاً موضوع این نیست، ابزارها می توانند کمی متفاوت باشند، اما همانطور که در بالا گفته شد نباید 50-60٪ متفاوت باشند. و من فکر نمی کنم آنها انجام دهند.
دوره تصادف در برآورد میانگین قوی
97361
با استفاده از R: `pamk.best <- pamk(data,k=2:12,criterion=ch)` تخمینی از بهترین تعداد خوشه ها را با استفاده از معیار Calinski-Harabasz برمی گرداند. با این حال، این معیار نمی تواند برای ارزیابی کیفیت خوشه یک استفاده شود. بنابراین، چگونه می توانم بدانم که بهتر است داده ها را به دو گروه تقسیم کنیم یا بدون تغییر نگه داریم؟
انتخاب بین یک و دو خوشه با استفاده از معیار Calinski-Harabasz
30111
آیا راهی برای کالیبراسیون در برابر مجموع کنترل های چند بعدی با استفاده از بسته بررسی وجود دارد؟ من توانسته ام وزن های پس از طبقه بندی را تخمین بزنم، اما اکنون در کالیبراسیون گیر کرده ام. (من یک طراحی خوشه‌ای دارم و نیاز دارم وزن‌ها در هر خوشه ثابت بمانند.) آیا باید همه ترکیب‌ها را دوباره در یک ویژگی جدید رمزگذاری کنم؟ > df <- data.frame(id=c(1,1,1,2,2,3,4,5,5), + h=factor(c(1,1,1,0,0,1, 0،1،1))، + p=factor(c(1,0,1,0,1,0,0,0,1))) > > df id h p 1 1 1 1 2 1 1 0 3 1 1 1 4 2 0 0 5 2 0 1 6 3 1 0 7 4 0 0 8 5 1 0 9 5 1 1 > des <- svydesign(id=~id, data=df) پیام هشدار: در svydesign.default( id = ~id، داده = df) : وزن یا احتمالی ارائه نشده است، با فرض احتمال مساوی > pop <- xtabs(Freq~., data.frame(h=factor(c(0, 1, 0, 1)), + p=factor(c(0, 0, 1, 1)) + Freq=c(40, 35, 25, 10))) > pop p h 0 1 0 40 25 1 35 10 > > ps <- postStratify(des, strata=~h*p, Population=pop) > وزن (ps) [1] 3.333333 11.666667 3.333333 20.000000 25.0000000 [6] 11.6666667 2066610 20.006 3.333333 مستندات و کتاب نظرسنجی Lumley هر دو نحوه انجام این کار را نشان نمی دهند و آیا اصلاً امکان پذیر است.
با استفاده از بسته نظرسنجی نسبت به مجموع جمعیت چند بعدی کالیبره می شود؟
113768
من mvn را با استفاده از بسته mclust در R با استفاده از کدهای زیر اجرا کردم: mvn(EEE, data[,18:22], prior = NULL, warn= NULL) من در فهمیدن اینکه چگونه بفهمم آیا مشکل دارم نتایج نشان دهنده برازش نرمال چند متغیره است. نتایج زیر است: $n [1] 707 $d [1] 5 $G [1] 1 $parameters $parameters$pro [1] 1 $parameters$mean [,1] V18 2.993399 V19 3.775578 V20 3.790193 V220193 V2201 2. 3.235266 $parameters$variance $parameters$variance$modelName [1] XXX $parameters$variance$d [1] 5 $parameters$variance$G [1] 1 $parameters$variance$Sigma V18 V19 V20 V21 V22 V18 1.114839 0.046114371 0.021088813 0.094512987 -0.03160755 V19 -0.04611437 0.604042865 -0.001037869 0.001748973 0.13820450480 -0.001037869 0.511536706 0.112759387 -0.17223313 V21 0.09451299 0.001748973 0.112759387 0.5424514932 0.542451293 -0.03160755 0.138450479 -0.172233126 -0.131874937 0.81860855 $parameters$variance$cholSigma [,1] [,2] [,3] [,4] [,5] [.4] [,5] [1,4] 0.0199731239 0.089512842 -0.02993537 [2،] 0.00000 0.77597383 -0.0002133427 0.007292026 0.1767360000000000. -0.7149389730 -0.155220369 0.24001701 [4،] 0.00000 0.00000000 0.0000000000 0.714349947 -0.13050]0.1305000000000000000. 0.0000000000 0.000000000 0.84370373 $parameters$variance$sigma , 1 V18 V19 V20 V21 V22 V18 1.11483935 -0.04611413710 -0.04611413710 0.094512987 -0.03160755 V19 -0.04611437 0.604042865 -0.001037869 0.001748973 0.13845048 V20 0.013 - 0.021080888 0.511536706 0.112759387 -0.17223313 V21 0.09451299 0.001748973 0.112759387 0.542454933 -0.131823313 V21 -0.131827494 0.138450479 -0.172233126 -0.131874937 0.81860855 $loglik [1] -4279.837 attr(ReturnCode) [1] 0
در تفسیر نتایج R، آیا داده ها چند متغیره نرمال هستند؟
30116
من به نوعی شنیده ام که سکه های معمولی دقیقاً منصفانه نیستند. آزمایشی که خیلی پیش انجام شد و آزمایشی که اخیراً انجام شد، می‌تواند فرضیه صفر p=1/2 را پس از شاید صدها هزار پرتاب سکه رد کند! و من شنیدم که احتمال تاس هم منصفانه نیست. دلیل واضح این است که علامت نقطه ای که در تاس حک شده است باعث عدم تعادل وزن می شود. من کنجکاو هستم که آیا کسی مرجع آزمایشاتی را که در بالا ذکر کردم می داند؟
احتمال سر در پرتاب سکه دقیقا 1/2 نیست!
56174
من سعی می کنم از «lqmm» برای جا دادن برخی مدل ها استفاده کنم و به نظر می رسد که با داده های من خوب کار می کند (N 2000 w/clusters=1200). من از تماسی مانند این استفاده می کنم: lqmm (y~x + متغیرهای کمکی، تصادفی=~1، گروه=subjectID، iota=c(0.25، 0.50، 0.75)،...) با این حال، هر بار این خطاهای بهینه سازی را دریافت می کنم : پیام هشدار: در error Handling (OPTIMIZATION$low_loop، low، control$LP_max_iter، : Lower حلقه در lqmm همگرا نشد. سعی کنید حداکثر تعداد تکرارها (500) را افزایش دهید هشدار همچنین، هنگام تلاش برای به دست آوردن خلاصه (شیء)، زمان بسیار زیادی طول می کشد (3090 ثانیه برای کسی که کار می کند). قبلاً با این مشکلات روبرو شده اید و می خواهید ایده هایی در مورد چگونگی انجام این کار به اشتراک بگذارید؟
مشکل با lqmm زمان بسیار طولانی برای اجرا و مشکلات مربوط به رسیدگی به خطا
24055
مدل اسپرت هست من سعی می کنم بر اساس اطلاعات موجود قبل از آن فصل، درصد برد هر تیم در فصل بعد را پیش بینی کنم. من حدود 240 مشاهده از تعداد بردها در فصول مختلف برای تیم های مختلف به همراه مقادیر مربوط به پیش بینی کننده های احتمالی دارم. من می‌خواهم با استفاده از این داده‌ها یک مدل رگرسیون چند خطی بسازم و می‌خواهم موفقیت یا عدم موفقیت هر مدلی را که به آن می‌رسم با نشان دادن اینکه چگونه پیش‌بینی‌های مدل من با پیش‌بینی‌های یک «متخصص» در یکی دو فصل اخیر مقایسه می‌شود، نشان دهم. . در مدل من، 4 پیش بینی کننده بالقوه X1، X2، X3، X4 دارم. دو مورد از آنها، مثلاً X1 و X2، تقریب‌های معقول پیشینی از متغیر هدف هستند، اگرچه با مفروضات متفاوتی به دست آمده‌اند، بنابراین من انتظار داشتم و دریافتم که همبستگی بالایی دارند. من برخی از چند خطی را خوانده‌ام، بنابراین می‌دانم که وقتی کسی سعی می‌کند آنها را در یک مدل قرار دهد، مشکلات مختلفی ایجاد می‌کند. برای من منطقی است که مدلی که شامل X1، X3، و X4 و مدلی که شامل X2، X3 و X4 می شود بهترین باشد، با فرض اینکه X3 و X4 قابل توجه هستند و غیره، اما این نیز کمی غیر سیستماتیک به نظر می رسد. /خودسرانه نمی‌دانم که آیا می‌توانید در مورد انتخاب مدل در این شرایط، روش‌های ممکن برای استفاده، و غیره توصیه‌هایی ارائه کنید. به‌ویژه، من در مورد اینکه راه مناسب برای پارتیشن‌بندی داده‌ها چیست گیج شده‌ام. بدیهی است که اگر بخواهم مدل را در فصل اخیر نشان دهم، باید آن فصل اخیر را از داده هایی که مدل را بر روی آن آموزش می دهم حذف کنم. اما آیا باید برخی از داده ها را نیز برای اعتبار سنجی کنار بگذارم؟ همانطور که احتمالاً می توانید بگویید، من تازه وارد مدلینگ هستم. ویرایش: جزئیات بیشتر، با توجه به پاسخ رولاندو: X1 درصد برد آن تیم در فصل قبل است، در حالی که X2 تخمینی از درصد برد فصل بعد بر اساس حل فرمول MP/MW برای درصد برد و با فرض MP/MW بعدی است. فصل مشابه فصل قبل خواهد بود. بنابراین یک برآورد مبتنی بر فرض تداوم درصد برد از یک فصل به فصل دیگر است و دیگری بر اساس فرض تداوم این کمیت MP/MW از یک فصل به فصل دیگر، جایی که MP/MW اساساً قرار است تخمینی از کارایی سازمان تیم باشد. یک سوال دیگر: فرض کنید شما یک متغیر هدف Y و تعدادی متغیر پیش‌بینی‌کننده X1، ...، Xn دارید که قبلاً پیش‌بینی‌های Y هستند، منطقی است فکر کنیم که می‌توانیم این پیش‌بینی‌ها را جمع کنیم تا به برآورد بهتری از Y برسیم. چند روش ساده برای انجام این کار چیست که باید در مورد آنها مطالعه کنم؟ با تشکر
کمک به انتخاب مدل رگرسیون چند خطی
62678
من یک مشکل رگرسیون دارم که در R با استفاده از حلقه for پیاده سازی می کنم. اساسا، من یک معادله (در نتیجه یک روش طولانی) به عنوان تابعی از دما، با پنج پارامتر مجهول دارم. من 12 دمای مختلف دارم که می توانم از آنها برای هدایت معادلات استفاده کنم، بنابراین برای هر ترکیبی از پنج پارامتر، می توانم 12 نقطه داشته باشم. 12 نقطه در واقع از دو پاره خطی که در یک نقطه معین عبور می کنند، مشتق شده اند. بسته به مقادیر پنج پارامتر ناشناخته، دو بخش می توانند در هر جایی اجرا شوند. با پارامترهای مناسب امیدوارم که دو بخش یک خط مستقیم را تشکیل دهند. برای این منظور، من باید یک رگرسیون خطی روی این نقاط اجرا کنم، و سپس در کل ترکیب پنج پارامتر، باید یک مجموعه از پارامترها را پیدا کنم که منجر به حداقل مجموع مربعات باقیمانده شود. مشکل این است که ساعت ها طول می کشد تا پارامترها با وضوح خوب حل شوند (by=0.05 به جای by=0.5 در مثال زیر). آیا راهی برای حل سریعتر این مشکل وجود دارد؟ من فکر می کنم شیب نزولی می تواند این کار را سریعتر انجام دهد، اما نمی دانم چگونه آن را فرموله کنم. هر گونه پیشنهاد بسیار قدردانی خواهد شد. کد اینجاست: A1 = 1.25 A2 = 0.01136 A3 = -0.0433 a = seq(0,1,by=0.5) b = seq(0,1,by=0.5) c = seq(-3,3,by= 0.5) d = seq(0،1،by=0.5) e = seq(-3،3،by=0.5) Temp_F = c(28.99، 36.87، 42.92، 52.84، 58.31، 67.60، 76.17، 70.20، 63.26، 53.05، 39.28، 35.35) df <- expand.grid=c,b=a =e) nrow(df) برای (i در 1:nrow(df) ) { X.points = df$a[i]*A1 - (A2*df$b[i]*Temp_F) - df$c[i] + ( A3*df$d[i]*Temp_F) + df$e[i] glm.X = glm(X.points ~ Temp_F) df$res[i]=sum(residuals(glm.X)^2) } write.csv(df, file=df.csv) index=which(df$res == min(df$res[df$ res > 0])) df$a[index] df$b[index] df$c[index] df$d[index] df$e[index]
حلقه رگرسیون در R
48152
داشتن تابلوی امتیازات امتیاز روز 1 1000 روز 2 1050 روز 3 1010 روز 4 1010 روز 5 1030 چگونه میانگین امتیازات تغییرات را محاسبه کنیم؟ یعنی به طور متوسط ​​یک فرد در روز چند امتیاز کسب می کند یا از دست می دهد. این باید یک چیز واقعا ساده باشد. با این حال، نمی توانم بفهمم.
میانگین نقاط تغییرات
107693
من یک رگرسیون Ridge با حدود 1200 پارامتر (و حدود 30000 نقطه داده) اجرا می کنم. متوجه شدم که برای برخی از مقادیر برجستگی، وزن ها فراتر از یک نقطه خاص، از نظر کیفی متفاوت به نظر می رسند. به طور خاص، مقادیر بالاتر برای پارامتر رج، وزن هایی را به دست می دهد که به وضوح دارای نوعی ساختار هستند، در حالی که در برخی موارد تقریباً شبیه نویز سفید به نظر می رسند. در این مورد، به دلیل ویژگی‌هایی که من استفاده می‌کنم، انتظار دارم وزن‌ها ساختار قبلی را داشته باشند، اما اعتبارسنجی متقابل اغلب پارامتری را انتخاب می‌کند که وزن‌ها برای آن کاملاً نویز به نظر می‌رسند. به نظر من پارامتر رج فقط باید توزیع نسبی وزن ها را تغییر دهد، اما تفاوت های کیفی آنها را تغییر نمی دهد. من اینجا اشتباه می کنم؟
آیا پارامتر رج باید وزن ها را از نظر کیفی تغییر دهد؟
76971
من 3 متغیر حاوی 1 تا 5 رای به عنوان پاسخ های شاخص عملکرد کلیدی (kpi) به نظرسنجی مشتری دارم. با استفاده از RapidMiner و رگرسیون لجستیک متوجه شدم که آنها به طور ملایمی یک رویداد منفی خاص را پیش بینی می کنند. من همچنین فراوانی این رویداد را برای هر رأی تجزیه و تحلیل کردم: پاسخ دهندگانی که در سؤال اول 1 (امتیاز پایین) را انتخاب می کنند، در مقایسه با کسانی که بالاترین رای (5) را انتخاب کرده اند، 4 برابر احتمال بازگشت رویداد منفی را دارند. من می خواهم یک مدل ساده را به کار ببرم که به هر رأی وزنی می دهد، بنابراین با ترکیب هر 3 پاسخ می توانم یک شاخص پیش بینی برای آن رویداد خاص به دست بیاورم.
ساخت یک شاخص پیش بینی بر اساس 3 متغیر مستقل
30114
زمانی که ما علاقه مند به پیش بینی مقادیر بزرگتر توزیع حاشیه ای (دم) هستیم، روش مناسبی برای بهبود کارایی ضرایب رگرسیون چیست؟ به عنوان مثال، ما می خواهیم امواج لرزه ای را بر اساس تعدادی متغیرهای کمکی ثبت شده توسط کاوشگرهایمان پیش بینی کنیم. با توجه به اینکه اکثر زمین لرزه ها پس از رسیدن به آستانه متغیرهای کمکی خاص، به طور ناگهانی ایجاد می شوند، نمی توان داده ها را به شدت خطی فرض کرد. اکثریت قریب به اتفاق مشاهدات مضر در نظر گرفته نمی شوند و باید در تجزیه و تحلیل ما کم وزن شوند. آنچه ما واقعاً علاقه مند به برآورد آن هستیم، نتایج شدیدتر است. [افکار...] حداقل مربعات وزنی به ذهن می رسد، اما وزن ها چگونه باید محاسبه شوند؟ آیا رگرسیون چندک با مثلاً $\tau = [0.2, 0,8]$ رویکرد بهتری است؟ [/افکار]
بهینه سازی ضرایب رگرسیون برای پیش بینی بزرگترین نتایج
78619
نمی‌دانم آیا کسی می‌تواند به من در تفسیر «نمرات z» (%IncMSE) در رویکرد جنگل تصادفی کمک کند. من از یک کتابخانه randomForest در R استفاده می کنم. به طور خاص، مطمئن نیستم که آیا علامت امتیاز (-/+) را می توان احتمالاً به عنوان جهتی از تأثیر یک پیش بینی کننده بر متغیر نتیجه تفسیر کرد؟
جهت نمرات z در جنگل تصادفی
31249
آیا کسی می تواند با مثال های ممکن برای من خلاصه کند که در چه شرایطی افزایش داده های آموزشی سیستم کلی را بهبود می بخشد؟ چه زمانی متوجه می‌شویم که افزودن داده‌های آموزشی بیشتر احتمالاً می‌تواند داده‌ها را بیش از حد برازش کند و دقت خوبی در داده‌های آزمایشی ایجاد نکند؟ این یک سوال بسیار غیر اختصاصی است، اما اگر می‌خواهید به آن در یک موقعیت خاص پاسخ دهید، لطفاً این کار را انجام دهید.
افزایش داده های آموزشی چه تاثیری بر دقت کلی سیستم دارد؟
64469
اگر یک نمونه کوچک مانند چارچوب استاندارد برای مدل‌های خطی را متناسب کنید. آیا از باقیمانده ها، ساختار همبستگی خاصی مانند تقارن مرکب یا خودرگرسیون مرتبه اول را پیشنهاد می کنید؟ Y<-data.frame(response=c(10,19,27,28,9,13,25,29,4,10,20,18,5,6,12,17), treat=factor(rep( 1:4،4))، موضوع = عامل (تکرار (1:4، هر = 4)) ) مناسب <-lm (پاسخ ~-1+ ​​درمان، Y)
حدس زدن ساختار همبستگی یک مدل ترکیبی
71871
با کنار گذاشتن مسئله آشکار قدرت کم مربع کای در این نوع شرایط، آزمایش خوب مربع کای را برای مقداری چگالی با پارامترهای نامشخص، با ترکیب داده ها، تصور کنید. برای مشخص بودن، بیایید یک توزیع نمایی با میانگین مجهول و اندازه نمونه مثلاً 100 فرض کنیم. برای به دست آوردن تعداد معقولی از مشاهدات مورد انتظار در هر سطل، باید حسابی از داده ها در نظر گرفته شود (به عنوان مثال اگر ما 6 سطل را انتخاب کنیم. زیر میانگین و 4 بالای آن، که همچنان از مرزهای bin مبتنی بر داده استفاده می کند). اما این استفاده از سطل‌ها بر اساس مشاهده داده‌ها احتمالاً بر توزیع آمار آزمون در زیر صفر تأثیر می‌گذارد. من بحث های زیادی در مورد این واقعیت دیده ام که - اگر پارامترها با حداکثر احتمال از داده های _binned_ تخمین زده می شوند - شما 1 d.f را به ازای هر پارامتر تخمینی از دست می دهید (مسئله ای که دقیقاً به Fisher vs Karl Pearson بازمی گردد) - اما من به خاطر نمی آورم. خواندن هر چیزی در مورد یافتن خود مرزهای سطل بر اساس داده ها. (اگر آنها را از روی داده های unbinned تخمین بزنید، پس با $k$ bins توزیع آمار آزمون جایی بین $\chi^2_{k}$ و $\chi^2_{k-p}$ قرار دارد.) انتخاب سطل های مبتنی بر داده بر سطح اهمیت یا قدرت تأثیر می گذارد؟ آیا رویکردهایی وجود دارند که اهمیت بیشتری نسبت به سایرین دارند؟ اگر تأثیر زیادی وجود داشته باشد، آیا این چیزی است که در نمونه های بزرگ از بین می رود؟ اگر تأثیر اساسی داشته باشد، به نظر می‌رسد که استفاده از آزمون کای‌دو زمانی که پارامترها در بسیاری از موارد ناشناخته هستند تقریباً بی‌فایده است (علی‌رغم اینکه هنوز در چند متن از آن حمایت می‌شود)، مگر اینکه شما یک آزمون خوب داشته باشید. تخمین قبلی پارامتر بحث در مورد موضوعات یا اشاره به مراجع (ترجیحاً با ذکر نتیجه گیری آنها) مفید خواهد بود. * * * ویرایش، تقریباً به کناری از سؤال اصلی: به ذهنم می‌رسد که راه‌حل‌های بالقوه‌ای برای مورد خاص نمایی* وجود دارد (و یکنواخت به آن فکر می‌کند)، اما من همچنان به موارد بیشتر علاقه دارم. موضوع کلی تاثیر انتخاب مرزهای بن. * برای مثال، برای نمایی، می‌توان از کوچک‌ترین مشاهدات (مثلاً برابر با $m$) استفاده کرد تا یک ایده بسیار تقریبی از محل قرار دادن سطل‌ها بدست آورد (زیرا کوچک‌ترین مشاهده نمایی با میانگین $\mu/n است. $)، و سپس تفاوت n-1$ باقیمانده ($x_i - m$) را برای نمایی آزمایش کنید. البته ممکن است تخمین بسیار ضعیفی از $\mu$، و در نتیجه انتخاب‌های bin ضعیف به دست بیاورد، اگرچه من تصور می‌کنم که ممکن است از آرگومان به صورت بازگشتی استفاده کنیم تا از بین دو یا سه مشاهدات پایین‌تر، بن‌های معقول را انتخاب کنیم و سپس آن را آزمایش کنیم. تفاوت مشاهدات باقی مانده بالاتر از بزرگترین آمار کوچکترین ترتیب برای نمایی)
تأثیر مرزهای سطل مبتنی بر داده بر آزمون نیکویی فیت کای دو؟
51235
من یک چارچوب داده در R دارم که شامل چهار متغیر است. من یک PCA را اجرا کردم که نشان داد دو جزء اصلی اول بیشتر واریانس داده‌های من را توضیح می‌دهند. من می دانم که اجزای اصلی ترکیب خطی متغیرهای اصلی هستند. حال چگونه می توانم بفهمم که کدام ترکیب (های) از متغیرهای اصلی من باعث ایجاد این رایانه های شخصی می شود؟ با تشکر
اهمیت متغیرهای اصلی بعد از PCA
64461
در یک نظرسنجی از اندازه گیری عدم قطعیت به عنوان متغیر وابسته کلیدی استفاده کردم و پس از اجرای اندازه گیری در 2 موج نظرسنجی خود، اندازه گیری بهتری پیدا کردم و این اندازه گیری جدید اعتبار درونی بهتری دارد و از نظر تئوری مناسب تر است. من هنوز 2 موج نظرسنجی برای ارسال دارم و می خواهم اندازه گیری جدید را اضافه کنم. چگونه به تجزیه و تحلیل ادامه دهیم؟ من احتمالاً 2 موج داده با معیارهای قدیمی و 2 موج با معیارهای قدیمی و جدید خواهم داشت. امواج داده‌ها فقط دسته‌ای از نمونه‌گیری هستند، اما به نظر می‌رسد که هر 4 موج برای داشتن اندازه نمونه‌گیری به اندازه کافی لازم است. ممنونم!!
اندازه گیری بهتری پیدا کردید - با اندازه گیری قدیمی/جدید (هر دو شکل دهنده) چه باید کرد؟
105582
من در استفاده از مدل های ترکیبی خطی تازه کار هستم و از هر کمکی که می توانم دریافت کنم بسیار قدردانی خواهم کرد. من یک معادله به شکل $ y = X\beta + Zu + \epsilon$ دارم که در آن $u$ یک اثر تصادفی است که ماتریس کوواریانس آن می‌خواهم مضرب ماتریس هویت باشد. ماتریس $Z$ من حدود 1000 ستون دارد. مشکل اینجاست که من فقط یک گروه دارم، یعنی مشاهده‌های متعددی برای هر نفر ندارم، و فکر می‌کنم «لمر» این را دوست ندارد. به عنوان مثال، در حالت ساده، اگر چیزی مانند `lmer` $({\rm height} \sim 1 + (0+Z_1|ID) + (0+Z_2|ID))$ را قرار دهم که در آن $Z_1$ و $ Z_2$ 2 ستون $Z$ هستند و $ID$ **شناسه منحصربفرد برای هر فرد است** lmer خطایی را نشان می دهد که می گوید باید تعداد گروه ها کمتر از تعداد مشاهدات باشد (مشکل مشابه اگر همه افراد متعلق به یک گروه را تنظیم کنم رخ می دهد). من با «lme» موفقیت نسبی داشتم (در بسته «name») که در آن می‌توانم ساختار کوواریانس $u$ را مانند «pdDiag» ارائه کنم، و بسته به یک گروه اجازه می‌دهد. مشکل اینجا بود که با مشکلات حافظه مواجه شدم و زمان خیلی طولانی بود. از آنجایی که «lmer» از روش‌های ماتریس پراکنده زیادی استفاده می‌کند، حدس می‌زنم انعطاف‌پذیری من در **ساختار کوواریانس** بسیار کمتر خواهد بود. همانطور که گفته شد، به نظر می رسد محدودیت من (احتمالا؟) یکی از بدیهی ترین مواردی است که در این مدل ها اجرا می شد.
کمک به lmer در بسته lme4
37839
سوال من مربوط به یک مشکل تحقیقاتی واقعی است که دارم. من قصد دارم EFA (در واقع PCA) را بر روی یک پرسشنامه 111 موردی انجام دهم که برای غربالگری 20 اختلال مختلف در دوران کودکی و نوجوانی طراحی شده است. اتفاقاً، من قصد دارم از تست MAP Velicer برای تعیین تعداد فاکتورهای استخراج استفاده کنم. جستجوی من در ادبیات مربوطه به من می گوید که PCA من احتمالاً عوامل کمتری را نسبت به ابزار ادعا می کند که دارد. مشکل من این است که بارگیری آیتم را به طور کامل درک نمی کنم. می دانم که ممکن است آیتم ها آنطور که باید بارگذاری نشوند، اما دلیل آن را نمی دانم. * آیا به این دلیل است که آیتم ها ممکن است چندین عامل را اندازه گیری کنند؟ * همچنین، آیا برخی از اقلام می توانند به هیچ وجه بارگذاری نشوند؟ * آیا می‌توان عامل(های) کاملاً جدیدی پدید آمد که ممکن است از همه (یا بیشتر) همه موارد مثلاً دو عامل تشکیل شده باشد؟
چگونه بارگذاری آیتم در PCA / FA با عوامل واقعی در یک ابزار ارتباط دارد؟
49359
وقتی تجزیه و تحلیل خود را با آیتم هایی با واریانس صفر اجرا می کنم، sem در R یک هشدار می دهد که می گوید موارد با واریانس صفر وجود دارد. سپس اینها را از تحلیل حذف می کنم. سوال من این است: 1. آیا راه های دیگری برای حل این مشکل به جز حذف موارد وجود دارد، شاید مانند اضافه کردن مقدار بسیار کمی از لرزش؟ 2. چه ادبیاتی برای توجیه چنین رویه ای وجود دارد؟ (من جستجو کردم اما به چیزی نرسیدم. حدس می زنم یا این یک مشکل رایج نیست یا راه حل خیلی واضح است.)
تحلیل عاملی تاییدی با استفاده از SEM: با موارد با واریانس صفر چه کار می کنیم؟
48159
من جدول زیر را دارم و باید به سوالات زیر پاسخ دهم. سوال اول به نظر من اطلاعات کافی ندارد. نام سن ریاضیات انگلیسی اقامت تامی 16 C A CAMPUS پیتر 16 B A CAMPUS Tom 17 C A CAMPUS Lynn 18 A CAMPUS مایکل 20 A CAMPUS استیون 21 B A CAMPUS Sam 22 B CAMPUS Mary ACAMPdy 25 CME A HOME John 18 A HOME Dan 18 C A HOME Lily 22 B B HOME Sue 23 A B HOME Corey 24 B B HOME 1. در مورد کلاس های تابستانی انگلیسی و ریاضی چه نتیجه ای می توانید بگیرید؟ 2. آیا دانش آموزان بزرگتر در ریاضی بهتر عمل می کنند؟ 3. آیا زنان در ریاضی بهتر از مردان هستند؟
آمار مربوط به نمرات (بدون عدد)
24059
من می‌خواهم یک مدل مختلط خطی تعمیم‌یافته فضایی را بگنجانم، برای مثال، برای مدل‌سازی پاسخ‌های شمارش فضایی با استفاده از تقریب لاپلاس در نرم‌افزار آماری موجود. من به ویژه به پیاده سازی در R علاقه مند هستم.
نحوه استفاده از تقریب لاپلاس برای برازش مدل فضایی GLM
71873
این سوال در مورد استراتژی های خاصی برای مقابله با متغیرهای غیر ثابت در پیش بینی است. این مشکل معمولا زمانی که شما پیش بینی کننده ای دارید که سطوحش با پاسخ مرتبط است، اما اولین تفاوتش اطلاعات بسیار متفاوتی را به همراه دارد، سر زشت خود را به دنبال دارد. به طور کلی، اگر یک یا دو مورد از اینها در مدل من وجود داشته باشد، استفاده از ساختگی‌های رهگیری که یکی هستند، زمانی که پیش‌بینی‌کننده سطوح غیر ثابت «بالا» است، کافی است. به طور مشابه، گاهی اوقات می‌توان با تعامل این آدمک‌ها با پیش‌بینی‌کننده‌های مختلف دیگر کافی باشد، بنابراین مجبور نیستم متغیر غیر ثابت را به عنوان یک پس‌رونده داشته باشم. اما اگر من 15 تا 20 عدد از این پیش‌بینی‌کننده‌های غیر ثابت را داشته باشم که سطح‌های آنها همگی به پاسخ بسیار مرتبط هستند، چه می‌شود؟ برای مثال، «بالا» بودن تقاضای مصرف‌کننده ممکن است به مدل بسیار مرتبط باشد. با ایجاد تفاوت، دیگر نمی توانم این اطلاعات را در مدل خود بگنجانم. اکنون موردی را در نظر بگیرید که در آن 15-20 متغیر مشابه دیگر وجود دارد که سطح بحرانی است. **راهبرد پیچیده ای برای رویارویی با این موضوع به جز استفاده از مقادیر احمقانه متغیرهای ساختگی، قرار دادن آن در الگوریتم یادگیری آماری، یا حذف همه آنها در سطل زباله چیست؟** شاید این مشکل به یک راه حل سنتی یادگیری ماشین نیاز داشته باشد؟ چیزی شبیه جنگل های تصادفی منطقی است، اما من به دنبال این هستم که تعداد پارامترها را پایین نگه دارم، زیرا سرعتی که می توانم پیش بینی ها را از مدل خارج کنم مهم است. * * * برای ارائه مثالی از اینکه سطوح مهم هستند و نمی توان آنها را با تفاوت های اول ضبط کرد، به مثال پیش بینی کننده زیر در `R` نگاه کنید: `plot(sin(1:400/50)+sin(1:400 ),type='l')` آنچه برای $Y$ من مهم است این است که اگر این پیش بینی کننده نزدیک به یک قله باشد در مقابل حالت مخالف نزدیک بودن به یک فرورفتگی. اما هیچ راهی برای ادغام این اطلاعات در مدل من با استفاده از اولین تفاوت این پیش بینی وجود ندارد.
عملاً بسیاری از پیش‌بینی‌کننده‌های غیر ثابت را مدیریت می‌کند
112187
پیشاپیش از راهنمایی ممنونم من سعی می کنم یک مدل خطی تعمیم یافته بسازم که پیش بینی کننده های زیادی داشته باشد. مقدار $R^{2}$ این مدل بسیار پایین است (.21)، اما وقتی از مدل برای پیش‌بینی در مقابل مجموعه اعتبارسنجی خود استفاده می‌کنم، نتایج بسیار خوبی دریافت می‌کنم. من این تصور را داشتم که مقدار پایین $R^{2}$ به طور کلی به این معنی است که قدرت پیش بینی یک مدل پایین است. چه اتفاقی می تواند در اینجا بیفتد (من به دنبال دلایلی هستم که چرا یک مدل ممکن است پیش بینی های خوبی داشته باشد اما ضریب تعیین پایینی داشته باشد)؟ مجموعه‌های آموزشی و اعتبارسنجی من توزیع مشابهی دارند و معتقدم مجموعه‌های آموزشی و اعتبارسنجی من نماینده کل فضا هستند.
آیا ضریب تعیین بسیار بد ($R^{2}$) می تواند نشان دهنده عملکرد مدل نباشد؟
108761
من یک فرآیند برخورد تصادفی را شبیه سازی می کنم. در هر بازه زمانی احتمال برخورد بین هر جسم و سایر اجسام مجاور را محاسبه می کنم. در حال حاضر اگر بخواهم احتمال کل برخورد یک شی خاص با هر جسم دیگری را بیابم، مجموع همه این احتمالات است. با این حال، اگر بخواهم از نظر تئوری تعداد اجسام را به مرتبه‌های قدر بالاتر برسانم، این شکل از محاسبه می‌تواند منجر به احتمال بزرگ‌تر از 1 شود. B و مقدار x1 را بدست آورید. احتمال برخورد جسم A با جسم C باید کمتر از 1 باشد زیرا جسم A می تواند با جسم B برخورد کند، بنابراین احتمال محاسبه شده بین اشیاء A و C باید در (1-x1) ضرب شود و این باید مقدار x2 من باشد. آیا این رویکرد خوبی است؟ اگر روش بالا را اعمال کنم، احتمال وجود اشیاء اولیه در لیست (مثلاً x1>x2>x3>x4 و غیره) بیشتر نمی شود. واضح است که x1 لزوما بزرگتر و x2 نیست، اما با توجه به پارامترهای یکسان x1 بزرگتر خواهد بود. چگونه می توانم این اثر را نفی کنم زیرا ترتیب نباید نتایج را تغییر دهد؟ با تشکر چند نکته از بحث با ووبر: * من مقادیر را بر اساس چگالی فضایی هر جسم، سرعت نسبی اجسام، سطح مقطع و حجمی که در آن قرار دارند محاسبه می‌کنم. * به نظر من منطقی بود که این را فرض کنیم زیرا برخورد یک طرفه نیست (برخورد A با B دقیقاً مانند برخورد B با A است). * برخورد در یک مرحله مستقل است اما اگر A در برخورد با یک جسم باشد نمی تواند در برخورد دوم باشد. * سه جسم نمی توانند با هم برخورد کنند. * هنگامی که یک شی در یک برخورد قرار گرفت از جمعیت حذف می شود. * این نیز در یک مدل حجم محدود محاسبه می شود - به عنوان مثال. هر شی در یک حجم معین برای یک مرحله خاص است، اما ممکن است در مرحله بعد در همان حجم باشد یا نباشد. * احتمالات بین A و B و A و C معمولاً در یک مرتبه بزرگی هستند. * شبیه‌سازی برخوردهای متعدد را پیش‌بینی می‌کند، اما از آنجایی که یک شی قرار است پس از وقوع یک برخورد حذف شود، این امر ممکن نیست.
ترتیب غیر مشخص احتمالات در یک مرحله زمانی
58245
من داده های درآمد روزانه از یک کسب و کار کوچک با 6 مکان را دارم. این کسب‌وکار محصولات غذایی را به فروش می‌رساند که از حدود 2 دلار تا 9 دلار متغیر است، عمدتاً به افراد حرفه‌ای. آنها سالانه بیش از یک میلیون دلار فروش دارند و در یک شهر بزرگ آمریکای شمالی (در اطراف مرکز شهر / منطقه تجاری پراکنده شده اند) واقع شده اند. داده های درآمد شامل آنچه در هر مکان در هر روز فروخته می شود. داده های درآمد روزانه شامل مدت زمانی است که یک مکان مشخص در حال کار بوده است. طولانی ترین آنها پنج سال و کوتاهترین آنها دو سال است. چند سوال وجود دارد که می خواهم به آنها پاسخ دهم، به عنوان مثال: 1. فروش چقدر به رویدادهای کلان اقتصادی حساس است؟ 2. آیا فروش الگوهای فصلی دارد؟ 3. چه عوامل/ویژگی هایی بر فروش یک مکان معین تأثیر می گذارند؟ 4. آیا مکان های مختلف الگوهای یکسانی از رشد فروش را نشان می دهند؟ 5. کشش های تقاضای محصولات مختلف چیست؟ 6. چه رویدادهای تعیین شده درون زا رخ داده است که منجر به افزایش فروش شده است؟ (مثلاً یک تبلیغ) در اینجا چند ایده برای پاسخ به سؤالات بالا آورده شده است: 1. ببینید آیا شوک های تقاضای کلان مثبت یا منفی در سری زمانی درآمد روزانه ظاهر می شود. یا یک «رویداد» کلان اقتصادی (مانند کاهش شدید بازار سهام) را تعریف کنید و تغییرات غیرعادی (کاهش) درآمدها را بررسی کنید. 2. به دنبال نوسانات فصلی در اطراف برخی از خط روند فروش باشید. 3. شناسایی تفاوت در ویژگی های بین مکان ها و اجرای رگرسیون های متغیر چندگانه بر روی داده های فروش. به عنوان مثال، یک متغیر ساختگی برای حضور یک اداره دولتی در 100 متری یک مکان معین، یا یک رقیب با مارک مشابه در 100 متر و غیره داشته باشید. سپس این فرضیه را امتحان کنید که هر متغیر دارای ضریب صفر است. (توجه: احتمالاً از این برای پیش‌بینی درآمد آینده یک مکان بالقوه استفاده کنید) 4. «شکل» رشد فروش را بین مکان‌های مختلف مقایسه کنید. 5. تعیین کنید که آیا فروش یک محصول معین پس از افزایش قیمت تغییر می کند یا خیر. این کار را برای هر افزایش قیمت انجام دهید و مراقب باشید که آیا عوامل دیگری ممکن است در تغییر تقاضا نقش داشته باشند یا خیر. 6. برخی از رویداد را تعریف کنید و به دنبال تغییرات در درآمد در اطراف این رویداد باشید. علاوه بر این، گمان می‌کنم بسته به چیزی که از آن استفاده می‌کنم، «پاک کردن» داده‌ها مفید باشد. ممکن است متوجه شوم که یک مکان دارای نرخ اولیه رشد درآمد است که به مراتب بیشتر از سایر مکان‌ها بوده است، اما درست قبل از یک فصل معمولی فروش بالا و همچنین یک رویداد اقتصادی کلان مثبت افتتاح شده است. همین امر در مورد افزایش فروش پس از ارتقاء نیز صدق می کند. من نمی خواهم تغییرات درون زا و برون زا در درآمد را با هم مخلوط کنم. من امیدوار هستم که با توجه به مجموعه داده‌ها، در مورد نتایج معناداری که واقعاً می‌توانم به دست بیاورم، اطلاعاتی دریافت کنم. من از طوفان فکری به ایده هایم رسیده ام و مطمئنم که آنها بسیار ناقص هستند. من به تازگی اقتصاد سال سوم را با مقداری ریاضی و آمار اضافی به پایان رسانده ام. این کار را انجام می دهم زیرا داده ها در دسترس من هستند و می خواهم از برخی از ابزارهایی که آموخته ام (تلاش کنم و) استفاده کنم. **سوالات:** * از نظر شناسایی تفاوت بین مکان ها، آیا شش مکان کم است؟ * به طور کلی به چه دام های آماری برخواهم خورد؟ * آیا نباید این کار را انجام دهم زیرا هیچ چیز معنی‌داری در این داده‌ها وجود ندارد؟ * آیا آزمون‌های آماری وجود دارد که من باید انجام دهم که نتایج معنی‌داری را به همراه داشته باشد (یعنی هر سؤالی که واقعاً بتوانم با توجه به مجموعه داده‌ها به آن پاسخ دهم)؟
تست های آماری بر روی داده های درآمد یک کسب و کار کوچک
22842
من می خواستم نحوه عملکرد دو مدل مختلف (مستقل) را تحت winbugs مقایسه کنم، بنابراین کدی مانند: # احتمال برای (i در 1:sites) { M[i] ~ dpois(lambda) # model 1 M2[i] ~ dpois ایجاد کردم. (lambda2) # مدل 2 برای (j در 1:نمونه) { obs[i, j] <- sum(y[i, j,]) # مدل 1 y[i، j، 1] ~ dbin(p، M[i]) obs[i، j] ~ dbin(p_komb، M[i]) # مدل 2 obs[i، j] ~ dbin(p2، M2 [i]) } } اما منجر به نتایج اشتباه در مدل 2 می شود! اما اگر مدل 2 را جدا کنم: # احتمال برای (i در 1:sites) { M2[i] ~ dpois(lambda2) for (j در 1:sample) { obs[i, j] <- sum(y[i , j,]) obs[i, j] ~ dbin(p2, M2[i]) } } سپس عملکرد خوبی دارد و نتیجه خوبی را برمی‌گرداند! من واقعاً نمی توانم بفهمم که چرا مثال اول باید نتایج متفاوتی را نشان دهد. به نظر می رسد دو مدل ترکیب شده در مثال کاملاً مستقل هستند. ** اشکال WinBUGS؟ آیا ایده ای دارید؟** (فرقی نمی کند که مدل ها را به دو قسمت برای حلقه ها جدا کنم \- نتیجه یکسان است.) من WinBUGS 1.4.3 (اوت 2007) را با پچ imortality نصب کرده ام. در اینجا **کدهای قابل تکرار کامل برای R و بسته R2WinBUGS (با تولید داده)**: ################## سایت‌های تولید داده (vcd) نیاز دارند <- 120 # 60 mean_M <- 16 M <- rpois(sites, mean_M) p <- 0.4 #0.64 نمونه <- 2 # 3 y = rep(NA, sites * نمونه * 2) dim(y) = c(sites, sample, 2) for (i in 1:sites) { # obs[i,] = rbinom(sample, M[i], p) برای (j در 1:نمونه) { y[i,j,1] = rbinom(1, M[i], p) y[i,j,2] = rbinom(1, M[i] - y[i,j,1], p) } } y_sample_total = اعمال (y, c(1, 2), sum) ##################### ###################### # دو مدل با هم - مدل ساده با مدل پیچیده با هم sink(tmp_bugs/model.txt) cat( model { # احتمال برای (i در 1:سایت‌ها) { M[i] ~ dpois(lambda) # model 1 M2[i] ~ dpois(lambda2) # مدل 2 برای (j در 1:نمونه) { obs[i, j ] <- sum(y[i، j،]) # مدل 1 y[i، j، 1] ~ dbin(p، M[i]) obs[i، j] ~ dbin(p_komb، M[i]) # model 2 (ساده) obs[i، j] ~ dbin(p2، M2[i]) } } # پارامتر مشتق شده Mtot <- sum(M[ ]) M2tot <- مجموع(M2[]) # پیشین تاو <- 1/(4 * 4) p <- 1/(1+exp(-logit_p)) logit_p ~ dnorm(0، tau) p2 <- 1/(1+exp(-logit_p2)) logit_p2 ~ dnorm(0، tau) p_komb <- p + (1 - p ) * p lambda ~ dunif(0, 100) lambda2 ~ dunif(0, 100) } ) sink() win.data = list(y = y، نمونه = نمونه، سایت ها = سایت ها) inits = تابع () { list( M = application(y_sample_total, 1, max), M2 = application(y_sample_total ، 1، حداکثر)، logit_p = rnorm(1، 0، 4)، logit_p2 = rnorm(1، 0، 4) ) } params = c(M، M2، p، p2، Mtot، M2tot، lambda، lambda2) #params = c(M2، p2، M2tot، lambda2) ni <- 2500 nt <- 16 nb <- 1000 nc <- 3 date() out1 <- اشکالات(win.data، inits، params، model.txt، nc، ni، nb، nt، bugs.directory = C:/Program Files/WinBUGS14/، working.directory = paste(getwd()، /tmp_bugs/، sep = )، debug = TRUE ) date() ############################ # مدل ساده‌تر خودش sink(tmp_bugs/model.txt) cat( model { # احتمال برای (i در 1:سایت‌ها) { M2[i] ~ dpois(lambda2) برای (j در 1:نمونه) { obs[i، j] <- sum(y[i, j،]) obs[i، j] ~ dbin(p2، M2[i]) } } # پارامتر مشتق شده M2tot <- sum(M2[]) # priors tau <- 1/(4 * 4) p2 <- 1 /(1+exp(-logit_p2)) logit_p2 ~ dnorm(0، tau) lambda2 ~ dunif(0, 100) } ) sink() win.data = list(y = y, sample = sample, sites = sites) inits = function () { list( # M = application(y_sample_total, 1, max) M2 = اعمال (y_sample_total, 1, max)، # N = y_sample_total, # after_removal = y[,,2], # logit_p = rnorm(1, 0, 4), # logit_q = rnorm(1, 0, 4), logit_p2 = rnorm(1, 0, 4) ) } #params = c(M, M2, p ، p2، Mtot، M2tot، lambda، lambda2) پارام = c(M2، p2، M2tot، lambda2) ni <- 2500 nt <- 16 nb <- 1000 nc <- 3 date() out2 <- اشکالات(win.data، inits، params، model.txt، nc، ni, nb, nt, bugs.directory = C:/Program Files/WinBUGS14/, working.directory = paste(getwd()، /tmp_bugs/, sep = ), debug = TRUE ) date() ######################## #### # خلاصه - نتایج مدل ساده (M2، M2tot) بسته به آن متفاوت است
محاسبه همزمان 2 مدل مستقل منجر به نتایج اشتباه در WinBUGS می شود
37832
ما نمونه‌های ورودی را به صورت $Z = X+Y$ مشاهده می‌کنیم، که در آن توزیع $Z$ را می‌توان با هیستوگرام نمونه‌ها تخمین زد و $X,Y$ دو متغیر تصادفی مستقل هستند. یکی از متغیرها به دنبال توزیع نمایی (به عنوان $X \sim Exp(\lambda)$) شناخته شد. من می خواهم پارامتر $X$، $\lambda$ و چگالی احتمال $Y$ را با پارامترهای آن نیز دریافت کنم. چگونه متغیر تصادفی $X+Y$ را تجزیه کنیم؟ علاوه بر این، اگر توزیع X$ ناشناخته باشد چه؟
تجزیه مجموع دو متغیر تصادفی
91037
من می خواهم فاکتور شباهت (مقدار عددی) بین دو متغیر را پیدا کنم. مثال: ردیف 1: 5.1، 3.5، 1.4، 0.2 ردیف 2: 4.9، 3.1، 1.5، 0.1 چگونه فاکتور شباهت بین این دو متغیر را پیدا کنیم؟ همبستگی وجود دارد اما غیر از آن چه گزینه هایی وجود دارد؟ این داده ها از مجموعه داده گل زنبق گرفته شده است. ما در حال انجام برخی خوشه بندی داده ها در این مجموعه داده هستیم. وظیفه ما یافتن/اندازه‌گیری شباهت بین ردیف‌ها بدون استفاده از همبستگی است. بنابراین، به غیر از همبستگی، چه گزینه هایی وجود دارد؟
اندازه گیری شباهت بین دو متغیر
37836
من آزمایشی با یک قالب انجام دادم که در آن تعداد وقوع هر مقدار را شمارش کردم و مقادیر را به عنوان یک عنصر در یک مجموعه مرتبط کردم. به عنوان مثال، این مقادیری است که من هنگام چرخاندن قالب 18 بار دریافت کردم: 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 - 3 وقوع 2 - 3 وقوع 3 - 3 وقوع 4 - 3 وقوع 5 - 3 وقوع 6 - 3 وقوع S = { 1, 2, 3, 4, 5, 6 } E(|S|)=6 مثال دیگر (با یک قالب بایاس متفاوت): 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 - 18 وقوع S = { 1 } E(|S|)=1 چگونه می توانم مقدار مورد انتظار اندازه را بدست بیاورم وقتی احتمال داده نشده است و من فقط مقدار آن را دارم توزیع نمونه؟
استخراج مقدار مورد انتظار از اندازه یک مجموعه
86947
من از libsvm در حالت C-SVC (-s= 0) با هسته خطی (-t=0) استفاده می کنم، و باید چندین SVM را آموزش دهم (من چهار کلاس دارم). مجموعه های آموزشی و آزمایشی من تعداد نمونه ها و ویژگی های یکسانی دارند، آنها 32768 نمونه (ردیف) و 128 ویژگی (ستون) دارند. من از پنج مقدار مختلف C استفاده کردم که عبارتند از: 1، 8، 64، 256، 2048. در طول آموزش، این پیام هشدار را دریافت کردم: هشدار: رسیدن به حداکثر تعداد تکرار بهینه سازی به پایان رسید، ردیف = ****** . مشکل اینجاست: منطقاً می‌دانم که هر بار که مقدار C را افزایش می‌دهم، باید دقت طبقه‌بندی بهتر از قبل شود یا حداقل باید مانند قبل بماند هیچ چیز تغییر نمی‌کند. اما در مورد من: بعد از مقدار C = 256، دقت طبقه بندی بدتر می شود و نمی دانم چرا این نتیجه را گرفتم و چگونه این مشکل را حل کنم. به هر حال، من مجموعه داده ام را مقیاس کردم، اما همان نتیجه را گرفتم.
libsvm_kernel_linear_افزایش مقدار C
30118
من مانند بسیاری از مردم از آزمون معناداری آماری بیزارم. من ترجیح می دهم اهمیت عملی / اندازه اثر را اندازه گیری کنم. مشکل این است که من روش استاندارد را برای انجام این کار نمی شناسم. بسیاری از مردم می گویند که هیچ راه استانداردی برای اندازه گیری اهمیت عملی وجود ندارد -- همه چیز به مشکل بستگی دارد. من کاملا موافقم، اما باید بتوانم از یک فرد معتبر برای حمایت از کاری که انجام می‌دهم استناد کنم. من فکر می‌کنم این دلیلی است که آزمون معنی‌داری آماری بسیار رایج است -- یک روش استاندارد برای انجام آن وجود دارد: p <.05. بنابراین هر کسی می تواند آن را با کمی فکر انجام دهد. راه برای محبوبیت بیشتر تست اهمیت عملی ممکن است اتخاذ رویکردی مشابه باشد. به طور خاص، من اغلب باید ببینم که آیا دو درصد عملاً با یکدیگر متفاوت هستند یا خیر. راه خوبی برای انجام این کار چیست -- چیزی که دارای استناد معتبر است و به راحتی قابل توضیح است؟ نسبت شانس؟ چه نقل قول خوبی برای استفاده از آن برای اندازه گیری اهمیت عملی است؟ در علوم بهداشتی / اجتماعی یک مزیت خواهد بود. با این حال، ارائه نسبت شانس به طور مستقیم دشوار است. ایده هایی در مورد آن؟ یک قدم جلوتر بروید، آستانه خوب «استاندارد» / «جادویی» برای یک OR (یا هر معیاری که دوست دارید) چیست؟ مانند 0.05 برای آزمون معناداری آماری. می دانم، می دانم، بستگی به مشکل دارد. اما آیا استاندارد با استناد خوب وجود دارد؟
اهمیت عملی، به ویژه با درصد: معیار و آستانه استاندارد.
108760
من از nlme در یک مدل ترکیبی استفاده می کنم: Y = a + b + a*b. fm1<-lme(Y ~ a*b، داده = example.ento.mn، تصادفی=~1| Exp/Plant) a و b ثابت هستند. خطای تصادفی: آزمایش/گیاه. این چیزی است که من از جدول anova دریافت کردم: anova(fm1, type=marginal) numDF denDF F-value p-value (Intercept) 1 2334 77499.45 <.0001 Factor A 1 2334 4.07 0.0437 Factor B 1.3937 Factor B 1.3937 : عامل B 1 2334 0.28 0.5968 با این حال، من می خواهم میانگین مربعات را برای هر منبع تغییرات استخراج کنم همانطور که با استفاده از نشانگرهای سوال در جدول زیر نشان داده شده است: منبع تغییرات DF MS Expected-MS F-value p-value Intercept 1 ? خطای A 77499.45 <0.001 فاکتور A 1 ? خطای A 4.07 0.0437 فاکتور B 1 ? خطای B 0.73 0.3922 فاکتور A: فاکتور B 1 ? خطای A 0.28 0.5968 خطای A 2334 ? خطای B 372 مجموع 2339 ? هیچ ایده ای برای کمک به من وجود دارد؟ خیلی ممنونم
چگونه یک جدول ANOVA کامل را از یک مدل ترکیبی در R بدست آوریم؟
27506
من به روش‌های ناپارامتریک برای ایجاد فواصل اطمینان برای یک تخمین‌گر (مثلاً میانگین) با استفاده از نمونه‌های کمی (مثلاً 10) علاقه‌مندم. فکر می‌کنم جایی خوانده‌ام که هموارسازی مقادیر تخمین‌گر بوت استرپ می‌تواند کیفیت فاصله صدک‌های مشتق‌شده را بهبود بخشد. با این حال، من نتوانستم هیچ مرجع آنلاینی پیدا کنم که نحوه تنظیم پهنای باند مرحله هموارسازی را توضیح دهد.
چگونه پهنای باند بوت استرپ صاف شده را برای ایجاد فواصل اطمینان انتخاب کنیم؟
78613
من یک مجموعه داده دارم که شامل تعداد استریا (خطوط) روی دندان ماهی است. من می‌خواهم داده‌هایم را درون ناظر و بین خطای ناظر ارزیابی کنم و مقادیر را با تعداد منتشر شده دندان‌های مشابه مقایسه کنم. من سه ناظر داشتم (الکس، کلر و کیت - به زیر مراجعه کنید) که هر کدام تعداد دندان‌های خود را مکرر می‌شمارند تا تنوع ناظر را ثبت کنند. من همچنین داده ها را از ادبیات جمع آوری کردم (Standard1-3 - زیر را ببینید). من از هر گونه فکری در مورد نحوه برخورد با این موضوع بسیار استقبال می کنم. افکار من: 1) برای خطای درون ناظر، می‌توانم تغییرپذیری را با استفاده از ضریب تغییرات درون موضوعی تعیین کنم. با این حال، این به من اجازه نمی دهد ارزیابی کنم که آیا ناظران خاص دقت قابل توجهی بیشتری نسبت به دیگران دارند یا خیر. 2) برای بین خطای ناظر، من به ایجاد فواصل اطمینان برای میانگین داده های الکس، کلیر و کیت با استفاده از یک راه انداز فکر کردم. این به من امکان می دهد داده های آنها را هم با یکدیگر و هم با 3 استاندارد منتشر شده مقایسه کنم. با این حال، تنها با 2-4 اقدام تکراری، ترکیبات منحصر به فرد کافی برای قابل دوام کردن آن وجود نخواهد داشت. 3) شاید بتوان همه این اهداف را با استفاده از ANOVA اندازه گیری های مکرر (احتمالاً در رتبه های شمارش) برآورده کرد، اما برای من روشن نیست که چگونه به این موضوع نزدیک شوم. dat <- data.frame(fish_specimen = c(USNM235، USNM235، USNM235، AMNH289، BMNH23)، fish_tooth = c(M1، M2، C، P2 ، I1)، Alex1 = c(136، 179، 103، 118، 195)، Alex2 = c(132، 181، 198، 112، 197)، Alex3 = c(125، 176، 105، 116، 191)، Clair1 = c(127، 177، 104، 118، 196)، Clair2 = c(176، ، 109، 122، 199)، Kate1 = c(134، 184، 101، 116، 191)، Kate2 = c(138، 182، 100، 118، 193)، Kate3 = c(140، 176، 106، 121، 197)، Kate04 = c(1 ، 172، 101، 124، 199)، استاندارد1 = c(124، 177، 104، 119، 194)، استاندارد2 = c(135، 178، 102، 125، 198)، استاندارد3 = c(141، 177، 105، 113، 199)
چگونه با داده های شمارش درون و بین خطای ناظر تجزیه و تحلیل کنیم؟
109499
لطفاً یک آزمون غیر پارامتریک مشابه با MANOVA پیشنهاد دهید. من 7 ماده مغذی مصرفی مردان و زنان دارم. چگونه می توانم آزمایش کنم که میزان مصرف آنها برابر است؟
آزمون غیر پارامتریک برای داده های چند متغیره
93731
اجازه دهید $x_1، x_2$ متغیرهای تصادفی باشند که از توزیع های بتا کوتاه شده پیروی می کنند: $$f_{i}\left(x_{i}\right)=\frac{x_{i}^{\alpha_{i}-1}(1-x_{i})^{\beta_{i}- 1}}{\mathrm{B}(a_{i},b_{i};\alpha_{i}،\beta_{i})}$$ برای $a_i\le x_i \le b_i$، و $f_i (x_i) = 0$ در غیر این صورت. در اینجا $\mathrm{B}(a,b;\alpha,\beta)=\int_a^b t^{\alpha-1}(1-t)^{\beta-1}\mathrm{d}t$ است تابع بتای ناقص و $0\le a_i \le b_i \le 1$ برای $i=1,2$. متغیر تصادفی $z = k_1 x_1 + k_2 x_2$ را تعریف کنید، که $k_i$ ثابت های واقعی هستند. **آیا فرمول تقریبی برای توزیع $z$ وجود دارد؟** یک مشکل مرتبط، ترکیب خطی توزیع‌های بتا کامل است (یعنی مورد خاصی که $a_i =0$ و $b_i = 1$ برای همه $ است. i$). مقاله ای که در آن به این موضوع پرداخته می شود [1] است که در آن دو تقریب مورد مطالعه قرار می گیرد. تقریب اول بسیار ساده است و نشان می دهد که $z/\sum_i k_i$ تقریباً یک متغیر تصادفی بتا با میانگین و واریانس برابر با میانگین و واریانس دقیق $z/\sum_i k_i$ است. این یک تقریب بسیار راحت است زیرا محاسبه میانگین و واریانس ترکیب خطی بسیار آسان است و پارامترهای توزیع بتا ($\alpha$، $\beta$) نیز به راحتی از میانگین و واریانس بدست می‌آیند. من هیچ نشریه دیگری در مورد این مشکل پیدا نکردم. به نظر می رسد همین ایده با ترکیب های خطی توزیع های گاما به خوبی کار می کند. یعنی ترکیب خطی متغیرهای تصادفی گاما تقریباً به عنوان متغیر گامای دیگر با میانگین و واریانس ترکیب خطی توزیع می‌شود [2]. **آیا می‌توانیم یک ترکیب خطی از متغیرهای تصادفی_truncated_ Beta (مانند $z$ بالا) را با یک متغیر تصادفی که متناسب با یک متغیر تصادفی بتا با میانگین و واریانس ترکیب خطی است، تقریب بزنیم؟ این تقریب چقدر خوب است؟** [1] Jóhannesson, B., & Giri, N. (1995). در تقریب های مربوط به توزیع بتا. ارتباطات در آمار-شبیه سازی و محاسبات، 24 (2)، 489-503. [2] Stewart, T., Strijbosch, L., Moors, H., & Batenburg, P. van. (2007). یک تقریب ساده برای پیچیدگی توزیع های گاما.
تقریب برای ترکیب خطی متغیرهای بتا کوتاه شده
30110
من یک تغییر از آمار $\chi^2$ پیدا کردم که به این شکل است: $\chi^2 = \sum\limits_{i=1}^N\,\chi_i^2 = \sum\limits_{i =1}^N\,\frac{(\log m_{i}- \log n_{i})^2}{\sigma_{i}^2}$ کجا $\sigma_{i}=1/n_i$، $m_i$ تعداد مدل‌سازی‌شده تعداد در bin $i$ و $n_i$ عدد مشاهده‌شده است (البته هر دو **مثبت و اعداد صحیح** هستند) $log$ لگاریتم اعشاری است. اگر $m_i=0$ یا $n_i=0$، نویسنده مقدار بسیار کمی را برای جلوگیری از ناسازگاری در ارزیابی تابع $log$ در $0 تخصیص می دهد. من درک می کنم که این پارامتر به این معنا که به عوامل $\chi_i$ وزن بیشتری می دهد که $n_i\neq0$; به عنوان مثال: تقریباً فاکتورهای $\chi_i$ را نادیده می‌گیرد که در آن $n_i=0$ (که با یک عدد بسیار کوچک، مثلاً $0.0001$ جایگزین می‌شود) در نتیجه به مدل اجازه می‌دهد تقریباً هر عدد m_i$ را به آن bin اختصاص دهد. اینجا را برای مثال $\chi_i$ وقتی $n_i=0$ (جایگزین شده با $0.0001$) و اینجا را برای مشاهده رفتار $\chi_i$ وقتی $n_i=1$ مشاهده کنید. واضح است که در موردی که $n_i=1$ می بینم، مقادیر $\chi_i$ بسیار بزرگتر از مقادیر بدست آمده با همان پارامتر است که $n_i=0$ (جایگزین شده با $0.0001$) است، من این را به عنوان یک اثبات می بینم. آمار مغرضانه است اینجا درست میگم؟
تغییر مغرضانه آمار $\chi^2$؟
106086
من 1400 مورد (دانشجو) دارم. من می‌خواهم پیش‌بینی کنم که چه کسی وارد دانشگاه می‌شود بر اساس درصد نمرات دروس گرفته شده. نه همه دانش‌آموزان دروس یکسانی شرکت کردند و نه تعداد موضوعات یکسانی. اگر موضوعی را نگرفتند، داده‌های من NA را به عنوان درصد در ستون موضوع دارند، در غیر این صورت من مقداری از 0 تا 100 برای موضوع گرفته شده دارم. چگونه می توانم با تجزیه و تحلیل چند متغیره اقدام کنم، وقتی تعداد دانش آموزان مختلفی وجود دارد که تعداد سوژه های مختلفی را می گذرانند.
تحلیل چند متغیره زمانی که همه پیش‌بینی‌کننده‌ها مربوط به همه موارد نیستند
27502
من متعجب بودم که با نزدیک شدن ابعاد به تعداد نقاط داده آموزشی، چه اتفاقی برای سوگیری و واریانس تخمین‌های GLM می‌افتد؟ به طور خاص در رگرسیون خطی و رگرسیون پواسون؟ من می دانم که برای رگرسیون لجستیک پدیده هاک-دانر وجود دارد که جدایی در داده ها را افزایش می دهد و واریانس در ضرایب رگرسیون برازش را افزایش می دهد. با این حال من با آنالوگ های این پدیده برای رگرسیون خطی و پواسون آشنا نیستم. من مقداری کد R برای رگرسیون خطی نوشته‌ام: genLinear = تابع (n، ابعاد){ بتا = 1 xdata = replicate(dimens,rnorm(n)) ydata = application(xdata,1,sum) + مدل rnorm(n) = lm(ydata~.,data = data.frame(cbind(ydata,xdata))) print(summary(model)) return(model) } و من متوجه شدم که وقتی تعداد پیش‌بینی‌کننده‌ها را به تعداد نقاط داده افزایش می‌دهم، تغییر زیادی ایجاد نمی‌شود. به نظر می رسد که واریانس بیشتری در ضرایب رگرسیون وجود دارد، اما در واقع هیچ سوگیری در ضرایب وجود ندارد. آیا این در مورد رگرسیون پواسون نیز صادق است؟ من فکر کردم که این بحث خوبی در مورد نفرین ابعاد بود اما نتایج نشان داده شده در شکل برخلاف آنچه من می بینم به نظر می رسد. شبیه‌سازی‌های من افزایش واریانس را نشان می‌دهند، اما اصلاً سوگیری ندارند. در حالی که به نظر می رسد نتایج در عناصر یادگیری آماری خلاف این را نشان می دهد. هر گونه کمکی بسیار قدردانی خواهد شد! با تشکر
مدل های خطی تعمیم یافته و نفرین ابعاد
66287
من یک متاآنالیز با 5 RCT انجام دادم که نسبت شانس نرخ رویداد را در بیمارانی که درمان دریافت می‌کنند و دریافت نمی‌کنند اندازه‌گیری می‌کند. P از داده های تلفیقی > 0.05 بود. این نتیجه برای من قابل قبول است. بهترین راه برای مقابله با سوگیری انتشار چیست؟ من در ابتدا از آزمون Begg استفاده کردم، اما این روش برای متاآنالیزها بر اساس تعداد کمی از مطالعات غیرقابل اعتماد شناخته شده است. پیشنهادی دارید؟
متاآنالیز: برخورد با سوگیری با تعداد کمی از مطالعات
37838
من سعی می‌کنم رگرسیون لجستیک را با نرخ یادگیری تصحیح خودکار پیاده‌سازی کنم و از نتیجه آن متحیر هستم. در برخی مواقع هزینه تابع از قبل بزرگتر می شود (برای تمرکز روی برخی اعداد، فرض کنید 628، زمانی که قبلا 78 بود). بنابراین من این مرحله را لغو می کنم و در عین حال میزان یادگیری را از 0.297 به 0.148 کاهش می دهم. و دوباره هزینه را محاسبه می کنم -- این بار 92. بنابراین این مرحله را نیز لغو می کنم و نرخ یادگیری را به 0.074 کاهش می دهم. من یک بار دیگر محاسبات را انجام می دهم و نتیجه 106 است. یک احتمال این است که الگوریتم من در جایی باگ داشته باشد، دیگری این که نرخ یادگیری هدف دیگری دارد - زیرا نمی‌دانم که چگونه کاهش نرخ یادگیری (مرحله) می‌تواند منجر به افزایش هزینه تابع شود. # به روز رسانی گردش کار من به این صورت است: * محاسبه مشتق تابع هزینه * کاهش $ \theta $ (امیدوارم معنی دار باشد) بردار در بالا ضرب در ضریب نرخ یادگیری * محاسبه هزینه و از آنجایی که من تازه شروع کرده ام، 20 مرحله را انجام می دهم. فقط برای تست الگوریتم
آیا نرخ یادگیری در رگرسیون لجستیک معنای بیشتری دارد؟
3158
آیا این نوع نمودار نامی دارد؟ مهمتر از آن، آیا کتابخانه ای وجود دارد که بتوانم از آن برای تولید آن استفاده کنم؟ ![متن جایگزین](http://i.stack.imgur.com/jDQjY.png) http://www.nytimes.com/interactive/2007/12/15/us/politics/DEBATE.html
این نوع تجسم پیوند دایره ای چیست؟
97362
در STAT101 ارزیابی شما بر اساس موارد زیر است: امتحان نهایی 50% یادگیری مبتنی بر ارزیابی آنلاین 30% تکالیف 20% سه متغیر تصادفی $X$, $Y$ و $Z$ را در نظر بگیرید که به ترتیب نشان دهنده آزمون، کل ارزیابی آنلاین و نمرات تکلیف (از 100٪) یک دانش آموز به طور تصادفی انتخاب شده است. فرض کنید که $X$، $Y$ و $Z$ مستقل هستند (این به وضوح درست نیست، اما پاسخ ها ممکن است تقریبی معقول باشند). فرض کنید که تجربه گذشته ویژگی های زیر را برای این آیتم های ارزیابی (هر یک از 100٪) پیشنهاد می کند: $E \ چپ ( X \راست ) = 61$، $sd(X) = 20$، $E(Y) = 72$ ، $sd(Y) = 22$ و $E(Z) =65$، $sd(Z) = 24$. الف) پارامترهای توزیع، $E(T)$ و $Var(T)$ را برای علامت کل، $T$ پیدا کنید، جایی که: $T = 0.5X+0.3Y+0.2Z$.
پارامترهای توزیع را پیدا کنید
33204
در ابتدا می گویم که من چندان با آمار آشنا نیستم. من در حال محاسبه شاخص خشکسالی هستم و مجموعه ای از مقادیر را دارم. گام بعدی در این روش استاندارد کردن مقادیر است تا امکان مقایسه بین مناطق و مقیاس‌های زمانی فراهم شود. مقاله‌ای که این شاخص خشکسالی خاص را ایجاد می‌کند، مجموعه داده‌های آن‌ها را با توزیع لجستیکی مطابقت می‌دهد و از تابع توزیع احتمال برای استاندارد کردن مقادیر استفاده می‌کند. مجموعه داده من از توزیع log-logistic یا هر توزیعی که بتوانم برای آن آزمایش کنم پیروی نمی کند. آیا روشی برای استانداردسازی مقادیری که از توزیع پیروی نمی کنند وجود دارد؟ آنچه من سعی می کنم انجام دهم محاسبه مقادیر شاخص خشکسالی برای استفاده در تلاش برای همبستگی شاخص خشکسالی با تقاضای آب آبیاری است. پیشاپیش ممنون ![هیستوگرام](http://i1252.photobucket.com/albums/hh575/jedmoorhead/HistogramofPD1ssCorn.jpg)
استاندارد کردن یک مجموعه داده غیر عادی
106080
اخیراً درباره خوشه‌بندی سری‌های زمانی زیاد مطالعه کرده‌ام، زیرا می‌خواهم الگوهای مشابهی را در مجموعه داده‌های خودم جستجو کنم. حتی با وجود اینکه احساس می‌کنم مفاهیم اولیه این کار را درک می‌کنم، هنوز وقتی درباره سری‌های زمانی با ابعاد بالا و همچنین چند متغیره صحبت می‌کنم، سردرگم می‌شوم. در حالی که سری های زمانی چند متغیره سری های زمانی با بیش از یک متغیر هستند (به عنوان مثال EEG-داده)، ابعاد بالای یک سری زمانی طول یک سری زمانی معین را توصیف می کند. هنگام محاسبه فاصله بین سری های زمانی، هر دو ویژگی توصیف شده می توانند به اصطلاح نفرین ابعاد منجر شوند، بنابراین کیفیت خوشه های محاسبه شده را به خطر می اندازند. امیدوارم تا اینجا درست باشه؟ لطفا اگر نه دخالت کنید با این وجود، در حالی که روش‌هایی برای مقابله با ابعاد بالا (dwt، dft، ...) و تعداد زیادی متغیر (CLeVer) وجود دارد، من نمی‌توانم روشی را برای انجام هر دو انجام دهم. برای مثال یک dwt در یک سری زمانی چند متغیره. دوستان آیا روشی می شناسید که بتواند این کار را انجام دهد؟ علاوه بر این، من خواندم که بیش از 10 بعد ابعاد بالا در نظر گرفته می شوند و بنابراین نیاز به استفاده از dwt یا dft دارند. با این حال، در این مثال، نویسندگان سری‌های زمانی را با طول 60 نقطه داده خوشه‌بندی می‌کنند و همچنان نتایج قابل اعتمادی دریافت می‌کنند.
کاهش ابعاد بالا و همچنین انتخاب ویژگی در سری های زمانی چند متغیره
94489
من یک سوال کلی دارم که حدس می‌زنم می‌تواند برای بسیاری از دانشمندان علوم اجتماعی که با مجموعه داده‌های تابلویی سروکار دارند، مرتبط باشد. بهترین روش ها برای ایجاد نمودار در مورد اثرات متقابل چیست؟ مقالات مختلفی وجود دارد که در مورد بسته‌هایی مانند ggplot، ggplot2، sjPlot، افکت‌ها و غیره صحبت می‌کنند، اما تا آنجا که من می‌دانم هیچ یک از آنها واقعاً چندین سال و چندین فرد را در نظر نمی‌گیرند. در حوزه مدیریت من، آنچه من اغلب می بینم، بی توجهی کامل به سال و اثرات فردی است، به طوری که یک تعامل برای مثال با یک متغیر x در محور x، یک مقدار ساده در مقابل متغیر متقابل دیگر در متغیر متقابل در محور x قرار می گیرد. البته نمودار و متغیر y روی محور y. سپس تفاوت در شیب نشان می‌دهد که چگونه این اثر متقابل تأثیر متفاوتی بر متغیر y دارد. این بسیار ساده به نظر می رسد زیرا (اگر درست متوجه شده باشم) تقریباً همه چیزهای خاص در مورد داده های پانل را پاک می کند، بنابراین اساساً دلایل اساسی جالب بودن پانل ها برای استنتاج آماری را نادیده می گیرد. بنابراین سوال من از جامعه گسترده تر: چگونه نتایج (و تعاملات) را از داده های پانل ترسیم می کنید. من قدردان پیشنهادات عمومی و کدنویسی هستم :) چند سوال اضافی: 1. وقتی یک دسته از متغیرهای کنترلی دارید، آیا مقادیر مصنوعی را برای همه آنها انتخاب می کنید؟ در مورد زمان و متغیرهای فردی چطور؟ 2. آیا راهی برای ترسیم تفاوت در باقیمانده‌ها بین رگرسیون بدون اثرات متقابل و آنهایی که دارای برهمکنش هستند (مشابه اثرات حاشیه‌ای) وجود دارد که چگونگی تأثیر متغیرهای متقابل بر متغیر وابسته (پاسخ) y را روشن کند؟ 3. در حالی که در مدیریت غیر معمول است، آیا می توانیم برای نشان دادن تعاملات، شکل های 3 بعدی ترسیم کنیم؟ منتظر نظرات و پیشنهادات شما هستیم
نحوه ترسیم افکت‌های تعامل برای داده‌های تابلویی