_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
93061 | من تابع احتمال زیر را دارم:  این اطلاعات در مورد ماتریس $\Omega$ ($\boldsymbol{1) به من داده شده است }$ یک بردار $T \times 1$ از یکها است):  دوست دارم بتوانم نشان دهم که تابع احتمال میتواند به این شکل بازنویسی شود:  فکر میکنم یک اشتباه چاپی در مقاله وجود دارد، بنابراین تصاویر صفحه از مقاله ای که من پیوست کردم اشتباه است، به این معنی که $\Omega^{-1}$ قرار است $$\Omega^{-1}=\frac{1}{\sigma^2_{\varepsilon}+T\sigma^2_{c}}\boldsymbol{1}(\boldsymbol{1}'\boldsymbol{1 })^{-1}\bold نماد{1}'+\frac{1}{\sigma^2_{\varepsilon}}(I_t-\boldsymbol{1}(\boldsymbol{1}'\boldsymbol{1})^{-1}\boldsymbol{ 1}')$$ و نه همانطور که در بالا ذکر شد. تاکنون عبارت $\Omega^{-1}$ را در تابع log- likelihood بالا درج کردهام. با این حال، به خصوص آخرین عبارت تابع log-likelihood بازنویسی شده مرا آزار می دهد، یعنی این بخش: \begin{equation*} \begin{split} ...&+\frac{1}{2}\frac{1} {\sigma^2_{\varepsilon}}\frac{1}{N}\sum_{i=1}^{N} \left(Y_i-\boldsymbol{1}\bar{Y}_i-\left(X_i-\boldsymbol{1}\bar{X}_i\right)\beta\right)'\left(Y_i-\boldsymbol{ 1}\bar{Y}_i-\left(X_i-\boldsymbol{1}\bar{X}_i\right)\beta\right). \end{split} \end{equation*} آیا کسی راه حل را می بیند؟ من هم این لم را دارم، اما مطمئن نیستم که در بازنویسی تابع احتمال استفاده شود یا نه:  | درک اشتقاق برآوردگر ML |
110057 | من از یک MANCOVA مستقل یک طرفه با 4 متغیر وابسته و یک متغیر کمکی استفاده می کنم. پیش بینی من دو متغیره است. من در حال حاضر در تلاش برای آزمایش ناهمگنی رگرسیون در SPSS با ارزیابی تعامل بین متغیر کمکی و پیش بینی هستم. سوال این است که آیا باید تعامل را برای هر متغیر وابسته در یک زمان آزمایش کنم یا برای مدل MANCOVA به عنوان یک کل؟ در ابتدا، تعامل در مدل MANCOVA غیر معنیدار است، در حالی که دو مورد از تعاملات در مقایسههای چندگانه ANCOVA من قابل توجه است. در حال حاضر این من را در یک بن بست قرار می دهد. من معتقدم که فعل و انفعالات متعدد ANCOVA خطای خانوادگی در یافتن ناهمگنی قابل توجه را افزایش می دهد - آیا این فرض درست است؟ از لحاظ نظری، من دلیلی برای استنباط همگنی رگرسیون دارم. | چگونه می توانم همگنی رگرسیون را در MANCOVA آزمایش کنم؟ |
51232 | من تازه شروع به یادگیری رگرسیون کردم، بنابراین پیشینه من خیلی قوی نیست. من باید مشکل خاصی را حل کنم که خیلی سخت به نظر نمی رسد، با این حال در درک آن مشکل دارم. فرض کنید x<-seq(1,50,1), y<-3*x+2+6*rnorm(length(x)) را تعریف کنیم بنابراین پاسخ من $Y$ دقیقا از این نوع است: $Y=X\ beta+\epsilon$، که در آن $\epsilon$ خطا است و به طور معمول توزیع می شود (در اینجا با میانگین 0 و واریانس 1). اکنون باید یک رگرسیون خطی ساده $n$ بار انجام دهیم و شیب $n$ رگرسیون را ذخیره کنیم. reg <-lm(y~x) مقدار واقعی شیب باید $3 باشد، همانطور که فرض می شود. من شیب $n$ را محاسبه کردم و آنها را در بردار $s$ ذخیره کردم. کار بعدی ترسیم یک هیستوگرام از شیب های تخمینی $n$ و اضافه کردن چگالی نرمال توزیع نظری واقعی شیب ها است. مشکل من از اینجا شروع می شود: واضح است که شیب ها به طور معمول توزیع شده اند. بنابراین من باید میانگین و واریانس را محاسبه کنم. نگاهی به مدل: $y_i=\beta_1+x_{i,2}\beta_2 +\epsilon_i$، جایی که $\epsilon_i\sim\mathcal{N}(0,6^2)$. نکته این است که از «حل» برای معکوس یک ماتریس استفاده کنید. من نمی دانم چگونه این باید کمک کند؟ آیا منظور این است که من باید این را محاسبه کنم: $$X^{-1}(Y-\epsilon)=\beta$$ چگونه میانگین و واریانس را از آنجا بدست بیاورم؟ و تفاوت میانگین و انحراف معیار تجربی شیب های برآورد شده چیست؟ پیشاپیش از کمک شما متشکرم | تخمین میزان دقیق رگرسیون خطی |
61145 | با دیدن جدول زیر به این نتیجه رسیدم که در دسته بسیار ناامن پراکندگی زیادی وجود دارد. اولین واکنش من این بود که آن را با دسته ناامن ادغام کردم و من را با 3 دسته باقی گذاشتم. اما گزینه دیگر این است که فقط دسته را حذف کنید. قبل از انتخاب یک گزینه چه ملاحظاتی را باید رعایت کرد؟ همچنین، میخواهم بدانم که آیا نگهداری 2 درجه ایمن و فقط 1 درجه ناامن خوب است؟ به نظر من، هنگام بحث در مورد شانس، چندان منطقی نخواهد بود.  در پاسخ به نیک کاکس ویرایش کنید: فکر میکنم باید دسته را حذف کنم زیرا نتیجهگیریها با انتظارات نظری مطابقت ندارند. به عنوان مثال، فرض بر این است که کسانی که در مناطق شهری بیشتر زندگی می کنند سطوح بیشتری از ترس را تجربه می کنند. و در واقع، احتمال احساس امنیت (در مقابل امنیت) عبارتند از: روستا > شهر کوچک > شهر بزرگ. شانس احساس امنیت (در مقابل ناامن) به همین ترتیب است. اما پس از آن برای ناامن (در مقابل بسیار ناامن) تبدیل به حومه > شهر بزرگ > شهر کوچک می شود که با تئوری و روند قبلی خارج است. میتوانم بگویم، اگرچه شهرنشینی با احساس ناامنی بیشتری همراه میشود، اما زمانی که شهرنشینی آغاز شده به سطوح بالاتر پیش میرود، این احساس درجات شدیدتری پیدا میکند. اما البته، من نمیخواهم چنین نتیجهگیریهایی را گزارش کنم، وقتی این نتیجهگیریها به دلیل پراکندگی دادهها باشد تا واقعیتهای اجتماعی. | ادغام دسته ها یا حذف یکی؟ |
93060 | من دو سوال دارم: 1. _کدام رگرسیون را انتخاب کنم و چرا؟_ بر اساس مقدار مجذور R، رگرسیون نمایی مناسب تر به نظر می رسد. اما من واقعاً مطمئن نیستم که آیا باید فقط با آن همراه شوم زیرا مقدار مربع R بالاتری دارد؟  2. _چگونه اعتبار آن را تایید کنم؟_ فرض کنید که تصمیم گرفتم با رگرسیون خطی (علیرغم مقدار مجذور R کوچکتر آن) اقدام کنم. .) تنها فرآیندی که من دنبال می کنم محاسبه دستی باقیمانده ها و تنظیم یک هیستوگرام برای بررسی اینکه آیا آنها به طور معمول توزیع شده اند یا خیر. و ظاهراً در این مورد مشکلی ندارند. با این حال، نگرانی من این است که برخی از مقادیر (مقادیر دایره ای قرمز) به نظر نمی رسد به خوبی مطابقت داشته باشند زیرا خطای آنها بسیار زیاد است. اما هنوز، من گمان می کنم که آنها ارزش مربع R را تضعیف نمی کنند، زیرا متقارن با یکدیگر هستند. بنابراین احتمالاً یک سوگیری اضافه خواهد کرد؟ بنابراین بهترین راه برای اعتبارسنجی انتخاب رگرسیون من در برابر چنین مواردی چیست (علاوه بر ارزش مربع R بالا و بررسی نرمال بودن). و آیا سوگیری های دیگری وجود دارد که باید به دنبال آنها باشم؟ | انتخاب رگرسیون مناسب و اعتبارسنجی آن |
82278 | آیا میتوانید لطفاً به من بگویید که از کدام تابع/کتابخانه R (نه لزوماً R) برای رسم نتیجه آزمایش Nemenyi با تفاوتهای مهم استفاده کنم؟ در زیر نمونه ای وجود دارد که از این مقاله بازیابی شده است (صفحه 9).  ***مرجع**: BROWN، I. مقایسه تجربی تکنیک های طبقه بندی برای مجموعه داده های امتیازدهی اعتبار نامتعادل با استفاده از SAS® Enterprise Miner™. انجمن جهانی SAS 2012. مقاله 129-2012. دانشگاه ساوتهمپتون، ساوتهمپتون، انگلستان. | نتیجه طرح آزمایش نمنی |
104328 | من مجموعه داده ای از 400 موضوع دارم. برای هر موضوع، من حدود 18 متغیر دارم (V1...V18)، که همه آنها پیوسته و در یک نقطه زمانی اندازه گیری شده اند. مقاله ای که من روی آن کار می کنم از نشان دادن اینکه یکی از آن متغیرها (مثلاً V1) با یکی از سه متغیر دیگر (مثلا V2، V3 یا V4) همبستگی قابل توجهی دارد سود می برد - همه اینها جنبه های مختلف یکسان را می سنجند. بیماری. و من همبستگی های قابل توجهی بین جفت ها پیدا کرده ام (V1-V2، V1-V3، V1-V4). با این حال، من متغیر دیگری دارم، مثلاً V5، که ارتباط قویتری با همه آنها دارد (V1-V4). وقتی V5 را (به صورت خطی) تصحیح می کنم، همبستگی بین V1–(V2/V3/V4) دیگر قابل توجه نیست. بنابراین در این مرحله، هر منتقدی میتواند بگوید که V1 با V5 مرتبط است، V5 با V2/3/4 مرتبط است، و من نمیتوانم نکتهای را که میخواهم بیان کنم. با این حال، دلیلی دارم که باور کنم زیرگروههای افراد (بیشتر مستعد ابتلا به بیماری)، همبستگی قوی بین V1 و V2-4 نشان میدهند که مستقل از V5 است. _آیا راهی برای یافتن این زیرگروه ها وجود دارد؟_ من می خواهم پارتیشن(هایی) را پیدا کنم، A < Vx < B، که در آن ارتباط معنی داری بین V1 و V2/V3/V4 وجود دارد که می توانم نشان دهم مستقل از آن است. V5. از طرف دیگر، اگر راهی برای تعیین کمیت میزان همبستگی بین V1 و V2-4 وجود داشته باشد که به دلیل همبستگی بین V1-V5 و مقدار مستقل است، این نیز راه حل خوبی خواهد بود. من در مورد ANOVA دو طرفه مطالب زیادی خواندهام و به انجام آن بین V1 به عنوان ردیف، V5 به عنوان ستون و یکی از V2-4 به عنوان نتیجه فکر میکنم. اما حتی اگر این کار را انجام دهم (که به تلاش قابل توجهی نیاز دارد، زیرا نتوانستم یک پیاده سازی ساده پایتون پیدا کنم)، مطمئن نیستم که آیا این کار من را به سمت اهدافم پیش می برد یا خیر. هر کمکی قابل تقدیر است. | یافتن زیرمجموعه ای از داده ها که در آن دو متغیر مستقل هستند |
51237 | چگونه است که کاهش تعداد فراوانی، $n$ به $1$ در فرمول for برای جمعیت و واریانس نمونه، تفاوت استفاده از نمونه را به جای جمعیت به حساب می آورد. منظورم این است که چگونه تقسیم کل عبارت بر $n-1$ در واریانس نمونه بهتر از تقسیم بر $n$ است؟ من به فرمول $$s^2=\frac{\sum_{i=1}^{n}({x_i- x_{avg}})^2}{n-1}$$ دقیق تر از $ اشاره می کنم $s^2=\frac{\sum_{i=1}^{n}({x_i- x_{avg}})^2}{n}$$ متشکرم. | واریانس جمعیت و واریانس نمونه |
107564 | من در حال برنامه ریزی برای اجرای همان تست های معیار (یعنی توان عملیاتی، زمان پاسخگویی،...) در 3 محیط هستم: 1) یک دستگاه تلفن همراه، 2) یک ماشین مجازی در VirtualBox، 3) یک ماشین مجازی در Amazon EC2. بهترین راه برای تعریف فرضیه، صفر یا جایگزین در هنگام در نظر گرفتن تفاوتها یا روابط معنیدار بین میانگینهای بهدستآمده از آزمایشها چه میتواند باشد؟ هر توصیه ای پذیرفته می شود | چگونه می توانم یک فرضیه قابل آزمایش برای مقایسه نتایج محک برای آزمایش های مشابه اجرا شده در 3 محیط ایجاد کنم؟ |
92919 | امیدوارم در تاپیک درست پست کنم من نمونه ای از ژن ها را دارم که در آن تعدادی ویژگی را در ابتدای هر ژن و تعدادی ویژگی را در انتهای هر ژن محاسبه می کنم. من نتایج را در 2 منحنی رسم کردم، یکی تعداد ویژگیهای ابتدای هر ژن و دیگری تعداد ویژگیهای انتهای هر ژن با توجه به موقعیت ژن. اکنون میخواهم بدانم آیا نتایجی که به دست آوردم قابل توجه هستند، زیرا میدانم که ۲ منحنی از یک جمعیت ژنها میآیند (تفاوت این است که تعداد ویژگیها در یک مکان ژنها محاسبه نمیشود). بهترین آزمون آماری برای اینکه ببینم آیا نتایج من قابل توجه است چیست؟ پیشاپیش ممنون PS: من این را در مورد خطاهای استاندارد پیدا کردم. آیا فکر می کنید در مورد من، من فقط می توانم از خطاهای استاندارد استفاده کنم و اگر بین 2 منحنی همپوشانی نداشته باشند، می توانم بگویم داده های من قابل توجه هستند؟ http://www.biochemia-medica.com/content/standard- error-meaning-and-interpretation ویرایش: کاری که می خواهم انجام دهم این است که نشان دهم آن منحنی ها را تصادفی به دست نیاوردم. محور y تعداد ویژگی ها و محور x نشان دهنده موقعیت در ژن است. من از همان نمونه ژن ها برای 2 اندازه گیری در 2 منحنی مختلف استفاده کردم. آیا آزمایشی وجود دارد که بتوانم نشان دهم که نتایج من خوب است؟ و در اینجا منحنی های مربوط به نتایج من با خطاهای استاندارد برای هر یک از آنها:  | بهترین آزمون آماری برای نشان دادن اهمیت دو داده از یک جامعه؟ |
105589 | من با R جدید هستم. از بسته plm برای اجرای OLS و جلوه ثابت استفاده می کنم. مجموعه داده های من دارای 130 کشور در طول 33 سال با مقادیر زیادی از دست رفته است. مدل من 9 متغیر مستقل دارد. وقتی مدلهایم را اجرا میکنم، موارد زیر را دریافت میکنم: پانل نامتعادل: n=34، T=1-6، N=61 آیا کسی میتواند این را توضیح دهد؟ آیا به این معنی است که 61 کشور برای تمام 33 سال مشاهداتی از 9 متغیر مستقل دارند؟ من همان سوال را در اینجا دیدم: تفسیر خروجی plm در R - تعداد مشاهدات استفاده شده با پانل بسیار نامتعادل لطفاً اگر می توانید راهنمایی کنید. با تشکر | تعداد مشاهدات در بسته plm، n، T، N |
105055 | من یک مجموعه داده اندازه گیری مکرر دارم که هر موضوع ($N = 32$) با دو تکرار از دو کار در دو سطح اندازه گیری می شود. مقادیر من از ضریب همبستگی $r$ عبارتند از: تکرار اول در مقابل تکرار دوم: 0.6847 سطح 1 در مقابل سطح 2: 0.6930 وظیفه A در مقابل وظیفه B: 0.4081 فرض این است که اولین و دومین تکرار یک کار در یک سطح خاص باید باشد. اندازه گیری های پر سر و صدا از همان چیز. فکر میکنم چیزی که میخواهم بدانم این است که آیا وظیفه A و کار B چیزهای متفاوتی را اندازهگیری میکنند و آیا یک کار در سطح 1 همان چیزی است که یک کار در سطح 2 اندازهگیری میکند. همبستگی با همبستگی وظیفه/سطح متفاوت است. فکر می کنم اولین سوال من این است که آیا این درست است؟ سوال دوم من این است که چگونه ضرایب همبستگی را با طرح اندازه گیری مکرر مقایسه کنم؟ | مقایسه همبستگی های وابسته |
99029 | برای تست تفاوت نظرسنجی ماهانه از کدام تست استفاده کنم؟ اگر بخواهم بدانم نتیجه نظرسنجی ماه آوریل با مارس تفاوت معنی داری دارد، آیا باید از آزمون t مستقل استفاده کنم یا از تست زوجی؟ اگر از آزمون t مستقل استفاده کنم، به نظر می رسد که به جای تغییر در طول زمان، دو گروه از افراد را با هم مقایسه می کنم، اما نمونه ها بین دو نقطه زمانی کاملاً متفاوت هستند. بنابراین، من مطمئن نیستم که از کدام استفاده کنم. Thx!! | نظرسنجی، آزمون تی یا تست زوجی یا موارد دیگر |
61147 | من روی برخی از داده ها با همکاری یک آمارگیر کار کرده ام. از آنجایی که داده ها به طور معمول توزیع نمی شدند، یک تبدیل ورود به سیستم انجام شد. با این حال، برای من توضیح داده شد که به دلیل این تغییر، نمیتوانیم اندازه اثر یافتههای خود را در واحدهای اصلی گزارش کنیم. بنابراین ما به استفاده از درصد متوسل شدیم. من باید دلیل این امر را به زبان ساده برای همکاران (که در زمینه بالینی هستند، نه آماردان) توضیح دهم. آیا کسی پیشنهادی برای انجام این کار دارد؟ | اندازه های اثر داده تبدیل شده |
107569 | فرمول followgin معمولا برای مقایسه دو همبستگی Pearson $r$ استفاده می شود: ! برای مقایسه همبستگی های $\rho$ اسپیرمن و $V$ کرامر استفاده می شود؟ | آیا می توان از فرمول توسعه یافته توسط اولکین و سیوتانی (1964) برای مقایسه همبستگی های $\rho$ اسپیرمن و $V$ کرامر استفاده کرد. |
107567 | من $\boldsymbol{A} = \boldsymbol{G}^H \boldsymbol{G}$ یک ماتریس Wishart است، یعنی $\boldsymbol{G}^H \boldsymbol{G} \sim \mathcal{W}_K (M، \boldsymbol{\Lambda})$ با $\boldsymbol{\Lambda} = \mathrm{diag} (\rho_1، \cdots، \rho_K)$. ($\boldsymbol{G}$ ماتریس $M \times K$ است). ما می دانیم که $\boldsymbol{B} = (\boldsymbol{G}^H \boldsymbol{G})^{-1}$ یک ماتریس Wishart معکوس است. بنابراین چگونه می توانیم انتظار $\boldsymbol{B}$، یعنی $\mathbb{E} \\{\boldsymbol{B}\\}$ را محاسبه کنیم؟ با تشکر | محاسبه انتظار ماتریس Wishart معکوس |
105587 | من باید برای یک مشکل طبقه بندی با ویژگی های عددی مقداری ویژگی را انتخاب کنم. من مطمئن نیستم که از کدام روش انتخاب ویژگی استفاده کنم. آزمون Chisquared یا ضریب همبستگی رتبه Spearmann که کدام یک بهترین خواهد بود. بچه ها پیشنهادی دارید؟ | کدام روش انتخاب ویژگی برای مشکل طبقه بندی استفاده شود |
101505 | من 2 متغیر کاملاً وابسته (هر دو دو جمله ای) در رگرسیون لجستیک دارم که هر دو به صورت جداگانه تخمین های مثبتی را در برابر پاسخ (دوجمله ای) ارائه می دهند. اما اگر با هم مدل شوند، یکی مثبت و دیگری منفی می دهد. من چند خطی را با استفاده از VIF بررسی کردم که خوب به نظر می رسد. دلیل احتمالی چنین رفتاری چه می تواند باشد. | رگرسیون لجستیک درک ماهیت متغیر |
61143 | فرض کنید ما در حال ساختن یک سیستم با ویژگی های خاصی هستیم که به آن علاقه مندیم، به عنوان مثال. زمان پاسخگویی، مصرف باتری و غیره. هر یک از کیفیت های سیستم به تصمیم ما در مورد اجزایی که برای ساختن سیستم استفاده می کنیم بستگی دارد. ما فقط می دانیم که **تصمیمات** چگونه روی **کیفیت*های سیستم ما با عدم قطعیت تأثیر می گذارد، به عنوان مثال. تصمیم به استفاده از ماژول GPS به احتمال زیاد 10 میکروژول اضافی به مصرف باتری ما اضافه می کند، اما می تواند چیزی بین 9 تا 14 میکروژول اضافه کند. آیا مدلسازی این عدم قطعیت با استفاده از توزیعهای احتمال رایج است؟ آیا توزیع بتا در اینجا انتخاب خوبی است؟ یا توزیع مثلثی یا یکنواخت در این مورد معقول تر است؟ در صورت توزیع بتا، چگونه می توانم پارامترهای α و β را تنها با دانستن محتمل ترین و محدودکننده ترین تخمین ها به کار ببرم؟ توجه: دانش من در آمار نسبتاً محدود است. | مدلسازی عدم قطعیت با توزیع احتمال |
9068 | من در محاسبه ضریب همبستگی پیرسون مجموعه دادهها با انحراف معیار احتمالاً صفر مشکل دارم (یعنی همه دادهها مقدار یکسانی دارند). فرض کنید من دو مجموعه داده زیر را دارم: float x[] = {2, 2, 2, 3, 2}; شناور y[] = {2، 2، 2، 2، 2}; ضریب همبستگی r با استفاده از معادله زیر محاسبه می شود: float r = کوواریانس (x, y) / (std_dev(x) * std_dev(y)); با این حال، از آنجایی که تمام دادههای مجموعه داده y دارای یک مقدار هستند، انحراف استاندارد std_dev(y) صفر و r تعریف نشده خواهد بود. آیا راه حلی برای این مشکل وجود دارد؟ یا باید از روش های دیگری برای اندازه گیری رابطه داده ها در این مورد استفاده کنم؟ | همبستگی پیرسون مجموعه داده ها با احتمالاً انحراف معیار صفر؟ |
104326 | من یک ANCOVA را اجرا کردم که ثابت کرد متغیر کمکی قابل توجه است. اگر درست متوجه شده باشم، میانگینهای حاشیهای تخمینی نشان میدهند که وقتی متغیر کمکی را محاسبه میکنیم، میانگین DV چیست. سپس میتوانیم آنها را با میانگینهای آمار توصیفی مقایسه کنیم و ببینیم که تحت تأثیر این متغیر کمکی چه تفاوتی دارند. در مورد من، متغیر کمکی تعهد به برند و DV احتمال خرید است. بنابراین چیزی که به دست میآورم این است که - وقتی ارزش زیادی برای تعهد به برند داشته باشم، میانگین احتمال خرید برای همه شرایط آزمایشی من افزایش مییابد و بالعکس وقتی که تعهدم پایین است. اگر کسی بتواند تأیید کند که مشاهدات من درست است، از آن تشکر می کنم. همچنین، آیا روش خاصی برای گزارش این یعنی «آکادمیکتر» به نظر رسیدن وجود دارد؟ و آیا نکته مهم دیگری برای تفسیر از نتایج ANCOVA، به جز مقادیر f، تخمین پارامترها وجود دارد؟ با تشکر | برآورد میانگین ها و میانگین های حاشیه ای از آمار توصیفی - تفسیر در ANCOVA؟ |
82270 | من مدل خطی زیر را در R اجرا میکنم: lm(فرمول = NA. ~ PC + I(1/SPCI)، داده = DSET) مقدار p برای هر پیشبینیکننده قابلتوجه است، و نسبت به اکثر موارد نسبتاً خوب عمل میکند. مفروضات در رگرسیون خطی، مانند: * توزیع نرمال خطاها. * همبستگی بالا بین مقادیر پیش بینی شده و مقادیر تخمینی. * همسانی. * عدم تطابق بین پیش بینی کننده ها: PC و (1/SPCI) اصلاً همبستگی ندارند! اما، با کنکاش بیشتر در موضوع، یک فرضیه وجود دارد که در مدل من شکست می خورد و می گوید: > خطی بودن رابطه بین متغیرهای وابسته و مستقل. این نوع با فرض غیر هم خطی در تضاد است زیرا، اگر NA. و PC همبستگی بالایی دارند و NA. و (1/SPCI) نیز هستند، سپس PC و (1/SPCI) همبستگی دارند و این فرض عدم هم خطی بودن را نقض میکند. من فکر می کنم که من این فرض را اشتباه متوجه شده ام، یا توضیحی برای این وجود دارد. | خطی بودن بین پیش بینی کننده ها و متغیر وابسته در یک مدل خطی |
49356 | فرض کنید من علاقه مند به انتخاب یک کشور جدید $c_1, \ldots, c_k$ برای زندگی هستم. من برای هر کشور مجموعه ای از 2000 مشاهده (نفر) را می شناسم که هر کدام شامل 20 ویژگی است و برای هر کشور می دانم که آیا پذیرفته شده اند یا رد شده اند. (من همچنین مقادیر خود را برای هر یک از آن ویژگی ها می دانم.) دو سؤال من این است: 1) مطمئن نیستم که توزیع احتمال پذیرش/رد به طور مستقل برای هر کشور را تخمین بزنم یا خیر. انگیزه ترکیب مشاهدات (یا بخشهایی از آن) کشورهای مختلف ممکن است این باشد که کشورها احتمالاً دستورالعملهای مشابهی برای رد کردن دارند (مثلاً برای یک محکوم). 2) با توجه به اندازه آموزش (2000) و تعداد ابعاد (20)، آیا یک مدل افتراقی (رگرسیون لجستیک،...) مناسب خواهد بود یا مقدار داده برای یک مدل تولیدی مانند (Naive Bayes) کافی خواهد بود. یا هر رویکرد دیگری ممکن است درست باشد؟ البته من فقط این مثال را ساختم تا سوالم کمتر انتزاعی شود. | درمان دوگانگی های متعدد ترکیبی؟ |
112182 | برای پایان نامه ام پرسشنامه ای ارسال کردم که 10 سوال دارد. من پیشفرضها را تنظیم کردم: هفت سؤال اول به طور پیشفرض روی پاسخ دلخواه و سه سؤال آخر به طور پیشفرض روی پاسخ نامطلوب تنظیم شده بود. من می خواهم اندازه گیری کنم که آیا افراد با استفاده از SPSS از پیش فرض پیروی می کنند یا خیر. من فکر می کنم باید از آزمون t استفاده کنم، اما این عمدتا برای اندازه گیری تفاوت بین جمعیت ها استفاده می شود، نه بین سؤالات در یک نظرسنجی. آیا کسی ایده ای دارد که چگونه می توانم اگر نمونه من تحت تأثیر پیش فرض قرار گرفت، اندازه گیری کنم؟ نمونهای از چیزی که میخواهم آزمایش کنم این است: دو سؤال مشابه هستند اما پیشفرض متفاوتی دارند، آیا آنها به آنها یکسان پاسخ میدهند یا از پیشفرض پیروی میکنند. | تفاوت در پاسخ ها را در نظرسنجی بسته به گزینه های پاسخ مورد اندازه گیری کنید |
9064 | من کمی در مورد ترفند هسته برای ماشینهای بردار پشتیبان شنیدهام، و میپرسیدم: 1. چگونه مشکلاتی را شناسایی میکنید که ممکن است از ترفند هسته سود ببرند؟ 2. چگونه آن را در R پیاده سازی کنیم؟ متشکرم | پیاده سازی «ترفند هسته» برای یک ماشین بردار پشتیبان در R |
22846 | یکی از اهداف یک نظرسنجی می تواند درک نسبت کاربران مرد به زن باشد. تا حدی که یک جنسیت خاص با موارد استفاده خاص از یک فناوری مرتبط باشد، طراحی محصول، اولویتبندی محصول/ویژگی و بازاریابی میتواند متفاوت مدیریت شود. نظرسنجی از کاربران موجود ذاتاً دارای نوارهای خطا بر اساس حجم نمونه، فراوانی نمونه گیری و غیره است. به عنوان بخشی از یک نظرسنجی جمعیت شناختی که در آن همه زمینه ها مورد نیاز است، یک سوگیری انتخاب اضافی در نظرسنجی معرفی می شود. به طور خاص، اگر نظرسنجی برای 100 کاربر ارسال شود که 50 نفر از آنها پاسخ میدهند، نسبت پاسخدهندگان مرد ممکن است نشان دهنده نسبت 100 مشتری نباشد که در ابتدا مورد بررسی قرار گرفتهاند. با فرض اینکه مجموعهای از نمونههای موجود از مردان و زنان شناخته شده وجود نداشته باشد که به منظور برآورد سوگیری پاسخدهنده نظرسنجی شود، چه رویکردهایی برای جلوگیری یا اصلاح این خطا وجود دارد؟ | چگونه می توان از عدم پاسخگویی نظرسنجی جلوگیری کرد و آن را مدیریت کرد؟ |
2650 | روز بخیر، من دارم با مجموعه داده های پانل کار می کنم، از مدل های زیادی استفاده کرده ام، همگن (اثر ثابت، OLهای جمع شده و دریسکول و کرای) ناهمگن (ضرایب تصادفی شناور) و می خواهم برای انتخاب مدل یک تخمین پس از آن انجام دهم. که بهترین تناسب با رگرسیون من است. آیا روش، دستوری وجود دارد که به من اجازه دهد این کار را انجام دهم؟ هر اشاره ای بسیار قدردانی خواهد شد. آما | داده های پانل و مدل های انتخاب مشکل |
71874 | هنگام مطالعه تحلیل سری زمانی، مثال زیر را خواندم.  من نمی دانم چگونه این فرآیند لغو را درک کنم. بله، می توان آن را مانند فرمول جبری معمولی لغو کرد. اما این z به جای اینکه فقط یک متغیر باشد یک عملگر است. چگونه می توانیم عامل مشترک را مانند آنچه در جبر انجام می دهیم لغو کنیم؟ | عملیات لغو در تحلیل سری زمانی |
20992 | من سعی می کنم بفهمم که چگونه یک رگرسیون لجستیک داده ها را با یک متغیر وابسته 0/1 مدیریت می کند. 95 درصد داده ها یکی هستند. هدف مدل تخمین احتمال قرار گرفتن در یکی از گروه ها می باشد. البته متغیرهای توضیحی متعددی در آن گنجانده شده است. برازش مدل منجر به نتایج نامناسبی میشود، زیرا مدل تقریباً برای هر مشاهداتی پیشبینی میکند که در رده=1 قرار دارد. من وزنه های بسیار ساده ای را امتحان کردم که قبلاً مدل را بهبود بخشید. من به سادگی نسبت را تغییر دادم و فرآیند اتصال را با وزن های مختلف دوباره اجرا کردم. وزن ها نسبت را در متغیر وابسته تغییر دادند (من هیچ فرضی در مورد متغیرهای توضیحی ندارم، بنابراین هر مشاهده در دسته=1 وزن یکسانی دارد) به 50:50، 60:40، 70:30 و 80:20. با اعتماد به برخی معیارهای اعتبارسنجی مانند AIC، شبه R2 های مختلف و جدول طبقه بندی، مدلی با وزن 50:50 بهترین است. (محاسبات این معیارها بیشتر بر اساس احتمال ورود به سیستم مدل مربوطه است. بنابراین بر اساس نمونه های وزنی خواهد بود.) این معیارها احتمالاً کار نمی کنند و شاید برای یافتن روش وزن دهی بهینه نامناسب باشند. ادبیات من به نوعی این نکته را نادیده می گیرد، اگرچه فکر نمی کنم که گروه های بسیار نابرابر در متغیر وابسته وضعیت غیر معمولی باشند. از یکی از همکارانم شنیدم که برای یافتن وزن های بهینه باید از منحنی ROC استفاده کنم. آیا کسی می تواند به یک راه حل سنگ معدن کتاب برای این مشکل مراجعه کند؟ یا می تواند راهنمایی کند که چگونه آن را اداره کند؟ پیشاپیش متشکرم | چگونه می توان رگرسیون لجستیک را با گروه های نابرابر در متغیر وابسته انجام داد؟ |
9062 | من یک جدول احتمالی 2x3 دارم - متغیر ردیف یک عامل است، متغیر ستون یک عامل مرتب شده است (سطح ترتیبی). من می خواهم از تکنیک تداعی متقارن یا نامتقارن استفاده کنم. چه کاری را به من توصیه می کنید؟ کدام تکنیک را مناسب ترین می دانید؟ | اندازه گیری ارتباط برای جدول احتمالی 2x3 |
64546 | من اخیراً داده ها را با استفاده از روش هموارسازی سه گانه H-W پیش بینی کردم که فصلی و روند را در نظر می گیرد. داده هایی که من استفاده کردم داده های هفتگی بود که تعداد تماس های تلفنی دریافتی یک رستوران را نشان می داد. می خواستم حداقل 10 هفته آینده را پیش بینی کنم (با استفاده از داده های 45 هفته). این کد من بود: orders_hw <- HoltWinters(calls) library(forecast) orders_hw_forecast <- forecast.HoltWinters(orders_hw, h = 70) #70 = 70 روز یا 10 هفته نمودار. پیش بینی (orders_hw_forecast) داده هایی که استفاده کردم به شرح زیر است (تماس می گیرد): ساختار <- (c(568, 485 360 523 514 370 332 758 580 613 544 568 394 389 841 685 719 647 615 615 647 594, 551, 354, 317, 731, 721, 819, 662, 581, 436, 394, 779, 770, 793, 763, 619, 412, 427, 85,785,000 429 424 935 805 915 780 685 430 404 797 733 766 747 697 446 334 598 868 894 950 806 826 804 730 541 439 1070 770 989 863 737 525 461 982 925 906 877 921 1010, 786, 787, 499, 410, 1041, 863, 989, 833, 783, 506, 496, 1057, 1031, 983, 897, 783, 492, 497, 783, 492, 24 808, 655, 358, 356, 740, 581, 771, 722, 628, 417, 442, 895, 791, 854, 779, 767, 513, 415, 916,194 561, 552, 988, 982, 857, 289, 515, 337, 403, 895, 879, 702, 778, 721, 515, 572, 912, 873, 875,892,78 1047, 933, 965, 931, 795, 628, 421, 444, 361, 788, 680, 619, 464, 451, 861, 851, 801, 780, 444, 361, 788, 451, 861, 851, 801, 780, 780, 671, 672 1022 905 758 574 516 1045 1107 1177 1068 1044 640 718 755 772 798 817 779 5313 992, 748, 527, 475, 935, 853, 983, 985, 880, 548, 631, 996, 1041, 1184, 1015, 905, 641, 547, 125, 641, 547, 125 1046, 662, 711, 1216, 1370, 1404, 1233, 1464, 973, 587, 980, 1202, 997, 1022, 876, 552, 549, 539, 10 962, 682, 685, 1311, 1289, 1220, 1227, 1105, 758, 667, 1258, 1511, 1509, 1462, 1185, 834, 1227, 1105, 1109 883, 555, 502, 1055, 979, 1048, 938, 825, 519, 351, 574, 983, 989, 1116, 927, 707, 588, 1121, 1010 600, 528, 1052, 1019, 1036, 1154, 1043, 740, 570, 1042, 990, 1149, 1063, 895, 579, 503, 1103, 1103, 1042, 1042 632, 602)، .Tsp = c(1, 7.9777777777778, 45), class = ts) آنچه من از این داده ها متوجه شدم این بود (پس از انجام یک آزمون p برای باقیمانده ها)، مقدار p من '2.2e بود. -16` (`acf(orders_hw_forecast$residuals, lag.max=20)`). بنابراین، من فکر می کنم ممکن است روش بهتری برای پیش بینی داده های بالا (برای تماس) وجود داشته باشد. من مطمئن نیستم که چه نوع تغییراتی می توانم ایجاد کنم تا نتایج دقیق تری داشته باشم. | بهبود روش هموارسازی نمایی سه گانه H-W در R |
107563 | آیا pdf و pmf و cdf اطلاعات یکسانی دارند؟ برای من pdf کل احتمال را به یک نقطه خاص می دهد (در اصل منطقه زیر احتمال). pmf احتمال یک نقطه خاص را می دهد. سی دی اف احتمال را در یک نقطه مشخص می دهد. بنابراین برای من pdf و cdf اطلاعات یکسانی دارند، اما pmf این اطلاعات را ندارد زیرا احتمال یک نقطه x را در توزیع می دهد. | آیا pdf و pmf و cdf اطلاعات یکسانی دارند؟ |
58244 | من یک مجموعه داده شامل دو گروه با 1 متغیر کمکی پیوسته (مقیاس نسبت) دارم. متغیر وابسته یک متغیر count است. توزیع متغیر وابسته به این صورت است:  من فکر می کردم که مدل مناسبی برای تجزیه و تحلیل این مجموعه داده چیست؟ باشد. من سم، دوجمله ای و دوجمله ای منفی را امتحان کردم. برای دوجمله ای منفی، Log Likelihood نزدیک ترین به صفر (یا اگر بخواهید بزرگترین) بود. بنابراین، من فرض میکنم مدل دوجملهای منفی برای دادههای من بهترین است (لطفاً اگر استدلال من اشتباه است، من را اصلاح کنید). **آیا باید مدلی را امتحان کنم که دارای تورم صفر باشد؟** | آیا تورم صفر را در مدل متغیر باینری بر روی متغیر شمارش وارد کنیم؟ |
105588 | پایان نامه روانشناسی من یک تحلیل خوشه ای با یک متغیر گروه بندی خواهد بود. چگونه بفهمم به چند شرکت کننده نیاز دارم؟ من تصور می کنم نباید بیش از 5 خوشه وجود داشته باشد. 79 مورد، 9 ویژگی را تشکیل می دهند که شرکت کنندگان بر روی آنها خوشه بندی می شوند. من متوجه شدم که تجزیه و تحلیل توان بحث برانگیز است زیرا تجزیه و تحلیل خوشه ای استنتاجی نیست. من دیده ام که برای تحلیل عاملی 10 در هر آیتم است، اما به نظر نمی رسد دستورالعملی برای تحلیل خوشه ای پیدا کنم. با تشکر از هر کمک یا بینشی که می توانید ارائه دهید. | حجم نمونه تجزیه و تحلیل خوشه ای برای پیشنهاد دیس |
22843 | بیایید بگوییم که تجزیه و تحلیل PCA من 2 مولفه را استخراج کرد که 80٪ از واریانس را قبل از چرخش توضیح می دهد. سپس مؤلفه ها با استفاده از چرخش مایل (Oblimin مستقیم) چرخانده شدند، بنابراین SPSS نمی تواند محاسبه کند که هر مؤلفه چقدر درصد واریانس را توضیح می دهد. وقتی نمودار را رسم می کنم، معمولاً ویرایشگرها این درصدها را در پرانتز بعد از مؤلفه ها می خواهند. بنابراین من می خواهم درصد نسبی واریانس را برای هر جزء محاسبه کنم. بنابراین اگر دادهها قبل از چرخش به این شکل به نظر میرسند: PC1 60% واریانس را به خود اختصاص میدهد، مقدار ویژه 6.000. PC2 20% واریانس را تشکیل می دهد، مقدار ویژه 2000; کل - 80% واریانس، مقدار ویژه 8000; پس از چرخش: PC1: مقدار ویژه 5000; PC2: مقدار ویژه 4000; * * * آیا می توانم این درصدها را از این طریق محاسبه کنم؟ من انتظار دارم که پس از چرخش، واریانس کل توضیح داده شده توسط هر دو مؤلفه تغییر نکند، بنابراین باید 80٪ باشد. درست میگم؟ در راه حل چرخان نشده، می توانید واریانس توضیح داده شده توسط مؤلفه 2 را به این ترتیب محاسبه کنید: مقدار ویژه مؤلفه 2 / مقدار ویژه کل * درصد کل توضیح داده شده = 2/8 * 80٪ = 20٪ ما همچنین می توانیم محاسبه کنیم که 1000 مقدار ویژه = 10 درصد واریانس می تواند من از این معادله (1000 مقدار ویژه = 10%) برای محاسبه واریانس توضیح داده شده توسط هر مؤلفه بعد از چرخش، بنابراین واریانس توضیح داده شده توسط PC1 پس از چرخش باید 50% باشد (مقدار ویژه = 5 پس 50%) و واریانس توضیح داده شده توسط PC2 پس از چرخش باید 40% باشد (مقدار ویژه = 4 تا 40%)؟ البته در این مورد ما نمیتوانیم واریانس کل را با PC1+PC2 محاسبه کنیم زیرا مؤلفهها همبسته هستند و واریانس کل باید هنوز 80٪ باشد (شاید). من فکر نمی کنم که آنقدر آسان باشد، زیرا SPSS این اعداد را به من می دهد. بنابراین آیا می توانم به نحوی محاسبه کنم (از داده های بالای خط) چند درصد از واریانس توسط PC1 بعد از چرخش مایل توضیح داده می شود؟ با تشکر | آیا می توانم به نحوی واریانس توضیح داده شده توسط PC را پس از چرخش مورب در PCA محاسبه کنم؟ |
49350 | من داده های طبقه بندی شده ای در مورد مقوله های ایستگاه های پلیس علیه جرم و جنایت در جدول احتمالی دو طرفه دارم. من یک نقشه ردیف و ستون نامتقارن از تجزیه و تحلیل مکاتبات با استفاده از XLSTAT دارم. کدام یک از دو نقشه باید برای تفسیر نتایج استفاده شود؟ | نحوه انتخاب دو پلات نامتقارن در تحلیل مکاتبات |
64466 | آیا کسی می تواند به من بگوید چگونه می توانم یک مجموعه داده را برای مقایسه مدل لاجیت و پروبیت شبیه سازی کنم؟ اگر من یک داده از یک توزیع عادی چند متغیره استاندارد را با توجه به 5 متغیر شبیه سازی کنم ، می توانم از یکی از آنها به عنوان متغیر پنهان مداوم استفاده کنم (که برای آن کواریانس غیر صفر را در ماتریس کواریانس می دانم)؟ اگر بتوانم، پس نقطه برش (متغیر پنهان $y^{*}$) برای در نظر گرفتن $Y=1$ و $Y=0$ چه باید باشد. و من به مرجعی نیاز دارم که در آن این آثار کوتاه انجام شود. | چگونه می توانم داده ها را برای مقایسه مدل لاجیت و پروبیت شبیه سازی کنم؟ |
113589 | من تعجب می کنم که اگر من مدیران را در مدل خود قرار ندهم چه تأثیری دارد؟ آیا این با یک سوگیری متغیر حذف شده یکسان است یا متفاوت است؟ برای درک مفهومی این موضوع مشکل دارم. اطلاعات بیشتر: من یک تجزیه و تحلیل GEE برای یک نتیجه باینری برای یک نشریه انجام دادم. متغیرهای مستقل گروه مورد مطالعه و چند متغیر جمعیت شناختی به همراه چند ویژگی دیگر شرکت کنندگان بودند. CI نسبتهای شانس بسیار وسیع بود، اما فکر میکنم به دلیل حجم نمونه کوچک است. یک بازبین نشان داد که باید ناظران را در مدل بگنجانیم تا تغییرپذیری برآوردها را کاهش دهیم. من هرگز در مورد این چیزی نشنیده بودم، بنابراین فکر می کردم که آیا این درست است یا خیر. | حذف ناظم |
107562 | من سعی می کنم یک نمودار کنترل چند متغیره بسازم اما هیچ توضیح خوبی در مورد نحوه انجام این کار پیدا نکردم. با شروع با $x_0$ بخشی از نمونه هایی که در کنترل هستند، $\mu_0$ و $\Sigma_0$ میانگین و ماتریس کوواریانس را محاسبه می کنم. اکنون با دادههای جدید $x_n$، $d= (\bar{x}_n-\mu_0)\Sigma^{-1}(\bar{x}_n-\mu_0)$ را محاسبه میکنم. بعد از این مرحله واقعاً نمی دانم چگونه جلوتر بروم. بهترین پاسخ یک توضیح تئوری و یک کد R یا پایتون خواهد بود. | نمودار کنترل چند متغیره |
95170 | من یک مدل رگرسیونی دارم که هیچ متغیر زمانی ندارد و ترتیب متغیرها و مقادیر آنها هنگام انجام رگرسیون مهم نیست. آیا آزمون های خودهمبستگی مانند دوربین-واتسون هنوز برای این نوع داده ها قابل اجرا هستند؟ | تست همبستگی خودکار روی داده های غیر سری زمانی |
1241 | چه زمانی تمایل دارید از منحنیهای ROC نسبت به برخی تستهای دیگر برای تعیین توانایی پیشبینی برخی از اندازهگیریها در یک نتیجه استفاده کنید؟ هنگام برخورد با نتایج گسسته (زنده/مرده، حال/غایب)، چه چیزی منحنی های ROC را بیشتر یا کمتر از چیزی مانند مربع کای قدرتمند می کند؟ | منحنی های ROC چه چیزی را به شما می گویند که استنتاج سنتی نمی تواند؟ |
33200 | من یک مجموعه داده با یک سوال واضح دارم که میخواهم به آن پاسخ دهم، اما مطمئن نیستم که بهترین رویکرد آماری برای پاسخ به سوالم چیست. در اینجا نمونهای وجود دارد که با ساختار دادههای من مطابقت دارد: فرض کنید ما گروهی متشکل از 200 پزشک داریم که برای آنها 10 معیار کیفیت قابل مقایسه را اندازهگیری میکنیم (مثلاً پایبندی به دستورالعملها)، واحد اندازهگیری درصد پایبندی به معیار است. سوالی که میخواهم بپرسم این است که آیا پزشکان تمایل دارند به طور مداوم به همه معیارها پایبند باشند یا نه، یا اینکه آیا پزشکان پایبندی نابرابر دارند و تمایل دارند در برخی از معیارها عملکرد خوبی داشته باشند، اما سایر اقدامات را ندارند. در حالت ایدهآل، آزمون یا روشی که من استفاده میکنم میتواند اطلاعات معناداری را برای هر فرد به من بدهد. من فکر میکنم که 10 معیار کیفی مجزا را میتوان بهعنوان یک «معیار تکراری» مفهومسازی کرد، زیرا از نظر بالینی بسیار مشابه هستند و من به جز برخی از همبستگیهای درون موضوعی. من ANOVA اندازه گیری های مکرر را برای آزمایش فرضیه صفر که تفاوت معنی داری بین معیارهای کیفیت وجود ندارد، بررسی کردم. اما نگران این هستم که بیش از حد حساس باشد و تقریباً مطمئناً فرضیه صفر را رد میکند و چیز زیادی یاد نخواهم گرفت، به خصوص در سطح پزشک فردی. من میخواهم هر پزشک را به یک صدک برای اندازهگیریها اختصاص دهم و برخی آزمایشهای غیر پارامتریک را انجام دهم، اما از عمق خودم خارج میشوم و به این فکر میکردم که آیا انجمن CrossValidated میتواند به من کمک کند تا در جهت درست راهنمایی کنم. پیشنهادات برای بسته های R نیز قدردانی می شود. با تشکر | چگونه میتوانم «انسجام» درون موضوعی را در مقیاسهای مکرر آزمایش کنم؟ |
82277 | ### پس زمینه من مجموعه داده ای از بیمارانی دارم که در دو بیمارستان مختلف، A و B، عمل شده اند. میخواهم بدانم تعداد غدد لنفاوی چقدر تغییر میکند که **نه** بر اساس جنسیت، سال عمل یا سن بیمار هنگام عمل در نظر گرفته میشود. فرضیه من (فرضیه) این است که هر گونه تنوع اضافی به احتمال زیاد ناشی از آسیب شناس در موسسه است (این در واقع در مطالعه من اندازه گیری نشده است). ### سوال من بهترین راه برای تخمین تنوع در تعداد غدد لنفاوی که بر اساس جنسیت (یک عامل)، سال (یک متغیر پیوسته) یا سن (یک متغیر پیوسته) محاسبه نمیشود، چیست؟ ### تلاش اولیه من برای پاسخ به این سوال یک مدل رگرسیون خطی با استفاده از تعداد گره های لنفاوی به عنوان متغیر پاسخ و جنسیت، سال عمل و سن عمل به عنوان پیش بینی کننده ایجاد کردم. من مطمئن نیستم که چگونه نتایج را برای پاسخ به سوال خاص خود تفسیر کنم. آیا باید به مربع R نگاه کنم؟ اگر چنین است، آیا راهی برای گرفتن فاصله اطمینان برای آن وجود دارد؟ با تشکر از هر کسی که می تواند کمک کند. اگر فکر می کنید که من این راه را اشتباه انجام می دهم، لطفاً به من اطلاع دهید. تماس: lm(فرمول = LN_بازبینی شده ~ جنسیت + عملیات__سال + عملیات__سن، داده = نمونه_داده) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -49.436 -15.280 -0.495 13.450 61.564 ضرایب: برآورد. خطای t مقدار Pr(>|t|) (Intercept) -1.190e+04 1.459e+03 -8.159 9.95e-14 *** جنسیتMALE -5.542e+00 4.685e+00 -1.183 0.239 عملیات_8_e+2900. e-01 8.196 8.01e-14 *** Operation__age -2.524e-01 1.675e-01 -1.507 0.134 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 22.46 در 158 درجه آزادی چندگانه R-squared: 0.2999، R-squad تنظیم شده: 0.28 F آمار: 22.56 در 3 و 158 DF، p-value: 3.268e-12 | تخمین تغییرپذیری در یک متغیر پاسخ که توسط پیش بینی کننده های اندازه گیری شده با استفاده از رگرسیون خطی و R محاسبه نشده است. |
9067 | من در کلاس داده کاوی شرکت می کنم و روی یک پروژه ترمی با استفاده از مجموعه داده BRFSS کار می کنم. من یک مجموعه داده عظیم با 405 ستون و 12000 ردیف دارم. ستون های زیادی وجود دارد که کاملا خالی هستند. من سعی کردم ستون های خالی را با استفاده از SAS، R یا Excel حذف کنم اما کار نمی کند. آیا می توانید روشی برای حذف ستون های خالی یا هر آموزشی که به من در پاک کردن داده ها کمک کند پیشنهاد دهید؟ تعداد زیادی سلول از دست رفته نیز وجود دارد. من از KNIME برای آموزش داده های خود استفاده می کنم و در صورت وجود مقادیر از دست رفته کار نمی کند. چگونه می توانم مقادیر از دست رفته را مدیریت کنم؟ | حذف ستون های خالی از مجموعه داده |
49358 | من سعی می کنم تعیین کنم که چگونه می توان واریانس درون گروهی را برای یک اندازه گیری ترکیبی بر اساس مجموعه ای از نسبت ها (وزنی) بدست آورد. من 50 گروه دارم که بر روی 8 اندازه گیری نسبت مقایسه می شوند، که 4 معیار با وزن 1/5 و 4 معیار با وزن 1/20 وزن شده اند. برای هر گروه یک امتیاز ترکیبی وجود دارد که 8 امتیاز ضرب در اوزان و جمع می شود. اکنون برای استفاده در HLM به واریانس امتیاز ترکیبی هر گروه نیاز دارم. گزارش فناوری RAND قابلیت اطمینان از پروفایل ارائهدهنده یک نمای کلی (و کد SAS) برای معیارهای دوجملهای جداگانه دارد، اما آموزش برای ارزیابی قابلیت اطمینان کامپوزیت، بهویژه با نسبتهای وزنی، ناگهان مبهم میشود. در ص. 31: برای ترکیب وزنی چندین معیار باینری، واریانس نمونه گیری را می توان با ضرب واریانس اندازه گیری های فردی در وزن های مجذور و جمع مولفه ها محاسبه کرد. سؤال اصلی: آیا این بدان معناست که الف) واریانس اندازه گیری فردی (p(1-p))/n) است، زیرا یک نسبت است، و ب) من آن را در وزن مجذور ضرب می کنم، بنابراین ج) وزن شده واریانس برای هر معیار جمع می شود تا مقدار واریانس خطای نهایی برای امتیاز ترکیبی هر گروه ایجاد شود؟ به نظر می رسد این چیزی است که آموزش نشان می دهد. یا برای بدست آوردن مقدار واریانس نهایی باید واریانس جمع شده و وزنی را بر N تقسیم کنید؟ (من آن فرمول را گذرا دیده ام.) یا هیچ کدام مناسب نیستند؟ سوالات مرتبط چگونه واریانس برای این دو موقعیت به دست می آید: 1) اگر کامپوزیت شما یک O/E باشد که E میانگین کلی باشد چه؟ 2) اگر داده های شما پیوسته باشد چه؟ | محاسبات واریانس خطا برای تجزیه و تحلیل قابلیت اطمینان یک متریک ترکیبی در HLM |
61144 | من دانشجوی زیست شناسی هستم. ما بسیاری از آزمایشهای سنجش ایمونوسوربنت مرتبط با آنزیم (ELISA) و تشخیص برادفورد را انجام میدهیم. یک رگرسیون لجستیک 4 پارامتری (مرجع) اغلب برای رگرسیون این داده ها به دنبال این تابع استفاده می شود: $$ F(x) = \left(\frac{A-D}{1+(x/C)^B}\right) + D $$ چگونه می توانم این کار را در `R` انجام دهم؟ من می خواهم مقادیر $A$، $B$، $C$ و $D$ را دریافت کنم و منحنی را رسم کنم. PS. اگر مقداری داده دارم، چگونه می توانم از تابع محاسبه شده $F(x)$ برای بدست آوردن مقدار استفاده کنم؟ منظورم این است که چگونه از data -> F(x) -> value بروم؟ | نحوه انجام رگرسیون 4 پارامتری برای داده های ELISA در R |
113586 | من با بررسی مفروضات یک متغیر پیوسته در مدل خطرات متناسب مشکل دارم. اگر یک متغیر عاملی با سطوح مختلف بود، میتوانم از آزمون لوگرانک استفاده کنم یا بررسی کنم که آیا تبدیلهای log(-log) منحنیهای بقا موازی هستند یا خیر. اما اگر یک متغیر پیوسته باشد چه؟ آیا آن روش هنوز معتبر است؟ آیا تست شوئنفلد راه حلی است؟ | چگونه می توان فرض خطرات متناسب را برای یک متغیر پیوسته ارزیابی کرد |
105058 | من یک نمونه داده عددی با میانگین $\mu$ و انحراف استاندارد $\sigma$ دارم. من معتقدم که این داده دارای توزیع نرمال است که به $[0,1]$ کوتاه شده است. 1. آیا یک فرمول نسبتاً ساده برای تخمین پارامترهای $\mu'، \sigma'$ آن توزیع نرمال کوتاه شده وجود دارد؟ آیا دستور R وجود دارد که این کار را انجام می دهد؟ 2. میدانم که میتوانم $\mu'، \sigma'$ را با اعمال الگوریتم برازش حداکثر احتمال مستقیماً روی دادههایم (مثلاً از طریق fitdistr در R) پیدا کنم. 3. آیا درک خوبی وجود دارد که چقدر رویکرد دقیق تر (2) بیش از رویکرد (1) است؟ فرض کنید حجم نمونه از 10 تا 100 است، $\mu=0.75، $ $\sigma=0.15$. | محاسبه پارامترهای توزیع نرمال کوتاه شده |
25010 | آیا هیچ توزیع غیر یکسانی وجود دارد که تابع تولید لحظه یکسانی داشته باشد؟ | شناسایی توابع مولد لحظه |
105052 | من باید یک ماشین بولتزمن محدود را برای مدلسازی احتمال مشترک متغیرهای طبقهبندی آموزش دهم. برای این کار من یک RBM برنولی را برای داشتن گروههایی از واحدهای سافت مکس در لایه مرئی تطبیق دادم. کد اصلی scikit-learn که من با آن شروع کردم یک RBM برنولی را آموزش می دهد و مقدار شبه احتمال را در هر تکرار آموزشی برای اندازه گیری پیشرفت محاسبه می کند. سوال من این است: **با تغییر تفسیر احتمالی واحدهای مرئی RBM (RBM برنولی به Softmax RBM)، آیا ادامه استفاده از محاسبات شبه درستنمایی مانند قبل صحیح است؟ یا باید به نوعی اصلاح شود؟** از آنجایی که استقلال شرطی بین واحدهای مرئی علیرغم تغییر در تفسیر احتمالی آنها همچنان پابرجاست، من تمایل دارم فکر کنم که استفاده از همان محاسبات شبه درستنمایی اشکالی ندارد. با این حال، من بیشتر یک برنامه نویس هستم و درک نظری من از آمار بسیار ضعیف است، بنابراین توجیه نظری برای این موضوع ندارم. شروع به خواندن مقاله Besag, J. (1975) تحلیل آماری داده های غیر شبکه ای کردم. The Statistician, 24(3), 179-195 که به نظر می رسد یک مرجع استاندارد در مورد شبه احتمال می باشد، اما من همچنین در این فکر بودم که آیا کسی در اینجا می تواند پاسخ ساده تری به من بدهد. با تشکر | شبه احتمال و RBMs |
93734 | من تعداد غازها را در یک پهنه گلی جزر و مدی بیش از 100 روز در زمستان شمارش کردم. من در هر یک از این روزها دو شمارش کردم: یکی در جزر و دیگری در جزر. من می خواهم بدانم که آیا تعداد غازهای موجود در جزر و مد متفاوت است؟ از آنجایی که داده ها دارای انحراف بسیار مثبت هستند، استفاده از تست Wilcoxon مناسب است. با این حال، آیا باید از آزمون مجموع رتبه (آزمون بدون جفت) یا آزمون رتبه امضا شده (آزمون زوجی) استفاده کنم؟ | تست ویلکاکسون جفت یا جفت نشده؟ |
105051 | من باید یک تجزیه و تحلیل جایگشت روی نمونه های نابرابر انجام دهم، یکی (X) با 579 نقطه داده و دیگری (Y) با 1289 نقطه داده. تفاوت آشکاری در داده ها وجود دارد. با این حال، این تفاوت ممکن است به دلیل عدم تعادل بین اندازه نمونه باشد. من باید یک تجزیه و تحلیل جایگشتی را با استفاده از تمام جفتهای ممکن (ترکیب) از این نقاط داده اجرا کنم تا ببینم احتمال واقعی بودن این تفاوتها و عدم وجود مصنوع به دلیل عدم تعادل چقدر است. نتایج باید مقادیر p را به من بدهند تا برای آزمون معناداری تفسیر کنم. من با R بسیار جدید هستم. همچنین، بیشتر هر چیزی که پیدا کردهام، نمونههای جفتی به من میدهد. آیا کسی کد یا پیشنهادی برای انجام این کار دارد؟ با تشکر | تجزیه و تحلیل جایگشت با استفاده از نمونه های نابرابر |
24054 | من یک دسته (حدود 1000) تخمین دارم و قرار است همه آنها تخمین هایی از کشش بلندمدت باشند. کمی بیش از نیمی از اینها با استفاده از روش A و بقیه با استفاده از روش B تخمین زده شده است. در جایی من چیزی شبیه به من فکر می کنم روش B چیزی را بسیار متفاوت از روش A تخمین می زند، زیرا برآوردها بسیار (50-60٪) بیشتر است. . دانش من از آمار قوی تقریباً هیچ است، بنابراین من فقط میانگین و میانه نمونه هر دو نمونه را محاسبه کردم ... و بلافاصله تفاوت را دیدم. روش A بسیار متمرکز است، تفاوت بین میانه و میانگین بسیار کم است، اما نمونه روش B بسیار متفاوت بود. من به این نتیجه رسیدم که نقاط پرت و خطاهای اندازه گیری، نمونه روش B را منحرف می کند، بنابراین حدود 50 مقدار (حدود 15٪) را دور انداختم که با تئوری بسیار ناسازگار بود ... و ناگهان میانگین هر دو نمونه (از جمله CI آنها) بسیار شبیه بود. . نمودار تراکم نیز. (در تلاش برای حذف موارد پرت، به محدوده نمونه A نگاه کردم و تمام نقاط نمونه در B را که خارج از آن بودند حذف کردم.) می خواهم به من بگویید از کجا می توانم برخی از اصول اولیه تخمین قوی میانگین ها را پیدا کنم. اجازه دهید این وضعیت را دقیق تر قضاوت کنم. و برای داشتن چند مرجع. من نیازی به درک عمیق تکنیک های مختلف ندارم، بلکه از طریق یک بررسی جامع از روش شناسی برآورد قوی مطالعه کنید. من آزمون t را برای معنیداری تفاوت میانگین پس از حذف نقاط پرت انجام دادم و p-value 0.0559 (t در حدود 1.9) است، برای نمونههای کامل آمار t در حدود 4.5 بود. اما واقعاً موضوع این نیست، ابزارها می توانند کمی متفاوت باشند، اما همانطور که در بالا گفته شد نباید 50-60٪ متفاوت باشند. و من فکر نمی کنم آنها انجام دهند. | دوره تصادف در برآورد میانگین قوی |
97361 | با استفاده از R: `pamk.best <- pamk(data,k=2:12,criterion=ch)` تخمینی از بهترین تعداد خوشه ها را با استفاده از معیار Calinski-Harabasz برمی گرداند. با این حال، این معیار نمی تواند برای ارزیابی کیفیت خوشه یک استفاده شود. بنابراین، چگونه می توانم بدانم که بهتر است داده ها را به دو گروه تقسیم کنیم یا بدون تغییر نگه داریم؟ | انتخاب بین یک و دو خوشه با استفاده از معیار Calinski-Harabasz |
30111 | آیا راهی برای کالیبراسیون در برابر مجموع کنترل های چند بعدی با استفاده از بسته بررسی وجود دارد؟ من توانسته ام وزن های پس از طبقه بندی را تخمین بزنم، اما اکنون در کالیبراسیون گیر کرده ام. (من یک طراحی خوشهای دارم و نیاز دارم وزنها در هر خوشه ثابت بمانند.) آیا باید همه ترکیبها را دوباره در یک ویژگی جدید رمزگذاری کنم؟ > df <- data.frame(id=c(1,1,1,2,2,3,4,5,5), + h=factor(c(1,1,1,0,0,1, 0،1،1))، + p=factor(c(1,0,1,0,1,0,0,0,1))) > > df id h p 1 1 1 1 2 1 1 0 3 1 1 1 4 2 0 0 5 2 0 1 6 3 1 0 7 4 0 0 8 5 1 0 9 5 1 1 > des <- svydesign(id=~id, data=df) پیام هشدار: در svydesign.default( id = ~id، داده = df) : وزن یا احتمالی ارائه نشده است، با فرض احتمال مساوی > pop <- xtabs(Freq~., data.frame(h=factor(c(0, 1, 0, 1)), + p=factor(c(0, 0, 1, 1)) + Freq=c(40, 35, 25, 10))) > pop p h 0 1 0 40 25 1 35 10 > > ps <- postStratify(des, strata=~h*p, Population=pop) > وزن (ps) [1] 3.333333 11.666667 3.333333 20.000000 25.0000000 [6] 11.6666667 2066610 20.006 3.333333 مستندات و کتاب نظرسنجی Lumley هر دو نحوه انجام این کار را نشان نمی دهند و آیا اصلاً امکان پذیر است. | با استفاده از بسته نظرسنجی نسبت به مجموع جمعیت چند بعدی کالیبره می شود؟ |
113768 | من mvn را با استفاده از بسته mclust در R با استفاده از کدهای زیر اجرا کردم: mvn(EEE, data[,18:22], prior = NULL, warn= NULL) من در فهمیدن اینکه چگونه بفهمم آیا مشکل دارم نتایج نشان دهنده برازش نرمال چند متغیره است. نتایج زیر است: $n [1] 707 $d [1] 5 $G [1] 1 $parameters $parameters$pro [1] 1 $parameters$mean [,1] V18 2.993399 V19 3.775578 V20 3.790193 V220193 V2201 2. 3.235266 $parameters$variance $parameters$variance$modelName [1] XXX $parameters$variance$d [1] 5 $parameters$variance$G [1] 1 $parameters$variance$Sigma V18 V19 V20 V21 V22 V18 1.114839 0.046114371 0.021088813 0.094512987 -0.03160755 V19 -0.04611437 0.604042865 -0.001037869 0.001748973 0.13820450480 -0.001037869 0.511536706 0.112759387 -0.17223313 V21 0.09451299 0.001748973 0.112759387 0.5424514932 0.542451293 -0.03160755 0.138450479 -0.172233126 -0.131874937 0.81860855 $parameters$variance$cholSigma [,1] [,2] [,3] [,4] [,5] [.4] [,5] [1,4] 0.0199731239 0.089512842 -0.02993537 [2،] 0.00000 0.77597383 -0.0002133427 0.007292026 0.1767360000000000. -0.7149389730 -0.155220369 0.24001701 [4،] 0.00000 0.00000000 0.0000000000 0.714349947 -0.13050]0.1305000000000000000. 0.0000000000 0.000000000 0.84370373 $parameters$variance$sigma , 1 V18 V19 V20 V21 V22 V18 1.11483935 -0.04611413710 -0.04611413710 0.094512987 -0.03160755 V19 -0.04611437 0.604042865 -0.001037869 0.001748973 0.13845048 V20 0.013 - 0.021080888 0.511536706 0.112759387 -0.17223313 V21 0.09451299 0.001748973 0.112759387 0.542454933 -0.131823313 V21 -0.131827494 0.138450479 -0.172233126 -0.131874937 0.81860855 $loglik [1] -4279.837 attr(ReturnCode) [1] 0 | در تفسیر نتایج R، آیا داده ها چند متغیره نرمال هستند؟ |
30116 | من به نوعی شنیده ام که سکه های معمولی دقیقاً منصفانه نیستند. آزمایشی که خیلی پیش انجام شد و آزمایشی که اخیراً انجام شد، میتواند فرضیه صفر p=1/2 را پس از شاید صدها هزار پرتاب سکه رد کند! و من شنیدم که احتمال تاس هم منصفانه نیست. دلیل واضح این است که علامت نقطه ای که در تاس حک شده است باعث عدم تعادل وزن می شود. من کنجکاو هستم که آیا کسی مرجع آزمایشاتی را که در بالا ذکر کردم می داند؟ | احتمال سر در پرتاب سکه دقیقا 1/2 نیست! |
56174 | من سعی می کنم از «lqmm» برای جا دادن برخی مدل ها استفاده کنم و به نظر می رسد که با داده های من خوب کار می کند (N 2000 w/clusters=1200). من از تماسی مانند این استفاده می کنم: lqmm (y~x + متغیرهای کمکی، تصادفی=~1، گروه=subjectID، iota=c(0.25، 0.50، 0.75)،...) با این حال، هر بار این خطاهای بهینه سازی را دریافت می کنم : پیام هشدار: در error Handling (OPTIMIZATION$low_loop، low، control$LP_max_iter، : Lower حلقه در lqmm همگرا نشد. سعی کنید حداکثر تعداد تکرارها (500) را افزایش دهید هشدار همچنین، هنگام تلاش برای به دست آوردن خلاصه (شیء)، زمان بسیار زیادی طول می کشد (3090 ثانیه برای کسی که کار می کند). قبلاً با این مشکلات روبرو شده اید و می خواهید ایده هایی در مورد چگونگی انجام این کار به اشتراک بگذارید؟ | مشکل با lqmm زمان بسیار طولانی برای اجرا و مشکلات مربوط به رسیدگی به خطا |
24055 | مدل اسپرت هست من سعی می کنم بر اساس اطلاعات موجود قبل از آن فصل، درصد برد هر تیم در فصل بعد را پیش بینی کنم. من حدود 240 مشاهده از تعداد بردها در فصول مختلف برای تیم های مختلف به همراه مقادیر مربوط به پیش بینی کننده های احتمالی دارم. من میخواهم با استفاده از این دادهها یک مدل رگرسیون چند خطی بسازم و میخواهم موفقیت یا عدم موفقیت هر مدلی را که به آن میرسم با نشان دادن اینکه چگونه پیشبینیهای مدل من با پیشبینیهای یک «متخصص» در یکی دو فصل اخیر مقایسه میشود، نشان دهم. . در مدل من، 4 پیش بینی کننده بالقوه X1، X2، X3، X4 دارم. دو مورد از آنها، مثلاً X1 و X2، تقریبهای معقول پیشینی از متغیر هدف هستند، اگرچه با مفروضات متفاوتی به دست آمدهاند، بنابراین من انتظار داشتم و دریافتم که همبستگی بالایی دارند. من برخی از چند خطی را خواندهام، بنابراین میدانم که وقتی کسی سعی میکند آنها را در یک مدل قرار دهد، مشکلات مختلفی ایجاد میکند. برای من منطقی است که مدلی که شامل X1، X3، و X4 و مدلی که شامل X2، X3 و X4 می شود بهترین باشد، با فرض اینکه X3 و X4 قابل توجه هستند و غیره، اما این نیز کمی غیر سیستماتیک به نظر می رسد. /خودسرانه نمیدانم که آیا میتوانید در مورد انتخاب مدل در این شرایط، روشهای ممکن برای استفاده، و غیره توصیههایی ارائه کنید. بهویژه، من در مورد اینکه راه مناسب برای پارتیشنبندی دادهها چیست گیج شدهام. بدیهی است که اگر بخواهم مدل را در فصل اخیر نشان دهم، باید آن فصل اخیر را از داده هایی که مدل را بر روی آن آموزش می دهم حذف کنم. اما آیا باید برخی از داده ها را نیز برای اعتبار سنجی کنار بگذارم؟ همانطور که احتمالاً می توانید بگویید، من تازه وارد مدلینگ هستم. ویرایش: جزئیات بیشتر، با توجه به پاسخ رولاندو: X1 درصد برد آن تیم در فصل قبل است، در حالی که X2 تخمینی از درصد برد فصل بعد بر اساس حل فرمول MP/MW برای درصد برد و با فرض MP/MW بعدی است. فصل مشابه فصل قبل خواهد بود. بنابراین یک برآورد مبتنی بر فرض تداوم درصد برد از یک فصل به فصل دیگر است و دیگری بر اساس فرض تداوم این کمیت MP/MW از یک فصل به فصل دیگر، جایی که MP/MW اساساً قرار است تخمینی از کارایی سازمان تیم باشد. یک سوال دیگر: فرض کنید شما یک متغیر هدف Y و تعدادی متغیر پیشبینیکننده X1، ...، Xn دارید که قبلاً پیشبینیهای Y هستند، منطقی است فکر کنیم که میتوانیم این پیشبینیها را جمع کنیم تا به برآورد بهتری از Y برسیم. چند روش ساده برای انجام این کار چیست که باید در مورد آنها مطالعه کنم؟ با تشکر | کمک به انتخاب مدل رگرسیون چند خطی |
62678 | من یک مشکل رگرسیون دارم که در R با استفاده از حلقه for پیاده سازی می کنم. اساسا، من یک معادله (در نتیجه یک روش طولانی) به عنوان تابعی از دما، با پنج پارامتر مجهول دارم. من 12 دمای مختلف دارم که می توانم از آنها برای هدایت معادلات استفاده کنم، بنابراین برای هر ترکیبی از پنج پارامتر، می توانم 12 نقطه داشته باشم. 12 نقطه در واقع از دو پاره خطی که در یک نقطه معین عبور می کنند، مشتق شده اند. بسته به مقادیر پنج پارامتر ناشناخته، دو بخش می توانند در هر جایی اجرا شوند. با پارامترهای مناسب امیدوارم که دو بخش یک خط مستقیم را تشکیل دهند. برای این منظور، من باید یک رگرسیون خطی روی این نقاط اجرا کنم، و سپس در کل ترکیب پنج پارامتر، باید یک مجموعه از پارامترها را پیدا کنم که منجر به حداقل مجموع مربعات باقیمانده شود. مشکل این است که ساعت ها طول می کشد تا پارامترها با وضوح خوب حل شوند (by=0.05 به جای by=0.5 در مثال زیر). آیا راهی برای حل سریعتر این مشکل وجود دارد؟ من فکر می کنم شیب نزولی می تواند این کار را سریعتر انجام دهد، اما نمی دانم چگونه آن را فرموله کنم. هر گونه پیشنهاد بسیار قدردانی خواهد شد. کد اینجاست: A1 = 1.25 A2 = 0.01136 A3 = -0.0433 a = seq(0,1,by=0.5) b = seq(0,1,by=0.5) c = seq(-3,3,by= 0.5) d = seq(0،1،by=0.5) e = seq(-3،3،by=0.5) Temp_F = c(28.99، 36.87، 42.92، 52.84، 58.31، 67.60، 76.17، 70.20، 63.26، 53.05، 39.28، 35.35) df <- expand.grid=c,b=a =e) nrow(df) برای (i در 1:nrow(df) ) { X.points = df$a[i]*A1 - (A2*df$b[i]*Temp_F) - df$c[i] + ( A3*df$d[i]*Temp_F) + df$e[i] glm.X = glm(X.points ~ Temp_F) df$res[i]=sum(residuals(glm.X)^2) } write.csv(df, file=df.csv) index=which(df$res == min(df$res[df$ res > 0])) df$a[index] df$b[index] df$c[index] df$d[index] df$e[index] | حلقه رگرسیون در R |
48152 | داشتن تابلوی امتیازات امتیاز روز 1 1000 روز 2 1050 روز 3 1010 روز 4 1010 روز 5 1030 چگونه میانگین امتیازات تغییرات را محاسبه کنیم؟ یعنی به طور متوسط یک فرد در روز چند امتیاز کسب می کند یا از دست می دهد. این باید یک چیز واقعا ساده باشد. با این حال، نمی توانم بفهمم. | میانگین نقاط تغییرات |
107693 | من یک رگرسیون Ridge با حدود 1200 پارامتر (و حدود 30000 نقطه داده) اجرا می کنم. متوجه شدم که برای برخی از مقادیر برجستگی، وزن ها فراتر از یک نقطه خاص، از نظر کیفی متفاوت به نظر می رسند. به طور خاص، مقادیر بالاتر برای پارامتر رج، وزن هایی را به دست می دهد که به وضوح دارای نوعی ساختار هستند، در حالی که در برخی موارد تقریباً شبیه نویز سفید به نظر می رسند. در این مورد، به دلیل ویژگیهایی که من استفاده میکنم، انتظار دارم وزنها ساختار قبلی را داشته باشند، اما اعتبارسنجی متقابل اغلب پارامتری را انتخاب میکند که وزنها برای آن کاملاً نویز به نظر میرسند. به نظر من پارامتر رج فقط باید توزیع نسبی وزن ها را تغییر دهد، اما تفاوت های کیفی آنها را تغییر نمی دهد. من اینجا اشتباه می کنم؟ | آیا پارامتر رج باید وزن ها را از نظر کیفی تغییر دهد؟ |
76971 | من 3 متغیر حاوی 1 تا 5 رای به عنوان پاسخ های شاخص عملکرد کلیدی (kpi) به نظرسنجی مشتری دارم. با استفاده از RapidMiner و رگرسیون لجستیک متوجه شدم که آنها به طور ملایمی یک رویداد منفی خاص را پیش بینی می کنند. من همچنین فراوانی این رویداد را برای هر رأی تجزیه و تحلیل کردم: پاسخ دهندگانی که در سؤال اول 1 (امتیاز پایین) را انتخاب می کنند، در مقایسه با کسانی که بالاترین رای (5) را انتخاب کرده اند، 4 برابر احتمال بازگشت رویداد منفی را دارند. من می خواهم یک مدل ساده را به کار ببرم که به هر رأی وزنی می دهد، بنابراین با ترکیب هر 3 پاسخ می توانم یک شاخص پیش بینی برای آن رویداد خاص به دست بیاورم. | ساخت یک شاخص پیش بینی بر اساس 3 متغیر مستقل |
30114 | زمانی که ما علاقه مند به پیش بینی مقادیر بزرگتر توزیع حاشیه ای (دم) هستیم، روش مناسبی برای بهبود کارایی ضرایب رگرسیون چیست؟ به عنوان مثال، ما می خواهیم امواج لرزه ای را بر اساس تعدادی متغیرهای کمکی ثبت شده توسط کاوشگرهایمان پیش بینی کنیم. با توجه به اینکه اکثر زمین لرزه ها پس از رسیدن به آستانه متغیرهای کمکی خاص، به طور ناگهانی ایجاد می شوند، نمی توان داده ها را به شدت خطی فرض کرد. اکثریت قریب به اتفاق مشاهدات مضر در نظر گرفته نمی شوند و باید در تجزیه و تحلیل ما کم وزن شوند. آنچه ما واقعاً علاقه مند به برآورد آن هستیم، نتایج شدیدتر است. [افکار...] حداقل مربعات وزنی به ذهن می رسد، اما وزن ها چگونه باید محاسبه شوند؟ آیا رگرسیون چندک با مثلاً $\tau = [0.2, 0,8]$ رویکرد بهتری است؟ [/افکار] | بهینه سازی ضرایب رگرسیون برای پیش بینی بزرگترین نتایج |
78619 | نمیدانم آیا کسی میتواند به من در تفسیر «نمرات z» (%IncMSE) در رویکرد جنگل تصادفی کمک کند. من از یک کتابخانه randomForest در R استفاده می کنم. به طور خاص، مطمئن نیستم که آیا علامت امتیاز (-/+) را می توان احتمالاً به عنوان جهتی از تأثیر یک پیش بینی کننده بر متغیر نتیجه تفسیر کرد؟ | جهت نمرات z در جنگل تصادفی |
31249 | آیا کسی می تواند با مثال های ممکن برای من خلاصه کند که در چه شرایطی افزایش داده های آموزشی سیستم کلی را بهبود می بخشد؟ چه زمانی متوجه میشویم که افزودن دادههای آموزشی بیشتر احتمالاً میتواند دادهها را بیش از حد برازش کند و دقت خوبی در دادههای آزمایشی ایجاد نکند؟ این یک سوال بسیار غیر اختصاصی است، اما اگر میخواهید به آن در یک موقعیت خاص پاسخ دهید، لطفاً این کار را انجام دهید. | افزایش داده های آموزشی چه تاثیری بر دقت کلی سیستم دارد؟ |
64469 | اگر یک نمونه کوچک مانند چارچوب استاندارد برای مدلهای خطی را متناسب کنید. آیا از باقیمانده ها، ساختار همبستگی خاصی مانند تقارن مرکب یا خودرگرسیون مرتبه اول را پیشنهاد می کنید؟ Y<-data.frame(response=c(10,19,27,28,9,13,25,29,4,10,20,18,5,6,12,17), treat=factor(rep( 1:4،4))، موضوع = عامل (تکرار (1:4، هر = 4)) ) مناسب <-lm (پاسخ ~-1+ درمان، Y) | حدس زدن ساختار همبستگی یک مدل ترکیبی |
71871 | با کنار گذاشتن مسئله آشکار قدرت کم مربع کای در این نوع شرایط، آزمایش خوب مربع کای را برای مقداری چگالی با پارامترهای نامشخص، با ترکیب داده ها، تصور کنید. برای مشخص بودن، بیایید یک توزیع نمایی با میانگین مجهول و اندازه نمونه مثلاً 100 فرض کنیم. برای به دست آوردن تعداد معقولی از مشاهدات مورد انتظار در هر سطل، باید حسابی از داده ها در نظر گرفته شود (به عنوان مثال اگر ما 6 سطل را انتخاب کنیم. زیر میانگین و 4 بالای آن، که همچنان از مرزهای bin مبتنی بر داده استفاده می کند). اما این استفاده از سطلها بر اساس مشاهده دادهها احتمالاً بر توزیع آمار آزمون در زیر صفر تأثیر میگذارد. من بحث های زیادی در مورد این واقعیت دیده ام که - اگر پارامترها با حداکثر احتمال از داده های _binned_ تخمین زده می شوند - شما 1 d.f را به ازای هر پارامتر تخمینی از دست می دهید (مسئله ای که دقیقاً به Fisher vs Karl Pearson بازمی گردد) - اما من به خاطر نمی آورم. خواندن هر چیزی در مورد یافتن خود مرزهای سطل بر اساس داده ها. (اگر آنها را از روی داده های unbinned تخمین بزنید، پس با $k$ bins توزیع آمار آزمون جایی بین $\chi^2_{k}$ و $\chi^2_{k-p}$ قرار دارد.) انتخاب سطل های مبتنی بر داده بر سطح اهمیت یا قدرت تأثیر می گذارد؟ آیا رویکردهایی وجود دارند که اهمیت بیشتری نسبت به سایرین دارند؟ اگر تأثیر زیادی وجود داشته باشد، آیا این چیزی است که در نمونه های بزرگ از بین می رود؟ اگر تأثیر اساسی داشته باشد، به نظر میرسد که استفاده از آزمون کایدو زمانی که پارامترها در بسیاری از موارد ناشناخته هستند تقریباً بیفایده است (علیرغم اینکه هنوز در چند متن از آن حمایت میشود)، مگر اینکه شما یک آزمون خوب داشته باشید. تخمین قبلی پارامتر بحث در مورد موضوعات یا اشاره به مراجع (ترجیحاً با ذکر نتیجه گیری آنها) مفید خواهد بود. * * * ویرایش، تقریباً به کناری از سؤال اصلی: به ذهنم میرسد که راهحلهای بالقوهای برای مورد خاص نمایی* وجود دارد (و یکنواخت به آن فکر میکند)، اما من همچنان به موارد بیشتر علاقه دارم. موضوع کلی تاثیر انتخاب مرزهای بن. * برای مثال، برای نمایی، میتوان از کوچکترین مشاهدات (مثلاً برابر با $m$) استفاده کرد تا یک ایده بسیار تقریبی از محل قرار دادن سطلها بدست آورد (زیرا کوچکترین مشاهده نمایی با میانگین $\mu/n است. $)، و سپس تفاوت n-1$ باقیمانده ($x_i - m$) را برای نمایی آزمایش کنید. البته ممکن است تخمین بسیار ضعیفی از $\mu$، و در نتیجه انتخابهای bin ضعیف به دست بیاورد، اگرچه من تصور میکنم که ممکن است از آرگومان به صورت بازگشتی استفاده کنیم تا از بین دو یا سه مشاهدات پایینتر، بنهای معقول را انتخاب کنیم و سپس آن را آزمایش کنیم. تفاوت مشاهدات باقی مانده بالاتر از بزرگترین آمار کوچکترین ترتیب برای نمایی) | تأثیر مرزهای سطل مبتنی بر داده بر آزمون نیکویی فیت کای دو؟ |
51235 | من یک چارچوب داده در R دارم که شامل چهار متغیر است. من یک PCA را اجرا کردم که نشان داد دو جزء اصلی اول بیشتر واریانس دادههای من را توضیح میدهند. من می دانم که اجزای اصلی ترکیب خطی متغیرهای اصلی هستند. حال چگونه می توانم بفهمم که کدام ترکیب (های) از متغیرهای اصلی من باعث ایجاد این رایانه های شخصی می شود؟ با تشکر | اهمیت متغیرهای اصلی بعد از PCA |
64461 | در یک نظرسنجی از اندازه گیری عدم قطعیت به عنوان متغیر وابسته کلیدی استفاده کردم و پس از اجرای اندازه گیری در 2 موج نظرسنجی خود، اندازه گیری بهتری پیدا کردم و این اندازه گیری جدید اعتبار درونی بهتری دارد و از نظر تئوری مناسب تر است. من هنوز 2 موج نظرسنجی برای ارسال دارم و می خواهم اندازه گیری جدید را اضافه کنم. چگونه به تجزیه و تحلیل ادامه دهیم؟ من احتمالاً 2 موج داده با معیارهای قدیمی و 2 موج با معیارهای قدیمی و جدید خواهم داشت. امواج دادهها فقط دستهای از نمونهگیری هستند، اما به نظر میرسد که هر 4 موج برای داشتن اندازه نمونهگیری به اندازه کافی لازم است. ممنونم!! | اندازه گیری بهتری پیدا کردید - با اندازه گیری قدیمی/جدید (هر دو شکل دهنده) چه باید کرد؟ |
105582 | من در استفاده از مدل های ترکیبی خطی تازه کار هستم و از هر کمکی که می توانم دریافت کنم بسیار قدردانی خواهم کرد. من یک معادله به شکل $ y = X\beta + Zu + \epsilon$ دارم که در آن $u$ یک اثر تصادفی است که ماتریس کوواریانس آن میخواهم مضرب ماتریس هویت باشد. ماتریس $Z$ من حدود 1000 ستون دارد. مشکل اینجاست که من فقط یک گروه دارم، یعنی مشاهدههای متعددی برای هر نفر ندارم، و فکر میکنم «لمر» این را دوست ندارد. به عنوان مثال، در حالت ساده، اگر چیزی مانند `lmer` $({\rm height} \sim 1 + (0+Z_1|ID) + (0+Z_2|ID))$ را قرار دهم که در آن $Z_1$ و $ Z_2$ 2 ستون $Z$ هستند و $ID$ **شناسه منحصربفرد برای هر فرد است** lmer خطایی را نشان می دهد که می گوید باید تعداد گروه ها کمتر از تعداد مشاهدات باشد (مشکل مشابه اگر همه افراد متعلق به یک گروه را تنظیم کنم رخ می دهد). من با «lme» موفقیت نسبی داشتم (در بسته «name») که در آن میتوانم ساختار کوواریانس $u$ را مانند «pdDiag» ارائه کنم، و بسته به یک گروه اجازه میدهد. مشکل اینجا بود که با مشکلات حافظه مواجه شدم و زمان خیلی طولانی بود. از آنجایی که «lmer» از روشهای ماتریس پراکنده زیادی استفاده میکند، حدس میزنم انعطافپذیری من در **ساختار کوواریانس** بسیار کمتر خواهد بود. همانطور که گفته شد، به نظر می رسد محدودیت من (احتمالا؟) یکی از بدیهی ترین مواردی است که در این مدل ها اجرا می شد. | کمک به lmer در بسته lme4 |
37839 | سوال من مربوط به یک مشکل تحقیقاتی واقعی است که دارم. من قصد دارم EFA (در واقع PCA) را بر روی یک پرسشنامه 111 موردی انجام دهم که برای غربالگری 20 اختلال مختلف در دوران کودکی و نوجوانی طراحی شده است. اتفاقاً، من قصد دارم از تست MAP Velicer برای تعیین تعداد فاکتورهای استخراج استفاده کنم. جستجوی من در ادبیات مربوطه به من می گوید که PCA من احتمالاً عوامل کمتری را نسبت به ابزار ادعا می کند که دارد. مشکل من این است که بارگیری آیتم را به طور کامل درک نمی کنم. می دانم که ممکن است آیتم ها آنطور که باید بارگذاری نشوند، اما دلیل آن را نمی دانم. * آیا به این دلیل است که آیتم ها ممکن است چندین عامل را اندازه گیری کنند؟ * همچنین، آیا برخی از اقلام می توانند به هیچ وجه بارگذاری نشوند؟ * آیا میتوان عامل(های) کاملاً جدیدی پدید آمد که ممکن است از همه (یا بیشتر) همه موارد مثلاً دو عامل تشکیل شده باشد؟ | چگونه بارگذاری آیتم در PCA / FA با عوامل واقعی در یک ابزار ارتباط دارد؟ |
49359 | وقتی تجزیه و تحلیل خود را با آیتم هایی با واریانس صفر اجرا می کنم، sem در R یک هشدار می دهد که می گوید موارد با واریانس صفر وجود دارد. سپس اینها را از تحلیل حذف می کنم. سوال من این است: 1. آیا راه های دیگری برای حل این مشکل به جز حذف موارد وجود دارد، شاید مانند اضافه کردن مقدار بسیار کمی از لرزش؟ 2. چه ادبیاتی برای توجیه چنین رویه ای وجود دارد؟ (من جستجو کردم اما به چیزی نرسیدم. حدس می زنم یا این یک مشکل رایج نیست یا راه حل خیلی واضح است.) | تحلیل عاملی تاییدی با استفاده از SEM: با موارد با واریانس صفر چه کار می کنیم؟ |
48159 | من جدول زیر را دارم و باید به سوالات زیر پاسخ دهم. سوال اول به نظر من اطلاعات کافی ندارد. نام سن ریاضیات انگلیسی اقامت تامی 16 C A CAMPUS پیتر 16 B A CAMPUS Tom 17 C A CAMPUS Lynn 18 A CAMPUS مایکل 20 A CAMPUS استیون 21 B A CAMPUS Sam 22 B CAMPUS Mary ACAMPdy 25 CME A HOME John 18 A HOME Dan 18 C A HOME Lily 22 B B HOME Sue 23 A B HOME Corey 24 B B HOME 1. در مورد کلاس های تابستانی انگلیسی و ریاضی چه نتیجه ای می توانید بگیرید؟ 2. آیا دانش آموزان بزرگتر در ریاضی بهتر عمل می کنند؟ 3. آیا زنان در ریاضی بهتر از مردان هستند؟ | آمار مربوط به نمرات (بدون عدد) |
24059 | من میخواهم یک مدل مختلط خطی تعمیمیافته فضایی را بگنجانم، برای مثال، برای مدلسازی پاسخهای شمارش فضایی با استفاده از تقریب لاپلاس در نرمافزار آماری موجود. من به ویژه به پیاده سازی در R علاقه مند هستم. | نحوه استفاده از تقریب لاپلاس برای برازش مدل فضایی GLM |
71873 | این سوال در مورد استراتژی های خاصی برای مقابله با متغیرهای غیر ثابت در پیش بینی است. این مشکل معمولا زمانی که شما پیش بینی کننده ای دارید که سطوحش با پاسخ مرتبط است، اما اولین تفاوتش اطلاعات بسیار متفاوتی را به همراه دارد، سر زشت خود را به دنبال دارد. به طور کلی، اگر یک یا دو مورد از اینها در مدل من وجود داشته باشد، استفاده از ساختگیهای رهگیری که یکی هستند، زمانی که پیشبینیکننده سطوح غیر ثابت «بالا» است، کافی است. به طور مشابه، گاهی اوقات میتوان با تعامل این آدمکها با پیشبینیکنندههای مختلف دیگر کافی باشد، بنابراین مجبور نیستم متغیر غیر ثابت را به عنوان یک پسرونده داشته باشم. اما اگر من 15 تا 20 عدد از این پیشبینیکنندههای غیر ثابت را داشته باشم که سطحهای آنها همگی به پاسخ بسیار مرتبط هستند، چه میشود؟ برای مثال، «بالا» بودن تقاضای مصرفکننده ممکن است به مدل بسیار مرتبط باشد. با ایجاد تفاوت، دیگر نمی توانم این اطلاعات را در مدل خود بگنجانم. اکنون موردی را در نظر بگیرید که در آن 15-20 متغیر مشابه دیگر وجود دارد که سطح بحرانی است. **راهبرد پیچیده ای برای رویارویی با این موضوع به جز استفاده از مقادیر احمقانه متغیرهای ساختگی، قرار دادن آن در الگوریتم یادگیری آماری، یا حذف همه آنها در سطل زباله چیست؟** شاید این مشکل به یک راه حل سنتی یادگیری ماشین نیاز داشته باشد؟ چیزی شبیه جنگل های تصادفی منطقی است، اما من به دنبال این هستم که تعداد پارامترها را پایین نگه دارم، زیرا سرعتی که می توانم پیش بینی ها را از مدل خارج کنم مهم است. * * * برای ارائه مثالی از اینکه سطوح مهم هستند و نمی توان آنها را با تفاوت های اول ضبط کرد، به مثال پیش بینی کننده زیر در `R` نگاه کنید: `plot(sin(1:400/50)+sin(1:400 ),type='l')` آنچه برای $Y$ من مهم است این است که اگر این پیش بینی کننده نزدیک به یک قله باشد در مقابل حالت مخالف نزدیک بودن به یک فرورفتگی. اما هیچ راهی برای ادغام این اطلاعات در مدل من با استفاده از اولین تفاوت این پیش بینی وجود ندارد. | عملاً بسیاری از پیشبینیکنندههای غیر ثابت را مدیریت میکند |
112187 | پیشاپیش از راهنمایی ممنونم من سعی می کنم یک مدل خطی تعمیم یافته بسازم که پیش بینی کننده های زیادی داشته باشد. مقدار $R^{2}$ این مدل بسیار پایین است (.21)، اما وقتی از مدل برای پیشبینی در مقابل مجموعه اعتبارسنجی خود استفاده میکنم، نتایج بسیار خوبی دریافت میکنم. من این تصور را داشتم که مقدار پایین $R^{2}$ به طور کلی به این معنی است که قدرت پیش بینی یک مدل پایین است. چه اتفاقی می تواند در اینجا بیفتد (من به دنبال دلایلی هستم که چرا یک مدل ممکن است پیش بینی های خوبی داشته باشد اما ضریب تعیین پایینی داشته باشد)؟ مجموعههای آموزشی و اعتبارسنجی من توزیع مشابهی دارند و معتقدم مجموعههای آموزشی و اعتبارسنجی من نماینده کل فضا هستند. | آیا ضریب تعیین بسیار بد ($R^{2}$) می تواند نشان دهنده عملکرد مدل نباشد؟ |
108761 | من یک فرآیند برخورد تصادفی را شبیه سازی می کنم. در هر بازه زمانی احتمال برخورد بین هر جسم و سایر اجسام مجاور را محاسبه می کنم. در حال حاضر اگر بخواهم احتمال کل برخورد یک شی خاص با هر جسم دیگری را بیابم، مجموع همه این احتمالات است. با این حال، اگر بخواهم از نظر تئوری تعداد اجسام را به مرتبههای قدر بالاتر برسانم، این شکل از محاسبه میتواند منجر به احتمال بزرگتر از 1 شود. B و مقدار x1 را بدست آورید. احتمال برخورد جسم A با جسم C باید کمتر از 1 باشد زیرا جسم A می تواند با جسم B برخورد کند، بنابراین احتمال محاسبه شده بین اشیاء A و C باید در (1-x1) ضرب شود و این باید مقدار x2 من باشد. آیا این رویکرد خوبی است؟ اگر روش بالا را اعمال کنم، احتمال وجود اشیاء اولیه در لیست (مثلاً x1>x2>x3>x4 و غیره) بیشتر نمی شود. واضح است که x1 لزوما بزرگتر و x2 نیست، اما با توجه به پارامترهای یکسان x1 بزرگتر خواهد بود. چگونه می توانم این اثر را نفی کنم زیرا ترتیب نباید نتایج را تغییر دهد؟ با تشکر چند نکته از بحث با ووبر: * من مقادیر را بر اساس چگالی فضایی هر جسم، سرعت نسبی اجسام، سطح مقطع و حجمی که در آن قرار دارند محاسبه میکنم. * به نظر من منطقی بود که این را فرض کنیم زیرا برخورد یک طرفه نیست (برخورد A با B دقیقاً مانند برخورد B با A است). * برخورد در یک مرحله مستقل است اما اگر A در برخورد با یک جسم باشد نمی تواند در برخورد دوم باشد. * سه جسم نمی توانند با هم برخورد کنند. * هنگامی که یک شی در یک برخورد قرار گرفت از جمعیت حذف می شود. * این نیز در یک مدل حجم محدود محاسبه می شود - به عنوان مثال. هر شی در یک حجم معین برای یک مرحله خاص است، اما ممکن است در مرحله بعد در همان حجم باشد یا نباشد. * احتمالات بین A و B و A و C معمولاً در یک مرتبه بزرگی هستند. * شبیهسازی برخوردهای متعدد را پیشبینی میکند، اما از آنجایی که یک شی قرار است پس از وقوع یک برخورد حذف شود، این امر ممکن نیست. | ترتیب غیر مشخص احتمالات در یک مرحله زمانی |
58245 | من داده های درآمد روزانه از یک کسب و کار کوچک با 6 مکان را دارم. این کسبوکار محصولات غذایی را به فروش میرساند که از حدود 2 دلار تا 9 دلار متغیر است، عمدتاً به افراد حرفهای. آنها سالانه بیش از یک میلیون دلار فروش دارند و در یک شهر بزرگ آمریکای شمالی (در اطراف مرکز شهر / منطقه تجاری پراکنده شده اند) واقع شده اند. داده های درآمد شامل آنچه در هر مکان در هر روز فروخته می شود. داده های درآمد روزانه شامل مدت زمانی است که یک مکان مشخص در حال کار بوده است. طولانی ترین آنها پنج سال و کوتاهترین آنها دو سال است. چند سوال وجود دارد که می خواهم به آنها پاسخ دهم، به عنوان مثال: 1. فروش چقدر به رویدادهای کلان اقتصادی حساس است؟ 2. آیا فروش الگوهای فصلی دارد؟ 3. چه عوامل/ویژگی هایی بر فروش یک مکان معین تأثیر می گذارند؟ 4. آیا مکان های مختلف الگوهای یکسانی از رشد فروش را نشان می دهند؟ 5. کشش های تقاضای محصولات مختلف چیست؟ 6. چه رویدادهای تعیین شده درون زا رخ داده است که منجر به افزایش فروش شده است؟ (مثلاً یک تبلیغ) در اینجا چند ایده برای پاسخ به سؤالات بالا آورده شده است: 1. ببینید آیا شوک های تقاضای کلان مثبت یا منفی در سری زمانی درآمد روزانه ظاهر می شود. یا یک «رویداد» کلان اقتصادی (مانند کاهش شدید بازار سهام) را تعریف کنید و تغییرات غیرعادی (کاهش) درآمدها را بررسی کنید. 2. به دنبال نوسانات فصلی در اطراف برخی از خط روند فروش باشید. 3. شناسایی تفاوت در ویژگی های بین مکان ها و اجرای رگرسیون های متغیر چندگانه بر روی داده های فروش. به عنوان مثال، یک متغیر ساختگی برای حضور یک اداره دولتی در 100 متری یک مکان معین، یا یک رقیب با مارک مشابه در 100 متر و غیره داشته باشید. سپس این فرضیه را امتحان کنید که هر متغیر دارای ضریب صفر است. (توجه: احتمالاً از این برای پیشبینی درآمد آینده یک مکان بالقوه استفاده کنید) 4. «شکل» رشد فروش را بین مکانهای مختلف مقایسه کنید. 5. تعیین کنید که آیا فروش یک محصول معین پس از افزایش قیمت تغییر می کند یا خیر. این کار را برای هر افزایش قیمت انجام دهید و مراقب باشید که آیا عوامل دیگری ممکن است در تغییر تقاضا نقش داشته باشند یا خیر. 6. برخی از رویداد را تعریف کنید و به دنبال تغییرات در درآمد در اطراف این رویداد باشید. علاوه بر این، گمان میکنم بسته به چیزی که از آن استفاده میکنم، «پاک کردن» دادهها مفید باشد. ممکن است متوجه شوم که یک مکان دارای نرخ اولیه رشد درآمد است که به مراتب بیشتر از سایر مکانها بوده است، اما درست قبل از یک فصل معمولی فروش بالا و همچنین یک رویداد اقتصادی کلان مثبت افتتاح شده است. همین امر در مورد افزایش فروش پس از ارتقاء نیز صدق می کند. من نمی خواهم تغییرات درون زا و برون زا در درآمد را با هم مخلوط کنم. من امیدوار هستم که با توجه به مجموعه دادهها، در مورد نتایج معناداری که واقعاً میتوانم به دست بیاورم، اطلاعاتی دریافت کنم. من از طوفان فکری به ایده هایم رسیده ام و مطمئنم که آنها بسیار ناقص هستند. من به تازگی اقتصاد سال سوم را با مقداری ریاضی و آمار اضافی به پایان رسانده ام. این کار را انجام می دهم زیرا داده ها در دسترس من هستند و می خواهم از برخی از ابزارهایی که آموخته ام (تلاش کنم و) استفاده کنم. **سوالات:** * از نظر شناسایی تفاوت بین مکان ها، آیا شش مکان کم است؟ * به طور کلی به چه دام های آماری برخواهم خورد؟ * آیا نباید این کار را انجام دهم زیرا هیچ چیز معنیداری در این دادهها وجود ندارد؟ * آیا آزمونهای آماری وجود دارد که من باید انجام دهم که نتایج معنیداری را به همراه داشته باشد (یعنی هر سؤالی که واقعاً بتوانم با توجه به مجموعه دادهها به آن پاسخ دهم)؟ | تست های آماری بر روی داده های درآمد یک کسب و کار کوچک |
22842 | من می خواستم نحوه عملکرد دو مدل مختلف (مستقل) را تحت winbugs مقایسه کنم، بنابراین کدی مانند: # احتمال برای (i در 1:sites) { M[i] ~ dpois(lambda) # model 1 M2[i] ~ dpois ایجاد کردم. (lambda2) # مدل 2 برای (j در 1:نمونه) { obs[i, j] <- sum(y[i, j,]) # مدل 1 y[i، j، 1] ~ dbin(p، M[i]) obs[i، j] ~ dbin(p_komb، M[i]) # مدل 2 obs[i، j] ~ dbin(p2، M2 [i]) } } اما منجر به نتایج اشتباه در مدل 2 می شود! اما اگر مدل 2 را جدا کنم: # احتمال برای (i در 1:sites) { M2[i] ~ dpois(lambda2) for (j در 1:sample) { obs[i, j] <- sum(y[i , j,]) obs[i, j] ~ dbin(p2, M2[i]) } } سپس عملکرد خوبی دارد و نتیجه خوبی را برمیگرداند! من واقعاً نمی توانم بفهمم که چرا مثال اول باید نتایج متفاوتی را نشان دهد. به نظر می رسد دو مدل ترکیب شده در مثال کاملاً مستقل هستند. ** اشکال WinBUGS؟ آیا ایده ای دارید؟** (فرقی نمی کند که مدل ها را به دو قسمت برای حلقه ها جدا کنم \- نتیجه یکسان است.) من WinBUGS 1.4.3 (اوت 2007) را با پچ imortality نصب کرده ام. در اینجا **کدهای قابل تکرار کامل برای R و بسته R2WinBUGS (با تولید داده)**: ################## سایتهای تولید داده (vcd) نیاز دارند <- 120 # 60 mean_M <- 16 M <- rpois(sites, mean_M) p <- 0.4 #0.64 نمونه <- 2 # 3 y = rep(NA, sites * نمونه * 2) dim(y) = c(sites, sample, 2) for (i in 1:sites) { # obs[i,] = rbinom(sample, M[i], p) برای (j در 1:نمونه) { y[i,j,1] = rbinom(1, M[i], p) y[i,j,2] = rbinom(1, M[i] - y[i,j,1], p) } } y_sample_total = اعمال (y, c(1, 2), sum) ##################### ###################### # دو مدل با هم - مدل ساده با مدل پیچیده با هم sink(tmp_bugs/model.txt) cat( model { # احتمال برای (i در 1:سایتها) { M[i] ~ dpois(lambda) # model 1 M2[i] ~ dpois(lambda2) # مدل 2 برای (j در 1:نمونه) { obs[i, j ] <- sum(y[i، j،]) # مدل 1 y[i، j، 1] ~ dbin(p، M[i]) obs[i، j] ~ dbin(p_komb، M[i]) # model 2 (ساده) obs[i، j] ~ dbin(p2، M2[i]) } } # پارامتر مشتق شده Mtot <- sum(M[ ]) M2tot <- مجموع(M2[]) # پیشین تاو <- 1/(4 * 4) p <- 1/(1+exp(-logit_p)) logit_p ~ dnorm(0، tau) p2 <- 1/(1+exp(-logit_p2)) logit_p2 ~ dnorm(0، tau) p_komb <- p + (1 - p ) * p lambda ~ dunif(0, 100) lambda2 ~ dunif(0, 100) } ) sink() win.data = list(y = y، نمونه = نمونه، سایت ها = سایت ها) inits = تابع () { list( M = application(y_sample_total, 1, max), M2 = application(y_sample_total ، 1، حداکثر)، logit_p = rnorm(1، 0، 4)، logit_p2 = rnorm(1، 0، 4) ) } params = c(M، M2، p، p2، Mtot، M2tot، lambda، lambda2) #params = c(M2، p2، M2tot، lambda2) ni <- 2500 nt <- 16 nb <- 1000 nc <- 3 date() out1 <- اشکالات(win.data، inits، params، model.txt، nc، ni، nb، nt، bugs.directory = C:/Program Files/WinBUGS14/، working.directory = paste(getwd()، /tmp_bugs/، sep = )، debug = TRUE ) date() ############################ # مدل سادهتر خودش sink(tmp_bugs/model.txt) cat( model { # احتمال برای (i در 1:سایتها) { M2[i] ~ dpois(lambda2) برای (j در 1:نمونه) { obs[i، j] <- sum(y[i, j،]) obs[i، j] ~ dbin(p2، M2[i]) } } # پارامتر مشتق شده M2tot <- sum(M2[]) # priors tau <- 1/(4 * 4) p2 <- 1 /(1+exp(-logit_p2)) logit_p2 ~ dnorm(0، tau) lambda2 ~ dunif(0, 100) } ) sink() win.data = list(y = y, sample = sample, sites = sites) inits = function () { list( # M = application(y_sample_total, 1, max) M2 = اعمال (y_sample_total, 1, max)، # N = y_sample_total, # after_removal = y[,,2], # logit_p = rnorm(1, 0, 4), # logit_q = rnorm(1, 0, 4), logit_p2 = rnorm(1, 0, 4) ) } #params = c(M, M2, p ، p2، Mtot، M2tot، lambda، lambda2) پارام = c(M2، p2، M2tot، lambda2) ni <- 2500 nt <- 16 nb <- 1000 nc <- 3 date() out2 <- اشکالات(win.data، inits، params، model.txt، nc، ni, nb, nt, bugs.directory = C:/Program Files/WinBUGS14/, working.directory = paste(getwd()، /tmp_bugs/, sep = ), debug = TRUE ) date() ######################## #### # خلاصه - نتایج مدل ساده (M2، M2tot) بسته به آن متفاوت است | محاسبه همزمان 2 مدل مستقل منجر به نتایج اشتباه در WinBUGS می شود |
37832 | ما نمونههای ورودی را به صورت $Z = X+Y$ مشاهده میکنیم، که در آن توزیع $Z$ را میتوان با هیستوگرام نمونهها تخمین زد و $X,Y$ دو متغیر تصادفی مستقل هستند. یکی از متغیرها به دنبال توزیع نمایی (به عنوان $X \sim Exp(\lambda)$) شناخته شد. من می خواهم پارامتر $X$، $\lambda$ و چگالی احتمال $Y$ را با پارامترهای آن نیز دریافت کنم. چگونه متغیر تصادفی $X+Y$ را تجزیه کنیم؟ علاوه بر این، اگر توزیع X$ ناشناخته باشد چه؟ | تجزیه مجموع دو متغیر تصادفی |
91037 | من می خواهم فاکتور شباهت (مقدار عددی) بین دو متغیر را پیدا کنم. مثال: ردیف 1: 5.1، 3.5، 1.4، 0.2 ردیف 2: 4.9، 3.1، 1.5، 0.1 چگونه فاکتور شباهت بین این دو متغیر را پیدا کنیم؟ همبستگی وجود دارد اما غیر از آن چه گزینه هایی وجود دارد؟ این داده ها از مجموعه داده گل زنبق گرفته شده است. ما در حال انجام برخی خوشه بندی داده ها در این مجموعه داده هستیم. وظیفه ما یافتن/اندازهگیری شباهت بین ردیفها بدون استفاده از همبستگی است. بنابراین، به غیر از همبستگی، چه گزینه هایی وجود دارد؟ | اندازه گیری شباهت بین دو متغیر |
37836 | من آزمایشی با یک قالب انجام دادم که در آن تعداد وقوع هر مقدار را شمارش کردم و مقادیر را به عنوان یک عنصر در یک مجموعه مرتبط کردم. به عنوان مثال، این مقادیری است که من هنگام چرخاندن قالب 18 بار دریافت کردم: 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 - 3 وقوع 2 - 3 وقوع 3 - 3 وقوع 4 - 3 وقوع 5 - 3 وقوع 6 - 3 وقوع S = { 1, 2, 3, 4, 5, 6 } E(|S|)=6 مثال دیگر (با یک قالب بایاس متفاوت): 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 - 18 وقوع S = { 1 } E(|S|)=1 چگونه می توانم مقدار مورد انتظار اندازه را بدست بیاورم وقتی احتمال داده نشده است و من فقط مقدار آن را دارم توزیع نمونه؟ | استخراج مقدار مورد انتظار از اندازه یک مجموعه |
86947 | من از libsvm در حالت C-SVC (-s= 0) با هسته خطی (-t=0) استفاده می کنم، و باید چندین SVM را آموزش دهم (من چهار کلاس دارم). مجموعه های آموزشی و آزمایشی من تعداد نمونه ها و ویژگی های یکسانی دارند، آنها 32768 نمونه (ردیف) و 128 ویژگی (ستون) دارند. من از پنج مقدار مختلف C استفاده کردم که عبارتند از: 1، 8، 64، 256، 2048. در طول آموزش، این پیام هشدار را دریافت کردم: هشدار: رسیدن به حداکثر تعداد تکرار بهینه سازی به پایان رسید، ردیف = ****** . مشکل اینجاست: منطقاً میدانم که هر بار که مقدار C را افزایش میدهم، باید دقت طبقهبندی بهتر از قبل شود یا حداقل باید مانند قبل بماند هیچ چیز تغییر نمیکند. اما در مورد من: بعد از مقدار C = 256، دقت طبقه بندی بدتر می شود و نمی دانم چرا این نتیجه را گرفتم و چگونه این مشکل را حل کنم. به هر حال، من مجموعه داده ام را مقیاس کردم، اما همان نتیجه را گرفتم. | libsvm_kernel_linear_افزایش مقدار C |
30118 | من مانند بسیاری از مردم از آزمون معناداری آماری بیزارم. من ترجیح می دهم اهمیت عملی / اندازه اثر را اندازه گیری کنم. مشکل این است که من روش استاندارد را برای انجام این کار نمی شناسم. بسیاری از مردم می گویند که هیچ راه استانداردی برای اندازه گیری اهمیت عملی وجود ندارد -- همه چیز به مشکل بستگی دارد. من کاملا موافقم، اما باید بتوانم از یک فرد معتبر برای حمایت از کاری که انجام میدهم استناد کنم. من فکر میکنم این دلیلی است که آزمون معنیداری آماری بسیار رایج است -- یک روش استاندارد برای انجام آن وجود دارد: p <.05. بنابراین هر کسی می تواند آن را با کمی فکر انجام دهد. راه برای محبوبیت بیشتر تست اهمیت عملی ممکن است اتخاذ رویکردی مشابه باشد. به طور خاص، من اغلب باید ببینم که آیا دو درصد عملاً با یکدیگر متفاوت هستند یا خیر. راه خوبی برای انجام این کار چیست -- چیزی که دارای استناد معتبر است و به راحتی قابل توضیح است؟ نسبت شانس؟ چه نقل قول خوبی برای استفاده از آن برای اندازه گیری اهمیت عملی است؟ در علوم بهداشتی / اجتماعی یک مزیت خواهد بود. با این حال، ارائه نسبت شانس به طور مستقیم دشوار است. ایده هایی در مورد آن؟ یک قدم جلوتر بروید، آستانه خوب «استاندارد» / «جادویی» برای یک OR (یا هر معیاری که دوست دارید) چیست؟ مانند 0.05 برای آزمون معناداری آماری. می دانم، می دانم، بستگی به مشکل دارد. اما آیا استاندارد با استناد خوب وجود دارد؟ | اهمیت عملی، به ویژه با درصد: معیار و آستانه استاندارد. |
108760 | من از nlme در یک مدل ترکیبی استفاده می کنم: Y = a + b + a*b. fm1<-lme(Y ~ a*b، داده = example.ento.mn، تصادفی=~1| Exp/Plant) a و b ثابت هستند. خطای تصادفی: آزمایش/گیاه. این چیزی است که من از جدول anova دریافت کردم: anova(fm1, type=marginal) numDF denDF F-value p-value (Intercept) 1 2334 77499.45 <.0001 Factor A 1 2334 4.07 0.0437 Factor B 1.3937 Factor B 1.3937 : عامل B 1 2334 0.28 0.5968 با این حال، من می خواهم میانگین مربعات را برای هر منبع تغییرات استخراج کنم همانطور که با استفاده از نشانگرهای سوال در جدول زیر نشان داده شده است: منبع تغییرات DF MS Expected-MS F-value p-value Intercept 1 ? خطای A 77499.45 <0.001 فاکتور A 1 ? خطای A 4.07 0.0437 فاکتور B 1 ? خطای B 0.73 0.3922 فاکتور A: فاکتور B 1 ? خطای A 0.28 0.5968 خطای A 2334 ? خطای B 372 مجموع 2339 ? هیچ ایده ای برای کمک به من وجود دارد؟ خیلی ممنونم | چگونه یک جدول ANOVA کامل را از یک مدل ترکیبی در R بدست آوریم؟ |
27506 | من به روشهای ناپارامتریک برای ایجاد فواصل اطمینان برای یک تخمینگر (مثلاً میانگین) با استفاده از نمونههای کمی (مثلاً 10) علاقهمندم. فکر میکنم جایی خواندهام که هموارسازی مقادیر تخمینگر بوت استرپ میتواند کیفیت فاصله صدکهای مشتقشده را بهبود بخشد. با این حال، من نتوانستم هیچ مرجع آنلاینی پیدا کنم که نحوه تنظیم پهنای باند مرحله هموارسازی را توضیح دهد. | چگونه پهنای باند بوت استرپ صاف شده را برای ایجاد فواصل اطمینان انتخاب کنیم؟ |
78613 | من یک مجموعه داده دارم که شامل تعداد استریا (خطوط) روی دندان ماهی است. من میخواهم دادههایم را درون ناظر و بین خطای ناظر ارزیابی کنم و مقادیر را با تعداد منتشر شده دندانهای مشابه مقایسه کنم. من سه ناظر داشتم (الکس، کلر و کیت - به زیر مراجعه کنید) که هر کدام تعداد دندانهای خود را مکرر میشمارند تا تنوع ناظر را ثبت کنند. من همچنین داده ها را از ادبیات جمع آوری کردم (Standard1-3 - زیر را ببینید). من از هر گونه فکری در مورد نحوه برخورد با این موضوع بسیار استقبال می کنم. افکار من: 1) برای خطای درون ناظر، میتوانم تغییرپذیری را با استفاده از ضریب تغییرات درون موضوعی تعیین کنم. با این حال، این به من اجازه نمی دهد ارزیابی کنم که آیا ناظران خاص دقت قابل توجهی بیشتری نسبت به دیگران دارند یا خیر. 2) برای بین خطای ناظر، من به ایجاد فواصل اطمینان برای میانگین داده های الکس، کلیر و کیت با استفاده از یک راه انداز فکر کردم. این به من امکان می دهد داده های آنها را هم با یکدیگر و هم با 3 استاندارد منتشر شده مقایسه کنم. با این حال، تنها با 2-4 اقدام تکراری، ترکیبات منحصر به فرد کافی برای قابل دوام کردن آن وجود نخواهد داشت. 3) شاید بتوان همه این اهداف را با استفاده از ANOVA اندازه گیری های مکرر (احتمالاً در رتبه های شمارش) برآورده کرد، اما برای من روشن نیست که چگونه به این موضوع نزدیک شوم. dat <- data.frame(fish_specimen = c(USNM235، USNM235، USNM235، AMNH289، BMNH23)، fish_tooth = c(M1، M2، C، P2 ، I1)، Alex1 = c(136، 179، 103، 118، 195)، Alex2 = c(132، 181، 198، 112، 197)، Alex3 = c(125، 176، 105، 116، 191)، Clair1 = c(127، 177، 104، 118، 196)، Clair2 = c(176، ، 109، 122، 199)، Kate1 = c(134، 184، 101، 116، 191)، Kate2 = c(138، 182، 100، 118، 193)، Kate3 = c(140، 176، 106، 121، 197)، Kate04 = c(1 ، 172، 101، 124، 199)، استاندارد1 = c(124، 177، 104، 119، 194)، استاندارد2 = c(135، 178، 102، 125، 198)، استاندارد3 = c(141، 177، 105، 113، 199) | چگونه با داده های شمارش درون و بین خطای ناظر تجزیه و تحلیل کنیم؟ |
109499 | لطفاً یک آزمون غیر پارامتریک مشابه با MANOVA پیشنهاد دهید. من 7 ماده مغذی مصرفی مردان و زنان دارم. چگونه می توانم آزمایش کنم که میزان مصرف آنها برابر است؟ | آزمون غیر پارامتریک برای داده های چند متغیره |
93731 | اجازه دهید $x_1، x_2$ متغیرهای تصادفی باشند که از توزیع های بتا کوتاه شده پیروی می کنند: $$f_{i}\left(x_{i}\right)=\frac{x_{i}^{\alpha_{i}-1}(1-x_{i})^{\beta_{i}- 1}}{\mathrm{B}(a_{i},b_{i};\alpha_{i}،\beta_{i})}$$ برای $a_i\le x_i \le b_i$، و $f_i (x_i) = 0$ در غیر این صورت. در اینجا $\mathrm{B}(a,b;\alpha,\beta)=\int_a^b t^{\alpha-1}(1-t)^{\beta-1}\mathrm{d}t$ است تابع بتای ناقص و $0\le a_i \le b_i \le 1$ برای $i=1,2$. متغیر تصادفی $z = k_1 x_1 + k_2 x_2$ را تعریف کنید، که $k_i$ ثابت های واقعی هستند. **آیا فرمول تقریبی برای توزیع $z$ وجود دارد؟** یک مشکل مرتبط، ترکیب خطی توزیعهای بتا کامل است (یعنی مورد خاصی که $a_i =0$ و $b_i = 1$ برای همه $ است. i$). مقاله ای که در آن به این موضوع پرداخته می شود [1] است که در آن دو تقریب مورد مطالعه قرار می گیرد. تقریب اول بسیار ساده است و نشان می دهد که $z/\sum_i k_i$ تقریباً یک متغیر تصادفی بتا با میانگین و واریانس برابر با میانگین و واریانس دقیق $z/\sum_i k_i$ است. این یک تقریب بسیار راحت است زیرا محاسبه میانگین و واریانس ترکیب خطی بسیار آسان است و پارامترهای توزیع بتا ($\alpha$، $\beta$) نیز به راحتی از میانگین و واریانس بدست میآیند. من هیچ نشریه دیگری در مورد این مشکل پیدا نکردم. به نظر می رسد همین ایده با ترکیب های خطی توزیع های گاما به خوبی کار می کند. یعنی ترکیب خطی متغیرهای تصادفی گاما تقریباً به عنوان متغیر گامای دیگر با میانگین و واریانس ترکیب خطی توزیع میشود [2]. **آیا میتوانیم یک ترکیب خطی از متغیرهای تصادفی_truncated_ Beta (مانند $z$ بالا) را با یک متغیر تصادفی که متناسب با یک متغیر تصادفی بتا با میانگین و واریانس ترکیب خطی است، تقریب بزنیم؟ این تقریب چقدر خوب است؟** [1] Jóhannesson, B., & Giri, N. (1995). در تقریب های مربوط به توزیع بتا. ارتباطات در آمار-شبیه سازی و محاسبات، 24 (2)، 489-503. [2] Stewart, T., Strijbosch, L., Moors, H., & Batenburg, P. van. (2007). یک تقریب ساده برای پیچیدگی توزیع های گاما. | تقریب برای ترکیب خطی متغیرهای بتا کوتاه شده |
30110 | من یک تغییر از آمار $\chi^2$ پیدا کردم که به این شکل است: $\chi^2 = \sum\limits_{i=1}^N\,\chi_i^2 = \sum\limits_{i =1}^N\,\frac{(\log m_{i}- \log n_{i})^2}{\sigma_{i}^2}$ کجا $\sigma_{i}=1/n_i$، $m_i$ تعداد مدلسازیشده تعداد در bin $i$ و $n_i$ عدد مشاهدهشده است (البته هر دو **مثبت و اعداد صحیح** هستند) $log$ لگاریتم اعشاری است. اگر $m_i=0$ یا $n_i=0$، نویسنده مقدار بسیار کمی را برای جلوگیری از ناسازگاری در ارزیابی تابع $log$ در $0 تخصیص می دهد. من درک می کنم که این پارامتر به این معنا که به عوامل $\chi_i$ وزن بیشتری می دهد که $n_i\neq0$; به عنوان مثال: تقریباً فاکتورهای $\chi_i$ را نادیده میگیرد که در آن $n_i=0$ (که با یک عدد بسیار کوچک، مثلاً $0.0001$ جایگزین میشود) در نتیجه به مدل اجازه میدهد تقریباً هر عدد m_i$ را به آن bin اختصاص دهد. اینجا را برای مثال $\chi_i$ وقتی $n_i=0$ (جایگزین شده با $0.0001$) و اینجا را برای مشاهده رفتار $\chi_i$ وقتی $n_i=1$ مشاهده کنید. واضح است که در موردی که $n_i=1$ می بینم، مقادیر $\chi_i$ بسیار بزرگتر از مقادیر بدست آمده با همان پارامتر است که $n_i=0$ (جایگزین شده با $0.0001$) است، من این را به عنوان یک اثبات می بینم. آمار مغرضانه است اینجا درست میگم؟ | تغییر مغرضانه آمار $\chi^2$؟ |
106086 | من 1400 مورد (دانشجو) دارم. من میخواهم پیشبینی کنم که چه کسی وارد دانشگاه میشود بر اساس درصد نمرات دروس گرفته شده. نه همه دانشآموزان دروس یکسانی شرکت کردند و نه تعداد موضوعات یکسانی. اگر موضوعی را نگرفتند، دادههای من NA را به عنوان درصد در ستون موضوع دارند، در غیر این صورت من مقداری از 0 تا 100 برای موضوع گرفته شده دارم. چگونه می توانم با تجزیه و تحلیل چند متغیره اقدام کنم، وقتی تعداد دانش آموزان مختلفی وجود دارد که تعداد سوژه های مختلفی را می گذرانند. | تحلیل چند متغیره زمانی که همه پیشبینیکنندهها مربوط به همه موارد نیستند |
27502 | من متعجب بودم که با نزدیک شدن ابعاد به تعداد نقاط داده آموزشی، چه اتفاقی برای سوگیری و واریانس تخمینهای GLM میافتد؟ به طور خاص در رگرسیون خطی و رگرسیون پواسون؟ من می دانم که برای رگرسیون لجستیک پدیده هاک-دانر وجود دارد که جدایی در داده ها را افزایش می دهد و واریانس در ضرایب رگرسیون برازش را افزایش می دهد. با این حال من با آنالوگ های این پدیده برای رگرسیون خطی و پواسون آشنا نیستم. من مقداری کد R برای رگرسیون خطی نوشتهام: genLinear = تابع (n، ابعاد){ بتا = 1 xdata = replicate(dimens,rnorm(n)) ydata = application(xdata,1,sum) + مدل rnorm(n) = lm(ydata~.,data = data.frame(cbind(ydata,xdata))) print(summary(model)) return(model) } و من متوجه شدم که وقتی تعداد پیشبینیکنندهها را به تعداد نقاط داده افزایش میدهم، تغییر زیادی ایجاد نمیشود. به نظر می رسد که واریانس بیشتری در ضرایب رگرسیون وجود دارد، اما در واقع هیچ سوگیری در ضرایب وجود ندارد. آیا این در مورد رگرسیون پواسون نیز صادق است؟ من فکر کردم که این بحث خوبی در مورد نفرین ابعاد بود اما نتایج نشان داده شده در شکل برخلاف آنچه من می بینم به نظر می رسد. شبیهسازیهای من افزایش واریانس را نشان میدهند، اما اصلاً سوگیری ندارند. در حالی که به نظر می رسد نتایج در عناصر یادگیری آماری خلاف این را نشان می دهد. هر گونه کمکی بسیار قدردانی خواهد شد! با تشکر | مدل های خطی تعمیم یافته و نفرین ابعاد |
66287 | من یک متاآنالیز با 5 RCT انجام دادم که نسبت شانس نرخ رویداد را در بیمارانی که درمان دریافت میکنند و دریافت نمیکنند اندازهگیری میکند. P از داده های تلفیقی > 0.05 بود. این نتیجه برای من قابل قبول است. بهترین راه برای مقابله با سوگیری انتشار چیست؟ من در ابتدا از آزمون Begg استفاده کردم، اما این روش برای متاآنالیزها بر اساس تعداد کمی از مطالعات غیرقابل اعتماد شناخته شده است. پیشنهادی دارید؟ | متاآنالیز: برخورد با سوگیری با تعداد کمی از مطالعات |
37838 | من سعی میکنم رگرسیون لجستیک را با نرخ یادگیری تصحیح خودکار پیادهسازی کنم و از نتیجه آن متحیر هستم. در برخی مواقع هزینه تابع از قبل بزرگتر می شود (برای تمرکز روی برخی اعداد، فرض کنید 628، زمانی که قبلا 78 بود). بنابراین من این مرحله را لغو می کنم و در عین حال میزان یادگیری را از 0.297 به 0.148 کاهش می دهم. و دوباره هزینه را محاسبه می کنم -- این بار 92. بنابراین این مرحله را نیز لغو می کنم و نرخ یادگیری را به 0.074 کاهش می دهم. من یک بار دیگر محاسبات را انجام می دهم و نتیجه 106 است. یک احتمال این است که الگوریتم من در جایی باگ داشته باشد، دیگری این که نرخ یادگیری هدف دیگری دارد - زیرا نمیدانم که چگونه کاهش نرخ یادگیری (مرحله) میتواند منجر به افزایش هزینه تابع شود. # به روز رسانی گردش کار من به این صورت است: * محاسبه مشتق تابع هزینه * کاهش $ \theta $ (امیدوارم معنی دار باشد) بردار در بالا ضرب در ضریب نرخ یادگیری * محاسبه هزینه و از آنجایی که من تازه شروع کرده ام، 20 مرحله را انجام می دهم. فقط برای تست الگوریتم | آیا نرخ یادگیری در رگرسیون لجستیک معنای بیشتری دارد؟ |
3158 | آیا این نوع نمودار نامی دارد؟ مهمتر از آن، آیا کتابخانه ای وجود دارد که بتوانم از آن برای تولید آن استفاده کنم؟  http://www.nytimes.com/interactive/2007/12/15/us/politics/DEBATE.html | این نوع تجسم پیوند دایره ای چیست؟ |
97362 | در STAT101 ارزیابی شما بر اساس موارد زیر است: امتحان نهایی 50% یادگیری مبتنی بر ارزیابی آنلاین 30% تکالیف 20% سه متغیر تصادفی $X$, $Y$ و $Z$ را در نظر بگیرید که به ترتیب نشان دهنده آزمون، کل ارزیابی آنلاین و نمرات تکلیف (از 100٪) یک دانش آموز به طور تصادفی انتخاب شده است. فرض کنید که $X$، $Y$ و $Z$ مستقل هستند (این به وضوح درست نیست، اما پاسخ ها ممکن است تقریبی معقول باشند). فرض کنید که تجربه گذشته ویژگی های زیر را برای این آیتم های ارزیابی (هر یک از 100٪) پیشنهاد می کند: $E \ چپ ( X \راست ) = 61$، $sd(X) = 20$، $E(Y) = 72$ ، $sd(Y) = 22$ و $E(Z) =65$، $sd(Z) = 24$. الف) پارامترهای توزیع، $E(T)$ و $Var(T)$ را برای علامت کل، $T$ پیدا کنید، جایی که: $T = 0.5X+0.3Y+0.2Z$. | پارامترهای توزیع را پیدا کنید |
33204 | در ابتدا می گویم که من چندان با آمار آشنا نیستم. من در حال محاسبه شاخص خشکسالی هستم و مجموعه ای از مقادیر را دارم. گام بعدی در این روش استاندارد کردن مقادیر است تا امکان مقایسه بین مناطق و مقیاسهای زمانی فراهم شود. مقالهای که این شاخص خشکسالی خاص را ایجاد میکند، مجموعه دادههای آنها را با توزیع لجستیکی مطابقت میدهد و از تابع توزیع احتمال برای استاندارد کردن مقادیر استفاده میکند. مجموعه داده من از توزیع log-logistic یا هر توزیعی که بتوانم برای آن آزمایش کنم پیروی نمی کند. آیا روشی برای استانداردسازی مقادیری که از توزیع پیروی نمی کنند وجود دارد؟ آنچه من سعی می کنم انجام دهم محاسبه مقادیر شاخص خشکسالی برای استفاده در تلاش برای همبستگی شاخص خشکسالی با تقاضای آب آبیاری است. پیشاپیش ممنون  | استاندارد کردن یک مجموعه داده غیر عادی |
106080 | اخیراً درباره خوشهبندی سریهای زمانی زیاد مطالعه کردهام، زیرا میخواهم الگوهای مشابهی را در مجموعه دادههای خودم جستجو کنم. حتی با وجود اینکه احساس میکنم مفاهیم اولیه این کار را درک میکنم، هنوز وقتی درباره سریهای زمانی با ابعاد بالا و همچنین چند متغیره صحبت میکنم، سردرگم میشوم. در حالی که سری های زمانی چند متغیره سری های زمانی با بیش از یک متغیر هستند (به عنوان مثال EEG-داده)، ابعاد بالای یک سری زمانی طول یک سری زمانی معین را توصیف می کند. هنگام محاسبه فاصله بین سری های زمانی، هر دو ویژگی توصیف شده می توانند به اصطلاح نفرین ابعاد منجر شوند، بنابراین کیفیت خوشه های محاسبه شده را به خطر می اندازند. امیدوارم تا اینجا درست باشه؟ لطفا اگر نه دخالت کنید با این وجود، در حالی که روشهایی برای مقابله با ابعاد بالا (dwt، dft، ...) و تعداد زیادی متغیر (CLeVer) وجود دارد، من نمیتوانم روشی را برای انجام هر دو انجام دهم. برای مثال یک dwt در یک سری زمانی چند متغیره. دوستان آیا روشی می شناسید که بتواند این کار را انجام دهد؟ علاوه بر این، من خواندم که بیش از 10 بعد ابعاد بالا در نظر گرفته می شوند و بنابراین نیاز به استفاده از dwt یا dft دارند. با این حال، در این مثال، نویسندگان سریهای زمانی را با طول 60 نقطه داده خوشهبندی میکنند و همچنان نتایج قابل اعتمادی دریافت میکنند. | کاهش ابعاد بالا و همچنین انتخاب ویژگی در سری های زمانی چند متغیره |
94489 | من یک سوال کلی دارم که حدس میزنم میتواند برای بسیاری از دانشمندان علوم اجتماعی که با مجموعه دادههای تابلویی سروکار دارند، مرتبط باشد. بهترین روش ها برای ایجاد نمودار در مورد اثرات متقابل چیست؟ مقالات مختلفی وجود دارد که در مورد بستههایی مانند ggplot، ggplot2، sjPlot، افکتها و غیره صحبت میکنند، اما تا آنجا که من میدانم هیچ یک از آنها واقعاً چندین سال و چندین فرد را در نظر نمیگیرند. در حوزه مدیریت من، آنچه من اغلب می بینم، بی توجهی کامل به سال و اثرات فردی است، به طوری که یک تعامل برای مثال با یک متغیر x در محور x، یک مقدار ساده در مقابل متغیر متقابل دیگر در متغیر متقابل در محور x قرار می گیرد. البته نمودار و متغیر y روی محور y. سپس تفاوت در شیب نشان میدهد که چگونه این اثر متقابل تأثیر متفاوتی بر متغیر y دارد. این بسیار ساده به نظر می رسد زیرا (اگر درست متوجه شده باشم) تقریباً همه چیزهای خاص در مورد داده های پانل را پاک می کند، بنابراین اساساً دلایل اساسی جالب بودن پانل ها برای استنتاج آماری را نادیده می گیرد. بنابراین سوال من از جامعه گسترده تر: چگونه نتایج (و تعاملات) را از داده های پانل ترسیم می کنید. من قدردان پیشنهادات عمومی و کدنویسی هستم :) چند سوال اضافی: 1. وقتی یک دسته از متغیرهای کنترلی دارید، آیا مقادیر مصنوعی را برای همه آنها انتخاب می کنید؟ در مورد زمان و متغیرهای فردی چطور؟ 2. آیا راهی برای ترسیم تفاوت در باقیماندهها بین رگرسیون بدون اثرات متقابل و آنهایی که دارای برهمکنش هستند (مشابه اثرات حاشیهای) وجود دارد که چگونگی تأثیر متغیرهای متقابل بر متغیر وابسته (پاسخ) y را روشن کند؟ 3. در حالی که در مدیریت غیر معمول است، آیا می توانیم برای نشان دادن تعاملات، شکل های 3 بعدی ترسیم کنیم؟ منتظر نظرات و پیشنهادات شما هستیم | نحوه ترسیم افکتهای تعامل برای دادههای تابلویی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.