_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
69476
سوال این است: > شما سن زیر (بر حسب سال) 6 خرس را پیدا کرده اید. آن خرس ها > به طور تصادفی از بین 28 خرس در باغ وحش محلی شما انتخاب شدند: > > 46،1،20،16،12،2 > > بر اساس نمونه شما، میانگین سنی خرس ها چقدر است؟ > انحراف معیار چیست؟ می توانید پاسخ های خود را به نزدیکترین دهم گرد کنید. مشکل این است، در حالی که من انحراف میانگین تقسیم بر (n-1) را تعیین می کنم. در این حالت تقسیم بر 5. اما چرا؟ چه زمانی بر n و چه زمانی بر (n-1) تقسیم خواهیم کرد منبع:
مشکل انحراف معیار
102674
من داده های مقطعی دارم که در آن متغیر وابسته باید بر اساس سن رگرسیون شود. اگر سن و سن ^2 را در رگرسیون لحاظ کنم، ضرایب بسیار معنی دار هستند. وقتی سن ^ 3 را نیز اضافه می کنم ، همه ضرایب (سن ، سن ^ 2 و سن ^ 3) بسیار کوچکتر و ناچیز می شوند. در این مرحله، من بیشتر انتظار داشتم که اگر سن ^ 3 نقشی در مدل نداشته باشد ، ساده ناچیز است ، اما ضرایب سن و سن ^ 2 قابل توجه باقی می مانند. اما واضح است که در اینجا اینطور نیست. ؛) آیا دلیلی دارید که چگونه/چرا این اتفاق می افتد؟ خیلی ممنون :)
ضرایب با اضافه کردن متغیر اضافی ناچیز می شوند. توضیح؟
8081
آیا این درست است که نمودارهای میله ای افقی و عمودی در طول های مختلف برای چشم انسان هستند؟
آیا این درست است که نمودارهای میله ای افقی و عمودی در طول های مختلف برای چشم انسان هستند؟
114523
من دو طبقه‌بندی‌کننده دارم، مثلاً $A$ و $B$ و 10$\times$10 برابر اعتبار متقاطع روی آنها انجام می‌دهم و تعداد نمونه‌هایی را که به درستی از مجموعه تست طبقه‌بندی شده‌اند، ثبت می‌کنم. متأسفانه، تعداد نمونه‌های موجود بسیار کم است، بنابراین من فقط حدود 10 نمونه در هر مجموعه تست دارم. بنابراین، تعداد نمونه هایی که به درستی طبقه بندی شده اند بین 0 تا 10 است، مانند این: \begin{array}{rrr} \text{fold} & A & B\\\ \hline 1 & 8 & 9\\\ 2 & 7 & 7\\\ 3 & 10 & 8\\\ \vdots & \vdots & \vdots\\\ 100 & 9 و 8 \end{array} می‌خواهم بدانم که آیا $A$ و $B$ عملکرد متفاوتی دارند یا خیر. به طور معمول (هیچ جناسی در نظر گرفته نشده است)، من از تست $t$-تست جفتی (ولش) برای این نوع چیزها استفاده می کنم، اما به نظر می رسد اندازه مجموعه آزمون کوچک فرض عادی بودن را نقض می کند. علاوه بر این، هر دو $A$ و $B$ بسیار خوب هستند: آنها حدود 90٪ دقت در مجموعه داده من دارند. این بدان معناست که تعداد زیادی پیوند وجود دارد، یعنی جفت‌های همساز با $A = B \ تقریبا 9 $. به نظر می‌رسد که آزمون رتبه امضا شده ویلکاکسون، پایه اصلی مشکلاتی از این دست است. با این حال، من نگران تعداد زیاد کراوات هستم. من در مورد پاسخ های خنثی (صفرها) در تست علامت و پیوندها در تست ویلکاکسون-من-ویتنی توسط رونالد اچ. رندلز در پاسخ به سوال دیگری توصیه شده است، اما واقعاً نمی دانم که پارامتر $\gamma چگونه باید باشد. $ برای مشکل من انتخاب شود. علاوه بر این، از آنجایی که رندل فقط برای آزمون مجموع رتبه فرمول می دهد، باید فراموش کنم که مشاهدات من جفت هستند. اگر بخواهم به جای 10$\times$10-برابر اعتبار متقاطع ترک یک‌اوت را اجرا کنم، همه پاسخ‌های من $\\{0، 1\\}$ خواهد بود. در این مورد، آزمون مناسب، آزمون مک نمارس (دقیق) خواهد بود، که تا آنجا که من می دانم، صرفاً یک آزمون جایگزینی است. آیا تهیه یک آزمون جایگشت برای داده های من در $[0, 10] \cap \mathbb{Z}$ مناسب است؟ از آنجایی که مجموعه تفاوت های مطلق بسیار کوچک است، من حتی می توانم یک آزمایش جایگشت دقیق انجام دهم. اما آیا این معنادار است؟
برای جفت اعداد صحیح کوچک تست کنید
28848
من علاقه مندم که بدانم هنگام تولید/شبیه سازی داده ها برای آزمایش یا مقایسه روش های مدل سازی، عمل خوب چیست. من بر روی مدل های خطی و اندازه گیری دقت پیش بینی و اندازه گیری دقت تخمین پارامتر تمرکز می کنم. من به دقت پیش‌بینی (PSE) از نظر خطای پیش‌بینی مجذور معتبر متقاطع و دقت تخمین پارامتر بر حسب $\|\beta-\hat{\beta}\|$ (MSE) نگاه می‌کنم. من مجموعه ای از شبیه سازی ها را با استفاده از روشی که معتقدم یک روش صدا است، انجام داده ام، اما از نتایج راضی نیستم. من حدس می زنم که از چیزی غافل شده ام. مسئله این است که تخمین پارامترهای مجاور به شدت با یکدیگر همبستگی دارند و من نمی توانم دلیل آن را بفهمم. مسئله دیگر این است که در حالی که می توانم مجموعه داده هایی تولید کنم که تفاوت زیادی در دقت تخمین پارامتر نشان می دهد، عملکرد پیش بینی بسیار مشابه خواهد بود. من مطمئن نیستم که چرا این اتفاق می افتد، من انتظار دارم روش های با MSE بهبود یافته نسبت به روش های دیگر PSE بسیار بهبود یافته باشند. در اینجا یک مثال معمولی آورده شده است: http://ohyur.com/random/typical.png من آنچه را که تلاش کرده ام را تشریح خواهم کرد. * تخمین های پارامتر واقعی را تنظیم کنید، $\beta$ * ساختار همبستگی را برای متغیرهای پیش بینی تنظیم کنید * پیش بینی ها را با ساختار همبستگی مشخص، $X$ ایجاد کنید. من سعی کردم از mvrnorm() در R برای تولید N(0,1) ستون و تابع mvrunif() برای تولید ستون های U(-1,1) استفاده کنم. هر دو با ساختار همبستگی مشخص شده. * پاسخ را با استفاده از $Y=\mu + X\beta+\epsilon$ ایجاد کنید که $\epsilon$ $N(0,\sigma$) است. به نظر من، این روش منطقی برای تولید داده برای یک مدل خطی به نظر می رسد. در اینجا نمونه ای از شکل ظاهری داده های تولید شده آورده شده است: http://ohyur.com/random/data.png ($\mu=3,$ $\beta=(3,2,-3,5,2, -3,5,5)$, $\sigma=15$, $\text{cor}(x_i,x_j)=0.9^{|i-j|}$ اکنون در شبیه‌سازی‌های من، در هر تکرار من تولید داده ها مطابق با مراحل بالا، سپس برازش چند مدل، تخمین CV و محاسبه MSE و ذخیره نتایج برای 3 روش مختلف مدل سازی http://ohyur.com/. random/psemse.png **اکنون**، از همه جالبتر برای من، در اینجا یک نمودار زوجی از پارامترهای تخمین زده شده برای یک مدل OLS کامل است. چرا پیش‌بینی‌کننده‌های مجاور همبستگی دارند http://ohyur.com/random/estimates.png یکی از مواردی که من در مورد آن صحبت می‌کنم این است که در دنیای واقعی، برخی از پیش‌بینی‌کننده‌ها بیش از دیگران با پاسخ مرتبط هستند و نه تنها به دلیل آن؟ اندازه اثر واقعاً در راه اندازی من در نظر گرفته نشده است داده ها برای آزمایش مدل های لاینر بسیار قدردانی خواهند شد.
شبیه سازی یا تولید مجموعه داده ها برای آزمایش روش های مدل سازی
114529
من با استفاده از معادلات زنجیره‌ای در Stata برای رسیدگی به داده‌های گمشده آیتم‌ها، چندین انتساب را انجام می‌دهم. یکی از متغیرهایی که من بر روی آن حساب زدم درآمد بود. با این حال، پس از منتسب کردن، مقادیر منتسب شده درآمد حاوی مقادیر منفی هستند، اگرچه میانگین و انحراف معیار درآمد پس از تخصیص تقریباً مشابه مقادیر قبل از انتساب است. من از رگرسیون خطی برای القای درآمد استفاده کردم (اگرچه توزیع درآمد در جامعه مورد مطالعه نرمال نیست). در حالی که با استفاده از سایر گزینه‌های انتساب درآمد مانند تطبیق میانگین پیش‌بینی‌کننده، رگرسیون کوتاه، رگرسیون پواسون و رگرسیون دوجمله‌ای منفی، مدل انتساب موفق به همگرایی نمی‌شود. چگونه باید با چنین مقادیر منتسب شده منفی برخورد کنم؟ آیا می توانم این را نادیده بگیرم و به تجزیه و تحلیل بیشتر داده های منتسب شده چندگانه خود ادامه دهم؟
مقادیر منتسب شده منفی
61319
من در اینجا مقاله ای را می خوانم که تحلیلی انجام می دهد که به نظر من عجیب است، و به این فکر می کنم که آیا انجام کاری که آنها انجام می دهند معقول است یا خیر. مقاله به صورت آنلاین در دسترس نیست، اما فکر می‌کنم بتوانم بخش مهم آن را شرح دهم: نویسندگان گروهی از دانشجویان دانشگاهی داشتند که یک درس علوم را می‌گذراندند، و آنها «اثربخشی» آنها را در دو مقطع زمانی اندازه‌گیری کردند (پیش آزمون قبل از دوره، و سپس پس آزمون پس از دوره). آنها فرض کردند که دانش‌آموزانی که کمترین کارایی پیش‌آزمون را دارند، از قبل تا بعد، بیشترین سود را خواهند برد (و دانش‌آموزانی که بالاترین اثربخشی پیش‌آزمون را داشتند، کمترین پیشرفت را خواهند داشت). بنابراین دانش آموزان را بر اساس نمره پیش کارآمدی به چهارچوب تقسیم کردند. سپس آنها یک دو طرفه در ANOVA انجام دادند. IV ها آزمایشی (قبل یا بعد) و چهارکی (1، 2، 3، یا 4) بودند. DV کارآمد بود. آنها به دنبال آزمایشی هستند: تعامل چارک (امید است که آزمایشات پس از آن نشان دهند که پایین ترین چارک افزایش تن و بالاترین چارک کمی افزایش خواهد یافت). حدس می‌زنم چیزی که من را نگران می‌کند این است: 1. «چرک» واقعاً یک درون موضوعی IV نیست، زیرا برای هر موضوع ثابت است. تصور می‌کنم که در یک قالب طولانی، داده‌های آن‌ها برای هر موضوع دو ردیف (برای نمرات کارآمدی قبل و بعد) داشته باشد و چارک در هر دو یکسان باشد. 2. دانش آموزان در چارک برتر کمترین سود را دارند. پایین‌ترین چارک می‌تواند به خوبی بیشتر از چارک بالایی که واقعاً می‌توانست افزایش دهد (اثر سقف بر چارک بالا). 3. همچنین من را نگران می کند که نمرات چارک و پیش کارآمدی همبستگی بالایی دارند. نمی‌دانم درست است یا نه، اما برای من این چارک از پیش‌اثربخشی قابل محاسبه است، بنابراین گنجاندن هر دو مشکوک به نظر می‌رسد. 4. چرا ربع؟ چرا نصف یا یک سوم نمی شود، یا به نوعی از پیش کارآمدی مستقیماً به جای شکستن آن به ربع استفاده نمی شود؟ به عنوان مثال، چیزی مانند «(post - pre) ~ pre» و سپس یک اثر علامت منفی pre نشان می دهد که با افزایش pre، امتیاز تفاوت کاهش می یابد؟ امیدوارم بتوانم چنین تحلیلی را انجام دهم، اما نتوانستم در شرایط فعلی که از نحوه انجام این تحلیل ناراحتم، به جلو بروم. من اصلاً آمارگیر نیستم بنابراین ممکن است در اینجا کاملاً اشتباه کنم. نظرات در مورد اینکه آیا تجزیه و تحلیل صحیح است یا خیر، قدردانی می شود.
آیا یک ANOVA پیش آزمون-پس آزمون با کارایی پیش آزمون به عنوان یک IV معقول است؟
51009
**زمینه** من مجموعه ای از نقاط داده در فضای با ابعاد بالا (512D) دارم که می خواهم آنها را برای تجسم به 2 بعدی نگاشت کنم. من علاقه مند به مشاهده دو بعدی فواصل نسبی (تقریبی) بین نقاط داده و ساختار فضایی کلی آنها هستم. در حال حاضر من از مقیاس بندی چند بعدی در Matlab برای انجام این کار استفاده می کنم: % عدم تشابه ماتریس D = pdist(X', 'euclidean'); % MDS غیر متریک -- ابعاد را به 2D Y = mdscale(D, 2)'; % نمایش شکل نتیجه، نمودار(Y(1، :)، Y(2، :)، 'o'); جایی که «X» مجموعه ای از نقاط داده با ابعاد بالا (512 x تعداد نقاط) است. پس از انجام این نگاشت برای مجموعه ای از نقاط، من آرزو دارم بتوانم نقاط جدید با ابعاد بالا را در فضای دو بعدی بدون نیاز به استفاده از مجموعه اصلی نقاط با ابعاد بالا، طرح/نقشه برداری کنم. **سوالات** (1) چگونه می توانم نگاشت/پیش بینی مورد استفاده برای مقیاس بندی نقاط 512 بعدی به 2 بعدی را بدست آوریم تا بتوانم آن را در نقاط داده جدید اعمال کنم؟ (2) یک متریک خطا مناسب برای ارزیابی پیش بینی ها چیست؟ هدف از انجام این کار مقایسه تکنیک های مختلف کاهش ابعاد (مانند MDS در مقابل LLE) است. به عنوان مثال، آیا مقایسه فواصل بین k نزدیکترین همسایه مربوطه در هر دو فضا مناسب است؟ یعنی مجذور اختلاف فاصله‌های همسایه متناظر در دو فضا برای هر نقطه را جمع کنید و میانگین را محاسبه کنید.
یافتن برجستگی مورد استفاده در مقیاس بندی چند بعدی
85448
آیا قرار است باندهای اطمینان و پیش بینی در اطراف یک رگرسیون غیر خطی در اطراف خط رگرسیون متقارن باشند؟ به این معنی که مانند نوارهای رگرسیون خطی، شکل ساعت شنی را نمی گیرند. چرا اینطور است؟ مدل مورد نظر اینجاست: $$ F(x) = \left(\frac{A-D}{1 + \left(\frac x C\right)^B}\right) + D $$ این شکل است: ![http://i57.tinypic.com/2q099ok.jpg](http://i.stack.imgur.com/O8LOx.jpg) و این معادله است: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/ef5Fk.jpg)
شکل اطمینان و فواصل پیش بینی برای رگرسیون غیر خطی
8083
_نسخه تجدید نظر شده_ وضعیت: نمونه ای به اندازه $r$ داریم. سپس، شمارش می کنیم که چه تعداد از این $r$ موفقیت است. اجازه دهید $X=$ شماره باشد. از موفقیت ها و بگویید $X$ فاصله پواسون را دنبال کنید. هدف: برای آزمایش اینکه آیا $X$ واقعا پواسون است یا نه با استفاده از تست پراکندگی با آمار آزمون ارائه شده توسط $D=\frac{\sum_{i=1}^{n}(X_{i}-\overline{X})^2 }{\overline{X}}$ --- به عنوان حالت در اینجا. مشکل: 1. من فقط یک نمونه دارم، بنابراین n=1 من. بنابراین، اگر از $\overline{X}=X_1$ استفاده کردم، D=0. برای غلبه بر این مشکل، از بوت استرپ برای تولید نمونه های بوت استرپ n و بدست آوردن $\overline{X}$ استفاده می کنم. آیا این معتبر است؟ 2. آیا باید نمونه های بوت استرپ تولید شده مورد استفاده برای آزمایش فرضیه را به گونه ای انتخاب کنم که $\overline{X}=Var(X)$ حاصل شود؟ -- فکر می کنم اگر بخواهم پارامتر پواسون را تخمین بزنم باید از این قانون استفاده شود. من در استفاده از بوت استرپ برای تخمین و بوت استرپ برای تست فرضیه گیج شده ام. 3. تصویر: الف. داده ها: 0.42172863 0.28830514 0.66452743 0.01578868 0.02810549. بنابراین، $ r = 5 $. ب) موفقیت را تعریف کنید: مشاهده ای بزرگتر از 0.4. اینجا، $X=2$. ج. فرض کنید 3 نمونه بوت استرپ (از داده های مرحله الف) دریافت کنید: i) 0.28830514 0.01578868 0.66452743 0.02810549 0.02810549. بنابراین، $X=1$. ii) 0.42172863 0.66452743 0.02810549 0.66452743 0.66452743. بنابراین، $X=4$. iii) 0.02810549 0.66452743 0.01578868 0.66452743 0.42172863. بنابراین، $X=3$. d. بنابراین، $\overline{X}= 2.666667$ و $Var(X)= 2.333333$. توجه داشته باشید که در اینجا، من نحوه تولید 3 نمونه بوت استرپ (در مرحله ج) را کنترل نکردم. به همین دلیل $\overline{X}>Var(X)$. بنابراین، سؤالات من: 1. آیا بوت استرپ یک تکنیک معتبر برای به دست آوردن $\overline{X}$ در این مورد است؟ 2. آیا باید نحوه تولید نمونه های بوت استرپ را کنترل کنم تا $\overline{X}=Var(X)$ حاصل برای آزمایش فرضیه استفاده شود؟
تست پراکندگی یک نمونه برای پارامتر پواسون
8088
من روی پروژه‌ای کار می‌کنم که در آن رفتار را در یک کار مشاهده می‌کنیم (مثلاً زمان پاسخ) و این رفتار را به عنوان تابعی از چندین متغیر آزمایشی دستکاری شده و همچنین چندین متغیر مشاهده شده (جنس شرکت‌کننده، IQ شرکت‌کننده، پاسخ‌های مربوط به یک بعدی) مدل می‌کنیم. پرسشنامه بالا). من نگرانی در مورد چند خطی بودن در بین متغیرهای تجربی ندارم زیرا آنها به طور خاص دستکاری شده اند تا مستقل باشند، اما من نگران متغیرهای مشاهده شده هستم. با این حال، من مطمئن نیستم که چگونه استقلال را در بین متغیرهای مشاهده شده ارزیابی کنم، تا حدی به این دلیل که به نظر می رسد بسته به نحوه تنظیم ارزیاب، نتایج تا حدودی متفاوتی دریافت می کنم، و همچنین به این دلیل که با همبستگی در زمینه ای که یک یا هر دو متغیر دوگانه هستند. برای مثال، در اینجا دو رویکرد متفاوت برای تعیین اینکه آیا جنسیت مستقل از IQ است یا خیر، وجود دارد. من طرفدار آزمون اهمیت فرضیه صفر نیستم، بنابراین در هر دو روش دو مدل می‌سازم، یکی با رابطه و دیگری بدون، سپس محاسبه و نسبت احتمال ورود تصحیح شده با AIC: m1 = lm (IQ ~ 1) m2 = lm (IQ ~ جنسیت) LLR1 = AIC(m1)-AIC(m2) m3 = glm(sex~1,family='binomial') m4 = glm(sex~IQ,family='binomial') LLR2 = AIC(m3)-AIC(m4) با این حال، این رویکردها تا حدودی پاسخ های متفاوتی را ارائه می دهند. LLR1 حدود 7 است، که شواهد قوی به نفع یک رابطه را نشان می دهد، در حالی که LLR2 حدود 0.3 است، که نشان دهنده شواهد بسیار ضعیف به نفع یک رابطه است. علاوه بر این، اگر من سعی کنم استقلال بین جنسیت و متغیر مشاهده شده دوگانه دیگر، yn را ارزیابی کنم، LLR حاصل به طور مشابه به این بستگی دارد که آیا من مدل‌ها را برای پیش‌بینی جنسیت از yn یا پیش‌بینی yn از جنسیت تنظیم کنم. آیا پیشنهادی در مورد چرایی ایجاد این اختلافات و نحوه ادامه کار به طور منطقی دارید؟
ارزیابی چند خطی متغیرهای پیش بینی دوگانه
25171
من چند مدل لاجیت سطح 3 را با استفاده از Stata 12 تخمین می زنم و با یک دوراهی مواجه هستم که چگونه (یا اگر) سطح سوم خود را مشخص کنم. داده ها، پرونده های دادگاهی هستند که در داخل قضات تو در تو در مدارها قرار دارند. تنها اثر تصادفی رهگیری است. بیش از یک میلیون پرونده، حدود 500 قاضی، و 20 مدار وجود دارد. مشکل سطح 3 این است که برخی از داوران در مدارهای متعدد (عضویت چندگانه) فعالیت می کنند. این یک دوراهی ایجاد می کند و اینجاست که من دوست دارم بازخورد کسانی را که بیشتر می دانند بشنوم. من می توانم مدل را با k متغیر مستقل (و چندین تعامل) در نحو stata مشخص کنم: xtmelogit y x1 x2 x3##x4 xk ||_all: R.circuit || قضاوت: , intp(1) intp(1) نقاط ادغام را بر روی 1 قرار می دهد که منجر به تقریب لاپلاسی می شود که من خواندم ضرایب کم و بیش دقیق اما بالقوه سوگیری جدی در مولفه های واریانس دارد. من اکنون یک هفته است که مدلی مانند این را دارم که در حال اجراست و در دومین تکرار است، بنابراین حدس می‌زنم اگر همگرا شود، حداقل یک هفته دیگر طول می‌کشد. من گمان می کنم که اگر بخواهم 7 نقطه ادغام استاندارد را مشخص کنم، تکمیل مدل ماه ها طول می کشد. و بررسی نتایج برای حساسیت به نقاط ادغام را فراموش کنید. از طرف دیگر، من می توانم مدل را به صورت 2 سطح تخمین بزنم، نحو به صورت زیر است: xtmelogit y x1 x2 x3##x4 xk ib11.circuit || judge: , intp(7) این مدل شامل مدارها به عنوان ساختگی (مدار 11 به عنوان مرجع) تو در تو در میان داوران است. این مدلی است که من استفاده کرده ام. مشکل این است که سطوح مشخصاً اشتباه مشخص شده اند. نکته مثبت این است که من به ضرایب و مولفه های واریانس اطمینان بیشتری دارم زیرا می توانم از تعداد معقولی از نقاط ادغام استفاده کنم و تأیید کرده ام که نتایج به تعداد نقاط ادغام استفاده شده حساس نیستند. اما من تعجب می کنم که تعیین نادرست سطح چه تأثیری دارد. مطمئناً با مولفه‌های واریانس مشکل پیدا می‌کند، اما به هر حال مدل جایگزین به احتمال زیاد دارای مولفه‌های واریانس دقیق نیست. نگرانی واقعی برای من این است که آیا رهگیری و ضرایب تصادفی به روشی پیش‌بینی نشده مغرضانه هستند یا خیر. آیا کسی نظر یا راهنمایی حکیم دارد؟ ویرایش شده تا اضافه شود: من بیشتر به این موضوع فکر کرده‌ام و مسئله اصلی این است که می‌خواهم اثر مدار را کنترل کنم. مقالات دیگری با این داده ها منتشر شده است که در آن موارد در مدارها (2 سطح) تو در تو قرار گرفته اند و آنها تأثیر مهم مدار را بر نتیجه نشان داده اند. در مدل من با آدمک‌های مدار، نسبت‌های شانس قابل‌توجهی دارند که برخی از آن‌ها به 7، 8 یا 9 می‌رسد (همانطور که به نظر می‌رسد مدار یازدهم ملایم‌ترین مدار است). من نمی‌خواهم این اثر را نادیده بگیرم، بلکه می‌خواهم آن را به‌عنوان یک متغیر مزاحم کنترل کنم، تا زمانی که رهگیری‌ها و ضرایب من را تحت تأثیر قرار ندهد، می‌توانم با تخمین نادرست آن زندگی کنم. حدس می‌زنم آنچه می‌پرسم، این است که از آنجایی که به نظر می‌رسد روش صحیح فنی بیرون از پنجره است، کمترین راه برای انجام این کار چیست؟
سطوح نادرست در مدل لاجیت مختلط چندسطحی
25179
من یک رگرسیون لجستیک انتخاب متغیر به عقب اجرا می کنم و متوجه می شوم که برنامه SAS 12 متغیر را انتخاب کرده است و خروجی را به این صورت به من می دهم: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lkm16.jpg) ! [توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hWf7n.jpg) ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/RvVB0.jpg) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/a7uQy.jpg) ![توضیحات تصویر را اینجا وارد کنید] (http://i.stack.imgur.com/IRIhv.jpg) خنده دار است که پیکربندی من از انتخاب رو به عقب SAS این است که SC(SBC) را پایین بیاورد. به طور کلی، نتیجه به نظر می رسد که نتیجه SC فرض می کند که قطع با متغیرهای کمکی بدتر است. اما دو نفر دیگر AIC و -2logL پشتیبانی می کنند که Intercept با corvar مدل بهتری است. بچه ها ممکن است در مورد این نتیجه و خروجی آزمایش قضاوت کنید؟
چگونه این معیار نتیجه رگرسیون لجستیک را تفسیر کنیم
61316
من سعی می‌کنم بفهمم چه متغیرهایی در پیش‌بینی چند امتیاز در نیمه اول بازی‌های بسکتبال مهم هستند تا بتوانم آنها را به یک رگرسیون لجستیک متصل کنم. من می دانم که سازمان های شرط بندی در وگاس یک پیش بینی برای کل بازی (fg total) دارند که امتیازات کسب شده در نیمه اول را بسیار پیش بینی می کند. من در حال تلاش برای کشف عوامل دیگری هستم که در پیش بینی امتیازات نیمه اول مهم هستند و یک نامزد احتمالی وجود دارد... لاس وگاس همچنین پیش بینی هایی را در مورد اینکه تیم_1 تیم_2 را در بازی شکست خواهد داد (عرض fg) و یک نمودار ارائه می دهد. با توجه به امتیازات محور y در نیمه اول، و محور x بودن fg اسپرد نشان می دهد که اسپرد fg ارتباط کوچک اما قابل توجهی با امتیازهای کسب شده در نیمه اول دارد. با این حال، گسترش fg نیز یک همبستگی کوچک اما قابل توجه با کل fg دارد. چگونه می توانم تصمیم بگیرم که آیا گسترش fg باید متغیر خود را داشته باشد یا اینکه قبلاً به اندازه کافی با متغیر fg total حساب شده است؟ سوال دیگر من این است که اگر من ایده ای برای یک ویژگی دارم که ممکن است پیش بینی کننده باشد، آیا ایده خوبی است که این ویژگی را به سادگی در رگرسیون لجستیک قرار دهم و اگر رگرسیون لجستیک به آن ضریب بدهد به این معنی است که ویژگی مهم است و من باید نگهش دارم و اگر ضریبش نزدیک به 0 بشه یعنی مهم نیست و میتونم ولش کنم؟ اگر این ایده خوبی نیست، چگونه می توانم ویژگی های احتمالی را بیشتر بررسی کنم تا ببینم آیا آنها مهم هستند؟ لطفا به زبان ساده و حتی بهتر با مثال توضیح دهید من یک متخصص آمار نیستم. با تشکر
ویژگی های خوب را پیدا کنید
8087
من سعی می کنم فیلدهای تصادفی شرطی پنهان را مطالعه کنم، اما هنوز سؤالات اساسی در مورد آن روش ها دارم. من بسیار سپاسگزار خواهم بود اگر کسی بتواند در مورد نماد استفاده شده در بیشتر مقالات در مورد موضوع توضیح دهد. در چندین مقاله رایج ترین شکل مدل HCRF به صورت زیر ارائه شده است: $p(w|o;\theta) = \frac{1}{z(o; \theta)} \sum_{s} \exp{ \ Psi(w, s, o; \theta) } $ که در آن $\theta$ بردار پارامتر است، $w$ برچسب کلاس، $o$ دنباله مشاهده، $s$ مخفی است. توالی حالت و $\Psi$ تابع بالقوه است. با این حال، من هنوز نتوانستم بفهمم $s$ به چه معناست. آیا این فقط دنباله ای از اعداد صحیح است یا در واقع دنباله ای از گره ها در یک نمودار است؟ واقعاً چگونه می توان این جمع را محاسبه کرد؟ اکثر مقالاتی که خوانده‌ام فقط به این موضوع اشاره می‌کنند که هر $s_i \در S$ ساختار زیربنایی خاصی از هر کلاس را نشان می‌دهد ($S$ مجموعه حالت‌های پنهان در مدل است). اما من هنوز نتوانستم بفهمم که این واقعاً چه معنایی دارد.
حالت های پنهان در فیلدهای تصادفی شرطی پنهان
30363
این ممکن است کاملاً یک سؤال اساسی باشد، اما من یک مدل خطی ساده را اجرا می کردم و اصطلاحات غیر قابل توجه را حذف می کردم تا اینکه به یک مدل حداقلی رسیدم. هنگامی که به این امر رسید، من در حال به دست آوردن اهمیت برای متغیرهای توضیحی بودم که با حذف یک به یک آنها نیز باقی می ماند. اکنون، چیزی که من دریافت می‌کنم این است که یکی از آن متغیرها در مدل حداقلی من بعد از اینکه آن را رها می‌کنم غیرمعنی‌دار می‌شود و من کاملاً نمی‌دانم چه اتفاقی می‌افتد. اگر کسی می تواند به من راهنمایی کند، عالی است (کد در زیر است). بنابراین حداقل مدل من این بود: m1<-lm(log10(para.ml) ~ treat + prop.r + log(od)) تجزیه و تحلیل جدول واریانس پاسخ: log10(para.ml) Df مجموع مربع میانگین مربع F مقدار Pr( >F) درمان 3 4.2925 1.43083 30.113 9.181e-09 *** prop.r 1 1.5419 1.54190 32.451 4.723e-06 *** log(od) 1 0.5698 0.56981 11.992 0.001796 ** Residuals 27 1.2829 هر دو سطح و ضریب 0.04751 با _tre _at_4 در اینجا a. _log(od)_ متغیرهای پیوسته هستند. همانطور که می بینید، همه افکت ها قابل توجه به نظر می رسند و اگر _prop.r_ یا _log(od)_ را رها کنم، مدل _m1_ همچنان ترجیح داده می شود. اگرچه این اتفاق نمی افتد اگر _treat_ : m2<-update(m1,~.-treat) anova(m2,m1) تجزیه و تحلیل جدول واریانس مدل 1: log10(para.ml) ~ prop.r + log(od ) مدل 2: log10 (para.ml) ~ treat + prop.r + log(od) Res.Df RSS Df مجموع مربع F Pr(>F) 1 30 1.6202 2 27 1.2829 3 0.33728 2.3662 0.09308. حالا، اگر جدول anova را برای این مدل آخر دریافت کنم، این را به دست می‌آورم: anova(m2) تجزیه و تحلیل جدول واریانس پاسخ: log10 (para.ml) Df Sum Sq Mean Sq F مقدار Pr(>F) prop.r 1 4.8607 4.8607 90.003 1.537e-10 *** log(od) 1 1.2062 1.2062 22.335 5.045e-05 *** Residuals 30 1.6202 0.0540 بنابراین، با مقایسه _anova(m2)_ و _anova(m1)_ به نظر می رسد که بیشتر تغییراتی که توسط _treat_ توضیح داده شده بود، اکنون توسط _pro_log توضیح داده شده است. (od)_. بنابراین آیا این فقط موردی است که وقتی من _treat_ را در مدل خود دارم، بسیاری از تغییرات را توضیح می دهد که فقط می توانند توسط متغیرهای دیگر توضیح داده شوند؟ هر گونه کمک قدردانی!
فاکتور در مدل معنی دار است اما پس از افت معنی دار نیست؟
10810
چه کسی توزیع های نمونه را ایجاد کرد؟ من همه جا را گشته ام و دارم مقاله می نویسم، اما، تا کنون، تنها چیزی که توانسته ام به آن برسم تئوری و تعریف است. لطفا به من کمک کنید که چه کسی، چه چیزی، چه زمانی و کجا را پیدا کنم.
چه کسی برای اولین بار ایده توزیع نمونه را توسعه داد؟
38180
> **تکراری احتمالی:** > چگونه افزودن IV دوم می تواند IV اول را مهم کند؟ برای دو متغیر اصلی من، ضرایب همبستگی دو متغیره (با معیار نتیجه) غیرمعنادار هستند (متغیر $A$ با نتیجه -.15$ است و متغیر $B$ 0.04$ با نتیجه است، $p>.01$ در هر دو مورد). با این حال، وقتی وارد مرحله دوم مدل رگرسیونی من $A$ و $B$ شد به مدل اضافه می‌شود ($R^2$ از $.28$ به $.5$ می‌پرد)، و هر دو متغیر پیش‌بینی‌کننده‌های مهمی هستند ($). p<.01$). همبستگی نیمه جزئی مربعی برای متغیر $A$ 0.21$ و برای متغیر$B$$.12$ است. من مطمئن نیستم که از این چه باید بکنم. آیا تأثیری که من می بینم (در مدل رگرسیون) واقعی است؟ یا به دلیل این واقعیت که همبستگی های مرتبه صفر بسیار ضعیف هستند، مشکوک می شود؟ هر گونه نظر و نظر قدردانی خواهد شد.
ضرایب رگرسیون معنی دار اما همبستگی دو متغیره غیر معنی دار
51006
**زمینه**: رگرسیون سلسله مراتبی با برخی از داده های از دست رفته. **سوال**: چگونه می توانم از تخمین حداکثر احتمال اطلاعات کامل (FIML) برای رسیدگی به داده های از دست رفته در R استفاده کنم؟ آیا بسته ای وجود دارد که شما توصیه می کنید، و مراحل معمولی چیست؟ منابع و نمونه های آنلاین نیز بسیار مفید خواهند بود. **P.S.**: من یک دانشمند علوم اجتماعی هستم که اخیراً استفاده از R را شروع کرده ام. منتسب کردن چندگانه یک گزینه است، اما من واقعاً دوست دارم برنامه هایی مانند Mplus با استفاده از FIML داده های از دست رفته را به خوبی مدیریت کنند. متأسفانه به نظر نمی رسد Mplus در حال حاضر مدل ها را در زمینه رگرسیون سلسله مراتبی مقایسه کند (لطفاً اگر راهی برای انجام آن می دانید به من اطلاع دهید!). من تعجب کردم که آیا چیزی مشابه در R وجود دارد؟ با تشکر فراوان
حداکثر احتمال اطلاعات کامل برای داده های از دست رفته در R
28845
**طراحی مطالعه:** من یک طرح فاکتوریل 2×3، 2 سطح زمان (2050 یا 2100) در 3 سطح اطلاعات (هیچ/کنترل، متوسط، شدید) دارم. من هنگام تجزیه و تحلیل این طرح، تضادهای بسیار خاصی را تنظیم کردم، به ویژه کنترل در مقابل سایر، متوسط ​​در مقابل شدید، و 2050 در مقابل 2100. برای یک DV، ANOVA کلی قابل توجه نبود، اما کنتراست کنترل در مقابل سایر تضاد بود. **سوال:** بهترین راه برای تفسیر یک ANOVA غیر قابل توجه اما کنتراست قابل توجه چیست؟ من می دانم که ANOVA برای کاهش نرخ خطاهای خانوادگی استفاده می شود، و من نمی خواهم در دام نادیده گرفتن ANOVA کلی برای مقایسه های زوجی بیفتم. با این حال، این یکی از معدود تضادهایی است که من از قبل برنامه ریزی کرده ام. آیا این تفاوتی در تفسیر ایجاد می کند، یا باید به سادگی این دستکاری را مهم تلقی کنم؟
اگر ANOVA کلی مهم نباشد، اما تضادهای خاص وجود داشته باشد، چه؟
56259
در تلاش برای درک یادگیری ماشین، حداقل تا حدی، من الگوریتم های مختلف را برای حل سه مسئله در مدل پنهان مارکوف پیاده سازی کرده ام. من از مقاله آموزشی رابینر به عنوان راهنما استفاده کرده ام. من برای کارکرد الگوریتم Baum-Welch با مشکل مواجه شده ام - یعنی احتمال بعد از تخمین مجدد گهگاه کمتر از قبل است. این مقاله بیان می‌کند که نتیجه یک مرحله Baum-Welch یا یک نقطه بحرانی است یا احتمال بیشتری نسبت به مرحله قبلی دارد. این یعنی اجرای من نادرست است. برای اهداف اشکال‌زدایی، می‌خواهم بدانم که آیا این ویژگی برای هر متغیر (مثلاً توزیع اولیه، ماتریس انتقال و ماتریس انتشار) به‌صورت مجزا صادق است یا فقط زمانی که همه آنها اعمال شوند. من سعی کردم از مقاله اصلی Baum اثبات کنم، اما از توانایی ریاضی من خارج بود!
الگوریتم Baum-welch: احتمالات بعد از هر مرحله
61315
**طراحی تجربی** 4 حیوان یک کار انتخاب دودویی را با 60 آزمایش در مدت 15 روز تکرار کردند. برای هر روز، نسبتی را محاسبه کردیم که حیوان محرک «درست» داده شده را برای آن انتخاب کرد. علاوه بر این داده های انتخابی، ما یک معیار رفتاری پیوسته برای هر حیوان داریم (4 نقطه داده). ما می خواهیم این معیار رفتاری را با نسبت کلی حیوانات از انتخاب های صحیح مرتبط کنیم. شما می توانید این متغیر را به عنوان ویژگی هر حیوان، مانند جنس یا نوع ژنی آن و غیره در نظر بگیرید. **تحلیل اولیه** ما در ابتدا میانگین نسبت هر حیوان را در تمام روزها محاسبه کردیم و همبستگی پیرسون را برای میانگین نسبت محاسبه کردیم. با معیار رفتاری (-.99 [-.999,-.3160]، 95% فاصله اطمینان (CI)). با این حال، یک بازبینی در مورد اینکه چگونه این موضوع بی‌معنی است، زیرا ما چنین N کوچکی داریم، نظر داد. **سوال:** برای نشان دادن این رابطه باید از چه روش دیگری استفاده کنیم؟ * * * **داده** همانطور که توسط whuber درخواست شده است، داده ها به شرح زیر است: به معنای رفتار 0.672 13 0.637 21 0.596 23 0.513 39 مطابق با پارانویای من، اعداد بسیار کم تغییر می کنند. این نباید هیچ یک از تفاسیر را تغییر دهد.
اعتبار همبستگی گزارشگری با N=4
10816
در صفحه 9 در http://jenni.uchicago.edu/Oxford2005/four_param_all_2005-08-07_csh.pdf ATE - میانگین اثر درمان، سود مورد انتظار از شرکت در یک برنامه برای یک فرد تصادفی است. به عنوان مثال، تأثیر رفتن به دانشگاه را بر دستمزد ارزیابی کنید. با توجه به انتخاب سوگیری مراحل تخمین عبارتند از: 1. Probit، برای مدل کردن احتمال رفتن یک فرد به کالج. دو نسبت مختلف معکوس میلز محاسبه می شود. 2. برای کسانی که به کالج رفتند، OLS از دستمزد را بر روی متغیرهای توضیحی (مانند جنسیت و غیره) انجام دهید و همین کار را برای کسانی که به کالج نرفتند انجام دهید. برای هر رگرسیون OLS یک نسبت میلز معکوس مناسب به دست آمده از مرحله 1 را به عنوان یک متغیر توضیحی اضافی اضافه کنید. 3. ATE on میانگین تفاوت در مقادیر پیش بینی شده با استفاده از تخمین پارامترها برای گروه های دانشگاهی و غیر دانشگاهی است. سؤالات من این است: 1. در مرحله 3، نیازی به استفاده از تخمین پارامترها در نسبت های معکوس میلز مورد استفاده در پیش بینی نیست؟ من فقط این ضرایب را با محاسبه ATE حذف می کنم. 2. آیا باید متغیرهای موجود در OLS را در بین گروه های دانشگاهی و غیر دانشگاهی یکسان نگه دارم؟ اگر OLS را برای گروه‌های دانشگاهی و غیر دانشگاهی مناسب کنم، متغیرهای مختلف در توضیح تنوع درآمد مهم خواهند بود. بنابراین، زمانی که من ATE را محاسبه می کنم، برخی از تخمین های پارامتر صفر خواهند بود. 3. من تصمیم گرفته بودم که متغیرهای مستقل را به دو مجموعه تقسیم کنم، یکی برای probit و دیگری برای OLS. در OLS، اگر از نسبت‌های معکوس Mills همراه با متغیرهای مورد استفاده در Probit استفاده کنم، چند خطی بالایی وجود دارد. حتی اگر تخمین های بی طرفانه در حضور چند خطی به دست آید، من نگران پیش بینی و فاصله اطمینان گسترده به دلیل خطاهای استاندارد متورم هستم. لطفا به من اطلاع دهید، با تشکر Mermex
انتخاب نمونه هکمن
28474
من سؤالی دارم که احتمالاً یک سؤال ساده است، اما در حال حاضر من را گیج کرده است، بنابراین امیدوارم بتوانید به من کمک کنید. من یک مدل رگرسیون حداقل مربعات، با یک متغیر مستقل و یک متغیر وابسته دارم. رابطه معنادار نیست. حالا یک متغیر مستقل دوم اضافه می کنم. حال رابطه بین متغیر مستقل اول و متغیر وابسته معنادار می شود. این چگونه کار می کند؟ این احتمالاً نشان‌دهنده مشکلی در درک من است، اما برای من، اما نمی‌دانم که چگونه اضافه کردن این متغیر مستقل دوم می‌تواند اولین را مهم کند. توضیحات شما بسیار قابل احترام است.
چگونه افزودن IV دوم می تواند IV اول را مهم کند؟
95418
اگر متغیری را از مدل رگرسیونی که در R گفته می‌شود معنی‌دار نیست حذف کنم و رگرسیون را دوباره اجرا کنم، متغیری که کاملاً معنی‌دار بود دیگر معنی‌دار نیست و دیگری معنادارتر شده است. دلایل احتمالی چه می تواند باشد؟
اهمیت متغیر رگرسیون
82595
من یک سری زمانی تک متغیره دارم که روند و فصلی ماه دارد. من به طور سنتی از متد auto.arima() در R برای مدل‌سازی چنین سری‌هایی استفاده می‌کردم. بنابراین وقتی از تابع «forecast()» برای تولید پیش‌بینی استفاده می‌کنم، می‌دانم که به‌طور خودکار تفاوت‌هایی را که قبل از برازش مدل ایجاد شده بود، اضافه می‌کند. اما من می‌خواهم بدانم در حین ادغام این سری، چه در مولفه روند و چه در فصلی، چه اتفاقی می‌افتد، و چگونه پیش‌بینی واقعی ایجاد می‌شود. فرض کنید یک سری از $X_1...X_{100}$ داریم. ما آن را از نظر روند و فصلی متفاوت می‌کنیم، یعنی $(1-B)(1-B^{12}) X_t$. و سپس یک مدل ARIMA را در نظر بگیرید. اکنون من واقعاً ممنون می شوم اگر کسی بتواند توضیح دهد که چگونه پیش بینی واقعی توسط یکپارچه سازی ایجاد می شود. چه X_i$ خاصی برای تنظیم فصلی و روند اضافه شده است؟
پیش بینی سری های زمانی با روند و فصلی
61312
فاکتور F df p جنسیت 2.46 1.240 به روز رسانی 6.38 3.008 به روز رسانی جنسیت X 5.29 3.010 خطای 157 نتایج: هدف من این بود که بفهمم آیا تأثیری بر رفاه ذهنی دانشجویان دانشگاه واشنگتن شرقی در مقطع کارشناسی وجود دارد یا خیر. هنگام به روز رسانی وضعیت فیس بوک خود. من پیش بینی کردم که تغییری در بهزیستی/شادی ذهنی دانش آموزان ایجاد خواهد شد. با استفاده از یک نمودار خطی کلی برای نشان دادن نتایج، متوجه شدم که هنگام به روز رسانی وضعیت فیس بوک خود، تعاملی بین شرکت کنندگان زن و مرد وجود دارد. هنگام به روز رسانی از یک به سه بار در روز، رفاه ذهنی / شادی زنان و مردان افزایش یافت. F(3،157) = 5.9، p=.01. من همچنین هنگام انجام چهار تا شش به‌روزرسانی در روز، تأثیر اصلی را در زنان پیدا کردم. بهزیستی ذهنی آنها به سختی کاهش می یابد (M = 25, 34). اثر قابل توجه دیگری بر روی به روز رسانی به طور کلی یافت شد. `F(3,157) = 6.38`. من در تفسیر نتایج یافت شده در جدول مشکل دارم. من نمی دانم چگونه آنها را ادغام کنم و آنها را معنا کنم؟
تفسیر نتایج ANOVA دو طرفه
8082
من «ivprobit» را در Stata اجرا می کنم تا به عوامل تعیین کننده ثبت نام در بیمه سلامت (cbhi) نگاه کنم. من چندین رگرسیور برون زا و یک رگرسیور درون زا (مصرف) دارم. من از شاخص ثروت به عنوان یک متغیر ابزاری برای مصرف استفاده می کنم. با این حال، زمانی که من مدل «ivprobit» را اجرا می‌کنم، تمام رگرسیون‌های برون‌زای من در فهرست «ابزار» ظاهر می‌شوند. لطفاً کسی می تواند به من بگوید چگونه از این اتفاق جلوگیری کنم؟ من کد stata و نتایج زیر را کپی می کنم. پیشاپیش از کمک شما سپاسگزارم. . # تحدید. جداکننده اکنون ; . ivprobit cbhi age_hhead age2 edu_hh2 edu_hh3 edu_hh4 edu_hh5 mar_hh hhmem_cat2 hhmem_cat3 > hhhealth_poor hh_chronic hh_diffic risk حاملگی wra any_oldmem j_hh_3 > hhmem_cat3 qual_percep urban door_to_door chief_mem > pharm_in_vil drugsel_in_vil hlthcent_in_vil privclin_in_vil جوان edu_chief num_camp_vill خانه_مجموعه > qual2 qual3 size_ln name_hosp1 name_hosp3 name_hosp_indexpho_6; برازش مدل پروبیت برون زا تکرار 0: احتمال log = -1909.5425 تکرار 1: احتمال ورود به سیستم = -1687.946 تکرار 2: احتمال ورود به سیستم = -1681.6413 تکرار 3: احتمال log = -1681.614:14 -1681.6142 Iteration تطبیق مدل کامل تکرار 0: احتمال ثبت = -42769.776 تکرار 1: احتمال ورود به سیستم = -42766.676 تکرار 2: احتمال ورود به سیستم = -42736.028 تکرار 3: احتمال ثبت = -42734.629 -42724 تکرار Iteration374. 5: احتمال log = -42734.266 تکرار 6: احتمال log = -42734.266 مدل پروبیت با رگرسیورهای درون زا تعداد obs = 3000 Wald chi2(42) = 1113.82 احتمال ورود = -42734 > 0.206 Prob = -42734.00.266 Prob ------------------------------------------------ ---------------------------- | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ cons_pcm | 3.59e-06 2.15e-07 16.68 0.000 3.17e-06 4.01e-06 age_hhead | .0320042 .0129973 2.46 0.014 .00653 .0574784 age2 | -.0001774 .0001228 -1.45 0.148 -.0004181 .0000632 edu_hh2 | .051426 .0879334 0.58 0.559 -.1209203 .2237723 edu_hh3 | -.0075595 .1023748 -0.07 0.941 -.2082106 .1930915 edu_hh4 | -.000683 .1285689 -0.01 0.996 -.2526735 .2513075 edu_hh5 | -.2986249 .1713749 -1.74 0.081 -.6345136 .0372638 mar_hh | -.0539035 .067056 -0.80 0.421 -.1853308 .0775237 hhmem_cat2 | .4222092 .0675468 6.25 0.000 .2898198 .5545985 hhmem_cat3 | .7099401 .0822271 8.63 0.000 .5487778 .8711023 hhhealth_p~r | .1550617 .0699122 2.22 0.027 .0180362 .2920872 hh_chronic | .159681 .0718297 2.22 0.026 .0188973 .3004647 hh_diffic | .2613713 .0741209 3.53 0.000 .116097 .4066456 ریسک | -.0482252 .0467953 -1.03 0.303 -.1399423 .0434919 بارداری | .1200344 .1214774 0.99 0.323 -.1180569 .3581257 wra | .1033809 .0289192 3.57 0.000 .0467004 .1600614 any_oldmem | .0792428 .0680778 1.16 0.244 -.0541872 .2126729 j_hh2 | .0512404 .0815692 0.63 0.530 -.1086323 .211113 j_hh3 | -.349126 .0806268 -4.33 0.000 -.5071516 -.1911004 j_hh4 | .1928496 .0843208 2.29 0.022 .0275838 .3581154 hlthseek_mod | -.0359996 .0969011 -0.37 0.710 -.2259223 .153923 کمپین | .5068671 .0781293 6.49 0.000 .3537365 .6599977 qual_percep | .1840314 .0514758 3.58 0.000 .0831408 .2849221 شهری | -.0999875 .0590944 -1.69 0.091 -.2158103 .0158353 درب_به_در | .0564977 .0719369 0.79 0.432 -.084496 .1974914 chief_mem | .0811248 .0599964 1.35 0.176 -.036466 .1987156 pharm_in_vil | .0269211 .0582651 0.46 0.644 -.0872763 .1411185 drugsel_in~l | .0693485 .0586169 1.18 0.237 -.0455385 .1842355 hlthcent_i~l | .0089279 .0823509 0.11 0.914 -.1524769 .1703327 privclin_i~l | -.0547559 .0857815 -0.64 0.523 -.2228846 .1133728 جوان | .0899074 .0715818 1.26 0.209 -.0503903 .2302051 edu_chief | -.0888131 .0528856 -1.68 0.093 -.1924671 .0148408 num_camp_v~l | .0655667 .0548026 1.20 0.232 -.0418444 .1729779 home_colle~n | .1944581 .0606159 3.21 0.001 .0756531 .3132631
چرا Stata به طور خودکار رگرسیورها را به متغیرهای ابزاری در مدل ivprobit تبدیل می کند؟
82596
پیشاپیش از هرگونه کمکی متشکرم من کمی احمق آمار هستم. من دو شکل موج دارم که می خواهم آنها را با هم مقایسه کنم. یکی اندازه گیری واقعی است، دیگری مدلی از شکل موج اول است که من با انحراف یک تابع پاسخ ضربه با یک ورودی محاسبه می کنم. تا کنون من با محاسبه r مجذور آنالیز کرده ام که مدل من چقدر با اندازه گیری من مطابقت دارد. با این حال، می‌خواهم ببینم که این مدل چقدر با اندازه‌گیری مطابقت دارد، اما بیشتر یک سری زمانی است. من مشکوک هستم که این مدل در بخش‌های خاصی از آزمایش به خوبی جا می‌گیرد و در برخی دیگر کاملاً خراب می‌شود. شهود من این بود که یک نوع پنجره کشویی از مقادیر R-squared ایجاد کنم، اما همانطور که گفتم من به نوعی از نظر آماری به چالش کشیده ام :) بنابراین هر مشکلی مانند یک میخ به نظر می رسد که می توانم با چکش R-squared خود آن را چکش کنم. سؤالات من این است که اولاً آیا یک r-squared کوشر کشویی است؟ (در جستجوهای مختصر ادبیاتم چیزی از این دست پیدا نکردم). دوم، آیا کسی می تواند به روش بهتری اشاره کند؟ همین که مرا در مسیر درست قرار دهد کافی است. باز هم برای هر کمکی متشکرم اگر بتوانید مرجعی برای پشتیبانی از پاسخ خود ارائه دهید، مفید خواهد بود. خیلی بهترین! الف
یک روش خوب تناسب کشویی؟ (هجوم به جامعه آماری با استفاده از R-Squared)
57121
از نظر اهالی این انجمن چقدر این مقاله خوب است؟ این یک نکته مهم از مسئله حل نشده ریاضی را بیان می کند، و در مورد این واقعیت که مسئله ریاضی باید حل شود، ممکن است از نظر فلسفی بحث برانگیز باشد، کمی می گوید. می‌گوید: «یکی از مشکلات بحث در مورد مشکل Behrens–Fisher و راه‌حل‌های پیشنهادی، این است که تفسیرهای مختلفی از «مسئله Behrens–Fisher» وجود دارد. اما نمی‌گوید که «تفسیرهای مختلف» دیدگاه‌های فلسفی درباره این سؤال است که کدام مسئله ریاضی باید آن را مدل کند، نه تفاسیر متفاوت از اینکه آیا این مسئله استنتاج در مورد تفاوت بین میانگین‌های جمعیت‌های توزیع شده عادی است یا خیر. واریانس های احتمالا متفاوت
مشکل Behrens–Fisher در ویکی پدیا
55008
فرض کنید یک مدل رگرسیونی داریم که میانگین نمرات دانشگاهی را اندازه گیری می کند. متغیرهایی که ما استفاده می کنیم عبارتند از `hsize` (اندازه کلاس فارغ التحصیل در صدها)، `hsize مربع`، `sat` (نمرات SAT)، زن، و athlete. پس از تخمین مدل با استفاده از STATA، ورزشکاران دارای ضریب 0.1693 با مقدار T 4 و P مقدار 0 بودند. اگر امتیاز SAT را از مدل حذف کنم، ضریب ورزشکاران به 0.00544 و p-value جدید آن تغییر می کند. یک 0.903 عظیم با مقدار t 0.12 است. چیزی که من می پرسم این است که چه چیزی می تواند تغییر در تأثیر تخمینی ورزشکار بودن در این مدل را توضیح دهد.
حذف یک متغیر از یک مدل رگرسیون خطی چندگانه، باعث می‌شود که متغیر دیگر غیر معنی‌دار شود
10817
آیا کسی مدل سازی شماره تماس های تلفنی را با استفاده از OLS امتحان کرده است؟ مجموعه داده تعداد تماس ها در ماه برای حساب هر مشتری است. متغیر وابسته تعداد تماس ها یا میانگین تعداد تماس ها است و متغیرهای توضیحی متغیرهای خاص مشتری شامل تعداد خرید، کل هزینه و غیره است... با تماس گیرندگان صفر چگونه برخورد می کنید؟ فقط بخش کمی از مشتریان در واقع تماس می گیرند، 5٪. من سعی می کنم یک مدل پیش بینی بسازم، بنابراین می خواهم صفر تماس گیرنده را در مدل نگه دارم. من فکر نمی کنم که تعداد تماس متغیر تصادفی محدود یا سانسور شده باشد؟ من فکر کردم که تعداد تماس های صفر یک صفر واقعی است و باید برای آن حساب کرد؟ آیا باید از Tobit برای تخمین در اینجا استفاده کنم؟ م
مدل سازی تعداد تماس های تلفنی با OLS
96711
من باید یک مدل رگرسیون پیاده سازی کنم و حدود 30 متغیر در مدل دارم. برخی از متغیرها تأثیر زیادی روی مدل ندارند، اما من باید از یک روش فرمول بندی شده برای حذف متغیرها استفاده کنم. من به روش‌های AIC و BIC پایان دادم و از تابع step در R استفاده کردم. در R i از عبارت زیر برای رگرسیون در مبدا استفاده می‌کند، «g <- lm(Pcubes ~ 0 + ., data)» و یک رگرسیون با وقفه «g <- lm(Pcubes ~.، داده)» سپس از تابع step به عنوان l <- step(g) و خلاصه برای مدل جدید رگرسیون l، summary(l). هر زمان که از رگرسیون از طریق مبدا استفاده می کنم، خلاصه ای از «summary(l)» می گیرم که در آن برخی از متغیرها برای مدل مهم نیستند و همچنین یک مدل رگرسیون جدید دریافت می کنم که به صورت زیر است، lm (فرمول = Pcubes ~ X1 + X4 + X6 + X7 + X8 + X13 + X14 + X17 + X18 + X23 + X24 + X25 + X29 + X30 + X40 + X41 + X44 + X45 + X46 + X48 + X52 + X53 + X54 + X55 + X71 + X82 + X91 + X96 - 1، داده = داده) مدل جدید 1 را کم می کند. و تابع step نیز متغیرهای مختلفی را به همراه دارد. برای رگرسیون از طریق مبدأ و رگرسیون با رهگیری. بنابراین سؤالات من این است که آیا می توانم از تابع step در R برای رگرسیون از طریق مبدا استفاده کنم یا می توانم «-1» را در مدل نادیده بگیرم یا باید از رگرسیون با فاصله استفاده کنم تا بهترین متغیرها را انتخاب کنم و رگرسیون را از طریق منشاء با آن متغیرها؟
تابع گام در R برای مدل سازی رگرسیون
96715
بر اساس _SAGE دایره المعارف روش های تحقیق علوم اجتماعی_...> [یک] اثر سقف زمانی رخ می دهد که یک معیار دارای حد بالایی مشخص > برای پاسخ های بالقوه باشد و تمرکز زیادی از شرکت کنندگان در > یا نزدیک به این حد امتیاز می گیرند. تضعیف مقیاس یک مشکل روش شناختی است که هر زمان که واریانس به این روش محدود شود رخ می دهد. برای مثال، یک اثر سقف ممکن است با معیاری از نگرش ها رخ دهد که در آن نمره بالا نشان دهنده یک نگرش مطلوب است و بالاترین پاسخ نمی تواند مثبت ترین ارزیابی ممکن را ثبت کند. ... بهترین راه حل برای مشکل > جلوه های سقف، آزمایش آزمایشی است، _ که امکان شناسایی زودهنگام مشکل را فراهم می کند. اگر یک اثر سقفی _یافته شود_، [و] معیار نتیجه کار > عملکرد باشد، کار را می توان دشوارتر کرد تا دامنه > پاسخ های بالقوه را افزایش داد.1 [تاکید اضافه شده] به نظر می رسد توصیه ها و سوالات زیادی وجود دارد (و در اینجا) به تجزیه و تحلیل داده هایی می پردازد که اثرات سقف مشابه آنچه در نقل قول بالا توضیح داده شده را نشان می دهد. سوال من ممکن است ساده یا ساده لوحانه باشد، اما واقعاً چگونه می توان تشخیص داد که یک اثر سقفی در داده ها وجود دارد؟ به طور خاص، فرض کنید یک آزمون روان‌سنجی ایجاد می‌شود و گمان می‌رود که منجر به یک اثر سقفی شود (فقط معاینه بصری) و سپس این آزمون برای تولید طیف وسیع‌تری از مقادیر بازنگری می‌شود. چگونه می توان نشان داد که آزمون تجدید نظر شده اثر سقف را از داده هایی که تولید می کند حذف کرده است؟ آیا آزمونی وجود دارد که نشان دهد در مجموعه داده _a_ اثر سقفی وجود دارد اما در مجموعه داده _b_ اثر سقفی وجود ندارد؟ رویکرد ساده لوحانه من این است که فقط انحراف توزیع را بررسی کنم و اگر کج نیست، نتیجه بگیرم که هیچ اثر سقفی وجود ندارد. آیا این بیش از حد ساده انگارانه است؟ ### ویرایش برای افزودن یک مثال ملموس‌تر، بگویید من ابزاری را توسعه می‌دهم که برخی از ویژگی‌های نهفته _x_ را اندازه‌گیری می‌کند که با افزایش سن افزایش می‌یابد اما در نهایت کاهش می‌یابد و در سنین پیری شروع به کاهش می‌کند. من اولین نسخه را که دارای برد 1-14 است، انجام می‌دهم و می‌بینم که به نظر می‌رسد ممکن است یک اثر سقفی وجود داشته باشد (تعداد زیادی از پاسخ‌ها در 14 یا نزدیک به حداکثر، حداکثر.. من این را فقط با با نگاه کردن به داده‌ها، آیا روش دقیقی برای حمایت از این ادعا وجود دارد آیا می دانم که محدوده اندازه گیری به اندازه کافی بزرگ است ://i.stack.imgur.com/YBS5v.png) من می‌خواهم بدانم چگونه می‌توانم این اثر سقفی را در داده‌ها تشخیص دهم، نه اینکه فقط به آن نگاه کنم. گسترش گستره ی ابزار، گسترش داده های بهتری ایجاد کرد، اما آیا می توانم آن را آزمایش کنم؟ در Michael S. Lewis-Beck، A. Bryman و Tim Futing Liao (ویراستاران)، _The SAGE Encyclopedia of Social Science Methods Research. (ص 107). Thousand Oaks, CA: Sage Publications, Inc. doi: 10.4135/9781412950589.n102
چه معیارهایی باید رعایت شود تا به این نتیجه برسیم که «اثر سقفی» رخ می دهد؟
65765
من این پاسخ را دیدم (http://stats.stackexchange.com/a/6374/27969) که می‌گفت اگر $1-\frac{SSR}{SST}$ باشد، R^2$ می‌تواند منفی باشد. SSR مجموع مربعات باقیمانده است که به صورت \begin{align} SSR &= \displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_{i})^2 \\\ تعریف می‌شود. &= \displaystyle\sum\limits_{i=1}^n (y_i - \hat{\beta_1} x_{i1} - \hat{\beta_2} x_{i2} - \ldots - \hat{\beta_k} x_{ik} )^2 \\\ \end{align} وقتی هیچ قطعی وجود ندارد، و SST مجموع مجموع مربع‌ها است یا \begin{align} SST &= \displaystyle\sum\limits_{i=1}^n (y_i - \bar{y})^2 \\\ \end{align} همچنین SSE یا توضیح داده شده مجموع مربع‌ها، \begin{align} SSE &= \displaystyle\sum\limits_{i=1}^n (\bar{y} - \hat{y}_i)^2 \end{align} در نماد است از کتاب من من تازه به بخشی از کتاب درسی ام رسیدم که در آن به این موضوع نیز اشاره شده است و من گیج شده ام. چرا این درست است؟ در اینجا چیزی است که من می توانم انجام دهم. من می دانم که \begin{align} R^2 &= 1-\frac{SSR}{SST} \\\ \end{align} بنابراین برای $R^2 <0$، ما به $\frac{SSR}{ نیاز داریم SST} > 1$. این چیزی است که من کار کردم: \begin{align} SSR &> SST \\\ \displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_{i})^2 &> \displaystyle \sum\limits_{i=1}^n (y_i - \bar{y}_{i})^2 \\\ \end{align} این مدرکی است که من سعی کردم کار کنم out: \begin{align} SSR &> SST \\\ SSR &> \displaystyle\sum\limits_{i=1}^n (y_i - \bar{y})^2 \\\ &> \displaystyle\sum \limits_{i=1}^n \left[ (y_i - \hat{y}_i) - (\bar{y} - \hat{y}_i)\right]^2 \\\ &> \displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_i)^2 - 2\displaystyle\sum\limits_{i=1}^n (y_i - \hat {y}_i)(\bar{y} - \hat{y}_i) - \displaystyle\sum\limits_{i=1}^n (\bar{y}_i - \hat{y}_i)^2 \\\ &> SSR - 2\bar{y}\displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_i) + 2\displaystyle\ sum\limits_{i=1}^n \hat{y}_i(y_i - \hat{y}_i) - \displaystyle\sum\limits_{i=1}^n (\bar{y} - \hat{y}_i)^2 \\\ &> SSR - 2\bar{y}\displaystyle\sum\limits_{i=1}^n (y_i - \hat{y} _i) + 2\displaystyle\sum\limits_{i=1}^n \hat{y}_i(y_i - \hat{y}_i) - SSE \\\ 0 &> -2\bar{y}\displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_i) + 2\displaystyle\sum\limits_{i=1}^n \hat{y} _i(y_i - \hat{y}_i) - SSE \\\ SSE &> -2\bar{y}\displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_i) + 2\displaystyle\sum\limits_{i=1}^n \hat{y}_i(y_i - \hat{y}_i) \\\ \end{align} اینجاست من گیر می کنم. آیا اثبات در مسیر درست است یا قبل از اینکه من گیر کنم اشتباهی رخ داده است؟ نکات عالی خواهد بود. من کم کم دارم متوجه می شوم که چرا این طور منطقی است. SSR مجموع مجذورات فواصل نقاط تا خط رگرسیون است، در حالی که SST مجموع مربعات فواصل نقاط تا خطی است که از طریق $\bar{y}$ کشیده شده است. $R^2$ منفی است زیرا $SSR > SST$، به این معنی که از آنجایی که ما محدودیتی را اعمال می‌کنیم که خط رگرسیون باید از مبدا عبور کند، خط رگرسیون ما حتی بدتر از زمانی است که فقط یک خط افقی در $ بکشیم. y =\bar{y}$ و از آن استفاده کرد. فواصل نقاط تا خط رگرسیون بیشتر از فاصله نقاط تا خط در $\bar{y}$ است (خوب مجموع مربعات فواصل بزرگتر است). آیا این منطق درستی است؟
چرا $R^2$ می‌تواند در یک رگرسیون چندگانه که وقفه ندارد ($\hat{\beta}_0 = 0$) منفی باشد؟
8089
چرا به یاد آوردن نکات منفی واقعی را در نظر نمی گیرد؟ در آزمایش‌هایی که منفی‌های واقعی به اندازه مثبت‌های واقعی مهم هستند، آیا معیاری قابل مقایسه است که آن را در نظر بگیرد؟
چرا به یاد آوردن نکات منفی واقعی را در نظر نمی گیرد؟
82593
هدف من ارزیابی این بود که آیا یک طرح بازاریابی سودمند است یا خیر. من اطلاعات مربوط به قیمت ($P_t$) یک محصول خاص را در طول زمان مشاهده کردم. از آنجایی که متغیر وابسته من فقط روی $[0,\infty)$ تعریف می‌شود، معمولاً باید از یک تابع پیوند استفاده کنم، اما این را نادیده می‌گیرم. مطالعات انجام شده، من از چارچوب GAM (مدل افزودنی تعمیم‌یافته) برای تناسب با تأثیر زمان (T$) (داده‌شده در روز) و تعداد فروش (S_t$) به روشی انعطاف‌پذیرتر استفاده کردم، زیرا انتظار داشتم که هر دو وابستگی ها غیر خطی هستند (یا حداقل بعید است که بتوان آنها را به معنای خطی مدل کرد). متغیر ساختگی ($D$)، که نشان می دهد آیا طرح بازاریابی اتفاق افتاده است، نیز در مدل گنجانده شده است. پس از نصب مدلی مانند: $P_t = f_1(S_t,D) + f_2(T) + e_t$ با استفاده از P-Splines برای $f_1$ و یک چرخه-اسپیلاین برای $f_2$، باقیمانده های خود را بررسی می کنم $\hat{e_t} $ برای فرض عادی زیربنایی. این چیزی است که من دریافت می کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/XITtZ.png) بدیهی است که به من می گوید که واریانس باقیمانده های من، یعنی $\hat{\sigma اگر فرض کنم باقیمانده‌های $\hat{e_t}$ من واقعاً عادی هستند، }_e$ کمتر از حد انتظار است. بنابراین سوال من این است که آیا این عدم پراکندگی در زمینه GAM به نوعی مشکل ساز است؟ اگر چنین است، اگر هدف من این باشد که بفهمم آیا تفاوت قابل توجهی در $f_1(S_t,D=0)$ در مقایسه با $f_1(S_t,D=1)$ وجود دارد، چه مشکلاتی برایم پیش می آید؟
دلیل نگرانی اگر EMP. توزیع باقی مانده در حدود صفر در مقایسه با نرمال نظری متراکم تر است؟
96712
احتمالا سوال احمقانه است، اما من در اینجا کاملا مطمئن نیستم. من می خواهم $\mathbb{E}[X_i|X_i > X_j \ \forall j \neq i]$ را محاسبه کنم، توجه داشته باشید که این انتظار حداکثر توزیع نیست، همانطور که $i$ را ثابت کردم! بنابراین نوشتن این به‌عنوان انتگرال، $\int_\mathbb{R}\int_{-\infty}^{x_i}\cdots\int_{-\infty}^{x_i} x_i p(x_1)\cdots p(x_n) d می‌دهد x_1 \cdots d x_n$ یا $\int_\mathbb{R}CDF_1(x_i)\cdots\widehat{CDF_i(x_i)}\cdots CDF_n(x_i) x_i p(x_i)d x_i$ آیا من درست هستم یا عبارت ساده‌تری وجود دارد؟ با تشکر
انتظار RV مشروط به بزرگتر بودن از دیگران است
16303
بنابراین بیایید بگوییم که من سعی می کنم فواصل اطمینان را برای درصد افرادی که آهنگی را در یک وب سایت دانلود می کنند پیدا کنم. ما در یک سال 1000 نفر از سایت بازدید کردند و 100 نفر آهنگ را دانلود کردند. اکنون، می توانم فواصل اطمینان ایجاد کنم تا میزان دانلود مورد انتظار بازدیدکنندگان از سایت ما را تخمین بزنم. حالا فرض کنید می‌خواهم بدانم با چه سرعتی می‌خواهم بازدیدکنندگان وب‌سایت را از دانلود آهنگ منع کنم. فرض کنید میزان دانلود ما یک روز 2 درصد است. آیا راهی برای محاسبه وجود دارد که در چه مرحله ای باید دانلود را حذف کرد؟ بنابراین، اگر نرخ دانلود 2٪ باشد و خوب نیست، آیا آزمایشی وجود دارد که به من امکان دهد بفهمم با چه نرخ دانلود پایینی باید دانلود را حذف کنم.
چگونه فواصل اطمینان را برای درصد افرادی که آهنگی را در وب سایت دانلود می کنند محاسبه کنیم؟
16308
همه چیزهایی که خوانده ام نشان می دهد که هنگام اجرای ANOVA، فرضیه صفر و جایگزین همیشه به شرح زیر است: * $H_0$: هیچ تفاوتی در میانگین وجود ندارد، * $H_a$: تفاوت در میانگین وجود دارد. اما اگر من درمانی داشته باشم و بر اساس تجربه یا ادبیات گذشته انتظار داشته باشم که این درمان بهتر از دیگری عمل کند، آیا فرضیه ANOVA همیشه می تواند این باشد: * $H_0$: A برابر یا بدتر از B، * $ خواهد بود. H_a$: A بهتر از B خواهد بود؟ من متوجه شدم که موارد فوق را می توان با یک آزمون $t$-یک دنباله آزمایش کرد، اما آیا همین فرضیه برای ANOVA صحیح/ممکن است یا یک نه نه آماری است؟
چگونه یک فرضیه جهت دار را با استفاده از ANOVA آزمایش کنیم؟
56251
من می‌دانم که Anova به چند آزمون t ترجیح داده می‌شود، اما آزمون t چندگانه دقیقاً چیست؟ نمونه‌هایی شامل گرفتن گروه‌ها از جمعیت (با میانگین جمعیت یکسان): * ما گروه‌هایی داریم که از یک جمعیت گرفته می‌شوند، سپس با درمان‌های مختلف در هر گروه آزمایش می‌شوند، سپس اثر درمان را بین هر جفت گروه مقایسه می‌کنیم. به عنوان مثال دانش آموزان یک مدرسه به طور تصادفی به 3 گروه تقسیم می شوند، هر کدام یک قرص ویتامین متفاوت مصرف می کنند و ما سطح آمادگی جسمانی را بین گروه 1 و 2، 2 و 3، 3 و 1 مقایسه می کنیم. * شما دو یا چند گروه دارید و چندین پارامتر را با هم مقایسه می کنید. به عنوان مثال شما دو گروه از دانش‌آموزان دارید، یکی قرص ویتامین مصرف کرده و دیگری دارونما، اما ما سطح آمادگی جسمانی، قد، وزن، محتوای چربی و غیره را بین گروه‌ها مقایسه می‌کنیم. این نیز به چندین آزمون t نیاز دارد و بهتر است از Anovo با روش صحیح پس آزمون استفاده شود. مثال متفاوتی که شامل مقایسه گروه‌های موجود است: * ما 5 گونه مختلف از حیوانات را می‌گیریم، آنها را با همان رفتار مواجه می‌کنیم و پاسخ آنها را با یکدیگر مقایسه می‌کنیم. به عنوان مثال به گوسفند، گاو، اسب، مرغ و موش تزریق شیمیایی شد و تغییر سطح آمادگی جسمانی آنها را ثبت کردیم (به همین ترتیب). اگر بخواهم نتیجه را به صورت جفت (مثلاً گوسفند و گاو، گاو و اسب، اسب و مرغ، مرغ و موش و غیره) با استفاده از آزمون t مقایسه کنم، آیا این هنوز «آزمون t چندگانه» است (آنها یک تست ندارند). میانگین جمعیت مشترک...). آیا هنوز باید از Anova استفاده کنم؟
آنالیز واریانس یا چند آزمون t هنگام مقایسه میانگین های گروهی از قبل موجود؟
82598
فرض کنید من داده هایی شبیه به این head(dt) Mass RT A 1 294.9862 6.157 2013154 2 264.0223 6.202 230690 3 283.9639 6.354 65035 4 29616.65035 4 294.9862 5 289.9770 6.480 26762 6 264.0221 6.520 190739 library(ggplot2) ggplot( داده = dt، aes( x = RT، y = جرم) ) + geom_point(aes(color = log2(A))، اندازه = 5) + scale_color_gradientn(ld(A)، colours= rev(heat.colors(255)) + theme_bw() ![توضیحات تصویر را اینجا وارد کنید ](http://i.stack.imgur.com/8GbeY.png) کاری که می خواهم انجام دهم این است که نقاط داده های خود را بر اساس یک گروه بندی کنم روش چگالی هسته (همانطور که با لایه چگالی نمودار نشان داده شده است). اما من واقعاً ایده ای ندارم که چگونه می توان در «R» به این هدف دست یافت. من قبلاً از «npudens» از بسته «np» استفاده کردم، اما واقعاً متوجه نشدم که چگونه مقادیر چگالی را از شی به دست آمده استخراج/پیدا کنم. library(np) npudens(~RT+Mass,data=test.tab ) دلیل انتخاب «npudens» به جای «kde2d» این است که می‌خواهم پهنای باند مشروط را به تخمین‌گر چگالی ارائه دهم، یعنی به نوعی که پهنای باند توابع خطی «Mass» و «RT» هستند به عنوان مثال 0.005٪ از جرم و 5 درصد از RT. هر گونه کمکی بسیار قدردانی می شود. من با این روش ها تازه کار هستم و احساس می کنم کمی گم شده ام. برای بازتولید در اینجا «dput» داده‌های من است: dt <- structure(list(Mass = c(294.9862, 264.0223, 283.9639, 261.9819, 289.977, 264.0221, 272.094,272.017. 283.9639, 261.9818, 290.0401, 272.0176, 294.9861, 264.0222, 283.9636, 261.9819, 272.0176, 2294.298. 261.9818, 289.977, 272.0173, 294.9863, 283.964, 261.9818, 290.0397, 272.0174, 294.9861, 283.9869, 281.9818, 281.9818. 290.0398, 272.0174, 294.9862, 264.0222, 283.9637, 261.9818, 289.9769, 290.0402, 272.0174, 21223, 2194.98 279.9958, 283.9637, 261.9818, 289.9766, 290.0401, 272.0174, 294.9862, 264.0222, 283.9638, 261.227, 261.98. 294.9861, 283.9638, 261.9819, 289.9769, 290.04, 272.0173, 294.9862, 264.0223, 261.9819, 290.0729, 290.040 264.0224, 283.9637, 261.982, 272.0173, 294.9862, 283.9635, 261.9816, 290.0402, 272.0172, 2122226, 2122226. 279.9961, 283.9637, 261.9815, 272.0171, 294.9862, 264.0222, 283.9638, 261.9818, 272.0174, 29224.294.98. 283.9638، 272.0169، 294.986، 264.0225، 283.9636، 272.017، 294.9861، 264.0225، 283.9635، 272.0225، 272.016. c(6.157، 6.202، 6.354، 6.362، 6.48، 6.52، 6.543، 6.153، 6.193، 6.348، 6.362، 6.514، 6.54، 6.195، 6.195، 6.153، 6.542، 6.161، 6.362، 6.37، 6.479، 6.546، 6.157، 6.359، 6.371، 6.528، 6.544، 6.151، 6.355، 6.479، 6.363، 6.355، 6.363 6.159، 6.205، 6.365، 6.372، 6.472، 6.529، 6.54، 6.155، 6.2، 6.204، 6.373، 6.38، 6.479، 6.529، 6.529، 6.529، 6.529، 6.529. 6.373، 6.386، 6.538، 6.547، 6.163، 6.376، 6.387، 6.472، 6.537، 6.54، 6.156، 6.194، 6.374، 6.163، 6.515، 6.515، 6.515 6.377، 6.382، 6.532، 6.162، 6.362، 6.379، 6.53، 6.534، 6.165، 6.198، 6.215، 6.387، 6.387، 6.362، 6.536، 6.536، 6.539 6.397، 6.541، 6.169، 6.208، 6.393، 6.54، 6.163، 6.203، 6.384، 6.542، 6.164، 6.201، 6.401، 6.534، 6.534، 6.534 = 230690 65035 1607568 26762 190739 121136 2357853 263807 68086 1551442 59292 118160 118160 64018, 1519476, 119259, 2984633, 80162, 1680411, 35609, 157181, 3182405, 81694, 1721163, 49823, 49815 76425, 1623899, 35616, 45969, 155354, 2859136, 630649, 80974, 1435648, 30731, 50551, 160070, 160070, 319, 160070, 3196 83406 1190889 32199 48741 153469 3188184 662134 81513 1066302 54851 151038 288364357 48020, 146510, 3052724, 679433, 1242839, 55651, 137011, 3178104, 702678, 62029, 903551, 149928, 149964, 149964 461936 51645 138286 2492192 736078 91805 67877 450461 146526 2678001 731678 570354 686878, 58532, 120400, 841196, 754836, 52527, 115968, 862693, 742445, 53013, 111391, 68416,,,, RTMasA =,(RTNames) = c(NA، -100L)، کلاس = data.frame)
خوشه‌بندی داده‌های دو بعدی با استفاده از روش‌های چگالی هسته
56256
من 2 نمونه از همان دستگاه 256 نمونه جمع آوری کردم. di و vi. من می‌خواهم میانگین جمعیت را تخمین بزنم که بین 0 و 1 خواهد بود زیرا متغیر xi را از di و vi به صورت زیر محاسبه می‌کنم: $x_i=\frac{d_i-v_i}{d_i}$ برای هر نمونه. آیا می توانم تمام روش های آماری را برای xi اعمال کنم؟ آیا این یک نسبت است یا این یک نمونه عادی می شود؟ همانطور که می بینید، من کمی گم شده ام.
یک متغیر محاسبه از 2 نمونه، چه باید کرد؟
85445
من به دنبال مقایسه ضرایب رگرسیون بین دو مدل رگرسیون هستم. هر مدل دارای چهار متغیر مستقل یکسان است: دو پیش بینی کننده مورد علاقه (ما آنها را A و B می نامیم) و دو متغیر کنترل (C و D). تنها تفاوت بین این دو مدل این است که متغیرهای وابسته متفاوتی دارند: مدل اول DV1 را پیش‌بینی می‌کند، در حالی که مدل دوم DV2 را پیش‌بینی می‌کند. همه مشاهدات از یک نمونه هستند، بنابراین ضرایب رگرسیون وابسته هستند. من معتقدم که A و B هر دو DV1 را قوی‌تر از DV2 پیش‌بینی می‌کنند. به عبارت دیگر، ضریب رگرسیون برای A پیش‌بینی‌کننده DV1 (کنترل B، C و D) باید از نظر بزرگی بیشتر از ضریب رگرسیون برای A پیش‌بینی‌کننده DV2 (کنترل B، C و D) باشد. به طور مشابه، ضریب رگرسیون برای B پیش‌بینی‌کننده DV1 (کنترل A، C و D) باید از نظر بزرگی بالاتر از ضریب رگرسیون برای B پیش‌بینی‌کننده DV2 (کنترل A، C و D) باشد. اساسا، من می‌خواهم تفاوت بین دو ضریب رگرسیون وابسته را از دو مدلی که همه IVهای یکسان دارند، اما DVهای متفاوتی دارند، آزمایش کنم. آیا آزمون اهمیت رسمی وجود دارد که بتوانم از آن استفاده کنم؟
مقایسه ضرایب رگرسیون وابسته از مدل‌های دارای متغیرهای وابسته مختلف
61866
من در حال آزمایش رابطه بین یک پیش بینی کننده پیوسته و یک متغیر نتیجه دو جمله ای 0-1 هستم. فرضیه من این است که هر چه مقدار پیش بینی کننده کوچکتر باشد احتمال اینکه در گروه 0 متغیر نتیجه قرار گیرد بیشتر است. سوال من این است - چگونه می توانم این رابطه خاص را اندازه گیری کنم؟ من فقط می‌خواهم ببینم که آیا اعداد کوچک‌تر به احتمال زیاد در دسته 0 قرار می‌گیرند یا خیر، و مواردی را که اعداد بالاتر ممکن است در دسته 0 قرار گیرند نیز نادیده بگیرم. تا کنون من از رگرسیون لجستیک دو جمله ای در SPSS استفاده می کردم، اما رابطه بین مقدار پیش بینی کننده و قرار گرفتن در دسته های 0 یا 1 نتیجه را آزمایش می کند. اما من می‌خواهم رابطه بین مقادیر کوچک‌تر پیش‌بینی‌کننده و سقوط در [0،1] را آزمایش کنم. من نمی‌خواهم موارد پیش‌بینی‌کننده‌های بالا که به 0 می‌رسند، نتایج من را بدتر کنند. همچنین حذف آن موارد یک گزینه نیست زیرا برای فرضیه های دیگر به آنها نیاز دارم.
آزمایش رابطه بین یک پیش بینی کننده پیوسته و نتیجه دو جمله ای
16302
من دانش آموز دبیرستانی هستم و روی یک پروژه برنامه نویسی کامپیوتری کار می کنم، اما تجربه زیادی در آمار و مدل سازی داده ها فراتر از یک دوره آمار دبیرستان ندارم، بنابراین تا حدودی گیج هستم. اساساً، من یک لیست نسبتاً بزرگ دارم (فرض کنید به اندازه کافی بزرگ باشد تا با فرضیات هر آزمایش یا اندازه گیری آماری مطابقت داشته باشد) از مواقعی که شخصی تصمیم به چاپ یک سند گرفته است. بر اساس این فهرست، من می‌خواهم یک مدل آماری بسازم که محتمل‌ترین زمان را برای کار چاپ بعدی با توجه به تمام زمان‌های رویداد قبلی پیش‌بینی کند. من قبلاً این را خوانده ام، اما پاسخ ها دقیقاً به آنچه که برای پروژه خود در ذهن دارم کمک نمی کند. من تحقیقات بیشتری انجام دادم و متوجه شدم که یک مدل پنهان مارکوف به احتمال زیاد به من این امکان را می دهد که این کار را با دقت انجام دهم، اما نمی توانم پیوندی در مورد نحوه تولید یک مدل مارکوف پنهان فقط با استفاده از لیست زمان پیدا کنم. من همچنین دریافتم که استفاده از فیلتر کالمن در لیست ممکن است مفید باشد، اما اساساً، می‌خواهم اطلاعات بیشتری در مورد آن از کسی که واقعاً از آنها استفاده کرده است و محدودیت‌ها و الزامات آنها را می‌داند، قبل از اینکه فقط چیزی را امتحان کرده و امیدوار باشم که کار کند، دریافت کنم. با تشکر از یک دسته!
چگونه می توان زمان وقوع رویداد بعدی را بر اساس زمان رویدادهای قبلی پیش بینی کرد؟
56253
من سعی می‌کنم انحنای/پیچیدگی ساختاری مجموعه داده‌ها یا مقدار غیرخطی بودن آن را تخمین بزنم. مجموعه داده‌ها عمدتاً بسیار خطی هستند، اما با نمونه‌هایی از داده‌های بسیار دلخواه (منحنی‌ها، شکل‌های v، شکل‌های x، قلاب‌ها و غیره) که من می‌خواهم آنها را شناسایی کنم. من می توانم به رویکردهای هک مانند مقایسه خطای باقیمانده رگرسیون های خطی با برازش های چند جمله ای مرتبه بالاتر فکر کنم، اما هیچ چیزی که سخت به نظر می رسد یا به خوبی با همه موارد برخورد کند. رایج‌ترین آماری که دیده‌ام، لحظه محصول پیرسون است، اما در داده‌های غیرهمبسته، اما خطی - برای مثال خطوط عمودی و خطوط افقی، شکست می‌خورد. آیا کسی جایگزینی می داند که بتوانم استفاده کنم؟
آماری برای انحنا یا غیر خطی بودن یک مجموعه داده
86334
من از کد زیر m <- svm(x_train, y_train) current_class_prediction <- predict(m, x_cv) استفاده می کنم اما پیش بینی به جای 1000، 999 پیش بینی را برمی گرداند: > length(current_class_prediction) [1] 999 > dim(x_cv) [01] 70 چه چیزی می تواند این مشکل را توضیح دهد؟
e1071 svm predict - پیش بینی های از دست رفته
25170
اگر $X \in \mathbb{R}$ یک متغیر تصادفی پیوسته باشد، چگالی آن $f$ (در صورت وجود) به صورت $$ f(x) = \lim_{\epsilon \rightarrow 0} \frac{F تعریف می‌شود. (x + \epsilon) - F(x)}{\epsilon}، $$ که در آن $F(x) = \Pr(X \leq x)$. گاهی اوقات راحت تر است که آن را به عنوان $f(x) = \Pr(X = x)$ در نظر بگیرید. با این حال، این را نمی توان نوشت! آیا نوشتن $f(x) = \Pr(X \در I_x)$ سخت تر است (یعنی آیا می توان آن را نوشت) که در آن $I_x$ همسایگی $x$ است؟
نوشتن چگالی یک متغیر تصادفی پیوسته بر حسب یک احتمال
69646
ابزاری که برای اندازه گیری سطح گلوکز در خون افراد استفاده می شود بر روی یک نمونه تصادفی 10 نفره کنترل می شود. سطوح نیز با استفاده از یک روش آزمایشگاهی بسیار دقیق اندازه گیری می شوند. اندازه گیری ابزار با x نشان داده می شود. اندازه گیری روش آزمایشگاهی با y نشان داده می شود. من شخصا فکر می کنم y روی x صحیح تر است زیرا هدف استفاده از قرائت های ابزار برای پیش بینی قرائت های آزمایشگاهی است. و y روی x خطاهای چنین پیش بینی هایی را به حداقل می رساند. اما پاسخ ارائه شده x روی y بود.
آیا رگرسیون x روی y به وضوح بهتر از y روی x در این مورد است؟
96716
من در حال انجام یک نظرسنجی در میان مراکز مراقبت طولانی مدت (LTCF) در یک شهر در مورد شیوع یک بیماری خاص هستم. من شهر را در دو سطح طبقه بندی کرده ام: الف) سه طبقه بر اساس مرزهای جغرافیایی. ii) دو قشر دیگر برای تأمین مالی LTCFs (با بودجه دولتی یا خصوصی). این به من شش طبقه می دهد. من می دانم که تعداد کل سالمندان در این شش طبقه زندگی می کنند، بگوییم نسبت اقشار A:B:C:D:E:F 1:1:1:1:1:1 است، زیرا حجم نمونه محاسبه شده من 3000 است. سپس 500:500:500:500:500:500 سالمند را از شش قشر خواهم گرفت. من به طور تصادفی LTCF را از هر طبقه انتخاب می کنم و نظرسنجی را تا رسیدن به هدف نمونه گیری برای آن طبقه انجام می دهم. همه چیز طبق برنامه پیش می رود، به جز برای یک قشر، مثلاً قشر A. نرخ پاسخگویی برای قشر A کمی خیلی خوب است، به طوری که ما یک طبقه را بیش از حد نمونه برداری کرده ایم تا تقریباً 200٪ (یعنی هدف نمونه گیری من 500 است، اما اکنون دارم. بیش از 900 سالمند نمونه برداری شدند). از آنجایی که نسبت 1:1:1:1:1:1 دیگر حفظ نمی شود، من مطمئن نیستم که چگونه باید با سالمندان اضافی که نمونه برداری شده اند رفتار کنم، به این فکر می کنم که یک نمونه تصادفی ساده از طبقه A انتخاب کنم تا فقط 500 سالمند برای تجزیه و تحلیل استفاده می شود، اما به نظر می رسد ضایع است. پیشنهاد یا مرجعی دارید؟
نحوه برخورد با نمونه برداری بیش از حد برای نمونه گیری خوشه ای طبقه ای
57128
چه طرحی برای محورها در این قطعه استفاده شده است؟ اسم داره؟ به نظر می رسد محور x خطی است با تغییر گسسته در فاصله 1 میکرون، اما نمی توانم بفهمم در محور y چه می گذرد. ![mirror_reflectance_curve](http://i.stack.imgur.com/4O9he.gif)
از چه طرحی برای محورها در این طرح استفاده شده است؟
85943
برای این مدل رگرسیون خطی تک متغیره $$y = \beta_0 + \beta_1x+\epsilon$$ مجموعه داده داده شده $D=\\{(x_1,y_1),...,(x_n,y_n)\\}$، ضریب برآوردها $$\hat\beta_1=\frac{\sum_ix_iy_i-n\bar x\bar y}{n\bar هستند x^2-\sum_ix_i^2}$$ $$\hat\beta_0=\bar y - \hat\beta_1\bar x$$ اینم سوال من طبق کتاب و ویکی پدیا خطای استاندارد $\hat \beta_1$ است $$s_{\hat\beta_1}=\sqrt{\frac{\sum_i\epsilon_i^2}{(n-2)\sum_i(x_i-\bar x)^2}}$$ چگونه و چرا؟
نحوه استخراج خطای استاندارد ضریب رگرسیون خطی
82597
من ANOVA مخلوط را به عنوان تجزیه و تحلیل اندازه گیری مکرر برای نمره شناختی در 2 نقطه زمانی برای 2 گروه (فشار خون پایین در مقابل بالا) اجرا می کنم. امتیاز در زمان 1 به طور معمول توزیع شد و در زمان 2 به طور معمول توزیع نشد، بنابراین من QURT تغییر شکل داد. آیا هنوز هم می توانم از ANOVA مخلوط استفاده کنم؟ یا هر دو نمره باید از یک مقیاس/واحد باشند؟ اگر هر دو باید یکسان باشند، چه کاری باید انجام دهم، زمان 1 را تبدیل کنم یا از زمان اصلی 2 استفاده کنم؟
باید هر دو امتیاز 2 نقطه زمانی در یک ANOVA مختلط در یک مقیاس باشند
65760
رگرسیون لجستیک معمولاً زمانی استفاده می شود که یک متغیر وابسته باینری وجود داشته باشد. ** وقتی یک رگرسیون خطی مناسب است، چه تفاوتی در خروجی وجود دارد؟**
وقتی یک رگرسیون خطی را به داده‌های وابسته باینری برازش می‌دهید چه اتفاقی می‌افتد؟
69643
من می خواهم یک معادله رگرسیونی برای پیش بینی حجم درخت با متغیر مستقل dbh (قطر در ارتفاع سینه) در فاصله اطمینان 95٪ برای خطای 5٪ محاسبه کنم. اگر تعداد کل جامعه ناشناخته باشد، فرمول اندازه نمونه چیست؟
نحوه تعیین حجم نمونه در حجم جمعیت مجهول برای معادله رگرسیون
82594
من از splines برای توضیح داده های مصرف انرژی جمع آوری شده از شبیه سازی استفاده می کنم. مجموعه داده مصرف انرژی من حاوی مقادیر مثبت بسیار بزرگی است (به عنوان مثال، 2.23e+12). با این حال، بخش بزرگی از مقادیر برازش شده که من جمع‌آوری می‌کنم (مثلاً 40٪) منفی هستند. ارزش های منفی در مورد من معنی ندارد. علاوه بر این، با داشتن مقادیر منفی، نمی توانم معیارهای دقت مانند میانگین درصد مطلق خطا (MAPE) یا میانگین مربعات خطا (MSE) را محاسبه کنم. وقتی مقادیر منفی در یک مدل رگرسیون معنا پیدا می کنند، چگونه این مشکل درمان می شود؟ در مورد خاص من، چگونه باید این مقادیر منفی را توضیح دهم؟ آیا این یک مدل بیش از حد نصب شده است؟ آیا آنها ممکن است نوع دیگری از خطا را نشان دهند (مثلاً در مفروضات)؟
مقادیر برازش منفی برای مقادیر واقعی کاملاً مثبت
56250
من در تحلیل خوشه ای تازه کار هستم و برای اولین بار آن را انجام می دهم. من 6 خوشه را با استفاده از ابزار Weka مانند این (برای 4 ویژگی) ایجاد کرده ام: 0 1 2 3 4 5 A 5.0363 2.0698 1.299 6.6861 1.8385 10.2349 B 21.5293 7.12397 7.15394 5.2522 113.8983 C 0.1036 0.025 0.011 0.0542 0.0493 0.1698 D 31.6327 14.4446 2.6686 13.6874 0.011 0.0542 0.0493 0.1698 D 31.6327 14.4446 2.6686 13.6874 28.1409 28.1409 به پروژه ها کمک کرده است. اکنون، من می‌خواهم تجزیه و تحلیل را انجام دهم و می‌خواهم بررسی کنم که چه تعداد کاربر از هر پروژه به خوشه‌های 3 و 5 تعلق دارند. همچنین می‌خواهم بدانم آیا می‌توان نزدیک‌ترین خوشه را که نمایانگر کاربران کلی در یک پروژه است، شناسایی کرد.
تجزیه و تحلیل خوشه ای - داده ها را به خوشه اختصاص دهید
69648
من در حال حاضر در سال آخر تحصیل هستم. من کنجکاو هستم که بدانم (و می خواهم این را در تکالیف ریاضی خود قرار دهم)، تست فرضیه 1 دنباله بهتر است، که در آن ببینید آیا ادعایی قابل توجیه است یا یک فاصله اطمینان است، ما فقط با 95٪ موارد سروکار داریم. . من شخصاً بین این دو سرگردان هستم و گاهی اوقات حتی نمی توانم تفاوت را تشخیص دهم. فواصل اطمینان از داده های نمونه استفاده می کنند و یک فاصله زمانی روی آن ایجاد می کنند و سپس می بینید که ادعا بر اساس نمونه چقدر متفاوت است. اما طیف وسیعی از مقادیر را دریافت می‌کنید تا بتوانید ادعاهای بیشتری را آسان‌تر آزمایش کنید. با آزمایش فرضیه، شما تقریباً همین کار را انجام می دهید و می بینید که یک ادعا بر اساس نمونه با استفاده از آزمون Z چقدر غیرعادی است. زمینه ماموریت من انتخابات سال 2013 در استرالیا است. ما در حال آزمایش ادعاهای مطرح شده توسط احزاب سیاسی در برابر داده های جمع آوری شده توسط نظرسنجی ها هستیم.
کدام بهتر است؟ آزمون فرضیه یا فاصله اطمینان
2391
فرض کنید من سه جمعیت با چهار ویژگی متقابل دارم. من از هر جامعه نمونه‌های تصادفی می‌گیرم و یک جدول متقاطع یا فرکانس برای ویژگی‌هایی که اندازه‌گیری می‌کنم می‌سازم. آیا من درست می گویم که: 1. اگر بخواهم بین جمعیت ها و ویژگی ها رابطه ای وجود داشته باشد (مثلاً آیا یک جمعیت دارای فراوانی بیشتری از یکی از ویژگی ها است یا خیر)، باید آزمایش کای دو انجام دهم و ببینید آیا نتیجه قابل توجه است یا خیر. 2. اگر آزمون مجذور کای معنی دار باشد، فقط به من نشان می دهد که بین جمعیت ها و ویژگی ها رابطه ای وجود دارد، اما نه اینکه چگونه آنها با هم مرتبط هستند. 3. علاوه بر این، لازم نیست همه ویژگی ها به جمعیت مرتبط باشند. به عنوان مثال، اگر جمعیت‌های مختلف توزیع‌های متفاوتی از ویژگی‌های A و B داشته باشند، اما توزیع‌های C و D ندارند، در این صورت آزمون کای‌دو ممکن است همچنان معنی‌دار باشد. 4. اگر بخواهم اندازه گیری کنم که آیا یک مشخصه خاص تحت تأثیر جمعیت قرار می گیرد یا نه، می توانم تستی را با نسبت های مساوی اجرا کنم (من این را به نام z-test یا به عنوان prop.test() در ` دیده ام. R`) فقط بر روی آن مشخصه. به عبارت دیگر، آیا استفاده از «prop.test()» برای تعیین دقیق‌تر ماهیت رابطه بین دو دسته از مقوله‌ها، زمانی که آزمون کای‌دو می‌گوید رابطه معناداری وجود دارد، مناسب است؟
رابطه بین آزمون مجذور کای و آزمون با نسبت مساوی چیست؟
105777
## اطلاعات عمومی فرض کنید طرح درمان مکرر شبه تجربی زیر را دارید (T = درمان، M = اندازه گیری): `T1 -- M -- T2 -- M -- T1 -- M -- T2 -- M -- T1 -- M` درمان 1 (T1) یک روش آموزشی خاص و درمان 2 (T2) نوع دیگری از روش تدریس در یک کلاس است. در اندازه گیری (M) یک متغیر مورد علاقه اندازه گیری می شود (_dV_). همه دانش آموزان برای هر درمان حضور ندارند و در نهایت منجر به ایجاد یک مجموعه داده پانل نامتعادل می شود. (توجه: ما گروه کنترل نداریم!) اکنون سؤال این است که چگونه مجموعه داده ها را برای پاسخ به سؤال تحقیق تجزیه و تحلیل کنیم: **_آیا این دو درمان منجر به تفاوت در متغیر پیامد اندازه گیری شده می شوند؟_** دو رویکرد متفاوت به وجود آمد. به ذهن ما: 1. رگرسیون بر اساس مدل های پنل خطی 2. ANOVA اندازه گیری مکرر مجموعه داده شامل یک شناسه فردی برای هر دانش آموز (_indiv_id_) است، متغیری که زمان اندازه گیری را نشان می دهد ( _time_ = 1، 2، 3، 4، 5) و متغیر مورد علاقه (_dV_). ## کاری که من کردم: **1\. رگرسیون بر اساس مدل‌های پانل خطی** ایده این است که اثر انواع مختلف درمان را با در نظر گرفتن ساختار داده‌های پانل (با استفاده از بسته plm) به صورت t-Test محاسبه کنیم: ## مدل اثرات تصادفی m.1 <- plm(dV ~ treat_type, data=panel, model=random, effect=individual, index=c(indiv_id, time)) ## مدل جلوه های ثابت m.2 <- plm(dV ~ treat_type, data=panel, model=within, effect=individual, index=c(indiv_id, time)) ## Hausman-test برای تصمیم گیری در مورد اینکه کدام مدل phtest مناسب است (m. 1، m.2) داده‌های تست هاسمن: dV ~ نوع درمان chisq = 5.7244، df = 1، p-value = 0.01673 فرضیه جایگزین: یک مدل ناسازگار است از آنجایی که آزمون هاسمن در سطح 5 درصد معنادار است، از مدل اثرات ثابت استفاده شده است. خروجی به شرح زیر است: ضرایب: برآورد Std. خطای t-value Pr(>|t|) treat_typeFirst -0.66934 0.13314 -5.0274 1.696e-06 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 خروجی مدل اثرات تصادفی خواهد بود: ضرایب : برآورد Std. خطای t-value Pr(>|t|) (Intercept) 3.53516 0.11323 31.221 < 2.2e-16 *** treat_typeFirst -0.64089 0.13261 -4.833 3.114e-06 *** Sign. --- کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با این حال، با در نظر گرفتن تفاوت بین میانگین های توصیفی درمان 1 و درمان 2 (با نادیده گرفتن بعد زمانی) دریافت می کنم: -0.6153155` **تفسیر (با استفاده از مدل اثرات ثابت)**: دو درمان منجر به نتایج متفاوتی از متغیر وابسته مورد علاقه **2\. اندازه‌گیری مکرر ANOVA** panel_long <- melt(panel_original, id=c(indiv_id, treatment_type, time), variable_name=variable) summary(aov(value ~ treat_type * time + Error(factor(indiv_id ))، data=panel_long)) این خروجی زیر را می دهد: خطا: factor(indiv_id) Df Sum Sq Mean Sq F value Pr(>F) treat_type 1 0.02 0.017 0.002 0.9643 time 1 27.04 27.038 3.324 0.0771 . treat_type:time 1 0.11 0.108 0.013 0.9089 Residuals 34 276.53 8.133 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: در Df Sum Sq Mean Sq F value Pr(>F) treat_type 1 32.4 32.44 77.356 * < 2e-16 ** زمان 1 3.7 3.70 8.812 0.00305 ** نوع_ درمان: زمان 1 26.0 25.95 61.883 7.78e-15 *** باقیمانده ها 1263 529.7 0.42 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 با این حال، من مطمئن نیستم که آیا این ANOVA اصلا قابل تفسیر است یا خیر، زیرا ما داده های نامتعادل داریم. ## سوالات من چیست؟ 1. رویکرد مناسب برای تجزیه و تحلیل این مجموعه داده به منظور پاسخ به سوال تحقیق من چیست؟ 2. چرا من ضرایب رگرسیون (در مدل خطی تابلویی) را دریافت می کنم که با تفاوت میانگین توصیفی بین انواع درمان برابر نیست؟ 3. آیا می توان ANOVA را تفسیر کرد یا می توانم به نحوی داده های نامتعادل را در نظر بگیرم؟
تجزیه و تحلیل طرح درمان مکرر (مدل پانل خطی در مقابل ANOVA)
105773
در مثال زیر، آیا امکان محاسبه SD جدید برای یک مشاهده اضافی وجود دارد؟ > در کلاسی متشکل از 25 دانش آموز، 24 نفر از آنها در کلاس امتحان و 1 دانش آموز > روز بعد در امتحان آرایش شرکت کردند. استاد اولین دسته از 24 امتحان را درجه بندی کرد و میانگین نمره 74 را با انحراف استاندارد 8.9 امتیاز یافت. دانش آموزی که روز بعد آرایش کرد > در امتحان 64 امتیاز کسب کرد. میانگین جدید 73.6 است، SD جدید چیست؟ چگونه آن را محاسبه کنیم؟
چگونه SD نمونه را برای یک مشاهده جدید محاسبه کنیم؟
65762
هنگام اجرای تجزیه و تحلیل خوشه‌بندی سلسله مراتبی ماتریسی از «افراد x نمونه» (به عنوان مثال، عملکرد کارکنان در روزهای مختلف)، چندین احتمال برای عادی‌سازی وجود دارد. اگر کسی ستون‌ها را خوشه‌بندی می‌کند (برای اینکه ببیند آیا در روزهای خاصی عملکرد افراد مشابه است یا خیر)، می‌توان 1. امتیاز z را در تمام ردیف‌ها عادی کرد تا میانگین و انحراف معیار هر یک از کارکنان در طول روز قابل مقایسه باشد، یا 2. امتیاز z در تمام ردیف‌ها عادی شود. ستون ها برای مقایسه همه کارمندان در یک روز، یا 3. به هیچ وجه نرمال نمی شوند و مقادیر خام را خوشه ای نمی کنند آیا کسی می تواند مزایا/معایب نسبی را توضیح دهد. از هر رویکرد در اینجا؟ برای روشن شدن، از فاصله همبستگی استفاده می کنم. روش‌های 1 یا 2 در عمل نتایج متفاوتی به دست می‌دهند، اما مشخص نیست که برای بررسی اینکه آیا روزها با هم خوشه‌بندی می‌شوند، اگر فرد عادی‌سازی را انتخاب کند، آیا شماره 1 یا 2 مناسب‌تر است.
چگونه داده ها را برای خوشه بندی سلسله مراتبی استاندارد کنیم؟
21218
من چند اندازه گیری ژن از یک آزمایش ریزآرایه دارم. در هر آرایه، من مجموعه‌ای از ژن‌های پس‌زمینه «غیر بیان‌شده» دارم. من سه اندازه گیری تکراری برای برخی بافت ها دارم. چگونه می توان از ژن های پس زمینه (به طور معمول توزیع نشده) برای ارزیابی اینکه آیا سایر ژن ها در هر بافت بیان می شود استفاده کرد؟
استفاده از ژن های پس زمینه برای ارزیابی سطح بیان ژن
21212
آیا رگرسیون لجستیک افزایشی و کنده های تصمیم تقویت شده (در جایی که یک کنده تصمیم درخت تصمیم یک گره است) به نوعی معادل هستند؟ فکر نمی‌کردم، اما اگر الگوریتم‌های «LogitBoost» را در گوگل جستجو کنم، می‌بینم: * http://weka.sourceforge.net/doc/weka/classifiers/meta/LogitBoost.html، که می‌گوید این یک «کلاس برای اجرای لجستیک افزایشی» است. پسرفت * http://rss.acs.unt.edu/Rdoc/library/caTools/html/LogitBoost.html، که می‌گوید «الگوریتم طبقه‌بندی logitboost را با استفاده از کنده‌های تصمیم (درخت تصمیم یک گره) به عنوان یادگیرندگان ضعیف آموزش دهید».
آیا رگرسیون لجستیک افزایشی معادل استامپ تصمیم تقویت شده است؟
105778
در طرح های فاکتوریل با یک عامل تصادفی و یک عامل ثابت، میانگین مربع مورد انتظار برای عامل ثابت شامل سه منبع است: اثر اصلی، اثر متقابل و خطا، بنابراین، برای آزمایش اثر اصلی عامل ثابت، مخرج نسبت F حاصل خطا نیست بلکه برهمکنش MS است. داده‌های حاصل از طرح‌های یک‌طرفه درون آزمودنی‌ها نیز می‌تواند به عنوان طرح‌هایی با یک عامل تصادفی (موضوعات) و یک عامل ثابت (درمان) دیده شود. به طور مشابه، تعامل MS بین موضوع و درمان در مخرج استفاده می شود. اما بر خلاف روش بالا، نمی توان تعامل را از خطا جدا کرد زیرا تنها یک مشاهده در هر سلول وجود دارد. اما چگونه می توان مطمئن شد که این واقعاً تعامل است و نه فقط واریانس خطا در مخرج؟ یا من اینجا اشتباهی می کنم؟ با تشکر
نسبت F در اندازه گیری های مکرر ANOVA
69649
من نسبتاً در آزمایش اهمیت علمی و ورود بیشتر و بیشتر به موضوع جدید هستم. من یک مجموعه داده چند عاملی با نرخ تنفس به عنوان متغیر پاسخ و دما و فشار جزئی CO2 به عنوان عوامل دارم. به نظر می رسد داده ها به طور معمول توزیع شده اند، اما من معتقدم که ناهمگونی واریانس را می بینم. از آنجایی که باقیمانده‌های عامل دما نسبت به سطوح تیمار واریانس‌های متفاوتی دارند. هنگامی که من یک ANOVA دو طرفه را روی مجموعه داده اجرا می کنم، دما و تعامل قابل توجه است، CO2 نیست. برای مقابله با ناهمگنی، یکی از همکاران به من توصیه کرد که از یک مدل GLS و وزنه هایی بر روی فاکتوری که ناهمگنی را نشان می دهد (در این مورد دما) استفاده کنم. اگر من این کار را انجام دهم، همه اصطلاحات مهم می شوند. نمی دانم که آیا این رویکرد معقول است، زیرا من اثری از CO2 در داده های خام نمی بینم. در اینجا خروجی levene: leveneTest (RR، ضریب (Cal$Temp)، مرکز = میانگین) p= 0.06131 leveneTest (RR، ضریب (Cal$pCO2)، مرکز = میانگین) p= 0.2059 leveneTest (RR، تعامل (ضریب (Cal) $pCO2)، ضریب (Cal$Temp))، مرکز = میانگین) p= 0.01829 امیدوارم اطلاعات داده شده برای تصور مشکل من کافی باشد.
استفاده از GLS و وزن برای حل ناهمگونی واریانس ها؟
93942
من سعی می کنم عملکرد الگوریتم نیمه نظارت شده خود را با مقایسه آن با الگوریتم های مختلف ارزیابی کنم. من خیلی جستجو کرده‌ام، اما نمی‌توانم کدی را پیدا کنم که با آموزش داده‌های (برچسب + بدون برچسب) و سپس آزمایش روی داده‌های دیده نشده، طبقه‌بندی نیمه‌نظارت‌شده چند کلاسه را انجام دهد. اکثر مواردی که من با آنها برخورد کرده ام برای مشکلات 2 کلاس طراحی شده اند. آیا کسی می تواند به من راهنمایی کند که کجا می توانم کد مشکلات چند کلاسه را پیدا کنم؟
کد طبقه بندی نیمه نظارت شده چند کلاسه (SVM، آموزش مشترک، مبتنی بر نمودار)؟
81027
تفاوت یا رابطه بین توزیع بتا، توزیع دو جمله ای بتا و توزیع دو جمله ای چیست؟
توزیع بتا و توزیع دو جمله ای بتا
87358
تعمیم چند بعدی توزیع بتا، مطابق با مشخصات زیر چیست؟ من به دنبال توزیع دیریکله نیستم. من به دنبال یک تعمیم هستم که در آن توزیع بر روی هایپرمکعب با طول هر ضلع 1 تعریف می شود، برخلاف دیریکله، که در آن همه اضلاع به 1 می رسند. من به یک pdf برای داده های $d$-بعدی با $\\ نیاز دارم. پارامترهای #p=d^2$، به طوری که همبستگی بین متغیرهای داده توسط توزیع نشان داده می شود. (در واقع پارامترهای بیشتری مورد نیاز است، تعداد همبستگی های منحصر به فرد بین $d$ متغیر $ = d\left(\large\frac {d+1}2\right)$ و از آنجایی که در حالت خاص که $d=2$ (توزیع بتا) ما می دانیم که 2 پارامتر داریم، می توانیم انتظار داشته باشیم که پارامترهای $\\#p = d(d+1)$ وجود داشته باشد.) بنابراین اساساً من به دنبال یک پارامتر هستم. توزیع نرمال چند متغیره، اما بر روی بازه (0،1) برای هر متغیر تعریف شده است، و تنها یک نقطه ثابت (حالت/حداکثر/پیک، پاد مد/حداقل/شیب، یا نقطه زینی، بسته به پارامترها) در هایپرمکعب مجاز است.
توزیع بتا چند متغیره (بدون دیریکله!)
57123
من باید پارامترهای یک مدل AR را تخمین بزنم که به شکل AR (1,11) است، به این معنی که ضرایب سفارشات AR از مرتبه 2 تا مرتبه 10 صفر است. چگونه می توانم این دو پارامتر را در «R» تخمین بزنم زیرا تابع «arima» فقط p را به عنوان ترتیب جزء AR می پذیرد. توجه داشته باشید که این مدل ساختار متفاوتی نسبت به Seasonal AR دارد. با تشکر
چگونه پارامترهای خاصی از یک مدل AR را در R تخمین بزنیم؟
16304
اگر من از یک مدل یادگیری ماشینی (مثلاً درختان رگرسیون تقویت شده مانند gbm در R) روی یک مجموعه داده استفاده می‌کنم، اگر تفاوت قابل‌توجهی بین #تکرار بهینه تخمینی OOB و #بهینه تکرار در مجموعه آزمایشی وجود داشته باشد به چه معناست. (من 20 درصد از داده ها را نگه می دارم)؟ من می‌پرسم چون سعی می‌کنم یک متغیر پاسخ سری زمانی را مدل‌سازی کنم، و وقتی مجموعه آموزشی را بدون جایگزینی از آن نمونه‌برداری می‌کنم، سپس gbm را اجرا می‌کنم، تکرارهای بهینه OOB و مجموعه تست بسیار متفاوتی دریافت می‌کنم. با این حال، وقتی مجموعه آموزشی را به شکل اصلی خود (قدیمی‌ترین تاریخ تا جدیدترین تاریخ) ترک می‌کنم، تکرارهای بهینه OOB و مجموعه تست بسیار نزدیک‌تر هستند. من شروع به تعجب کردم که آیا داده های اخیری که دارم با داده های قدیمی کمی متفاوت است. باز هم سوال کلی است، بنابراین اگر به اطلاعات بیشتری نیاز دارید به من اطلاع دهید تا جایی که بتوانم توضیح خواهم داد.
تعداد بهینه متفاوت تکرارهای تقویتی به دست آمده از OOB و در آزمایش
16305
بنابراین فرض کنید من یک دسته از نقاط داده در R^n دارم، جایی که n بسیار بزرگ است (مثل 50). من می دانم که این داده ها در 3 خوشه قرار می گیرند و می دانم که هر نقطه داده بخشی از کدام خوشه است. تنها کاری که می‌خواهم انجام دهم این است که این خوشه‌ها را به‌صورت دوبعدی تجسم کنم به گونه‌ای که جدایی بین خوشه‌ها را که می‌بینم به حداکثر برسانم، با هدف این است که ثابت کنم خوشه‌ها بر اساس مکان نقطه داده در R به راحتی قابل تفکیک هستند. ^n تنها. روشی که تا به حال در مورد این کار انجام داده ام شامل انجام یک تبدیل PCA در نقاط داده و سپس تجسم جفت رایانه شخصی به طور تصادفی است تا زمانی که یکی را پیدا کنم که در آن خوشه ها کاملاً از هم جدا شده اند. اگرچه این رویکرد کاملاً موقتی به نظر می‌رسد، و به نظر می‌رسد که باید یک راه آسان برای یافتن چرخش داده‌ها به سبک PCA وجود داشته باشد که به جای به حداکثر رساندن واریانس کلی، جداسازی بین خوشه‌ای را به حداکثر برساند. آیا تکنیک استانداردی وجود دارد که این کار را انجام دهد؟ اگر نه، ایده ای در مورد چگونگی ایجاد چنین تحولی دارید؟
تکنیک کاهش ابعاد برای به حداکثر رساندن جداسازی خوشه های شناخته شده؟
99520
من اطلاعاتی در مورد مشتریان ارائه شده با پیشنهاد دارم و می خواهم احتمال خرید نمونه های جدید (مشتریان) یک محصول (موفقیت) را پیش بینی کنم. من یک ویژگی به نام cust_rich_poor ایجاد کردم که کلاسی است که به طور ضعیف ثروت مشتری را نشان می دهد (1=فقیر، مترقی به 5 = ثروتمند)، و میانگین نسبت موفقیت در هر کلاس (نمودار سمت چپ) را ترسیم کردم. تعداد مشتریان در هر کلاس (نمودار سمت راست) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6i6vh.png) اکنون، من می خواهم با دانستن کلاس cust_poor_rich آنها، نسبت موفقیت را در نمونه های جدید پیش بینی کنید. آیا کسی می تواند راهنمایی کند ** کدام الگوریتم معمولاً برای این نوع موارد استفاده می شود **؟ من می‌دانم که رگرسیون لجستیک این فرضیه را ایجاد می‌کند که احتمال موفقیت یک تابع سیگموئیدی از متغیر ورودی است. اما از آنجایی که به نظر می رسد کلاس 1 (فقیرترین) نسبت موفقیت بالاتری نسبت به کلاس 2 دارد، نمی دانم چگونه این می تواند یک سیگموئید باشد. آیا رگرسیون لجستیک الگوریتم مناسبی برای استفاده است؟ و اگر نه، کدام الگوریتم معمولاً در اینجا استفاده می شود.
از کدام الگوریتم با سطوح پیشرونده و میانگین احتمال در هر سطح استفاده کنیم؟
61863
من باید نسبت log2 را برای شانس محاسبه کنم و نمی دانم چگونه این کار را انجام دهم. گروه A گروه B 0.031571 0.0170071 رویدادهایی در GroupA و Group B وجود دارد \- من می خواهم محاسبه کنم که گروه A چقدر این رویداد خاص را در مقایسه با گروه B دارد، بنابراین برای نسبت شانس به log2 نیاز دارم. . من فکر می کردم که چنین نسبتی باید به این صورت محاسبه شود: log2(GroupA/GroupB) = log2(0.031571/0.0170071) = 0.892463 اما در این پاسخ stackoverflow آن را اینگونه محاسبه می کنند: (GroupA/GroupB)/log(2) = (0.031571/0.0170071)/log(2) = 2.67814 سوال من این است - چگونه نسبت log2 را محاسبه کنیم. و تفاوت بین این دو رویکرد چیست؟
محاسبه نسبت log2
1853
چه آزمون هایی برای آزمایش دو نمونه مستقل برای فرض صفر وجود دارد که آنها از جمعیت هایی با چولگی یکسان آمده اند؟ یک آزمون کلاسیک 1 نمونه ای وجود دارد که آیا شیب برابر با یک عدد ثابت است (آزمون شامل لحظه 6 نمونه است!). آیا ترجمه ساده ای برای آزمون 2 نمونه ای وجود دارد؟ آیا تکنیک هایی وجود دارد که شامل لحظات بسیار بالایی از داده ها نباشد؟ (من منتظر پاسخی به شکل 'bootstrap it' هستم: آیا تکنیک های بوت استرپ برای این مشکل مناسب هستند؟)
تست دو نمونه مستقل برای تهی همان چولگی؟
49473
من برخی از داده‌های متناسب را با استفاده از یک GLM دو جمله‌ای مدل‌سازی می‌کنم - یعنی مقادیر برازش سیگموئیدی هستند - اما به نظر می‌رسد که داده‌ها با یک خط مستقیم مناسب‌تر هستند (نمودارهای اعتبارسنجی مدل از یک مدل خطی ساده نشان می‌دهد که این نیز خوب است). آیا راهی برای مقایسه این مدل ها وجود دارد که ببینیم یکی بهتر از دیگری است؟ من از r استفاده می کنم، و در ابتدا فکر می کردم می توانم از m1 <- glm(y ~ x، خانواده = گاوسی) m2 <- glm (y ~ x، خانواده = دو جمله ای) استفاده کنم و سپس از AIC برای مقایسه آنها استفاده کنم. (توجه داشته باشید که متغیرهای کمکی برای «m1» و «m2» یکسان هستند). با این حال، من متوجه شده‌ام که این دو مدل نیاز دارند که متغیر پاسخ به شکلی متفاوت - به عنوان نسبتی در «m1» و ماتریسی حاوی یک ستون «موفقیت» و «شکست» برای «m2» ساختاربندی شود. من فکر می کنم (؟) این بدان معنی است که این رویکرد نامناسب است. آیا راهی وجود دارد که بتوانم آزمایش کنم که آیا یک مدل بهتر از مدل دیگر با داده ها مطابقت دارد؟ با تشکر از شما برای کمک شما! جی من همچنین باید توجه داشته باشم - تا آنجا که درک من از روابط پیش می رود، دلیل نظری برای انتخاب یک رابطه سیگموئیدی نسبت به یک رابطه خطی ساده وجود ندارد، فراتر از این واقعیت که خطاهای دوجمله ای برای داده های متناسب مناسب هستند.
آیا می توان مدل مناسب را برای glm گاوسی و دوجمله ای مقایسه کرد؟
2397
من به دنبال توزیع محدودکننده توزیع چندجمله ای بر روی نتایج d هستم. یعنی توزیع $$\lim_{n\to \infty} n^{-\frac{1}{2}} \mathbf{X_n}$$ زیر که در آن $\mathbf{X_n}$ یک مقدار برداری است متغیر تصادفی با چگالی $f_n(\mathbf{x})$ برای $\mathbf{x}$ به طوری که $\sum_i x_i=n$، $x_i\in \mathbb{Z}، x_i\ge 0$ و 0 برای سایر $\mathbf{x}$، جایی که $$f_{n}(\mathbf{x})=\frac{n!}{ x_1\cdots x_d} p_1^{x_1}\cdots p_d^{x_d}$$ من یک شکل را در لری واسرمن همه آمار» قضیه 14.6، صفحه 237، اما برای توزیع محدود، نرمال را با یک ماتریس کوواریانس منفرد می دهد، بنابراین من مطمئن نیستم که چگونه آن را نرمال کنم. شما می توانید بردار تصادفی را در فضای بعدی (d-1) بسازید تا ماتریس کوواریانس را به صورت کامل بسازید، اما از چه پیش بینی استفاده کنید؟ **به روز رسانی 11/5** ری کوپمن خلاصه خوبی از مشکل گاوسی مفرد دارد. اساساً، ماتریس کوواریانس منفرد نشان دهنده همبستگی کامل بین متغیرها است که نمایش آن با گاوس امکان پذیر نیست. با این حال، می‌توان یک توزیع گاوسی برای چگالی شرطی دریافت کرد، مشروط به این واقعیت که مقدار بردار تصادفی معتبر است (مجموعه‌ها در مورد بالا به $n$ می‌رسد). تفاوت گاوسی شرطی، این است که معکوس با شبه معکوس جایگزین می شود و عامل نرمال سازی به جای «محصول همه مقادیر ویژه» از «محصول مقادیر ویژه غیر صفر» استفاده می کند. Ian Frisce پیوندی را با برخی جزئیات ارائه می دهد. همچنین راهی برای بیان ضریب عادی سازی گاوسی شرطی بدون ارجاع به مقادیر ویژه وجود دارد، در اینجا یک مشتق وجود دارد.
توزیع مجانبی چند جمله ای
105776
من طبقه بندی را با استفاده از بیز ساده به عنوان یک طبقه بندی انجام داده ام و CV 10 برابری را اعمال کرده ام. می دانم که می توانم میانگین و واریانس نتیجه را بدست بیاورم. با این حال، چگونه می توانم عملکرد طبقه بندی کننده را رسم کنم؟ sub = نمونه (nrow(MY_Data)، طبقه(nrow(MY_Data) * 0.9)) train = MY_Data[sub,] test = MY_Data[-sub,] xTrain = train[,-3] yTrain = train$DIS xTest = test [،-3] yTest = مدل test$DIS = train(xTrain,yTrain,'nb',trControl=trainControl(method='cv',number=10)) predict(model$finalModel,x)$class table(predict(model$finalModel,xTest)$class,yTest) با تشکر
خلیج های ساده لوح را با k-fold cv تجسم کنید
60197
من باید دو **لیست مختلف** از حاشیه نویسی های زیست مولکولی را با هم مقایسه کنم و **درجه همبستگی** آنها را پیدا کنم. برای انجام این کار، من تابعی را برای محاسبه ضریب همبستگی رتبه اسپیرمن بین دو لیست و تابعی که فاصله تاو کندال بین دو لیست را محاسبه می کند، پیاده سازی کرده ام. من در پیاده سازی خود، حالت **داشتن دو لیست با ابعاد مختلف و/یا حاوی عناصر متفاوت** را مدیریت کرده ام، به این ترتیب: عناصر ListA را که در ListB وجود دارند را می گیرم و آنها را در انتهای آن درج می کنم. ListB; سپس عناصر ListB را که در ListA وجود ندارد را می گیرم و آنها را در انتهای ListA قرار می دهم. فکر می‌کردم این راه خوبی برای ادامه دادن است، اما در واقع متوجه شدم که فقط در صورتی کار می‌کند که فهرست‌ها دارای ابعاد مشابه باشند (حداکثر تفاوت: ~ 20%). به خصوص، اگر این دو فهرست ابعاد بسیار متفاوتی داشته باشند، این رویکرد نتایج اشتباهی به همراه دارد. به عنوان مثال، من دو معیار همبستگی را زمانی محاسبه کردم که ListA دارای بعد 4 و ListB دارای بعد 816 بود. بدیهی است که این لیست ها اشتراکات کمی دارند، اما روش های کندال و اسپیرمن که من پیاده سازی کردم به اشتباه بیان کردند که آنها همبستگی بالایی دارند. این به این دلیل اتفاق افتاد که 812 عنصر ListB که در ListA وجود نداشت در ListA درج شده بودند. بنابراین سوال این است: **چگونه لیست های ابعاد مختلف را در محاسبه ضرایب همبستگی کندال و اسپیرمن به درستی مدیریت کنیم؟** **چگونه عناصر گمشده را مدیریت کنیم؟**
چگونه می توان ضرایب همبستگی (اسپیرمن، کندال) را با لیست هایی از ابعاد مختلف مدیریت کرد؟
49478
مجموعه داده من داده های ورزشی است و متغیر نتیجه برد در یک فصل است و سعی می کنم تاثیر ویژگی های بازیکنان تیم را بر این نتیجه ببینم. سوال من این است که آیا استفاده از فعل و انفعالات آسان تر است یا ایجاد یک معیار؟ می‌خواهم بدانم که آیا بازیکنانی که در یک کالج 25 برتر شرکت می‌کنند، با در نظر گرفتن سایر ویژگی‌های تیمی، بر بردها تأثیر می‌گذارند یا خیر. من 3 ساختار احتمالی دارم، G1: حداقل یک کاپیتان (از این دو) به 25 نفر برتر رسید و برخی دیگر یا هیچ بازیکن دیگری در تیم موفق نشدند، G2: هیچ کاپیتانی در جمع 25 نفر برتر حضور نداشت و سایر بازیکنان در تیم تیم انجام داد و G3: هیچ کس در تیم در 25 کالج برتر شرکت نکرد. من واقعاً علاقه مندم «G2» را با «G3» با توجه به نتیجه خود مقایسه کنم. آیا بهتر است 3 متغیر G1، G2 و G3 ایجاد کنم و سپس رگرسیون خود را با G2 یا G3 به عنوان گروه مرجع اجرا کنم و اثر ضریب را ببینم یا یک ساختگی برای آن ایجاد کنم. کاپیتان ها و سپس ناکاپیتان ها و سپس ایجاد تعامل؟ من دقیق‌ترین رویکرد را می‌خواهم، اما مطمئن نیستم که چگونه این تعاملات را تنظیم کنم یا اینکه برای مقایسه با یک گروه مرجع بسیار گیج‌کننده هستند. متشکرم.
ساخت یک اندازه گیری در مقابل استفاده از یک تعامل
66956
من http://www.polyu.edu.hk/mm/effectsizefaqs/effect_size_equations2.html را مطالعه کرده ام و تنها تفاوتی که می توانم بین این دو پیدا کنم این است که آنها مقادیر انحراف استاندارد ادغام شده کمی متفاوت دارند، اما من اینطور نیستم. درک کنید که چگونه تغییر این مقادیر SD به منظور بهبود دقت برآورد اندازه اثر است. تفاوت در انحراف معیار به شرح زیر است ($SD_{pooled}$ SD ادغام شده برای d کوهن و $SD ^{*}_{pooled}$ برای g هجز است): $SD_{pooled}=\sqrt{ \frac{n_1 SD_1^2+n_2 SD_2^2}{n_1+n_2-2}}$ $SD^{*}_{pooled}=\sqrt{\frac{(n_1-1)SD_1^2+(n_2-1)SD_2^2}{n_1+n_2-2}}$
تفاوت بین g هجز و d کوهن چیست؟
105771
من یک ماتریس داده در مورد رشد تولید ناخالص داخلی برای کشورهای خاص برای یک دوره زمانی خاص دارم. از این ماتریس من ماتریس همبستگی را دریافت می کنم. پس از آن من از یک تبدیل غیرخطی برای به دست آوردن یک ماتریس فاصله استفاده می کنم. از این ماتریس من یک MST می سازم. اکنون وظیفه من تعیین پایداری پیوندها در MST است. برای این منظور باید از تکنیک بوت استرپ استفاده کنم. من بسته 'bootstrap' را نصب کردم و این را امتحان کردم (شما همچنین به بسته `ape` برای تابع `mst(X)` نیاز دارید): theta <- function(X){corr_m <- cor(X, method = pearson );dist_m <- sqrt(2*(1-corr_m)) mst(dist_m)};نتایج <- bootstrap(bstrap_matrix,100,theta) جایی که «bstrap_matrix» ماتریس داده من با ستون‌های مربوط به کشورها (به عنوان مثال بریتانیا، آلمان، فرانسه، ...) و ردیف‌های مربوط به دوره‌های زمانی (مثلاً «2000Q1»، «2004Q3» است. `، ...)، اما کار نمی کند... من می خواهم یک ماتریسی به دست بیاورم که به من بگوید چند بار از نمونه‌برداری مجدد _R_ لبه بتنی MST من حتی در MST بوت استرپ وجود داشت. این عدد بین یک (هر بار اتفاق افتاده) و صفر (هرگز رخ نداده) است.
بوت استرپ یک MST در R
65761
من مجموعه‌ای از کلاس‌های سلسله مراتبی دارم (مثلاً ابژه/معماری/ساختمان/ساختمان مسکونی/خانه/خانه کشاورزی)، و یک درخت می‌سازم که در آن هر گره یک طبقه‌بندی کننده است. با این حال، کلاس مناسب برای یک ویژگی خاص می‌تواند در هر سطحی باشد (مثلاً ابژه/معماری/ساختمان). در حال حاضر، من از دو روش مختلف استفاده می‌کنم--> 1. من تصمیم‌های بهینه محلی می‌گیرم، مگر اینکه کلاس پیش‌بینی‌شده یک گره برگ باشد، جایی که احتمال آن را بر یک ثابت (هیپرپارامتر) تقسیم می‌کنم، و سپس دوباره بررسی می‌کنم تا کلاسی با بالاترین احتمال را تا زمانی که به گره برگ زدم. 2. در هر گره، 3 فرزند با بیشترین احتمال را دنبال می‌کنم و سپس احتمالات را تا برگ‌ها منتشر می‌کنم (فقط با جمع کردن سیاهه‌ها). سپس یک هایپرپارامتر بر اساس سطح پایین درخت اضافه می کنم (هر چه سطح عمیق تر باشد، امتیاز بالاتر است). هر دوی این روش‌ها برای توضیح سیستمی که اغلب تصمیم می‌گیرد که یک کلاس باید در یک درخت خیلی بلند باشد (یعنی در تصمیم‌گیری بین مثلا شی/معماری/ساختمان/خانه و شی/معماری/ساختمان، بدون ثابت، سیستم تقریباً همیشه شی/معماری/ساختمان را ترجیح می دهد). این خوب نیست - من متوجه شدم که نباید این ثابت را در ترکیب داشته باشم، اما مطمئن نیستم که چگونه بدون آن کار را انجام دهم. همچنین، اگر نمی‌توانستم به نحوی از احتمالات استفاده نکنم (و بتوانم به جای آن فقط از فاصله به ابرصفحه‌ها استفاده کنم (بنابراین می‌توانم از svms به جای رگرسیون لجستیک به عنوان طبقه‌بندی‌کننده در هر گره استفاده کنم)، ایده‌آل خواهد بود. (من از python و scikit Learn استفاده می کنم، فقط برای مشخص بودن) نظری دارید؟
طبقه بندی سلسله مراتبی که در آن گره های برگ در یک درخت در سطح خاصی قرار ندارند
43614
فرض کنید من یک متغیر تصادفی یکنواخت $X$ دارم که مقادیر $\\{1,...,n\\}$ و دو تابع $v(X)$ و $w(X)$ را دارد. من می دانم که $v(X)$ و $w(X)$ به طور مشترک با همبستگی $\rho$ توزیع شده اند. (و می‌تواند هر ساختار توزیعی از جمله اتصال را در صورتی که آسان‌تر کند، نرمال فرض کند). ابتدا، من تمام مقادیر $v(X)$ را برای $x=\\{1,...,n\\}$ مشاهده می کنم و $E[v(X)]$ را به عنوان میانگین مشاهدات تخمین می زنم. هدف من برآورد $E[w(X)]$ بدون نمونه‌برداری از $w(X)$ با استفاده از مقادیر $v(X)$، میانگین $E[v(X)]$ و ضریب همبستگی است. از هر گونه راهنمایی/راهنمایی، از جمله رویکرد بیزی، قدردانی خواهد شد.
تخمین میانگین شرطی
81020
از این مقاله، در بخش 1.2 _The Trial of the Pyx_، من در مورد آربیتراژی که نویسنده توصیف می کند سردرگم هستم. کسی می تواند این ایده را واضح تر توضیح دهد؟
توضیح *The Trial of the Pyx* از این مقاله
43613
فرض کنید من یک ماتریس سردرگمی را محاسبه می کنم، به معنایی که در اینجا تعریف شده است: http://www.gabormelli.com/RKB/Confusion_Matrix می توانم به راحتی تعداد منفی های واقعی (TN)، مثبت های واقعی (TP)، منفی های نادرست (FN) را محاسبه کنم. ) و موارد مثبت کاذب (FP) اما من احساس می کنم کمی ناخوشایند است: در مورد من، همه اشیا حداقل متعلق به یک کلاس: بنابراین یک طبقه بندی نادرست (مثلاً طبقه بندی کننده من یک A واقعی را در سطل B قرار می دهد) نه تنها یک FP است، بلکه در همان زمان یک FN است. و اگر یک شیء واقعی A+B فقط به عنوان B طبقه بندی شود چه می شود: در مطالعه فعلی من، قطعاً بهتر از طبقه بندی در C است یا اصلاً طبقه بندی نشده است. من نمونه های دیگری از این دست دارم... همانطور که می توانید حدس بزنید، برای من، آن ها ماتریس گیج کننده هستند.
بهترین راه برای محاسبه معیارهای عملکرد طبقه‌بندی کننده با توجه به ماتریس سردرگمی چیست؟
99527
من تعداد بسیار زیادی متغیر در مقایسه با نمونه هایی دارم که روی آنها اندازه گیری می شود. داده های زیر نمونه ای در R. set.seed(123) ماتریس # ماتریس X متغیر xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ( M، 1:10000، sep = ) rownames(xmat) <- paste(نمونه، 1:200, sep = ) xmat[1:10,1:10] # چاپ داده های جزئی M1 M2 M3 M4 M5 M6 M7 M8 M9 M10 sample1 -1 1 0 1 -1 1 1 1 0 1 sample2 -1 - 1 1 0 0 1 -1 0 1 0 نمونه3 1 1 -1 -1 -1 0 1 1 1 -1 نمونه4 1 1 -1 0 -1 1 -1 0 -1 -1 نمونه5 -1 1 0 1 0 1 0 -1 0 1 نمونه6 1 1 -1 -1 0 -1 -1 0 -1 0 نمونه7 1 -1 - 1 1 1 -1 0 0 0 -1 نمونه8 1 -1 0 -1 -1 1 0 1 0 0 نمونه9 1 1 0 0 1 0 0 -1 0 -1 نمونه 10 0 0 1 1 -1 0 0 1 1 -1 # y ماتریس متغیر set.seed(1234) ymat <- ماتریس (c(rnorm(100, 50,20), rep( NA، 100))، ncol = 1) در اینجا نمونه 1 تا 100 دارای مقدار y اما 101 به 200 نه. من می خواهم از جنگل تصادفی برای پیش بینی مقادیر y نمونه های گم شده استفاده کنم. سوال من اینجاست - آیا می توانم از جنگل تصادفی برای این کار استفاده کنم؟ چگونه؟ کدام بسته r (یا هر نرم افزار دیگری) برای نیازهای بالا من مناسب تر است؟ **ویرایش ها: توجه:** اگرچه من مقادیر X {1,0,-1} را به صورت تصادفی نمونه برداری کردم، اما آنها تصادفی نیستند. آنها در درجات مختلف با یکدیگر یا با y همبستگی دارند.
جنگل تصادفی برای تعداد زیادی از متغیرها و پیش بینی ها
21214
من در حال انجام برخی تحقیقات در مورد روش های مقایسه مبتنی بر فاصله ترکیب توالی های بیولوژیکی (ژن ها، پروتئین ها) هستم. فرض کنید من دو رشته (به نام های X و Y) با طول های مختلف دارم، اما از یک الفبای متناهی (A, C, T, G): X = 'ACGT' Y = 'ACGTA' تفاوت بین دو رشته را می توان با محاسبه کمی محاسبه کرد. فاصله بین ماتریس های انتقال آنها برای انجام این کار، می توانیم محاسبه کنیم که هر حرف از الفبا چند بار در هر رشته وجود دارد. دو بردار به دست می آوریم که تعداد حروف را برای دنباله ها نشان می دهد: x = [1،1،1،1] y = [2،1،1،1] سپس می توانم فاصله اقلیدسی را محاسبه کنم: d(x,y) = [(1 -2)^2 + (1-1)^2 + (1-1)^2 + (1-1)^2]^0.5 = 1^0.5 = 1 من نمی توانم بفهمم چگونه محاسبه کنم فاصله ماهالانوبیس اگر کسی بتواند از من مثال بزند و نحوه محاسبه فاصله ماهالانوبیس را به من نشان دهد سپاسگزار خواهم بود.
فاصله ماهالانوبیس به عنوان معیار عدم تشابه بین رشته ها (دنباله ها)
63427
من می خواهم از: $$ p(\theta_2|x)=\int p(\theta_2|\theta_1,x) نمونه بگیرم. p(\theta_1|x) . d\theta_1 $$ با دانستن اینکه من به راحتی می توانم از $p(\theta_1|x)$ و (به راحتی) از $p(\theta_2|\theta_1,x)$ نمونه برداری کنم. من برخی از ایده های ساده لوحانه-بی رحم-نیروی محاسباتی-غیرقابل حل دارم، اما شاید ایده های ظریف تری وجود داشته باشد؟ **ویرایش:** 1) چندین پاسخ به من پیشنهاد می دهد که از روش زیر استفاده کنم: برای i=1:N $\theta_1^i$ را از $p(\theta_1|x)$ بکشید $\theta_2^i$ از $ p(\theta_2|\theta_1^i,x)$ آیا این i.i.d $\theta_2^i$ را از $p(\theta_2|x)$ به من می دهد؟ 2) در عمل، من می خواهم یک بازه HPD را بیش از $\theta_2$ محاسبه کنم (به عنوان مثال با استفاده از boa.hpd). بنابراین من واقعاً به RVهای i.d نیازی ندارم. آیا روال زیر معتبر است: برای i=1:P ​​$\theta_1^{i}$ را از $p(\theta_1|x)$ برای j=1:N/P بکشید $\theta_2^{(i-1) *P+j}$ از $p(\theta_2|\theta_1^i,x)$ یعنی کشیدن $\theta_2^{(i-1)*P+j}$ از یک تک $\theta_1^{i}$، $P$ برابر ($P$ مقسوم‌کننده $N$ است و ثابت است و $N$ تعداد نمونه‌هایی که می‌خواهم تولید کنم) و از این نمونه‌های $N$ برای محاسبه استفاده کنید. hpd. در عمل چنین راه حلی تا حد زیادی کارآمدتر از راه حل اول در برنامه من خواهد بود.
نمونه برداری از حاشیه با استفاده از شرطی یکپارچه
1856
در مورد استفاده از تکنیک‌های یادگیری ماشین، مانند جنگل‌های تصادفی یا رگرسیون جریمه‌شده (با جریمه L1 یا L2، یا ترکیبی از آنها) در مطالعات بالینی نمونه کوچک، وقتی هدف جداسازی پیش‌بینی‌کننده‌های جالب در زمینه طبقه‌بندی است، چه فکر می‌کنید؟ این یک سوال در مورد انتخاب مدل نیست، و همچنین من در مورد چگونگی یافتن برآوردهای بهینه اثر/اهمیت متغیر نمی‌پرسم. من قصد ندارم استنتاج قوی انجام دهم، بلکه فقط از مدل‌سازی چند متغیره استفاده می‌کنم، بنابراین از آزمایش هر یک از پیش‌بینی‌کننده‌ها در برابر نتیجه مورد علاقه در یک زمان، و در نظر گرفتن روابط متقابل آنها اجتناب می‌کنم. من فقط به این فکر می‌کردم که آیا چنین رویکردی قبلاً در این مورد شدید خاص، مثلاً 20-30 آزمودنی با داده‌های 10-15 متغیر طبقه‌بندی یا پیوسته، اعمال شده است. دقیقاً مورد $n\ll p$ نیست و من فکر می‌کنم مشکل اینجا به تعداد کلاس‌هایی که سعی می‌کنیم توضیح دهیم (که اغلب متعادل نیستند) و n (بسیار) کوچک مربوط می‌شود. من از ادبیات عظیم در مورد این موضوع در زمینه بیوانفورماتیک آگاه هستم، اما هیچ مرجع مرتبط با مطالعات زیست پزشکی با فنوتیپ های اندازه گیری روان سنجی (به عنوان مثال در سراسر پرسشنامه های عصب روانشناختی) پیدا نکردم. آیا اشاره یا اشاره ای به مقالات مرتبط دارید؟ **به روز رسانی** من آماده هر راه حل دیگری برای تجزیه و تحلیل این نوع داده ها هستم، به عنوان مثال. الگوریتم C4.5 یا مشتقات آن، روش‌های قوانین تداعی، و هر تکنیک داده کاوی برای طبقه‌بندی نظارت شده یا نیمه نظارت شده.
کاربرد تکنیک های یادگیری ماشین در مطالعات بالینی نمونه کوچک
69642
N بیمار با N نمونه از محل A و N از سایت B (قبل و بعد از درمان). در هر دو سایت ما 1-4 میکروب را پیدا می کنیم که از نظر حساسیت ضد میکروبی برای بدست آوردن مقادیر MIC آزمایش می شوند. می‌خواهم تعیین کنم که آیا میانگین MIC در نمونه‌های site-A واقعاً کمتر از میانگین MIC در سایت-B است یا خیر. وقتی باید حداقل 3 متغیر سن، (جنس)، دارو و مدت زمان را در نظر بگیرم و مطمئن نیستم که داده ها واقعا جفت شده اند، کدام مدل را انتخاب کنم؟ من می‌توانم به آزمون t زوجی 2 نمونه‌ای بروم - اما چگونه می‌توانم 3 متغیر کمکی را ادغام کنم؟ لطفاً این را نیز در نظر بگیرید که در بیشتر موارد میکروب در سایت A مانند سایت B است - اما در 10-15٪ موارد ما میکروب های مختلف (و همچنین تعداد متفاوت) داریم. بنابراین، آیا ادغام همه داده ها و مقایسه میانگین های کلی نامناسب خواهد بود؟ یا باید داده ها را تقسیم کنم تا گروه های دارای میکروب های یکسان و گروه های دارای میکروب های مختلف را جداگانه در نظر بگیرم؟
مقایسه میانگین برای 2 مجموعه داده (جفت شده؟).
98972
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lyeIR.jpg) آیا روند یا فصلی در نمودار سری زمانی پیوست شده وجود دارد؟
آیا فصلی یا روندی در نمودار سری زمانی پیوست شده وجود دارد؟
60731
آیا چیزی شبیه تست K-S وجود دارد، اما از یک انتگرال به جای supremum استفاده کنید؟ فکر من این است که $\int_{-\infty}^\infty|F(x) - G(x)|dx$، که در آن $F$ و $G$ CDF هستند، اگر توزیع یکسانی داشته باشند، تقریبا صفر خواهد شد. و با واگرایی توزیع ها (به هر شکلی - غیر پارامتریک؟) افزایش می یابد. با این حال، نمی دانم که آن متغیر چگونه به نظر می رسد. تست K-S برای من مشکل ساز به نظر می رسد زیرا با حجم نمونه کوچک، نویز می تواند اثرات زیادی داشته باشد. با استفاده از تمام داده ها، به جای تنها بزرگترین تفاوت، شاید بتوان بخشی از تأثیر آن نویز را حذف کرد.
آزمون مستمر کولموگروف اسمیرنوف؟
60735
فرض کنید $X_1, X_2, \, ... \, , X_n$ یک نمونه تصادفی ساده از توزیع Normal$(\mu,\sigma^2)$ هستند. من علاقه مند به انجام آزمون فرضیه زیر هستم: $$ H_0: | \mu| \le c \\\ H_1: |\mu| > c، $$ برای ثابت معین $c > 0$. من به انجام دو تست $t$-تست یک طرفه (TOST) به روشی مشابه با وضعیت معمول تست هم ارزی زیستی فکر می کردم، که در آن عدد صفر و $|\mu| در عوض \ge c$، اما نمی‌دانم آیا این منطقی است یا درست است. ایده من این است که آزمایش های یک طرفه را انجام دهم $$ H_{01} : \mu \le c \\\ H_{11} : \mu > c $$ و $$ H_{02} : \mu \ge -c \\\ H_{12} : \mu < -c, $$ و فرضیه صفر جهانی را رد کنید اگر یکی از $p$-values ​​کوچکتر از سطح معناداری $\alpha$ باشد. پیشاپیش متشکرم **ویرایش:** من مدتی در این مورد فکر کرده ام و فکر می کنم رویکردی که پیشنهاد کردم سطح اهمیت $\alpha$ ندارد. فرض کنید مقدار واقعی $\mu$ $\mu_0$ باشد و $\sigma^2$ مشخص باشد. احتمال رد صفر در تست اول $$ \mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{01}) = 1 - \Phi \left(z_{1-\alpha) است. } + \frac{c-\mu_0}{\sigma/\sqrt{n}} \right)، $$ که در آن $\Phi$ اگر cdf استاندارد توزیع عادی باشد، و $z_{1-\alpha}$ مقداری است که $\Phi(z_{1-\alpha}) = 1-\alpha$. اگر $\mu_0 = c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{01}) = \alpha$. سپس، اگر $\mu_0 > c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{01}) > \alpha$. یا اگر $\mu_0 <c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{01}) <\alpha$. احتمال رد صفر در آزمون دوم $$ \mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{02}) = \Phi \left(- z_{1-\alpha} است. - \frac{\mu_0 + c}{\sigma/\sqrt{n}} \right). $$ دوباره، اگر $\mu_0 = -c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{02}) = \alpha$ داریم. به طور مشابه، اگر $\mu_0 > -c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{02}) < \alpha$. در نهایت، اگر $\mu_0 < -c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{02}) > \alpha$. از آنجایی که نواحی رد این دو آزمون ناهمگون هستند، احتمال رد $H_0$ این است: $$ \mathbb{P}_{\mu_0}(\mathrm{Rej.H}_0) = 1 - \Phi \left( z_{1-\alpha} + \frac{c-\mu_0}{\sigma/\sqrt{n}} \right) + \Phi \left(- z_{1-\alpha} - \frac{\mu_0 + c}{\sigma/\sqrt{n}} \right) $$ بنابراین، اگر $\mu \in [-c,c]$ ، $2\alpha$ یک کران بالای احتمال رد فرضیه صفر (جهانی) است. بنابراین، رویکردی که من پیشنهاد کردم بیش از حد لیبرال بود. اگر اشتباه نکنم، می‌توانیم با انجام همان دو تست به سطح معنی‌داری $\alpha$ برسیم و اگر مقدار $p$ یکی از آنها کمتر از $\alpha/2$ باشد، عدد صفر را رد کنیم. زمانی که واریانس ناشناخته است و ما نیاز به اعمال $t$-test داریم، آرگومان مشابهی وجود دارد.
فرضیه صفر هم ارزی
81022
من در تلاش برای درک و تفسیر اصطلاح تعامل در یک رگرسیون لجستیک هستم. متغیرهای توضیحی دما (طبقه ای)، وزن گناد (مستمر) و nnd (مستمر) هستند. زیر مدل کاهش‌یافته: model2012nnd=glm (کاملاً تخم‌ریزی ~ دما + گناد + nnd+گناد:nnd، خانواده = شبه‌بینومیال (لینک = logit)، داده = اسپا + nnd + گناد:nnd، خانواده = شبه باینومیال (لینک = logit)، داده = spaw) انحراف باقیمانده: Min 1Q Median 3Q Max -1.6793 -0.3594 -0.2457 -0.0651 2.5984 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 2.6262 2.1212 1.238 0.217638 temperature15.58928019 2.4317 0.6453 3.768 0.000237 *** gonad -1.58 -1.58 0.018466 * nnd -2.4845 1.0782 -2.304 0.022593 * gonad:nnd 0.6407 0.3124 2.051 0.042058 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده شبه‌جمعی 0.7864476 در نظر گرفته شده است) انحراف صفر: 118.652 در 152 درجه انحراف 59:7 148 درجه از آزادی AIC: NA چگونه این تعامل را تفسیر کنم؟ من متغیر «گناد» را در سه دسته (کم، متوسط ​​و زیاد) قرار دادم و احتمال تخم‌ریزی کامل را در دمای 1 و 2 برای هر سطح ترسیم کردم تا بتوانم خروجی را بفهمم. آیا این درست است؟ پیشاپیش ممنون تانیا
چگونه متغیرهای پیوسته تعامل را در رگرسیون لجستیک تفسیر کنیم؟
60193
من متعجبم که معیار بهتری برای قدرت پیش بینی در یک تنظیم رگرسیون چند متغیره چیست. بنابراین، یک آزمون F برای رگرسیون، «مطلوب بودن مدل» را آزمایش می‌کند، یا دقیقاً اگر هر یک از ضرایب $\beta$ غیر صفر باشد. هنگامی که تهی رد می شود، مدل مفید در نظر گرفته می شود. بنابراین، برای پیش بینی مفید است؟ اعتبار متقابل همچنین می تواند به شما کمک کند که آیا مدل شما برای پیش بینی مفید است یا خیر. آیا می توانید با استفاده از همان عبارت در مورد آنها صحبت کنید؟ در مورد آمار $R^{2}$ چطور؟ بگویید $n$ بزرگ است و درجه آزادی در مدل شما کوچک است. خیلی بعید است که بیش از حد برازش اتفاق افتاده باشد. در این مورد که $R^{2}$ زیاد است، در مورد قدرت پیش بینی مدل خود چه می توانید بگویید؟ متوسط صفر؟ بررسی قدرت پیش‌بینی برخی از مدل‌ها موضوع بزرگی است، اما آیا آزمون‌های F در آن نقش دارند؟ آیا اعتبار متقاطع به دلیل روش‌های یادگیری ماشینی که آزمایش‌های آماری وجود ندارد، بسیار محبوب شده است؟ آیا برای پر کردن این خلأ در مدل‌های الگوریتمی رایج شد یا واقعاً به مسائل مختلفی می‌پردازند؟
آزمون F در رگرسیون و اعتبار متقاطع
60734
من 800 متغیر پیوسته و یک متغیر پاسخ طبقه بندی (بیماری/غیر بیماری) دارم و از caret برای طبقه بندی بیماری بر اساس متغیرهای پیوسته استفاده کرده ام. من از caret استفاده کرده‌ام و مجموعه داده‌های خود را به قطار و تست (به ترتیب 2/3 و 1/3) تقسیم کرده‌ام و از EN، RF، PLS و SVM برای طبقه‌بندی استفاده کرده‌ام. من مقداری OKish AUC هم برای قطار و هم برای مجموعه تست (حدود 75 درصد) دریافت می کنم. سپس می‌خواستم از برخی ویژگی‌های انتخابی (rfe) برای حذف برخی از متغیرهای کم اهمیت/نویز استفاده کنم. در این مورد راهنمایی می خواستم. 1. من rfe (به عنوان مثال rfe با rfFuncs) را روی مجموعه داده قطار اجرا می کنم و سپس در آزمایش پیش بینی می کنم. آیا این خوب است؟ یا از rfe در کل مجموعه داده استفاده می کنید؟ همچنین، من افراد آنلاینی را دیده‌ام که از rfe در مجموعه داده‌های قطار استفاده می‌کنند و سپس یک مجموعه داده جدید بر اساس متغیرهای انتخابی جدید rfe ایجاد می‌کنند (مثلاً 100 از 800). سپس آنها از این مجموعه داده کوچکتر جدید استفاده می کنند و از ابتدا یک طبقه بندی کننده را اجرا می کنند. شبکه الاستیک مانند قبل (در همان مجموعه داده قطار و سپس پیش بینی در آزمایش). آیا این مشکلی ندارد یا منجر به نصب بیش از حد می شود؟ 2. rfe با rfFuncs بسته به دانه ای که انتخاب می کنم نتایج بسیار متغیری به من می دهد. چگونه می توانم در اطراف آن کار کنم؟
انتخاب متغیر caret rfe و پیش‌بینی آزمون
68060
از بازرسی بصری، من گمان می‌کنم که برخی از مجموعه‌های مجموعه داده پانل من ثابت نیستند. اگر آزمایش ریشه واحد پانل را روی آن‌ها در EViews 7 انجام دهم، می‌توانم رگرسیورهای برون‌زا را در زیر «شامل در معادله آزمایشی» انتخاب کنم: به‌طور خاص، می‌توانم «قطع فردی»، «قطع فردی و روند» یا «هیچ‌کدام» را انتخاب کنم. با رعایت همه موارد دیگر، آنها می توانند نتیجه آزمایش را همانطور که در اینجا مشاهده می کنید تغییر دهند: ![http://i.stack.imgur.com/zf9aT.jpg](http://i.stack.imgur.com/zf9aT. jpg) ** چگونه می توانم بدانم کدام رگرسیون برون زا را انتخاب کنم؟ ** من داده هایی در مورد متغیرهای مختلف برای 165 کشور مختلف، هم در داده های سالانه و هم در میانگین چند ساله دارم. من گمان می کنم که اکثر کشورها در اکثر متغیرهای خود روند نزولی مشترکی دارند، اما شوک های فردی را تجربه می کنند.
رگرسیورهای اگزوژن در آزمون ریشه واحد پانل
94626
فرض کنید ما سه متغیر تصادفی $X_1،X_2$ و $X_3$ داریم. اجازه دهید $\bar{X}_{1:1:1}$، $\bar{X}_{1:1}$ و $\bar{X}_{2:1:1}$ تخمین‌گر برای $ باشند \mu$. توجه داشته باشید که علامت $\bar{X}_{1:1:1}$ نشان می‌دهد که وزن هر متغیر $\frac{1}{1+1+1} = \frac{1}{3}$ است. . معادلات تخمینی برای هر یک از این برآوردگرها چیست؟ چگونه این معادلات تخمینی را در یک معادله برآورد کلی ترکیب کنیم؟ آیا معادلات تخمینی عبارتند از: $$\bar{X}_{1:1:1}-\hat{\mu} = 0$$ $$\bar{X}_{1:1}-\hat{\ mu} = 0$$ $$\bar{X}_{2:1:1}-\hat{\mu} = 0$$ و تنها معادله تخمینی: $$w_{1}(\bar{X}_{1:1:1}-\hat{\mu}) + w_{2}(\bar{X}_{1:1}-\hat{\ mu})+w_{3}(\bar{X}_{2:1:1}-\hat{\mu})=0$$ جایی که $w_1 = \frac{1}{3}$, $w_ {2} = \frac{1}{2}$ و $w_{3} = \frac{1}{4}$؟ وزن ها به ترتیب برابر با X_1، X_2 دلار و X_3 دلار است.
تخمین معادلات