_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
69476 | سوال این است: > شما سن زیر (بر حسب سال) 6 خرس را پیدا کرده اید. آن خرس ها > به طور تصادفی از بین 28 خرس در باغ وحش محلی شما انتخاب شدند: > > 46،1،20،16،12،2 > > بر اساس نمونه شما، میانگین سنی خرس ها چقدر است؟ > انحراف معیار چیست؟ می توانید پاسخ های خود را به نزدیکترین دهم گرد کنید. مشکل این است، در حالی که من انحراف میانگین تقسیم بر (n-1) را تعیین می کنم. در این حالت تقسیم بر 5. اما چرا؟ چه زمانی بر n و چه زمانی بر (n-1) تقسیم خواهیم کرد منبع: | مشکل انحراف معیار |
102674 | من داده های مقطعی دارم که در آن متغیر وابسته باید بر اساس سن رگرسیون شود. اگر سن و سن ^2 را در رگرسیون لحاظ کنم، ضرایب بسیار معنی دار هستند. وقتی سن ^ 3 را نیز اضافه می کنم ، همه ضرایب (سن ، سن ^ 2 و سن ^ 3) بسیار کوچکتر و ناچیز می شوند. در این مرحله، من بیشتر انتظار داشتم که اگر سن ^ 3 نقشی در مدل نداشته باشد ، ساده ناچیز است ، اما ضرایب سن و سن ^ 2 قابل توجه باقی می مانند. اما واضح است که در اینجا اینطور نیست. ؛) آیا دلیلی دارید که چگونه/چرا این اتفاق می افتد؟ خیلی ممنون :) | ضرایب با اضافه کردن متغیر اضافی ناچیز می شوند. توضیح؟ |
8081 | آیا این درست است که نمودارهای میله ای افقی و عمودی در طول های مختلف برای چشم انسان هستند؟ | آیا این درست است که نمودارهای میله ای افقی و عمودی در طول های مختلف برای چشم انسان هستند؟ |
114523 | من دو طبقهبندیکننده دارم، مثلاً $A$ و $B$ و 10$\times$10 برابر اعتبار متقاطع روی آنها انجام میدهم و تعداد نمونههایی را که به درستی از مجموعه تست طبقهبندی شدهاند، ثبت میکنم. متأسفانه، تعداد نمونههای موجود بسیار کم است، بنابراین من فقط حدود 10 نمونه در هر مجموعه تست دارم. بنابراین، تعداد نمونه هایی که به درستی طبقه بندی شده اند بین 0 تا 10 است، مانند این: \begin{array}{rrr} \text{fold} & A & B\\\ \hline 1 & 8 & 9\\\ 2 & 7 & 7\\\ 3 & 10 & 8\\\ \vdots & \vdots & \vdots\\\ 100 & 9 و 8 \end{array} میخواهم بدانم که آیا $A$ و $B$ عملکرد متفاوتی دارند یا خیر. به طور معمول (هیچ جناسی در نظر گرفته نشده است)، من از تست $t$-تست جفتی (ولش) برای این نوع چیزها استفاده می کنم، اما به نظر می رسد اندازه مجموعه آزمون کوچک فرض عادی بودن را نقض می کند. علاوه بر این، هر دو $A$ و $B$ بسیار خوب هستند: آنها حدود 90٪ دقت در مجموعه داده من دارند. این بدان معناست که تعداد زیادی پیوند وجود دارد، یعنی جفتهای همساز با $A = B \ تقریبا 9 $. به نظر میرسد که آزمون رتبه امضا شده ویلکاکسون، پایه اصلی مشکلاتی از این دست است. با این حال، من نگران تعداد زیاد کراوات هستم. من در مورد پاسخ های خنثی (صفرها) در تست علامت و پیوندها در تست ویلکاکسون-من-ویتنی توسط رونالد اچ. رندلز در پاسخ به سوال دیگری توصیه شده است، اما واقعاً نمی دانم که پارامتر $\gamma چگونه باید باشد. $ برای مشکل من انتخاب شود. علاوه بر این، از آنجایی که رندل فقط برای آزمون مجموع رتبه فرمول می دهد، باید فراموش کنم که مشاهدات من جفت هستند. اگر بخواهم به جای 10$\times$10-برابر اعتبار متقاطع ترک یکاوت را اجرا کنم، همه پاسخهای من $\\{0، 1\\}$ خواهد بود. در این مورد، آزمون مناسب، آزمون مک نمارس (دقیق) خواهد بود، که تا آنجا که من می دانم، صرفاً یک آزمون جایگزینی است. آیا تهیه یک آزمون جایگشت برای داده های من در $[0, 10] \cap \mathbb{Z}$ مناسب است؟ از آنجایی که مجموعه تفاوت های مطلق بسیار کوچک است، من حتی می توانم یک آزمایش جایگشت دقیق انجام دهم. اما آیا این معنادار است؟ | برای جفت اعداد صحیح کوچک تست کنید |
28848 | من علاقه مندم که بدانم هنگام تولید/شبیه سازی داده ها برای آزمایش یا مقایسه روش های مدل سازی، عمل خوب چیست. من بر روی مدل های خطی و اندازه گیری دقت پیش بینی و اندازه گیری دقت تخمین پارامتر تمرکز می کنم. من به دقت پیشبینی (PSE) از نظر خطای پیشبینی مجذور معتبر متقاطع و دقت تخمین پارامتر بر حسب $\|\beta-\hat{\beta}\|$ (MSE) نگاه میکنم. من مجموعه ای از شبیه سازی ها را با استفاده از روشی که معتقدم یک روش صدا است، انجام داده ام، اما از نتایج راضی نیستم. من حدس می زنم که از چیزی غافل شده ام. مسئله این است که تخمین پارامترهای مجاور به شدت با یکدیگر همبستگی دارند و من نمی توانم دلیل آن را بفهمم. مسئله دیگر این است که در حالی که می توانم مجموعه داده هایی تولید کنم که تفاوت زیادی در دقت تخمین پارامتر نشان می دهد، عملکرد پیش بینی بسیار مشابه خواهد بود. من مطمئن نیستم که چرا این اتفاق می افتد، من انتظار دارم روش های با MSE بهبود یافته نسبت به روش های دیگر PSE بسیار بهبود یافته باشند. در اینجا یک مثال معمولی آورده شده است: http://ohyur.com/random/typical.png من آنچه را که تلاش کرده ام را تشریح خواهم کرد. * تخمین های پارامتر واقعی را تنظیم کنید، $\beta$ * ساختار همبستگی را برای متغیرهای پیش بینی تنظیم کنید * پیش بینی ها را با ساختار همبستگی مشخص، $X$ ایجاد کنید. من سعی کردم از mvrnorm() در R برای تولید N(0,1) ستون و تابع mvrunif() برای تولید ستون های U(-1,1) استفاده کنم. هر دو با ساختار همبستگی مشخص شده. * پاسخ را با استفاده از $Y=\mu + X\beta+\epsilon$ ایجاد کنید که $\epsilon$ $N(0,\sigma$) است. به نظر من، این روش منطقی برای تولید داده برای یک مدل خطی به نظر می رسد. در اینجا نمونه ای از شکل ظاهری داده های تولید شده آورده شده است: http://ohyur.com/random/data.png ($\mu=3,$ $\beta=(3,2,-3,5,2, -3,5,5)$, $\sigma=15$, $\text{cor}(x_i,x_j)=0.9^{|i-j|}$ اکنون در شبیهسازیهای من، در هر تکرار من تولید داده ها مطابق با مراحل بالا، سپس برازش چند مدل، تخمین CV و محاسبه MSE و ذخیره نتایج برای 3 روش مختلف مدل سازی http://ohyur.com/. random/psemse.png **اکنون**، از همه جالبتر برای من، در اینجا یک نمودار زوجی از پارامترهای تخمین زده شده برای یک مدل OLS کامل است. چرا پیشبینیکنندههای مجاور همبستگی دارند http://ohyur.com/random/estimates.png یکی از مواردی که من در مورد آن صحبت میکنم این است که در دنیای واقعی، برخی از پیشبینیکنندهها بیش از دیگران با پاسخ مرتبط هستند و نه تنها به دلیل آن؟ اندازه اثر واقعاً در راه اندازی من در نظر گرفته نشده است داده ها برای آزمایش مدل های لاینر بسیار قدردانی خواهند شد. | شبیه سازی یا تولید مجموعه داده ها برای آزمایش روش های مدل سازی |
114529 | من با استفاده از معادلات زنجیرهای در Stata برای رسیدگی به دادههای گمشده آیتمها، چندین انتساب را انجام میدهم. یکی از متغیرهایی که من بر روی آن حساب زدم درآمد بود. با این حال، پس از منتسب کردن، مقادیر منتسب شده درآمد حاوی مقادیر منفی هستند، اگرچه میانگین و انحراف معیار درآمد پس از تخصیص تقریباً مشابه مقادیر قبل از انتساب است. من از رگرسیون خطی برای القای درآمد استفاده کردم (اگرچه توزیع درآمد در جامعه مورد مطالعه نرمال نیست). در حالی که با استفاده از سایر گزینههای انتساب درآمد مانند تطبیق میانگین پیشبینیکننده، رگرسیون کوتاه، رگرسیون پواسون و رگرسیون دوجملهای منفی، مدل انتساب موفق به همگرایی نمیشود. چگونه باید با چنین مقادیر منتسب شده منفی برخورد کنم؟ آیا می توانم این را نادیده بگیرم و به تجزیه و تحلیل بیشتر داده های منتسب شده چندگانه خود ادامه دهم؟ | مقادیر منتسب شده منفی |
61319 | من در اینجا مقاله ای را می خوانم که تحلیلی انجام می دهد که به نظر من عجیب است، و به این فکر می کنم که آیا انجام کاری که آنها انجام می دهند معقول است یا خیر. مقاله به صورت آنلاین در دسترس نیست، اما فکر میکنم بتوانم بخش مهم آن را شرح دهم: نویسندگان گروهی از دانشجویان دانشگاهی داشتند که یک درس علوم را میگذراندند، و آنها «اثربخشی» آنها را در دو مقطع زمانی اندازهگیری کردند (پیش آزمون قبل از دوره، و سپس پس آزمون پس از دوره). آنها فرض کردند که دانشآموزانی که کمترین کارایی پیشآزمون را دارند، از قبل تا بعد، بیشترین سود را خواهند برد (و دانشآموزانی که بالاترین اثربخشی پیشآزمون را داشتند، کمترین پیشرفت را خواهند داشت). بنابراین دانش آموزان را بر اساس نمره پیش کارآمدی به چهارچوب تقسیم کردند. سپس آنها یک دو طرفه در ANOVA انجام دادند. IV ها آزمایشی (قبل یا بعد) و چهارکی (1، 2، 3، یا 4) بودند. DV کارآمد بود. آنها به دنبال آزمایشی هستند: تعامل چارک (امید است که آزمایشات پس از آن نشان دهند که پایین ترین چارک افزایش تن و بالاترین چارک کمی افزایش خواهد یافت). حدس میزنم چیزی که من را نگران میکند این است: 1. «چرک» واقعاً یک درون موضوعی IV نیست، زیرا برای هر موضوع ثابت است. تصور میکنم که در یک قالب طولانی، دادههای آنها برای هر موضوع دو ردیف (برای نمرات کارآمدی قبل و بعد) داشته باشد و چارک در هر دو یکسان باشد. 2. دانش آموزان در چارک برتر کمترین سود را دارند. پایینترین چارک میتواند به خوبی بیشتر از چارک بالایی که واقعاً میتوانست افزایش دهد (اثر سقف بر چارک بالا). 3. همچنین من را نگران می کند که نمرات چارک و پیش کارآمدی همبستگی بالایی دارند. نمیدانم درست است یا نه، اما برای من این چارک از پیشاثربخشی قابل محاسبه است، بنابراین گنجاندن هر دو مشکوک به نظر میرسد. 4. چرا ربع؟ چرا نصف یا یک سوم نمی شود، یا به نوعی از پیش کارآمدی مستقیماً به جای شکستن آن به ربع استفاده نمی شود؟ به عنوان مثال، چیزی مانند «(post - pre) ~ pre» و سپس یک اثر علامت منفی pre نشان می دهد که با افزایش pre، امتیاز تفاوت کاهش می یابد؟ امیدوارم بتوانم چنین تحلیلی را انجام دهم، اما نتوانستم در شرایط فعلی که از نحوه انجام این تحلیل ناراحتم، به جلو بروم. من اصلاً آمارگیر نیستم بنابراین ممکن است در اینجا کاملاً اشتباه کنم. نظرات در مورد اینکه آیا تجزیه و تحلیل صحیح است یا خیر، قدردانی می شود. | آیا یک ANOVA پیش آزمون-پس آزمون با کارایی پیش آزمون به عنوان یک IV معقول است؟ |
51009 | **زمینه** من مجموعه ای از نقاط داده در فضای با ابعاد بالا (512D) دارم که می خواهم آنها را برای تجسم به 2 بعدی نگاشت کنم. من علاقه مند به مشاهده دو بعدی فواصل نسبی (تقریبی) بین نقاط داده و ساختار فضایی کلی آنها هستم. در حال حاضر من از مقیاس بندی چند بعدی در Matlab برای انجام این کار استفاده می کنم: % عدم تشابه ماتریس D = pdist(X', 'euclidean'); % MDS غیر متریک -- ابعاد را به 2D Y = mdscale(D, 2)'; % نمایش شکل نتیجه، نمودار(Y(1، :)، Y(2، :)، 'o'); جایی که «X» مجموعه ای از نقاط داده با ابعاد بالا (512 x تعداد نقاط) است. پس از انجام این نگاشت برای مجموعه ای از نقاط، من آرزو دارم بتوانم نقاط جدید با ابعاد بالا را در فضای دو بعدی بدون نیاز به استفاده از مجموعه اصلی نقاط با ابعاد بالا، طرح/نقشه برداری کنم. **سوالات** (1) چگونه می توانم نگاشت/پیش بینی مورد استفاده برای مقیاس بندی نقاط 512 بعدی به 2 بعدی را بدست آوریم تا بتوانم آن را در نقاط داده جدید اعمال کنم؟ (2) یک متریک خطا مناسب برای ارزیابی پیش بینی ها چیست؟ هدف از انجام این کار مقایسه تکنیک های مختلف کاهش ابعاد (مانند MDS در مقابل LLE) است. به عنوان مثال، آیا مقایسه فواصل بین k نزدیکترین همسایه مربوطه در هر دو فضا مناسب است؟ یعنی مجذور اختلاف فاصلههای همسایه متناظر در دو فضا برای هر نقطه را جمع کنید و میانگین را محاسبه کنید. | یافتن برجستگی مورد استفاده در مقیاس بندی چند بعدی |
85448 | آیا قرار است باندهای اطمینان و پیش بینی در اطراف یک رگرسیون غیر خطی در اطراف خط رگرسیون متقارن باشند؟ به این معنی که مانند نوارهای رگرسیون خطی، شکل ساعت شنی را نمی گیرند. چرا اینطور است؟ مدل مورد نظر اینجاست: $$ F(x) = \left(\frac{A-D}{1 + \left(\frac x C\right)^B}\right) + D $$ این شکل است:  و این معادله است:  | شکل اطمینان و فواصل پیش بینی برای رگرسیون غیر خطی |
8083 | _نسخه تجدید نظر شده_ وضعیت: نمونه ای به اندازه $r$ داریم. سپس، شمارش می کنیم که چه تعداد از این $r$ موفقیت است. اجازه دهید $X=$ شماره باشد. از موفقیت ها و بگویید $X$ فاصله پواسون را دنبال کنید. هدف: برای آزمایش اینکه آیا $X$ واقعا پواسون است یا نه با استفاده از تست پراکندگی با آمار آزمون ارائه شده توسط $D=\frac{\sum_{i=1}^{n}(X_{i}-\overline{X})^2 }{\overline{X}}$ --- به عنوان حالت در اینجا. مشکل: 1. من فقط یک نمونه دارم، بنابراین n=1 من. بنابراین، اگر از $\overline{X}=X_1$ استفاده کردم، D=0. برای غلبه بر این مشکل، از بوت استرپ برای تولید نمونه های بوت استرپ n و بدست آوردن $\overline{X}$ استفاده می کنم. آیا این معتبر است؟ 2. آیا باید نمونه های بوت استرپ تولید شده مورد استفاده برای آزمایش فرضیه را به گونه ای انتخاب کنم که $\overline{X}=Var(X)$ حاصل شود؟ -- فکر می کنم اگر بخواهم پارامتر پواسون را تخمین بزنم باید از این قانون استفاده شود. من در استفاده از بوت استرپ برای تخمین و بوت استرپ برای تست فرضیه گیج شده ام. 3. تصویر: الف. داده ها: 0.42172863 0.28830514 0.66452743 0.01578868 0.02810549. بنابراین، $ r = 5 $. ب) موفقیت را تعریف کنید: مشاهده ای بزرگتر از 0.4. اینجا، $X=2$. ج. فرض کنید 3 نمونه بوت استرپ (از داده های مرحله الف) دریافت کنید: i) 0.28830514 0.01578868 0.66452743 0.02810549 0.02810549. بنابراین، $X=1$. ii) 0.42172863 0.66452743 0.02810549 0.66452743 0.66452743. بنابراین، $X=4$. iii) 0.02810549 0.66452743 0.01578868 0.66452743 0.42172863. بنابراین، $X=3$. d. بنابراین، $\overline{X}= 2.666667$ و $Var(X)= 2.333333$. توجه داشته باشید که در اینجا، من نحوه تولید 3 نمونه بوت استرپ (در مرحله ج) را کنترل نکردم. به همین دلیل $\overline{X}>Var(X)$. بنابراین، سؤالات من: 1. آیا بوت استرپ یک تکنیک معتبر برای به دست آوردن $\overline{X}$ در این مورد است؟ 2. آیا باید نحوه تولید نمونه های بوت استرپ را کنترل کنم تا $\overline{X}=Var(X)$ حاصل برای آزمایش فرضیه استفاده شود؟ | تست پراکندگی یک نمونه برای پارامتر پواسون |
8088 | من روی پروژهای کار میکنم که در آن رفتار را در یک کار مشاهده میکنیم (مثلاً زمان پاسخ) و این رفتار را به عنوان تابعی از چندین متغیر آزمایشی دستکاری شده و همچنین چندین متغیر مشاهده شده (جنس شرکتکننده، IQ شرکتکننده، پاسخهای مربوط به یک بعدی) مدل میکنیم. پرسشنامه بالا). من نگرانی در مورد چند خطی بودن در بین متغیرهای تجربی ندارم زیرا آنها به طور خاص دستکاری شده اند تا مستقل باشند، اما من نگران متغیرهای مشاهده شده هستم. با این حال، من مطمئن نیستم که چگونه استقلال را در بین متغیرهای مشاهده شده ارزیابی کنم، تا حدی به این دلیل که به نظر می رسد بسته به نحوه تنظیم ارزیاب، نتایج تا حدودی متفاوتی دریافت می کنم، و همچنین به این دلیل که با همبستگی در زمینه ای که یک یا هر دو متغیر دوگانه هستند. برای مثال، در اینجا دو رویکرد متفاوت برای تعیین اینکه آیا جنسیت مستقل از IQ است یا خیر، وجود دارد. من طرفدار آزمون اهمیت فرضیه صفر نیستم، بنابراین در هر دو روش دو مدل میسازم، یکی با رابطه و دیگری بدون، سپس محاسبه و نسبت احتمال ورود تصحیح شده با AIC: m1 = lm (IQ ~ 1) m2 = lm (IQ ~ جنسیت) LLR1 = AIC(m1)-AIC(m2) m3 = glm(sex~1,family='binomial') m4 = glm(sex~IQ,family='binomial') LLR2 = AIC(m3)-AIC(m4) با این حال، این رویکردها تا حدودی پاسخ های متفاوتی را ارائه می دهند. LLR1 حدود 7 است، که شواهد قوی به نفع یک رابطه را نشان می دهد، در حالی که LLR2 حدود 0.3 است، که نشان دهنده شواهد بسیار ضعیف به نفع یک رابطه است. علاوه بر این، اگر من سعی کنم استقلال بین جنسیت و متغیر مشاهده شده دوگانه دیگر، yn را ارزیابی کنم، LLR حاصل به طور مشابه به این بستگی دارد که آیا من مدلها را برای پیشبینی جنسیت از yn یا پیشبینی yn از جنسیت تنظیم کنم. آیا پیشنهادی در مورد چرایی ایجاد این اختلافات و نحوه ادامه کار به طور منطقی دارید؟ | ارزیابی چند خطی متغیرهای پیش بینی دوگانه |
25171 | من چند مدل لاجیت سطح 3 را با استفاده از Stata 12 تخمین می زنم و با یک دوراهی مواجه هستم که چگونه (یا اگر) سطح سوم خود را مشخص کنم. داده ها، پرونده های دادگاهی هستند که در داخل قضات تو در تو در مدارها قرار دارند. تنها اثر تصادفی رهگیری است. بیش از یک میلیون پرونده، حدود 500 قاضی، و 20 مدار وجود دارد. مشکل سطح 3 این است که برخی از داوران در مدارهای متعدد (عضویت چندگانه) فعالیت می کنند. این یک دوراهی ایجاد می کند و اینجاست که من دوست دارم بازخورد کسانی را که بیشتر می دانند بشنوم. من می توانم مدل را با k متغیر مستقل (و چندین تعامل) در نحو stata مشخص کنم: xtmelogit y x1 x2 x3##x4 xk ||_all: R.circuit || قضاوت: , intp(1) intp(1) نقاط ادغام را بر روی 1 قرار می دهد که منجر به تقریب لاپلاسی می شود که من خواندم ضرایب کم و بیش دقیق اما بالقوه سوگیری جدی در مولفه های واریانس دارد. من اکنون یک هفته است که مدلی مانند این را دارم که در حال اجراست و در دومین تکرار است، بنابراین حدس میزنم اگر همگرا شود، حداقل یک هفته دیگر طول میکشد. من گمان می کنم که اگر بخواهم 7 نقطه ادغام استاندارد را مشخص کنم، تکمیل مدل ماه ها طول می کشد. و بررسی نتایج برای حساسیت به نقاط ادغام را فراموش کنید. از طرف دیگر، من می توانم مدل را به صورت 2 سطح تخمین بزنم، نحو به صورت زیر است: xtmelogit y x1 x2 x3##x4 xk ib11.circuit || judge: , intp(7) این مدل شامل مدارها به عنوان ساختگی (مدار 11 به عنوان مرجع) تو در تو در میان داوران است. این مدلی است که من استفاده کرده ام. مشکل این است که سطوح مشخصاً اشتباه مشخص شده اند. نکته مثبت این است که من به ضرایب و مولفه های واریانس اطمینان بیشتری دارم زیرا می توانم از تعداد معقولی از نقاط ادغام استفاده کنم و تأیید کرده ام که نتایج به تعداد نقاط ادغام استفاده شده حساس نیستند. اما من تعجب می کنم که تعیین نادرست سطح چه تأثیری دارد. مطمئناً با مولفههای واریانس مشکل پیدا میکند، اما به هر حال مدل جایگزین به احتمال زیاد دارای مولفههای واریانس دقیق نیست. نگرانی واقعی برای من این است که آیا رهگیری و ضرایب تصادفی به روشی پیشبینی نشده مغرضانه هستند یا خیر. آیا کسی نظر یا راهنمایی حکیم دارد؟ ویرایش شده تا اضافه شود: من بیشتر به این موضوع فکر کردهام و مسئله اصلی این است که میخواهم اثر مدار را کنترل کنم. مقالات دیگری با این داده ها منتشر شده است که در آن موارد در مدارها (2 سطح) تو در تو قرار گرفته اند و آنها تأثیر مهم مدار را بر نتیجه نشان داده اند. در مدل من با آدمکهای مدار، نسبتهای شانس قابلتوجهی دارند که برخی از آنها به 7، 8 یا 9 میرسد (همانطور که به نظر میرسد مدار یازدهم ملایمترین مدار است). من نمیخواهم این اثر را نادیده بگیرم، بلکه میخواهم آن را بهعنوان یک متغیر مزاحم کنترل کنم، تا زمانی که رهگیریها و ضرایب من را تحت تأثیر قرار ندهد، میتوانم با تخمین نادرست آن زندگی کنم. حدس میزنم آنچه میپرسم، این است که از آنجایی که به نظر میرسد روش صحیح فنی بیرون از پنجره است، کمترین راه برای انجام این کار چیست؟ | سطوح نادرست در مدل لاجیت مختلط چندسطحی |
25179 | من یک رگرسیون لجستیک انتخاب متغیر به عقب اجرا می کنم و متوجه می شوم که برنامه SAS 12 متغیر را انتخاب کرده است و خروجی را به این صورت به من می دهم:  ! [توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hWf7n.jpg)   ![توضیحات تصویر را اینجا وارد کنید] (http://i.stack.imgur.com/IRIhv.jpg) خنده دار است که پیکربندی من از انتخاب رو به عقب SAS این است که SC(SBC) را پایین بیاورد. به طور کلی، نتیجه به نظر می رسد که نتیجه SC فرض می کند که قطع با متغیرهای کمکی بدتر است. اما دو نفر دیگر AIC و -2logL پشتیبانی می کنند که Intercept با corvar مدل بهتری است. بچه ها ممکن است در مورد این نتیجه و خروجی آزمایش قضاوت کنید؟ | چگونه این معیار نتیجه رگرسیون لجستیک را تفسیر کنیم |
61316 | من سعی میکنم بفهمم چه متغیرهایی در پیشبینی چند امتیاز در نیمه اول بازیهای بسکتبال مهم هستند تا بتوانم آنها را به یک رگرسیون لجستیک متصل کنم. من می دانم که سازمان های شرط بندی در وگاس یک پیش بینی برای کل بازی (fg total) دارند که امتیازات کسب شده در نیمه اول را بسیار پیش بینی می کند. من در حال تلاش برای کشف عوامل دیگری هستم که در پیش بینی امتیازات نیمه اول مهم هستند و یک نامزد احتمالی وجود دارد... لاس وگاس همچنین پیش بینی هایی را در مورد اینکه تیم_1 تیم_2 را در بازی شکست خواهد داد (عرض fg) و یک نمودار ارائه می دهد. با توجه به امتیازات محور y در نیمه اول، و محور x بودن fg اسپرد نشان می دهد که اسپرد fg ارتباط کوچک اما قابل توجهی با امتیازهای کسب شده در نیمه اول دارد. با این حال، گسترش fg نیز یک همبستگی کوچک اما قابل توجه با کل fg دارد. چگونه می توانم تصمیم بگیرم که آیا گسترش fg باید متغیر خود را داشته باشد یا اینکه قبلاً به اندازه کافی با متغیر fg total حساب شده است؟ سوال دیگر من این است که اگر من ایده ای برای یک ویژگی دارم که ممکن است پیش بینی کننده باشد، آیا ایده خوبی است که این ویژگی را به سادگی در رگرسیون لجستیک قرار دهم و اگر رگرسیون لجستیک به آن ضریب بدهد به این معنی است که ویژگی مهم است و من باید نگهش دارم و اگر ضریبش نزدیک به 0 بشه یعنی مهم نیست و میتونم ولش کنم؟ اگر این ایده خوبی نیست، چگونه می توانم ویژگی های احتمالی را بیشتر بررسی کنم تا ببینم آیا آنها مهم هستند؟ لطفا به زبان ساده و حتی بهتر با مثال توضیح دهید من یک متخصص آمار نیستم. با تشکر | ویژگی های خوب را پیدا کنید |
8087 | من سعی می کنم فیلدهای تصادفی شرطی پنهان را مطالعه کنم، اما هنوز سؤالات اساسی در مورد آن روش ها دارم. من بسیار سپاسگزار خواهم بود اگر کسی بتواند در مورد نماد استفاده شده در بیشتر مقالات در مورد موضوع توضیح دهد. در چندین مقاله رایج ترین شکل مدل HCRF به صورت زیر ارائه شده است: $p(w|o;\theta) = \frac{1}{z(o; \theta)} \sum_{s} \exp{ \ Psi(w, s, o; \theta) } $ که در آن $\theta$ بردار پارامتر است، $w$ برچسب کلاس، $o$ دنباله مشاهده، $s$ مخفی است. توالی حالت و $\Psi$ تابع بالقوه است. با این حال، من هنوز نتوانستم بفهمم $s$ به چه معناست. آیا این فقط دنباله ای از اعداد صحیح است یا در واقع دنباله ای از گره ها در یک نمودار است؟ واقعاً چگونه می توان این جمع را محاسبه کرد؟ اکثر مقالاتی که خواندهام فقط به این موضوع اشاره میکنند که هر $s_i \در S$ ساختار زیربنایی خاصی از هر کلاس را نشان میدهد ($S$ مجموعه حالتهای پنهان در مدل است). اما من هنوز نتوانستم بفهمم که این واقعاً چه معنایی دارد. | حالت های پنهان در فیلدهای تصادفی شرطی پنهان |
30363 | این ممکن است کاملاً یک سؤال اساسی باشد، اما من یک مدل خطی ساده را اجرا می کردم و اصطلاحات غیر قابل توجه را حذف می کردم تا اینکه به یک مدل حداقلی رسیدم. هنگامی که به این امر رسید، من در حال به دست آوردن اهمیت برای متغیرهای توضیحی بودم که با حذف یک به یک آنها نیز باقی می ماند. اکنون، چیزی که من دریافت میکنم این است که یکی از آن متغیرها در مدل حداقلی من بعد از اینکه آن را رها میکنم غیرمعنیدار میشود و من کاملاً نمیدانم چه اتفاقی میافتد. اگر کسی می تواند به من راهنمایی کند، عالی است (کد در زیر است). بنابراین حداقل مدل من این بود: m1<-lm(log10(para.ml) ~ treat + prop.r + log(od)) تجزیه و تحلیل جدول واریانس پاسخ: log10(para.ml) Df مجموع مربع میانگین مربع F مقدار Pr( >F) درمان 3 4.2925 1.43083 30.113 9.181e-09 *** prop.r 1 1.5419 1.54190 32.451 4.723e-06 *** log(od) 1 0.5698 0.56981 11.992 0.001796 ** Residuals 27 1.2829 هر دو سطح و ضریب 0.04751 با _tre _at_4 در اینجا a. _log(od)_ متغیرهای پیوسته هستند. همانطور که می بینید، همه افکت ها قابل توجه به نظر می رسند و اگر _prop.r_ یا _log(od)_ را رها کنم، مدل _m1_ همچنان ترجیح داده می شود. اگرچه این اتفاق نمی افتد اگر _treat_ : m2<-update(m1,~.-treat) anova(m2,m1) تجزیه و تحلیل جدول واریانس مدل 1: log10(para.ml) ~ prop.r + log(od ) مدل 2: log10 (para.ml) ~ treat + prop.r + log(od) Res.Df RSS Df مجموع مربع F Pr(>F) 1 30 1.6202 2 27 1.2829 3 0.33728 2.3662 0.09308. حالا، اگر جدول anova را برای این مدل آخر دریافت کنم، این را به دست میآورم: anova(m2) تجزیه و تحلیل جدول واریانس پاسخ: log10 (para.ml) Df Sum Sq Mean Sq F مقدار Pr(>F) prop.r 1 4.8607 4.8607 90.003 1.537e-10 *** log(od) 1 1.2062 1.2062 22.335 5.045e-05 *** Residuals 30 1.6202 0.0540 بنابراین، با مقایسه _anova(m2)_ و _anova(m1)_ به نظر می رسد که بیشتر تغییراتی که توسط _treat_ توضیح داده شده بود، اکنون توسط _pro_log توضیح داده شده است. (od)_. بنابراین آیا این فقط موردی است که وقتی من _treat_ را در مدل خود دارم، بسیاری از تغییرات را توضیح می دهد که فقط می توانند توسط متغیرهای دیگر توضیح داده شوند؟ هر گونه کمک قدردانی! | فاکتور در مدل معنی دار است اما پس از افت معنی دار نیست؟ |
10810 | چه کسی توزیع های نمونه را ایجاد کرد؟ من همه جا را گشته ام و دارم مقاله می نویسم، اما، تا کنون، تنها چیزی که توانسته ام به آن برسم تئوری و تعریف است. لطفا به من کمک کنید که چه کسی، چه چیزی، چه زمانی و کجا را پیدا کنم. | چه کسی برای اولین بار ایده توزیع نمونه را توسعه داد؟ |
38180 | > **تکراری احتمالی:** > چگونه افزودن IV دوم می تواند IV اول را مهم کند؟ برای دو متغیر اصلی من، ضرایب همبستگی دو متغیره (با معیار نتیجه) غیرمعنادار هستند (متغیر $A$ با نتیجه -.15$ است و متغیر $B$ 0.04$ با نتیجه است، $p>.01$ در هر دو مورد). با این حال، وقتی وارد مرحله دوم مدل رگرسیونی من $A$ و $B$ شد به مدل اضافه میشود ($R^2$ از $.28$ به $.5$ میپرد)، و هر دو متغیر پیشبینیکنندههای مهمی هستند ($). p<.01$). همبستگی نیمه جزئی مربعی برای متغیر $A$ 0.21$ و برای متغیر$B$$.12$ است. من مطمئن نیستم که از این چه باید بکنم. آیا تأثیری که من می بینم (در مدل رگرسیون) واقعی است؟ یا به دلیل این واقعیت که همبستگی های مرتبه صفر بسیار ضعیف هستند، مشکوک می شود؟ هر گونه نظر و نظر قدردانی خواهد شد. | ضرایب رگرسیون معنی دار اما همبستگی دو متغیره غیر معنی دار |
51006 | **زمینه**: رگرسیون سلسله مراتبی با برخی از داده های از دست رفته. **سوال**: چگونه می توانم از تخمین حداکثر احتمال اطلاعات کامل (FIML) برای رسیدگی به داده های از دست رفته در R استفاده کنم؟ آیا بسته ای وجود دارد که شما توصیه می کنید، و مراحل معمولی چیست؟ منابع و نمونه های آنلاین نیز بسیار مفید خواهند بود. **P.S.**: من یک دانشمند علوم اجتماعی هستم که اخیراً استفاده از R را شروع کرده ام. منتسب کردن چندگانه یک گزینه است، اما من واقعاً دوست دارم برنامه هایی مانند Mplus با استفاده از FIML داده های از دست رفته را به خوبی مدیریت کنند. متأسفانه به نظر نمی رسد Mplus در حال حاضر مدل ها را در زمینه رگرسیون سلسله مراتبی مقایسه کند (لطفاً اگر راهی برای انجام آن می دانید به من اطلاع دهید!). من تعجب کردم که آیا چیزی مشابه در R وجود دارد؟ با تشکر فراوان | حداکثر احتمال اطلاعات کامل برای داده های از دست رفته در R |
28845 | **طراحی مطالعه:** من یک طرح فاکتوریل 2×3، 2 سطح زمان (2050 یا 2100) در 3 سطح اطلاعات (هیچ/کنترل، متوسط، شدید) دارم. من هنگام تجزیه و تحلیل این طرح، تضادهای بسیار خاصی را تنظیم کردم، به ویژه کنترل در مقابل سایر، متوسط در مقابل شدید، و 2050 در مقابل 2100. برای یک DV، ANOVA کلی قابل توجه نبود، اما کنتراست کنترل در مقابل سایر تضاد بود. **سوال:** بهترین راه برای تفسیر یک ANOVA غیر قابل توجه اما کنتراست قابل توجه چیست؟ من می دانم که ANOVA برای کاهش نرخ خطاهای خانوادگی استفاده می شود، و من نمی خواهم در دام نادیده گرفتن ANOVA کلی برای مقایسه های زوجی بیفتم. با این حال، این یکی از معدود تضادهایی است که من از قبل برنامه ریزی کرده ام. آیا این تفاوتی در تفسیر ایجاد می کند، یا باید به سادگی این دستکاری را مهم تلقی کنم؟ | اگر ANOVA کلی مهم نباشد، اما تضادهای خاص وجود داشته باشد، چه؟ |
56259 | در تلاش برای درک یادگیری ماشین، حداقل تا حدی، من الگوریتم های مختلف را برای حل سه مسئله در مدل پنهان مارکوف پیاده سازی کرده ام. من از مقاله آموزشی رابینر به عنوان راهنما استفاده کرده ام. من برای کارکرد الگوریتم Baum-Welch با مشکل مواجه شده ام - یعنی احتمال بعد از تخمین مجدد گهگاه کمتر از قبل است. این مقاله بیان میکند که نتیجه یک مرحله Baum-Welch یا یک نقطه بحرانی است یا احتمال بیشتری نسبت به مرحله قبلی دارد. این یعنی اجرای من نادرست است. برای اهداف اشکالزدایی، میخواهم بدانم که آیا این ویژگی برای هر متغیر (مثلاً توزیع اولیه، ماتریس انتقال و ماتریس انتشار) بهصورت مجزا صادق است یا فقط زمانی که همه آنها اعمال شوند. من سعی کردم از مقاله اصلی Baum اثبات کنم، اما از توانایی ریاضی من خارج بود! | الگوریتم Baum-welch: احتمالات بعد از هر مرحله |
61315 | **طراحی تجربی** 4 حیوان یک کار انتخاب دودویی را با 60 آزمایش در مدت 15 روز تکرار کردند. برای هر روز، نسبتی را محاسبه کردیم که حیوان محرک «درست» داده شده را برای آن انتخاب کرد. علاوه بر این داده های انتخابی، ما یک معیار رفتاری پیوسته برای هر حیوان داریم (4 نقطه داده). ما می خواهیم این معیار رفتاری را با نسبت کلی حیوانات از انتخاب های صحیح مرتبط کنیم. شما می توانید این متغیر را به عنوان ویژگی هر حیوان، مانند جنس یا نوع ژنی آن و غیره در نظر بگیرید. **تحلیل اولیه** ما در ابتدا میانگین نسبت هر حیوان را در تمام روزها محاسبه کردیم و همبستگی پیرسون را برای میانگین نسبت محاسبه کردیم. با معیار رفتاری (-.99 [-.999,-.3160]، 95% فاصله اطمینان (CI)). با این حال، یک بازبینی در مورد اینکه چگونه این موضوع بیمعنی است، زیرا ما چنین N کوچکی داریم، نظر داد. **سوال:** برای نشان دادن این رابطه باید از چه روش دیگری استفاده کنیم؟ * * * **داده** همانطور که توسط whuber درخواست شده است، داده ها به شرح زیر است: به معنای رفتار 0.672 13 0.637 21 0.596 23 0.513 39 مطابق با پارانویای من، اعداد بسیار کم تغییر می کنند. این نباید هیچ یک از تفاسیر را تغییر دهد. | اعتبار همبستگی گزارشگری با N=4 |
10816 | در صفحه 9 در http://jenni.uchicago.edu/Oxford2005/four_param_all_2005-08-07_csh.pdf ATE - میانگین اثر درمان، سود مورد انتظار از شرکت در یک برنامه برای یک فرد تصادفی است. به عنوان مثال، تأثیر رفتن به دانشگاه را بر دستمزد ارزیابی کنید. با توجه به انتخاب سوگیری مراحل تخمین عبارتند از: 1. Probit، برای مدل کردن احتمال رفتن یک فرد به کالج. دو نسبت مختلف معکوس میلز محاسبه می شود. 2. برای کسانی که به کالج رفتند، OLS از دستمزد را بر روی متغیرهای توضیحی (مانند جنسیت و غیره) انجام دهید و همین کار را برای کسانی که به کالج نرفتند انجام دهید. برای هر رگرسیون OLS یک نسبت میلز معکوس مناسب به دست آمده از مرحله 1 را به عنوان یک متغیر توضیحی اضافی اضافه کنید. 3. ATE on میانگین تفاوت در مقادیر پیش بینی شده با استفاده از تخمین پارامترها برای گروه های دانشگاهی و غیر دانشگاهی است. سؤالات من این است: 1. در مرحله 3، نیازی به استفاده از تخمین پارامترها در نسبت های معکوس میلز مورد استفاده در پیش بینی نیست؟ من فقط این ضرایب را با محاسبه ATE حذف می کنم. 2. آیا باید متغیرهای موجود در OLS را در بین گروه های دانشگاهی و غیر دانشگاهی یکسان نگه دارم؟ اگر OLS را برای گروههای دانشگاهی و غیر دانشگاهی مناسب کنم، متغیرهای مختلف در توضیح تنوع درآمد مهم خواهند بود. بنابراین، زمانی که من ATE را محاسبه می کنم، برخی از تخمین های پارامتر صفر خواهند بود. 3. من تصمیم گرفته بودم که متغیرهای مستقل را به دو مجموعه تقسیم کنم، یکی برای probit و دیگری برای OLS. در OLS، اگر از نسبتهای معکوس Mills همراه با متغیرهای مورد استفاده در Probit استفاده کنم، چند خطی بالایی وجود دارد. حتی اگر تخمین های بی طرفانه در حضور چند خطی به دست آید، من نگران پیش بینی و فاصله اطمینان گسترده به دلیل خطاهای استاندارد متورم هستم. لطفا به من اطلاع دهید، با تشکر Mermex | انتخاب نمونه هکمن |
28474 | من سؤالی دارم که احتمالاً یک سؤال ساده است، اما در حال حاضر من را گیج کرده است، بنابراین امیدوارم بتوانید به من کمک کنید. من یک مدل رگرسیون حداقل مربعات، با یک متغیر مستقل و یک متغیر وابسته دارم. رابطه معنادار نیست. حالا یک متغیر مستقل دوم اضافه می کنم. حال رابطه بین متغیر مستقل اول و متغیر وابسته معنادار می شود. این چگونه کار می کند؟ این احتمالاً نشاندهنده مشکلی در درک من است، اما برای من، اما نمیدانم که چگونه اضافه کردن این متغیر مستقل دوم میتواند اولین را مهم کند. توضیحات شما بسیار قابل احترام است. | چگونه افزودن IV دوم می تواند IV اول را مهم کند؟ |
95418 | اگر متغیری را از مدل رگرسیونی که در R گفته میشود معنیدار نیست حذف کنم و رگرسیون را دوباره اجرا کنم، متغیری که کاملاً معنیدار بود دیگر معنیدار نیست و دیگری معنادارتر شده است. دلایل احتمالی چه می تواند باشد؟ | اهمیت متغیر رگرسیون |
82595 | من یک سری زمانی تک متغیره دارم که روند و فصلی ماه دارد. من به طور سنتی از متد auto.arima() در R برای مدلسازی چنین سریهایی استفاده میکردم. بنابراین وقتی از تابع «forecast()» برای تولید پیشبینی استفاده میکنم، میدانم که بهطور خودکار تفاوتهایی را که قبل از برازش مدل ایجاد شده بود، اضافه میکند. اما من میخواهم بدانم در حین ادغام این سری، چه در مولفه روند و چه در فصلی، چه اتفاقی میافتد، و چگونه پیشبینی واقعی ایجاد میشود. فرض کنید یک سری از $X_1...X_{100}$ داریم. ما آن را از نظر روند و فصلی متفاوت میکنیم، یعنی $(1-B)(1-B^{12}) X_t$. و سپس یک مدل ARIMA را در نظر بگیرید. اکنون من واقعاً ممنون می شوم اگر کسی بتواند توضیح دهد که چگونه پیش بینی واقعی توسط یکپارچه سازی ایجاد می شود. چه X_i$ خاصی برای تنظیم فصلی و روند اضافه شده است؟ | پیش بینی سری های زمانی با روند و فصلی |
61312 | فاکتور F df p جنسیت 2.46 1.240 به روز رسانی 6.38 3.008 به روز رسانی جنسیت X 5.29 3.010 خطای 157 نتایج: هدف من این بود که بفهمم آیا تأثیری بر رفاه ذهنی دانشجویان دانشگاه واشنگتن شرقی در مقطع کارشناسی وجود دارد یا خیر. هنگام به روز رسانی وضعیت فیس بوک خود. من پیش بینی کردم که تغییری در بهزیستی/شادی ذهنی دانش آموزان ایجاد خواهد شد. با استفاده از یک نمودار خطی کلی برای نشان دادن نتایج، متوجه شدم که هنگام به روز رسانی وضعیت فیس بوک خود، تعاملی بین شرکت کنندگان زن و مرد وجود دارد. هنگام به روز رسانی از یک به سه بار در روز، رفاه ذهنی / شادی زنان و مردان افزایش یافت. F(3،157) = 5.9، p=.01. من همچنین هنگام انجام چهار تا شش بهروزرسانی در روز، تأثیر اصلی را در زنان پیدا کردم. بهزیستی ذهنی آنها به سختی کاهش می یابد (M = 25, 34). اثر قابل توجه دیگری بر روی به روز رسانی به طور کلی یافت شد. `F(3,157) = 6.38`. من در تفسیر نتایج یافت شده در جدول مشکل دارم. من نمی دانم چگونه آنها را ادغام کنم و آنها را معنا کنم؟ | تفسیر نتایج ANOVA دو طرفه |
8082 | من «ivprobit» را در Stata اجرا می کنم تا به عوامل تعیین کننده ثبت نام در بیمه سلامت (cbhi) نگاه کنم. من چندین رگرسیور برون زا و یک رگرسیور درون زا (مصرف) دارم. من از شاخص ثروت به عنوان یک متغیر ابزاری برای مصرف استفاده می کنم. با این حال، زمانی که من مدل «ivprobit» را اجرا میکنم، تمام رگرسیونهای برونزای من در فهرست «ابزار» ظاهر میشوند. لطفاً کسی می تواند به من بگوید چگونه از این اتفاق جلوگیری کنم؟ من کد stata و نتایج زیر را کپی می کنم. پیشاپیش از کمک شما سپاسگزارم. . # تحدید. جداکننده اکنون ; . ivprobit cbhi age_hhead age2 edu_hh2 edu_hh3 edu_hh4 edu_hh5 mar_hh hhmem_cat2 hhmem_cat3 > hhhealth_poor hh_chronic hh_diffic risk حاملگی wra any_oldmem j_hh_3 > hhmem_cat3 qual_percep urban door_to_door chief_mem > pharm_in_vil drugsel_in_vil hlthcent_in_vil privclin_in_vil جوان edu_chief num_camp_vill خانه_مجموعه > qual2 qual3 size_ln name_hosp1 name_hosp3 name_hosp_indexpho_6; برازش مدل پروبیت برون زا تکرار 0: احتمال log = -1909.5425 تکرار 1: احتمال ورود به سیستم = -1687.946 تکرار 2: احتمال ورود به سیستم = -1681.6413 تکرار 3: احتمال log = -1681.614:14 -1681.6142 Iteration تطبیق مدل کامل تکرار 0: احتمال ثبت = -42769.776 تکرار 1: احتمال ورود به سیستم = -42766.676 تکرار 2: احتمال ورود به سیستم = -42736.028 تکرار 3: احتمال ثبت = -42734.629 -42724 تکرار Iteration374. 5: احتمال log = -42734.266 تکرار 6: احتمال log = -42734.266 مدل پروبیت با رگرسیورهای درون زا تعداد obs = 3000 Wald chi2(42) = 1113.82 احتمال ورود = -42734 > 0.206 Prob = -42734.00.266 Prob ------------------------------------------------ ---------------------------- | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ cons_pcm | 3.59e-06 2.15e-07 16.68 0.000 3.17e-06 4.01e-06 age_hhead | .0320042 .0129973 2.46 0.014 .00653 .0574784 age2 | -.0001774 .0001228 -1.45 0.148 -.0004181 .0000632 edu_hh2 | .051426 .0879334 0.58 0.559 -.1209203 .2237723 edu_hh3 | -.0075595 .1023748 -0.07 0.941 -.2082106 .1930915 edu_hh4 | -.000683 .1285689 -0.01 0.996 -.2526735 .2513075 edu_hh5 | -.2986249 .1713749 -1.74 0.081 -.6345136 .0372638 mar_hh | -.0539035 .067056 -0.80 0.421 -.1853308 .0775237 hhmem_cat2 | .4222092 .0675468 6.25 0.000 .2898198 .5545985 hhmem_cat3 | .7099401 .0822271 8.63 0.000 .5487778 .8711023 hhhealth_p~r | .1550617 .0699122 2.22 0.027 .0180362 .2920872 hh_chronic | .159681 .0718297 2.22 0.026 .0188973 .3004647 hh_diffic | .2613713 .0741209 3.53 0.000 .116097 .4066456 ریسک | -.0482252 .0467953 -1.03 0.303 -.1399423 .0434919 بارداری | .1200344 .1214774 0.99 0.323 -.1180569 .3581257 wra | .1033809 .0289192 3.57 0.000 .0467004 .1600614 any_oldmem | .0792428 .0680778 1.16 0.244 -.0541872 .2126729 j_hh2 | .0512404 .0815692 0.63 0.530 -.1086323 .211113 j_hh3 | -.349126 .0806268 -4.33 0.000 -.5071516 -.1911004 j_hh4 | .1928496 .0843208 2.29 0.022 .0275838 .3581154 hlthseek_mod | -.0359996 .0969011 -0.37 0.710 -.2259223 .153923 کمپین | .5068671 .0781293 6.49 0.000 .3537365 .6599977 qual_percep | .1840314 .0514758 3.58 0.000 .0831408 .2849221 شهری | -.0999875 .0590944 -1.69 0.091 -.2158103 .0158353 درب_به_در | .0564977 .0719369 0.79 0.432 -.084496 .1974914 chief_mem | .0811248 .0599964 1.35 0.176 -.036466 .1987156 pharm_in_vil | .0269211 .0582651 0.46 0.644 -.0872763 .1411185 drugsel_in~l | .0693485 .0586169 1.18 0.237 -.0455385 .1842355 hlthcent_i~l | .0089279 .0823509 0.11 0.914 -.1524769 .1703327 privclin_i~l | -.0547559 .0857815 -0.64 0.523 -.2228846 .1133728 جوان | .0899074 .0715818 1.26 0.209 -.0503903 .2302051 edu_chief | -.0888131 .0528856 -1.68 0.093 -.1924671 .0148408 num_camp_v~l | .0655667 .0548026 1.20 0.232 -.0418444 .1729779 home_colle~n | .1944581 .0606159 3.21 0.001 .0756531 .3132631 | چرا Stata به طور خودکار رگرسیورها را به متغیرهای ابزاری در مدل ivprobit تبدیل می کند؟ |
82596 | پیشاپیش از هرگونه کمکی متشکرم من کمی احمق آمار هستم. من دو شکل موج دارم که می خواهم آنها را با هم مقایسه کنم. یکی اندازه گیری واقعی است، دیگری مدلی از شکل موج اول است که من با انحراف یک تابع پاسخ ضربه با یک ورودی محاسبه می کنم. تا کنون من با محاسبه r مجذور آنالیز کرده ام که مدل من چقدر با اندازه گیری من مطابقت دارد. با این حال، میخواهم ببینم که این مدل چقدر با اندازهگیری مطابقت دارد، اما بیشتر یک سری زمانی است. من مشکوک هستم که این مدل در بخشهای خاصی از آزمایش به خوبی جا میگیرد و در برخی دیگر کاملاً خراب میشود. شهود من این بود که یک نوع پنجره کشویی از مقادیر R-squared ایجاد کنم، اما همانطور که گفتم من به نوعی از نظر آماری به چالش کشیده ام :) بنابراین هر مشکلی مانند یک میخ به نظر می رسد که می توانم با چکش R-squared خود آن را چکش کنم. سؤالات من این است که اولاً آیا یک r-squared کوشر کشویی است؟ (در جستجوهای مختصر ادبیاتم چیزی از این دست پیدا نکردم). دوم، آیا کسی می تواند به روش بهتری اشاره کند؟ همین که مرا در مسیر درست قرار دهد کافی است. باز هم برای هر کمکی متشکرم اگر بتوانید مرجعی برای پشتیبانی از پاسخ خود ارائه دهید، مفید خواهد بود. خیلی بهترین! الف | یک روش خوب تناسب کشویی؟ (هجوم به جامعه آماری با استفاده از R-Squared) |
57121 | از نظر اهالی این انجمن چقدر این مقاله خوب است؟ این یک نکته مهم از مسئله حل نشده ریاضی را بیان می کند، و در مورد این واقعیت که مسئله ریاضی باید حل شود، ممکن است از نظر فلسفی بحث برانگیز باشد، کمی می گوید. میگوید: «یکی از مشکلات بحث در مورد مشکل Behrens–Fisher و راهحلهای پیشنهادی، این است که تفسیرهای مختلفی از «مسئله Behrens–Fisher» وجود دارد. اما نمیگوید که «تفسیرهای مختلف» دیدگاههای فلسفی درباره این سؤال است که کدام مسئله ریاضی باید آن را مدل کند، نه تفاسیر متفاوت از اینکه آیا این مسئله استنتاج در مورد تفاوت بین میانگینهای جمعیتهای توزیع شده عادی است یا خیر. واریانس های احتمالا متفاوت | مشکل Behrens–Fisher در ویکی پدیا |
55008 | فرض کنید یک مدل رگرسیونی داریم که میانگین نمرات دانشگاهی را اندازه گیری می کند. متغیرهایی که ما استفاده می کنیم عبارتند از `hsize` (اندازه کلاس فارغ التحصیل در صدها)، `hsize مربع`، `sat` (نمرات SAT)، زن، و athlete. پس از تخمین مدل با استفاده از STATA، ورزشکاران دارای ضریب 0.1693 با مقدار T 4 و P مقدار 0 بودند. اگر امتیاز SAT را از مدل حذف کنم، ضریب ورزشکاران به 0.00544 و p-value جدید آن تغییر می کند. یک 0.903 عظیم با مقدار t 0.12 است. چیزی که من می پرسم این است که چه چیزی می تواند تغییر در تأثیر تخمینی ورزشکار بودن در این مدل را توضیح دهد. | حذف یک متغیر از یک مدل رگرسیون خطی چندگانه، باعث میشود که متغیر دیگر غیر معنیدار شود |
10817 | آیا کسی مدل سازی شماره تماس های تلفنی را با استفاده از OLS امتحان کرده است؟ مجموعه داده تعداد تماس ها در ماه برای حساب هر مشتری است. متغیر وابسته تعداد تماس ها یا میانگین تعداد تماس ها است و متغیرهای توضیحی متغیرهای خاص مشتری شامل تعداد خرید، کل هزینه و غیره است... با تماس گیرندگان صفر چگونه برخورد می کنید؟ فقط بخش کمی از مشتریان در واقع تماس می گیرند، 5٪. من سعی می کنم یک مدل پیش بینی بسازم، بنابراین می خواهم صفر تماس گیرنده را در مدل نگه دارم. من فکر نمی کنم که تعداد تماس متغیر تصادفی محدود یا سانسور شده باشد؟ من فکر کردم که تعداد تماس های صفر یک صفر واقعی است و باید برای آن حساب کرد؟ آیا باید از Tobit برای تخمین در اینجا استفاده کنم؟ م | مدل سازی تعداد تماس های تلفنی با OLS |
96711 | من باید یک مدل رگرسیون پیاده سازی کنم و حدود 30 متغیر در مدل دارم. برخی از متغیرها تأثیر زیادی روی مدل ندارند، اما من باید از یک روش فرمول بندی شده برای حذف متغیرها استفاده کنم. من به روشهای AIC و BIC پایان دادم و از تابع step در R استفاده کردم. در R i از عبارت زیر برای رگرسیون در مبدا استفاده میکند، «g <- lm(Pcubes ~ 0 + ., data)» و یک رگرسیون با وقفه «g <- lm(Pcubes ~.، داده)» سپس از تابع step به عنوان l <- step(g) و خلاصه برای مدل جدید رگرسیون l، summary(l). هر زمان که از رگرسیون از طریق مبدا استفاده می کنم، خلاصه ای از «summary(l)» می گیرم که در آن برخی از متغیرها برای مدل مهم نیستند و همچنین یک مدل رگرسیون جدید دریافت می کنم که به صورت زیر است، lm (فرمول = Pcubes ~ X1 + X4 + X6 + X7 + X8 + X13 + X14 + X17 + X18 + X23 + X24 + X25 + X29 + X30 + X40 + X41 + X44 + X45 + X46 + X48 + X52 + X53 + X54 + X55 + X71 + X82 + X91 + X96 - 1، داده = داده) مدل جدید 1 را کم می کند. و تابع step نیز متغیرهای مختلفی را به همراه دارد. برای رگرسیون از طریق مبدأ و رگرسیون با رهگیری. بنابراین سؤالات من این است که آیا می توانم از تابع step در R برای رگرسیون از طریق مبدا استفاده کنم یا می توانم «-1» را در مدل نادیده بگیرم یا باید از رگرسیون با فاصله استفاده کنم تا بهترین متغیرها را انتخاب کنم و رگرسیون را از طریق منشاء با آن متغیرها؟ | تابع گام در R برای مدل سازی رگرسیون |
96715 | بر اساس _SAGE دایره المعارف روش های تحقیق علوم اجتماعی_...> [یک] اثر سقف زمانی رخ می دهد که یک معیار دارای حد بالایی مشخص > برای پاسخ های بالقوه باشد و تمرکز زیادی از شرکت کنندگان در > یا نزدیک به این حد امتیاز می گیرند. تضعیف مقیاس یک مشکل روش شناختی است که هر زمان که واریانس به این روش محدود شود رخ می دهد. برای مثال، یک اثر سقف ممکن است با معیاری از نگرش ها رخ دهد که در آن نمره بالا نشان دهنده یک نگرش مطلوب است و بالاترین پاسخ نمی تواند مثبت ترین ارزیابی ممکن را ثبت کند. ... بهترین راه حل برای مشکل > جلوه های سقف، آزمایش آزمایشی است، _ که امکان شناسایی زودهنگام مشکل را فراهم می کند. اگر یک اثر سقفی _یافته شود_، [و] معیار نتیجه کار > عملکرد باشد، کار را می توان دشوارتر کرد تا دامنه > پاسخ های بالقوه را افزایش داد.1 [تاکید اضافه شده] به نظر می رسد توصیه ها و سوالات زیادی وجود دارد (و در اینجا) به تجزیه و تحلیل داده هایی می پردازد که اثرات سقف مشابه آنچه در نقل قول بالا توضیح داده شده را نشان می دهد. سوال من ممکن است ساده یا ساده لوحانه باشد، اما واقعاً چگونه می توان تشخیص داد که یک اثر سقفی در داده ها وجود دارد؟ به طور خاص، فرض کنید یک آزمون روانسنجی ایجاد میشود و گمان میرود که منجر به یک اثر سقفی شود (فقط معاینه بصری) و سپس این آزمون برای تولید طیف وسیعتری از مقادیر بازنگری میشود. چگونه می توان نشان داد که آزمون تجدید نظر شده اثر سقف را از داده هایی که تولید می کند حذف کرده است؟ آیا آزمونی وجود دارد که نشان دهد در مجموعه داده _a_ اثر سقفی وجود دارد اما در مجموعه داده _b_ اثر سقفی وجود ندارد؟ رویکرد ساده لوحانه من این است که فقط انحراف توزیع را بررسی کنم و اگر کج نیست، نتیجه بگیرم که هیچ اثر سقفی وجود ندارد. آیا این بیش از حد ساده انگارانه است؟ ### ویرایش برای افزودن یک مثال ملموستر، بگویید من ابزاری را توسعه میدهم که برخی از ویژگیهای نهفته _x_ را اندازهگیری میکند که با افزایش سن افزایش مییابد اما در نهایت کاهش مییابد و در سنین پیری شروع به کاهش میکند. من اولین نسخه را که دارای برد 1-14 است، انجام میدهم و میبینم که به نظر میرسد ممکن است یک اثر سقفی وجود داشته باشد (تعداد زیادی از پاسخها در 14 یا نزدیک به حداکثر، حداکثر.. من این را فقط با با نگاه کردن به دادهها، آیا روش دقیقی برای حمایت از این ادعا وجود دارد آیا می دانم که محدوده اندازه گیری به اندازه کافی بزرگ است ://i.stack.imgur.com/YBS5v.png) من میخواهم بدانم چگونه میتوانم این اثر سقفی را در دادهها تشخیص دهم، نه اینکه فقط به آن نگاه کنم. گسترش گستره ی ابزار، گسترش داده های بهتری ایجاد کرد، اما آیا می توانم آن را آزمایش کنم؟ در Michael S. Lewis-Beck، A. Bryman و Tim Futing Liao (ویراستاران)، _The SAGE Encyclopedia of Social Science Methods Research. (ص 107). Thousand Oaks, CA: Sage Publications, Inc. doi: 10.4135/9781412950589.n102 | چه معیارهایی باید رعایت شود تا به این نتیجه برسیم که «اثر سقفی» رخ می دهد؟ |
65765 | من این پاسخ را دیدم (http://stats.stackexchange.com/a/6374/27969) که میگفت اگر $1-\frac{SSR}{SST}$ باشد، R^2$ میتواند منفی باشد. SSR مجموع مربعات باقیمانده است که به صورت \begin{align} SSR &= \displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_{i})^2 \\\ تعریف میشود. &= \displaystyle\sum\limits_{i=1}^n (y_i - \hat{\beta_1} x_{i1} - \hat{\beta_2} x_{i2} - \ldots - \hat{\beta_k} x_{ik} )^2 \\\ \end{align} وقتی هیچ قطعی وجود ندارد، و SST مجموع مجموع مربعها است یا \begin{align} SST &= \displaystyle\sum\limits_{i=1}^n (y_i - \bar{y})^2 \\\ \end{align} همچنین SSE یا توضیح داده شده مجموع مربعها، \begin{align} SSE &= \displaystyle\sum\limits_{i=1}^n (\bar{y} - \hat{y}_i)^2 \end{align} در نماد است از کتاب من من تازه به بخشی از کتاب درسی ام رسیدم که در آن به این موضوع نیز اشاره شده است و من گیج شده ام. چرا این درست است؟ در اینجا چیزی است که من می توانم انجام دهم. من می دانم که \begin{align} R^2 &= 1-\frac{SSR}{SST} \\\ \end{align} بنابراین برای $R^2 <0$، ما به $\frac{SSR}{ نیاز داریم SST} > 1$. این چیزی است که من کار کردم: \begin{align} SSR &> SST \\\ \displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_{i})^2 &> \displaystyle \sum\limits_{i=1}^n (y_i - \bar{y}_{i})^2 \\\ \end{align} این مدرکی است که من سعی کردم کار کنم out: \begin{align} SSR &> SST \\\ SSR &> \displaystyle\sum\limits_{i=1}^n (y_i - \bar{y})^2 \\\ &> \displaystyle\sum \limits_{i=1}^n \left[ (y_i - \hat{y}_i) - (\bar{y} - \hat{y}_i)\right]^2 \\\ &> \displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_i)^2 - 2\displaystyle\sum\limits_{i=1}^n (y_i - \hat {y}_i)(\bar{y} - \hat{y}_i) - \displaystyle\sum\limits_{i=1}^n (\bar{y}_i - \hat{y}_i)^2 \\\ &> SSR - 2\bar{y}\displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_i) + 2\displaystyle\ sum\limits_{i=1}^n \hat{y}_i(y_i - \hat{y}_i) - \displaystyle\sum\limits_{i=1}^n (\bar{y} - \hat{y}_i)^2 \\\ &> SSR - 2\bar{y}\displaystyle\sum\limits_{i=1}^n (y_i - \hat{y} _i) + 2\displaystyle\sum\limits_{i=1}^n \hat{y}_i(y_i - \hat{y}_i) - SSE \\\ 0 &> -2\bar{y}\displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_i) + 2\displaystyle\sum\limits_{i=1}^n \hat{y} _i(y_i - \hat{y}_i) - SSE \\\ SSE &> -2\bar{y}\displaystyle\sum\limits_{i=1}^n (y_i - \hat{y}_i) + 2\displaystyle\sum\limits_{i=1}^n \hat{y}_i(y_i - \hat{y}_i) \\\ \end{align} اینجاست من گیر می کنم. آیا اثبات در مسیر درست است یا قبل از اینکه من گیر کنم اشتباهی رخ داده است؟ نکات عالی خواهد بود. من کم کم دارم متوجه می شوم که چرا این طور منطقی است. SSR مجموع مجذورات فواصل نقاط تا خط رگرسیون است، در حالی که SST مجموع مربعات فواصل نقاط تا خطی است که از طریق $\bar{y}$ کشیده شده است. $R^2$ منفی است زیرا $SSR > SST$، به این معنی که از آنجایی که ما محدودیتی را اعمال میکنیم که خط رگرسیون باید از مبدا عبور کند، خط رگرسیون ما حتی بدتر از زمانی است که فقط یک خط افقی در $ بکشیم. y =\bar{y}$ و از آن استفاده کرد. فواصل نقاط تا خط رگرسیون بیشتر از فاصله نقاط تا خط در $\bar{y}$ است (خوب مجموع مربعات فواصل بزرگتر است). آیا این منطق درستی است؟ | چرا $R^2$ میتواند در یک رگرسیون چندگانه که وقفه ندارد ($\hat{\beta}_0 = 0$) منفی باشد؟ |
8089 | چرا به یاد آوردن نکات منفی واقعی را در نظر نمی گیرد؟ در آزمایشهایی که منفیهای واقعی به اندازه مثبتهای واقعی مهم هستند، آیا معیاری قابل مقایسه است که آن را در نظر بگیرد؟ | چرا به یاد آوردن نکات منفی واقعی را در نظر نمی گیرد؟ |
82593 | هدف من ارزیابی این بود که آیا یک طرح بازاریابی سودمند است یا خیر. من اطلاعات مربوط به قیمت ($P_t$) یک محصول خاص را در طول زمان مشاهده کردم. از آنجایی که متغیر وابسته من فقط روی $[0,\infty)$ تعریف میشود، معمولاً باید از یک تابع پیوند استفاده کنم، اما این را نادیده میگیرم. مطالعات انجام شده، من از چارچوب GAM (مدل افزودنی تعمیمیافته) برای تناسب با تأثیر زمان (T$) (دادهشده در روز) و تعداد فروش (S_t$) به روشی انعطافپذیرتر استفاده کردم، زیرا انتظار داشتم که هر دو وابستگی ها غیر خطی هستند (یا حداقل بعید است که بتوان آنها را به معنای خطی مدل کرد). متغیر ساختگی ($D$)، که نشان می دهد آیا طرح بازاریابی اتفاق افتاده است، نیز در مدل گنجانده شده است. پس از نصب مدلی مانند: $P_t = f_1(S_t,D) + f_2(T) + e_t$ با استفاده از P-Splines برای $f_1$ و یک چرخه-اسپیلاین برای $f_2$، باقیمانده های خود را بررسی می کنم $\hat{e_t} $ برای فرض عادی زیربنایی. این چیزی است که من دریافت می کنم:  بدیهی است که به من می گوید که واریانس باقیمانده های من، یعنی $\hat{\sigma اگر فرض کنم باقیماندههای $\hat{e_t}$ من واقعاً عادی هستند، }_e$ کمتر از حد انتظار است. بنابراین سوال من این است که آیا این عدم پراکندگی در زمینه GAM به نوعی مشکل ساز است؟ اگر چنین است، اگر هدف من این باشد که بفهمم آیا تفاوت قابل توجهی در $f_1(S_t,D=0)$ در مقایسه با $f_1(S_t,D=1)$ وجود دارد، چه مشکلاتی برایم پیش می آید؟ | دلیل نگرانی اگر EMP. توزیع باقی مانده در حدود صفر در مقایسه با نرمال نظری متراکم تر است؟ |
96712 | احتمالا سوال احمقانه است، اما من در اینجا کاملا مطمئن نیستم. من می خواهم $\mathbb{E}[X_i|X_i > X_j \ \forall j \neq i]$ را محاسبه کنم، توجه داشته باشید که این انتظار حداکثر توزیع نیست، همانطور که $i$ را ثابت کردم! بنابراین نوشتن این بهعنوان انتگرال، $\int_\mathbb{R}\int_{-\infty}^{x_i}\cdots\int_{-\infty}^{x_i} x_i p(x_1)\cdots p(x_n) d میدهد x_1 \cdots d x_n$ یا $\int_\mathbb{R}CDF_1(x_i)\cdots\widehat{CDF_i(x_i)}\cdots CDF_n(x_i) x_i p(x_i)d x_i$ آیا من درست هستم یا عبارت سادهتری وجود دارد؟ با تشکر | انتظار RV مشروط به بزرگتر بودن از دیگران است |
16303 | بنابراین بیایید بگوییم که من سعی می کنم فواصل اطمینان را برای درصد افرادی که آهنگی را در یک وب سایت دانلود می کنند پیدا کنم. ما در یک سال 1000 نفر از سایت بازدید کردند و 100 نفر آهنگ را دانلود کردند. اکنون، می توانم فواصل اطمینان ایجاد کنم تا میزان دانلود مورد انتظار بازدیدکنندگان از سایت ما را تخمین بزنم. حالا فرض کنید میخواهم بدانم با چه سرعتی میخواهم بازدیدکنندگان وبسایت را از دانلود آهنگ منع کنم. فرض کنید میزان دانلود ما یک روز 2 درصد است. آیا راهی برای محاسبه وجود دارد که در چه مرحله ای باید دانلود را حذف کرد؟ بنابراین، اگر نرخ دانلود 2٪ باشد و خوب نیست، آیا آزمایشی وجود دارد که به من امکان دهد بفهمم با چه نرخ دانلود پایینی باید دانلود را حذف کنم. | چگونه فواصل اطمینان را برای درصد افرادی که آهنگی را در وب سایت دانلود می کنند محاسبه کنیم؟ |
16308 | همه چیزهایی که خوانده ام نشان می دهد که هنگام اجرای ANOVA، فرضیه صفر و جایگزین همیشه به شرح زیر است: * $H_0$: هیچ تفاوتی در میانگین وجود ندارد، * $H_a$: تفاوت در میانگین وجود دارد. اما اگر من درمانی داشته باشم و بر اساس تجربه یا ادبیات گذشته انتظار داشته باشم که این درمان بهتر از دیگری عمل کند، آیا فرضیه ANOVA همیشه می تواند این باشد: * $H_0$: A برابر یا بدتر از B، * $ خواهد بود. H_a$: A بهتر از B خواهد بود؟ من متوجه شدم که موارد فوق را می توان با یک آزمون $t$-یک دنباله آزمایش کرد، اما آیا همین فرضیه برای ANOVA صحیح/ممکن است یا یک نه نه آماری است؟ | چگونه یک فرضیه جهت دار را با استفاده از ANOVA آزمایش کنیم؟ |
56251 | من میدانم که Anova به چند آزمون t ترجیح داده میشود، اما آزمون t چندگانه دقیقاً چیست؟ نمونههایی شامل گرفتن گروهها از جمعیت (با میانگین جمعیت یکسان): * ما گروههایی داریم که از یک جمعیت گرفته میشوند، سپس با درمانهای مختلف در هر گروه آزمایش میشوند، سپس اثر درمان را بین هر جفت گروه مقایسه میکنیم. به عنوان مثال دانش آموزان یک مدرسه به طور تصادفی به 3 گروه تقسیم می شوند، هر کدام یک قرص ویتامین متفاوت مصرف می کنند و ما سطح آمادگی جسمانی را بین گروه 1 و 2، 2 و 3، 3 و 1 مقایسه می کنیم. * شما دو یا چند گروه دارید و چندین پارامتر را با هم مقایسه می کنید. به عنوان مثال شما دو گروه از دانشآموزان دارید، یکی قرص ویتامین مصرف کرده و دیگری دارونما، اما ما سطح آمادگی جسمانی، قد، وزن، محتوای چربی و غیره را بین گروهها مقایسه میکنیم. این نیز به چندین آزمون t نیاز دارد و بهتر است از Anovo با روش صحیح پس آزمون استفاده شود. مثال متفاوتی که شامل مقایسه گروههای موجود است: * ما 5 گونه مختلف از حیوانات را میگیریم، آنها را با همان رفتار مواجه میکنیم و پاسخ آنها را با یکدیگر مقایسه میکنیم. به عنوان مثال به گوسفند، گاو، اسب، مرغ و موش تزریق شیمیایی شد و تغییر سطح آمادگی جسمانی آنها را ثبت کردیم (به همین ترتیب). اگر بخواهم نتیجه را به صورت جفت (مثلاً گوسفند و گاو، گاو و اسب، اسب و مرغ، مرغ و موش و غیره) با استفاده از آزمون t مقایسه کنم، آیا این هنوز «آزمون t چندگانه» است (آنها یک تست ندارند). میانگین جمعیت مشترک...). آیا هنوز باید از Anova استفاده کنم؟ | آنالیز واریانس یا چند آزمون t هنگام مقایسه میانگین های گروهی از قبل موجود؟ |
82598 | فرض کنید من داده هایی شبیه به این head(dt) Mass RT A 1 294.9862 6.157 2013154 2 264.0223 6.202 230690 3 283.9639 6.354 65035 4 29616.65035 4 294.9862 5 289.9770 6.480 26762 6 264.0221 6.520 190739 library(ggplot2) ggplot( داده = dt، aes( x = RT، y = جرم) ) + geom_point(aes(color = log2(A))، اندازه = 5) + scale_color_gradientn(ld(A)، colours= rev(heat.colors(255)) + theme_bw()  کاری که می خواهم انجام دهم این است که نقاط داده های خود را بر اساس یک گروه بندی کنم روش چگالی هسته (همانطور که با لایه چگالی نمودار نشان داده شده است). اما من واقعاً ایده ای ندارم که چگونه می توان در «R» به این هدف دست یافت. من قبلاً از «npudens» از بسته «np» استفاده کردم، اما واقعاً متوجه نشدم که چگونه مقادیر چگالی را از شی به دست آمده استخراج/پیدا کنم. library(np) npudens(~RT+Mass,data=test.tab ) دلیل انتخاب «npudens» به جای «kde2d» این است که میخواهم پهنای باند مشروط را به تخمینگر چگالی ارائه دهم، یعنی به نوعی که پهنای باند توابع خطی «Mass» و «RT» هستند به عنوان مثال 0.005٪ از جرم و 5 درصد از RT. هر گونه کمکی بسیار قدردانی می شود. من با این روش ها تازه کار هستم و احساس می کنم کمی گم شده ام. برای بازتولید در اینجا «dput» دادههای من است: dt <- structure(list(Mass = c(294.9862, 264.0223, 283.9639, 261.9819, 289.977, 264.0221, 272.094,272.017. 283.9639, 261.9818, 290.0401, 272.0176, 294.9861, 264.0222, 283.9636, 261.9819, 272.0176, 2294.298. 261.9818, 289.977, 272.0173, 294.9863, 283.964, 261.9818, 290.0397, 272.0174, 294.9861, 283.9869, 281.9818, 281.9818. 290.0398, 272.0174, 294.9862, 264.0222, 283.9637, 261.9818, 289.9769, 290.0402, 272.0174, 21223, 2194.98 279.9958, 283.9637, 261.9818, 289.9766, 290.0401, 272.0174, 294.9862, 264.0222, 283.9638, 261.227, 261.98. 294.9861, 283.9638, 261.9819, 289.9769, 290.04, 272.0173, 294.9862, 264.0223, 261.9819, 290.0729, 290.040 264.0224, 283.9637, 261.982, 272.0173, 294.9862, 283.9635, 261.9816, 290.0402, 272.0172, 2122226, 2122226. 279.9961, 283.9637, 261.9815, 272.0171, 294.9862, 264.0222, 283.9638, 261.9818, 272.0174, 29224.294.98. 283.9638، 272.0169، 294.986، 264.0225، 283.9636، 272.017، 294.9861، 264.0225، 283.9635، 272.0225، 272.016. c(6.157، 6.202، 6.354، 6.362، 6.48، 6.52، 6.543، 6.153، 6.193، 6.348، 6.362، 6.514، 6.54، 6.195، 6.195، 6.153، 6.542، 6.161، 6.362، 6.37، 6.479، 6.546، 6.157، 6.359، 6.371، 6.528، 6.544، 6.151، 6.355، 6.479، 6.363، 6.355، 6.363 6.159، 6.205، 6.365، 6.372، 6.472، 6.529، 6.54، 6.155، 6.2، 6.204، 6.373، 6.38، 6.479، 6.529، 6.529، 6.529، 6.529، 6.529. 6.373، 6.386، 6.538، 6.547، 6.163، 6.376، 6.387، 6.472، 6.537، 6.54، 6.156، 6.194، 6.374، 6.163، 6.515، 6.515، 6.515 6.377، 6.382، 6.532، 6.162، 6.362، 6.379، 6.53، 6.534، 6.165، 6.198، 6.215، 6.387، 6.387، 6.362، 6.536، 6.536، 6.539 6.397، 6.541، 6.169، 6.208، 6.393، 6.54، 6.163، 6.203، 6.384، 6.542، 6.164، 6.201، 6.401، 6.534، 6.534، 6.534 = 230690 65035 1607568 26762 190739 121136 2357853 263807 68086 1551442 59292 118160 118160 64018, 1519476, 119259, 2984633, 80162, 1680411, 35609, 157181, 3182405, 81694, 1721163, 49823, 49815 76425, 1623899, 35616, 45969, 155354, 2859136, 630649, 80974, 1435648, 30731, 50551, 160070, 160070, 319, 160070, 3196 83406 1190889 32199 48741 153469 3188184 662134 81513 1066302 54851 151038 288364357 48020, 146510, 3052724, 679433, 1242839, 55651, 137011, 3178104, 702678, 62029, 903551, 149928, 149964, 149964 461936 51645 138286 2492192 736078 91805 67877 450461 146526 2678001 731678 570354 686878, 58532, 120400, 841196, 754836, 52527, 115968, 862693, 742445, 53013, 111391, 68416,,,, RTMasA =,(RTNames) = c(NA، -100L)، کلاس = data.frame) | خوشهبندی دادههای دو بعدی با استفاده از روشهای چگالی هسته |
56256 | من 2 نمونه از همان دستگاه 256 نمونه جمع آوری کردم. di و vi. من میخواهم میانگین جمعیت را تخمین بزنم که بین 0 و 1 خواهد بود زیرا متغیر xi را از di و vi به صورت زیر محاسبه میکنم: $x_i=\frac{d_i-v_i}{d_i}$ برای هر نمونه. آیا می توانم تمام روش های آماری را برای xi اعمال کنم؟ آیا این یک نسبت است یا این یک نمونه عادی می شود؟ همانطور که می بینید، من کمی گم شده ام. | یک متغیر محاسبه از 2 نمونه، چه باید کرد؟ |
85445 | من به دنبال مقایسه ضرایب رگرسیون بین دو مدل رگرسیون هستم. هر مدل دارای چهار متغیر مستقل یکسان است: دو پیش بینی کننده مورد علاقه (ما آنها را A و B می نامیم) و دو متغیر کنترل (C و D). تنها تفاوت بین این دو مدل این است که متغیرهای وابسته متفاوتی دارند: مدل اول DV1 را پیشبینی میکند، در حالی که مدل دوم DV2 را پیشبینی میکند. همه مشاهدات از یک نمونه هستند، بنابراین ضرایب رگرسیون وابسته هستند. من معتقدم که A و B هر دو DV1 را قویتر از DV2 پیشبینی میکنند. به عبارت دیگر، ضریب رگرسیون برای A پیشبینیکننده DV1 (کنترل B، C و D) باید از نظر بزرگی بیشتر از ضریب رگرسیون برای A پیشبینیکننده DV2 (کنترل B، C و D) باشد. به طور مشابه، ضریب رگرسیون برای B پیشبینیکننده DV1 (کنترل A، C و D) باید از نظر بزرگی بالاتر از ضریب رگرسیون برای B پیشبینیکننده DV2 (کنترل A، C و D) باشد. اساسا، من میخواهم تفاوت بین دو ضریب رگرسیون وابسته را از دو مدلی که همه IVهای یکسان دارند، اما DVهای متفاوتی دارند، آزمایش کنم. آیا آزمون اهمیت رسمی وجود دارد که بتوانم از آن استفاده کنم؟ | مقایسه ضرایب رگرسیون وابسته از مدلهای دارای متغیرهای وابسته مختلف |
61866 | من در حال آزمایش رابطه بین یک پیش بینی کننده پیوسته و یک متغیر نتیجه دو جمله ای 0-1 هستم. فرضیه من این است که هر چه مقدار پیش بینی کننده کوچکتر باشد احتمال اینکه در گروه 0 متغیر نتیجه قرار گیرد بیشتر است. سوال من این است - چگونه می توانم این رابطه خاص را اندازه گیری کنم؟ من فقط میخواهم ببینم که آیا اعداد کوچکتر به احتمال زیاد در دسته 0 قرار میگیرند یا خیر، و مواردی را که اعداد بالاتر ممکن است در دسته 0 قرار گیرند نیز نادیده بگیرم. تا کنون من از رگرسیون لجستیک دو جمله ای در SPSS استفاده می کردم، اما رابطه بین مقدار پیش بینی کننده و قرار گرفتن در دسته های 0 یا 1 نتیجه را آزمایش می کند. اما من میخواهم رابطه بین مقادیر کوچکتر پیشبینیکننده و سقوط در [0،1] را آزمایش کنم. من نمیخواهم موارد پیشبینیکنندههای بالا که به 0 میرسند، نتایج من را بدتر کنند. همچنین حذف آن موارد یک گزینه نیست زیرا برای فرضیه های دیگر به آنها نیاز دارم. | آزمایش رابطه بین یک پیش بینی کننده پیوسته و نتیجه دو جمله ای |
16302 | من دانش آموز دبیرستانی هستم و روی یک پروژه برنامه نویسی کامپیوتری کار می کنم، اما تجربه زیادی در آمار و مدل سازی داده ها فراتر از یک دوره آمار دبیرستان ندارم، بنابراین تا حدودی گیج هستم. اساساً، من یک لیست نسبتاً بزرگ دارم (فرض کنید به اندازه کافی بزرگ باشد تا با فرضیات هر آزمایش یا اندازه گیری آماری مطابقت داشته باشد) از مواقعی که شخصی تصمیم به چاپ یک سند گرفته است. بر اساس این فهرست، من میخواهم یک مدل آماری بسازم که محتملترین زمان را برای کار چاپ بعدی با توجه به تمام زمانهای رویداد قبلی پیشبینی کند. من قبلاً این را خوانده ام، اما پاسخ ها دقیقاً به آنچه که برای پروژه خود در ذهن دارم کمک نمی کند. من تحقیقات بیشتری انجام دادم و متوجه شدم که یک مدل پنهان مارکوف به احتمال زیاد به من این امکان را می دهد که این کار را با دقت انجام دهم، اما نمی توانم پیوندی در مورد نحوه تولید یک مدل مارکوف پنهان فقط با استفاده از لیست زمان پیدا کنم. من همچنین دریافتم که استفاده از فیلتر کالمن در لیست ممکن است مفید باشد، اما اساساً، میخواهم اطلاعات بیشتری در مورد آن از کسی که واقعاً از آنها استفاده کرده است و محدودیتها و الزامات آنها را میداند، قبل از اینکه فقط چیزی را امتحان کرده و امیدوار باشم که کار کند، دریافت کنم. با تشکر از یک دسته! | چگونه می توان زمان وقوع رویداد بعدی را بر اساس زمان رویدادهای قبلی پیش بینی کرد؟ |
56253 | من سعی میکنم انحنای/پیچیدگی ساختاری مجموعه دادهها یا مقدار غیرخطی بودن آن را تخمین بزنم. مجموعه دادهها عمدتاً بسیار خطی هستند، اما با نمونههایی از دادههای بسیار دلخواه (منحنیها، شکلهای v، شکلهای x، قلابها و غیره) که من میخواهم آنها را شناسایی کنم. من می توانم به رویکردهای هک مانند مقایسه خطای باقیمانده رگرسیون های خطی با برازش های چند جمله ای مرتبه بالاتر فکر کنم، اما هیچ چیزی که سخت به نظر می رسد یا به خوبی با همه موارد برخورد کند. رایجترین آماری که دیدهام، لحظه محصول پیرسون است، اما در دادههای غیرهمبسته، اما خطی - برای مثال خطوط عمودی و خطوط افقی، شکست میخورد. آیا کسی جایگزینی می داند که بتوانم استفاده کنم؟ | آماری برای انحنا یا غیر خطی بودن یک مجموعه داده |
86334 | من از کد زیر m <- svm(x_train, y_train) current_class_prediction <- predict(m, x_cv) استفاده می کنم اما پیش بینی به جای 1000، 999 پیش بینی را برمی گرداند: > length(current_class_prediction) [1] 999 > dim(x_cv) [01] 70 چه چیزی می تواند این مشکل را توضیح دهد؟ | e1071 svm predict - پیش بینی های از دست رفته |
25170 | اگر $X \in \mathbb{R}$ یک متغیر تصادفی پیوسته باشد، چگالی آن $f$ (در صورت وجود) به صورت $$ f(x) = \lim_{\epsilon \rightarrow 0} \frac{F تعریف میشود. (x + \epsilon) - F(x)}{\epsilon}، $$ که در آن $F(x) = \Pr(X \leq x)$. گاهی اوقات راحت تر است که آن را به عنوان $f(x) = \Pr(X = x)$ در نظر بگیرید. با این حال، این را نمی توان نوشت! آیا نوشتن $f(x) = \Pr(X \در I_x)$ سخت تر است (یعنی آیا می توان آن را نوشت) که در آن $I_x$ همسایگی $x$ است؟ | نوشتن چگالی یک متغیر تصادفی پیوسته بر حسب یک احتمال |
69646 | ابزاری که برای اندازه گیری سطح گلوکز در خون افراد استفاده می شود بر روی یک نمونه تصادفی 10 نفره کنترل می شود. سطوح نیز با استفاده از یک روش آزمایشگاهی بسیار دقیق اندازه گیری می شوند. اندازه گیری ابزار با x نشان داده می شود. اندازه گیری روش آزمایشگاهی با y نشان داده می شود. من شخصا فکر می کنم y روی x صحیح تر است زیرا هدف استفاده از قرائت های ابزار برای پیش بینی قرائت های آزمایشگاهی است. و y روی x خطاهای چنین پیش بینی هایی را به حداقل می رساند. اما پاسخ ارائه شده x روی y بود. | آیا رگرسیون x روی y به وضوح بهتر از y روی x در این مورد است؟ |
96716 | من در حال انجام یک نظرسنجی در میان مراکز مراقبت طولانی مدت (LTCF) در یک شهر در مورد شیوع یک بیماری خاص هستم. من شهر را در دو سطح طبقه بندی کرده ام: الف) سه طبقه بر اساس مرزهای جغرافیایی. ii) دو قشر دیگر برای تأمین مالی LTCFs (با بودجه دولتی یا خصوصی). این به من شش طبقه می دهد. من می دانم که تعداد کل سالمندان در این شش طبقه زندگی می کنند، بگوییم نسبت اقشار A:B:C:D:E:F 1:1:1:1:1:1 است، زیرا حجم نمونه محاسبه شده من 3000 است. سپس 500:500:500:500:500:500 سالمند را از شش قشر خواهم گرفت. من به طور تصادفی LTCF را از هر طبقه انتخاب می کنم و نظرسنجی را تا رسیدن به هدف نمونه گیری برای آن طبقه انجام می دهم. همه چیز طبق برنامه پیش می رود، به جز برای یک قشر، مثلاً قشر A. نرخ پاسخگویی برای قشر A کمی خیلی خوب است، به طوری که ما یک طبقه را بیش از حد نمونه برداری کرده ایم تا تقریباً 200٪ (یعنی هدف نمونه گیری من 500 است، اما اکنون دارم. بیش از 900 سالمند نمونه برداری شدند). از آنجایی که نسبت 1:1:1:1:1:1 دیگر حفظ نمی شود، من مطمئن نیستم که چگونه باید با سالمندان اضافی که نمونه برداری شده اند رفتار کنم، به این فکر می کنم که یک نمونه تصادفی ساده از طبقه A انتخاب کنم تا فقط 500 سالمند برای تجزیه و تحلیل استفاده می شود، اما به نظر می رسد ضایع است. پیشنهاد یا مرجعی دارید؟ | نحوه برخورد با نمونه برداری بیش از حد برای نمونه گیری خوشه ای طبقه ای |
57128 | چه طرحی برای محورها در این قطعه استفاده شده است؟ اسم داره؟ به نظر می رسد محور x خطی است با تغییر گسسته در فاصله 1 میکرون، اما نمی توانم بفهمم در محور y چه می گذرد.  | از چه طرحی برای محورها در این طرح استفاده شده است؟ |
85943 | برای این مدل رگرسیون خطی تک متغیره $$y = \beta_0 + \beta_1x+\epsilon$$ مجموعه داده داده شده $D=\\{(x_1,y_1),...,(x_n,y_n)\\}$، ضریب برآوردها $$\hat\beta_1=\frac{\sum_ix_iy_i-n\bar x\bar y}{n\bar هستند x^2-\sum_ix_i^2}$$ $$\hat\beta_0=\bar y - \hat\beta_1\bar x$$ اینم سوال من طبق کتاب و ویکی پدیا خطای استاندارد $\hat \beta_1$ است $$s_{\hat\beta_1}=\sqrt{\frac{\sum_i\epsilon_i^2}{(n-2)\sum_i(x_i-\bar x)^2}}$$ چگونه و چرا؟ | نحوه استخراج خطای استاندارد ضریب رگرسیون خطی |
82597 | من ANOVA مخلوط را به عنوان تجزیه و تحلیل اندازه گیری مکرر برای نمره شناختی در 2 نقطه زمانی برای 2 گروه (فشار خون پایین در مقابل بالا) اجرا می کنم. امتیاز در زمان 1 به طور معمول توزیع شد و در زمان 2 به طور معمول توزیع نشد، بنابراین من QURT تغییر شکل داد. آیا هنوز هم می توانم از ANOVA مخلوط استفاده کنم؟ یا هر دو نمره باید از یک مقیاس/واحد باشند؟ اگر هر دو باید یکسان باشند، چه کاری باید انجام دهم، زمان 1 را تبدیل کنم یا از زمان اصلی 2 استفاده کنم؟ | باید هر دو امتیاز 2 نقطه زمانی در یک ANOVA مختلط در یک مقیاس باشند |
65760 | رگرسیون لجستیک معمولاً زمانی استفاده می شود که یک متغیر وابسته باینری وجود داشته باشد. ** وقتی یک رگرسیون خطی مناسب است، چه تفاوتی در خروجی وجود دارد؟** | وقتی یک رگرسیون خطی را به دادههای وابسته باینری برازش میدهید چه اتفاقی میافتد؟ |
69643 | من می خواهم یک معادله رگرسیونی برای پیش بینی حجم درخت با متغیر مستقل dbh (قطر در ارتفاع سینه) در فاصله اطمینان 95٪ برای خطای 5٪ محاسبه کنم. اگر تعداد کل جامعه ناشناخته باشد، فرمول اندازه نمونه چیست؟ | نحوه تعیین حجم نمونه در حجم جمعیت مجهول برای معادله رگرسیون |
82594 | من از splines برای توضیح داده های مصرف انرژی جمع آوری شده از شبیه سازی استفاده می کنم. مجموعه داده مصرف انرژی من حاوی مقادیر مثبت بسیار بزرگی است (به عنوان مثال، 2.23e+12). با این حال، بخش بزرگی از مقادیر برازش شده که من جمعآوری میکنم (مثلاً 40٪) منفی هستند. ارزش های منفی در مورد من معنی ندارد. علاوه بر این، با داشتن مقادیر منفی، نمی توانم معیارهای دقت مانند میانگین درصد مطلق خطا (MAPE) یا میانگین مربعات خطا (MSE) را محاسبه کنم. وقتی مقادیر منفی در یک مدل رگرسیون معنا پیدا می کنند، چگونه این مشکل درمان می شود؟ در مورد خاص من، چگونه باید این مقادیر منفی را توضیح دهم؟ آیا این یک مدل بیش از حد نصب شده است؟ آیا آنها ممکن است نوع دیگری از خطا را نشان دهند (مثلاً در مفروضات)؟ | مقادیر برازش منفی برای مقادیر واقعی کاملاً مثبت |
56250 | من در تحلیل خوشه ای تازه کار هستم و برای اولین بار آن را انجام می دهم. من 6 خوشه را با استفاده از ابزار Weka مانند این (برای 4 ویژگی) ایجاد کرده ام: 0 1 2 3 4 5 A 5.0363 2.0698 1.299 6.6861 1.8385 10.2349 B 21.5293 7.12397 7.15394 5.2522 113.8983 C 0.1036 0.025 0.011 0.0542 0.0493 0.1698 D 31.6327 14.4446 2.6686 13.6874 0.011 0.0542 0.0493 0.1698 D 31.6327 14.4446 2.6686 13.6874 28.1409 28.1409 به پروژه ها کمک کرده است. اکنون، من میخواهم تجزیه و تحلیل را انجام دهم و میخواهم بررسی کنم که چه تعداد کاربر از هر پروژه به خوشههای 3 و 5 تعلق دارند. همچنین میخواهم بدانم آیا میتوان نزدیکترین خوشه را که نمایانگر کاربران کلی در یک پروژه است، شناسایی کرد. | تجزیه و تحلیل خوشه ای - داده ها را به خوشه اختصاص دهید |
69648 | من در حال حاضر در سال آخر تحصیل هستم. من کنجکاو هستم که بدانم (و می خواهم این را در تکالیف ریاضی خود قرار دهم)، تست فرضیه 1 دنباله بهتر است، که در آن ببینید آیا ادعایی قابل توجیه است یا یک فاصله اطمینان است، ما فقط با 95٪ موارد سروکار داریم. . من شخصاً بین این دو سرگردان هستم و گاهی اوقات حتی نمی توانم تفاوت را تشخیص دهم. فواصل اطمینان از داده های نمونه استفاده می کنند و یک فاصله زمانی روی آن ایجاد می کنند و سپس می بینید که ادعا بر اساس نمونه چقدر متفاوت است. اما طیف وسیعی از مقادیر را دریافت میکنید تا بتوانید ادعاهای بیشتری را آسانتر آزمایش کنید. با آزمایش فرضیه، شما تقریباً همین کار را انجام می دهید و می بینید که یک ادعا بر اساس نمونه با استفاده از آزمون Z چقدر غیرعادی است. زمینه ماموریت من انتخابات سال 2013 در استرالیا است. ما در حال آزمایش ادعاهای مطرح شده توسط احزاب سیاسی در برابر داده های جمع آوری شده توسط نظرسنجی ها هستیم. | کدام بهتر است؟ آزمون فرضیه یا فاصله اطمینان |
2391 | فرض کنید من سه جمعیت با چهار ویژگی متقابل دارم. من از هر جامعه نمونههای تصادفی میگیرم و یک جدول متقاطع یا فرکانس برای ویژگیهایی که اندازهگیری میکنم میسازم. آیا من درست می گویم که: 1. اگر بخواهم بین جمعیت ها و ویژگی ها رابطه ای وجود داشته باشد (مثلاً آیا یک جمعیت دارای فراوانی بیشتری از یکی از ویژگی ها است یا خیر)، باید آزمایش کای دو انجام دهم و ببینید آیا نتیجه قابل توجه است یا خیر. 2. اگر آزمون مجذور کای معنی دار باشد، فقط به من نشان می دهد که بین جمعیت ها و ویژگی ها رابطه ای وجود دارد، اما نه اینکه چگونه آنها با هم مرتبط هستند. 3. علاوه بر این، لازم نیست همه ویژگی ها به جمعیت مرتبط باشند. به عنوان مثال، اگر جمعیتهای مختلف توزیعهای متفاوتی از ویژگیهای A و B داشته باشند، اما توزیعهای C و D ندارند، در این صورت آزمون کایدو ممکن است همچنان معنیدار باشد. 4. اگر بخواهم اندازه گیری کنم که آیا یک مشخصه خاص تحت تأثیر جمعیت قرار می گیرد یا نه، می توانم تستی را با نسبت های مساوی اجرا کنم (من این را به نام z-test یا به عنوان prop.test() در ` دیده ام. R`) فقط بر روی آن مشخصه. به عبارت دیگر، آیا استفاده از «prop.test()» برای تعیین دقیقتر ماهیت رابطه بین دو دسته از مقولهها، زمانی که آزمون کایدو میگوید رابطه معناداری وجود دارد، مناسب است؟ | رابطه بین آزمون مجذور کای و آزمون با نسبت مساوی چیست؟ |
105777 | ## اطلاعات عمومی فرض کنید طرح درمان مکرر شبه تجربی زیر را دارید (T = درمان، M = اندازه گیری): `T1 -- M -- T2 -- M -- T1 -- M -- T2 -- M -- T1 -- M` درمان 1 (T1) یک روش آموزشی خاص و درمان 2 (T2) نوع دیگری از روش تدریس در یک کلاس است. در اندازه گیری (M) یک متغیر مورد علاقه اندازه گیری می شود (_dV_). همه دانش آموزان برای هر درمان حضور ندارند و در نهایت منجر به ایجاد یک مجموعه داده پانل نامتعادل می شود. (توجه: ما گروه کنترل نداریم!) اکنون سؤال این است که چگونه مجموعه داده ها را برای پاسخ به سؤال تحقیق تجزیه و تحلیل کنیم: **_آیا این دو درمان منجر به تفاوت در متغیر پیامد اندازه گیری شده می شوند؟_** دو رویکرد متفاوت به وجود آمد. به ذهن ما: 1. رگرسیون بر اساس مدل های پنل خطی 2. ANOVA اندازه گیری مکرر مجموعه داده شامل یک شناسه فردی برای هر دانش آموز (_indiv_id_) است، متغیری که زمان اندازه گیری را نشان می دهد ( _time_ = 1، 2، 3، 4، 5) و متغیر مورد علاقه (_dV_). ## کاری که من کردم: **1\. رگرسیون بر اساس مدلهای پانل خطی** ایده این است که اثر انواع مختلف درمان را با در نظر گرفتن ساختار دادههای پانل (با استفاده از بسته plm) به صورت t-Test محاسبه کنیم: ## مدل اثرات تصادفی m.1 <- plm(dV ~ treat_type, data=panel, model=random, effect=individual, index=c(indiv_id, time)) ## مدل جلوه های ثابت m.2 <- plm(dV ~ treat_type, data=panel, model=within, effect=individual, index=c(indiv_id, time)) ## Hausman-test برای تصمیم گیری در مورد اینکه کدام مدل phtest مناسب است (m. 1، m.2) دادههای تست هاسمن: dV ~ نوع درمان chisq = 5.7244، df = 1، p-value = 0.01673 فرضیه جایگزین: یک مدل ناسازگار است از آنجایی که آزمون هاسمن در سطح 5 درصد معنادار است، از مدل اثرات ثابت استفاده شده است. خروجی به شرح زیر است: ضرایب: برآورد Std. خطای t-value Pr(>|t|) treat_typeFirst -0.66934 0.13314 -5.0274 1.696e-06 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 خروجی مدل اثرات تصادفی خواهد بود: ضرایب : برآورد Std. خطای t-value Pr(>|t|) (Intercept) 3.53516 0.11323 31.221 < 2.2e-16 *** treat_typeFirst -0.64089 0.13261 -4.833 3.114e-06 *** Sign. --- کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با این حال، با در نظر گرفتن تفاوت بین میانگین های توصیفی درمان 1 و درمان 2 (با نادیده گرفتن بعد زمانی) دریافت می کنم: -0.6153155` **تفسیر (با استفاده از مدل اثرات ثابت)**: دو درمان منجر به نتایج متفاوتی از متغیر وابسته مورد علاقه **2\. اندازهگیری مکرر ANOVA** panel_long <- melt(panel_original, id=c(indiv_id, treatment_type, time), variable_name=variable) summary(aov(value ~ treat_type * time + Error(factor(indiv_id ))، data=panel_long)) این خروجی زیر را می دهد: خطا: factor(indiv_id) Df Sum Sq Mean Sq F value Pr(>F) treat_type 1 0.02 0.017 0.002 0.9643 time 1 27.04 27.038 3.324 0.0771 . treat_type:time 1 0.11 0.108 0.013 0.9089 Residuals 34 276.53 8.133 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: در Df Sum Sq Mean Sq F value Pr(>F) treat_type 1 32.4 32.44 77.356 * < 2e-16 ** زمان 1 3.7 3.70 8.812 0.00305 ** نوع_ درمان: زمان 1 26.0 25.95 61.883 7.78e-15 *** باقیمانده ها 1263 529.7 0.42 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 با این حال، من مطمئن نیستم که آیا این ANOVA اصلا قابل تفسیر است یا خیر، زیرا ما داده های نامتعادل داریم. ## سوالات من چیست؟ 1. رویکرد مناسب برای تجزیه و تحلیل این مجموعه داده به منظور پاسخ به سوال تحقیق من چیست؟ 2. چرا من ضرایب رگرسیون (در مدل خطی تابلویی) را دریافت می کنم که با تفاوت میانگین توصیفی بین انواع درمان برابر نیست؟ 3. آیا می توان ANOVA را تفسیر کرد یا می توانم به نحوی داده های نامتعادل را در نظر بگیرم؟ | تجزیه و تحلیل طرح درمان مکرر (مدل پانل خطی در مقابل ANOVA) |
105773 | در مثال زیر، آیا امکان محاسبه SD جدید برای یک مشاهده اضافی وجود دارد؟ > در کلاسی متشکل از 25 دانش آموز، 24 نفر از آنها در کلاس امتحان و 1 دانش آموز > روز بعد در امتحان آرایش شرکت کردند. استاد اولین دسته از 24 امتحان را درجه بندی کرد و میانگین نمره 74 را با انحراف استاندارد 8.9 امتیاز یافت. دانش آموزی که روز بعد آرایش کرد > در امتحان 64 امتیاز کسب کرد. میانگین جدید 73.6 است، SD جدید چیست؟ چگونه آن را محاسبه کنیم؟ | چگونه SD نمونه را برای یک مشاهده جدید محاسبه کنیم؟ |
65762 | هنگام اجرای تجزیه و تحلیل خوشهبندی سلسله مراتبی ماتریسی از «افراد x نمونه» (به عنوان مثال، عملکرد کارکنان در روزهای مختلف)، چندین احتمال برای عادیسازی وجود دارد. اگر کسی ستونها را خوشهبندی میکند (برای اینکه ببیند آیا در روزهای خاصی عملکرد افراد مشابه است یا خیر)، میتوان 1. امتیاز z را در تمام ردیفها عادی کرد تا میانگین و انحراف معیار هر یک از کارکنان در طول روز قابل مقایسه باشد، یا 2. امتیاز z در تمام ردیفها عادی شود. ستون ها برای مقایسه همه کارمندان در یک روز، یا 3. به هیچ وجه نرمال نمی شوند و مقادیر خام را خوشه ای نمی کنند آیا کسی می تواند مزایا/معایب نسبی را توضیح دهد. از هر رویکرد در اینجا؟ برای روشن شدن، از فاصله همبستگی استفاده می کنم. روشهای 1 یا 2 در عمل نتایج متفاوتی به دست میدهند، اما مشخص نیست که برای بررسی اینکه آیا روزها با هم خوشهبندی میشوند، اگر فرد عادیسازی را انتخاب کند، آیا شماره 1 یا 2 مناسبتر است. | چگونه داده ها را برای خوشه بندی سلسله مراتبی استاندارد کنیم؟ |
21218 | من چند اندازه گیری ژن از یک آزمایش ریزآرایه دارم. در هر آرایه، من مجموعهای از ژنهای پسزمینه «غیر بیانشده» دارم. من سه اندازه گیری تکراری برای برخی بافت ها دارم. چگونه می توان از ژن های پس زمینه (به طور معمول توزیع نشده) برای ارزیابی اینکه آیا سایر ژن ها در هر بافت بیان می شود استفاده کرد؟ | استفاده از ژن های پس زمینه برای ارزیابی سطح بیان ژن |
21212 | آیا رگرسیون لجستیک افزایشی و کنده های تصمیم تقویت شده (در جایی که یک کنده تصمیم درخت تصمیم یک گره است) به نوعی معادل هستند؟ فکر نمیکردم، اما اگر الگوریتمهای «LogitBoost» را در گوگل جستجو کنم، میبینم: * http://weka.sourceforge.net/doc/weka/classifiers/meta/LogitBoost.html، که میگوید این یک «کلاس برای اجرای لجستیک افزایشی» است. پسرفت * http://rss.acs.unt.edu/Rdoc/library/caTools/html/LogitBoost.html، که میگوید «الگوریتم طبقهبندی logitboost را با استفاده از کندههای تصمیم (درخت تصمیم یک گره) به عنوان یادگیرندگان ضعیف آموزش دهید». | آیا رگرسیون لجستیک افزایشی معادل استامپ تصمیم تقویت شده است؟ |
105778 | در طرح های فاکتوریل با یک عامل تصادفی و یک عامل ثابت، میانگین مربع مورد انتظار برای عامل ثابت شامل سه منبع است: اثر اصلی، اثر متقابل و خطا، بنابراین، برای آزمایش اثر اصلی عامل ثابت، مخرج نسبت F حاصل خطا نیست بلکه برهمکنش MS است. دادههای حاصل از طرحهای یکطرفه درون آزمودنیها نیز میتواند به عنوان طرحهایی با یک عامل تصادفی (موضوعات) و یک عامل ثابت (درمان) دیده شود. به طور مشابه، تعامل MS بین موضوع و درمان در مخرج استفاده می شود. اما بر خلاف روش بالا، نمی توان تعامل را از خطا جدا کرد زیرا تنها یک مشاهده در هر سلول وجود دارد. اما چگونه می توان مطمئن شد که این واقعاً تعامل است و نه فقط واریانس خطا در مخرج؟ یا من اینجا اشتباهی می کنم؟ با تشکر | نسبت F در اندازه گیری های مکرر ANOVA |
69649 | من نسبتاً در آزمایش اهمیت علمی و ورود بیشتر و بیشتر به موضوع جدید هستم. من یک مجموعه داده چند عاملی با نرخ تنفس به عنوان متغیر پاسخ و دما و فشار جزئی CO2 به عنوان عوامل دارم. به نظر می رسد داده ها به طور معمول توزیع شده اند، اما من معتقدم که ناهمگونی واریانس را می بینم. از آنجایی که باقیماندههای عامل دما نسبت به سطوح تیمار واریانسهای متفاوتی دارند. هنگامی که من یک ANOVA دو طرفه را روی مجموعه داده اجرا می کنم، دما و تعامل قابل توجه است، CO2 نیست. برای مقابله با ناهمگنی، یکی از همکاران به من توصیه کرد که از یک مدل GLS و وزنه هایی بر روی فاکتوری که ناهمگنی را نشان می دهد (در این مورد دما) استفاده کنم. اگر من این کار را انجام دهم، همه اصطلاحات مهم می شوند. نمی دانم که آیا این رویکرد معقول است، زیرا من اثری از CO2 در داده های خام نمی بینم. در اینجا خروجی levene: leveneTest (RR، ضریب (Cal$Temp)، مرکز = میانگین) p= 0.06131 leveneTest (RR، ضریب (Cal$pCO2)، مرکز = میانگین) p= 0.2059 leveneTest (RR، تعامل (ضریب (Cal) $pCO2)، ضریب (Cal$Temp))، مرکز = میانگین) p= 0.01829 امیدوارم اطلاعات داده شده برای تصور مشکل من کافی باشد. | استفاده از GLS و وزن برای حل ناهمگونی واریانس ها؟ |
93942 | من سعی می کنم عملکرد الگوریتم نیمه نظارت شده خود را با مقایسه آن با الگوریتم های مختلف ارزیابی کنم. من خیلی جستجو کردهام، اما نمیتوانم کدی را پیدا کنم که با آموزش دادههای (برچسب + بدون برچسب) و سپس آزمایش روی دادههای دیده نشده، طبقهبندی نیمهنظارتشده چند کلاسه را انجام دهد. اکثر مواردی که من با آنها برخورد کرده ام برای مشکلات 2 کلاس طراحی شده اند. آیا کسی می تواند به من راهنمایی کند که کجا می توانم کد مشکلات چند کلاسه را پیدا کنم؟ | کد طبقه بندی نیمه نظارت شده چند کلاسه (SVM، آموزش مشترک، مبتنی بر نمودار)؟ |
81027 | تفاوت یا رابطه بین توزیع بتا، توزیع دو جمله ای بتا و توزیع دو جمله ای چیست؟ | توزیع بتا و توزیع دو جمله ای بتا |
87358 | تعمیم چند بعدی توزیع بتا، مطابق با مشخصات زیر چیست؟ من به دنبال توزیع دیریکله نیستم. من به دنبال یک تعمیم هستم که در آن توزیع بر روی هایپرمکعب با طول هر ضلع 1 تعریف می شود، برخلاف دیریکله، که در آن همه اضلاع به 1 می رسند. من به یک pdf برای داده های $d$-بعدی با $\\ نیاز دارم. پارامترهای #p=d^2$، به طوری که همبستگی بین متغیرهای داده توسط توزیع نشان داده می شود. (در واقع پارامترهای بیشتری مورد نیاز است، تعداد همبستگی های منحصر به فرد بین $d$ متغیر $ = d\left(\large\frac {d+1}2\right)$ و از آنجایی که در حالت خاص که $d=2$ (توزیع بتا) ما می دانیم که 2 پارامتر داریم، می توانیم انتظار داشته باشیم که پارامترهای $\\#p = d(d+1)$ وجود داشته باشد.) بنابراین اساساً من به دنبال یک پارامتر هستم. توزیع نرمال چند متغیره، اما بر روی بازه (0،1) برای هر متغیر تعریف شده است، و تنها یک نقطه ثابت (حالت/حداکثر/پیک، پاد مد/حداقل/شیب، یا نقطه زینی، بسته به پارامترها) در هایپرمکعب مجاز است. | توزیع بتا چند متغیره (بدون دیریکله!) |
57123 | من باید پارامترهای یک مدل AR را تخمین بزنم که به شکل AR (1,11) است، به این معنی که ضرایب سفارشات AR از مرتبه 2 تا مرتبه 10 صفر است. چگونه می توانم این دو پارامتر را در «R» تخمین بزنم زیرا تابع «arima» فقط p را به عنوان ترتیب جزء AR می پذیرد. توجه داشته باشید که این مدل ساختار متفاوتی نسبت به Seasonal AR دارد. با تشکر | چگونه پارامترهای خاصی از یک مدل AR را در R تخمین بزنیم؟ |
16304 | اگر من از یک مدل یادگیری ماشینی (مثلاً درختان رگرسیون تقویت شده مانند gbm در R) روی یک مجموعه داده استفاده میکنم، اگر تفاوت قابلتوجهی بین #تکرار بهینه تخمینی OOB و #بهینه تکرار در مجموعه آزمایشی وجود داشته باشد به چه معناست. (من 20 درصد از داده ها را نگه می دارم)؟ من میپرسم چون سعی میکنم یک متغیر پاسخ سری زمانی را مدلسازی کنم، و وقتی مجموعه آموزشی را بدون جایگزینی از آن نمونهبرداری میکنم، سپس gbm را اجرا میکنم، تکرارهای بهینه OOB و مجموعه تست بسیار متفاوتی دریافت میکنم. با این حال، وقتی مجموعه آموزشی را به شکل اصلی خود (قدیمیترین تاریخ تا جدیدترین تاریخ) ترک میکنم، تکرارهای بهینه OOB و مجموعه تست بسیار نزدیکتر هستند. من شروع به تعجب کردم که آیا داده های اخیری که دارم با داده های قدیمی کمی متفاوت است. باز هم سوال کلی است، بنابراین اگر به اطلاعات بیشتری نیاز دارید به من اطلاع دهید تا جایی که بتوانم توضیح خواهم داد. | تعداد بهینه متفاوت تکرارهای تقویتی به دست آمده از OOB و در آزمایش |
16305 | بنابراین فرض کنید من یک دسته از نقاط داده در R^n دارم، جایی که n بسیار بزرگ است (مثل 50). من می دانم که این داده ها در 3 خوشه قرار می گیرند و می دانم که هر نقطه داده بخشی از کدام خوشه است. تنها کاری که میخواهم انجام دهم این است که این خوشهها را بهصورت دوبعدی تجسم کنم به گونهای که جدایی بین خوشهها را که میبینم به حداکثر برسانم، با هدف این است که ثابت کنم خوشهها بر اساس مکان نقطه داده در R به راحتی قابل تفکیک هستند. ^n تنها. روشی که تا به حال در مورد این کار انجام داده ام شامل انجام یک تبدیل PCA در نقاط داده و سپس تجسم جفت رایانه شخصی به طور تصادفی است تا زمانی که یکی را پیدا کنم که در آن خوشه ها کاملاً از هم جدا شده اند. اگرچه این رویکرد کاملاً موقتی به نظر میرسد، و به نظر میرسد که باید یک راه آسان برای یافتن چرخش دادهها به سبک PCA وجود داشته باشد که به جای به حداکثر رساندن واریانس کلی، جداسازی بین خوشهای را به حداکثر برساند. آیا تکنیک استانداردی وجود دارد که این کار را انجام دهد؟ اگر نه، ایده ای در مورد چگونگی ایجاد چنین تحولی دارید؟ | تکنیک کاهش ابعاد برای به حداکثر رساندن جداسازی خوشه های شناخته شده؟ |
99520 | من اطلاعاتی در مورد مشتریان ارائه شده با پیشنهاد دارم و می خواهم احتمال خرید نمونه های جدید (مشتریان) یک محصول (موفقیت) را پیش بینی کنم. من یک ویژگی به نام cust_rich_poor ایجاد کردم که کلاسی است که به طور ضعیف ثروت مشتری را نشان می دهد (1=فقیر، مترقی به 5 = ثروتمند)، و میانگین نسبت موفقیت در هر کلاس (نمودار سمت چپ) را ترسیم کردم. تعداد مشتریان در هر کلاس (نمودار سمت راست)  اکنون، من می خواهم با دانستن کلاس cust_poor_rich آنها، نسبت موفقیت را در نمونه های جدید پیش بینی کنید. آیا کسی می تواند راهنمایی کند ** کدام الگوریتم معمولاً برای این نوع موارد استفاده می شود **؟ من میدانم که رگرسیون لجستیک این فرضیه را ایجاد میکند که احتمال موفقیت یک تابع سیگموئیدی از متغیر ورودی است. اما از آنجایی که به نظر می رسد کلاس 1 (فقیرترین) نسبت موفقیت بالاتری نسبت به کلاس 2 دارد، نمی دانم چگونه این می تواند یک سیگموئید باشد. آیا رگرسیون لجستیک الگوریتم مناسبی برای استفاده است؟ و اگر نه، کدام الگوریتم معمولاً در اینجا استفاده می شود. | از کدام الگوریتم با سطوح پیشرونده و میانگین احتمال در هر سطح استفاده کنیم؟ |
61863 | من باید نسبت log2 را برای شانس محاسبه کنم و نمی دانم چگونه این کار را انجام دهم. گروه A گروه B 0.031571 0.0170071 رویدادهایی در GroupA و Group B وجود دارد \- من می خواهم محاسبه کنم که گروه A چقدر این رویداد خاص را در مقایسه با گروه B دارد، بنابراین برای نسبت شانس به log2 نیاز دارم. . من فکر می کردم که چنین نسبتی باید به این صورت محاسبه شود: log2(GroupA/GroupB) = log2(0.031571/0.0170071) = 0.892463 اما در این پاسخ stackoverflow آن را اینگونه محاسبه می کنند: (GroupA/GroupB)/log(2) = (0.031571/0.0170071)/log(2) = 2.67814 سوال من این است - چگونه نسبت log2 را محاسبه کنیم. و تفاوت بین این دو رویکرد چیست؟ | محاسبه نسبت log2 |
1853 | چه آزمون هایی برای آزمایش دو نمونه مستقل برای فرض صفر وجود دارد که آنها از جمعیت هایی با چولگی یکسان آمده اند؟ یک آزمون کلاسیک 1 نمونه ای وجود دارد که آیا شیب برابر با یک عدد ثابت است (آزمون شامل لحظه 6 نمونه است!). آیا ترجمه ساده ای برای آزمون 2 نمونه ای وجود دارد؟ آیا تکنیک هایی وجود دارد که شامل لحظات بسیار بالایی از داده ها نباشد؟ (من منتظر پاسخی به شکل 'bootstrap it' هستم: آیا تکنیک های بوت استرپ برای این مشکل مناسب هستند؟) | تست دو نمونه مستقل برای تهی همان چولگی؟ |
49473 | من برخی از دادههای متناسب را با استفاده از یک GLM دو جملهای مدلسازی میکنم - یعنی مقادیر برازش سیگموئیدی هستند - اما به نظر میرسد که دادهها با یک خط مستقیم مناسبتر هستند (نمودارهای اعتبارسنجی مدل از یک مدل خطی ساده نشان میدهد که این نیز خوب است). آیا راهی برای مقایسه این مدل ها وجود دارد که ببینیم یکی بهتر از دیگری است؟ من از r استفاده می کنم، و در ابتدا فکر می کردم می توانم از m1 <- glm(y ~ x، خانواده = گاوسی) m2 <- glm (y ~ x، خانواده = دو جمله ای) استفاده کنم و سپس از AIC برای مقایسه آنها استفاده کنم. (توجه داشته باشید که متغیرهای کمکی برای «m1» و «m2» یکسان هستند). با این حال، من متوجه شدهام که این دو مدل نیاز دارند که متغیر پاسخ به شکلی متفاوت - به عنوان نسبتی در «m1» و ماتریسی حاوی یک ستون «موفقیت» و «شکست» برای «m2» ساختاربندی شود. من فکر می کنم (؟) این بدان معنی است که این رویکرد نامناسب است. آیا راهی وجود دارد که بتوانم آزمایش کنم که آیا یک مدل بهتر از مدل دیگر با داده ها مطابقت دارد؟ با تشکر از شما برای کمک شما! جی من همچنین باید توجه داشته باشم - تا آنجا که درک من از روابط پیش می رود، دلیل نظری برای انتخاب یک رابطه سیگموئیدی نسبت به یک رابطه خطی ساده وجود ندارد، فراتر از این واقعیت که خطاهای دوجمله ای برای داده های متناسب مناسب هستند. | آیا می توان مدل مناسب را برای glm گاوسی و دوجمله ای مقایسه کرد؟ |
2397 | من به دنبال توزیع محدودکننده توزیع چندجمله ای بر روی نتایج d هستم. یعنی توزیع $$\lim_{n\to \infty} n^{-\frac{1}{2}} \mathbf{X_n}$$ زیر که در آن $\mathbf{X_n}$ یک مقدار برداری است متغیر تصادفی با چگالی $f_n(\mathbf{x})$ برای $\mathbf{x}$ به طوری که $\sum_i x_i=n$، $x_i\in \mathbb{Z}، x_i\ge 0$ و 0 برای سایر $\mathbf{x}$، جایی که $$f_{n}(\mathbf{x})=\frac{n!}{ x_1\cdots x_d} p_1^{x_1}\cdots p_d^{x_d}$$ من یک شکل را در لری واسرمن همه آمار» قضیه 14.6، صفحه 237، اما برای توزیع محدود، نرمال را با یک ماتریس کوواریانس منفرد می دهد، بنابراین من مطمئن نیستم که چگونه آن را نرمال کنم. شما می توانید بردار تصادفی را در فضای بعدی (d-1) بسازید تا ماتریس کوواریانس را به صورت کامل بسازید، اما از چه پیش بینی استفاده کنید؟ **به روز رسانی 11/5** ری کوپمن خلاصه خوبی از مشکل گاوسی مفرد دارد. اساساً، ماتریس کوواریانس منفرد نشان دهنده همبستگی کامل بین متغیرها است که نمایش آن با گاوس امکان پذیر نیست. با این حال، میتوان یک توزیع گاوسی برای چگالی شرطی دریافت کرد، مشروط به این واقعیت که مقدار بردار تصادفی معتبر است (مجموعهها در مورد بالا به $n$ میرسد). تفاوت گاوسی شرطی، این است که معکوس با شبه معکوس جایگزین می شود و عامل نرمال سازی به جای «محصول همه مقادیر ویژه» از «محصول مقادیر ویژه غیر صفر» استفاده می کند. Ian Frisce پیوندی را با برخی جزئیات ارائه می دهد. همچنین راهی برای بیان ضریب عادی سازی گاوسی شرطی بدون ارجاع به مقادیر ویژه وجود دارد، در اینجا یک مشتق وجود دارد. | توزیع مجانبی چند جمله ای |
105776 | من طبقه بندی را با استفاده از بیز ساده به عنوان یک طبقه بندی انجام داده ام و CV 10 برابری را اعمال کرده ام. می دانم که می توانم میانگین و واریانس نتیجه را بدست بیاورم. با این حال، چگونه می توانم عملکرد طبقه بندی کننده را رسم کنم؟ sub = نمونه (nrow(MY_Data)، طبقه(nrow(MY_Data) * 0.9)) train = MY_Data[sub,] test = MY_Data[-sub,] xTrain = train[,-3] yTrain = train$DIS xTest = test [،-3] yTest = مدل test$DIS = train(xTrain,yTrain,'nb',trControl=trainControl(method='cv',number=10)) predict(model$finalModel,x)$class table(predict(model$finalModel,xTest)$class,yTest) با تشکر | خلیج های ساده لوح را با k-fold cv تجسم کنید |
60197 | من باید دو **لیست مختلف** از حاشیه نویسی های زیست مولکولی را با هم مقایسه کنم و **درجه همبستگی** آنها را پیدا کنم. برای انجام این کار، من تابعی را برای محاسبه ضریب همبستگی رتبه اسپیرمن بین دو لیست و تابعی که فاصله تاو کندال بین دو لیست را محاسبه می کند، پیاده سازی کرده ام. من در پیاده سازی خود، حالت **داشتن دو لیست با ابعاد مختلف و/یا حاوی عناصر متفاوت** را مدیریت کرده ام، به این ترتیب: عناصر ListA را که در ListB وجود دارند را می گیرم و آنها را در انتهای آن درج می کنم. ListB; سپس عناصر ListB را که در ListA وجود ندارد را می گیرم و آنها را در انتهای ListA قرار می دهم. فکر میکردم این راه خوبی برای ادامه دادن است، اما در واقع متوجه شدم که فقط در صورتی کار میکند که فهرستها دارای ابعاد مشابه باشند (حداکثر تفاوت: ~ 20%). به خصوص، اگر این دو فهرست ابعاد بسیار متفاوتی داشته باشند، این رویکرد نتایج اشتباهی به همراه دارد. به عنوان مثال، من دو معیار همبستگی را زمانی محاسبه کردم که ListA دارای بعد 4 و ListB دارای بعد 816 بود. بدیهی است که این لیست ها اشتراکات کمی دارند، اما روش های کندال و اسپیرمن که من پیاده سازی کردم به اشتباه بیان کردند که آنها همبستگی بالایی دارند. این به این دلیل اتفاق افتاد که 812 عنصر ListB که در ListA وجود نداشت در ListA درج شده بودند. بنابراین سوال این است: **چگونه لیست های ابعاد مختلف را در محاسبه ضرایب همبستگی کندال و اسپیرمن به درستی مدیریت کنیم؟** **چگونه عناصر گمشده را مدیریت کنیم؟** | چگونه می توان ضرایب همبستگی (اسپیرمن، کندال) را با لیست هایی از ابعاد مختلف مدیریت کرد؟ |
49478 | مجموعه داده من داده های ورزشی است و متغیر نتیجه برد در یک فصل است و سعی می کنم تاثیر ویژگی های بازیکنان تیم را بر این نتیجه ببینم. سوال من این است که آیا استفاده از فعل و انفعالات آسان تر است یا ایجاد یک معیار؟ میخواهم بدانم که آیا بازیکنانی که در یک کالج 25 برتر شرکت میکنند، با در نظر گرفتن سایر ویژگیهای تیمی، بر بردها تأثیر میگذارند یا خیر. من 3 ساختار احتمالی دارم، G1: حداقل یک کاپیتان (از این دو) به 25 نفر برتر رسید و برخی دیگر یا هیچ بازیکن دیگری در تیم موفق نشدند، G2: هیچ کاپیتانی در جمع 25 نفر برتر حضور نداشت و سایر بازیکنان در تیم تیم انجام داد و G3: هیچ کس در تیم در 25 کالج برتر شرکت نکرد. من واقعاً علاقه مندم «G2» را با «G3» با توجه به نتیجه خود مقایسه کنم. آیا بهتر است 3 متغیر G1، G2 و G3 ایجاد کنم و سپس رگرسیون خود را با G2 یا G3 به عنوان گروه مرجع اجرا کنم و اثر ضریب را ببینم یا یک ساختگی برای آن ایجاد کنم. کاپیتان ها و سپس ناکاپیتان ها و سپس ایجاد تعامل؟ من دقیقترین رویکرد را میخواهم، اما مطمئن نیستم که چگونه این تعاملات را تنظیم کنم یا اینکه برای مقایسه با یک گروه مرجع بسیار گیجکننده هستند. متشکرم. | ساخت یک اندازه گیری در مقابل استفاده از یک تعامل |
66956 | من http://www.polyu.edu.hk/mm/effectsizefaqs/effect_size_equations2.html را مطالعه کرده ام و تنها تفاوتی که می توانم بین این دو پیدا کنم این است که آنها مقادیر انحراف استاندارد ادغام شده کمی متفاوت دارند، اما من اینطور نیستم. درک کنید که چگونه تغییر این مقادیر SD به منظور بهبود دقت برآورد اندازه اثر است. تفاوت در انحراف معیار به شرح زیر است ($SD_{pooled}$ SD ادغام شده برای d کوهن و $SD ^{*}_{pooled}$ برای g هجز است): $SD_{pooled}=\sqrt{ \frac{n_1 SD_1^2+n_2 SD_2^2}{n_1+n_2-2}}$ $SD^{*}_{pooled}=\sqrt{\frac{(n_1-1)SD_1^2+(n_2-1)SD_2^2}{n_1+n_2-2}}$ | تفاوت بین g هجز و d کوهن چیست؟ |
105771 | من یک ماتریس داده در مورد رشد تولید ناخالص داخلی برای کشورهای خاص برای یک دوره زمانی خاص دارم. از این ماتریس من ماتریس همبستگی را دریافت می کنم. پس از آن من از یک تبدیل غیرخطی برای به دست آوردن یک ماتریس فاصله استفاده می کنم. از این ماتریس من یک MST می سازم. اکنون وظیفه من تعیین پایداری پیوندها در MST است. برای این منظور باید از تکنیک بوت استرپ استفاده کنم. من بسته 'bootstrap' را نصب کردم و این را امتحان کردم (شما همچنین به بسته `ape` برای تابع `mst(X)` نیاز دارید): theta <- function(X){corr_m <- cor(X, method = pearson );dist_m <- sqrt(2*(1-corr_m)) mst(dist_m)};نتایج <- bootstrap(bstrap_matrix,100,theta) جایی که «bstrap_matrix» ماتریس داده من با ستونهای مربوط به کشورها (به عنوان مثال بریتانیا، آلمان، فرانسه، ...) و ردیفهای مربوط به دورههای زمانی (مثلاً «2000Q1»، «2004Q3» است. `، ...)، اما کار نمی کند... من می خواهم یک ماتریسی به دست بیاورم که به من بگوید چند بار از نمونهبرداری مجدد _R_ لبه بتنی MST من حتی در MST بوت استرپ وجود داشت. این عدد بین یک (هر بار اتفاق افتاده) و صفر (هرگز رخ نداده) است. | بوت استرپ یک MST در R |
65761 | من مجموعهای از کلاسهای سلسله مراتبی دارم (مثلاً ابژه/معماری/ساختمان/ساختمان مسکونی/خانه/خانه کشاورزی)، و یک درخت میسازم که در آن هر گره یک طبقهبندی کننده است. با این حال، کلاس مناسب برای یک ویژگی خاص میتواند در هر سطحی باشد (مثلاً ابژه/معماری/ساختمان). در حال حاضر، من از دو روش مختلف استفاده میکنم--> 1. من تصمیمهای بهینه محلی میگیرم، مگر اینکه کلاس پیشبینیشده یک گره برگ باشد، جایی که احتمال آن را بر یک ثابت (هیپرپارامتر) تقسیم میکنم، و سپس دوباره بررسی میکنم تا کلاسی با بالاترین احتمال را تا زمانی که به گره برگ زدم. 2. در هر گره، 3 فرزند با بیشترین احتمال را دنبال میکنم و سپس احتمالات را تا برگها منتشر میکنم (فقط با جمع کردن سیاههها). سپس یک هایپرپارامتر بر اساس سطح پایین درخت اضافه می کنم (هر چه سطح عمیق تر باشد، امتیاز بالاتر است). هر دوی این روشها برای توضیح سیستمی که اغلب تصمیم میگیرد که یک کلاس باید در یک درخت خیلی بلند باشد (یعنی در تصمیمگیری بین مثلا شی/معماری/ساختمان/خانه و شی/معماری/ساختمان، بدون ثابت، سیستم تقریباً همیشه شی/معماری/ساختمان را ترجیح می دهد). این خوب نیست - من متوجه شدم که نباید این ثابت را در ترکیب داشته باشم، اما مطمئن نیستم که چگونه بدون آن کار را انجام دهم. همچنین، اگر نمیتوانستم به نحوی از احتمالات استفاده نکنم (و بتوانم به جای آن فقط از فاصله به ابرصفحهها استفاده کنم (بنابراین میتوانم از svms به جای رگرسیون لجستیک به عنوان طبقهبندیکننده در هر گره استفاده کنم)، ایدهآل خواهد بود. (من از python و scikit Learn استفاده می کنم، فقط برای مشخص بودن) نظری دارید؟ | طبقه بندی سلسله مراتبی که در آن گره های برگ در یک درخت در سطح خاصی قرار ندارند |
43614 | فرض کنید من یک متغیر تصادفی یکنواخت $X$ دارم که مقادیر $\\{1,...,n\\}$ و دو تابع $v(X)$ و $w(X)$ را دارد. من می دانم که $v(X)$ و $w(X)$ به طور مشترک با همبستگی $\rho$ توزیع شده اند. (و میتواند هر ساختار توزیعی از جمله اتصال را در صورتی که آسانتر کند، نرمال فرض کند). ابتدا، من تمام مقادیر $v(X)$ را برای $x=\\{1,...,n\\}$ مشاهده می کنم و $E[v(X)]$ را به عنوان میانگین مشاهدات تخمین می زنم. هدف من برآورد $E[w(X)]$ بدون نمونهبرداری از $w(X)$ با استفاده از مقادیر $v(X)$، میانگین $E[v(X)]$ و ضریب همبستگی است. از هر گونه راهنمایی/راهنمایی، از جمله رویکرد بیزی، قدردانی خواهد شد. | تخمین میانگین شرطی |
81020 | از این مقاله، در بخش 1.2 _The Trial of the Pyx_، من در مورد آربیتراژی که نویسنده توصیف می کند سردرگم هستم. کسی می تواند این ایده را واضح تر توضیح دهد؟ | توضیح *The Trial of the Pyx* از این مقاله |
43613 | فرض کنید من یک ماتریس سردرگمی را محاسبه می کنم، به معنایی که در اینجا تعریف شده است: http://www.gabormelli.com/RKB/Confusion_Matrix می توانم به راحتی تعداد منفی های واقعی (TN)، مثبت های واقعی (TP)، منفی های نادرست (FN) را محاسبه کنم. ) و موارد مثبت کاذب (FP) اما من احساس می کنم کمی ناخوشایند است: در مورد من، همه اشیا حداقل متعلق به یک کلاس: بنابراین یک طبقه بندی نادرست (مثلاً طبقه بندی کننده من یک A واقعی را در سطل B قرار می دهد) نه تنها یک FP است، بلکه در همان زمان یک FN است. و اگر یک شیء واقعی A+B فقط به عنوان B طبقه بندی شود چه می شود: در مطالعه فعلی من، قطعاً بهتر از طبقه بندی در C است یا اصلاً طبقه بندی نشده است. من نمونه های دیگری از این دست دارم... همانطور که می توانید حدس بزنید، برای من، آن ها ماتریس گیج کننده هستند. | بهترین راه برای محاسبه معیارهای عملکرد طبقهبندی کننده با توجه به ماتریس سردرگمی چیست؟ |
99527 | من تعداد بسیار زیادی متغیر در مقایسه با نمونه هایی دارم که روی آنها اندازه گیری می شود. داده های زیر نمونه ای در R. set.seed(123) ماتریس # ماتریس X متغیر xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ( M، 1:10000، sep = ) rownames(xmat) <- paste(نمونه، 1:200, sep = ) xmat[1:10,1:10] # چاپ داده های جزئی M1 M2 M3 M4 M5 M6 M7 M8 M9 M10 sample1 -1 1 0 1 -1 1 1 1 0 1 sample2 -1 - 1 1 0 0 1 -1 0 1 0 نمونه3 1 1 -1 -1 -1 0 1 1 1 -1 نمونه4 1 1 -1 0 -1 1 -1 0 -1 -1 نمونه5 -1 1 0 1 0 1 0 -1 0 1 نمونه6 1 1 -1 -1 0 -1 -1 0 -1 0 نمونه7 1 -1 - 1 1 1 -1 0 0 0 -1 نمونه8 1 -1 0 -1 -1 1 0 1 0 0 نمونه9 1 1 0 0 1 0 0 -1 0 -1 نمونه 10 0 0 1 1 -1 0 0 1 1 -1 # y ماتریس متغیر set.seed(1234) ymat <- ماتریس (c(rnorm(100, 50,20), rep( NA، 100))، ncol = 1) در اینجا نمونه 1 تا 100 دارای مقدار y اما 101 به 200 نه. من می خواهم از جنگل تصادفی برای پیش بینی مقادیر y نمونه های گم شده استفاده کنم. سوال من اینجاست - آیا می توانم از جنگل تصادفی برای این کار استفاده کنم؟ چگونه؟ کدام بسته r (یا هر نرم افزار دیگری) برای نیازهای بالا من مناسب تر است؟ **ویرایش ها: توجه:** اگرچه من مقادیر X {1,0,-1} را به صورت تصادفی نمونه برداری کردم، اما آنها تصادفی نیستند. آنها در درجات مختلف با یکدیگر یا با y همبستگی دارند. | جنگل تصادفی برای تعداد زیادی از متغیرها و پیش بینی ها |
21214 | من در حال انجام برخی تحقیقات در مورد روش های مقایسه مبتنی بر فاصله ترکیب توالی های بیولوژیکی (ژن ها، پروتئین ها) هستم. فرض کنید من دو رشته (به نام های X و Y) با طول های مختلف دارم، اما از یک الفبای متناهی (A, C, T, G): X = 'ACGT' Y = 'ACGTA' تفاوت بین دو رشته را می توان با محاسبه کمی محاسبه کرد. فاصله بین ماتریس های انتقال آنها برای انجام این کار، می توانیم محاسبه کنیم که هر حرف از الفبا چند بار در هر رشته وجود دارد. دو بردار به دست می آوریم که تعداد حروف را برای دنباله ها نشان می دهد: x = [1،1،1،1] y = [2،1،1،1] سپس می توانم فاصله اقلیدسی را محاسبه کنم: d(x,y) = [(1 -2)^2 + (1-1)^2 + (1-1)^2 + (1-1)^2]^0.5 = 1^0.5 = 1 من نمی توانم بفهمم چگونه محاسبه کنم فاصله ماهالانوبیس اگر کسی بتواند از من مثال بزند و نحوه محاسبه فاصله ماهالانوبیس را به من نشان دهد سپاسگزار خواهم بود. | فاصله ماهالانوبیس به عنوان معیار عدم تشابه بین رشته ها (دنباله ها) |
63427 | من می خواهم از: $$ p(\theta_2|x)=\int p(\theta_2|\theta_1,x) نمونه بگیرم. p(\theta_1|x) . d\theta_1 $$ با دانستن اینکه من به راحتی می توانم از $p(\theta_1|x)$ و (به راحتی) از $p(\theta_2|\theta_1,x)$ نمونه برداری کنم. من برخی از ایده های ساده لوحانه-بی رحم-نیروی محاسباتی-غیرقابل حل دارم، اما شاید ایده های ظریف تری وجود داشته باشد؟ **ویرایش:** 1) چندین پاسخ به من پیشنهاد می دهد که از روش زیر استفاده کنم: برای i=1:N $\theta_1^i$ را از $p(\theta_1|x)$ بکشید $\theta_2^i$ از $ p(\theta_2|\theta_1^i,x)$ آیا این i.i.d $\theta_2^i$ را از $p(\theta_2|x)$ به من می دهد؟ 2) در عمل، من می خواهم یک بازه HPD را بیش از $\theta_2$ محاسبه کنم (به عنوان مثال با استفاده از boa.hpd). بنابراین من واقعاً به RVهای i.d نیازی ندارم. آیا روال زیر معتبر است: برای i=1:P $\theta_1^{i}$ را از $p(\theta_1|x)$ برای j=1:N/P بکشید $\theta_2^{(i-1) *P+j}$ از $p(\theta_2|\theta_1^i,x)$ یعنی کشیدن $\theta_2^{(i-1)*P+j}$ از یک تک $\theta_1^{i}$، $P$ برابر ($P$ مقسومکننده $N$ است و ثابت است و $N$ تعداد نمونههایی که میخواهم تولید کنم) و از این نمونههای $N$ برای محاسبه استفاده کنید. hpd. در عمل چنین راه حلی تا حد زیادی کارآمدتر از راه حل اول در برنامه من خواهد بود. | نمونه برداری از حاشیه با استفاده از شرطی یکپارچه |
1856 | در مورد استفاده از تکنیکهای یادگیری ماشین، مانند جنگلهای تصادفی یا رگرسیون جریمهشده (با جریمه L1 یا L2، یا ترکیبی از آنها) در مطالعات بالینی نمونه کوچک، وقتی هدف جداسازی پیشبینیکنندههای جالب در زمینه طبقهبندی است، چه فکر میکنید؟ این یک سوال در مورد انتخاب مدل نیست، و همچنین من در مورد چگونگی یافتن برآوردهای بهینه اثر/اهمیت متغیر نمیپرسم. من قصد ندارم استنتاج قوی انجام دهم، بلکه فقط از مدلسازی چند متغیره استفاده میکنم، بنابراین از آزمایش هر یک از پیشبینیکنندهها در برابر نتیجه مورد علاقه در یک زمان، و در نظر گرفتن روابط متقابل آنها اجتناب میکنم. من فقط به این فکر میکردم که آیا چنین رویکردی قبلاً در این مورد شدید خاص، مثلاً 20-30 آزمودنی با دادههای 10-15 متغیر طبقهبندی یا پیوسته، اعمال شده است. دقیقاً مورد $n\ll p$ نیست و من فکر میکنم مشکل اینجا به تعداد کلاسهایی که سعی میکنیم توضیح دهیم (که اغلب متعادل نیستند) و n (بسیار) کوچک مربوط میشود. من از ادبیات عظیم در مورد این موضوع در زمینه بیوانفورماتیک آگاه هستم، اما هیچ مرجع مرتبط با مطالعات زیست پزشکی با فنوتیپ های اندازه گیری روان سنجی (به عنوان مثال در سراسر پرسشنامه های عصب روانشناختی) پیدا نکردم. آیا اشاره یا اشاره ای به مقالات مرتبط دارید؟ **به روز رسانی** من آماده هر راه حل دیگری برای تجزیه و تحلیل این نوع داده ها هستم، به عنوان مثال. الگوریتم C4.5 یا مشتقات آن، روشهای قوانین تداعی، و هر تکنیک داده کاوی برای طبقهبندی نظارت شده یا نیمه نظارت شده. | کاربرد تکنیک های یادگیری ماشین در مطالعات بالینی نمونه کوچک |
69642 | N بیمار با N نمونه از محل A و N از سایت B (قبل و بعد از درمان). در هر دو سایت ما 1-4 میکروب را پیدا می کنیم که از نظر حساسیت ضد میکروبی برای بدست آوردن مقادیر MIC آزمایش می شوند. میخواهم تعیین کنم که آیا میانگین MIC در نمونههای site-A واقعاً کمتر از میانگین MIC در سایت-B است یا خیر. وقتی باید حداقل 3 متغیر سن، (جنس)، دارو و مدت زمان را در نظر بگیرم و مطمئن نیستم که داده ها واقعا جفت شده اند، کدام مدل را انتخاب کنم؟ من میتوانم به آزمون t زوجی 2 نمونهای بروم - اما چگونه میتوانم 3 متغیر کمکی را ادغام کنم؟ لطفاً این را نیز در نظر بگیرید که در بیشتر موارد میکروب در سایت A مانند سایت B است - اما در 10-15٪ موارد ما میکروب های مختلف (و همچنین تعداد متفاوت) داریم. بنابراین، آیا ادغام همه داده ها و مقایسه میانگین های کلی نامناسب خواهد بود؟ یا باید داده ها را تقسیم کنم تا گروه های دارای میکروب های یکسان و گروه های دارای میکروب های مختلف را جداگانه در نظر بگیرم؟ | مقایسه میانگین برای 2 مجموعه داده (جفت شده؟). |
98972 |  آیا روند یا فصلی در نمودار سری زمانی پیوست شده وجود دارد؟ | آیا فصلی یا روندی در نمودار سری زمانی پیوست شده وجود دارد؟ |
60731 | آیا چیزی شبیه تست K-S وجود دارد، اما از یک انتگرال به جای supremum استفاده کنید؟ فکر من این است که $\int_{-\infty}^\infty|F(x) - G(x)|dx$، که در آن $F$ و $G$ CDF هستند، اگر توزیع یکسانی داشته باشند، تقریبا صفر خواهد شد. و با واگرایی توزیع ها (به هر شکلی - غیر پارامتریک؟) افزایش می یابد. با این حال، نمی دانم که آن متغیر چگونه به نظر می رسد. تست K-S برای من مشکل ساز به نظر می رسد زیرا با حجم نمونه کوچک، نویز می تواند اثرات زیادی داشته باشد. با استفاده از تمام داده ها، به جای تنها بزرگترین تفاوت، شاید بتوان بخشی از تأثیر آن نویز را حذف کرد. | آزمون مستمر کولموگروف اسمیرنوف؟ |
60735 | فرض کنید $X_1, X_2, \, ... \, , X_n$ یک نمونه تصادفی ساده از توزیع Normal$(\mu,\sigma^2)$ هستند. من علاقه مند به انجام آزمون فرضیه زیر هستم: $$ H_0: | \mu| \le c \\\ H_1: |\mu| > c، $$ برای ثابت معین $c > 0$. من به انجام دو تست $t$-تست یک طرفه (TOST) به روشی مشابه با وضعیت معمول تست هم ارزی زیستی فکر می کردم، که در آن عدد صفر و $|\mu| در عوض \ge c$، اما نمیدانم آیا این منطقی است یا درست است. ایده من این است که آزمایش های یک طرفه را انجام دهم $$ H_{01} : \mu \le c \\\ H_{11} : \mu > c $$ و $$ H_{02} : \mu \ge -c \\\ H_{12} : \mu < -c, $$ و فرضیه صفر جهانی را رد کنید اگر یکی از $p$-values کوچکتر از سطح معناداری $\alpha$ باشد. پیشاپیش متشکرم **ویرایش:** من مدتی در این مورد فکر کرده ام و فکر می کنم رویکردی که پیشنهاد کردم سطح اهمیت $\alpha$ ندارد. فرض کنید مقدار واقعی $\mu$ $\mu_0$ باشد و $\sigma^2$ مشخص باشد. احتمال رد صفر در تست اول $$ \mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{01}) = 1 - \Phi \left(z_{1-\alpha) است. } + \frac{c-\mu_0}{\sigma/\sqrt{n}} \right)، $$ که در آن $\Phi$ اگر cdf استاندارد توزیع عادی باشد، و $z_{1-\alpha}$ مقداری است که $\Phi(z_{1-\alpha}) = 1-\alpha$. اگر $\mu_0 = c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{01}) = \alpha$. سپس، اگر $\mu_0 > c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{01}) > \alpha$. یا اگر $\mu_0 <c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{01}) <\alpha$. احتمال رد صفر در آزمون دوم $$ \mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{02}) = \Phi \left(- z_{1-\alpha} است. - \frac{\mu_0 + c}{\sigma/\sqrt{n}} \right). $$ دوباره، اگر $\mu_0 = -c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{02}) = \alpha$ داریم. به طور مشابه، اگر $\mu_0 > -c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{02}) < \alpha$. در نهایت، اگر $\mu_0 < -c$، $\mathbb{P}_{\mu_0}(\mathrm{Rej.H}_{02}) > \alpha$. از آنجایی که نواحی رد این دو آزمون ناهمگون هستند، احتمال رد $H_0$ این است: $$ \mathbb{P}_{\mu_0}(\mathrm{Rej.H}_0) = 1 - \Phi \left( z_{1-\alpha} + \frac{c-\mu_0}{\sigma/\sqrt{n}} \right) + \Phi \left(- z_{1-\alpha} - \frac{\mu_0 + c}{\sigma/\sqrt{n}} \right) $$ بنابراین، اگر $\mu \in [-c,c]$ ، $2\alpha$ یک کران بالای احتمال رد فرضیه صفر (جهانی) است. بنابراین، رویکردی که من پیشنهاد کردم بیش از حد لیبرال بود. اگر اشتباه نکنم، میتوانیم با انجام همان دو تست به سطح معنیداری $\alpha$ برسیم و اگر مقدار $p$ یکی از آنها کمتر از $\alpha/2$ باشد، عدد صفر را رد کنیم. زمانی که واریانس ناشناخته است و ما نیاز به اعمال $t$-test داریم، آرگومان مشابهی وجود دارد. | فرضیه صفر هم ارزی |
81022 | من در تلاش برای درک و تفسیر اصطلاح تعامل در یک رگرسیون لجستیک هستم. متغیرهای توضیحی دما (طبقه ای)، وزن گناد (مستمر) و nnd (مستمر) هستند. زیر مدل کاهشیافته: model2012nnd=glm (کاملاً تخمریزی ~ دما + گناد + nnd+گناد:nnd، خانواده = شبهبینومیال (لینک = logit)، داده = اسپا + nnd + گناد:nnd، خانواده = شبه باینومیال (لینک = logit)، داده = spaw) انحراف باقیمانده: Min 1Q Median 3Q Max -1.6793 -0.3594 -0.2457 -0.0651 2.5984 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 2.6262 2.1212 1.238 0.217638 temperature15.58928019 2.4317 0.6453 3.768 0.000237 *** gonad -1.58 -1.58 0.018466 * nnd -2.4845 1.0782 -2.304 0.022593 * gonad:nnd 0.6407 0.3124 2.051 0.042058 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده شبهجمعی 0.7864476 در نظر گرفته شده است) انحراف صفر: 118.652 در 152 درجه انحراف 59:7 148 درجه از آزادی AIC: NA چگونه این تعامل را تفسیر کنم؟ من متغیر «گناد» را در سه دسته (کم، متوسط و زیاد) قرار دادم و احتمال تخمریزی کامل را در دمای 1 و 2 برای هر سطح ترسیم کردم تا بتوانم خروجی را بفهمم. آیا این درست است؟ پیشاپیش ممنون تانیا | چگونه متغیرهای پیوسته تعامل را در رگرسیون لجستیک تفسیر کنیم؟ |
60193 | من متعجبم که معیار بهتری برای قدرت پیش بینی در یک تنظیم رگرسیون چند متغیره چیست. بنابراین، یک آزمون F برای رگرسیون، «مطلوب بودن مدل» را آزمایش میکند، یا دقیقاً اگر هر یک از ضرایب $\beta$ غیر صفر باشد. هنگامی که تهی رد می شود، مدل مفید در نظر گرفته می شود. بنابراین، برای پیش بینی مفید است؟ اعتبار متقابل همچنین می تواند به شما کمک کند که آیا مدل شما برای پیش بینی مفید است یا خیر. آیا می توانید با استفاده از همان عبارت در مورد آنها صحبت کنید؟ در مورد آمار $R^{2}$ چطور؟ بگویید $n$ بزرگ است و درجه آزادی در مدل شما کوچک است. خیلی بعید است که بیش از حد برازش اتفاق افتاده باشد. در این مورد که $R^{2}$ زیاد است، در مورد قدرت پیش بینی مدل خود چه می توانید بگویید؟ متوسط صفر؟ بررسی قدرت پیشبینی برخی از مدلها موضوع بزرگی است، اما آیا آزمونهای F در آن نقش دارند؟ آیا اعتبار متقاطع به دلیل روشهای یادگیری ماشینی که آزمایشهای آماری وجود ندارد، بسیار محبوب شده است؟ آیا برای پر کردن این خلأ در مدلهای الگوریتمی رایج شد یا واقعاً به مسائل مختلفی میپردازند؟ | آزمون F در رگرسیون و اعتبار متقاطع |
60734 | من 800 متغیر پیوسته و یک متغیر پاسخ طبقه بندی (بیماری/غیر بیماری) دارم و از caret برای طبقه بندی بیماری بر اساس متغیرهای پیوسته استفاده کرده ام. من از caret استفاده کردهام و مجموعه دادههای خود را به قطار و تست (به ترتیب 2/3 و 1/3) تقسیم کردهام و از EN، RF، PLS و SVM برای طبقهبندی استفاده کردهام. من مقداری OKish AUC هم برای قطار و هم برای مجموعه تست (حدود 75 درصد) دریافت می کنم. سپس میخواستم از برخی ویژگیهای انتخابی (rfe) برای حذف برخی از متغیرهای کم اهمیت/نویز استفاده کنم. در این مورد راهنمایی می خواستم. 1. من rfe (به عنوان مثال rfe با rfFuncs) را روی مجموعه داده قطار اجرا می کنم و سپس در آزمایش پیش بینی می کنم. آیا این خوب است؟ یا از rfe در کل مجموعه داده استفاده می کنید؟ همچنین، من افراد آنلاینی را دیدهام که از rfe در مجموعه دادههای قطار استفاده میکنند و سپس یک مجموعه داده جدید بر اساس متغیرهای انتخابی جدید rfe ایجاد میکنند (مثلاً 100 از 800). سپس آنها از این مجموعه داده کوچکتر جدید استفاده می کنند و از ابتدا یک طبقه بندی کننده را اجرا می کنند. شبکه الاستیک مانند قبل (در همان مجموعه داده قطار و سپس پیش بینی در آزمایش). آیا این مشکلی ندارد یا منجر به نصب بیش از حد می شود؟ 2. rfe با rfFuncs بسته به دانه ای که انتخاب می کنم نتایج بسیار متغیری به من می دهد. چگونه می توانم در اطراف آن کار کنم؟ | انتخاب متغیر caret rfe و پیشبینی آزمون |
68060 | از بازرسی بصری، من گمان میکنم که برخی از مجموعههای مجموعه داده پانل من ثابت نیستند. اگر آزمایش ریشه واحد پانل را روی آنها در EViews 7 انجام دهم، میتوانم رگرسیورهای برونزا را در زیر «شامل در معادله آزمایشی» انتخاب کنم: بهطور خاص، میتوانم «قطع فردی»، «قطع فردی و روند» یا «هیچکدام» را انتخاب کنم. با رعایت همه موارد دیگر، آنها می توانند نتیجه آزمایش را همانطور که در اینجا مشاهده می کنید تغییر دهند:  ** چگونه می توانم بدانم کدام رگرسیون برون زا را انتخاب کنم؟ ** من داده هایی در مورد متغیرهای مختلف برای 165 کشور مختلف، هم در داده های سالانه و هم در میانگین چند ساله دارم. من گمان می کنم که اکثر کشورها در اکثر متغیرهای خود روند نزولی مشترکی دارند، اما شوک های فردی را تجربه می کنند. | رگرسیورهای اگزوژن در آزمون ریشه واحد پانل |
94626 | فرض کنید ما سه متغیر تصادفی $X_1،X_2$ و $X_3$ داریم. اجازه دهید $\bar{X}_{1:1:1}$، $\bar{X}_{1:1}$ و $\bar{X}_{2:1:1}$ تخمینگر برای $ باشند \mu$. توجه داشته باشید که علامت $\bar{X}_{1:1:1}$ نشان میدهد که وزن هر متغیر $\frac{1}{1+1+1} = \frac{1}{3}$ است. . معادلات تخمینی برای هر یک از این برآوردگرها چیست؟ چگونه این معادلات تخمینی را در یک معادله برآورد کلی ترکیب کنیم؟ آیا معادلات تخمینی عبارتند از: $$\bar{X}_{1:1:1}-\hat{\mu} = 0$$ $$\bar{X}_{1:1}-\hat{\ mu} = 0$$ $$\bar{X}_{2:1:1}-\hat{\mu} = 0$$ و تنها معادله تخمینی: $$w_{1}(\bar{X}_{1:1:1}-\hat{\mu}) + w_{2}(\bar{X}_{1:1}-\hat{\ mu})+w_{3}(\bar{X}_{2:1:1}-\hat{\mu})=0$$ جایی که $w_1 = \frac{1}{3}$, $w_ {2} = \frac{1}{2}$ و $w_{3} = \frac{1}{4}$؟ وزن ها به ترتیب برابر با X_1، X_2 دلار و X_3 دلار است. | تخمین معادلات |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.