_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
65103 | من مدلی دارم که در آن ضریب توان های مختلفی دارد: $$\mbox{log} ( \mu_{i} ) = \alpha + \beta x_1 + \beta^2x_2 + \beta^3x_3 + ... + \beta^nx_n \\\ \\\ N_{i} \sim \mbox{Poiss} ( \mu_{i} ) $$ $N_i$ و $x_i$ داده است، $\alpha$ و $\beta$ ضرایب مدل هستند. 1. **آیا می توان این مشکل را به نحوی تغییر داد تا با استفاده از مدل GLM بتوان آن را حل کرد؟** یعنی. تا بتوانم از تابع glm() در R استفاده کنم. 2. **اگر نه، چگونه می توانم این مشکل را با استفاده از بسته های فرکانسیست در R حل کنم؟** می توانم مدل را در WinBUGS بنویسم اما ترجیح می دهم فرکانسیست داشته باشم. راه حل در R، زیرا بسیار سریعتر است و استنتاج آسانتر است (یکی دارای P-values، t-test، F-test...) است. اما از کدام تابع یا بسته استفاده می شود تا آن را جا دهد؟ * * * اگر علاقه مند هستید که چگونه این مشکل ایجاد شده است: در واقع مدل را از این سؤال بگیرید و ضریب $\beta$ را برای $\mbox{log} ( \mu_{i,j} )$ در سمت پیش بینی معادله اضافه کنید. . در حالی که تغییر مدل اصلی برای استفاده در GLM بسیار زیبا و بدون مشکل بود، افزودن ضریب $\beta$ چیزهای پیچیده ای را ایجاد کرد و به مدل ارائه شده در اینجا منجر شد. | قدرت های مختلف ضریب - قابل حل در GLM؟ |
38308 | من در حال مطالعه سازمانی با 58 نفر با تعدادی پرسشنامه سبک لیکرت هستم. داده ها نمونه های تصادفی نیستند بلکه سرشماری ناقص هستند. برای 6 پرسشنامه، من توانستم بین 49 تا 57 پاسخ دهنده به دست بیاورم. با این حال، وقتی میخواهم دادههای پرسشنامه را ترکیب کنم، این تعداد میتواند به 43 آزمودنی کاهش یابد. پاسخ به پرسشنامه ها به طور یکنواخت غیر عادی و به طور کلی لپتوکورتیک بوده است. رگرسیون بوت استرپ NP در این تعداد سوژه نتایج قابل توجهی می دهد، با این حال مطمئن نیستم که آیا این امکان را به من می دهد که در مورد سازمان به طور کلی تر چیزی بگویم. اگر راهنمایی در مورد محدودیت های آنچه می توانم با این نوع داده ها بگویم دارید، مفید خواهد بود. با تشکر فراوان برای هر راهنمایی | تعداد موضوعات مورد نیاز برای نماینده یک جمعیت محدود و کوچک چقدر است؟ |
89088 | من به دنبال اثباتی هستم که نشان دهد سوگیری متغیر حذف شده (OVB) در رگرسیون OLS ممکن است به درون زایی منجر شود. من مثالهای زیادی در اینجا و آنجا پیدا کردهام که چگونه ثابت کنیم یک پارامتر داده شده $b_{j}$ (که در آن پارامترهای $j=1،...، J$ در مدل) بایاس میشوند، برای مثال این دو رشته: * سوگیری متغیر حذف شده در رگرسیون خطی * سوگیری متغیر حذف شده، تأیید در Gretl اما این دقیقاً آن چیزی نیست که من می خواهم. چیزی که من میخواهم یک دلیل عمومیتر است که نشان دهد متغیر معین $X_j$ با عبارت خطای $e$ زمانی که OVB وجود دارد، مرتبط میشود، یعنی ${\rm Cov}(X_j,e) \ne 0$. برای مثال، فرض کنید معادله صحیح این خواهد بود: $$Y = b_0 + b_1 X_1 + b_2 X_2 + b_3 X_3 + u$$ اما ما موارد زیر را تخمین می زنیم: $$Y = b_0 + b_1 X_1 + b_2 X_2 + e,$ $ که در آن $X_3$ و البته ضریب آن $b_3$ را حذف می کنیم. با فرض اینکه ${\rm Cov}(X_3, X_2) \ne 0$، چگونه می توان ثابت کرد که ${\rm Cov}(X_2,e) \ne 0$ و بنابراین $X_2$ درون زا به دلیل OVB است. ، به جای اینکه فقط مقدار سوگیری را در $b_2$ محاسبه کنید؟ | اثبات اینکه سوگیری متغیر حذف شده ممکن است به درون زایی منجر شود |
96245 | آیا راهی برای اجرای یک رگرسیون خطی با محدودیت های بالا و/یا پایین در ضرایب در R وجود دارد؟ | رگرسیون خطی با حد بالا و/یا پایین در R؟ |
38302 | با توجه به میانگین $m>0$، متغیرهای تصادفی $n$ داریم: $Y_1,Y_2,..,Y_n$ اگر مقداری بالاتر از $m$ مشاهده کنیم، اگر مقداری زیر $m مشاهده کنیم $Y_i=1$ $ سپس $Y_i=0$ احتمال دریافت مشاهده بالای $m$ $p$ است * * * $(i)$ سپس $Y_i$ چه توزیعی را توصیف می کند؟ من فکر می کنم $Y_i$ آزمایشات برنولی را توصیف می کند. $(ii)$آیا این بدان معناست که اگر ما مدلی از تعداد مشاهدات بالاتر از میانه بخواهیم، $\sum^{n}_{i=1}Y_i$ است که $Binomial(n,p)$ است. ? $(iii)$آیا فرض p=1/2 معتبر است؟ از آنجایی که نیمی از مشاهدات بالای $m$ و نیمی زیر هستند. * * * $(iv)$ اکنون میخواهم آزمایش کنم که آیا $m$ میانگین واقعی است یا خیر و به 95% CI نیاز دارد. اگر من 'n$' را بدانم، باید احتمالات دوجمله ای دقیق را محاسبه کنم تا زمانی که احتمال تجمعی در انتهای پایینی کمتر از 2.5٪ و احتمال تجمعی در انتهای بالایی زیر 2.5٪ باشد. یا ممکن است از تقریب معمولی استفاده کنم. * * * اساساً، من به دنبال درک مراحل از $(i)$ تا $(iv)$ هستم: 1) اعتبار/ دقت روش خود. 2) فرضیاتی که ممکن است داشته باشم. 3) آیا تست دقیقتر و کارآمدتر دیگری وجود دارد؟ * * * هر ورودی: افکار / نظرات / نکات بسیار قدردانی می شود. متشکرم | میانه آزمایش و توزیع دوجمله ای |
82481 | من سعی می کنم بفهمم چگونه می توانم یک تابع بهینه سازی ایجاد کنم که از میان data.frame یا ماتریس، ردیفی را با بیشترین مقدار ترسیم شده انتخاب کنم (اعداد صحیح نیستند، بنابراین باید به دنبال عددی باشم که بیشترین مقدار را دارد). احتمال وقوع) و در عین حال ستون دوم (که نشان دهنده ستون های خطا است) را به حداقل برسانید. دادههای من اینگونه به نظر میرسد: data=data.frame(data=abs(rnorm(200,0,2)),error=runif(400,.3,.5)) چگونه میتوانم این کار را انجام دهم؟ | بهینه سازی با دو عامل |
38305 | اگر مجموعه دادهای با بیماران $n$ داشته باشم و برای هر بیمار یک متغیر طبقهبندی $X$ داشته باشم، میخواهم تمام بیمارانی را که $x$ آنها مقدار خاصی است حذف کنم. **سوال 1**: اصطلاح (ترجیحاً اصطلاح اپیدمیولوژیک) برای متغیر $X$ چیست؟ (آیا این یک متغیر معیار _exclusion_ [من قبلاً این عبارت را ندیدهام، فقط حدس میزنم] است یا اصطلاح رایجی وجود دارد؟) سپس، من میخواهم مجموعه دادههای حاصل را به دو مجموعه داده بر اساس مقادیر یک متغیر دوگانه $Y$ برای هر بیمار به طوری که همه بیمارانی که $y = 0$ در مجموعه داده A قرار می گیرند در حالی که همه بیمارانی که برای آنها $y = 1$ در مجموعه داده B قرار می گیرند. سپس مجموعه داده های A و B را جداگانه بررسی می کند و آزمایش های آماری را در هر یک انجام می دهد. پس از این، من مقایسه بین A و B انجام می دهم. **سوال 2**: اصطلاح (دوباره ترجیحاً اصطلاح اپیدمیولوژیک) برای متغیر $Y$ چیست؟ (من به چیزی شبیه به _subsetting متغیر_ فکر می کردم، اما باز هم، هرگز این اصطلاح را ندیده بودم.) | اصطلاحات برای انواع مختلف متغیر اپیدمیولوژیک |
38303 | چندین کتاب خوب در مورد یادگیری ماشین وجود دارد و توضیحات ریاضی زیادی برای چندین مدل طبقهبندی وجود دارد (در بیشتر کتابهایی که شخصاً خوانده میشوند معمولاً Naive Bayes، Logistic Regression و SVM را توضیح میدهند). علاوه بر Naive Bayes، رگرسیون لجستیک، SVM و چندین درخت تصمیم که من هم از نظر ریاضی و هم از نظر گرافیکی آنها را درک میکنم، با مشاهده نمونههای داده به عنوان نمودار پراکنده، مدلهای موجود دیگری وجود دارند که (تا کنون) توضیح گرافیکی برای آنها پیدا نکردهاند. هنگام برخورد با طبقه بندی، یک نقطه شروع خوب این است که نمودار پراکندگی را برای نمونه های داده ترسیم کنید و سپس تصمیم بگیرید که با مشاهده نحوه توزیع نقاط در فضا از کدام الگوریتم استفاده کنید و کدام تابع داده های مشاهده را به بهترین کلاس ها تقسیم می کند، بنابراین خوشحال می شوم پیدا کنم. هر منبع خوب با مجموعه ای از الگوریتم های طبقه بندی به صورت gpraphically توضیح داده شده، شاید در برخی از نمونه های واقعی. اگر کسی از شما منابع مفیدی از این نوع را میداند، من بسیار سپاسگزار خواهم بود که آدرس/کتاب یا عنوان مقاله را به اشتراک بگذارید. | توضیحات گرافیکی برای مدل های طبقه بندی مختلف را کجا می توان یافت؟ |
103509 | من ایده ای برای استفاده از تبدیل ECDF داده ها به توزیع یکنواخت آنها با اندازه نمونه برابر دارم. بنابراین، مثلاً برای 1000 قطعه داده، هر مقدار باید کمابیش با یک مقدار نماینده 1/0 همبستگی داشته باشد، اگر مقداری تکرار شود، آن مقدار تکرار شده به 1/1000 درصد همبستگی دیگر ترجمه میشود. بنابراین اگر عدد 2 2 بار از 1000 ورودی ظاهر شود. درصد کلی آن مقدار 0.2% است، با این حال، هر مقداری که قبل از آن بود، مثلاً 1، که یک بار ظاهر شد، 0.1 درصد خواهد بود. بنابراین 1 - Maps به 0.1% و 2 - Maps to 0.3% (یعنی 2 شمارش از 2 از 1000 = 0.2٪، مقادیر قبلی را برای تابع توزیع تجمعی اضافه کنید. با نام مستعار 0.1% و 0.2% = 0.3% ) من همچنین فرمولی دارم که با آزمایش میانگین تبدیل شده ECDF یک توزیع برای حداکثر خطای 0.275 از توزیع های اریب علامت گذاری می کند. .5 میانگین. اگر اینطور باشد، ما یک بررسی فرکانس روی مجموعه داده برای مقدار میانه انجام می دهیم، و اگر فرکانس بیش از 50٪ از مقادیر باشد، با توزیع متفاوت رفتار می کنیم. ما نمیخواهیم 0% با ارزش بالا ارزش گذاری شود. در عوض، همه 0 ها را از لیست حذف می کنیم، به رتبه بندی ECDF تبدیل می کنیم. سپس دوباره 0 ها را اضافه کنید. به این ترتیب انتهای دم کج را عادی می کنیم. بنابراین آیا این کار برای مقایسه مجموعههای مختلف دادهها با یکدیگر در مقیاس افزایشی با عادیسازی آنها در این روش کار میکند؟ | آیا می توانم از تابع توزیع تجمعی تجربی برای استخراج مقادیر استاندارد مجموعه داده های مختلف استفاده کنم؟ |
103508 | من در خوشه بندی متن کار می کنم. من میخواهم راهی برای شناسایی خودکار تعداد کلاسها برای فرآیند خوشهبندی به جای اثبات دستی تعداد کلاسها پیدا کنم. آیا آنها مدرک یا مدلی برای این موضوع دارند؟ | انتخاب تعداد کلاس های خوشه بندی به صورت خودکار |
82486 | مطمئن نیستم که آیا این سوال منطقی است یا خیر، اما من زمان زیادی را صرف نگاه کردن به اطلاعات در مورد انتشار انتظار میکنم و یکی از عملیات کلیدی در آن همانطور که توسط تام مینکا توضیح داده شده است، پیشبینی محصول توزیعها به بهترین تقریب گاوسی است. بنابراین، من یک راه اندازی دارم که در آن توزیع مشترک من به شکل زیر است: $$ P(w)\times \prod_{i}P(y_i|w) $$ اکنون احتمال را می توان به صورت زیر نوشت: $$ P(y_i| w) = \frac{\phi}{2\pi} \exp^{0.5e_i\phi e_i} $$ که برای سادگی فرض کنیم که $\phi$ داده شده و $e$ را می توان از مشاهده $y_i$ محاسبه کرد. با این حال، $P(w)$ یک گاوسی چند متغیره با ساختار کوواریانس است. بنابراین، اکنون وقتی هر یک از این عوامل را به نوبه خود تقریب میزنم، یک محصول بر روی چنین توزیع تک متغیرهای و سپس یک محصول بیش از تقریب فعلی من به $p(w)$ خواهم داشت که یک گاوسی چند متغیره است. من کاملاً گیج هستم که چگونه می توان این کار را انجام داد. من می دانم که عبارات ساده برای میانگین و واریانس زمانی وجود دارد که فردی در حال ضرب گاوسی های تک متغیره است، اما حتی مطمئن نیست که در این مورد چه باید کرد. آیا باید به مؤلفه i این گاوسی چند متغیره نیز نگاه کنم؟ من از هر گونه کمک/پیشنهاد در این زمینه قدردانی می کنم. | ضرب گاوسی چند متغیره با گاوسی تک متغیره |
82482 | من همیشه فکر می کردم $\alpha_i \neq 0$ به این معنی است که $i$ یک بردار پشتیبانی است. با این حال، اکنون که به آن فکر می کنم، گیج شده ام. اگر یک نقطه آموزشی به اشتباه طبقه بندی شود، یک $\alpha$ غیر تهی خواهد داشت، آیا استفاده از آن برای طبقه بندی نقاط جدید منطقی است؟ آیا از آن برای محاسبه ابر صفحه جداکننده بهینه استفاده می کنیم؟ آیا طبقه بندی کننده با طبقه بندی کننده ای که بدون آن نقطه آموزش دیده است متفاوت است؟ | با SVM، آیا بردارهای پشتیبان نقاط آموزشی طبقه بندی نادرست هستند؟ |
96249 | من با تجزیه و تحلیل داده های تابلویی که اهمیت عوامل تعیین کننده سرمایه گذاری مستقیم خارجی در یک کشور میزبان را اندازه گیری می کند، دست و پنجه نرم کرده ام. من داده هایی برای یک دوره ده ساله دارم و FDI از 8 کشور به یک کشور (فرانسه) جریان می یابد. من شاخصهای کلان اقتصادی فرانسه، آمار نیروی کار و برخی متغیرهای مستقل دیگر را برای آزمایش با متغیر وابسته (جریان سرمایهگذاری مستقیم خارجی از هر یک از 8 کشور منتخب به فرانسه به مدت 10 سال) گرفتهام. برای متغیر مستقل، من برای مثال تولید ناخالص داخلی/سرانه فرانسه از سال 2002 تا 2012 را برای هر یک از 8 کشور کپی کردم. من 8 کشور، 10 سال، 5 متغیر مستقل و 1 متغیر وابسته دارم: در مجموع 480 مشاهده. با وجود تست های چند خطی برای حذف متغیرهای مستقل همبسته، هیچ نتیجه قابل توجهی دریافت نمی کنم. من تفاوت زیادی در مقیاس مشاهدات دارم، زیرا برخی از متغیرها به میلیون دلار هستند و برخی دیگر درصد هستند. آیا این می تواند بر نتایج تأثیر بگذارد؟ آیا در ساختار داده های پانل خود خطایی وجود دارد؟ متشکرم. | تحلیل رگرسیون داده های تابلویی سرمایه گذاری مستقیم خارجی |
73892 | من در حال آزمایش مدلی هستم که در آن 2 متغیر مستقل (IVs) و 2 متغیر وابسته (DVs) دارم. من فرض می کنم که هر دو IV هر دو DV را پیش بینی می کنند. با این حال، رابطه بین IV1 و DV1 قوی تر از رابطه بین IV2 و DV1 خواهد بود. به طور مشابه، من این فرضیه را مطرح می کنم که رابطه بین IV2 و DV2 قوی تر از بین IV1 و DV2 خواهد بود. به من پیشنهاد شد که تفاوت معنی دار بین متغیرهای وابسته تست وزن بتا را انجام دهم. من مطمئن نیستم که کجا می توانم اطلاعاتی در این مورد پیدا کنم (به عنوان مثال یک نقل قول احتمالی برای جستجوی من) یا چگونه این کار را انجام دهم. هر گونه اطلاعات برای من بسیار قدردانی خواهد شد! | تفاوت معنی داری بین آزمون بتا وزن نمونه های وابسته |
5945 | SVMها برای طبقهبندی برای من حس شهودی دارند: میدانم که چگونه به حداقل رساندن $||\theta||^2$ حداکثر حاشیه را به همراه دارد. با این حال، من آن هدف را در زمینه رگرسیون درک نمی کنم. متون مختلف (اینجا و اینجا) این را به عنوان به حداکثر رساندن صافی توصیف می کنند. چرا ما می خواهیم این کار را انجام دهیم؟ در رگرسیون معادل مفهوم «حاشیه» چیست؟ در اینجا چند پاسخ تلاش شده است، اما هیچ کدام واقعا به درک من کمک نکرد. | درک رگرسیون SVM: تابع هدف و صافی |
62629 | من دادههایی دارم که نشان میدهد رایانههای شبکه من بالا یا پایین هستند. دادهها هر دقیقه جمعآوری میشوند و فصلی یک هفته دارند، برای 3 میزبان به این شکل است. قرار است سرورها کمتر از ایستگاه های کاری از کار بیفتند. ID TIME STATE TYPE 1 60 0 Workstation 2 60 1 Server 3 60 0 Server 1 120 1 Workstation 2 120 1 Server 3 120 0 Server من از R استفاده می کنم و به دنبال مدلی هستم که بتواند احتمال وجود هاست را به من بدهد. پایین یا بالا در بازه زمانی آینده. به نظر شما کدام مدل با این نیازها مطابقت دارد؟ من با در نظر گرفتن بالا رفتن میزبان و پایین رفتن میزبان به عنوان رویداد، به استفاده از مدلهای مدت زمان با بسته بقا فکر کردهام. نظر شما در مورد این چیست؟ آیا نامزدهای بهتری وجود دارد؟ | مدلی که می تواند داده های باینری را در R قرار دهد |
11505 | آیا کسی کد Stata را دارد که بتواند با من به اشتراک بگذارد تا بتوانم یک مدل دو بخشی را برای بررسی هزینه های مراقبت های بهداشتی اجرا کنم؟ بخش اول مدل تعیین می کند که آیا یک فرد بازدید داشته است یا خیر و قسمت دوم تعیین می کند که افراد چقدر هزینه کرده اند (بر اساس زیر مجموعه کسانی که بازدید داشته اند تخمین زده می شود). میدانم که باید محصول اینها را برای دریافت هزینههای مورد انتظار مراقبتهای بهداشتی برای فرد استفاده کنم و همچنین باید برای قسمت اول تغییری ایجاد کنم، اما مطمئن نیستم که چگونه این کار را در Stata انجام دهم. متشکرم | چگونه می توانم یک مدل دو بخشی از هزینه های مراقبت های بهداشتی را در Stata اجرا کنم؟ |
94238 | من مجموعهای از آزمونها را بر روی یک متغیر دوگانه (وجود/عدم وجود اختلال شخصیت در یک بیماری عصبی) انجام دادهام تا چندین مورد (مانند وجود اضطراب یا افسردگی، مدت زمان بیماری، جنسیت و غیره) را بین آزمودنیها مقایسه کنم. نشان دادن اختلال شخصیت و سوژه ای که ندارد. از آنجایی که برخی از این متغیرها پیوسته و برخی دیگر نیستند، من از آزمونهای آماری مختلف استفاده کردهام، از ChiSq برای سه متغیر دوقطبی با وجود یا عدم وجود چیزی (اضطراب، افسردگی، جنسیت، شکل بیماری) و آزمون منویتنی برای متغیرهای پیوسته (مدت بیماری). ، سطح ناتوانی، MSFC). حال، آیا تنظیم سطح معنیداری برای تعداد مقایسهها (مثلاً بونفرونی)، صرفنظر از نوع آزمونی که استفاده میشود، صحیح است یا باید برای هر آزمون استراتژی خاصی انتخاب کنم؟ | تنظیم سطح معنیداری برای انواع مختلف آزمونها (chisq، mann whitney و غیره) روی یک متغیر |
65101 | من نتایج یک متاآنالیز 10 مطالعه را دارم که یک نسبت شانس اثرات تصادفی ترکیبی (محاسبه شده با استفاده از روش وولف) و فاصله اطمینان 95٪ از رویدادی که در یک گروه اتفاق می افتد نسبت به گروه دیگر گزارش می کند: $OR = 7.1\ (95\) %\ CI\ 4.4-11.7)$ اکنون در حال ساخت مدلی هستم که باید حول این نسبت شانس نمونه برداری کند (برای اهداف یک تحلیل حساسیت احتمالی). با توجه به اینکه نسبت شانس است، من فرض می کنم که به طور معمولی توزیع شده است و 7.1 میانگین است، اما بهترین راه برای تبدیل فاصله اطمینان به یک انحراف استاندارد چیست تا بتوانم توزیع را با استفاده از تابع LOGNORMDIST اکسل نمونه برداری کنم. ? (من سوالات مشابهی را برای توزیع نرمال و گاما (از فاصله اطمینان تا انحراف استاندارد - چه چیزی را از دست داده ام؟ و چگونه می توان میانگین و انحراف استاندارد را در R با توجه به فاصله اطمینان و توزیع نرمال یا گاما محاسبه کرد؟) و همچنین سوالات پیدا کردم. محاسبه فاصله اطمینان برای توزیع log-normal (چگونه می توانم یک فاصله اطمینان را برای میانگین مجموعه داده های log-normal محاسبه کنم؟)، اما به نظر می رسد نمی توانم نحوه رفتن به سمت دیگر را پیدا کنید.) | محاسبه انحراف استاندارد از فواصل اطمینان توزیع log-normal |
3059 | من در حال بررسی اثر یک متغیر پیوسته A بر روی یک متغیر اندازه گیری M طبقه بندی شده توسط متغیر عامل دیگر C در مجموعه داده های مشاهده ای هستم. به دلیل ناهمگونی، تصمیم گرفتم از تحلیل رگرسیون بوت استرپ استفاده کنم. با این حال، با نگاه کردن به دادهها، مجموعه پسزمینه متغیرها به طور مساوی توزیع نمیشوند، اگر A را تقسیم کنم (حالا یا نه). من بهتازگی اجرای تجزیه و تحلیل دیگری را به پایان رساندهام که در آن همان تجزیه و تحلیل را پس از تطبیق مجموعه دادهها برای مخدوشکنندهها (با استفاده از CEM در R) انجام میدهم. اکنون مشکل این است که به کدام تحلیل اعتماد کنیم: رویکرد رگرسیون بوت استرپ در کل مجموعه داده یا نسخه بوت استرپ داده های منطبق؟ تحت یکی از عوامل در C نتایج متفاوت است. آیا ایده ای دارید که چگونه می توان این را تجزیه و تحلیل کرد؟ | رگرسیون بوت استرپ با کل داده یا بوت استرپ با داده های منطبق؟ |
103506 | من سعی می کنم نتیجه یک آزمایش (متغیر وابسته باینری) را بر اساس تعدادی متغیر مستقل پیوسته پیش بینی کنم. وقتی این کار را با استفاده از یک مدل بزرگ (9 اثر اصلی + تعامل 2 عاملی) انجام میدهم، به نظر میرسد که کار میکند یعنی نموداری دریافت میکنم که در آن مقادیر پیشبینیشده 0/1 هستند. با این حال، اگر مدل را کاهش دهم تا فقط دو اثر اصلی + تعامل را بگویم، مقادیر پیشبینیشدهای از 0 - 1 (و چندین نقطه در این بین) دریافت میکنم. من سعی کردم از پروبیت و لاجیت با «glm()» در R استفاده کنم. با مدل کوچکتر هیچ اخطار/خطایی دریافت نمی کنم. با بزرگتر دریافت می کنم: پیام های هشدار: 1: glm.fit: الگوریتم همگرا نشد 2: glm.fit: احتمالات برازش عددی 0 یا 1 رخ داده است چه چیزی باعث این رفتار می شود؟ چگونه می توانم تعیین کنم که کدام یک از اثرات اصلی و/یا اصطلاحات تعاملی مهمترین هستند (در خلاصه همه آنها *** هستند؟ | پیشبینی وابسته به دودویی پیشبینیهای غیردودویی میدهد |
96336 | من در حال تجزیه و تحلیل یک مطالعه با استفاده از ANOVA ترکیبی 4 طرفه هستم. دارای یک عامل بین موضوعی و 3 عامل درون موضوعی (با سطح 2، 2 و 3). حجم نمونه من در یک گروه 63 - 29 و در گروه دیگر 34 است. من 9 متغیر وابسته دارم که همه آنها از شرکت کنندگان می خواستند که پاسخ خود را در مقیاس 0 تا 10 انتخاب کنند. من تست های نرمال بودن را روی داده های خود انجام دادم و از آنجایی که آن ANOVA 2 x 2 x 2 x 3 است، مجبور شدم 24 تست را اجرا کنم. به ازای هر متغیر وابسته هیستوگرامهای اکثر دادهها خیلی عادی به نظر نمیرسند، اما این یک مشکل خاص از 2 گروه داده است، زیرا شرکتکنندگان به احتمال زیاد «0» را وارد میکنند. این بدان معنی است که تبدیل داده ها کمترین اثر را دارد، زیرا مقدار در '0' ثابت می ماند. از آنجایی که هیچ آزمایش ناپارامتری برای ANOVA های مختلط وجود ندارد، چه کاری می توانم انجام دهم؟ از هر کمکی که می توانید به من بکنید متشکرم، واقعاً از آن سپاسگزارم. من واقعاً گیر کرده ام و زمان زیادی را صرف بررسی سؤالات مختلف کرده ام اما هنوز نتوانسته ام پاسخ خود را پیدا کنم. | توزیع غیر نرمال برای ANOVA مخلوط 4 طرفه |
38300 | طول عمر یک نام تجاری خاص از باتری ها دارای توزیع گاما است. آزمایشات روی نمونه بزرگی از این باتری ها میانگین عمر 480 ساعت و انحراف معیار 96 ساعت را نشان می دهد. برخی از سوالاتی که در مورد 1 نیاز به کمک دارم. نشان دهید که برآوردگرهای لحظه ای برای پارامترهای توزیع گاما آلفا(هت)=25 و لامبدا(هت)=5/96 هستند. از این رو تابع چگالی را برای طول عمر (به ساعت) با استفاده از این مقادیر بنویسید و ساده کنید. 2. توزیع دقیق مجموع طول عمر 20 عدد از این باتری ها چگونه است؟ توزیع دقیق میانگین نمونه را پیدا کنید؟ 3. با استفاده از یک تقریب معمولی، احتمال اینکه میانگین طول عمر نمونه از این 20 باتری کمتر از 460 ساعت باشد را پیدا کنید. 4. بر اساس پارامترهای توزیع دقیق در (ب)، آیا تقریب نرمال در (ج) معقول به نظر می رسد؟ من توانستم شماره 1 را خوب انجام دهم، اما در بقیه موارد گیر کرده ام، اگر کسی بتواند کمک کند، عالی است. | مجموع توزیع گاما |
89084 | من می خواهم دو متغیر وابسته را با هم مقایسه کنم. من دو گروه داده دارم. مدل 1 $$Y_1 = \beta_1 *x_1 + \beta_2 *W_1 + خطا$$ مدل دو $$Y_2 = \beta_3 *x_1 + \beta4 *Z_2 + خطا$$ $Y_1$ و $Y_2$ چقدر متفاوت هستند؟ فرض کنید $\frac{Y_1-Y_2}{Y_1}$. چقدر مطمئن هستم که اینها x% متفاوت هستند؟ | دو متغیر وابسته را مقایسه کنید؟ |
93743 | مدلهای خطی با جلوههای ترکیبی معمولاً در گوشهای از زیستشناسی من استفاده نمیشوند، و من باید آزمایش آماری را که در مقالهای که میخواهم بنویسم، گزارش کنم. میدانم که آگاهی از مدلسازی چندسطحی در برخی از حوزههای علوم زیستی شروع به ظهور کرده است (راهحلی برای وابستگی: استفاده از تحلیل چندسطحی برای تطبیق دادههای تودرتو)، اما من همچنان در تلاش هستم تا یاد بگیرم چگونه نتایج خود را گزارش کنم! طرح آزمایشی من، به طور خلاصه: *آزمودنی ها به یکی از چهار گروه درمانی تخصیص داده شدند *اندازه گیری متغیر وابسته در روزهای مختلف پس از شروع درمان انجام شد *طرح نامتعادل است (تعداد افراد در گروه های درمانی نابرابر و از دست رفته اندازه گیری برای برخی از افراد در برخی از روزها) *درمان A دسته مرجع است *من داده ها را در روز آخر درمان متمرکز کردم می خواهم بدانم آیا درمان A (رده مرجع) نتایج قابل توجهی بهتر از سایر درمان ها (در پایان درمان) دارد. من تجزیه و تحلیل خود را در R با استفاده از nlme انجام دادم: mymodel <- lme(dv ~ درمان*روز، تصادفی = ~1|موضوع، داده = mydf، na.action = na.omit، + همبستگی = corAR1(فرم = ~1 | موضوع)، روش = REML) و خروجی (تا حدی، کوتاه شده برای اختصار) این است: >anova(mymodel) numDF مقدار P درمان * مقدار روز Std.Error DF t-value p-value (Intercept) 7.038028 0.1245901 222 56.48945 0.0000 TreatmentB 0.440560 0.1608452 35 2.730C درمان 0.510214 0.1761970 35 2.89570 0.0065 TreatmentD 0.106202 0.1637436 35 0.64859 0.5208، بنابراین، من می دانم که تأثیر روز بر اساس روز درمان متفاوت است (در مرکز روز درمان، و در آن روز اثر روز متفاوت است. به طور قابل توجهی در درمان A نسبت به درمان های B یا C متفاوت است. آنچه می خواهم بگویم این است: همانطور که پیش بینی شد، متوجه شدیم که متغیر وابسته در افراد دریافت کننده درمان A (میانگین +/- SE) به طور قابل توجهی کمتر از افراد دریافت کننده درمان B (میانگین) بود. +/- SE، p=0.0096) یا درمان C (میانگین +/- SE، p=0.0065)، همانطور که در روز آخر اندازه گیری شد درمان. اما، باید اشاره کنم که چه آزمون آماری انجام شده است. آیا این روش قابل قبولی برای توصیف تحلیل خواهد بود؟ [روش اندازهگیری] در روزهای مشخص شده انجام شد و متغیر وابسته (واحدها) تعیین شد؛ ما دادههای تبدیلشده با ورود به سیستم را با استفاده از یک مدل اثرات مختلط خطی در مرکز [روز پایانی درمان] تجزیه و تحلیل کردیم. نمادها نشاندهنده میانگین dv هستند؛ نوارهای خطا عبارتند از خطای استاندارد در روز آخر درمان، dv در درمان A (میانگین +/- SE) به طور قابل توجهی کمتر از درمان B بود. (میانگین +/- SE، p=0.0096)...» به طور خاص، *آیا این به اندازه کافی در مورد آزمون آماری مورد استفاده می گوید؟ (خوانندگان عادت دارند چیزی بیشتر شبیه میانگین +/- SE، p=0.0096، آزمون t Student را ببینند، اما نوشتن p=0.0096، ضریب درمان B در مقابل درمان A از اثرات مختلط خطی عجیب به نظر می رسد. مدل در [روز پایانی درمان].) *آیا راه بهتری برای این وجود دارد؟ (بخش روشها شامل اطلاعات بیشتری در مورد آمار خواهد بود: دادههای [روش اندازهگیری] با استفاده از بستههای R و R تجزیه و تحلیل شدند... ما دادههای متغیر وابسته log-transformed را با استفاده از مدلهای اثرات مختلط خطی با استفاده از Subjects به عنوان اثرات تصادفی و یک ساختار خودهمبستگی از مرتبه 1 (AR1) به عنوان اثرات ثابت، ما درمان و روز و تعامل درمان و روز را بررسی کردیم و همگنی با بازرسی بصری نمودارهای باقیمانده در برابر مقادیر برازش شده، برای ارزیابی اعتبار تحلیلهای اثرات مختلط، آزمایشهای نسبت احتمال را انجام دادیم که مدلهای دارای اثرات ثابت را با مدلهای تهی تنها با اثرات تصادفی مقایسه میکردیم. گزارش نتایج یک مدل جلوههای ترکیبی خطی برای مخاطبانی که اغلب از آمار بیزارند (و توسط یک تازهکار آمار نسبی نوشته شده) بسیار قدردانی میشود! | گزارش نتایج مدل خطی اثرات مختلط |
38307 | آیا می توان ضرایب را از رگرسیون کمی بر روی داده های استاندارد تفسیر کرد؟ فرض کنید متغیر وابسته $y$ و متغیر مستقل $x$ را استاندارد کرده (میانگین را کم کرده و بر انحراف استاندارد تقسیم کنید) و سپس یک رگرسیون چندک برای میانه مانند qreg y x, q(0.5) در stata اجرا کنم. ضریب تخمینی برای متغیر مستقل 0.5 دلار است. آیا تفسیر زیر صحیح است: افزایش یک انحراف استاندارد متغیر مستقل، میانه متغیر وابسته را به میزان 0.5 دلار انحراف استاندارد افزایش می دهد؟ | آیا می توان ضرایب بتا استاندارد شده را برای رگرسیون چندک تفسیر کرد؟ |
89338 | نمیدانم روشهای بهتری برای **دستهبندی دادههای پیوسته** (به عنوان مثال _age_) نسبت به تقسیم آنها با استفاده از چندکها و تابع «برش» (در «R») چیست. من در مورد استفاده از درختان برای تقسیم دادهها به روشی شنیدهام که در نظر میگیرد چگونه یک تقسیم یک متغیر پاسخ را متمایز میکند، اما نمیتوانم توضیح معقولی سریع برای آن پیدا کنم. من می خواهم داده های خود را با هدف استفاده از آنها در **مدل لاجیت چند جمله ای** دسته بندی کنم. آیا روش دیگری برای انجام آن وجود دارد؟ (کمی خارج از موضوع: من از «R» استفاده می کنم، بنابراین برای برخی از مراجع بسته یا چیزی شبیه به این سپاسگزار خواهم بود.) | داده های پیوسته را به طور موثر دسته بندی کنید (با در نظر گرفتن یک متغیر پاسخ) |
82489 | من دوست دارم بتوانم از مدل سازی خطی پویا (DLM) روی داده های سری زمانی برای انجام پیش بینی استفاده کنم. من در حال حاضر از تابع lm استفاده می کنم اما دوست دارم dlm را کاوش کنم تا تفاوت را ببینم. دادههای من به این شکل است: ساختار(لیست(DATE = ساختار(c(1389287553, 1389287583, 1389287613, 1389287643, 1389287673, 1389287703, 1389287703, 138928, 138927, 1389287676 1389287793 1389287823 1389287853 1389287883 1389287913 1389287943 1389287973 138928183803 1389288063 1389288093 1389288123 1389288153 1389288183 1389288213 1389288243 138928138183 1389288333 1389288363 1389288393 1389288423 1389288453 1389288483 1389288513 138928888423 1389288603, 1389288633, 1389288663, 1389288693, 1389288723, 1389288753, 1389288783, 1389288813, 1389288813, 1389288873 1389288903 1389288933 1389288963 1389288993 1389289023 1389289053 13892813893 1389289143 1389289173 1389289203 1389289233 1389289264 1389289294 1389289324 13892893894 1389289414, 1389289444, 1389289474, 1389289504, 1389289534, 1389289564, 1389289594, 1389289624, 1389289624, 1389289684, 1389289714, 1389289744, 1389289774, 1389289804, 1389289834, 1389289864, 1389289894, 1389289894, 1389289954 1389289984 1389290014 1389290044 1389290074 1389290104 1389290134 138929018929 1389290225 1389290255 1389290285 1389290315 1389290345 1389290375 1389290405 13892903835 1389290495 1389290525 1389290555 1389290586 1389290616 1389290646 1389290676 13892903896 1389290766 1389290796 1389290826 1389290856 1389290886 1389290916 1389290946 13892903896 1389291036 1389291067 1389291097 1389291127 1389291157 1389291187 1389291217 13892912491 1389291307 1389291337 1389291367 1389291397 1389291427 1389291457 1389291487 13892913892 1389291577, 1389291607, 1389291637, 1389291667, 1389291697, 1389291727, 1389291757, 1389291787, 1389291787, 1389291847 1389291877 1389291907 1389291937 1389291967 1389291997 1389292027 138929192057 1389292117 1389292147 1389292177 1389292207 1389292237 1389292267 1389292297 138929292227 1389292387 1389292417 1389292447 1389292478 1389292508 1389292538 1389292568 138929292592 1389292658, 1389292688, 1389292718, 1389292748, 1389292778, 1389292808, 1389292838, 1389292869, 1389292869 1389292928, 1389292958, 1389292988, 1389293018, 1389293048, 1389293078, 1389293108, 13892913138, 13892913138, 1389293198, 1389293228, 1389293258, 1389293288, 1389293318, 1389293348, 1389293378, 13892933408, 1389293408, 1389293468، 1389293498، 1389293528)، کلاس = c (POSIXct، POSIXt)، tzone = )، pc = c(7.29، 7.4، 7.15، 7.63، 7.46، 7.48، 7.80، 7.3. 7.84، 7.86، 7.76، 7.63، 7.52، 7.21، 7.58، 7.98، 7.99، 7.16، 7.28، 7.07، 7.37، 6.93، 7.16، 7.18، 7.18، 7.14، 7.14، 7.19، 7.16، 7.29، 7.11، 7.08، 7.24، 7.31، 7.2، 8.23، 9.18، 8.13، 7.6، 7.53، 7.49، 7.18، 7.73، 7.18، 7.73، 7.2، 7.7. 7.18، 6.96، 7.08، 7.03، 7.2، 7.11، 7، 7.07، 7.92، 8.56، 8.05، 7.29، 7.21، 7.06، 6.94، 7.19، 7.2، 7.2، 7.2، 7.2، 7.2 7.32، 7.58، 7.68، 7.45، 7.52، 7.21، 7.22، 7.16، 7.57، 7.25، 7.32، 7.67، 7.23، 7.09، 7.12، 7.21، 7.07، 7.07، 7.01 7.07، 7.26، 7.34، 7.01، 7.02، 7.15، 6.83، 7.1، 7.26، 7.58، 7.69، 7.75، 8، 7.8، 7.94، 7.64، 7.19، 7.07، 7.19، 7.07 7.15، 7.41، 7.1، 7.11، 7.36، 7.04، 7.14، 7.04، 7.33، 8.37، 9.05، 7.85، 7.33، 7.62، 7.88، 7.29، 7.88، 7.29، 7.7. 8.18، 8.34، 7.67، 7.74، 7.49، 8.11، 7.55، 7.77، 7.57، 7.26، 7.31، 7.77، 6.92، 6.98، 7.09، 7.19، 7.56، 7.56، 7.56، 7.33، 7.03، 7.34، 7.27، 7.16، 7، 7.06، 6.92، 7.1، 6.83، 7.03، 7.64، 8.59، 7.27، 7.39، 7.21، 7.39، 7.21، 7.30، 7.6، 7.3، 7.6 7.13، 7.06، 7.11، 7.05، 7.05، 7.11، 6.81، 6.78، 7.02، 6.82، 7.03، 7.79، 8.26، 7.25، 7.06، 7.11، 7.06، 7.1، 7.1، 6.6 7.24، 7.03، 7.42، 7.09، 7.31، 7.14، 7.15، 6.93، 7.52، 7.51، 7.16، 7.09، 7.45، 7.12، 7.08، 7.08، 7.52، 7.51، 7.16، 7.09، 7.45، 7.12، 7.08، 7.08، 7.06. row.names = c(1L, 3L, 5L, 7L, 9L, 11L, 13L, 15L, 17L, 19L, 21L, 23L, 25L, 27L, 29L, 31L, 33L, 35L, 3,4L, 35L, 39L, 37L 45 لیتر، 47 لیتر، 49 لیتر، 51 لیتر، 53 لیتر، 55 لیتر، 57 لیتر، 59 لیتر، 61 لیتر، 63 لیتر، 65 لیتر، 67 لیتر، 69 لیتر، 71 لیتر، 73 لیتر، 75 لیتر، 77 لیتر، 79 لیتر، 81 لیتر، 83 لیتر، 83 لیتر، 19 لیتر، 8 93 لیتر، 95 لیتر، 97 لیتر، 99 لیتر، 101 لیتر، 103 لیتر، 105 لیتر، 107 لیتر، 109 لیتر، 111 لیتر، 113 لیتر، 115 لیتر، 117 لیتر، 119 لیتر، 121 لیتر، 123 لیتر، 127 لیتر، 127 لیتر، 123 لیتر، 127 لیتر 133 لیتر، 135 لیتر، 137 لیتر، 139 لیتر، 141 لیتر، 143 لیتر، 145 لیتر، 147 لیتر، 149 لیتر، 151 لیتر، 153 لیتر، 155 لیتر، 157 لیتر، 159 لیتر، 161 لیتر، 165 لیتر، 163 لیتر، 163 لیتر، 171 لیتر، 173 لیتر، 175 لیتر، 177 لیتر، 179 لیتر، 181 لیتر، 183 لیتر، 185 لیتر، 187 لیتر، 189 لیتر، 191 لیتر، 193 لیتر، 195 لیتر، 197 لیتر، 199 لیتر، 203 لیتر، 203 لیتر، 201 لیتر، 209 لیتر، 211 لیتر، 213 لیتر، 215 لیتر، 217 لیتر، 219 لیتر، 221 لیتر، 223 لیتر، 225 لیتر، 227 لیتر، 229 لیتر، 231 لیتر، 233 لیتر، 235 لیتر، 237 لیتر، 237 لیتر، 235 لیتر، 235 لیتر، 239 لیتر، 247 لیتر، 249 لیتر، 251 لیتر، 253 لیتر، 255 لیتر، 257 لیتر، 259 لیتر، 261 لیتر، 263 لیتر، 265 لیتر، 267 لیتر، 26 | چگونه می توانید مدل های خطی پویا را بر اساس داده های سری زمانی بسیار مکرر بسازید؟ |
17938 | من روی پروژه پایان نامه خود کار می کنم و با آمار به مشکل برخوردم که به دنبال کمی راهنمایی هستم. من تستهای ANOVA را برای تعیین معنیداری بین گروهها اجرا میکنم، اما با یک جفت از نتایج که واریانس یکسانی ندارند، به مشکل برخوردم (05/0p< و 001/0p<). این به تنهایی مشکل خاصی نداشت (تصحیح ولچ و پس آزمون های واریانس نابرابر) اما یکی از سنجش های من توزیع غیر نرمال و واریانس نابرابر را نشان می دهد: * من آزمایش همه جانبه D'Agostino-Pearson را با P<0.05 در یکی از آزمون ها انجام دادم. گروه ها (البته اندازه نمونه من 3 مجموعه داده کوچک با n=7،15 و 16 است). * در ادبیات به نظر می رسد که در این توزیع از جمعیت بزرگسال سالم مقداری انحراف وجود دارد، بنابراین منطقی است که فرض کنیم در گروه های من عادی نیست. * آزمون بارتلتس برای همگنی واریانس دارای 01/0p> است. پیشنهاد شد که Kruskal-Wallis ANOVA را اجرا کنم، اما: \- این آزمون واریانس برابر را در نظر می گیرد، که اینطور نیست. \- همچنین حجم نمونه من در گروه بیمار اول کمی کوچک است (n=7)، که به نظر من این است که Kruskal-Wallis در این مورد نیز قدرت کمی دارد؟ من اساساً نمی دانم با این مجموعه داده چه کار کنم! هر گونه کمکی برای من بسیار قدردانی خواهد شد! | نحوه برخورد با توزیع غیر گاوسی و ناهمسانی |
65105 | من سعی کردم یک شبکه عصبی برای پیش بینی داده های زمانی ایجاد کنم. با انتخاب تعداد متفاوت ورودی (تعداد مقادیر شناخته شده قبلی)، تعداد واحدهای پنهان و مقدار پارامتر تنظیم، مقادیر آموزش و آزمایش را محاسبه و تجسم کردم. از آنجایی که من نتوانسته ام ساختار شبکه و پارامترهای منظم سازی را به گونه ای تنظیم کنم که مقادیر پیش بینی شده به اندازه کافی به مقادیر واقعی نزدیک شوند، اگر کسی با مشکل مشابهی برخورد کند و راهی برای حل آن پیدا کند بسیار سپاسگزار خواهم بود. در زیر مقادیر تجسمی شده ('x' -predicted, 'o' - actual) برای تعداد واحدهای مختلف در لایه پنهان و پارامتر تنظیم لامبدا آمده است:  lambda = 0.02، تعداد واحدهای پنهان = 30 (اگر قابل مشاهده نباشد، موارد پیش بینی شده زیر واقعی هستند)  لامبدا = 0.02، تعداد واحدهای پنهان = 35 (پیشبینی شده در زیر واقعی است)  lambda = 0.08، تعداد واحدهای پنهان = 35 تابع هزینه را در Matlab نوشتم هزینه خطا (J) با منطق زیر تعریف می شود: هزینه = (yActual - yPredicted).^2; J = (2*m)^(-1)*جمع(مجموع(هزینه)); جایی که yPredicted = [a2]*[Theta2]; [a2] مقادیر خروجی واحدهای لایه پنهان و [Theta2] ماتریس وزن است مقادیر خروجی لایه پنهان با تابع سیگموئید محاسبه می شود: a2 = sigmoid([ مقادیر ورودی]*[Theta1]); که در آن سیگموئید به صورت زیر تعریف می شود: تابع g = sigmoid(z) g = 1.0 ./ (1.0 + exp(-z)); من بسیار سپاسگزار خواهم بود اگر کسی بتواند یک رویکرد یا هر گونه اصلاحی را برای بهبود نتایج پیش بینی پیشنهاد کند. متشکرم | چگونه ساختار بهینه شبکه عصبی و مقادیر پارامترها را پیدا کنیم؟ |
81684 | آیا راهی برای محاسبه عددی وجود دارد که امکان پذیر بودن یک آزمایش را ارزیابی کند؟ منظور من این احتمال است که احتمال مشاهده شده فقط شانس است. من در مورد مقدار $p$ خواندهام، اما به نظر نمیرسد که این مقدار باشد، زیرا اصلاً تعداد آزمایشها را در نظر نمیگیرد. فرض کنید من تجربهای دارم که میدانم باید دقیقاً نتیجه خاصی را به همراه داشته باشد و تجربه من آن را ثابت میکند. چند تلاش باید انجام می دادم تا تجربه خود را معتبر بدانم و آیا معیاری برای آن وجود دارد؟ ویرایش برای کمی شفاف سازی: آزمایش من شامل گرفتن یک عدد صحیح تصادفی (تولید شده توسط کامپیوتر) بین 1 و 4 است - با فرض اینکه اعداد را به طور مساوی توزیع می کند. سپس افراد در مقابل چهار کارت که یکی از این اعداد را نشان می دهد قرار می گیرند و باید یکی از آنها را انتخاب کنند. پس از انتخاب، کامپیوتر یک عدد تولید میکند و اگر یک عدد باشد، موفقیتآمیز است، در غیر این صورت یک شکست. بنابراین نتیجه مورد انتظار 25 درصد میزان موفقیت است. چیزی که میپرسم این است که آیا بسته به تعداد آزمایشهای انجامشده، اندازهگیری استانداردی برای توانایی آزمایش وجود دارد، به طوری که اگر برای مثال نرخ موفقیت 30 درصد را ببینم، میتوانم فرض کنم که افراد واقعاً درست میگویند 5 درصد بیشتر از شانس تصادفی خالص | آیا راهی برای اندازه گیری دوام یک آزمایش وجود دارد؟ |
96334 | من در حال تلاش برای یک سوال خودآموزی در مورد حاشیه خطا بودم و موفق به دریافت پاسخ درست شدم. پاسخ کلید 2.77 است، اما من توانستم به 2.76 برسم. حدس می زنم به اندازه کافی نزدیک. اما من فکر کردم که خیلی عجیب به نظر می رسد که مجبور نیستم از بسیاری از متغیرهای ارائه شده مانند میانگین یا حتی فاصله اطمینان استفاده کنم. اگرچه من موفق به دریافت پاسخ صحیح شدم، مطمئن نیستم که آیا واقعاً به سؤال پاسخ صحیح داده ام یا خیر. قدردانی از یک راهنمایی لطفا. **سوال** > یک سازنده DVD قابل حمل مستقر در شانگهای، عملکرد باتری > اطلاعاتی را به منظور اطلاع رسانی به مشتریان هنگام تصمیم گیری برای خرید ارائه می دهد. > یکی از معیارهای مهم عملکرد باتری، مدت زمان > میانگین عمر باتری ها در مقایسه با باتری های استاندارد با پایه 100 است. > این بدان معناست که مجموعه ای از باتری ها با درجه 200 باید دو برابر بیشتر از مصرف کنندگان عمر کنند. میانگین، به عنوان مجموعه ای از باتری های درجه بندی شده با پایه 100. > یک سازمان سازنده چینی می خواهد عمر باتری واقعی > باتری های با نام تجاری که ادعا می کنند دارای درجه بندی 200 هستند را تخمین بزند. نمونه تصادفی > n = 400 نشان دهنده میانگین عمر باتری نمونه 195.3 و انحراف استاندارد > 21.4 است. فاصله اطمینان 99% برای جمعیت میانگین باتری > عمر باتری های تولید شده توسط این سازنده با این نام تجاری > ساخته شده است. حاشیه خطا را در این تخمین بیابید. **تلاش من** >  | سوال خودآموزی در مورد حاشیه خطا |
69282 | آیا راهی برای تعیین دستی، اعتبارسنجی/تست و مجموعه آموزشی در nntool در متلب وجود دارد؟ در واقع، من می خواستم عملکرد nn را با افزایش تعداد نورون های پنهان آزمایش کنم. بنابراین کاری که من انجام میدهم این است که این تابع را net = newfit(train_data', targets', n) صدا بزنم. هر بار با افزایش تعداد نورون های پنهان. در نتیجه، حدس میزنم هر بار آموزش/اعتبار و مجموعه تست متفاوتی داشته باشد. آنچه من انتظار داشتم این بود که خطای آموزشی با افزایش تعداد نورون های لایه پنهان کاهش یابد. اما چیزی که مشاهده کردم در ابتدا خطای آموزشی شروع به افزایش کرد اما بعد از 5 نورون شروع به افزایش کرد که عجیب است. پیشنهادی دارید؟ | نحوه تعیین اعتبار / آموزش و مجموعه تست در nntool در متلب |
96247 | من سعی میکنم تابع خطای میانگین مربع تعریف شده را بهصورت زیر به حداقل برسانم: $E\left[Y - f(X)\right]^2$ رویه کوچکسازی را از منابع مختلف آنلاین خلاصه کردم (به عنوان مثال، URL 1 (ص 4)، URL 2 (ص 8)) در سطور زیر. ابتدا $E[Y | را اضافه و کم کنید X]$: $E\left[\left\lbrace(Y - E[Y | X]) - (f(X) - E[Y|X])\right\rbrace^2\right]$ گسترش درجه دوم بازده: $E\left[\left(Y - E[Y|X]\right)^2 + \left(f(X) - E[Y|X]\right)^2 - 2 \left(Y - E[Y|X]\right)\left(f(X) - E[Y|X]\right)\right]$ انتخاب $f(X)$ بر ترم اول تأثیر نمی گذارد. عبارت سوم $0$ است، بنابراین اگر $f(X) = E(Y|X)$ کل عبارت به حداقل برسد. سوال 1: نمی دانم انگیزه جمع و تفریق $E[Y | چیست X]$ در اولین مرحله از روش؟ سوال 2: چگونه به زبان انگلیسی ساده توضیح دهیم که چرا ترم سوم در درجه دوم 0$ است؟ | درک کمینه سازی تابع خطای میانگین مربعات |
94083 | اگر من دو متغیر مستقل داشته باشم و آنها به همراه سایر متغیرهای مستقل متغیر ساختگی باشند و یک مدل احتمال خطی را اجرا کنم، می خواهم مقایسه کنم که آیا ضرایب دو متغیر ساختگی از نظر آماری با یکدیگر متفاوت هستند یا خیر. من نمی دانم چگونه آن را مقایسه کنم. آیا کسی می تواند در این مورد به من کمک کند؟ | چگونه می توان مقایسه کرد که آیا ضرایب دو متغیر مستقل از نظر آماری با یکدیگر متفاوت هستند؟ |
11508 | وقتی میخواهم اهمیتها را تفسیر کنم، چه کاری باید انجام دهم، اگرچه میدانم که خطاهای استاندارد به دلیل فرضیات اشتباه عبارت خطا مغرضانه هستند؟ من می دانم که امکان استفاده از برآوردگرهای سفید، OLS وزنی وجود دارد. اما استادم به من گفت که این کار را نکن. شاید برخی اطلاعات اضافی: 1.) من در حال تجزیه و تحلیل یک OLS با یک دسته کامل از متغیرهای ساختگی هستم. 3.) فرض عبارات خطای توزیع شده نرمال اشتباه است (توزیع t هستند) و ناهمسانی رخ می دهد. 4.) من در حال انجام تجزیه و تحلیل مقطعی هستم 5.) من تعامل زیادی در مدل دارم. و اکثر متغیرها غیر معنی دار هستند (p-value در حدود 0.8 به طوری که ضرایب نزدیک به صفر هستند). پروفسور من نمی خواهد که من از شر این متغیرها خلاص شوم، اگرچه آنها قابل توجه نیستند (او گفت که این راه خوبی نیست، زیرا حذف گام به گام به دلیل حذف متغیرهای اشتباه و انتخاب معیارهای مناسب مشکل است). از یک طرف می فهمم که چرا هیچ راهی برای تفسیر اهمیت وجود ندارد. اما از سوی دیگر باعث می شود که تفسیر آسان تر نباشد. مطمئناً می توانم مدل را تغییر دهم، اما قبل از اینکه اجازه تعویض پیدا کنم، اول باید OLS را انجام دهم! | وقتی خطاهای استاندارد آشکارا بایاس هستند، با مقادیر p چه باید کرد؟ |
94089 | من شروع به استفاده از تابع «چندجملهای» از بسته «nnet» «R» کردم تا بتوانم چندین توزیع احتمال شرطی را با مدل لجستیک چند جملهای برازش دهم. من به پارامترهای اتصالات نیاز دارم تا آنها را به یک برنامه جاوا منتقل کنم، که احتمالات را محاسبه کرده و از آنها استفاده می کند. مشکل من این است که احتمالات محاسبه شده با پارامترهای برگردانده شده توسط «چندجمله ای»، به دنبال تعریف معمول مدل لجستیک چند جمله ای، با احتمالاتی که مستقیماً در «R» محاسبه می شوند، که درست هستند، یکسان نیستند. در Stack Overflow من قبلاً یک سؤال در مورد این موضوع پرسیده ام، اما هنوز نمی دانم که تابع 'R' چگونه این احتمالات را محاسبه می کند 'multinom'. حدس من این است که به شبکههای عصبی متکی است، زیرا این تابع متعلق به پکیج R است. آیا بسته R را می شناسید که با احتمالات شرطی مطابقت داشته باشد و پارامترهای مربوط به مدل را برمی گرداند تا بتوانیم به راحتی احتمالات را در برنامه دیگری محاسبه کنیم؟ به عنوان مثال، استفاده از مدل MARS («زمین» بسته «R») یا رگرسیون تعقیب فرافکنی («پکیج R» «ppr») امکانپذیر نیست، زیرا محاسبه احتمالات از روی پارامترهای این مدلها مشکل ساز خواهد بود. علاوه بر این، تابع mlogit از بسته R با همین نام نیز قابل اجرا نیست، زیرا مجموعه داده باید در قالب خاصی باشد (ما همچنین به پیش بینی کننده های مربوط به پاسخ جایگزین، غیر انتخابی نیاز داریم. متغیر). | چگونه می توان پارامترهای درست مدل لاجیت چند جمله ای (یا سایر مدل های شرطی) را در R بدست آورد؟ |
89334 | من اطلاعاتی در مورد نمرات کسب شده در یک دوره در سه سال متوالی دارم. توزیع نمره شامل تعداد دانش آموزانی است که موفق به دریافت نمره شکست، قبولی، اعتبار، تمایز و تمایز بالا شده اند. من باید بررسی کنم که آیا نسبت دانشآموزانی که موفق به کسب مجوز میشوند (یا شکست میخورند، اعتبار، و غیره) یکسان است یا در بین سه گروه متفاوت است. چگونه می توانم این کار را انجام دهم؟ از چه نوع تستی استفاده کنم؟ | تجزیه و تحلیل توزیع درجه: تفاوت در نسبت در طول سال |
38309 | اگر دادههای بقای عاری از بیماری داشته باشم (تعریف میشود به این صورت که آیا بیماری خاصی تشخیص داده شده است یا نه همراه با زمان آن رویداد یا از دست دادن پیگیری) و همچنین دادههای بقای کلی، چگونه با مرگهایی که بدون این اتفاق میافتند برخورد کنم. رویداد بیماری؟ آیا اینها سانسور شده اند یا باید چنین بیمارانی را از تجزیه و تحلیل بقای بدون بیماری (dfs) حذف کنم؟ من قصد دارم تجزیه و تحلیل های dfs را برای چندین نوع خاص بیماری به طور جداگانه اجرا کنم. | چگونه با مرگ در تجزیه و تحلیل بقای بدون بیماری مقابله کنیم؟ |
81681 | من حدود 3e3 نقطه داده دو بعدی دارم، x, d 1 1, 0.1 2 3, 0.1 3 2, 0.2 4 1, 0.5 range(x) = [-600, 600], range(d) = [0, 1] ما سعی می کنیم «d» را با یک مدل احتمال مدل کنیم. من معتقدم توزیع d باید به x وابسته باشد. بنابراین من میخواهم $Pr(d|x)$ را به جای $Pr(d)$ مدل کنم. برای انجام این کار، من اکنون از توزیع چگالی هسته برای تخمین توزیع مشترک $Pr(d, x)$ و تقسیم آن بر $Pr(x)$ استفاده می کنم. با این حال، تعداد دادهها برای مدلسازی $Pr(d)$ با تخمین چگالی هسته کافی است در حالی که برای مدل $Pr(d,x)$ کافی نیست. بنابراین من در مورد این متعجب هستم: ** آیا مدلی پیشنهاد می کنید که بتواند بدون مدل سازی توزیع مشترک، به صورت شرطی مدل `d` را ارائه دهد؟** افکار زیر را دارم: می توانم از SVM برای مقابله با موارد کوتاه استفاده کنم. داده ها با این حال آیا راهی برای آموزش SVM مشروط وجود دارد؟ | چگونه یک احتمال شرطی را بدون تخمین PDF مشترک مدل کنیم؟ |
105654 | من دادههای زیر را دارم: ضبط صوتی فراصوت، و دادههای خام آن نمونهها و البته دادههای تبدیل فوریه برای آن نمونهها را دارم. به هر مجموعه داده یک مقدار اختصاص داده شده است (مثلاً 7.2 واحد)، و من به نوعی الگوریتم نیاز دارم که انتخاب کند از کدام فرکانس برای رسیدن به آن مقدار استفاده کنم. من حدود 100 نمونه داده دارم و به فرکانس های 1 مگاهرتز تا 80 مگاهرتز نگاه می کنم (در گام های 100 کیلوهرتز، بنابراین در کل 790 ویژگی حدس می زنم). چرا باید چه الگوریتمی را انتخاب کنم؟ | نحوه انتخاب الگوریتم یادگیری ماشین با نظارت مناسب |
65106 | من در حال انجام رگرسیون لجستیک هستم و برای تفسیر کمک می خواهم. داده های من در 2 نقطه زمانی جمع آوری شد. پایه و پیگیری متغیر نتیجه من یک متغیر عملکرد روانی اجتماعی است (به عنوان مثال کار می کند یا کار نمی کند) در پیگیری. در مرحله 1 من متغیر عملکرد را در ابتدا وارد کردم. در مرحله 2 و 3 تعدادی از متغیرهای کمکی مانند جنس، سن، SES، متغیرهای آسیب شناسی روانی (دوگانه) را وارد کردم. در مرحله 4 یک متغیر پیوسته وارد کردم که امتیاز تفاوت BPD است و ابعادی است. بنابراین مشکل من با تفسیر است. اگر متوجه شوم که مرحله 4 معنیدار است و امتیاز تفاوت BPD به طور قابلتوجهی کار در زمان 2 را پیشبینی میکند. اگر این یک رگرسیون خطی بود، میتوانم بگویم که بهبودی در کار وجود دارد زیرا کار در خط پایه کنترل میشد. اما وقتی متغیر دوگانه را در مرحله 1 (کار در خط مبنا) در یک رگرسیون لجستیک کنترل میکنم، نمیدانم چگونه آن را تفسیر کنم. آیا این منطقی است؟ من تجزیه و تحلیل را در SPSS انجام داده ام. بابت پاسخ شما متشکرم و به خاطر بی تجربگی و سوال ساده احتمالی ام عذرخواهی می کنم، تمام تلاشم را می کنم تا آن را بفهمم اما بدون کمک نمی توانم آن را بفهمم. | رگرسیون لجستیک با استفاده از 2 نقطه زمانی |
11500 | مشکلی که من در اینجا سعی در حل آن دارم بسیار ساده است اما داده های موجود بسیار محدود است. که حل آن را سخت می کند. داده های موجود به شرح زیر است: 1. من 100 بیمار دارم و باید آنها را از نظر سلامتی رتبه بندی کنم. 2. من فقط 5 اندازه گیری برای هر بیمار دارم. هر یک از پنج قرائت به عنوان یک مقدار عددی کدگذاری شده است، و قانون این است که هر چه قرائت بزرگتر باشد، بیمار سالم تر است. اگر من باید نوعی «رتبهبندی مبتنی بر قضاوت متخصص» پزشک داشته باشم، میتوانم از آن به عنوان متغیر هدف استفاده کنم و با نوعی مدل رگرسیون لجستیک ترتیبی که سعی در پیشبینی ارزیابی پزشک دارد، مناسب کنم. با این حال، من آن را ندارم. تنها چیزی که دارم (1) و (2) است. چگونه میتوانید یک الگوریتم ساده «نمرهگذاری» ایجاد کنید که این پنج اندازهگیری را در یک نمره واحد ترکیب کند که در رتبهبندی بیماران به اندازه کافی خوب (نه کامل) باشد؟ | ایجاد یک شاخص بر اساس مجموعه ای از اندازه گیری ها بدون هدف به منظور رتبه بندی |
93749 | من روی یک مدل هزینه پیشبینی کار میکنم که در آن سن بیمار (یک کمیت صحیح که در سال اندازهگیری میشود) یکی از متغیرهای پیشبینیکننده است. یک رابطه غیرخطی قوی بین سن و خطر بستری شدن در بیمارستان مشهود است:  من یک اسپلاین صاف کننده رگرسیون جریمه شده را برای بیمار در نظر می گیرم. سن طبق _The Elements of Statistical Learning_ (Hastie et al, 2009, p.151)، قرارگیری بهینه گره یک گره به ازای هر مقدار منحصر به فرد سن عضو است. با توجه به اینکه من سن را به عنوان یک عدد صحیح حفظ میکنم، آیا اسپلاین هموارسازی جریمهشده معادل اجرای یک رگرسیون یا کمند با 101 متغیر شاخص سنی متمایز است، یک متغیر برای هر سن در مجموعه داده (منهای یک برای مرجع)؟ سپس از پارامترسازی بیش از حد اجتناب می شود زیرا ضرایب در هر شاخص سن به سمت صفر کاهش می یابد. | انتخاب k گره در رگرسیون هموار spline معادل k متغیرهای طبقه بندی؟ |
89083 | من روی یک وظیفه ابهامزدایی حس کلمه کار میکنم و مجموعه دادهای متشکل از جملات برچسبگذاری شده برای دو معنای کلمه خط دارم. من سعی می کنم کلمات محرک را پیدا کنم که در تعیین معنای کلمه مبهم در صورت وجود آن در جمله خوب باشد. بنابراین، برای هر کلمه در داده های آموزشی خود (به جز کلمه مبهم خط) سعی می کنم مقادیر P(sense_1 | word) و P(sense_2 | word) را محاسبه کنم، می توانم به دو روش برای محاسبه آن فکر کنم و هر دوی آنها را محاسبه کنم. برای من حس اولین مورد P(sense_i | word)=count(word,sense_i)/count(word) است اما سپس قانون Bayes نیز وجود دارد P(sense_i|word)=P(sense_i)P(word|sense_i)=[count(sense_i) )/total_examples] * [count(word,sense_i)/[sum_w count(w,sense_i)]] که در آن اولین برابری به معنای در نظر گرفته شده است متناسب من فکر نمی کنم که آنها معادل هستند، پس آیا ریاضی برای یکی از آنها اشتباه است؟ | تفاوت بین این دو احتمال چیست؟ |
90978 | من دو دوره زمانی را نمونهبرداری کردم: * $X=shardNoise+noise_X$ * $Y=signal+\beta*sharedNoise+noise_Y$ ($signal$، $sharedNoise$، $noise_X$ و $noise_Y$ مستقل از یکدیگر هستند) هدف من این است برای 'بازگشت' $sharedNoise$ از $y$، بنابراین تخمین من از $signal$ تحت تاثیر قرار نمی گیرد آن را یک رویکرد ساده استفاده از یک رگرسیون خطی است: $\hat{y}=\hat{\beta}x$ و سپس با محاسبه $y-\hat{y}$ 'regress-out'. متأسفانه، نتیجه این رویکرد ضعیف است - «بقایای» واضحی از $sharedNoise$ در $y-\hat{y}$ وجود دارد. من فکر می کنم که این کمبود به دلیل وجود $noise_X$ ایجاد می شود. به عنوان مثال، افزایش دامنه $noise_X$ را تا بی نهایت در نظر بگیرید - که $\hat{\beta}$ را به صفر می رساند. * آیا راه بهتری برای حل این مشکل وجود دارد؟ حدس میزنم که بسیاری به ICA (تحلیل مؤلفههای مستقل) فکر میکنند، اما من یک رویکرد نظارتشده را ترجیح میدهم که در آن نیازی به حدس زدن کدام مؤلفه مخفف $sharedNoise$ نباشد. * آیا چنین رویکرد نظارتی می تواند به مواردی که در آن چندین X و Y وجود دارد تعمیم یابد؟ (همه شامل ترکیبات مختلف $sharedNoise$ به اضافه مقداری سیگنال محلی و/یا نویز). | شکست در پسرفت؟ |
97193 | من سعی می کنم بفهمم در رگرسیون پواسون چه اتفاقی می افتد. من متغیرهای زیر را دارم: متغیر وابسته: تراکنش ها (تعداد تراکنش ها (پیوسته)). متغیرهای مستقل: تحصیلات (سالهای تحصیل (پیوسته))، جنس (دودویی)، سلامت (وضعیت سلامت)، درآمد (مستمر) غیر از حقوق، وام (دودویی (بله خیر)). من مدل زیر را ایجاد می کنم (مدل 1 را در زیر ببینید). آنچه من می دانم: بیش از پراکندگی وجود دارد و 2 متغیر در فاصله اطمینان 95٪ معنی دار نیستند. من می دانم که هیچ گیج کننده ای وجود ندارد! و همبستگی بسیار کم بین اصطلاحات، مدل دومی را با یک عبارت تعاملی ایجاد می کنم. و ناگهان همه چیز بسیار مهم می شود، به جز رابطه جنسی. برآوردها تغییر می کند. آیا این به این دلیل است که اصطلاح تعامل باعث سردرگمی می شود؟ یا چه توضیحی می تواند داشته باشد؟ چگونه می توانم بررسی کنم که کدام مدل به بهترین وجه با داده ها مطابقت دارد؟ \----------مدل 1------------------------------------- -------------------------------- glm(فرمول = معاملات ~ حقوق + تحصیلات + فاکتور (جنس) + فاکتور (سلامتی) ) + درآمد + فاکتور(وام)، خانواده = سم) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -3.9632 -1.9344 -0.6717 0.5504 12.6591 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -0.413667 0.269088 -1.537 0.124221 حقوق و دستمزد 0.004367 0.001303 3.352 0.000801 *** آموزش -0.05010706. 0.074302 . فاکتور(جنس) 1 0.041353 0.027840 1.485 0.137450 فاکتور (سلامت) 1 1.133173 0.030301 37.397 < 2e-16 *** درآمد 0.149229 0.149229 0.036 0.04-40 factor(loan)1 -0.140154 0.026550 -5.279 1.30e-07 *** Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson برابر با 1) انحراف صفر: 8848.8 در 2226 درجه آزادی انحراف باقیمانده: 7419. 2220 درجه آزادی AIC: 11899 تعداد تکرارهای امتیازدهی فیشر: 5 \------------------------------------------------------------------------- ----------- `تماس: glm (فرمول = معاملات ~ حقوق + تحصیلات + فاکتور (جنس) + تحصیلات: درآمد + فاکتور (سلامت) + درآمد + فاکتور (وام) Family = Poisson) Deviance Residuals: Min 1Q Median 3Q Max -3.9828 -1.9270 -0.6606 0.5475 12.6271 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -6.663294 1.370830 -4.861 1.17e-06 *** حقوق و دستمزد 0.004822 0.001305 3.694 0.00022 *** آموزش 0.51075.204 4.88e-06 *** فاکتور(جنس) 1 0.043472 0.027839 1.562 0.11840 فاکتور(سلامت) 1 1.130069 0.030289 37.310 < 2e-16 *** 8 درآمد 0.901 0.95 6.96e-08 *** factor(loan)1 -0.137008 0.026557 -5.159 2.48e-07 *** Education:income -0.071936 0.015443 -4.658 3.19e-06 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson 1 گرفته شده است) انحراف صفر: 8848.8 در 2226 درجه آزادی انحراف باقیمانده: 7397. 2219 درجه آزادی AIC: 11879 تعداد تکرارهای امتیازدهی فیشر: 5}` | تعامل در رگرسیون پواسون |
90976 | من نحوه محاسبه تبدیل فاصله برای تصویر BW را میدانم. اما من نمی دانم چگونه آن را برای GrayScale و RGB (Color) Image محاسبه کنم؟ و هدف از محاسبه DT چیست؟ چه چیزی می توانیم با اطلاعات DT استفاده کنیم؟ | تبدیل فاصله در تصویر؟ |
69283 | مطالعه من در حال ارزیابی این است که آیا بین دو وضعیت پزشکی (اندومتریوز) و اختلالات خونریزی همبستگی وجود دارد یا خیر. شرکت کنندگان مورد آندومتریوز دارند و گروه کنترل ندارند. در هر دو مورد و شاهد، ما در حال اندازه گیری تعدادی از متغیرهای هموستاتیک مختلف (سطح فاکتور لخته شدن، تعداد پلاکت، عملکرد پلاکت) هستیم که مقادیر عددی پیوسته معمولاً بین 0-150 هستند. ما تقریباً 8 متغیر مختلف را اندازه گیری می کنیم. من می خواهم بتوانم تفاوت قابل توجهی را در میانگین و دامنه بین موارد و کنترل ها نشان دهم. آیا می دانید، تخمین حجم نمونه تقریبا چقدر خواهد بود؟ خیلی ممنون، جوانا | محاسبه توان برای مطالعه مورد شاهدی |
46176 | این یک سوال بسیار اساسی در مورد استفاده از R برای طبقه بندی است. من سعی می کنم از rpart برای کار طبقه بندی استفاده کنم و در نتیجه می خواهم یک برچسب کلاس داشته باشم، یعنی از type=class در پیش بینی متد پیش بینی استفاده می کنم (درخت، داده، نوع = کلاس) برچسب های کلاس عبارتند از 0 و 1. وقتی میخواهم یک مشاهده را طبقهبندی کنم، چیزی شبیه به این میگیرم: 1 0 سطح: 0 1 همانطور که میدانم این عاملی است با 2 سطح: 0 و 1. با این حال، چرا 2 عدد گزارش شده است و دقیقاً چه کلاسی اختصاص داده شده است. به این مشاهده؟ | درک عوامل بازگردانده شده توسط طبقه بندی RPart |
60559 | این آسان به نظر می رسد، اما من روش آماری خوبی برای آن نمی شناسم. من یک سری زمانی دارم که دارای نقاط داده (خوب) است که از ~3.5 تا 30 متغیر است. داده ها توسط یک سنسور خودکار جمع آوری می شوند. با این حال، اندازهگیریهای ناقصی در سریهای زمانی وجود دارد - سنسور گاهی اوقات مقادیری را میخواند که معمولاً دقیقاً 4.7 هستند. مثال (در R) 4.7، 11.1، 4.7، 8.8، 4.7، 6.4، 4.7، 9.1، 4.7، 9.1، 4.7، 9.7، 4.7، 7.8، 4.7، 7.2، 4.7، 6.2، 7.2، 4.7، 6.2، 4.7، 4.7، 4.7، 4.7. 9.6، 4.7، 7.9، 4.7، 9.2، 4.7، 8.1، 4.7، 7.4، 4.7، 7.6، 9.3، 4.7، 9.2، 4.7، 8.8، 4.7، 9.3، 4.7، 4.7، 9.3، 4.7، 4.7. 9.2، 4.7، 8.5، 4.7، 6.2، 4.7، 7.1، 4.7، 7.4، 4.7، 8.0، 4.7، 7.3، 4.7، 6.6، 4.7، 6.9، 4.7، 7.2، 4.7، 7.4، 7.7. 8.7، 4.7، 8.2، 4.7، 5.1، 4.7، 5.6، 4.7، 7.0، 4.7، 9.4، 4.7، 7.6، 4.7، 8.6، 4.7، 9.3، 4.7، 9.7، 4.7، 4.7، 9.7، 4.7، 4.7. 4.7، 10.9، 4.7، 10.2، 4.7، 10.0، 4.7، 8.3، 10.0، 8.7، 4.7، 10.2، 9.7، 4.7، 10.2، 4.7، 10.6، 4.7، 4.7، 10.6، 4.7، 4.7، . 10.6، 4.7، 10.6، 4.7، 11.6، 4.7، 11.4، 4.7، 10.2، 4.7، 10.3، 4.7، 10.0، 4.7، 9.3، 4.7، 9.1، 4.7، 4.7، 9.1، 4.7، 4.7. 7.2، 4.7، 10.4، 4.7، 10.4، 10.0، 4.7، 9.9، 4.7، 11.2، 9.5، 4.7، 11.5، 4.7، 11.5، 4.7، 11.1، 4.7، 11.1، 4.7، 4.7، 4.7. 11.4، 4.7، 11.2، 4.7، 9.9، 4.7، 11.6، 4.7، 14.4، 4.7، 11.5، 4.7، 11.1، 4.7، 11.3، 4.7، 10.9، 4.7، 10.9، 4.7، 10.9، 4.7، 4.7. 4.7، 10.9، 11.4، 4.7، 12.6، 4.7، 11.0، 11.3) plot(1:length(test), test, type=o) همانطور که می بینید، تقریباً هر نقطه دیگر 4.7 است. من نمیخواهم به دو دلیل از قانون هر مقداری که برابر با 4.7 است را بیرون بیاندازم استفاده کنم: 1) گاهی اوقات مقادیر واقعی به 4.7 نزدیک میشوند که با مشاهده شیب سری زمانی آشکار میشوند. منطقه 4.7 را تغییر داده و وارد کنید. 2) مقادیر بد همیشه _دقیقا_ 4.7 نیستند (تقریبا همیشه هستند، اما هیچ تضمینی وجود ندارد). این یک مشکل نسبتاً ساده به نظر می رسد، و من امیدوارم که کسی درباره یک رویکرد آماری که برای این مشکل مناسب باشد شنیده باشد. نتیجه مطلوب یک سری زمانی خواهد بود که در آن مقادیر بد از نظر آماری علامت گذاری شده اند (مثلاً با احتمال خطا). پیشنهادات؟ با تشکر ویرایش: من هنوز در حال بررسی دو پاسخ اول هستم. تمایل اولیه من این بود که دو حالت از سیستم را تعریف کنم: یک حالت اشتباه و یک حالت اندازه گیری شده. حالت اندازهگیری شده یک فرآیند مدلسازی شده را منعکس میکند (به عنوان مثال، AR). حالت اشتباه نشان دهنده دانش من است که مقادیر بد نزدیک به 4.7 هستند. هر دو حالت می توانند ~N()، با میانگین ها و sd های مناسب. در هر مرحله زمانی میتوانم احتمال هر یک از حالتها را محاسبه کنم و یک نسبت آستانه برای اعلام خطای obs تعریف کنم. این شبیه به 2 پاسخ است. برای این رویکرد، من در یافتن راهی گیر افتادهام که به مدل حالت اندازهگیری شده اجازه میدهم تا تخمینهایی را بدون تأثیرپذیری از مقادیر بد انجام دهد. با این حال، همانطور که در بالا ذکر شد، من هنوز دو رویکرد دیگر را در نظر میگیرم. | روش حذف مقادیر بد در سری های زمانی (مقادیر بد که مقدار خاصی را می گیرند) |
90979 | من این جمله را در یکی از کاغذها آوردم، اما معنی آن را متوجه نشدم؟ آموزش یک طبقه بندی کننده مبتنی بر یادگیری مانند SVM بر روی یک مجموعه داده نامتعادل اغلب نیاز به تنظیم دقیق پارامترها دارد و سیستم را کمتر عمومی می کند. | منظور از تنظیم دقیق پارامتر در SVM چیست؟ |
46173 | خودهمبستگی چیست و چگونه می تواند بر نتایج رگرسیون چندگانه در _**SPSS**_ تأثیر بگذارد. مقدار دوربین واتسون **1.04** قابل قبول است یا خیر؟ اگر این مقدار نتایج را تحت تأثیر قرار می دهد، پس چگونه می توان آن را در SPSS ** تصحیح کرد. | مشکل خود همبستگی در رگرسیون چندگانه در SPSS |
81680 | من کدی نوشته ام که اساساً کارهای زیر را انجام می دهد: - 1: ماتریسی از ویژگی های باینری و ماتریسی از ویژگی های مقیاس شده (در محدوده 0 تا 1) ایجاد می کند. 3: به صورت افقی یک بردار ردیف تصادفی را برای وزن های واحد بایاس و دو ماتریس وزن از مرحله 2 پشته می کند تا یک لایه ورودی اولیه ایجاد کند تا مخفی شود. ماتریس وزن لایه 4: ماتریس ویژگی های ورودی را در ماتریس از مرحله 3 ضرب می کند و از طریق لایه پنهان تابع لجستیک به جلو می رود تا یک خروجی لایه پنهان ایجاد کند 5: RBM روی خروجی لایه پنهان از مرحله 4 آموزش می دهد تا ماتریس وزن 6 به دست آید: به صورت افقی یک بردار ردیف تصادفی را برای وزن های واحد بایاس لایه پنهان و ماتریس وزن از مرحله 5 برای ایجاد یک تک و اولیه پشته می کند. لایه پنهان به ماتریس وزن Softmax 7: از ماتریس های وزن اولیه از مراحل 3 و 6 به جای مقداردهی اولیه تصادفی برای آموزش انتشار پس از شبکه عصبی Feedforward استفاده می کند. آموزش RBM؟ | آموزش ماشین های محدود بولتزمن با واحدهای تعصب |
46177 | من هنگام مطالعه روش Kaggle Essay Eval با تبدیل پایدارکننده واریانس مواجه شدم. آنها از یک تبدیل تثبیت واریانس برای تبدیل مقادیر کاپا قبل از گرفتن میانگین آنها و سپس تبدیل مجدد آنها استفاده می کنند. حتی پس از خواندن ویکی در مورد تبدیلهای تثبیتکننده واریانس، نمیتوانم بفهمم، چرا ما واقعاً واریانسها را تثبیت میکنیم؟ با این کار چه سودی می بریم؟ | چرا واریانس را تثبیت می کنیم؟ |
94084 | من به وزن های رگرسیون استاندارد شده (به عنوان مثال، وزن های بتا) نگاه می کنم. من به این فکر میکردم که خطاهای کنار وزنهها را در یک شکل گزارش کنم، اما پس از چندی فکر میکردم که آیا اصلاً چنین خطاهایی وجود دارد یا خیر. میدانم که وزنهای رگرسیون استاندارد نشده دارای پارامترهای خطای استاندارد هستند، اما آیا وزنهای رگرسیون استاندارد دارای شرایط خطا هستند؟ | آیا وزنهای بتا از رگرسیون دارای شرایط خطا هستند؟ |
91172 | من از تجزیه و تحلیل معنایی پنهان (LSA) برای استخراج موضوعات پنهان (یعنی ضریب چندجمله ای 1 * کلمه 1 + ضریب 2 * کلمه 2 + ...) از یک مجموعه خاص استفاده کردم. من می دانم که هر چه ضریب (مقدار مطلق) بزرگتر باشد، کلمه برای آن موضوع مهمتر است. اما آیا معیار بهتری وجود دارد؟ بسته gensim پایتون از این معیار استفاده میکند، اما هیچ کتاب درسی یا مقالهای پیدا نکردم که این موضوع را مورد بحث قرار دهد. هر گونه اشاره خواهد شد تا حد زیادی قدردانی! | چگونه کلمات برجسته پس از LSA را شناسایی کنیم؟ |
90971 | من مشکل زیر را دارم که دیوانه ام می کند. یک متغیر عادی سه متغیره را در نظر بگیرید، اجازه دهید $\sigma_1^2$، $\sigma_2^2$ و $\sigma_3^2$ واریانس سه جزء و $\rho_{1,2}$، $\rho_{1 باشد. ,3}$ و $\rho_{2,3}$ ضرایب همبستگی بین اجزا باشد. من می خواهم ماتریس کوواریانس متغیر نرمال سه متغیره را بدست بیاورم. برای من این یک کار بسیار ساده است اما یک مشکل وجود دارد... ماتریس کوواریانس $$ \left( \begin{array}{ccc} \sigma_1^2 & \sigma_1 \sigma_2 \rho_{1,2} است. & \sigma_1 \sigma_3 \rho_{1,3} \\\ \sigma_1 \sigma_2 \rho_{1,2} و \sigma_2^2 & \sigma_2 \sigma_3 \rho_{2,3} \\\ \sigma_1 \sigma_3 \rho_{1,3} & \sigma_2 \sigma_3 \rho_{2,3} & \sigma_3^2 \end{ array} \right) $$ اما اگر از مقدار زیر $\sigma_1^2=1$ استفاده کنم، $\sigma_2^2=1$، $\sigma_3^2=3$، $\rho_{1,2}=0.9$، $\rho_{1،3}=-0.9$ و $\rho_{2،3 }=0.1$، ماتریس کوواریانس $$ \left( \begin{array}{ccc} 1 & 0.9 & -1.5588457 \\\ 0.9 & 1 & 0.1732051\\\ -1.558846 &0.1732051 & 3 \end{array} \right) $$ قطعی مثبت نیست. به نظرم عجیب میاد... | ماتریس کوواریانس را با همبستگی ها و واریانس ها بدست آورید |
99336 | فرض کنید که $$ Y = b + aX + e$$ جایی که می دانید $E[Y|X] = b + aX$. آیا این درست است که مدل نمی تواند از سوگیری متغیر حذف شده رنج ببرد؟ اگر این درست باشد، نتیجه میشود که بایاس متغیر حذفشده همیشه میتواند به عنوان یک بایاس فرم تابعی در نظر گرفته شود (یعنی، تغییر شکل تابعی $f(X)$ باعث حذف بایاس میشود.) در اینجا دلیلی وجود دارد که چرا فکر میکنم این است. درست است. از آنجایی که $b + aX = E[Y|X]$، داریم که $$ E[e|X] = E[Y-b-aX|X]= E[Y - E[Y|X] |X] = E [Y|X] - E[E[Y|X] |X] = E[Y|X] - E[Y|X] = 0.$$ بنابراین، $e$ و $X$ همبستگی ندارند و وجود دارد متغیر حذف نشده است تعصب | آیا ممکن است رگرسیون شکل عملکردی مناسبی داشته باشد اما همچنان از سوگیری متغیر حذف شده رنج ببرد؟ |
90974 | درک من (نه خیلی عمیق) از نفرین ابعادی که بر الگوریتم طبقهبندی تأثیر میگذارد، مانند k-نزدیکترین همسایه، این است که در ابعاد بالاتر، «پراکندگی» فضای اقلیدسی وارد میشود (این را میتوان برای مثال با مقایسه حجم/محتوا/اندازهگیری توپ واحد با توجه به جعبه واحد) میخواستم بدانم آیا محققین روی منیفولدهای ریمانی غیر از فضای اقلیدسی (یا فضاهایی با سایر هنجارهای $L_p$ ($p \neq 2$)$^1$)، مثلاً با تانسور متریک $\sum g_{ij} dx^i \otimes dx^j$ که در آن ضرایب $g_ {ij}$ غیر ثابت هستند یا شاید حتی به داده ها وابسته هستند؟ 1. Aggarwal C. C.، Hinneburg A.، Keim، D. A. (2001)، در مورد رفتار شگفت انگیز متریک های فاصله در فضای با ابعاد بالا | آیا با تغییر تانسور متریک می توان نفرین ابعاد را حل کرد؟ |
46175 | من از رگرسیون لجستیک باینری استفاده می کنم. متغیر وابسته 1 یا 0 است. متغیرهای مستقل دو گروه هستند: گروه اول شامل متغیرهای پیوسته (LNTA: لگارتیم کل دارایی ها، ROA: بازده دارایی ها و اهرم؛ گروه دوم شامل متغیرهای طبقه بندی شده است (نوع حسابرس: 1 یا 0، «بخش صنعت: 1،2،3، و 4»، «کشور: 1، 2، 3، 4، 5، 6، 7، 8، 9 و 10»)، و در نهایت «منطقه: 1 یا 2»، مشکل این است که وقتی همه این متغیرهای مستقل را کنار هم می گذارم، فقط برای 8 کشور به دست می آورم نه برای 9 کشور که من 10 کشور دارم و در جدول نتایج فقط 9 کشور به عنوان کشور شماره 10 رده مرجع است، اما این مورد متفاوت است زیرا هر دو کشور 9 و 10 در جدول گنجانده نشده اند. | چگونه می توانم خروجی رگرسیون لجستیک را برای متغیرهای طبقه بندی تفسیر کنم وقتی دو دسته از دست رفته اند؟ |
97196 | نظر شما در مورد نتیجه مدل آریمای من چیست؟ آیا باید مدل را عوض کنم؟ من نمی خواهم آن را تغییر دهم زیرا بهترین چیزی است که من دارم، اما مقادیر p خوب به نظر نمی رسند | تجزیه و تحلیل نتایج Tsdiag کمک می کند |
45485 | من میخواهم سریهای زمانی غیرایستا را پیشبینی کنم که شامل چندین فرض پیشینی حیاتی است که از مطالعه نمونههایی از این سریها بهدست میآیند. 1. من تابع توزیع احتمال یک نقطهای میانگین زمان را ساختهام که با توزیع نرمال تقریب شده است. $$\hat p(x) = \frac{1}{\sqrt{2\pi \sigma^2_{\infty}}} \exp\left(-\frac{x^2}{2\sigma^2_ {\infty}}\right)$$ از این منظر، من میخواهم پیشبینی $z_t(l)$ از این مقدار بیشتر نباشد وقتی $l \to \infty$. به عبارت دیگر، واریانس $z_t(l)$ باید محدود شود. 2. ~~ تابع توزیع احتمال دو نقطه ای میانگین $\hat p(x_i,i;x_j,j)$ نیز ساخته شده است که منجر به شناسایی تابع همبستگی خودکار شد. $\rho(j) \approx A j^{-\alpha} $ ارائه شد $0 <\alpha<0.5$.~~ در ابتدا، فرآیند شناسایی Box-Jenkins من را به مدل $ARIMA(0,1,3)$ هدایت کرد ، اما 1. من نمی توانم واریانس محدود را تا $d \ne 0$ (که از معادلات برای وزن های BJ $\psi_j$ بدست می آید) داشته باشم. در عین حال، من نمیتوانم از $d=0$ استفاده کنم زیرا همبستگی خودکار اولیه به آرامی کاهش مییابد (که احتمالاً شواهدی از غیر ثابت بودن طبق BJ است). این مانع اصلی من است. 2. از نظر بصری، شبیه سازی $ARIMA(0,1,3)$ با رفتار نمونه های من مطابقت ندارد. و همبستگی های تفاوت اول سری در تطابق بد با همبستگی های حاصل از مدل است. 3. تجزیه و تحلیل باقیمانده همبستگی های قابل توجهی را نشان می دهد که تاخیر 3 شروع می شود. به همین دلیل است که اظهارات اولیه من در مورد $ARIMA(0,1,3)$ نادرست است. در تلاش برای تطبیق مدلهای مختلف $ARIMA(p,0,0)$، میبینم که همبستگیهای باقیمانده قابل توجهی نزدیک به تاخیر $p$ برای هر $p$ وجود دارد. ممکن است فرض شود که من به مدل $ARIMA(\infty,0,q)$ نیاز دارم (به عنوان انتخاب محدود)، به عنوان مثال ARIMA کسری. از [1] من در مورد مدل های $ARIMA(p,d,q)$ کسری که $ARIMA(\infty,0,q)$ هستند یاد گرفتم. 1. من هیچ بسته GNU R با پشتیبانی از مقادیر گمشده برای این مورد پیدا نکردم. به نظر می رسد از دست دادن ارزش ها نوعی چالش است. 2. انتشارات مربوط به ARIMA کسری بسیار نادر است. آیا واقعاً از چنین مدل های کسری استفاده می شود؟ شاید جایگزین خوبی برای مدل های ARIMA برای نیازهای من وجود داشته باشد؟ پیش بینی رشته من نیست، من فقط علاقه عملگرایانه دارم. 3. از ادبیات مختلف (مثلا [2])، آموختم که تصمیم گیری بین ARIMA کسری و مدل هایی با تغییر سطح عملا غیرممکن است. با این حال، من بستهای برای GNU R پیدا نکردم که با مدلهای «تغییر سطح» مطابقت داشته باشد. [1]: Granger, Joyeux.: J. of time series anal. جلد 1 نه 1 1980, p.15 [2]: Grassi, de Magistris.: وقتی حافظه طولانی با فیلتر کالمن برخورد می کند: مطالعه مقایسه ای، آمار محاسباتی و تجزیه و تحلیل داده ها، 2012، در دست چاپ. **به روز رسانی:** برای ارائه پیشرفت خودم و پاسخ دادن به @IrishStat بیانیه من در مورد توزیع احتمال دو نقطه ای به طور کلی نادرست است. به این ترتیب تابع به طول سری کامل بستگی دارد. بنابراین، چیزهای کمی برای استخراج از این وجود دارد. حداقل، پارامتری به نام $\alpha$ به طول سری کامل بستگی دارد. لیست 2 و 3 نیز به روز شده است. اطلاعات من به عنوان فایل dat در اینجا موجود است. در حال حاضر بین FARIMA و تغییر سطح شک دارم و هنوز نرم افزار مناسبی برای بررسی این گزینه ها پیدا نکردم. این نیز اولین تجربه من در شناسایی مدل است، بنابراین هرگونه کمکی قدردانی خواهد شد. | پیش بینی سری های زمانی غیر ثابت |
45489 | من از رگرسیون توبیت استفاده کردم و می خواستم بررسی کنم که آیا ضرایب معنی دار هستند یا خیر. مشکل این است که وقتی کد R را اجرا می کنم، به جای z-values، t-values دریافت می کنم. من کدی در مورد نحوه محاسبه p-values برای z-values پیدا کردم و نمی دانم که آیا می توانید از همان کدی برای t-values استفاده کنید که برای z-values برای محاسبه p-values استفاده می کنید. **این کد زمانی است که z-values دارید:** ctable <- coef(summary(m)) pvals <- 2 * pt(abs(ctable[, z value]), df.residual(m ، low.tail = FALSE) cbind(ctable, pvals) **این کدی است که برای مقادیر t استفاده کردم:** ctable <- coef(summary(m)) pvals <- 2 * pt(abs(ctable[، t value])، df.residual(m)، bottom.tail = FALSE) cbind(ctable، pvals) Value Std. خطای t مقدار pvals (Intercept): 1 209.559678 32.50165463 6.447662 3.327237e-10 (Intercept): 2 4.184758 0.05227107 80.0587283-469 read. 2.697963 0.62024382 4.349843 1.737355e-05 ریاضی 5.914589 0.70502334 8.389210 8.842612e-16 proggeneral -1448714 -14.714 -1.028268 3.044547e-01 progvocational -46.143265 13.65615960 -3.378934 8.002457e-04 | مقادیر p را از t-values بدست آورید |
46172 | من در تحقیقم دو متغیر دارم. اولی تعهد مدیران و دومی رضایت کارکنان است. بنابراین ما دو جامعه و دو پرسشنامه داریم، یکی برای مدیران و دیگری با سوالات متفاوت برای پرسنل. علاوه بر این، تعداد مدیران با تعداد پرسنل متفاوت است. چگونه می توانم همبستگی و رگرسیون بین این دو جامعه را به عنوان یک جامعه با دو متغیر محاسبه کنم؟ با تشکر | دو پرسشنامه، دو متغیر، دو جامعه اما یک همبستگی |
69289 | فرض کنید $X$ نمونه ای از توزیع باشد که مخلوطی از سیگنال مفید با توزیع $\xi(\theta)$ و یک نویز یکنواخت $U[a, b]$ است. احتمال مشاهده $U[a, b]$، پارامترهای $a$ و $b$ مشخص نیست. من می خواهم $\theta$ را تخمین بزنم. چگونه آن را انجام دهم؟ منظور من از مخلوط، میانگین وزنی توابع چگالی احتمال است | نحوه استخراج نویز یکنواخت از توزیع مخلوط |
45481 | یکی از جدیترین کاستیهای کوواریانس/همبستگی، مفروضات خطی بودن و نرمال بودن است. وقتی میخواهید ساختار وابستگی رویدادهای شدید را با استفاده از توزیعهای دم سنگین مدلسازی کنید، طبیعیترین تعمیم این معیارهای وابستگی چیست. توزیع ارزش شدید تعمیم یافته؟ منظور من از طبیعی ترین تعمیم این است که کوواریانس/همبستگی کلاسیک به عنوان یک مورد خاص در مفروضات معمول گنجانده می شود. (افشای: پس از اینکه نزدیک به دو هفته هیچ پاسخی دریافت نکردم، این سوال را نیز در Quantitative Finance ارسال کردم) | طبیعی ترین تعمیم کوواریانس / همبستگی به مدل وابستگی رویدادهای شدید |
45482 | کاری که من میخواهم انجام دهم این است که مدل GARCH(1,1) زیر را در «R» با تابع garchFit از بسته «fGarch» تخمین بزنم: * * * معادله میانگین: $Y_t = a + bX_t + e_t$e_t = z_th_t^{0.5}$ $e_t \sim N(0,h_t)$, $z_t \sim N(0,1)$ واریانس معادله: $h_t = \omega + k_0e^2_{t-1} + k_1h_{t-1}$ * * * در بالا، $Y_t$ پاسخ معادله میانگین من و $X_t$ پیش بینی کننده است. من این معادله را در چارچوب GARCH به دلیل ناهمسانی باقیمانده ها تخمین می زنم. من تخمینهایی از معادله میانگین و معادله واریانس را میخواهم (مشابه آنچه 'EViws' ارائه میدهد). با این حال، تابع garchFit دو ورودی دارد که من نگران آنها هستم: * _فرمول - ARMA(m,n) + GARCH/APARCH(p,q) میانگین و مشخصات واریانس_ همانطور که در معادلات من می بینید، معادله میانگین من _not_ است. از فرم ARMA(m,n). * داده - هر سری زمانی تک متغیره ای که می تواند با استفاده از تابع عمومی as.timeSeries به یک timeSeries تبدیل شود. بنابراین نباید تک متغیره باشد. اگر این مدل را از طریق EViws قرار دهم، تخمین پارامترهای $a$ و $b$ را به من می دهد. این چیزی است که من می خواهم، اما در R. در «R»، میتوانم «garchFit(data=Y)» را انجام دهم (که در آن «Y» ستون $Y_t$ است)، و GARCH(1,1) را روی $Y_t = \mu(Y) انجام میدهد. ) + e_t$; اما در معادله میانگینی که می خواهم به من $a$ یا $b$ نمی دهد! | چگونه GARCH را در R تخمین بزنیم؟ (متغیرهای برونزا در معادله میانگین) |
99331 | هنگام استفاده از تحلیل همبستگی متعارف (CCA)، میتوانیم مجموعه داده و اطلاعات برچسب را از طریق تبدیل ماتریس برچسب کلاس _Y_ به ماتریس نشانگر کلاس _T_ ادغام کنیم. مانند: $T = (YY^T)^½Y$ در این مقاله در LS CCA. در حالی که برای مجموعه داده عددی و مجموعه داده باینری، مجموعه داده باینری را می توان به عنوان ماتریس برچسب کلاس مشاهده کرد و به ماتریس نشانگر کلاس تبدیل کرد. بعد از آن باید از CCA استفاده کنم؟ اگرچه بدون این تبدیل، میتوان از CCA استفاده کرد، اما میخواهم بدانم چگونه می توان این نوع تبدیل را یک بار در مجموعه داده باینری (نه ماتریس برچسب) توضیح داد. متشکرم. | منظور از ماتریس نشانگر کلاس هنگام تبدیل ماتریس برچسب کلاس به آن در تحلیل همبستگی متعارف چیست؟ |
17219 | من سعی می کنم شهودی را ایجاد کنم که چرا رگرسیون L1 گران تر از رگرسیون L2 است. آیا کسی می تواند مطالبی را به من نشان دهد که دلیل این امر را توضیح دهد | رگرسیون L1 در مقابل رگرسیون L2 |
60557 | من مجموعههای زمانی زیر را با سرعت 5000 نمونه در ثانیه به مدت 10 دقیقه ضبط کردهام: از فواصل تناوبی که در مصرف فعلی بیشتر هستند، همانطور که در تصویر زیر نشان داده شده است: https://docs.google.com/file/d/0ByIzsQrgb6ILNXRJemtSTkhKRlk/edit?usp=sharing این بخش های دوره ای هر 120 ثانیه یک بار می آیند. با این حال، مدت فاصله آنها ثابت نیست، یعنی می توانید متوجه شوید که چگونه عرض تغییر می کند. بنابراین من می خواهم نقطه شروع و پایان را به دست بیاورم تا بتوانم آن بخش را استخراج کنم و روی آن تحلیل انجام دهم. در اینجا سه بازه به صورت دستی استخراج و ترسیم شده است: docs.google.com/file/d/0ByIzsQrgb6ILd241d2poMjc2SFU/edit?usp=sharing من کارهای مختلفی را برای استخراج این بخش امتحان کردم اما موفق نشدم. شاید در کل روش های اشتباهی را دنبال می کنم. من این کار را در متلب انجام می دهم و متخصص DSP نیستم. آخرین کاری که من سعی کردم انجام دهم یک میانگین متحرک ساده با تاخیر 5000 است، یعنی نرخ نمونه برداری، با استفاده از تابع MATLAB «tsmovave(data, 's', 5000)» و موارد زیر را دریافت کردم: docs.google. com/file/d/0ByIzsQrgb6ILT0dpbWpIWDE0MHc/edit?usp=sharing با این حال، سیگنال به اندازه کافی تمیز به نظر نمی رسد که آستانه های ساده را روی آن اعمال کند و آنچه را که نیاز دارم بیرون بکشد. من همچنین سعی کردم زمان تاخیر را به 120 ثانیه افزایش دهم (یعنی بازه دوره) و سپس با استفاده از تابع MATLAB «findpeaks()» سعی کردم مینیمم ها و حداکثرها را استخراج کنم، اما کار نکرد زیرا حداقل های محلی زیادی وجود دارد و حداکثر در داده ها بنابراین سعی کردم با نرخ پایینتری نمونهبرداری مجدد کنم، اما باز هم جواب نداد. شخصی پیشنهاد کرد که باید از فیلتر همسان استفاده کنم و یک بازه استخراج دستی برای فیلتر ارائه دهم. روش دیگری که در تحقیقاتم با آن برخورد کردم، پیاده سازی نوعی الگوریتم گام یاب است. با توجه به تجربه شما، بهترین راه برای انجام این DSP چیست. مشکل ساده ای به نظر می رسد اما من زمان زیادی را برای حل آن صرف کردم و نتوانستم. من متخصص DSP نیستم. من از هرگونه بازخورد و جهت قدردانی می کنم. | تشخیص و استخراج نقاط انتهایی سیگنال در سیگنال بزرگتر |
29469 | در مدل لجستیک ایده آل، یک منحنی S شکل به دست می آوریم که هر IV پیوسته را به DV متصل می کند. اما در عمل این امر به ندرت اتفاق می افتد و باعث می شود که رویکرد لجستیک برای چنین نوع داده هایی کمی برتر به نظر برسد. البته احتمالات پیش بینی شده که هر مشاهده در DV 1 خواهد بود در لجستیک و نه در رگرسیون OLS قابل استفاده است، زیرا در دومی این احتمالات می توانند از مرزهای [0,1] تجاوز کنند. اما، برای اهداف اکتشافی، استفاده از OLS برای دیدن اینکه کدام IV روابط قوی در مقابل متوسط در مقابل ضعیف با DV دارند، چقدر صحیح است؟ آیا این به نوعی نسخه چند متغیره همبستگی نقطه-دو سریال نیست؟ (ضرایب رگرسیون استاندارد، بدون ذکر آمار تطبیقی و نمودارهای جزئی، همه به نظر من در OLS راحت تر از لجستیک به دست می آیند.) | OLS در مقابل رگرسیون لجستیک برای تجزیه و تحلیل اکتشافی با یک نتیجه باینری |
69135 | به عنوان بخشی از مطالعه خودم برای اقتصاد مالی، با ساده کردن عبارت زیر مواجه شدم، $$\sigma Z_{0.25} + (2\sigma)(Z_{0.5} - Z_{0.25})$$ که $Z$ هستند حرکت براونی مستقل ($Z_0 = 0$ و $Z_t-Z_s \mathtt{\sim} N(0, t-s)$. ساده شده به صورت، $$\sigma N(0, 0.25) + 2\sigma N(0,. 2)$$$$= N(0, 1.25\sigma^2) = \sqrt{2.5}\sigma Z_{0.5}$$ با این حال، اگر اولین عبارت را به $\sigma (2Z_{0.5} - Z_{0.25})$ سادهسازی کنم، یک توزیع عادی متفاوت دریافت میکنم، $N(0, 1.75\sigma^2)$ که $\sqrt{ است. 3.5}\sigma Z_{0.5}$ **ویرایش**: در اینجا من سادهسازی فوق را انجام دادم، $$\sigma Z_{0.25} + (2\sigma)(Z_{0.5} - Z_{0.25})$$ $$= \sigma Z_{0.25} + 2\sigma Z_{0.5} - 2\sigma Z_{0.25}$$ $$= 2\sigma Z_{0.5} - \sigma Z_{0.25}$$ $$= \sigma (2 Z_{0.25})$$ با استفاده از جبر اولیه، بنابراین، بدیهی است که متغیرهای حرکتی براونی و توزیعهای معمولی از همه جبر پشتیبانی نمیکنند برخورد با اینها؟ آیا جایی وجود دارد که بتوانم به آن مراجعه کنم؟ متشکرم. | قواعد جبر با توزیع نرمال |
45488 | من چیزی شبیه $4.1^{+2.1}_{-1.5}$ یا $4.1 [+2.1, -1.5]$ دیدهام، اما میخواهم بدانم که روش ترجیحی یا چیزی شبیه به استاندارد در کار علمی چیست (به ویژه در فیزیک/مهندسی)؟ | روش ارجح برای دادن عدم قطعیت های نامتقارن چیست؟ |
99337 | فرض کنید که $X_1، X_2، \ldots، X_n$ (با $n > 0$) یک نمونه تصادفی از یک توزیع نمایی غیر مرکزی با تابع چگالی احتمال است: $$f(x | \lambda، k) = \lambda * e^{-\lambda*(x-k)}$$ هم پارامتر مقیاس ($\lambda$) و هم **_shift پارامتر_** ($k$) ناشناخته هستند، با: $k < x < \infty$ و $\lambda > 0$ . برای نمونه ذکر شده قبلی ($X_1, X_2, ... , X_n$) و $k$، برآورد حداکثر درستنمایی (MLE) این است: $$K = min_i X_i$$ **سوال**: چگونه یک $95 \%$ فاصله اطمینان (برای پارامتر تغییر، $k$) به نظر می رسد؟ من تصور می کنم باید چیزی شبیه $[K-\epsilon، K]$ باشد، اما چگونه می توانیم مقدار $\epsilon$ را بفهمیم. متشکرم | فاصله اطمینان برای پارامتر تغییر یک توزیع نمایی غیر مرکزی |
52424 | اگر من یک مشکل رگرسیون دارم که در آن سعی می کنم مقدار $y$ را به عنوان تابعی از $x_1 \dots x_d$ تخمین بزنم: $$ y = f(x_1,\dots,x_d) $$ با استفاده از درخت رگرسیون تقویت شده یا تصادفی رگرسیون جنگل، آیا می توان توزیع احتمال مقدار خروجی را تخمین زد (به جای تخمین فقط $y$) : $$ p(y\ |\ x_1،\dots،x_d) $$ از توزیع خروجی گره های مجزا؟ (یعنی برای $x_1,\dots,x_d$ ثابت، من علاقه مندم که توزیع احتمالی برای $y$ داشته باشم که از آن بتوان حالت، میانگین و همچنین عرض را بدست آورد که نشان دهنده این است که این مقدار چقدر خوب است. پیش بینی می شود). | توزیع احتمال مقدار خروجی با روش های درخت رگرسیون |
100838 | من در حال حاضر در حال برنامه ریزی برای محاسبه خود همبستگی برای تاخیرهای مختلف با یک سری زمانی هستم. با این حال، عناصر من از سری زمانی کلاسهای «گسسته» و انتزاعی هستند. یعنی بدون اعداد صحیح به عنوان مثال، سری من می تواند مانند: کلاس A، کلاس B، کلاس A، کلاس A ... البته اکنون می توانم بگویم که کلاس A = 1 و کلاس B = 2 و سپس از روش همبستگی پیرسون برای تعیین مقدار استفاده کنم. خود همبستگی با این حال، به نظر می رسد این برای من مشکل ساز است، زیرا مقدار عدد چیزی را بیان نمی کند. آیا راهی برای دور زدن این موضوع وجود دارد؟ | خودهمبستگی سری های زمانی گسسته |
52428 | اگر من 50 مورد داشته باشم و بخواهم 30 مورد برتر را با هم مقایسه کنم. چندین مورد برای رتبه بندی دارم، پس کدام یک درست است؟ برای سادگی، من در مثال زیر 50 مورد را با 5 (A,B,C,D,E) و 30 = 3 جایگزین می کنم. بنابراین موارد: 1- 5 مورد را با استفاده از 2 تابع مختلف به طور مستقل رتبه بندی کنید و سپس با هم مقایسه کنید. 3 مورد بالا را حذف کنید و مواردی را که در 3 نیستند حذف کنید. مورد مثال - تابع 1 رتبه - تابع 2 رتبه A - 1 - 2 B - 2 - 5 C - 3 - 1 D - 4 - 4 E - 5- 3 حالا برای مقایسه 3 تای برتر A - 1 - 2 B - 2 - 5 C - 3 - 1 داریم و چون 5 در محدوده 3 نیست پس فقط حذف کنید آن را و مقایسه 2 مورد باقی مانده A - 1 - 2 C - 3 - 1 2- رتبه بندی 5 مورد با استفاده از 2 تابع مختلف و مقایسه 3 مورد برتر از تابع اول با آیتم های مربوطه در تابع 2، حتی اگر در ابتدا در 3 مورد برتر نباشند. آیتم ها - تابع 1 رتبه - تابع 2 رتبه A - 1 - 2 B - 2 - 5 C - 3 - 3 D - 4 - 1 E - 5 - 4 اکنون 3 مورد برتر انجام شده توسط تابع 1 را انتخاب می کنیم. و رتبه بندی را انجام می دهیم. دوباره با استفاده از تابع B. بنابراین A از 2 به 1 تغییر می کند زیرا بالاترین است، B از 5 به 3 تغییر می کند زیرا کمترین است، C از 3 تغییر می کند. به 2 A - 1 - 2 B - 2 - 5 C - 3 - 3 رتبه جدید A - 1 - 1 B - 2 - 3 C - 3 - 2 خواهد بود با تشکر فراوان ! | چگونه عناصر را برای استفاده در همبستگی رتبه اسپیرمن رتبه بندی کنیم؟ |
52426 | تخمین فواصل اطمینان برای باقیماندههای غیرعادی توزیع شده را میتوان با استفاده از روشهای راهاندازی، برآوردگرهای ساندویچی یا رگرسیون چندکی انجام داد. اما آیا راهی برای محاسبه بازه های اطمینان $\beta$ با توجه به مقدار تخمین زده شده وجود دارد؟ یعنی برای هر $\hat{Y}$ واریانس باقیمانده برای این مقدار _region_ پیش بینی شده را می دانیم، بنابراین به جای اعمال فواصل یکسان (محکم) برای همه مقادیر پیش بینی شده، آیا نمی توان بازه های مشروط را به $ تنظیم کرد. \hat{Y}$ به عبارت دیگر، با افزایش مقدار $\hat{Y}$، میتوان باقیماندهها را در سطلهای مختلف با توزیع خاص خود تقسیم کرد، سپس فواصل اطمینان خاصی را میتوان برای هر bin اعمال کرد. **به روز رسانی ** من قصد دارم کمی بیشتر توضیح بدهم زیرا متعجبم که پاسخ ساده ای برای این سوال (یا یک نقص آشکار) وجود ندارد. بیایید تجزیه و تحلیل باقیمانده ها را از این موضوع بگیریم: ![Residuals vs. برای $\hat{Y} ~ (0.694, 2.23], \hat{Y} ~ (3.51, 9.53]$. واضح است که فواصل اطمینان در همه مقادیر $\hat{Y}$ یکنواخت نیستند. | آیا می توان فواصل اطمینان متغیر را محاسبه کرد، مشروط به $\hat{Y}$ برای پرداختن به ناهمسانی؟ |
107824 | من سعی می کنم یک تابع باینری $Y$~$Bernouli(p_{i})$ را تخمین بزنم که در آن $p_{i}=f(age)$ که f یک تابع پیوسته مجهول است. بدیهی است که روشهای زیادی برای تلاش برای بازسازی f وجود دارد (خطها، فرآیندهای گاوسی و غیره)، اما اگر مشاهدات سنی من در سطلهایی جمع شوند (18-29، 30-44 و غیره) چه؟ بدیهی است که بازسازی f حتی با داده های بی نهایت غیرممکن است. و بازسازی f به شدت به فرضیات مربوط به ماهیت f بستگی دارد. اما به نظر می رسد که این باید یک مشکل رایج باشد و من کنجکاو هستم که مردم از چه رویکردهایی استفاده کرده اند/استفاده می کنند. ویرایش 1393/07/14: باید توضیح دهم که در این مورد، من توزیع بسیار خوبی از توزیع کلی سن در جمعیت دارم. | رویکردهایی برای استخراج تخمین سنی یک ساله از سطل های سنی |
46280 | من مقاله R. Kreps _عدم قطعیت پارامتر در (ورود) توزیع های عادی_ را می خوانم و سعی می کنم بفهمم شبیه سازی ها چگونه انجام شده اند. به منظور تولید شکل 1 ، از EQN (2.41) استفاده شد. این همان کاری است که من در R انجام دادم: این معادله ای است که آنها استفاده کردند: $ z_ {eff} = v + z \ sqrt {\ frac {n (1 + v^2)} {w}} $ جایی که توجه داشته باشید: این کد برای موردی است که $n=3$ v <- rt(10000000, 1)/sqrt(3-2) w <- rchisq(10000000,2) z <- rnorm(n=10000000، m=0، sd=1) z_eff_3 <- v + z * sqrt((3*(1+v*v))/w) plot(density(z_eff_3)،ylim=c(0، 1)) با این حال، من یک نمودار کاملا متفاوت دریافت کردم. من واقعاً ممنون می شوم اگر کسی بتواند نگاهی بیاندازد و به من توضیح دهد که چه اشتباهی انجام دادم. | تکرار نتایج شبیه سازی از یک مقاله |
69130 | با استفاده از Amelia در R، من مجموعه داده های متعددی را به دست آوردم. پس از آن تست اندازه گیری های مکرر را در SPSS انجام دادم. اکنون، من می خواهم نتایج آزمایش را با هم ترکیب کنم. من میدانم که میتوانم از قوانین Rubin (که از طریق هر بسته انتساب چندگانه در R پیادهسازی میشود) برای جمعآوری میانگینها و خطاهای استاندارد استفاده کنم، اما چگونه میتوانم مقادیر p را با هم ترکیب کنم؟ آیا ممکن است؟ آیا تابعی در R برای انجام این کار وجود دارد؟ پیشاپیش ممنون | چگونه میتوان مقادیر p ترکیبی را در آزمایشهای انجام شده در مجموعه دادههای چندگانه به دست آورد؟ |
69138 | یک ضریب همبستگی به صورت $$r=Cov(X,Y)/(\sqrt{Var(X)}*\sqrt{Var (Y)})$$ محاسبه میشود که ضریب همبستگی یک عدد با خودش چقدر است. من یک تابع نویز دارم، با فرض مقدار و واریانس شناخته شده. و من یک همبستگی از نویز را با خودش انجام می دهم که باید به عنوان ضریب همبستگی بدست بیاورم. نویز از توزیع $\chi^2$ پیروی می کند. | ضریب همبستگی نویز |
90350 | شاید کمی سؤال فلسفی باشد - اما آیا واقعاً می توانید پارامترهای شناخته شده در داده ها را داشته باشید؟ من مجموعه ای از داده ها را دارم که مجموعه داده برای آنها کامل است، اما پارامترها هنوز هم تخمین زده می شوند؟ | آیا تا به حال می توانید پارامترهای شناخته شده ای داشته باشید؟ |
99334 | من به بسته ای برای انتساب داده های از دست رفته در R نیاز دارم. اما از آنجایی که من با داده های بزرگ سروکار دارم، تعداد ورودی های داده از دست رفته نیز می تواند زیاد باشد. بستههایی که با استفاده از میانگین یا میانه وارد میشوند، البته سریع کار میکنند، اما بستههای پیچیدهتر که با استفاده از رگرسیون یا PCA نسبت داده میشوند، برای تعداد زیادی مقادیر از دست رفته، خیلی طول میکشد. من «missMDA» و «missForest» را امتحان کردم، اما همانطور که گفتم، به نظر می رسد که برای همیشه مصرف شوند. بستهای به نام «FastImputation» وجود دارد، اما وقتی هیچ الگوی از برخی دادههای آموزشی ندارم، نمیتوانم بفهمم چگونه از آن استفاده کنم. آیا پیشنهادی در مورد بسته هایی دارید که سریعاً به آنها اضافه شود؟ | انتساب دادههای گمشده سریع در R برای دادههای بزرگ که پیچیدهتر از نسبت دادن صرف به وسیله است؟ |
54861 | فرض کنید $X_1,\ldots,X_n$ یک نمونه تصادفی از $N(\theta,1)$ است به طوری که $\theta\geq a$. چگونه می توانم برآوردگر حداقل $\theta$ را تحت تابع ضرر $L(\delta,\theta)=(\delta-\theta)^2$ محاسبه کنم | یافتن برآوردگر حداقلی $\theta$ |
90355 | من در حال انجام برخی مسائل تمرینی بر روی روش های لحظه ها از یک کتاب درسی هستم. من روی سوال زیر گیر کرده ام: pdf توزیع تک پارامتری Weibull توسط: $f(x) = \begin{cases} 2\alpha xe^{-\alpha x^2}، &\mbox{ اگر }\: x > 0 \\\ 0 & \mbox{در غیر این صورت}. \end{cases} $ با استفاده از یک نمونه تصادفی با اندازه $n$، یک تخمینگر لحظه ای برای $\alpha$ بدست آورید. سوال من: میدانم که باید لحظات جمعیت را با لحظههای نمونه مطابقت دهیم تا تخمینگر $\alpha$ را بدست آوریم. در تلاش برای یافتن اولین لحظه جمعیت E[X]، انتگرال زیر را تنظیم کردم: $E[X]=\int^{\infty}_0x2\alpha xe^{-\alpha x^2}$ $E[ X]=2 \alpha\int^{\infty}_0x^2e^{-\alpha x^2}$. سوال من این است: چگونه می توانم این انتگرال را به بهترین نحو ارزیابی کنم؟ آیا باید از اینجا ادغام قطعات را انجام دهم؟ یا آیا ترفند سادهتری وجود دارد که بتوانم برای ارزیابی این موضوع استفاده کنم؟ پیشاپیش ممنون | یافتن برآوردگر برای توزیع تک پارامتری وایبول |
46284 | فرض کنید من یک مجموعه داده «کاتتر کلیه» دارم. داده ها در مورد زمان عود عفونت، در محل قرار دادن کاتتر، برای بیماران کلیوی با استفاده از تجهیزات دیالیز قابل حمل است. کاتترها ممکن است به دلایلی غیر از عفونت برداشته شوند، در این صورت مشاهده سانسور می شود. هر بیمار دقیقا 2 مشاهده دارد. اگر بخواهم مدل PH کاکس را با اثر تصادفی (در اینجا شکنندگی گاما) با استفاده از الگوریتم EM برازش دهم. با استفاده از کد R بسته داخلی coxph()، می توانم به راحتی این کار را انجام دهم > > کتابخانه(بقا) > داده(کلیه) > fit<-coxph(Surv(زمان، وضعیت) ~ سن + جنس + > frailty(id, dist='gamma', method='em'), کلیه) > اما اگر بخواهم یک تابع گام به گام برای الگوریتم EM بنویسم، چگونه می توانم ادامه دهم؟ | کد R الگوریتم EM در مدل کاکس PH با شکنندگی |
17215 | فرض کنید از یک خط کش برای اندازه گیری عرض یک بلوک چوبی استفاده می کنیم. مقداری مانند «4.2 +/- 0.1 سانتیمتر» دریافت میکنیم، که در آن خطا، خطای تخمینی ما از دقت خطکش است. اکنون چهار فرد جدید داریم که همان بلوک چوب را اندازهگیری میکنند، و دو نفر از آنها «4.5 +/- 0.1 سانتیمتر» و دو نفر «4.2 +/- 0.1 سانتیمتر» به دست میآورند. اگر میانگین این پنج اندازه گیری را بگیریم، '4.32 +/- 0.16 سانتی متر' به دست می آید، که در این مثال ارقام قابل توجهی را نادیده می گیرم و عدم قطعیت انحراف استاندارد نمونه ها است. حال، در بیان عدم قطعیت کل برای عرض بلوک چوبی، باید 0.16 را به صورت مربع با 0.1 ترکیب کنم، یا باید خطای هر اندازه گیری را از طریق فرمول انحراف استاندارد منتشر کنم و یک عدم قطعیت در عدم قطعیت خود به دست بیاورم، مانند «0.16 +/- آلفا»، جایی که آلفا مقدار عدم قطعیت منتشر شده است؟ یا شاید باید انحراف معیار اندازهگیریها را نادیده بگیرم و از 0.1/sqrt(5) کلاسیک استفاده کنم---اما با توجه به گسترش اندازهگیریهای ما این احمقانه است. این یک سوال ساده به نظر می رسد، اما به نظر نمی رسد دو منبع موافق در مورد این موضوع پیدا کنم (har har). برای هر کمکی متشکرم | تخمین خطا از اندازه گیری های مکرر |
90357 | من بسیار قدردانی می کنم که در مورد یک مشکل آماری که من را آزار می دهد راهنمایی کنید. فرض کنید می خواهید تأثیر $x$ را روی $y$ تخمین بزنید، اما احتمال مشاهده $\\{y_i، x_i\\}$ نیز به تأثیر $x$ بستگی دارد. بگویید، اگر $x_i > z_i$، پس شما $\\{y_i، x_i\\}$ را مشاهده نمی کنید. اگر $x_i < z_i$، پس شما انجام می دهید. اگر این یک نمونه کتاب درسی استاندارد از مدلهای انتخاب نمونه بود، ما $z$ را مشاهده میکردیم و میتوانستیم تنظیم کنیم، اما در مورد من این کار را نمیکنم. من هیچ اطلاعاتی در مورد اینکه چند نفر در نمونه من وارد نشده اند ندارم. دقیق تر: من نمی دانم که آنها هرگز وجود داشته اند. یعنی قبل از جمع آوری نمونه مرده اند و بنابراین در نمونه من ظاهر نمی شوند. نمونه من شامل بازماندگان است. پس از نظرات زیر، من سوال خود را بیشتر می کنم تا کمی دقیق تر شود. فرض کنید گروهی متشکل از $m$ مردم در معرض یک فاجعه قرار گرفته اند. 20 سال بعد، میخواهم ببینم که این تجربه تا چه حد امروز میدرخشد، اما کسانی که شدیدترین آسیب را دیدند، در این راه مردند. با این وجود، من دادههایی را درباره همه بازماندگان $n$ جمعآوری میکنم. در اینجا، $n < m$. متأسفانه، من هیچ اطلاعاتی در مورد جمعیت در معرض دید ندارم و ویژگی های آنها را مشاهده نمی کنم $\\{x_i, y_i\\}$. من $m$ را نمی دانم و نمی دانم چند نفر از جمعیت اولیه زنده مانده اند. تنها چیزی که دارم گروه بازماندگانم است. اگر بخواهم تأثیر فاجعه را بر برخی از نتایج تخمین بزنم، این تخمین مغرضانه خواهد بود زیرا کل نمونه مشروط به بقا است. کسی راه حلی برای این مشکل میدونه؟ آیا روشی برای مثلاً محاسبه کرانها وجود دارد؟ هر گونه نکات بسیار قدردانی می شود. | راه تصحیح سوگیری انتخاب نمونه با انتخاب ناشناخته؟ |
46289 | من گیج شدهام و فقط به تأییدی در مورد محاسبه مقدار اهمیت متغیر نسبی برای متغیرهای کمکی که در روشهای انتخاب مدل AIC استفاده کردم نیاز دارم. من می دانم که این یک بحث وجود دارد، اما به اندازه کافی صریحاً کاری را که باید انجام دهم تأیید نمی کند. برنهام و اندرسون (2002) راه ساده ای را برای تعیین کمیت اهمیت متغیر توصیف می کنند. > صفحه 168: برآورد اهمیت نسبی متغیرهای پیش بینی xj را می توان با جمع کردن وزن های AIC در تمام مدل های مجموعه > جایی که متغیر j رخ می دهد، به بهترین شکل انجام داد. با این حال، برای استفاده از این روش، باید تعداد مساوی مدل برای هر متغیر داشت. در غیر این صورت، برخی از متغیرها بیش از حد یا کمتر نمایش داده می شوند که در نتیجه مقادیر اهمیت نسبی مغرضانه ایجاد می شود. > صفحه 169: هنگام ارزیابی اهمیت نسبی متغیرها با استفاده از مجموع > وزن های AIC، دستیابی به تعادل در تعداد > مدل هایی که هر متغیر j را شامل می شود، مهم است. آیا این بدان معناست که اگر من مجموعه ای از مدل ها را با وزن مدل آنها از رویه AIC دارم (اینها براساس وزن رتبه بندی نمی شوند، فقط به ترتیبی که آنها را ایجاد کردم): 1 INTERCEPT 2 REPRO TIME 3 REPRO TIME R*T 4 REPRO TIME WR 5 REPRO TIME WR WR*R 6 REPRO TIME WR WR*T 7 WR برای محاسبه وزن متغیر نسبی، وزن را جمع می کنم برای هر حادثه ای که TIME در مدل ها بود و من این کار را برای هر یک از متغیرهای دیگر انجام می دهم. با این حال، این کاملا درست نیست؟ چون تعادلی در تعداد مدل هایی که هر متغیر را در بر می گیرند وجود ندارد درست است؟ بنابراین، برای تصحیح این موضوع، مجموع این وزنها را بر تعداد مدلهایی که آن متغیر را دارند، تقسیم میکنم. (Kitle et al 2008 تأثیر وابسته به مقیاس خطر شکار گرگ... این کار را انجام می دهد). بنابراین، به عنوان مثال، اگر مجموع اوزان برای زمان 0.75 بود، من آن را بر 5 تقسیم می کردم زیرا در 5 مدل از مدل ها بود، به همین ترتیب، WR بر 4 تقسیم می شد. نتایج و تفسیر از تجزیه و تحلیل من. زیرا به عنوان مثال WR*T فقط در 1 مدل است و در یکی از مدل های برتر ظاهر می شود بنابراین وزن مدل بالایی دارد، اما Time و Repro نیز در این مدل برتر و همچنین در 4 مدل کاندید دیگر هستند. بنابراین تقسیم وزن T و R بر 5 اهمیت T یا R را از (0.999) کاهش می دهد و RVI 0.2 و مقدار RVI به WR*T 0.7 می دهد. درست است؟ علاوه بر این، سوال بعدی من این خواهد بود - آیا این کار را فقط بر روی مدل های بهترین (در 2AIC یا هر معیاری تا کنون) انجام می دهید یا بیش از هر 7 بدون توجه به آنچه در بالا ظاهر شده است؟ من از بسته MuMIN استفاده کردم و از دستور اهمیت استفاده کردم، اما وقتی از بهترین مدلها استفاده میکنید، از شما میپرسد که آیا میخواهید اهمیت را مجدداً محاسبه کنید و سپس فقط برای مدلهای برتر دوباره محاسبه میشود. استفاده از کدام یک مناسب تر است؟ زمانی که تنها 1 مدل بهترین باشد، این منطقی نیست. سپس فرض میکنم که باید روی همه مدلها محاسبه شود. | اهمیت متغیر نسبی با AIC |
90352 | این دقیقاً یک سؤال فنی مربوط به هیچ روشی نیست، اما به نظر می رسد این انجمن بهترین فروم برای پرسیدن این موضوع باشد. سوالی که من می پرسم بیشتر در راستای مدیریت داده های تجربی است. من اغلب با موقعیت هایی مواجه می شوم که مجبور می شوم چندین مجموعه از نتایج مشابه را از نظر بصری مقایسه کنم، برای مثال آزمایش هایی که با ترکیب های مختلف روش ها/مجموعه های داده/پارامترها و غیره اجرا می شوند. . نمونهای از این نوع دادهها روش1/dataset1/param1 0.01 متد1/dataset1/param2 0.20 .... method9/dataset5/param4 0.40 خواهد بود. میخواهم همه چیزهای دیگر را فیلتر کنم و فقط اطلاعات مربوطه یا چیزی را در همین راستا نگه دارم تا در هنگام بازرسی بصری نتایج، شلوغی به حداقل برسد. اکنون می توان برای هر مقایسه به صورت دستی این کار را انجام داد یا نتایج را در یک پایگاه داده قرار داد و پرس و جوهای مربوطه را اجرا کرد یا با ترسیم نمودار آن مقادیر. چیزی که من میپرسم این است که آیا رویکردی وجود دارد که شما از آن برای سادهسازی فرآیند استفاده کنید تا هزینههای سربار حداقل باشد؟ | پیشنهادهایی برای ابزارها یا استراتژی هایی برای مقایسه بصری نتایج |
69132 | فرضیه های صفر و جایگزین عبارتند از: $H0 : μ_d ≤ 0 $ $H1 : μ_d > 0$ اطلاعات نمونه زیر تعداد واحدهای معیوب تولید شده در شیفت روز و شیفت بعد از ظهر را برای نمونه چهار روزه ماه گذشته نشان می دهد. روز 1 2 3 4 شیفت روز 10 12 15 18 شیفت بعد از ظهر 8 9 13 16 در سطح معنی داری 0.005، آیا می توانیم نتیجه بگیریم که نقص های بیشتری در شیفت بعد از ظهر تولید شده است؟ نکته: برای محاسبات، تغییر روز را به عنوان اولین نمونه در نظر بگیرید. الف) قاعده تصمیم را بیان کنید. (پاسخ خود را به 2 رقم اعشار گرد کنید.) H0 را رد کنید اگر t > (b) مقدار آماره آزمون را محاسبه کنید. (پاسخ خود را به 3 رقم اعشار گرد کنید.) مقدار آمار آزمون | فرضیه های صفر و متناوب |
110424 | من آزمایشی دارم که در آن به مقایسه نسبت ها علاقه مند هستم. اساساً، شرکت کنندگان 4 مقاله مختلف در 4 سؤال با پایان باز متفاوت می نویسند. هر پاسخ بر اساس یک متغیر دسته بندی 1، 2 و 3 رتبه بندی می شود. با این حال، می توان یک مقاله حاوی بیش از 1 دسته نوشت. من نیازی به پیش بینی ندارم، می خواهم به نسبت ها نگاه کنم. تنها کاری که میخواهم انجام دهم این است که تست کنم آیا نسبت پاسخ 3 نسبت به 1 یا 2 بیشتر است یا خیر. اگر آنها متقابلاً منحصر به فرد نبودند، فکر میکنم فقط میتوانم چند آزمون z برای نسبتها در گروههای وابسته انجام دهم. اما چون دسته ها متقابل نیستند، فکر نمی کنم بتوانم. در این مرحله بسیار گیج شده است. پیشنهاداتی در مورد نوع تحلیل؟ | مقایسه نسبت ها برای داده های غیر انحصاری متقابل |
10293 | من داده هایی دارم که یک سیستم پایین دستی به یک تابع بهینه از منطق بولی برای آنها نیاز دارد. اساساً من داده های مشابهی دارم: کاربر cat1 cat2 cat3 cat4 1 0 0 0 1 2 1 0 0 1 3 0 1 1 0 باید cat4 را به عنوان تابعی مانند این بهینه کنم: «(cat1 یا cat2 یا cat3)». یا تنها عملیاتی است که می توانم استفاده کنم. آیا کسی تکنیک/استراتژی خاصی برای بهینه سازی یک دسته بندی از این طریق می شناسد؟ (توجه داشته باشید، من دسته های زیادی خواهم داشت.) | بهینه سازی یک تابع بولی |
62950 | من یک سوال در مورد اهمیت آدمک های فصلی در مدل ARIMA دارم (من از تفاوت فصلی یا AR/MA فصلی استفاده نمی کنم زیرا فصلی بودن کاملاً منظمی دارم و نتایج عملکرد بهتری دریافت می کنم): اگر بگویید 1 یا 2 تا قابل توجه هستند اما بقیه مهم نیستند؟ این برای من اتفاق می افتد به خصوص زمانی که من از آدمک های ماهانه استفاده می کنم. آیا باید متغیرهای ساختگی ناچیز را حذف کنم؟ اگر این کار را انجام دهم (مثلاً از 11 ساختگی ماهانه، آدمکهای فوریه، مارس را حذف کنم)، این منجر به تغییر مجدد در معنیداری و ضرایب متغیرهای ساختگی ماهانه باقیمانده میشود! من هیچ اطلاعاتی در مورد آن در کتاب های درسی پیش بینی استاندارد خود پیدا نکردم. * * * در نهایت یک مرجع پیدا کردم که می خواستم آن را به اشتراک بگذارم تا پست را به پایان برسانم: > حذف برخی از آدمک های فصلی به دلیل اینکه ضرایب تخمینی آنها > دارای امتیاز t پایین هستند، توصیه نمی شود. ترجیحاً، آزمایش ضرایب ساختگی فصلی > باید با F-Test به جای آزمون t انجام شود، زیرا فصلی بودن معمولاً یک فرضیه ترکیبی منفرد است نه فرضیه 3 > (یا 11 با داده های ماهانه) که با هر > مرتبط است. ربع (یا ماه). تا جایی که یک فرضیه مشترک است، باید با F-Test آزمایش شود. اگر فرضیه تغییرات فصلی > را بتوان در یک متغیر ساختگی خلاصه کرد، استفاده از آزمون t-test > مشکلی ایجاد نخواهد کرد. اغلب، در جاهایی که ساختگی های فصلی بدون ابهام درخواست می شوند، اصلاً آزمایش فرضیه ای انجام نمی شود. Studenmund، A.H. و Cassidy، H.J. (1997). استفاده از اقتصاد سنجی: راهنمای عملی مجموعه آدیسون-وسلی در اقتصاد، ویرایش سوم، ص. 257، ادیسون- وسلی، ریدینگ، ماس. | مسائل مربوط به اهمیت آدمک های فصلی |
97191 | من به یک مشکل کلی جالب برخوردم و نمی توانم آن را حل کنم. من از هر اشارهای سپاسگزار خواهم بود: مشکل: به 5 بازیکن به طور تصادفی یک عدد x=1-5 اختصاص داده میشود. یک بازیکن شماره خود را با بازیکن تصادفی دیگری مقایسه می کند. بازیکنی که امتیاز کمتری داشته باشد خارج می شود و بازیکنی که امتیاز بالاتری دارد به دور بعد می رود و مسابقات را تکرار می کند. این احتمال وجود دارد که بازیکن من در دور 1 ، 2 ، 3 یا 4 استراتژی فعلی بیرون می رود: احتمال پیروزی با شماره X را محاسبه کنید ، با احتمال دریافت این شماره و جمع برای یافتن احتمال برنده شدن در آن دور ، ضرب کنید. برای دور 1، P(برنده شدن با x=1)=0، P(برنده شدن با x=2)=1/4، P(برنده شدن با x=3)=2/4 و غیره. احتمال به دست آوردن هر عدد x برابر است با 1/5، بنابراین احتمال موفقیت در دور 1 (1/5 x 0) + (1/5 x 1/4) + (1/5 x 2/4) + (1/5 x است 3/4)+(1/5 x 4/4) این حاصل به 0.5 می رسد، بنابراین احتمال بیرون رفتن در دور 1 (1-0.5) = 0.5 است. برای دور بعدی، من باید احتمالات داشتن اعداد 2،3،4،5 را تولید کنم و اینجاست که گیر می کنم. دیگر یکنواخت نخواهد بود زیرا به عنوان مثال احتمال بیشتری وجود دارد که x=4 به دور 2 برسد تا x=2، اما من نمی توانم این موضوع را حل کنم. | چگونه توزیع احتمال را برای مدت مسابقات تکراری محاسبه کنیم؟ |
45480 | فرض کنید من دو فناوری تولید برق دارم، زغالسنگ و نفت، که اجزای هزینه تولید (هزینه کل تولید = هزینه سرمایه + هزینه سوخت + هزینه متغییر O&M + هزینه O&M ثابت) به روش زیر همبستگی دارند: متغیر سوخت نفت O&M O&M ثابت سوخت 0.48 0 0 زغال سنگ O&M 0 0.7 0.1 ثابت O&M 0 0.1 0.7 فرض کنید فناوری A زغال سنگ و فناوری B نفت است. چگونه می توانم همبستگی بین هزینه های کل دو فناوری، یعنی زغال سنگ و نفت (یک ضریب همبستگی) را پیدا کنم، وقتی که سه دسته از هزینه ها قبلاً مطابق با بالا همبستگی دارند؟ من وزن اجزای هزینه هر هزینه کل فناوری و انحراف استاندارد هر جزء هزینه دو فناوری را نیز دارم. | چگونه می توان ضریب همبستگی بین دو فناوری را هنگامی که آن ها همبستگی فرعی دارند پیدا کرد؟ |
113162 | بیشتر مثالها درباره توصیف فرمول «lmer» در R طرحهای مطالعه نسبتاً ساده را هدف قرار میدهند. با این حال، گاهی اوقات شخص با طرح های پیچیده تری مواجه می شود و هیچ سندی در مورد یک قاعده کلی برای فرمول سازی وجود ندارد. به عنوان مثال، چگونه طرح زیر را فرموله کنم: * 15 آزمودنی («ID») به عنوان اثر تصادفی در 3 گروه («گروه») به عنوان اثر ثابت در نظر گرفته می شوند (اما خوب است که به عنوان یک اثر تصادفی دیگر در نظر گرفته شود) * 2 داخل افکت (موقعیت، اندازه) * 1 بین فاکتور تصادفی چشم اولیه (چشم) برای توضیح بیشتر در مورد طرح به صورت درخواستی: 15 موضوع در یک مطالعه کاربر HCI شرکت کردند و در معرض اهداف در موقعیت های مختلف با اندازه های مختلف قرار گرفتند. زمان شناسایی به عنوان متغیر وابسته اندازه گیری شد. بین گروهها، ظاهر بصری اهداف و تأخیر برای نمایش را نیز تصادفیسازی کردیم، که لازم بود تصادفی شود، اما فقط بین گروهها برای محدود کردن تعداد عوامل کلی. با این حال، گروه ممکن است در نتیجه یک اثر تصادفی معرفی کرده باشد. من امتحان کردم: lmer(Time ~ Group*Position*Size + (1|ID) + (1|Eye) + (1|Position:ID) + (1|Size:ID)) اما با این فرمول من نیستم مطمئن باشید: * آیا «گروه» باید در تعریف «1|موقعیت» و «1|اندازه» نیز ظاهر شود زیرا در واقع نه تنها در «id» بلکه «id/گروه» قرار دارد * سوال مشابه در بالا برای عامل تصادفی چشم * چگونه می توانم گروه را به عنوان تصادفی بین عامل به جای ثابت بین عامل تعریف کنم زیرا نمونه گیری گروهی به طور تصادفی اتفاق افتاد | کمک به فرمول مدل پیچیده در lmer (lme4) برای R |
52427 | من از مقیاس لیکرت در نظرسنجی خود استفاده کرده ام، که در آن پاسخ دهندگان به عبارات 1 = کاملاً موافقم تا 5 = کاملاً مخالف پاسخ می دهند. 5 مورد وجود دارد که یک نوع ارضاء نیاز را اندازه گیری می کند و 5 نیاز مختلف وجود دارد. پس از جمع پنج مورد برای هر ارضای نیاز، نمره ای بین 5 تا 25 به دست می آید. این نمرات به چهار چرک طبقه بندی شده اند: 10-5 Q1 (چهارک اول)، 10-15 Q2، 15-20 است. Q3 و 20-25 Q4 است. ** چگونه می توانم آزمایش کنم که کدام یک از پنج مقیاس نیاز بیشترین نسبت پاسخ ها را در محدوده 20 تا 25 (Q4) دارد؟** | چگونه آزمایش کنیم که کدام یک از پنج نسبت بر اساس مقیاس لیکرت بالاتر است؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.