_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
37830 | من با تابع «rfe» در بسته «caret» برای انجام رگرسیون لجستیک با انتخاب ویژگی آزمایش کردهام. من از توابع «lmFuncs» با «rfeContol» زیر استفاده کردم: «ctrl <- rfeControl(functions = lmFuncs، روش = 'cv'، rerank=TRUE، saveDetails=TRUE، verbose = TRUE، returnResamp = «همه»، عدد= 100)` ساختار فراخوانی «rfe» در زیر آمده است: `fit.rfe=rfe(df.preds,df.depend, metric='RMSE',sizes=c(5,10,15,20), rfeControl=ctrl)` `df.preds` یک قاب داده از ورودی است به مدل «df.depend» بردار 1 یا 0 مربوط به هر ردیف در «df.preds» است تا پاسخ را نشان دهد. مدل به دست آمده از شی «fit» در شی «rfe» از کلاس «lm» است و وقتی از کد زیر با تابع «پیشبینی» استفاده میکنم، مقادیر پیشبینیشده کمتر از صفر و بزرگتر از 1 را تولید میکند: (fit.rfe$fit,df,type='response')` با توجه به اینکه انتظار دارم این یک لجستیک باشد، همه مقادیر پیش بینی شده باید بزرگتر از صفر و کمتر از یک باشند. هر گونه کمکی قدردانی خواهد شد. | چگونه می توان توابع lmFuncs تابع rfe در caret را برای انجام یک رگرسیون لجستیک بدست آورد؟ |
82376 | من تعجب می کنم که آیا معادلی از نسبت واریانس توضیح داده شده PCA برای SVD وجود دارد؟ اقداماتی که می توانم برای نظارت بر تعداد ستون هایی که بعد از SVD نگه می دارم انجام دهم چیست؟ آیا هیچ یک از این معیارها در sklearn/python یا R پیاده سازی شده است؟ | معادل PCA نسبت واریانس توضیح داده شده برای SVD؟ |
67484 | من مجموعهای از جفتهای بردار ورودی-خروجی دارم و میخواهم تابعی را پیدا کنم که بردارهای خروجی را از بردارهای ورودی تقریبی کند. به طور خاص، من یک _matrix_ می خواهم که در آن یک بردار ورودی را ضرب کنم به طوری که یک تقریب خوب برای خروجی بدست بیاورم. حدس میزنم رگرسیون _linear_ چیزی نیست که به دنبالش هستم، وگرنه نمیدانم با تابع خطی چه کنم. بنابراین چه نوع رگرسیونی را باید در اینجا اعمال کنم؟ نکات ادبیات و / یا بسته های جاوا / پایتون / R بسیار خوش آمدید! | از چه روش رگرسیونی استفاده کنیم؟ |
109490 | من دو مجموعه A و B دارم که هر کدام حاوی N عنصر هستند و می خواهم نشان دهم که میانگین واقعی A کمتر از B با درجه اطمینان خاصی است. (به طور خاص، مجموعه ها آیتم های بله و خیر را نشان می دهند، و من می خواهم نشان دهم که یک مجموعه حاوی بله های بیشتری نسبت به دیگری است.) من میانگین واقعی هر دو مجموعه را نمی دانم. من سعی می کنم این کار را با کمترین تعداد نمونه ممکن انجام دهم زیرا گرفتن نمونه در این مورد گران است. چگونه می توانم با توجه به تعدادی نمونه از هر مجموعه، احتمال اینکه میانگین واقعی A کمتر از B باشد را محاسبه کنم؟ | چگونه می توانم بر اساس نمونه هایی از هر یک، فاصله اطمینان را برای میانگین واقعی یک مجموعه بالاتر از مجموعه دیگر محاسبه کنم؟ |
29154 | من می خواهم در مورد نظریه مارکویتز بیاموزم زیرا قصد دارم با یک شرکت مالی مصاحبه کنم که به طور گسترده از انواع آن استفاده می کند. من به دنبال منبعی برای یادگیری در مورد مدل های شهودی و بهینه سازی در پشت قضیه نمونه کارها مدرن مارکویتز هستم. هر اشاره ای به یک کتاب یا صفحه وب به من کمک زیادی می کند. | یک منبع خوب برای یادگیری در مورد شهود و مدل های بهینه سازی در پشت قضیه نمونه کارها مدرن مارکویتز |
70665 | من می دانم که این سوال تا حدی پاسخ داده شده است / در اینجا بحث شده است و متوجه می شوم که برخی از نویسندگان موافق هستند که اصطلاحات گیج کننده است. اما هنوز احساس نمیکنم که شهودی درباره اینکه چگونه یک مدل میانگین متحرک به هیچ وجه با میانگین متحرک مرتبط است، ندارم. | چرا یک مدل MA میانگین متحرک نامیده می شود |
29155 | من از Eviews استفاده می کردم، و متوجه شدم که پیش بینی پویا و پیش بینی استاتیک در گزینه وجود دارد. اما من نمی دانم چه تفاوتی دارند، کسی می تواند بگوید آنها چیست؟ اما می دانم که هر دو پیش بینی یک قدم جلوتر هستند. | پیش بینی استاتیک یک گام جلوتر چیست؟ |
30119 | اگر یک آزمون گواهینامه برای آماردانان وجود داشت، برنامه درسی شامل مطالب خواندنی توصیه شده (برای ارائه ایده از سطح امتحان) چه خواهد بود؟ | اگر یک آزمون گواهینامه برای آمارگیران وجود داشت، برنامه درسی چگونه بود؟ |
20996 | من تابع احتمال زیر را دارم: $$\text{Prob} = \frac{1}{1 + e^{-z}}$$ که $$z = B_0 + B_1X_1 + \dots + B_nX_n.$$ مدل من به نظر می رسد $$\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-3.92 + 0.014\times(\text{gender}]\right)}$$ معنی رهگیری (3.92) را میدانم، اما اکنون مطمئن هستم که چگونه 0.014 را تفسیر کنم. آیا اینها هنوز شانس ورود به سیستم، نسبت های فرد هستند، یا اکنون می توانم ادعا کنم که برای هر تغییر شانس افزایشی جنسیت، احتمال برنده شدن زنان 0.014 بیشتر از مردان است. اساساً چگونه باید 0.014 را تفسیر کنم؟ اساساً، من میخواهم تابع احتمال را بگیرم و در واقع آن را در جاوا برای برنامه خاصی که دارم مینویسم پیادهسازی کنم، اما مطمئن نیستم که تابع را به درستی درک کردهام تا آن را در جاوا پیادهسازی کنم. مثال کد جاوا: double p = 1d / (1d + Math.pow(2.718d, -1d * (-3.92d + 0.014d * bid))); | چگونه ضرایب را از رگرسیون لجستیک تفسیر کنیم؟ |
37833 | حداقل تعداد مشاهدات «معقول» برای جستجوی روند در طول زمان با رگرسیون خطی چقدر خواهد بود؟ در مورد برازش یک مدل درجه دوم چطور؟ من با شاخص های ترکیبی نابرابری در سلامت (SII,RII) کار می کنم و فقط 4 موج از نظرسنجی دارم، بنابراین 4 امتیاز (1997,2001,2004,2008). من آمارگیر نیستم، اما تصور شهودی دارم که 4 امتیاز کافی نیست. آیا پاسخ و/یا منابعی دارید؟ خیلی ممنون، فرانسوا | حداقل تعداد نقاط برای رگرسیون خطی |
58249 | نمی توانم بگویم که با ARMA خیلی آشنا هستم (باید اعتراف کنم که برای شروع یک جورهایی مغرضانه هستم، بنابراین مدت زیادی است که سعی نکرده ام با مدل های خطی AR/MA-مانند زحمت بکشم). با این حال، به دلایلی، من ARMA را برای حل مشکلات پیشبینی رفتار برخی از سیستمهای دینامیکی بسیار پیچیده امتحان کردم، و متوجه شدم که مدلهای ARMA بسیار خوب کار میکنند، بسیار بهتر از بسیاری از روشهای مدلسازی که با آنها آشنا هستم. با این حال، با نگاهی به روش، به نظر می رسد که هیچ چیز خاصی در مورد این نوع مدل های سری زمانی، مانند OLS، رگرسیون، MLE و غیره وجود ندارد، و به نظر می رسد که از نظر تئوری حتی در مقایسه با مدل های غیرخطی بسیار محدود است. بنابراین به نظر شما چه چیزی باعث می شود AR/MA بهتر از بسیاری از مدل های عمومی تر کار کند؟ خواص فرآیندهای ساکن MLE؟ استفاده از برخی نظریه اطلاعات در آموزش؟ | به نظر شما ترفندی که ARMA/ARIMA را به یک روش خوب برای پیش بینی تبدیل می کند چیست؟ |
66757 | من یک مدل رگرسیون OLS را روی مجموعه داده با 5 متغیر مستقل اجرا کردم. متغیرهای مستقل و متغیر وابسته هر دو پیوسته هستند و به صورت خطی مرتبط هستند. مربع R حدود 99.3٪ است. اما وقتی همان را با استفاده از جنگل تصادفی در R اجرا می کنم، نتیجه من '% Var توضیح داده شده: 88.42' است. چرا نتیجه جنگل تصادفی بسیار پایین تر از رگرسیون است؟ فرض من این بود که جنگل تصادفی حداقل به خوبی رگرسیون OLS خواهد بود. | جنگل تصادفی در مقابل رگرسیون |
29151 | کسی می تواند نسخه ناپارامتریک ضریب همبستگی درون کلاسی (ICC) را به من پیشنهاد دهد؟ مدل من دارای جزئیات زیر است: مدل اثرات تصادفی دو طرفه، ثبات، میانگین رتبهبندی به عنوان واحد. من از پکیج irr R-cran استفاده می کنم. متشکرم | ICC ناپارامتری |
66759 | من داشتم این مقاله ویکی مربوط به کریجینگ معمولی را می خواندم که در آن اوزان را به این صورت محاسبه کردند. با این حال، زمانی که آنها وزن ها را تولید کردند، به جای کوواریوگرام از وزن های واریوگرام استفاده کردند. چگونه برابر هستند؟ من در این مورد سردرگم هستم. من متوجه نشدم که چگونه آنها $Var_{x_i}$ را با نیم متغیره $\gamma(x_1,x_1) .....$ برابر کردند. همچنین زمانی که سعی کردم با استفاده از پارامترهای semivariogram وزنها را در مورد دادههایم تخمین بزنم، معکوسپذیر نبود. حدس میزنم دارم کار اشتباهی میکنم من مطمئن نیستم که چرا در وهله اول از پارامترهای semivariogram به جای کوواریانس استفاده می کنیم. پیشنهادات دوستان! | سردرگمی مربوط به کریجینگ معمولی |
99459 | من نیاز به کمک با آنالیز مشترک HLM دارم. فرض کنید یک نظرسنجی ترجیحی از چندین پاسخدهنده میپرسد که کدام یک از سه محصول را ترجیح میدهند، با استفاده از ترکیبهای مختلف ویژگیهای محصول (هر پاسخدهنده هر بار چندین بار با ترکیبهای محصول متفاوت پاسخ میدهد). به عنوان مثال، یک انتخاب واحد ممکن است این باشد که آیا شما ترجیح می دهید: * ماشین آبی متوسط با قیمت 20000 دلار * ماشین قرمز کوچک با قیمت 16000 دلار * ماشین زرد بزرگ با قیمت 19000 دلار چگونه می توانم ضرایب کاربردی/ویژگی را از این داده ها ایجاد کنم؟ من به دنبال ایجاد ضرایب برای هر ویژگی محصول (به عنوان مثال رنگ ماشین: آبی، قرمز، زرد) برای هر پاسخ دهنده فردی با استفاده از HLM هستم. آیا پکیج R وجود دارد که این قابلیت را داشته باشد؟ | تخمین سلسله مراتبی بیز در تحلیل متقابل |
22849 | من سعی می کنم مدت زمان نگاه اندازه گیری شده با استفاده از ردیاب چشم برای هر کلمه را مقایسه کنم. از آنجایی که کلمات طولانی تر به طور طبیعی منجر به مدت زمان نگاه طولانی تر می شوند، مقایسه صرف مقادیر نادرست است. مدت زمان نگاه طول کلمه 100ms 6 250ms 8 150ms 7 یک راه ساده برای عادی سازی مقادیر، تقسیم مدت زمان بر تعداد کاراکترها است. با این حال، این تبدیل فرض میکند که زمان خواندن معمولاً یک تابع افزایش خطی تعداد کاراکتر است، با مقدار صفر زمانی که تعداد کاراکترها صفر است که کاملاً درست نیست. مدت زمان نگاه طول کلمه تنظیم شده مدت زمان نگاه (مدت / طول) 100ms 6 16.67 ms/نویسه 250ms 8 31.25 ms/نویسه 150ms 7 21.4 ms/نویسه بهترین راه برای عادی سازی مدت زمان نگاه در این مقاله شرح داده شده است: > موقعیتی نزدیک به چهار فرض می کند که زمان خواندن معمولاً یک > خطی است تابع تعداد کاراکترها، با فاصله صفر. یک تحلیل رگرسیون خطی را می توان برای تخمین شیب و فاصله صفر چنین تابعی و در نتیجه برای تخمین زمان های خواندن مورد انتظار برای > مناطق با طول های مختلف استفاده کرد. انحراف از این زمانهای مورد انتظار وجود عواملی را نشان میدهد که خواندن هر بخش معین را تسریع یا کند کرده است. چنین تحلیلی با محاسبه معادله رگرسیون خطی > بیان زمان خواندن برای هر بخش در هر قطعه تجربی به عنوان تابعی از تعداد کاراکترهای موجود در آن برای هر موضوع انجام شد. همبستگی > میانگین در همه آزمودنی ها 0.38 بود. از معادله رگرسیون برای به دست آوردن زمان خواندن مورد انتظار بر اساس تعداد کاراکترها به تنهایی برای هر بخش استفاده شد. سپس زمانهای خواندن مورد انتظار از زمانهای خواندن بهدستآمده کم شد و امتیازات اختلاف حاصل به آنالیز واریانس ارسال شد. تناسب خطی {6,100},{8,250},{7,150} = 75x - 358.333 مدت زمان نگاه طول کلمه طول مدت تفاوت مورد انتظار نگاه 100ms 6 75(6) - 358.333 = 91.66 8.34 250ms 8.34 - 337.8 =337. 8.33 150ms 7 75(7) - 358.333 = 166.67 -16.67 **سوال من** ارسال تفاوت امتیازها به تحلیل واریانس در نهایت به ما اجازه می دهد تا مقادیر تبدیل شده را بدست آوریم؟ آیا صرفاً استفاده از امتیازهای تفاوت به عنوان نمرات نرمال شده یک نرمال سازی کافی در نظر گرفته می شود؟ **نکته** بهترین پاسخ باید مثالی از محاسبه لازم برای بدست آوردن مقادیر نهایی تصحیح شده ارائه دهد، می توانید از مقادیر نمونه ارائه شده در سوال استفاده کنید. | عادی سازی زمان خواندن با استفاده از تحلیل واریانس |
22542 | اجازه دهید $X\,$ یک r.v غیر منفی باشد. با pdf شناخته شده $f(x|\theta)$ اما با یک پارامتر مجهول $\theta$. فرض کنید که می توان از میانگین $\mu$ برای تعیین منحصر به فرد مقدار $\theta$ استفاده کرد، یعنی اگر مقدار $\mu$ داده شود، می توان مقدار $\theta$ را مستقیماً محاسبه کرد. بنابراین، یک راه جایگزین برای نوشتن pdf $f(x|\mu)$ است. تابع ضرر را در نظر بگیرید $L(z,\mu)=\int_z^\infty (x-z)f(x|\mu)\,\mathrm{d}x = \mathbb{E}\\{[x-z]^+ \\}$. سوال من این است که آیا می توان نشان داد که این تابع در $\mu$ برای $f(\cdot)$ عمومی محدب است؟ * * * به عنوان مثال، توزیع نمایی را با $f(x|\theta)=\theta e^{-x\theta}$ در نظر بگیرید. سپس به وضوح $\theta=\frac{1}{\mu}$، و بنابراین $f(x|\mu)=\frac{1}{\mu}e^{-x/\mu}$ را بنویسید. با توجه به اینکه: $\int_z^\infty (x-z)f(x|\mu)\,\mathrm{d}x =\int_z^\infty xf(x|\mu)\,\mathrm{d}x-z(1 -F(z|\mu))$ که در آن $F(x|\mu)$ سی دی اف $X$ داده شده $\mu$ است، و با استفاده از این واقعیت که $\int_z^\infty xf(x|\mu)\,\mathrm{d}x=(z+\mu)e^{-z/\mu}$ و آن $F(z|\mu)=1- e^{-z/\mu}$ برای توزیع نمایی، سپس به وضوح $\frac{dL(z,\mu)}{d\mu}=\left(\frac{z^2+z\mu+\mu^2}{\mu^2}\right)e^{-z /\mu}-\left(\frac{z}{\mu}\right)^2e^{-z/\mu}=\left(\frac{z}{u}+1\right)e^{ -z/\mu}$ $\frac{d^2L(z,\mu)}{d\mu^2}=\frac{z^2}{\mu^3}e^{-z/\mu} \geq 0$ از آنجایی که مشتق دوم غیر منفی است، تابع ضرر برای توزیع نمایی با توجه به میانگین $\mu$ محدب است. * * * پیشاپیش از کمک شما سپاسگزارم! | تحدب تابع ضرر با توجه به میانگین |
66284 | سوال ساده: معادله بهروزرسانی یک $x_i$ در یک بهروزرسانی نمونهگیری گیبس، $p(x_i | x_{-i})$ چیست، اگر مدل را داشته باشم: $\theta$ $|$ $\alpha \sim Dir(\alpha)$ $X_i$ $|$ $\theta \sim گسسته(\theta)، i = 1, 2, 3$ آیا توزیع پیشبینی دیریکله است چند جمله ای؟ $\frac{N_i + \alpha_i}{\sum^k_{j=1}(N_j + a_j)}$ | نمونه گیری گیبس با یک دیریکله-چندجمله ای |
68380 | من به دنبال عقاید/تفسیر در مورد مدلی هستم که سعی میکنم متناسب باشم. سلب مسئولیت: من یک بوم شناس هستم و یک آمارگیر نیستم. و من قدردان وقت و نظرات همه هستم! من به طور کلی زور و همکاران را دنبال می کنم. توصیههای سال 2009 (با استفاده از R) در تلاشی برای مدلسازی سرعت سفر به عنوان تابعی از چند متغیر محیطی، که اصلیترین مورد مورد علاقه یک متغیر «درمان» 1/0 است. داده ها طبیعتاً سلسله مراتبی هستند و بنابراین من از یک مدل ترکیبی با یک برش تصادفی استفاده کرده ام. مدل ترکیبی به طور قابل توجهی بهتر از مدل پایه «gls» متناسب است. علاوه بر این، من یک varIdent را با مدل ترکیبی اضافه کردم، و این به طور قابل توجهی بهتر از مدل بدون آن است. از این نقطه، من به مفروضات و تشخیصها نگاه کردهام - فکر میکنم باقیماندهها خوب به نظر میرسند، اما همیشه تشخیص اینکه الگوی زیاد است یا خیر، مشکل دارم. من فکر می کنم کمتر از 5٪ از داده ها خارج از 2/-2 هستند، بنابراین من در آنجا خوب هستم. به نظر نمیرسد که این تغییرات توسط هیچ نقطه خاصی ایجاد شود، و واریانس باقیماندهها برای هر گروه از درمان نزدیک به 1 است (با استفاده از tapply؛ من این را به عنوان ناهمگونی جزئی تفسیر میکنم). نمودار جعبه ای از باقیمانده ها با اثر تصادفی، گسترش مساوی در اطراف صفر و تغییرات جزئی = استقلال را نشان می دهد (به زیر مراجعه کنید)؟ من به باقیمانده ها در مقابل برازش (خیلی بد)، باقیمانده ها در مقابل هر متغیر کمکی (الگوی یکی از متغیرهای کمکی من، ارتفاع)، هیستوگرام باقیمانده ها (هنوز کاملاً اریب) نگاه کرده ام و همه مشاهدات تأثیرگذار بالقوه را بررسی کرده ام. من فقط نمی دانم که آیا تمام شده ام و اکنون می توانم این مدل را مناسب در نظر بگیرم؟ من چند تصویر تشخیصی اضافه کردهام (متغیر پاسخ نمیتواند از مقدار مشخصی پایینتر رود، بنابراین نمودار باقیمانده یک خط واضح در مقادیر منفی نشان میدهد) - std residuals vs fitted; باقیمانده توسط رهگیری تصادفی. هیستوگرام باقیمانده ها (نرمال نشده)؛ باقیمانده ها بر اساس متغیرهای کمکی ارتفاع - ممکن است چیزی در اینجا رخ دهد، اما مطمئن نیستم چگونه با آن برخورد کنیم:     | مدل مختلط رهگیری تصادفی در R - آیا این مناسب است... خوب است؟ |
3156 | میانگین من '3.454992884900722e+008' است و فواصل اطمینان من از سه توزیع (در مقایسه با میانگین داده شده) عبارتند از: **CI برای dist. 1:** 1.0e+008 * [4.084733001497999 4.097677503988565] ** CI برای منطقه. 2:** 1.0e+008 * [5.424396063219890 5.586301025525149] ** CI برای منطقه. 3:** 1.0e+008 * [2.429145282593182 2.838897116739112] **ویرایش:** اطلاعات بیشتر به شرح زیر است: **برای منطقه. 1:** `p = 8.094614835195452e-130 و h = 1` **برای منطقه. 3:** `p = 2.824626709966993e-072 و h = 1` **برای منطقه. 3:** `p = 3.054667629953656e-012 و h = 1` میتوانید توضیح دهید که در مقایسه با میانگین بر اساس CI، کدام توزیع از بین این سه باید انتخاب شود و چرا؟ امیدوارم سوالم واضح باشه در مورد سوال هر چیزی را ویرایش/پیشنهاد کنید. با تشکر | سوال در مورد فاصله اطمینان |
27500 | فرض کنید به هر دلیلی، آماردان مشهوری هستید که شانس او را دارد و تنها 100 دلار برای زندگی در هفته آینده دارید. فرض کنید در مرحله بعد، شخصی با چرخاندن یک سکه به شما یک بازی پیشنهاد می دهد (بدون حیله با سکه) و به شما پیشنهاد می دهد که اگر روی سرش بیفتد 150 دلار به شما بدهد و اگر روی دم فرود آمد، 100 دلار شما را بگیرد (هفته غذا نیست). حالا شما میدانید که صرف نظر از بازدهی، احتمال عدم غذا ثابت میماند (و اینکه یک آماردان مشهور هستید، هیچ بهانهای ندارید که ندانید.) قبل از گاز گرفتن و شانس دادن به آن، سود مورد انتظار چقدر باید باشد. روی تلنگر یک سکه؟ آیا می توان آن تصمیم را با یک فرآیند آماری یا بیشتر روان شناختی مدل کرد؟ | رویدادهای یک شات |
109495 | من مقدار زیادی از احتمالات و آمار را مطالعه کرده ام، اما خجالت می کشم بگویم که خیلی از آن را فراموش کرده ام. از راهنمایی هایی که هر کسی در این مورد داشته باشد قدردانی می کنم: من مجموعه ای از حدود 360 سری زمانی دارم، آنها را S_all صدا کنید. من میخواهم بتوانم در زمان t پیشبینی کنم که از کدام سری زمانی از S_all در نمونه S_chosen استفاده کنم، به طوری که میانگین S_chosen(@ t+1) >= میانگین S_all(@ t+1). آیا کسی الگوریتمها، تکنیکها یا مقالهای (آماری یا یادگیری ماشینی) دارد که به شدت به این مشکل رسیدگی کند؟ من سریهای زمانی کامل را در S_all دارم تا بتوانم میانگینها، واریانسها، همبستگیها و غیره را تخمین بزنم. متأسفم که آن را تا این حد گسترده نگه داشتهام، اما من هدفمند به دنبال رویکردهای کلی هستم، نه راهحلهای تضمینی. پیشاپیش متشکرم | رویکردهای نمونه گیری فرعی برای فراتر رفتن از میانگین جمعیت |
74960 | من تقریباً 20٪ داده در نمونه خود گم شده است (n=3215). هدف من این است که تفاوتهای قبل از بعد را در مقیاس روانسنجی ارزیابی کنم. به خصوص اقدامات پس از آن به دلیل مسائل پیگیری وجود ندارد. چه باید کرد؟ آیا باید موارد را به صورت فهرستی/دو به دو حذف کنم یا موارد گمشده را با میانگین سری یا درونیابی خطی جایگزین کنم؟ من ماژول SPSS Multiple Imputation/Missing values را روی SPSS خود نصب نکرده ام. | داده های گمشده SPSS نمونه های زوجی آزمون t |
34565 | من در حال انجام چند آمار توصیفی از بازده روزانه شاخص های سهام هستم. یعنی اگر $P_1$ و $P_2$ به ترتیب سطوح شاخص در روز 1 و روز 2 باشند، آنگاه $log_e (\frac{P_2}{P_1})$ بازدهی است که استفاده میکنم (کاملاً استاندارد در ادبیات) . بنابراین کشش در برخی از این موارد بسیار زیاد است. من به داده های روزانه حدود 15 سال نگاه می کنم (بنابراین مشاهدات سری زمانی حدود 260 دلار * 15 دلار) به این معنی است که sds mins maxs scws shorts ARGENTINA -0.00031 0.00965 -0.33647 0.13976 -15.17454 5300IA 499. 0.00640 -0.03845 0.04621 0.19614 2.36104 CZECH.REPUBLIC 0.00008 0.00800 -0.08289 0.05236 -0.16920 5.730905.700 F. -0.03845 0.04622 0.19038 2.37008 مجارستان -0.00019 0.00880 -0.06301 0.05208 -0.10580 4.20463 ایرلند 0.00000641 - 0.0000030 0.04621 0.18937 2.35043 رومانی -0.00041 0.00789 -0.14877 0.09353 -1.73314 44.87401 سوئد 0.00004 0.00004 0.00755 - 0.00756 0.22299 3.52373 UNITED.KINGDOM 0.00001 0.00587 -0.03918 0.04473 -0.03052 4.23236 -0.00007 0.00745 -0.00745 -0.01014 -0.00184 63.20596 استرالیا 0.00009 0.00861 -0.08831 0.06702 -0.74937 11.80784 چین -0.00002 0.00072 -0.40623 0.40623 0.061781.06931. HONG.KONG 0.00000 0.00031 -0.00237 0.00627 2.73415 56.18331 INDIA -0.00011 0.00336 -0.03613 0.03063 -0.03063 -0.2231S1391ND I -0.00031 0.01672 -0.24295 0.19268 -2.09577 54.57710 JAPAN 0.00008 0.00709 -0.03563 0.06591 0.571126 - 2000000000. 0.00861 -0.35694 0.13379 -16.48773 809.07665 سوال من این است: آیا مشکلی وجود دارد؟ من می خواهم تجزیه و تحلیل سری های زمانی گسترده ای را روی این داده ها انجام دهم - تحلیل رگرسیون OLS و Quantile و همچنین علیت گرنجر. هم پاسخ من (وابسته) و هم پیشبینیکننده (پسرونده) این خاصیت کشیدگی عظیم را دارند. بنابراین من این فرآیندهای بازگشتی را در دو طرف معادله رگرسیون خواهم داشت. اگر غیر عادی بودن به اختلالات سرازیر شود که فقط خطاهای استاندارد من را واریانس بالا میکند درست است؟ (شاید من به یک بوت استرپ قوی نیاز دارم؟) | کشیدگی غول پیکر؟ |
66752 | من باید مشکل زیر را حل کنم: با توجه به آزمایشهای $n$ بله/خیر و احتمال موفقیت $p$، حداقل انتظار چند موفقیت $k$ را میتوانم داشته باشم (مثلاً با 'اطمینان' $c=95\ %$ یا بیشتر)؟ راه دیگری برای بیان آن این است: من می خواهم 95٪ مطمئن باشم که حداقل $k$ موفقیت داشته باشم. همه چیز داده شده است و من به $k$ علاقه مند هستم. از آنجایی که تابع توزیع تجمعی (CDF) برای توزیع دو جمله ای $$ F(k; n, p) = P(X \leq k) = I(1 - p؛ n - k، k + 1)، $$ است که در آن $I(\cdot; \cdot, \cdot)$ نشان دهنده تابع بتای ناقص منظم است و من بیشتر به محاسبه عددی علاقه دارم نتیجه، روشی که من میخواستم این کار را انجام دهم این است که $$ را حل کنم P(X \geq k) = 1 - P(X \leq k - 1) = I(p; k, n - k + 1) = c $$ برای $k$ با استفاده از Maxima (اگرچه هر رویکرد/ابزار دیگری نیز خوب خواهد بود). با این حال، با انجام برخی بررسی های سلامت عقل با CDF، نتایج غیرمنتظره ای دریافت می کنم. به عنوان مثال، من انتظار دارم که مقدار احتمالی برای F(1; 100، 0.63) = beta_incomplete_regularized(.37, 99, 2) دریافت کنم، اما خروجی Maxima: `1.898744430721408*10^-16*%i+1.014630 نظرات / نکات به این خروجی، یا به طور کلی به رویکرد؟ استفاده از چه ابزار دیگری در اینجا ساده است؟ | CDF توزیع دو جمله ای را محاسبه کنید |
66755 | من دیروز در مورد سرریز پشته سؤال زیر را پرسیدم: تابع دوجمله ای منفی در R Reading نظر 2، می دانم که نمی توانم از رویکرد مدل سازی دوجمله ای منفی استفاده کنم (مدل پواسون کار می کند، اما گمان می کنم که فرض میانگین و واریانس برابر نامعتبر است. من مطمئن نیستم که چگونه می توانم این را با افست آزمایش کنم) و نسخه های بتا را با یک دسته مرجع مقایسه کنم. من در گوگل جستجو کرده ام و کتاب هایم را جست وجو کرده ام، اما هیچ روش دیگری برای مقایسه نرخ بروز چندگانه پیدا نمی کنم. b <- data.frame(s=c(1800,539,490,301), pop=c(2900000,1327000,880000,268000), reg=c(A،B،C،D) ) summary(pois.b<-glm(s~reg,offset=log(pop),data=b,family=poisson)) بنابراین سوال این است: آیا تفاوتی بین مناطق از نظر بروز وجود دارد؟ از آنجایی که سوال دیروز مربوط به نرم افزار بود و امروز از نظر آماری مزه دارتر است، من فکر کردم که در اینجا به صورت متقاطع تعلق دارد. ویرایش: 11 اوت: از آنجایی که هیچ متغیر دیگری در اینجا وجود ندارد و اعداد بزرگ هستند، حدس میزنم چیزی به سادگی pairwise.prop.test(x=b$s,n=b$pop,p.adjust.method=bonferroni ) من را راه درازی می برد. | مقایسه میزان بروز چندگانه |
74964 | من یک برنامه وب دارم که به کاربران امکان می دهد سوالات خود را مطرح کنند. در نهایت من دادههای زیر را ذخیره میکنم: 1) سؤالاتی که هر کاربر تلاش کرده است 2) سؤالات صحیح توسط هر کاربر 3) میانگین. زمان برای هر کاربر برای پاسخ های صحیح من باید یک امتیاز برای هر کاربر بر اساس میانگین زمان آنها محاسبه کنم. طبیعتاً کاربرانی که میانگین زمان کمتری دارند باید امتیاز بیشتری کسب کنند. مشکل: کاربران می توانند سوالات مختلفی را مطرح کنند. یک کاربر می تواند 1 سوال یا 1000 سوال بپرسد. بدیهی است که من میانگین زمان را از کاربران با 1000 سؤال می خواهم تا تأثیر بیشتری بر محاسبه میانگین (متوسط زمان برای هر کاربر) داشته باشد. لطفا یک فرمول برای همین پیشنهاد دهید. | امتیازات کاربران با فعالیت های متفاوت را محاسبه کنید |
109493 | من یک مدل رگرسیونی انجام دادهام که در آن تعداد مکعبها (متغیر مستقل) را بر اساس مقدار واحدهایی که برای هر نوع محصول شروع کردم (متغیرهای وابسته، `X1, X2, X3, X4, X6, X9, X10, X15) تعیین میکنم. `). اما من نظر دومی در مورد نتایج میخواهم، زیرا آزمایشهایی که برای ناهمسانی انجام دادم (آزمایش بروش-پگان و سفید) نشان میدهد که دادههای من ناهمسانی دارند. اما فکر می کنم به این دلیل است که داده های زیادی دارم (500000 مشاهده). با نگاهی به نمودارهای زیر، به نظر نمی رسد که ناهمگونی زیادی را دریافت کنم، اگرچه به نظر می رسد که در داده های من موارد پرت وجود دارد. اما میخواهم نظر دومی داشته باشم و میخواهم بدانم آیا نتایج من خوب به نظر میرسد تا بتوانم از این مدل رگرسیون استفاده کنم و بتوانم فرض کنم (1) باقیماندههای من به اندازه کافی به توزیع نرمال نزدیک است و (2) نشانه کمی از ناهمسانی وجود دارد. ? در اینجا ضرایب `Coef Estimate Std. خطای t مقدار Pr(>|t|) X1 0.023493012 0.000497393 47.23233675 0 X2 0.002248871 0.000777214 2.893502743 0.0023 0.0026 0.000484908 144.2215372 0 X4 0.084532734 0.000883563 95.67252408 0 X6 0.014607296 0.0004583675 39025-390. 0.409846348 0.001738917 235.6905778 0 X10 0.128915999 0.000468583 275.1187379 0 X15 0.0428647171758758. 6.58E-245` `R-squared: 0.8158 Adj R-squared: 0.8158 F-stat: 3.47e+04, p-value < 2.2e-16` در اینجا همه نمودارها آمده است.     | تجزیه و تحلیل نتایج رگرسیون |
23335 | من باید یک طبقهبندی خطی روی لپتاپ خود با صدها هزار نقطه داده و حدود ده هزار ویژگی آموزش دهم. گزینه های من چیست؟ وضعیت هنر برای این نوع مشکلات چگونه است؟ به نظر می رسد که نزول گرادیان تصادفی جهتی امیدوارکننده است، و احساس من این است که این حالت از هنر است: Pegasos: Primal Estimed Sub-GrAdient SOlver for SVM Shai Shalev-Shwartz، Yoram Singer، Nathan Srebro، Andrew Cotter. ریاضی. برنامه نویسی، سری B، 127(1):3-30، سال: 2007 آیا این اتفاق نظر است؟ آیا باید در جهت دیگری نگاه کنم؟ | طبقه بندی با داده های چربی بلند |
66753 | من در حال کار بر روی پروژه ای با استفاده از رگرسیون لجستیک برای پیش بینی حفظ دانش آموزان هستم. داده ها از طریق سه ابزار خود گزارشی جمع آوری شد. ما در تلاشیم تا دریابیم کدام پیشبینیکنندهها به اندازه کافی قدرتمند هستند تا دانشآموزان در معرض خطر را پیشبینی کنند. به مقالاتی برخورد کردم که میگفتند یک نمونه متعادل (50٪ ماندن، 50٪ ترک تحصیل) برای چنین مطالعه ای مطلوب است، به عنوان مثال. گلین، جی.جی.، ساور، پی ال.، و میلر، تی. (2003). سیگنالدهی حفظ دانشآموز با دادههای پیش از تحصیل، مجله _NASPA، 41 (1)، 41-67: > با این حال، یک مشکل این است که توزیع متغیر وابسته به احتمال زیاد به سمت پایداری منحرف میشود. به عنوان مثال، اگر 85 درصد از نمونه تجزیه و تحلیل > پایدار بودند، یک مدل طبقه بندی که > هر دانش آموز را به عنوان مداوم طبقه بندی می کند، ضریب موفقیت 85 درصدی خواهد داشت یا > 85 درصد دانش آموزان را به درستی طبقه بندی می کند. برای حل این مسئله، حفظ تعادل نسبی بین تعداد ترک تحصیل و تعداد بازدارنده ها > (هر کدام حدود 50 درصد) در نمونه آنالیز مطلوب بود. آیا این حقیقت دارد؟ نمونه ما فقط حدود 30-25 درصد دانش آموزان ترک تحصیل دارد. آیا این روی نتایج تاثیر خواهد گذاشت؟ | آیا برای اجرای رگرسیون لجستیک به یک نمونه متعادل (50% بله، 50% خیر) نیاز دارم؟ |
74965 | 1. برای انجام کالیبراسیون مدل رگرسیون کاکس (یعنی ارزیابی توافق بین نتیجه پیش بینی شده و مشاهده شده)، بهترین روش برای ارائه دقت مدل در پیش بینی رویداد واقعی چیست؟ 2. تا آنجایی که من متوجه شدم، میتوانیم احتمال نتیجه واقعی را با مشاهده تعداد رویدادهایی که در تعدادی از موضوعات با احتمال مشابه/یکسان پیشبینی شده از مدل کاکس رخ داده است، محاسبه کنیم. برای انجام محاسبات فوق، آیا ریسک پیش بینی شده را به چند گروه طبقه بندی می کنیم (<15٪، 15-30٪، 30-45٪ و غیره)، و در هر گروه خطر از تعداد افراد به عنوان مخرج محاسبه استفاده می کنیم. از نتیجه واقعی؟ 3. از چه روشی برای مقایسه نتیجه پیش بینی شده با نتیجه واقعی استفاده می کنیم؟ آیا به اندازه کافی خوب است که درصد ریسک پیش بینی شده و واقعی را در هر گروه ریسک در قالب جدول ارائه کنیم؟ آیا بسته rms در R می تواند همه کالیبراسیون ها را برای شما انجام دهد؟ 4. آیا می توانیم از «pec::predictSurvProb()» برای ارائه ریسک مطلق رویداد برای هر فرد استفاده کنیم؟ آیا میتوانیم نقطه زمانی عملکرد ریسک/خطر را برای هر فرد در نقطه پایانی پیگیری مشخص کنیم؟ 5. آیا هنگام تفسیر نتایج، از دوره پیگیری _mean_ (بر حسب سال) به عنوان نقطه زمانی استفاده می کنیم که ریسک پیش بینی شده و ریسک واقعی بر اساس آن است؟ (به عنوان مثال، فرد A دارای 30٪ خطر رویداد در 6.5 سال (میانگین دوره پیگیری) است) 6. آیا آزمون خوب بودن تناسب برای رگرسیون کاکس (آزمون گرونسبی و بورگان) صرفاً وسیله ای برای کالیبراسیون برای رگرسیون کاکس است؟ یا معنای دیگری دارد؟ 7. برای مقایسه مدلها با طبقهبندی مجدد خالص، به چند موضوع و پیامد نیاز داریم تا چنین روشی معتبر شود؟ | کالیبراسیون تحلیل بقای رگرسیون کاکس |
91034 | من میپرسیدم که تفاوت نظری بین آزمون مجموع رتبه ویلکاکسون و آزمون رتبهبندی امضا شده ویلکاکسون با استفاده از مشاهدات زوجی چیست. من میدانم که تست جمعآوری رتبهای Wilcoxon مقدار متفاوتی از مشاهدات را در دو نمونه مختلف امکانپذیر میکند، در حالی که آزمون رتبهبندی امضاشده برای نمونههای زوجی این اجازه را نمیدهد، با این حال به نظر میرسد که هر دوی آنها به نظر من یکسان را آزمایش میکنند. آیا کسی میتواند اطلاعات تئوری/پیشزمینهای بیشتری به من بدهد که چه زمانی باید از تست جمعآوری رتبه ویلکاکسون استفاده کرد و چه زمانی باید از تست رتبهبندی امضا شده ویلکاکسون با استفاده از مشاهدات زوجی استفاده کرد؟ پیشاپیش متشکرم | تفاوت بین آزمون مجموع رتبه ویلکاکسون و آزمون رتبه امضا شده ویلکاکسون با استفاده از مشاهدات زوجی |
23088 | من می دانم که این سوال قبلا پرسیده شده است، اما من به یک کتاب آماری خاص نگاه می کنم نه فقط یک کتاب سطح درجه. من به کتاب آمار نگاه می کنم که فراتر از دوره کارشناسی احتمالات و آمار است و به مواردی مانند طرح QQ، تست Wilcoxon می پردازد که برای تجزیه و تحلیل داده ها مفید است. من به همه آمارهای ناپارامتریک توسط واسرمن نگاه کردم و سبک قضیه - اثبات آن چیزی نیست که من دنبالش بودم. به علاوه، کتاب شامل این موضوعاتی که من به دنبال آن هستم نیست. آیا توصیه هایی وجود دارد؟ | پیشنهادات کتاب آمار |
34563 | من دو درمان دارم (کوادرات مسموم کننده جوندگان ($n=5$) و ربعات غیر مسموم کننده ($n=5$)) و برای هر درمان تعداد بی مهرگان شناسایی شده به صورت جداگانه را بررسی می کنم که در طول زمان پس از 6$، 15$، 30$ ظاهر می شوند. دلار و 42 دلار ماه. مجموعه دادههای من تعدادی بیمهرگان جدید انباشتهشده است که برای دو تیمار در طول زمان ظاهر میشوند. من دادهها را بهعنوان تعداد انباشتهای از بیمهرگان جدید سازماندهی کردم (بیمهرگان یافت شده و شناساییشده در T در T+1 در نظر گرفته نمیشوند) بین جستجوها. چگونه می توانم اثرات درمانی را برای ارزیابی اینکه آیا در کوادرات های مسموم کننده جوندگان تعداد بی مهرگان به طور قابل توجهی بیشتر از ربع های غیر مسموم است مقایسه کنم (این هدفی است که باید به آن رسید)؟ آیا راهی وجود دارد که بدانیم آیا میزان ظهور بی مهرگان جدید تفاوت بین درمان ها؟ ویرایش: من تعداد انباشته شده ای از بی مهرگان جدید (بی مهرگانی که در T یافت و شناسایی شده اند در T+1 در نظر گرفته نمی شوند) بین جستجوها انجام دادم. آیا راهی برای دانستن اینکه آیا میزان ظهور بی مهرگان جدید بین تیمارها متفاوت است وجود دارد؟ | آزمایش تفاوت بین گروه های درمانی در طول زمان؟ |
34561 | من روی مشکل داده های گمشده زیر کار می کنم تا در مورد آمار، احتمالات و یادگیری ماشین بیشتر بیاموزم، اما واقعاً در حل آن پیشرفتی ندارم: من گروهی از اعداد صحیح نامرتب و غیر منحصر به فرد دارم. به دلیل خطای نمونه گیری، احتمال کمی وجود دارد (مثلاً <= 5٪) که یک یا چند عدد صحیح از دست رفته باشد. من از یک الگوریتم تطبیق الگو در مقابل یک مجموعه آموزشی استفاده کردم و دریافتم که در هر گروه یک یا چند الگو از اعداد صحیح وجود دارد که ممکن است همپوشانی داشته باشند. به عنوان مثال: > گروه با داده های گمشده احتمالی: 1، 2، 3، 3، 4، 5 > > الگو: 1، 2، 3 > > الگو: 1، 2، 3، 3 > > الگو: 3، 4، 5 > > الگو: 3، 4، 5، 6 من تعدادی از روش های طبقه بندی، خوشه بندی و احتمال خام را با استفاده از الگوها امتحان کرده ام، اما چیز زیادی نداشته ام. شانس سوال من این است که بهترین روش برای تعیین اینکه آیا اعداد صحیح گم شده یا ممکن است وجود داشته باشند چیست؟ آیا استراتژی های متفاوتی وجود دارد؟ کم کم دارم فکر می کنم مشکلی را خیلی سخت انتخاب کرده ام که بتوانم آن را یاد بگیرم. :) | استراتژی های بازیابی اطلاعات از دست رفته |
113684 | من در حال تجزیه و تحلیل مجموعه داده های پانل با Stata 13 هستم. برای تصمیم گیری در مورد اینکه آیا باید از تخمینگر اثر تصادفی یا اثر ثابت استفاده کنم (به زبان Stata، 'xtreg, re' VS 'xtreg, fe')، آزمون Sargan-Hansen را اجرا می کنم. محدودیتهای بیش از حد شناسایی، که بر اساس رویکرد رگرسیون مصنوعی توصیف شده توسط آرلانو (1993) است. به طور خلاصه، آماره سارگان-هنسن، مجذور کای از آزمون والد برای معنیداری رگرسیونهای اضافی در یک مدل اثرات تصادفی افزوده است، که در آن متغیرهای اضافی انحراف از میانگین رگرسیونهای متغیر زمانی اصلی هستند. در Stata، آزمایش با دستور پس از تخمین «xtoverid» نوشته شده توسط مارک شافر پس از تخمین مدل اثرات تصادفی افزوده پیادهسازی میشود. خروجی آزمون به صورت زیر است: . متغیر xtoverid _cons یافت نشد r(111); دلیل آن این است که Stata همه ضرایب را با مدل اثرات تصادفی افزوده تخمین می زند، اما تخمین ثابت را برآورد نمی کند. برای ثابت، خروجی زیر را می دهد: _cons | 0 (حذف شده) در مراحل بعدی تجزیه و تحلیل خود، از مشخصات مدل مشابه استفاده می کنم، اما Stata همه ضرایب (از جمله عبارت ثابت) را تخمین می زند، بنابراین وقتی از دستور پس از تخمین «xtoverid» استفاده می کنم با این مشکل مواجه نمی شوم. آیا پیشنهادی برای حل این مشکل دارید؟ آیا باید اطلاعات اضافی برای سهولت در پاسخ بنویسم؟ اگر بله، چه؟ | Stata - xtoverid - متغیر _cons یافت نشد |
27503 | من می دانم که برای محاسبه احتمال وقوع دو رویداد مستقل، می توان به سادگی احتمالات را ضرب کرد. با این حال، موارد زیر را در نظر بگیرید: فهرستی از شهرستانها در سواحل شرقی ایالات متحده، هر شهرستان احتمال وقوع طوفان در سال آینده را دارد. من سعی می کنم احتمال ریزش توفان به چندین شهرستان را به طور همزمان محاسبه کنم، یعنی سه شهرستان در یک سال رخ دهد. با این حال، بسیاری از شهرستان ها یا در یک ایالت یا در ایالت های مجاور هستند، بنابراین مستقل نیستند. به عنوان مثال (شهرستان، احتمال) Cameron 0.045 Hidalgo 0.049 Willacy 0.023 Kenedy 0.064 برای این شهرستان ها، از آنجایی که یک طوفان منفرد ممکن است چندین شهرستان را تحت تأثیر قرار دهد، چگونه باید در مورد محاسبه احتمال ترکیبی از این چهار شهرستان فکر کرد که بعداً یک طوفان زمینی را تجربه می کنند. سال؟ علاوه بر این، آیا فکری در مورد چگونگی اعمال احتمال مرتبط با کاهش نسبت به استقلال دارید؟ (به عنوان مثال، دو شهرستان بسیار دور از یکدیگر، در انتهای مخالف شرق ایالات متحده). | ترکیب احتمالات مرتبط |
72756 | در قرار دادن یک الگوریتم پیشبینی باینری 1/0 در تولید، چه پیامدهایی وجود دارد که فقط پیشبینیهای مثبت (1) بررسی میشوند، به این معنی که فقط موارد مثبت درست یا نادرست شناسایی میشوند و سپس برای آموزش مدل بازخورد داده میشوند؟ آیا این الگوریتم را به هر طریقی سوگیری می کند تا به تدریج بدتر و بدتر شود زیرا هرگز منفی های درست یا نادرست را نمی بیند؟ | اعتبار سنجی الگوریتم پیش بینی |
23081 | برخی از صفات $x$ از 17 فرد به طور مکرر در 6 نقطه زمانی با استفاده از مقیاس لیکرت با 7 حواس پرت کننده ثبت شد. کدام آزمون(های) آماری را می توانم اعمال کنم تا بررسی کنم که آیا تغییرات در 6 نقطه زمانی قابل توجه بوده است؟ set.seed( 123 ) x <- ماتریس ( نمونه ( 1:7، 17*6، repl=T )، nrow = 17، byrow = TRUE، dimnames = list(1:17، paste( 'T', 1: 6, sep='' )) ) آزمون فریدمن و آزمون Quade را برای آزمایش فرضیه کلی پیدا کردم. friedman.test(x) quade.test(x) با این حال، فایلهای راهنما R، کتابهای درسی من (Bortz، Lienert و Boehnke، 2008؛ Köhler، Schachtel و Voleske، 2007؛ هر دو آلمانی)، و متون ویکیپدیا در مواردی متفاوت هستند. آنها به عنوان الزامات آزمایشی پیشنهاد می کنند. R می گوید که داده ها باید تکرار نشوند. من «تکرار نشده» را «تکرار نشده» خواندم، اما آیا این درست است؟ اگر چنین است، در مقابل، مثال در `friedman.test()` به نظر می رسد که در واقع از اقدامات تکراری استفاده می کند. با این حال، ویکیپدیا برعکس میگوید، یعنی آزمایش خوب است، بهویژه اگر دادهها معیارهای تکراری را نشان دهند. کتاب های درسی هر دو را می گویند (در همان پاراگراف که بسیار گیج کننده است). حق چیست؟ بهعلاوه، چه آزمونی برای مقایسههای تکی پسهک برای نشان دادن اینکه کدام ستون با ستونهای دیگر تفاوت قابلتوجهی دارد، چیست؟ بورتز، لینرت، بوهنک (2008). Verteilungsfreie Methoden in der Biostatistik. برلین: Springer Köhler, Schachtel, Voleske (2007). Biostatistik: Eine Einführung für Biologen und Agrarwissenschaftler. برلین: اسپرینگر | آزمون ناپارامتریک برای اندازه گیری های مکرر و مقایسات تک تک پسا در R? |
27508 | بنابراین، [ویکیپدیا میگوید] که تعریف استاندارد استقلال این است: $f_{X,Y}(x,y) = f_X(x) f_Y(y)$ چگونه این مورد برای سریهای زمانی اعمال میشود؟ چگونه هر ضلع معادله را محاسبه کنیم؟ اگر فرض کنیم که توزیع احتمال دو سری یکسان است، آنگاه $X=Y$ و ما فقط می توانیم از $f(x,y) = f(x) f(y)$ استفاده کنیم، درست است؟ بنابراین من فکر می کنم اساساً می پرسم f(x,y) چیست و چگونه آن را محاسبه کنیم؟ | چگونه تعریف استاندارد استقلال برای سری های زمانی اعمال می شود؟ |
72752 | اجازه دهید $U,V,W$ متغیرهای تصادفی مستقل با توزیع $\mathrm{Uniform}(0,1)$ باشند. من سعی میکنم احتمال اینکه $Ux^{2}+Vx+W$ ریشه واقعی دارد، یعنی $P(V^{2}-4UW> 0)$ پیدا کنم، این سوال را با استفاده از انتگرال دوگانه حل کردم، اما چگونه برای انجام این کار با استفاده از انتگرال سه گانه. رویکرد من: من با cdf شروع کردم: $P(V^{2}-4UW >0) =P(V^{2} > 4UW) = P(V>2\sqrt{UW})$ = $\int\ int_{2\sqrt{uw}}^1 P(V>2\sqrt{UW}) dU dW$ =$\int\int\int_{2\sqrt{uw}}^1 vdU dW dV$ زمان سختی برای بدست آوردن حدود انتگرال در منطقه در سه بعد پیدا می کنم. با استفاده از انتگرال دوگانه: $P(V^{2}-4UW >0) =P(V^{2} > 4UW) = P(-2\ln V <-\ln 4 - \ln U - \ln W) = P(X <-\ln 4 +Y)$ که در آن $X=-2 \ln V، Y = - \ln U -\n W $X$ دارای $\exp(1)$ است و $Y$ دارای توزیع $\mathrm{gamma}(2،1)$ است. $P(X <-\ln 4 +Y) = \int_{\ln4}^\infty P(X < -\ln 4 +Y) f_Y(y) dy $$=\int_{\ln 4}^ \infty\int_0^{-\ln 4+y} \frac{1}{2} e^{-\frac{x}{2}}ye^{-y} dxdy $$ با حل این موضوع 0.2545 دلار دریافت کردم. با تشکر | احتمال داشتن ریشه واقعی |
34569 | با توجه به مفروضات زیر، راه حل بهینه (بیزی؟) برای برازش مدل $f(x)$ به داده $h$ چیست: * $h$ برداری با عناصر $N$ است * $h$ دارای نویز گاوسی است. با کوواریانس شناخته شده $\sigma_h I$ * $x$ دارای یک توزیع گاوسی پیشینی است، با کوواریانس $C_x$ * مرتبه اول و دوم مشتقات $f(x)$ شناخته شده اند. درک من این است که: * راه حل حداکثر درستنمایی با به حداقل رساندن $\sum_{i=1}^N (f(x,i)-h_i)^2$ به دست می آید. * برآورد MAP توسط: $\sum_{i=1}^N \frac{1}{\sigma_c}(f(x,i)-h_i)^2 + \lambda x^t C_x^{-1 ارائه میشود } x$ هر دو را می توان با استفاده از تکنیک های بهینه سازی غیر خطی مانند BFGS بهینه کرد. بنابراین این سوال به این نتیجه می رسد: آیا راهی برای تعیین مقدار بهینه برای $\lambda$ وجود دارد؟ | تنظیم بهینه برای بهینه سازی غیر خطی |
93068 | من سعی می کنم در مورد رویکردی برای تخمین اثر طراحی برای یک بررسی خوشه ای چند مرحله ای تصمیم بگیرم. خوشه ها با احتمال متناسب با حجم نمونه با جایگزینی انتخاب شدند. واحدهای نمونه اولیه (مناطق) به اندازه کافی بزرگ هستند که برخی از آنها چندین بار نمونه برداری شده اند. هنگام تعریف متغیر PSU، آیا باید از نواحی منحصربهفرد درون نمونه استفاده شود یا یک متغیر خوشهای که تعداد واقعی خوشههای نمونهگیری شده را نشان میدهد؟ به عنوان مثال: یک منطقه دو بار نمونه برداری می شود، آیا متغیر PSU توصیف شده باید یک یا دو خوشه جداگانه باشد؟ با تشکر | تعریف PSU در نمونه های خوشه ای نمونه برداری شده با جایگزین. |
23331 | به خصوص در پردازش زبان طبیعی معروف است که یادگیری ماشینی باید در دو مرحله انجام شود، مرحله آموزشی و مرحله ارزیابی و باید از داده های متفاوتی استفاده کنند. چرا این است؟ به طور شهودی، این فرآیند به جلوگیری از تطبیق بیش از حد داده ها کمک می کند، اما من دلیل (نظری-اطلاعاتی) این مورد را نمی بینم. در همین راستا، من اعدادی را دیده ام که برای چه مقدار از یک مجموعه داده باید برای آموزش و چه مقدار برای ارزیابی استفاده شود، مانند 2/3 و 1/3. آیا مبنای نظری برای انتخاب یک توزیع خاص وجود دارد؟ | چرا بین مرحله آموزش و مرحله ارزشیابی عدم تقارن وجود دارد؟ |
105878 | من 7 گروه داده دارم. من می خواهم آزمایش کنم که آیا تفاوت معنی داری بین این گروه از داده ها وجود دارد یا خیر. با این حال، برخی از این داده ها همپوشانی دارند. یعنی برخی از دادههای گروه 1 ممکن است در گروه 3 باشند. برخی از دادههای گروه 6 نیز ممکن است در گروه 7 باشند. بنابراین گروه ها کاملاً مطابقت ندارند. ثانیاً به همین دلیل تعداد ورودی های هر گروه متفاوت است. به عنوان مثال، گروه 1 دارای 54 ورودی است، در حالی که گروه 4 دارای 94 ورودی است. آیا آزمون خاصی وجود دارد که بتوانم در صورت وجود تفاوت معنادار بین گروه ها از آن استفاده کنم؟ امیدوارم این موضوع را روشن کرده باشم. با تشکر فراوان از کمک شما | از کدام آزمون برای مقایسه میانگین گروه ها با داده های همپوشانی استفاده کنیم؟ |
72759 | من به صورت آنلاین با یک پروژه دوره داده کاوی مواجه شدم. داده ها مربوط به نمونه هایی با 7000 ویژگی به عنوان ژن است. هر ژن با یک ارزش مرتبط است. برخی از مقادیر منفی هستند. دادهها به این شکل به نظر میرسند: SNO U48730_at U58516_at U73738_at X06956_at X16699_at X83863_at X1 27 161 0 34 112 265 0 98 2 123 X3 24 126 0 21 0 142 X4 27 163 - 1 16 - 1 134 X5 41 138 1 29 1 153 X6 55 107 -1 17 0 152 X7 27 99 0 57 1 139 X8 2 137 - 1 19 -3 213 X9 -5 161 -3 23 2 193 X10 0 110 -3 7 -1 208 X11 -7 67 1 2 -2 149 X12 4 93 3 37 2 266 X13 2 75 3 30 6 205 استاد به دانشجویان توصیه می کند که ابتدا پاکسازی داده ها را انجام دهند. جمله اصلی آستانه داده های قطار و آزمایش به حداقل مقدار 20، حداکثر 16000 است. من ابتدا فکر کردم که جستجو در هر ژن است و اگر مقداری خارج از محدوده وجود دارد، فقط این ژن را به عنوان یک ویژگی کنار بگذارید. با این حال، به نظر می رسد برای هر ژن، نمونه ای با مقدار خارج از محدوده وجود داشته باشد. با آستانه این داده ها چه کاری باید انجام دهم؟ آیا اگر مقدار زیر 20 باشد، آن را 20 تنظیم کنید یا اگر مقدار آن بالای 16000 است، آن را فقط به عنوان 16000 تنظیم کنید؟ در واقع آخرین عملیات را در R توسط data[data<20] <- 20 انجام دادم و معلوم شد که سرعت دستور بسیار پایین است. (79*7070 نمونه) | سوالاتی در مورد آستانه گذاری داده ها |
109142 | پس از اجرای تکرارهای `lm()` در R، اکنون درگیر این هستم که کدام مؤلفه های خروجی مدل را ارائه کنم و چگونه آنها را ارائه کنم. من میدانم که مقدار $R^{2}$، نمودار ضرایب و فاصله از اهمیت مرکزی برخوردار هستند. آیا منبع رایگانی وجود دارد که نشان دهد: چگونه خروجی را تفسیر کنیم، و سپس خروجی های مدل را به صورت بصری نمایش دهیم، به خصوص خروجی از «R». من تفسیر خروجی lm() R را خواندم اما ترجمه آن به معنای آن در دامنه من دشوار است. دامنه من بازاریابی است. من سعی می کنم تأثیر تبلیغات تلویزیونی را بر تولید سرنخ مدل کنم. مقدار $R^{2}$ من زیاد است، اما وقتی ضرایب خود را با استفاده از Coefplot در R رسم میکنم، روی خط 0 قرار میگیرند. من نمی دانم از آن چه کنم. از به اشتراک گذاشتن جزئیات و خروجی بیشتر خوشحالم. در اینجا خروجی و نمودارهای مدل آمده است: فراخوانی: lm (فرمول = Leads.T ~ ImpressionsM، داده = همه مدلها روزانه) باقیماندهها: حداقل 1Q میانه 3Q حداکثر -213.81 -60.69 - 11.81 71.74 178.02 ضرایب تخمینی خطای t مقدار Pr(>|t|) (Intercept) 337.08397 22.22891 15.16 <2e-16 *** ImpressionsM 0.06898 0.00427 16.15 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 97.15 در 89 درجه آزادی چندگانه R-squared: 0.7457، R-squared تنظیم شده: 0.742 آمار: 260.9 در 1 و 89 DF، p-value: < 2.2e-16   | نحوه گرفتن و ارائه خروجی مدل lm از R |
93077 | به کمک نیاز دارم پروژه من با هدف توسعه الگوریتمهایی برای تحلیل زمانی مکانی پایگاههای اطلاعاتی فلیکر، توییتر و فورسکوئر برای شناسایی هر نوع تغییر مهمی که به عنوان رویداد نامگذاری شده است، در زمان واقعی است. رویداد را می توان به عنوان هر فعالیت غیرعادی کاربر، که در یک زمان یا در یک دوره زمانی خاص اتفاق می افتد، تعریف کرد. برای این کار، روش های مختلف خوشه بندی باید پیاده سازی شود و بهترین تناسب انتخاب شود. رویدادهای شناسایی شده برای کاوش بیشتر تجسم خواهند شد. این اطلاعات با برخی دیگر از منابع VGI برای ارائه یک سری خدمات داوطلبانه جغرافیایی یکپارچه خواهد شد. لطفاً به من پیشنهاد دهید کدام الگوریتم خوشه بندی برای این پروژه خوب است؟ و همچنین لطفا چند کتاب و مطالب آموزشی به من پیشنهاد دهید... | از کدام الگوریتم خوشه بندی استفاده کنم؟ |
66283 | من نمرات خلاصه شناختی را از مجموعه ای از 17 معیار عصب روانشناختی ایجاد کرده ام. من نمرات خام گروه بیمارم را با میانگین و انحراف معیار یک گروه کنترل سالم همسان استاندارد کردم و سپس این نمرات استاندارد شده را برای ایجاد یک نمره ترکیبی، میانگین گرفتم. نمرات ترکیبی حاصل به طور معمول توزیع شد. یک داور مجله اشاره می کند که برای استفاده از این رویکرد، نمرات خام در هر یک از معیارهای عصب روان باید به طور معمول در گروه کنترل توزیع شود. آیا این چنین است؟ آیا می توانید مرجعی را معرفی کنید که در این زمینه صحبت کند؟ | محاسبه امتیازات ترکیبی از توانایی ها |
109542 | اگر دو ماتریس از داده ها وجود داشته باشد، ردیف ها همه یک نفر هستند (زیر 50 کاربر). در مجموعه داده اول، ستونها ویژگیهای (بیش از 500 ستون) کاربر با رتبهبندی 0 برای وجود ندارد، 1 برای وجود دارد. مانند 1 برای متاهل، 0 برای غیر. مجموعه داده دوم انتخاب کاربر است. 0 بدون داده، -1 است دوست ندارد، 1 است پسند است. ماتریس انتخاب کاربر دارای برخی اطلاعات گم شده است، ویژگی کاربر کامل است. از تصمیمات شناخته شده کاربر، نحوه رتبه بندی اهمیت ویژگی های کاربر برای تصمیمات آنها. من فیلتر مشارکتی را بررسی کردهام، اما مشکل اکنون فیلتر کردن چیزها نیست، بلکه یافتن این است که کدام ویژگیها بیشتر گویای مجموعه داده فعلی هستند. اولین ایده های من انجام همبستگی بین دوست داشتن/نپسندیدن بود. که همبستگی ها را نشان می دهد. با این حال، من نمی توانم درک کنم که برای رتبه بندی ویژگی های یک کاربر چه تحلیلی می توان انجام داد. فکر دوم من این بود که از خوشه بندی kmeans برای کاربران بر اساس تصمیمات استفاده کنم، اما هنوز به نظر می رسد که این واقعاً اهمیت ویژگی های خاص در ارتباط با تصمیمات کاربر را به حساب نمی آورد. آیا این یک مشکل شناخته شده در یک روش حل است، یا این نیاز به یک روش سفارشی دارد یا از نظر تحلیلی غیرممکن است؟ | یافتن همبستگی صفات بر اساس تصمیمات شناخته شده |
80158 | اجازه دهید $B(t)$ حرکت قهوه ای باشد. $d(M(t))^2$ را پیدا کنید، جایی که $M(t)=e^{B(t)-\frac{t}{2}}$، | $B(t)$ حرکت قهوه ای است. من می خواهم $d(M(t))^2$ را پیدا کنم، جایی که $M(t)=e^{B(t)-\frac{t}{2}}$، |
93064 | حداکثر احتمال با فرمول $h_{ML}=arg\space max_{h \in H } \space\space p(D/h)$ داده میشود. $h_{ML}=arg\space max_{h \in H } \space\space p(D/h)$ $\ implies h_{ML}=arg\space max_{h \in H } \space\space \ ln (p(D/h))$ $\ به معنای h_{ML}=arg\space max_{h \in H } \space\space \ln (p(D/h))$ حالا موارد بالا را به دو قسمت تقسیم کردم. $Q(h'/h) \spearrow E_{h,X}[\ln (p(D/h))]$ $h_{ML}=arg\space max\space Q(h'/h)$ $ Q$ فقط یک تابع میانی است. $E_{h,X}$ یک تابع انتظار است که انتظار دارد داده های ناشناخته با داده های مشاهده شده $X$ باشد. آیا روش تفسیر صحیح است؟ | فرضیه حداکثر احتمال در مقابل حداکثر سازی انتظار |
99455 | من 2 راه ممکن برای معنی مرکز دارم. 1. فقط میانگین داده های آموزشی را در نظر بگیرید و داده های آزمایشی و آموزشی را با استفاده از آن مرکز کنید. 2. میانگین داده های ترکیبی آزمون و آموزش را در نظر بگیرید و داده های آزمون و آموزش را با استفاده از آن مرکز کنید. کدام یک درست است؟ | کدام رویکرد مرکزیت متوسط صحیح است؟ |
92915 | من چندین مدل رگرسیون سلسله مراتبی چند سطحی را با استفاده از rstan برازش می کنم. هر یک از این مدل ها دارای یک اطلاعات واحد قبل از توزیع سطح بالا هستند. پارامترهای واحد پیشین در ابتدا در یک «لیست» R ذخیره می شدند. سؤالات من این است: 1. آیا پارامترهای قبلی اطلاعات واحد را برای یک مدل خاص از «لیست» که بقیه داده ها در آن ذخیره می شود، ارسال می کنم؟ 2. این پارامترهای قبلی را کجا اعلام کنم؟ در بلوک پارامترها؟ با تشکر | کجا پارامترهای قبلی را در Stan اعلام کنم؟ |
72754 | من سعی می کنم ایده های این مقاله را پیاده سازی کنم: http://www.sciencedirect.com/science/article/pii/S0925231212003396. این امر مستلزم آن است که بتوانم درختان جداگانه را از جنگل حذف کنم و داده های آموزشی خود را برای هر حذف مجدداً طبقه بندی کنم. من از پکیج randomForest در R استفاده میکردم و یک شانه از طریق کتابچه راهنما داشتم، اما هیچ راهی برای اجرای جنگل با زیرمجموعهای از درختان یا حتی با یک درخت منفرد پیدا نکردم. یک تابع getTree وجود دارد اما فقط یک ماتریس از ساختار گره درخت را نشان می دهد. آیا راهی برای انجام این کار وجود دارد، چه در randomForest (ترجیحا) یا از طریق اجرای جنگل تصادفی دیگر (به عنوان مثال scikit-learn)؟ | آیا راهی برای حذف تک درختان از یک جنگل در بسته randomForest در R وجود دارد؟ |
105877 | من در حال حاضر در حال پیاده سازی تجزیه و تحلیل معنایی پنهان در جاوا با استفاده از کتابخانه EJML برای تجزیه ارزش تکین اولیه (SVD) هستم. من در حال آزمایش کدم در برابر ماتریس فرکانس عبارت اصلی ارائه شده در مقاله مقدماتی قدیمی توسط Landauer و همکاران هستم. ماتریس U SVD در مقایسه با نتایج در مقاله. ستون های 2، 6، 8 و 9 منفی نتایج مقاله هستند. حتی عجیب تر، من نتایج متفاوت دیگری (در مقایسه با EJML و مقاله) هنگام استفاده از GNU Octave و یک ابزار آنلاین (http://www.bluebit.gr/matrix-calculator/calculate.aspx) دریافت می کنم. در این مورد اخیر، ستون های 1، 7، 8 و 9 منفی نتایج در مقاله هستند. مقادیر دقیق در اینجا قابل مشاهده است:  (توجه داشته باشید که U در مقاله W نامیده می شود) این عبارت اصلی ماتریس فرکانس است (تبلیغ جدا شده): 1 0 0 1 0 0 0 0 0 1 0 1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 1 1 2 0 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 1 1 جالب است که این را با ابزارها و زبان های دیگر (R، Matlab ...) مقایسه کنید تا ببینید اینها چه نتایجی خواهند داشت. بازده بنابراین، اگر زمان دارید تا SVD را در محیط دیگری اجرا کنید، اگر بتوانید نتایج را در اینجا ارسال کنید، عالی خواهد بود. آیا کسی ایده ای دارد که این تفاوت ها از کجا می توانند ناشی شوند؟ خیلی ممنون به سلامتی، مارتین | نتایج مختلف برای تجزیه ارزش واحد (SVD) با استفاده از ابزارهای مختلف |
72753 | چگونه می توان حداکثر اندازه جمعیت داده شده، چند لحظه، و شاید برخی فرضیات اضافی در مورد توزیع را تخمین زد؟ چیزی مانند من می خواهم اندازه گیری $N_s≫1$ را از جمعیت با اندازه $N_p≫N_s$ انجام دهم؛ میانگین $μ_s$، انحراف استاندارد $σ_s$، و حداکثر مقدار در نمونه $X_s$ را ثبت خواهد کرد. مایلم توزیع دوجمله ای (یا پواسون و غیره) را فرض کنم که حداکثر مقدار X_p$ کل جمعیت چقدر است؟ سوال مرتبط: آیا نیاز به فرضیات در مورد ماهیت توزیع جمعیت وجود دارد، یا آمار نمونه برای تخمین X_p$ کافی است؟ ویرایش: پس زمینه ای که من به تازگی در نظرات اضافه کردم ممکن است به اندازه کافی واضح نباشد. بنابراین اینجاست: هدف نهایی چاپ مجموعهای از اشکال (سیمها، گیتها و غیره) روی مدار VLSI است که تا حد امکان با اشکال طراحیشده (معروف به اهداف) مطابقت داشته باشد. اندازه گیری تناسب مجموعه اشکال تولید شده به جای $\sigma$ در امتداد مکان $~10^9$، حداکثر تفاوت با هدف است. دلیل ارزیابی حداکثر تفاوت واضح است: یک اتصال کوتاه به اندازه کافی بد است که کل تراشه را از بین ببرد، و دیگر مهم نیست که در 99.9999999 درصد باقیمانده تراشه چقدر به هدف نزدیک بودید. مشکل این است که اندازه گیری شکل چاپ شده در مکان های بسیار پرهزینه است: شما به معنای واقعی کلمه باید با میکروسکوپ الکترونی به تراشه نیمه ساخته (که بعد از اندازه گیری های مخرب سطل زباله می رود) نگاه کنید، خطاهای اندازه شناسی را تنظیم کنید و غیره. بنابراین اندازه گیری بیش از 10^4 دلار به سختی انجام می شود. نتیجه این اندازهگیریها، حداکثر تفاوت هدف X_s$ از SAMPLE، و همچنین هر نمونه آماری دیگری است که ممکن است بخواهید. و اکنون باید حداکثر تفاوت X_p$ را برای کل جمعیت تخمین زد... و اکنون آرزو می کند که او در دانشگاه در کلاس آمار توجه بیشتری داشته باشد... | حداکثر اندازه جمعیت، میانگین، و واریانس مورد انتظار |
72751 | در مقاله LIBSVM: A Library for Support Vector Machines نوشته شده است که C-SVC از تابع ضرر استفاده می کند: $$ \frac{1}{2}w^Tw+C\sum\limits_{i=1}^l\xi_i $$ خوب، من می دانم، $w^Tw$ چیست. اما $\xi_i$ چیست؟ می دانم که به نوعی با طبقه بندی های اشتباه مرتبط است، اما آیا دقیقاً محاسبه شده است؟ P.S. من از هیچ هسته غیر خطی استفاده نمی کنم. | تابع ضرر برای C - دسته بندی بردار پشتیبان چیست؟ |
25013 | من اغلب چندین متغیر را، در چندین تکرار، در بسیاری از سایتها اندازهگیری میکنم. به عنوان مثال، من ممکن است فراوانی باکتری ها و نرخ رشد باکتری ها را، هر کدام در 3 تکرار، در بسیاری از سایت ها اندازه گیری کنم. هر تکرار به طور مستقل نمونه برداری می شود _و_ هر متغیر در یک نمونه متفاوت اندازه گیری می شود (یعنی، من نمی توانم هم فراوانی باکتری و هم سرعت رشد را در یک نمونه اندازه گیری کنم). من می خواهم برای تست همبستگی بین آن متغیرها. مشکل این است که از آنجایی که متغیرها به طور مستقل اندازه گیری می شوند، متغیرها جفت نمی شوند. تکرار 1 متغیر A به تکرار 1 متغیر B مربوط نمی شود، بیشتر از تکرار 2 متغیر B. من می توانم برای همبستگی بین میانگین تکرارها در هر سایت آزمایش کنم - اما این به نظر صریح است، زیرا اطلاعات را از دست می دهید. در مورد تنوع بین تکرارها برای هر پارامتر. من می توانم نوعی روش نمونه گیری مجدد را تصور کنم، که در آن به طور تصادفی یک تکرار برای هر متغیر در هر سایت انتخاب می کنم. آیا راه بهتری وجود دارد؟ | وقتی هر متغیر با تکرارهای مستقل اندازه گیری می شود، چگونه همبستگی را ارزیابی کنیم؟ |
6624 | من همین سوال را در Math SE پرسیدم، اما پیشنهاد این است که احتمالاً این سؤال به اینجا تعلق دارد. با توجه به لیستی از ابر نقاط بر حسب $(x,y,z)$ چگونه نقاط غیرعادی را تعیین کنیم؟ انگیزه این است. ما باید یک سطح زمین را از آن ابر نقطه ای که نقشه برداران هنگام انجام بررسی میدانی به دست می آورند، بازسازی کنیم. نقشه برداران تجهیزاتی را می گیرند و نمونه کافی از x,y,z$ یک زمین را ثبت می کنند. این امتیازها در یک برنامه CAD ثبت خواهند شد. مشکل این است که فایل CAD ممکن است هر از چند گاهی با معرفی نقاط غیر طبیعی خراب شود. این نقاط به طور کلی با سطح زمین مطابقت ندارند و معمولاً ارزش z$$ اشتباه دارند (یعنی مقدار $z$ خارج از محدوده نرمال است). من می دانم که تعریف نقاط غیر طبیعی کمی شل است. و من نمی توانم تعریف دقیقی از آن ارائه کنم. با این حال، وقتی نقاشی را می بینم، می دانم یک نقطه غیر طبیعی چیست. با توجه به این همه محدودیت، آیا الگوریتمی برای تشخیص این نوع نقاط غیرعادی وجود دارد؟ | تشخیص نقاط غیرعادی در ابر نقطه |
105873 | من یک ANOVA طرح ترکیبی را با دو فاکتور درون آزمودنی انجام دادم: FactorA (2 سطح)، FactorB (2 سطح)، و یک عامل بین آزمودنی ها: گروه (2 سطح). فرضیه اصلی من به تعامل FactorA*FactorB*Group مربوط می شود. این جدول ANOVA است: نوع III اندازهگیریهای مکرر آزمایشهای MANOVA: آمار آزمایش Pillai Df آمار آزمون تقریباً F num Df den Df Pr(>F) (برق) 1 0.99424 4830.5 1 28 < 2.2e-16 *** 014 گروه 1 . 1 28 0.53715 FactorA 1 0.46649 24.5 1 28 3.197e-05 *** Groups:FactorA 1 0.00685 0.2 1 28 0.66367 FactorB 1 0.14451 4.197e-05. 0.15108 5.0 1 28 0.03378 * FactorA:FactorB 1 0.09930 3.1 1 28 0.08985. گروه:FactorA:FactorB 1 0.02737 0.8 1 28 0.38232 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همانطور که می بینید، یک اثر Group*FactorB قابل توجه است، اما تعامل مورد علاقه من است (Group*FactorA* FactorB) قابل توجه نیست. با این حال، اگر بخواهم تجزیه و تحلیل پس از آن را روی Group*FactorA*FactorB انجام دهم: my_data$Interaction <- interaction(my_data$FactorA, my_data$FactorB) my_data$Interaction <- factor(my_data$Interaction) post_hoc_model <- lme (ارزش ~ تعامل، random=~1|موضوع/FactorB/FactorB,data=my_data) plan_post_hoc <- summary(glht(post_hoc_model,linfct=mcp(interaction=c( Control.Level1.Level1-Control.Level2.Level1==0, Experimental.Level1.Level1-Experimental.Level2.Level1==0، Control.Level1.Level2-Control.Level2.Level2==0، Experimental.Level1.Level2-Experimental.Level2.Level2==0 ))) test=adjusted(BY)) این نتایج را به دست آوردم: خطی فرضیه ها: Estimate Std. خطای z مقدار Pr(>|z|) Control.Level1.Level1-Control.Level2.Level1==0 0.053125 0.019228 2.763 0.0477 * Experimental.Level1.Level1-Experimental.Level2.Level1-Experimental.Level2.Level1=0.70.7. -0.690 1.0000 Control.Level1.Level2-Control.Level2.Level2==0 0.003125 0.019228 0.163 1.0000 Experimental.Level1.Level2-Experimental.Level2.Level2-Experimental.Level2.Level20200.7 =0. -0.919 1.0000 به طور خاص، اولین مقایسه، پس از تصحیح نرخ کشف نادرست، قابل توجه است، و این با فرضیه من و با بررسی ساده ابزار مطابقت دارد.  احتمالاً به دلیل حجم نمونه کوچک من، این تعامل قابل توجه نبوده است. من می دانم که پس از یک تعامل غیر قابل توجه، لازم نیست برای آن کار پس از آن انجام شود. بنابراین من تعجب می کنم که این روش چقدر توسط یک داور قابل انتقاد است. من فکر کردم مشخص کنم که مقایسه های پس از وقوع باید با احتیاط تفسیر شوند زیرا تعامل معنی دار نبود. علاوه بر این، من این عمل را در بسیاری از تحقیقات یافتم. **به نظر شما این روش کاملاً اشتباه است؟** **در نهایت چگونه می توانم از تحلیل خود در برابر انتقاد داور (شاید با مراجعه به مقالات آماری منتشر شده) دفاع کنم؟** | انجام post hoc پس از یک تعامل غیر قابل توجه در ANOVA مختلط |
92077 | من میخواهم تأثیر فرض نرمال بودن را بر فواصلی مانند بازه اطمینان t و بازه $\chi^2$ مطالعه کنم. (1) 1000 نمونه تصادفی از یک جمعیت عادی $N$($\mu$,$\sigma) دلار). از هر یک از این نمونه ها، فاصله اطمینان 95% برای میانگین جامعه و برای واریانس جامعه ایجاد کنید. بررسی کنید که از 1000 بازهای که ایجاد میکنید، حدود 950 تای آنها در واقع پارامتر واقعی را ثبت میکنند. آیا کسی می تواند من را در این مورد شروع کند؟ (2) یک مطالعه شبیه سازی با استفاده از R طراحی کنید تا دقت (نرخ ضبط 95 درصد) بازه اطمینان t و بازه $\chi^2$ را زمانی که جمعیت دیگر به طور معمول توزیع نشده است، تجزیه و تحلیل کند. شما باید حداقل پنج جمعیت مختلف (مانند گاما، F، t و غیره) را امتحان کنید. همچنین باید با اندازههای مختلف نمونه (از نمونههای کوچک تا نمونههای بزرگ، یعنی n = 10؛ 20؛ 50؛ 100) آزمایش کنید تا ارزیابی کنید که اندازه نمونه چگونه بر میزان جذب تأثیر میگذارد. آیا می توانید با استفاده از R برای بررسی یک جامعه مانند گاما یک مثال به من نشان دهید؟ | من می خواهم با استفاده از R اثر فرض نرمال بودن را بر روی بازه هایی مانند بازه اطمینان t و بازه $\chi^2$ مطالعه کنم. |
94483 | بنابراین در حال یادگیری عمیق یادگیری هستم. من ابتدا در مورد رمزگذارهای خودکار انباشته شده یاد گرفتم و اکنون در مورد ماشین های محدود بولتزمن یاد می گیرم. با این حال، در مقالهها/آموزشهایی که خواندم، دیدم آنها انگیزهدهنده هستند که چرا میخواهیم از RBM به جای رمزگذارهای خودکار استفاده کنیم. بنابراین مزایای RBM نسبت به رمزگذارهای خودکار پشتهای چیست؟ و چه زمانی باید از RBM یا رمزگذارهای خودکار استفاده کرد؟ | آیا ماشینهای محدود بولتزمن بهتر از رمزگذارهای خودکار پشتهای هستند و چرا؟ |
55364 | لطفاً کسی می تواند شهود پشت مدل های ترکیبی را به طور خلاصه توضیح دهد؟ هر وقت توضیحاتی را می خوانم، غرق در نشانه گذاری و اصطلاحات ریاضی می شوم. آیا کسی می تواند به من یک مثال ساده یا انگیزه بدهد تا به من کمک کند مفهوم را به روشی عمیق تر درک کنم؟ | مدل ترکیبی به زبان انگلیسی ساده |
80152 | فرض کنید که یک فرآیند نقطه پواسون در $\mathbb{R}^d$ با پارامتر نرخ (تراکم) $\rho$ دارید. اگر راه حلی در این مورد خاص وجود داشته باشد، به خصوص به $d=2$ اهمیت می دهم. با توجه به درک محدود، می توان درخت پوشا حداقلی مجموعه را ساخت. من میخواهم توزیع طول یالها را بدانم (مدل/تقریبی)، یعنی اگر یک یال را از درخت بهطور تصادفی انتخاب کنم، توزیع طول آن $l$ چگونه است؟ من با مقیاسبندی آرگومانها مطمئن هستم که $p_d(l \vert \rho)=f_d( \rho^{-1/d} l )$، اما نمیدانم چگونه میتوانم به تابعی دست پیدا کنم. فرم. | توزیع طول یال برای یک درخت پوشا حداقل اقلیدسی چگونه است؟ |
108427 | فرض کنید یک فاصله اطمینان 95 درصدی را بر روی میانگین ایجاد می کنید. آیا می توانید بیان کنید که احتمال 97.5 درصد وجود دارد که میانگین جمعیت واقعی زیر حد بالایی CI باشد و احتمال 97.5 درصد وجود دارد که میانگین جمعیت واقعی بالاتر از کران پایین CI باشد؟ | بیانیه احتمال با فاصله اطمینان |
112300 | من نمونه هایی از مختصات جغرافیایی فعالیت ها در یک شهر را تکرار کرده ام. در اکثر این نمونه ها موقعیت ها به سادگی تصادفی خواهند بود. با این حال، در برخی از نمونهها، درصدی از دادهها - با مقداری خطا - روی یک خط مرتب میشوند. اجازه دهید یک تصویر برای شما ترسیم کنم (کد برای تولید این داده ها در زیر):  من می خواهم قادر باشم * تشخیص دهم که آیا نمونه حاوی یک خط است * دو پارامتر این خط را از روی داده ها تخمین بزنید اگر این کار را انجام می دهد. بنابراین، سعی کردم با استفاده از مدل مخلوط بیزی، مشکل را بررسی کنم. کد زیر دادههای مدل را تولید میکند و چنین مدل مخلوطی را در PyMC پیادهسازی میکند، که به طرز شگفتآوری خوب کار میکند (توجه داشته باشید: بیشتر دادههای من «p=0» خواهند داشت، بقیه دارای «p» کاملاً مثبت هستند، از «0.2» تا «0.5» حدس میزنم): وارد کردن numpy به عنوان np از matplotlib import pyplot به عنوان plt import pymc به عنوان pm import scipy.stats به عنوان آمار # پارامترهای DGP N = 300 p0 = 0.2 آلفا0 = 0.3 beta0 = 0.2 sigma0 = 0.01 sigma_noise = 0.2 # DGP x = np.random.normal(0.5,0.2، N) y_line = np.random,0+x sigma0) line_bool = np.array(stats.bernoulli.rvs(p0, size=N)) y_rand = np.random.normal(0.5,0.2,N) y_all = y_line*line_bool + y_rand*(1-line_bool) # plot fig = plt. شکل (figsize=(8,8)) ax1 = fig.add_subplot(111,aspect='equal') ax1.scatter(x[line_bool==0], y_all[line_bool==0],c='b') ax1.scatter(x[line_bool==1], y_all[line_bool==1],c='r') # پیش برای احتمال انتساب یک توزیع بتا است که جرم احتمال زیادی را نزدیک 0 p = pm قرار می دهد. بتا (p، 1، 3، مقدار=0.5) انتساب = pm. pm.Normal(center_noise, 0.5, 0.4) tau_noise = 1.0 / pm.Uniform(tau_noise, 0، 1) ** 2 # پیشین برای پارامترهای خط beta_min = -10**1 beta_max = 10**1 line_pars = pm.Uniform(line_pars, beta_min, beta_max, size=2) tau_line = 1.0 / pm. یکنواخت (tau_line, 0, 0.05) ** 2 # توابع قطعی برای میانگین ها و واریانس ها مشروط به انتساب @pm.deterministic def center_i (انتساب=تخصیص، مرکز_نویز=مرکز_نویز، x=x، line_pars=line_pars): خط_مرکز = خط_پارس[0]+خط_پارس[1]*x تخصیص بازگشتی*خط_مرکز + (1 -assignment)*center_noise @pm.deterministic def tau_i(assignment=assignment, tau_noise=tau_noise, tau_line=tau_line): تخصیص بازگشت*tau_line + (1-انتساب)*tau_noise # متغیرهای مشاهده شده را تعریف کنید x_obs = pm.Normal(x_obs, 0.5, 0.2, value=x, مشاهده شده=درست) y_obs = pm.Normal(y_obs, center_i, tau_i, value=y_all, observed=True) # مدل مدل را تعریف کنید = pm.Model([p, assignment, center_noise, tau_noise, line_pars, tau_line]) # نمونه از mcmc خلفی = pm.MCMC(model) map_ = pm.MAP ( model ) map_.fit() mcmc.sample(50000, 20000, 3) # look در پسین نمودار وارد کردن pymc.Matplot به عنوان mcplot mcplot(mcmc.trace(p، 2)، common_scale=False) mcplot(mcmc.trace(line_pars، 2)، common_scale=False) mcplot(mcmc.trace (tau_noise، 2)، common_scale=False) mcplot(mcmc.trace(tau_line, 2), common_scale=False) این به خوبی روی داده های تولید شده کار می کند (اگرچه من از پیشنهاداتی برای بهبود آن استقبال می کنم!)، اما من گمان می کنم که داده های واقعی باید روی آنها کار کند. کمی آشفته تر باش به ویژه صدای پس زمینه ('y_rand' در بالا) به خوبی عادی نیست. بنابراین نمیدانم که چگونه میتوانم مدل بالا را تعمیم دهم: * چگونه میتوانم مدلهای مخلوط را تعریف کنم که در آن مخلوط نه تنها به پارامترهای توزیع بلکه به نوع توزیع مربوط میشود (مثلاً نویز پسزمینه به طور یکنواخت توزیع میشود)؟ * چگونه می توانم توزیع نویز پس زمینه را بسیار کلی تر کنم. دادههای من به عنوان مختصات جغرافیایی فعالیتها در یک شهر، راهی برای در نظر گرفتن این موضوع وجود دارد که حتی در جریان فعالیت عادی (با p=0) موقعیتها ممکن است بیشتر از مدل معمولی ساده بالا در امتداد یک خط مرتب شوند. پیشنهاد می کند (مثلاً چون در امتداد یک جاده مستقیم اتفاق می افتد)؟ آیا راهی برای تفاوت نوع فعالیتی که معمولاً در بعدازظهر چهارشنبه هنگام تخمین مدل بر روی داده های یک بعد از ظهر چهارشنبه جدید انجام می شود وجود دارد؟ | تشخیص خط در مختصات جغرافیایی |
110932 | من در حال کار بر روی برخی **تحلیل پیش بینی کننده بیزی غیرپارامتری** با استفاده از **R** هستم. من مجموعه ای از داده ها را دارم که پارامترهای مختلف یک تراکنش آنلاین را نشان می دهد. بر اساس این پارامترها، من می خواهم مدلی ایجاد کنم که پیش بینی هایی را برای تراکنش های آنلاین آینده ارائه دهد. داده های آموزشی از رکوردهایی در این قالب تشکیل شده است:transaction_id (عددی)| مدت زمان (عدد صحیح)| مقدار | is_holiday (بولی) | وضعیت (1 یا 0) | | | | | | | | مشکلی که من با آن روبرو هستم این است که نمی دانم چگونه باید ادامه دهم. من می دانم چه مراحلی را باید طی کنم. من جستجو کردم و متوجه شدم که بستههای کمی در R مانند «DPpackage» وجود دارد که دارای عملکردهایی برای مدلسازی بیزی ناپارامتریک هستند، اما هیچ مثال مشخصی در مورد نحوه استفاده از آن برای انجام مراحل مختلف آموزش و آزمایش وجود ندارد. برای من مفید خواهد بود اگر کسی بتواند به من راهنمایی بدهد که در کدام فرآیند برای چنین تحلیل پیشبینی/رگرسیون بهتر است و چگونه میتوانم به پیش بروم، مثلاً چه مراحلی را برای انجام آموزش و آزمایش انجام دهم. پیشاپیش متشکرم | چگونه می توان رگرسیون (پیش بینی) مبتنی بر بیزی ناپارامتریک را در R انجام داد؟ |
100346 | من یک الگوریتم ساده Adaboost را با استفاده از چندین طبقهبندی ضعیف پیادهسازی کردهام و هنگام بررسی مقادیر محاسبهشده توسط آن، آلفاهایی با مقدار منفی وجود دارد. آیا این امکان وجود دارد یا اشکالی در اجرا وجود دارد؟ متشکرم. | مقادیر وزن ها در Adaboost |
105875 | اجازه دهید $N(0,\Sigma)$ یک توزیع گاوسی با میانگین $0$ و کوواریانس $\Sigma$، یک ماتریس $p\times p$ باشد. آیا درک درستی از توزیع $\mathcal{P}_{\mathbb{S}^{p-1}} (N(0,\Sigma))$ وجود دارد؟ آیا این معادل مقداری توزیع خوب مطالعه شده است؟ توجه داشته باشید که گاوس ها به طور کلی متقارن کروی نیستند... | چگونه می توان فرافکنی یک گاوسی کلی بر روی کره را درک کرد؟ |
22066 | سوال تحقیق من از آموزش و پرورش است: برای آزمایش اینکه آیا گروه ها (دانشگاه، گروه، جنسیت) بر اساس نمرات آنها در یک آزمون متفاوت هستند یا خیر، و آیا اثرات متقابلی وجود دارد، ANOVA سه طرفه را انجام می دهم؟ داده ها نامتعادل هستند (سلول های نابرابر). استاد من می گوید به دلیل طراحی نامتعادل باید SOS نوع 1 (برآورد پارامترها را گزارش دهید) انجام دهم. منطق او این است که تأثیر هر اثر اصلی را با تأثیرات دیگری مقایسه کند؟ او همچنین گفت که ترجیح میدهد جنسیت اولین باشد، او تخمین پارامترها را میخواهد، و قبلاً گفته بود که اندازههای افکت نوع d کوهن را ترجیح میدهد. سوالات من: 1) من جنسیت، دانشگاه، گروه، از همه تعاملات دو طرفه، تا تعامل 3 طرفه را در مدل قرار دادم. من متوجه شدم که جنسیت SS نیست، و هیچ تعاملی بین SS وجود ندارد. Fgender (1,b) = 1.83، p = 0.18، η2 = 0.006. R-squared گزارش دادم. آیا باید با تمام ترکیبات دیگر ادامه می دادم؟ تعداد زیادی وجود دارد، درست است؟ من جنسیت را حذف کردم و تجزیه و تحلیل را با (2x2) [دانشگاه، گروه، دانشگاه * واحد] دوباره انجام دادم. 2a) Funiversity (1,b) = 46.45، p <.01، η2 = 0.16 را گزارش کردم. من به میانگین های تخمین زده شده نگاه کردم، آنها را گزارش کردم و d -0.8 کوهن را محاسبه کردم (تفاوت میانگین های گروه تقسیم بر جذر میانگین مربعات خطا). من همچنین Unstandardized Buniversity = 0.48، t = 5.67، p <.01 را گزارش کردم. و به این نتیجه رسیدم که دانشگاه A نسبت به دانشگاه B امتیاز بیشتری کسب می کند. من از یک ماشین حساب تبدیل اندازه افکت آنلاین از eta-squared به کوهن d استفاده کردم. همچنین η2 = 0.16 = d = 0.8. 2ب) تجزیه و تحلیل را با [گروه، دانشگاه، واحد*دانشگاه] دوباره انجام دادم. من دقیقا موارد بالا را برای بخش گزارش کردم. اما η2 = 0.13 و وقتی d کوهن را محاسبه کردم 0.38 شد. من از یک ماشین حساب تبدیل اندازه افکت آنلاین از eta-squared به کوهن d استفاده کردم، اما 0.70 گزارش داد. چه اشکالی دارد؟ 2c) من میانگین حاشیه ای را برای uni*dep رسم کردم. من آن را آنجا گذاشتم تا نشان دهم تعامل وجود دارد. 2d) به تعامل رسیدم. من می دانستم که در نوع I SOS تغییر نخواهد کرد، بنابراین Funiversity را براساس بخش (1, b) = 11.80، p <.01، η2 = 0.04 گزارش کردم. بنابراین من گفتم دو مورد اول عملا آخرین SS است. الف) سوال من این است که حتماً بدون خجالت نزد پروفسورم بروید: آیا این اشکالی ندارد؟ چه کار دیگری می توانم برای تعامل انجام دهم؟ آیا نمی توانم بگویم uniBdepB < همه موارد دیگر که در نمودار مشخص است؟ ب) اگر تخمین پارامترها شیب را به من بگوید، چگونه با میانگین برآورد شده برابر نیستند؟ ج) چگونه می توانم تخمین پارامترها را برای اثر متقابل تفسیر کنم؟ کدام یک مقدار برای uniAdepA دارد اما می گوید بقیه اضافی هستند؟ | استفاده و تفسیر نوع I SOS در ANOVA سه طرفه |
50626 | من یک نمونه با چند نفر دارم، و همچنین سه متغیر برای هر فرد اندازه گیری شده است، مثلاً $A$، $B$ و $C$. یک همبستگی خفیف بین $A$ و $B$ و یک همبستگی خفیف بین $A$ و $C$ * $r_{AB} = 0.44$، و *$r_{AC} = 0.47$ وجود دارد. من می خواهم آزمایش کنم که آیا این افزایش همبستگی معنی دار است یا خیر. من به دو روش برخورد کردم: 1. آزمون z فیشر برای مقایسه 2 ضریب همبستگی 2. آزمون t ولف برای مقایسه ضرایب همبستگی وابسته من مقدار _p_ هر آزمون را به ترتیب 0.53 دلار و 2.8 دلار در برابر 10 محاسبه کردم. ^{-5}$. از درک من، تست t ولف در این موقعیت مناسبتر است، اما تفاوت فاحش در p-value باعث میشود به این فکر کنم که آیا در طول مسیر کار اشتباهی انجام دادهام... دقیقاً چگونه میتوان آزمایش کرد که آیا یک مقدار ضریب همبستگی به طور قابلتوجهی است یا خیر. بالاتر از دیگری؟ | اهمیت آماری افزایش همبستگی |
110938 | من با مفهوم مدل چند متغیره آشنا نیستم و فقط با مدل رگرسیون آشنا شدم. من با مدل Autoregressive و Moving Average آشنا هستم. مدل رگرسیون چند متغیره سرنخ هایی برای بررسی اینکه مدل چند متغیره چیست، ارائه کرد، اما من نتوانستم این سوال را در این موضوع دنبال کنم. مشکل من در ناحیه رگرسیون پراکنده است که در آن ماتریس ضریب تعداد ورودی های صفر بیشتری دارد. 1. اولین سوال من این است که آرایه ضریب باید بردار باشد یا چرا ماتریسی است؟ 2. آیا رگرسیون پراکنده فقط برای مدل های چند متغیره در نظر گرفته شده است؟ آیا یک AR (100) تک متغیره می تواند پراکنده باشد اگر بگوییم 30 متغیر با تاخیر غیر صفر هستند. آیا کسی میتواند شکل عملکردی مدل چند متغیره را نشان دهد و اگر تفاوتی وجود داشته باشد، چه تفاوتی با اسپارس دارد؟ 3. هر مرجعی که بتوانم نمونه هایی از مدل های رگرسیون پراکنده و کتاب هایی را پیدا کنم که این مفهوم را معرفی می کنند. | مدل چند متغیره و رگرسیون بزرگ |
50623 | هنگام برخورد با داده ها با فاکتورهای R می توان برای محاسبه میانگین هر گروه با تابع lm() استفاده کرد. این همچنین خطاهای استاندارد را برای میانگین تخمین زده می دهد. اما این خطای استاندارد با آنچه من از یک محاسبه دستی دریافت می کنم متفاوت است. در اینجا یک مثال آورده شده است (برگرفته از اینجا پیش بینی تفاوت بین دو گروه در R ) ابتدا میانگین را با lm(): mtcars$cyl <- factor(mtcars$cyl) mylm <- lm(mpg ~ cyl، داده = mtcars) خلاصه (mylm)$coef Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 26.663636 0.9718008 27.437347 2.688358e-22 cyl6 -6.920779 1.5583482 -4.441099 1.441099 1.194 -4.441099 1.441099 1.194 -1.194. 1.2986235 -8.904534 8.568209e-10 رهگیری میانگین گروه اول یعنی خودروهای 4 سیلندر است. برای بدست آوردن میانگین با محاسبه مستقیم از این استفاده می کنم: با (mtcars, tapply(mpg, cyl, mean)) 4 6 8 26.66364 19.74286 15.10000 برای به دست آوردن خطاهای استاندارد برای میانگین، تنوع استاندارد نمونه را محاسبه کرده و بر تعداد تقسیم می کنم مشاهدات در هر گروه: با (mtcars, tapply (mpg, cyl, sd)/sqrt(summary(mtcars$cyl)) 4 6 8 1.3597642 0.5493967 0.6842016 محاسبه مستقیم همان میانگین را می دهد اما خطای استاندارد برای 2 رویکرد متفاوت است، انتظار داشتم همان خطای استاندارد را دریافت کنم. اینجا چه خبر است؟ این مربوط به lm() برازش میانگین برای هر گروه و یک عبارت خطا است؟ _**ویرایش شده:_** پس از پاسخ Svens (در زیر) می توانم سوال خود را مختصرتر و واضح تر بیان کنم. برای دادههای طبقهبندی میتوان میانگین یک متغیر را برای گروههای مختلف با استفاده از lm() بدون وقفه محاسبه کرد. mtcars$cyl <- factor(mtcars$cyl) mylm <- lm(mpg ~ cyl, data = mtcars) خلاصه (mylm)$coef Estimate Std. خطای cyl4 26.66364 0.9718008 cyl6 19.74286 1.2182168 cyl8 15.10000 0.8614094 ما میتوانیم این را با محاسبه مستقیم میانگینها و خطاهای استاندارد آنها مقایسه کنیم: با (mtlympg,8) 26.66364 19.74286 15.10000 with(mtcars, tapply(mpg, cyl, sd)/sqrt(summary(mtcars$cyl)) ) 4 6 8 1.3597642 0.5493964 دقیقاً همان خطای استاندارد است اما میانگین ها متفاوت هستند e errors1 0. برای این 2 روش (همانطور که Sven نیز متوجه شده است). سوال من این است که چرا آنها متفاوت هستند و یکسان نیستند؟ (هنگام ویرایش سوالم، آیا باید متن اصلی را حذف کنم یا ویرایش خود را همانطور که انجام دادم اضافه کنم) | R: محاسبه میانگین و خطای استاندارد میانگین برای عوامل با lm() در مقابل محاسبه مستقیم -edited |
24731 | من فکر می کنم این یک سوال آسان است... من یک تحلیل رگرسیون در R انجام دادم، جایی که می خواستم تناسب داده هایم را با فرمول خاصی که ارائه کردم بررسی کنم... من این کار را انجام دادم، نمودار را می بینم و خطی که تناسب داده ها را نشان می دهد، اما من همچنین می خواهم مقدار رگرسیون واقعی را که از این محاسبه به دست می آید، بدست بیاورم، چگونه این کار را انجام دهم؟ و چگونه می توانم معادله واقعی را در نمودار چاپ کنم؟ * * * سلام خیلی ممنون از پاسخ ها. مثال بسیار مفید بود، اما من هنوز مقدار رگرسیون را به دست نیاوردم، بنابراین هنوز نمیدانم که دادههای من چقدر با معادله مطابقت دارند... در زیر کدی را که استفاده کردم، وارد میکنم # فایل داده ورودی LD251-chilR.txt را وارد کنم. ، برای ورودی؛ # ستون اول فاصله زوجی و دومی تخمین LD است، # باید فایل را در همان پوشه با برنامه R CT251chil<-read.table(LD251-chilR.txt, sep=\t, dec قرار دهید =,, header=TRUE) # تخمین LD شما (r2 در این مورد که در ستون 2 قرار دارد) r2=CT251chil[,2] # اجرا تابع nls برای بدست آوردن برآورد rho nls(r2~1/(1+rho*CT251chil[,1]), start=list(rho=0.3)) # دریافت این تخمین rho پس از اجرای تابع nls در R rho=0.02206872 #مرتبسازی دادهها، بدون نیاز اگر دادههای شما قبلاً dist<-sort(CT251chil[,1]) # پارامترها را در معادله قرار دهید همانطور که در مقاله MBE من نشان داده شده است معادله <- (((10+rho*dist)/((2+rho*dist)*(11+rho*dist)))*(1+((3+rho*dist)*(12+12*rho *dist+(rho*dist)^2)/(46*(2+rho*dist)*(11+rho*dist))))) # رسم نمودار بین تخمین LD و نمودار فاصله(CT251chil[,1],CT251chil[,2], col=black, pch=20, ylab=expression(R^2), xlab=pairwise distance, main=CT251-chilense, las =1) # دریافت خطوط خط رگرسیون (dist, eq, col=black,lwd=2,lty=1) پس از این نقطه نموداری با یک خط دریافت می کنم. همه خوب اما تا کنون من نمی دانم چگونه معادله واقعی را در نمودار به دست بیاورم و مقدار R را دریافت کنم. | نحوه بدست آوردن مقدار واقعی رگرسیون از تحلیل رگرسیون در بسته آماری R |
92076 | بنابراین، من یک ANOVA را روی مجموعه داده ای اجرا کردم که حاوی بیش از 4500 نقطه داده است. بدون پرداختن به جزئیات زیاد، نمیدانستم که آیا توضیح سادهای برای این موضوع وجود دارد: p-value برای عبارت تعامل من A*B 0.145 است => عبارت تعامل به وضوح ناچیز است. هر دو A و B متغیرهای طبقهبندی هستند که هر کدام دارای 2 سطح هستند. با این حال، وقتی طرح تعامل خود را ترسیم می کنم، یک X واضح وجود دارد (یعنی) آنطور که انتظار می رود موازی نیست. آیا چیزی وجود دارد که من اینجا گم کرده ام؟ در اینجا طرح است- | عبارت تعامل ناچیز است اما نمودار تعامل نشانه هایی از معناداری را نشان می دهد |
105872 | من از مدلهای خطی ورود به سیستم (تابع «loglm»، کتابخانه «MASS» از «R») استفاده میکنم تا ارزیابی کنم که آیا 3 متغیر در یک جدول احتمالی 3 طرفه مستقل هستند یا خیر. من مدل loglm استقلال متقابل را می سازم (فرمول = ~A + B + C، داده = test.t) که به من آمار می دهد: X^2 df P(> X^2) نسبت احتمال 264.7872 50 0 پیرسون 292.6937 50 0 از چیزی که من می فهمم این است که تست LR مدل من را با مدل اشباع شده مقایسه می کند و آن را مشاهده می کند واریانس غیر قابل توضیح در مدل من است و تعاملات قابل توجهی باید گنجانده شود، به این معنی که می توانم فرضیه خود را مبنی بر مستقل بودن 3 متغیر رد کنم. دقیقاً چگونه باید این تحلیل را در گزارش خود به آنها گزارش دهم؟ آیا باید مقادیر تست LR، درجه آزادی و P را بیان کنم؟ آیا این تست مربع چی پیرسون در خط دوم است؟ من این تصور را داشتم که تست مربع چی پیرسون فقط برای جداول 2x2 است (chisq.test() در جداول بزرگتر خطا می دهد). یا برای 2 مدل (مدل من در مقابل مدل اشباع) مربع چی پیرسون است؟ | نحوه گزارش مدل های خطی ورود به سیستم جداول احتمالی |
92078 | خوب، نادانی من را ببخشید، اما من همیشه در مورد چیزی در هسته GLM ها گیج می شوم. برخی از کتاب های درسی دو بخش اصلی یک GLM را به عنوان تابع پیوند و توزیع عبارات خطا توصیف می کنند. برخی دیگر دو بخش اصلی را به عنوان تابع پیوند و تابع واریانس توصیف می کنند، که در آن تابع واریانس توصیفی از رابطه بین میانگین و واریانس پاسخ است (یعنی توزیع پاسخ). اما توزیع خطا و توزیع پاسخ برای من چیزهای متفاوتی به نظر می رسد. اگر معادلهای داشتم که در آن $Y_i = B_0 + X_i*B_1 + e$، میتوانم ببینم چگونه برای هر مقدار معینی از $X_i$ (به علاوه مقادیر ثابت $B_0$ و $B_1$)، هر متغیر تصادفی $Y_i$ هر توزیعی را که عبارت خطا داشت را بر عهده می گیرد. اما آیا این لزوماً توزیع پاسخ کلی را با همان توزیع خطا برابر می کند؟ آیا سوالات من اصلا منطقی هستند؟ | چه تفاوتی (در صورت وجود) بین توزیع پاسخ و توزیع خطا در GLM ها وجود دارد؟ |
22061 | آیا مقادیر بالای VIF برای یک متغیر خاص $x$ فقط نشان می دهد که با حداقل یکی از متغیرهای دیگر در مدل همبستگی بالایی دارد؟ آیا مشخص می کند که $x$ با کدام متغیرها و چند متغیر مرتبط است؟ | مقادیر VIF در رگرسیون |
24730 | من یک بازه اطمینان 95% $(22,25)$ برای یک پارامتر با استفاده از روش راهاندازی ناپارامتری ایجاد کردهام. چیزی که من می خواهم بدانم این است که از چه مقداری برای تخمین پارامتر استفاده می کنیم. آیا میانگین همه بوت استرپ ها، میانه همه بوت استرپ ها، تخمین اولیه قبل از بوت استرپ از مجموعه داده اصلی، یا چیز دیگری است؟ | فاصله اطمینان بوت استرپ ناپارامتری |
55367 | **هدف:** خط قرمز را تا جایی که ممکن است بالا ببرید. من می توانم مقادیر خطوط سبز و نارنجی را کنترل کنم. مانند 50 خط دیگر وجود دارد که من آنها را کنترل می کنم و می توانم در برابر خط قرمز نیز قرار بگیرم. راه خوبی برای تعیین اینکه کدام خطوط با حرکت در خط قرمز همبستگی دارند چیست؟ به عنوان مثال: * وقتی خط قرمز بالا می رود، کدام خطوط تمایل به بالا رفتن دارند؟ * وقتی خط قرمز بالا می رود، کدام خطوط به سمت پایین می روند؟ * به نظر می رسد کدام خطوط دارای مقدار بهینه برای خط قرمز هستند (هر چیزی بالاتر یا پایین تر با خط قرمز بالا نیست) آیا نوعی تجزیه و تحلیل ریاضی وجود دارد که بتوان آن را در مقابل سری اجرا کرد تا به این موارد پاسخ داد. سوالات؟ برای هر برنامه نویسی، از جاوا اسکریپت و پایتون استفاده می کنم، بنابراین هر کتابخانه ای به آن زبان ها نیز مفید خواهد بود. **اطلاعات بیشتر پس زمینه** این سوال برای یک سیستم محاسباتی فوق العاده با مقیاس افقی اعمال می شود. خط قرمز این است که سیستم چقدر در دقیقه انجام می شود. خط سبز زمان پاسخگویی پایگاه داده برای یک عملیات خاص است. بنابراین اگر زمان پاسخگویی پایگاه داده که خط سبز نشاندهنده آن است، زمانی که خط قرمز زیاد است، کم و زمانی که خط قرمز کم است، زیاد باشد، میدانم که باید به بهینهسازی زمان پاسخ آن پایگاه داده توجه کنم. خط نارنجی نشان دهنده تعداد رشته هایی است که در سیستم در حال اجرا هستند. بدیهی است که تعداد بسیار کم موضوعات به معنای انجام کمتر است، اما من همچنین گمان میکنم که نخهای زیاد نیز ممکن است سیستم را دچار مشکل کنند، بنابراین بسیار جالب است که بتوانیم بدانیم آیا مقدار «بهینه» برای تعداد رشتهها وجود دارد یا خیر. در حال اجرا در سیستم خیلی ممنون  | همبستگی بین سری (بهینه سازی محاسباتی) |
86942 | مدل: $y_{it} = \alpha_{i}+\beta_1 D_{it} + \beta_2 G_i + \beta_3 (G_{i}\times D_{it}) + \epsilon$ G یک ساختگی گروهی است که D است یک درمان y یک داده نتیجه است یک پانل $\alpha$ یک اثر ثابت است سوال من: اگر تنها رگرسیون در مدل که بین دو گروه مشترک است با ساختگی گروه، آیا معنایی در ادغام داده ها وجود دارد یا باید به طور جداگانه زیر مجموعه و مدل سازی شود؟ | زیر مجموعه ها در مقابل ادغام در رگرسیون ها با تعاملات |
31937 | این بسط سوالی است که قبلا پرسیده بودم. اگر پاسخ یک سوال کتاب درسی ساده است، در صورت تمایل به آن مراجعه کنید. مشکل به عنوان نیاز به مقایسه دو مجموعه داده تجربی آغاز شد، یکی شرایط ایده آل را نشان می دهد، و دیگری نشان می دهد که چه اتفاقی می افتد زمانی که یک رویداد خاص در طول آزمایش ها ایجاد می شود. من در نهایت با دو مجموعه از نتایج، **_غیر گوسی توزیع_**: نمونه 1a (ایده آل): 32 نقطه داده $$ \mu_{1a} = 0.5505، \sigma^2_{1a}= 4.9047*10^ {-5} $$ نمونه 1b (غیر ایده آل): 31 نقطه داده $$ \mu_{1b} = 0.5314*10^3، \sigma^2_{1b}= 5.4851*10^{-5} $$ اگرچه تفاوت کم است، اما قابل توجه است و علاقه من حول آن _تفاوت در میانگین می چرخد. وقتی پارامترهای آزمایش را تغییر میدهم، مجموعه دیگری از نتایج را دریافت میکنم: نمونه 2a: 34 نقطه داده $$ \mu_{2a} = 0.5395، \sigma^2_{2a}= 2.3220*10^{-5} $$ نمونه 2b: 33 نقطه داده $$ \mu_{2b} = 0.5271*10^3، \sigma^2_{2b}= 2.0283*10^{-5} $$ کاری که من باید انجام دهم این است که نشان دهم که نمونه 2، تفاوت میانگینی متفاوتی ارائه میکند و سپس نمونه 1، و من میخواهم p-value را برای مربوطه ارائه کنم. فرضیه صفر در این مرحله، من اهمیتی نمیدهم که تفاوت نمونه را گوسی فرض کنیم (اگرچه برای تجزیه و تحلیل بین نمونهای این کار را نمیکنم). با استفاده از Matlab، در ابتدا برنامه ریزی کردم که کارهای زیر را انجام دهم: normcdf(0,abs(sol.meanLoss - comp.meanLoss),sqrt(sol.ste^2 + comp.ste^2)); که مساحت زیر منحنی یک توزیع گاوسی را محاسبه می کند ( پارامترها به عنوان میانگین: تفاوت میانگین بین نمونه 1 و 2 ($(\mu_{1a}-\mu_{1b})- (\mu_{2a} -\mu_{2b })$)، و std به عنوان جذر مجموع مربعات خطای استاندارد هر نمونه ) از -Inf تا 0. مطمئن نیستم پاسخ من درست باشد و من مشکلی ندارم که آن را پاره کنند، اما به چیز دیگری نیاز دارم. اگر قرار است از آزمون t استفاده شود، چگونه باید نمونه ها را ترکیب کنم؟ ویرایش: توجه داشته باشید که من خطای استاندارد را به صورت $$ ste_1 = \sqrt{ \sigma^2_{1a}/N_{1a}+\sigma^2_{1b}/N_{1b}} $$ محاسبه کردهام | چگونه می توان مقدار p را برای متغیرهای تصادفی غیرمستقیم تولید کرد؟ |
92072 | من تعجب می کنم که چگونه یک متغیر ابزاری به سوگیری انتخاب در رگرسیون می پردازد. در اینجا مثالی است که من در حال جویدن آن هستم: در کتاب اقتصاد سنجی عمدتاً بی ضرر، نویسندگان یک رگرسیون IV مربوط به خدمت سربازی و درآمدهای بعدی را مورد بحث قرار می دهند. سوال این است که آیا خدمت سربازی باعث افزایش یا کاهش درآمدهای آتی می شود؟ آنها این سوال را در چارچوب جنگ ویتنام بررسی می کنند. من می دانم که خدمت سربازی نمی تواند به طور تصادفی تعیین شود و این یک مشکل برای استنباط علی است. برای پرداختن به این موضوع، محقق از واجد شرایط بودن پیش نویس (مانند شماره پیش نویس شما نامیده می شود) به عنوان ابزاری برای خدمت واقعی سربازی استفاده می کند. این منطقی است: پیش نویس سربازی ویتنام به طور تصادفی مردان جوان آمریکایی را به ارتش اختصاص داد (در تئوری - اینکه آیا سربازان وظیفه واقعاً به سؤال من پاسخ دادند یا خیر). شرایط IV دیگر ما به نظر محکم می رسد: واجد شرایط بودن سربازی و خدمت واقعی سربازی به شدت و به طور مثبت همبستگی دارند. سوال من اینجاست به نظر میرسد که شما با تعصب خود انتخابی مواجه میشوید: شاید بچههای ثروتمندتر بتوانند از خدمت در ویتنام خارج شوند، حتی اگر با شماره پیشنویسشان تماس گرفته شود. (اگر واقعاً اینطور نبود، بیایید به خاطر سؤال من وانمود کنیم). اگر این خود انتخابی سوگیری سیستمی را در نمونه ما ایجاد می کند، متغیر ابزاری ما چگونه این سوگیری را برطرف می کند؟ آیا باید دامنه استنباط خود را به انواع افرادی که نتوانستند از پیش نویس فرار کنند محدود کنیم؟ یا IV به نوعی آن بخش از استنتاج ما را نجات می دهد؟ اگر کسی می تواند توضیح دهد که چگونه این کار می کند، بسیار ممنون می شوم. | چگونه متغیرهای ابزاری سوگیری انتخاب را برطرف می کنند؟ |
31936 | من سه سوال دارم: 1. برای داده هایی با دسته های مختلف پاسخ (نوع لیکرت یا ترتیبی) چه نوع همبستگی باید محاسبه شود؟ می دانم برای متغیرهای ترتیبی **همبستگی رتبه اسپیرمن** قابل استفاده است. درست میگم؟ 2. آیا برای محاسبه این همبستگی ها باید دسته ها را مرتب کنم و پاسخ ها را با توجه به اهمیت آنها دوباره رمزگذاری کنم؟ فکر می کنم باید سوالم را روشن کنم. فرض کنید من دو متغیر دارم که به نظر من در پشت سودآوری یک شرکت نقش دارند. من متغیرهای زیر را دارم: برای متغیر جلسات منظم کارکنان، پاسخ ها به صورت: 1='بله' و 2='خیر' برای متغیر 'نسبت کارکنان با ارزیابی های رسمی عملکرد'، پاسخ ها به صورت: 1=10 جمع آوری می شوند. ٪ 2 = 20 ٪ ... 10 = 100 ٪ اکنون به طور شهودی معتقدم که هر چه جلسات کارکنان منظم تر برگزار شود یا ارزیابی عملکرد انجام شود، اراده بهتری خواهد داشت. سود آن شرکت باشد، بنابراین آیا باید برای متغیر 'جلسات منظم کارکنان' 'yes'=2 و 'no'=1 دوباره کدگذاری کنیم که پاسخ های با 'بله' رتبه اول را دریافت می کنند در حالی که همبستگی رتبه spearman محاسبه می شود؟ به طور مشابه برای متغیر «نسبت کارکنان با ارزیابی رسمی عملکرد» پاسخهایی با 10 نفر (100% کارکنان دریافتکننده ارزیابی عملکرد) رتبه اول را دریافت میکنند در حالی که همبستگی رتبه اسپیرمن محاسبه میشود. در غیر این صورت، اگر پاسخها را از متغیر «جلسات منظم کارکنان» مجدداً رمزگذاری نکنم، رتبههایی که پاسخها دریافت میکنند در جهت مخالف میشوند، زیرا پاسخهای «بله» = 1 رتبه دوم را دریافت میکنند، اما قرار بود سودآوری افزایش یابد! 3. اگر بخواهم بین متغیرهای نوع مختلط (هم **فاصله** و **ترتیبی**) همبستگی وجود داشته باشد، چه باید کرد؟ آیا امکان محاسبه وجود دارد؟ با تشکر از صبر و شکیبایی شما و توضیح محبت آمیز آینده. :) | در مورد همبستگی متغیرهای ترتیبی دارای تعداد دسته های مختلف و در مورد همبستگی متغیرهای نوع مختلط |
86948 | 1. مدل ARMA یک نسخه تصادفی از رابطه بازگشتی است. برای روابط بازگشتی قطعی، آنها را حل می کنیم و برای بدست آوردن کامل راه حل به شرایط اولیه نیاز داریم. بنابراین من تعجب می کنم که شرط اولیه برای مدل ARMA چگونه است؟ 2. در مقدمه ای بر سری های زمانی و پیش بینی، توسط پیتر جی. براکول، ریچارد دیویس، آنها مدل ARMA را علّی تعریف می کنند، در صورتی که فرآیند خروجی آن را بتوان به صورت MA($\infty$) نشان داد (به معادله (3.1 مراجعه کنید) .5)). در معادله (3.1.7)، آنها فرمول صریح نمایش MA($\infty$) را ارائه کردند. من نمی بینم که آنها در تعریف علیت و در اشتقاق نمایش MA($\infty$) هیچ شرط ابتدایی را مشخص یا استفاده نمی کنند. این کاملاً متفاوت از این است که ما به شرایط اولیه نیاز داریم تا به طور کامل جواب یک رابطه بازگشتی قطعی را بدست آوریم. پس چگونه باید نمایش MA($\infty$) یک فرآیند خروجی ARMA را درک کنیم؟ با تشکر | آیا شرط اولیه برای مدل ARMA وجود دارد؟ |
24736 | من چند فرمول میانگین متحرک بازگشتی را امتحان کردم (برای استفاده مجدد از خروجی قبلی به جای جمع کردن کل مجموعه n-long برای هر i) موفق به پیدا کردن آنها شدم اما هیچ یک از آنها نتایج مشابهی را به دست نمی آورد. به معنای انجام می دهد. آیا فرمول بازگشتی قابل اعتمادی وجود دارد که دقیقاً (یا تقریباً دقیقاً) همان خروجی یک میانگین متحرک را تولید کند؟ | آیا یک فرمول بازگشتی قابل اعتماد برای میانگین متحرک ساده (میانگین متحرک) وجود دارد؟ |
22064 | احتمالاً سؤال من کمی احمقانه است، اما در نوشتن پیشبینی خارج از نمونه با یک پیادهروی تصادفی در R مشکل دارم. من یک سری زمانی چند متغیره (y) دارم و میخواهم نتیجه پیشبینی خارج از نمونه (y(t+k)-y^(t+k/t) را با RW، برای k =1،6،12 تخمین بزنم. من این کد را می نویسم، کار می کند، اما به نظر می رسد که خطاهای بسیار کم residuals1 <- rep(0,58) residuals6 <- rep(0,58) residuals12. <- rep(0,58) y1 <- t(y[,1]) برای (i در 1:58) { residuals1[i] <- y1[134+i+1]-y1[134+i] residuals6 [i] <- y1[134+i+6]-y1[134+i] باقیمانده12[i] <- y1[134+i+12]-y1[134+i] } فکر میکنم اشتباهاتی انجام میدهم، پیشنهادی دارید؟ | خروج تصادفی از پیشبینی نمونه |
50622 | یک استراتژی رایج در طیفسنجی جرمی مولکولهای بیولوژیکی، آپلود طیفهای مشاهدهشده در یک سرور است تا بتوان آنها را با یک پایگاه داده بزرگ از طیفهای نظری مولکولهای شناختهشده (معروف به پایگاه داده _target_) مطابقت داد. به منظور کنترل موارد مثبت کاذب، از یک پایگاه داده _decoy_ متشکل از طیف های نادرست/بی ربط استفاده می شود. من بیشتر در مورد این موضوع مطالعه کرده ام و سوالاتی در رابطه با محاسبه اندازه گیری FDR از این استراتژی فریب هدف مطرح کرده ام. ایده اصلی مقدار FDR بسیار شهودی است: $FDR = \frac{FP}{FP + TP}$ که در آن FP و TP به ترتیب مخفف موارد مثبت نادرست و درست هستند. این برای من کاملاً منطقی است. اگر بخواهم نام برخی از افراد را از روی دفترچه تلفن حدس بزنم، و 8 را درست و 2 را اشتباه بگیرم، از 10 _کل_ حدس، 2 _ نادرست_ خواهم داشت و بنابراین نرخ کشف نادرست من 20٪ خواهد بود. با این حال، با خواندن این آموزش در مورد نحوه انجام این کار در مقیاس بزرگ در سرورها، با دو محاسبه متفاوت آشنا شدم، بسته به اینکه پایگاه داده _target_ و _decoy_ به هم پیوسته باشند یا نه (صفحه 2). من فکر نمیکنم که این اشتباه تایپی باشد، زیرا در ادبیات علمی موارد دیگری از عامل مرموز 2 را در مقابل FP یافتم. با این حال انگیزه پشت این هرگز توضیح داده نمی شود (حداقل من نتوانستم آن را پیدا کنم). قدردانی می کنم که این دو برابر شدن از کجا می آید. به همین ترتیب من نمیدانم که آیا محاسبه FDR به این روش **فرض میکند** که نرخ خطا برای هر تطابق طیف برای پایگاه داده هدف و پایگاه داده طعمه یکسان است یا نه (یعنی _با فرض اینکه دریافت 25 ضربه فریب _ملتبر_ 25 ضربه هدف نیز مثبت کاذب هستند) . واقعاً برای من روشن نیست که چرا باید میزان خطا برای دو پایگاه داده یکسان باشد. هر گونه نظر در مورد این موضوع نیز قدردانی می شود. * یکی از این مراجع Elias et al Nature Methods - 2, 667 - 675 (2005) است. | محاسبه نرخ کشف نادرست در زمینه تطبیق هدف و طعمه |
110936 | آیا هنوز هم میتوانیم پارامترها را به همان شیوهای که در رگرسیون لجستیک معمولی انجام میدهیم تفسیر کنیم؟ من این را میپرسم زیرا دارم با دادههای اعتبار آلمانی https://archive.ics.uci.edu/ml/datasets/Statlog+(German+Credit+Data) بازی میکنم و یک مدل رگرسیون لجستیک کمند برای انجام انتخاب ویژگی انجام میدهم. . من از متغیر اعتباری good_bad به عنوان پاسخ استفاده می کنم و از این مدل با هدف بدست آوردن احتمالات برای نکول وام استفاده می کنم. | هنگامی که پاسخ دودویی است، چگونه پارامترهای به دست آمده از رگرسیون لجستیک کمند را تفسیر می کنید؟ |
22068 | در اینجا سه معادله رگرسیونی وجود دارد: $$ \begin{align} Y &= \beta_1Z_{\text{math}}\qquad (1)\\\ Y &= \beta_2Z_{\text{math}} + \beta_3Z_{\ text{science}}\qquad (2)\\\ Y &= \beta_4Z_{\text{department}} + \beta_5Z_{\text{ریاضی}} + \beta_6Z_{\text{علمی}} + \beta_7Z_{\text{دانشگاه}} + \beta_8Z_{\text{جنسیت}}\qquad (3) \end{align} $ $ من مدل رگرسیون 3 سطحی دارم. من می خواهم تأثیر پیشرفت ریاضی را به تنهایی برای (پیشرفت ریاضی و علوم در مدل 2) کنترل کنم و مدل 3 شامل جنسیت، دانشگاه و گروه آموزشی است. B1math در مدل 1 SS است، B2science در مدل 2 SS است و B7university و B6science در مدل سه SS هستند. من برآوردهای 15، 25 و 35 R-squared دارم. من مطمئن نیستم که علاوه بر افزایش R-squared چه چیزی را گزارش کنم؟ آیا باید وزن بتای استاندارد شده دانشگاه را به تنهایی گزارش کنم (چون علم کنترل شده بود) یا باید B علوم را هم گزارش کنم؟ آیا ضریب ساختار در تفسیر B نقشی دارد؟ | از رگرسیون سلسله مراتبی چه چیزی را گزارش کنیم؟ |
92070 | من در حال ساخت یک مدل بقا برای زمان تا شکست ویجت ها هستم. سایر اعضای تیم می خواهند مدل را به مدل جریان هزینه تبدیل کنند. ایده اصلی این است که میتوانیم از شکل عملکردی تابع بقا تحت رویکرد پارامتری (که در آن توزیع لجستیکی را فرض میکنیم) برای تخمین منحنی بقای سطح کوهورت استفاده کنیم. سپس آنها می توانند محاسبه کنند که اگر 10٪ از جمعیت پس از 1000 روز شکست بخورند، ما 100000 دلار هزینه جایگزینی متحمل خواهیم شد. جمعیت تخمینی همه ویجت هایی است که تا 1000 روز باقی مانده اند. این تنها معیاری است که بر اساس آن شما به عنوان بخشی از جمعیت انتخاب می شوید. ما تاریخ تمام خرابی ها را داریم و تمام ویجت هایی که تا به امروز باقی مانده اند سانسور شده در نظر گرفته می شوند. با این حال، هنگامی که پیشبینی را انجام میدهیم، زمان تا رویداد را برای هر ویجتی که بیش از 1000 روز از عمر آن میگذرد، پیشبینی میکنیم. و این همان بخشی است که من در تقلا برای توضیح آن هستم. اگر یک ویجت 100 روز دیگر زنده بماند، این اطلاعات باید به نحوی در مدل گنجانده شود، اما من نمی توانم بفهمم که چه رویکرد دقیقی خواهد بود. فکر کردم شاید بتوانم از تابع خطر شرطی استفاده کنم و با گرفتن انتگرال به صورت تکهای از رابطه بین خطر و تابع بقا استفاده کنم. $S(t)$ 1 است برای تمام روزها بین 0 تا 100 و سپس $\exp(\int_{100}^th(t))$ پس از آن، اما این بسیار هکری به نظر میرسد و به من نتیجه نمیدهد. انتظار می رود (این ممکن است به این دلیل باشد که مدل مزخرف است). | تبدیل مدل بقای پارامتریک به مدل جریان نقدی. چگونه می توانم پیری در جمعیت را حساب کنم؟ |
87519 | آیا رتبهبندیهای کاربران از محصولات - بازیها، فیلمها، کتابها، رستورانها و غیره- تمایل به دنبال کردن توزیعهای خاصی دارند؟ اگر چنین است، معمولاً چه شکلی دارند؟ آیا منابع داده عمومی وجود دارد که این توزیع ها را نشان دهد (مثلاً برای کتاب های آمازون، فیلم های نتفلیکس و غیره)؟ | رتبه بندی ها به طور کلی چگونه توزیع می شوند؟ |
82748 | حداقل حجم نمونه برای تجزیه و تحلیل CART چقدر خواهد بود؟ من این توصیه را پیدا کردم: > تک نگاری اصلی CART مطالعه ای را مورد بحث قرار می دهد که نویسندگان انجام داده اند > با 215 مشاهده و 19 پیش بینی کننده، که در آن 37 رکورد از کلاس 1 > و 178 از کلاس 0 بودند. ما فکر می کنیم که این نمونه است، با 37 مورد. نمونه هایی در کلاس > کوچکتر است نزدیکترین اندازه نمونه ای که می توانید به طور مفید با > CART کار کنید. > > توصیه: ما پیشنهاد می کنیم حداقل از 100 رکورد استفاده کنید، با متغیر هدف > نامتعادل تر از نسبت های (1/3، 2/3) برای بیش از 30 پیش بینی کننده توزیع نشده باشد. ما اعتبارسنجی متقابل مکرر را برای تخمین عملکرد > خارج از نمونه (دادههای دیده نشده قبلی) توصیه میکنیم. آیا این حداقل حجم نمونه امکان تقسیم بین نمونه آموزشی و آزمایشی را فراهم می کند؟ اگر نمونه کوچک است و فقط اعتبارسنجی متقاطع انجام می شود، اشکالی ندارد؟ | حداقل حجم نمونه برای سبد خرید |
100348 | پانل های نامتعادل بیشتر در زمینه های اقتصادی متداول هستند، اگر بخواهم رفتار بنگاه ها را بدانم، استفاده از پنل داده نامتعادل چه تفاوت هایی خواهد داشت. آیا مزایایی وجود دارد؟ آیا به دوره تحلیل بستگی دارد؟ یا بهتر است از پنل متعادل استفاده کنید؟ با تشکر | داده های نامتعادل یا داده های متعادل |
91125 | من از تابع R princomp (از بسته stats) برای اجرای یک PCA بر روی یک مجموعه داده استفاده می کنم و می خواهم خروجی آن را با روش کاهش ابعاد غیرخطی ISOMAP مقایسه کنم، که تحت matlab از طریق این جعبه ابزار استفاده می کنم: http:// isomap.stanford.edu در همان مجموعه داده. چیزی که من به آن علاقه دارم ابعاد ذاتی مجموعه داده است که طبق PCA و ISOMAP به طور جداگانه تعیین می شود، هدف نهایی بررسی اینکه آیا کاهش ابعاد غیرخطی در این مجموعه داده بهتر از PCA عمل می کند یا خیر. با princomp من انحرافات استاندارد مربوط به هر جزء را دریافت می کنم، در حالی که بسته ISOMAP واریانس های باقیمانده را به عنوان تابعی از ابعاد منیفولد برمی گرداند. چگونه این دو مقدار را مقایسه کنم؟ به عبارت دیگر، واریانس باقیمانده در ISOMAP چگونه تعریف می شود؟ این باید نامربوط باشد، اما مجموعه داده 54 نقطه در 5 بعد است. | مقایسه واریانس باقیمانده isomap با واریانس pca |
31938 | میدانم که توزیع رتبهبندی Zipf به من اجازه میدهد تا فروش یک کتاب را با توجه به رتبه فروش آمازون تخمین بزنم. چگونه می توانم توزیع را بدون دانستن فروش کتاب که منجر به رتبه می شود مناسب کنم. رتبه فروش با زمان از آخرین فروش در ذهن محاسبه می شود، یک تابع زوال. | پیش بینی فروش رتبه فروش آمازون |
41752 | افراد فهرستی از اسناد مختلف را دریافت کردند و از آنها پرسیده شد که آیا چیزها را مهم میدانند یا خیر و فکر میکنند که آیا به راحتی میتوان مدارک را دریافت کرد یا خیر. مردم به گروه های مختلفی تعلق دارند و حرفه های متفاوتی دارند. آنها برای پاسخ دادن سه انتخاب داشتند: 0 = مهم نیست 2 = نسبتاً مهم 4 = بسیار مهم و همینطور برای سهولت: 0 = دشوار نیست 2 = نسبتاً دشوار 4 = بسیار دشوار _بدون پاسخ_ نیز ممکن است، بنابراین ممکن است مقادیر گم شده نیز وجود داشته باشد. . سوال من این است: چگونه میتوان دادهها را با روشهای آماری تجزیه و تحلیل کرد تا مشخص شود که چگونه حرفه و گروه بر آنچه برای مردم مهم است تأثیر میگذارد؟ (= تأثیر و تأثیر متقابل آن 2 متغیر بر روی اهمیت-ارزش) * و برای کدام اسناد تفاوت های آماری معنی داری وجود دارد که برای آنها مهم است نتیجه مورد انتظار (مثال ساده): برای یک فروشنده برگه اطلاعات محصول بسیار مهم است، شخصی که در خدمات کار می کند بیشتر به اسناد نیاز دارد و غیره و افراد بازاریابی اغلب به بیانیه های مطبوعاتی نیاز دارند. چه نوع آزمون یا روش تحلیلی برای تجزیه و تحلیل این نوع داده ها مناسب است؟ مطمئناً، این آزمایش طراحی شده ای نیست، بنابراین تعداد افراد در هر گروه و هر حرفه همیشه یکسان نیست. من فرض می کنم این یک نوع مشکل استاندارد است - کجا می توانم یک آموزش خوب برای چنین تحلیلی پیدا کنم؟ | چه آزمون/روشی برای تجزیه و تحلیل و مدل سازی پاسخ های یک نظرسنجی مناسب است؟ |
77700 | من سه گروه A،B،C دارم. هر کدام تعداد رکوردهای متفاوتی دارند و من میانگین را برای هر گروه محاسبه کرده ام. حالا میخواهم بدانم آیا این ابزارها برابرند یا خیر؟ چه آزمایش آماری باید انجام دهم؟ گروه No.ofrec Mean A 100 10 B 200 5 C 300 20 | برای این وضعیت از چه آزمون آماری استفاده کنم؟ |
93306 | من یک تابع IR دارم که به چندین (شاید 100) متغیر تصادفی ورودی بستگی دارد. من می دانم که IR بین 0 و 1 متفاوت است. بنابراین دارای دو ناپیوستگی است، یکی در `IR=0` و دیگری در `IR=1`. من همچنین می دانم که pdf IR مقادیر احتمال غیر صفر را در 0 و 1 می گیرد و بین 0 و 1 پیوسته است. یعنی pdf IR یک pdf مخلوط با احتمالات گسسته در 0 و 1 و a است. توزیع پیوسته بین 0 و 1. **سوال اول من این است**: اگر مجموعه آموزشی و مجموعه تست من به اندازه کافی بزرگ باشد که تقریباً کل محدوده متغیرهای تصادفی ورودی را پوشش دهد و دقت رگرسیون سطح پاسخ من بسیار خوب است (مثلاً 95٪ یا بیشتر)، اگر توزیع متغیرهای تصادفی ورودی (اما نه مقادیر حداقل و حداکثر آنها) را تغییر دهم، در چه شرایطی می توانم همچنان از موارد قبلی استفاده کنم. سطح پاسخ IR برای بدست آوردن تخمین pdf از `IR`؟_ **سوال دوم من این است**: از آنجایی که `IR` مقادیر پیوسته بین 0 و 1 را می گیرد، اگر از SVM یا استفاده کنم روش های جنگل تصادفی برای به دست آوردن سطح پاسخ با رگرسیون آیا باید IR را در ویژگی های 'n' گسسته کنم؟ اگر درست می گویم، این بدان معناست که باید فاصله IR را بر 1000 تقسیم کنم و بنابراین IR مقادیر 0، 0.001، 0.002، ....، 0.999، 1 را می گیرد. به 0.0005 این نتیجه در کدام ویژگی طبقه بندی می شود؟_ **سوال سوم من این است**: _آیا بهتر است تعریف `IR` با یک تابع پیوسته، از -بی نهایت تا + بی نهایت، برای به دست آوردن دقت سطح پاسخ بهتر، احتمالاً با استفاده از انواع دیگر روش های سطح پاسخ و نه تنها SVM یا روش های جنگل تصادفی؟_ با تشکر Joao | سطح پاسخ یک تابع ناپیوسته خاص |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.