_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
80260
در جدول زیر توزیع فراوانی نسبی 100 خانوار مربوط به طبقه درآمد سالانه (به هزار دلار) نشان داده شده است: درآمد: 10-25 25-40 40-60 60-100 100-200 فراوانی های نسبی: 0,48 0,25 0,15 0,10 0,02 میانگین حسابی و شاخص جینی را محاسبه کنید. من شروع به محاسبه مقدار متوسط ​​کلاس ها و فراوانی تجمعی کردم: درآمد (مقدار متوسط): 17,5 32,5 50 80 150 فراوانی تجمعی: 0,48 0,73 0,88 0,90 1 مشکل این است که چگونه من میانگین حسابی را محاسبه کنم؟ من فکر می کنم این جمع مقادیر میانی * فرکانس نسبی آنها بود که 35025 (8,4 + 8,125 + 7,5 + 8 + 3) خروجی می دهد. مشکل این است که مجموع باقیمانده از میانگین تخمین زده شده صفر نیست! 17،5-35،025 = -17،525 + 32،5-35،025 = -2،525 + 50-35،025 = 14،975 + 80-35،025 = 44،975 + 150-35،025 + 150-35،025 = 7،025 = 114،5 = 114،5 35025 هنوز مقدار صحیح میانگین حسابی است حتی اگر مجموع باقیمانده ها 0 نباشد؟ سوال دیگر: شاخص جینی. این یک برآوردگر غلظت است. به این ترتیب محاسبه می‌شود: ![http://upload.wikimedia.org/math/7/5/f/75f99e8670d20b9a7b95bf19dbd31802.png](http://i.stack.imgur.com/9XDPe.png) چی‌ها کجا هستند فرکانس تجمعی و پی فرکانس تجمعی در صورت توزیع برابر هستند. می توانید به من کمک کنید؟ :)
میانگین حسابی و شاخص جینی در یک توزیع گروهی
20126
ویکی‌پدیا درباره ترکیب آمارهای چندگانه آزمون می‌گوید > این امتیاز Z (برای متاآنالیز کلی) برای مقادیر p یک طرفه و راست‌پایه مناسب است. اگر مقادیر p دو طرفه یا چپ > در حال تجزیه و تحلیل باشند، می‌توان تغییرات جزئی را انجام داد. آن اصلاحات جزئی چیست؟
آزمایش مقادیر p دو طرفه با استفاده از رویکرد استوفر
48657
اجازه دهید $X_n=\sum\limits_{k=1}^n Y_k = X_{n-1} + Y_n$ و $X_0=0$, $(Y_n)$ i.i.d با $P(Y_n=1)=p= 1-P(Y_n=-1)=1-q، p \in (0,1)$، $(X_n)$ یک راه رفتن تصادفی در $\mathbb{Z}$. چرا این زنجیره مارکوف تقلیل ناپذیر است؟ چگونه بفهمیم که همه حالت ها (اعداد صحیح) با یکدیگر ارتباط دارند؟ چگونه این را به طور شهودی نشان دهیم؟ با تشکر از شما برای کمک شما!
راه رفتن تصادفی روی $\mathbb{Z}$
89110
نتایج مشکوک تست فریدمن
20121
فرض کنید که من یک متغیر وابسته دارم، احتمال برنده شدن در ebay، و می خواهم آن را بر روی متغیرهای مختلف مدل کنم. بیایید بگوییم که من اطلاعاتی در مورد هر یک از آیتم‌های ebay که در آن مناقصه می‌کنم و اینکه آیا برنده شدم یا نه، دارم. آیا راهی برای مدل سازی احتمال برنده شدن وجود دارد؟ یا بهتر است که dep var را به عنوان یک متغیر دوگانه در نظر بگیریم که یا برنده است یا برنده نشده است و سپس یک logit بسازیم. اساساً من نمی دانم که آیا و چه استراتژی هایی را برای یافتن احتمال برنده شدن، در حالی که متغیرهای مستقل مختلف را در نظر می گیرند، دنبال کنم. طرح لاجیت منطقی تر به نظر می رسد، اما من نمی دانم که آیا چیزی وجود دارد که بتوانم به عنوان جایگزینی برای مدل سازی احتمال یک نتیجه استفاده کنم. اساساً، من در مورد یافتن سوال هستم: وقتی من 5 دلار پیشنهاد می دهم، احتمال برنده شدن چقدر است وقتی من پیشنهاد 6 دلاری می دهم، احتمال برنده شدن چقدر است و غیره ویرایش: فرض کنید من اطلاعاتی در مورد محصولات مختلفی دارم که برنده شدم و آنهایی که از دست می دهم. ، همراه با متغیرهای مختلف دیگر. چرا پیش بینی برد یا باخت بودن آن منطقی نیست. حدس می زنم 0/1 هنوز احتمال نیست، اما هوم... من داده ها را دارم، فقط مطمئن نیستم که آیا یا چگونه احتمال برنده شدن را مدل کنم. من واقعاً به یک قیمت پیشنهادی و اینکه آیا برنده یا باختم علاقه مند هستم. بنابراین برد/ باخت را در قیمت پیشنهادی پیش بینی کنید، از مدل لاجیت استفاده کنید، سپس احتمال برنده شدن را تخمین بزنید (که من در مورد آن مطمئن نیستم)
مدل سازی احتمال برنده شدن در سایت فروش
106143
خط رگرسیون مناسب برای افزایش خطی داده ها با تنظیم مجدد دستی
62373
من متوجه شده‌ام که برای برخی از مجموعه‌های داده، حذف میانگین و مقیاس‌بندی واریانس به تناسب مدل بهتر با داده‌ها کمک می‌کند، در حالی که برای برخی از مجموعه‌های داده این کار کمکی نمی‌کند. در مورد چه نوع استانداردسازی داده ها مفید خواهد بود؟ آیا دستورالعمل هایی برای اعمال این وجود دارد؟
استانداردسازی برای چه نوع ویژگی هایی مفید خواهد بود؟
62378
من در حال انجام یک پروژه تحقیقاتی هستم که در آن یک گروه آزمایشی و گروه کنترل از شرکت ها و یک نقطه داده هزینه برای یک سال پایه و یک سال بعد دارم. سال‌های هزینه برای اکثر شرکت‌ها متفاوت است، بنابراین برای یک شرکت ممکن است این دو هزینه در سال‌های 2006-2007 باشد در حالی که برای دیگری ممکن است از 2001-2002 باشد. همچنین در صورت لزوم هزینه های سال های دیگر را نیز دارم. سال پایه برای هر شرکت به این دلیل انتخاب شد که یک رویداد در آن سال رخ داده است و من در تلاش هستم تا ببینم آیا آن رویداد هزینه خاصی را برای آن شرکت به طور قابل توجهی تغییر داده است یا خیر. من می خواهم آزمایش کنم تا ببینم آیا تغییر در هزینه بین گروه آزمایش و کنترل از نظر آماری متفاوت است یا خیر. همچنین، می‌خواهم تغییر بهای تمام شده را به نوعی عادی کنم، به این فکر می‌کردم که درصد تغییر بهای تمام شده را محاسبه کنم یا هر هزینه را بر ارزش بازار تقسیم کنم، اما هر پیشنهاد دیگری نیز مورد استقبال قرار می‌گیرد. بهترین روش برای استفاده از کدام آزمون/روش آماری در این شرایط است؟ همچنین، با توجه به اینکه شرکت ها را می توان به دسته های مختلفی مانند کشور، ارزش بازار و غیره تقسیم کرد، آیا روش دیگری را برای تجزیه و تحلیل بیشتر داده ها توصیه می کنید؟ مفروضات توزیع: هزینه های شرکت را می توان عادی در نظر گرفت، من با استفاده از تست نرمال بودن بررسی کردم. حجم نمونه: N=109 برای گروه آزمایش و کنترل، در مجموع 436 نقطه داده.
مقایسه تغییرات هزینه برای گروه های مختلف شرکت ها
93633
من یک سری زمانی دارم که می‌خواهم معادله رگرسیون تکه‌ای را برازش کنم. اکنون مشکل زمانی رخ می دهد که من سعی می کنم معادلات با درجه های مختلف را در بخش های مختلف مجموعه جا بدهم. لطفاً به من استنادهایی به مثال‌هایی در رابطه با روند مشکل فوق ارائه دهید.
رگرسیون تکه ای
37881
62370
وقتی من یک شبکه عصبی ساده را با استفاده از همه پیش‌فرض‌ها آموزش می‌دهم، خیلی طول می‌کشد (من با تغییر برخی از پیش‌فرض‌ها به موفقیت کم بازی کرده‌ام). آیا ترفندهایی وجود دارد که من با PyBrain یا به طور کلی پیاده سازی شبکه های عصبی گم کرده ام؟ مجموعه داده من دارای 100000 مشاهده است، با یک ویژگی (متغیر متغییر) و یک پاسخ دو جمله ای ([0,1]). کد مثال: net = buildNetwork(1, 1, 1, bias = True) ds_train = SupervisedDataSet(1, 1) ds_train.addSample(x,y) trainer = BackpropTrainer(net, ds_train) trainer.train() من در واقع استفاده می کردم این به عنوان یک مورد آزمایشی برای رگرسیون بزرگتری که من به دنبال انجام آن هستم که دارای 20 ویژگی است. در حال حاضر به نظر می رسد که pybrain خیلی کند است و من در حال حاضر به دنبال Theano هستم، آیا این ایده خوبی است؟
PyBrain خیلی کند است
20129
خوب، برای تعیین توزیع باید یک هیستوگرام انجام دهیم. ما همچنین می توانیم یک نمودار معمولی چندکی انجام دهیم. آیا رسم تست/گراف خاصی (در Stata) وجود دارد که به تعیین نمایی یا نبودن یک توزیع کمک کند؟ برای دقیق تر، من به دنبال چیزی مانند طرح چندک معمولی هستم. با تشکر
چگونه می توان آزمایش کرد که آیا یک توزیع در Stata نمایی است؟
44713
برخی پیشینه: من سعی می کنم تعداد خرابی ها را در دو جمعیت ماشین های مرتبط تخمین بزنم. من خرابی ماشین را در یک سال به عنوان یک فرآیند پواسون همبسته مدل می‌کنم: $Y_0،\ Y_1$ و $Y_2$ سه فرآیند پواسون مستقل با نرخ ورود هستند: $\lambda_0$، $\lambda_1$ و $\lambda_2$. X_1$ و $ X_2$ به ترتیب تعداد خرابی‌های ماشینی هستند که در دو جمعیت مشاهده می‌شوند. این متغیرهای تصادفی گسسته به این صورت تعریف می شوند: $$X_1= Y_0+Y_1$$ $$X_2= Y_0+Y_2$$ $X_1$ و $X_2$ بنابراین همبستگی زیر را دارند: $$\rho = \frac{ \lambda_0 }{\sqrt{( \lambda_0+\lambda_1)( \lambda_0+\lambda_2)}}$$ تابع احتمال مشترک این است: $$P[X_1=i,X_2=j]=e^{-(\lambda_0+\lambda_1+\lambda_2)}\sum_{k=0}^{ من گوه j}\frac{\lambda_0^k}{k!}\frac{\lambda_1^{(i-k)}}{(i-k)!}\frac{\lambda_2^{(j-k)}}{(j-k)!} $$ من چندین سال است که این توزیع دو متغیره را بر روی داده های تجربی برازش داده ام و در تطبیق با خرابی های مشاهده شده ماشین کار خوبی انجام می دهد. سوال: در پایان هر ماه سال از خرابی ماشین در هر دو جمعیت به من گفته می شود. اجازه دهید مجموع در حال اجرا این خرابی ها را به ترتیب $a$ و $b$ برای X_1$ و $X_2$ بنامیم. علاوه بر این من می دانم چه کسری از سال باقی مانده است. اجازه دهید این را $t$ بنامیم. با توجه به این اطلاعات، چگونه باید احتمال تعداد خرابی دستگاه پایان سال را محاسبه کنم؟ $$P[X_1=i|\ a,X_2=j|\ b, t]$$ فرض کنید که $\lambda_0$، $\lambda_1$ و $\lambda_2$ پایدار می‌مانند. ممنون از راهنمایی
به روز رسانی احتمال شرطی برای متغیرهای پواسون همبسته
30394
فرض کنید آماری را داریم که در زیر جنسیت داده شده است. با استفاده از آماری مانند این به جای داده های واقعی؟ من در هیچ کجای اینترنت نتوانستم این کار را انجام دهم. بیشتر آموزش‌ها و حتی کتابچه راهنمای آزمایش فقط با مجموعه داده‌های واقعی سروکار دارند.
چگونه می توان با وارد کردن آمار نمونه به جای داده های خام، آزمون های t دو نمونه ای را در R انجام داد؟
105886
113738
تجزیه و تحلیل انتقال پنهان (یا LTA) در آمار چیست؟ و تفاوت بین LTA و تجزیه و تحلیل کلاس پنهان (LCA) چیست؟
102655
نحوه ترکیب n ماتریس سردرگمی
41070
من روی یک پروژه کوچک با یک سری زمانی کار می کنم که داده های بازدید مشتری (روزانه) را اندازه گیری می کند. متغیرهای کمکی من یک متغیر پیوسته «روز» برای اندازه‌گیری چند روز سپری شده از اولین روز جمع‌آوری داده‌ها، و برخی از متغیرهای ساختگی هستند، مانند اینکه آیا آن روز کریسمس است، و کدام روز از هفته است، و غیره. از داده های من به نظر می رسد: تاریخ مشتری_بازدید روز هفته روز کریسمس 11/28/11 2535 2 0 1 11/29/11 3292 3 0 2 11/30/11 4103 4 0 3 12/1/11 4541 5 0 4 12/2/11 6342 6 0 5 12/3/11 7205 7 0 6 12/4/11 3872 12 /11 3270 2 0 8 12/6/11 3681 3 0 9 برنامه من این است که از مدل ARIMAX برای تناسب داده ها استفاده کنم. این را می توان در R، با تابع «auto.arima()» انجام داد. می‌دانم که باید متغیرهای کمکی خود را در آرگومان xreg قرار دهم، اما کد من برای این بخش همیشه یک خطا برمی‌گرداند. کد من اینجاست: xreg <- c(as.factor(modelfitsample$Christmas)، as.factor(modelfitsample$Weekday)، modelfitsample$Day) modArima <- auto.arima(ts(modelfitsample$Customer_Visit, freq=7) allowdrift=FALSE, xreg=xreg) پیغام خطای ارسال شده توسط R این است: Error in model.frame.default(فرمول = x ~ xreg, drop.unused.levels = TRUE) :طولهای متغیر متفاوت است (برای 'xreg' یافت می شود) من چیزهای زیادی از نحوه متناسب کردن یک مدل ARIMAX با R یاد گرفتم؟ اما من هنوز خیلی روشن نیستم که چگونه متغیرهای کمکی یا ساختگی را در آرگومان xreg در تابع `auto.arima()` تنظیم کنم.
چگونه آرگومان xreg را در auto.arima() در R تنظیم کنیم؟
76534
می‌خواهم $p(\eta_\star)=\int_{}p(\eta_\star|\eta)p(\eta)d\eta$ را پیدا کنم. جایی که $p(\eta_\star|\eta)=\mathcal{N}(a^T\eta,\Sigma_1)$ و $p(\eta)=\mathcal{N}(\mu_2,\Sigma_2)$ . مشکل من واقعاً مربوط به جبر خطی است. می دانم که در نهایت با یک گاوسی مواجه می شوم، اما اصطلاح میانگین و کوواریانس چیست. آنچه من تا به حال دارم (فقط بر روی عبارت های درجه دوم تمرکز می کنم): اجازه دهید $y=\eta_\star$ و $x=\eta$ $$ (y-a^Tx)^T\Sigma_1^{-1}(y-a^Tx )+(x-\mu_2)^T\Sigma_2^{-1}(x-\mu_2) \\\ \propto y^T\Sigma_1^{-1}y-2x^Ta\Sigma_1^{-1}y+x^Ta\Sigma_1^{-1}a^Tx+x^T\Sigma_2^{-1}x- 2\mu_2^T\Sigma_2^{-1}x\\\ \propto y^T\Sigma_1^{-1}y +x^T(a\Sigma_1^{-1}a^T+\Sigma_2^{-1})x-2(y^T\Sigma_1^{-1}a^T+\mu_2^T\Sigma_2^{- 1})x $$ فعلاً خوب است حتی اگر بتوانم برای این مورد که $y$ یک اسکالر و $a$ یک بردار است پاسخی دریافت کنم.
گاوسی چند متغیره را در هم بپیچید
41071
من در حال مطالعه درختان رگرسیون تقویت شده گرادیان هستم و به آماره H که در صفحات 18-22 از _آموزش پیش بینی کننده از طریق گروه های قانون_ (2008) توضیح داده شده است نگاه می کنم. در مقاله دکتر فریدمن بیان می‌کند: > **اثرات تعاملی.** به یک تابع $F(\mathbf{x})$ گفته می‌شود که در صورت تفاوت، تعامل بین دو متغیر خود را نشان می‌دهد. > در مقدار $F(\mathbf{x})$ در نتیجه تغییر مقدار $x_j$ > بستگی به مقدار $x_k$ دارد. برای متغیرهای عددی، این می تواند به صورت $$\mathbf{E_x}\left[\frac{\partial^2 F(\mathbf{x})}{\partial x_j \partial > x_k}\right] \gt بیان شود 0$$ این از کجا می آید؟ اگر مدل F(x)=\beta_0 + \beta_{1}x_{1}+\beta_{2}x_{2}+\beta_{3}x_{1}x_{2}$ را در نظر بگیریم، تعامل عبارت $\beta_{3}$ از طریق مشتق جزئی $\frac{\partial^2 F}{\partial x_{1}\partial x_{2}}$ است. این ربط داره؟ سپس میانگین کل داده های آموزشی (در یک محیط کاربردی) و مربع؟
چرا یک مشتق متقابل مجذور میانگین مثبت یک تعامل را نشان می دهد؟
15814
فرمول صریح خروجی predict() یک رگرسیون چند جمله ای متعامد؟
41078
من در حال مطالعه علوم اعصاب هستم و در مورد ارائه برخی از داده ها سوالی دارم. می‌خواهم بدانم که آیا تقسیم‌بندی‌های ثالثی زمانی قابل قبول هستند که متغیر مورد نظر به طور معمول توزیع شده باشد یا به طور معمولی توزیع نشده باشد. آیا این مهم است؟ من از SPSS برای اجرای ANOVA 2x2 با گروه به عنوان یک عامل استفاده می‌کنم، اما می‌خواهم بدانم اگر آن متغیر به طور معمول توزیع نشده باشد، می‌توانم از تقسیم‌های درجه سوم «بالا» و «پایین» به عنوان سطوح فاکتور استفاده کنم. من این کار را انجام دادم و نتایج طبق فرضیه‌ها هستند، اما نمی‌دانم (از نظر آماری/ریاضی) استفاده از این تقسیم‌بندی‌ها را توجیه می‌کنم یا خیر. من یک آمارگیر نیستم، بنابراین توضیحات ساده ترجیح داده می شود.
چه زمانی انشعاب های درجه سوم غیرقابل توجیه هستند؟
108435
راه حل مشکل SVM
59748
لطفاً من را در جایی که اشتباه می کنم تصحیح کنید: درک من از bootstrapping این است که روشی برای تخمین توزیع برخی از آمارها (میانگین، خطای استاندارد، ضریب همبستگی پیرسون و غیره) است که تنها با یک نمونه ارائه می شود. بنابراین اگر بخواهم میانگین یک جمعیت را با استفاده از روش‌های بوت استرپ تخمین بزنم، نمونه‌های بوت استرپ زیادی تولید می‌کنم، میانگین هر یک از این نمونه‌های راه‌انداز را محاسبه می‌کنم، و سپس از توزیع آن مقادیر برای استنباط احتمال کاهش میانگین جمعیت ناشناخته استفاده می‌کنم. و یک فاصله اطمینان برای آمار محاسبه کنید. اما نمونه های بوت استرپ چگونه تولید می شوند؟ یک ماژول بوت استرپ scikit وجود دارد و من می بینم که یک روش بوت استرپ برای محاسبه فاصله اطمینان برای یک آمار معین دارد: تابع اول، def(ci) را ببینید. اولین تخمینگر تابع توزیع تجربی است که باید آرایه ای باشد که بتوان آمار مورد نظر را روی آن محاسبه کرد. چگونه از این داده های تجربی برای تولید نمونه های بوت استرپ استفاده می شود؟ برای بسط این سوال، اگر بخواهم فاصله اطمینان 95 درصدی را برای ضریب همبستگی پیرسون بین دو متغیر تصادفی x و y محاسبه کنم و «data = [(x1,y1), (x2,y2), ... (xi,yi), ... (xn,yn)]` برای اجرای بوت استرپ CI، آیا به این معنی است که `(x1, ..., xn)` و (y1, ..., yn)` برای هر نمونه بوت استرپ تولید شده مستقل از یکدیگر تولید می شوند؟
آشنایی با روش بوت استرپ برای فاصله اطمینان ضرایب همبستگی
14800
من با داده های به دست آمده از یک نظرسنجی سفر از یک شهر کار می کنم. من داده های میانگین سفرهای انجام شده توسط حالت های مختلف سفر را در روز نظرسنجی دارم. من اطلاعاتی از تعداد کل سفرهای انجام شده توسط هر حالت سفر برای شهرهایی با جمعیت مشابه از یک مرکز ملی دریافت کرده ام. آیا می توانید راهی برای مقایسه این دو به جز محاسبه درصد هر حالت در پنج حالت سفر پیشنهاد دهید. زیرا داده‌های مربوط به شهری که ما این نظرسنجی را انجام دادیم از نظر اعداد بسیار کمتر از اعداد بررسی ملی است. تعداد کل سفرها در روزهای هفته در **شهرک های کم جمعیت** 436000/ 137000/ 39000/ 88000/ 225000 میانگین تعداد سفر در هر حالت در روز بررسی در **شهرک X** 126,6/ 23 ,6/ 2/ 5/ 34,8
چگونه داده ها را با تفاوت در مقیاس مقایسه کنیم؟
14803
من 3 رگرسیون لجستیک جداگانه اجرا کرده ام و می خواهم به نحوی خلاصه کنم که مدل چقدر با داده ها مطابقت دارد. پیشنهادی دارید؟
ارائه مدل لجستیک متناسب با گرافیک
48558
من یک مجموعه داده از تقریباً 400000 رکورد دارم (برای کسانی از شما که می‌دانید، مجموعه داده‌ای است که یاهو برای چالش یادگیری رتبه‌بندی یاهو ارائه کرده است). از این مجموعه داده من یک درخت رگرسیون را یاد می گیرم. الگوریتم تکیه بر درخت رگرسیون **تعداد سطوح** (ارتفاع) را که درخت آموخته شده باید داشته باشد را به عنوان پارامتر می پذیرد. پس از یادگیری یک درخت، دقت آن را با استفاده از میانگین مربعات خطا (MSE) اندازه می‌گیرم. مجموعه داده‌های تست، مجموعه‌ای است که توسط yahoo ارائه شده است (و حدود 165000 رکورد تست دارد). برای تعیین سطح ایده آل، الگوریتم را با مقادیر پارامترهای مختلف (ارتفاع درخت حاصل) (2 تا 40) اجرا می کنم. در پایان من MSE در مقابل سطح را رسم می کنم. انتظار من این است که یک نمودار محدب با شکل کاسه مانند به دست آوریم: برای ارتفاعات کوچک درخت کمتر از داده های آموزشی است، بنابراین MSE بالا خواهد بود، با افزایش ارتفاع MSE کاهش می یابد تا به حداقل برسد و در پایان MSE دوباره شروع به افزایش می کند به دلیل بیش از حد برازش (سطوح بیش از حد به این معنی است که درخت به دست آمده بیش از حد با داده های آموزشی مطابقت می کند). متاسفانه من اینو نمیفهمم چیزی که من به دست می‌آورم یک نمودار L مانند با نوار عمودی است که به آرامی کاهش می‌یابد (نه مانند حرف L). قسمت کاهشی همانطور که انتظار می رود است، به حداقل می رسد (همانطور که انتظار می رود) اما بعد از آن شروع به بالا رفتن نمی کند (مثل اینکه درخت بیش از حد مناسب نیست، مهم نیست که چند سطح داشته باشد). آیا توضیحی در این مورد دارید؟
تعیین ارتفاع بهینه برای درخت رگرسیون
14804
یک توزیع گسسته با تابع جرم $$p(x;k) = \frac{k}{(x+k)(x+k-1)},\quad x = 1,2,\ldots$$ در صفحه ظاهر می‌شود 9 این مقاله برای $k=1$، توزیع Yule-Simon با $\rho=1$ است، اما من هیچ نمونه دیگری پیدا نکردم. اسم داره؟ آیا در زمینه های دیگر ظاهر می شود؟ آیا یک فرآیند تصادفی ساده وجود دارد که ممکن است آن را ایجاد کند؟
آیا این توزیع نامی دارد؟ یا یک فرآیند تصادفی که می تواند آن را ایجاد کند چیست؟
108430
من علاقه مندم که چگالی یک متغیر تصادفی پیوسته $X$ را تخمین بزنم. یکی از راه های انجام این کار که من یاد گرفتم استفاده از تخمین تراکم هسته است. اما اکنون من به یک رویکرد بیزی علاقه مند هستم که در امتداد خطوط زیر است. من در ابتدا معتقدم که $X$ از توزیع $F$ پیروی می کند. من $n$ را از $X$ می خوانم. آیا روشی برای به‌روزرسانی $F$ بر اساس خوانش‌های جدید من وجود دارد؟ می‌دانم که به نظر می‌رسد که من با خودم مخالف هستم: اگر من فقط به $F$ به عنوان توزیع قبلی خود اعتقاد دارم، هیچ داده‌ای نباید من را در غیر این صورت متقاعد کند. با این حال، فرض کنید $F$ $Unif[0,1]$ بود و نقاط داده من مانند $(0.3، 0.5، 0.9، 1.7)$ بود. با دیدن $1.7، بدیهی است که نمی توانم به قبلی خود پایبند باشم، اما چگونه باید آن را به روز کنم؟ **به روز رسانی:** بر اساس پیشنهادات در نظرات، من شروع به بررسی فرآیند دیریکله کرده ام. اجازه دهید از نمادهای زیر استفاده کنم: $ G \sim DP(\alpha,H)\\\ \theta_i | G \sim G\\\ x_i | \theta_i \sim N(\theta_i,\sigma^2)$ بعد از کادربندی مشکل اصلی خود به این زبان، حدس می‌زنم به موارد زیر علاقه مند باشم: $\theta_{n+1} | x_1،...، x_n$. چگونه یک نفر این کار را انجام می دهد؟ در این مجموعه یادداشت ها (صفحه 2)، نویسنده مثالی از $\theta_{n+1} | \theta_1،...،\theta_n$ (طرح اورن پولیا). من مطمئن نیستم که آیا این مربوط است. **به روز رسانی 2:** همچنین می خواهم بپرسم (بعد از دیدن یادداشت ها): چگونه مردم $\alpha$ را برای DP انتخاب می کنند؟ به نظر یک انتخاب تصادفی است. علاوه بر این، مردم چگونه یک $H$ قبلی را برای DP انتخاب می کنند؟ آیا باید از یک پیشین برای $\theta$ به عنوان قبلی برای $H$ استفاده کنم؟
33918
آیا پهنای باند بهینه برای برآوردگر چگالی هسته مشتقات وجود دارد؟
14809
من یک مجموعه داده با دو متغیر دارم، یکی پاسخ بهینه و دیگری نسبت انتخاب آن پاسخ (تعداد دفعات انتخاب شده). من به نوعی می خواهم این دو را با هم مقایسه کنم و از نظر بصری چقدر به هم نزدیک هستند. آیا استفاده از رگرسیون خطی مناسب است؟ در اینجا داده‌ها آمده است: بهینه <- structure(list(احتمال = c(0.59، 0.6، 0.55، 0.55، 0.6، 0.58، 0.67، 0.68، 0.74، 0.33، 0.79، 0.42، 0.84، 0.42، 0.84، 0.84، 0.0. 0.07، 0.9، 0.1، 0.9، 0.1، 0.96، 0.2)، Chosing.colour = c(0.16، 0.21، 0.26، 0.53، 0.84، 0.89، 0.84، 0.947، 0.20، 0.947، 0.20، 0.5 0.8، 0.9، 0.8، 0.667، 0.3، 0.667، 0.333، 1، 0.667، 0.667، 0.583))، .Names = c(احتمال، Chosing.colour)، class = data.frame، names = c(NA, -24L)) یا به صورت csv دانلود کنید
چگونه داده ها را از دو متغیر تجسم کنیم: پاسخ بهینه و پاسخ انتخاب نسبت؟
14805
من دو نظرسنجی را در یک طرح مورد شاهدی ترکیب می کنم. نظرسنجی B از جمعیت مورد گرفته شده است، و شامل تمام متغیرهایی است که برای تجزیه و تحلیل نیاز دارم، به علاوه برخی موارد اضافی. نظرسنجی A از یک جمعیت کلی «کنترل» نمونه برداری می کند و شامل اکثر (نه همه) متغیرهایی است که من به آن نیاز دارم، به علاوه برخی موارد اضافی. برای نمادگذاری، فرض کنید برای تجزیه و تحلیل به مجموعه های متغیر X و Y نیاز داریم، متغیرهای Z متغیرهای اضافی مشترک بین دو مجموعه داده هستند و V و W متغیرهای دیگری هستند که به ترتیب فقط در A و B موجود هستند. بنابراین ساختار داده به این شکل است. متغیرهای سمت چپ | برای تجزیه و تحلیل مورد نیاز است. متغیرهایی که با دوره مشخص شده اند وجود ندارند. A:.Y|ZV. B:XY|Z.W سوال من: بسیاری از متغیرهای Z، V، و W می‌توانند به عنوان پراکسی برای متغیرهای گمشده در X عمل کنند. آیا راهی برای نسبت دادن X در نمونه A با استفاده از این متغیرها وجود دارد؟ چه فرضیاتی باید داشته باشیم تا بتوانیم این کار را انجام دهیم؟ برای مثال، استراتژی که من ابتدا امتحان کردم این بود که X را روی Z در نمونه B رگرسیون کنم، سپس X پیش‌بینی‌شده را در هر دو نمونه تولید کنم، و آن مقادیر را برای X در رگرسیون لحاظ کنم. من فکر می‌کنم این تا زمانی کار می‌کند که فرض کنیم مدل X~Z در هر دو نمونه یکسان است و عبارات خطا در Y~X مستقل از Z هستند. اگرچه اینها مفروضات نسبتاً قوی به نظر می‌رسند و این مدل از داده‌ها استفاده نمی‌کند. در V و W. از آنجایی که برخی از بهترین پیش بینی کننده های X در این مجموعه ها هستند، این یک ضرر بزرگ است. ادامه: این مطالعه در زمینه مشارکت سیاسی است. مطالعات قبلی از این نوع اغلب از رویکرد متغیر ابزاری حداقل مربعات دو مرحله‌ای (2SLS-IV) استفاده کرده‌اند: ابتدا X را از روی متغیرهای ابزاری (مثلاً موجود در Z) تخمین می‌زنیم، سپس از مقادیر پیش‌بینی‌شده در رگرسیون نهایی (مثلا Y~X) استفاده می‌کنیم. . با این حال، هیچ مطالعه قبلی از رویکرد دو نمونه ای که من دنبال می کنم استفاده نمی کند. اگر متغیرهای پراکسی را با دقت انتخاب کنیم، مثال بالا با 2SLS-IV یکسان است. آیا استراتژی‌های «انتصاب» وجود دارند که از V و ​​W استفاده می‌کنند و تفسیر غیررسمی رویکرد 2SLS-IV را حفظ می‌کنند؟ یافتن یک استراتژی انتساب/ابزارسازی که در اینجا کار کند بسیار مفید خواهد بود. تنها جایگزین دیگر من برای این تحلیل، انجام دور دیگری (زمان‌گیر و پرهزینه) از جمع‌آوری داده‌ها است. پیشنهادی دارید؟
تعیین/ابزارسازی برای متغیرهای گمشده در یک مطالعه مورد-شاهدی
11878
من سعی می کنم یک مدل سلسله مراتبی را با استفاده از jags و بسته jags جا بدهم. متغیر نتیجه من y است که دنباله ای از آزمایشات برنولی است. من 38 سوژه انسانی دارم که در دو دسته P و M اجرا می‌کنند. بر اساس تحلیل من، هر سخنران احتمال موفقیت در رده P برابر با $\theta_p$ و احتمال موفقیت در رده M برابر با $\theta_p\time دارد. \theta_m$. من همچنین فرض می‌کنم که برخی فراپارامتر سطح جامعه برای P و M وجود دارد: $\mu_p$ و $\mu_m$. بنابراین، برای هر بلندگو: $\theta_p \sim beta(\mu_p\times\kappa_p, (1-\mu_p)\times\kappa_p)$ و $\theta_m \sim beta(\mu_m\times\kappa_m, (1- \mu_m)\times\kappa_m)$ که در آن $\kappa_p$ و $\kappa_m$ چگونه کنترل می کنند اوج توزیع در حدود $\mu_p$ و $\mu_m$ است. همچنین $\mu_p \sim beta(A_p, B_p)$, $\mu_m \sim beta(A_m, B_m)$. مدل jags من این است: model{ ## y = N آزمایشات برنولی ## هر بلندگو برای هر دسته یک مقدار تتا دارد برای(i در 1:length(y)){ y[i] ~ dbern( تتا[ بلندگو[i] ,category[i]]) } ## رده P دارای تتا پتتا است ## رده M دارای تتا پتتا است * Mtheta ## هیچ داده مشاهده‌ای برای Mtheta خالص ## ## Kp و Km نشان دهنده شباهت بلندگوها به یکدیگر ## برای Ptheta و Mtheta برای (j در 1:max(بلندگو)){ theta[j,1] ~ dbeta(Pmu*Kp, (1 -Pmu)*Kp) catM[j] ~ dbeta(Mmu*Km، (1-Mmu)*Km) تتا[j,2] <- theta[j,1] * catM[j] } ## Priors برای Pmu و Mmu Pmu ~ dbeta(Ap,Bp) Mmu ~ dbeta(Am,Bm) ## Priors برای Kp و Km Kp ~ dgamma(1,1/ 50) کیلومتر ~ dgamma (1,1/50) ## Hyperpriors برای Pmu و Mmu Ap ~ dgamma(1,1/50) Bp ~ dgamma(1,1/50) Am ~ dgamma(1,1/50) Bm ~ dgamma(1,1/50) } مشکلی که من دارم این است که وقتی این مدل را اجرا می کنم با 5000 تکرار برای تطبیق، سپس 1000 نمونه بردارید، Mmu و Km به مقادیر واحد همگرا شده اند. من آن را با 4 زنجیره اجرا کرده ام، و هر زنجیره ارزش یکسانی ندارد، اما در هر زنجیره فقط یک مقدار وجود دارد. من در برازش مدل‌های سلسله مراتبی با استفاده از روش‌های MCMC بسیار جدید هستم، بنابراین نمی‌دانم این چقدر بد است. آیا باید این را به‌عنوان نشانه‌ای در نظر بگیرم که این مدل ناامیدکننده است، مشکلی در مورد قبلی‌ام وجود دارد، یا این برای دوره مشابه است؟ ویرایش: اگر مهم باشد، مقدار $\mu_m$ که به آن همگرا شد (میانگین در زنجیره ها) 0.91 و $\kappa_m$ 1.78 بود.
MCMC به یک مقدار واحد همگرا می شود؟
14496
> پست متقاطع از Biostar من در یک مرحله برای محاسبه نسبت شدت نرمال شده برای یون های گزارشگر i-TRAQ که در پروتئومیکس کمی استفاده می شود گیر کرده ام. در اینجا مثال کار شده از نحوه محاسبه آن است و شرح آن به شرح زیر است. نرمال سازی تنظیم شده مداین در پروتئومیکس کمی استفاده می شود. شدت یون گزارشگر از تمام طیف های پپتیدی شناسایی شده برای محاسبه نسبت های یون گزارشگر غیر عادی استفاده می شود. سپس از این نسبت ها برای محاسبه شدت نرمال تنظیم شده رسانه استفاده می شود. به عنوان مثال، تمام شدت های یون گزارشگر در نسبت غیر نرمال شده متوسط ​​مربوطه آنها ضرب می شوند. هنگامی که این شدت های نرمال تنظیم شده متوسط ​​محاسبه شد، نسبت های جدید محاسبه می شوند. اولین مرحله برای محاسبه نسبت‌های غیر عادی، تقسیم 734,442,619,992 بر مقدار کانال اول یا «مرجع» یعنی 734 است که نسبت‌های غیر عادی 1.00، 0.60، 0.84، 1.35 را به دست می‌دهد. من متوجه نشدم که چگونه شدت عادی تنظیم شده متوسط در مرحله دوم محاسبه شد. مرحله سوم دوباره واضح است، مقادیر شدت عادی تنظیم شده متوسط ​​را بر 734 تقسیم کنید که به نسبت شدت نرمال شده 1.00، 0.94، 0.91، 1.42 می دهد لطفاً کسی می تواند مرحله دوم را توضیح دهد؟ پیشاپیش ممنون WoA
23038
1687
مشکلی که می‌خواهم حلش کنم این است: «چگونه بفهمم چقدر باروت باید در یک کارتریج بریزم تا بتوانم به خودم احتمال خوبی برای تولید حداقل ضریب قدرت بدهم؟» من در USPSA/IPSC مسابقه می‌دهم که مستلزم آن است که راندهای رقیب حداقل ضریب قدرت را ایجاد کنند. ضریب توان به صورت FLOOR (متوسط ​​سرعت گلوله * وزن گلوله) / 1000 محاسبه می شود که در آن سرعت بر حسب فوت بر ثانیه و وزن گلوله بر حسب دانه است. به استفاده از FLOOR توجه کنید. هیچ گرد کردنی انجام نمی شود. فقط بخش جدایی ناپذیر محاسبات استفاده می شود. هر چه ضریب قدرت بیشتر باشد، پس زدگی احساس شده بیشتر است و انجام سریع عکس های بعدی سخت تر است. از آنجایی که ورزش مربوط به شلیک گلوله ها با بیشترین سرعت و دقت ممکن است، هر چه میزان پس زدن کمتر باشد بهتر است. بخش‌های مختلف این ورزش دارای ضریب قدرت متفاوتی هستند، اما بخش خاصی که من در آن مسابقه می‌دهم حداقل 165 ضریب قدرت دارد. گلوله‌هایی که من استفاده می‌کنم گلوله‌های 180 gn هستند و حدود +/- 0.2 gn متفاوت هستند و معمولاً توزیع می‌شوند. چیزی که این مشکل را به یک مشکل جالب تبدیل می‌کند (و آن را از آمار ناچیز و مهارت‌های احتمالی من حذف می‌کند) روش تست در طول یک مسابقه اصلی است. نمونه تصادفی 8 دور جمع آوری شد. از 8 گلوله، یک گلوله جدا می شود و گلوله برای استفاده در فرمول بالا وزن می شود. سپس 3 گلوله شلیک می شود و از سرعت متوسط ​​استفاده می شود. اگر ضریب قدرت حاصل کمتر از حداقل باشد، 3 گلوله دیگر شلیک می شود. میانگین 3 سریعترین سرعت از 6 گلوله شلیک شده اکنون برای محاسبه ضریب توان استفاده می شود. اگر ضریب قدرت حاصله هنوز زیر زمین باشد، تیرانداز می‌تواند آخرین گلوله را جدا کرده و وزن کند یا آخرین گلوله را شلیک کند. اگر گلوله جدا شود و از گلوله اول سنگین‌تر باشد، برای محاسبه ضریب توان از وزن سنگین‌تر استفاده می‌شود. اگر آخرین گلوله شلیک شود، میانگین 3 سریعترین سرعت از 7 گلوله شلیک شده برای محاسبه ضریب توان استفاده می شود. برای اضافه کردن چاشنی به این مشکل، همه کرنوگراف‌هایی که برای اندازه‌گیری سرعت گلوله استفاده می‌شوند یکسان ساخته نمی‌شوند. صنعت کرنوگراف تصدیق می کند که می تواند تا +/- 4% واریانس بین کرنوگراف های مارک های مختلف وجود داشته باشد. جالب‌تر این است که قوانین اجازه می‌دهند که کرونوگراف مشابهی که برای یک مسابقه خاص استفاده می‌شود +/- 4% واریانس در طول مدت مسابقه داشته باشد. من نمی دانم که آیا هر یک از این واریانس های 4٪ به طور معمول توزیع شده اند یا نه. با کرنوگراف خودم، دسته هایی از یک باروت خاص را آزمایش می کنم تا سرعت متوسط ​​و انحراف استاندارد را بدست بیاورم. پس از تجزیه و تحلیل های آماری بسیاری از دسته های مختلف، من تأیید کردم که این داده ها به طور معمول توزیع می شوند. روشی که من در حال حاضر حداقل بار خود را تعیین می کنم با یافتن باری است که به من 165 < FLOOR (هدف * 179.9 / 1000) می دهد که در آن هدف = (سرعت متوسط ​​- انحراف استاندارد) * ضریب فاج. برای فاج فاج، من به طور غیرعلمی 1.04 را انتخاب کردم. 0.04 واریانس 4 درصدی بین کرونوگراف ها است، اما واریانس مجاز روزانه را نادیده می گیرد. من انتخاب کردم که فقط 1 انحراف معیار را کم کنم زیرا فقط 16٪ مواقع یک گلوله زیر زمین قرار می گیرد. به نظر من، احتمال اینکه همه 3 گلوله اول همه به زیر زمین بروند 0.16^3 است که کمتر از نیم درصد است. سؤالات خاص من این است: آیا می خواهم هدف را به روش صحیح محاسبه کنم؟ آیا فاج فاج من باید 4 درصد دیگر برای واریانس روزانه مجاز را شامل شود؟ آیا انحراف معیار 1 خیلی زیاد است یا خیلی کم؟ چگونه باید فرمول هدف خود را بنویسم؟ ویرایش: پس از پاسخ اولیه Srikant در زیر اجازه دهید چند سوال و یادداشت متمرکز اضافه کنم. من متوجه می شوم که خطا را با توجه به اندازه گیری هایم تشخیص می دهم. مشکل چندانی وجود ندارد، مگر اینکه با کنترل کیفیت یا تعمیر و نگهداری واقعاً شلخته باشم. درک من از احتمالات ضعیف است، بنابراین لطفاً با من در مورد احتمالات محاسباتی سؤال می کنم: 1) یکی از مسائل کلیدی که باید با آن برخورد کنم، این است که بفهمم چگونه به درستی احتمال را برای فرآیند آزمایش در 7 دور محاسبه کنم. در مورد 3 راند اول کاملاً واضح است: (احتمال اینکه راند زیر نقص پاور باشد)^3. چگونه برای 3 دور بعدی و دور آخر حساب کنم؟ من می توانم محاسبه احتمالات را با استفاده از ترکیب گلوله ها در بالا یا پایین زمین ببینم، اما کاملاً یک دودویی بالا یا پایین نیست. فرض کنید 6 گلوله شلیک شده است و میانگین بالاترین 3 گلوله 164.9 است. اگر دور آخر حداقل 165.2 داشته باشد، آنگاه میانگین بالاترین 3 راند از 7 عدد 165 خواهد بود. match chrono، و اینکه چگونه Match chrono اجازه دارد تا 4% روز به روز تغییر کند. آیا من فقط بدترین حالت را فرض می کنم و مطمئن می شوم که حداقل 8 درصد بالای 165 هستم -- یعنی دور من حداقل 179 ضریب توان را شلیک می کند؟ یا سعی می کنم نوعی توزیع نرمال را روی دو واریانس 4 درصد فرض کنم؟
آمار اعمال شده برای یافتن حداقل بار برای کف ضریب توان
95278
من می خواهم بیشترین توزیع آماری مرتبط را از داده های سینوسی پیدا کنم، برای مثال اجازه دهید مدل زیر را در نظر بگیریم $y[t]=A_1*sin(\omega_1*t+\phi_1)+A_2*sin(\omega_2*t+\phi_2)+ ....+A_p*sin(\omega_p*t+\phi_p)$+$z(t)$ که $z(t)$ سفید است نویز، و سایر پارامترها ثابت هستند، من این داده ها را تولید کرده ام و با استفاده از نمودار تابع matlab، نمودار تصویر زیر (B) را دارم که در آن B سیگنال داده شده توسط این مدل است، این مدل در 100 هرتز نمونه برداری شده و نتیجه در B نوشته می شود. vector ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CvPzi.png) توزیع های زیادی وجود دارد، آنها در این لینک آورده شده اند http://www.mathworks.com/help/stats/generate-a-kernel-probability-density- texmîn-using-ksdensity.html اما کدام یک بهینه است؟ کدام یک با چنین مدلی مطابقت دارد؟ پیشاپیش متشکرم
توزیع آماری مرتبط داده ها را پیدا کنید
38038
من برخی از پست‌های مربوط به انتخاب ویژگی و اعتبارسنجی متقاطع را خوانده‌ام، اما هنوز درباره روش صحیح سؤالاتی دارم. فرض کنید من یک مجموعه داده با 10 ویژگی دارم و می خواهم بهترین ویژگی ها را انتخاب کنم. همچنین فرض کنید از طبقه‌بندی‌کننده یک نزدیک‌ترین همسایه استفاده می‌کنم. آیا می توانم یک جستجوی جامع با استفاده از اعتبارسنجی متقاطع برای تخمین میزان خطا به عنوان راهنمای انتخاب بهترین ویژگی ها انجام دهم؟ چیزی شبیه کد شبه زیر برای i=1:( 2^10 -1) error(i)= crossval(1-nn, selected_fetures(i)) end i=find(erro(i)==min(error(i ) Selected_features= selected_features(i) آنچه که من سعی دارم در این شبه کد توضیح دهم این است که من اعتبار متقاطع را برای تمام ترکیبات ممکن از ویژگی ها اجرا می کنم. من فکر می کنم که این روش درست است، زیرا من در حال انجام یک جستجوی جامع هستم انتخاب؟
111639
من مدلی برای تخمین اثر قیمت بنزین بر متغیر وابسته «Y» دارم. در مدل رگرسیون خطی تکه‌ای (گجراتی 1995، ص. 519)، من یک متغیر ساختگی را وارد کردم که نشان‌دهنده قیمت گاز بیش از $3 است (قیمت گاز >\$3 $\rightarrow$ D\$3). علاوه بر متغیر اصلی قیمت بنزین (log of GP)، من یک اصطلاح تعاملی [log(GP)-log(3)] * D$3] را اضافه کردم. بنابراین مدل این است: log Y = a + beta1*log(GP) + beta2*D$3 + beta3*[log(GP)-log(3)] * D$3] + ... می‌خواهم بررسی کنم که آیا کشش در علامت \$3 تغییر می کند. نتایج نشان می دهد که «بتا1» از نظر آماری ناچیز است. با این حال، هنگامی که (0/1) را برای D\$3 برگردانم و یک متغیر «[log(GP)-log(3)]» ایجاد کردم که مقداری برای قیمت گاز < \$3 و 0 برای قیمت گاز > \$3 دارد، «بتا1» از نظر آماری معنی‌دار می‌شود. نه تنها ضریب برآورد شده بزرگتر می شود (مورد انتظار)، بلکه خطای استاندارد نیز کوچکتر می شود. Coef. Std. اشتباه t P>|t| TRY 1: beta1 | .0312231 .0273001 1.14 0.253 beta3 | 0.1484264 .0560878 2.65 0.008 TRY 2: beta1 | .1796495 .052143 3.45 0.001 beta3 | -.1484264 .0560878 -2.65 0.008 [ 0.0312 + 0.1484 = 0.1796 ] من می فهمم که از نظر ضرایب تخمینی چه خبر است. آیا کسی توضیحی برای علت این تغییر در اهمیت آماری «بتا1» دارد؟ مطمئناً مشاهدات با قیمت گاز < \$3 (72 obs) بیشتر از مشاهدات با قیمت گاز > \$3 (41 obs) وجود دارد. با توجه به اهمیت آماری بستگی به نحوه ایجاد متغیرها دارد، آیا راهنمایی برای انجام چه کاری در این شرایط وجود دارد؟ وقتی نتایج را تفسیر می‌کنم، می‌توانم یا باید اثر مستقیم (بتا1) را بدون توجه به اهمیت آماری در Try1 لحاظ کنم؟ پیشاپیش از نظرات شما متشکرم
رگرسیون خطی / خطی تکه تکه: توضیح تغییرات در خطای استاندارد
38032
میانگین زمان بقا رگرسیون کاکس
76490
طبقه بندی باینری دو بعدی
38030
من برای کد برنامه نویسی زیر به کمک نیاز دارم: از قبل: من سعی کردم پارامترهای_Poisson_ را تخمین بزنم، اما _M.L.E._ و _M.C._ نتایج رضایت بخشی را از نظر واقعی به مورد انتظار نمی دهند، از نظر اکچوئری، مدل پواسون مشکلی ندارد. . بنابراین می‌خواهم از پارامترهای _Poisson- مانند این استفاده کنم: 0.9، 0.99، 0.999، 0.9999، ... همان با 0.8، ... در نهایت 0.1 ...... برای محاسبه این پارامترها استفاده می‌کنم: Poi_para <- numeric() sum <- 0 Poi <- function(n) {0.9 / 10^(n-1)} #<- من از این فرمول برای (i در 1:4) # 4 یا 14 یا 24 یا ...... کاملا راضی هستم { Poi_para[i] <- Poi(i) } Poi_para [1] 9e-01 9e-02 9e-03 9e-04 اکنون، من می خواهم مقداری جمع بندی انجام دهم، و برای این کار به کمک شما برای کد برنامه نویسی نیاز دارم: مقدار اول باید باشد: 0.9 ثانیه: 0.99 (یعنی مجموع 0.9 + 0.09) سوم: 0.9 + 0.09 + 0.009 (یا مجموع خط قبلی + 0.009) و غیره. Braun/Murdoch مشابه این کار را در صفحه انجام می دهند. 54 با حلقه «while()»، اما نمی توانم آن را به مشکل خود ترجمه کنم. آیا کسی می تواند به من کمک کند که چگونه جمع بندی را انجام دهم؟ سپس پارامترهای پواسون با داده ها و غیره به مدل پواسون وارد می شوند.
95272
من چهار نقطه داده دارم: * جمعیت گروه آزمایش (testpop) * تبدیل در گروه آزمایش (testconv) * جمعیت گروه کنترل (controlpop) * تبدیل در گروه کنترل (controlconv) بدیهی است که می توانم نرخ تبدیل را برای هر گروه بدست بیاورم: * testrate = testconv / testpop * controlrate = controlconv / controlpop آنچه من در تلاش هستم find now این است که اگر همان تست دوباره اجرا شود، این احتمال وجود دارد که «تست» از «کنترل» تجاوز کند. متأسفانه، دانش محدود من در مورد آمار، استفاده از عبارات مناسب برای تعریف مشکل را برای من سخت کرده است. من تحت این تصور هستم که به دنبال نمره استاندارد و p-value هستم، اما کمی مطمئن نیستم که محاسبات صحیح برای بدست آوردن آن ها چیست. در مورد لبه های محاسبات نیز مطمئن نیستم. به عنوان مثال، اگر «testpop» و «testconv» هر دو 0 باشند، چه معنایی برای احتمال دارد؟ آیا این 50٪ خواهد بود زیرا فقط اطلاعات کافی وجود ندارد؟ اگر هر دو نرخ تبدیل یکسان باشند، چطور؟ هنوز 50 درصد؟ با تشکر :)
محاسبه احتمال بر اساس داده های آزمون / کنترل؟
29988
به عنوان مثال، من سه متغیر دارم: A، B، C. من همبستگی جزئی بین A و B را در حین کنترل C (که به صورت A~B[C] بیان می‌شود)، و همبستگی جزئی بین A و C را در حین کنترل B (بیان شده) تجزیه و تحلیل می‌کنم. به عنوان A~C[B]). نتیجه نشان می دهد که ضریب همبستگی A~B[C] 0.67، p-value <0.001 است، با این حال، p-value A~C[B] نیز <0.001 است، اما ضریب همبستگی کوچک است، فقط 0.02. آیا می‌توانم توضیح دهم: در یک سطح متغیر C، A احتمالاً با B تعیین می‌شود تا C؟
چگونه نتیجه همبستگی جزئی را توضیح دهیم؟
78536
آزمون فرضیه تحت رگرسیون خطی تک معادله ای برای نرمال سازی ساده داده ها قوی است (به عنوان مثال تقسیم همه متغیرها بر میانگین مربوطه). من می بینم که همین امر برای سیستم های معادلات تخمین زده شده توسط SUR بدون هیچ محدودیتی صادق است. با این حال، زمانی که محدودیت‌ها در میان باشد، چنین نیست. کسی میتونه توضیح بده چرا؟ و اگر در چنین مواردی باید عادی سازی انجام شود، چگونه باید انجام شود؟ پیشاپیش ممنون
29981
بیایید یک مدل خطی داشته باشیم، برای مثال فقط ANOVA ساده: # تولید داده set.seed(1.234) Ng <- c(41, 37, 42) data <- rnorm(sum(Ng), mean = rep(c(-1) ، 0، 1)، Ng)، sd = 1) واقعیت <- as.factor(rep(LETTERS[1:3]، Ng)) m1 = lm(داده ~ 0 + واقعیت) خلاصه (m1) نتیجه به شرح زیر است: فراخوانی: lm(فرمول = داده ~ 0 + واقعیت) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -2.30047 -0.60414 -0.04078 0.54316 23ateefficients: 2.253 Estimate خطای t مقدار Pr(>|t|) factA -0.9142 0.1388 -6.588 1.34e-09 *** factB 0.1484 0.1461 1.016 0.312 factC 1.0990 0.1371 0.1371 8.015 --3-1. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.8886 در 117 درجه آزادی چندگانه R-squared: 0.4816، R-squared تنظیم شده: 0.4 F آمار: 36.23 در 3 و 117 DF, p-value: < 2.2e-16 اکنون من دو روش مختلف را برای تخمین فاصله اطمینان این پارامترها امتحان می کنم c = coef (خلاصه (m1)) روش # 1: محدودیت های CI از SE، با فرض توزیع نرمال cbind (کم = c[,1] - qnorm(p = 0.975) * c[,2]، high = c[,1] + qnorm(p = 0.975) * c[,2]) # 2nd روش confint(m1) ## سوالات: 1. توزیع ضرایب رگرسیون خطی برآورد شده چگونه است؟ معمولی یا $t$؟ 2. چرا هر دو روش نتایج متفاوتی دارند؟ با فرض توزیع نرمال و SE صحیح، انتظار دارم هر دو روش نتیجه یکسانی داشته باشند. خیلی ممنون! داده ~ 0 + واقعیت **ویرایش بعد از پاسخ**: پاسخ دقیق است، این دقیقاً همان نتیجه confint(m1) را خواهد داشت! روش سوم cbind(low = c[,1] - qt(p = 0.975, df = sum (Ng) - 3) * c[,2], high = c[,1] + qt(p = 0.975, df = مجموع (Ng) - 3) * c[,2])
آیا فواصل اطمینان برای ضرایب رگرسیون خطی باید بر اساس توزیع نرمال یا $t$ باشد؟
103016
چگونه می توانم یک مقدار p برای یک افکت اصلی در طراحی 2x2 بدست بیاورم؟ من 12 شرکت کننده و 2 دسته شرط مستقل دارم که آنها را با _letter_ و _case_ نشان می دهم. یعنی شرایط من **A**، **a**، **B**، **b** است. همه 12 شرکت‌کننده در موارد زیر شرکت می‌کنند: حرف موردی A a B b بنابراین، داده‌های من می‌تواند این باشد: حروف اندازه‌گیری شرکت‌کننده 0 ET001 1.785561 a کمتر 1 ET002 1.202052 یک پایین‌تر 2 ET003 0.996961 یک پایین‌تر 3 ET004 ET805 1.14 کمتر 1.143536 یک پایین 5 ET006 1.219683 یک پایین 6 ET007 1.038158 یک پایین 7 ET008 1.042968 یک پایین 8 ET009 1.339907 یک پایین 9 ET010 1.038101 ET010 1.0341 پایین تر یک پایین 11 ET012 1.247102 یک پایین 12 ET001 1.637633 یک بالا 13 ET002 1.124755 یک بالا 14 ET003 0.978225 یک بالا 15 ET004 1.00306 aperper ET001 بالا 17 ET006 1.197491 بالا 18 ET007 1.059350 بالا 19 ET008 1.060859 بالا 20 ET009 1.146489 بالا 21 ET010 1.010 1.040 بالا 1.071372 a بالایی 23 ET012 1.279824 a بالایی 24 ET001 1.936211 b پایینی 25 ET002 1.231004 b پایینی 26 ET003 1.017406 b پایینی 27 ET1058 پایینی 27 ET006 1.099156 b پایین تر 29 ET006 1.212767 b پایین تر 30 ET007 1.024333 b پایین تر 31 ET008 1.014315 b پایین تر 32 ET009 1.448073 b پایین تر 33 ET093069 ET0101 پایین تر. 1.069086 b پایین 35 ET012 1.181156 b پایین 36 ET001 1.965226 b بالا 37 ET002 1.110897 b بالا 38 ET003 0.997396 b بالا 38 ET040401 ET01 1.162732 b بالا 41 ET006 1.239641 b بالا 42 ET007 1.075972 b بالا 43 ET008 1.022703 b بالا 44 ET009 1.303017 b بالا 4570800 b ET011 1.095592 b upper 47 ET012 1.219926 b upper من می خواهم یک p-value برای اثر _letter_ دریافت کنم. به این معنی که من می خواهم دسته های **A,a** را با دسته های **B,b** مقایسه کنم. برای این کار از چه آزمایشی استفاده کنم؟ ایده های من: * آزمون t نمونه مرتبط برای **A** الحاق با **a** در مقابل **B** الحاق با **b** (24 در مقابل 24 مقدار) * آزمون t نمونه مرتبط _p_ از **A** در مقابل **B** ضرب در آزمون t نمونه مرتبط _p_ از **a** در مقابل **b** راه صحیح چیست؟ و اگر پیشنهادات من ناقص است - چرا؟ (حداقل یکی از آنها است، زیرا آنها مقادیر مشابه اما نه یکسانی به من می دهند)
29984
در طول پایان نامه کارشناسی ارشدم در حال کار بر روی / روی OCR برای ریاضی هستم. برای مقاصد آزمایشی به مجموعه عظیمی از معادلات ریاضی با فرمت‌های مختلف (خانواده فونت، اندازه فونت، فرمت‌کننده معادله استفاده شده و غیره) نیاز دارم. از آنجایی که یک OCR باید تصاویر را ارائه کند و متن را بازیابی کند، این مجموعه ها به من کمک نمی کنند. من به بازسازی تصاویر فکر کردم، به عنوان مثال. اگر معادله به صورت TeX داده شود، اما این بدان معناست که من معادلات ظاهری تقریباً مشابهی دریافت می کنم. پیشنهادی دارید؟
کجا می توانم مجموعه بزرگی از معادلات ریاضی را به عنوان تصویر پیدا کنم؟
47592
چه اتفاقی می‌افتد وقتی بسیاری از نورون‌ها وزن یکسانی دارند؟
29980
ویرایش: tl;dr: من می‌توانم بسیاری از مسائل بهینه‌سازی را وادار کنم تا به شکل یک مسئله حداقل مربعات غیرخطی درآیند، اما آیا انجام این کار منطقی است؟ فرض کنید مقداری داده تجربی $P=\\{(x_i', y_i')\\}_{i\in I}$ داریم. یک مسئله حداقل مربعات غیر خطی (NLLSQ) مسئله ای است که در آن می خواهیم تابعی به شکل $$S(\beta)=\sum_{i\in I}\left[y_i-f_\beta(x_i)\ را کمینه کنیم. راست]^2$$ که در آن $(x_i، y_i) = (x_i'، y_i')$ و $f_\beta$ یک منحنی با پارامترهای $\beta$ است. به نظر می رسد بسیاری از مشکلات که به طور طبیعی مشکلات NLLSQ نیستند، می توانند به این صورت مجدداً فرموله شوند. 1. اگر $d(x,y)$ هر معیاری در $\mathbb{R}$ باشد، آنگاه $$S_1(\beta) = \sum_{i\in I}\left[d\left(y_i'، g_\beta(x_i)\right)\right]^2$$ تقریباً از شکل بالا است، با $y_i=0$ و $f_\beta(x_i) = d(y_i',g_\beta(x_i))$. متأسفانه، $f_\beta$ اکنون تابعی است، نه تنها از $x_i$ بلکه همچنین از شاخص $i$، اما اگر $x_i$ تکرار نشود، می‌توانیم اجازه دهیم $h(x)$ هر تابعی باشد. که نقاط $(x_i'، y_i')$ را درون یابی می کند (مانند درون یابی خطی یا درون یابی spline)، و $$S_2(\beta) = \sum_{i\in را تعریف می کند. I}\left[d\left(h(x_i),g_\beta(x_i)\right)\right]^2$$ که مطمئناً اکنون به شکل صحیح است. (اگر $d$ واقعاً تابعی باشد صدق می‌کند، اما در مورد یک متریک جالب‌تر به نظر می‌رسد) 2. مربع همچنین می‌تواند در $d(x,y)$ جذب شود تا $S_3(\beta)$ به دست آید. = \sum_{i\in I} d\left(h(x_i),g_\beta(x_i)\right)$$ 3. حتی فراتر از این، می‌توان این مجموع را روی یک نمایه کرد singleton برای به دست آوردن موارد زیر: $$S_4(\beta) = j_\beta(P)$$ که اکنون $I=\\{0\\}$, $(x_0, y_0) = (0,0)$ و $f_\beta(x)=\sqrt{j_\beta(P)}$ که $j_\beta$ بر حسب x ثابت است، اما می‌تواند یک تابع غیرمنفی دلخواه با توجه به $(\beta، P) $. بنابراین به نظر می رسد که می توانیم مسائل بهینه سازی کاملاً کلی را به عنوان موارد کاملاً منحط NLLSQ مطرح کنیم. من 2 تا سوال دارم * در کدام یک از این تنظیمات (در صورت وجود) هنوز منطقی است که NLLSQ _algorithms_ را برای حل مشکل اعمال کنید. (به طور خاص به لونبرگ-مارکوارت فکر می کنم). * در مواردی که الگوریتم‌های NLLSQ بد عمل می‌کنند، چه الگوریتم‌هایی با هدف کلی‌تر در دسترس هستند؟
محدوده حداقل مربعات غیر خطی
108195
من نمی دانم که فرآیند محاسبه یک توزیع ابر هندسی چند متغیره با چندین نوع نیز چگونه خواهد بود. به عنوان مثال، فرض کنید شما یک دسته استاندارد 52 کارتی از کارت های بازی دارید. با این حال، 8 کارت اضافی اضافه شده است که هم قلب و هم بیل هستند. چگونه می توانم احتمال کشیدن 2 قلب و 2 بیل در 5 قرعه کشی را محاسبه کنم؟ من به توزیع فوق هندسی چند متغیره غیرمرکزی فیشر نگاه کردم، و فکر نمی‌کنم در اینجا کاربرد داشته باشد، زیرا احتمال کشیدن کارت‌های خاص تغییر نمی‌کند، فقط احتمال ترسیم مجموعه‌های خاص تغییر می‌کند.
29987
من یک الگوریتم خوشه بندی دارم که اگر از فاصله اقلیدینی به عنوان شباهت استفاده کنم، روی هر مجموعه داده ای به خوبی کار می کند. اگر آن را با یک شباهت کسینوس جایگزین کنم (کد من را در زیر ببینید)، نتایج انحطاطی می دهد (به هیچ وجه کار نمی کند). آیا من در کدنویسی این شباهت کسینوس خطایی انجام دادم یا این شباهت کسینوس است که طبیعتاً باید فقط روی نوعی داده کار کند؟! و به هر حال، این یک شباهت است، آیا تفاوتی بین آن و فاصله وجود دارد؟ در اینجا نمونه برداری از دو مجموعه داده است که من استفاده می کنم. مجموعه داده دوم ممکن است حاوی بردارهای تکراری زیادی باشد: نمونه هایی از مجموعه داده 1: http://pastebin.com/6iYcqgWF نمونه هایی از مجموعه داده 2: http://pastebin.com/4MtLXwp7 توجه: مربع فقط به این دلیل است که تابع زیر یک ریشه در فراخوانی شده است. برنامه اصلی .. // شباهت فاصله اقلیدسی مربع من float computeSqrDistance(vector<float> pos1, vector<float> pos2) { float sum = 0; for(unsigned int i = 0; i < pos1.size(); ++i) { sum += pow( (pos1[i] - pos2[i]), 2.0); } بازگشت مبلغ; } // شباهت فاصله کسینوس مربع من float computeSqrDistance(vector<float> pos1, vector<float> pos2) { float sum0 = 0, sum1 = 0, sum2 = 0; for(unsigned int i = 0; i < pos1.size(); ++i) { sum0 += pos1[i] * pos2[i]; sum1 += (pos1[i]*pos1[i]); sum2 += (pos2[i]*pos2[i]); } شباهت شناور = sum0 / ( sqrt(sum1) * sqrt(sum2) ); شباهت = 1 - (acos(similarity) / M_PI)؛ بازگشت (شباهت*شبهه); }
استفاده از شباهت کسینوس برای هیچ مجموعه داده ای کار نمی کند
94895
من در حال ساخت یک سیستم توصیه فیلتر مشارکتی مبتنی بر آیتم هستم. من ماتریسی از کاربران و اقلام دارم که در این مورد، محصولاتی هستند که خریده شده اند یا خیر (به عنوان مثال، باینری: «1» یا «0»). من می‌توانم یک CF مبتنی بر آیتم را از این ماتریس همزمانی/تداعی بسازم (توجه داشته باشید: این ماتریسی از رتبه‌بندی محصول ('1'–'5') نیست). همچنین می‌خواهم اطلاعاتی درباره «دموگرافیک» (محل، نوع مرورگر، نوع دستگاه و غیره) به توصیه‌کننده‌ام اضافه کنم تا توصیه‌ها را بهبود ببخشم، مخصوصاً برای افرادی که تازه وارد سایت شده‌اند. آیا می‌توان متغیرهای جمعیت‌شناختی را باینریزه کرد، با آنها مانند موارد جدید رفتار کرد (یعنی متفاوت از یک محصول نیست)، و سپس آنها را به عنوان ستون‌های جدید در ماتریس وقوع اضافه کرد؟ به عبارت دیگر: `{user_1: {product_22: 1, product_38: 1, browser_firefox: 1, California: 1, etc}`. من می‌خواهم از این ماتریس (هم با محصولات و هم اطلاعات جمعیت‌شناختی برای اقلام) استفاده کنم تا معیارهای شباهت مورد را بدست بیاورم (مثلاً چقدر شبیه «product1» به «product2»؛ «Firefox_browser» به «product1») قابل استفاده است. برای توصیه ها همچنین ممکن است بخواهم فاکتورسازی ماتریس را روی این ماتریس اعمال کنم. به نظرم می رسد که این یک رویکرد معقول است، اما من نتوانستم مستنداتی در مورد کسی پیدا کنم که اطلاعات جمعیتی را به این روش ساده به توصیه کننده خود اضافه کند. هر فکری؟ با تشکر برای هر گونه کمک!
فیلتر مشارکتی مبتنی بر آیتم – آیا می توانید اطلاعات جمعیت شناختی را به ماتریس اولیه کاربر× آیتم اضافه کنید؟
54739
آیا الگوریتم EM برای مخلوط ها همچنان به مشکل داده های از دست رفته رسیدگی می کند؟
94892
من می‌دانم که Martingale برای یک سیستم سبک رولت چگونه کار می‌کند، اما آیا می‌توان سیستم Martingale را برای کار در بازی با شانس‌های مختلف تغییر داد؟ به طور خاص اگر شانس برنده شدن برای یک بازی 88٪ باشد، چگونه می توانم سیستم را برای این مورد تغییر دهم؟
اصلاح سیستم شرط بندی Martingale برای شانس های مختلف
85937
من سعی می کنم بفهمم که چگونه ftest را در 1.2(iv) برگه پیوست شده تفسیر کنم. فرضیه جایگزین چیست و فرضیه صفر چیست؟ آیا این تعبیر در اینجا این است که با توجه به t-value از آزمون F، این احتمال وجود دارد که این مقدار میانگین واقعی نباشد؟ ![پرسش فرضیه صفر](http://i.stack.imgur.com/gJjlo.png) به نظر می رسد یک ماشین حساب T آنلاین نشان می دهد که تقریباً 10٪ احتمال دیدن مقداری کوچکتر از -.933 و تقریباً وجود دارد. 10% احتمال دیدن مقداری بیشتر از 0.933، خطاهای استاندارد از میانگین. ![حساب احتمال تجمعی](http://i.stack.imgur.com/z0o91.png) آیا این به این معنی نیست که بیش از 10 درصد احتمال دارد که مقدار پیشنهادی 0.1 مقدار مناسب باشد، و که ما _باید_ باطل را رد کنیم؟ با تشکر * * * درست می گویید، من صفر و جایگزین را با هم مخلوط کردم. علاوه بر این، فرمول یادداشت‌ها نشان می‌دهد که عدد تهی مقدار تفریق‌شده در شمارنده است که اگر زودتر آن را می‌دیدم، به من هشدار می‌داد.
101537
یعنی آیا می توانم از GARCH یا ARCH برای مدل سازی چیزی مانند فروش، مصرف گاز، مصرف داده و غیره استفاده کنم یا GARCH/ARCH فقط برای کاربردهای مالی (یعنی سری بازگشت) است؟
28057
بگویید من یک مشکل ساده یادگیری ماشینی مثل طبقه بندی دارم. با برخی معیارها در تشخیص بینایی یا صدا، من به عنوان یک انسان، طبقه بندی بسیار خوبی هستم. بنابراین من درک خوبی از یک طبقه بندی کننده دارم. اما با داده‌های زیاد، یک نکته این است که نمی‌دانم طبقه‌بندی‌کننده‌ای که آموزش می‌دهم چقدر خوب است. این داده‌هایی است که من شخصاً طبقه‌بندی‌کننده خوبی نیستم (مثلاً، خلق و خوی یک فرد را از داده‌های EEG طبقه‌بندی کنید). واقعاً نمی توان شهودی در مورد اینکه مشکل من چقدر سخت است به دست آورد. اکنون، اگر با مشکل یادگیری ماشینی مواجه شوم، می‌خواهم بدانم که چقدر می‌توانم خوب باشم. آیا رویکردهای اصولی در این زمینه وجود دارد؟ چگونه این کار را انجام می دهید؟ داده ها را تجسم کنید؟ با مدل های ساده شروع کنید؟ با مدل های بسیار پیچیده شروع کنید و ببینید آیا می توانم بیش از حد مناسب کنم؟ اگر می خواهید به این سوال پاسخ دهید به دنبال چه هستید؟ چه زمانی تلاش را متوقف می کنید؟
بهترین عملکرد ممکن در یک مجموعه داده مورد انتظار است
94891
فرض کنید $N$ توپ وجود دارد، $l$ از آنها رنگهای منحصر به فرد دارند، $N-l$ از آنها سیاه هستند. $D$ افراد به طور یکنواخت به صورت تصادفی از $n$ توپ بدون جایگزینی نمونه برداری می کنند. نمونه گیری هر فرد مستقل از نمونه های دیگر است. بنابراین آنها توپ‌های $n$ را می‌گیرند، از آنها کپی می‌کنند و سپس نسخه اصلی را برای نفر بعدی برمی‌گردانند. حالا من می خواهم حداقل $k$ از $l$ توپ های رنگی منحصر به فرد را پیدا کنم. من قصد دارم از هر نفر یک به یک (به ترتیب تصادفی) تمام توپ های غیر سیاه خود را بپرسم. تعداد مورد انتظار افرادی که باید قبل از جمع آوری حداقل $k$ توپ های رنگی منحصر به فرد از آنها بپرسم چقدر است؟ اگر فقط از یک نفر بپرسم، احتمال اینکه حداقل $k$ جمع آوری کنم از توزیع دوجمله ای ($X \sim B(l, \frac{n}{N})$ می آید. من تصور می‌کنم این سوال به این صورت است که احتمال اینکه فرد حداقل $k$ از $l$ توپ‌ها را نمونه برداری کرده باشد چقدر است. جایی که من گیر نکردم این است که اگر اکنون از شخص دومی بپرسم، احتمال اینکه توپ های رنگی بیشتری پیدا کنم بستگی به تعداد و کدام توپ های رنگی دارد که بار اول پیدا کردم. من احتمالات اعداد کوچک را با دست نوشتم و به نظر می رسد $(zp)^k$ (که $p$ احتمال نمونه برداری از یک توپ رنگی خاص است) این احتمال را می دهد که توپ های $k$ پس از پرسیدن پیدا شده اند. $z$ مردم. من این نتیجه را با پرسیدن احتمال اینکه بین 2 نفر 2 توپ مختلف پیدا کنم چقدر است به دست آوردم. اگر از $p_{ij}$ به عنوان احتمال استفاده کنم که شخص $i$ به من توپ $j$ داده است، پاسخ این است: $P(\textrm{2 توپ بین 2 نفر}) = p_{11}p_{12} +p_{11}p_{22}+p_{21}p_{12}+p_{21}p_{22} = 4p^2$ استدلال من این است که این چهار عبارت عبارتند از چهار راه ممکن که من می توانم 2 توپ از 2 نفر بگیرم، هر راه مستقل است بنابراین می توانم آنها را جمع کنم. من این کار را برای چند عدد مختلف انجام دادم و نتیجه $(zp)^k$ را دیدم. من مطمئن نیستم که استدلال من درست باشد یا اینکه نتیجه من حتی در پاسخ به سؤال اصلی مفید باشد. الان یک بعدازظهر است که به آن خیره شده‌ام و فکر نمی‌کنم خیلی جلوتر بروم. خب، چه کار باید بکنم؟
تعداد مورد انتظار آزمایش قبل از k موفقیت که در آن چندین موفقیت در هر آزمایش رخ می دهد
76277
من می‌خواهم یک مدل رگرسیون لجستیک را در R برازش دهم. فرآیند جمع‌آوری داده‌ها منجر به مقدار نامتعادلی از رویدادها و غیر رویدادها می‌شود. من می‌توانم از داده‌ها دوباره نمونه‌برداری کنم تا شیوع اصلی رویدادها را دوباره ایجاد کنم، اما ترجیح می‌دهم از همه داده‌ها استفاده کنم. تابع glm() در R از وزن ها به عنوان وزن نمونه استفاده نمی کند، بلکه از وزن ها به عنوان یک عدد صحیح آزمایش استفاده می کند. از صفحه راهنما وقتی عناصر اوزان اعداد صحیح مثبت w_i هستند، که هر پاسخ y_i میانگین مشاهدات w_i واحد وزن است. برای اطلاعات بیشتر در مورد وزنه برداری در مقابل وزن آزمایشی، به این سؤال، رگرسیون لجستیک وزن دار موردی نیز مراجعه کنید. آیا بسته R برای محاسبه یک MLE وزنی نمونه‌برداری وجود دارد یا گزینه‌های دیگری چیست؟
وزن فرکانس برای رگرسیون لجستیک در R
83197
رگرسیون لجستیک - نسبت شانس
44658
من از رگرسیون لجستیک برای انجام طبقه بندی باینری با آموزش، CV و مجموعه تست استفاده می کنم. مناسب ترین زمان برای انتخاب یک آستانه تمایز برای متعادل کردن نرخ خطای مثبت و منفی چه زمانی است؟ آیا باید از مجموعه CV برای تعیین آستانه مورد نظر استفاده کنم و سپس آستانه ثابت را در مجموعه تست برای ارزیابی عملکرد طبقه بندی اعمال کنم؟ یا اینکه آستانه را فقط با استفاده از مجموعه تست تعیین کنم؟
آستانه تبعیض رگرسیون لجستیک با اعتبارسنجی متقاطع
80739
من به دنبال محاسبه همبستگی بین دو متغیر x و y هستم که هر کدام توزیع نرمال عمومی دارند و i.i.d نیستند. توزیع نرمال به طور خاص این دو متغیر ساختار واریانس کوواریانس خاصی دارند، یعنی Var(x)=A و Var(y)=B. آیا محاسبه همبستگی بین x و y همانطور که در زیر نشان داده شده است هنوز خوب است یا باید از روش دیگری استفاده کنم؟ Cor(x, y) = Cov(x, y) / sqrt(Var(x)*Vary) در جزئیات من مجموعه ای از مقادیر شبیه سازی شده/واقعی را در متغیر x ذخیره کرده ام که به دلیل ماهیت مقادیر دارای ساختار خاصی است. - یک فرآیند تولید داده اساسی وجود دارد که باعث ایجاد ساختار واریانس کوواریانس Var(x)=A می شود. سپس سعی می کنم این مقادیر را بر اساس برخی داده ها که متغیر y را به من می دهد تخمین بزنم. با توجه به ماهیت x، ساختار زیرینی نیز در y وجود دارد که می توان آن را با Var(y)=B توصیف کرد. A و B به دلیل شرطی شدن در داده های مشاهده شده یکسان نیستند. من می‌خواهم Cor(x، y) را برای تأیید کیفیت تخمین ارزیابی کنم و می‌توانم از یک رویکرد استاندارد ساده استفاده کنم، اما نمی‌دانم که آیا در اینجا با تلقی x و y به عنوان مشاهدات iid اشتباه می‌کنم.
همبستگی بین دو متغیر درون همبسته
47043
داده‌های من: درون فاکتور: زمان - ثابت بین فاکتور: درمان - DV ثابت: Nmin تودرتو: نمونه (تصادفی)، تودرتو در Postion (ثابت)، تو در تو در مکان (ثابت). هر درمان در دو مورد از محل ها اعمال می شود. فرمول فعلی من این است: aov(Nmin~(درمان*موقعیت+موقعیت)*زمان) + خطا(نمونه/ ((موقعیت+موقعیت)*زمان))، داده) lme(Nmin~Treatment*(موقعیت+موقعیت)*زمان ، تصادفی=~1|نمونه، همبستگی=???) هدف من این است که تفاوت Nmin بین زمان را ببینم، درمان، موقعیت، مکان و تعاملات آنها. سوال من این است که آیا فرمول های من درست است؟ * آیا تودرتو به درستی بیان شده است؟ * آیا این تعامل را هم در نظر می گیرد؟ * آیا عبارت خطا صحیح است؟
80738
من کنجکاو هستم که احتمال اینکه یک نفر در روز تولدش بمیرد چقدر است؟ مطمئنم راه‌های زیادی برای نزدیک شدن به این موضوع وجود دارد، به علاوه شنیده‌ام که اعداد واقعی به نرخ بالاتر در روزهای تولد اشاره می‌کنند، به همین دلیل من آن را اینجا می‌پرسم.
احتمال اینکه یک نفر در روز تولدش بمیرد چقدر است؟
92801
من یک سوال در مورد یادگیری ماشین و به طور خاص توابع هسته دارم. فرض کنید یک تابع هسته داریم، مثلاً $K(x)$، و همچنین یک تابع متمایز دیگر، مثلاً $K'(x)$. می خواهم بدانم آیا $K(K'(x))$ نیز یک تابع هسته است؟ یعنی اگر یکی خروجی یک تابع کرنل را به کرنل دیگر بدهد، به چه معناست؟ معنی داره یا نه سوال دیگر در مورد رفتار مورد انتظار ترکیب خطی هسته های شناخته شده مانند RBF، چند جمله ای و MLP است. فرض کنید هسته MLP 60 درصد از دقت را در یک کار طبقه بندی و RBF بازده 85 درصد دارد. آیا لزوماً RBF+MLP در مقایسه با آنچه که توسط MLP به دست می‌آید، دقت بهتری دارد؟
ترکیب آبشاری توابع هسته
92809
نقل‌شده عصاره‌ای است از اصول و روش‌های بررسی نمونه، Vic Barnett (2002) صفحه 34 مفهوم میانگین‌گیری احتمال فقط در رابطه با برخی از طرح‌های نمونه‌گیری احتمالی تجویز شده مطرح می‌شود. بنابراین، برای نمونه‌گیری تصادفی ساده، مفهوم مقدار مورد انتظار $y_i$، مشاهده $ith$ در نمونه را داریم. یعنی $E[y_i] = \sum_{j=1}^{N} Y_j Pr(y_i=Y_j)=\frac{1}{N}\sum_{j=1}^{N} Y_j=\ bar{Y}$ نتیجه‌ای که $Pr(y_i=Y_j) = \frac{1}{N}$ دارد زیرا تعداد نمونه‌های با $y_i=Y_j$ برابر است $\frac{(N-1)!}{(N-n)!}$ و هر کدام احتمال $\frac{(N-n) دارند!}{N!}$ * * * من مطمئن نیستم که برای خودم توجیه کنم که $y_i= Y_j$ $\frac{(N-1) است!}{(N-n)!}$، کتاب بیشتر در این مورد بحث نمی کند. از نظر نشانه گذاری، ما یک جمعیت $Y_1، Y_2، ...،Y_N$ و یک نمونه $y_1، y_2، ...، y_n$ داریم.
کمک به درک احتمال در نمونه گیری تصادفی ساده
92802
من به دنبال برنامه‌ها و روش‌هایی برای آزمون برادلی-بلک‌وود هستم که معمولاً برای ارزیابی تکرارپذیری آزمون-آزمون مجدد استفاده می‌شود.
برنامه ها و روش تست بلک وود؟
95851
من سعی می کنم تعداد دفعات خرید یک محصول را بر اساس سابقه خرید قبلی آنها پیش بینی کنم. رویکردی که من تا کنون در پیش گرفتم این است: 1. با یافتن فاصله مدت هر خرید، یک بردار ایجاد کنید (Xnt - X(n-1)t 2. فاصله مدت به دست آمده را مرتب کنید 3. نتایج 10% بالا و 10% پایین را حذف کنید. بگوییم X 10 درصد است، سپس X = تعداد عناصر / 10 4. میانگین و انحراف استاندارد بردار باقیمانده را بیابید. 5. مدت زمان تقریبی: D = میانگین + یا - انحراف استاندارد 6. خرید بعدی: آخرین تاریخ خرید + مدت زمان تقریبی آیا راه دیگری برای مدل سازی پیش بینی خرید وجود دارد؟
چگونه می توانم تعداد دفعات خرید یک محصول را پیش بینی کنم؟
76274
می‌خواهم میانگین‌های دو گروهی را که کنترل شده‌اند تا ویژگی‌های کلامی مشابهی داشته باشند، مقایسه کنم: دقت نسبت و میانگین زمان واکنش (RT) برای تصحیح پاسخ‌ها به عنوان دو متغیر وابسته. ابتدا، توجه و نوع وظیفه ثانویه متغیرهای مستقل هستند. آیا باید داده‌ها را به دو طرح فاکتوریل مختلط 2×2×2 مجزا با حالت اولیه (تکرار شده، غیر تکراری) دستکاری شده در آزمودنی‌ها و توجه (توجه تقسیم‌شده، توجه کامل) و نوع وظیفه ثانویه (ادراکی، مفهومی) بین آزمودنی‌ها ارائه کنم. ?
ANOVA فاکتوریل
114375
بگویید من یک مدل رگرسیون خطی برای شناسایی وابستگی های خطی بین متغیرها در داده های خود می سازم. برخی از این متغیرها متغیرهای طبقه ای هستند. 1. اگر بخواهم **مشارکت** یک **پیش بینی کننده** را ارزیابی کنم، چگونه آن را ارزیابی کنم؟ آیا می توانم ضرایب را مستقیماً مقایسه کنم؟ در پاسخ ها خواندم که |t| ارزش به ما حس قدرت این پیش بینی کننده را می دهد، این دقیقا چگونه است؟ 2. می‌دانم که برای یک دسته معین با مقادیر «K»، فقط متغیرهای ساختگی «K-1» ایجاد می‌شوند و این استاندارد برای جلوگیری از چند خطی بودن آشکار است، اما چگونه می‌توانم سهم **همراه با مقادیر (پیش بینی کننده ها) کاهش یافته**؟ در اینجا مدل است: mod = smf.ols ('وابسته ~ first_category + second_category + object_price', data=df).fit() و خروجی mod.summary() نتایج رگرسیون OLS ================================================== ============================ واحد متغیر: وابسته R-squared: 0.227 مدل: OLS Adj. R-squared: 0.226 روش: حداقل مربعات F-آمار: 261.7 تاریخ: Thu, 04 Sep 2014 Prob (F-statistic): 0.00 زمان: 14:59:24 Log-Likelihood: -86099. تعداد مشاهدات: 17866 AIC: 1.722e+05 Df باقیمانده: 17845 BIC: 1.724e+05 Df مدل: 20 ================================================== ======================================== coef std err t P>|t| [95.0% Conf. داخلی] ---------------------------------------------- -------------------------------------------- Intercept 27.6888 1.017 27.235 0.000 25.696 29.682 first_category[T.o] -1.3250 0.848 -1.562 0.118 -2.987 0.337 first_category[T.v] -10.4557 1.125 -9.201 -9.201 - second_category[T.SL0004] 21.9987 0.808 27.213 0.000 20.414 23.583 second_category[T.SL0005] -2.3710 2.458 -0.965 0.3835 -7. دومین_رده[T.SL0006] 7.2716 3.609 2.015 0.044 0.197 14.346 second_category[T.SL0007] 20.1545 1.495 13.482 0.028 0.025 17. second_category[T.SL0008] 13.3333 0.794 16.788 0.000 11.777 14.890 second_category[T.SL0009] 18.5605 2.189 8.478 0.0001 0.0001 دومین_رده[T.SL0010] 6.7351 1.158 5.817 0.000 4.465 9.005 دسته دوم[T.SL0011] 2.6791 0.689 3.888 0.000 0.000 0.000 1.329T 1.329 1.329 ثانیه -0.8159 3.811 -0.214 0.830 -8.285 6.654 second_category[T.SL0014] 8.2550 11.359 0.727 0.467 -14.010 30.520 -14.010 30.520 30.520 30.520 SL10101. 1.320 0.187 -0.787 4.031 second_category[T.SL0017] -14.3253 2.642 -5.422 0.000 -19.504 -9.147 second_category[T.SL0018] 1.464301.4623 -4.777 7.741 second_category[T.SL0019] 20.0228 2.850 7.024 0.000 14.436 25.610 second_category[T.SL0020] -11.7478 8.63526 -1.63526 -1.1. 5.287 بودجه -0.5682 0.014 -40.828 0.000 -0.595 -0.541 object_price 0.0037 0.000 33.192 0.000 0.003 0.004 ساعت -0.92404 -0.92404 -1.002 -0.846 ============================================= ================================ Omnibus: 2997.054 Durbin-Watson: 1.001 Prob(Omnibus): 0.000 Jarque-Bera (JB): 4758.803 Skew: 1.183 Prob(JB): 0.00 Kurtosis: 3.892 Cond. شماره 1.59e+05 ========================================== ================================== هشدارها: [1] عدد شرط بزرگ است، 1.59e+05. این ممکن است نشان دهنده وجود چند خطی قوی یا سایر مشکلات عددی باشد.
ارزیابی سهم هر پیش بینی کننده در رگرسیون خطی
89521
من در هر دو مدل با جلوه های ترکیبی و R جدید هستم، بنابراین اگر این سوال کمی احمقانه است، ببخشید! من با انتخاب بهترین روش برای تجزیه و تحلیل داده هایم برای مطالعه ادراک گفتار مشکل دارم و از کمکی قدردانی می کنم! برخی اطلاعات در مورد داده ها: در این مطالعه، شرکت کنندگان به جملاتی با لهجه های مختلف و در سطوح مختلف نویز گوش می دهند و سپس آنچه را که می فهمند تکرار می کنند. بنابراین برای هر جمله تعداد کلمات به درستی تکرار شده و تعداد کل کلمات در هر جمله وجود دارد. من سعی می کنم بفهمم چگونه می توان این داده ها را در یک مدل اثر ترکیبی تجزیه و تحلیل کرد. فکر می‌کردم یک گلمر دوجمله‌ای بهترین است، زیرا داده‌های شمارش است، اما نمی‌دانستم که آیا این کار را درست انجام می‌دهم (به ویژه نسبت کلمات تکرار شده را به درستی مشخص می‌کنم)، بنابراین همان مدل را (بدون تعامل) در گلمر و lmer امتحان کردم. . glmer: > mixed.glmer<-glmer(formula=cbind(Correct, Max-Correct)~Accent+Noise_Factor+Accent+(1|Participant), data=noise.data, family=binomial) lmer: > all.lmer <-lmer(Correct/Max~Accent+ Noise_Factor+(1|شرکت کننده)، data=noise.data, REML=FALSE) سپس مدل ها را با هم مقایسه کردم: > Df AIC BIC logLik انحراف Chisq Chi Df Pr(>Chisq) > all.glmer 6 13441.2 13480.1 -6714.6 13429.2 > 2516.70.7 > all.lmer 2550.6 10879 1 <2e-16 *** که به نظر می رسد نشان می دهد که مدل lmer بسیار مناسب تر است، اما مطمئنا داده ها به خوبی با روش های خطی مدل سازی نمی شوند؟ سپس، یکی از همکاران پیشنهاد کرد که در تمام سطوح نویز برای هر لهجه میانگین بگیرم (بنابراین می توانم داده ها را با استفاده از روش های خطی پردازش کنم)، و تنها سه نقطه داده به ازای هر شرکت کننده ارائه کنم. بنابراین من این مدل را امتحان کردم، که به نظر می رسد نسبت به هر یک از مدل های بالا با همه داده ها تناسب بسیار بهتری دارد: > average.m1<-lmer(Average.score~Accent+(1|Participant)، data=mixed.model , REML=FALSE) > AIC BIC logLik انحراف > -102.1759 -93.1426 56.0880 -112.1759 با این حال، به نظر می رسد که این باعث دور ریختن بسیاری از داده ها می شود (مخصوصاً اکنون که فاکتور نویز ناپدید شده است)، حتی اگر مدل مناسب تر باشد - من فکر می کردم تمام هدف مدل های ترکیبی این است که از انجام مرحله میانگین اجتناب کنند، مانند من باید برای ANOVA. به نظر می رسد این بسیار شبیه راه آسان برای برون رفت از این مشکل است! بنابراین سؤالات من این است: 1. آیا باید تلاش کنم تا یک مدل را با کل مجموعه داده تطبیق دهم یا از راه آسان و میانگین آن استفاده کنم؟ 2. آیا من درست فکر می کنم که برای کل مجموعه داده ها، مدل lmer مناسب تر از مدل گلمر است یا این مانند مقایسه سیب و پرتقال است؟ 3. اگر من از مدل gmler استفاده می کنم، آیا DV را به درستی مشخص کرده ام؟ باید نسبت پاسخ های صحیح باشد (یعنی: صحیح/حداکثر). پیدا کردن دستورالعمل‌هایی که واقعاً بتوانم آن را درک کنم، برایم بسیار سخت است! هر گونه کمکی بسیار قدردانی خواهد شد!
داده های شمارش دوجمله ای - از glmer، lmer یا فقط میانگین همه آن ها استفاده کنید؟
95854
من سعی می کنم تعداد دفعات خرید یک محصول را بر اساس داده هایی که دارم پیش بینی کنم. من دو چیز را باید در نظر بگیرم: 1- پیش بینی موفقیت خرید این محصول بر اساس فرکانس (0: ناموفق؛ >0: موفقیت) 2- پیش بینی زمان خرید این محصول می توانم مدلی برای پیش بینی موفقیت خرید این محصول بسازم. محصول، اما من باید زمان را نیز محاسبه کنم (ساعت / روز / ماه / سال چقدر موفق است)؟ اگر بتوانم زمان را نیز با همان مدل محاسبه کنم، دو متغیر خواهم داشت (پیش‌بینی_موفقیت،پیش‌بینی_زمان) حالا تعجب می‌کنم، نمی‌توانم این فرمول را اعمال کنم زیرا مطمئن نیستم که هر دو متغیر مستقل نیستند. > Total_Proba_Success = Predicting_the_success * Predicting_the_time یکی از اساتید من گفت که باید در اینجا به استفاده از رگرسیون فکر کنم، شما چه مدلی برای حل این مشکل پیشنهاد می کنید؟ **به روز رسانی 3** من موفقیت خرید این محصول را بر اساس فرکانس ها پیش بینی کرده ام (0: ناموفق؛ >0: موفقیت). بر اساس نظر گاوین: باید این مقادیر پیش‌بینی‌شده را به پیش‌بینی گسسته تبدیل کنم، بگویم >= 0.5 == خرید، < 0.5 = فرض کنیم که من proba P دارم: پیش‌بینی گسسته موفقیت خرید محصول را محاسبه کنم. حالا باید بر اساس آن P، احتمال خرید یک کالا را بر اساس ساعت/روز/ماه محاسبه کنم. گاوین استفاده از GLM دو جمله ای را پیشنهاد کرد: GLM دو جمله ای، که در آن پاسخ بردار 0 و 1 است (به ترتیب نشان دهنده محصول خریداری نشده و محصول خریداری شده) و سپس بردارهای ساعت روز، روز هفته و ماه سال برای هر مشاهداتی که انجام دادید ضرایب تخمین زده شده از چنین مدلی تاثیر آن را بر حسب شانس ورود به سیستم (در صورت استفاده از پیوند لاجیت) برای هر یک از آن سه نشان می دهد. پیش بینی ها من گیج شدم! - من این را چالش برانگیز یافتم، در مجموعه داده من، زمان فقط در مواردی که محصول خریداری شده ذکر شده است. بنابراین، من فقط از زمان محصولات خریداری شده استفاده کردم، در حالی که در پاسخ، او اشاره کرد که باید از بردار 0 و 1 استفاده کنم (به ترتیب نشان دهنده محصول خریداری نشده و محصول خریداری شده است). * آیا باید تمام ساعات بین دو تاریخ را محاسبه کنم؟ و آن را در مدل من قرار دهم. به عنوان مثال بگوییم: 01-01-2014 -> 01-02-2014. -+----------------------------------------------- -------+ ساعت روز تعداد ماه محصولات خریداری شده -+----------------------------------------------- -------+ 12:00 01 01 2 در این مورد: آیا باید مدل خود را طوری تبدیل کنم که تمام ساعاتی را که ذکر نشده است با فرکانس 0 شامل شود. منظورم این است که اگر فقط از زمان مواردی استفاده کنیم که دارای خریداری شده است، آیا باید بردار پاسخ دیگری را در نظر بگیریم؟ نکته آخر، چرا به جای استفاده از مدل‌های پیش‌بینی سری زمانی از GLM Binomial استفاده می‌کنیم؟ آیا به این دلیل است که ما زمان های گسسته داریم و نه زمان های پیوسته. -+----------------------------------------------- -------+ ساعت روز تعداد ماه محصولات خریداری شده -+----------------------------------------------- -------+ 00:00 01 01 00 01:00 01 01 00 02:00 01 01 00 03:00 01 01 00 04:00 01 01 00 05:00 01 01 00 06:00 01 01 00 07:00 01 01 00 08:00 01 01 00 09:00 01 01 00 10:00 10101010101 00 12:00 01 01 **02** 13:00 01 01 00 14:00 01 01 00 15:00 01 01 00 16:00 01 01 00 17:00 01 01:00 001 01:00 01:00 01 01 00 20:00 01 01 00 21:00 01 01 00 22:00 01 01 00 23:00 01 01 00 **به روز رسانی 4** بر اساس نظر گاوین: تعداد محصولات خریداری شده را با ساعت پاسخ مدل کنید ، روز و ماه به عنوان پیش بینی در Poisson GLM Just برای تایید: * آیا باید مشکل را جداگانه مدل کنیم؟ برای ساعت‌ها: پاسخ پیش‌بینی‌کننده -+------------+--------------------------+ محصولات تعداد ساعت خریداری شده -+------------+--------------------------+ 00:00 01 01:00 00 برای روز: پیش بینی کننده پاسخ -+------------+-------------------------+ تعداد روز محصولات خریداری شده -+-- ----------+-------------------------+ 00 03 01 01 برای ماه ها: پاسخ پیش بینی -+------------+-------------------------+ تعداد ماه محصولات خریداری شده -+--- ---------+-------------------------+
Binomial GLM - پیش بینی زمان خرید یک محصول
89523
من رگرسیون چندگانه انجام دادم و برخی از مفروضات مانند نرمال بودن متغیر نتیجه نقض می شوند. آیا می توانم از bootstrap برای تصحیح مفروضات نقض شده استفاده کنم؟ یا انجام آن بی معنی خواهد بود!
رگرسیون چندگانه و بوت استرپینگ
114177
80735
موضوع تحقیق: تأثیر سبک‌های رهبری (تحول‌کننده، مبادله‌ای و لیسه‌فر) بر شایستگی‌ها و فرصت‌های توسعه کارکنان. نوع داده: ترتیبی.(0=هرگز،1=به ندرت،2=گاهی اوقات،3=بیشتر مواقع،4=همیشه) (برای هر 5 متغیر) متغیرهای مستقل: رهبری تحول آفرین، رهبری تعاملی و متغیرهای وابسته به رهبری Laissez-faire : شایستگی های کارکنان، فرصت های توسعه کارکنان روش تحقیق : مطالعه موردی حجم نمونه: 38 رهبر (واحد تجزیه و تحلیل) تعداد کل شرکت کنندگان در تحقیق: 206 (خود زیردستان، سرپرستان و رهبران) تجزیه و تحلیل داده ها با استفاده از SPSS انجام شود.
مناسب‌ترین تکنیک‌های آماری برای تحلیل رابطه واقعی بین Three(03) IVs و Two(02) DVs چیست؟
51361
این ممکن است یک سوال اساسی باشد، اما می‌خواهم مطمئن باشم که کاری که انجام می‌دهم درست است. من مدلی دارم که نشان می‌دهد متغیر X باعث Y و Z می‌شود. وقتی Y را روی X یا Z روی X پسرفت می‌کنم، همانطور که انتظار می‌رود ضرایب مثبت و معنی‌دار را دریافت می‌کنم. حالا، وقتی Z را روی Y رگرسیون می‌کنم، هنوز یک ضریب معنی‌دار مثبت دریافت می‌کنم. ** سوال 1: ** آیا این یک سوگیری متغیر حذف شده است؟ **سوال 2:** آیا رگرسیون Z روی Y **و** X برای آزمایش اینکه آیا رابطه بین Z و Y جعلی است، مشروع است؟ **سوال 3:** اگر مشروع است و اگر من ضرایب مثبت مثبتی را در **** Y و X دریافت کنم به چه معناست؟ آیا این به این معنی است که X باعث Y و Z می شود، اما Y هنوز قدرت توضیحی حاشیه ای روی Z دارد؟ خیلی ممنون، دیو
علیت، سوگیری متغیر حذف شده است
51363
این یک فضای آماری جدید برای من است، پس لطفا بی اطلاعی من را ببخشید. من برخی از داده ها (N=180) دارم که به طور معمول توزیع نمی شوند (تأیید شده در Minitab، P<0.005) و می خواهم از داده ها برای دریافت محدودیت مشخصات +/- 4 سیگما استفاده کنم. اساساً می‌خواهم بگویم: می‌توان انتظار داشت که 99.993666٪ قطعات دارای ابعاد اندازه‌گیری شده بین DATA_LSL و DATA_USL باشند. هیچ یک از توزیع‌های Minitab با اطمینان مناسبی ندارند، و بنابراین متوجه شدم که گاهی اوقات می‌توانید بوت استرپینگ را انجام دهید، که چیزی شبیه نمونه‌برداری مجدد از داده‌های خود برای دریافت ایده‌ای از عدم قطعیت در برخی از آمارها بر اساس 1000 نمونه مجدد تصادفی است. فکر می کنم درست متوجه شدم، اما ممکن است اشتباه کنم. آیا کسی می داند چگونه انحراف استاندارد را در Minitab بوت استرپ کنم؟ ماکرویی پیدا کردم که این کار را به اندازه متوسط ​​انجام می‌دهد و می‌توانم هر فاصله اطمینانی را که می‌خواهم قرار دهم. من فکر می کنم که این فقط به من در مورد میانگین می گوید، و نه انحراف معیار. برخی مقالات در مورد راه‌اندازی برای LSL/USL صحبت می‌کنند، اما چیزی که من نمی‌توانم آن را به عنوان مثال/ماکرو در Minitab پیدا کنم. هر گونه کمک یا راهنمایی بسیار قدردانی خواهد شد :) با تشکر، مهندس مکانیک آدام هارتمن - Flextronics stat_stackexchange.15.arrakis@spamgourmet.com
بوت استرپ USL/LSL برای داده های غیر عادی
89529
من سعی می کنم بر اساس برخی ویژگی ها (مثلاً حافظه، دیسک و نام تجاری در حال حاضر) یک مدل قیمت گذاری روی دسکتاپ های قیمت خودکار پیاده سازی کنم. من برخی از داده‌های تاریخچه فروش را از اینترنت جمع‌آوری کرده‌ام و آنها بیشتر در قالب ذوب شده هستند. بگو، سه تراکنش در تاریخ انجام شده است. TransactionID Brand Memory Disk SoldPrice 1 Lenovo 1G 60G 100 $ 2 IBM NA 60G 150 $ 3 Lenovo 4G NA 200 $ ... و داده های موجود در من به این صورت است: SoldPrice ارزش ویژگی 100 دلار نام تجاری Lenovo 10G $10G نام تجاری IBM 150 دلار دیسک 60G 200 دلار نام تجاری Lenovo 200 دلار حافظه 4G من می دانم که می توانم از بسته reshape(2) در R استفاده کنم تا داده ها را به فرمت گسترده برگردانم که ممکن است با استفاده از هر روشی (رگرسیون خطی یا تصادفی همه کاره) یک مشکل یادگیری ماشین کامل باشد. جنگل). با این حال، احساس درونی من به من می گوید که آیا اگر چیزی را تغییر ندهم واقعاً برای الگوریتم بیزی مناسب خواهد بود؟ بنابراین می توانید به راحتی توزیع احتمال را برای هر شرایط بدست آورید. بنابراین محاسبه آسان تر خواهد بود. P(قیمت|نام تجاری*حافظه*دیسک) = P(قیمت|نام تجاری) * P(قیمت|حافظه) * P(قیمت|دیسک) سپس می‌توانیم نموداری از احتمال را برای قیمت‌های مختلف در مقابل مشخصات رایانه داده شده داشته باشیم. محاسبه بسیار آسان خواهد بود و در واقع دقت بهتری نسبت به سایر مدل ها خواهد داشت؟ من بیشتر در سمت برنامه نویسی هستم، بنابراین اگر به ریاضیات در مقطع کارشناسی ارشد اشاره می کنید، لطفاً جزئیات بیشتری ارائه دهید. ای کاش می توانستم به جای Stackoverflow پیشنهاد یا راهنمایی ریاضی در مورد فکرم را در اینجا دریافت کنم.
مدل قیمت گذاری برای کامپیوترهای رومیزی
51366
Liblinear (http://www.csie.ntu.edu.tw/~cjlin/liblinear/) از تخمین های احتمال پشتیبانی نمی کند. بگو من سه کلاس C1، C2 و C3 دارم. من می‌خواهم پارامترهای مدل را برای هر مورد «یک در مقابل استراحت» یاد بگیرم: C1 در مقابل C2&C3، c2 در مقابل C1&C3 و C3 در مقابل C1&C2 چگونه می‌توانم این کار را انجام دهم؟
پارامترهای یادگیری liblinear one vs rest
51367
من از GLM مطلع هستم. در آنجا متغیر وابسته $Y$ فرض می‌شود که بر اساس توزیع خاصی تولید می‌شود و برای میانگین آن این است که $$ E[Y] = g^{-1}(X \beta). $$ آیا نظریه مشترکی برای مدل‌های به شکل $$ E[Y] = g^{-1}(X \beta) $$ وجود دارد و ما توزیع‌ها را برای اجزای $X$ فرض می‌کنیم (مثلاً $X_1$ گواسی است ، X_2$ گاما است)؟ من به یک رویکرد MLE در این زمینه فکر می کنم. من حدس می زنم این مربوط به GLM است اما شاید من چیزی را از دست داده ام. متشکرم
مدل آماری از توزیع
90020
من در حال حاضر سعی می کنم برخی از مدل های داده پانل را در R با استفاده از بسته PLM تخمین بزنم. این شامل تخمین مدل های ترکیبی پایه، اثرات ثابت و اثرات تصادفی است. بنابراین من از این کد استفاده می کنم: # read in data mydata<- read.csv2(Panel.csv) attach(mydata) # تعریف انحراف استاندارد متغیر وابسته <- cbind(sd) # تعریف متغیر مستقل x <- cbind(ratio1 , ratio2, ratio3, ratio4, mean) # داده‌ها را به‌عنوان داده‌های داده‌های پانل تنظیم کنید <- plm.data(mydata, index=c(id,t)) # ادغام تخمینگر OLS ادغام شده <- plm(انحراف استاندارد ~ x, data=pdata, model= pooling) خلاصه (تلقیح) # بین برآوردگر بین <- plm (انحراف استاندارد ~ x، داده = pdata، مدل = بین) خلاصه (بین) # اولین تفاوت تخمین‌گر firstdiff <- plm(انحراف استاندارد ~ x، داده=pdata، model= fd) خلاصه (firstdiff) # جلوه‌های ثابت یا درون تخمین‌گر ثابت <- plm(انحراف استاندارد ~ x داده=pdata، مدل = در داخل) خلاصه (ثابت) # تخمینگر اثرات تصادفی تصادفی <- plm(انحراف استاندارد ~ x، داده = pdata، مدل = تصادفی) خلاصه (تصادفی) حالا مشکل اینجاست: من می توانم بدون هیچ مشکلی همه مدل ها را به جز مدل اثرات تصادفی تخمین بزنم. پس از وارد کردن فرمول تصادفی، R خطای زیر را ایجاد می کند: خطا در solve.default(crossprod(X.m)) : سیستم از نظر محاسباتی مفرد است: عدد شرط متقابل = 9.57127e-023 اولین حدس ها: * ترکیب های خطی در x ? اولین حدس می تواند این باشد که وابستگی های خطی دقیقی از متغیرهای برون زا در x وجود دارد. داده ها داده های ترازنامه هستند و من می خواهم انحراف استاندارد (y) یک موقعیت ترازنامه خاص را با سایر موقعیت های ترازنامه (یا نسبت موقعیت و مجموع ترازنامه) توضیح دهم. البته متغیرهای x به هم مرتبط هستند. به عنوان مثال برخی از نسبت ها با تقسیم بر میانگین محاسبه می شوند که آن نیز یک متغیر مستقل جداگانه است. و متغیر وابسته که انحراف معیار است نیز با استفاده از این میانگین محاسبه می شود. اما باز هم: نباید همبستگی دقیقی وجود داشته باشد. اما: اگر برخی از متغیرهای برونزای خود را حذف کنم، مشکل ناپدید می شود، اما باید آنها را در واقع لحاظ کنم. * پانل / NA نامتعادل؟ داده ها نامتعادل هستند و NA وجود دارد. خروجی جلوه های ثابت می گوید: n=16، T=18-40، N=455. احتمالاً داده های نامتعادل یا NA دلیل خطا هستند؟ Traceback-Code: > تصادفی <\- plm(standard deviaution ~ x, data=pdata, model= random) خطا در >sol.default(crossprod(X.m)): سیستم از نظر محاسباتی تک است: > شماره شرط متقابل = 9.57127e -023 traceback() 8: > solve.default(crossprod(X.m)) 7:solsol(crossprod(X.m)) 6: > diag(solve(crossprod(X.m)) %*% crossprod(X.sum)) 5: swar(object, data, > effect ) 4: ercomp.formula (فرمول، داده، اثر، روش = تصادفی. روش) 3: > ercomp(فرمول، داده، اثر، روش = روش تصادفی) 2: plm.fit(فرمول، > داده، مدل، اثر، روش تصادفی، روش inst.) 1: plm(انحراف استاندارد ~ > x، داده = pdata، مدل = تصادفی) آیا کسی وجود دارد که بتواند به من راهنمایی کند که این خطا واقعاً به چه معناست و به خصوص: چگونه مشکل را حل کنم؟ چگونه باید کد را تصحیح کنم تا به نتیجه برسم؟ خیلی ممنون
مدل جلوه‌های تصادفی با PLM: سیستم از نظر محاسباتی منفرد است - خطا؟
109749
آیا می توانم برای هر نقطه زمانی در ARIMA چندین فرد داشته باشم؟
51368
50 عنصر در اولین بار از فرستنده به گیرنده منتقل می شود که احتمال عدم دریافت هر عنصر توسط گیرنده 0.1 است و با احتمال 0.9 توسط گیرنده دریافت می شود. دوباره فرستنده همان 50 عنصر را برای بار دوم ارسال می کند اما این بار نمی دانم احتمال اینکه هر عنصر توسط گیرنده دریافت نشود چقدر است؟ مانند این، فرستنده در مجموع 9 بار این 50 عنصر را ارسال می کند. من می دانم که احتمال دریافت نشدن هر عنصر توسط گیرنده بار دوم 0.0494 و بار سوم 0.02284 است اما نمی دانم چگونه آمده است. هر کسی کمک کند بسیار قدردانی می شود. پیشاپیش ممنون
چگونه می توان احتمال حالت آینده را محاسبه کرد اگر احتمال فعلی توسط زنجیره مارکوف داده شود
61058
من در حال مقایسه دو مدل مختلف (مدل خطی چندگانه) هستم. اساساً متغیرهای توضیحی ثابت می مانند در حالی که متغیر پاسخ متفاوت است. $Model\ 1 - Y_1 = X_1+X_2+X_3$ $Model\ 2 - Y_2 = X_1+X_2+X_3$ من نتایجی از R برای هر دو مدل دارم. من فقط نمی دانم که آیا دو تا از این نتایج به عنوان مثال $F$-statistics، $p$-value، $R^2$، RSS قابل مقایسه هستند. بنابراین می توانم بگویم مدل 1 بهتر است زیرا p-value کوچکتر است. و غیره؟ از آنچه از کلاس یاد گرفتم، فقط مدل هایی را مقایسه کردم که متغیر پاسخ یکسان و متغیرهای توضیحی متفاوتی داشتند.
آزمون مدل رگرسیون F بر روی متغیرهای پاسخ مختلف؟
61054
آیا کسی می تواند به من بگوید که آیا کد R زیر (برای متغیرهای درون زا اقتصاد سنجی) برای آزمون هاسمن، آزمون ناکامورا، یا تست های دیگر است؟ etudes1 <- lm(EDUC ~ EXPER+EXPERSQ+SMSA+SOUTH+FATHEDUC+MOTHEDUC) تست <- lm(LWAGE ~ EDUC+EXPER+EXPERSQ+SMSA+SOUTH + باقیمانده ها(etudes1)) خلاصه (آزمون)
این چه آزمایشی برای متغیرهای درون زا است؟
6478
هنگام ساخت یک مدل CART (به طور خاص درخت طبقه بندی) با استفاده از rpart (در R)، اغلب جالب است که بدانیم اهمیت متغیرهای مختلف معرفی شده به مدل چیست. بنابراین، سوال من این است: ** چه معیارهای مشترکی برای رتبه بندی/اندازه گیری اهمیت متغیرهای شرکت کننده در یک مدل CART وجود دارد؟ و چگونه می توان این را با استفاده از R محاسبه کرد (به عنوان مثال، هنگام استفاده از بسته rpart)** به عنوان مثال، در اینجا یک کد ساختگی ایجاد شده است تا بتوانید راه حل های خود را روی آن نشان دهید. ساختار این مثال به گونه‌ای است که واضح است که متغیر x1 و x2 «مهم» هستند، در حالی که (به نوعی) x1 مهم‌تر از x2 است (زیرا x1 باید در موارد بیشتری اعمال شود، بنابراین تأثیر بیشتری بر ساختار داده‌ها می‌گذارد، سپس x2). set.seed(31431) n <- 400 x1 <- rnorm(n) x2 <- rnorm(n) x3 <- rnorm(n) x4 <- rnorm(n) x5 <- rnorm(n) x <- داده. قاب (x1،x2،x3،x4،x5) y <- نمونه (حروف[1:4]، n، T) y <- ifelse(X[,2] < -1، b، y) y <- ifelse(X[,1] < 0، a، y) نیاز(rpart) fit <- rpart(y~., X ) plot(fit); text(fit) info.gain.rpart(fit) # تابع شما - به ما می گوید در مورد هر متغیر چقدر اهمیت دارد (ارجاعات همیشه مورد استقبال قرار می گیرند)
15364
درک نمودارهای کنترل آماری
6477
من تست لوین و بارتلت را روی گروه‌هایی از داده‌های یکی از آزمایش‌هایم اجرا کردم تا تأیید کنم که فرضیه ANOVA را مبنی بر همگنی واریانس‌ها نقض نمی‌کنم. من می خواهم با شما بچه ها بررسی کنم که من هیچ فرض اشتباهی نمی کنم، اگر اشکالی ندارد :D مقدار p که توسط هر دوی این تست ها برگردانده می شود، احتمال این است که داده های من، اگر دوباره با استفاده از آن تولید شده باشند. واریانس های مساوی، یکسان خواهد بود. بنابراین، با استفاده از آن تست‌ها، برای اینکه بتوانم بگویم که فرضیه ANOVA در مورد همگنی واریانس‌ها را نقض نمی‌کنم، فقط به یک مقدار p بالاتر از سطح آلفای انتخابی (مثلا 0.05) نیاز دارم؟ به عنوان مثال، با داده‌هایی که من در حال حاضر استفاده می‌کنم، آزمون بارتلت p=0.57 را برمی‌گرداند، در حالی که آزمون Levene (خوب آن را تست نوع Brown-Forsythe Levene می‌نامند) یک p=0.95 می‌دهد. این بدان معناست که مهم نیست از کدام تست استفاده می کنم، می توانم بگویم که داده ها با این فرض مطابقت دارند. آیا من اشتباه می کنم؟ با تشکر
15362
من یک سوال سریع در مورد روش صحیح توصیف توابع واریانس در هنگام مقابله با ناهمسانی دارم. همانطور که من متوجه شدم، خطای آماری یک مدل نشان دهنده انحراف بین یک نمونه و مقدار تابع واقعی است. در عمل ما معمولاً مقدار واقعی تابع را نمی دانیم. در مقابل، باقیمانده ها تفاوت بین یک نمونه و مقدار تابع تخمینی است که ما می دانیم. حال، فرض کنید من یک مدل با ناهمسانی دارم و می‌خواهم آن را به صورت $$\varepsilon_i \sim N(0, \sigma^2 \times X_i) مدل کنم.$$ آیا درست است که بگوییم واریانس در آماری خطاها به عنوان تابعی از X$ مدل شده اند؟ یا، آیا بهتر است بیان کنیم که واریانس در باقیمانده ها به عنوان تابعی از X$ مدل شده است؟
25327
در این بحث در مورد مدل‌های probit در مقابل OLS، 'Conjugate Prior' اشاره می‌کند که probit و همه GLM‌ها اجازه تعیین توزیع DV را می‌دهند. چگونه GLM با تعیین یک توزیع DV بهبود می یابد و پس از آن توزیع DV ضمنی برای OLS چیست؟
با گنجاندن توزیع متغیر وابسته در GLM چه چیزی می توان به دست آورد؟
61052
من یک کسب و کار کوچک را اداره می کنم و مشتاقم بازارم را کمی بیشتر بشناسم. بررسی بازار و ابزارهای مشابه عمدتاً به دلیل زمان و بودجه در دسترس من نیست. من نیازی به داده‌های جامد سنگی ندارم، فقط چیزی که به من اجازه می‌دهد هر چند وقت یک‌بار کمی نمک به استدلالم اضافه کنم. آیا استفاده از قضیه بیز برای تعیین این باور که مشتریان من با افزایش بازار (جمعیت) حتی با افزایش رقابت من افزایش خواهند یافت، مناسب است؟ این فرض توزیع جغرافیایی همگن جمعیت مشتریان و رقابت را دارد که نادرست است، و فرض می‌کند که همه مشتریان به طور یکسان به سمت همه کسب‌وکارها کشیده می‌شوند، که باز هم (احتمالاً) نادرست است. اما حداقل به من نقطه شروعی فراتر از تصورات نادرست من می دهد. من یک آمارگیر نیستم که بدون شک بسیار مشهود خواهد بود و در تلاش برای درک این رویکرد با چندین سؤال مواجه شده ام. پیشاپیش بابت تعداد سوالات اینجا عذرخواهی می کنم. در درک محدود من، قضیه بیز ممکن است به من کمک کند تا باورهایم را در مورد رقابت، بازار، و غیره تعدیل کنم. من تعدادی سوال دارم: 1. آیا این استفاده مناسبی از قضیه بیز است؟ **مرحله 1: ساختن چند فرمول** فرض کنید: > $ P(C) = \text{احتمال تعداد مشتریان افزایش خواهد یافت} \\\$ $ P(M) = > \text{جمعیت احتمالی بازار افزایش خواهد یافت} \ \\$ $ P(K) = > \text{رقابت احتمالی افزایش می‌یابد} $ ... سپس فرض می‌کنم باید بتوانم چیزی شبیه به زیر بسازم: > $ P(C|M) = \frac{P(M|C)P(C)}{P(M)} $ و $ P(C|K) = \frac{P(K|C)P(C)}{P(K)} > 2 دلار. آیا این کار را درست انجام می دهم؟ :) ** مرحله 2: استفاده از داده های مناسب ** اعدادی که من دارم به شرح زیر است: * افراد حرفه ای در رشته من، در انگلستان: تقریباً 4500. * رشد در رشته من: تقریباً 1000 در سال. * انقباض در رشته من (به دلیل بازنشستگی و غیره): تقریباً 500 در سال. * تعداد افراد شهر من و سرعت رشد آن. * درصد جمعیت معمولی که از خدمات حرفه من استفاده می کنند: 10٪. * داده های ماه به ماه مشتری در کسب و کار من. من احتمالاً می توانم ارقام دقیق تری در مورد تعداد متخصصان در رشته خود به دست بیاورم. در مورد داده های مشتری، من ارقام 18 ماه گذشته را در یک صفحه گسترده دارم. در 9 ماه از 17 ماه تکمیل شده، تعداد مشتریان بیشتر از ماه قبل است. این به من نشان می دهد که: > $ P(C) = \frac{9}{17} = 0.53 $ با توجه به بازار (جمعیت)، فرض کنید پروژه های دولت محلی از 1,000,000 به 1,100,000 در سال آینده افزایش یابد. این به من نشان می دهد که: > $ P(M) = \frac{1100000}{1000000} = 1.1 $ در مورد رقابت، فرض می کنم: > $ P(K) = \frac{4500 + 1000 - 500}{ 4500} = 1.\dot{3} 3 دلار. ارقام ممکن است دقیق باشند، اما آیا من از آنها به درستی استفاده می کنم؟ **مرحله 3: نتایج** > $ P(C|M) = \frac{P(M|C) \cdot 0.53}{1.1} $ اینجاست که من تمام می شوم. چگونه می توانم $P(M|C)$ را تعیین کنم، احتمال افزایش بازار با توجه به اینکه مشتریان من نیز افزایش می یابند؟ از آنجایی که تجارت من تأثیر ناچیزی بر اندازه بازار دارد، آیا باید آن را به سادگی 100% در نظر بگیرم، یعنی 1؟ کسب‌وکار من نیز کمترین تأثیر را بر رقابت خواهد داشت (یا من فکر می‌کنم، اگرچه شاید کسب‌وکارهای محلی جدید با حضور آن منصرف شوند) بنابراین من فرض می‌کنم که به طور مشابه $ P(K|C) = 1 $. 4. آیا این یک رویکرد معقول است؟ یه جورایی مشکوکم نه اگر این رویکرد درست است، پاسخ‌ها به این صورت می‌شوند: > $ P(C|M) = \frac{1 \cdot 0.53}{1.1} = \frac{0.53}{1.1} = 0.4\dot{8}\dot{1 } $ > > $ P(C|K) = \frac{1 \cdot 1.\dot{3}}{1.1} = \frac{1.\dot{3}}{1.1} = > 1.\dot{2}\dot{1} 5 دلار. چگونه باید این دو باور را ترکیب کنم که با افزایش بازار، تعداد مشتریان افزایش می‌یابد اما رقابت نیز افزایش می یابد؟ از آنجایی که آنها احتمالات هستند، آیا می توانم آنها را به سادگی ضرب کنم؟ این نشان می‌دهد: > $ 0.4\dot{8}\dot{1} \cdot 1.\dot{2}\dot{1} = 0.584 $ با تشکر فراوان برای هر کمکی که می‌توانید ارائه دهید، و باز هم بابت درخواست زیاد عذرخواهی می‌کنیم. از سوالات من کاملاً خوشحالم که به مطالب خواندنی مفید اشاره می کنم، اگرچه آمار و توانایی های ریاضی من (به وضوح) محدود است، بنابراین اطلاعات مناسب برای تازه کارها قدردانی می شود.
آیا باید از فرمول بیز برای تولید داده های ساده در مورد رقابت تجاری و بازار استفاده کنم؟
110272
من چند بار دارم و می خواهم آزمایش کنم که آیا آنها بر اساس توزیع نمایی توزیع شده اند یا خیر. من می توانم Kolmogorov-Smirnov را در پایتون با استفاده از 'scipy.stats.kstest(data, 'expon')' اعمال کنم. با این حال، من فرض می‌کنم که ابتدا باید داده‌هایم را به‌نوعی عادی کنم، در غیر این صورت با توزیع نمایی با نرخ لامبدا ناشناخته مقایسه می‌شود. آیا این درست است و چگونه باید این کار را انجام دهم؟
یک سوال ساده لوحانه در مورد آزمون کولموگروف اسمیرنوف
110274
من متوجه شدم گزینه هایی برای تجزیه و تحلیل اقدامات مکرر مانند anova، gee، مدل مختلط وجود دارد. در اینجا من یک موقعیت چالشی دارم مانند تنها 4 معیار از 10 موضوع. من می‌پرسم، اگر مجبور باشم، بهترین راه برای تحلیل آن چیست؟ به این صورت که: df<-data.frame(y=rnorm(40, 10, 2), time=rep(1:4,10), age=rep(as.integer(rnorm(10, 20, 3)), هر=4)) هدف این است که ببینیم آیا y با گذشت زمان و سن در حال تغییر است یا خیر.
بهترین راه برای تجزیه و تحلیل اقدامات مکرر از موضوعات محدود؟
25322
من یک سری مدل را اجرا کردم تا ببینم کدامیک به بهترین وجه با متغیر پاسخ مطابقت دارد و به موارد زیر رسیدم (برای میانگین مدل همه مدل‌ها با $\Delta AIC <2$). من در حال حاضر در حال یادگیری مدل ها هستم، بنابراین این خروجی یکی از اولین خروجی های من است: Estimate Std. خطای z مقدار Pr(>|z|) (تقاطع) 102.7190 5.5300 18.575 < 2e-16 *** HDr -1.5495 0.3451 4.490 7.11e-06 *** MF.vs.OF2 7.675 -7.675 0.04065 * NHDp -0.5145 0.2909 1.769 0.07695. NHDr -1.4164 0.4663 3.037 0.00239 ** Site2 6.1477 2.7400 2.244 0.02485 * tide.h.l2 -7.2546 2.6914 2.695 2.695 2.695 0.07-inc 0.07. 2.6187 2.233 0.02553 * HDp -0.3773 0.2732 1.381 0.16731 ​​mean.for.rate -0.3966 0.3220 1.232 0.21807 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 ضرایب میانگین مدل کامل (با انقباض): (برق) HDr MF.vs.OF2 NHDp NHDr Site2 tide.h .l2 tide.inc.out2 HDp 102.718962 -1.549499 -5.734171 -0.239550 -1.416373 5.336532 -7.254627 -5.848553 -0.044795 mean.for.rate -0.081734 -0.081734 نسبی، HDInprate اهمیت: MF.vs.OF NHDp NHDr 1.00 0.00 0.12 1.00 0.21 0.75 0.47 1.00 Site tide.h.l tide.inc.out 0.87 1.00 1.00 من برآوردها را دیده ام که به عنوان یک مقدار مهم توضیح داده شده است و این بخش به عنوان یک مقدار مهم توضیح داده شده است. گزارش کردن (در رابطه با اندازه آنها و جهت آنها (+ve/-ve)). (مقاله ای که می خواندم بیان می کرد که آنهایی که اعداد بزرگتر یا کوچکتر داشتند بیشترین تأثیر را داشتند، حتی نقل می کرد که یکی 48٪ کمتر از دیگری است). با این حال، اگر این همان چیزی است که گزارش و مورد بحث قرار می گیرد، چرا اهمیت متغیر نسبی در رابطه با برآورد متفاوت است؟ به نظر می رسد که این نیز باید مورد بررسی قرار گیرد، اما مطمئن نیستم که مقادیر z و p چگونه از یک مدل محاسبه می شوند. بنابراین، من مایلم بدانم که در هنگام تلاش برای بحث در مورد یافته ها، کدام یک مهم تر است. اعتراف می کنم که دانش من محدود است، اما اگر بتوانم می خواهم این را به زبان ساده درک کنم. همچنین، من از دستور dredge برای یافتن تمام ترکیب‌های مدل از یک مدل جهانی استفاده کردم و دریافتم که هفت مدل (از 1024) دارای $\Delta AIC <2$ بودند. من فکر می کردم که این یک برش خوب برای میانگین است، اما از نظر فنی می توان از هر مقدار دلتا به عنوان برش استفاده کرد. متشکرم.
مقادیر اهمیت متغیر نسبی در مقابل بزرگی اثر
25325
من از رگرسیون به عنوان پیش بینی کننده استفاده می کنم. فرض کنید رگرسیون من $y = a_1 x_1 + a_2 x_2 + a_3 x_3$ است. من متوجه شدم که در عمل، زمانی که پیش‌بینی من خیلی دور است، معمولاً به این دلیل است که یک عامل به طور قابل توجهی پیش‌بینی را منحرف کرده است. به عنوان مثال، $x_1، x_2$ هر دو کمی منفی هستند، در حالی که $x_3$ بسیار مثبت است. در این مورد (زمانی که عوامل با یکدیگر «اختلاف» دارند)، ترجیح می‌دهم پیش‌بینی‌کننده من کاری انجام ندهد تا اینکه یک پیش‌بینی «جنجال‌برانگیز» را گزارش کند. در برنامه خاص من، مجبور نیستم هر بار یک پیش‌بینی ایجاد کنم (به سادگی می‌تواند «بدون سرنخی» را برگرداند)، اما وقتی این کار را انجام می‌دهم، ترجیح می‌دهم درست باشد. بهترین راه برای انجام این کار چیست؟ با تشکر
چگونه تشخیص دهیم که چه زمانی عوامل در رگرسیون خطی «مخالف» هستند تا پیش‌بینی‌های پر سر و صدایی تولید کنند؟
97003
اساساً من تابعی برای نمونه‌برداری کارآمد از یک متغیر در مدل خود دارم که می‌خواهم PyMC به همراه نمونه‌گرهای معمولی آن برای هر چیز دیگری از آن استفاده کند. از آنجایی که من این تابع را دارم، نیازی به تعریف احتمال گزارش برای متغیر نیز ندارم. آیا می توانم این کار را با استفاده از کلاس Stochastic و ایجاد یک تابع تصادفی انجام دهم؟ یا باید یک روش گام سفارشی ایجاد کنم؟
PyMC: چگونه می توانم از یک نمونه بردار سفارشی برای یک متغیر خاص در یک مدل استفاده کنم؟
31510
همبستگی متغیرها با مقادیر ویژه در تحلیل مولفه های اصلی
110279
اجازه دهید $x_t, \, t=1, \dots ,T$ سری زمانی باشند و فرض کنید که $x_t | \xi_t \sim N(\mu_{\xi_t},\sigma^2_{\xi_t})$، که $\xi_t \در [1, \dots,K]$ یک نشانگر گروه (یا رژیم یا حالت) است. پارامتر توزیع نرمال به مقدار $\xi_t$ بستگی دارد و فرض می کنیم که $P(\xi_t=k|\xi_{t-1}=j) = \pi_{jk}$. من می‌خواهم این را در چارچوب بیزی تخمین بزنم و سپس موارد قبلی $\pi_{j1}،\pi_{j2}،\dots، \pi_{jK} \sim دیریکله(\alpha_1،\dots، \alpha_k)$، $\mu_{k} \sim N(M,V)$ و $\sigma_{k}^2 \sim InvGamma(a,b)$. فرض می کنم $\xi_0=1$. من سعی می کنم بفهمم که چگونه از شرطی کامل $\xi_t, t=1,\dots,T$ نمونه برداری کنم. کسی می تواند به من توضیح دهد که آیا باید از الگوریتم فوروارد، عقب یا ویتربی یا چیز دیگری استفاده کنم؟ و چگونه از آن استفاده کنیم؟ من واقعاً در مورد همه این چیزها گیج شده ام :-). لینکی که در آن به خوبی توضیح داده شده باشد نیز پذیرفته می شود.
الگوریتم HMM-به جلو به عقب
97005
سوال . ![یک گربه مشغول](http://i.imgur.com/4qodjPL.png) من در مورد نحوه استفاده از اطلاعات برای پاسخ دادن به سوالات کمی گیج هستم. فکر می کنم برای پاسخ به این سوال باید از روش بیزی استفاده کنم اما مطمئن نیستم که درست می گویم یا خیر. آیا چگالی قبلی میانگین $\mathcal{N}(738,13.4^2)$ خواهد بود؟ سپس با $\mathcal{N}(692,42.5^2)$ داده شده در نیمه دوم سوال چه کار کنم؟ من واقعاً در استفاده از روش بیزی بی‌اطلاع هستم و برای درک این سؤال راهنمایی می‌خواهم.
با توجه به اطلاعات، احتمال اینکه میانگین تعداد نوشیدنی های فروخته شده در هفته بین 700 تا 720 باشد چقدر است.