_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
80260
|
در جدول زیر توزیع فراوانی نسبی 100 خانوار مربوط به طبقه درآمد سالانه (به هزار دلار) نشان داده شده است: درآمد: 10-25 25-40 40-60 60-100 100-200 فراوانی های نسبی: 0,48 0,25 0,15 0,10 0,02 میانگین حسابی و شاخص جینی را محاسبه کنید. من شروع به محاسبه مقدار متوسط کلاس ها و فراوانی تجمعی کردم: درآمد (مقدار متوسط): 17,5 32,5 50 80 150 فراوانی تجمعی: 0,48 0,73 0,88 0,90 1 مشکل این است که چگونه من میانگین حسابی را محاسبه کنم؟ من فکر می کنم این جمع مقادیر میانی * فرکانس نسبی آنها بود که 35025 (8,4 + 8,125 + 7,5 + 8 + 3) خروجی می دهد. مشکل این است که مجموع باقیمانده از میانگین تخمین زده شده صفر نیست! 17،5-35،025 = -17،525 + 32،5-35،025 = -2،525 + 50-35،025 = 14،975 + 80-35،025 = 44،975 + 150-35،025 + 150-35،025 = 7،025 = 114،5 = 114،5 35025 هنوز مقدار صحیح میانگین حسابی است حتی اگر مجموع باقیمانده ها 0 نباشد؟ سوال دیگر: شاخص جینی. این یک برآوردگر غلظت است. به این ترتیب محاسبه میشود:  چیها کجا هستند فرکانس تجمعی و پی فرکانس تجمعی در صورت توزیع برابر هستند. می توانید به من کمک کنید؟ :)
|
میانگین حسابی و شاخص جینی در یک توزیع گروهی
|
20126
|
ویکیپدیا درباره ترکیب آمارهای چندگانه آزمون میگوید > این امتیاز Z (برای متاآنالیز کلی) برای مقادیر p یک طرفه و راستپایه مناسب است. اگر مقادیر p دو طرفه یا چپ > در حال تجزیه و تحلیل باشند، میتوان تغییرات جزئی را انجام داد. آن اصلاحات جزئی چیست؟
|
آزمایش مقادیر p دو طرفه با استفاده از رویکرد استوفر
|
48657
|
اجازه دهید $X_n=\sum\limits_{k=1}^n Y_k = X_{n-1} + Y_n$ و $X_0=0$, $(Y_n)$ i.i.d با $P(Y_n=1)=p= 1-P(Y_n=-1)=1-q، p \in (0,1)$، $(X_n)$ یک راه رفتن تصادفی در $\mathbb{Z}$. چرا این زنجیره مارکوف تقلیل ناپذیر است؟ چگونه بفهمیم که همه حالت ها (اعداد صحیح) با یکدیگر ارتباط دارند؟ چگونه این را به طور شهودی نشان دهیم؟ با تشکر از شما برای کمک شما!
|
راه رفتن تصادفی روی $\mathbb{Z}$
|
89110
|
نتایج مشکوک تست فریدمن
|
|
20121
|
فرض کنید که من یک متغیر وابسته دارم، احتمال برنده شدن در ebay، و می خواهم آن را بر روی متغیرهای مختلف مدل کنم. بیایید بگوییم که من اطلاعاتی در مورد هر یک از آیتمهای ebay که در آن مناقصه میکنم و اینکه آیا برنده شدم یا نه، دارم. آیا راهی برای مدل سازی احتمال برنده شدن وجود دارد؟ یا بهتر است که dep var را به عنوان یک متغیر دوگانه در نظر بگیریم که یا برنده است یا برنده نشده است و سپس یک logit بسازیم. اساساً من نمی دانم که آیا و چه استراتژی هایی را برای یافتن احتمال برنده شدن، در حالی که متغیرهای مستقل مختلف را در نظر می گیرند، دنبال کنم. طرح لاجیت منطقی تر به نظر می رسد، اما من نمی دانم که آیا چیزی وجود دارد که بتوانم به عنوان جایگزینی برای مدل سازی احتمال یک نتیجه استفاده کنم. اساساً، من در مورد یافتن سوال هستم: وقتی من 5 دلار پیشنهاد می دهم، احتمال برنده شدن چقدر است وقتی من پیشنهاد 6 دلاری می دهم، احتمال برنده شدن چقدر است و غیره ویرایش: فرض کنید من اطلاعاتی در مورد محصولات مختلفی دارم که برنده شدم و آنهایی که از دست می دهم. ، همراه با متغیرهای مختلف دیگر. چرا پیش بینی برد یا باخت بودن آن منطقی نیست. حدس می زنم 0/1 هنوز احتمال نیست، اما هوم... من داده ها را دارم، فقط مطمئن نیستم که آیا یا چگونه احتمال برنده شدن را مدل کنم. من واقعاً به یک قیمت پیشنهادی و اینکه آیا برنده یا باختم علاقه مند هستم. بنابراین برد/ باخت را در قیمت پیشنهادی پیش بینی کنید، از مدل لاجیت استفاده کنید، سپس احتمال برنده شدن را تخمین بزنید (که من در مورد آن مطمئن نیستم)
|
مدل سازی احتمال برنده شدن در سایت فروش
|
106143
|
خط رگرسیون مناسب برای افزایش خطی داده ها با تنظیم مجدد دستی
|
|
62373
|
من متوجه شدهام که برای برخی از مجموعههای داده، حذف میانگین و مقیاسبندی واریانس به تناسب مدل بهتر با دادهها کمک میکند، در حالی که برای برخی از مجموعههای داده این کار کمکی نمیکند. در مورد چه نوع استانداردسازی داده ها مفید خواهد بود؟ آیا دستورالعمل هایی برای اعمال این وجود دارد؟
|
استانداردسازی برای چه نوع ویژگی هایی مفید خواهد بود؟
|
62378
|
من در حال انجام یک پروژه تحقیقاتی هستم که در آن یک گروه آزمایشی و گروه کنترل از شرکت ها و یک نقطه داده هزینه برای یک سال پایه و یک سال بعد دارم. سالهای هزینه برای اکثر شرکتها متفاوت است، بنابراین برای یک شرکت ممکن است این دو هزینه در سالهای 2006-2007 باشد در حالی که برای دیگری ممکن است از 2001-2002 باشد. همچنین در صورت لزوم هزینه های سال های دیگر را نیز دارم. سال پایه برای هر شرکت به این دلیل انتخاب شد که یک رویداد در آن سال رخ داده است و من در تلاش هستم تا ببینم آیا آن رویداد هزینه خاصی را برای آن شرکت به طور قابل توجهی تغییر داده است یا خیر. من می خواهم آزمایش کنم تا ببینم آیا تغییر در هزینه بین گروه آزمایش و کنترل از نظر آماری متفاوت است یا خیر. همچنین، میخواهم تغییر بهای تمام شده را به نوعی عادی کنم، به این فکر میکردم که درصد تغییر بهای تمام شده را محاسبه کنم یا هر هزینه را بر ارزش بازار تقسیم کنم، اما هر پیشنهاد دیگری نیز مورد استقبال قرار میگیرد. بهترین روش برای استفاده از کدام آزمون/روش آماری در این شرایط است؟ همچنین، با توجه به اینکه شرکت ها را می توان به دسته های مختلفی مانند کشور، ارزش بازار و غیره تقسیم کرد، آیا روش دیگری را برای تجزیه و تحلیل بیشتر داده ها توصیه می کنید؟ مفروضات توزیع: هزینه های شرکت را می توان عادی در نظر گرفت، من با استفاده از تست نرمال بودن بررسی کردم. حجم نمونه: N=109 برای گروه آزمایش و کنترل، در مجموع 436 نقطه داده.
|
مقایسه تغییرات هزینه برای گروه های مختلف شرکت ها
|
93633
|
من یک سری زمانی دارم که میخواهم معادله رگرسیون تکهای را برازش کنم. اکنون مشکل زمانی رخ می دهد که من سعی می کنم معادلات با درجه های مختلف را در بخش های مختلف مجموعه جا بدهم. لطفاً به من استنادهایی به مثالهایی در رابطه با روند مشکل فوق ارائه دهید.
|
رگرسیون تکه ای
|
37881
| ||
62370
|
وقتی من یک شبکه عصبی ساده را با استفاده از همه پیشفرضها آموزش میدهم، خیلی طول میکشد (من با تغییر برخی از پیشفرضها به موفقیت کم بازی کردهام). آیا ترفندهایی وجود دارد که من با PyBrain یا به طور کلی پیاده سازی شبکه های عصبی گم کرده ام؟ مجموعه داده من دارای 100000 مشاهده است، با یک ویژگی (متغیر متغییر) و یک پاسخ دو جمله ای ([0,1]). کد مثال: net = buildNetwork(1, 1, 1, bias = True) ds_train = SupervisedDataSet(1, 1) ds_train.addSample(x,y) trainer = BackpropTrainer(net, ds_train) trainer.train() من در واقع استفاده می کردم این به عنوان یک مورد آزمایشی برای رگرسیون بزرگتری که من به دنبال انجام آن هستم که دارای 20 ویژگی است. در حال حاضر به نظر می رسد که pybrain خیلی کند است و من در حال حاضر به دنبال Theano هستم، آیا این ایده خوبی است؟
|
PyBrain خیلی کند است
|
20129
|
خوب، برای تعیین توزیع باید یک هیستوگرام انجام دهیم. ما همچنین می توانیم یک نمودار معمولی چندکی انجام دهیم. آیا رسم تست/گراف خاصی (در Stata) وجود دارد که به تعیین نمایی یا نبودن یک توزیع کمک کند؟ برای دقیق تر، من به دنبال چیزی مانند طرح چندک معمولی هستم. با تشکر
|
چگونه می توان آزمایش کرد که آیا یک توزیع در Stata نمایی است؟
|
44713
|
برخی پیشینه: من سعی می کنم تعداد خرابی ها را در دو جمعیت ماشین های مرتبط تخمین بزنم. من خرابی ماشین را در یک سال به عنوان یک فرآیند پواسون همبسته مدل میکنم: $Y_0،\ Y_1$ و $Y_2$ سه فرآیند پواسون مستقل با نرخ ورود هستند: $\lambda_0$، $\lambda_1$ و $\lambda_2$. X_1$ و $ X_2$ به ترتیب تعداد خرابیهای ماشینی هستند که در دو جمعیت مشاهده میشوند. این متغیرهای تصادفی گسسته به این صورت تعریف می شوند: $$X_1= Y_0+Y_1$$ $$X_2= Y_0+Y_2$$ $X_1$ و $X_2$ بنابراین همبستگی زیر را دارند: $$\rho = \frac{ \lambda_0 }{\sqrt{( \lambda_0+\lambda_1)( \lambda_0+\lambda_2)}}$$ تابع احتمال مشترک این است: $$P[X_1=i,X_2=j]=e^{-(\lambda_0+\lambda_1+\lambda_2)}\sum_{k=0}^{ من گوه j}\frac{\lambda_0^k}{k!}\frac{\lambda_1^{(i-k)}}{(i-k)!}\frac{\lambda_2^{(j-k)}}{(j-k)!} $$ من چندین سال است که این توزیع دو متغیره را بر روی داده های تجربی برازش داده ام و در تطبیق با خرابی های مشاهده شده ماشین کار خوبی انجام می دهد. سوال: در پایان هر ماه سال از خرابی ماشین در هر دو جمعیت به من گفته می شود. اجازه دهید مجموع در حال اجرا این خرابی ها را به ترتیب $a$ و $b$ برای X_1$ و $X_2$ بنامیم. علاوه بر این من می دانم چه کسری از سال باقی مانده است. اجازه دهید این را $t$ بنامیم. با توجه به این اطلاعات، چگونه باید احتمال تعداد خرابی دستگاه پایان سال را محاسبه کنم؟ $$P[X_1=i|\ a,X_2=j|\ b, t]$$ فرض کنید که $\lambda_0$، $\lambda_1$ و $\lambda_2$ پایدار میمانند. ممنون از راهنمایی
|
به روز رسانی احتمال شرطی برای متغیرهای پواسون همبسته
|
30394
|
فرض کنید آماری را داریم که در زیر جنسیت داده شده است. با استفاده از آماری مانند این به جای داده های واقعی؟ من در هیچ کجای اینترنت نتوانستم این کار را انجام دهم. بیشتر آموزشها و حتی کتابچه راهنمای آزمایش فقط با مجموعه دادههای واقعی سروکار دارند.
|
چگونه می توان با وارد کردن آمار نمونه به جای داده های خام، آزمون های t دو نمونه ای را در R انجام داد؟
|
105886
| ||
113738
|
تجزیه و تحلیل انتقال پنهان (یا LTA) در آمار چیست؟ و تفاوت بین LTA و تجزیه و تحلیل کلاس پنهان (LCA) چیست؟
| |
102655
|
نحوه ترکیب n ماتریس سردرگمی
|
|
41070
|
من روی یک پروژه کوچک با یک سری زمانی کار می کنم که داده های بازدید مشتری (روزانه) را اندازه گیری می کند. متغیرهای کمکی من یک متغیر پیوسته «روز» برای اندازهگیری چند روز سپری شده از اولین روز جمعآوری دادهها، و برخی از متغیرهای ساختگی هستند، مانند اینکه آیا آن روز کریسمس است، و کدام روز از هفته است، و غیره. از داده های من به نظر می رسد: تاریخ مشتری_بازدید روز هفته روز کریسمس 11/28/11 2535 2 0 1 11/29/11 3292 3 0 2 11/30/11 4103 4 0 3 12/1/11 4541 5 0 4 12/2/11 6342 6 0 5 12/3/11 7205 7 0 6 12/4/11 3872 12 /11 3270 2 0 8 12/6/11 3681 3 0 9 برنامه من این است که از مدل ARIMAX برای تناسب داده ها استفاده کنم. این را می توان در R، با تابع «auto.arima()» انجام داد. میدانم که باید متغیرهای کمکی خود را در آرگومان xreg قرار دهم، اما کد من برای این بخش همیشه یک خطا برمیگرداند. کد من اینجاست: xreg <- c(as.factor(modelfitsample$Christmas)، as.factor(modelfitsample$Weekday)، modelfitsample$Day) modArima <- auto.arima(ts(modelfitsample$Customer_Visit, freq=7) allowdrift=FALSE, xreg=xreg) پیغام خطای ارسال شده توسط R این است: Error in model.frame.default(فرمول = x ~ xreg, drop.unused.levels = TRUE) :طولهای متغیر متفاوت است (برای 'xreg' یافت می شود) من چیزهای زیادی از نحوه متناسب کردن یک مدل ARIMAX با R یاد گرفتم؟ اما من هنوز خیلی روشن نیستم که چگونه متغیرهای کمکی یا ساختگی را در آرگومان xreg در تابع `auto.arima()` تنظیم کنم.
|
چگونه آرگومان xreg را در auto.arima() در R تنظیم کنیم؟
|
76534
|
میخواهم $p(\eta_\star)=\int_{}p(\eta_\star|\eta)p(\eta)d\eta$ را پیدا کنم. جایی که $p(\eta_\star|\eta)=\mathcal{N}(a^T\eta,\Sigma_1)$ و $p(\eta)=\mathcal{N}(\mu_2,\Sigma_2)$ . مشکل من واقعاً مربوط به جبر خطی است. می دانم که در نهایت با یک گاوسی مواجه می شوم، اما اصطلاح میانگین و کوواریانس چیست. آنچه من تا به حال دارم (فقط بر روی عبارت های درجه دوم تمرکز می کنم): اجازه دهید $y=\eta_\star$ و $x=\eta$ $$ (y-a^Tx)^T\Sigma_1^{-1}(y-a^Tx )+(x-\mu_2)^T\Sigma_2^{-1}(x-\mu_2) \\\ \propto y^T\Sigma_1^{-1}y-2x^Ta\Sigma_1^{-1}y+x^Ta\Sigma_1^{-1}a^Tx+x^T\Sigma_2^{-1}x- 2\mu_2^T\Sigma_2^{-1}x\\\ \propto y^T\Sigma_1^{-1}y +x^T(a\Sigma_1^{-1}a^T+\Sigma_2^{-1})x-2(y^T\Sigma_1^{-1}a^T+\mu_2^T\Sigma_2^{- 1})x $$ فعلاً خوب است حتی اگر بتوانم برای این مورد که $y$ یک اسکالر و $a$ یک بردار است پاسخی دریافت کنم.
|
گاوسی چند متغیره را در هم بپیچید
|
41071
|
من در حال مطالعه درختان رگرسیون تقویت شده گرادیان هستم و به آماره H که در صفحات 18-22 از _آموزش پیش بینی کننده از طریق گروه های قانون_ (2008) توضیح داده شده است نگاه می کنم. در مقاله دکتر فریدمن بیان میکند: > **اثرات تعاملی.** به یک تابع $F(\mathbf{x})$ گفته میشود که در صورت تفاوت، تعامل بین دو متغیر خود را نشان میدهد. > در مقدار $F(\mathbf{x})$ در نتیجه تغییر مقدار $x_j$ > بستگی به مقدار $x_k$ دارد. برای متغیرهای عددی، این می تواند به صورت $$\mathbf{E_x}\left[\frac{\partial^2 F(\mathbf{x})}{\partial x_j \partial > x_k}\right] \gt بیان شود 0$$ این از کجا می آید؟ اگر مدل F(x)=\beta_0 + \beta_{1}x_{1}+\beta_{2}x_{2}+\beta_{3}x_{1}x_{2}$ را در نظر بگیریم، تعامل عبارت $\beta_{3}$ از طریق مشتق جزئی $\frac{\partial^2 F}{\partial x_{1}\partial x_{2}}$ است. این ربط داره؟ سپس میانگین کل داده های آموزشی (در یک محیط کاربردی) و مربع؟
|
چرا یک مشتق متقابل مجذور میانگین مثبت یک تعامل را نشان می دهد؟
|
15814
|
فرمول صریح خروجی predict() یک رگرسیون چند جمله ای متعامد؟
|
|
41078
|
من در حال مطالعه علوم اعصاب هستم و در مورد ارائه برخی از داده ها سوالی دارم. میخواهم بدانم که آیا تقسیمبندیهای ثالثی زمانی قابل قبول هستند که متغیر مورد نظر به طور معمول توزیع شده باشد یا به طور معمولی توزیع نشده باشد. آیا این مهم است؟ من از SPSS برای اجرای ANOVA 2x2 با گروه به عنوان یک عامل استفاده میکنم، اما میخواهم بدانم اگر آن متغیر به طور معمول توزیع نشده باشد، میتوانم از تقسیمهای درجه سوم «بالا» و «پایین» به عنوان سطوح فاکتور استفاده کنم. من این کار را انجام دادم و نتایج طبق فرضیهها هستند، اما نمیدانم (از نظر آماری/ریاضی) استفاده از این تقسیمبندیها را توجیه میکنم یا خیر. من یک آمارگیر نیستم، بنابراین توضیحات ساده ترجیح داده می شود.
|
چه زمانی انشعاب های درجه سوم غیرقابل توجیه هستند؟
|
108435
|
راه حل مشکل SVM
|
|
59748
|
لطفاً من را در جایی که اشتباه می کنم تصحیح کنید: درک من از bootstrapping این است که روشی برای تخمین توزیع برخی از آمارها (میانگین، خطای استاندارد، ضریب همبستگی پیرسون و غیره) است که تنها با یک نمونه ارائه می شود. بنابراین اگر بخواهم میانگین یک جمعیت را با استفاده از روشهای بوت استرپ تخمین بزنم، نمونههای بوت استرپ زیادی تولید میکنم، میانگین هر یک از این نمونههای راهانداز را محاسبه میکنم، و سپس از توزیع آن مقادیر برای استنباط احتمال کاهش میانگین جمعیت ناشناخته استفاده میکنم. و یک فاصله اطمینان برای آمار محاسبه کنید. اما نمونه های بوت استرپ چگونه تولید می شوند؟ یک ماژول بوت استرپ scikit وجود دارد و من می بینم که یک روش بوت استرپ برای محاسبه فاصله اطمینان برای یک آمار معین دارد: تابع اول، def(ci) را ببینید. اولین تخمینگر تابع توزیع تجربی است که باید آرایه ای باشد که بتوان آمار مورد نظر را روی آن محاسبه کرد. چگونه از این داده های تجربی برای تولید نمونه های بوت استرپ استفاده می شود؟ برای بسط این سوال، اگر بخواهم فاصله اطمینان 95 درصدی را برای ضریب همبستگی پیرسون بین دو متغیر تصادفی x و y محاسبه کنم و «data = [(x1,y1), (x2,y2), ... (xi,yi), ... (xn,yn)]` برای اجرای بوت استرپ CI، آیا به این معنی است که `(x1, ..., xn)` و (y1, ..., yn)` برای هر نمونه بوت استرپ تولید شده مستقل از یکدیگر تولید می شوند؟
|
آشنایی با روش بوت استرپ برای فاصله اطمینان ضرایب همبستگی
|
14800
|
من با داده های به دست آمده از یک نظرسنجی سفر از یک شهر کار می کنم. من داده های میانگین سفرهای انجام شده توسط حالت های مختلف سفر را در روز نظرسنجی دارم. من اطلاعاتی از تعداد کل سفرهای انجام شده توسط هر حالت سفر برای شهرهایی با جمعیت مشابه از یک مرکز ملی دریافت کرده ام. آیا می توانید راهی برای مقایسه این دو به جز محاسبه درصد هر حالت در پنج حالت سفر پیشنهاد دهید. زیرا دادههای مربوط به شهری که ما این نظرسنجی را انجام دادیم از نظر اعداد بسیار کمتر از اعداد بررسی ملی است. تعداد کل سفرها در روزهای هفته در **شهرک های کم جمعیت** 436000/ 137000/ 39000/ 88000/ 225000 میانگین تعداد سفر در هر حالت در روز بررسی در **شهرک X** 126,6/ 23 ,6/ 2/ 5/ 34,8
|
چگونه داده ها را با تفاوت در مقیاس مقایسه کنیم؟
|
14803
|
من 3 رگرسیون لجستیک جداگانه اجرا کرده ام و می خواهم به نحوی خلاصه کنم که مدل چقدر با داده ها مطابقت دارد. پیشنهادی دارید؟
|
ارائه مدل لجستیک متناسب با گرافیک
|
48558
|
من یک مجموعه داده از تقریباً 400000 رکورد دارم (برای کسانی از شما که میدانید، مجموعه دادهای است که یاهو برای چالش یادگیری رتبهبندی یاهو ارائه کرده است). از این مجموعه داده من یک درخت رگرسیون را یاد می گیرم. الگوریتم تکیه بر درخت رگرسیون **تعداد سطوح** (ارتفاع) را که درخت آموخته شده باید داشته باشد را به عنوان پارامتر می پذیرد. پس از یادگیری یک درخت، دقت آن را با استفاده از میانگین مربعات خطا (MSE) اندازه میگیرم. مجموعه دادههای تست، مجموعهای است که توسط yahoo ارائه شده است (و حدود 165000 رکورد تست دارد). برای تعیین سطح ایده آل، الگوریتم را با مقادیر پارامترهای مختلف (ارتفاع درخت حاصل) (2 تا 40) اجرا می کنم. در پایان من MSE در مقابل سطح را رسم می کنم. انتظار من این است که یک نمودار محدب با شکل کاسه مانند به دست آوریم: برای ارتفاعات کوچک درخت کمتر از داده های آموزشی است، بنابراین MSE بالا خواهد بود، با افزایش ارتفاع MSE کاهش می یابد تا به حداقل برسد و در پایان MSE دوباره شروع به افزایش می کند به دلیل بیش از حد برازش (سطوح بیش از حد به این معنی است که درخت به دست آمده بیش از حد با داده های آموزشی مطابقت می کند). متاسفانه من اینو نمیفهمم چیزی که من به دست میآورم یک نمودار L مانند با نوار عمودی است که به آرامی کاهش مییابد (نه مانند حرف L). قسمت کاهشی همانطور که انتظار می رود است، به حداقل می رسد (همانطور که انتظار می رود) اما بعد از آن شروع به بالا رفتن نمی کند (مثل اینکه درخت بیش از حد مناسب نیست، مهم نیست که چند سطح داشته باشد). آیا توضیحی در این مورد دارید؟
|
تعیین ارتفاع بهینه برای درخت رگرسیون
|
14804
|
یک توزیع گسسته با تابع جرم $$p(x;k) = \frac{k}{(x+k)(x+k-1)},\quad x = 1,2,\ldots$$ در صفحه ظاهر میشود 9 این مقاله برای $k=1$، توزیع Yule-Simon با $\rho=1$ است، اما من هیچ نمونه دیگری پیدا نکردم. اسم داره؟ آیا در زمینه های دیگر ظاهر می شود؟ آیا یک فرآیند تصادفی ساده وجود دارد که ممکن است آن را ایجاد کند؟
|
آیا این توزیع نامی دارد؟ یا یک فرآیند تصادفی که می تواند آن را ایجاد کند چیست؟
|
108430
|
من علاقه مندم که چگالی یک متغیر تصادفی پیوسته $X$ را تخمین بزنم. یکی از راه های انجام این کار که من یاد گرفتم استفاده از تخمین تراکم هسته است. اما اکنون من به یک رویکرد بیزی علاقه مند هستم که در امتداد خطوط زیر است. من در ابتدا معتقدم که $X$ از توزیع $F$ پیروی می کند. من $n$ را از $X$ می خوانم. آیا روشی برای بهروزرسانی $F$ بر اساس خوانشهای جدید من وجود دارد؟ میدانم که به نظر میرسد که من با خودم مخالف هستم: اگر من فقط به $F$ به عنوان توزیع قبلی خود اعتقاد دارم، هیچ دادهای نباید من را در غیر این صورت متقاعد کند. با این حال، فرض کنید $F$ $Unif[0,1]$ بود و نقاط داده من مانند $(0.3، 0.5، 0.9، 1.7)$ بود. با دیدن $1.7، بدیهی است که نمی توانم به قبلی خود پایبند باشم، اما چگونه باید آن را به روز کنم؟ **به روز رسانی:** بر اساس پیشنهادات در نظرات، من شروع به بررسی فرآیند دیریکله کرده ام. اجازه دهید از نمادهای زیر استفاده کنم: $ G \sim DP(\alpha,H)\\\ \theta_i | G \sim G\\\ x_i | \theta_i \sim N(\theta_i,\sigma^2)$ بعد از کادربندی مشکل اصلی خود به این زبان، حدس میزنم به موارد زیر علاقه مند باشم: $\theta_{n+1} | x_1،...، x_n$. چگونه یک نفر این کار را انجام می دهد؟ در این مجموعه یادداشت ها (صفحه 2)، نویسنده مثالی از $\theta_{n+1} | \theta_1،...،\theta_n$ (طرح اورن پولیا). من مطمئن نیستم که آیا این مربوط است. **به روز رسانی 2:** همچنین می خواهم بپرسم (بعد از دیدن یادداشت ها): چگونه مردم $\alpha$ را برای DP انتخاب می کنند؟ به نظر یک انتخاب تصادفی است. علاوه بر این، مردم چگونه یک $H$ قبلی را برای DP انتخاب می کنند؟ آیا باید از یک پیشین برای $\theta$ به عنوان قبلی برای $H$ استفاده کنم؟
| |
33918
|
آیا پهنای باند بهینه برای برآوردگر چگالی هسته مشتقات وجود دارد؟
|
|
14809
|
من یک مجموعه داده با دو متغیر دارم، یکی پاسخ بهینه و دیگری نسبت انتخاب آن پاسخ (تعداد دفعات انتخاب شده). من به نوعی می خواهم این دو را با هم مقایسه کنم و از نظر بصری چقدر به هم نزدیک هستند. آیا استفاده از رگرسیون خطی مناسب است؟ در اینجا دادهها آمده است: بهینه <- structure(list(احتمال = c(0.59، 0.6، 0.55، 0.55، 0.6، 0.58، 0.67، 0.68، 0.74، 0.33، 0.79، 0.42، 0.84، 0.42، 0.84، 0.84، 0.0. 0.07، 0.9، 0.1، 0.9، 0.1، 0.96، 0.2)، Chosing.colour = c(0.16، 0.21، 0.26، 0.53، 0.84، 0.89، 0.84، 0.947، 0.20، 0.947، 0.20، 0.5 0.8، 0.9، 0.8، 0.667، 0.3، 0.667، 0.333، 1، 0.667، 0.667، 0.583))، .Names = c(احتمال، Chosing.colour)، class = data.frame، names = c(NA, -24L)) یا به صورت csv دانلود کنید
|
چگونه داده ها را از دو متغیر تجسم کنیم: پاسخ بهینه و پاسخ انتخاب نسبت؟
|
14805
|
من دو نظرسنجی را در یک طرح مورد شاهدی ترکیب می کنم. نظرسنجی B از جمعیت مورد گرفته شده است، و شامل تمام متغیرهایی است که برای تجزیه و تحلیل نیاز دارم، به علاوه برخی موارد اضافی. نظرسنجی A از یک جمعیت کلی «کنترل» نمونه برداری می کند و شامل اکثر (نه همه) متغیرهایی است که من به آن نیاز دارم، به علاوه برخی موارد اضافی. برای نمادگذاری، فرض کنید برای تجزیه و تحلیل به مجموعه های متغیر X و Y نیاز داریم، متغیرهای Z متغیرهای اضافی مشترک بین دو مجموعه داده هستند و V و W متغیرهای دیگری هستند که به ترتیب فقط در A و B موجود هستند. بنابراین ساختار داده به این شکل است. متغیرهای سمت چپ | برای تجزیه و تحلیل مورد نیاز است. متغیرهایی که با دوره مشخص شده اند وجود ندارند. A:.Y|ZV. B:XY|Z.W سوال من: بسیاری از متغیرهای Z، V، و W میتوانند به عنوان پراکسی برای متغیرهای گمشده در X عمل کنند. آیا راهی برای نسبت دادن X در نمونه A با استفاده از این متغیرها وجود دارد؟ چه فرضیاتی باید داشته باشیم تا بتوانیم این کار را انجام دهیم؟ برای مثال، استراتژی که من ابتدا امتحان کردم این بود که X را روی Z در نمونه B رگرسیون کنم، سپس X پیشبینیشده را در هر دو نمونه تولید کنم، و آن مقادیر را برای X در رگرسیون لحاظ کنم. من فکر میکنم این تا زمانی کار میکند که فرض کنیم مدل X~Z در هر دو نمونه یکسان است و عبارات خطا در Y~X مستقل از Z هستند. اگرچه اینها مفروضات نسبتاً قوی به نظر میرسند و این مدل از دادهها استفاده نمیکند. در V و W. از آنجایی که برخی از بهترین پیش بینی کننده های X در این مجموعه ها هستند، این یک ضرر بزرگ است. ادامه: این مطالعه در زمینه مشارکت سیاسی است. مطالعات قبلی از این نوع اغلب از رویکرد متغیر ابزاری حداقل مربعات دو مرحلهای (2SLS-IV) استفاده کردهاند: ابتدا X را از روی متغیرهای ابزاری (مثلاً موجود در Z) تخمین میزنیم، سپس از مقادیر پیشبینیشده در رگرسیون نهایی (مثلا Y~X) استفاده میکنیم. . با این حال، هیچ مطالعه قبلی از رویکرد دو نمونه ای که من دنبال می کنم استفاده نمی کند. اگر متغیرهای پراکسی را با دقت انتخاب کنیم، مثال بالا با 2SLS-IV یکسان است. آیا استراتژیهای «انتصاب» وجود دارند که از V و W استفاده میکنند و تفسیر غیررسمی رویکرد 2SLS-IV را حفظ میکنند؟ یافتن یک استراتژی انتساب/ابزارسازی که در اینجا کار کند بسیار مفید خواهد بود. تنها جایگزین دیگر من برای این تحلیل، انجام دور دیگری (زمانگیر و پرهزینه) از جمعآوری دادهها است. پیشنهادی دارید؟
|
تعیین/ابزارسازی برای متغیرهای گمشده در یک مطالعه مورد-شاهدی
|
11878
|
من سعی می کنم یک مدل سلسله مراتبی را با استفاده از jags و بسته jags جا بدهم. متغیر نتیجه من y است که دنباله ای از آزمایشات برنولی است. من 38 سوژه انسانی دارم که در دو دسته P و M اجرا میکنند. بر اساس تحلیل من، هر سخنران احتمال موفقیت در رده P برابر با $\theta_p$ و احتمال موفقیت در رده M برابر با $\theta_p\time دارد. \theta_m$. من همچنین فرض میکنم که برخی فراپارامتر سطح جامعه برای P و M وجود دارد: $\mu_p$ و $\mu_m$. بنابراین، برای هر بلندگو: $\theta_p \sim beta(\mu_p\times\kappa_p, (1-\mu_p)\times\kappa_p)$ و $\theta_m \sim beta(\mu_m\times\kappa_m, (1- \mu_m)\times\kappa_m)$ که در آن $\kappa_p$ و $\kappa_m$ چگونه کنترل می کنند اوج توزیع در حدود $\mu_p$ و $\mu_m$ است. همچنین $\mu_p \sim beta(A_p, B_p)$, $\mu_m \sim beta(A_m, B_m)$. مدل jags من این است: model{ ## y = N آزمایشات برنولی ## هر بلندگو برای هر دسته یک مقدار تتا دارد برای(i در 1:length(y)){ y[i] ~ dbern( تتا[ بلندگو[i] ,category[i]]) } ## رده P دارای تتا پتتا است ## رده M دارای تتا پتتا است * Mtheta ## هیچ داده مشاهدهای برای Mtheta خالص ## ## Kp و Km نشان دهنده شباهت بلندگوها به یکدیگر ## برای Ptheta و Mtheta برای (j در 1:max(بلندگو)){ theta[j,1] ~ dbeta(Pmu*Kp, (1 -Pmu)*Kp) catM[j] ~ dbeta(Mmu*Km، (1-Mmu)*Km) تتا[j,2] <- theta[j,1] * catM[j] } ## Priors برای Pmu و Mmu Pmu ~ dbeta(Ap,Bp) Mmu ~ dbeta(Am,Bm) ## Priors برای Kp و Km Kp ~ dgamma(1,1/ 50) کیلومتر ~ dgamma (1,1/50) ## Hyperpriors برای Pmu و Mmu Ap ~ dgamma(1,1/50) Bp ~ dgamma(1,1/50) Am ~ dgamma(1,1/50) Bm ~ dgamma(1,1/50) } مشکلی که من دارم این است که وقتی این مدل را اجرا می کنم با 5000 تکرار برای تطبیق، سپس 1000 نمونه بردارید، Mmu و Km به مقادیر واحد همگرا شده اند. من آن را با 4 زنجیره اجرا کرده ام، و هر زنجیره ارزش یکسانی ندارد، اما در هر زنجیره فقط یک مقدار وجود دارد. من در برازش مدلهای سلسله مراتبی با استفاده از روشهای MCMC بسیار جدید هستم، بنابراین نمیدانم این چقدر بد است. آیا باید این را بهعنوان نشانهای در نظر بگیرم که این مدل ناامیدکننده است، مشکلی در مورد قبلیام وجود دارد، یا این برای دوره مشابه است؟ ویرایش: اگر مهم باشد، مقدار $\mu_m$ که به آن همگرا شد (میانگین در زنجیره ها) 0.91 و $\kappa_m$ 1.78 بود.
|
MCMC به یک مقدار واحد همگرا می شود؟
|
14496
|
> پست متقاطع از Biostar من در یک مرحله برای محاسبه نسبت شدت نرمال شده برای یون های گزارشگر i-TRAQ که در پروتئومیکس کمی استفاده می شود گیر کرده ام. در اینجا مثال کار شده از نحوه محاسبه آن است و شرح آن به شرح زیر است. نرمال سازی تنظیم شده مداین در پروتئومیکس کمی استفاده می شود. شدت یون گزارشگر از تمام طیف های پپتیدی شناسایی شده برای محاسبه نسبت های یون گزارشگر غیر عادی استفاده می شود. سپس از این نسبت ها برای محاسبه شدت نرمال تنظیم شده رسانه استفاده می شود. به عنوان مثال، تمام شدت های یون گزارشگر در نسبت غیر نرمال شده متوسط مربوطه آنها ضرب می شوند. هنگامی که این شدت های نرمال تنظیم شده متوسط محاسبه شد، نسبت های جدید محاسبه می شوند. اولین مرحله برای محاسبه نسبتهای غیر عادی، تقسیم 734,442,619,992 بر مقدار کانال اول یا «مرجع» یعنی 734 است که نسبتهای غیر عادی 1.00، 0.60، 0.84، 1.35 را به دست میدهد. من متوجه نشدم که چگونه شدت عادی تنظیم شده متوسط در مرحله دوم محاسبه شد. مرحله سوم دوباره واضح است، مقادیر شدت عادی تنظیم شده متوسط را بر 734 تقسیم کنید که به نسبت شدت نرمال شده 1.00، 0.94، 0.91، 1.42 می دهد لطفاً کسی می تواند مرحله دوم را توضیح دهد؟ پیشاپیش ممنون WoA
| |
23038
| ||
1687
|
مشکلی که میخواهم حلش کنم این است: «چگونه بفهمم چقدر باروت باید در یک کارتریج بریزم تا بتوانم به خودم احتمال خوبی برای تولید حداقل ضریب قدرت بدهم؟» من در USPSA/IPSC مسابقه میدهم که مستلزم آن است که راندهای رقیب حداقل ضریب قدرت را ایجاد کنند. ضریب توان به صورت FLOOR (متوسط سرعت گلوله * وزن گلوله) / 1000 محاسبه می شود که در آن سرعت بر حسب فوت بر ثانیه و وزن گلوله بر حسب دانه است. به استفاده از FLOOR توجه کنید. هیچ گرد کردنی انجام نمی شود. فقط بخش جدایی ناپذیر محاسبات استفاده می شود. هر چه ضریب قدرت بیشتر باشد، پس زدگی احساس شده بیشتر است و انجام سریع عکس های بعدی سخت تر است. از آنجایی که ورزش مربوط به شلیک گلوله ها با بیشترین سرعت و دقت ممکن است، هر چه میزان پس زدن کمتر باشد بهتر است. بخشهای مختلف این ورزش دارای ضریب قدرت متفاوتی هستند، اما بخش خاصی که من در آن مسابقه میدهم حداقل 165 ضریب قدرت دارد. گلولههایی که من استفاده میکنم گلولههای 180 gn هستند و حدود +/- 0.2 gn متفاوت هستند و معمولاً توزیع میشوند. چیزی که این مشکل را به یک مشکل جالب تبدیل میکند (و آن را از آمار ناچیز و مهارتهای احتمالی من حذف میکند) روش تست در طول یک مسابقه اصلی است. نمونه تصادفی 8 دور جمع آوری شد. از 8 گلوله، یک گلوله جدا می شود و گلوله برای استفاده در فرمول بالا وزن می شود. سپس 3 گلوله شلیک می شود و از سرعت متوسط استفاده می شود. اگر ضریب قدرت حاصل کمتر از حداقل باشد، 3 گلوله دیگر شلیک می شود. میانگین 3 سریعترین سرعت از 6 گلوله شلیک شده اکنون برای محاسبه ضریب توان استفاده می شود. اگر ضریب قدرت حاصله هنوز زیر زمین باشد، تیرانداز میتواند آخرین گلوله را جدا کرده و وزن کند یا آخرین گلوله را شلیک کند. اگر گلوله جدا شود و از گلوله اول سنگینتر باشد، برای محاسبه ضریب توان از وزن سنگینتر استفاده میشود. اگر آخرین گلوله شلیک شود، میانگین 3 سریعترین سرعت از 7 گلوله شلیک شده برای محاسبه ضریب توان استفاده می شود. برای اضافه کردن چاشنی به این مشکل، همه کرنوگرافهایی که برای اندازهگیری سرعت گلوله استفاده میشوند یکسان ساخته نمیشوند. صنعت کرنوگراف تصدیق می کند که می تواند تا +/- 4% واریانس بین کرنوگراف های مارک های مختلف وجود داشته باشد. جالبتر این است که قوانین اجازه میدهند که کرونوگراف مشابهی که برای یک مسابقه خاص استفاده میشود +/- 4% واریانس در طول مدت مسابقه داشته باشد. من نمی دانم که آیا هر یک از این واریانس های 4٪ به طور معمول توزیع شده اند یا نه. با کرنوگراف خودم، دسته هایی از یک باروت خاص را آزمایش می کنم تا سرعت متوسط و انحراف استاندارد را بدست بیاورم. پس از تجزیه و تحلیل های آماری بسیاری از دسته های مختلف، من تأیید کردم که این داده ها به طور معمول توزیع می شوند. روشی که من در حال حاضر حداقل بار خود را تعیین می کنم با یافتن باری است که به من 165 < FLOOR (هدف * 179.9 / 1000) می دهد که در آن هدف = (سرعت متوسط - انحراف استاندارد) * ضریب فاج. برای فاج فاج، من به طور غیرعلمی 1.04 را انتخاب کردم. 0.04 واریانس 4 درصدی بین کرونوگراف ها است، اما واریانس مجاز روزانه را نادیده می گیرد. من انتخاب کردم که فقط 1 انحراف معیار را کم کنم زیرا فقط 16٪ مواقع یک گلوله زیر زمین قرار می گیرد. به نظر من، احتمال اینکه همه 3 گلوله اول همه به زیر زمین بروند 0.16^3 است که کمتر از نیم درصد است. سؤالات خاص من این است: آیا می خواهم هدف را به روش صحیح محاسبه کنم؟ آیا فاج فاج من باید 4 درصد دیگر برای واریانس روزانه مجاز را شامل شود؟ آیا انحراف معیار 1 خیلی زیاد است یا خیلی کم؟ چگونه باید فرمول هدف خود را بنویسم؟ ویرایش: پس از پاسخ اولیه Srikant در زیر اجازه دهید چند سوال و یادداشت متمرکز اضافه کنم. من متوجه می شوم که خطا را با توجه به اندازه گیری هایم تشخیص می دهم. مشکل چندانی وجود ندارد، مگر اینکه با کنترل کیفیت یا تعمیر و نگهداری واقعاً شلخته باشم. درک من از احتمالات ضعیف است، بنابراین لطفاً با من در مورد احتمالات محاسباتی سؤال می کنم: 1) یکی از مسائل کلیدی که باید با آن برخورد کنم، این است که بفهمم چگونه به درستی احتمال را برای فرآیند آزمایش در 7 دور محاسبه کنم. در مورد 3 راند اول کاملاً واضح است: (احتمال اینکه راند زیر نقص پاور باشد)^3. چگونه برای 3 دور بعدی و دور آخر حساب کنم؟ من می توانم محاسبه احتمالات را با استفاده از ترکیب گلوله ها در بالا یا پایین زمین ببینم، اما کاملاً یک دودویی بالا یا پایین نیست. فرض کنید 6 گلوله شلیک شده است و میانگین بالاترین 3 گلوله 164.9 است. اگر دور آخر حداقل 165.2 داشته باشد، آنگاه میانگین بالاترین 3 راند از 7 عدد 165 خواهد بود. match chrono، و اینکه چگونه Match chrono اجازه دارد تا 4% روز به روز تغییر کند. آیا من فقط بدترین حالت را فرض می کنم و مطمئن می شوم که حداقل 8 درصد بالای 165 هستم -- یعنی دور من حداقل 179 ضریب توان را شلیک می کند؟ یا سعی می کنم نوعی توزیع نرمال را روی دو واریانس 4 درصد فرض کنم؟
|
آمار اعمال شده برای یافتن حداقل بار برای کف ضریب توان
|
95278
|
من می خواهم بیشترین توزیع آماری مرتبط را از داده های سینوسی پیدا کنم، برای مثال اجازه دهید مدل زیر را در نظر بگیریم $y[t]=A_1*sin(\omega_1*t+\phi_1)+A_2*sin(\omega_2*t+\phi_2)+ ....+A_p*sin(\omega_p*t+\phi_p)$+$z(t)$ که $z(t)$ سفید است نویز، و سایر پارامترها ثابت هستند، من این داده ها را تولید کرده ام و با استفاده از نمودار تابع matlab، نمودار تصویر زیر (B) را دارم که در آن B سیگنال داده شده توسط این مدل است، این مدل در 100 هرتز نمونه برداری شده و نتیجه در B نوشته می شود. vector  توزیع های زیادی وجود دارد، آنها در این لینک آورده شده اند http://www.mathworks.com/help/stats/generate-a-kernel-probability-density- texmîn-using-ksdensity.html اما کدام یک بهینه است؟ کدام یک با چنین مدلی مطابقت دارد؟ پیشاپیش متشکرم
|
توزیع آماری مرتبط داده ها را پیدا کنید
|
38038
|
من برخی از پستهای مربوط به انتخاب ویژگی و اعتبارسنجی متقاطع را خواندهام، اما هنوز درباره روش صحیح سؤالاتی دارم. فرض کنید من یک مجموعه داده با 10 ویژگی دارم و می خواهم بهترین ویژگی ها را انتخاب کنم. همچنین فرض کنید از طبقهبندیکننده یک نزدیکترین همسایه استفاده میکنم. آیا می توانم یک جستجوی جامع با استفاده از اعتبارسنجی متقاطع برای تخمین میزان خطا به عنوان راهنمای انتخاب بهترین ویژگی ها انجام دهم؟ چیزی شبیه کد شبه زیر برای i=1:( 2^10 -1) error(i)= crossval(1-nn, selected_fetures(i)) end i=find(erro(i)==min(error(i ) Selected_features= selected_features(i) آنچه که من سعی دارم در این شبه کد توضیح دهم این است که من اعتبار متقاطع را برای تمام ترکیبات ممکن از ویژگی ها اجرا می کنم. من فکر می کنم که این روش درست است، زیرا من در حال انجام یک جستجوی جامع هستم انتخاب؟
| |
111639
|
من مدلی برای تخمین اثر قیمت بنزین بر متغیر وابسته «Y» دارم. در مدل رگرسیون خطی تکهای (گجراتی 1995، ص. 519)، من یک متغیر ساختگی را وارد کردم که نشاندهنده قیمت گاز بیش از $3 است (قیمت گاز >\$3 $\rightarrow$ D\$3). علاوه بر متغیر اصلی قیمت بنزین (log of GP)، من یک اصطلاح تعاملی [log(GP)-log(3)] * D$3] را اضافه کردم. بنابراین مدل این است: log Y = a + beta1*log(GP) + beta2*D$3 + beta3*[log(GP)-log(3)] * D$3] + ... میخواهم بررسی کنم که آیا کشش در علامت \$3 تغییر می کند. نتایج نشان می دهد که «بتا1» از نظر آماری ناچیز است. با این حال، هنگامی که (0/1) را برای D\$3 برگردانم و یک متغیر «[log(GP)-log(3)]» ایجاد کردم که مقداری برای قیمت گاز < \$3 و 0 برای قیمت گاز > \$3 دارد، «بتا1» از نظر آماری معنیدار میشود. نه تنها ضریب برآورد شده بزرگتر می شود (مورد انتظار)، بلکه خطای استاندارد نیز کوچکتر می شود. Coef. Std. اشتباه t P>|t| TRY 1: beta1 | .0312231 .0273001 1.14 0.253 beta3 | 0.1484264 .0560878 2.65 0.008 TRY 2: beta1 | .1796495 .052143 3.45 0.001 beta3 | -.1484264 .0560878 -2.65 0.008 [ 0.0312 + 0.1484 = 0.1796 ] من می فهمم که از نظر ضرایب تخمینی چه خبر است. آیا کسی توضیحی برای علت این تغییر در اهمیت آماری «بتا1» دارد؟ مطمئناً مشاهدات با قیمت گاز < \$3 (72 obs) بیشتر از مشاهدات با قیمت گاز > \$3 (41 obs) وجود دارد. با توجه به اهمیت آماری بستگی به نحوه ایجاد متغیرها دارد، آیا راهنمایی برای انجام چه کاری در این شرایط وجود دارد؟ وقتی نتایج را تفسیر میکنم، میتوانم یا باید اثر مستقیم (بتا1) را بدون توجه به اهمیت آماری در Try1 لحاظ کنم؟ پیشاپیش از نظرات شما متشکرم
|
رگرسیون خطی / خطی تکه تکه: توضیح تغییرات در خطای استاندارد
|
38032
|
میانگین زمان بقا رگرسیون کاکس
|
|
76490
|
طبقه بندی باینری دو بعدی
|
|
38030
|
من برای کد برنامه نویسی زیر به کمک نیاز دارم: از قبل: من سعی کردم پارامترهای_Poisson_ را تخمین بزنم، اما _M.L.E._ و _M.C._ نتایج رضایت بخشی را از نظر واقعی به مورد انتظار نمی دهند، از نظر اکچوئری، مدل پواسون مشکلی ندارد. . بنابراین میخواهم از پارامترهای _Poisson- مانند این استفاده کنم: 0.9، 0.99، 0.999، 0.9999، ... همان با 0.8، ... در نهایت 0.1 ...... برای محاسبه این پارامترها استفاده میکنم: Poi_para <- numeric() sum <- 0 Poi <- function(n) {0.9 / 10^(n-1)} #<- من از این فرمول برای (i در 1:4) # 4 یا 14 یا 24 یا ...... کاملا راضی هستم { Poi_para[i] <- Poi(i) } Poi_para [1] 9e-01 9e-02 9e-03 9e-04 اکنون، من می خواهم مقداری جمع بندی انجام دهم، و برای این کار به کمک شما برای کد برنامه نویسی نیاز دارم: مقدار اول باید باشد: 0.9 ثانیه: 0.99 (یعنی مجموع 0.9 + 0.09) سوم: 0.9 + 0.09 + 0.009 (یا مجموع خط قبلی + 0.009) و غیره. Braun/Murdoch مشابه این کار را در صفحه انجام می دهند. 54 با حلقه «while()»، اما نمی توانم آن را به مشکل خود ترجمه کنم. آیا کسی می تواند به من کمک کند که چگونه جمع بندی را انجام دهم؟ سپس پارامترهای پواسون با داده ها و غیره به مدل پواسون وارد می شوند.
| |
95272
|
من چهار نقطه داده دارم: * جمعیت گروه آزمایش (testpop) * تبدیل در گروه آزمایش (testconv) * جمعیت گروه کنترل (controlpop) * تبدیل در گروه کنترل (controlconv) بدیهی است که می توانم نرخ تبدیل را برای هر گروه بدست بیاورم: * testrate = testconv / testpop * controlrate = controlconv / controlpop آنچه من در تلاش هستم find now این است که اگر همان تست دوباره اجرا شود، این احتمال وجود دارد که «تست» از «کنترل» تجاوز کند. متأسفانه، دانش محدود من در مورد آمار، استفاده از عبارات مناسب برای تعریف مشکل را برای من سخت کرده است. من تحت این تصور هستم که به دنبال نمره استاندارد و p-value هستم، اما کمی مطمئن نیستم که محاسبات صحیح برای بدست آوردن آن ها چیست. در مورد لبه های محاسبات نیز مطمئن نیستم. به عنوان مثال، اگر «testpop» و «testconv» هر دو 0 باشند، چه معنایی برای احتمال دارد؟ آیا این 50٪ خواهد بود زیرا فقط اطلاعات کافی وجود ندارد؟ اگر هر دو نرخ تبدیل یکسان باشند، چطور؟ هنوز 50 درصد؟ با تشکر :)
|
محاسبه احتمال بر اساس داده های آزمون / کنترل؟
|
29988
|
به عنوان مثال، من سه متغیر دارم: A، B، C. من همبستگی جزئی بین A و B را در حین کنترل C (که به صورت A~B[C] بیان میشود)، و همبستگی جزئی بین A و C را در حین کنترل B (بیان شده) تجزیه و تحلیل میکنم. به عنوان A~C[B]). نتیجه نشان می دهد که ضریب همبستگی A~B[C] 0.67، p-value <0.001 است، با این حال، p-value A~C[B] نیز <0.001 است، اما ضریب همبستگی کوچک است، فقط 0.02. آیا میتوانم توضیح دهم: در یک سطح متغیر C، A احتمالاً با B تعیین میشود تا C؟
|
چگونه نتیجه همبستگی جزئی را توضیح دهیم؟
|
78536
|
آزمون فرضیه تحت رگرسیون خطی تک معادله ای برای نرمال سازی ساده داده ها قوی است (به عنوان مثال تقسیم همه متغیرها بر میانگین مربوطه). من می بینم که همین امر برای سیستم های معادلات تخمین زده شده توسط SUR بدون هیچ محدودیتی صادق است. با این حال، زمانی که محدودیتها در میان باشد، چنین نیست. کسی میتونه توضیح بده چرا؟ و اگر در چنین مواردی باید عادی سازی انجام شود، چگونه باید انجام شود؟ پیشاپیش ممنون
| |
29981
|
بیایید یک مدل خطی داشته باشیم، برای مثال فقط ANOVA ساده: # تولید داده set.seed(1.234) Ng <- c(41, 37, 42) data <- rnorm(sum(Ng), mean = rep(c(-1) ، 0، 1)، Ng)، sd = 1) واقعیت <- as.factor(rep(LETTERS[1:3]، Ng)) m1 = lm(داده ~ 0 + واقعیت) خلاصه (m1) نتیجه به شرح زیر است: فراخوانی: lm(فرمول = داده ~ 0 + واقعیت) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -2.30047 -0.60414 -0.04078 0.54316 23ateefficients: 2.253 Estimate خطای t مقدار Pr(>|t|) factA -0.9142 0.1388 -6.588 1.34e-09 *** factB 0.1484 0.1461 1.016 0.312 factC 1.0990 0.1371 0.1371 8.015 --3-1. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.8886 در 117 درجه آزادی چندگانه R-squared: 0.4816، R-squared تنظیم شده: 0.4 F آمار: 36.23 در 3 و 117 DF, p-value: < 2.2e-16 اکنون من دو روش مختلف را برای تخمین فاصله اطمینان این پارامترها امتحان می کنم c = coef (خلاصه (m1)) روش # 1: محدودیت های CI از SE، با فرض توزیع نرمال cbind (کم = c[,1] - qnorm(p = 0.975) * c[,2]، high = c[,1] + qnorm(p = 0.975) * c[,2]) # 2nd روش confint(m1) ## سوالات: 1. توزیع ضرایب رگرسیون خطی برآورد شده چگونه است؟ معمولی یا $t$؟ 2. چرا هر دو روش نتایج متفاوتی دارند؟ با فرض توزیع نرمال و SE صحیح، انتظار دارم هر دو روش نتیجه یکسانی داشته باشند. خیلی ممنون! داده ~ 0 + واقعیت **ویرایش بعد از پاسخ**: پاسخ دقیق است، این دقیقاً همان نتیجه confint(m1) را خواهد داشت! روش سوم cbind(low = c[,1] - qt(p = 0.975, df = sum (Ng) - 3) * c[,2], high = c[,1] + qt(p = 0.975, df = مجموع (Ng) - 3) * c[,2])
|
آیا فواصل اطمینان برای ضرایب رگرسیون خطی باید بر اساس توزیع نرمال یا $t$ باشد؟
|
103016
|
چگونه می توانم یک مقدار p برای یک افکت اصلی در طراحی 2x2 بدست بیاورم؟ من 12 شرکت کننده و 2 دسته شرط مستقل دارم که آنها را با _letter_ و _case_ نشان می دهم. یعنی شرایط من **A**، **a**، **B**، **b** است. همه 12 شرکتکننده در موارد زیر شرکت میکنند: حرف موردی A a B b بنابراین، دادههای من میتواند این باشد: حروف اندازهگیری شرکتکننده 0 ET001 1.785561 a کمتر 1 ET002 1.202052 یک پایینتر 2 ET003 0.996961 یک پایینتر 3 ET004 ET805 1.14 کمتر 1.143536 یک پایین 5 ET006 1.219683 یک پایین 6 ET007 1.038158 یک پایین 7 ET008 1.042968 یک پایین 8 ET009 1.339907 یک پایین 9 ET010 1.038101 ET010 1.0341 پایین تر یک پایین 11 ET012 1.247102 یک پایین 12 ET001 1.637633 یک بالا 13 ET002 1.124755 یک بالا 14 ET003 0.978225 یک بالا 15 ET004 1.00306 aperper ET001 بالا 17 ET006 1.197491 بالا 18 ET007 1.059350 بالا 19 ET008 1.060859 بالا 20 ET009 1.146489 بالا 21 ET010 1.010 1.040 بالا 1.071372 a بالایی 23 ET012 1.279824 a بالایی 24 ET001 1.936211 b پایینی 25 ET002 1.231004 b پایینی 26 ET003 1.017406 b پایینی 27 ET1058 پایینی 27 ET006 1.099156 b پایین تر 29 ET006 1.212767 b پایین تر 30 ET007 1.024333 b پایین تر 31 ET008 1.014315 b پایین تر 32 ET009 1.448073 b پایین تر 33 ET093069 ET0101 پایین تر. 1.069086 b پایین 35 ET012 1.181156 b پایین 36 ET001 1.965226 b بالا 37 ET002 1.110897 b بالا 38 ET003 0.997396 b بالا 38 ET040401 ET01 1.162732 b بالا 41 ET006 1.239641 b بالا 42 ET007 1.075972 b بالا 43 ET008 1.022703 b بالا 44 ET009 1.303017 b بالا 4570800 b ET011 1.095592 b upper 47 ET012 1.219926 b upper من می خواهم یک p-value برای اثر _letter_ دریافت کنم. به این معنی که من می خواهم دسته های **A,a** را با دسته های **B,b** مقایسه کنم. برای این کار از چه آزمایشی استفاده کنم؟ ایده های من: * آزمون t نمونه مرتبط برای **A** الحاق با **a** در مقابل **B** الحاق با **b** (24 در مقابل 24 مقدار) * آزمون t نمونه مرتبط _p_ از **A** در مقابل **B** ضرب در آزمون t نمونه مرتبط _p_ از **a** در مقابل **b** راه صحیح چیست؟ و اگر پیشنهادات من ناقص است - چرا؟ (حداقل یکی از آنها است، زیرا آنها مقادیر مشابه اما نه یکسانی به من می دهند)
| |
29984
|
در طول پایان نامه کارشناسی ارشدم در حال کار بر روی / روی OCR برای ریاضی هستم. برای مقاصد آزمایشی به مجموعه عظیمی از معادلات ریاضی با فرمتهای مختلف (خانواده فونت، اندازه فونت، فرمتکننده معادله استفاده شده و غیره) نیاز دارم. از آنجایی که یک OCR باید تصاویر را ارائه کند و متن را بازیابی کند، این مجموعه ها به من کمک نمی کنند. من به بازسازی تصاویر فکر کردم، به عنوان مثال. اگر معادله به صورت TeX داده شود، اما این بدان معناست که من معادلات ظاهری تقریباً مشابهی دریافت می کنم. پیشنهادی دارید؟
|
کجا می توانم مجموعه بزرگی از معادلات ریاضی را به عنوان تصویر پیدا کنم؟
|
47592
|
چه اتفاقی میافتد وقتی بسیاری از نورونها وزن یکسانی دارند؟
|
|
29980
|
ویرایش: tl;dr: من میتوانم بسیاری از مسائل بهینهسازی را وادار کنم تا به شکل یک مسئله حداقل مربعات غیرخطی درآیند، اما آیا انجام این کار منطقی است؟ فرض کنید مقداری داده تجربی $P=\\{(x_i', y_i')\\}_{i\in I}$ داریم. یک مسئله حداقل مربعات غیر خطی (NLLSQ) مسئله ای است که در آن می خواهیم تابعی به شکل $$S(\beta)=\sum_{i\in I}\left[y_i-f_\beta(x_i)\ را کمینه کنیم. راست]^2$$ که در آن $(x_i، y_i) = (x_i'، y_i')$ و $f_\beta$ یک منحنی با پارامترهای $\beta$ است. به نظر می رسد بسیاری از مشکلات که به طور طبیعی مشکلات NLLSQ نیستند، می توانند به این صورت مجدداً فرموله شوند. 1. اگر $d(x,y)$ هر معیاری در $\mathbb{R}$ باشد، آنگاه $$S_1(\beta) = \sum_{i\in I}\left[d\left(y_i'، g_\beta(x_i)\right)\right]^2$$ تقریباً از شکل بالا است، با $y_i=0$ و $f_\beta(x_i) = d(y_i',g_\beta(x_i))$. متأسفانه، $f_\beta$ اکنون تابعی است، نه تنها از $x_i$ بلکه همچنین از شاخص $i$، اما اگر $x_i$ تکرار نشود، میتوانیم اجازه دهیم $h(x)$ هر تابعی باشد. که نقاط $(x_i'، y_i')$ را درون یابی می کند (مانند درون یابی خطی یا درون یابی spline)، و $$S_2(\beta) = \sum_{i\in را تعریف می کند. I}\left[d\left(h(x_i),g_\beta(x_i)\right)\right]^2$$ که مطمئناً اکنون به شکل صحیح است. (اگر $d$ واقعاً تابعی باشد صدق میکند، اما در مورد یک متریک جالبتر به نظر میرسد) 2. مربع همچنین میتواند در $d(x,y)$ جذب شود تا $S_3(\beta)$ به دست آید. = \sum_{i\in I} d\left(h(x_i),g_\beta(x_i)\right)$$ 3. حتی فراتر از این، میتوان این مجموع را روی یک نمایه کرد singleton برای به دست آوردن موارد زیر: $$S_4(\beta) = j_\beta(P)$$ که اکنون $I=\\{0\\}$, $(x_0, y_0) = (0,0)$ و $f_\beta(x)=\sqrt{j_\beta(P)}$ که $j_\beta$ بر حسب x ثابت است، اما میتواند یک تابع غیرمنفی دلخواه با توجه به $(\beta، P) $. بنابراین به نظر می رسد که می توانیم مسائل بهینه سازی کاملاً کلی را به عنوان موارد کاملاً منحط NLLSQ مطرح کنیم. من 2 تا سوال دارم * در کدام یک از این تنظیمات (در صورت وجود) هنوز منطقی است که NLLSQ _algorithms_ را برای حل مشکل اعمال کنید. (به طور خاص به لونبرگ-مارکوارت فکر می کنم). * در مواردی که الگوریتمهای NLLSQ بد عمل میکنند، چه الگوریتمهایی با هدف کلیتر در دسترس هستند؟
|
محدوده حداقل مربعات غیر خطی
|
108195
|
من نمی دانم که فرآیند محاسبه یک توزیع ابر هندسی چند متغیره با چندین نوع نیز چگونه خواهد بود. به عنوان مثال، فرض کنید شما یک دسته استاندارد 52 کارتی از کارت های بازی دارید. با این حال، 8 کارت اضافی اضافه شده است که هم قلب و هم بیل هستند. چگونه می توانم احتمال کشیدن 2 قلب و 2 بیل در 5 قرعه کشی را محاسبه کنم؟ من به توزیع فوق هندسی چند متغیره غیرمرکزی فیشر نگاه کردم، و فکر نمیکنم در اینجا کاربرد داشته باشد، زیرا احتمال کشیدن کارتهای خاص تغییر نمیکند، فقط احتمال ترسیم مجموعههای خاص تغییر میکند.
| |
29987
|
من یک الگوریتم خوشه بندی دارم که اگر از فاصله اقلیدینی به عنوان شباهت استفاده کنم، روی هر مجموعه داده ای به خوبی کار می کند. اگر آن را با یک شباهت کسینوس جایگزین کنم (کد من را در زیر ببینید)، نتایج انحطاطی می دهد (به هیچ وجه کار نمی کند). آیا من در کدنویسی این شباهت کسینوس خطایی انجام دادم یا این شباهت کسینوس است که طبیعتاً باید فقط روی نوعی داده کار کند؟! و به هر حال، این یک شباهت است، آیا تفاوتی بین آن و فاصله وجود دارد؟ در اینجا نمونه برداری از دو مجموعه داده است که من استفاده می کنم. مجموعه داده دوم ممکن است حاوی بردارهای تکراری زیادی باشد: نمونه هایی از مجموعه داده 1: http://pastebin.com/6iYcqgWF نمونه هایی از مجموعه داده 2: http://pastebin.com/4MtLXwp7 توجه: مربع فقط به این دلیل است که تابع زیر یک ریشه در فراخوانی شده است. برنامه اصلی .. // شباهت فاصله اقلیدسی مربع من float computeSqrDistance(vector<float> pos1, vector<float> pos2) { float sum = 0; for(unsigned int i = 0; i < pos1.size(); ++i) { sum += pow( (pos1[i] - pos2[i]), 2.0); } بازگشت مبلغ; } // شباهت فاصله کسینوس مربع من float computeSqrDistance(vector<float> pos1, vector<float> pos2) { float sum0 = 0, sum1 = 0, sum2 = 0; for(unsigned int i = 0; i < pos1.size(); ++i) { sum0 += pos1[i] * pos2[i]; sum1 += (pos1[i]*pos1[i]); sum2 += (pos2[i]*pos2[i]); } شباهت شناور = sum0 / ( sqrt(sum1) * sqrt(sum2) ); شباهت = 1 - (acos(similarity) / M_PI)؛ بازگشت (شباهت*شبهه); }
|
استفاده از شباهت کسینوس برای هیچ مجموعه داده ای کار نمی کند
|
94895
|
من در حال ساخت یک سیستم توصیه فیلتر مشارکتی مبتنی بر آیتم هستم. من ماتریسی از کاربران و اقلام دارم که در این مورد، محصولاتی هستند که خریده شده اند یا خیر (به عنوان مثال، باینری: «1» یا «0»). من میتوانم یک CF مبتنی بر آیتم را از این ماتریس همزمانی/تداعی بسازم (توجه داشته باشید: این ماتریسی از رتبهبندی محصول ('1'–'5') نیست). همچنین میخواهم اطلاعاتی درباره «دموگرافیک» (محل، نوع مرورگر، نوع دستگاه و غیره) به توصیهکنندهام اضافه کنم تا توصیهها را بهبود ببخشم، مخصوصاً برای افرادی که تازه وارد سایت شدهاند. آیا میتوان متغیرهای جمعیتشناختی را باینریزه کرد، با آنها مانند موارد جدید رفتار کرد (یعنی متفاوت از یک محصول نیست)، و سپس آنها را به عنوان ستونهای جدید در ماتریس وقوع اضافه کرد؟ به عبارت دیگر: `{user_1: {product_22: 1, product_38: 1, browser_firefox: 1, California: 1, etc}`. من میخواهم از این ماتریس (هم با محصولات و هم اطلاعات جمعیتشناختی برای اقلام) استفاده کنم تا معیارهای شباهت مورد را بدست بیاورم (مثلاً چقدر شبیه «product1» به «product2»؛ «Firefox_browser» به «product1») قابل استفاده است. برای توصیه ها همچنین ممکن است بخواهم فاکتورسازی ماتریس را روی این ماتریس اعمال کنم. به نظرم می رسد که این یک رویکرد معقول است، اما من نتوانستم مستنداتی در مورد کسی پیدا کنم که اطلاعات جمعیتی را به این روش ساده به توصیه کننده خود اضافه کند. هر فکری؟ با تشکر برای هر گونه کمک!
|
فیلتر مشارکتی مبتنی بر آیتم – آیا می توانید اطلاعات جمعیت شناختی را به ماتریس اولیه کاربر× آیتم اضافه کنید؟
|
54739
|
آیا الگوریتم EM برای مخلوط ها همچنان به مشکل داده های از دست رفته رسیدگی می کند؟
|
|
94892
|
من میدانم که Martingale برای یک سیستم سبک رولت چگونه کار میکند، اما آیا میتوان سیستم Martingale را برای کار در بازی با شانسهای مختلف تغییر داد؟ به طور خاص اگر شانس برنده شدن برای یک بازی 88٪ باشد، چگونه می توانم سیستم را برای این مورد تغییر دهم؟
|
اصلاح سیستم شرط بندی Martingale برای شانس های مختلف
|
85937
|
من سعی می کنم بفهمم که چگونه ftest را در 1.2(iv) برگه پیوست شده تفسیر کنم. فرضیه جایگزین چیست و فرضیه صفر چیست؟ آیا این تعبیر در اینجا این است که با توجه به t-value از آزمون F، این احتمال وجود دارد که این مقدار میانگین واقعی نباشد؟  به نظر می رسد یک ماشین حساب T آنلاین نشان می دهد که تقریباً 10٪ احتمال دیدن مقداری کوچکتر از -.933 و تقریباً وجود دارد. 10% احتمال دیدن مقداری بیشتر از 0.933، خطاهای استاندارد از میانگین.  آیا این به این معنی نیست که بیش از 10 درصد احتمال دارد که مقدار پیشنهادی 0.1 مقدار مناسب باشد، و که ما _باید_ باطل را رد کنیم؟ با تشکر * * * درست می گویید، من صفر و جایگزین را با هم مخلوط کردم. علاوه بر این، فرمول یادداشتها نشان میدهد که عدد تهی مقدار تفریقشده در شمارنده است که اگر زودتر آن را میدیدم، به من هشدار میداد.
| |
101537
|
یعنی آیا می توانم از GARCH یا ARCH برای مدل سازی چیزی مانند فروش، مصرف گاز، مصرف داده و غیره استفاده کنم یا GARCH/ARCH فقط برای کاربردهای مالی (یعنی سری بازگشت) است؟
| |
28057
|
بگویید من یک مشکل ساده یادگیری ماشینی مثل طبقه بندی دارم. با برخی معیارها در تشخیص بینایی یا صدا، من به عنوان یک انسان، طبقه بندی بسیار خوبی هستم. بنابراین من درک خوبی از یک طبقه بندی کننده دارم. اما با دادههای زیاد، یک نکته این است که نمیدانم طبقهبندیکنندهای که آموزش میدهم چقدر خوب است. این دادههایی است که من شخصاً طبقهبندیکننده خوبی نیستم (مثلاً، خلق و خوی یک فرد را از دادههای EEG طبقهبندی کنید). واقعاً نمی توان شهودی در مورد اینکه مشکل من چقدر سخت است به دست آورد. اکنون، اگر با مشکل یادگیری ماشینی مواجه شوم، میخواهم بدانم که چقدر میتوانم خوب باشم. آیا رویکردهای اصولی در این زمینه وجود دارد؟ چگونه این کار را انجام می دهید؟ داده ها را تجسم کنید؟ با مدل های ساده شروع کنید؟ با مدل های بسیار پیچیده شروع کنید و ببینید آیا می توانم بیش از حد مناسب کنم؟ اگر می خواهید به این سوال پاسخ دهید به دنبال چه هستید؟ چه زمانی تلاش را متوقف می کنید؟
|
بهترین عملکرد ممکن در یک مجموعه داده مورد انتظار است
|
94891
|
فرض کنید $N$ توپ وجود دارد، $l$ از آنها رنگهای منحصر به فرد دارند، $N-l$ از آنها سیاه هستند. $D$ افراد به طور یکنواخت به صورت تصادفی از $n$ توپ بدون جایگزینی نمونه برداری می کنند. نمونه گیری هر فرد مستقل از نمونه های دیگر است. بنابراین آنها توپهای $n$ را میگیرند، از آنها کپی میکنند و سپس نسخه اصلی را برای نفر بعدی برمیگردانند. حالا من می خواهم حداقل $k$ از $l$ توپ های رنگی منحصر به فرد را پیدا کنم. من قصد دارم از هر نفر یک به یک (به ترتیب تصادفی) تمام توپ های غیر سیاه خود را بپرسم. تعداد مورد انتظار افرادی که باید قبل از جمع آوری حداقل $k$ توپ های رنگی منحصر به فرد از آنها بپرسم چقدر است؟ اگر فقط از یک نفر بپرسم، احتمال اینکه حداقل $k$ جمع آوری کنم از توزیع دوجمله ای ($X \sim B(l, \frac{n}{N})$ می آید. من تصور میکنم این سوال به این صورت است که احتمال اینکه فرد حداقل $k$ از $l$ توپها را نمونه برداری کرده باشد چقدر است. جایی که من گیر نکردم این است که اگر اکنون از شخص دومی بپرسم، احتمال اینکه توپ های رنگی بیشتری پیدا کنم بستگی به تعداد و کدام توپ های رنگی دارد که بار اول پیدا کردم. من احتمالات اعداد کوچک را با دست نوشتم و به نظر می رسد $(zp)^k$ (که $p$ احتمال نمونه برداری از یک توپ رنگی خاص است) این احتمال را می دهد که توپ های $k$ پس از پرسیدن پیدا شده اند. $z$ مردم. من این نتیجه را با پرسیدن احتمال اینکه بین 2 نفر 2 توپ مختلف پیدا کنم چقدر است به دست آوردم. اگر از $p_{ij}$ به عنوان احتمال استفاده کنم که شخص $i$ به من توپ $j$ داده است، پاسخ این است: $P(\textrm{2 توپ بین 2 نفر}) = p_{11}p_{12} +p_{11}p_{22}+p_{21}p_{12}+p_{21}p_{22} = 4p^2$ استدلال من این است که این چهار عبارت عبارتند از چهار راه ممکن که من می توانم 2 توپ از 2 نفر بگیرم، هر راه مستقل است بنابراین می توانم آنها را جمع کنم. من این کار را برای چند عدد مختلف انجام دادم و نتیجه $(zp)^k$ را دیدم. من مطمئن نیستم که استدلال من درست باشد یا اینکه نتیجه من حتی در پاسخ به سؤال اصلی مفید باشد. الان یک بعدازظهر است که به آن خیره شدهام و فکر نمیکنم خیلی جلوتر بروم. خب، چه کار باید بکنم؟
|
تعداد مورد انتظار آزمایش قبل از k موفقیت که در آن چندین موفقیت در هر آزمایش رخ می دهد
|
76277
|
من میخواهم یک مدل رگرسیون لجستیک را در R برازش دهم. فرآیند جمعآوری دادهها منجر به مقدار نامتعادلی از رویدادها و غیر رویدادها میشود. من میتوانم از دادهها دوباره نمونهبرداری کنم تا شیوع اصلی رویدادها را دوباره ایجاد کنم، اما ترجیح میدهم از همه دادهها استفاده کنم. تابع glm() در R از وزن ها به عنوان وزن نمونه استفاده نمی کند، بلکه از وزن ها به عنوان یک عدد صحیح آزمایش استفاده می کند. از صفحه راهنما وقتی عناصر اوزان اعداد صحیح مثبت w_i هستند، که هر پاسخ y_i میانگین مشاهدات w_i واحد وزن است. برای اطلاعات بیشتر در مورد وزنه برداری در مقابل وزن آزمایشی، به این سؤال، رگرسیون لجستیک وزن دار موردی نیز مراجعه کنید. آیا بسته R برای محاسبه یک MLE وزنی نمونهبرداری وجود دارد یا گزینههای دیگری چیست؟
|
وزن فرکانس برای رگرسیون لجستیک در R
|
83197
|
رگرسیون لجستیک - نسبت شانس
|
|
44658
|
من از رگرسیون لجستیک برای انجام طبقه بندی باینری با آموزش، CV و مجموعه تست استفاده می کنم. مناسب ترین زمان برای انتخاب یک آستانه تمایز برای متعادل کردن نرخ خطای مثبت و منفی چه زمانی است؟ آیا باید از مجموعه CV برای تعیین آستانه مورد نظر استفاده کنم و سپس آستانه ثابت را در مجموعه تست برای ارزیابی عملکرد طبقه بندی اعمال کنم؟ یا اینکه آستانه را فقط با استفاده از مجموعه تست تعیین کنم؟
|
آستانه تبعیض رگرسیون لجستیک با اعتبارسنجی متقاطع
|
80739
|
من به دنبال محاسبه همبستگی بین دو متغیر x و y هستم که هر کدام توزیع نرمال عمومی دارند و i.i.d نیستند. توزیع نرمال به طور خاص این دو متغیر ساختار واریانس کوواریانس خاصی دارند، یعنی Var(x)=A و Var(y)=B. آیا محاسبه همبستگی بین x و y همانطور که در زیر نشان داده شده است هنوز خوب است یا باید از روش دیگری استفاده کنم؟ Cor(x, y) = Cov(x, y) / sqrt(Var(x)*Vary) در جزئیات من مجموعه ای از مقادیر شبیه سازی شده/واقعی را در متغیر x ذخیره کرده ام که به دلیل ماهیت مقادیر دارای ساختار خاصی است. - یک فرآیند تولید داده اساسی وجود دارد که باعث ایجاد ساختار واریانس کوواریانس Var(x)=A می شود. سپس سعی می کنم این مقادیر را بر اساس برخی داده ها که متغیر y را به من می دهد تخمین بزنم. با توجه به ماهیت x، ساختار زیرینی نیز در y وجود دارد که می توان آن را با Var(y)=B توصیف کرد. A و B به دلیل شرطی شدن در داده های مشاهده شده یکسان نیستند. من میخواهم Cor(x، y) را برای تأیید کیفیت تخمین ارزیابی کنم و میتوانم از یک رویکرد استاندارد ساده استفاده کنم، اما نمیدانم که آیا در اینجا با تلقی x و y به عنوان مشاهدات iid اشتباه میکنم.
|
همبستگی بین دو متغیر درون همبسته
|
47043
|
دادههای من: درون فاکتور: زمان - ثابت بین فاکتور: درمان - DV ثابت: Nmin تودرتو: نمونه (تصادفی)، تودرتو در Postion (ثابت)، تو در تو در مکان (ثابت). هر درمان در دو مورد از محل ها اعمال می شود. فرمول فعلی من این است: aov(Nmin~(درمان*موقعیت+موقعیت)*زمان) + خطا(نمونه/ ((موقعیت+موقعیت)*زمان))، داده) lme(Nmin~Treatment*(موقعیت+موقعیت)*زمان ، تصادفی=~1|نمونه، همبستگی=???) هدف من این است که تفاوت Nmin بین زمان را ببینم، درمان، موقعیت، مکان و تعاملات آنها. سوال من این است که آیا فرمول های من درست است؟ * آیا تودرتو به درستی بیان شده است؟ * آیا این تعامل را هم در نظر می گیرد؟ * آیا عبارت خطا صحیح است؟
| |
80738
|
من کنجکاو هستم که احتمال اینکه یک نفر در روز تولدش بمیرد چقدر است؟ مطمئنم راههای زیادی برای نزدیک شدن به این موضوع وجود دارد، به علاوه شنیدهام که اعداد واقعی به نرخ بالاتر در روزهای تولد اشاره میکنند، به همین دلیل من آن را اینجا میپرسم.
|
احتمال اینکه یک نفر در روز تولدش بمیرد چقدر است؟
|
92801
|
من یک سوال در مورد یادگیری ماشین و به طور خاص توابع هسته دارم. فرض کنید یک تابع هسته داریم، مثلاً $K(x)$، و همچنین یک تابع متمایز دیگر، مثلاً $K'(x)$. می خواهم بدانم آیا $K(K'(x))$ نیز یک تابع هسته است؟ یعنی اگر یکی خروجی یک تابع کرنل را به کرنل دیگر بدهد، به چه معناست؟ معنی داره یا نه سوال دیگر در مورد رفتار مورد انتظار ترکیب خطی هسته های شناخته شده مانند RBF، چند جمله ای و MLP است. فرض کنید هسته MLP 60 درصد از دقت را در یک کار طبقه بندی و RBF بازده 85 درصد دارد. آیا لزوماً RBF+MLP در مقایسه با آنچه که توسط MLP به دست میآید، دقت بهتری دارد؟
|
ترکیب آبشاری توابع هسته
|
92809
|
نقلشده عصارهای است از اصول و روشهای بررسی نمونه، Vic Barnett (2002) صفحه 34 مفهوم میانگینگیری احتمال فقط در رابطه با برخی از طرحهای نمونهگیری احتمالی تجویز شده مطرح میشود. بنابراین، برای نمونهگیری تصادفی ساده، مفهوم مقدار مورد انتظار $y_i$، مشاهده $ith$ در نمونه را داریم. یعنی $E[y_i] = \sum_{j=1}^{N} Y_j Pr(y_i=Y_j)=\frac{1}{N}\sum_{j=1}^{N} Y_j=\ bar{Y}$ نتیجهای که $Pr(y_i=Y_j) = \frac{1}{N}$ دارد زیرا تعداد نمونههای با $y_i=Y_j$ برابر است $\frac{(N-1)!}{(N-n)!}$ و هر کدام احتمال $\frac{(N-n) دارند!}{N!}$ * * * من مطمئن نیستم که برای خودم توجیه کنم که $y_i= Y_j$ $\frac{(N-1) است!}{(N-n)!}$، کتاب بیشتر در این مورد بحث نمی کند. از نظر نشانه گذاری، ما یک جمعیت $Y_1، Y_2، ...،Y_N$ و یک نمونه $y_1، y_2، ...، y_n$ داریم.
|
کمک به درک احتمال در نمونه گیری تصادفی ساده
|
92802
|
من به دنبال برنامهها و روشهایی برای آزمون برادلی-بلکوود هستم که معمولاً برای ارزیابی تکرارپذیری آزمون-آزمون مجدد استفاده میشود.
|
برنامه ها و روش تست بلک وود؟
|
95851
|
من سعی می کنم تعداد دفعات خرید یک محصول را بر اساس سابقه خرید قبلی آنها پیش بینی کنم. رویکردی که من تا کنون در پیش گرفتم این است: 1. با یافتن فاصله مدت هر خرید، یک بردار ایجاد کنید (Xnt - X(n-1)t 2. فاصله مدت به دست آمده را مرتب کنید 3. نتایج 10% بالا و 10% پایین را حذف کنید. بگوییم X 10 درصد است، سپس X = تعداد عناصر / 10 4. میانگین و انحراف استاندارد بردار باقیمانده را بیابید. 5. مدت زمان تقریبی: D = میانگین + یا - انحراف استاندارد 6. خرید بعدی: آخرین تاریخ خرید + مدت زمان تقریبی آیا راه دیگری برای مدل سازی پیش بینی خرید وجود دارد؟
|
چگونه می توانم تعداد دفعات خرید یک محصول را پیش بینی کنم؟
|
76274
|
میخواهم میانگینهای دو گروهی را که کنترل شدهاند تا ویژگیهای کلامی مشابهی داشته باشند، مقایسه کنم: دقت نسبت و میانگین زمان واکنش (RT) برای تصحیح پاسخها به عنوان دو متغیر وابسته. ابتدا، توجه و نوع وظیفه ثانویه متغیرهای مستقل هستند. آیا باید دادهها را به دو طرح فاکتوریل مختلط 2×2×2 مجزا با حالت اولیه (تکرار شده، غیر تکراری) دستکاری شده در آزمودنیها و توجه (توجه تقسیمشده، توجه کامل) و نوع وظیفه ثانویه (ادراکی، مفهومی) بین آزمودنیها ارائه کنم. ?
|
ANOVA فاکتوریل
|
114375
|
بگویید من یک مدل رگرسیون خطی برای شناسایی وابستگی های خطی بین متغیرها در داده های خود می سازم. برخی از این متغیرها متغیرهای طبقه ای هستند. 1. اگر بخواهم **مشارکت** یک **پیش بینی کننده** را ارزیابی کنم، چگونه آن را ارزیابی کنم؟ آیا می توانم ضرایب را مستقیماً مقایسه کنم؟ در پاسخ ها خواندم که |t| ارزش به ما حس قدرت این پیش بینی کننده را می دهد، این دقیقا چگونه است؟ 2. میدانم که برای یک دسته معین با مقادیر «K»، فقط متغیرهای ساختگی «K-1» ایجاد میشوند و این استاندارد برای جلوگیری از چند خطی بودن آشکار است، اما چگونه میتوانم سهم **همراه با مقادیر (پیش بینی کننده ها) کاهش یافته**؟ در اینجا مدل است: mod = smf.ols ('وابسته ~ first_category + second_category + object_price', data=df).fit() و خروجی mod.summary() نتایج رگرسیون OLS ================================================== ============================ واحد متغیر: وابسته R-squared: 0.227 مدل: OLS Adj. R-squared: 0.226 روش: حداقل مربعات F-آمار: 261.7 تاریخ: Thu, 04 Sep 2014 Prob (F-statistic): 0.00 زمان: 14:59:24 Log-Likelihood: -86099. تعداد مشاهدات: 17866 AIC: 1.722e+05 Df باقیمانده: 17845 BIC: 1.724e+05 Df مدل: 20 ================================================== ======================================== coef std err t P>|t| [95.0% Conf. داخلی] ---------------------------------------------- -------------------------------------------- Intercept 27.6888 1.017 27.235 0.000 25.696 29.682 first_category[T.o] -1.3250 0.848 -1.562 0.118 -2.987 0.337 first_category[T.v] -10.4557 1.125 -9.201 -9.201 - second_category[T.SL0004] 21.9987 0.808 27.213 0.000 20.414 23.583 second_category[T.SL0005] -2.3710 2.458 -0.965 0.3835 -7. دومین_رده[T.SL0006] 7.2716 3.609 2.015 0.044 0.197 14.346 second_category[T.SL0007] 20.1545 1.495 13.482 0.028 0.025 17. second_category[T.SL0008] 13.3333 0.794 16.788 0.000 11.777 14.890 second_category[T.SL0009] 18.5605 2.189 8.478 0.0001 0.0001 دومین_رده[T.SL0010] 6.7351 1.158 5.817 0.000 4.465 9.005 دسته دوم[T.SL0011] 2.6791 0.689 3.888 0.000 0.000 0.000 1.329T 1.329 1.329 ثانیه -0.8159 3.811 -0.214 0.830 -8.285 6.654 second_category[T.SL0014] 8.2550 11.359 0.727 0.467 -14.010 30.520 -14.010 30.520 30.520 30.520 SL10101. 1.320 0.187 -0.787 4.031 second_category[T.SL0017] -14.3253 2.642 -5.422 0.000 -19.504 -9.147 second_category[T.SL0018] 1.464301.4623 -4.777 7.741 second_category[T.SL0019] 20.0228 2.850 7.024 0.000 14.436 25.610 second_category[T.SL0020] -11.7478 8.63526 -1.63526 -1.1. 5.287 بودجه -0.5682 0.014 -40.828 0.000 -0.595 -0.541 object_price 0.0037 0.000 33.192 0.000 0.003 0.004 ساعت -0.92404 -0.92404 -1.002 -0.846 ============================================= ================================ Omnibus: 2997.054 Durbin-Watson: 1.001 Prob(Omnibus): 0.000 Jarque-Bera (JB): 4758.803 Skew: 1.183 Prob(JB): 0.00 Kurtosis: 3.892 Cond. شماره 1.59e+05 ========================================== ================================== هشدارها: [1] عدد شرط بزرگ است، 1.59e+05. این ممکن است نشان دهنده وجود چند خطی قوی یا سایر مشکلات عددی باشد.
|
ارزیابی سهم هر پیش بینی کننده در رگرسیون خطی
|
89521
|
من در هر دو مدل با جلوه های ترکیبی و R جدید هستم، بنابراین اگر این سوال کمی احمقانه است، ببخشید! من با انتخاب بهترین روش برای تجزیه و تحلیل داده هایم برای مطالعه ادراک گفتار مشکل دارم و از کمکی قدردانی می کنم! برخی اطلاعات در مورد داده ها: در این مطالعه، شرکت کنندگان به جملاتی با لهجه های مختلف و در سطوح مختلف نویز گوش می دهند و سپس آنچه را که می فهمند تکرار می کنند. بنابراین برای هر جمله تعداد کلمات به درستی تکرار شده و تعداد کل کلمات در هر جمله وجود دارد. من سعی می کنم بفهمم چگونه می توان این داده ها را در یک مدل اثر ترکیبی تجزیه و تحلیل کرد. فکر میکردم یک گلمر دوجملهای بهترین است، زیرا دادههای شمارش است، اما نمیدانستم که آیا این کار را درست انجام میدهم (به ویژه نسبت کلمات تکرار شده را به درستی مشخص میکنم)، بنابراین همان مدل را (بدون تعامل) در گلمر و lmer امتحان کردم. . glmer: > mixed.glmer<-glmer(formula=cbind(Correct, Max-Correct)~Accent+Noise_Factor+Accent+(1|Participant), data=noise.data, family=binomial) lmer: > all.lmer <-lmer(Correct/Max~Accent+ Noise_Factor+(1|شرکت کننده)، data=noise.data, REML=FALSE) سپس مدل ها را با هم مقایسه کردم: > Df AIC BIC logLik انحراف Chisq Chi Df Pr(>Chisq) > all.glmer 6 13441.2 13480.1 -6714.6 13429.2 > 2516.70.7 > all.lmer 2550.6 10879 1 <2e-16 *** که به نظر می رسد نشان می دهد که مدل lmer بسیار مناسب تر است، اما مطمئنا داده ها به خوبی با روش های خطی مدل سازی نمی شوند؟ سپس، یکی از همکاران پیشنهاد کرد که در تمام سطوح نویز برای هر لهجه میانگین بگیرم (بنابراین می توانم داده ها را با استفاده از روش های خطی پردازش کنم)، و تنها سه نقطه داده به ازای هر شرکت کننده ارائه کنم. بنابراین من این مدل را امتحان کردم، که به نظر می رسد نسبت به هر یک از مدل های بالا با همه داده ها تناسب بسیار بهتری دارد: > average.m1<-lmer(Average.score~Accent+(1|Participant)، data=mixed.model , REML=FALSE) > AIC BIC logLik انحراف > -102.1759 -93.1426 56.0880 -112.1759 با این حال، به نظر می رسد که این باعث دور ریختن بسیاری از داده ها می شود (مخصوصاً اکنون که فاکتور نویز ناپدید شده است)، حتی اگر مدل مناسب تر باشد - من فکر می کردم تمام هدف مدل های ترکیبی این است که از انجام مرحله میانگین اجتناب کنند، مانند من باید برای ANOVA. به نظر می رسد این بسیار شبیه راه آسان برای برون رفت از این مشکل است! بنابراین سؤالات من این است: 1. آیا باید تلاش کنم تا یک مدل را با کل مجموعه داده تطبیق دهم یا از راه آسان و میانگین آن استفاده کنم؟ 2. آیا من درست فکر می کنم که برای کل مجموعه داده ها، مدل lmer مناسب تر از مدل گلمر است یا این مانند مقایسه سیب و پرتقال است؟ 3. اگر من از مدل gmler استفاده می کنم، آیا DV را به درستی مشخص کرده ام؟ باید نسبت پاسخ های صحیح باشد (یعنی: صحیح/حداکثر). پیدا کردن دستورالعملهایی که واقعاً بتوانم آن را درک کنم، برایم بسیار سخت است! هر گونه کمکی بسیار قدردانی خواهد شد!
|
داده های شمارش دوجمله ای - از glmer، lmer یا فقط میانگین همه آن ها استفاده کنید؟
|
95854
|
من سعی می کنم تعداد دفعات خرید یک محصول را بر اساس داده هایی که دارم پیش بینی کنم. من دو چیز را باید در نظر بگیرم: 1- پیش بینی موفقیت خرید این محصول بر اساس فرکانس (0: ناموفق؛ >0: موفقیت) 2- پیش بینی زمان خرید این محصول می توانم مدلی برای پیش بینی موفقیت خرید این محصول بسازم. محصول، اما من باید زمان را نیز محاسبه کنم (ساعت / روز / ماه / سال چقدر موفق است)؟ اگر بتوانم زمان را نیز با همان مدل محاسبه کنم، دو متغیر خواهم داشت (پیشبینی_موفقیت،پیشبینی_زمان) حالا تعجب میکنم، نمیتوانم این فرمول را اعمال کنم زیرا مطمئن نیستم که هر دو متغیر مستقل نیستند. > Total_Proba_Success = Predicting_the_success * Predicting_the_time یکی از اساتید من گفت که باید در اینجا به استفاده از رگرسیون فکر کنم، شما چه مدلی برای حل این مشکل پیشنهاد می کنید؟ **به روز رسانی 3** من موفقیت خرید این محصول را بر اساس فرکانس ها پیش بینی کرده ام (0: ناموفق؛ >0: موفقیت). بر اساس نظر گاوین: باید این مقادیر پیشبینیشده را به پیشبینی گسسته تبدیل کنم، بگویم >= 0.5 == خرید، < 0.5 = فرض کنیم که من proba P دارم: پیشبینی گسسته موفقیت خرید محصول را محاسبه کنم. حالا باید بر اساس آن P، احتمال خرید یک کالا را بر اساس ساعت/روز/ماه محاسبه کنم. گاوین استفاده از GLM دو جمله ای را پیشنهاد کرد: GLM دو جمله ای، که در آن پاسخ بردار 0 و 1 است (به ترتیب نشان دهنده محصول خریداری نشده و محصول خریداری شده) و سپس بردارهای ساعت روز، روز هفته و ماه سال برای هر مشاهداتی که انجام دادید ضرایب تخمین زده شده از چنین مدلی تاثیر آن را بر حسب شانس ورود به سیستم (در صورت استفاده از پیوند لاجیت) برای هر یک از آن سه نشان می دهد. پیش بینی ها من گیج شدم! - من این را چالش برانگیز یافتم، در مجموعه داده من، زمان فقط در مواردی که محصول خریداری شده ذکر شده است. بنابراین، من فقط از زمان محصولات خریداری شده استفاده کردم، در حالی که در پاسخ، او اشاره کرد که باید از بردار 0 و 1 استفاده کنم (به ترتیب نشان دهنده محصول خریداری نشده و محصول خریداری شده است). * آیا باید تمام ساعات بین دو تاریخ را محاسبه کنم؟ و آن را در مدل من قرار دهم. به عنوان مثال بگوییم: 01-01-2014 -> 01-02-2014. -+----------------------------------------------- -------+ ساعت روز تعداد ماه محصولات خریداری شده -+----------------------------------------------- -------+ 12:00 01 01 2 در این مورد: آیا باید مدل خود را طوری تبدیل کنم که تمام ساعاتی را که ذکر نشده است با فرکانس 0 شامل شود. منظورم این است که اگر فقط از زمان مواردی استفاده کنیم که دارای خریداری شده است، آیا باید بردار پاسخ دیگری را در نظر بگیریم؟ نکته آخر، چرا به جای استفاده از مدلهای پیشبینی سری زمانی از GLM Binomial استفاده میکنیم؟ آیا به این دلیل است که ما زمان های گسسته داریم و نه زمان های پیوسته. -+----------------------------------------------- -------+ ساعت روز تعداد ماه محصولات خریداری شده -+----------------------------------------------- -------+ 00:00 01 01 00 01:00 01 01 00 02:00 01 01 00 03:00 01 01 00 04:00 01 01 00 05:00 01 01 00 06:00 01 01 00 07:00 01 01 00 08:00 01 01 00 09:00 01 01 00 10:00 10101010101 00 12:00 01 01 **02** 13:00 01 01 00 14:00 01 01 00 15:00 01 01 00 16:00 01 01 00 17:00 01 01:00 001 01:00 01:00 01 01 00 20:00 01 01 00 21:00 01 01 00 22:00 01 01 00 23:00 01 01 00 **به روز رسانی 4** بر اساس نظر گاوین: تعداد محصولات خریداری شده را با ساعت پاسخ مدل کنید ، روز و ماه به عنوان پیش بینی در Poisson GLM Just برای تایید: * آیا باید مشکل را جداگانه مدل کنیم؟ برای ساعتها: پاسخ پیشبینیکننده -+------------+--------------------------+ محصولات تعداد ساعت خریداری شده -+------------+--------------------------+ 00:00 01 01:00 00 برای روز: پیش بینی کننده پاسخ -+------------+-------------------------+ تعداد روز محصولات خریداری شده -+-- ----------+-------------------------+ 00 03 01 01 برای ماه ها: پاسخ پیش بینی -+------------+-------------------------+ تعداد ماه محصولات خریداری شده -+--- ---------+-------------------------+
|
Binomial GLM - پیش بینی زمان خرید یک محصول
|
89523
|
من رگرسیون چندگانه انجام دادم و برخی از مفروضات مانند نرمال بودن متغیر نتیجه نقض می شوند. آیا می توانم از bootstrap برای تصحیح مفروضات نقض شده استفاده کنم؟ یا انجام آن بی معنی خواهد بود!
|
رگرسیون چندگانه و بوت استرپینگ
|
114177
| ||
80735
|
موضوع تحقیق: تأثیر سبکهای رهبری (تحولکننده، مبادلهای و لیسهفر) بر شایستگیها و فرصتهای توسعه کارکنان. نوع داده: ترتیبی.(0=هرگز،1=به ندرت،2=گاهی اوقات،3=بیشتر مواقع،4=همیشه) (برای هر 5 متغیر) متغیرهای مستقل: رهبری تحول آفرین، رهبری تعاملی و متغیرهای وابسته به رهبری Laissez-faire : شایستگی های کارکنان، فرصت های توسعه کارکنان روش تحقیق : مطالعه موردی حجم نمونه: 38 رهبر (واحد تجزیه و تحلیل) تعداد کل شرکت کنندگان در تحقیق: 206 (خود زیردستان، سرپرستان و رهبران) تجزیه و تحلیل داده ها با استفاده از SPSS انجام شود.
|
مناسبترین تکنیکهای آماری برای تحلیل رابطه واقعی بین Three(03) IVs و Two(02) DVs چیست؟
|
51361
|
این ممکن است یک سوال اساسی باشد، اما میخواهم مطمئن باشم که کاری که انجام میدهم درست است. من مدلی دارم که نشان میدهد متغیر X باعث Y و Z میشود. وقتی Y را روی X یا Z روی X پسرفت میکنم، همانطور که انتظار میرود ضرایب مثبت و معنیدار را دریافت میکنم. حالا، وقتی Z را روی Y رگرسیون میکنم، هنوز یک ضریب معنیدار مثبت دریافت میکنم. ** سوال 1: ** آیا این یک سوگیری متغیر حذف شده است؟ **سوال 2:** آیا رگرسیون Z روی Y **و** X برای آزمایش اینکه آیا رابطه بین Z و Y جعلی است، مشروع است؟ **سوال 3:** اگر مشروع است و اگر من ضرایب مثبت مثبتی را در **** Y و X دریافت کنم به چه معناست؟ آیا این به این معنی است که X باعث Y و Z می شود، اما Y هنوز قدرت توضیحی حاشیه ای روی Z دارد؟ خیلی ممنون، دیو
|
علیت، سوگیری متغیر حذف شده است
|
51363
|
این یک فضای آماری جدید برای من است، پس لطفا بی اطلاعی من را ببخشید. من برخی از داده ها (N=180) دارم که به طور معمول توزیع نمی شوند (تأیید شده در Minitab، P<0.005) و می خواهم از داده ها برای دریافت محدودیت مشخصات +/- 4 سیگما استفاده کنم. اساساً میخواهم بگویم: میتوان انتظار داشت که 99.993666٪ قطعات دارای ابعاد اندازهگیری شده بین DATA_LSL و DATA_USL باشند. هیچ یک از توزیعهای Minitab با اطمینان مناسبی ندارند، و بنابراین متوجه شدم که گاهی اوقات میتوانید بوت استرپینگ را انجام دهید، که چیزی شبیه نمونهبرداری مجدد از دادههای خود برای دریافت ایدهای از عدم قطعیت در برخی از آمارها بر اساس 1000 نمونه مجدد تصادفی است. فکر می کنم درست متوجه شدم، اما ممکن است اشتباه کنم. آیا کسی می داند چگونه انحراف استاندارد را در Minitab بوت استرپ کنم؟ ماکرویی پیدا کردم که این کار را به اندازه متوسط انجام میدهد و میتوانم هر فاصله اطمینانی را که میخواهم قرار دهم. من فکر می کنم که این فقط به من در مورد میانگین می گوید، و نه انحراف معیار. برخی مقالات در مورد راهاندازی برای LSL/USL صحبت میکنند، اما چیزی که من نمیتوانم آن را به عنوان مثال/ماکرو در Minitab پیدا کنم. هر گونه کمک یا راهنمایی بسیار قدردانی خواهد شد :) با تشکر، مهندس مکانیک آدام هارتمن - Flextronics stat_stackexchange.15.arrakis@spamgourmet.com
|
بوت استرپ USL/LSL برای داده های غیر عادی
|
89529
|
من سعی می کنم بر اساس برخی ویژگی ها (مثلاً حافظه، دیسک و نام تجاری در حال حاضر) یک مدل قیمت گذاری روی دسکتاپ های قیمت خودکار پیاده سازی کنم. من برخی از دادههای تاریخچه فروش را از اینترنت جمعآوری کردهام و آنها بیشتر در قالب ذوب شده هستند. بگو، سه تراکنش در تاریخ انجام شده است. TransactionID Brand Memory Disk SoldPrice 1 Lenovo 1G 60G 100 $ 2 IBM NA 60G 150 $ 3 Lenovo 4G NA 200 $ ... و داده های موجود در من به این صورت است: SoldPrice ارزش ویژگی 100 دلار نام تجاری Lenovo 10G $10G نام تجاری IBM 150 دلار دیسک 60G 200 دلار نام تجاری Lenovo 200 دلار حافظه 4G من می دانم که می توانم از بسته reshape(2) در R استفاده کنم تا داده ها را به فرمت گسترده برگردانم که ممکن است با استفاده از هر روشی (رگرسیون خطی یا تصادفی همه کاره) یک مشکل یادگیری ماشین کامل باشد. جنگل). با این حال، احساس درونی من به من می گوید که آیا اگر چیزی را تغییر ندهم واقعاً برای الگوریتم بیزی مناسب خواهد بود؟ بنابراین می توانید به راحتی توزیع احتمال را برای هر شرایط بدست آورید. بنابراین محاسبه آسان تر خواهد بود. P(قیمت|نام تجاری*حافظه*دیسک) = P(قیمت|نام تجاری) * P(قیمت|حافظه) * P(قیمت|دیسک) سپس میتوانیم نموداری از احتمال را برای قیمتهای مختلف در مقابل مشخصات رایانه داده شده داشته باشیم. محاسبه بسیار آسان خواهد بود و در واقع دقت بهتری نسبت به سایر مدل ها خواهد داشت؟ من بیشتر در سمت برنامه نویسی هستم، بنابراین اگر به ریاضیات در مقطع کارشناسی ارشد اشاره می کنید، لطفاً جزئیات بیشتری ارائه دهید. ای کاش می توانستم به جای Stackoverflow پیشنهاد یا راهنمایی ریاضی در مورد فکرم را در اینجا دریافت کنم.
|
مدل قیمت گذاری برای کامپیوترهای رومیزی
|
51366
|
Liblinear (http://www.csie.ntu.edu.tw/~cjlin/liblinear/) از تخمین های احتمال پشتیبانی نمی کند. بگو من سه کلاس C1، C2 و C3 دارم. من میخواهم پارامترهای مدل را برای هر مورد «یک در مقابل استراحت» یاد بگیرم: C1 در مقابل C2&C3، c2 در مقابل C1&C3 و C3 در مقابل C1&C2 چگونه میتوانم این کار را انجام دهم؟
|
پارامترهای یادگیری liblinear one vs rest
|
51367
|
من از GLM مطلع هستم. در آنجا متغیر وابسته $Y$ فرض میشود که بر اساس توزیع خاصی تولید میشود و برای میانگین آن این است که $$ E[Y] = g^{-1}(X \beta). $$ آیا نظریه مشترکی برای مدلهای به شکل $$ E[Y] = g^{-1}(X \beta) $$ وجود دارد و ما توزیعها را برای اجزای $X$ فرض میکنیم (مثلاً $X_1$ گواسی است ، X_2$ گاما است)؟ من به یک رویکرد MLE در این زمینه فکر می کنم. من حدس می زنم این مربوط به GLM است اما شاید من چیزی را از دست داده ام. متشکرم
|
مدل آماری از توزیع
|
90020
|
من در حال حاضر سعی می کنم برخی از مدل های داده پانل را در R با استفاده از بسته PLM تخمین بزنم. این شامل تخمین مدل های ترکیبی پایه، اثرات ثابت و اثرات تصادفی است. بنابراین من از این کد استفاده می کنم: # read in data mydata<- read.csv2(Panel.csv) attach(mydata) # تعریف انحراف استاندارد متغیر وابسته <- cbind(sd) # تعریف متغیر مستقل x <- cbind(ratio1 , ratio2, ratio3, ratio4, mean) # دادهها را بهعنوان دادههای دادههای پانل تنظیم کنید <- plm.data(mydata, index=c(id,t)) # ادغام تخمینگر OLS ادغام شده <- plm(انحراف استاندارد ~ x, data=pdata, model= pooling) خلاصه (تلقیح) # بین برآوردگر بین <- plm (انحراف استاندارد ~ x، داده = pdata، مدل = بین) خلاصه (بین) # اولین تفاوت تخمینگر firstdiff <- plm(انحراف استاندارد ~ x، داده=pdata، model= fd) خلاصه (firstdiff) # جلوههای ثابت یا درون تخمینگر ثابت <- plm(انحراف استاندارد ~ x داده=pdata، مدل = در داخل) خلاصه (ثابت) # تخمینگر اثرات تصادفی تصادفی <- plm(انحراف استاندارد ~ x، داده = pdata، مدل = تصادفی) خلاصه (تصادفی) حالا مشکل اینجاست: من می توانم بدون هیچ مشکلی همه مدل ها را به جز مدل اثرات تصادفی تخمین بزنم. پس از وارد کردن فرمول تصادفی، R خطای زیر را ایجاد می کند: خطا در solve.default(crossprod(X.m)) : سیستم از نظر محاسباتی مفرد است: عدد شرط متقابل = 9.57127e-023 اولین حدس ها: * ترکیب های خطی در x ? اولین حدس می تواند این باشد که وابستگی های خطی دقیقی از متغیرهای برون زا در x وجود دارد. داده ها داده های ترازنامه هستند و من می خواهم انحراف استاندارد (y) یک موقعیت ترازنامه خاص را با سایر موقعیت های ترازنامه (یا نسبت موقعیت و مجموع ترازنامه) توضیح دهم. البته متغیرهای x به هم مرتبط هستند. به عنوان مثال برخی از نسبت ها با تقسیم بر میانگین محاسبه می شوند که آن نیز یک متغیر مستقل جداگانه است. و متغیر وابسته که انحراف معیار است نیز با استفاده از این میانگین محاسبه می شود. اما باز هم: نباید همبستگی دقیقی وجود داشته باشد. اما: اگر برخی از متغیرهای برونزای خود را حذف کنم، مشکل ناپدید می شود، اما باید آنها را در واقع لحاظ کنم. * پانل / NA نامتعادل؟ داده ها نامتعادل هستند و NA وجود دارد. خروجی جلوه های ثابت می گوید: n=16، T=18-40، N=455. احتمالاً داده های نامتعادل یا NA دلیل خطا هستند؟ Traceback-Code: > تصادفی <\- plm(standard deviaution ~ x, data=pdata, model= random) خطا در >sol.default(crossprod(X.m)): سیستم از نظر محاسباتی تک است: > شماره شرط متقابل = 9.57127e -023 traceback() 8: > solve.default(crossprod(X.m)) 7:solsol(crossprod(X.m)) 6: > diag(solve(crossprod(X.m)) %*% crossprod(X.sum)) 5: swar(object, data, > effect ) 4: ercomp.formula (فرمول، داده، اثر، روش = تصادفی. روش) 3: > ercomp(فرمول، داده، اثر، روش = روش تصادفی) 2: plm.fit(فرمول، > داده، مدل، اثر، روش تصادفی، روش inst.) 1: plm(انحراف استاندارد ~ > x، داده = pdata، مدل = تصادفی) آیا کسی وجود دارد که بتواند به من راهنمایی کند که این خطا واقعاً به چه معناست و به خصوص: چگونه مشکل را حل کنم؟ چگونه باید کد را تصحیح کنم تا به نتیجه برسم؟ خیلی ممنون
|
مدل جلوههای تصادفی با PLM: سیستم از نظر محاسباتی منفرد است - خطا؟
|
109749
|
آیا می توانم برای هر نقطه زمانی در ARIMA چندین فرد داشته باشم؟
|
|
51368
|
50 عنصر در اولین بار از فرستنده به گیرنده منتقل می شود که احتمال عدم دریافت هر عنصر توسط گیرنده 0.1 است و با احتمال 0.9 توسط گیرنده دریافت می شود. دوباره فرستنده همان 50 عنصر را برای بار دوم ارسال می کند اما این بار نمی دانم احتمال اینکه هر عنصر توسط گیرنده دریافت نشود چقدر است؟ مانند این، فرستنده در مجموع 9 بار این 50 عنصر را ارسال می کند. من می دانم که احتمال دریافت نشدن هر عنصر توسط گیرنده بار دوم 0.0494 و بار سوم 0.02284 است اما نمی دانم چگونه آمده است. هر کسی کمک کند بسیار قدردانی می شود. پیشاپیش ممنون
|
چگونه می توان احتمال حالت آینده را محاسبه کرد اگر احتمال فعلی توسط زنجیره مارکوف داده شود
|
61058
|
من در حال مقایسه دو مدل مختلف (مدل خطی چندگانه) هستم. اساساً متغیرهای توضیحی ثابت می مانند در حالی که متغیر پاسخ متفاوت است. $Model\ 1 - Y_1 = X_1+X_2+X_3$ $Model\ 2 - Y_2 = X_1+X_2+X_3$ من نتایجی از R برای هر دو مدل دارم. من فقط نمی دانم که آیا دو تا از این نتایج به عنوان مثال $F$-statistics، $p$-value، $R^2$، RSS قابل مقایسه هستند. بنابراین می توانم بگویم مدل 1 بهتر است زیرا p-value کوچکتر است. و غیره؟ از آنچه از کلاس یاد گرفتم، فقط مدل هایی را مقایسه کردم که متغیر پاسخ یکسان و متغیرهای توضیحی متفاوتی داشتند.
|
آزمون مدل رگرسیون F بر روی متغیرهای پاسخ مختلف؟
|
61054
|
آیا کسی می تواند به من بگوید که آیا کد R زیر (برای متغیرهای درون زا اقتصاد سنجی) برای آزمون هاسمن، آزمون ناکامورا، یا تست های دیگر است؟ etudes1 <- lm(EDUC ~ EXPER+EXPERSQ+SMSA+SOUTH+FATHEDUC+MOTHEDUC) تست <- lm(LWAGE ~ EDUC+EXPER+EXPERSQ+SMSA+SOUTH + باقیمانده ها(etudes1)) خلاصه (آزمون)
|
این چه آزمایشی برای متغیرهای درون زا است؟
|
6478
|
هنگام ساخت یک مدل CART (به طور خاص درخت طبقه بندی) با استفاده از rpart (در R)، اغلب جالب است که بدانیم اهمیت متغیرهای مختلف معرفی شده به مدل چیست. بنابراین، سوال من این است: ** چه معیارهای مشترکی برای رتبه بندی/اندازه گیری اهمیت متغیرهای شرکت کننده در یک مدل CART وجود دارد؟ و چگونه می توان این را با استفاده از R محاسبه کرد (به عنوان مثال، هنگام استفاده از بسته rpart)** به عنوان مثال، در اینجا یک کد ساختگی ایجاد شده است تا بتوانید راه حل های خود را روی آن نشان دهید. ساختار این مثال به گونهای است که واضح است که متغیر x1 و x2 «مهم» هستند، در حالی که (به نوعی) x1 مهمتر از x2 است (زیرا x1 باید در موارد بیشتری اعمال شود، بنابراین تأثیر بیشتری بر ساختار دادهها میگذارد، سپس x2). set.seed(31431) n <- 400 x1 <- rnorm(n) x2 <- rnorm(n) x3 <- rnorm(n) x4 <- rnorm(n) x5 <- rnorm(n) x <- داده. قاب (x1،x2،x3،x4،x5) y <- نمونه (حروف[1:4]، n، T) y <- ifelse(X[,2] < -1، b، y) y <- ifelse(X[,1] < 0، a، y) نیاز(rpart) fit <- rpart(y~., X ) plot(fit); text(fit) info.gain.rpart(fit) # تابع شما - به ما می گوید در مورد هر متغیر چقدر اهمیت دارد (ارجاعات همیشه مورد استقبال قرار می گیرند)
| |
15364
|
درک نمودارهای کنترل آماری
|
|
6477
|
من تست لوین و بارتلت را روی گروههایی از دادههای یکی از آزمایشهایم اجرا کردم تا تأیید کنم که فرضیه ANOVA را مبنی بر همگنی واریانسها نقض نمیکنم. من می خواهم با شما بچه ها بررسی کنم که من هیچ فرض اشتباهی نمی کنم، اگر اشکالی ندارد :D مقدار p که توسط هر دوی این تست ها برگردانده می شود، احتمال این است که داده های من، اگر دوباره با استفاده از آن تولید شده باشند. واریانس های مساوی، یکسان خواهد بود. بنابراین، با استفاده از آن تستها، برای اینکه بتوانم بگویم که فرضیه ANOVA در مورد همگنی واریانسها را نقض نمیکنم، فقط به یک مقدار p بالاتر از سطح آلفای انتخابی (مثلا 0.05) نیاز دارم؟ به عنوان مثال، با دادههایی که من در حال حاضر استفاده میکنم، آزمون بارتلت p=0.57 را برمیگرداند، در حالی که آزمون Levene (خوب آن را تست نوع Brown-Forsythe Levene مینامند) یک p=0.95 میدهد. این بدان معناست که مهم نیست از کدام تست استفاده می کنم، می توانم بگویم که داده ها با این فرض مطابقت دارند. آیا من اشتباه می کنم؟ با تشکر
| |
15362
|
من یک سوال سریع در مورد روش صحیح توصیف توابع واریانس در هنگام مقابله با ناهمسانی دارم. همانطور که من متوجه شدم، خطای آماری یک مدل نشان دهنده انحراف بین یک نمونه و مقدار تابع واقعی است. در عمل ما معمولاً مقدار واقعی تابع را نمی دانیم. در مقابل، باقیمانده ها تفاوت بین یک نمونه و مقدار تابع تخمینی است که ما می دانیم. حال، فرض کنید من یک مدل با ناهمسانی دارم و میخواهم آن را به صورت $$\varepsilon_i \sim N(0, \sigma^2 \times X_i) مدل کنم.$$ آیا درست است که بگوییم واریانس در آماری خطاها به عنوان تابعی از X$ مدل شده اند؟ یا، آیا بهتر است بیان کنیم که واریانس در باقیمانده ها به عنوان تابعی از X$ مدل شده است؟
| |
25327
|
در این بحث در مورد مدلهای probit در مقابل OLS، 'Conjugate Prior' اشاره میکند که probit و همه GLMها اجازه تعیین توزیع DV را میدهند. چگونه GLM با تعیین یک توزیع DV بهبود می یابد و پس از آن توزیع DV ضمنی برای OLS چیست؟
|
با گنجاندن توزیع متغیر وابسته در GLM چه چیزی می توان به دست آورد؟
|
61052
|
من یک کسب و کار کوچک را اداره می کنم و مشتاقم بازارم را کمی بیشتر بشناسم. بررسی بازار و ابزارهای مشابه عمدتاً به دلیل زمان و بودجه در دسترس من نیست. من نیازی به دادههای جامد سنگی ندارم، فقط چیزی که به من اجازه میدهد هر چند وقت یکبار کمی نمک به استدلالم اضافه کنم. آیا استفاده از قضیه بیز برای تعیین این باور که مشتریان من با افزایش بازار (جمعیت) حتی با افزایش رقابت من افزایش خواهند یافت، مناسب است؟ این فرض توزیع جغرافیایی همگن جمعیت مشتریان و رقابت را دارد که نادرست است، و فرض میکند که همه مشتریان به طور یکسان به سمت همه کسبوکارها کشیده میشوند، که باز هم (احتمالاً) نادرست است. اما حداقل به من نقطه شروعی فراتر از تصورات نادرست من می دهد. من یک آمارگیر نیستم که بدون شک بسیار مشهود خواهد بود و در تلاش برای درک این رویکرد با چندین سؤال مواجه شده ام. پیشاپیش بابت تعداد سوالات اینجا عذرخواهی می کنم. در درک محدود من، قضیه بیز ممکن است به من کمک کند تا باورهایم را در مورد رقابت، بازار، و غیره تعدیل کنم. من تعدادی سوال دارم: 1. آیا این استفاده مناسبی از قضیه بیز است؟ **مرحله 1: ساختن چند فرمول** فرض کنید: > $ P(C) = \text{احتمال تعداد مشتریان افزایش خواهد یافت} \\\$ $ P(M) = > \text{جمعیت احتمالی بازار افزایش خواهد یافت} \ \\$ $ P(K) = > \text{رقابت احتمالی افزایش مییابد} $ ... سپس فرض میکنم باید بتوانم چیزی شبیه به زیر بسازم: > $ P(C|M) = \frac{P(M|C)P(C)}{P(M)} $ و $ P(C|K) = \frac{P(K|C)P(C)}{P(K)} > 2 دلار. آیا این کار را درست انجام می دهم؟ :) ** مرحله 2: استفاده از داده های مناسب ** اعدادی که من دارم به شرح زیر است: * افراد حرفه ای در رشته من، در انگلستان: تقریباً 4500. * رشد در رشته من: تقریباً 1000 در سال. * انقباض در رشته من (به دلیل بازنشستگی و غیره): تقریباً 500 در سال. * تعداد افراد شهر من و سرعت رشد آن. * درصد جمعیت معمولی که از خدمات حرفه من استفاده می کنند: 10٪. * داده های ماه به ماه مشتری در کسب و کار من. من احتمالاً می توانم ارقام دقیق تری در مورد تعداد متخصصان در رشته خود به دست بیاورم. در مورد داده های مشتری، من ارقام 18 ماه گذشته را در یک صفحه گسترده دارم. در 9 ماه از 17 ماه تکمیل شده، تعداد مشتریان بیشتر از ماه قبل است. این به من نشان می دهد که: > $ P(C) = \frac{9}{17} = 0.53 $ با توجه به بازار (جمعیت)، فرض کنید پروژه های دولت محلی از 1,000,000 به 1,100,000 در سال آینده افزایش یابد. این به من نشان می دهد که: > $ P(M) = \frac{1100000}{1000000} = 1.1 $ در مورد رقابت، فرض می کنم: > $ P(K) = \frac{4500 + 1000 - 500}{ 4500} = 1.\dot{3} 3 دلار. ارقام ممکن است دقیق باشند، اما آیا من از آنها به درستی استفاده می کنم؟ **مرحله 3: نتایج** > $ P(C|M) = \frac{P(M|C) \cdot 0.53}{1.1} $ اینجاست که من تمام می شوم. چگونه می توانم $P(M|C)$ را تعیین کنم، احتمال افزایش بازار با توجه به اینکه مشتریان من نیز افزایش می یابند؟ از آنجایی که تجارت من تأثیر ناچیزی بر اندازه بازار دارد، آیا باید آن را به سادگی 100% در نظر بگیرم، یعنی 1؟ کسبوکار من نیز کمترین تأثیر را بر رقابت خواهد داشت (یا من فکر میکنم، اگرچه شاید کسبوکارهای محلی جدید با حضور آن منصرف شوند) بنابراین من فرض میکنم که به طور مشابه $ P(K|C) = 1 $. 4. آیا این یک رویکرد معقول است؟ یه جورایی مشکوکم نه اگر این رویکرد درست است، پاسخها به این صورت میشوند: > $ P(C|M) = \frac{1 \cdot 0.53}{1.1} = \frac{0.53}{1.1} = 0.4\dot{8}\dot{1 } $ > > $ P(C|K) = \frac{1 \cdot 1.\dot{3}}{1.1} = \frac{1.\dot{3}}{1.1} = > 1.\dot{2}\dot{1} 5 دلار. چگونه باید این دو باور را ترکیب کنم که با افزایش بازار، تعداد مشتریان افزایش مییابد اما رقابت نیز افزایش می یابد؟ از آنجایی که آنها احتمالات هستند، آیا می توانم آنها را به سادگی ضرب کنم؟ این نشان میدهد: > $ 0.4\dot{8}\dot{1} \cdot 1.\dot{2}\dot{1} = 0.584 $ با تشکر فراوان برای هر کمکی که میتوانید ارائه دهید، و باز هم بابت درخواست زیاد عذرخواهی میکنیم. از سوالات من کاملاً خوشحالم که به مطالب خواندنی مفید اشاره می کنم، اگرچه آمار و توانایی های ریاضی من (به وضوح) محدود است، بنابراین اطلاعات مناسب برای تازه کارها قدردانی می شود.
|
آیا باید از فرمول بیز برای تولید داده های ساده در مورد رقابت تجاری و بازار استفاده کنم؟
|
110272
|
من چند بار دارم و می خواهم آزمایش کنم که آیا آنها بر اساس توزیع نمایی توزیع شده اند یا خیر. من می توانم Kolmogorov-Smirnov را در پایتون با استفاده از 'scipy.stats.kstest(data, 'expon')' اعمال کنم. با این حال، من فرض میکنم که ابتدا باید دادههایم را بهنوعی عادی کنم، در غیر این صورت با توزیع نمایی با نرخ لامبدا ناشناخته مقایسه میشود. آیا این درست است و چگونه باید این کار را انجام دهم؟
|
یک سوال ساده لوحانه در مورد آزمون کولموگروف اسمیرنوف
|
110274
|
من متوجه شدم گزینه هایی برای تجزیه و تحلیل اقدامات مکرر مانند anova، gee، مدل مختلط وجود دارد. در اینجا من یک موقعیت چالشی دارم مانند تنها 4 معیار از 10 موضوع. من میپرسم، اگر مجبور باشم، بهترین راه برای تحلیل آن چیست؟ به این صورت که: df<-data.frame(y=rnorm(40, 10, 2), time=rep(1:4,10), age=rep(as.integer(rnorm(10, 20, 3)), هر=4)) هدف این است که ببینیم آیا y با گذشت زمان و سن در حال تغییر است یا خیر.
|
بهترین راه برای تجزیه و تحلیل اقدامات مکرر از موضوعات محدود؟
|
25322
|
من یک سری مدل را اجرا کردم تا ببینم کدامیک به بهترین وجه با متغیر پاسخ مطابقت دارد و به موارد زیر رسیدم (برای میانگین مدل همه مدلها با $\Delta AIC <2$). من در حال حاضر در حال یادگیری مدل ها هستم، بنابراین این خروجی یکی از اولین خروجی های من است: Estimate Std. خطای z مقدار Pr(>|z|) (تقاطع) 102.7190 5.5300 18.575 < 2e-16 *** HDr -1.5495 0.3451 4.490 7.11e-06 *** MF.vs.OF2 7.675 -7.675 0.04065 * NHDp -0.5145 0.2909 1.769 0.07695. NHDr -1.4164 0.4663 3.037 0.00239 ** Site2 6.1477 2.7400 2.244 0.02485 * tide.h.l2 -7.2546 2.6914 2.695 2.695 2.695 0.07-inc 0.07. 2.6187 2.233 0.02553 * HDp -0.3773 0.2732 1.381 0.16731 mean.for.rate -0.3966 0.3220 1.232 0.21807 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 ضرایب میانگین مدل کامل (با انقباض): (برق) HDr MF.vs.OF2 NHDp NHDr Site2 tide.h .l2 tide.inc.out2 HDp 102.718962 -1.549499 -5.734171 -0.239550 -1.416373 5.336532 -7.254627 -5.848553 -0.044795 mean.for.rate -0.081734 -0.081734 نسبی، HDInprate اهمیت: MF.vs.OF NHDp NHDr 1.00 0.00 0.12 1.00 0.21 0.75 0.47 1.00 Site tide.h.l tide.inc.out 0.87 1.00 1.00 من برآوردها را دیده ام که به عنوان یک مقدار مهم توضیح داده شده است و این بخش به عنوان یک مقدار مهم توضیح داده شده است. گزارش کردن (در رابطه با اندازه آنها و جهت آنها (+ve/-ve)). (مقاله ای که می خواندم بیان می کرد که آنهایی که اعداد بزرگتر یا کوچکتر داشتند بیشترین تأثیر را داشتند، حتی نقل می کرد که یکی 48٪ کمتر از دیگری است). با این حال، اگر این همان چیزی است که گزارش و مورد بحث قرار می گیرد، چرا اهمیت متغیر نسبی در رابطه با برآورد متفاوت است؟ به نظر می رسد که این نیز باید مورد بررسی قرار گیرد، اما مطمئن نیستم که مقادیر z و p چگونه از یک مدل محاسبه می شوند. بنابراین، من مایلم بدانم که در هنگام تلاش برای بحث در مورد یافته ها، کدام یک مهم تر است. اعتراف می کنم که دانش من محدود است، اما اگر بتوانم می خواهم این را به زبان ساده درک کنم. همچنین، من از دستور dredge برای یافتن تمام ترکیبهای مدل از یک مدل جهانی استفاده کردم و دریافتم که هفت مدل (از 1024) دارای $\Delta AIC <2$ بودند. من فکر می کردم که این یک برش خوب برای میانگین است، اما از نظر فنی می توان از هر مقدار دلتا به عنوان برش استفاده کرد. متشکرم.
|
مقادیر اهمیت متغیر نسبی در مقابل بزرگی اثر
|
25325
|
من از رگرسیون به عنوان پیش بینی کننده استفاده می کنم. فرض کنید رگرسیون من $y = a_1 x_1 + a_2 x_2 + a_3 x_3$ است. من متوجه شدم که در عمل، زمانی که پیشبینی من خیلی دور است، معمولاً به این دلیل است که یک عامل به طور قابل توجهی پیشبینی را منحرف کرده است. به عنوان مثال، $x_1، x_2$ هر دو کمی منفی هستند، در حالی که $x_3$ بسیار مثبت است. در این مورد (زمانی که عوامل با یکدیگر «اختلاف» دارند)، ترجیح میدهم پیشبینیکننده من کاری انجام ندهد تا اینکه یک پیشبینی «جنجالبرانگیز» را گزارش کند. در برنامه خاص من، مجبور نیستم هر بار یک پیشبینی ایجاد کنم (به سادگی میتواند «بدون سرنخی» را برگرداند)، اما وقتی این کار را انجام میدهم، ترجیح میدهم درست باشد. بهترین راه برای انجام این کار چیست؟ با تشکر
|
چگونه تشخیص دهیم که چه زمانی عوامل در رگرسیون خطی «مخالف» هستند تا پیشبینیهای پر سر و صدایی تولید کنند؟
|
97003
|
اساساً من تابعی برای نمونهبرداری کارآمد از یک متغیر در مدل خود دارم که میخواهم PyMC به همراه نمونهگرهای معمولی آن برای هر چیز دیگری از آن استفاده کند. از آنجایی که من این تابع را دارم، نیازی به تعریف احتمال گزارش برای متغیر نیز ندارم. آیا می توانم این کار را با استفاده از کلاس Stochastic و ایجاد یک تابع تصادفی انجام دهم؟ یا باید یک روش گام سفارشی ایجاد کنم؟
|
PyMC: چگونه می توانم از یک نمونه بردار سفارشی برای یک متغیر خاص در یک مدل استفاده کنم؟
|
31510
|
همبستگی متغیرها با مقادیر ویژه در تحلیل مولفه های اصلی
|
|
110279
|
اجازه دهید $x_t, \, t=1, \dots ,T$ سری زمانی باشند و فرض کنید که $x_t | \xi_t \sim N(\mu_{\xi_t},\sigma^2_{\xi_t})$، که $\xi_t \در [1, \dots,K]$ یک نشانگر گروه (یا رژیم یا حالت) است. پارامتر توزیع نرمال به مقدار $\xi_t$ بستگی دارد و فرض می کنیم که $P(\xi_t=k|\xi_{t-1}=j) = \pi_{jk}$. من میخواهم این را در چارچوب بیزی تخمین بزنم و سپس موارد قبلی $\pi_{j1}،\pi_{j2}،\dots، \pi_{jK} \sim دیریکله(\alpha_1،\dots، \alpha_k)$، $\mu_{k} \sim N(M,V)$ و $\sigma_{k}^2 \sim InvGamma(a,b)$. فرض می کنم $\xi_0=1$. من سعی می کنم بفهمم که چگونه از شرطی کامل $\xi_t, t=1,\dots,T$ نمونه برداری کنم. کسی می تواند به من توضیح دهد که آیا باید از الگوریتم فوروارد، عقب یا ویتربی یا چیز دیگری استفاده کنم؟ و چگونه از آن استفاده کنیم؟ من واقعاً در مورد همه این چیزها گیج شده ام :-). لینکی که در آن به خوبی توضیح داده شده باشد نیز پذیرفته می شود.
|
الگوریتم HMM-به جلو به عقب
|
97005
|
سوال .  من در مورد نحوه استفاده از اطلاعات برای پاسخ دادن به سوالات کمی گیج هستم. فکر می کنم برای پاسخ به این سوال باید از روش بیزی استفاده کنم اما مطمئن نیستم که درست می گویم یا خیر. آیا چگالی قبلی میانگین $\mathcal{N}(738,13.4^2)$ خواهد بود؟ سپس با $\mathcal{N}(692,42.5^2)$ داده شده در نیمه دوم سوال چه کار کنم؟ من واقعاً در استفاده از روش بیزی بیاطلاع هستم و برای درک این سؤال راهنمایی میخواهم.
|
با توجه به اطلاعات، احتمال اینکه میانگین تعداد نوشیدنی های فروخته شده در هفته بین 700 تا 720 باشد چقدر است.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.