_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
90983
آیا کسی در اینجا می تواند به من کمک کند تا بگویم که آیا در نحوه محاسبه پارامتر تنظیم برای مشکل آموزش شبکه عصبی جریمه شده اشتباه می کنم یا نه... با توجه به تابع هدف، من $N=100$ اجرا کردم و برای هر تنظیم انتخابی پارامتر، مجموعه بهینه ای از پارامترها را به دست آوردم (که مدل مورد نیاز را به من می دهد). با استفاده از هر مجموعه مدل، موارد زیر را ساختم: $\text{AIC} = \text{loss} + \text{complexity}$ و سپس با بدست آوردن کل مقادیر برای $\text{AIC}، چنین حداقلی را تعیین کردم. $ از $N=100$ اجرا می شود. سوال من این است: آیا این شبیه به حداقل کردن با استفاده از جستجوی شبکه ای است؟ اکنون فرض می‌کنم که حداقل یک مقدار نامزد برای پارامتر بهینه‌سازی به من می‌دهد.
استفاده از AIC یا BIC برای محاسبه پارامترهای تنظیم
2746
من می خواهم بتوانم به طور موثر ماتریس های همبستگی PSD (نیمه معین مثبت) را تولید کنم. با افزایش اندازه ماتریس هایی که باید تولید شوند، روش من به طور چشمگیری کند می شود. 1. آیا می توانید راه حل های کارآمدی را پیشنهاد دهید؟ اگر از نمونه هایی در Matlab اطلاع دارید، بسیار سپاسگزار خواهم بود. 2. هنگام تولید یک ماتریس همبستگی PSD چگونه پارامترهایی را برای توصیف ماتریس هایی که باید تولید شوند انتخاب می کنید؟ یک همبستگی متوسط، انحراف معیار همبستگی ها، مقادیر ویژه؟
چگونه می توان به طور موثر ماتریس های همبستگی نیمه قطعی مثبت تولید کرد؟
71921
من برای درک تأثیر یک ماتریس منفی واریانس کووارینس بر ضرر به کمک نیاز دارم. به عنوان مثال، من سه مجموعه داده از دست دادن A، B و C دارم. هر کدام دارای میانگین و واریانس هستند. هنگام محاسبه ماتریس واریانس کووارانس 3x3، دترمینان منفی است. هدف نهایی من شبیه‌سازی تلفات کل (A+B+C) با فرض توزیع و غیره است. خیلی ممنون!
پیامد ماتریس واریانس کوواریانس منفی بر ضرر
90392
من مدل ترکیبی خطی Generalized را با glmer در lme4 اجرا کردم. من از R نسخه 3.0.1 استفاده می کنم. متغیر وابسته من باینری است (درست یا غلط). و این نتایج من است: > glmer16 <- glmer(نتیجه ~ (1|مورد) + (1|گوینده) + مصوت + جنس + گربه + سگ + نوردهی + فرکانس + v00004 + v00024 + v00034 + v00044، داده = داده 1. قاب، خانواده = دوجمله ای) > خلاصه (glmer16) مدل ترکیبی خطی تعمیم یافته برازش حداکثر احتمال ['glmerMod'] خانواده: دوجمله ای (logit ) فرمول: تحقق ~ (1 | مورد) + (1 | گوینده) + مصوت + جنسیت + گربه + سگ + نوردهی + فرکانس + v00004 + v00024 + v00034 + v00044 داده: داده1 .frame AIC BIC logLik انحراف 881.7026 958.6402 -426.8513 853.7026 اثرات تصادفی: نام گروه ها Variance Std.Dev. Speaker (Intercept) 7.0291 2.651 item (Intercept) 0.5084 0.713 تعداد obs: 1800، گروه ها: speaker، 50; آیتم، 12 اثرات ثابت: برآورد Std. خطای z مقدار Pr(>|z|) (قطع) 15.52018 5.33634 2.908 0.00363 ** vowelhigh 0.16750 0.55907 0.300 0.76449 vowellow 0.7063194 0.7063194 0.7063194 0. sexmale 1.37080 1.03228 1.328 0.18420 cat -0.11460 0.09537 -1.202 0.22953 سگ -0.05460 0.03633 -1.503 0.134040 -1.503 0.134040. -0.258 0.79613 فرکانس -0.01709 0.15594 -0.110 0.91272 v00004 -2.83445 0.66039 -4.292 1.77e-05 *** v00024 0.2958 0.2958 0.59515 v00034 0.43899 0.58656 0.748 0.45421 v00044 0.36663 0.65130 0.563 0.57349 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 سؤالات من این است: 1) آیا v00004 نتیجه «اشتباه» یا «درست» را کاهش می‌دهد؟ و 2) معنی معنی دار در رهگیری چیست؟
90396
من دو مخزن بزرگ آب با غلظت ناشناخته باکتری دارم. من فقط یک نمونه از هر مخزن دارم: نمونه مخزن A: حجم نمونه $=V_1$، تعداد باکتری در نمونه $=N_1$ نمونه مخزن B: حجم نمونه $=V_2$، تعداد باکتری در نمونه $=N_2$ $N_1$ یا $N_2$ لزوما بزرگ نیستند. برای تخمین احتمال اینکه دو مخزن دارای غلظت های متفاوتی از باکتری هستند، از چه آزمون اهمیتی باید استفاده کنم؟
95533
مدتی است که تست معناداری انجام داده ام... باید 2 نمره متوسط ​​را با هم مقایسه کنم: نمره A در مقیاس 0-10 (مقیاس 11 امتیاز) 7.9 است. امتیاز B در مقیاس 0-10 (مقیاس 11 امتیاز) 8.2 است. اندازه نمونه ها A=70 و B=300 می باشد. چگونه می توانم تشخیص دهم که تغییر در میانگین نمره قابل توجه است یا خیر؟ با تشکر
تست اهمیت غیر باینری؟
108637
من از معیار chi-squared good-of-fit برای ارزیابی نمونه های یک مدل نسبتاً پیچیده استفاده می کنم، اما ارزیابی به طور باورنکردنی به تغییرات کوچک در مقادیر پارامتر مدل حساس است. درک من از تعریف و استفاده از این معیار مناسب بودن، و انتخاب من برای استفاده از آن، از کتاب دستور العمل های عددی، به ویژه فصل مدل سازی داده ها آمده است. من در محاسبات علمی (جایی که این کتاب یک مرجع استاندارد است) کار می کنم، نه آمار. من به‌عنوان یک تازه‌کار در ارزیابی مدل آماری به دنبال راهنمایی هستم که در مورد اینکه چه معیارهای مناسب‌تری برای وضعیت من مناسب‌تر است. در اینجا یک مثال ساده آمده است که همان حساسیتی را که من در مشکل خود می بینم را نشان می دهد. * مدل از یک محدوده وزن دار در خط اعداد است. دارای 3 پارامتر / درجه آزادی است: یک مقدار شروع، یک مقدار پایان و یک وزن. $(a,b,w)$ بردار پارامتری است که محدوده $[a,b]$ را با وزن $w$ نشان می دهد. * من 10 مشاهده از هر نمونه مدل معین انجام می دهم. هر مشاهده وزن ضربدر طول همپوشانی بین محدوده نمونه مدل و یک فاصله واحد طول خاص است. 10 مشاهدات من در فواصل $[0،1]، [1،2]، \ldots، [8،9]، [9،10]$ هستند. من قبلاً می دانم که نویز مشاهدات من گاوسی با واریانس واحد است. * نمونه مدل پنهان _ground-truth_ $(1,9,300)$ است. بنابراین 10 مشاهدات من عبارتند از $$(0.192، 298.839، 301.493، \ldots، 300.273، 300.144، 0.243)، $$ که فقط $(0، 300، 300، \ldots، 30$ به اضافه 300، . من دو نمونه مدل دارم که می خواهم در مورد آنها صحبت کنم: 1. نمونه _oracle_ $(1,9,300)$ این 10 مقدار را پیش بینی می کند: $$(0, 300, 300, \ldots , 300, 300, 0)$$ 2. نمونه _candidate_$(1,8.9,300)$ این 10 مورد را پیش بینی می کند مقادیر: $$(0, 300, 300, \ldots, 300, 270, 0)$$ آمار آزمون مجذور کای همانطور که من از آن استفاده می کنم این است: $$\sum_{i=1}^{10 } \left(\frac{\mathrm{obs}_i - \mathrm{pred}_i}{\sigma_i} \right)^2$$ جایی که $\sigma_i$ برای همه $i$ 1 شناخته می شود. همانطور که من متوجه شدم، معیار خی دو برای یک آمار آزمون $X$ $$Q(x) = \int_X^\infty f_k(x)\,\mathrm{d}x = 1 است - F_k(X)$$ که در آن $f_k$ پی دی اف مجذور خی با $k$ درجه آزادی و $F_k$ CDF است. $k$ تعداد مشاهدات منهای تعداد درجات آزادی مدل است: $k=10-3=7$ در این مثال. آمار آزمون برای نمونه اوراکل 9.45 و برای نمونه کاندید 918.10 است. مقادیر مناسبی که من دریافت می‌کنم 0.22 برای اوراکل (بسیار معقول) و 6${\cdot}10^{-194}$ برای نمونه کاندید است. به نظر من این انتخاب خاص معیار خوب بودن بسیار حساس است: نمونه کاندید با یک مقدار جزئی در فضای پارامتر خاموش بود، اما ماهیت مشاهدات من مقدار مجذور کای را به شدت افزایش می‌دهد، و بنابراین معیار مناسب من اساساً به فریاد ختم می شود: این نمونه مدل وحشتناک است! این معیار مقادیر معقولی را برای نمونه‌های مدلی که چیزی جز _بسیار دقیق_ درست هستند، ارائه نمی‌کند. این اندازه‌گیری به‌عنوان یک تابع هدف برای برازش مدل به خوبی کار می‌کند: نمونه‌های مدل کمتر صحیح، مقادیر مناسبی برازش را حتی پایین‌تر می‌دهند. اما زمانی که من در مورد عملکرد الگوریتم‌ها یا مدل‌های برازش متعدد گزارش می‌دهم، می‌خواهم از مقادیر برازش بهترین نمونه‌هایی که می‌توانم محاسبه کنم به عنوان معیارهای عینی برای مقایسه آنها استفاده کنم. و این مقادیر به طرز خنده‌داری کوچک هستند، به قدری کوچک که احمقانه به نظر می‌رسد که بر اساس مقایسه مثلاً 10^{-194}$ با 10^{-280}$، ادعا کنیم که یک تکنیک بهتر از دیگری است. تفسیر آماری آنها نیز کمی مشکوک است. این مقدار $Q(x)$ که من محاسبه می‌کنم یک نوع احتمال است و احتمالات کوچک بی‌معنی به نظر می‌رسند. بنابراین: برای توصیف مناسب بودن نمونه‌های این مدل، انتخاب بهتری از معیار (یا معیارها) چیست؟ و بنابراین می‌توانم از اشتباهاتم درس بگیرم: چه جنبه‌هایی از مشکل باید در وهله اول مرا به انتخاب آن معیار جایگزین سوق دهد؟ [با خطر طولانی‌تر کردن یک سؤال، پاسخ‌های من به سؤالات در نظرات آمده است:] من دقیقاً از این مقدار $Q(x)$ (در واقع منفی گزارش آن) به عنوان تابع هدف خود استفاده کرده‌ام. اتصالات مدل ماهیت مسئله باعث می‌شود که من فقط می‌توانم از اصلاح مدل تکراری برای تناسب استفاده کنم، و مثال (1,8.9,300) مشابه چیزی است که فرآیند برازش من ممکن است پس از تکرارهای زیاد پیدا کند: دقیقاً با حقیقت اصلی یکسان نیست. ، اما بسیار نزدیک است و اکثر مشاهدات را به درستی پیش بینی می کند. مشکل اساسی که من با آن روبرو هستم این است که، در حالی که نمونه اوراکل قطعاً مناسب تر از نمونه کاندید است، نمونه کاندید نیز بسیار خوب بود، و با این حال Q(x) ادعا شده فوق العاده پایین است. حس من از بسیار خوب از چند زوایای مختلف ناشی می شود: * دو مورد از سه مقدار پارامتر دقیقاً درست بودند و سومی کمتر از 10٪ خاموش بود. * نه مقدار از ده مقدار پیش‌بینی‌شده درست بود (به خوبی در محدوده، برای هر مشاهده، مشاهده شناخته شده
معیار سنجش تناسب بیش از حد حساس: کجا اشتباه کردم؟
114821
من یک مجموعه داده متشکل از پاسخ های یک سیستم به تنظیمات مختلف تست دارم. هر پیکربندی آزمایشی مربوط به مجموعه پارامترهای متفاوتی است. این پارامترها می توانند مقادیر پیوسته یا باینری داشته باشند. من باید بفهمم که کدام پارامتر (یا کدام ترکیب) بیشترین تأثیر را بر پاسخ سیستم دارد. پاسخ یک امتیاز بین 0-100 است. از چه روش هایی می توانم برای این تحلیل آماری استفاده کنم؟
تشخیص تأثیر پارامترها
101329
من به مسئله ای علاقه مند هستم که در آن باید توزیع یک ماتریس احتمالات را استنباط کنم، $\matrix{\Theta}$، که در آن ردیف ها و ستون ها باید به 1 جمع شوند و هر ورودی در محدوده 0 و 1 باشد. اساساً من می خواهید عملکرد مجموعه ای از طبقه بندی کننده ها را تجزیه و تحلیل کنید که در آن $\theta_{ij}$ احتمال این است که یک الگوی متعلق به کلاس $i$ به عنوان متعلق به کلاس طبقه بندی شود. $j$ (برای سادگی، فرض می‌کنم که $\matrix{\Theta}$ برای همه طبقه‌بندی‌کننده‌ها یکسان است). مشکل این است که من کلاس واقعی هیچ یک از مشاهدات را نمی دانم، بنابراین می خواهم $\matrix{\Theta}$ را از برچسب های اختصاص داده شده توسط هر طبقه بندی کننده استنتاج کنم (اکثر مشاهدات بر اساس دو یا دو طبقه بندی شده اند. بیشتر از طبقه بندی کننده ها) به شیوه بیزی. بنابراین باید بتوانم توزیعی را روی $\matrix{\Theta}$ تعریف کنم. من به نوعی محصول توزیع دیریکله فکر می کردم که هر سطر و هر ستون را نشان می دهد. برای هر پیشنهاد بهتری ممنون می شوم.
80268
توجیه تجربی برای یک قانون خطای استاندارد هنگام استفاده از اعتبارسنجی متقابل
110706
ماشین بولتزمن محدود یک مدل یادگیری مولد است - اما همچنین بدون نظارت است؟ یک مدل مولد احتمال مشترک P(X,Y) را می آموزد سپس از قضیه بیز برای محاسبه احتمال شرطی P(Y|X) استفاده می کند. با این حال، RBM یک استخراج کننده ویژگی بدون نظارت است. Y وجود ندارد! چگونه می توان گفت که RBM یک الگوریتم بدون نظارت و در عین حال مولد است؟ پیشاپیش ممنون
چرا ماشین بولتزمن محدود شده هم بدون نظارت و هم مولد است؟
71929
بگویید می‌خواهم میانگین $\mu\in [0, 10] $ برخی از داده‌های گاوسی $\mathbf{x}$ را با واریانس شناخته شده $\sigma^2 = 1$ با استفاده از MCMC تخمین بزنم. معمولاً من از یک پیشین مانند $\mu \sim \mathrm{Uniform}(0,10)$ استفاده می‌کنم و در نهایت نمونه‌های $\hat{\mu}$ را به این شکل توزیع می‌کنم (که در آن $\mu = 5$ است. ). این تقریباً همان چیزی است که من انتظار دارم، و خوب کار می کند. از آنجایی که نمونه‌های $\hat{\mu}$ نیز گاوسی هستند، به نظر می‌رسد که می‌توانم میانگین و واریانس _ir_ را با نمونه‌برداری مستقیم از آنها با استفاده از پیشین‌هایی مانند این، دقیقاً تخمین بزنم: * $\mu \sim \mathrm{Norm} (\mu_0, \sigma^2_0)$ * $\sigma^2_0 \sim \mathrm{یکنواخت}(0, 2)$ * $\mu^2_0 \sim \mathrm{Uniform}(0, 10)$ من امیدوار بودم که نمونه‌هایی از $\mu_0$ و $\sigma^2_0$ بدست بیاورم که در حول میانگین ($\ تقریباً 5$) متمرکز شده بودند و واریانس ($\حدود 0.02$) $\hat{\mu}$، اما در عوض هیچکدام دقیق‌تر نبودند. $\mu_0$ بسیار پخش شده است و $\sigma^2_0$ تقریباً یکنواخت است. آیا مجموعه بهتری از پیشین/هایپرپیشتر وجود دارد که برای نمونه گیری در مواردی مانند این مناسب تر باشد؟ من گمان می کنم که استفاده از هایپرپریورهای یکنواخت و مستقل ممکن است مشکل باشد، اما مطمئن نیستم. * * * این کد PyMC من BTW است (احتمالاً یک اشکال وجود دارد): از __future__ import division import pymc به عنوان mc از pylab import * # ایجاد داده آزمایشی N = 50 mu = 5 داده = randn(N) + mu # شروع متغیرهای PyMC mu_0 = mc.Uniform('$\mu_0$', 0, 10) sigma_0 = mc.Uniform('$\sigma_0^2$', 0, 2) mu = mc.Normal('$\mu$', mu_0, 1/sigma_0) data = mc.Normal('data', mu, 1, مشاهده شده=درست، مقدار=داده) # نمونه mcmc = mc.MCMC([داده، mu، mu_0، sigma_0]) mcmc.sample(iter=50000، burn=5000) # plot figure() برای i, v در enumerate(('$\mu$', '$\mu_0$', '$\sigma_0^2$')): x = mcmc.trace(v)[:]. reshape(-1) subplot(1, 3, i+1) hist(x, 50) title(v) نمایش ()
مقدمات غیر اطلاعاتی خوبی برای تخمین پارامترهای گاوسی با MCMC (با استفاده از PyMC)؟
71924
_پست متقاطع از SO._ من سعی می کنم نتایج bgtest را از بسته R lmtest تکرار کنم. من از مجموعه داده زیر استفاده می کنم: rs month r20 1 2.365042 1952m3 4.33 2 2.317500 1952m4 4.23 3 2.350833 1952m5 4.36 4 2.451833 1952m3 1952m7 4.36 6 2.468417 1952m8 4.11 7 2.485583 1952m9 4.20 8 2.415125 1952m10 4.19 9 2.3898215 14141414. 1952m12 4.22 11 2.396042 1953m1 4.13 12 2.401042 1953m2 4.10 13 2.400833 1953m3 4.04 14 2.31935350m 2.366708 1953m5 3.95 16 2.365625 1953m6 4.02 17 2.348583 1953m7 3.98 18 2.334375 1953m8 3.214 1953m8 3.214 1394 20 2.097375 1953m10 3.80 21 2.097708 1953m11 3.78 22 2.130583 1953m12 3.83 23 2.096000 1954m1 1972000 1954m1 4040 1954. 3.79 25 2.115083 1954m3 3.76 26 2.047333 1954m4 3.71 27 1.713875 1954m5 3.65 28 1.606167 1956.1956 1956.1956. 1954m7 3.35 30 1.613292 1954m8 3.36 31 1.621083 1954m9 3.35 32 1.587667 1954m10 3.35 33 1.6139438. 1.865917 1954m12 3.51 35 2.356417 1955m1 3.64 36 3.810000 1955m2 3.85 37 3.797000 1955m3 3.894506.301. 39 3.937000 1955m5 4.21 40 3.969000 1955m6 4.33 41 3.971000 1955m7 4.47 42 4.005000 1955m8 4.805 4.84 4.84 4.68 44 4.071000 1955m10 4.50 45 4.104000 1955m11 4.64 46 4.072000 1955m12 4.70 47 4.071000 4.071000 1955m12 4.071000 14084. 1956m2 4.87 49 5.165000 1956m3 5.02 50 5.008000 1956m4 4.85 51 4.955000 1956m5 5.12 52 5.11356006m 4.977000 1956m7 5.27 54 4.027000 1956m8 5.20 55 5.091000 1956m9 5.35 56 4.991000 1956m10 5.301000 5.301025 5.50 58 4.858000 1956m12 5.29 59 4.553000 1957m1 4.91 60 4.148000 1957m2 4.93 61 4.099000 19504 19506. 1957m4 5.11 63 3.921000 1957m5 5.43 64 3.854000 1957m6 5.55 65 3.845000 1957m7 5.60 66 4.11957576. 6.605000 1957m9 5.98 68 6.603000 1957m10 5.84 69 6.459000 1957m11 5.89 70 6.375000 1957m12 5.817 5.811 5.66 72 6.014000 1958m2 5.65 73 5.523000 1958m3 5.64 74 5.179000 1958m4 5.45 75 4.816000 1954000 195406. 1958m6 5.45 77 4.159000 1958m7 5.46 78 3.760000 1958m8 5.49 79 3.625000 1958m9 5.36 80 3.515840001 3.305000 1958m11 5.36 82 3.152000 1958m12 5.36 83 3.107000 1959m1 5.20 84 3.276000 1959m2 5.202 5.208 5.201 5.24 86 3.283000 1959m4 5.22 87 3.382000 1959m5 5.28 88 3.452000 1959m6 5.18 89 3.484000 195308 19508. 1959m8 5.21 91 3.472000 1959m9 5.33 92 3.386000 1959m10 5.06 93 3.400000 1959m11 5.04 94 3.61951. 4.538000 1960m1 5.34 96 4.554000 1960m2 5.43 97 4.621000 1960m3 5.53 98 4.652000 1960m4 5.552000 1960m4 5.559 9960 100 5.681000 1960m6 5.92 101 5.546000 1960m7 5.97 102 5.588000 1960m8 5.95 103 5.565000 1960m1960 1960 1960m1 1960m10 5.97 105 4.639000 1960m11 5.97 106 4.349000 1960m12 6.01 107 4.165000 1961m1 6.01 1094 1094 10904. 109 4.485000 1961m3 6.05 110 4.407000 1961m4 6.01 111 4.436000 1961m5 6.08 112 4.537000 1936000 19368 19368 1961. 1961m7 6.52 114 6.700000 1961m8 6.63 115 6.552000 1961m9 6.65 116 5.727000 1961m10 6.33 1170000 5.727000 6.33 117 5.318 5.319 5.319. 5.403000 1961m12 6.41 119 5.242000 1962m1 6.35 120 5.531000 1962m2 6.26 121 4.405000 1962m3 1962m1 6.204 6.204. 6.24 123 3.816000 1962m5 6.25 124 3.921000 1962m6 6.24 125 3.887000 1962m7 5.98 126 3.7522000 3.752000 1962 1962. 1962m9 5.27 128 3.858000 1962m10 5.37 129 3.689000 1962m11 5.42 130 3.717000 1962m12 5.36 11934119603. 132 3.426000 1963m2 5.74 133 3.756000 1963m3 5.69 134 3.709000 1963m4 5.50 135 3.635000 193000 19630 19630 19630 19630 1930 1963. 1963m6 5.28 137 3.761000 1963m7 5.20 138 3.723000 1963m8 5.22 139 3.674000 1963m9 5.21 140 3.714 3.715 3.739000 1963m11 5.51 142 3.721000 1963m12 5.63 143 3.758000 1964m1 5.64 144 4.307000 1964m2 14084. 5.76 146 4.302000 1964m4 5.93 147 4.384000 1964m5 5.90 148 4.464000 1964m6 5.97 149 4.654000 4.654000 1960 1964 1964 m8 6.00 151 4.703000 19
تکرار bgtest از lmtest
78529
من داده‌هایی از نظرسنجی دارم، و سعی می‌کنم یک مدل رگرسیون خطی با استفاده از R مانند A~ B بسازم، اما می‌خواهم C، D، E، F، G. مانند سن، جنسیت و سایر متغیرهای مخدوش‌کننده را کنترل کنم. من سعی کردم با استفاده از lm، glm و غیره چند مدل بسازم و آن را به داده های خود نصب کردم. با این حال، در مدل های رگرسیون چند متغیره، من نمی توانم نمودار را مانند زیر دریافت کنم. حدس می‌زنم برای استفاده از تابع «تقسیم‌شده» R برای نقطه برش، باید بتوانم معادله تخمینی بین A و B را بدست بیاورم، در حالی که همه متغیرهای دیگر کنترل می‌شوند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RuWC4.png) تصویر بالا کاری را که می خواهم انجام دهم را توضیح می دهد. مدل خطی بین A و B، اما مدل واقعی شامل عوامل مخدوش کننده C، D، F و به نحوی آنها را کنترل می کند. نویسنده توضیح داد که > دو مدل رگرسیون خطی را برای B زیاد و B پایین برازش داد، و > مجموع مجذور باقیمانده ها (= A مشاهده شده - برآورد A)، را از دو مدل > برای هر B محاسبه کرد. مدل هایی با کمترین مقدار مجموع باقیمانده مربع ها > بهترین مدل ها بودند. به نظر می رسد از R گرفته شده است (و نویسنده چنین گفته است)، اما من نمی توانم رویکرد خوبی پیدا کنم. می ترسم به نظر برسد که این سؤال سؤال «ویژه ابزار» باشد/ اگر چنین است، این سؤال را اصلاح می کنم و با هر کمکی که داشتم آن را به روز می کنم. با تشکر
چگونه می توان مدل رگرسیون خطی را در حالی که متغیرهای مخدوش کننده کنترل کرد؟
54726
من داده‌های زیر را دارم: http://s000.tinyupload.com/?file_id=00083355432555420222 من می‌خواهم چگالی مخلوطی از دو توزیع عادی را تنظیم کنم. من فرمول را دارم: \begin{align} f(l)=\pi \phi(l;\mu_1,\sigma^2_1)+(1-\pi)\phi(l;\mu_2,\sigma^2_2) \end{align} کد R من این است: normalmix<-normalmixEM(dat,k=2,fast=TRUE) pi<-normalmix$lambda[1] mu1<-normalmix$mu[1] mu2<-normalmix$mu[2] sigma1<-normalmix$sigma[1] sigma2<-normalmix$sigma[2] حالا من این مشکل را دارم که خروجی سازگار نیست، یعنی. هر بار که کد را اجرا می کنم، خروجی های مختلفی دریافت می کنم! و آنها بسیار متفاوت هستند، بدون تفاوت کوچک، که می تواند به دلیل دقت روش های عددی باشد. به عنوان مثال گاهی اوقات برای pi، [1] 0.2653939 یا [1] 0.3318069 را دریافت می‌کنم، که گاهی اوقات شماره‌گذاری تغییر می‌کند، بنابراین پی 0.7 برابر با 0.3 خواهد بود. خوب، من این را دریافت کردم، نمی دانم چرا رویه های R این کار را انجام می دهد، اما این مشکلی ایجاد نمی کند. اما مشکل این است که خروجی ها بسیار متفاوت هستند، گاهی اوقات حتی یک پیغام خطا دریافت می کنم (آلمانی): Fehler in while (dl > eps && iter < maxit) { : Fehlender Wert, wo TRUE/FALSE nötig ist همچنین، تعداد تکرارها بسیار متفاوت است، از 29 تا 1000 ...... ویرایش: اکنون سعی کردم مقادیر اولیه را به صورت دستی تنظیم کنم ... در Rmanual می گوید: > لامبدا: مقدار اولیه نسبت های اختلاط. به طور خودکار در صورت لزوم برای تولید یک بردار به طول k تکرار می شود، سپس به مجموع 1 نرمال می شود. <-normalmixEM(dat,lambda=c(0.5,0.5),k=2,fast=TRUE) normalmix$loglik normalmix$mu normalmix$sigma که منطق `617.2996` و پارامترهای: > normalmix$mu [1] 0.0003769442 -0.0008892282 > normalmix$sigma [1] 0.02814997 0.012326 normalmix<-normalmixEM(dat,lambda=c(0.8,0.2),k=2,fast=TRUE) normalmix$loglik normalmix$mu normalmix$sigma که همچنین loglik 617.2996 را می دهد؟ و پارامترهای > normalmix$mu [1] 0.0003767148 -0.0008892515 > normalmix$sigma [1] 0.02814819 0.01232488 mh، نمی دانم.... سپس، آن را با مقادیر مختلف $\mu$ امتحان کردم. normalmix<-normalmixEM(dat,mu=c(-0.001,0.002),k=2,fast=TRUE) normalmix$loglik normalmix$mu normalmix$sigma که همچنین منجر به loglik '617.2996' و خروجی پارامتر می شود: > normalmix$mu [1] 0.0003767138 -0.0008892516 > normalmix$sigma [1] 0.02814818 0.01232487 2. normalmix<-normalmixEM(dat,mu=c(0.02,0.01),k=2,fast=TRUE) normalmix$mulogmi normalx$ig منجر به یک loglik از `617.2996` و خروجی پارامتر می شود: > normalmix$mu [1] 0.0003769462 -0.0008892280 > normalmix$sigma [1] 0.02814999 0.01232639 اکنون چه کنم؟
r: normalmixEM سازگار نیست؟
48654
تحلیل عاملی اکتشافی و مقادیر ویژه
54724
من طول 197 قسمت مراقبت پرستاری را ضبط کردم. داده های نرمال شده من $(x-\mu)/\sigma$ به این شکل است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gQ4oE.png) Kolmogorov-Smirnov به من یک p- می دهد مقدار 0.14 نمیشه درست باشه حتما؟! آیا من نتایج خود را اشتباه تفسیر می کنم؟
کولموگروف اسمیرنوف با داده های بصری در تضاد است
78523
من سه موضوع مهم را درک نمی کنم: (1) چرا آمار آزمون را تحت فرضیه صفر محاسبه می کنیم؟ (2) چرا زمانی که : p-value <سطح معنی داری، فرضیه صفر را رد می کنیم؟ (3) چرا خطای نوع I جدی تر از خطای نوع II است؟
سه موضوع مهم
54729
من سعی می کنم توزیع پسینی را برای نرخ شکست (لامبدا) یک فرآیند با توزیع پواسون استخراج کنم. من استفاده از توزیع یکنواخت نامناسب را روی لامبدا با اجازه دادن به حداکثر تمایل به بی نهایت امتحان کردم. پسین من دوباره شکل پواسون مانند دارد (اما به عنوان تابع احتمال متغیر پیوسته لامبدا). من همچنین سعی کرده ام از نظرات متخصصان مختلف به عنوان فواصل اطمینان استفاده کنم - از آنچه که من خوش بینانه تا بسیار محافظه کارانه می دانم - و با توزیع گاما تقریبی کنم. از این رویکردها، من نتایج بسیار مشابهی به دست می‌آورم، اما مطمئن نیستم که استدلال کافی برای دفاع از استفاده‌ام از پیشین‌ها داشته باشم. بنابراین، من نگران هستم که رویکرد من قوی نباشد و با خواندن کتاب قبلی جفری به این فکر می‌کنم که آیا باید درباره آن و نحوه استفاده از آن اطلاعات بیشتری کسب کنم. هر توصیه ای؟
قبل از استنتاج بیزی در مورد میزان شکست در توزیع پواسون
108189
من علاقه مند به رگرسیون لجستیک برای مدل سازی یک مسئله طبقه بندی هستم. سعی کردم رگرسیون لجستیک را با دو کتاب «روش های انتخاب گسسته با شبیه سازی» (قطار) و «رگرسیون لجستیک کاربردی» (هوسمر و لمشو) مطالعه کنم. برای روشن شدن سوالم، دو نمونه مدل لاجیت را از آن کتاب ها انتخاب کردم. 1. > انتخاب خانوار بین سیستم گرمایش گاز و برق (لوجیت باینری) > اجازه دهید زیرنویس های $g$ و $e$ نشان دهنده گاز و برق باشند، $PP$ و $OC$ > قیمت خرید و هزینه عملیاتی، $ \beta_1$ و $\beta_2$ پارامترهای اسکالر > هستند. سپس احتمال اینکه خانه گرمایش گازی را انتخاب کند > $$P_g = > \frac{e^{\beta_1PP_g+\beta_2OC_g}}{e^{\beta_1PP_g+\beta_2OC_g}+e^{\beta_1PP_e+\beta_2OC_e}}$2 است. > رابطه بین سن و وجود یا عدم وجود CHD (Logit باینری) > اجازه دهید $x$ باشد سن، زیرنویس‌های $0$ و $1$ نشان‌دهنده عدم حضور و حضور > CHD و $\beta_1^0$، $\beta_2^0$، $\beta_1^1$ و $\beta_2^1$ هستند > پارامترهای اسکالر . سپس احتمال اینکه یک فرد $x$ ساله دارای > CHD باشد این است: > $$P_1 = > \frac{e^{\beta_1^1+\beta_2^1x}}{e^{\beta_1^1+\ beta_2^1x}+e^{\beta_1^0+\beta_2^0x}}$$ > (اگرچه مدل برای تخمین زدن به دو پارامتر اسکالر نیاز دارد، من نوشتم > فرمول در این فرم برای روشن شدن سوال.) من با رگرسیون لجستیکی که در مثال دوم نشان داده شده است آشنا هستم. متغیر مستقل (در این مثال سن) در هر دو انتخاب (یا کلاس) گنجانده شده است و البته مقدار متغیر مستقل برای کلاس های مختلف یکسان است. و برای هر کلاس و هر متغیر مستقل ضرایبی وجود دارد که باید تخمین زده شود و آن ضرایب برای طبقات مختلف متفاوت است. با این حال، مدل مثال اول دارای متغیرهایی است که برای هر انتخاب متفاوت است ($PP_e$، $PP_g$، $OC_e$ و $OC_g$)، و ضرایب بین گزینه‌ها یکسان است. تقریباً من می‌توانم دو مدل را جداگانه درک کنم، اما نمی‌توانم مفهوم یکپارچه رگرسیون لجستیک را بسازم. آنها به نظر من متفاوت هستند. به عنوان مثال، بسیاری از کتاب ها و مواد درسی فرمول رگرسیون لجستیک (چند جمله ای) را ارائه می دهند که شامل متغیرهای مستقل و ضرایب (که برای هر کلاس متفاوت است) می باشد. با این فرمول می توانم مثال دوم را درک کنم، اما آیا این فرمول می تواند وضعیتی را که در مثال اول نشان داده شده است در بر بگیرد؟ به عبارت دیگر، آیا این فرمول دارای متغیرهایی است که برای هر کلاس متفاوت است؟
رگرسیون لجستیک چیست؟ من نمی توانم یک مفهوم واحد داشته باشم
20125
من طرح های جعبه ای از 13 گروه دارم که در یک طرح نشان می دهم. گروه ها دارای جمعیت نامتعادل هستند و به طور معمول توزیع نمی شوند. می‌خواهم نشان دهم کدام جفت‌ها از نظر آماری مشابه هستند (یعنی kruskal.test p-value <0.05) با قرار دادن a،b،c و غیره در بالای کادرهایی که مطابقت دارند. در اینجا یک کد شبه برای نشان دادن آنچه دارم وجود دارد: A = c(1، 5، 8، 17، 16، 3، 24، 19، 6) B = c(2، 16، 5، 7، 4، 7، 3 ) C = c(1، 1، 3، 7، 9، 6، 10، 13) D = c(2، 15، 2، 9، 7) junk = list(g1=A, g2=B, g3=C, g4=D) boxplot(junk) در اینجا نموداری پیدا کردم که آنچه را که می خواهم انجام می دهد (به جز اینکه 13 گروه در یک ردیف دارم): ![ ](https://www.agronomy.org/images/publications/jeq/32/3/1036f3.jpeg)
78520
من در تلاشم تا اکوسیستم کامل تئوری آمار را کشف کنم. ** درخت طبقه بندی تمام نظریه های ریاضی/آمار در طول زمان** آیا کسی در مورد آمار پیوندهایی به Infographics انجام داده یا دارد. شاید با آمارهای مبتنی بر گذشته، حال یا آینده شروع شود. به عنوان مثال، صورتحساب، قیمت فعلی سهام، پیش‌بینی درآمدهای آتی... یا سبک‌های مختلف، استقرا، آزمون فرضیه، بیزی... شاید تجزیه و تحلیل خوشه‌ای بر اساس صنعت یا انواع مجموعه داده‌ها. به عنوان مثال بازاریابی و تبلیغات، سری‌های زمانی پایه برای اندازه‌گیری کلیک‌ها بهینه‌سازی یا تجزیه و تحلیل مؤلفه اصلی برای بهینه‌سازی خلاقانه، نمی‌دانم، چیزی که در آن افراد جدید می‌توانند دامنه آمار را دریابند. منظورم این است که می‌دانم تقریباً در هر زمینه‌ای از زندگی می‌توان از آن استفاده کرد، اما باید یک نوع طبقه‌بندی کلی وجود داشته باشد. چیزی شبیه به این اما برای آمار. http://static.bbci.co.uk/naturelibrary/3.1.5//images/tree_of_life_full.gif لطفاً اگر می توانید سؤال را بهبود ببخشید، این پست را ویرایش کنید. با تشکر
بهترین اینفوگرافیک آمار به عنوان موضوع
34396
من 10 سال داده بازده روزانه 28 ارز مختلف دارم. من می خواهم اولین جزء اصلی را استخراج کنم، اما به جای اینکه PCA را در کل 10 سال کار کنم، می خواهم یک پنجره 2 ساله اعمال کنم، زیرا رفتار ارزها تکامل می یابد و بنابراین می خواهم این را منعکس کنم. با این حال، من یک مشکل اساسی دارم، این است که هر دو توابع princomp() و prcomp() اغلب از بارگذاری مثبت به منفی در آنالیزهای PCA مجاور (یعنی با فاصله 1 روز) می پرند. به نمودار بارگیری ارز یورو نگاهی بیندازید: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8A2oH.png) واضح است که من نمی توانم از این استفاده کنم زیرا بارگیری های مجاور از مثبت جهش می کنند به منفی، بنابراین سریال من که از آنها استفاده می کند اشتباه خواهد بود. اکنون به ارزش مطلق بارگیری ارز یورو نگاهی بیندازید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KMkhE.png) البته مشکل این است که من هنوز نمی توانم از آن استفاده کنم زیرا شما می توانید از نمودار بالا ببینید که بارگذاری از منفی به مثبت و گاهی اوقات برمی گردد، مشخصه ای که من باید آن را حفظ کنم. آیا راهی وجود دارد که بتوانم این مشکل را برطرف کنم؟ آیا می توانم جهت گیری بردار ویژه را مجبور کنم همیشه در PCAهای مجاور یکسان باشد؟ به هر حال این مشکل با تابع ()PCA FactoMineR نیز رخ می دهد. کد rollapply اینجاست: rollapply(retmat, windowl, function(x) summary(princomp(x))$loadings[, 1], by.column = FALSE, align = right) -> princomproll
من در حال بارگیری جهشی در rollapply PCA در R هستم. آیا می توانم آن را برطرف کنم؟
78526
من دارم رگرسیون خطی بیزی را از یک کتاب یاد می‌گیرم، مدل خطی آن $$p(w|x,\phi,\sigma^2)=Norm_w[\phi^Tx,\sigma^2]$$ است. در این کتاب، از رویکرد بیز برای انجام تخمین پارامترها استفاده می کنیم. مشکل اینجا پیش می‌آید: من فکر می‌کردم کاملاً واضح است که باید یک ** مزدوج** را قبل از پارامترهای $\phi$ و $\sigma^2$ معرفی کنیم، که باید دارای **توزیع گامای معکوس با مقیاس نرمال* باشد. *، درست است؟ اما کتاب ابتدا فرض می‌کند که $\sigma^2$ شناخته شده است، و یک توزیع قبلی برای $\phi$ به تنهایی معرفی می‌کند که یک میانگین گاوسی 0 است و تخمین را برای $\phi$ انجام می‌دهد. پس از همه اینها، فرض می کند $\sigma^2$ شناخته شده نیست و آن را تخمین می زند. چرا باید آنها را از هم جدا کنیم؟ به روز رسانی کتاب _آموزش ماشینی: دیدگاه احتمالی_، ص. 232، بخش رگرسیون خطی بیزین. من به تازگی این مقاله را پیدا کردم که همچنین فرض می کند یکی شناخته شده است و بعداً آن را ناشناخته فرض می کند. رگرسیون خطی بیزی
درک رگرسیون خطی بیزی خیلی سخت است؟
91168
با شروع از یک «model1 = lm(temp~alt+sdist)» خطی، من باید یک مدل پیش‌بینی ایجاد کنم، که در آن داده‌های جدید در دسترس قرار می‌گیرد و پیش‌بینی‌هایی درباره «دمای» انجام می‌شود. من سعی کردم کاری شبیه این انجام دهم: `model2 = predict.lm(model1, newdata=newdataset)` با این حال، مطمئن نیستم که این راه درست است. آنچه من می خواهم در اینجا بدانم این است که آیا این راه درستی است که می توان در مورد دما پیش بینی کرد. همچنین وقتی صحبت از newdataset می شود، کمی گیج هستم. کدام مقادیر باید پر شود و غیره؟ هر گونه کمکی پذیرفته می شود.
R: مدل رگرسیون خطی چندگانه و مدل پیش بینی
91160
من سعی می کنم سیستم تشخیص گفتار را بر اساس HMM 5 حالته + تابع گاوسی چند متغیره ایجاد کنم. من از بردار ویژگی خودم مشتق شده از MFCC (ضرایب مغزی فرکانس مل) استفاده می کنم. مشکل این است که پس از آموزش، تنها چند ورودی از ماتریس انتقال HMM بزرگتر از صفر باقی مانده است. لازم به ذکر است که فقط حالت های 2 - 4 می توانند مشاهده منتشر کنند. حالت های 1 و 5 به اتصال مدل با سایر مدل ها برای ساختن یک زنجیره کمک می کنند. ماتریس اولیه: $$\left[ \begin{array}{ccccc} 0.0 & 1.0 & 0.0 & 0.0 & 0.0 \\\ 0.0 & 0.6 & 0.4 & 0.0 & 0.0 \\\ 0.0 & 0.0 & 0.6 & 0.4 \\\ 0.0 و 0.0 & 0.0 & 0.7 & 0.3 \\\ 0.0 & 0.0 & 0.0 & 0.0 & 0.0 \end{array} \right]$$ ماتریس پس از آموزش مدل در نمونه‌های واج a به این صورت است: $$\left[ \begin{ آرایه}{cccccc} 0.0 & 1.0 & 0.0 & 0.0 & 0.0 \\\ 0.0 & 0.0 & 1.0 & 0.0 & 0.0 \\\ 0.0 & 0.0 & 0.8910256 & 0.1089744 & 0.0 \\\ 0.0 & 0.0 & 0.0 & 0.0 & 1.0 &\\ 0.0 & 0.0 & 0.0 & 1.0 &\\ 0.0. \end{array} \right]$$ مجموعه آموزشی از 187 دنباله با حدود 10 بردار به طور متوسط ​​در هر دنباله تشکیل شده است. عملکرد چنین مدلی بسیار ضعیف است. بنابراین دلایل اصلی چنین ماتریس انتقالی پراکنده پس از آموزش مدل چه می‌تواند باشد؟ پیشاپیش از هرگونه کمکی متشکرم
چرا بعد از آموزش HMM 5 حالته فقط تعداد کمی از ورودی های ماتریس انتقال بزرگتر از صفر باقی مانده است؟
62634
این یک سوال بسیار ساده به نظر می رسد اما من در دیدن پاسخ مشکل دارم. من یک مجموعه از 30 مقدار دارم. من به طور مستقل یک مقدار 31 را به دست آوردم. فرضیه صفر این است که مقدار 31 بخشی از همان توزیع است. جایگزین این است که متفاوت است. من نوعی P-value یا اندازه گیری احتمال می خواهم. برخی از افکار من: * این شبیه به انجام یک آزمون t دو نمونه ای است - با این تفاوت که برای نمونه دوم فقط یک مقدار دارم و 30 مقدار لزوماً به طور معمول توزیع نمی شوند. * اگر به جای 30 اندازه گیری 10000 اندازه گیری داشته باشم، رتبه اندازه گیری واحد می تواند اطلاعات مفیدی ارائه دهد. چگونه می توانم این احتمال یا p-value را محاسبه کنم؟ با تشکر یانیک
آیا این مقدار واحد با توزیع مطابقت دارد؟
91169
از چه مدلی برای پیش بینی رفتار یک گروه بر اساس رفتار گذشته اعضای گروه استفاده کنیم؟ من از قیاس تیم ورزشی استفاده می کنم. فرض کنید ما داده هایی برای تک تک بازیکنان ورزش داریم. داده ها نتایج بازی های بین 2 تیم و اعضای هر تیم است. از این طریق می‌توانیم ببینیم که بازیکنان چند بار با هم بازی کرده‌اند و هر بار نتایج آن را به دست آورده‌اند. برد یا باخت. امروز لیست 2 تیمی که بازی می کنند را می دانیم. آیا مدلی وجود دارد که بتوان از آن استفاده کرد که عملکرد گذشته هر بازیکن را در زمانی که امروز با سایر بازیکنان در زمین بازی کرده اند در نظر بگیرد و از آن برای پیش بینی برنده بازی استفاده کند؟
از چه مدلی برای پیش بینی رفتار یک گروه بر اساس رفتار گذشته اعضای گروه استفاده کنیم؟
19860
**مقدمه** در ترکیب پیش بینی ها، یکی از راه حل های رایج، بر اساس استفاده از معیارهای اطلاعاتی است. برای مثال با در نظر گرفتن معیار Akaike $AIC_j$ تخمین زده شده برای مدل $j$، می توان تفاوت $AIC_j$ را از $AIC^* = \min_j{AIC_j}$ و سپس $RP_j = e^{(AIC^*-) محاسبه کرد. AIC_j)/2}$ را می توان به عنوان احتمال نسبی مدل $j$ برای درست بودن آن تفسیر کرد. سپس وزن‌ها به صورت $$w_j = \frac{RP_j}{\sum_j RP_j}$$ **مشکل** تعریف می‌شوند مشکلی که من سعی می‌کنم بر آن غلبه کنم این است که مدل‌ها بر روی متغیرهای پاسخ (درون‌زا) تغییر شکل‌یافته متفاوت تخمین زده می‌شوند. به عنوان مثال، برخی از مدل ها بر اساس نرخ رشد سالانه، مدل دیگر - بر اساس نرخ رشد سه ماهه است. بنابراین مقادیر $AIC_j$ استخراج شده مستقیماً قابل مقایسه نیستند. **راه حل آزمایش شده** از آنجایی که تنها چیزی که مهم است تفاوت $AIC$s است، می توان $AIC$ مدل پایه را گرفت (به عنوان مثال من سعی کردم مدل lm(y~-1) را بدون هیچ پارامتری استخراج کنم) که نسبت به تبدیل‌های متغیر پاسخ ثابت است و سپس تفاوت‌های بین مدل $j$th و مدل پایه $AIC$ را مقایسه کنید. اما در اینجا به نظر می رسد نقطه ضعف باقی می ماند - تفاوت _is_ تحت تاثیر تبدیل متغیر پاسخ است. **نکته پایانی** توجه داشته باشید، گزینه ای مانند برآورد همه مدل ها بر روی متغیرهای پاسخ یکسان امکان پذیر است، اما بسیار زمان بر است. اگر راه دیگری برای حل مشکل وجود ندارد، می‌خواهم قبل از تصمیم دردناک، «درمان» سریع را جستجو کنم.
چگونه می توان پیش بینی ها را در زمانی که متغیر پاسخ در مدل های پیش بینی متفاوت بود ترکیب کرد؟
27418
من در حال انجام تحقیقات زیادی در مورد جرایم سازمان‌یافته در شرق آسیا برای پروژه‌ای به عنوان لطف به یکی از دوستان نویسنده‌ام بودم، و متوجه شدم که اقتصاددانان و روزنامه‌نگاران برجسته‌ای وجود داشتند که در کنار هم، ارزش عملیات بازار سیاه را در سراسر جهان تخمین می‌زنند. . روش شناسی برای این کار چیست؟ چگونه این اعداد با هم جمع می شوند؟ آیا این اعداد در مدل های سنتی بازار ثبت می شوند؟
چگونه اقتصاددانان عملیات بازار سیاه را کمیت می کنند؟
27410
من یک مجموعه داده متشکل از مقادیر موقعیت پر سر و صدا یک مسیر دست انسان دارم. من می خواهم یک مدل تولیدی از این مسیرها را تخمین بزنم، و انتخاب واضح یک فیلتر کالمن/سیستم دینامیکی خطی است. از آنجایی که رابطه موقعیت / سرعت / شتاب به خوبی شناخته شده است، من یک LDS با 3 متغیر پنهان (برای هر بعد) انتخاب کردم و ماتریس های انتقال و انتشار را کدگذاری کردم. من واریانس ها را به عنوان کوواریانس های مورب از طریق بازرسی چشمی تنظیم کردم. (شاید باید تمام پارامترها را از طریق EM یاد می‌گرفتم، احتمالاً آمارهای بیشتری را می‌دانستم، تا حدودی قبل از پارامترهای مدل پیش‌بینی می‌کردم.) با انجام این کار، متوجه شدم که LDS با تغییر جهت ناگهانی دست و پنجه نرم می‌کند. بنابراین تعجب کردم که آیا این فرض که شتاب در واقع گاوسی توزیع شده است درست است یا خیر. حالا چندتا سوال دارم 1. چگونه می توانم بررسی کنم که آیا فرض گاوسی خوب است؟ یک مشکل این است که من نمی‌توانم نمونه قابل اعتمادی از شتاب‌ها به دست بیاورم، زیرا حتی سیگنال‌های موقعیت دارای نقاط پرت هستند، و بنابراین نقاط پرت مشتق دوم حتی شدیدتر خواهند بود.) 2. مدل‌های فضایی چه حالتی وجود دارند که فرض نمی‌کنند گاوسیانیت در همه جا؟ کدام یک از آن ها به اندازه کافی سریع استنتاج دارند تا در یک سیستم بلادرنگ با 20 پیش بینی در ثانیه قابل استفاده باشند؟ 3. آیا کسی تجربه ای در مورد تنظیمات مشابه دارد و ممکن است در مورد اینکه از کدام مدل ها استفاده کنم توصیه ای دارد؟
فرض توزیع گاوسی شتاب
44712
یک مجموعه A با عناصر $N$ وجود دارد. بر اساس مجموعه A، من می خواهم گروه های $M$ را بسازم، که در آن هر گروه دارای عناصر $P$ است. به طور طبیعی، $M P <N$. همه آن عناصر در گروه‌های $M$ با پیروی از دو معیار از مجموعه A نمونه‌برداری می‌شوند، آنها با یکدیگر متفاوت هستند. احتمال نمونه برداری برای هر یک از این عناصر MP یکسان است. از چه نوع روش نمونه گیری استفاده کنم؟ چگونه این کار را در R انجام دهیم؟
44719
من در حل تحلیلی واریانس (یا انحراف معیار) ترکیبی از توزیع پواسون و توزیع بتا (یا دقیق‌تر، توزیع PERT) گیر کرده‌ام. پیشینه این است که برای تجزیه و تحلیل ریسک، من فراوانی وقوع و حداقل مقدار، مقدار نرمال و حداکثر مقدار خسارت در صورت وقوع را دارم. تقریب sd آسیب (حداکثر مقدار - حداقل مقدار)/6 و sd فرکانس به سادگی sqrt (فرکانس) است. چگونه می توانم وزن کشی مناسب را برای دریافت sd مخلوط بدست بیاورم؟ من فکر کردم که می توانم وزن کشی را برای میانگین آسیب و احتمال عدم آسیب مخلوط کنم و sd آسیب را اضافه کنم، اما این پاسخ درستی نمی دهد. پاسخ: پاسخ jbowmans: من فکر می‌کنم که این راه‌حل یک تقریب اول خوبی خواهد بود، اما شبیه‌سازی عددی باعث می‌شود که این یک تخمین‌گر بی‌طرفانه باشد. به نظر می رسد نتایج من نشان دهنده یک دست کم گرفتن 3 درصدی از انحراف معیار مشاهده شده است. > diffSD = (resVar^0.5 - resVarDet^0.5)/resVarDet^0.5 > > خلاصه (diffSD) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.006816 0.024870 0.028800 0.028860 0.032840 0.052650 با آلفا = 1 بتا = 1 حلقه = 10000 تکرار = 100000 پاسخ = 100000 resVar = تکرار: 1 رویداد (0، حلقه در حلقه) rpois(reps، lambda) #damage = rPERT(reps، minVal، mlVal، maxVal) آسیب = rbeta(reps، shape1=alpha، shape2=beta) resVar[i] = var(رویدادها* خسارت) } #resVarDet = varDet( lambda، meanPert(minVal، mlVal، maxVal)، sdPert(minVal، maxVal)) resVarDet = varDet(لامبدا، meanBeta(آلفا، بتا)، varBeta(آلفا، بتا)^0.5) با استفاده از توابع meanBeta = تابع (آلفا، بتا) { res = آلفا/(آلفا + بتا) return(res) } varBeta = تابع (آلفا، بتا) { res = (آلفا * بتا)/ ((آلفا + بتا)^2*(آلفا + بتا + 1)) بازگشت (res) } varDet = تابع (لامبدا، مو، سیگما) { res = lambda * (mu^2 + sigma^2) return(res) }
82776
ss کل و بین ss در خوشه بندی k-means به چه معناست؟
67047
تمرین برای فینال آمار در 2 روز. موارد زیر چه زمانی درست است؟ همبستگی بین متغیرهای x و y صفر است. با این حال، بهترین منحنی که x را به y مرتبط می کند، یک خط افقی نیست. هر ایده ای؟ متشکرم.
شیب خط زمانی که همبستگی = 0 همیشه 0 نیست؟
41076
چگونه یک متغیر وابسته لگ نرمال محدود را با صفرهای زیاد مدل کنیم
67042
منظور من از LPM این است که متغیر وابسته چندکوتومی است (به عنوان مثال 1،2،3 4) و (نه باینری 1 یا 0). من می دانم که چگونه ضرایب را به صورت دستی با محاسبه معکوس PDF تبدیل کنم. آیا دستوری در SAS وجود دارد که این کار را به صورت خودکار انجام دهد؟ اگر شروع کنم مثلاً proc logistic یا proc probit می‌خواهم توضیح دهم اگر متغیر مستقل 1 واحد تغییر کند چه اتفاقی می‌افتد؟
آیا میانبری در SAS برای تفسیر ضرایب مدل احتمال محدود وجود دارد؟
67040
آیا تفاوت صوری بین اصطلاحات مدل احتمالی و مدل آماری وجود دارد؟ آیا تفاوت روش شناختی بین این دو وجود دارد یا فقط ترجیح اصطلاحات است؟ من می بینم که اولی اغلب با مدل های گرافیکی و مدل های بیزی استفاده می شود، در حالی که به نظر می رسد آماری هر چیزی به طور خاص Frequentist باشد.
تفاوت بین مدل سازی احتمالی و مدل سازی آماری
41074
پیش بینی با CI - predict.glm گزینه فاصله ندارد
67043
من در حال انجام تست دم پایین تر هستم و آمار z من -1.57 است. حالا باید مقدار p را محاسبه کنم. روش من برای یافتن مقدار p با استفاده از جدول z این است: من به دنبال ردیف -1.5 بودم، سپس به دنبال ستون 0.07 بودم. ورودی 0.0582 است. از آنجایی که آزمون یک فرم دم پایین تر است، p-value 0.0582 است. اما از این منبع دریافتم که مقدار p برای مشکل داده شده 0.58051 است. این چگونه محاسبه شد؟
محاسبه P-value
27417
من به این یادداشت از یک کتاب برخوردم: .. همبستگی بین پورتفولیوهای فعال و غیرفعال زمانی بیشتر است که $\beta$ نمونه کارها بیشتر باشد. نویسنده رگرسیون نمونه کارها فعال را روی نمونه کارها غیرفعال اجرا می کند. این برای من منطقی نیست. اگر درست متوجه شده باشم، بتا در تحلیل رگرسیون خطی تک متغیری بهترین رابطه/برازش را بین دو متغیر (یا شیب بردار مستقل بر بردار وابسته) به ما می دهد، اما نشان دهنده قدرت آن رابطه نیست. برای تعیین اینکه چقدر رابطه بین متغیرها خوب است، باید به همبستگی یا مقدار R^2$ نگاه کنیم. تا زمانی که بتا از نظر آماری معنی‌دار باشد، می‌توانیم به $R^2$ برای تعیین قدرت رابطه نگاه کنیم. در اینجا چند مثال آورده شده است: 1. سه متغیر $A_1$، $A_2$ (متغیرهای وابسته) و $B$ (متغیر مستقل) را در نظر بگیرید. اگر $A_1$ و $B$ دارای $\beta=2.0$ باشند. همبستگی=0.8، و $A_2$ و $B$ دارای $\beta=0.5$ هستند. همبستگی=0.8، پس هر دو $A_1$ و $A_2$ به طور مساوی با $B$ توضیح داده می شوند. 2. دو سری را در نظر بگیرید: A=$\\{1,2,3,4,5,6,7,8,9,10\\}$ و $B=2\ برابر A$. در این مورد، همبستگی بین A و B 1 است. با این حال، رگرسیون $A$ در $B$ $\beta$ را 0.5 و $B$ در $A$ 2.0 می دهد. با این حال، هر متغیر به طور کامل توسط دیگری توضیح داده شده است. آیا درک من درست است؟ لطفاً اگر چیزی را در اینجا گم کرده ام برجسته کنید.
$\beta$ در تحلیل رگرسیون خطی به ما چه می گوید؟
66399
من به دنبال یک فرم بسته برای انتگرال زیر هستم اما از آنجایی که پیشینه لازم را ندارم قادر به حل آن نیستم: می دانم که راه حل نهایی به صورت توابع و چند جمله ای های اصلاح شده بسل است و همچنین می دانم که ممکن است مربوط به گشتاورهای توزیع گاوسی معکوس چند متغیره باشد: در اینجا انتگرال با فرض z و y بردار هستند. و $\lambda$ و $\Gamma$ ماتریس هستند. اگرچه $\Gamma$ می تواند مورب باشد. $U$ یک ماتریس مورب است که حاوی $\sqrt z_i$ به عنوان عناصر مورب آن است. $$ U = \begin{bmatrix} \sqrt{z_1} & \cdots & 0 \\\ \vdots & \ddots & \vdots \\\ 0 & \cdots & \sqrt{z_d} \end{bmatrix}$$ $$ \lambda = \begin{bmatrix} \lambda_{11} & \cdots & \lambda_{1d} \\\ \vdots & \ddots & \vdots \\\ \lambda_{d1} & \cdots & \lambda_{dd} \end{bmatrix}$$ $$ \Gamma= \begin{bmatrix} \Gamma_{1} & \cdots & 0 \\\ \vdots & \ddots & \vdots \\\ 0 & \cdots & \Gamma_{d} \end{bmatrix}$$ $$ \int^{\infty}_{0} \frac{1}{\sqrt{z_1 ... z_d}} \exp^{(-\frac{ 1}{2} y^T(U \Gamma U^T)^{-1} y)} \exp^{(-\sqrt{z}^T\lambda\sqrt{z})} \ \ \mathrm{d}z_1...\mathrm{d}z_d$$ متشکرم
ادغام چند متغیره به شکل بسته
67049
با کمال تعجب، من نتوانستم با استفاده از گوگل پاسخی برای سوال زیر پیدا کنم: من برخی از داده های بیولوژیکی از چندین فرد دارم که رفتار رشد تقریباً سیگموئید را در زمان نشان می دهد. بنابراین، من می‌خواهم آن را با استفاده از رشد لجستیک استاندارد P(t) = k*p0*exp(r*t) / (k+p0*(exp(r*t)-1)) با p0 مدل‌سازی کنم که مقدار شروع آن است. در t=0، k حد مجانبی در t-> بی نهایت و r سرعت رشد است. تا آنجا که من می بینم، می توانم به راحتی این را با استفاده از nls مدل کنم (عدم درک از طرف من: چرا نمی توانم چیزی مشابه را با استفاده از رگرسیون لاجیت استاندارد با مقیاس گذاری زمان و داده مدل کنم؟ ویرایش: با تشکر نیک، ظاهراً مردم این کار را انجام می دهند به عنوان مثال برای نسبت ها، اما به ندرت http://www.stata-journal.com/article.html?article=st0147 سوال بعدی در مورد این مماس خواهد بود در صورتی که مدل احتمالاً می تواند مقادیر پرت >1 را مدیریت کند). اکنون می‌خواهم برخی اثرات ثابت (عمدتاً طبقه‌بندی شده) و برخی تصادفی (یک شناسه فردی و احتمالاً یک شناسه مطالعه) را روی سه پارامتر k، p0 و r بگذارم. آیا nlme بهترین راه برای انجام این کار است؟ مدل SSlogis برای کاری که می‌خواهم انجام دهم معقول به نظر می‌رسد، آیا درست است؟ آیا هر یک از موارد زیر برای شروع یک مدل معقول است؟ به نظر نمی‌رسد که من نمی‌توانم مقادیر شروع را به درستی دریافت کنم و به نظر می‌رسد که update() فقط برای افکت‌های تصادفی کار می‌کند، نه ثابت - آیا نکاتی وجود دارد؟ nlme(y ~ k*p0*exp(r*t) / (k+p0*(exp(r*t)-1))، ## اصلا کار نمی کند (ویژگی های عددی بد؟) داده = داده، ثابت = k + p0 + r ~ var1 + var2، تصادفی = k + p0 + r ~ 1|UID، شروع = c(p0=1، k=100، r=1)) nlme(y ~ SSlogis(t، Asym، xmid، scal)، ## کار نمی کند، زیرا start= داده نامناسب است = داده، ثابت = Asym + xmid + scal ~ var1 + var2، ## با ~ 1 تصادفی = خوب کار می کند Asym + xmid + scal ~ 1|UID، start = getInitial(y ~ SSlogis(Dauer, Asym, xmid، scal)، data = data)) از آنجایی که من در مدل‌های ترکیبی غیرخطی به‌ویژه و مدل‌های غیرخطی به طور کلی تازه کار هستم، از توصیه‌های خواندنی یا پیوندهایی به آموزش‌ها / سؤالات متداول با سؤالات مبتدی قدردانی می‌کنم.
رگرسیون غیرخطی اثرات مختلط در R
67044
توجه: اگر می خواهید به خلاصه 3 سوال اصلی من بروید، آنها در پایین ترین قسمت قرار دارند. من سعی می کنم یک مدل رگرسیون لجستیک باینری برای تعیین اینکه آیا داده ای که به من داده می شود درست است یا نه تولید کنم. من یک ستون خاص از داده ها دارم که من را کمی دردسر می کند. ستون داده ها بسیار کج است. به نظر می رسد یک فروپاشی نمایی بسیار بسیار شدید است. این در ارتباط با سایر متغیرهای مستقل که خطی هستند استفاده می شود. در این مورد، می‌خواهم بدانم چه زمانی یک کد پستی که از یک منبع داده خاص با ورودی طبقه‌بندی X به من داده می‌شود، با حداقل 90 درصد اطمینان (در حالت ایده‌آل بالاتر) صحیح است. من قبلاً می دانم که 25٪ از کدهای پستی صحیح هستند - زیرا آنها را با داده هایی که می دانم درست هستند مقایسه کرده ام. به خاطر داشته باشید که این قبل از تمیز کردن است که به زودی توضیح خواهم داد. پس از تمیز کردن 40٪ از کدهای پستی درست است. در آینده که هیچ داده واقعی برای مقایسه مجموعه داده بازگشتی نداشته باشم، می دانم که چه تعداد از کدهای پستی صحیح هستند، اما نمی دانم که کدام یک را بدون کشف این (در میان تعدادی از مشکلات دیگر) انتخاب کنم. بسیاری از داده های دیگر در مجموعه داده به من داده می شود و همچنین به من بازگردانده می شود که سعی کرده ام به نحوی با آنها مطابقت کنم (یا کاری انجام دهم) تا این مشکل را اصلاح کنم، اما احساس می کنم انجام این کار اشتباه است. این باعث وابستگی بین متغیرهای ظاهرا مستقل من می شود - و بنابراین بی معنی خواهد بود. این درسته؟...درسته؟ در واقع، از یک مثال متقابل که به طور کلی برای من بدیهی به نظر می رسد، جلوگیری می کنم. من با آمار تا حدودی تازه کار هستم، اما در اسرع وقت در حال یادگیری هستم، بنابراین من را برای هر گونه فرضیات نادرست و غیره ببخشید. من نرم‌افزاری دارم که به من این امکان را می‌دهد که تقریباً تمام تکنیک‌های تبدیل داده غیرعادی‌شده را که فکر می‌کنید در این مورد اعمال کنم - اما AD p-value همیشه با مقدار بسیار کمتر از 0.05 برمی‌گردد. حدود 10+ تبدیل انجام شد. من آنها را در زیر مجموعه داده لیست می کنم. من تقریباً مطمئن هستم که باید مسیر ناپارامتریک را طی کنم، که به طور کلی آن را درک می کنم - به جز یک بخش کلیدی: هر چیزی که در مورد ناپارامتریک می توانم پیدا کنم در مورد آزمون ها است. مانند آزمون Mann Whitley و غیره. من نمی توانم جایی یا راهی را پیدا کنم که بتوانم داده ها را به صورت غیر پارامتری تبدیل کنم. **نمی‌توانم بفهمم با نتیجه «آزمون‌های» ناپارامتریکم چه کنم. با آنها چه می کنید؟ اقدامی که از نتایج آزمایش انجام می شود چیست؟** تنها کاری که می توانم در اینجا انجام دهم این است که با استفاده از داده های این جدول، نسبتی را بر اساس احتمال ارتباط آن با صحیح بودن مشخص کنم. برای هر عدد، با فرض اینکه آن عدد در ابتدا به جای ترتیبی (و قطعاً مستمر نیست) مقوله‌ای باشد، و سپس فهرست تناسبات را بر اساس احتمالی که دیکته می‌کنند که کد پستی داده شده صحیح است، مرتب کنید. من فهرستی از متغیرهای ترتیبی که می‌توانم استفاده کنم ارائه می‌کنم. مشکل بزرگ این است که این انحرافات استاندارد را در نظر نمی گیرد، تعداد دفعاتی که متغیر اصلی فهرست شده است، و غیره. **مشکل دیگر: جای خالی** من می دانم که قرار نیست شما خالی ها را حذف کنید زیرا خالی ها در صورت وجود معنی خاصی دارند - اما حتی پس از پرس و جو از منبع داده های برگشتی که دریافت می کنم، تنها پاسخ هایی که دریافت می کنم این است که ما فقط اطلاعاتی نداشت.» نمی‌دانستم در آنجا چه کار کنم و سعی کردم از مدل‌های رگرسیون برای پر کردن جاهای خالی استفاده کنم. با این حال، از آنجایی که 95٪ از ردیف هایی که در آن ها یک خالی در یکی از ستون ها ظاهر می شود معادل اشتباه بودن کد پستی داده شده در 98٪ موارد به هر حال ... من غیر قابل تصور را انجام دادم: فقط تصمیم گرفتم آنها را حذف کنم و این را اضافه کنم مالش دادن» به فرمول من، که اساسا آن را به یک الگوریتم ساده تبدیل می کند. من تصور می‌کردم تا زمانی که هر بار همان تکنیک تمیز کردن را انجام می‌داد، مدل نهایی فرمولی که من به آن دست یافتم، به همان اندازه کار خواهد کرد که داده‌های آینده به طور معادل از خالی پاک می‌شوند. این به این صورت است که هر بار روشی که منبع داده به دست می‌آید ثابت بماند. اگر کسی ایده، پیشنهاد یا اصلاح بهتری برای این موضوع دارد، به من بگوید. این داده ها است. امیدوارم لیست خیلی طولانی نباشد - و بله همیشه از 1 شروع می شود و بالاترین مقداری که تا به حال به آن رسیده است 999 است. در هر دو انتها به زیبایی منحرف شده است. این از ردیف‌هایی از داده‌هایی که حاوی موارد خالی هستند پاک شده است. جای خالی فقط در ستون Accuracy Radius ظاهر نمی شود - این فقط در حدود 0.02% (بنابراین بله 0.0002) مواقع اتفاق می افتد. جاهای خالی می‌توانند در ستون‌های مختلفی نیز ظاهر شوند - همگی نشان می‌دهند که کد پستی بازگردانده شده در 98٪ مواقع همانطور که قبلاً گفته شد نادرست است. من متوجه هستم که این ممکن است به طور بالقوه بر نتیجه ای که هنگام تلاش برای تبدیل این ستون خاص از داده ها به نحوی به دست می آورم تأثیر بگذارد، اما اگر هر بار همانطور که ذکر کردم، تمیز کردن گفته شده را انجام دهم، به نظرم خوب است. اگر کسی می‌خواهد داده‌های خالی داشته باشد، به من اطلاع دهد. در اینجا داده ها و در زیر آن سوالات خلاصه من است. بدیهی است که ستون چهار فقط مجموع دو ستون قبلی است - این تعداد است
داده های به ظاهر پیوسته غیرقابل تبدیل؟ اگر نه، با نتایج تست غیر پارامتریک چه باید کرد - اقدام بعدی چیست؟
48659
اثبات قضیه در حالت های بازگشتی و کلاس هم ارزی آن
62132
من یک مجموعه داده از حدود 40 موضوع و 10 متغیر دارم که برخی عملکرد را در یک کار اندازه‌گیری می‌کنند و برخی برخی ویژگی‌ها را اندازه‌گیری می‌کنند. هر یک از متغیرهای عملکرد شامل نسبت پاسخ های صحیح (محدوده 0 تا 1.0) به مجموعه ای از سؤالات است. متغیرهای مشخصه (مانند ضریب هوشی کلامی) ترتیبی هستند و ممکن است از توزیع نرمال پیروی کنند یا نداشته باشند. آزمودنی ها از طریق تحلیل خوشه ای به دو گروه تقسیم شدند. من می‌خواهم دو خوشه را در مورد هر عملکرد و معیار مشخصه مقایسه کنم تا آزمایش کنم که آیا آنها در آن معیار با یکدیگر تفاوت معنی‌داری دارند یا خیر. با این حال، فرآیند خوشه‌بندی مستلزم نقض مفروضاتی است که باید برای آزمون‌های آماری استاندارد رعایت شوند. اگر این دو خوشه در اندازه گیری ها متفاوت هستند، از چه نوع آزمایشی برای آزمایش استفاده کنم؟ متشکرم.
انجام مقایسه پس از تجزیه و تحلیل خوشه ای
109582
من آموزش کریستوفر منینگ را از NAACL 2013 یادگیری عمیق برای NLP (بدون جادو) می گذرانم و او به نقطه ای می رسد که نشان می دهد چگونه پیش آموزش های بدون نظارت را انجام دهد. او می گوید که ما دو امتیاز مختلف $s$ و $s_c$ را محاسبه می کنیم و سپس می خواهیم شبکه را طوری آموزش دهیم که $s > s_c$. او ادعا می‌کند که تابع هدف مورد استفاده $$ J = \text{max}(0, 1 - s + s_c) $$ است من نمی‌دانم چگونه کمینه کردن این تابع تضمین می‌کند که $s > s_c$. به نظر من وقتی مجموع $s$ و $s_c$ از 1 بزرگتر باشد مقدار از صفر بزرگتر است و فرقی نمی کند که کدام یک از دیگری بزرگتر باشد. کسی می تواند کمک کند تا این موضوع را برای من روشن کنم؟ چه چیزی را از دست داده ام؟ ویدیو اینجاست: http://techtalks.tv/talks/deep-learning-for-nlp-without- magic-part-1/58414/ و بخشی که من در مورد آن می پرسم حدود 50:30 است. اسلایدها در http://nlp.stanford.edu/courses/NAACL2013/NAACL2013-Socher- Manning-DeepLearning.pdf و اسلاید مورد نظر شماره 50 است.
نحوه درک این تابع هدف در یادگیری عمیق
66396
من به یک همکار در تجزیه و تحلیل اندازه گیری های مکرر کمک می کنم که در آن تأثیر ثابت هر موضوع در طول دوره جمع آوری داده ها تغییر می کند. او یک متغیر پاسخ مثبت پیوسته (پاسخ) را در کرت های کشاورزی (ID) (که خود در بلوک ها گروه بندی می شوند) به عنوان تابعی از نوع Crop اندازه گیری می کند. متغیر پاسخ 4 بار در طول فصل اندازه گیری می شود. تجزیه و تحلیل معمولاً چیزی شبیه به این است: modelout <- lmer(Response ~ Crop + (Month|ID) + (1|Block) , data=cropdata, family=gamma(link=inverse)) با این حال، فقط برای ایجاد همه چیز پیچیده است، اولین اندازه گیری قبل از کاشت انجام می شود، بنابراین تحت تأثیر نوع محصول سال قبل است. یعنی برای قطعه $A_1$، محصول ماه 1 گندم است، اما انواع محصول ماه 2-4 جو است. آیا راهی برای تحلیل این موضوع در یک مدل وجود دارد؟ از طرف دیگر، من دو گزینه را می بینم: 1. تجزیه و تحلیل ماه = 1 به طور جداگانه از تجزیه و تحلیل اندازه گیری های تکراری برای ماه = 2-4. 2. از اثرات ثابت مرکب استفاده کنید، به عنوان مثال، گندم-جو، گندم-ذرت، و غیره. پیشنهادی دارید؟ ویرایش شده تا اضافه شود: فکر دیگری - آیا می‌توانیم پاسخ ماه اول و انواع محصول را به عنوان متغیرهای کمکی (به ترتیب پیوسته و طبقه‌بندی) به مدل اضافه کنیم؟
تجزیه و تحلیل اقدامات مکرر زمانی که اثر ثابت در درون افراد تغییر می کند؟
109584
چیزی که من دارم یک گروه درمانی متشکل از 90 نفر است. من مجموعه‌ای از افراد واجد شرایط برای گروه کنترل خود را دارم که می‌خواهم بر اساس سن و جنسیت با نسبت 1:1 مطابقت داشته باشند. آیا بسته یا تابع عملی در R برای یافتن چنین گروه کنترل بهینه ای وجود دارد؟
انتخاب از یک گروه کنترل بزرگتر برای نسبت 1:1
109580
آیا کسی مفهوم کاهش ابعاد با تجزیه و تحلیل مؤلفه های غالب را می داند؟ ? این در یکی از مقالات علمی معرفی شده است. لطفا یکی توضیح بده چطور کار میکنه در زیر لینک مقاله آمده است. مفهوم توضیح داده شده در بخش 4.3 http://www.eyemaginary.com/Rendering/TurnColorsGray.pdf
کاهش ابعاد با تجزیه و تحلیل مولفه غالب
29045
> **موضوع تکراری:** > تابع توزیع نابرابری من در تلاش برای درک یک اثبات هستم (بدون تکلیف). اگر $\frac{\overline{F}(x-y)}{\overline{F}(x)} \rightarrow 1$ برای $x \rightarrow \infty$، پس چرا موارد زیر دنبال می‌شوند: $\int\limits_{ 0}^{s}\frac{\overline{F}(t-u)}{\overline{F}(t)}dF(u)\geq 1-\frac{\epsilon}{4}$، که $s,t>0$.
تابع توزیع نابرابری
29044
تازه کار R و Statistics اینجاست. خوب، من یک رگرسیون لجستیک دارم و از تابع پیش بینی برای ایجاد یک منحنی احتمال بر اساس برآوردهایم استفاده کرده ام. ## مدل LOGIT: library(car) mod1 = glm(factor(win) ~ as.numeric(bid)، data=mydat, family=binomial(link=logit)) ## منحنی احتمال: all.x <- expand.grid(won=unique(win), bid=unique(bid)) y.hat.new <- predict(mod1, newdata=all.x, type=response) plot(bid<-000:1000,predict(mod1,newdata=data.frame(bid<-c(000:1000)),type=response), lwd =5, col=blue, type=l) این عالی است اما من کنجکاو هستم که فواصل اطمینان را برای احتمالات ترسیم کنم. من plot.ci() را امتحان کردم اما شانسی نداشتم. آیا کسی می تواند به من راه هایی را برای انجام این کار، ترجیحاً با پکیج ماشین یا پایه R، به من معرفی کند. با تشکر.
ترسیم فواصل اطمینان برای احتمالات پیش بینی شده از یک رگرسیون لجستیک
109586
من دو بردار تصادفی دارم، $A$ و $B$ که هر کدام متشکل از $n$ مختصات جغرافیایی $(x_1,y_1),(x_2,y_2)\dots (x_n,y_n)$ و $(\tilde{ x}_1،\tilde{y}_1)،(\tilde{x}_2،\tilde{y}_2)\dots (\tilde{x}_n،\tilde{y}_n)$، به ترتیب. فرض کنید یک توزیع داده شده داریم. اجازه دهید $p_1,p_2,\dots,p_n$ احتمالات مربوط به نقاط $A$ و $\tilde{p}_1,\tilde{p}_2,\dots,\tilde{p}_n$ مربوطه باشد احتمالات برای نقاط به $B$. سوال من این است: بهترین راه برای یافتن فاصله بین $A$ و $B$ چیست؟ من به دنبال اندازه‌گیری فاصله هستم که اگر مختصات در $A$ و $B$ یکسان باشند (به هر ترتیبی ظاهر می‌شوند) به من مقدار صفر می‌دهد و وقتی مختصات در $A$ و مقدار زیادی را برمی‌گرداند. $B$ از هم دور هستند. من استفاده از یک ماتریس کوواریانس را در نظر گرفتم اما شهود پشت استفاده از آن را نمی‌دانم. در ویکی پدیا، http://en.wikipedia.org/wiki/Statistical_distance، معیارهای آماری زیادی فهرست شده است. آیا کسی می تواند در مورد چگونگی انتخاب یک اندازه گیری فاصله مناسب با توجه به ویژگی های مشکل من به من کمک کند؟
فاصله بین دو بردار تصادفی
91290
بنابراین می‌دانم که وقتی HMM را برای طبقه‌بندی آموزش می‌دهید، رویکرد استاندارد این است: 1. مجموعه داده‌های خود را به مجموعه‌های داده برای هر کلاس 2 جدا کنید. یک HMM در هر کلاس 3 آموزش دهید. در مجموعه آزمایشی، احتمال هر مدل را برای طبقه‌بندی هر مدل مقایسه کنید. پنجره اما چگونه می توانم HMM را در هر کلاس آموزش دهم؟ آیا من فقط داده های مربوط به یک کلاس را به هم متصل کنم؟ اما آیا قرار نیست داده های سری زمانی متوالی باشد - و اگر این کار را انجام دهم، می گویم که برخی از نقاط داده متوالی هستند در حالی که نیستند؟ برای دقیق تر بودن، من مقداری داده EEG دارم که یک ماتریس 96xT است که در آن من 96 بردار ویژگی دارم که چگالی طیفی توان فرکانس های مختلف از کانال های مختلف است و T طول زمان سیگنال (در برخی از نرخ های نمونه برداری) است. به پنجره هایی تقسیم شود که من از پروتکل آزمایشی می شناسم (داده ها دارای برچسب هستند) و بنابراین می توانم مجموعه هایی از ماتریس های 96*t را برای هر کلاس جمع آوری کنم. جایی که t کمتر از T است و اندازه هر پنجره را نشان می دهد. چگونه می توانم HMM را روی این داده ها آموزش دهم؟ اگر کمک می کند، سعی می کنم از جعبه ابزار pmtk3 استفاده کنم، اما من واقعاً از هر چیزی استفاده می کنم - فقط باید بتواند با مشاهدات با ارزش واقعی مقابله کند زیرا چگالی های طیفی توان پیوسته هستند نه گسسته (جعبه ابزار پیش فرض MATLAB فقط می تواند کار کند. با مشاهدات گسسته). هدف این است که بتوانیم پنجره‌های داده‌های EEG را به یک وضعیت ذهنی خاص با آموزش داده‌های برچسب‌گذاری شده طبقه‌بندی کنیم. این یک مشکل رابط مغز و کامپیوتر با استفاده از داده های مسابقه برلین BCI است.
چگونه HMM ها را برای طبقه بندی آموزش دهم؟
112236
برای معرفی مسئله، توزیع نرمال Projected را توضیح خواهم داد. اجازه دهید $\mathbf{z}_i=(z_{i1},z_{i2})$ یک بردار دو متغیره باشد که به صورت عادی دو متغیره با میانگین بردار $\boldsymbol{\mu}$ و ماتریس کوواریانس $\boldsymbol{\Sigma توزیع شده است. }$. اگر تبدیل زیر را انجام دهیم $x = \text{atan2}(z_{i2},z_{i1})$ (تعریف $\text{atan2}$ در http://en.wikipedia قابل مشاهده است. .org/wiki/Atan2)، $x_i$ گفته می شود که به عنوان یک متغیر عادی پیش بینی شده با پارامتر $\boldsymbol{\mu}$ و توزیع می شود. $\boldsymbol{\Sigma}$. از آنجایی که $\text{atan2}(z_{i2},z_{i1})=\text{atan2}(cz_{i2},cz_{i1})$ برای هر $c>0$، پارامتر نرمال پیش بینی شده توزیع قابل شناسایی نیست مگر اینکه از یک محدودیت شناسایی استفاده کنیم. به طور کلی واریانس جزء دوم $\mathbf{z}$ $1$ در نظر گرفته می‌شود و اجازه می‌دهیم $\mathbf{V}$ $\boldsymbol{\Sigma}$ با محدودیت و با $\boldsymbol{ باشد. \mu}^*$ بردار مربوط به $\boldsymbol{\mu}$، از $(\boldsymbol{\mu}، \boldsymbol{\Sigma})$ همیشه می‌توانیم $(\boldsymbol{\mu}^*, \mathbf{V})$ را محاسبه کنیم. اکنون در نظر بگیرید $n$ مشاهدات $x_i، i=1،...، n$ و می‌خواهیم توزیع پسین $\boldsymbol{\mu}^*, \mathbf{V}| x_1،...، x_n$. من باید توزیع‌های قبلی را انتخاب کنم، برای $\boldsymbol{\mu}^*$ از توزیع معمولی استفاده می‌کنم، اما با نسخه قبلی در $\mathbf{V}$ مشکلاتی دارم. در این حالت ساده می توانم $\mathbf{V}$ را از نظر واریانس و همبستگی پارامتر کنم و بر واریانس جزء مشت و ضریب همبستگی مقدماتی قرار دهم اما در برخی موارد $x_i$ می تواند چند بعدی باشد و سپس $\mathbf{ به عنوان مثال، V}$ می تواند یک ماتریس 10$ \ برابر 10$ باشد و پارامترسازی از نظر واریانس و همبستگی امکان پذیر نیست. این سوال/ایده من است: می توانم $\boldsymbol{\mu}، \boldsymbol{\Sigma}| x_1,...,x_n$ و سپس نمونه های عقبی را به نمونه های عقبی $\boldsymbol{\mu}^*, \mathbf{V}| x_1،...، x_n$. مطمئن نیستم که بتوانم این کار را انجام دهم، اما فکر می کنم این فقط یک ادغام MCMC است، چیزی شبیه به: $$ f(\boldsymbol{\mu}^*, \mathbf{V}| x_1,...,x_n) = \int_{(\boldsymbol{\Sigma}، \boldsymbol{\mu})\rightarrow(\mathbf{V}، \boldsymbol{\mu}^*)} f(\boldsymbol{\mu}، \boldsymbol{\Sigma}| x_1،...،x_n) d(\boldsymbol{\Sigma}، \boldsymbol{\mu}) $$ که در آن $f()$ برابر است pdf و انتگرال $\int_{(\boldsymbol{\Sigma}, \boldsymbol{\mu})\rightarrow(\mathbf{V}، \boldsymbol{\mu}^*)} d (\boldsymbol{\Sigma}، \boldsymbol{\mu})$ باید به عنوان انتگرال چندگانه روی همه مقادیر $\boldsymbol{\Sigma}$ و $\ در نظر گرفته شود. boldsymbol{\mu}$ که می تواند به $\mathbf{V}$ و $\boldsymbol{\mu}^*$ ترسیم شود (من مطمئن نیستم که انتگرال به خوبی نوشته شده است). از آنجایی که $\boldsymbol{\Sigma}$ یک ماتریس کوواریانس است، آیا من درست فکر می‌کنم که می‌توانم از توزیع Wishart معکوس عادی در $\boldsymbol{\mu}، \boldsymbol{\Sigma}$ استفاده کنم و مشکل حل شود؟ علاوه بر این، چگونه می توانم پارامترهای توزیع عادی معکوس Wishart را تفسیر کنم
قبل از ادغام MCMC پارامتر غیر قابل شناسایی
115186
فرض کنید می‌خواهم نمونه‌گیری را از یک توزیع نرمال با واریانس نامشخص انجام دهم، و می‌خواهم روشی برای نمونه‌گیری به‌گونه‌ای انجام دهم که به نوعی «میانگین مقادیر احتمالی واریانس» را بگیرم. به عبارت دیگر، من می‌خواهم از نتایج شبیه‌سازی در جای دیگری استفاده کنم، و شنیدن نتایج به شدت به واریانس وابسته است، و بنابراین می‌خواهم از «مطلوب» کردن یک واریانس بر دیگری اجتناب کنم. به این فکر می‌کردم که شاید بتوانم واریانس را پیش‌بینی کنم و با توجه به ترسیم‌ها، واریانس حاشیه‌ای واریانس را استخراج کنم، تخمین MAP واریانس را پیدا کنم، مثلاً $m$، و سپس دوباره از یک $\mathcal{N} شبیه‌سازی کنم. (0، متر) توزیع دلار؟ اگر نه، چگونه می توانم این کار را انجام دهم؟
شبیه سازی از یک نرمال با واریانس ناشناخته.
48553
رگرسیون خطی - عبارت خطای واریانس
29047
من سعی می کنم همانطور که در پیوند http://www.math.ntnu.no/~hrue/GMRFsim/doc/html/ ذکر شده است به GMRFlib دسترسی پیدا کنم. با این حال فکر می کنم دیگر در دسترس نیست. تربال ذکر شده را نتوانستم ببینم. آیا کسی به آن دسترسی دارد؟
درباره GMRFlib
48550
من سعی می‌کنم راهی برای محاسبه احتمال حضور/غیاب بر روی بردارهای تصادفی پیدا کنم که حاوی دنباله‌هایی از مقادیر هستند و نه شاخص‌های حضور/غیاب. فرض کنید من یک مجموعه $S$ از مقادیر ممکن، طول برداری $L$، و بردار تصادفی $\vec{W} \در S^{L}$ با توزیع شناخته شده $P(\vec{W})$ دارم. من می توانم تابعی را برای تبدیل یکی از این بردارها به بردار بیتی تعریف کنم که نشان می دهد آیا مقدار داده شده در $S$ وجود دارد یا نه در $\vec{W}$: $\sigma(\vec{W}) = \langle \bigvee_{j}^{L} W_{j}=s : \forall s \in S \rangle$ اما از آنجایی که هر تابعی از یک متغیر تصادفی نیز تصادفی است متغیر، آیا می توانم به نحوی یک تابع احتمال برای بردارهای حضور/غیاب خاص (این را $\vec{X}$ صدا کنید) استخراج کنم که بر حسب $P(\vec{W})$ اصلی بیان می شود؟ ## سوال در مثال (زیر) من تابعی را برای محاسبه احتمالات در بردارهای حضور/غیاب تعریف می‌کنم، اما اساساً آن را چشم کرده‌ام و به این رویکرد اعتماد زیادی ندارم. آیا روش سیستماتیک تری برای محاسبه توزیع بر روی چنین تابعی از یک بردار تصادفی وجود دارد؟ آیا تغییر متغیرها راهنمایی می کند؟ ## تنظیم مثال: $$ S = \\{ 1, 2 \\} \\\ L = 2 \\\ P(\vec{W}=\langle 1,1\rangle) = 0.1 \\\ P( \vec{W}=\langle 1,2\rangle) = 0.1 \\\ P(\vec{W}=\langle 2,1\rangle) = 0.4 \\\ P(\vec{W}=\langle 2,2\rangle) = 0.4 $$ محاسبه بردارهای حضور/غیاب: $$ \sigma(\langle 1,1\rangle) = \langle 1,0\rangle \\\ \sigma(\langle 1,2\rangle) = \langle 1,1\rangle \\\ \sigma(\langle 2,1\rangle) = \langle 1,1\rangle \\\ \sigma(\langle 2,2\rangle) = \langle 0,1\rangle $$ محاسبه بردار حضور/غیاب: $$ P(\ vec{X}=\langle1,1\rangle) = \sum_{w' \in S^{L} \wedge \sigma(w')=\langle1,1\rangle} P(\vec{W}=w') = 0.1 + 0.4 = 0.5 $$ یا، به طور کلی، $$ P(\vec{X}=x') = \sum_{w' \in S^{L} \wedge \sigma(w')=x'} P(\vec{W}=w') $$ برای یک مقدار خاص: $$ P(X_i=b) = \sum_{x' \in \\{0,1\\}^{|S|} \wedge x'_i=b} P(\vec{X}=x') \\ \ P(X_i=b) = \sum_{x' \in \\{0,1\\}^{|S|} \wedge x'_i=b} \sum_{w' \in S^{L} \ گوه \sigma(w')=x'} P(\vec{W}=w') $$
115187
اگر یک فاصله اطمینان متوسط ​​و (95%) برای ما ارائه شود، آیا می‌توان سیستمی را راه‌اندازی کرد که در آن مقادیر تصادفی را که در 5% مواقع خارج از CIs هستند ترسیم کنیم؟ شهود من این است که اگر بتوان توزیعی را تولید کرد که در آن 68% از قرعه کشی های تصادفی در یک بازه معین قرار می گیرند، در آن صورت می توان توزیعی را نیز ایجاد کرد که در آن 95% از ترسیم ها در یک بازه قرار می گیرند. نمونه هایی در R همیشه مفید هستند!
نمونه گیری از فواصل اطمینان
115183
هنگامی که در تحلیل اندازه گیری مکرر (مدل مختلط خطی) مشروط به اثر تصادفی باشد، چگونه پاسخ ها مستقل هستند؟
استقلال مشروط در طراحی اقدامات مکرر
111638
من داده های طبقه بندی شده ای در قالب پاسخ صحیح (به ترتیب 0/1 برای هر مورد) و شیوع یک تصور غلط (0/1 برای هر تصور غلط در مورد هر مورد) از ارزیابی قبل و بعد دارم. در حالت ایده‌آل، من می‌توانم از pre/post به‌عنوان متغیر مستقل در تحلیل کای‌دو برای هر مورد/تصور اشتباه استفاده کنم. با این حال، من متوجه شده ام که معلم/مدرسه به نظر می رسد تأثیر قابل توجهی بر عملکرد دانش آموزان دارد (هم بر اساس ماده به ماده و هم به صورت کلی)، و تعداد نامناسبی از دانش آموزان از هر مدرسه در نمونه وجود دارد. فکر می‌کنم یک تحلیل خطی در اینجا مناسب باشد (اگرچه می‌توانم اشتباه کنم و از تصحیح استقبال کنم)، اما مطمئن نیستم که چگونه این را به درستی در SPSS مرحله‌بندی کنم و نمی‌دانم که آیا می‌توان تأثیر معلم/مدرسه را در درون آن قرار داد. قرار گرفتن در معرض برنامه درسی (قبل/پس از آن) یا اینکه آیا آن حتی ضروری است. اطلاعات بیشتر در مورد نمونه: n=308 (برای هر دو قبل و بعد، کل نقاط داده = 616). دانش‌آموزان قبل و بعد از تکمیل برنامه درسی آزمایشی با آزمون‌های پیش/پس‌آزمون اساساً یکسان ارزیابی شدند.
115182
* داده های مربوط به میانگین درآمد ماهانه از 2000 فروشگاه در سراسر کشور. * ضریب جینی. از reve حدود 20٪، با 50٪ مشاهده در اطراف میانگین، دنباله توزیع بسیار نازک * متغیرهای توضیحی: موقعیت جغرافیایی رقبا، رانندگان ترافیک، قدرت خرید، جمعیت و غیره در منطقه آبریز (اکثر نمودارهای پراکنده ابری شکل با همبستگی کوچک) * برخی از موارد پرت من درختان glm، svr، رگرسیون را با تقویت امتحان کردم. تمام پیش‌بینی‌های مدل‌ها فقط کمی بهتر از میانگین هستند (RMSE در میانگین مدل = 40k، RMSE در رگرسیون = 35k، میانگین reve = 130k)، با خطاهای کوچک در مرکز و تخمین بیش‌ازحد بزرگ در دم سمت چپ و دست کم‌گرفتن در دم سمت راست. آیا ایده ای برای نوع مدل جدید یا تکنیک پیش بینی که بتواند بهتر در دم بدون اختلال بزرگ در مرکز جا شود؟
هارد کیس - پیش بینی درآمد فروشگاه های زنجیره ای
30916
آیا کسی تعدادی **_کتابخانه جاوا_** برای ایجاد ماتریس سند-ترم برای تعداد زیادی (50000) سند می شناسد؟ ای کاش این کتابخانه دارای عملکردهای پیش پردازش، مانند حذف کلمات توقف و نقطه گذاری، ریشه یابی، و غیره باشد. ترجیحاً کتابخانه های جاوا را برای راحتی توسعه ترجیح می دهم. برای هر توصیه ای بسیار متشکرم
نرم افزار یا کتابخانه هایی برای ایجاد ماتریس doc-term
108192
105920
من مجموعه ای از نقاط دارم که روی یک دایره قرار دارند و زوایای آنها را می دانم. آیا راهی وجود دارد که بتوانم آزمایش کنم که آیا آنها به نقطه دیگری از 'x' در دایره نزدیکتر از آنچه اتفاقی انتظار می رود (با فرض توزیع یکنواخت روی دایره) نزدیکتر هستند؟ آیا می توانم میانگین طول قوس بین 'x' و داده ها را محاسبه کنم و سپس همان را برای هر یک از مجموعه داده های شبیه سازی شده تولید شده توسط توزیع یکنواخت محاسبه کنم؟
داده های روی یک دایره - آزمایش اینکه آیا نقاط به نقطه داده شده دیگری نزدیک هستند یا خیر
115188
من سعی می کنم ببینم آیا 2 متغیر (یکی مقوله ای دوگانه و دیگری پیوسته) وقوع یک متغیر وابسته مقوله ای دوگانه را پیش بینی می کنند یا خیر. متغیر وابسته LENIpos است - 0 = بدون رویداد، 1 = متغیرهای پیش بینی کننده رویداد Hip.Prox.Femur - 0 = بدون شکستگی لگن، 1 = شکستگی لگن و سن (پیوسته) هر دو متغیر پیش بینی کننده در آزمون مجذور کای مجزا دارای مقادیر p معنی داری هستند و تست من ویتنی U به ترتیب. هنگامی که من یک رگرسیون لجستیک glm(LENIpos ~ سن + Hip.Prox.Femur، خانواده = دو جمله ای) را اجرا می کنم، متغیرها معنی دار نیستند. (1) با این حال، وقتی رگرسیون لجستیک را با تعاملات `glm( LENIpos ~ سن * Hip.Prox.Femur...)` (2)، هر دو مهم نیستند مثال R خروجی ها: (1) تماس: glm(فرمول = LENIpos ~ سن + Hip.Prox.Fem، خانواده = دوجمله ای، داده = dvt) باقیمانده های انحرافی: حداقل 1Q میانه 3Q حداکثر -0.9346 -0.7826 -0.4952 -0.33897 ضریب 2. تخمین مقدار خطای z Pr(>|z|) (Intercept) -3.46888 1.00693 -3.445 0.000571 *** سن 0.02122 0.01519 1.397 0.162535 Hip.Prox.Femhip شکستگی 0.725 0.79 0.210212 (پارامتر پراکندگی برای خانواده دوجمله ای 1 در نظر گرفته شده است) انحراف صفر: 145.23 در 151 درجه آزادی انحراف باقیمانده: 135.48 در 149 درجه آزادی AIC: 141.48 تعداد Fisher Scoring تعداد تکرارهای Fisher Scoring (2 تکرارهای سنی ~5m) * Hip.Prox.Fem، خانواده = دو جمله ای، داده = dvt) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -1.0364 -0.7815 -0.5373 -0.1761 2.3443 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -5.89984 1.98289 -2.975 0.00293 ** سن 0.05851 0.02818 2.076 0.03788 * Hip.Prox.Femhip شکستگی 6.290.290.290.4020 5. 0.04031 * سن: هیپ. پروکس. شکستگی استخوان ران -0.06058 0.03339 -1.814 0.06965. (پارامتر پراکندگی برای خانواده دوجمله ای 1 در نظر گرفته شده است) انحراف صفر: 145.23 در 151 درجه آزادی انحراف باقیمانده: 131.82 در 148 درجه آزادی AIC: 139.82 تعداد تکرارهای امتیازدهی فیشر: 6
تفسیر رگرسیون لجستیک چندگانه با تعاملات در R
95273
آیا عدم موفقیت در آزمون ناهمسانی به این معنی است که باید مدل را رد کنم؟
31066
من در حال حاضر از یک SVM با هسته خطی برای طبقه بندی داده های خود استفاده می کنم. هیچ خطایی در مجموعه آموزشی وجود ندارد. چندین مقدار را برای پارامتر C امتحان کردم (10^-5، ...، 10^2). این خطای مجموعه آزمایشی را تغییر نداد. حالا من تعجب می کنم: آیا این یک خطا ناشی از پیوندهای یاقوتی برای libsvm است که من استفاده می کنم (https://github.com/febeling/rb-libsvm) یا از نظر تئوری قابل توضیح است؟ آیا پارامتر C همیشه باید عملکرد طبقه بندی کننده را تغییر دهد؟
تأثیر C در SVM با هسته خطی چیست؟
31068
این تا حد زیادی یک درخواست ادبی است. من اطلاعاتی دارم که شامل، برای هر استفاده از کارت اعتباری، مالک کارت، فروشگاه و زمان استفاده است. این می تواند به عنوان مجموعه ای از فرآیندهای نقطه وابسته مرتبط با لبه های یک نمودار بزرگ در نظر گرفته شود، جایی که راس ها صاحبان کارت اعتباری و فروشگاه هایی هستند که کارت های اعتباری را می پذیرند. من علاقه مند به تلاش برای مدل سازی این اطلاعات هستم، به ویژه به گونه ای که بتوان پس از آن، داده های مدل را بدون مشکل زیاد شبیه سازی کرد. اگر فقط بتوان در مراحل زمانی گسسته کوچک شبیه سازی کرد، اشکالی ندارد. آیا ادبیاتی در مورد این نوع موضوع وجود دارد؟ آیا مقاله خوبی برای خواندن دارید؟
مدل های یادگیری برای فرآیندهای نقطه وابسته
105924
من یک فیلتر کالمن دارم (یک فیلتر حداقل مربعات بازگشتی، واقعاً) که در جریان‌های بلادرنگ داده‌ها پسرفت می‌کند. از آنجا که فرآیند تولید داده در طول زمان کمی متفاوت است، من یک عامل فراموشی نمایی به فیلتر کالمن اضافه می کنم. همه چیز به خوبی با پیش بینی خوب مطابقت دارد. مشکلی که من دارم این است که متغیرهای جریان ورودی گاهی وارد دوره های طولانی تعادل می شوند. در آن دوره‌های زمانی، تمام چیزی که در جریان‌های ورودی دریافت می‌کنم، همان $y_t$ و همان $x_t$ است (به جز نویز سفید پس‌زمینه). اگر تعادل برای مدت کافی باقی بماند، تناسب کالمن شروع به تخریب می کند زیرا داده های مفید قدیمی را فراموش می کند و به نویز پس زمینه در حالت تعادل اهمیت بیشتری می دهد. آنچه من می خواهم بدانم این است که آیا روشی برای جلوگیری از تطبیق بیش از حد فیلتر برای داده های جدید بی فایده وجود دارد یا خیر. در حال حاضر من از روش‌های بسیار موقت استفاده می‌کنم (محاسبه انحراف استاندارد متحرک برای استفاده به عنوان وزن در رگرسیون)، اما باید راه بهتری برای منظم کردن رگرسیون در یک محیط آنلاین وجود داشته باشد.
چگونه با حملات تعادل در یک محیط یادگیری آنلاین مقابله کنیم؟
31060
چه تفاوتی بین این مدل های نمایش متن وجود دارد: کیسه کلمات و مدل فضای برداری؟
کیسه کلمات در مقابل مدل فضای برداری؟
105929
> با توجه به 2 مجموعه موجودیت از 2 کلاس مختلف که توسط خواص توصیف شده اند > $f_1...f_n$، هر 2 موجودیت از 2 کلاس مختلف با هم دارای یک > امتیاز هستند: ${\rm Score}(c_1e_1,c_2e_1) = y$ . چگونه می توان یک مدل تابع / > استخراج کرد که امتیاز هر جفت از دو کلاس مختلف را با توجه به ویژگی های آن پیش بینی می کند؟ اصطلاح این مشکل در تحقیقات چیست؟
این مشکل در تحقیقات یادگیری ماشینی چیست؟
72572
من دو نمونه s1 و s2 از داده های شمارش دارم. حجم نمونه هر کدام > 1000 است. توزیع ها شبیه به توزیع پواسون هستند اما واریانس آن بسیار بزرگتر از میانگین است. چگونه می توانم آزمایش کنم که آیا میانگین s1 بزرگتر از میانگین s2 است؟
تفاوت میانگین برای داده های شمارش
72570
فرض کنید من یک توزیع پسین را از طریق MCMC بدست می‌آورم. این مقداری شبیه سازی شده برای پارامترها به یک مدل آماری می دهد. اگر من توزیع پیش بینی پسین را یک دوره قبل محاسبه کنم، می توانم به سادگی از مقادیر توزیع پسین شبیه سازی شده برای پیش بینی استفاده کنم. با این حال، اگر من توزیع پیش‌بینی پسین را در هر یک از دوره‌های $t$ پیش رو بخواهم، گزینه‌هایی دارم. من می‌توانم: 1. از پارامترهای شبیه‌سازی‌شده از توزیع پسین برای شبیه‌سازی از پیش‌بینی‌کننده پسین در هر یک از دوره‌های $t$ استفاده کنم. یعنی می‌توانید از هر دوره پسین شبیه‌سازی‌شده در دوره‌های $t$ (با صرفه‌جویی در هر دوره) شبیه‌سازی کنید. 2. برای هر $t$ به جای یکبار برای هر $t$، یک پسین متفاوت شبیه سازی کنید. از پارامترهای پسین دوره خاص برای تولید پیش بینی پسین استفاده کنید. 3. مقياس پسين را به آنچه براي هر دوره مناسب است تقسيم كنيد و سپس مستقيماً هر دوره را شبيه سازي كنيد. به عنوان مثال، اگر پارامترهای مربوطه میانگین و واریانس یک توزیع نرمال باشند، می توان آنها را در $t$ ضرب کرد تا توزیع پسین را در هر $t$ بدست آورد. این رویکرد مستقیم به خوبی کار می‌کند اگر من فقط به پیش‌بینی پسین در زمان $t$ اهمیت بدهم، اما اگر به دوره‌های میانی اهمیت می‌دهم، ممکن است به طور کلی موثر نباشد. من از رویکرد اول استفاده کرده ام، اما مطمئن نیستم که آیا/چرا بهتر از رویکرد دوم است.
شبیه سازی از پیش بینی پسین در طول دوره های متعدد
29986
پارتیشن بندی واریانس و تغییرات طولی در همبستگی با داده های باینری
55098
* آیا کتاب درسی یا گزارش توضیحی وجود دارد که نشان دهد تعریف آزمون بی طرفانه همان رابطه ای را با برآورنده بی طرفانه دارد که تخمین بازه معمولاً با فواصل اطمینان دارد؟ (کسی $H_0 : \mu=\text{whatever}$ را دقیقاً رد می کند اگر $\text{whatever}$ در بازه اطمینان $\mu$ نباشد.) * به طور مشابه، گزارشی از رابطه بین مفهوم قوی ترین تست یکنواخت و یکنواخت دقیق ترین فاصله اطمینان؟ * اگر اشتباه نکنم، آزمون F $\sigma_1^2=\sigma_2^2$ در مقابل $\ne$، که در آن واریانس‌های جمعیت‌های معمولی توزیع شده هستند، بی‌طرفانه نیست. آیا این واقعاً آن را به یک آزمون ضعیف تبدیل می کند و در نتیجه چه پیشرفت هایی در آن لازم است؟
آزمون فرضیه های بی طرفانه
94896
بیز در انگلیسی
3
برخی از پروژه های منبع باز تجزیه و تحلیل آماری ارزشمند در حال حاضر کدامند؟ ویرایش: همانطور که توسط شارپی اشاره شده است، ارزشمند می تواند به شما کمک کند تا کارها را سریعتر یا ارزان تر انجام دهید.
چند پروژه با ارزش تحلیل آماری منبع باز چیست؟
3955
### زمینه: من گروهی از وب سایت ها را دارم که تعداد بازدیدهای روزانه را در آنها ثبت می کنم: W0 = { 30، 34، 28، 30، 16، 13، 8، 4، 0، 5، 2، 2، 1، 2، .. } W1 = { 1، 3، 21، 12، 10، 20، 15، 43، 22، 25، .. } W2 = { 0، 0، 4، 2، 2، 5، 3، 30، 50، 30، 30، 25، 40، .. } ... Wn ### سوال عمومی : * چگونه تعیین کنم که کدام سایت ها فعال ترین هستند؟ منظور من از این است که بازدیدهای بیشتری داشته باشید یا افزایش ناگهانی بازدید در چند روز گذشته داشته باشید. به عنوان مثال، در مثال کوچک بالا، W0 در ابتدا محبوب بود، اما شروع به رها شدن می‌کند، W1 محبوبیت ثابتی را نشان می‌دهد (با مقداری اوج جدا شده)، و W3 افزایش مهمی پس از شروعی آرام دارد. ### افکار اولیه: من این موضوع را در SO پیدا کردم که در آن یک فرمول ساده توضیح داده شده است: ` // بازدید از صفحه برای آخرین روز y2 = بازدید از صفحه[-1] // بازدید از صفحه برای روز قبل y1 = بازدید از صفحه[-2] // ساده شیب الگوریتم روند پایه = y2 - y1 روند = شیب * log(1.0 +int(total_pageviews)) خطا = 1.0/sqrt(int(total_pageviews)) روند بازگشت، خطا به نظر می رسد به اندازه کافی خوب و آسان است، اما من با آن مشکل دارم. محاسبه بر اساس شیب است. این خوب است و یکی از ویژگی هایی است که من به آن علاقه دارم، اما IMHO برای سری های غیر یکنواخت مشکل دارد. تصور کنید که در برخی روزها تعداد بازدیدهای ثابتی داشته باشیم (بنابراین شیب = 0)، آنگاه روند فوق صفر خواهد بود. ### سوالات: * چگونه می توانم هر دو مورد (افزایش/کاهش یکنواخت) و تعداد زیاد بازدیدها را کنترل کنم؟ * آیا باید از فرمول های جداگانه استفاده کنم؟
تعیین اینکه آیا یک وب سایت با استفاده از بازدیدهای روزانه فعال است یا خیر
55097
با توجه به $X_1...X_n$ i.i.d. برنولی R.V.s با پارامتر $\theta$، من یک UMVUE برای $\tau(\theta)=\theta^2+\theta$ با Rao-Blackwellization پیدا کردم. این فرآیند برای من کاملاً ساده به نظر می رسید، و من به $\frac{T(n+T-2)}{n(n-1)}$ رسیدم، جایی که T تعداد موفقیت ها و n عدد است. از آزمایشات دوم، کران پایین Cramer-Rao را محاسبه کردم و با $\frac{(4\theta^2+4\theta+1)(\theta(1-\theta))}{n}$ پایان دادم. من می خواهم این هر دو را رسم کنم و ببینم آیا UMVUE به CRLB می رسد یا خیر، اما برای انجام این کار باید واریانس UMVUE خود را پیدا کنم! تصور می‌کنم می‌خواهم این مورد را به‌عنوان $E([\mathrm{umvue}]^2) - E([\mathrm{umvue}])^2$ انجام دهم، و از قبل می‌دانم که $E([\mathrm{umvue }])$ $\theta^2 + \theta$ است، زیرا بی طرفانه است. با این حال لحظه دوم من را به شدت گیج می کند. در واقع من نمی دانم چگونه به آن نزدیک شوم. آیا چیزی واضح را گم کرده ام؟ با تشکر از کمک! (و لطفاً اگر چیزی وجود دارد که باید توضیح دهم، به من اطلاع دهید!) من سؤال را تمام کردم، و در واقع شامل لحظات 4 و 3 دوجمله ای بود. اگر کسی با مشکل مشابهی روبرو شود، http://mathworld.wolfram.com/BinomialDistribution.html حاوی لحظه های اول تا چهارم توزیع است که باید مقدار زیادی از محاسبات را برای شما ذخیره کند!
تعیین واریانس یک U.M.V.U.E
55093
هنگام مشاوره، من اغلب تجزیه و تحلیل اکتشافی و نمونه سازی را در R انجام می دهم و نتایج را روی مجموعه داده اولیه به مشتری ارائه می دهم. مشتری می خواهد از طبقه بندی کننده آموزش دیده در یک محیط تولید استفاده کند. به عنوان مثال، فرض کنید که کلاینت می خواهد 1000 رکورد را در روز از طریق طبقه بندی کننده اجرا کند. ** چگونه باید طبقه بندی کننده آموزش دیده را تحویل دهم؟** به عنوان مثال: 1. مقاله ای را که نتایج و کد R را توصیف می کند ارسال کنید که دقیقاً کار من را تکرار کند و امیدوارم که مشتری بتواند یک سرور تولید بسازد و آن را به درستی پیاده سازی کند؟ 2. پس از اثبات مفهوم، R را رها کنید، و طبقه‌بندی کننده را در یک زبان برنامه‌نویسی متفاوت بنویسید (مثلاً پایتون) که به راحتی توسط مشتری قابل استقرار است؟ 3. سعی کنید وب سروری راه اندازی کنید که نمونه ای از R را اجرا کند؟ 4. داده های مشتری را بپذیرید و در صورت درخواست اجرا کنید؟
چگونه باید یک طبقه بندی کننده را بین مشتریان توزیع کنم؟
34748
من یک سوال در مورد استفاده از روش های طراحی تجربی برای اعتبار سنجی متقابل در یک رویکرد غیر متعارف دارم. من از یک تصویر برای توضیح سوال استفاده می کنم. تصور کنید 100 سری زمانی دارید که روی هم چیده شده و به پارتیشن های فاصله ای مجاور تقسیم شده اند (برای مثال می توانیم از 1990، 1991، 1992 استفاده کنیم). سپس فرض کنید سری های زمانی را از سال اول گرفته و آنها را به فاکتوری با سطوح تبدیل می کنیم. بنابراین، فرض کنید A، B، C به ترتیب نشان دهنده 33 درصد بالا، متوسط ​​و پایین از مجریان هستند. سپس، ما به یک متغیر پاسخ پیوسته مانند درصد بازده در بازه زمانی بعدی نگاه می کنیم. با نادیده گرفتن هرگونه محدودیت در حال حاضر، مانند واریانس نابرابر، می‌توانیم از ANOVA استفاده کنیم تا به ما بگوییم که آیا مجموعه‌ای از متغیرهای پاسخ دارای میانگین‌های آماری متفاوتی هستند یا خیر. علاوه بر این، تصور کنید که متغیر پاسخ مربوط به B با A و C متفاوت است. حال تصور کنید که کادر را به جلو می‌کشیم و همین روش را برای بازه زمانی بعدی اعمال می‌کنیم. می‌خواهم آزمایشی داشته باشم که بررسی کند آیا ویژگی‌های متغیرهای پاسخ دارای تفاوت‌های آماری یکسانی با فاصله قبلی هستند یا نه... و احتمالاً آیا ویژگی‌های سری زمانی (بلوک؟) اساسی تغییر کرده‌اند یا خیر. نمودار برهمکنش دو عاملی را با دو تشکل V روی هم تداخل دارند که تفاوت آماری صفر را نشان می دهد. رویکرد مناسب برای پاسخ به این چیست، آیا این یک تغییر از ANOVA (به عنوان مثال 2-Way) است؟ مهمتر از آن، آیا حوزه تخصصی اختصاص داده شده به نگاه کردن به دیدگاه اعتبارسنجی متقاطع سری زمانی سیگنال مختلط از دیدگاه طراحی تجربی بیشتر وجود دارد؟ شاید جایی در امتداد خطوط تحلیل طولی همراه با تحلیل مقطعی؟
اعتبار سنجی متقاطع با استفاده از روش های طراحی تجربی؟
114376
برآوردگر حداکثر احتمال برای $\theta$ و $E[X]$
34740
من یک مجموعه داده دارم که شامل اندازه گیری هایی از شرایط مختلف است. از آنجایی که فرضیه من تفاوت زیادی را برای اندازه‌گیری‌ها در هر شرایط پیشنهاد می‌کرد، برای پاک کردن داده‌ها، همه شرایط را به‌طور مستقل تجزیه و تحلیل کردم. یعنی من همه اندازه‌گیری‌ها را از یک شرایط به ربع‌ها گروه‌بندی کردم، محدوده بین‌چارکی را محاسبه کردم و سپس هر نقطه‌داده‌ای را که بیش از 1.5 برابر اندازه محدوده بین‌چارکی از میانه بود حذف کردم. حالا یک نفر به اعداد نگاه کرد و گفت که میزان داده های حذف شده بسیار بیشتر از حد معمول است. چندین بار محاسباتم را دوباره بررسی کردم و هر بار به چنین نسبت بالایی از نقاط پرت رسیدم. اکنون به این فکر می‌کردم که اگر همه اندازه‌گیری‌ها را از هر شرایط با هم تجزیه و تحلیل می‌کردم، به احتمال زیاد اندازه‌گیری‌های بسیار کمتری به دلیل تفاوت بین شرایط حذف می‌شد. با این حال، تا آنجا که من این روش‌های تمیز کردن را درک می‌کنم، این روش‌ها برای استفاده در توزیع‌های منفرد (گاوسی) است و نه مجموع دو یا چند توزیع. بنابراین، کدام روش برای تمیز کردن داده ها واقعاً صحیح است: تمیز کردن همه اندازه ها با هم یا تمیز کردن هر شرایط به طور جداگانه؟
آیا تمیز کردن داده ها از شرایط مختلف به طور مستقل خوب است؟
114374
من می خواهم از Stata 13 SE برای تخمین اثرات حاشیه ای استفاده کنم. دستوری که من استفاده می کنم (apc_ie) اجازه استفاده از دستور margins را پس از تخمین نمی دهد، بنابراین باید این کار را به صورت دستی انجام دهم. من معتقدم معادله مناسب در صفحه 3 این مقاله است - http://www.biomedcentral.com/content/pdf/1471-2288-8-80.pdf: $$ PR={\frac 1n\Sigma_i \left( \frac{1}{(1+e^{-\beta_0 + \beta_1 + \beta_2 x_2}}\right)\over \frac1n\Sigma\left(\frac{1}{1+e^{-\beta_0+\beta_2 x_2}}\right)} $$ خوب باشید اگر آموزش MathJax در StackExchange به نحوه کدنویسی نویسه‌های یونانی با زیرنویس اشاره می‌کند. من نمی توانم آن را به کار ببرم. مطمئن نیستم که در مخرج معادله در کاغذ اشتباه تایپی وجود داشته باشد. اگر کسی بینش داشته باشد، در مورد موضوعات مشابهی خلاصه می شود و من می خواهم محاسبه حاشیه ای را برای هر گروه سنی به دست بیاورم. من باید ضرایب را از ماتریس ضریب e(b) پایین بیاورم و معادله احتمالات را ایجاد کنم سن=0 ژن سنB5=5 جایگزین سن B5=_b[سن_5] اگر سن=5 جنس سنB10=0 جایگزین سنB10=_b[سن_10] اگر سن=10 ژن در هرB1960=0 جایگزین perB1960=_b[period_1960] اگر دوره=1960 ژن در هرB1965 =0 جایگزین perB1965=_b[period_1965] اگر period=1965 gen perB1970=0 جایگزین perB1970=_b[period_1970] if period=1970 gen cohB1970=0 جایگزین cohB1970=_b[cohort_1970] gen cohB1965=0 جایگزین cohB1965=_b9[69] cohB1960=_b[cohort_1960] gen cohB1955=0 جایگزین cohB1955=_b[cohort_1955] gen cohB1950=0 جایگزین cohB1950=_b[cohort_1950] این باعث می‌شود که همه افراد با یک دوره سنی و یک مقدار هم‌هورت غیر صفر داشته باشند. ساختگی‌های هر کدام 0/1 طبقه‌بندی می‌شوند، بنابراین ضرب به طور موثر با تولید و جایگزینی دستورات انجام می‌شود. ثابت در _b[cons] است. حالا برای احتمالات من یک سرنخ در این پست پیدا کردم: محاسبه اثر حاشیه در Stata. دقیقاً مشخص نیست که چگونه آن را در مورد من اعمال کنم، اما فکر می کنم چیزی شبیه به زیر برای سن کار می کند (تنظیم دوره و گروه): gen pr_age=((1/1+exp(-_b[cons]+ageB0+ageB5+ageB10+perB1960+perB1965+perB1970+cohB1970+cohB1965+cohB1960+cohB195 5+cohB1950))/((1/1+exp(-_b[معایب]+perB1960+perB1965+perB1970+cohB1970+cohB1965+cohB1960+cohB1955+cohB1950) احتمالات دوره و گروه تا حدودی شبیه به هم هستند، فقط آن متغیرها از اعداد معادلات مربوطه حذف می شوند می توانم pr_age را برای هر یک از این سه سن خلاصه کنم، اما من 100% روشن نیستم که چگونه این کار را انجام دهم؟
43713
من به دنبال محاسبه ماتریس کوواریانس یک فرآیند گاوسی استنباط‌شده در R هستم. در زیر نحوه انجام این کار را به صورت دستی توضیح می‌دهم، اما متوجه شدم که بسته «kernlab» تابع «gausspr» را ارائه می‌کند، که به دلایل بسیاری ارجح است. متأسفانه، در حالی که می‌دانم چگونه می‌توان مقدار مورد انتظار («predict.gausspr») را با استفاده از بسته به دست آورد، نمی‌دانم چگونه می‌توان ماتریس کوواریانس مرتبط را بدست آورد. برای ارائه یک مثال کاری حداقلی برای مقایسه، من به طور کامل فصل 2 راسموسن و ویلیامز (2006) را دنبال می کنم: در نظر بگیرید که نقاط x,y مشاهده شده و مقادیر x را داریم که در آن مقادیر y پیش بینی شده را می خواهیم: obs <- داده ها .frame(x = c(-4، -3، -1، 0، 2)، y = c(-2، 0، 1، 2، -1)) x_predict <- seq(-5,5,len=50) از هسته پایه شعاعی استفاده کنید: SE <- تابع (Xi,Xj, l=1) exp(-0.5 * (Xi - Xj) ^ 2 / l ^ 2) cov <- تابع (X, Y) خارجی (X, Y, SE) محاسبه میانگین و ماتریس کوواریانس: sigma.n <- 0.3 cov_xx_inv <- حل (cov(obs$x, obs$x) + sigma.n^2 * diag(1, length(obs$x))) Ef <- cov(x_predict, obs$x) %*% cov_xx_inv % *% obs$y Cf <- cov(x_predict, x_predict) - cov(x_predict, obs$x) %*% cov_xx_inv %*% cov(obs$x, x_predict) ## رویکرد kernlab فکر می‌کنم می‌بینم که چگونه مقادیر مورد انتظار معادل را در kernlab بدست می‌آورم: library(kernlab) gp <- gausspr(obs$x, obs$y, kernel= rbfdot، kpar=list(sigma=1/(2*l^2))، fit=FALSE، scaled=FALSE, var=0.8) Ef_kernlab <- predict(gp, x_predict) **اما نمی‌دانم چگونه کوواریانس‌های مرتبط را بدست می‌آورم؟** آیا می‌توان ماتریس کوواریانس را با دانستن «آلفا» بازسازی کرد؟ در حالت ایده آل، راه حلی وجود دارد که شامل معکوس کردن مجدد یک ماتریس نمی شود، زیرا این معکوس قبلاً در تعیین مقادیر «آلفا» در طول برازش انجام شده توسط gausspr محاسبه شده است... موارد بسیاری وجود دارد که در آن دسترسی به آن خوب است. به فرآیند گاوسی حاصل، مانند تولید نمودارها مانند راسموسن و ویلیامز: نیاز(ggplot2) dat <- data.frame(x=x_predict، y=(Ef)، ymin=(Ef-2*sqrt(diag(Cf)))، ymax=(Ef+2*sqrt(diag(Cf)))) ggplot(dat) + geom_ribbon(aes(x=x,y=y, ymin=ymin, ymax=ymax), fill=grey80) + # Var geom_line(aes(x=x,y=y), size=1) + #MEAN_geom point(data=obs,aes(x=x,y=y)) + #مقیاس داده های مشاهده شده_y_continuous(lim=c(-3, 3)، نام = خروجی، f(x)) + xlab (ورودی، x) ![](http://farm9.staticflickr.com/8092/8591046228_ab2d2439a2_o.png)
92808
بیایید بگوییم که ما به یک متغیر ناشناخته x علاقه مند هستیم. ما یک x را در فواصل مختلف نظرسنجی می کنیم و مجموعه ای از مقادیری را که x بوده است به دست می آوریم. با این حال می دانیم که اگر x را به اندازه کافی نظرسنجی کنیم، در نهایت تکرار خواهیم داشت زیرا x تصادفی است. از دانستن کران بالایی x چه چیزی می توان به دست آورد. یک مثال کوتاه: فرض کنید می‌خواهم یک عکس فوری از بزرگی شتاب یک ماشین بگیرم. من می توانم این کار را در هر زمان انجام دهم. من ممکن است 10، 50 یا 1000 عکس فوری بگیرم. هیچ‌کدام از اینها نمی‌تواند مرز بالایی شتاب را به من بگوید، اگرچه هرچه نمونه‌های بیشتری بردارم، مطمئن‌تر می‌شوم که یا آن را گرفته‌ام یا نزدیک آن هستم. حالا، فرض کنید من جغرافیای محلی، به ویژه شیب دارترین تپه های منطقه را می شناسم. شماتیک ماشین ها رو هم دارم. با این دو اطلاعات می توانم (در تئوری) حداکثر شتاب ماشین را محاسبه کنم. آیا این به هیچ وجه برای آمار من مفید است؟ کران پایین به وضوح 0 است که قبل از هر نمونه یا اطلاعات دیگری مشخص است. از دانستن کران بالا چه داده های جدیدی می توانم یاد بگیرم؟ در اصل شهود من این بود که کران بالایی به من کمک می کند تا جزئیات اندازه جمعیت را به دست بیاورم، اما اکنون آنها کاملاً نامرتبط به نظر می رسند. جزئیات بیشتر در مورد مشکل من: فرض کنید می‌خواهم تعداد تصادفات خودرو را در یک بخش معین از جاده پیش‌بینی کنم. اگر بگویم بر اساس نوع خودرو، سرعت نسبی و غیره، احتمال کمی برای برخورد هر 2 خودرو وجود دارد، می توانم هر احتمال ممکن را شبیه سازی کنم. به عنوان مثال، ماشین A در مجموعه ای از شبیه سازی ها با یک ماشین برخورد می کند، اما ماشینی که با آن برخورد می کند در میان جمعیت ماشین ها حرکت می کند. همچنین موردی وجود خواهد داشت که ماشین A با ماشین B و در همان ماشین شبیه سازی C با ماشین D برخورد کند (یعنی 2 برخورد در 1 شبیه سازی) ممکن است احتمال کمتری داشته باشد اما همچنان ممکن است. . اکنون با توجه به کل جمعیت ماشین‌ها و تعداد مراحل زمانی شبیه‌سازی، می‌توانم تعداد نتایج مختلف ممکن را محاسبه کنم. برخی از نتایج بیش از یک بار در مجموعه تصادفی شبیه‌سازی‌ها رخ می‌دهند، اما از نظر شبیه‌سازی‌های منحصربه‌فرد باید یک عدد ثابت و محدود وجود داشته باشد. اما اگر بتوانم این عدد را محاسبه کنم، چه چیزی در مورد مشکل به من یاد می دهد؟
35291
من آزمایشی انجام داده ام که در آن افراد مشابه در دو شرایط یک اتاق با گیاه و بدون گیاه اندازه گیری شده اند. من می‌دانم که آنها در یک تکلیف بازه رقم معکوس در شرایط گیاه عملکرد قابل‌توجهی بهتری داشتند (داده‌ها توزیع نسبتاً نرمال بود، بنابراین من از آزمون t زوجی استفاده کردم)، اما می‌خواهم ببینم که آیا این افزایش با خلق و خوی مرتبط است یا خیر (که با لیکرت اندازه‌گیری می‌شود). مقیاس نوع) و پاسخ‌های آنها بر روی معیاری که «ترمیم‌پذیری» محیط را ارزیابی می‌کند (یک مقیاس دیگر از نوع لیکرت). از نظر تئوری، فرد باید در یک دهانه رقم در یک اتاق ترمیمی بهتر عمل کند. ممکن است بخواهم آزمایش کنم که آیا ارزیابی محیط بر خلق و خوی تأثیر می گذارد، که در نتیجه بر عملکرد در کار تأثیر می گذارد. من می خواهم به نحوی این تعامل (اگر اصطلاح درست باشد) را در شرایط گیاهی و شرایط بدون گیاه مقایسه کنم. اگر این خیلی پیچیده است، شاید من فقط می خواهم ببینم که آیا ارزیابی محیط یک عامل قوی در عملکرد آنها در بازه رقمی است یا خیر. آیا ANCOVA تست مناسب برای این است؟ اگر چنین است چگونه باید راه‌اندازی شود و اگر می‌خواهید واقعاً سخاوتمند باشید چگونه این را در R کدنویسی کنم؟ با تشکر از کمک شما.
تعامل با R؟ ANCOVA در R؟ می‌خواهم ببینم آیا متغیرهای خاصی با استفاده از اندازه‌گیری‌های تکراری روی متغیر وابسته در R تأثیر می‌گذارند یا خیر
35296
من سعی می کنم از طریق متنی در مورد روباتیک و به طور خاص سعی کنم فیلترهای کالمن را درک کنم. من قبلاً از آنها استفاده کرده‌ام، اما دوست دارم بتوانم سیستم‌های جدید خود را بفهمم و بسازم. سوالی که من دارم بردار حالت حداقل را برای خودرویی با موقعیت X و سرعت V در زمان t می پرسد. شتاب (A) به طور تصادفی در هر نقطه از زمان اختصاص داده می شود. من باید یک بردار حالت حداقل ایجاد کنم تا سیستم حاصل مارکوین باشد. پاسخ من تا اینجا این است: بردار حالت اولیه فقط باید S = [X,V,A] باشد زیرا این سه جزء ارائه شده هستند؟ قسمت مارکویی برای من گیج کننده است. این بدان معناست که بردار حالت فقط می تواند اجزایی داشته باشد که به اندازه گیری های گذشته وابسته نیستند؟ در کدام حالت فقط باید S = [X,A] باشد زیرا شتاب تصادفی است و موقعیت وابستگی زمانی ندارد؟
بردار حالت حداقل برای فیلتر کالمن
312
من یک فارغ التحصیل فیزیک هستم که در نهایت infosec را انجام دادم، بنابراین بیشتر آماری که تا به حال آموختم برای ترمودینامیک مفید است. من در حال حاضر در حال تلاش برای یافتن مدلی هستم که بفهمم چه تعداد از جمعیت رایانه‌ها به ویروس آلوده شده‌اند، اگرچه فرض می‌کنم که ریاضیات برای بیماری‌های دنیای واقعی نیز به همین شکل عمل می‌کنند، بنابراین مراجع یا پاسخ‌های مرتبط با آن زمینه می‌توانند شما هم خوش آمدید این چیزی است که من تاکنون به آن رسیده‌ام: * فرض کنید من کل جمعیت رایانه‌ها را می‌دانم، N. * من کسری از رایانه‌های دارای نرم‌افزار تشخیص ویروس را می‌دانم (یعنی تعداد جمعیتی که غربال می‌شوند) * من کسری از کامپیوترهایی که دارای نرم افزار تشخیص هستند _که عفونت را گزارش کرده اند_ می شناسم * نمی دانم، اما می توانم احتمال خطاهای نوع I و II را در تشخیص پیدا کنم یا تخمین بزنم. نرم افزار * من (هنوز) به تکامل زمانی جمعیت اهمیتی نمی دهم. پس از اینجا کجا بروم؟ آیا عفونت را به عنوان یک توزیع دوجمله ای با احتمالی مانند (من D داده ام) مدل می کنید یا به عنوان یک پواسون؟ یا توزیع متفاوت است؟
100258
من یک قاب داده 3 ستونی دارم. اولی متغیر پاسخ، دومی و سومی معیارهایی هستند. شما می توانید با استفاده از این قطعه کد با یک تفاوت، مثال خود را مشابه نمونه من ایجاد کنید. من 120 هزار از این ردیف ها را دارم. n<-10 data.frame(response=runif(n)،x1=round(runif(n,min=0.2,max=3.8),2)،x2=round(runif(n,min=14,max=180 ))) پاسخ x1 x2 1 0.007240072 0.99 94 2 0.585625664 3.26 175 3 0.060195378 1.52 153 4 0.806096047 1.90 15 5 0.715590971 2.87 161 6 0.840640566 0.840640566 3.06 3.06 3.06 3.0640566 125 8 0.835112330 1.43 158 9 0.588479082 1.68 59 10 0.963268147 0.54 108. جمعیت).** بنابراین هر خوشه ای 4 مرز (min x1 - max x1 - min x2 - max x2 برای هر خوشه) یا فقط بردار نقاط تقسیم (x1.1، x1.2، x1.3 و x2) خواهد داشت. 1، x2.2، x2.3 برای نه خوشه مستطیلی). درست مانند یک نقاشی پایه موندریان![mondrian](http://i.stack.imgur.com/CbBLw.jpg) **و من می خواهم یک نقشه حرارتی را با استفاده از میانگین های ستون پاسخ در هر خوشه یا تعداد نمونه ها در هر خوشه.** برای قسمت اول از تابع ctree از بسته پارتی استفاده کردم. تلاش‌های من برای استفاده از تابع rpart از بسته rpart با اندازه «ترعناک» داده‌ها خنثی می‌شود. سوال من در مورد این مشکل را ببینید من موفق شدم گره های ترمینال را دریافت کنم اما شرایط گره را نه. و اگر مقادیر تقسیم شده به من داده شود، چگونه می توانم چنین شی یا داده ای را گرم کنم؟
چگونه می توانم داده ها را به صورت شبکه ای خوشه بندی کنم و میانگین ها را در R ترسیم کنم؟
89525
من در حال حاضر روی تجزیه و تحلیل قیمت کار می کنم: تأثیر قیمت گذاری SKU رقیب بر تعداد واحدهای فروخته شده SKU من. این مدل بر روی سیاهه (واحد) فروخته شده ساخته شده است. من می خواهم سهم هر یک از متغیرهای مستقل را در مدل اندازه گیری کنم. من یک مدل log-log دارم و می‌خواهم مشارکت‌هایم در واحدهای واقعی برخلاف مدل رگرسیون چندگانه خطی، مشارکت کل من (یا پیش‌بینی‌شده من) = intercept + beta1*Price1 + beta2.Promo1 و غیره باشد که در آن beta1*Price1 سهم قیمت من را در پیش‌بینی‌شده اندازه‌گیری می‌کند. واحدهای فروخته شده، در اینجا حدس می زنم در مدل log-log راه متفاوتی برای انجام فرآیند وجود دارد. هر گونه کمکی قدردانی خواهد شد. با تشکر
35293
من علاقه مند به استفاده از چگالی طیفی برای تعیین دوره زمانی یک سری زمانی $x_t$ هستم. طبق ویکی پدیا، ما می توانیم از پریودوگرام برای تخمین چگالی طیفی استفاده کنیم. در ادامه زنجیره، ویکی‌پدیا می‌گوید پریودوگرام با استفاده از FFT پیاده‌سازی شده است، اما جزئیات ارائه نشده است. آیا به معنای واقعی کلمه FFT روی $x_t$ است؟ **ویرایش:** در R، یک تابع spec.pgram وجود دارد که پریودوگرام خام را برمی گرداند. من سعی کردم این را با FFT ACF مقایسه کنم، اما هنوز نتایج مشابهی دریافت نمی کنم (در نهایت باید این کار را در جاوا انجام دهم، بنابراین سعی می کنم پیاده سازی را به طور کامل درک کنم). x = rep(c(5,1,5,10),4) x.acf = acf(x)$acf[,,1] Mod(fft(x.acf))^2 [1] 0.3906250 0.4757183 0.9898323 15.5956432 2.5543312 0.3962321 [7] 0.2068152 0.2068152 0.3962321 2.5543312 15.5956432 0.9898323 [13] 0.4757183 در مقابل x.pgram = spec.pgram (x، [1] detrend=F.0. 0.1250 0.1875 0.2500 0.3125 0.3750 0.4375 0.5000 x.pgram$spec [1] 3.8819277 3.4948335 2.9155061 69.01764 69.08928 0.9694522 0.5823580 [8] 0.1607143
تخمین چگالی طیفی
66027
من روی یک مشکل طبقه‌بندی سری زمانی کار می‌کنم که در آن ورودی داده‌های استفاده از صدای سری زمانی (بر حسب ثانیه) برای 21 روز اول حساب تلفن همراه است. متغیر هدف مربوطه این است که آیا آن حساب در محدوده 35-45 روز لغو شده است یا خیر. بنابراین این یک مشکل طبقه بندی باینری است. من از تمام روش هایی که تاکنون امتحان کرده ام (به درجات مختلف) نتایج بسیار ضعیفی دریافت می کنم. ابتدا طبقه بندی k-NN (با تغییرات مختلف) را امتحان کردم و نتایج بسیار بدی گرفتم. این من را به استخراج ویژگی‌ها از سری‌های زمانی سوق داد - یعنی میانگین، واریانس، حداکثر، حداقل، صفرهای کل روز، مجموع صفر روزهای پایانی، تفاوت بین میانگین نیمه اول و میانگین نیمه دوم، و غیره و به نظر می‌رسد پیش‌بینی‌کننده‌ترین ویژگی‌ها کل باشد. صفر روز و مجموع صفر روز پایانی (با استفاده از چندین الگوریتم طبقه بندی). این بهترین عملکرد را داشت اما هنوز هم عملکرد چندان خوبی نداشت. استراتژی بعدی من نمونه برداری بیش از حد از نمونه های منفی در مجموعه آموزشی من بود، زیرا تعداد آنها بسیار کم بود. این منجر به پیش‌بینی لغو صحیح‌تر شد، اما به قیمت موارد مثبت کاذب بیشتر. من شروع به فکر می کنم که شاید داده های استفاده از سری زمانی به خودی خود چندان قابل پیش بینی نباشد (اگرچه عقل سلیم می گوید که باید باشد). شاید متغیر پنهانی وجود داشته باشد که من در نظر ندارم. نگاه کردن به داده ها نیز رفتار عجیبی را نشان می دهد. به عنوان مثال، برخی از نمونه‌ها استفاده بسیار کم یا رو به کاهش را نشان می‌دهند (یا گاهی اوقات اصلاً هیچ) و لغو نمی‌شوند، و برخی از نمونه‌ها افزایش استفاده را نشان می‌دهند که لغو می‌شوند. شاید این رفتار متناقض مرز تصمیم گیری خیلی واضحی را برای یک طبقه بندی ایجاد نکند. یکی دیگر از منابع احتمالی خطا، این واقعیت است که بسیاری از نمونه های آموزشی بسیار پراکنده هستند (یعنی روزهای زیادی با استفاده از 0). یکی از ایده‌هایی که من هنوز امتحان نکرده‌ام این است که سری‌های زمانی را به بخش‌هایی تقسیم کنم و برخی از ویژگی‌ها را از این طریق ایجاد کنم، اما امید زیادی ندارم.
طبقه بندی سری زمانی - نتایج بسیار ضعیف
24441
به نظر می رسد که دو بسته R برای اجرای Latent Dirichlet Allocation وجود دارد. یکی LDA است که توسط جاناتان چانگ نوشته شده است. و دیگری توسط Bettina Grün و Kurt Hornik نوشته شده است. تفاوت این دو بسته از نظر عملکرد، جزئیات پیاده سازی و توسعه پذیری چیست؟
دو بسته R برای مدل سازی موضوع، LDA و مدل های موضوعی؟
66022
چگونه می توانم نقاط برش را برای تبدیل احتمالات پیش بینی شده به پاسخ های پیش بینی شده به منظور ایجاد جدول طبقه بندی برای رگرسیون لجستیک انتخاب کنم؟ آیا باید نقاط برش مختلفی مانند 0.5، 0.6، 0.7، و غیره را انتخاب کنم؟ (اگر مقادیر متفاوتی را در نظر بگیرم، نرخ خطای پیش‌بینی برای آن‌ها متفاوت است.) چگونه می‌توانم یک تعمیم ایجاد کنم وقتی که نقاط برش متفاوتی می‌گیرم و نرخ‌های خطای پیش‌بینی متفاوتی دارم؟
چگونه نقطه برش را برای ساخت جدول طبقه بندی برای رگرسیون لجستیک انتخاب کنیم؟
24445
من سعی می کنم یک رگرسیون خطی چندگانه در R را با معادله ای شبیه به این تخمین بزنم: regr <- lm (نرخ ~ ثابت + سؤالات + سؤال + 0) سؤالات و سؤالات سری های زمانی داده های فصلی هستند که با «پرسش های <- ts» ساخته شده اند. (...)`. مشکل اکنون این است که من باقیمانده های همبسته خودکار را دریافت کردم. من می‌دانم که با استفاده از تابع gls می‌توان رگرسیون را متناسب کرد، اما نمی‌دانم چگونه ساختار خطای AR یا ARMA را که باید در تابع gls پیاده‌سازی کنم، شناسایی کنم. اکنون سعی می کنم دوباره با gls (نرخ ~ ثابت + سؤالات + سؤالات + 0، همبستگی = corARMA (p=?, q=?)) تخمین بزنم، اما متأسفانه من نه متخصص R هستم و نه به طور کلی متخصص آمار. p و q را شناسایی کنید. خوشحال می شوم اگر کسی راهنمایی مفیدی به من بدهد. پیشاپیش از شما بسیار سپاسگزارم جو
برازش رگرسیون خطی چندگانه در R: باقیمانده های خودهمبسته
50112
یک گزارش می گوید که 82 درصد از بریتیش کلمبیایی های بالای 25 دلار، فارغ التحصیل دبیرستان هستند. یک نظرسنجی از ساکنان یک شهر خاص که به طور تصادفی انتخاب شده بودند شامل 1290 دلار که سن آنها بالای 25 دلار بود، و 1012 دلار از آنها فارغ التحصیلان دبیرستان بودند. آیا نتیجه 1012 دلاری شهر به طور غیرعادی بالا، پایین است یا هیچکدام؟ چگونه باید به این سوال برخورد کنم؟ هر گونه کمک و راهنمایی قدردانی خواهد شد.
چگونه می توانم تفاوت بین نسبت جمعیت و نسبت نمونه را آزمایش کنم؟
24447
داده‌های من شامل اندازه‌گیری‌های بیماران مبتلا به سرطان است و متغیرها برخی از شاخص‌های مربوط به سرطان و همچنین مرحله و درجه سرطان و برخی اطلاعات شخصی در مورد بیماران هستند. به گفته پزشکان، مقادیر از دست رفته یا به این دلیل رخ داده است که بخشی از بافتی که از بیماران گرفته‌اند تخریب شده است یا به این دلیل که دکتری که بیوپسی را انجام داده، نمونه بافتی به اندازه کافی بزرگ برای تخمین مرحله سرطان نگرفته است. با در نظر گرفتن همه اینها، دلیلی برای این باور ندارم که متغیرها MNAR هستند و بنابراین دو گزینه باقی می ماند، MAR یا MCAR. به سوال من در حال حاضر، فرض کنید MCAR درست است (من در یک سوال دیگر خواندم که می توانم این را با انجام تست t بررسی کنم، اگر کسی راه دیگری می داند لطفا به من اطلاع دهد) یک راه آسان برای مقابله با مقادیر از دست رفته این است که روش کامل موردی را دنبال کنید زیرا نتایج بی طرفانه خواهند بود، اما مشکل من این است که داده های من به اندازه کافی بزرگ نیستند و اگر موارد را حذف کنم می ترسم که نتایج احتمالاً کارآمد نباشند. به همین دلیل است که من قصد دارم MI را انجام دهم، اما می خواهم نظر دیگران را در مورد آن بدانم.
فرض MCAR قابل قبول است آیا باید MI انجام دهم؟