_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
90983
|
آیا کسی در اینجا می تواند به من کمک کند تا بگویم که آیا در نحوه محاسبه پارامتر تنظیم برای مشکل آموزش شبکه عصبی جریمه شده اشتباه می کنم یا نه... با توجه به تابع هدف، من $N=100$ اجرا کردم و برای هر تنظیم انتخابی پارامتر، مجموعه بهینه ای از پارامترها را به دست آوردم (که مدل مورد نیاز را به من می دهد). با استفاده از هر مجموعه مدل، موارد زیر را ساختم: $\text{AIC} = \text{loss} + \text{complexity}$ و سپس با بدست آوردن کل مقادیر برای $\text{AIC}، چنین حداقلی را تعیین کردم. $ از $N=100$ اجرا می شود. سوال من این است: آیا این شبیه به حداقل کردن با استفاده از جستجوی شبکه ای است؟ اکنون فرض میکنم که حداقل یک مقدار نامزد برای پارامتر بهینهسازی به من میدهد.
|
استفاده از AIC یا BIC برای محاسبه پارامترهای تنظیم
|
2746
|
من می خواهم بتوانم به طور موثر ماتریس های همبستگی PSD (نیمه معین مثبت) را تولید کنم. با افزایش اندازه ماتریس هایی که باید تولید شوند، روش من به طور چشمگیری کند می شود. 1. آیا می توانید راه حل های کارآمدی را پیشنهاد دهید؟ اگر از نمونه هایی در Matlab اطلاع دارید، بسیار سپاسگزار خواهم بود. 2. هنگام تولید یک ماتریس همبستگی PSD چگونه پارامترهایی را برای توصیف ماتریس هایی که باید تولید شوند انتخاب می کنید؟ یک همبستگی متوسط، انحراف معیار همبستگی ها، مقادیر ویژه؟
|
چگونه می توان به طور موثر ماتریس های همبستگی نیمه قطعی مثبت تولید کرد؟
|
71921
|
من برای درک تأثیر یک ماتریس منفی واریانس کووارینس بر ضرر به کمک نیاز دارم. به عنوان مثال، من سه مجموعه داده از دست دادن A، B و C دارم. هر کدام دارای میانگین و واریانس هستند. هنگام محاسبه ماتریس واریانس کووارانس 3x3، دترمینان منفی است. هدف نهایی من شبیهسازی تلفات کل (A+B+C) با فرض توزیع و غیره است. خیلی ممنون!
|
پیامد ماتریس واریانس کوواریانس منفی بر ضرر
|
90392
|
من مدل ترکیبی خطی Generalized را با glmer در lme4 اجرا کردم. من از R نسخه 3.0.1 استفاده می کنم. متغیر وابسته من باینری است (درست یا غلط). و این نتایج من است: > glmer16 <- glmer(نتیجه ~ (1|مورد) + (1|گوینده) + مصوت + جنس + گربه + سگ + نوردهی + فرکانس + v00004 + v00024 + v00034 + v00044، داده = داده 1. قاب، خانواده = دوجمله ای) > خلاصه (glmer16) مدل ترکیبی خطی تعمیم یافته برازش حداکثر احتمال ['glmerMod'] خانواده: دوجمله ای (logit ) فرمول: تحقق ~ (1 | مورد) + (1 | گوینده) + مصوت + جنسیت + گربه + سگ + نوردهی + فرکانس + v00004 + v00024 + v00034 + v00044 داده: داده1 .frame AIC BIC logLik انحراف 881.7026 958.6402 -426.8513 853.7026 اثرات تصادفی: نام گروه ها Variance Std.Dev. Speaker (Intercept) 7.0291 2.651 item (Intercept) 0.5084 0.713 تعداد obs: 1800، گروه ها: speaker، 50; آیتم، 12 اثرات ثابت: برآورد Std. خطای z مقدار Pr(>|z|) (قطع) 15.52018 5.33634 2.908 0.00363 ** vowelhigh 0.16750 0.55907 0.300 0.76449 vowellow 0.7063194 0.7063194 0.7063194 0. sexmale 1.37080 1.03228 1.328 0.18420 cat -0.11460 0.09537 -1.202 0.22953 سگ -0.05460 0.03633 -1.503 0.134040 -1.503 0.134040. -0.258 0.79613 فرکانس -0.01709 0.15594 -0.110 0.91272 v00004 -2.83445 0.66039 -4.292 1.77e-05 *** v00024 0.2958 0.2958 0.59515 v00034 0.43899 0.58656 0.748 0.45421 v00044 0.36663 0.65130 0.563 0.57349 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 سؤالات من این است: 1) آیا v00004 نتیجه «اشتباه» یا «درست» را کاهش میدهد؟ و 2) معنی معنی دار در رهگیری چیست؟
| |
90396
|
من دو مخزن بزرگ آب با غلظت ناشناخته باکتری دارم. من فقط یک نمونه از هر مخزن دارم: نمونه مخزن A: حجم نمونه $=V_1$، تعداد باکتری در نمونه $=N_1$ نمونه مخزن B: حجم نمونه $=V_2$، تعداد باکتری در نمونه $=N_2$ $N_1$ یا $N_2$ لزوما بزرگ نیستند. برای تخمین احتمال اینکه دو مخزن دارای غلظت های متفاوتی از باکتری هستند، از چه آزمون اهمیتی باید استفاده کنم؟
| |
95533
|
مدتی است که تست معناداری انجام داده ام... باید 2 نمره متوسط را با هم مقایسه کنم: نمره A در مقیاس 0-10 (مقیاس 11 امتیاز) 7.9 است. امتیاز B در مقیاس 0-10 (مقیاس 11 امتیاز) 8.2 است. اندازه نمونه ها A=70 و B=300 می باشد. چگونه می توانم تشخیص دهم که تغییر در میانگین نمره قابل توجه است یا خیر؟ با تشکر
|
تست اهمیت غیر باینری؟
|
108637
|
من از معیار chi-squared good-of-fit برای ارزیابی نمونه های یک مدل نسبتاً پیچیده استفاده می کنم، اما ارزیابی به طور باورنکردنی به تغییرات کوچک در مقادیر پارامتر مدل حساس است. درک من از تعریف و استفاده از این معیار مناسب بودن، و انتخاب من برای استفاده از آن، از کتاب دستور العمل های عددی، به ویژه فصل مدل سازی داده ها آمده است. من در محاسبات علمی (جایی که این کتاب یک مرجع استاندارد است) کار می کنم، نه آمار. من بهعنوان یک تازهکار در ارزیابی مدل آماری به دنبال راهنمایی هستم که در مورد اینکه چه معیارهای مناسبتری برای وضعیت من مناسبتر است. در اینجا یک مثال ساده آمده است که همان حساسیتی را که من در مشکل خود می بینم را نشان می دهد. * مدل از یک محدوده وزن دار در خط اعداد است. دارای 3 پارامتر / درجه آزادی است: یک مقدار شروع، یک مقدار پایان و یک وزن. $(a,b,w)$ بردار پارامتری است که محدوده $[a,b]$ را با وزن $w$ نشان می دهد. * من 10 مشاهده از هر نمونه مدل معین انجام می دهم. هر مشاهده وزن ضربدر طول همپوشانی بین محدوده نمونه مدل و یک فاصله واحد طول خاص است. 10 مشاهدات من در فواصل $[0،1]، [1،2]، \ldots، [8،9]، [9،10]$ هستند. من قبلاً می دانم که نویز مشاهدات من گاوسی با واریانس واحد است. * نمونه مدل پنهان _ground-truth_ $(1,9,300)$ است. بنابراین 10 مشاهدات من عبارتند از $$(0.192، 298.839، 301.493، \ldots، 300.273، 300.144، 0.243)، $$ که فقط $(0، 300، 300، \ldots، 30$ به اضافه 300، . من دو نمونه مدل دارم که می خواهم در مورد آنها صحبت کنم: 1. نمونه _oracle_ $(1,9,300)$ این 10 مقدار را پیش بینی می کند: $$(0, 300, 300, \ldots , 300, 300, 0)$$ 2. نمونه _candidate_$(1,8.9,300)$ این 10 مورد را پیش بینی می کند مقادیر: $$(0, 300, 300, \ldots, 300, 270, 0)$$ آمار آزمون مجذور کای همانطور که من از آن استفاده می کنم این است: $$\sum_{i=1}^{10 } \left(\frac{\mathrm{obs}_i - \mathrm{pred}_i}{\sigma_i} \right)^2$$ جایی که $\sigma_i$ برای همه $i$ 1 شناخته می شود. همانطور که من متوجه شدم، معیار خی دو برای یک آمار آزمون $X$ $$Q(x) = \int_X^\infty f_k(x)\,\mathrm{d}x = 1 است - F_k(X)$$ که در آن $f_k$ پی دی اف مجذور خی با $k$ درجه آزادی و $F_k$ CDF است. $k$ تعداد مشاهدات منهای تعداد درجات آزادی مدل است: $k=10-3=7$ در این مثال. آمار آزمون برای نمونه اوراکل 9.45 و برای نمونه کاندید 918.10 است. مقادیر مناسبی که من دریافت میکنم 0.22 برای اوراکل (بسیار معقول) و 6${\cdot}10^{-194}$ برای نمونه کاندید است. به نظر من این انتخاب خاص معیار خوب بودن بسیار حساس است: نمونه کاندید با یک مقدار جزئی در فضای پارامتر خاموش بود، اما ماهیت مشاهدات من مقدار مجذور کای را به شدت افزایش میدهد، و بنابراین معیار مناسب من اساساً به فریاد ختم می شود: این نمونه مدل وحشتناک است! این معیار مقادیر معقولی را برای نمونههای مدلی که چیزی جز _بسیار دقیق_ درست هستند، ارائه نمیکند. این اندازهگیری بهعنوان یک تابع هدف برای برازش مدل به خوبی کار میکند: نمونههای مدل کمتر صحیح، مقادیر مناسبی برازش را حتی پایینتر میدهند. اما زمانی که من در مورد عملکرد الگوریتمها یا مدلهای برازش متعدد گزارش میدهم، میخواهم از مقادیر برازش بهترین نمونههایی که میتوانم محاسبه کنم به عنوان معیارهای عینی برای مقایسه آنها استفاده کنم. و این مقادیر به طرز خندهداری کوچک هستند، به قدری کوچک که احمقانه به نظر میرسد که بر اساس مقایسه مثلاً 10^{-194}$ با 10^{-280}$، ادعا کنیم که یک تکنیک بهتر از دیگری است. تفسیر آماری آنها نیز کمی مشکوک است. این مقدار $Q(x)$ که من محاسبه میکنم یک نوع احتمال است و احتمالات کوچک بیمعنی به نظر میرسند. بنابراین: برای توصیف مناسب بودن نمونههای این مدل، انتخاب بهتری از معیار (یا معیارها) چیست؟ و بنابراین میتوانم از اشتباهاتم درس بگیرم: چه جنبههایی از مشکل باید در وهله اول مرا به انتخاب آن معیار جایگزین سوق دهد؟ [با خطر طولانیتر کردن یک سؤال، پاسخهای من به سؤالات در نظرات آمده است:] من دقیقاً از این مقدار $Q(x)$ (در واقع منفی گزارش آن) به عنوان تابع هدف خود استفاده کردهام. اتصالات مدل ماهیت مسئله باعث میشود که من فقط میتوانم از اصلاح مدل تکراری برای تناسب استفاده کنم، و مثال (1,8.9,300) مشابه چیزی است که فرآیند برازش من ممکن است پس از تکرارهای زیاد پیدا کند: دقیقاً با حقیقت اصلی یکسان نیست. ، اما بسیار نزدیک است و اکثر مشاهدات را به درستی پیش بینی می کند. مشکل اساسی که من با آن روبرو هستم این است که، در حالی که نمونه اوراکل قطعاً مناسب تر از نمونه کاندید است، نمونه کاندید نیز بسیار خوب بود، و با این حال Q(x) ادعا شده فوق العاده پایین است. حس من از بسیار خوب از چند زوایای مختلف ناشی می شود: * دو مورد از سه مقدار پارامتر دقیقاً درست بودند و سومی کمتر از 10٪ خاموش بود. * نه مقدار از ده مقدار پیشبینیشده درست بود (به خوبی در محدوده، برای هر مشاهده، مشاهده شناخته شده
|
معیار سنجش تناسب بیش از حد حساس: کجا اشتباه کردم؟
|
114821
|
من یک مجموعه داده متشکل از پاسخ های یک سیستم به تنظیمات مختلف تست دارم. هر پیکربندی آزمایشی مربوط به مجموعه پارامترهای متفاوتی است. این پارامترها می توانند مقادیر پیوسته یا باینری داشته باشند. من باید بفهمم که کدام پارامتر (یا کدام ترکیب) بیشترین تأثیر را بر پاسخ سیستم دارد. پاسخ یک امتیاز بین 0-100 است. از چه روش هایی می توانم برای این تحلیل آماری استفاده کنم؟
|
تشخیص تأثیر پارامترها
|
101329
|
من به مسئله ای علاقه مند هستم که در آن باید توزیع یک ماتریس احتمالات را استنباط کنم، $\matrix{\Theta}$، که در آن ردیف ها و ستون ها باید به 1 جمع شوند و هر ورودی در محدوده 0 و 1 باشد. اساساً من می خواهید عملکرد مجموعه ای از طبقه بندی کننده ها را تجزیه و تحلیل کنید که در آن $\theta_{ij}$ احتمال این است که یک الگوی متعلق به کلاس $i$ به عنوان متعلق به کلاس طبقه بندی شود. $j$ (برای سادگی، فرض میکنم که $\matrix{\Theta}$ برای همه طبقهبندیکنندهها یکسان است). مشکل این است که من کلاس واقعی هیچ یک از مشاهدات را نمی دانم، بنابراین می خواهم $\matrix{\Theta}$ را از برچسب های اختصاص داده شده توسط هر طبقه بندی کننده استنتاج کنم (اکثر مشاهدات بر اساس دو یا دو طبقه بندی شده اند. بیشتر از طبقه بندی کننده ها) به شیوه بیزی. بنابراین باید بتوانم توزیعی را روی $\matrix{\Theta}$ تعریف کنم. من به نوعی محصول توزیع دیریکله فکر می کردم که هر سطر و هر ستون را نشان می دهد. برای هر پیشنهاد بهتری ممنون می شوم.
| |
80268
|
توجیه تجربی برای یک قانون خطای استاندارد هنگام استفاده از اعتبارسنجی متقابل
|
|
110706
|
ماشین بولتزمن محدود یک مدل یادگیری مولد است - اما همچنین بدون نظارت است؟ یک مدل مولد احتمال مشترک P(X,Y) را می آموزد سپس از قضیه بیز برای محاسبه احتمال شرطی P(Y|X) استفاده می کند. با این حال، RBM یک استخراج کننده ویژگی بدون نظارت است. Y وجود ندارد! چگونه می توان گفت که RBM یک الگوریتم بدون نظارت و در عین حال مولد است؟ پیشاپیش ممنون
|
چرا ماشین بولتزمن محدود شده هم بدون نظارت و هم مولد است؟
|
71929
|
بگویید میخواهم میانگین $\mu\in [0, 10] $ برخی از دادههای گاوسی $\mathbf{x}$ را با واریانس شناخته شده $\sigma^2 = 1$ با استفاده از MCMC تخمین بزنم. معمولاً من از یک پیشین مانند $\mu \sim \mathrm{Uniform}(0,10)$ استفاده میکنم و در نهایت نمونههای $\hat{\mu}$ را به این شکل توزیع میکنم (که در آن $\mu = 5$ است. ). این تقریباً همان چیزی است که من انتظار دارم، و خوب کار می کند. از آنجایی که نمونههای $\hat{\mu}$ نیز گاوسی هستند، به نظر میرسد که میتوانم میانگین و واریانس _ir_ را با نمونهبرداری مستقیم از آنها با استفاده از پیشینهایی مانند این، دقیقاً تخمین بزنم: * $\mu \sim \mathrm{Norm} (\mu_0, \sigma^2_0)$ * $\sigma^2_0 \sim \mathrm{یکنواخت}(0, 2)$ * $\mu^2_0 \sim \mathrm{Uniform}(0, 10)$ من امیدوار بودم که نمونههایی از $\mu_0$ و $\sigma^2_0$ بدست بیاورم که در حول میانگین ($\ تقریباً 5$) متمرکز شده بودند و واریانس ($\حدود 0.02$) $\hat{\mu}$، اما در عوض هیچکدام دقیقتر نبودند. $\mu_0$ بسیار پخش شده است و $\sigma^2_0$ تقریباً یکنواخت است. آیا مجموعه بهتری از پیشین/هایپرپیشتر وجود دارد که برای نمونه گیری در مواردی مانند این مناسب تر باشد؟ من گمان می کنم که استفاده از هایپرپریورهای یکنواخت و مستقل ممکن است مشکل باشد، اما مطمئن نیستم. * * * این کد PyMC من BTW است (احتمالاً یک اشکال وجود دارد): از __future__ import division import pymc به عنوان mc از pylab import * # ایجاد داده آزمایشی N = 50 mu = 5 داده = randn(N) + mu # شروع متغیرهای PyMC mu_0 = mc.Uniform('$\mu_0$', 0, 10) sigma_0 = mc.Uniform('$\sigma_0^2$', 0, 2) mu = mc.Normal('$\mu$', mu_0, 1/sigma_0) data = mc.Normal('data', mu, 1, مشاهده شده=درست، مقدار=داده) # نمونه mcmc = mc.MCMC([داده، mu، mu_0، sigma_0]) mcmc.sample(iter=50000، burn=5000) # plot figure() برای i, v در enumerate(('$\mu$', '$\mu_0$', '$\sigma_0^2$')): x = mcmc.trace(v)[:]. reshape(-1) subplot(1, 3, i+1) hist(x, 50) title(v) نمایش ()
|
مقدمات غیر اطلاعاتی خوبی برای تخمین پارامترهای گاوسی با MCMC (با استفاده از PyMC)؟
|
71924
|
_پست متقاطع از SO._ من سعی می کنم نتایج bgtest را از بسته R lmtest تکرار کنم. من از مجموعه داده زیر استفاده می کنم: rs month r20 1 2.365042 1952m3 4.33 2 2.317500 1952m4 4.23 3 2.350833 1952m5 4.36 4 2.451833 1952m3 1952m7 4.36 6 2.468417 1952m8 4.11 7 2.485583 1952m9 4.20 8 2.415125 1952m10 4.19 9 2.3898215 14141414. 1952m12 4.22 11 2.396042 1953m1 4.13 12 2.401042 1953m2 4.10 13 2.400833 1953m3 4.04 14 2.31935350m 2.366708 1953m5 3.95 16 2.365625 1953m6 4.02 17 2.348583 1953m7 3.98 18 2.334375 1953m8 3.214 1953m8 3.214 1394 20 2.097375 1953m10 3.80 21 2.097708 1953m11 3.78 22 2.130583 1953m12 3.83 23 2.096000 1954m1 1972000 1954m1 4040 1954. 3.79 25 2.115083 1954m3 3.76 26 2.047333 1954m4 3.71 27 1.713875 1954m5 3.65 28 1.606167 1956.1956 1956.1956. 1954m7 3.35 30 1.613292 1954m8 3.36 31 1.621083 1954m9 3.35 32 1.587667 1954m10 3.35 33 1.6139438. 1.865917 1954m12 3.51 35 2.356417 1955m1 3.64 36 3.810000 1955m2 3.85 37 3.797000 1955m3 3.894506.301. 39 3.937000 1955m5 4.21 40 3.969000 1955m6 4.33 41 3.971000 1955m7 4.47 42 4.005000 1955m8 4.805 4.84 4.84 4.68 44 4.071000 1955m10 4.50 45 4.104000 1955m11 4.64 46 4.072000 1955m12 4.70 47 4.071000 4.071000 1955m12 4.071000 14084. 1956m2 4.87 49 5.165000 1956m3 5.02 50 5.008000 1956m4 4.85 51 4.955000 1956m5 5.12 52 5.11356006m 4.977000 1956m7 5.27 54 4.027000 1956m8 5.20 55 5.091000 1956m9 5.35 56 4.991000 1956m10 5.301000 5.301025 5.50 58 4.858000 1956m12 5.29 59 4.553000 1957m1 4.91 60 4.148000 1957m2 4.93 61 4.099000 19504 19506. 1957m4 5.11 63 3.921000 1957m5 5.43 64 3.854000 1957m6 5.55 65 3.845000 1957m7 5.60 66 4.11957576. 6.605000 1957m9 5.98 68 6.603000 1957m10 5.84 69 6.459000 1957m11 5.89 70 6.375000 1957m12 5.817 5.811 5.66 72 6.014000 1958m2 5.65 73 5.523000 1958m3 5.64 74 5.179000 1958m4 5.45 75 4.816000 1954000 195406. 1958m6 5.45 77 4.159000 1958m7 5.46 78 3.760000 1958m8 5.49 79 3.625000 1958m9 5.36 80 3.515840001 3.305000 1958m11 5.36 82 3.152000 1958m12 5.36 83 3.107000 1959m1 5.20 84 3.276000 1959m2 5.202 5.208 5.201 5.24 86 3.283000 1959m4 5.22 87 3.382000 1959m5 5.28 88 3.452000 1959m6 5.18 89 3.484000 195308 19508. 1959m8 5.21 91 3.472000 1959m9 5.33 92 3.386000 1959m10 5.06 93 3.400000 1959m11 5.04 94 3.61951. 4.538000 1960m1 5.34 96 4.554000 1960m2 5.43 97 4.621000 1960m3 5.53 98 4.652000 1960m4 5.552000 1960m4 5.559 9960 100 5.681000 1960m6 5.92 101 5.546000 1960m7 5.97 102 5.588000 1960m8 5.95 103 5.565000 1960m1960 1960 1960m1 1960m10 5.97 105 4.639000 1960m11 5.97 106 4.349000 1960m12 6.01 107 4.165000 1961m1 6.01 1094 1094 10904. 109 4.485000 1961m3 6.05 110 4.407000 1961m4 6.01 111 4.436000 1961m5 6.08 112 4.537000 1936000 19368 19368 1961. 1961m7 6.52 114 6.700000 1961m8 6.63 115 6.552000 1961m9 6.65 116 5.727000 1961m10 6.33 1170000 5.727000 6.33 117 5.318 5.319 5.319. 5.403000 1961m12 6.41 119 5.242000 1962m1 6.35 120 5.531000 1962m2 6.26 121 4.405000 1962m3 1962m1 6.204 6.204. 6.24 123 3.816000 1962m5 6.25 124 3.921000 1962m6 6.24 125 3.887000 1962m7 5.98 126 3.7522000 3.752000 1962 1962. 1962m9 5.27 128 3.858000 1962m10 5.37 129 3.689000 1962m11 5.42 130 3.717000 1962m12 5.36 11934119603. 132 3.426000 1963m2 5.74 133 3.756000 1963m3 5.69 134 3.709000 1963m4 5.50 135 3.635000 193000 19630 19630 19630 19630 1930 1963. 1963m6 5.28 137 3.761000 1963m7 5.20 138 3.723000 1963m8 5.22 139 3.674000 1963m9 5.21 140 3.714 3.715 3.739000 1963m11 5.51 142 3.721000 1963m12 5.63 143 3.758000 1964m1 5.64 144 4.307000 1964m2 14084. 5.76 146 4.302000 1964m4 5.93 147 4.384000 1964m5 5.90 148 4.464000 1964m6 5.97 149 4.654000 4.654000 1960 1964 1964 m8 6.00 151 4.703000 19
|
تکرار bgtest از lmtest
|
78529
|
من دادههایی از نظرسنجی دارم، و سعی میکنم یک مدل رگرسیون خطی با استفاده از R مانند A~ B بسازم، اما میخواهم C، D، E، F، G. مانند سن، جنسیت و سایر متغیرهای مخدوشکننده را کنترل کنم. من سعی کردم با استفاده از lm، glm و غیره چند مدل بسازم و آن را به داده های خود نصب کردم. با این حال، در مدل های رگرسیون چند متغیره، من نمی توانم نمودار را مانند زیر دریافت کنم. حدس میزنم برای استفاده از تابع «تقسیمشده» R برای نقطه برش، باید بتوانم معادله تخمینی بین A و B را بدست بیاورم، در حالی که همه متغیرهای دیگر کنترل میشوند.  تصویر بالا کاری را که می خواهم انجام دهم را توضیح می دهد. مدل خطی بین A و B، اما مدل واقعی شامل عوامل مخدوش کننده C، D، F و به نحوی آنها را کنترل می کند. نویسنده توضیح داد که > دو مدل رگرسیون خطی را برای B زیاد و B پایین برازش داد، و > مجموع مجذور باقیمانده ها (= A مشاهده شده - برآورد A)، را از دو مدل > برای هر B محاسبه کرد. مدل هایی با کمترین مقدار مجموع باقیمانده مربع ها > بهترین مدل ها بودند. به نظر می رسد از R گرفته شده است (و نویسنده چنین گفته است)، اما من نمی توانم رویکرد خوبی پیدا کنم. می ترسم به نظر برسد که این سؤال سؤال «ویژه ابزار» باشد/ اگر چنین است، این سؤال را اصلاح می کنم و با هر کمکی که داشتم آن را به روز می کنم. با تشکر
|
چگونه می توان مدل رگرسیون خطی را در حالی که متغیرهای مخدوش کننده کنترل کرد؟
|
54726
|
من دادههای زیر را دارم: http://s000.tinyupload.com/?file_id=00083355432555420222 من میخواهم چگالی مخلوطی از دو توزیع عادی را تنظیم کنم. من فرمول را دارم: \begin{align} f(l)=\pi \phi(l;\mu_1,\sigma^2_1)+(1-\pi)\phi(l;\mu_2,\sigma^2_2) \end{align} کد R من این است: normalmix<-normalmixEM(dat,k=2,fast=TRUE) pi<-normalmix$lambda[1] mu1<-normalmix$mu[1] mu2<-normalmix$mu[2] sigma1<-normalmix$sigma[1] sigma2<-normalmix$sigma[2] حالا من این مشکل را دارم که خروجی سازگار نیست، یعنی. هر بار که کد را اجرا می کنم، خروجی های مختلفی دریافت می کنم! و آنها بسیار متفاوت هستند، بدون تفاوت کوچک، که می تواند به دلیل دقت روش های عددی باشد. به عنوان مثال گاهی اوقات برای pi، [1] 0.2653939 یا [1] 0.3318069 را دریافت میکنم، که گاهی اوقات شمارهگذاری تغییر میکند، بنابراین پی 0.7 برابر با 0.3 خواهد بود. خوب، من این را دریافت کردم، نمی دانم چرا رویه های R این کار را انجام می دهد، اما این مشکلی ایجاد نمی کند. اما مشکل این است که خروجی ها بسیار متفاوت هستند، گاهی اوقات حتی یک پیغام خطا دریافت می کنم (آلمانی): Fehler in while (dl > eps && iter < maxit) { : Fehlender Wert, wo TRUE/FALSE nötig ist همچنین، تعداد تکرارها بسیار متفاوت است، از 29 تا 1000 ...... ویرایش: اکنون سعی کردم مقادیر اولیه را به صورت دستی تنظیم کنم ... در Rmanual می گوید: > لامبدا: مقدار اولیه نسبت های اختلاط. به طور خودکار در صورت لزوم برای تولید یک بردار به طول k تکرار می شود، سپس به مجموع 1 نرمال می شود. <-normalmixEM(dat,lambda=c(0.5,0.5),k=2,fast=TRUE) normalmix$loglik normalmix$mu normalmix$sigma که منطق `617.2996` و پارامترهای: > normalmix$mu [1] 0.0003769442 -0.0008892282 > normalmix$sigma [1] 0.02814997 0.012326 normalmix<-normalmixEM(dat,lambda=c(0.8,0.2),k=2,fast=TRUE) normalmix$loglik normalmix$mu normalmix$sigma که همچنین loglik 617.2996 را می دهد؟ و پارامترهای > normalmix$mu [1] 0.0003767148 -0.0008892515 > normalmix$sigma [1] 0.02814819 0.01232488 mh، نمی دانم.... سپس، آن را با مقادیر مختلف $\mu$ امتحان کردم. normalmix<-normalmixEM(dat,mu=c(-0.001,0.002),k=2,fast=TRUE) normalmix$loglik normalmix$mu normalmix$sigma که همچنین منجر به loglik '617.2996' و خروجی پارامتر می شود: > normalmix$mu [1] 0.0003767138 -0.0008892516 > normalmix$sigma [1] 0.02814818 0.01232487 2. normalmix<-normalmixEM(dat,mu=c(0.02,0.01),k=2,fast=TRUE) normalmix$mulogmi normalx$ig منجر به یک loglik از `617.2996` و خروجی پارامتر می شود: > normalmix$mu [1] 0.0003769462 -0.0008892280 > normalmix$sigma [1] 0.02814999 0.01232639 اکنون چه کنم؟
|
r: normalmixEM سازگار نیست؟
|
48654
|
تحلیل عاملی اکتشافی و مقادیر ویژه
|
|
54724
|
من طول 197 قسمت مراقبت پرستاری را ضبط کردم. داده های نرمال شده من $(x-\mu)/\sigma$ به این شکل است:  Kolmogorov-Smirnov به من یک p- می دهد مقدار 0.14 نمیشه درست باشه حتما؟! آیا من نتایج خود را اشتباه تفسیر می کنم؟
|
کولموگروف اسمیرنوف با داده های بصری در تضاد است
|
78523
|
من سه موضوع مهم را درک نمی کنم: (1) چرا آمار آزمون را تحت فرضیه صفر محاسبه می کنیم؟ (2) چرا زمانی که : p-value <سطح معنی داری، فرضیه صفر را رد می کنیم؟ (3) چرا خطای نوع I جدی تر از خطای نوع II است؟
|
سه موضوع مهم
|
54729
|
من سعی می کنم توزیع پسینی را برای نرخ شکست (لامبدا) یک فرآیند با توزیع پواسون استخراج کنم. من استفاده از توزیع یکنواخت نامناسب را روی لامبدا با اجازه دادن به حداکثر تمایل به بی نهایت امتحان کردم. پسین من دوباره شکل پواسون مانند دارد (اما به عنوان تابع احتمال متغیر پیوسته لامبدا). من همچنین سعی کرده ام از نظرات متخصصان مختلف به عنوان فواصل اطمینان استفاده کنم - از آنچه که من خوش بینانه تا بسیار محافظه کارانه می دانم - و با توزیع گاما تقریبی کنم. از این رویکردها، من نتایج بسیار مشابهی به دست میآورم، اما مطمئن نیستم که استدلال کافی برای دفاع از استفادهام از پیشینها داشته باشم. بنابراین، من نگران هستم که رویکرد من قوی نباشد و با خواندن کتاب قبلی جفری به این فکر میکنم که آیا باید درباره آن و نحوه استفاده از آن اطلاعات بیشتری کسب کنم. هر توصیه ای؟
|
قبل از استنتاج بیزی در مورد میزان شکست در توزیع پواسون
|
108189
|
من علاقه مند به رگرسیون لجستیک برای مدل سازی یک مسئله طبقه بندی هستم. سعی کردم رگرسیون لجستیک را با دو کتاب «روش های انتخاب گسسته با شبیه سازی» (قطار) و «رگرسیون لجستیک کاربردی» (هوسمر و لمشو) مطالعه کنم. برای روشن شدن سوالم، دو نمونه مدل لاجیت را از آن کتاب ها انتخاب کردم. 1. > انتخاب خانوار بین سیستم گرمایش گاز و برق (لوجیت باینری) > اجازه دهید زیرنویس های $g$ و $e$ نشان دهنده گاز و برق باشند، $PP$ و $OC$ > قیمت خرید و هزینه عملیاتی، $ \beta_1$ و $\beta_2$ پارامترهای اسکالر > هستند. سپس احتمال اینکه خانه گرمایش گازی را انتخاب کند > $$P_g = > \frac{e^{\beta_1PP_g+\beta_2OC_g}}{e^{\beta_1PP_g+\beta_2OC_g}+e^{\beta_1PP_e+\beta_2OC_e}}$2 است. > رابطه بین سن و وجود یا عدم وجود CHD (Logit باینری) > اجازه دهید $x$ باشد سن، زیرنویسهای $0$ و $1$ نشاندهنده عدم حضور و حضور > CHD و $\beta_1^0$، $\beta_2^0$، $\beta_1^1$ و $\beta_2^1$ هستند > پارامترهای اسکالر . سپس احتمال اینکه یک فرد $x$ ساله دارای > CHD باشد این است: > $$P_1 = > \frac{e^{\beta_1^1+\beta_2^1x}}{e^{\beta_1^1+\ beta_2^1x}+e^{\beta_1^0+\beta_2^0x}}$$ > (اگرچه مدل برای تخمین زدن به دو پارامتر اسکالر نیاز دارد، من نوشتم > فرمول در این فرم برای روشن شدن سوال.) من با رگرسیون لجستیکی که در مثال دوم نشان داده شده است آشنا هستم. متغیر مستقل (در این مثال سن) در هر دو انتخاب (یا کلاس) گنجانده شده است و البته مقدار متغیر مستقل برای کلاس های مختلف یکسان است. و برای هر کلاس و هر متغیر مستقل ضرایبی وجود دارد که باید تخمین زده شود و آن ضرایب برای طبقات مختلف متفاوت است. با این حال، مدل مثال اول دارای متغیرهایی است که برای هر انتخاب متفاوت است ($PP_e$، $PP_g$، $OC_e$ و $OC_g$)، و ضرایب بین گزینهها یکسان است. تقریباً من میتوانم دو مدل را جداگانه درک کنم، اما نمیتوانم مفهوم یکپارچه رگرسیون لجستیک را بسازم. آنها به نظر من متفاوت هستند. به عنوان مثال، بسیاری از کتاب ها و مواد درسی فرمول رگرسیون لجستیک (چند جمله ای) را ارائه می دهند که شامل متغیرهای مستقل و ضرایب (که برای هر کلاس متفاوت است) می باشد. با این فرمول می توانم مثال دوم را درک کنم، اما آیا این فرمول می تواند وضعیتی را که در مثال اول نشان داده شده است در بر بگیرد؟ به عبارت دیگر، آیا این فرمول دارای متغیرهایی است که برای هر کلاس متفاوت است؟
|
رگرسیون لجستیک چیست؟ من نمی توانم یک مفهوم واحد داشته باشم
|
20125
|
من طرح های جعبه ای از 13 گروه دارم که در یک طرح نشان می دهم. گروه ها دارای جمعیت نامتعادل هستند و به طور معمول توزیع نمی شوند. میخواهم نشان دهم کدام جفتها از نظر آماری مشابه هستند (یعنی kruskal.test p-value <0.05) با قرار دادن a،b،c و غیره در بالای کادرهایی که مطابقت دارند. در اینجا یک کد شبه برای نشان دادن آنچه دارم وجود دارد: A = c(1، 5، 8، 17، 16، 3، 24، 19، 6) B = c(2، 16، 5، 7، 4، 7، 3 ) C = c(1، 1، 3، 7، 9، 6، 10، 13) D = c(2، 15، 2، 9، 7) junk = list(g1=A, g2=B, g3=C, g4=D) boxplot(junk) در اینجا نموداری پیدا کردم که آنچه را که می خواهم انجام می دهد (به جز اینکه 13 گروه در یک ردیف دارم): 
| |
78520
|
من در تلاشم تا اکوسیستم کامل تئوری آمار را کشف کنم. ** درخت طبقه بندی تمام نظریه های ریاضی/آمار در طول زمان** آیا کسی در مورد آمار پیوندهایی به Infographics انجام داده یا دارد. شاید با آمارهای مبتنی بر گذشته، حال یا آینده شروع شود. به عنوان مثال، صورتحساب، قیمت فعلی سهام، پیشبینی درآمدهای آتی... یا سبکهای مختلف، استقرا، آزمون فرضیه، بیزی... شاید تجزیه و تحلیل خوشهای بر اساس صنعت یا انواع مجموعه دادهها. به عنوان مثال بازاریابی و تبلیغات، سریهای زمانی پایه برای اندازهگیری کلیکها بهینهسازی یا تجزیه و تحلیل مؤلفه اصلی برای بهینهسازی خلاقانه، نمیدانم، چیزی که در آن افراد جدید میتوانند دامنه آمار را دریابند. منظورم این است که میدانم تقریباً در هر زمینهای از زندگی میتوان از آن استفاده کرد، اما باید یک نوع طبقهبندی کلی وجود داشته باشد. چیزی شبیه به این اما برای آمار. http://static.bbci.co.uk/naturelibrary/3.1.5//images/tree_of_life_full.gif لطفاً اگر می توانید سؤال را بهبود ببخشید، این پست را ویرایش کنید. با تشکر
|
بهترین اینفوگرافیک آمار به عنوان موضوع
|
34396
|
من 10 سال داده بازده روزانه 28 ارز مختلف دارم. من می خواهم اولین جزء اصلی را استخراج کنم، اما به جای اینکه PCA را در کل 10 سال کار کنم، می خواهم یک پنجره 2 ساله اعمال کنم، زیرا رفتار ارزها تکامل می یابد و بنابراین می خواهم این را منعکس کنم. با این حال، من یک مشکل اساسی دارم، این است که هر دو توابع princomp() و prcomp() اغلب از بارگذاری مثبت به منفی در آنالیزهای PCA مجاور (یعنی با فاصله 1 روز) می پرند. به نمودار بارگیری ارز یورو نگاهی بیندازید:  واضح است که من نمی توانم از این استفاده کنم زیرا بارگیری های مجاور از مثبت جهش می کنند به منفی، بنابراین سریال من که از آنها استفاده می کند اشتباه خواهد بود. اکنون به ارزش مطلق بارگیری ارز یورو نگاهی بیندازید:  البته مشکل این است که من هنوز نمی توانم از آن استفاده کنم زیرا شما می توانید از نمودار بالا ببینید که بارگذاری از منفی به مثبت و گاهی اوقات برمی گردد، مشخصه ای که من باید آن را حفظ کنم. آیا راهی وجود دارد که بتوانم این مشکل را برطرف کنم؟ آیا می توانم جهت گیری بردار ویژه را مجبور کنم همیشه در PCAهای مجاور یکسان باشد؟ به هر حال این مشکل با تابع ()PCA FactoMineR نیز رخ می دهد. کد rollapply اینجاست: rollapply(retmat, windowl, function(x) summary(princomp(x))$loadings[, 1], by.column = FALSE, align = right) -> princomproll
|
من در حال بارگیری جهشی در rollapply PCA در R هستم. آیا می توانم آن را برطرف کنم؟
|
78526
|
من دارم رگرسیون خطی بیزی را از یک کتاب یاد میگیرم، مدل خطی آن $$p(w|x,\phi,\sigma^2)=Norm_w[\phi^Tx,\sigma^2]$$ است. در این کتاب، از رویکرد بیز برای انجام تخمین پارامترها استفاده می کنیم. مشکل اینجا پیش میآید: من فکر میکردم کاملاً واضح است که باید یک ** مزدوج** را قبل از پارامترهای $\phi$ و $\sigma^2$ معرفی کنیم، که باید دارای **توزیع گامای معکوس با مقیاس نرمال* باشد. *، درست است؟ اما کتاب ابتدا فرض میکند که $\sigma^2$ شناخته شده است، و یک توزیع قبلی برای $\phi$ به تنهایی معرفی میکند که یک میانگین گاوسی 0 است و تخمین را برای $\phi$ انجام میدهد. پس از همه اینها، فرض می کند $\sigma^2$ شناخته شده نیست و آن را تخمین می زند. چرا باید آنها را از هم جدا کنیم؟ به روز رسانی کتاب _آموزش ماشینی: دیدگاه احتمالی_، ص. 232، بخش رگرسیون خطی بیزین. من به تازگی این مقاله را پیدا کردم که همچنین فرض می کند یکی شناخته شده است و بعداً آن را ناشناخته فرض می کند. رگرسیون خطی بیزی
|
درک رگرسیون خطی بیزی خیلی سخت است؟
|
91168
|
با شروع از یک «model1 = lm(temp~alt+sdist)» خطی، من باید یک مدل پیشبینی ایجاد کنم، که در آن دادههای جدید در دسترس قرار میگیرد و پیشبینیهایی درباره «دمای» انجام میشود. من سعی کردم کاری شبیه این انجام دهم: `model2 = predict.lm(model1, newdata=newdataset)` با این حال، مطمئن نیستم که این راه درست است. آنچه من می خواهم در اینجا بدانم این است که آیا این راه درستی است که می توان در مورد دما پیش بینی کرد. همچنین وقتی صحبت از newdataset می شود، کمی گیج هستم. کدام مقادیر باید پر شود و غیره؟ هر گونه کمکی پذیرفته می شود.
|
R: مدل رگرسیون خطی چندگانه و مدل پیش بینی
|
91160
|
من سعی می کنم سیستم تشخیص گفتار را بر اساس HMM 5 حالته + تابع گاوسی چند متغیره ایجاد کنم. من از بردار ویژگی خودم مشتق شده از MFCC (ضرایب مغزی فرکانس مل) استفاده می کنم. مشکل این است که پس از آموزش، تنها چند ورودی از ماتریس انتقال HMM بزرگتر از صفر باقی مانده است. لازم به ذکر است که فقط حالت های 2 - 4 می توانند مشاهده منتشر کنند. حالت های 1 و 5 به اتصال مدل با سایر مدل ها برای ساختن یک زنجیره کمک می کنند. ماتریس اولیه: $$\left[ \begin{array}{ccccc} 0.0 & 1.0 & 0.0 & 0.0 & 0.0 \\\ 0.0 & 0.6 & 0.4 & 0.0 & 0.0 \\\ 0.0 & 0.0 & 0.6 & 0.4 \\\ 0.0 و 0.0 & 0.0 & 0.7 & 0.3 \\\ 0.0 & 0.0 & 0.0 & 0.0 & 0.0 \end{array} \right]$$ ماتریس پس از آموزش مدل در نمونههای واج a به این صورت است: $$\left[ \begin{ آرایه}{cccccc} 0.0 & 1.0 & 0.0 & 0.0 & 0.0 \\\ 0.0 & 0.0 & 1.0 & 0.0 & 0.0 \\\ 0.0 & 0.0 & 0.8910256 & 0.1089744 & 0.0 \\\ 0.0 & 0.0 & 0.0 & 0.0 & 1.0 &\\ 0.0 & 0.0 & 0.0 & 1.0 &\\ 0.0. \end{array} \right]$$ مجموعه آموزشی از 187 دنباله با حدود 10 بردار به طور متوسط در هر دنباله تشکیل شده است. عملکرد چنین مدلی بسیار ضعیف است. بنابراین دلایل اصلی چنین ماتریس انتقالی پراکنده پس از آموزش مدل چه میتواند باشد؟ پیشاپیش از هرگونه کمکی متشکرم
|
چرا بعد از آموزش HMM 5 حالته فقط تعداد کمی از ورودی های ماتریس انتقال بزرگتر از صفر باقی مانده است؟
|
62634
|
این یک سوال بسیار ساده به نظر می رسد اما من در دیدن پاسخ مشکل دارم. من یک مجموعه از 30 مقدار دارم. من به طور مستقل یک مقدار 31 را به دست آوردم. فرضیه صفر این است که مقدار 31 بخشی از همان توزیع است. جایگزین این است که متفاوت است. من نوعی P-value یا اندازه گیری احتمال می خواهم. برخی از افکار من: * این شبیه به انجام یک آزمون t دو نمونه ای است - با این تفاوت که برای نمونه دوم فقط یک مقدار دارم و 30 مقدار لزوماً به طور معمول توزیع نمی شوند. * اگر به جای 30 اندازه گیری 10000 اندازه گیری داشته باشم، رتبه اندازه گیری واحد می تواند اطلاعات مفیدی ارائه دهد. چگونه می توانم این احتمال یا p-value را محاسبه کنم؟ با تشکر یانیک
|
آیا این مقدار واحد با توزیع مطابقت دارد؟
|
91169
|
از چه مدلی برای پیش بینی رفتار یک گروه بر اساس رفتار گذشته اعضای گروه استفاده کنیم؟ من از قیاس تیم ورزشی استفاده می کنم. فرض کنید ما داده هایی برای تک تک بازیکنان ورزش داریم. داده ها نتایج بازی های بین 2 تیم و اعضای هر تیم است. از این طریق میتوانیم ببینیم که بازیکنان چند بار با هم بازی کردهاند و هر بار نتایج آن را به دست آوردهاند. برد یا باخت. امروز لیست 2 تیمی که بازی می کنند را می دانیم. آیا مدلی وجود دارد که بتوان از آن استفاده کرد که عملکرد گذشته هر بازیکن را در زمانی که امروز با سایر بازیکنان در زمین بازی کرده اند در نظر بگیرد و از آن برای پیش بینی برنده بازی استفاده کند؟
|
از چه مدلی برای پیش بینی رفتار یک گروه بر اساس رفتار گذشته اعضای گروه استفاده کنیم؟
|
19860
|
**مقدمه** در ترکیب پیش بینی ها، یکی از راه حل های رایج، بر اساس استفاده از معیارهای اطلاعاتی است. برای مثال با در نظر گرفتن معیار Akaike $AIC_j$ تخمین زده شده برای مدل $j$، می توان تفاوت $AIC_j$ را از $AIC^* = \min_j{AIC_j}$ و سپس $RP_j = e^{(AIC^*-) محاسبه کرد. AIC_j)/2}$ را می توان به عنوان احتمال نسبی مدل $j$ برای درست بودن آن تفسیر کرد. سپس وزنها به صورت $$w_j = \frac{RP_j}{\sum_j RP_j}$$ **مشکل** تعریف میشوند مشکلی که من سعی میکنم بر آن غلبه کنم این است که مدلها بر روی متغیرهای پاسخ (درونزا) تغییر شکلیافته متفاوت تخمین زده میشوند. به عنوان مثال، برخی از مدل ها بر اساس نرخ رشد سالانه، مدل دیگر - بر اساس نرخ رشد سه ماهه است. بنابراین مقادیر $AIC_j$ استخراج شده مستقیماً قابل مقایسه نیستند. **راه حل آزمایش شده** از آنجایی که تنها چیزی که مهم است تفاوت $AIC$s است، می توان $AIC$ مدل پایه را گرفت (به عنوان مثال من سعی کردم مدل lm(y~-1) را بدون هیچ پارامتری استخراج کنم) که نسبت به تبدیلهای متغیر پاسخ ثابت است و سپس تفاوتهای بین مدل $j$th و مدل پایه $AIC$ را مقایسه کنید. اما در اینجا به نظر می رسد نقطه ضعف باقی می ماند - تفاوت _is_ تحت تاثیر تبدیل متغیر پاسخ است. **نکته پایانی** توجه داشته باشید، گزینه ای مانند برآورد همه مدل ها بر روی متغیرهای پاسخ یکسان امکان پذیر است، اما بسیار زمان بر است. اگر راه دیگری برای حل مشکل وجود ندارد، میخواهم قبل از تصمیم دردناک، «درمان» سریع را جستجو کنم.
|
چگونه می توان پیش بینی ها را در زمانی که متغیر پاسخ در مدل های پیش بینی متفاوت بود ترکیب کرد؟
|
27418
|
من در حال انجام تحقیقات زیادی در مورد جرایم سازمانیافته در شرق آسیا برای پروژهای به عنوان لطف به یکی از دوستان نویسندهام بودم، و متوجه شدم که اقتصاددانان و روزنامهنگاران برجستهای وجود داشتند که در کنار هم، ارزش عملیات بازار سیاه را در سراسر جهان تخمین میزنند. . روش شناسی برای این کار چیست؟ چگونه این اعداد با هم جمع می شوند؟ آیا این اعداد در مدل های سنتی بازار ثبت می شوند؟
|
چگونه اقتصاددانان عملیات بازار سیاه را کمیت می کنند؟
|
27410
|
من یک مجموعه داده متشکل از مقادیر موقعیت پر سر و صدا یک مسیر دست انسان دارم. من می خواهم یک مدل تولیدی از این مسیرها را تخمین بزنم، و انتخاب واضح یک فیلتر کالمن/سیستم دینامیکی خطی است. از آنجایی که رابطه موقعیت / سرعت / شتاب به خوبی شناخته شده است، من یک LDS با 3 متغیر پنهان (برای هر بعد) انتخاب کردم و ماتریس های انتقال و انتشار را کدگذاری کردم. من واریانس ها را به عنوان کوواریانس های مورب از طریق بازرسی چشمی تنظیم کردم. (شاید باید تمام پارامترها را از طریق EM یاد میگرفتم، احتمالاً آمارهای بیشتری را میدانستم، تا حدودی قبل از پارامترهای مدل پیشبینی میکردم.) با انجام این کار، متوجه شدم که LDS با تغییر جهت ناگهانی دست و پنجه نرم میکند. بنابراین تعجب کردم که آیا این فرض که شتاب در واقع گاوسی توزیع شده است درست است یا خیر. حالا چندتا سوال دارم 1. چگونه می توانم بررسی کنم که آیا فرض گاوسی خوب است؟ یک مشکل این است که من نمیتوانم نمونه قابل اعتمادی از شتابها به دست بیاورم، زیرا حتی سیگنالهای موقعیت دارای نقاط پرت هستند، و بنابراین نقاط پرت مشتق دوم حتی شدیدتر خواهند بود.) 2. مدلهای فضایی چه حالتی وجود دارند که فرض نمیکنند گاوسیانیت در همه جا؟ کدام یک از آن ها به اندازه کافی سریع استنتاج دارند تا در یک سیستم بلادرنگ با 20 پیش بینی در ثانیه قابل استفاده باشند؟ 3. آیا کسی تجربه ای در مورد تنظیمات مشابه دارد و ممکن است در مورد اینکه از کدام مدل ها استفاده کنم توصیه ای دارد؟
|
فرض توزیع گاوسی شتاب
|
44712
|
یک مجموعه A با عناصر $N$ وجود دارد. بر اساس مجموعه A، من می خواهم گروه های $M$ را بسازم، که در آن هر گروه دارای عناصر $P$ است. به طور طبیعی، $M P <N$. همه آن عناصر در گروههای $M$ با پیروی از دو معیار از مجموعه A نمونهبرداری میشوند، آنها با یکدیگر متفاوت هستند. احتمال نمونه برداری برای هر یک از این عناصر MP یکسان است. از چه نوع روش نمونه گیری استفاده کنم؟ چگونه این کار را در R انجام دهیم؟
| |
44719
|
من در حل تحلیلی واریانس (یا انحراف معیار) ترکیبی از توزیع پواسون و توزیع بتا (یا دقیقتر، توزیع PERT) گیر کردهام. پیشینه این است که برای تجزیه و تحلیل ریسک، من فراوانی وقوع و حداقل مقدار، مقدار نرمال و حداکثر مقدار خسارت در صورت وقوع را دارم. تقریب sd آسیب (حداکثر مقدار - حداقل مقدار)/6 و sd فرکانس به سادگی sqrt (فرکانس) است. چگونه می توانم وزن کشی مناسب را برای دریافت sd مخلوط بدست بیاورم؟ من فکر کردم که می توانم وزن کشی را برای میانگین آسیب و احتمال عدم آسیب مخلوط کنم و sd آسیب را اضافه کنم، اما این پاسخ درستی نمی دهد. پاسخ: پاسخ jbowmans: من فکر میکنم که این راهحل یک تقریب اول خوبی خواهد بود، اما شبیهسازی عددی باعث میشود که این یک تخمینگر بیطرفانه باشد. به نظر می رسد نتایج من نشان دهنده یک دست کم گرفتن 3 درصدی از انحراف معیار مشاهده شده است. > diffSD = (resVar^0.5 - resVarDet^0.5)/resVarDet^0.5 > > خلاصه (diffSD) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.006816 0.024870 0.028800 0.028860 0.032840 0.052650 با آلفا = 1 بتا = 1 حلقه = 10000 تکرار = 100000 پاسخ = 100000 resVar = تکرار: 1 رویداد (0، حلقه در حلقه) rpois(reps، lambda) #damage = rPERT(reps، minVal، mlVal، maxVal) آسیب = rbeta(reps، shape1=alpha، shape2=beta) resVar[i] = var(رویدادها* خسارت) } #resVarDet = varDet( lambda، meanPert(minVal، mlVal، maxVal)، sdPert(minVal، maxVal)) resVarDet = varDet(لامبدا، meanBeta(آلفا، بتا)، varBeta(آلفا، بتا)^0.5) با استفاده از توابع meanBeta = تابع (آلفا، بتا) { res = آلفا/(آلفا + بتا) return(res) } varBeta = تابع (آلفا، بتا) { res = (آلفا * بتا)/ ((آلفا + بتا)^2*(آلفا + بتا + 1)) بازگشت (res) } varDet = تابع (لامبدا، مو، سیگما) { res = lambda * (mu^2 + sigma^2) return(res) }
| |
82776
|
ss کل و بین ss در خوشه بندی k-means به چه معناست؟
|
|
67047
|
تمرین برای فینال آمار در 2 روز. موارد زیر چه زمانی درست است؟ همبستگی بین متغیرهای x و y صفر است. با این حال، بهترین منحنی که x را به y مرتبط می کند، یک خط افقی نیست. هر ایده ای؟ متشکرم.
|
شیب خط زمانی که همبستگی = 0 همیشه 0 نیست؟
|
41076
|
چگونه یک متغیر وابسته لگ نرمال محدود را با صفرهای زیاد مدل کنیم
|
|
67042
|
منظور من از LPM این است که متغیر وابسته چندکوتومی است (به عنوان مثال 1،2،3 4) و (نه باینری 1 یا 0). من می دانم که چگونه ضرایب را به صورت دستی با محاسبه معکوس PDF تبدیل کنم. آیا دستوری در SAS وجود دارد که این کار را به صورت خودکار انجام دهد؟ اگر شروع کنم مثلاً proc logistic یا proc probit میخواهم توضیح دهم اگر متغیر مستقل 1 واحد تغییر کند چه اتفاقی میافتد؟
|
آیا میانبری در SAS برای تفسیر ضرایب مدل احتمال محدود وجود دارد؟
|
67040
|
آیا تفاوت صوری بین اصطلاحات مدل احتمالی و مدل آماری وجود دارد؟ آیا تفاوت روش شناختی بین این دو وجود دارد یا فقط ترجیح اصطلاحات است؟ من می بینم که اولی اغلب با مدل های گرافیکی و مدل های بیزی استفاده می شود، در حالی که به نظر می رسد آماری هر چیزی به طور خاص Frequentist باشد.
|
تفاوت بین مدل سازی احتمالی و مدل سازی آماری
|
41074
|
پیش بینی با CI - predict.glm گزینه فاصله ندارد
|
|
67043
|
من در حال انجام تست دم پایین تر هستم و آمار z من -1.57 است. حالا باید مقدار p را محاسبه کنم. روش من برای یافتن مقدار p با استفاده از جدول z این است: من به دنبال ردیف -1.5 بودم، سپس به دنبال ستون 0.07 بودم. ورودی 0.0582 است. از آنجایی که آزمون یک فرم دم پایین تر است، p-value 0.0582 است. اما از این منبع دریافتم که مقدار p برای مشکل داده شده 0.58051 است. این چگونه محاسبه شد؟
|
محاسبه P-value
|
27417
|
من به این یادداشت از یک کتاب برخوردم: .. همبستگی بین پورتفولیوهای فعال و غیرفعال زمانی بیشتر است که $\beta$ نمونه کارها بیشتر باشد. نویسنده رگرسیون نمونه کارها فعال را روی نمونه کارها غیرفعال اجرا می کند. این برای من منطقی نیست. اگر درست متوجه شده باشم، بتا در تحلیل رگرسیون خطی تک متغیری بهترین رابطه/برازش را بین دو متغیر (یا شیب بردار مستقل بر بردار وابسته) به ما می دهد، اما نشان دهنده قدرت آن رابطه نیست. برای تعیین اینکه چقدر رابطه بین متغیرها خوب است، باید به همبستگی یا مقدار R^2$ نگاه کنیم. تا زمانی که بتا از نظر آماری معنیدار باشد، میتوانیم به $R^2$ برای تعیین قدرت رابطه نگاه کنیم. در اینجا چند مثال آورده شده است: 1. سه متغیر $A_1$، $A_2$ (متغیرهای وابسته) و $B$ (متغیر مستقل) را در نظر بگیرید. اگر $A_1$ و $B$ دارای $\beta=2.0$ باشند. همبستگی=0.8، و $A_2$ و $B$ دارای $\beta=0.5$ هستند. همبستگی=0.8، پس هر دو $A_1$ و $A_2$ به طور مساوی با $B$ توضیح داده می شوند. 2. دو سری را در نظر بگیرید: A=$\\{1,2,3,4,5,6,7,8,9,10\\}$ و $B=2\ برابر A$. در این مورد، همبستگی بین A و B 1 است. با این حال، رگرسیون $A$ در $B$ $\beta$ را 0.5 و $B$ در $A$ 2.0 می دهد. با این حال، هر متغیر به طور کامل توسط دیگری توضیح داده شده است. آیا درک من درست است؟ لطفاً اگر چیزی را در اینجا گم کرده ام برجسته کنید.
|
$\beta$ در تحلیل رگرسیون خطی به ما چه می گوید؟
|
66399
|
من به دنبال یک فرم بسته برای انتگرال زیر هستم اما از آنجایی که پیشینه لازم را ندارم قادر به حل آن نیستم: می دانم که راه حل نهایی به صورت توابع و چند جمله ای های اصلاح شده بسل است و همچنین می دانم که ممکن است مربوط به گشتاورهای توزیع گاوسی معکوس چند متغیره باشد: در اینجا انتگرال با فرض z و y بردار هستند. و $\lambda$ و $\Gamma$ ماتریس هستند. اگرچه $\Gamma$ می تواند مورب باشد. $U$ یک ماتریس مورب است که حاوی $\sqrt z_i$ به عنوان عناصر مورب آن است. $$ U = \begin{bmatrix} \sqrt{z_1} & \cdots & 0 \\\ \vdots & \ddots & \vdots \\\ 0 & \cdots & \sqrt{z_d} \end{bmatrix}$$ $$ \lambda = \begin{bmatrix} \lambda_{11} & \cdots & \lambda_{1d} \\\ \vdots & \ddots & \vdots \\\ \lambda_{d1} & \cdots & \lambda_{dd} \end{bmatrix}$$ $$ \Gamma= \begin{bmatrix} \Gamma_{1} & \cdots & 0 \\\ \vdots & \ddots & \vdots \\\ 0 & \cdots & \Gamma_{d} \end{bmatrix}$$ $$ \int^{\infty}_{0} \frac{1}{\sqrt{z_1 ... z_d}} \exp^{(-\frac{ 1}{2} y^T(U \Gamma U^T)^{-1} y)} \exp^{(-\sqrt{z}^T\lambda\sqrt{z})} \ \ \mathrm{d}z_1...\mathrm{d}z_d$$ متشکرم
|
ادغام چند متغیره به شکل بسته
|
67049
|
با کمال تعجب، من نتوانستم با استفاده از گوگل پاسخی برای سوال زیر پیدا کنم: من برخی از داده های بیولوژیکی از چندین فرد دارم که رفتار رشد تقریباً سیگموئید را در زمان نشان می دهد. بنابراین، من میخواهم آن را با استفاده از رشد لجستیک استاندارد P(t) = k*p0*exp(r*t) / (k+p0*(exp(r*t)-1)) با p0 مدلسازی کنم که مقدار شروع آن است. در t=0، k حد مجانبی در t-> بی نهایت و r سرعت رشد است. تا آنجا که من می بینم، می توانم به راحتی این را با استفاده از nls مدل کنم (عدم درک از طرف من: چرا نمی توانم چیزی مشابه را با استفاده از رگرسیون لاجیت استاندارد با مقیاس گذاری زمان و داده مدل کنم؟ ویرایش: با تشکر نیک، ظاهراً مردم این کار را انجام می دهند به عنوان مثال برای نسبت ها، اما به ندرت http://www.stata-journal.com/article.html?article=st0147 سوال بعدی در مورد این مماس خواهد بود در صورتی که مدل احتمالاً می تواند مقادیر پرت >1 را مدیریت کند). اکنون میخواهم برخی اثرات ثابت (عمدتاً طبقهبندی شده) و برخی تصادفی (یک شناسه فردی و احتمالاً یک شناسه مطالعه) را روی سه پارامتر k، p0 و r بگذارم. آیا nlme بهترین راه برای انجام این کار است؟ مدل SSlogis برای کاری که میخواهم انجام دهم معقول به نظر میرسد، آیا درست است؟ آیا هر یک از موارد زیر برای شروع یک مدل معقول است؟ به نظر نمیرسد که من نمیتوانم مقادیر شروع را به درستی دریافت کنم و به نظر میرسد که update() فقط برای افکتهای تصادفی کار میکند، نه ثابت - آیا نکاتی وجود دارد؟ nlme(y ~ k*p0*exp(r*t) / (k+p0*(exp(r*t)-1))، ## اصلا کار نمی کند (ویژگی های عددی بد؟) داده = داده، ثابت = k + p0 + r ~ var1 + var2، تصادفی = k + p0 + r ~ 1|UID، شروع = c(p0=1، k=100، r=1)) nlme(y ~ SSlogis(t، Asym، xmid، scal)، ## کار نمی کند، زیرا start= داده نامناسب است = داده، ثابت = Asym + xmid + scal ~ var1 + var2، ## با ~ 1 تصادفی = خوب کار می کند Asym + xmid + scal ~ 1|UID، start = getInitial(y ~ SSlogis(Dauer, Asym, xmid، scal)، data = data)) از آنجایی که من در مدلهای ترکیبی غیرخطی بهویژه و مدلهای غیرخطی به طور کلی تازه کار هستم، از توصیههای خواندنی یا پیوندهایی به آموزشها / سؤالات متداول با سؤالات مبتدی قدردانی میکنم.
|
رگرسیون غیرخطی اثرات مختلط در R
|
67044
|
توجه: اگر می خواهید به خلاصه 3 سوال اصلی من بروید، آنها در پایین ترین قسمت قرار دارند. من سعی می کنم یک مدل رگرسیون لجستیک باینری برای تعیین اینکه آیا داده ای که به من داده می شود درست است یا نه تولید کنم. من یک ستون خاص از داده ها دارم که من را کمی دردسر می کند. ستون داده ها بسیار کج است. به نظر می رسد یک فروپاشی نمایی بسیار بسیار شدید است. این در ارتباط با سایر متغیرهای مستقل که خطی هستند استفاده می شود. در این مورد، میخواهم بدانم چه زمانی یک کد پستی که از یک منبع داده خاص با ورودی طبقهبندی X به من داده میشود، با حداقل 90 درصد اطمینان (در حالت ایدهآل بالاتر) صحیح است. من قبلاً می دانم که 25٪ از کدهای پستی صحیح هستند - زیرا آنها را با داده هایی که می دانم درست هستند مقایسه کرده ام. به خاطر داشته باشید که این قبل از تمیز کردن است که به زودی توضیح خواهم داد. پس از تمیز کردن 40٪ از کدهای پستی درست است. در آینده که هیچ داده واقعی برای مقایسه مجموعه داده بازگشتی نداشته باشم، می دانم که چه تعداد از کدهای پستی صحیح هستند، اما نمی دانم که کدام یک را بدون کشف این (در میان تعدادی از مشکلات دیگر) انتخاب کنم. بسیاری از داده های دیگر در مجموعه داده به من داده می شود و همچنین به من بازگردانده می شود که سعی کرده ام به نحوی با آنها مطابقت کنم (یا کاری انجام دهم) تا این مشکل را اصلاح کنم، اما احساس می کنم انجام این کار اشتباه است. این باعث وابستگی بین متغیرهای ظاهرا مستقل من می شود - و بنابراین بی معنی خواهد بود. این درسته؟...درسته؟ در واقع، از یک مثال متقابل که به طور کلی برای من بدیهی به نظر می رسد، جلوگیری می کنم. من با آمار تا حدودی تازه کار هستم، اما در اسرع وقت در حال یادگیری هستم، بنابراین من را برای هر گونه فرضیات نادرست و غیره ببخشید. من نرمافزاری دارم که به من این امکان را میدهد که تقریباً تمام تکنیکهای تبدیل داده غیرعادیشده را که فکر میکنید در این مورد اعمال کنم - اما AD p-value همیشه با مقدار بسیار کمتر از 0.05 برمیگردد. حدود 10+ تبدیل انجام شد. من آنها را در زیر مجموعه داده لیست می کنم. من تقریباً مطمئن هستم که باید مسیر ناپارامتریک را طی کنم، که به طور کلی آن را درک می کنم - به جز یک بخش کلیدی: هر چیزی که در مورد ناپارامتریک می توانم پیدا کنم در مورد آزمون ها است. مانند آزمون Mann Whitley و غیره. من نمی توانم جایی یا راهی را پیدا کنم که بتوانم داده ها را به صورت غیر پارامتری تبدیل کنم. **نمیتوانم بفهمم با نتیجه «آزمونهای» ناپارامتریکم چه کنم. با آنها چه می کنید؟ اقدامی که از نتایج آزمایش انجام می شود چیست؟** تنها کاری که می توانم در اینجا انجام دهم این است که با استفاده از داده های این جدول، نسبتی را بر اساس احتمال ارتباط آن با صحیح بودن مشخص کنم. برای هر عدد، با فرض اینکه آن عدد در ابتدا به جای ترتیبی (و قطعاً مستمر نیست) مقولهای باشد، و سپس فهرست تناسبات را بر اساس احتمالی که دیکته میکنند که کد پستی داده شده صحیح است، مرتب کنید. من فهرستی از متغیرهای ترتیبی که میتوانم استفاده کنم ارائه میکنم. مشکل بزرگ این است که این انحرافات استاندارد را در نظر نمی گیرد، تعداد دفعاتی که متغیر اصلی فهرست شده است، و غیره. **مشکل دیگر: جای خالی** من می دانم که قرار نیست شما خالی ها را حذف کنید زیرا خالی ها در صورت وجود معنی خاصی دارند - اما حتی پس از پرس و جو از منبع داده های برگشتی که دریافت می کنم، تنها پاسخ هایی که دریافت می کنم این است که ما فقط اطلاعاتی نداشت.» نمیدانستم در آنجا چه کار کنم و سعی کردم از مدلهای رگرسیون برای پر کردن جاهای خالی استفاده کنم. با این حال، از آنجایی که 95٪ از ردیف هایی که در آن ها یک خالی در یکی از ستون ها ظاهر می شود معادل اشتباه بودن کد پستی داده شده در 98٪ موارد به هر حال ... من غیر قابل تصور را انجام دادم: فقط تصمیم گرفتم آنها را حذف کنم و این را اضافه کنم مالش دادن» به فرمول من، که اساسا آن را به یک الگوریتم ساده تبدیل می کند. من تصور میکردم تا زمانی که هر بار همان تکنیک تمیز کردن را انجام میداد، مدل نهایی فرمولی که من به آن دست یافتم، به همان اندازه کار خواهد کرد که دادههای آینده به طور معادل از خالی پاک میشوند. این به این صورت است که هر بار روشی که منبع داده به دست میآید ثابت بماند. اگر کسی ایده، پیشنهاد یا اصلاح بهتری برای این موضوع دارد، به من بگوید. این داده ها است. امیدوارم لیست خیلی طولانی نباشد - و بله همیشه از 1 شروع می شود و بالاترین مقداری که تا به حال به آن رسیده است 999 است. در هر دو انتها به زیبایی منحرف شده است. این از ردیفهایی از دادههایی که حاوی موارد خالی هستند پاک شده است. جای خالی فقط در ستون Accuracy Radius ظاهر نمی شود - این فقط در حدود 0.02% (بنابراین بله 0.0002) مواقع اتفاق می افتد. جاهای خالی میتوانند در ستونهای مختلفی نیز ظاهر شوند - همگی نشان میدهند که کد پستی بازگردانده شده در 98٪ مواقع همانطور که قبلاً گفته شد نادرست است. من متوجه هستم که این ممکن است به طور بالقوه بر نتیجه ای که هنگام تلاش برای تبدیل این ستون خاص از داده ها به نحوی به دست می آورم تأثیر بگذارد، اما اگر هر بار همانطور که ذکر کردم، تمیز کردن گفته شده را انجام دهم، به نظرم خوب است. اگر کسی میخواهد دادههای خالی داشته باشد، به من اطلاع دهد. در اینجا داده ها و در زیر آن سوالات خلاصه من است. بدیهی است که ستون چهار فقط مجموع دو ستون قبلی است - این تعداد است
|
داده های به ظاهر پیوسته غیرقابل تبدیل؟ اگر نه، با نتایج تست غیر پارامتریک چه باید کرد - اقدام بعدی چیست؟
|
48659
|
اثبات قضیه در حالت های بازگشتی و کلاس هم ارزی آن
|
|
62132
|
من یک مجموعه داده از حدود 40 موضوع و 10 متغیر دارم که برخی عملکرد را در یک کار اندازهگیری میکنند و برخی برخی ویژگیها را اندازهگیری میکنند. هر یک از متغیرهای عملکرد شامل نسبت پاسخ های صحیح (محدوده 0 تا 1.0) به مجموعه ای از سؤالات است. متغیرهای مشخصه (مانند ضریب هوشی کلامی) ترتیبی هستند و ممکن است از توزیع نرمال پیروی کنند یا نداشته باشند. آزمودنی ها از طریق تحلیل خوشه ای به دو گروه تقسیم شدند. من میخواهم دو خوشه را در مورد هر عملکرد و معیار مشخصه مقایسه کنم تا آزمایش کنم که آیا آنها در آن معیار با یکدیگر تفاوت معنیداری دارند یا خیر. با این حال، فرآیند خوشهبندی مستلزم نقض مفروضاتی است که باید برای آزمونهای آماری استاندارد رعایت شوند. اگر این دو خوشه در اندازه گیری ها متفاوت هستند، از چه نوع آزمایشی برای آزمایش استفاده کنم؟ متشکرم.
|
انجام مقایسه پس از تجزیه و تحلیل خوشه ای
|
109582
|
من آموزش کریستوفر منینگ را از NAACL 2013 یادگیری عمیق برای NLP (بدون جادو) می گذرانم و او به نقطه ای می رسد که نشان می دهد چگونه پیش آموزش های بدون نظارت را انجام دهد. او می گوید که ما دو امتیاز مختلف $s$ و $s_c$ را محاسبه می کنیم و سپس می خواهیم شبکه را طوری آموزش دهیم که $s > s_c$. او ادعا میکند که تابع هدف مورد استفاده $$ J = \text{max}(0, 1 - s + s_c) $$ است من نمیدانم چگونه کمینه کردن این تابع تضمین میکند که $s > s_c$. به نظر من وقتی مجموع $s$ و $s_c$ از 1 بزرگتر باشد مقدار از صفر بزرگتر است و فرقی نمی کند که کدام یک از دیگری بزرگتر باشد. کسی می تواند کمک کند تا این موضوع را برای من روشن کنم؟ چه چیزی را از دست داده ام؟ ویدیو اینجاست: http://techtalks.tv/talks/deep-learning-for-nlp-without- magic-part-1/58414/ و بخشی که من در مورد آن می پرسم حدود 50:30 است. اسلایدها در http://nlp.stanford.edu/courses/NAACL2013/NAACL2013-Socher- Manning-DeepLearning.pdf و اسلاید مورد نظر شماره 50 است.
|
نحوه درک این تابع هدف در یادگیری عمیق
|
66396
|
من به یک همکار در تجزیه و تحلیل اندازه گیری های مکرر کمک می کنم که در آن تأثیر ثابت هر موضوع در طول دوره جمع آوری داده ها تغییر می کند. او یک متغیر پاسخ مثبت پیوسته (پاسخ) را در کرت های کشاورزی (ID) (که خود در بلوک ها گروه بندی می شوند) به عنوان تابعی از نوع Crop اندازه گیری می کند. متغیر پاسخ 4 بار در طول فصل اندازه گیری می شود. تجزیه و تحلیل معمولاً چیزی شبیه به این است: modelout <- lmer(Response ~ Crop + (Month|ID) + (1|Block) , data=cropdata, family=gamma(link=inverse)) با این حال، فقط برای ایجاد همه چیز پیچیده است، اولین اندازه گیری قبل از کاشت انجام می شود، بنابراین تحت تأثیر نوع محصول سال قبل است. یعنی برای قطعه $A_1$، محصول ماه 1 گندم است، اما انواع محصول ماه 2-4 جو است. آیا راهی برای تحلیل این موضوع در یک مدل وجود دارد؟ از طرف دیگر، من دو گزینه را می بینم: 1. تجزیه و تحلیل ماه = 1 به طور جداگانه از تجزیه و تحلیل اندازه گیری های تکراری برای ماه = 2-4. 2. از اثرات ثابت مرکب استفاده کنید، به عنوان مثال، گندم-جو، گندم-ذرت، و غیره. پیشنهادی دارید؟ ویرایش شده تا اضافه شود: فکر دیگری - آیا میتوانیم پاسخ ماه اول و انواع محصول را به عنوان متغیرهای کمکی (به ترتیب پیوسته و طبقهبندی) به مدل اضافه کنیم؟
|
تجزیه و تحلیل اقدامات مکرر زمانی که اثر ثابت در درون افراد تغییر می کند؟
|
109584
|
چیزی که من دارم یک گروه درمانی متشکل از 90 نفر است. من مجموعهای از افراد واجد شرایط برای گروه کنترل خود را دارم که میخواهم بر اساس سن و جنسیت با نسبت 1:1 مطابقت داشته باشند. آیا بسته یا تابع عملی در R برای یافتن چنین گروه کنترل بهینه ای وجود دارد؟
|
انتخاب از یک گروه کنترل بزرگتر برای نسبت 1:1
|
109580
|
آیا کسی مفهوم کاهش ابعاد با تجزیه و تحلیل مؤلفه های غالب را می داند؟ ? این در یکی از مقالات علمی معرفی شده است. لطفا یکی توضیح بده چطور کار میکنه در زیر لینک مقاله آمده است. مفهوم توضیح داده شده در بخش 4.3 http://www.eyemaginary.com/Rendering/TurnColorsGray.pdf
|
کاهش ابعاد با تجزیه و تحلیل مولفه غالب
|
29045
|
> **موضوع تکراری:** > تابع توزیع نابرابری من در تلاش برای درک یک اثبات هستم (بدون تکلیف). اگر $\frac{\overline{F}(x-y)}{\overline{F}(x)} \rightarrow 1$ برای $x \rightarrow \infty$، پس چرا موارد زیر دنبال میشوند: $\int\limits_{ 0}^{s}\frac{\overline{F}(t-u)}{\overline{F}(t)}dF(u)\geq 1-\frac{\epsilon}{4}$، که $s,t>0$.
|
تابع توزیع نابرابری
|
29044
|
تازه کار R و Statistics اینجاست. خوب، من یک رگرسیون لجستیک دارم و از تابع پیش بینی برای ایجاد یک منحنی احتمال بر اساس برآوردهایم استفاده کرده ام. ## مدل LOGIT: library(car) mod1 = glm(factor(win) ~ as.numeric(bid)، data=mydat, family=binomial(link=logit)) ## منحنی احتمال: all.x <- expand.grid(won=unique(win), bid=unique(bid)) y.hat.new <- predict(mod1, newdata=all.x, type=response) plot(bid<-000:1000,predict(mod1,newdata=data.frame(bid<-c(000:1000)),type=response), lwd =5, col=blue, type=l) این عالی است اما من کنجکاو هستم که فواصل اطمینان را برای احتمالات ترسیم کنم. من plot.ci() را امتحان کردم اما شانسی نداشتم. آیا کسی می تواند به من راه هایی را برای انجام این کار، ترجیحاً با پکیج ماشین یا پایه R، به من معرفی کند. با تشکر.
|
ترسیم فواصل اطمینان برای احتمالات پیش بینی شده از یک رگرسیون لجستیک
|
109586
|
من دو بردار تصادفی دارم، $A$ و $B$ که هر کدام متشکل از $n$ مختصات جغرافیایی $(x_1,y_1),(x_2,y_2)\dots (x_n,y_n)$ و $(\tilde{ x}_1،\tilde{y}_1)،(\tilde{x}_2،\tilde{y}_2)\dots (\tilde{x}_n،\tilde{y}_n)$، به ترتیب. فرض کنید یک توزیع داده شده داریم. اجازه دهید $p_1,p_2,\dots,p_n$ احتمالات مربوط به نقاط $A$ و $\tilde{p}_1,\tilde{p}_2,\dots,\tilde{p}_n$ مربوطه باشد احتمالات برای نقاط به $B$. سوال من این است: بهترین راه برای یافتن فاصله بین $A$ و $B$ چیست؟ من به دنبال اندازهگیری فاصله هستم که اگر مختصات در $A$ و $B$ یکسان باشند (به هر ترتیبی ظاهر میشوند) به من مقدار صفر میدهد و وقتی مختصات در $A$ و مقدار زیادی را برمیگرداند. $B$ از هم دور هستند. من استفاده از یک ماتریس کوواریانس را در نظر گرفتم اما شهود پشت استفاده از آن را نمیدانم. در ویکی پدیا، http://en.wikipedia.org/wiki/Statistical_distance، معیارهای آماری زیادی فهرست شده است. آیا کسی می تواند در مورد چگونگی انتخاب یک اندازه گیری فاصله مناسب با توجه به ویژگی های مشکل من به من کمک کند؟
|
فاصله بین دو بردار تصادفی
|
91290
|
بنابراین میدانم که وقتی HMM را برای طبقهبندی آموزش میدهید، رویکرد استاندارد این است: 1. مجموعه دادههای خود را به مجموعههای داده برای هر کلاس 2 جدا کنید. یک HMM در هر کلاس 3 آموزش دهید. در مجموعه آزمایشی، احتمال هر مدل را برای طبقهبندی هر مدل مقایسه کنید. پنجره اما چگونه می توانم HMM را در هر کلاس آموزش دهم؟ آیا من فقط داده های مربوط به یک کلاس را به هم متصل کنم؟ اما آیا قرار نیست داده های سری زمانی متوالی باشد - و اگر این کار را انجام دهم، می گویم که برخی از نقاط داده متوالی هستند در حالی که نیستند؟ برای دقیق تر بودن، من مقداری داده EEG دارم که یک ماتریس 96xT است که در آن من 96 بردار ویژگی دارم که چگالی طیفی توان فرکانس های مختلف از کانال های مختلف است و T طول زمان سیگنال (در برخی از نرخ های نمونه برداری) است. به پنجره هایی تقسیم شود که من از پروتکل آزمایشی می شناسم (داده ها دارای برچسب هستند) و بنابراین می توانم مجموعه هایی از ماتریس های 96*t را برای هر کلاس جمع آوری کنم. جایی که t کمتر از T است و اندازه هر پنجره را نشان می دهد. چگونه می توانم HMM را روی این داده ها آموزش دهم؟ اگر کمک می کند، سعی می کنم از جعبه ابزار pmtk3 استفاده کنم، اما من واقعاً از هر چیزی استفاده می کنم - فقط باید بتواند با مشاهدات با ارزش واقعی مقابله کند زیرا چگالی های طیفی توان پیوسته هستند نه گسسته (جعبه ابزار پیش فرض MATLAB فقط می تواند کار کند. با مشاهدات گسسته). هدف این است که بتوانیم پنجرههای دادههای EEG را به یک وضعیت ذهنی خاص با آموزش دادههای برچسبگذاری شده طبقهبندی کنیم. این یک مشکل رابط مغز و کامپیوتر با استفاده از داده های مسابقه برلین BCI است.
|
چگونه HMM ها را برای طبقه بندی آموزش دهم؟
|
112236
|
برای معرفی مسئله، توزیع نرمال Projected را توضیح خواهم داد. اجازه دهید $\mathbf{z}_i=(z_{i1},z_{i2})$ یک بردار دو متغیره باشد که به صورت عادی دو متغیره با میانگین بردار $\boldsymbol{\mu}$ و ماتریس کوواریانس $\boldsymbol{\Sigma توزیع شده است. }$. اگر تبدیل زیر را انجام دهیم $x = \text{atan2}(z_{i2},z_{i1})$ (تعریف $\text{atan2}$ در http://en.wikipedia قابل مشاهده است. .org/wiki/Atan2)، $x_i$ گفته می شود که به عنوان یک متغیر عادی پیش بینی شده با پارامتر $\boldsymbol{\mu}$ و توزیع می شود. $\boldsymbol{\Sigma}$. از آنجایی که $\text{atan2}(z_{i2},z_{i1})=\text{atan2}(cz_{i2},cz_{i1})$ برای هر $c>0$، پارامتر نرمال پیش بینی شده توزیع قابل شناسایی نیست مگر اینکه از یک محدودیت شناسایی استفاده کنیم. به طور کلی واریانس جزء دوم $\mathbf{z}$ $1$ در نظر گرفته میشود و اجازه میدهیم $\mathbf{V}$ $\boldsymbol{\Sigma}$ با محدودیت و با $\boldsymbol{ باشد. \mu}^*$ بردار مربوط به $\boldsymbol{\mu}$، از $(\boldsymbol{\mu}، \boldsymbol{\Sigma})$ همیشه میتوانیم $(\boldsymbol{\mu}^*, \mathbf{V})$ را محاسبه کنیم. اکنون در نظر بگیرید $n$ مشاهدات $x_i، i=1،...، n$ و میخواهیم توزیع پسین $\boldsymbol{\mu}^*, \mathbf{V}| x_1،...، x_n$. من باید توزیعهای قبلی را انتخاب کنم، برای $\boldsymbol{\mu}^*$ از توزیع معمولی استفاده میکنم، اما با نسخه قبلی در $\mathbf{V}$ مشکلاتی دارم. در این حالت ساده می توانم $\mathbf{V}$ را از نظر واریانس و همبستگی پارامتر کنم و بر واریانس جزء مشت و ضریب همبستگی مقدماتی قرار دهم اما در برخی موارد $x_i$ می تواند چند بعدی باشد و سپس $\mathbf{ به عنوان مثال، V}$ می تواند یک ماتریس 10$ \ برابر 10$ باشد و پارامترسازی از نظر واریانس و همبستگی امکان پذیر نیست. این سوال/ایده من است: می توانم $\boldsymbol{\mu}، \boldsymbol{\Sigma}| x_1,...,x_n$ و سپس نمونه های عقبی را به نمونه های عقبی $\boldsymbol{\mu}^*, \mathbf{V}| x_1،...، x_n$. مطمئن نیستم که بتوانم این کار را انجام دهم، اما فکر می کنم این فقط یک ادغام MCMC است، چیزی شبیه به: $$ f(\boldsymbol{\mu}^*, \mathbf{V}| x_1,...,x_n) = \int_{(\boldsymbol{\Sigma}، \boldsymbol{\mu})\rightarrow(\mathbf{V}، \boldsymbol{\mu}^*)} f(\boldsymbol{\mu}، \boldsymbol{\Sigma}| x_1،...،x_n) d(\boldsymbol{\Sigma}، \boldsymbol{\mu}) $$ که در آن $f()$ برابر است pdf و انتگرال $\int_{(\boldsymbol{\Sigma}, \boldsymbol{\mu})\rightarrow(\mathbf{V}، \boldsymbol{\mu}^*)} d (\boldsymbol{\Sigma}، \boldsymbol{\mu})$ باید به عنوان انتگرال چندگانه روی همه مقادیر $\boldsymbol{\Sigma}$ و $\ در نظر گرفته شود. boldsymbol{\mu}$ که می تواند به $\mathbf{V}$ و $\boldsymbol{\mu}^*$ ترسیم شود (من مطمئن نیستم که انتگرال به خوبی نوشته شده است). از آنجایی که $\boldsymbol{\Sigma}$ یک ماتریس کوواریانس است، آیا من درست فکر میکنم که میتوانم از توزیع Wishart معکوس عادی در $\boldsymbol{\mu}، \boldsymbol{\Sigma}$ استفاده کنم و مشکل حل شود؟ علاوه بر این، چگونه می توانم پارامترهای توزیع عادی معکوس Wishart را تفسیر کنم
|
قبل از ادغام MCMC پارامتر غیر قابل شناسایی
|
115186
|
فرض کنید میخواهم نمونهگیری را از یک توزیع نرمال با واریانس نامشخص انجام دهم، و میخواهم روشی برای نمونهگیری بهگونهای انجام دهم که به نوعی «میانگین مقادیر احتمالی واریانس» را بگیرم. به عبارت دیگر، من میخواهم از نتایج شبیهسازی در جای دیگری استفاده کنم، و شنیدن نتایج به شدت به واریانس وابسته است، و بنابراین میخواهم از «مطلوب» کردن یک واریانس بر دیگری اجتناب کنم. به این فکر میکردم که شاید بتوانم واریانس را پیشبینی کنم و با توجه به ترسیمها، واریانس حاشیهای واریانس را استخراج کنم، تخمین MAP واریانس را پیدا کنم، مثلاً $m$، و سپس دوباره از یک $\mathcal{N} شبیهسازی کنم. (0، متر) توزیع دلار؟ اگر نه، چگونه می توانم این کار را انجام دهم؟
|
شبیه سازی از یک نرمال با واریانس ناشناخته.
|
48553
|
رگرسیون خطی - عبارت خطای واریانس
|
|
29047
|
من سعی می کنم همانطور که در پیوند http://www.math.ntnu.no/~hrue/GMRFsim/doc/html/ ذکر شده است به GMRFlib دسترسی پیدا کنم. با این حال فکر می کنم دیگر در دسترس نیست. تربال ذکر شده را نتوانستم ببینم. آیا کسی به آن دسترسی دارد؟
|
درباره GMRFlib
|
48550
|
من سعی میکنم راهی برای محاسبه احتمال حضور/غیاب بر روی بردارهای تصادفی پیدا کنم که حاوی دنبالههایی از مقادیر هستند و نه شاخصهای حضور/غیاب. فرض کنید من یک مجموعه $S$ از مقادیر ممکن، طول برداری $L$، و بردار تصادفی $\vec{W} \در S^{L}$ با توزیع شناخته شده $P(\vec{W})$ دارم. من می توانم تابعی را برای تبدیل یکی از این بردارها به بردار بیتی تعریف کنم که نشان می دهد آیا مقدار داده شده در $S$ وجود دارد یا نه در $\vec{W}$: $\sigma(\vec{W}) = \langle \bigvee_{j}^{L} W_{j}=s : \forall s \in S \rangle$ اما از آنجایی که هر تابعی از یک متغیر تصادفی نیز تصادفی است متغیر، آیا می توانم به نحوی یک تابع احتمال برای بردارهای حضور/غیاب خاص (این را $\vec{X}$ صدا کنید) استخراج کنم که بر حسب $P(\vec{W})$ اصلی بیان می شود؟ ## سوال در مثال (زیر) من تابعی را برای محاسبه احتمالات در بردارهای حضور/غیاب تعریف میکنم، اما اساساً آن را چشم کردهام و به این رویکرد اعتماد زیادی ندارم. آیا روش سیستماتیک تری برای محاسبه توزیع بر روی چنین تابعی از یک بردار تصادفی وجود دارد؟ آیا تغییر متغیرها راهنمایی می کند؟ ## تنظیم مثال: $$ S = \\{ 1, 2 \\} \\\ L = 2 \\\ P(\vec{W}=\langle 1,1\rangle) = 0.1 \\\ P( \vec{W}=\langle 1,2\rangle) = 0.1 \\\ P(\vec{W}=\langle 2,1\rangle) = 0.4 \\\ P(\vec{W}=\langle 2,2\rangle) = 0.4 $$ محاسبه بردارهای حضور/غیاب: $$ \sigma(\langle 1,1\rangle) = \langle 1,0\rangle \\\ \sigma(\langle 1,2\rangle) = \langle 1,1\rangle \\\ \sigma(\langle 2,1\rangle) = \langle 1,1\rangle \\\ \sigma(\langle 2,2\rangle) = \langle 0,1\rangle $$ محاسبه بردار حضور/غیاب: $$ P(\ vec{X}=\langle1,1\rangle) = \sum_{w' \in S^{L} \wedge \sigma(w')=\langle1,1\rangle} P(\vec{W}=w') = 0.1 + 0.4 = 0.5 $$ یا، به طور کلی، $$ P(\vec{X}=x') = \sum_{w' \in S^{L} \wedge \sigma(w')=x'} P(\vec{W}=w') $$ برای یک مقدار خاص: $$ P(X_i=b) = \sum_{x' \in \\{0,1\\}^{|S|} \wedge x'_i=b} P(\vec{X}=x') \\ \ P(X_i=b) = \sum_{x' \in \\{0,1\\}^{|S|} \wedge x'_i=b} \sum_{w' \in S^{L} \ گوه \sigma(w')=x'} P(\vec{W}=w') $$
| |
115187
|
اگر یک فاصله اطمینان متوسط و (95%) برای ما ارائه شود، آیا میتوان سیستمی را راهاندازی کرد که در آن مقادیر تصادفی را که در 5% مواقع خارج از CIs هستند ترسیم کنیم؟ شهود من این است که اگر بتوان توزیعی را تولید کرد که در آن 68% از قرعه کشی های تصادفی در یک بازه معین قرار می گیرند، در آن صورت می توان توزیعی را نیز ایجاد کرد که در آن 95% از ترسیم ها در یک بازه قرار می گیرند. نمونه هایی در R همیشه مفید هستند!
|
نمونه گیری از فواصل اطمینان
|
115183
|
هنگامی که در تحلیل اندازه گیری مکرر (مدل مختلط خطی) مشروط به اثر تصادفی باشد، چگونه پاسخ ها مستقل هستند؟
|
استقلال مشروط در طراحی اقدامات مکرر
|
111638
|
من داده های طبقه بندی شده ای در قالب پاسخ صحیح (به ترتیب 0/1 برای هر مورد) و شیوع یک تصور غلط (0/1 برای هر تصور غلط در مورد هر مورد) از ارزیابی قبل و بعد دارم. در حالت ایدهآل، من میتوانم از pre/post بهعنوان متغیر مستقل در تحلیل کایدو برای هر مورد/تصور اشتباه استفاده کنم. با این حال، من متوجه شده ام که معلم/مدرسه به نظر می رسد تأثیر قابل توجهی بر عملکرد دانش آموزان دارد (هم بر اساس ماده به ماده و هم به صورت کلی)، و تعداد نامناسبی از دانش آموزان از هر مدرسه در نمونه وجود دارد. فکر میکنم یک تحلیل خطی در اینجا مناسب باشد (اگرچه میتوانم اشتباه کنم و از تصحیح استقبال کنم)، اما مطمئن نیستم که چگونه این را به درستی در SPSS مرحلهبندی کنم و نمیدانم که آیا میتوان تأثیر معلم/مدرسه را در درون آن قرار داد. قرار گرفتن در معرض برنامه درسی (قبل/پس از آن) یا اینکه آیا آن حتی ضروری است. اطلاعات بیشتر در مورد نمونه: n=308 (برای هر دو قبل و بعد، کل نقاط داده = 616). دانشآموزان قبل و بعد از تکمیل برنامه درسی آزمایشی با آزمونهای پیش/پسآزمون اساساً یکسان ارزیابی شدند.
| |
115182
|
* داده های مربوط به میانگین درآمد ماهانه از 2000 فروشگاه در سراسر کشور. * ضریب جینی. از reve حدود 20٪، با 50٪ مشاهده در اطراف میانگین، دنباله توزیع بسیار نازک * متغیرهای توضیحی: موقعیت جغرافیایی رقبا، رانندگان ترافیک، قدرت خرید، جمعیت و غیره در منطقه آبریز (اکثر نمودارهای پراکنده ابری شکل با همبستگی کوچک) * برخی از موارد پرت من درختان glm، svr، رگرسیون را با تقویت امتحان کردم. تمام پیشبینیهای مدلها فقط کمی بهتر از میانگین هستند (RMSE در میانگین مدل = 40k، RMSE در رگرسیون = 35k، میانگین reve = 130k)، با خطاهای کوچک در مرکز و تخمین بیشازحد بزرگ در دم سمت چپ و دست کمگرفتن در دم سمت راست. آیا ایده ای برای نوع مدل جدید یا تکنیک پیش بینی که بتواند بهتر در دم بدون اختلال بزرگ در مرکز جا شود؟
|
هارد کیس - پیش بینی درآمد فروشگاه های زنجیره ای
|
30916
|
آیا کسی تعدادی **_کتابخانه جاوا_** برای ایجاد ماتریس سند-ترم برای تعداد زیادی (50000) سند می شناسد؟ ای کاش این کتابخانه دارای عملکردهای پیش پردازش، مانند حذف کلمات توقف و نقطه گذاری، ریشه یابی، و غیره باشد. ترجیحاً کتابخانه های جاوا را برای راحتی توسعه ترجیح می دهم. برای هر توصیه ای بسیار متشکرم
|
نرم افزار یا کتابخانه هایی برای ایجاد ماتریس doc-term
|
108192
| ||
105920
|
من مجموعه ای از نقاط دارم که روی یک دایره قرار دارند و زوایای آنها را می دانم. آیا راهی وجود دارد که بتوانم آزمایش کنم که آیا آنها به نقطه دیگری از 'x' در دایره نزدیکتر از آنچه اتفاقی انتظار می رود (با فرض توزیع یکنواخت روی دایره) نزدیکتر هستند؟ آیا می توانم میانگین طول قوس بین 'x' و داده ها را محاسبه کنم و سپس همان را برای هر یک از مجموعه داده های شبیه سازی شده تولید شده توسط توزیع یکنواخت محاسبه کنم؟
|
داده های روی یک دایره - آزمایش اینکه آیا نقاط به نقطه داده شده دیگری نزدیک هستند یا خیر
|
115188
|
من سعی می کنم ببینم آیا 2 متغیر (یکی مقوله ای دوگانه و دیگری پیوسته) وقوع یک متغیر وابسته مقوله ای دوگانه را پیش بینی می کنند یا خیر. متغیر وابسته LENIpos است - 0 = بدون رویداد، 1 = متغیرهای پیش بینی کننده رویداد Hip.Prox.Femur - 0 = بدون شکستگی لگن، 1 = شکستگی لگن و سن (پیوسته) هر دو متغیر پیش بینی کننده در آزمون مجذور کای مجزا دارای مقادیر p معنی داری هستند و تست من ویتنی U به ترتیب. هنگامی که من یک رگرسیون لجستیک glm(LENIpos ~ سن + Hip.Prox.Femur، خانواده = دو جمله ای) را اجرا می کنم، متغیرها معنی دار نیستند. (1) با این حال، وقتی رگرسیون لجستیک را با تعاملات `glm( LENIpos ~ سن * Hip.Prox.Femur...)` (2)، هر دو مهم نیستند مثال R خروجی ها: (1) تماس: glm(فرمول = LENIpos ~ سن + Hip.Prox.Fem، خانواده = دوجمله ای، داده = dvt) باقیمانده های انحرافی: حداقل 1Q میانه 3Q حداکثر -0.9346 -0.7826 -0.4952 -0.33897 ضریب 2. تخمین مقدار خطای z Pr(>|z|) (Intercept) -3.46888 1.00693 -3.445 0.000571 *** سن 0.02122 0.01519 1.397 0.162535 Hip.Prox.Femhip شکستگی 0.725 0.79 0.210212 (پارامتر پراکندگی برای خانواده دوجمله ای 1 در نظر گرفته شده است) انحراف صفر: 145.23 در 151 درجه آزادی انحراف باقیمانده: 135.48 در 149 درجه آزادی AIC: 141.48 تعداد Fisher Scoring تعداد تکرارهای Fisher Scoring (2 تکرارهای سنی ~5m) * Hip.Prox.Fem، خانواده = دو جمله ای، داده = dvt) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -1.0364 -0.7815 -0.5373 -0.1761 2.3443 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -5.89984 1.98289 -2.975 0.00293 ** سن 0.05851 0.02818 2.076 0.03788 * Hip.Prox.Femhip شکستگی 6.290.290.290.4020 5. 0.04031 * سن: هیپ. پروکس. شکستگی استخوان ران -0.06058 0.03339 -1.814 0.06965. (پارامتر پراکندگی برای خانواده دوجمله ای 1 در نظر گرفته شده است) انحراف صفر: 145.23 در 151 درجه آزادی انحراف باقیمانده: 131.82 در 148 درجه آزادی AIC: 139.82 تعداد تکرارهای امتیازدهی فیشر: 6
|
تفسیر رگرسیون لجستیک چندگانه با تعاملات در R
|
95273
|
آیا عدم موفقیت در آزمون ناهمسانی به این معنی است که باید مدل را رد کنم؟
|
|
31066
|
من در حال حاضر از یک SVM با هسته خطی برای طبقه بندی داده های خود استفاده می کنم. هیچ خطایی در مجموعه آموزشی وجود ندارد. چندین مقدار را برای پارامتر C امتحان کردم (10^-5، ...، 10^2). این خطای مجموعه آزمایشی را تغییر نداد. حالا من تعجب می کنم: آیا این یک خطا ناشی از پیوندهای یاقوتی برای libsvm است که من استفاده می کنم (https://github.com/febeling/rb-libsvm) یا از نظر تئوری قابل توضیح است؟ آیا پارامتر C همیشه باید عملکرد طبقه بندی کننده را تغییر دهد؟
|
تأثیر C در SVM با هسته خطی چیست؟
|
31068
|
این تا حد زیادی یک درخواست ادبی است. من اطلاعاتی دارم که شامل، برای هر استفاده از کارت اعتباری، مالک کارت، فروشگاه و زمان استفاده است. این می تواند به عنوان مجموعه ای از فرآیندهای نقطه وابسته مرتبط با لبه های یک نمودار بزرگ در نظر گرفته شود، جایی که راس ها صاحبان کارت اعتباری و فروشگاه هایی هستند که کارت های اعتباری را می پذیرند. من علاقه مند به تلاش برای مدل سازی این اطلاعات هستم، به ویژه به گونه ای که بتوان پس از آن، داده های مدل را بدون مشکل زیاد شبیه سازی کرد. اگر فقط بتوان در مراحل زمانی گسسته کوچک شبیه سازی کرد، اشکالی ندارد. آیا ادبیاتی در مورد این نوع موضوع وجود دارد؟ آیا مقاله خوبی برای خواندن دارید؟
|
مدل های یادگیری برای فرآیندهای نقطه وابسته
|
105924
|
من یک فیلتر کالمن دارم (یک فیلتر حداقل مربعات بازگشتی، واقعاً) که در جریانهای بلادرنگ دادهها پسرفت میکند. از آنجا که فرآیند تولید داده در طول زمان کمی متفاوت است، من یک عامل فراموشی نمایی به فیلتر کالمن اضافه می کنم. همه چیز به خوبی با پیش بینی خوب مطابقت دارد. مشکلی که من دارم این است که متغیرهای جریان ورودی گاهی وارد دوره های طولانی تعادل می شوند. در آن دورههای زمانی، تمام چیزی که در جریانهای ورودی دریافت میکنم، همان $y_t$ و همان $x_t$ است (به جز نویز سفید پسزمینه). اگر تعادل برای مدت کافی باقی بماند، تناسب کالمن شروع به تخریب می کند زیرا داده های مفید قدیمی را فراموش می کند و به نویز پس زمینه در حالت تعادل اهمیت بیشتری می دهد. آنچه من می خواهم بدانم این است که آیا روشی برای جلوگیری از تطبیق بیش از حد فیلتر برای داده های جدید بی فایده وجود دارد یا خیر. در حال حاضر من از روشهای بسیار موقت استفاده میکنم (محاسبه انحراف استاندارد متحرک برای استفاده به عنوان وزن در رگرسیون)، اما باید راه بهتری برای منظم کردن رگرسیون در یک محیط آنلاین وجود داشته باشد.
|
چگونه با حملات تعادل در یک محیط یادگیری آنلاین مقابله کنیم؟
|
31060
|
چه تفاوتی بین این مدل های نمایش متن وجود دارد: کیسه کلمات و مدل فضای برداری؟
|
کیسه کلمات در مقابل مدل فضای برداری؟
|
105929
|
> با توجه به 2 مجموعه موجودیت از 2 کلاس مختلف که توسط خواص توصیف شده اند > $f_1...f_n$، هر 2 موجودیت از 2 کلاس مختلف با هم دارای یک > امتیاز هستند: ${\rm Score}(c_1e_1,c_2e_1) = y$ . چگونه می توان یک مدل تابع / > استخراج کرد که امتیاز هر جفت از دو کلاس مختلف را با توجه به ویژگی های آن پیش بینی می کند؟ اصطلاح این مشکل در تحقیقات چیست؟
|
این مشکل در تحقیقات یادگیری ماشینی چیست؟
|
72572
|
من دو نمونه s1 و s2 از داده های شمارش دارم. حجم نمونه هر کدام > 1000 است. توزیع ها شبیه به توزیع پواسون هستند اما واریانس آن بسیار بزرگتر از میانگین است. چگونه می توانم آزمایش کنم که آیا میانگین s1 بزرگتر از میانگین s2 است؟
|
تفاوت میانگین برای داده های شمارش
|
72570
|
فرض کنید من یک توزیع پسین را از طریق MCMC بدست میآورم. این مقداری شبیه سازی شده برای پارامترها به یک مدل آماری می دهد. اگر من توزیع پیش بینی پسین را یک دوره قبل محاسبه کنم، می توانم به سادگی از مقادیر توزیع پسین شبیه سازی شده برای پیش بینی استفاده کنم. با این حال، اگر من توزیع پیشبینی پسین را در هر یک از دورههای $t$ پیش رو بخواهم، گزینههایی دارم. من میتوانم: 1. از پارامترهای شبیهسازیشده از توزیع پسین برای شبیهسازی از پیشبینیکننده پسین در هر یک از دورههای $t$ استفاده کنم. یعنی میتوانید از هر دوره پسین شبیهسازیشده در دورههای $t$ (با صرفهجویی در هر دوره) شبیهسازی کنید. 2. برای هر $t$ به جای یکبار برای هر $t$، یک پسین متفاوت شبیه سازی کنید. از پارامترهای پسین دوره خاص برای تولید پیش بینی پسین استفاده کنید. 3. مقياس پسين را به آنچه براي هر دوره مناسب است تقسيم كنيد و سپس مستقيماً هر دوره را شبيه سازي كنيد. به عنوان مثال، اگر پارامترهای مربوطه میانگین و واریانس یک توزیع نرمال باشند، می توان آنها را در $t$ ضرب کرد تا توزیع پسین را در هر $t$ بدست آورد. این رویکرد مستقیم به خوبی کار میکند اگر من فقط به پیشبینی پسین در زمان $t$ اهمیت بدهم، اما اگر به دورههای میانی اهمیت میدهم، ممکن است به طور کلی موثر نباشد. من از رویکرد اول استفاده کرده ام، اما مطمئن نیستم که آیا/چرا بهتر از رویکرد دوم است.
|
شبیه سازی از پیش بینی پسین در طول دوره های متعدد
|
29986
|
پارتیشن بندی واریانس و تغییرات طولی در همبستگی با داده های باینری
|
|
55098
|
* آیا کتاب درسی یا گزارش توضیحی وجود دارد که نشان دهد تعریف آزمون بی طرفانه همان رابطه ای را با برآورنده بی طرفانه دارد که تخمین بازه معمولاً با فواصل اطمینان دارد؟ (کسی $H_0 : \mu=\text{whatever}$ را دقیقاً رد می کند اگر $\text{whatever}$ در بازه اطمینان $\mu$ نباشد.) * به طور مشابه، گزارشی از رابطه بین مفهوم قوی ترین تست یکنواخت و یکنواخت دقیق ترین فاصله اطمینان؟ * اگر اشتباه نکنم، آزمون F $\sigma_1^2=\sigma_2^2$ در مقابل $\ne$، که در آن واریانسهای جمعیتهای معمولی توزیع شده هستند، بیطرفانه نیست. آیا این واقعاً آن را به یک آزمون ضعیف تبدیل می کند و در نتیجه چه پیشرفت هایی در آن لازم است؟
|
آزمون فرضیه های بی طرفانه
|
94896
|
بیز در انگلیسی
|
|
3
|
برخی از پروژه های منبع باز تجزیه و تحلیل آماری ارزشمند در حال حاضر کدامند؟ ویرایش: همانطور که توسط شارپی اشاره شده است، ارزشمند می تواند به شما کمک کند تا کارها را سریعتر یا ارزان تر انجام دهید.
|
چند پروژه با ارزش تحلیل آماری منبع باز چیست؟
|
3955
|
### زمینه: من گروهی از وب سایت ها را دارم که تعداد بازدیدهای روزانه را در آنها ثبت می کنم: W0 = { 30، 34، 28، 30، 16، 13، 8، 4، 0، 5، 2، 2، 1، 2، .. } W1 = { 1، 3، 21، 12، 10، 20، 15، 43، 22، 25، .. } W2 = { 0، 0، 4، 2، 2، 5، 3، 30، 50، 30، 30، 25، 40، .. } ... Wn ### سوال عمومی : * چگونه تعیین کنم که کدام سایت ها فعال ترین هستند؟ منظور من از این است که بازدیدهای بیشتری داشته باشید یا افزایش ناگهانی بازدید در چند روز گذشته داشته باشید. به عنوان مثال، در مثال کوچک بالا، W0 در ابتدا محبوب بود، اما شروع به رها شدن میکند، W1 محبوبیت ثابتی را نشان میدهد (با مقداری اوج جدا شده)، و W3 افزایش مهمی پس از شروعی آرام دارد. ### افکار اولیه: من این موضوع را در SO پیدا کردم که در آن یک فرمول ساده توضیح داده شده است: ` // بازدید از صفحه برای آخرین روز y2 = بازدید از صفحه[-1] // بازدید از صفحه برای روز قبل y1 = بازدید از صفحه[-2] // ساده شیب الگوریتم روند پایه = y2 - y1 روند = شیب * log(1.0 +int(total_pageviews)) خطا = 1.0/sqrt(int(total_pageviews)) روند بازگشت، خطا به نظر می رسد به اندازه کافی خوب و آسان است، اما من با آن مشکل دارم. محاسبه بر اساس شیب است. این خوب است و یکی از ویژگی هایی است که من به آن علاقه دارم، اما IMHO برای سری های غیر یکنواخت مشکل دارد. تصور کنید که در برخی روزها تعداد بازدیدهای ثابتی داشته باشیم (بنابراین شیب = 0)، آنگاه روند فوق صفر خواهد بود. ### سوالات: * چگونه می توانم هر دو مورد (افزایش/کاهش یکنواخت) و تعداد زیاد بازدیدها را کنترل کنم؟ * آیا باید از فرمول های جداگانه استفاده کنم؟
|
تعیین اینکه آیا یک وب سایت با استفاده از بازدیدهای روزانه فعال است یا خیر
|
55097
|
با توجه به $X_1...X_n$ i.i.d. برنولی R.V.s با پارامتر $\theta$، من یک UMVUE برای $\tau(\theta)=\theta^2+\theta$ با Rao-Blackwellization پیدا کردم. این فرآیند برای من کاملاً ساده به نظر می رسید، و من به $\frac{T(n+T-2)}{n(n-1)}$ رسیدم، جایی که T تعداد موفقیت ها و n عدد است. از آزمایشات دوم، کران پایین Cramer-Rao را محاسبه کردم و با $\frac{(4\theta^2+4\theta+1)(\theta(1-\theta))}{n}$ پایان دادم. من می خواهم این هر دو را رسم کنم و ببینم آیا UMVUE به CRLB می رسد یا خیر، اما برای انجام این کار باید واریانس UMVUE خود را پیدا کنم! تصور میکنم میخواهم این مورد را بهعنوان $E([\mathrm{umvue}]^2) - E([\mathrm{umvue}])^2$ انجام دهم، و از قبل میدانم که $E([\mathrm{umvue }])$ $\theta^2 + \theta$ است، زیرا بی طرفانه است. با این حال لحظه دوم من را به شدت گیج می کند. در واقع من نمی دانم چگونه به آن نزدیک شوم. آیا چیزی واضح را گم کرده ام؟ با تشکر از کمک! (و لطفاً اگر چیزی وجود دارد که باید توضیح دهم، به من اطلاع دهید!) من سؤال را تمام کردم، و در واقع شامل لحظات 4 و 3 دوجمله ای بود. اگر کسی با مشکل مشابهی روبرو شود، http://mathworld.wolfram.com/BinomialDistribution.html حاوی لحظه های اول تا چهارم توزیع است که باید مقدار زیادی از محاسبات را برای شما ذخیره کند!
|
تعیین واریانس یک U.M.V.U.E
|
55093
|
هنگام مشاوره، من اغلب تجزیه و تحلیل اکتشافی و نمونه سازی را در R انجام می دهم و نتایج را روی مجموعه داده اولیه به مشتری ارائه می دهم. مشتری می خواهد از طبقه بندی کننده آموزش دیده در یک محیط تولید استفاده کند. به عنوان مثال، فرض کنید که کلاینت می خواهد 1000 رکورد را در روز از طریق طبقه بندی کننده اجرا کند. ** چگونه باید طبقه بندی کننده آموزش دیده را تحویل دهم؟** به عنوان مثال: 1. مقاله ای را که نتایج و کد R را توصیف می کند ارسال کنید که دقیقاً کار من را تکرار کند و امیدوارم که مشتری بتواند یک سرور تولید بسازد و آن را به درستی پیاده سازی کند؟ 2. پس از اثبات مفهوم، R را رها کنید، و طبقهبندی کننده را در یک زبان برنامهنویسی متفاوت بنویسید (مثلاً پایتون) که به راحتی توسط مشتری قابل استقرار است؟ 3. سعی کنید وب سروری راه اندازی کنید که نمونه ای از R را اجرا کند؟ 4. داده های مشتری را بپذیرید و در صورت درخواست اجرا کنید؟
|
چگونه باید یک طبقه بندی کننده را بین مشتریان توزیع کنم؟
|
34748
|
من یک سوال در مورد استفاده از روش های طراحی تجربی برای اعتبار سنجی متقابل در یک رویکرد غیر متعارف دارم. من از یک تصویر برای توضیح سوال استفاده می کنم. تصور کنید 100 سری زمانی دارید که روی هم چیده شده و به پارتیشن های فاصله ای مجاور تقسیم شده اند (برای مثال می توانیم از 1990، 1991، 1992 استفاده کنیم). سپس فرض کنید سری های زمانی را از سال اول گرفته و آنها را به فاکتوری با سطوح تبدیل می کنیم. بنابراین، فرض کنید A، B، C به ترتیب نشان دهنده 33 درصد بالا، متوسط و پایین از مجریان هستند. سپس، ما به یک متغیر پاسخ پیوسته مانند درصد بازده در بازه زمانی بعدی نگاه می کنیم. با نادیده گرفتن هرگونه محدودیت در حال حاضر، مانند واریانس نابرابر، میتوانیم از ANOVA استفاده کنیم تا به ما بگوییم که آیا مجموعهای از متغیرهای پاسخ دارای میانگینهای آماری متفاوتی هستند یا خیر. علاوه بر این، تصور کنید که متغیر پاسخ مربوط به B با A و C متفاوت است. حال تصور کنید که کادر را به جلو میکشیم و همین روش را برای بازه زمانی بعدی اعمال میکنیم. میخواهم آزمایشی داشته باشم که بررسی کند آیا ویژگیهای متغیرهای پاسخ دارای تفاوتهای آماری یکسانی با فاصله قبلی هستند یا نه... و احتمالاً آیا ویژگیهای سری زمانی (بلوک؟) اساسی تغییر کردهاند یا خیر. نمودار برهمکنش دو عاملی را با دو تشکل V روی هم تداخل دارند که تفاوت آماری صفر را نشان می دهد. رویکرد مناسب برای پاسخ به این چیست، آیا این یک تغییر از ANOVA (به عنوان مثال 2-Way) است؟ مهمتر از آن، آیا حوزه تخصصی اختصاص داده شده به نگاه کردن به دیدگاه اعتبارسنجی متقاطع سری زمانی سیگنال مختلط از دیدگاه طراحی تجربی بیشتر وجود دارد؟ شاید جایی در امتداد خطوط تحلیل طولی همراه با تحلیل مقطعی؟
|
اعتبار سنجی متقاطع با استفاده از روش های طراحی تجربی؟
|
114376
|
برآوردگر حداکثر احتمال برای $\theta$ و $E[X]$
|
|
34740
|
من یک مجموعه داده دارم که شامل اندازه گیری هایی از شرایط مختلف است. از آنجایی که فرضیه من تفاوت زیادی را برای اندازهگیریها در هر شرایط پیشنهاد میکرد، برای پاک کردن دادهها، همه شرایط را بهطور مستقل تجزیه و تحلیل کردم. یعنی من همه اندازهگیریها را از یک شرایط به ربعها گروهبندی کردم، محدوده بینچارکی را محاسبه کردم و سپس هر نقطهدادهای را که بیش از 1.5 برابر اندازه محدوده بینچارکی از میانه بود حذف کردم. حالا یک نفر به اعداد نگاه کرد و گفت که میزان داده های حذف شده بسیار بیشتر از حد معمول است. چندین بار محاسباتم را دوباره بررسی کردم و هر بار به چنین نسبت بالایی از نقاط پرت رسیدم. اکنون به این فکر میکردم که اگر همه اندازهگیریها را از هر شرایط با هم تجزیه و تحلیل میکردم، به احتمال زیاد اندازهگیریهای بسیار کمتری به دلیل تفاوت بین شرایط حذف میشد. با این حال، تا آنجا که من این روشهای تمیز کردن را درک میکنم، این روشها برای استفاده در توزیعهای منفرد (گاوسی) است و نه مجموع دو یا چند توزیع. بنابراین، کدام روش برای تمیز کردن داده ها واقعاً صحیح است: تمیز کردن همه اندازه ها با هم یا تمیز کردن هر شرایط به طور جداگانه؟
|
آیا تمیز کردن داده ها از شرایط مختلف به طور مستقل خوب است؟
|
114374
|
من می خواهم از Stata 13 SE برای تخمین اثرات حاشیه ای استفاده کنم. دستوری که من استفاده می کنم (apc_ie) اجازه استفاده از دستور margins را پس از تخمین نمی دهد، بنابراین باید این کار را به صورت دستی انجام دهم. من معتقدم معادله مناسب در صفحه 3 این مقاله است - http://www.biomedcentral.com/content/pdf/1471-2288-8-80.pdf: $$ PR={\frac 1n\Sigma_i \left( \frac{1}{(1+e^{-\beta_0 + \beta_1 + \beta_2 x_2}}\right)\over \frac1n\Sigma\left(\frac{1}{1+e^{-\beta_0+\beta_2 x_2}}\right)} $$ خوب باشید اگر آموزش MathJax در StackExchange به نحوه کدنویسی نویسههای یونانی با زیرنویس اشاره میکند. من نمی توانم آن را به کار ببرم. مطمئن نیستم که در مخرج معادله در کاغذ اشتباه تایپی وجود داشته باشد. اگر کسی بینش داشته باشد، در مورد موضوعات مشابهی خلاصه می شود و من می خواهم محاسبه حاشیه ای را برای هر گروه سنی به دست بیاورم. من باید ضرایب را از ماتریس ضریب e(b) پایین بیاورم و معادله احتمالات را ایجاد کنم سن=0 ژن سنB5=5 جایگزین سن B5=_b[سن_5] اگر سن=5 جنس سنB10=0 جایگزین سنB10=_b[سن_10] اگر سن=10 ژن در هرB1960=0 جایگزین perB1960=_b[period_1960] اگر دوره=1960 ژن در هرB1965 =0 جایگزین perB1965=_b[period_1965] اگر period=1965 gen perB1970=0 جایگزین perB1970=_b[period_1970] if period=1970 gen cohB1970=0 جایگزین cohB1970=_b[cohort_1970] gen cohB1965=0 جایگزین cohB1965=_b9[69] cohB1960=_b[cohort_1960] gen cohB1955=0 جایگزین cohB1955=_b[cohort_1955] gen cohB1950=0 جایگزین cohB1950=_b[cohort_1950] این باعث میشود که همه افراد با یک دوره سنی و یک مقدار همهورت غیر صفر داشته باشند. ساختگیهای هر کدام 0/1 طبقهبندی میشوند، بنابراین ضرب به طور موثر با تولید و جایگزینی دستورات انجام میشود. ثابت در _b[cons] است. حالا برای احتمالات من یک سرنخ در این پست پیدا کردم: محاسبه اثر حاشیه در Stata. دقیقاً مشخص نیست که چگونه آن را در مورد من اعمال کنم، اما فکر می کنم چیزی شبیه به زیر برای سن کار می کند (تنظیم دوره و گروه): gen pr_age=((1/1+exp(-_b[cons]+ageB0+ageB5+ageB10+perB1960+perB1965+perB1970+cohB1970+cohB1965+cohB1960+cohB195 5+cohB1950))/((1/1+exp(-_b[معایب]+perB1960+perB1965+perB1970+cohB1970+cohB1965+cohB1960+cohB1955+cohB1950) احتمالات دوره و گروه تا حدودی شبیه به هم هستند، فقط آن متغیرها از اعداد معادلات مربوطه حذف می شوند می توانم pr_age را برای هر یک از این سه سن خلاصه کنم، اما من 100% روشن نیستم که چگونه این کار را انجام دهم؟
| |
43713
|
من به دنبال محاسبه ماتریس کوواریانس یک فرآیند گاوسی استنباطشده در R هستم. در زیر نحوه انجام این کار را به صورت دستی توضیح میدهم، اما متوجه شدم که بسته «kernlab» تابع «gausspr» را ارائه میکند، که به دلایل بسیاری ارجح است. متأسفانه، در حالی که میدانم چگونه میتوان مقدار مورد انتظار («predict.gausspr») را با استفاده از بسته به دست آورد، نمیدانم چگونه میتوان ماتریس کوواریانس مرتبط را بدست آورد. برای ارائه یک مثال کاری حداقلی برای مقایسه، من به طور کامل فصل 2 راسموسن و ویلیامز (2006) را دنبال می کنم: در نظر بگیرید که نقاط x,y مشاهده شده و مقادیر x را داریم که در آن مقادیر y پیش بینی شده را می خواهیم: obs <- داده ها .frame(x = c(-4، -3، -1، 0، 2)، y = c(-2، 0، 1، 2، -1)) x_predict <- seq(-5,5,len=50) از هسته پایه شعاعی استفاده کنید: SE <- تابع (Xi,Xj, l=1) exp(-0.5 * (Xi - Xj) ^ 2 / l ^ 2) cov <- تابع (X, Y) خارجی (X, Y, SE) محاسبه میانگین و ماتریس کوواریانس: sigma.n <- 0.3 cov_xx_inv <- حل (cov(obs$x, obs$x) + sigma.n^2 * diag(1, length(obs$x))) Ef <- cov(x_predict, obs$x) %*% cov_xx_inv % *% obs$y Cf <- cov(x_predict, x_predict) - cov(x_predict, obs$x) %*% cov_xx_inv %*% cov(obs$x, x_predict) ## رویکرد kernlab فکر میکنم میبینم که چگونه مقادیر مورد انتظار معادل را در kernlab بدست میآورم: library(kernlab) gp <- gausspr(obs$x, obs$y, kernel= rbfdot، kpar=list(sigma=1/(2*l^2))، fit=FALSE، scaled=FALSE, var=0.8) Ef_kernlab <- predict(gp, x_predict) **اما نمیدانم چگونه کوواریانسهای مرتبط را بدست میآورم؟** آیا میتوان ماتریس کوواریانس را با دانستن «آلفا» بازسازی کرد؟ در حالت ایده آل، راه حلی وجود دارد که شامل معکوس کردن مجدد یک ماتریس نمی شود، زیرا این معکوس قبلاً در تعیین مقادیر «آلفا» در طول برازش انجام شده توسط gausspr محاسبه شده است... موارد بسیاری وجود دارد که در آن دسترسی به آن خوب است. به فرآیند گاوسی حاصل، مانند تولید نمودارها مانند راسموسن و ویلیامز: نیاز(ggplot2) dat <- data.frame(x=x_predict، y=(Ef)، ymin=(Ef-2*sqrt(diag(Cf)))، ymax=(Ef+2*sqrt(diag(Cf)))) ggplot(dat) + geom_ribbon(aes(x=x,y=y, ymin=ymin, ymax=ymax), fill=grey80) + # Var geom_line(aes(x=x,y=y), size=1) + #MEAN_geom point(data=obs,aes(x=x,y=y)) + #مقیاس داده های مشاهده شده_y_continuous(lim=c(-3, 3)، نام = خروجی، f(x)) + xlab (ورودی، x) 
| |
92808
|
بیایید بگوییم که ما به یک متغیر ناشناخته x علاقه مند هستیم. ما یک x را در فواصل مختلف نظرسنجی می کنیم و مجموعه ای از مقادیری را که x بوده است به دست می آوریم. با این حال می دانیم که اگر x را به اندازه کافی نظرسنجی کنیم، در نهایت تکرار خواهیم داشت زیرا x تصادفی است. از دانستن کران بالایی x چه چیزی می توان به دست آورد. یک مثال کوتاه: فرض کنید میخواهم یک عکس فوری از بزرگی شتاب یک ماشین بگیرم. من می توانم این کار را در هر زمان انجام دهم. من ممکن است 10، 50 یا 1000 عکس فوری بگیرم. هیچکدام از اینها نمیتواند مرز بالایی شتاب را به من بگوید، اگرچه هرچه نمونههای بیشتری بردارم، مطمئنتر میشوم که یا آن را گرفتهام یا نزدیک آن هستم. حالا، فرض کنید من جغرافیای محلی، به ویژه شیب دارترین تپه های منطقه را می شناسم. شماتیک ماشین ها رو هم دارم. با این دو اطلاعات می توانم (در تئوری) حداکثر شتاب ماشین را محاسبه کنم. آیا این به هیچ وجه برای آمار من مفید است؟ کران پایین به وضوح 0 است که قبل از هر نمونه یا اطلاعات دیگری مشخص است. از دانستن کران بالا چه داده های جدیدی می توانم یاد بگیرم؟ در اصل شهود من این بود که کران بالایی به من کمک می کند تا جزئیات اندازه جمعیت را به دست بیاورم، اما اکنون آنها کاملاً نامرتبط به نظر می رسند. جزئیات بیشتر در مورد مشکل من: فرض کنید میخواهم تعداد تصادفات خودرو را در یک بخش معین از جاده پیشبینی کنم. اگر بگویم بر اساس نوع خودرو، سرعت نسبی و غیره، احتمال کمی برای برخورد هر 2 خودرو وجود دارد، می توانم هر احتمال ممکن را شبیه سازی کنم. به عنوان مثال، ماشین A در مجموعه ای از شبیه سازی ها با یک ماشین برخورد می کند، اما ماشینی که با آن برخورد می کند در میان جمعیت ماشین ها حرکت می کند. همچنین موردی وجود خواهد داشت که ماشین A با ماشین B و در همان ماشین شبیه سازی C با ماشین D برخورد کند (یعنی 2 برخورد در 1 شبیه سازی) ممکن است احتمال کمتری داشته باشد اما همچنان ممکن است. . اکنون با توجه به کل جمعیت ماشینها و تعداد مراحل زمانی شبیهسازی، میتوانم تعداد نتایج مختلف ممکن را محاسبه کنم. برخی از نتایج بیش از یک بار در مجموعه تصادفی شبیهسازیها رخ میدهند، اما از نظر شبیهسازیهای منحصربهفرد باید یک عدد ثابت و محدود وجود داشته باشد. اما اگر بتوانم این عدد را محاسبه کنم، چه چیزی در مورد مشکل به من یاد می دهد؟
| |
35291
|
من آزمایشی انجام داده ام که در آن افراد مشابه در دو شرایط یک اتاق با گیاه و بدون گیاه اندازه گیری شده اند. من میدانم که آنها در یک تکلیف بازه رقم معکوس در شرایط گیاه عملکرد قابلتوجهی بهتری داشتند (دادهها توزیع نسبتاً نرمال بود، بنابراین من از آزمون t زوجی استفاده کردم)، اما میخواهم ببینم که آیا این افزایش با خلق و خوی مرتبط است یا خیر (که با لیکرت اندازهگیری میشود). مقیاس نوع) و پاسخهای آنها بر روی معیاری که «ترمیمپذیری» محیط را ارزیابی میکند (یک مقیاس دیگر از نوع لیکرت). از نظر تئوری، فرد باید در یک دهانه رقم در یک اتاق ترمیمی بهتر عمل کند. ممکن است بخواهم آزمایش کنم که آیا ارزیابی محیط بر خلق و خوی تأثیر می گذارد، که در نتیجه بر عملکرد در کار تأثیر می گذارد. من می خواهم به نحوی این تعامل (اگر اصطلاح درست باشد) را در شرایط گیاهی و شرایط بدون گیاه مقایسه کنم. اگر این خیلی پیچیده است، شاید من فقط می خواهم ببینم که آیا ارزیابی محیط یک عامل قوی در عملکرد آنها در بازه رقمی است یا خیر. آیا ANCOVA تست مناسب برای این است؟ اگر چنین است چگونه باید راهاندازی شود و اگر میخواهید واقعاً سخاوتمند باشید چگونه این را در R کدنویسی کنم؟ با تشکر از کمک شما.
|
تعامل با R؟ ANCOVA در R؟ میخواهم ببینم آیا متغیرهای خاصی با استفاده از اندازهگیریهای تکراری روی متغیر وابسته در R تأثیر میگذارند یا خیر
|
35296
|
من سعی می کنم از طریق متنی در مورد روباتیک و به طور خاص سعی کنم فیلترهای کالمن را درک کنم. من قبلاً از آنها استفاده کردهام، اما دوست دارم بتوانم سیستمهای جدید خود را بفهمم و بسازم. سوالی که من دارم بردار حالت حداقل را برای خودرویی با موقعیت X و سرعت V در زمان t می پرسد. شتاب (A) به طور تصادفی در هر نقطه از زمان اختصاص داده می شود. من باید یک بردار حالت حداقل ایجاد کنم تا سیستم حاصل مارکوین باشد. پاسخ من تا اینجا این است: بردار حالت اولیه فقط باید S = [X,V,A] باشد زیرا این سه جزء ارائه شده هستند؟ قسمت مارکویی برای من گیج کننده است. این بدان معناست که بردار حالت فقط می تواند اجزایی داشته باشد که به اندازه گیری های گذشته وابسته نیستند؟ در کدام حالت فقط باید S = [X,A] باشد زیرا شتاب تصادفی است و موقعیت وابستگی زمانی ندارد؟
|
بردار حالت حداقل برای فیلتر کالمن
|
312
|
من یک فارغ التحصیل فیزیک هستم که در نهایت infosec را انجام دادم، بنابراین بیشتر آماری که تا به حال آموختم برای ترمودینامیک مفید است. من در حال حاضر در حال تلاش برای یافتن مدلی هستم که بفهمم چه تعداد از جمعیت رایانهها به ویروس آلوده شدهاند، اگرچه فرض میکنم که ریاضیات برای بیماریهای دنیای واقعی نیز به همین شکل عمل میکنند، بنابراین مراجع یا پاسخهای مرتبط با آن زمینه میتوانند شما هم خوش آمدید این چیزی است که من تاکنون به آن رسیدهام: * فرض کنید من کل جمعیت رایانهها را میدانم، N. * من کسری از رایانههای دارای نرمافزار تشخیص ویروس را میدانم (یعنی تعداد جمعیتی که غربال میشوند) * من کسری از کامپیوترهایی که دارای نرم افزار تشخیص هستند _که عفونت را گزارش کرده اند_ می شناسم * نمی دانم، اما می توانم احتمال خطاهای نوع I و II را در تشخیص پیدا کنم یا تخمین بزنم. نرم افزار * من (هنوز) به تکامل زمانی جمعیت اهمیتی نمی دهم. پس از اینجا کجا بروم؟ آیا عفونت را به عنوان یک توزیع دوجمله ای با احتمالی مانند (من D داده ام) مدل می کنید یا به عنوان یک پواسون؟ یا توزیع متفاوت است؟
| |
100258
|
من یک قاب داده 3 ستونی دارم. اولی متغیر پاسخ، دومی و سومی معیارهایی هستند. شما می توانید با استفاده از این قطعه کد با یک تفاوت، مثال خود را مشابه نمونه من ایجاد کنید. من 120 هزار از این ردیف ها را دارم. n<-10 data.frame(response=runif(n)،x1=round(runif(n,min=0.2,max=3.8),2)،x2=round(runif(n,min=14,max=180 ))) پاسخ x1 x2 1 0.007240072 0.99 94 2 0.585625664 3.26 175 3 0.060195378 1.52 153 4 0.806096047 1.90 15 5 0.715590971 2.87 161 6 0.840640566 0.840640566 3.06 3.06 3.06 3.0640566 125 8 0.835112330 1.43 158 9 0.588479082 1.68 59 10 0.963268147 0.54 108. جمعیت).** بنابراین هر خوشه ای 4 مرز (min x1 - max x1 - min x2 - max x2 برای هر خوشه) یا فقط بردار نقاط تقسیم (x1.1، x1.2، x1.3 و x2) خواهد داشت. 1، x2.2، x2.3 برای نه خوشه مستطیلی). درست مانند یک نقاشی پایه موندریان **و من می خواهم یک نقشه حرارتی را با استفاده از میانگین های ستون پاسخ در هر خوشه یا تعداد نمونه ها در هر خوشه.** برای قسمت اول از تابع ctree از بسته پارتی استفاده کردم. تلاشهای من برای استفاده از تابع rpart از بسته rpart با اندازه «ترعناک» دادهها خنثی میشود. سوال من در مورد این مشکل را ببینید من موفق شدم گره های ترمینال را دریافت کنم اما شرایط گره را نه. و اگر مقادیر تقسیم شده به من داده شود، چگونه می توانم چنین شی یا داده ای را گرم کنم؟
|
چگونه می توانم داده ها را به صورت شبکه ای خوشه بندی کنم و میانگین ها را در R ترسیم کنم؟
|
89525
|
من در حال حاضر روی تجزیه و تحلیل قیمت کار می کنم: تأثیر قیمت گذاری SKU رقیب بر تعداد واحدهای فروخته شده SKU من. این مدل بر روی سیاهه (واحد) فروخته شده ساخته شده است. من می خواهم سهم هر یک از متغیرهای مستقل را در مدل اندازه گیری کنم. من یک مدل log-log دارم و میخواهم مشارکتهایم در واحدهای واقعی برخلاف مدل رگرسیون چندگانه خطی، مشارکت کل من (یا پیشبینیشده من) = intercept + beta1*Price1 + beta2.Promo1 و غیره باشد که در آن beta1*Price1 سهم قیمت من را در پیشبینیشده اندازهگیری میکند. واحدهای فروخته شده، در اینجا حدس می زنم در مدل log-log راه متفاوتی برای انجام فرآیند وجود دارد. هر گونه کمکی قدردانی خواهد شد. با تشکر
| |
35293
|
من علاقه مند به استفاده از چگالی طیفی برای تعیین دوره زمانی یک سری زمانی $x_t$ هستم. طبق ویکی پدیا، ما می توانیم از پریودوگرام برای تخمین چگالی طیفی استفاده کنیم. در ادامه زنجیره، ویکیپدیا میگوید پریودوگرام با استفاده از FFT پیادهسازی شده است، اما جزئیات ارائه نشده است. آیا به معنای واقعی کلمه FFT روی $x_t$ است؟ **ویرایش:** در R، یک تابع spec.pgram وجود دارد که پریودوگرام خام را برمی گرداند. من سعی کردم این را با FFT ACF مقایسه کنم، اما هنوز نتایج مشابهی دریافت نمی کنم (در نهایت باید این کار را در جاوا انجام دهم، بنابراین سعی می کنم پیاده سازی را به طور کامل درک کنم). x = rep(c(5,1,5,10),4) x.acf = acf(x)$acf[,,1] Mod(fft(x.acf))^2 [1] 0.3906250 0.4757183 0.9898323 15.5956432 2.5543312 0.3962321 [7] 0.2068152 0.2068152 0.3962321 2.5543312 15.5956432 0.9898323 [13] 0.4757183 در مقابل x.pgram = spec.pgram (x، [1] detrend=F.0. 0.1250 0.1875 0.2500 0.3125 0.3750 0.4375 0.5000 x.pgram$spec [1] 3.8819277 3.4948335 2.9155061 69.01764 69.08928 0.9694522 0.5823580 [8] 0.1607143
|
تخمین چگالی طیفی
|
66027
|
من روی یک مشکل طبقهبندی سری زمانی کار میکنم که در آن ورودی دادههای استفاده از صدای سری زمانی (بر حسب ثانیه) برای 21 روز اول حساب تلفن همراه است. متغیر هدف مربوطه این است که آیا آن حساب در محدوده 35-45 روز لغو شده است یا خیر. بنابراین این یک مشکل طبقه بندی باینری است. من از تمام روش هایی که تاکنون امتحان کرده ام (به درجات مختلف) نتایج بسیار ضعیفی دریافت می کنم. ابتدا طبقه بندی k-NN (با تغییرات مختلف) را امتحان کردم و نتایج بسیار بدی گرفتم. این من را به استخراج ویژگیها از سریهای زمانی سوق داد - یعنی میانگین، واریانس، حداکثر، حداقل، صفرهای کل روز، مجموع صفر روزهای پایانی، تفاوت بین میانگین نیمه اول و میانگین نیمه دوم، و غیره و به نظر میرسد پیشبینیکنندهترین ویژگیها کل باشد. صفر روز و مجموع صفر روز پایانی (با استفاده از چندین الگوریتم طبقه بندی). این بهترین عملکرد را داشت اما هنوز هم عملکرد چندان خوبی نداشت. استراتژی بعدی من نمونه برداری بیش از حد از نمونه های منفی در مجموعه آموزشی من بود، زیرا تعداد آنها بسیار کم بود. این منجر به پیشبینی لغو صحیحتر شد، اما به قیمت موارد مثبت کاذب بیشتر. من شروع به فکر می کنم که شاید داده های استفاده از سری زمانی به خودی خود چندان قابل پیش بینی نباشد (اگرچه عقل سلیم می گوید که باید باشد). شاید متغیر پنهانی وجود داشته باشد که من در نظر ندارم. نگاه کردن به داده ها نیز رفتار عجیبی را نشان می دهد. به عنوان مثال، برخی از نمونهها استفاده بسیار کم یا رو به کاهش را نشان میدهند (یا گاهی اوقات اصلاً هیچ) و لغو نمیشوند، و برخی از نمونهها افزایش استفاده را نشان میدهند که لغو میشوند. شاید این رفتار متناقض مرز تصمیم گیری خیلی واضحی را برای یک طبقه بندی ایجاد نکند. یکی دیگر از منابع احتمالی خطا، این واقعیت است که بسیاری از نمونه های آموزشی بسیار پراکنده هستند (یعنی روزهای زیادی با استفاده از 0). یکی از ایدههایی که من هنوز امتحان نکردهام این است که سریهای زمانی را به بخشهایی تقسیم کنم و برخی از ویژگیها را از این طریق ایجاد کنم، اما امید زیادی ندارم.
|
طبقه بندی سری زمانی - نتایج بسیار ضعیف
|
24441
|
به نظر می رسد که دو بسته R برای اجرای Latent Dirichlet Allocation وجود دارد. یکی LDA است که توسط جاناتان چانگ نوشته شده است. و دیگری توسط Bettina Grün و Kurt Hornik نوشته شده است. تفاوت این دو بسته از نظر عملکرد، جزئیات پیاده سازی و توسعه پذیری چیست؟
|
دو بسته R برای مدل سازی موضوع، LDA و مدل های موضوعی؟
|
66022
|
چگونه می توانم نقاط برش را برای تبدیل احتمالات پیش بینی شده به پاسخ های پیش بینی شده به منظور ایجاد جدول طبقه بندی برای رگرسیون لجستیک انتخاب کنم؟ آیا باید نقاط برش مختلفی مانند 0.5، 0.6، 0.7، و غیره را انتخاب کنم؟ (اگر مقادیر متفاوتی را در نظر بگیرم، نرخ خطای پیشبینی برای آنها متفاوت است.) چگونه میتوانم یک تعمیم ایجاد کنم وقتی که نقاط برش متفاوتی میگیرم و نرخهای خطای پیشبینی متفاوتی دارم؟
|
چگونه نقطه برش را برای ساخت جدول طبقه بندی برای رگرسیون لجستیک انتخاب کنیم؟
|
24445
|
من سعی می کنم یک رگرسیون خطی چندگانه در R را با معادله ای شبیه به این تخمین بزنم: regr <- lm (نرخ ~ ثابت + سؤالات + سؤال + 0) سؤالات و سؤالات سری های زمانی داده های فصلی هستند که با «پرسش های <- ts» ساخته شده اند. (...)`. مشکل اکنون این است که من باقیمانده های همبسته خودکار را دریافت کردم. من میدانم که با استفاده از تابع gls میتوان رگرسیون را متناسب کرد، اما نمیدانم چگونه ساختار خطای AR یا ARMA را که باید در تابع gls پیادهسازی کنم، شناسایی کنم. اکنون سعی می کنم دوباره با gls (نرخ ~ ثابت + سؤالات + سؤالات + 0، همبستگی = corARMA (p=?, q=?)) تخمین بزنم، اما متأسفانه من نه متخصص R هستم و نه به طور کلی متخصص آمار. p و q را شناسایی کنید. خوشحال می شوم اگر کسی راهنمایی مفیدی به من بدهد. پیشاپیش از شما بسیار سپاسگزارم جو
|
برازش رگرسیون خطی چندگانه در R: باقیمانده های خودهمبسته
|
50112
|
یک گزارش می گوید که 82 درصد از بریتیش کلمبیایی های بالای 25 دلار، فارغ التحصیل دبیرستان هستند. یک نظرسنجی از ساکنان یک شهر خاص که به طور تصادفی انتخاب شده بودند شامل 1290 دلار که سن آنها بالای 25 دلار بود، و 1012 دلار از آنها فارغ التحصیلان دبیرستان بودند. آیا نتیجه 1012 دلاری شهر به طور غیرعادی بالا، پایین است یا هیچکدام؟ چگونه باید به این سوال برخورد کنم؟ هر گونه کمک و راهنمایی قدردانی خواهد شد.
|
چگونه می توانم تفاوت بین نسبت جمعیت و نسبت نمونه را آزمایش کنم؟
|
24447
|
دادههای من شامل اندازهگیریهای بیماران مبتلا به سرطان است و متغیرها برخی از شاخصهای مربوط به سرطان و همچنین مرحله و درجه سرطان و برخی اطلاعات شخصی در مورد بیماران هستند. به گفته پزشکان، مقادیر از دست رفته یا به این دلیل رخ داده است که بخشی از بافتی که از بیماران گرفتهاند تخریب شده است یا به این دلیل که دکتری که بیوپسی را انجام داده، نمونه بافتی به اندازه کافی بزرگ برای تخمین مرحله سرطان نگرفته است. با در نظر گرفتن همه اینها، دلیلی برای این باور ندارم که متغیرها MNAR هستند و بنابراین دو گزینه باقی می ماند، MAR یا MCAR. به سوال من در حال حاضر، فرض کنید MCAR درست است (من در یک سوال دیگر خواندم که می توانم این را با انجام تست t بررسی کنم، اگر کسی راه دیگری می داند لطفا به من اطلاع دهد) یک راه آسان برای مقابله با مقادیر از دست رفته این است که روش کامل موردی را دنبال کنید زیرا نتایج بی طرفانه خواهند بود، اما مشکل من این است که داده های من به اندازه کافی بزرگ نیستند و اگر موارد را حذف کنم می ترسم که نتایج احتمالاً کارآمد نباشند. به همین دلیل است که من قصد دارم MI را انجام دهم، اما می خواهم نظر دیگران را در مورد آن بدانم.
|
فرض MCAR قابل قبول است آیا باید MI انجام دهم؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.