_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
10359
چگونه می توانم سری های زمانی وابسته را از یک توزیع حاشیه ای معین تولید کنم؟ من می خواهم بتوانم سطح وابستگی را تنظیم کنم، تا بر قابلیت پیش بینی سریال تأثیر بگذارم، که به عنوان ورودی شبیه سازی مونت کارلو داده می شود. پارامتر وابستگی می تواند همبستگی، اطلاعات متقابل یا چیزی در امتداد این خطوط باشد. شما ممکن است فرض کنید توزیع برنولی برای اهداف بحث است. کد متلب با سپاس پذیرفته می شود.
ایجاد سری های زمانی وابسته از یک توزیع معین؟
10350
من روی داده‌های بیمه کار می‌کنم که در آن یک مشتری فیلدی به نام «مشتری_بدون_وابسته» (تعداد وابسته‌های مشتری) دارد. به نظر می رسد که یک متغیر قابل توجه است (فقط اینکه دارای $p<0.0001$ است). این متغیر تقریباً 20٪ مقادیر از دست رفته دارد. برای انتساب، فکر کردم شاخص های پروکسی را برای تعداد وابستگان تعیین کنم. من سن را امتحان کردم (به این فکر می کنم که یک فرد مسن تر می تواند وابستگان بیشتری داشته باشد). من آن را با مبلغ حق بیمه مرتبط کردم و فکر کردم که فردی که افراد تحت تکفل بیشتری دارد می تواند درآمد قابل تصرف کمتری داشته باشد. بنابراین پرداخت حق بیمه کم می تواند به معنای افراد وابسته بیشتر باشد. من می دانم که یک متغیر جمعیتی را نمی توان به طور کامل از چنین منطقی خارج کرد. حالا، اگر کسی به جزئیات بپردازد، می تواند ثابت کند که منتسب به من کامل نیست. در چنین شرایطی باید چه کار کنم؟ آیا حذف آن 20 درصد راه حل درستی است؟ 20% برای داده های من نزدیک به 2 هزار ردیف است که حجم زیادی از اطلاعات است. می دانم، این سوال می تواند پاسخ های ممکن زیادی داشته باشد. برای هر گونه راهنمایی در مورد چگونگی ادامه، سپاسگزار خواهم بود.
مشاوره در مورد مقدار گمشده
80145
من یک بردار مشاهدات دارم (آن را $Y$ می نامیم) و یک بردار زمان متناظر (آن را $T$ می نامیم). من می خواهم آزمایش کنم که آیا تغییر مشاهدات مربوط به زمان است یا خیر. خطاهای اینجا i.i.d و میانگین 0 است. آیا روش یا تستی وجود دارد که بتواند این کار را انجام دهد؟ حدس می‌زنم می‌توانم رگرسیون چند جمله‌ای را امتحان کنم و سپس آزمون F مدل کامل را انجام دهم. آیا این یک راه معقول برای انجام این کار است؟ آیا می توانید پیشنهاد دیگری برای انجام این کار به من بدهید؟ لطفاً هر گونه فرضی در مورد مشاهدات، $H_0$ و آزمون مورد نیاز با روش خود به من بدهید.
چگونه می توان بررسی کرد که مشاهدات مربوط به زمان هستند؟
80141
من با تحلیل بیزی بسیار تازه کار هستم و مدل زیر را ارائه کرده ام. هدف من این است که برای هر «واحد آزمایشی» منفرد توزیعی به دست بیاورم که میزان موفقیت در یکی از چندین شرایط آزمایش را توصیف کند. #داده N <- 50000 #تعداد واحدهای آزمون T <- 2 #تعداد شرایط آزمون succs<-structure(c(...N x T...)) trials<-structure(c(...N x T...)) #model model { for (j در 1:T) { TestCondition[j] ~ dnorm(0, TestCondition.tau) } for (i در 1:N) { Unit[i] ~ dnorm(0، Unit.tau) } برای (i در 1:N) { for(j در 1:T){ succs[i,j] ~ dbin(p[i,j],trials[ i,j]) eps[i,j] ~ dnorm(0, eps.tau) logit(p[i,j]) <- mu + واحد[i] + TestCondition[j] + eps[i,j] for(k در 1:j-1){ #فقط زمانی که دلتای غیر اضافی[i,(j-1)*(j-2)/2+k] غیر زائد نیست، به‌صورت زوجی محاسبه شود <- p[i,j]-p[i,k] } } } mu ~ dlogis(0, 1) TestCondition.tau ~ dgamma(2,2) Unit.tau ~ dgamma(2,2) eps.tau ~ dgamma(2,1) } 1) آیا مدل فوق برای مشکلی که سعی در حل آن دارم مناسب است؟ 2) مدل برای مجموعه داده های بزرگ (که اساساً همه مجموعه داده های من است) زمان زیادی می برد. آیا راهی برای فرمول بندی مجدد مدل وجود دارد تا بتواند مجموعه داده های بزرگ را بهتر مدیریت کند؟
آیا این مدل JAGS خوب است و آیا می توان آن را سریعتر ساخت؟
47258
من داده های زیر را در یک فایل ذخیره کرده ام. من از 'glm' در R استفاده می کنم تا معادله رگرسیون خطی را برای بهترین پیش بینی 'خروجی' پیدا کنم. > tmpData logOfOutput تصادفی نمونه ضرب شده part1 part2 randNormalMean100Std20 خروجی 1 0.0000000 33 11 1 19 89.65387 1 2 0.6931472 76 24 24 24 28 21. 1.0986123 12 39 3 17 103.70930 3 4 1.3862944 68 56 4 16 99.12617 4 5 1.6094379 50 75 5 15 935.685 595715 6 14 129.27551 6 7 1.9459101 70 119 7 13 104.59333 7 8 2.0794415 55 144 8 12 102.15247 8 9 2.17 2.17 2.19 72.43795 9 10 2.3025851 24 200 10 10 80.63634 10 11 2.3978953 32 231 9 11 105.03423 11 12 2.478426 2.4871 78.10613 12 13 2.5649494 28 299 7 13 107.95286 13 14 2.6390573 99 336 6 14 80.07396 14 15 2.7065 2.7060 102.01156 15 16 2.7725887 95 416 4 16 119.07361 16 17 2.8332133 42 459 3 17 64.19354 17 18 2.841 2.85 106.23402 18 19 2.9444390 85 551 1 19 151.07976 19 20 2.9957323 48 600 0 20 82.78324 20 من از همان کد زیر استفاده می کنم t. read.table(fn, header = TRUE, sep= \t , blank.lines.skip = TRUE) cnames = colnames(tmpData) (fmla <- as.formula(paste(cnames[length(cnames)], ~ , paste(cnames[1:(length(cnames)-1)],collapse= +))) ) model <- try(glm(formula = fmla, family=binomial(), na.action=na.omit, data=tmpData)); summary(model) خروجی ای که دریافت می کنم به صورت زیر است: > summary(model) Call: glm(formula = as.formula(paste(dep, ~ , paste(xn, collapse = +))) ، خانواده = gaussian()، na.action = na.omit) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -0.37926 -0.11242 -0.03441 0.16087 0.28200 ضرایب: (1 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.2638036 0.3078536 0.857 0.40592 unlist(tmpData[logOfOutput]) 0.9202273 0.2727884 3.30450. unlist(tmpData[randomSample]) 0.0026201 0.0018177 1.441 0.17145 unlist(tmpData[multiplied]) 0.0288073 0.0012359 23.308-23.308 11. unlist(tmpData[part1]) 0.2106002 0.0403442 5.220 0.00013 *** unlist(tmpData[part2]) NA NA NA NA unlist(tmpData[randNormalMean100Std20.2020]6 -0.249 0.80673 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاوسی 0.04403284 در نظر گرفته شده است) انحراف صفر: 665.00000 در 19 درجه انحراف 61.6 14 درجه آزادی AIC: 1.1676 تعداد تکرارهای امتیازدهی فیشر: 2 تا حد زیادی Pr(z) را به درستی پیش بینی می کند، زیرا می بینیم که احتمالات متغیر تصادفی معنی دار نیستند. R-square نیز زیاد است (1-residual.deviance/null.deviance)، نزدیک به 1. سوال 1: در داده های بالا 'part1+part2' برابر با متغیر خروجی است. آیا glm قادر به شناسایی این نوع روابط نیست؟ سوال 2: چرا درجه آزادی انحراف صفر و باقیمانده متفاوت است؟ سوال 3: من باید متغیر خروجی را به متغیر طبقه بندی تبدیل کنم (یعنی هر چیزی <=10 'نه' و بیشتر از این 'بله' است). بهترین راه برای فراخوانی «glm»، زمانی که متغیر پاسخ «رده‌بندی» است، چیست. من سعی کردم «نه» را به «0» و «بله» را به 1 تبدیل کنم و glm را به صورت زیر صدا کردم: model <- try(glm(formula = as.formula(paste(dep, ~ , paste(xn, collapse= +)))، خانواده = دوجمله ای()، na.action=na.omit)); من با این کد پیام هشدار دریافت می کنم. همچنین، مطمئن نیستم که آیا این روش صحیحی برای فراخوانی متغیر طبقه‌بندی است یا خیر. ویرایش: من داده های طبقه بندی زیر را دارم: > tmpData x1 x2 x3 y1 1 0.16294456 1 1 no 2 0.80494934 2 2 no 3 0.28962222 1 3 n
چگونه می توان glm را فراخوانی کرد زمانی که متغیر پاسخ در R طبقه بندی می شود؟
47251
روش Sheather-Jones برای انتخاب پهنای باند مناسب برای تخمین چگالی هسته عموماً نتایج بهتری نسبت به روش‌های ساده‌تری مانند قانون سیلورمن و نوع اسکات از این قانون سرانگشتی ایجاد می‌کند، که هر دو پهنای باند معمولاً خیلی بزرگ را ارائه می‌دهند. من از متد Sheather-Jones اغلب در R استفاده می کنم اما به دنبال پیاده سازی در جاوا هستم. آیا کسی از چنین اجرایی مطلع است؟ من نتوانستم آن را آنلاین پیدا کنم. مقاله توصیف روش در اینجا است.
اجرای الگوریتم پهنای باند Sheather-Jones در جاوا؟
70304
من در حال انجام تست مجذور کای با 2 درجه آزادی هستم. اما معلوم شد که چون 2 پارامتر من همبسته هستند، مقادیر مجذور chi بحرانی من کوچکتر از مقادیر متعارف هستند. آیا آزمایشی وجود دارد که بتوانم _ پیش از این _ تعداد _موثر_درجات آزادی را که باید انتظار داشته باشم انجام دهم؟ با تشکر
آزمون مجذور کای برای پارامترهای همبسته
80143
من باید یک تحلیل خوشه ای انجام دهم و می پرسم از کدام فاصله استفاده کنم. من می دانم که 99٪ از خوشه بندی با استفاده از فاصله اقلیدسی انجام می شود، اما من در مورد فاصله Mahalanobis شنیده ام و به نظر می رسد بهتر است زیرا ماتریس کوواریانس داده ها را در نظر می گیرد. **سوال**: چرا از فاصله ماهالانوبیس بیشتر استفاده نمی شود؟ به عنوان مثال با این داده ها (70٪ از واریانس در این 2 Dim) :![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jP7gz.png) فاصله اقلیدسی متناسب نیست، بنابراین آیا فاصله ماهالانوبیس می تواند بهتر جا بیفتد؟ **ویرایش:** از فاصله اقلیدسی مناسب نیست منظورم خوشه هایی است که آشکار می شوند شکل دایره ای ندارند![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2xNCR.png )
فاصله مناسب برای خوشه بندی شاید محلانوبیس؟
4093
فقط نمی دانم آیا کسی می تواند به من در تفسیر نمرات PCA کمک کند. بنابراین داده های من از پرسشنامه ای در مورد نگرش نسبت به خرس ها بدست می آید. با توجه به بارگذاری ها، یکی از مولفه های اصلی خود را به «ترس از خرس» تعبیر کرده ام. سپس آیا نمرات آن مؤلفه اصلی به چگونگی اندازه گیری هر پاسخ دهنده با آن مؤلفه اصلی مرتبط است (این که آیا او در آن نمره مثبت یا منفی می گیرد)؟ هر کمکی بسیار قدردانی خواهد شد! متشکرم. الف
تفسیر نمرات PCA
6254
سلام من یک مجموعه نمونه بسیار نامتعادل دارم، به عنوان مثال. 99% درست و 1% غلط. آیا انتخاب یک زیر مجموعه متعادل با توزیع 50/50 برای آموزش شبکه عصبی منطقی است؟ دلیل این امر این است که حدس می‌زنم آموزش روی مجموعه داده اصلی ممکن است باعث تعصب در نمونه‌های واقعی شود. آیا می توانید برخی از ادبیات من را که این موضوع را به خصوص برای شبکه های عصبی پوشش می دهد پیشنهاد دهید؟ خیلی ممنون جولیان
نمونه گیری متوازن برای آموزش شبکه؟
70302
من از روش میانگین گیری مدل بیزی (BMA) در تحقیقات خود استفاده می کنم و به زودی در مورد کار خود برای همکارانم ارائه خواهم کرد. با این حال، BMA واقعاً در زمینه من شناخته شده نیست، بنابراین پس از ارائه تمام تئوری ها و قبل از اعمال واقعی آن برای مشکل خود، می خواهم یک مثال ساده و در عین حال آموزنده در مورد اینکه چرا BMA کار می کند ارائه دهم. من در مورد یک مثال ساده با دو مدل فکر می کردم که می توان از بین آنها انتخاب کرد، اما مدل واقعی تولید داده (DGM) جایی در این بین است و شواهد واقعاً به نفع هیچ یک از آنها نیست. بنابراین اگر یکی را انتخاب کنید و از بین آن‌ها ادامه دهید، عدم قطعیت مدل را نادیده می‌گیرید و خطا می‌کنید، اما BMA، اگرچه مدل واقعی بخشی از مجموعه مدل نیست، حداقل چگالی خلفی صحیح پارامتر مورد نظر را ارائه می‌دهد. به عنوان مثال، هر روز دو پیش‌بینی آب‌وهوا وجود دارد (A و B) و یکی می‌خواهد آب و هوا را به بهترین شکل پیش‌بینی کند، بنابراین در آمار کلاسیک ابتدا سعی می‌کنید بهترین پیش‌بینی‌کننده بین این دو را پیدا کنید، اما اگر حقیقت در این بین باشد چه می‌شود. (یعنی گاهی الف درست است گاهی ب). اما نتونستم رسمیش کنم چیزی شبیه به آن، اما من برای ایده ها بسیار باز هستم. امیدوارم این سوال به اندازه کافی مشخص باشد! در ادبیات، من هیچ مثال خوبی از آنچه تاکنون خوانده‌ام پیدا نکرده‌ام: * Kruschke (2011)، اگرچه مقدمه‌ای عالی برای آمار بیزی است، اما واقعاً بر BMA و مثال پرتاب سکه که در فصل آورده است تمرکز نمی‌کند. 4 برای معرفی آمار بیزی عالی است، اما واقعاً یک محقق دیگر را متقاعد نمی کند که از BMA استفاده کند. (چرا دوباره من سه مدل دارم، یکی می گوید سکه منصفانه است و دو تا می گوید این سکه در هر جهت مغرضانه است؟) * همه چیزهای دیگری که خواندم (Koop 2003، Koop/Poirier/Tobias (2007)، Hoeting et al. (1999) و هزاران نفر دیگر) مرجع عالی هستند، اما من یک نمونه اسباب بازی ساده در آنها پیدا نکردم. اما شاید من فقط یک منبع خوب را در اینجا از دست داده ام. بنابراین آیا کسی مثال خوبی برای معرفی BMA دارد؟ شاید حتی با نشان دادن احتمالات و موارد پسین، زیرا من فکر می کنم که این امر بسیار آموزنده خواهد بود.
مثال ساده ای که مزایای میانگین گیری مدل بیزی (BMA) را نشان می دهد.
80140
من می‌خواهم برهمکنش‌های زمانی برخی سری‌های زمانی را با استفاده از رویکرد Box-Jenkins تجزیه و تحلیل کنم تا بفهمم کدام سری‌های زمانی پیش‌بینی‌کننده یکی دیگر هستند (با کمک پیش سفید کردن و محاسبه همبستگی‌های متقابل برای برخی تاخیرها) و در نهایت مدل‌های رگرسیونی را تنظیم کنم. علاوه بر این، من می‌خواهم همان سری زمانی را در رویکرد مدل خودرگرسیون برداری (VAR-) تحلیل کنم. وقتی در اولین قدم به سریال های طرح ریزی شده نگاه کردم، دیدم که برخی از سریال ها در طول زمان تقریبا ثابت هستند. من به عنوان مثال 140 نقطه زمانی دارم و به جز 10 نقطه زمانی، مقدار همیشه 0 است. و 10 مقداری که 0 نیستند، تقریباً 0 هستند. سوال من این است: آیا منطقی است که چنین سری های زمانی تقریباً ثابتی را در چنین زمانی چند متغیره قرار دهیم. مدل های سری؟ اگر بله چگونه باید نتایج را تفسیر کنم؟ خیلی خوشحال میشم اگه کسی بتونه کمکم کنه! خیلی ممنون.
سری زمانی تقریبا ثابت
45348
من می خواهم نوعی طبقه بندی باینری را انجام دهم و مجموعه داده های من شامل 100 مثال (برای هر کلاس) است که بردارهایی با 2500 عنصر هستند. در حالت ایده‌آل، من می‌خواهم تعیین کنم که مهم‌ترین ویژگی‌ها کدامند (یعنی بهترین تمایز بین آن دو کلاس) و تعداد ویژگی‌ها را به بعد معقول‌تری کاهش دهم، به عنوان مثال. 50. من تصمیم گرفتم با یک رویکرد ساده و ساده شروع کنم، با استفاده از نمره استاندارد (فقط با تعیین شاخص های برجسته ترین ویژگی ها، اما بدون تغییر مقادیر واقعی)، که بدیهی است که توزیع مقادیر در هر کلاس را در نظر نمی گیرد. . کاری که من اساساً انجام می دهم این است که امتیاز و ترتیب را به ترتیب نزولی برجستگی محاسبه می کنم و شاخص ها را ذخیره می کنم. سپس من فقط اولین $n$ (مثلاً 50، همانطور که در بالا پیشنهاد شد) را نگه می دارم و فقط آن ویژگی ها را استخراج می کنم. اخیراً، به من توصیه شد که نگاهی به مقاله زیر بیندازم: الگوریتم‌های تعیین ارتباط خودکار بیزی برای طبقه‌بندی داده‌های بیان ژن، و تلاش برای تخمین احتمال وقوع ویژگی مشترک با هم در تعداد معینی از تکرارها (یعنی به منظور برآورد بهینه $n$، به جای انتخاب خودسرانه). با نادیده گرفتن دو الگوریتم ارائه شده در مقاله، روی موارد زیر تمرکز کردم: $\mathbf{P}(N_c=n_c|n,n_1,n_2) = \frac{\binom{n_a}{n_c}\binom{n - n_a }{n_b - n_c}}{\binom{n}{n_b}}$، که $n_a = \max(n_1، n_2)$ و $n_b = \min(n_1, n_2)$ بنابراین اساساً، رویکرد من این است که موارد زیر را در چند تکرار انجام دهم: > 1. مجموعه های آموزشی دو کلاس را کنار هم قرار دهید (و شاخص ها را نگه دارید > از نمونه های هر یک از آنها) > 2. مجموعه آموزشی حاصل را به دو نیم کنید و به طور جداگانه روی هر نیمه (زیر مجموعه) کار کنید > 3. m را تعیین کنید. (که لزوما برابر با n نیست) برجسته ترین > ویژگی ها با استفاده از امتیاز استاندارد، و فراوانی > وقوع هر کدام را پیگیری کنید > در پایان، من $N_c$ را برای $c$ از 1 تا طول بردار ویژگی خود محاسبه می کنم. (یعنی 2500) و بنابراین من یک عدد بهینه برای $n$ دریافت می کنم (تعداد کاهش یافته ویژگی ها، که اگر خودسرانه انتخاب شوند می تواند منجر به از دست دادن ویژگی های مهم شود یا شامل موارد نه چندان برجسته شود. آن ها). بنابراین سردرگمی من به اینجا می رسد - آیا رویکرد من تاکنون درست است؟ و اگر بله - با $N_c$ که بیشترین احتمال را دارد چه کار کنم. آیا برجسته‌ترین ویژگی‌های $N_c$ (از هر زیر مجموعه) را بر اساس مقادیر انباشته بردارهای فرکانس گرد هم می‌آورم، یا باید کاری کاملاً متفاوت انجام دهم (مثلاً بهترین ویژگی‌های $N_c$ را از یک امتیاز منفرد - با استفاده از انتخاب نمره استاندارد - در کل مجموعه آموزشی)؟
تعیین ویژگی های حفاظت شده با استفاده از رویکرد بیزی
45341
من می‌خواهم یک اندازه‌گیری احتمال برای **هم‌روی** فواصل در دو مجموعه داده از بازه‌ها داشته باشم. مجموعه داده 1: [125,500], [900,1300], [2220,2500]، ... مجموعه داده 2: [600,800], [1200,1400], [3020,3500]، ... (دو مجموعه داده نمونه با همپوشانی در بازه های دوم) فواصل درون یک مجموعه داده با مختصات شروع و پایان آنها نشان داده می شود (فقط دو مقدار صحیح). در یک مجموعه داده فواصل غیر همپوشانی هستند. تعداد، میانگین طول ها و توزیع فواصل ممکن است بین دو مجموعه داده بسیار متفاوت باشد، اما طول مجموعه داده که حداکثر عدد صحیحی است که یک مختصات می تواند داشته باشد یکسان است و برای هر دو مشخص است. من به دنبال نوعی p-value برای احتمال وجود همبستگی بین دو مجموعه داده هستم، یعنی اینکه فواصل با هم تداخل دارند (یا به طور کلی از نظر طول تقاطع بیشتر از حد انتظار) همپوشانی دارند. . برای پیشنهاداتی در مورد چگونگی رسیدگی به این مشکل در شرایط عملی و آماری (شاید با استفاده از R) سپاسگزار خواهم بود. شاید حتی راه حلی برای همبستگی بین مجموعه داده های متعدد وجود داشته باشد ... بسیار متشکرم :-)
p-value برای همبستگی/هم رخ دادن در مجموعه ای از فواصل
80859
من روی یک سری زمانی کار می کنم که مقادیر آن **کاملاً مثبت** است. با کار کردن با مدل‌های مختلف از جمله AR، MA، ARMA و غیره، نمی‌توانم راه آسانی برای دستیابی به پیش‌بینی‌های کاملاً مثبت پیدا کنم. من از **R** برای انجام پیش‌بینی‌هایم استفاده می‌کنم، و تنها چیزی که پیدا کردم forecast.hts {hts} بود که یک پارامتر **مثبت** دارد که در اینجا توضیح داده شده است: **پیش‌بینی یک سری زمانی سلسله مراتبی یا گروه‌بندی شده، بسته hts** ## روش S3 برای کلاس 'gts': forecast((object, h, method = c(comb، bu، mo، tdgsf, tdgsa, tdfp، all)، fmethod = c(ets، rw، arima)، سطح، مثبت = FALSE، xreg = NULL، newxreg = NULL، ...)) مثبت اگر TRUE، پیش بینی می کند آیا مجبور هستید کاملاً مثبت باشید http://www.inside-r.org/packages/cran/hts/docs/forecast.gts آیا پیشنهادی برای سری های زمانی غیر سلسله مراتبی دارید؟ در مورد تعمیم استفاده از سایر محدودیت ها مانند حداقل، حداکثر و غیره چطور؟ حتی اگر در R پیاده‌سازی نشود، پیشنهادات در مورد مقاله‌ها، مدل‌ها یا تبدیل‌های متغیر کلی مفید قدردانی خواهند شد.
چگونه می توان به پیش بینی های کاملاً مثبت دست یافت؟
45340
در الگوریتم‌های یادگیری ماشین معمولاً فرآیند وارونگی در مورد ماتریس‌ها وجود دارد و گاهی اوقات Matlab هنگام وقوع Multicolinearity خطا می‌دهد. **آیا قبل از معکوس کردن یک ماتریس (و از شبه معکوس - pinv) هر بار باید چند خطی (و نحوه) را بررسی کنم**
آیا وقتی معکوس وجود دارد باید چند خطی بودن را بررسی کنم؟
109664
من یک خرده مقیاس با چهار گویه و 316 شرکت کننده دارم. پنج شرکت‌کننده هر چهار مورد را از دست دادند، دو شرکت‌کننده سه مورد از چهار مورد را از دست دادند و پنج شرکت‌کننده فقط یک مورد را از دست دادند (سه شرکت‌کننده همان مورد را از دست دادند، دو نفر دیگر موارد مختلف را از دست دادند). فقدان در مقیاس فرعی MCAR است. بهترین رویکرد برای رسیدگی به کمبودها (در SPSS) چیست؟ خیلی ممنون، تیم
زمانی که 3 مورد از چهار مورد مقیاس موجود نباشد، جایگزینی مقدار وجود ندارد
6252
من یک الگوریتم خوشه بندی دارم (نه k-means) با پارامتر ورودی $k$ (تعداد خوشه ها). پس از انجام خوشه‌بندی، می‌خواهم معیار کمی از کیفیت این خوشه‌بندی را به دست بیاورم. الگوریتم خوشه بندی یک ویژگی مهم دارد. به ازای $k=2$، اگر نقاط داده $N$ را بدون هیچ تمایز قابل توجهی به این الگوریتم تغذیه کنم، در نتیجه یک خوشه حاوی نقاط داده $N-1$ و یک خوشه با نقطه داده $1$ دریافت خواهم کرد. واضح است که این چیزی نیست که من می خواهم. بنابراین من می خواهم این معیار کیفیت را برای برآورد منطقی بودن این خوشه بندی محاسبه کنم. در حالت ایده‌آل می‌توانم این معیارها را برای $k$ مختلف مقایسه کنم. بنابراین من خوشه بندی را در محدوده $k$ اجرا می کنم و یکی را با بهترین کیفیت انتخاب می کنم. چگونه چنین معیار کیفیتی را محاسبه کنم؟ به روز رسانی: در اینجا مثالی وجود دارد که $(N-1، 1)$ یک خوشه بندی بد است. فرض کنید 3 نقطه در صفحه ای وجود دارد که مثلث متساوی الاضلاع را تشکیل می دهد. بدیهی است که تقسیم این نقاط به 2 خوشه بدتر از تقسیم آنها به 1 یا 3 خوشه است.
اندازه گیری کیفیت خوشه بندی
109416
حجم نمونه من 158 دانش آموز متعلق به رشته های IT (N=77) و غیر IT (N=81) است. من آزمون تی نمونه مستقل را انجام داده ام اما مطمئن نیستم که آیا درست است یا خیر. علاوه بر این، چگونه می توانم در نوشته خود تفسیر کنم که تفاوت های گروهی بر عوامل دیگر تأثیر می گذارد. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jBSAm.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/y4buk.png) I' همچنین اگر بتوانید مقاله مرجعی را به اشتراک بگذارید که مقادیری را که باید روی آنها تمرکز کنید را توضیح دهید، سپاسگزاریم.
آیا آزمون t مستقل (SPSS) من صحیح است و چگونه باید آن را تفسیر کنم؟
80856
تست نرمال بودن نمونه های کوچک با مقایسه توان
نحوه محاسبه توان تست های نرمال بودن مختلف مانند تست Shapiro-Wilk، Ryan و غیره
42990
من نمی دانم که آیا راه های قابل قبولی برای نشان دادن حضور یک تعامل علاوه بر استفاده از ANOVA وجود دارد؟ من نمی‌توانم از ANOVA استفاده کنم زیرا اندازه‌های نمونه نابرابر دارم و به دلیل ماهیت موضوع مورد بررسی، هیچ طرح آزمایشی وجود نداشت که بتوانیم از آن جلوگیری کنیم. آیا استفاده از نمودار پراکندگی و افزودن خطوط R2 برای هر دو زیر گروه روش قابل قبولی برای نشان دادن یک تعامل است؟ اگر نه، روش های دیگر چیست؟ ما این اثر را دو بار تکرار کردیم (اندازه‌های نمونه نابرابر در هر دو آزمایش) بنابراین مطمئن هستیم که تعامل وجود دارد. تنها مشکل نشان دادن این موضوع به شیوه ای قابل قبول برای انتشار است. پیشاپیش از شما متشکریم، از همه کمک ها بی نهایت قدردانی می شود.
تعامل بدون ANOVA، روش های دیگر را نشان می دهد؟
88561
من یک ماتریس شباهت M دارم - مقدار M(i,j) شباهت بین دو عنصر i و j را نشان می دهد. من می‌خواهم آن ماتریس را با استفاده از یک مدل Gaussian Mixture تقریبی کنم یا می‌خواهم آن ماتریس را در مجموعه‌ای از خوشه‌های K خوشه‌بندی کنم. چگونه می توانم آن را انجام دهم؟ من در مورد ورودی الگوریتم خوشه بندی مطمئن نیستم.
مدل مخلوط گاوسی - یک ماتریس تقریبی
80858
پس از خواندن این پست، هنوز به طور کامل متوجه نشدم که برآوردگر چیست. فرض کنید نمونه‌های $D_i={(x_1,y_1),...(x_n,y_n)}$ به‌طور تصادفی از تابع $$f(x)=sin(2\pi x),$$ گرفته شده‌اند، بنابراین هدف نهایی من این است برای رسیدن به یک تابع تخمینی $h(x)$، که باید $f$ را تا حد ممکن نزدیک کند، درست است؟ از آنجایی که نمی‌دانم $f$ واقعی چگونه است، بنابراین ممکن است مدل‌های مختلفی را برای انجام تقریب انتخاب کنم، در اینجا مدل رگرسیون خطی را در نظر می‌گیرم که $$h(x)=\beta^Tx,$$ است. سپس سعی می‌کنم پارامترهای مدل $\beta$ را از طریق OLS تخمین بزنم، و در نهایت با توجه به نمونه آموزشی $D_i$، تخمین‌های $\hat\beta_{|D_i}$ را دارم، و کاملاً dffierent $\hat\beta$ برای مجموعه آموزشی مختلف $D_i$. مشکل من اینجاست، 1. برآوردگر در اینجا چیست؟ با توجه به پستی که خواندم، فکر می کنم فرآیند _انتخاب مدل رگرسیون خطی و تخمین $\hat\beta$ از طریق OLS_ اجزای تخمینگر هستند، درست است؟ 2. چگونه می توان بررسی کرد که برآوردگر مغرضانه است یا خیر؟ از آنجایی که من مدل رگرسیون خطی $h(x)$ را انتخاب کردم و اکنون تخمین‌های $\hat\beta$ را دارم، فکر می‌کنم بررسی اینکه تخمین‌گر مغرضانه است یا نه، این است که $$B(\hat\beta) را دریابیم. =\beta_{true}-E[\hat\beta]،$$ درست است؟ حالا این چیزی است که من را به شدت گیج می کند، زیرا ما این $\beta_{true}$ را نداریم، زیرا $f$ واقعی در واقع $sin(\theta x)$ با $\theta=2\pi$ است، ما فقط $\theta_{true}$ داریم، چنین $\beta_{true}$ نداریم، درست است؟ امیدوارم بتوانید به من کمک کنید تا همه چیز را درست کنم. **به روز رسانی** برای پرداختن به نظر @whuber، سوال من از این یادداشت سخنرانی (از صفحه 11) نشات می گیرد. (2\pi x)$ روی $x\در [-1,1]$ تعریف شده است، می‌توانم به‌طور تصادفی (از طریق توزیع یکنواخت بیش از $[-1,1]$) رسم کنم $N$ امتیاز $\\{x_1,...,x_N\\}$، که در آن $N$ اندازه نمونه است، پس از آن می توانم مقدار خروجی $y_i=f(x_i)$ را محاسبه کنم، بدون نویز اضافه شد. اکنون نمونه $\\{(x_1,y_1),...,(x_N,y_N)\\}$ است. 2. آیا یکی (یا هر دو) از $xi$ یا $yi$ اندازه گیری می شود؟ رفتار آماری مورد انتظار خطاهای اندازه گیری چیست؟_ در اینجا من فقط خطای آموزش/آزمایش مقدار خروجی $y_i$ را اندازه گیری می کنم. منظورم این است که با نمونه آموزشی مختلف، من $\hat\beta$ متفاوتی دارم، سپس برای یک نقطه ثابت $x_0$، خروجی پیش بینی شده $\hat y_0=h(x_0)=\beta^Tx_0$ متفاوت خواهد بود، اما مقدار واقعی $y_0=f(x_0)$ است. 3. _چرا برای تقریب تابع sin(2πx) که به شدت غیرخطی است، تخمین‌گر خطی β'x را انتخاب می‌کنید؟ انتخاب یک برآوردگر خطی عاقلانه نیست و شاید من باید این را انتخاب کنم $$h(x)=\beta_0+\beta_1x+\beta_2x^2$$، یک تخمین‌گر چند جمله‌ای، اما هنوز با هدف $sin(2\pi x)$ فاصله دارد.
تلاش برای درک برآوردگر بی طرفانه
78659
من اخیراً از Lavaan و semTools برای آزمایش عدم تغییر اندازه‌گیری در مدل‌های تحلیل عاملی تأییدی (CFA) استفاده کرده‌ام و متوجه ناهماهنگی (ظاهری) در محاسبه‌ای شدم که من را گیج کرد. هنگامی که از دستور measurementInvariance از semTools برای آزمایش مدل های تو در تو (با استفاده از MLR) استفاده می کنید، مقدار اختلاف مجذور کای (delta.chisq.scaled) با زمانی که به صورت دستی آمار برازش را از هر مدل استخراج می کنید و آنها را کم می کنید، یکسان نیست. خودت همچنین با تفاوت در مقادیر مجذور کای غیرمقیاس مطابقت ندارد. آیا من چیزی در مورد نحوه محاسبه آن گم کرده ام؟ من یک مثال در زیر با استفاده از داده‌های نمایشی از Lavaan آورده‌ام. پیشاپیش متشکرم require(lavaan) require(semTools) HW.model <- 'visual =~ x1 + x2 + x3 textual =~ x4 + x5 + x6 speed =~ x7 + x8 + x9 ' out<-measurementInvariance(HW.model, data= HolzingerSwineford1939، برآوردگر = MLR، گروه = مدرسه) modelDiff<-compareFit(out) summary(modelDiff, fit.measures=all) مقادیر به دست آمده عبارتند از: 1. commandinvariance chi-square (مقیاس شده) diff = 6.567 2. تفریق دستی مقادیر مجذور کای استخراج شده (مقیاس شده) = 4.25 3. تفریق دستی مقادیر مجذور کای غیرمقیاس استخراج شده = 7.68 آیا کسی می داند که چرا مقادیر فهرست 1 و 2 در بالا متفاوت است؟
با استفاده از Lavaan و semTools، دلتا.chisq.scaled ناسازگار است؟
76906
به عنوان بخشی از یک تکلیف دانشگاه، من باید پیش پردازش داده ها را روی یک مجموعه داده خام نسبتاً عظیم و چند متغیره (> 10) انجام دهم. من به هیچ وجه یک آمارگیر نیستم، بنابراین کمی سردرگم هستم که چه خبر است. پیشاپیش بابت سؤالی که احتمالاً به طرز خنده‌داری ساده است عذرخواهی می‌کنم - سرم پس از بررسی پاسخ‌های مختلف و تلاش برای رد شدن از طریق آمارها در حال چرخش است. خوانده ام که: * PCA به من امکان می دهد ابعاد داده های خود را کاهش دهم * این کار را با ادغام / حذف ویژگی ها / ابعادی انجام می دهد که ارتباط زیادی با هم دارند (و بنابراین کمی غیر ضروری هستند) * این کار را با یافتن بردارهای ویژه روی داده های کوواریانس انجام می دهد. (با تشکر از یک آموزش خوب که برای یادگیری آن دنبال کردم) که عالی است. با این حال، من واقعاً در تلاش هستم تا ببینم چگونه می توانم این را عملاً در داده های خود اعمال کنم. به عنوان مثال (این **مجموعه داده ای نیست که من استفاده خواهم کرد، اما تلاشی برای نمونه مناسبی است که مردم می توانند با آن کار کنند)، اگر من مجموعه ای از داده ها با چیزی شبیه به ... محدوده سنی جنسیت PersonID داشته باشم. ساعت های مطالعه ساعت های صرف شده در تلویزیون نمره آزمون نمره درسی 1 1 2 5 7 60 75 2 1 3 8 2 70 85 3 2 2 6 6 50 77 ... ... ... ... ... ... ... من کاملاً مطمئن نیستم که چگونه نتایج را تفسیر کنم. به نظر می رسد اکثر آموزش هایی که به صورت آنلاین دیده ام، دیدی بسیار ریاضی از PCA به من می دهد. من تحقیقاتی در مورد آن انجام داده‌ام و آنها را دنبال کرده‌ام - اما هنوز کاملاً مطمئن نیستم که این برای من چه معنایی دارد، زیرا فقط سعی می‌کنم شکلی از معنا را از این انبوه داده‌هایی که در مقابلم دارم استخراج کنم. صرفاً انجام PCA روی داده‌های من (با استفاده از بسته آماری) یک ماتریس NxN از اعداد را بیرون می‌دهد (که در آن N تعداد ابعاد اصلی است) که برای من کاملاً یونانی است. چگونه می‌توانم PCA را انجام دهم و آنچه را که به دست می‌آورم به گونه‌ای بگیرم که بتوانم از نظر ابعاد اصلی آن را به زبان انگلیسی ساده قرار دهم؟
چگونه می توانم آنچه را که از PCA دریافت می کنم تفسیر کنم؟
42993
(با عرض پوزش اگر این سوال را اشتباه دسته بندی یا عنوان کرده ام.) فرض کنید اطلاعات اندازه کفش برای دسته ای از افراد در برندهای مختلف کفش دارید. بنابراین، یک نفر ممکن است Nike = 11، Reebok = 10.5، Adidas = 11، Converse = 11.5 و غیره داشته باشد. ممکن است یک ماتریس $M_{ij}$ تعریف کنید که در آن $i$ نشان دهنده $i$-امین فرد و $j$ اندازه آنها در مارک $j$-th است. سپس فرض کنید شخصی دارید که می‌داند سایز نایکش مثلاً 9 است و می‌خواهد محتمل‌ترین سایز آدیداس خود را بداند (یا شاید سایز خود را در چندین برند می‌داند، اما آدیداس را نه). بهترین راه برای پیش بینی اندازه آدیداس آنها چیست؟ یک روش ساده ممکن است این باشد که به تفاوت اندازه هر فرد بین نایک و آدیداس ($M_{i,j=Nike} - M_{i,j=Adidas}$ برای هر $i$) نگاه کنید و سپس آن را انتخاب کنید. رایج ترین تفاوت و اضافه کردن آن به سایز نایک فرد برای به دست آوردن اندازه آدیداس آنها. به عنوان مثال، اگر اکثر افراد هنگام رفتن از نایک به آدیداس، اندازه یک نیم سایز را افزایش دهند، محتمل ترین سایز آدیداس برای این فرد 9.5 خواهد بود. اما آیا روش پیچیده تری وجود دارد؟ به عنوان مثال، ممکن است افرادی وجود داشته باشند که پرت هستند و پاهای واقعاً عجیبی دارند و رابطه اندازه آنها در بین همه مارک ها با اکثر افراد دیگر مطابقت ندارد. آیا روشی طبیعی برای وزن دادن به داده های این افراد کمتر از سایرین وجود دارد و آیا می خواهید این کار را انجام دهید؟ من احساس می کنم که این یک مشکل رایج است، برای مثال هر چیزی که این روزها آنلاین است و بر اساس داده های مصرف کننده توصیه می کند.
ایجاد یک سیستم توصیه کننده برای اندازه کفش
65880
من دو سری داده حاوی 132 log-returns دارم. یکی برای EURUSD، دیگری برای NZDUSD است. تابع `head()` به شما نشان می دهد که برخی از داده ها چگونه به نظر می رسند. ضریب همبستگی بین این دو، همانطور که توسط «cor()» محاسبه شده است 0.5178912 دلار است. برای درک بهتر ضریب همبستگی، آن را با اجرای 1000 بار «cor()» روی 132 نمونه طولانی مختلف، راه‌اندازی می‌کنم. من این را در یک حلقه اجرا می کنم و euro.nzd.corr را در هر تکرار به روز می کنم. این کد R است که من استفاده می‌کنم: head(euro) [1] -0.001257862 -0.011637970 0.002428757 0.003602590 -0.003457319 -0.002012728 -0.002012728]70.2728 head (nzd) -0.007744927 0.005498693 0.005642524 -0.000896363 0.003449576 cor(euro,nzd) [1] 0.5178912 euro.nzd.corr <- numeric:10) (10 in0) (10 in0) euro.nzd.corr[i] = cor(euro[sample(132,132,replace=TRUE)],nzd[sample(132,132,replace=TRUE)]) } plot(density(euro.nzd.corr), lwd=3 , col=steelblue) پس از بدست آوردن داده ها، نمودار چگالی را رسم می کنم و این را دریافت می کنم: ![density](http://i.imgur.com/7IRIENi.png) داده های بوت استرپ به معنای $\حدود 0$ است و عمدتا بین $-0.3$ و $0.3$ پخش می شود. نتیجه اولیه «cor()» 0.5178912$ کجا رفته است؟ من از این چه باید بکنم؟ اینکه بهتر است نتیجه بگیریم که دو متغیر با ضریب $\حدود 0.52 دلار همبسته نیستند؟ آیا من اشتباهی در کدنویسی مرتکب شده ام یا روش کاربردی به سادگی ناقص است؟
چرا همبستگی بوت استرپ حول صفر می چرخد ​​در حالی که همبستگی اصلی $\حدود 0.52$ است؟
87572
سعی کردم این سوال را حل کنم. راه حل من در زیر است. لطفا میشه بگید درسته یا نه؟ اگر 3 کتاب به طور تصادفی از یک قفسه حاوی 5 رمان، 3 کتاب شعر و یک فرهنگ لغت انتخاب شود، احتمال اینکه: (الف) فرهنگ لغت انتخاب شود چقدر است؟ (ب) 2 رمان و 1 کتاب شعر انتخاب شده است؟ پاسخ ها: (الف) $$\frac{\binom{1}{1}}{\binom{9}{3}} +\frac{\binom{8}{2}}{\binom{9}{3 }} $$ (ب) $$\frac{\binom{5}{2}}{\binom{9}{3}} + \frac{\binom{3}{1}}{\binom{9} {3}}$$
احتمال با جایگشت
45349
من یک مجموعه داده دارم که از 190455 گره و 1241638 لبه تشکیل شده است. اینها را می توان به مجموعه ای از 2300 زیرگراف تقسیم کرد که به یکدیگر متصل نیستند. من در ایجاد تجسم برای این کار با استفاده از ابزارهایی مانند Gephi (به نظر می رسد Yifan-Yu بهترین کار را انجام می دهد) مشکل دارم، زیرا طرح بندی زمان زیادی می برد و به نظر نمی رسد زیرگراف ها را به خوبی از هم جدا کند. آیا ابزاری وجود دارد که یک طرح بندی برای چنین مجموعه داده ای را به خوبی انجام دهد؟ به نظر می رسد بهتر است هر زیرگراف را به صورت جداگانه رسم کنید، و سپس در پایان مقداری ادغام انجام دهید تا از همپوشانی جلوگیری شود، در حالی که به نظر می رسد الگوریتم ها سعی دارند همه چیز را یکجا ترسیم و مرتب کنند. با تشکر
تجسم شبکه برای مجموعه داده های عظیم متشکل از بسیاری از خوشه های غیر مرتبط
45347
من به یک مدل نسبتا ساده برای جلوگیری از تاخیر جت تکیه کرده‌ام و به دنبال اطلاعات/دانش بهتر برای مدل‌سازی دقیق‌تر بودم. بنابراین هدف من تا اینجا پیش می‌رود: هدف ما یافتن تعداد ساعت‌های ایده‌آل برای خوابیدن در هواپیما، دلار S$، برای به حداقل رساندن تاخیر جت است. برای شروع، من خیلی ساده فرض می کنم که چرخه خواب و بیداری انسان مانند یک چرخه شارژ است، با شارژ و تخلیه انرژی خطی. این بدان معناست که به طور متوسط ​​8 ساعت خواب در یک چرخه 24 ساعته، 1 ساعت خواب $S$ = 2 ساعت بیداری انرژی $E$. حال فرض کنید می خواهیم از سانفرانسیسکو (SFO) به شانگهای (PVG) پرواز کنیم. یکی از پروازهای بدون توقف ممکن است از ساعت 13:00 به وقت SF تا حدود 19:00 به وقت شانگهای، با مدت پرواز 14 ساعت. علاوه بر این، فرض کنید یک چرخه خواب منظم در SF داریم، مثلاً 0:00 - 8:00، و می‌خواهیم فوراً یک چرخه خواب عادی از 0:00 تا 8:00 در چین نیز شروع کنیم. از این نقطه، این یک محاسبه جبری ساده است. وقتی ساعت 8 صبح در SF بیدار می شویم، انرژی $E=16hr$ خواهیم داشت. ما می خواهیم با $E=0hr$ در نیمه شب شانگهای پس از پرواز به پایان برسانیم. تعداد ساعاتی که قبل از ترک SF و پس از فرود در شانگهای بیدار می مانیم اما قبل از خواب 13:00-8:00 + 24:00-19:00 = 10 ساعت دلار است. این باعث می شود $E=6hr$ خارج از پرواز باشد. در هواپیما، تعداد ساعات خوابیدن $S$ به اضافه تعداد ساعات بیداری $A$ برابر است با کل مدت پرواز، 14 ساعت. سپس نتیجه می‌شود که: $\begin{equation} \begin{cases} 6+2S-A=0\\\ S+A=14 \end{cases} \end{equation} $ برای بدست آوردن: $S=8 حل کنید /3hr\تقریبا 2.7hr$ به طور کلی، معادلاتی که برای $S$ باید حل شوند عبارتند از: $\begin{equation} \begin{cases} E_{شروع}-(t_{شروع}-t_{بیداری}+t_{خواب}-t_{پایان})+2S-A=0\\\ S+A=t_{پرواز} \پایان{موارد} \پایان {معادله} $ که $E_{init}$ انرژی اولیه بیداری است، $t_{start}$ زمان شروع پرواز محلی، $t_{end}$ زمان پایان پرواز مقصد است، $t_{wake}$ زمان بیداری محلی، $t_{sleep}$ زمان خواب مقصد، و $t_{flight}$ مدت زمان پرواز است. (با استفاده از این مدل در نمونه دیگری از JFK به LAX، یک پرواز 6.5 ساعته، $S=1hr$ دریافت می کنم) من به دنبال بهبود دقت این مدل در انعکاس خواب انسان هستم. شاید مدل‌سازی چرخه «شارژ» خواب را به‌عنوان یک تابع سیگموئید در نظر گرفته‌ام، اما به نظر نمی‌رسد که واقعاً قابل قبول باشد. شاید با توجه به نحوه عملکرد چرخه خواب REM، بتوان این مدل را بهبود بخشید. همچنین، در راه حل، _زمان خوابیدن در هواپیما و خوابیدن در فواصل زمانی یا یک بلوک در نظر گرفته نشده است، بنابراین در پاسخ می توان از پالایش نیز استفاده کرد. از معادلات، همچنین باید توجه داشت که $S$ اساساً مستقل از زمان شروع / پایان پرواز است تا زمانی که مدت پرواز یکسان باشد. جالب اینجاست که به نظر می رسد این مدل در چنین پروازهای طولانی مدت برای من خوب کار می کند، اما فقط زمانی که در جهت غرب حرکت می کنم. اگر از این مدل برای سفر به شرق استفاده کنم، به طرز وحشتناکی شکست می خورد. دلیل احتمالی برای این وجود دارد؟
مدلی برای به حداقل رساندن یا جلوگیری از جت لگ
49735
من به یک مشکل رگرسیون چند وظیفه ای علاقه مند هستم: من یک تابع پارامتری دارم $f_x : \mathcal{R}^n -> \mathcal{R}$ که در آن $x \in \mathcal{R}$ یک مقدار واقعی است پارامتر برای برخی مقادیر $x$، من مجموعه بزرگی از نمونه های آموزشی (بدون سر و صدا) دارم. من می خواهم یاد بگیرم که برای برخی از $x'$ جدید پیش بینی کنم که حداکثر $f_{x'}$ در آن قرار دارد. اگر $x'$ نزدیک به $x$ باشد، $f_x$ و $f_{x'}$ باید مشابه باشند. $f_x$ به هیچ کلاس تابع پارامتری محدود نمی‌شود، اما با $0$ محدود می‌شود. به عنوان یک افزونه، اگر نه تنها تخمین حداکثر، بلکه برخی معیارهای عدم قطعیت نیز در دسترس باشد، بسیار خوب خواهد بود. حداکثر تخمین زده شده $f_{x'}$ را به عنوان نقطه شروع برای بهینه سازی جعبه سیاه $f_{x'}$ در نظر بگیرید. اولین ایده من این بود که کل مشکل را به عنوان یک مسئله رگرسیون واحد $f در نظر بگیرم: \mathcal{R} \times \mathcal{R}^n -> \mathcal{R}$. با این حال، این برای تخمین حداکثر $f_{x'}$ چندان قابل قبول نیست. یک گزینه دیگر یادگیری نگاشت $g : \mathcal{R} -> \mathcal{R}^n$ است که پارامتر وظیفه را به حداکثر تخمینی $f_{x'}$، یعنی $g( نگاشت می‌کند. x') = \arg\max\limits_{y \in \mathcal{R}^n} f_{x'}(y)$. این می‌تواند بر اساس جفت‌های $(x, \arg\max\limits_{y \in \mathcal{R}^n} f_{x}(y))$ برای $x$ که داده‌های آموزشی برای آنها وجود دارد آموزش داده شود. با این حال، تمام اطلاعات موجود در نقاط داده غیر حداکثر را از دست می دهد. پیشنهادی دارید؟
آموزش پیش بینی حداکثر کلاس تابع پارامتر شده
17969
یکی از IV های من برای رگرسیون لجستیک ترتیبی من یک متغیر طبقه بندی اسمی با 4 دسته است. اکثر نمونه هایی که من برای این نوع رگرسیون لجستیک می بینم فقط متغیرهای دسته بندی باینری دارند. من با و بدون آدمک برای مستقل 4 رده خود تلاش کرده ام ... اما از نتیجه مطمئن نیستم. وقتی دسته‌ها را مجددا شماره‌گذاری می‌کنم (آنها را به صورت 1،2،3،4 تغییر می‌دهم زیرا به هیچ وجه مرتب نیستند، هر بار پارامترها و مقادیر p متفاوتی دریافت می‌کنم. بنابراین چیزی اشتباه است.
متغیرهای مستقل در رگرسیون لجستیک ترتیبی
42995
من چند نمونه دارم که با مواد شیمیایی مختلف درمان شده اند. کاربران اثر درمان را با استفاده از مقادیر/سطوح طبقه بندی می کنند (به عنوان مثال $< 1، 2.5، 8، ... > 100 $). در محدوده مثلاً 1 تا 100، آنها می توانند متریک نسبتاً دقیقی دریافت کنند، اما خارج از آن محدوده، مقداری بیشتر یا کمتر از مقداری را وارد می کنند. بنابراین سؤال این است که کاربر می‌خواهد بداند یک نمونه چقدر شبیه به نمونه دیگر است... بنابراین من می‌توانم نوعی خوشه‌بندی سلسله مراتبی انجام دهم، اما با این نوع داده مختلط در تعجب هستم: * یک رویکرد جایگزین چه می‌تواند باشد؟ * چه متریک فاصله مناسب است؟ * آیا روش های جایگزینی برای خوشه بندی وجود دارد؟
مقایسه پروفایل های نمونه
834
من شنیده ام که می توان از AIC برای انتخاب از بین چندین مدل استفاده کرد (از کدام رگرسیور استفاده شود). اما من می خواهم به طور رسمی بفهمم که در یک نوع سطح کارشناسی پیشرفته چیست، که فکر می کنم چیزی رسمی است اما با شهود ناشی از فرمول. و آیا امکان پیاده سازی AIC در stata با داده های پیچیده نظرسنجی وجود دارد؟ پیشاپیش خیلی ممنونم!! با احترام!
AIC چیست؟ به دنبال پاسخی رسمی اما شهودی
42997
من یک رگرسیون داده های پانل را اجرا می کنم. اول، من یک رگرسیون OLS ترکیبی انجام دادم. سپس یک افکت تصادفی (re) انجام دادم. من تست هاسمن را انجام دادم و این فرضیه صفر را رد کرد (یعنی من از استفاده از اثرات تصادفی نسبت به اثرات ثابت دلسرد هستم). بنابراین، من کارهای زیر را انجام دادم: (1) من یک رگرسیون هاسمن-تیلور (در Stata، xthtaylor) انجام دادم. با استفاده از xtoverid، متوجه شدم که این مدل در مقایسه با جلوه های ثابت، خوب است. با این حال، این مدل هیچ مقدار $\text{R}^2$ را نشان نمی‌دهد. علاوه بر این، به من گفته شد که هاسمن-تیلور مدل خوبی برای استفاده در زمانی که هدف شما استفاده از مدل برای برآورد نتایج است، نیست. من سعی می کنم در مورد برآوردگر حداقل فاصله بیابم. این باید رویه ای باشد که به من امکان می دهد اثرات ثابت را با رگرسیون های ثابت زمان ترکیب کنم. آیا دستور Stata برای آن وجود دارد؟ آیا مرجعی در این زمینه می شناسید؟ هر گونه پیشنهادی در مورد نحوه برخورد با مشکل فعلی من بسیار استقبال می شود!
رگرسیون پانل: وقتی تست هاسمن ناموفق بود و می خواهید رگرسیورهای زمان را ثابت نگه دارید چه باید کرد؟
45345
من کنجکاو هستم که آیا تست هایی مانند تست رایلی، تست کویپر و تست واتسون برای داده های دو طرفه (یعنی 180 درجه) و همچنین داده های یک طرفه معتبر هستند یا خیر. اگر نه، تست های مربوطه کدامند؟
آمار دایره ای و داده های دوطرفه
97509
پس از نتیجه گیری از یک آنالیز واریانس یک طرفه، که یک متغیر (کشور) واقعاً از نظر آماری معنادار است، من آزمون تعقیبی مقایسه چندگانه توکی را انجام دادم. در اینجا نمودار میانگین هزینه (DV) در مقابل کشور با نوارها نشان دهنده فواصل اطمینان است: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/PLKAP.png) اکنون، چون چندین کشور وجود دارد در اینجا آزمایش می شود (حتی کشورهای بیشتری در داده های واقعی)، تلاش برای تجزیه و تحلیل دستی که کدام یک از آنها متفاوت است، بسیار پیچیده می شود. چیزی که من می توانم از آن به دست بیاورم این است که برخی کشورها را می توان به عنوان خوشه ای با هم در نظر گرفت (به عنوان مثال نمودار زیر). سپس به طور طبیعی نتیجه می شود که آزمایش tukey برای _در_ یک خوشه انجام شود و بدیهی است که دوباره _در سراسر_ خوشه ها انجام شود. آیا این راه برای ایجاد خوشه هاست؟ چگونه اندازه افکت ها را محاسبه کنیم؟ بسیاری از گروه ها در واقع هر گونه نتیجه گیری را محو می کنند. این هم طرح دیگری با کشورهای بیشتر: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZYafj.png) با تشکر فراوان!
تفسیر نتایج آنالیز واریانس تعقیبی
42992
اگر $\mathcal{D}$ یک توزیع است، اجازه دهید $\mathcal{D}^n$ حاصلضرب دکارتی $n$ برابر $\mathcal{D}$ باشد. به عبارت دیگر، $\mathcal{D}^n$ توزیع $n$-tuples $(x_1,\dots,x_n)$ است که در آن هر $x_i$ به صورت iid از $\mathcal{D}$ ترسیم می‌شود. اگر $\mathcal{D}،\mathcal{D}'$ دو توزیع هستند، اجازه دهید $d(\mathcal{D},\mathcal{D}')$ نشانگر اندازه‌گیری عدم تشابه باشد. میزان تفاوت این دو توزیع را اندازه گیری می کند. برای مثال، ممکن است از اندازه‌گیری فاصله $\ell_1$ (یعنی $||\mathcal{D}-\mathcal{D}'|_1$، با نام مستعار فاصله تغییرات کل)، فاصله $\ell_2$ (یعنی. ، $||\mathcal{D}-\mathcal{D}'||_2$)، فاصله $\ell_\infty$ (یعنی، $||\mathcal{D}-\mathcal{D}'||_\infty$)، واگرایی KL ($D_\textrm{KL}(\mathcal{D} || \mathcal{D}')$ ) یا چیز دیگری کاملا. غالباً ممکن است انتظار داشته باشیم که اینها عادی شوند به طوری که تفاوت بین 0 و 1 باشد، اما من فکر می کنم که لازم نیست. اجازه دهید $\mathcal{D}_0،\mathcal{D}_1$ دو توزیع باشد، و $d_1,d_2$ هر دو معیار عدم تشابه (شاید یکسان، شاید متفاوت). آیا مرزها، تخمین‌ها، تقریب‌ها یا قاعده‌ای وجود دارد که $d_2(\mathcal{D}_0^n,\mathcal{D}_1^n)$ را به $d_1(\mathcal{D}_0,\mathcal) مرتبط کند؟ {D}_1)$؟
توزیع محصول: عدم تشابه با چه سرعتی تابعی از تعداد نمونه ها افزایش می یابد؟
70308
من سعی کرده‌ام از میانگین‌گیری مدل بیزی (BMA) به‌عنوان روشی برای ارائه راهنمایی در تصمیم‌گیری برای گنجاندن یا حذف عوامل در مدل بازده سهام عامل خطی استفاده کنم: $$r^i = X \beta^{i} + \epsilon^{ i} \;\;\mathrm{for} \; i = 1,2,...,m $$ که در آن $r^i$ یک بردار (T x 1) است، $X$ یک ماتریس (N x k)، $\beta^{i}$ یک ( k x 1) بردار، و $\epsilon^{i}$ $N(0، \sigma_{i}^{2})$ است. برای $\sigma_{i}^{2}$. پس از استخراج احتمال پسین هر مدل، مدل با بالاترین احتمال (یعنی مجموعه بهترین پیش بینی کننده ها) را دریافت می کنم. سپس به آزمایش این پیش بینی کننده های انتخاب شده با استفاده از **رویکرد متقاطع**، که به عنوان رویه Fama-MacBeth نیز شناخته می شود، می پردازم. این تست نشان می دهد که آیا پیش بینی کننده های انتخاب شده دارای حق بیمه قابل توجهی هستند یا خیر. نکته عجیب این است که تنها یکی از پیش بینی کننده های انتخاب شده BMA دارای حق بیمه آماری قابل توجهی است. من در مورد نحوه تطبیق نتایج BMA و Fama-MacBeth سردرگم هستم. هر گونه کمکی بسیار قدردانی خواهد شد. با تشکر
نتایج متناقض با استفاده از میانگین‌گیری مدل بیزی برای انتخاب مدل؟
17966
فرض کنید X و Y دو متغیر تصادفی واقعی مستقل به دنبال دو توزیع پواسون هستند که به ترتیب با $P(\lambda_1)$ و $P(\lambda_2)$ نشان داده می شوند. اجازه دهید $Z = X + Y$. اکنون: 1. تابع مولد $Z$ را تعیین کنید. توزیع $Z$ را استنباط کنید. 2. توزیع شرطی $X$ را با توجه به $Z = n$ بیابید. من نگران جواب قسمت 2 هستم.
مشکل در توزیع پواسون
14303
من قبلاً طبقه بندی کننده های ساده بیزی نوشته ام، آنها فوق العاده کار می کنند. اما من طبقه‌بندی‌کننده‌ای را می‌خواهم که مانند یک طبقه‌بندی‌کننده بیزی یاد بگیرد و وقتی یک خوشه جدید ظاهر شود، طبقه‌بندی‌های جدیدی را شناسایی کند. فرض می‌کنیم که من داده‌های حسگر برای نوعی ماشین‌آلات دارم. من داده‌های آموزشی برای شرایط مختلف دارم - خیلی گرم، تا سرد، شلیک نادرست، و غیره. حالا فرض می‌کنیم شرایط جدیدی رخ می‌دهد - مثلاً یک ناهماهنگی، یا بگوییم بیش از حد دور زدن. چه تکنیک هایی به آن دسته جدید از داده ها اجازه می دهد تا طبقه بندی جدیدی بسازند؟ ساده لوح بیز + کی مینز؟
طبقه بندی بیزی و کشف طبقه بندی های جدید
17964
من سعی می کنم از مجموعه ای از مشاهدات طبقه بندی شده یک مدل پیش بینی ایجاد کنم: کاربر وظیفه ---- ---- S Alice M Bob M Alice S Charlie L Bob M Charlie S Alice ... ... من علاقه ای ندارم در پیش بینی نوع کار بعدی برای یک کاربر مشخص. در عوض، من علاقه مند به پیش بینی محتمل ترین توزیع وظایف یک کاربر هستم. به عنوان مثال، اگر یک کاربر مجموعه ای از 20 کار داشته باشد، چند تا از آنها S، M و L خواهد بود؟ مجموعه داده واقعی چندین هزار کاربر مجزا دارد که می توانند به صورت سلسله مراتبی گروه بندی شوند. هر کاربر متعلق به یک گروه کاری و هر گروه کاری متعلق به یک بخش است. تهیه جدول اقتضایی و توزیع تجربی بسیار آسان است، و من می‌توانم ببینم که توزیع بین بخش‌ها و در میان گروه‌های کاری در هر بخش متفاوت است. من معتقدم که تنوع بین افراد در یک گروه کاری ناچیز است، اما این بیانیه ای از شهود است، و من نمی دانم چگونه آن را از نظر آماری توجیه کنم. در حال حاضر، مدل پیش‌بینی من فقط توزیع وظایف را در کل مجموعه داده محاسبه می‌کند و از توزیع قبلی یکسان برای همه کاربران استفاده می‌کند: اگر S/M/L 0.2/0.5/0.3 باشد، پیش‌بینی هر فرد بر اساس این توزیع است. اما در عمل، این مدل آنطور که من می‌خواهم برای چندین گروه کاری (و یک بخش کامل) کار نمی‌کند، زیرا به نظر می‌رسد توزیع وظایف آنها با کل شرکت متفاوت است. من فکر می کنم که در این شرایط، مدل من باید از توزیع ویژه گروه کاری یا بخش ویژه برای افراد درون آن استفاده کند. اما من می خواهم از تطبیق بیش از حد مدل خودداری کنم. بنابراین، چند سوال: 1. چگونه می توانم تعیین کنم که آیا توزیع در یک بخش یا گروه کاری خاص با توزیع کل به اندازه کافی متفاوت است تا استفاده از مجموعه پارامترهای متفاوتی را برای آن بخش یا گروه کاری توجیه کند؟ 2. فرض کنید من یک مدل تولید می کنم که در آن هر بخش توزیع خاص خود را دارد. چگونه تعیین کنم که آیا این مدل «بهتر» از مدلی است که از توزیع یکسانی برای همه بخش‌ها استفاده می‌کند یا اینکه مدل خاص بخش بیش از حد برازش داده شده است؟ 3. فرض کنید من مدلی می‌سازم که در آن توزیع پیش‌بینی‌کننده برای یک فرد ترکیبی وزنی از توزیع کل، بخش و گروه کاری است. چگونه می توانم وزن های مناسب این مخلوط را بفهمم؟ مجموعه داده من بسیار زیاد است (بیش از 1 میلیون ردیف)، و من به Python+SciPy و R دسترسی دارم. دانش برنامه نویسی من بسیار بهتر از دانش آماری من است، بنابراین اگر تکنیک آماری را توصیف کنید، می توانم نحوه پیاده سازی آن را در کد بیابم. با تشکر
انتخاب مدلی برای پیش بینی پاسخ چند جمله ای از داده های چند جمله ای
53434
این سوال کمی به این سوال اشاره دارد که چگونه قدرت روند را از شیب رگرسیون خطی تعیین کنیم؟ اما من راه حل دیگری پیدا کردم، بنابراین من برای تایید ایده خود سوال جدیدی ایجاد می کنم. در سوال قبلی من باید تعیین کنم که چگونه یک روند در مجموعه داده شیب دار است. من سعی کردم آن را با پارامتر شیب از معادله رگرسیون خطی انجام دهم. من یک ایده دیگر دارم و می خواهم با آن مشورت کنم. با توجه به معادله رگرسیون خطی می توانم دو نقطه را که روی این خط رگرسیون قرار دارند تعیین کنم. بعد می توانم خطی ایجاد کنم که از یکی از این دو نقطه عبور کند و با محور x هم خط باشد. اکنون می توانم درجه بین این خط افقی و خط رگرسیون را محاسبه کنم. حداکثر مقدار این زاویه 90 درجه است. بنابراین می توانم زاویه خود را محاسبه کنم (مثلاً 48 درجه) و آن را بر 90 درجه تقسیم کنم. قدرت روند = 48 / 90 = 0.53 یعنی 53٪ از حداکثر مقدار آن و با این کار می توانم در برنامه خود کار کنم. **سوال:** آیا نظر من از منظر آماری درست است؟
روند در داده ها - تعیین بر اساس زاویه بین خط رگرسیون و خط عمودی؟
17963
من یک مدل $f(x|\theta)$ دارم ($\theta$ یک بردار است) که می‌خواهم یک $\pi(\theta)$ قبلی را مشخص کنم. من فقط می دانم که $\theta$ در یک فاصله است. راه‌هایی برای مشخص کردن پیشین ناآگاهی وجود دارد (جفری، گروه تبدیل، پیشین مرجع و غیره). بدون دانستن نحوه انتخاب، من $f(x|\theta=\theta_0)$ را بارها شبیه سازی کرده ام و سعی کردم با هر نامزد قبلی تخمین بزنم، به طوری که توزیع $D(\hat{\theta_0}|قبلی) دارم. $. بر اساس این توزیع‌ها، من می‌توانم «پیش بهینه» را با استفاده از معیارهایی (مانند MSE) انتخاب کنم. آیا اصلا منطقی است که این راه را ادامه دهیم؟
برآوردگران بیزی
114239
من دو مجموعه داده (2048 بعد) دارم که در شرایط کمی متفاوت جمع آوری شده اند. من از PCA برای کاهش ابعاد داده ها قبل از ارسال بیشتر برای طبقه بندی استفاده می کنم. هر دو مجموعه داده طیف نمونه‌های آلیاژی مشابهی هستند که با لیزرهای کمی متفاوت جمع‌آوری شده‌اند. مشکل من این است که از بین دو مجموعه داده‌های بصری مشابه، یکی به 60 مؤلفه نیاز دارد و 275 مؤلفه دیگر با توجه به همان مقدار حفظ واریانس (99.9 درصد) نیاز دارد. می خواهم بپرسم آیا تکنیکی وجود دارد که به من امکان می دهد منبع (ویژگی ها یا ترکیبی از آنها) این رفتار را شناسایی کنم؟ آیا روش استاندارد دیگری غیر از مقایسه واریانس کل وجود دارد؟
چرا PCA انجام شده روی دو مجموعه داده مشابه منجر به تعداد اجزای متفاوت می شود؟
93356
بگویید $Z \sim N(\mu, \sigma^2)$. من سعی می کنم بفهمم واریانس $Y = exp(Z)$ چقدر است. اولین چیزی که به ذهن رسید، تقریبی $exp(Z)$ با یک سری تیلور مرتبه دوم بود، سپس به یافتن واریانس یک چند جمله ای خلاصه می شود. اما پس از آن عبارت کوواریانس $(Z, Z^2)$ چیست؟
کوواریانس زمانی که یک متغیر تصادفی عادی را توان نشان می دهد
5247
من قصد دارم یک جلسه آموزشی برای آموزش کارکنان مراقبت های بهداشتی برگزار کنم که چگونه از نمودار کنترل استفاده کنند (به طور خاص نمودار c) و باید بگویم که چرا این قوانین (قوانین الکتریک غربی) به اصطلاح قوانین هستند که وقتی الگوی مطابقت دارد، شیوع را می توان به عنوان یک احتمال در نظر گرفت. من مقاله Control Charts 101: A Guide to Health Care Applications را کمی خوانده ام و کمی به من می آموزد که می گوید شانس یک نقطه داده بیش از UCL کمتر از 0.5٪ است، می توانم با استفاده از R زیر محاسبه کنم. کد بدون مشکل: 1-pnorm(3, mean=0, sd=1) [1] 0.001349898 من کد R زیر را برای تأیید آن نوشته ام چیزی در نمودار c (یعنی پویسون به جای توزیع عادی)، برای لامبدا از 1.0 تا 100.0 UCL <- عدد صحیح(0) برای (حلقه.UCL در (1:1000)) {lambda <- حلقه.UCL/10 نتیجه بود <- 1-ppois(لامبدا+سقف(sqrt(لامبدا)*3)،لامبدا) UCL <- c(UCL، نتیجه) } خلاصه (UCL) حداقل. 1 ق. میانگین میانه 3rd Qu. 0.0009679 0.0016160 0.0018260 0.0019960 0.0021220 حداکثر. 0.0134600 فکر می کنم بتوانم اولین قوانین وسترن الکتریک را تحمل کنم، اما برای دومین و سومین گیج هستم. آیا کسی می تواند به من بینش یا راهنمایی بدهد؟ با تشکر
چگونه می توان احتمال رخ دادن الگوی ناقض قوانین نمودار کنترل را محاسبه کرد؟
66934
من واقعاً با بخش آمار برای پایان نامه ام گیر کردم. من داده‌هایی را جمع‌آوری کردم که آیا اقلام به بخش بیمارستان می‌رسند یا خیر. بله/خیر بود، من تغییری در سیستم ایجاد کردم و (نمونه متفاوت) را با استفاده از همان پاسخ بله/خیر دوباره اندازه‌گیری کردم، چون هیچ دسته‌بندی دیگری از داده‌ها وجود ندارد، مطمئن نیستم از کدام تست‌ها می‌توانم استفاده کنم، این را می‌دانم. در مقایسه با آنچه مردم در این سایت در مورد آن صحبت می کنند واقعاً اساسی است، اما من خیلی گیر کرده ام (سر در دستان). داده ها در SPSS هستند.
از کدام آزمون می توانم برای مقایسه دو مجموعه از داده های طبقه بندی استفاده کنم؟
10225
اگر ماتریس «M» 15 ستونی داشته باشم، نحو R برای استخراج ماتریس «M1» متشکل از 1،7،9،11،13 و 15 ستون چیست؟
استخراج چندین ستون از یک ماتریس در R
66938
به عنوان بخشی از پایان نامه خود، من چند نتیجه مجانبی را اثبات می کنم (یا تلاش می کنم...) را ثابت کنم. از آنجایی که این نتایج به عدد شرط بستگی دارد، می‌خواهم در مورد اندازه‌های معمولی اعداد شرطی که در تحقیقات علوم اجتماعی ظاهر می‌شوند، ایده‌ای داشته باشم. به این ترتیب، من می‌توانم راهنمایی‌هایی در مورد اینکه اندازه نمونه چقدر باید باشد، قبل از رسیدن به سرزمین شاد بی‌سیمپتوپیا ارائه کنم. برای هر راهنمایی خوشحال میشم ** راه اندازی بسیار خاص ** من به شرح زیر است. برای مدل استاندارد حداقل مربعات تعمیم یافته (GLS) $$Y = X\beta + e \quad \quad \quad e \sim N(0, V\sigma^2) $$ که در آن $V$ شناخته شده است و قطعی مثبت، $$ X^- = (X^\top X)^{-1} X^\top \quad \quad \quad U = (I-XX^-)V$$ و شماره شرط را تعریف می کنیم $\kappa$ $$ \kappa = \frac{ \lambda_{\text{max}} }{ \lambda_{\text{min}} } $$ که در آن مقادیر $\lambda_\star$ حداکثر و حداقل مقادیر ویژه هستند از ماتریس $U$. آیا کسی به مراجعی برای اندازه اعداد شرط در تحقیقات علوم اجتماعی اشاره دارد؟ حتی نمی دانم کجا را نگاه کنم. هر نشانگر برای 1. برآوردگرهای OLS (به اشتباه در زمینه GLS همانطور که در بالا استفاده شده است) 2. برآوردگرهای GLS (به درستی تجزیه و تحلیل شده است) 3. برآوردگرهای REML/ML که در آن $V$ تخمین زده شده و سپس مشروط شده است، یا 4. OLS اثر ثابت تنها مدل هایی که $V$ ماتریس هویت است بسیار مورد استقبال قرار می گیرند!
اعداد شرطی که معمولاً در علوم اجتماعی با آن مواجه می شوند چیست؟
66939
من سعی می کنم بفهمم فرض چندگانه در یادگیری نیمه نظارت شده چه معنایی دارد. کسی میتونه ساده توضیح بده؟ من نمی توانم شهود پشت آن را دریافت کنم. این می گوید که داده های شما روی یک منیفولد با ابعاد پایین قرار دارد که در فضایی با ابعاد بالاتر تعبیه شده است. من متوجه منظورش نشدم
فرض چندگانه در یادگیری نیمه نظارتی چیست؟
66935
به نظر نمی‌رسد که نمی‌توانم معیار آماری ثابت و ساده‌ای برای یکنواختی در مجموعه داده‌های رخداد در حضور مقوله‌های با ارزش صفر پیدا کنم. من به آنتروپی شانون نگاه کردم که به نظر نزدیک‌ترین است، اما مشکل این است که نمی‌تواند چیزی در مورد متغیرهایی که هیچ رخدادی در آنها وجود ندارد به من بگوید. من همیشه تعدادی متغیر دارم به عنوان مثال. 5 با هر یک از 0-10 وقوع. اگر چه آنتروپی می تواند به من در مورد توزیع بین همه متغیرها بگوید اگر همه آنها بیش از صفر رخ دهد، در حضور صفر تا حدودی بی معنی می شود. نگاهی داشتیم به این که چگونه می توان عدم یکنواختی یک توزیع را اندازه گیری کرد؟ اما من معتقدم که این یک مورد متفاوت است. در مورد من حداقل و حداکثر تعداد رخدادهایی که می تواند در هر دسته رخ دهد، (0-10) و تعداد ثابتی از این دسته ها (5) دارم. آیا کسی می تواند من را در جهت درست راهنمایی کند؟ مثال؛ 10 10 10 10 10 H(X) = 2.32193 و آنتروپی متریک = 0.04644 در حالت ایده‌آل، یک متریک به من مقدار شدید 1 را برای یکنواختی 10 0 0 0 0 H(X) = 0 و آنتروپی متریک = 0 به من می دهد. من یک مقدار شدید (یا نزدیک به آن) 0 برای عدم یکنواختی 10 5 0 0 0 H(X) = 0.9183 و آنتروپی متریک = 0.06122 بسیار سپاسگزارم و متاسفم برای عدم دانش آماری من
اندازه گیری یکنواختی یک توزیع
111001
من سعی می کنم فرمولی بسازم که نتایج امتحانات قبلی دانش آموز (به عنوان مثال: SAT) را که در تاریخ های خاص گرفته شده است گرفته و نتیجه آزمون آینده وی را پیش بینی کند. One X نتیجه آزمایش قبلی 1 است. X دیگر تاریخ آزمون قبلی 1 است (برای سادگی می تواند به تعداد روزهای بین این آزمون و آخرین آزمون تبدیل شود). و X های دیگر متغیرهای مشابهی برای تست های قبلی اضافی هستند که 3-5 عدد برای هر نفر وجود دارد. Y من نتیجه آخرین آزمایش است. معمولاً من از رگرسیون خطی ساده برای مدل‌سازی این رابطه استفاده می‌کنم، اما مشکل این است که این رابطه خطی نیست، زیرا برای مثال، بهبود نمره از 100 به 200 راحت‌تر از 300 به 400 است. و همچنین به دلیل حد بالای نمره آزمون (مثلا 700). آیا راهی برای ایجاد یک مدل کم و بیش معنادار برای چنین پیش بینی با توجه به 3-5 نتایج آزمایش قبلی وجود دارد؟ متشکرم
نحوه ساخت یک مدل پیش بینی برای نمره امتحان بر اساس نمرات قبلی
45967
من روابط ابعاد متغیر مستقل با متغیر وابسته را در یک رگرسیون خطی ساده در SPSS بررسی کرده‌ام، اما وقتی رگرسیون خطی چندگانه را روی SPSS همان بعد به طور جمعی انجام دادم، برخی از ابعاد نشانه‌های ضرایب رگرسیون را در مقابل رگرسیون خطی ساده تغییر داده‌اند. دلیل این تغییر در رابطه چیست؟ به عنوان مثال، در یک تحلیل رگرسیون خطی ساده، نسبت بدهی به دارایی رابطه مثبت با ROA (بازده دارایی) نشان داد، اما وقتی متغیرهای بیشتری اضافه می‌کنم، نسبت بدهی به دارایی رابطه منفی با ROA نشان می‌دهد.
چرا تفاوت علائم ضرایب رگرسیون همان متغیر در یک رگرسیون ساده و رگرسیون چندگانه در spss وجود دارد؟
114231
من 11 موضوع با نتیجه قبل و بعد (دو اندازه گیری مکرر) دارم. من می خواهم تفاوت بین هر دو شرایط را آزمایش کنم. مشکل این است که هر سوژه به طور بسیار متفاوتی واکنش نشان می دهد. در اینجا یک مثال آورده شده است: سوژه‌ها پیش امتیاز پس از امتیاز S646 1.52 8.18 S657 -1.43 -3.69 S680 1.57 1.33 S689 1.46 0.38 S690 2.02 3.48 S691 4.236 4.26 S695 -0.88 -0.28 S699 5.05 5.13 S701 2.90 1.04 S711 2.17 2.09 چیزی در حال رخ دادن است، اما میانگین و آزمون t چیزی را نشان نمی دهد. آیا راهی برای مفهوم‌سازی یا تحلیل آن نوع «تأثیر» بین دو شرط در موضوعات مشابه وجود دارد؟ اگر از قدر مطلق بین نمرات استفاده کنم، |PostScore - PreScore|، سپس از آزمون t مستقل برای ارزیابی اینکه آیا تفاوت مطلق با صفر متفاوت است استفاده می کنم، آیا می توانم بگویم که بزرگی اثر را بدون در نظر گرفتن جهت اثر؟ یا شاید بتوانم از یک اندازه افکت با این نوع داده ها، با اندازه گیری های پیش از پست یا تکراری استفاده کنم؟ در واقع، من به بزرگی اثر علاقه دارم، نه جهت.
چگونه می توان نتیجه قبل از پست را با هم مقایسه کرد، وقتی هر موضوع متفاوت است؟
66930
از ویکی‌پدیا > اگر خطر مطلق در گروه کنترل در دسترس باشد، تبدیل بین > این دو به صورت زیر محاسبه می‌شود: $$ RR \approx \frac{OR}{1 - R_C + (R_C \times > OR)}$$ جایی که: > > RR = خطر نسبی > > OR = نسبت شانس > > RC = خطر مطلق در گروه بدون مواجهه، به صورت کسری داده می شود (به عنوان مثال: > 10٪ خطر را پر کنید 0.1) تفاوت بین خطر مطلق و شیوع (نقطه ای) (در فرض بیماری نادر استفاده می شود) چیست؟ با تشکر
خطر و شیوع مطلق؟
110754
من نمی توانم هیچ مثال کاربردی (غیر پیش پاافتاده) عملی برای تست نسبت احتمال پیدا کنم، باور کنید ساعت ها وقت گذاشته ام. در اینجا یک سؤال است که من سعی کردم آن را تکمیل کنم اما نمی توانم بیشتر از این صحبت کنم. آیا کسی می تواند به من نشان دهد که چگونه این کار را تکمیل کنم، و همچنین بگوید که آیا در مسیر درست کاری هستم که انجام داده ام؟ **سوال** میانگین زمان بین تصادفات در جاده 4 روز است. در سال جاری یک نمونه تصادفی تصادفی نشان داد که زمان بین تصادفات 2، 3، 6، 1 روز بوده است. آیا شواهدی وجود دارد که نشان دهد تعداد تصادفات به طور متوسط ​​کاهش یافته است؟ از آزمون نسبت احتمال استفاده کنید. **تلاش** فرضیه های ما $H_0 است: \lambda = 4 $ $H_1: \lambda < 4$ که $\lambda$ میانگین زمان بین تصادفات است آزمون نسبت احتمال ما $$\phi = \frac{\ است. sup_{\lambda \in \Omega_{H_{0}}}L(\lambda | \underline x)}{\sup_{\lambda \in \Omega}L(\theta|\underline x)}$$ اکنون $L(\lambda|\underline x) = \prod_{i=1}^4 f( x_i|\lambda)$ $= \lambda^n e^{-\lambda \sum_{i=1}^n x_i}$ $= \lambda^n e^{-\lambda n \overline{x}}$ بنابراین داریم - $$\phi = \frac{\sup_{\lambda\in \Omega_{H_{0}}}\lambda^n e^{-\ lambda n \overline{x}}}{\sup_{\lambda\in \Omega}\lambda^n e^{-\lambda n \overline{x}}}$$ ما فقط یک انتخاب برای $\lambda$ در $H_0$ داریم (اگرچه مطمئن نیستم که باید از $4$ یا $\frac{1}{4}$ برای $ استفاده کنم \lambda$) و $n=4$ به ما $$= \frac{4^4 e^{-4 * 4 * \overline{x}}}{\sup_{\lambda\in \Omega}\lambda^4 e^{-\lambda 4 \overline{x}}}$$ $$= \frac{256 e^{-16 \overline{x}}}{\sup_{\lambda\in \Omega}\lambda^4 e^{-\lambda 4 \overline{x}}}$$ اکنون مطمئن نیستم چه کار کنم. چگونه با sup در مخرج برخورد کنم؟ آیا می توانم با توجه به مشاهدات تصادفی $2، 3، 6$ و $1$ در $3$ برای $\overline x$ها بپردازم؟ آیا کار من تا این مرحله درست بوده است؟
تست نسبت احتمال برای تعیین اینکه آیا میانگین تعداد تصادفات کاهش یافته است؟
17961
من مطمئن نیستم که در شرایط زیر از چه آزمون آماری استفاده کنم: من سه الگوریتم مختلف دارم که برای یک مشاهده رگرسیون تولید می کنند. اکنون می‌خواهم بدانم کدام یک از الگوریتم‌ها بهترین پیش‌بینی را برای مقادیر واقعی به دست می‌دهد، یعنی خروجی کدام الگوریتم با مشاهده ارتباط دارد. به طور خاص: آیا یکی از الگوریتم ها به طور قابل توجهی بهتر از بقیه است؟
اندازه گیری اهمیت همبستگی برای پیش بینی های چندگانه
48877
من یک توزیع دیریکله بر روی پارامترهای یک چندجمله‌ای دارم و می‌خواهم چگالی خلفی آن را با توجه به مجموعه‌ای از شواهد تخمین بزنم. به دلیل برخی ویژگی‌های مشکل من (مثلاً وجود شواهد نرم از جمله دیگر)، متأسفانه نمی‌توانم از یک به‌روزرسانی ساده روی پارامترها استفاده کنم، اما باید به تکنیک‌های نمونه‌گیری متوسل شوم. هنگامی که نمونه های کافی برای توزیع پسین جمع آوری کردم، باید چگالی آن را مجدداً تخمین بزنم. توجه داشته باشید که من لزوماً نیازی به تخمین مجدد دیریکله ندارم، تنها چیزی که نیاز دارم تابع چگالی احتمال است. من به دو استراتژی ممکن فکر کردم، یکی پارامتری و دیگری غیر پارامتری: 1. سعی کنید پارامترهای دیریکله (شمارش آلفا) را از نمونه ها دوباره تخمین بزنید. از نظر تئوری ممکن به نظر می رسد (برای مثال اینجا را ببینید)، اما اجرای آن بسیار دشوار است، زیرا راه حل بسته ای وجود ندارد. 2. از طرف دیگر، می‌توانم از تلاش برای تخمین مجدد تعداد دیریکله به طور کامل دست بکشم و به تخمین چگالی هسته بر اساس نمونه‌هایم متوسل شوم. من در حال حاضر سعی می کنم استراتژی دوم را بر اساس تخمین چگالی هسته با هسته های گاوسی پیاده سازی کنم (به عنوان مثال اینجا را ببینید). متأسفانه به نظر نمی رسد که نتیجه درستی به دست بیاورم، چگالی محاسبه شده خیلی زیاد است. همانطور که من درک می کنم، مشکل ممکن است این باشد که نمونه های دیریکله من مقادیر چند متغیره استاندارد نیستند: یعنی، آنها محدود شده اند بین 0 و 1 و تا 1 جمع شوند. بنابراین آنها بسیار _به شدت همبسته_ هستند. به عنوان مثال، برای دیریکله با 2 بعد (معروف به توزیع بتا)، اگر متغیر اول دارای مقدار 0.6 باشد، متغیر دوم محدود به مقدار 0.4 است. تمام مقادیر دیگر دارای چگالی صفر هستند. بنابراین من نمی‌دانم که آیا می‌توان یک تخمین چگالی هسته چند متغیره برای مقادیر استخراج‌شده از توزیع دیریکله انجام داد. اگر بله، به نظر شما چگونه باید این کار را انجام دهم؟ آیا باید از کرنل دیگری استفاده کنم؟ اگر نه، آیا جایگزینی برای KDE برای پیشنهاد دارید؟ با تشکر
تخمین چگالی هسته توزیع دیریکله
48870
من بردار شمارش عدد صحیح مثبت دارم که از یک سری زمانی (365 مشاهده/روز) گرفته شده است. من معتقدم که در این شمارش ها به دلیل روز هفته که مشاهده می شوند واریانسی وجود دارد و از آنجایی که به دنبال مشاهدات غیرعادی هستم، می خواهم این واریانس را قبل از قرار دادن یک آستانه برای موارد غیر طبیعی حذف کنم. من سعی کردم بردار روزهای (1-7) ایجاد کنم که از t1 به t365 می رود و فعالیت را در آن روزها شمارش می کنم. سپس هر یک از مشاهدات شمارش را بر فعالیت آن روز تقسیم کردم. آیا این رویکرد درستی است و چگونه می توانم قدرت همبستگی را اندازه گیری کنم؟ (من به همبستگی نقطه-دوسری نگاه کرده ام اما آیا این فقط برای دسته های باینری است؟) در نهایت می خواهم ببینم چقدر از واریانس در بردار گسسته با روز هفته توضیح داده می شود.
برقراری رابطه بین بردار گسسته و بردار طبقه ای
53433
من باید یک آزمایش مجذور کای روی این مجموعه داده انجام دهم: ![http://img27.imageshack.us/img27/2600/dataset.jpg](http://i.stack.imgur.com/ilyCw. jpg) پس از انجام این کار با کد زیر: ![http://img199.imageshack.us/img199/4837/chisqcode.jpg](http://i.stack.imgur.com/Wr5iA.jpg) من نتیجه زیر را دریافت می‌کنم: داده‌های تست Chi-squared Pearson: data.table X-squared = NaN, df = 44, p-value = NA پیام هشدار: در chisq.test(data.table): تقریب Chi-squared ممکن است نادرست باشد چرا مقدار X-squared NaN و P-value N/A است؟ من اینجا چه غلطی می کنم؟
بدست آوردن مقدار NaN برای X-Squared و N/A برای P-value در تست Chi-Square
66937
من از یک طرح وزن دهی فروپاشی برای رگرسیون سری های زمانی در بازارهای مالی استفاده می کنم (ایده این است که داده های جدیدتر مرتبط تر هستند). با این حال، باقیمانده های «lm()» با باقیمانده های «خلاصه(lm())» متفاوت هستند. آیا این دلیلی دارد؟ rr <- rnorm(500) * 50 xx <- 1:500 سال <- xx + rr dd <- decay(500, 150) sd(rr) [1] 50.31787 sd(lm(yy ~ xx)$ باقیمانده) [ 1] 50.29099 sd(خلاصه(lm(yy ~ xx))$ باقیمانده) [1] 50.29099 sd(lm(yy ~ xx، وزن = dd)$ باقیمانده) [1] 50.29154 sd(خلاصه(lm(yy ~ xx، وزن ها = dd))$ باقیمانده) [1] 2.278805 dd2 <- c(rep(1, 250), rep(2, 250)) sd(lm(yy ~ xx, weights = dd2)$residuals) [1] 50.29102 sd(خلاصه(lm(yy ~ xx، وزن = dd2))$ باقیمانده) [1] 62.66624 در اینجا تابع واپاشی من است، به هر حال: decay <- تابع (len، نیمه عمر، sumone = TRUE) { #function یک سری به طور نمایی در حال فروپاشی t تولید می کند <- len:1 # یک سری اعداد را به ترتیب معکوس تولید می کند تا بزرگترین وزن ها آخرین لامبدا باشد <- log(2) / نیمه عمر #لمبدا را مشخص کنید برای نیمه عمر w <- exp(-lambda * t) #سری وزن ها را ایجاد کنید if(sumone) w <- w / sum(w) #نرمال کردن مجموع به 1 در صورت لزوم بازگشت(w) }
در R، چرا هنگام استفاده از وزن ها برای رگرسیون، باقیمانده های lm() و summary(lm()) متفاوت هستند؟
68491
من یک تحلیل رگرسیون در اکسل ایجاد کرده‌ام و با استفاده از مدل، یک نقطه پیش‌بینی برای Y برای ورودی X ایجاد کرده‌ام. می‌خواهم یک over/under به مقدار Y اضافه کنم تا محدوده Y را نشان دهم. آیا استفاده از Y +/- مقدار خطای استاندارد برای y (از تابع LINEST ببینید) رویکرد معقولی است یا راه بهتری وجود دارد؟
پیش‌بینی رگرسیون بیش از یا کمتر را تعیین کنید
12460
بگویید من 10000 داده به صورت دو بعدی دارم و می‌خواهم یک منحنی برای آنها تنظیم کنم. اشکال عملکردی بسیاری وجود دارد که این منحنی می تواند داشته باشد - چند جمله ای، B-spline، مثلثاتی و غیره. من تصمیم گرفتم که فقط از 4 پارامتر استفاده کنم. آیا راهی برای فهمیدن دقیق ترین فرم عملکردی وجود دارد؟ یعنی با در نظر گرفتن همه توابع ممکن با 4 پارامتر، کدام یک از آنها به بهترین وجه مطابقت دارد، به عنوان مثال، حس $L_2$؟ _edit: شاید باید در مورد دقیق ترین تابع با همان بعد V-C به عنوان چند جمله ای درجه 4 به جای 4 پارامتر بپرسم؟_
تغییرپذیری یک منحنی با 4 پارامتر
110753
من می‌خواهم تحلیل پیش‌بینی بیزی ناپارامتریک را از طریق R انجام دهم و متوجه شدم که در R «DPpackage» وجود دارد که دارای توابعی برای مدل‌سازی بیزی غیر پارامتری است. اما من در درک نحوه دقیق اجرای آموزش و آزمایش با استفاده از بسته DP مشکل دارم زیرا نمی توانم نمونه هایی را پیدا کنم که چنین پیاده سازی هایی را نشان دهند. اگر کسی نمونه‌ای دارد که نشان می‌دهد چگونه آموزش و آزمایش با استفاده از DPpackage در R انجام می‌شود، برای من بسیار مفید خواهد بود که کل فرآیند را درک کنم.
چگونه می توان آموزش و تست را با استفاده از DPpackage R برای تحلیل بیزی غیر پارامتری انجام داد؟
110755
من سعی می‌کنم میزان تورم را تعیین کنم (یعنی اینکه نقاط داده‌های مشاهده‌شده چگونه به بهترین نحو با انتظارات مطابقت دارند). یک راه این است که به طرح QQ بیش از حد نگاه کنید. اما من می خواهم برخی از شاخص های عددی را برای تورم محاسبه کنم - به این معنی که میزان مشاهده شده چقدر با توزیع یکنواخت نظری مطابقت دارد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Y0H1d.jpg) داده های مثال: # توزیع یکنواخت تصادفی pvalue <- runif(100, min=0, max=1) # با تورم مورد انتظار یعنی توزیع یکنواخت pvalue1 <- rnorm(100، میانگین = 0.5، sd=0.1)
نحوه محاسبه تورم مشاهده شده و مقادیر p مورد انتظار از توزیع یکنواخت در نمودار QQ
50845
من مجموعه داده ای دارم که شامل نمونه هایی از توزیع احتمال n چند متغیره است، یعنی هر نمونه یک بردار n بعدی است. منبع داده به عنوان ماهیت غیر ثابت شناخته شده است. من به دنبال راه‌هایی برای خوشه‌بندی نمونه‌ها در زیرمجموعه‌هایی بوده‌ام که هر زیر مجموعه حداقل یک توزیع کوواریانس یا توزیع ضعیف ضعیف را نشان دهد. چند راه موثر برای انجام این کار چیست؟ اساساً تمام روش‌های خوشه‌بندی که تاکنون با آنها برخورد کرده‌ام، به جای مبنای آماری، بر اساس هندسه هستند.
خوشه‌بندی نمونه‌ها از توزیع‌های چند متغیره غیر ثابت
50844
من باید توزیع یک گاوسی دو متغیره را با نمونه های کم، اما یک فرضیه خوب در مورد توزیع قبلی یاد بگیرم، بنابراین می خواهم از رویکرد بیزی استفاده کنم. من قبلی خود را تعریف کردم: $$ \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) $$ $$ \mathbf{\ mu_0} = \begin{bmatrix} 0 \\\ 0 \end{bmatrix} \ \\ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & 0 \\\ 0 & 27 \end{bmatrix} $$ و توزیع من با توجه به فرضیه $$ \mathbf{P}(x|\mathbf{\mu} ,\mathbf{\Sigma}) \sim \mathcal{N}(\mathbf{\mu}،\mathbf{\Sigma}) $$ $$ \mathbf{\mu} = \begin{bmatrix} 0 \\\ 0 \end{bmatrix} \ \ \\ mathbf{\Sigma} = \begin{bmatrix} 18 & 0 \\\ 0 & 18 \end{bmatrix} $$ اکنون به لطف اینجا می‌دانم که برای برآورد میانگین داده‌ها $$ \mathbf{P} (\mathbf{\mu} | \mathbf{x_1}, \dots , \mathbf{x_n}) \sim \mathcal{N} (\mathbf{\hat{\mu}_n}, \mathbf{\hat{\Sigma}_n})$$ من می توانم محاسبه کنم: $$ \mathbf{\hat{\mu}_n} = \mathbf{\Sigma_0} \left( \mathbf{\Sigma_0} + {1 \over n} \mathbf{\Sigma} \راست) ^ {-1} \چپ ( {1 \over n} \sum_{i=1}^{n} \mathbf{x_i} \right) + {1 \over n} \mathbf{\Sigma} \left( \mathbf{\Sigma_0} + {1 \over n} \mathbf{\Sigma} \راست) ^{-1} \mathbf{\mu_0} $$ $$ \mathbf {\ کلاه{\Sigma}_n} = {1 \over n} \mathbf{\Sigma_0} \left( \mathbf{\Sigma_0} + {1 \over n} \mathbf{\Sigma} \right) ^{-1} \mathbf{\Sigma} $$ اکنون این سؤال پیش می‌آید، شاید من اشتباه می‌کنم، اما به نظر می‌رسد من که $ \mathbf{\Sigma_n} $ فقط ماتریس کوواریانس برای پارامتر تخمینی $\mathbf{\mu_n} $ است، و کوواریانس تخمینی داده های من نیست. آنچه من می خواهم این است که $$ \mathbf{P} (\mathbf{\Sigma_{n_1}} | \mathbf{x_1}, \dots , \mathbf{x_n}) $$ را نیز محاسبه کنم تا به طور کامل یک توزیع مشخص شده از داده های من به دست آمده است. آیا این امکان پذیر است؟ آیا قبلاً با محاسبه $\mathbf{\Sigma_n}$ حل شده است و فقط به روشی اشتباه در فرمول بالا بیان شده است (یا من به سادگی آن را اشتباه تعبیر می کنم)؟ مراجع قدردانی می شود. خیلی ممنون **ویرایش** از نظرات، به نظر می رسد که رویکرد من اشتباه است، به این معنا که من یک کوواریانس ثابت را فرض می کنم که با $ \mathbf{\Sigma} $ تعریف می شود. چیزی که من نیاز دارم این است که یک پیش از آن قرار دهم، $ \mathbf{P}(\mathbf{\Sigma}) $، اما نمی‌دانم از چه توزیعی باید استفاده کنم، و متعاقباً روش به‌روزرسانی آن چگونه است. .
برآورد توزیع خلفی کوواریانس یک گاوسی چند متغیره
109634
من تعداد زیادی (~1.5 میلیون) توالی پروتئین دارم که هر کدام از آنها طول های متفاوتی دارند. 6 مثال شماتیک در تصویر پیوست وجود دارد. در هر یک از این دنباله ها، >= 0 دامنه وجود دارد (به صورت جعبه های رنگی نشان داده شده است). هر دامنه با یکی از مجموعه‌ای از تقریباً 15000 HMM پروفایل (D1 ... D15000) مطابقت دارد. دامنه ها نمی توانند همپوشانی داشته باشند. مجموع طول همه دامنه های شناسایی شده در یک پروتئین <= طول کل پروتئین. برخی از پروتئین ها ممکن است دارای ناحیه نوع D در آنها نباشند. جدا از این دامنه‌های 15K «نوع D»، من همچنین تطابق با نوع متفاوتی از ناحیه را در هر پروتئین شناسایی کرده‌ام، اجازه دهید آن را «نوع IDR» بنامیم. این IDR ها به صورت خطوط قرمز بالای توالی پروتئین نشان داده شده اند. برخی از پروتئین ها ممکن است دارای ناحیه نوع IDR در آنها نباشند. IDR ها ممکن است طول های متفاوتی داشته باشند، اما مجموع طول آنها در یک پروتئین، نمی تواند بیشتر از طول پروتئین باشد. محل این IDR ها می تواند در هر نقطه ای بین شروع و انتهای پروتئین، طول هر فرد باشد. IDR نیز کاملاً متغیر است. دو IDR با یکدیگر همپوشانی ندارند. اکنون می‌خواهم بدانم که چگونه فرضیه‌ام را که 1. IDR(های) هر پروتئین (در کل مجموعه پروتئین‌ها) با مناطق نوع D دامنه (یعنی خطوط قرمز و جعبه‌های رنگی) همپوشانی ندارند، فرموله و آزمایش کنم. هرگز همپوشانی ندارند). و/یا IDR(های) در هر پروتئین (در کل مجموعه پروتئین ها) به طور قابل توجهی با نواحی نوع D حوزه تلاقی نمی کنند (یعنی خطوط قرمز و جعبه های رنگی هرگز همپوشانی ندارند). به عبارت دیگر، آیا فراوانی تقاطع بین مناطق نوع D و مناطق نوع IDR به طور قابل توجهی کمتر یا بیشتر از حد انتظار است... و پشتیبانی آماری برای آن ادعا چیست؟ ![نمایش تصویری مجموعه داده و مسئله](http://i.stack.imgur.com/WIcHM.jpg) برای هر یک از پروتئین های مورد نظر، من مکان شروع/توقف هر یک از مطابقت های نوع D را می دانم، و مناطق نوع IDR. اما من این اطلاعات را پردازش نکرده ام تا بدانم، حتی به طور تصادفی، واقعیت این همپوشانی ها چیست. در تصویر پیوستی که با داده های خیالی درست کردم، موقعیت IDR ها (خطوط قرمز) کاملاً با دامنه ها (جعبه های رنگی) تلاقی ندارد. چیزی که لزوماً در مورد داده های واقعی من صادق نیست. لطفاً توجه داشته باشید که موقعیت / مکان / مختصات هر دامنه از نوع D یا منطقه از نوع IDR تصادفی است. ممکن است پاسخ چیزی شبیه به آنچه در http://www.mathpages.com/home/kmath580/kmath580.htm توضیح داده شده باشد باشد. یا شاید من بیش از حد به این موضوع فکر می کنم؟ همچنین، فکر می‌کنم چون دارم فرضیه‌ای را روی چندین پروتئین آزمایش می‌کنم، باید نوعی تصحیح آزمایش چندگانه وجود داشته باشد؟ پیشاپیش از کمک شما سپاسگزارم.
مقایسه مشاهده شده با همپوشانی/تقاطع پنجره پیش بینی شده
48872
من از AICc برای انتخاب مدل برای داده های تبدیل شده (متغیر پیوسته) استفاده می کنم. یک مدل $\log_{10}(PWV)$ را به عنوان پاسخ و مدل دیگر $\log(PWV)$ را به عنوان پاسخ استفاده کردم، اما مطمئن نیستم که اگر AICc را مقایسه کنم از کدام یک استفاده کنم. در زیر ببینید: Response Log10(PWV) AICc BIC -2745,2 -2699,71 Response Log(PWV) AICc BIC 907,8648 953,3541 آیا باید از مدلی با مقداری استفاده کنم که کوچکترین مقدار مطلق است، فرقی نمی کند منفی یا مثبت باشد؟ یعنی $\log(PWV)$ یا مدلی با کمترین مقدار، یعنی $\log_{10}(PWV)$. من همچنین مقادیر 2 LogLikelihood را دریافت می کنم، که مطمئن نیستم می توانم به جای آن برای مقایسه استفاده کنم یا خیر. **اطلاعات اکسترا در مورد مطالعه بسیار هیجان انگیز من:** با استفاده از SAS. JMP به مدل مختلط من. مطالعه من اعتبار دستگاهی است که PWV (سرعت موج پالس) را اندازه‌گیری می‌کند و قابلیت تکرارپذیری و تغییرات درون/بین‌ناظر را نشان می‌دهد. روی هر خوک 8 مینی خوک، دو ناظر، چندین بار اندازه گرفتیم و در روزهای مختلف این کار را 3 بار تکرار کردیم. بنابراین یک مجموعه داده نامتعادل، با Pigs به عنوان اثر تصادفی، مشاهده گر (2 سطح) و روز امتحان (3 سطح) به عنوان اثر ثابت، و سپس تعداد زیادی متغیر داشته باشید. داده‌های من با آزمون Shapiro-Wilks توزیع نرمال را نشان ندادند، بنابراین سعی کردم با log (PWV)، log10 (PWV) و root (PWV) تبدیل کنم و سپس مدل‌هایی را با داده‌های تبدیل‌شده بسازم تا ببینم آیا خطای باقیمانده توزیع شده است یا خیر. اما واقعاً نمی دانم چگونه این کار را در JMP انجام دهم، بنابراین من به دنبال پاسخی برای انجام این کار هستم. چگونه خطای باقیمانده را برای توزیع عادی در JMP بررسی کنم؟ علاوه بر این، من از چه چیزی استفاده می کنم اگر باقیمانده من عادی توزیع نشده باشد؟ آیا باید از Wilkinson استفاده کنم، و آیا با اندازه گیری های مکرر مانند من خوب است؟ این تست با PWV است که تبدیل نشده است. ***Response PWV*** خلاصه Fit RSquare 0,656081 RSquare Adj 0,651699 Root Mean Square Error 0,955595 Mean of Response 6,236935 مشاهدات (یا مجموع Wgts) 796 AICc Parameter 796 AICc36,169 تخمین ترم تخمین Std خطا DFDen t Ratio Prob>|t| رهگیری 5,9679039 0,665618 2,001 8,97 0,0122 W[26] -2,485353 1,603072 2,001 -1,55 0,2611 W[27,5] 0,7102735 0,7009 W[28] -0,069661 1,602321 1,997 -0,04 0,9693 W[28,5] 1,3252744 1,60304 2,001 0,83 0,4953 W2,4951,[291] 226491 1,995 0,78 0,5173 E[1] 0,5646209 0,061558 783 9,17 <,0001 E[2] -0,444435 0,055241 783,1 -8,05 <,0001 O 0,191662 0,039188 783 -4,89 <,0001 E[1]*O[1] 0,2489414 0,060013 783 4,15 <,0001 E[2]*O[1] -0,25976 0,054522 783,1 - 4,76 <,0001 REML واریانس مؤلفه تخمین اثر تصادفی Var Ratio Var Component Std Error 95% Lower 95% Upper Pct P[W] 3,4790351 3,1769234 3,1893213 -3,074031 9,4278783 77,674 0,674 باقیمانده 0,221514 0,221510 0,8290524 1,0108232 22,326 مجموع 4,0900856 100,000 -2 LogLikelihood = 2230,229647 آزمایشات اثر ثابت منبع Nparm DF DFDen F Ratio Prob > 1,606958 F. 2 2 783,1 45,5276 <,0001 O 1 1 783 23,9207 <,0001 E*O 2 2 783,1 12,2427 <0001 در اینجا تست دیگری با PWV تبدیل شده است. _**Response Log(PWV)_** خلاصه Fit RSquare 0,693231 RSquare Adj 0,689323 Root Mean Square Error 0,151507 Mean of Response 1,795197 مشاهدات (یا مجموع Wgts) A43C, 726 B -574,255 تخمین پارامتر برآورد مدت زمان خطای Std DFDen t Ratio Prob>|t| رهگیری 1,7446075 0,109662 1,999 15,91 0,0039 W[26] -0,484959 0,26411 2 -1,84 0,2078 W[27,5] 0,1478939 0,1478939 0,1478939 0,201 0,6318 W[28] 0,01762 0,263995 1,996 0,07 0,9529 W[28,5] 0,2290124 0,264105 2 0,87 0,4773 W[29] 0,101 0,101 0,80 0,5062 E[1] 0,082577 0,00976 783 8,46 <,0001 E[2] -0,060043 0,008758 783,1 -6,86 <,0001 O[1] -0 ,03304 0,006213 783 -5,32 <,0001 E[1]*O[1] 0,0288572 0,009515 783 3,03 0,0025 E[2]*O[1] -0,03895 0,008644 783,1 -4,51 <, 0001 REML واریانس مؤلفه تخمین می‌زند تأثیر تصادفی متغیر نسبت متغیر متغیر مؤلفه خطای Std 95% پایین‌تر 95% Pct بالای کل P[W] 3,7578306 0,0862586 0,086597 -0,083468 0,2559857 78,982 باقیمانده 0,0254093 21,018 مجموع 0,109213 100,000 -2 LogLikelihood = -661,0898412 آزمایشات اثر ثابت منبع Nparm DF DFDen F Ratio Prob > F W
AICc/BIC منفی و مثبت برای دو مدل با داده های تبدیل شده - چگونه مقایسه کنیم؟
88887
این کمی یک سوال اصطلاحی است، اما تفاوت بین بررسی استحکام و تجزیه و تحلیل حساسیت چیست؟ به عنوان مثال، در صورت انجام تجزیه و تحلیل برای دیدن اینکه نتایج یک مطالعه چقدر حساس (یا قوی) به متغیرهای اضافی است. آیا چک های استحکام نوعی تجزیه و تحلیل حساسیت هستند یا برعکس؟
تفاوت بین بررسی های استحکام و تجزیه و تحلیل حساسیت
7527
من سعی می کنم یک تحلیل نقطه تغییر یا یک رگرسیون چند فازی با استفاده از nls() در R پیاده سازی کنم. در اینجا برخی از داده های جعلی ساخته شده است. فرمولی که می خواهم برای جا دادن داده ها استفاده کنم این است: $y = \beta_0 + \beta_1x + \beta_2\max(0,x-\delta)$ کاری که قرار است انجام دهد این است که داده ها را تا یک نقطه مشخص با یک فاصله و شیب خاص ($\beta_0$ و $\beta_1$)، سپس، پس از یک مقدار x معین ($\delta$)، شیب را با $\beta_2$ افزایش دهید. این چیزی است که کل موضوع حداکثر در مورد آن است. قبل از نقطه $\delta$، برابر با 0 خواهد بود و $\beta_2$ صفر خواهد شد. بنابراین، این تابع من برای انجام این کار است: changePoint <- function(x, b0, slope1, slope2, delta){ fit <- b0 + (x*slope1) + (max(0, x-delta) * slope2) } و من سعی می‌کنم مدل را به این صورت جا بدهم nls(y ~ changePoint(x, b0, slope1, slope2, delta), data = data, start = c(b0 = 50, slope1 = 0, slope2 = 2, delta = 48)) من آن پارامترهای شروع را انتخاب کردم، زیرا می دانم که این پارامترهای شروع هستند، زیرا داده ها را ساخته ام. با این حال، من این خطا را دریافت می کنم: خطا در nlsModel (فرمول، mf، شروع، wts): ماتریس گرادیان منفرد در تخمین پارامترهای اولیه آیا من به تازگی داده های ناگواری ایجاد کرده ام؟ من ابتدا سعی کردم این را بر روی داده های واقعی نصب کنم، و همان خطا را دریافت می کردم، و فقط متوجه شدم که پارامترهای شروع اولیه من به اندازه کافی خوب نیستند.
تغییر تحلیل نقطه با استفاده از R's nls()
82179
**زمینه:** اگر من 40 فرضیه داشته باشم که همان آزمون آماری را بر اساس مجموعه داده های به همان اندازه بزرگ نشان می دهد، می توانم 40 مقدار q را محاسبه کنم (بنجامینی-هوچبرگ). **مشکل واقعی** اگر 100 مجموعه از این 40 فرضیه (در مجموع 4000 فرضیه) داشته باشم چه می شود؟ هر مجموعه از 40 فرضیه (که 100 فرضیه وجود دارد) ممکن است داده های بسیار کمتری را در خود جای دهد، به این معنی که همه 100 مجموعه فرضیه قدرت آماری یکسانی ندارند. با این حال، در هر مجموعه، همه 40 فرضیه دارای قدرت آماری یکسانی هستند. آیا محاسبه یک Q-value جهانی بر اساس همه 4000 فرضیه بیش از حد محافظه کارانه نیست؟ از آنجایی که q-value در واقع یک نرخ است، آیا منطقی و کاملاً معتبر نیست که به سادگی هر q-value را بر اساس 40 فرضیه در مجموعه آن محاسبه کنیم نه بر اساس مجموعه کلی 4000 فرضیه؟
آیا زمانی که قدرت آزمون‌ها متفاوت است باید چندین مقدار q محاسبه شود یا یک مقدار Q جهانی؟
7772
من سعی می کنم یک مدل رگرسیون چند متغیره را جا بزنم که در آن متغیر مستقل X پنهان است اما نمی دانم از کجا شروع کنم (اطلاعات قبلی در مورد ماتریس ضریب دارم تا بتوانم از روش های تکراری استفاده کنم). متغیر وابسته Y یک ماتریس NxM است که نشان دهنده N مشاهدات هر یک از متغیرهای M است. متغیر پنهان X یک ماتریس NxP است که ما چیزی جز ابعاد آن نمی دانیم. علاوه بر اینها، ما یک تخمین اولیه از ماتریس بتای ضریب بر اساس دانش قبلی داریم. هدف من این است که تخمین‌های X نهفته و ماتریس بتای ضریب را با استفاده از ماتریس داده Y و ماتریس ضریب اولیه پیدا کنم. من به ساخت یک الگوریتم EM فکر کردم، اما به دلیل پیچیدگی داده‌های چند متغیره و مفهوم متغیر پنهان، کاملاً گیج شده‌ام. متشکرم.
آیا می توان مدل رگرسیون چند متغیره را در جایی که متغیر مستقل نهفته است برازش داد؟
50849
عنوان ممکن است تا حدودی گمراه کننده باشد. من سعی می کنم مشکل بهینه سازی زیر را حل کنم و هیچ سرنخی پیدا نکردم. کسی میتونه کمک کنه؟ من دنباله ای از $n$ مشاهده $s_i$ دارم. هر مشاهده $s_i$ بردار $m$ اعداد حقیقی مثبت است، یعنی $$\forall i\in[1,n]: \mathbf{s_i}\in\mathbb{R}^m_+$$. حال، اجازه دهید $k_i$ دنباله ای از پارامترهای اسکالر $n$، $k_i\in \mathbf{R}$ باشد. ما میانگین وزنی_$$M=\frac{1}{n}\Sigma_{i\in[1,n]}k_i \mathbf{s_i} $$ و تابع انرژی $E(k_1,\ldots k_n) را تعریف می‌کنیم. $ به عنوان $$ تعریف می شود E(k_1,\ldots k_n) = \Sigma_{i\in[1, n]}(k_i \mathbf{s_i}-M)^2$$ توجه داشته باشید که هر بردار $\mathsf{s_i}$ در اینجا ثابت است. هدف یافتن $k_1،\ldots، k_n$ است به طوری که $E(k_1\ldots، k_n)$ حداقل باشد. من معتقدم که این یک مسئله کلاسیک در ریاضی یا فیزیک است، اما هیچ کلمه کلیدی مناسبی برای راهنمایی من ندارم. همچنین سعی کردم این مشکل را با استفاده از روش حداقل مربعات کلاسیک حل کنم، اما به نظر می رسد سوالات کمتر از این مشهود هستند. ایجاد یک مشتق جزئی برای هر $k_i$ و سپس حل معادلات به دست آمده بسیار پیچیده است. این مشکل را می توان کمی ساده کرد، که مطمئن نیستم برای بحث های بعدی ما مفید باشد. مشکل معادل پیدا کردن $k_1\ldots k_i$ s.t است. $$ \Sigma_{i,j\in[1,n]}(k_i \mathbf{s_i} - k_j \mathbf{s_j})^2 $$ حداقل را می‌گیرد. ممکن است فرد به سرعت متوجه شود که بی نهایت راه حل وجود دارد. توضیح زمینه مشکل ممکن است مفید باشد: من $20$ داده مشاهده شده $\mathbf{s_1، s_2\ldots s_{20}}$ دارم، که هر $\mathbf{s_i}$ بردار 100 عدد مثبت است. این داده ها به گونه ای مشاهده می شوند که با داده های فیزیکی متناسب هستند، با نسبت های بین $s_i$ و داده های واقعی ثابت هستند و می توانند برای هر داده جداگانه متفاوت باشند. مشکل واقعی من عادی سازی این داده های مشاهده شده است.
بهترین تناسب میانگین وزنی؟
50848
من یک مدل غیر خطی را با استفاده از تابع MATLAB @fmincon تخمین زدم که یک مقدار Log-likelihood را به من برمی‌گرداند. من همچنین یک مدل خطی (OLS) را تخمین می زنم که می توانم R² را از روی آن محاسبه کنم. در اینجا باید خوبی برازش دو مدل را با هم مقایسه کنم و ببینم آیا مدل غیر خطی از نظر آماری با مدل خطی تفاوت دارد یا خیر. بنابراین می‌پرسم آیا فرمولی برای بیان R² به عنوان تابعی از Log- Likelihood وجود دارد یا برعکس. خیلی ممنون، اولیویه.
رابطه بین R² و Log Likelihood چیست؟
50840
من داده های مبتنی بر رویداد زیادی در مورد کاربران وب سایت خود دارم. به عنوان مثال، داده ها در قالب (فعل، زمان). حدود 10 یا بیشتر فعل مختلف وجود دارد (آنها را A، B، C و غیره بنامید). من علاقه مندم که سهم رویدادهای مختلف در تصمیم کاربران برای خرید عضویت را بیابم. یعنی P (شانس خرید در یک ماه معین) = A * مشارکت-a + B * مشارکت- از-b + ... این یک مشکل پیچیده است زیرا ممکن است بعضی چیزها بارها اتفاق بیفتد (کاربر دوست پیدا می کند) و بعضی چیزها ممکن است به ندرت اتفاق بیفتد (کاربر یک سطح را آپلود می کند). من همچنین سعی می کنم به جای صرفاً همبستگی، علیت را ایجاد کنم. به نظر می رسد این مشکل درجات آزادی زیادی دارد. آیا حتی در تئوری امکان حل آن وجود دارد؟ شرکت های دیگر چگونه این را بهینه می کنند؟ تکنیک آماری که باید برای آن در گوگل جستجو کنم چیست؟ آیا تجزیه ارزش منفرد برای این کار است؟
من یک گیگابایت داده مبتنی بر رویداد دارم. چگونه علت را بفهمم؟
12466
پس از خواندن پیش‌نویس مقاله‌ای توسط یکی از دوستانم که در آن او یک مجموعه متن را با UCINET کاوش کرد، که ابرهای متنی، نمودارهای شبکه دو حالته و تجزیه ارزش واحد (با گرافیک، با استفاده از Stata) را نشان می‌داد، سه روز را با «tm» سرگرم کردم. من با تعداد زیادی مشکل مواجه شدم: در Mac OS X، مشکلاتی با جاوا در پشت کتابخانه هایی مانند Snowball (ساقه) یا Rgraphviz (نمودارها) وجود دارد. آیا کسی می‌تواند به بسته‌ها اشاره کند – من به «tm»، «wordfish» و «wordscores» نگاه کرده‌ام و در مورد NLTK می‌دانم – اما **در صورت امکان با کد، روی داده‌های متنی که با موفقیت از «tm» یا چیزی دیگر استفاده می‌کند، تحقیق کنید. دیگر برای تجزیه و تحلیل داده ها مانند بحث های پارلمانی یا اسناد قانونی؟ پروژه خود من یک بحث پارلمانی دو ماهه است که این متغیرها در یک فایل CSV درج شده است: جلسه مجلس، رئیس مجلس، گروه پارلمانی، متن مداخله شفاهی. من به دنبال اختلاف نظر بین سخنرانان و به ویژه بین گروه های پارلمانی در استفاده از اصطلاحات نادر و کمتر نادر، به عنوان مثال. «گفتگوی امنیتی» در مقابل بحث «آزادی های مدنی».
نمونه هایی از متن کاوی با R (بسته tm)
12461
یک قاعده کلی خوب برای نحوه انتخاب سؤال برای فرضیه صفر چیست. به عنوان مثال، اگر بخواهم بررسی کنم که آیا فرضیه B درست است، آیا باید از B به عنوان صفر، B به عنوان فرضیه جایگزین، یا از B به عنوان صفر استفاده کنم؟ امیدوارم سوال واضح باشد. می‌دانم که ربطی به خطایی دارد که می‌خواهم آن را به حداقل برسانم (تایپ I؟)، اما مدام فراموش می‌کنم که چگونه پیش می‌رود، زیرا شهود واضحی برای آن ساخته نشده است. با تشکر
نحوه تعیین فرضیه صفر در آزمون فرضیه
88886
من با WEKA کار کرده‌ام تا با استفاده از این مجموعه داده سرطان پستان (نسبتا قدیمی...) پیش‌بینی‌کننده‌های کلاس بسازم. مجموعه داده به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم می شود. من در حال آزمایش طرح‌های یادگیری مختلف (بیشتر بر انتخاب ویژگی‌ها) با استفاده از آزمایش‌های اعتبارسنجی متقابل 10 برابری در مجموعه آموزشی بوده‌ام. متأسفانه، هنگامی که من مدل های آموزش دیده را در مجموعه آزمون امتحان می کنم، به نظر می رسد هیچ ارتباطی بین نمرات در اعتبارسنجی متقاطع و عملکرد واقعی مجموعه آزمون وجود ندارد. 1. آیا این یک مشکل ثابت برای ریزآرایه یا سایر داده های تعداد نمونه با ابعاد بالا / کم است؟ آیا رویکرد دیگری وجود دارد که مناسب‌تر از اعتبارسنجی متقابل برای ارزیابی مدل‌ها بر روی داده‌های آموزشی باشد؟ 2. چرا برخی از مجموعه داده ها سخت هستند؟ مانند شراب
تقریب خطای اعتبارسنجی متقابل با خطای مجموعه آزمایشی ناسازگار است
82285
مشکل زیر را در نظر بگیرید: من دو مجموعه چراغ دارم و به طول عمر لامپ ها علاقه مند هستم. مجموعه A دارای مقدار میانگین بالا اما واریانس زیادی است. مجموعه B دارای میانگین کمتر اما واریانس کمتری است. من می خواهم ترکیب بهینه میانگین و واریانس را پیدا کنم. در حالت ایده آل، من میانگین بالا و واریانس پایین می خواهم. فرض کنید می توانیم واریانس و میانگین طول عمر لامپ ها را با یک پارامتر مشخص کنترل کنیم. اکنون منطقی است که این را به عنوان یک مشکل بهینه سازی در نظر بگیرم. من می خواهم پارامتر خود را طوری انتخاب کنم که مجموع واریانس و میانگین حداقل باشد. اما آیا این راه درستی برای مقابله با این مشکل خواهد بود؟
روش‌هایی برای حداکثر کردن میانگین و به حداقل رساندن واریانس همزمان
82287
من از مکان های مختلف نمونه گرفته ام و می خواهم نتایج را برای مکان ها مقایسه کنم. داده ها نرمال هستند، اما دارای واریانس نابرابر هستند، بنابراین من نمی توانم از ANOVA و HSD Tukey برای انجام مقایسه های متعدد استفاده کنم. به من گفته شده است که یک ANOVA Welch و سپس یک Tamhane's T2 اجرا کنم، اما من نمی توانم هیچ راهنمایی در مورد نحوه انجام این کار در R پیدا کنم. همچنین نمی توانم اطلاعات خوبی در مورد نحوه اجرای چندین مقایسه غیر از HSD Tukey در R پیدا کنم.
چگونه می توانم مقایسه چندگانه T2 Tamhane را با R اجرا کنم؟
112470
من یک سری حدود 1000 نقطه روی یک کروموزوم دارم و می‌خواهم بدانم که آیا آنها توده‌ای هستند، بیش از حد پراکنده هستند یا هیچکدام. کروموزوم را می توان به صورت یک بعدی مشاهده کرد. من برخی از آمارهای فضایی را بررسی کردم و 2 روش را پیدا کردم که امیدوارکننده به نظر می رسند. ابتدا می‌توان خط را به پاره‌های M تقسیم کرد و تعداد نقاط در هر بخش باید پواسون با λ = N/M توزیع شود، که در آن N تعداد کل نقاط است. سپس ساختن یک آزمون مجذور کای، که در آن مشاهده شده تعداد نقاط در هر بخش است، و مورد انتظار λ است، چندان سخت نیست. البته موضوع اینجا این است که چگونه M را انتخاب کنید. من حدس می‌زنم طیفی از مقادیر را امتحان کنید و ببینید که نتیجه چقدر پایدار است. روش دوم محاسبه فاصله تا نزدیکترین همسایه (NN) برای هر نقطه است. گفته می شود که مقادیر NN توزیع شده رایلی هستند. من با این توزیع خیلی راحت نیستم و در حال تلاش برای ایجاد یک آمار تست خوب برای مقادیر NN هستم. به طور مشابه، شبیه‌سازی توزیع صفر با روش‌های مونت کارلو آسان است، اما مطمئن نیستم که آمار خلاصه مناسب برای مقایسه توزیع مشاهده شده من در برابر (شاید واریانس؟) چیست. هر گونه کمک قدردانی!
آزمایش اینکه آیا نقاط روی یک خط بیش از یا کمتر پراکنده هستند یا خیر
105689
من 3 شبکه عصبی دارم که 3 بردار متفاوت از مقادیر را پردازش می کنند. هر NN نمونه ای از بردار خود را پردازش می کند و نتیجه باینری (y/n) را می دهد که با احتمال داده شده صحیح است. هر 3 NN به یک سوال پاسخ می دهند. وظیفه این است که این نتایج را در یک (y/n) ترکیب کنیم و احتمال درستی آن را بفهمیم. چه روش هایی را برای این کار پیشنهاد می کنید؟ پیشاپیش ممنون
نتایج را با صحت متفاوت ترکیب کنید
109633
مجموعه داده های من بسیار کوچک و دارای ویژگی های غنی است. دارای 30 مشاهده و 30 ویژگی / پیش بینی کننده است. علاوه بر آن، بسیاری از ویژگی ها همبستگی دارند (اغلب خطی نیستند). من چندین چیز را امتحان کرده‌ام - Random Forest، Naive Bayes، PCA برای کاهش داده‌ها، همبستگی‌های خطی و رتبه‌بندی شده را بررسی کرده‌ام و غیره... اما بهترین دقت طبقه‌بندی که تاکنون به دست آورده‌ام تنها ۵۰٪ با استفاده از جنگل تصادفی است. هر پیشنهادی در رابطه با اینکه چه چیز دیگری را امتحان کنید بسیار قدردانی خواهد شد! با تشکر فراوان. شرح مشکل - مشکل ساختن یک سیستم پیش‌بینی تقریبی است که قادر است تولید نفت یک چاه (متغیر هدف) را بر اساس پیش‌بینی‌کننده‌ها (مانند عمق چاه، مسیر حرکت، شکنندگی سنگ، محتوای معدنی و غیره) تقریباً پیش‌بینی کند.
کمک به مجموعه داده های کوچک با ویژگی های مرتبط
19261
من داده های فضایی دو بعدی (به زودی سه بعدی) دارم و می توانم خوب بودن تناسب بین مدل خود و واقعیت را مقایسه کنم. از آنجایی که داده ها پیوسته هستند و دسته بندی نیستند، من واقعاً نمی توانم از آزمون Chi-squared استفاده کنم. من سعی کردم خطای واقعی را در اندازه گیری هایم تعیین کنم و از آن به عنوان مخرج در آمار بر خلاف تقریب پواسون معمولی استفاده کنم. من یک تست 2D KS را هم امتحان کردم، اینجا دو مشکل دارم، نسبتا کند است و اگر به سه بعدی بروم تعداد راه های تعریف CDF تا حدودی بازدارنده می شود. موضوع دیگر من که واقعاً نمی‌دانم چه جوابی می‌دهد فراتر از این واقعیت که هر چیزی که به شکل استاندارد برنگردد، توافق بسیار خوبی است. آیا تست های تناسب دیگری وجود دارد که برای ابعاد بالاتر خوب باشد؟ آیا کرامر فون میزس در ابعاد زیادی از KS بهتر است، من امتحان نکردم اما حدس می‌زدم که همان محدودیت‌ها را داشته باشد؟
حسن تناسب چند بعدی
105687
من انتگرال زیر را تقریب می‌کنم: $$ \int p(t|\alpha,\beta)p(\alpha,\beta)d \alpha d\beta $$ که در آن $t|\alpha,\beta$ از چند متغیره پیروی می‌کند. توزیع نرمال و $p(\alpha,\beta) = p(\alpha) p(\beta) $ و $$ p(\alpha) \propto 1/\alpha \text{ و } p(\beta) \propto 1/\beta $$ برنامه من این بود که این انتگرال را با استفاده از تقریب لاپلاس تقریب کنم. من می خواهم تجزیه و تحلیل کنم که این تقریب چقدر دقیق است. چگونه به این مشکل برخورد کنم؟
دقت تقریب لاپلاس چگالی خلفی
82286
من 16 آزمایش دارم که در شرایط مختلف انجام شده است و می خواهم آنها را بین یکدیگر مقایسه کنم. هر آزمایش 5-6 نمونه (سلول) دارد. هر سلول صدها نقطه داده را تولید می کند (داده های نیروی چسبندگی). هنگامی که من یک هیستوگرام از نیروی چسبندگی لگ می‌سازم، به نظر می‌رسد که من دارای توزیع اریب است. من این توزیع را با استفاده از 2 یا 3 منحنی گاوسی با استفاده از mixtools در R برازش داده ام. به عنوان مثال در تصاویر پیوست چهار هیستوگرام را نشان می دهم که اطلاعات نیروهای چسبندگی را با سیلیکون جمع آوری می کند. هر هیستوگرام دارای مقدار سیگما، مو و لامبدا است. می خواهم بدانم مثلاً چسبندگی با سیلیکون در 1 از نظر آماری با چسبندگی در طلا متفاوت است؟ ![نیروهای چسبندگی با سیلیکون و طلا](http://i.stack.imgur.com/HlUFn.png)
مقایسه دو نمونه در mixtools
96664
بیایید فرض کنیم که من مجموعه ای از پیش بینی کننده ها و یک متغیر حاصل از عدد صحیح غیر منفی (تعداد رویدادها) دارم. همه مشاهدات چند بار تکرار می شوند (به این معنی که همه پیش بینی ها بیش از یک بار مقادیر یکسانی دارند). برای هر ترکیب ممکنی از مقادیر پیش‌بینی‌کننده، باید تعداد متوسطی از رویدادها را پیش‌بینی کنم. من همه مشاهدات را با مقادیر پیش‌بینی‌کننده‌های یکسان با یک ترکیب کردم و تعداد متوسطی از رویدادها را برای همه این مشاهدات به مشاهده جدید اختصاص دادم. بعد، چهار مدل مختلف ساختم - OLS، OLS با متغیر حاصل تبدیل شده، گاما GLM مانعی و، نمی‌دانم چرا، پواسون GLM. در کمال تعجب، پواسون بهترین بود. از آنجایی که این پایان نامه صلاحیت نهایی من است، من به برخی از پایه های نظری نیاز دارم، اما نمی توانم یکی را رقم بزنم، من همیشه فکر می کردم که رگرسیون پواسون داده های عدد صحیح را فرض می کند. امیدوارم کسی بتونه کمک کنه
چرا Poisson GLM بهتر با داده های غیر صحیح مطابقت دارد؟
97393
یک مدل خطی قطع تصادفی را در نظر بگیرید. این معادل رگرسیون خطی GEE با ماتریس همبستگی کاری قابل تعویض است. فرض کنید پیش بینی کننده ها $x_1، x_2، $ و $x_3$ هستند و ضرایب این پیش بینی کننده ها $\beta_1$، $\beta_2$، و $\beta_3$ هستند. تفسیر ضرایب در مدل رهگیری تصادفی چیست؟ آیا این همان رگرسیون خطی GEE است با این تفاوت که در سطح فردی است؟
مدل رهگیری تصادفی در مقابل GEE
111549
من سعی می کنم یک NB GLMM را با توزیع هندسی تطبیق دهم. من با اطلاعات بسیار کمی در مورد این شکل از رگرسیون مواجه شده ام. و مایل به برخی نکات / اطمینان خاطر هستم. برخی از ادبیات برای روش glm در اینجا موجود است: http://cran.r-project.org/web/packages/pscl/vignettes/countreg.pdf، اما من نمی توانم چیزی در یک مدل ترکیبی برای استفاده با این پیدا کنم. نکات اصلی: آیا این کد برای اجرای چنین مدلی صحیح است؟ آیا این بهترین بسته برای این تحلیل است؟ آیا انتخاب و اعتبارسنجی مدل برای مدل‌های دوجمله‌ای منفی معمولی به دنبال آن است؟ نمونه داده DF<- ساختار(فهرست(کد = ساختار(c(1L, 1L, 6L, 6L, 7L, 9L, 10L, 10L, 10L, 10L, 10L, 11L, 11L, 12L, 13L, 14L, 14L, 1 ، 16 لیتر، 17 لیتر، 17 لیتر، 23 لیتر، 24 لیتر، 26 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 28 لیتر، 28 لیتر، 29 لیتر، 30 لیتر، 30 لیتر، 31 لیتر، 32 لیتر، 34 لیتر، 35 لیتر، 8 لیتر، 8 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 15 لیتر، 33 لیتر، 33 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 19 لیتر، 19 لیتر، 18 لیتر، 5 لیتر، 5 لیتر، 4 لیتر، 2 لیتر، 4 لیتر، 20 لیتر، 20L)، .Label = c(15010212، 15010213، 15010215، 15010216، 15010220, 15010222، 15010245, 15010269، 15010269، 17024، 1401، 15010215، 1401 «15010285»، «15010287»، «15010290»، «15010291»، «15010292»، «15010294»، «15010299»، «15020313»، «15020314»، «150203»، «15010203»، «15010203» «15020317»، «15020326»، «15020345»، «15020348»، «15020384»، «15020395»، «15020396»، «15020397»، «15030312»، «170303»، «130303»، «150303» 15030392، 15030394، 15030395)، کلاس = ضریب)، جریان = c(15.97766667، 14.226، 17.15724762، 14.7465، 39.530، 39.530، 23.295، 23. 71.95709524، 50.283، 66.66754955، 38.9218، 72.73666667، 32.37466667، 50.34905172، 27.98471429، 27.98471429، 27.98471424، 27.98471429، 27.98471429، 27.98471429، 27.98471429، 71.95709524. 77.71733333، 37.446875، 101.23875، 67.78534615، 21.359، 36.54257143، 34.13961111، 64.352533395، 64.352533395، 64.352533395، 64.352533395، 8 61.50857143، 48.983، 63.81072727، 26.105، 46.783، 23.0605، 33.61557143، 46.31042857، 62.37061905، 62.37061905. 42.31983721, 15.3982, 14.49625, 16.40853846, 17.84350847, 14.625375, 13.10714286, 13.3546623693, 13.3546623693, 13.3546623693 13.54236364, 14.10023711, 12.5747807, 23.77425, 25.626, 15.23888523, 74.62485714, 170.15471724, 170.15471778, 29 42.50887568، 53.89983761، 141.7211667، 50.67125، 48.098، 66.83644444، 76.564875، 80.63189183، 80.63189183، 80.63189184، 5713 86.68688889، 34.82169565، 70.00415385، 64.67233333، 81.72766667، 57.74522034)، موفقیت = c(0L، 1L، 0L، 0L، 0L، 0L، 0L، 1L، 0L 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1L، 0L، 1L، 0L، 1L)، طول = c(595، 595، 582، 582، 565، 537، 585، 585، 585، 585، 585، 595، 595، 607، 607، 625 607، 644 644 620 560 567 615 615 615 595 595 546 580 632 632 632 632 632 632 632 525 585 585 584, 584, 707, 680, 680, 740, 740), تلاش = ساختار(c(1L, 2L, 1L, 2L, 1L, 1L, 1L, 2L, 3L, 4L, 5L, 1L, 2L, 1L, ، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 7 لیتر، 8 لیتر، 9 لیتر، 10 لیتر، 11 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 7 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، برچسب = c(1، 2، 3، 4، 5، 6، 7، 8، 9، 10، 11)، کلاس = عامل))، .Names = c(کد، جریان، مدل موفقیت، طول، تلاش)، row.names = c(NA, -72L)، کلاس = data.frame) به شرح زیر است. تنظیم تتا = 1 باید یک توزیع هندسی را تعیین کند. کتابخانه (MASS) M1<-glmmPQL(موفقیت ~ طول + جریان + تلاش، تصادفی = ~ 1| کد، خانواده = منفی. دوجمله ای (تتا = 1)، داده = DF) خلاصه (M1) در نهایت من سعی می کنم موفقیت را پیش بینی کنم ( 0 = شکست، 1 = موفقیت). با این حال، این برای بسیاری از افراد مختلف (کد) اندازه‌گیری می‌شود، اساساً یک اندازه‌گیری مکرر است و از این رو باید به عنوان یک اثر تصادفی گنجانده شود. هر فردی ممکن است فقط یک موفقیت داشته باشد اما می تواند چندین تلاش داشته باشد. پیش‌بینی‌کننده‌های موفقیت به‌صورت «طول» فرد، «تعداد تلاش»... عاملی از تعداد تلاش، و «جریان» که جریان رودخانه در زمان تلاش است و بنابراین یک متغیر پیوسته است. پیشاپیش ممنون
استفاده صحیح از دوجمله ای منفی با توزیع هندسی در مدل ترکیبی (glmmPQL)
105681
من سعی می کنم داده ها را بر اساس حجم نمونه حدود 50 تجزیه و تحلیل کنم و از مشاوره در مورد اینکه کدام آزمون آماری مناسب تر است، قدردانی می کنم. از شرکت کنندگان در یک پرسشنامه خواسته شد که دو بخش مختلف را تکمیل کنند. متغیر 1: رتبه بندی موارد لایکرت در مقیاس 1-5 (کاملاً موافقم مخالفم). متغیر 2: رتبه بندی آیتم های لیکرت یک ابزار معتبر در مقیاس 1-9، که برای به دست آوردن یک عدد به طور میانگین محاسبه می شود. سوال تحقیق من این است: آیا کسانی که با عبارت بخش اول «موافق» هستند، از نظر نمراتشان در متغیر 2، نسبت به کسانی که «مخالف» هستند، تفاوت معناداری دارند؟ (مثلاً آیا شرکت‌کنندگان تمایل دارند با «من دوست دارم کتاب‌ها را برای لذت بخوانم» موافق باشند. ضریب هوشی بالاتری دارند (متغیر 2) نسبت به کسانی که «مخالف» هستند؟) یکی از همکاران به من توصیه کرد که یک ANOVA یک طرفه را اجرا کنم. متغیر 1 (مقوله ای) به عنوان IV و متغیر 2 (پیوسته) به عنوان DV. سوال 1: متغیر مستقل من سه گروه موافق، خنثی و مخالف است. (من کاملاً موافقم با موافقم به دلیل فرکانس پایین و به همین ترتیب برای کاملاً مخالفم و مخالفم.) با این حال، تعداد شرکت کنندگان در دسته «موافق» بسیار بیشتر از دسته «مخالفم» است. توزیع به طور متوسط ​​حدود 44 موافق، 3 خنثی و 3 مخالف است. آیا اندازه نمونه (بسیار نابرابر) من را از انجام ANOVA یا هر آزمایش دیگری باز می دارد؟ کدام آزمون برای این تحلیل مناسب‌تر است؟ سوال 2: من می خواهم تجزیه و تحلیل را روی تمام موارد لیکرت انجام دهم که بیش از 10 عبارت است. (مثلاً مشاهده اینکه چگونه ضریب هوشی با بسیاری از جملات از جمله «من دوست دارم برای لذت کتاب بخوانم»، «من زیاد تلویزیون تماشا می‌کنم»، «هر هفته بیش از 30 دقیقه ورزش می‌کنم» و غیره همبستگی دارد) من قصد داشتم که یک تصحیح بونفرونی برای تنظیم تست های متعدد انجام دهید. آیا این درست است و به قوی‌تر شدن تحلیل‌های من کمک می‌کند؟ توجه: داده های پیوسته به طور معمول توزیع نمی شوند (چولگی منفی وجود دارد)، اما به نظر می رسد من می توانم چولگی را با استفاده از تبدیل لگاریتمی تصحیح کنم. هر گونه توصیه یا پیشنهادی برای خواندن مقالات قدردانی خواهد شد. متشکرم
مورد Likert به عنوان متغیر مستقل برای ANOVA؟
97390
من دو گروه دارم که در آنها اعضا خاصیتی دارند که یا درست است یا نادرست، یعنی هر عضو یا دارای یک ژن است یا ندارد. من می خواهم آزمایش کنم که آیا از نظر آماری تفاوت معنی داری در تعداد اعضای دارای ژن بین دو گروه وجود دارد یا خیر. اندازه دو گروه یکسان نیست. من تست مجذور کای را بررسی کرده ام اما تا جایی که می توانم بفهمم 0 درجه آزادی دارم به طوری که صدق نمی کند. ایده ای که داشتم این بود که از یک توزیع دوجمله ای با فرکانس یکی از گروه ها استفاده کنم و سپس اعداد گروه دیگر را به آن وصل کنم و احتمال اینکه مقادیر گروه دوم به طور تصادفی اتفاق بیفتد، بود. آیا این بهترین راه برای آزمایش این است؟
آزمون معناداری تفاوت بین دو گروه
97392
هر جا که در مورد بررسی عملکرد مدل‌های GARCH مطالعه می‌کنم، مردم بر نیاز به آزمایش خارج از نمونه (مثلاً ارزیابی پیش‌بینی خارج از نمونه، نصب مجدد خارج از نمونه و بررسی اهمیت و ارزش پارامترها و غیره) تأکید می‌کنند. اکنون من یک برنامه از یک مدل GARCH دارم که در آن مدل فقط برای استخراج نوسانات نمونه مورد نیاز است که برای برازش مدل نیز استفاده می شود. من نمی‌خواهم مدل را تفسیر یا تعمیم دهم، و نمی‌خواهم پیش‌بینی خارج از نمونه انجام دهم. بعد از داشتن نوسان، مدل را دور می اندازم. در این مورد، می‌توانم بگویم که ارزیابی خارج از نمونه اصلاً معنی ندارد. یک مدل کاملاً بیش از حد مناسب تا زمانی که عملکرد درون نمونه خوب باشد، درست است (من مطمئناً ثبات تخمین پارامترها را برای اندازه نمونه معین با استفاده از شبیه سازی مونت کارلو بررسی خواهم کرد!). آیا فکر می کنید این درست است یا من جزئیات مهمی را در تفکر خود از دست داده ام؟
آزمایش خارج از نمونه GARCH در زمینه تحلیل سناریو مورد نیاز است؟
97398
من با یک مدل GARCH-M روبرو هستم که با استفاده از R و EViews تخمین زده ام. در اینجا معادلات میانگین و واریانس آن آمده است. معادله میانگین: $$ y_t=\mu + \rho \sigma^2_t + \varepsilon_t $$ معادله واریانس: $$ \sigma^2_t = \omega + \alpha \varepsilon_{t-1}^2 + \beta \sigma ^2_{t-1} + T$$ که در آن T یک متغیر ساختگی حاوی 0 و 1 برای نشان دادن تغییرات ساختاری است. اینجا نتیجه EViews من است: > ![eviews result](http://s25.postimg.org/m8gc8y6ql/eviews_result.jpg) و کد R من به شرح زیر است: #get data re=read.table(return.csv ,sep=،header=TRUE) ...... xts<-as.xts(re[,-1],order.by=re[,1]) ...... T<- as.matrix(xts[,2]) #GARCH مشخصات garchspec<- ugarchspec (variance.model = list(model = sGARCH, garchOrder = c(1, 1), submodel = NULL, external.regressors = T, variance.targeting = FALSE)، mean.model = list (armaOrder = c(0, 0)، include.mean = TRUE، archm = TRUE، archpow = 1، arfima = FALSE، external.regressors = NULL، archex = FALSE)، توزیع. مدل = ged، start.pars = list()، fixed.pars = list()) #fitting fit<-ugarchfit(spec=garchspec, data=xts[,1], out.sample = 0,solver=solnp, solver.control = list(trace=0), fit.control = list(stationarity = 1, fixed.se = 0, scale = 0, rec.init = 0.7)) show(fit) این نتایج را می دهد: > ![R نتیجه](http://s25.postimg.org/ai2erkdy5/R_result.jpg) همانطور که می بینید، متغیر ساختگی (که با vxreg1 نشان داده می شود) با استفاده از rugarch در R بر خلاف 2.58% p- کاملاً ناچیز است. مقدار در نتیجه EViews. برآوردهای دیگر تفاوت هایی با همتایان خود دارند، اما همه آنها جزئی هستند. من بارها وینیت بسته «rugarch» را بررسی کردم و هیچ اشتباهی در نحو پیدا نکردم و R نیز خطایی را نشان نداد. من تعجب می کنم که مشکل چیست. واقعا ممنون میشم اگه بتونید مشکل من رو حل کنید.
چرا نتایج بسیار متفاوتی از تخمین مدل GARCH-M در EViews و R (rugarch) دریافت می کنم؟
69736
آیا می توان یک انتخاب **تقریبی کاملاً بیزی** (1) از فراپارامترها (مثلاً مقیاس کوواریانس) با کد GPML، به جای حداکثر کردن احتمال حاشیه ای (2) انجام داد؟ من فکر می‌کنم استفاده از **روش‌های MCMC** برای حل انتگرال‌های مربوط به فراپارامترهای قبلی باید به نتایج بهتری در هنگام برخورد با بیش‌برازش منجر شود. تا جایی که من می دانم، چارچوب GPML این محاسبات را شامل نمی شود، اما شاید کدهای شخص ثالث دیگری نیز وجود داشته باشد. * * * (1) ثانیه 5.2، چ. 5 در فرآیند گاوسی برای یادگیری ماشین، راسموسن و ویلیامز، 2006 (2) بخش رگرسیون در اسناد GPML
انتخاب فراپارامتر کاملا بیزی در GPML
97399
من داده های تابلویی در مورد درآمد و جمعیت برای سال های 1990، 1995، 2000 و 2005 دارم. من می خواهم این دو متغیر (هر دو متغیر مستقل) را درون یابی کنم، به طوری که برای هر سال بین سال های 1990 و 2005 داده هایی داشته باشم. بپرسید که آیا درون یابی خطی یا درجه دوم اسپلاین یا روش دیگری برای این کار مناسب تر است؟ من می دانم که درون یابی داده های واقعی را تولید نمی کند بلکه فقط تخمین می زند. اگر از این داده های درون یابی شده در یک رگرسیون پانل برآورد شده با حداکثر احتمال (مثلاً همبستگی خودکار سریال) استفاده کنم، باید به چه مشکلاتی رسیدگی کنم؟ در مورد خودهمبستگی سریالی، ضرایب رگرسیون تحت تأثیر قرار نمی‌گیرند، اما مقادیر t و معنی‌داری، درست است؟
چگونه می توان متغیر مستقل را در دوره پنج ساله درون یابی کرد؟
81481
آیا هدف خاصی از نظر کارایی یا عملکرد وجود دارد که چرا الگوریتم k-means از شباهت کسینوس به عنوان متریک فاصله استفاده نمی کند، بلکه فقط می تواند از هنجار اقلیدسی استفاده کند؟
چرا الگوریتم خوشه بندی k-means فقط از متریک فاصله اقلیدسی استفاده می کند؟
81482
من دو متغیر ترتیبی دارم، و زمانی که مقادیر مورد انتظار برای آزمون دوم کمتر از 5 باشد، از آزمون دقیق فیشر به جای آزمون مجذور کای استفاده می‌کنم. جداول احتمالی من $3\times2$ است. من چند نگرانی دارم: * از آزمون دقیق فیشر، من فقط یک مقدار $p$ انتظار دارم. به هر حال، وقتی آن را در SPSS برای جداول $3\times2$ محاسبه می‌کنم، یک مقدار برای آمار تست نیز دریافت می‌کنم (مانند تست Chi-quare). این به چه معناست؟ آیا باید آن را در نتایج خود گزارش کنم؟ * آیا منطقی است که آمار Chi-square (حتی اگر مقادیر مورد انتظار کمتر از 5 باشد) همراه با نتایج آزمایش دقیق فیشر گزارش شود؟ یا اینکه یک $p$-value از تست فیشر کافی است؟
مقدار تست دقیق فیشر در SPSS
81480
بیایید تصور کنیم که من یک مجموعه داده بسیار نامتعادل با 99.99٪ از 0 و 0.01٪ از 1 در متغیر هدف دارم. کاری که من می خواهم انجام دهم این است که یک طبقه بندی برای این هدف بسازم. حال تصور کنید که این مجموعه داده بسیار بزرگ است (میلیاردها ردیف). آیا خوب است نمونه گیری کنیم مثلاً 200000 نفر 1 و 200000 نفر 0؟ تاثیر انجام این کار در مقابل نمونه گیری تصادفی چه خواهد بود؟ سوال پاداش: (به طور کلی، چه تکنیک هایی برای وزن دادن به مشاهدات بیشتر یا کمتر به منظور بهبود پیش بینی ها وجود دارد؟) بسیار متشکرم.
تاثیر نمونه گیری سوگیری بر آموزش طبقه بندی کننده؟