_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
114488
فرض کنید من احتمال خرید یک ویجت را با استفاده از سن، رنگ چشم و جنسیت خود به عنوان ویژگی های ورودی پیش بینی می کنم. من داده‌هایم را به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم می‌کنم و مدل پیش‌بینی خود را با استفاده از مجموعه آموزشی (بزرگ) آموزش می‌دهم. فرض کنید 15 درصد از افراد در مجموعه آزمایشی با چشم‌های آبی ویجت را خریداری می‌کنند، آیا باید انتظار داشته باشم که میانگین احتمال خرید پیش‌بینی‌شده برای افراد چشم آبی نیز حدود 0.15 باشد (با فرض یک مدل پیش‌بینی خوب)؟ به طور شهودی به نظر می رسد که باید باشد، اما من نمی خواهم فرض کنم که درست است.
آیا میانگین پیش‌بینی برای یک مقدار مشخصه باید با نرخ آن مقدار برابر باشد؟
70433
بیایید بگوییم که من یک داده سری زمانی $Y_{t}$ دارم. من سعی می کنم با استفاده از مدل میانگین متحرک MA(1) با استفاده از روش Box Jenkins پیش بینی کنم. معادله MA(1) به دست آمده از یک کتاب درسی در زیر آمده است. $$ Y_{t} = \theta_{0} + e_{t} + \theta_{1} e_{t-1} $$ من فرض می‌کنم از نوعی بهینه‌سازی غیرخطی برای تخمین ضرایب $\theta_{0} استفاده کنیم. $ و $\theta_{1}$ از طریق حداکثر احتمال یا حداقل مربعات شرطی. سوال من در مورد اولین عبارت خطای $e$ است که $t = 1$ است. 1. آیا اولین عبارت خطای $e_{1}$ نیز به‌طور خودکار توسط بهینه‌سازی تعیین می‌شود؟ 2. مقدار $e_{0}$ چقدر خواهد بود؟ خیلی ممنون
میانگین متحرک عبارت خطای ARIMA
101066
در اینجا این سناریو است، که کمی به یک سناریو رایج تغییر یافته است. کلاهبرداری از کارت اعتباری، پرداخت‌های 12 ماه گذشته (یک پنجره متوالی). با داده های 10 ماه اول آموزش دهید، با داده های 11 اعتبارسنجی کنید و با داده های ماه دوازدهم آزمایش کنید. دلیل من برای این کار این است که وقتی به صورت واقعی استفاده می‌شود، ما همیشه از تاریخچه استفاده می‌کنیم (خواه از همان کارت یا هر چیزی در گذشته، مانند الگوهای تقلب). آیا مشکلات روش شناختی با این رویکرد وجود دارد؟
تقسیم قطار// اعتبارسنجی/ مجموعه های تست بر اساس زمان، درست است؟
112073
من یک متغیر پاسخ دارم، «y.hat»، که تخمینی از فراوانی حیوانات است. من خطای استاندارد «y.hat» را می دانم. من نسبت به توصیه ای مبنی بر استفاده از عدم قطعیت در «y.hat» به عنوان وزن هنگام پسرفت یا کالیبره کردن «y.hat» به متغیر دیگری تردید دارم. چند بخش وجود دارد که باید در نظر گرفته شود. اول، خطای استاندارد «y.hat» تمایل دارد با «y.hat» افزایش یابد. بنابراین تخمین‌های بزرگ فراوانی وزن کمتری نسبت به تخمین‌های پایین‌تر خواهند داشت، که ظاهراً باعث می‌شود تناسب کم سوگیری شود. دوم، متغیر مستقل با 'y.hat' همبستگی مثبت دارد، بنابراین این بدان معنی است که عدم قطعیت بیشتری در سمت راست طرح وجود دارد. این منجر به ناهمسانی می شود، که زمانی است که من فکر می کنم WLS مناسب است. آنچه من فکر می‌کنم در اینجا داریم یک مبادله بالقوه بین تعصب (به دلیل وزن‌های متغیر با «y») در مقابل ناهمسانی سازگار است. اگر عدم قطعیت به طور تصادفی به هر جفت داده اختصاص داده شود، من هنوز نمی‌دانم چرا می‌خواهیم از عدم قطعیت به عنوان وزن استفاده کنیم. در اینجا یک کد R کوچک برای شبیه‌سازی داده‌ای وجود دارد که عدم قطعیت تصادفی است (پیش‌فرض) در مقابل تابعی از «y.hat» (نظر داده شده). این کد به جای پسرفت، «x» را به «y.hat» با استفاده از میانگین نسبت ها کالیبره می کند. نتیجه این است که استفاده از وزن‌ها منجر به یک برآورد مغرضانه از نسبت واقعی (2) می‌شود که عدم قطعیت با «y.hat» مرتبط است، و یک تخمین بی‌طرف اما نسبتاً نادقیق زمانی که عدم قطعیت با «y.hat» مرتبط نیست. آیا درست است که استفاده از عدم قطعیت در تخمین «y» به عنوان وزن در این زمینه نامناسب است؟ N <- 6 تکرار <- 5000 out1 <- ماتریس (NA، تکرار، 2) برای (i در 1: تکرار){ x <- runif(N، 10، 30) y.hat <- rnorm(N، 2* x، 10) #se <- -0.1 + 0.3*y.hat se <- rnorm(N، 7، 4) w <- 1/se^2 out1[i,1] <- mean(y/x) out1[i,2] <- sum(y/x*w) / sum(w) } hist(out1[,1], 50 ) hist(out1[,], 50)
رگرسیون وزنی
6078
من می‌خواهم یک آزمایش مجذور کای روی داده‌ها انجام دهم که به این شکل است: A B 0 0 1 0 0 1 1 1 8 0 3 4 ... می‌توانید هر جفت را به عنوان یک آزمایش با دو شرکت‌کننده در نظر بگیرید. در هر کارآزمایی، تعداد متفاوتی از مشاهدات برای هر شرکت‌کننده وجود دارد. من هر جفت داده را به این صورت باین کرده ام: شمارش کردم که چند جفت برای هر دو جفت 0 دارند (مثلاً 0-0)، چند جفت دقیقاً یک 0 دارند (مثلاً 0-1، 1-0، 8-0، و غیره) و چه تعداد برای هر دو عدد بزرگتر از 0 دارند (به عنوان مثال، 1-1، 3-4، و غیره). این به من شمارش های زیر را می دهد: دو صفر: 227 یک صفر: 277 بدون صفر: 146 مشکل این است که من مطمئن نیستم که چگونه مقادیر مورد انتظار را در اینجا محاسبه کنم. هر جفت نشان دهنده تعداد دفعاتی است که چیزی در یک تعداد دلخواه مشاهدات ظاهر می شود. هر جفت نشان دهنده تعداد متفاوتی از مشاهدات است، و هر عنصر از جفت نیز این کار را انجام می دهد. بنابراین، برای مثال، برای یک جفت 0-1 معین، شرکت‌کننده اول ممکن است 200 مشاهده (بدون ضربه)، و نفر دوم ممکن است 150 مشاهده (با 1 ضربه) داشته باشد. یک جفت 0-1 دیگر ممکن است به ترتیب 100 مشاهده و 50 مشاهده داشته باشد. بنابراین، در این مورد، فقط مجموع تعداد کلی بازدیدها و تقسیم آن بر تعداد کل مشاهدات، مقادیر مورد انتظار درست را به دست نمی‌آورم... آیا من چیزی واضح را در اینجا از دست می‌دهم؟ به عنوان مثال، اگر بدانیم که فرکانس نسبی بازدید در هر مشاهده 0.01217 است، و اگر تعداد مشاهدات متفاوتی برای هر آزمایش وجود داشته باشد، آیا راه ساده ای برای بدست آوردن مقادیر مورد انتظار در مسئله ای مانند این وجود دارد؟ این چیزی است که من می خواهم آزمایش کنم: آیا بازدیدهای بین شرکت کنندگان در هر آزمایش مستقل است یا خیر. من انتظار دارم که با افزایش تعداد بازدیدهای یک شرکت کننده در یک جفت، دیگری نیز افزایش یابد. می‌دانم که ممکن است راه‌های بهتری برای آزمایش این موضوع وجود داشته باشد، اما کمیته من از من خواسته است که در صورت امکان از تست chi-sq استفاده کنم. بنابراین آنچه من انتظار دارم پیدا کنم این است که تعداد آزمایش‌ها در سطل‌های 0-0 و در سطل‌های بدون صفر بیشتر از حد انتظار خواهد بود اگر ضربات به طور مساوی توزیع شوند.
مقادیر مورد انتظار برای تست مجذور کای در شمارش های زوجی باینند
1052
سوال من به ویژه در مورد بازسازی شبکه صدق می کند
تفاوت عمده بین همبستگی و اطلاعات متقابل چیست؟
5352
من یک مجموعه داده دارم که در آن سطح دشواری آیتم‌های من و مهارت شرکت‌کنندگانم ناشناخته است، اما می‌خواهم بتوانم معیارهایی از نحوه انجام تک تک شرکت‌کنندگان در آزمون استخراج کنم. آنچه در ابتدا به ذهن متبادر می شود استفاده از مدل تئوری پاسخ آیتم است. با این حال، من دو محدودیت پیشینی دارم که باعث می‌شود این سؤال را مطرح کنم که آیا IRT می‌تواند با مورد خاص من سازگار شود یا رویکرد بهتری برای استفاده وجود دارد. از آنجایی که دو محدودیت وجود دارد، آنها را به دو سؤال تقسیم می کنم. اگر این سؤالات خیلی ساده هستند، لطفاً من را به یک متن IRT سطح ورودی که پاسخ آن را ارائه می دهد، ارجاع دهید. سوال اول این است: من می دانم که سختی آیتم های من به طور یکنواخت افزایش می یابد، منظورم این است که می دانم مورد A از آیتم B سخت تر است و غیره، اما نمی دانم تا چه حد مورد A از آیتم سخت تر است. ب. آیا راهی برای ساخت یک مدل تئوری پاسخ آیتم برای تنظیم مدل وجود دارد تا پارامترهای سختی آیتم مجبور شوند این را منعکس کنند؟ P.S. من نتوانستم تگ های مناسبی برای این سوال بیاندیشم، اگر پیشنهادی دارید لطفاً خودتان ویرایش ها را انجام دهید یا در نظرات پیشنهاد دهید.
آیا راهی برای قرار دادن محدودیت‌های پیشینی بر دشواری آیتم در تئوری پاسخ آیتم وجود دارد؟
114486
من مجموعه داده ای از بازی های NFL دارم. هر بازی دارای یک ردیف برای هر تیم در بازی است. ردیف هر تیم شامل آمار تیم در آن بازی (مانند امتیازات کسب شده، یاردی های پاس، تلاش های منطقه قرمز و غیره)، آمار تیم در چهار بازی قبلی تیم و آمار حریف تیم در چهار بازی قبلی است. بنابراین، برای مثال، یک ردیف ممکن است شامل یاردهای پاس یک تیم در بازی «gt» باشد، مجموع یاردهای پاس آن تیم روی بازی‌های «gt - 4» تا «gt - 1»، و یاردهای پاس حریف تیم در بازی‌های «gogo» مجاز است. - 4` تا «برو - 1». چیزی که من دریافتم این است که برای برخی از آمارها، مجموع چهار بازی قبلی یک تیم (و احتمالاً مجموع چهار بازی قبلی حریف) پیش بینی بهتری از کاری که آنها در یک بازی انجام خواهند داد نسبت به یک رگرسیور تصادفی جنگلی که در همه موارد تمرین کرده است، ارائه می دهد. متغیرها با استفاده از مثال بالا: >>> # کلید که با tm_ شروع می شود، آمار تیم را در این بازی نشان می دهد >>> # کلید که با _tm_ شروع می شود، آمار تیم را در 4 بازی قبلی نشان می دهد >>> # کلید که با شروع می شود. _op_' نشان دهنده آمار حریف (مجاز) بیش از 4 مورد قبلی >>> >>> از scipy.stats.stats import pearsonr >>> از sklearn.ensemble import RandomForestRegressor >>> >>> # محاسبه r-squared بین یاردهای عبور از 4 یارد قبلی و یاردهای عبور >>> r, p = pearsonr(df['_tm_py'], df['tm_py']) >>> r* *2 0.10695998799573359 >>> >>> # برای پیش بینی از یک رگرسیون جنگل تصادفی استفاده کنید رد کردن یاردها با استفاده از تمام ویژگی‌های مجموعه داده >>> rgr = RandomForestRegressor(n_jobs=-1, max_features=هیچ‌کدام, n_estimators=500, oob_score=True) >>> rgr.fit(df[ویژگی‌ها], df['tm_py ']) RandomForestRegressor(bootstrap=True, compute_importances=هیچکدام، criterion='mse'، max_depth=هیچکدام، max_features=هیچکدام، max_leaf_nodes=هیچکدام، min_density=هیچکدام، min_samples_leaf=1، min_samples_split=2، n_estimators=500_jobs,-1، random_state=هیچکدام، verbose=0) >>> rgr.oob_score_ 0.099712596456913757 >>> >>> >>> # چاپ 10 ویژگی مهم >>> برای f, i در sorted(zip(features, rgr.feature_importances_ )، کلید = لامبدا x: x[1]، معکوس = درست)[:10]: print f, ' \t', round(i, 4) ... _tm_py 0.0929 _tm_rzpy 0.0098 _op_py 0.008 _tm_pts 0.0075 _tm_pc 0.0071 _tm_sfpy 0.007 _tm_sfpy 0.007 _tm_06d 0.007 _tm_06 _op_p2y 0.0065 _tm_p2y 0.0065 همانطور که می بینید، یاردهای عبور یک تیم در چهار بازی قبلی مهم ترین ویژگی برای پیش بینی یاردی پاس آنها است (به دنبال آن یاردهای عبور تیم در منطقه قرمز از چهار بازی قبلی آنها و یاردهای عبور حریف از آنها مجاز است. چهار بازی قبلی حریف). با این حال، «oob_score_» برای رگرسیون جنگل تصادفی کمتر از r-squared بین «tm_py» و «_tm_py» است. چرا این است؟ آیا به این دلیل است که همه ویژگی های دیگر به نوعی رابطه مستقیم بین این دو متغیر را آلوده می کنند؟ آیا ممکن است استفاده از یک همبستگی خطی بین یک ویژگی واحد و هدف بتواند بهتر از استفاده از یک رگرسیون تصادفی جنگل بین بسیاری از ویژگی ها و هدف باشد؟
چرا رگرسیون جنگل تصادفی بدتر از خودرگرسیون عمل می کند؟
111673
می‌خواهم بپرسم چگونه می‌توانم مقادیر گمشده طبقه‌ای را با مرجع جایگزین کنم؟
جایگزینی مقدار گمشده دسته بندی
7343
فرض کنید من یک تابع f دارم و می‌خواهم آن را در 100 نقطه در بازه [0، 100] نمونه‌برداری کنم. بنا به دلایلی (که در آن زمان به نظر من هوشمندانه به نظر می رسید)، تصمیم گرفتم در فواصل زمانی مساوی نمونه برداری نکنم، بلکه از تابع زیر برای تعیین نقاط نمونه استفاده کنم: log2(x)*(100/log2(100)) من دنباله ای از نقاط نمونه که با نزدیک شدن به 100 متراکم تر می شود. نمونه برداری که به شدت مغرضانه خواهد بود. من نمی‌توانم داده‌ها را مجدداً نمونه‌برداری کنم، این کار خیلی طول می‌کشد (چند روز)، و من در یک برنامه بسیار فشرده هستم. بنابراین راه حلی که به ذهن می رسد محاسبه میانگین وزنی برای تصحیح خطا است. سوال من این است که چگونه وزن ها را تعیین کنم؟
چگونه توزیع ناهموار نمونه را هنگام محاسبه میانگین تصحیح کنیم؟
5351
من این سوال را دیروز در StackOverflow پرسیدم و پاسخی دریافت کردم، اما توافق کردیم که کمی هک به نظر می رسد و ممکن است راه بهتری برای بررسی آن وجود داشته باشد. سوال: من می خواهم خطاهای استاندارد نیوی وست (HAC) را برای یک بردار (در این مورد بردار بازده سهام) محاسبه کنم. تابع NeweyWest() در بسته ساندویچ این کار را انجام می دهد، اما یک شی lm را به عنوان ورودی می گیرد. راه حلی که Joris Meys ارائه کرد این است که بردار را بر روی 1 طرح ریزی کنیم، که بردار من را به باقیمانده تبدیل می کند تا به NeweyWest() تغذیه شود. یعنی: as.numeric(NeweyWest(lm(rnorm(100) ~ 1))) برای واریانس میانگین. آیا باید این کار را انجام دهم؟ یا راهی وجود دارد که بتوانم مستقیم‌تر آنچه را که می‌خواهم انجام دهم؟ با تشکر
خطاهای استاندارد نیوی وست را بدون شیء lm در R محاسبه کنید
101064
من کاملاً در R مبتدی هستم و می خواهم کاری را انجام دهم که فکر می کنم قابل مدیریت است، اما هنوز در حال کشف چگونگی آن هستم. من یک جدول احتمالی مانند این دارم: contingency.table= feature1.A feature1.B feature1.C feature2.A feature2.B .. group1 12 13 2 4 54 group2 44 43 6 43 56 group3 2 45 32 53 65 ویژگی ها ممکن است متفاوت باشد در مورد اینکه چند واحد فرعی دارد (یا دو یا سه) اما هر ویژگی یک واحد دارد پیشوند (مانند 'feature1' و غیره) من می خواهم یک زیر ماتریس از ویژگی ها را چاپ کنم که داده های هر ویژگی را داشته باشد. بنابراین ماتریس فرعی 3 (برای ویژگی 3) به این شکل خواهد بود: feature3.A feature3.B group1 12 13 group2 44 43 group3 2 45 یک ایده برای پیاده سازی (در صورت داشتن 3 واحد فرعی ثابت) مانند ویژگی ها خواهد بود = length(contingency.table)/3 i=1 while (i < ویژگی ها) { print(contingency.table[,i:(i+2)]) i=i+3 } بنابراین این حلقه while به سادگی از طریق هر ۳ ستون تکرار می شود. اما اگر ممکن است 2 ستون داشته باشیم چه باید کرد؟ هر ایده ای؟
استفاده از تابع تقسیم در جدول احتمالی
70434
فرض کنید من یک مدل رگرسیونی \begin{align} Y = X\beta_X + Z_1 \beta_{Z_1} + Z_2 \beta_{Z_2} + \varepsilon \end{align} دارم که در آن $X$ برخی از کنترل‌ها هستند و $Z_1 $ و $Z_2$ دو مجموعه از متغیرهای ساختگی ($\\{0,1\\}$-valued) هستند. من فرض می‌کنم که $Z_2$ به $Z_1$ بستگی ندارد، اما $Z_1$ ممکن است به $Z_2$ بستگی داشته باشد به این معنا که احتمال اینکه عنصر Z_1$ ممکن است تحت‌تاثیر مقدار $Z_2$ قرار گیرد. من می‌خواهم اطلاعات (تغییر) در $Z_2$ را به مؤلفه‌ای تجزیه کنم که $Y$ را فقط از طریق $Z_1$ تحت تأثیر قرار می‌دهد، و یک باقیمانده که مستقیماً روی $Y$ تأثیر می‌گذارد. اگر $Z_1$ پیوسته بود، می‌توانم کاری مانند پسرفت (هر مختصات) $Z_1$ روی $Z_2$ انجام دهم، سپس $Y$ را روی مقادیر برازش پس‌انداز کنم. مشابه طبیعی این، مثلاً برازش یک مدل رگرسیون _logistic_ (یا مشابه) برای $Z_1$ خطی بودن را رها می‌کند، قابلیت تفسیر را از دست می‌دهد و محاسبه آن زمان بسیار بیشتری می‌برد. من از هرگونه بینشی در مورد ادبیاتی که به این مشکل یا مشکلات مشابه می پردازد قدردانی می کنم.
تجزیه رگرسیون برای متغیرهای ساختگی
29883
من چند اندازه گیری برای یک متغیر محیطی در مکان های مختلف (7 ایستگاه اندازه گیری) به عنوان سری زمانی با میانگین برای هر سال دارم. برای مکان های منفرد من انحراف سال های منفرد از میانگین بلند مدت را محاسبه کرده ام. انحرافات سالانه معمولاً توزیع نمی شوند زیرا روندهایی در داده ها وجود دارد. من نمی توانم این روندها را توصیف کنم زیرا دانش کافی در مورد تأثیرات آن ندارم. علاوه بر این، داده‌های مکان‌های منفرد به دلیل تأثیرات محلی، روندهای متفاوتی را نشان می‌دهند. همچنین اوج مطلق مقدار اندازه گیری برای مکان های منفرد متفاوت است (بیش از 10٪ در متوسط ​​بلند مدت). برای دریافت ایده ای در مورد مقایسه مکان ها با یکدیگر، من ریشه نسبی میانگین مربع انحراف سال ها را از میانگین بلند مدت و صدک 5 و 95 انحرافات نسبی محاسبه کردم تا یک بازه پوشش متقارن برای عدم قطعیت در سطح 90 درصد نتایج من به شرح زیر است: مکان RMSD[%] P5[%] P95[%] 1 3.8 -5.6 -1.3 2 3.1 -5.1 5.2 3 5.1 -0.6 8.6 4 3.3 -6.2 3.6 5 3.8 -6.7 2.8 1.8 2.8 -6.7 2.8 3.7 -6.1 3.9 من می‌خواهم برآوردی از انحراف مورد انتظار یک سال از میانگین بلندمدت و عدم قطعیت انحراف برای یک مکان دلخواه در منطقه‌ای که اندازه‌گیری‌ها از آن گرفته شده است را به دست بیاورم. یک راه معتبر آماری برای انجام این کار چیست؟ من به استفاده از میانگین در تمام مکان‌های اندازه‌گیری که دارم فکر می‌کنم، اما از آنجایی که مکان‌ها بسیار متفاوت از مکان‌های دیگر هستند، مطمئن نیستم که خوب باشد یا خیر.
انحراف و عدم قطعیت مورد انتظار برای تعدادی از اندازه‌گیری‌های محیطی
7344
من سعی می کنم تابعی بنویسم تا به صورت گرافیکی روابط پیش بینی شده در مقابل واقعی را در یک رگرسیون خطی نمایش دهد. آنچه من تا به حال دارم برای مدل های خطی به خوبی کار می کند، اما می خواهم آن را به چند روش گسترش دهم. 1. مدل‌های glm را مدیریت کنید. 2. با NAها در مقادیر پیش‌بینی‌شده برخورد کنید آیا آنچه من تا کنون دارم راه‌حل خوبی به نظر می‌رسد یا بسته‌ای موجود در جایی وجود دارد که قبلاً این را اجرا کرده است؟ DF <- as.data.frame(na.exclude(airquality)) DF$Month <- as.factor(DF$Month) DF$Day <- as.factor(DF$Day) my_model <- lm(Ozone~Solar .R+Wind+ Temp+Month+Dy,DF) PvA<- function(model,varlist=NULL,smooth=.5) { #Plot پیش بینی شده در مقابل واقعی برای مدل indvars <- attr(terms(model),term.labels) if (is.null(varlist)) { varlist < - indvars } Y <- as.character(as.list(attr(terms(model)،variables))[2]) P.Y <- paste('P',Y,Sep='.') DF <- as.data.frame(get(as.character(model$call$data))) DF[,P.Y] <- predict.lm(model) par(ask=TRUE) برای (X در varlist) { print(X) A <- na.omit(DF[,c(X,Y)]) P <- na.omit(DF[,c(X,P.Y)]) نمودار(A) نقاط(P,col=2) خطوط(lowess(A,f=smooth),col=1) خطوط(lowess(P,f= smooth),col=2) } } PvA (my_model)
چگونه می توان مقادیر پیش بینی شده و واقعی را از رگرسیون چند متغیره در R به صورت گرافیکی مقایسه کرد؟
114480
من سعی می کنم نتایج یک مدل رگرسیون تلفیقی را که از این مقاله بدست می آید درک کنم http://repository.cmu.edu/cgi/viewcontent.cgi?article=1010&context=sds این یک آزمایش اقتصاد رفتاری است که برای اندازه گیری «پیشنهادها» انجام شده است. ساخته شده در گروه های مختلف مردم در 20 دوره زمانی. چهار «درمان» در حال مقایسه هستند (به نام‌های UG، PC2، RC2 و RC5، فرقی نمی‌کند که چقدر تفاوت دارند، اما نویسندگان اساساً علاقه‌مند هستند که ببینند تکامل پیشنهادات در 20 دوره زمانی بین درمان‌ها چگونه متفاوت خواهد بود). . حجم نمونه بسیار کوچک در هر درمان وجود دارد (همیشه کمتر از 6 گروه در هر درمان). در اینجا جدولی است که نتایج آنها را خلاصه می کند: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/ug9bZ.png) چند چیز وجود دارد که من در مورد آن نتایج نمی فهمم: * نویسندگان می گویند آنها چهار درمان UG، RC2، RC5 و PC2 را ترکیب کردند. اما این چهار درمان واقعاً با مقطعات یا واحدها متفاوت مطابقت ندارند، زیرا از نظر تجربی بسیار متفاوت هستند. به جای آن چه چیزی باید ادغام شود، سری زمانی برای هر گروه در هر درمان است، درست است؟ * نویسندگان می گویند که آنها چهار درمان را با هم ترکیب می کنند با UG که دسته حذف شده است. این دقیقا به چه معناست؟ من قبلاً این را در یک رگرسیون تلفیقی ندیده بودم. * به نظر شما چرا آنها از آزمون والد برای آزمایش اهمیت نتایج استفاده کردند؟ اگر سؤالات من خیلی کلی هستند، از هر منبع آنلاینی که می توانید برای درک بیشتر آنچه در این تجزیه و تحلیل انجام شده است به من اشاره کنید، قدردانی می کنم.
تعریف مقطع در رگرسیون تلفیقی
1054
دستور معادل در R برای دستور 'stcox' در Stata چیست؟
دستور R برای stcox در Stata
70435
انحراف استاندارد با $\sqrt(Sampling\\_Rate)$ (سازگاری MLE) نسبت معکوس دارد. آیا رضایت کاربر از کاهش خطا با افزایش نرخ نمونه‌برداری می‌تواند به نحوی غیر از روش واضح انجام مطالعه کاربر مدل‌سازی شود؟ آیا ادبیاتی وجود دارد که ایده های مشابهی را مورد بحث قرار دهد؟
مدل سازی رضایت کاربر با افزایش نرخ نمونه گیری
29882
سوال این است که به سادگی آنچه در عنوان آمده است: ** چه زمانی قانون اعداد بزرگ شکست می خورد؟** منظور من این است که در چه مواردی فراوانی یک رویداد به احتمال نظری تمایل ندارد؟
قانون اعداد بزرگ چه زمانی شکست می خورد؟
29962
من از رویکرد مونت کارلو برای تخمین فاصله پیش‌بینی برای مشاهده جدید از یک GLM با استفاده از توزیع دوجمله‌ای منفی استفاده کردم. من از این روش برای مدل‌های خطی استفاده کردم و تخمین‌های قابل اعتمادی از فاصله پیش‌بینی به دست آوردم، اما به اندازه کافی از آمار اطمینان ندارم تا بدانم آیا این روش می‌تواند برای توزیع‌های غیر گاوسی نیز اعمال شود یا خیر. میشه لطفا بگید استفاده ازش منطقی هست یا نه؟ روش: 1. se مقدار مورد انتظار را با رویکرد Wald (در پیوند) محاسبه کنید. 2. برای استفاده از این se برای 1000 مقدار ساده تصادفی از یک توزیع گاوسی با مقدار مورد انتظار $\mu$ و se به عنوان $\sigma$. 3. برای هر مقدار تصادفی، به طور تصادفی 1000 مقدار از یک توزیع دوجمله ای منفی با نمایی از مقدار تصادفی به عنوان mu نمونه برداری کنید. 4. فاصله پیش بینی به عنوان چندک 2.5 و 97.5 از مقادیر تصادفی 1e6 به دست آمده برای یک مقدار مورد انتظار محاسبه شد. آیا این روش شناسی منطقی است؟ با احترام، ماکسیم
روش تخمین فاصله پیش‌بینی برای GLM و توزیع دوجمله‌ای منفی
111115
من می خواهم احتمال ورود به سیستم توزیع مشترک 2 متغیر تصادفی را تخمین بزنم، که هر کدام از ترکیبی از 2 توزیع گاوسی پیروی می کنند. آیا راه حلی برای آن وجود دارد؟
احتمال توزیع مشترک 2 مخلوط گاوسی
111118
با توجه به اینکه ما یک متغیر وابسته باینری و 100 ویژگی و 50 هزار مشاهدات داریم، آیا روش کلی پذیرفته شده ای برای کوتاه کردن ویژگی ها از طریق نوعی مفهوم یادگیری ماشین وجود دارد؟ من یک رگرسیون کمند را امتحان می کردم تا ویژگی ها را به صفر برسانم، اما فقط نشان داد که هیچ چیز قابل توجهی نیست. من می توانم چندین مورد را با دست انجام دهم که قطعاً مهم هستند، بنابراین باید کار اشتباهی انجام دهم. اگر نوع خاصی از انتخاب را داشتم که باید به آن نگاه کنم، احساس راحتی بیشتری می کردم که در مورد آن مفهوم خاص یاد بگیرم و بدانم که از نظر تئوری باید برای من کارساز باشد. با عرض پوزش، من کاملاً در این مورد غافل هستم و فقط به دنبال یک جهت کلی هستم.
انتخاب ویژگی با یک متغیر وابسته باینری
11049
من مجموعه داده ای از 380 نمونه از 6 متغیر دارم. این متغیرها تعداد انواع مختلف رویدادها در هر یک از 380 منطقه تعریف شده هستند. این تعداد در ماه است، به این معنی که من چندین مورد از این مجموعه داده ها را دارم (در حال حاضر فقط چهار ماه فرصت دارم). وقتی به داده ها نگاه می کنم، به وضوح می توانم ببینم که برخی از داده های گم شده (یا ناقص) وجود دارد. به عنوان مثال، شمارش برای یک منطقه معین تقریباً برای همه ماه ها یکسان است، به جز یک (جایی که نزدیک به صفر است). با این حال، بعید به نظر می‌رسد که در این دوره اتفاقات کمی رخ داده باشد. آنچه من می خواهم این است که بتوانم با داده های چند ماهه، مقادیر گم شده یا ناقص را شناسایی کنم و احتمالاً آنها را تصحیح/تکمیل کنم. تشخیص مقادیر از دست رفته به اندازه جستجوی صفرها واضح نیست، زیرا ممکن است اتفاقی بیفتد که در برخی مناطق هیچ رویدادی رخ نداده باشد. من چند چیز در مورد فاکتورسازی ماتریس خواندم، اما مطمئن نیستم که در مورد من صدق کند. به نظر می رسد برای مواردی که می دانید چه داده هایی از دست رفته است مناسب است. من فرض می‌کنم این نوع مشکل بسیار رایج است، به عنوان مثال در زیست‌شناسی برای تخمین جمعیت.
چگونه می توان داده های گم شده یا ناقص را تشخیص داد (و احتمالاً تخمین زد / درون یابی کرد؟
94579
با اشاره به این پاسخ تفاوت بین شبکه بیزی و شبکه عصبی و استنتاج علی، به مدل های گرافیکی دیگری (1) نقشه شناختی فازی و (2) شبکه عصبی فازی- عصبی (3) شبکه عصبی فازی در کنار مدل های گرافیکی محبوب مانند شبکه باور بیزی برخوردم. ، شبکه های پتری، مدل مارکوف و درخت های تصمیم. **درک من ** \- همه شبکه های فوق به جز مدل NN از نظر بصری رابطه علت و معلولی. سیستم های شبکه بیزی (BN)، نقشه شناختی فازی (FCM) و سیستم های فازی عصبی (NF) مدل های گرافیکی غیر چرخه ای هدایت شده هستند. FCM مبتنی بر شبکه عصبی است، اما گره‌ها (متغیرهای) آن مفاهیم/زمینه‌های دنیای واقعی مانند اهداف، اشیاء و غیره را نشان می‌دهند. در حالی که، NN یک جعبه سیاه است و به سختی می‌توان فهمید که در واقع چه اتفاقی می‌افتد (در مورد این نکته مطمئن نیستم). FCM از همان قانون استنتاج و الگوریتم های یادگیری مانند NN پیروی می کند. FCM مقادیر فازی را در گره ها و لبه های خود رمزگذاری می کند در حالی که BN این کار را نمی کند. به غیر از این، آیا تفاوت دیگری بین BN و FCM وجود دارد؟ دسته بعدی سیستم NF است. من واقعاً گیج هستم که تفاوت بین NF، NN و FCM چیست زیرا ما شبکه های عصبی داریم که قوانین فازی و مقادیر فازی را نیز رمزگذاری می کنند. بنابراین، سوالات من این است که تفاوت ها، رابطه بین باور بیزی، FCM، سیستم فازی عصبی و مدل مارکوف چیست. در سوال قبلی من پاسخ سوال قبلی را برای تفاوت بین BN و NN دریافت کردم.
تفاوت بین شبکه گرافیکی فازی، مدل مارکوف و شبکه بیزی
10024
طبق ویکی، پرکاربردترین معیار همگرایی «تخصیص تغییر نکرده است» است. می خواستم بدانم اگر از چنین معیار همگرایی استفاده کنیم آیا دوچرخه سواری می تواند رخ دهد؟ خوشحال می شوم اگر کسی به مقاله ای اشاره کند که مثالی از دوچرخه سواری می دهد یا ثابت می کند که این غیرممکن است.
دوچرخه سواری در الگوریتم k-means
8642
من می خواهم یک آزمایش تک دنباله را روی یک نمونه واحد از اعداد واقعی (N~100) در برابر مقدار مورد انتظار انجام دهم. مشخص است که جمعیت به طور معمول توزیع نشده است. بنابراین از آنچه در مورد آمار خوانده‌ام، می‌توانم با استفاده از (i) تست Wilcoxon، یا (ii) داده‌های نمونه خود را بوت استرپ کنم و سپس یک آزمون t معمولی را انجام دهم. آیا این درست است؟ کدام روش برای به حداقل رساندن خطای نوع I ترجیح داده می شود و در صورت امکان لطفاً چرا؟
تفاوت بین bootstrapping t-test و استفاده از یک تست ناپارامتریک چیست؟
110646
فرض کنید $\boldsymbol \beta \in \mathbb{R}^k$ یک بردار از ضرایب برای یک مدل خطی تعمیم یافته با $g \left[E(Y|X) \right] = X\beta$ برای یک تابع پیوند است. $g$ و من می خواهم فرضیه ترکیبی $H_0 را آزمایش کنم: \beta_k =0$ در مقابل $H_1: \beta_k \neq 0$ که در آن سایر پارامترها $\beta_{-k}$ پارامترهای مزاحم هستند. من می توانم این کار را با یک تست نسبت احتمال انجام دهم. به طور رسمی، آزمون نسبت درستنمایی چنین فرضیه ترکیبی 2 برابر اختلاف احتمالات ثبت نام محدود و محدود حداکثر شده است: $$ \lambda = 2 \left[ L^* - L_{\beta_k = 0}^* \right ] $$ که در آن $$L^* = \sup_{\beta \in \mathbb{R}^k} L(y, \boldsymbol{\beta}) \quad (a) $$ $$L_{\beta_k = 0}^*= \sup_{\beta_{-k} \in \mathbb{R}^{k-1}، \ beta_k=0} L(y, \boldsymbol{\beta}) \quad (b) $$ و $L(y, \boldsymbol \beta)$ احتمال گزارش داده‌ها است $y$ با پارامتر $\boldsymbol \beta$ ارزیابی شد. اما در عمل، در عوض، همه حداکثر کردن محدود شده $L_{\beta_k = 0}^*$ را با $$ L^*_{-k} = \sup_{\beta_{-k} \در R^{k-1 جایگزین می‌کنند. }} L_{k-1} (y، \boldsymbol{\beta}) \quad (c) $$ که $L_{-k}$ احتمال ورود به سیستم مدل $g است \left[ E(Y|X) \right] = X_{-k}\beta_{-k}$ که آخرین متغیر کمکی را حذف می‌کند، مانند تجزیه و تحلیل انحراف. آیا این جایگزینی از طریق استدلالی مانند قضیه slutsky در مورد نرخ همگرایی که $L^*_{k-1}$ باید به $L_{\beta_k = 0}^*$ ( _eg_ حداقل به سرعت $O) توجیه شود (n)$؟) یا چیزی را گم کرده ام که در واقع به این معنی است که دو کمیت در نمونه های محدود یکسان هستند؟ با فرض اینکه آنها متفاوت باشند، آیا کسی مرجعی دارد که تفاوت های نمونه محدودی که این دو تخمین دارند را مورد بحث قرار دهد؟ ## ویرایش -- خب این خجالت آور است با کمی تفکر بیشتر در مورد حداکثر سازی در (b) و (c) واضح است که آنها همان برنامه را حل می کنند، بنابراین کل این تمرین بد بود. \begin{eqnarray*} \sup_{\beta_{-k} \in \mathbb{R}^{k-1}، \beta_k=0} L(y، \boldsymbol{\beta}) و= \sup_ را بنویسید {\beta_{-k} \in \mathbb{R}^{k-1}، \beta_k=0} L(y، [\beta_{-k}، \beta_k]) \\\ & = \sup_{\beta \در \mathbb{R}^k} \begin{موارد} L(y، [\beta_{-k}، \beta_k]) و \beta_k=0 \\\ -\infty & \beta_k \neq 0 \end{cases} \\\ & = \sup_{\beta \in \mathbb{R}^k} \begin{cases} L_{-k}(y، \beta_{-k}) & \beta_k=0 \\\ -\infty & \beta_k \neq 0 \end{موارد} \\\ & = \sup_{\beta_{-k } \in \mathbb{R}^{k-1}} L_{-k}(y, \beta_{-k}) \end{eqnarray*}
حداکثر سازی محدود و آزمون های نسبت درستنمایی برای مدل های خطی تودرتو
110765
من در تلاش برای بهبود کنترل کیفیت کارخانه هستم. من چند متغیر از فرآیند ذوب دارم (چیزی شبیه ده متغیر کنترلی) که زمان اولیه تغییر می کند (ماتریسی از مقادیر آن کنترل ها در دقیقه)، و در پایان من یک امتیاز کیفیت برای محصول نهایی دارم (یک متغیر منفرد) . من برای هر دسته تولید یکی از اینها را دارم. می‌خواهم بدانم آیا می‌توانید به من کمک کنید تا بگویم چگونه می‌توانم به دنبال همبستگی با نمره کیفیت در آن ماتریس باشم. من می دانم که می توانم به هر متغیر کنترلی به تنهایی نگاه کنم، اما آن متغیرها با یکدیگر تداخل دارند. بنابراین لازم است به سیستم به عنوان یک نگاه کنیم. متشکرم.
نحوه محاسبه همبستگی بین متغیر و ماتریس متغیرها
11048
من می‌خواهم میزان تقلبی که یک خرده‌فروش بر اساس فروش کوپن غذا در فروشگاه‌های دیگر مرتکب شده است را تعیین کنم. خرده فروش هم فروش مشروع کوپن غذا داشت و هم فروش نامشروع. فروش غیرقانونی شامل کوپن‌های غذایی بود که برای خرید اقلام نامناسب استفاده می‌شد یا کوپن‌های غذای آب پنیر به طور غیرقانونی در ازای نقدی بازخرید می‌شد. من مقدار کل فروش کوپن های غذا را می دانم، اما این رقم کل فروش های مشروع و نامشروع را نشان می دهد. آیا می‌توان میانگین فروش کوپن غذا از سایر فروشگاه‌ها را با خرده‌فروش به‌گونه‌ای مقایسه کرد که از نظر آماری دقیق باشد؟ اگر بله، این نمونه از فروشگاه های دیگر چقدر باید باشد؟ ممنون جان
سهم بازار بر اساس مقایسه میانگین فروش رقبا
71486
من سه مجموعه دارم و اندازه آنها و اندازه تقاطع آنها را می دانم، بگو: A اندازه = 1000 A متقاطع B اندازه = 200 B اندازه = 3000 B متقاطع C = 120 C اندازه = 5000 A متقاطع C = 0 آیا می توان اینها را تجسم کرد. دقیقاً با نمودار حباب اکسل تنظیم می شود؟ آیا ابزار رایگانی برای **ویندوز** برای تجسم این مجموعه ها وجود دارد با تشکر از توجه شما.
مجموعه ها را دقیقا تجسم کنید
5359
> عناصر مورب Psi (...) واریانس های نویز مستقل را برای > هر یک از متغیرها > > C.M نشان می دهند. Bishop، _Pattern Recognition and Machine Learning_...اما من نمی دانم Psi به چه معناست. من FA را برای یک سری از تصاویر اعمال کردم، ماتریس Psi را دریافت کردم و اکنون با تفسیر نتایج درگیر هستم.
اصطلاح Psi در تحلیل عاملی به چه معناست؟
114548
من سعی می کنم با تعیین اینکه آیا یک نمونه داده با مجموعه ای از نمونه های موجود مطابقت دارد یا خیر (اگر کمک می کند DNA را فرض کنید) افراد را شناسایی کنم. علاوه بر نمونه ها، تابعی دارم که احتمال می دهد دو نمونه یک تطابق را نشان دهند. یعنی من دارم: * $X$ نمونه جدیدی است که از یک شخص گرفته ام * $\\{ S_1 ... S_N \\}$ مجموعه ای از نمونه های ذخیره شده قبلی * یک تابع $f(A, B )$ که احتمال اینکه A و B نشان دهنده یک تطابق هستند را برمی گرداند (یعنی از یک فرد هستند) آنچه من می خواهم بدانم این است که چگونه این اطلاعات را ترکیب کنم تا یک امتیاز احتمال منفرد ایجاد شود که من مطابقت دارم. من استنتاج بیزی را بررسی کرده‌ام، اما نمی‌توانم بفهمم ارزش‌های من چگونه با احتمالات فرمول منطبق می‌شوند. مثال‌هایی که پیدا کردم فرض می‌کنند که من راهی برای محاسبه $P(E|H)$ دارم، احتمال یک نمونه تطبیق داده شده با نمونه مشابه قبلی. اما تنها چیزی که به نظر می‌رسد این است که $P(E)$ احتمال نهایی یک نمونه مطابق است. چگونه می توانم ارزش مورد نظر خود را از جزئیاتی که دارم بدست بیاورم؟ بدیهی است که نیازی به استفاده از استنتاج بیزی ندارد، زیرا مطمئن نیستم که آیا این رویکرد صحیح است یا خیر. _توجه: در واقع باید شواهد را نیز وزن دهی کنم. مقایسه با برخی از نمونه های قبلی باید وزن کمتری در احتمال نهایی داشته باشد. اگرچه من فکر می کنم پاسخی که این را نادیده می گیرد ممکن است برای قرار دادن من در مسیر درست کافی باشد._
ترکیب احتمالات مبتنی بر شواهد وزن دار؟
29886
ما یک پرسشنامه ایجاد کرده ایم. در این پرسشنامه ابعاد مختلف با مقیاس های پاسخگویی متفاوت وجود دارد. به دلیل داده‌های ما که به درستی منحرف شده‌اند، به سیستم وارد شده‌ایم، داده‌هایمان را تغییر داده‌ایم. اما نکته اینجاست: به دلیل مقیاس‌های پاسخ‌دهی متفاوت (برخی لیکرت 5، برخی لیکرت 7 و حتی مقیاس دوگانه) پیشنهاد داده‌اند که داده‌های ما را به امتیازهای z تبدیل کنیم. اگر داده‌ها تبدیل به گزارش نشده باشند، این امر قابل اجرا خواهد بود، اما آیا تبدیل امتیازهای تبدیل‌شده گزارش به z-score مفید (امکان) است؟ P.s.) در نهایت می خواهیم یک همبستگی دو متغیره و رگرسیون خطی (با SPSS 16) انجام دهیم.
آیا امکان (یا حتی مفید) تبدیل داده های تبدیل شده Log به Z-score وجود دارد؟
110399
من سعی می کنم عملکرد یک حساب سرمایه گذاری را در 20 سال تخمین بزنم. سوال این است که آیا شبیه سازی مونت کارلو را درست تنظیم کرده ام؟ من از اکسل استفاده کردم من 8% متوسط ​​بازده و 13% نوسان و اندازه حساب اولیه 100000 دلار را در نظر گرفته ام. من یک بازگشت تصادفی را با استفاده از تابع norminv(rand(),mean,StDev) ایجاد می کنم. من پارامتر میانگین را روی 100000 * 0.08 $ و پارامتر انحراف استاندارد را روی 100000 $ * 0.13 تنظیم کردم. این منجر به سود یا ضرر تصادفی دلاری می شود که من به اندازه حساب اولیه خود اضافه می کنم. این بازده شبیه سازی شده من را برای سال اول ایجاد می کند. در ردیف بعدی دقیقاً همین کار را انجام می‌دهم با این تفاوت که بازدهی تصادفی تولید شده را بر اساس نتیجه در ردیف بالا قرار می‌دهم، نه بر اساس مقدار شروع 100000 $. من این کار را 18 بار دیگر در 18 ردیف بعدی انجام می دهم. این به من یک شبیه سازی از 20 سال بازگشت می دهد. سپس همین کار را در 99 ستون مجاور انجام می دهم. این به من 100 شبیه سازی از 20 سال بازگشت می دهد. آیا این کار را به درستی انجام دادم؟ من مقدار متوسط ​​هر ردیف را به عنوان مقدار نماینده برای هر سال در نظر می‌گیرم. من صدک 97.5 و 2.5 را برای هر ردیف محاسبه می کنم تا فاصله پیش بینی 95 درصدی به من بدهد. آیا این درست است؟
شبیه سازی حساب سرمایه گذاری مونت کارلو
87822
من در فهمیدن اینکه معادلات رگرسیون برای مدل های HLM با اندازه اثر مطلق و اندازه اثر نسبی ارائه شده در جدول چیست، مشکل دارم. به عنوان مثال، متغیر نتیجه خواندن نمره آزمون است. پیش بینی کننده های سطح یک عبارتند از: * جنسیت دانش آموز (اثر مطلق: -0.05؛ اثر نسبی: -0.06) و * SES (اثر مطلق: 0.14؛ اثر نسبی: -0.09). پیش بینی کننده های سطح دو عبارتند از: * میانگین SES مدرسه (اثر مطلق: 0.05؛ اثر نسبی: 0.06) و * جو انضباطی (اثر مطلق: 0.07؛ اثر نسبی: 0.07). من خیلی مطمئن نیستم که مدل های HLM در این مثال چه هستند.
اندازه اثر مطلق و اندازه اثر نسبی در HLM
66863
من اخیراً با دو مشکل مواجه شدم: 1. با توجه به یک تابع rand () که به ترتیب 0 و 1 را با احتمال 50٪ تولید می کند (نتیجه باینری)، چگونه کدی بنویسم تا 1 با 90٪ شانس و 0 با 10٪ ایجاد شود؟ 2. جامعه ای وجود دارد که در آن مردم تا زمانی که پسری نداشته باشند، بچه دار شدن را متوقف نمی کنند. نسبت دختر و پسر در آن جامعه چقدر است؟ در نظر بگیرید که احتمال یک پسر یا دختر داشتن یکسان است. در صورت امکان، لطفاً راهنمایی کنید که این مطالب به چه نوع پیشینه ای مربوط می شود. با تشکر به روز رسانی: در اینجا چند فکر در مورد این دو سوال وجود دارد: 1.از آنجایی که rand() فقط 0 یا 1 تولید می کند، نوشتن کدی مانند زیر بی فایده است: if (rand() < 0.1) { return 0; } else { return 1; } من حدس می‌زنم که این شامل آزمایش برنولی و توزیع دوجمله‌ای باشد، اما سوال توزیع EXACT برای 90% از 1 و 10% از 0 را می‌پرسد. من متحیر هستم که چگونه ادامه دهم. 2. من آن را به روش اشتباه - بد من. افکار اولیه من در این مورد به شرح زیر است: فرض کنید $\text{P}(B) = \text{P}(G) = 0.5$ B' = پسران در جامعه $$\text{P}(B') = \text{P}(B) + \text{P}(B|G) + \text{P}(B|G,G) + \text{P}(B|G,G,G) + .. .$$ اما من ندیدم که چگونه می توان این معادله را در قالب قابل محاسبه استخراج کرد. به روز رسانی 2 (از @David Marx): 1. مسئله 1 این را به عنوان یک عدد باینری با 4 بیت (n) در نظر بگیرید - محدوده [0، 15] را با هر احتمال مساوی 1/16 نشان می دهد. اکنون برای بدست آوردن 1 با احتمال 90%، می توانیم چیزی شبیه به این بنویسیم: if (n < 9) { return 1; } else if (n == 9) { return 0; } به این ترتیب، Prob(n در محدوده[0,9)) = 9/16; Prob(n = 9) = 1/16; بنابراین مقدار برگشتی در 90 درصد مواقع 1 خواهد بود. 1. مشکل 2 یادآوری سری هندسی قدردانی می شود! این معادله در واقع با افکار اولیه من در مورد جمع احتمالات شرطی مطابقت دارد -- من نتوانستم آن را به عنوان سری هندسی تشخیص دهم. بنابراین حدس می‌زنم که نسبت باید نتیجه آن جمع باشد: $$\text{P}(B') = (1/2) + (1/2)^2 + (1/2)^3 + ... = 1/(1-(1/2)) - 1 = 1. $$ پس نسبت پسران در جامعه 100% خواهد بود؟ مشکلی در اینجا وجود دارد؟
تولید اعداد تصادفی و احتمال
66860
اجازه دهید $Y=\left[Y_1, Y_2, \dots, Y_n\right]$ دنباله‌ای از متغیرهای تصادفی تقریباً معمولی باشد. اجازه دهید $X_1=\left[X_{11}، X_{12}، \dots، X_{1n}\right]$ و $X_2=\left[X_{21}، X_{22}، \dots، X_{ 2n}\right]$ دو پیش‌بینی برای $Y$ باشد، یعنی $(X_{1i}، Y_i)$ و $(X_{2i}، Y_i)$ جفت های پیش بینی-پاسخ مرتب شده اند. با استفاده از تست جایگشت، چگونه باید ارزیابی کنم که آیا $X_1$ یا $X_2$ پیش بینی بهتری برای $Y$ است؟ برای آزمایش قدرت همبستگی برای یک پیش‌بینی‌کننده منفرد، $X_j$، در _Permutation، Parametric، و Bootstrap Tests of Hypotheses_ (Good 2010)، مجموع آمار تست محصولات متقاطع، $$ S = \sum X_{1i} ثابت شده است که Y_i $$ به طور یکنواخت قوی ترین در برابر جایگزین های معمولی توزیع شده در بین تمام تست های بی طرفانه است. فرضیه مبنی بر عدم همبستگی جفت مشاهدات. برای مقایسه X_1$ با X_2$، من آمار آزمایشی را در نظر می‌گیرم $T$, $$ T = \sum X_{1i}Y_i - \sum X_{2i}Y_i = \sum (X_{1i} - X_{2i })Y_i $$ و آزمایش جایگشت با مقایسه مقدار مشاهده شده، $T\rightarrow t$، با توزیع $T$ روی همه جایگشت های شاخص پیش‌بینی $j$ برای هر پاسخ $Y_i$، (یعنی تعویض تصادفی $X_{1i} \فلش سمت چپ X_{2j}$). آیا $T$ یک آمار آزمون قابل قبول است؟ آیا آمار آزمون دیگری وجود دارد که باید در نظر بگیرم؟ آیا این آمار آزمون مربوط به معیارهای همبستگی است؟ چقدر $T$ یا یک آمار آزمایشی دیگر به مفروضات نرمال بودن $Y_i$ حساس است. آیا منابع ادبی دیگری وجود دارد که من باید در کنار آن (Good 2010) در نظر بگیرم؟ برای زمینه اضافی، این از زیست‌شناسی ساختاری: برای ارزیابی پیش‌بینی‌های محاسباتی تغییرات اندازه‌گیری شده تجربی در انرژی آزاد ناشی از جهش ($\Delta\Delta G$)، که $n$ در مرتبه هزار است. به عنوان مثال، (Kellogg 2011) را ببینید. به خصوص شکل 2
تست جایگشت برای مقایسه همبستگی ها
66864
من طبقه‌بندی را با استفاده از طبقه‌بندی‌کننده‌های متعدد برای داده‌های دارای برچسب ۲ کلاسه انجام داده‌ام و از اعتبارسنجی متقاطع ۵ برابری استفاده کردم. برای هر فولد tp، tn، fp و fn را محاسبه کردم. سپس دقت، دقت، فراخوانی و امتیاز F را برای هر آزمون محاسبه کردم. سوال من این است که وقتی می‌خواهم نتایج را میانگین بگیرم، میانگین دقت را گرفتم، اما آیا می‌توانم دقت، یادآوری و امتیاز F را هم میانگین کنم؟ یا این از نظر ریاضی اشتباه است؟ P.S. مجموعه داده های مورد استفاده در هر فولد از نظر تعداد نمونه ها در هر کلاس به خوبی متعادل هستند. با تشکر
میانگین دقت و یادآوری هنگام استفاده از اعتبارسنجی متقاطع
66861
من می خواهم خطاهای استاندارد یک توزیع هذلولی برازش را محاسبه کنم. در نماد من چگالی با \begin{align*} H(l;\alpha,\beta,\mu,\delta)&=\frac{\sqrt{\alpha^2-\beta^2} داده می‌شود. 2\alpha \delta K_1 (\delta\sqrt{\alpha^2-\beta^2})} exp\left(-\alpha\sqrt{\delta^2+(l-\mu)^2}+\beta(l-\mu)\right) \end{align*} من از بسته HyperbolicDistr در R استفاده می کنم من پارامترها را از طریق دستور زیر تخمین می زنم: hyperbFit(mydata,hessian=TRUE) این به من پارامترسازی اشتباه می دهد. با دستور `hyperbChangePars(from=1,to=2,c(mu,delta,pi,zeta)) آن را به پارامتر مورد نظر خود تغییر می دهم. سپس می‌خواهم خطاهای استاندارد تخمین‌هایم را داشته باشم، می‌توانم آن را برای پارامترسازی اشتباه با دستور «summary» دریافت کنم. اما این خطاهای استاندارد برای پارامترهای دیگر را به من می دهد. با توجه به این موضوع، من باید از روش دلتا استفاده کنم (نمی‌خواهم از بوت استرپ یا اعتبار متقاطع یا غیره استفاده کنم). کد «hyperbFit» اینجاست. و «hyperbChangePars» اینجاست. بنابراین می دانم که $\mu$ و $\delta$ یکسان می مانند. بنابراین خطاهای استاندارد نیز یکسان هستند، درست است؟ برای تبدیل $\pi$ و $\zeta$ به $\alpha$ و $\beta$ به رابطه بین آنها نیاز دارم. با توجه به کد این کار به صورت زیر انجام می شود: alpha <- zeta * sqrt(1 + hyperbPi^2) / delta beta <- zeta * hyperbPi / delta ** پس چگونه باید روش دلتا را کدنویسی کنم تا به مطلوب برسم خطاهای استاندارد؟ ** ویرایش: من از این داده ها استفاده می کنم. من ابتدا روش دلتا را طبق این تاپیک اجرا می کنم. # متناسب با توزیع hyperbfitdb<-hyperbFit(mydata,hessian=TRUE) hyperbChangePars(from=1,to=2,hyperbfitdb$Theta) summary(hyperbfitdb) `summary(hyperbfitdb)` خروجی زیر را ارائه می دهد: داده: mydata برآورد پارامتر: pi zeta delta mu 0.0007014 1.3779503 0.0186331 -0.0001352 ( 0.0938886) ( 0.9795029) ( 0.0101284) ( 0.0035774) احتمال: 615.992 615.992 کد: 615.992 روش-روش-روش 50نور `hyperbChangePars(from=1,to=2,hyperbfitdb$Theta)` خروجی زیر را ارائه می دهد: alpha.zeta beta.zeta delta.delta mu.mu 73.9516898823 0.0518715378 0.01863331045 در حال حاضر متغیر تعریف شده است. روش زیر: pi<-0.0007014 lzeta<-log(1.3779503) ldelta<-log(0.0186331) اکنون کد را اجرا می کنم (ویرایش دوم) و نتیجه زیر را دریافت می کنم: > se.alpha [,1] [1,] 13.18457 > se.beta [,1] [1,] 6.94268 آیا این درست است؟ من در مورد موارد زیر تعجب می کنم: اگر از یک الگوریتم بوت استرپ به روش زیر استفاده کنم: B = 1000 # تعداد بوت استرپ آلفا<-NA beta<-NA delta<-NA mu<-NA # Bootstrap for(i در 1: ب){ print(i) subsample = sample(mydata,rep=T) hyperboot <- hyperbFit(subsample,hessian=FALSE) hyperboottransfparam<- hyperbChangePars(from=1,to=2,hyperboot$Theta) alpha[i] = hyperboottransfparam[1] beta[i] = hyperboottransfparam[2] delta[i] = hyperboottransf 3] mu[i] = hyperboottransfparam[4] } # hist(بتا, breaks=100,xlim=c(-200,200)) sd(alpha) sd(بتا) sd(delta) sd(mu) من '119.6' برای `sd(alpha)` و '35.85` برای sd(alpha) دریافت می کنم `sd(بتا)`. نتایج بسیار متفاوت است؟ آیا اشتباهی وجود دارد یا مشکل اینجا چیست؟
خطاهای استاندارد تخمین توزیع هذلولی با استفاده از روش دلتا؟
66862
آیا استراتژی برای انتخاب تعداد درختان در GBM وجود دارد؟ به طور خاص، آرگومان «ntrees» در تابع «gbm» «R». من نمی دانم که چرا نباید ntrees را روی بالاترین مقدار معقول تنظیم کنید. من متوجه شده ام که تعداد بیشتری از درختان به وضوح تنوع نتایج حاصل از چندین GBM را کاهش می دهد. من فکر نمی کنم که تعداد زیاد درختان منجر به بیش از حد مناسب شود. هر فکری؟
چگونه تعداد درختان را در یک مدل رگرسیون تقویت شده تعمیم یافته انتخاب کنیم؟
11045
من سعی می کنم مفهوم افکار عمومی مرتبط با اندازه گیری کمی توزیع نظرات را مطالعه کنم و سعی می کنم پارامترها و روش های اصلی را تعریف کنم که می تواند به من کمک کند از تعداد معینی محدودی از مردم که به یک نظرسنجی پاسخ می دهند شروع کنم تا نتایج آن نظرسنجی را تعمیم دهم. می گویند که این نتیجه را می توان به عنوان یک افکار عمومی در نظر گرفت. آیا روش ها و پارامترهای آماری مرتبط با کشور وجود دارد که من باید آن را برای تعریف مفهوم افکار عمومی ادغام کنم؟ حداقل چه تعداد افرادی باید به نظرسنجی پاسخ دهند؟ آیا پارامترهای ذاتی مرتبط با این بررسی وجود دارد؟
نحوه تعریف جمعیت خاص برای افکار عمومی
66866
من داده های نظرسنجی برای هزاران نفر از صدها شهر دارم. من می خواهم عوامل زیربنایی ویژگی های خاص را در سطح شهر و سطح فردی شناسایی کنم. سطح فردی ساده است. اما من در مورد چگونگی ادامه دادن به داده های سطح شهر کمتر روشن هستم. من دو رویکرد را در نظر دارم. 1) می‌توانیم میانگین‌های سطح جامعه را برای هر متغیر کمکی محاسبه کنیم و سپس بارگذاری‌ها را بر روی آن میانگین‌ها محاسبه کنیم. (نقاط منفی این است که میانگین گیری از قبل قبل از محاسبه بارگیری ها، اطلاعات زیادی را از دست می دهد.) 2) ما می توانیم بارگذاری ها را بر روی داده های سطح فردی محاسبه کنیم و سپس با استفاده از میانگین های سطح جامعه متغیرهای کمکی، عوامل را محاسبه کنیم. (یعنی $\text{factors} = \text{loadings} * \text{comm_level_avgs}$.) من به این گزینه متمایل هستم، اما ** مطمئن نیستم که بتوانیم بارگذاری‌ها را در یک سطح از تجمع محاسبه کنیم (داده های فردی) و سپس از آنها برای محاسبه عوامل در سطح متفاوتی از تجمع (میانگین سطح شهر) استفاده کنید. ** هر گونه فکری قابل قدردانی است! از گزینه 1، 2 استفاده کنید، هیچ کدام؟ **بر اساس نظر ttnphns، من یک مثال در مورد نحوه اجرای تجزیه و تحلیل در اینجا اضافه کرده ام.** داده های شبیه سازی را آپلود نکرده ام زیرا داده ها واقعاً هدف نیستند. برایم مهم است که آیا پیشنهادات من مبتنی بر استدلال آماری صحیح است یا خیر. در زیر کدی وجود دارد که من برای محاسبه بارگیری در سطح فردی استفاده می‌کنم، با کدی که دو گزینه متفاوتی را که برای محاسبه فاکتورهای سطح شهر در نظر گرفته‌ام را نشان می‌دهد. ### کاری که من تاکنون انجام داده‌ام نیاز دارد (روان) # تحلیل عاملی ### تعریف ماتریس همبستگی همه متغیرهای X (همه ورودی‌های مدل) corMat <- cor(variables) #نمایش ماتریس همبستگی corMat #استفاده از fa( ) برای انجام یک تحلیل عاملی اکتشافی محور اصلی مورب #راه‌حل داده‌های سطح فردی را در یک متغیر R، n = 2 ذخیره کنید. ind_level_solution <- fa(r = corMat, nfactors = n, rotate = oblimin, fm = pa) #نمایش خروجی راه حل ind_level_solution ### آنچه برای تصمیم گیری در مورد نیاز دارم # تعریف یک ماتریس جدید (آن را نامگذاری کنید) town_matrix) که در آن هر مشاهده یک شهر است، # با متغیرهای کمکی که به‌عنوان میانگین‌های کمکی در سطح شهر تعریف شده‌اند. town_matrix = aggregate (متغیرها، توسط = town_ID، میانگین) # گزینه 1: اجرای town_mean_solution = fa(town_matrix، ...) town_factors1 = (میانگین_حل شهر %*% town_matrix) # گزینه 2: مانند بالا، ind_soat، factors را اجرا کنید. ...) # اما سپس فاکتورها را با town_factors2 = (راه حل ind_level %*% town_matrix)
تحلیل عاملی در سطوح مختلف تجمیع داده ها
110395
من نمایش گرافیکی خوبی از یادگیری ماشین برای خوشه بندی / طبقه بندی دریافت کردم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wroQs.jpg) منبع: رویکردهای هسته برای یادگیری ماشینی بدون نظارت و نظارت توسط Sun-Yuan Kung در اینجا نظرات من در مورد تفاوت وجود دارد: **Supervised vs بدون نظارت**: **یادگیری نظارت شده** وظیفه یادگیری ماشینی است که تابعی را از داده های آموزشی برچسب گذاری شده استنتاج می کند. داده های آموزشی شامل مجموعه ای از نمونه های آموزشی است. در یادگیری نظارت شده، هر مثال یک جفت است که از یک شی ورودی (معمولاً یک بردار) و یک مقدار خروجی مورد نظر (که سیگنال نظارتی نیز نامیده می شود) تشکیل شده است. یک الگوریتم یادگیری نظارت شده، داده های آموزشی را تجزیه و تحلیل می کند و یک تابع استنباط شده تولید می کند که می تواند برای نگاشت نمونه های جدید استفاده شود. در یادگیری ماشینی، مشکل **یادگیری بدون نظارت**، تلاش برای یافتن ساختار پنهان در داده های بدون برچسب است. از آنجایی که مثال هایی که به یادگیرنده داده می شود بدون برچسب هستند، هیچ سیگنال خطا یا پاداشی برای ارزیابی راه حل بالقوه وجود ندارد. هر دوی این روش ها را می توان در هسته های خطی و غیر خطی طبقه بندی کرد. رویکردهای یادگیری بدون نظارت عبارتند از: خوشه بندی (به عنوان مثال، k-means، مدل های مخلوط، خوشه بندی سلسله مراتبی)، مدل های پنهان مارکوف، جداسازی سیگنال کور با استفاده از تکنیک های استخراج ویژگی برای کاهش ابعاد (به عنوان مثال، تجزیه و تحلیل مؤلفه های اصلی، تجزیه و تحلیل مؤلفه های مستقل، ماتریس غیر منفی). فاکتورسازی، تجزیه ارزش منفرد). **شبکه خنثی** شبکه های عصبی مصنوعی (ANN) مدل های محاسباتی الهام گرفته شده از سیستم عصبی مرکزی حیوانات (به ویژه مغز) هستند که قادر به یادگیری ماشینی و همچنین تشخیص الگو هستند. شبکه‌های عصبی مصنوعی عموماً به‌عنوان سیستم‌هایی از «نرون‌های» به هم پیوسته ارائه می‌شوند که می‌توانند مقادیر را از ورودی‌ها محاسبه کنند. در میان مدل‌های شبکه عصبی، نقشه خودسازماندهی (SOM) و نظریه تشدید تطبیقی ​​(ART) معمولاً از الگوریتم‌های یادگیری بدون نظارت استفاده می‌شوند. SOM یک سازمان توپوگرافی است که در آن مکان های نزدیک در نقشه، ورودی هایی با ویژگی های مشابه را نشان می دهند. مدل ART اجازه می دهد تا تعداد خوشه ها با اندازه مشکل تغییر کند و به کاربر امکان می دهد درجه شباهت بین اعضای همان خوشه ها را با استفاده از یک ثابت تعریف شده توسط کاربر به نام پارامتر هوشیاری کنترل کند. شبکه های ART همچنین برای بسیاری از وظایف تشخیص الگو، مانند شناسایی خودکار هدف و پردازش سیگنال لرزه ای استفاده می شوند. سوالات من به شرح زیر است: 1. تفاوت بین Euclidean-Tree و Kernel-Tree چیست؟ یا Euclidean-K-Means SOM در مقابل نسخه کرنل؟ 2. تفاوت بین SVM در مقابل شبکه عصبی یا SOM؟ 3. تفاوت بین همبستگی و ماتریس هسته؟
تفاوت های اساسی بین رویکردهای هسته برای یادگیری ماشینی بدون نظارت و نظارت شده چیست؟
89460
من مایلم 3 درمان مختلف (هیچ درمانی به عنوان دارونما در نظر گرفته نمی شود، و اینها کارآزمایی های تصادفی کنترلی نیستند) را از مطالعات متعدد در یک متاآنالیز مقایسه کنم. من از نرم افزاری به نام Review Manager از انجمن کاکرین استفاده می کنم و نمی دانم که آیا کاری که انجام می دهم درست است یا خیر: بگوییم A، B و C درمان های متفاوتی هستند. من مقایسه مستقیم A در مقابل B، A در مقابل C، و B و C را انجام می دهم تا نسبت شانس، فواصل اطمینان، امتیاز Z، مقادیر p و غیره را بدست آوریم. سپس از نتایج A در مقابل B و A در مقابل استفاده می کنم. C برای محاسبه مقایسه غیر مستقیم برای B در مقابل C، به دست آوردن نسبت شانس و SE. **A در مقابل B**![A در مقابل B](http://i.stack.imgur.com/SMd4O.png) از جایی که می گوید نسبت ریسک چشم پوشی کنید، مطالعاتی که من به آنها نگاه خواهم کرد همه گذشته نگر هستند . **A در مقابل C**![A در مقابل B](http://i.stack.imgur.com/I3Ajr.png) جایی که می گوید نسبت ریسک را نادیده بگیرید، مطالعاتی که من به آنها نگاه خواهم کرد همه گذشته نگر هستند . من تحلیل دیگری را با B مستقیم و غیرمستقیم در مقابل C در Review Manager انجام می‌دهم تا نسبت شانس و آماری را برای این موضوع بدست بیاورم. **مستقیم و غیرمستقیم B در مقابل C**![نتایج تجزیه و تحلیل](http://i.stack.imgur.com/jhz8W.png) جایی که می‌گوید نسبت ریسک، مطالعاتی که به آنها نگاه خواهم کرد نادیده بگیرید. همه به گذشته نگر هستند B غیر مستقیم در مقابل C با استفاده از: ![محاسبات غیرمستقیم](http://i.stack.imgur.com/2lFfF.png) L یا l = log تعیین شد لطفاً به من بگویید که آیا این کار را به درستی انجام می دهم یا خیر معتبر است. اگر چنین است، چگونه می توانم نتایج حاصل از تجزیه و تحلیل بین B مستقیم و غیر مستقیم در مقابل C را گزارش کنم؟ این به من می گوید که آیا تفاوت بین B و C قابل توجه است؟ چگونه می توانم یافته های کلی را با مقایسه 3 درمان مختلف گزارش کنم؟ با تشکر برای کمک!
چگونه متاآنالیز چند درمان انجام دهیم؟
87820
من صدها نمونه از پاپیلوم دارم که توسط ویروس پاپیلومای انسانی 6 یا 11 ایجاد می شود. راه های زیادی برای تعیین اینکه HPV در یک نمونه وجود دارد وجود دارد. آیا 6 است یا 11 یا ترکیبی از هر دو؟ ما توالی بخشی از ژنوم HPV را از هر نمونه انتخاب کردیم. سپس ما یک تراز FASTA از هر دنباله را در برابر توالی شناخته شده برای HPV 6 و 11 انجام دادیم. این یک امتیاز ایجاد کرد (من از مقدار Expect (E) استفاده کرده ام اما می توانم از امتیاز هویت درصد نیز استفاده کنم). **بعد از این واقعیت، فکر کردم که تعیین قابلیت اطمینان (تکرارپذیری) آن مقادیر روشنگر خواهد بود **. بیشتر نمونه ها یک بار اجرا شدند اما برخی از آنها دو بار در کل فرآیند اجرا شدند. آنهایی که دو بار اجرا شده اند باید بینش زیادی در مورد قابلیت اطمینان فرآیند، از DNA اصلی تا مقدار Expect (E) ارائه دهند. من فکر کردم یک آنووا انجام دهم که یکی از فاکتورها کد طبقه بندی نمونه است. من می‌خواهم میانگین مجموع مربع‌ها را بر اساس نمونه در مقابل مجموع باقی‌مانده مربع‌ها ببینم. اما داده ها به سختی متعادل هستند. _صدها نمونه فقط یک مقدار و حدود 30 نمونه دو مقدار دارند_. مقدار خام دیگر این است که انحراف معیار همه مقادیر را محاسبه کنیم و سپس به تمام انحرافات استاندارد برای هر دوبیتی (اجرا و تکرار) نگاه کنیم. همچنین به این فکر کردم که ضریب همبستگی را که در آن نمودار run1 و run2 را برای هر نمونه ای که دو بار اجرا شده است، مقایسه کنم و آن را با ضریب همبستگی یک نمونه جفت تصادفی مقایسه کنم (هر نتیجه ای را بگیرید و به طور تصادفی آن را با نتیجه دیگری جفت کنید، بدون جایگزینی). . پیشنهادی دارید؟ من قصد دارم در R پیاده سازی کنم.
با شروع از داده های موجود، چگونه می توانم قابلیت اطمینان تکنیکی را که امتیاز ایجاد می کند آزمایش کنم؟
11043
من یک مولد تصادفی خوب دارم (Lecuyer و همکاران از http://www.iro.umontreal.ca/~simardr/ssj/doc/html/index.html) که به من کمک می کند تا عددی را با توزیع لگ نرمال به یک تصادفی تبدیل کنم. جریان دوبل (یک مولد تصادفی Well1024) من می خواهم این عدد را بین [ 0 - 1 ] نرمال کنم، یکی از دوستان به من می گوید که تابع سیگموید را بسازم اعداد من را عادی کنید، اما مطمئن نیستم که بهترین گزینه است. با تشکر نمونه کوچکی از کد در جاوا/اسکالا: import umontreal.iro.lecuyer.randvar._ import umontreal.iro.lecuyer.rng.WELL1024 import scala.Math._ object testRandomLog توسعه می دهد برنامه { var logNormal = new LognormalGen(جدید WELL1024( ) ) (0 تا 10000).map{x => { var d = logNormal.nextDouble() println(d > + d) println(sigm > + 1/ (1+ exp (-d))) }} } ویرایش 1: من از الگوریتم ژنتیک برای بهینه سازی یک عملکرد تناسب اندام در هر فردی من یک کروموزوم با 7 ژن دارم، یکی برای هر پارامتر متفاوت در شبیه سازی من. من باید جمعیت تصادفی a) را در شروع، ب) و پس از آن زمانی که با بهترین فرد متقاطع و جهش ایجاد می کنم، در هر نسل ایجاد کنم. یکی از پارامترهای من احتمال بین 0.0000000001 و 0.1 با دقت گام 0.000000001 است. مشکل من دو برابر است: 1 - ژنراتور تصادفی در مورد من دقت ضعیفی به من می دهد، من شماره ای مانند A = 0.25614548 دارم. من نمی توانم دقت را درست کنم، بنابراین من یک ژنراتور تصادفی دوم بین 1 و 100.000.000 دارم که به من کمک می کند عدد قبلی A را تقسیم کنم. -4 -> 10E-8 از مقدار کمی 10E-9 / 10E-10 مشکل در مورد من باید استانداردسازی کنم یک مقدار احتمال برای پارامتر من بین [0;1] بدست آورید
اعداد تصادفی انتخاب شده را در توزیع لگ نرمال عادی کنید
110392
من در محاسبه فواصل اطمینان از یک مدل گام مشکل دارم. داده های من به این صورت است: ![data](http://www.maunz.de/gamm/data.png) همانطور که می بینید، این ها داده های طولی افراد در گروه ها هستند (هر موضوع فقط در یک گروه ظاهر می شود). مدل گام من به این شکل است: M2 = گام( y ~ s(روز، توسط=گروه، bs=cr، k=k) + گروه، داده = dmmForFit، همبستگی = corCAR1(form=~day|حیوان)، روش = ML، کنترل = lmc، تصادفی = لیست(حیوان=~روز) ) حالا، وقتی از predict(M2$gam، se.fit=T)`، داده‌های زیر را به دست می‌آورم (فاصله‌های اطمینان با ضرب SE در 1.96 به صورت نقطه‌ای محاسبه می‌شوند). ![data](http://www.maunz.de/gamm/pred.png) مشکل این است که اعتماد به نفس برای همه گروه ها کم و بیش یکسان است و من نمی دانم چگونه مدل را تغییر دهم تا درست شود. SE در هر گروه
چگونه فواصل اطمینان را با استفاده از گام محاسبه کنیم؟
15967
من سعی می کنم یک مدل پویسون با باد صفر در R و JAGS راه اندازی کنم. من با JAGS تازه کار هستم و در مورد نحوه انجام این کار به راهنمایی نیاز دارم. من سعی کردم با موارد زیر که در آن y[i] مدل متغیر مشاهده شده است { برای (i در 1:I) { y.null[i] <- 0 y.pois[i] ~ dpois(mu[i] ) pro[i] <- ilogit(theta[i]) x[i] ~ dbern(pro[i]) y[i] <- step(2*x[i]-1)*y.pois[i] + (1-step(2*x[i]-1))*y.null[i] log(mu[i]) <- bla + bla +bla + .... theta[i] <- bla + bla + bla + .... } } اما این کار نمی کند زیرا شما نمی توانید از <\- روی یک متغیر مشاهده شده استفاده کنید. آیا ایده ای برای تغییر / رفع این مشکل دارید؟ آیا راه دیگری برای راه اندازی مدل سم با باد صفر در JAGS وجود دارد؟
چگونه می توانم یک poisson با باد صفر در JAGS راه اندازی کنم؟
82020
من دو شک دارم، یکی در مورد نظریه و دیگری در مورد مسئله عملی. ** اولاً من کاملاً نمی دانم ** چگونه یک شبکه بیزی با مقادیر پیوسته کار کنم. من آموخته ام که می توانم P(A) (احتمال گره A) را با یک توزیع گاوسی تقریب بزنم. اما من یک مجموعه داده دارم، میانگین و واریانس توزیع گاوسی آیا میانگین و واریانس مجموعه داده است؟ و اگر P(A|B,C)، با A و B با مقادیر پیوسته داشته باشم، چگونه می توانم با توزیع گاوسی نشان دهم؟ **مشکل عملی** این است که من باید یک ساختار بیزی را از یک مجموعه داده با مقادیر پیوسته یاد بگیرم و از این جعبه ابزار برای متلب استفاده می کنم: http://code.google.com/p/bnt/ (جعبه ابزار شبکه Bayes Net برای Matlab توسط کوین مورفی) حالا چگونه می توانم با این ابزار یک ساختار بیزی را از یک مجموعه داده (مقادیر پیوسته) یاد بگیرم؟ اگر از تابع **learn_struct_K2** استفاده کنم، به ترتیب گره ها نیاز دارم، اما از کجا می توانم این ترتیب را دریافت کنم؟ توابع مفید دیگری در این جعبه ابزار وجود دارد که می دانید؟ (در مورد این مشکل)
جعبه ابزار Matlab Bayesian Newtork و مقادیر پیوسته
94577
من یک ماتریس بزرگ (10*10k) دارم. می خواهم بدانم آیا راهی برای یافتن شباهت بین خطوط وجود دارد؟ بیایید مثالی از ماتریس بیاوریم: 4*5 col1 col2 col3 col4 0 0 1 0 2 3 4 5 2 3 2 3 0 0.1 1 0 0 0 1 0 می خواهم بدانم آیا یک نظریه آماری برای تعیین شباهت وجود دارد بین داده ها خط 1 100% مانند خط 5 است خط 2 50% مانند خط 3 است اما چگونه می توانم با اعدادی که نزدیک به یکدیگر هستند برخورد کنم. خط 4 و خط 5 تقریباً مقادیر یکسانی دارند. چگونه می توانیم راهی برای محاسبه احتمال شباهت ها پیدا کنیم؟
اندازه گیری شباهت بین اعداد
110394
تا آنجا که من می دانم، توسعه Taylors برای توابع ثابت کار می کند. من متعجب بودم که چرا استفاده از آن در احتمال ورود موجه است. حتی اگر آن را تنها تابعی از $\theta$ در نظر بگیریم، آیا اجزایی ندارد که با افزایش n تغییر کند (مثلاً $\sum X_i$)؟ آیا گفتن چیزی مانند \begin{align*} \ell\left(\theta\right) و = واقعاً همیشه خوب است؟ \ell\left(\widehat{\theta}\right)+\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr|_{\theta=\widehat{\theta }}\left(\theta-\widehat{\theta}\right)+ o(|\widehat{\theta} - \theta|) \\\ \end{align*} لطفا به من کمک کنید بفهمیم چرا و چه زمانی می توانیم چنین کاری را انجام دهیم. پیشاپیش متشکرم
بسط تیلور بر اساس احتمال ورود
110397
من روی فرسایش باد کار می کنم و این سوال که آیا رابطه ای بین بادهای فرسایشی و غلظت بالای PM10 (گرد و غبار ریز) وجود دارد به عنوان مدرکی برای ذرات گرد و غبار فرسایش یافته. من دو مجموعه داده مختلف دارم: 1. PM10-غلظت برای یک نقطه اندازه گیری خاص (ساعتی، 2010-2012) 2. داده های هواشناسی (سرعت باد [m/s]، جهت باد [°]، بارش [mm]) برای همان نقطه (ساعتی، 2010-2012) من فقط دانش اولیه در آمار و کار با Excel و SPSS دارم. بنابراین، من دقیقاً نمی‌دانم کدام نوع تحلیل برای بیان اظهارات قابل قبول مناسب‌تر است. مشکل این است که من علاقه مند به ارتباط بین سرعت باد و PM10 نیستم، بلکه به ارتباط بین تاریخ های انتخابی خاص با سرعت باد بیش از 5.4 متر بر ثانیه و بدون بارش در 8 ساعت گذشته علاقه مند هستم. من قبلاً آن تاریخ‌ها را انتخاب کرده‌ام... بنابراین مجموعه داده‌های (2) بله (> 5.4 متر بر ثانیه و بدون بارش 8 ساعت طول می‌کشد) یا خیر (سرعت باد و بارش کم) است. اولین متریک ثابت. بنابراین به طور خلاصه: چگونه می توانم بفهمم که آیا بین این تاریخ های انتخاب شده (بله یا خیر) و غلظت PM10 رابطه وجود دارد؟
چگونه بفهمیم بین دو مجموعه داده (اسمی و متریک) رابطه وجود دارد؟
110393
سوال شلینگ را در مورد یک نقطه ملاقات کانونی برای نیویورک در تئوری بازی ها در نظر بگیرید (در پاراگراف دوم در زیر فرمولاسیون ** در مدخل ویکی پدیا توضیح داده شده است). شلینگ نگفت چند دانشجو را مورد نظرسنجی قرار داده است. با چند دانش آموز باید مصاحبه کند تا 95% مطمئن شود که حالت حالت جمعیت است، با فرض اینکه دانش آموزان نماینده جامعه هستند؟
برای ایجاد یک نقطه کانونی شلینگ به چند پاسخ نیاز است؟
64340
بنابراین در مورد واقعیت پویا، این شانس وجود دارد که پارامترهای یک مدل آماری/ تصادفی که سعی در مدل‌سازی برخی مجموعه‌های واقعیت دارد در طول زمان تغییر کند. آیا ابزاری در آمار وجود دارد که به شما امکان می دهد ببینید این پارامترها چگونه تغییر می کنند یا خیر؟
آیا راهی برای یافتن چگونگی تغییر پارامترهای یک مدل آماری/تصادیقی در طول زمان وجود دارد؟
100121
من باید یک شبیه سازی انجام دهم تا انتگرال یک تابع 3 پارامتری را ارزیابی کنم، می گوییم $f$، که فرمول بسیار پیچیده ای دارد. از آن خواسته شده است که از روش MCMC برای محاسبه آن استفاده کند و الگوریتم Metropolis-Hastings را برای تولید مقادیر توزیع شده به صورت $f$ پیاده سازی کند، و پیشنهاد شد که از یک نرمال 3 متغیر به عنوان توزیع پیشنهاد استفاده شود. با خواندن چند مثال در مورد آن، دیدم که برخی از آنها از یک نرمال با پارامترهای ثابت $N(\mu, \sigma)$ و برخی با میانگین متغیر $N(X, \sigma)$ استفاده می کنند که در آن $X است. $ آخرین مقدار پذیرفته شده است که بر اساس $f$ توزیع شده است. من در مورد هر دو رویکرد تردید دارم: **1)** معنای انتخاب آخرین مقدار پذیرفته شده به عنوان میانگین جدید توزیع پیشنهاد ما چیست؟ شهود من می گوید باید تضمین کند که ارزش های ما به مقادیر توزیع شده به صورت $f$ نزدیک تر خواهد بود و شانس پذیرش بیشتر خواهد بود. اما آیا این نمونه ما را خیلی متمرکز نمی کند؟ تضمین می شود که اگر نمونه های بیشتری دریافت کنم، زنجیره ثابت می شود؟ **2)** آیا انتخاب پارامترهای ثابت (از آنجایی که تجزیه و تحلیل $f$ واقعاً دشوار است) واقعاً دشوار و وابسته به اولین نمونه ای نیست که برای شروع الگوریتم باید انتخاب کنیم؟ در این صورت، بهترین روش برای یافتن اینکه کدام یک بهتر است، چیست؟ آیا یکی از آن رویکردها بهتر از دیگری است یا این بستگی به مورد دارد؟ امیدوارم تردیدهای من روشن باشد و خوشحال می شوم اگر بتوانم مطالبی در اختیارم بگذارم (من مقالاتی در مورد موضوع خوانده ام، اما بیشتر بهتر است!) پیشاپیش متشکرم!
MCMC با الگوریتم Metropolis-Hastings: انتخاب پیشنهاد
96487
من یک مجموعه داده با 2 منحنی مختلف در یک فایل .csv دارم. هر دو منحنی مجموع منحنی‌های گاوسی هستند و من می‌خواهم بتوانم این منحنی‌ها را به اضافه‌های جایگزین آن‌ها تجزیه کنم: curve1, curve2, x 274519,242446,0 250313,220161,1 233884,20721919 213773,187065,4 198681,171146,5 186277,159196,6 179781,148868,7 182833,145484,8 186396,14216419 236558,149245,11 306208,183817,12 389970,240836,13 459648,300125,14 504525,341445,15 523825,3162 525028,376706,17 506352,376812,18 466522,365068,19 439922,355739,20 412069,338576,21 357553,3222 309008,272683,23 آیا کتابخانه ای وجود دارد که ابزارهایی برای انجام سریع این کار ارائه دهد؟ با تشکر فراوان
مجموع منحنی های گاوسی را تجزیه کنید
50954
هنگام تلاش برای مدل‌سازی یک مدل رشد نهفته در لاواان و AMOS، به نظر می‌رسد که آنها به فاصله زمانی تخمین‌های شیب متفاوت نزدیک می‌شوند. Lavaan به صورت پیش‌فرض اعداد کامل را بر حسب دوره زمانی افزایش می‌دهد: 0، 1، 2، 3، ...، در حالی که به نظر می‌رسد AMOS به طور پیش‌فرض به کسرهای: 0، 0.11، 0.22، 0.33، ... . این چه تفاوت هایی در نتایج ایجاد می کند؟ منطق پشت هر روش مدل سازی زمان چیست؟
کسری یا کل برای شیب در یک مدل رشد نهفته؟
50953
من یک سری دارم که مقادیر «1»، «2» و «3» را می گیرد. همچنین مقداری «NA» دارد. نمونه زیر نمونه ای از این سری است. سری 1 <- c(1، 1، 2، 1، 1، 1، 1، 2، 2، 2، NA، NA، NA، 3، 2، 2، 1، 1، 1،1) سوال من این است که چگونه باید من به دنبال انجام درون یابی برای «NAs» هستم. من فقط می توانم یک درون یابی خطی انجام دهم و نتیجه را به صورت زیر بدست بیاورم: c(1، 1، 2، 1، 1، 1، 1، 2، 2، 2، 2.25، 2.5، 2.75، 3، 2، 2، 1، 1 , 1, 1) اما انجام این کار به جای پر کردن شکاف با میانگین مقادیر شدید «NAs» چه توجیهی دارد. (2 و 3 در این مورد). c(1، 1، 2، 1، 1، 1، 1، 2، 2، 2، 2.5، 2.5، 2.5، 3، 2، 2، 1، 1، 1، 1) من فکر کردم که یک سری زمانی مناسب کنم اما به نظر من خوب نیست زیرا اختلاف قابل توجهی در داده ها وجود ندارد. **ویرایش** داده ها اساساً تعداد وسایل نقلیه در دقیقه به دست آمده از حسگرهای جاده بودند. به دلیل خطا مقادیر منفی کمی داشت. باید مقادیر منفی را از پایگاه داده حذف کنیم. بنابراین، من مقادیر منفی را به 'NA' تبدیل کردم و می خواستم آنها را با مقادیر غیر منفی که منطقی هستند جایگزین کنم. در این برهه از زمان، ما هیچ تحلیل بیشتری روی داده ها انجام نمی دهیم. ما باید با مقادیر معقول درون یابی کنیم.
آیا همیشه باید درون یابی را چند جمله ای انجام دهیم یا شکاف ها را با مقدار متوسط ​​پر کنیم؟
28826
من با مدل‌های غیرخطی متناسب با استفاده از jags بازی کرده‌ام. به طور خاص منحنی های سیگموئید 3 و 4، به عنوان مثال، upAsym + (y0 - upAsym)/ (1 + (x[r]/midPoint)^slope)) من متوجه شده ام که تخمین پارامترهای خوب (+- 95% HDI) بسیار است وابسته به داشتن پیشین های شدیداً محدود است. **آیا دستورالعمل‌های خوبی (یا مقالات/کتاب‌های آسان خواندنی) وجود دارد که می‌تواند به انتخاب پیشین‌های غیراطلاعاتی منطقی برای کمک به تخمین پارامتر کمک کند؟ در مقایسه با استفاده از پیشین‌های معمولی با دقت متوسط، یا قرار دادن تخمین حداقل مربعات ابتدا برای کمک به تعیین مرزها و مقادیر شروع، یا تنظیم سوختگی و نازک شدن. یک نمونه اسباب‌بازی که من با آن بازی می‌کردم (پارامتر شیب در این مثال گاهی اوقات ممکن است به سختی برآورد شود): x <- 0:20 y <- 20 + (2 - 20)/(1 + (x /10)^5) + rnorm(21, sd=2) dataList = list(y = y, x = x, N = 21) models = model { for( i in 1 : N ) { y[i] ~ dnorm( mu[i] , tau ) mu[i] <- upAsym + (y0 - upAsym)/ (1 + pow(x[i]/midPoint, slope)) } tau ~ dgamma(sG، rG) sG <- pow(m,2)/pow(d,2) rG <- m/pow(d,2) m ~ dgamma (1, 0.01) d ~ dgamma (1, 0.01) midPoint ~ dnorm(10,0.0001) T(0,21) شیب ~ dnorm(5, 0.0001) T(0, ) upAsym ~ dnorm(30،0.0001) T(0،40) y0 ~ dnorm(0، 0.0001) T(-20،20) } writeLines(models,con=model.txt)
نکات و ترفندهایی برای بدست آوردن تخمین پارامترهای خوب با استفاده از رگرسیون غیرخطی بیزی
28820
کدام مقاله را باید به عنوان منبع ادعای زیر ارجاع دهم؟: _آزمون $\chi^2$ زمانی توصیه نمی‌شود که تعداد سطل‌های کم جمعیت در یک هیستوگرام معین وجود داشته باشد. این مقاله (صفحه 328) توسط W. Cochran چیزی را در همین راستا بیان می کند، اما بسیار قدیمی است (1952) و اصلاً قطعی نیست.
سطل های تست $\chi^2$ و کم جمعیت
28828
آیا پیاده سازی جنگل تصادفی R وجود دارد که با داده های بسیار پراکنده به خوبی کار کند؟ من هزاران یا میلیون ها متغیر ورودی بولی دارم، اما فقط صدها یا بیشتر برای هر مثال داده شده درست است. من نسبتاً با R جدید هستم و متوجه شدم که یک بسته Matrix برای برخورد با داده های پراکنده وجود دارد، اما بسته استاندارد randomForest به نظر نمی رسد این نوع داده را تشخیص دهد. اگر مهم باشد، داده های ورودی قرار است خارج از R تولید و وارد شوند. هر توصیه ای؟ من همچنین می توانم استفاده از Weka، Mahout یا بسته های دیگر را بررسی کنم. با تشکر
پیاده سازی جنگل تصادفی برای داده های پراکنده
110648
من برای مقاله‌ای که ارسال کرده‌ام، با مشکل زیر، بازبینی‌هایی دریافت کرده‌ام. من دو مدل رگرسیون لجستیک دارم، مثلاً y ~ A و y ~ A + B، که در آن B یک عامل با چندین سطح است. من یک تست نسبت احتمال بین آنها انجام داده ام و بسیار معنی دار است. هدف من این است که نشان دهم که B اطلاعات مستقلی در مورد پاسخ دارد و در نتیجه تناسب مدل را به طور قابل توجهی (اصطلاح بارگذاری شده) بالاتر و فراتر از A بهبود می بخشد، و فکر می کنم LRT این را به شدت نشان می دهد. بازبین از این راضی نیست، آنها پیشنهاد می کنند از رویکرد متفاوتی برای مقایسه تغییر اهمیت B بین دو مدل استفاده کنید: y ~ B در مقابل y ~ A + B، که به نظر من مانند آزمون والد برای B در مدل A + B، حتی اگر بازبین متوجه آن نباشد. با توجه به اینکه B دارای چندین سطح و در نتیجه چندین تست Wald است، به نظر من LRT مفیدتر و قدرتمندتر است (همچنین مشکلی برای تست چندگانه وجود ندارد). درست میگم؟ آیا منابع خوبی (نه خیلی انتزاعی) وجود دارد که بتوانم برای حمایت از این ادعاها استفاده کنم؟
آزمون نسبت احتمال انگیزشی در مقابل آزمون والد برای داور مقاله
82026
فکر می کنم متوجه شده ام چرا $E[E(X_1X_2|X_1)]=E[X_1E(X_2|X_1)]$; بنابراین حمایت شما واقعاً به من کمک می کند تا بیشتر متقاعد شوم. آیا X_1$ را از مقدار مورد انتظار داخلی خارج می کنیم زیرا با توجه به توزیع حاشیه ای X_2$ محاسبه می شود؟ و چرا با توجه به توزیع حاشیه ای X_2$ محاسبه می شود؟ آیا به این دلیل است که ما X_1$ را شرطی می کنیم و به همین دلیل، ما x_1$ را ادغام یا جمع می کنیم؟
قانون انتظارات تکراری
16098
من یک سوال با مقیاس لیکرت سه درجه ای دارم: چقدر خوشحال هستید؟ 1= سطوح کم شادی 2= سطوح متوسط ​​3= سطوح بالا می خواهم رگرسیون خطی چندگانه را روی متغیر انجام دهم. من این فرض را دارم که بین کم و متوسط ​​و متوسط ​​و زیاد تفاوت یکسانی دارد. من می خواهم آن را به عنوان یک متغیر وابسته پیوسته در نظر بگیرم. می‌دانم که برخی از مردم این را نامناسب می‌دانند، و یک مسئله قدیمی در مورد اینکه آیا داده‌های نظرسنجی را پیوسته تلقی کنیم وجود دارد. * اما آیا مشکلات دیگری برای متغیر وابسته من وجود دارد زیرا فقط در مقیاس 3 نقطه ای است در مقابل 4 یا 5؟
آیا منطقی است که یک متغیر وابسته لیکرت سه نقطه ای را به عنوان یک متغیر پیوسته در نظر بگیریم؟
82023
تابع چگالی احتمالی که من دارم به صورت زیر است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vTfFe.gif) اکنون، من می خواهم تابع احتمال تجمعی زیر را در R بازنویسی کنم. توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/HA6e5.gif) متغیرها ($S$, $\mu$, $\sigma$) متغیرهای ثابت هستند. برای $t$ یعنی `t <- seq(0.1,1,0.1)` احتمال تجمعی در R چگونه خواهد بود؟ هیچ یک از راه حل های من خروجی دلخواه را به دست نمی دهد! ویرایش: f1 = تابع (t,S,sigma,mu){((mu*t+S)/(sigma*sqrt(t)))} f2 = تابع (t,S,sigma,mu){((mu *t-S)/(sigma*sqrt(t)))} 1-(pnorm(f1(t,S,sigma,mu),mu,sigma,1,0)-exp(-(2*S*mu/sigma^2))*pnorm(f2(t,S,sigma ,mu),mu,sigma,1,0)) این نوع نتایج معقولی به من می دهد اما مطمئن نیستم درست باشد.
احتمال تجمعی در R
96488
آیا کسی می تواند به من در مورد یک کتابخانه خوب در **پایتون**، **جاوا** یا **R** برای ساخت یک مدل مخلوط بیزین بی نهایت راهنمایی کند؟ گزینه های دیگر نیز استقبال می شود. با تشکر
کتابخانه برای مدل‌های مخلوط بی‌نهایت بیزی
101063
پس زمینه: یکی از دوستان من سرگرمی (همانطور که تصور می کنم خیلی ها انجام می دهند) تلاش برای پیش بینی نتایج پلی آف هاکی است. او سعی می‌کند تیم برنده را در هر مسابقه و تعداد بازی‌های مورد نیاز برای برنده شدن را حدس بزند (برای هر کسی که با هاکی NHL آشنایی ندارد، یک سری با بهترین 7 بازی تعیین می‌شود). رکورد او در سال جاری پس از 3 دور بازی (8+4+2=14 بهترین از 7 مسابقه) 7 صحیح / 7 نادرست برای تیم برنده و 4 صحیح / 10 اشتباه برای تعداد بازی است (او فقط تعداد بازی ها را صحیح می داند. اگر او تیم برنده را نیز انتخاب کند). ما باید به شوخی بگوییم که او بهتر از حدس زدن کورکورانه در مورد سوال تیم‌ها عمل نمی‌کند، اما اگر فرض کنیم که احتمالات یک سری بازی‌های 4، 5، 6 یا 7 برابر است (منتظر موفقیت 12.5 درصدی است، او به طور قابل‌توجهی شانس را شکست می‌دهد. نرخ، او در 28.5٪ است. این ما را به این فکر انداخت که در واقع شانس برای هر تعداد بازی ممکن چقدر است. فکر می‌کنم این کار را انجام داده‌ام، اما می‌خواهم چند انتهای شل را ببندم، زیرا بخشی از رویکرد من خط‌نویسی به‌زور روی یک تکه کاغذ بزرگ بود. فرض اصلی من این است که نتیجه هر بازی تصادفی است با احتمال $\frac{1}{2}$ برای هر تیم برنده شود. نتیجه گیری من این است که: $$\rm P(4\;بازی) = \frac{2}{2^4} = 12.5\%\\\ P(5\;بازی) = \frac{8}{2^ 5} = 25\%\\\ P(6\;بازی) = \frac{20}{2^6} = 31.25\%\\\ P(7\;بازی) = \frac{40}{2^7} = 31.25\%$$ من تجزیه و تحلیل خود را بر اساس این تصور هدایت کردم که یک سری بازی 4 باید احتمالی برابر با $\frac{2}{2^4}$ داشته باشد، مشابه با شانس برگرداندن 4 سکه و گرفتن 4 سر یا 4 دم. مخرج ها به اندازه کافی آسان بود که بتوان از آنجا پی برد. من با شمارش تعداد ترکیب‌های قانونی اعداد را به دست آوردم (WWLWWLL غیرقانونی است زیرا این سری پس از 5 بازی تصمیم گیری می شود، 2 بازی آخر انجام نمی شود) نتایج برای تعداد معینی از بازی ها: 4 سری بازی ممکن است (2): WWWW LLLL 5 سری بازی احتمالی (8): LWWWW WLLLL WLWWW LWLLL WWLWW LLWLL WWWLW LLLWL ممکن است 6 سری بازی (20): LLWWWW WWLLLL LWLWWW WLWLLL LWWLWW WLLWLL WWWLLW LLLWWL سری 7 بازی احتمالی (40): LLLWWWW WWWLLLL LLWLWWW WWLWLLL LLWWLWW WWLLWLL LLWWWLW WLLWWLL LWWLWLW WLLWLWL LWWWLLW WLLLWWL WWLLWLW LLWWLWL WWLWLLW LLWLWWL WWWLLLW LLLWWWL **روش غیر brute-force برای استخراج اعداد چیست؟** من فکر می کنم ممکن است یک تعریف بازگشتی وجود داشته باشد، به طوری که $\rm P(5\;بازی)$ را بتوان تعریف کرد از نظر $\rm P(4\;بازی)$ و غیره، و/یا آن ممکن است شامل ترکیباتی مانند $\rm(احتمال\;از\;حداقل\;4/7\;W)\times(احتمال\;از\;قانونی\;ترکیب\;از\;7\;نتایج باشد )$، اما من کمی گیر کردم. در ابتدا به ایده‌هایی فکر کردم که شامل $\left(^n_k\right)$ بود، اما به نظر می‌رسد که فقط در صورتی کار می‌کند که ترتیب نتایج مهم نباشد. جالب اینجاست که یکی دیگر از دوستان مشترک آماری از 7 سری بازی انجام شده (NHL، NBA، MLB 1905-2013، سری 1220) بیرون آورد و به این نتیجه رسید: 4 سری بازی - 202 بار - 16.5% 5 سری بازی - 320 بار - 26.23% 6 سری بازی - 384 بار - 31.47% 7 سری بازی - 314 بار - 25.73٪ این در واقع یک تطابق بسیار خوب است (حداقل از دیدگاه ستاره شناس من!). من حدس می‌زنم که این اختلاف از نتیجه هر بازی ناشی می‌شود که به سمت پیروزی یک تیم یا تیم دیگر مغرضانه است (در واقع، تیم‌ها معمولاً در دور اول قرار می‌گیرند به طوری که تیم مقدماتی با تیمی بازی می‌کند که به سختی واجد شرایط است، نفر دوم بازی دوم آخر است و به همین ترتیب... و بیشتر بازی ها در دور اول هستند).
آمار 7 سری پلی آف بازی
82021
برای انتخاب ویژگی برای مجموعه داده های بسیار نامتعادل باید یک فیلتر پتویی مارکوف انجام دهم. آیا الگوریتم های محبوبی برای این کار وجود دارد؟ من باید الگوریتم پشت این را بفهمم. با توجه به آنچه که می‌دانم اگر ویژگی Fi را داشته باشم و پتوی مارکوف Mi را پیدا کنم، می‌توانم همه ویژگی‌ها را در Mi فیلتر کنم زیرا اضافی هستند. اما اگر یک گره Fj در Mi دارای پتو مارکوف خود Mj باشد چگونه رفتار کند؟
انتخاب ویژگی: فیلتر پتوی مارکوف
89462
فرض کنید که یک متغیر طبقه بندی شده $X$ می تواند سه مقدار داشته باشد: $0$،$1$ یا $2$. اگر مدل خطرات متناسب کاکس را اجرا کنیم و تخمینی برابر با $\beta_1$ بدست آوریم، چگونه این را تفسیر می کنیم؟ بنابراین دریافت می کنیم: $$\log[\text{HR}]= \log[h_{0}(t)]+ \beta_{1}X$$ آیا $\exp(\beta_1)$ نسبت خطر بین $X=2$ در مقابل $X=1$؟ همچنین نسبت خطر بین $X=1$ در مقابل $X=0$ را می دهد؟ آیا $\exp(2 \beta_1)$ نسبت خطر را بین $X=2$ در مقابل $X=0$ نشان می‌دهد؟
ضرایب و متغیرهای طبقه بندی
16095
من گزارش های زیادی را دیده ام که شامل (مثلاً) 6 نمودار پراکندگی در یک جدول بزرگ مانند قالب است. هر نمودار پراکندگی رابطه بین دو متغیر مختلف را نشان می دهد. برای مثال، یکی ممکن است رابطه بین درآمد و هزینه را نشان دهد و دیگری ممکن است رابطه بین پرداخت وام مسکن و تعطیلات گرفته شده را نشان دهد. همه قطعات پراکنده به طور منظمی در کنار هم قرار گرفته اند. سوال من: **چگونه نمودارهای پراکندگی متعددی در SPSS ایجاد می کنید؟** همچنین نمودار پراکندگی که من در SPSS/PASW رسم کرده ام 0.00 در محور x دارد و این در محور y در سمت چپ تکرار می شود. گوشه ای که دو محور به هم می رسند. آیا این باید فقط یک 0.00 باشد (مانند سایر اشکال نمودار).
چگونه می توان نمودارهای پراکندگی متعدد را در SPSS که در قالب یک جدول مرتب شده اند ایجاد کرد؟
96483
اگر چنین است، چرا؟ اگر نه، چرا که نه؟ من به یک زمینه ANOVA فکر می کنم، اما اگر پاسخ بسته به زمینه تغییر کند، من نیز علاقه مند هستم که بدانم دلیل آن چیست.
آیا می توان یک آماره F منفی (به عنوان مثال در ANOVA) بدست آورد؟
96856
یک فرآیند گاوسی توزیع احتمال را بر روی توابعی که از نقاط داده عبور می کنند، می دهد. آیا راهی برای پارامترسازی فرآیند گاوسی وجود دارد تا به جای توابع، توزیع احتمال بر روی منحنی های بسته ارائه شود؟ آیا می توان همین رویکرد را برای توزیع بر روی سطوح بدون مرز تعمیم داد؟
فرآیند گاوسی برای منحنی های بسته
16094
من از یک مجموعه توییت 1.6 میلیونی برای آموزش یک موتور احساسات ساده بیز استفاده می کنم. من سعی می کنم آنتروپی توزیع احتمال ظاهر یک n گرم در مجموعه داده های مختلف را محاسبه کنم. دو مجموعه داده من n-گرم هستند که از یک پیکر مثبت و یک پیکره منفی ساخته شده اند، و من می خواهم هر n-گرم رایج با آنتروپی بالا را حذف کنم. من چندین ساعت را صرف جستجوی وب برای چگونگی انجام این کار در کد کرده ام. من لزوماً به دنبال کد نیستم، زیرا ترجیح می‌دهم بفهمم دارم چه کار می‌کنم، اما نمی‌دانم از کجا شروع کنم. من 2 سالی که در کالج بودم یا یک رشته ریاضی یا CS بودم، بنابراین پیشینه کافی در این زمینه دارم که... هنوز کاملاً گیج هستم :) من همچنین در این فضا نسبتاً تازه کار هستم، بنابراین مطمئن هستم که ناآگاهی تا حدودی در این امر نقش دارد، اما امیدوارم کسی بتواند مرا در مسیر درست هدایت کند. من سوال را در SO ارسال کردم، اما هر چه بیشتر در مورد آن فکر می کنم، مطمئن نیستم که مکان مناسبی برای پرسیدن است... این دو معادله به شرح زیر است (اولین باری است که سعی می کنم از قالب بندی لاتکس استفاده کنم، پس ببخشید اگر اینطور است. قصابی شده): $$\text{entropy}(g) = H(p(S|g)) = -\sum_{i=1}^N p(S_i|g) \log(p(S_i|g))$$ $$\text{salience}(g) = \frac{1}{N} \sum\limits_{i=1}^{N-1} \sum\limits_ {j=i+1}^N \left(1 - \frac{\min(P(g|S_i),P(g|S_j))}{\max(P(g|S_i),P(g|S_j))}\right)$$ G مجموعه ای از n-گرم نشان دهنده پیام است، N تعداد احساسات است (در مورد من، 2)، S نشان دهنده آنتروپی شانون است اگر تجزیه آن به غیر معمول/شبه کد مناسب نیست. محدوده، من خوشحالم که به منابعی اشاره می کنم که می توانم این را به تنهایی یاد بگیرم. با تشکر فراوان [ویرایش] من سعی می کنم این سند pdf را دنبال کنم، به ویژه مرحله 5.3 برای افزایش دقت (برای ایجاد احساسات بیزی استفاده نمی شود) [/ویرایش] [ویرایش 2] بنابراین با توجه به N از 2، من معتقدم آنتروپی به این صورت تعریف می شود: $$ p(S_1|g) * log(p(S_1|g) - p(S_2|g) * log(P(S_2|g)$$ کجا $p(S_1|g)$ به صورت (ng_count) / (ng_count+total_count) محاسبه می‌شود، اگر ng_count تعداد نمونه‌هایی باشد که n-gram من در مجموعه $S_1$ من نشان داده می‌شود و total_count تعداد کل همه n_gram است. آیا این درست است؟
درک آنتروپی / برجستگی توزیع احتمال دو مجموعه داده
96739
در اینجا @gung به قانون 0.632+ اشاره می کند. یک جستجوی سریع در گوگل پاسخی آسان برای اینکه این قانون به چه معناست و برای چه هدفی از آن استفاده می شود، به دست نمی دهد. آیا کسی لطفا قانون 0.632+ را توضیح دهد؟
قانون .632+ در بوت استرپینگ چیست؟
93268
من در یک استارت‌آپ مهندسی M2M کار می‌کنم و تیم مهندسی یک پردازشگر رویداد پیچیده را مفهوم‌سازی کرده‌اند و می‌خواهند «هشدارهایی» را هنگام وقوع رویداد ایجاد کنند. طرح اولیه ساخت یک موتور قوانین بود، اما من احساس می‌کنم که موتور قانون می‌تواند به اندازه‌ای دشوار رشد کند که تعمیر و نگهداری دستی را دشوار می‌کند. یک جایگزین برای این که من فکر می کردم می تواند درخت تصمیم یا مجموعه ای از درختان باشد. آیا هر یک از شما چنین راه حلی را ساخته است و لطفاً می توانید در مورد اینکه اگر من به دنبال استفاده از آن در زمان واقعی هستم، به خوبی کار کند.
پردازش رویداد پیچیده
10871
من علاقه مندم بدانم بچه ها در کشورهای مختلف دنیا چه سطحی از آمار یاد می گیرند. آیا می‌توانید داده‌ها/پیوندهایی را پیشنهاد کنید که در مورد آنچه در این زمینه اتفاق می‌افتد را روشن کند؟ من شروع می کنم. اسرائیل: دانش آموزانی که در ریاضیات پیشرفته شرکت می کنند، کم و بیش مطالعه می کنند - میانگین، sd، هیستوگرام، توزیع نرمال، احتمال بسیار ابتدایی. با تشکر
آموزش آماری کودکان در کشورهای مختلف؟
28823
این سوال در ابتدا توسط یکی از همکاران در رابطه با محاسبه AIC برای یک مدل اثرات مختلط غیرخطی (nlme) - که در آن عناصر خارج از قطر ماتریس کوواریانس تخمین زده می شود - پرسیده شد. معادلات AIC (از ویکی پدیا): \begin{align} AIC &= OFV + 2k \\\ BIC &= OFV + k \ln(n) \end{align} با $k$ تعداد (غیرثابت) ) پارامترها، و $n$ تعداد مشاهدات (و $OFV = -2LL$ برای مدل «nlme» با استفاده از حداکثر احتمال). **سوال: آیا فقط عناصر قطری ماتریس اثرات تصادفی بر حسب k محاسبه می شوند یا عناصر خارج از مورب نیز در صورت برآورد؟ آیا عناصر خارج از مورب واقعاً به عنوان درجه ای از آزادی به حساب می آیند؟** فکر من پس از خواندن این مقاله1 این است که AIC در بیان اصلی خود می تواند بیشتر برای مدل های خطی استفاده شود. AIC همچنین به روش تخمین مورد استفاده بستگی دارد، احتمال حاشیه ای در مقابل احتمال شرطی. حتی اگر مجبور باشیم از AIC مشروط (cAIC) که نویسندگان در مقاله پیشنهاد می‌کنند استفاده کنیم، چگونه با عناصر خارج از مورب ماتریس اثر تصادفی برخورد می‌کنیم: آیا آنها به درجات آزادی و تا چه اندازه کمک می‌کنند؟ آیا هیچ یک از شما استفاده از AIC را برای مدل پیچیده «nlme» با اثرات تصادفی زیاد و همبستگی‌های احتمالی در نظر می‌گیرد؟ 1. Vaida، F. و S. Blanchard، اطلاعات Akaike شرطی برای مدل‌های با جلوه‌های ترکیبی. Biometrika, 2005. 92 (2): ص. 351-370.
آیا عناصر خارج از مورب Cov-Matrix به تعداد پارامترهای AIC کمک می کند؟
110642
من برای نشان دادن چیزی که برای حل یک مشکل دنیای واقعی روی آن کار می کنم، مثالی می سازم. وانمود کنید که ما در یک باغ وحش هستیم و این باغ وحش شامل 5 محوطه از حیوانات مختلف است. محوطه A شامل 3 مورچه، محوطه B شامل 3 بابون، محوطه C شامل 2 گربه، محوطه D شامل 4 سگ، محوطه E حاوی 1 فیل است. من سعی می کنم با بستن یک چشم بند و انتخاب یک حیوان کاملاً تصادفی (مستقل از محوطه) یکی از هر حیوان را در قلم گرد کنم. می توانم با چشم بند بگویم چه حیوانی را انتخاب کرده ام و اگر حیوان منحصر به حیواناتی است که در قلم من است، آن را در قلم قرار می دهم، اگر نیست می خورم (یا دور می اندازم یا به حیوان می دهم. پناهگاه، شما عکس را دریافت می کنید)، در هر صورت هیچ جایگزینی وجود ندارد. حال، با توجه به n محفظه و توزیع نرمال تعداد حیوانات در هر محوطه حول میانگین a، احتمال اینکه پس از جست‌وجو در حیوانات i یک حیوان منحصر به فرد را بگیرم چقدر است؟ من قول می دهم که این بسیار مهم است.
سوال در مورد مشکل مربوط به مشکل جمع کننده کوپن
96489
می دانیم که الگوریتم های جستجو با پیچیدگی زمانی O(lgn) وجود دارد، اما آیا الگوریتم مرتب سازی با پیچیدگی زمانی O(lgn) وجود دارد؟
تحلیل الگوریتم با پیچیدگی زمانی
12535
من دو مجموعه داده دارم که می خواهم مقایسه کنم. هر مجموعه داده شامل وزن 10 فرد مختلف است که برای 3 روز مختلف اندازه گیری شده است. من علاقه مند به اندازه گیری احتمال اینکه دو نمونه از یک جامعه منشا می گیرند، هستم. به نظر می رسد مردم انجام تست کولموگروف-اسمیرنوف را پیشنهاد می کنند، اما من به اندازه گیری نیاز دارم. من به این فکر می‌کردم که EMD را برای مقایسه توزیع برای هر روز EMD (مجموعه داده 1-روز1، مجموعه داده 2-روز1) + EMD (مجموعه داده 1-روز2، مجموعه داده2-روز2) + EMD (مجموعه داده 1-روز3، مجموعه داده 2-روز3) مقایسه کنم، اما احتمالاً می‌توانم استفاده کنم هر فرد به عنوان نقطه داده سه بعدی و EMD را به صورت سه بعدی انجام دهید. یک امکان دیگر این بود که فاصله هاسدورف را انجام دهیم اما به جای گرفتن حداکثر فاصله، میانگین فاصله را برای هر نقطه انجام دهیم. تفاوت اصلی بین این دو تکنیک چیست؟
اندازه گیری احتمال اینکه 2 نمونه از یک جامعه منشا گرفته باشند
89468
من با ریزداده های عمومی برای سنجش میزان پیشرفت تحصیلی کار می کنم. من می‌خواهم درصد جمعیت بالای 25 سال را محاسبه کنم. من صرفاً از نحوه استفاده از وزن‌های فردی خود در هنگام محاسبه یا حتی اگر مجبور باشم، بی‌اطلاعم. من نمی دانم که آیا استفاده از وزن ها ضروری است، و اگر چنین است، آیا می توانم به سادگی با استفاده از دستور 'egen درصدها' از آنها استفاده کنم؟
وزن و درصد نمونه گیری انفرادی
61848
آیا برای اجرای یک رگرسیون خطی، هم متغیر مستقل و هم متغیر مستقل من باید به طور عادی توزیع شوند؟ متغیر وابسته من به طور معمول توزیع شده است، اما مستقل من نیست... بنابراین، آیا باید از PROC REG یا PROC CORR در SAS استفاده کنم؟
PROC CORR در مقابل REG؟
65740
من داده های دوجمله ای آلوده/غیر آلوده در افراد نمونه ای از سال های مختلف برای دو عفونت مختلف دارم. من از «prop.trend.test» برای آزمایش روند هر عفونت استفاده کرده ام. من می خواهم آزمایش کنم که آیا روندی در نسبت آلوده / غیر آلوده بین دو عفونت وجود دارد یا خیر. از آنجایی که یک نسبت می تواند بین 0 و ∞ متفاوت باشد، چه آزمونی مناسب است؟ برای آزمایش روندهای پروپورتین ها، برخی «glm» را با خانواده «دوجمله ای» پیشنهاد کرده اند. آیا می توانم از «glm» با خانواده دیگری استفاده کنم؟ از چه آزمونی می توانم برای اثبات وجود روند صعودی در ارزیابی سری های زمانی نسبت ها در R استفاده کنم؟ استفاده از آزمون کوکران-آرمیتاژ (که فکر می کنم همان prop.trend.test است) یا رگرسیون لجستیک را پیشنهاد می کند. مطمئن نیستم که در مورد نسبت ها مناسب است یا خیر.
تست روند برای نسبت ها
63999
من دو متغیر جفتی دارم، x و y: person x y 1 124 100 2 79 94 3 118 105 ... در اینجا یک نمودار پراکنده از داده ها آمده است: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur. com/dz7Pz.png) من به همبستگی بین x و y علاقه مند هستم. بوت استرپینگ توزیع زیر را به من می دهد. خطوط همبستگی واقعی داده ها (rho = 0.16) و 0.25٪ و 97.5٪ از توزیع بوت استرپ هستند. چندوجهی بودن توزیع همبستگی به چه معناست؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/f9oiG.png) _داده ها صرفاً نمونه ای برای توضیح سوال هستند. اگر حجم نمونه به اندازه کافی بزرگ بود، این نتیجه چه معنایی خواهد داشت؟_
چگونه توزیع چندوجهی همبستگی بوت استرپ را تفسیر کنیم؟
16327
من یک ماتریس همبستگی از بازده های امنیتی دارم که تعیین کننده آن صفر است. (این کمی تعجب آور است زیرا ماتریس همبستگی نمونه و ماتریس کوواریانس مربوطه از نظر تئوری باید قطعی مثبت باشد.) فرضیه من این است که حداقل یک اوراق بهادار به صورت خطی به اوراق بهادار دیگر وابسته است. آیا تابعی در R وجود دارد که به طور متوالی هر ستون را یک ماتریس برای وابستگی خطی آزمایش کند؟ به عنوان مثال، یک رویکرد می تواند ایجاد یک ماتریس همبستگی هر بار امنیت و محاسبه تعیین کننده در هر مرحله باشد. هنگامی که تعیین کننده = 0 است، متوقف شوید زیرا اوراق بهادار را که ترکیبی خطی از سایر اوراق بهادار است شناسایی کرده اید. هر تکنیک دیگری برای شناسایی وابستگی خطی در چنین ماتریسی قدردانی می شود.
آزمایش وابستگی خطی در بین ستون های یک ماتریس
19519
من دو سوال در مورد انتخاب سفارش ARIMA (p,d,q) دارم. با فرض اینکه نمودار ACF یا PACF فقط در تأخیر 4 سنبله را نشان می‌دهد (و هیچ سنبله‌ای در هیچ تأخیری وجود ندارد)، سؤال من این است، 1. آیا باید فرآیند MA را به جای AR در نظر بگیرم؟ (چون هیچ سنبله ای از تاخیر 1 به تاخیر n-1 وجود ندارد، در این حالت n برابر با 4 است) این نوع سنبله به چه معناست و کدام مرتبه (p,d,q) در نظر گرفته می شود؟ 2. با فرض اینکه سنبله در تاخیر 4 در ACF نشان داده شده است، آیا می توانم مدل ARIMA را به عنوان سفارش (0,0,4) نه Y(t)= C - E(t) - aE(t-1)-bE(t) بسازم. -2)-cE(t-3)-dE(t-4) اما Y(t)= C - E(t)- aE(t-4)، که در آن C ثابت است، a/b/c/d coffiecients، E خطا است. در صورت امکان چگونه می توانم چنین مدلی را در R بسازم؟ من برای هر پاسخ قدردانی می کنم.
مسئله انتخاب سفارش (p,d,q) برای ARIMA
19518
برای یک پروژه تحقیقاتی مدرسه، به من دستور داده شده است که تعداد زیادی آزمون را با مقایسه نسبت های گروه های مختلف اجرا کنم. (مثلاً، به جز اینکه Statistica به من یک p آشکار می دهد.) این فرآیند پر زحمت است و من می خواهم آن را خودکار کنم. با این حال، من به فرمول این آزمایش نیاز دارم، و جستجوهای اینترنتی تنها نتایج متناقض و غیر مفیدی را نشان داده است. آیا فرمول به خصوص پیچیده است؟ آیا نکته مهمی را از دست داده ام؟
آزمون آماری برای تفاوت بین دو نسبت؟
52087
همانطور که می دانیم چند جمله ای های احتمالی هرمیت با توجه به تابع وزن $\frac{1}{\sqrt{2 \pi}} e^{-x^2/2}$ متعامد هستند (چگالی نرمال استاندارد). من توزیعی دارم که مخلوطی از دو گاوسی است که هر کدام به ترتیب دارای $(میانگین، واریانس) =(1،\sigma^2)$ و $(-1،\sigma^2)$ هستند. چه تغییراتی باید انجام دهیم (در تابع وزن و ضرایب چندجمله ای های هرمیت) به طوری که چند جمله ای های هرمیت نسبت به مخلوط دو توزیع گاوسی متعامد باشند.
متعامد بودن چند جمله ای های هرمیت
104080
آیا باید از تحلیل رگرسیون زمانی استفاده کرد که همه متغیرهای مستقل به صورت دودویی مقوله ای (0،1) باشند تا تأثیر آنها را بر وابسته پیوسته ببینیم؟ برخی پیشنهاد می کنند که در این مورد نباید از رگرسیون استفاده کرد.
تحلیل رگرسیون با متغیرهای مستقل باینری
19511
من سعی می کنم تست سفید را در sas اجرا کنم و این پیغام خطا را به من برمی گرداند. خطا: هیچ برنامه مدلی وجود ندارد. نمی توان وظایف درخواستی را انجام داد مشکل چیست؟ کد زیر استفاده می کنم: proc model data=all; fit y / white pagan=(1 x1 x2 x3) out=resid1 outresid; اجرا؛ ترک کردن
آزمایش برای ناهمسانی
2374
من قبلاً موارد را از دیدگاه روان‌سنجی تحلیل می‌کردم. اما اکنون سعی می کنم انواع دیگر سوالات در مورد انگیزه و موضوعات دیگر را تجزیه و تحلیل کنم. این سوالات همگی در مقیاس لیکرت هستند. فکر اولیه من این بود که از تحلیل عاملی استفاده کنم، زیرا فرضیه سؤالات منعکس کننده برخی از ابعاد اساسی است. * اما آیا تحلیل عاملی مناسب است؟ * آیا لازم است هر سؤال را با توجه به ابعاد آن تأیید کنیم؟ * آیا انجام تحلیل عاملی روی آیتم های لیکرت مشکلی دارد؟ * آیا مقالات و روش های خوبی در مورد چگونگی انجام تحلیل عاملی بر روی لیکرت و سایر موارد طبقه بندی شده وجود دارد؟
تحلیل عاملی پرسشنامه های متشکل از گویه های لیکرت
2370
من سعی می کنم یک مدل Cox Proportional Hazard را با coxph با یک کامپیوتر 12 گیگابایت رم تنظیم کنم. حافظه آن مدام تمام می شود. آیا معادل biglm برای coxph وجود دارد؟
آیا معادل biglm برای coxph وجود دارد؟
10874
انتشارات مهم/قابل توجه برای کتاب در آمار کدامند؟ وقتی با کتابی مواجه می شوم که در O'Reilly یا Springer منتشر شده است، تصور می کنم کیفیت آن بالا خواهد بود. چه مؤسسات انتشاراتی قابل توجه دیگری (برای کتاب های آمار) وجود دارد؟ هیچ توصیه ای در مورد راهی برای پیدا کردن؟ (فکر می‌کنم اگر پایگاه داده آمازون را داشتیم می‌توانستیم آن را بررسی کنیم، اما فکر نمی‌کنم چنین چیزی در هیچ کجا موجود باشد...)
انتشارات کتاب های آماری با کیفیت بالا
61842
اگر یک ANOVA را اجرا کنید و متوجه شدید که تعاملات قابل توجهی وجود دارد، آیا متغیرها را به صورت جداگانه بیرون می آورید و ANOVA را دوباره اجرا می کنید؟ من از نوع III استفاده می کنم. می‌خواهم ببینم که آیا تفاوتی در بقا بین 3 گروه وجود دارد یا خیر، اما باید 3 متغیر غیر از گروه را در مدل خود بگنجانم تا مطمئن شوم که آنها روی بقا نیز تأثیری ندارند. وقتی A*D و A*E را انجام می‌دهم روی بقا تأثیر می‌گذارد، اما وقتی A، D و E را به تنهایی اجرا می‌کنم، هیچ چیز روی بقا تأثیر نمی‌گذارد. ای کاش درک بهتری از آمار داشتم، زیرا هنوز خیلی گیج هستم. در اصل، من به دنبال این هستم که چگونه بقای بین 3 گروه از حیوانات متفاوت است، در حالی که در نظر گرفتن طول، وزن و سن ممکن است نقش داشته باشند. وقتی من به این عوامل به صورت جداگانه نگاه می‌کنم، هیچ‌کدام تأثیر قابل‌توجهی بر بقا نداشتند... اما، وقتی اصطلاحات تعاملی را وارد می‌کنم (یعنی طول*وزن، گروه*وزن و غیره) متغیرها معنی‌دار هستند. این به چه معناست؟ آیا اشتباه می کنم که در نتایج خود می نویسم که x، y و z بر نتایج من تأثیر نمی گذارد؟
کاهش مدل ها پس از یافتن تعاملات قابل توجه
96482
من در حال انجام تجزیه و تحلیل اجزای اصلی (PCA) بر روی مقدار کمی از داده ها هستم (3000 متغیر، 100079 نقطه داده). من این کار را بیشتر برای سرگرمی انجام می دهم. تجزیه و تحلیل داده ها کار روزانه من نیست. به طور معمول، برای انجام یک PCA، ماتریس کوواریانس را محاسبه می کنم و سپس بردارهای ویژه و مقادیر ویژه مربوطه را پیدا می کنم. من به خوبی درک می‌کنم که چگونه هر دوی اینها را تفسیر کنم، و آن را راهی مفید برای دستیابی به یک مجموعه داده در ابتدا می‌دانم. با این حال، من خوانده‌ام که با چنین مجموعه داده‌ای بزرگ، بهتر است (سریع‌تر و دقیق‌تر) تجزیه و تحلیل مولفه‌های اصلی را با انجام تجزیه ارزش منفرد (SVD) روی ماتریس داده انجام دهیم. من این کار را با استفاده از تابع 'svd' SciPy انجام داده ام. من واقعاً SVD را نمی‌فهمم، بنابراین ممکن است آن را درست انجام نداده باشم (به زیر مراجعه کنید)، اما با فرض اینکه دارم، چیزی که در نهایت به آن می‌رسم (1) یک ماتریس «U» است که اندازه آن 3000 دلار \ برابر 3000 دلار است. ; یک بردار `s` به طول $3000$، و یک ماتریس V با اندازه $3000\ برابر 100079$. (من از گزینه full_matrices=False استفاده کردم، در غیر این صورت 100079$\ برابر 100079$ بود که احمقانه است.) سوالات من به شرح زیر است: * به نظر معقول به نظر می رسد که مقادیر مفرد در بردار `s` ممکن است باشد. همانند مقادیر ویژه ماتریس همبستگی. آیا این درست است؟ * اگر چنین است، چگونه بردارهای ویژه ماتریس همبستگی را پیدا کنم؟ آیا آنها ردیف‌های «U» هستند یا ستون‌های آن یا چیز دیگری؟ * به نظر می رسد که ستون های V ممکن است داده هایی باشند که به مبنای تعریف شده توسط اجزای اصلی تبدیل شده اند. آیا این درست است؟ اگر نه، چگونه می توانم آن را دریافت کنم؟ برای انجام تجزیه و تحلیل، من به سادگی داده های خود را در یک آرایه numpy بزرگ 3000 $ \ بار 100079 $ جمع کردم و آن را به تابع svd ارسال کردم. (من می دانم که به طور معمول ابتدا باید داده ها را در مرکز قرار دهیم، اما شهود من می گوید که احتمالاً نمی خواهم این کار را برای داده های خود انجام دهم، حداقل در ابتدا.) آیا این راه درستی برای انجام آن است؟ یا باید قبل از اینکه داده های خود را به این تابع منتقل کنم، کار خاصی برای آن انجام دهم؟
درک خروجی SVD هنگامی که برای تجزیه و تحلیل اجزای اصلی استفاده می شود
113600
من در حال مقایسه 2 مجموعه داده جداگانه با آزمون Mann-Whitney U هستم. من در حال تجزیه و تحلیل سه پارامتر جداگانه موجود در هر دو مجموعه داده هستم و می خواهم بدانم کدام پارامتر بیشترین جدایی را بین دو مجموعه داده ایجاد می کند. هرچه مقدار P کمتر باشد، جدایی بیشتر است، درست است؟ از آنجایی که N1 و N2 برای هر سه تست یکسان هستند، مقادیر P مستقیماً قابل مقایسه هستند، درست است؟ بنابراین، هر کدام از پارامترها کمترین مقدار P را تولید می کند، بیشترین تفکیک را ایجاد می کند. در مورد مقادیر U چطور؟ آیا مستقیما قابل مقایسه هستند؟ آیا مقادیر P باید با مقادیر U همبستگی داشته باشند؟ به عنوان مثال، اگر P برای یک پارامتر کوچکتر باشد، آیا U نیز باید کوچکتر باشد؟ من از این ماشین حساب Mann-Whitney استفاده می کنم زیرا استفاده از آن آسان است. کسی میدونه چقدر قابل اعتماده؟ نتایج را در قالب فعلی خروجی می‌دهد: n1 n2 U P (دو دنباله) P (یک دنباله) 1214 127 108180.5 < 2e-06* < 1e-06* عادی تقریبا z = 7.48764 7.01242e-14*5-14*3. که دقیقا دو دم است p-value، «< 2e-06*» یا «7.01242e-14*»؟ z چیست؟ از آنجایی که مقادیر p دقیق را محاسبه نمی‌کند، نمی‌توانم پارامترها را با هم مقایسه کنم، زمانی که هر دوی آن‌ها مقادیر p با «< 2e-06*» تولید می‌کنند، برای مثال (نمی‌توانم بگویم کدام کوچک‌تر است). من آن را در گوگل جستجو کرده‌ام، اما نتیجه‌ای برای انجام Mann-Whitney در «Libreoffice» نمی‌بینم. آیا راهی برای انجام آن وجود دارد؟ من می دانم که R تست Wilcox را دارد، اما دقیقاً یکسان نیست، درست است؟
تست U Mann-Whitney
65748
من یک نسبت 70/30 برای داده های قطار / آزمایش دارم. من یک مجموعه ویژگی نسبتاً کوچک دارم (6 ویژگی)، با این حال، هنوز هم می‌خواهم انتخاب ویژگی را انجام دهم تا از شر هر ویژگی اضافی خلاص شوم (من حدس می‌زنم که یکی از ویژگی‌های من کاملاً باشد). آیا اجرای انتخاب ویژگی روی داده‌ها بعداً برای آموزش/آزمایش استفاده می‌شود، نتایج را تحت تأثیر قرار می‌دهد؟ من می دانم که برای تأیید متقابل این درست است، اما در مورد قطار / مجموعه آزمایشی ساده مانند من چطور؟
کدام داده برای انتخاب ویژگی برای به دست آوردن نتیجه بی طرفانه؟
96737
من یک سوال در مورد چیزی دارم که احتمالاً برای آمار بسیار ابتدایی است، اما احساس می‌کنم کاملاً نمی‌فهمم، دریافته‌ام که معمولاً به دست آوردن فواصل اطمینان با قدرت بالا (کوچکتر) با داده‌های دوجمله‌ای (۰،۱ ثانیه) بسیار سخت‌تر است. من می خواهم تفاوت بین دو نسبت را محاسبه کنم، بدست آوردن یک مقدار p بالا و فواصل اطمینان دشوار است. با این حال، با مطالعاتی با همان تعداد شرکت‌کننده که می‌توانم میانگین‌ها را برای آنها محاسبه کنم (چون متغیرها به‌جای انتخاب 0 یا 1 به طور مداوم اندازه‌گیری می‌شوند)، قدرت بسیار بالاتر است. فکر می‌کنم دلیل این امر را خوب می‌دانم، اما می‌خواهم کسی آن را به صورت اساسی برای من توضیح دهد تا بتوانم درک خود را بررسی کنم. آیا نمودارهایی وجود دارد که هر کسی بتواند به من اشاره کند (یا یک قانون کلی) که اندازه نمونه را با قدرت در هنگام استفاده از داده های دوجمله ای در مقابل پیوسته پیوند می دهد. من احساس می‌کنم به دلیل کمبود قدرت، باید از جمع‌آوری نتایج باینری تا حد امکان اجتناب کنم. آیا این درست است نظر اضافی اضافه شده 11.05.2014 12:04 برای روشن شدن: سوال من این است - اگر دقیقاً یک چیز را اندازه گیری کنیم اما با 2 روش مختلف جمع آوری داده ها. یکی دودویی است (به عنوان مثال آیا شما B را بیشتر یا کمتر از A ترجیح می دهید)، یکی پیوسته است (آیا A را ترجیح می دهید یا B. لطفاً اولویت A را در مقیاس 0-1 رتبه بندی کنید، جایی که B 0.5 است)، سپس آیا با روش اندازه گیری پیوسته توان بالاتری دریافت می کنم - و اگر چنین است چرا؟ به نظر می رسد، زیرا من یک میانگین نمرات را از روش پیوسته به جای نسبت ها دریافت می کنم، و خطای std میانگین نمرات معمولاً کمتر از نسبت ها به نظر می رسد، زمانی که مقادیر مورد انتظار یکسان هستند (مثلاً میانگین 0.5، نسبت 0.5) و تعداد شرکت کنندگانی که آزمون را انجام می دهند یکسان است.
قدرت هنگام استفاده از داده های دو جمله ای در مقابل داده های پیوسته
19512
من آمارگیر نیستم و مقاله ای را در PDE محاسباتی دیدم، شخصی استدلال کرد که خطای او برای PDE نشانگر خوبی از توزیع مکانی خطای تقریبی عددی PDE با استفاده از روش زیر است: او دو مجموعه داده $\\{e دارد. \\}_{i=1}^N$ و $\\{\eta\\}_{i=1}^N$ ($i$ نمایه مش)، و او چیزی شبیه به این را محاسبه کرد: $$ \mu = \sqrt{\sum_{i=1}^N \left(\frac{e_i}{\sum_{i=1}^N e_i} - \ frac{\eta_i}{\sum_{i=1}^N \eta_i}\right)^2} $$ او گفت اگر این کمیت کوچک باشد (تا حدی مبهم)، پس $\eta_i$ است تا حدودی تقریب خوبی برای $e_i$ از نظر مکانی است (یعنی $\eta_1$ نزدیک به $e_1$ است، چیزی شبیه به آن)، اما او هیچ نامی از این آمار و آزمایشی که می‌خواست انجام دهد را ذکر نکرد. من تعجب می کنم که این $\mu$ می خواهد چه چیزی را اندازه گیری کند؟ پیشاپیش متشکرم، و من در این زمینه تخصصی ندارم، بنابراین ممکن است برچسب اشتباهی را انتخاب کرده باشم، اگر اشتباه می کردم، اصلاح کنید.
آیا نامی برای این آمار وجود دارد؟ چه نوع فاصله هایی را بین دو مجموعه داده اندازه گیری می کند؟
96733
من می‌خواهم پیش‌بینی‌هایی را از یک مدل رگرسیون لجستیک برازش ایجاد کنم که عدم قطعیت مدل را منعکس می‌کند (در چارچوب مکرر کلاسیک). برای روشن شدن، هدف من توصیف عدم قطعیت پیش‌بینی‌کننده به این صورت نیست، بلکه به دست آوردن مجموعه‌ای از پیش‌بینی‌های معقول است که نسبت به عدم قطعیت در مورد ضرایب پیش‌بینی‌کننده‌های موجود در مدل منصفانه باشد. رویکرد من به شرح زیر است: برای هر گروه مورد علاقه، که با ترکیبی از مقادیر پیش بینی کننده ها تعریف می شود. مقادیری را برای هر ضریب رگرسیون از یک توزیع نرمال با میانگین - تخمین نقطه ای ضریب رگرسیون مربوطه و یک انحراف استاندارد - خطای استاندارد مربوطه ضریب رگرسیون ترسیم کنید. مقادیر به دست آمده را در فرمول لاجیت معکوس قرار دهید تا پیش بینی را بدست آورید. و تکرار کنید آیا این یک رویکرد معتبر خواهد بود؟ آیا برای مدل‌های اثرات مختلط (چند سطحی) و همچنین در جایی که پیش‌بینی‌کننده‌ها به عنوان اثرات تصادفی مدل‌سازی می‌شوند، کار می‌کند؟
پیش‌بینی‌هایی از مدل رگرسیون لجستیک ایجاد کنید که عدم قطعیت مدل را منعکس می‌کند