_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
67761
این یک سوال بسیار ساده است. اگر من 7 دلار با احتمال 0.33 و 3 دلار با احتمال 0.35 برنده شوم، آیا می توانم این رویداد چند سناریویی را با یک رویداد منفرد برنده 7 (33/68) + 3 (35/68) با احتمال 0.68 جایگزین کنم. . هدف من این است که با توجه به یک بازی پولی، به سرعت مقایسه کنم که کدام طرف سودمندتر است (بدون نیاز به محاسبه ارزش مورد انتظار بازی). وقتی یک مشکل ساده است، همه چیز خوب است. مانند: 1\. من 30 دلار می گیرم اگر $x$ اتفاق بیفتد و 10 دلار می پردازم اگر $x$ اتفاق نیفتد، من به راحتی می توانم 30/40 را با احتمال عدم اتفاق افتادن $x$ مقایسه کنم، اگر بزرگتر باشد، پس ارزشش را دارد، وگرنه این نیست اما مقابله با مشکلات چند سناریویی برای من سخت است. به عنوان مثال: 2\. اگر $y$ اتفاق بیفتد 25 دلار و اگر $z$ اتفاق بیفتد 12 دلار دریافت می‌کنم، و اگر $k$ اتفاق بیفتد 32 دلار و اگر $p$ اتفاق بیفتد 19 دلار می‌پردازم، جایی که $y,z,k$, و $p$ رویدادهای مستقلی هستند، با $P(y) + P(z) = 1 - P(k) - P(p)$. یک راه سریع (بدون ارزیابی مقدار مورد انتظار) برای تشخیص اینکه آیا ارزش آن را دارد چیست؟ من به این فکر می کردم که هر یک از 2 رویداد چند سناریویی را در 2 رویداد تک سناریویی کاهش دهم و مانند مورد 1 رفتار کنم.
احتمالات متعدد به مجرد
89836
تا اینجا در مبحث تجزیه و تحلیل مؤلفه های اصلی، به نظر می رسد که در درک این موضوعات مختلف به سرعت مشغول هستم و چند سؤال دارم که به تقویت درک کلی خود نیاز دارم. کاری که من می دانم چگونه انجام دهم: محاسبه مقادیر ویژه از یک ماتریس کوواریانس. سوال اول من: برای مثال، با توجه به یک ماتریس 2×2، فرض کنید: $$\left[\begin{matrix}2&5\\\4&2\end{matrix}\right]$$ چگونه می توانم ماتریس کوواریانس را محاسبه کنم در یافتن مقادیر ویژه و غیره به جلو حرکت کنید؟ و در مسئله ای که سعی می کنم حلش کنم، باید مقدار اولین جزء اصلی را با توجه به ماتریس کوواریانس پیدا کنم. می گوید اولین مؤلفه اصلی با بردار ویژه ای مطابقت دارد که حداکثر تنوع را ثبت می کند. سوال دوم: من سعی می کنم فرآیند پشت این را بفهمم، بنابراین آیا ابتدا مقادیر ویژه را محاسبه کنم، سپس از آن برای بدست آوردن بردار ویژه استفاده کنم؟ سپس از آنجا چیزی در مورد تبدیل آن به بردار واحد برای یافتن PC1 (اولین جزء اصلی) می گوید. من پاسخ های مستقیم نمی خواهم، بلکه بیشتر ایده و فرآیندی را می خواهم که در تلاش برای حل این موارد گم شده ام. با تشکر
ساخت ماتریس کوواریانس و یافتن اولین مؤلفه اصلی
55702
آیا می توان گفت پیش بینی سری های زمانی بخشی از داده کاوی است یا فقط یک ابزار داده کاوی است؟
داده یابی و پیش بینی سری های زمانی
66413
من به مقاله Simes (1986) که در اینجا یافت می شود مراجعه می کنم. در این تنظیم، $P_{(1)}$ تا $P_{(n)}$ آمار ترتیب $n$ متغیرهای تصادفی مستقل Uniform$[0,1]$ و برای $0\le \alpha \le هستند. n$, $$A_n(\alpha) = \Pr\\{P_{(j)}\gt j\alpha/n; j = 1, 2, \ldots, n\\}.$$ در صفحه 2، من مطمئن نیستم که چگونه انتگرال در اثبات بدست می آید. ادعا می کند که (الف) $P_{(j)}/P_{(n)}$ آمار ترتیب $n-1$ متغیرهای یکنواخت مستقل و (ب) تابع توزیع $P_{(n) است. }$ $p^n$ ($0\le p \le 1$) است، سپس $$A_n(\alpha) = \int_\alpha^1 A_{n-1}\left(\frac{\alpha(n-1)}{p n}\right) n p^{n-1} dp.$$ Simes اشاره کرد که از داور برای نسخه کوتاه‌تری تشکر می‌کند اثبات و من فرض می کنم که گوشه ای را قطع می کند که به درک بهتر من منجر می شود. من فکر می کنم که دو سوال خاص من این است... 1: چرا $P_{(1)}/P_{(n)} ..... P_{(n-1)}/P_{(n)}$ را در نظر بگیرید آمار سفارش $n-1$ متغیرهای تصادفی یکنواخت مستقل در $(0,1)$ مستقل از $P_{(n)}$؟ 2: $A_{n-1}$ {$\alpha$$(n-1)/np$} چگونه در انتگرال به دست می آید؟ خیلی ممنون می شوم اگر بتوانید به من کمک کنید تا این را بفهمم!
سوالاتی در مورد آمار سفارش توزیع های یکنواخت
27700
من مدل رگرسیون خطی چندگانه زیر را دارم: فراخوانی: lm(فرمول = Y ~ X1 + X2 + X2 + X3 + X4 + X5 + X6 + X7، داده = my.model، na.action = na.omit) باقیمانده ها: حداقل 1Q Median 3Q Max -43.836 -1.507 0.010 1.485 46.231 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.0244927 0.0245157 -0.999 0.318 X1 -0.3484619 0.0134383 -25.931 <2e-16 *** X2 0.1119501. <2e-16 *** X3 0.1224587 0.0108849 11.250 <2e-16 *** X4 -0.0010173 0.0028247 -0.360 0.719 X5 0.5496942 0.5496942 0.5496942 0.5496942 0.5496942 0.5496942 0.5496942 0.5496942 0.5496942 0.5496942 0.5496942 0.010 0.01 0.01 0.01 0.01 0.01. -0.2287941 0.0145018 -15.777 <2e-16 *** X7 -0.2315801 0.0146361 -15.823 <2e-16 *** X8 0.0005465 0.00052595 --01. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 خطای استاندارد باقیمانده: 2.936 در 35849 درجه آزادی (12534 مشاهده حذف شده به دلیل عدم وجود) R-squared چندگانه: 0.05968، R-squared تنظیم شده: 0.05947 F-statistic: 284.5 F-statistic: 284.5-F: 284.5 < 2.2e-16 مدل تحت تأثیر چند خطی قرار می گیرد، اما سؤال من در مورد پیش بینی است، بنابراین این نباید مشکلی باشد. من مقادیر مطلق پیش بینی مدل خود را بررسی کردم و با مقادیر مطلق Y واقعی مقایسه کردم. میانگین مقادیر مطلق پیش بینی شده به طور قابل توجهی کمتر از میانگین مقادیر مشاهده شده مطلق است: > lm1.predict = predict(lm1, mydata) > mean(abs(lm1.predict)) [1] 0.3294776 > mean(abs(mydata$Y )) [1] 1.206954 آیا این بدان معنی است که متغیرهای رگرسیون خطی که من استفاده می کنم تمایل دارند برای دست کم گرفتن نتایج؟ آیا از این مقایسه ساده می توان نتیجه دیگری گرفت؟ **ویرایش** روش دیگری برای بررسی این موضوع محاسبه تفاوت مطلق بین هر مشاهده و نتیجه نسبی است: > mean(abs(mydata$Y - lm1.predict)) [1] 1.208378 اینها تشخیصی از رگرسیون هستند. : ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Y7zmf.jpg)
دست کم برآورد پیش بینی رگرسیون خطی
115312
من سعی دارم نتایج دو مدل را با هم مقایسه کنم. مدل اول به y با x به عنوان یک اثر ثابت نگاه می کند. دومی به کوواریانس بین x و y می پردازد. هر دو مدل اندازه گیری های مکرر برای x و y دارند، بنابراین فردی به عنوان یک اثر تصادفی گنجانده می شود. من مدل ها را در MCMCglmm اجرا می کنم. من برای سهولت در این مثال آنها را به صورت گاوسی اجرا می کنم و باقیمانده ها نشان می دهد که این یک تقریب خوب است. داده ها d1 library (MCMCglmm) head(d1) d1$Indiv <-as.factor(d1$Indiv) (d1$Y, d1$X) # نشان می دهد که یک رابطه مثبت بین X و Y وجود دارد، اینها همه مقدمات اولیه هستند و نه بهینه شده است اما در بررسی های اول خوب به نظر می رسد: prior1 = list(R = list(V = diag(1)، nu=0.002)، G = list(G1 = فهرست (V=diag(1)، nu=1، alpha.mu=c(0)، alpha.V=diag(1)*1000))) M1 <- MCMCglmm(Y~X، تصادفی=~Indiv، rcov =~ واحد، داده = d1، پیشین = پیشین1، nitt = 100000، نازک = 200، سوختن = 100) این یک مثبت می دهد تخمین پارامتر برای X، نشان دهنده یک شیب مثبت است. prior3= list(R = list(V = diag(2)، nu=0.002)، G = list(G1 = list(V=diag(2)، nu=2، alpha.mu=c(0.0)، alpha.V=diag(2)*1000))) M2 <- MCMCglmm(cbind(Y,X)~1, random=~us(trait):Indiv، ## می تواند فقط با Indiv rcov=~us (ویژگی): واحدها، داده = d1، خانواده=c (گاوسی، گاوسی)، پیشین = prior3، nitt= 100000، نازک = 200، سوختن = 100) حالت پسین (M2$) VCV) این یک کوواریانس/همبستگی منفی می دهد، سپس فکر کردم که شاید اگر واریانس برای X تفاوت بود، این می توانست باعث ایجاد مشکل می شود، بنابراین X d1$stX را استاندارد کردم <-( d1$X -mean(d1$X))/sd(d1$X) M1.1 <- MCMCglmm(Y~stX, random=~Indiv, rcov=~واحدها داده = d1، پیشین = قبلی) این یک تخمین پارامتر مثبت برای stX می دهد که شیب مثبت را نشان می دهد. بنابراین من فکر کردم که تفاوت بین مدل ها می تواند به این دلیل باشد که در مدل کوواریانس یک اثر فردی بر روی X و Y به صورت جداگانه وجود دارد. بنابراین منظور من این است که مدل اثر ثابت به Y اجازه می دهد تا یک اثر فردی داشته باشد اما نه یک اثر منحصر به فرد برای X. بنابراین من یک شیب تصادفی برازش کردم، که در تئوری باید برخی از تفاوت ها را در واریانس X به حساب آورد (این را به صورت تصادفی می گویم. شیب X intercpt را تغییر می دهد) M1.2 <- MCMCglmm(Y~stX, random=~us(1 + stX):Indiv, rcov=~ واحدها، داده = d1، پیشین = قبلی) این یک تخمین پارامتر مثبت برای stX می دهد، که شیب مثبت را نشان می دهد. من به چیزهای دیگری مانند همبستگی بین بلوپ ها از یک مدل نگاه کرده ام: Y~1، تصادفی ~ Indiv و X Y~1، تصادفی ~ Indiv - هنوز یک رابطه مثبت وجود دارد. من گیج شده ام من سعی کردم داده‌ها را با ساختار کوواریانس مجموعه‌ای شبیه‌سازی کنم و سعی کردم تفاوت‌های بزرگی در اثر فردی در X و Y ایجاد کنم تا ببینم آیا می‌توانم این اثر را دوباره ایجاد کنم، اما تلاش می‌کنم موقعیتی با کوواریانس قوی و اثرات فردی بزرگ ایجاد کنم. تنها یک ویژگی، نشان می دهد که این دلیل این اختلافات نیست. من نمی دانم که آیا همبستگی خودکار در X می تواند مشکلی ایجاد کند؟ برای Yt، X = Bt-1 + Bt-2 بنابراین Yt = 5، X = B4 + B3 بنابراین Yt = 6، X = B5 + B4 این به طور بالقوه یک خطا در طراحی و محاسبه X بود - می توانم آن را تغییر دهم. خیلی آسان است، اما من کنجکاو هستم - آیا این همبستگی زمانی می تواند جهت کوواریانس را معکوس کند؟ من واقعا مشتاق هستم که بهتر بفهمم مدل چگونه کار می کند تا مطمئن شوم که اگر چنین چیزی دوباره تکرار شود متوجه می شوم داده های زیر - متاسفم که آن را برش دادم اما برای اجرای صحیح مدل به مقدار زیادی نیاز دارید با تشکر فراوان Sam Indiv Y X 1896 0 0 1685 2 1 2021 0 1 2054 0 1 2093 1 1 2219 3 1 201 2 2 1201 0 2 1340 2 2 1363 2 2 1579 0 2 1596 2 2 1667 3 2 1677 3 2 1990 2 2 2064 0 2 2165 2 2 22396 2 2 1667 3 2 2 2 2064 0 2 2165 2 2 2178 2240 3 2 2240 3 2 2626 3 2 1 3 3 970 3 3 1141 1 3 1149 1 3 1149 2 3 1201 1 3 1201 0 3 1202 1 325 1 325 3 3 1336 1 3 1336 2 3 1348 2 3 1448 1 3 1490 0 3 1504 2 3 1580 2 3 1621 2 3 1637 1 3 1654 1 3 1654 2 3 1490 2 3 1580 2 3 1817 3 3 2004 2 3 2011 1 3 2021 0 3 2048 3 3 2055 3 3 2089 1 3 2092 2 3 2110 1 3 2118 2 3 2048 21321 1 3 2231 1 3 2527 0 3 258 3 3.5 1 1 4 1 2 4 167 3 4 212 3 4 970 2 4 1052 0 4 1141 1 4 1202 1 4 1 4 4 1 2 4 1450 1 4 1467 2 4 1488 1 4 1568 3 4 1580 2 4 1580 0 4 1620 2 4 1629 2 4 1630 2 4 1635 1 4 1635 1 4 6 1 4 16 0 4 1681 3 4 1698 2 4 1703 3 4 1703 3 4 1716 3 4 1795 2 4 1795 2 4 1795 2 4 1797 1 4 1801 1801 2 4 1795 2 4 1795 1 4 1900 2 4 1913 2 4 1979 1 4 1979 2 4 1982 3 4 1986 2 4 1986 2 4 1986 0 4 2004 2 4 2011 1 4 208 2011 1 4 2020 2 4 2096 1 4 2191 2 4 2217 1 4 2227 3 4 2269 3 4 2351 2 4 2385 2 4 2544 2 4 2545 1 4 2623 2 4 2 4 2 2 2 4 2303 2 4.5 1 2 5 167 2 5 1202 1 5 1208 2 5 1231 2 5 1237 2 5 1240 1 5 1345 2 5 1448 2 5 1492 1237 125 1570 2 5 1630 2 5 1645 3 5 1646 1 5 1681 3 5 1823 2 5 1879 2 5 1978 2 5 2011 1 5 2014 2 5 203025.2014 2 5 20302 5 2240 2 5 2526 1 5 2633 2 5 1448 1 5.5 1208 2 6 1250 2 6 1338 3 6 1338 3 6 1462 2 6 1784 3 6 1208 1784 3 6 1338 1 6 2015 2
اثر ثابت تک متغیره در مقابل مدل چند متغیره -کوواریانس منفی، تخمین پارامتر مثبت، اما چرا؟
1556
تفاوت بین داشتن چیزی از نظر آماری معنی دار (مانند تفاوت بین دو نمونه) و بیان اینکه گروهی از اعداد مستقل یا وابسته هستند چیست؟
معنی دار آماری در مقابل مستقل/وابسته
68070
در «TraMineR» تابع «seqient()» برای محاسبه آنتروپی یک شی دنباله برای توالی رویداد در دسترس نیست (همانطور که با «seqecreate()» تعریف شده است. آیا این بدان معناست که معیارهای «تغییر» برای توالی رویدادها معنی منطقی ندارد؟ آیا جایگزینی برای معیارهایی مانند آنتروپی، پیچیدگی و آشفتگی برای توالی رویداد وجود دارد؟ یک راه حل طبیعی می تواند استفاده از تابع «TSE_to_STS()» در «TraMineRextras» برای تبدیل توالی رویداد به یک شی دنباله STS باشد، پس از آن توابعی مانند «seqient()» در دسترس می شود. با این حال، آیا آمارهای به دست آمده از این موضوع قابل اعتماد است؟
اندازه گیری آنتروپی برای توالی رویداد؟
67766
من باید محاسبه کنم که برای ابتلا به یک بیماری در مراحل اولیه چند نفر باید غربالگری کنم. اگر این بیماری دارای R0 برابر 2 باشد و با 1 عفونت در 1000 شروع شود و من از هر 1000 نفر یک نفر را غربالگری کنم - تا زمانی که یک فرد آلوده را غربال کنم به چند نفر می رسد؟ چگونه می توانم این کار را در اکسل انجام دهم؟
اگر بیماری R0 برابر 2 داشته باشد و با 1 عفونت در 1000 شروع شود، چند نفر باید غربالگری شوند؟
62223
**آزمایش:** دو گروه از کودکان وظایفی را با سه سطح دشواری در دو نقطه زمانی مختلف انجام می دهند و فعالیت مغز اندازه گیری می شود. همه بچه ها همه وظایف را انجام می دهند و این کار را در هر دو زمان انجام می دهند. **متغیر وابسته:** فعالیت مغزی (BA) **اقدامات تکراری:** تکلیف (سه سطح)، زمان (2 سطح) **مستقل:** گروه **متغیر:** سن من از تکرار استفاده کرده ام ANCOVA را برای تجزیه و تحلیل داده‌ها اندازه‌گیری می‌کند، اما اخیراً یک مدل ترکیبی برای افزایش انعطاف‌پذیری در گزینه‌های کنتراست/پس‌هاک امتحان کرده‌اند. یک تعامل 3 طرفه که برای من معنادار است، «گروه x کار x زمان»، با روش ANCOVA قابل توجه است اما نه با مدل مختلط، حتی در هنگام مدل‌سازی همان اثرات و تعاملات اصلی. نحو (SPSS) برای هر مدل در زیر آمده است. من نگران این هستم که از مدل ترکیبی اشتباه استفاده می کنم. آیا کسی می‌داند که می‌توانم با مدل ترکیبی خود چه کارهای متفاوتی انجام دهم تا شبیه آنچه با ANCOVA انجام داده‌ام بیشتر شود؟ DATASET ACTIVE DataSet1. GLM Time1Task1 Time1Task2 Time1Task3 Time2Task1 Time2Task2 Time2Task3 بر اساس گروه با سن /WSFACTOR=fixation 2 هدف چند جمله ای 3 چند جمله ای /METHOD=SSTYPE(3) /CRITERIA=ALPHA(. EEG مختلط بر اساس زمان گروهی کار با سن /معیارها=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0، ABSOLUTE(0، ABSOLUTE(0،00000) ABSOLUTE) /FIXED=Group*Time*Task Time Time*Task Task Time*گروه سنی*Task Group*Time Task*Age Time*Task Time*Task*Age | SSTYPE(3) /METHOD=REML /RANDOM=INTERCEPT سن | SUBJECT(id) COVTYPE(UN) /REPEATED=Target*Time | SUBJECT(id) COVTYPE(UN). در ANCOVA، آزمون های جدول اثرات درون آزمودنی ها به 9 اثر ختم می شود. من همان 9 افکت را در مدل مختلط مشخص کرده ام. من متوجه شدم که این تعداد نسبتاً مسخره زیادی از تعاملات موجود در مدل ترکیبی است، اما می‌خواستم آنچه را که ANCOVA به من می‌دهد منعکس کنم (نمی‌توان خروجی برای «تکلیف x زمان x سن» در GLM دریافت کرد، مگر اینکه من آن را وارد کنم. تمام تعاملات فوق - مدل فقط در فاکتورهای داخل موضوع و در فاکتورهای بین موضوع قابل تنظیم است و سپس به طور خودکار همه تعاملات بین را شامل می شود. فاکتورهای درون و بین موضوعی را بازی کرده‌ام: * بدون در نظر گرفتن افکت‌های تصادفی (سن، شناسه موضوع) * شامل جلوه‌های کمتر در مدل ترکیبی در حالی که هنوز هم تعامل مورد علاقه، کار x زمان x سن * متفاوت است. ماتریس‌های کوواریانس و هیچ‌کدام از این موارد به این معنی نیست که تعامل تکلیف x زمان x سن قابل توجه است متغیرهای کمکی در مدل ترکیبی به جای این تنظیمات جزئی.
آیا ممکن است نتایج مدل مختلط من با نتایج ANCOVA اندازه گیری های مکرر یکسان باشد؟ چرا من همان نتایج را نمی گیرم؟ SPSS
115007
من از Holt-Winters برای انجام پیش‌بینی سری‌های زمانی استفاده می‌کنم. بسته برای من گاما برابر با 1 را انتخاب کرد. من تعجب می کنم که این به چه معناست. پیش بینی در کل بسیار خوب عمل می کند. چه زمانی از این روش استفاده خواهید کرد و چگونه پارامترهای Holt-Winter را انتخاب می کنید؟
سوال Holt-Winters، پارامتر انتخاب شده است
91799
من با برخی از داده‌ها کار می‌کنم که در آنها دو امتیاز مؤلفه X و Y با هم جمع می‌شوند تا یک نمره کل X + Y ایجاد شود. آیا رابطه شناخته‌شده‌ای بین همبستگی R برای X در مقابل X + Y و R برای Y در برابر X وجود دارد. + ای؟ من کمی در اطراف بازی کرده ام، اما چیزی نمی بینم به جز در موردی که خود X و Y با هم ارتباط ندارند. (در آن صورت، مجموع مقادیر R2 برابر با 1 است.) ETA: با تمام احترامی که برای شما قائل هستم، این سوال تکراری از سوالی نیست که قبلا ذکر شد. من کاملاً روشن کردم که در مورد مواردی صحبت نمی کنم که متغیرها هیچ همبستگی ندارند، که این ویژگی کلیدی سؤال دیگر است. من یک سوال بسیار گسترده تر می پرسم.
رابطه بین همبستگی x در مقابل x+y و y در مقابل x+y
23672
در رگرسیون پواسون، فرض کنید معادله رگرسیون زیر را داریم: $\ln(E(Y_i|X_1)) = \beta_0+ \beta_{1}X_{1}$ که $Y$ تعداد حملات قلبی است. همچنین فرض کنید $X_1$ یک متغیر باینری است (به عنوان مثال سیگاری ها در مقابل غیر سیگاری ها). ضریب $\beta_1$ را چگونه تفسیر می کنید؟ افراد سیگاری به طور متوسط ​​$\exp(\beta_1)$ بیشتر از افراد غیر سیگاری دچار حملات قلبی می شوند؟
تفسیر ضریب
28437
قبل از این که اشاره شود، می دانم که یک سوال بسیار مشابه قبلاً مطرح شده بود. با این حال، من در مورد مفهوم شک دارم. به طور دقیق تر، با بیشترین رأی گیری در پاسخ ذکر شده است که: > از نظر یک **قاعده سرانگشتی ساده**، به شما پیشنهاد می کنم: > > 1. اگر فرض می کنید یا می خواهید یک نظریه نظری را آزمایش کنید، تحلیل عاملی را اجرا کنید. مدل > عوامل پنهان ایجاد کننده متغیرهای مشاهده شده. > > 2. تجزیه و تحلیل مؤلفه های اصلی را اجرا کنید اگر می خواهید به سادگی متغیرهای مشاهده شده مرتبط خود را به مجموعه کوچکتری از متغیرهای مهم مستقل > ترکیبی کاهش دهید. > > **سوال 1:** من بر اساس نتایجی که از R به دست آوردم در درک این مشکل دارم که دقیقاً مدل نظری عوامل پنهان را در کجا وارد می کنم. من از توابع statsmethods استفاده می کنم. در هر دو **factanal()** و **princomp()** ورودی ها یکسان بودند: جدولی که در آن هر سطر یک نقطه داده را نشان می دهد و ستون ها شامل ویژگی های مختلفی است که من علاقه مند به کاهش آن بودم. بنابراین، این به سردرگمی من در مورد اینکه این مدل از پیش فرض شده نقش خود را ایفا می کند، می افزاید. متوجه شدم که برای تابع تحلیل عاملی از تحلیل موازی نیز استفاده کردم که توسط سایت با استفاده از تابع nScree() برای تعیین تعداد فاکتورها پیشنهاد شده بود و مشخص کردم که چرخش varimax (متعامد) یا promax (میل) را می‌خواهم. آیا منظور از مدل همین است؟ توانایی انتخاب میزان عوامل و نوع چرخش؟ نتایجی که به عنوان نمودارهای بصری برای PCA و EFA ارائه می شوند نیز به نظر نمی رسد این تفاوت را برجسته کند که به سردرگمی من می افزاید. این تمایز را در کجا می توان روی آنها مشاهده کرد؟ ![PCA](http://i.stack.imgur.com/SGK56.jpg) PCA ![EFA](http://i.stack.imgur.com/Eg4MN.jpg) EFA **سوال 2:* * \-- پاسخ داد من کتابی را برای مطالعه در این مورد از ریچارد ال. گورسوچ خریدم. در این کتاب نکته ای وجود دارد که نویسنده به تفاوت بین PCA (تحلیل اجزای اصلی) و EFA (تحلیل عامل اکتشافی) توجه کرده است: ذکر شده است که PCA برای **جمعیت** است در حالی که EFA برای **نمونه** است. . آیا این درست است؟ من ندیدم که در هیچ بحثی که تاکنون خوانده ام به آن اشاره شود. بی ربط است؟ **سوال 3:** متوجه شدم که همه آن روش ها به نظر می رسد محدودیت توزیع نرمال را تحمیل می کنند. من همچنین خواندم که برای مجموعه های بزرگتر می توان این محدودیت را نادیده گرفت. آیا این درست است یا PCA، EFA و CFA نسبت به نقض محدودیت توزیع معقول هستند؟ **سوال 4:** از کجا از نتایج PCA و EFA باید توجه کنم که یکی در مورد عوامل پنهان (EFA) صحبت می کند و دیگری فقط خوشه بندی بر روی مؤلفه ها (عوامل) متغیرها است؟ خروجی های R به نظر من یکسان است. آیا این همان راهی است که من از عواملی که به عنوان خروجی نشان داده می شوند، درک می کنم؟ اشاره کردم که هر دو جدولی را به من نشان می‌دهند که می‌توانم ببینم کدام یک از متغیرهای من بیشترین فاکتورهای من را بیان می‌کنند. **تفاوت تفسیری که من باید داشته باشم در مورد اینکه کدام متغیر به کدام عامل** مربوط به PCA و EFA است چیست؟ EFA می‌گوید کسانی که بیان بالاتری دارند به نظر می‌رسد بیشتر با آن عامل پنهان توضیح داده می‌شوند، در حالی که PCA تلاش می‌کند بگوید که این عامل آن متغیرها را از آنچه مشاهده می‌شود نگه می‌دارد؟ ** سوال 5** در نهایت آخرین سوال در مورد CFA (تحلیل عامل تاییدی) است. در همان وب سایت تابع تصویر زیر نشان داده می شود: ![تحلیل عامل تأییدی](http://i.stack.imgur.com/NNrvh.gif) من خواندم که CFA معمولاً بعد از EFA برای آزمایش فرضیه دنبال می شود. از این نظر، EFA به شما می‌گوید که چه عواملی پنهان هستند (که عوامل خروجی هستند) و سپس با فرض آن عواملی که از EFA برای آزمایش فرضیه مشاهده کردید، از CFA استفاده می‌کنید؟ **سوال 6** برای EFA یکی از چرخش های موجود در ادبیات، oblimium مستقیم است. من شنیده ام که می تواند هم پرومکس و هم واریمکس را به حساب آورد، بنابراین «بهترین دو کلمه را می گیرد». آیا این درست است؟ من همچنین سعی می کنم تابعی را پیدا کنم که آنها را در R به کار گیرد، زیرا تابعی که در سایت پیشنهاد شده است این کار را نمی کند. من خوشحال خواهم شد که هر گونه پیشنهادی در این مورد دریافت کنم. * * * امیدوارم توجه شود که این سوال در مورد شبهات مربوط به EFA و PCA بسیار دقیق تر است و همچنین به CFA اضافه می کند تا به دلیل تکرار در مورد موضوع بسته نشود. اگر حداقل به یکی از سؤالات پاسخ داده شود، من بیش از حد خوشحالم که سردرگمی در ذهنم را روشن کنم. متشکرم.
تفاوت در تحلیل عاملی اکتشافی، تحلیل عاملی تاییدی و تحلیل مؤلفه اصلی
98987
من داده‌هایی از 50 آزمودنی انسانی دارم که به گروه‌های A و B تقسیم می‌شوند (30 شرکت‌کننده در گروه A و 20 شرکت‌کننده در گروه B). من همچنین طیف وسیعی از اندازه گیری ها را از هر موضوع دارم. من از یک الگوریتم یادگیری ماشینی (SVM) برای پیش‌بینی گروه‌های موضوعی از روی ویژگی‌ها با استفاده از اعتبارسنجی متقاطع یک‌باره استفاده کرده‌ام. من می خواهم یک مقدار p برای طبقه بندی کننده خود داشته باشم. اگر به درستی متوجه شده باشم، می‌توانم هر پیش‌بینی را به‌عنوان یک آزمایش برنولی در نظر بگیرم و با استفاده از آزمون دوجمله‌ای، معناداری را آزمایش کنم. با این حال، من در مورد جزئیات کمی سردرگم هستم. مقاله (pdf) که من دنبال می‌کردم، در بخش «اهمیت نتیجه»، فرض می‌کند که گروه‌های موضوعی اندازه یکسانی دارند. اینجا اینطور نیست. برای انجام تست چه کاری باید انجام دهم؟
تست طبقه بندی کننده با تست دو جمله ای زمانی که اندازه گروه ها نابرابر است
23676
من گیج شده ام که چگونه نتیجه اجرای یک همبستگی نرمال شده با یک بردار ثابت را تفسیر کنم. از آنجایی که شما باید بر انحراف معیار هر دو بردار تقسیم کنید (مرجع: http://en.wikipedia.org/wiki/Cross-correlation)، اگر یکی از آنها ثابت باشد (مثلاً برداری از همه 5 ها که دارای انحراف معیار است. از صفر)، پس همبستگی بی نهایت است، اما در واقع همبستگی باید صفر باشد درست است؟ این فقط یک مورد گوشه ای نیست، به طور کلی اگر انحراف معیار یکی از بردارها کم باشد، همبستگی با هر بردار دیگری بسیار زیاد است، که بدیهی است که منطقی نیست. آیا کسی می تواند تفسیر نادرست من را توضیح دهد؟
همبستگی نرمال شده با یک بردار ثابت
66412
من مدل های دوجمله ای منفی و شبه پواسون را بر اساس رویکرد آزمون فرضیه اجرا کرده ام. مدل‌های نهایی من با استفاده از هر دو روش، متغیرهای کمکی و تعاملات متفاوتی دارند. به نظر می رسد زمانی که من باقیمانده های خود را در هر دو مورد رسم می کنم، هیچ الگوی وجود ندارد. بنابراین، من فکر می‌کردم از کدام تست می‌توانم استفاده کنم تا ببینم کدام مدل با داده‌های من سازگاری بیشتری دارد، زیرا شبه پواسون هیچ احتمال یا AIC ندارد... همچنین، من پراکندگی زیادی دارم که باعث می‌شود فکر کنم دوجمله‌ای منفی بیشتر خواهد بود. مناسب است، اما نمی دانم می توانم مدل خود را بر اساس عقل سلیم انتخاب کنم یا نه…
مقایسه مدل دوجمله ای منفی و شبه پواسون
27703
من دو گروه داده دارم که هر کدام شامل تعداد مساوی تاپل است. هر تاپل از مشاهدات یک پدیده در فواصل منظم پر می شود و از یک مجموعه گسسته ترسیم می شود. برای هر گروه ما پدیده های مستقلی را مشاهده می کنیم، هرچند در هر گروه ویژگی های یکسانی داشته باشند. من می خواهم آزمایش کنم که آیا این دو گروه از دسته های مختلف پدیده ها ایجاد شده اند یا خیر. برای روشن تر شدن موضوع، اجازه دهید بگوییم که گروه A و گروه B شامل مشاهدات دما در یک بازه زمانی مشخص و از مکان های مختلف یک کشور هستند، با مکان هایی از گروه A که از شمال می آیند، در حالی که گروه B از جنوب می آیند. . من می خواهم آزمایش کنم که آیا گروه A و گروه B رفتار متفاوتی از خود نشان می دهند یا خیر. آیا این امکان پذیر است؟ من سعی کردم در اینترنت جستجو کنم و سعی کردم مجموعه صحیح عباراتی را برای جستجو پیدا کنم تا نکاتی را به دست بیاورم، اما فایده ای نداشت. برای هر کمکی از شما متشکرم
آزمایش آماری فرآیندهای تصادفی یا آزمایش چند متغیره؟
59302
من در اجرای یک تصویر مقیاس بندی چند بعدی با مشکلاتی روبرو هستم. اولین مجموعه داده من بسیار بزرگ است (330000 فیلد: 33000 ردیف، 10 ستون). تصویر خروجی باید شامل 10 نقطه، 1 برای هر ستون باشد. فیلدهای موجود در مجموعه داده حاوی مقادیر شدت هستند که ابتدا باید به یک ماتریس فاصله تبدیل شوند، اما در حین انجام این کار با محدودیت حافظه در R مواجه می‌شوم. امیدوارم بتوانید به حل این مشکل کمک کنید یا شاید برنامه‌ای را به من معرفی کنید که می‌تواند این نوع اندازه های داده را مدیریت کنید.
مقیاس بندی چند بعدی
93270
با داشتن تعداد مساوی موارد در دو گروه (60 مورد در کل)، اگر کسی بخواهد یک Anova اسپلیت پلات را انجام دهد و متوجه شود که تست جعبه برابری معیارهای کوواریانس کمتر از 0.001 است، پس به چه معناست؟ خوندم یعنی من فرض توزیع نرمال چند متغیره رو زیر پا گذاشتم؟!! صادقانه بگویم، من هیچ نظری ندارم. ممنون می شوم بدانم که با استفاده از ردپای Pillai به جای لامبدای Wilks مشکل حل می شود؟ این همه؟ آیا خطری برای اعتبار نتایج تحقیق من وجود دارد؟ (ردپای Pillai علامت <0.05 را برمی گرداند.)
ماتریس های کوواریانس برابری آزمون جعبه معنی دار، چقدر بد است؟
66410
با توجه به دو مدل مستقل MBA 1 و 2 (هر مدل مجموعه ای از قوانین با معیارهای پشتیبانی محاسبه شده، اطمینان و افزایش است) که بر روی زیرمجموعه های جمعیت زیادی از تراکنش ها ایجاد شده اند، چگونه می توان قوانین بین مدل ها را به طور موثر مقایسه کرد؟ به طور خاص، نحوه شناسایی بزرگترین جابجایی ها (بالا و پایین) از یک مدل به مدل دیگر. تا کنون، رویکرد من به شرح زیر بوده است: * آستانه هایی را برای حمایت، اطمینان، و افزایش تنظیم کنید (به عنوان مثال، قانون A: support(A) > 0.001، اطمینان (A) > 0.1، lift (A) > 10 $) و قوانین زیر این آستانه را از هر دو مدل فیلتر کنید. * برای هر قانون $ A $ log-lift های آن را بین مدل های 1 و 2 مقایسه کنید: $$ \mid log(lift_1(A)) - log(lift_2(A)) \mid $$ و قوانین را با بیشترین تفاوت انتخاب کنید. برای شناسایی مجموعه ای از قوانین که بین دو مدل بیشترین تغییر را دارند. من به دنبال تأیید رویکرد داده شده و جایگزین های بهتر هستم - متشکرم!
تحلیل سبد بازار: مقایسه قوانین بین دو مدل
51453
اگر $X$ یک متغیر تصادفی پیوسته است، اجازه دهید $$\min_a{\mathbb{E}\:| X - a |} = \mathbb{E}\: | X - m |$$ چرا $m$ میانه $X$ است؟
چرا این معیار میانه یک متغیر تصادفی پیوسته را مشخص می کند؟
59300
قبل از پرداختن به سوال، اجازه دهید به طور خلاصه به اهمیت نمونه گیری از متغیرهای تصادفی اشاره کنم. فرض کنید $\xi$ یک متغیر تصادفی با ارزش واقعی با چگالی $f$ است، و اجازه دهید $g:\Bbb R\to \Bbb R$ تابعی باشد. وظیفه استفاده از مونت کارلو برای محاسبه انتگرال $$ \mathsf E[g(\xi)] = \int_\Bbb R g(x)f(x)\mathrm dx \approx \frac1N\sum_{i= 1}^N g(\xi^i) $$ که در آن $\xi^i$ متغیر تصادفی iid است که به صورت $\xi$ توزیع شده است. از آنجایی که خطای تقریب ممکن است واریانس زیادی داشته باشد، ایده مهم نمونه‌گیری این است که چگالی $\xi$ را به مقداری $\hat f$ تغییر دهید و از آن $$ \int_\Bbb R g(x)f(x استفاده کنید. )\mathrm dx = \int_\Bbb R g(x)w(x)\hat f(x)\mathrm dx $$ که در آن تابع وزن با کسری $w = داده می شود f/\hat f$. در نتیجه، $$ \mathsf E[g(\xi)] = \mathsf E[g(\hat \xi)w(\hat \xi)] \approx \frac1N\sum_{i=1}^N g (\hat\xi^i)w(\hat\xi^i) $$ که در آن $\hat\xi^i$ iid با چگالی $\hat f$ است. سپس مسئله بهینه‌سازی را اجرا می‌کند تا بهترین انتخاب $\hat f$ را بیابد، این همان چیزی است که واریانس را به حداقل می‌رساند. * * * در مورد من مشکل مشابهی دارم. اجازه دهید یک فرآیند تصادفی زمان گسسته $X$ با فضای حالت $E$ را در نظر بگیریم که توسط معادله تفاوت تصادفی به شکل $$ X_{k+1} = r(X_k,\eta_k), \quad X( 0) = x\in E، \tag{1} $$ که در آن $\eta_k$ دنباله ای از متغیرهای تصادفی با مقدار واقعی iid با مقداری چگالی است. $h$ و $r$ یک تابع قابل اندازه گیری مشترک است. اجازه دهید $\mathsf P$ اندازه‌گیری احتمال القایی در $E^{n+1}$ باشد و اجازه دهید $A$ زیرمجموعه‌ای قابل اندازه‌گیری از $E^{n+1}$ باشد. من علاقه مند به استفاده از نمونه گیری اهمیت برای ارزیابی $\mathsf P(A)$ هستم. روش نمونه‌گیری اهمیت که در بالا توضیح داده شد به راحتی در مورد عناصر تصادفی با محدوده $\Bbb R^m$ گسترش می‌یابد، زمانی که چگالی آنها دقیقاً مشخص باشد. در مورد من $E$ زیرمجموعه‌ای از $\Bbb R^m$ است و من تابع $h$ را می‌دانم، اما تقریباً غیرممکن است که بیانی از چگالی $X = (X_0,X_1,\) بدست آوریم. نقاط، X_n)$ زیرا تابع $r$ ممکن است شکل بسیار پیچیده ای داشته باشد. به همین دلیل، من خودم را محدود به تغییر $\mathsf P$ می‌کنم که با تغییر توزیع $\eta$: $$ \begin{align} \mathsf P(A) &= \int_{ ایجاد می‌شود. E^{n+1}} 1_A(x_0،\dots،x_n)\mathsf P(\mathrm dx_0\times\dots\times\mathrm dx_n) \\\ & = \int_{\Bbb R^n}1_A(R(y_0،\dots،y_n))h(y_0)\dots h(y_{n-1})\mathrm dy_0\times\dots \times \mathrm dy_{n-1} \\\ & = \int_{\Bbb R^n}1_A(R(y_0،\dots،y_n))w(y_0،\dots،y_{n-1})\hat h(y_0)\dots \hat h(y_{n-1})\ mathrm dy_0\times\dots\times \mathrm dy_{n-1} \\\ & = \mathsf E[1_A(\hat X_0,\dots,\hat X_n)w(\hat \eta_0,\dots,\hat \eta_{n-1})] \end{align} $$ که در آن $R$ تابعی است که برای هر نویز $ (\eta_0,\dots,\eta_{n-1})$ مسیر فرآیند $(X_0,\dots,X_n)$ را با توجه به $(1)$ و بیشتر $\hat را نشان می دهد. h$ یک چگالی جدید است، $\hat \eta_k$ بر اساس $\hat h$, $$ (\hat X_0,\dots,\hat X_n) \sim R(\hat \eta_0,\dots,\ توزیع می‌شوند. hat\eta_{n-1}) $$ بر اساس توزیع جدید نویز توزیع می شود. * * * سوال من این است: در صورت نیاز به انجام نمونه برداری اهمیت از $(1)$، باید تغییر اندازه را از $\mathsf P$ به مقداری $\hat{\mathsf P}$ انجام دهم. به این ترتیب که من یک شکل صریح از مشتق رادون- نیکودیم $w = \mathrm d\mathsf P/\mathrm d\hat{\mathsf P}$ بدست می‌آورم. آیا روشی که توضیح دادم تنها روشی است که دانش شکل صریح $w$ را تضمین می کند؟ من تقریباً مطمئن هستم که ادبیاتی در مورد اهمیت نمونه برداری از معادلات تفاوت تصادفی وجود خواهد داشت که به چنین مسائلی می پردازد، اما من هنوز چیزی به خصوص مناسب پیدا نکردم. * * * در MSE سوال شد اما توجه زیادی به آن نشد.
نمونه‌برداری اهمیت مسیر محدود معادله اختلاف تصادفی
66414
این سؤالی است برای بازتاب درک بسیار اساسی از منطق مربع کای برای یک مقاله مقدماتی برنامه ریزی شده. _[به‌روزرسانی] من سعی کرده‌ام با مثال‌های واضح‌تر و تمرکز بهتر روی مشکلاتی که به آن برخورد کردم، سؤال را بهبود بخشم. ممکن است هنوز کمی ضعیف باشد، اما در حال حاضر نمی‌توانم بهتر از این انجام دهم. من به خی دو به عنوان معیاری برای انحراف از یک توزیع گسسته مورد انتظار، که در آن فرکانس‌های مورد انتظار از طریق فرکانس‌های حاشیه‌ای محاسبه می‌شوند، عادت دارم. تلاقی داده های تجربی دو آیتم طبقه بندی شده. بیایید در اینجا جدول 2x2 را مورد بحث قرار دهیم که یک درجه آزادی دارد. فرکانس‌های سطر حاشیه‌ای [53،47] و فرکانس‌های ستون حاشیه‌ای [40،60] را در نظر بگیرید که فرکانس‌های مورد انتظار را به عنوان $$ {\bf A}: \text{ انتظار برای فرکانس‌های سلولی با نسبت‌های مساوی} \\\ \small \begin{آرایه} {r|rr|r} &0&1&all\\\ \hline 0&21.2&18.8&40\\\ 1&31.8&28.2&60\\\ \hline all&53&47&100 \end{array} $$ ابتدا شروع کردم به فکر کردن به این معنی که جدول اقتضایی تجربی با حداقل ورودی فرکانس های حاشیه ای محدود شده است. : در این مورد سلول [0,0] می تواند بین _0_ و _40_ تغییر کند فقط، بنابراین بسته به فرکانس های ممکن در آن سلول، حداکثر 41 نتیجه ممکن داریم. اگر یک فرآیند تصادفی عادی را فرض کنیم که فرکانس‌ها را تولید می‌کند، فرکانس (مورد انتظار) در این سلول باید حول میانگین آنها متمرکز شود _20_ : $$ {\bf B}: \text{ میانگین محدوده‌های ممکن برای فرکانس‌ها در سلول‌ها }\\\ \small \begin{آرایه} {r|rr|r} &0&1&all\\\ \hline 0&20&20&40\\\ 1&33&27&60\\\ \hline all&53&47&100 \end{array} $$ این انتظار در سلول[0,0] با فرکانس مورد انتظار 21.2 برابر نیست. سوال اول: آیا می توان مفهوم دوم را به مفهوم اول (و استاندارد) آورد/ترجمه کرد؟ چگونه می توان تفاوت (و رابطه یا عدم رابطه احتمالی) بین آن دو مفهوم را به بهترین وجه توضیح داد؟ برای پاسخ به این سوال، یک قدم دیگر به عقب برگشتم و پرسیدم، اگر این توزیع خودش موضوع تصادفی باشد، اصلاً به چه معناست که محاسبات مجذور کای را بر اساس توزیع حاشیه ای نمونه قرار دهیم... بنابراین من یک داده جمعیت تولید کردم. مجموعه ای با _N=10000_ مورد دقیقاً مانند جدول ما **A** توزیع شد و _1000_ نمونه تصادفی هر کدام با _n=100_ برداشت شد. در بیش از 1000_ نمونه، فرکانس‌های حاشیه‌ای متفاوتی دارم و در نتیجه، هر نمونه پارامترهای متفاوتی برای فرکانس‌های مورد انتظار خود و به‌طورکلی برای مجذور خی احتمالی‌اش دارد. جدول انحرافات فرکانس‌های حاشیه تجربی از فرکانس‌های حاشیه جمعیت $$ {\bf C} بود: \text{ انحرافات فرکانس‌های حاشیه تجربی از جمعیت} \\\ \small \begin{array} {r|rrrr} \text{dev } & \text{dev from}& \text{dev from}& \text{dev from}& \text{نويسنده از}\\\ \text{value} & 53 & 47 & 40 & 60 \\\ \hline -18&0&0&0&1\\\ -15&1&1&1&1\\\ -14&1&1&0&0\\\ -13&2&4&1&2&2&1\\&1 - \\ -11&10&9&5&5\\\ -10&8&12&7&14\\\ -9&13&15&17&17\\\ -8&27&20&21&23\\\ -7&34&38&26&31\\\ -6&45&35&35&35&31&37& -4&46&46&50&49\\\ -3&81&67&67&63\\\ -2&55&83&84&67\\\ -1&85&71&97&80\\\ 0&86&86&83&83\\\ 1&71&85&85&80 2&83&55&67&84\\\ 3&67&81&63&67\\\ 4&46&46&49&50\\\ 5&43&53&50&62\\\ 6&35&45&37&31\\\ 7&38&26&49&50 8&20&27&23&21\\\ 9&15&13&17&17\\\10&12&8&14&7\\\11&9&10&5&5\\\12&6&2&4&5\\\ 13&4&2&1&1\\\14&1&1&0&0\\\15&1&1&1&1\\\18&0&0&1&0 \end{array} $$ جدول رخدادهای مجذور کای برای آن انحرافات فرکانس های حاشیه تجربی از جمعیت D$ است: \\bext: { انحرافات تجربی فرکانس های حاشیه} \\\ \text{ از جمعیت }\\\ \text{(بر حسب}\ \chi^2\ \text{مقادیر)} \\\ \begin{array} {r|rr } & & \text{backwards} \\\ \chi^2 \text{-value} & \text{freq} & \text{cum freq} \\\ \hline 0.0&12.8&100.0\\\ 0.5&22.0&87.2\\\ 1.0&12.7&65.2\\\ 1.5&11.2&52.5\\\ 2.0&10.5&41.3\\\ 2.5&7.8&3 8\\\ 3.0&3.3&23.0\\\ 3.5&4.8&19.7\\\ 4.0&3.2&14.9\\\ 4.5&2.5&11.7\\\ 5.0&2.3&9.2\\\ 5.5&1.0&6.9\\\ 6.0&1.7&5. 9\\\ 6.5&1.2&4.2\\\ 7.0&0.9&3.0\\\ 7.5&0.6&2.1\\\ 8.0&0.5&1.5\\\ 9.0&0.1&1.0\\\ 9.5&0.5&0.9\\\ 10.0&0.5&1.5\\\ 9.0&0.1&1.0\\\ 9.5&0.5&0.9\\\ 10.0&0.1&0. 4\\\ 10.5&0.2&0.3\\\ 17.0&0.1&0.1 \end{array} $$ من به این واقعیت ساده دست و پنجه نرم می کنم که ما مربع کای را به عنوان انحراف از یک فرکانس مورد انتظار محاسبه می کنیم - اما در جایی که فرکانس مورد انتظار بر اساس فرکانس حاشیه ای _تجربی_ است که _خود_ است. موضوع یک فرآیند تصادفی - و برای مثال زمانی که من از نمونه به جامعه استنباط می‌کنم، مقداری فاصله اطمینان دارد. بنابراین - برعکس - داشتن یک توزیع حاشیه ای تجربی در نمونه تجربی ما، نتیجه گیری از توزیع حاشیه ای جامعه موضوعی با فواصل اطمینان است. _(آیا در اینجا یک جنبه حداکثر احتمال نیز در هر جایی در کمین است؟)_ این عمل را به من یادآوری می کند که ما از تنوع نمونه به عنوان تخمین پارامتر تنوع جامعه استفاده می کنیم و آزمایش هایی را بر اساس این فرض انجام می دهیم. س: در توجیه/فرمول توزیع کای دو به عنوان مبنای آزمون معناداری - آیا می توانیم نقطه ای را پیدا کنیم که تصادفی بودن فرکانس های حاشیه ای r باشد.
مجذور کای یک نمونه با توجه به توزیع حاشیه ای یک جمعیت شناخته شده؟
17042
من سعی می کنم محاسبه توان را برای مورد دو آزمون t نمونه مستقل بفهمم (بدون فرض واریانس مساوی، بنابراین از Satterthwaite استفاده کردم). در اینجا نموداری وجود دارد که برای کمک به درک فرآیند پیدا کردم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/S6P3Y.jpg) بنابراین با توجه به موارد زیر در مورد دو جمعیت و داده شده فرض کردم اندازه های نمونه: mu1<-5 mu2<-6 sd1<-3 sd2<-2 n1<-20 n2<-20 من می توانم مقدار بحرانی را در زیر صفر محاسبه کنم مربوط به داشتن 0.05 احتمال دم بالایی: df<-(((sd1^2/n1)+(sd2^2/n2)^2)^2) / (((sd1^2/n1)^2)/(n1 -1) + ((sd2^2/n2)^2)/(n2-1) ) CV<- qt(0.95,df) #برابر 1.730018 و سپس فرضیه جایگزین را محاسبه کنید (که برای این مورد فهمیدم توزیع t غیر مرکزی است). من بتا را در نمودار بالا با استفاده از توزیع غیر مرکزی و مقدار بحرانی موجود در بالا محاسبه کردم. این اسکریپت کامل در R است: #under alternative mu1<-5 mu2<-6 sd1<-3 sd2<-2 n1<-20 n2<-20 #Under null Sp<-sqrt(((n1-1)* sd1^2+(n2-1)*sd2^2)/(n1+n2-2)) df<-(((sd1^2/n1)+(sd2^2/n2)^2)^2) / ( ((sd1^2/n1)^2)/(n1-1) + ((sd2^ 2/n2)^2)/(n2-1) ) CV<- qt(0.95,df) #تحت تفاوت جایگزین<-mu1-mu2 t<-(diff)/sqrt((sd1^2/n1)+ (sd2^2/n2)) ncp<-(diff/sqrt((sd1^2/n1)+(sd2^2/n2))) #power 1-pt(t, df, ncp) این مقدار توان 0.4935132 را به دست می دهد. آیا این رویکرد صحیح است؟ من متوجه شدم که اگر از نرم افزارهای محاسبه توان دیگری استفاده کنم (مانند SAS که فکر می کنم معادل مشکل خود در زیر تنظیم کرده ام) پاسخ دیگری دریافت می کنم (از SAS 0.33 است). SAS CODE: proc power; twosamplemeans test=diff_satt meandiff = 1 groupstddevs = 3 | 2 وزن گروه = (1 1) nکل = 40 توان = . طرف = 1; اجرا؛ در نهایت، من می‌خواهم درک درستی داشته باشم که به من امکان می‌دهد شبیه‌سازی‌ها را برای رویه‌های پیچیده‌تر بررسی کنم. ویرایش: من خطای خود را پیدا کردم. باید 1-pt (CV، df، ncp) بود نه 1-pt (t، df، ncp)
قدرت برای آزمون t دو نمونه
35132
من در درک نحوه ارزیابی نرمال بودن داده های گسسته مشکل دارم. من می دانم که آزمون K-S برای آزمایش توزیع نرمال بودن داده های پیوسته در دسترس است. با این حال، معادل برای داده های گسسته ای که شکل پواسون یا دو جمله ای دارند چیست؟ آیا اینها به ترتیب آزمون کای دو و دو جمله ای خواهند بود؟ من مطمئن نیستم که اینها به جای عادی بودن، اهمیت آزمایشی دارند یا خیر. هر کمکی بسیار قدردانی می شود!
ارزیابی نرمال بودن توزیع
78866
در عمل، ممکن است همیشه از ما خواسته شود چولگی و کشیدگی یک مجموعه داده را بررسی کنیم. دو تا سوال دارم با توجه به توزیع احتمال، چگونه می توانیم چولگی و کشیدگی این مجموعه داده را تعیین/ارزیابی کنیم؟ اگر خود نمونه داده را داشته باشیم، چه نوع آماری می تواند به ما در ارزیابی چولگی و کشیدگی آن کمک کند؟
رویکرد گرافیکی و آماری برای ارزیابی چولگی و کشیدگی یک مجموعه داده
59309
این سوال مربوط به پست قبلی است که من به آن نگاه کرده‌ام (محاسبه شاخص‌های فصلی برای فصلی بودن پیچیده)، اما با داده‌های دقیق‌تر (روزانه به جای هفتگی)، و تغییر فصل تعطیلات (به جای تعطیلات) و ایجاد یک سوال بزرگ‌تر سروکار دارد. در مورد استدلال پشت متغیرهای ساختگی به عنوان مقدمه، من به دنبال پیش بینی فروش روزانه خرده فروشی برای یک شرکت تجارت الکترونیک بسیار چرخه هستم. هر سال، الگوهای خرید به دلایل مختلفی تغییر می‌کنند: 1. تغییر تقویم (برای مثال، 17/5/13 جمعه است، در حالی که 17/5/12 پنجشنبه است). 2. تغییر تعطیلات تعیین شده بر اساس روز هفته (به عنوان مثال روز کارگر، شکرگزاری، روز مادر). 3. تغییر در زمان و طول فصول خرید (یعنی در سال 2012، 32 روز تقویم، 21 روز کاری، و فصل از 28 نوامبر در فصل خرید تعطیلات شروع شد، در حالی که امسال، 26 روز تقویمی، 17 روز وجود دارد. روزهای کاری، و فصل از 29 نوامبر شروع می شود). این تغییرات بر شکل و اندازه کلی منحنی فصلی تأثیر می‌گذارد و نه فقط بر رفتار در تعطیلات یا نزدیک به آن. در میان پیش‌بینی‌کنندگان خرده‌فروشی که من با آنها روبرو شده‌ام، چند گزینه برای مقابله با پیش‌بینی تغییر فصلی وجود دارد: * یکی این است که فقط از سال‌های دقیق تقویمی برای تقسیم‌بندی فصلی استفاده کنید - برای مثال، سال 2013 دقیقاً از نظر قرار دادن تعطیلات با سال 2002 مطابقت داشت. . سپس، ARIMA 365 روزه را روی داده ها اعمال می کنید. اما، در تجارت الکترونیک (و به طور کلی) از سال 2002 اتفاقات زیادی افتاده است که بر ظاهر فصلی تأثیر می گذارد. * دومی هموارسازی نمایی با متغیرهای ساختگی است. اما، از آنجایی که رفتار مصرف‌کننده فقط در تعطیلات (یا روزهای نزدیک به آن) تغییر نمی‌کند، بلکه به میزان فاصله تعطیلات نسبت به سایر تاریخ‌های تغییر (و روز هفته) مربوط می‌شود، شما به مشکلات هر یک از آنها برخورد می‌کنید. ایجاد یک قایق از متغیرهای ساختگی برای فاصله از و تا هر تعطیلات که می تواند مدل شما را بیش از حد مشخص کند (و آن را به راحتی قابل تعمیم به سالی که می خواهید پیش بینی نکنید) یا یک فصلی کلی دریافت کنید که معمولا زیر پریفرم ها همچنین می‌توانید یک چند جمله‌ای کسری برای تقریب منحنی بر حسب روز تا (یا بین) یک روز تعطیل یا دیگری انجام دهید، اما این مشکلات معمولی را در مورد فراکپولی ایجاد می‌کند - به ویژه نتایج بیش از حد برازش و عجیب و غریب در نقاط خاصی در داخل و خارج از نمونه. . * گزینه سومی که دیدم این است که داده‌های سال‌های گذشته را تنظیم کنم تا با اندازه هر فصل تعطیلات مطابقت داشته باشد، در صورتی که فصل خرید تعطیلات یک هفته کوتاه‌تر از سال‌های گذشته باشد، یک هفته را برداریم و سپس دوباره اضافه کنیم. این درآمد در طول فصل باقیمانده، یا انجام معکوس زمانی که فصل یک هفته بیشتر شد. پس از انجام این کار، می توانید تجزیه فصلی را انجام دهید تا فصلی بودن را کاهش دهید. مسئله این است که شامل یک تن از ذهنیت است، و فرض می‌کند که خریداران هفته از دست رفته را به طور مساوی تقسیم می‌کنند، نه اینکه با نزدیک شدن به تعطیلات، رفتار خود را بارگذاری مجدد کنند. رفع بار عقب پس از آن ذهنیت بیشتری را در مورد زمانی که خریداران شروع به واکنش به نزدیکی تعطیلات (مانند کریسمس) می کنند، ایجاد می کند. بنابراین، من از تجربه سایر پیش بینی کنندگان (به ویژه آنهایی که تجربه خرده فروشی دارند) در مورد این موضوع تغییر فصلی به روز تعجب می کنم. منتظر افکار شما هستم. همچنین می‌توانم برخی از داده‌های ساختگی را اضافه کنم، اگر می‌خواهید ببینید دقیقاً در مورد چه چیزی صحبت می‌کنم.
بهترین شیوه ها برای مقابله با تغییر فصلی ناسازگار
59308
من دو دسته از مردم دارم، یک جمعیت سالم که ناقل بیماری و غیر ناقل است و یک جمعیت بیمار. من فراوانی واریانت های ژنتیکی در هر دو گروه را می دانم. می‌خواهم بدانم آیا می‌توانم با قطعیت آماری چیزی در مورد انواع مختلف بگویم و چگونه این کار را انجام می‌دهم. فرکانس متغیر در جمعیت سالم فراوانی در جمعیت بیمار X 30 25 Y 5 700 Z 600 600 هر گروه (سالم و بیمار) دارای 1000 نفر است. آیا می توانم در مورد هر گونه چیزی بگویم؟
تشخیص انواع با اهمیت ناشناخته
67762
به جای پاسخ مستقیم به سوال من، می توانید رویکرد کلی من را نقد کنید. من می خواهم قبل از انجام رگرسیون چندگانه به روابط دو متغیره بین یک نتیجه باینری و متغیرهای پیش بینی کننده متعدد نگاه کنم. ویرایش: [داده‌ها ضرب می‌شوند] و پیش‌بینی‌کننده‌های طبقه‌بندی به صورت ساختگی کدگذاری شده‌اند. بنابراین، برای هر متغیر طبقه بندی اسمی در داده های اصلی، متغیرهای ساختگی k-1 وجود دارد که دسته حذف شده به عنوان گروه مرجع عمل می کند. به نظر من هیچ رابطه «دو متغیره» معنی‌داری بین نتیجه و یک متغیر [ساختگی] منفرد از مجموعه‌ای از متغیرهای مرتبط وجود ندارد (این امر مقوله مقایسه را به «همه چیز دیگر» تغییر می‌دهد، که نمی‌تواند در یک مورد وجود داشته باشد. رگرسیون چندگانه). به همین دلیل از همبستگی دو متغیره استفاده نکردم. درعوض، من یک سری رگرسیون لجستیک دو متغیره انجام دادم که در یک رگرسیون منفرد همه ساختگی‌های k-1 یک متغیر را شامل می‌شد. بنابراین، مانند: نتیجه = نژاد_سیاه نژاد_دیگر (نژاد_سفید حذف شده است). در هر صورت، مقوله مرجع را نمی توان مستقیماً بررسی کرد، زیرا در فرآیند انتساب چندگانه حذف شده و دارای مقادیر گم شده است. من متوجه شدم که اگر هر ضریب یک ساختگی باینری معنی‌دار باشد، کل متغیر (گروه ساختگی‌های k-1) را در رگرسیون omnibus قرار می‌دهم. پس از جمع‌آوری مشقت‌آمیز جدولی از نتایج این رگرسیون‌های «دو متغیره» بدون درج رهگیری، به ذهنم رسید که (شاید؟) رهگیری «ساختگی» برای دسته حذف‌شده است. اگر معنی دار است، آیا در واقع نشان می دهد که گروه حذف شده با میانگین نتیجه متفاوت است؟ اگر این درست است، آیا باید متغیر را در رگرسیون omnibus خود وارد کنم، حتی اگر هیچ یک از متغیرهای طبقه صریح پیش بینی کننده مهمی نباشند؟ من نگرانم که به اشتباه در مورد گروه های مقایسه و معانی ضرایب معنی دار فکر می کنم.
تفسیر رهگیری رگرسیون لجستیک با یک متغیر مقوله ای رمزگذاری شده ساختگی
73703
فرض کنید توزیع زیر $p(x,y)$, $p:[0,1]^2 \to [0,+\infty]$ و: $p(x,y) = \left\\{ \begin {array}{ll} 0 & \mbox{if } y>0 \\\ +\infty & \mbox{if } y = 0 \end{array} \right.$ یعنی داریم: $$p(y|x) =\delta_0$$ و $$p(x)=1$$ اگر این توزیعی است که می‌خواهم از روش‌های MCMC نمونه برداری کنم، وقتی $+ را دریافت کردم باید چه کار کنم. \infty$ به عنوان مقدار $p(x,y)$؟ * * * مطمئن نیستم اما متوجه شدم که در چنین حالتی نمونه از مشترک این توزیع مشخص می شود! $y=0$ در همه جفت‌های نمونه. و $x$ به طور یکنواخت از $[0,1]$ انتخاب شده است. خوشحال میشم اگه کسی تایید کنه
نمونه برداری MCMC از یک تابع با توزیع شرطی به عنوان تابع دلتا دیراک
59303
من در پیش‌بینی سری‌های زمانی جدید هستم و به آرامی راه خود را از طریق روش‌های مختلف موجود انجام داده‌ام. من تاکنون عمدتاً از مدل‌های ets و arima موجود در بسته پیش‌بینی R استفاده کرده‌ام. از آنجایی که باید در سطح روزانه با در نظر گرفتن تعطیلات آخر هفته و تعطیلات عمومی پیش بینی کنم، مدل های arimax با مقادیر xreg را نیز بررسی کرده ام. تا آنجا که من می توانم بگویم، به نظر نمی رسد استفاده از مقادیر xreg با مدل های ets امکان پذیر باشد. با داده‌های نمونه من، et‌ها همچنین نمی‌توانند عملکرد مرحله‌ای را که در آخر هفته‌ها اتفاق می‌افتد به طور دقیق پیش‌بینی کنند - هموارسازی به این معنی است که تنها شنبه به درستی پیش‌بینی می‌شود اما یکشنبه نیز نادرست است. من با یک سری از اسلایدها از ناتی دربی روبرو شدم - http://www.sas.com/offices/NA/canada/downloads/presentations/Victoria2008/Time.pdf اسلایدهای نهایی از این واقعیت که مدل های فضای حالت ممکن است آن را ایجاد کنند، دوری می کنند. مدل‌سازی سری‌های زمانی آسان‌تر است. مدل های فضای حالت چقدر قدرتمند و قابل اجرا هستند؟ آیا این چیزی است که باید به طور جدی در نظر بگیرم؟
مدل های فضای حالت برای پیش بینی سری های زمانی
51452
من دو متغیر دارم، هر کدام با همان مجموعه 5 مقدار ممکن رتبه‌بندی نشده (اجازه دهید آنها را A/B/C/D/E بنامیم)، و مجموعه‌ای از داده‌ها مانند موارد زیر (A/A, A/D, B/) B، D/D، E/E، B/A و غیره)، که حرف اول مقدار متغیر اول و حرف دوم متغیر دوم است. چگونه می توانم همبستگی بین آمار را نشان دهم، یعنی احتمال یکسان بودن دو متغیر را نشان دهم؟ با عرض پوزش اگر این واضح نیست، و پیشاپیش برای هر گونه کمکی متشکرم! :)
از چه نوع آماری برای نشان دادن همبستگی بین دو مجموعه گسسته داده استفاده کنیم؟
55486
من در مدل سازی ARIMA تازه کار هستم و در حال حاضر با یک وضعیت عجیب و غریب با سری زمانی داده های شمارش مواجه هستم. نمودار زمانی الگوهای فصلی واضحی را نشان می دهد. ACF همچنین به وجود فصلی بودن اشاره می کند. با این حال، آزمون ریشه واحد فصلی در R نشان می دهد که سری به صورت فصلی ثابت است. اگر تفاوت فصلی (D=1) را در نظر بگیرم، نمی‌توانم مدل واحدی را پیدا کنم که باقیمانده‌ها فرض نرمال بودن را برآورده کنند، حتی اگر تبدیل‌های لگ یا ریشه مربع یا باکس کاکس سری اصلی را انجام دهم. اگر تفاوت فصلی را لحاظ نکنم (حفظ پارامترهای AR و MA فصلی در مدل وجود دارد)، به راحتی مدلی را با عیب‌یابی عالی شناسایی می‌کنم (مواد باقیمانده نویز سفید هستند و به طور معمول توزیع می‌شوند). حل این معما سخت است که آیا داده های فصلی می توانند به صورت فصلی ثابت باشند یا خیر. از هر پیشنهادی استقبال خواهد کرد.
مدل سازی ARIMA: آیا داده های فصلی می توانند به صورت فصلی ثابت باشند؟
97863
من در حال آزمایش تأثیر چهار ارتفاع مختلف (0 متر، 1000 متر، 2000 متر و 3000 متر) بر عملکرد مکرر سرعت (6 سرعت در هر ارتفاع) هستم. من 8 آزمودنی دارم که در هر ارتفاع از آنها تست خواهند گرفت. این بدان معناست که من 8x4x6 = 192 مجموعه داده دریافت می کنم. چیزی که من می‌خواهم بررسی کنم، تفاوت عملکرد در 4 ارتفاع مختلف است و اینکه آب و هوا واقعاً تفاوت دارد یا نه. چگونه می توانم این را به بهترین وجه نشان دهم و آزمایش های آماری مربوطه چه هستند؟ برای من کمی گیج کننده است زیرا شرایط متعددی دارم، و می خواهم هر شرایط را با شرایط دیگر مقایسه کنم (اما در مورد بهترین راه برای انجام این کار مطمئن نیستم). پیشاپیش از کمک شما سپاسگزارم اگر می توانم توضیح بدهم به من اطلاع دهید.
یک گروه، چهار شرط و شش آزمون. آزمایش اثر ارتفاع
74732
من از بسته «caret» برای انجام انتخاب ویژگی با «rfe» در حین آموزش یک طبقه‌بندی‌کننده «knn» استفاده می‌کنم. من می‌خواهم هم پارامتر «k» و هم «اندازه» زیرمجموعه متغیر را با گرفتن بهترین مقدار متریک «ROC» از تابع «twoClassSummary()» تنظیم کنم. کد من برای انجام این کار این است: caretFuncs$summary <- twoClassSummary knn.rfeC <- rfeControl(functions = caretFuncs، روش = repeatedcv، عدد=10، تکرار=5، verbose = TRUE، returnResamp = نهایی) knn. grid <- expand.grid(.k=seq(1, 20, 2)) knn.trainC <- trainControl(method = boot, number=25, verboseIter=TRUE, returnResamp=final, classProbs=T, summaryFunction = twoClassSummary) اندازه ها <- 2:(ncol(train.x) -1) set.seed(96) knnR <- rfe(train.x, train.y, sizes = sizes, rfeControl = knn.rfeC، روش = knn, tuneGrid=knn.grid, metric=ROC, trControl=knn.trainC) با این حال، هنگامی که `rfe` به پایان رسید، پیام هشدار زیر را دریافت می کنم: 1: در قطار. پیش‌فرض (x، y، ...): متریک «دقت» در مجموعه نتایج نبود. در عوض از Sens استفاده خواهد شد. که من جمع‌آوری کردم به این معنی است که آرگومان متریک «rfe» فقط روی انتخاب اندازه زیرمجموعه کار می‌کند، اما بهینه‌سازی پارامتر «k» کار نمی‌کند، حتی اگر تابع «twoClassSummary» به آرگومان «summaryFunction» از ` TrainControl`. آیا من اینجا چیزی را از دست داده ام؟ من از هر کمکی که بتوانید ارائه دهید قدردانی می کنم. ویرایش: خروجی «sessionInfo()» این است: > sessionInfo() R نسخه 2.13.1 (2011-07-08) بستر: i386-pc-mingw32/i386 (32 بیتی) محلی: [1] LC_COLLATE=English_United Kingdom.1252 LC_CTYPE=English_United Kingdom.1252 [3] LC_MONETARY=English_United.1252 LC_NUMERIC=C [5] LC_TIME=English_United Kingdom.1252 بسته پایه پیوست شده: [1] آمار گرافیکی grDevices utils.2 روش مجموعه داده‌ها. 14.0 reshape_0.8.4 plyr_1.5.2 lattice_0.19-30 بارگیری شده از طریق فضای نام (و پیوست نشده): [1] grid_2.13.1 tools_2.13.1
هشدار متریک با استفاده از rfe caret
115002
فرض کنید من می خواهم پیش بینی کنم که در سه سال آینده چند دستگاه از کار می افتند. داده‌های جمع‌آوری‌شده در چند روز هستند، بنابراین ما می‌خواهیم هیچ پیش‌بینی کنیم. از شکست در 1095 روز آینده. همه ماشین‌ها (100 تای آنها) از سال 1975 شروع شده و تا امروز فقط 13 دستگاه از کار افتاده‌اند. حالا می‌خواهم پیش‌بینی کنم که در سه سال آینده چند نفر شکست خواهند خورد. برخی از مسائلی که به نظر من با آن مواجه شدم: 1. در حالت ایده آل، ما زمان ثابتی برای اجرای آزمایشات روی این ماشین ها داریم، اما در این مورد، زمان ثابتی نداریم. من می توانم تاریخ امروز را به عنوان تاریخ نهایی فرض کنم، یعنی فاصله زمانی آزمایش من [1975، تاریخ امروز] 2 است. بنابراین، من باید تمام ماشین های دیگری را که از کار نیفتند به عنوان مشاهده سانسور شده قرار دهم. 3. اما وقتی من این کار را انجام می دهم، به اعتقاد من، داده ها از توزیع Weibull پیروی نمی کنند، یک فرآیند استاندارد برای تجزیه و تحلیل زمان های شکست (تحلیل Weibull). 4. آیا داده های کافی برای ارائه مدل مناسب داریم؟ و اگر این چیزی است که ما باید با آن کار کنیم، چگونه می توانیم آن را انجام دهیم؟ 5. آیا همچنان می توان از روش تحلیل وایبول برای این مورد استفاده کرد و پارامتر مقیاس و شکل را تخمین زد و از آن برای یافتن شماره مورد انتظار استفاده کرد. از خرابی ها توسط: N(t)=(1-e^(t/a)^b)n که در آن _a_ پارامتر مقیاس و _b_ پارامتر شکل است. _n_ جمعیت ماشین هایی است که به طور مداوم در همان زمان شروع به کار کردند t=0 * * * در اینجا برخی از زمان های خرابی دلخواه آمده است (به دلیل مسائل محرمانه نمی توانم داده ها را به اشتراک بگذارم): 10162، 8300، 11110، 11520، 11520، 8460, 7320, 11424, 11112, 11321, 11584, 10436, 9560 اینها در چند روز از مثلاً 1 ژانویه 1975 ارائه شده‌اند. اینها ماشین‌هایی هستند که برای دوام ساخته شده‌اند، بنابراین دیدن این نوع از حداقل میزان خرابی غیرعادی نیست.
پیش بینی زمان شکست/تحلیل ویبول
35133
فرض کنید 2 متغیر تصادفی $(X,Y)$ با توزیع یکسان $G(.)$ داریم. فرض کنید ما علاقه مند به احتمال مشترک این r.v ها هستیم بدون اینکه اطلاعاتی در مورد وابستگی یا همبستگی بین این متغیرهای تصادفی وجود داشته باشد. آیا اگر $X$ را به عنوان یک تابع خطی (یا غیرخطی) $Y$ فرض کنیم کمکی می کند؟ و در آخر، اگر $corr(X,Y)$ و $F_X(.) را می دانستیم، F_Y(.)$ می توانستیم $F_{X,Y}(.)$ را استخراج کنیم؟ پیشاپیش ممنونم...
مدل سازی وابستگی بین متغیرهای تصادفی
73704
من یک محقق بالینی و جراح ارتوپد هستم و یکی از دانشجویان دکترای من در حال شروع آخرین بخش پایان نامه خود است. کار او حول محور مزایای بالقوه تدریس بین حرفه ای در بخش ارتوپدی است. این مطالعه یک مطالعه کوهورت گذشته نگر بر روی داده های ثبت شده برای بیماران شکستگی لگن است. فرضیه ما این است که یک بخش بین حرفه ای (با دانشجویان پزشکی و دانشجویان پرستاری که توسط پزشکان و پرستاران واقعی هدایت می شوند) بیمار را در معرض خطر بالاتری برای عوارض جانبی نسبت به بخش کنترل قرار نمی دهد. به عنوان متغیر نتیجه اولیه، یک متغیر پروکسی برای رویدادهای نامطلوب داریم. نرخ پذیرش مجدد در 3 ماه تعداد بیماران تحت درمان در بخش بین حرفه ای در مقایسه با بخش کنترل حدود 1:4 است. سوال من: با فرض یک نرخ بستری مجدد 3 ماهه در حدود 20٪ (تقریباً برای این گروه بیمار عادی) در بخش کنترل، زمانی که هدف من تشخیص تفاوت 5٪ در نرخ بستری مجدد است، به چه اندازه حجم نمونه نیاز دارم؟ این برای 80% توان و $p \le 0.05$ است. هنگامی که این محاسبه را به عنوان یک محاسبه برتری برای نسبت‌ها در SamplePower 3 انجام می‌دهم، به ترتیب در بخش بین حرفه‌ای و کنترل به ترتیب 500 و 2000 می‌شود. آیا این محاسبه درست است، یا باید به جای آن، تجزیه و تحلیل غیرحقوری را برای نسبت هایی انجام دهم که حداقل تفاوت بالینی مورد علاقه من 5٪ است؟ من نمی‌توانم هیچ ماشین‌حساب غیرحقیقی را پیدا کنم که در آن تعداد افراد در دو گروه با اعداد متفاوت باشد، مانند این مطالعه.
تجزیه و تحلیل اندازه نمونه برای یک مطالعه
111765
من می‌خواهم ویژگی‌های دسته‌بندی را بر اساس ترتیب یا اهمیت در یک تنظیم طبقه‌بندی/رگرسیون رتبه‌بندی کنم. **ورودی** دو ویژگی وجود دارد که عبارتند از سوالات نظرسنجی: 1. حالت چطور است؟: ​​چهار پاسخ ممکن عبارتند از: بد، متوسط، خوب و عالی! 2. آیا از زندگی خود راضی هستید؟: سه پاسخ ممکن است نه، شاید و بله. **خروجی** من سعی می کنم احتمال رضایت یک فرد در یک رابطه را پیش بینی کنم که می تواند یک احتمال در مقیاس [0,1] (رگرسیون) باشد یا مجموعه ای از 5 دسته: بسیار ناراضی، ناراضی، مهم نیست، خوشحالم، بسیار خوشحالم. **مشکل** من سعی می کنم رتبه بندی کنم که کدام سؤال برای پیش بینی میزان رضایت فرد از یک رابطه مناسب تر است (اگر اصلاً باشد) و ارتباط سؤال را در مقیاس طبقه بندی کنم: مفید نیست، تا حدودی مفید است، مرتباً مفید، مفید، فوق العاده مفید. کاربر می تواند به 0، 1 یا هر دو سوال پاسخ دهد (بنابراین، گاهی اوقات کاربر به شادی رابطه خود رای می دهد و من هیچ اطلاعات دیگری در مورد کاربر ندارم). **رویکردهایی که تاکنون امتحان شده** من رویکردهای زیر را امتحان کردم: 1. LASSO: سؤالات و پاسخ ها را به یک ماتریس ساختگی طراحی باینری تبدیل کرد و موارد را با 0 سؤال به رهگیری نگاشت کرد. بنابراین، در صورت عدم پاسخگویی، ردیف ماتریس طراحی مانند [1 0 0 0 0 0 0 0] است (4 صفر برای سؤال اول و 3 صفر برای سؤال دوم). سپس سعی می‌کنم احتمال مرتبط بودن یک سوال را با استفاده از طرحی بر روی ضرایب رگرسیون LASSO غیر صفر (که کمی هک است) استنتاج کنم و سپس احتمال را در هر یک از دسته‌های مرتبط قرار دهم. 2. Partykit::ctree. یک خرده تصمیم را تنظیم کنید، ببینید چارچوب استنتاج مشروط کدام سؤال را ابتدا انتخاب می کند، داده های آن سؤال را حذف می کند (ویژگی رها کردن)، به سؤال بعدی برمی گردیم. اگر در هر مرحله ای استامپ تصمیم فقط یک گره است، الگوریتم را متوقف کنید. ارتباط با p-value رتبه بندی می شود. 3. ایده مشابه با 2، اما با استفاده از درختان چندراهی CHAID. 4. انتخاب ویژگی رو به جلو/عقب، ارتباط سوال رتبه بندی با بزرگی خطای اعتبارسنجی متقابل. **سوال** آیا الگوریتم یا رویکرد دیگری وجود دارد که برای کاری که می‌خواهم انجام دهم مناسب‌تر باشد؟
رتبه بندی ویژگی های طبقه بندی شده
115003
من یک glmm با سه جلوه ثابت اجرا می کنم: حریف 1 اندازه (1) حریف 2 اندازه (2) حریف 1 اندازه - حریف 2 اندازه (تفاوت) من نمی توانم هر سه متغیر را در مدل اجرا کنم یک بار به دلیل همبستگی متغیر diff با متغیرهای 1 و 2. پس چگونه می توانم تصمیم بگیرم که بهترین مدل کدام است، در حالی که همه ترکیب های مختلفی که می توانم آزمایش کنم درون یکدیگر قرار ندارند؟ یا آیا می توانم دو متغیر اول را درون متغیر سوم تودرتو در نظر بگیرم، زیرا هر دو برای محاسبه تفاوت استفاده می شوند؟ من ترکیبی از متغیرها و AICهای مربوط به آنها را دارم (متغیر(های) به دنبال AIC در پرانتز): متغیر(ها) (AIC): تفاوت (223) 1 (231) 2 (262) 1،2 (265) 1، تفاوت (265) 2، تفاوت (265)
مقایسه مدل زمانی که گزینه‌ها همه درون یکدیگر قرار ندارند
35137
من داده های زمانی فرکانس فعالیت ها را دارم. من می‌خواهم خوشه‌هایی را در داده‌ها شناسایی کنم که دوره‌های زمانی مشخصی را با سطوح فعالیت مشابه نشان می‌دهند. در حالت ایده‌آل، من می‌خواهم خوشه‌ها را _بدون_ مشخص کردن تعداد خوشه‌ها از قبل شناسایی کنم. تکنیک های خوشه بندی مناسب چیست؟ اگر سؤال من حاوی اطلاعات کافی برای پاسخ نیست، چه اطلاعاتی را باید برای تعیین تکنیک های خوشه بندی مناسب ارائه کنم؟ در زیر نمونه‌ای از نوع داده/خوشه‌بندی من تصور می‌شود: ![خوشه‌بندی در طول زمان](http://i.stack.imgur.com/6ipJx.png)
تکنیک های خوشه بندی مناسب برای داده های زمانی؟
8456
من یک ارشد هستم که یک پروژه نمایشگاه علمی در مورد بهره وری سوخت انجام می دهم. برای هر سوختی که تست کردم، یک سری زمانی دما دارم. من می‌خواهم اینها را در نمودار xy اکسل رسم کنم، اگر ثابت‌ها (زمان) برای هر مجموعه داده یکسان نیستند، چگونه آنها را رسم کنم؟
نمودار xy اکسل با مقادیر x نامساوی به صورت سری
97869
![الگوریتم EM](http://i.stack.imgur.com/Oxvip.png) این الگوریتم برای طبقه بندی توییت های انگلیسی در مقابل غیر انگلیسی از داده های بدون برچسب استفاده می شود. با توجه به n توییت مشاهده شده (x1 ... xn) که در آن هر توییت xi مجموعه ای از d کلمه است (xi1 ... xid). y کلاس (انگلیسی/غیرانگلیسی) است. ما از EM برای تخمین پارامترها (تتاها) استفاده می کنیم. در این مقاله استفاده شده است: http://www2013.wwwconference.org/companion/p593.pdf
دلتا در مرحله بیشینه سازی در این الگوریتم EM چیست؟
51450
هجز و همکاران 1999، _Ecology_ **80**: 1150-1156 مفهوم قدیمی استفاده از لگاریتم طبیعی نسبت پاسخ را برای بوم شناسان به عنوان آمار ارجح بر مقادیر p در آزمایش های مقایسه ای و متاآنالیزها دوباره معرفی می کند. نسبت پاسخ، $R = \bar{X}_{E =treatment}/\bar{X}_{C=control}$; $L = ln(R) = ln(\bar{X}_{E}) - ln(\bar{X}_{C})$. آنها نشان می‌دهند که گرفتن لگاریتم نسبت پاسخ به کاهش تخطی از مفروضات توزیع نرمال و همسانی کمک می‌کند، که در بیشتر مجموعه‌های داده‌های تجربی مشهود است. نویسندگان می نویسند: اگر $\bar{X}_{E}$ و $\bar{X}_{C}$ به طور معمول توزیع شده باشند و $\bar{X}_{C}$ بعید است منفی باشد، پس L تقریباً به طور نرمال با میانگین تقریباً برابر با نسبت پاسخ لاگ واقعی و واریانس، v، تقریباً برابر است. $\frac{(SD_{E})^2}{n_{E}\bar{X}_{E}^2}$ + $\frac{(SD_{C})^2}{n_{C} \bar{X}_{C}^2}$ آنها ادامه می‌دهند: یک فاصله اطمینان تقریبی 100(1-$\alpha$)% برای پارامتر نسبت پاسخ گزارش فردی $\lambda$ توسط $L داده می‌شود. - z_{\alpha/2}\sqrt{v}\leq \lambda \leq L + z_{\alpha/2}\sqrt{v}$ که در آن $z_{\alpha/2}$ 100 است(1 -$\alpha/2$)% از توزیع نرمال استاندارد، و فاصله اطمینان متناظر برای نسبت پاسخ (logged) $\rho$ با گرفتن آنتی‌لوگ‌ها به دست می‌آید. محدودیت های اطمینان برای نسبت پاسخ ورود به سیستم. در اینجا، همانطور که من متوجه شدم، نویسندگان نشان می‌دهند که برای محاسبه فواصل اطمینان باید از انحراف استاندارد به جای خطای استاندارد استفاده شود. آیا این سوءتفاهم من است یا اشتباهی در مقاله؟
فواصل اطمینان با استفاده از انحراف معیار - اشتباه یا سوء تفاهم؟
55487
من با استفاده از اصطلاح توزیع دم سنگین مواجه شده ام، اما نمی توانم منابع خوبی در اینترنت برای پاسخ به چند سوال خود پیدا کنم: 1. در مقایسه با آنچه که دم توزیع سنگین گفته می شود؟ 2. با توجه به برخی داده ها، و نمودارهای CCDF آنها (مثلاً یک نمودار log-log) چگونه می توان گفت سنگین است؟ به سادگی با منحنی اتصال با CCDF قانون قدرت؟ 3. اهمیت فیزیکی (یا اثر) سنگین بودن دم چیست؟ برای مثال، بگوییم زمان‌های بین ورود به دنبال توزیع دم سنگین است -- پیامدهای آن چیست؟
اهمیت فیزیکی توزیع دم سنگین
73702
شما به طور متوسط ​​هر روز 10 محصول می فروشید. این مدل بر اساس توزیع پواسون است. برای اینکه مدیر بتواند هزینه های غیرمستقیم را پوشش دهد، نیاز به فروش 8 محصول در روز دارد. دو سوال: > 1. احتمال فروش بین 0 تا 5 محصول در روز چقدر است؟ > > 2. احتمال داشتن حداقل 6 محصول در یک روز چقدر است؟ > >
محاسبه احتمال فروش تعداد پواسون از محصولات
32488
آیا می توانم ضرایب را در یک مدل VAR به همان روشی که در یک رگرسیون OLS معمولی انجام می دهم تفسیر کنم؟
چگونه ضرایب را در یک مدل خودرگرسیون برداری تفسیر کنیم؟
74734
سوال زیر: تفسیر ضریب رگرسیون یک متغیر مستقل از نوع نسبت در مدل من یک متغیر وابسته log دارم. به عنوان متغیرهای مستقل، یک نسبت X_1$ دارم که در [0.001، 0.30] و نسبت دوم X_2$ است که در [0.12، 0.99] قرار دارد. $E(\log(y))$ = $\alpha + \beta_1X_1$ + $\beta_2X_2$ چگونه ضرایب را تفسیر کنم؟ فرض کنید $\beta_1$ تخمینی 1.5 است، $\beta_1$ تخمینی 0.8 است. یا اینکه قبل از اجرای رگرسیون باید محدوده را تنظیم کنم؟
تفسیر ضریب رگرسیون نسبت II
65999
من فکر می کردم که در یک مورد بسیار استاندارد مانند یک مدل خطی ساده با خطاهای iid و بدون درون زایی، همان نتایج را با استفاده از برآورد حداقل مربعات ساده (مانند ارائه شده توسط `lm()` در R) و برآوردگر ساده GMM با ماتریس هویت به عنوان ماتریس وزنی و ماتریس رگرسیون به عنوان ابزار. من فقط شبیه سازی زیر را در R اجرا کردم تا نتایج تابع `lm()` و تابع gmm()` را مقایسه کنم: > library(gmm) > set.seed(1234567) > N <- 1000 > dd <- data.frame(id = 1:N) > dd$u <- rnorm(N) > dd$x <- 1 + rnorm(N) > dd$y <- 1 + dd$x + dd$u > m1 <- lm(y ~ x، داده = dd) > m2 <- gmm(y ~ x، x = ~ x، wmatrix = ident, data = dd) من ضرایب یکسانی دارم اما دقیقاً همان خطاهای استاندارد را ندارم: > coefficients(m1) (برق) x 1.0273856 0.9690455 > ضرایب (m2) (مقاطع) x 1.0273856 0.9690455 > sqrt(diag(vcov(m1))) (فاصله) x 0.0443285 > > . sqrt(diag(vcov(m2))) (Intercept) x 0.04367438 0.03127408 من مطمئن نیستم که بفهمم چرا خطاهای استاندارد در این مورد متفاوت است. آیا این به دلیل تئوری آماری است یا تابع «gmm()»؟ اگر می‌خواهید مثال را اجرا کنید، فایل gist من را ببینید.
روش تعمیم یافته گشتاورها در مقابل برآورد حداقل مربعات استاندارد
32484
من در حال توسعه تجربی یک پرسشنامه هستم و از اعداد دلخواه در این مثال برای نشان دادن استفاده خواهم کرد. برای زمینه، من در حال توسعه یک پرسشنامه روانشناختی هستم که هدف آن ارزیابی الگوهای فکری است که معمولاً در افرادی که دارای اختلالات اضطرابی هستند شناسایی می شوند. یک مورد ممکن است شبیه من _نیاز دارم فر را بارها و بارها چک کنم زیرا نمی توانم مطمئن باشم که خاموش است به نظر برسد. من 20 سوال (لیکرت 5 امتیازی) دارم که ممکن است از یک یا دو عامل تشکیل شده باشد (توجه داشته باشید که در واقع من نزدیک به 200 سوال دارم که شامل 10 مقیاس است و هر مقیاس ممکن است شامل دو عامل باشد). من حاضرم حدود نیمی از موارد را پاک کنم و 10 سوال در مورد یکی از دو عامل باقی بگذارم. من با تحلیل عاملی اکتشافی (EFA)، سازگاری درونی (آلفای کرونباخ) و منحنی‌های مشخصه آیتم در نظریه پاسخ آیتم (IRT) آشنا هستم. من می‌توانم ببینم چگونه از هر یک از این روش‌ها برای تعیین اینکه کدام آیتم‌ها در هر مقیاسی «بدتر» هستند استفاده می‌کنم. قدردانی می‌کنم که هر روش به سؤالات متفاوتی نیز پاسخ می‌دهد، اگرچه ممکن است به نتایج مشابهی منجر شود و مطمئن نیستم چه «سوالی» مهم‌تر است. **قبل از شروع، اجازه دهید مطمئن شویم که می دانم با هر یک از این روش ها به طور جداگانه چه کار می کنم.** * با استفاده از EFA، تعداد عوامل را شناسایی می کنم و مواردی را که کمترین بارگیری را دارند حذف می کنم (مثلاً <.30 ) بر روی ضریب مربوطه خود یا آن بار متقابل به طور قابل ملاحظه ای در بین عوامل. * با استفاده از سازگاری داخلی، مواردی را حذف می‌کنم که در صورت حذف آیتم آلفای بدتری دارند. من می‌توانم این کار را با فرض یک فاکتور در مقیاس خود انجام دهم، یا این کار را پس از یک EFA اولیه برای شناسایی تعداد فاکتورها انجام دهم و متعاقباً آلفای خود را برای هر عامل اجرا کنم. * با استفاده از IRT، مواردی را که فاکتور مورد علاقه را در امتداد گزینه های پاسخ (5 لیکرت) خود ارزیابی نمی کنند، حذف می کنم. من می توانم منحنی های مشخصه آیتم را به چشم بیاورم. من اساساً به دنبال خطی در زاویه 45 درجه هستم که از گزینه 1 در مقیاس لیکرت تا 5 در امتداد نمره پنهان می رود. من می توانم این کار را با فرض یک عامل انجام دهم، یا این کار را بعد از یک EFA اولیه برای شناسایی تعدادی از عوامل انجام دهم، و متعاقباً منحنی ها را برای هر عامل اجرا کنم. من مطمئن نیستم که از کدام یک از این روش ها استفاده کنم تا به بهترین نحو تشخیص دهم که کدام موارد بدترین هستند. من از بدترین به معنای وسیع استفاده می‌کنم، به گونه‌ای که مورد برای اندازه‌گیری مضر باشد، چه از نظر پایایی یا اعتبار، که هر دو به یک اندازه برای من مهم هستند. احتمالاً من می توانم آنها را در کنار هم استفاده کنم، اما مطمئن نیستم که چگونه. اگر بخواهم به آنچه که اکنون می دانم ادامه دهم و بهترین عملکردم را داشته باشم، کارهای زیر را انجام می دهم: 1. یک EFA برای شناسایی تعدادی از عوامل انجام دهم. همچنین موارد با بارگذاری بد روی فاکتورهای مربوطه خود را حذف کنید، زیرا من نمی‌خواهم مواردی که بدون توجه به اینکه در تحلیل‌های دیگر چگونه انجام می‌شوند، بد بارگذاری شوند. 2. IRT را انجام دهید و موارد بدی را که بر اساس آن تجزیه و تحلیل قضاوت می شود نیز حذف کنید، اگر مواردی از EFA باقی مانده است. 3. به سادگی آلفای کرونباخ را گزارش کنید و از آن معیار به عنوان وسیله ای برای حذف موارد استفاده نکنید. **هر گونه دستورالعمل کلی بسیار قابل قدردانی است!** در اینجا لیستی از سؤالات خاص نیز وجود دارد که می توانید به آنها پاسخ دهید: 1. تفاوت عملی بین حذف موارد بر اساس بارهای عاملی و حذف موارد بر اساس آلفای کرونباخ چیست (با فرض اینکه شما از طرح فاکتور یکسانی برای هر دو تحلیل استفاده کنید)؟ 2. ابتدا باید چه کار کنم؟ با فرض اینکه من EFA و IRT را با یک فاکتور انجام دهم و هر دو موارد مختلفی را که باید حذف شوند شناسایی می کنند، کدام تحلیل باید اولویت داشته باشد؟ من در انجام همه این تحلیل ها سخت نیستم، اگرچه آلفای کرونباخ را بدون توجه به آن گزارش خواهم کرد. من احساس می کنم که انجام فقط IRT چیزی را از دست می دهد، و به همین ترتیب فقط برای EFA. متشکرم
چگونه با استفاده از تحلیل عاملی، سازگاری درونی و تئوری پاسخ آیتم ها تعداد موارد را کاهش دهیم؟
51457
من با داده های یک نظرسنجی پیچیده، با بیش از 100 متغیر در هر مشاهده کار می کنم. از این بین 30 تا 40 متغیر را انتخاب خواهم کرد. همه متغیرها طبقه بندی شده اند، با تعداد سطوح از 2 تا 23، با میانگین حدود 5. من می‌خواهم داده‌هایم را با یک مدل لاگ خطی خلاصه کنم که همبستگی‌های مهم بین این متغیرها را بدون تحمیل ساختار علی زودهنگام بر مدل برجسته می‌کند. من هنوز در حال انجام کدنویسی و پاک‌سازی داده‌ها هستم، اما تقریباً مطمئن هستم که نمی‌توانم مدل کامل اشباع شده را پیاده‌سازی کنم و سپس با آزمایش اینکه آیا می‌توانم اصطلاحات تعامل سطح بالا را حذف کنم، مانند بسیاری از متون، نمی‌توانم آن را پیاده‌سازی کنم. به نظر می رسد به من توصیه به انجام. اگر من این را به درستی درک کرده باشم، مدل اشباع شده حاوی حدود 900 کوینتیلیون ضریب است. من از R استفاده می کنم و فکر نمی کنم همه این ضرایب در 4 گیگ رم من جا بیفتند. همچنین در کوچکترین واحد جغرافیایی که در حال بررسی هستم، تنها حدود 50000 مشاهده وجود دارد. 19 کوادریلیون ضرایب در هر مشاهده، چند درجه آزادی برای من باقی می‌گذارد. بنابراین، اگر قرار است این پروژه عملی شود، باید مدلی را پیدا کنم که بدون نیاز به بیش از یک تعامل مرتبه 5 یا 6 برای هر ترکیبی از متغیرها، به خوبی متناسب باشد. امید من این بود که بلوک‌هایی از متغیرهای مستقل متقابل ایجاد کنم که بتوانم روی حذف آنها از گروه‌های متغیر با تعاملات مرتبه بالاتر حساب کنم. با این حال، پاسخ به سوال آخر من، که متغیرهای مستقل متقابل را می توان مشروط به متغیرهای اضافی که در مجموعه اصلی نیستند، همبستگی مشروط کرد، آب سرد قابل توجهی بر این مفهوم انداخت. ببینید: آیا استقلال به معنای استقلال مشروط است؟ این بدان معناست که، برای مثال، سه متغیر مستقل متقابل با این وجود می‌توانند در تعاملات اجباری 4 یا 5 طرفه شرکت کنند، بنابراین سؤال من این است که آیا کسی الگوریتم‌های خوبی برای یافتن مدل‌های لاگ خطی مناسب برای داده‌های با ابعاد بالا می‌شناسد. به شدت نامعتبر نیستند و نیازی به این ندارند که با یک مدل کاملاً اشباع شروع کنید و کار را پایین بیاورید؟ در اینجا یکی از مواردی است که من در مورد آن متعجب بودم، اما من زیاد به آن وابسته نیستم، و اگر از الگوریتمی آگاه هستید که کار می کند، باید از بقیه این سر و صداها صرف نظر کنید. آیا منطقی است که فرض کنیم مدل ها به طور کامل از دو یا چند سطح رد نمی شوند؟ به عنوان مثال، اگر پنج متغیر در هیچ مدلی که نیاز به برهمکنش های مرتبه 6 یا 7 دارد، تو در تو نباشند، آیا منطقی است که فرض کنیم، در داده های واقعی که به طور مصنوعی برای نمایش الگوهای همبستگی فرد طراحی نشده اند، در هیچ کدام تودرتو نخواهند شد. مدل هایی که نیاز به تعاملات مرتبه 8 یا بالاتر دارند؟ برای مثال فرض کنید من در نهایت 30 متغیر داشته باشم. سپس می‌توانم تمام ترکیب‌های 3 متغیری 4000 فرد را بررسی کنم و آن‌هایی را که نیاز به تعامل سه‌طرفه دارند، شناسایی کنم. برای کسانی که این کار را نمی کنند، می توانم تمام ترکیبات 4 طرفه را که شامل آن سه متغیر هستند، آزمایش کنم، و اگر هیچ کدام وجود نداشت، می توانم مدل را در سطح دو طرفه برای آن سه متغیر کوتاه کنم، همانطور که یک تعامل 5 طرفه انجام می دهد. شامل پرش از دو سطح است. به طور مشابه، برای ترکیب‌های سه متغیری که نیاز به تعامل سه‌طرفه دارند، می‌توانم تمام ترکیب‌های پنج متغیری را که حاوی آنها هستند آزمایش کنم. اگر وجود ندارد، کوتاه کنید. هر زمان که یک تعامل n-way مورد نیاز را پیدا کردم، فضای متغیر n+2 را جستجو می‌کنم، سطوح تعاملی جدید بالاترین مورد نیاز را هر کجا پیدا می‌کنم اضافه می‌کنم و هر جا که نیستم کوتاه می‌کنم. در پایان، من یک ساختار واحد از مدل های سلسله مراتبی دارم که در آن ما همیشه برای هر اصطلاح تعاملی که در یک تعامل سطح بالاتر وجود ندارد، می دانیم که هیچ تعاملی وجود ندارد که یک یا دو سطح بالاتر باشد، و بنابراین، با این فرض، وجود دارد. بدون نیاز به تعاملات سطح بالاتر البته، من باید همه این کارها را فقط روی نیمی از داده‌هایم انجام دهم، بنابراین می‌توانم از نیمی دیگر برای آزمایش هر ساختار فرضی که ممکن است پیدا کنم استفاده کنم. اگر من واقعاً دلیلی برای این باور داشته باشم که مدل‌های لاگ خطی سلسله مراتبی نمی‌توانند از دو مرحله بگذرند، همه اینها بسیار هوشمندانه خواهد بود. من فرض می‌کنم که اگر هیچ یک از سه‌گانه‌هایی که به یک ترم تعامل 3 طرفه نیاز ندارند، در 5 طرفه‌ای که نیاز به تعامل 5 طرفه دارند، بدون وجود یک یا چند عبارت تعامل 4 طرفه مورد نیاز مداخله‌گر، تعبیه نشده باشند، این امر کمک می‌کند. به فرضیه من واقعاً می توانم آن را آزمایش کنم. من برای هر نظری که مردم می توانند ارائه دهند بسیار سپاسگزار خواهم بود. با احترام، اندرو اچ
آیا الگوریتم قابل اعتمادی برای شناسایی یک مدل لاگ خطی با ابعاد پایین وجود دارد که با داده های با ابعاد بالا (در صورت وجود) متناسب باشد؟
59305
بنابراین یادم می آید جایی خواندم که وقتی ما رگرسیورهای خارجی داریم، «auto.arima» نمی تواند پیش بینی درستی برای ترتیب تفاوت برای فصلی یا خود سری زمانی اصلی انجام دهد (اگر اشتباه می کنم اصلاح کنید!) حالا، من دوست داریم بدانیم که آیا ما نیاز به تفاوت بین رگرسیون های خارجی نیز داریم؟ همچنین، در صورت داشتن رگرسیورهای خارجی (چند سری زمانی و چند ساختگی برای الگوهای فصلی در آن سری‌های زمانی)، آیا auto.arima می‌تواند حتی MA و AR بهینه را محاسبه کند؟ همچنین فصلی هفتگی و فصلی فصلی و سالانه دارم. از آنجایی که نمی‌توانم این تعداد فصلی را در auto.arima مشخص کنم، متغیرهای ساختگی زیادی را برای سه ماهه و ماه وارد می‌کنم. آیا از نظر ریاضی نتایج صحیحی به همراه خواهد داشت؟ علاوه بر این، برای کسانی از شما که با SAS کار کرده‌اید، هنگام استفاده از روش پیش‌بینی و تخمین متغیرهای ورودی (رگرسیورهای خارجی)، آیا به طور خودکار MA و AR را برای هر رگرسیور خارجی محاسبه می‌کند؟
ARIMA و رگرسیون های خارجی در SAS و R
73706
من تصور می کنم این یک وضعیت تا حدی در عمل رایج است. من عمدتاً در مورد آزمایشات دارویی پیش بالینی فکر می کنم. 1) در طول دوره مطالعه، یک تکنیک جدید آموخته می شود یا مقداری زمان/پول آزاد می شود تا بتوان از یک تکنیک جدید به عنوان یک نتیجه ثانویه استفاده کرد. 2) برخی از قطعات کلیدی تجهیزات خراب می شود، عضو آزمایشگاهی که مهارت انجام یک تکنیک را دارد ترک می کند، یا یک تکنیک برنامه ریزی شده به نظر می رسد که نتایج متناقضی به دلایل نامعلوم دارد به طوری که نتیجه به دلایل مالی حذف می شود. 3) وقتی زمان تجزیه و تحلیل داده‌ها فرا می‌رسد، محقق می‌داند که روش‌های برنامه‌ریزی‌شده ناکافی/نامناسب هستند و می‌خواهند از رویکرد متفاوتی استفاده کنند. 4) آزمایش 1 (مثلاً داروی آزمایشی A) به نظر نمی رسد که تمام شود، بنابراین یک تصمیم مالی برای توقف آن آزمایش گرفته می شود و به جای آن داروی B آزمایش می شود. یا بخشی دیگر از آزمایش ممکن است اصلاح شود مانند کشت سلولی یا سویه حیوانی 5) مطالعه پیش از موعد متوقف شود یا بودجه اضافی برای افزایش حجم نمونه آزاد شود. من می توانم به چیزهای بیشتری فکر کنم، اما شما متوجه شدید. آیا مقادیر p در این شرایط کاربرد دارند؟ آیا اصلاحات برای مقایسه های متعدد در مورد شماره 4 باید انجام شود؟ در چه نقطه ای انحراف از طرح، روش آزمون فرضیه را باطل می کند؟ بهترین راه برای من این است که به سادگی داده ها را رسم کنم و آن ها را توصیف کنم به این امید که ممکن است برای کسی مفید باشد. با این حال، این رفتار به نفع انجام آزمون‌های معناداری/فرضیه منع می‌شود و در صورت عدم درج داده‌ها ممکن است داده‌ها منتشر نشوند. **ویرایش:** داشتم به آن فکر می‌کردم و بهترین کار این است که داده‌ها را بگیرم و مدلی برای توضیح آن بیاورم که پیش‌بینی دقیقی را انجام دهد و سپس بتوان آن را آزمایش کرد. به نظر می رسد این باید همیشه بهترین کار باشد.
اگر طراحی آزمایشی شما در حین اجرای آزمایش تغییر کند، بهترین راه برای تجزیه و تحلیل داده ها چیست؟
55484
من با برخی از نحو در R با استفاده از بسته sem مشکل دارم. من سعی می کنم کارهای زیر را انجام دهم: 1. چهار متغیر پنهان با سه شاخص (نگرشی) هر کدام ایجاد کنید. 2. این متغیرهای پنهان را روی یک متغیر مشاهده شده (رفتاری) رگرسیون کنید. هر یک از نشانگرها روی یک متغیر پنهان مرتبه بالاتر با استفاده از بسته «sem» در R، کد من برای انجام مراحل 1-2 این است: mydata.cov<-cov(mydata) model.mydata <- specify.model() F1 -> X1, lam1, NA F1 -> X2, lam2, NA F1 -> X3, lam3, NA F2 -> X4, lam4, NA F2 -> X5، lam5، NA F2 -> X6، lam6، NA F3 -> X7، lam7، NA F3 -> X8، lam8، NA F3 -> X9، lam9، NA F4 -> X10، lam10، NA F4 -> X11، lam11، NA F4 -> X12، lam12، NA behav -> F1، lam13، NA behav -> F2، lam14، NA behav -> F3، lam15، NA behav -> F4، lam16، NA X1 <-> X1، e1، NA X2 <-> X2، e2، NA X3 <-> X3، e3، NA X4 <-> X4، e4، NA X5 <- > X5، e5، NA X6 <-> X6، e6، NA X7 <-> X7، e7، NA X8 <-> X8، e8، NA X9 <-> X9، e9، NA X10 <-> X10، e10، NA X11 <-> X11، e11، NA X12 <-> X12، e12، NA F1 <-> F1، e13، NA F2 <-> F2، e14، NA F3 <-> F3، e15، NA F4 <-> F4, e16, NA behav <-> behav, NA, 1 احتمالاً مدل دوم کد مشابهی خواهد داشت: model2.mydata <- specify.model() F1 -> X1, lam1, NA F1 -> X2, lam2, NA F1 -> X3، lam3، NA F2 -> X4، lam4، NA F2 -> X5، lam5، NA F2 -> X6، lam6، NA F3 -> X7، lam7، NA F3 -> X8، lam8، NA F3 -> X9، lam9، NA F4 -> X10، lam10، NA F4 -> X11، lam11، NA F4 - > X12، lam12، NA F5 -> F1، lam13، NA F5 -> F2، lam14، NA F5 -> F3، lam15، NA F5 -> F4، lam16، NA X1 <-> X1، e1، NA X2 <-> X2، e2، NA X3 <-> X3، e3، NA X4 <-> X4، e4، NA X5 <-> X5، e5، NA X6 <-> X6، e6، NA X7 <-> X7، e7، NA X8 <-> X8، e8، NA X9 <-> X9، e9، NA X10 <-> X10، e10، NA X11 <-> X11، e11، NA X12 <-> X12، e12، NA F1 <-> F1، e13، NA F2 <-> F2، e14، NA F3 <-> F3، e15، NA F4 <-> F4، e16، NA F5 <-> F5، NA، 1 model.sem2 <- sem(model2.mydata، mydata.cov، nrow(labor_coef)) # نتایج چاپ (شاخص‌های متناسب، پارامترها، آزمون‌های فرضیه) خلاصه (model2.sem) stdCoef (model2.sem) متأسفانه، هیچ یک از نحو ظاهر نمی‌شود برای کار کردن هر دو مدل باید شناسایی شوند و R فقط یک پیغام خطای عمومی را هنگام اجرای دستور summary به من می دهد: به روز شده: اکنون، مدل اجرا می شود، اما summary موارد زیر را برمی گرداند: `خطا در summary.objectiveML(data.sem) : coefficient کوواریانس ها قابل محاسبه نیستند. افکار؟
رگرسیون متغیرهای پنهان بر روی متغیر مشاهده شده با استفاده از بسته sem در R
92335
تصور کنید که من داده های گلزنی یک تیم هاکی را دارم. آنها به طور متوسط ​​2.43 گل در هر بازی با انحراف استاندارد 1.63 برای این مجموعه داده ها به ثمر رسانده اند. آنها 82 بازی انجام داده اند. من دو زیر مجموعه از این مجموعه داده دارم. هر زیر مجموعه نشان دهنده داده هایی برای تیم است که یک دروازه بان خاص روی یخ باشد (دروازه بان A و دروازه بان B). هر دروازه بان 41 بازی بدون ترتیب خاصی انجام داده است. وقتی دروازه‌بان A روی یخ قرار گرفته است، میانگین گل در هر بازی 2.92 است. زمانی که دروازه‌بان B روی یخ بوده است، میانگین گل در هر بازی 2.00 تیم است. فرض کنید که دروازه بان ها هیچ تاثیری بر میزان گلزنی تیم خودی ندارند. چیزی که من سعی در درک آن دارم این است: آیا راهی برای محاسبه احتمال وجود دارد که یک تیم بتواند زیرمجموعه های داده ای داشته باشد که بسیار با یکدیگر تفاوت دارند؟ چقدر احتمال دارد که تیم با یک دروازه‌بان روی یخ، تقریباً یک گل کامل را بیشتر از دیگری بزند؟ اگر کسی بتواند من را در مسیر درستی قرار دهد که چگونه محاسباتی مانند این ممکن است آشکار شود، عالی خواهد بود. متشکرم.
چگونه می توانم این احتمال را تعیین کنم که یک نمونه دارای میانگین مشخصی است و جزئیات مربوط به کل جمعیت را مشخص می کند؟
78861
من در حال انجام آزمایشی با همخوانی خلقی (تاثیر خلق در بازیابی کلمه) هستم. قبل از القای خلق و خوی، شرکت کنندگان فهرستی از کلمات حاوی مقدار مساوی از کلمات مثبت، منفی یا عصبی را حفظ خواهند کرد. قبل از آزمایش واقعی، می‌خواهم مطمئن شوم که کلمات واقعاً (توسط یک نمونه) با حالت مثبت، منفی یا خنثی مرتبط هستند. بنابراین من فهرستی حاوی 37 کلمه را خلاصه کردم و از 24 پاسخ دهنده خواستم که ارتباط خود را با (1) منفی، (2) خنثی و (3) معنی مثبت (اسمی) ارزیابی کنند. از این نتایج، من به دنبال این هستم که معتبرترین کلمات را در فهرستی برای هر ارتباط (pos، neg، neut) تقطیر کنم. چگونه این کار را در SPSS انجام دهم؟
تداعی کلمه
55480
من در حال یادگیری ارزیابی نتیجه خوشه بندی هستم و در مورد ماتریس های پراکندگی سردرگم هستم. به امید دریافت کمک در اینجا. ماتریس پراکندگی درون خوشه ای $S_W$ به صورت زیر تعریف می شود: $$ S_W=\sum _{ k=1 }^{ K }{ \sum _{ x\in { C }_{ k } }^{ }{ \ چپ (x-{ \mu }_{ k } \right) { \left( x-{ \mu }_{ k } \right) }^{ T } } } $$ ماتریس بین خوشه ای $S_B$ به صورت زیر تعریف می شود: $$ S_B=\sum _{ k=1 }^{ K }{ N_k }{ \left( { \mu }_{ k }-{ \mu } \right) { \left( { \mu }_{ k }-{ \mu } \right) }^{ T } } $$ که $K$ تعداد خوشه‌ها است، $x$ یک عضو در خوشه $C_k$، $\mu_k$ مرکزهای خوشه $C_k$، $N_k$ تعداد اعضای خوشه $C_k$، $\mu$ میانگین کل مجموعه داده است. مجموعه داده من به شکل $m$ در $d$ است، یعنی نقاط داده $m$ با ابعاد $d$ (ویژگی ها). پس از خوشه بندی، هر خوشه $C_k$ به شکل $N_k$ در $d$ است. بنابراین، یک نقطه $x$ دارای بعد $1 \ برابر d $ ​​است، همچنین $\mu_k$ دارای بعد $1 \ برابر d $ ​​است. و $S_W$ و $S_B$ اسکالر هستند. چرا ماتریس نیستند؟ دقیقاً چه چیزی باید در عناصر ماتریس ها انتظار داشته باشم؟ با این نتیجه، استفاده از $trace \left(S_W \right)$ و $trace \left(S_B \right)$ بی‌ربط می‌شود. من مطمئناً موضوع را درست متوجه نشده ام. من از هر کمکی در اینجا قدردانی خواهم کرد. **به روز رسانی 1:** ماتریس پراکندگی برای هر خوشه به صورت زیر داده می شود: $$ S_k=\sum _{ x\in { C }_{ k } }^{ }{ \left( x-{ \mu }_ { k } \right) { \left( x-{ \mu }_{ k } \right) }^{ T } } $$ که به من یک کمیت اسکالر برای $x$ و $\mu_k$ با اندازه $1 \times d$. $S_{ k(i,j) }$ چه باید باشد؟ با توجه به مجموعه داده‌ای از $n$ مشاهدات با $d$ متغیرها/ویژگی‌ها (یعنی $n \times d$)، اندازه $S_k$ چقدر باید باشد؟ برای روشن شدن بیشتر مشکلم، فرض کنید یکی از خوشه ها دارای 2 عضو (ردیف) با 3 متغیر/ویژگی (ستون): $$ C_k = \begin{bmatrix} 1 & 2 & 3 \\\ 4 & 5 & 6 \end {bmatrix} $$ سپس $$ { x }_{ 1 }=\left[ \begin{matrix} 1 & 2 & 3 \end{matrix} \right] \\\ { x }_{ 2 }=\left[ \begin{matrix} 4 & 5 & 6 \end{matrix} \right] \\\ { \mu }_{ k }=mean\left( { x }_{ 1 },{ x }_{ 2 } \right) =\left[ \begin{matrix} 2.5 & 3.5 و 4.5 \end{ماتریس} \right] \\\ \left( { x }_{ 1 }-{ \mu }_{ k } \right) { \left( { x }_{ 1 }-{ \ mu }_{ k } \راست) }^{ T }=\left[ \begin{matrix} -1.5 و -1.5 و -1.5 \end{matrix} \right] \left[ \begin{matrix} -1.5 \\\ -1.5 \\\ -1.5 \end{matrix} \right] =6.75\\\ \left( { x }_{ 2 }-{ \mu }_{ k } \right) { \left( { x }_{ 2 }-{ \mu }_{ k } \right) }^{ T }=\left[ \begin{matrix} 1.5 & 1.5 & 1.5 \end{matrix} \right] \left[ \begin{matrix} 1.5 \\\ 1.5 \\\ 1.5 \end{matrix} \ راست] =6.75\\\ { S }_{ k }=\sum _{ x\in { C }_{ k } }^{ }{ \left( x-{ \mu }_{ k } \right) { \left( x-{ \mu }_{ k } \right) }^{ T } } =6.75+6.75=13.5 $$ بنابراین، $S_k$ اسکالر است و در نتیجه $S_W$ اسکالر خواهد بود. در محاسبه بالا ماتریس پراکندگی برای یک خوشه کجا اشتباه کردم؟ ** به روز رسانی 2: ** بنابراین، نقاط داده باید بردار ستون باشند. $$ { x }_{ 1 }=\left[ \begin{matrix} 1 \\\ 2 \\\ 3 \end{matrix} \right] \\\ { x }_{ 2 }=\left[ \ شروع{ماتریس} 4 \\\ 5 \\\ 6 \end{ماتریس} \راست] \\\ { \mu }_{ k }=mean\left( { x }_{ 1 }،{ x }_{ 2 } \راست) =\چپ[ \شروع{ماتریس} 2.5 \\\ 3.5 \\\ 4.5 \پایان{ماتریس} \راست] \\\ \چپ( { x }_{ 1 }-{ \mu }_{ k } \right) { \left( { x }_{ 1 }-{ \mu }_{ k } \right) }^{ T }=\left[ \begin{matrix} -1.5 \\\ -1.5 \\\ -1.5 \end{matrix} \right] \left[ \begin{matrix} -1.5 & - 1.5 و -1.5 \end{matrix} \right] =\left[ \begin{matrix} 2.25 & 2.25 & 2.25 \\\ 2.25 & 2.25 & 2.25 \\\ 2.25 & 2.25 و 2.25 \end{ماتریس} \right]\\\ \left( { x }_{ 2 }-{ \mu }_{ k } \right) { \left( { x }_{ 2 }-{ \mu }_{ k } \right) }^{ T }=\left[ \begin{matrix} 1.5 \\\ 1.5 \\\ 1.5 \end{matrix} \right] \left[ \begin{matrix} 1.5 & 1.5 & 1.5 \end{matrix} \ راست] =\چپ[ \شروع{ماتریس} 2.25 و 2.25 و 2.25 \\\ 2.25 & 2.25 & 2.25 \\\ 2.25 & 2.25 & 2.25 \end{ماتریس} \right]\\\ { S }_{ k }=\sum _{ x\in { C }_{ k } }^{ } { \left( x-{ \mu }_{ k } \right) { \left( x-{ \mu }_{ k } \ راست) }^{ T } } =\left[ \begin{ماتریس} 2.25 & 2.25 & 2.25 \\\ 2.25 & 2.25 & 2.25 \\\ 2.25 & 2.25 & 2.25 \end{ماتریس} \راست]+\چپ [\begin{ماتریس} 2.25 & 2.25 & 2.25 \\\ 2.25 & 2.25 & 2.25 \\\ 2.25 & 2.25 & 2.25 \end{matrix} \right]=\left[ \begin{matrix} 4.5 & 4.5 & 4.5 \\\ 4.5 & 4.5 & 4.5. 4.5 و 4.5 و 4.5 \end{matrix} \right] $$ و در نهایت، $S_W=\sum _{ k=1 }^{ K } S_k$. بله، این ماتریس است! آیا این بار درست متوجه شدم؟ اندازه $S_W$ $d \times d$ است ($d$ بعد/تعداد ویژگی‌های نقاط داده است). $trace(S_W)$ سپس sum-of-squared-error است. **به روز رسانی 3:** با استفاده از رویکرد داده شده توسط @ttnphns، ماتریس داده برای خوشه k را می توان در ردیف ها مرتب کرد (در حالی که معادلات بالا داده ها را در ستون ها دارند): $$ X_k = \begin{bmatrix} x_1^T \ \\ x_2^T \end{bmatrix} = \begin{bmatrix} 1 & 2 & 3 \\\ 4 & 5 & 6 \end{bmatrix} $$ هر ستون دارای 2 عنصر است، بنابراین برای مرکز ستون‌های ماتریس، ماتریس مرکزی مورد نیاز $$ C_2 = I(2) - \frac{1}{n}O(2) = \ است. begin{bmatrix} 0.5 & -0.5 \\\ -0.5 & 0.5 \end{bmatrix} $$ که در آن $I(2)$ ماتریس شناسایی اندازه است 2، $O(2)
سردرگمی در مورد ماتریس های پراکندگی
92339
فرض کنید من چند سری زمانی دارم که به شدت با یکدیگر همبستگی دارند و من این را داده های پر سر و صدا می دانم. چگونه می توانم از تکنیک شبه معکوس از پردازش تصویر برای فیلتر کردن این داده ها استفاده کنم؟
شبه معکوس برای فیلتر سری زمانی
32486
من در حال انجام پروژه ای در مورد سنجش رضایت مشتری با استفاده از SERVQUAL هستم. چگونه انحراف معیار هر عبارت را محاسبه می کنید؟ به عنوان مثال، اگر برای یکی از سؤالات، موارد زیر وجود داشت: > * 2 پاسخ دهنده به عنوان کاملاً مخالف (SD) > * 5 مخالف (D) > * 20 خنثی (N) > * 21 موافق (A) > * 2 کاملاً موافق ( SA) (نمونه 50 است) > اگر مقیاس «SD=1»، «D=2»، «N=3»، «A=4» باشد، چگونه انحراف معیار را محاسبه می‌کنید. SA=5؟ همچنین، چگونه انحراف معیار را برای یک بعد در کل محاسبه می کنید: به عنوان مثال، انحراف معیار برای یکی از ابعاد در SERVQUAL مثلاً، Tangibles که دارای 4 عبارت یا سؤال است، و انحراف معیار برای قابلیت اطمینان که دارای 5 سؤال است، و غیره. .؟
انحراف استاندارد در SERVQUAL
73708
کد R و خروجی زیر را در نظر بگیرید: row1 = c(0,23,0,0) row2 = c(0,1797,0,0) data.table = rbind(row1, row2) chisq.test(data.table) داده‌های آزمون Chi-squared پیرسون: data.table X-squared = NaN، df = 3، p-value = NA اکنون همین را در نظر بگیرید Python: import scipy.stats scipy.stats.chi2_contingency([[0,23,0,0], [0,1797,0,0]]) Traceback (آخرین تماس): فایل <stdin>، خط 1، در <module> فایل /usr/lib/python2.7/dist-packages/scipy/stats/contingency.py، خط 236، در chi2_contingency فرکانس ها یک عنصر صفر در %s دارند. % zeropos) ValueError: جدول محاسبه شده داخلی فرکانس های مورد انتظار دارای یک عنصر صفر در [0، 0، 0، 1، 1، 1] است. آیا این رفتار مورد انتظار است؟ آیا باید خطا را در پایتون تله کنم؟ جستجوی پیام «جدول محاسبه شده داخلی فرکانس‌های مورد انتظار عنصر صفر دارد» چیز مفیدی را نشان نداد.
تست مربع چی برای استقلال در R و Python
74735
به خوبی شناخته شده است که از AIC می توان برای مقایسه مدل های تو در تو استفاده کرد. بعلاوه، من معتقدم که درست می گویم که شما همچنین می توانید از AIC برای مقایسه مدل های غیر تودرتو در همان مجموعه داده استفاده کنید (اگر واقعاً اشتباه می کنم، لطفاً من را اصلاح کنید). با این حال، استفاده از AIC برای مقایسه بین مجموعه داده های مختلف صحیح نیست. در سناریوی من، من 5 اندازه گیری روی افراد در طول زمان به اضافه یک متغیر نتیجه دارم. اگر بخواهم متغیر نتیجه را به صورت خطی روی همه اندازه‌گیری‌ها در طول زمان رگرسیون کنم، می‌توانم یک AIC برای این مدل به دست بیاورم که از کل مجموعه داده استفاده می‌کند. اکنون می‌خواهم تنها 2 مورد از اندازه‌گیری‌های همه افراد به اضافه متغیر نتیجه را در نظر بگیرم. از نظر فنی، من اکنون از زیر مجموعه ای از مجموعه داده اصلی استفاده می کنم زیرا اطلاعات سه اندازه گیری دیگر را از دست داده ام. با این حال، آیا این همان برازش یک مدل تودرتو نیست زیرا من همه افراد را نگه داشتم اما 3 متغیر توضیحی را از دست دادم؟ بنابراین آیا مقایسه AIC من از این مدل با آنچه از مدل کامل به دست می آید قابل توجیه است؟
استفاده صحیح از AIC
8459
اخیراً از من خواسته شد که در توصیف برخی از سطوح (نقاط جوهر برجسته روی کاغذ) که با یک پروفیلومتر اسکن شده‌اند، کمک کنم و داده‌های ارتفاع را در شبکه‌ای از مختصات x و y به دست می‌آورم. سوال مهم تعیین میانگین ارتفاع نقطه بود. داده ها نسبتاً پر سر و صدا بودند، زیرا کاغذ کاملاً مسطح نبود، بنابراین من با روش های مختلفی برای حذف این نویز بازی کردم و به رویکردی رسیدم که به نظر می رسد بسیار خوب است (حداقل برای چشم). برای کد شبه و کد R به زیر مراجعه کنید. منطق این است که هر سطر و ستون قطعاً دارای یک ناحیه بدون نقطه است، بنابراین در حالت ایده آل حداقل برای هر سطر و ستون باید حدود صفر باشد. با این حال، بسته به اینکه حداقل های ردیف به صفر منتقل شوند یا اینکه حداقل های ستون به صفر منتقل شوند، سطوح مختلفی را به دست می آورند. برای حل این ابهام، من به سادگی هر دو را انجام می دهم و نتایج را میانگین می کنم. سپس متوجه شدم که تکرار چندین بار این فرآیند به نظر می رسد که به یک نتیجه نهایی کاملاً بدون نویز همگرا می شود. آیا نامی برای این رویکرد یا چیزی مشابه وجود دارد؟ شبه کد (داده یک ماتریس RxC از مقادیر ارتفاع است) موارد زیر را 1000 بار تکرار کنید: یک کپی از داده ایجاد کنید، آن را copy1 برای هر ردیف از داده های ارتفاع در copy1 بنامید: حداقل آن ردیف را از هر مقدار کم کنید. سطر (یعنی داده های ردیف را جابجا کنید تا حداقل آن صفر شود) یک کپی دوم از داده ایجاد کنید، آن را copy2 برای هر ستون داده ارتفاع در copy2: حداقل آن ستون را از هر مقدار در ستون کم کنید (یعنی داده های ستون را به گونه ای جابجا کنید که حداقل صفر شود) داده ها را با میانگین سلولی copy1 و copy2 _ #R-code جایگزین کنید (داده ها در a هستند. ) for(i در 1:1e3){ c1 = a for(i در 1:ncol(c1)){ c1[,i] = c1[,i]-min(c1[,i]) } c2 = a for(i در 1:nrow(c2)){c2[i,] = c2[i,]-min(c2[i,]) } a = (c1+c2)/2 }
آیا این الگوریتم حذف نویز نامی دارد؟
55489
با استفاده از بسته پیش بینی عالی توسط راب هیندمن، با توجه به مشاهدات گذشته یک سری زمانی با فصلی های پیچیده، به نیاز نه تنها به داشتن فواصل پیش بینی، بلکه برای شبیه سازی تعدادی از مسیرهای آینده برخوردم. چیزی برای سری‌های زمانی کم‌تر پیچیده‌تر با یک یا دو فصلی بودن () simulate.ets در بسته پیش‌بینی وجود دارد، اما در مورد من، برای مدل tbats پیچیده‌تر، به معادل simulate.ets () نیاز دارم. من فرض می‌کنم که داده‌های لازم برای ایجاد چنین مسیرهایی از قبل در شی مناسب وجود دارد، با این حال به نظر می‌رسد امکان ایجاد مسیرهای نمونه مستقیماً در دسترس نیست. بنابراین، من یک راه حل ساده لوحانه ارائه کرده ام و می خواهم بدانم که آیا این رویکرد درست است یا خیر. require(forecast) fit = bats (test,use.parallel=T,use.damped.trend=F,use.trend=T,seasonal.periods=seasonal.periods) ساده لوحانه تصور می کنم که مسیرهای نمونه را می توان با استفاده از پیش بینی نقطه از fit > پیش بینی(fit) نقطه پیش بینی Lo 80 Hi 80 Lo 95 Hi 95 1960.016 24.48576 23.82518 25.14633 23.47550 25.49602 1960.032 24.79870 23.88004 25.71735 23.47550 23.398. 25.31743 24.39878 26.23608 23.91247 26.72239 1960.065 25.69254 24.77389 26.61120 24.28759 27.096.281096. 25.14998 26.98729 24.66367 27.47359 1960.097 26.43215 25.51350 27.35080 25.02719 27.83711 1960.097.83711 1960.097. 27.69540 25.37179 28.18170 و صرفاً با افزودن مقادیر تصادفی ترسیم شده از روش برازش مدل. > fit$errors سری زمانی: شروع = c(1959، 2) پایان = c(1960، 1) فرکانس = 365 [1] 0.140656913 -0.455335141 -0.558989185 1.697532914 -0. 0.366182718 -0.377056927 0.396144296 بنابراین، با پیش‌بینی = پیش‌بینی(مناسب) خطاها = مسیر fit$errors = پیش‌بینی$میانگین + نمونه (خطاها، اندازه = طول (پیش‌بینی$میانگین)) نمودار (ts(مسیر) نمونه می‌شود) . http://i.stack.imgur.com/mO83W.png آیا این روش معتبری برای ساختن مسیرهای نمونه است؟ اگر نه، راه درست کدام است؟ با تشکر فراوان برای هر کمکی!
شبیه سازی مسیرهای نمونه پیش بینی از مدل tbats
114191
من با یک سوال در مورد مدل فضای حالت متغیر با زمان می نوشتم: \begin{align} y(t) &= \mu_1(t) + A(t)x(t) + v(t); &v(t) &\sim (0, R(t)) \\\ x(t) &= \mu_2(t) + \Phi(t)\\!\times\\!x(t-1) + s(t); &s(t) &\sim (0، Q(t)) \end{align} $x(t)$ به این شکل است: $x(t) = \log[1-X(t)]$ بدیهی است، $$ |X(t)| \leq 1 \\\ \Rightarrow x(t) \text{ lies in } (-\infty, \log(2) ] $$ آیا کسی می تواند تبدیلی را پیشنهاد کند که بتوانم از آن استفاده کنم، به طوری که $x(t)$ تبدیل شود نامحدود؟
تبدیل داده ها
114190
من یک مجموعه داده 350 امتیازی دارم، می خواهم همبستگی خودکار تاخیر 1 را برای زیر مجموعه های مختلف داده ها تخمین بزنم. به طور دقیق تر، من می خواهم پنجره های غیر همپوشانی به طول 1،2،3...n را بگیرم و همبستگی خودکار این زیر مجموعه ها را محاسبه کنم. بنابراین برای n برابر با 2، من هر مشاهده دوم را به طور مشابه برای n=3 می‌گیرم، هر مشاهده سوم را می‌گیرم و غیره. فقط به این فکر کردم که حداکثر مقدار n که می توانم به طور واقعی با آن کار کنم چقدر است؟ حتی با n=10، من به 35 مشاهده رسیده ام. با احترام باز
قاعده شست برای حداقل طول سری زمانی برای تخمین AR(1).
8455
وقایع اخیر در ژاپن مرا به فکر موارد زیر انداخت. نیروگاه‌های هسته‌ای معمولاً به گونه‌ای طراحی می‌شوند که خطر حوادث جدی را به «احتمال پایه طراحی» محدود کنند، مثلاً 10E-6 در سال. این معیار برای یک گیاه واحد است. با این حال، وقتی جمعیت صدها راکتور وجود دارد، چگونه احتمالات فردی یک حادثه جدی را ترکیب می کنیم؟ من می دانم که احتمالاً می توانم خودم در این مورد تحقیق کنم، اما با یافتن این سایت مطمئن هستم که کسی وجود دارد که می تواند به راحتی به این سؤال پاسخ دهد. با تشکر
ترکیب احتمالات سوانح هسته ای
65998
الف. حالت توزیع نرمال چند متغیره با متغیر پنهان $X$ نگاشت از فضای کم بعدی $X$ در فضای Q-بعد (Q=2) به فضای با ابعاد بالا $Y$ در فضای D-بعدی (مثلا D =10) می تواند به عنوان $$Y=WX+\mu+\epsilon$$ در نظر گرفته شود. $\epsilon$ تقریباً به صورت $N(0,\sigma^2I)$ می تواند به صورت $$P(Y|X)=(2\pi\sigma^2)^{-\frac{D}{2} تعریف شود } exp(-\frac{1}{2\sigma^2}||Y-WX-\mu||^2)،$$ Were $W$ توسط ماتریس وزن $Q$ به عنوان $D$ در نظر گرفته می شود. اگر پیشین گاوسی را روی متغیر پنهان $X$ با میانگین صفر و واریانس واحد بگیرم $$P(X)=(2\pi)^{-Q/2}exp(-\frac{1}{2}X ^TX)$$ سپس توزیع حاشیه ای بیش از $Y$ را می توان به صورت $$P(Y)=\int P(Y|X)P(X)dX$$ تعریف کرد $$=(2\pi)^{-\frac{D}{2}} |C|^{-\frac{1}{2}}exp(-\frac{1}{2}(Y-\ mu)^TC^{-1}(Y-\mu)),$$ where $C=\sigma^2I+WW^T$ B. حالت توزیع نرمال چند متغیره با متغیر نهفته $X$ اکنون این سوال من پیش می آید که آیا من توزیع را تعریف می کنم $P(Y|X)$ به عنوان log نرمال هنگام دریافت نویز همسانگرد $\epsilon$ تقریبا $LogN(0,\sigma^2I)$ $$P(Y|X)=(2\pi\sigma^2)^ {-\frac{D}{2}}(\prod_{i=1}^{D}Y_{i}^{-1}) exp(-\frac{1}{2\sigma^2}||ln(Y)-WX-\mu||^2)،$$ که در آن $W$ به عنوان $D$ توسط ماتریس وزن $Q$ در نظر گرفته می شود . اگر lognormal Preor را بر متغیر پنهان $X$ با میانگین صفر و واریانس واحد بگیرم $$P(X)=(2\pi)^{-Q/2}(\prod_{i=1}^{Q} X_{i}^{-1})exp(-\frac{1}{2}ln(X)^Tln(X))$$ سپس توزیع حاشیه ای بیش از $Y$ را می توان به صورت تعریف کرد $$P(Y)=\int P(Y|X)P(X)dX$$ $$=(2\pi)^{-\frac{D}{2}} (\prod_{i=1}^{D}Y_{i}^{-1})|C|^{-\frac{1}{2}}exp(-\frac{1}{2}(ln (Y)-\mu)^TC^{-1}(ln(Y)-\mu))،$$ where $C=\sigma^2I+WW^T$ سوالات: من دو بخش از سوالم را دارم: اولین «محصول از دو توزیع لگ نرمال چند متغیره نیز توزیع لگ نرمال چند متغیره است (همانطور که در معادله $p(Y)$ در حالت lognormal مشاهده می شود) اگر اینطور است چگونه می توانم این ویژگی را ثابت کنم؟ و بخش دوم سوال این است که چگونه می توانم حاشیه سازی را بیش از $Y$ در صورت حالت lognormal انجام دهم و آیا حاشیه سازی متغیر پنهان $X$ نیز منجر به توزیع لگ نرمال خواهد شد و چگونه می توانم این ویژگی را با فرض اثبات کنم. همان ویژگی های توزیع عادی که من دوباره نوشتم توزیع lognormal عبارتی است که برای PDF $Y$ نوشته شده در بالا درست است.
آیا حاصلضرب توزیع لگ نرمال چند متغیره توزیع لگ نرمال چند متغیره است
32489
من یک اعتبار سنجی متقاطع 12 درصدی دارم و چندین تکرار انجام داده ام که به من توزیع امتیازات را برای هر روش می دهد. من می خواهم نوعی آزمایش فرضیه برای مقایسه روش ها انجام دهم. هر امتیازی که من دارم مقدار واحدی بین 0 و 1 است. نمای یک هیستوگرام توزیع تقریباً نرمال را به دست می دهد. آیا آزمون t می تواند در این سناریو معتبر باشد؟
آیا استفاده از آزمون t بر روی نمرات به دست آمده از اعتبار متقاطع معتبر است؟
114193
من تکرار مقدار Gauss Seidel را روی یک مشکل تخصیص سلاح-هدف اجرا می‌کنم (در صورت لزوم می‌توانم بعداً توضیح دهم، اما فکر نمی‌کنم اینطور باشد). VI من دقیقاً در 2 تکرار همگرا می شود. مطمئن نیستم به این دلیل است که مشکل من 1/2 حالت جذبی دارد (یعنی اگر تمام سلاح‌ها را خرج کنید یا هدف اصلی را نابود کنید، دیگر جابجا نمی‌شوید و پاداش بیشتری دریافت نمی‌کنید). از آنجایی که VI است، فکر نمی‌کنم دقیقاً همگرا باشد (به این معنی که inf-norm(V_2 - V_1) = 0). من چند حالت را به صورت دستی محاسبه کرده ام و به نظر می رسد همه چیز به درستی کار می کند، اما از نظر تئوری نمی توانم بفهمم چرا این اتفاق می افتد. کد متلب در زیر ارسال شده است. لامبدا = 0.95; اپسیلون = 0.001; tol = epsilon*(1-lambda)/2*lambda; MaxDelta = 1000; %%%%%%% تکرار مقدار Gauss-Seidel %%%%%%%% %Initialization VS = zeros(cardS,1); VS_up = صفر (کارتS,2); argmax = VS; تعداد = 1; Vsa_T = سلول (کارتS,1); در حالی که MaxDelta > tol برای sindex = Sindex برای aindex = 1:Aindex(sindex) Vsa_T{sindex}(aindex) = r{sindex,aindex} + lambda*(Pij{sindex,aindex}'*VS); پایان [VS(sindex)، argmax(sindex)] = max(Vsa_T{sindex}); پایان VS_up(:,2) = VS; MaxDelta = norm(VS_up(:,1) - VS_up(:,2),inf); MD(count) = MaxDelta; VS_up(:,1) = VS_up(:,2); count=count+1 end
تکرار ارزش همگرایی دقیق
35687
آیا کسی می تواند برای حل مشکل زیر راهنمایی کند؟ $X$ به صورت $N(\mu_1, \sigma_1^2)$ توزیع می شود. $Y \big| X > c$ به صورت $N(\mu_2, \sigma_2^2)$ توزیع می شود. $Z \big|\min(X, Y) >c$ به صورت $N(g(X,Y), \sigma_3^2)$ توزیع می‌شود. در اینجا $\mu_1$، $\sigma_1$، $\mu_2$، $\sigma_2$، $\sigma_3$ ثابت هستند. چگونه واریانس $Z$ را پیدا کنیم؟ خیلی ممنون.
محاسبه واریانس بر اساس واریانس شرطی
91440
من در این زمینه مبتدی هستم پس لطفا مرا تحمل کنید. من 2 مجموعه داده دارم: 1. اطلاعاتی در مورد خودروهایی که در منطقه خاص فروخته شده اند (هزینه، مدل، تعداد صندلی ها، سازنده و غیره) 2. اطلاعات در مورد وضعیت اجتماعی افراد در منطقه خاص (موقعیت شغلی، متوسط ​​حقوق، آموزش، بیمه درمانی، و غیره) آیا ریاضیاتی وجود دارد که بتواند اطلاعاتی را به من نشان دهد. مدل ماشین چه ارتباطی با موقعیت شغلی افراد دارد (من فرض می کنم افراد ثروتمندتر ماشین های گران تری می خرند)؟ یا حتی تصور احمقانه تر از این که وضعیت اجتماعی فرد چگونه با تعداد اعضای خانواده مرتبط است (من فرض می کنم افرادی که ماشین هایی با صندلی های بیشتر (ون و غیره) می خرند، خانواده های بزرگ تری دارند)؟ آیا این حتی با آمار / یادگیری ماشین / داده کاوی امکان پذیر است؟ در دنیای پایگاه داده من به سادگی از انتخاب ها و جوین ها استفاده می کنم و اطلاعات مورد نظر را دریافت می کنم، اما در این زمینه چه باید کرد؟ آیا می توانید منابعی را با مثال به من معرفی کنید؟
استخراج دانش از ترکیب (احتمالی نامرتبط) مجموعه داده های متعدد
50503
روش صحیح آزمایش تفاوت های قابل توجه در برآورد پارامترها در مورد زیر چیست: من یک متغیر وابسته (قد برای سن) و یک متغیر مستقل (مزایای بازنشستگی دولتی خانوار) ​​دارم. این موارد در دو سال مشاهده می شود. برای دیدن اینکه آیا مشکل درون زایی وجود دارد، می خواهم مزایای بازنشستگی در سال دوم را در رگرسیون سال 1 لحاظ کنم. معادله ای که می خواهم تخمین بزنم بدین صورت است: $$y_1 = b_0 + b_1 * x_1 + b_2 * x_2 + e$$ سپس می خواهم آزمایش کنم که آیا $b_1$ تفاوت قابل توجهی با $b_2$ دارد (در عوض با صفر متفاوت است). من این سوال قبلی را پیدا کردم، اما مطمئن نیستم که آیا این دقیقا همان مشکل است یا خیر. همچنین آیا روش استانداردی برای پیاده سازی این در R وجود دارد؟ این اولین پست من است، پس ببخشید اگر درست پست نکردم، لطفاً ویرایش کنید.
تفاوت معنی داری بین ضرایب
8453
آیا $R^2 * \mbox{slope}$ تخمینی از علت و معلول ارائه می دهد؟ به عنوان مثال، اگر $R^2$ از مایل رانده شده و قهوه مصرف شده $x\%$ باشد و شیب مجموعه داده قهوه و مایل $y$ (مایل/قهوه) باشد، می توانید بگویید $z$ of هر فنجان قهوه نوشیده شده به تعداد مایل طی شده مربوط می شود؟
آیا می توانید از R^2$ و رگرسیون برای تخمین علت و معلول استفاده کنید؟
91447
فرض کنید که من می‌خواهم اندازه اثر یک مداخله خاص را محاسبه کنم، که برای آن داده‌های خام و مقداری آماری را دارم که می‌توان آن را به اندازه اثر تبدیل کرد. برای مثال، اگر کسی نمره t و مقدار df یک آزمون t را داشته باشد، می‌توان آن را با استفاده از معادله $$d=\frac{t*2}{\sqrt{df}}$$ به d کوهن تبدیل کرد. این را می توان برای مقادیر آماری دیگر، مانند آمار f و مربع Chi نیز انجام داد. اگر بخواهم مکالمه را به جای داده های خام، از روی ارزش آماری انجام دهم، هیچ نوع اطلاعات یا دقتی را از دست می دهم؟ یعنی، آیا این تبدیل‌ها دقیقاً به همان اندازه اثر منجر می‌شوند که اگر به جای آن، محاسبات را با داده‌های خام انجام دهم، یا برخی از آنها صرفاً تخمینی هستند؟
آیا هنگام محاسبه اندازه اثر از مقادیر آماری به جای داده های خام اطلاعات یا دقت را از دست می دهید؟
91441
من دو مجموعه داده دارم: > dput(a) c(15984.24، 17359.7، 17341.47، 18461.18، 24924.5، 46039.49، 41595.55، 19403.524، 3.21، 19403.524، 3.21. 22136.64، 26229.21، 57258.43، 42960.91، 17596.96، 16145.35، 16555.11، 17413.94، 18926.74، 04 (b) > 14773d. c(1.16776468870609، 1.25440938833205، 1.37597370494326، 1.4006623420762، 1.92223911868668، 2.83969 2.89756460878735, 1.53090508809756, 1.6460907811141, 1.68787497981851, 1.8009924919931, 1.88246729 2.7976160336472, 3.16461975637253, 2.17047399047576, 2.30305266750383, 1.862111958973053, 1.3817176 1.43838336037203، 1.33379850762213) و من می خواهم a و b را طوری جا بزنم که بیشترین تعداد مقدار نزدیک را داشته باشم (مثلاً با آستانه 2٪). بنابراین با انجام دستی آن، تناسب چیزی شبیه به این خواهد بود: > plot(a) > خطوط (b*12000) ![a و b روی هم قرار گرفته اند](http://i.stack.imgur.com/TpERW.png) من نوشتم تابعی برای شمارش نقاط بسته: CountClosePoints = function(x,y) { count = 0 for(i in(1:20)) { if( (!is.na(x[i])) و (!is.na(y[i])) ) { خطا = abs( x[i] - y[i] ) آستانه = 2*x[i]/ 100 # 2% if (خطا < آستانه) count = شمارش + 1 # یک نقطه دیگر نزدیک به شکل هدف } } برگرداندن (شمارش) } اکنون می خواهم K را پیدا کنم تا حداکثر شود: CountClosePoints(a,K*b) برای مثال: CountClosePoints(a,13000*b) = 4 CountClosePoints(a,12500*b) = 5 و غیره من نمی دانم چگونه K را پیدا کنم.
R - برازش دو شکل با تعداد مقادیر نزدیک
92336
اگر بتوانید با تخصص خود به من کمک کنید واقعا ممنون می شوم: من مطالعه ای دارم که در آن بیماران را از نظر بهبودی پس از ترخیص ارزیابی می کنم. بنابراین من دو گروه دارم، بیماران شفا یافته و غیر شفا یافته. سوالی که می‌خواهم بپرسم این است که چگونه می‌توان پیش‌بینی‌کننده‌های مستقل شفا (یا عدم التیام) را در یک بازه زمانی مشخص مانند دو ماه پس از توهین تجزیه و تحلیل کرد. زمان پیگیری آزمون ها متغیر است اما بیشتر پیگیری ها در دوره دو ماهه توهین بوده و برخی تا 6 ماه توهین افزایش یافته است. من به این فکر افتادم که از یک مدل کاکس استفاده کنم، که در آن داده‌های سانسور شده بهبود می‌یابند، زیرا بیماران شفایافته‌ای که پس از دوره مورد بررسی بررسی شده‌اند، قبل از آن مطمئناً شفا نگرفته‌اند، اما این مورد برای بیماران شفا یافته صادق نیست. بنابراین آیا Cox برای دوره مورد علاقه من منعکس کننده نیست زیرا بیشتر داده ها در این دوره نهفته است؟ خیلی ممنون.
چگونه زمان بهبودی را زمانی که زمان‌های پیگیری برابر نیستند و به زمان خاصی نگاه می‌کنیم، تجزیه و تحلیل کنیم؟
52906
نحوه نمایش موارد زیر: با استفاده از توزیع t دانشجویی با درجه آزادی $k > 0$، پارامتر مکان $l$ و پارامتر مقیاس $s$ با چگالی $ \frac{\Gamma ((k+1)/2) }{\Gamma ((k/2) \sqrt{k \pi s^2}} \\{ 1 + k^{-1}( \frac{x-l}{s} )\\}^{-(k+1)/2}$ چگونه نشان دهیم که $t$-distribution را می توان به صورت مخلوطی از توزیع های گاوسی با اجازه دادن به $X$~ $N(\mu,\sigma^ نوشت 2)$, $\tau = 1/\sigma^2$~$\Gamma(\alpha,\beta)$ و ادغام چگالی مفصل $f(x,\tau|\mu)$ برای بدست آوردن چگالی حاشیه ای $f(x|\mu)$ پارامترهای توزیع $t$، به عنوان توابع $\mu,\alpha,\beta$ من در حساب دیفرانسیل و انتگرال گم شدم با توزیع گاما لطفا کمک کنید!
دانشجو t به عنوان مخلوط گاوسی
91445
من دوست دارم زمانی که بتوانم به آن کمک کنم همه آنالیزها را در SAS یا همه در R نگه دارم و اخیراً بیشتر و بیشتر از R استفاده می کنم، اما یک تجزیه و تحلیل وجود دارد که به طور معمول انجام می دهم که در R برای من مشکل ایجاد کرده است. داده های اندازه گیری را تکرار کرده ام. من می‌خواهم مدل زیر را مطابقت دهم: $$Delta = روز + گروه + روز\زمان‌ها گروه$$ که در آن $Delta$ تغییر از پایه است، $Day$ تعداد روزهای از شروع مطالعه است. و $Group$ گروه آزمایشی است. من یک ماتریس واریانس-کوواریانس را برای محاسبه اندازه گیری های مکرر برازش می کنم (برای این مثال از تقارن مرکب استفاده می کنم، اما تفاوت با استفاده از سایر ماتریس های واریانس-کوواریانس یکسان است). من داده ها را در انتهای پست دارم. اگر تعامل را درج نکنم، می‌توانم آنالیز را همانطور که می‌خواهم در SAS و R اجرا کنم. در SAS: proc mixed data=df; شناسه روز گروه کلاس; مدل دلتا = گروه روز; تکرار روز / subject=id type=cs; lsmeans group / diff=all; اجرا؛ در R: library(nlme) library(lsmeans) fit.cs <- gls(Delta~Day+Group, data=df, corr=corCompSymm(,form=~1|ID)) anova(fit.cs,type= حاشیه ای) lsmeans(fit.cs,pairwise~Group) بدیهی است که نتایج از نظر مخرج DF متفاوت است، اما من قصد شروع آن بحث را نداشته باشید (مگر اینکه این تفاوت باعث ایجاد مشکل شود). وقتی تعامل را در SAS اضافه می کنم، همه چیز خوب است: proc mixed data=df; شناسه روز گروه کلاس; مدل دلتا = روز | گروه تکرار روز / subject=id type=cs; اجرا؛ اما وقتی همین کار را از R... fit.cs <- gls(Delta~Day*Group, data=df, corr=corCompSymm(,form=~1|ID)) # خطا در glsEstimate(object, control = کنترل) : # محاسبه‌شده gls fit تک است، رتبه 19 چرا R از منفرد بودن تناسب شکایت می‌کند اما SAS اینطور نیست؟ در اینجا چند داده جعلی هستند که نماینده داده‌هایی هستند که من با آنها کار می‌کنم (از R): df <- structure(list(Delta = c(-1.27, -0.34, 1.92, 0.45, 1.21, 0.43, -0.41, 0.16, - 0.35، 1.49، -0.85، -0.86، 1.04، 0.49، 2.32، 0.13، 0.32-، 0.5، 0.48، 1.21، 0.82-، 0.93، 0.58-، 2.3، 0.9-، 0.21، 0.72-، 0.11، 0.28-، 0.11-، 0.23-، 0.7 -0. 0.88-، 0.97، 0.25، 0.8، 0.16، 0.63، 0.49-، 0.63-، 0.9-، 1.1، 1.45-، 0.38، 0.93-، 0.4، 0.45، 0.48، 0.45-، 0.48، 0.1-، 0.1- 2.19، -1.53، -0.49، -1.57، -1.02، 1.09، 1.74، 0.54، -1.57، -1.5، -0.48، 0.26، 0.2، -0.36، -1.05، -1.73، -1.06، -1.73، -0.0. 0.45-، -0.14، -0.56، 0.84، -2.66، -0.52، 1.44، 0.45، 0.24، -0.92)، روز = ساختار(c(1L، 2L، 3L، 1L، 2L، 3L، 1L، 2L، 3L، 1. 2 لیتر، 3 لیتر، 6 لیتر، 7 لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶ لیتر، ۷ لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶ لیتر، ۷ لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶ لیتر، ۷ لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶ لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶۱ لیتر، ۷ لیتر، 2 لیتر، 3 لیتر، 6 لیتر، 7 لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶ لیتر، ۷ لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶ لیتر، ۷ لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶ لیتر، ۷ لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶ لیتر، ۱ لیتر، ۲ لیتر، ۳ لیتر، ۶۱ لیتر، ۷ لیتر، 2 لیتر، 3 لیتر، 6 لیتر، 7 لیتر، 1L، 2L، 3L، 6L، 7L، 1L، 2L، 3L، 6L، 7L)، .Label = c(4، 7، 10، 12، 14، 16، 28)، کلاس = عامل)، گروه = ساختار (c(1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۴ لیتر، ۴ لیتر، ۴ لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L، 4L)، .Label = c(1، 2، 3، 4)، کلاس = عامل)، شناسه = ساختار (c(1L، 1L، 1L، 2L، 2L، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 18 لیتر، 18 لیتر، 1 18L)، .Label = c(1، 2، 3، 4، 5، 6، 7، 8، 9، 10، 11 ، 12، 13، 14، 15، 16، 17، 18)، class = ضریب))، .Names = c(دلتا، روز ، گروه، ID)، کلاس = data.frame، row.names = c(NA, -82L)) در اینجا همان داده ها برای SAS وجود دارد: DATA df; INPUT گروه روز دلتا $ ID $ @@; کارت؛ -1.27 4 1 1 -0.34 7 1 1 1.92 10 1 1 0.45 4 1 2 1.21 7 1 2 0.43 10 1 2 -0.41 4 1 3 0.16 7 1 3 -0.34 4 1 -0.85 7 2 4 -0.86 10 2 4 1.04 16 2 4 0.49 28 2 4 2.32 4 2 5 0.13 7 2 5 -0.32 10 2 5 0.5 16 2 5 0.49 0.28 -0.82 7 2 6 0.93 10 2 6 -0.58 16 2 6 2.3 28 2 6 -0.9 4 2 7 0.21 7 2 7 -0.72 10 2 7 0.11 16 2 7 -0.24 -0.28. 7 2 8 -1.16 10 2 8 -0.23 16 2 8 -0.88 4 3 9 0.97 7 3 9 0.25 10 3 9 0.8 16 3 9 0.16 28 3 9 0.610 - 4 030 4 30 4 10 3 10 -0.9 16 3 10 1.1 28 3 10 -1.45 4 3 11 0.38 7 3 11 -0.93 10 3 11 0.4 16 3 11 0.45 28 3 11414. 1.02 10 3 12 -0.01 16 3 12 -1.98 28 3 12 2.19 4 3 13 -1.53 ​​7 3 13 -0.49 10 3 13 -1.57 16 3 13 -1.02 1.014 138 1.74 7 4 14 0.54 10 4 14 -1.57 16 4 14 -1.5 4 4 15 -0.48 7
Rgls() در مقابل SAS proc مخلوط با تعامل: چرا R از یک ماتریس منفرد شکایت می کند در حالی که SAS این کار را نمی کند؟
65992
من دارم روی مدلی از پس انداز مبالغ حساب کار می کنم. فصلی بودن را نشان می دهد: در روز اول هر ماه مقدار همیشه کاهش می یابد. این منطقی است زیرا مردم احتمالاً برای پرداخت اجاره یا سایر قبوض روزمره نیاز به کشیدن پول دارند. با این حال، قبل از اعمال تعدیل فصلی، می‌پرسم: آیا معیاری برای فصلی بودن وجود دارد؟ برای مثال، آیا «نسبت» یا «شاخص» وجود دارد که بتواند وجود یا ویژگی آشکار فصلی بودن را نشان دهد؟
معیار فصلی بودن؟
35680
من یک مقدار تجربی دارم و می‌خواهم بفهمم کدام یک از مقادیر نظری به طور قابل توجهی به مقدار تجربی نزدیک است. مثلاً بگویید مقدار تجربی من: 3000 است و مقادیر نظری من عبارتند از: 2500,3005,3300,2750,2900,3100,2995,3000,3010,3150,2850. نزدیک به مقادیر تجربی من من فرض می‌کردم که می‌توانم این را با استفاده از انحراف معیار محاسبه کنم، اما باید میانگین را محاسبه کنم، اما میانگین من لزوماً در مقدار تجربی من نیست. کدام فرآیند/آزمون آماری برای یافتن مقادیر بسیار نزدیک به مقدار تجربی من مناسب‌تر است؟
چگونه می توانم تعیین کنم که آیا مقادیر به طور قابل توجهی مشابه / نزدیک هستند؟
35689
این ممکن است احمقانه به نظر برسد، اما اگر من $d_i$، جایی که $i=1 \dots n$ مشاهدات داشته باشم و فرض کنم آنها به صورت نمایی توزیع شده اند، قبل از استفاده از MLE، آیا باید داده های خود را به دنبال توزیع نمایی تبدیل کنم؟ دلیلی که می‌پرسم این است که اغلب دیگران را می‌بینم که داده‌هایشان را قبل از MLE عادی می‌کنند، اگر فرض کنند داده‌هایشان به طور معمول توزیع شده است.
تبدیل داده ها قبل از استفاده از تخمین حداکثر احتمال
52909
اگر بخواهم مختصات $(X_{1},Y_{1})$ و $(X_{2},Y_{2})$ را تعریف کنم که $X_{1},X_{2} \sim \text {Unif}(0,30)\text{ and }Y_{1},Y_{2} \sim \text{Unif}(0,40).$$ چگونه مقدار مورد انتظار فاصله بین آنها؟ داشتم فکر می کردم، چون فاصله با $\sqrt{(X_{1}-X_{2})^{2} + (Y_{1}-Y_{2})^{2}})$ محاسبه می شود ارزش مورد انتظار فقط $(1/30 + 1/30)^2 + (1/40+1/40)^2$ باشد؟
چگونه فاصله مورد انتظار بین دو نقطه با توزیع یکنواخت را پیدا کنیم؟
60815
من مجموعه داده ای از نمونه های متعلق به بیش از 100 کلاس دارم. من می خواهم این کلاس ها را طبقه بندی و/یا خوشه بندی کنم. من سوالات زیر را دارم: 1) آیا یک طبقه بندی کننده برای چنین مشکلی کارآمد است؟ یا یک طبقه بندی کننده برای هر یک / زیر مجموعه از کلاس ها؟ (از دیدگاه من: راه حل کارآمد این است که ویژگی هایی را کشف کنیم که هر کلاس را از بقیه متمایز می کند و مشکل را به عنوان مشکل طبقه بندی 1 به همه حل می کند. پیشنهادی در این زمینه وجود دارد؟) 2) حدود 60٪ از این کلاس ها دارای 1 هستند. یا حداکثر 2 نمونه!. چگونه می توانم نمونه های جدیدی از این کلاس های 1 نمونه ایجاد کنم. آیا فکر می کنید هر یک از تکنیک های SMOTE (تکنیک نمونه برداری بیش از حد اقلیت مصنوعی) در این مورد قابل اجرا هستند؟ با احترام
طبقه بندی تعداد زیادی از طبقات
92330
من ارقام فروش هفتگی دارم و می خواهم آنها را به ارقام فروش روزانه تبدیل کنم و یک فرضیه ساده ایجاد کنم که 7 روز با قدرت فروش برابر وجود دارد. بیایید تصور کنیم که من دارم: هفته، فروش 1،11 2،15 3،9 اکنون می توانم به راحتی این را با الگوهای هفتگی مسطح به ارقام روزانه تبدیل کنم: هفته، روز، فروش 1،1،11/7 1،2، 11/7 1,3,11/7 1,4,11/7 1,5,11/7 1,6,11/7 1,7,11/7 2,1,15/7 2,2,15/7 2,3,15/7 2,4,15/7 و غیره اما پیشرفت اصلی که من به دنبال آن هستم داشتن یک روند خطی است در داخل هفته، به طوری که من پرش را از هفته 1 به هفته 2 (از 11 تا 15) صاف کردم. آیا تابع R وجود دارد که بتواند این کار را برای من انجام دهد؟
ر - چگونه تبدیل فروش هفتگی به فروش روزانه را هموار کنیم؟
114195
من یک مجموعه داده با مقادیر زیادی از دست رفته و ترکیبی از متغیرهای ادامه و طبقه بندی دارم. من می خواهم از چیزی مانند کمند گروهی برای انتخاب ویژگی ها استفاده کنم. احتمالاً خروجی باینری 0،1 است و بنابراین رگرسیون لجستیک کمند گروه‌بندی شده انتخاب معقول‌تری به نظر می‌رسد. مشکل من تعداد بسیار زیاد مقادیر از دست رفته است. حذف ردیف های غیر کامل یک گزینه نیست. آیا پیاده سازی R وجود دارد که بتواند به طور مشابه با کمند استفاده شود و بتواند مقادیر از دست رفته و متغیرهای طبقه بندی را همزمان مدیریت کند؟ یک راه حل ممکن در اینجا پیشنهاد شده است اما به هیچ بسته R اشاره نمی کند.
کمند با مقادیر از دست رفته و متغیرهای طبقه بندی شده
94654
من Box-Cox را بر روی یک مدل رگرسیون با ناهمسانی اعمال کردم. اگرچه مدل تبدیل شده بهتر از مدل اصلی به نظر می رسید، اما همچنان نشانه هایی از ناهمسانی را نشان می داد. بعد از Box-Cox چه کار دیگری می توانم انجام دهم تا تقریباً ناهمسانی را از بین ببرم؟ مدل اصلی چولگی (با توجه به نرمال بودن) 1.4 را نشان داد که در آن مدل تبدیل شده چولگی را در باقیمانده های 0.8 نشان داد. از چه تغییرات دیگری می توانم استفاده کنم و/یا باید مشاهدات اصلی را با دقت بیشتری بررسی کنم و مشاهداتی را که پرت هستند حذف کنم؟
باقیمانده های غیر عادی پس از باکس کاکس
115215
من می خواهم تأثیر تبلیغات یک محصول بر فروش آن را مطالعه کنم (داده های هفتگی برای 5 سال). از آنجایی که هدف نهایی پیش‌بینی تأثیر تغییر در حضور تبلیغات در رسانه‌ها بر فروش است، در نظر داشتم متغیرهای دیگری را نیز در نظر بگیرم (مانند قیمت رقبا، متغیرهای اقتصاد کلان، ...) همانطور که می‌دانم تبلیغات دارای یک اثر طولانی مدت و اینکه، به عنوان مثال، در زمان t من فقط می توانم قیمت ها را در t-1 بدانم که باید تاخیرها را نیز لحاظ کنم. آیا مدل ARIMAX مناسب است؟ آیا باید سعی کنم از متغیرهای روند + فصلی + عقب مانده استفاده کنم؟ متشکرم.
مدل ARIMAX یا ARDL؟
50507
من خیلی آشنا نیستم که چه زمانی و به چه دلیل در یک تحلیل رگرسیون به طور کلی بر روی یک متغیر یا مجموعه ای از متغیرها طبقه بندی می کنید و می خواهم بدانم که این مسائل به ویژه در تضاد با گنجاندن متغیر (به خودی خود یا به عنوان یک اصطلاح تعامل) چیست؟ در مدل بدون طبقه بندی. من تا حدودی با مثالی در رگرسیون کاکس آشنا هستم که در آن زمانی که توابع خطر پایه در سطوح یک متغیر متفاوت است، طبقه بندی می کنید، متغیر گسسته است و برای شما مهم نیست که تخمینی از آن داشته باشید. در این مورد، طبقه بندی ممکن است به از جمله تعامل با مدت زمان ترجیح داده شود. اما من واقعاً هرگز آن را در سایر زمینه های رگرسیون در نظر نگرفته ام. چه چیزی را از دست داده ام و باید به چه نکاتی توجه کنم؟ همچنین، من فقط در مورد جنبه تجزیه و تحلیل چیزها صحبت می کنم، نه در مرحله طراحی یا نمونه برداری. من فقط با تجزیه و تحلیل ثانویه روی داده‌های مشاهده‌ای کار می‌کنم که از یک نمونه یا طرح طبقه‌بندی‌شده گرفته نشده‌اند، در صورتی که به محدود کردن تمرکز کمک کند. و یک سوال خاص در این مورد - آیا واقعاً هر پیش بینی کننده در مدل خود را در مورد طبقه بندی کردن بررسی می کنم؟ من از تعاملات می‌دانم که اگر دلیلی پیشینی برای آن نداشته باشید و آنها مورد علاقه اصلی نباشند، لزوماً تعاملات را بررسی نمی‌کنید. با تشکر
چه زمانی یک تحلیل را در مقابل شامل یک اصطلاح تعامل طبقه بندی می کنید؟
56682
آیا راهی برای ارتباط داده ها بدون توجه به توزیع وجود دارد؟ من می دانم که تبدیل Choleksy برای داده های توزیع شده معمولی استفاده می شود، اما آیا یک روش کلی وجود دارد که برای هر موردی کاربرد داشته باشد؟ برای گنجاندن اطلاعات بیشتر: * من می خواهم بتوانم هر شکل توزیع را برای هر متغیری تعیین کنم. * من می خواهم 2 یا چند متغیر را به هم مرتبط کنم. * در پایان، من می‌خواهم متغیرها مقیاس‌بندی شوند (این را می‌توان بعداً به راحتی انجام داد) اکنون پس از اجرای برخی آزمایش‌ها متوجه شدم که پاسخ احتمالاً در مرتب کردن مجدد داده‌ها نهفته است (من به حفظ جفت‌ها اهمیتی نمی‌دهم، بنابراین من هستم _نه_ در مورد x و y مشاهده شده در یک شخص صحبت نمی کند، بنابراین این مقادیر را می توان با هم در هم ریخت). من متوجه شدم که حتی برای یک n=10 کوچک، جابجایی 100000 بار دارای همبستگی 0.3 است که همراه با یک تلورانس کوچک است. a <- runif(10) b <- rnorm(10) cors <- 1:100000 for (i در 1:100000) { cors[i] <- cor(a، نمونه(b، طول(b)) } خروجی : > sort(cors)[89981] > 0.2999949 آیا راه آسانی برای رسیدن سریع به این ترتیب مجدد وجود دارد (فقط برای یافتن اینکه این همبستگی وجود دارد، اجرای آن 7 ثانیه طول می کشد) همچنین، این ممکن است بهترین راه برای 3 متغیر نباشد.
تبدیل داده ها: بدون توجه به توزیع، همبستگی دارند
35682
مثلاً بگویید که ما یک مدل رگرسیون لجستیک داریم که احتمال ابتلای بیمار به یک بیماری خاص را بر اساس متغیرهای کمکی متعدد نشان می‌دهد. با بررسی ضرایب مدل و در نظر گرفتن تغییر در نسبت شانس، می‌توانیم به طور کلی از بزرگی و جهت اثر هر متغیر کمکی به دست آوریم. اگر بخواهیم برای یک بیمار مجرد بدانیم بزرگترین عوامل خطر / بزرگترین عوامل به نفع او چیست؟ من به ویژه به مواردی که بیمار واقعاً می تواند کاری در مورد آنها انجام دهد علاقه مند هستم. بهترین راه برای انجام این کار چیست؟ روشی که من در حال حاضر در نظر دارم در کد R زیر (برگرفته از این موضوع) نشان داده شده است: #برگرفته از Collett 'Modelling Binary Data' 2nd Edition p.98-99 #نیاز به اعداد تصادفی قابل تکرار دارد. seed <- 67 num.students <- 1000 which.student <- 1 #تولید قاب داده با داده های ساخته شده از دانش آموزان: set.seed(seed) #reset seed v1 <- rbinom(num.students,1,0.7) v2 <- rnorm(طول(v1)،0.7،0.3) v3 <- rpois(length(v1),1) #ایجاد df به نمایندگی از دانش آموزان <- data.frame( intercept = rep(1,length(v1)), outcome = v1, score1 = v2, score2 = v3 ) print(head(students )) predict.and.append <- function(input){ #ایجاد یک مدل لجستیک وانیلی به عنوان تابعی از داده های score1 و score2.model <- glm (نتیجه ~ score1 + score2، داده = ورودی، خانواده = دوجمله ای) #محاسبه پیش بینی ها و SE.fit با روش داخلی بسته R # اینها به صورت logits هستند. پیش‌بینی‌ها <- as.data.frame(predict(data.model، se.fit=TRUE، type='link')) پیش‌بینی‌ها$واقعی <- ورودی$نتیجه پیش‌بینی‌ها$پایین <- plogis(predictions$fit - 1.96 * پیش‌بینی‌ها $se.fit) predictions$prediction <- plogis(predictions$fit) predictions$upper <- plogis(predictions$fit + 1.96 * predictions$se.fit) return (list(data.model, predictions)) } خروجی <- predict.and.append(students) data.model <- output[[1]] #summary (data.model) #Export vcov matrix model.vcov <- vcov(data.model) # اکنون هدف ما این است که بازتولید «پیش‌بینی‌ها» و se.fit به صورت دستی با استفاده از ماتریس vcov this.student.predictors <- as.matrix(students[which.student,c(1,3,4)]) #Prediction: this.student.prediction < - sum(this.student.predictors * coef(data.model)) square.student <- t(this.student.predictors) %*% this.student.predictors se.student <- sqrt(sum(model.vcov * square.student)) manual.prediction <- data.frame(lower = plogis(this.student .prediction - 1.96*se.student), prediction = plogis(this.student.prediction), upper = plogis(this.student.prediction + 1.96*se.student)) print(پیش نمایش داده ها:) print(head(students)) print(paste(تخمین نقطه ای از احتمال نتیجه برای دانش آموز، which.student, (2.5٪، پیش بینی امتیاز، 97.5٪) با روش کولت:)) manual.prediction print(paste(تخمین نقطه ای از احتمال نتیجه برای دانش‌آموز، which.student,(2.5%, پیش‌بینی نقطه، 97.5%) توسط R's predict.glm:)) print(output[[2]][which.student,c('lower',' prediction','upper')]) من در نظر دارم علاوه بر این به this.student.prediction.list نگاه کنم <- this.student.predictors * coef(data.model) و تلاش برای به دست آوردن اطلاعات از مجموع اضافات مجموع که تخمین احتمال است، اما من مطمئن نیستم که چگونه این کار را انجام دهم. می‌توانم به * کدام متغیرها بیشترین سهم مطلق را در برآورد احتمال داشته باشم و آن‌ها را بزرگترین عوامل خطر بدانم. * کدام متغیرها با نسبت میانگین خود بیشترین تفاوت را دارند، به عنوان مثال ببینید هر متغیر به طور متوسط ​​چه نسبتی در برآورد احتمال دارد و ببینید کدام متغیرها با این نسبت با بیشترین مقدار در این مشاهده خاص تفاوت دارند * ترکیبی از آنها: وزن مطلق تفاوت بین نسبت میانگین و نسبت مشاهده شده با نسبت متوسط ​​و آن متغیرهایی را با بیشترین مقادیر وزنی در نظر بگیرید کدام یک از اینها منطقی تر است؟ آیا هر یک از این رویکردها راهی معقول برای پاسخ به این سوال خواهد بود؟ علاوه بر این، می‌خواهم بدانم چگونه می‌توانم فواصل اطمینان را برای مشارکت‌های افزایشی متغیرهای کمکی منفرد در برآورد احتمال به دست بیاورم.
سهم هر متغیر کمکی در یک پیش‌بینی واحد در مدل رگرسیون لجستیک
56684
من سعی می کنم با روش های رگرسیون قوی آشنا شوم و چیزی در مورد برآوردگرهای M وجود دارد که من آن را درک نمی کنم. در آمار قوی (مارونا، مارتین، یوهای) گفته می شود که اگر هر دو x و y ما تصادفی باشند، برآوردگر M رگرسیون به عنوان راه حل برای $$ \sum \rho (\frac{r_i (\ hat{\beta})}{\hat{\sigma}}) = حداقل $$ که $\rho$ یک تابع $\rho$ محدود است و $\hat{\sigma}$ یک مقیاس اولیه خرابی بالا است. آن «مقیاس مقدماتی» قرار است چه باشد؟ چگونه مقدماتی را در آن زمینه درک کنم؟
مقیاس اولیه در برآوردهای M برای رگرسیون چیست؟
52902
من تازه وارد Stats هستم و در حین اجرای تجزیه و تحلیل های خود در SPSS با این مشکل مواجه شدم که نمی توانم توضیح دهم. چگونه است که حتی پس از تبدیل داده‌های من با ثبت آن، همچنان همان مقدار p-مقدار مجموعه داده خام را دارد که تبدیل نشده است؟ متاسفم که اینجا واقعاً نادان به نظر می رسد! پیشاپیش از کمک شما سپاسگزارم.
مقادیر p آزمون Mann-Whitney U برای داده های خام و تبدیل شده با ورود به سیستم یکسان است.
25632
# کتابهایی برای یادگیری آمار با استفاده از R ## دقیقاً کتابی که به دنبال آن هستم چیست. چیزی که من به دنبال آن هستم کتابی است که در حین استفاده از R به شما آمار می آموزد تا به شما تجربه عملی بدهد و در نتیجه به شما کمک کند تا R را با هم یاد بگیرید. من در آمازون کتاب های زیادی را دیده ام که سعی در انجام این کار دارند، اما نه با R. نمونه هایی مانند Minitab و SAS هستند. ## آیا R Book و Statistical Computing یک گزینه هستند؟ - _هنوز جواب نداده_. کتاب R و محاسبات آماری: مقدمه ای بر تجزیه و تحلیل داده ها با استفاده از S-Plus قابل اجرا به نظر می رسد، اما نظر خواننده در اینجا مفید و خوش آمدید. ## ارتباط کتاب با دروس آمار چگونه است؟ برای دقیق تر بودن در مورد آنچه که به دنبال آن بودم، این دو درس را در نظر بگیرید که نتایج یادگیری آمار از یک گروه ریاضی در دانشگاه من در حال حاضر دانشجو هستم: آمار متوسط ​​و احتمال و آمار، یعنی من در یک کتاب جستجو می کنم. دوره آمار معمولی به سطح متوسط ​​می رود، اما به جای اینکه فقط تخته و کاغذی باشد که شما در عوض آن را یاد بگیرید و از R استفاده کنید. این همچنین به این معنی است که من به دنبال کتابی هستم که فرض کند می خواهم آمار را از ابتدا یاد بگیرم. ## این کتاب برای محققین نیز هست. من همچنین یک محقق مهندس نرم‌افزار هستم، اما حدس می‌زنم وضعیت فعلی شما با کوه‌هایی از داده‌ها پیدا می‌شود و می‌خواهید آماری را یاد بگیرید تا به نوشتن کد برای خودکار کردن ادامه دهید که تقریباً برای بسیاری از زمینه‌های دیگر قابل استفاده است. این بدان معناست که من علاقه مند به یادگیری تک تک جزئیات هر ویژگی برای هر منحنی نیستم، بلکه بیشتر نگران درک داده ها برای حوزه تحقیقاتی خود هستم، اگرچه اگر کتاب بخواهد عمیقاً در این مورد صحبت کند مشکلی نخواهد داشت. . به عنوان انگیزه نهایی، من در حال خواندن مقالات علمی در جوامع مختلف هستم که ادعای نتایج بر اساس استنتاج آماری را دارند، در حالی که هیچ مدرک قابل خواندنی وجود ندارد که آیا فرضیات/محدودیت های آماری نقض می شوند یا خیر. یک کتاب R که زیاد در مورد آمار نیست، تضمین نمی‌کند که من این روش را دنبال نمی‌کنم، به همین دلیل است که تصمیم گرفتم به جای بازی کردن با یک کتاب کلی، به دنبال کتابی باشم که شبیه یک دوره آمار با استفاده از R باشد. ## سوالات مرتبط در Cross Validated. * چه کتاب هایی یک نمای کلی از آمار محاسباتی را در مورد علوم کامپیوتر ارائه می دهند؟ \- تفاوت این است که سوال به دنبال یک نمای کلی است در حالی که این برای یادگیری آمار با استفاده از R است. ## پاسخ و بازخورد برای این سوال. ### @Julie کتاب‌های پیشنهادی کمی بودند که قبلاً با آن برخورد کردم، اما نمونه‌ای هستند که متأسفانه برای من مناسب نیست: آمار مقدماتی با R، استفاده از R برای آمار مقدماتی، آمار: مقدمه‌ای با استفاده از R چند کتابی هستند که قبلاً در آمازون نگاه شده است، اما در مورد یک مرور کلی آماری یا فرضیاتی هستند که به دانش آمار قبلی نیاز دارد. مشکل کتاب های مروری بیشتر در مورد توجه نکردن به مفروضات، محدودیت ها و ارائه توضیحات کافی برای درک اطلاعات است. اگر فکر می‌کنید کتابی وجود ندارد که بتواند این نیاز را نیز برآورده کند یا فکر می‌کنید کتاب R یا محاسبات آماری: مقدمه‌ای بر تجزیه و تحلیل داده‌ها با استفاده از S-Plus مناسب این موضوع باشد، من نیز از این نوع پاسخ قدردانی می‌کنم. ### @Christopher Aden مقدمه‌ای بر احتمالات و آمار به‌نظر می‌رسد که با استفاده از R نزدیک‌ترین مورد است، اما هنوز هم کلی به چیزی است که من دنبالش بودم. _چیزی که انتظارش را داشتم کتابی مانند دیوید اس مور، مبانی آمار بود زیرا:_ * تمام موضوعات آمار را پوشش می دهد. * از دو ابزار، miniTab و ابزارهای دیگر برای آموزش عملی در روش توضیح داده شده استفاده می کند. * این مفروضات و محدودیت ها را بسیار برجسته می کند. این برای محققی که دوره آمار عمیق را گذرانده و می خواهد از آمار استفاده کند بسیار مهم است. کتاب‌هایی که به سختی مروری بر آن دارند، آنها را پوشش نمی‌دهند، که برای محققان خطرناک است. * فهرست مطالب کتاب را می توانید اینجا ببینید. توجه داشته باشید که چگونه تمرکز بر آمار است و استفاده از ابزار برای بهبود درک و درک دانش‌آموز است که بداند چگونه از ابزارها برای انجام آمار پس از یادگیری به روشی آسان‌تر استفاده کند. این در مورد ابزار نیست، در مورد آمار است! _من دقیقاً همین را می‌خواهم، اما با استفاده از R._ ### @Gregory Demin از R به عنوان مثال‌های آموزشی استفاده می‌کند، فرض می‌کند که می‌خواهید آمار یاد بگیرید و بهتر از همه، منبع باز است. متأسفانه، ANOVA و ANCOVA یا موضوعات پیشرفته تر را پوشش نمی دهد. ### @Peter Ellis پیشنهاد خوبی برای یک کتاب درسی که آنچه در این سوال مورد نظر است را پوشش دهد. ## کتابهایی در نظر سوال کننده که به سوال پاسخ می دهد. @Peter Ellis و @Gregory Demin. ## مجموعه ای از کتاب های R در آمازون بحث درباره کتاب های R برای پیشینه دانش آموزان مختلف را می توان در اینجا یافت. ## سخنرانی های ویدئویی آموزش آمار با استفاده از R Google Tech Talks از سال 2007 که انگیزه این سوال را نیز ایجاد کرد و بیشتر در مورد داده کاوی به جای آمار اما با استفاده از R با هم در اینجا پوشش می دهد.
چه کتابی برای شروع همزمان یادگیری آمار با استفاده از R توصیه می شود؟
25630
من به دنبال توضیح اینترنتی در مورد مدل پنهان مارکوف (HMM) و اجرای آن بودم، اما فکر می‌کنم توضیح چندان خوبی وجود ندارد. آیا کسی می داند و من را از طریق این آموزش مانند آموزش و اجرای آن راهنمایی می کند. بازخورد وجود خواهد داشت و این کار را به عنوان خیریه انجام ندهید. بنابراین امیدوارم کسی علاقه مند به این موضوع باشد، لطفاً بیشتر با من تماس بگیرید تا بتوانیم به زودی صحبت کنیم. خیلی ممنون.
پیاده سازی مدل پنهان مارکوف
113674
روش‌های زیادی وجود دارد که چگونه می‌توان یک مدل رگرسیون خطی را به خوبی برازش داد، به عنوان مثال. با استفاده از تخمین M بر اساس کاهش دو وزن توکی یا از دست دادن هوبر، به عنوان مثال نگاه کنید. ویکی پدیا من دو سوال در مورد دو مورد ذکر شده داشتم: 1. آیا درست است که اینها میانگین (به طور دقیق تر _ مرکز_) توزیع پاسخ شرطی را تا زمانی که توزیع خطا متقارن است مدل می کنند؟ 2. به طور کلی چه پارامتر مکان را مدل می کنند؟ آیا میانگین وزنی ویژه متغیر پاسخ است؟
کدام پارامتر مکان با رگرسیون قوی مدل می شود؟
50509
من اطلاعات 110 شرکت را دارم. قیمتی که سالانه برای یک سرویس بین سال‌های 2004 و 2011 پرداخت کرده‌اند. اکنون می‌خواهم بدانم که آیا تفاوت آماری معنی‌داری بین قیمتی که آنها قبل و بعد از سال 2008 دریافت می‌کنند وجود دارد یا خیر. . . با توجه به اینکه من 8 مشاهدات در هر شرکت دارم (آیا می توانم آنها را برای قبل و بعد از 2008 جمع آوری کنم و از آزمون t نمونه های زوجی استفاده کنم؟) چگونه باید با این موضوع برخورد کنم؟
تناسب آزمون تی نمونه های زوجی
104421
پذیرفته شده است که تفسیر اثرات اصلی زمانی که در یک تعامل درگیر می شوند، پیچیده است. بیایید یک مدل خطی منظم، با دو متغیر طبقه بندی سطح 2 A و B که با هم تعامل دارند، در نظر بگیریم. مدل را می توان نوشت: lm(پاسخ ~ A + B + A:B) اجازه می دهد I را رهگیری، a2 برآورد مربوط به سطح 2 متغیر A، b2 برآورد مربوط به سطح 2 متغیر B و c22 را برهمکنش بنامیم. برآورد برای من، 2 مورد وجود دارد: 1. برآورد تعامل در مقایسه با برآورد اثرات اصلی کوچک است. در آن صورت من در تفسیر اثرات اصلی مشکلی نمی بینم و سپس مشخص می کنم که تعامل مهم است اما کوچک و توضیح می دهم که چه چیزی تغییر می کند. 2. برآورد تعامل در مقایسه با اثر اصلی بزرگ است و حتی ممکن است جهت اثرات را تغییر دهد. در آن صورت، تفسیر برآوردها بسیار دشوار است و بهتر است بسته به درک اساسی ما از تعامل بین A و اثر B برای هر سطح A، یا اثر A برای هر سطح از B، بررسی کنیم. B. ما روی مورد 2 تمرکز می کنیم. فرض کنید B یک اصلاح کننده اثر A است، و من می خواهم بررسی کنم که تأثیر A در هر سطح B چیست. برای اینکه ببینم تأثیر A برای هر سطح B چیست، یک را جمع می کند تخمین می زند: * اثر A برای سطح 1 از B است a2 * اثر A برای سطح 2 از B است a2+c22 مسئله من این است که هنگام انجام این کار، فاصله اطمینان اثر A برای سطح 2 را نمی دانیم. B (یعنی a2+c22). بنابراین، من تعجب کردم که آیا یک راه حل خوب برای تفسیر برهمکنش ها در آن حالت، پارامترسازی مجدد مدل به صورت زیر است: lm (پاسخ ~ B + A:B) این دو تخمین را برای تعامل به جای یک (c21=a2 و c22=a2) برمی گرداند. +previous_c22)، به طوری که ما مستقیماً تأثیر تخمینی A را برای هر سطح B و علاوه بر آن فواصل اطمینان آنها را داریم. آیا راه حل خوبی است؟ اگر هست، چرا مردم این کار را نمی کنند؟ با تشکر
بازسازی مجدد یک مدل زمانی که یک تعامل برای تسهیل تفسیر مهم است
56686
من به دنبال بسته های نرم افزاری برای کار با **مدل های نمودار تصادفی نمایی ** (برازش/تولید آنها و نمونه برداری از توزیع های گراف) هستم. من تا کنون فقط دو بسته پیدا کرده ام که هر دو از R استفاده می کنند: ergm/statnet و RSiena، که مورد اول بسیار محبوب تر است. آیا بسته های دیگری موجود است؟ من به ویژه به روش هایی علاقه مند هستم که هم منتشر/مستند شده باشند و هم پیاده سازی در دسترس برای بازی کردن داشته باشند.
نرم افزار کار با نمودارهای تصادفی نمایی
96055
فرض کنید من یک مشکل استنتاج بیزی دارم که در آن $E$ نتیجه یک آزمایش شیمی است. آزمایش شیمی شامل یک هضم متوالی کنترل شده یک انتهای پروتئین با استفاده از یک آنزیم خاص است که دارای خواص آماری شناخته شده است. توالی پروتئین در ابتدای آزمایش ناشناخته است. داده های جمع آوری شده تعداد واکنش ها و زمان وقوع آنها است. هدف، استنتاج اطلاعات توالی با استفاده از آنزیم است. $P\left(x_{1},\, x_{2},\,\ldots,\, x_{n}|E\right)$ = $\dfrac{P\left(x_{1},\, x_{2},\,\ldots,\, x_{n}\right)P\left(E|x_{1},\, x_{2},\,\ldots,\, x_{n}\right)}{P\left(E\right)}$ همچنین فرض کنید که متغیرهای تصادفی گسسته $X_{1},\, X_{2},\,\ldots,\, X_{n} $ از پسین به طور پیشینی مستقل از یکدیگر شناخته می شوند. این متغیرهای تصادفی خلفی اطلاعات توالی (20 اسید آمینه) را برای n موقعیت اول در پروتئین می دهند. این محاسبه استنتاج بیزی برای تمام توالی اسیدهای آمینه با طول n انجام می شود. سپس توزیع های حاشیه ای برای استنتاج دنباله مجهول گرفته می شوند. چگونه استقلال شرطی متغیرهای تصادفی بعدی را با توجه به شواهد ثابت کنم: $P\left(x_{1},\, x_{2},\,\ldots,\, x_{n}|E\right)$ = $P\left(x_{1}|E\right)P\left(x_{2}|E\right)\cdots P\left(x_{n}|E\right)$ .
اثبات استقلال مشروط از استقلال متقابل