_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
92188
چگونه می توان یک P-Value را برای تجزیه و تحلیل ارتباط Eta به دست آورد؟ آیا مرجعی برای این موضوع وجود دارد؟
چگونه یک p-value برای اندازه گیری eta ارتباط بدست آوریم؟
73606
من یک سوال در مورد رسیدگی به رویدادهای کیفی (مقوله ای) در داده های کمی (مقیاس نسبت) دارم. بدون اینکه در حبس زیاد قرار بگیریم، آزمایش روی پرتاب است. من فاصله بین هدف و نتیجه پرتاب را برای هر تلاش اندازه می‌گیرم. برخی از تلاش ها با شکست مواجه می شوند زیرا شرکت کننده به مانعی در مسیر رسیدن به هدف برخورد می کند. در پایان متغیر وابسته ممکن است چیزی شبیه به این باشد: [.2.1.3.2 -1.2.2.8 -1] که در آن مقادیر ممکن است از 0 تا هر چیزی متغیر باشد، اما -1 نشان دهنده برخورد با مانع است. چه راه هایی برای مقابله با چنین داده های طبقه بندی شده در متغیر کمی وجود دارد؟ من نمی توانم آنها را کنار بگذارم زیرا از منظر عملکرد معنادار هستند. جایگزینی با مقداری فاصله خطای زیاد دلبخواه به نظر می رسد. آیا چیز دیگری وجود دارد؟ در پایان من علاقه مندم که چگونه مردم در نتیجه تمرین در پرتاب بهتر می شوند.
نسبت داده ها با رویدادهای طبقه بندی شده
69399
این یک مشکل تکلیف است. اگر بتوانم راهنمایی هایی در مورد چگونگی حل آن داشته باشم بسیار عالی خواهد بود. میانگین و کوواریانس ترکیبی از دو توزیع: $$ I = \left\\{ \begin{array}{l l} 1 & \quad \text{اگر موضوع در گروه 1}\\\ 0 & \quad \text{ اگر موضوع در گروه 2} \end{array} \right.$$ فرض کنید $\mathbf{Z}=(Z_1,\ldots,Z_p)^T$ بردار اندازه گیری یک موضوع با میانگین و کوواریانس است: $$ E[\mathbf{Z}|I=1]=\mathbf{\ mu}_1، \quad E[\mathbf{Z}|I=0]=\mathbf{\mu}_2\\\Cov[\mathbf{Z}|I=1]=\mathbf{\Sigma}_1، \quad Cov[\mathbf {Z}|I=0]=\mathbf{\Sigma}_2$$ اجازه دهید $p=P(I=1)$. $E[\mathbf{Z}]$ و $Cov[\mathbf{Z}]$ را پیدا کنید. تلاش من: (این برای من منطقی است) $E[\mathbf{Z}] = E[E[\mathbf{Z}|I]] = E[p\mathbf{\mu}_1+(1-p)\ mathbf{\mu}_2] = p\mathbf{\mu}_1+(1-p)\mathbf{\mu}_2$. (در مورد این مورد مطمئن نیستم) $$ \begin{align*}Cov[\mathbf{Z}] &= Cov[E[\mathbf{Z}|I]] + E[Cov[\mathbf{Z}|I ]]\\\&= Cov[p\mathbf{\mu}_1+(1-p)\mathbf{\mu}_2] + E[Cov[\mathbf{Z}|I]]\\\&= ???\end{align*}$$
میانگین و کوواریانس مخلوطی از دو توزیع
92189
سوال این است که با استفاده از روش معمول پنج مرحله‌ای در آلفا $=0.05$ مستقل از وضعیت سیگار کشیدن و میزان مصرف الکل آزمایش شود: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/95boi jpg) در یافتن مقادیر مورد انتظار مشکل دارم. همانطور که سوال بیان می کند، مقادیر مورد انتظار را می توان از فرضیه صفر تولید کرد. اما چگونه؟ سردرگمی دیگری که من با آن مواجه هستم، شناسایی روشی است که باید دنبال کنم، زیرا در سؤال ذکر نشده است. از آنجایی که من باید مقادیر مورد انتظار را داشته باشم، آیا به این معنی است که برای شناسایی استقلال بین دو متغیر باید از خوبی برازش توزیع پواسون پیروی کنم؟ متشکرم!
آزمایش اینکه آیا مصرف الکل و سیگار کشیدن مستقل هستند یا خیر
50332
**زمینه** من چندین مجموعه داده از بسامدهای کلمه دارم که برخی از مجموعه داده ها داده های بسیار بیشتری نسبت به سایرین دارند: از 3000 نمونه تا 20000 نمونه. من همچنین مجموعه های مرجع بزرگی با میلیون ها نمونه دارم. **سوال** با استفاده از احتمالات ترم، می‌خواهم فاصله زوجی بین مجموعه‌های داده و مجموعه‌های مرجع را محاسبه کنم تا بتوانم بگویم از همه مجموعه‌ها، مجموعه داده $A$ نزدیک‌ترین به Corpus $S$ است در حالی که مجموعه داده $B$ است. نزدیکترین به Corpus $P$. با این حال، من معیاری می خواهم که بیش از حد تحت تأثیر اندازه نمونه مجموعه داده ها قرار نگیرد. به عنوان مثال، اگر $A$ دارای 50000 نمونه باشد، $B$ دارای 3000 نمونه باشد، و مجموعه های مرجع دارای میلیون ها نمونه باشند، $A$ ممکن است اغلب به بدنه مرجع نزدیکتر باشد تا $B$ صرفاً به این دلیل که نمونه های بیشتری دارد (با فرض $A) $ و $B$ مشابه هستند اما از یک توزیع گرفته نشده اند)؟ من معتقدم که با یک کاربرد ساده از واگرایی K-L، برای مثال، $A$ بر $B$ ترجیح داده می شود، اما اگر اینطور نیست، لطفاً مرا تصحیح کنید. 1. بهترین متریک برای اندازه گیری فاصله بین احتمالات یک نمونه و یک پیکره بزرگ چیست؟ 2. اندازه نمونه نابرابر چگونه بر متریک تأثیر می گذارد؟
مقایسه توزیع‌های فرکانس مدت با حجم نمونه نابرابر؟
110515
من داشتم کتاب مدل‌های گرافیکی احتمالی کولر و فریدمن را می‌خواندم و به دلیل مجموعه‌ای از یادداشت‌ها که یا با آن در تضاد هستند یا به گونه‌ای متفاوت بیان می‌کنند، در مورد برخی از نشانه‌گذاری آن گیج شدم. هر کدام که باشد، من می خواهم توضیح دهم. علامت این است: $(\textbf{X} \perp \textbf{Y} , \textbf{W}\mid \textbf{Z})$ دلیل اینکه من در مورد معنای نماد گیج شدم، اسلایدهای آنلاین زیر است. : http://www.stats.ox.ac.uk/~steffen/seminars/waldmarkov.pdf به ویژه آنچه که من را گیج می کند نحوه بیان این یادداشت ها است قانون تجزیه در صفحه 8 و اینکه چگونه کتاب کولر همین قانون تجزیه را کمی متفاوت بیان می کند. اگر من دو نماد را درک کنم، باید قانون تجزیه را در هر دو نماد درک کنم. کتاب کولر قانون تجزیه را به صورت زیر بیان می‌کند: $$(\textbf{X} \perp \textbf{Y} , \textbf{W}\mid \textbf{Z}) \inplies (\textbf{X} \perp \textbf {Y}\mid \textbf{Z}، \textbf{W})$$ که به صورت شهودی بیان می‌کنم؛ مجموعه متغیرهای تصادفی $\textbf{X}$ مستقل از مجموعه متغیرهای تصادفی $\textbf{Y}$ و $\textbf{W}$ هستند (یعنی تفسیر کاما بین $\textbf{Y}$ و $\textbf{X}$ به عنوان و) با توجه به مجموعه متغیرهای تصادفی $\textbf{Z}$. با این حال، به نظر می‌رسد اسلایدها این جداسازی با کاما را به عنوان یک اتحاد تفسیر می‌کنند که من را گیج می‌کند (چون فکر می‌کردم داریم «و» را انجام می‌دهیم): $$(A \perp_{\sigma} (B \cup D) \mid C) \ دلالت دارد (A \perp_{\sigma} B \mid C) \text{ و } (A \perp_{\sigma} D \mid C) $$ آن من را گیج می کند زیرا به نظر می رسد از اتحاد برای کاما استفاده می کنند. علاوه بر این، نمی‌توانم متوجه شوم که چرا این دو عبارت قوانین تجزیه معادل هستند (که ممکن است توضیح دهد که چرا من برای اثبات آن مشکل داشته‌ام زیرا فکر نمی‌کنم گزاره را درک کنم!). آیا کسی تفاوت در نماد و نحوه بیان معادل قانون تجزیه را می داند؟ * * * به عنوان یک مرجع، این پیشینه بیشتر در مورد نماد در کتاب Koller's Book است: اجازه دهید سرمایه غیر پررنگ برای متغیرهای تصادفی باشد که بگوییم $X$ یک r.v است. اجازه دهید برای انتساب به یک متغیر تصادفی که می‌گوید $(X = x)$ است. همچنین اجازه دهید حروف درشت را به عنوان مجموعه ای از متغیرهای تصادفی تعریف کنم. برای مثال $\textbf{X}، \textbf{Y}، \textbf{Z}$ سه مجموعه از متغیرهای تصادفی هستند. اجازه دهید حروف پررنگ کوچک تخصیص به این مجموعه‌ها را نشان دهد. اجازه دهید $Val(\textbf{X})$ مقادیری باشد که مجموعه متغیرهای تصادفی می تواند بگیرد. در صفحه 21 کتاب کولر به صراحت می گوید که تقاطع ها با کاما از هم جدا می شوند، بنابراین عادلانه است که کاما را به معنای تقاطع فرض کنیم. این را می توان در صفحه 21 قدردانی کرد، جایی که می گوید: > به جای نوشتن $P((X=x) \cap (Y=y))$، $P(X=x، Y = y)$ یا فقط > $P(x,y)$. می‌دانم که این فقط در زمینه توزیع‌های احتمال صریح است، با این حال، اگر توجه کنیم که چگونه ویژگی تجزیه را اثبات می‌کند، می‌توانیم نتیجه بگیریم که کولر احتمالاً به معنای کاما به عنوان تقاطع در نماد گیج‌کننده $(\textbf{X} است. \perp \textbf{Y}، \textbf{W}\mid \textbf{Z})$ نیز. او اینگونه شروع می کند: > برای مثال، برای اثبات تجزیه فرض کنید که $(X \perp Y , W \mid Z)$ > برقرار است. سپس از تعریف استقلال شرطی داریم که > $P(X,Y,W|Z) = P(X|Z)P(Y,W|Z)$. اکنون با استفاده از... اثبات ادامه دارد... معادله: $$P(X,Y,W|Z) = P(X|Z)P(Y,W|Z)$$ به من مشکوک می‌کند که اسلایدها یکی هستند علامت گذاری اشتباه یا نامرتب است. یا هر دو شلخته هستند. من مطمئن نیستم.
نماد $(\textbf{X} \perp \textbf{Y} , \textbf{W}\mid \textbf{Z})$ به چه معناست؟
27004
ما اختلاف $\chi^2$ را به صورت $$T(y,\theta)=\sum_i\frac{(y_i-E(y_i|\theta))^2}{\mathrm{var}(y_i|\) تعریف می کنیم تتا)}$$ (تعریف از گلمن). اگر $\theta$ یک متغیر تصادفی باشد و نمونه‌هایی از آن داشته باشیم (اما نه توزیع) چگونه این را اعمال کنیم؟
اختلاف بیزی $\chi^2$
78910
من دانشجوی کارشناسی ارشد هستم و به کمک شما نیاز دارم. من روی یک گروه از موش‌ها آزمایش انجام دادم، گروه به مدت 8 روز آزمایش شدند، این مرحله اول است. از همان گروه نیز مجدداً آزمایش شد اما این بار مرحله آزمایش 7 روز بود. من سعی کردم تجزیه و تحلیل خود را با استفاده از اندازه گیری های مکرر ANOVA انجام دهم اما با روزها مشکل داشتم. من می خواهم تفاوت 2 تست را بدانم اما تعداد روزها یکسان نیست. من نمی دانم چگونه با آن رفتار کنم. اگر راهی برای انجام آنالیز با استفاده از اندازه گیری های مکرر ANOVA وجود دارد. من سعی کردم از ANOVA اندازه گیری های مکرر در اثر سوژه ها استفاده کنم. فاکتور اول من تست با 2 سطح خواهد بود (آزمون 1 و 2)، فاکتور دوم روز با سطح؟ مشکل اینجاست! اگر من 8 را بنویسم یک روز اضافی در آزمون 2 وجود دارد و تجزیه و تحلیل نمی تواند اجرا شود!
اندازه گیری های مکرر ANOVA با داده های نامتعادل
59203
اگر احتمالاً نمونه‌ای بر اساس معیارهای انتخاب چندگانه خود انتخاب می‌شود، آیا منطقی است که نسبت‌های Inverse Mill برای مدل‌های انتخاب چندگانه در همان مدل OLS مرحله دوم لحاظ شود؟
دو مرحله هکمن: مدل های انتخاب چندگانه
74056
من از Tukey HSD (در R) برای یافتن ابزارهایی استفاده کردم که به طور قابل توجهی با یکدیگر متفاوت هستند، اما اکنون به این فکر می کنم که چگونه خطای نوع II را تخمین بزنم تا تصور کنم چقدر احتمال دارد که H0 نادرست برای جفت اشیا به اشتباه پذیرفته شود. که تفاوت قابل توجهی ندارند. من می خواهم از این برای توجیه نتیجه گیری در مورد تفاوت های موجود استفاده کنم. متأسفانه من نتوانستم اطلاعات مفیدی را در اینترنت پیدا کنم (شاید به این دلیل که کلمات کلیدی مناسب را نمی دانم). آیا راهی برای محاسبه خطای نوع II برای Tukey HSD وجود دارد؟ یا باید از رویکرد متفاوتی برای توجیه نتیجه گیری در مورد تفاوت های موجود استفاده کنم؟ امیدوارم کسی بتواند مرا به مسیر درست راهنمایی کند.
نحوه محاسبه خطای نوع II برای Tukey HSD
27001
من باید داده های شبیه سازی شده را برای یک رگرسیون لجستیک شرطی با استفاده از «R» تولید کنم. کدی که نوشتم درست به نظر می رسد، اما مشکلی وجود دارد. پس از تولید داده‌ها، نسخه‌های بتا و برچسب‌هایم، از «glm()» برای تخمین بتا استفاده می‌کنم. اگر همه چیز درست باشد، بتای تخمینی «glm» باید بسیار نزدیک به بتای واقعی باشد. با این حال، «glm()» نمی تواند همگرا شود. در زیر کد من است. آیا کسی می تواند به من اشاره کند که من چه اشتباهی انجام می دهم؟ با تشکر کتابخانه(بقا) # مقدار اولیه پارامترها k <- 5 n <- 10 g <- 20 p <- rep(0, n*g) y <- rep(0, n*g) # ایجاد نمایه گروه GI <- بردار (mode=numeric) for(group in 1:g){ GI <- c(GI, rep(group,n)) } # تولید داده بتا <- ماتریس(rnorm(k), ncol=1) x <- ماتریس(rnorm(n*g*k), ncol=k) # برچسب های واقعی را برای (گروه در 1:g) محاسبه کنید{ p[GI= =گروه] <- exp(x[GI==گروه،] %*% بتا) / مجموع( exp(x[GI==گروه،] %*% بتا)) y[n*(گروه-1)+which.max(p[GI==گروه])] <- 1} cl <- clogit(y ~x + لایه (GI))
شبیه سازی داده ها برای مدل طبقه بندی شده کاکس
55788
من با این سوال مواجه شدم: ![http://i.stack.imgur.com/zlE1w.jpg](http://i.stack.imgur.com/LmgEf.jpg) و جواب را اینجا گرفتم: ![ توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/W2jMY.jpg) با این حال، چیزی که من کاملاً متوجه نمی‌شوم این است که در وهله اول این دو شرط از سؤال چگونه به دست می‌آیند.
تفسیر شرایط احتمال از سوال
74050
من در تلاش برای درک تفاوت بین موارد زیر هستم: * انتشار انتظارات (EP) * ویکی پدیا بیز متغیر می گوید: > انتشار انتظارات با سایر رویکردهای تقریب بیزی متفاوت است > مانند روش های بیزی متغیر. چرا **EP** یک روش **Variational Bayes** در نظر گرفته نمی شود؟ آیا EP بیزی نیست و برای تقریب پسین به انتقال پیام متکی است؟ چه چیزی یک روش را Variational Bayes می سازد؟ همچنین در مورد روش های زیر چطور. آیا می توان آنها را Variational Bayes در نظر گرفت؟ * مجموع محصول * روش های میدان میانگین * تقریب های بته-کیکوچی
Variational Bayes در مقابل EP و سایر روش‌های ارسال پیام
110513
من یک مجموعه داده کوچک 30 ویژگی / پیش بینی و 30 مشاهده دارم. متغیر هدف من تولید نفت است و پیش‌بینی‌کننده‌های من خواص خوب و مخزن (عمق، مسیر، دما، فشار و غیره) هستند. روابط ممکن است غیر خطی باشند و بسیاری از ویژگی ها با یکدیگر مرتبط هستند. آیا می توانید لطفاً چند راه عالی برای حل این مشکل به من پیشنهاد دهید؟ هر کمکی بسیار قدردانی خواهد شد! با تشکر
الگوبرداری در یک مجموعه داده کوچک
104336
تخمین‌های پارامتر احتمال حداکثر برای مدل خطی که در آن $\Pr(Y|X\beta) \sim \mathcal{N}(0,\sigma^2)$ عبارتند از: $$\hat{\beta} = (X' X)^{-1}X'Y$$ چگونه توان آماری تخمین پارامترها را محاسبه می کنید؟ به نظر می رسد که باید یک فرم بسته وجود داشته باشد، اما من جستجو کردم و هیچ جای دیگر آنلاین مدرکی پیدا نکردم.
قدرت تخمین پارامترهای حداکثر احتمال برای یک مدل خطی
59209
این یک سوال در مورد تمرینات 4.2 و 4.3 محاسبه بیزی با R جیم آلبرت است (ص 82). توجه داشته باشید که اگرچه ممکن است این تکلیف باشد، در مورد من اینطور نیست. ما باید ثابت کنیم که با توجه به دو توزیع نرمال مستقل «N(µ1, σ21)»، «N(µ2، σ22)» و «g(µ1, σ21، µ2، σ22)∝1/(σ21σ22)» توزیع خلفی حاصل به گونه ای است که بردارها (µ1، σ21)، (µ2، σ22) مستقل هستند. درک من به شرح زیر است. از آنجایی که توزیع‌ها مستقل هستند، توزیع خلفی مشترک برابر است با توزیع «N(µ1، σ21)» ضربدر «N(µ2، σ22)» ضربدر توزیع قبلی «1/(σ21σ22)». توزیع پسین بدست آمده عبارت است از: $$g(µ_1,σ_1,µ_2,σ_2|y_1,y_2) ∝ \frac{1}{{σ^{2}_{1}}^{(\frac{N_1}{2}+1)}}exp(-\frac{1}{2σ_1^2}(\sum_{ i=1}^{N_1}(y_{1i}-\bar {y_1})^2+n_1(µ_1-\bar{y_1})^2)) * \frac{1}{{σ^{2}_{2}}^{(\frac{N_2}{2}+1)}}exp(-\frac{1}{2σ_2^2}(\sum_{ i=1}^{N_2}(y_{12}-\bar {y_2})^2+n_2(µ_2-\bar{y_2})^2))$$ اکنون دو بردار گفته می شود اگر توزیع مشترک با حاصلضرب توزیع های حاشیه ای برابر باشد، مستقل است. اما من چگالی خلفی را اینگونه طراحی کردم. اما پاسخ بردارهای (µ1، σ21)، (µ2، σ22) مستقل هستند زیرا در غیر این صورت توزیع پسین من اشتباه خواهد بود به نظر من کمی ناقص است. بنابراین ممکن است راه دیگری برای اثبات استقلال بردارها وجود داشته باشد. توزیع حاشیه ای یک متغیر پیوسته را می توان با ادغام روی توزیع مشترک [ویکی پدیا] به دست آورد. این برای حالت دو متغیره توضیح داده شده است. بنابراین توزیع حاشیه ای «(µ1,σ²1)» خواهد بود $$∫_{µ2,σ²2}g(µ_1,σ_1,µ_2,σ_2|y_1,y_2)dµ2σ²22$$، اما من نمی دانم چگونه آن انتگرال را محاسبه کنم. یا اینکه چگونه فرمول حالت دو متغیره را در حالت چند متغیره خود اعمال کنم با این واقعیت که فرمول g من مشروط به y1 و y2 پیچیده است. بنابراین سوال من این است: **آیا ادغام رویکرد صحیحی برای پاسخ به این سوال است؟** من در این مورد تردید دارم، زیرا ادغام به عنوان وسیله ای برای محاسبه توزیع حاشیه ای توسط جیم آلبرت در کتاب معرفی نشده است. در عوض، او خانواده‌ای از پیشینیان وابسته، یعنی پیشینیان هاوارد را توصیف می‌کند. آنها را می توان در مورد تجزیه و تحلیل نسبت ها استفاده کرد، نه در مورد میانگین و واریانس توزیع های نرمال (یا به نظر من). پیشینی هاوارد ممکن است هنوز برای این سوال خاص جالب باشد، زیرا ممکن است بررسی کنیم که چه ویژگی ریاضی قبلی هاوارد باعث وابستگی می شود. هوارد پیشنهاد می‌کند که نسبت‌ها را به logits $$\theta_1 = log \frac{p_1}{1-p_1}،\theta_2 = log \frac{p_2}{1-p_2}$$ تبدیل کنید که چگالی قبلی را در یک جمله ضربی وارد می‌کنند. $$e^{-(1/2)u^2},u=\frac{1}{σ}(\theta_1-\theta_2)$$ بنابراین، آیا می‌توانم این را بگویم به دلیل تفاوت (یا تابعی از آن) از متغیرهای تصادفی وارد معادلات می شود (اول توزیع قبلی، سپس توزیع پسین)، دیگر مستقل نیستند؟ و چگونه به من در پاسخ به سوال اصلی کمک می کند؟ سوالات مرتبط آیا نظریه من در مورد استقلال درست است؟ تفاوت بین توزیع حاشیه ای و شرطی چیست؟ آیا من حق دارم که فرض کنم توزیع حاشیه ای میانگین توزیع شرطی است، یعنی مشروط به همه متغیرهای دیگر؟
چگونه می توان استقلال توزیع های حاشیه ای/شرطی (؟) پسین را اثبات کرد؟
112040
من تعجب می کنم که رایج ترین راه برای رسیدگی به داده ها چیست که در آن یک شرکت کننده به چندین گروه تعلق دارد. برای مثال، اگر می‌خواهید رگرسیون خطی را اجرا کنید و ببینید که نوع رژیم غذایی خاص (IV/پیش‌بینی‌کننده) چگونه بر یک پیامد سلامتی خاص (متغیر DV/پاسخ) تأثیر می‌گذارد و چند شرکت‌کننده دارید که ترکیبی از 2 رژیم غذایی دارند. انواع (مثلاً مدیترانه ای و گیاهخواری) و شما در واقع می خواهید بدانید که نتایج مدیترانه ای با گیاهخواری چقدر متفاوت است، چگونه با این شرکت کنندگان رفتار می کنید؟ من می‌دانم که می‌توانید گروه دیگری درست کنید که یک نوع رژیم غذایی ترکیبی باشد، اما اگر N خیلی کوچک برای آن دارید، نه. هر ورودی قدردانی می شود!
نحوه گروه بندی صحیح داده ها برای تجزیه و تحلیل
74055
من اخیراً نموداری ساخته ام که در آن نوارهای خطا را برای تعداد معینی از آزمایش نشان می دهم. به روشی دیگر، در الگوریتمم تابع هدف را کمینه می‌کنم، بنابراین انتظار دارم که با افزایش نمونه‌برداری، مقدار کمتری از تابع هدف دریافت کنم. همانطور که در نمودار می بینید، مقدار دوم از سمت چپ، «2.5» در محور x، تنها 2.5 درصد از تنظیمات را شامل می شود، بنابراین ما انتظار نداریم که عملکرد آن به اندازه ای باشد که از 100 درصد استفاده می کنیم. تنظیمات من فکر می کنم که این به **عدم تقارن** توزیع ها مربوط می شود. آیا روشی وجود دارد که بتواند این مشکل را برطرف کند - به نام روشی برای محاسبه CI برای توزیع های نامتقارن ناشناخته؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/9LGMw.png) این مثال برای قابل فهم کردن این نمودار مفید است! %%%%%%%%%%%%%%%%%%%%% EDIT %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% نمونه برداری از هر تکرار متفاوت است) z = مقدار تابع هدف n = تعداد تنظیمات j = 1...n مثال: `n=1000`, `i=100` 1. مرحله 1. تمام تنظیمات «1000» را تجزیه و تحلیل کنید و حداقل «z_j» را محاسبه کنید. آن را ذخیره کنید و برای «i» تکرار کنید. سپس mu و sigma آن z_i را محاسبه کنید. گام 2. 50% از پیکربندی اولیه 1000 را تجزیه و تحلیل کنید و حداقل z_j را محاسبه کنید. ذخیره کنید و برای i تکرار کنید. سپس مو و سیگمای آن z_i را محاسبه کنید. 3. مرحله 3. 10% از 1000 اولیه را تجزیه و تحلیل کنید. 4. مرحله 4. 5% از 1000 اولیه را تجزیه و تحلیل کنید. %` از «1000» اولیه، بنابراین «mu_100»، «mu_50»، «mu_10» خواهیم داشت، «mu_5»، «mu_2.5» و «mu_1» و «sigma_100»، «sigma_50»،... اکنون می‌توانم آن نوارهای خطا مانند «mu_100 + - 2 * sigma_100» را ایجاد کنم...
نوارهای خطا برای توزیع های ناشناخته
32584
من یک مجموعه داده شامل 13000 دانش آموز را تجزیه و تحلیل می کنم. دانش آموزان در مدارس/پایه ها دسته بندی می شوند. ICC (ضریب همبستگی درون کلاسی) نشان می دهد که دانش آموزان یک مدرسه همبستگی دارند. بنابراین، من باید این اثر خوشه‌بندی را در نظر بگیرم. یکی از راه‌ها اجرای یک رگرسیون خطی و اجرای برآوردگر واریانس قوی در بالای آن برای محافظت در برابر تخمین‌های مغرضانه است. **آیا می توانیم اثر خوشه بندی را با برآوردگر ساندویچ در نظر بگیریم؟**. من فکر می کنم ما نمی توانیم زیرا ماتریس epsilon^2 هنوز یک ماتریس مورب است. کاری که من فکر می کنم باید انجام دهیم این است که یک مدل GEE با ماتریس varcov قابل تعویض برای دانش آموزان یک مدرسه اجرا کنیم و سپس باید varcov قوی را در بالای مدل GEE اجرا کنیم. به هر حال، **با فرض اینکه برآوردگر ساندویچ به خودی خود می‌تواند اثر خوشه‌بندی مدرسه را توضیح دهد**، من دو مدل GEE مجزا یکی با ماتریس varcov قابل تعویض و دیگری با تخمین‌گر واریانس قوی (همچنین به عنوان Huber-White شناخته می‌شود) نصب کرده‌ام. برآوردگر ساندویچ، یا برآوردگر واریانس تجربی). نکته این است که در هر دو مدل، من واریانس تخمینی یکسانی را برای هر متغیر کمکی دریافت می‌کنم، اما برآوردهای تبادل‌پذیر GEE من به تخمین‌های بتا بسیار بزرگ‌تری منجر می‌شود که از نظر آماری نیز معنادار هستند، در حالی که متغیرهای کمکی بتا مشابه در GEE با برآوردگر varcov قوی معنی‌دار نیستند. تعجب می کنم که چرا این اتفاق می افتد؟ من از SAS 9.3 برای تناسب با مدل خود استفاده می کنم (proc GENMOD): تبادل: موضوع تکراری = SCHIID/نوع = EXCH; برآوردگر تجربی: موضوع تکراری = SCHIID/ covb;
GEE با کوواریانس کاری قابل تعویض در مقابل فرض استقلال و استفاده از خطاهای استاندارد Huber-White؟
32581
تلاش برای محاسبه دستی مقادیر برازش شده از arima در R برای درک مدل. چیزی که می‌بینم این است که اگرچه هنوز محاسبه اولین مقادیر p را در یک مدل AR(p) یا MA(p) یاد نگرفته‌ام، حتی وقتی مقادیر برگردانده‌شده از arima را می‌گیرم، به نظر نمی‌رسد که چند مقدار اولیه برازش شده مطابقت داشته باشند. من چه غلطی می کنم؟ R Code: install.packages(پیش بینی) library(forecast) wineindT<-window(wineind, start=c(1987,1), end=c(1994,8)) write.table(wineindT,clipboard, sep=\t) mod3<-Arima(wineindT,order=c(0,0,1)) mod3$coef write.table(mod3$coef,clipboard,sep=\t) write.table(forecast.Arima(mod3,1)$fitted,clipboard,sep=\t) forecast.Arima(mod3 ,1)$fitted mod3$residuals write.table(mod3$residuals,clipboard,sep=\t) در اینجا یک محاسبه اکسل وجود دارد: با توجه به اول باقیمانده (از arima) محاسبه من برای مقدار سری 2 و 3 خاموش است سپس صحیح است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bHDTo.jpg)
محاسبه مدل MA در R
79723
برای تحلیل مقطعی، $R^2$ نشان دهنده کسری از تغییراتی است که توسط مدل توضیح داده شده است. من می دانم که یک رگرسیون پانل با جلوه های ثابت برای بهینه سازی برای بین $R^2$ طراحی شده است. با این حال، تفسیر آن چیست؟ تفسیر در داخل $R^2$ و کلی $R^2$ چیست (حتی اگر آنها برای بهینه سازی نشده اند، من فرض می کنم که هنوز هم معنایی دارند)؟ با تشکر
تفسیر $R^2$ در رگرسیون پانل اثرات ثابت
91980
اجازه دهید $X_1،\dots،X_n$ به طور یکسان باشد اما لازم نیست مستقل با تابع توزیع $F$ توزیع شود. من می خواهم به طور موثر F $ F $ را تخمین بزنم. اگر $X_1,\dots,X_n$ i.d. باشد، می‌توانیم $F$ را با $\hat F_n(x)=\frac1n\sum_{i=1}^n1_{\\{X_i\le x\\ تخمین بزنیم }}$. $\hat F_n$ برای تخمین $F$ کارآمد است زیرا می‌توانیم به راحتی بررسی کنیم که $var(\hat F_n)$ کوچکترین واریانس در بین همه برآوردگرهای بی طرف است. با این حال، از آنجایی که در مشکلم، i.i.d را ندارم. شرط، پس من باید چه کار کنم؟ هر گونه کمکی قدردانی خواهد شد.
تخمین تابع توزیع برای مشاهدات وابسته
73602
سوال کلی من این است: چرا به جای سایر روش های طبقه بندی از «bayesglm» استفاده می شود؟ توجه: 1. من فقط به پیش بینی علاقه دارم. 2. من حجم مناسبی از داده ها دارم (~ 100000 obs). من احساس می کنم که اندازه نمونه به اندازه کافی بزرگ است که پارامترهای یک رگرسیون لجستیک منظم به طور معمول توزیع می شوند (CLT). با مشخص کردن اولویت‌ها چه چیزی به دست می‌آورم؟ تصور من این است که فقط برای یک مجموعه داده کوچک مهم است، اما من هیچ مدرک نظری یا کاربردی ندارم.
چرا از Bayesglm استفاده کنیم؟
9940
من متغیرهای تصادفی معمولی و مستقل $n$ دارم. در آزمایش من می خواهم به طور متوسط ​​دقیقاً 3 متغیر تصادفی $X_i$ زیر آستانه $c$ بدست بیاورم. برای بدست آوردن آن، می توانم $c$ را با داشتن آن ویژگی به راحتی محاسبه کنم، زیرا میانگین تعداد $X_i$ که زیر آستانه $c$ هستند $n \Phi(c)$ است که $\Phi$ cdf از توزیع نرمال استاندارد بنابراین من $c = \Phi^{-1}(3/n)$ را در این مورد انتخاب می‌کنم. (که یک عدد منفی برای $n$ بزرگ است.) اما متأسفانه من از قبل ارزش دو متغیر تصادفی معمولی استاندارد دیگر $Y$ و $Z$ را می‌دانم که ممکن است به یکدیگر و به هر عدد از X_i$ دیگر بستگی داشته باشند. . بنابراین سوال من این است: اگر من بدانم که $Y$ و $Z$ زیر آستانه $c=\Phi^{-1}(3/n)$ هستند، آیا هنوز درست است که به طور متوسط ​​حداکثر یک عدد ثابت از سایر متغیرهای تصادفی $X_i$ زیر آستانه $c$ هستند؟ بنابراین با دانستن اینکه $Y$ و $Z$ زیر آستانه هستند، نمی‌توانند ناگهان بسیاری از متغیرهای تصادفی دیگر را نیز زیر آستانه قرار دهند. من تقریباً مطمئن هستم که آنها نمی توانند، اما نمی دانم چگونه آن را ثابت کنم. هر گونه راهنمایی استقبال می شود. یا کتاب هایی که فکر می کنید این ممکن است در آنها باشد.
تعداد کمی از متغیرهای تصادفی نمی‌توانند بیش از حد روی دیگران مستقل $n$ تأثیر بگذارند؟
55124
من می دانم که مجموع دو (یا بیشتر) متغیرهای تصادفی توزیع شده عادی **نه** لزوماً نرمال است. من در مورد مورد خاصی که جمع زیر را دارم سؤالاتی دارم: برای c $\in \mathbb R$، c + N(0,a) است، جایی که من یک متغیر تصادفی معمولی با میانگین صفر و واریانس a به c اضافه می کنم. ، آیا مجموع به طور معمول توزیع می شود؟ همچنین، آیا این جمع با ترسیم متغیر تصادفی X نیز از توزیع عادی با میانگین و سپس اضافه کردن آن به N(0,a) مطابقت دارد؟ امیدوارم سوال واضح باشد، با تشکر
مجموع متغیرهای تصادفی توزیع شده نرمال
56478
من با آمار بسیار جدید هستم. من مقدار زیادی از داده های طول عمر (تأخیر در رسیدن از شروع آزمایش) از آزمایش های تکراری دارم. برخی از داده‌ها گم شده‌اند، اما اساساً تاخیری بیشتر از زمان آزمایش را نشان می‌دهند (داده‌های سانسور شده راست). من می خواهم این داده ها را تخمین بزنم. من می‌توانم از زمان آزمایش برای هر داده از دست رفته استفاده کنم، اما می‌دانم که این بیش از اندازه داده خاص مفید نیست. من می‌دانم که استراتژی‌های آماری برای تخمین با استفاده از توزیع مقادیر غیر از دست رفته، این واقعیت وجود دارد که داده‌های از دست رفته سانسور شده است و نوعی معادله حداکثر احتمال برای یافتن پارامترهایی (داده‌های گمشده) که بیشترین احتمال را دارند. با توجه به توزیع، داده های گم نشده را ارائه می دهد. با این حال، این بخش بزرگ‌تری از کار من نیست، و من واقعاً به دنبال استفاده از نوعی ابزار هستم، نه کرانچ دستی بی‌پایان. یا... اگر یک الگوریتم شبه کد بسیار واضح موجود بود، می‌توانم آن را به راحتی به C/C++ پورت کنم، زیرا داده‌های اصلی در برنامه C++ من تولید می‌شوند. داده‌ها بعداً در اکسل بارگذاری می‌شوند و به طور متناوب به همان چیزی در اکسل دست می‌یابند که تقریباً به همان اندازه مفید است، اما نه کاملاً. هر گونه پیشنهادی قدردانی خواهد شد.
تخمین داده های سانسور شده درست
110519
لطفاً به من بگویید مفروضات واقعی آنوای دو طرفه چیست. من در جایی خواندم که این شبیه به رگرسیون چندگانه است، تنها فرض این است که باقیمانده ها باید به طور معمول با واریانس مساوی توزیع شوند. اما سپس یک جستجوی وب این فرض را به دست داد که آنوای دو طرفه، مانند همه آنوواها، فرض می‌کند که مشاهدات درون هر سلول به طور معمول توزیع شده و دارای واریانس‌های مساوی هستند. من گیج شده ام. لطفا کمک کنید
مفروضات آنووا دو طرفه
32585
من سعی می کنم یک مدل انتخاب حالت (4 حالت: hov، ترانزیت، دوچرخه، پیاده روی) ایجاد کنم و در زیر دو رویکردی که استفاده می کنم وجود دارد. من در هر دو مشکل دارم * **رویکرد 1** انتخاب حالت به عنوان تابعی از قیمت (هزینه استفاده از حالت) قیمت: متغیر عمومی trans1: متغیر انتخاب (0،1) مجموعه داده: دستور کار : > mode.choice <- mlogit(trans1 ~ قیمت، کار) خطا: خطا در solve.default(H, g[! fixed]) : روال Lapack dgesv: system دقیقاً مفرد است P.S: برخلاف پست‌های قبلی، من NA در مجموعه داده‌ام ندارم. * **رویکرد 2** انتخاب حالت به عنوان تابعی از قیمت و برخی متغیرهای خاص جایگزین «قیمت»: متغیر عمومی «trans1»: متغیر انتخاب (0،1) «hh1»، «hh2»، «hh3»: خاص جایگزین متغیرها مجموعه داده: `work` فرمان: > mode.choice <- mlogit(trans1 ~ price | hh1 + hh2 + hh3، کار) خطا: خطا در solve.default(H, g[!fixed]) : Lapack روتین dgesv: سیستم دقیقاً منحصر به فرد است من متغیرهای مختلفی را در هر دو رویکرد امتحان کرده ام اما مشکل تکینگی همچنان ادامه دارد.
مسائل تکینگی در مدل چندجمله ای با استفاده از R
20568
> **تکراری احتمالی:** > الگوریتم خوبی برای تخمین میانه یک مجموعه داده عظیم یک بار > چیست؟ تصور کنید یک مجموعه داده بزرگ و چند متغیره دارید که روی دیسک قرار دارد. آیا روش های شناخته شده ای برای محاسبه کارآمد میانه با حداقل تعداد عبور از داده ها وجود دارد؟ من یک نامزد برای واریانس/stddev به نام الگوریتم Welfod/Knutt پیدا کردم، اما در مورد میانه چطور؟ با تشکر
چگونه میانه را به روش آنلاین محاسبه کنیم؟
74057
من می‌خواهم دقت تست‌های نرمال بودن را در اندازه‌های نمونه مختلف در R ارزیابی کنم (می‌دانم که تست‌های نرمال بودن ممکن است گمراه‌کننده باشند). به عنوان مثال، برای نگاه کردن به آزمون Shapiro-Wilk، من شبیه سازی زیر را انجام می دهم (و همچنین نتایج را ترسیم می کنم) و انتظار دارم که با افزایش حجم نمونه، احتمال رد عدد تهی کاهش یابد: n <- 1000 pvalue_mat < - ماتریس (NA، ncol = 1، nrow = n) برای (i در 10:n){ x1 <- rnorm(i، mean = 0, sd = 1) pvalue_mat[i,] <- shapiro.test(x1)$p.value } plot(pvalue_mat) فکر من این است که با افزایش حجم نمونه، نرخ رد کمتری وجود داشته باشد. به نظر یکنواخت است فکر می‌کنم این را اشتباه متوجه شده‌ام - از هر فکری استقبال می‌شود.
ارزیابی قدرت تست نرمال بودن (در R)
35582
برای مشکلم گروهی از p شرکت کنندگان و s موضوع دارم. به من پیشنهاد شد که آزمون کاپا کوهن را بر روی ترکیب دو برای «p» و «s» محاسبه کنم، سپس «میانگین» را محاسبه کرده و با مقدار منحصر به فرد محاسبه‌شده کاپا فلیس برای همان مجموعه مقایسه کنم. سوال من این است که آیا محاسبه میانگین در آزمون کاپا کوهن صحیح است یا نه؟ به طور خاص، من از Kappa2 و کاپا Fleiss با پرچم تنظیم شده روی FALSE از بسته irr R استفاده می کنم. تنظیم پرچم روی false به این معنی است که از یک الگوریتم متغیر کاپا فلیس استفاده می شود تا زمانی که جمعیت p=2 s=2 داشته باشد، می توان آن را به کاپا کوهن کاهش داد.
آیا محاسبه میانگین آزمون کاپا 2 از ترکیبات 2 در برابر مقدار کاپا فلیس از نظر آماری صحیح و ایمن است؟
27005
یکی از کمک های متأخر ر.ع. فیشر فواصل امانت داری و استدلال های اصولی وفادار بود. با این حال، این رویکرد به اندازه استدلال‌های متداول یا اصول بیزی محبوب نیست. استدلال امانی چیست و چرا پذیرفته نشده است؟
دلیل امانی چیست و چرا پذیرفته نشده است؟
102710
تا آنجا که من می دانم باید باشد، زیرا پشتیبانی پواسون مستقل از پارامتر لامبدا آن است. منفی هسین مورد انتظار برابر است با $\frac{n}{\hat{\lambda}}$، که در آن $\hat{\lambda}$ برآوردگر MLE است. بنابراین برابری ماتریس اطلاعات دلالت بر $E((\frac{\delta logL}{\delta \lambda})^2)|_{\lambda=\hat{\lambda}} = \frac{n}{\hat{\ lambda}}.$ اما مهم نیست که چگونه آن را بچرخانم، سمت چپ عبارت دوم همیشه برابر با صفر است. این بدیهی است زیرا برآوردگر MLE اجازه می دهد امتیاز ناپدید شود (طبق تعریف). من چه غلطی می کنم؟
آیا برابری ماتریس اطلاعات برای توزیع پواسون معتبر است؟
59204
من باید از MLE جریمه شده برای کارم در مورد رابطه بین فاصله و پیامدهای آن برای نتایج اقتصادی استفاده کنم. من مقالات نظری زیادی را خوانده ام اما هیچ برنامه/بسته ای برای انجام تحلیل پیدا نکردم. هرگونه کمکی در مورد نحوه استفاده از روش حداکثر احتمال جریمه شده برای رگرسیون های نوع OLS در Stata قدردانی خواهد شد.
آیا کسی می تواند بسته روش حداکثر احتمال جریمه شده را برای رگرسیون های نوع OLS در Stata پیشنهاد دهد؟
32580
در حین اجرای یک شبیه سازی در R، متوجه شدم که در برازش یک مدل خاص، R یک پیام هشدار می دهد، اما اگر به سادگی دسته بندی خط پایه را در متغیر پاسخ تغییر دهم، بدون شکایت همگرا می شود. نتایج تولید شده تفاوت قابل ملاحظه ای ندارند، به جز اینکه یک مقدار در ماتریس همبستگی اثر تصادفی تغییر می کند. من کنجکاو هستم که چرا این اتفاق می‌افتد، و آیا چیزی جالب در مورد مجموعه داده نشان می‌دهد (متغیر پاسخ دارای ارزش دودویی و متغیرهای توضیحی دارای ارزش پیوسته هستند). > library(lme4) > fit1.MS.eE <- glmer(label ~ zSpec * zF1 + zF2 + (1 + zSpec + zF1 + zF2 | part), data = MSall.eE, family = binomial()) پیام هشدار: در mer_finalize(ans): همگرایی مفرد (7) > MSall.eE$label <- relevel(MSall.eE$label، e) > fit1.MS.eE <- glmer(label ~ zSpec * zF1 + zF2 + (1 + zSpec + zF1 + zF2 | بخش)، داده = MSall.eE، خانواده = binomial()) >(بدون پیام هشدار) من مجموعه داده های اشاره شده در کد را برای افراد علاقه مند آپلود کرده ام.
همگرایی نسبت به انتخاب دسته پایه حساس است؟
73601
آیا می توانم p.d.f آمار سفارش (مثلاً دقیقه) را از مجموعه ای از متغیرهای تصادفی مستقل، اما بدون توزیع یکسان پیدا کنم؟ (p.d.f. تحلیلی سایر متغیرها در دسترس است)
آمار ترتیب متغیرهای تصادفی مستقل که به طور یکسان توزیع نشده اند
74054
من داده های زیر را برای 8 دونده در یک دوی 100 متر دارم: دونده 1 88 91 87 82 دونده 2 81 85 78 91 دونده 3 75 77 83 81 دونده 4 92 89 84 82 دونده 5 78 58 79 دونده 83 دونده 7 91 89 92 91 دونده 8 87 86 88 91 رتبه‌بندی‌ها یک رتبه‌بندی عملکرد را نشان می‌دهند و معمولاً با میانگین ناشناخته و واریانس ناشناخته توزیع می‌شوند. هر دونده را می توان به عنوان یک زیر گروه با میانگین و واریانس در نظر گرفت. هر گونه راهنمایی بسیار قدردانی خواهد شد
سلسله مراتبی بیز عادی-عادی مدل
86623
من در حال انجام برخی تحقیقات مربوط به استفاده از داده های بیمار و کیفیت مراقبت هستم. من یک نمودار رگرسیون خطی بین اندازه قبض تلفن و جمعیت مشتری ایجاد می کنم. فرض کنید که فاصله این نمودار یک مقدار مثبت است، اما فاصله اطمینان 95٪ برای قطع (50-، +50) بود. * از آنجایی که قبض تلفن هرگز نمی تواند یک مقدار منفی باشد، چگونه حد پایین CI من 50- است؟ * آیا این نشان دهنده یک خطا در محاسبات من است؟ (من در این مورد تردید دارم، زیرا من یک مطالعه قدیمی انجام شده توسط متخصصان را دوباره ایجاد کرده ام.) * یا این رفتار قابل انتظار است؟
چرا حد پایین بازه اطمینان 95% پایین من منفی است؟
32586
فرض کنید مجموعه ای از مقاومت های R دارید که همه آنها با میانگین μ و واریانس σ توزیع شده اند. بخشی از مدار را با طرح زیر در نظر بگیرید: (r) || (r+r) || (r+r+r). مقاومت معادل هر قطعه r، 2r، و 3r است. سپس واریانس هر بخش $σ^2$، $2σ^2$، $3σ^2$ خواهد بود. واریانس مقاومت کل مدار چقدر است؟ پس از نمونه برداری از چندین میلیون نقطه، متوجه شدیم که واریانس تقریباً $.10286\sigma^2 $ است. چگونه از نظر تحلیلی به این نتیجه می رسیم؟ ویرایش: مقادیر مقاومت به طور معمول با مقداری مقاومت متوسط ​​r و واریانس $σ^2$ در نظر گرفته شده است.
واریانس مقاومت ها به صورت موازی
74053
من دو مدل مختلف را بر روی یک داده قرار می دهم. در یک مدل، یک پارامتر آزاد برای سه شرایط آزمایشی مختلف وجود دارد. در یک مدل دیگر، من سه پارامتر آزاد را قرار دادم، یکی برای هر شرط. من این کار را برای 10 موضوع در یک مجموعه داده انجام می دهم. برای هر موضوع، مدل با پارامترهای آزاد کمتر، BIC بالاتری دارد. اما برای هر موضوع واحد، تفاوت در BIC تقریباً یکسان است (حدود 10). به نظر من این بسیار مشکوک است، زیرا مقادیر BIC خود از 30 تا 1000 متغیر است. من قبلا هرگز از BIC استفاده نکرده بودم و می خواهم بگویم که مدل با یک پارامتر آزاد بهتر است.
نحوه تفسیر BIC
62123
من می‌دانم که تابع فعال‌سازی (لجستیک) خطی در حدود 0 است. آیا این بدان معناست که یک شبکه عصبی باید بتواند یک GLM را با توجه به بایاس و وزن‌های مناسب تقریبی کند؟ من در حال حاضر در R با یک مدل ساده `y~x1` بازی می کنم. GLM خارج از نمونه عملکرد خوبی دارد، اما nnet با 1 متغیر پنهان عملکرد ضعیفی دارد. چه چیزی را از دست داده ام؟
آیا یک شبکه عصبی (MLP) می تواند GLM را تقریبی کند؟
9942
در حالت تک بعدی، اگر $X$$\mathcal{N}(\mu,\sigma^2)$ باشد، آنگاه $Y =\alpha X + \beta $$\mathcal{N}(\alpha) است \mu + \بتا،\alpha^2\sigma^2)$. ما می توانیم این را با استفاده از تابع توزیع تجمعی $Y$ $F_Y(a) = P\\{Y \leq a\\} = P\\{\alpha X + \beta \leq a\\} = P ثابت کنیم. \\{X \leq (a-\beta)/\alpha\\}$. با جایگزینی $Y =\alpha X + \beta $ و تغییر متغیر، $F_Y(a) = \int_{-\infty}^{a} \frac{1}{\sqrt{2\pi}(\ alpha\sigma)} \exp \\{ \frac{-(v-(\alpha \mu + \beta))^2}{2(\alpha\sigma)^2}\\} dv $ از این رو $f_Y(v) = \frac{1}{\sqrt{2\pi}(\alpha\sigma)} \exp \\{ \frac{-(v-(\alpha \mu + \beta)) ^2}{2(\alpha\sigma)^2}\\} $ بنابراین $Y$ $\mathcal{N}(\alpha \mu + \beta, \alpha^2 \sigma^2)$ است. در حالت چند متغیره، اگر $X$ $\mathcal{N}(\mu,\Sigma)$ و $Y=\alpha X + \beta$ باشد، $Y \sim \mathcal{N}(\alpha \ mu + \بتا،\alpha^2\Sigma)$؟ اگر چنین است، چگونه آن را ثابت کنیم؟
آیا $Y=\alpha X + \beta$ برای چگالی گاوسی چند متغیره صادق است؟
56470
من خیلی تازه وارد R هستم. لطفاً به من کمک کنید تا از این سؤال ساده خلاص شوم. با تشکر در حال حاضر، من دو داده در مورد وزن افراد دارم. یکی از بیماران عادی و دیگری مربوط به بیمارانی است که بیماری خاصی دارند. فرض کنید: وزن_عادی <- c(170، 140، 122، 143، 156، 122، 189، 200، 201، 133، 155، .....) وزن_بیماری <- c(220، 145، 167،190 ، 130، 169، 100، 230، 210، 222، .....) حالا می توانم صدک را از 0.01 تا 0.99 وزن_نرمال محاسبه کنم. با این حال، چگونه باید از این نتایج صدک از بیمار عادی برای نقشه برداری به بیماران مبتلا به بیماری استفاده کنم؟ به عبارت دیگر، من می خواهم صدک این بیماران مبتلا به بیماری را بر اساس صدک بیماران عادی محاسبه کنم. لطفا اگر سوال من به اندازه کافی واضح نیست به من اطلاع دهید. قدر زمان و کمک خود را بدانید.
محاسبه صدک بر اساس جدول صدک شناخته شده
107911
من سعی می کنم رگرسیون لجستیک ترتیبی منظم شده را با «glmnet.cr()» روی 28 پیش بینی کننده، ترکیبی از پیوسته و مقوله ای اجرا کنم. در اینجا خطوط مربوطه کد آمده است: require(glmnetcr) attach(data) newyfac<-as.factor(newyfac) dim(data) y<-data$newyfac x<-data[,2:dim(data)[2] ] mGLMNETCR1<-glmnet.cr(x,y) «glm()» و «polr()» به خوبی اجرا می شوند (با یک فرمول، نه `(x,y)`) اما وقتی خط آخر را امتحان می کنم این پیغام خطا را دریافت می کنم: خطا در lognet(x, is.sparse, ix, jx, y, weights, offset, alpha , nobs, : NA/NaN/Inf در فراخوانی تابع خارجی (arg 5) علاوه بر این: پیام هشدار: در lognet(x, is.sparse, ix, jx, y، وزن‌ها، آفست، آلفا، نوب‌ها، NAهای معرفی‌شده با اجبار برای مرجع، با استفاده از «هد(داده)»، داده‌ها به این صورت است: newyfac VMONTH VDAYR AGE MINOR ARRTIME RESIDNCE SEX ETHUN RACEUN ARREMS PAYTYPER TEMPFYS PULSE. BPDIAS POPCT ONO2 GCS PAINSCALE SEEN72 DISCH7DA PASTVIS RFV1 RFV2 RFV3 EPISODE HOSPCODE 1 4 اکتبر دوشنبه 24 نادرست 0.432638889 محل سکونت خصوصی زن خالی خالی بدون Medicaid 99.0 64 18 999، شماره 99.0 64 18 999، درد درد، درد، دی... خالی خالی بازدید اولیه 1 2 3 اکتبر پنج شنبه 15 نادرست 0.854166667 اقامتگاه خصوصی زن خالی خالی خالی همه منابع پرداخت خالی هستند 100.0 120 28 138 93 92 No Blankasp 0 ) خالی خالی بازدید اولیه 1 3 3 اکتبر پنج شنبه 39 نادرست 0.486805556 اقامتگاه خصوصی زن خالی خالی بله مدیکر 97.0 98 14 138 88 93 بله خالی 8 نه خیر 0 ضعف عمومی کمردرد، درد، درد، دردناک، صدای ناخوشایند EC ، newyfac، ترتیبی با پنج سطح 1:5 است.
glmnetcr - خطا در R - رگرسیون لجستیک نسبت ادامه منظم
9948
من باید با استفاده از پنجره های متحرک، واریوگرام های متقاطع تصاویر را ایجاد کنم. برای آن من از معادله زیر استفاده می کنم: $$ \gamma_{jk}(h)=\frac{1}{2n(h)}\sum_{i=1}^{n(h)}\Big\\{\big[dn_j(x_i)-dn_j(x_i +h)\big]\cdot\big[dn_k(x_i)-dn_k(x_i+h)\big]\Big\\} $$ اولین part مخفف یک باند (j) و قسمت بعدی باند k است. برای نشان دادن با ماتریس‌های نمونه، j = 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 k = 17 18 19 20 21 22 23 24 25 26 27 28 9 10 11 12 13 14 15 16 k = 17 18 19 20 21 22 23 24 25 26 2 2 23 24 25 26 27 20 20 I am 2 actual 213 7 پنجره هایی برای تصاویر ماهواره ای بزرگ همچنین مجبور شدم برای این کار از تصاویر واریوگرام تولید کنم. برای تولید واریوگرام ها باید فقط یک باند داده را در نظر می گرفتم. برای آن مورد من از «nlfilter» برای حرکت پنجره استفاده کردم و یک تابع برای انتخاب و محاسبه مقادیر ایجاد کردم. اما برای واریوگرام های متقاطع، من نمی توانم تصمیم بگیرم که از چه عملکردی استفاده کنم. برای این مورد، محاسبات به این صورت خواهد بود: > (1 - 2) (17 - 18) + (2 - 3) (18 - 19) و غیره.
واریوگرام متقاطع با یک پنجره متحرک
32052
من سعی می کنم نقاط بین آمار و جبر خطی / بهینه سازی را به هم وصل کنم. همانطور که می دانید مسائل حداقل مربعات جبر خطی و مسائل بهینه سازی هستند. اما آنها همچنین می توانند به آمار متصل شوند. سؤالات من این است: فرض کنید می‌خواهیم $b$هایی را پیدا کنیم که مجموع مربع‌های $(y- Xb)$ را به حداقل می‌رسانند. این یک مشکل حداقل مربعات است. با این حال، ما همچنین می خواهیم اهمیت چنین $b$هایی را بدانیم. اینجاست که باید مسئله حداقل مربعات را به آمار وصل کنیم. سوال من این است: تحت چه شرایطی می توانیم این کار را انجام دهیم؟ ما می دانستیم که قضیه گاوس-مارکف ممکن است در اینجا نقش داشته باشد. اما قضیه گاوس- مارکوف چند شرط دارد. به طور خاص، اگر ما فقط به اهمیت $b$ اهمیت می دهیم، چه شرایط ضروری را باید رعایت کنیم تا آمار t$-stats منطقی باشد؟ برای واضح تر بودن، ما به آبی نیازی نداریم، فقط باید بتوانیم $t$-stats را اندازه گیری کنیم...
چه زمانی می توانیم یک لمس آماری به مسائل بهینه سازی حداقل مربعات اضافه کنیم؟
57783
تفاوت بین رابطه و تفاوت در زمینه آمار چیست - اگر یک متغیر اسمی و یک متغیر فاصله دارید، چه زمانی باید از یک همبستگی برای اندازه‌گیری رابطه استفاده کنید، نه از آزمون t یا ANOVA؟ من دنبال این معمولی نیستم که «سوال شما در مورد چیست - روابط یا تفاوت‌ها» (اگرچه آشکارا از اهمیت آن قدردانی می‌کنم)، بلکه به دنبال این نیستم که برای تصمیم‌گیری در مورد داده‌ها یا ساختارهایی که باید بدانم چیست. اگر به عنوان مثال زن و مرد دارید و نمرات هوش آنها. آیا دلیلی آماری/مفهومی وجود دارد که چرا آزمون t در اینجا بهتر از همبستگی نقطه-دوسری است؟ این احتمالاً یک سؤال واضح است. با این حال، صادقانه بگویم، من احساس نمی‌کنم که هرگز واقعاً این تمایز را درک نکرده‌ام، بنابراین شاید برخی از شما بتوانید آن را برای من بیان کنید؟
تفاوت بین روابط و تفاوت (به ویژه در زمینه تفاوت های گروهی در یک ویژگی عددی) چیست؟
32057
آیا اهمیت متغیر randomForest در بین متغیرهای مشابه در تاریخ های مختلف قابل مقایسه است؟ من یک آرایه داده X دارم که اندازه آن $T\times N\ بار K$ است، که در آن $T=1500$، $N=1500$ و $K=10$ است. از نظر فیزیکی، اولین شاخص $1,2,\ldots,T$ بیانگر روز است، در حالی که دومین شاخص $1,2,\ldots,N$ نشان دهنده مکان ها و شاخص سوم $1,2,\ldots,K$ نشان دهنده K $ است. $ ویژگی ها/متغیرهای اندازه گیری شده در هر مکان در هر روز. متغیر وابسته یک آرایه دیگر $Y$ است که اندازه آن $T\ برابر N$ است. اکنون «randomForest» را در هر تاریخ اجرا می‌کنم: library(randomForest) importantValues=matrix(0, T, 10) for (i در 1:T) { y=Y[i, ] x1=X[i, ,1] x2 =X[i،،2] x3=X[i،، 3] x4=X[i،، 4] x5=X[i،، 5] x6=X[i, ,6] x7=X[i, ,7] x8=X[i, ,8] x9=X[i, ,9] x10=X[i, ,10] rf=randomForest(y ~x1+x2+x3+x4+x5+x6+x7+x8+x9+x10، اهمیت=T، na.action=na.omit) importantValues[i, ]=rf$importance[, 2] } همانطور که می بینید، من می توانم مقادیر اهمیت متغیر را در بین تاریخ ها به دست بیاورم: به عنوان مثال، در آخرین تاریخ بالا، داریم: > rf$importance %IncMSE IncNodePurity x1 311.0803 1113618.9 x2 4627.7532 3415010.7 x3 8527.4607 4916842.7 x4 3507.1872 2919601.3 x5 2982.0577 2907352.5 x6 5673.6522 5247811.5 x7 3823.718 x7 3823.647 135.2311 248212.5 x9 1759.8080 2334093.9 x10 852.3294 1562279.1 سؤالات من این است: 1. کدام یک مفیدتر است؟ (IncMSE یا IncNodePurity؟) 2. چگونه می توانم به یک غیر داده امین توضیح دهم که IncNodePurity چیست؟ 3. واحد ستون IncNodePurity چیست؟ و آیا می توانم این اعداد را در تاریخ مقایسه کنم؟ 4. یک تاریخ، به عنوان مثال. 18/9/2008، اکثر اعداد IncNodePurity بسیار بزرگتر از اعداد تاریخ دیگری هستند، به عنوان مثال. 6/1/2012. در مورد مجموعه داده ها در این دو تاریخ مختلف چه می توانم بگویم؟ (آنها مشاهدات متفاوتی برای متغیرهای مشابه در تاریخ های مختلف هستند) متشکرم!
آیا مقادیر اهمیت متغیر تصادفی Forest در بین متغیرهای مشابه در تاریخ های مختلف قابل مقایسه هستند؟
32582
من در ابتدا این سوال را ارسال کردم و از آن زمان به بعد من یک سوال شاخه ای خاص تر را پست کردم. من توصیه هایی را که در پاسخ به سؤالاتم دریافت کردم، دنبال کردم و تجزیه و تحلیل های آماری انجام دادم. اکنون برای تجزیه و تحلیل نتایج و تعیین حرکت بعدی خود به کمک نیاز دارم. در اینجا توضیح اصلی من از این وضعیت است: > داده های من فهرستی از سوابق است که هر یک نشان دهنده یک سمینار آموزشی > رویداد است. من یک متغیر پیوسته دارم که نشان دهنده درآمد حاصل از هر سمینار است که متغیر پاسخ در رگرسیون من است. من همچنین تعدادی متغیر طبقه بندی دارم که به عنوان فاکتور/IV عمل می کنند. برای اضافه کردن جزئیات بیشتر، این عوامل شامل مواردی مانند روز هفته ای که سمینار برگزار شد، موضوع، سخنران و غیره است. هدف اصلی من ساختن مدلی است که الف) بتواند به توضیح اینکه چه عواملی بیشتر بر درآمد و _چگونه_ تاثیر می گذارد کمک کند. و ب) مقداری قدرت پیش بینی دارد. من یک رگرسیون چندگانه در R انجام دادم، اما با تاسف من، مقدار R^2$ تنظیم شده فقط 0.2188 بود. من می دانم که این به این معنی نیست که عوامل اصلاً قدرت پیش بینی ندارند، اما من از اتخاذ تصمیمات استراتژیک مهم بر اساس چنین مدلی که مناسب نیست محتاط هستم - آیا درست است که چنین احساسی داشته باشم؟ من همچنین یک آزمایش ANOVA را انجام دادم و به نظر می‌رسید که برخی عوامل مهم‌تر از سایرین برچسب‌گذاری شده‌اند. سؤالات من این است: 1. با توجه به تناسب ضعیف مدلم چگونه باید اقدام کنم؟ آیا ممکن است داده ها به سادگی مفید نباشند و یا شانس تصادفی یا عواملی که من در نظر نگرفته ام در اینجا نقش دارند؟ 2. اگرچه ANOVA به من می‌گوید کدام عوامل مهم به نظر می‌رسند، اما هیچ ایده‌ای از **چگونگی** اهمیت آنها به من نمی‌دهد. چگونه می توانم تعیین کنم که هر عامل مهم از نقطه نظر عملی چه تأثیری دارد؟ 3. آیا آزمون دیگری وجود دارد که به من کمک کند تا بفهمم همه این متغیرها چگونه به هم مرتبط هستند؟ به خاطر داشته باشید که من تازه وارد R هستم و در روش های آماری زنگ زده هستم (چند سال پیش یک دوره مقدماتی را گذراندم).
تفسیر یک مدل ضعیف از آنجا
14838
آیا کسی می تواند به من به زبان انگلیسی ساده توضیح دهد که چرا میانگین و میانه نقش مهمی در داده کاوی دارند. در واقع یافتن میانگین و میانه چه فایده ای دارد؟ و بسیاری از مردم می گویند که میانگین در مواقعی بهتر از متوسط ​​است، چرا چنین است؟ و من در داده کاوی مبتدی هستم، بنابراین اگر پاسخ به زبان ساده باشد، واقعا خوب خواهد بود. پیشاپیش ممنون
میانگین و میانه چگونه در داده کاوی نقش مهمی دارند؟
107912
من مطمئن بودم که اینها یکسان هستند، اما با خواندن تابع احتمال جرم تفاوتی را دریافت نمی کنم > فرض کنید $X: S → A (A \subseteq R)$ یک متغیر تصادفی گسسته است > در فضای نمونه S تعریف شده است. سپس تابع جرم احتمال $f_X: A → > [0, 1]$ برای X به صورت > > $f_X(x) = \Pr(X = x) = تعریف می شود. \Pr(\\{s \in S: X(s) = x\\})$$ > > فکر کردن به احتمال به عنوان جرم به جلوگیری از اشتباه کمک می کند زیرا جرم > فیزیکی به عنوان احتمال کل برای همه نتایج فرضی حفظ می شود. > ''x'': $\sum_{x\in A} f_X(x) = 1$ خوب، من فقط این را نمی‌فهمم > فضای نمونه آزمایش مجموعه‌ای از تمام نتایج ممکن است از > مجموعه نمونه آزمایشی، مجموعه نمونه‌ها همان مجموعه نتایج است، بنابراین می‌توانیم آن را مجموعه نتیجه نیز بنامیم. من متوجه نمی شوم که چرا باید آن را با دو حرف مختلف A و S در بالا نشان داد، اگر اینها چیزهای یکسانی هستند و چرا تابع نمونه ها را به نتایج نگاشت می کند اگر یک چیز است؟ آیا نتیجه مقدار نمونه است؟ پس ارزش نمونه چقدر است؟ توابع مقادیر را به مقادیر نگاشت می کنند. من به یک مقدار (نمونه) نیاز دارم تا تابع (متغیر تصادفی با نام مستعار) بتواند مقدار نتیجه را تولید کند. * * * **ویرایش1** می خواهم از کسی که شروع به تشریح سوال من کرد تشکر کنم. با این حال پاسخ داده نمی شود. من نمی توانم آن را بپذیرم مگر اینکه موارد زیر حل شود. من متوجه نشدم که چگونه رویدادها/مشاهدات با نمونه ها/نتایج متفاوت است. همچنین، می‌بینم که شما نمونه‌ها را با _هر نوع_ شناسایی می‌کنید، در حالی که نتایج، مقادیر هستند (شما می‌خواستید به جای آن نوع _num_ بگویید، زیرا _هر نوع_ نیز مقادیر و متغیرهایی دارد). ما، برنامه نویسان، توابع را بر اساس آرگومان ها/متغیرها می نویسیم. برای خوانایی و قابلیت اطمینان، هر متغیر را به نوعی محدود می کنیم. مقادیر / آرگومان ها مکان هایی هستند که مقادیر مشخصی را در حین تحقق در زمان اجرا می گیرند. انواع به سادگی دامنه متغیرها را محدود می کنند (انواع دامنه ها / مجموعه مقادیر موجود برای آن متغیر / آرگومان هستند). من فکر می‌کنم که در ریاضیات کاملاً یکسان است، وقتی تابعی مانند $f را تعریف می‌کنید، فقط نام متغیر را نادیده می‌گیرید: Int \rightarrow Real$. بنابراین، منظور شما از هر چیزی مقدار هر نوع، نه لزوما عددی است. با این حال، مشخص نیست که هدف از معرفی دامنه S (معروف به جداسازی نمونه ها و نتایج) چیست. سر/دم را می گیرید و به عدد تبدیل می کنید. چرا فوراً از اعداد واقعی نمونه برداری نکنیم (S را با A شناسایی کنیم، چرا heads/tails، چگونه معرفی S درک ما از تابع احتمال جرم را بهبود می بخشد) یا چرا زنجیره تبدیل را طولانی تر نکنیم، به عنوان مثال، $S_{interm}$ را معرفی کنیم. به طوری که می توانید نمونه برداری کنید و از یک سری متغیرهای تصادفی برای تبدیل نمونه به A استفاده کنید، به عنوان مثال. $S \xrightarrow {randomvar_1} S_{interm} \xrightarrow {randomvar_2} A$? چرا نگوییم که فوراً 3 سکه و 1 سکه و نمونه A={1,10} دارم؟ چرا در عوض با سر/دم بازی کنید؟ همچنین مشخص نیست که چرا متغیرهای تصادفی در مرحله S -> A به جای نمونه گیری برای بدست آوردن مقادیر S ظاهر می شوند؟ آیا به این معنی است که تولید سر/دم قطعی است در حالی که نگاشت آنها به دامنه واقعی، {1،10}، تصادفی است؟ بازگشت به نمونه=نتیجه. من می بینم که ویکی پدیا به طور مشابه می گوید > یک متغیر تصادفی یک تابع با ارزش واقعی است که بر روی مجموعه ای از نتایج ممکن تعریف شده است، فضای نمونه Ω. بنابراین، اگر نتایج به جای دامنه متغیرهای تصادفی، دامنه باشند، چگونه می‌شود که متغیر تصادفی نمونه‌ها را به نتایج نگاشت؟ من فکر می کنم که این همه سردرگمی شایسته توضیح است.
تفاوت بین نمونه و نتیجه چیست؟ (به علاوه رویدادها و مشاهدات)
25712
من در حال ساخت یک مدل طبقه بندی (نتیجه دودویی) هستم و می خواهم یک کد عضویت در خوشه خارجی را به عنوان یک پیش بینی اضافه کنم. برای آموزش مدل، این کار مستقیم است. هنگام امتیاز داده های جدید با مدل، کمتر است. * اگر خوشه‌بندی k-means بود و از فاصله اقلیدسی استفاده می‌کرد، تخصیص داده‌های جدید به نزدیک‌ترین خوشه آن (مرکز) آسان خواهد بود. * **اما، وقتی از ماتریس فاصله به عنوان ورودی الگوریتم خوشه‌بندی استفاده می‌کنید، چگونه این کار را انجام می‌دهید؟** توجه: هنگامی که مدل طبقه‌بندی ساخته شد، برچسب‌گذاری و معنای خوشه‌ها باید ثابت بماند. سوال کلی است، اما شاید سخت‌تر از این باشد که من به خوشه‌بندی داده‌های سری زمانی نگاه می‌کنم (با استفاده از بسته «dtw» با «hclust») - بنابراین به نظر می‌رسد یک راه‌حل ممکن برای سؤال عمومی (یعنی استفاده از یک پیش‌بینی‌کننده) باشد. مدل برای نگاشت داده های جدید به انتساب های خوشه ای موجود) امکان پذیر نیست. تجربه ای در این مورد دارید؟
تخصیص مشاهدات جدید به خوشه های موجود ساخته شده از ماتریس فاصله
61264
من روی یک مشکل طبقه بندی کار می کنم و پایه F1 بسیار بالایی دارم 85%. من سه مدل طبقه بندی را آموزش داده ام و می خواهم بدانم کدام یک بهترین است. چگونه می توانم این کار را انجام دهم؟ من دو راه را امتحان کردم: 1. برای مقایسه هر مدل با خط پایه با استفاده از آزمون t زوجی. بنابراین من تست هایی مانند: * خط پایه در مقابل مدل 1 * خط مبنا در مقابل مدل 2 * خط مبنا در مقابل مدل 3 دارم که به من می گوید که فقط مدل 1 به طور قابل توجهی بالاتر از خط پایه است و بنابراین به این نتیجه رسیدم که مدل 1 بهترین است. آیا با توجه به اینکه معمولاً مدل‌های طبقه‌بندی با خطوط پایه مقایسه می‌شوند، این یک روش معتبر است؟ 2. برای مقایسه همه مدل ها به صورت یکباره با ANOVA یک طرفه. بنابراین من اطلاعات مدل های 1-3 و خط مبنا را وارد کردم که به من مقدار p 0.02 نشان داد که تفاوت در میانگین ها وجود دارد. با این حال، با تست‌های تعقیبی دوتایی، هیچ‌یک از جفت‌ها معنی‌دار نیست. **کدام روش صحیح است؟**
آزمون های تی چندگانه در مقابل ANOVA یک طرفه
78923
می خواستم بدانم که آیا استقلال صورت و مخرج در آماره ANOVA F به استقلال مشاهدات مربوط می شود و چگونه؟
استقلال صورت و مخرج متصل به استقلال obs؟
32056
فرض کنید $ \textbf{Y} = (Y_1، \dots، Y_n)'$ مستقل هستند و $$\eqalign{Y_i = 0 & \text{با احتمال} \ p_i+(1-p_i)e^{-\lambda_i} \\\ Y_i = k & \text{با احتمال} \ (1-p_i)e^{-\lambda_i} \lambda_{i}^{k}/k! }$$ همچنین فرض کنید که پارامترهای $\mathbf{\lambda} = (\lambda_1, \dots, \lambda_n)'$ و $\textbf{p} = (p_1, \dots, p_n)$ $$\equalign{ \log(\mathbf{\lambda}) &= \textbf{B} \بتا \\\ \text{logit}(\textbf{p}) &= \log(\textbf{p}/(1-\textbf{p})) = \textbf{G} \mathbf{\lambda}. }$$ اگر همان متغیرهای کمکی روی $\mathbf{\lambda}$ و $\textbf{p}$ تأثیر می‌گذارند، به طوری که $\textbf{B} = \textbf{G}$، پس چرا رگرسیون پواسون متورم صفر دو برابر نیاز دارد. بسیاری از پارامترها به عنوان رگرسیون پواسون؟
رگرسیون پواسون با تورم صفر
57780
من در حال پسرفت روی متغیری هستم که نسبت آن با متغیر دیگری به خودی خود معنادار است. هر دو نیز کاملاً منحرف هستند، بنابراین من می‌خواهم نسبت را ثبت کنم تا $Y = \beta_0+\beta_1 X_1 ...+\beta\log(\frac{X}{Y})$ داشته باشم. خوب است که یک ضریب معنی دار داشته باشیم، اما مگر اینکه اشتباه کنم، به نظر نمی رسد راهی برای انجام این کار وجود داشته باشد. من بیشتر نگران این هستم که آیا می توانم از این به عنوان یک متغیر کنترل استفاده کنم. حتی اگر به طور خطی به متغیر وابسته وابسته نیست و دارای مؤلفه دیگری است که باید تخمین زده شود، آیا این باعث ایجاد مشکل در رگرسیون می شود؟
استفاده از متغیر وابسته به عنوان بخشی از متغیر کنترل؟
107917
من در حال انجام تحقیقات زیادی در مورد اینکه کدام آزمون را باید بر روی داده های مقیاس لیکرت خود استفاده کنم، انجام داده ام و بیشتر گیج می شوم زیرا افراد زیادی چیزهای مختلفی می گویند. من در حال حاضر در حال انجام پایان نامه خود هستم در مورد اینکه موسیقی تا چه حد بر پرخاشگری در حین انجام بازی های ویدیویی خشن و بدون خشونت تأثیر می گذارد؟ من از سه روش مختلف برای جمع‌آوری داده‌ها از 30 شرکت‌کننده استفاده کرده‌ام: 1. مقیاس پرخاشگری قبل و بعد از بازی‌های ویدیویی خشونت‌آمیز و غیرخشونت‌آمیز برای اندازه‌گیری تغییرات پرخاشگری در حین گوش دادن به ژانرهای مختلف موسیقی. 2. وظایف تکمیل داستان. که به شرکت‌کننده سناریو می‌دهد و ده پاسخ می‌خواهد، یعنی عصبانی می‌شوم، راننده را می‌زنم و غیره بعد از بازی خشن و خشن. بازی های ویدیویی بدون خشونت 3. پرسشنامه ای برای مشاهده نظرات مردم در مورد خشونت در بازی های ویدیویی با استفاده از مقیاس لیکرت (مقیاس 5 امتیازی کاملاً موافقم - کاملاً مخالفم) و همچنین سؤالات پایان باز در مورد ترجیحات موسیقی و غیره. قبلاً تکمیل کرده ام. تجزیه و تحلیل من برای مقیاس های پرخاشگری (1) اما من کاملاً درگیر این هستم که هنگام تلاش برای جمع آوری داده ها از مقیاس لیکرت خود، کدام آزمون را انتخاب کنم. پرسش‌ها از این قرار بود: * بازی‌های ویدیویی بیش از حد خشونت‌آمیز می‌شوند * خشونت در بازی‌های ویدیویی، افراد را تحت تأثیر قرار می‌دهد تا پرخاشگرتر شوند * بازی‌های ویدیویی غیر اجتماعی هستند * بازی‌های ویدیویی رفتار پرخاشگرانه افراد را آموزش می‌دهند و تشویق می‌کنند. * بازی‌های ویدیویی افراد را تشویق می‌کنند تا در موقعیت‌های زندگی واقعی پرخاشگرتر باشند و سپس در مقیاس کاملاً موافقم، موافقم، نه موافقم و نه مخالف، مخالف و کاملاً مخالف برای همه اظهارات (13 همه با هم). می‌خواهم بدانم که آیا مردم معتقدند بازی‌ها باعث خشونت در زندگی واقعی می‌شوند یا فکر می‌کنند بازی‌ها خیلی خشن هستند. پیشاپیش ممنون :)
کدام آزمون را برای انجام داده های مقیاس لیکرت انتخاب کنم؟
55872
من یک موضوع جدید را شروع می کنم تا یک سوال خاص بپرسم که پس از خواندن این موضوع قدیمی و خوب برای من باقی مانده است: آیا همه اصطلاحات تعاملات به اصطلاحات جداگانه خود در مدل رگرسیونی نیاز دارند؟ اصل مسئله این است: شخص با یک مدل پیچیده با انگیزه نظریه شروع می کند. کسی می‌خواهد آن را ساده‌سازی کند - عملاً چند خطی بودن را کاهش دهد و به‌طور استنتاجی بتواند استنتاج بهتری بر روی شرایط مدل انجام دهد. توصیه استاندارد -- که به خوبی در رشته پیوندی بیان شده است -- این است که به طور کلی حذف اثرات اصلی اثرات متقابل ایده بدی است، حتی زمانی که AIC بهبود یابد. این به این دلیل است که مدل حاصل دیگر نسبت به تغییر مکان در متغیرها ثابت نیست. روی _موقعیت_ تاکید می کنم. اما اکنون بگویید که در حال برازش مدلی هستید که در آن همه متغیرهای سمت راست دارای معانی واقعی در دنیای فیزیکی هستند. برای مثال، pH یک ماده یا دما را بر حسب کلوین در نظر می گیریم. این چیزها را نمی توان بدون تغییر معنایشان به صورت مکانی جابجا کرد. آنها را می توان به صورت ضربی در سیستم های مختلف (به عنوان مثال: اینچ تا سانتی متر) مقیاس کرد - اما مقیاس بندی ضربی نباید بر استنتاج به روش هایی که در رشته پیوند داده شده است تأثیر بگذارد. به‌علاوه، هر نوع مقیاس‌بندی افزایشی اساساً معنای آن‌ها را تغییر می‌دهد - ما دیگر درباره تأثیر مطلق یک چیز واقعی صحبت نمی‌کنیم، بلکه بیشتر درباره تأثیر نسبت به چیز دیگری صحبت می‌کنیم. در زمینه خود، تعداد زیادی تعامل دارم، و در مورد اینکه آیا بسیاری از متغیرها باید به یک اثر سطح منجر شوند یا به سادگی شیب پاسخ‌هایی را که توسط متغیرهای دیگر هدایت می‌شوند، تعدیل می‌کنند، نادان هستم. به عنوان مثال، من نمی دانم که آیا دما تأثیر خاص خود را بر پدیده مورد نظر دارد یا اینکه صرفاً بر پاسخ به تغییر pH تأثیر می گذارد. بنابراین من فکر نمی کنم که در ایجاد یک مدل قابل تفسیر و قابل قبول مرتکب خطاهای جدی هستم. اگر کسی بتواند منطق من را در اینجا تأیید کند، یا به ایراداتی که ممکن است در کمین است اشاره کند، ممنون می شوم.
انتخاب جلوه‌های اصلی زمانی که عدم تغییر در مقیاس مکان مشکلی نیست(؟)
69134
واضح است که حاصلضرب متغیرهای توزیع شده نرمال توزیع شده نرمال نیست. به عنوان مثال، اگر $X \sim N( \mu_1,\sigma_1^2)$, $Y \sim N( \mu_2,\sigma_2^2)$، آنگاه $XY$ توزیع $N( \ را ندارد mu_1 \mu_2,\mu_1^2 \sigma_1^2+\mu_2^2\sigma_1^2)$. به من گفته شده است که حتی اگر توزیع $XY$ توزیع نرمال نباشد، توزیع $XY$ نزدیک به توزیع نرمال است، وقتی $\mu_1$ و $\mu_2$ چندان کوچک نیستند، $\sigma_1$ و $\sigma_2$ چندان بزرگ نیستند. آیا حقیقت دارد؟ کد R زیر را امتحان کنید: n1<-rnorm(10000,0,.005) n2<-rnorm(10000,0,.005) n<-n1*n2 d<-density(n) نمودار(d,lwd=2) x<-par('usr') dn<-dnorm(d$x,mean=mean(n),sd=sd(n)) x<-seq(x[1],x[2],length.out=length(dn)) خطوط(x ,dn,col=2,lwd=2) legend('topright',legend=c('Estimated density','Normal توزیع'),lwd=2,lty=c(1,1),col=c(1,2)) ![تخمین چگالی زمانی که $\\sigma_1=\\sigma_2=0.005$](http://i. stack.imgur.com/l2R31.png) به نظر می رسد تنها زمانی که دو شرط هر دو برآورده شوند، توزیع تقریباً نرمال است. آیا تحلیل نظری وجود دارد؟
چه زمانی توزیع حاصلضرب دو متغیر توزیع شده نرمال نزدیک به توزیع نرمال است؟
56782
فرض کنید می خواهید فرضیه صفر را آزمایش کنید: H0: p1 = 0.65، p2 = 0.27، p3 = 0.01، p4 = 0.05، p5 = 0.02 برای تعیین اینکه آیا توزیع جمعیت با نسبت های پیشنهادی مطابقت دارد یا خیر. شما یک نمونه تصادفی از 100 نفر به دست می آورید. اگر فرضیه صفر درست بود، مقدار مورد انتظار آماره آزمون چقدر است؟ مطمئن نیستم که از نظر مفهومی/شهودی درک کنم که مربع کای چگونه کار می کند. آیا کسی می تواند توضیح دهد که چرا پاسخ اینجا 4 است؟ اگر فرضیه صفر درست باشد، جامعه دارای نسبت هایی برابر با 0.65، 0.27، 0.01، و غیره است. پس این چه چیزی را از آمار آزمون به ما می گوید؟
تست همگنی مجذور کای
35585
من می خواهم یک توزیع موضوعی برای یک سند ایجاد کنم. مدل فعلی که می‌خواهم پیاده‌سازی کنم این است: برای هر جمله در سند، یک تکلیف موضوعی با یک امتیاز دریافت می‌کنم، به عنوان مثال. جمله اول درباره مایکروسافت با امتیاز مرتبط 0.4 است. این را برای هر جمله تکرار می کنم و در پایان امتیازهای مرتبط با موضوعات زیر را دارم: > جمله اول: مایکروسافت، نمره 0.4 > > جمله دوم: سیب، امتیاز: 0.1 > > جمله سوم: اندروید، امتیاز: 0.5 > > ... اکنون، من می خواهم این امتیازها را به 1 توزیع احتمال بزرگ تبدیل کنم که کل سند را نشان می دهد. آیا تکنیک شناخته شده ای برای این کار وجود دارد؟ اگر چنین است، بهترین راه برای انجام این کار چیست؟ توجه: من می‌دانم که این یک مدل‌سازی موضوعی بسیار ساده‌لوحانه است، اما در حال حاضر علاقه‌مندم که نمرات را به صورت prob ترکیب کنم. توزیع ها
چگونه چندین امتیاز رتبه بندی را به توزیع احتمال تبدیل کنیم؟
32059
یک میله اندازه گیری طول $u$ (برای واحد) و یک جسم بلند دارای طول $x$ است. فرض کنید $u$ سرتاسر $i$ و $x$ سرتاسر $j$ بار گذاشته شده است. ما می خواهیم مشاهده کنیم که آیا $iu\ \left\\{\begin{array}{c} < \\\ = \\\ > \end{array}\right\\}\ jx$. اما برای هر تکرار $u$ و $x$ یک خطای تصادفی وجود دارد --- مثلاً مشاهده می کنیم که آیا $$iu + \varepsilon_1+\cdots+\varepsilon_i\ \left\\{\begin{array}{c} < \\\ > \end{آرایه}\right\\}\ jx+\delta_1+\cdots+\delta_j$$ برای $i=1،\ldots،I$ و $j=1،\ldots،J$، که در آن $\varepsilon$s مستقل هستند و $\sim N(0,\sigma^2)$ و $\delta $ مستقل از یکدیگر و از $\varepsilon$s و $\sim N(0,\tau^2)$ هستند. بنابراین، ما مشاهدات $IJ$، هر دودویی، برابر با $<$ یا $>$ داریم (اگر دوست دارید آنها را با $0$s و $1$s رمزگذاری کنید). **در مورد استنتاج آماری در مورد نسبت $x/u$ در این مسئله چه چیزهایی شناخته شده است؟** مواردی مانند MLE برای $x/u$ یا MLEs برای $\sigma$ و $\tau$، یا فواصل اطمینان برای $x/u$ و غیره. برای مقادیر بزرگ $I$ و $J$، ممکن است بتوان مواردی مانند غیرعادی بودن توزیع‌های $\delta$ و $\varepsilon$؟
اندازه گیری طول اولیه
55874
من نزدیک به یک میلیون مجموعه داده دارم و هر زمان که آزمون مقایسه میانگین را اجرا می کنم، چه ANOVA یا یک آزمون t، سطح معنی داری کمتر از 0.0001 در SPSS دریافت می کنم. من نگران این هستم که نمونه من آنقدر بزرگ باشد که البته وقتی میانگین ها را مقایسه می کنم تفاوت قابل توجهی نشان می دهد. آیا یک نمونه برای آنالیز واریانس یا آزمون تی بسیار بزرگ است؟
آیا یک نمونه برای آنالیز واریانس یا آزمون تی بسیار بزرگ است؟
25718
آیا در جستجوی خوشه‌های الگوهای مسیر در داده‌های طولی، زمانی که بسیاری از مقادیر طولی از داده‌های پایه منتسب می‌شوند، مشکلی وجود دارد؟
خوشه بندی الگوهای مسیر با مقادیر زیادی از دست رفته
26065
من با دنبال کردن این آموزش اما با استفاده از داده های خودم، دو مدل رگرسیون را با استفاده از ANCOVA مقایسه کردم. در اینجا قطعه ای از داده های من است: X MC CC RC FM AT HS 1 0.874375 NA NA NA NA grab 1 2 0.451250 0.41948802 0.44885230 0.45113487 0.437 انتشار گرفتن 2 6 0.948750 0.68792116 0.69742615 0.68139072 انتشار NA 2 7 0.452500 0.42250699 0.45583832 0.472524445 0.472524445 NA 0.62101946 0.62549900 0.62338872 انتشار NA 2 MC، CC، RC و FM چهار متغیری هستند که می توانند X را مدل کنند. دو متغیر دسته بندی هر کدام با دو سطح وجود دارد: نوع عمل (AT) و سمت دست (HS). سمت دست 1 به معنای راست و 2 سمت چپ است. من می خواهم بدانم که آیا سمت دست در هر یک از مدل ها متغیر است یا خیر. مورد RC را در نظر بگیرید، برای این مدل من ANCOVA را با استفاده از دستور R زیر انجام می‌دهم: aov(X ~ RC * HS, data = X.models) در اینجا نتایج آمده است: Df Sum Sq Mean Sq F مقدار Pr(>F) RC 1 58.427 58.427 10148.368 < 2.2e-16 *** HS 1 10.732 10.732 1864.025 < 2.2e-16 *** RC:HS 1 0.069 0.069 11.927 0.0005803 *** Residuals 859 4.946 0.006 بنابراین درک من این است که تفاوت معناداری بین مدل RC و H وجود دارد. قابل توجه است. با این حال، در این مورد، تفاوت بین رهگیری ها بسیار بزرگتر و جالب تر است. آیا اندازه گیری مکملی وجود دارد که اندازه اثر تعامل را نشان دهد؟ راه حل فعلی من این است که تفاوت در شیب و قطع را در کنار مقدار ANCOVA P گزارش کنم، اما مطمئن نیستم که آیا این بهترین راه برای انجام آن است یا خیر.
اندازه اثر نتایج یک ANCOVA
26067
من سعی می کنم 5 چرخ دنده مختلف را که توسط ماهیگیران استفاده می شود و میزان صید جانبی یافت شده در هر کدام با هم مقایسه کنم. مقادیر دارای واحد % از زمان مواجهه هستند و بین 0% (یعنی: هرگز باجگیری نداشته باشید) و 100% (یعنی: هر بار که خارج می شوند با شکار جانبی مواجه می شوند) متغیر است. من این را انتخاب کردم زیرا همه ماهیگیران به یک اندازه ماهیگیری نمی کردند. من تعداد یکسانی از ماهیگیران با استفاده از هر چرخ دنده ندارم (به عنوان مثال: برای دنده 1، n = 4 ماهیگیر، دنده 2، n = 13، دنده 3، n = 24، دنده 4، n = 5، دنده 5، n = 4). آیا راهی وجود دارد که بفهمیم تفاوت آماری معنی داری بین گیره جانبی در هر دنده وجود دارد؟ من minitab دارم، اما هنوز نحوه استفاده از آن را به خوبی نمی دانم. هر توصیه ای بسیار مفید خواهد بود! با تشکر
تفاوت آماری معنی دار بین 5 گروه داده
56784
در R، اگر تابع «lm()» را به روش زیر فراخوانی کنم: lm.1 = lm(پاسخ ~ var1 + var2 + var1 * var2) خلاصه (lm.1) این یک مدل خطی از متغیر پاسخ به من می دهد. با «var1»، «var2» و تعامل بین آنها. با این حال، ما دقیقاً چگونه از نظر عددی عبارت تعامل را تفسیر می کنیم؟ مستندات می‌گویند که این «تقاطع» بین «var1» و «var2» است، اما توضیحی درباره اینکه دقیقاً «صلیب» چیست، ارائه نشده است. برای من مفید است که بدانم R دقیقاً چه اعدادی را محاسبه می کند تا تعامل بین دو متغیر را در بر بگیرد. خیلی ممنون!
چگونه عبارت تعامل را در فرمول lm در R تفسیر کنیم؟
107910
من می خواهم از lda در بسته MASS در R استفاده کنم. طبق تئوری پشت آن، ابتدا باید این فرض را تأیید کرد. در واقع من چند نمونه از نت پیدا کردم اما آنها زحمت تایید آنها را به خود ندادند. آیا فرض lda همان فرض manova است؟ درست میگم؟ ممنون میشم اگه کسی توضیح بده
چگونه با استفاده از lda، فرض تحلیل تفکیک را در R بررسی کنیم؟
25713
فصل پذیرش در مقاطع تحصیلات تکمیلی است. من (و بسیاری از دانش آموزان مانند من) اکنون در تلاش هستیم تا تصمیم بگیرم کدام برنامه آماری را انتخاب کنم. 1. شما که با آمار کار می کنید، پیشنهاد می کنید در مورد برنامه های کارشناسی ارشد آمار در نظر بگیریم؟ 2. آیا مشکلات یا اشتباهات رایجی وجود دارد که دانش آموزان مرتکب می شوند (شاید با توجه به شهرت مدرسه)؟ 3. برای اشتغال باید به دنبال تمرکز بر آمار کاربردی باشیم یا ترکیبی از آمار کاربردی و نظری؟ **ویرایش:** در اینجا اطلاعات اضافی درباره وضعیت شخصی من وجود دارد: همه برنامه هایی که اکنون در نظر دارم در ایالات متحده هستند. برخی بر جنبه کاربردی تر تمرکز می کنند و مدرک کارشناسی ارشد را در آمار کاربردی می دهند در حالی که برخی دیگر دروس تئوری بیشتری دارند و در آمار مدرک اعطا می کنند. من شخصاً قصد ندارم در یک صنعت نسبت به صنعت دیگر کار کنم. من سابقه برنامه نویسی دارم و صنعت فناوری را کمی بهتر از مثلاً صنعت ژنومیک یا بیوانفورماتیک می شناسم. با این حال، من در درجه اول به دنبال شغلی با مشکلات جالب هستم. **ویرایش**: سعی شد این سوال به طور کلی قابل اجرا باشد.
مواردی که باید در مورد برنامه های کارشناسی ارشد در آمار در نظر گرفت
104755
مدت زیادی از آمار اولیه گذشته است. من یک سری زمانی مالی دارم که رشد تصاعدی را نشان می دهد. قبل از استانداردسازی، آیا باید سری زمانی را ثابت کنم؟ قبل از اینکه استاندارد کنم، آیا باید عادی سازی کنم؟
آیا قبل از محاسبه نمره z یا t، یک سری زمانی باید ثابت باشد؟
62923
از ویکی پدیا، معادله تخمین تعمیم یافته (GEE) روشی برای تخمین پارامترهای یک مدل خطی تعمیم یافته (با توزیع خانواده نمایی برای پاسخ) است. با خواندن سایر مراجع آنلاین، من گیج می شوم که آیا GEE یک روش تخمینی است یا یک مدل آماری مانند مدل خطی تعمیم یافته، اما من تمایل دارم GEE را به عنوان یک روش تخمین به عنوان جایگزینی برای MLE در نظر بگیرم. درست میگم؟ اما فقط به مدل میانگین (به عنوان تابعی از پارامتر) و تابع واریانس (به عنوان تابعی از میانگین) متکی است. اگر درست بگم روش شبه درستنمایی حداکثری هست (البته میخوام بپرسم روش شبه درستنمایی حداکثری چیه؟). بنابراین GEE از کل احتمال ارائه شده توسط مدل خطی تعمیم یافته استفاده نمی کند، بلکه فقط از بخشی از آن استفاده می کند. آیا این درست است که GEE بتواند برای مدل های بزرگتر از مدل خطی تعمیم یافته اعمال شود؟ با تشکر و احترام!
مدل هایی برای معادله تخمین تعمیم یافته؟
57785
من تازه کار برای R و Stats هستم. من از EFA در R [کتابخانه روانی] برای شناسایی عوامل پنهان زیربنای داده هایم استفاده می کنم. من تعداد معقولی از فاکتورهای منطبق با هدفم را دریافت کردم. سوال من این است که وقتی فاکتورها را داشته باشم، آیا راهی برای طبقه بندی مشاهدات بر اساس عوامل غالب، یک یا چند وجود دارد؟
EFA در R: طبقه بندی مشاهدات
26345
> **موضوع تکراری:** > اوزان خانوار را از نمونه افراد توزیع شده یکنواخت استخراج کنید **ویرایش**: اساساً، من خودم به این سؤال در سؤال پیوندی پاسخ داده‌ام: وزن‌های خانوار را از نمونه افراد توزیع شده یکنواخت استخراج کنید. من متن زیر را برای مرجع نگه می دارم. * * * برای یک جمعیت محدود $U$، من احتمال $\pi_{i,k}$ نمونه‌گیری $i$ را دقیقا $k$ برابر می‌دانم، که $k$ با $m_i$ محدود می‌شود. در مورد من، $$\pi_{i,k} = \binom{m_i}{k} p^k(1-p)^{m_i - k}$$ برای مقداری $p$. من همچنین نمونه‌ای به اندازه $n$ دارم (برگرفته از _با جایگزینی_)، اما اندازه کل $N$ جمعیت ناشناخته است. من سعی می کنم یک $w_i$ مجدد از نمونه استخراج کنم که تخمین های بی طرفانه و/یا حداقل واریانس کل ها را برای مثلاً یک ویژگی $x_i$ ارائه دهد. (تخمین $N$ یک مورد خاص است.) وزن های صحیح برای نمونه من چه خواهد بود؟ آیا با توجه به اینکه می توانم به طور قابل اعتماد آنها را شناسایی کنم، حذف موارد تکراری توصیه می شود؟ **ویرایش**: اگر موارد تکراری را نتوان به طور قابل اعتماد شناسایی کرد چه؟ حدس اولیه من $w_i = 1/(1 - \pi_{i، 0})$ است، اما نمی‌دانم چگونه می‌توان این را با استدلال ریاضی پشتیبان کرد. همچنین، من قدردان هر گونه راهنمایی در مورد ادبیات در مورد این موضوع هستم. (شاید همین مشکل در مقاله قبلی مورد بررسی قرار گرفته باشد؟) برای توصیف عملی تر مشکل، به استخراج وزن های خانگی از یک نمونه فرد به طور یکنواخت مراجعه کنید. _ سوال پرسیده شده در اینجا متفاوت است. _ شاید محاسبه درصد نمونه برداری نشده در نمونه گیری با جایگزینی مرتبط باشد.
وزن ها را از احتمالات انتخاب در طرح نمونه گیری «با جایگزینی» تعیین کنید
32055
در یک گروه موردی، شما به طور تصادفی تعدادی امکان پذیر از گروه را نمونه برداری می کنید (مثلاً 20٪) و سپس همه مواردی را که بخشی از نمونه فرعی نبودند، اضافه می کنید. بنابراین، در حالی که تنظیم یک همگروه موردی آسان است، ممکن است تجزیه و تحلیل آن دشوار باشد، اما روش‌هایی برای آن وجود دارد. چالش من این است که چگونه می توان با به روز رسانی های بعدی در یک طرح همگروهی برخورد کرد. به عنوان مثال، اگر در زمان A شما 100 مورد دارید.. در زمان B شما 150 مورد دارید. بنابراین هر چه زمان بیشتر می گذرد، چه چیزی یک مورد و چه چیزی یک کنترل تغییر می کند. بهترین راه ها برای مقابله با این موضوع چیست؟ من فکر می‌کنم یک استراتژی این است که نمونه‌گیری فرعی را دوباره انجام دهیم، یا فقط تمام موارد اضافی را پرتاب کنیم و برخی از کنترل‌های جدید را با احتمال کمی نمونه‌برداری کنیم. اما این گزینه لزوما در دسترس نیست. به عنوان مثال، جمع آوری تمام پارامترها در موارد و کنترل های جدید می تواند بسیار زمان بر باشد. بنابراین مطالعه دیگر یک گروه موردی واقعی نیست، و بیشتر یک کنترل موردی تودرتو است.. اما نه واقعاً به دلیل نحوه نمونه برداری از کنترل ها. پاسخ واضح دیگر نادیده گرفتن پیگیری است، اما آیا واقعاً راهی برای مهار آن وجود ندارد؟ بنابراین چالش من این است که به دلیل ناتوانی در دسترسی به پارامترهای لازم برای موارد جدید، اگر از داده‌های پیگیری استفاده کنم، دیگر یک همگروهی واقعی خواهم داشت. اما من با یک مورد شاهد تودرتو واقعی باقی نمانده‌ام زیرا خود مورد من به‌طور تصادفی نمونه‌برداری نشده است و کنترل‌ها با سطح خطر موارد مطابقت ندارند. پیشنهادات؟
به روز رسانی های بعدی در طرح های همگروهی موردی
9947
برای مجموعه داده $D$، ما centroids استاندارد طلایی داریم که می‌گویند $c_1، c_2، \cdots، c_n$. حال اگر الگوریتم k-means را روی $D$ با ورودی $n$ اجرا کنیم، مرکز k-means $k_1، k_2، \cdots، k_n$ را دریافت می کنیم. فقط می خواستم بدانم، آیا الگوریتم/ابتکار برای تطبیق سانتروئیدها بین $k_i$ و $c_j$ وجود دارد که در آن $i، j= 1، \cdots، n$ (نگاشت یک به یک بین $k$'s و $) c$'s) سعی کردم فاصله زوجی بین $k_p$ و $c_j,\ را محاسبه کنم. j= 1، \cdots، n$، و $k_p$ را با $c_r$ مطابقت دهید که فاصله بین آنها حداقل است. اما در این مورد $k_p$ و $k_q$ به $c_r$ اختصاص داده می شوند که ما به آن نیازی نداریم.
مشکل تطبیق مرکز
21875
من در مورد روش دلتا در رابطه با مدل‌های تاخیر توزیع شده خودکار رگرسیون مطالعه کرده‌ام. این برای من بسیار جدید است، بنابراین اشتباهات مبتدی را ببخشید. مشکل از این قرار است: ما برای مصرف بنزین مدل داریم. $g$ مصرف سرانه، $y$ درآمد قابل تصرف، $p$ قیمت، $g_{t-1}$ مصرف با تاخیر است. تمام مقادیر در گزارش ها هستند. $$g_t = \alpha_0 + \beta_1 p_t + \beta_2 y_t + \omega g_{t-1} + u_t$$ $\beta_i$ نشان دهنده اثرات کوتاه مدت و $\beta_i/(1-\omega)$ است. اثر بلند مدت مشکل این است که این برآوردهای بلندمدت دارای خطاهای استاندارد محاسبه شده در اکثر مطالعات نیستند. من فقط دو مقاله پیدا کردم: _Bentzen & Engsted (2001)_ و _Pesaran & Shin (1997)_. آنها پیشنهاد می کنند که خطای استاندارد را با استفاده از روش دلتا محاسبه کنند. مشکلی که من می بینم این است که $y_t$ (یا $p_t$) و $g_{t-1}$ بسیار همبستگی دارند، بنابراین فرض روش دلتا را نقض می‌کنند (تا جایی که من متوجه شدم). همبستگی کاملاً واضح است زیرا $y_t$ و $p_t$ در رگرسیون بالا معنی‌دار هستند، بنابراین در نظر گرفتن $$g_{t-1} = \alpha_0 + \beta_1 p_{t-1} + \beta_2 y_{t- 1} + \omega g_{t-2} + u_{t-1}،$$ می دانیم که بین $g_{t-1}$ و $p_{t-1}$ (یا $y_{t-1})$، با توجه به تداوم قیمت (یا درآمد)، همبستگی بین $g_{t-1}$ و $p_t$ یا $y_t$ مطمئنا وجود دارد. من حتی داده‌های زیادی را از Eurostat برای تأیید همبستگی نمونه حفر کردم و در آنجا بود، بالاتر از 0.5 در مقدار مطلق. همچنین می توانید ببینید که خطای استاندارد تخمینی با استفاده از روش دلتا بسیار بزرگتر از خطاهای تخمین زده شده با استفاده از روش های دیگر است. این نشان می دهد که همبستگی حذف شده ممکن است باعث تخمین بیش از حد خطای استاندارد شود. * * * بنابراین سوال این است: آیا می توانم از روش دلتا برای تخمین خطای استاندارد تبدیل غیرخطی استفاده کنم در حالی که بدانم این متغیرها همبستگی دارند؟ یا ماهیت غیر خطی تبدیل چیزها را تغییر می دهد؟ یه عالمه ممنون
روش دلتا و متغیرهای همبسته
104752
اجازه دهید $X$ یک متغیر تصادفی با توزیع $F_X(x)$ $$Y=g(X) = \left\\{ \begin{array}{lr} X-c & : X > c\\\ 0 & : - c < X \le c \\\ X+c & : X \le -c \end{array} \right\\}$$ ## رویکرد من این یک توزیع مختلط است $F_Y(y=0) = P(-c < X < c) = F_X(c)-F_X(-c)$ ## سوال من: آیا این روش صحیحی برای نوشتن $F_Y(y) $ , $ y \ne 0$ است؟ اگر نه، پس راه صحیح چیست؟ $F_Y(y) = P(Y\le y) = P(Y\le y | X>c) P(X>c) + P(Y\le y | X<c) P(X<c)$ این می دهد. $F_X(y+c) (1-F_X(c)) + F_X(y-c)F_X(c)$
نحوه محاسبه CDF از g(X)
25715
من اخیراً اولین مطالعه خود را انجام دادم که آموزش والدین را به عنوان یک عامل تعیین کننده خطر بررسی می کرد. من یک نظرسنجی انجام دادم که خطر را در چندین زمینه اندازه گیری کرد و همچنین اطلاعاتی را در مورد افراد مانند جنسیت، قد و سایر مظنونان معمول ثبت کرد. کار کمی در مورد تأثیر قومیت بر خطر و همچنین کشور مبدا/محل اقامت بر خطر انجام شده است (یک سؤال جالب تحقیق ثانویه). مسئله این است که ملیت والدین با فرزندانشان بسیار مرتبط است (همانطور که انتظار می رود) تا جایی که Minitab عوامل تعیین کننده مختلف را به دلیل همبستگی زیاد کنار گذاشته است. با توجه به ماهیت نمونه (دانشجویان در انگلستان) همبستگی امری اجتناب ناپذیر است. من نمی‌خواهم متغیرها را صرفاً به این دلیل که همبستگی بالایی دارند کنار بگذارم، اگرچه چند پیشنهاد برای انجام این کار دیده‌ام. آیا راهی برای غلبه بر این موضوع وجود دارد؟ در غیر این صورت چگونه می توان به تأثیر حاشیه ای کشور محل تولد/ ملیت والدین بر ترجیحات خطر آنها نگاه کرد؟ آیا من چیز ساده ای را نادیده گرفته ام؟
چگونه هنگام تجزیه و تحلیل نتایج نظرسنجی با مسئله چند خطی برخورد کنیم؟
55873
پس از کار بر روی شبکه عصبی پس انتشار و مدل سری زمانی ARIMA، از خودم پرسیدم که کدام یک بهتر است، اما نمی توانم پاسخ را پیدا کنم. آنها هر دو از رویکردهای متفاوتی در مورد یک مشکل استفاده می کنند (پیش بینی آینده). لطفا کسی میتونه کمکم کنه تا بدیهیات رو بیان کنم. Backpropagation(C++): typedef struct { /* A LAYER OF A Net: */ INT Units; /* - تعداد واحدهای این لایه */ REAL* خروجی; /* - خروجی واحد ith */ REAL* خطا. /* - عبارت خطای ith واحد */ REAL** Weight; /* - وزن اتصال به واحد ith */ REAL** WeightSave. /* - وزنه های ذخیره شده برای تمرین متوقف شده */ REAL** dWeight; /* - دلتاهای آخرین وزن برای تکانه */ } LAYER; typedef struct { /* A NET: */ LAYER** Layer; /* - لایه های این شبکه */ LAYER* InputLayer; /* - لایه ورودی */ LAYER* OutputLayer; /* - لایه خروجی */ REAL Alpha; /* - ضریب حرکت */ REAL Eta; /* - نرخ یادگیری */ سود واقعی. /* - بهره تابع سیگموئید */ REAL Error; /* - کل خطای خالص */ } NET; ARIMA(R): arima(stockadj,order=c(best.model[1],best.model[2],best.model[3]),xreg=1:n) stockfor<-predict(stockari,h= 100,newxreg=(n+1):(n+100)) ts.plot(stockadj,stockfor$pred,ylab=Original+Predicted ارزش‌ها، اصلی پیش‌بینی) متشکرم.
آیا ARIMA در مقایسه با شبکه های عصبی بهتر است؟
56785
فرض کنید می خواهیم ارتباط بین مصرف الکل و سرطان را مطالعه کنیم. اگر افرادی را که سیگار می کشند (یک عامل مخدوش کننده) نیز در نظر بگیریم، آیا این امر خطر نسبی سرطان را برای مصرف کنندگان الکل کاهش می دهد؟ اگر فقط افرادی را که سیگار نمی کشند را در نظر بگیریم، این امر خطر نسبی سرطان را برای مصرف کنندگان الکل افزایش می دهد؟
متغیرهای مخدوش کننده
64949
من در حال اجرای یک تحلیل رگرسیون سلسله مراتبی هستم و تردیدهای کوچکی دارم: 1. آیا عبارت تعامل را با استفاده از متغیرهای متمرکز محاسبه می کنیم؟ 2. آیا باید تمام متغیرهای پیوسته ای را که در مجموعه داده داریم به جز متغیر وابسته در مرکز قرار دهیم؟ 3. وقتی باید برخی از متغیرها را وارد کنیم (چون s.d آنها بسیار بالاتر از میانگین آنها است)، آیا متغیری را که به تازگی ثبت شده است در مرکز قرار می دهیم یا متغیر اولیه؟ به عنوان مثال: متغیر Turnover ---> Logged Turnover (زیرا s.d در مقایسه با میانگین خیلی زیاد است) ---> Centered_Turnover؟ یا مستقیماً Turnover --> Centered_Turnover (و ما با این یکی کار می کنیم) با تشکر!
اصطلاح تعامل با استفاده از متغیرهای متمرکز تحلیل رگرسیون سلسله مراتبی؟ چه متغیرهایی را در مرکز قرار دهیم؟
52783
من سعی می کنم یک مدل Weibull را برای بقای رهبران سیاسی در R تکرار کنم. این مدل از توزیع Weibull با نرخ خطر h(t)=lambda*pt^(p-1) استفاده می کند. اصطلاح p به متغیر W وابسته است. بنابراین در «Stata» می‌توان آن را به سادگی با افزودن «anc(W)» به رگرسیون انجام داد. اما «weibreg» در بسته «eha» فقط به فرد اجازه می‌دهد که مقادیر را روی «شکل» تنظیم کند. آیا به هر حال برای انجام این کار با weibreg وجود دارد؟ آیا بسته/عملکرد دیگری وجود دارد که باید برای این منظور استفاده کنم؟
برازش رگرسیون وایبول با پارامتر شکل فرعی در R
107792
آیا فرمولی برای مطالعات مدلسازی معادلات ساختاری وجود دارد؟ میدونم یه سایت هست: http://danielsoper.com/statcalc3/calc.aspx?id=89# مرجع خوبی هست؟
اندازه نمونه برای SEM
55870
من دو سوال در مقیاس لیکرت دارم که درک ریسک (شدت و احتمال) را اندازه گیری می کند. به عنوان مثال: افتادن از ارتفاع ده فوتی چه نوع آسیبی ایجاد می کند؟ 1. بدون جراحت 2. جراحات خفیف 3. جراحات بدون آسیب دائمی پزشکی 4. جراحات با آسیب دائمی پزشکی 5. صدمات مرگبار احتمالی احتمال وقوع تصادف در اثر سقوط از ارتفاع ده فوتی چقدر است؟ 1. هرگز 2. بعید 3. تا حدودی محتمل 4. به احتمال زیاد 5. به احتمال زیاد من پاسخ های این دو سوال را ضرب می کنم تا تصوری از نمره ریسک ایجاد کنم (مثلاً Fatal (5) و هرگز (1) = 5). این امتیاز محاسبه شده فاقد صفر (نه نسبت) است و شکاف بین نمرات یکسان نیست، بنابراین بازه ای نیست. من این نمرات را در چهار گروه ادغام می‌کنم: ریسک قابل قبول یا بدون ریسک (1-4)، کم خطر (5-9)، خطر متوسط ​​(10-15)، ریسک بالا (16-25) من با موفقیت Chi-square و من ویتنی U با نمرات تبدیل شده در چهار گروه آزمایش می کند. اما... سوال من این است: آیا باید خود نمرات محاسبه شده را تجزیه و تحلیل کنم؟ آیا ماهیت کسب امتیاز LACK به معنای تا زمانی است که آنها را در 4 دسته ترتیبی قرار دهم؟ آیا باید فقط از نمرات تلفیقی (4 گروه) در Chi-square، Mann-Whitney U و (به زودی انجام خواهد شد) رگرسیون ترتیبی استفاده کنم؟
تحلیل صحیح نمره لیکرت (محصول دو مقیاس لیکرت)؟
99385
من سعی کرده ام اطلاعاتی در مورد این نوع نمودار پیدا کنم و به نتایج ناخواسته ادامه می دهم. آیا نام یا عبارت جستجویی برای یافتن نمودارهای میله ای وجود دارد که میله ها را با اشیاء کد رنگی مانند این مثال جایگزین می کند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/W1Yer.png) * * * اگر کسی علاقه مند است، در حال تحقیق در مورد آن هستم تا راه حلی برای این سوال در صرافی طراحی گرافیک ارائه دهم: چگونه از طرح ها در نمودار میله ای انباشته با آمار دقیق استفاده کنم؟
آیا نامی برای نمودارهای میله ای وجود دارد که میله ها را با اشیاء کد رنگی جایگزین می کند؟
99950
من در مورد توزیع خطای مدل های GARCH کمی سردرگم هستم. من درک می کنم که چندین توزیع استاندارد شده (یعنی مقدار مورد انتظار = 0، واریانس = انحراف استاندارد = 1) را می توان استفاده کرد، به عنوان مثال t نرمال یا استاندارد شده استاندارد. با فرض اینکه من از توزیع استاندارد t استفاده می کنم و باقیمانده های استاندارد شده را محاسبه می کنم، i. ه. مشاهدات (مگر اینکه از یک عبارت میانگین غیر صفر استفاده کنم) تقسیم بر انحراف معیار شرطی تخمینی. آیا حق با من است که باید آنها را در $\sqrt{\frac{v}{v-2}}$ ضرب کنم که $v$ df (تخمینی) است تا چیزی که (تقریباً) t-توزیع شده با $ باشد. v$ درجه آزادی؟
در مورد توزیع نوآوری GARCH سردرگم شده است
99954
اجازه دهید $X$ یک متغیر تصادفی گاما با پارامتر شکل $\alpha=2$ و پارامتر مقیاس $\theta=1$ باشد. سپس تابع تولید لحظه $X$ $$m_X(t) = \frac{1}{(1-t)^2} است، t<1.$$ واضح است که $t\neq 1$ است. با این حال، همچنین واضح است که $m_X(t)$ زمانی تعریف می شود که $t>1$ همانطور که در تصویر زیر نشان داده شده است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/eUJMA.png) **پس، چرا باید شرایط $t <1$ را اینجا اعمال کنیم، لطفا؟**
تابع تولید لحظه برای توزیع گاما
25714
من از «nlme» و اخیراً «lmer» برای جا دادن مدل‌های چند سطحی داده‌های دوره زمانی با استفاده از چند جمله‌ای متعامد استفاده کرده‌ام. من و همکارانم در ابتدا چند جمله ای ها را انتخاب کردیم زیرا معتقد بودیم که توابع غیرخطی مانند لجستیک نمی توانند برای مدل سازی چند سطحی استفاده شوند زیرا از نظر پویا سازگار نیستند. حداقل در یک مورد این محدودیت بسیار صریح بیان شده است (Willett, 1997, p. 238-239): > به طور کلی، رویکرد مدل‌سازی رشد فردی می‌تواند هر مدل سطح 1 را که در پارامترهای رشد فردی خطی است، در خود جای دهد. بسیاری از توابع رشد رایج به صورت پویا سازگار هستند، از جمله مدل درجه دوم که در بالا ذکر شد و همه مدل‌های چند جمله‌ای دیگر، صرف نظر از > آنها سفارش دهید. سایر مدل‌های رشد فردی بالقوه مهم مانند مدل لجستیک (که نمایش نظری مهمی از رشد انسانی از دیدگاه برخی نظریه‌های روان‌شناختی ارائه می‌دهد - رجوع کنید به > فیشر و پیپ، 1984) در پارامترهای رشد فردی خطی نیست. فرمول معمول با این حال، اخیراً دریافتم که، همانطور که می‌دانم، «nlme» و «lmer» می‌توانند از «SSfpl» برای جا دادن توابع لجستیکی 4 پارامتری در زمینه مدل‌سازی چند سطحی استفاده کنند. آیا ما محدودیت سازگاری پویا را اشتباه متوجه شدیم؟ شاید «lmer» و/یا «SSfpl» لجستیک 4 پارامتری را به روشی پویا و سازگار پیاده‌سازی کند؟ اگر چنین است، آیا کسی می‌داند که چگونه برای سازگاری پویا محدود می‌شود؟ پیشاپیش ممنون
سازگاری پویا و مدل های چند سطحی با استفاده از lmer
44426
تصور کنید مجموعه داده‌های زیر را دارم: ║ A ║ B ║ ╠════╬════════════╬══════════════ 1 ║ 0.723185 ║ 0.216422 ║ ║ 2 ║ 0.725254 ║ 0.216104 ║ ║ 3 ║ 0.725166 ║ 8 ║ 0.21 0.730094 ║ 0.22244 ║ ║ 5 ║ 0.730336 ║ 0.222342 ║ ║ 6 ║ 0.727938 ║ 0.21453 ║ 7 ║ 7 ║ 0.21453 ║ ║ 0.217435 ║ ║ 8 ║ 0.729766 ║ 0.21452 ║ ║ 9 ║ 0.724968 ║ 0.213434 ║ ║2 ║ 4 ║ 10. 0.214565 ║ ║ 11 ║ 0.727014 ║ 0.2212523 ║ ║ 12 ║ 0.731524 ║ 0.22845 ║ ╚════╩════════════╩══════════════════════════ چگونه می توانم روند مشابهی داشته باشم؟ آیا آزمون روند Jonckheere واقعاً آزمونی است که من به دنبال آن هستم؟ من این مستندات را پیدا کردم اما در این مورد چگونه خواهد بود؟
روند یکسان مجموعه داده ها در R
57439
اگر جمعیتی دارای نرخ خطر X$ در سال باشد، میزان خطر آن در ماه یا در روز چقدر خواهد بود؟
نرخ های خطر را به بازه های زمانی دیگر تبدیل کنید
57434
اگر از روش یادگیری منیفولد برای نمایش برخی از نقاط داده در فضای کم ابعاد استفاده کنم، فواصل بین نقاط پیش بینی شده چقدر خواهد بود؟ آیا می توانم از فاصله اقلیدسی استفاده کنم؟ اگر فاصله ها اقلیدسی نباشند، چه نوع متریک فاصله باید استفاده کنم و چگونه؟
یادگیری منیفولد غیرخطی و فواصل بین نقاط پیش بینی شده
57781
من 2 آزمایش روی دو پارامتر $P1$ و $P2$ انجام داده‌ام و می‌خواهم دو پارامتر را برای هر آزمایش طبقه‌بندی کنم. ### آزمایش 1 P1: P2: 0.24 0.14 0.3 0.19 0.37 0.24 0.48 0.29 0.59 0.34 0.67 0.38 0.75 0.43 0.79 0.79 # 0.40 0.40 #40. آزمایش 2 P1: P2: 0.13 0.16 0.18 0.2 0.25 0.24 0.31 0.27 0.41 0.32 0.49 0.35 0.56 0.36 0.56 0.35 0.24 0.590 برای طبقه بندی دودویی این دو مجموعه داده و دقت طبقه بندی برای هر آزمایش چقدر خواهد بود؟
طبقه بندی باینری
99953
فرض کنید یک مجموعه داده داریم که به این صورت است: ماه سال airquality ژانویه 2000 36 ... ... ... دسامبر 2001 33 jan 2002 44 ... ... ... دسامبر 2002 21 jan 2003 44 ... ... ... و غیره. کیفیت هوا در این مورد به تعداد قطعات در میلیون چیزی در نظر گرفته می شود. سوال من این است که اگر ماه فاکتور بر کیفیت هوا تأثیر دارد و چقدر تأثیر دارد، چگونه آزمایش می کنید؟ من برای فکر کردن به روش مناسب برای آزمایش این مشکل دارم زیرا علاوه بر تفاوت ماهانه ممکن است عامل سال نیز تأثیر داشته باشد (یعنی کیفیت هوا ممکن است در طول سالها با افزایش شدت ترافیک بدتر شود). امیدوارم بتوانید من را در مسیر درست راهنمایی کنید (مثلاً آزمایش/مدل مورد استفاده)
آزمایش تاثیر نوسانات ماهانه
14668
من سرعت آشفته را در نرخ نمونه برداری 1 هرتز اندازه گرفتم. برای حذف نوسانات با T> 900 ثانیه، سری های زمانی را با بسته های موجک تجزیه می کنم، مشکل این است که نمی دانم چه سطوحی باید حفظ شوند و چه سطوحی باید حذف شوند. به عبارت دیگر، اگر تجزیه بسته موجک به صورت درختی تصور شود، محدوده فرکانسی در هر گره چقدر خواهد بود؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zp2Ue.png)
محدوده فرکانس تجزیه بسته های موجک در هر سطح
40960
من در مورد کرنل واضح نیستم. 1. چگونه می توانم کرنل خود را بسازم که معتبر باشد؟ آیا تنها روش قضیه مرس (مثبت نیمه قطعی) است؟ منظورم این است که اگر بدانم K یک هسته معتبر است، آیا می دانم که a*K+b*K، چند جمله ای(K)، exp(K) و غیره نیز معتبر هستند؟ 2. اگر K یک هسته 2 بعدی است، چگونه می توانم K را به 3-D بسط دهم (ایجاد کنم)؟ 3. با توجه به یک هسته، بگویید K(x,y)=(xTy+1)^3، چگونه می توانم یک فی پیدا کنم که این K = phiT *phi را نگه دارد؟
با توجه به یک هسته، چگونه می توان نقشه فی را پیدا کرد؟
105404
همه را حل کنید، ممکن است یک سوال احمقانه باشد، اما از آنجایی که برآوردگر اثرات ثابت یا به معنای مرکز داده ها است یا از تفاوت های اولیه استفاده می کند، آیا کاملاً اشتباه است که ابتدا تفاوت های داده ها را در نظر بگیریم و سپس رگرسیون اثرات ثابت را در Stata اجرا کنیم؟ در اینجا توضیح مشکل وجود دارد. بنابراین مدل من $\Delta LP = \alpha+\beta_1 \Delta HC+\beta_2 \Delta FDI+\beta_3 \Delta HC*\Delta FDI$ زیر است که در آن LP بهره وری نیروی کار است، HC سرمایه انسانی و FDI سرمایه گذاری مستقیم خارجی است. از آنجایی که من پانل 21 کشور را به مدت 16 سال دارم، باید اثرات خاص کشور را کنترل کنم و برای آن تست هاسمن مدل اثرات ثابت را پیشنهاد داد. با این حال، هنگامی که از مدل اثرات ثابت استفاده می کنیم، به طور خودکار از اولین تفاوت های داده ها استفاده می کند. بنابراین سوال من این بود که آیا استفاده از داده‌های متفاوت اول در مدل جلوه‌های ثابت مشکلی ندارد؟ آیا تفاوت اول دو برابر نمی شود؟ متشکرم
استفاده از اولین متغیرهای متمایز در مدل اثرات ثابت
33577
> **تکراری احتمالی:** > چگونه می توان ارتباط بین اختلال خواب و یک ویژگی خاص شخصیتی را ارزیابی کرد؟ @Nikita.....از هر دوی شما برای پاسخگویی متشکرم. من می خواهم یک مطالعه پیشنهادی در مورد فراوانی یک اختلال خواب، یعنی فلج خواب، انجام دهم و آزمایش کنم تا ببینم آیا یک ویژگی برای ذهن آگاهی با آن ارتباط دارد یا خیر. یک پرسشنامه برای افرادی که ممکن است این اختلال را داشته باشند داده می شود تا تایید شود که دارند و مقیاسی برای اندازه گیری ذهن آگاهی نیز داده خواهد شد. بنابراین مقیاس‌های مقیاس برای ذهن‌آگاهی در مقیاس لیکرت 6 درجه‌ای هستند، بنابراین فکر می‌کنم مقیاس فاصله‌ای باشد. حدس می زنم بعد از دریافت نتایج از نظرسنجی فلج خواب می توانم فرکانس های تجربه را بر اساس آن دسته بندی کنم تا همبستگی را نشان دهم..؟ بنابراین، ایده این است که به سادگی این فرضیه جایگزین را آزمایش کنیم که افرادی که اغلب فلج خواب را تجربه می‌کنند، ویژگی کمتری برای تمرکز حواس دارند... بنابراین می‌دانم که این از نظر طراحی همبستگی دارد، اما دقیقاً از چه آماری استفاده کنم مطمئن نیستم... امیدوارم این نیت را بهتر روشن کند
تجزیه و تحلیل آماری برای مطالعه همبستگی
58960
من با آمار کاملاً تازه کار هستم و باید یک تحلیل واریانس و کوواریانس ایجاد کنم. من برای این کار از SPSS استفاده می کنم. من جدول کوواریانس را ایجاد کرده ام: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/det1L.png) امیدوارم کار درستی باشد. 3 متغیر اول عوامل ثابت و 3 متغیر دیگر متغیرهای کمکی هستند. اکنون از من خواسته شده است که قدرت اتصال (احتمالا ترجمه بدی است - باید تعیین کنم که تا چه حد ارتباط وجود دارد) مجموع فواصل مربعی واریانس کل تصحیح شده و تصحیح شده را تعیین کنم. مدل. ترجمه بدی از آلمانی است، اما معادل انگلیسی آن را پیدا نکردم و همانطور که قبلاً گفتم، تجربه ای در مورد آمار ندارم. علاوه بر این، چگونه می توانم تعیین کنم که کدام متغیرها تأثیر قابل توجهی بر متغیر وابسته دارند؟
تفسیر واریانس و کوواریانس
38600
من از pLSA (تحلیل معنایی پنهان احتمالی) استفاده می کنم. من سعی می کنم بهترین مقدار را برای برخی پارامترها با فرآیند اعتبار سنجی متقاطع k برابر برآورد کنم. من متوجه شده ام که برازش مدل به شدت تحت تأثیر مقداردهی اولیه است. برای انتخاب بهترین مقداردهی اولیه، من از روش بی اهمیت اولیه سازی های تصادفی چندگانه استفاده می کنم. آیا کسی می داند که آیا راه بهتری وجود دارد؟ یا شاید برخی از شیوه های خوب؟
مقداردهی اولیه در pLSA
44422
من به دنبال بهترین بسته ارائه مدل های خطی تعمیم یافته (GLM) و مدل های افزایشی عمومی (GAM) برای داده های مکانی هستم. بیشتر توصیه شده (GRASP) دیگر در مخزن جاری نیست. آیا جایگزینی پیشنهاد شده است یا نسخه آرشیو شده این بسته همچنان بهترین گزینه برای این مدل ها خواهد بود؟
بسته GLM و GAM جایگزین GRASP در R؟