_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
92188
|
چگونه می توان یک P-Value را برای تجزیه و تحلیل ارتباط Eta به دست آورد؟ آیا مرجعی برای این موضوع وجود دارد؟
|
چگونه یک p-value برای اندازه گیری eta ارتباط بدست آوریم؟
|
73606
|
من یک سوال در مورد رسیدگی به رویدادهای کیفی (مقوله ای) در داده های کمی (مقیاس نسبت) دارم. بدون اینکه در حبس زیاد قرار بگیریم، آزمایش روی پرتاب است. من فاصله بین هدف و نتیجه پرتاب را برای هر تلاش اندازه میگیرم. برخی از تلاش ها با شکست مواجه می شوند زیرا شرکت کننده به مانعی در مسیر رسیدن به هدف برخورد می کند. در پایان متغیر وابسته ممکن است چیزی شبیه به این باشد: [.2.1.3.2 -1.2.2.8 -1] که در آن مقادیر ممکن است از 0 تا هر چیزی متغیر باشد، اما -1 نشان دهنده برخورد با مانع است. چه راه هایی برای مقابله با چنین داده های طبقه بندی شده در متغیر کمی وجود دارد؟ من نمی توانم آنها را کنار بگذارم زیرا از منظر عملکرد معنادار هستند. جایگزینی با مقداری فاصله خطای زیاد دلبخواه به نظر می رسد. آیا چیز دیگری وجود دارد؟ در پایان من علاقه مندم که چگونه مردم در نتیجه تمرین در پرتاب بهتر می شوند.
|
نسبت داده ها با رویدادهای طبقه بندی شده
|
69399
|
این یک مشکل تکلیف است. اگر بتوانم راهنمایی هایی در مورد چگونگی حل آن داشته باشم بسیار عالی خواهد بود. میانگین و کوواریانس ترکیبی از دو توزیع: $$ I = \left\\{ \begin{array}{l l} 1 & \quad \text{اگر موضوع در گروه 1}\\\ 0 & \quad \text{ اگر موضوع در گروه 2} \end{array} \right.$$ فرض کنید $\mathbf{Z}=(Z_1,\ldots,Z_p)^T$ بردار اندازه گیری یک موضوع با میانگین و کوواریانس است: $$ E[\mathbf{Z}|I=1]=\mathbf{\ mu}_1، \quad E[\mathbf{Z}|I=0]=\mathbf{\mu}_2\\\Cov[\mathbf{Z}|I=1]=\mathbf{\Sigma}_1، \quad Cov[\mathbf {Z}|I=0]=\mathbf{\Sigma}_2$$ اجازه دهید $p=P(I=1)$. $E[\mathbf{Z}]$ و $Cov[\mathbf{Z}]$ را پیدا کنید. تلاش من: (این برای من منطقی است) $E[\mathbf{Z}] = E[E[\mathbf{Z}|I]] = E[p\mathbf{\mu}_1+(1-p)\ mathbf{\mu}_2] = p\mathbf{\mu}_1+(1-p)\mathbf{\mu}_2$. (در مورد این مورد مطمئن نیستم) $$ \begin{align*}Cov[\mathbf{Z}] &= Cov[E[\mathbf{Z}|I]] + E[Cov[\mathbf{Z}|I ]]\\\&= Cov[p\mathbf{\mu}_1+(1-p)\mathbf{\mu}_2] + E[Cov[\mathbf{Z}|I]]\\\&= ???\end{align*}$$
|
میانگین و کوواریانس مخلوطی از دو توزیع
|
92189
|
سوال این است که با استفاده از روش معمول پنج مرحلهای در آلفا $=0.05$ مستقل از وضعیت سیگار کشیدن و میزان مصرف الکل آزمایش شود:  در یافتن مقادیر مورد انتظار مشکل دارم. همانطور که سوال بیان می کند، مقادیر مورد انتظار را می توان از فرضیه صفر تولید کرد. اما چگونه؟ سردرگمی دیگری که من با آن مواجه هستم، شناسایی روشی است که باید دنبال کنم، زیرا در سؤال ذکر نشده است. از آنجایی که من باید مقادیر مورد انتظار را داشته باشم، آیا به این معنی است که برای شناسایی استقلال بین دو متغیر باید از خوبی برازش توزیع پواسون پیروی کنم؟ متشکرم!
|
آزمایش اینکه آیا مصرف الکل و سیگار کشیدن مستقل هستند یا خیر
|
50332
|
**زمینه** من چندین مجموعه داده از بسامدهای کلمه دارم که برخی از مجموعه داده ها داده های بسیار بیشتری نسبت به سایرین دارند: از 3000 نمونه تا 20000 نمونه. من همچنین مجموعه های مرجع بزرگی با میلیون ها نمونه دارم. **سوال** با استفاده از احتمالات ترم، میخواهم فاصله زوجی بین مجموعههای داده و مجموعههای مرجع را محاسبه کنم تا بتوانم بگویم از همه مجموعهها، مجموعه داده $A$ نزدیکترین به Corpus $S$ است در حالی که مجموعه داده $B$ است. نزدیکترین به Corpus $P$. با این حال، من معیاری می خواهم که بیش از حد تحت تأثیر اندازه نمونه مجموعه داده ها قرار نگیرد. به عنوان مثال، اگر $A$ دارای 50000 نمونه باشد، $B$ دارای 3000 نمونه باشد، و مجموعه های مرجع دارای میلیون ها نمونه باشند، $A$ ممکن است اغلب به بدنه مرجع نزدیکتر باشد تا $B$ صرفاً به این دلیل که نمونه های بیشتری دارد (با فرض $A) $ و $B$ مشابه هستند اما از یک توزیع گرفته نشده اند)؟ من معتقدم که با یک کاربرد ساده از واگرایی K-L، برای مثال، $A$ بر $B$ ترجیح داده می شود، اما اگر اینطور نیست، لطفاً مرا تصحیح کنید. 1. بهترین متریک برای اندازه گیری فاصله بین احتمالات یک نمونه و یک پیکره بزرگ چیست؟ 2. اندازه نمونه نابرابر چگونه بر متریک تأثیر می گذارد؟
|
مقایسه توزیعهای فرکانس مدت با حجم نمونه نابرابر؟
|
110515
|
من داشتم کتاب مدلهای گرافیکی احتمالی کولر و فریدمن را میخواندم و به دلیل مجموعهای از یادداشتها که یا با آن در تضاد هستند یا به گونهای متفاوت بیان میکنند، در مورد برخی از نشانهگذاری آن گیج شدم. هر کدام که باشد، من می خواهم توضیح دهم. علامت این است: $(\textbf{X} \perp \textbf{Y} , \textbf{W}\mid \textbf{Z})$ دلیل اینکه من در مورد معنای نماد گیج شدم، اسلایدهای آنلاین زیر است. : http://www.stats.ox.ac.uk/~steffen/seminars/waldmarkov.pdf به ویژه آنچه که من را گیج می کند نحوه بیان این یادداشت ها است قانون تجزیه در صفحه 8 و اینکه چگونه کتاب کولر همین قانون تجزیه را کمی متفاوت بیان می کند. اگر من دو نماد را درک کنم، باید قانون تجزیه را در هر دو نماد درک کنم. کتاب کولر قانون تجزیه را به صورت زیر بیان میکند: $$(\textbf{X} \perp \textbf{Y} , \textbf{W}\mid \textbf{Z}) \inplies (\textbf{X} \perp \textbf {Y}\mid \textbf{Z}، \textbf{W})$$ که به صورت شهودی بیان میکنم؛ مجموعه متغیرهای تصادفی $\textbf{X}$ مستقل از مجموعه متغیرهای تصادفی $\textbf{Y}$ و $\textbf{W}$ هستند (یعنی تفسیر کاما بین $\textbf{Y}$ و $\textbf{X}$ به عنوان و) با توجه به مجموعه متغیرهای تصادفی $\textbf{Z}$. با این حال، به نظر میرسد اسلایدها این جداسازی با کاما را به عنوان یک اتحاد تفسیر میکنند که من را گیج میکند (چون فکر میکردم داریم «و» را انجام میدهیم): $$(A \perp_{\sigma} (B \cup D) \mid C) \ دلالت دارد (A \perp_{\sigma} B \mid C) \text{ و } (A \perp_{\sigma} D \mid C) $$ آن من را گیج می کند زیرا به نظر می رسد از اتحاد برای کاما استفاده می کنند. علاوه بر این، نمیتوانم متوجه شوم که چرا این دو عبارت قوانین تجزیه معادل هستند (که ممکن است توضیح دهد که چرا من برای اثبات آن مشکل داشتهام زیرا فکر نمیکنم گزاره را درک کنم!). آیا کسی تفاوت در نماد و نحوه بیان معادل قانون تجزیه را می داند؟ * * * به عنوان یک مرجع، این پیشینه بیشتر در مورد نماد در کتاب Koller's Book است: اجازه دهید سرمایه غیر پررنگ برای متغیرهای تصادفی باشد که بگوییم $X$ یک r.v است. اجازه دهید برای انتساب به یک متغیر تصادفی که میگوید $(X = x)$ است. همچنین اجازه دهید حروف درشت را به عنوان مجموعه ای از متغیرهای تصادفی تعریف کنم. برای مثال $\textbf{X}، \textbf{Y}، \textbf{Z}$ سه مجموعه از متغیرهای تصادفی هستند. اجازه دهید حروف پررنگ کوچک تخصیص به این مجموعهها را نشان دهد. اجازه دهید $Val(\textbf{X})$ مقادیری باشد که مجموعه متغیرهای تصادفی می تواند بگیرد. در صفحه 21 کتاب کولر به صراحت می گوید که تقاطع ها با کاما از هم جدا می شوند، بنابراین عادلانه است که کاما را به معنای تقاطع فرض کنیم. این را می توان در صفحه 21 قدردانی کرد، جایی که می گوید: > به جای نوشتن $P((X=x) \cap (Y=y))$، $P(X=x، Y = y)$ یا فقط > $P(x,y)$. میدانم که این فقط در زمینه توزیعهای احتمال صریح است، با این حال، اگر توجه کنیم که چگونه ویژگی تجزیه را اثبات میکند، میتوانیم نتیجه بگیریم که کولر احتمالاً به معنای کاما به عنوان تقاطع در نماد گیجکننده $(\textbf{X} است. \perp \textbf{Y}، \textbf{W}\mid \textbf{Z})$ نیز. او اینگونه شروع می کند: > برای مثال، برای اثبات تجزیه فرض کنید که $(X \perp Y , W \mid Z)$ > برقرار است. سپس از تعریف استقلال شرطی داریم که > $P(X,Y,W|Z) = P(X|Z)P(Y,W|Z)$. اکنون با استفاده از... اثبات ادامه دارد... معادله: $$P(X,Y,W|Z) = P(X|Z)P(Y,W|Z)$$ به من مشکوک میکند که اسلایدها یکی هستند علامت گذاری اشتباه یا نامرتب است. یا هر دو شلخته هستند. من مطمئن نیستم.
|
نماد $(\textbf{X} \perp \textbf{Y} , \textbf{W}\mid \textbf{Z})$ به چه معناست؟
|
27004
|
ما اختلاف $\chi^2$ را به صورت $$T(y,\theta)=\sum_i\frac{(y_i-E(y_i|\theta))^2}{\mathrm{var}(y_i|\) تعریف می کنیم تتا)}$$ (تعریف از گلمن). اگر $\theta$ یک متغیر تصادفی باشد و نمونههایی از آن داشته باشیم (اما نه توزیع) چگونه این را اعمال کنیم؟
|
اختلاف بیزی $\chi^2$
|
78910
|
من دانشجوی کارشناسی ارشد هستم و به کمک شما نیاز دارم. من روی یک گروه از موشها آزمایش انجام دادم، گروه به مدت 8 روز آزمایش شدند، این مرحله اول است. از همان گروه نیز مجدداً آزمایش شد اما این بار مرحله آزمایش 7 روز بود. من سعی کردم تجزیه و تحلیل خود را با استفاده از اندازه گیری های مکرر ANOVA انجام دهم اما با روزها مشکل داشتم. من می خواهم تفاوت 2 تست را بدانم اما تعداد روزها یکسان نیست. من نمی دانم چگونه با آن رفتار کنم. اگر راهی برای انجام آنالیز با استفاده از اندازه گیری های مکرر ANOVA وجود دارد. من سعی کردم از ANOVA اندازه گیری های مکرر در اثر سوژه ها استفاده کنم. فاکتور اول من تست با 2 سطح خواهد بود (آزمون 1 و 2)، فاکتور دوم روز با سطح؟ مشکل اینجاست! اگر من 8 را بنویسم یک روز اضافی در آزمون 2 وجود دارد و تجزیه و تحلیل نمی تواند اجرا شود!
|
اندازه گیری های مکرر ANOVA با داده های نامتعادل
|
59203
|
اگر احتمالاً نمونهای بر اساس معیارهای انتخاب چندگانه خود انتخاب میشود، آیا منطقی است که نسبتهای Inverse Mill برای مدلهای انتخاب چندگانه در همان مدل OLS مرحله دوم لحاظ شود؟
|
دو مرحله هکمن: مدل های انتخاب چندگانه
|
74056
|
من از Tukey HSD (در R) برای یافتن ابزارهایی استفاده کردم که به طور قابل توجهی با یکدیگر متفاوت هستند، اما اکنون به این فکر می کنم که چگونه خطای نوع II را تخمین بزنم تا تصور کنم چقدر احتمال دارد که H0 نادرست برای جفت اشیا به اشتباه پذیرفته شود. که تفاوت قابل توجهی ندارند. من می خواهم از این برای توجیه نتیجه گیری در مورد تفاوت های موجود استفاده کنم. متأسفانه من نتوانستم اطلاعات مفیدی را در اینترنت پیدا کنم (شاید به این دلیل که کلمات کلیدی مناسب را نمی دانم). آیا راهی برای محاسبه خطای نوع II برای Tukey HSD وجود دارد؟ یا باید از رویکرد متفاوتی برای توجیه نتیجه گیری در مورد تفاوت های موجود استفاده کنم؟ امیدوارم کسی بتواند مرا به مسیر درست راهنمایی کند.
|
نحوه محاسبه خطای نوع II برای Tukey HSD
|
27001
|
من باید داده های شبیه سازی شده را برای یک رگرسیون لجستیک شرطی با استفاده از «R» تولید کنم. کدی که نوشتم درست به نظر می رسد، اما مشکلی وجود دارد. پس از تولید دادهها، نسخههای بتا و برچسبهایم، از «glm()» برای تخمین بتا استفاده میکنم. اگر همه چیز درست باشد، بتای تخمینی «glm» باید بسیار نزدیک به بتای واقعی باشد. با این حال، «glm()» نمی تواند همگرا شود. در زیر کد من است. آیا کسی می تواند به من اشاره کند که من چه اشتباهی انجام می دهم؟ با تشکر کتابخانه(بقا) # مقدار اولیه پارامترها k <- 5 n <- 10 g <- 20 p <- rep(0, n*g) y <- rep(0, n*g) # ایجاد نمایه گروه GI <- بردار (mode=numeric) for(group in 1:g){ GI <- c(GI, rep(group,n)) } # تولید داده بتا <- ماتریس(rnorm(k), ncol=1) x <- ماتریس(rnorm(n*g*k), ncol=k) # برچسب های واقعی را برای (گروه در 1:g) محاسبه کنید{ p[GI= =گروه] <- exp(x[GI==گروه،] %*% بتا) / مجموع( exp(x[GI==گروه،] %*% بتا)) y[n*(گروه-1)+which.max(p[GI==گروه])] <- 1} cl <- clogit(y ~x + لایه (GI))
|
شبیه سازی داده ها برای مدل طبقه بندی شده کاکس
|
55788
|
من با این سوال مواجه شدم:  و جواب را اینجا گرفتم:  با این حال، چیزی که من کاملاً متوجه نمیشوم این است که در وهله اول این دو شرط از سؤال چگونه به دست میآیند.
|
تفسیر شرایط احتمال از سوال
|
74050
|
من در تلاش برای درک تفاوت بین موارد زیر هستم: * انتشار انتظارات (EP) * ویکی پدیا بیز متغیر می گوید: > انتشار انتظارات با سایر رویکردهای تقریب بیزی متفاوت است > مانند روش های بیزی متغیر. چرا **EP** یک روش **Variational Bayes** در نظر گرفته نمی شود؟ آیا EP بیزی نیست و برای تقریب پسین به انتقال پیام متکی است؟ چه چیزی یک روش را Variational Bayes می سازد؟ همچنین در مورد روش های زیر چطور. آیا می توان آنها را Variational Bayes در نظر گرفت؟ * مجموع محصول * روش های میدان میانگین * تقریب های بته-کیکوچی
|
Variational Bayes در مقابل EP و سایر روشهای ارسال پیام
|
110513
|
من یک مجموعه داده کوچک 30 ویژگی / پیش بینی و 30 مشاهده دارم. متغیر هدف من تولید نفت است و پیشبینیکنندههای من خواص خوب و مخزن (عمق، مسیر، دما، فشار و غیره) هستند. روابط ممکن است غیر خطی باشند و بسیاری از ویژگی ها با یکدیگر مرتبط هستند. آیا می توانید لطفاً چند راه عالی برای حل این مشکل به من پیشنهاد دهید؟ هر کمکی بسیار قدردانی خواهد شد! با تشکر
|
الگوبرداری در یک مجموعه داده کوچک
|
104336
|
تخمینهای پارامتر احتمال حداکثر برای مدل خطی که در آن $\Pr(Y|X\beta) \sim \mathcal{N}(0,\sigma^2)$ عبارتند از: $$\hat{\beta} = (X' X)^{-1}X'Y$$ چگونه توان آماری تخمین پارامترها را محاسبه می کنید؟ به نظر می رسد که باید یک فرم بسته وجود داشته باشد، اما من جستجو کردم و هیچ جای دیگر آنلاین مدرکی پیدا نکردم.
|
قدرت تخمین پارامترهای حداکثر احتمال برای یک مدل خطی
|
59209
|
این یک سوال در مورد تمرینات 4.2 و 4.3 محاسبه بیزی با R جیم آلبرت است (ص 82). توجه داشته باشید که اگرچه ممکن است این تکلیف باشد، در مورد من اینطور نیست. ما باید ثابت کنیم که با توجه به دو توزیع نرمال مستقل «N(µ1, σ21)»، «N(µ2، σ22)» و «g(µ1, σ21، µ2، σ22)∝1/(σ21σ22)» توزیع خلفی حاصل به گونه ای است که بردارها (µ1، σ21)، (µ2، σ22) مستقل هستند. درک من به شرح زیر است. از آنجایی که توزیعها مستقل هستند، توزیع خلفی مشترک برابر است با توزیع «N(µ1، σ21)» ضربدر «N(µ2، σ22)» ضربدر توزیع قبلی «1/(σ21σ22)». توزیع پسین بدست آمده عبارت است از: $$g(µ_1,σ_1,µ_2,σ_2|y_1,y_2) ∝ \frac{1}{{σ^{2}_{1}}^{(\frac{N_1}{2}+1)}}exp(-\frac{1}{2σ_1^2}(\sum_{ i=1}^{N_1}(y_{1i}-\bar {y_1})^2+n_1(µ_1-\bar{y_1})^2)) * \frac{1}{{σ^{2}_{2}}^{(\frac{N_2}{2}+1)}}exp(-\frac{1}{2σ_2^2}(\sum_{ i=1}^{N_2}(y_{12}-\bar {y_2})^2+n_2(µ_2-\bar{y_2})^2))$$ اکنون دو بردار گفته می شود اگر توزیع مشترک با حاصلضرب توزیع های حاشیه ای برابر باشد، مستقل است. اما من چگالی خلفی را اینگونه طراحی کردم. اما پاسخ بردارهای (µ1، σ21)، (µ2، σ22) مستقل هستند زیرا در غیر این صورت توزیع پسین من اشتباه خواهد بود به نظر من کمی ناقص است. بنابراین ممکن است راه دیگری برای اثبات استقلال بردارها وجود داشته باشد. توزیع حاشیه ای یک متغیر پیوسته را می توان با ادغام روی توزیع مشترک [ویکی پدیا] به دست آورد. این برای حالت دو متغیره توضیح داده شده است. بنابراین توزیع حاشیه ای «(µ1,σ²1)» خواهد بود $$∫_{µ2,σ²2}g(µ_1,σ_1,µ_2,σ_2|y_1,y_2)dµ2σ²22$$، اما من نمی دانم چگونه آن انتگرال را محاسبه کنم. یا اینکه چگونه فرمول حالت دو متغیره را در حالت چند متغیره خود اعمال کنم با این واقعیت که فرمول g من مشروط به y1 و y2 پیچیده است. بنابراین سوال من این است: **آیا ادغام رویکرد صحیحی برای پاسخ به این سوال است؟** من در این مورد تردید دارم، زیرا ادغام به عنوان وسیله ای برای محاسبه توزیع حاشیه ای توسط جیم آلبرت در کتاب معرفی نشده است. در عوض، او خانوادهای از پیشینیان وابسته، یعنی پیشینیان هاوارد را توصیف میکند. آنها را می توان در مورد تجزیه و تحلیل نسبت ها استفاده کرد، نه در مورد میانگین و واریانس توزیع های نرمال (یا به نظر من). پیشینی هاوارد ممکن است هنوز برای این سوال خاص جالب باشد، زیرا ممکن است بررسی کنیم که چه ویژگی ریاضی قبلی هاوارد باعث وابستگی می شود. هوارد پیشنهاد میکند که نسبتها را به logits $$\theta_1 = log \frac{p_1}{1-p_1}،\theta_2 = log \frac{p_2}{1-p_2}$$ تبدیل کنید که چگالی قبلی را در یک جمله ضربی وارد میکنند. $$e^{-(1/2)u^2},u=\frac{1}{σ}(\theta_1-\theta_2)$$ بنابراین، آیا میتوانم این را بگویم به دلیل تفاوت (یا تابعی از آن) از متغیرهای تصادفی وارد معادلات می شود (اول توزیع قبلی، سپس توزیع پسین)، دیگر مستقل نیستند؟ و چگونه به من در پاسخ به سوال اصلی کمک می کند؟ سوالات مرتبط آیا نظریه من در مورد استقلال درست است؟ تفاوت بین توزیع حاشیه ای و شرطی چیست؟ آیا من حق دارم که فرض کنم توزیع حاشیه ای میانگین توزیع شرطی است، یعنی مشروط به همه متغیرهای دیگر؟
|
چگونه می توان استقلال توزیع های حاشیه ای/شرطی (؟) پسین را اثبات کرد؟
|
112040
|
من تعجب می کنم که رایج ترین راه برای رسیدگی به داده ها چیست که در آن یک شرکت کننده به چندین گروه تعلق دارد. برای مثال، اگر میخواهید رگرسیون خطی را اجرا کنید و ببینید که نوع رژیم غذایی خاص (IV/پیشبینیکننده) چگونه بر یک پیامد سلامتی خاص (متغیر DV/پاسخ) تأثیر میگذارد و چند شرکتکننده دارید که ترکیبی از 2 رژیم غذایی دارند. انواع (مثلاً مدیترانه ای و گیاهخواری) و شما در واقع می خواهید بدانید که نتایج مدیترانه ای با گیاهخواری چقدر متفاوت است، چگونه با این شرکت کنندگان رفتار می کنید؟ من میدانم که میتوانید گروه دیگری درست کنید که یک نوع رژیم غذایی ترکیبی باشد، اما اگر N خیلی کوچک برای آن دارید، نه. هر ورودی قدردانی می شود!
|
نحوه گروه بندی صحیح داده ها برای تجزیه و تحلیل
|
74055
|
من اخیراً نموداری ساخته ام که در آن نوارهای خطا را برای تعداد معینی از آزمایش نشان می دهم. به روشی دیگر، در الگوریتمم تابع هدف را کمینه میکنم، بنابراین انتظار دارم که با افزایش نمونهبرداری، مقدار کمتری از تابع هدف دریافت کنم. همانطور که در نمودار می بینید، مقدار دوم از سمت چپ، «2.5» در محور x، تنها 2.5 درصد از تنظیمات را شامل می شود، بنابراین ما انتظار نداریم که عملکرد آن به اندازه ای باشد که از 100 درصد استفاده می کنیم. تنظیمات من فکر می کنم که این به **عدم تقارن** توزیع ها مربوط می شود. آیا روشی وجود دارد که بتواند این مشکل را برطرف کند - به نام روشی برای محاسبه CI برای توزیع های نامتقارن ناشناخته؟  این مثال برای قابل فهم کردن این نمودار مفید است! %%%%%%%%%%%%%%%%%%%%% EDIT %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% نمونه برداری از هر تکرار متفاوت است) z = مقدار تابع هدف n = تعداد تنظیمات j = 1...n مثال: `n=1000`, `i=100` 1. مرحله 1. تمام تنظیمات «1000» را تجزیه و تحلیل کنید و حداقل «z_j» را محاسبه کنید. آن را ذخیره کنید و برای «i» تکرار کنید. سپس mu و sigma آن z_i را محاسبه کنید. گام 2. 50% از پیکربندی اولیه 1000 را تجزیه و تحلیل کنید و حداقل z_j را محاسبه کنید. ذخیره کنید و برای i تکرار کنید. سپس مو و سیگمای آن z_i را محاسبه کنید. 3. مرحله 3. 10% از 1000 اولیه را تجزیه و تحلیل کنید. 4. مرحله 4. 5% از 1000 اولیه را تجزیه و تحلیل کنید. %` از «1000» اولیه، بنابراین «mu_100»، «mu_50»، «mu_10» خواهیم داشت، «mu_5»، «mu_2.5» و «mu_1» و «sigma_100»، «sigma_50»،... اکنون میتوانم آن نوارهای خطا مانند «mu_100 + - 2 * sigma_100» را ایجاد کنم...
|
نوارهای خطا برای توزیع های ناشناخته
|
32584
|
من یک مجموعه داده شامل 13000 دانش آموز را تجزیه و تحلیل می کنم. دانش آموزان در مدارس/پایه ها دسته بندی می شوند. ICC (ضریب همبستگی درون کلاسی) نشان می دهد که دانش آموزان یک مدرسه همبستگی دارند. بنابراین، من باید این اثر خوشهبندی را در نظر بگیرم. یکی از راهها اجرای یک رگرسیون خطی و اجرای برآوردگر واریانس قوی در بالای آن برای محافظت در برابر تخمینهای مغرضانه است. **آیا می توانیم اثر خوشه بندی را با برآوردگر ساندویچ در نظر بگیریم؟**. من فکر می کنم ما نمی توانیم زیرا ماتریس epsilon^2 هنوز یک ماتریس مورب است. کاری که من فکر می کنم باید انجام دهیم این است که یک مدل GEE با ماتریس varcov قابل تعویض برای دانش آموزان یک مدرسه اجرا کنیم و سپس باید varcov قوی را در بالای مدل GEE اجرا کنیم. به هر حال، **با فرض اینکه برآوردگر ساندویچ به خودی خود میتواند اثر خوشهبندی مدرسه را توضیح دهد**، من دو مدل GEE مجزا یکی با ماتریس varcov قابل تعویض و دیگری با تخمینگر واریانس قوی (همچنین به عنوان Huber-White شناخته میشود) نصب کردهام. برآوردگر ساندویچ، یا برآوردگر واریانس تجربی). نکته این است که در هر دو مدل، من واریانس تخمینی یکسانی را برای هر متغیر کمکی دریافت میکنم، اما برآوردهای تبادلپذیر GEE من به تخمینهای بتا بسیار بزرگتری منجر میشود که از نظر آماری نیز معنادار هستند، در حالی که متغیرهای کمکی بتا مشابه در GEE با برآوردگر varcov قوی معنیدار نیستند. تعجب می کنم که چرا این اتفاق می افتد؟ من از SAS 9.3 برای تناسب با مدل خود استفاده می کنم (proc GENMOD): تبادل: موضوع تکراری = SCHIID/نوع = EXCH; برآوردگر تجربی: موضوع تکراری = SCHIID/ covb;
|
GEE با کوواریانس کاری قابل تعویض در مقابل فرض استقلال و استفاده از خطاهای استاندارد Huber-White؟
|
32581
|
تلاش برای محاسبه دستی مقادیر برازش شده از arima در R برای درک مدل. چیزی که میبینم این است که اگرچه هنوز محاسبه اولین مقادیر p را در یک مدل AR(p) یا MA(p) یاد نگرفتهام، حتی وقتی مقادیر برگرداندهشده از arima را میگیرم، به نظر نمیرسد که چند مقدار اولیه برازش شده مطابقت داشته باشند. من چه غلطی می کنم؟ R Code: install.packages(پیش بینی) library(forecast) wineindT<-window(wineind, start=c(1987,1), end=c(1994,8)) write.table(wineindT,clipboard, sep=\t) mod3<-Arima(wineindT,order=c(0,0,1)) mod3$coef write.table(mod3$coef,clipboard,sep=\t) write.table(forecast.Arima(mod3,1)$fitted,clipboard,sep=\t) forecast.Arima(mod3 ,1)$fitted mod3$residuals write.table(mod3$residuals,clipboard,sep=\t) در اینجا یک محاسبه اکسل وجود دارد: با توجه به اول باقیمانده (از arima) محاسبه من برای مقدار سری 2 و 3 خاموش است سپس صحیح است. 
|
محاسبه مدل MA در R
|
79723
|
برای تحلیل مقطعی، $R^2$ نشان دهنده کسری از تغییراتی است که توسط مدل توضیح داده شده است. من می دانم که یک رگرسیون پانل با جلوه های ثابت برای بهینه سازی برای بین $R^2$ طراحی شده است. با این حال، تفسیر آن چیست؟ تفسیر در داخل $R^2$ و کلی $R^2$ چیست (حتی اگر آنها برای بهینه سازی نشده اند، من فرض می کنم که هنوز هم معنایی دارند)؟ با تشکر
|
تفسیر $R^2$ در رگرسیون پانل اثرات ثابت
|
91980
|
اجازه دهید $X_1،\dots،X_n$ به طور یکسان باشد اما لازم نیست مستقل با تابع توزیع $F$ توزیع شود. من می خواهم به طور موثر F $ F $ را تخمین بزنم. اگر $X_1,\dots,X_n$ i.d. باشد، میتوانیم $F$ را با $\hat F_n(x)=\frac1n\sum_{i=1}^n1_{\\{X_i\le x\\ تخمین بزنیم }}$. $\hat F_n$ برای تخمین $F$ کارآمد است زیرا میتوانیم به راحتی بررسی کنیم که $var(\hat F_n)$ کوچکترین واریانس در بین همه برآوردگرهای بی طرف است. با این حال، از آنجایی که در مشکلم، i.i.d را ندارم. شرط، پس من باید چه کار کنم؟ هر گونه کمکی قدردانی خواهد شد.
|
تخمین تابع توزیع برای مشاهدات وابسته
|
73602
|
سوال کلی من این است: چرا به جای سایر روش های طبقه بندی از «bayesglm» استفاده می شود؟ توجه: 1. من فقط به پیش بینی علاقه دارم. 2. من حجم مناسبی از داده ها دارم (~ 100000 obs). من احساس می کنم که اندازه نمونه به اندازه کافی بزرگ است که پارامترهای یک رگرسیون لجستیک منظم به طور معمول توزیع می شوند (CLT). با مشخص کردن اولویتها چه چیزی به دست میآورم؟ تصور من این است که فقط برای یک مجموعه داده کوچک مهم است، اما من هیچ مدرک نظری یا کاربردی ندارم.
|
چرا از Bayesglm استفاده کنیم؟
|
9940
|
من متغیرهای تصادفی معمولی و مستقل $n$ دارم. در آزمایش من می خواهم به طور متوسط دقیقاً 3 متغیر تصادفی $X_i$ زیر آستانه $c$ بدست بیاورم. برای بدست آوردن آن، می توانم $c$ را با داشتن آن ویژگی به راحتی محاسبه کنم، زیرا میانگین تعداد $X_i$ که زیر آستانه $c$ هستند $n \Phi(c)$ است که $\Phi$ cdf از توزیع نرمال استاندارد بنابراین من $c = \Phi^{-1}(3/n)$ را در این مورد انتخاب میکنم. (که یک عدد منفی برای $n$ بزرگ است.) اما متأسفانه من از قبل ارزش دو متغیر تصادفی معمولی استاندارد دیگر $Y$ و $Z$ را میدانم که ممکن است به یکدیگر و به هر عدد از X_i$ دیگر بستگی داشته باشند. . بنابراین سوال من این است: اگر من بدانم که $Y$ و $Z$ زیر آستانه $c=\Phi^{-1}(3/n)$ هستند، آیا هنوز درست است که به طور متوسط حداکثر یک عدد ثابت از سایر متغیرهای تصادفی $X_i$ زیر آستانه $c$ هستند؟ بنابراین با دانستن اینکه $Y$ و $Z$ زیر آستانه هستند، نمیتوانند ناگهان بسیاری از متغیرهای تصادفی دیگر را نیز زیر آستانه قرار دهند. من تقریباً مطمئن هستم که آنها نمی توانند، اما نمی دانم چگونه آن را ثابت کنم. هر گونه راهنمایی استقبال می شود. یا کتاب هایی که فکر می کنید این ممکن است در آنها باشد.
|
تعداد کمی از متغیرهای تصادفی نمیتوانند بیش از حد روی دیگران مستقل $n$ تأثیر بگذارند؟
|
55124
|
من می دانم که مجموع دو (یا بیشتر) متغیرهای تصادفی توزیع شده عادی **نه** لزوماً نرمال است. من در مورد مورد خاصی که جمع زیر را دارم سؤالاتی دارم: برای c $\in \mathbb R$، c + N(0,a) است، جایی که من یک متغیر تصادفی معمولی با میانگین صفر و واریانس a به c اضافه می کنم. ، آیا مجموع به طور معمول توزیع می شود؟ همچنین، آیا این جمع با ترسیم متغیر تصادفی X نیز از توزیع عادی با میانگین و سپس اضافه کردن آن به N(0,a) مطابقت دارد؟ امیدوارم سوال واضح باشد، با تشکر
|
مجموع متغیرهای تصادفی توزیع شده نرمال
|
56478
|
من با آمار بسیار جدید هستم. من مقدار زیادی از داده های طول عمر (تأخیر در رسیدن از شروع آزمایش) از آزمایش های تکراری دارم. برخی از دادهها گم شدهاند، اما اساساً تاخیری بیشتر از زمان آزمایش را نشان میدهند (دادههای سانسور شده راست). من می خواهم این داده ها را تخمین بزنم. من میتوانم از زمان آزمایش برای هر داده از دست رفته استفاده کنم، اما میدانم که این بیش از اندازه داده خاص مفید نیست. من میدانم که استراتژیهای آماری برای تخمین با استفاده از توزیع مقادیر غیر از دست رفته، این واقعیت وجود دارد که دادههای از دست رفته سانسور شده است و نوعی معادله حداکثر احتمال برای یافتن پارامترهایی (دادههای گمشده) که بیشترین احتمال را دارند. با توجه به توزیع، داده های گم نشده را ارائه می دهد. با این حال، این بخش بزرگتری از کار من نیست، و من واقعاً به دنبال استفاده از نوعی ابزار هستم، نه کرانچ دستی بیپایان. یا... اگر یک الگوریتم شبه کد بسیار واضح موجود بود، میتوانم آن را به راحتی به C/C++ پورت کنم، زیرا دادههای اصلی در برنامه C++ من تولید میشوند. دادهها بعداً در اکسل بارگذاری میشوند و به طور متناوب به همان چیزی در اکسل دست مییابند که تقریباً به همان اندازه مفید است، اما نه کاملاً. هر گونه پیشنهادی قدردانی خواهد شد.
|
تخمین داده های سانسور شده درست
|
110519
|
لطفاً به من بگویید مفروضات واقعی آنوای دو طرفه چیست. من در جایی خواندم که این شبیه به رگرسیون چندگانه است، تنها فرض این است که باقیمانده ها باید به طور معمول با واریانس مساوی توزیع شوند. اما سپس یک جستجوی وب این فرض را به دست داد که آنوای دو طرفه، مانند همه آنوواها، فرض میکند که مشاهدات درون هر سلول به طور معمول توزیع شده و دارای واریانسهای مساوی هستند. من گیج شده ام. لطفا کمک کنید
|
مفروضات آنووا دو طرفه
|
32585
|
من سعی می کنم یک مدل انتخاب حالت (4 حالت: hov، ترانزیت، دوچرخه، پیاده روی) ایجاد کنم و در زیر دو رویکردی که استفاده می کنم وجود دارد. من در هر دو مشکل دارم * **رویکرد 1** انتخاب حالت به عنوان تابعی از قیمت (هزینه استفاده از حالت) قیمت: متغیر عمومی trans1: متغیر انتخاب (0،1) مجموعه داده: دستور کار : > mode.choice <- mlogit(trans1 ~ قیمت، کار) خطا: خطا در solve.default(H, g[! fixed]) : روال Lapack dgesv: system دقیقاً مفرد است P.S: برخلاف پستهای قبلی، من NA در مجموعه دادهام ندارم. * **رویکرد 2** انتخاب حالت به عنوان تابعی از قیمت و برخی متغیرهای خاص جایگزین «قیمت»: متغیر عمومی «trans1»: متغیر انتخاب (0،1) «hh1»، «hh2»، «hh3»: خاص جایگزین متغیرها مجموعه داده: `work` فرمان: > mode.choice <- mlogit(trans1 ~ price | hh1 + hh2 + hh3، کار) خطا: خطا در solve.default(H, g[!fixed]) : Lapack روتین dgesv: سیستم دقیقاً منحصر به فرد است من متغیرهای مختلفی را در هر دو رویکرد امتحان کرده ام اما مشکل تکینگی همچنان ادامه دارد.
|
مسائل تکینگی در مدل چندجمله ای با استفاده از R
|
20568
|
> **تکراری احتمالی:** > الگوریتم خوبی برای تخمین میانه یک مجموعه داده عظیم یک بار > چیست؟ تصور کنید یک مجموعه داده بزرگ و چند متغیره دارید که روی دیسک قرار دارد. آیا روش های شناخته شده ای برای محاسبه کارآمد میانه با حداقل تعداد عبور از داده ها وجود دارد؟ من یک نامزد برای واریانس/stddev به نام الگوریتم Welfod/Knutt پیدا کردم، اما در مورد میانه چطور؟ با تشکر
|
چگونه میانه را به روش آنلاین محاسبه کنیم؟
|
74057
|
من میخواهم دقت تستهای نرمال بودن را در اندازههای نمونه مختلف در R ارزیابی کنم (میدانم که تستهای نرمال بودن ممکن است گمراهکننده باشند). به عنوان مثال، برای نگاه کردن به آزمون Shapiro-Wilk، من شبیه سازی زیر را انجام می دهم (و همچنین نتایج را ترسیم می کنم) و انتظار دارم که با افزایش حجم نمونه، احتمال رد عدد تهی کاهش یابد: n <- 1000 pvalue_mat < - ماتریس (NA، ncol = 1، nrow = n) برای (i در 10:n){ x1 <- rnorm(i، mean = 0, sd = 1) pvalue_mat[i,] <- shapiro.test(x1)$p.value } plot(pvalue_mat) فکر من این است که با افزایش حجم نمونه، نرخ رد کمتری وجود داشته باشد. به نظر یکنواخت است فکر میکنم این را اشتباه متوجه شدهام - از هر فکری استقبال میشود.
|
ارزیابی قدرت تست نرمال بودن (در R)
|
35582
|
برای مشکلم گروهی از p شرکت کنندگان و s موضوع دارم. به من پیشنهاد شد که آزمون کاپا کوهن را بر روی ترکیب دو برای «p» و «s» محاسبه کنم، سپس «میانگین» را محاسبه کرده و با مقدار منحصر به فرد محاسبهشده کاپا فلیس برای همان مجموعه مقایسه کنم. سوال من این است که آیا محاسبه میانگین در آزمون کاپا کوهن صحیح است یا نه؟ به طور خاص، من از Kappa2 و کاپا Fleiss با پرچم تنظیم شده روی FALSE از بسته irr R استفاده می کنم. تنظیم پرچم روی false به این معنی است که از یک الگوریتم متغیر کاپا فلیس استفاده می شود تا زمانی که جمعیت p=2 s=2 داشته باشد، می توان آن را به کاپا کوهن کاهش داد.
|
آیا محاسبه میانگین آزمون کاپا 2 از ترکیبات 2 در برابر مقدار کاپا فلیس از نظر آماری صحیح و ایمن است؟
|
27005
|
یکی از کمک های متأخر ر.ع. فیشر فواصل امانت داری و استدلال های اصولی وفادار بود. با این حال، این رویکرد به اندازه استدلالهای متداول یا اصول بیزی محبوب نیست. استدلال امانی چیست و چرا پذیرفته نشده است؟
|
دلیل امانی چیست و چرا پذیرفته نشده است؟
|
102710
|
تا آنجا که من می دانم باید باشد، زیرا پشتیبانی پواسون مستقل از پارامتر لامبدا آن است. منفی هسین مورد انتظار برابر است با $\frac{n}{\hat{\lambda}}$، که در آن $\hat{\lambda}$ برآوردگر MLE است. بنابراین برابری ماتریس اطلاعات دلالت بر $E((\frac{\delta logL}{\delta \lambda})^2)|_{\lambda=\hat{\lambda}} = \frac{n}{\hat{\ lambda}}.$ اما مهم نیست که چگونه آن را بچرخانم، سمت چپ عبارت دوم همیشه برابر با صفر است. این بدیهی است زیرا برآوردگر MLE اجازه می دهد امتیاز ناپدید شود (طبق تعریف). من چه غلطی می کنم؟
|
آیا برابری ماتریس اطلاعات برای توزیع پواسون معتبر است؟
|
59204
|
من باید از MLE جریمه شده برای کارم در مورد رابطه بین فاصله و پیامدهای آن برای نتایج اقتصادی استفاده کنم. من مقالات نظری زیادی را خوانده ام اما هیچ برنامه/بسته ای برای انجام تحلیل پیدا نکردم. هرگونه کمکی در مورد نحوه استفاده از روش حداکثر احتمال جریمه شده برای رگرسیون های نوع OLS در Stata قدردانی خواهد شد.
|
آیا کسی می تواند بسته روش حداکثر احتمال جریمه شده را برای رگرسیون های نوع OLS در Stata پیشنهاد دهد؟
|
32580
|
در حین اجرای یک شبیه سازی در R، متوجه شدم که در برازش یک مدل خاص، R یک پیام هشدار می دهد، اما اگر به سادگی دسته بندی خط پایه را در متغیر پاسخ تغییر دهم، بدون شکایت همگرا می شود. نتایج تولید شده تفاوت قابل ملاحظه ای ندارند، به جز اینکه یک مقدار در ماتریس همبستگی اثر تصادفی تغییر می کند. من کنجکاو هستم که چرا این اتفاق میافتد، و آیا چیزی جالب در مورد مجموعه داده نشان میدهد (متغیر پاسخ دارای ارزش دودویی و متغیرهای توضیحی دارای ارزش پیوسته هستند). > library(lme4) > fit1.MS.eE <- glmer(label ~ zSpec * zF1 + zF2 + (1 + zSpec + zF1 + zF2 | part), data = MSall.eE, family = binomial()) پیام هشدار: در mer_finalize(ans): همگرایی مفرد (7) > MSall.eE$label <- relevel(MSall.eE$label، e) > fit1.MS.eE <- glmer(label ~ zSpec * zF1 + zF2 + (1 + zSpec + zF1 + zF2 | بخش)، داده = MSall.eE، خانواده = binomial()) >(بدون پیام هشدار) من مجموعه داده های اشاره شده در کد را برای افراد علاقه مند آپلود کرده ام.
|
همگرایی نسبت به انتخاب دسته پایه حساس است؟
|
73601
|
آیا می توانم p.d.f آمار سفارش (مثلاً دقیقه) را از مجموعه ای از متغیرهای تصادفی مستقل، اما بدون توزیع یکسان پیدا کنم؟ (p.d.f. تحلیلی سایر متغیرها در دسترس است)
|
آمار ترتیب متغیرهای تصادفی مستقل که به طور یکسان توزیع نشده اند
|
74054
|
من داده های زیر را برای 8 دونده در یک دوی 100 متر دارم: دونده 1 88 91 87 82 دونده 2 81 85 78 91 دونده 3 75 77 83 81 دونده 4 92 89 84 82 دونده 5 78 58 79 دونده 83 دونده 7 91 89 92 91 دونده 8 87 86 88 91 رتبهبندیها یک رتبهبندی عملکرد را نشان میدهند و معمولاً با میانگین ناشناخته و واریانس ناشناخته توزیع میشوند. هر دونده را می توان به عنوان یک زیر گروه با میانگین و واریانس در نظر گرفت. هر گونه راهنمایی بسیار قدردانی خواهد شد
|
سلسله مراتبی بیز عادی-عادی مدل
|
86623
|
من در حال انجام برخی تحقیقات مربوط به استفاده از داده های بیمار و کیفیت مراقبت هستم. من یک نمودار رگرسیون خطی بین اندازه قبض تلفن و جمعیت مشتری ایجاد می کنم. فرض کنید که فاصله این نمودار یک مقدار مثبت است، اما فاصله اطمینان 95٪ برای قطع (50-، +50) بود. * از آنجایی که قبض تلفن هرگز نمی تواند یک مقدار منفی باشد، چگونه حد پایین CI من 50- است؟ * آیا این نشان دهنده یک خطا در محاسبات من است؟ (من در این مورد تردید دارم، زیرا من یک مطالعه قدیمی انجام شده توسط متخصصان را دوباره ایجاد کرده ام.) * یا این رفتار قابل انتظار است؟
|
چرا حد پایین بازه اطمینان 95% پایین من منفی است؟
|
32586
|
فرض کنید مجموعه ای از مقاومت های R دارید که همه آنها با میانگین μ و واریانس σ توزیع شده اند. بخشی از مدار را با طرح زیر در نظر بگیرید: (r) || (r+r) || (r+r+r). مقاومت معادل هر قطعه r، 2r، و 3r است. سپس واریانس هر بخش $σ^2$، $2σ^2$، $3σ^2$ خواهد بود. واریانس مقاومت کل مدار چقدر است؟ پس از نمونه برداری از چندین میلیون نقطه، متوجه شدیم که واریانس تقریباً $.10286\sigma^2 $ است. چگونه از نظر تحلیلی به این نتیجه می رسیم؟ ویرایش: مقادیر مقاومت به طور معمول با مقداری مقاومت متوسط r و واریانس $σ^2$ در نظر گرفته شده است.
|
واریانس مقاومت ها به صورت موازی
|
74053
|
من دو مدل مختلف را بر روی یک داده قرار می دهم. در یک مدل، یک پارامتر آزاد برای سه شرایط آزمایشی مختلف وجود دارد. در یک مدل دیگر، من سه پارامتر آزاد را قرار دادم، یکی برای هر شرط. من این کار را برای 10 موضوع در یک مجموعه داده انجام می دهم. برای هر موضوع، مدل با پارامترهای آزاد کمتر، BIC بالاتری دارد. اما برای هر موضوع واحد، تفاوت در BIC تقریباً یکسان است (حدود 10). به نظر من این بسیار مشکوک است، زیرا مقادیر BIC خود از 30 تا 1000 متغیر است. من قبلا هرگز از BIC استفاده نکرده بودم و می خواهم بگویم که مدل با یک پارامتر آزاد بهتر است.
|
نحوه تفسیر BIC
|
62123
|
من میدانم که تابع فعالسازی (لجستیک) خطی در حدود 0 است. آیا این بدان معناست که یک شبکه عصبی باید بتواند یک GLM را با توجه به بایاس و وزنهای مناسب تقریبی کند؟ من در حال حاضر در R با یک مدل ساده `y~x1` بازی می کنم. GLM خارج از نمونه عملکرد خوبی دارد، اما nnet با 1 متغیر پنهان عملکرد ضعیفی دارد. چه چیزی را از دست داده ام؟
|
آیا یک شبکه عصبی (MLP) می تواند GLM را تقریبی کند؟
|
9942
|
در حالت تک بعدی، اگر $X$$\mathcal{N}(\mu,\sigma^2)$ باشد، آنگاه $Y =\alpha X + \beta $$\mathcal{N}(\alpha) است \mu + \بتا،\alpha^2\sigma^2)$. ما می توانیم این را با استفاده از تابع توزیع تجمعی $Y$ $F_Y(a) = P\\{Y \leq a\\} = P\\{\alpha X + \beta \leq a\\} = P ثابت کنیم. \\{X \leq (a-\beta)/\alpha\\}$. با جایگزینی $Y =\alpha X + \beta $ و تغییر متغیر، $F_Y(a) = \int_{-\infty}^{a} \frac{1}{\sqrt{2\pi}(\ alpha\sigma)} \exp \\{ \frac{-(v-(\alpha \mu + \beta))^2}{2(\alpha\sigma)^2}\\} dv $ از این رو $f_Y(v) = \frac{1}{\sqrt{2\pi}(\alpha\sigma)} \exp \\{ \frac{-(v-(\alpha \mu + \beta)) ^2}{2(\alpha\sigma)^2}\\} $ بنابراین $Y$ $\mathcal{N}(\alpha \mu + \beta, \alpha^2 \sigma^2)$ است. در حالت چند متغیره، اگر $X$ $\mathcal{N}(\mu,\Sigma)$ و $Y=\alpha X + \beta$ باشد، $Y \sim \mathcal{N}(\alpha \ mu + \بتا،\alpha^2\Sigma)$؟ اگر چنین است، چگونه آن را ثابت کنیم؟
|
آیا $Y=\alpha X + \beta$ برای چگالی گاوسی چند متغیره صادق است؟
|
56470
|
من خیلی تازه وارد R هستم. لطفاً به من کمک کنید تا از این سؤال ساده خلاص شوم. با تشکر در حال حاضر، من دو داده در مورد وزن افراد دارم. یکی از بیماران عادی و دیگری مربوط به بیمارانی است که بیماری خاصی دارند. فرض کنید: وزن_عادی <- c(170، 140، 122، 143، 156، 122، 189، 200، 201، 133، 155، .....) وزن_بیماری <- c(220، 145، 167،190 ، 130، 169، 100، 230، 210، 222، .....) حالا می توانم صدک را از 0.01 تا 0.99 وزن_نرمال محاسبه کنم. با این حال، چگونه باید از این نتایج صدک از بیمار عادی برای نقشه برداری به بیماران مبتلا به بیماری استفاده کنم؟ به عبارت دیگر، من می خواهم صدک این بیماران مبتلا به بیماری را بر اساس صدک بیماران عادی محاسبه کنم. لطفا اگر سوال من به اندازه کافی واضح نیست به من اطلاع دهید. قدر زمان و کمک خود را بدانید.
|
محاسبه صدک بر اساس جدول صدک شناخته شده
|
107911
|
من سعی می کنم رگرسیون لجستیک ترتیبی منظم شده را با «glmnet.cr()» روی 28 پیش بینی کننده، ترکیبی از پیوسته و مقوله ای اجرا کنم. در اینجا خطوط مربوطه کد آمده است: require(glmnetcr) attach(data) newyfac<-as.factor(newyfac) dim(data) y<-data$newyfac x<-data[,2:dim(data)[2] ] mGLMNETCR1<-glmnet.cr(x,y) «glm()» و «polr()» به خوبی اجرا می شوند (با یک فرمول، نه `(x,y)`) اما وقتی خط آخر را امتحان می کنم این پیغام خطا را دریافت می کنم: خطا در lognet(x, is.sparse, ix, jx, y, weights, offset, alpha , nobs, : NA/NaN/Inf در فراخوانی تابع خارجی (arg 5) علاوه بر این: پیام هشدار: در lognet(x, is.sparse, ix, jx, y، وزنها، آفست، آلفا، نوبها، NAهای معرفیشده با اجبار برای مرجع، با استفاده از «هد(داده)»، دادهها به این صورت است: newyfac VMONTH VDAYR AGE MINOR ARRTIME RESIDNCE SEX ETHUN RACEUN ARREMS PAYTYPER TEMPFYS PULSE. BPDIAS POPCT ONO2 GCS PAINSCALE SEEN72 DISCH7DA PASTVIS RFV1 RFV2 RFV3 EPISODE HOSPCODE 1 4 اکتبر دوشنبه 24 نادرست 0.432638889 محل سکونت خصوصی زن خالی خالی بدون Medicaid 99.0 64 18 999، شماره 99.0 64 18 999، درد درد، درد، دی... خالی خالی بازدید اولیه 1 2 3 اکتبر پنج شنبه 15 نادرست 0.854166667 اقامتگاه خصوصی زن خالی خالی خالی همه منابع پرداخت خالی هستند 100.0 120 28 138 93 92 No Blankasp 0 ) خالی خالی بازدید اولیه 1 3 3 اکتبر پنج شنبه 39 نادرست 0.486805556 اقامتگاه خصوصی زن خالی خالی بله مدیکر 97.0 98 14 138 88 93 بله خالی 8 نه خیر 0 ضعف عمومی کمردرد، درد، درد، دردناک، صدای ناخوشایند EC ، newyfac، ترتیبی با پنج سطح 1:5 است.
|
glmnetcr - خطا در R - رگرسیون لجستیک نسبت ادامه منظم
|
9948
|
من باید با استفاده از پنجره های متحرک، واریوگرام های متقاطع تصاویر را ایجاد کنم. برای آن من از معادله زیر استفاده می کنم: $$ \gamma_{jk}(h)=\frac{1}{2n(h)}\sum_{i=1}^{n(h)}\Big\\{\big[dn_j(x_i)-dn_j(x_i +h)\big]\cdot\big[dn_k(x_i)-dn_k(x_i+h)\big]\Big\\} $$ اولین part مخفف یک باند (j) و قسمت بعدی باند k است. برای نشان دادن با ماتریسهای نمونه، j = 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 k = 17 18 19 20 21 22 23 24 25 26 27 28 9 10 11 12 13 14 15 16 k = 17 18 19 20 21 22 23 24 25 26 2 2 23 24 25 26 27 20 20 I am 2 actual 213 7 پنجره هایی برای تصاویر ماهواره ای بزرگ همچنین مجبور شدم برای این کار از تصاویر واریوگرام تولید کنم. برای تولید واریوگرام ها باید فقط یک باند داده را در نظر می گرفتم. برای آن مورد من از «nlfilter» برای حرکت پنجره استفاده کردم و یک تابع برای انتخاب و محاسبه مقادیر ایجاد کردم. اما برای واریوگرام های متقاطع، من نمی توانم تصمیم بگیرم که از چه عملکردی استفاده کنم. برای این مورد، محاسبات به این صورت خواهد بود: > (1 - 2) (17 - 18) + (2 - 3) (18 - 19) و غیره.
|
واریوگرام متقاطع با یک پنجره متحرک
|
32052
|
من سعی می کنم نقاط بین آمار و جبر خطی / بهینه سازی را به هم وصل کنم. همانطور که می دانید مسائل حداقل مربعات جبر خطی و مسائل بهینه سازی هستند. اما آنها همچنین می توانند به آمار متصل شوند. سؤالات من این است: فرض کنید میخواهیم $b$هایی را پیدا کنیم که مجموع مربعهای $(y- Xb)$ را به حداقل میرسانند. این یک مشکل حداقل مربعات است. با این حال، ما همچنین می خواهیم اهمیت چنین $b$هایی را بدانیم. اینجاست که باید مسئله حداقل مربعات را به آمار وصل کنیم. سوال من این است: تحت چه شرایطی می توانیم این کار را انجام دهیم؟ ما می دانستیم که قضیه گاوس-مارکف ممکن است در اینجا نقش داشته باشد. اما قضیه گاوس- مارکوف چند شرط دارد. به طور خاص، اگر ما فقط به اهمیت $b$ اهمیت می دهیم، چه شرایط ضروری را باید رعایت کنیم تا آمار t$-stats منطقی باشد؟ برای واضح تر بودن، ما به آبی نیازی نداریم، فقط باید بتوانیم $t$-stats را اندازه گیری کنیم...
|
چه زمانی می توانیم یک لمس آماری به مسائل بهینه سازی حداقل مربعات اضافه کنیم؟
|
57783
|
تفاوت بین رابطه و تفاوت در زمینه آمار چیست - اگر یک متغیر اسمی و یک متغیر فاصله دارید، چه زمانی باید از یک همبستگی برای اندازهگیری رابطه استفاده کنید، نه از آزمون t یا ANOVA؟ من دنبال این معمولی نیستم که «سوال شما در مورد چیست - روابط یا تفاوتها» (اگرچه آشکارا از اهمیت آن قدردانی میکنم)، بلکه به دنبال این نیستم که برای تصمیمگیری در مورد دادهها یا ساختارهایی که باید بدانم چیست. اگر به عنوان مثال زن و مرد دارید و نمرات هوش آنها. آیا دلیلی آماری/مفهومی وجود دارد که چرا آزمون t در اینجا بهتر از همبستگی نقطه-دوسری است؟ این احتمالاً یک سؤال واضح است. با این حال، صادقانه بگویم، من احساس نمیکنم که هرگز واقعاً این تمایز را درک نکردهام، بنابراین شاید برخی از شما بتوانید آن را برای من بیان کنید؟
|
تفاوت بین روابط و تفاوت (به ویژه در زمینه تفاوت های گروهی در یک ویژگی عددی) چیست؟
|
32057
|
آیا اهمیت متغیر randomForest در بین متغیرهای مشابه در تاریخ های مختلف قابل مقایسه است؟ من یک آرایه داده X دارم که اندازه آن $T\times N\ بار K$ است، که در آن $T=1500$، $N=1500$ و $K=10$ است. از نظر فیزیکی، اولین شاخص $1,2,\ldots,T$ بیانگر روز است، در حالی که دومین شاخص $1,2,\ldots,N$ نشان دهنده مکان ها و شاخص سوم $1,2,\ldots,K$ نشان دهنده K $ است. $ ویژگی ها/متغیرهای اندازه گیری شده در هر مکان در هر روز. متغیر وابسته یک آرایه دیگر $Y$ است که اندازه آن $T\ برابر N$ است. اکنون «randomForest» را در هر تاریخ اجرا میکنم: library(randomForest) importantValues=matrix(0, T, 10) for (i در 1:T) { y=Y[i, ] x1=X[i, ,1] x2 =X[i،،2] x3=X[i،، 3] x4=X[i،، 4] x5=X[i،، 5] x6=X[i, ,6] x7=X[i, ,7] x8=X[i, ,8] x9=X[i, ,9] x10=X[i, ,10] rf=randomForest(y ~x1+x2+x3+x4+x5+x6+x7+x8+x9+x10، اهمیت=T، na.action=na.omit) importantValues[i, ]=rf$importance[, 2] } همانطور که می بینید، من می توانم مقادیر اهمیت متغیر را در بین تاریخ ها به دست بیاورم: به عنوان مثال، در آخرین تاریخ بالا، داریم: > rf$importance %IncMSE IncNodePurity x1 311.0803 1113618.9 x2 4627.7532 3415010.7 x3 8527.4607 4916842.7 x4 3507.1872 2919601.3 x5 2982.0577 2907352.5 x6 5673.6522 5247811.5 x7 3823.718 x7 3823.647 135.2311 248212.5 x9 1759.8080 2334093.9 x10 852.3294 1562279.1 سؤالات من این است: 1. کدام یک مفیدتر است؟ (IncMSE یا IncNodePurity؟) 2. چگونه می توانم به یک غیر داده امین توضیح دهم که IncNodePurity چیست؟ 3. واحد ستون IncNodePurity چیست؟ و آیا می توانم این اعداد را در تاریخ مقایسه کنم؟ 4. یک تاریخ، به عنوان مثال. 18/9/2008، اکثر اعداد IncNodePurity بسیار بزرگتر از اعداد تاریخ دیگری هستند، به عنوان مثال. 6/1/2012. در مورد مجموعه داده ها در این دو تاریخ مختلف چه می توانم بگویم؟ (آنها مشاهدات متفاوتی برای متغیرهای مشابه در تاریخ های مختلف هستند) متشکرم!
|
آیا مقادیر اهمیت متغیر تصادفی Forest در بین متغیرهای مشابه در تاریخ های مختلف قابل مقایسه هستند؟
|
32582
|
من در ابتدا این سوال را ارسال کردم و از آن زمان به بعد من یک سوال شاخه ای خاص تر را پست کردم. من توصیه هایی را که در پاسخ به سؤالاتم دریافت کردم، دنبال کردم و تجزیه و تحلیل های آماری انجام دادم. اکنون برای تجزیه و تحلیل نتایج و تعیین حرکت بعدی خود به کمک نیاز دارم. در اینجا توضیح اصلی من از این وضعیت است: > داده های من فهرستی از سوابق است که هر یک نشان دهنده یک سمینار آموزشی > رویداد است. من یک متغیر پیوسته دارم که نشان دهنده درآمد حاصل از هر سمینار است که متغیر پاسخ در رگرسیون من است. من همچنین تعدادی متغیر طبقه بندی دارم که به عنوان فاکتور/IV عمل می کنند. برای اضافه کردن جزئیات بیشتر، این عوامل شامل مواردی مانند روز هفته ای که سمینار برگزار شد، موضوع، سخنران و غیره است. هدف اصلی من ساختن مدلی است که الف) بتواند به توضیح اینکه چه عواملی بیشتر بر درآمد و _چگونه_ تاثیر می گذارد کمک کند. و ب) مقداری قدرت پیش بینی دارد. من یک رگرسیون چندگانه در R انجام دادم، اما با تاسف من، مقدار R^2$ تنظیم شده فقط 0.2188 بود. من می دانم که این به این معنی نیست که عوامل اصلاً قدرت پیش بینی ندارند، اما من از اتخاذ تصمیمات استراتژیک مهم بر اساس چنین مدلی که مناسب نیست محتاط هستم - آیا درست است که چنین احساسی داشته باشم؟ من همچنین یک آزمایش ANOVA را انجام دادم و به نظر میرسید که برخی عوامل مهمتر از سایرین برچسبگذاری شدهاند. سؤالات من این است: 1. با توجه به تناسب ضعیف مدلم چگونه باید اقدام کنم؟ آیا ممکن است داده ها به سادگی مفید نباشند و یا شانس تصادفی یا عواملی که من در نظر نگرفته ام در اینجا نقش دارند؟ 2. اگرچه ANOVA به من میگوید کدام عوامل مهم به نظر میرسند، اما هیچ ایدهای از **چگونگی** اهمیت آنها به من نمیدهد. چگونه می توانم تعیین کنم که هر عامل مهم از نقطه نظر عملی چه تأثیری دارد؟ 3. آیا آزمون دیگری وجود دارد که به من کمک کند تا بفهمم همه این متغیرها چگونه به هم مرتبط هستند؟ به خاطر داشته باشید که من تازه وارد R هستم و در روش های آماری زنگ زده هستم (چند سال پیش یک دوره مقدماتی را گذراندم).
|
تفسیر یک مدل ضعیف از آنجا
|
14838
|
آیا کسی می تواند به من به زبان انگلیسی ساده توضیح دهد که چرا میانگین و میانه نقش مهمی در داده کاوی دارند. در واقع یافتن میانگین و میانه چه فایده ای دارد؟ و بسیاری از مردم می گویند که میانگین در مواقعی بهتر از متوسط است، چرا چنین است؟ و من در داده کاوی مبتدی هستم، بنابراین اگر پاسخ به زبان ساده باشد، واقعا خوب خواهد بود. پیشاپیش ممنون
|
میانگین و میانه چگونه در داده کاوی نقش مهمی دارند؟
|
107912
|
من مطمئن بودم که اینها یکسان هستند، اما با خواندن تابع احتمال جرم تفاوتی را دریافت نمی کنم > فرض کنید $X: S → A (A \subseteq R)$ یک متغیر تصادفی گسسته است > در فضای نمونه S تعریف شده است. سپس تابع جرم احتمال $f_X: A → > [0, 1]$ برای X به صورت > > $f_X(x) = \Pr(X = x) = تعریف می شود. \Pr(\\{s \in S: X(s) = x\\})$$ > > فکر کردن به احتمال به عنوان جرم به جلوگیری از اشتباه کمک می کند زیرا جرم > فیزیکی به عنوان احتمال کل برای همه نتایج فرضی حفظ می شود. > ''x'': $\sum_{x\in A} f_X(x) = 1$ خوب، من فقط این را نمیفهمم > فضای نمونه آزمایش مجموعهای از تمام نتایج ممکن است از > مجموعه نمونه آزمایشی، مجموعه نمونهها همان مجموعه نتایج است، بنابراین میتوانیم آن را مجموعه نتیجه نیز بنامیم. من متوجه نمی شوم که چرا باید آن را با دو حرف مختلف A و S در بالا نشان داد، اگر اینها چیزهای یکسانی هستند و چرا تابع نمونه ها را به نتایج نگاشت می کند اگر یک چیز است؟ آیا نتیجه مقدار نمونه است؟ پس ارزش نمونه چقدر است؟ توابع مقادیر را به مقادیر نگاشت می کنند. من به یک مقدار (نمونه) نیاز دارم تا تابع (متغیر تصادفی با نام مستعار) بتواند مقدار نتیجه را تولید کند. * * * **ویرایش1** می خواهم از کسی که شروع به تشریح سوال من کرد تشکر کنم. با این حال پاسخ داده نمی شود. من نمی توانم آن را بپذیرم مگر اینکه موارد زیر حل شود. من متوجه نشدم که چگونه رویدادها/مشاهدات با نمونه ها/نتایج متفاوت است. همچنین، میبینم که شما نمونهها را با _هر نوع_ شناسایی میکنید، در حالی که نتایج، مقادیر هستند (شما میخواستید به جای آن نوع _num_ بگویید، زیرا _هر نوع_ نیز مقادیر و متغیرهایی دارد). ما، برنامه نویسان، توابع را بر اساس آرگومان ها/متغیرها می نویسیم. برای خوانایی و قابلیت اطمینان، هر متغیر را به نوعی محدود می کنیم. مقادیر / آرگومان ها مکان هایی هستند که مقادیر مشخصی را در حین تحقق در زمان اجرا می گیرند. انواع به سادگی دامنه متغیرها را محدود می کنند (انواع دامنه ها / مجموعه مقادیر موجود برای آن متغیر / آرگومان هستند). من فکر میکنم که در ریاضیات کاملاً یکسان است، وقتی تابعی مانند $f را تعریف میکنید، فقط نام متغیر را نادیده میگیرید: Int \rightarrow Real$. بنابراین، منظور شما از هر چیزی مقدار هر نوع، نه لزوما عددی است. با این حال، مشخص نیست که هدف از معرفی دامنه S (معروف به جداسازی نمونه ها و نتایج) چیست. سر/دم را می گیرید و به عدد تبدیل می کنید. چرا فوراً از اعداد واقعی نمونه برداری نکنیم (S را با A شناسایی کنیم، چرا heads/tails، چگونه معرفی S درک ما از تابع احتمال جرم را بهبود می بخشد) یا چرا زنجیره تبدیل را طولانی تر نکنیم، به عنوان مثال، $S_{interm}$ را معرفی کنیم. به طوری که می توانید نمونه برداری کنید و از یک سری متغیرهای تصادفی برای تبدیل نمونه به A استفاده کنید، به عنوان مثال. $S \xrightarrow {randomvar_1} S_{interm} \xrightarrow {randomvar_2} A$? چرا نگوییم که فوراً 3 سکه و 1 سکه و نمونه A={1,10} دارم؟ چرا در عوض با سر/دم بازی کنید؟ همچنین مشخص نیست که چرا متغیرهای تصادفی در مرحله S -> A به جای نمونه گیری برای بدست آوردن مقادیر S ظاهر می شوند؟ آیا به این معنی است که تولید سر/دم قطعی است در حالی که نگاشت آنها به دامنه واقعی، {1،10}، تصادفی است؟ بازگشت به نمونه=نتیجه. من می بینم که ویکی پدیا به طور مشابه می گوید > یک متغیر تصادفی یک تابع با ارزش واقعی است که بر روی مجموعه ای از نتایج ممکن تعریف شده است، فضای نمونه Ω. بنابراین، اگر نتایج به جای دامنه متغیرهای تصادفی، دامنه باشند، چگونه میشود که متغیر تصادفی نمونهها را به نتایج نگاشت؟ من فکر می کنم که این همه سردرگمی شایسته توضیح است.
|
تفاوت بین نمونه و نتیجه چیست؟ (به علاوه رویدادها و مشاهدات)
|
25712
|
من در حال ساخت یک مدل طبقه بندی (نتیجه دودویی) هستم و می خواهم یک کد عضویت در خوشه خارجی را به عنوان یک پیش بینی اضافه کنم. برای آموزش مدل، این کار مستقیم است. هنگام امتیاز داده های جدید با مدل، کمتر است. * اگر خوشهبندی k-means بود و از فاصله اقلیدسی استفاده میکرد، تخصیص دادههای جدید به نزدیکترین خوشه آن (مرکز) آسان خواهد بود. * **اما، وقتی از ماتریس فاصله به عنوان ورودی الگوریتم خوشهبندی استفاده میکنید، چگونه این کار را انجام میدهید؟** توجه: هنگامی که مدل طبقهبندی ساخته شد، برچسبگذاری و معنای خوشهها باید ثابت بماند. سوال کلی است، اما شاید سختتر از این باشد که من به خوشهبندی دادههای سری زمانی نگاه میکنم (با استفاده از بسته «dtw» با «hclust») - بنابراین به نظر میرسد یک راهحل ممکن برای سؤال عمومی (یعنی استفاده از یک پیشبینیکننده) باشد. مدل برای نگاشت داده های جدید به انتساب های خوشه ای موجود) امکان پذیر نیست. تجربه ای در این مورد دارید؟
|
تخصیص مشاهدات جدید به خوشه های موجود ساخته شده از ماتریس فاصله
|
61264
|
من روی یک مشکل طبقه بندی کار می کنم و پایه F1 بسیار بالایی دارم 85%. من سه مدل طبقه بندی را آموزش داده ام و می خواهم بدانم کدام یک بهترین است. چگونه می توانم این کار را انجام دهم؟ من دو راه را امتحان کردم: 1. برای مقایسه هر مدل با خط پایه با استفاده از آزمون t زوجی. بنابراین من تست هایی مانند: * خط پایه در مقابل مدل 1 * خط مبنا در مقابل مدل 2 * خط مبنا در مقابل مدل 3 دارم که به من می گوید که فقط مدل 1 به طور قابل توجهی بالاتر از خط پایه است و بنابراین به این نتیجه رسیدم که مدل 1 بهترین است. آیا با توجه به اینکه معمولاً مدلهای طبقهبندی با خطوط پایه مقایسه میشوند، این یک روش معتبر است؟ 2. برای مقایسه همه مدل ها به صورت یکباره با ANOVA یک طرفه. بنابراین من اطلاعات مدل های 1-3 و خط مبنا را وارد کردم که به من مقدار p 0.02 نشان داد که تفاوت در میانگین ها وجود دارد. با این حال، با تستهای تعقیبی دوتایی، هیچیک از جفتها معنیدار نیست. **کدام روش صحیح است؟**
|
آزمون های تی چندگانه در مقابل ANOVA یک طرفه
|
78923
|
می خواستم بدانم که آیا استقلال صورت و مخرج در آماره ANOVA F به استقلال مشاهدات مربوط می شود و چگونه؟
|
استقلال صورت و مخرج متصل به استقلال obs؟
|
32056
|
فرض کنید $ \textbf{Y} = (Y_1، \dots، Y_n)'$ مستقل هستند و $$\eqalign{Y_i = 0 & \text{با احتمال} \ p_i+(1-p_i)e^{-\lambda_i} \\\ Y_i = k & \text{با احتمال} \ (1-p_i)e^{-\lambda_i} \lambda_{i}^{k}/k! }$$ همچنین فرض کنید که پارامترهای $\mathbf{\lambda} = (\lambda_1, \dots, \lambda_n)'$ و $\textbf{p} = (p_1, \dots, p_n)$ $$\equalign{ \log(\mathbf{\lambda}) &= \textbf{B} \بتا \\\ \text{logit}(\textbf{p}) &= \log(\textbf{p}/(1-\textbf{p})) = \textbf{G} \mathbf{\lambda}. }$$ اگر همان متغیرهای کمکی روی $\mathbf{\lambda}$ و $\textbf{p}$ تأثیر میگذارند، به طوری که $\textbf{B} = \textbf{G}$، پس چرا رگرسیون پواسون متورم صفر دو برابر نیاز دارد. بسیاری از پارامترها به عنوان رگرسیون پواسون؟
|
رگرسیون پواسون با تورم صفر
|
57780
|
من در حال پسرفت روی متغیری هستم که نسبت آن با متغیر دیگری به خودی خود معنادار است. هر دو نیز کاملاً منحرف هستند، بنابراین من میخواهم نسبت را ثبت کنم تا $Y = \beta_0+\beta_1 X_1 ...+\beta\log(\frac{X}{Y})$ داشته باشم. خوب است که یک ضریب معنی دار داشته باشیم، اما مگر اینکه اشتباه کنم، به نظر نمی رسد راهی برای انجام این کار وجود داشته باشد. من بیشتر نگران این هستم که آیا می توانم از این به عنوان یک متغیر کنترل استفاده کنم. حتی اگر به طور خطی به متغیر وابسته وابسته نیست و دارای مؤلفه دیگری است که باید تخمین زده شود، آیا این باعث ایجاد مشکل در رگرسیون می شود؟
|
استفاده از متغیر وابسته به عنوان بخشی از متغیر کنترل؟
|
107917
|
من در حال انجام تحقیقات زیادی در مورد اینکه کدام آزمون را باید بر روی داده های مقیاس لیکرت خود استفاده کنم، انجام داده ام و بیشتر گیج می شوم زیرا افراد زیادی چیزهای مختلفی می گویند. من در حال حاضر در حال انجام پایان نامه خود هستم در مورد اینکه موسیقی تا چه حد بر پرخاشگری در حین انجام بازی های ویدیویی خشن و بدون خشونت تأثیر می گذارد؟ من از سه روش مختلف برای جمعآوری دادهها از 30 شرکتکننده استفاده کردهام: 1. مقیاس پرخاشگری قبل و بعد از بازیهای ویدیویی خشونتآمیز و غیرخشونتآمیز برای اندازهگیری تغییرات پرخاشگری در حین گوش دادن به ژانرهای مختلف موسیقی. 2. وظایف تکمیل داستان. که به شرکتکننده سناریو میدهد و ده پاسخ میخواهد، یعنی عصبانی میشوم، راننده را میزنم و غیره بعد از بازی خشن و خشن. بازی های ویدیویی بدون خشونت 3. پرسشنامه ای برای مشاهده نظرات مردم در مورد خشونت در بازی های ویدیویی با استفاده از مقیاس لیکرت (مقیاس 5 امتیازی کاملاً موافقم - کاملاً مخالفم) و همچنین سؤالات پایان باز در مورد ترجیحات موسیقی و غیره. قبلاً تکمیل کرده ام. تجزیه و تحلیل من برای مقیاس های پرخاشگری (1) اما من کاملاً درگیر این هستم که هنگام تلاش برای جمع آوری داده ها از مقیاس لیکرت خود، کدام آزمون را انتخاب کنم. پرسشها از این قرار بود: * بازیهای ویدیویی بیش از حد خشونتآمیز میشوند * خشونت در بازیهای ویدیویی، افراد را تحت تأثیر قرار میدهد تا پرخاشگرتر شوند * بازیهای ویدیویی غیر اجتماعی هستند * بازیهای ویدیویی رفتار پرخاشگرانه افراد را آموزش میدهند و تشویق میکنند. * بازیهای ویدیویی افراد را تشویق میکنند تا در موقعیتهای زندگی واقعی پرخاشگرتر باشند و سپس در مقیاس کاملاً موافقم، موافقم، نه موافقم و نه مخالف، مخالف و کاملاً مخالف برای همه اظهارات (13 همه با هم). میخواهم بدانم که آیا مردم معتقدند بازیها باعث خشونت در زندگی واقعی میشوند یا فکر میکنند بازیها خیلی خشن هستند. پیشاپیش ممنون :)
|
کدام آزمون را برای انجام داده های مقیاس لیکرت انتخاب کنم؟
|
55872
|
من یک موضوع جدید را شروع می کنم تا یک سوال خاص بپرسم که پس از خواندن این موضوع قدیمی و خوب برای من باقی مانده است: آیا همه اصطلاحات تعاملات به اصطلاحات جداگانه خود در مدل رگرسیونی نیاز دارند؟ اصل مسئله این است: شخص با یک مدل پیچیده با انگیزه نظریه شروع می کند. کسی میخواهد آن را سادهسازی کند - عملاً چند خطی بودن را کاهش دهد و بهطور استنتاجی بتواند استنتاج بهتری بر روی شرایط مدل انجام دهد. توصیه استاندارد -- که به خوبی در رشته پیوندی بیان شده است -- این است که به طور کلی حذف اثرات اصلی اثرات متقابل ایده بدی است، حتی زمانی که AIC بهبود یابد. این به این دلیل است که مدل حاصل دیگر نسبت به تغییر مکان در متغیرها ثابت نیست. روی _موقعیت_ تاکید می کنم. اما اکنون بگویید که در حال برازش مدلی هستید که در آن همه متغیرهای سمت راست دارای معانی واقعی در دنیای فیزیکی هستند. برای مثال، pH یک ماده یا دما را بر حسب کلوین در نظر می گیریم. این چیزها را نمی توان بدون تغییر معنایشان به صورت مکانی جابجا کرد. آنها را می توان به صورت ضربی در سیستم های مختلف (به عنوان مثال: اینچ تا سانتی متر) مقیاس کرد - اما مقیاس بندی ضربی نباید بر استنتاج به روش هایی که در رشته پیوند داده شده است تأثیر بگذارد. بهعلاوه، هر نوع مقیاسبندی افزایشی اساساً معنای آنها را تغییر میدهد - ما دیگر درباره تأثیر مطلق یک چیز واقعی صحبت نمیکنیم، بلکه بیشتر درباره تأثیر نسبت به چیز دیگری صحبت میکنیم. در زمینه خود، تعداد زیادی تعامل دارم، و در مورد اینکه آیا بسیاری از متغیرها باید به یک اثر سطح منجر شوند یا به سادگی شیب پاسخهایی را که توسط متغیرهای دیگر هدایت میشوند، تعدیل میکنند، نادان هستم. به عنوان مثال، من نمی دانم که آیا دما تأثیر خاص خود را بر پدیده مورد نظر دارد یا اینکه صرفاً بر پاسخ به تغییر pH تأثیر می گذارد. بنابراین من فکر نمی کنم که در ایجاد یک مدل قابل تفسیر و قابل قبول مرتکب خطاهای جدی هستم. اگر کسی بتواند منطق من را در اینجا تأیید کند، یا به ایراداتی که ممکن است در کمین است اشاره کند، ممنون می شوم.
|
انتخاب جلوههای اصلی زمانی که عدم تغییر در مقیاس مکان مشکلی نیست(؟)
|
69134
|
واضح است که حاصلضرب متغیرهای توزیع شده نرمال توزیع شده نرمال نیست. به عنوان مثال، اگر $X \sim N( \mu_1,\sigma_1^2)$, $Y \sim N( \mu_2,\sigma_2^2)$، آنگاه $XY$ توزیع $N( \ را ندارد mu_1 \mu_2,\mu_1^2 \sigma_1^2+\mu_2^2\sigma_1^2)$. به من گفته شده است که حتی اگر توزیع $XY$ توزیع نرمال نباشد، توزیع $XY$ نزدیک به توزیع نرمال است، وقتی $\mu_1$ و $\mu_2$ چندان کوچک نیستند، $\sigma_1$ و $\sigma_2$ چندان بزرگ نیستند. آیا حقیقت دارد؟ کد R زیر را امتحان کنید: n1<-rnorm(10000,0,.005) n2<-rnorm(10000,0,.005) n<-n1*n2 d<-density(n) نمودار(d,lwd=2) x<-par('usr') dn<-dnorm(d$x,mean=mean(n),sd=sd(n)) x<-seq(x[1],x[2],length.out=length(dn)) خطوط(x ,dn,col=2,lwd=2) legend('topright',legend=c('Estimated density','Normal توزیع'),lwd=2,lty=c(1,1),col=c(1,2))  به نظر می رسد تنها زمانی که دو شرط هر دو برآورده شوند، توزیع تقریباً نرمال است. آیا تحلیل نظری وجود دارد؟
|
چه زمانی توزیع حاصلضرب دو متغیر توزیع شده نرمال نزدیک به توزیع نرمال است؟
|
56782
|
فرض کنید می خواهید فرضیه صفر را آزمایش کنید: H0: p1 = 0.65، p2 = 0.27، p3 = 0.01، p4 = 0.05، p5 = 0.02 برای تعیین اینکه آیا توزیع جمعیت با نسبت های پیشنهادی مطابقت دارد یا خیر. شما یک نمونه تصادفی از 100 نفر به دست می آورید. اگر فرضیه صفر درست بود، مقدار مورد انتظار آماره آزمون چقدر است؟ مطمئن نیستم که از نظر مفهومی/شهودی درک کنم که مربع کای چگونه کار می کند. آیا کسی می تواند توضیح دهد که چرا پاسخ اینجا 4 است؟ اگر فرضیه صفر درست باشد، جامعه دارای نسبت هایی برابر با 0.65، 0.27، 0.01، و غیره است. پس این چه چیزی را از آمار آزمون به ما می گوید؟
|
تست همگنی مجذور کای
|
35585
|
من می خواهم یک توزیع موضوعی برای یک سند ایجاد کنم. مدل فعلی که میخواهم پیادهسازی کنم این است: برای هر جمله در سند، یک تکلیف موضوعی با یک امتیاز دریافت میکنم، به عنوان مثال. جمله اول درباره مایکروسافت با امتیاز مرتبط 0.4 است. این را برای هر جمله تکرار می کنم و در پایان امتیازهای مرتبط با موضوعات زیر را دارم: > جمله اول: مایکروسافت، نمره 0.4 > > جمله دوم: سیب، امتیاز: 0.1 > > جمله سوم: اندروید، امتیاز: 0.5 > > ... اکنون، من می خواهم این امتیازها را به 1 توزیع احتمال بزرگ تبدیل کنم که کل سند را نشان می دهد. آیا تکنیک شناخته شده ای برای این کار وجود دارد؟ اگر چنین است، بهترین راه برای انجام این کار چیست؟ توجه: من میدانم که این یک مدلسازی موضوعی بسیار سادهلوحانه است، اما در حال حاضر علاقهمندم که نمرات را به صورت prob ترکیب کنم. توزیع ها
|
چگونه چندین امتیاز رتبه بندی را به توزیع احتمال تبدیل کنیم؟
|
32059
|
یک میله اندازه گیری طول $u$ (برای واحد) و یک جسم بلند دارای طول $x$ است. فرض کنید $u$ سرتاسر $i$ و $x$ سرتاسر $j$ بار گذاشته شده است. ما می خواهیم مشاهده کنیم که آیا $iu\ \left\\{\begin{array}{c} < \\\ = \\\ > \end{array}\right\\}\ jx$. اما برای هر تکرار $u$ و $x$ یک خطای تصادفی وجود دارد --- مثلاً مشاهده می کنیم که آیا $$iu + \varepsilon_1+\cdots+\varepsilon_i\ \left\\{\begin{array}{c} < \\\ > \end{آرایه}\right\\}\ jx+\delta_1+\cdots+\delta_j$$ برای $i=1،\ldots،I$ و $j=1،\ldots،J$، که در آن $\varepsilon$s مستقل هستند و $\sim N(0,\sigma^2)$ و $\delta $ مستقل از یکدیگر و از $\varepsilon$s و $\sim N(0,\tau^2)$ هستند. بنابراین، ما مشاهدات $IJ$، هر دودویی، برابر با $<$ یا $>$ داریم (اگر دوست دارید آنها را با $0$s و $1$s رمزگذاری کنید). **در مورد استنتاج آماری در مورد نسبت $x/u$ در این مسئله چه چیزهایی شناخته شده است؟** مواردی مانند MLE برای $x/u$ یا MLEs برای $\sigma$ و $\tau$، یا فواصل اطمینان برای $x/u$ و غیره. برای مقادیر بزرگ $I$ و $J$، ممکن است بتوان مواردی مانند غیرعادی بودن توزیعهای $\delta$ و $\varepsilon$؟
|
اندازه گیری طول اولیه
|
55874
|
من نزدیک به یک میلیون مجموعه داده دارم و هر زمان که آزمون مقایسه میانگین را اجرا می کنم، چه ANOVA یا یک آزمون t، سطح معنی داری کمتر از 0.0001 در SPSS دریافت می کنم. من نگران این هستم که نمونه من آنقدر بزرگ باشد که البته وقتی میانگین ها را مقایسه می کنم تفاوت قابل توجهی نشان می دهد. آیا یک نمونه برای آنالیز واریانس یا آزمون تی بسیار بزرگ است؟
|
آیا یک نمونه برای آنالیز واریانس یا آزمون تی بسیار بزرگ است؟
|
25718
|
آیا در جستجوی خوشههای الگوهای مسیر در دادههای طولی، زمانی که بسیاری از مقادیر طولی از دادههای پایه منتسب میشوند، مشکلی وجود دارد؟
|
خوشه بندی الگوهای مسیر با مقادیر زیادی از دست رفته
|
26065
|
من با دنبال کردن این آموزش اما با استفاده از داده های خودم، دو مدل رگرسیون را با استفاده از ANCOVA مقایسه کردم. در اینجا قطعه ای از داده های من است: X MC CC RC FM AT HS 1 0.874375 NA NA NA NA grab 1 2 0.451250 0.41948802 0.44885230 0.45113487 0.437 انتشار گرفتن 2 6 0.948750 0.68792116 0.69742615 0.68139072 انتشار NA 2 7 0.452500 0.42250699 0.45583832 0.472524445 0.472524445 NA 0.62101946 0.62549900 0.62338872 انتشار NA 2 MC، CC، RC و FM چهار متغیری هستند که می توانند X را مدل کنند. دو متغیر دسته بندی هر کدام با دو سطح وجود دارد: نوع عمل (AT) و سمت دست (HS). سمت دست 1 به معنای راست و 2 سمت چپ است. من می خواهم بدانم که آیا سمت دست در هر یک از مدل ها متغیر است یا خیر. مورد RC را در نظر بگیرید، برای این مدل من ANCOVA را با استفاده از دستور R زیر انجام میدهم: aov(X ~ RC * HS, data = X.models) در اینجا نتایج آمده است: Df Sum Sq Mean Sq F مقدار Pr(>F) RC 1 58.427 58.427 10148.368 < 2.2e-16 *** HS 1 10.732 10.732 1864.025 < 2.2e-16 *** RC:HS 1 0.069 0.069 11.927 0.0005803 *** Residuals 859 4.946 0.006 بنابراین درک من این است که تفاوت معناداری بین مدل RC و H وجود دارد. قابل توجه است. با این حال، در این مورد، تفاوت بین رهگیری ها بسیار بزرگتر و جالب تر است. آیا اندازه گیری مکملی وجود دارد که اندازه اثر تعامل را نشان دهد؟ راه حل فعلی من این است که تفاوت در شیب و قطع را در کنار مقدار ANCOVA P گزارش کنم، اما مطمئن نیستم که آیا این بهترین راه برای انجام آن است یا خیر.
|
اندازه اثر نتایج یک ANCOVA
|
26067
|
من سعی می کنم 5 چرخ دنده مختلف را که توسط ماهیگیران استفاده می شود و میزان صید جانبی یافت شده در هر کدام با هم مقایسه کنم. مقادیر دارای واحد % از زمان مواجهه هستند و بین 0% (یعنی: هرگز باجگیری نداشته باشید) و 100% (یعنی: هر بار که خارج می شوند با شکار جانبی مواجه می شوند) متغیر است. من این را انتخاب کردم زیرا همه ماهیگیران به یک اندازه ماهیگیری نمی کردند. من تعداد یکسانی از ماهیگیران با استفاده از هر چرخ دنده ندارم (به عنوان مثال: برای دنده 1، n = 4 ماهیگیر، دنده 2، n = 13، دنده 3، n = 24، دنده 4، n = 5، دنده 5، n = 4). آیا راهی وجود دارد که بفهمیم تفاوت آماری معنی داری بین گیره جانبی در هر دنده وجود دارد؟ من minitab دارم، اما هنوز نحوه استفاده از آن را به خوبی نمی دانم. هر توصیه ای بسیار مفید خواهد بود! با تشکر
|
تفاوت آماری معنی دار بین 5 گروه داده
|
56784
|
در R، اگر تابع «lm()» را به روش زیر فراخوانی کنم: lm.1 = lm(پاسخ ~ var1 + var2 + var1 * var2) خلاصه (lm.1) این یک مدل خطی از متغیر پاسخ به من می دهد. با «var1»، «var2» و تعامل بین آنها. با این حال، ما دقیقاً چگونه از نظر عددی عبارت تعامل را تفسیر می کنیم؟ مستندات میگویند که این «تقاطع» بین «var1» و «var2» است، اما توضیحی درباره اینکه دقیقاً «صلیب» چیست، ارائه نشده است. برای من مفید است که بدانم R دقیقاً چه اعدادی را محاسبه می کند تا تعامل بین دو متغیر را در بر بگیرد. خیلی ممنون!
|
چگونه عبارت تعامل را در فرمول lm در R تفسیر کنیم؟
|
107910
|
من می خواهم از lda در بسته MASS در R استفاده کنم. طبق تئوری پشت آن، ابتدا باید این فرض را تأیید کرد. در واقع من چند نمونه از نت پیدا کردم اما آنها زحمت تایید آنها را به خود ندادند. آیا فرض lda همان فرض manova است؟ درست میگم؟ ممنون میشم اگه کسی توضیح بده
|
چگونه با استفاده از lda، فرض تحلیل تفکیک را در R بررسی کنیم؟
|
25713
|
فصل پذیرش در مقاطع تحصیلات تکمیلی است. من (و بسیاری از دانش آموزان مانند من) اکنون در تلاش هستیم تا تصمیم بگیرم کدام برنامه آماری را انتخاب کنم. 1. شما که با آمار کار می کنید، پیشنهاد می کنید در مورد برنامه های کارشناسی ارشد آمار در نظر بگیریم؟ 2. آیا مشکلات یا اشتباهات رایجی وجود دارد که دانش آموزان مرتکب می شوند (شاید با توجه به شهرت مدرسه)؟ 3. برای اشتغال باید به دنبال تمرکز بر آمار کاربردی باشیم یا ترکیبی از آمار کاربردی و نظری؟ **ویرایش:** در اینجا اطلاعات اضافی درباره وضعیت شخصی من وجود دارد: همه برنامه هایی که اکنون در نظر دارم در ایالات متحده هستند. برخی بر جنبه کاربردی تر تمرکز می کنند و مدرک کارشناسی ارشد را در آمار کاربردی می دهند در حالی که برخی دیگر دروس تئوری بیشتری دارند و در آمار مدرک اعطا می کنند. من شخصاً قصد ندارم در یک صنعت نسبت به صنعت دیگر کار کنم. من سابقه برنامه نویسی دارم و صنعت فناوری را کمی بهتر از مثلاً صنعت ژنومیک یا بیوانفورماتیک می شناسم. با این حال، من در درجه اول به دنبال شغلی با مشکلات جالب هستم. **ویرایش**: سعی شد این سوال به طور کلی قابل اجرا باشد.
|
مواردی که باید در مورد برنامه های کارشناسی ارشد در آمار در نظر گرفت
|
104755
|
مدت زیادی از آمار اولیه گذشته است. من یک سری زمانی مالی دارم که رشد تصاعدی را نشان می دهد. قبل از استانداردسازی، آیا باید سری زمانی را ثابت کنم؟ قبل از اینکه استاندارد کنم، آیا باید عادی سازی کنم؟
|
آیا قبل از محاسبه نمره z یا t، یک سری زمانی باید ثابت باشد؟
|
62923
|
از ویکی پدیا، معادله تخمین تعمیم یافته (GEE) روشی برای تخمین پارامترهای یک مدل خطی تعمیم یافته (با توزیع خانواده نمایی برای پاسخ) است. با خواندن سایر مراجع آنلاین، من گیج می شوم که آیا GEE یک روش تخمینی است یا یک مدل آماری مانند مدل خطی تعمیم یافته، اما من تمایل دارم GEE را به عنوان یک روش تخمین به عنوان جایگزینی برای MLE در نظر بگیرم. درست میگم؟ اما فقط به مدل میانگین (به عنوان تابعی از پارامتر) و تابع واریانس (به عنوان تابعی از میانگین) متکی است. اگر درست بگم روش شبه درستنمایی حداکثری هست (البته میخوام بپرسم روش شبه درستنمایی حداکثری چیه؟). بنابراین GEE از کل احتمال ارائه شده توسط مدل خطی تعمیم یافته استفاده نمی کند، بلکه فقط از بخشی از آن استفاده می کند. آیا این درست است که GEE بتواند برای مدل های بزرگتر از مدل خطی تعمیم یافته اعمال شود؟ با تشکر و احترام!
|
مدل هایی برای معادله تخمین تعمیم یافته؟
|
57785
|
من تازه کار برای R و Stats هستم. من از EFA در R [کتابخانه روانی] برای شناسایی عوامل پنهان زیربنای داده هایم استفاده می کنم. من تعداد معقولی از فاکتورهای منطبق با هدفم را دریافت کردم. سوال من این است که وقتی فاکتورها را داشته باشم، آیا راهی برای طبقه بندی مشاهدات بر اساس عوامل غالب، یک یا چند وجود دارد؟
|
EFA در R: طبقه بندی مشاهدات
|
26345
|
> **موضوع تکراری:** > اوزان خانوار را از نمونه افراد توزیع شده یکنواخت استخراج کنید **ویرایش**: اساساً، من خودم به این سؤال در سؤال پیوندی پاسخ دادهام: وزنهای خانوار را از نمونه افراد توزیع شده یکنواخت استخراج کنید. من متن زیر را برای مرجع نگه می دارم. * * * برای یک جمعیت محدود $U$، من احتمال $\pi_{i,k}$ نمونهگیری $i$ را دقیقا $k$ برابر میدانم، که $k$ با $m_i$ محدود میشود. در مورد من، $$\pi_{i,k} = \binom{m_i}{k} p^k(1-p)^{m_i - k}$$ برای مقداری $p$. من همچنین نمونهای به اندازه $n$ دارم (برگرفته از _با جایگزینی_)، اما اندازه کل $N$ جمعیت ناشناخته است. من سعی می کنم یک $w_i$ مجدد از نمونه استخراج کنم که تخمین های بی طرفانه و/یا حداقل واریانس کل ها را برای مثلاً یک ویژگی $x_i$ ارائه دهد. (تخمین $N$ یک مورد خاص است.) وزن های صحیح برای نمونه من چه خواهد بود؟ آیا با توجه به اینکه می توانم به طور قابل اعتماد آنها را شناسایی کنم، حذف موارد تکراری توصیه می شود؟ **ویرایش**: اگر موارد تکراری را نتوان به طور قابل اعتماد شناسایی کرد چه؟ حدس اولیه من $w_i = 1/(1 - \pi_{i، 0})$ است، اما نمیدانم چگونه میتوان این را با استدلال ریاضی پشتیبان کرد. همچنین، من قدردان هر گونه راهنمایی در مورد ادبیات در مورد این موضوع هستم. (شاید همین مشکل در مقاله قبلی مورد بررسی قرار گرفته باشد؟) برای توصیف عملی تر مشکل، به استخراج وزن های خانگی از یک نمونه فرد به طور یکنواخت مراجعه کنید. _ سوال پرسیده شده در اینجا متفاوت است. _ شاید محاسبه درصد نمونه برداری نشده در نمونه گیری با جایگزینی مرتبط باشد.
|
وزن ها را از احتمالات انتخاب در طرح نمونه گیری «با جایگزینی» تعیین کنید
|
32055
|
در یک گروه موردی، شما به طور تصادفی تعدادی امکان پذیر از گروه را نمونه برداری می کنید (مثلاً 20٪) و سپس همه مواردی را که بخشی از نمونه فرعی نبودند، اضافه می کنید. بنابراین، در حالی که تنظیم یک همگروه موردی آسان است، ممکن است تجزیه و تحلیل آن دشوار باشد، اما روشهایی برای آن وجود دارد. چالش من این است که چگونه می توان با به روز رسانی های بعدی در یک طرح همگروهی برخورد کرد. به عنوان مثال، اگر در زمان A شما 100 مورد دارید.. در زمان B شما 150 مورد دارید. بنابراین هر چه زمان بیشتر می گذرد، چه چیزی یک مورد و چه چیزی یک کنترل تغییر می کند. بهترین راه ها برای مقابله با این موضوع چیست؟ من فکر میکنم یک استراتژی این است که نمونهگیری فرعی را دوباره انجام دهیم، یا فقط تمام موارد اضافی را پرتاب کنیم و برخی از کنترلهای جدید را با احتمال کمی نمونهبرداری کنیم. اما این گزینه لزوما در دسترس نیست. به عنوان مثال، جمع آوری تمام پارامترها در موارد و کنترل های جدید می تواند بسیار زمان بر باشد. بنابراین مطالعه دیگر یک گروه موردی واقعی نیست، و بیشتر یک کنترل موردی تودرتو است.. اما نه واقعاً به دلیل نحوه نمونه برداری از کنترل ها. پاسخ واضح دیگر نادیده گرفتن پیگیری است، اما آیا واقعاً راهی برای مهار آن وجود ندارد؟ بنابراین چالش من این است که به دلیل ناتوانی در دسترسی به پارامترهای لازم برای موارد جدید، اگر از دادههای پیگیری استفاده کنم، دیگر یک همگروهی واقعی خواهم داشت. اما من با یک مورد شاهد تودرتو واقعی باقی نماندهام زیرا خود مورد من بهطور تصادفی نمونهبرداری نشده است و کنترلها با سطح خطر موارد مطابقت ندارند. پیشنهادات؟
|
به روز رسانی های بعدی در طرح های همگروهی موردی
|
9947
|
برای مجموعه داده $D$، ما centroids استاندارد طلایی داریم که میگویند $c_1، c_2، \cdots، c_n$. حال اگر الگوریتم k-means را روی $D$ با ورودی $n$ اجرا کنیم، مرکز k-means $k_1، k_2، \cdots، k_n$ را دریافت می کنیم. فقط می خواستم بدانم، آیا الگوریتم/ابتکار برای تطبیق سانتروئیدها بین $k_i$ و $c_j$ وجود دارد که در آن $i، j= 1، \cdots، n$ (نگاشت یک به یک بین $k$'s و $) c$'s) سعی کردم فاصله زوجی بین $k_p$ و $c_j,\ را محاسبه کنم. j= 1، \cdots، n$، و $k_p$ را با $c_r$ مطابقت دهید که فاصله بین آنها حداقل است. اما در این مورد $k_p$ و $k_q$ به $c_r$ اختصاص داده می شوند که ما به آن نیازی نداریم.
|
مشکل تطبیق مرکز
|
21875
|
من در مورد روش دلتا در رابطه با مدلهای تاخیر توزیع شده خودکار رگرسیون مطالعه کردهام. این برای من بسیار جدید است، بنابراین اشتباهات مبتدی را ببخشید. مشکل از این قرار است: ما برای مصرف بنزین مدل داریم. $g$ مصرف سرانه، $y$ درآمد قابل تصرف، $p$ قیمت، $g_{t-1}$ مصرف با تاخیر است. تمام مقادیر در گزارش ها هستند. $$g_t = \alpha_0 + \beta_1 p_t + \beta_2 y_t + \omega g_{t-1} + u_t$$ $\beta_i$ نشان دهنده اثرات کوتاه مدت و $\beta_i/(1-\omega)$ است. اثر بلند مدت مشکل این است که این برآوردهای بلندمدت دارای خطاهای استاندارد محاسبه شده در اکثر مطالعات نیستند. من فقط دو مقاله پیدا کردم: _Bentzen & Engsted (2001)_ و _Pesaran & Shin (1997)_. آنها پیشنهاد می کنند که خطای استاندارد را با استفاده از روش دلتا محاسبه کنند. مشکلی که من می بینم این است که $y_t$ (یا $p_t$) و $g_{t-1}$ بسیار همبستگی دارند، بنابراین فرض روش دلتا را نقض میکنند (تا جایی که من متوجه شدم). همبستگی کاملاً واضح است زیرا $y_t$ و $p_t$ در رگرسیون بالا معنیدار هستند، بنابراین در نظر گرفتن $$g_{t-1} = \alpha_0 + \beta_1 p_{t-1} + \beta_2 y_{t- 1} + \omega g_{t-2} + u_{t-1}،$$ می دانیم که بین $g_{t-1}$ و $p_{t-1}$ (یا $y_{t-1})$، با توجه به تداوم قیمت (یا درآمد)، همبستگی بین $g_{t-1}$ و $p_t$ یا $y_t$ مطمئنا وجود دارد. من حتی دادههای زیادی را از Eurostat برای تأیید همبستگی نمونه حفر کردم و در آنجا بود، بالاتر از 0.5 در مقدار مطلق. همچنین می توانید ببینید که خطای استاندارد تخمینی با استفاده از روش دلتا بسیار بزرگتر از خطاهای تخمین زده شده با استفاده از روش های دیگر است. این نشان می دهد که همبستگی حذف شده ممکن است باعث تخمین بیش از حد خطای استاندارد شود. * * * بنابراین سوال این است: آیا می توانم از روش دلتا برای تخمین خطای استاندارد تبدیل غیرخطی استفاده کنم در حالی که بدانم این متغیرها همبستگی دارند؟ یا ماهیت غیر خطی تبدیل چیزها را تغییر می دهد؟ یه عالمه ممنون
|
روش دلتا و متغیرهای همبسته
|
104752
|
اجازه دهید $X$ یک متغیر تصادفی با توزیع $F_X(x)$ $$Y=g(X) = \left\\{ \begin{array}{lr} X-c & : X > c\\\ 0 & : - c < X \le c \\\ X+c & : X \le -c \end{array} \right\\}$$ ## رویکرد من این یک توزیع مختلط است $F_Y(y=0) = P(-c < X < c) = F_X(c)-F_X(-c)$ ## سوال من: آیا این روش صحیحی برای نوشتن $F_Y(y) $ , $ y \ne 0$ است؟ اگر نه، پس راه صحیح چیست؟ $F_Y(y) = P(Y\le y) = P(Y\le y | X>c) P(X>c) + P(Y\le y | X<c) P(X<c)$ این می دهد. $F_X(y+c) (1-F_X(c)) + F_X(y-c)F_X(c)$
|
نحوه محاسبه CDF از g(X)
|
25715
|
من اخیراً اولین مطالعه خود را انجام دادم که آموزش والدین را به عنوان یک عامل تعیین کننده خطر بررسی می کرد. من یک نظرسنجی انجام دادم که خطر را در چندین زمینه اندازه گیری کرد و همچنین اطلاعاتی را در مورد افراد مانند جنسیت، قد و سایر مظنونان معمول ثبت کرد. کار کمی در مورد تأثیر قومیت بر خطر و همچنین کشور مبدا/محل اقامت بر خطر انجام شده است (یک سؤال جالب تحقیق ثانویه). مسئله این است که ملیت والدین با فرزندانشان بسیار مرتبط است (همانطور که انتظار می رود) تا جایی که Minitab عوامل تعیین کننده مختلف را به دلیل همبستگی زیاد کنار گذاشته است. با توجه به ماهیت نمونه (دانشجویان در انگلستان) همبستگی امری اجتناب ناپذیر است. من نمیخواهم متغیرها را صرفاً به این دلیل که همبستگی بالایی دارند کنار بگذارم، اگرچه چند پیشنهاد برای انجام این کار دیدهام. آیا راهی برای غلبه بر این موضوع وجود دارد؟ در غیر این صورت چگونه می توان به تأثیر حاشیه ای کشور محل تولد/ ملیت والدین بر ترجیحات خطر آنها نگاه کرد؟ آیا من چیز ساده ای را نادیده گرفته ام؟
|
چگونه هنگام تجزیه و تحلیل نتایج نظرسنجی با مسئله چند خطی برخورد کنیم؟
|
55873
|
پس از کار بر روی شبکه عصبی پس انتشار و مدل سری زمانی ARIMA، از خودم پرسیدم که کدام یک بهتر است، اما نمی توانم پاسخ را پیدا کنم. آنها هر دو از رویکردهای متفاوتی در مورد یک مشکل استفاده می کنند (پیش بینی آینده). لطفا کسی میتونه کمکم کنه تا بدیهیات رو بیان کنم. Backpropagation(C++): typedef struct { /* A LAYER OF A Net: */ INT Units; /* - تعداد واحدهای این لایه */ REAL* خروجی; /* - خروجی واحد ith */ REAL* خطا. /* - عبارت خطای ith واحد */ REAL** Weight; /* - وزن اتصال به واحد ith */ REAL** WeightSave. /* - وزنه های ذخیره شده برای تمرین متوقف شده */ REAL** dWeight; /* - دلتاهای آخرین وزن برای تکانه */ } LAYER; typedef struct { /* A NET: */ LAYER** Layer; /* - لایه های این شبکه */ LAYER* InputLayer; /* - لایه ورودی */ LAYER* OutputLayer; /* - لایه خروجی */ REAL Alpha; /* - ضریب حرکت */ REAL Eta; /* - نرخ یادگیری */ سود واقعی. /* - بهره تابع سیگموئید */ REAL Error; /* - کل خطای خالص */ } NET; ARIMA(R): arima(stockadj,order=c(best.model[1],best.model[2],best.model[3]),xreg=1:n) stockfor<-predict(stockari,h= 100,newxreg=(n+1):(n+100)) ts.plot(stockadj,stockfor$pred,ylab=Original+Predicted ارزشها، اصلی پیشبینی) متشکرم.
|
آیا ARIMA در مقایسه با شبکه های عصبی بهتر است؟
|
56785
|
فرض کنید می خواهیم ارتباط بین مصرف الکل و سرطان را مطالعه کنیم. اگر افرادی را که سیگار می کشند (یک عامل مخدوش کننده) نیز در نظر بگیریم، آیا این امر خطر نسبی سرطان را برای مصرف کنندگان الکل کاهش می دهد؟ اگر فقط افرادی را که سیگار نمی کشند را در نظر بگیریم، این امر خطر نسبی سرطان را برای مصرف کنندگان الکل افزایش می دهد؟
|
متغیرهای مخدوش کننده
|
64949
|
من در حال اجرای یک تحلیل رگرسیون سلسله مراتبی هستم و تردیدهای کوچکی دارم: 1. آیا عبارت تعامل را با استفاده از متغیرهای متمرکز محاسبه می کنیم؟ 2. آیا باید تمام متغیرهای پیوسته ای را که در مجموعه داده داریم به جز متغیر وابسته در مرکز قرار دهیم؟ 3. وقتی باید برخی از متغیرها را وارد کنیم (چون s.d آنها بسیار بالاتر از میانگین آنها است)، آیا متغیری را که به تازگی ثبت شده است در مرکز قرار می دهیم یا متغیر اولیه؟ به عنوان مثال: متغیر Turnover ---> Logged Turnover (زیرا s.d در مقایسه با میانگین خیلی زیاد است) ---> Centered_Turnover؟ یا مستقیماً Turnover --> Centered_Turnover (و ما با این یکی کار می کنیم) با تشکر!
|
اصطلاح تعامل با استفاده از متغیرهای متمرکز تحلیل رگرسیون سلسله مراتبی؟ چه متغیرهایی را در مرکز قرار دهیم؟
|
52783
|
من سعی می کنم یک مدل Weibull را برای بقای رهبران سیاسی در R تکرار کنم. این مدل از توزیع Weibull با نرخ خطر h(t)=lambda*pt^(p-1) استفاده می کند. اصطلاح p به متغیر W وابسته است. بنابراین در «Stata» میتوان آن را به سادگی با افزودن «anc(W)» به رگرسیون انجام داد. اما «weibreg» در بسته «eha» فقط به فرد اجازه میدهد که مقادیر را روی «شکل» تنظیم کند. آیا به هر حال برای انجام این کار با weibreg وجود دارد؟ آیا بسته/عملکرد دیگری وجود دارد که باید برای این منظور استفاده کنم؟
|
برازش رگرسیون وایبول با پارامتر شکل فرعی در R
|
107792
|
آیا فرمولی برای مطالعات مدلسازی معادلات ساختاری وجود دارد؟ میدونم یه سایت هست: http://danielsoper.com/statcalc3/calc.aspx?id=89# مرجع خوبی هست؟
|
اندازه نمونه برای SEM
|
55870
|
من دو سوال در مقیاس لیکرت دارم که درک ریسک (شدت و احتمال) را اندازه گیری می کند. به عنوان مثال: افتادن از ارتفاع ده فوتی چه نوع آسیبی ایجاد می کند؟ 1. بدون جراحت 2. جراحات خفیف 3. جراحات بدون آسیب دائمی پزشکی 4. جراحات با آسیب دائمی پزشکی 5. صدمات مرگبار احتمالی احتمال وقوع تصادف در اثر سقوط از ارتفاع ده فوتی چقدر است؟ 1. هرگز 2. بعید 3. تا حدودی محتمل 4. به احتمال زیاد 5. به احتمال زیاد من پاسخ های این دو سوال را ضرب می کنم تا تصوری از نمره ریسک ایجاد کنم (مثلاً Fatal (5) و هرگز (1) = 5). این امتیاز محاسبه شده فاقد صفر (نه نسبت) است و شکاف بین نمرات یکسان نیست، بنابراین بازه ای نیست. من این نمرات را در چهار گروه ادغام میکنم: ریسک قابل قبول یا بدون ریسک (1-4)، کم خطر (5-9)، خطر متوسط (10-15)، ریسک بالا (16-25) من با موفقیت Chi-square و من ویتنی U با نمرات تبدیل شده در چهار گروه آزمایش می کند. اما... سوال من این است: آیا باید خود نمرات محاسبه شده را تجزیه و تحلیل کنم؟ آیا ماهیت کسب امتیاز LACK به معنای تا زمانی است که آنها را در 4 دسته ترتیبی قرار دهم؟ آیا باید فقط از نمرات تلفیقی (4 گروه) در Chi-square، Mann-Whitney U و (به زودی انجام خواهد شد) رگرسیون ترتیبی استفاده کنم؟
|
تحلیل صحیح نمره لیکرت (محصول دو مقیاس لیکرت)؟
|
99385
|
من سعی کرده ام اطلاعاتی در مورد این نوع نمودار پیدا کنم و به نتایج ناخواسته ادامه می دهم. آیا نام یا عبارت جستجویی برای یافتن نمودارهای میله ای وجود دارد که میله ها را با اشیاء کد رنگی مانند این مثال جایگزین می کند:  * * * اگر کسی علاقه مند است، در حال تحقیق در مورد آن هستم تا راه حلی برای این سوال در صرافی طراحی گرافیک ارائه دهم: چگونه از طرح ها در نمودار میله ای انباشته با آمار دقیق استفاده کنم؟
|
آیا نامی برای نمودارهای میله ای وجود دارد که میله ها را با اشیاء کد رنگی جایگزین می کند؟
|
99950
|
من در مورد توزیع خطای مدل های GARCH کمی سردرگم هستم. من درک می کنم که چندین توزیع استاندارد شده (یعنی مقدار مورد انتظار = 0، واریانس = انحراف استاندارد = 1) را می توان استفاده کرد، به عنوان مثال t نرمال یا استاندارد شده استاندارد. با فرض اینکه من از توزیع استاندارد t استفاده می کنم و باقیمانده های استاندارد شده را محاسبه می کنم، i. ه. مشاهدات (مگر اینکه از یک عبارت میانگین غیر صفر استفاده کنم) تقسیم بر انحراف معیار شرطی تخمینی. آیا حق با من است که باید آنها را در $\sqrt{\frac{v}{v-2}}$ ضرب کنم که $v$ df (تخمینی) است تا چیزی که (تقریباً) t-توزیع شده با $ باشد. v$ درجه آزادی؟
|
در مورد توزیع نوآوری GARCH سردرگم شده است
|
99954
|
اجازه دهید $X$ یک متغیر تصادفی گاما با پارامتر شکل $\alpha=2$ و پارامتر مقیاس $\theta=1$ باشد. سپس تابع تولید لحظه $X$ $$m_X(t) = \frac{1}{(1-t)^2} است، t<1.$$ واضح است که $t\neq 1$ است. با این حال، همچنین واضح است که $m_X(t)$ زمانی تعریف می شود که $t>1$ همانطور که در تصویر زیر نشان داده شده است.  **پس، چرا باید شرایط $t <1$ را اینجا اعمال کنیم، لطفا؟**
|
تابع تولید لحظه برای توزیع گاما
|
25714
|
من از «nlme» و اخیراً «lmer» برای جا دادن مدلهای چند سطحی دادههای دوره زمانی با استفاده از چند جملهای متعامد استفاده کردهام. من و همکارانم در ابتدا چند جمله ای ها را انتخاب کردیم زیرا معتقد بودیم که توابع غیرخطی مانند لجستیک نمی توانند برای مدل سازی چند سطحی استفاده شوند زیرا از نظر پویا سازگار نیستند. حداقل در یک مورد این محدودیت بسیار صریح بیان شده است (Willett, 1997, p. 238-239): > به طور کلی، رویکرد مدلسازی رشد فردی میتواند هر مدل سطح 1 را که در پارامترهای رشد فردی خطی است، در خود جای دهد. بسیاری از توابع رشد رایج به صورت پویا سازگار هستند، از جمله مدل درجه دوم که در بالا ذکر شد و همه مدلهای چند جملهای دیگر، صرف نظر از > آنها سفارش دهید. سایر مدلهای رشد فردی بالقوه مهم مانند مدل لجستیک (که نمایش نظری مهمی از رشد انسانی از دیدگاه برخی نظریههای روانشناختی ارائه میدهد - رجوع کنید به > فیشر و پیپ، 1984) در پارامترهای رشد فردی خطی نیست. فرمول معمول با این حال، اخیراً دریافتم که، همانطور که میدانم، «nlme» و «lmer» میتوانند از «SSfpl» برای جا دادن توابع لجستیکی 4 پارامتری در زمینه مدلسازی چند سطحی استفاده کنند. آیا ما محدودیت سازگاری پویا را اشتباه متوجه شدیم؟ شاید «lmer» و/یا «SSfpl» لجستیک 4 پارامتری را به روشی پویا و سازگار پیادهسازی کند؟ اگر چنین است، آیا کسی میداند که چگونه برای سازگاری پویا محدود میشود؟ پیشاپیش ممنون
|
سازگاری پویا و مدل های چند سطحی با استفاده از lmer
|
44426
|
تصور کنید مجموعه دادههای زیر را دارم: ║ A ║ B ║ ╠════╬════════════╬══════════════ 1 ║ 0.723185 ║ 0.216422 ║ ║ 2 ║ 0.725254 ║ 0.216104 ║ ║ 3 ║ 0.725166 ║ 8 ║ 0.21 0.730094 ║ 0.22244 ║ ║ 5 ║ 0.730336 ║ 0.222342 ║ ║ 6 ║ 0.727938 ║ 0.21453 ║ 7 ║ 7 ║ 0.21453 ║ ║ 0.217435 ║ ║ 8 ║ 0.729766 ║ 0.21452 ║ ║ 9 ║ 0.724968 ║ 0.213434 ║ ║2 ║ 4 ║ 10. 0.214565 ║ ║ 11 ║ 0.727014 ║ 0.2212523 ║ ║ 12 ║ 0.731524 ║ 0.22845 ║ ╚════╩════════════╩══════════════════════════ چگونه می توانم روند مشابهی داشته باشم؟ آیا آزمون روند Jonckheere واقعاً آزمونی است که من به دنبال آن هستم؟ من این مستندات را پیدا کردم اما در این مورد چگونه خواهد بود؟
|
روند یکسان مجموعه داده ها در R
|
57439
|
اگر جمعیتی دارای نرخ خطر X$ در سال باشد، میزان خطر آن در ماه یا در روز چقدر خواهد بود؟
|
نرخ های خطر را به بازه های زمانی دیگر تبدیل کنید
|
57434
|
اگر از روش یادگیری منیفولد برای نمایش برخی از نقاط داده در فضای کم ابعاد استفاده کنم، فواصل بین نقاط پیش بینی شده چقدر خواهد بود؟ آیا می توانم از فاصله اقلیدسی استفاده کنم؟ اگر فاصله ها اقلیدسی نباشند، چه نوع متریک فاصله باید استفاده کنم و چگونه؟
|
یادگیری منیفولد غیرخطی و فواصل بین نقاط پیش بینی شده
|
57781
|
من 2 آزمایش روی دو پارامتر $P1$ و $P2$ انجام دادهام و میخواهم دو پارامتر را برای هر آزمایش طبقهبندی کنم. ### آزمایش 1 P1: P2: 0.24 0.14 0.3 0.19 0.37 0.24 0.48 0.29 0.59 0.34 0.67 0.38 0.75 0.43 0.79 0.79 # 0.40 0.40 #40. آزمایش 2 P1: P2: 0.13 0.16 0.18 0.2 0.25 0.24 0.31 0.27 0.41 0.32 0.49 0.35 0.56 0.36 0.56 0.35 0.24 0.590 برای طبقه بندی دودویی این دو مجموعه داده و دقت طبقه بندی برای هر آزمایش چقدر خواهد بود؟
|
طبقه بندی باینری
|
99953
|
فرض کنید یک مجموعه داده داریم که به این صورت است: ماه سال airquality ژانویه 2000 36 ... ... ... دسامبر 2001 33 jan 2002 44 ... ... ... دسامبر 2002 21 jan 2003 44 ... ... ... و غیره. کیفیت هوا در این مورد به تعداد قطعات در میلیون چیزی در نظر گرفته می شود. سوال من این است که اگر ماه فاکتور بر کیفیت هوا تأثیر دارد و چقدر تأثیر دارد، چگونه آزمایش می کنید؟ من برای فکر کردن به روش مناسب برای آزمایش این مشکل دارم زیرا علاوه بر تفاوت ماهانه ممکن است عامل سال نیز تأثیر داشته باشد (یعنی کیفیت هوا ممکن است در طول سالها با افزایش شدت ترافیک بدتر شود). امیدوارم بتوانید من را در مسیر درست راهنمایی کنید (مثلاً آزمایش/مدل مورد استفاده)
|
آزمایش تاثیر نوسانات ماهانه
|
14668
|
من سرعت آشفته را در نرخ نمونه برداری 1 هرتز اندازه گرفتم. برای حذف نوسانات با T> 900 ثانیه، سری های زمانی را با بسته های موجک تجزیه می کنم، مشکل این است که نمی دانم چه سطوحی باید حفظ شوند و چه سطوحی باید حذف شوند. به عبارت دیگر، اگر تجزیه بسته موجک به صورت درختی تصور شود، محدوده فرکانسی در هر گره چقدر خواهد بود؟ 
|
محدوده فرکانس تجزیه بسته های موجک در هر سطح
|
40960
|
من در مورد کرنل واضح نیستم. 1. چگونه می توانم کرنل خود را بسازم که معتبر باشد؟ آیا تنها روش قضیه مرس (مثبت نیمه قطعی) است؟ منظورم این است که اگر بدانم K یک هسته معتبر است، آیا می دانم که a*K+b*K، چند جمله ای(K)، exp(K) و غیره نیز معتبر هستند؟ 2. اگر K یک هسته 2 بعدی است، چگونه می توانم K را به 3-D بسط دهم (ایجاد کنم)؟ 3. با توجه به یک هسته، بگویید K(x,y)=(xTy+1)^3، چگونه می توانم یک فی پیدا کنم که این K = phiT *phi را نگه دارد؟
|
با توجه به یک هسته، چگونه می توان نقشه فی را پیدا کرد؟
|
105404
|
همه را حل کنید، ممکن است یک سوال احمقانه باشد، اما از آنجایی که برآوردگر اثرات ثابت یا به معنای مرکز داده ها است یا از تفاوت های اولیه استفاده می کند، آیا کاملاً اشتباه است که ابتدا تفاوت های داده ها را در نظر بگیریم و سپس رگرسیون اثرات ثابت را در Stata اجرا کنیم؟ در اینجا توضیح مشکل وجود دارد. بنابراین مدل من $\Delta LP = \alpha+\beta_1 \Delta HC+\beta_2 \Delta FDI+\beta_3 \Delta HC*\Delta FDI$ زیر است که در آن LP بهره وری نیروی کار است، HC سرمایه انسانی و FDI سرمایه گذاری مستقیم خارجی است. از آنجایی که من پانل 21 کشور را به مدت 16 سال دارم، باید اثرات خاص کشور را کنترل کنم و برای آن تست هاسمن مدل اثرات ثابت را پیشنهاد داد. با این حال، هنگامی که از مدل اثرات ثابت استفاده می کنیم، به طور خودکار از اولین تفاوت های داده ها استفاده می کند. بنابراین سوال من این بود که آیا استفاده از دادههای متفاوت اول در مدل جلوههای ثابت مشکلی ندارد؟ آیا تفاوت اول دو برابر نمی شود؟ متشکرم
|
استفاده از اولین متغیرهای متمایز در مدل اثرات ثابت
|
33577
|
> **تکراری احتمالی:** > چگونه می توان ارتباط بین اختلال خواب و یک ویژگی خاص شخصیتی را ارزیابی کرد؟ @Nikita.....از هر دوی شما برای پاسخگویی متشکرم. من می خواهم یک مطالعه پیشنهادی در مورد فراوانی یک اختلال خواب، یعنی فلج خواب، انجام دهم و آزمایش کنم تا ببینم آیا یک ویژگی برای ذهن آگاهی با آن ارتباط دارد یا خیر. یک پرسشنامه برای افرادی که ممکن است این اختلال را داشته باشند داده می شود تا تایید شود که دارند و مقیاسی برای اندازه گیری ذهن آگاهی نیز داده خواهد شد. بنابراین مقیاسهای مقیاس برای ذهنآگاهی در مقیاس لیکرت 6 درجهای هستند، بنابراین فکر میکنم مقیاس فاصلهای باشد. حدس می زنم بعد از دریافت نتایج از نظرسنجی فلج خواب می توانم فرکانس های تجربه را بر اساس آن دسته بندی کنم تا همبستگی را نشان دهم..؟ بنابراین، ایده این است که به سادگی این فرضیه جایگزین را آزمایش کنیم که افرادی که اغلب فلج خواب را تجربه میکنند، ویژگی کمتری برای تمرکز حواس دارند... بنابراین میدانم که این از نظر طراحی همبستگی دارد، اما دقیقاً از چه آماری استفاده کنم مطمئن نیستم... امیدوارم این نیت را بهتر روشن کند
|
تجزیه و تحلیل آماری برای مطالعه همبستگی
|
58960
|
من با آمار کاملاً تازه کار هستم و باید یک تحلیل واریانس و کوواریانس ایجاد کنم. من برای این کار از SPSS استفاده می کنم. من جدول کوواریانس را ایجاد کرده ام:  امیدوارم کار درستی باشد. 3 متغیر اول عوامل ثابت و 3 متغیر دیگر متغیرهای کمکی هستند. اکنون از من خواسته شده است که قدرت اتصال (احتمالا ترجمه بدی است - باید تعیین کنم که تا چه حد ارتباط وجود دارد) مجموع فواصل مربعی واریانس کل تصحیح شده و تصحیح شده را تعیین کنم. مدل. ترجمه بدی از آلمانی است، اما معادل انگلیسی آن را پیدا نکردم و همانطور که قبلاً گفتم، تجربه ای در مورد آمار ندارم. علاوه بر این، چگونه می توانم تعیین کنم که کدام متغیرها تأثیر قابل توجهی بر متغیر وابسته دارند؟
|
تفسیر واریانس و کوواریانس
|
38600
|
من از pLSA (تحلیل معنایی پنهان احتمالی) استفاده می کنم. من سعی می کنم بهترین مقدار را برای برخی پارامترها با فرآیند اعتبار سنجی متقاطع k برابر برآورد کنم. من متوجه شده ام که برازش مدل به شدت تحت تأثیر مقداردهی اولیه است. برای انتخاب بهترین مقداردهی اولیه، من از روش بی اهمیت اولیه سازی های تصادفی چندگانه استفاده می کنم. آیا کسی می داند که آیا راه بهتری وجود دارد؟ یا شاید برخی از شیوه های خوب؟
|
مقداردهی اولیه در pLSA
|
44422
|
من به دنبال بهترین بسته ارائه مدل های خطی تعمیم یافته (GLM) و مدل های افزایشی عمومی (GAM) برای داده های مکانی هستم. بیشتر توصیه شده (GRASP) دیگر در مخزن جاری نیست. آیا جایگزینی پیشنهاد شده است یا نسخه آرشیو شده این بسته همچنان بهترین گزینه برای این مدل ها خواهد بود؟
|
بسته GLM و GAM جایگزین GRASP در R؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.