_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
95743 | تحلیل مسیر و رگرسیون چندگانه سلسله مراتبی دو روش تحلیلی رایج هستند که برای بررسی یک مدل نظری استفاده میشوند. یک متغیر وابسته وجود دارد. هیچ کس توضیح نداده است که چرا یک روش دیگر را انتخاب می کنند. به زبان عوام لطفاً جوانب مثبت و منفی را بیان کنید! | نحوه انتخاب بین تحلیل مسیر یا رگرسیون چندگانه با یک متغیر وابسته را به یک فرد غیرمستقیم توضیح دهید |
65769 | من یک سوال سریع در مورد مدلسازی منحنی رشد و عدم تعادل پایه دارم: آیا مدلهای منحنی رشد عدم تعادل پایه را کنترل میکنند و اگر چنین است، آیا آنها عدم تعادل را به روشی قابل اعتماد کنترل میکنند، یعنی سازگار با ANCOVA؟ | کنترل عدم تعادل پایه |
45747 | جمعیت من 2000 دلار است. من از فرمول کوکران برای تعیین اندازه نمونه استفاده کردم که $$\text{Sample Size} = \frac{n}{1 + (n/\text{population})}$$ است که در آن $n$ برابر است با $Z * Z [P (1-P)/(D*D)]$ (با استفاده از اطمینان 95% و 5\%$ حاشیه خطا و $p = 0.5$) که اندازه نمونه را به من می دهد 323 دلار **سوال من**: آیا 323$ حداقل حجم نمونه است؟ آیا می توانم نمونه بزرگتری بگیرم؟ اگر اندازه جمعیت 800$ داشته باشم و دوباره با استفاده از همان فرمول، حجم نمونه 18$ را دریافت کنم (با استفاده از 10$\%$ حاشیه خطا و $95\%$ اطمینان، $p=95\%$) پس اندازه نمونه نیست. برای انجام آزمون فرضیه خیلی کوچک است؟ | چگونه اندازه نمونه را تعیین کنیم؟ |
104604 | من داده های زیر را برای مکان های مختلف رویداد دارم. هر رویداد می تواند موفقیت یا شکست باشد (مقادیر باینری). بنابراین میانگین = درصد موفقیت. داده ها نشان دهنده تاریخچه رویدادهای $$\begin{array}{c|c|c}\rm رویداد\ مکان&\rm تعداد\ رویدادها &\rm میانگین\\\\\hline A & 10 & 0.5\\ \ B & 2 & 1 \\\ C & 1 & 0\\\ D & 100 & 0.3\\\ E & 1 & 0\\\ F & 1 & 1\\\\...&...&...\end{array}\\\$$ من به دنبال راهی برای یافتن مکان رویدادهایی هستم که شانس موفقیت آنها در رویدادهای آینده کم است. من به این فکر می کنم که میزان اطمینان در هر مکان را بر اساس نمونه آن مکان محاسبه کنم. به عنوان مثال، داشتن یک مکان با تنها 1 یا 2 رویداد با میزان موفقیت 0٪ یا 100٪ محتمل است زیرا تعداد زیادی از این مکان ها وجود دارد. با این حال، مکانی با 100 رویداد اما میانگین بسیار متفاوت از میانگین کلی نادر است. من در نظر دارم از آزمون _t_ برای مقایسه میانگین مکان رویداد با میانگین کلی و واریانس جامعه استفاده کنم. آیا روشی بهتر یا بهتر از آزمون _t_ برای انجام این کار وجود دارد؟ من احساس می کنم این باید یک مورد استفاده رایج باشد، نمونه هایی را پیدا کنید که بسیار متفاوت از دیگران هستند. **ویرایش:** یک گزینه پیدا کردم این است که یک scipy.stats.binom_test در هر ردیف انجام دهید و از p-value برای یافتن موارد با اطمینان بالا استفاده کنید. هنوز مطمئن نیستم که این بهترین یا تنها راه است. | ردیف هایی را در داده ها پیدا کنید که از نظر آماری با میانگین تفاوت دارند |
9280 | من یک مدل خطای مکانی دارم که تخمین زده ام و می خواهم با فاصله پیش بینی رقمی ایجاد کنم. منظور من از مدل خطای فضایی این است که خطاها از نظر مکانی همبسته هستند و بنابراین OLS بی طرفانه اما ناکارآمد است (نه یک مدل خود رگرسیون مکانی). من از رویکرد زمین آماری برای آمار فضایی استفاده کردم و یک نیمه متغیر برای دادههایم تخمین زدم و از تخمینهای نیمه متغیروگرام برای ایجاد یک ماتریس وزنی برای محاسبه خودهمبستگی مکانی در دادهها استفاده کردم. من فکر میکنم پاسخ به این سؤال به هر کسی که از وزنها در رگرسیون خود استفاده میکند، بدون توجه به ساختار دقیق ماتریس وزنی خود کمک میکند. از این سؤال می بینم که فرمول یک بازه پیش بینی 95٪ برای OLS $$ \hat{y} \pm 1.96 \hat{\sigma} \sqrt{1 + \mathbf{X}^* (\mathbf{X است }'\mathbf{X})^{-1} (\mathbf{X}^*)'}. $$ با توجه به شهود محدود من، حدس من این است که فاصله پیشبینی در مورد وزنها این خواهد بود (که $\Omega$ ماتریس وزن است): $$ \hat{y} \pm 1.96 \hat{\sigma } \sqrt{1 + \mathbf{X}^* (\mathbf{X}'\mathbf{\Omega}^{-1}\mathbf{X})^{-1} (\mathbf{X}^*)'} $$ و امیدوار بودم که بتوانم مقداری دریافت کنم بازخورد از جامعه اینجا در مورد درستی و یا اینکه آیا من حتی در میدان توپ درست هستم. | فرمول فاصله پیش بینی برای رگرسیون فضایی |
45742 | من می خواهم تجزیه و تحلیل بقا را با مجموعه داده های بزرگ انجام دهم. جمع آوری داده ها در تاریخ 01/01/1997 آغاز شد و هنوز ادامه دارد. با این حال، قسمتهایی که قبل از «01-01-1997» شروع شدهاند (و تاریخ پایانی بعد از «01-01-1997» داشتند یا هنوز تاریخ پایانی ندارند) نیز در پایگاه داده هستند. بنابراین، اگرچه شروع رسمی جمعآوری دادهها «01-01-1997» است، برخی از دادهها با تاریخ شروع «< 1997-01-01» در پایگاه داده وجود دارد. _[EDIT]_ قسمتهایی که بعد از «01-01-1997» شروع شدهاند نیز ضبط میشوند. بنابراین چیزی که من می دانم این است: 1. اگر تاریخ شروع > 1997-01-01 باشد و تاریخ پایان < امروز باشد، هیچ سانسور و هیچ برشی وجود ندارد. 2. اگر تاریخ پایان = امروز باشد به احتمال زیاد سانسور دلیل این تاریخ پایان است. 1997-01-01` راه مناسب برای رسیدگی به این مشاهدات چیست؟ آیا این مشاهدات باعث سوگیری می شود (پس احتمالاً بهتر است آنها را حذف کنید)؟ یا باید به سادگی این مشاهدات را در مجموعه داده های خود رها کنم؟ _[ویرایش 2]_ برای دقیق تر بودن در مورد مشکل: همانطور که جمع آوری داده ها در «01-01-1997» آغاز شد، انتظار می رود حداکثر زمان بقای مشاهدات در پایگاه داده (تقریبا) 15 سال باشد (ما دسامبر داریم. 2012 در زمان نگارش). با این حال، اگر قسمتها قبل از «01-01-1997» شروع میشد و رویداد هنوز برگزار نمیشد، بیش از 15 سال طول میکشید. این به نوعی احساس عجیبی دارد - اگر یک مشاهده 01-01-1995 باشد - امروز شامل می شود، اگر مشاهده دیگری 01-01-1995 - 1996-12-31 باشد مستثنی می شود. | داده هایی را که قبل از تاریخ شروع تعریف شده برای تجزیه و تحلیل بقا شروع شده اند، حذف کنید |
80543 | مشکل من اساساً مشکل تفکیک منبع کور است. من 3 منبع غیر متعامد (یا توابع پایه) و N ترکیب خطی تصادفی (مخلوط) از منابع گفته شده دارم. مشکل من بدست آوردن منابع از مخلوط هاست. شکل A منابع را نشان می دهد، B مخلوط ها را نشان می دهد. رویکردهای اتخاذ شده: 1) PCA- من PCA را روی مخلوط ها امتحان کردم (شکل C)، اما مسئله این است که PCA فقط پایه های متعامد می دهد، در حالی که منابع/پایه های من غیر متعامد هستند. این مشکل با PCA در شکل D نشان داده شده است، که در آن داده ها به وضوح توسط 2 پایه غیر متعامد توضیح داده شده است، اما PCA (خطوط جامد) نمی تواند آنها را بازسازی کند! 2) چرخش عاملی - من سعی کردم از برخی راه حل ها از تحلیل عاملی استفاده کنم (نه قدرت من). چرخش پرومکس (matlab: nw = rotatefactors (cov,'method','promax')) در شکل نشان داده شده است. D با خطوط چین. تا آنجا که من می توانم بگویم، چرخش عامل با مولفه های اصلی کار می کند، نه ماتریس اصلی و بنابراین من نمی دانم که چگونه می تواند پایه درست را بازسازی کند. فکر میکنم این فقط با ماتریسهای فاکتور کار میکند، نه با ماتریسهای عمومی... 3) ICA - ICA بیش از حد تعیینشده را با الگوریتم fastICA امتحان کردم (همچنین قدرت من نیست، اما فکر میکنم آن را بهتر درک میکنم). من امیدوار بودم که این کار کند زیرا اجزای مستقل (IC) غیر متعامد هستند. راه حل در شکل E نشان داده شده است. اگرچه آی سی ها در واقع غیر متعامد هستند، اما منابع اصلی من نیستند:-( هر گونه راهنمایی یا راه حل بالقوه دیگر بسیار قدردانی می شود.  با تشکر! | استخراج منابع غیر متعامد در مسئله جداسازی ICA/PCA/منبع کور |
78257 | اجازه دهید متغیر تصادفی X نشان دهنده مقدار پولی باشد که دانش آموز در کلاس حمل می کند. برای تعیین μ، میانگین پول حمل شده توسط دانش آموز، آزمایشی در کلاس انجام شد. کلاس به چهار گروه تقسیم شد و از هر گروه به صورت تصادفی نمونه گیری شد. از گروه های 1 و 2، نمونه های تصادفی با اندازه n=5 و از گروه های 3 و 4، نمونه های تصادفی با اندازه n=10 گرفته شد. برخی از نتایج نمونه برای چهار گروه در زیر نشان داده شده است. میانگین گروه 1 46.60 2 6.80 3 16.00 4 13.90 مربی شما علاقه مند است که فرضیه زیر را در مورد میانگین مقدار پول حمل شده توسط دانش آموز آزمایش کند: H0: μ ≥ 28.79 H1: μ < 28.79 فرض کنید مقدار پولی که دانش آموز حمل می کند از توزیع نرمال پیروی می کند و s2 = 4929.1. **با استفاده از میانگین نتایج برای گروه 2 از جدول بالا، مقدار p برای این آزمون چقدر است؟** **پاسخ را 0.24 دریافت می کنم، در حالی که پاسخ صحیح 0.2611 است. ** من اشتباه می کنم؟ **من ابتدا z-score را به صورت (6.80-28.79)/sqrt(4929.1/5) = -0.7.** **P(z <-0.7) = 0.24** محاسبه کردم | چگونه مقدار p را برای آزمون فرضیه به درستی محاسبه کنیم؟ |
9283 | آیا می توانید یک بسته تجزیه و تحلیل ترکیبی آسان برای استفاده یا جامع برای R را توصیه کنید؟ | بسته های مشترک برای R |
112459 | با توجه به دو ماتریس همبستگی (هر $p \times p$)، که در آن هر کدام متعلق به یک گروه متفاوت است، آیا می توان یک نمونه جدید را در یکی از گروه ها (فقط بر اساس ماتریس همبستگی) طبقه بندی کرد؟ بهترین روش یادگیری ماشین در چنین شرایطی چه می تواند باشد؟ | طبقه بندی با استفاده از همبستگی |
63321 | من به این پست اشاره میکنم که به نظر میرسد اهمیت توزیع نرمال باقیماندهها را زیر سوال میبرد، با این استدلال که این امر همراه با ناهمسانی به طور بالقوه میتواند با استفاده از خطاهای استاندارد قوی اجتناب شود. من دگرگونیهای مختلفی را در نظر گرفتهام - ریشهها، سیاههها و غیره - و همه در حل کامل مسئله بی فایده هستند. در اینجا یک نمودار Q-Q از باقیماندههای من آمده است:  **داده** * _متغیر وابسته:_ از قبل با تبدیل لگاریتمی (مشکلات پرت را رفع میکند و مشکل چولگی در این داده ها) * متغیرهای مستقل: سن شرکت، و تعدادی متغیر باینری (شاخص) (بعداً من تعدادی برای یک رگرسیون جداگانه بهعنوان متغیرهای مستقل به حساب میآید) فرمان «iqr» (همیلتون) در Stata هیچ نقطهی پرت شدیدی را تعیین نمیکند که نرمال بودن را رد کند، اما نمودار زیر خلاف این را نشان میدهد و همچنین آزمون Shapiro-Wilk نیز چنین است. | غیر عادی بودن در باقیمانده ها |
37967 | من در حال حاضر در حال آموزش یک طبقهبندی کننده NN بر روی دادههای مصنوعی تولید شده از مدلی از دادههای واقعی هستم، و این دادههای مصنوعی به طور یکنواخت در محدوده مقادیر مورد انتظار در دادههای واقعی تولید میشوند. با این حال، حتی یک بازرسی گذرا از دادههای واقعی نشان میدهد که محدوده کوچکتری از مقادیر در محدوده وسیعتر بسیار بیشتر اتفاق میافتد. به عنوان مثال، با فرض بازه 1 تا 10 شامل، 4s، 5s، 6s و 7s بیش از 1s و 10s رخ می دهند و 2s، 3s، 8s و 9s از نظر فراوانی وقوع در بین آنها قرار دارند. سوال من این است: آیا توزیع داده های آموزشی ایجاد شده باید مشابه داده های واقعی باشد؟ نگرانی من این است که با توزیع یکنواخت دادههای آموزشی، ممکن است به طور ناخواسته اهمیت دادههایی که کمتر اتفاق میافتند را بیش از حد سنگین کنم و به تبع آن دادههایی که معمولاً اتفاق میافتد را کم وزن کنم. | آیا دادههای آموزشی شبکه عصبی باید «نسبتهای» مورد انتظار در دادههای واقعی را منعکس کند |
78254 | من دو سری زمانی موج سینوسی ایجاد کردم و می خواهم ثابت بودن آنها را بررسی کنم.  (1) سری زمانی اول کوتاه است. `kpss.test()` فکر می کند ثابت است. `PP.test()` تهی ریشه واحد را رد نمی کند. n=120 t=1:n x=sin(t/(n-1)*6*pi)+rnorm(n)*0.2 par(mfrow=c(2,1)) نمودار(x,ty='l' ,xlab='',ylab='x',main='Sine') # تست ثابت (H0:stationary) kpss.test(x)$p.value #[1] 0.1 # ریشه واحد تست (H0: ریشه واحد) PP.test(x)$p.value #[1] 0.4937582 (2) مورد دوم بسیار طولانیتر است. kpss.test() می گوید غیر ثابت است در حالی که PP.test() ثابت است. n=1000 t=1:n x=sin(t/(n-1)*6*pi)+rnorm(n)*0.2 نمودار(x,ty='l',xlab='',ylab='x' ,main='Sine') # تست ثابت (H0:stationary) kpss.test(x)$p.value #[1] 0.01 # تست ریشه واحد (H0: ریشه واحد) PP.test(x)$p.value #[1] 0.01 در حالی که `kpss.test()` برای نمونه های کوچک قدرتمندتر است (لطفاً این پرسش و پاسخ را ببینید)، اولین نمونه قابل درک است. با این حال، من واقعاً گیج شدهام که چرا «kpss.test()» برای دومین سری زمانی نمونه بزرگتر شکست میخورد. کسی نظر یا جوابی داره لطفا؟ | درباره ایستایی موج سینوسی |
63327 | من از حباب هایی که به یک سطح سیال می رسند عکاسی کرده ام. عکس ها با سرعت یک تصویر در دقیقه به دست می آیند. با توجه به اینکه اندازه قاب تصویر همیشه یکسان است و منبع حباب ها ثابت فرض می شود، برای به دست آوردن تخمینی از میانگین تعداد حباب ها در هر تصویر با دقت 5 درصد، باید چند تصویر را بشمارم؟ من فرض میکنم که تعداد حبابها در هر تصویر به صورت poisson توزیع شده است و یک نگاه سریع به تصاویر نشان میدهد که حدود 5-20 حباب در هر تصویر دارم. | چند شمارش برای تخمین میانگین به یک دقت خاص مورد نیاز است؟ |
78250 | من سعی می کنم تخمین پارامتر و مشکلات یادگیری را در مدل های گرافیکی، به ویژه در مدل های جهت دار (شبکه های بیزی) درک کنم. اما اول از همه، من سعی میکنم بفهمم که یک پارامتر در شبکه بیزی دقیقاً به چه معناست. جدایی بین یک متغیر و یک پارامتر هنگام توصیف مشکلات یادگیری به خصوص در یادگیری بیزی که پارامترها نیز متغیر هستند مبهم می شود. بنابراین به طور کلی، ما یک فرآیند تصادفی داریم که با نمودار $G$ نشان داده می شود. این نمودار از متغیرهای تصادفی $S$، $X_1،X_2،...،X_S$ تشکیل شده است و توزیع احتمال بر روی این متغیرها $P(X_1,X_2,...,X_S)=\prod_{i=1} است. ^{S} P(X_i|والدین(X_i))$. حالا، کجا پارامترها در اینجا قرار می گیرند؟ از آنچه تاکنون فهمیده ام: 1. با معادله $P(X_1,X_2,...,X_S)=\prod_{i=1}^{S} P(X_i|parents(X_i))$، ما به طور ضمنی فرض کنید که یک مجموعه پارامتر $\theta$ قبلاً داده شده است و ما در واقع منظورمان است $P(X_1,X_2,...,X_S|\theta_{1},\theta_{2},...,\theta_{S})=\prod_{i=1}^{S} P(X_i |parents(X_i)،\theta_{i})$. اگر فرآیند $G$ را اجرا کنیم، $N$ بار در یک i.d. مد، سپس یکی است: یک مجموعه صحیح برای $\theta$ وجود دارد و هر بار که فرآیند را اجرا می کنیم، متغیرها مطابق با این یک و تنها واقعی $\theta$ (نمایش حداکثر احتمال) یا $\theta نمونه سازی می شوند. $ توزیع قبلی $P(\theta)$ دارد و nature یک $\theta$ را پیشینی ترسیم می کند و سپس تمام $N$ قبلی و هر نمونه آینده ما با این $\theta$ تولید می شود. (نمای بیزی). بنابراین، هنگام استنتاج در مورد یک نمونه جدید، همه $\theta$ ممکن را ادغام می کنیم. آیا این الگوی فکری درست است؟ 2. اگر به این به عنوان یک فرآیند مولد فکر کنیم، آیا میتوانیم بگوییم که برای یک متغیر $X_i$، نمونهای از والدین آن، $parents(X_{i})=\pi$ زیرمجموعهای از $\theta_{ را انتخاب میکند. i}$ به عنوان $\theta_{i}^{\pi}$ و سپس با توجه به توزیع، X_{i}$ ایجاد میکند. $P(X_{i}|والدین(X_{i})=\pi، \theta_{i}^{\pi})$؟ من به این زیر مجموعه فکر میکنم زیرا $X_{i}$ دارای توزیعهای متفاوتی است که مشروط به مقادیر متفاوتی از والدینش است و هر یک از این توزیعها میتوانند پارامترهای متفاوتی (یا البته مشترک) در بین $\theta_{i}$ داشته باشند. باز هم، آیا این درست است یا من چیزی را به طور کامل گم کرده ام یا اشتباه متوجه شده ام؟ 3. در مدل گرافیکی، برای هر $X_{i}$ یک گره جدید $\theta_{i}$ اضافه میکنیم که والد جدید $X_{i}$ است و هیچ والدینی برای خود ندارد. (همچنین میتوان پارامترهای مشترکی بین متغیرهای تصادفی وجود داشت.) بنابراین، برای هر نمونه از فرآیند $G$، یک گراف جهتدار جدید $G_{n}$ داریم که گرههای آن به $\theta_{i مربوطه متصل هستند. }$ گره ها و با توجه به تمام گره های $\theta$، این نمونه های $N$ مستقل از یکدیگر هستند. (البته این از نقطه نظر تئوری است، تا آنجایی که من می دانم این نشان بندی صفحه برای کاربردهای واقعی استفاده می شود.) در نهایت، آیا این درست است یا اشتباه؟ هدف من از این سوال تایید یا بی اعتبار کردن درک فعلی من از مفهوم پارامتر در مدل های گرافیکی است. من به درک کاملی نیاز دارم زیرا باید با مفاهیم پیشرفته ای مانند یادگیری با الگوریتم EM و غیره کنار بیایم. پیشاپیش متشکرم. | پارامترها و تخمین پارامترها در مدل های گرافیکی |
53414 | من سعی می کنم تجزیه و تحلیل مؤلفه های اصلی را با هدف تبدیل مجموعه متغیرهای همبسته خود به مجموعه ای از متغیرهای غیر همبسته (به جای کاهش ابعاد) انجام دهم. با این حال، دادهها تودرتو هستند، و وقتی من این تودرتو را در نظر میگیرم، برخی از مؤلفههای من همبستگی بالایی دارند. به طور خاص، متغیرهای اصلی من در چندین سایت در تعدادی از تکه های جنگلی اندازه گیری می شوند. هنگامی که من یک PCA استاندارد را اجرا می کنم، هیچ یک از مؤلفه های اصلی در کل مجموعه داده همبستگی ندارند، اما وقتی یک مؤلفه را به عنوان تابعی از دیگری در یک مدل اثرات مختلط که شامل وصله به عنوان یک فاکتور تصادفی است، مدل می کنم، رابطه بین برخی از جفت ها اجزای آن بسیار قابل توجه است. لطفاً کسی می تواند به من بگوید که آیا راهی برای انجام PCA در حین حسابداری ساختار داده های تودرتو وجود دارد، یا اگر نه، آیا روش دیگری وجود دارد که بتوانم از آن برای تبدیل مجموعه ای از متغیرهای همبسته به مجموعه ای از متغیرهای غیرهمبسته در حین حسابداری برای تودرتو استفاده کنم. ? ممنون از کمکت، جی | تجزیه و تحلیل مؤلفه های اصلی ایجاد محورهای همبسته با داده های تو در تو است |
78256 | من سعی می کنم کدی بنویسم تا یک رگرسیون بر روی وزن داده (x) و زمان (y) انجام دهم. تا جایی که می توانم بگویم، مدل باید y = b1 + b2ln(x) باشد، اما من نمی دانم چگونه می توان این کار را با دست انجام داد (من می دانم چگونه در R...). من می دانم چگونه یک رگرسیون خطی ساده را با دست انجام دهم. قدرش را بدان | رگرسیون لگاریتمی با دست |
50265 | تکنیک های رایج برای استخراج ویژگی اشکال چیست؟ من در حال تجزیه و تحلیل تصویر هستم، و میخواهم یک جسم صاف (یکی با مرزهای صاف) را از یک جسم ناهموار (دارای مرز زیگزاگ) طبقهبندی کنم. کدام ویژگی باید به چارچوب یادگیری ماشینی وارد شود؟ | استخراج ویژگی شکل دوبعدی |
78255 | پارادوکس سیمپسون یک پازل کلاسیک است که در دوره های آمار مقدماتی در سراسر جهان مورد بحث قرار می گیرد. با این حال، دوره من فقط به این نکته بسنده کرد که یک مشکل وجود دارد و راه حلی ارائه نمی کند. من می خواهم بدانم چگونه پارادوکس را حل کنم. یعنی وقتی با پارادوکس سیمپسون روبرو میشویم، که در آن به نظر میرسد دو انتخاب متفاوت برای بهترین انتخاب، بسته به نحوه تقسیمبندی دادهها، رقابت میکنند، کدام انتخاب را باید انتخاب کرد؟ برای مشخص کردن مسئله، اجازه دهید اولین مثال ارائه شده در مقاله مربوطه ویکی پدیا را در نظر بگیریم. این بر اساس یک مطالعه واقعی در مورد درمان سنگ کلیه است.  فرض کنید من یک پزشک هستم و با آزمایش مشخص می شود که بیمار سنگ کلیه دارد. فقط با استفاده از اطلاعات ارائه شده در جدول، می خواهم تعیین کنم که آیا باید درمان A یا درمان B را انجام دهم. به نظر می رسد اگر اندازه سنگ را بدانم، باید درمان A را ترجیح دهیم. اما اگر این کار را نکردیم، پس ما باید درمان B را ترجیح دهیم. اما راه قابل قبول دیگری برای رسیدن به پاسخ در نظر بگیرید. اگر سنگ بزرگ است باید A و اگر کوچک است دوباره A را انتخاب کنیم پس حتی اگر اندازه سنگ را ندانیم با روش موارد می بینیم که باید A را ترجیح دهیم. این با استدلال قبلی ما در تضاد است. بنابراین: یک بیمار وارد مطب من می شود. یک آزمایش نشان می دهد که آنها سنگ کلیه دارند اما هیچ اطلاعاتی در مورد اندازه آنها به من نمی دهد. کدام درمان را توصیه می کنم؟ آیا راه حل پذیرفته شده ای برای این مشکل وجود دارد؟ ویکیپدیا به وضوح با استفاده از «شبکههای بیزی علّی» و آزمون «در پشتی» اشاره میکند، اما من نمیدانم اینها چیستند. | چگونه پارادوکس سیمپسون را حل کنیم؟ |
78252 | اکثر مراجعی که من پیدا می کنم می گویند که تابع فعال سازی استفاده شده در 'nnet' 'معمولا' یک تابع لجستیک است. اما در موردی که می خواهم عملکرد شبکه عصبی آموزش دیده را از nnet آزمایش کنم، لازم است تابع فعال سازی دقیق مورد استفاده را بدانیم. | تابع فعال سازی مورد استفاده در گره های لایه پنهان از کتابخانه nnet در R چیست؟ |
30991 | آیا انجام یک رگرسیون لجستیک چندگانه که هر دو متغیر وابسته و مستقل باینری هستند مناسب است؟ یا، آیا می توانم فقط از رگرسیون لجستیک ساده استفاده کنم؟ تفاوت این دو روش چیست؟ | آیا انجام یک رگرسیون لجستیک چندگانه که هر دو متغیر وابسته و مستقل باینری هستند مناسب است؟ |
109504 | من تازه وارد آمار هستم، این اولین پست من است، بابت اشتباه احتمالی متاسفم. یک مدل _فاکتورسازی ماتریس احتمالی بیزی_ خوب معرفی شده است در: فاکتورسازی ماتریس احتمالی بیزی با استفاده از زنجیره مارکوف مونت کارلو من سعی داشتم یک نسخه باینری از آن را پیادهسازی کنم، یعنی تمام ورودیهای ماتریس رتبهبندی ۰ یا ۱ هستند، ممکن است فکر کنید. آن را به عنوان نشان می دهد که آیا هر رتبه از دست رفته است یا نه. بنابراین حدس میزنم بردارهای پنهان U و V نیز باید به باینری تغییر کنند. حالا، از آنجایی که من در آمار خوب نیستم، حدس من این است که باید تغییر زیر را در مدل مولد 1 ایجاد کنم: پیشینهای گاوسی چند متغیره در U,V را به مجموعه ای از پیشین های برنولی تغییر دهید، به عنوان مثال، برای یک بردار نهفته. $U_i$، عناصر آن از $$ U_{i,k} \sim \mathrm{برنولی}(\pi_k) تولید شدهاند. \\\ \pi_k \sim \mathrm{بتا}(\alpha,\beta) $$ $k=1...D$، $D$ بعد عوامل نهفته است، $\alpha،\beta$ مسلم است هایپرپارامترها آیا این مدل مناسب است؟ اگر چنین است، آیا می توان تخمین پارامتر MCMC آن را با استفاده از pymc پیاده سازی کرد؟ فقط یک طرح کلی ساده از کد pymc را به من نشان دهید عالی خواهد بود. * * * این یک مشکل بزرگ برای من است. پیشاپیش متشکرم | نسخه باینری فاکتورسازی ماتریس احتمالی در pymc؟ |
63323 | در این مقاله علمی، نویسندگان تا حدی به تلاش برای شناسایی ژنهایی که در چرخه هستند (که در طول روز بر حسب ساعت بیولوژیکی نوسان میکنند) علاقه دارند. در اینجا عصارهای از روشها است که روش آنها را توضیح میدهد: > تجزیه و تحلیل سری زمانی برای چرخه شبانه روزی: > > چرخه RNA توسط سه برنامه، COSOPT (35)، چرخه JTK (75) و > ARSER (76) با برشهای سطح بیان ارزیابی شد، > 0.05 RPKM برای اینترون، > 0.5 RPKM > برای اگزون و > 0.0625 RPKM برای ضد حس برای تجزیه و تحلیل چرخه COSOPT و JTK، > داده ها با رگرسیون خطی کاهش یافتند. **اگر از هر سه برنامه > دو برنامه دوچرخه سواری با آستانه p <0.05** را تشخیص دهند، یک ژن دوچرخه سواری در نظر گرفته شد. دوره > و فاز از ARSER برای تجزیه و تحلیل بیشتر استفاده شد. ForChIP-seq peak > آنالیز، دو چرخه به هم پیوسته شدند و چرخه با > ARSER آنالیز شد (05/0p<). سوال من این است که انجام تست های متعدد (بیش از 20000 تست) با استفاده از نرم افزارهای مختلف و سپس انتخاب آنهایی که در **p-value (نه FDR) < 0.05** از همه نرم افزارها مهم هستند، چقدر از نظر آماری قابل قبول/اعتبار است؟ | اعتبار جایگزینی مقدار q با مقادیر p از آزمایش چندگانه ابزارهای مختلف |
30999 | احتمال کاربردی شاخه مهمی در احتمالات از جمله احتمال محاسباتی است. از آنجایی که آمار از تئوری احتمال برای ساخت مدلهایی برای مقابله با دادهها استفاده میکند، به عنوان درک من، میپرسم تفاوت اساسی بین مدل آماری و مدل احتمال چیست؟ مدل احتمال به داده های واقعی نیاز ندارد؟ با تشکر | تفاوت بین مدل آماری و مدل احتمال؟ |
78259 | آیا یک شبکه پیشخور چند لایه با n واحد در هر لایه میتواند عملکرد بدتری نسبت به یک شبکه مشابه با واحدهای $<n$ داشته باشد (به عنوان مثال توپولوژی یکسان، فقط واحدهای بیشتری در هر لایه پنهان)؟ من تصور میکنم که نمیتواند (با فرض نداشتن مشکل میمیمای محلی)، زیرا اگر چنین بود، الگوریتم آموزشی فقط میتوانست برخی از وزنها را به صفر برساند و اساساً شبکه پیچیدهتر را معادل شبکه کمپیچیدهتر کند. آیا این درست است یا چیزی را از دست داده ام؟ | آیا یک شبکه پیشخور با n واحد در هر لایه می تواند عملکرد بدتری نسبت به شبکه ای با <n واحد داشته باشد؟ |
30995 | من به دنبال راهی برای تجسم رتبه بندی ذهنی، جدا از آزمون های غیر پارامتری خود هستم. من از 12 شرکتکننده خواستهام که 8 مورد مختلف را بر اساس معیارهای ذهنی مختلف (رتبهبندی جداگانه برای هر یک) رتبهبندی کنند. برای هر مجموعه ای از رتبه بندی ها، من به دنبال راه خوبی برای تجسم روندهای سطح بالای رتبه بندی هستم. من هر دو نمودار نواری و رادار را در رتبهبندی متوسط امتحان کردهام، و دیدهام که یک نفر دیگر از نمودار پراکنده/بالون بر روی تعداد پاسخها در هر رتبهبندی استفاده میکند، اما کاملاً مطمئن نیستم که چه چیزی بهترین نمای کلی را نشان میدهد. یا می توانم از 8 رتبه بندی میانگین استفاده کنم، یا از 8 شمارش هر رتبه در هر مورد. **ویرایش:** به عنوان مثال: هر ستون یک آیتم است، هر ردیف رتبهبندی هر یک از هشت مورد است. در این مثال توافق خاصی وجود ندارد، اما به طور کلی میخواهم بهترین راه برای انتقال روند کلی را بفهمم. مورد: A B C D E F G H رتبهدهنده: 1 6 8 1 7 3 4 2 5 2 1 3 8 7 6 5 2 4 3 5 8 7 6 1 4 2 3 4 5 8 7 6 4 2 1 3 5 1 4 8 5 6 1 7 8 5 6 2 4 3 7 5 1 8 4 7 3 6 2 8 4 2 8 7 6 1 5 2 9 6 3 8 4 7 1 5 2 10 3 2 8 7 4 1 5 6 11 2 3 7 8 5 1 5 2 4 5 6 7 2 3 1 4 | چگونه می توان نتایج ترتیب رتبه بندی ذهنی را ترسیم کرد؟ |
37961 | من مجموعه ای از مقادیر را دارم که می خواهم از آنها فرمولی بدست بیاورم. در زیر مجموعه داده است. F V1 V2 V3 V4 A1(i) 0.02 30 0.5 X1(i) A2(i) 0.02 60 0.5 X2(i) A3(i) 0.02 90 0.5 X3(i) A4(i) 0.02 120 0.5 X4(i) (i) 0.1 30 0.1 X5(i) A6(i) 0.1 60 0.1 X6(i) A7(i) 0.1 90 0.1 X7(i) A8(i) 0.1 120 0.1 X8(i) A9(i) 0.2 30 0.01 X9(i) A10( i) 0.2 60 0.01 X10 (i) A11(i) 0.2 90 0.01 X11(i) A12(i) 0.2 120 0.01 X12(i) A13(i) 0.5 30 0.02 X13(i) A14(i) 0.5 60 0.02 X15(i) 0.02 X15(i) A16(i) 0.5 120 0.02 X16(i) F = نیروی برش، V1 - V3 = پارامترهای برش V4 = موقعیت ابزار. من به یک فرمول برای Y به عنوان تابعی از V1، V2، V3، V4 نیاز دارم. جایی که V1، V2، V3 پارامترهای فرآیند در فرآیند برش مکانیکی هستند و V4 موقعیت ابزار در حین برش است. آنچه مشاهده می کنیم این است که، حتی زمانی که پارامترهای فرآیند (V1، V2، V3) ثابت هستند، بسته به موقعیت ابزار روی قطعه کار، مقادیر متفاوت A برای هر X دریافت می کنیم. آیا می توان فرمولی برای این موضوع داشت؟ من قبلاً از تحلیل رگرسیون برای بدست آوردن فرمولی برای حداکثر مقدار A به عنوان تابعی از V1، V2، V3 استفاده کرده ام. اما اکنون میخواهم مقادیر متغیر X (متغیر موقعیت) و مقادیر A حاصل را از آنجا نیز وارد کنم تا فرمول دیگری به دست آید. من سوالات مشابه دیگری را دیده ام اما هنوز احساس می کنم که این یک مورد متفاوت است، بنابراین من یک سوال جدید ایجاد کرده ام. سیگنالی که من برای اندازهگیری نیرو استفاده میکنم به این صورت است:  همچنین میتواند با فرمول زیر نمایش داده شود (با استفاده از matlab یافت میشود. جعبه ابزار برازش منحنی) $$ f(x) = k \left(a_1 e^{-\left(\frac{x-b_1}{c1}\right)^2}+ a_2 e^{-\left(\frac{x-b_2}{c2}\right)^2}+ a_3 e^{-\left(\frac{x-b_3}{c3}\right)^2}+ a_4 e^{-\left(\frac{x-b_4}{c4}\right)^2}+ a_5 e^{-\left(\frac{x-b_5}{c5}\right)^2}\right) $$ آیا کسی ایده ای در مورد چگونگی ایجاد یک مدل رگرسیون برای این معادله دارد، با توجه به اینکه من 16 دارم مجموعه ای از مقادیر، هر کدام برای هر یک از 16 متغیر $$ k, a_1,b_1,c_1,....a_5,b_5,c_5 $$ | فرمول را از مقادیر تجربی بدست آورید |
34430 | سوال من این است که چگونه می توان آزمایش کرد که آیا دو نسبت از یک نمونه از بیماران به طور قابل توجهی با یکدیگر متفاوت هستند که با یک مقدار p نشان داده شده است؟ مثال: 100 نفر، 1 نفر دارای بیماری A و 2 نفر دارای بیماری B هستند. آیا بروز بیماری A بیشتر از بیماری B است. وقوع بیماری A با 1/100 در مقایسه با 2/100 برای B؟ کلمه کلیدی همان نمونه بیماران است. هر گونه کمکی بسیار قدردانی خواهد شد. :) | مقایسه نسبت ها از همان نمونه بیماران |
47450 | بهترین کتاب برای یادگیری احتمال چیست - پواسون، دوجمله ای، رگرسیون، و غیره. من به عنوان یک تنظیم کننده شانس در یک کتابفروشی کار می کنم و باید مهارت های خود را به سطح کامپایلر شانس ارتقا دهم. | بهترین کتاب برای یادگیری احتمال - پواسون، دو جمله ای، رگرسیون و غیره |
10206 | مفروضات فنی دست و پا گیر (به عنوان مثال، خواص اختلاط) در ادبیات برای اثبات قضایای حد مرکزی برای دنباله های وابسته استفاده می شود. من مدرکی را ترسیم کردم که به هیچ یک از این فرضیات فنی نیاز ندارد. آیا می توانید به من کمک کنید تا بفهمم این اثبات چه اشکالی دارد؟ اثبات در: http://www.statlect.com/central_limit_theorem_for_correlated_sequences.htm است. پیشاپیش از همه کسانی که برای خواندن آن سخاوتمند و صبور هستند تشکر می کنم. | شرایط قضیه حد مرکزی برای دنباله های وابسته |
34439 | من از یک رگرسیون لجستیک چند جمله ای برای بررسی همبستگی های انتخاب مدرسه استفاده کرده ام. سه احتمال برای متغیر وابسته وجود دارد: مدرسه دولتی، مدرسه خصوصی و مدرسه NGO (سازمان غیردولتی، یعنی غیرانتفاعی). با این حال، من تقریباً مطمئن هستم که این مشکل، فرضیه استقلال جایگزینهای نامربوط (IIA) را نقض میکند - هم به دلایل شهودی (مثلاً حذف گزینه NGO احتمال رفتن به دولت در مقابل مدرسه خصوصی را افزایش میدهد) و هم با استفاده از « دستور suest` در Stata برای انجام تست هاسمن (100% مطمئن نیستم که این کار را به درستی انجام داده ام، اما این یک مسئله دیگر است). به هر حال سوال این است که اگر logit چند جمله ای بهترین مدل برای استفاده نیست، چه چیز دیگری می توانم امتحان کنم؟ از آنجایی که تنها سه گزینه وجود دارد، آیا می توانم به سادگی از دو لاجیت مجزا استفاده کنم (مثلاً NGO در مقابل سایر و خصوصی در مقابل سایرین) یا مناسب نیست؟ همانطور که من درک می کنم، سایر روش های چند جمله ای مشکلات خاص خود را دارند، مانند ویژگی نسبت ثابت جانشینی (همانطور که در اینجا توضیح داده شده است (pdf)). برای آنچه ارزش دارد، پروبیت چند جمله ای نتایج مشابه mlogit ایجاد می کند. آیا می توان استدلال کرد که نتایج mlogit نسبتاً دقیق هستند (شاید، استدلال کنیم که ناقص است اما بهترین مدل موجود است) با وجود نقض IIA، و اگر چنین است چه شواهدی این ادعا را تأیید یا رد می کند؟ (این دو مقاله استدلال میکنند که لاجیت چندجملهای حداقل به اندازه پروبیت چندجملهای در زمینه انتخاب رأیدهندگان دقیق است). | جایگزین های رگرسیون لجستیک چند جمله ای |
112453 | من از یک بسته R بیزی محور برای برخی از آنالیزهای ژنومیک برای تشخیص جهش در 3 فرد از یک خانواده استفاده کرده ام. با توجه به نحوه نگارش بسته، باید هر تحلیل را برای هر فرد جداگانه انجام دهم. وقتی من تست بیزی را به کار می برم، هر 3 نفر تست مثبت می گیرند، و برای سه تست جداگانه، ضریب بیز مثلاً 4، 7 و 9 را دریافت می کنم، که تا آنجایی که می توانم بگویم در حوزه شواهد «قابل توجه» است (به عنوان مثال http ://en.wikipedia.org/wiki/Bayes_factor#Interpretation) سوال من این است که این 3 فرد همگی حامل این جهش هستند (که ما نیز همینطور بود). فرضیه قبلی)، آیا می توانم این عوامل بیز را که به طور مستقل مورد آزمایش قرار گرفته اند، ادغام کنم تا نوعی عامل بیز «فراتحلیل» ارائه کنم، که احتمالاً برای کل خانواده بیش از 10 خواهد بود؟ | ادغام چندین آزمون عوامل بیز |
63320 | هنگام مقایسه مدلهای GMM با تعداد مؤلفههای مختلف (یعنی تعداد گاوسیان)، احتمال تعداد کل پارامترهای آزاد در مدل مخلوط جریمه میشود. اگر داده ها در بعد $D$ باشند، تعداد پارامترهای آزاد برای مولفه های $J$ به صورت زیر داده می شود: $J-1$: برای وزن های $J$ که مجموع آنها یک $D$ است: برای هر میانگین $D(D +1)/2$: برای هر ماتریس کوواریانس سوال من این است: با فرض اینکه من در یک فضای محدود در $D$ کار می کنم و به دقت بی نهایت نیاز ندارم، اگر به جای اینکه فضای خود را به نقاط شبکه ای گسسته کنم. با اشاره به هر مکان متوسط با بردار مختصات عناصر $D$ آیا نمی توانم فقط از یک پارامتر به عنوان شاخص برای تعریف مکان استفاده کنم؟ این فقط برای بردار میانگین کار می کند، اما با این وجود باعث کاهش پیچیدگی خواهد شد. | تعداد پارامترهای آزاد در مدل های مخلوط گاوسی |
78251 | من دانشجوی روانشناسی هستم و در حال حاضر در حال تهیه پیش نویس طرح آزمایشی پایان نامه ام هستم. من واقعاً میتوانم در مورد سؤال آماری زیر به کمک نیاز داشته باشم. در آزمایش من، شرکت کنندگان در دو گروه مختلف قرار خواهند گرفت. در یک گروه، شرکت کنندگان تحت رویه ای قرار می گیرند که احتمالاً به طور موقت همدلی آنها را کاهش می دهد. گروه دیگر گروه کنترل است. این دو گروه متغیر مستقل را تشکیل می دهند. متغیر وابسته یک مؤلفه عصبی خواهد بود (یک پتانسیل مرتبط با رویداد) که فرض می شود یک شاخص روانی فیزیولوژیکی همدلی است. این جزء در دو موقعیت مختلف (Repeated Measures!) اندازه گیری خواهد شد. همچنین، شرکت کنندگان در یک مقیاس فاصله ای، خود توصیفی از همدلی فعلی خود ارائه می دهند. سوال من این است: آیا می توانم از ANCOVA با همدلی خود گزارش شده به عنوان متغیر کمکی استفاده کنم تا بررسی کنم که آیا همدلی گزارش شده از خود تأثیر دستکاری بر مؤلفه عصبی را واسطه می کند؟ من این کار را به این صورت انجام میدهم: اولاً، من یک ANOVA را بدون متغیر کمکی محاسبه میکنم تا تعیین کنم آیا اثر دستکاری وجود دارد یا خیر. ثانیاً، من یک ANCOVA را با همدلی خود گزارششده بهعنوان متغیر کمکی محاسبه میکنم و بررسی میکنم که آیا تأثیر از بین رفته یا کاهش یافته است. من احساس میکنم که این روش میتواند به تأیید (یا رد) فرضیه من کمک کند، اما در مورد فرضیه ANCOVA نیز مطالعه کردم، که متغیر کمکی ممکن است با متغیر مستقل همبستگی نداشته باشد. الان کمی گیج شدم. آیا هنگام استفاده از ANCOVA به این روش، تحقق این فرض لازم است؟ متشکرم! | آیا می توانم از ANCOVA برای تجزیه و تحلیل میانجیگری استفاده کنم؟ |
109509 | من در حال حاضر در حال اجرای یک مطالعه رویداد هستم، که برای آن باید بفهمم آیا رویدادهای من خوشهای هستند و/یا فراوانی آنها به بازار سهام مرتبط است. ایجاد یک نمودار پراکنده از تاریخ رویداد و شاخص بورس به من یک ایده تقریبی می دهد که آنها همبسته هستند (نقاط در نمودار پراکندگی در طول نوسانات بازار متراکم تر می شوند و در رکودها کمتر می شوند)، اما من نمی دانم چگونه ثابت کنم. این در سطح آماری معنی دار است. در طول جستجوی خود به یک رگرسیون به ظاهر نامرتبط برخورد کردم، اما مطمئن نیستم که آیا این ابزار مناسبی برای استفاده است یا خیر، و اگر هست، چگونه از آن استفاده کنم. من نمودار پراکندگی را پیوست کرده ام، محور x تاریخ رویداد و محور y شاخص S&P 500 در زمان رویداد است. اگر میدانید چگونه میتوانم این را کمیت کنم، لطفاً به من اطلاع دهید، زیرا میخواهم از چیزی محکمتر از «نگاه به نمودار» استفاده کنم. LE بسیار قدردانی شده است: برای اینکه ایده بهتری درباره ساختار داده های خود داشته باشم، فقط دو متغیر دارم: _date_ که تاریخ رویداد است و _sp500_ که سطح S&P 500 برای هر _date_ است. از این دو، من سعی می کنم ببینم که آیا _date_ در زمانی که _sp500_ بالا است، خوشه ای است (همزمان اتفاق می افتد یا نزدیک به یکدیگر است) و بالعکس.  | چگونه برای تست همبستگی بین فراوانی یک رویداد و بازار سهام |
10207 | نحوه پیدا کردن تعداد اجراها در زیر: | چگونه تعداد اجراها را پیدا کنیم؟ |
112451 | آیا کسی می تواند در مورد تخمین حداکثر احتمال (MLE) به صورت غیرمستقیم به من توضیح دهد؟ من می خواهم قبل از رفتن به مشتق یا معادله ریاضی مفهوم اساسی را بدانم. | MLE به زبان عامیانه |
50269 | من در حال مقایسه دو روش جراحی هستم و میخواهم بدانم چگونه میتوانم دادههایی را که برای یک متاآنالیز در اختیار دارم، تجزیه و تحلیل کنم. روش کلی جراحی یکسان است، اما برخی از نویسندگان تصمیم میگیرند که این روش را کمی تغییر دهند. بنابراین اساساً من تعداد زیادی مطالعه با روش استاندارد و تعداد کمتری با روش اصلاح شده دارم. نتیجه درصد عوارض است، به عنوان مثال، 20٪ از جمعیت مورد مطالعه دارای عوارض خفیف و 10٪ عوارض شدید داشتند. بهترین راه برای نشان دادن اینکه آیا روش اصلاح شده به خوبی رویه استاندارد است، چیست؟ | چگونه از یک متاآنالیز برای ارزیابی هم ارزی دو روش مختلف استفاده کنیم؟ |
63325 | من در حال تجزیه و تحلیل برخی از داده های فعالیت کاربر برای یک وب سایت شبکه اجتماعی هستم. برای هر کاربر، شاخصهایی از فعالیت دارم مانند: * تعداد صفحات بازدید شده * تعداد نظرات * تعداد اشتراکگذاریها * تعداد لایک * تعداد دوستان همه متغیرها تعداد سادهای هستند و دادههای دستهبندی ندارند. اکنون، میخواهم یک «شاخص فعالیت» ارائه کنم که کل فعالیت کاربر را نشان دهد. واضح است که میتوانم از میانگین ساده این متغیرها استفاده کنم، اما، همانطور که در این زمینه انتظار میرود، بسیاری از آنها به شدت وابسته هستند (مثلاً افرادی که زیاد نظر میدهند، معمولاً از صفحات زیادی بازدید میکنند و غیره). برای انجام این کار، متغیرها را مقیاسبندی کردم، و سپس یک PCA را اجرا کردم، که مؤلفههای زیر را پیدا کرد: اهمیت مؤلفهها: Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 انحراف استاندارد 1.5586900 1.1886741 0.8548985 0.4857532670i Variation از 0.485753879 0.4859029 0.2825892 0.1461703 0.04719232 0.03814528 نسبت تجمعی 0.4859029 0.7684921 0.9146624 0.9146624 0.920180 به نظر می رسد که دو مهم هستند. کامپوننتها در اینجا هستند، بنابراین نمیتوانم از اولین مورد به عنوان شاخص استفاده کنم. برای به دست آوردن یک شاخص فعالیت مناسب که وابستگی متغیر را در نظر می گیرد، چگونه به این مشکل برخورد می کنید؟ **ویرایش:** آیا ترکیب خطی اجزای PCA که بر اساس نسبت واریانس وزن شده اند اشتباه است؟ با تشکر از هر گونه بازخورد. مولون | کاهش ابعاد برای خلاصه کردن فعالیت کاربر |
115109 | چگونه می توانیم پیش بینی عدد صحیح داشته باشیم؟ در حالی که با مقادیر تقاضا سروکار داریم، پیش بینی های کسری منطقی نیست. با تشکر | چگونه مقادیر پیش بینی عدد صحیح داشته باشیم؟ |
37963 | من نمی فهمم استاد چگونه این مشکل را حل کرده است. سوال این است: > شما در حال کار با مجموعه داده ای هستید که حاوی توضیحاتی درباره مواد سمی و غیر سمی است. مجموعه داده، که از 1000 نمونه از هر یک از > دو کلاس تشکیل شده است، در قالب یک برچسب کلاس و تعدادی ویژگی > توضیح داده شده است. مجموعه داده به گونهای مرتب شده است که 1000 نمونه سمی اول و سپس 1000 نمونه غیر سمی قرار میگیرند. شخصی به شما میگوید که آنها تأیید کردهاند که برای این مجموعه داده، احتمال شرطی که از دانش درباره ویژگی X به دست میآید با احتمال کلاس قبلی تفاوتی ندارد. با فرض صحیح بودن آنها، کدامیک از جملات زیر می تواند صحیح و کدامیک صحیح نباشد؟ > > 1. همه نمونه ها مقدار یکسانی برای ویژگی X دارند. > 2. همه نمونه های سمی مقدار یکسانی برای ویژگی X دارند در حالی که هر یک از > نمونه های غیر سمی مقدار تصادفی خود را برای ویژگی X دارند. > سؤال من این است که چگونه آیا زمانی که اطلاعات داده شده بسیار محدود است، هر کدام از این پاسخ ها به این سوال درست است؟ کتابی که ما برای داده کاوی استفاده می کنیم Witten and Frank، _Data Mining: Practical Machine Learning Tools and Techniques_، Morgan Kaufmann، 2011 (ویرایش سوم) است. | کشف برچسبهای کلاس بر اساس احتمال کلاس شرطی یا قبلی |
26722 | آیا راهی در R (یک تابع داخلی) برای محاسبه ماتریس انتقال زنجیره مارکوف از روی مجموعهای از مشاهدات وجود دارد؟ به عنوان مثال، یک مجموعه داده مانند زیر را بگیرید و ماتریس انتقال مرتبه اول را محاسبه کنید؟ dat<-data.frame(replicate(20,sample(c(A، B، CD)، اندازه = 100، replace=TRUE))) | محاسبه ماتریس انتقال (مارکوف) در R |
109506 | من در حال تجدید قضیه بیز و احتمال شرطی هستم و با این مسائل تمرینی برخورد کردم. من تا مشکل 9 در حال حمل و نقل بودم که بیان میکند: اچآیوی وزارت بهداشت ایالت نیویورک نرخ 10 درصدی ویروس HIV را برای جمعیت «در معرض خطر» گزارش میکند. تحت شرایط خاص، آزمایش غربالگری اولیه برای ویروس HIV در 95٪ موارد صحیح است. (تا زمانی که آزمایشهای اضافی نتایج را تأیید نکند، به آزمودنیها گفته نمیشود که آلوده به HIV هستند). غربالگری اولیه خیلی مستقیم به نظر می رسد. فرض کنید P(H) نشان دهنده احتمال ابتلا به HIV باشد. سپس P(H) = 0.1 P(~H) = 0.9 P(+ | H) = 0.95 و باید P(H | +) = P(H)P(+ | H)/[ (P(H)P(+ | H)) + (P(~H)P(+ | ~H)) پس از اجرای اعداد به نوعی نتیجه می گیرند که P(+ | ~H) = 1 - P(+ | H) = 0.05 من این را با کار کردن برعکس از پاسخ آنها فهمیدم. مشکل اینجاست که نمی دانم چگونه به این نتیجه رسیده اند. با انجام کاری که در بالا انجام دادند، باید هر دو P(- | H) و P(+ | ~H) را با هم شامل شوند، زیرا این موارد مخالف P(+ | H) هستند. دلیل اینکه من گیج شدهام این است که به نظر نمیرسد راه مناسبی برای اشاره به احتمال مثبت بودن آزمایش آنها با توجه به اینکه HIV ندارند، نیست، دقیقاً به این دلیل که آنچه در بالا فکر میکنم انجام دادهاند شامل مواردی هم میشود که آزمایش آنها منفی بوده است، حتی اگر آنها HIV دارند. آیا کسی می تواند مرا از طریق منطق خود در اینجا راهنمایی کند؟ با تشکر | نفی احتمال شرطی |
2988 | چگونه می توان حجم نمونه مورد نیاز برای مطالعه ای را محاسبه کرد که در آن گروهی از افراد دارای یک متغیر پیوسته واحد هستند که در زمان جراحی اندازه گیری می شود و سپس دو سال بعد به عنوان پیامد عملکردی یا پیامد مختل طبقه بندی می شوند. میخواهیم ببینیم آیا آن اندازهگیری میتوانست نتیجه بد را پیشبینی کند یا خیر. در برخی موارد ممکن است بخواهیم یک نقطه برش در متغیر پیوسته استخراج کنیم که در بالای آن سعی کنیم برای کاهش احتمال پیامد مختل مداخله کنیم. هر ایده ای؟ هر پیاده سازی R. | محاسبه اندازه نمونه برای رگرسیون لجستیک تک متغیره |
37969 | من به انجام آنالیز توان با داده های بدون وزن عادت دارم. در R، من از بسته pwr استفاده می کنم که بر اساس کوهن (1988) است. چگونه تجزیه و تحلیل توان را روی داده های بررسی وزنی انجام می دهید؟ من فکر نمی کنم شما بتوانید از محاسبات مشابه استفاده کنید. وزن ها احتمالاً باید به نحوی در آن نقش داشته باشند؟ آیا مرجعی وجود دارد که در این مورد بحث کند؟ | تجزیه و تحلیل توان با داده های بررسی وزنی |
66315 | من اخیراً شروع به خواندن مقدمه ای بر آمار بیزی ویرایش دوم بولستاد کردم. من یک کلاس آمار مقدماتی داشته ام که عمدتاً تست های آماری را پوشش می دهد و تقریباً در یک کلاس در تجزیه و تحلیل رگرسیون هستم. از چه کتاب های دیگری می توانم برای تکمیل درک خود در این کتاب استفاده کنم؟ من از 100-125 صفحه اول به خوبی عبور کردم. پس از آن کتاب شروع به صحبت در مورد آزمایش فرضیه می کند، چیزی که من بسیار هیجان زده هستم که به آن بپردازم، اما چند چیز وجود دارد: * استفاده از توابع چگالی احتمال در محاسبات. به عبارت دیگر چگونه می توان چنین معادلاتی را ارزیابی کرد. * کل این جمله: فرض کنید ما از یک بتا (1،1) قبل برای pi استفاده می کنیم. سپس با توجه به y=8، چگالی خلفی بتا (9،3) است. احتمال عقبی فرضیه صفر است... _believe_ beta(1,1) به یک پی دی اف اشاره دارد که میانگین آن 1 و stdev 1 است؟ من نمی دانم که چگونه به عنوان یک تابع چگالی خلفی به بتا (9،3) تغییر می کند. من مفهوم پیشین ها در مقابل پسین ها را درک می کنم و می دانم که چگونه آنها را با استفاده از جدول به صورت دستی اعمال کنم. دریافتم (فکر میکنم!) که پی نشاندهنده نسبت یا احتمال فرضی جمعیت است. نمیدانم چگونه میتوانم این را با دادههایی که روزانه به آنها برخورد میکردم وصل کنم و به نتیجه برسم. | رویکرد ملایمتر به آمار بیزی |
66310 | من سعی می کنم خروجی تابع dgpd را در بسته evir در R ارزیابی کنم. من می توانم بردار بیش از حد و همچنین تخمین پارامتر gpd را ارسال کنم، کد زیر، اما بردار خروجی دارای اعداد زیادی است. چه واحد اندازه گیری با خروجی dgpd مرتبط است؟ بیش از حد.بردار <- زیرمجموعه(negRets، negRets > 0.02) بیش از حد.بردار densityOfExceedence <- dgpd(exceedence.vector,xi=tau,beta=sigma) densityOfExceedence | خروجی dgpd EVIR چیست؟ |
30997 | من می خواهم رابطه بین همبستگی و SVM ها را بفهمم. سوال من بر اساس مطالعات اولیه است که از همبستگی به عنوان راهی برای بررسی پردازش توزیع شده در قشر با fMRI استفاده میکند. این رویکرد شامل نشان دادن این بود که همبستگیهای فعالیت برانگیخته درون کلاس بیشتر از همبستگیهای کلاس بود (ظاهراً این شبیه به روشهای نزدیکترین همسایه است). به طور عجیبی، بسیاری از محققین هنوز از معیارهای تشابه ساده مانند همبستگی استفاده می کنند، حتی اگر تکنیک های بسیار پیچیده تری در دسترس هستند. به نظر من استفاده از همبستگی ها ادامه دارد، زیرا همبستگی ها فقط تفاوت ها را در الگوهای پاسخ ارزیابی می کنند، نه تغییرات در بزرگی. این ویژگی جذابی است زیرا معیاری را ارائه میدهد که آیا دستههای مختلف محرکها الگوهای متمایز فعالیت را در یک منطقه برمیانگیزند، بدون اینکه اندازهگیری شود که آیا این دو دسته سطوح مختلف فعالسازی را برمیانگیزند. من اخیراً مقدمهای بر روشهای هسته با SVM را تکمیل کردهام و طبق درک من، طبقهبندیکننده مرز تصمیمگیری را بر اساس معیار تشابه «همبستگی» بین مثالها تشکیل میدهد. بنابراین سوالات من این است؛ آیا یک SVM خطی مانند همبستگی عمل می کند مگر با اعمال یک حاشیه بزرگ؟ و اگر چنین است، آیا یک SVM خطی به اصطلاح «استقلال» را برای کلاسهایی که فقط در اندازه متفاوت هستند حفظ میکند؟ اگر نه، آیا یک SVM خطی میتواند از ماتریس همبستگی به جای معیارهای تشابه استاندارد استفاده کند؟ (یا این یک الگوریتم فرانکن وحشتناک است)؟ | آیا یک SVM خطی مانند همبستگی عمل می کند مگر با اعمال یک حاشیه بزرگ؟ |
92436 | فرض کنید من یک مدل لجستیک دارم به این صورت که: set.seed(123) df <- data.frame(y=rbinom(100,1,0.5), x1=rnorm(100,10,2), x2=rbinom(100, 20,0.6)) متناسب <- glm(y~x1+x2, data=df, family=binomial) من پیش بینی می کنم $\hat{y}$ برای m بار بر اساس مناسب با حسابداری توزیع خطا $Error \sim N(0,\sigma)$، به این معنی که برای هر مجموعه $\hat{y_{i}}، i=1\cdots m$: $\hat{y_{i}}=fixed(\hat{y_{i}})+error_{i}$. آیا کسی در اینجا می داند که چگونه می تواند آن را درک کند؟ | چگونه می توان مدل لجستیک را با حسابداری توزیع خطا پیش بینی کرد؟ |
115100 | آیا کسی می تواند به من بگوید تغییرات در توزیع p-value به چه معناست؟ منظورم این است که مثلاً مقادیر p از توزیع یکنواختی پیروی می کنند؟ و اگر توزیع p-values مقادیر زیادی p بین 0 تا 0.05 داشته باشد و سپس صاف شود چه اتفاقی می افتد؟ | معنی توزیع مقادیر P |
26720 | فرض کنید مقادیر کاراکتری را به عنوان مقادیر x دارید. فرض کنید می خواهید یک هیستوگرام رسم کنید. چگونه می توان مقادیر کاراکترها را به مقادیر عددی تبدیل کرد؟ | هیستوگرام در R: تبدیل به عدد |
2982 | من سعی میکنم آنچه را که تاکنون در تحلیل چند متغیره جریمهشده با مجموعههای دادهای با ابعاد بالا درک کردهام، خلاصه کنم، و هنوز هم در یافتن یک تعریف مناسب از _آستانهسازی نرم در مقابل جریمهسازی _Lasso_ (یا L_1$) مشکل دارم. بهطور دقیقتر، من از رگرسیون PLS پراکنده برای تجزیه و تحلیل ساختار دادههای ۲ بلوکی از جمله دادههای ژنومی (چند شکلهای تک نوکلئوتیدی، که در آن فرکانس آلل فرعی را در محدوده {0،1،2} در نظر میگیریم، به عنوان یک متغیر عددی در نظر میگیریم) و فنوتیپ های پیوسته (نمرات کمی کردن ویژگی های شخصیتی یا عدم تقارن مغزی، همچنین به عنوان متغیرهای پیوسته در نظر گرفته می شود). ایده این بود که تأثیرگذارترین پیش بینی کننده ها (در اینجا، تغییرات ژنتیکی روی توالی DNA) برای توضیح تغییرات فنوتیپی بین فردی جدا شوند. من در ابتدا از بسته mixOmics R (که قبلا integrOmics نام داشت) استفاده کردم که دارای رگرسیون PLS جریمه شده و CCA منظم است. با نگاهی به کد R، متوجه شدیم که sparsity در پیش بینی ها به سادگی با انتخاب متغیرهای $k$ با بالاترین بارگذاری (در مقدار مطلق) در $i$th جزء، $i=1،\dots القا می شود. ، k$ (الگوریتم تکراری است و بارگذاری متغیرها را روی اجزای $k$ محاسبه میکند، بلوک پیشبینیکننده را در هر تکرار کاهش میدهد، به Sparse PLS: Variable مراجعه کنید. انتخاب هنگام ادغام داده های Omics برای یک نمای کلی). برعکس، بسته spls که توسط S. Keleş تالیف شده است (به رگرسیون حداقل مربعات جزئی پراکنده برای کاهش ابعاد همزمان و انتخاب متغیر مراجعه کنید، برای توضیح رسمی تر رویکرد اتخاذ شده توسط این نویسندگان) $L_1$-جریمه کردن متغیر را پیاده سازی می کند. مجازات برای من واضح نیست که آیا بین انتخاب ویژگی های تکراری بر اساس آستانه نرم و تنظیم $L_1$، یک دوره دقیق وجود دارد یا خیر. بنابراین سوال من این است: **آیا ارتباط ریاضی بین این دو وجود دارد؟** **مآخذ** 1. Chun, H. and Kele ̧s, S. (2010), Sparse partal small Squares for Sparse partal small Squares for Sparse partal small Squares for Simulateous Discount and variable selection . _Journal of the Royal Statistical Society: Series B_, _72_, 3-25. 2. Le Cao, K.-A., Rossouw, D., Robert-Granie, C., and Besse, P. (2008), A Sparse PLS for Variable Selection when Integrating Omics Data. _کاربردهای آماری در ژنتیک و زیست شناسی مولکولی_، _7_، ماده 35. | آستانه نرم در مقابل جریمه کمند |
66311 | آیا حسن تناسب و عدم تناسب یکسان است؟ اگر آنها تست هستند، آیا صفر یکی جایگزین دیگری است؟ | آیا حسن تناسب و عدم تناسب یکسان است؟ |
50261 | فرض کنید من یک سری زمانی ثابت دارم، آیا این نشان میدهد که این سری نیز مرتبه N ثابت است؟ | سری زمانی ثابت و ایستایی مرتبه N |
68923 | من یک سری زمانی مشاهدهشده چند متغیره $Y_t$ دارم و میخواهم بهترین فرآیند VAR مناسب را برای آن پیدا کنم. من جعبه ابزار اقتصاد سنجی را در Matlab دارم و می توانم از vgxvarx استفاده کنم اگر از قبل سفارشی را برای فرآیند VAR مشخص کنم. با این حال من می خواهم که ترتیب فرآیند نیز برآورد شود. آیا تابعی برای انجام این کار در Matlab وجود دارد؟ | Fit مدل VAR با ترتیب نامشخص در Matlab |
7515 | چند تکنیک برای نمونهبرداری از دو متغیر تصادفی همبسته وجود دارد: * اگر توزیعهای احتمال آنها پارامتری باشد (به عنوان مثال، log-normal) * اگر توزیعهای غیر پارامتری داشته باشند. داده ها دو سری زمانی هستند که می توانیم ضرایب همبستگی غیر صفر را برای آنها محاسبه کنیم. ما می خواهیم این داده ها را در آینده شبیه سازی کنیم، با فرض ثابت بودن همبستگی تاریخی و سری زمانی CDF. برای مورد (2)، آنالوگ 1-D ساخت CDF و نمونه برداری از آن است. بنابراین حدس میزنم، میتوانم یک CDF دو بعدی بسازم و همین کار را انجام دهم. با این حال، نمیدانم آیا راهی برای نزدیک شدن با استفاده از CDFهای 1 بعدی و به نوعی پیوند دادن بین انتخابها وجود دارد. با تشکر | چند تکنیک برای نمونه برداری از دو متغیر تصادفی همبسته چیست؟ |
10200 | به یاد دارم که استدلالی شنیدم مبنی بر اینکه اگر یک جمعیت معین از افراد دارای ضریب هوشی متوسط 110 به جای 100 معمولی باشند، تعداد افراد با ضریب هوشی 150 بسیار بیشتر از یک گروه با اندازه مشابه از جمعیت عمومی خواهد بود. به عنوان مثال، اگر ضریب هوشی هر دو گروه به طور معمول توزیع شده باشد و دارای انحراف معیار یکسانی با 15 باشد، انتظار داریم حدود 0.2٪ از افراد گروه با IQ بالا بالای 150 و 0.02٪ از جمعیت عمومی باشند. تعداد افراد «در سطح نابغه» از گروه با IQ بالا حدود ده برابر بیشتر است. این در حالی است که تعداد افراد با IQ 120 یا بیشتر در گروه با IQ بالا تنها سه برابر بیشتر است و افراد با IQ 110 یا بیشتر تنها دو برابر بیشتر است. بنابراین، وقتی با فردی با ضریب هوشی بالای 150 ملاقات میکنیم، میتوانیم به شدت مشکوک شویم که او از گروه با ضریب هوشی بالا است، حتی اگر به طور متوسط آن گروه مزیت زیادی ندارد. آیا نام خاصی برای این اثر وجود دارد؟ به طور مشابه، اگر دو جمعیت میانگین یکسانی داشته باشند، اما جمعیت A واریانس بالاتری نسبت به جمعیت B داشته باشد، نقاط داده بیشتری بالاتر از یک آستانه بالا از جمعیت A وجود خواهد داشت. (من شنیده ام که این استدلال برای توضیح نسبت بالای مردان ارائه شده است. بر خلاف زنان در بالاترین رده های پیشرفت ریاضی، ادعا می شد که مردان و زنان دارای توانایی میانگین یکسان هستند، اما مردان دارای واریانس بالاتری هستند.) آیا این تأثیر نیز نامی دارد؟ به خاطر جنجالی بودن مثال ها پوزش می طلبم. من فقط به اسامی افکتها علاقهمندم، نه به ضریب هوشی و توانایی ریاضی در گروههای مختلف. من به سادگی به این مثال ها اشاره کردم زیرا این زمینه ای است که من توصیف این پدیده ها را شنیدم. | آیا نامی برای حساسیت زیاد فرکانس نقاط داده شدید به میانگین توزیع نرمال وجود دارد؟ |
50197 | من در حال خواندن این یادداشت در مورد بهینه سازی Mean-CVAR هستم. نویسندگان بر خلاف فرض رایج مبنی بر اینکه طبقات دارایی معمولاً توزیع میشوند استدلال میکنند و پیشنهاد میکنند که از یک توزیع پرواز کوتاهشده برای توصیف رفتار طبقات دارایی استفاده شود. اکنون، درک من از تطبیق یک سری زمانی تاریخی برای توزیع جدید اینجاست، لطفاً اگر فکر من اشتباه است، مرا اصلاح کنید. 1. شما تعیین میکنید که چه پارامترهایی برای توزیع جدیدتان مورد نیاز است: در مورد توزیع پرواز مالیات، به شاخص دم، یک پارامتر چولگی، یک پارامتر مقیاس و یک پارامتر مکان 2 نیاز دارید. شما آن پارامترها را از سریهای زمانی تاریخی خود تخمین میزنید. : در این حالت، شاخص دم به صورت کورتوزیس، پارامتر چولگی به عنوان چولگی تاریخی، پارامتر مقیاس به عنوان انحراف معیار و پارامتر مکان به عنوان پارامتر تاریخی تخمین زده می شود. متوسط 3. شما متغیرهای جدید خود را با اعمال تخمین های خود بر عکس تابع توزیع تجمعی توزیع پرواز مالیات شبیه سازی می کنید. **آیا کسی می تواند توضیح دهد که چگونه این کار انجام می شود؟** سوالات بیشتر: * هنگامی که یک توزیع جدید را متناسب کردید، آیا این به این معنی است که تخمین های قدیمی شما دیگر مرتبط نیستند؟ * چند راه خوب برای آزمایش خوب بودن تناسب برای توزیع پرواز مالیاتی چیست؟ | اتصال سری به یک توزیع |
67956 | من در حال نوشتن یک پایان نامه اقتصاد هستم و مقالات اقتصاد سنجی زیادی پیدا کرده ام که در آنها جداول رگرسیون بدون p-value را پیدا کرده ام. آنها فقط ضریب متغیر مستقل و مقدار t آن را مانند تصویر مثال نشان می دهند.  دانش اقتصاد سنجی من بسیار ابتدایی است، اما فکر می کردم مهم ترین چیز برای ارزیابی اهمیت یک متغیر، p- است. ارزش با جستجو در وب، متوجه شدم که گاهی اوقات $t-value>2$ به عنوان یک ارزش خوب برای اهمیت در نظر گرفته می شود. درست است؟ آیا می توانم بگویم که وقتی $t-value>2$ ضریب از نظر آماری معنی دار است؟ ویرایش: پس از پیشنهاد راب، در اینجا پیوندی به مقاله آمده است | اهمیت: p-value یا t-value؟ |
50262 | من می خواهم میانگین تفاوت بین مدارس درمانی 1998 (گروه 1 = 1) و مدارس مقایسه (گروه 1 = 0) را در دو ویژگی زیر تعیین کنم: نسبت فرزندان دختر (مونث)، میانگین سال تولد کودک (yob) من تازه وارد Stata هستم، بنابراین نمی دانم در پنجره فرمان چه چیزی تایپ کنم. چی باید تایپ کنم؟ من یاد گرفته ام که چگونه رگرسیون بین یک متغیر x و y را در جایی که مانند رگرسیون y x است محاسبه کنم، اما نمی دانم چگونه رگرسیون بین گروه 1 و گروه مقایسه را در مقایسه با مشخصه دیگر محاسبه کنم. من به 2 رگرسیون نیاز دارم، پس تنظیم کنم آیا تایپ کنم؟ گروه رگرسیون 1=1 گروه رگرسیون زن yob1=0 گروه رگرسیون زن yob1=0 گروه2 yob گروه 1=1 گروه 2 زن یا چیز دیگری؟ و آیا میانگین تفاوت به من داده می شود یا این چیزی است که باید خودم محاسبه کنم؟ تنها چیزی که می دانم این است که باید از دستور 'regress' استفاده کنم. این مجموعه داده است: schid group1 group2 group3 part98 زن yob 115 1 0 0 0.7439648 .3834144 1987.234 117 1 0 0.7443243 .3705711 1986.414.428 0.3864889 1987.516 143 1 0 0.699026 .3519214 1987.588 158 1 0 0.5439946 .3648172 1987.836 1607.836 1607 1607. .3641604 1987.808 191 1 0 0.6320185 .3460737 1987.057 206 1 0 0.8539617 .3606257 1987.210 207.210 207. 0.3759444 1986.204 210 1 0 0.8510154 .3543401 1986.542 215 1 0 0.6107619 .387303 1987.144 2103 2106. 1986.481 219 1 0 0.8350134.3801926 1986.603 220 1 0 0.6586895 1 0 0 0.9961755.3797742 1986.82 268 1 0 0.9998046 .3439624 1986.505 274 1 0 0.9886107 .9877396 .387717 1986.717 281 1 0 0 .994603 .4124718 1985.863 286 1 0 0 .9647818 .3563205 1984 1986. 0.3386317 1985.715 290 1 0 0.9806792 .4015853 1986.362 296 1 0 0.9931837 .4222261 1986.637 2901 1986.637 2901. 1986.104 109 0 1 0 .7627826 .3316738 1986.306 116 0 1 0.6412753 .3338825 1987.693 118 0 1 0 058 .50 1986.826 119 0 1 0.6373736.3749958 1986.878 133 0 1 0.5865115 1987.21 141 0 1 0.619329 .3765736 1987.549 164 0 1 0.7135595 .2955894 1987.438 166 0 1 0 0.7135595 182 0 1 0 .6992276 .3615404 1987.088 183 0 1 0 .7401822 .3925673 1988.551 192 0 1 0.5432901.5432901.5432901. 1 0 .6527734 .3902833 1986.182 208 0 1 0 .6212902 .4109006 1986.253 221 0 1 0 .8271556 .991182665 0.9702736 .3943461 1987.15 263 0 1 0 .6658556 .413118 1987.252 264 0 1 0 .9434038 .3477578 1986.3477578 1986. .3844051 1986.523 273 0 1 0 .8159674 .4032201 1987.036 277 0 1 0 .74529 .4287328 1986.644 1986.644 28043284. 1987.396 289 0 1 0.9922523 .3737274 1986.665 292 0 1 0.992666 .421622 1986.812 293 0 1 0 0.892666. 108 0 0 1 .6897349 .2809297 1986.995 140 0 0 1 .7615737 .3513303 1987.509 144 0 0 1 .585314 .585314. یک 0.6437579 .2906108 1986.846 193 0 0 1 .8333147 .3409633 1986.912 201 0 0 1 .7961279 .4090333 19021 .4090333 1986. .8110762 .4032104 1986.049 205 0 0 1 .8138164 .4128731 1986.051 211 0 0 1 .9859384 .3808163 1985 .3808163 1985. .8145156 .4102123 1986.173 213 0 0 1 .9905288 .3850739 1985.755 218 0 0 1 .9398516 .3266351 1986. | دستور Stata Regress و یافتن میانگین تفاوت |
68929 | من 3 روز گذشته خود را به درک فرآیند دیریکله و خوشهبندی فرآیند دیریکله اختصاص دادم، اما به دلیل عدم دانشم در مورد فرآیند تصادفی و تئوری اندازهگیری (من هیچ دورهای را در مورد آنها گذراندم) نمیتوانم آن را دقیقاً بفهمم که فرآیند دیریکله چیست. حداقل بعد از 3 روز من می دانم که توزیع دیریکله چیست :) اما نمی توانم به جلو بروم. اگر کسی یک مقدمه سادهلوحانه برای فرآیند دیریکله و خوشهبندی به من بدهد، قدردانی خواهم کرد. اساسا شهود من در اشتباه است. * تفاوت بین توزیع (دریکله) و فرآیند (دریکله) چیست * چگونه نشانی اینترنتی یا چوب شکستن پولی بر فرآیند دیریکله تاکید می کند، * مهمتر از همه اینکه چگونه نمونه گیری گیبس از مدل مخلوط دیریکله با استفاده از فرآیند دیریکله خوشه بندی مبتنی بر نمونه برداری گیبس است. چگونه توانایی من را در آن محورها گسترش دادید، تا این حد سپاسگزارم. | آیا کسی می تواند یک راهنمای ساده برای خوشه بندی فرآیند دیریکله ارائه دهد؟ |
115104 | من به دنبال توضیحاتی در مورد کنترل ضعیف و قوی برای خطاها بودم، اما واقعاً معنی آن را نمی فهمم. کسی میتونه کمکم کنه؟ کنترل قوی به کنترل نرخ خطای نوع یک در هر ترکیبی از فرضیه صفر درست و نادرست اشاره دارد و کنترل ضعیف به حالتی اشاره دارد که همه فرضیه های صفر درست باشند، یعنی تحت یک فرضیه صفر که فرضیه صفر کامل را برآورده کند، اما ... چگونه بفهمیم که تمام فرضیه های صفر درست هستند؟ در یک آزمایش کنترلی؟ بنابراین آیا باید از کنترل ضعیف فقط برای آزمایش های کنترلی استفاده کرد؟ پیشاپیش ممنون | کنترل قوی و ضعیف |
26728 | شنیدهام که رگرسیون لجستیک هسته ترکیبی کلاسیک از روشهای هسته و رگرسیون لجستیک است، اما من نمیتوانم مرجع اصلی (کتاب یا مقاله) در این موضوع پیدا کنم. آیا می توانید پیشنهادی به من بدهید؟ با تشکر | رگرسیون لجستیک هسته |
50193 | من سعی می کنم داده ها را برای پایان نامه کارشناسی روانشناسی خود تجزیه و تحلیل کنم، اما در تلاش هستم که از کدام آزمون ها استفاده کنم زیرا پروژه من با هر چیزی که قبلاً تجربه کرده ام متفاوت است (و همچنین ذهنی برای آمار ندارم). من 200 مورد از بیمارانی دارم که در درمان شرکت کرده اند، و تاریخ هر جلسه ای که آنها شرکت کرده اند. من متغیرهای اضافی را برای تعداد روزهای انتظار بین هر جلسه ایجاد کردم، اما میخواهم بدانم آیا تشخیصهای مختلف (مانند افسردگی، اضطراب...) بر تعداد دفعاتی که بیماران برای درمان مراجعه میکنند تأثیر دارد یا خیر. مشکل این است که گروه های تشخیصی n بسیار متفاوتی در هر کدام دارند (5 گروه تشخیصی اصلی وجود دارد که از n = 109 تا n = 3 را شامل می شود). من مطمئن نیستم که آیا راهی برای انجام این کار وجود دارد؟ هر توصیه بسیار قدردانی می شود. با تشکر | چه آزمایشی برای داده های من؟ |
68927 | مقادیر زیر از ماژول گسسته در BayesTraits هستند. هر مقدار در ماتریس تفاوت در مقادیر لاگ احتمال بین یک مدل 4 پارامتری تکامل مستقل و یک مدل 8 پارامتری تکامل وابسته است. اگر عبارات همبستگی یا ماتریس همبستگی را اشتباه به کار برده ام، عذرخواهی می کنم. مستندات اینجاست. دادهها در اینجا نتیجه تجزیه و تحلیل با دو ورودی است: درخت فیلوژنی یا تکاملی، و ماتریس دادههای حضور/غیاب (1/0) برای 2 صفت، برای هر گونه در درخت. ماتریس به این شکل است:  به طور معمول، من میتوانم از این برای بدست آوردن مقادیر p برای همبستگی بین دو متغیر استفاده کنم. p-value برای همبستگی بین 4 و 5، p-value 2 (85.83) در جدول $\chi^2$ با چهار درجه آزادی خواهد بود. همچنین باید اشاره کنم که ترتیب متغیرها بسیار مهم است. هر عدد (1-9) مربوط به یک صفت همولوگ سریال در یک حیوان است و همولوگ های سریال به همان ترتیبی که در اینجا ارائه شده اند ظاهر می شوند. 1 ابتدا می آید، سپس 2، و غیره. بنابراین کاری که می خواهم انجام دهم این است: می خواهم یک مقدار p **_برای کل ماتریس_** دریافت کنم که به من می گوید آیا مجاورت به طور قابل توجهی بر مقادیر همبستگی تأثیر می گذارد یا خیر. مقدار p زیر 0.05 نشان می دهد که مقادیر همبستگی بین یک صفت و صفات در هر دو طرف آن (به عنوان مثال، 4 در مقایسه با 3 و 4 در مقایسه با 5) بالاتر از آن چیزی است که به طور تصادفی انتظار می رود. من این را در بسیاری از ماتریس ها می بینم، اما می خواهم شک خود را تأیید کنم. آیا این در R قابل انجام است؟ | اهمیت مجاورت در ماتریس همبستگی با متغیرهای مرتب شده |
68925 | من علاقه مند به درک قضیه اثبات کالنبرگ بر قضیه گیرسانوف هستم. قضیه میگوید: اگر $Q=Z_{t}P$ و $Q$،$P$ اندازهگیریهای احتمال هستند و $Z$ a.s است. پیوسته، سپس برای همه P-martingale محلی $X - X':=X-Z^{-1}[X,Z]$ یک $Q$-martingale محلی است. من قسمت هایی را که می گویند $-[X,Z]+[X',Z]=0$ و اینکه $X'Z$ یک $Q$-martingale است به دلیل $X'Z-(X') را نمی فهمم Z)_{0}=X'*M+Z*m$، که $[.,.]$ همواریاسیون درجه دوم است، و $X'*Z$ یک انتگرال تصادفی است. | قضیه گیرسانوف |
66313 | من میخواهم یک داده مکانی را به دنبال توزیع گاوسی چند متغیره تولید کنم. با این حال، من نمیخواهم همگن باشد، یعنی نمیخواهم همبستگی/کوواریانس همگن باشد. من می خواهم ناهمگن باشد. آیا پیشنهادی در مورد نحوه تولید چنین داده هایی دارید؟ در اینجا نمونه ای از منظور من از ماتریس کوواریانس ناهمگن 25.8621 25.1207 24.6305 24.3867 25.1207 25.3719 24.8768 24.6305 24.6305 24.6305 24.6305 24.8768 است. 25.1207 24.3867 24.6305 25.1207 25.8621 چهار متغیر وجود دارد. همانطور که می بینید واریانس حاشیه ای متفاوت است به این معنی که C(0) به مکان بستگی دارد. همینطور C(h) برای هر h. این یکی از روش های تولید داده های ناهمگن است. اما من می خواهم برخی از داده های فضایی متشکل از خشکی ها، دریاچه هایی که کوواریانس بسیار کمتری بین یکدیگر دارند. | تولید داده های گاوسی فضایی غیر همگن |
50199 | آیا توزیع نرمال چولگی لگ مقعر است؟ | آیا توزیع نرمال چولگی لگ مقعر است؟ |
24371 | این یک سوال عمومی است. اجازه دهید یک سناریوی مثال بزنم. بگو، من 2 تکنیک برای تخصیص بودجه روزانه خود در 4 سهم داشتم. پس از تخصیص، من اطلاعات مربوط به عملکرد سهام را در روز بعد دریافت می کنم. (تنبل هستم و بعد از تخصیص به فیلم می روم). مشکل 1: من باید برای آزمایش دو تکنیک در این آزمایش متوالی در چند روز معین، یک طرح آزمایشی را ارزیابی یا ارائه کنم. مشکل 2 با اخطار: اگر بودجه خود را به نصف تقسیم کنم و یکی از دو تکنیک را داشته باشم، آن را در دو آزمایش موازی به طور همزمان بین چهار سهام در مقادیر یکسان تخصیص دهم - در روز دوم مشکل زیر را پیدا می کنم. اگرچه همه چیز از بودجه گرفته تا تخصیص یکسان بود. هر دو آزمایش به دلیل تصادفی بودن سیستم، عملکردهای متفاوتی را در روز بعد ارائه دادند. در این شرایط - که اجراها حتی در تکنیک یک متفاوت هستند - چگونه می توانم آزمایشی را برای مقایسه دو تکنیک در یک تعداد معین ارزیابی یا طراحی کنم؟ مشکل 3: اگر به جای دریافت اجراهای روز بعد - دقیقه به دقیقه یا اجراهای ساعتی دریافت کنم و بخواهم این دو تکنیک را ارزیابی کنم - خط فکری شما چیست؟ | آزمایش متوالی: طراحی کنترل شده و معیارها |
50196 | با توجه به داده های چند سطحی، من علاقه مند به تخمین نتایج در سطح عضو هستم، زمانی که فقط نتایج در سطح گروه، همراه با پیش بینی کننده های سطح گروه و عضو، شناخته شده باشند. من فاقد اصطلاحات آماری هستم، بنابراین با یک مثال توضیح میدهم: ما میخواهیم احتمال قبولی دانشآموز دبیرستانی را در کالج تخمین بزنیم. در این صورت «گروه ها» مدارس و «اعضا» دانش آموزان خواهند بود. ما این موارد را داریم: 1. دادههای جمعآوری شده در سطح گروه در مورد متغیر وابسته (تعداد کل درخواستهای پذیرفته شده/رد شده از هر دبیرستان) 2. متغیرهای مستقل در سطح گروهی برای هر مدرسه (تعداد دانشآموزانی که حداقل سه نفر را دریافت کردهاند). دوره های پیشرفته/افتخار، توزیع معدل، تعداد دانش آموزان در 10 درصد برتر نمرات آزمون استاندارد و غیره) 3. متغیرهای مستقل مشابه در سطح عضو/انفرادی (برای هر دانش آموز، خواه حداقل سه دوره پیشرفته/افتخار را گذرانده باشد، معدل واقعی، آیا در یک آزمون استاندارد در 10 درصد برتر نمره کسب کرده است یا خیر، و غیره) آنچه ما کم داریم، با این حال، داده های نتیجه در سطح عضو در مورد پذیرش کالج است (برای هر دانش آموز، اینکه آیا او در کالج پذیرفته شده است). به طور شهودی، من این حس را دریافت میکنم که حتی در غیاب این دادههای پیامد در سطح فردی، ممکن است برخی تخمینها برای اعضای گروه انجام شود: برای مثال، ممکن است ببینیم که مدارسی با نسبتهای بالایی از دانشآموزانی که حداقل سه دوره پیشرفته/افتخار را میگذرانند، به همین ترتیب، نرخ پذیرش بالا منطقی است که با دانستن این موضوع، احتمال قبولی دانشجو در کالج باید به طور مثبت تحت تأثیر این باشد که آیا او حداقل سه دوره پیشرفته / افتخاری را گذرانده است (احتمالاً همراه با سایر تأثیرات در سطح گروه). پس آیا می توان نتایج در سطح گروه را مدل کرد و آن مدل ها را در موارد فردی برای تخمین احتمالات در سطح فردی به کار برد؟ اگر چنین است، چه اصطلاحی این نوع مدل را توصیف می کند؟ هر گونه اشاره به ادبیات در مورد این موضوع نیز قدردانی خواهد شد. | برآورد احتمال نتیجه در سطح فردی که از داده های آموزشی در سطح گروهی ارائه شده است |
2981 | با کمک چندین نفر در این جامعه، پاهایم را در خوشهبندی برخی از دادههای شبکه اجتماعی با استفاده از اجرای خوشهبندی مبتنی بر مدولاریت در igraph خیس کردهام. من در تفسیر خروجی این روال و نحوه استفاده از آن برای ایجاد لیستی از اعضای هر جامعه شناسایی شده مشکل دارم. این روال یک ماتریس دو ستونی و لیستی از مقادیر مدولاریته را خروجی می دهد. از Docs: > merges: یک ماتریس با دو ستون، که نمایانگر یک دندوگرام است و شامل > همه ادغام های الگوریتم انجام شده است. هر خط یک ادغام است و با شناسه دو جامعه ادغام شده > داده می شود. شناسههای انجمن اعداد صحیحی هستند که از صفر شروع میشوند و جوامع بین صفر و تعداد رئوس (N) منهای یک به رئوس منفرد تعلق دارند. خط اول > ماتریس اولین ادغام را می دهد، این ادغام جامعه N را ایجاد می کند، > تعداد راس ها، ادغام دوم جامعه N+1 و غیره را ایجاد می کند. > > مدولاریت: یک بردار عددی حاوی مقدار مدولاریت جامعه > ساختار پس از انجام هر ادغام با کار با این توضیح و نگاه کردن به مثال در پایین صفحه man، فکر می کنم جوامع در این نمودار اولین جامعه هستند: 0 1 2 3 4 جامعه دوم: 10 11 12 13 14 جامعه سوم: 5 6 7 8 9 می توانید کسی که قبلاً از این روش استفاده کرده است تأیید می کند که آیا رویکرد صحیح این نتیجه را ایجاد می کند؟ من اساساً (i) دو ادغام آخر را نادیده گرفته ام و (ii) روی هر ردیف در ماتریس ادغام رفته ام، هر جفت رئوس را در مجموعه ای ترکیب کرده ام در حالی که مراقب مقادیر راس بزرگتر از تعداد رئوس هستم (و بنابراین به ردیف دیگری در ماتریس 'ادغام' مراجعه کنید). با تشکر فراوان ~l | تفسیر خروجی روش خوشهبندی fastgreedy.community igraph |
50263 | من کاملاً مطمئن نیستم که چگونه باید مدلی را که دو پاسخ دارد مناسب کنم. داده ها از مختصات هدف (x,y) و مختصات واقعی (x,y) تشکیل شده است. من میخواهم مدلی را برای پیشبینی مجموعهای از نقاط جدید از هدف تنظیم کنم، با این حال وجود دو متغیر من را از کار میاندازد. همچنین به نظر می رسد که هیچ رابطه ای بین نقاط وجود ندارد، بنابراین من حتی مطمئن نیستم که چه نوع مدل سازی را انجام دهم. آیا یک گاوسی چند متغیره مناسب است؟ ویرایش: لینک داده ها اینجاست: https://dl.dropbox.com/u/12945652/data.csv sessionID targetX targetY touchX touchY name phone 253 0.034375 0.564606742 0.034375 0.584256966 0.584256963 Subject. 0.901685393 0.625 0.907303371 موضوع 15 Iphone4 253 0.2875 0.764044944 0.253125 0.783707865 موضوع 15 Iphone4 2503 0.2424 2503 0.250 0.823033708 Subject15 Iphone4 253 0.059375 0.657303371 0.04375 0.679775281 Subject15 Iphone4 253 0.06875 0.910111236 0.910112364609. 253 0.625 0.603932584 0.68125 0.643258427 Subject15 Iphone4 253 0.265625 0.530898876 0.26875 0.53370578659 Iphone4 253 0.974719101 0.603125 0.963483146 Subject15 Iphone4 253 0.290625 0.533707865 0.25 0.530898876 موضوع15 Iphone4 2587425859 0.98125 0.564606742 Subject15 Iphone4 253 0.825 0.54494382 0.909375 0.542134831 Subject15 Iphone4 253 0.4625 0.555617474 موضوع 15 آیفون4 253 0.6875 0.814606742 0.70625 0.828651685 موضوع 15 آیفون4 253 0.734375 0.873595506 0.775 0.910115 0.91012 | 2 پاسخ از دو متغیر مشترک را پیش بینی کنید |
67954 | بهترین فرمول برای تعیین حجم نمونه در نظرسنجی های رضایت مشتری و کارکنان کدام است؟ | تعیین حجم نمونه صحیح |
28715 | چگونه می توانید آزمایش یا بررسی کنید که نمونه IID (مستقل و توزیع شده یکسان) است؟ توجه داشته باشید که منظور من Gaussian و Identically Distributed نیست، فقط IID است. و ایده ای که به ذهن من می رسد این است که به طور مکرر نمونه را به دو نمونه فرعی با اندازه مساوی تقسیم کنم، آزمون کولموگروف-اسمیرنوف را انجام دهم و بررسی کنم که توزیع مقادیر p یکنواخت است. هر گونه نظر در مورد آن رویکرد، و هر گونه پیشنهاد استقبال می شود. **توضیحات پس از شروع جایزه:** من به دنبال یک آزمایش کلی هستم که بتوان آن را برای داده های سری زمانی غیر از سری زمانی اعمال کرد. | آزمایش برای نمونه برداری IID |
111373 | **من به دنبال راه هایی برای ارزیابی عملکرد/موفقیت مدل های پیش بینی کننده (طبقه بندی) برای اهداف اقتصادی هستم.** می دانم: * درصد دقت مستقیم * امتیاز AUC * سود خالص * نرخ بازده * نسبت شارپ ** ممکن است شما راه های ممکن دیگر برای ارزیابی عملکرد/موفقیت چنین مدل هایی را به من اطلاع دهید؟** متشکرم. PS: در صورتی که به پاسخ شما مربوط باشد: 2 دسته ممکن وجود دارد که مدل اشیاء داده را در آنها طبقه بندی می کند. | ارزیابی مدل های پیش بینی |
114856 | من می دانم که، تحت شرایط معمول منظم، با بزرگ شدن اندازه نمونه، MLE به مقادیر پارامتر واقعی همگرا می شود. و MLE مقیاس شده تمایل به توزیع عادی دارد. با این حال، در تعدادی از موارد دنیای واقعی، یافتن حداکثر جهانی به دلیل وجود حداقلهای محلی در احتمال، دشوار است. به طور شهودی، من انتظار دارم که با افزایش اندازه نمونه، تعداد و عمق حداقل های محلی کاهش یابد، که منجر به احتمال یک وجهی می شود. اما آیا این حقیقت دارد؟ آیا ثابت شده است؟ | آیا احتمال ورود به سیستم زمانی که اندازه نمونه به بی نهایت میرود، یکوجهی میشود؟ |
24375 | کنترل متغیرهایی مانند اندازه شرکت و غیره کاملاً واضح است. اما من واقعاً هیچ ایده ای در مورد چگونگی کنترل اثرات صنعت و اثرات سال ندارم. من خوانده ام که شما باید متغیرهای ساختگی را با دو رقم SIC کدهای GICS وارد کنید. اما چگونه می توان این کار را در SPSS (یا Stata) انجام داد. میشه لطفا در این مورد به من کمک کنید؟ | چگونه می توان اثرات صنعت و سال را در نظر گرفت؟ |
73119 | من یک تابع $f(t) = \sum_{i=1}^{N} |y_i-t|$ دارم. مقدار بهینه t چقدر خواهد بود که آن را به حداقل می رساند. چگونه آن را استخراج کنیم؟ به طور مشابه مقدار بهینه t که $f(t) = \sum_{i=1}^{N} |y_i-t|^{\infty}$ را به حداقل میرساند چقدر است؟ | استخراج مقدار بهینه یک تابع |
28712 | من از آزمون U Mann-Whitney برای بررسی تفاوت های احتمالی بین دو گروه نسبتاً کوچک (12 موضوع در هر یک) در 15 مورد مختلف استفاده کرده ام. من هیچ فرض از پیش تعریف شده ای در مورد اینکه کدام آیتم ها متفاوت خواهند بود نداشتم. با این حال، این آزمون ساده Mann-Whitney U تفاوت معنی داری (P<0.05) برای **ALL** آیتم های آزمایش شده به همراه داشت. **سوال من**: اگر/چه اصلاحاتی برای مقایسه های چندگانه باید در اینجا استفاده کنم؟ آیا این واقعیت که من تفاوت قابل توجهی در همه موارد پیدا کرده ام تفاوتی ایجاد می کند؟ | در مورد اصلاحات برای مقایسه های متعدد |
72642 | من نمونه ای از مشتریان دارم که مسیرهای مختلفی را برای رسیدن به یک وضعیت نهایی طی کردند. بین شروع و پایان، آنها ممکن است تعاملات مختلفی را در این بین تکمیل کرده باشند. برخی از این تعاملات وابسته به اقدامات قبلی است. دیگران، نکن بنابراین، من تعدادی متغیر دستهبندی سهگانه دارم که تعداد محدودی از انواع تعامل را نشان میدهند (کاری را انجام ندادم، کاری را قبل از رویداد دیگری انجام دادم، کاری را بعد از رویداد دیگری انجام دادم). و من مهرهای زمانی مرتبط با بیشتر تعاملات دارم. علاوه بر این، من ویژگی های جمعیت شناختی دیگری نیز دارم که می توانند عوامل مخدوش کننده را نشان دهند. من می خواهم نمونه را به تعداد کمتری از کهن الگوهای مسیر کاهش دهم. برای من، این شبیه به هر یک از تجزیه و تحلیل مسیر، تجزیه و تحلیل زمان تا رویداد، تجزیه و تحلیل کلاس پنهان، و تجزیه و تحلیل مکاتبات چندگانه است. من تجربه ای در خوشه بندی دارم، اما نه زمانی که وابستگی متقابل یا همبستگی نیمه قوی بین متغیرها وجود داشته باشد. و مطمئناً نه زمانی که یک عنصر زمان درگیر باشد. پیشنهادی در مورد نحوه برخورد دارید؟ فکر میکنم این یک فرآیند تکاملی خواهد بود که در آن میتوانم با یک تکنیک کمتر قدرتمند شروع کنم و شاید کهن الگوهای خاصی را برای تجزیه و تحلیل عمیقتر قویتر انتخاب کنم. من مایلم ترجیحاً در R یا SAS انجام دهم. ممنون از هر راهنمایی | خوشه بندی مسیر کهن الگو |
111370 | من از بسته «زمین» در «R» برای تخمین تعداد نقاط شکست در یک منحنی استفاده میکنم. تنها یک پیش بینی کننده وجود دارد. من امیدوار بودم که روش معقولی برای مقایسه شیب برای برخی از بخش ها در برابر 0 وجود داشته باشد. معمولاً از تخمین و خطای استاندارد استفاده می کنم، اما (برای من) واضح نیست که برای بخش هایی که ترکیبی از شیب های متعدد هستند چه کاری انجام دهم: تخمین SE (قطع) 2.78 .015 ساعت (سن-4) -.01.0029 ساعت (4-سن) -.35.015 h (سن-11) -.076.0055 بنابراین شیب بعد از سن 11 سالگی -.086 است. چگونه می توانم اطمینان خود را از اینکه این شیب واقعاً منفی است، کمیت کنم؟ | آزمایش شیب در خطوط رگرسیون تطبیقی چند متغیره (MARS/Earth) |
28711 | من می دانم که نسخه های مختلفی از قضیه حد مرکزی وجود دارد و در نتیجه براهین مختلفی برای آن وجود دارد. موردی که من بیشتر با آن آشنا هستم در زمینه دنباله ای از متغیرهای تصادفی توزیع شده یکسان است، و اثبات بر اساس یک تبدیل انتگرال است (مثلاً تابع مشخصه، تابع مولد گشتاور)، و به دنبال آن تقریب های مرتبه اول برای به دست آوردن یک تابع به که تبدیل معکوس را می توان اعمال کرد. من علاقه مندم بدانم که آیا در این رویکرد نقصی وجود دارد - به طور غیررسمی به من گفته شده که کاملاً دقیق نیست - اما چرا؟ | اثبات theroem حد مرکزی |
24373 | یک نظرسنجی از خانواده (بطور معقولی بزرگ) را تصور کنید که در آن همه افراد در هر خانواده مورد سوال قرار گرفته اند. برای هدف ریزشبیهسازی، این نظرسنجی باید به یک جمعیت کامل گسترش یابد. در مرحله اول، وزنهها به هر مشاهده متصل میشوند تا مجموع کنترلهای خارجی رعایت شود (کالیبراسیون). اگر فقط مجموع کنترلی داشته باشیم که تعداد خانوارهای این و آن نوع را در یک منطقه توصیف می کند، می توانیم از IPF (همچنین به عنوان رتبه بندی نیز شناخته می شود) استفاده کنیم که تخمین حداکثر احتمال وزن ها را ارائه می دهد. به حداقل رساندن آنتروپی نسبی معادل رتبه بندی/IPF است. **ویرایش**: اما اگر مجموع کنترل در سطح افراد و خانواده داشته باشیم چه؟ مثلاً به ما گفتن چند خانوار از کدام نوع _و_ چند نفر از کدام جنس/سن/سطح تحصیلی/... هستند. من نتوانستم یک رویکرد استاندارد در اینجا پیدا کنم. آیا رتبه بندی/IPF از نقطه نظر آماری رویکرد صحیح است؟ آیا گزینه های دیگری وجود دارد؟ از دیدگاه آماری، معقولترین رویکرد برای کالیبره کردن وزنها در حضور مجموعهای کنترل در سطح خانوار و فرد چیست؟ برای متن بیشتر به سوال اصلی مراجعه کنید. (احتمالا خیلی بزرگ بود، من آن را به قطعات تقسیم می کنم.) | کالیبره کردن یک نظرسنجی خانوار به مجموع کنترل در سطح خانوار و سطح فرد |
77344 | چگونه می توان به صورت برنامه ای بررسی کرد که آیا دو کلاس به صورت خطی قابل جداسازی هستند؟ (فقط پاسخ بله/خیر) شاید بتوانم SVM خطی را روی داده ها آموزش دهم (از پارامترها برای اضافه کردن استفاده کنم) و سپس آزمایش را روی همان داده ها اجرا کنم و اگر دقت 100٪ باشد مجموعه داده ها به صورت خطی قابل جداسازی هستند. | به صورت برنامه ای بررسی کنید که آیا دو کلاس به صورت خطی قابل جداسازی هستند یا خیر |
4756 | من یک نمونه تصادفی از متغیرهای تصادفی برنولی $X_1 ... X_N$ دارم که $X_i$ i.i.d است. r.v. و $P(X_i = 1) = p$، و $p$ یک پارامتر ناشناخته است. بدیهی است که می توان تخمینی برای $p$: $\hat{p}:=(X_1+\dots+X_N)/N$ پیدا کرد. سوال من این است که چگونه می توانم یک فاصله اطمینان برای $p$ ایجاد کنم؟ | فاصله اطمینان برای نمونه برنولی |
66280 | چه چیزی باعث نتایج مختلف زیر می شود؟ var1 = c(0.04875،0.13725،0.28350،0.50975،0.77425،0.94700،0.05325،0.14050،0.29725،0.51525،0.79000،0.79000،0.95025،0.9540 . 79325,0.95875,0.04775,0.13850,0.28675,0.54250,0.78300,0.95175,0.05150,0.12725,0.30175,0.547925,0.5479250 375،0.14100،0.30050،0.53275،0.78100،0.96175،0.05450،0.15300،0.29650،0.52850،0.80100،0.95674،0.95674،0.95674،0.96100،0.52850. ,0.56025,0.80575,0.96100,0.05100,0.15350,0.31175,0.53300,0.78900,0.96000,0.04650,0.13525,0,0.13525,0.253300,0.13525,0.2960 . 3200,0.29850,0.52700,0.80525,0.96150,0.05150,0.14050,0.29450,0.54375,0.79450,0.96375,0.05337552501 50،0.79425،0.96025،0.04950،0.14500،0.29425،0.52250،0.78475،0.95650،0.05225،0.14425،0.29225،0.29225،0.29225،0.538. var2 = c(1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6, 1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1, 2،3،4،5،6،1،2،3 ,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4 ,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5,6,1,2,3,4,5 ,6,1,2,3,4,5,6) var3 = c(4,4,4,4,4,4,6,6,6,6,6,6,8,8,8,8,8,8,10,10,10,10,10,10, 12،12،12،12،12،12،14،14،1 4,14,14,14,16,16,16,16,16,16,18,18,18,18,18,18,20,20,20,20,20,20,22,22,22, 22،22،22 ,24,24,24,24,24,24,26,26,26,26,26,26,28,28,28,28,28,28,30,30,30,30,30,30,32 ,32,32 ,32,32,32,34,34,34,34,34,34,34,36,36,36,36,36,36,38,38,38,38,38,38,38,40,40,40,40 ,40,40) summary(aov(var1~as.factor(var2)*var3)) summary(aov(var1~as.factor(poly(var2,1))*poly(var3,1))) ممکن است به خوبی نفهمم چگونه poly( ..) و من (..) کار می کنم. ممکن است نکاتی در مورد این دو عملکرد به من بدهید؟ (هدف من ایجاد مدل هایی با درجه های مختلف (مربع، مکعب و غیره) و مقایسه BIC (یا AIC) آنهاست). | مدل های درجه دوم با R. استفاده از توابع poly(..) و I(..) (R-language) |
50198 | مشکل از اینجاست یعنی من مجموعه ای از داده های نقاط داده = [[90.00، 2.0]، [97.40، 5.0]، [104.8، 14.0]، [112.2، 12.0]، [119.6، 11.0]، [127.0، 6.0]، [1] را دارم. 3.0]، [141.8، 1.0]، [149.2، 2.0]، [156.6، 1.0]] من باید یک منحنی به شکل $$\frac{m}{\sigma\sqrt{2\pi}}\cdot e^{-(x بسازم -\mu)^2/(2\sigma^2)}$$ به این داده ها. در پیوند، ولکر براون مقادیر $$m = 405.75796954829985، \mu = 111.86913960269014، \sigma = 11.968861052746961$$ را دریافت کرد و همانطور که من سعی کردم نسخه Sage را روی داده های $$ تنظیم کنم. 405.7572223708457، \mu = 111.86914614035226، \sigma = 11.96881745593664$$ چه نوع راههایی برای اندازهگیری اینکه کدام یک برای آن مجموعه دادهها مناسبتر است وجود دارد؟ شنیده ام که گاهی می توان از log-likelihoods برای انتخاب بهترین مدل استفاده کرد و گاهی معیار اطلاعات Akaike برای آن مناسب است. اما در این شرایط کدام را انتخاب کنم؟ تا کنون، من نظریه پشت AIC را مطالعه نکرده ام. نکته دیگری که من را گیج می کند، اظهار نظر براون است شما باید برای مقادیر اولیه راهنمایی کنید. آیا این بدان معناست که هیچ روش استانداردی برای اندازه گیری میزان تناسب یک منحنی خاص با داده ها وجود ندارد؟ یا این فقط یک اشکال در نسخه قبلی Sage است که در نسخه 5.6، 21 ژانویه 2013 برطرف شده است؟ | چگونه می توانم اندازه گیری کنم که کدام تابع برای مجموعه ای از نقاط داده مناسب تر است |
77346 | ابتدا، رگرسیون Y در $X_1، X_2، X_3، X_4$$ به دست میآید: $$Y=\beta_0+\beta_1X_1+\beta_2X_2+\beta_3X_3+\beta_4X_4+e (1)$$ سپس، Y را در $X_2$ رگرسیون کنید. X_3، X_4$$ $$Y=\beta'_0+\beta'_2X_2+\beta'_3X_3+\beta'_4X_4+e'(2) $$ در نهایت، $X_1$$ روی $$X_2، X_3، X_4$$ $$X_1= پسرفت کنید \beta''_0+\beta''_2X_2+\beta''_3X_3+\beta''_4X_4+e'' (3)$$ حالا من e' را روی e'' $$e'= \alpha_1+\alpha_2e''+\epsilon$$ پس میکشم آیا روش سادهای برای اثبات اینکه $$\alpha_2=\beta_2$$ وجود دارد؟ (3) به (1) (که معادله (4) را به دست می دهد) و سپس باقیمانده های (2) و (4) را مشخص می کند؟ p/s: متاسفم، اما آیا کسی میتواند به من بگوید چگونه نظر بدهم؟ من دکمه افزودن نظر را امتحان کردم اما هنوز نمی توانم. من اینجا تازه واردم | آیا این کاربرد قضیه فریش-و-لاول است؟ |
92298 | من R 3.0.2 را اجرا می کنم و از بسته PLS برای ساخت مدل های حداقل مربعات جزئی استفاده می کنم. مشکلی که من دارم این است که وقتی مقیاسگذاری ویژگی را در ماتریس طراحی خود اعمال میکنم، بردار ضریب حاصل، مقادیر پاسخ پیشبینیشده را در نمونههای آموزشی و اعتبارسنجی متقابل من بازتولید نمیکند. کد من اینجاست: model.train <- cppls(y ~ .، داده = data.train، ncomp = 20، مقیاس = TRUE، اعتبارسنجی = هیچ، وزن = w) yhat.train <- fitted(model.train ) B <- coef(model.train، intercept = TRUE، ncomp = 20) yhat.cv <- predict(model.train، newdata = data.cv، ncomp = 20، type = response) اگر بردار B را بگیرم و در ماتریس طراحی خود ضرب کنم، مقادیر حاصل با مقادیر تولید شده توسط `fitted( برابری نمی کند. توابع ) و پیش بینی(). به عبارت دیگر، Y != BX. اما اگر دقیقاً همان کد را با «scale = FALSE» در تابع «cppls()» اجرا کنم، «Y = BX». سوال من این است که آیا تابع coef() به سادگی نمی تواند بتاها را مجدداً مقیاس کند یا اینکه من در روال خود اشتباه می کنم. من واقعاً دوست دارم بتوانم مقیاس ویژگی را در ماتریس طراحی خود اعمال کنم، اما به بردار بتای صحیح به عنوان خروجی نیاز دارم. از هر توصیه ای بسیار قدردانی می کنم. | بردار بتا از مدل مقیاسپذیر PLS که پاسخهای پیشبینیشده را بازتولید نمیکند |
28714 | مدتی است که در حال مطالعه مدل های سری زمانی گسسته هستم. من با مدلهای سریهای زمانی معمول (ARMA، ARIMA، GARCH و غیره) آشنا هستم، اما میخواهم همتایان پیوسته آنها را مطالعه کنم (فرآیندهای CAR و CARMA بسیار جالب به نظر میرسند) تا برخی مدلها را برای سریهای زمانی با فاصله ناهموار پیادهسازی کنم. علیرغم موارد فوق، من سعی کردم مقدمه هایی برای نظریه و روش های سری زمانی پیوسته به خوبی کتاب Brockwell & Davis (1991) پیدا کنم، اما نتوانستم چیزی را پیدا کنم، فقط برخی از مرورها را اینجا و آنجا (به ویژه آنهایی که وجود دارد). توسط براکول). آیا پیشنهادی برای یک کتاب خوب در این زمینه دارید؟ پیشاپیش متشکرم PS: لطفاً در نظر داشته باشید که پیشینه من تئوری اندازه گیری زیادی ندارد، و برای خواندن ادبیات سری های زمانی مجزا، مجبور شدم تا حد زیادی از یادداشت های سخنرانی و بررسی هایی که در وب پیدا کردم به خودم یاد بدهم (پیشنهاداتی در مورد این موضوع عبارتند از نیز استقبال کرد!). | چه مراجع خوبی برای پرش از مدل های سری زمانی گسسته به مدل های پیوسته وجود دارد؟ |
62743 | از من خواسته شد که یک امتیاز اطمینان را برای یک نسبت واحد محاسبه کنم که نشان دهنده نرخ تبدیل است. من اسناد زیادی را دیدم که اعتماد _فاصله_ را برای نسبت ها بر اساس توزیع دو جمله ای محاسبه می کنند. با این حال من هیچ ماده ای برای یک تبدیل (یا نسبت) ندیدم. اگر $X \sim Bin(n,p)$، با حجم نمونه بزرگ تقریباً دو جملهای معتبر است، آنگاه $$ \hat{p} \leadsto \mathcal{N}\bigg(p, \sqrt{\frac{ p(1-p)}{n}} \bigg) $$ با استفاده از این تقریب، متوجه شدم که اهمیت آماری مربوط به نسبت دوم (از طریق $z$-scores) می تواند باشد. محاسبه و غیره. در حالت ایدهآل، این معیار عددی بین ۰ تا ۱۰۰ درصد خواهد بود. | امتیاز اعتماد برای یک نسبت واحد |
28716 | چگونه می توانم به دنبال تشخیص هم خطی، به ویژه شاخص های شرایط و نسبت های واریانس در رگرسیون لجستیک چند جمله ای باشم؟ | رگرسیون لجستیک چند جمله ای؟ |
28710 | با توجه به اینکه $Y_1، \ldots، Y_6$ متغیرهای تصادفی عادی مستقل با میانگین $0$ و واریانس $\sigma^2$ هستند. توزیع $ T=\displaystyle\frac{Y^2_{1}+Y^2_{2}+Y^2_{3}}{Y^2_{4}+Y^2_{5}+ زیر را بیابید Y^2_{6}} دلار | توزیع نسبت مجموع مجذور متغیرهای تصادفی نرمال چگونه است؟ |
77345 | اجازه دهید $X_1, X_2, \cdots, X_n$ یک نمونه مشابه و مستقل از $N(\mu, \sigma^2)$ باشد، تعریف کنید: $$D = \frac{1}{t}\left[\ overline{X} + \frac{1-\rho}{2} S^2\right]$$ که در آن: $t$ و $p$ ثابت هستند $\overline{X} = \frac{1}{n}\sum_{i=1}^n X_i$، یعنی میانگین نمونه $S^2 = \frac{1}{n} \sum_{i=1}^n \left( X_i-\overline{X}\right)^2$، یعنی واریانس نمونه بایاس پس توزیع نمونه $D$ چیست؟ * * * من می دانم که $\overline{X} \sim N\left(\mu, \frac{\sigma^2}{n}\right)$ و $n\frac{S^2}{\sigma^ 2} \sim \chi^2(n-1)$، اما چگونه توزیع نمونه $D$ را استخراج کنم؟ | مجموع میانگین نمونه و توزیع نمونه واریانس نمونه |
92290 | مرا به خاطر عدم آگاهیم ببخش. اما من با استفاده از مدل arima در نماها مشکل دارم. من نمی دانم چگونه متغیر مستقل (کنترلی) را در عبارت رگرسیون خود لحاظ کنم. مدلی که من استفاده می کنم ls Dy c beta ar(1) ar(2) ma(1) ma(2) Dx1 Dx2 Dx3 می تواند راهنمایی کند که آیا این مدل درست است یا خیر. من وبسایتها و مقالات زیادی را جستجو کردهام، اما نتوانستم نحوه بازگشت با متغیر کنترل را پیدا کنم. از شما در انتظار سپاسگزارم | مشکلات استفاده از مدل arima |
77343 | من یک مطالعه تجزیه و تحلیل بقا دارم و در برخورد با متغیرهای وابسته به زمان مشکل دارم. برای مقابله با متغیرهای وابسته به زمان، باید فواصل زمانی ایجاد کنم که متغیر تغییر کند. یکی از متغیرها «فصل» است که دارای مقادیر تولید مثل، پس از پرورش یا زمستان است. از آنجایی که همه مشاهدات در زمان متفاوتی شروع میشوند (روزهای مختلف و سالهای مختلف)، محاسبه این فواصل کار آسانی نیست، زیرا سه تغییر در سال وجود دارد. جدول نهایی بسیار بزرگ خواهد بود، زیرا من 154 مشاهده دارم و برخی از آنها 5 سال دنبال می کنند... من از بسته بقا R استفاده می کنم. آیا کسی می تواند به من کمک کند تا راه آسانی برای مقابله با این موضوع پیدا کنم؟ | متغیر وابسته به زمان چرخه تحلیل بقا |
64118 | در اخبار محلی [1] اطلاعاتی ارائه می شود که 58 درصد مردم برای چیزی هستند. این اطلاعات بر اساس مجموعه گزینه هایی است که از 500 نفر از 10.5 میلیون نفر در مورد آن سوال می پرسند. فاصله اطمینان برای افرادی که برای آن چیزی هستند چقدر است؟ برای حل این موضوع سعی می کنم دنبال کنم. $n$ افراد از $10^7$ برای چیزی است. من به طور تصادفی 500 مورد از آنها را انتخاب می کنم و سعی می کنم $n_1,n_2$ را پیدا کنم که: $$ n_1: \frac{\binom{n_1}{290}\binom{10^7-n_1}{210}}{\ binom{10^7}{500}}<0.05 $$ $$ n_2: \frac{\binom{n_2}{290}\binom{10^7-n_2}{210}}{\binom{10^7}{500}}>0.95 $$ اما حل این مشکل آسان نیست. بنابراین من به دنبال یک الگوریتم قابل حل هستم. [1] پیوند | ارتباط نظرسنجی (500 نفر از 10.5 میلیون نفر) |
67955 | مشکل به شرح زیر است: اگر من دادههای مربوط به ریسک عملیاتی از سال 2002 تا 2005 را داشته باشم، میخواهم مقدار چگالی مرتبط با آن را بدست بیاورم. X # دادههای 2002 تا 2005 است، X مقادیر [-200200] چگالی (X) # چگالی X را میگیرد سوال این است که چگونه میتوان مقادیر این چگالی را بدست آورد؟ به عنوان مثال، اگر من هر مقدار X0 را در X بگیرم مثلا 109، پس چگونه می توان این مقدار را بدست آورد؟ | چگونه می توان مقادیر چگالی احتمال یک داده معین را با استفاده از R بدست آورد؟ هدف بدست آوردن مقادیر تابع است نه نمودار |
79611 | من در حال حاضر در تلاش برای تفسیر نتایج یک تحلیل رگرسیون هستم که در آن به دنبال اثر تعدیل هستم. در حالی که اصطلاح تعامل معنادار است، تأثیر اصلی تعدیل کننده بالقوه با متغیر مستقل معنی دار نیست. آیا اثر تعدیل فقط به اثر متقابل بستگی دارد یا تأثیر اصلی تعدیل کننده بالقوه نیز باید با همان جهت قابل توجه باشد؟ | تعیین اینکه آیا اثر تعدیل وجود دارد یا خیر |
66314 | **توضیحات:** اجازه دهید دامنه مشکل طبقه بندی سند باشد که در آن مجموعه ای از بردارهای ویژگی وجود دارد که هر کدام به 1 یا چند کلاس تعلق دارند. برای مثال، یک سند «doc_1» ممکن است به دستههای «ورزشی» و «انگلیسی» تعلق داشته باشد. **سوال:** با استفاده از شبکه عصبی برای طبقه بندی، برچسب بردار ویژگی چیست؟ آیا بردار تشکیل دهنده همه کلاس ها است به طوری که مقدار 0 به کلاس های غیر مرتبط و 1 برای کلاس های مربوطه داده شود؟ بنابراین اگر لیست برچسبهای کلاس «[ورزش، اخبار، اقدام، انگلیسی، ژاپنی]» باشد، برای سند «doc_1» برچسب «[1، 0، 0، 1، 0]» خواهد بود؟ | چگونه شبکه های عصبی را در مسائل طبقه بندی چند برچسبی اعمال کنیم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.