_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
87476
![قضیه](http://i.stack.imgur.com/RwZyH.jpg) این یکی از قضایا در متن آمار من است، و من برای درک اثبات نیاز به کمک دارم. 1. چگونه جمع ($g_{i}$) در هنگام ضرب خارج از علامت جمع باشد؟ من فکر کردم وقتی $\sum_{i}^{}$ به آن بستگی دارد، هرگز نمی‌توانید جمع‌آوری کنید. 2. من فکر می کنم چندین مرحله برای دستیابی به آن نتیجه نهایی در مورد بالا وجود ندارد. میشه لطفا یکی توضیح بده که چطور 2 جمع با شاخصی متفاوت 1 شد؟
سوال اثبات E[g(Y)]
109746
می‌دانم که می‌توانید الگوریتم‌های یادگیری را بر اساس میانگین دقت اعتبار متقاطع آنها (به عنوان مثال CV 10 برابری، 10 تکراری) و دقت مجموعه تست آنها مقایسه کنید. فرض کنید مدل 1 یک مدل رگرسیون لجستیک با پیش بینی کننده های A,B,C است. فرض کنید مدل 2 یک SVM با پیش بینی کننده های A,B,C,D است. آیا می‌توانیم مدل 1 و مدل 2 را با وجود اینکه مدل 2 دارای متغیر پیش‌بینی‌کننده اضافی D است، مقایسه کنیم؟
مقایسه الگوریتم های یادگیری
109743
من سعی می کنم تابع چگالی احتمال را برای یک فرآیند نسبتا ساده رسمی کنم، اما در نوشتن دقیق آن مشکل دارم. به طور خاص، شبیه سازی یک پیاده روی تصادفی گاوسی 1 بعدی را در نظر بگیرید که از X_0 شروع می شود تا شرایط توقف (که تقریباً به طور قطع در زمان محدود اتفاق می افتد). به طور خاص، اجازه دهید RV $X_0 \sim \pi(\cdot)$ برای مقداری چگالی شناخته شده $\pi$، با توجه به RV $X_n$ سپس $X_{n+1} \sim \mathcal{N}(\cdot; X_n, 1)$، که $\mathcal{N}(x;\mu,\sigma)$ PDF نرمال است که در نقطه $x$ با میانگین $\mu$ و واریانس ارزیابی شده است. $\sigma$. همچنین تابع $S : \mathbb{R} \to (0,1)$ به ما داده می شود که در آن $S(x)$ احتمال خاتمه زنجیره در نقطه $x$ را می دهد. بنابراین، با توجه به دنباله ای از نقاط $X_0,...,X_n$ می توانیم PDF را به صورت $$ p(x_0,...,x_n) = \pi(x_0)\sum_{i=1}^{n بنویسیم -1} \mathcal{N}(x_i؛ x_{i-1}، 1)(1-S(x_i))\mathcal{N}(x_n؛ x_{n-1}، 1)S(x_n) $$ حال، یک جزئیات آزاردهنده نهایی را اضافه می کنیم: اینکه پس از پایان زنجیره، یک نقطه _تک را از دنباله به طور یکنواخت به صورت تصادفی انتخاب می کنیم. سوال من: چگونه می توانم PDF $f(x')$ را بنویسم، جایی که RV $X'$ نقطه انتخاب شده توسط این فرآیند است؟ حدس من این است که یک PMF برای توزیع یکنواخت تعریف کنیم $u(x'|x_0,...,x_n) = \\{ 1/(n+1) \ \text{if} \ x \in \\{x_0 ,...,x_n\\}; 0 \ \text{در غیر این صورت} \\}$ دادن: $$ f(x') = \sum_{n=0}^\infty \int u(x'|x_0,...,x_n)p(x_0, ...,x_n) dx_0...dx_n $$ اما $u$ برای مجموعه های بی نهایت تعریف نشده است (حتی اگر فرض می کنم $S$ زنجیره را به صورت متناهی خاتمه می دهد زمان)، و آیا حتی یک چگالی شرطی معتبر است که بر روی یک مجموعه گسسته مانند آن تعریف می شود؟ من این احساس را دارم که در اینجا قوانین زیادی را زیر پا می گذارم.
رسمی کردن pdf با استفاده از چگالی گسسته و پیوسته
15368
من در حال توسعه یک مدل اثر ترکیبی برای اندازه گیری مکرر فشار خون با استفاده از دو تکنیک مختلف هستم. من قبلاً در مورد مزایای مدل های ترکیبی نسبت به اندازه گیری های مکرر ANOVA در SE بحث کرده ام. تنها مشکل این است که من می‌دانم ادبیات مدل‌های مختلط در R مبتنی بر نقطه شروعی است که کمی بالاتر از درک ضعیف من است. آیا کسی مقدمه خوبی برای مدل‌سازی ترکیبی در R می‌داند یا می‌تواند دنباله خوبی از موضوعات را پیشنهاد کند که به درک کاملی از نحوه ساخت و (مهمتر از آن) خروجی یک مدل ترکیبی در R منجر شود؟
پیشنهادات آموزشی منجر به مدل سازی با اثر مختلط
32850
من مجموعه ای از داده ها متشکل از جفت (i,j) دارم که هم i و هم j از یک مجموعه S با اندازه k گرفته شده اند. من می خواهم یک تست استقلال شبیه تست کای دو انجام دهم. با این حال من خیلی به استقلال کامل اهمیت نمی دهم. من واقعاً فقط علاقه مندم که ببینم آیا جفت‌های شکل (i,i) بیشتر (یا کمتر) بیشتر از جفت‌هایی از شکل (i,j) با j برابر با i نشان داده می‌شوند یا خیر. بنابراین، به نظر می رسد منطقی است که داده ها را جمع آوری کنیم، و به یک جدول 2 با k نگاه کنیم که ردیف هایی که توسط اولین ورودی به صورت جفت داده می شود، و ستون هایی که بر اساس اینکه آیا ورودی دوم با ورودی اول برابر است یا نه، ارائه شده است. آیا می توان کاری مانند تست کای اسکوئر را با این روش انجام داد؟ ممکن است چگونه به نظر برسد/آیا می توانم مراجعی پیدا کنم؟ ویرایش شده در پاسخ به whuber: از پاسخگویی متشکریم. من مطمئن نیستم که سوال را کاملاً درک کرده باشم، اما اینجاست. برای من، عناصر S نشان دهنده گروه های مختلف است (به عنوان مثال، هر عنصر S یک بانک یا سازمان دولتی است). اگر جدول 2 در k نباشد، چه اندازه ای معقول به نظر می رسد؟ نمی‌دانم برچسب‌ها برای مثلاً یک جدول 2 در 2 چیست. من می‌توانم ردیف‌هایی را برای یک جدول 1 در 2 حدس بزنم، اما پس از آن نمی‌توانم تصور کنم که آزمون چه خواهد بود - تجمع بیش از حد انجام شده است. 2 با k وجود داشت فقط به این دلیل که الف) به نظر واضح است که حاوی تمام داده‌هایی است که من به آنها علاقه دارم، و ب) ورودی‌های بسیار کمتری نسبت به جدول کامل k به k دارد. ویرایش شده در پاسخ به gui11aume: با تشکر از کمک! عناصر مختلف S نشان دهنده به عنوان مثال. بانک های مختلف یک جفت (i,j) ممکن است نشان دهنده نوع خاصی از تجارت شامل بانک i و بانک j باشد. در اصل، منطقی به نظر می رسد که فقط بپرسیم آیا بانک به احتمال بیشتری با بخش دیگری از خود سروکار دارد یا خیر، و بنابراین همه داده ها را در دو بلوک (هر دو ورودی یکسان) و (ورودی ها متفاوت هستند) جمع آوری کنیم. در عمل، من در درجه اول به دلیل مسائل مقیاس، کمی نگران این هستم. برخی از گروه‌ها نسبت به گروه‌های دیگر در رده‌های مختلف درگیر هستند. به نظر می‌رسد که آزمون‌های جدول اقتضایی عادی با این موضوع به خوبی مقابله می‌کنند و به هر گروه یک نرمال‌سازی جداگانه می‌دهند. نمی‌دانم چگونه می‌توانم بدون اینکه همه گروه‌ها به جز بزرگ‌ترین گروه‌ها را به طور موثر نامرئی کنیم، به دو بلوک تجمیع کنم. البته من دقیقا متخصص نیستم!
تست استقلال با مقداری تجمیع
87479
در «R»، من از تابع «lda» از کتابخانه «MASS» برای انجام طبقه‌بندی استفاده می‌کنم. همانطور که من LDA را درک می کنم، به ورودی $x$ برچسب $y$ اختصاص داده می شود، که $p(y|x)$ را به حداکثر می رساند، درست است؟ اما وقتی مدلی را که در آن $$x=(Lag1,Lag2)$$$$y=جهت،$$ مطابقت می‌دهم، کاملاً خروجی «lda» را نمی‌فهمم، > > > lda.fit > تماس: > lda (جهت ~ Lag1 + Lag2، داده = قطار) > > احتمالات قبلی گروه ها: > پایین بالا > 0.491984 0.508016 > > گروه یعنی: > Lag1 Lag2 > Down 0.04279022 0.03389409 > Up -0.03954635 -0.03132544 > > ضرایب تشخیص خطی: > LD1 > Lag1 -0.6420190 > 5 Lag2 را درک کنید اما یک چیز، **`LD1`** چیست؟ من در وب جستجو می کنم، آیا این امتیاز تشخیص خطی است؟ این چیست و چرا به آن نیاز دارم؟ **به روز رسانی** من چندین پست (مانند این و این یکی) را خواندم و همچنین در وب برای DA جستجو کردم، و اکنون نظر من در مورد DA یا LDA اینجاست. 1. می توان از آن برای انجام طبقه بندی استفاده کرد، و زمانی که هدف این باشد، می توانم از رویکرد Bayes استفاده کنم، یعنی $p(y|x)$ بعدی را برای هر کلاس $y_i$ محاسبه کنم و سپس $x را طبقه بندی کنم. $ به کلاسی که بالاترین رتبه را دارد. با این رویکرد، من اصلاً نیازی به کشف ممیزات ندارم، درست است؟ 2. همانطور که در پست ها خواندم، DA یا حداقل LDA در درجه اول **کاهش ابعاد** است، برای کلاس های $K$ و فضای پیش بینی $D$-dim، می توانم $D$-dim $x را پیش بینی کنم. $ به فضای ویژگی جدید $(K-1)$-dim $z$، یعنی \begin{align*}x&=(x_1,...,x_D)\\\z&=(z_1,...,z_{K-1})\\\z_i&=w_i^Tx\end{تراز کردن*} ، $z$ را می توان به عنوان بردار ویژگی تبدیل شده از $x$ اصلی مشاهده کرد و هر $w_i$ برداری است که $x$ روی آن پیش بینی می شود. آیا من در مورد عبارات فوق حق دارم؟ اگر بله، من سوالات زیر را دارم: 1. ممیز چیست؟ آیا هر ورودی $z_i$ در بردار $z$ ممیز است؟ یا $w_i$؟ 2. چگونه می توان طبقه بندی را با استفاده از ممیز انجام داد؟
ضرایب تشخیص خطی در LDA چیست؟
15361
آیا باید از اصلاحات Bonferroni یا Holm استفاده کنم؟ لطفاً این سؤال قبلی را برای داده‌های نمونه و طرح من ببینید. (به زودی، من سه یا چند گروه وابسته دارم.)
بعد از تست جفت همسان ویلکاکسون باید از چه نوع تصحیح خطا استفاده کنم؟
31516
من دو گروه ده تایی از مشاهدات دارم که وزن در سه نقطه مختلف زمان اندازه گیری می شود. بیایید بگوییم پایه، 2 ماه و 5 ماه پس از پایه. حالا من می خواهم نتیجه بگیرم اگر میانگین یک گروه در طول زمان کمتر از گروه دیگر باشد. به احتمال زیاد وزن آنها در اولین اندازه گیری یکسان است، با تغییرات کمی. پیشنهادی برای برازش یک رگرسیون خطی ساده وجود دارد که در آن از تفاوت میانگین دو گروه به عنوان پاسخ و زمان به عنوان وابسته استفاده می کنیم. به نظر من اشتباه به نظر می رسد، ما فقط سه مشاهده خواهیم داشت. آیا مناسب‌تر است که برخی از ANOVA اندازه‌گیری‌های مکرر را متناسب کنیم یا هر پیشنهاد دیگری؟ ممنون از هر ورودی
مقایسه میانگین بین دو گروه در سه نقطه زمانی
23696
من کلاس ml ارائه شده توسط پروفسور اندرو نگ در پاییز گذشته را تکمیل کردم. شروع به امتحان کردن یکی از مشکلات در Kaggle کردم. من دیدم که مردم قبل از استفاده از هر الگوریتم یادگیری ماشینی، تجزیه و تحلیل داده‌های زیادی انجام می‌دهند. کتابی را در بخش آمار تکمیل کردم و می‌خواهم در مورد تجزیه و تحلیل داده‌ها بیاموزم.
31519
امروز، یک پست محاسبات و پایداری را خواندم: چه کاری می توان انجام داد؟ و متوجه شدم که نویسنده این پست به راحتی می تواند مشکلات آماری در زمینه های دیگر مانند علوم کامپیوتر را پیدا کند. از آنجایی که به عنوان یک فارغ التحصیل آمار، تشخیص سؤالات آماری در زمینه های دیگر بسیار مهم است، من واقعاً کنجکاو هستم که چگونه سؤالات آماری را به طور مؤثر کشف کنم. برای اینکه هر مشکلی به عنوان آماری شناخته شود چه ویژگی هایی دارد؟
برای آماری بودن یک مسئله چه ویژگی هایی وجود دارد؟
105633
مواقعی وجود دارد که ممکن است کسی بخواهد نسبت شیوع یا خطر نسبی را برای داده‌هایی با نتایج دودویی، ترجیحاً نسبت شانس، تخمین بزند - مثلاً، اگر نتیجه مورد نظر نادر نیست، بنابراین رابطه RR ~ OR نیست. نگه دارید من مدلی را در R برای انجام این کار پیاده‌سازی کرده‌ام، به شرح زیر: uni.out <- glm(Death ~ start, family= binomial (link=log), data=data) اما من به طور مداوم با مشکلات همگرایی مواجه می‌شوم، حتی زمانی که ارائه مقادیر شروع (مانند برآورد ضرایب برگرفته از رگرسیون لجستیک)، یا افزایش تعداد تکرارهای مجاز. من همچنین glm2 را بدون هیچ موفقیتی امتحان کردم. دو ایده ای که من از اینجا دارم این است که یا با استفاده از یک برآوردگر ساندویچی برای واریانس، یک مدل پواسون را با داده های مشابه برازش دهیم، یا مدل را با استفاده از MCMC برازش کنیم و خطای استاندارد پسین را بگیرم (این در کنار انتساب چندگانه استفاده می شود، بنابراین من نمی توانم فقط گزارش قبلی را گزارش کنم). مشکل این است که من هیچ ایده ای ندارم که چگونه یکی از این ها را در `R` پیاده سازی کنم، و نه اینکه آنها بهترین راه حل هستند یا خیر. علاوه بر این، هنگام استفاده از مدلی مانند: glm (Death ~ سن، خانواده = دو جمله ای (link=log)، start=c(-3.15,0.03),data=data) مرتباً یک پیام خطا دریافت می کنم خطا: نمی توانم پیدا کنم مقادیر شروع معتبر: لطفاً مقداری را مشخص کنید، اما نه همیشه. چه چیزی این پیام را تولید می کند؟
وقتی همگرایی یک مدل Log-دوجمله‌ای با شکست مواجه می‌شود، چه باید کرد
31513
گزیده زیر از شواگر's Hedge Fund Market Wizzards (مه 2012) است، مصاحبه ای با Jaffray Woodriff مدیر همیشه موفق صندوق تامینی: در پاسخ به این سوال: بزرگترین اشتباهات مردم در داده کاوی چیست؟: ​​> بسیار زیاد بسیاری از مردم فکر می کنند که مشکلی ندارند زیرا از داده های درون نمونه برای > آموزش و از داده های خارج از نمونه برای آزمایش استفاده می کنند. سپس مدل ها را بر اساس > بر اساس نحوه عملکرد آنها بر روی داده های درون نمونه مرتب می کنند و بهترین آنها را برای آزمایش > روی داده های خارج از نمونه انتخاب می کنند. تمایل انسان این است که مدل هایی را انتخاب کند که در داده های خارج از نمونه عملکرد خوبی دارند و آن مدل ها را برای تجارت انتخاب کنند. این نوع فرآیند به سادگی داده‌های خارج از نمونه را به بخشی از داده‌های آموزشی تبدیل می‌کند، زیرا مدل‌هایی را انتخاب می‌کند که بهترین عملکرد را در دوره خارج از نمونه داشته‌اند. این یکی از رایج ترین خطاهایی است که افراد مرتکب می شوند و یکی از دلایلی است که داده کاوی همانطور که معمولاً اعمال می شود نتایج وحشتناکی به همراه دارد. مصاحبه‌کننده می‌پرسد: «به‌جای آن چه باید بکنید؟»: > می‌توانید الگوهایی را جستجو کنید که به طور متوسط، همه مدل‌های خارج از نمونه به کار خود ادامه دهند. اگر میانگین مدل های خارج از نمونه درصد قابل توجهی از امتیاز درون نمونه باشد، می دانید که خوب کار می کنید. > به طور کلی، اگر نتایج خارج از نمونه > بیش از 50 درصد نتایج درون نمونه باشد، واقعاً به جایی می رسید. اگر SAS و IBM نرم‌افزار مدل‌سازی پیش‌بینی‌کننده عالی می‌ساختند، مدل کسب‌وکار QIM هرگز کار نمی‌کرد. **سوالات من** آیا این منطقی است؟ منظور او چیست؟ آیا سرنخی دارید - یا شاید حتی نامی برای روش پیشنهادی و برخی منابع؟ یا این مرد جام مقدس را یافته است که هیچ کس دیگری نمی فهمد؟ او حتی در این مصاحبه می گوید که روش او به طور بالقوه می تواند علم را متحول کند...
روش انقلابی جدید داده کاوی؟
32938
برای انجام PCA و سپس Gower Similarity به کمک نیاز دارید
111355
من یک مبتدی مطلق در آمار هستم. لطفاً هرگونه فرضیات غلط یا اطلاعات گمشده در سؤال من را معذور کنید. من یک سوال دارم که به توزیع چندجمله ای مربوط می شود (حتی 100٪ در این مورد مطمئن نیستم) که امیدوارم کسی بتواند به من کمک کند. اگر از یک متغیر طبقه‌ای که بیش از دو نتیجه احتمالی دارد (به عنوان مثال آبی، سیاه، سبز، زرد) نمونه‌ای بگیرم (فرض کنیم $n=400$) و فرکانس‌ها را رسم کنم تا بتوانم احتمالات را استخراج کنم. به عنوان مثال: سیاه 10٪ آبی، 25٪ سبز، 35٪ زرد 30٪ چگونه می توانم فاصله اطمینان 95٪ را برای آن احتمالات محاسبه کنم؟ و چگونه می توانم حجم نمونه مورد نیاز را برای به دست آوردن یک نتیجه دقیق در 3-% برای هر احتمال تعیین کنم؟ لطفاً اگر پاسخ به سؤال نیاز به اطلاعات اضافی دارد، به من اطلاع دهید.
فاصله اطمینان و احتمالات چند جمله ای اندازه نمونه
19465
در کلاس یادگیری ماشین خود، اخیراً با برآورد پنجره Parzen برخورد کردیم. عبارت زیر بیان شد: فرض کنید $\hat p_n$ تخمینگر $\hat p$ با استفاده از نقاط داده $n$ باشد و اجازه دهید $p (x)$ توزیع واقعی داده ها باشد. برای یک تخمین قابل قبول، می‌خواهیم: $$\lim_{n \to \infty}{\mathbb{E}[\hat p_n (x)]} = p(x)$$ $$\lim_{n \to \infty}{\text{Var}[\hat p_n (x)]} = 0$$ اولین شرطی که من می‌توانم به صورت «بی‌طرف مجانبی» تعبیر کنم. اما با ترکیب شرط دوم، من تفاوتی با نیاز به فقط $$\lim_{n \to \infty}{\hat p_n(x)} = p(x) نمی بینم.$$ آیا جنبه ای وجود دارد که من هستم وجود ندارد، یا این دو فرمول معادل هستند؟
نیاز همگرایی برآوردهای پنجره پرزن
95159
پیام خطا با MANOVA
111354
من در حال مدل سازی یک طبقه بندی برای پیش بینی ریزش ها هستم. من مجموعه‌ای از نمونه‌های آموزشی دارم که چندین شکل (ویژگی‌ها، برچسب‌ها) هستند که در آن برچسب می‌گوید آیا آنها فعال هستند (برچسب را به عنوان A صدا کنید) یا از 31 ژوئیه 2014 (برچسب تماس بگیرید) به عنوان C). اکنون مشکل اینجاست: آیا اصلاً قابل توجیه است که بگوییم یک نمونه آموزشی خاص A است؟ دلیل آن این است: از 31 ژوئیه 2014 آنها فعال هستند، اما ممکن است در ماه آگوست از بین بروند بنابراین واقعا نمونه ای از یک نمونه فعال نیستند. مشکل این است که ما نمی‌توانیم به آینده نگاه کنیم، بنابراین غیرممکن و نادرست است که یک نمونه را فقط با دیدن رفتار آن تا 31 ژوئیه 2014 با یک A برچسب گذاری کنیم. تنها چیزی که می دانیم این است که این نمونه از 31 ژوئیه 2014 فعال است، اما به این معنی نیست که ممکن است در آینده دچار مشکل نشوند، بنابراین برچسب زدن A ممکن است اشتباه باشد. اکنون کل مشکل از بین می‌رود زیرا من واقعاً نمی‌توانم مجموعه‌ای آموزشی بسازم که نمونه‌هایی با عنوان فعال داشته باشد. آیا راهی برای حل این مشکل یا رفع ناهماهنگی وجود دارد؟
ناهماهنگی در برچسب گذاری یک کلاس برای یک مشکل پیش بینی ریزش
88319
مدل مناسب برای آزمایش اثرات مکان، گونه و اندازه بر رشد درخت چیست؟ بنابراین من متغیرهای مقوله ای و پیوسته را در مدل دارم. نمودار زیر فقط یک نمودار منفرد را نشان می دهد که در دو دوره زمانی متوالی اندازه گیری شده است، هر نقطه بر اساس اندازه آن مقیاس بندی شده و بر اساس گونه رنگ شده است. من می خواهم اندازه درخت تغییر (نقطه) را به عنوان تابعی از اندازه همسایه، فاصله، گونه و اندازه اولیه مدل کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/h0vhj.png) با تشکر!
مدل صریح فضایی برای آزمایش اثرات متغیرهای متعدد
88315
من استقلال دو متغیر A و B را آزمایش می کنم که با C طبقه بندی شده اند. با اجرای آزمون دقیق فیشر برای A و B (همه اقشار ترکیبی)، دریافت می کنم: ## (B) ## (A) FALSE TRUE ## FALSE 1841 85 ## TRUE 915 74 OR: 1.75 (1.25 - 2.44)، p = 0.0007 * که در آن OR نسبت شانس است (تخمین و 95٪ فاصله اطمینان)، و * به این معنی است که p <0.05. با اجرای آزمون مشابه برای هر لایه (C)، من دریافت می کنم: C=1، OR: 2.31 (0.78 -- 6.13)، p = 0.0815 C=2، OR: 2.75 (1.21 -- 6.15)، p = 0.0088 * C = 3، OR: 0.94 (0.50 - 1.74)، p = 0.8839 C=4، OR: 1.48 (0.77 -- 2.89)، p = 0.2196 C=5، OR: 3.38 (0.62 - 34.11)، p = 0.1731 در نهایت، اجرای آزمون کوکران-مانتل-هنزل (CMH) با استفاده از A، B و C، دریافت می کنم: OR: 1.56 (1.12 -- 2.18)، p = 0.0089 * نتیجه آزمون CMH نشان می دهد که A و B در هر لایه **مستقل نیستند (0.05 < p). با این حال، اکثر آزمون‌های درون لایه‌ای غیر معنی‌دار بودند، که نشان می‌دهد ما شواهد کافی برای رد مستقل بودن A و B در هر طبقه نداریم. بنابراین، چه نتیجه ای درست است؟ چگونه می توان نتیجه گیری را با توجه به آن نتایج گزارش کرد؟ آیا می توان C را یک متغیر مداخله گر در نظر گرفت یا خیر؟ ویرایش: من آزمون Breslow-Day را برای این فرضیه صفر انجام دادم که نسبت شانس در بین طبقات یکسان است و p-value 0.1424 بود.
چگونه تست کوکران-مانتل-هنزل را تفسیر کنیم؟
111359
مطالعه من به بررسی تأثیرات نوع محفظه (1 IV (قلم‌دار v بدون قلم)) بر رفتارها و تعاملات کلیشه‌ای (2 DV (شمارش)) فیل‌ها است، اما با استفاده از باران (بله/خیر) و دماهای بالا و پایین به عنوان متغیرهای کمکی همان 9 فیل سال گذشته در حالی که در قلم بودند و امسال دوباره زمانی که در قلم نبودند مورد مطالعه قرار گرفتند. به من گفته شده است که باید یک GEE انجام دهم، اما نمی دانم چگونه این کار را انجام دهم، چه رسد به درک خروجی. همچنین من نمی دانم که چگونه باید در SPSS تنظیم شود.
نحوه انجام و تفسیر یک معادله برآورد تعمیم یافته
88317
من در مراحل اولیه ساخت یک مدل رگرسیون پانل از داده های فروش هستم. من می دانم که مجموعه داده مدل نهایی من شامل فروش گزارش، متغیرهای کنترل و متغیرهای رسانه گزارش است. من قصد دارم از stl() برای تجزیه سری زمانی فروش گزارش استفاده کنم. سوال من: اگر بخواهم یک مدل سری زمانی چند متغیره ایجاد کنم، آیا منطقی است که متغیر وابسته را در مرحله تجزیه و تحلیل داده های اکتشافی (EDA) تجزیه کنم؟ آیا مؤلفه فصلی/ روند در تجزیه به من چیزی در مورد سری های زمانی من می گوید که من انتظار کنترل این عوامل در RHS معادله مدل را دارم؟
سودمندی تجزیه سری های زمانی در ساخت یک مدل چند متغیره چیست؟
73977
سوال من در عنوان است. من فکر نمی‌کنم که X و Y به طور مشترک پیوسته باشند، اما نمی‌توانم مثال متقابلی را در نظر بگیرم که x و y به طور مشترک پیوسته نباشند.
فرض کنید X و Y هر کدام پیوسته هستند. آیا آنها به طور مشترک مستمر هستند؟
88312
من یک سوال دارم که ممکن است بسیار بدیهی به نظر برسد اما واقعاً پاسخ خوبی برای آن ندارم. الگوریتم‌های زیادی وجود دارند که با ابهام‌زدایی از معنای کلمه سروکار دارند، اما همه آن‌هایی که من دیده‌ام، فرض می‌کنند که کلمات مبهم از قبل شناخته شده‌اند. یعنی معمولاً آنها به مجموعه داده ای اعمال می شوند که در آن کلمات مبهم شناخته شده وجود دارد (مانند گیاه، جت، بانک و غیره). سوال من این است که اگر مجموعه داده متنی کاملا جدیدی به شما داده شود که ممکن است کلمات مبهم در آن وجود داشته باشد یا نه، چه می شود. بدیهی است که قبل از اینکه بتوانید یک الگوریتم ابهام‌زدایی با حس کلمه را به کار ببرید، باید بدانید که آن را روی کدام کلمات اعمال کنید. بنابراین سوال من این است که با توجه به یک متن ناشناخته، چگونه بفهمیم کدام کلمات مبهم هستند (کلماتی که باید الگوریتم WSD را روی آنها اعمال کنیم) و کدام کلمات مبهم هستند. من می توانم به دو روش ممکن فکر کنم 1) فهرست بزرگی از کلمات مبهم را جمع آوری کنم و بررسی کنم که آیا هر یک از آنها در متن وجود دارد یا خیر.
ابهام زدایی معنای کلمه در عمل
93138
در حین مطالعه برای امتحان یادگیری ماشینی، با مشکلی مواجه شدم که نمی توانم آن را درک کنم. در مسئله، ما این پرسپترون را داریم که 3 ورودی باینری (0 یا 1) a,b,c با وزن های مربوطه 1،2،1 و بایاس 1.5 دارد. سوال این است که تابع منطق بولی که توسط پرسپترون باینری پیاده سازی می شود چیست و پاسخ b + ac، (b OR (a AND c)) است، اما نمی توانم بفهمم چرا این پاسخ صحیح است. منطق من این است که طبق قاعده ای که در این مورد مجموع خالص باید > آستانه (1.5) باشد، اگر ورودی a و c روشن باشند، پرسپترون باید 1 را شلیک کند، که طبق پاسخ اشتباه است زیرا b است. برای بودن آیا کسی می تواند به من کمک کند تا این را بفهمم؟ با تشکر
39073
هنگامی که من PCA را روی یک مجموعه داده خاص اجرا می کنم، آیا راه حلی که به من داده می شود منحصر به فرد است؟ یعنی من مجموعه ای از مختصات 2 بعدی را بر اساس فواصل بین نقطه ای به دست می آورم. آیا می توان حداقل یک ترتیب دیگر از نقاطی را یافت که این محدودیت ها را برآورده کند؟ اگر پاسخ مثبت است، چگونه می توانم چنین راه حل متفاوتی پیدا کنم؟
آیا راه حل های PCA منحصر به فرد هستند؟
39077
اگر یکی از ویژگی های اشیاء من رنگ است، چگونه می توان شباهت بین دو شی را محاسبه کرد؟ آیا تبدیل آن به RGB و استفاده از فاصله اقلیدسی در سه بعدی صحیح است؟ یا آیا ترتیب یک بعدی قابل قبولی از رنگ ها وجود دارد (مانند مورد رنگین کمان)؟
اندازه گیری شباهت بین دو رنگ؟
73978
من در حال تلاش برای حل مشکلی به شکل $\min_x \frac{1}{2}||Ax-b||^2_2 + \frac{\rho}{2}||x-z||^2_F$ هستم که در آن هم $x$ و هم $b$ ابعاد بالایی دارند و $b$ ابعادی بسیار بالاتر از $x$ دارند. راه حل با $x^* = (A^T A+\rho I)^{-1}(A^T b + z)$ داده می شود، اما مشکل آنقدر بزرگ است که حتی وارونه کردن $A^T A + \rho I$ غیر ممکن است. با این حال، به دلیل ساختار مشکل، می‌توانیم به طور موثر در $A$ و $A^T$ ضرب کنیم. اساساً این رگرسیون خطی خطی در مقیاس بزرگ است. الگوریتم ایده آل برای اجرای کارآمد این کمینه سازی چیست؟ آیا چیزی مانند گرادیان دو مزدوج کار می کند؟
رگرسیون خط الراس در مقیاس بزرگ
103327
وظیفه من بهبود کیفیت ویجت از یک فرآیند تولید با حجم بالا است. داده‌های بقا 99% درست سانسور شده‌اند، زیرا اکثر محصولات شکست نمی‌خورند و تجزیه و تحلیل سریع مدت‌ها قبل از شکست برای بدست آوردن ارزش تجاری ضروری است. اهداف عبارتند از: 1. تغییر فرآیند تولید برای توقف ساخت ویجت های پرخطر. این به اندازه اثر در زبان تجزیه و تحلیل بقا 2 نیاز دارد. ویجت هایی را انتخاب کنید که ریسک بازگشت بالایی دارند برای مدیریت جداگانه. این نیاز به پیش بینی سطح ویجت دارد. سانسور درست باعث می‌شود که Survival Analysis (که قبلاً انجام نداده‌ام) نسبت به پیش‌بینی معمولی (که بسیاری از آنها را انجام داده‌ام) مناسب باشد. من هزاران متغیر مشترک در مورد ویجت ها دارم که روش های فرم بسته را مطلوب می کند. به نظر می‌رسد که مدل‌های زمان شکست تسریع شده در تولید بسیار محبوب هستند. توزیع لجستیک یک مدل متداول زمان شکست تسریع شده (AFT) با فرم بسته است. سوالات من این است: 1. آیا می توانم اندازه های افکت را از AFT دریافت کنم؟ 2. آیا می توانم پیش بینی سطح مشاهده را از AFT دریافت کنم؟ 3. آیا می توانم AFT را به ده ها هزار متغیر کمکی مقیاس دهم؟ 4. آیا می توانید پیاده سازی AFT را در پایتون پیشنهاد دهید؟ 5. آیا می توانید اجرای R برای AFT را پیشنهاد دهید؟ 6. آیا جایگزینی برای AFT برای پیشنهاد دارید؟ با تشکر
پیش بینی زمان بقای تولید
99469
با استفاده از بسته «lme4»، «ranef()» چگونه تخمین‌های اثرات تصادفی را از یک شی «glmerMod» محاسبه (یا استخراج می‌کند)؟ به نظر می رسد که اثرات تصادفی مربوط به model@u باشد، اما چه رابطه ای وجود دارد؟ در یک یادداشت مرتبط، آیا کسی منبعی را می‌شناسد که به تفصیل توضیح دهد که هر یک از اجزای یک شی «glmerMod» در واقع چیست؟ من می توانم برخی از آنها را کشف کنم (به عنوان مثال model@beta)، اما بیشتر آنها یک راز باقی می مانند.
محاسبه افکت‌های تصادفی از یک شی glmerMod (r بسته lme4)
56629
عامل عادی سازی اشتباه است؟ (اشکال؟)
99468
من سعی می کنم از شبیه ساز GHK برای تخمین احتمالات $F(\mathbf{x} > k\mathbf{a})$ استفاده کنم که مقادیر یک بردار تصادفی همبسته با ابعاد بالا ($n>1000$) $\mathbf {x}$ از بردار آستانه $\mathbf{a}$ فراتر خواهد رفت که به صورت خطی با $k$ با $k \rightarrow مقیاس شده است. \infty$. رویکرد GHK به اندازه کافی ساده به نظر می رسد (به عنوان مثال در اینجا)، با این حال نتایج پیاده سازی MATLAB من بسیار ناامید کننده است. برای سناریوی من می دانم که برای مقادیر بزرگ $k$، $F$ نسبتاً کوچک خواهد بود (به عنوان مثال $<10^{-6}$). (من می‌توانم این را با استفاده از رویکرد brute force Monte-Carlo تأیید کنم.) با این حال، پس از تخمین‌های اولیه خوب برای k$ کوچک، احتمالات بازگشتی توسط شبیه‌ساز GHK شروع به نوسان در اطراف مقداری می‌کنند (مثلاً $ \sim 10^{-3} $) و در نهایت به صفر کاهش می یابد (با تبدیل CDF های محاسبه شده به یک). سوالات من این است: * آیا شبیه ساز GHK اساساً برای استفاده با داده های با ابعاد بالا نامناسب است یا راه حلی وجود دارد که از مشکلات عددی جلوگیری کند؟ * چند بردار نمونه باید تولید کنم؟ در حال حاضر من از 1000 نمونه برای هر مقدار k$ استفاده می کنم. استفاده از عدد بزرگتر نتایج را اندکی بهبود می بخشد، با این حال، از نظر زمان محاسبات، مزیت رویکرد GHK در مقایسه با رویکرد brute-force MC نفی می شود. * آیا رویکرد مناسب تری برای این نوع مشکلات وجود دارد؟
احتمالات دم و شبیه ساز GHK
43102
25694
آیا کسی می داند که چگونه می توان اهمیت شیب را از مدل خطی برازش شده با استفاده از حداقل مربعات تعمیم یافته (GLS) تعیین کرد؟ من یک مدل خطی را به سری های زمانی دما با هدف ارزیابی روندها با استفاده از تابع gls در بسته nlme برازش می کنم، اما نمی توانم مقدار p-value (s) برای شیب در خروجی های مدل را بفهمم. من GLS را به دلیل همبستگی سریال انتخاب کردم.
102948
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NNEU4.png) قسمت دومی است که من با آن مشکل دارم. من Y را از x به x+u و X را از 0 تا 1 امتحان کردم: کار نکرد! بنابراین محدودیت های صحیح در این مورد (که پاسخ لازم را به شما می دهد) چیست؟
تابع توزیع تجمعی را پیدا کنید
46550
46553
74798
چگونه می توان ماتریس کوواریانس مجانبی را زمانی که ماتریس اطلاعات مشاهده شده تکی است به دست آورد
74793
واحدهای تبدیل Box-Cox و مقیاس بندی
81133
من تعدادی سری دارم که با هم ترکیب شده اند، بنابراین می دانم که باید با یک مدل VECM مناسب باشم. با این وجود، هیچ راهنمایی برای یافتن طول تاخیر بهینه، مثلا lagLength، پیدا نکردم. من از بسته vars R استفاده می کنم. برای بررسی هم انباشتگی از ca.jo(..,K=cointegrationLength) استفاده کردم سپس از cajorls برای تناسب با cajoorls های VECM (...,K=lagLength) استفاده کردم. من متوجه نشدم: 1\. تعامل صحیح بین K در هر دو تابع. 2\. معیار بهینه برای انتخاب طول تاخیر
طول تاخیر بهینه در VECM با استفاده از بسته vars R
4043
من چند سری زمانی دارم که (به دلایل فنی) با فواصل زمانی کمی متفاوت، بین 19 تا 21 ثانیه به دست آمدند. اکنون، من می‌خواهم مقادیر این سری‌های زمانی مختلف را در طول زمان میانگین بگیرم، بنابراین فکر کردم که می‌توانم نوعی درونیابی مقادیر را در یک بازه زمانی منظم انجام دهم (مثلاً هر 20 ثانیه). آیا کسی می تواند یک راه خوب برای انجام این کار را نشان دهد؟ ممنون نیکو
میانگین‌گیری سری‌های زمانی با فاصله نمونه‌گیری متفاوت
100096
![http://i.stack.imgur.com/hWSze.png](http://i.stack.imgur.com/hWSze.png) من از SAS استفاده می کنم و به مشکلی برخوردم. من یک مجموعه داده با چند متغیر/ستون دارم که یکی از آنها فقط مقادیر زیر را دارد: «آبی»، «قرمز» و «خاکستری». چگونه می توانم این مقادیر را به متغیرهای مربوطه تبدیل کنم و «تعداد» را همانطور که در جدول دوم نشان داده شده است به عنوان مقادیر اختصاص دهم؟
SAS: چگونه می توان متغیرهایی را از مقادیر داده شده در یک ستون خاص از یک جدول ایجاد کرد؟
65977
در الگوریتم انتشار پس‌انداز وقتی تابع فعال‌سازی خروجی «tanh» و تعداد کلاس‌ها 2 است (مسئله باینری)، مقدار به‌دست‌آمده در لایه خروجی در محدوده بین 1- تا 1 است. تابع خطای آنتروپی متقاطع « log` که روی مقادیر پیش بینی شده اعمال می شود. بنابراین، اگر یکی از مقادیر خروجی یک عدد منفی باشد، یک عملیات نامعتبر، یعنی log (عدد غیر مثبت) رخ می دهد که تابع آنتروپی متقاطع را نامعتبر می کند. این به سؤالات زیر خلاصه می شود: * آیا تنظیم فعال سازی خروجی به عنوان 'tanh' مجاز نیست؟ * آیا فعال سازی خروجی همیشه باید softmax باشد حتی برای یک مشکل کلاس باینری؟
27275
من در حال خواندن یادداشت‌های اندرو نگ در مورد یادگیری ماشین هستم، و در صفحه 12 این سند، او قدمی در اثبات خود برمی‌دارد که می‌خواهم رمزگشایی کنم: اجازه دهید $\textbf{x} = \left( 1 , x_1 , x_2 , \cdots , x_n \right)^T$، بردار متغیرها و $\theta = \left( \theta_0 , \theta_1، \theta_2، \cdots، \theta_n \right)^T$، بردار ضرایب خطی آن متغیرها. بیایید $y$ را به صورت $$y = \theta ^T \textbf{x} + \epsilon$$ تعریف کنیم که در آن $\epsilon \sim \mathcal{N}(0,\sigma^2)$، یعنی $$p (\epsilon) = \frac{1}{\sqrt{2 \pi}}\exp \left( -\frac{\epsilon^2}{2\sigma^2}\right).$$ خط بعدی موارد زیر را در مورد احتمال شرطی $y$ با توجه به $\textbf{x}$ و ضرایب $\theta$ می‌گوید. به عنوان قطعی تلقی می شوند: $$p(y|x;\theta) = \frac{1}{\sqrt{2 \pi}}\exp\left( -\frac{(y- \theta ^T \textbf{x})^2}{ 2\sigma^2}\right)$$ آیا کسی می تواند به من کمک کند ببینم چگونه این توزیع شرطی را دریافت می کنیم؟
81138
من داده های تابلویی دارم که شامل ایالت های آمریکا (1-48) و سال های (1900-1917) می شود. همه متغیرها با یک استثنا با زمان متغیر هستند. این استثنا زمان ثابت است و یک متغیر دسته‌بندی سه سطحی است که تعیین‌های منطقه‌ای را برای ایالات آزمایش شده با استفاده از دو متغیر ساختگی اندازه‌گیری می‌کند. من همچنین می خواهم به تعامل بین یکی از ساختگی ها و چندین متغیر با زمان متغیر نگاه کنم. برآورد OLS از این مدل نشان دهنده ناهمسانی است. بنابراین با توجه به سازماندهی داده ها، سوال من این است که کدام یک از تکنیک های پانل بهترین است و چرا؟ من از Stata استفاده می کنم. با تشکر، RB
بهترین تکنیک برای رگرسیون پانل (اولها، ثابت، بین، اثرات تصادفی) چیست؟
25524
قبل از انجام کار متن کاوی، باید ویژگی های مشخص کردن هر سند داده شده را انتخاب کنیم. آیا راهنمایی سیستماتیک برای انتخاب ویژگی های سند وجود دارد؟ طول سند چگونه بر روند انتخاب ویژگی برای اسناد تأثیر می گذارد؟
69249
اگر این یک سؤال برای CrossValidated خیلی ابتدایی است و باید به جای دیگری مراجعه کنید، لطفاً به من اطلاع دهید. به من یک مدل خطی در R داده شده است شبیه به: model = lm (y ~ x1 + x2 + x3، داده = مجموعه نمونه) ... که وقتی مجموعه ای از داده ها را تغذیه می کند و رسم می کند نمودار زیر را ایجاد می کند: ![پیش بینی شده در مقابل مشاهده شده](http://i.stack.imgur.com/1Oya8.png) خط مرکزی آبی روشن نشان دهنده پیش بینی رگرسیون خطی است. ناحیه آبی نشان‌دهنده 2 انحراف استاندارد از مورد انتظار در هر جهت، با استفاده از خطای استاندارد باقیمانده‌ها است: # se_: تعداد خطاهای استاندارد دور از مقدار پیش‌بینی‌شده se_thresh = 2 # خطای استاندارد باقیمانده‌ها res_se = sd(model$residuals) # برای هر عضو در نمونه if(model$fitted.values[j] < (i - se_thresh*res_se)){ مجموعه داده$mark_good[j] = TRUE } به من گفته شده است که می‌توانیم استنباط کنیم که کدام اعضای نمونه به طور غیرعادی «خوب» یا «بد» هستند، بر اساس اینکه آیا امتیازات واقعی 2 SE بالاتر یا کمتر از مقدار پیش‌بینی‌شده است. من تعجب می کنم: * چرا مقایسه اعضا بر اساس SE باقیمانده ها بهتر/ معتبرتر از مقایسه ساده n با انحراف استاندارد است که ساده تر است و نیازی به مدل ندارد؟ * چه خطای استاندارد باقیمانده ها به طور شهودی در مدل نشان می دهد
شناسایی نقاط پرت بر اساس خطای استاندارد باقیمانده ها در مقابل انحراف استاندارد نمونه
100093
ما سعی می کنیم حداقل مربعات غیرخطی را در R برازش کنیم. ما کد مرجع در MATLAB به صورت زیر داریم. A = [ -4.09549023 -1.5924967 -5.2775267 0.7195365 -1.4681932; -0.09302291 0.2538085 0.6080219 0.1413484 -0.4614447; 1.00000000 1.0000000 1.0000000 1.0000000 1.0000000؛] b = [-0.52701539; 0.08974224; 1.000000000; 1.000000000] (w,on b) 0.1377 0.6700 0.1922 res = 1.2519e-32 اگر همین مورد را در R امتحان کنیم، نتایج کاملاً متفاوت است. یک <- rbind(cbind(4.09549023، -1.5924967، -5.2775267، 0.7195365، -1.4681932)، cbind(-0.09302291، 0.253808084، 0.22538085، 0.2538085، 0.194، 0. -0.4614447)، cbind(1.00000000، 1.0000000، 1.0000000، 1.0000000، 1.0000000)) b <- rbind(-0.52701539، 0.0000000000، 0.0000000-0. lsqnonneg(A,as.vector(b)) $x [1] 0.2212015 0.1986838 0.1890215 0.2080815 0.1830117 $resnorm [1] 4.889664e-21] [10.1، 10.7] [10.10، 1.7] [2,] 4.866847e-10 [3,] -3.743827e-11 مشکل اینجاست، اگرچه مقادیر ورودی «A» و «b» یکسان هستند، و روش‌هایی که هم در R و هم در MATLAB فراخوانی می‌شوند، هدف یکسانی دارند. (یعنی برازش حداقل مربعات غیر منفی) باقیمانده ها در هر دو مورد متفاوت هستند. «resnorm» = 4.889664e-10 در R و «res» = 1.2519e-32 در MATLAB. اگر کسی بتواند به اشتباه آشکاری در نتایج اشاره کند یا روش جایگزینی را در R برای مطابقت با متد در MATLAB پیشنهاد کند، واقعاً جای تشکر دارد.
lsqnonneg - تنوع بین نتایج در R و MATLAB
100091
ما 6 ترانسکت در 6 سایت مختلف داریم (6 ترانسکت در هر سایت). هر سایت به دو ناحیه تقسیم می‌شود، بنابراین در مدل ما داریم: Site (ضریب طبقه‌بندی ثابت) و منطقه (عامل طبقه‌بندی تصادفی تو در تو در سایت). در طول هر ترانسکت، ما وقوع بیماری‌ها (متغیر پاسخ پیوسته ما) و پوشش کف (متغیر کمکی پیوسته) را اندازه‌گیری کردیم. برای آزمایش رابطه بالقوه بین شیوع بیماری و پوشش اعماق دریا، ما از یک مدل افزایشی تعمیم یافته استفاده کردیم (توزیع غیر پارامتری متغیر پاسخ ما و هیچ فرضی پیشینی در مورد شکل رابطه). من مدل های زیادی را روی R امتحان کرده ام، اما صادقانه بگویم، کمی گم شده ام زیرا به نظرم می رسد که امکانات بی نهایت وجود دارد. ابتدا مدل زیر را اجرا کردم: model_1<-gam(رویداد ~ s(پوشش) + سایت + منطقه، داده = df) اما مطمئن نیستم که آیا باید از اسپلاین های هموارسازی روی فاکتورهای طبقه بندی نیز استفاده کنم (مانند مدل_2). من آن را در پست های دیگر دیده ام اما نمی دانم که آیا منطقی است؟ model_2<\- gam(Occurrence ~ s(Cover) + s(Site) + s(Zone)، data=df) نه model_1 و نه model_2 این واقعیت را در نظر نمی گیرند که Zone در داخل سایت قرار دارد و یک عامل تصادفی است. من این را امتحان کردم: model_3<\- gam(وقوع ~ s(پوشش) + s(سایت) + s(منطقه، bs=”re”)، data=df) model_4<-gam(رویداد ~ s(پوشش)+ Site + s(Site, Zone, bs=re),data=df) به من توصیه شد از مدل ترکیبی افزودنی تعمیم یافته استفاده کنم زیرا هر دو را داشتم عوامل ثابت و تصادفی در طراحی من، این کار را آسان‌تر نکرد. آیا توصیه ای دارید که چه مدلی مناسب تر است و چگونه Zone را به طور تصادفی و تو در تو در سایت قرار دهید؟ البته من می دانم که پارامترهای زیادی وجود دارد که باید در نظر بگیریم (توزیع خانواده، عملکرد پیوند، گره ها و غیره) اما در حال حاضر می خواهم این سوال را محدود کنم. این مسائل احتمالاً برای بسیاری از افراد تازه وارد GAM گیج کننده است و امیدواریم که کمک شما برای بسیاری از کاربران مفید باشد.
از جمله جلوه تصادفی تو در تو در یک GAM
25529
توزیع های روی ربع k بعد مثبت با ماتریس کوواریانس قابل پارامتریزاسیون چیست؟
35496
ما آزمایشی برای برانگیختن یک سیستم با مقداری انرژی داریم، سپس فروپاشی را به عنوان تابعی از زمان اندازه گیری می کنیم. ما داده‌ها را 4 برابر $t$ اندازه‌گیری می‌کنیم تا با یک مدل نمایی متناسب شوند: $y = a \exp(-t/p) + c$، که در آن پارامترهای $a، p$، و $c$ را برازش می‌کنیم. احتمالاً باید اشاره کنم که یک تحریک و 4 اندازه گیری وجود ندارد، بلکه ما 4 بار تحریک می کنیم و زمان خود را از برانگیختگی به اندازه گیری تنظیم می کنیم - بنابراین هر اندازه گیری به طور مستقل انجام می شود. ما نسبت به دستگاه اندازه گیری سیگنال به نویز بسیار خوبی داریم، با این حال شی مورد نظر ممکن است در طول آزمایش حرکت کند یا نکند که منجر به خطای غیرقابل پیش بینی در یک یا چند نقطه داده می شود. پارامتر $p$ مهمترین است و ما یک محدوده فیزیکی پیشینی برای این پارامتر می دانیم. ما باید این اندازه گیری را در یک زمان ثابت انجام دهیم و حداکثر 8 اندازه گیری را زمان داریم. در حال حاضر، ما دو بار در هر یک از 4 نقطه زمانی، داده ها را جمع آوری می کنیم، بنابراین اساساً دو آزمایش مجزا داریم. من خیلی سوال دارم، در واقع :)، اما یکی از آنها برایم جالب است این است که آیا بهتر است دو اندازه گیری در 4 نقطه زمانی جمع آوری شود یا اینکه بهتر است 8 اندازه گیری در نقاط زمانی مختلف جمع آوری شود (ظاهراً برای توصیف بهتر پوسیدگی). منحنی). ما آزمایش را در حداکثر 16 نقطه زمانی انجام دادیم و مطابقت خوبی با آزمایش 4 نقطه زمانی پیدا کردیم. سوالات دیگری که من دارم مربوط به نحوه تشخیص اندازه گیری های بد در مجموعه داده های نقطه زمانی 2X 4 است. هر ایده ای بسیار قدردانی می شود! من در آمار خیلی خوب یاد نگرفته ام، بنابراین اگر پیشنهاداتی در زمینه مطالعه پیشینه یا مطالب مرتبط با این مشکل دارید، عالی خواهد بود! ممنون!!
برازش داده ها با اندازه گیری های مکرر
195
من به دنبال تطبیق توزیع‌ها با داده‌ها (با تمرکز ویژه بر روی دم) هستم و به جای کولموگروف- اسمیرنوف به آزمون‌های اندرسون-دارلینگ متمایل هستم. به نظر شما مزیت های نسبی این یا سایر آزمون ها برای تناسب (مثلاً کرامر-فون میزس) چیست؟
74240
افزایش گرادیان در R تنها از یک متغیر استفاده می کند
47181
احتمالاً یک سؤال نوب است زیرا من نوب هستم. من دو سکه A و B دارم. برای هر سکه یک نمونه از نتایجی که با پرتاب کردن آن به دست می‌آورم دارم. فرضیه صفر من این است که A احتمال فرود روی HEAD برابر یا بیشتر از B دارد، اما این احتمال ناشناخته است (و همچنین احتمال B). با این حال، داده‌ها به من نشان می‌دهند که به نظر می‌رسد احتمال فرود B روی HEAD بیشتر است. چگونه می توانم فرضیه صفر را آزمایش کنم؟ به نظر من یک آزمون t ساده کار نخواهد کرد - پرتاب سکه برنولی توزیع می شود، و به طور معمول توزیع نمی شود. من به این فکر کردم که هر نمونه را به نمونه های فرعی تقسیم کنم، نسبت HEAD ها را در هر نمونه فرعی به عنوان یک متغیر تصادفی که تقریباً مانند یک متغیر معمولی توزیع می شود، در نظر بگیرم و سپس از آزمون t استفاده کنم. با این حال، به نظر می رسد این یک راه حل پیچیده (و نادرست) برای یک سوال اساسی (اصلی ترین؟) باشد. امتیاز جایزه: اندازه اثر چقدر است؟
چگونه تست کنیم که آیا دو سکه بایاس های متفاوتی دارند؟
43747
با استفاده از روش موجود در این پست، من طرحی برای تجسم تعامل بین دو متغیر پیش بینی با استفاده از بسته افکت در r ایجاد کرده ام، اما من واقعاً مطمئن نیستم که به چه چیزی نگاه می کنم. ارتفاع جزر و مد و میانگین باران پیوسته است. 8 سطل حداکثر مقداری بود که تابع به من اجازه استفاده از آن را می داد. زیر فراخوانی برای «اثر» است که این طرح را تولید می کند: R > plot(effect(term=rain.avg2:tide.avg,mod=bkrain9.lm,default.levels=8)، main=، xlab =بارش - میانگین 24 ساعت (سانتی متر), ylab=expression(غلظت TCB - CFU*100m*L^-1)، multiline=TRUE) **نقشه به روز شد.** آیا کسی می تواند هدف این ویژگی ترسیم را در زمینه تعاملات پیش بینی کننده توضیح دهد؟ ![P](http://i.stack.imgur.com/neZql.jpg) زمینه: برای یک پروژه کلاسی، من یک مدل رگرسیون خطی برای ارزیابی اثرات برهمکنش بین دو متغیر پیش بینی (ارتفاع جزر و مد و رسوب) بر غلظت باکتری ها. غلظت باکتری های کلیفرم مقاوم به گرما در 5 مکان در روز نمونه برداری شد، جایی که یک زمان نمونه در پایان نمونه برداری ثبت شد. من میانگینی از اینها را برای تقریباً 20 روز گرفتم و میانگین بارش 24 ساعته مرتبط را قبل از اتمام نمونه‌برداری و میانگین ارتفاع جزر و مد 50 دقیقه (مدت زمان نمونه‌برداری) را قبل از اتمام نمونه‌برداری محاسبه کردم.
چگونه می توانم نتایج حاصل از یک نمودار تعامل پایه را از بسته اثرات R تفسیر کنم؟
35493
من با استفاده از آزمون مجذور کای (تست نرخ نسبی تاجیما) 100 مقایسه انجام دادم و 100 مقدار p بدست آوردم. آیا به تنظیم P-value نیاز دارم؟ اگر بله، کدام یک از اصلاحات مناسب خواهد بود؟ من اینترنت و همچنین در این انجمن را بررسی کردم اما پاسخ این سوال خاص را نگرفتم.
آیا برای 100 مقایسه زوجی به تنظیم مقدار P نیاز دارم؟
46712
آیا بسته یا شبیه‌سازی برای شبیه‌سازی زنجیره مارکوف زمان گسسته وجود دارد؟ راه حل های Matlab/ Python
آیا بسته / شبیه‌سازی برای شبیه‌سازی زنجیره مارکوف زمان گسسته وجود دارد؟
57577
Correlogram در R مانند Stata؟
46719
زمانی که یک مدل خطی _a priori_ دارید که می خواهید تخمین بزنید، انتساب چندگانه نسبتاً ساده است. با این حال، زمانی که واقعاً می‌خواهید انتخاب مدلی انجام دهید، همه چیز کمی پیچیده‌تر به نظر می‌رسد (مثلاً مجموعه «بهترین» متغیرهای پیش‌بینی‌کننده را از مجموعه بزرگ‌تری از متغیرهای کاندید پیدا کنید - من به طور خاص به LASSO و چندجمله‌ای‌های کسری با استفاده از R فکر می‌کنم). یک ایده می‌تواند این باشد که مدل را در داده‌های اصلی با مقادیر گمشده قرار دهید، و سپس این مدل را در مجموعه داده‌های MI مجدداً برآورد کنید و برآوردها را همانطور که معمولاً انجام می‌دهید ترکیب کنید. با این حال، این مشکل به نظر می رسد زیرا شما انتظار جانبداری دارید (یا در غیر این صورت چرا MI در وهله اول؟)، که می تواند منجر به انتخاب یک مدل اشتباه از ابتدا شود. ایده دیگر این است که از هر فرآیند انتخاب مدلی که در هر مجموعه داده MI استفاده می کنید، استفاده کنید - اما اگر نتایج شامل مجموعه های متفاوتی از متغیرها باشد، چگونه می توانید نتایج را ترکیب کنید؟ یکی از فکرهای من این بود که مجموعه‌ای از مجموعه داده‌های MI را روی هم بگذارم و آنها را به‌عنوان یک مجموعه داده بزرگ تجزیه و تحلیل کنم که سپس از آن برای جا دادن یک مدل واحد و بهترین استفاده کنید، و یک اثر تصادفی برای توضیح این واقعیت که از اندازه‌گیری‌های مکرر برای آن استفاده می‌کنید، بگنجانید. هر مشاهده آیا این منطقی به نظر می رسد؟ یا شاید فوق العاده ساده لوحانه؟ هر گونه اشاره‌ای در مورد این موضوع (انتخاب مدل با انتساب چندگانه) بسیار قدردانی خواهد شد.
انتساب چندگانه و انتخاب مدل
46715
من 14 کلاس زیستگاه مختلف و دو حالت فعالیت دارم (بنابراین دو متغیر - زیستگاه و فعالیت). برای وضعیت فعالیت A، تعداد داده‌های من بیش از 300 است، اما با B، فقط حدود 30 (اندازه‌های نمونه نابرابر) دارم. من واقعاً می‌خواهم ببینم که آیا یک یا چند زیستگاه به طور قابل توجهی بیشتر از سایرین در طول هر حالت فعالیت استفاده می‌شود، اما سپس می‌خواهم تعداد زیستگاه‌ها را بین حالت‌های فعالیت مقایسه کنم تا ببینم از این نظر تفاوت قابل توجهی دارند یا خیر. من دو متغیر دیگر دارم، موقعیت مکانی و جنسیت، و همچنین می‌خواهم ببینم که آیا تعداد زیستگاه بین این دو متغیر است یا خیر. بدیهی است که ترکیب برخی از متغیرها نیز خوب خواهد بود، به عنوان مثال، اگر این امر منطقی باشد، آیا تعداد زیستگاه ها بین جنسیت بین سایت ها متفاوت است. من در حال حاضر از JMP8 استفاده می کنم زیرا تجربه بسیار محدودی با R دارم. من از مجذور کای و تجزیه و تحلیل احتمالی استفاده می کنم (اگرچه تعدادی از سلول های من تعداد بسیار کمی دارند، کمتر از 5، که مجذور خی با آنها مبارزه می کند). بهترین راه برای نزدیک شدن به این موضوع از نظر آماری چه خواهد بود؟ چگونه باید داده ها را قالب بندی کنم (در حال حاضر به جای شمارش، به صورت متنی است، زیرا طبقات زیادی در متغیر زیستگاه وجود دارد که مدیریت آن در غیر این صورت دشوار به نظر می رسد)؟ هر گونه کمکی بسیار قدردانی خواهد شد!!
نحوه تجزیه و تحلیل متغیرهای طبقه بندی شده با سطوح چندگانه
57576
من یک شرکت دارم که ضرر لگاریتمی (بازده لگاریتمی) را برای آن محاسبه کردم. اکنون می‌خواهم معادله‌ای متوسط ​​را با بازده‌ها برازش کنم، بنابراین باید به برازش ARMA(p,q) فکر کنم. من به acf و pacf نگاه کردم و عکس زیر را دریافت کردم: ![arma](http://i.stack.imgur.com/nvXop.png) به نظر می رسد این یک AR یا MA ساده نیست؟ این چیه چی استفاده کنم داده ها را می توان در اینجا یافت. خوب است اگر برای من توضیح دهید که چه کاری انجام می دهید تا بدانم چه فرآیندی مناسب است.
70543
مرز تصمیم گیری خطی SVM پس از تبدیل خطی داده ها
57578
گزارش معادلات رگرسیون برای نتایج غیر معنی دار
90422
از اصول پواسون، ما می دانیم که پواسون برای رویدادهای نادر کار می کند. با این حال، ما همچنین می دانیم که دوجمله ای تقریبی از پواسون است زمانی که احتمال یک رویداد کوچک است. بنابراین آیا می‌توانیم دو جمله‌ای و پواسون را به جای یکدیگر برای رویداد نادر استفاده کنیم؟ استفاده از یکی به جای دیگری چه فایده ای دارد؟
Poisson vs Binomial برای رویدادهای نادر
70545
من هرگز این فرصت را نداشتم که از یک دوره آمار از دانشکده ریاضی بازدید کنم. دنبال یک کتاب تئوری احتمال و آمار هستم که کامل و خودکفا باشد. منظور من از کامل این است که شامل همه شواهد است و نه فقط نتایج را بیان می کند. منظورم از خودکفایی این است که برای درک کتاب لازم نیست کتاب دیگری بخوانم. البته می تواند به حساب دیفرانسیل و انتگرال (دانشجوی ریاضی) و جبر خطی نیاز داشته باشد. من چندین کتاب را نگاه کردم و هیچ کدام را دوست نداشتم. * DeGroot & Schervish (2011) _احتمال و آمار (ویرایش چهارم)_ Pearson این به اندازه کافی کامل نیست. فقط مطالب زیادی را بدون اشتقاق بیان می کند. علاوه بر این من آن را دوست دارم. * واسرمن (2004) _ همه آمار: دوره مختصری در استنتاج آماری_ اسپرینگر. اصلا دوست نداشت تقریبا بدون توضیح سنجش ​​شانس از دیوید ویلیامز رسمی تر از دی گروت است و به نظر کامل و خودکفا است. با این حال، به نظر من این سبک عجیب است. او همچنین اصطلاحات جدیدی را ابداع می کند که به نظر می رسد فقط خودش از آنها استفاده می کند. تمام مواردی که در DeGroot توضیح داده شده است در آنجا بهتر توضیح داده شده است. اگر شما یک کتاب عالی به زبان آلمانی می شناسید، خوب است زیرا من آلمانی هستم.
80469
90425
مشاهدات سانسور شده راست را در نظر بگیرید، با رویدادهایی در زمان‌های $t_1، t_2، \dots$. تعداد افراد مستعد در زمان $i$ $n_i$ و تعداد رویدادها در زمان $i$ $d_i$ است. زمانی که تابع بقا یک تابع گامی باشد، کاپلان مایر یا تخمین‌گر محصول به‌طور طبیعی به‌عنوان یک MLE به وجود می‌آید. پس احتمال آن $$ L(\alpha) = \prod_i (1-\alpha_i)^{d_i} \alpha_i^{n_i-d_i} $$ است و MLE $\widehat\alpha_i = 1 - {d_i\over است n_i}$. خوب، حالا فرض کنید می‌خواهم بیزی بروم. من به نوعی طبیعی نیاز دارم که با آن $L(\alpha)$ را ضرب کنم، درست است؟ با جستجوی کلمات کلیدی واضح متوجه شدم که فرآیند دیریکله یک مقدمه خوب است. اما تا آنجایی که من متوجه شدم، روی نقاط ناپیوستگی $t_i$ نیز مقدم است؟ این مطمئناً بسیار جالب است و من مشتاق هستم در مورد آن بیاموزم، با این حال من به چیز ساده تری رضایت می دهم. من شروع به شک کردم که آنطور که ابتدا فکر می کردم آسان نیست، و وقت آن است که از شما راهنمایی بخواهم ... پیشاپیش بسیار متشکرم! **PS: کمی دقت در مورد آنچه من امیدوارم ** من علاقه مند به توضیحات (تا حد امکان ساده) در مورد نحوه رسیدگی به فرآیند دیریکله قبل هستم، با این حال فکر می کنم می توان به سادگی از یک پیشین در $ استفاده کرد. \alpha_i$ - که در توابع مرحله قبل با ناپیوستگی در $t_i$ است. من فکر می‌کنم که شکل جهانی توابع مرحله‌ای که در قبلی نمونه‌برداری شده‌اند نباید به $t_i$ بستگی داشته باشد -- باید یک خانواده زیربنایی از توابع پیوسته وجود داشته باشد که توسط این توابع مرحله تقریبی می‌شوند. من نمی دانم که آیا $\alpha_i$ باید مستقل باشد یا نه (من شک دارم). اگر آنها هستند، من فکر می کنم این نشان می دهد که $\alpha_i$ قبلی به $\Delta t_i = t_i - t_{i-1}$ بستگی دارد، و اگر توزیع آن را با $A(\Delta t)$ نشان دهیم، محصول از یک متغیر $A(\Delta_1)$ توسط یک متغیر مستقل $A(\Delta_2)$ یک $A(\Delta_1+\Delta_2)$ است متغیر در اینجا به نظر می رسد که متغیرهای log-$\Gamma$ می توانند مفید باشند. اما در اینجا اساساً من گیر کرده ام. من در ابتدا این را تایپ نکردم زیرا نمی خواستم همه پاسخ ها را به این سمت هدایت کنم. من به ویژه از پاسخ هایی با منابع کتابشناختی برای کمک به من در توجیه انتخاب نهایی ام قدردانی می کنم.
تجزیه و تحلیل بقای بیزی: لطفاً برای کاپلان مایر پیش از من بنویسید!
17435
من برخی از اندازه‌گیری‌های یک آنالیت بیولوژیکی را دارم که توزیع لگ نرمال را نشان می‌دهد. هم یک تغییر سطح و هم مقداری انحراف درازمدت در مقادیر وجود داشت که به اعتقاد من به جای زیست شناسی به دلیل فرآیند اندازه گیری است. من می خواهم از مقادیر اخیر به عنوان توزیع مرجع استفاده کنم و ظرف چند ماه یا سه ماهه تبدیل کنم تا میانگین (log (Y)) و sd (log (Y)) مطابقت داشته باشند. آزمایش باعث می‌شود فکر کنم می‌توانم تغییر شکل را با استفاده از: exp( sd(log(X_ref))/sd(log(Y) *(log(Y) -mean(log(X_ref))) -> Y_transformed آیا می‌توان از آن پشتیبانی کرد نظریه در مقابل آزمایش؟
LN را برای مطابقت با میانگین مرجع و SD تغییر دهید
105593
وزن نمونه، رگرسیون لجستیک و تحلیل کای اسکوئر
90424
من به دنبال انجام یک رگرسیون خطی برای یک تابع ارزیابی در یک بازی تخته هستم. ویژگی های من همه (امضا شده) باینری هستند 1 0 0 1 -1 1 0 0 0. اکثراً صفر هستند. حدود 200 تا یک مشاهده. من 10 میلیون مشاهده با مقادیر هدف [-1000، 1000] دارم. من تعجب می کنم که چگونه این باید بر انتخاب مدل رگرسیون من تأثیر بگذارد. من با حداقل مربعات امتحان کردم و نتایج بسیار بد و ناپایدار داد. آیا می توانید چند مدل رگرسیون خوب، خطی و قوی را به من توصیه کنید، که شاید از قالب ساده ورودی های من استفاده کند؟
بهترین رگرسیون با ویژگی های باینری
17436
آیا کتابخانه یا کدی منبع باز وجود دارد که رگرسیون لجستیک را با استفاده از حل کننده L-BFGS پیاده سازی کند؟ من پایتون را ترجیح می دهم، اما زبان های دیگر نیز خوش آمدید.
رگرسیون لجستیک با حل کننده LBFGS
11498
من یک مدل خطی را برازش می کنم که در آن پاسخ هم تابع زمان و هم از متغیرهای کمکی استاتیک است (یعنی آنهایی که مستقل از زمان هستند). هدف نهایی شناسایی اثرات مهم متغیرهای کمکی استاتیک است. آیا این بهترین استراتژی کلی برای انتخاب متغیرها (در R، با استفاده از بسته nlme) است؟ کاری که بتوانم بهتر انجام دهم؟ 1. داده ها را بر اساس گروه ها تقسیم کنید و آن را بر اساس زمان ترسیم کنید. برای متغیرهای کمکی پیوسته، آن را بن کنید و داده ها را در هر بن در برابر زمان رسم کنید. از گرایش‌های خاص گروه برای حدس اولیه در مورد شرایط زمانی استفاده کنید - زمان، زمان^n، sin(2*pi*time)+cos(2*pi*time)، log(time)، exp( زمان) و غیره. 2. هر بار یک عبارت اضافه کنید، هر مدل را با مدل قبلی خود مقایسه کنید، در غیاب عبارت های مرتبه پایین تر، هرگز مرتبه بالاتر اضافه نکنید. Sin و cos هرگز جداگانه اضافه نمی شوند. **_آیا در صورت عدم وجود تفسیر فیزیکی از اصطلاحی که به طور قابل توجهی تناسب مدل را بهبود می بخشد قابل قبول است؟_**. 3. با مجموعه داده کامل، از انتخاب رو به جلو برای اضافه کردن متغیرهای ثابت به مدل و سپس اصطلاحات تعامل مرتبط با یکدیگر و با شرایط زمانی استفاده کنید. **_من انتقاد شدیدی از رگرسیون گام به گام دیده‌ام، اما آیا اگر شرایط مرتبه پایین‌تری که به آن‌ها وابسته هستند معنی‌دار نباشند، انتخاب پیشرو، شرایط مرتبه بالاتر قابل توجهی را نادیده نمی‌گیرد؟ و من متوجه شده ام که انتخاب یک مدل شروع برای حذف به عقب که اشباع نشده باشد، یا منفرد نباشد، یا نتواند همگرا باشد، دشوار است. چگونه بین الگوریتم های انتخاب متغیر تصمیم می گیرید؟_** 4. افکت های تصادفی را به مدل اضافه کنید. **_آیا این کار به سادگی انجام انتخاب متغیر با استفاده از `lm()` و سپس قرار دادن فرمول نهایی در `lme()` و مشخص کردن افکت های تصادفی است؟ یا باید از همان ابتدا افکت های تصادفی را اضافه کنم؟_**. برازش مدل‌ها را با استفاده از یک برش تصادفی، یک برهمکنش تصادفی با مدت زمان خطی، و تعامل تصادفی با هر ترم زمانی متوالی مقایسه کنید. 5. یک نیمه متغیروگرام ترسیم کنید تا ببینید آیا عبارت خطای خودرگرسیون مورد نیاز است یا خیر. **_اگر پاسخ نه باشد نیم‌واریوگرام باید چگونه باشد؟ یک خط افقی؟ چقدر راست، چقدر افقی؟ آیا گنجاندن خودرگرسیون در مدل مجدداً نیازمند بررسی متغیرها و تعاملات بالقوه است تا مطمئن شوید که هنوز مرتبط هستند؟ شرایط اگر اینطور است، واریانس ها را به طور مناسب وزن کنید (برای «lme()»، از آرگومان «weights» برای مشخص کردن «varFunc()» استفاده کنید و با مدل بدون وزن مقایسه کنید تا ببینید آیا این تناسب را بهبود می بخشد یا خیر. **_آیا این ترتیب درستی برای انجام این مرحله است یا باید قبل از همبستگی خودکار انجام شود؟_**. 7. «خلاصه()» مدل برازش شده را برای شناسایی ضرایب مهم برای متغیرهای کمکی عددی انجام دهید. Anova() مدل برازش را برای شناسایی اثرات قابل توجه برای متغیرهای کمکی کیفی انجام دهید.
انتخاب متغیر برای متغیر زمانی
91725
من یک ANOVA اندازه گیری های مکرر انجام دادم و یک متغیر کمکی پیوسته اضافه کردم. اکنون یک اثر اصلی مهم از آن متغیر کمکی پیوسته وجود دارد. اگر من آن اثر اصلی را گزارش کنم، باید چیزی در مورد جهت آن بگویم... اما چگونه می توانم جهت آن را تفسیر کنم؟ آمار F در اینجا خیلی مفید نیست و من نمی‌خواهم یک تقسیم میانه انجام دهم. آیا SPSS می تواند آمار B، بتا یا t را برای متغیر کمکی گزارش کند؟
41829
من می‌دانم که یک آمار تک‌نمونه‌ای $t$ را می‌توان با $$t = \frac{x - \mu}{s / \sqrt{n}}$$ محاسبه کرد همچنین می‌دانم که 4 تابع زیر $x\ sim\mathcal{U}(0,1)$, $x\sim\mathcal{Exp}(2)$ (تابع نمایی که $\lambda=2$)، $P(x=1/2) = 1$، و مجموعه $\\{P(x=025)=0.8، P(x=1.5)=0.2\\}$، همه دارای $\mathbb{E}(x)=0.5$ هستند. من برنامه ای برای شبیه سازی $t$-statistic برای همه آنها نوشته ام، و مقادیر $0، 0.25، 0.5،\ldots، 1.5$ را با مقادیر 0.25 افزایشی در $t$-statistics برای $ داشته باشم. n=10000 دلار من به دنبال راهی برای اثبات نظری 2 معادله زیر $P(x=1/2) = 1$ و مجموعه $\\{P(x=025)=0.8، P(x=1.5)= هستم. 0.2\\}$. مقادیر شبیه سازی برای همه 1های اول از 0.5 تا 1.5 (همانطور که در اینجا بصری است) و من می خواهم آن را به صورت تئوری بیان کنم. مقادیر دوم برای مجموعه عبارتند از 0,0,0,0.8045,0.8045$,\ldots 0.8045$. من سعی می‌کنم اثبات و معادلاتی را که نحوه بدست آوردن این مقادیر را بیان می‌کنند (شبیه‌سازی نشده بلکه محاسبه شده) را به صورت نظری استدلال کرده و به صورت ریاضی بیان کنم. برای مثال، من سعی می‌کنم مقدار تابع set را محاسبه کنم و دلیل آن را بیان کنم که چرا مقدار شبیه‌سازی شده کمی بالاتر از 0.8 در 0.8045 است در حالی که مقدار محاسبه شده باید مستقیماً 0.8 از 0.5 تا 1.5 باشد. احساس می‌کنم چیزی را از دست می‌دهم که برای چشم‌های دیگری آشکار است، اما حتی بعد از صدمین باری که بارها و بارها به آن نگاه می‌کنم، گم شده‌ام. **ویرایش:** چیزی که من در اینجا عمدتاً متوجه نمی شوم، مورد تنظیم شده است. من سعی می‌کنم بیان کنم که چرا مقدار شبیه‌سازی‌شده 0.8045 است (درست بالاتر از 0.800) در حالی که $P(x=0.25)=0.8$ است که فکر می‌کنم مقدار سیم کارت 0.800 را می‌دهد اما اینطور نیست. من ویرایش کردم تا واضح تر شود، اما چند بار دیگر آن را دوباره می خوانم تا ببینم آیا می توانم باز هم واضح ترش کنم.
93495
من سعی می کنم نظریه استنتاج بیزی رابین با داده های از دست رفته را درک کنم، به ویژه اینکه چگونه مکانیسم داده های از دست رفته بر استنتاج یک پارامتر ابرجمعیت تأثیر می گذارد. این نظریه به عنوان مثال در فصل 7 [1] آشکار شده است. بردار داده کامل $N$-dimensional $y$ به اجزای مشاهده شده و مشاهده نشده تقسیم می شود: $y = (y_{\mathrm{obs}}، y_{\mathrm{nob}})$ و $I$ است $N$-بردار شاخص‌هایی که اجزای آن $I_{i}$ برابر با 0 در صورت مشاهده نشدن $y_{i}$ و 1 در هنگام مشاهده است. بنابراین فضای نمونه حاصل ضرب فضای $y$ و فضای $I$ است. برای سادگی، یک مکانیسم داده گمشده $p(I ~|~ y_{\mathrm{obs}})$ را در نظر می‌گیرم که به یک متغیر کمکی کاملاً مشاهده شده $x$ یا یک پارامتر ناشناخته $\phi$ بستگی ندارد. نتیجه کلیدی در Rubin این است که وقتی $p(I ~|~ y) = p(I ~|~ y_{\mathrm{obs}})$، مکانیسم داده از دست رفته نادیده گرفته می شود و تجزیه و تحلیل می تواند طبق معمول ادامه یابد. این را می توان در توسعه زیر مشاهده کرد: $$ \begin{align*} p(\theta ~|~ y_{\mathrm{obs}}, I) &~=~ \frac{p(\theta) \int p (y~|~\theta)\, p(I ~|~ y)~d y_{\mathrm{nob}}~}{\int\int p(y~|~\theta)\,p(\theta) ~d\theta p(I ~|~ y)~d y_{\mathrm{nob}}~} \\\ \end{تراز*} $ $ اگر $p(I ~|~ y) = p(I ~|~ y_{\mathrm{obs}})$، می توان آن را از انتگرال ها خارج کرد و به گونه ای لغو کرد که توزیع پسین $p(\theta ~|~ y_{\mathrm{obs}}، I) = p(\theta ~|~ y_{\mathrm{obs}})$. تا اینجای کار خیلی خوبه. اما چیزی که من نمی فهمم مشتق زیر است که با نتیجه قبلی در تضاد است: $$ \begin{align*} p(\theta ~|~ y_{\mathrm{obs}}, I) &~=~ \frac{ p(y_{\mathrm{obs}}، I، \theta)}{p(y_{\mathrm{obs}}، I)} \\\ &~=~ \frac{p(y_{\mathrm{obs}} ~|~ \theta) p(\theta) p(I ~|~ y_{\mathrm{obs}})}{\int p(y_{\mathrm{ obs}} ~|~\theta)p(\theta) ~d\theta~ p(I ~|~ y_{\mathrm{obs}})} \\\ &~=~ \frac{p(y_{\mathrm{obs}} ~|~ \theta)p(\theta)}{\int p(y_{\mathrm{obs}} ~|~\theta)p( \theta) ~d\theta} \\\ &~=~ p(\theta ~|~ y_{\mathrm{obs}}). \end{align*} $$ در اینجا مکانیسم نمونه‌برداری هر چه باشد لغو می‌شود. فرقی نمی کند $p(I ~|~ y) = p(I ~|~ y_{\mathrm{obs}})$. حتما دارم اشتباه می کنم ولی نمی تونم ببینم چیه [1] Gelman، A.، Carlin، J. B.، Stern، H. S.، و Rubin، D. B. (2004). تجزیه و تحلیل داده های بیزی (ویرایش دوم). بوکا راتون: چپمن و هال/CRC.
نادیده گرفتن در نظریه روبین در مورد مکانیسم های داده از دست رفته
105301
با توجه به اینکه متغیر نتیجه در یک دیتافریم یک متغیر فاکتوری/طبقه ای است، هنگام رگرسیون متغیر وابسته (DV) بر روی مجموعه ای از متغیرهای مستقل (IVs)، مدل چه چیزی را پیش بینی می کند؟ احتمال اینکه DV سطح اول عامل باشد؟ یا دومی؟ یک سوال مرتبط: من می دانم که با توجه به ستون عددی $1$s و $0$s، یک رگرسیون لجستیک احتمال متغیر مرتبه بالاتر (یعنی مقدار = $1$) را مدل می کند، بنابراین من سعی کرده ام فاکتور را مجدداً رمزگذاری کنم. متغیر شخصیت به یک عددی تبدیل می شود. من از یک پس‌زمینه SAS می‌آیم، بنابراین کاملاً به `if var = yes سپس var_num = 1 عادت دارم. else var_num=0;` این به وضوح اشتباه است. کارآمدترین روشی که برای رمزگذاری مجدد چنین متغیرهایی پیدا کرده اید چیست؟
113251
در طراحی من دو گروه موضوع دارم و هر موضوعی در چهار شرایط مختلف تست می شود. بنابراین، من یک ضریب درون موضوعی ('span_num'، که از 0 تا 3 متغیر است) و یک فاکتور بین موضوعی (گروه، که می تواند 'خطی' یا 'U-شکل' باشد) دارم. هدف من این است که نشان دهم شیب بین دهانه ها (از 0 تا 3) در گروه Linear بیشتر از گروه U شکل است. شیب‌ها بسیار متفاوت به نظر می‌رسند و وقتی مدل‌های رگرسیونی را مقایسه می‌کنم که وقتی فاکتور درونی من یک عامل درونی است نادیده می‌گیرم و آن را به‌عنوان یک فاکتور بین عاملی در نظر می‌گیرم، به‌طور قابل توجهی متفاوت هستند. من شیب ها را به این صورت مقایسه کردم (اما به مقایسه اعتماد ندارم زیرا به مقادیر SE شیب ها اعتماد ندارم زیرا با فاکتور درونی خود مانند یک فاکتور بین فاکتور رفتار می کنم): linear_lm <- lm(RT ~ span_num , dat = داده[data$group == خطی،]) ushape_lm <- lm(RT ~ span_num, dat = data[data$group == U-shape]) linear_intercept <- summary(linear_lm)$coefficients[[1]]; linear_ise <- summary(linear_lm)$coefficients[[3]]; linear_slope <- summary(linear_lm)$ضرایب[[2]]; linear_sse <- summary(linear_lm)$ضرایب[[4]] ushape_intercept <- summary(ushape_lm)$ضرایب[[1]]; ushape_ise <- summary(ushape_lm)$ضرایب[[3]]; ushape_slope <- summary(ushape_lm)$ضرایب[[2]]; ushape_sse <- summary(ushape_lm)$ضرایب[[4]] z_intercept <- (ushape_intercept - خطی_برق) / sqrt(linear_ise^2 + ushape_ise^2) #z = -0.45; p = 0.67، n.s. z_slope <- (ushape_slope - linear_slope) / sqrt(linear_sse^2 + ushape_sse^2) #z = -1.50; p = 0.93، sig.
17438
فرض کنید $S$ به عنوان یک ماتریس Wishart با $n$ درجه آزادی و ماتریس مقیاس $\Sigma$ توزیع شده است، و اجازه دهید $\vec{a}$ یک بردار ثابت باشد. به خوبی شناخته شده است که $\vec{a}^{\top}S\vec{a}$ برابر است با $\vec{a}^{\top}\Sigma\vec{a}$ برابر یک Chi-square متغیر تصادفی با درجه آزادی $n$. من در مورد توزیع $\vec{a}^{\top}S^{-1}\vec{a}$ کنجکاو هستم. حدس من این بود که به صورت یک گامای معکوس، با مقیاس $\vec{a}^{\top}\Sigma^{-1}\vec{a} / 2$، و شکل $n/2$ توزیع می‌شود. شبیه سازی های من (که تا حدودی مشکوک هستند) نشان می دهد که این مورد _نیست_ است. آیا این یک توزیع شناخته شده را دنبال می کند؟
توزیع هنجار ناشی از ویشارت معکوس چگونه است؟
13327
من یک مجموعه فرضی از ترکیب رژیم غذایی دارم که نشان می دهد گروه خاصی از مردم چه مقدار از هر میوه را می خورند: ![درصد جدول](http://i.stack.imgur.com/jAyxP.png) * چگونه می توان من در یک صفحه، تمام ترکیبات گروه A تا G و مهمتر از آن، تغییر آنها را در سال گذشته تجسم می کنم؟ * من می دانم که داشتن بیش از 4 رنگ در طراحی یک نه-نه است، اما اینجا چه کاری می توانم انجام دهم؟
چگونه می توانم تغییرات نسبت به دوره دیگر را تجسم کنم؟
113254
من می‌خواهم ابرداده (نویسنده، تاریخ ایجاد ...) را از دسته‌ای از اسناد MS word با R استخراج کنم. ممنون، فرد
13321
مشکل اساسی که من دارم بسیار شبیه به یک مشکل تخمین بیزی کلاسیک است: یک پارامتر با ارزش واقعی $p\in[0,1]$ وجود دارد که می‌خواهم آن را از طریق مشاهدات $o_i$ تخمین بزنم. همچنین موردی است که $$ p=\lim_{N\to\infty}{1\over N}\sum_{i=1}^N o_i، $$ بنابراین این مشکل بسیار شبیه به تخمین یک احتمال است. نکته اینجاست: $o_i\in[-1,1]$ به دلیل شباهت با تخمین یک احتمال، می‌خواهم چیزی شبیه به‌روزرسانی بیزی در مورد دانش خود از $p$ انجام دهم، که در آن قبلی، بتا خواهد بود. RV توزیع شده با این حال، از آنجایی که $p\in[0,1]$ به نظر می‌رسد که نسخه قبلی فقط در $[0,1]$ پشتیبانی می‌کند، اما این بدان معناست که هر $o_i\in[-1,0]$ به هیچ اطلاعات مفیدی در مورد $p$ منجر نشده است، که به سادگی نادرست است. از سوی دیگر، اگر پشتیبانی قبلی را در کل بازه $[-1,1]$ داشته باشم و به‌روزرسانی معمول بیزی را انجام دهم، توزیع پسین نشان‌دهنده $\Pr(p\in[-1,0]) است. \not=0$ که این نیز نادرست است. قانون قبل و به روز رسانی مناسب در این مورد چیست؟ کسی مشکلی شبیه این دیده است؟
تخمین بیزی از یک میانگین با محدودیت های سخت تر از مشاهدات
13322
من در حال خواندن مقاله ای از Stephane Adjémian در مورد مدل سازی DSGE با کران پایین صفر برای نرخ بهره اسمی هستم، و او از چیزی که به عنوان روش شبیه سازی شده لحظه ها / مسیر توسعه یافته توصیف می کند استفاده می کند. کسی با این تکنیک ها کار کرده؟ چه می گویید گام بعدی برای آشنایی با آنها برای کسی است که کمی پیشینه در تخمین GMM دارد. من می دانم که مقاله اصلی مک فادن (1989) است، اما آیا کسی درباره کتاب درسی این مطالب می داند؟ من می خواهم در صورت امکان از نگرانی در مورد نظریه احتمال اجتناب کنم.
مقدمه خوبی برای روش شبیه سازی لحظه ها و تکنیک مسیر توسعه یافته چیست؟
13323
من سعی می‌کنم یک اثبات را برای تمرین بازبینی به پایان برسانم و از من خواسته می‌شود نشان دهم که $E\left[(y-E(y|x))(E(y|x)-f(x))\right]= 0$ که $y$ متغیر وابسته است و $f(x)$ پیش بینی خطی $y$ است. من تقریباً تمام شده ام، اما فقط می خواهم بررسی کنم که آیا $E\left[E \left[y E(y|x)\,|\,x \right] \right]=E\left[ E( y|x)E \left[ E(y|x)\,|\,x \right] \right]$ اساساً، آیا می توانم $y$ را از انتظار شرطی به عنوان $E(y|x)$ خارج کنم، یا به صورت متفاوت بیان شده اند انتظارات مشروط چند وجهی در این راه؟ معمولاً اگر تابعی از متغیر شرطی شده باشد، می‌توانید خارج از انتظار، تابعی را پشتیبان دهید - یعنی $E\left[f(x)y|x \right]=f(x)E(y|x) $، اما من فکر می کنم آنچه در بالا می خواهم انجام دهم متفاوت است. همچنین، یک سوال دوم مرتبط - اگر $E\left[E(y|x)\right]=E(y)$ طبق قانون کل انتظارات، آنگاه $E\left[E(y|x)E (y|x)\right]=E(y^2)$ با همان نشانه؟
چگونه نشان دهیم که $E\left[y E(y|x) \right] = E\left[E(y|x)E(y|x) \right]$ - خطی بودن انتظارات مشروط؟
70849
من یک بردار $X$ با مقادیر $n$ ایجاد می‌کنم و می‌خواهم بردار $Y$ دیگری مانند $Y = aX+b$ ایجاد کنم و از طریق یک ضریب همبستگی (مثلاً $r=) مقداری نویز به $Y$ اضافه کنم. 0.8 دلار). در اصل یک رگرسیون خطی ساده است. سوال من این است که آیا می توانم انحراف استاندارد نویز را از یک ضریب همبستگی بدون استفاده از رویکرد نیروی brute مانند آنچه در زیر در «R» انجام دادم پیدا کنم؟ r <- 0.8 شیب <- 0.003 قطع <- 0 n <- 100 X <- runif(n، 50، 100) rnormcor <- تابع (x، سیگما) rnorm(1، x، سیگما) f <- تابع(x , indpt,r,b1,b0){ y <- indpt*b1+b0 y <- sapply(y, rnormcor, x) abs(r-cor(indpt,y)) } sigmas = seq(0.0000001,1,by=0.001) sigmas.cor = sapply(sigmas, f, indpt=X, r=rho, b1=slope,b0= intercept) نمودار (sigmas , sigmas.cor) سیگما[which.min(sigmas.cor)]
متغیر وابسته را با استفاده از رگرسیون خطی و ضریب همبستگی شبیه سازی کنید
37416
من این مدل را در ذهن دارم: $ y_t = c + \phi x_{t-1}^k + \eta_t$ که $\eta_t$ N.I.D است. به نظر شما آیا می توان $k$ را تخمین زد؟
97237
من می خواهم دو متغیر تصادفی $X \sim N(0,1)$ و $Y \sim N(0,1)$ ایجاد کنم که $E(X,Y)=0.5 $ را برآورده کند، یعنی می خواهم $Z ایجاد کنم. =(X,Y)^\top $ با توزیع نرمال دو متغیره مشترک $ Z \sim N\left( \left(\begin{array}{c} 0\\\ 0 \end{array}\right) , \left(\begin{array}{cc} 1 & 0.5\\\ 0.5 & 1 \end{array}\right) \right) $. چگونه این را در R کدنویسی کنم؟ با تشکر
r، نحوه ایجاد دو متغیر همبسته که به طور مشترک نرمال توزیع شده اند (میانگین 0، var 1)
90391
**مقدمه:** من اخیرا یک برنامه شبیه سازی ساخته ام که بیماران مبتلا به دیابت نوع 1 را شبیه سازی می کند. در این زمینه من بیماران مصنوعی ایجاد می کنم. بیایید سه مورد از اینها را به عنوان $\text{p}_1$، $\text{p}_2$، و $\text{p}_3$ نشان دهیم. فرض کنید که $\text{p}_1$، $\text{p}_2$ و $\text{p}_3$ با درمان $A$ درمان می‌شوند. درمان $A$ دیابت $\text{p}_1$، $\text{p}_2$ و $\text{p}_3$ را تا حد معینی درمان می‌کند. ما درمان را با برخی اقدامات انجام شده در یک کارآزمایی مجازی ارزیابی می کنیم. بیایید یکی از این معیارها را نشان دهیم $\text{M}1_A$. $\text{M}1_A$ دارای یک مقدار متوسط ​​و یک انحراف معیار برای درمان A برای سه بیمار است. اکنون بیایید درمان B را برای همان گروه بیمار، $\text{p}_1$، $\text{p}_2$ و $\text{p}_3$ معرفی کنیم. ما مجدداً درمان را از طریق یک آزمایش آزمایشی انجام دادیم و لیستی از اقدامات را دریافت کردیم که این بار نشان دهنده $\text{M}1_B$ است. من علاقه مند به آزمایش این هستم که آیا تفاوت در $\text{M}1_A$ و $\text{M}1_B$ قابل توجه است یا خیر. من می دانم: $N=3، \text{std(M}1_A)، \text{std(M}1_B)، \text{mean(M}1_A)، \text{mean(M}1_B)$ ** سوال: ** من می خواهم دو معیار آزمایش شده را بر روی یک گروه از افراد مقایسه کنم و از یک ابزار آماری استفاده کنم تا بفهمم تفاوت این دو معیار قابل توجه است یا خیر. من در حال بررسی استفاده از آزمون t ولش هستم - آیا این درست است؟
مقایسه دو میانگین: یک گروه، واریانس متفاوت (آزمون تی ولش؟)
3458
جایگزینی برای درختان طبقه بندی، با عملکرد پیش بینی بهتر (به عنوان مثال: CV)؟
41339
من smth را دریافت کردم که به نظر می رسد $y_1 = \alpha_1\cdot y_2 + \alpha_2\cdot y_3 + X\cdot\alpha_3 + u_1$y_2 = \beta_1\cdot y_1 + \beta_2\cdot y_3 + X\cdot\ + u_2$ $y_3 = \gamma_1\cdot y_1 + \gamma_2\cdot y_2 + X\cdot\gamma_3 + u_3$ بعد از اینکه کمی در مدل خود فکر کردم، واقعاً نتوانستم برخی از متغیرهای برونزا (که در $X$ موجود است) را به صفر و نه محدود کنم آیا می توانم برخی از وابستگی های بین آن متغیرهای درون زا را حذف کنم... موضوعی که مدل من در مورد آن است به موفقیت مربوط می شود. یک دانشجو در دوران تحصیل از این رو متغیرهای وابسته عبارتند از نمره، ترم و تعداد دفعاتی که یک دانش آموز مجدداً از یک امتحان بازدید کرده است (به دلیل مردودی یا کسب نمره بالاتر). ابتدا IV، 2SLS، 3SLS را امتحان کردم، اما از آنجایی که داده های من با الزامات این روش ها مطابقت ندارند، این یک بن بست است. دلیل آن این است که الف) ابزار خوبی در دسترس نیست و ب) حتی اگر سعی کنم دلایلی را بیابم که یکی از متغیرهای برون زا را در یک یا چند معادله وارد نکنم، تناسب مرحله اول آنقدر بد است که مرحله دوم دچار مشکل می شود. مقدار زیادی از آن مورد بعدی که من سعی کردم این بود که رویکردی را معرفی کنم که به من امکان می دهد هیچ متغیری را با گنجاندن یک متغیر مرتبه رتبه (معرفی شده توسط vella) حذف نکنم. این متغیر RO قرار است با تبدیل باقیمانده‌های شکل کاهش‌یافته، درون‌زایی را به حساب آورد، به طوری که عبارت خطای جدید در معادله ساختاری اکنون با رگرسیون‌های درون‌زا همبستگی ندارد. دلیل اینکه این کار به نتیجه نرسید این بود که هزینه های این رویکرد در چند خطی بودن زیاد است که نتایج من را بی فایده می کند. پس از انجام یک شبیه سازی، متوجه شدم که نتایج من به مشکلات سنگینی اشاره دارد که نمی توان بر آنها غلبه کرد. من فکر می کنم این یک راه حل بسیار منظم است که دلیل آن بود که من آن را انتخاب کردم، اما نمی تواند کار کند. بنابراین نتیجه نهایی این است: من گیر کرده‌ام، اکنون نمی‌دانم که در مرحله بعد چه کاری می‌توانم انجام دهم و امیدوارم نظرات شما دوستان چه کاری می‌توانم انجام دهم تا این کار را انجام دهم. من فقط به نکاتی در جهت درست نیاز دارم زیرا احساس می کنم کمی گم شده ام..
90395
من دو نمونه توزیع معمولی $[x_1، x_2، \ldots، x_n]$ با واریانس نمونه $s^2_1$ و نمونه دیگر $[y_1, y_2,\ldots, y_n]$ با واریانس نمونه $s^2_2$ دارم. من می دانم چگونه فاصله اطمینان را برای هر یک از واریانس ها محاسبه کنم. اما من نمی دانم چگونه فاصله اطمینان حاصل از مجموع دو واریانس را محاسبه کنم. به عبارت دیگر، آیا کسی می تواند به من کمک کند تا فاصله اطمینان $\sigma^2_1+\sigma^2_2$ را محاسبه کنم.
فاصله اطمینان دو واریانس
48534
> ** کپی احتمالی: **> چگونه می توان اعداد تصادفی همبسته را تولید کرد (با توجه به وسایل ، واریانس و> درجه همبستگی)؟ من سعی کرده ام دو متغیر تصادفی با همبستگی -0.9 ایجاد کنم اما موفق نبوده ام. من سعی کرده ام: x1 <- rnorm (200 ، میانگین = 0 ، SD = 1) x2 <- rnorm (200 ، میانگین = 0 ، SD = 1) Z <- -0.9*x1+SQRT ((1- (- 0.9 (- 0.9 (- 0.9 (- (- 0.9) )))*x2 cor(x1,z) اما کار نکرد. من همچنین عملکرد؟ mvrnorm را نیز امتحان کردم ، اما این هم کار نکرد. چگونه می توانم این کار را انجام دهم ؟؟
چگونه دو سری اعداد تصادفی با همبستگی منفی تولید کنیم؟
41331
افزودن گزینه های انتخاب نشده به عنوان داده به مدل رگرسیون لجستیک
37411
فرض کنید من در حال ساخت یک طبقه‌بندی رگرسیون لجستیک هستم که متاهل یا مجرد بودن فردی را پیش‌بینی می‌کند. (1 = متاهل، 0 = مجرد) من می خواهم نقطه ای را در منحنی فراخوانی دقیق انتخاب کنم که حداقل 75 درصد دقت به من بدهد، بنابراین می خواهم آستانه های $t_1$ و $t_2$ را انتخاب کنم، به طوری که: * اگر خروجی طبقه بندی کننده من بیشتر از $t_1$ است، من خروجی married را صادر کردم. * اگر خروجی زیر $t_2$ باشد، من خروجی single را می دهم. * اگر خروجی در بین باشد، «نمی دانم» را خروجی می دهم. یک سؤال زوج: 1. من فکر می کنم طبق تعریف استاندارد از دقت ، دقت اندازه گیری دقت کلاس متاهل به تنهایی خواهد بود (یعنی دقت = # بارها که من به درستی پیش بینی می کنم متاهل / کل # بارها پیش بینی می کنم ازدواج کنم). با این حال، کاری که من واقعاً می‌خواهم انجام دهم این است که دقت کلی را اندازه‌گیری کنم (یعنی مجموع # دفعاتی که متاهل یا مجرد را به درستی پیش‌بینی می‌کنم / مجموع # دفعاتی که متاهل یا مجرد را پیش‌بینی می‌کنم). آیا این کار اشکالی ندارد؟ اگر نه، باید چه کار کنم؟ 2. آیا راهی برای محاسبه این منحنی دقت / فراخوان «کلی» در R وجود دارد (به عنوان مثال، با استفاده از بسته ROCR یا برخی از کتابخانه های دیگر)؟ من در حال حاضر از بسته ROCR استفاده می‌کنم، اما به نظر می‌رسد که این بسته به من دقت/فراخوانی تک کلاسی را می‌دهد.
99721
لطفاً به من اجازه دهید که شروع کنم و بگویم که من با آمار و تجزیه و تحلیل داده ها آشنایی خاصی ندارم. من یک مجموعه داده با اندازه جمعیت 266، میانگین 24.8 و انحراف معیار 6.86 در MS Excel 2007 دارم. نمودار کمی معمولی که برای این داده ها ترسیم کردم، با انجام آزمایش کولموگروف- اسمیرنوف نشان داد که به طور معمولی نبود. توزیع شده (در سطوح آلفای 0.01، 0.05 و 0.1). چگونه فواصل اطمینان را برای چنین مجموعه ای از داده ها پیدا کنم؟ نموداری که تابع چگالی احتمال داده ها را نشان می دهد در زیر است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qBnIv.png) **ویرایش 1** کمی جزئیات بیشتر در مورد ماهیت کار: من تمرینی را در مورد تجزیه و تحلیل یک زنجیره تامین خیالی انجام می دهم تا با مفاهیم تحلیل و مدل سازی آماری آشنا شوم. من می‌خواهم ریسک مربوط به کاهش حداقل سطوح سفارش مجدد از 2 انحراف استاندارد به 1 را درک کنم (فرض کنید انحراف استاندارد برای یک تامین‌کننده/مشتری خاص یک هفته باشد، پس حداقل سطح سفارش مجدد دو هفته قبل خواهد بود). بنابراین من نظریه می‌دهم (و لطفاً با خیال راحت هر منطق مغالطه‌آمیزی را در اینجا تصحیح کنید) که ریسک مربوط به تفاوت در درصدهای قاعده 3 سیگما (یعنی 5% تا 32% از 2-سیگما به 1) خواهد بود. بخش دوم این تمرین از من می‌خواهد که حداقل زمان سفارش مجدد بهینه را برای هر محصول با توجه به مجموعه‌ای از داده‌ها برای هر عرضه‌کننده/مشتری که معمولاً توزیع نمی‌شود (با توجه به برخی مفروضات مالی استاندارد) پیدا کنم. من فرض می‌کنم که منطق مانند قبل باقی می‌ماند، اما درباره نحوه رفتار با داده‌ها به گونه‌ای که قانون 3 سیگما همچنان در مورد آن اعمال شود، مطمئن نیستم. **ویرایش 2** رسم داده های خام نمودار زیر را به دست می دهد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Sasne.png)
درمان داده هایی که به طور معمول توزیع نمی شوند
101326
در سوال قبلی پرسیدم که چگونه چندک های داده هایم را محاسبه کنم تا بتوانم اعتبار سنجی متقاطع را روی مجموعه ای از داده ها برای مدل رگرسیون چندک خود انجام دهم. اما فکر می کنم متوجه شدم که چه کاری باید انجام دهم. فرض کنید من سه مدل چندک را با چندک‌های 0.25، 0.5، 0.75 انجام می‌دهم و ضرایب را به آنجا می‌رسانم و ضرایب هر سه را روی یک مجموعه داده نگهدارنده (داده‌هایی که برای محاسبه ضرایب استفاده نمی‌شوند) آزمایش می‌کنم. آیا من فقط مدلی را که بهترین دقت را به من می دهد (مقادیر واقعی در مقابل مقادیر پیش بینی شده) از بین سه مدل را به عنوان بهترین انتخاب می کنم؟ من از ریشه میانگین مربعات خطا به عنوان آزمون دقت استفاده خواهم کرد. در شبیه سازی هایی که انجام دادم، متوجه شدم که دقت برای نمونه های کوچکتر با مدل 0.25 بسیار بهتر و برای مدل 0.75 بدتر است. و همچنین برای واقعیات بالاتر، پیش بینی شده به واقعیات مدل 0.75 بسیار نزدیکتر از مدل 0.25 است. بنابراین من فکر کردم که مدل ها را ترکیب کنم و از ضرایب 0.25 در مقادیر کوچکتر و ضرایب 0.75 در مقادیر بزرگتر استفاده کنم، اما مطمئن نیستم که آیا این راه درست است یا خیر.
اعتبار سنجی متقاطع رگرسیون چندکی
101324
اخیراً ادعای زیر را از یکی از همکارانم در رابطه با یک تعریف ضعیف از همبستگی بین دو متغیر تصادفی دریافت کردم: «همبستگی 60 درصدی بین دو متغیر تقریباً نشان می‌دهد که در 60 درصد موارد فاصله از موقعیت میانگین متغیرها است. تراز شده است.» من ندیده‌ام که همبستگی‌هایی به این شکل تعریف شده باشند، اما نتوانستم پاسخی به الف) درستی این موضوع، ب) تعریف رسمی جایگزین ارائه دهم.
همبستگی بین متغیرهای تصادفی
14146
من یک مدل ترکیبی اندازه گیری های مکرر را در SAS اجرا کرده ام و به نظر می رسد درجات آزادی مخرج برای آماره F واقعاً زیاد است. در این مورد من تقریباً 200 فرد دارم و سه اندازه گیری برای هر فرد (گزاره مکرر) و درجه آزادی بیش از 500 است. بنابراین به نظر می رسد که تقریباً منعکس کننده تعداد مشاهدات است. من چند مقاله را بررسی کردم و همان الگو را در جاهای دیگر یافتم، اما به عنوان یک مبتدی آماری مطمئن نیستم که خوب است یا نه. یا شبیه سازی کاذب است؟ همچنین اشاره کردم که تغییر ساختار متغیر کمکی تأثیر زیادی بر درجات آزادی دارد. * چرا درجات آزادی در این گونه طرح ها اینقدر بالاست یا این احتمال وجود دارد که مشکلی جدی در مدل من وجود داشته باشد؟ * مطالعه پیشنهادی در مورد مدل‌های ترکیبی با اندازه‌گیری‌های مکرر برای کمک به درک این موضوع چیست؟
101325
من از یک شبکه عصبی و رگرسیون لجستیک برای یک مشکل طبقه بندی استفاده می کنم. برای ارزیابی عملکرد دو طبقه‌بندی‌کننده، من از اعتبارسنجی متقاطع 5 برابری استفاده می‌کنم (تقریباً 800 نمونه در داده‌های آزمایشی برای هر برابر). با استفاده از Caret من بهترین پارامترها را برای ANN خود در یک حلقه داخلی در اعتبارسنجی متقاطع پیدا می کنم (تقریباً 600 نمونه در داده های آزمایشی برای هر برابر). با این حال، من واقعاً مایلم درک بهتری از نحوه مدیریت کرت با این موضوع داشته باشم. با توجه به اینکه شبکه‌های عصبی می‌توانند از آموزش مجدد بهره ببرند تا از حداقل‌های محلی جلوگیری کنند، من می‌خواهم بازآموزی انجام دهم. من مطمئن نیستم که Caret این کار را پس از انتخاب پارامترهای بهینه انجام می دهد یا به سادگی مدل را یک بار روی نمونه بزرگتر داده های آزمایشی (800 نمونه) با پارامترهای یافت شده آموزش می دهد. کسی می تواند این را برای من روشن کند؟ ویرایش: و اگر هیچ بازآموزی انجام نمی دهد، چگونه می توانم این کار را به بهترین شکل ممکن انجام دهم؟ **کد:** library(caret) library(nnet) tunGrid <- expand.grid(size = c(1, 2, 3, 4, 5, 6, 7), decay = c(0, 10^(- 2) ، 10^(-3) ، 10^(-4))) fitControl <-trainControl (روش = تکرار cv ، شماره = 5 ، تکرار=3) set.seed(825) fmla <- as.formula(y_BBR_train ~ .) annFit1 <- train(fmla، داده = X_BBR_train، روش = nnet، trControl = fitControl، tuneGrid = tunGrid) متشکرم !
بازآموزی Caret شبکه عصبی پس از یافتن پارامترهای بهینه؟
14147
با توجه به یک مجموعه داده حداقل که در آن به دنبال وقوع یک نقوش خاص در یک مجموعه داده از 500 مشاهده هستم. with_motif مشاهدات با موتیف مشخص شده را نشان می دهد و without_motif مشاهدات بدون موتیف هستند. with_motif <- 100 without_motif <- 400 dt <- data.frame(with_motif,without_motif) کد زیر با استفاده از کتابخانه ggplot2، bar_plot <- ggplot(melt(dt),aes(variable,value)) یک نمودار میله ای رسم می کند. geom_bar() + scale_x_discrete(name=با یا بدون) + theme_bw() + opts(panel.grid.major = theme_blank(),title = , plot.title=theme_text(size=14)) bar_plot من می خواهم یک خطای استاندارد را در 95% CI محاسبه کنم و یک نمودار به طرح وصل کنید. ggplot «geom_errorbar()» را ارائه می‌کند، اما خوشحال می‌شوم که راه‌های مختلفی را برای استخراج خطاهای استاندارد (انحراف) بدانم تا محدودیت‌های نوار خطا (CI) را محاسبه کنیم.
80263
من یک **مبتدی** ML هستم و به این فکر می کنم که آیا کسی می تواند کاری که من انجام می دهم را نقد کند (این کار کمی باز است). * من مجموعه بسیار کوچکی از اسناد متنی دارم (*n = 122**). * یک **تصمیم باینری** در ارتباط با هر سند وجود دارد. * من یک نمایش کیسه ای از کلمات برای هر سند ایجاد کرده ام و از RandomForestClassifier پایتون برای ایجاد مدل هایی برای طبقه بندی داده ها استفاده می کنم. من پارامترهای موجود در RandomForestClassifier را به روش زیر سرهم می‌کنم: * RandomForestClassifer را روی 200 زیرمجموعه تصادفی از داده‌ها اجرا کنید (112 = برای هر 200 اجرا) (این #ها خودسرانه انتخاب شدند). * *اهمیت** هر کلمه را در ماتریس کیف کلمات من بر اساس میانگین اهمیت هر کلمه در 200 اجرا رتبه بندی کنید. اکنون می‌خواهم ببینم که با استفاده از RandomForestClassifier، یک # ویژگی/کلمات بهینه برای مجموعه داده‌های من وجود دارد یا خیر. این کار به صورت زیر انجام می شود: * ایجاد 500 جنگل تصادفی (**600 درخت در هر جنگل**). هر یک از 500 جنگل از 112 سند انتخاب شده به طور تصادفی به عنوان مجموعه آموزشی و 10 سند باقی مانده به عنوان مجموعه آزمایشی استفاده می کند. * *متوسط ​​دقت** این 500 جنگل **به عنوان تابعی از # کلمه/ویژگی** مورد استفاده برای تولید مدل ها را اندازه گیری کنید. این چیزی است که من می بینم. دقت متوسط ​​بهینه حدود n=80 کلمه/ویژگی است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2DE6x.png) سوالات: * مطمئن هستم که رویکرد من غیرمتعارف است. آیا **روش** بهتری برای بهینه سازی پارامترهای RandomForest وجود دارد؟ * آیا توضیح ** شهودی وجود دارد که چرا میانگین دقت من در حدود 80 کلمه بهینه به نظر می رسد و سپس کم می شود؟ آیا این به سادگی این است که وقتی n-ویژگی ها بیش از حد بزرگ می شوند، جنگل های من به اندازه کافی ویژگی های خوب را در خود جای نمی دهند و بنابراین دقت آسیب می بیند؟ * هر **پارامتر دیگری** که ارزش اصلاح را در اینجا دارد؟ * آیا مدل طبقه بندی دیگری ارزش بررسی دارد؟ بابت هر فکری ممنونم
بهینه سازی پارامتر RandomForestClassifier
14143
تقریب چگالی چند متغیره غیر پارامتری -- از کجا شروع کنم؟