_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
87476
|
 این یکی از قضایا در متن آمار من است، و من برای درک اثبات نیاز به کمک دارم. 1. چگونه جمع ($g_{i}$) در هنگام ضرب خارج از علامت جمع باشد؟ من فکر کردم وقتی $\sum_{i}^{}$ به آن بستگی دارد، هرگز نمیتوانید جمعآوری کنید. 2. من فکر می کنم چندین مرحله برای دستیابی به آن نتیجه نهایی در مورد بالا وجود ندارد. میشه لطفا یکی توضیح بده که چطور 2 جمع با شاخصی متفاوت 1 شد؟
|
سوال اثبات E[g(Y)]
|
109746
|
میدانم که میتوانید الگوریتمهای یادگیری را بر اساس میانگین دقت اعتبار متقاطع آنها (به عنوان مثال CV 10 برابری، 10 تکراری) و دقت مجموعه تست آنها مقایسه کنید. فرض کنید مدل 1 یک مدل رگرسیون لجستیک با پیش بینی کننده های A,B,C است. فرض کنید مدل 2 یک SVM با پیش بینی کننده های A,B,C,D است. آیا میتوانیم مدل 1 و مدل 2 را با وجود اینکه مدل 2 دارای متغیر پیشبینیکننده اضافی D است، مقایسه کنیم؟
|
مقایسه الگوریتم های یادگیری
|
109743
|
من سعی می کنم تابع چگالی احتمال را برای یک فرآیند نسبتا ساده رسمی کنم، اما در نوشتن دقیق آن مشکل دارم. به طور خاص، شبیه سازی یک پیاده روی تصادفی گاوسی 1 بعدی را در نظر بگیرید که از X_0 شروع می شود تا شرایط توقف (که تقریباً به طور قطع در زمان محدود اتفاق می افتد). به طور خاص، اجازه دهید RV $X_0 \sim \pi(\cdot)$ برای مقداری چگالی شناخته شده $\pi$، با توجه به RV $X_n$ سپس $X_{n+1} \sim \mathcal{N}(\cdot; X_n, 1)$، که $\mathcal{N}(x;\mu,\sigma)$ PDF نرمال است که در نقطه $x$ با میانگین $\mu$ و واریانس ارزیابی شده است. $\sigma$. همچنین تابع $S : \mathbb{R} \to (0,1)$ به ما داده می شود که در آن $S(x)$ احتمال خاتمه زنجیره در نقطه $x$ را می دهد. بنابراین، با توجه به دنباله ای از نقاط $X_0,...,X_n$ می توانیم PDF را به صورت $$ p(x_0,...,x_n) = \pi(x_0)\sum_{i=1}^{n بنویسیم -1} \mathcal{N}(x_i؛ x_{i-1}، 1)(1-S(x_i))\mathcal{N}(x_n؛ x_{n-1}، 1)S(x_n) $$ حال، یک جزئیات آزاردهنده نهایی را اضافه می کنیم: اینکه پس از پایان زنجیره، یک نقطه _تک را از دنباله به طور یکنواخت به صورت تصادفی انتخاب می کنیم. سوال من: چگونه می توانم PDF $f(x')$ را بنویسم، جایی که RV $X'$ نقطه انتخاب شده توسط این فرآیند است؟ حدس من این است که یک PMF برای توزیع یکنواخت تعریف کنیم $u(x'|x_0,...,x_n) = \\{ 1/(n+1) \ \text{if} \ x \in \\{x_0 ,...,x_n\\}; 0 \ \text{در غیر این صورت} \\}$ دادن: $$ f(x') = \sum_{n=0}^\infty \int u(x'|x_0,...,x_n)p(x_0, ...,x_n) dx_0...dx_n $$ اما $u$ برای مجموعه های بی نهایت تعریف نشده است (حتی اگر فرض می کنم $S$ زنجیره را به صورت متناهی خاتمه می دهد زمان)، و آیا حتی یک چگالی شرطی معتبر است که بر روی یک مجموعه گسسته مانند آن تعریف می شود؟ من این احساس را دارم که در اینجا قوانین زیادی را زیر پا می گذارم.
|
رسمی کردن pdf با استفاده از چگالی گسسته و پیوسته
|
15368
|
من در حال توسعه یک مدل اثر ترکیبی برای اندازه گیری مکرر فشار خون با استفاده از دو تکنیک مختلف هستم. من قبلاً در مورد مزایای مدل های ترکیبی نسبت به اندازه گیری های مکرر ANOVA در SE بحث کرده ام. تنها مشکل این است که من میدانم ادبیات مدلهای مختلط در R مبتنی بر نقطه شروعی است که کمی بالاتر از درک ضعیف من است. آیا کسی مقدمه خوبی برای مدلسازی ترکیبی در R میداند یا میتواند دنباله خوبی از موضوعات را پیشنهاد کند که به درک کاملی از نحوه ساخت و (مهمتر از آن) خروجی یک مدل ترکیبی در R منجر شود؟
|
پیشنهادات آموزشی منجر به مدل سازی با اثر مختلط
|
32850
|
من مجموعه ای از داده ها متشکل از جفت (i,j) دارم که هم i و هم j از یک مجموعه S با اندازه k گرفته شده اند. من می خواهم یک تست استقلال شبیه تست کای دو انجام دهم. با این حال من خیلی به استقلال کامل اهمیت نمی دهم. من واقعاً فقط علاقه مندم که ببینم آیا جفتهای شکل (i,i) بیشتر (یا کمتر) بیشتر از جفتهایی از شکل (i,j) با j برابر با i نشان داده میشوند یا خیر. بنابراین، به نظر می رسد منطقی است که داده ها را جمع آوری کنیم، و به یک جدول 2 با k نگاه کنیم که ردیف هایی که توسط اولین ورودی به صورت جفت داده می شود، و ستون هایی که بر اساس اینکه آیا ورودی دوم با ورودی اول برابر است یا نه، ارائه شده است. آیا می توان کاری مانند تست کای اسکوئر را با این روش انجام داد؟ ممکن است چگونه به نظر برسد/آیا می توانم مراجعی پیدا کنم؟ ویرایش شده در پاسخ به whuber: از پاسخگویی متشکریم. من مطمئن نیستم که سوال را کاملاً درک کرده باشم، اما اینجاست. برای من، عناصر S نشان دهنده گروه های مختلف است (به عنوان مثال، هر عنصر S یک بانک یا سازمان دولتی است). اگر جدول 2 در k نباشد، چه اندازه ای معقول به نظر می رسد؟ نمیدانم برچسبها برای مثلاً یک جدول 2 در 2 چیست. من میتوانم ردیفهایی را برای یک جدول 1 در 2 حدس بزنم، اما پس از آن نمیتوانم تصور کنم که آزمون چه خواهد بود - تجمع بیش از حد انجام شده است. 2 با k وجود داشت فقط به این دلیل که الف) به نظر واضح است که حاوی تمام دادههایی است که من به آنها علاقه دارم، و ب) ورودیهای بسیار کمتری نسبت به جدول کامل k به k دارد. ویرایش شده در پاسخ به gui11aume: با تشکر از کمک! عناصر مختلف S نشان دهنده به عنوان مثال. بانک های مختلف یک جفت (i,j) ممکن است نشان دهنده نوع خاصی از تجارت شامل بانک i و بانک j باشد. در اصل، منطقی به نظر می رسد که فقط بپرسیم آیا بانک به احتمال بیشتری با بخش دیگری از خود سروکار دارد یا خیر، و بنابراین همه داده ها را در دو بلوک (هر دو ورودی یکسان) و (ورودی ها متفاوت هستند) جمع آوری کنیم. در عمل، من در درجه اول به دلیل مسائل مقیاس، کمی نگران این هستم. برخی از گروهها نسبت به گروههای دیگر در ردههای مختلف درگیر هستند. به نظر میرسد که آزمونهای جدول اقتضایی عادی با این موضوع به خوبی مقابله میکنند و به هر گروه یک نرمالسازی جداگانه میدهند. نمیدانم چگونه میتوانم بدون اینکه همه گروهها به جز بزرگترین گروهها را به طور موثر نامرئی کنیم، به دو بلوک تجمیع کنم. البته من دقیقا متخصص نیستم!
|
تست استقلال با مقداری تجمیع
|
87479
|
در «R»، من از تابع «lda» از کتابخانه «MASS» برای انجام طبقهبندی استفاده میکنم. همانطور که من LDA را درک می کنم، به ورودی $x$ برچسب $y$ اختصاص داده می شود، که $p(y|x)$ را به حداکثر می رساند، درست است؟ اما وقتی مدلی را که در آن $$x=(Lag1,Lag2)$$$$y=جهت،$$ مطابقت میدهم، کاملاً خروجی «lda» را نمیفهمم، > > > lda.fit > تماس: > lda (جهت ~ Lag1 + Lag2، داده = قطار) > > احتمالات قبلی گروه ها: > پایین بالا > 0.491984 0.508016 > > گروه یعنی: > Lag1 Lag2 > Down 0.04279022 0.03389409 > Up -0.03954635 -0.03132544 > > ضرایب تشخیص خطی: > LD1 > Lag1 -0.6420190 > 5 Lag2 را درک کنید اما یک چیز، **`LD1`** چیست؟ من در وب جستجو می کنم، آیا این امتیاز تشخیص خطی است؟ این چیست و چرا به آن نیاز دارم؟ **به روز رسانی** من چندین پست (مانند این و این یکی) را خواندم و همچنین در وب برای DA جستجو کردم، و اکنون نظر من در مورد DA یا LDA اینجاست. 1. می توان از آن برای انجام طبقه بندی استفاده کرد، و زمانی که هدف این باشد، می توانم از رویکرد Bayes استفاده کنم، یعنی $p(y|x)$ بعدی را برای هر کلاس $y_i$ محاسبه کنم و سپس $x را طبقه بندی کنم. $ به کلاسی که بالاترین رتبه را دارد. با این رویکرد، من اصلاً نیازی به کشف ممیزات ندارم، درست است؟ 2. همانطور که در پست ها خواندم، DA یا حداقل LDA در درجه اول **کاهش ابعاد** است، برای کلاس های $K$ و فضای پیش بینی $D$-dim، می توانم $D$-dim $x را پیش بینی کنم. $ به فضای ویژگی جدید $(K-1)$-dim $z$، یعنی \begin{align*}x&=(x_1,...,x_D)\\\z&=(z_1,...,z_{K-1})\\\z_i&=w_i^Tx\end{تراز کردن*} ، $z$ را می توان به عنوان بردار ویژگی تبدیل شده از $x$ اصلی مشاهده کرد و هر $w_i$ برداری است که $x$ روی آن پیش بینی می شود. آیا من در مورد عبارات فوق حق دارم؟ اگر بله، من سوالات زیر را دارم: 1. ممیز چیست؟ آیا هر ورودی $z_i$ در بردار $z$ ممیز است؟ یا $w_i$؟ 2. چگونه می توان طبقه بندی را با استفاده از ممیز انجام داد؟
|
ضرایب تشخیص خطی در LDA چیست؟
|
15361
|
آیا باید از اصلاحات Bonferroni یا Holm استفاده کنم؟ لطفاً این سؤال قبلی را برای دادههای نمونه و طرح من ببینید. (به زودی، من سه یا چند گروه وابسته دارم.)
|
بعد از تست جفت همسان ویلکاکسون باید از چه نوع تصحیح خطا استفاده کنم؟
|
31516
|
من دو گروه ده تایی از مشاهدات دارم که وزن در سه نقطه مختلف زمان اندازه گیری می شود. بیایید بگوییم پایه، 2 ماه و 5 ماه پس از پایه. حالا من می خواهم نتیجه بگیرم اگر میانگین یک گروه در طول زمان کمتر از گروه دیگر باشد. به احتمال زیاد وزن آنها در اولین اندازه گیری یکسان است، با تغییرات کمی. پیشنهادی برای برازش یک رگرسیون خطی ساده وجود دارد که در آن از تفاوت میانگین دو گروه به عنوان پاسخ و زمان به عنوان وابسته استفاده می کنیم. به نظر من اشتباه به نظر می رسد، ما فقط سه مشاهده خواهیم داشت. آیا مناسبتر است که برخی از ANOVA اندازهگیریهای مکرر را متناسب کنیم یا هر پیشنهاد دیگری؟ ممنون از هر ورودی
|
مقایسه میانگین بین دو گروه در سه نقطه زمانی
|
23696
|
من کلاس ml ارائه شده توسط پروفسور اندرو نگ در پاییز گذشته را تکمیل کردم. شروع به امتحان کردن یکی از مشکلات در Kaggle کردم. من دیدم که مردم قبل از استفاده از هر الگوریتم یادگیری ماشینی، تجزیه و تحلیل دادههای زیادی انجام میدهند. کتابی را در بخش آمار تکمیل کردم و میخواهم در مورد تجزیه و تحلیل دادهها بیاموزم.
| |
31519
|
امروز، یک پست محاسبات و پایداری را خواندم: چه کاری می توان انجام داد؟ و متوجه شدم که نویسنده این پست به راحتی می تواند مشکلات آماری در زمینه های دیگر مانند علوم کامپیوتر را پیدا کند. از آنجایی که به عنوان یک فارغ التحصیل آمار، تشخیص سؤالات آماری در زمینه های دیگر بسیار مهم است، من واقعاً کنجکاو هستم که چگونه سؤالات آماری را به طور مؤثر کشف کنم. برای اینکه هر مشکلی به عنوان آماری شناخته شود چه ویژگی هایی دارد؟
|
برای آماری بودن یک مسئله چه ویژگی هایی وجود دارد؟
|
105633
|
مواقعی وجود دارد که ممکن است کسی بخواهد نسبت شیوع یا خطر نسبی را برای دادههایی با نتایج دودویی، ترجیحاً نسبت شانس، تخمین بزند - مثلاً، اگر نتیجه مورد نظر نادر نیست، بنابراین رابطه RR ~ OR نیست. نگه دارید من مدلی را در R برای انجام این کار پیادهسازی کردهام، به شرح زیر: uni.out <- glm(Death ~ start, family= binomial (link=log), data=data) اما من به طور مداوم با مشکلات همگرایی مواجه میشوم، حتی زمانی که ارائه مقادیر شروع (مانند برآورد ضرایب برگرفته از رگرسیون لجستیک)، یا افزایش تعداد تکرارهای مجاز. من همچنین glm2 را بدون هیچ موفقیتی امتحان کردم. دو ایده ای که من از اینجا دارم این است که یا با استفاده از یک برآوردگر ساندویچی برای واریانس، یک مدل پواسون را با داده های مشابه برازش دهیم، یا مدل را با استفاده از MCMC برازش کنیم و خطای استاندارد پسین را بگیرم (این در کنار انتساب چندگانه استفاده می شود، بنابراین من نمی توانم فقط گزارش قبلی را گزارش کنم). مشکل این است که من هیچ ایده ای ندارم که چگونه یکی از این ها را در `R` پیاده سازی کنم، و نه اینکه آنها بهترین راه حل هستند یا خیر. علاوه بر این، هنگام استفاده از مدلی مانند: glm (Death ~ سن، خانواده = دو جمله ای (link=log)، start=c(-3.15,0.03),data=data) مرتباً یک پیام خطا دریافت می کنم خطا: نمی توانم پیدا کنم مقادیر شروع معتبر: لطفاً مقداری را مشخص کنید، اما نه همیشه. چه چیزی این پیام را تولید می کند؟
|
وقتی همگرایی یک مدل Log-دوجملهای با شکست مواجه میشود، چه باید کرد
|
31513
|
گزیده زیر از شواگر's Hedge Fund Market Wizzards (مه 2012) است، مصاحبه ای با Jaffray Woodriff مدیر همیشه موفق صندوق تامینی: در پاسخ به این سوال: بزرگترین اشتباهات مردم در داده کاوی چیست؟: > بسیار زیاد بسیاری از مردم فکر می کنند که مشکلی ندارند زیرا از داده های درون نمونه برای > آموزش و از داده های خارج از نمونه برای آزمایش استفاده می کنند. سپس مدل ها را بر اساس > بر اساس نحوه عملکرد آنها بر روی داده های درون نمونه مرتب می کنند و بهترین آنها را برای آزمایش > روی داده های خارج از نمونه انتخاب می کنند. تمایل انسان این است که مدل هایی را انتخاب کند که در داده های خارج از نمونه عملکرد خوبی دارند و آن مدل ها را برای تجارت انتخاب کنند. این نوع فرآیند به سادگی دادههای خارج از نمونه را به بخشی از دادههای آموزشی تبدیل میکند، زیرا مدلهایی را انتخاب میکند که بهترین عملکرد را در دوره خارج از نمونه داشتهاند. این یکی از رایج ترین خطاهایی است که افراد مرتکب می شوند و یکی از دلایلی است که داده کاوی همانطور که معمولاً اعمال می شود نتایج وحشتناکی به همراه دارد. مصاحبهکننده میپرسد: «بهجای آن چه باید بکنید؟»: > میتوانید الگوهایی را جستجو کنید که به طور متوسط، همه مدلهای خارج از نمونه به کار خود ادامه دهند. اگر میانگین مدل های خارج از نمونه درصد قابل توجهی از امتیاز درون نمونه باشد، می دانید که خوب کار می کنید. > به طور کلی، اگر نتایج خارج از نمونه > بیش از 50 درصد نتایج درون نمونه باشد، واقعاً به جایی می رسید. اگر SAS و IBM نرمافزار مدلسازی پیشبینیکننده عالی میساختند، مدل کسبوکار QIM هرگز کار نمیکرد. **سوالات من** آیا این منطقی است؟ منظور او چیست؟ آیا سرنخی دارید - یا شاید حتی نامی برای روش پیشنهادی و برخی منابع؟ یا این مرد جام مقدس را یافته است که هیچ کس دیگری نمی فهمد؟ او حتی در این مصاحبه می گوید که روش او به طور بالقوه می تواند علم را متحول کند...
|
روش انقلابی جدید داده کاوی؟
|
32938
|
برای انجام PCA و سپس Gower Similarity به کمک نیاز دارید
|
|
111355
|
من یک مبتدی مطلق در آمار هستم. لطفاً هرگونه فرضیات غلط یا اطلاعات گمشده در سؤال من را معذور کنید. من یک سوال دارم که به توزیع چندجمله ای مربوط می شود (حتی 100٪ در این مورد مطمئن نیستم) که امیدوارم کسی بتواند به من کمک کند. اگر از یک متغیر طبقهای که بیش از دو نتیجه احتمالی دارد (به عنوان مثال آبی، سیاه، سبز، زرد) نمونهای بگیرم (فرض کنیم $n=400$) و فرکانسها را رسم کنم تا بتوانم احتمالات را استخراج کنم. به عنوان مثال: سیاه 10٪ آبی، 25٪ سبز، 35٪ زرد 30٪ چگونه می توانم فاصله اطمینان 95٪ را برای آن احتمالات محاسبه کنم؟ و چگونه می توانم حجم نمونه مورد نیاز را برای به دست آوردن یک نتیجه دقیق در 3-% برای هر احتمال تعیین کنم؟ لطفاً اگر پاسخ به سؤال نیاز به اطلاعات اضافی دارد، به من اطلاع دهید.
|
فاصله اطمینان و احتمالات چند جمله ای اندازه نمونه
|
19465
|
در کلاس یادگیری ماشین خود، اخیراً با برآورد پنجره Parzen برخورد کردیم. عبارت زیر بیان شد: فرض کنید $\hat p_n$ تخمینگر $\hat p$ با استفاده از نقاط داده $n$ باشد و اجازه دهید $p (x)$ توزیع واقعی داده ها باشد. برای یک تخمین قابل قبول، میخواهیم: $$\lim_{n \to \infty}{\mathbb{E}[\hat p_n (x)]} = p(x)$$ $$\lim_{n \to \infty}{\text{Var}[\hat p_n (x)]} = 0$$ اولین شرطی که من میتوانم به صورت «بیطرف مجانبی» تعبیر کنم. اما با ترکیب شرط دوم، من تفاوتی با نیاز به فقط $$\lim_{n \to \infty}{\hat p_n(x)} = p(x) نمی بینم.$$ آیا جنبه ای وجود دارد که من هستم وجود ندارد، یا این دو فرمول معادل هستند؟
|
نیاز همگرایی برآوردهای پنجره پرزن
|
95159
|
پیام خطا با MANOVA
|
|
111354
|
من در حال مدل سازی یک طبقه بندی برای پیش بینی ریزش ها هستم. من مجموعهای از نمونههای آموزشی دارم که چندین شکل (ویژگیها، برچسبها) هستند که در آن برچسب میگوید آیا آنها فعال هستند (برچسب را به عنوان A صدا کنید) یا از 31 ژوئیه 2014 (برچسب تماس بگیرید) به عنوان C). اکنون مشکل اینجاست: آیا اصلاً قابل توجیه است که بگوییم یک نمونه آموزشی خاص A است؟ دلیل آن این است: از 31 ژوئیه 2014 آنها فعال هستند، اما ممکن است در ماه آگوست از بین بروند بنابراین واقعا نمونه ای از یک نمونه فعال نیستند. مشکل این است که ما نمیتوانیم به آینده نگاه کنیم، بنابراین غیرممکن و نادرست است که یک نمونه را فقط با دیدن رفتار آن تا 31 ژوئیه 2014 با یک A برچسب گذاری کنیم. تنها چیزی که می دانیم این است که این نمونه از 31 ژوئیه 2014 فعال است، اما به این معنی نیست که ممکن است در آینده دچار مشکل نشوند، بنابراین برچسب زدن A ممکن است اشتباه باشد. اکنون کل مشکل از بین میرود زیرا من واقعاً نمیتوانم مجموعهای آموزشی بسازم که نمونههایی با عنوان فعال داشته باشد. آیا راهی برای حل این مشکل یا رفع ناهماهنگی وجود دارد؟
|
ناهماهنگی در برچسب گذاری یک کلاس برای یک مشکل پیش بینی ریزش
|
88319
|
مدل مناسب برای آزمایش اثرات مکان، گونه و اندازه بر رشد درخت چیست؟ بنابراین من متغیرهای مقوله ای و پیوسته را در مدل دارم. نمودار زیر فقط یک نمودار منفرد را نشان می دهد که در دو دوره زمانی متوالی اندازه گیری شده است، هر نقطه بر اساس اندازه آن مقیاس بندی شده و بر اساس گونه رنگ شده است. من می خواهم اندازه درخت تغییر (نقطه) را به عنوان تابعی از اندازه همسایه، فاصله، گونه و اندازه اولیه مدل کنم.  با تشکر!
|
مدل صریح فضایی برای آزمایش اثرات متغیرهای متعدد
|
88315
|
من استقلال دو متغیر A و B را آزمایش می کنم که با C طبقه بندی شده اند. با اجرای آزمون دقیق فیشر برای A و B (همه اقشار ترکیبی)، دریافت می کنم: ## (B) ## (A) FALSE TRUE ## FALSE 1841 85 ## TRUE 915 74 OR: 1.75 (1.25 - 2.44)، p = 0.0007 * که در آن OR نسبت شانس است (تخمین و 95٪ فاصله اطمینان)، و * به این معنی است که p <0.05. با اجرای آزمون مشابه برای هر لایه (C)، من دریافت می کنم: C=1، OR: 2.31 (0.78 -- 6.13)، p = 0.0815 C=2، OR: 2.75 (1.21 -- 6.15)، p = 0.0088 * C = 3، OR: 0.94 (0.50 - 1.74)، p = 0.8839 C=4، OR: 1.48 (0.77 -- 2.89)، p = 0.2196 C=5، OR: 3.38 (0.62 - 34.11)، p = 0.1731 در نهایت، اجرای آزمون کوکران-مانتل-هنزل (CMH) با استفاده از A، B و C، دریافت می کنم: OR: 1.56 (1.12 -- 2.18)، p = 0.0089 * نتیجه آزمون CMH نشان می دهد که A و B در هر لایه **مستقل نیستند (0.05 < p). با این حال، اکثر آزمونهای درون لایهای غیر معنیدار بودند، که نشان میدهد ما شواهد کافی برای رد مستقل بودن A و B در هر طبقه نداریم. بنابراین، چه نتیجه ای درست است؟ چگونه می توان نتیجه گیری را با توجه به آن نتایج گزارش کرد؟ آیا می توان C را یک متغیر مداخله گر در نظر گرفت یا خیر؟ ویرایش: من آزمون Breslow-Day را برای این فرضیه صفر انجام دادم که نسبت شانس در بین طبقات یکسان است و p-value 0.1424 بود.
|
چگونه تست کوکران-مانتل-هنزل را تفسیر کنیم؟
|
111359
|
مطالعه من به بررسی تأثیرات نوع محفظه (1 IV (قلمدار v بدون قلم)) بر رفتارها و تعاملات کلیشهای (2 DV (شمارش)) فیلها است، اما با استفاده از باران (بله/خیر) و دماهای بالا و پایین به عنوان متغیرهای کمکی همان 9 فیل سال گذشته در حالی که در قلم بودند و امسال دوباره زمانی که در قلم نبودند مورد مطالعه قرار گرفتند. به من گفته شده است که باید یک GEE انجام دهم، اما نمی دانم چگونه این کار را انجام دهم، چه رسد به درک خروجی. همچنین من نمی دانم که چگونه باید در SPSS تنظیم شود.
|
نحوه انجام و تفسیر یک معادله برآورد تعمیم یافته
|
88317
|
من در مراحل اولیه ساخت یک مدل رگرسیون پانل از داده های فروش هستم. من می دانم که مجموعه داده مدل نهایی من شامل فروش گزارش، متغیرهای کنترل و متغیرهای رسانه گزارش است. من قصد دارم از stl() برای تجزیه سری زمانی فروش گزارش استفاده کنم. سوال من: اگر بخواهم یک مدل سری زمانی چند متغیره ایجاد کنم، آیا منطقی است که متغیر وابسته را در مرحله تجزیه و تحلیل داده های اکتشافی (EDA) تجزیه کنم؟ آیا مؤلفه فصلی/ روند در تجزیه به من چیزی در مورد سری های زمانی من می گوید که من انتظار کنترل این عوامل در RHS معادله مدل را دارم؟
|
سودمندی تجزیه سری های زمانی در ساخت یک مدل چند متغیره چیست؟
|
73977
|
سوال من در عنوان است. من فکر نمیکنم که X و Y به طور مشترک پیوسته باشند، اما نمیتوانم مثال متقابلی را در نظر بگیرم که x و y به طور مشترک پیوسته نباشند.
|
فرض کنید X و Y هر کدام پیوسته هستند. آیا آنها به طور مشترک مستمر هستند؟
|
88312
|
من یک سوال دارم که ممکن است بسیار بدیهی به نظر برسد اما واقعاً پاسخ خوبی برای آن ندارم. الگوریتمهای زیادی وجود دارند که با ابهامزدایی از معنای کلمه سروکار دارند، اما همه آنهایی که من دیدهام، فرض میکنند که کلمات مبهم از قبل شناخته شدهاند. یعنی معمولاً آنها به مجموعه داده ای اعمال می شوند که در آن کلمات مبهم شناخته شده وجود دارد (مانند گیاه، جت، بانک و غیره). سوال من این است که اگر مجموعه داده متنی کاملا جدیدی به شما داده شود که ممکن است کلمات مبهم در آن وجود داشته باشد یا نه، چه می شود. بدیهی است که قبل از اینکه بتوانید یک الگوریتم ابهامزدایی با حس کلمه را به کار ببرید، باید بدانید که آن را روی کدام کلمات اعمال کنید. بنابراین سوال من این است که با توجه به یک متن ناشناخته، چگونه بفهمیم کدام کلمات مبهم هستند (کلماتی که باید الگوریتم WSD را روی آنها اعمال کنیم) و کدام کلمات مبهم هستند. من می توانم به دو روش ممکن فکر کنم 1) فهرست بزرگی از کلمات مبهم را جمع آوری کنم و بررسی کنم که آیا هر یک از آنها در متن وجود دارد یا خیر.
|
ابهام زدایی معنای کلمه در عمل
|
93138
|
در حین مطالعه برای امتحان یادگیری ماشینی، با مشکلی مواجه شدم که نمی توانم آن را درک کنم. در مسئله، ما این پرسپترون را داریم که 3 ورودی باینری (0 یا 1) a,b,c با وزن های مربوطه 1،2،1 و بایاس 1.5 دارد. سوال این است که تابع منطق بولی که توسط پرسپترون باینری پیاده سازی می شود چیست و پاسخ b + ac، (b OR (a AND c)) است، اما نمی توانم بفهمم چرا این پاسخ صحیح است. منطق من این است که طبق قاعده ای که در این مورد مجموع خالص باید > آستانه (1.5) باشد، اگر ورودی a و c روشن باشند، پرسپترون باید 1 را شلیک کند، که طبق پاسخ اشتباه است زیرا b است. برای بودن آیا کسی می تواند به من کمک کند تا این را بفهمم؟ با تشکر
| |
39073
|
هنگامی که من PCA را روی یک مجموعه داده خاص اجرا می کنم، آیا راه حلی که به من داده می شود منحصر به فرد است؟ یعنی من مجموعه ای از مختصات 2 بعدی را بر اساس فواصل بین نقطه ای به دست می آورم. آیا می توان حداقل یک ترتیب دیگر از نقاطی را یافت که این محدودیت ها را برآورده کند؟ اگر پاسخ مثبت است، چگونه می توانم چنین راه حل متفاوتی پیدا کنم؟
|
آیا راه حل های PCA منحصر به فرد هستند؟
|
39077
|
اگر یکی از ویژگی های اشیاء من رنگ است، چگونه می توان شباهت بین دو شی را محاسبه کرد؟ آیا تبدیل آن به RGB و استفاده از فاصله اقلیدسی در سه بعدی صحیح است؟ یا آیا ترتیب یک بعدی قابل قبولی از رنگ ها وجود دارد (مانند مورد رنگین کمان)؟
|
اندازه گیری شباهت بین دو رنگ؟
|
73978
|
من در حال تلاش برای حل مشکلی به شکل $\min_x \frac{1}{2}||Ax-b||^2_2 + \frac{\rho}{2}||x-z||^2_F$ هستم که در آن هم $x$ و هم $b$ ابعاد بالایی دارند و $b$ ابعادی بسیار بالاتر از $x$ دارند. راه حل با $x^* = (A^T A+\rho I)^{-1}(A^T b + z)$ داده می شود، اما مشکل آنقدر بزرگ است که حتی وارونه کردن $A^T A + \rho I$ غیر ممکن است. با این حال، به دلیل ساختار مشکل، میتوانیم به طور موثر در $A$ و $A^T$ ضرب کنیم. اساساً این رگرسیون خطی خطی در مقیاس بزرگ است. الگوریتم ایده آل برای اجرای کارآمد این کمینه سازی چیست؟ آیا چیزی مانند گرادیان دو مزدوج کار می کند؟
|
رگرسیون خط الراس در مقیاس بزرگ
|
103327
|
وظیفه من بهبود کیفیت ویجت از یک فرآیند تولید با حجم بالا است. دادههای بقا 99% درست سانسور شدهاند، زیرا اکثر محصولات شکست نمیخورند و تجزیه و تحلیل سریع مدتها قبل از شکست برای بدست آوردن ارزش تجاری ضروری است. اهداف عبارتند از: 1. تغییر فرآیند تولید برای توقف ساخت ویجت های پرخطر. این به اندازه اثر در زبان تجزیه و تحلیل بقا 2 نیاز دارد. ویجت هایی را انتخاب کنید که ریسک بازگشت بالایی دارند برای مدیریت جداگانه. این نیاز به پیش بینی سطح ویجت دارد. سانسور درست باعث میشود که Survival Analysis (که قبلاً انجام ندادهام) نسبت به پیشبینی معمولی (که بسیاری از آنها را انجام دادهام) مناسب باشد. من هزاران متغیر مشترک در مورد ویجت ها دارم که روش های فرم بسته را مطلوب می کند. به نظر میرسد که مدلهای زمان شکست تسریع شده در تولید بسیار محبوب هستند. توزیع لجستیک یک مدل متداول زمان شکست تسریع شده (AFT) با فرم بسته است. سوالات من این است: 1. آیا می توانم اندازه های افکت را از AFT دریافت کنم؟ 2. آیا می توانم پیش بینی سطح مشاهده را از AFT دریافت کنم؟ 3. آیا می توانم AFT را به ده ها هزار متغیر کمکی مقیاس دهم؟ 4. آیا می توانید پیاده سازی AFT را در پایتون پیشنهاد دهید؟ 5. آیا می توانید اجرای R برای AFT را پیشنهاد دهید؟ 6. آیا جایگزینی برای AFT برای پیشنهاد دارید؟ با تشکر
|
پیش بینی زمان بقای تولید
|
99469
|
با استفاده از بسته «lme4»، «ranef()» چگونه تخمینهای اثرات تصادفی را از یک شی «glmerMod» محاسبه (یا استخراج میکند)؟ به نظر می رسد که اثرات تصادفی مربوط به model@u باشد، اما چه رابطه ای وجود دارد؟ در یک یادداشت مرتبط، آیا کسی منبعی را میشناسد که به تفصیل توضیح دهد که هر یک از اجزای یک شی «glmerMod» در واقع چیست؟ من می توانم برخی از آنها را کشف کنم (به عنوان مثال model@beta)، اما بیشتر آنها یک راز باقی می مانند.
|
محاسبه افکتهای تصادفی از یک شی glmerMod (r بسته lme4)
|
56629
|
عامل عادی سازی اشتباه است؟ (اشکال؟)
|
|
99468
|
من سعی می کنم از شبیه ساز GHK برای تخمین احتمالات $F(\mathbf{x} > k\mathbf{a})$ استفاده کنم که مقادیر یک بردار تصادفی همبسته با ابعاد بالا ($n>1000$) $\mathbf {x}$ از بردار آستانه $\mathbf{a}$ فراتر خواهد رفت که به صورت خطی با $k$ با $k \rightarrow مقیاس شده است. \infty$. رویکرد GHK به اندازه کافی ساده به نظر می رسد (به عنوان مثال در اینجا)، با این حال نتایج پیاده سازی MATLAB من بسیار ناامید کننده است. برای سناریوی من می دانم که برای مقادیر بزرگ $k$، $F$ نسبتاً کوچک خواهد بود (به عنوان مثال $<10^{-6}$). (من میتوانم این را با استفاده از رویکرد brute force Monte-Carlo تأیید کنم.) با این حال، پس از تخمینهای اولیه خوب برای k$ کوچک، احتمالات بازگشتی توسط شبیهساز GHK شروع به نوسان در اطراف مقداری میکنند (مثلاً $ \sim 10^{-3} $) و در نهایت به صفر کاهش می یابد (با تبدیل CDF های محاسبه شده به یک). سوالات من این است: * آیا شبیه ساز GHK اساساً برای استفاده با داده های با ابعاد بالا نامناسب است یا راه حلی وجود دارد که از مشکلات عددی جلوگیری کند؟ * چند بردار نمونه باید تولید کنم؟ در حال حاضر من از 1000 نمونه برای هر مقدار k$ استفاده می کنم. استفاده از عدد بزرگتر نتایج را اندکی بهبود می بخشد، با این حال، از نظر زمان محاسبات، مزیت رویکرد GHK در مقایسه با رویکرد brute-force MC نفی می شود. * آیا رویکرد مناسب تری برای این نوع مشکلات وجود دارد؟
|
احتمالات دم و شبیه ساز GHK
|
43102
| ||
25694
|
آیا کسی می داند که چگونه می توان اهمیت شیب را از مدل خطی برازش شده با استفاده از حداقل مربعات تعمیم یافته (GLS) تعیین کرد؟ من یک مدل خطی را به سری های زمانی دما با هدف ارزیابی روندها با استفاده از تابع gls در بسته nlme برازش می کنم، اما نمی توانم مقدار p-value (s) برای شیب در خروجی های مدل را بفهمم. من GLS را به دلیل همبستگی سریال انتخاب کردم.
| |
102948
|
 قسمت دومی است که من با آن مشکل دارم. من Y را از x به x+u و X را از 0 تا 1 امتحان کردم: کار نکرد! بنابراین محدودیت های صحیح در این مورد (که پاسخ لازم را به شما می دهد) چیست؟
|
تابع توزیع تجمعی را پیدا کنید
|
46550
| ||
46553
| ||
74798
|
چگونه می توان ماتریس کوواریانس مجانبی را زمانی که ماتریس اطلاعات مشاهده شده تکی است به دست آورد
|
|
74793
|
واحدهای تبدیل Box-Cox و مقیاس بندی
|
|
81133
|
من تعدادی سری دارم که با هم ترکیب شده اند، بنابراین می دانم که باید با یک مدل VECM مناسب باشم. با این وجود، هیچ راهنمایی برای یافتن طول تاخیر بهینه، مثلا lagLength، پیدا نکردم. من از بسته vars R استفاده می کنم. برای بررسی هم انباشتگی از ca.jo(..,K=cointegrationLength) استفاده کردم سپس از cajorls برای تناسب با cajoorls های VECM (...,K=lagLength) استفاده کردم. من متوجه نشدم: 1\. تعامل صحیح بین K در هر دو تابع. 2\. معیار بهینه برای انتخاب طول تاخیر
|
طول تاخیر بهینه در VECM با استفاده از بسته vars R
|
4043
|
من چند سری زمانی دارم که (به دلایل فنی) با فواصل زمانی کمی متفاوت، بین 19 تا 21 ثانیه به دست آمدند. اکنون، من میخواهم مقادیر این سریهای زمانی مختلف را در طول زمان میانگین بگیرم، بنابراین فکر کردم که میتوانم نوعی درونیابی مقادیر را در یک بازه زمانی منظم انجام دهم (مثلاً هر 20 ثانیه). آیا کسی می تواند یک راه خوب برای انجام این کار را نشان دهد؟ ممنون نیکو
|
میانگینگیری سریهای زمانی با فاصله نمونهگیری متفاوت
|
100096
|
 من از SAS استفاده می کنم و به مشکلی برخوردم. من یک مجموعه داده با چند متغیر/ستون دارم که یکی از آنها فقط مقادیر زیر را دارد: «آبی»، «قرمز» و «خاکستری». چگونه می توانم این مقادیر را به متغیرهای مربوطه تبدیل کنم و «تعداد» را همانطور که در جدول دوم نشان داده شده است به عنوان مقادیر اختصاص دهم؟
|
SAS: چگونه می توان متغیرهایی را از مقادیر داده شده در یک ستون خاص از یک جدول ایجاد کرد؟
|
65977
|
در الگوریتم انتشار پسانداز وقتی تابع فعالسازی خروجی «tanh» و تعداد کلاسها 2 است (مسئله باینری)، مقدار بهدستآمده در لایه خروجی در محدوده بین 1- تا 1 است. تابع خطای آنتروپی متقاطع « log` که روی مقادیر پیش بینی شده اعمال می شود. بنابراین، اگر یکی از مقادیر خروجی یک عدد منفی باشد، یک عملیات نامعتبر، یعنی log (عدد غیر مثبت) رخ می دهد که تابع آنتروپی متقاطع را نامعتبر می کند. این به سؤالات زیر خلاصه می شود: * آیا تنظیم فعال سازی خروجی به عنوان 'tanh' مجاز نیست؟ * آیا فعال سازی خروجی همیشه باید softmax باشد حتی برای یک مشکل کلاس باینری؟
| |
27275
|
من در حال خواندن یادداشتهای اندرو نگ در مورد یادگیری ماشین هستم، و در صفحه 12 این سند، او قدمی در اثبات خود برمیدارد که میخواهم رمزگشایی کنم: اجازه دهید $\textbf{x} = \left( 1 , x_1 , x_2 , \cdots , x_n \right)^T$، بردار متغیرها و $\theta = \left( \theta_0 , \theta_1، \theta_2، \cdots، \theta_n \right)^T$، بردار ضرایب خطی آن متغیرها. بیایید $y$ را به صورت $$y = \theta ^T \textbf{x} + \epsilon$$ تعریف کنیم که در آن $\epsilon \sim \mathcal{N}(0,\sigma^2)$، یعنی $$p (\epsilon) = \frac{1}{\sqrt{2 \pi}}\exp \left( -\frac{\epsilon^2}{2\sigma^2}\right).$$ خط بعدی موارد زیر را در مورد احتمال شرطی $y$ با توجه به $\textbf{x}$ و ضرایب $\theta$ میگوید. به عنوان قطعی تلقی می شوند: $$p(y|x;\theta) = \frac{1}{\sqrt{2 \pi}}\exp\left( -\frac{(y- \theta ^T \textbf{x})^2}{ 2\sigma^2}\right)$$ آیا کسی می تواند به من کمک کند ببینم چگونه این توزیع شرطی را دریافت می کنیم؟
| |
81138
|
من داده های تابلویی دارم که شامل ایالت های آمریکا (1-48) و سال های (1900-1917) می شود. همه متغیرها با یک استثنا با زمان متغیر هستند. این استثنا زمان ثابت است و یک متغیر دستهبندی سه سطحی است که تعیینهای منطقهای را برای ایالات آزمایش شده با استفاده از دو متغیر ساختگی اندازهگیری میکند. من همچنین می خواهم به تعامل بین یکی از ساختگی ها و چندین متغیر با زمان متغیر نگاه کنم. برآورد OLS از این مدل نشان دهنده ناهمسانی است. بنابراین با توجه به سازماندهی داده ها، سوال من این است که کدام یک از تکنیک های پانل بهترین است و چرا؟ من از Stata استفاده می کنم. با تشکر، RB
|
بهترین تکنیک برای رگرسیون پانل (اولها، ثابت، بین، اثرات تصادفی) چیست؟
|
25524
|
قبل از انجام کار متن کاوی، باید ویژگی های مشخص کردن هر سند داده شده را انتخاب کنیم. آیا راهنمایی سیستماتیک برای انتخاب ویژگی های سند وجود دارد؟ طول سند چگونه بر روند انتخاب ویژگی برای اسناد تأثیر می گذارد؟
| |
69249
|
اگر این یک سؤال برای CrossValidated خیلی ابتدایی است و باید به جای دیگری مراجعه کنید، لطفاً به من اطلاع دهید. به من یک مدل خطی در R داده شده است شبیه به: model = lm (y ~ x1 + x2 + x3، داده = مجموعه نمونه) ... که وقتی مجموعه ای از داده ها را تغذیه می کند و رسم می کند نمودار زیر را ایجاد می کند:  خط مرکزی آبی روشن نشان دهنده پیش بینی رگرسیون خطی است. ناحیه آبی نشاندهنده 2 انحراف استاندارد از مورد انتظار در هر جهت، با استفاده از خطای استاندارد باقیماندهها است: # se_: تعداد خطاهای استاندارد دور از مقدار پیشبینیشده se_thresh = 2 # خطای استاندارد باقیماندهها res_se = sd(model$residuals) # برای هر عضو در نمونه if(model$fitted.values[j] < (i - se_thresh*res_se)){ مجموعه داده$mark_good[j] = TRUE } به من گفته شده است که میتوانیم استنباط کنیم که کدام اعضای نمونه به طور غیرعادی «خوب» یا «بد» هستند، بر اساس اینکه آیا امتیازات واقعی 2 SE بالاتر یا کمتر از مقدار پیشبینیشده است. من تعجب می کنم: * چرا مقایسه اعضا بر اساس SE باقیمانده ها بهتر/ معتبرتر از مقایسه ساده n با انحراف استاندارد است که ساده تر است و نیازی به مدل ندارد؟ * چه خطای استاندارد باقیمانده ها به طور شهودی در مدل نشان می دهد
|
شناسایی نقاط پرت بر اساس خطای استاندارد باقیمانده ها در مقابل انحراف استاندارد نمونه
|
100093
|
ما سعی می کنیم حداقل مربعات غیرخطی را در R برازش کنیم. ما کد مرجع در MATLAB به صورت زیر داریم. A = [ -4.09549023 -1.5924967 -5.2775267 0.7195365 -1.4681932; -0.09302291 0.2538085 0.6080219 0.1413484 -0.4614447; 1.00000000 1.0000000 1.0000000 1.0000000 1.0000000؛] b = [-0.52701539; 0.08974224; 1.000000000; 1.000000000] (w,on b) 0.1377 0.6700 0.1922 res = 1.2519e-32 اگر همین مورد را در R امتحان کنیم، نتایج کاملاً متفاوت است. یک <- rbind(cbind(4.09549023، -1.5924967، -5.2775267، 0.7195365، -1.4681932)، cbind(-0.09302291، 0.253808084، 0.22538085، 0.2538085، 0.194، 0. -0.4614447)، cbind(1.00000000، 1.0000000، 1.0000000، 1.0000000، 1.0000000)) b <- rbind(-0.52701539، 0.0000000000، 0.0000000-0. lsqnonneg(A,as.vector(b)) $x [1] 0.2212015 0.1986838 0.1890215 0.2080815 0.1830117 $resnorm [1] 4.889664e-21] [10.1، 10.7] [10.10، 1.7] [2,] 4.866847e-10 [3,] -3.743827e-11 مشکل اینجاست، اگرچه مقادیر ورودی «A» و «b» یکسان هستند، و روشهایی که هم در R و هم در MATLAB فراخوانی میشوند، هدف یکسانی دارند. (یعنی برازش حداقل مربعات غیر منفی) باقیمانده ها در هر دو مورد متفاوت هستند. «resnorm» = 4.889664e-10 در R و «res» = 1.2519e-32 در MATLAB. اگر کسی بتواند به اشتباه آشکاری در نتایج اشاره کند یا روش جایگزینی را در R برای مطابقت با متد در MATLAB پیشنهاد کند، واقعاً جای تشکر دارد.
|
lsqnonneg - تنوع بین نتایج در R و MATLAB
|
100091
|
ما 6 ترانسکت در 6 سایت مختلف داریم (6 ترانسکت در هر سایت). هر سایت به دو ناحیه تقسیم میشود، بنابراین در مدل ما داریم: Site (ضریب طبقهبندی ثابت) و منطقه (عامل طبقهبندی تصادفی تو در تو در سایت). در طول هر ترانسکت، ما وقوع بیماریها (متغیر پاسخ پیوسته ما) و پوشش کف (متغیر کمکی پیوسته) را اندازهگیری کردیم. برای آزمایش رابطه بالقوه بین شیوع بیماری و پوشش اعماق دریا، ما از یک مدل افزایشی تعمیم یافته استفاده کردیم (توزیع غیر پارامتری متغیر پاسخ ما و هیچ فرضی پیشینی در مورد شکل رابطه). من مدل های زیادی را روی R امتحان کرده ام، اما صادقانه بگویم، کمی گم شده ام زیرا به نظرم می رسد که امکانات بی نهایت وجود دارد. ابتدا مدل زیر را اجرا کردم: model_1<-gam(رویداد ~ s(پوشش) + سایت + منطقه، داده = df) اما مطمئن نیستم که آیا باید از اسپلاین های هموارسازی روی فاکتورهای طبقه بندی نیز استفاده کنم (مانند مدل_2). من آن را در پست های دیگر دیده ام اما نمی دانم که آیا منطقی است؟ model_2<\- gam(Occurrence ~ s(Cover) + s(Site) + s(Zone)، data=df) نه model_1 و نه model_2 این واقعیت را در نظر نمی گیرند که Zone در داخل سایت قرار دارد و یک عامل تصادفی است. من این را امتحان کردم: model_3<\- gam(وقوع ~ s(پوشش) + s(سایت) + s(منطقه، bs=”re”)، data=df) model_4<-gam(رویداد ~ s(پوشش)+ Site + s(Site, Zone, bs=re),data=df) به من توصیه شد از مدل ترکیبی افزودنی تعمیم یافته استفاده کنم زیرا هر دو را داشتم عوامل ثابت و تصادفی در طراحی من، این کار را آسانتر نکرد. آیا توصیه ای دارید که چه مدلی مناسب تر است و چگونه Zone را به طور تصادفی و تو در تو در سایت قرار دهید؟ البته من می دانم که پارامترهای زیادی وجود دارد که باید در نظر بگیریم (توزیع خانواده، عملکرد پیوند، گره ها و غیره) اما در حال حاضر می خواهم این سوال را محدود کنم. این مسائل احتمالاً برای بسیاری از افراد تازه وارد GAM گیج کننده است و امیدواریم که کمک شما برای بسیاری از کاربران مفید باشد.
|
از جمله جلوه تصادفی تو در تو در یک GAM
|
25529
|
توزیع های روی ربع k بعد مثبت با ماتریس کوواریانس قابل پارامتریزاسیون چیست؟
|
|
35496
|
ما آزمایشی برای برانگیختن یک سیستم با مقداری انرژی داریم، سپس فروپاشی را به عنوان تابعی از زمان اندازه گیری می کنیم. ما دادهها را 4 برابر $t$ اندازهگیری میکنیم تا با یک مدل نمایی متناسب شوند: $y = a \exp(-t/p) + c$، که در آن پارامترهای $a، p$، و $c$ را برازش میکنیم. احتمالاً باید اشاره کنم که یک تحریک و 4 اندازه گیری وجود ندارد، بلکه ما 4 بار تحریک می کنیم و زمان خود را از برانگیختگی به اندازه گیری تنظیم می کنیم - بنابراین هر اندازه گیری به طور مستقل انجام می شود. ما نسبت به دستگاه اندازه گیری سیگنال به نویز بسیار خوبی داریم، با این حال شی مورد نظر ممکن است در طول آزمایش حرکت کند یا نکند که منجر به خطای غیرقابل پیش بینی در یک یا چند نقطه داده می شود. پارامتر $p$ مهمترین است و ما یک محدوده فیزیکی پیشینی برای این پارامتر می دانیم. ما باید این اندازه گیری را در یک زمان ثابت انجام دهیم و حداکثر 8 اندازه گیری را زمان داریم. در حال حاضر، ما دو بار در هر یک از 4 نقطه زمانی، داده ها را جمع آوری می کنیم، بنابراین اساساً دو آزمایش مجزا داریم. من خیلی سوال دارم، در واقع :)، اما یکی از آنها برایم جالب است این است که آیا بهتر است دو اندازه گیری در 4 نقطه زمانی جمع آوری شود یا اینکه بهتر است 8 اندازه گیری در نقاط زمانی مختلف جمع آوری شود (ظاهراً برای توصیف بهتر پوسیدگی). منحنی). ما آزمایش را در حداکثر 16 نقطه زمانی انجام دادیم و مطابقت خوبی با آزمایش 4 نقطه زمانی پیدا کردیم. سوالات دیگری که من دارم مربوط به نحوه تشخیص اندازه گیری های بد در مجموعه داده های نقطه زمانی 2X 4 است. هر ایده ای بسیار قدردانی می شود! من در آمار خیلی خوب یاد نگرفته ام، بنابراین اگر پیشنهاداتی در زمینه مطالعه پیشینه یا مطالب مرتبط با این مشکل دارید، عالی خواهد بود! ممنون!!
|
برازش داده ها با اندازه گیری های مکرر
|
195
|
من به دنبال تطبیق توزیعها با دادهها (با تمرکز ویژه بر روی دم) هستم و به جای کولموگروف- اسمیرنوف به آزمونهای اندرسون-دارلینگ متمایل هستم. به نظر شما مزیت های نسبی این یا سایر آزمون ها برای تناسب (مثلاً کرامر-فون میزس) چیست؟
| |
74240
|
افزایش گرادیان در R تنها از یک متغیر استفاده می کند
|
|
47181
|
احتمالاً یک سؤال نوب است زیرا من نوب هستم. من دو سکه A و B دارم. برای هر سکه یک نمونه از نتایجی که با پرتاب کردن آن به دست میآورم دارم. فرضیه صفر من این است که A احتمال فرود روی HEAD برابر یا بیشتر از B دارد، اما این احتمال ناشناخته است (و همچنین احتمال B). با این حال، دادهها به من نشان میدهند که به نظر میرسد احتمال فرود B روی HEAD بیشتر است. چگونه می توانم فرضیه صفر را آزمایش کنم؟ به نظر من یک آزمون t ساده کار نخواهد کرد - پرتاب سکه برنولی توزیع می شود، و به طور معمول توزیع نمی شود. من به این فکر کردم که هر نمونه را به نمونه های فرعی تقسیم کنم، نسبت HEAD ها را در هر نمونه فرعی به عنوان یک متغیر تصادفی که تقریباً مانند یک متغیر معمولی توزیع می شود، در نظر بگیرم و سپس از آزمون t استفاده کنم. با این حال، به نظر می رسد این یک راه حل پیچیده (و نادرست) برای یک سوال اساسی (اصلی ترین؟) باشد. امتیاز جایزه: اندازه اثر چقدر است؟
|
چگونه تست کنیم که آیا دو سکه بایاس های متفاوتی دارند؟
|
43747
|
با استفاده از روش موجود در این پست، من طرحی برای تجسم تعامل بین دو متغیر پیش بینی با استفاده از بسته افکت در r ایجاد کرده ام، اما من واقعاً مطمئن نیستم که به چه چیزی نگاه می کنم. ارتفاع جزر و مد و میانگین باران پیوسته است. 8 سطل حداکثر مقداری بود که تابع به من اجازه استفاده از آن را می داد. زیر فراخوانی برای «اثر» است که این طرح را تولید می کند: R > plot(effect(term=rain.avg2:tide.avg,mod=bkrain9.lm,default.levels=8)، main=، xlab =بارش - میانگین 24 ساعت (سانتی متر), ylab=expression(غلظت TCB - CFU*100m*L^-1)، multiline=TRUE) **نقشه به روز شد.** آیا کسی می تواند هدف این ویژگی ترسیم را در زمینه تعاملات پیش بینی کننده توضیح دهد؟  زمینه: برای یک پروژه کلاسی، من یک مدل رگرسیون خطی برای ارزیابی اثرات برهمکنش بین دو متغیر پیش بینی (ارتفاع جزر و مد و رسوب) بر غلظت باکتری ها. غلظت باکتری های کلیفرم مقاوم به گرما در 5 مکان در روز نمونه برداری شد، جایی که یک زمان نمونه در پایان نمونه برداری ثبت شد. من میانگینی از اینها را برای تقریباً 20 روز گرفتم و میانگین بارش 24 ساعته مرتبط را قبل از اتمام نمونهبرداری و میانگین ارتفاع جزر و مد 50 دقیقه (مدت زمان نمونهبرداری) را قبل از اتمام نمونهبرداری محاسبه کردم.
|
چگونه می توانم نتایج حاصل از یک نمودار تعامل پایه را از بسته اثرات R تفسیر کنم؟
|
35493
|
من با استفاده از آزمون مجذور کای (تست نرخ نسبی تاجیما) 100 مقایسه انجام دادم و 100 مقدار p بدست آوردم. آیا به تنظیم P-value نیاز دارم؟ اگر بله، کدام یک از اصلاحات مناسب خواهد بود؟ من اینترنت و همچنین در این انجمن را بررسی کردم اما پاسخ این سوال خاص را نگرفتم.
|
آیا برای 100 مقایسه زوجی به تنظیم مقدار P نیاز دارم؟
|
46712
|
آیا بسته یا شبیهسازی برای شبیهسازی زنجیره مارکوف زمان گسسته وجود دارد؟ راه حل های Matlab/ Python
|
آیا بسته / شبیهسازی برای شبیهسازی زنجیره مارکوف زمان گسسته وجود دارد؟
|
57577
|
Correlogram در R مانند Stata؟
|
|
46719
|
زمانی که یک مدل خطی _a priori_ دارید که می خواهید تخمین بزنید، انتساب چندگانه نسبتاً ساده است. با این حال، زمانی که واقعاً میخواهید انتخاب مدلی انجام دهید، همه چیز کمی پیچیدهتر به نظر میرسد (مثلاً مجموعه «بهترین» متغیرهای پیشبینیکننده را از مجموعه بزرگتری از متغیرهای کاندید پیدا کنید - من به طور خاص به LASSO و چندجملهایهای کسری با استفاده از R فکر میکنم). یک ایده میتواند این باشد که مدل را در دادههای اصلی با مقادیر گمشده قرار دهید، و سپس این مدل را در مجموعه دادههای MI مجدداً برآورد کنید و برآوردها را همانطور که معمولاً انجام میدهید ترکیب کنید. با این حال، این مشکل به نظر می رسد زیرا شما انتظار جانبداری دارید (یا در غیر این صورت چرا MI در وهله اول؟)، که می تواند منجر به انتخاب یک مدل اشتباه از ابتدا شود. ایده دیگر این است که از هر فرآیند انتخاب مدلی که در هر مجموعه داده MI استفاده می کنید، استفاده کنید - اما اگر نتایج شامل مجموعه های متفاوتی از متغیرها باشد، چگونه می توانید نتایج را ترکیب کنید؟ یکی از فکرهای من این بود که مجموعهای از مجموعه دادههای MI را روی هم بگذارم و آنها را بهعنوان یک مجموعه داده بزرگ تجزیه و تحلیل کنم که سپس از آن برای جا دادن یک مدل واحد و بهترین استفاده کنید، و یک اثر تصادفی برای توضیح این واقعیت که از اندازهگیریهای مکرر برای آن استفاده میکنید، بگنجانید. هر مشاهده آیا این منطقی به نظر می رسد؟ یا شاید فوق العاده ساده لوحانه؟ هر گونه اشارهای در مورد این موضوع (انتخاب مدل با انتساب چندگانه) بسیار قدردانی خواهد شد.
|
انتساب چندگانه و انتخاب مدل
|
46715
|
من 14 کلاس زیستگاه مختلف و دو حالت فعالیت دارم (بنابراین دو متغیر - زیستگاه و فعالیت). برای وضعیت فعالیت A، تعداد دادههای من بیش از 300 است، اما با B، فقط حدود 30 (اندازههای نمونه نابرابر) دارم. من واقعاً میخواهم ببینم که آیا یک یا چند زیستگاه به طور قابل توجهی بیشتر از سایرین در طول هر حالت فعالیت استفاده میشود، اما سپس میخواهم تعداد زیستگاهها را بین حالتهای فعالیت مقایسه کنم تا ببینم از این نظر تفاوت قابل توجهی دارند یا خیر. من دو متغیر دیگر دارم، موقعیت مکانی و جنسیت، و همچنین میخواهم ببینم که آیا تعداد زیستگاه بین این دو متغیر است یا خیر. بدیهی است که ترکیب برخی از متغیرها نیز خوب خواهد بود، به عنوان مثال، اگر این امر منطقی باشد، آیا تعداد زیستگاه ها بین جنسیت بین سایت ها متفاوت است. من در حال حاضر از JMP8 استفاده می کنم زیرا تجربه بسیار محدودی با R دارم. من از مجذور کای و تجزیه و تحلیل احتمالی استفاده می کنم (اگرچه تعدادی از سلول های من تعداد بسیار کمی دارند، کمتر از 5، که مجذور خی با آنها مبارزه می کند). بهترین راه برای نزدیک شدن به این موضوع از نظر آماری چه خواهد بود؟ چگونه باید داده ها را قالب بندی کنم (در حال حاضر به جای شمارش، به صورت متنی است، زیرا طبقات زیادی در متغیر زیستگاه وجود دارد که مدیریت آن در غیر این صورت دشوار به نظر می رسد)؟ هر گونه کمکی بسیار قدردانی خواهد شد!!
|
نحوه تجزیه و تحلیل متغیرهای طبقه بندی شده با سطوح چندگانه
|
57576
|
من یک شرکت دارم که ضرر لگاریتمی (بازده لگاریتمی) را برای آن محاسبه کردم. اکنون میخواهم معادلهای متوسط را با بازدهها برازش کنم، بنابراین باید به برازش ARMA(p,q) فکر کنم. من به acf و pacf نگاه کردم و عکس زیر را دریافت کردم:  به نظر می رسد این یک AR یا MA ساده نیست؟ این چیه چی استفاده کنم داده ها را می توان در اینجا یافت. خوب است اگر برای من توضیح دهید که چه کاری انجام می دهید تا بدانم چه فرآیندی مناسب است.
| |
70543
|
مرز تصمیم گیری خطی SVM پس از تبدیل خطی داده ها
|
|
57578
|
گزارش معادلات رگرسیون برای نتایج غیر معنی دار
|
|
90422
|
از اصول پواسون، ما می دانیم که پواسون برای رویدادهای نادر کار می کند. با این حال، ما همچنین می دانیم که دوجمله ای تقریبی از پواسون است زمانی که احتمال یک رویداد کوچک است. بنابراین آیا میتوانیم دو جملهای و پواسون را به جای یکدیگر برای رویداد نادر استفاده کنیم؟ استفاده از یکی به جای دیگری چه فایده ای دارد؟
|
Poisson vs Binomial برای رویدادهای نادر
|
70545
|
من هرگز این فرصت را نداشتم که از یک دوره آمار از دانشکده ریاضی بازدید کنم. دنبال یک کتاب تئوری احتمال و آمار هستم که کامل و خودکفا باشد. منظور من از کامل این است که شامل همه شواهد است و نه فقط نتایج را بیان می کند. منظورم از خودکفایی این است که برای درک کتاب لازم نیست کتاب دیگری بخوانم. البته می تواند به حساب دیفرانسیل و انتگرال (دانشجوی ریاضی) و جبر خطی نیاز داشته باشد. من چندین کتاب را نگاه کردم و هیچ کدام را دوست نداشتم. * DeGroot & Schervish (2011) _احتمال و آمار (ویرایش چهارم)_ Pearson این به اندازه کافی کامل نیست. فقط مطالب زیادی را بدون اشتقاق بیان می کند. علاوه بر این من آن را دوست دارم. * واسرمن (2004) _ همه آمار: دوره مختصری در استنتاج آماری_ اسپرینگر. اصلا دوست نداشت تقریبا بدون توضیح سنجش شانس از دیوید ویلیامز رسمی تر از دی گروت است و به نظر کامل و خودکفا است. با این حال، به نظر من این سبک عجیب است. او همچنین اصطلاحات جدیدی را ابداع می کند که به نظر می رسد فقط خودش از آنها استفاده می کند. تمام مواردی که در DeGroot توضیح داده شده است در آنجا بهتر توضیح داده شده است. اگر شما یک کتاب عالی به زبان آلمانی می شناسید، خوب است زیرا من آلمانی هستم.
| |
80469
| ||
90425
|
مشاهدات سانسور شده راست را در نظر بگیرید، با رویدادهایی در زمانهای $t_1، t_2، \dots$. تعداد افراد مستعد در زمان $i$ $n_i$ و تعداد رویدادها در زمان $i$ $d_i$ است. زمانی که تابع بقا یک تابع گامی باشد، کاپلان مایر یا تخمینگر محصول بهطور طبیعی بهعنوان یک MLE به وجود میآید. پس احتمال آن $$ L(\alpha) = \prod_i (1-\alpha_i)^{d_i} \alpha_i^{n_i-d_i} $$ است و MLE $\widehat\alpha_i = 1 - {d_i\over است n_i}$. خوب، حالا فرض کنید میخواهم بیزی بروم. من به نوعی طبیعی نیاز دارم که با آن $L(\alpha)$ را ضرب کنم، درست است؟ با جستجوی کلمات کلیدی واضح متوجه شدم که فرآیند دیریکله یک مقدمه خوب است. اما تا آنجایی که من متوجه شدم، روی نقاط ناپیوستگی $t_i$ نیز مقدم است؟ این مطمئناً بسیار جالب است و من مشتاق هستم در مورد آن بیاموزم، با این حال من به چیز ساده تری رضایت می دهم. من شروع به شک کردم که آنطور که ابتدا فکر می کردم آسان نیست، و وقت آن است که از شما راهنمایی بخواهم ... پیشاپیش بسیار متشکرم! **PS: کمی دقت در مورد آنچه من امیدوارم ** من علاقه مند به توضیحات (تا حد امکان ساده) در مورد نحوه رسیدگی به فرآیند دیریکله قبل هستم، با این حال فکر می کنم می توان به سادگی از یک پیشین در $ استفاده کرد. \alpha_i$ - که در توابع مرحله قبل با ناپیوستگی در $t_i$ است. من فکر میکنم که شکل جهانی توابع مرحلهای که در قبلی نمونهبرداری شدهاند نباید به $t_i$ بستگی داشته باشد -- باید یک خانواده زیربنایی از توابع پیوسته وجود داشته باشد که توسط این توابع مرحله تقریبی میشوند. من نمی دانم که آیا $\alpha_i$ باید مستقل باشد یا نه (من شک دارم). اگر آنها هستند، من فکر می کنم این نشان می دهد که $\alpha_i$ قبلی به $\Delta t_i = t_i - t_{i-1}$ بستگی دارد، و اگر توزیع آن را با $A(\Delta t)$ نشان دهیم، محصول از یک متغیر $A(\Delta_1)$ توسط یک متغیر مستقل $A(\Delta_2)$ یک $A(\Delta_1+\Delta_2)$ است متغیر در اینجا به نظر می رسد که متغیرهای log-$\Gamma$ می توانند مفید باشند. اما در اینجا اساساً من گیر کرده ام. من در ابتدا این را تایپ نکردم زیرا نمی خواستم همه پاسخ ها را به این سمت هدایت کنم. من به ویژه از پاسخ هایی با منابع کتابشناختی برای کمک به من در توجیه انتخاب نهایی ام قدردانی می کنم.
|
تجزیه و تحلیل بقای بیزی: لطفاً برای کاپلان مایر پیش از من بنویسید!
|
17435
|
من برخی از اندازهگیریهای یک آنالیت بیولوژیکی را دارم که توزیع لگ نرمال را نشان میدهد. هم یک تغییر سطح و هم مقداری انحراف درازمدت در مقادیر وجود داشت که به اعتقاد من به جای زیست شناسی به دلیل فرآیند اندازه گیری است. من می خواهم از مقادیر اخیر به عنوان توزیع مرجع استفاده کنم و ظرف چند ماه یا سه ماهه تبدیل کنم تا میانگین (log (Y)) و sd (log (Y)) مطابقت داشته باشند. آزمایش باعث میشود فکر کنم میتوانم تغییر شکل را با استفاده از: exp( sd(log(X_ref))/sd(log(Y) *(log(Y) -mean(log(X_ref))) -> Y_transformed آیا میتوان از آن پشتیبانی کرد نظریه در مقابل آزمایش؟
|
LN را برای مطابقت با میانگین مرجع و SD تغییر دهید
|
105593
|
وزن نمونه، رگرسیون لجستیک و تحلیل کای اسکوئر
|
|
90424
|
من به دنبال انجام یک رگرسیون خطی برای یک تابع ارزیابی در یک بازی تخته هستم. ویژگی های من همه (امضا شده) باینری هستند 1 0 0 1 -1 1 0 0 0. اکثراً صفر هستند. حدود 200 تا یک مشاهده. من 10 میلیون مشاهده با مقادیر هدف [-1000، 1000] دارم. من تعجب می کنم که چگونه این باید بر انتخاب مدل رگرسیون من تأثیر بگذارد. من با حداقل مربعات امتحان کردم و نتایج بسیار بد و ناپایدار داد. آیا می توانید چند مدل رگرسیون خوب، خطی و قوی را به من توصیه کنید، که شاید از قالب ساده ورودی های من استفاده کند؟
|
بهترین رگرسیون با ویژگی های باینری
|
17436
|
آیا کتابخانه یا کدی منبع باز وجود دارد که رگرسیون لجستیک را با استفاده از حل کننده L-BFGS پیاده سازی کند؟ من پایتون را ترجیح می دهم، اما زبان های دیگر نیز خوش آمدید.
|
رگرسیون لجستیک با حل کننده LBFGS
|
11498
|
من یک مدل خطی را برازش می کنم که در آن پاسخ هم تابع زمان و هم از متغیرهای کمکی استاتیک است (یعنی آنهایی که مستقل از زمان هستند). هدف نهایی شناسایی اثرات مهم متغیرهای کمکی استاتیک است. آیا این بهترین استراتژی کلی برای انتخاب متغیرها (در R، با استفاده از بسته nlme) است؟ کاری که بتوانم بهتر انجام دهم؟ 1. داده ها را بر اساس گروه ها تقسیم کنید و آن را بر اساس زمان ترسیم کنید. برای متغیرهای کمکی پیوسته، آن را بن کنید و داده ها را در هر بن در برابر زمان رسم کنید. از گرایشهای خاص گروه برای حدس اولیه در مورد شرایط زمانی استفاده کنید - زمان، زمان^n، sin(2*pi*time)+cos(2*pi*time)، log(time)، exp( زمان) و غیره. 2. هر بار یک عبارت اضافه کنید، هر مدل را با مدل قبلی خود مقایسه کنید، در غیاب عبارت های مرتبه پایین تر، هرگز مرتبه بالاتر اضافه نکنید. Sin و cos هرگز جداگانه اضافه نمی شوند. **_آیا در صورت عدم وجود تفسیر فیزیکی از اصطلاحی که به طور قابل توجهی تناسب مدل را بهبود می بخشد قابل قبول است؟_**. 3. با مجموعه داده کامل، از انتخاب رو به جلو برای اضافه کردن متغیرهای ثابت به مدل و سپس اصطلاحات تعامل مرتبط با یکدیگر و با شرایط زمانی استفاده کنید. **_من انتقاد شدیدی از رگرسیون گام به گام دیدهام، اما آیا اگر شرایط مرتبه پایینتری که به آنها وابسته هستند معنیدار نباشند، انتخاب پیشرو، شرایط مرتبه بالاتر قابل توجهی را نادیده نمیگیرد؟ و من متوجه شده ام که انتخاب یک مدل شروع برای حذف به عقب که اشباع نشده باشد، یا منفرد نباشد، یا نتواند همگرا باشد، دشوار است. چگونه بین الگوریتم های انتخاب متغیر تصمیم می گیرید؟_** 4. افکت های تصادفی را به مدل اضافه کنید. **_آیا این کار به سادگی انجام انتخاب متغیر با استفاده از `lm()` و سپس قرار دادن فرمول نهایی در `lme()` و مشخص کردن افکت های تصادفی است؟ یا باید از همان ابتدا افکت های تصادفی را اضافه کنم؟_**. برازش مدلها را با استفاده از یک برش تصادفی، یک برهمکنش تصادفی با مدت زمان خطی، و تعامل تصادفی با هر ترم زمانی متوالی مقایسه کنید. 5. یک نیمه متغیروگرام ترسیم کنید تا ببینید آیا عبارت خطای خودرگرسیون مورد نیاز است یا خیر. **_اگر پاسخ نه باشد نیمواریوگرام باید چگونه باشد؟ یک خط افقی؟ چقدر راست، چقدر افقی؟ آیا گنجاندن خودرگرسیون در مدل مجدداً نیازمند بررسی متغیرها و تعاملات بالقوه است تا مطمئن شوید که هنوز مرتبط هستند؟ شرایط اگر اینطور است، واریانس ها را به طور مناسب وزن کنید (برای «lme()»، از آرگومان «weights» برای مشخص کردن «varFunc()» استفاده کنید و با مدل بدون وزن مقایسه کنید تا ببینید آیا این تناسب را بهبود می بخشد یا خیر. **_آیا این ترتیب درستی برای انجام این مرحله است یا باید قبل از همبستگی خودکار انجام شود؟_**. 7. «خلاصه()» مدل برازش شده را برای شناسایی ضرایب مهم برای متغیرهای کمکی عددی انجام دهید. Anova() مدل برازش را برای شناسایی اثرات قابل توجه برای متغیرهای کمکی کیفی انجام دهید.
|
انتخاب متغیر برای متغیر زمانی
|
91725
|
من یک ANOVA اندازه گیری های مکرر انجام دادم و یک متغیر کمکی پیوسته اضافه کردم. اکنون یک اثر اصلی مهم از آن متغیر کمکی پیوسته وجود دارد. اگر من آن اثر اصلی را گزارش کنم، باید چیزی در مورد جهت آن بگویم... اما چگونه می توانم جهت آن را تفسیر کنم؟ آمار F در اینجا خیلی مفید نیست و من نمیخواهم یک تقسیم میانه انجام دهم. آیا SPSS می تواند آمار B، بتا یا t را برای متغیر کمکی گزارش کند؟
| |
41829
|
من میدانم که یک آمار تکنمونهای $t$ را میتوان با $$t = \frac{x - \mu}{s / \sqrt{n}}$$ محاسبه کرد همچنین میدانم که 4 تابع زیر $x\ sim\mathcal{U}(0,1)$, $x\sim\mathcal{Exp}(2)$ (تابع نمایی که $\lambda=2$)، $P(x=1/2) = 1$، و مجموعه $\\{P(x=025)=0.8، P(x=1.5)=0.2\\}$، همه دارای $\mathbb{E}(x)=0.5$ هستند. من برنامه ای برای شبیه سازی $t$-statistic برای همه آنها نوشته ام، و مقادیر $0، 0.25، 0.5،\ldots، 1.5$ را با مقادیر 0.25 افزایشی در $t$-statistics برای $ داشته باشم. n=10000 دلار من به دنبال راهی برای اثبات نظری 2 معادله زیر $P(x=1/2) = 1$ و مجموعه $\\{P(x=025)=0.8، P(x=1.5)= هستم. 0.2\\}$. مقادیر شبیه سازی برای همه 1های اول از 0.5 تا 1.5 (همانطور که در اینجا بصری است) و من می خواهم آن را به صورت تئوری بیان کنم. مقادیر دوم برای مجموعه عبارتند از 0,0,0,0.8045,0.8045$,\ldots 0.8045$. من سعی میکنم اثبات و معادلاتی را که نحوه بدست آوردن این مقادیر را بیان میکنند (شبیهسازی نشده بلکه محاسبه شده) را به صورت نظری استدلال کرده و به صورت ریاضی بیان کنم. برای مثال، من سعی میکنم مقدار تابع set را محاسبه کنم و دلیل آن را بیان کنم که چرا مقدار شبیهسازی شده کمی بالاتر از 0.8 در 0.8045 است در حالی که مقدار محاسبه شده باید مستقیماً 0.8 از 0.5 تا 1.5 باشد. احساس میکنم چیزی را از دست میدهم که برای چشمهای دیگری آشکار است، اما حتی بعد از صدمین باری که بارها و بارها به آن نگاه میکنم، گم شدهام. **ویرایش:** چیزی که من در اینجا عمدتاً متوجه نمی شوم، مورد تنظیم شده است. من سعی میکنم بیان کنم که چرا مقدار شبیهسازیشده 0.8045 است (درست بالاتر از 0.800) در حالی که $P(x=0.25)=0.8$ است که فکر میکنم مقدار سیم کارت 0.800 را میدهد اما اینطور نیست. من ویرایش کردم تا واضح تر شود، اما چند بار دیگر آن را دوباره می خوانم تا ببینم آیا می توانم باز هم واضح ترش کنم.
| |
93495
|
من سعی می کنم نظریه استنتاج بیزی رابین با داده های از دست رفته را درک کنم، به ویژه اینکه چگونه مکانیسم داده های از دست رفته بر استنتاج یک پارامتر ابرجمعیت تأثیر می گذارد. این نظریه به عنوان مثال در فصل 7 [1] آشکار شده است. بردار داده کامل $N$-dimensional $y$ به اجزای مشاهده شده و مشاهده نشده تقسیم می شود: $y = (y_{\mathrm{obs}}، y_{\mathrm{nob}})$ و $I$ است $N$-بردار شاخصهایی که اجزای آن $I_{i}$ برابر با 0 در صورت مشاهده نشدن $y_{i}$ و 1 در هنگام مشاهده است. بنابراین فضای نمونه حاصل ضرب فضای $y$ و فضای $I$ است. برای سادگی، یک مکانیسم داده گمشده $p(I ~|~ y_{\mathrm{obs}})$ را در نظر میگیرم که به یک متغیر کمکی کاملاً مشاهده شده $x$ یا یک پارامتر ناشناخته $\phi$ بستگی ندارد. نتیجه کلیدی در Rubin این است که وقتی $p(I ~|~ y) = p(I ~|~ y_{\mathrm{obs}})$، مکانیسم داده از دست رفته نادیده گرفته می شود و تجزیه و تحلیل می تواند طبق معمول ادامه یابد. این را می توان در توسعه زیر مشاهده کرد: $$ \begin{align*} p(\theta ~|~ y_{\mathrm{obs}}, I) &~=~ \frac{p(\theta) \int p (y~|~\theta)\, p(I ~|~ y)~d y_{\mathrm{nob}}~}{\int\int p(y~|~\theta)\,p(\theta) ~d\theta p(I ~|~ y)~d y_{\mathrm{nob}}~} \\\ \end{تراز*} $ $ اگر $p(I ~|~ y) = p(I ~|~ y_{\mathrm{obs}})$، می توان آن را از انتگرال ها خارج کرد و به گونه ای لغو کرد که توزیع پسین $p(\theta ~|~ y_{\mathrm{obs}}، I) = p(\theta ~|~ y_{\mathrm{obs}})$. تا اینجای کار خیلی خوبه. اما چیزی که من نمی فهمم مشتق زیر است که با نتیجه قبلی در تضاد است: $$ \begin{align*} p(\theta ~|~ y_{\mathrm{obs}}, I) &~=~ \frac{ p(y_{\mathrm{obs}}، I، \theta)}{p(y_{\mathrm{obs}}، I)} \\\ &~=~ \frac{p(y_{\mathrm{obs}} ~|~ \theta) p(\theta) p(I ~|~ y_{\mathrm{obs}})}{\int p(y_{\mathrm{ obs}} ~|~\theta)p(\theta) ~d\theta~ p(I ~|~ y_{\mathrm{obs}})} \\\ &~=~ \frac{p(y_{\mathrm{obs}} ~|~ \theta)p(\theta)}{\int p(y_{\mathrm{obs}} ~|~\theta)p( \theta) ~d\theta} \\\ &~=~ p(\theta ~|~ y_{\mathrm{obs}}). \end{align*} $$ در اینجا مکانیسم نمونهبرداری هر چه باشد لغو میشود. فرقی نمی کند $p(I ~|~ y) = p(I ~|~ y_{\mathrm{obs}})$. حتما دارم اشتباه می کنم ولی نمی تونم ببینم چیه [1] Gelman، A.، Carlin، J. B.، Stern، H. S.، و Rubin، D. B. (2004). تجزیه و تحلیل داده های بیزی (ویرایش دوم). بوکا راتون: چپمن و هال/CRC.
|
نادیده گرفتن در نظریه روبین در مورد مکانیسم های داده از دست رفته
|
105301
|
با توجه به اینکه متغیر نتیجه در یک دیتافریم یک متغیر فاکتوری/طبقه ای است، هنگام رگرسیون متغیر وابسته (DV) بر روی مجموعه ای از متغیرهای مستقل (IVs)، مدل چه چیزی را پیش بینی می کند؟ احتمال اینکه DV سطح اول عامل باشد؟ یا دومی؟ یک سوال مرتبط: من می دانم که با توجه به ستون عددی $1$s و $0$s، یک رگرسیون لجستیک احتمال متغیر مرتبه بالاتر (یعنی مقدار = $1$) را مدل می کند، بنابراین من سعی کرده ام فاکتور را مجدداً رمزگذاری کنم. متغیر شخصیت به یک عددی تبدیل می شود. من از یک پسزمینه SAS میآیم، بنابراین کاملاً به `if var = yes سپس var_num = 1 عادت دارم. else var_num=0;` این به وضوح اشتباه است. کارآمدترین روشی که برای رمزگذاری مجدد چنین متغیرهایی پیدا کرده اید چیست؟
| |
113251
|
در طراحی من دو گروه موضوع دارم و هر موضوعی در چهار شرایط مختلف تست می شود. بنابراین، من یک ضریب درون موضوعی ('span_num'، که از 0 تا 3 متغیر است) و یک فاکتور بین موضوعی (گروه، که می تواند 'خطی' یا 'U-شکل' باشد) دارم. هدف من این است که نشان دهم شیب بین دهانه ها (از 0 تا 3) در گروه Linear بیشتر از گروه U شکل است. شیبها بسیار متفاوت به نظر میرسند و وقتی مدلهای رگرسیونی را مقایسه میکنم که وقتی فاکتور درونی من یک عامل درونی است نادیده میگیرم و آن را بهعنوان یک فاکتور بین عاملی در نظر میگیرم، بهطور قابل توجهی متفاوت هستند. من شیب ها را به این صورت مقایسه کردم (اما به مقایسه اعتماد ندارم زیرا به مقادیر SE شیب ها اعتماد ندارم زیرا با فاکتور درونی خود مانند یک فاکتور بین فاکتور رفتار می کنم): linear_lm <- lm(RT ~ span_num , dat = داده[data$group == خطی،]) ushape_lm <- lm(RT ~ span_num, dat = data[data$group == U-shape]) linear_intercept <- summary(linear_lm)$coefficients[[1]]; linear_ise <- summary(linear_lm)$coefficients[[3]]; linear_slope <- summary(linear_lm)$ضرایب[[2]]; linear_sse <- summary(linear_lm)$ضرایب[[4]] ushape_intercept <- summary(ushape_lm)$ضرایب[[1]]; ushape_ise <- summary(ushape_lm)$ضرایب[[3]]; ushape_slope <- summary(ushape_lm)$ضرایب[[2]]; ushape_sse <- summary(ushape_lm)$ضرایب[[4]] z_intercept <- (ushape_intercept - خطی_برق) / sqrt(linear_ise^2 + ushape_ise^2) #z = -0.45; p = 0.67، n.s. z_slope <- (ushape_slope - linear_slope) / sqrt(linear_sse^2 + ushape_sse^2) #z = -1.50; p = 0.93، sig.
| |
17438
|
فرض کنید $S$ به عنوان یک ماتریس Wishart با $n$ درجه آزادی و ماتریس مقیاس $\Sigma$ توزیع شده است، و اجازه دهید $\vec{a}$ یک بردار ثابت باشد. به خوبی شناخته شده است که $\vec{a}^{\top}S\vec{a}$ برابر است با $\vec{a}^{\top}\Sigma\vec{a}$ برابر یک Chi-square متغیر تصادفی با درجه آزادی $n$. من در مورد توزیع $\vec{a}^{\top}S^{-1}\vec{a}$ کنجکاو هستم. حدس من این بود که به صورت یک گامای معکوس، با مقیاس $\vec{a}^{\top}\Sigma^{-1}\vec{a} / 2$، و شکل $n/2$ توزیع میشود. شبیه سازی های من (که تا حدودی مشکوک هستند) نشان می دهد که این مورد _نیست_ است. آیا این یک توزیع شناخته شده را دنبال می کند؟
|
توزیع هنجار ناشی از ویشارت معکوس چگونه است؟
|
13327
|
من یک مجموعه فرضی از ترکیب رژیم غذایی دارم که نشان می دهد گروه خاصی از مردم چه مقدار از هر میوه را می خورند:  * چگونه می توان من در یک صفحه، تمام ترکیبات گروه A تا G و مهمتر از آن، تغییر آنها را در سال گذشته تجسم می کنم؟ * من می دانم که داشتن بیش از 4 رنگ در طراحی یک نه-نه است، اما اینجا چه کاری می توانم انجام دهم؟
|
چگونه می توانم تغییرات نسبت به دوره دیگر را تجسم کنم؟
|
113254
|
من میخواهم ابرداده (نویسنده، تاریخ ایجاد ...) را از دستهای از اسناد MS word با R استخراج کنم. ممنون، فرد
| |
13321
|
مشکل اساسی که من دارم بسیار شبیه به یک مشکل تخمین بیزی کلاسیک است: یک پارامتر با ارزش واقعی $p\in[0,1]$ وجود دارد که میخواهم آن را از طریق مشاهدات $o_i$ تخمین بزنم. همچنین موردی است که $$ p=\lim_{N\to\infty}{1\over N}\sum_{i=1}^N o_i، $$ بنابراین این مشکل بسیار شبیه به تخمین یک احتمال است. نکته اینجاست: $o_i\in[-1,1]$ به دلیل شباهت با تخمین یک احتمال، میخواهم چیزی شبیه بهروزرسانی بیزی در مورد دانش خود از $p$ انجام دهم، که در آن قبلی، بتا خواهد بود. RV توزیع شده با این حال، از آنجایی که $p\in[0,1]$ به نظر میرسد که نسخه قبلی فقط در $[0,1]$ پشتیبانی میکند، اما این بدان معناست که هر $o_i\in[-1,0]$ به هیچ اطلاعات مفیدی در مورد $p$ منجر نشده است، که به سادگی نادرست است. از سوی دیگر، اگر پشتیبانی قبلی را در کل بازه $[-1,1]$ داشته باشم و بهروزرسانی معمول بیزی را انجام دهم، توزیع پسین نشاندهنده $\Pr(p\in[-1,0]) است. \not=0$ که این نیز نادرست است. قانون قبل و به روز رسانی مناسب در این مورد چیست؟ کسی مشکلی شبیه این دیده است؟
|
تخمین بیزی از یک میانگین با محدودیت های سخت تر از مشاهدات
|
13322
|
من در حال خواندن مقاله ای از Stephane Adjémian در مورد مدل سازی DSGE با کران پایین صفر برای نرخ بهره اسمی هستم، و او از چیزی که به عنوان روش شبیه سازی شده لحظه ها / مسیر توسعه یافته توصیف می کند استفاده می کند. کسی با این تکنیک ها کار کرده؟ چه می گویید گام بعدی برای آشنایی با آنها برای کسی است که کمی پیشینه در تخمین GMM دارد. من می دانم که مقاله اصلی مک فادن (1989) است، اما آیا کسی درباره کتاب درسی این مطالب می داند؟ من می خواهم در صورت امکان از نگرانی در مورد نظریه احتمال اجتناب کنم.
|
مقدمه خوبی برای روش شبیه سازی لحظه ها و تکنیک مسیر توسعه یافته چیست؟
|
13323
|
من سعی میکنم یک اثبات را برای تمرین بازبینی به پایان برسانم و از من خواسته میشود نشان دهم که $E\left[(y-E(y|x))(E(y|x)-f(x))\right]= 0$ که $y$ متغیر وابسته است و $f(x)$ پیش بینی خطی $y$ است. من تقریباً تمام شده ام، اما فقط می خواهم بررسی کنم که آیا $E\left[E \left[y E(y|x)\,|\,x \right] \right]=E\left[ E( y|x)E \left[ E(y|x)\,|\,x \right] \right]$ اساساً، آیا می توانم $y$ را از انتظار شرطی به عنوان $E(y|x)$ خارج کنم، یا به صورت متفاوت بیان شده اند انتظارات مشروط چند وجهی در این راه؟ معمولاً اگر تابعی از متغیر شرطی شده باشد، میتوانید خارج از انتظار، تابعی را پشتیبان دهید - یعنی $E\left[f(x)y|x \right]=f(x)E(y|x) $، اما من فکر می کنم آنچه در بالا می خواهم انجام دهم متفاوت است. همچنین، یک سوال دوم مرتبط - اگر $E\left[E(y|x)\right]=E(y)$ طبق قانون کل انتظارات، آنگاه $E\left[E(y|x)E (y|x)\right]=E(y^2)$ با همان نشانه؟
|
چگونه نشان دهیم که $E\left[y E(y|x) \right] = E\left[E(y|x)E(y|x) \right]$ - خطی بودن انتظارات مشروط؟
|
70849
|
من یک بردار $X$ با مقادیر $n$ ایجاد میکنم و میخواهم بردار $Y$ دیگری مانند $Y = aX+b$ ایجاد کنم و از طریق یک ضریب همبستگی (مثلاً $r=) مقداری نویز به $Y$ اضافه کنم. 0.8 دلار). در اصل یک رگرسیون خطی ساده است. سوال من این است که آیا می توانم انحراف استاندارد نویز را از یک ضریب همبستگی بدون استفاده از رویکرد نیروی brute مانند آنچه در زیر در «R» انجام دادم پیدا کنم؟ r <- 0.8 شیب <- 0.003 قطع <- 0 n <- 100 X <- runif(n، 50، 100) rnormcor <- تابع (x، سیگما) rnorm(1، x، سیگما) f <- تابع(x , indpt,r,b1,b0){ y <- indpt*b1+b0 y <- sapply(y, rnormcor, x) abs(r-cor(indpt,y)) } sigmas = seq(0.0000001,1,by=0.001) sigmas.cor = sapply(sigmas, f, indpt=X, r=rho, b1=slope,b0= intercept) نمودار (sigmas , sigmas.cor) سیگما[which.min(sigmas.cor)]
|
متغیر وابسته را با استفاده از رگرسیون خطی و ضریب همبستگی شبیه سازی کنید
|
37416
|
من این مدل را در ذهن دارم: $ y_t = c + \phi x_{t-1}^k + \eta_t$ که $\eta_t$ N.I.D است. به نظر شما آیا می توان $k$ را تخمین زد؟
| |
97237
|
من می خواهم دو متغیر تصادفی $X \sim N(0,1)$ و $Y \sim N(0,1)$ ایجاد کنم که $E(X,Y)=0.5 $ را برآورده کند، یعنی می خواهم $Z ایجاد کنم. =(X,Y)^\top $ با توزیع نرمال دو متغیره مشترک $ Z \sim N\left( \left(\begin{array}{c} 0\\\ 0 \end{array}\right) , \left(\begin{array}{cc} 1 & 0.5\\\ 0.5 & 1 \end{array}\right) \right) $. چگونه این را در R کدنویسی کنم؟ با تشکر
|
r، نحوه ایجاد دو متغیر همبسته که به طور مشترک نرمال توزیع شده اند (میانگین 0، var 1)
|
90391
|
**مقدمه:** من اخیرا یک برنامه شبیه سازی ساخته ام که بیماران مبتلا به دیابت نوع 1 را شبیه سازی می کند. در این زمینه من بیماران مصنوعی ایجاد می کنم. بیایید سه مورد از اینها را به عنوان $\text{p}_1$، $\text{p}_2$، و $\text{p}_3$ نشان دهیم. فرض کنید که $\text{p}_1$، $\text{p}_2$ و $\text{p}_3$ با درمان $A$ درمان میشوند. درمان $A$ دیابت $\text{p}_1$، $\text{p}_2$ و $\text{p}_3$ را تا حد معینی درمان میکند. ما درمان را با برخی اقدامات انجام شده در یک کارآزمایی مجازی ارزیابی می کنیم. بیایید یکی از این معیارها را نشان دهیم $\text{M}1_A$. $\text{M}1_A$ دارای یک مقدار متوسط و یک انحراف معیار برای درمان A برای سه بیمار است. اکنون بیایید درمان B را برای همان گروه بیمار، $\text{p}_1$، $\text{p}_2$ و $\text{p}_3$ معرفی کنیم. ما مجدداً درمان را از طریق یک آزمایش آزمایشی انجام دادیم و لیستی از اقدامات را دریافت کردیم که این بار نشان دهنده $\text{M}1_B$ است. من علاقه مند به آزمایش این هستم که آیا تفاوت در $\text{M}1_A$ و $\text{M}1_B$ قابل توجه است یا خیر. من می دانم: $N=3، \text{std(M}1_A)، \text{std(M}1_B)، \text{mean(M}1_A)، \text{mean(M}1_B)$ ** سوال: ** من می خواهم دو معیار آزمایش شده را بر روی یک گروه از افراد مقایسه کنم و از یک ابزار آماری استفاده کنم تا بفهمم تفاوت این دو معیار قابل توجه است یا خیر. من در حال بررسی استفاده از آزمون t ولش هستم - آیا این درست است؟
|
مقایسه دو میانگین: یک گروه، واریانس متفاوت (آزمون تی ولش؟)
|
3458
|
جایگزینی برای درختان طبقه بندی، با عملکرد پیش بینی بهتر (به عنوان مثال: CV)؟
|
|
41339
|
من smth را دریافت کردم که به نظر می رسد $y_1 = \alpha_1\cdot y_2 + \alpha_2\cdot y_3 + X\cdot\alpha_3 + u_1$y_2 = \beta_1\cdot y_1 + \beta_2\cdot y_3 + X\cdot\ + u_2$ $y_3 = \gamma_1\cdot y_1 + \gamma_2\cdot y_2 + X\cdot\gamma_3 + u_3$ بعد از اینکه کمی در مدل خود فکر کردم، واقعاً نتوانستم برخی از متغیرهای برونزا (که در $X$ موجود است) را به صفر و نه محدود کنم آیا می توانم برخی از وابستگی های بین آن متغیرهای درون زا را حذف کنم... موضوعی که مدل من در مورد آن است به موفقیت مربوط می شود. یک دانشجو در دوران تحصیل از این رو متغیرهای وابسته عبارتند از نمره، ترم و تعداد دفعاتی که یک دانش آموز مجدداً از یک امتحان بازدید کرده است (به دلیل مردودی یا کسب نمره بالاتر). ابتدا IV، 2SLS، 3SLS را امتحان کردم، اما از آنجایی که داده های من با الزامات این روش ها مطابقت ندارند، این یک بن بست است. دلیل آن این است که الف) ابزار خوبی در دسترس نیست و ب) حتی اگر سعی کنم دلایلی را بیابم که یکی از متغیرهای برون زا را در یک یا چند معادله وارد نکنم، تناسب مرحله اول آنقدر بد است که مرحله دوم دچار مشکل می شود. مقدار زیادی از آن مورد بعدی که من سعی کردم این بود که رویکردی را معرفی کنم که به من امکان می دهد هیچ متغیری را با گنجاندن یک متغیر مرتبه رتبه (معرفی شده توسط vella) حذف نکنم. این متغیر RO قرار است با تبدیل باقیماندههای شکل کاهشیافته، درونزایی را به حساب آورد، به طوری که عبارت خطای جدید در معادله ساختاری اکنون با رگرسیونهای درونزا همبستگی ندارد. دلیل اینکه این کار به نتیجه نرسید این بود که هزینه های این رویکرد در چند خطی بودن زیاد است که نتایج من را بی فایده می کند. پس از انجام یک شبیه سازی، متوجه شدم که نتایج من به مشکلات سنگینی اشاره دارد که نمی توان بر آنها غلبه کرد. من فکر می کنم این یک راه حل بسیار منظم است که دلیل آن بود که من آن را انتخاب کردم، اما نمی تواند کار کند. بنابراین نتیجه نهایی این است: من گیر کردهام، اکنون نمیدانم که در مرحله بعد چه کاری میتوانم انجام دهم و امیدوارم نظرات شما دوستان چه کاری میتوانم انجام دهم تا این کار را انجام دهم. من فقط به نکاتی در جهت درست نیاز دارم زیرا احساس می کنم کمی گم شده ام..
| |
90395
|
من دو نمونه توزیع معمولی $[x_1، x_2، \ldots، x_n]$ با واریانس نمونه $s^2_1$ و نمونه دیگر $[y_1, y_2,\ldots, y_n]$ با واریانس نمونه $s^2_2$ دارم. من می دانم چگونه فاصله اطمینان را برای هر یک از واریانس ها محاسبه کنم. اما من نمی دانم چگونه فاصله اطمینان حاصل از مجموع دو واریانس را محاسبه کنم. به عبارت دیگر، آیا کسی می تواند به من کمک کند تا فاصله اطمینان $\sigma^2_1+\sigma^2_2$ را محاسبه کنم.
|
فاصله اطمینان دو واریانس
|
48534
|
> ** کپی احتمالی: **> چگونه می توان اعداد تصادفی همبسته را تولید کرد (با توجه به وسایل ، واریانس و> درجه همبستگی)؟ من سعی کرده ام دو متغیر تصادفی با همبستگی -0.9 ایجاد کنم اما موفق نبوده ام. من سعی کرده ام: x1 <- rnorm (200 ، میانگین = 0 ، SD = 1) x2 <- rnorm (200 ، میانگین = 0 ، SD = 1) Z <- -0.9*x1+SQRT ((1- (- 0.9 (- 0.9 (- 0.9 (- (- 0.9) )))*x2 cor(x1,z) اما کار نکرد. من همچنین عملکرد؟ mvrnorm را نیز امتحان کردم ، اما این هم کار نکرد. چگونه می توانم این کار را انجام دهم ؟؟
|
چگونه دو سری اعداد تصادفی با همبستگی منفی تولید کنیم؟
|
41331
|
افزودن گزینه های انتخاب نشده به عنوان داده به مدل رگرسیون لجستیک
|
|
37411
|
فرض کنید من در حال ساخت یک طبقهبندی رگرسیون لجستیک هستم که متاهل یا مجرد بودن فردی را پیشبینی میکند. (1 = متاهل، 0 = مجرد) من می خواهم نقطه ای را در منحنی فراخوانی دقیق انتخاب کنم که حداقل 75 درصد دقت به من بدهد، بنابراین می خواهم آستانه های $t_1$ و $t_2$ را انتخاب کنم، به طوری که: * اگر خروجی طبقه بندی کننده من بیشتر از $t_1$ است، من خروجی married را صادر کردم. * اگر خروجی زیر $t_2$ باشد، من خروجی single را می دهم. * اگر خروجی در بین باشد، «نمی دانم» را خروجی می دهم. یک سؤال زوج: 1. من فکر می کنم طبق تعریف استاندارد از دقت ، دقت اندازه گیری دقت کلاس متاهل به تنهایی خواهد بود (یعنی دقت = # بارها که من به درستی پیش بینی می کنم متاهل / کل # بارها پیش بینی می کنم ازدواج کنم). با این حال، کاری که من واقعاً میخواهم انجام دهم این است که دقت کلی را اندازهگیری کنم (یعنی مجموع # دفعاتی که متاهل یا مجرد را به درستی پیشبینی میکنم / مجموع # دفعاتی که متاهل یا مجرد را پیشبینی میکنم). آیا این کار اشکالی ندارد؟ اگر نه، باید چه کار کنم؟ 2. آیا راهی برای محاسبه این منحنی دقت / فراخوان «کلی» در R وجود دارد (به عنوان مثال، با استفاده از بسته ROCR یا برخی از کتابخانه های دیگر)؟ من در حال حاضر از بسته ROCR استفاده میکنم، اما به نظر میرسد که این بسته به من دقت/فراخوانی تک کلاسی را میدهد.
| |
99721
|
لطفاً به من اجازه دهید که شروع کنم و بگویم که من با آمار و تجزیه و تحلیل داده ها آشنایی خاصی ندارم. من یک مجموعه داده با اندازه جمعیت 266، میانگین 24.8 و انحراف معیار 6.86 در MS Excel 2007 دارم. نمودار کمی معمولی که برای این داده ها ترسیم کردم، با انجام آزمایش کولموگروف- اسمیرنوف نشان داد که به طور معمولی نبود. توزیع شده (در سطوح آلفای 0.01، 0.05 و 0.1). چگونه فواصل اطمینان را برای چنین مجموعه ای از داده ها پیدا کنم؟ نموداری که تابع چگالی احتمال داده ها را نشان می دهد در زیر است:  **ویرایش 1** کمی جزئیات بیشتر در مورد ماهیت کار: من تمرینی را در مورد تجزیه و تحلیل یک زنجیره تامین خیالی انجام می دهم تا با مفاهیم تحلیل و مدل سازی آماری آشنا شوم. من میخواهم ریسک مربوط به کاهش حداقل سطوح سفارش مجدد از 2 انحراف استاندارد به 1 را درک کنم (فرض کنید انحراف استاندارد برای یک تامینکننده/مشتری خاص یک هفته باشد، پس حداقل سطح سفارش مجدد دو هفته قبل خواهد بود). بنابراین من نظریه میدهم (و لطفاً با خیال راحت هر منطق مغالطهآمیزی را در اینجا تصحیح کنید) که ریسک مربوط به تفاوت در درصدهای قاعده 3 سیگما (یعنی 5% تا 32% از 2-سیگما به 1) خواهد بود. بخش دوم این تمرین از من میخواهد که حداقل زمان سفارش مجدد بهینه را برای هر محصول با توجه به مجموعهای از دادهها برای هر عرضهکننده/مشتری که معمولاً توزیع نمیشود (با توجه به برخی مفروضات مالی استاندارد) پیدا کنم. من فرض میکنم که منطق مانند قبل باقی میماند، اما درباره نحوه رفتار با دادهها به گونهای که قانون 3 سیگما همچنان در مورد آن اعمال شود، مطمئن نیستم. **ویرایش 2** رسم داده های خام نمودار زیر را به دست می دهد: 
|
درمان داده هایی که به طور معمول توزیع نمی شوند
|
101326
|
در سوال قبلی پرسیدم که چگونه چندک های داده هایم را محاسبه کنم تا بتوانم اعتبار سنجی متقاطع را روی مجموعه ای از داده ها برای مدل رگرسیون چندک خود انجام دهم. اما فکر می کنم متوجه شدم که چه کاری باید انجام دهم. فرض کنید من سه مدل چندک را با چندکهای 0.25، 0.5، 0.75 انجام میدهم و ضرایب را به آنجا میرسانم و ضرایب هر سه را روی یک مجموعه داده نگهدارنده (دادههایی که برای محاسبه ضرایب استفاده نمیشوند) آزمایش میکنم. آیا من فقط مدلی را که بهترین دقت را به من می دهد (مقادیر واقعی در مقابل مقادیر پیش بینی شده) از بین سه مدل را به عنوان بهترین انتخاب می کنم؟ من از ریشه میانگین مربعات خطا به عنوان آزمون دقت استفاده خواهم کرد. در شبیه سازی هایی که انجام دادم، متوجه شدم که دقت برای نمونه های کوچکتر با مدل 0.25 بسیار بهتر و برای مدل 0.75 بدتر است. و همچنین برای واقعیات بالاتر، پیش بینی شده به واقعیات مدل 0.75 بسیار نزدیکتر از مدل 0.25 است. بنابراین من فکر کردم که مدل ها را ترکیب کنم و از ضرایب 0.25 در مقادیر کوچکتر و ضرایب 0.75 در مقادیر بزرگتر استفاده کنم، اما مطمئن نیستم که آیا این راه درست است یا خیر.
|
اعتبار سنجی متقاطع رگرسیون چندکی
|
101324
|
اخیراً ادعای زیر را از یکی از همکارانم در رابطه با یک تعریف ضعیف از همبستگی بین دو متغیر تصادفی دریافت کردم: «همبستگی 60 درصدی بین دو متغیر تقریباً نشان میدهد که در 60 درصد موارد فاصله از موقعیت میانگین متغیرها است. تراز شده است.» من ندیدهام که همبستگیهایی به این شکل تعریف شده باشند، اما نتوانستم پاسخی به الف) درستی این موضوع، ب) تعریف رسمی جایگزین ارائه دهم.
|
همبستگی بین متغیرهای تصادفی
|
14146
|
من یک مدل ترکیبی اندازه گیری های مکرر را در SAS اجرا کرده ام و به نظر می رسد درجات آزادی مخرج برای آماره F واقعاً زیاد است. در این مورد من تقریباً 200 فرد دارم و سه اندازه گیری برای هر فرد (گزاره مکرر) و درجه آزادی بیش از 500 است. بنابراین به نظر می رسد که تقریباً منعکس کننده تعداد مشاهدات است. من چند مقاله را بررسی کردم و همان الگو را در جاهای دیگر یافتم، اما به عنوان یک مبتدی آماری مطمئن نیستم که خوب است یا نه. یا شبیه سازی کاذب است؟ همچنین اشاره کردم که تغییر ساختار متغیر کمکی تأثیر زیادی بر درجات آزادی دارد. * چرا درجات آزادی در این گونه طرح ها اینقدر بالاست یا این احتمال وجود دارد که مشکلی جدی در مدل من وجود داشته باشد؟ * مطالعه پیشنهادی در مورد مدلهای ترکیبی با اندازهگیریهای مکرر برای کمک به درک این موضوع چیست؟
| |
101325
|
من از یک شبکه عصبی و رگرسیون لجستیک برای یک مشکل طبقه بندی استفاده می کنم. برای ارزیابی عملکرد دو طبقهبندیکننده، من از اعتبارسنجی متقاطع 5 برابری استفاده میکنم (تقریباً 800 نمونه در دادههای آزمایشی برای هر برابر). با استفاده از Caret من بهترین پارامترها را برای ANN خود در یک حلقه داخلی در اعتبارسنجی متقاطع پیدا می کنم (تقریباً 600 نمونه در داده های آزمایشی برای هر برابر). با این حال، من واقعاً مایلم درک بهتری از نحوه مدیریت کرت با این موضوع داشته باشم. با توجه به اینکه شبکههای عصبی میتوانند از آموزش مجدد بهره ببرند تا از حداقلهای محلی جلوگیری کنند، من میخواهم بازآموزی انجام دهم. من مطمئن نیستم که Caret این کار را پس از انتخاب پارامترهای بهینه انجام می دهد یا به سادگی مدل را یک بار روی نمونه بزرگتر داده های آزمایشی (800 نمونه) با پارامترهای یافت شده آموزش می دهد. کسی می تواند این را برای من روشن کند؟ ویرایش: و اگر هیچ بازآموزی انجام نمی دهد، چگونه می توانم این کار را به بهترین شکل ممکن انجام دهم؟ **کد:** library(caret) library(nnet) tunGrid <- expand.grid(size = c(1, 2, 3, 4, 5, 6, 7), decay = c(0, 10^(- 2) ، 10^(-3) ، 10^(-4))) fitControl <-trainControl (روش = تکرار cv ، شماره = 5 ، تکرار=3) set.seed(825) fmla <- as.formula(y_BBR_train ~ .) annFit1 <- train(fmla، داده = X_BBR_train، روش = nnet، trControl = fitControl، tuneGrid = tunGrid) متشکرم !
|
بازآموزی Caret شبکه عصبی پس از یافتن پارامترهای بهینه؟
|
14147
|
با توجه به یک مجموعه داده حداقل که در آن به دنبال وقوع یک نقوش خاص در یک مجموعه داده از 500 مشاهده هستم. with_motif مشاهدات با موتیف مشخص شده را نشان می دهد و without_motif مشاهدات بدون موتیف هستند. with_motif <- 100 without_motif <- 400 dt <- data.frame(with_motif,without_motif) کد زیر با استفاده از کتابخانه ggplot2، bar_plot <- ggplot(melt(dt),aes(variable,value)) یک نمودار میله ای رسم می کند. geom_bar() + scale_x_discrete(name=با یا بدون) + theme_bw() + opts(panel.grid.major = theme_blank(),title = , plot.title=theme_text(size=14)) bar_plot من می خواهم یک خطای استاندارد را در 95% CI محاسبه کنم و یک نمودار به طرح وصل کنید. ggplot «geom_errorbar()» را ارائه میکند، اما خوشحال میشوم که راههای مختلفی را برای استخراج خطاهای استاندارد (انحراف) بدانم تا محدودیتهای نوار خطا (CI) را محاسبه کنیم.
| |
80263
|
من یک **مبتدی** ML هستم و به این فکر می کنم که آیا کسی می تواند کاری که من انجام می دهم را نقد کند (این کار کمی باز است). * من مجموعه بسیار کوچکی از اسناد متنی دارم (*n = 122**). * یک **تصمیم باینری** در ارتباط با هر سند وجود دارد. * من یک نمایش کیسه ای از کلمات برای هر سند ایجاد کرده ام و از RandomForestClassifier پایتون برای ایجاد مدل هایی برای طبقه بندی داده ها استفاده می کنم. من پارامترهای موجود در RandomForestClassifier را به روش زیر سرهم میکنم: * RandomForestClassifer را روی 200 زیرمجموعه تصادفی از دادهها اجرا کنید (112 = برای هر 200 اجرا) (این #ها خودسرانه انتخاب شدند). * *اهمیت** هر کلمه را در ماتریس کیف کلمات من بر اساس میانگین اهمیت هر کلمه در 200 اجرا رتبه بندی کنید. اکنون میخواهم ببینم که با استفاده از RandomForestClassifier، یک # ویژگی/کلمات بهینه برای مجموعه دادههای من وجود دارد یا خیر. این کار به صورت زیر انجام می شود: * ایجاد 500 جنگل تصادفی (**600 درخت در هر جنگل**). هر یک از 500 جنگل از 112 سند انتخاب شده به طور تصادفی به عنوان مجموعه آموزشی و 10 سند باقی مانده به عنوان مجموعه آزمایشی استفاده می کند. * *متوسط دقت** این 500 جنگل **به عنوان تابعی از # کلمه/ویژگی** مورد استفاده برای تولید مدل ها را اندازه گیری کنید. این چیزی است که من می بینم. دقت متوسط بهینه حدود n=80 کلمه/ویژگی است.  سوالات: * مطمئن هستم که رویکرد من غیرمتعارف است. آیا **روش** بهتری برای بهینه سازی پارامترهای RandomForest وجود دارد؟ * آیا توضیح ** شهودی وجود دارد که چرا میانگین دقت من در حدود 80 کلمه بهینه به نظر می رسد و سپس کم می شود؟ آیا این به سادگی این است که وقتی n-ویژگی ها بیش از حد بزرگ می شوند، جنگل های من به اندازه کافی ویژگی های خوب را در خود جای نمی دهند و بنابراین دقت آسیب می بیند؟ * هر **پارامتر دیگری** که ارزش اصلاح را در اینجا دارد؟ * آیا مدل طبقه بندی دیگری ارزش بررسی دارد؟ بابت هر فکری ممنونم
|
بهینه سازی پارامتر RandomForestClassifier
|
14143
|
تقریب چگالی چند متغیره غیر پارامتری -- از کجا شروع کنم؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.