_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
3902 | آیا تابع 'corr' در Matlab هنگام محاسبه ضریب همبستگی اسپیرمن، تصحیح را برای رتبه های همسو در نظر می گیرد؟ با تشکر | آیا تابع corr در متلب برای رتبههای همسو اصلاح را در نظر میگیرد؟ |
20119 | در یک زمینه فیلترینگ سنتی، نظرسنجی هایی را که با چیزی شبیه mu[i] <- alpha[date[i]] prec[i]<- SampleSize[i]/(alpha[date[i]]*( 1-آلفا[تاریخ[i]]) y[i] ~ dnorm(mu[i],prec[i]) اگر بررسی ها با گرد کردن مشاهده شوند، این _معمولا_ باعث نمی شود اما من در موقعیتی هستم که این کار را انجام می دهد. | چگونه می توان گرد کردن را در BUGS در زمینه نظرسنجی پیاده سازی کرد؟ |
30945 | من یک سیستم اثبات مفهومی برای تشخیص صدا با استفاده از مدلهای mfcc و مارکوف پنهان ایجاد کردهام. وقتی سیستم را روی صداهای شناخته شده آزمایش می کنم، نتایج امیدوارکننده ای به دست می دهد. اگرچه سیستم، وقتی صدای ناشناخته ای وارد می شود، نتیجه را با نزدیک ترین تطابق برمی گرداند و امتیاز آنقدر متمایز نیست که بتوان آن را ابداع کرد، این یک صدای ناشناخته است، به عنوان مثال: من 3 مدل مارکوف مخفی را آموزش داده ام، یکی برای گفتار، یکی برای آب بیرون می آید. شیر آب و یکی برای ضربه زدن روی میز. سپس آنها را روی دادههای نادیده آزمایش میکنم و نتایج زیر را دریافت میکنم: ورودی: گفتار HMM\knocking: -1213.8911146444477 HMM\speech: -617.8735676792728 HMM\watertap: -1504.47350973226p بالاترین امتیاز صحیح است. HMM\knocking: -3715.7246152783955 HMM\speech: -4302.67960438553 HMM\watertap: -1965.6149147201534 بنابراین بالاترین امتیاز ضربه آب که ورودی صحیح است: ضربه زدن به آب201-201 HMM1-201. HMM\knocking: -756.4428782636676 HMM\speech: -1201.686687761133 HMM\watertap: -3025.181144273698 بنابراین بالاترین امتیاز ضربه که ورودی صحیح است: ناشناخته HMM\k -4369.1702184688975 HMM\speech: -5090.37122832872 HMM\watertap: -7717.501505674925 در اینجا ورودی یک صدای ناشناخته است اما همچنان نزدیکترین تطابق را برمی گرداند زیرا هیچ سیستمی برای فیلترینگ/garageold وجود ندارد. من می دانم که در تشخیص کلمات کلیدی، صدای OOV (خارج از واژگان) را می توان با استفاده از یک مدل زباله یا پرکننده فیلتر کرد، اما می گوید که با استفاده از مجموعه محدودی از کلمات ناشناخته آموزش داده شده است، جایی که نمی توان آن را به سیستم من اعمال کرد. همه صداهایی را که سیستم ممکن است ضبط کند را نمی داند. چگونه یک مشکل مشابه در سیستم تشخیص گفتار حل می شود؟ و چگونه می توانم مشکل خود را برای جلوگیری از مثبت کاذب حل کنم؟ | آستانه مدل مارکوف پنهان |
20118 | لطفا اگر اشتباه می کنم اصلاح کنید از متون اقتصاد سنجی که تا کنون خوانده ام، بیشتر ذکر شده ناهمگونی از نظر تجربی مشکل عمده ای نیست، اما چند خطی بودن نگرانی بیشتری را برای محققان ایجاد می کند و این که تبدیل داده ها نتایج تجربی را بهبود می بخشد اما ناهمسانی را به طور کامل حذف نمی کند. آیا این درست است؟ در بالا، من از R برای انجام یک رگرسیون خطی پایه با یک رگرسیور و سه ساختگی استفاده کردهام و تست Breusch-Pagan را با استفاده از بسته 'car' و تست VIF با استفاده از بسته 'lmtest' انجام دادهام. پس از آن، من یک رگرسیون دوم را انجام دادم که متغیر وابسته و مستقل را تبدیل به لاگ تبدیل کردم و آزمونهای مشابهی را که در بالا ذکر شد انجام دادم. برای هر دو مدل، m1 برای مدل قبلی و m2 برای مدل دوم، و با استفاده از آزمون VIF، هر دو کمتر از 5 ارائه شده و به طور منطقی میگویند که چند خطی بودن مشکلی نیست، با این حال، برای Breusch-Pagan، m1 نتوانست null را رد کند، اما m2 (logged) رد شد. آن را آیا کسی می تواند مرا روشن کند که چرا نتیجه با نظریه بالا سازگار نیست؟ برخی سوالات مرتبط، 1. آیا بهتر است مدل را تبدیل به لاگ نکنید؟ 2. من مشکوک هستم که رگرسیون با باقیمانده ها همبستگی دارد. آیا آزمایش(هایی) برای درون زایی وجود دارد؟ 3. اگر مدل log ترجیح داده می شود، برای کاهش ناهمگونی در m2 چه کاری می توانم انجام دهم؟ پیشاپیش متشکرم دیلن | ناهمگونی در مدل رگرسیون خطی و تبدیل داده ها |
72523 | > با توجه به دو بردار ستونی $X = (x_1، \dots، x_n)'$ و $Y = (y_1، \dots، > y_m)'$ از متغیرهای تصادفی با لحظههای ثانیه محدود، همبستگی متعارف > تجزیه و تحلیل بردارهای $a را جستجو میکند. $ و $b$ به طوری که متغیرهای تصادفی $a' X$ و > $b' Y$ همبستگی را به حداکثر برسانند $\rho = \operatorname{corr}(a' X, b' Y) = > \displaystyle\frac{a' \Sigma _{XY} b}{\sqrt{a' \Sigma _{XX} a} \sqrt{b' > \Sigma _{YY} b}}$. > > (ویکی پدیا) اکنون، گاهی اوقات، می بینم که این به شکل > $max \ a' \Sigma _{XY} b \\ s.t.\ a' \Sigma_{XX} a = b' \Sigma_{YY} نوشته شده است. b = 1$ من می بینم که مقیاس دادن $a$ یا $b$ با هر اسکالر تاثیری در معادله اول ندارد، اما چگونه می توانم به معادله دوم برسم؟ | درباره تحلیل همبستگی متعارف |
6740 | من در حال خواندن نسخه دوم تجزیه و تحلیل داده های طبقه بندی شده توسط آلن آگرستی هستم و به نوعی در پاراگراف دوم زیر گیر کردم:  من کاملاً درک نمی کنید که چرا $\beta\pi(\hat{x})(1 - \pi(\hat{x}))$ این احتمال را می دهد که $x = 26.3$، کسی میتونه منو روشن کنه؟ با تشکر | راه های جایگزین برای تفسیر شانس |
30942 | من با استفاده از بسته «MCMCglmm» در R برای اجرای یک مدل جلوههای ترکیبی، مشکلات عملکردی دارم. کد به این شکل است: MC1<-MCMCglmm(bull~1,random=~school,data=dt,family=categorical , prior=list(R=list(V=1,fix=1), G=list (G1=list(V=1, nu=0))) , slice=T, nitt=iter, ,burnin=burn, verbose=F) در اطراف وجود دارد 20000 مشاهده در داده ها و آنها در حدود 200 مدرسه دسته بندی شده اند. من تمام متغیرهای استفاده نشده را از دیتافریم حذف کرده ام و تمام اشیاء دیگر را قبل از اجرا از حافظه حذف کرده ام. مشکلی که من دارم این است که زمان زیادی طول می کشد تا اجرا شود، مگر اینکه تکرارها را به تعداد غیرقابل قبولی کم کنم. با 50000 تکرار، 5 ساعت طول می کشد و من مدل های مختلفی برای اجرا دارم. بنابراین میخواهم بدانم آیا راههایی برای سرعت بخشیدن به اجرای کد یا بستههای دیگری وجود دارد که بتوانم از آن استفاده کنم. من از MCMCglmm استفاده می کنم زیرا فواصل اطمینان برای جلوه های تصادفی می خواهم. از طرف دیگر، من امیدوار بودم که در اواخر امسال یک رایانه شخصی جدید دریافت کنم، اما با کمی شانس ممکن است بتوانم آن را به جلو بیاورم، بنابراین فکر می کردم چگونه می توانم مقدار محدودی پول را برای سخت افزار جدید خرج کنم - رم بیشتر. ، CPU سریعتر و غیره. با تماشای Task Manager من فکر نمی کنم RAM مشکل باشد (هرگز از 50٪ استفاده فیزیکی بالاتر نمی رود) ، اما استفاده از CPU نیز خیلی از 50٪ بالاتر نمی رود ، که به نظر من می رسد عجیب و غریب تنظیمات فعلی من یک Intel core i5 2.66GHz، 4GB RAM، 7200rpm HDD است. آیا این معقول است که سریعترین CPU ممکن را به قیمت رم اضافی دریافت کنیم؟ من همچنین در مورد تأثیر اندازه حافظه نهان CPU سطح 3 بر مشکلات محاسباتی آماری مانند این تعجب کردم؟ **به روز رسانی:** پس از پرسیدن در متا، بنابراین به من توصیه شده است که سوال را مجدداً بیان کنم و در Superuser پست کنم. برای انجام این کار، باید جزئیات بیشتری در مورد آنچه در زیر کاپوت در MCMCglmm میگذرد، ارائه دهم. آیا من درست فکر می کنم که بخش عمده ای از زمان محاسبات صرف انجام بهینه سازی می شود - منظورم یافتن حداکثر یک تابع پیچیده است؟ آیا وارونگی ماتریس و/یا سایر عملیات جبر خطی نیز یک عملیات رایج است که می تواند باعث ایجاد تنگنا شود؟ هر گونه اطلاعات دیگری که بتوانم به انجمن Superuser بدهم با کمال امتنان دریافت خواهد شد. | چگونه می توانم کارایی محاسباتی را هنگام برازش مکرر یک مدل پیچیده به مجموعه داده های بزرگ بهینه کنم؟ |
30948 | من سعی می کنم این ویژگی توزیع پارتو را آزمایش کنم: اجازه دهید f(x) یک توزیع پارتو باشد $$ f(x)=\alpha \frac{x_m^\alpha}{x^{\alpha+1}} $$ بنابراین ما سی دی اف را داریم که $$ CDF(x)=\int_{x_m}^{x}\alpha است \frac{t_m^\alpha}{t^{\alpha+1}}dt=1-\frac{x_m^\alpha}{x^\alpha} $$ پس احتمال اینکه $x>x_0$ باشد $$ است P(x>x_0)=1-CDF(x)=\frac{x_m^\alpha}{x^\alpha} $$ و بنابراین ما $$ داریم \frac{P(x>x_0)}{f(x)}=\frac{x}{\alpha} $$ اکنون میخواهم آن را با کتابخانه R. (PtProcess) dd<-rpareto (10000,1.5) آزمایش کنم 0.01) cdf<-ecdf(dd) df<-density(dd) ff<-(1-cdf(df$x))/df$y اگر نمودار ff را رسم کنم (df$x,ff) خط مستقیم درست را بدست نمیآورم. من حدس میزنم که این به دلیل نحوه کارکرد density() و ecdf() باشد. من به این شکل از آزمون (یک ارزیابی پسینی از fd و cdf) نیاز دارم تا بتوانم همان آزمایش را روی نمونهای از دادههای با مبدا ناشناخته انجام دهم. من حدس میزنم که من به راهی نیاز دارم که تابع ecdf() را به همان روشی که hist() نسخه binning چگالی است، کنم. بنابراین سوال من این است: * آیا یک تابع binned معادل از ecdf() وجود دارد زیرا hist() تابع binned density() است؟ * یا می توانم ecdf() را با hist() شبیه سازی کنم؟ | مشکل با توزیع پارتو و R |
50140 | من یک مجموعه داده از بردارهای بعدی (اشیاء) $n$ $p$ دارم که میخواهم آنها را خوشهبندی کنم. 1. یک راه برای انجام این کار این است که ماتریس همبستگی ($n \times n$) را محاسبه کنید، سپس یک ماتریس عدم تشابه، $D$، از $C$ به دست آورید، به طوری که هر عنصر $d_{ij}$ در $D$ تابعی از عنصر منفرد $c_{ij}$ در $C$ است (به عنوان مثال، $D=1-C$)، و سپس در $D$ خوشه میشود. 2. در عوض، من می خواهم $C$ را بگیرم و $D$ را به دست بیاورم، به طوری که هر عنصر $d_{ij}$ از $D$ تابعی از کل بردارهای $C_i$ و $C_j$ در $C$ باشد ( برای مثال، $d_{ij}$ میتواند فاصله اقلیدسی بین $C_i$ و $C_j$ باشد. چرا 2)؟: * رویکرد 1) عدم تشابه (فاصله) بین دو بردار ورودی $i$ و $j$ را صرفاً به عنوان تابعی از شباهت بین $i$ و $j$ محاسبه می کند. در مقابل، رویکرد 2) عدم تشابه (فاصله) بین دو بردار ورودی $i$ و $j$ را به عنوان تابعی از شباهت شباهتهای بین $i$ و همه بردارهای دیگر در مقابل $j$ و همه بردارهای دیگر محاسبه میکند. * در مورد مشکلاتی که با آنها کار می کنم، به نظر می رسد رویکرد 2) در عمل بهتر عمل می کند. آنچه من در تعجب هستم **این است که آیا دلیلی وجود دارد که ** رویکرد 2 معتبر نباشد؟ | خوشه بندی و همبستگی |
48667 | آیا نرمال سازی چندک برای عادی سازی داده ها با نمونه های بسیار کم کافی است؟ برای مثال این داده های ریزآرایه. معمولاً پس از نرمالسازی، میخواهیم «Cancer-1 را با Normal» و «Cancer-2 را با Normal» برای بیان دیفرانسیل مقایسه کنیم. mRNA سرطان-نوع 1 سرطان-نوع-2 طبیعی ------------------------------------- --------------------- mRNA1 30 49 12 mRNA2 199 200 78 ... ... ... .... mRNA1000 13 40 88 اگر نه روش عادی سازی مناسب چیست؟ | حد نرمال سازی چندک |
109223 | من میخواهم برخی از مطالعاتی را که قبلا جمعآوری و مرور کردهام متاآنالیز کنم. با این حال، به دلیل نوع سؤالات مورد استفاده، در این مطالعات از گروه کنترل استفاده نشده است. چگونه می توانم متاآنالیز را انجام دهم یا از کدام نرم افزار می توانم استفاده کنم؟ به طور خلاصه مشکل من به شرح زیر است: من مطالعاتی را مرور کردم که هدف آنها ارزیابی ادراک نمونه های خاصی از رفتار خودشان بود. برای هر مطالعه، نسبت نمونه ای که مدعی اتخاذ رفتار در تجزیه و تحلیل است، معادل اندازه اثر است. آیا ایده ای دارید که چگونه می توانم اندازه متوسط اثر را تعیین کنم؟ متشکرم | چگونه می توان یک متاآنالیز مطالعات را بدون گروه کنترل انجام داد؟ |
50148 | فرض کنید دادههای $y_j \sim \text{Poi}(\lambda)$ به ما داده میشود و فرض میکنیم $y_j$ iid است. می توانیم فرض کنیم که توزیع قبلی برای $\theta$ به دنبال $\text{Gamma}(\alpha, \beta)$ است، توزیع پسین $\theta | y$ نیز گاما است در حالی که توزیع پیش بینی پسین دو جمله ای منفی است. سوال من این است که پس از استخراج همه چیز در بالا، چگونه میخواهید یک **تست کمیتهای پیشبینیکننده پسین را برای بررسی **_independent_** توزیعهای پواسون تنظیم کنید؟ توجه داشته باشید که کمیت آزمون تابعی از پارامترها و داده ها در زمینه بیزی است. این شبیه به یک آماره آزمون در آمار کلاسیک است. | چگونه برای بررسی توزیعهای پواسون مستقل، یک کمیتهای آزمایش پیشبینی پسین (زمینه بیزی) تنظیم کنیم؟ |
72529 | در R، تابع Wilcox.test آرگومان conf.level = 0.095 را می گیرد (برای مثال). با دادن همان آرگومان به تابع wilcoxsign_test از بسته _coin_ یک اخطار برمیگرداند: آرگومانهای اضافی conf.level نادیده گرفته میشوند **Wilcoxsign_test از چه سطح اطمینان پیشفرضی استفاده میکند، و چگونه میتوانم آن را تغییر دهم؟** _یا :_ چرا برای این عملکرد به سطح اطمینان نیاز ندارم؟ | چگونه سطح اطمینان را برای wilcoxsign_test (سکه بسته) تنظیم کنیم؟ |
111839 | من سعی می کنم بهترین راه را برای تجزیه و تحلیل یک مطالعه به دست بیاورم. این مطالعه شامل افرادی میشود که تا 10 مداخله مختلف به آنها داده میشود، که به موجب آن فرکانس بستری در بیمارستان به عنوان یک پیامد اندازهگیری میشود. هر مداخله بهطور تصادفی انجام نمیشود، و برخی از افراد ملزم به انجام هر 10 مورد نیستند. همچنین، مداخلات را میتوان به ترتیب مختلف برای هر فرد انجام داد، اما یک مداخله خاص ممکن است فقط یک بار برای هر فرد استفاده شود. **به این ترتیب، مسلم است که اکثریت این افراد با آنها زندگی می کنند و اثرات مداخلات متعدد را به طور همزمان تجربه می کنند** سؤالات این است که با نگاه کردن به بیمارستان، تأثیر هر مداخله فردی را اندازه گیری کنیم. داده های نتیجه؟ به نظر من این یک مفهوم پیچیده است تا ذهنم را به خود جلب کنم، به عنوان مثال اگر بخواهم تأثیر مداخله 1 را اندازه گیری کنم، ممکن است بگویم کل مدت زمانی که افراد قبل از مداخله در آنجا زندگی می کنند و تعداد کل افراد چقدر است. زمانی که مردم بعد از مداخله زندگی می کنند - جایی که من پیامد سلامتی هر دو دوره را اندازه گیری می کنم. مشکل این است که برخی از این افراد سالها نیز دارای سالها زندگی قبل/پس از مداخله متفاوت هستند. آیا کسی ایده ای در مورد اینکه چگونه می توانم از داده ها برای اندازه گیری تأثیر هر متغیر جداگانه استفاده کنم، دارد؟ | چگونه می توانم یک تجزیه و تحلیل آماری را در یک مطالعه مبتنی بر مداخله انجام دهم؟ |
109224 | دادههای من جدول کسینوسها هستند و میخواهم آنها را با hclust تجزیه و تحلیل کنم که بر روی مجذور فاصلههای اقلیدسی کار میکند. آیا انجام دهم: d <- dist(mydata, method = euclidean) fit <- hclust(d, method=ward) یا بهتر بگویم: d=(dist(mydata))^2 fit <- hclust(d, روش = ward) من نمی دانم چگونه با کسینوس های خود با hclust رفتار کنم که به فاصله های اقلیدسی مجذور نیاز دارد. با تشکر!!! | تابع R. hclust، فواصل اقلیدسی و کسینوس |
105972 | من یک سوال آماری کلی دارم. سه مدرسه A، B و C دارای 0.23، 0.56 و 0.8 کسر معلم زن هستند. فواصل اطمینان بالا و پایین (CI) برای سه مدرسه را می توان به شکل زیر جدول بندی کرد: معلمان_مدرسه_مدرسه upper_CI low_CI A 0.33 0.53 0.13 B 0.55 0.65 0.45 C 0.80 0.90 0.70 اگر از من خواسته شود که میانگین معلمان زن را گزارش کنم. من میتوانستم بگویم که مجموعاً سه مدرسه: (0.33+0.55+0.8)/3 یا 0.56. چگونه CI را برای کسر متوسط تعریف کنم؟ میانگین CI داده شده نیز به عنوان مثال بالا: 0.69 و پایین: 0.43?? آیا این بهترین راه برای انجام چنین محاسباتی است؟ | میانگین فواصل اطمینان دو جمله ای |
30941 | من به Treemapping به عنوان یک تکنیک بالقوه تجسم داده ها نگاه کرده ام. رجوع: مقاله ویکیپدیا در مورد ترسیم درخت اگرچه در بسیاری از تجسمها محبوب هستند، به نظر من در انتقال اطلاعات مؤثر نیستند. این به این دلیل است که به نظر می رسد برای درک نیاز به پردازش دقیق دارد و مقایسه معنادار بین عناصر دشوار است. به نظر می رسد این آشفتگی مانع از یک نقطه می شود. میخواهم نظر شما را بدانم: **آیا نقشههای درختی در انتقال اطلاعات مؤثر هستند؟** | آیا نمودارهای نقشه درختی در انتقال اطلاعات موثر هستند؟ |
81885 | پیشینه: سازمان من در حال حاضر آمار تنوع نیروی کار خود را (مثلاً ٪ افراد دارای معلولیت، ٪ زنان، ٪ جانبازان) با کل نیروی کار در دسترس برای آن گروه ها بر اساس نظرسنجی جامعه آمریکا (یک پروژه نظرسنجی توسط اداره سرشماری ایالات متحده) مقایسه می کند. این یک معیار نادرست است، زیرا ما مجموعهای از مشاغل خاص داریم که جمعیتشناسی متفاوتی نسبت به کل نیروی کار دارند. مثلاً بگویید که سازمان من بیشتر مهندس است. مهندسی فقط حدود 20 درصد در ایالت من زن هستند. اگر خودمان را با معیار کل نیروی کار مقایسه کنیم، که بیشتر شبیه 50 درصد زنان است، به وحشت میرسیم که «ما فقط 20 درصد زن داریم، این یک فاجعه است!» وقتی واقعاً، 20٪ چیزی است که باید انتظارش را داشته باشیم، زیرا این همان چیزی است که چشم انداز کار به نظر می رسد. هدف من: کاری که میخواهم انجام دهم این است که دادههای شغلی نظرسنجی جامعه آمریکا (بر اساس دستهبندی تنوع) را بگیرم و آنها را بر اساس ترکیب مشاغل در کسبوکارم وزن کنم. در اینجا یک مجموعه داده نمونه برای کارکنان خدمات اجتماعی و اجتماعی است. من میخواهم این کدهای شغلی فهرستشده را با هم اضافه کنم (زیرا خط عابر پیاده ما به گروههای شغلی است، نه به کدهای شغلی خاص)، سپس میخواهم آن معیار را بر اساس تعداد افرادی که در آن دسته داریم وزن کنم (مثلاً 3000 نفر اجتماعی و کارگران خدمات اجتماعی)، سپس میخواهم همین کار را با همه گروههای شغلی دیگر انجام دهم، آن اعداد را با هم جمع کرده و بر تعداد کل کارگران خود تقسیم کنم. این به من یک معیار تنوع وزنی جدید می دهد (مثلاً از 6٪ افراد دارای معلولیت به 2٪ افراد دارای معلولیت). سؤالات من: چگونه می توانم حاشیه های خطا را با این معیار نهایی جمع شده تطبیق دهم؟ من مجموعه دادههای خام سرشماری را ندارم (بدیهی است)، اما میتوانید حاشیههای خطا را برای هر عدد در پیوندی که ارائه کردهام با تغییر دادن فیلد «تخمین» به «حاشیه خطا» در بالای جدول مشاهده کنید. سایر همکاران من که با این دادهها کار میکنند، کاملاً قصد دارند حاشیههای خطا را نادیده بگیرند، اما من نگرانم که از نظر آماری یک معیار بیمعنی برای خود ایجاد کنیم. آیا این داده ها حتی پس از دستکاری که در بالا توضیح داده شد هنوز قابل استفاده است؟ | وزندهی مجدد دادههای تنوع نظرسنجی جامعه آمریکایی چگونه بر حاشیههای خطا آن تأثیر میگذارد؟ |
23234 | من روی یک مجموعه داده کار می کنم تا تأثیر خشک شدن بر فعالیت های میکروبی رسوب را ارزیابی کنم. هدف تعیین این است که آیا تأثیر خشک شدن در بین انواع رسوب و/یا عمق درون رسوب متفاوت است یا خیر. طرح آزمایشی به شرح زیر است: * اولین عامل **رسوب** مربوط به سه نوع رسوب (کد Sed1، Sed2، Sed3) است. برای هر نوع رسوب، نمونه برداری در سه سایت (3 سایت برای Sed1، 3 سایت برای Sed2، 3 سایت برای Sed3) انجام شد. * **سایت** کدگذاری شده است: Site1, Site2, ..., Site9. * عامل بعدی **هیدرولوژی** است: در داخل هر سایت، نمونه برداری در کرت خشک و در کرت مرطوب (کد Dry/Wet) انجام می شود. در هر یک از کرت های قبلی، نمونه برداری در دو عمق ** (D1، D2) در سه تکرار انجام می شود. در مجموع n = 108 نمونه = 3 رسوب * 3 سایت * 2 هیدرولوژی * 2 عمق * 3 تکرار وجود دارد. من از تابع `lme()` در R (بسته nlme) به صورت زیر استفاده می کنم: Sediment <- as.factor(rep(c(Sed1, Sed2, Sed3),each=36)) سایت <- as.factor(rep(c(Site1, Site2, Site3, Site4, Site5, سایت 6، سایت 7، سایت 8، سایت 9)، هر=12)) هیدرولوژی <- as.factor(rep(c(خشک، تر)، هر=6)، 9 )) عمق <- as.factor(rep(c(D1,D2),each=3),18)) متغیر <- rnorm(108) mydata <- data.frame(Sediment,Site,Hydrology, Depth, Variable) mod1 <- lme(Variable ~ Sediment*Hydrology*Depth, data=mydata, random=~1|Site/Hydrology/Depth) anova(mod1) من می خواهم یک مقایسه _post-hoc_ را برای آزمایش اینکه آیا یک عبارت مهم است یا نه، اجرا کنید. من میتوانم این کار را برای یک افکت اصلی ساده انجام دهم (مثلاً **Sediment**): summary(glht(mod1,linfct=mcp(Sediment=Tukey))) اما تابع glht() این کار را انجام نمیدهد. برای شرایط تعامل کار نمی کند. من متوجه شدم که موارد زیر می تواند برای یک anova دو طرفه کار کند: mod1 <- lme(Variable~Sediment*Hydrology, data=mydata, random=~1|Site/Hydrology) mydata$SH <- interaction(mydata$Sediment, mydata $Hydrology) mod2 <- lme(متغیر ~ -1 + SH، data=mydata، خلاصه random=~1|سایت/هیدرولوژی)(glht(mod2, linfct=mcp(SH=Tukey))) آیا می توان از همین رویکرد در مورد آنووا سه طرفه استفاده کرد؟ هر کمکی در راه انجام مقایسه _post-hoc_ در مورد شرایط تعامل در این مورد بسیار قدردانی خواهد شد. | چگونه می توان مقایسه پس از اتفاقی را در اصطلاح تعامل با مدل اثرات مختلط انجام داد؟ |
95813 | من به دنبال الگوریتم یا تابعی هستم تا به تفاوت زمان واکنش پس از بازخورد منفی نگاه کنم. مشکل این است که من باید فقط زمان هایی را در نظر بگیرم که در آن بازخورد منفی پس از 3 بازخورد مثبت آمده است و همه شرکت کنندگان به همان تعداد بازخورد منفی (یا ضرر) ندارند. با تشکر | کاهش اثر |
35246 | مسئله انتخاب متغیر با ابعاد بالا در حال حاضر واقعاً محبوب است. اما من یک سوال دارم: اگر من یک رگرسیون خطی ساده را با رگرسیون یک متغیر پاسخ در 1 متغیر کمکی در یک زمان انجام دهم و سپس FDR را برای انتخاب متغیرهای ویژگی مهم کنترل کنم، این در مقایسه با الگوریتم کمند یا گروه کمند چه ضرری دارد. متغیرهای ویژگی را به طور همزمان انتخاب کنید؟ اساساً این سؤال را می توان به **تفاوت بین رگرسیون یک متغیر پاسخ در چندین متغیر کمکی در مقابل 1 متغیر کمکی در یک زمان کاهش داد؟** | انتخاب متغیر یک به یک در مقابل همزمان |
50321 | فرض کنید یک کیسه 100 سکه ای دارید که 1 سکه با هر دو طرف به عنوان سر است. یک سکه از کیسه بردارید و سه بار آن را پرتاب کنید. نتیجه هر سه پرتاب Heads است. احتمال سوگیری سکه انتخابی چقدر است؟ پاسخ من:- P (انتخاب یک سکه مغرضانه) = 1/100 P (به دست آوردن سه سر سکه با سکه مغرضانه) = 1 P (انتخاب یک سکه بی طرفانه) = 99/100 P (به دست آوردن سه سر سکه با سکه بی طرفانه) = 1/8 P (انتخاب یک سکه مغرضانه | پرتاب سکه منجر به 3 سر شد) = P(انتخاب یک سکه مغرضانه و سه بار گرفتن سر)/ [P(انتخاب یک سکه مغرضانه و گرفتن سر سه بار) + P(انتخاب یک سکه بی طرفانه و گرفتن سر سه بار)] = (1/100)/[(1/100) + (99/800)] = (1/100)/(107/800) = 8/107 = 0.0747 آیا این درست است؟ با تشکر | احتمال انتخاب یک سکه مغرضانه |
3907 | ما دادههای آیندهنگر از یک ثبت مشاهدهای داریم و میخواهیم تأثیرات یک ژن را به موقع بر رویدادهای قلبی عروقی در نظر بگیریم. داده ها شامل داده های استاندارد مانند سن، جنسیت، ... و همچنین تاریخ (سن) یک رویداد قلبی است. به طور کلی شرایط / مفروضات / الزامات یک زمان شروع برای تجزیه و تحلیل بقا چیست؟ ورود به رجیستری برای هر فرد به صورت تصادفی انجام می شود (همانطور که او در رجیستری استخدام می شود). این بدیهی است که هیچ داده ای نیست که در آن ژن های شرکت کنندگان در رجیستری تغییر کند، و هیچ مداخله ای وجود ندارد. آیا استفاده از تاریخ ثبت نام در رجیستری به عنوان زمان شروع تجزیه و تحلیل بقا معتبر است؟ ما (گروهی که روی این موضوع کار میکنند) میپرسیم زیرا کارهایی انجام شده است و تاریخ ثبتنام به عنوان زمان شروع فاصله بقا استفاده شده است و اکنون در مورد اینکه آیا این یک رویکرد معتبر است یا خیر، اختلاف نظر وجود دارد. | الزامات یا مفروضات زمانی شروع برای تجزیه و تحلیل بقا |
50149 | داشتم در مورد تجزیه و تحلیل داده های بیزی گلمن - فصل 5 - مدل سلسله مراتبی می خواندم. فرض کنید: داده: پارامتر $y_j$s: فراپارامتر $\theta$: $\phi$ در صفحه 126، او مشتق تحلیلی توزیع های شرطی و حاشیه ای را ذکر می کند. من میدانم که به راحتی میتوانیم توزیع مشترک پسین را با استفاده از فاکتورسازی بر اساس قضیه بیز استخراج کنیم، اما نمیدانم چگونه توزیع پسین مشروط $p(\theta|\phi,y)$ را استخراج کنیم. آیا روش کلی برای استخراج توزیع پسین شرطی وجود دارد؟ شاید بر اساس قضیه بیز؟ لطفا کامل توضیح بدید | چگونه می توان چگالی پسین مشروط را در مدل های بیزی سلسله مراتبی استخراج کرد؟ |
32735 | به عنوان یک موسسه مالی، ما اغلب با تجزیه و تحلیل داده های سری زمانی مواجه می شویم. بسیاری از اوقات ما با استفاده از متغیرهای سری زمانی به انجام رگرسیون می پردازیم. همانطور که این اتفاق می افتد، ما اغلب با باقیمانده هایی با ساختار سری زمانی مواجه می شویم که فرض اساسی خطاهای مستقل در رگرسیون OLS را نقض می کند. اخیراً ما در حال ساخت مدل دیگری هستیم که در آن رگرسیون با خطاهای همبسته خودکار داریم. باقیماندههای مدل خطی «lm(object)» دارند که به وضوح ساختار AR(1) دارد، همانطور که از ACF و PACF مشهود است. من دو رویکرد مختلف را در پیش گرفتم، اولین مورد بدیهی است که مدل را با استفاده از حداقل مربعات تعمیم یافته «gls()» در R برازش می دادم. اما باقیماندههای «gls(object)» هنوز همان ساختار ARIMA را دارند که در رگرسیون معمولی وجود دارد. متأسفانه چیزی در کاری که انجام می دهم وجود دارد که نتوانستم آن را بفهمم. از این رو تصمیم گرفتم به صورت دستی ضرایب رگرسیون را از مدل خطی تنظیم کنم (تخمین OLS). با کمال تعجب به نظر می رسد که وقتی من باقیمانده ها را از رگرسیون تنظیم شده رسم کردم، کار می کند (بقایای نویز سفید هستند). من واقعاً میخواهم از «gls()» در بسته «nlme» استفاده کنم تا کدنویسی بسیار سادهتر و آسانتر شود. رویکردی که در اینجا باید در پیش بگیرم چه خواهد بود؟ آیا قرار است از REML استفاده کنم؟ یا اینکه انتظار من از باقیمانده های غیر همبسته (نویز سفید) از شی ()gls اشتباه است؟ gls.bk_ai <- gls(PRNP_BK_actINV ~ PRM_BK_INV_ENDING + NPRM_BK_INV_ENDING، همبستگی=corARMA(p=1)، متد='ML'، داده = fit.cap01A) gls2.bk_ai <- به روز رسانی(gls.MA_relationa) =2)) gls3.bk_ai <- به روز رسانی(gls.bk_ai، همبستگی = corARMA(p=3)) gls0.bk_ai <- به روز رسانی(gls.bk_ai، همبستگی = NULL) anova(gls.bk_ai، gls2.bk_ai، gls3.bk_ai، .bk_ai) ## با نگاه کردن به مقدار AIC، gls مدل با AR(1) بهترین شرط خواهد بود acf2(residuals(gls.bk_ai)) # باقیمانده نویز سفید نیست آیا کاری که من انجام می دهم اشکالی دارد؟؟؟؟؟؟؟ | خطاهای غیر همبسته از مدل تعمیم یافته حداقل مربعات (GLS) |
66795 | آیا تنوعی از تخصیص دیریکله پنهان (LDA) برای داده های گروه بندی شده وجود دارد؟ به عنوان مثال، اجازه دهید مجموعه تمام پرسشها و پاسخهای یاهو را در نظر بگیریم (که برای سادگی، یک سؤال را به همراه تمام پاسخهای مربوطه به عنوان یک سند در نظر میگیریم). هنگام ارسال یک سوال به سایت یاهو، کاربر باید دسته ای را که به آن تعلق دارد را مشخص کند (بگذارید دوباره برای سادگی فرض کنیم که دسته ها به جای سلسله مراتبی ساده هستند). آیا نسخه ای از LDA وجود دارد که از این اطلاعات استفاده کند؟ | مدل سازی موضوع برای داده های گروه بندی شده |
92776 |  قسمت(a) را انجام دادم. اکنون باید قسمت (b) را انجام دهم: میخواهم توزیع میانگین $M$ را با استفاده از R شبیهسازی کنم. نمیدانم چگونه آن را حل کنم. و برای قسمت (c)، آیا باید از R نیز استفاده کنم؟ این کاری است که من انجام دادم میانهها <- vector(length=100) برای (i در 1:100) { x <- rnorm(n=15,mean=0,sd=1) medians[i] <- median(x ) } hist (وسط ها) | توزیع میانه را شبیه سازی کنید |
32730 | کد زیر شباهت بین دو سری زمانی را ارزیابی می کند: set.seed(10) RandData <- rnorm(8760*2) America <- rep(c('NewYork','Miami'),each=8760) Date = seq( from=as.POSIXct(1991-01-01 00:00), to=as.POSIXct(1991-12-31 23:00), length=8760) DatNew <- data.frame(Loc = America, Doy = as.numeric(format(Date,format = %j) ), Tod = as.numeric(format(Date,format = %H)), Temp = RandData, DecTime = تکرار(1، طول(RandData)/2) / (طول(RandData)/2)، 2)) نیاز(mgcv) mod1 <- gam(Temp ~ Loc + s(Doy) + s(Doy,by = Loc) + s(Tod) + s(Tod,by = Loc),data = DatNew, متد = ML) در اینجا از «gam» برای ارزیابی کنید که چگونه دما در نیویورک و میامی از میانگین دمای (هر دو مکان) در ساعات مختلف روز متفاوت است. مشکلی که اکنون دارم این است که باید یک اصطلاح تعاملی اضافه کنم که نشان دهد دمای هر مکان در طول روز در روزهای مختلف سال چگونه تغییر می کند. در نهایت امیدوارم بتوانم تمام این اطلاعات را در یک نمودار (برای هر مکان) نمایش دهم. بنابراین، برای میامی امیدوارم یک نمودار داشته باشم که نشان دهد چگونه دما از میانگین در زمان های مختلف روز و زمان های مختلف سال متفاوت است (نقشه سه بعدی؟) | چگونه یک اصطلاح تعامل را در GAM قرار دهیم؟ |
50141 | من یک جستجو برای این سوال انجام دادم (فکر می کردم حتما باید پرسیده شود)، اما یکی را پیدا نکردم. امیدوارم این تکراری نباشد من سعی می کنم تصمیم بگیرم که آیا باید دوره ای را در زمینه آمار بگذرانم که بیشتر پارامتری باشد یا دوره ای که ناپارامتریک باشد. از منظر ریاضی، مزایای یادگیری یکی بر دیگری چه خواهد بود؟ آیا تا آنجا که در صنعت کار می کند، یکی نسبت به دیگری مزیت بیشتری دارد؟ | پارامتریک در مقابل ناپارامتریک |
32736 | من اطلاعاتی در مورد 18 شرکت کننده دارم که به یک ساز 30 آیتمی پاسخ می دهند. من همچنین مقاله ای دارم که در آن محققان یک تحلیل عاملی محور اصلی را در همان نظرسنجی انجام دادند که در آن بارگذاری آیتم ها را گزارش کردند (4 عامل). **آیا می توان داده هایی را که در اختیار دارم تبدیل کرد و امتیازات هر شرکت کننده را بر اساس چهار عامل بر اساس بارگذاری های منتشر شده محاسبه کرد؟** | چگونه می توان بارگذاری های تحلیل عاملی منتشر شده را در داده های نمونه برای محاسبه امتیازات عامل اعمال کرد؟ |
55519 | داشتم مقاله ای می خواندم که مربوط به کمینه بودن بود.  اگر $\hat{\theta}$ تخمین پارامتر ناشناخته $\theta$ و $l(\hat باشد \theta-\theta)$ تابع ضرری است که آنها ذکر کردند $E_p$ میانگین $l(\hat\theta-\theta)$ در توزیع P است. من این قسمت را دریافت نکردم. اگر $\hat\theta$ تخمینی باشد و $\theta$ پارامتر ناشناخته توزیع P باشد، آنگاه $\theta$ ثابت است زیرا میانگین توزیع P است که مشخص نیست. بنابراین منظور از انتظار $l(\hat\theta-\theta)$ چیست | سردرگمی مربوط به انتظار |
35249 | من رشته های آدرس زیادی دارم: 1600 Pennsylvania Ave, Washington, DC 20500 USA می خواهم آنها را به اجزای آنها تجزیه کنم: خیابان: 1600 خیابان پنسیلوانیا شهر: استان واشنگتن: دی سی کدپستی: 20500 کشور: ایالات متحده آمریکا اما البته داده ها کثیف هستند : از بسیاری از کشورها به زبان های مختلف می آید، به روش های مختلف نوشته شده است، حاوی غلط املایی است، قطعات گم شده است، در حال حاضر رویکرد ما استفاده از قوانین همراه با تطبیق روزنامه فازی است، اما ما میخواهیم تکنیکهای یادگیری ماشین را بررسی کنیم. ما داده های آموزشی را برای یادگیری تحت نظارت برچسب گذاری کرده ایم. سوال این است که این چه نوع مشکل یادگیری ماشینی است؟ به نظر نمیرسد که واقعاً خوشهبندی، طبقهبندی یا رگرسیون باشد... نزدیکترین چیزی که میتوانم به آن برسم، طبقهبندی هر نشانه است، اما واقعاً میخواهید همه آنها را به طور همزمان طبقهبندی کنید، محدودیتهایی مانند باید وجود داشته باشد. حداکثر یک کشور؛ و واقعاً راههای زیادی برای توکن کردن یک رشته وجود دارد، و شما میخواهید هر کدام را امتحان کنید و بهترین را انتخاب کنید... میدانم چیزی به نام تجزیه آماری وجود دارد، اما چیزی در مورد آن نمیدانم. بنابراین: چه تکنیک های یادگیری ماشینی را می توانم برای تجزیه آدرس ها بررسی کنم؟ | تکنیک های یادگیری ماشین برای تجزیه رشته ها؟ |
72525 | آیا آزمایشهای عمومی وجود دارد که تأیید کند اگر یک نمونه معین از توزیع تکوجهی پیروی میکند، مانند گاوسی، کوشی، t دانشجویی یا کایدو؟ | آزمایش عمومی برای یکنواختی نمونه داده شده |
94081 | سوال سریع در مورد نمونه برداری از یک جامعه داده که حاوی داده های غیر همپوشانی است: اگر من دو نمونه 50 تایی را از یک جمعیت 100000 نقطه داده منحصربفرد بگیرم، چگونه احتمال اینکه دو نمونه حاوی یک نقطه داده مشترک هستند را محاسبه کنم؟ همچنین، چگونه می توانم اندازه جمعیت مورد نیاز برای احتمال همپوشانی زیر یک نقطه خاص (0.05٪) را برای $n=50$ تعیین کنم؟ با تشکر | احتمال وجود دو نمونه حاوی داده های همپوشانی |
43826 | پیشاپیش بابت سوالات نسبتا طولانی پوزش می طلبم. این یک مثال در تجزیه و تحلیل داده های منطقی بیزی برای علوم فیزیکی توسط P. C. Gregory است و من سؤالاتی در مورد مثال دارم. > در یک نظرسنجی از 800 رأی دهنده تصمیم گیری، 440 رأی دهنده از حزب سیاسی A حمایت کردند. > بیایید نتیجه نظرسنجی را به عنوان $D$ نشان دهیم. مقدار مورد علاقه احتمال > این است که حزب A به اکثریت حداقل 51 درصد در > انتخابات آینده دست یابد، با فرض اینکه نظرسنجی نماینده > جمعیت در زمان انتخابات باشد. کتاب مسئله را به عنوان یک مسئله انتخاب مدل در نظر می گیرد. $M_1$ : حزب A با پارامتر $H$ که دارای یکنواختی قبلی در محدوده $0.51 \le H \le 1$ است به اکثریت دست خواهد یافت. $M_2$ : حزب A با پارامتر $H$ که دارای یکنواختی قبلی در محدوده $0 \le H < 0.51$ است به اکثریت دست نخواهد یافت. اگر هیچ دلیل قبلی برای ترجیح دادن $M_1$ به $M_2$ نداریم، میتوانیم نسبت شانس را بنویسیم: $$ \begin{aligned} O_{12}&=p(M_1|D,I)/p(M_2|D ,I)\\ &=p(D|M_1,I)/p(D|M_2,I)\\ &=\frac{\int_{0.51}^1 p(H|M_1،I)p(D|H،M_1،I) dH }{\int_{0}^{0.51} p(H|M_2،I)p(D|H،M_2،I) dH} \\ &=\frac{\int_{0.51}^1 (1/0.49)p(D|H,M_1,I) dH }{\int_{0}^{0.51} (1/0.51)p(D|H,M_2,I) dH}\\ &=87.68 \end{aligned} $$ سؤالات من اینجاست: کتاب اینطور نیست عبارات صریح برای $p(D|H,M_1,I)$ و $p(D|H,M_2,I)$ ارائه دهید. اگر از توزیع دو جمله ای استفاده کنم: $$ p(D|H,M_1,I)=p(D|H,M_2,I)=\frac{800! H^{440}(1-H)^{800-440}}{440!(800-440)!} $$ در نتیجه من $87.03$ دریافت می کنم. با ارزش 87.68 دلار کتاب یکسان نیست. **از چه توزیع احتمالی برای احتمالات استفاده کنم؟** **چرا باید مدل های $M_1$ و $M_2$ را معرفی کنم؟ چرا برای برخورد با مشکل به این صورت مناسب نیست:** $$ O_{12}=\frac{\int_{0.51}^1 p(H|D,I) dH}{\int_{0}^{ 0.51} p(H|D,I) dH} $$ فاکتور $(1/0.49)/(1/0.51)$ معرفی شده با مدل های $M_1$ و M_2$. | تحلیل بیزی از یک نظرسنجی |
50145 | هزینه هر کلیک با هزینه هر نمایش و نرخ کلیک تعریف می شود. با توجه به یک دوره زمانی، تعداد کلیکها را بر مجموع هزینه هر نمایش برای همه تبلیغات در یک دوره زمانی تقسیم کنید. هزینه به ازای هر کلیک معادل نرخ کلیک ضرب در هزینه هر نمایش است (که فرض می شود مستقل هستند). من قبلاً میدانم که چگونه اهمیت تغییرات در نرخ کلیک و هزینه هر نمایش را گزارش کنم. چگونه می توانم یک ارزش مهم برای هزینه هر کلیک گزارش کنم؟ cpi = هزینه / نمایش ctr = کلیک / نمایش cpc = هزینه / کلیک cpc / کلیک = هزینه cpc / کلیک / نمایش = هزینه / نمایش cpc = (کلیک / برداشت) * (هزینه / برداشت) cpc = ctr * cpi | چگونه می توان اهمیت متغیری را که به دو متغیر دیگر وابسته است گزارش کرد؟ |
55514 | جمعیتی از مردم را تصور کنید که $x\%$ کلاه آبی دارند و $(100-x)\%$ کلاه سبز دارند که هر ساله به برخی افراد جوایزی اهدا می شود. قانون این است که همه باید شانس یکسانی برای دریافت جایزه در هر سال داشته باشند. رؤسای دهکده میخواهند تصمیم بگیرند که آیا این قانون رعایت میشود، زیرا آنها گمان میکنند ممکن است تعصبی بر اساس رنگ کلاه وجود داشته باشد. آنها تعداد افرادی که کلاه آبی دارند را می شمارند که جایزه می گیرند و به آن $A$ می گویند و همچنین تعداد افرادی که کلاه سبز دارند جایزه می گیرند و به آن $B$ می گویند. اندازه کل جمعیت کلاه سبز و آبی $P$ است. روش خوبی برای تعیین اینکه آیا اعطای جایزه واقعاً منصفانه بوده است چیست؟ | تعیین اینکه آیا جوایز منصفانه هستند یا خیر |
77460 | فرضیه تحقیق من این است که یک مداخله، من، نمرات بیشتری نسبت به کنترل، C دارد. اگر فواصل این دو با هم تداخل نداشته باشند، میدانم که میتوانم با پذیرش یا رد فرضیهام اظهارنظر واضحی داشته باشم. با این حال، من همچنین میخواهم «درجه شواهد به نفع» انواع گزارهها را در صورت همپوشانی آنها ایجاد کنم. در زیر قانون تصمیم گیری من وجود دارد: با فرض اینکه عرض فواصل به اندازه کافی مشابه باشد تا مقایسه را تعصب نکنیم، اگر حد بالایی برای I از حد بالایی برای C بیشتر باشد و همپوشانی O، 0٪ <O < 50٪ باشد. اگر فرضیه فوق درست باشد به جز 50% <= O < 100%، در این صورت شواهد زیادی علیه فرضیه من وجود دارد که حتی با جریمه قابل قبول نیست. در تمام موارد دیگر همپوشانی، فرضیه من رد خواهد شد. این برای من شهودی است اما برای استاد آمار من اینطور نبود. این به این معنا نیست که او تا آنجا که مطمئن نبود مخالف بود. من آن را دوست دارم زیرا به نظر می رسد شبیه آزمایش در برابر یک مدل تهی با یک جایگزین با Bayes Factors است که در آن شما این حمایت نسبی موافق و مخالف را دارید، به جز اینکه من به طور مستقیم پارامترها را تخمین می زنم. نظراتی در مورد این ایده چیست؟ | قوانین تصمیم گیری بر اساس میزان همپوشانی بین فواصل احتمال بیزی |
77465 | $$My \ \ مجموعه داده:$$ $$1: A,B,C,E$$ $$2:A,C,D,E$$ $$3:\ \ \ \ \ B,C,E$$ $$4 :A,C,D,E$$ $$5:\ \ \\ C, D, E$$ $$6: \ \ \\ A, D,E$$ میخواهم ** مجموعههای آیتمهای مکرر حداکثر را پیدا کنم ** و ** بسته شد مجموعه اقلام مکرر **. * مجموعه آیتمهای مکرر $X ∈ F$ **حداکثر** است اگر سوپر مجموعههای مکرر نداشته باشد. * مجموعه آیتم های مکرر X ∈ F اگر سوپرست با فرکانس یکسان نداشته باشد **بسته** است * * * بنابراین من وقوع هر مجموعه آیتم را شمارش کردم. {A} = 4 ; {b} = 2 ؛ {C} = 5 ؛ {D} = 4 ؛ {E} = 6 {A,B} = 1; {A,C} = 3; {A,D} = 3; {A,E} = 4; {B,C} = 2; {B,D} = 0; {B,E} = 2; {C,D} = 3; {C,E} = 5; {D,E} = 3 {A,B,C} = 1; {A,B,D} = 0; {A,B,E} = 1; {A,C,D} = 2; {A,C,E} = 3; {A,D,E} = 3; {B,C,D} = 0; {B,C,E} = 2; {C,D,E} = 3 {A,B,C,D} = 0; {A,B,C,E} = 1; {B,C,D,E} = 0 * * * Min_Support روی $50%$ تنظیم شده است // بسیار مهم است. ممنون استفن برای یادآوری آن آیا **حداکثر** = $\{{A,B,C,E\}}$ است؟ آیا **بسته** = $\{{A,B,C,D\}} \ و \ \{{B,C,D,E\}}$ است؟ | حداکثر و مکرر بسته - شامل پاسخ |
94513 | من سعی میکنم یک تصویرسازی را با 4 متغیر کدنویسی کنم (انتشار کربن، مصرف انرژی، جمعیت و سال).  من یک تصویرسازی آنلاین دیده ام که به موجب آن او از نوعی انیمیشن استفاده می کند که من گمان می کنم comet3 باشد. تجسم او شبیه چیزی به نظر می رسد که در زیر آن را با استفاده از رنگ بازسازی کرده ام. انیمیشن مطابق با سال تغییر می کند، دایره نشان دهنده کشورها و اندازه دایره نشان دهنده انتشار کربن است. اساساً این دایره از سال 1990 تا 2010 بر این اساس حرکت و مقیاس خواهد شد. من کاملاً در matlab جدید هستم، بنابراین میپرسم آیا کسی در اینجا میتواند من را با یک نمونه راهنمایی کند یا راهنمایی کند؟  | ترسیم یک دنباله دار مانند انیمیشن برای چندین متغیر |
55510 | من این سردرگمی را در رابطه با چگونگی برآورد این چگالی دارم. من تصویر صفحه مقاله را پیوست کرده ام. من متوجه نشدم که این واقعاً چگونه به دست آمده است.  | سردرگمی مربوط به تخمین چگالی |
35248 | بنابراین، این سوال تا حدودی درگیر است، اما من با زحمت سعی کرده ام آن را تا حد ممکن ساده کنم. **هدف:** به طور خلاصه، یک مشتق از negentropy وجود دارد که شامل تجمع کننده های مرتبه بالاتر نمی شود، و من سعی می کنم بفهمم چگونه مشتق شده است. **زمینه: (من همه اینها را درک می کنم)** کتاب «تحلیل مؤلفه های مستقل» را که در اینجا یافت می شود، خودم مطالعه می کنم. (این سوال از بخش 5.6 است، در صورتی که کتاب تقریبا آنتروپی توسط توابع غیر چند جمله ای را دارید). ما $x$ داریم که یک متغیر تصادفی است و میخواهیم Negentropy آن را بر اساس مشاهداتی که داریم تخمین بزنیم. PDF x$ توسط $p_x(\zeta)$ داده می شود. نگنتروپی به سادگی تفاوت بین آنتروپی دیفرانسیل یک متغیر تصادفی استاندارد شده گاوسی و آنتروپی دیفرانسیل x$ است. آنتروپی دیفرانسیل در اینجا با $H$ داده می شود، به این صورت که: $$ H(x) = -\int_{-\infty}^{\infty} p_x(\zeta) \: log(p_x(\zeta)) \ : d\zeta $$ و بنابراین، منفی با $$J(x) = H(v) - H(x)$$ که $v$ یک گاوسی استاندارد است داده می شود. r.v، با PDF ارائه شده توسط $\phi(\zeta)$. اکنون، به عنوان بخشی از این روش جدید، کتاب من تخمینی از PDF $x$ را بدست آورده است که توسط: $$ p_x(\zeta) = \phi(\zeta) [1 + \sum_{i} c_i \ ارائه شده است. ; F^{i}(\zeta)] $$ (که در آن $c_i = \mathbb{E}\{F^i(x)\}$. به هر حال، $i$ یک توان نیست، بلکه یک شاخص است ). در حال حاضر، من این فرمول PDF جدید را می پذیرم و روزی دیگر در مورد آن سوال خواهم کرد. این موضوع اصلی من نیست. اما کاری که او اکنون انجام میدهد این است که این نسخه از PDF x$ را دوباره به معادله نگنتروپی وصل میکند و به این نتیجه میرسد: $$ J(x) \approx \frac{1}{2}\sum_i\mathbb{E } \{F^i(x)\}^2 $$ به خاطر داشته باشید که سیگما (اینجا و برای بقیه پست)، فقط در اطراف نمایه $i$ حلقه میزند. به عنوان مثال، اگر ما فقط دو تابع داشته باشیم، سیگنال برای $i=2$ و $i=2$ حلقه میشود. البته، من باید در مورد آن توابعی که او استفاده می کند به شما بگویم. بنابراین ظاهراً آن توابع $F^i$ به این صورت تعریف می شوند: > توابع $F^i$ در این مورد توابع چند جمله ای نیستند. (فرض می کنیم > r.v. $x$ میانگین صفر و واریانس واحد است). اکنون، اجازه دهید برخی از محدودیت ها را ایجاد کنیم و ویژگی های آن توابع را ارائه دهیم: > > $$ F^{n+1}(\zeta) = \zeta, \: \: c_{n+1} = 0 $$ > > $$ F^{n+2}(\zeta) = \zeta^2, \: \: c_{n+1} = 1 $$ > > برای ساده کردن محاسبات، اجازه دهید یک دیگری کاملاً فنی ایجاد کنیم. فرض: > توابع $F^i، i = 1، ... n$، یک سیستم متعارف را تشکیل می دهند، به این ترتیب: > > $$ \int \phi(\zeta) F^i(\zeta)F^j (\zeta)d\zeta= \begin{cases} 1, \quad > \text{if } i = j \\ 0, \quad \text{if } i \neq j \end{موارد} $$ > > و > > $$ \int \phi(\zeta)F^i(\zeta)\zeta^k d(\zeta) = 0, \quad \text{برای } k = > 0,1,2 $$ تقریباً وجود دارد! خوب، پس همه اینها پس زمینه بود، و حالا برای سوال. کار این است که به سادگی این PDF جدید را در فرمول آنتروپی دیفرانسیل، $H(x)$ قرار دهید. اگر این را بفهمم بقیه اش را هم خواهم فهمید. حالا کتاب اشتقاقش را میدهد (و من با آن موافقم)، اما تا آخرش گیر میکنم، چون نمیدانم/میبینم که او چگونه در حال انصراف است. همچنین، من نمی دانم چگونه نماد کوچک-o را از بسط تیلور تفسیر کنم. نتیجه این است: استفاده از بسط taylor $(1+\epsilon)log(1+\epsilon) = \epsilon + \frac{\epsilon^2}{2} + o(\epsilon^2)$، برای $ H(x)$ دریافت می کنیم: $$ H(x) = -\int \phi(\zeta) \; (1 + \sum c_i F^i(\zeta)) \; (log(1 + \sum c_i F^i(\zeta) + log(\zeta)) \; d(\zeta) \\ = -\int \phi(\zeta) log(\zeta) -\int \ phi(\zeta) \sum c_i F^i(\zeta) log(\phi(\zeta)) -\int \phi(\zeta) \; F^i(\zeta) + \frac{1}{2}(\sum c_i F^i(\zeta))^2 + o((\sum c_i F^i(\zeta))^2)] $ $ و بنابراین **سوال: (من این را نمی فهمم)** $$ H(x) = H(v) - 0 - 0 -\frac{1}{2}\sum c_i^2 + o((\ مجموع c_i)^2 $$ بنابراین، مشکل من: به جز $H(v)$، من نمی دانم که او چگونه 4 جمله نهایی را در آخرین معادله به دست آورد (یعنی 0، 0، و 2 جمله آخر). من قبل از آن همه چیز را درک می کنم. او می گوید که از روابط متعامد داده شده در ویژگی های بالا استفاده کرده است، اما من نمی دانم که چگونه است استفاده شده است؟) با تشکر !!!! توضیحات اینجا](http://i.stack.imgur.com/WyAPQ.jpg)   و اینجا، که با رنگ قرمز مشخص شده است، دقیقاً قسمتی است که من را گیج می کند. چگونه او از ویژگیهای متعامد برای به دست آوردن آخرین بخش، جایی که چیزها در حال لغو شدن هستند، و جمعبندی نهایی شامل $c_i^2$، و جمع نماد small-o استفاده میکند؟ با تشکر | استخراج نگنتروپی گیر افتادن |
5065 | من می خواهم $\theta$ را پیدا کنم به طوری که $ \theta = argmin_{\theta} \left( \left|\left| Y - \sum_{i=1}^k \theta_i X_i \right|\right| \right ) $ که در آن $X_i$ و $Y$ N x N ماتریس هستند و $\theta$ یک بردار وزنی است که نحوه ترکیب خطی $k$$X$ را مشخص میکند. تقریبی Y. این بوی یک مسئله بهینهسازی خطی میدهد، اگرچه من در این نوع ریاضی مهارت ندارم و به نظر نمیرسد آن را به عنوان یک برنامه خطی فرموله کنم. من همچنین کنجکاو هستم که آیا کسی در مورد چگونگی یادگیری این نوع ریاضیات و/یا فرمول بندی مسئله توصیه ای دارد. با تشکر | چگونه می توانم بهترین ترکیب خطی مجموعه ای از ماتریس ها را برای تقریب یک ماتریس هدف پیدا کنم؟ |
38550 | من در حال اجرای یک سری رگرسیون هستم تا اثرات IQ، توانایی زبان و سن را از متغیرهای خود حذف کنم (عملکرد وظیفه). برای انجام این کار، متغیر به عنوان متغیر وابسته (به عنوان مثال EFT در نحو زیر) در یک رگرسیون با ضریب هوشی، توانایی زبان و سن به عنوان متغیرهای پیش بینی وارد می شود و فقط برای گروه کنترل انتخاب می شود (GROUP1 EQ 2 گروه کنترل است). سپس این معادله رگرسیون برای سایر گروه ها اعمال می شود (GROUP1 = 0 & 1) و باقیمانده ها جمع آوری می شوند. مشکل اصلی من تبدیل دستور SPSS زیر به دستور Stata است (چون من نسبتاً تازه وارد Stata هستم). من باید از Stata برای اجرای رگرسیون استفاده کنم زیرا داده های من از افراد مرتبط هستند و بنابراین باید از دستور cluster استفاده کنم که در SPSS موجود نیست. رگرسیون /SELECT=GROUP1 EQ 2 /فقدان لیست /ضریب آماری خروجی R ANOVA /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /EFT وابسته /METHOD=وارد کردن زبان ضریب هوشی سنی /rSAVE RESID). | تبدیل نحو SPSS برای رگرسیون به دستورات Stata |
94087 | من دادههای زیر را دارم (مربوط به ماههای متوالی در شغل فعلی): * میانگین: 45.4 * انحراف معیار: 60.89 * حجم نمونه: 48 از من خواسته میشود که یک آزمون تک دنباله را در سطح معنیداری 1% انجام دهم و ارائه دهم: 1. مقدار آمار آزمون (از بالا). 2. P-Value آمار آزمون. فرض اولیه من در مورد داده ها این است که بیشتر مقادیر زیر 60 ماه قرار می گیرند. با این گفته، فرضیه من این است: H0: x̄ ≤ 60، Ha: x̄ > 60 چگونه با این مشکل ادامه دهم؟ من مطمئن نیستم که فرآیند را درک کنم. متشکرم | چگونه می توانم P-Value این داده را پیدا کنم؟ |
89540 | کسی میتونه کمکم کنه؟ من با 31 مورد مقیاس ایجاد می کنم و انتظار دارم که در EFA پنج (5) عامل داشته باشم اما پس از انجام EFA ، نه (9) عامل استخراج شد. من می خواهم بدانم چه چیزی باعث این وضعیت و چگونگی حل مشکل 5 عامل من در مدل اصلی من است. متشکرم. | فاکتور بیش از حد انتظار استخراج شد |
35241 | من یک گراف جهت دار دارم، **S**، که در آن هر رأس چندین عدد صحیح از ویژگی ها را ذخیره می کند. من فکر می کنم ممکن است آن را گراف رابطه ای ویژگی یا فقط یک گراف نسبت داده شده از مد روز نامیده شود. پکیج networkx Python اجازه می دهد تا هر ویژگی به هر رأس اضافه شود، اما من نمی توانم بفهمم که چگونه این ویژگی ها را با ویژگی های گراف جفت کنم. فرض کنید من رئوس زیر را دارم که بیانگر لحظات در زمان هستند: * **S1**، که در آن آلیس \$1، باب \$2 و سیندی \$5 دارد. * **S2**، که در آن آلیس \$0، باب \$3 و سیندی \$5 دارد. * **S3**، جایی که آلیس \$0 دارد، باب \$0 و سیندی \$8 دارد. لبه های بین رئوس دلالت بر یک ارتباط زمانی بین لحظات در زمان دارند، به عنوان مثال، قبل و بعد از تراکنش بین آلیس، باب و سیندی. علاوه بر این، وزن راس و وزن لبه، فرکانس آن حالت یا تراکنش است که در یک دوره طولانی نمونه برداری در فواصل زمانی گسسته رخ می دهد. سوال من این است که چگونه می توانم همبستگی بین آن ویژگی های عددی و توپولوژی گراف را محاسبه کنم؟ تنها جایی که میتوانم شروع کنم خوشهبندی **S**، با استفاده از توپولوژی گراف، و تجزیه و تحلیل تغییر ویژگیها بین رئوس در هر خوشه است. برای آن می توانید یک متریک شباهت مانند تفاوت بین لبه ای که هر جفت رئوس را به هم متصل می کند تعریف کنید و بررسی کنید که آیا این متریک در یک خوشه همبستگی دارد یا خیر. آیا الگوریتم استانداردی برای این نوع تجزیه و تحلیل وجود دارد یا من به دنبال کدهای سفارشی هستم؟ چیزهای دیگری که من به محاسبات نیز علاقه مند هستم، * یک مسیر حریصانه فقط ضرر برای آلیس، کوتاه ترین تعداد تراکنش هایی که باعث شکست او از هر نقطه ای می شود. * تعداد رخدادهایی در نمودار که باب به عنوان یک طرف میانی برای آلیس و سیندی عمل می کند. | چگونه می توان ویژگی های گراف را با ویژگی های رأس مرتبط کرد؟ |
90578 | من می خواهم نه ANOVA مختلف را روی متغیرهای مختلف اجرا کنم که ممکن است بین گروه ها تغییر کند. قبل از آنالیز واریانس، آزمون همگنی واریانس لوون انجام می شود. البته، من می خواهم مقایسه های متعدد را در آستانه آلفای نهایی برای ANOVA ها اصلاح کنم. اما از آنجایی که مقادیر p تصادفی می تواند در همه تست ها زیر 0.05 باشد، همین امر باید برای تست Levene اتفاق بیفتد، درست است؟ بنابراین سوال من این است که آیا نتایج تست Levene را نیز برای مقایسه های متعدد تصحیح کنم؟ چه استدلالی می تواند باشد که تست همگنی را تصحیح نکنیم، آیا نتایج حاصل از آن داده ها برای مقایسه های چندگانه تصحیح شده است؟ | چند ANOVA، آیا آزمون همگنی واریانس را تصحیح کنم؟ |
85399 | من از nlme در R استفاده میکنم تا یک مدل چندسطحی را برای برخی پاسخهای فیزیولوژیکی (سطح رسانایی پوست) در حین تماشای فیلم بگنجانم. من مدل را به صورت زیر مشخص می کنم: model <- lme(SCL <- variableA * variableB + TIME, random=~TIME|SUBJECTS, data=data5, na.action=na.omit, control=list(opt=optim ), روش = ML, correlation=corAR1(0.9)) تا اینجا خیلی خوب است. اما از آنجایی که ساختار خطا ناهمگونی را نشان میدهد، من آرگومان را نیز وارد کردم: weights=varExp(form=~TIME|SUBJECTS) مشکل این است که وقتی این تابع (وزنها) را اضافه میکنم، پیام خطای زیر را دریافت میکنم: Error in recalc. corAR1(object[[i]]، conLin): Na/NaN/Inf en llamada یک تابع خارجی (arg 1) من دارم در انجمن های راهنمایی جستجو کردم، اما نتوانستم راه حلی پیدا کنم. با توجه به Bliese (مدل سازی چندسطحی در R)، می توانید از تابع corAR1 (برای تصحیح خودهمبستگی) و varExp (برای ناهمبستگی) با هم استفاده کنید، و وقتی من از آنها به طور جداگانه استفاده می کنم خوب است، اما وقتی از هر دو در یک مدل استفاده می کنم، آن را انجام می دهم. خطای بالا کسی میتونه در این مورد به من کمک کنه؟؟ خیلی ممنون! | خطا هنگام استفاده از corAR1 و varExp در مدل mutilevel |
43824 | برای مقاله ای من از آزمون دقیق فیشر در R استفاده می کنم. همانطور که قبلاً متوجه شدم p.value در R به عنوان مجموع همه احتمالات توزیع فوق هندسی با پارامترهای داده شده کمتر یا برابر با احتمال مقدار مشاهده شده محاسبه می شود. . و من قبلاً یاد گرفتم که روش های متعددی برای محاسبه مقدار p دو طرفه وجود دارد و بحث در مورد این موضوع ادامه دارد. حال سوال من این است که چرا R این کار را انجام می دهد؟ آیا منبعی وجود دارد که بتوانم در مقاله خود به آن مراجعه کنم؟ FYI: در R محاسبات به این شکل است: set.seed(42) A <- c(sample(c(1,2),replace=T,size=15),1,1,1,1,1,1 ) B <- c(نمونه(c(1،2)، جایگزین=T، اندازه=15)، 1،1،1،1،1،1) (برگه <- جدول(A،B)) fisher.test(tab)$p.value n11 <- tab[1,1] سفید <- sum(tab[1,]) سیاه <- sum(tab[2,]) کشیده <- sum(tab[,1 ]) lim <- dhyper(n11،m=سفید،n=سیاه،k=طراحی) همه <- dhyper(1: ترسیم شده، m=سفید، n=سیاه، k= کشیده شده) مجموع (همه[همه<=lim]) | مقدار p دو طرفه آزمون دقیق فیشر |
70164 | من 3 تا 5 معیار از یک صفت برای هر فرد در دو شرایط مختلف (الف و ب) دارم. من میانگین را برای هر فرد در هر شرایط ترسیم میکنم و از خطای استاندارد (_i.e._، $SD/\sqrt{N}$، با $N$ = تعداد اندازهگیریها) به عنوان نوار خطا استفاده میکنم. اکنون میخواهم تفاوت بین میانگین اندازهگیری هر فرد در شرایط A و شرایط B را رسم کنم. میدانم که میتوانم خطای منتشر شده را با انجام این کار تعیین کنم: $$SD=\sqrt{SD_A^2+SD_B^2}$$، اما چگونه میتوانم من به جای انحراف معیار خطاهای استاندارد را منتشر می کنم (چون با میانگین اندازه گیری ها سروکار دارم)؟ آیا این اصلا منطقی است؟ | انتشار خطا SD در مقابل SE |
85398 | من در حال حاضر در حال آموزش یک رگرسیون تصادفی جنگل (scikit Learn) در مجموعه داده تایتانیک هستم. سوال من مربوط به این موضوع (http://stackoverflow.com/questions/19984957/scikit-predict-default-threshold) در سرریز پشته است. اشاره کردم که برای معیارهایی مانند Precision، Recall، F1-score ارزش مشابهی در scikit ندارم ... پس از بررسی متوجه شدم که دلیل آن این بود که افراد را با احتمال 0.5 در کلاس 1 در نظر گرفتم در حالی که scikit آنها را به عنوان کلاس طبقه بندی می کند. 0. بنابراین سؤالات من این است: * آیا بهتر است افراد با احتمالات 0.5 در کلاس 0 یا 1 طبقه بندی شوند؟ به عنوان مثال در تایتانیک می تواند ارزش چنین اقداماتی را به طور قابل توجهی تغییر دهد. * آیا استفاده نکردن از اینها مشروع است؟ من اینطور فکر نمیکنم زیرا نتایج شما را مغرضانه میکند و ممکن است باعث بهبود آنها شود. * طبقه بندی با بیش از دو کلاس چطور؟ اگر من 1/3،1/3،1/3 به عنوان احتمال برای یک فرد داشته باشم، چه باید بکنم؟ * آیا معیار عملکردی رهایی از این مشکل وجود دارد؟ * آیا scikit-learn هر بار این کلاس 0.5 -> 0 را انتخاب می کند یا می تواند تصادفی باشد / بستگی به مدل انتخاب شده دارد؟ | با احتمالات کلاس 0.5 چه کنیم؟ |
38556 | من میانگین و انحراف استاندارد یک متغیر را در یک مجموعه داده محاسبه کردهام و میخواهم این مقادیر را در یک گزارش نشان دهم. آیا روش زیر برای این کار صحیح است؟ $1.23 \pm 0.52 \sigma $، که در آن میانگین 1.23 و انحراف استاندارد 0.52 است. متناوبا، آیا یک خطای استاندارد برای گزارش مناسب تری است؟ نتایج، دقت طبقه بندی و زمان صرف شده برای محاسبه آنها است. | نمایش انحراف معیار در محدوده آماری |
85391 | من 10-12 متغیر مستقل دارم، می خواهم بدانم این 10-12 متغیر چگونه با یک متغیر منفرد (X) مرتبط هستند. بنابراین می توانم تصمیم بگیرم که برخی از متغیرها با X همبستگی مثبت دارند و برخی با همبستگی منفی. به این فکر کردم که بین X و یکی از متغیرهای مستقل همبستگی را به صورت جداگانه انجام دهم و تصمیم بگیرم. آیا راهی برای محاسبه همبستگی چندگانه وجود دارد. | چگونه می توان همبستگی بین چندگانه را محاسبه کرد؟ |
4401 | در استفاده ما از R برای یک پروژه تحلیل و تخمین داده های غیر پیش پا افتاده، بارها از تحمل R نسبت به ستون های غلط املایی یا از دست رفته در یک قاب داده رنج می بریم. مثال معمولی محاسبه میانگین وزنی یک متغیر MYVAR در یک قاب داده با استفاده از متغیر دیگر WEIGHT برای وزنها است: m <-weighted.mean(tbl$MYVAR، w = tbl$WEIGHT، na.rm = TRUE) فرض کنید من یک اشتباه تایپی دارم. در نام WEIGHT در عملیات بالا. آنچه در آن R اتفاق می افتد، ستون غلط املایی من را به NULL گسترش می دهد و از آن برای اجرای میانگین وزنی و در نتیجه یک غیر وزنی استفاده می کند. بنابراین، این سوال: آیا راهی وجود دارد که R تلاش برای خواندن متغیرهای موجود در یک چارچوب داده را به عنوان یک خطا در نظر بگیرد؟ | خطای گزارش R را در استفاده از نام ستون موجود در یک قاب داده ایجاد کنید |
111137 | یه سوال سریع داشتم من سعی می کنم همبستگی بین درصد پوشش مرجانی در هر یک از سایت های مطالعه خود و درصد مرجان در رسوب جمع آوری شده از آن سایت ها را آزمایش کنم. مشکل این است که پوشش مرجانی در هر سایت مستقل از چگونگی به دست آوردن درصد مرجان در رسوب به دست می آید. به طور خاص، من یک مقدار برای پوشش مرجانی بر اساس 3 نمونه برداری مستقل (ترانسکت خطی) برای هر سایت دارم. بنابراین من میانگین پوشش مرجانی در هر سایت را دارم. سپس نمونه هایی از شن و ماسه (3 در هر سایت) جمع آوری کردم. برای هر یک از آن نمونه ها، من یک درصد از مرجان در ارزش رسوب را دریافت می کنم. بنابراین میخواستم ببینم که آیا در هر سایت، میزان مرجانی که در رسوب یافت میشود با پوشش مرجانی کلی صخره مرتبط است یا خیر. در ابتدا درصد رسوب در هر نمونه را به عنوان متغیر X و میانگین پوشش مرجانی در هر سایت را به عنوان متغیر Y داشتم. بنابراین  توجه داشته باشید که من مقدار Y یکسانی برای هر یک از مقادیر x مختلف در هر سایت دارم. مطمئن نبودم انجام این کار خوب است یا نه. شخصی به من گفت که باید مقادیر x را نیز در هر سایت میانگین بگیرم. وقتی این کار را انجام دادم، اندازه نمونه تنها 6 برای من باقی می ماند (چون من فقط 6 سایت صخره ای برای مقایسه دارم) و نمی توانم هیچ رابطه ای را شناسایی کنم. آیا این منطقی است؟ بهترین راه با این داده ها برای درک وجود رابطه چیست. خیلی ممنون | همبستگی با مقادیر x متعدد برای همان مقادیر Y |
36293 | من با مدیریت داده های تعداد بیش از حد پراکنده سر و کار دارم (توزیعات پواسون مناسب نمی شود). من باید سه مخلوط مختلف (گاما، لاگ-نرمال و گاوسی معکوس) از توزیع پارامترهای نرخ پواسون را با استفاده از یک مطالعه شبیهسازی مقایسه کنم. میخواهم روشهای موجود را بدانم (به غیر از سهمیه احتمال و آزمون مربع چی پیرسون) برای مقایسه سه توزیع کاملاً متفاوت برای برازش دادههای شمارش بیشازحد. هر مرجع نیز بسیار قدردانی! ممنون از لطف شما | مقایسه توزیع بیش از حد پراکندگی |
36294 | من می خواهم تعیین کنم که آیا انحراف در نسبت نر: ماده سویه خاصی از موش آزمایشگاهی از وضعیت عادی وجود دارد (با نر: ماده = 1:1). من چندین جفت موس و چندین بستر برای هر جفت دارم. بنابراین، به عنوان مثال: جفت 1 بستر 1 5M:3F Litter 2 3M:4F Litter 3 7M:4F ... جفت 2 بستر 1 4M:5F بستر 2 2M:5F بستر 3 6M:2F ... چه چیزی می تواند بهترین باشد راهی برای تحلیل این وضعیت؟ من به استفاده از chi-squared فکر کردم، اما مطمئن نیستم که چگونه می توانم با این واقعیت برخورد کنم که برای هر جفت اقدامات تکراری انجام داده ام. | مجذور کای و اندازه گیری های مکرر |
4403 | با توجه به سابقه دریافت سؤالات در همان حوزه محتوایی درست در گذشته، باید احتمال اینکه یک فرد سؤالی را به درستی برای یک حوزه محتوایی خاص دریافت کند، تخمین بزنیم. همچنین احتمالاً سوابقی در مورد نحوه عملکرد دیگران در مورد این سؤال و در این زمینه محتوا داریم. آیا راه یا روش خوبی برای انجام این کار وجود دارد؟ (این به نوعی یک سوال تئوری آموزش است، اما من مکان بهتری برای ارسال این سوال پیدا نکردم.) | تخمین احتمال درست گرفتن یک سوال |
70166 | سوال من در مورد انتخاب/مقایسه مدل در مورد فضاهای نتیجه گسسته _و_ است که تعداد نتایج متمایز به بعد بستگی دارد. (برای افراد کنجکاو، این به طور طبیعی به وجود می آید، و در واقع تعریف بعد، در مدل های مکانیکی کوانتومی است.) من یک قیاس ساده ارائه می کنم. فرض کنید من یک قالب $d$-sided دارم که میخواهم بایاس آن را بدانم. اما، علاوه بر این، من $d$ را نمی دانم. اگر من نتایج متمایز $k$ را دیدهام، پس میدانم که حداقل $k$ وجود دارد. اما، شاید بیشتر وجود دارد؟ فکر اولیه من استفاده از معیارهای انتخاب مدل، مانند AIC بود. البته میتوانم از AIC استفاده کنم، اما ابتدا فرض میکنم مقداری حداکثر مقدار $k$ وجود دارد. اما این عملاً مرتبط نخواهد بود زیرا عبارت حداکثر درستنمایی در AIC بدون توجه به اینکه چند ضلع اضافی به قالب اضافه می کنم یکسان خواهد بود زیرا تخمینگر حداکثر احتمال احتمال آن اضلاع 0 خواهد بود. سپس، مدل با بهترین AIC یکی با تعداد اضلاع مشاهده شده مجزا خواهد بود: $k$. به نظر من بیش از حد اعتماد به نفس است. علاوه بر این، من تکنیکی را میخواهم که به فرضی در مورد حداکثر تعداد نتایج ممکن نیاز نداشته باشد. **بنابراین سؤال من** این است: آیا تکنیک های انتخاب مدل دیگری به جز AIC وجود دارد که بتواند بین حداقل توصیف مطلق و آنهایی که به نفع مدل هایی هستند که نتایجی را که هنوز مشاهده نشده اند پیش بینی می کنند، محافظت کند؟ | انتخاب مدل با فضاهای نتیجه متفاوت |
85393 | من داده هایی دارم که کمی شبیه به این A<-c(90,95,70,45,20,15) B<-c(10,5,30,55,80,85) X<-c(X1 X2، X1، X2، X1، X2) Z<-c(Z1، Z1، Z2، Z2، Z3، Z3 ) من یک glm mod1<-glm(cbind(A,B)~X*Z، دوجمله ای) انجام دادم ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 2.1972 0.3333 6.592 4.35e-11 *** XX2 0.7472 0.5671 1.318 0.187659 ZZ2 -1.3499 ZZ2 -1.3499 0.3088 0.3084 -30084 -3.5835 0.4167 -8.600 < 2e-16 *** XX2:ZZ2 -1.7952 0.6400 -2.805 0.005035 ** XX2:ZZ3 -1.0955 0.6801 -1.612 سطح مرجع 0.6801 -1.611'01 تفسیر شده و XX2:ZZ2 -1.617 0 است. داده ها به این روش - به عنوان یک اثر اصلی x مهم نیست اما z است، با z2 و z3 به طور قابل توجهی از فرم z1 متفاوت است. ما نمی توانیم اهمیت تفاوت بین z2 و z3 را بگوییم اما می توانیم تفاوت تخمین را بررسی کنیم ... درست است؟ با این حال، تعامل x2:z2 نشان می دهد که x در z1 و z2 تأثیر متفاوتی دارد؟ و تعامل غیر معنی دار x2:z3 نشان می دهد که x در z1 و z3 اثر یکسانی دارد؟ آیا این تعبیر صحیح است؟ سوالات اضافی ... چگونه می توانم اهمیت تفاوت بین z2 و z3 و همچنین اهمیت تعامل بین x2:z2 و x2:z3 را آزمایش کنم؟ آخرین مورد ... اگر تعامل معنادار است چگونه می توانم اهمیت اثر اصلی بگویم x را تفسیر کنم؟ | تفسیر تعاملات بین داده های طبقه بندی شده |
97093 | من روی الگوریتمی کار میکنم که باید اندازه یک مجموعه تولید شده توسط تقاطعهای حداقل 2 مجموعه را محاسبه کند. به طور خاص: $$ z = \left |A_0 \cap \ldots \cap A_n \راست | $$ مجموعه هایی که قطع می شوند توسط پرس و جوهای SQL تولید می شوند، و در تلاش برای نگه داشتن موارد سریع، تعداد هر پرس و جو را زودتر از موعد دریافت می کنم، سپس مجموعه ای را با کمترین تعداد ($A_0$) می گیرم و از آن شناسه ها استفاده می کنم. به عنوان کران در بقیه پرس و جوهای بزرگ، بنابراین تقاطع به طور موثر تبدیل می شود: $$ z = \left |\left ( A_0 \cap A_1 \right ) \cap \ldots \cap \left ( A_0 \cap A_n \right) \راست | $$ حتی این استراتژی من را با چند جستار بسیار بزرگ برای اجرا می گذارد، زیرا $\left | A_0 \right |$ گاهی اوقات می تواند بزرگ باشد. ایده من برای مقابله با آن، گرفتن یک نمونه تصادفی از $A_0$ و تلاقی آن با بقیه مجموعه ها قبل از برون یابی به تخمین مناسب $z$ است. **سوال من این است: بهترین راه برای نمونه برداری و سپس برون یابی برای بازگشت به مقدار z$$ که اگر کاملاً دقیق نباشد، محدوده خطای قابل پیش بینی دارد چیست؟ تا کنون امتحان کردهام (در کد شبه، نوعی): sample_threshold := 10000 factor := 1 if (len(A0) > sample_treshold) { factor = sample_threshold / len(A0) } // یک نمونه تصادفی به اندازه 10000 از A0 بگیرید // تمام مجموعههای دیگر را با نمونه A0 قطع کنید، سپس با یکدیگر work_set := A0 برای i، a := محدوده A { a = تقاطع (A0, a) working_set = intersect (working_set, a) } z := len (working_set) * (1 / factor) این کد کار می کند، اما به نظر می رسد به طور مداوم z را بیش از حد تخمین می زند، با حجم نمونه کمتر که تخمین بالاتری را به همراه دارد. علاوه بر این، من مطمئن نیستم که چگونه این مقیاس با بیش از دو مجموعه به هم می رسد. امیدوارم این سوال منطقی باشد، اگر می توانم چیزی را بیشتر توضیح دهم به من اطلاع دهید. همچنین اگر این سوال خارج از موضوع است یا مربوط به جای دیگری است، لطفاً به من اطلاع دهید و خوشحال می شوم آن را منتقل کنم. * * * طبق نظر بیل، چند آزمایش سریع برای نشان دادن اندازه نمونه در مقابل خطا انجام دادم. هر سطل اندازه نمونه 20 بار اجرا شد، و همانطور که می بینید یک روند کاملاً واضح وجود دارد:  | تخمین اندازه تقاطع چند مجموعه با استفاده از نمونه یک مجموعه |
77466 | من دادههای نتایج فوتبال زیادی دارم و میخواهم وابستگی تعداد گلهای هر بازی را به آب و هوا (مانند آفتاب، باران، برف) آزمایش کنم. من در تلاش برای تصمیم گیری در مورد وابسته یا مستقل بودن داده ها هستم (و از این رو از کدام آزمون ANOVA استفاده کنم). نمی توانم مطمئن باشم که هر تیمی بیش از یک بار با هر تیم دیگری بازی کرده باشد. | داده های مستقل یا وابسته |
5062 | من نقاط داده از یک نیم دایره دارم و از قبل شعاع آن را می دانم. من میخواهم دایرهای را پیدا کنم که با استفاده از یک شعاع ثابت، بهترین تناسب با نقاط را دارد. چگونه می توانم این کار را انجام دهم؟ اگر با استفاده از الگوریتم تناسب دایره ای مشکل را حل کنم، شعاع به دلیل نویز بیش از حد ناپایدار است. | برازش دایره هندسی با شعاع مشخص |
66791 | (اول از همه، فقط برای تأیید، یک متغیر افست اساساً در پواسون و رگرسیون دوجمله ای منفی یکسان عمل می کند، درست است؟) با خواندن در مورد استفاده از متغیر افست، به نظر من اکثر منابع توصیه می کنند که آن متغیر را به عنوان یک گزینه درج کنید. در بسته های آماری (exp() در Stata یا offset() در R). اگر در حال مدلسازی دادههای شمارش هستید و تعداد محدودی وجود دارد که شمارش ممکن است اتفاق بیفتد، آیا این از نظر عملکردی مانند تبدیل متغیر نتیجه شما به نسبت است؟ مثال من در مورد اخراج کارکنان است، و من معتقدم که جبران در اینجا به سادگی Log (تعداد کارمندان) خواهد بود. و به عنوان یک سؤال اضافه شده ، من در این مفهوم مشکل دارم که تفاوت بین این دو گزینه اول (از جمله قرار گرفتن در معرض به عنوان گزینه ای در نرم افزار و تبدیل DV به نسبت) و از جمله قرار گرفتن در معرض RHS به عنوان کنترل ، مشکل دارم. هر گونه کمک در اینجا قدردانی خواهد شد. | افست در رگرسیون دو جمله ای پواسون/منفی کجا می رود؟ |
4407 | من یک دندروگرام به نام «x» دارم و میخواهم آن را دوباره مرتب کنم. اول، مطمئن می شوم که `x` یک دندروگرام است، و این است: > class(x) [1] dendrogram سپس ترتیب چیزها را در دندروگرام خود بررسی می کنم، و دقیقاً همانطور که ترسیم شده است، یعنی همه چیز می سازد. حس: > order.dendrogram(x) [1] 6 7 8 5 9 10 11 1 3 2 4 13 16 12 14 15 17 اکنون در مورد یک ترتیب جدید تصمیم میگیرم: > y <- c(6,7,8,5,9,1,3,2,4,13,16,17,15,14,12,10,11) I اکنون سعی کنید دندروگرام خود را مجددا ترتیب دهید و مرتبه مجدد را به صورت `rx` ذخیره کنید: > rx <- reorder(x, y, agglo.FUN=mean) ترتیب را بررسی می کنم «rx»، و از «x» مرتب شده است، اما کاملاً به شکلی که من میخواهم مرتب نشده است (تقریباً، اما نه کاملاً): > order.dendrogram(rx) [1] 6 7 8 9 5 4 2 1 3 16 13 17 15 14 12 10 11 من کمی با آرگومان «agglo.FUN=mean» بازی کردم، اما هرگز نتوانستم به دست بیاورم دندروگرام همان طور که می خواستم سفارش داده شود. سفارشی که من می خواهم کاملاً با دندروگرام سازگار است - من فقط چند شاخه را می چرخانم. کسی میدونه دارم چه غلطی میکنم؟ با تشکر اریک | ترتیب مجدد دندروگرام در R |
4408 | آیا کسی می تواند آخرین مطالب مربوط به اعتبار سنجی Cross به خصوص بسته R را در اختیار من بگذارد؟ | آخرین مقاله یا توسعه جدید در اعتبارسنجی متقابل؟ |
43825 | من اخیراً مطالعه ای را تکمیل کردم که در آن شرکت کنندگان را به طور تصادفی به یکی از دو گروه درمانی اختصاص دادم. من شرکت کنندگان را در ابتدا، بلافاصله پس از مداخله، 1 ماه و 4 ماه بر روی تعداد کمی از متغیرهای نتیجه آزمایش کردم. من قصد داشتم چندین ANOVA ترکیبی را برای بررسی تعاملات زمانی گروه x اجرا کنم. برخی از مقایسهها مقایسههای 2 (گروهی) x 2 (زمان: پایه و بعد از مداخله) و برخی مقایسههای 2 (گروهی) x 3 (زمان: پایه، 1 ماه، 4 ماه) خواهند بود. قبل از شروع تجزیه و تحلیل خود، دو گروه درمانی را بر روی همه متغیرهای پایه مقایسه کردم. دریافتم که اگر از سطح آلفای 0.05 یا 2 متغیر پایه استفاده کنم، اگر از سطح آلفای 0.01 برای مقایسه گروه ها استفاده کنم، گروه ها در 4 متغیر پایه متفاوت هستند. من دو سوال در این مورد دارم: 1. از چه سطح آلفای باید برای مقایسه گروه ها در ابتدا استفاده کنم؟ من به سطح آلفای 0.01 فکر میکردم، زیرا در حال مقایسه دو گروه بر روی 24 ویژگی خط پایه هستم و فکر کردم باید یک سطح آلفای سختگیرانهتر از 0.05 را انتخاب کنم تا با مشاهده تعداد زیادی از آزمایشها، میزان خطای خانوادگی را کاهش دهم. انجام شد، اما از خوانش های من به نظر می رسد که اکثر مردم از 0.05 استفاده می کنند. پیشنهاد شما چیست؟ 2. با این تفاوت ها چه کار کنم؟ من میتوانم این متغیرها را بهعنوان متغیرهای کمکی در نظر بگیرم، اما حجم نمونه من بسیار کوچک است و استفاده از 4 متغیر کمکی مناسب به نظر نمیرسد (به همین دلیل است که من فقط در صورتی که تفاوتها در سطح 0.05 معنیدار باشند، طرفدار پذیرش تفاوتها هستم) هر کمکی در این مورد میتواند مفید باشد. بسیار قدردانی شود! | تفاوت های پایه در RCT: کدام متغیرها (در صورت وجود) باید به عنوان متغیرهای کمکی گنجانده شوند؟ |
5399 | فرض کنید ما دو بردار تصادفی گاوسی داریم $p(x_1) = N(0,\Sigma_1), p(x_2) = N(0,\Sigma_2)$، آیا یک نتیجه شناخته شده برای انتظار محصول آنها $E[ x_1x_2^T]$ بدون فرض استقلال؟ | انتظار حاصل ضرب متغیرهای تصادفی گاوسی |
5392 | اجازه دهید: انحراف استاندارد متغیر تصادفی $A =\sigma_{1}=5$ انحراف استاندارد متغیر تصادفی $B=\sigma_{2}=4$ سپس واریانس A+B برابر است با: $Var(w_{1} A+w_{2}B)= w_{1}^{2}\sigma_{1}^{2}+w_{2}^{2}\sigma_{2}^{2} +2w_{1}w_{2}p_{1,2} \sigma_{1}\sigma_{2}$ کجا: $p_{1,2}$ همبستگی بین دو متغیر تصادفی است. $w_{1}$ وزن متغیر تصادفی است A $w_{2}$ وزن متغیر تصادفی B $w_{1}+w_{2}=1$ است. وزن A از 0 به 1 تغییر می کند، برای همبستگی های -1 (زرد)، 0 (آبی) و 1 (قرمز).  وقتی همبستگی 1 است، چگونه فرمول به یک خط مستقیم (قرمز) منجر شد؟ تا آنجا که من می توانم بگویم، وقتی $p_{1,2}=1$، فرمول ساده می شود: $Var(w_{1}A+w_{2}B)= w_{1}^{2}\sigma_ {1}^{2}+w_{2}^{2}\sigma_{2}^{2} +2w_{1}w_{2}\sigma_{1}\sigma_{2}$ چگونه می توانم آن را به شکل $y=mx+c$ بیان کنم؟ متشکرم. | واریانس دو متغیر تصادفی وزن دار |
36298 | بریمن می گوید که درختان بدون هرس رشد می کنند. چرا؟ منظورم این است که باید دلیل محکمی برای هرس نشدن درختان در جنگل های تصادفی وجود داشته باشد. از سوی دیگر، هرس یک درخت تصمیم گیری برای جلوگیری از برازش بسیار مهم است. آیا ادبیاتی برای خواندن به این دلیل در دسترس است؟ البته ممکن است درختان همبستگی نداشته باشند، اما همچنان احتمال بیش از حد برازش وجود خواهد داشت. | چرا هرس درختان تصادفی جنگلی لازم نیست؟ |
44211 | 1. آیا قضیه حد مرکزی برای همه توزیع ها صادق است؟ 2. برای چه اندازه نمونه درست است (منظور از بزرگ چیست)؟ | چه زمانی از قضیه حد مرکزی استفاده کنیم؟ |
36121 | من می خواهم واریانس عبارت خطا را در مدل رگرسیون خطی معمولی تخمین بزنم. تخمین واضح واریانس نمونه باقیمانده است، با این حال این تخمین به طور مداوم مقدار واقعی را دست کم می گیرد. یک شبیه سازی ساده در R تایید می کند که: x = rep(0:1، c(10، 10)) a = replicate(1000، var(residuals(lm(rnorm(20، میانگین = x، sd = 1) ~ x) )))) mean(a) > 0.9418632 این البته منطقی است، زیرا هنگام بهینه سازی یک مدل خطی، ما در واقع این خطا را بهینه می کنیم و مدل تولید کننده واقعی همیشه خطاهای تا حدودی بزرگتری می دهد. با این حال، آیا راه خوبی برای تخمین بی طرفانه این خطا وجود دارد؟ یک احتمال احتمالاً استفاده از نوعی طرح اعتبارسنجی متقاطع است، اما آیا راهی برای محاسبه تحلیلی آن وجود دارد؟ | نحوه بدست آوردن تخمین بی طرفانه برای واریانس خطا در مدل خطی معمولی |
70168 | ما فرمولهای بهروزرسانی زیر را داریم: لایه خروجی (با نمایهسازی $k \in \{1, \dots, \text{تعداد کلاسها} \}$). $o_k$ - مقدار نورون خروجی $k$ $d_k$ - مقدار مورد نظر نورون خروجی $k$ $\eta$ - نرخ یادگیری $x_j$ - مقدار نورون در آخرین لایه پنهان $$\delta_k = o_k(1 - o_k)(d_k - o_k)$$ $$\omega_{jk} = \omega_{jk} + \Delta\omega_{jk}، \text{where } \Delta\omega_{jk} = \eta\delta_kx_j$$ آخرین لایه پنهان (HL) (نمایه شده توسط $j \in \{1, \dots, \text{تعداد نورونهای پنهان در آخرین HL } \}$): $$\delta_j = x_j(1 - x_j)\sum_k \omega_{jk}\delta_k$$ $$\omega_{ij} = \omega_{ij} + \Delta\omega_{ij}، \text{where } \Delta\omega_{ij} = \eta\delta_j x_i$$ **آیا فرمولهای بهروزرسانی به طور کلی برقرار است برای هر تعداد لایه پنهان؟ به عنوان مثال:** $l$-th لایه پنهان ($l \in [0..L]$، جایی که 0 - لایه ورودی، $L$ - لایه خروجی) (نمایه شده توسط $p \in \{1، \dots , \text{تعداد نورونهای پنهان در لایه } l\},$j \in \{\text{ 1,..,تعداد نورونهای پنهان در لایه } l+1\}$$$\delta_p = x_p(1 - x_p)\sum_j \omega_{pj}\delta_j$$ $$\omega_{pj} = \omega_{pj} + \Delta\omega_{pj}، \text{where } \Delta\omega_{pj} = \eta\delta_j x_p$$ اگر درست باشد، آیا می توان به صورت بازگشتی همه نورون های دلتا را برای همه نورون ها (به جز نورون های ورودی) محاسبه کرد که با خروجی شروع می شود و به سمت گره های پنهان می رود و سپس به سادگی هر وزن را بر اساس $\delta$ و $x$ درست تغییر می دهد. | انتشار به عقب در شبکه های عصبی با بیش از 2 لایه پنهان |
38552 | من سالها بر روی کارآزماییهای بالینی در موارد ارسالی FDA کار کردهام. من تقریباً به طور انحصاری از SAS استفاده می کنم. اخیراً در مورد یک کار مشاوره صحبت کردم که باید یک رگرسیون دمینگ را راهاندازی کنم. فکر میکنم بوت استرپینگ در R بسیار راحتتر انجام میشود و چندین متخصص راههایی را پیشنهاد کردهاند که میتوانم این کار را در R انجام دهم. از آنجایی که این به FDA برای مشتری من ارسال میشود، من نگران این هستم که آیا اعتبار سنجی نرمافزار ممکن است به یک مشکل تبدیل شود. شنیدهام که R در FDA پذیرفته شده است و کارشناسان به من میگویند که قابلیت ردیابی که یک ویژگی جذاب با SAS است، در R نیز به راحتی قابل رسیدگی است. مشتری من رگرسیون دمینگ اصلی را با بسته ای انجام داد که من با آن آشنا نیستم و اعتبارسنجی با ارسال اصلی مشکلی نداشت. من می خواهم بدون اضافه کردن هیچ سردرد جدیدی برای آنها کمک کنم. آیا کارشناسان R در اینجا می توانند من را راهنمایی کنند؟ اگر کمک می کند می توانم برخی از گزینه های برنامه نویسی پیشنهاد شده را ذکر کنم؟ | هنگام ارسال تجزیه و تحلیل به FDA چگونه استفاده از R بر مسائل اعتبار سنجی نرم افزار تأثیر می گذارد؟ |
5396 | 1. آیا کسی می داند چگونه می توان یک جدول خلاصه زیبا در JMP برای چندین متغیر ایجاد کرد؟ من از Tables>Summary استفاده میکنم و جدولی که دریافت میکنم یک ردیف دارد که به عنوان مثال شامل mean(var1) mean(var2) mean(var3) median(var1) median(var2) median(var3) و غیره است. من دوست دارم هر متغیر ردیفی برای خود داشته باشد، با ستون هایی که آمار را نشان می دهد. 2. آیا کسی می داند چگونه می توان یک جدول فرکانس در هنگام ایجاد هیستوگرام در JMP ایجاد کرد؟ من با استفاده از Analyze>Distributions یک هیستوگرام دریافت می کنم اما هیچ گزینه ای برای گرفتن جدول فرکانس نمی بینم. با تشکر از شما، Naama Wolf | جداول خلاصه و فراوانی در JMP |
38551 | داده های ویژگی من به گونه ای تعریف شده است که معتقدم همه وزن ها باید غیر منفی باشند. من به دنبال مرجعی هستم که در مورد چگونگی بهینهسازی وزنهای یک طبقهبندی کننده رگرسیون لجستیک با این محدودیت که وزنها باید غیرمنفی باشند، و شاید محدودیتی برای علامت بایاس بحث کند. آیا جایگزینی وزن ها با وزن های مربعی و استفاده از تابع هزینه معمولی ML با یک طرح بهینه سازی محلی کارساز خواهد بود؟ | طبقهبندیکننده رگرسیون لجستیک با محدودیت وزنی غیرمنفی |
70784 | من یک مجموعه آزمایشی کوچک 20k (176 متغیر) دارم. من میخواهم با استفاده از ردیفها (دادهها) و ستونها (نامها) از مجموعه دادههای کوچک، یک مجموعه داده بزرگتر تصادفی برای آزمایش ایجاد کنم. در حال حاضر من دارم: real_data <- read.csv(somefilehere.csv) # یک ردیف جعلی بارگیری میکنم تا انتساب نام ستونها شکایتی نداشته باشد *ahem* test_data <- data.frame(real_dat[1,]) colnames(test_data ) <- colnames(real_data) بنابراین، این کادر داده test_data من را به همان ستون تنظیم می کند نام ها به عنوان داده های واقعی چگونه می توانم همه نام ستون ها را اجرا کنم و سپس test_data را با مقادیر موجود از real_data تصادفی کنم؟ کد زیر برای تصادفی کردن یک نمونه از ردیف موجود کاملاً کار می کند: sample(unique(real_data$some_variable_here),random_count,replace=T) **چگونه می توانم از تکرار ستون ها به همراه تابع نمونه برای پر کردن خودکار داده های test استفاده کنم؟ ** انجام تکالیف دستی برای هر متغیر برای همیشه طول می کشد، شاید تابعی در R وجود دارد که من به عنوان یک مبتدی 3 هفته ای آن را از دست می دهم؟ من برای پردازش با R، knitr و LaTeX کار می کنم و می خواهم از مجموعه test_data برای استفاده در آزمایش های آماری و نمودارهای خود استفاده کنم (برای اینکه ببینم آیا سند من با اعداد بزرگتر مقیاس می شود یا خیر، و افسانه های من هنوز خوب به نظر می رسند و غیره). [ویرایش] نمونه ای با مجموعه داده R که به طور تصادفی انتخاب شده است. مجموعه داده: warpbreaks - بارگیری با داده (warpbreaks)  در حال حاضر دارای 3 ستون از قبل تعریف شده و 54 مشاهده است. چگونه می توانم یک مجموعه داده جدید به نام warpbreaks_huge ایجاد کنم که نام ستون های مشابهی داشته باشد، اما 25 میلیون مشاهده داشته باشد؟ همچنین، از مجموعه دادههای موجود میتوانیم ببینیم که ستون تنش دارای مقادیر پیشفرض L، M و H است. ستون پشمی مقادیر پیشفرض A و B را دارد. حدس میزنم سوال من این است که چگونه میتوان جمعیتهای _bigger_ تصادفیسازی شده را از نظر برنامهریزی ایجاد کرد؟ بابت عبارت ساده لوحانه ام عذرخواهی می کنم. من در این محیط تازه کار هستم. | چگونه می توانم یک جمعیت بزرگتر را از یک جمعیت موجود در R تصادفی کنم؟ |
85646 | من در حال حاضر $\prod x_i$ و $\prod (1-x_i)$ را دریافت می کنم، اما یک آمار کافی 1 بعدی درخواست می شود و با توجه به اینکه تنها یک پارامتر وجود دارد ($\alpha$)، فکر می کنم باید یک عدد بدست آوریم. آمار کافی 1 بعدی. من مطمئن نیستم که چگونه این کار را انجام دهم. | آمار کافی 1 بعدی را برای $Beta(\alpha, 2\alpha)$ پیدا کنید |
112015 | چگونه می توانم مجموع تجمعی یک توزیع دو بعدی را از بالاترین مقدار در توزیع شروع کنم؟ زمینه: توزیع دوبعدی من احتمال ترکیب های مختلف ارتفاع موج و دوره های موج بر اساس اندازه گیری های انجام شده در یک مکان اقیانوسی است. فرض کنید توزیع نشان می دهد که رایج ترین موج (بالاترین احتمال، 1%) دارای ارتفاع 3 متر و دوره زمانی 8 ثانیه است. این ترکیب نشاندهنده «قله» یک «کوه» در توزیع است، بهعنوان مثال، ترکیبهای مجاور ارتفاع/دوره موج اغلب اما کمتر (مثلاً 0.1 درصد) و ترکیبهای «سرازیری» بیشتر حتی کمتر اتفاق میافتد (مثلاً 0.01 درصد). . احتمال غیر صفر در بسیاری از سطلهای ارتفاع موج و دوره موج پخش میشود، بنابراین هنوز در مجموع به 1 میرسد. ترکیبات دوره ای که مجموعاً به احتمال 10 درصد می رسند. به عبارت دیگر، من می توانم به کانتور نگاه کنم و بگویم 10٪ مواقع، ارتفاع موج بین 1 تا 4 متر و پریودها بین 6 تا 10 ثانیه است. من معتقدم که باید **مجموع تجمعی توزیع دوبعدی را که از اوج شروع میشود و در سرازیری کار میکند شکل دهم. چیزی که گیج کننده است این است که سرازیری در 2 جهت امتداد می یابد زیرا من در حال جمع کردن دو متغیر ارتفاع و دوره هستم. هر توصیهای مفید است، زیرا من در حول این موضوع مشکل دارم. | چگونه جمع تجمعی یک توزیع دوبعدی را بدست آوریم؟ |
36128 | فرض کنید ما یک آزمون فرضیه را از یک نمونه تصادفی $(x_i)_{i=1}^n$ انجام می دهیم، برای مثال $x_i \sim_{\text{iid}} {\cal N}(\theta, 1)$ و $H_0=\{\theta=0\}$ برای سادگی. اگر آزمون نتواند $H_0$ را رد کند، طبیعی است که از خود بپرسیم _اگر داده های بیشتری جمع آوری کنم، چه اتفاقی می تواند بیفتد؟_. این سوال را می توان با اختصاص یک توزیع پیش بینی کننده به داده های جدید حل کرد و سپس احتمال رد $H_0$ را برای نمونه جدیدی که فرض می شود طبق این توزیع پیش بینی توزیع می شود محاسبه کرد. یک روش ساده لوحانه (از کمبود تفسیر احتمالی رنج می برد) این است که بگوییم داده های جدید $\sim_{\text{iid}} {\cal N}(\hat\theta, 1)$ هستند که $\hat\theta هستند. $ تخمینی از $\theta$ است که از نمونه واقعی $(x_i)_{i=1}^n$ بدست آمده است. در چارچوب بیزی مفهوم روشنی از توزیع پیش بینی وجود دارد. با فرض اینکه توزیع پیشگویانه ساده لوحانه یا توزیع پیش بینی بیزی را که از یک پیشین غیر اطلاعاتی مشتق شده است در نظر بگیریم، چگونه عملکرد مکرر قدرت پیش بینی را برجسته/ارزیابی کنیم؟ برای مثال، فرض کنید که روش آزمایش متوالی زیر را اتخاذ می کنیم: * یک نمونه $(x_i)_{i=1}^n$ با $n=10$ جمع آوری کنید * اگر $H_0$ رد شد، متوقف شوید. * در غیر این صورت از توزیع پیشبینی برای ارزیابی اندازه نمونه جدید مورد نیاز استفاده کنید تا قدرت پیشبینی 80$\%$ را برای رد H_0$ بدست آورید. * سپس نمونه جدید را جمع آوری کرده و آزمایش را انجام دهید. با اتخاذ این روش، احتمال رد $H_0$ در تابع $\theta$ چیست؟ بررسی چنین سؤالاتی با استفاده از شبیه سازی آسان است، اما آیا نتایج نظری در مورد چنین سؤالاتی وجود دارد؟ | عملکرد مکرر تست متوالی بر اساس قدرت پیش بینی |
76786 | این اولین تکلیف تحقیقاتی من است و احساس گیجی و سردرگمی می کنم. من توسط سرپرستم مطلع شده ام که یک رگرسیون چندگانه سلسله مراتبی را با استفاده از SPSS انجام دهم. متوجه شدم که متغیر وابسته من (DV) ترتیبی است. آیا یک رگرسیون چندگانه سلسله مراتبی صحیح است یا باید یک رگرسیون ترتیبی (لجستیکی) انجام دهم. سوال تحقیق: چه نسبتی از واریانس در رفتار ارتقاء دهنده سلامت با ترکیب خطی پیش بینی کننده ها توضیح داده می شود (متغیرهای مستقل که در زیر مشخص شده است): (DV) = رفتار ارتقاء دهنده سلامت (اندازه گیری شده توسط مقیاس لیکرت 4 درجه ای HPLP؛ 52 مورد) مستقل متغیرها (IV) 1) جهان بینی: اندازه گیری شده توسط OMPI 2 نقطه ای - 26 مورد 2) خودکارآمدی: پرسشنامه لیکرت 4 امتیازی - 13 گویه 3) پریشانی روانی: HOP-25 4 امتیاز لیکرت - 25 گویه 4) جنسیت 5) سال تحصیلی (سال اول، سال دوم، سال سوم) 6) نژاد (آفریقایی، رنگین، سفید، هندی) ، دیگر) | رگرسیون چندگانه سلسله مراتبی در مقابل رگرسیون ترتیبی (لجستیکی). |
114168 | من از تابع Caret استفاده می کنم. داده های خود را به مجموعه های آموزشی (75%) و تست (25%) تقسیم کرده ام. اکنون من 10 برابر CV را روی داده های آموزشی اجرا می کنم. وقتی مطابق مدل train_control <- trainControl(method=cv, number=10) خروجی <- train(Species~., data=iris, trControl=train_control, method=rpart2) Q1. آیا دقت نشان داده شده توسط خروجی یک مجموعه آزمون فرعی یا Sub-Training است یعنی (10% داده های آموزشی یا 90% داده های آموزشی) Q2. چگونه می توانم دقت هر دو مجموعه را برای هر فولد مشاهده کنم، یعنی دقت Sub-Test و Sub Training مجموعه برای هر یک از 10-Folds | چگونه می توان از اعتبار سنجی و زیر آزمون از اعتبار سنجی متقاطع در CARET استفاده کرد |
36127 | از یک نمونه داده شده $x_i \underset{\mathrm{iid}}{\sim} {\cal N}(\mu, \sigma^2)$ ممکن است یک فاصله اطمینان در مورد احتمال $\Pr(x_i) بدست آورید. \geq a)$ برای هر عدد $a$، با معکوس کردن برخی فواصل تلورانس. اگر ${\boldsymbol x}_i \underset{\mathrm{iid}}{\sim}{\cal N}_p({\boldsymbol \mu}، \Sigma)$ نمونهای از یک $p$-variate نرمال باشد. توزیع، چگونه یک فاصله اطمینان در مورد احتمال $\Pr(x_{i1} \geq a_1, \ldots, x_{ip} \geq a_p)$ بدست آوریم؟ به راحتی می توان یک فاصله معتبر در چارچوب بیزی به دست آورد، اما در مورد روش های مکرر چیست؟ آیا بوت استرپ مجانبی معتبر است؟ آیا رویکرد شناخته شده دیگری وجود دارد؟ **ویرایش 15/09/2012:** روش دلتا باید امکان پذیر باشد. اگر کسی با محاسبات راحت است خوشحال می شوم که راه حل را اینجا پست کند ;) | فاصله اطمینان در مورد یک احتمال نرمال چند متغیره |
44212 | فرض کنید شما لاگ های یک وب سرور را دارید. در این گزارشها شما تاپلهایی از این دست دارید: user1, timestamp1 user1, timestamp2 user1, timestamp3 user2, timestamp4 user1, timestamp5 ... این مُهرهای زمانی به عنوان مثال نشاندهنده. کلیک کاربران اکنون، «user1» چندین بار (جلسه) در طول ماه از سایت بازدید می کند و در طول هر جلسه، تعداد زیادی کلیک از هر کاربر خواهید داشت (با فرض اینکه وقتی یک کاربر از سایت شما بازدید می کند، روی چندین صفحه کلیک می کند) . فرض کنید میخواهید این کلیکها را در جلساتی که آنها را ایجاد کردهاند، تقسیمبندی کنید، اما منبع اطلاعات اضافی ندارید، فقط فهرستی از مهرهای زمانی را در اختیار دارید. اگر توزیع فواصل بین دو کلیک متوالی از یک کاربر را محاسبه کنید، یک توزیع طولانی به دست خواهید آورد. به طور شهودی، شما به دنبال یک پارامتر برش هستید، به عنوان مثال. N ثانیه، جایی که اگر «timestamp_{i+1} - timestamp{i} > N»، «timestamp_{i+1}» شما شروع جلسه جدید است. مشکل این است که این توزیع در واقعیت ترکیبی از دو متغیر است: X = فاصله بین دو کلیک متوالی در یک جلسه و Y = فاصله بین آخرین کلیک جلسه قبلی و اولین کلیک جلسه جدید. سوال این است که چگونه می توان این N را که دو توزیع را تقسیم می کند (احتمالاً با کمی همپوشانی) فقط با نگاه کردن به تعداد زیاد کلیک ها تخمین زد؟ | توزیع طولانی رویدادهای زمانی |
85644 | من از R استفاده می کنم. مجموعه داده من حدود 39 متغیر/بردار مختلف دارد و هر کدام حدود 80 ورودی دارد. من فرض میکنم که برخی از همبستگیها در دادههای من وجود دارد و میخواهم بفهمم که 39 متغیر من باید چه مقادیری داشته باشند تا Y من حداکثر باشد. من همچنین بسیار مطمئن هستم که همه متغیرها تأثیر قابل توجهی روی Y من ندارند. کاری که قبلاً انجام دادم این بود که همبستگی های 39 متغیر را با Y خود محاسبه کردم و با دانستن اینکه کدام همبستگی ها بسیار زیاد / خیلی کم هستند، می توانم فرض کنم که چه مقادیری باید داشته باشند. باید Y را به حداکثر برسانم. اما من 100% مطمئن نیستم که این بهترین راه برای نزدیک شدن به مشکل من است، زیرا شما نمی توانید فقط از طریق همبستگی به نتایج بزرگی برسید. با این حال نمی دانم چه کار دیگری باید انجام دهم و برای حل این مشکل کجا باید جستجو کنم. | یادگیری اینکه چه متغیرهایی تأثیر زیادی روی یک متغیر دیگر دارند |
44219 | من سعی می کنم فواصل تحمل (یک طرفه) مربوط به مدل رگرسیون دمینگ را استخراج کنم: $$ x_i=x^*_i + \epsilon_i$$ $$ y_i = (\alpha+\beta x^*_i) + \epsilon' _i$$ که در آن $x^*_i$ها اعداد ثابت غیر تصادفی هستند، $\epsilon_i \sim {\cal N}(0,\sigma_x^2)$, $\epsilon'_i \sim {\cal N}(0,\sigma_y^2)$ و همه متغیرهای $\epsilon_i, \epsilon'_i$ متقابلاً مستقل هستند. نسبت $\sigma_x^2/\sigma_y^2$ معلوم است. $\tau^2=\sigma_x^2+\sigma_y^2$ را قرار دهید. با توجه به مقدار $x$ واقعی $x^*_\text{new}$ من به دنبال یک کران تحمل بالایی از تفاوت $$y_\text{new} - x_\text{new} هستم \sim {\cal N}(\alpha+(\beta-1)x^*_\text{new}, \tau^2).$$ در واقع این کران تحمل بالایی چیزی نیست جز یک 100$ بالا (1-\alpha)\%$-اطمینان حدود $100p\%$-quantile $y_\text{new} - x_\text{new}$. در مورد مدلهای گاوسی کلاسیک، من به دنبال یک کران تحمل با فرم $$B(x,y)=(\hat{y^*}_\text{new} - x^*_\text{new}) هستم K s$$ با $\hat{y^*}_\text{new} = \hat\alpha + \hat\beta x^*_\text{new}$ و $s^2= \hat\tau^2$. با نشان دادن $F_\text{new}$ تابع توزیع تجمعی تفاوت $y_\text{new} - x_\text{new}$، ضریب تحمل $K$ باید مشتق شود تا $$\Pr\ چپ (F_\text{new}(B(x,y)) > p \right) = 1-\alpha$$ برای برخی از $p\in]0,1[$ ( سطح تحمل) و سطح اطمینان 1 $ \ alpha $ (البته در اینجا $ \ alpha $ پارامتر رهگیری $ \ alpha $ مدل نیست!) تخمین می زند $ \ alpha $ ، $ \ beta $ و $ \ tau^2 $ و همچنین ماتریس واریانس بدون علامت آنها $ v $ و تخمین $ \ hat v $ از این ماتریس واریانس بدون علامت در برخی از کتابهای درسی و/یا مقالات تحقیقاتی در دسترس است (مراجعه کنید به به عنوان مثال کتاب فولر یا گزارش ایلز و گیلارد 1 و گزارش 2). به طور خاص $\hat\tau^2$ بطور مجانبی مستقل از $(\hat\alpha,\hat\beta)$ است. اکنون سعی می کنم با تقلید از روشی که برای استخراج کران تحمل در یک مدل رگرسیون کلاسیک استفاده می شود، تلورانس محدود را استخراج کنم. بر اساس لم زیر است. **لم** اجازه دهید $W \sim {\cal N}(0, \sigma^2)$ مستقل از $Q \sim \frac{\chi^2_{d}}{d}$. سپس عدد $K>0$ که $$\Pr\left( \Phi(W+K\sqrt{Q}) > p \right) =1-\alpha$$ را برآورده میکند با یک فرمول شناخته شده $K=K داده میشود. (\sigma,d,p,\alpha)$ (به کتاب کریشنامورتی و متیو مراجعه کنید). اکنون $X_\text{new}=(1,x_\text{new})'$ را قرار دهید. یکی دارای سه متغیر تصادفی مجانبی مستقل است $$ \frac{(y_\text{new} - x_\text{new} ) - (\alpha+(\beta-1)x^*_\text{new})}{ \sqrt{\tau^2}} \sim {\cal N}(0,1),$$$$ \frac{(\hat{y^*}_\text{جدید} - x^*_\text{جدید}) - (\alpha+(\beta-1)x^*_\text{new})}{\sqrt{\tau^2}} \sim {\cal N}\ چپ (0,\frac{X_\text{new}'VX_\text{new}}{\tau^2}\right),$$$$\frac{s^2}{\tau^2} \sim \frac{\chi^2_{n-2}}{n-2}$$ تعریف $K$ تبدیل به $$\Pr\left( \Phi(W+K\sqrt{Q}) > p \right میشود ) =1-\alpha$$ با $W \sim {\cal N}\left(0,\frac{X_\text{new}'VX_\text{new}}{\tau^2}\right)$ مستقل از $Q \sim \frac{\chi^2_{n-2}}{n-2}$. با اعمال لم، بسته به مقادیر مجهول $\tau$ و $V$، $K$ دریافت می کنیم. جایگزینی با تخمینهای $\hat\tau$ و $\hat V$ یک ضریب تحمل تقریبی $\hat K$ به دست میدهد. خوب ، من این کار را کرده ام و همه چیز را در R. اجرا کرده ام اما ارزیابی عملکرد تحمل من محدود به شبیه سازی نشان می دهد که حتی با اندازه نمونه های بزرگ _it کار نمی کند ، به جز مورد $ \ beta = 1 $. من از فرمولهایم برای تخمینها و ماتریسهای واریانس کاملاً مطمئن هستم زیرا فواصل اطمینان و فواصل پیشبینی را نیز اجرا کردهام و آنها به خوبی کار میکنند. **ویرایش:** در واقع کار می کند!! یک خطای احمقانه در کد R که برای شبیه سازی استفاده کردم وجود داشت. آیا باید این پست را حذف کنم؟ فکر میکنم خیر، زیرا این روش میتواند دیگران را مورد علاقه قرار دهد. | فاصله تحمل برای رگرسیون دمینگ |
94077 | با توجه به نقاط داده $N$ در $\mathbb{R}^p$ - که برخی از آنها پرت هستند (از توزیعی متفاوت از مقادیر درونی گرفته شده اند) - چه نوع الگوریتم هایی برای تخمین واریانس قوی این مجموعه طراحی شده است؟ یعنی میخواهیم واریانس فضای درونی را تحت برخی مفروضات بر روی نقاط پرت تقریبی کنیم. | برآوردگرهای واریانس قوی |
14844 | با توجه به مدل $a_{n}\cdot x^{n}+ a_{n-1}\cdot x^{n-1}+...+ a_0 = y + e$، که $e$ مقداری ناشناخته است (اما فرض بر این است که به طور معمول توزیع شده است) خطا و $x$ و $y$ مشاهدات هستند. حال، چگونه می توان فواصل اطمینان ضرایب $a_.$ را تخمین زد؟ AFAIU، یک رویه ساده مبتنی بر کوواریانس $(X'X)^{-1}$ کافی نیست، که در آن $X$، n$'مین مرتبه (میانگین صفر) ماتریس Vandermonde $x$ است. اول از همه $X'X$ مفرد است. همچنین محاسبه $var(a)= (r'r/m)\cdot diag(pinv(X'X))$، که در آن $r$ باقیمانده و $m$ تعداد مشاهدات است، مبهم به نظر می رسد، زیرا بالا همبستگی بین ستون های $X'X$. | فواصل اطمینان ضرایب در رگرسیون چند جمله ای |
73891 | برای یک pdf $f(x)$ (یعنی **توزیع پیوسته**)، آنتروپی (آنتروپی دیفرانسیل) به صورت زیر تعریف می شود: $H_C(X) = -\int_\mathbb{X} f(x)\log f( x)\,dx.$ برای توزیع **گسسته** با p.m.f $F(x)$، آنتروپی به صورت زیر تعریف می شود: $H_D(X) = -\sum_{i=1}^n {F(x_i) \log F(x_i)}.$ تعاریف مشابه یکدیگر به نظر می رسند. با این حال، آنتروپی با پراکندگی برای توزیع های پیوسته افزایش می یابد اما نه برای توزیع های گسسته. چرا؟ | چرا آنتروپی با پراکندگی برای توزیع های پیوسته افزایش می یابد اما برای توزیع های گسسته نه؟ |
70783 | من یک GLMM با توزیع دوجمله ای و یک تابع پیوند لاجیت دارم و این احساس را دارم که یک جنبه مهم از داده ها به خوبی در مدل نشان داده نشده است. برای آزمایش این، میخواهم بدانم که آیا دادهها با یک تابع خطی در مقیاس لاجیت به خوبی توصیف میشوند یا خیر. از این رو، من می خواهم بدانم که آیا باقیمانده ها رفتار خوبی دارند یا خیر. با این حال، من نمیتوانم بفهمم که در کدام باقیماندهها طرح میشوند و چگونه طرح را تفسیر میکنند. توجه داشته باشید که من از نسخه جدید lme4 (نسخه توسعه یافته از GitHub) استفاده می کنم: packageVersion(lme4) ## [1] '1.1.0' سوال من این است: **چگونه می توانم باقیمانده های یک را بازرسی و تفسیر کنم مدلهای ترکیبی خطی تعمیمیافته دو جملهای با تابع پیوند لاجیت؟** دادههای زیر تنها ۱۷ درصد از دادههای واقعی من را نشان میدهند، اما برازش در دستگاه من حدود ۳۰ ثانیه طول میکشد. بنابراین من آن را به این صورت می گذارم: require(lme4) options(contrasts=c('contr.sum', 'contr.poly')) dat <- read.table(http://pastebin.com/raw.php? i=vRy66Bif) dat$V1 <- factor(dat$V1) m1 <- glmer(true~ distance*(consequent+direction+dist)^2 + (جهت + فاصله|V1)، dat، خانواده = دو جمله ای) ساده ترین نمودار (`?plot.merMod`) موارد زیر را ایجاد می کند: plot(m1)  آیا این قبلاً چیزی به من می گوید؟ | چگونه می توان تناسب یک GLMM دو جمله ای مجهز به lme4 (> 1.0) را ارزیابی کرد؟ |
85645 | اجازه دهید مدل لاجیت باینری استاندارد با تابع ابزار: Uni = Vni + eni، که در آن eni از iid gumbel تبعیت می کند، و Vni را به صورت: Vni = a + xni*b تعریف کنید. که در آن n نشان دهنده فرد و i نشان دهنده جایگزین است. سپس، کشش xni به صورت زیر داده می شود: Ei = b * xin * (1-Pni) سؤال من این است که آیا تابع Utility در x خطی نیست اما log-خطی است: Vni = a + log(xni) * b، پس چگونه می توانیم کشش x را محاسبه کنیم؟ هر گونه پیشنهاد قدردانی می شود. پیشاپیش ممنون | کشش مدل رگرسیون لجستیک |
85643 | من کدی نوشته ام که می تواند فیلتر کالمن را انجام دهد (با استفاده از تعدادی فیلترهای مختلف از نوع کالمن [فیلتر اطلاعات و همکاران]) برای تحلیل فضای حالت گاوسی خطی برای یک بردار حالت n بعدی. فیلترها عالی کار می کنند و من خروجی خوبی دریافت می کنم. با این حال، تخمین پارامتر از طریق تخمین loglikelihood من را گیج می کند. من یک آمارگیر نیستم بلکه یک فیزیکدان هستم، لطفا مهربان باشید. اجازه دهید مدل فضای حالت گاوسی خطی را در نظر بگیریم $$y_t = \mathbf{Z}_{t}\alpha_{t} + \epsilon_{t},$$$$\alpha_{t + 1} = \mathbf{T }_{t}\alpha_{t} + \mathbf{R}_{t}\eta_{t}، $$ که $y_{t}$ ما است بردار مشاهده، $\alpha_{t}$ بردار حالت ما در مرحله زمانی $t$. کمیت های پررنگ، ماتریس های تبدیل مدل فضای حالت هستند که با توجه به ویژگی های سیستم مورد نظر تنظیم می شوند. ما همچنین $$\epsilon_{t} \sim NID(0, \mathbf{H}_{t})، $$ $$\eta_{t} \sim NID(0, \mathbf{Q}_{t) داریم })، $$ $$\alpha_{1} \sim NID(a_{1}، \mathbf{P}_{1}).$$ که $t = 1،\ldots، n$. اکنون، من با حدس زدن پارامترهای اولیه و ماتریسهای واریانس $\mathbf{H}_{1}$ و $\mathbf{Q}_{1}$، بازگشتی را برای فیلتر کالمن برای این مدل فضای حالت عمومی استخراج و پیادهسازی کردهام. من می توانم طرح هایی مانند ![Kalman Filter] (http://i.stack.imgur.com/QXS9F.png) را تولید کنم که نقاط آن رودخانه نیل است. سطح آب برای ژانویه بیش از 100 سال، خط وضعیت تخمینی کالامن است و خطوط نقطه چین سطوح اطمینان 90 درصد هستند. اکنون، برای این مجموعه داده 1 بعدی، ماتریسهای $\mathbf{H}_{t}$ و $\mathbf{Q}_{t}$ فقط اسکالرهای $\sigma_{\epsilon}$ و $\sigma_{\eta هستند. }$ به ترتیب. بنابراین اکنون میخواهم با استفاده از خروجی فیلتر کالمن و تابع loglikelihood $$\log L(Y_{n}) = -\frac{np}{2}\log(2\pi) پارامترهای صحیح را برای این اسکالرها دریافت کنم. ) - \frac{1}{2}\sum^{n}_{t = 1}(log|\mathbf{F}_{t}| + v^{\mathsf{T}}_{t}\mathbf{F}_{t}^{-1}v_{t})$$ جایی که $v_{t}$ خطای حالت و $\mathbf{ F}_{t}$ واریانس خطای حالت است. حالا اینجاست که من گیج شدم. از فیلتر کالمن، من تمام اطلاعاتی را که برای کار کردن $L$ نیاز دارم در اختیار دارم، اما به نظر می رسد که من را به محاسبه حداکثر احتمال $\sigma_{\epsilon}$ و $\sigma_{\ نزدیکتر نمی کند. eta}$. **سوال من این است که چگونه می توانم حداکثر احتمال $\sigma_{\epsilon}$ و $\sigma_{\eta}$ را با استفاده از رویکرد loglikelihood و معادله بالا محاسبه کنم؟** شکست الگوریتمی مانند سرماخوردگی است. آبجو به من فعلا... ممنون از وقتی که گذاشتید. * * * _نکته. برای مورد 1 بعدی $\mathbf{H}_{t} = \sigma^{2}_{\epsilon}$ و $\mathbf{H}_{t} = \sigma^{2}_{\eta} $. این مدل سطح محلی تک متغیره است._ | تخمین پارامتر LogLikelihood برای فیلتر کالمن گاوسی خطی |
76783 | من یک ماتریس عدم تشابه متقارن بزرگ با ابعاد 300 000 دارم. آیا میتوانید الگوریتمهای مقیاسگذاری چند بعدی را پیشنهاد دهید که میتوانند با چنین دادههای بزرگی کار کنند؟ البته ورودی می تواند بردارهای اصلی باشد که ماتریس عدم تشابه از آنها محاسبه شده است. | مقیاس بندی چند بعدی برای ماتریس عدم تشابه بزرگ |
99335 | برای ترسیم نتایجم به مشاوره نیاز دارم. من نتایج طبقه بندی متفاوتی را با گنجاندن ویژگی های مختلف و مقادیر k مختلف به دست آوردم. بنابراین، من نتایج مختلفی برای هر یک از آنها گرفتم: ویژگی های من: alphaRaw16-1، alphaRaw16-2، alphaRaw16-3، grad-x، grad-y، grad-z. محدوده مقدار k: 1 تا 21 و نتایج به نظر می رسد: True_Positive False_Negative k ویژگی 89% 4% 1 alphaRaw16-1 91% 5% 1 alphaRaw16-2 93% 8% 1 alphaRaw16-3 97% 1% 1 درجه -x 66% 3% 1 grad-y 77% 42% 1 grad-z 91% 2% 1 grad-x, alphaRaw16-1 .. .. .. .. 94% 7% 1 alphaRaw16-1,alphaRaw16-2,alphaRaw16-3,grad-x,grad-y ,grad-x 92% 9% 2 alphaRaw16-1 ... .. .. .. 90% 12% 21 alphaRaw16-1,alphaRaw16-2,alphaRaw16-3,grad-x,grad-y,grad-x چگونه این نتایج را به بهترین نحو به روشی معنادار نمایش دهیم؟ میشه لطفا راهنماییم کنید | رسم نتایج با بسیاری از ویژگی ها |
41539 | آیا یک متغیر مداخله گر می تواند با DV و نه با IV مرتبط باشد؟ من شنیده ام که DV corr است. اما من نمی توانم IV را در هیچ کتاب درسی پیدا کنم. من این دف را پیدا کردم در ویکی: http://en.wikipedia.org/wiki/Confounding | آیا یک متغیر مداخله گر می تواند با DV و نه با IV مرتبط باشد؟ |
81960 | هنگامی که یک رگرسیون در فروش بستنی با حملات کوسه پیش بینی می کنید، ضریب قابل توجهی پیدا می کنید. اما این به این دلیل است که دمای متغیر مخدوش کننده وجود دارد. اما چگونه می توان این مخدوش کننده را تصحیح کرد؟ در صورتی که دما را نیز به مدل اضافه کنید، دو پیش بینی کننده همبسته و مسئله چند خطی دارید. بنابراین اگر دمای مخدوش کننده را پیدا کردید، آیا تنها گزینه ای است که حملات کوسه را از مدل خارج کنید؟ | چند خطی بودن هنگام اضافه کردن یک متغیر مخدوش کننده |
41536 | من سعی می کنم الگویی بسازم که در آن پاسخ یک نسبت باشد (در واقع سهم آرایی است که یک حزب در حوزه های انتخابیه کسب می کند). توزیع آن عادی نیست، بنابراین تصمیم گرفتم آن را با توزیع بتا مدل کنم. من همچنین چندین پیش بینی دارم. با این حال، من نمی دانم چگونه آن را در BUGS/JAGS/STAN بنویسم (JAGS بهترین انتخاب من است، اما واقعاً مهم نیست). مشکل من این است که مجموع پارامترها را توسط پیش بینی کننده ها می سازم، اما پس از آن چه کاری می توانم با آن انجام دهم؟ کد چیزی شبیه به این خواهد بود (در نحو JAGS)، اما من نمی دانم چگونه پارامترهای «y_hat» و «y» را «پیوند» کنم. برای (i در 1:n) { y[i] ~ dbeta(آلفا، بتا) y_hat[i] <- a + b * x[i] } («y_hat» فقط حاصل ضرب پارامترها و پیشبینیکنندهها است، از این رو رابطه قطعی «a» و «b» ضرایبی هستند که من سعی می کنم تخمین بزنم، «x» یک پیش بینی کننده است). با تشکر از پیشنهادات شما! | چگونه می توانم نسبت را با BUGS/JAGS/STAN مدل کنم؟ |
76784 | با خواندن تست من ویتنی برای نمونههای تصادفی ساده و مستقل با مشکل کوچکی مواجه شدم. طبق کتاب آمار مقدماتی نوشته ویس، آمار آزمون با استفاده از $M = \text{مجموع رتبههای دادههای نمونه از جمعیت 1}$ به دست میآید طبق معمول، از این آماره آزمون برای تصمیم گیری در رد کردن عدد صفر استفاده میکنیم. فرضیه یا نه اما این کمی گیج کننده بود زیرا به نظر می رسد انتخاب یک نمونه معین به عنوان اولین نمونه خودسرانه باشد. با این حال، در تلاش برای روشن کردن این موضوع، متوجه شدم که آمار به اصطلاح تست $U$ دیگری وجود دارد، و گاهی اوقات قرار است $\min(U_{1}، U_{2})$ یا مخالف $\max را انتخاب کنیم. (U_{1}، U_{2})$. به عنوان مثال، در این آموزش، از این آمار استفاده شده است: $U_{1} = R_{1} - \frac{n_{1}(n_{1} + 1)}{2}$ where $R_{1}$ مجموع رتبه های جمعیت 1$ به شرح بالا است. همچنین می افزاید: > توجه داشته باشید که مهم نیست که کدام یک از دو نمونه نمونه 1 در نظر گرفته شود. > مقدار کوچکتر U1 و U2، مقداری است که هنگام مشورت با جداول > اهمیت استفاده می شود. اما به نظر نمی رسد که در کتاب ویس از این رویه استفاده شود. کدام یک روش صحیح است؟ شاید من فقط تست های مختلف را با نام های مشابه اشتباه گرفته ام. | چگونه آمار آزمون را در آزمون من ویتنی انتخاب کنیم؟ |
7152 | چگونه باید با یک مقدار سلول در جدول اقتضایی که در محاسبات آماری برابر با صفر است برخورد کرد؟ (توجه داشته باشید که چنین مقداری می تواند _structural_ باشد، یعنی باید طبق تعریف صفر باشد، یا _تصادفی_، یعنی ممکن است مقدار دیگری باشد، اما صفر مشاهده شده است.) | چگونه باید مقادیر سلولی برابر با صفر را در جدول احتمالی مدیریت کنید؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.