_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
3902
آیا تابع 'corr' در Matlab هنگام محاسبه ضریب همبستگی اسپیرمن، تصحیح را برای رتبه های همسو در نظر می گیرد؟ با تشکر
آیا تابع corr در متلب برای رتبه‌های همسو اصلاح را در نظر می‌گیرد؟
20119
در یک زمینه فیلترینگ سنتی، نظرسنجی هایی را که با چیزی شبیه mu[i] <- alpha[date[i]] prec[i]<- SampleSize[i]/(alpha[date[i]]*( 1-آلفا[تاریخ[i]]) y[i] ~ dnorm(mu[i],prec[i]) اگر بررسی ها با گرد کردن مشاهده شوند، این _معمولا_ باعث نمی شود اما من در موقعیتی هستم که این کار را انجام می دهد.
چگونه می توان گرد کردن را در BUGS در زمینه نظرسنجی پیاده سازی کرد؟
30945
من یک سیستم اثبات مفهومی برای تشخیص صدا با استفاده از مدل‌های mfcc و مارکوف پنهان ایجاد کرده‌ام. وقتی سیستم را روی صداهای شناخته شده آزمایش می کنم، نتایج امیدوارکننده ای به دست می دهد. اگرچه سیستم، وقتی صدای ناشناخته ای وارد می شود، نتیجه را با نزدیک ترین تطابق برمی گرداند و امتیاز آنقدر متمایز نیست که بتوان آن را ابداع کرد، این یک صدای ناشناخته است، به عنوان مثال: من 3 مدل مارکوف مخفی را آموزش داده ام، یکی برای گفتار، یکی برای آب بیرون می آید. شیر آب و یکی برای ضربه زدن روی میز. سپس آنها را روی داده‌های نادیده آزمایش می‌کنم و نتایج زیر را دریافت می‌کنم: ورودی: گفتار HMM\knocking: -1213.8911146444477 HMM\speech: -617.8735676792728 HMM\watertap: -1504.47350973226p بالاترین امتیاز صحیح است. HMM\knocking: -3715.7246152783955 HMM\speech: -4302.67960438553 HMM\watertap: -1965.6149147201534 بنابراین بالاترین امتیاز ضربه آب که ورودی صحیح است: ضربه زدن به آب201-201 HMM1-201. HMM\knocking: -756.4428782636676 HMM\speech: -1201.686687761133 HMM\watertap: -3025.181144273698 بنابراین بالاترین امتیاز ضربه که ورودی صحیح است: ناشناخته HMM\k -4369.1702184688975 HMM\speech: -5090.37122832872 HMM\watertap: -7717.501505674925 در اینجا ورودی یک صدای ناشناخته است اما همچنان نزدیکترین تطابق را برمی گرداند زیرا هیچ سیستمی برای فیلترینگ/garageold وجود ندارد. من می دانم که در تشخیص کلمات کلیدی، صدای OOV (خارج از واژگان) را می توان با استفاده از یک مدل زباله یا پرکننده فیلتر کرد، اما می گوید که با استفاده از مجموعه محدودی از کلمات ناشناخته آموزش داده شده است، جایی که نمی توان آن را به سیستم من اعمال کرد. همه صداهایی را که سیستم ممکن است ضبط کند را نمی داند. چگونه یک مشکل مشابه در سیستم تشخیص گفتار حل می شود؟ و چگونه می توانم مشکل خود را برای جلوگیری از مثبت کاذب حل کنم؟
آستانه مدل مارکوف پنهان
20118
لطفا اگر اشتباه می کنم اصلاح کنید از متون اقتصاد سنجی که تا کنون خوانده ام، بیشتر ذکر شده ناهمگونی از نظر تجربی مشکل عمده ای نیست، اما چند خطی بودن نگرانی بیشتری را برای محققان ایجاد می کند و این که تبدیل داده ها نتایج تجربی را بهبود می بخشد اما ناهمسانی را به طور کامل حذف نمی کند. آیا این درست است؟ در بالا، من از R برای انجام یک رگرسیون خطی پایه با یک رگرسیور و سه ساختگی استفاده کرده‌ام و تست Breusch-Pagan را با استفاده از بسته 'car' و تست VIF با استفاده از بسته 'lmtest' انجام داده‌ام. پس از آن، من یک رگرسیون دوم را انجام دادم که متغیر وابسته و مستقل را تبدیل به لاگ تبدیل کردم و آزمون‌های مشابهی را که در بالا ذکر شد انجام دادم. برای هر دو مدل، m1 برای مدل قبلی و m2 برای مدل دوم، و با استفاده از آزمون VIF، هر دو کمتر از 5 ارائه شده و به طور منطقی می‌گویند که چند خطی بودن مشکلی نیست، با این حال، برای Breusch-Pagan، m1 نتوانست null را رد کند، اما m2 (logged) رد شد. آن را آیا کسی می تواند مرا روشن کند که چرا نتیجه با نظریه بالا سازگار نیست؟ برخی سوالات مرتبط، 1. آیا بهتر است مدل را تبدیل به لاگ نکنید؟ 2. من مشکوک هستم که رگرسیون با باقیمانده ها همبستگی دارد. آیا آزمایش(هایی) برای درون زایی وجود دارد؟ 3. اگر مدل log ترجیح داده می شود، برای کاهش ناهمگونی در m2 چه کاری می توانم انجام دهم؟ پیشاپیش متشکرم دیلن
ناهمگونی در مدل رگرسیون خطی و تبدیل داده ها
72523
> با توجه به دو بردار ستونی $X = (x_1، \dots، x_n)'$ و $Y = (y_1، \dots، > y_m)'$ از متغیرهای تصادفی با لحظه‌های ثانیه محدود، همبستگی متعارف > تجزیه و تحلیل بردارهای $a را جستجو می‌کند. $ و $b$ به طوری که متغیرهای تصادفی $a' X$ و > $b' Y$ همبستگی را به حداکثر برسانند $\rho = \operatorname{corr}(a' X, b' Y) = > \displaystyle\frac{a' \Sigma _{XY} b}{\sqrt{a' \Sigma _{XX} a} \sqrt{b' > \Sigma _{YY} b}}$. > > (ویکی پدیا) اکنون، گاهی اوقات، می بینم که این به شکل > $max \ a' \Sigma _{XY} b \\ s.t.\ a' \Sigma_{XX} a = b' \Sigma_{YY} نوشته شده است. b = 1$ من می بینم که مقیاس دادن $a$ یا $b$ با هر اسکالر تاثیری در معادله اول ندارد، اما چگونه می توانم به معادله دوم برسم؟
درباره تحلیل همبستگی متعارف
6740
من در حال خواندن نسخه دوم تجزیه و تحلیل داده های طبقه بندی شده توسط آلن آگرستی هستم و به نوعی در پاراگراف دوم زیر گیر کردم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ahQDT.png) من کاملاً درک نمی کنید که چرا $\beta\pi(\hat{x})(1 - \pi(\hat{x}))$ این احتمال را می دهد که $x = 26.3$، کسی میتونه منو روشن کنه؟ با تشکر
راه های جایگزین برای تفسیر شانس
30942
من با استفاده از بسته «MCMCglmm» در R برای اجرای یک مدل جلوه‌های ترکیبی، مشکلات عملکردی دارم. کد به این شکل است: MC1<-MCMCglmm(bull~1,random=~school,data=dt,family=categorical , prior=list(R=list(V=1,fix=1), G=list (G1=list(V=1, nu=0))) , slice=T, nitt=iter, ,burnin=burn, verbose=F) در اطراف وجود دارد 20000 مشاهده در داده ها و آنها در حدود 200 مدرسه دسته بندی شده اند. من تمام متغیرهای استفاده نشده را از دیتافریم حذف کرده ام و تمام اشیاء دیگر را قبل از اجرا از حافظه حذف کرده ام. مشکلی که من دارم این است که زمان زیادی طول می کشد تا اجرا شود، مگر اینکه تکرارها را به تعداد غیرقابل قبولی کم کنم. با 50000 تکرار، 5 ساعت طول می کشد و من مدل های مختلفی برای اجرا دارم. بنابراین می‌خواهم بدانم آیا راه‌هایی برای سرعت بخشیدن به اجرای کد یا بسته‌های دیگری وجود دارد که بتوانم از آن استفاده کنم. من از MCMCglmm استفاده می کنم زیرا فواصل اطمینان برای جلوه های تصادفی می خواهم. از طرف دیگر، من امیدوار بودم که در اواخر امسال یک رایانه شخصی جدید دریافت کنم، اما با کمی شانس ممکن است بتوانم آن را به جلو بیاورم، بنابراین فکر می کردم چگونه می توانم مقدار محدودی پول را برای سخت افزار جدید خرج کنم - رم بیشتر. ، CPU سریعتر و غیره. با تماشای Task Manager من فکر نمی کنم RAM مشکل باشد (هرگز از 50٪ استفاده فیزیکی بالاتر نمی رود) ، اما استفاده از CPU نیز خیلی از 50٪ بالاتر نمی رود ، که به نظر من می رسد عجیب و غریب تنظیمات فعلی من یک Intel core i5 2.66GHz، 4GB RAM، 7200rpm HDD است. آیا این معقول است که سریعترین CPU ممکن را به قیمت رم اضافی دریافت کنیم؟ من همچنین در مورد تأثیر اندازه حافظه نهان CPU سطح 3 بر مشکلات محاسباتی آماری مانند این تعجب کردم؟ **به روز رسانی:** پس از پرسیدن در متا، بنابراین به من توصیه شده است که سوال را مجدداً بیان کنم و در Superuser پست کنم. برای انجام این کار، باید جزئیات بیشتری در مورد آنچه در زیر کاپوت در MCMCglmm می‌گذرد، ارائه دهم. آیا من درست فکر می کنم که بخش عمده ای از زمان محاسبات صرف انجام بهینه سازی می شود - منظورم یافتن حداکثر یک تابع پیچیده است؟ آیا وارونگی ماتریس و/یا سایر عملیات جبر خطی نیز یک عملیات رایج است که می تواند باعث ایجاد تنگنا شود؟ هر گونه اطلاعات دیگری که بتوانم به انجمن Superuser بدهم با کمال امتنان دریافت خواهد شد.
چگونه می توانم کارایی محاسباتی را هنگام برازش مکرر یک مدل پیچیده به مجموعه داده های بزرگ بهینه کنم؟
30948
من سعی می کنم این ویژگی توزیع پارتو را آزمایش کنم: اجازه دهید f(x) یک توزیع پارتو باشد $$ f(x)=\alpha \frac{x_m^\alpha}{x^{\alpha+1}} $$ بنابراین ما سی دی اف را داریم که $$ CDF(x)=\int_{x_m}^{x}\alpha است \frac{t_m^\alpha}{t^{\alpha+1}}dt=1-\frac{x_m^\alpha}{x^\alpha} $$ پس احتمال اینکه $x>x_0$ باشد $$ است P(x>x_0)=1-CDF(x)=\frac{x_m^\alpha}{x^\alpha} $$ و بنابراین ما $$ داریم \frac{P(x>x_0)}{f(x)}=\frac{x}{\alpha} $$ اکنون می‌خواهم آن را با کتابخانه R. (PtProcess) dd<-rpareto (10000,1.5) آزمایش کنم 0.01) cdf<-ecdf(dd) df<-density(dd) ff<-(1-cdf(df$x))/df$y اگر نمودار ff را رسم کنم (df$x,ff) خط مستقیم درست را بدست نمی‌آورم. من حدس می‌زنم که این به دلیل نحوه کارکرد density() و ecdf() باشد. من به این شکل از آزمون (یک ارزیابی پسینی از fd و cdf) نیاز دارم تا بتوانم همان آزمایش را روی نمونه‌ای از داده‌های با مبدا ناشناخته انجام دهم. من حدس می‌زنم که من به راهی نیاز دارم که تابع ecdf() را به همان روشی که hist() نسخه binning چگالی است، کنم. بنابراین سوال من این است: * آیا یک تابع binned معادل از ecdf() وجود دارد زیرا hist() تابع binned density() است؟ * یا می توانم ecdf() را با hist() شبیه سازی کنم؟
مشکل با توزیع پارتو و R
50140
من یک مجموعه داده از بردارهای بعدی (اشیاء) $n$ $p$ دارم که می‌خواهم آنها را خوشه‌بندی کنم. 1. یک راه برای انجام این کار این است که ماتریس همبستگی ($n \times n$) را محاسبه کنید، سپس یک ماتریس عدم تشابه، $D$، از $C$ به دست آورید، به طوری که هر عنصر $d_{ij}$ در $D$ تابعی از عنصر منفرد $c_{ij}$ در $C$ است (به عنوان مثال، $D=1-C$)، و سپس در $D$ خوشه می‌شود. 2. در عوض، من می خواهم $C$ را بگیرم و $D$ را به دست بیاورم، به طوری که هر عنصر $d_{ij}$ از $D$ تابعی از کل بردارهای $C_i$ و $C_j$ در $C$ باشد ( برای مثال، $d_{ij}$ می‌تواند فاصله اقلیدسی بین $C_i$ و $C_j$ باشد. چرا 2)؟: * رویکرد 1) عدم تشابه (فاصله) بین دو بردار ورودی $i$ و $j$ را صرفاً به عنوان تابعی از شباهت بین $i$ و $j$ محاسبه می کند. در مقابل، رویکرد 2) عدم تشابه (فاصله) بین دو بردار ورودی $i$ و $j$ را به عنوان تابعی از شباهت شباهت‌های بین $i$ و همه بردارهای دیگر در مقابل $j$ و همه بردارهای دیگر محاسبه می‌کند. * در مورد مشکلاتی که با آنها کار می کنم، به نظر می رسد رویکرد 2) در عمل بهتر عمل می کند. آنچه من در تعجب هستم **این است که آیا دلیلی وجود دارد که ** رویکرد 2 معتبر نباشد؟
خوشه بندی و همبستگی
48667
آیا نرمال سازی چندک برای عادی سازی داده ها با نمونه های بسیار کم کافی است؟ برای مثال این داده های ریزآرایه. معمولاً پس از نرمال‌سازی، می‌خواهیم «Cancer-1 را با Normal» و «Cancer-2 را با Normal» برای بیان دیفرانسیل مقایسه کنیم. mRNA سرطان-نوع 1 سرطان-نوع-2 طبیعی ------------------------------------- --------------------- mRNA1 30 49 12 mRNA2 199 200 78 ... ... ... .... mRNA1000 13 40 88 اگر نه روش عادی سازی مناسب چیست؟
حد نرمال سازی چندک
109223
من می‌خواهم برخی از مطالعاتی را که قبلا جمع‌آوری و مرور کرده‌ام متاآنالیز کنم. با این حال، به دلیل نوع سؤالات مورد استفاده، در این مطالعات از گروه کنترل استفاده نشده است. چگونه می توانم متاآنالیز را انجام دهم یا از کدام نرم افزار می توانم استفاده کنم؟ به طور خلاصه مشکل من به شرح زیر است: من مطالعاتی را مرور کردم که هدف آنها ارزیابی ادراک نمونه های خاصی از رفتار خودشان بود. برای هر مطالعه، نسبت نمونه ای که مدعی اتخاذ رفتار در تجزیه و تحلیل است، معادل اندازه اثر است. آیا ایده ای دارید که چگونه می توانم اندازه متوسط ​​اثر را تعیین کنم؟ متشکرم
چگونه می توان یک متاآنالیز مطالعات را بدون گروه کنترل انجام داد؟
50148
فرض کنید داده‌های $y_j \sim \text{Poi}(\lambda)$ به ما داده می‌شود و فرض می‌کنیم $y_j$ iid است. می توانیم فرض کنیم که توزیع قبلی برای $\theta$ به دنبال $\text{Gamma}(\alpha, \beta)$ است، توزیع پسین $\theta | y$ نیز گاما است در حالی که توزیع پیش بینی پسین دو جمله ای منفی است. سوال من این است که پس از استخراج همه چیز در بالا، چگونه می‌خواهید یک **تست کمیت‌های پیش‌بینی‌کننده پسین را برای بررسی **_independent_** توزیع‌های پواسون تنظیم کنید؟ توجه داشته باشید که کمیت آزمون تابعی از پارامترها و داده ها در زمینه بیزی است. این شبیه به یک آماره آزمون در آمار کلاسیک است.
چگونه برای بررسی توزیع‌های پواسون مستقل، یک کمیت‌های آزمایش پیش‌بینی پسین (زمینه بیزی) تنظیم کنیم؟
72529
در R، تابع Wilcox.test آرگومان conf.level = 0.095 را می گیرد (برای مثال). با دادن همان آرگومان به تابع wilcoxsign_test از بسته _coin_ یک اخطار برمی‌گرداند: آرگومان‌های اضافی conf.level نادیده گرفته می‌شوند **Wilcoxsign_test از چه سطح اطمینان پیش‌فرضی استفاده می‌کند، و چگونه می‌توانم آن را تغییر دهم؟** _یا :_ چرا برای این عملکرد به سطح اطمینان نیاز ندارم؟
چگونه سطح اطمینان را برای wilcoxsign_test (سکه بسته) تنظیم کنیم؟
111839
من سعی می کنم بهترین راه را برای تجزیه و تحلیل یک مطالعه به دست بیاورم. این مطالعه شامل افرادی می‌شود که تا 10 مداخله مختلف به آنها داده می‌شود، که به موجب آن فرکانس بستری در بیمارستان به عنوان یک پیامد اندازه‌گیری می‌شود. هر مداخله به‌طور تصادفی انجام نمی‌شود، و برخی از افراد ملزم به انجام هر 10 مورد نیستند. همچنین، مداخلات را می‌توان به ترتیب مختلف برای هر فرد انجام داد، اما یک مداخله خاص ممکن است فقط یک بار برای هر فرد استفاده شود. **به این ترتیب، مسلم است که اکثریت این افراد با آنها زندگی می کنند و اثرات مداخلات متعدد را به طور همزمان تجربه می کنند** سؤالات این است که با نگاه کردن به بیمارستان، تأثیر هر مداخله فردی را اندازه گیری کنیم. داده های نتیجه؟ به نظر من این یک مفهوم پیچیده است تا ذهنم را به خود جلب کنم، به عنوان مثال اگر بخواهم تأثیر مداخله 1 را اندازه گیری کنم، ممکن است بگویم کل مدت زمانی که افراد قبل از مداخله در آنجا زندگی می کنند و تعداد کل افراد چقدر است. زمانی که مردم بعد از مداخله زندگی می کنند - جایی که من پیامد سلامتی هر دو دوره را اندازه گیری می کنم. مشکل این است که برخی از این افراد سال‌ها نیز دارای سال‌ها زندگی قبل/پس از مداخله متفاوت هستند. آیا کسی ایده ای در مورد اینکه چگونه می توانم از داده ها برای اندازه گیری تأثیر هر متغیر جداگانه استفاده کنم، دارد؟
چگونه می توانم یک تجزیه و تحلیل آماری را در یک مطالعه مبتنی بر مداخله انجام دهم؟
109224
داده‌های من جدول کسینوس‌ها هستند و می‌خواهم آن‌ها را با hclust تجزیه و تحلیل کنم که بر روی مجذور فاصله‌های اقلیدسی کار می‌کند. آیا انجام دهم: d <- dist(mydata, method = euclidean) fit <- hclust(d, method=ward) یا بهتر بگویم: d=(dist(mydata))^2 fit <- hclust(d, روش = ward) من نمی دانم چگونه با کسینوس های خود با hclust رفتار کنم که به فاصله های اقلیدسی مجذور نیاز دارد. با تشکر!!!
تابع R. hclust، فواصل اقلیدسی و کسینوس
105972
من یک سوال آماری کلی دارم. سه مدرسه A، B و C دارای 0.23، 0.56 و 0.8 کسر معلم زن هستند. فواصل اطمینان بالا و پایین (CI) برای سه مدرسه را می توان به شکل زیر جدول بندی کرد: معلمان_مدرسه_مدرسه upper_CI low_CI A 0.33 0.53 0.13 B 0.55 0.65 0.45 C 0.80 0.90 0.70 اگر از من خواسته شود که میانگین معلمان زن را گزارش کنم. من می‌توانستم بگویم که مجموعاً سه مدرسه: (0.33+0.55+0.8)/3 یا 0.56. چگونه CI را برای کسر متوسط ​​تعریف کنم؟ میانگین CI داده شده نیز به عنوان مثال بالا: 0.69 و پایین: 0.43?? آیا این بهترین راه برای انجام چنین محاسباتی است؟
میانگین فواصل اطمینان دو جمله ای
30941
من به Treemapping به عنوان یک تکنیک بالقوه تجسم داده ها نگاه کرده ام. رجوع: مقاله ویکی‌پدیا در مورد ترسیم درخت اگرچه در بسیاری از تجسم‌ها محبوب هستند، به نظر من در انتقال اطلاعات مؤثر نیستند. این به این دلیل است که به نظر می رسد برای درک نیاز به پردازش دقیق دارد و مقایسه معنادار بین عناصر دشوار است. به نظر می رسد این آشفتگی مانع از یک نقطه می شود. می‌خواهم نظر شما را بدانم: **آیا نقشه‌های درختی در انتقال اطلاعات مؤثر هستند؟**
آیا نمودارهای نقشه درختی در انتقال اطلاعات موثر هستند؟
81885
پیشینه: سازمان من در حال حاضر آمار تنوع نیروی کار خود را (مثلاً ٪ افراد دارای معلولیت، ٪ زنان، ٪ جانبازان) با کل نیروی کار در دسترس برای آن گروه ها بر اساس نظرسنجی جامعه آمریکا (یک پروژه نظرسنجی توسط اداره سرشماری ایالات متحده) مقایسه می کند. این یک معیار نادرست است، زیرا ما مجموعه‌ای از مشاغل خاص داریم که جمعیت‌شناسی متفاوتی نسبت به کل نیروی کار دارند. مثلاً بگویید که سازمان من بیشتر مهندس است. مهندسی فقط حدود 20 درصد در ایالت من زن هستند. اگر خودمان را با معیار کل نیروی کار مقایسه کنیم، که بیشتر شبیه 50 درصد زنان است، به وحشت می‌رسیم که «ما فقط 20 درصد زن داریم، این یک فاجعه است!» وقتی واقعاً، 20٪ چیزی است که باید انتظارش را داشته باشیم، زیرا این همان چیزی است که چشم انداز کار به نظر می رسد. هدف من: کاری که می‌خواهم انجام دهم این است که داده‌های شغلی نظرسنجی جامعه آمریکا (بر اساس دسته‌بندی تنوع) را بگیرم و آن‌ها را بر اساس ترکیب مشاغل در کسب‌وکارم وزن کنم. در اینجا یک مجموعه داده نمونه برای کارکنان خدمات اجتماعی و اجتماعی است. من می‌خواهم این کدهای شغلی فهرست‌شده را با هم اضافه کنم (زیرا خط عابر پیاده ما به گروه‌های شغلی است، نه به کدهای شغلی خاص)، سپس می‌خواهم آن معیار را بر اساس تعداد افرادی که در آن دسته داریم وزن کنم (مثلاً 3000 نفر اجتماعی و کارگران خدمات اجتماعی)، سپس می‌خواهم همین کار را با همه گروه‌های شغلی دیگر انجام دهم، آن اعداد را با هم جمع کرده و بر تعداد کل کارگران خود تقسیم کنم. این به من یک معیار تنوع وزنی جدید می دهد (مثلاً از 6٪ افراد دارای معلولیت به 2٪ افراد دارای معلولیت). سؤالات من: چگونه می توانم حاشیه های خطا را با این معیار نهایی جمع شده تطبیق دهم؟ من مجموعه داده‌های خام سرشماری را ندارم (بدیهی است)، اما می‌توانید حاشیه‌های خطا را برای هر عدد در پیوندی که ارائه کرده‌ام با تغییر دادن فیلد «تخمین» به «حاشیه خطا» در بالای جدول مشاهده کنید. سایر همکاران من که با این داده‌ها کار می‌کنند، کاملاً قصد دارند حاشیه‌های خطا را نادیده بگیرند، اما من نگرانم که از نظر آماری یک معیار بی‌معنی برای خود ایجاد کنیم. آیا این داده ها حتی پس از دستکاری که در بالا توضیح داده شد هنوز قابل استفاده است؟
وزن‌دهی مجدد داده‌های تنوع نظرسنجی جامعه آمریکایی چگونه بر حاشیه‌های خطا آن تأثیر می‌گذارد؟
23234
من روی یک مجموعه داده کار می کنم تا تأثیر خشک شدن بر فعالیت های میکروبی رسوب را ارزیابی کنم. هدف تعیین این است که آیا تأثیر خشک شدن در بین انواع رسوب و/یا عمق درون رسوب متفاوت است یا خیر. طرح آزمایشی به شرح زیر است: * اولین عامل **رسوب** مربوط به سه نوع رسوب (کد Sed1، Sed2، Sed3) است. برای هر نوع رسوب، نمونه برداری در سه سایت (3 سایت برای Sed1، 3 سایت برای Sed2، 3 سایت برای Sed3) انجام شد. * **سایت** کدگذاری شده است: Site1, Site2, ..., Site9. * عامل بعدی **هیدرولوژی** است: در داخل هر سایت، نمونه برداری در کرت خشک و در کرت مرطوب (کد Dry/Wet) انجام می شود. در هر یک از کرت های قبلی، نمونه برداری در دو عمق ** (D1، D2) در سه تکرار انجام می شود. در مجموع n = 108 نمونه = 3 رسوب * 3 سایت * 2 هیدرولوژی * 2 عمق * 3 تکرار وجود دارد. من از تابع `lme()` در R (بسته nlme) به صورت زیر استفاده می کنم: Sediment <- as.factor(rep(c(Sed1, Sed2, Sed3),each=36)) سایت <- as.factor(rep(c(Site1, Site2, Site3, Site4, Site5, سایت 6، سایت 7، سایت 8، سایت 9)، هر=12)) هیدرولوژی <- as.factor(rep(c(خشک، تر)، هر=6)، 9 )) عمق <- as.factor(rep(c(D1,D2),each=3),18)) متغیر <- rnorm(108) mydata <- data.frame(Sediment,Site,Hydrology, Depth, Variable) mod1 <- lme(Variable ~ Sediment*Hydrology*Depth, data=mydata, random=~1|Site/Hydrology/Depth) anova(mod1) من می خواهم یک مقایسه _post-hoc_ را برای آزمایش اینکه آیا یک عبارت مهم است یا نه، اجرا کنید. من می‌توانم این کار را برای یک افکت اصلی ساده انجام دهم (مثلاً **Sediment**): summary(glht(mod1,linfct=mcp(Sediment=Tukey))) اما تابع glht() این کار را انجام نمی‌دهد. برای شرایط تعامل کار نمی کند. من متوجه شدم که موارد زیر می تواند برای یک anova دو طرفه کار کند: mod1 <- lme(Variable~Sediment*Hydrology, data=mydata, random=~1|Site/Hydrology) mydata$SH <- interaction(mydata$Sediment, mydata $Hydrology) mod2 <- lme(متغیر ~ -1 + SH، data=mydata، خلاصه random=~1|سایت/هیدرولوژی)(glht(mod2, linfct=mcp(SH=Tukey))) آیا می توان از همین رویکرد در مورد آنووا سه طرفه استفاده کرد؟ هر کمکی در راه انجام مقایسه _post-hoc_ در مورد شرایط تعامل در این مورد بسیار قدردانی خواهد شد.
چگونه می توان مقایسه پس از اتفاقی را در اصطلاح تعامل با مدل اثرات مختلط انجام داد؟
95813
من به دنبال الگوریتم یا تابعی هستم تا به تفاوت زمان واکنش پس از بازخورد منفی نگاه کنم. مشکل این است که من باید فقط زمان هایی را در نظر بگیرم که در آن بازخورد منفی پس از 3 بازخورد مثبت آمده است و همه شرکت کنندگان به همان تعداد بازخورد منفی (یا ضرر) ندارند. با تشکر
کاهش اثر
35246
مسئله انتخاب متغیر با ابعاد بالا در حال حاضر واقعاً محبوب است. اما من یک سوال دارم: اگر من یک رگرسیون خطی ساده را با رگرسیون یک متغیر پاسخ در 1 متغیر کمکی در یک زمان انجام دهم و سپس FDR را برای انتخاب متغیرهای ویژگی مهم کنترل کنم، این در مقایسه با الگوریتم کمند یا گروه کمند چه ضرری دارد. متغیرهای ویژگی را به طور همزمان انتخاب کنید؟ اساساً این سؤال را می توان به **تفاوت بین رگرسیون یک متغیر پاسخ در چندین متغیر کمکی در مقابل 1 متغیر کمکی در یک زمان کاهش داد؟**
انتخاب متغیر یک به یک در مقابل همزمان
50321
فرض کنید یک کیسه 100 سکه ای دارید که 1 سکه با هر دو طرف به عنوان سر است. یک سکه از کیسه بردارید و سه بار آن را پرتاب کنید. نتیجه هر سه پرتاب Heads است. احتمال سوگیری سکه انتخابی چقدر است؟ پاسخ من:- P (انتخاب یک سکه مغرضانه) = 1/100 P (به دست آوردن سه سر سکه با سکه مغرضانه) = 1 P (انتخاب یک سکه بی طرفانه) = 99/100 P (به دست آوردن سه سر سکه با سکه بی طرفانه) = 1/8 P (انتخاب یک سکه مغرضانه | پرتاب سکه منجر به 3 سر شد) = P(انتخاب یک سکه مغرضانه و سه بار گرفتن سر)/ [P(انتخاب یک سکه مغرضانه و گرفتن سر سه بار) + P(انتخاب یک سکه بی طرفانه و گرفتن سر سه بار)] = (1/100)/[(1/100) + (99/800)] = (1/100)/(107/800) = 8/107 = 0.0747 آیا این درست است؟ با تشکر
احتمال انتخاب یک سکه مغرضانه
3907
ما داده‌های آینده‌نگر از یک ثبت مشاهده‌ای داریم و می‌خواهیم تأثیرات یک ژن را به موقع بر رویدادهای قلبی عروقی در نظر بگیریم. داده ها شامل داده های استاندارد مانند سن، جنسیت، ... و همچنین تاریخ (سن) یک رویداد قلبی است. به طور کلی شرایط / مفروضات / الزامات یک زمان شروع برای تجزیه و تحلیل بقا چیست؟ ورود به رجیستری برای هر فرد به صورت تصادفی انجام می شود (همانطور که او در رجیستری استخدام می شود). این بدیهی است که هیچ داده ای نیست که در آن ژن های شرکت کنندگان در رجیستری تغییر کند، و هیچ مداخله ای وجود ندارد. آیا استفاده از تاریخ ثبت نام در رجیستری به عنوان زمان شروع تجزیه و تحلیل بقا معتبر است؟ ما (گروهی که روی این موضوع کار می‌کنند) می‌پرسیم زیرا کارهایی انجام شده است و تاریخ ثبت‌نام به عنوان زمان شروع فاصله بقا استفاده شده است و اکنون در مورد اینکه آیا این یک رویکرد معتبر است یا خیر، اختلاف نظر وجود دارد.
الزامات یا مفروضات زمانی شروع برای تجزیه و تحلیل بقا
50149
داشتم در مورد تجزیه و تحلیل داده های بیزی گلمن - فصل 5 - مدل سلسله مراتبی می خواندم. فرض کنید: داده: پارامتر $y_j$s: فراپارامتر $\theta$: $\phi$ در صفحه 126، او مشتق تحلیلی توزیع های شرطی و حاشیه ای را ذکر می کند. من می‌دانم که به راحتی می‌توانیم توزیع مشترک پسین را با استفاده از فاکتورسازی بر اساس قضیه بیز استخراج کنیم، اما نمی‌دانم چگونه توزیع پسین مشروط $p(\theta|\phi,y)$ را استخراج کنیم. آیا روش کلی برای استخراج توزیع پسین شرطی وجود دارد؟ شاید بر اساس قضیه بیز؟ لطفا کامل توضیح بدید
چگونه می توان چگالی پسین مشروط را در مدل های بیزی سلسله مراتبی استخراج کرد؟
32735
به عنوان یک موسسه مالی، ما اغلب با تجزیه و تحلیل داده های سری زمانی مواجه می شویم. بسیاری از اوقات ما با استفاده از متغیرهای سری زمانی به انجام رگرسیون می پردازیم. همانطور که این اتفاق می افتد، ما اغلب با باقیمانده هایی با ساختار سری زمانی مواجه می شویم که فرض اساسی خطاهای مستقل در رگرسیون OLS را نقض می کند. اخیراً ما در حال ساخت مدل دیگری هستیم که در آن رگرسیون با خطاهای همبسته خودکار داریم. باقیمانده‌های مدل خطی «lm(object)» دارند که به وضوح ساختار AR(1) دارد، همانطور که از ACF و PACF مشهود است. من دو رویکرد مختلف را در پیش گرفتم، اولین مورد بدیهی است که مدل را با استفاده از حداقل مربعات تعمیم یافته «gls()» در R برازش می دادم. اما باقیمانده‌های «gls(object)» هنوز همان ساختار ARIMA را دارند که در رگرسیون معمولی وجود دارد. متأسفانه چیزی در کاری که انجام می دهم وجود دارد که نتوانستم آن را بفهمم. از این رو تصمیم گرفتم به صورت دستی ضرایب رگرسیون را از مدل خطی تنظیم کنم (تخمین OLS). با کمال تعجب به نظر می رسد که وقتی من باقیمانده ها را از رگرسیون تنظیم شده رسم کردم، کار می کند (بقایای نویز سفید هستند). من واقعاً می‌خواهم از «gls()» در بسته «nlme» استفاده کنم تا کدنویسی بسیار ساده‌تر و آسان‌تر شود. رویکردی که در اینجا باید در پیش بگیرم چه خواهد بود؟ آیا قرار است از REML استفاده کنم؟ یا اینکه انتظار من از باقیمانده های غیر همبسته (نویز سفید) از شی ()gls اشتباه است؟ gls.bk_ai <- gls(PRNP_BK_actINV ~ PRM_BK_INV_ENDING + NPRM_BK_INV_ENDING، همبستگی=corARMA(p=1)، متد='ML'، داده = fit.cap01A) gls2.bk_ai <- به روز رسانی(gls.MA_relationa) =2)) gls3.bk_ai <- به روز رسانی(gls.bk_ai، همبستگی = corARMA(p=3)) gls0.bk_ai <- به روز رسانی(gls.bk_ai، همبستگی = NULL) anova(gls.bk_ai، gls2.bk_ai، gls3.bk_ai، .bk_ai) ## با نگاه کردن به مقدار AIC، gls مدل با AR(1) بهترین شرط خواهد بود acf2(residuals(gls.bk_ai)) # باقیمانده نویز سفید نیست آیا کاری که من انجام می دهم اشکالی دارد؟؟؟؟؟؟؟
خطاهای غیر همبسته از مدل تعمیم یافته حداقل مربعات (GLS)
66795
آیا تنوعی از تخصیص دیریکله پنهان (LDA) برای داده های گروه بندی شده وجود دارد؟ به عنوان مثال، اجازه دهید مجموعه تمام پرسش‌ها و پاسخ‌های یاهو را در نظر بگیریم (که برای سادگی، یک سؤال را به همراه تمام پاسخ‌های مربوطه به عنوان یک سند در نظر می‌گیریم). هنگام ارسال یک سوال به سایت یاهو، کاربر باید دسته ای را که به آن تعلق دارد را مشخص کند (بگذارید دوباره برای سادگی فرض کنیم که دسته ها به جای سلسله مراتبی ساده هستند). آیا نسخه ای از LDA وجود دارد که از این اطلاعات استفاده کند؟
مدل سازی موضوع برای داده های گروه بندی شده
92776
![سوال](http://i.stack.imgur.com/ujlEW.png) قسمت(a) را انجام دادم. اکنون باید قسمت (b) را انجام دهم: می‌خواهم توزیع میانگین $M$ را با استفاده از R شبیه‌سازی کنم. نمی‌دانم چگونه آن را حل کنم. و برای قسمت (c)، آیا باید از R نیز استفاده کنم؟ این کاری است که من انجام دادم میانه‌ها <- vector(length=100) برای (i در 1:100) { x <- rnorm(n=15,mean=0,sd=1) medians[i] <- median(x ) } hist (وسط ها)
توزیع میانه را شبیه سازی کنید
32730
کد زیر شباهت بین دو سری زمانی را ارزیابی می کند: set.seed(10) RandData <- rnorm(8760*2) America <- rep(c('NewYork','Miami'),each=8760) Date = seq( from=as.POSIXct(1991-01-01 00:00), to=as.POSIXct(1991-12-31 23:00), length=8760) DatNew <- data.frame(Loc = America, Doy = as.numeric(format(Date,format = %j) ), Tod = as.numeric(format(Date,format = %H)), Temp = RandData, DecTime = تکرار(1، طول(RandData)/2) / (طول(RandData)/2)، 2)) نیاز(mgcv) mod1 <- gam(Temp ~ Loc + s(Doy) + s(Doy,by = Loc) + s(Tod) + s(Tod,by = Loc),data = DatNew, متد = ML) در اینجا از «gam» برای ارزیابی کنید که چگونه دما در نیویورک و میامی از میانگین دمای (هر دو مکان) در ساعات مختلف روز متفاوت است. مشکلی که اکنون دارم این است که باید یک اصطلاح تعاملی اضافه کنم که نشان دهد دمای هر مکان در طول روز در روزهای مختلف سال چگونه تغییر می کند. در نهایت امیدوارم بتوانم تمام این اطلاعات را در یک نمودار (برای هر مکان) نمایش دهم. بنابراین، برای میامی امیدوارم یک نمودار داشته باشم که نشان دهد چگونه دما از میانگین در زمان های مختلف روز و زمان های مختلف سال متفاوت است (نقشه سه بعدی؟)
چگونه یک اصطلاح تعامل را در GAM قرار دهیم؟
50141
من یک جستجو برای این سوال انجام دادم (فکر می کردم حتما باید پرسیده شود)، اما یکی را پیدا نکردم. امیدوارم این تکراری نباشد من سعی می کنم تصمیم بگیرم که آیا باید دوره ای را در زمینه آمار بگذرانم که بیشتر پارامتری باشد یا دوره ای که ناپارامتریک باشد. از منظر ریاضی، مزایای یادگیری یکی بر دیگری چه خواهد بود؟ آیا تا آنجا که در صنعت کار می کند، یکی نسبت به دیگری مزیت بیشتری دارد؟
پارامتریک در مقابل ناپارامتریک
32736
من اطلاعاتی در مورد 18 شرکت کننده دارم که به یک ساز 30 آیتمی پاسخ می دهند. من همچنین مقاله ای دارم که در آن محققان یک تحلیل عاملی محور اصلی را در همان نظرسنجی انجام دادند که در آن بارگذاری آیتم ها را گزارش کردند (4 عامل). **آیا می توان داده هایی را که در اختیار دارم تبدیل کرد و امتیازات هر شرکت کننده را بر اساس چهار عامل بر اساس بارگذاری های منتشر شده محاسبه کرد؟**
چگونه می توان بارگذاری های تحلیل عاملی منتشر شده را در داده های نمونه برای محاسبه امتیازات عامل اعمال کرد؟
55519
داشتم مقاله ای می خواندم که مربوط به کمینه بودن بود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5tTGZ.png) اگر $\hat{\theta}$ تخمین پارامتر ناشناخته $\theta$ و $l(\hat باشد \theta-\theta)$ تابع ضرری است که آنها ذکر کردند $E_p$ میانگین $l(\hat\theta-\theta)$ در توزیع P است. من این قسمت را دریافت نکردم. اگر $\hat\theta$ تخمینی باشد و $\theta$ پارامتر ناشناخته توزیع P باشد، آنگاه $\theta$ ثابت است زیرا میانگین توزیع P است که مشخص نیست. بنابراین منظور از انتظار $l(\hat\theta-\theta)$ چیست
سردرگمی مربوط به انتظار
35249
من رشته های آدرس زیادی دارم: 1600 Pennsylvania Ave, Washington, DC 20500 USA می خواهم آنها را به اجزای آنها تجزیه کنم: خیابان: 1600 خیابان پنسیلوانیا شهر: استان واشنگتن: دی سی کدپستی: 20500 کشور: ایالات متحده آمریکا اما البته داده ها کثیف هستند : از بسیاری از کشورها به زبان های مختلف می آید، به روش های مختلف نوشته شده است، حاوی غلط املایی است، قطعات گم شده است، در حال حاضر رویکرد ما استفاده از قوانین همراه با تطبیق روزنامه فازی است، اما ما می‌خواهیم تکنیک‌های یادگیری ماشین را بررسی کنیم. ما داده های آموزشی را برای یادگیری تحت نظارت برچسب گذاری کرده ایم. سوال این است که این چه نوع مشکل یادگیری ماشینی است؟ به نظر نمی‌رسد که واقعاً خوشه‌بندی، طبقه‌بندی یا رگرسیون باشد... نزدیک‌ترین چیزی که می‌توانم به آن برسم، طبقه‌بندی هر نشانه است، اما واقعاً می‌خواهید همه آنها را به طور همزمان طبقه‌بندی کنید، محدودیت‌هایی مانند باید وجود داشته باشد. حداکثر یک کشور؛ و واقعاً راه‌های زیادی برای توکن کردن یک رشته وجود دارد، و شما می‌خواهید هر کدام را امتحان کنید و بهترین را انتخاب کنید... می‌دانم چیزی به نام تجزیه آماری وجود دارد، اما چیزی در مورد آن نمی‌دانم. بنابراین: چه تکنیک های یادگیری ماشینی را می توانم برای تجزیه آدرس ها بررسی کنم؟
تکنیک های یادگیری ماشین برای تجزیه رشته ها؟
72525
آیا آزمایش‌های عمومی وجود دارد که تأیید کند اگر یک نمونه معین از توزیع تک‌وجهی پیروی می‌کند، مانند گاوسی، کوشی، t دانشجویی یا کای‌دو؟
آزمایش عمومی برای یکنواختی نمونه داده شده
94081
سوال سریع در مورد نمونه برداری از یک جامعه داده که حاوی داده های غیر همپوشانی است: اگر من دو نمونه 50 تایی را از یک جمعیت 100000 نقطه داده منحصربفرد بگیرم، چگونه احتمال اینکه دو نمونه حاوی یک نقطه داده مشترک هستند را محاسبه کنم؟ همچنین، چگونه می توانم اندازه جمعیت مورد نیاز برای احتمال همپوشانی زیر یک نقطه خاص (0.05٪) را برای $n=50$ تعیین کنم؟ با تشکر
احتمال وجود دو نمونه حاوی داده های همپوشانی
43826
پیشاپیش بابت سوالات نسبتا طولانی پوزش می طلبم. این یک مثال در تجزیه و تحلیل داده های منطقی بیزی برای علوم فیزیکی توسط P. C. Gregory است و من سؤالاتی در مورد مثال دارم. > در یک نظرسنجی از 800 رأی دهنده تصمیم گیری، 440 رأی دهنده از حزب سیاسی A حمایت کردند. > بیایید نتیجه نظرسنجی را به عنوان $D$ نشان دهیم. مقدار مورد علاقه احتمال > این است که حزب A به اکثریت حداقل 51 درصد در > انتخابات آینده دست یابد، با فرض اینکه نظرسنجی نماینده > جمعیت در زمان انتخابات باشد. کتاب مسئله را به عنوان یک مسئله انتخاب مدل در نظر می گیرد. $M_1$ : حزب A با پارامتر $H$ که دارای یکنواختی قبلی در محدوده $0.51 \le H \le 1$ است به اکثریت دست خواهد یافت. $M_2$ : حزب A با پارامتر $H$ که دارای یکنواختی قبلی در محدوده $0 \le H < 0.51$ است به اکثریت دست نخواهد یافت. اگر هیچ دلیل قبلی برای ترجیح دادن $M_1$ به $M_2$ نداریم، می‌توانیم نسبت شانس را بنویسیم: $$ \begin{aligned} O_{12}&=p(M_1|D,I)/p(M_2|D ,I)\\ &=p(D|M_1,I)/p(D|M_2,I)\\ &=\frac{\int_{0.51}^1 p(H|M_1،I)p(D|H،M_1،I) dH }{\int_{0}^{0.51} p(H|M_2،I)p(D|H،M_2،I) dH} \\ &=\frac{\int_{0.51}^1 (1/0.49)p(D|H,M_1,I) dH }{\int_{0}^{0.51} (1/0.51)p(D|H,M_2,I) dH}\\ &=87.68 \end{aligned} $$ سؤالات من اینجاست: کتاب اینطور نیست عبارات صریح برای $p(D|H,M_1,I)$ و $p(D|H,M_2,I)$ ارائه دهید. اگر از توزیع دو جمله ای استفاده کنم: $$ p(D|H,M_1,I)=p(D|H,M_2,I)=\frac{800! H^{440}(1-H)^{800-440}}{440!(800-440)!} $$ در نتیجه من $87.03$ دریافت می کنم. با ارزش 87.68 دلار کتاب یکسان نیست. **از چه توزیع احتمالی برای احتمالات استفاده کنم؟** **چرا باید مدل های $M_1$ و $M_2$ را معرفی کنم؟ چرا برای برخورد با مشکل به این صورت مناسب نیست:** $$ O_{12}=\frac{\int_{0.51}^1 p(H|D,I) dH}{\int_{0}^{ 0.51} p(H|D,I) dH} $$ فاکتور $(1/0.49)/(1/0.51)$ معرفی شده با مدل های $M_1$ و M_2$.
تحلیل بیزی از یک نظرسنجی
50145
هزینه هر کلیک با هزینه هر نمایش و نرخ کلیک تعریف می شود. با توجه به یک دوره زمانی، تعداد کلیک‌ها را بر مجموع هزینه هر نمایش برای همه تبلیغات در یک دوره زمانی تقسیم کنید. هزینه به ازای هر کلیک معادل نرخ کلیک ضرب در هزینه هر نمایش است (که فرض می شود مستقل هستند). من قبلاً می‌دانم که چگونه اهمیت تغییرات در نرخ کلیک و هزینه هر نمایش را گزارش کنم. چگونه می توانم یک ارزش مهم برای هزینه هر کلیک گزارش کنم؟ cpi = هزینه / نمایش ctr = کلیک / نمایش cpc = هزینه / کلیک cpc / کلیک = هزینه cpc / کلیک / نمایش = هزینه / نمایش cpc = (کلیک / برداشت) * (هزینه / برداشت) cpc = ctr * cpi
چگونه می توان اهمیت متغیری را که به دو متغیر دیگر وابسته است گزارش کرد؟
55514
جمعیتی از مردم را تصور کنید که $x\%$ کلاه آبی دارند و $(100-x)\%$ کلاه سبز دارند که هر ساله به برخی افراد جوایزی اهدا می شود. قانون این است که همه باید شانس یکسانی برای دریافت جایزه در هر سال داشته باشند. رؤسای دهکده می‌خواهند تصمیم بگیرند که آیا این قانون رعایت می‌شود، زیرا آنها گمان می‌کنند ممکن است تعصبی بر اساس رنگ کلاه وجود داشته باشد. آنها تعداد افرادی که کلاه آبی دارند را می شمارند که جایزه می گیرند و به آن $A$ می گویند و همچنین تعداد افرادی که کلاه سبز دارند جایزه می گیرند و به آن $B$ می گویند. اندازه کل جمعیت کلاه سبز و آبی $P$ است. روش خوبی برای تعیین اینکه آیا اعطای جایزه واقعاً منصفانه بوده است چیست؟
تعیین اینکه آیا جوایز منصفانه هستند یا خیر
77460
فرضیه تحقیق من این است که یک مداخله، من، نمرات بیشتری نسبت به کنترل، C دارد. اگر فواصل این دو با هم تداخل نداشته باشند، می‌دانم که می‌توانم با پذیرش یا رد فرضیه‌ام اظهارنظر واضحی داشته باشم. با این حال، من همچنین می‌خواهم «درجه شواهد به نفع» انواع گزاره‌ها را در صورت همپوشانی آنها ایجاد کنم. در زیر قانون تصمیم گیری من وجود دارد: با فرض اینکه عرض فواصل به اندازه کافی مشابه باشد تا مقایسه را تعصب نکنیم، اگر حد بالایی برای I از حد بالایی برای C بیشتر باشد و همپوشانی O، 0٪ <O < 50٪ باشد. اگر فرضیه فوق درست باشد به جز 50% <= O < 100%، در این صورت شواهد زیادی علیه فرضیه من وجود دارد که حتی با جریمه قابل قبول نیست. در تمام موارد دیگر همپوشانی، فرضیه من رد خواهد شد. این برای من شهودی است اما برای استاد آمار من اینطور نبود. این به این معنا نیست که او تا آنجا که مطمئن نبود مخالف بود. من آن را دوست دارم زیرا به نظر می رسد شبیه آزمایش در برابر یک مدل تهی با یک جایگزین با Bayes Factors است که در آن شما این حمایت نسبی موافق و مخالف را دارید، به جز اینکه من به طور مستقیم پارامترها را تخمین می زنم. نظراتی در مورد این ایده چیست؟
قوانین تصمیم گیری بر اساس میزان همپوشانی بین فواصل احتمال بیزی
77465
$$My \ \ مجموعه داده:$$ $$1: A,B,C,E$$ $$2:A,C,D,E$$ $$3:\ \ \ \ \ B,C,E$$ $$4 :A,C,D,E$$ $$5:\ \ \\ C, D, E$$ $$6: \ \ \\ A, D,E$$ می‌خواهم ** مجموعه‌های آیتم‌های مکرر حداکثر را پیدا کنم ** و ** بسته شد مجموعه اقلام مکرر **. * مجموعه آیتم‌های مکرر $X ∈ F$ **حداکثر** است اگر سوپر مجموعه‌های مکرر نداشته باشد. * مجموعه آیتم های مکرر X ∈ F اگر سوپرست با فرکانس یکسان نداشته باشد **بسته** است * * * بنابراین من وقوع هر مجموعه آیتم را شمارش کردم. {A} = 4 ; {b} = 2 ؛ {C} = 5 ؛ {D} = 4 ؛ {E} = 6 {A,B} = 1; {A,C} = 3; {A,D} = 3; {A,E} = 4; {B,C} = 2; {B,D} = 0; {B,E} = 2; {C,D} = 3; {C,E} = 5; {D,E} = 3 {A,B,C} = 1; {A,B,D} = 0; {A,B,E} = 1; {A,C,D} = 2; {A,C,E} = 3; {A,D,E} = 3; {B,C,D} = 0; {B,C,E} = 2; {C,D,E} = 3 {A,B,C,D} = 0; {A,B,C,E} = 1; {B,C,D,E} = 0 * * * Min_Support روی $50%$ تنظیم شده است // بسیار مهم است. ممنون استفن برای یادآوری آن آیا **حداکثر** = $\{{A,B,C,E\}}$ است؟ آیا **بسته** = $\{{A,B,C,D\}} \ و \ \{{B,C,D,E\}}$ است؟
حداکثر و مکرر بسته - شامل پاسخ
94513
من سعی می‌کنم یک تصویرسازی را با 4 متغیر کدنویسی کنم (انتشار کربن، مصرف انرژی، جمعیت و سال). ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/oMtR4.jpg) من یک تصویرسازی آنلاین دیده ام که به موجب آن او از نوعی انیمیشن استفاده می کند که من گمان می کنم comet3 باشد. تجسم او شبیه چیزی به نظر می رسد که در زیر آن را با استفاده از رنگ بازسازی کرده ام. انیمیشن مطابق با سال تغییر می کند، دایره نشان دهنده کشورها و اندازه دایره نشان دهنده انتشار کربن است. اساساً این دایره از سال 1990 تا 2010 بر این اساس حرکت و مقیاس خواهد شد. من کاملاً در matlab جدید هستم، بنابراین می‌پرسم آیا کسی در اینجا می‌تواند من را با یک نمونه راهنمایی کند یا راهنمایی کند؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/YCuxK.png)
ترسیم یک دنباله دار مانند انیمیشن برای چندین متغیر
55510
من این سردرگمی را در رابطه با چگونگی برآورد این چگالی دارم. من تصویر صفحه مقاله را پیوست کرده ام. من متوجه نشدم که این واقعاً چگونه به دست آمده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/R5Xxu.png)
سردرگمی مربوط به تخمین چگالی
35248
بنابراین، این سوال تا حدودی درگیر است، اما من با زحمت سعی کرده ام آن را تا حد ممکن ساده کنم. **هدف:** به طور خلاصه، یک مشتق از negentropy وجود دارد که شامل تجمع کننده های مرتبه بالاتر نمی شود، و من سعی می کنم بفهمم چگونه مشتق شده است. **زمینه: (من همه اینها را درک می کنم)** کتاب «تحلیل مؤلفه های مستقل» را که در اینجا یافت می شود، خودم مطالعه می کنم. (این سوال از بخش 5.6 است، در صورتی که کتاب تقریبا آنتروپی توسط توابع غیر چند جمله ای را دارید). ما $x$ داریم که یک متغیر تصادفی است و می‌خواهیم Negentropy آن را بر اساس مشاهداتی که داریم تخمین بزنیم. PDF x$ توسط $p_x(\zeta)$ داده می شود. نگنتروپی به سادگی تفاوت بین آنتروپی دیفرانسیل یک متغیر تصادفی استاندارد شده گاوسی و آنتروپی دیفرانسیل x$ است. آنتروپی دیفرانسیل در اینجا با $H$ داده می شود، به این صورت که: $$ H(x) = -\int_{-\infty}^{\infty} p_x(\zeta) \: log(p_x(\zeta)) \ : d\zeta $$ و بنابراین، منفی با $$J(x) = H(v) - H(x)$$ که $v$ یک گاوسی استاندارد است داده می شود. r.v، با PDF ارائه شده توسط $\phi(\zeta)$. اکنون، به عنوان بخشی از این روش جدید، کتاب من تخمینی از PDF $x$ را بدست آورده است که توسط: $$ p_x(\zeta) = \phi(\zeta) [1 + \sum_{i} c_i \ ارائه شده است. ; F^{i}(\zeta)] $$ (که در آن $c_i = \mathbb{E}\{F^i(x)\}$. به هر حال، $i$ یک توان نیست، بلکه یک شاخص است ). در حال حاضر، من این فرمول PDF جدید را می پذیرم و روزی دیگر در مورد آن سوال خواهم کرد. این موضوع اصلی من نیست. اما کاری که او اکنون انجام می‌دهد این است که این نسخه از PDF x$ را دوباره به معادله نگنتروپی وصل می‌کند و به این نتیجه می‌رسد: $$ J(x) \approx \frac{1}{2}\sum_i\mathbb{E } \{F^i(x)\}^2 $$ به خاطر داشته باشید که سیگما (اینجا و برای بقیه پست)، فقط در اطراف نمایه $i$ حلقه می‌زند. به عنوان مثال، اگر ما فقط دو تابع داشته باشیم، سیگنال برای $i=2$ و $i=2$ حلقه می‌شود. البته، من باید در مورد آن توابعی که او استفاده می کند به شما بگویم. بنابراین ظاهراً آن توابع $F^i$ به این صورت تعریف می شوند: > توابع $F^i$ در این مورد توابع چند جمله ای نیستند. (فرض می کنیم > r.v. $x$ میانگین صفر و واریانس واحد است). اکنون، اجازه دهید برخی از محدودیت ها را ایجاد کنیم و ویژگی های آن توابع را ارائه دهیم: > > $$ F^{n+1}(\zeta) = \zeta, \: \: c_{n+1} = 0 $$ > > $$ F^{n+2}(\zeta) = \zeta^2, \: \: c_{n+1} = 1 $$ > > برای ساده کردن محاسبات، اجازه دهید یک دیگری کاملاً فنی ایجاد کنیم. فرض: > توابع $F^i، i = 1، ... n$، یک سیستم متعارف را تشکیل می دهند، به این ترتیب: > > $$ \int \phi(\zeta) F^i(\zeta)F^j (\zeta)d\zeta= \begin{cases} 1, \quad > \text{if } i = j \\ 0, \quad \text{if } i \neq j \end{موارد} $$ > > و > > $$ \int \phi(\zeta)F^i(\zeta)\zeta^k d(\zeta) = 0, \quad \text{برای } k = > 0,1,2 $$ تقریباً وجود دارد! خوب، پس همه اینها پس زمینه بود، و حالا برای سوال. کار این است که به سادگی این PDF جدید را در فرمول آنتروپی دیفرانسیل، $H(x)$ قرار دهید. اگر این را بفهمم بقیه اش را هم خواهم فهمید. حالا کتاب اشتقاقش را می‌دهد (و من با آن موافقم)، اما تا آخرش گیر می‌کنم، چون نمی‌دانم/می‌بینم که او چگونه در حال انصراف است. همچنین، من نمی دانم چگونه نماد کوچک-o را از بسط تیلور تفسیر کنم. نتیجه این است: استفاده از بسط taylor $(1+\epsilon)log(1+\epsilon) = \epsilon + \frac{\epsilon^2}{2} + o(\epsilon^2)$، برای $ H(x)$ دریافت می کنیم: $$ H(x) = -\int \phi(\zeta) \; (1 + \sum c_i F^i(\zeta)) \; (log(1 + \sum c_i F^i(\zeta) + log(\zeta)) \; d(\zeta) \\ = -\int \phi(\zeta) log(\zeta) -\int \ phi(\zeta) \sum c_i F^i(\zeta) log(\phi(\zeta)) -\int \phi(\zeta) \; F^i(\zeta) + \frac{1}{2}(\sum c_i F^i(\zeta))^2 + o((\sum c_i F^i(\zeta))^2)] $ $ و بنابراین **سوال: (من این را نمی فهمم)** $$ H(x) = H(v) - 0 - 0 -\frac{1}{2}\sum c_i^2 + o((\ مجموع c_i)^2 $$ بنابراین، مشکل من: به جز $H(v)$، من نمی دانم که او چگونه 4 جمله نهایی را در آخرین معادله به دست آورد (یعنی 0، 0، و 2 جمله آخر). من قبل از آن همه چیز را درک می کنم. او می گوید که از روابط متعامد داده شده در ویژگی های بالا استفاده کرده است، اما من نمی دانم که چگونه است استفاده شده است؟) با تشکر !!!! توضیحات اینجا](http://i.stack.imgur.com/WyAPQ.jpg) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4ZaFH.jpg) ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/STPx9.jpg) و اینجا، که با رنگ قرمز مشخص شده است، دقیقاً قسمتی است که من را گیج می کند. چگونه او از ویژگی‌های متعامد برای به دست آوردن آخرین بخش، جایی که چیزها در حال لغو شدن هستند، و جمع‌بندی نهایی شامل $c_i^2$، و جمع نماد small-o استفاده می‌کند؟ با تشکر
استخراج نگنتروپی گیر افتادن
5065
من می خواهم $\theta$ را پیدا کنم به طوری که $ \theta = argmin_{\theta} \left( \left|\left| Y - \sum_{i=1}^k \theta_i X_i \right|\right| \right ) $ که در آن $X_i$ و $Y$ N x N ماتریس هستند و $\theta$ یک بردار وزنی است که نحوه ترکیب خطی $k$$X$ را مشخص می‌کند. تقریبی Y. این بوی یک مسئله بهینه‌سازی خطی می‌دهد، اگرچه من در این نوع ریاضی مهارت ندارم و به نظر نمی‌رسد آن را به عنوان یک برنامه خطی فرموله کنم. من همچنین کنجکاو هستم که آیا کسی در مورد چگونگی یادگیری این نوع ریاضیات و/یا فرمول بندی مسئله توصیه ای دارد. با تشکر
چگونه می توانم بهترین ترکیب خطی مجموعه ای از ماتریس ها را برای تقریب یک ماتریس هدف پیدا کنم؟
38550
من در حال اجرای یک سری رگرسیون هستم تا اثرات IQ، توانایی زبان و سن را از متغیرهای خود حذف کنم (عملکرد وظیفه). برای انجام این کار، متغیر به عنوان متغیر وابسته (به عنوان مثال EFT در نحو زیر) در یک رگرسیون با ضریب هوشی، توانایی زبان و سن به عنوان متغیرهای پیش بینی وارد می شود و فقط برای گروه کنترل انتخاب می شود (GROUP1 EQ 2 گروه کنترل است). سپس این معادله رگرسیون برای سایر گروه ها اعمال می شود (GROUP1 = 0 & 1) و باقیمانده ها جمع آوری می شوند. مشکل اصلی من تبدیل دستور SPSS زیر به دستور Stata است (چون من نسبتاً تازه وارد Stata هستم). من باید از Stata برای اجرای رگرسیون استفاده کنم زیرا داده های من از افراد مرتبط هستند و بنابراین باید از دستور cluster استفاده کنم که در SPSS موجود نیست. رگرسیون /SELECT=GROUP1 EQ 2 /فقدان لیست /ضریب آماری خروجی R ANOVA /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /EFT وابسته /METHOD=وارد کردن زبان ضریب هوشی سنی /rSAVE RESID).
تبدیل نحو SPSS برای رگرسیون به دستورات Stata
94087
من داده‌های زیر را دارم (مربوط به ماه‌های متوالی در شغل فعلی): * میانگین: 45.4 * انحراف معیار: 60.89 * حجم نمونه: 48 از من خواسته می‌شود که یک آزمون تک دنباله را در سطح معنی‌داری 1% انجام دهم و ارائه دهم: 1. مقدار آمار آزمون (از بالا). 2. P-Value آمار آزمون. فرض اولیه من در مورد داده ها این است که بیشتر مقادیر زیر 60 ماه قرار می گیرند. با این گفته، فرضیه من این است: H0: x̄ ≤ 60، Ha: x̄ > 60 چگونه با این مشکل ادامه دهم؟ من مطمئن نیستم که فرآیند را درک کنم. متشکرم
چگونه می توانم P-Value این داده را پیدا کنم؟
89540
کسی میتونه کمکم کنه؟ من با 31 مورد مقیاس ایجاد می کنم و انتظار دارم که در EFA پنج (5) عامل داشته باشم اما پس از انجام EFA ، نه (9) عامل استخراج شد. من می خواهم بدانم چه چیزی باعث این وضعیت و چگونگی حل مشکل 5 عامل من در مدل اصلی من است. متشکرم.
فاکتور بیش از حد انتظار استخراج شد
35241
من یک گراف جهت دار دارم، **S**، که در آن هر رأس چندین عدد صحیح از ویژگی ها را ذخیره می کند. من فکر می کنم ممکن است آن را گراف رابطه ای ویژگی یا فقط یک گراف نسبت داده شده از مد روز نامیده شود. پکیج networkx Python اجازه می دهد تا هر ویژگی به هر رأس اضافه شود، اما من نمی توانم بفهمم که چگونه این ویژگی ها را با ویژگی های گراف جفت کنم. فرض کنید من رئوس زیر را دارم که بیانگر لحظات در زمان هستند: * **S1**، که در آن آلیس \$1، باب \$2 و سیندی \$5 دارد. * **S2**، که در آن آلیس \$0، باب \$3 و سیندی \$5 دارد. * **S3**، جایی که آلیس \$0 دارد، باب \$0 و سیندی \$8 دارد. لبه های بین رئوس دلالت بر یک ارتباط زمانی بین لحظات در زمان دارند، به عنوان مثال، قبل و بعد از تراکنش بین آلیس، باب و سیندی. علاوه بر این، وزن راس و وزن لبه، فرکانس آن حالت یا تراکنش است که در یک دوره طولانی نمونه برداری در فواصل زمانی گسسته رخ می دهد. سوال من این است که چگونه می توانم همبستگی بین آن ویژگی های عددی و توپولوژی گراف را محاسبه کنم؟ تنها جایی که می‌توانم شروع کنم خوشه‌بندی **S**، با استفاده از توپولوژی گراف، و تجزیه و تحلیل تغییر ویژگی‌ها بین رئوس در هر خوشه است. برای آن می توانید یک متریک شباهت مانند تفاوت بین لبه ای که هر جفت رئوس را به هم متصل می کند تعریف کنید و بررسی کنید که آیا این متریک در یک خوشه همبستگی دارد یا خیر. آیا الگوریتم استانداردی برای این نوع تجزیه و تحلیل وجود دارد یا من به دنبال کدهای سفارشی هستم؟ چیزهای دیگری که من به محاسبات نیز علاقه مند هستم، * یک مسیر حریصانه فقط ضرر برای آلیس، کوتاه ترین تعداد تراکنش هایی که باعث شکست او از هر نقطه ای می شود. * تعداد رخدادهایی در نمودار که باب به عنوان یک طرف میانی برای آلیس و سیندی عمل می کند.
چگونه می توان ویژگی های گراف را با ویژگی های رأس مرتبط کرد؟
90578
من می خواهم نه ANOVA مختلف را روی متغیرهای مختلف اجرا کنم که ممکن است بین گروه ها تغییر کند. قبل از آنالیز واریانس، آزمون همگنی واریانس لوون انجام می شود. البته، من می خواهم مقایسه های متعدد را در آستانه آلفای نهایی برای ANOVA ها اصلاح کنم. اما از آنجایی که مقادیر p تصادفی می تواند در همه تست ها زیر 0.05 باشد، همین امر باید برای تست Levene اتفاق بیفتد، درست است؟ بنابراین سوال من این است که آیا نتایج تست Levene را نیز برای مقایسه های متعدد تصحیح کنم؟ چه استدلالی می تواند باشد که تست همگنی را تصحیح نکنیم، آیا نتایج حاصل از آن داده ها برای مقایسه های چندگانه تصحیح شده است؟
چند ANOVA، آیا آزمون همگنی واریانس را تصحیح کنم؟
85399
من از nlme در R استفاده می‌کنم تا یک مدل چندسطحی را برای برخی پاسخ‌های فیزیولوژیکی (سطح رسانایی پوست) در حین تماشای فیلم بگنجانم. من مدل را به صورت زیر مشخص می کنم: model <- lme(SCL <- variableA * variableB + TIME, random=~TIME|SUBJECTS, data=data5, na.action=na.omit, control=list(opt=optim ), روش = ML, correlation=corAR1(0.9)) تا اینجا خیلی خوب است. اما از آنجایی که ساختار خطا ناهمگونی را نشان می‌دهد، من آرگومان را نیز وارد کردم: weights=varExp(form=~TIME|SUBJECTS) مشکل این است که وقتی این تابع (وزن‌ها) را اضافه می‌کنم، پیام خطای زیر را دریافت می‌کنم: Error in recalc. corAR1(object[[i]]، conLin): Na/NaN/Inf en llamada یک تابع خارجی (arg 1) من دارم در انجمن های راهنمایی جستجو کردم، اما نتوانستم راه حلی پیدا کنم. با توجه به Bliese (مدل سازی چندسطحی در R)، می توانید از تابع corAR1 (برای تصحیح خودهمبستگی) و varExp (برای ناهمبستگی) با هم استفاده کنید، و وقتی من از آنها به طور جداگانه استفاده می کنم خوب است، اما وقتی از هر دو در یک مدل استفاده می کنم، آن را انجام می دهم. خطای بالا کسی میتونه در این مورد به من کمک کنه؟؟ خیلی ممنون!
خطا هنگام استفاده از corAR1 و varExp در مدل mutilevel
43824
برای مقاله ای من از آزمون دقیق فیشر در R استفاده می کنم. همانطور که قبلاً متوجه شدم p.value در R به عنوان مجموع همه احتمالات توزیع فوق هندسی با پارامترهای داده شده کمتر یا برابر با احتمال مقدار مشاهده شده محاسبه می شود. . و من قبلاً یاد گرفتم که روش های متعددی برای محاسبه مقدار p دو طرفه وجود دارد و بحث در مورد این موضوع ادامه دارد. حال سوال من این است که چرا R این کار را انجام می دهد؟ آیا منبعی وجود دارد که بتوانم در مقاله خود به آن مراجعه کنم؟ FYI: در R محاسبات به این شکل است: set.seed(42) A <- c(sample(c(1,2),replace=T,size=15),1,1,1,1,1,1 ) B <- c(نمونه(c(1،2)، جایگزین=T، اندازه=15)، 1،1،1،1،1،1) (برگه <- جدول(A،B)) fisher.test(tab)$p.value n11 <- tab[1,1] سفید <- sum(tab[1,]) سیاه <- sum(tab[2,]) کشیده <- sum(tab[,1 ]) lim <- dhyper(n11،m=سفید،n=سیاه،k=طراحی) همه <- dhyper(1: ترسیم شده، m=سفید، n=سیاه، k= کشیده شده) مجموع (همه[همه<=lim])
مقدار p دو طرفه آزمون دقیق فیشر
70164
من 3 تا 5 معیار از یک صفت برای هر فرد در دو شرایط مختلف (الف و ب) دارم. من میانگین را برای هر فرد در هر شرایط ترسیم می‌کنم و از خطای استاندارد (_i.e._، $SD/\sqrt{N}$، با $N$ = تعداد اندازه‌گیری‌ها) به عنوان نوار خطا استفاده می‌کنم. اکنون می‌خواهم تفاوت بین میانگین اندازه‌گیری هر فرد در شرایط A و شرایط B را رسم کنم. می‌دانم که می‌توانم خطای منتشر شده را با انجام این کار تعیین کنم: $$SD=\sqrt{SD_A^2+SD_B^2}$$، اما چگونه می‌توانم من به جای انحراف معیار خطاهای استاندارد را منتشر می کنم (چون با میانگین اندازه گیری ها سروکار دارم)؟ آیا این اصلا منطقی است؟
انتشار خطا SD در مقابل SE
85398
من در حال حاضر در حال آموزش یک رگرسیون تصادفی جنگل (scikit Learn) در مجموعه داده تایتانیک هستم. سوال من مربوط به این موضوع (http://stackoverflow.com/questions/19984957/scikit-predict-default-threshold) در سرریز پشته است. اشاره کردم که برای معیارهایی مانند Precision، Recall، F1-score ارزش مشابهی در scikit ندارم ... پس از بررسی متوجه شدم که دلیل آن این بود که افراد را با احتمال 0.5 در کلاس 1 در نظر گرفتم در حالی که scikit آنها را به عنوان کلاس طبقه بندی می کند. 0. بنابراین سؤالات من این است: * آیا بهتر است افراد با احتمالات 0.5 در کلاس 0 یا 1 طبقه بندی شوند؟ به عنوان مثال در تایتانیک می تواند ارزش چنین اقداماتی را به طور قابل توجهی تغییر دهد. * آیا استفاده نکردن از اینها مشروع است؟ من اینطور فکر نمی‌کنم زیرا نتایج شما را مغرضانه می‌کند و ممکن است باعث بهبود آنها شود. * طبقه بندی با بیش از دو کلاس چطور؟ اگر من 1/3،1/3،1/3 به عنوان احتمال برای یک فرد داشته باشم، چه باید بکنم؟ * آیا معیار عملکردی رهایی از این مشکل وجود دارد؟ * آیا scikit-learn هر بار این کلاس 0.5 -> 0 را انتخاب می کند یا می تواند تصادفی باشد / بستگی به مدل انتخاب شده دارد؟
با احتمالات کلاس 0.5 چه کنیم؟
38556
من میانگین و انحراف استاندارد یک متغیر را در یک مجموعه داده محاسبه کرده‌ام و می‌خواهم این مقادیر را در یک گزارش نشان دهم. آیا روش زیر برای این کار صحیح است؟ $1.23 \pm 0.52 \sigma $، که در آن میانگین 1.23 و انحراف استاندارد 0.52 است. متناوبا، آیا یک خطای استاندارد برای گزارش مناسب تری است؟ نتایج، دقت طبقه بندی و زمان صرف شده برای محاسبه آنها است.
نمایش انحراف معیار در محدوده آماری
85391
من 10-12 متغیر مستقل دارم، می خواهم بدانم این 10-12 متغیر چگونه با یک متغیر منفرد (X) مرتبط هستند. بنابراین می توانم تصمیم بگیرم که برخی از متغیرها با X همبستگی مثبت دارند و برخی با همبستگی منفی. به این فکر کردم که بین X و یکی از متغیرهای مستقل همبستگی را به صورت جداگانه انجام دهم و تصمیم بگیرم. آیا راهی برای محاسبه همبستگی چندگانه وجود دارد.
چگونه می توان همبستگی بین چندگانه را محاسبه کرد؟
4401
در استفاده ما از R برای یک پروژه تحلیل و تخمین داده های غیر پیش پا افتاده، بارها از تحمل R نسبت به ستون های غلط املایی یا از دست رفته در یک قاب داده رنج می بریم. مثال معمولی محاسبه میانگین وزنی یک متغیر MYVAR در یک قاب داده با استفاده از متغیر دیگر WEIGHT برای وزن‌ها است: m <-weighted.mean(tbl$MYVAR، w = tbl$WEIGHT، na.rm = TRUE) فرض کنید من یک اشتباه تایپی دارم. در نام WEIGHT در عملیات بالا. آنچه در آن R اتفاق می افتد، ستون غلط املایی من را به NULL گسترش می دهد و از آن برای اجرای میانگین وزنی و در نتیجه یک غیر وزنی استفاده می کند. بنابراین، این سوال: آیا راهی وجود دارد که R تلاش برای خواندن متغیرهای موجود در یک چارچوب داده را به عنوان یک خطا در نظر بگیرد؟
خطای گزارش R را در استفاده از نام ستون موجود در یک قاب داده ایجاد کنید
111137
یه سوال سریع داشتم من سعی می کنم همبستگی بین درصد پوشش مرجانی در هر یک از سایت های مطالعه خود و درصد مرجان در رسوب جمع آوری شده از آن سایت ها را آزمایش کنم. مشکل این است که پوشش مرجانی در هر سایت مستقل از چگونگی به دست آوردن درصد مرجان در رسوب به دست می آید. به طور خاص، من یک مقدار برای پوشش مرجانی بر اساس 3 نمونه برداری مستقل (ترانسکت خطی) برای هر سایت دارم. بنابراین من میانگین پوشش مرجانی در هر سایت را دارم. سپس نمونه هایی از شن و ماسه (3 در هر سایت) جمع آوری کردم. برای هر یک از آن نمونه ها، من یک درصد از مرجان در ارزش رسوب را دریافت می کنم. بنابراین می‌خواستم ببینم که آیا در هر سایت، میزان مرجانی که در رسوب یافت می‌شود با پوشش مرجانی کلی صخره مرتبط است یا خیر. در ابتدا درصد رسوب در هر نمونه را به عنوان متغیر X و میانگین پوشش مرجانی در هر سایت را به عنوان متغیر Y داشتم. بنابراین ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hIWyF.jpg) توجه داشته باشید که من مقدار Y یکسانی برای هر یک از مقادیر x مختلف در هر سایت دارم. مطمئن نبودم انجام این کار خوب است یا نه. شخصی به من گفت که باید مقادیر x را نیز در هر سایت میانگین بگیرم. وقتی این کار را انجام دادم، اندازه نمونه تنها 6 برای من باقی می ماند (چون من فقط 6 سایت صخره ای برای مقایسه دارم) و نمی توانم هیچ رابطه ای را شناسایی کنم. آیا این منطقی است؟ بهترین راه با این داده ها برای درک وجود رابطه چیست. خیلی ممنون
همبستگی با مقادیر x متعدد برای همان مقادیر Y
36293
من با مدیریت داده های تعداد بیش از حد پراکنده سر و کار دارم (توزیعات پواسون مناسب نمی شود). من باید سه مخلوط مختلف (گاما، لاگ-نرمال و گاوسی معکوس) از توزیع پارامترهای نرخ پواسون را با استفاده از یک مطالعه شبیه‌سازی مقایسه کنم. می‌خواهم روش‌های موجود را بدانم (به غیر از سهمیه احتمال و آزمون مربع چی پیرسون) برای مقایسه سه توزیع کاملاً متفاوت برای برازش داده‌های شمارش بیش‌ازحد. هر مرجع نیز بسیار قدردانی! ممنون از لطف شما
مقایسه توزیع بیش از حد پراکندگی
36294
من می خواهم تعیین کنم که آیا انحراف در نسبت نر: ماده سویه خاصی از موش آزمایشگاهی از وضعیت عادی وجود دارد (با نر: ماده = 1:1). من چندین جفت موس و چندین بستر برای هر جفت دارم. بنابراین، به عنوان مثال: جفت 1 بستر 1 5M:3F Litter 2 3M:4F Litter 3 7M:4F ... جفت 2 بستر 1 4M:5F بستر 2 2M:5F بستر 3 6M:2F ... چه چیزی می تواند بهترین باشد راهی برای تحلیل این وضعیت؟ من به استفاده از chi-squared فکر کردم، اما مطمئن نیستم که چگونه می توانم با این واقعیت برخورد کنم که برای هر جفت اقدامات تکراری انجام داده ام.
مجذور کای و اندازه گیری های مکرر
4403
با توجه به سابقه دریافت سؤالات در همان حوزه محتوایی درست در گذشته، باید احتمال اینکه یک فرد سؤالی را به درستی برای یک حوزه محتوایی خاص دریافت کند، تخمین بزنیم. همچنین احتمالاً سوابقی در مورد نحوه عملکرد دیگران در مورد این سؤال و در این زمینه محتوا داریم. آیا راه یا روش خوبی برای انجام این کار وجود دارد؟ (این به نوعی یک سوال تئوری آموزش است، اما من مکان بهتری برای ارسال این سوال پیدا نکردم.)
تخمین احتمال درست گرفتن یک سوال
70166
سوال من در مورد انتخاب/مقایسه مدل در مورد فضاهای نتیجه گسسته _و_ است که تعداد نتایج متمایز به بعد بستگی دارد. (برای افراد کنجکاو، این به طور طبیعی به وجود می آید، و در واقع تعریف بعد، در مدل های مکانیکی کوانتومی است.) من یک قیاس ساده ارائه می کنم. فرض کنید من یک قالب $d$-sided دارم که می‌خواهم بایاس آن را بدانم. اما، علاوه بر این، من $d$ را نمی دانم. اگر من نتایج متمایز $k$ را دیده‌ام، پس می‌دانم که حداقل $k$ وجود دارد. اما، شاید بیشتر وجود دارد؟ فکر اولیه من استفاده از معیارهای انتخاب مدل، مانند AIC بود. البته می‌توانم از AIC استفاده کنم، اما ابتدا فرض می‌کنم مقداری حداکثر مقدار $k$ وجود دارد. اما این عملاً مرتبط نخواهد بود زیرا عبارت حداکثر درستنمایی در AIC بدون توجه به اینکه چند ضلع اضافی به قالب اضافه می کنم یکسان خواهد بود زیرا تخمینگر حداکثر احتمال احتمال آن اضلاع 0 خواهد بود. سپس، مدل با بهترین AIC یکی با تعداد اضلاع مشاهده شده مجزا خواهد بود: $k$. به نظر من بیش از حد اعتماد به نفس است. علاوه بر این، من تکنیکی را می‌خواهم که به فرضی در مورد حداکثر تعداد نتایج ممکن نیاز نداشته باشد. **بنابراین سؤال من** این است: آیا تکنیک های انتخاب مدل دیگری به جز AIC وجود دارد که بتواند بین حداقل توصیف مطلق و آنهایی که به نفع مدل هایی هستند که نتایجی را که هنوز مشاهده نشده اند پیش بینی می کنند، محافظت کند؟
انتخاب مدل با فضاهای نتیجه متفاوت
85393
من داده هایی دارم که کمی شبیه به این A<-c(90,95,70,45,20,15) B<-c(10,5,30,55,80,85) X<-c(X1 X2، X1، X2، X1، X2) Z<-c(Z1، Z1، Z2، Z2، Z3، Z3 ) من یک glm mod1<-glm(cbind(A,B)~X*Z، دوجمله ای) انجام دادم ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 2.1972 0.3333 6.592 4.35e-11 *** XX2 0.7472 0.5671 1.318 0.187659 ZZ2 -1.3499 ZZ2 -1.3499 0.3088 0.3084 -30084 -3.5835 0.4167 -8.600 < 2e-16 *** XX2:ZZ2 -1.7952 0.6400 -2.805 0.005035 ** XX2:ZZ3 -1.0955 0.6801 -1.612 سطح مرجع 0.6801 -1.611'01 تفسیر شده و XX2:ZZ2 -1.617 0 است. داده ها به این روش - به عنوان یک اثر اصلی x مهم نیست اما z است، با z2 و z3 به طور قابل توجهی از فرم z1 متفاوت است. ما نمی توانیم اهمیت تفاوت بین z2 و z3 را بگوییم اما می توانیم تفاوت تخمین را بررسی کنیم ... درست است؟ با این حال، تعامل x2:z2 نشان می دهد که x در z1 و z2 تأثیر متفاوتی دارد؟ و تعامل غیر معنی دار x2:z3 نشان می دهد که x در z1 و z3 اثر یکسانی دارد؟ آیا این تعبیر صحیح است؟ سوالات اضافی ... چگونه می توانم اهمیت تفاوت بین z2 و z3 و همچنین اهمیت تعامل بین x2:z2 و x2:z3 را آزمایش کنم؟ آخرین مورد ... اگر تعامل معنادار است چگونه می توانم اهمیت اثر اصلی بگویم x را تفسیر کنم؟
تفسیر تعاملات بین داده های طبقه بندی شده
97093
من روی الگوریتمی کار می‌کنم که باید اندازه یک مجموعه تولید شده توسط تقاطع‌های حداقل 2 مجموعه را محاسبه کند. به طور خاص: $$ z = \left |A_0 \cap \ldots \cap A_n \راست | $$ مجموعه هایی که قطع می شوند توسط پرس و جوهای SQL تولید می شوند، و در تلاش برای نگه داشتن موارد سریع، تعداد هر پرس و جو را زودتر از موعد دریافت می کنم، سپس مجموعه ای را با کمترین تعداد ($A_0$) می گیرم و از آن شناسه ها استفاده می کنم. به عنوان کران در بقیه پرس و جوهای بزرگ، بنابراین تقاطع به طور موثر تبدیل می شود: $$ z = \left |\left ( A_0 \cap A_1 \right ) \cap \ldots \cap \left ( A_0 \cap A_n \right) \راست | $$ حتی این استراتژی من را با چند جستار بسیار بزرگ برای اجرا می گذارد، زیرا $\left | A_0 \right |$ گاهی اوقات می تواند بزرگ باشد. ایده من برای مقابله با آن، گرفتن یک نمونه تصادفی از $A_0$ و تلاقی آن با بقیه مجموعه ها قبل از برون یابی به تخمین مناسب $z$ است. **سوال من این است: بهترین راه برای نمونه برداری و سپس برون یابی برای بازگشت به مقدار z$$ که اگر کاملاً دقیق نباشد، محدوده خطای قابل پیش بینی دارد چیست؟ تا کنون امتحان کرده‌ام (در کد شبه، نوعی): sample_threshold := 10000 factor := 1 if (len(A0) > sample_treshold) { factor = sample_threshold / len(A0) } // یک نمونه تصادفی به اندازه 10000 از A0 بگیرید // تمام مجموعه‌های دیگر را با نمونه A0 قطع کنید، سپس با یکدیگر work_set := A0 برای i، a := محدوده A { a = تقاطع (A0, a) working_set = intersect (working_set, a) } z := len (working_set) * (1 / factor) این کد کار می کند، اما به نظر می رسد به طور مداوم z را بیش از حد تخمین می زند، با حجم نمونه کمتر که تخمین بالاتری را به همراه دارد. علاوه بر این، من مطمئن نیستم که چگونه این مقیاس با بیش از دو مجموعه به هم می رسد. امیدوارم این سوال منطقی باشد، اگر می توانم چیزی را بیشتر توضیح دهم به من اطلاع دهید. همچنین اگر این سوال خارج از موضوع است یا مربوط به جای دیگری است، لطفاً به من اطلاع دهید و خوشحال می شوم آن را منتقل کنم. * * * طبق نظر بیل، چند آزمایش سریع برای نشان دادن اندازه نمونه در مقابل خطا انجام دادم. هر سطل اندازه نمونه 20 بار اجرا شد، و همانطور که می بینید یک روند کاملاً واضح وجود دارد: ![Plot](http://i.stack.imgur.com/p5uc2.png)
تخمین اندازه تقاطع چند مجموعه با استفاده از نمونه یک مجموعه
77466
من داده‌های نتایج فوتبال زیادی دارم و می‌خواهم وابستگی تعداد گل‌های هر بازی را به آب و هوا (مانند آفتاب، باران، برف) آزمایش کنم. من در تلاش برای تصمیم گیری در مورد وابسته یا مستقل بودن داده ها هستم (و از این رو از کدام آزمون ANOVA استفاده کنم). نمی توانم مطمئن باشم که هر تیمی بیش از یک بار با هر تیم دیگری بازی کرده باشد.
داده های مستقل یا وابسته
5062
من نقاط داده از یک نیم دایره دارم و از قبل شعاع آن را می دانم. من می‌خواهم دایره‌ای را پیدا کنم که با استفاده از یک شعاع ثابت، بهترین تناسب با نقاط را دارد. چگونه می توانم این کار را انجام دهم؟ اگر با استفاده از الگوریتم تناسب دایره ای مشکل را حل کنم، شعاع به دلیل نویز بیش از حد ناپایدار است.
برازش دایره هندسی با شعاع مشخص
66791
(اول از همه، فقط برای تأیید، یک متغیر افست اساساً در پواسون و رگرسیون دوجمله ای منفی یکسان عمل می کند، درست است؟) با خواندن در مورد استفاده از متغیر افست، به نظر من اکثر منابع توصیه می کنند که آن متغیر را به عنوان یک گزینه درج کنید. در بسته های آماری (exp() در Stata یا offset() در R). اگر در حال مدل‌سازی داده‌های شمارش هستید و تعداد محدودی وجود دارد که شمارش ممکن است اتفاق بیفتد، آیا این از نظر عملکردی مانند تبدیل متغیر نتیجه شما به نسبت است؟ مثال من در مورد اخراج کارکنان است، و من معتقدم که جبران در اینجا به سادگی Log (تعداد کارمندان) خواهد بود. و به عنوان یک سؤال اضافه شده ، من در این مفهوم مشکل دارم که تفاوت بین این دو گزینه اول (از جمله قرار گرفتن در معرض به عنوان گزینه ای در نرم افزار و تبدیل DV به نسبت) و از جمله قرار گرفتن در معرض RHS به عنوان کنترل ، مشکل دارم. هر گونه کمک در اینجا قدردانی خواهد شد.
افست در رگرسیون دو جمله ای پواسون/منفی کجا می رود؟
4407
من یک دندروگرام به نام «x» دارم و می‌خواهم آن را دوباره مرتب کنم. اول، مطمئن می شوم که `x` یک دندروگرام است، و این است: > class(x) [1] dendrogram سپس ترتیب چیزها را در دندروگرام خود بررسی می کنم، و دقیقاً همانطور که ترسیم شده است، یعنی همه چیز می سازد. حس: > order.dendrogram(x) [1] 6 7 8 5 9 10 11 1 3 2 4 13 16 12 14 15 17 اکنون در مورد یک ترتیب جدید تصمیم می‌گیرم: > y <- c(6,7,8,5,9,1,3,2,4,13,16,17,15,14,12,10,11) I اکنون سعی کنید دندروگرام خود را مجددا ترتیب دهید و مرتبه مجدد را به صورت `rx` ذخیره کنید: > rx <- reorder(x, y, agglo.FUN=mean) ترتیب را بررسی می کنم «rx»، و از «x» مرتب شده است، اما کاملاً به شکلی که من می‌خواهم مرتب نشده است (تقریباً، اما نه کاملاً): > order.dendrogram(rx) [1] 6 7 8 9 5 4 2 1 3 16 13 17 15 14 12 10 11 من کمی با آرگومان «agglo.FUN=mean» بازی کردم، اما هرگز نتوانستم به دست بیاورم دندروگرام همان طور که می خواستم سفارش داده شود. سفارشی که من می خواهم کاملاً با دندروگرام سازگار است - من فقط چند شاخه را می چرخانم. کسی میدونه دارم چه غلطی میکنم؟ با تشکر اریک
ترتیب مجدد دندروگرام در R
4408
آیا کسی می تواند آخرین مطالب مربوط به اعتبار سنجی Cross به خصوص بسته R را در اختیار من بگذارد؟
آخرین مقاله یا توسعه جدید در اعتبارسنجی متقابل؟
43825
من اخیراً مطالعه ای را تکمیل کردم که در آن شرکت کنندگان را به طور تصادفی به یکی از دو گروه درمانی اختصاص دادم. من شرکت کنندگان را در ابتدا، بلافاصله پس از مداخله، 1 ماه و 4 ماه بر روی تعداد کمی از متغیرهای نتیجه آزمایش کردم. من قصد داشتم چندین ANOVA ترکیبی را برای بررسی تعاملات زمانی گروه x اجرا کنم. برخی از مقایسه‌ها مقایسه‌های 2 (گروهی) x 2 (زمان: پایه و بعد از مداخله) و برخی مقایسه‌های 2 (گروهی) x 3 (زمان: پایه، 1 ماه، 4 ماه) خواهند بود. قبل از شروع تجزیه و تحلیل خود، دو گروه درمانی را بر روی همه متغیرهای پایه مقایسه کردم. دریافتم که اگر از سطح آلفای 0.05 یا 2 متغیر پایه استفاده کنم، اگر از سطح آلفای 0.01 برای مقایسه گروه ها استفاده کنم، گروه ها در 4 متغیر پایه متفاوت هستند. من دو سوال در این مورد دارم: 1. از چه سطح آلفای باید برای مقایسه گروه ها در ابتدا استفاده کنم؟ من به سطح آلفای 0.01 فکر می‌کردم، زیرا در حال مقایسه دو گروه بر روی 24 ویژگی خط پایه هستم و فکر کردم باید یک سطح آلفای سخت‌گیرانه‌تر از 0.05 را انتخاب کنم تا با مشاهده تعداد زیادی از آزمایش‌ها، میزان خطای خانوادگی را کاهش دهم. انجام شد، اما از خوانش های من به نظر می رسد که اکثر مردم از 0.05 استفاده می کنند. پیشنهاد شما چیست؟ 2. با این تفاوت ها چه کار کنم؟ من می‌توانم این متغیرها را به‌عنوان متغیرهای کمکی در نظر بگیرم، اما حجم نمونه من بسیار کوچک است و استفاده از 4 متغیر کمکی مناسب به نظر نمی‌رسد (به همین دلیل است که من فقط در صورتی که تفاوت‌ها در سطح 0.05 معنی‌دار باشند، طرفدار پذیرش تفاوت‌ها هستم) هر کمکی در این مورد می‌تواند مفید باشد. بسیار قدردانی شود!
تفاوت های پایه در RCT: کدام متغیرها (در صورت وجود) باید به عنوان متغیرهای کمکی گنجانده شوند؟
5399
فرض کنید ما دو بردار تصادفی گاوسی داریم $p(x_1) = N(0,\Sigma_1), p(x_2) = N(0,\Sigma_2)$، آیا یک نتیجه شناخته شده برای انتظار محصول آنها $E[ x_1x_2^T]$ بدون فرض استقلال؟
انتظار حاصل ضرب متغیرهای تصادفی گاوسی
5392
اجازه دهید: انحراف استاندارد متغیر تصادفی $A =\sigma_{1}=5$ انحراف استاندارد متغیر تصادفی $B=\sigma_{2}=4$ سپس واریانس A+B برابر است با: $Var(w_{1} A+w_{2}B)= w_{1}^{2}\sigma_{1}^{2}+w_{2}^{2}\sigma_{2}^{2} +2w_{1}w_{2}p_{1,2} \sigma_{1}\sigma_{2}$ کجا: $p_{1,2}$ همبستگی بین دو متغیر تصادفی است. $w_{1}$ وزن متغیر تصادفی است A $w_{2}$ وزن متغیر تصادفی B $w_{1}+w_{2}=1$ است. وزن A از 0 به 1 تغییر می کند، برای همبستگی های -1 (زرد)، 0 (آبی) و 1 (قرمز). ![متن جایگزین](http://i.stack.imgur.com/ATJSF.png) وقتی همبستگی 1 است، چگونه فرمول به یک خط مستقیم (قرمز) منجر شد؟ تا آنجا که من می توانم بگویم، وقتی $p_{1,2}=1$، فرمول ساده می شود: $Var(w_{1}A+w_{2}B)= w_{1}^{2}\sigma_ {1}^{2}+w_{2}^{2}\sigma_{2}^{2} +2w_{1}w_{2}\sigma_{1}\sigma_{2}$ چگونه می توانم آن را به شکل $y=mx+c$ بیان کنم؟ متشکرم.
واریانس دو متغیر تصادفی وزن دار
36298
بریمن می گوید که درختان بدون هرس رشد می کنند. چرا؟ منظورم این است که باید دلیل محکمی برای هرس نشدن درختان در جنگل های تصادفی وجود داشته باشد. از سوی دیگر، هرس یک درخت تصمیم گیری برای جلوگیری از برازش بسیار مهم است. آیا ادبیاتی برای خواندن به این دلیل در دسترس است؟ البته ممکن است درختان همبستگی نداشته باشند، اما همچنان احتمال بیش از حد برازش وجود خواهد داشت.
چرا هرس درختان تصادفی جنگلی لازم نیست؟
44211
1. آیا قضیه حد مرکزی برای همه توزیع ها صادق است؟ 2. برای چه اندازه نمونه درست است (منظور از بزرگ چیست)؟
چه زمانی از قضیه حد مرکزی استفاده کنیم؟
36121
من می خواهم واریانس عبارت خطا را در مدل رگرسیون خطی معمولی تخمین بزنم. تخمین واضح واریانس نمونه باقیمانده است، با این حال این تخمین به طور مداوم مقدار واقعی را دست کم می گیرد. یک شبیه سازی ساده در R تایید می کند که: x = rep(0:1، c(10، 10)) a = replicate(1000، var(residuals(lm(rnorm(20، میانگین = x، sd = 1) ~ x) )))) mean(a) > 0.9418632 این البته منطقی است، زیرا هنگام بهینه سازی یک مدل خطی، ما در واقع این خطا را بهینه می کنیم و مدل تولید کننده واقعی همیشه خطاهای تا حدودی بزرگتری می دهد. با این حال، آیا راه خوبی برای تخمین بی طرفانه این خطا وجود دارد؟ یک احتمال احتمالاً استفاده از نوعی طرح اعتبارسنجی متقاطع است، اما آیا راهی برای محاسبه تحلیلی آن وجود دارد؟
نحوه بدست آوردن تخمین بی طرفانه برای واریانس خطا در مدل خطی معمولی
70168
ما فرمول‌های به‌روزرسانی زیر را داریم: لایه خروجی (با نمایه‌سازی $k \in \{1, \dots, \text{تعداد کلاس‌ها} \}$). $o_k$ - مقدار نورون خروجی $k$ $d_k$ - مقدار مورد نظر نورون خروجی $k$ $\eta$ - نرخ یادگیری $x_j$ - مقدار نورون در آخرین لایه پنهان $$\delta_k = o_k(1 - o_k)(d_k - o_k)$$ $$\omega_{jk} = \omega_{jk} + \Delta\omega_{jk}، \text{where } \Delta\omega_{jk} = \eta\delta_kx_j$$ آخرین لایه پنهان (HL) (نمایه شده توسط $j \in \{1, \dots, \text{تعداد نورونهای پنهان در آخرین HL } \}$): $$\delta_j = x_j(1 - x_j)\sum_k \omega_{jk}\delta_k$$ $$\omega_{ij} = \omega_{ij} + \Delta\omega_{ij}، \text{where } \Delta\omega_{ij} = \eta\delta_j x_i$$ **آیا فرمول‌های به‌روزرسانی به طور کلی برقرار است برای هر تعداد لایه پنهان؟ به عنوان مثال:** $l$-th لایه پنهان ($l \in [0..L]$، جایی که 0 - لایه ورودی، $L$ - لایه خروجی) (نمایه شده توسط $p \in \{1، \dots , \text{تعداد نورونهای پنهان در لایه } l\},$j \in \{\text{ 1,..,تعداد نورونهای پنهان در لایه } l+1\}$$$\delta_p = x_p(1 - x_p)\sum_j \omega_{pj}\delta_j$$ $$\omega_{pj} = \omega_{pj} + \Delta\omega_{pj}، \text{where } \Delta\omega_{pj} = \eta\delta_j x_p$$ اگر درست باشد، آیا می توان به صورت بازگشتی همه نورون های دلتا را برای همه نورون ها (به جز نورون های ورودی) محاسبه کرد که با خروجی شروع می شود و به سمت گره های پنهان می رود و سپس به سادگی هر وزن را بر اساس $\delta$ و $x$ درست تغییر می دهد.
انتشار به عقب در شبکه های عصبی با بیش از 2 لایه پنهان
38552
من سال‌ها بر روی کارآزمایی‌های بالینی در موارد ارسالی FDA کار کرده‌ام. من تقریباً به طور انحصاری از SAS استفاده می کنم. اخیراً در مورد یک کار مشاوره صحبت کردم که باید یک رگرسیون دمینگ را راه‌اندازی کنم. فکر می‌کنم بوت استرپینگ در R بسیار راحت‌تر انجام می‌شود و چندین متخصص راه‌هایی را پیشنهاد کرده‌اند که می‌توانم این کار را در R انجام دهم. از آنجایی که این به FDA برای مشتری من ارسال می‌شود، من نگران این هستم که آیا اعتبار سنجی نرم‌افزار ممکن است به یک مشکل تبدیل شود. شنیده‌ام که R در FDA پذیرفته شده است و کارشناسان به من می‌گویند که قابلیت ردیابی که یک ویژگی جذاب با SAS است، در R نیز به راحتی قابل رسیدگی است. مشتری من رگرسیون دمینگ اصلی را با بسته ای انجام داد که من با آن آشنا نیستم و اعتبارسنجی با ارسال اصلی مشکلی نداشت. من می خواهم بدون اضافه کردن هیچ سردرد جدیدی برای آنها کمک کنم. آیا کارشناسان R در اینجا می توانند من را راهنمایی کنند؟ اگر کمک می کند می توانم برخی از گزینه های برنامه نویسی پیشنهاد شده را ذکر کنم؟
هنگام ارسال تجزیه و تحلیل به FDA چگونه استفاده از R بر مسائل اعتبار سنجی نرم افزار تأثیر می گذارد؟
5396
1. آیا کسی می داند چگونه می توان یک جدول خلاصه زیبا در JMP برای چندین متغیر ایجاد کرد؟ من از Tables>Summary استفاده می‌کنم و جدولی که دریافت می‌کنم یک ردیف دارد که به عنوان مثال شامل mean(var1) mean(var2) mean(var3) median(var1) median(var2) median(var3) و غیره است. من دوست دارم هر متغیر ردیفی برای خود داشته باشد، با ستون هایی که آمار را نشان می دهد. 2. آیا کسی می داند چگونه می توان یک جدول فرکانس در هنگام ایجاد هیستوگرام در JMP ایجاد کرد؟ من با استفاده از Analyze>Distributions یک هیستوگرام دریافت می کنم اما هیچ گزینه ای برای گرفتن جدول فرکانس نمی بینم. با تشکر از شما، Naama Wolf
جداول خلاصه و فراوانی در JMP
38551
داده های ویژگی من به گونه ای تعریف شده است که معتقدم همه وزن ها باید غیر منفی باشند. من به دنبال مرجعی هستم که در مورد چگونگی بهینه‌سازی وزن‌های یک طبقه‌بندی کننده رگرسیون لجستیک با این محدودیت که وزن‌ها باید غیرمنفی باشند، و شاید محدودیتی برای علامت بایاس بحث کند. آیا جایگزینی وزن ها با وزن های مربعی و استفاده از تابع هزینه معمولی ML با یک طرح بهینه سازی محلی کارساز خواهد بود؟
طبقه‌بندی‌کننده رگرسیون لجستیک با محدودیت وزنی غیرمنفی
70784
من یک مجموعه آزمایشی کوچک 20k (176 متغیر) دارم. من می‌خواهم با استفاده از ردیف‌ها (داده‌ها) و ستون‌ها (نام‌ها) از مجموعه داده‌های کوچک، یک مجموعه داده بزرگ‌تر تصادفی برای آزمایش ایجاد کنم. در حال حاضر من دارم: real_data <- read.csv(somefilehere.csv) # یک ردیف جعلی بارگیری می‌کنم تا انتساب نام ستون‌ها شکایتی نداشته باشد *ahem* test_data <- data.frame(real_dat[1,]) colnames(test_data ) <- colnames(real_data) بنابراین، این کادر داده test_data من را به همان ستون تنظیم می کند نام ها به عنوان داده های واقعی چگونه می توانم همه نام ستون ها را اجرا کنم و سپس test_data را با مقادیر موجود از real_data تصادفی کنم؟ کد زیر برای تصادفی کردن یک نمونه از ردیف موجود کاملاً کار می کند: sample(unique(real_data$some_variable_here),random_count,replace=T) **چگونه می توانم از تکرار ستون ها به همراه تابع نمونه برای پر کردن خودکار داده های test استفاده کنم؟ ** انجام تکالیف دستی برای هر متغیر برای همیشه طول می کشد، شاید تابعی در R وجود دارد که من به عنوان یک مبتدی 3 هفته ای آن را از دست می دهم؟ من برای پردازش با R، knitr و LaTeX کار می کنم و می خواهم از مجموعه test_data برای استفاده در آزمایش های آماری و نمودارهای خود استفاده کنم (برای اینکه ببینم آیا سند من با اعداد بزرگتر مقیاس می شود یا خیر، و افسانه های من هنوز خوب به نظر می رسند و غیره). [ویرایش] نمونه ای با مجموعه داده R که به طور تصادفی انتخاب شده است. مجموعه داده: warpbreaks - بارگیری با داده (warpbreaks) ![dataset](http://i.stack.imgur.com/4qAck.png) در حال حاضر دارای 3 ستون از قبل تعریف شده و 54 مشاهده است. چگونه می توانم یک مجموعه داده جدید به نام warpbreaks_huge ایجاد کنم که نام ستون های مشابهی داشته باشد، اما 25 میلیون مشاهده داشته باشد؟ همچنین، از مجموعه داده‌های موجود می‌توانیم ببینیم که ستون تنش دارای مقادیر پیش‌فرض L، M و H است. ستون پشمی مقادیر پیش‌فرض A و B را دارد. حدس می‌زنم سوال من این است که چگونه می‌توان جمعیت‌های _bigger_ تصادفی‌سازی شده را از نظر برنامه‌ریزی ایجاد کرد؟ بابت عبارت ساده لوحانه ام عذرخواهی می کنم. من در این محیط تازه کار هستم.
چگونه می توانم یک جمعیت بزرگتر را از یک جمعیت موجود در R تصادفی کنم؟
85646
من در حال حاضر $\prod x_i$ و $\prod (1-x_i)$ را دریافت می کنم، اما یک آمار کافی 1 بعدی درخواست می شود و با توجه به اینکه تنها یک پارامتر وجود دارد ($\alpha$)، فکر می کنم باید یک عدد بدست آوریم. آمار کافی 1 بعدی. من مطمئن نیستم که چگونه این کار را انجام دهم.
آمار کافی 1 بعدی را برای $Beta(\alpha, 2\alpha)$ پیدا کنید
112015
چگونه می توانم مجموع تجمعی یک توزیع دو بعدی را از بالاترین مقدار در توزیع شروع کنم؟ زمینه: توزیع دوبعدی من احتمال ترکیب های مختلف ارتفاع موج و دوره های موج بر اساس اندازه گیری های انجام شده در یک مکان اقیانوسی است. فرض کنید توزیع نشان می دهد که رایج ترین موج (بالاترین احتمال، 1%) دارای ارتفاع 3 متر و دوره زمانی 8 ثانیه است. این ترکیب نشان‌دهنده «قله» یک «کوه» در توزیع است، به‌عنوان مثال، ترکیب‌های مجاور ارتفاع/دوره موج اغلب اما کمتر (مثلاً 0.1 درصد) و ترکیب‌های «سرازیری» بیشتر حتی کمتر اتفاق می‌افتد (مثلاً 0.01 درصد). . احتمال غیر صفر در بسیاری از سطل‌های ارتفاع موج و دوره موج پخش می‌شود، بنابراین هنوز در مجموع به 1 می‌رسد. ترکیبات دوره ای که مجموعاً به احتمال 10 درصد می رسند. به عبارت دیگر، من می توانم به کانتور نگاه کنم و بگویم 10٪ مواقع، ارتفاع موج بین 1 تا 4 متر و پریودها بین 6 تا 10 ثانیه است. من معتقدم که باید **مجموع تجمعی توزیع دوبعدی را که از اوج شروع می‌شود و در سرازیری کار می‌کند شکل دهم. چیزی که گیج کننده است این است که سرازیری در 2 جهت امتداد می یابد زیرا من در حال جمع کردن دو متغیر ارتفاع و دوره هستم. هر توصیه‌ای مفید است، زیرا من در حول این موضوع مشکل دارم.
چگونه جمع تجمعی یک توزیع دوبعدی را بدست آوریم؟
36128
فرض کنید ما یک آزمون فرضیه را از یک نمونه تصادفی $(x_i)_{i=1}^n$ انجام می دهیم، برای مثال $x_i \sim_{\text{iid}} {\cal N}(\theta, 1)$ و $H_0=\{\theta=0\}$ برای سادگی. اگر آزمون نتواند $H_0$ را رد کند، طبیعی است که از خود بپرسیم _اگر داده های بیشتری جمع آوری کنم، چه اتفاقی می تواند بیفتد؟_. این سوال را می توان با اختصاص یک توزیع پیش بینی کننده به داده های جدید حل کرد و سپس احتمال رد $H_0$ را برای نمونه جدیدی که فرض می شود طبق این توزیع پیش بینی توزیع می شود محاسبه کرد. یک روش ساده لوحانه (از کمبود تفسیر احتمالی رنج می برد) این است که بگوییم داده های جدید $\sim_{\text{iid}} {\cal N}(\hat\theta, 1)$ هستند که $\hat\theta هستند. $ تخمینی از $\theta$ است که از نمونه واقعی $(x_i)_{i=1}^n$ بدست آمده است. در چارچوب بیزی مفهوم روشنی از توزیع پیش بینی وجود دارد. با فرض اینکه توزیع پیشگویانه ساده لوحانه یا توزیع پیش بینی بیزی را که از یک پیشین غیر اطلاعاتی مشتق شده است در نظر بگیریم، چگونه عملکرد مکرر قدرت پیش بینی را برجسته/ارزیابی کنیم؟ برای مثال، فرض کنید که روش آزمایش متوالی زیر را اتخاذ می کنیم: * یک نمونه $(x_i)_{i=1}^n$ با $n=10$ جمع آوری کنید * اگر $H_0$ رد شد، متوقف شوید. * در غیر این صورت از توزیع پیش‌بینی برای ارزیابی اندازه نمونه جدید مورد نیاز استفاده کنید تا قدرت پیش‌بینی 80$\%$ را برای رد H_0$ بدست آورید. * سپس نمونه جدید را جمع آوری کرده و آزمایش را انجام دهید. با اتخاذ این روش، احتمال رد $H_0$ در تابع $\theta$ چیست؟ بررسی چنین سؤالاتی با استفاده از شبیه سازی آسان است، اما آیا نتایج نظری در مورد چنین سؤالاتی وجود دارد؟
عملکرد مکرر تست متوالی بر اساس قدرت پیش بینی
76786
این اولین تکلیف تحقیقاتی من است و احساس گیجی و سردرگمی می کنم. من توسط سرپرستم مطلع شده ام که یک رگرسیون چندگانه سلسله مراتبی را با استفاده از SPSS انجام دهم. متوجه شدم که متغیر وابسته من (DV) ترتیبی است. آیا یک رگرسیون چندگانه سلسله مراتبی صحیح است یا باید یک رگرسیون ترتیبی (لجستیکی) انجام دهم. سوال تحقیق: چه نسبتی از واریانس در رفتار ارتقاء دهنده سلامت با ترکیب خطی پیش بینی کننده ها توضیح داده می شود (متغیرهای مستقل که در زیر مشخص شده است): (DV) = رفتار ارتقاء دهنده سلامت (اندازه گیری شده توسط مقیاس لیکرت 4 درجه ای HPLP؛ 52 مورد) مستقل متغیرها (IV) 1) جهان بینی: اندازه گیری شده توسط OMPI 2 نقطه ای - 26 مورد 2) خودکارآمدی: پرسشنامه لیکرت 4 امتیازی - 13 گویه 3) پریشانی روانی: HOP-25 4 امتیاز لیکرت - 25 گویه 4) جنسیت 5) سال تحصیلی (سال اول، سال دوم، سال سوم) 6) نژاد (آفریقایی، رنگین، سفید، هندی) ، دیگر)
رگرسیون چندگانه سلسله مراتبی در مقابل رگرسیون ترتیبی (لجستیکی).
114168
من از تابع Caret استفاده می کنم. داده های خود را به مجموعه های آموزشی (75%) و تست (25%) تقسیم کرده ام. اکنون من 10 برابر CV را روی داده های آموزشی اجرا می کنم. وقتی مطابق مدل train_control <- trainControl(method=cv, number=10) خروجی <- train(Species~., data=iris, trControl=train_control, method=rpart2) Q1. آیا دقت نشان داده شده توسط خروجی یک مجموعه آزمون فرعی یا Sub-Training است یعنی (10% داده های آموزشی یا 90% داده های آموزشی) Q2. چگونه می توانم دقت هر دو مجموعه را برای هر فولد مشاهده کنم، یعنی دقت Sub-Test و Sub Training مجموعه برای هر یک از 10-Folds
چگونه می توان از اعتبار سنجی و زیر آزمون از اعتبار سنجی متقاطع در CARET استفاده کرد
36127
از یک نمونه داده شده $x_i \underset{\mathrm{iid}}{\sim} {\cal N}(\mu, \sigma^2)$ ممکن است یک فاصله اطمینان در مورد احتمال $\Pr(x_i) بدست آورید. \geq a)$ برای هر عدد $a$، با معکوس کردن برخی فواصل تلورانس. اگر ${\boldsymbol x}_i \underset{\mathrm{iid}}{\sim}{\cal N}_p({\boldsymbol \mu}، \Sigma)$ نمونه‌ای از یک $p$-variate نرمال باشد. توزیع، چگونه یک فاصله اطمینان در مورد احتمال $\Pr(x_{i1} \geq a_1, \ldots, x_{ip} \geq a_p)$ بدست آوریم؟ به راحتی می توان یک فاصله معتبر در چارچوب بیزی به دست آورد، اما در مورد روش های مکرر چیست؟ آیا بوت استرپ مجانبی معتبر است؟ آیا رویکرد شناخته شده دیگری وجود دارد؟ **ویرایش 15/09/2012:** روش دلتا باید امکان پذیر باشد. اگر کسی با محاسبات راحت است خوشحال می شوم که راه حل را اینجا پست کند ;)
فاصله اطمینان در مورد یک احتمال نرمال چند متغیره
44212
فرض کنید شما لاگ های یک وب سرور را دارید. در این گزارش‌ها شما تاپل‌هایی از این دست دارید: user1, timestamp1 user1, timestamp2 user1, timestamp3 user2, timestamp4 user1, timestamp5 ... این مُهرهای زمانی به عنوان مثال نشان‌دهنده. کلیک کاربران اکنون، «user1» چندین بار (جلسه) در طول ماه از سایت بازدید می کند و در طول هر جلسه، تعداد زیادی کلیک از هر کاربر خواهید داشت (با فرض اینکه وقتی یک کاربر از سایت شما بازدید می کند، روی چندین صفحه کلیک می کند) . فرض کنید می‌خواهید این کلیک‌ها را در جلساتی که آن‌ها را ایجاد کرده‌اند، تقسیم‌بندی کنید، اما منبع اطلاعات اضافی ندارید، فقط فهرستی از مهرهای زمانی را در اختیار دارید. اگر توزیع فواصل بین دو کلیک متوالی از یک کاربر را محاسبه کنید، یک توزیع طولانی به دست خواهید آورد. به طور شهودی، شما به دنبال یک پارامتر برش هستید، به عنوان مثال. N ثانیه، جایی که اگر «timestamp_{i+1} - timestamp{i} > N»، «timestamp_{i+1}» شما شروع جلسه جدید است. مشکل این است که این توزیع در واقعیت ترکیبی از دو متغیر است: X = فاصله بین دو کلیک متوالی در یک جلسه و Y = فاصله بین آخرین کلیک جلسه قبلی و اولین کلیک جلسه جدید. سوال این است که چگونه می توان این N را که دو توزیع را تقسیم می کند (احتمالاً با کمی همپوشانی) فقط با نگاه کردن به تعداد زیاد کلیک ها تخمین زد؟
توزیع طولانی رویدادهای زمانی
85644
من از R استفاده می کنم. مجموعه داده من حدود 39 متغیر/بردار مختلف دارد و هر کدام حدود 80 ورودی دارد. من فرض می‌کنم که برخی از همبستگی‌ها در داده‌های من وجود دارد و می‌خواهم بفهمم که 39 متغیر من باید چه مقادیری داشته باشند تا Y من حداکثر باشد. من همچنین بسیار مطمئن هستم که همه متغیرها تأثیر قابل توجهی روی Y من ندارند. کاری که قبلاً انجام دادم این بود که همبستگی های 39 متغیر را با Y خود محاسبه کردم و با دانستن اینکه کدام همبستگی ها بسیار زیاد / خیلی کم هستند، می توانم فرض کنم که چه مقادیری باید داشته باشند. باید Y را به حداکثر برسانم. اما من 100% مطمئن نیستم که این بهترین راه برای نزدیک شدن به مشکل من است، زیرا شما نمی توانید فقط از طریق همبستگی به نتایج بزرگی برسید. با این حال نمی دانم چه کار دیگری باید انجام دهم و برای حل این مشکل کجا باید جستجو کنم.
یادگیری اینکه چه متغیرهایی تأثیر زیادی روی یک متغیر دیگر دارند
44219
من سعی می کنم فواصل تحمل (یک طرفه) مربوط به مدل رگرسیون دمینگ را استخراج کنم: $$ x_i=x^*_i + \epsilon_i$$ $$ y_i = (\alpha+\beta x^*_i) + \epsilon' _i$$ که در آن $x^*_i$ها اعداد ثابت غیر تصادفی هستند، $\epsilon_i \sim {\cal N}(0,\sigma_x^2)$, $\epsilon'_i \sim {\cal N}(0,\sigma_y^2)$ و همه متغیرهای $\epsilon_i, \epsilon'_i$ متقابلاً مستقل هستند. نسبت $\sigma_x^2/\sigma_y^2$ معلوم است. $\tau^2=\sigma_x^2+\sigma_y^2$ را قرار دهید. با توجه به مقدار $x$ واقعی $x^*_\text{new}$ من به دنبال یک کران تحمل بالایی از تفاوت $$y_\text{new} - x_\text{new} هستم \sim {\cal N}(\alpha+(\beta-1)x^*_\text{new}, \tau^2).$$ در واقع این کران تحمل بالایی چیزی نیست جز یک 100$ بالا (1-\alpha)\%$-اطمینان حدود $100p\%$-quantile $y_\text{new} - x_\text{new}$. در مورد مدل‌های گاوسی کلاسیک، من به دنبال یک کران تحمل با فرم $$B(x,y)=(\hat{y^*}_\text{new} - x^*_\text{new}) هستم K s$$ با $\hat{y^*}_\text{new} = \hat\alpha + \hat\beta x^*_\text{new}$ و $s^2= \hat\tau^2$. با نشان دادن $F_\text{new}$ تابع توزیع تجمعی تفاوت $y_\text{new} - x_\text{new}$، ضریب تحمل $K$ باید مشتق شود تا $$\Pr\ چپ (F_\text{new}(B(x,y)) > p \right) = 1-\alpha$$ برای برخی از $p\in]0,1[$ ( سطح تحمل) و سطح اطمینان 1 $ \ alpha $ (البته در اینجا $ \ alpha $ پارامتر رهگیری $ \ alpha $ مدل نیست!) تخمین می زند $ \ alpha $ ، $ \ beta $ و $ \ tau^2 $ و همچنین ماتریس واریانس بدون علامت آنها $ v $ و تخمین $ \ hat v $ از این ماتریس واریانس بدون علامت در برخی از کتابهای درسی و/یا مقالات تحقیقاتی در دسترس است (مراجعه کنید به به عنوان مثال کتاب فولر یا گزارش ایلز و گیلارد 1 و گزارش 2). به طور خاص $\hat\tau^2$ بطور مجانبی مستقل از $(\hat\alpha,\hat\beta)$ است. اکنون سعی می کنم با تقلید از روشی که برای استخراج کران تحمل در یک مدل رگرسیون کلاسیک استفاده می شود، تلورانس محدود را استخراج کنم. بر اساس لم زیر است. **لم** اجازه دهید $W \sim {\cal N}(0, \sigma^2)$ مستقل از $Q \sim \frac{\chi^2_{d}}{d}$. سپس عدد $K>0$ که $$\Pr\left( \Phi(W+K\sqrt{Q}) > p \right) =1-\alpha$$ را برآورده می‌کند با یک فرمول شناخته شده $K=K داده می‌شود. (\sigma,d,p,\alpha)$ (به کتاب کریشنامورتی و متیو مراجعه کنید). اکنون $X_\text{new}=(1,x_\text{new})'$ را قرار دهید. یکی دارای سه متغیر تصادفی مجانبی مستقل است $$ \frac{(y_\text{new} - x_\text{new} ) - (\alpha+(\beta-1)x^*_\text{new})}{ \sqrt{\tau^2}} \sim {\cal N}(0,1),$$$$ \frac{(\hat{y^*}_\text{جدید} - x^*_\text{جدید}) - (\alpha+(\beta-1)x^*_\text{new})}{\sqrt{\tau^2}} \sim {\cal N}\ چپ (0,\frac{X_\text{new}'VX_\text{new}}{\tau^2}\right),$$$$\frac{s^2}{\tau^2} \sim \frac{\chi^2_{n-2}}{n-2}$$ تعریف $K$ تبدیل به $$\Pr\left( \Phi(W+K\sqrt{Q}) > p \right می‌شود ) =1-\alpha$$ با $W \sim {\cal N}\left(0,\frac{X_\text{new}'VX_\text{new}}{\tau^2}\right)$ مستقل از $Q \sim \frac{\chi^2_{n-2}}{n-2}$. با اعمال لم، بسته به مقادیر مجهول $\tau$ و $V$، $K$ دریافت می کنیم. جایگزینی با تخمین‌های $\hat\tau$ و $\hat V$ یک ضریب تحمل تقریبی $\hat K$ به دست می‌دهد. خوب ، من این کار را کرده ام و همه چیز را در R. اجرا کرده ام اما ارزیابی عملکرد تحمل من محدود به شبیه سازی نشان می دهد که حتی با اندازه نمونه های بزرگ _it کار نمی کند ، به جز مورد $ \ beta = 1 $. من از فرمول‌هایم برای تخمین‌ها و ماتریس‌های واریانس کاملاً مطمئن هستم زیرا فواصل اطمینان و فواصل پیش‌بینی را نیز اجرا کرده‌ام و آنها به خوبی کار می‌کنند. **ویرایش:** در واقع کار می کند!! یک خطای احمقانه در کد R که برای شبیه سازی استفاده کردم وجود داشت. آیا باید این پست را حذف کنم؟ فکر می‌کنم خیر، زیرا این روش می‌تواند دیگران را مورد علاقه قرار دهد.
فاصله تحمل برای رگرسیون دمینگ
94077
با توجه به نقاط داده $N$ در $\mathbb{R}^p$ - که برخی از آنها پرت هستند (از توزیعی متفاوت از مقادیر درونی گرفته شده اند) - چه نوع الگوریتم هایی برای تخمین واریانس قوی این مجموعه طراحی شده است؟ یعنی می‌خواهیم واریانس فضای درونی را تحت برخی مفروضات بر روی نقاط پرت تقریبی کنیم.
برآوردگرهای واریانس قوی
14844
با توجه به مدل $a_{n}\cdot x^{n}+ a_{n-1}\cdot x^{n-1}+...+ a_0 = y + e$، که $e$ مقداری ناشناخته است (اما فرض بر این است که به طور معمول توزیع شده است) خطا و $x$ و $y$ مشاهدات هستند. حال، چگونه می توان فواصل اطمینان ضرایب $a_.$ را تخمین زد؟ AFAIU، یک رویه ساده مبتنی بر کوواریانس $(X'X)^{-1}$ کافی نیست، که در آن $X$، n$'مین مرتبه (میانگین صفر) ماتریس Vandermonde $x$ است. اول از همه $X'X$ مفرد است. همچنین محاسبه $var(a)= (r'r/m)\cdot diag(pinv(X'X))$، که در آن $r$ باقیمانده و $m$ تعداد مشاهدات است، مبهم به نظر می رسد، زیرا بالا همبستگی بین ستون های $X'X$.
فواصل اطمینان ضرایب در رگرسیون چند جمله ای
73891
برای یک pdf $f(x)$ (یعنی **توزیع پیوسته**)، آنتروپی (آنتروپی دیفرانسیل) به صورت زیر تعریف می شود: $H_C(X) = -\int_\mathbb{X} f(x)\log f( x)\,dx.$ برای توزیع **گسسته** با p.m.f $F(x)$، آنتروپی به صورت زیر تعریف می شود: $H_D(X) = -\sum_{i=1}^n {F(x_i) \log F(x_i)}.$ تعاریف مشابه یکدیگر به نظر می رسند. با این حال، آنتروپی با پراکندگی برای توزیع های پیوسته افزایش می یابد اما نه برای توزیع های گسسته. چرا؟
چرا آنتروپی با پراکندگی برای توزیع های پیوسته افزایش می یابد اما برای توزیع های گسسته نه؟
70783
من یک GLMM با توزیع دوجمله ای و یک تابع پیوند لاجیت دارم و این احساس را دارم که یک جنبه مهم از داده ها به خوبی در مدل نشان داده نشده است. برای آزمایش این، می‌خواهم بدانم که آیا داده‌ها با یک تابع خطی در مقیاس لاجیت به خوبی توصیف می‌شوند یا خیر. از این رو، من می خواهم بدانم که آیا باقیمانده ها رفتار خوبی دارند یا خیر. با این حال، من نمی‌توانم بفهمم که در کدام باقیمانده‌ها طرح می‌شوند و چگونه طرح را تفسیر می‌کنند. توجه داشته باشید که من از نسخه جدید lme4 (نسخه توسعه یافته از GitHub) استفاده می کنم: packageVersion(lme4) ## [1] '1.1.0' سوال من این است: **چگونه می توانم باقیمانده های یک را بازرسی و تفسیر کنم مدل‌های ترکیبی خطی تعمیم‌یافته دو جمله‌ای با تابع پیوند لاجیت؟** داده‌های زیر تنها ۱۷ درصد از داده‌های واقعی من را نشان می‌دهند، اما برازش در دستگاه من حدود ۳۰ ثانیه طول می‌کشد. بنابراین من آن را به این صورت می گذارم: require(lme4) options(contrasts=c('contr.sum', 'contr.poly')) dat <- read.table(http://pastebin.com/raw.php? i=vRy66Bif) dat$V1 <- factor(dat$V1) m1 <- glmer(true~ distance*(consequent+direction+dist)^2 + (جهت + فاصله|V1)، dat، خانواده = دو جمله ای) ساده ترین نمودار (`?plot.merMod`) موارد زیر را ایجاد می کند: plot(m1) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/6eQ4g.png) آیا این قبلاً چیزی به من می گوید؟
چگونه می توان تناسب یک GLMM دو جمله ای مجهز به lme4 (> 1.0) را ارزیابی کرد؟
85645
اجازه دهید مدل لاجیت باینری استاندارد با تابع ابزار: Uni = Vni + eni، که در آن eni از iid gumbel تبعیت می کند، و Vni را به صورت: Vni = a + xni*b تعریف کنید. که در آن n نشان دهنده فرد و i نشان دهنده جایگزین است. سپس، کشش xni به صورت زیر داده می شود: Ei = b * xin * (1-Pni) سؤال من این است که آیا تابع Utility در x خطی نیست اما log-خطی است: Vni = a + log(xni) * b، پس چگونه می توانیم کشش x را محاسبه کنیم؟ هر گونه پیشنهاد قدردانی می شود. پیشاپیش ممنون
کشش مدل رگرسیون لجستیک
85643
من کدی نوشته ام که می تواند فیلتر کالمن را انجام دهد (با استفاده از تعدادی فیلترهای مختلف از نوع کالمن [فیلتر اطلاعات و همکاران]) برای تحلیل فضای حالت گاوسی خطی برای یک بردار حالت n بعدی. فیلترها عالی کار می کنند و من خروجی خوبی دریافت می کنم. با این حال، تخمین پارامتر از طریق تخمین loglikelihood من را گیج می کند. من یک آمارگیر نیستم بلکه یک فیزیکدان هستم، لطفا مهربان باشید. اجازه دهید مدل فضای حالت گاوسی خطی را در نظر بگیریم $$y_t = \mathbf{Z}_{t}\alpha_{t} + \epsilon_{t},$$$$\alpha_{t + 1} = \mathbf{T }_{t}\alpha_{t} + \mathbf{R}_{t}\eta_{t}، $$ که $y_{t}$ ما است بردار مشاهده، $\alpha_{t}$ بردار حالت ما در مرحله زمانی $t$. کمیت های پررنگ، ماتریس های تبدیل مدل فضای حالت هستند که با توجه به ویژگی های سیستم مورد نظر تنظیم می شوند. ما همچنین $$\epsilon_{t} \sim NID(0, \mathbf{H}_{t})، $$ $$\eta_{t} \sim NID(0, \mathbf{Q}_{t) داریم })، $$ $$\alpha_{1} \sim NID(a_{1}، \mathbf{P}_{1}).$$ که $t = 1،\ldots، n$. اکنون، من با حدس زدن پارامترهای اولیه و ماتریس‌های واریانس $\mathbf{H}_{1}$ و $\mathbf{Q}_{1}$، بازگشتی را برای فیلتر کالمن برای این مدل فضای حالت عمومی استخراج و پیاده‌سازی کرده‌ام. من می توانم طرح هایی مانند ![Kalman Filter] (http://i.stack.imgur.com/QXS9F.png) را تولید کنم که نقاط آن رودخانه نیل است. سطح آب برای ژانویه بیش از 100 سال، خط وضعیت تخمینی کالامن است و خطوط نقطه چین سطوح اطمینان 90 درصد هستند. اکنون، برای این مجموعه داده 1 بعدی، ماتریس‌های $\mathbf{H}_{t}$ و $\mathbf{Q}_{t}$ فقط اسکالرهای $\sigma_{\epsilon}$ و $\sigma_{\eta هستند. }$ به ترتیب. بنابراین اکنون می‌خواهم با استفاده از خروجی فیلتر کالمن و تابع loglikelihood $$\log L(Y_{n}) = -\frac{np}{2}\log(2\pi) پارامترهای صحیح را برای این اسکالرها دریافت کنم. ) - \frac{1}{2}\sum^{n}_{t = 1}(log|\mathbf{F}_{t}| + v^{\mathsf{T}}_{t}\mathbf{F}_{t}^{-1}v_{t})$$ جایی که $v_{t}$ خطای حالت و $\mathbf{ F}_{t}$ واریانس خطای حالت است. حالا اینجاست که من گیج شدم. از فیلتر کالمن، من تمام اطلاعاتی را که برای کار کردن $L$ نیاز دارم در اختیار دارم، اما به نظر می رسد که من را به محاسبه حداکثر احتمال $\sigma_{\epsilon}$ و $\sigma_{\ نزدیکتر نمی کند. eta}$. **سوال من این است که چگونه می توانم حداکثر احتمال $\sigma_{\epsilon}$ و $\sigma_{\eta}$ را با استفاده از رویکرد loglikelihood و معادله بالا محاسبه کنم؟** شکست الگوریتمی مانند سرماخوردگی است. آبجو به من فعلا... ممنون از وقتی که گذاشتید. * * * _نکته. برای مورد 1 بعدی $\mathbf{H}_{t} = \sigma^{2}_{\epsilon}$ و $\mathbf{H}_{t} = \sigma^{2}_{\eta} $. این مدل سطح محلی تک متغیره است._
تخمین پارامتر LogLikelihood برای فیلتر کالمن گاوسی خطی
76783
من یک ماتریس عدم تشابه متقارن بزرگ با ابعاد 300 000 دارم. آیا می‌توانید الگوریتم‌های مقیاس‌گذاری چند بعدی را پیشنهاد دهید که می‌توانند با چنین داده‌های بزرگی کار کنند؟ البته ورودی می تواند بردارهای اصلی باشد که ماتریس عدم تشابه از آنها محاسبه شده است.
مقیاس بندی چند بعدی برای ماتریس عدم تشابه بزرگ
99335
برای ترسیم نتایجم به مشاوره نیاز دارم. من نتایج طبقه بندی متفاوتی را با گنجاندن ویژگی های مختلف و مقادیر k مختلف به دست آوردم. بنابراین، من نتایج مختلفی برای هر یک از آنها گرفتم: ویژگی های من: alphaRaw16-1، alphaRaw16-2، alphaRaw16-3، grad-x، grad-y، grad-z. محدوده مقدار k: 1 تا 21 و نتایج به نظر می رسد: True_Positive False_Negative k ویژگی 89% 4% 1 alphaRaw16-1 91% 5% 1 alphaRaw16-2 93% 8% 1 alphaRaw16-3 97% 1% 1 درجه -x 66% 3% 1 grad-y 77% 42% 1 grad-z 91% 2% 1 grad-x, alphaRaw16-1 .. .. .. .. 94% 7% 1 alphaRaw16-1,alphaRaw16-2,alphaRaw16-3,grad-x,grad-y ,grad-x 92% 9% 2 alphaRaw16-1 ... .. .. .. 90% 12% 21 alphaRaw16-1,alphaRaw16-2,alphaRaw16-3,grad-x,grad-y,grad-x چگونه این نتایج را به بهترین نحو به روشی معنادار نمایش دهیم؟ میشه لطفا راهنماییم کنید
رسم نتایج با بسیاری از ویژگی ها
41539
آیا یک متغیر مداخله گر می تواند با DV و نه با IV مرتبط باشد؟ من شنیده ام که DV corr است. اما من نمی توانم IV را در هیچ کتاب درسی پیدا کنم. من این دف را پیدا کردم در ویکی: http://en.wikipedia.org/wiki/Confounding
آیا یک متغیر مداخله گر می تواند با DV و نه با IV مرتبط باشد؟
81960
هنگامی که یک رگرسیون در فروش بستنی با حملات کوسه پیش بینی می کنید، ضریب قابل توجهی پیدا می کنید. اما این به این دلیل است که دمای متغیر مخدوش کننده وجود دارد. اما چگونه می توان این مخدوش کننده را تصحیح کرد؟ در صورتی که دما را نیز به مدل اضافه کنید، دو پیش بینی کننده همبسته و مسئله چند خطی دارید. بنابراین اگر دمای مخدوش کننده را پیدا کردید، آیا تنها گزینه ای است که حملات کوسه را از مدل خارج کنید؟
چند خطی بودن هنگام اضافه کردن یک متغیر مخدوش کننده
41536
من سعی می کنم الگویی بسازم که در آن پاسخ یک نسبت باشد (در واقع سهم آرایی است که یک حزب در حوزه های انتخابیه کسب می کند). توزیع آن عادی نیست، بنابراین تصمیم گرفتم آن را با توزیع بتا مدل کنم. من همچنین چندین پیش بینی دارم. با این حال، من نمی دانم چگونه آن را در BUGS/JAGS/STAN بنویسم (JAGS بهترین انتخاب من است، اما واقعاً مهم نیست). مشکل من این است که مجموع پارامترها را توسط پیش بینی کننده ها می سازم، اما پس از آن چه کاری می توانم با آن انجام دهم؟ کد چیزی شبیه به این خواهد بود (در نحو JAGS)، اما من نمی دانم چگونه پارامترهای «y_hat» و «y» را «پیوند» کنم. برای (i در 1:n) { y[i] ~ dbeta(آلفا، بتا) y_hat[i] <- a + b * x[i] } («y_hat» فقط حاصل ضرب پارامترها و پیش‌بینی‌کننده‌ها است، از این رو رابطه قطعی «a» و «b» ضرایبی هستند که من سعی می کنم تخمین بزنم، «x» یک پیش بینی کننده است). با تشکر از پیشنهادات شما!
چگونه می توانم نسبت را با BUGS/JAGS/STAN مدل کنم؟
76784
با خواندن تست من ویتنی برای نمونه‌های تصادفی ساده و مستقل با مشکل کوچکی مواجه شدم. طبق کتاب آمار مقدماتی نوشته ویس، آمار آزمون با استفاده از $M = \text{مجموع رتبه‌های داده‌های نمونه از جمعیت 1}$ به دست می‌آید طبق معمول، از این آماره آزمون برای تصمیم گیری در رد کردن عدد صفر استفاده می‌کنیم. فرضیه یا نه اما این کمی گیج کننده بود زیرا به نظر می رسد انتخاب یک نمونه معین به عنوان اولین نمونه خودسرانه باشد. با این حال، در تلاش برای روشن کردن این موضوع، متوجه شدم که آمار به اصطلاح تست $U$ دیگری وجود دارد، و گاهی اوقات قرار است $\min(U_{1}، U_{2})$ یا مخالف $\max را انتخاب کنیم. (U_{1}، U_{2})$. به عنوان مثال، در این آموزش، از این آمار استفاده شده است: $U_{1} = R_{1} - \frac{n_{1}(n_{1} + 1)}{2}$ where $R_{1}$ مجموع رتبه های جمعیت 1$ به شرح بالا است. همچنین می افزاید: > توجه داشته باشید که مهم نیست که کدام یک از دو نمونه نمونه 1 در نظر گرفته شود. > مقدار کوچکتر U1 و U2، مقداری است که هنگام مشورت با جداول > اهمیت استفاده می شود. اما به نظر نمی رسد که در کتاب ویس از این رویه استفاده شود. کدام یک روش صحیح است؟ شاید من فقط تست های مختلف را با نام های مشابه اشتباه گرفته ام.
چگونه آمار آزمون را در آزمون من ویتنی انتخاب کنیم؟
7152
چگونه باید با یک مقدار سلول در جدول اقتضایی که در محاسبات آماری برابر با صفر است برخورد کرد؟ (توجه داشته باشید که چنین مقداری می تواند _structural_ باشد، یعنی باید طبق تعریف صفر باشد، یا _تصادفی_، یعنی ممکن است مقدار دیگری باشد، اما صفر مشاهده شده است.)
چگونه باید مقادیر سلولی برابر با صفر را در جدول احتمالی مدیریت کنید؟