_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
89593
من تازه وارد شبکه های عصبی هستم و سعی می کنم RBM را پیاده سازی کنم. من در مقدار اولیه بایاس لایه قابل مشاهده گیر کرده ام. آیا قرار است به یک عدد تصادفی مقداردهی اولیه شود یا توزیع احتمالی وجود دارد که باید توسط آن مقداردهی اولیه شود. در پایتون دارم می بینم: > vbias = theano.shared(value =numpy.zeros(n_visible, > dtype = theano.config.floatX), name='vbias') اما نمی دانم اینجا در اینجا چه اتفاقی می افتد خط
نحوه راه‌اندازی گره بایاس در ماشین بولتزمن محدود
94433
من تاس $n$ با طرف $m$ دارم. تاس $i^{th}$ مقدار $0 \leq x_i \leq m-1$ را با احتمال $0 \leq D_i(x_i) \leq 1$ نشان خواهد داد. احتمال اینکه مجموع تاس ها برابر $\alpha$ باشد چقدر است آیا تقریبی برای $P(\alpha)$ وجود دارد؟
مجموع چندین تاس بارگذاری شده
72953
من روی پروژه نهایی خود کار می کنم و این یک الگوریتم QUEST است و از آزمون خی دو استفاده می کند. من مشکلی دارم که مقدار مورد انتظار = 0 است. 1. چه کاری باید انجام دهم؟ 2. برای آزمون کای اسکوئر یا الگوریتم QUEST چه معنایی دارد؟
مقدار مورد انتظار برابر با صفر در آزمون Chi-square ($\chi^2$) است
48902
این ممکن است برای این انجمن بسیار ساده باشد - احتمالاً یک سؤال آماری بسیار اساسی است که معمولاً در تحقیقات زیست پزشکی یافت می شود. اما از آنجایی که دانشمندان اغلب درک خوبی از آمار ندارند، اگر بتوانم نظرات آماردانان خبره را در این انجمن بشنوم و کمی آموزش ببینم، بسیار سپاسگزار خواهم بود. من می خواهم آزمایش کنم که آیا درمان X بر پارامتر P در یک گروه نمونه از افراد تأثیر می گذارد یا خیر. طرح زوجی است: هر آزمودنی بدون درمان (کنترل منفی) و با درمان X (ترتیب تصادفی شده) آزمایش می‌شود. برای تجزیه و تحلیل چنین داده هایی، آزمون t زوجی واضح است. با این حال، من یک گروه کنترل مثبت نیز دارم - که یک گروه مستقل جداگانه از افراد با سطح ذاتا متفاوت P است، گروهی که در صورت موثر بودن درمان X انتظار آن را داریم. بنابراین در حال حاضر من سه گروه اندازه گیری دارم - دو گروه جفت شده و یکی غیر جفت شده است. برای سه گروه، من باید از ANOVA یک طرفه استفاده کنم. با این حال، این سه گروه را مستقل در نظر می گیرد. چگونه می توانم آزمایش کنم که آیا تفاوت میانگین بین این سه گروه وجود دارد؟ از کدام تست استفاده کنیم؟ آیا همیشه مناسب است که نمونه های جفت شده به عنوان جفت نشده در نظر گرفته شوند؟ من می دانم که این منجر به کاهش قدرت می شود - آیا این تنها مشکل این رویکرد است و آیا هنوز هم درست است؟ متشکرم
آیا می توان نمونه های جفت شده را به عنوان جفت نشده برای ANOVA یک طرفه در نظر گرفت
64818
149 دانش آموز هر کدام در دو آزمون شرکت کردند. فرضیه صفر من این است که ضریب همبستگی لحظه-محصول 1 است، زیرا هر آزمون باید نشانگر دقیقی از دستیابی به جریان باشد. PMCC واقعی برای داده ها 0.912152856 است. لطفاً نشان دهید (و توضیح دهید) که چگونه می توان آزمایش کرد که آیا این نتیجه قابل توجهی است؟
آزمون اهمیت برای PMCC
89599
من یک رگرسیون لجستیک را با استفاده از چندین متغیر پیش‌بینی‌کننده (آنها را p1 p2 p3 p4 می‌نامیم) برای پیش‌بینی یک متغیر وابسته باینری (آن را y) اجرا کرده‌ام. P1 یک پیش بینی کننده قابل توجه y در رگرسیون است. با این حال، آزمون Mann-Whitney از p1 تفاوت معنی داری را بر اساس دسته y نشان نمی دهد. آیا داشتن یک پیش‌بینی‌کننده رگرسیون لجستیک که تفاوت قابل‌توجهی بر اساس گروه‌ها ندارد، طبیعی است یا به‌طور بالقوه چیزی در مورد داده‌ها وجود دارد؟
پیش بینی کننده در رگرسیون لجستیک معنی دار است، اما در من ویتنی نه
89597
کدام روش را برای تخمین یک رگرسیون تک متغیره پیشنهاد می کنید ($y = a + bx + e$) که شامل مقدار زیادی $0$ در متغیر وابسته است (در واقع نوعی داده سانسور شده). تجربه من به استفاده از **مدل توبیت** اشاره دارد. اما مشکلی در ارتباط با توزیع نرمال و همسویی بودن عبارت خطا وجود دارد. در مورد من، من مشکوک به نقض این مفروضات اساسی برای استفاده از Tobit هستم. به ویژه رفتار $y$ پنهان زیر صفر قابل پیش بینی نیست. آیا روشی (ادبیات) برای رسیدگی به این نوع مشکلات می شناسید؟
روش دیگری برای مدیریت توبیت - رگرسیون مرتبط در R
106259
من از SPSS استفاده می کنم، اما مجبورم از R برای رگرسیون لجستیک دقیق استفاده کنم. بنابراین من کاملاً با R جدید هستم (و تاکنون از آن متنفرم) و همچنین با رگرسیون لجستیک تازه وارد هستم. من مقاله اصلی elrm را خوانده ام و به نمونه هایی از کاربرد آن نگاه کرده ام. با این حال، من نمی توانم اطلاعاتی در مورد سوالات زیر (پس از توضیحات داده ها) پیدا کنم. برازش دو مدل پردازش شناختی برای هر موضوع در هر یک از 3 شرایط مقایسه شد. متغیر وابسته باینری من این است که آیا تفاوت در تناسب مدل معنادار بوده است یا خیر (متغیر موفقیت من در زیر). من سه شرط آزمایشی دارم: 0، 1، و 2. 0 گروه مرجع من است. سوال من این است: آیا تأثیر کلی Condition وجود دارد؟ اگر چنین است، کدام شرایط متفاوت است؟ فرضیه جایگزین خاص این است که نسبت/احتمال موفقیت باید در شرایط 0 و 1 بیشتر از شرایط 2 باشد. داده های من شبیه به ! .gif) ... و غیره. SPSS در واقع متغیرهای ساختگی را در لحظه برای شما ایجاد می کند، اما ایجاد آنها به اندازه کافی آسان است. **سوال 1:** خوانده ام که برای استفاده از elrm باید داده ها را طوری وارد کنید که متغیر پاسخ نشان دهنده موفقیت/تعداد آزمایشات باشد. و تا آنجا که من می توانم بگویم elrm به طور خودکار متغیرهای ساختگی ایجاد نمی کند. من نمونه‌هایی از جداول را دیده‌ام که این ساختار داده را نشان می‌دهند، اما نمی‌توانم هیچ نمونه گام‌به‌گامی برای دریافت داده‌های خام به آن قالب پیدا کنم، به‌ویژه با توجه به وضعیت یک متغیره 3 سطحی. آیا نمونه ای وجود دارد که من از قلم افتاده باشم؟ اگر نه، آیا داده ها باید به این شکل باشند؟ ![reformated data](http://i.stack.imgur.com/aVxOL.gif) من مطمئن نیستم که چگونه متغیرهای ساختگی را در فرمول وارد کنم... فقط به عنوان متغیرهای جداگانه؟ **سوال 2:** می توانم ببینم چگونه می توانم تست های ضرایب متغیرهای ساختگی را بدست بیاورم. اما نمی‌توانم بفهمم چگونه می‌توانم آزمایشی از تأثیر کلی متغیر مستقل دریافت کنم. من باید قبل از بررسی شرایط فردی، تأثیر کلی Condition را ارزیابی کنم. آیا راهی برای خارج شدن از elrm وجود دارد؟ (من نمونه ای از این کار را برای بسته aod یافتم که رگرسیون لجستیک معمولی را اجرا می کند اما رگرسیون لجستیک دقیق را اجرا نمی کند.) **سوال 3:** نمی توانم توضیحی در مورد اینکه p-value برای ضرایب فردی در elrm نشان می دهد پیدا کنم. . آیا این برای تست والد است؟
رگرسیون لجستیک دقیق، R و elrm: قالب‌بندی و خروجی داده‌ها
44819
من در حال انجام یک تست a/b مبتنی بر وب هستم که در آن یک کنترل و یک درمان وجود دارد. نتایج به سادگی «تبدیل» یا «تبدیل نشد» نیستند. یک کاربر می تواند بین 0-10 بار تبدیل کند. من همه داده ها را از کنترل و درمان دارم (هر کاربر چند بار از کنترل و درمان تبدیل شده است). اندازه‌های نمونه یکسان نیستند (حدود 1900 در مقابل 2100) و واریانس‌ها متفاوت هستند (7.12 در مقابل 6.02). میانگین درمان حدود 11 درصد بیشتر از شاهد است. هدف از این آزمایش این است که بفهمیم آیا درمان می‌تواند تبدیل به ازای هر کاربر را افزایش دهد یا خیر. اعداد نشان دهنده افزایش 11 درصدی در تبدیل به ازای هر کاربر است. برای اینکه بفهمم آیا نتیجه از نظر آماری معنادار است یا نه، سعی کردم از آزمون t Welch استفاده کنم. وقتی از معادله تست ولش در این صفحه ویکی‌پدیا استفاده می‌کنم، نتایج زیر را دریافت می‌کنم: t-score: 2.26 درجه آزادی: 4025.82 در صفحه ویکی‌پدیا می‌گوید می‌توانم از یک «t-distribution» برای آزمایش null استفاده کنم. فرضیه (فرضیه صفر من این است که ابزار کنترل و درمان یکسان است). اما من مطمئن نیستم که چگونه باید از «توزیع t» استفاده کرد. من حدس می‌زنم که ربطی به استفاده از جدول توزیع t دارد. سؤالات: * آیا استفاده از آزمون t Welch رویکرد خوبی برای این وضعیت است؟ * اگر نه چه روش دیگری را پیشنهاد می کنید؟ * با نتایج حاصل از آزمون t ولش، چگونه می توانم از «توزیع t» استفاده کنم تا مشخص کنم آیا نتیجه قابل توجهی دارم و با چه میزان اطمینان؟
نتایج حاصل از آزمون a/b را با استفاده از آزمون t ولچ تجزیه و تحلیل کنید
95882
$\newcommand{\E}{\mathrm{E}}$ من نمی‌دانم چرا الگوریتم Baum-Welch نمونه‌ای از الگوریتم EM است. در واقع، چرا محاسبه $\alpha_t(i)$ و $\beta_t(i)$ با مرحله انتظار مطابقت دارد. مرحله انتظار مربوط به محاسبه انتظارات بر روی متغیر نهفته log- احتمال متغیر مشاهده شده با توجه به پارامتر: $\E_{Z|X,\theta^{t-1}}[L(X|\theta)]$. من لینک رو متوجه نشدم
چرا الگوریتم Baum-Welch نمونه ای از الگوریتم EM است؟
76270
**طراحی مطالعه:** در زیر یک کارآزمایی بالینی در یک مجموعه داده طولی آورده شده است. همه آزمودنی‌ها (34 نفر) در «V1» (خط پایه) شرکت کردند و سپس به یک «دارونما» (15=n) یا یک «دارو» (19=n) اختصاص داده شدند، سپس هر دو در ویزیت «V2» مورد بررسی قرار گرفتند. . بر اساس نتیجه تحقیق در `V2` به نام `grpVar1` آنها به دو گروه گروه بندی شدند: grpVar1=P (16=n) و grpVar1=N (n=18). آن «N» برای بازدید «V3» مسیریابی شد، در حالی که «P» برای بازدید از «V4» و بعداً از «V5» بازدید شد. Par1 در تمام بازدیدها برای همه افراد در دو سایت تشریحی اندازه گیری شد: site1 و site2. بنابراین هر سوژه در تمام بازدیدها دو اندازه گیری در دو سایت دارد. علاوه بر این، متغیر «روزها» تعداد روزهای بازدیدهای بعدی بر اساس خط پایه است. با وجود یکسان بودن بازدید، افراد مختلف در روزهای مختلف در این بازدید حضور داشتند و ثبت شد. **به نظر می رسد:** > head(df,12) id id_site جنسیت روزهای بازدید grpVar1 درمان Par1 1 1 site1 F V1 0 P Placebo 0.61030187 2 1 site2 F V1 0 P Placebo 0.438333814 P 2 Placebo 7.45492517 4 1 site2 F V2 244 P Placebo 0.63105623 5 1 site1 F V3 322 P Placebo 0.22600916 6 1 site2 F V3 322 P Placebo 0.231802813 M. 0.18130448 8 2 site2 M V1 0 P Drug 0.14165622 9 2 site1 M V2 223 P Drug 1.02354748 10 2 site2 M V2 223 P Drug 2.05987466 1132 M Drug 0.10194901 12 2 site2 M V3 314 P Drug 0.22315864 **دسته متغیرها** > sapply(df، کلاس) id id_site جنسیت روزهای بازدید grpVar1 درمان Par1 factor factor factor factor factor ضریب عددی **مفهوم:** بنابراین همانطور که می بینید، طرح اندازه گیری های مکرر با پیچ و تاب. نوعی مسیریابی سوژه ها بر اساس نتایج «V2» وجود دارد، من آن را «انشعاب سوژه ها» به دو مسیر مختلف بازدید بعد از «V2» می نامم. واضح است که باید برخی از تغییرات فردی وجود داشته باشد که باید با اجازه دادن به تغییر هر دو مقطع و شیب در نظر گرفته شود. من معتقدم منبع دیگری از تغییرات، محل آناتومیک است که باید به طور یکسان در نظر گرفته شود. بنابراین Par1 در سلسله مراتبی از سایت و موضوعات اندازه گیری می شود. هر دو id_site و id را می توان به عنوان متغیرهای زمینه ای در نظر گرفت. بنابراین، آنها را می توان به عنوان اثرات تصادفی در یک مدل ترکیبی در نظر گرفت. اگر چه همانطور که در متغیر «بازدید» نشان داده شده است 5 بازدید وجود داشت، اما آیا می‌توانیم از متغیر «روز» برای محاسبه تغییرات زمان به عنوان روزهای بعد از خط مبنا استفاده کنیم. من تعجب می کنم که چگونه می توان اجازه داد که مدل برای این نیز حساب کند؟ **کارآزمایی من در کتابخانه R**(nlme) lm_form_1 <- فرمول (Par1 ~ بازدید + جنسیت + درمان + id_site + grpVar1) mod1 <- lme(lm_form_1, تصادفی = ~ 1|id , data = df) **سوال :** نحوه محاسبه تنوع «id»، «id_site» و «روزها». به عنوان اثرات تصادفی نحوه تنظیم ساختار var-covar کلاس pdMat بر اساس این طرح مطالعه. آیا طرح مجموعه داده برای مدل‌سازی با تابع «lme()» مناسب است یا باید اصلاح شود، چه چیزی مناسب است؟ من از پیشنهادات جامعه آمار بسیار سپاسگزار خواهم بود. لطفاً پاسخ خود را به بسته R 'nlme' محدود کنید نه 'lme4'.
چگونه با این داده ها مدل سازی افکت های مختلط خطی انجام دهیم؟
88642
فرض کنید من دو مدل دارم. یکی دارای افزایش تجمعی در داده های آزمایشی 4.322578، دومی 2.84488 است. تنها مزیت دومی نسبت به اولی در کیفیت داشتن منحنی بالابر تجمعی تقریباً یکسان برای مجموعه‌های قطار و اعتبارسنجی است. برای مدل اول منحنی بالابر تجمعی همانطور که در زیر می بینید به نظر می رسد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/GtD7X.png) با عرض پوزش برای عناصر غیرانگلیسی در طرح، اما این تنها نسخه SAS Enterprise Miner است که من به آن دسترسی دارم. میانگین خطای استاندارد برای مدل از نمودار - اولی - برای مجموعه های قطار، اعتبارسنجی و تست عبارتند از: 0.038389، 0.04999 و 0.055314. برای مورد دوم: 0.070393، 0.071889 و 0.07727. به نظر می رسد مدل اول از نظر دقت بهتر است. اما در عین حال ثبات کمتری دارد و نسبت به تغییرات داده حساس تر است. سوال من این است که آیا آن مسائل ثبات در اینجا آنقدر بزرگ است که آن مدل را به نفع مدل دوم بی اعتبار کند؟ چگونه می توان ناپایداری را اندازه گیری کرد و در چه نقطه ای یک مدل را غیرقابل استفاده می کند؟ اگر مهم باشد، مدل های مورد نظر شبکه های عصبی هستند.
بی ثباتی مدل در داده کاوی چه زمانی به اندازه کافی بزرگ است که یک مدل را بی اعتبار کند و چگونه آن را اندازه گیری کنیم؟
103348
من نمی دانم که آیا مقایسه ضریب جینی دو توزیع گسسته با تعداد عناصر مختلف منصفانه است؟ اگر نه، چگونه می توانم ضرایب را برای مقایسه منصفانه تنظیم کنم. به طور خاص، من به موردی علاقه مند هستم که مجموع مقادیر در هر دو توزیع برابر باشد. به عنوان مثال، دقایق بازی توسط بازیکنان دو تیم در یک بازی بسکتبال در صورتی که تعداد بازیکنان آنها متفاوت باشد (10 بازیکن در یک تیم، 12 بازیکن در تیم دیگر) اما مجموع بازی‌های هر دو تیم 48 در 5 دقیقه است. به عنوان مثال، متفاوت است. پارتیشن بندی برخی از سطوح در مناطق مختلف، نحوه مقایسه نابرابری برای پارتیشن بندی های مختلف در صورتی که تعداد زیر ناحیه های متفاوتی داشته باشند.
مقایسه ضریب جینی 2 توزیع
64812
من باید داده ها را در یک پایگاه داده با مقایسه آن با داده های یک سیستم کاربردی معتبر تأیید کنم. راه حلی که من به آن رسیدم (حداقل در تئوری) ایجاد یک روش آماری بود که تعداد نمونه های تصادفی مورد نیاز برای بررسی جدول پایگاه داده را مشخص می کرد تا بگویم با احتمال 95٪ تعداد خطاها نماینده آن جدول است. سپس، با احتمال خطا، می توانم در نظر بگیرم که آیا داده ها معتبر هستند یا خیر. توزیع دو جمله ای کمکی نمی کند، زیرا من هیچ دانشی در مورد احتمال یافتن خطا ندارم. دانش آماری من بسیار زنگ زده است و در حال حاضر نمی توانم آن را بفهمم. فقط برای روشن شدن مجدد: با توجه به N تعداد ورودی های یک جدول، می خواهم بدانم چه عدد n را برای نمونه های تصادفی باید انتخاب کنم تا بتوانم بعد از آزمایش بگویم که احتمال خطا در 95 p است. ٪ دقت من برای هر ایده کمکی که می توانستم به دست بیاورم بسیار مفید خواهم بود. هر گونه ارجاع به ادبیات یا سایت هایی که این موضوع را پوشش می دهد نیز بسیار قدردانی خواهد شد. پیشاپیش متشکرم
معیارهای آماری برای اعتبار سنجی داده ها
111152
من اخیراً با یک مشکل پیش‌بینی مواجه شدم (نتیجه 0-1، با بیش از 80 متغیر)، تصمیم گرفتم از GBM (ماشین تقویت گرادیان فریدمن) برای انجام این کار استفاده کنم. من به GBM اجازه می‌دهم فقط از 70 درصد مجموعه داده استفاده کند، و در این مجموعه آموزشی، 60 درصد در هر تکرار استفاده می‌شود. در طول این فرآیند، من یک مشکل بزرگ GBM پیدا کردم: یک پیش‌بینی‌کننده (AAA) وجود داشت که آنقدر مهم بود (تقریباً علی) که این پیش‌بینی‌کننده منفرد می‌تواند نتیجه را با دقت=40% در فراخوان=40% (0-1 توزیع نابرابر) پیش‌بینی کند. ، با 0: 80٪ و 1: 20٪، و این مدل پیش بینی تک بهتر از GBM با 80 پیش بینی کننده از جمله آن بود. (AAA). من تعجب می کنم که چرا ممکن است این اتفاق بیفتد، دوست دارم نظر شما را در مورد آن بشنوم. از دیدگاه «رگرسیون خطی»، من به چند خطی بودن شک دارم، که GBM بسیاری از پیش‌بینی‌کننده‌های جعلی دیگر را که با AAA مرتبط هستند، تقسیم می‌کند و به تدریج قدرت پیش‌بینی AAA را از دست می‌دهد. علاوه بر این، متوجه شدم GBM هر یک از پیش‌بینی‌کننده‌های من را به روشی بسیار «بیش از حد» کاهش می‌دهد (پیش‌بینی‌کننده گاهی اوقات مثبت، گاهی اوقات منفی بر مقدار برازش شده تأثیر می‌گذارد). برای مقابله با این مشکل، استراتژی من استفاده از پارامتری از GBM به نام var.monotone بود (سه مقدار می گیرد، 1 برای همبستگی مثبت، -1 برای منفی، 0 برای دلخواه). من 22 مورد از 80 پیش بینی اولیه را بر اساس ارتباط با نتیجه انتخاب کردم و از var.monotone برای وادار کردن رابطه آنها با نتیجه استفاده کردم. مدل کمی بهتر بود می‌خواهم بدانم که آیا اجبار رابطه هر پیش‌بینی‌کننده با نتیجه، استراتژی خوبی برای کاهش تناسب بیش از حد است، از دیدگاه شما چه راهی بهتر است؟ مهمتر از آن، به نظر شما جعبه سیاه با 80 پیش بینی واقعا کار می کند؟ یک رگرسیون لجستیک، یا یک رگرسیون منظم L1، با تنها 5 پیش بینی کننده بسیار مهم (یا علی) چطور؟ ممنون هیچام هو
GBM، مشکل اضافه برازش/چند خطی بودن و تنظیم پارامتر است
64813
من از یک مدل خطی برای داده‌های خود استفاده می‌کنم: $$ y_{i}=\beta_{0}+\beta_{1}x_{i}+\epsilon_{i}, \quad\epsilon_{i} \sim N( 0,\sigma^{2}). $$ من می خواهم فاصله اطمینان (CI) ضرایب ($\beta_{0}$, $\beta_{1}$) را با استفاده از روش بوت استرپ تخمین بزنم. دو روش وجود دارد که می‌توانم روش بوت استرپ را اعمال کنم: 1. نمونه پاسخ-پیش‌بینی‌کننده جفت: به‌طور تصادفی جفت‌های $y_{i}-x_{i}$ را مجدداً نمونه‌گیری کنید، و رگرسیون خطی را برای هر اجرا اعمال کنید. پس از اجرای $m$، مجموعه ای از ضرایب تخمینی ${\hat{\beta_{j}}}، j=1،...m$ را بدست می آوریم. در نهایت، چندک ${\hat{\beta_{j}}}$ را محاسبه کنید. 2. خطای نمونه: ابتدا رگرسیون خطی را روی داده های مشاهده شده اصلی اعمال کنید، از این مدل $\hat{\beta_{o}}$ و خطای $\epsilon_{i}$ را بدست می آوریم. سپس به‌طور تصادفی خطای $\epsilon^{*}_{i}$ را مجدداً نمونه‌برداری کنید و داده‌های جدید را با $\hat{\beta_{o}}$ و $y^{*}_{i}=\hat{ محاسبه کنید. \beta_{o}}x_{i}+\epsilon^{*}_{i}$. یک بار دیگر رگرسیون خطی را اعمال کنید. پس از اجرای $m$، مجموعه‌ای از ضرایب تخمینی ${\hat{\beta_{j}}}، j=1،...، m$ به دست می‌آوریم. در نهایت، چندک ${\hat{\beta_{j}}}$ را محاسبه کنید. سوال من این است: * **این دو روش چگونه با هم تفاوت دارند؟** * **این دو روش بر اساس کدام فرض نتیجه یکسانی می دهند؟**
دو روش استفاده از بوت استرپ برای تخمین فاصله اطمینان ضرایب در رگرسیون
64815
سلام من سعی می کنم از مقدار AIC برای مقایسه مدل لاجیت و پروبیت استفاده کنم که در هر مدل داده ها و تعداد متغیرهای کمکی یکسان است (مثلاً متغیر کمکی = 3 برای هر مدل) آیا مقدار AIC با افزایش حجم نمونه افزایش می یابد؟ کدام یک به عنوان ابزاری برای مقایسه logit و probit، AIC یا MSPE بهتر است؟
آیا می توانم از مقدار AIC برای مقایسه مدل لاجیت و پروبیت استفاده کنم که برای هر مدل تعداد متغیرهای کمکی برابر است؟
90276
طبق مقاله ویکی‌پدیا، ما سناریوی زیر را داریم، اما ABC چگونه می‌تواند مجموعه داده‌های شبیه‌سازی را از نمونه‌های $\theta$ بدون دانستن یا ارزیابی تابع احتمال تولید کند؟ برای مثال، این روش برای توزیع $N(\mu, \sigma)$ معمولی چگونه کار می کند؟ با فرض اینکه پارامتر تخمین زده $\mu$ باشد و $\sigma$ شناخته شده باشد، چگونه شبیه سازی ها را بدون ارزیابی $N(\mu, \sigma)$ ایجاد می کند؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pkpG0.png)
ABC. چگونه می تواند از تابع احتمال اجتناب کند؟
88648
لطفاً در اثبات این به من کمک کنید: فرض کنید $Y_1،\ldots،Y_n$ i.i.d هستند. RVهای غیرمنفی با CDF $F$ و $E(Y_i)=\mu<\infty$. اجازه دهید $y_1,\ldots,y_n$ تحققی باشد که از آن یک EDF $\hat{F}$ تعریف می‌شود: $$ \hat{F}(y)=\frac{1}{n}\sum_{i= 1}^nI(y_i\leq y). $$ **می خواهم نشان دهم** : $$ \text{plim}_{n\to\infty}\left(n^{1/2}\int_0^\infty y(\hat{F}(y) -F(y))d(\hat{F}-F)(y)\right)=0. $$ لطفاً هر گونه فرضیات ضروری دیگر را بیان کنید. * * * پاسخ ویرایش به نظر GUNG: این نتیجه یک گام کوچک در یک بحث بزرگتر در مقاله راسل دیویدسون 2009 در مورد شاخص جینی است. مؤلف باید آن را بدیهی دانسته باشد زیرا بدون دلیل آن را ذکر کرده است. من تا حدودی از نظریه مجانبی مانند برخی از قوانین اعداد بزرگ، برخی از انواع CLT، حالت های مختلف همگرایی، قضیه اسلوتسکی، نظریه اندازه گیری به طور کلی و نظریه احتمال به طور خاص، و برخی از حساب های تصادفی درک دارم. مشکل من این است که به تنهایی تئوری مجانبی را یاد می‌گیرم و تمرین‌های زیادی در این زمینه انجام نداده‌ام. بنابراین در حالی که می خواهم استدلال نویسنده را بفهمم، نمی دانم از کجا شروع کنم.
همگرایی مجانبی شامل EDF
69820
رگرسیون لجستیک اساساً به این معنی است که logit نسبت های پاسخ خود را، p، و سپس رگرسیون استاندارد انجام دهید. موردی را در نظر بگیرید که یک p 1 است. logit(1) = log(1/(1-1)) = بی نهایت. چگونه می توانید رگرسیون را با بی نهایت انجام دهید؟ یعنی اگر یکی از نسبت‌های مشاهده‌شده p 1 باشد، در این صورت سعی می‌کنید خطی را بیابید که مجموع مجذور تفاوت‌ها را از مجموعه‌ای از نقاط که شامل بی‌نهایت است، به حداقل می‌رساند. چگونه این باعث نمی شود که خط رگرسیون همیشه شیب بی نهایت داشته باشد؟
وقتی y=1 باشد، لاجیت بی نهایت است. چگونه می توانید آن را پس بگیرید؟ با این حال، به نوعی، این رگرسیون لجستیک است
64814
احتمالاً قبلاً در این مورد بحث شده است، اما من می‌خواستم درک کنم که استفاده از R برای انتشارات آمار زیستی چقدر رایج است. در PubMed من تعدادی مقاله تحقیقاتی را پیدا کردم که با استفاده از R انجام شده بودند (همانطور که در بخش روش ها یا تجزیه و تحلیل آماری اسناد ذکر شد). با این حال، اکثریت با استفاده از SAS/SPSS و همچنین تعداد قابل توجهی با استفاده از Stata انجام شد. در سال‌های اخیر صحبت‌های زیادی در مورد R وجود داشته است و من به دنبال داده‌هایی هستم که می‌تواند این واقعیت را تأیید کند که R در حال افزایش محبوبیت در منطقه تجاری است. با این حال، در تجربه‌ام، برخی از مقاومت‌ها را برای شرکت‌ها برای تغییر به R از SAS مشاهده کرده‌ام، حتی اگر کارهای بیشتری با R در مقایسه با SAS انجام دهید. همچنین این نگرانی وجود دارد که FDA نتایج را در SAS ترجیح می دهد ... اگرچه من چیزی ندیدم که به طور رسمی توسط FDA در این مورد ذکر شود. من می‌دانم که SAS برای دهه‌ها وجود داشته است، این چیزی است که بسیاری از بخش‌های تحقیق و توسعه راحت‌تر با آن کار می‌کنند، و غیره، و غیره، ... و به دنبال نمونه‌های واقعی از افرادی هستم که در عوض از R برای تحقیقات حرفه‌ای و/ استفاده می‌کنند. یا انتشارات
استفاده از R برای انتشارات آمار زیستی
88641
من کمی تحقیق کردم و چیزی را که دنبالش بودم پیدا نکردم: من یک مجموعه داده x = 10,100,1000 و y1, y2, y3 دارم و می‌خواهم آن نقاط را رسم کنم. اما چیزی که اتفاق می افتد این است که در محور x مقادیری که ظاهر می شوند 10، 200، 400، 600، 800 و 1000 هستند. چگونه می توانم مقیاس را طوری تنظیم کنم که فقط مقادیری را که در بالا مشخص کردم ظاهر شود؟ کاری که من انجام می دهم این است: y_values ​​<- c(9، 9.6، 9.7، 9.8) x_values ​​<- c(10,100,1000) plot(x_values, y_values) متشکرم.
مقیاس مجموعه رسم R
96937
کدام یک از کدهای زیر برای برازش مدل GARCH-M(1,1) که ARMA(0,0) حذف شده است صحیح است؟ یا کد صحیح چیست؟ 1. `modm11 = ugarchspec(variance.model=list(model=sGARCH, garchOrder=c(1,1))، mean.model=list(archm=T، archpow=2، include.mean=F)) ` 2. `modm11 = ugarchspec(variance.model=list(model=sGARCH, garchOrder=c(1,1)), mean.model=list(armaOrder=c(0,0), archm=T, archpow=2, include.mean=F))` 3. `modm11 = ugarchspec(واریانس. model=list(model=sGARCH, garchOrder=c(1,1)), mean.model=list(armaOrder=c(0,0)، archm=T، archpow=2))`
GARCH-M(1,1) که در آن ARMA(0,0) در R حذف شده است
43343
می‌خواهم ببینم تنظیم نکردن عوامل مخدوش‌کننده چگونه بر ضرایب تخمینی در رگرسیون خطی تأثیر می‌گذارد. این چیزی است که یادداشت‌های سخنرانی من می‌گویند: 1. مدل تنظیم‌نشده: $E[Yi] = \beta_0 + \beta_1X_i$ 2. مدل تنظیم‌شده: $\quad\ E[Yi] = \gamma_0 + \gamma_1X_i + \gamma_2W$ ، جایی که $W$ مخدوش کننده است. اجازه دهید $\hat{\beta_1}$ تخمین OLS $\beta_1$ باشد. سپس تحت مدل تعدیل شده داریم: $$ E[\hat{\beta_1}] = \gamma_1 + r_{XW}\sqrt{\frac{{\rm var}(W)}{{\rm var}(X )}}\gamma_2 $$ **$E[\hat{\beta_1}]$ چگونه محاسبه شد؟**
استخراج اثر مخدوش کننده های مدل نشده بر تخمین OLS
114169
من یک معیار برای مجموعه داده های مالی خود ایجاد کردم تا داده ها را به دو کلاس برای پردازش های دیگر طبقه بندی کنم (مانند «طبقه بندی باینری شبکه عصبی»). پس از محاسبه این معیار (بین 0 و 1)، توزیع خروجی مانند «نمایی» است (اما بین «0» و «1» - چیزی شبیه به «توزیع بتا»). اکنون می خواهم یک «آستانه» برای ایجاد دو کلاس از این نمونه ها تنظیم کنم. من می‌توانم هر آستانه را تنظیم کنم (70٪ - (0.7)» در «دقت طبقه‌بندی» خوب بود) اما می‌خواهم منطقی برای آن داشته باشم. برای مثال در «توزیع عادی» می‌توانیم «قانون 68–95–99.7» را تنظیم کنیم. من می خواهم این مقدار پیش فرض را در برنامه خود تنظیم کنم زیرا نمونه های مختلفی در سیستم من در ویژگی درج می شوند. با تشکر
یک آستانه برای مسئله طبقه بندی باینری بر اساس توزیع معیار ایجاد کنید
65490
من 3 متغیر A، B و C دارم که همگی به طور قابل توجهی منحرف هستند. در زیر، من همبستگی بین دو متغیر را نشان می‌دهم، به عنوان مثال، A و B به عنوان $r_{ab}$. استفاده از تست زیر با درجه آزادی $n-2$ $$t= \frac{r\sqrt{n-2}}{1-r^2}$$ * $r_{ac}$ مثبت است اما نه به طور قابل توجهی با صفر متفاوت است، *$r_{bc}$ مثبت است اما تفاوت معناداری با صفر ندارد، و *$r_{ab}$ به طور قابل توجهی با صفر متفاوت است. سپس با استفاده از آزمون t ویلیامز * $r_{ac}$ و $r_{bc}$ تفاوت معنی‌داری با یکدیگر ندارند. این چگونه ممکن است؟ **آیا تفاوت بین دو همبستگی مثبت همیشه زمانی که هر دو تفاوت معنی داری با صفر ندارند، نباید معنی دار باشد؟**
چگونه دو ضریب همبستگی وابسته مثبت می توانند بدون تفاوت معنی دار با صفر تفاوت معنی داری داشته باشند؟
65491
من طراحی اندازه‌گیری‌های مکرر 2 دلار \ برابر 3 دلار دارم. * 2 شرط (الف و ب) * 3 شدت (کم، متوسط ​​و زیاد). من فقط نگران تفاوت های a تا b در شدت متناظر هستم. به عنوان مثال می خواهم مقایسه کنم: * A کم و b کم * A متوسط ​​و b متوسط ​​* A زیاد و b زیاد. من نگران مقایسه A کم با A متوسط ​​با A زیاد نیستم زیرا از نظر فیزیولوژیکی می دانیم که آنها متفاوت هستند و به سوال تحقیق من پاسخ نمی دهد. من به نحوه تعامل این 2 متغیر اهمیتی نمی دهم، اما ممکن است اشتباه کنم. تمایل من این است که بگویم آزمون‌های T زوجی خوب هستند، زیرا **آیا باید 3 آزمون t زوجی را برای مقایسه‌های مورد علاقه انجام دهم یا ANOVA اندازه‌گیری مکرر 2$\times3$؟**
آیا باید یک ANOVA اندازه گیری مکرر 3 در 2 انجام داد یا سه آزمون t زوجی جداگانه؟
96280
من یک مجموعه داده از مکان های ثبت شده فیل برای مدت 6 سال دارم (elephantdata). برخی از ورودی ها تکراری همان روز هستند. من می‌خواهم زیرمجموعه‌ای از 'elephantdata' خود ایجاد کنم و یک ماتریس جدید ایجاد کنم که فقط یک نقطه داده قبل از ظهر و یک نقطه داده بعد از ظهر برای هر روز داشته باشد. من می خواهم که آن نقطه داده به طور تصادفی از نقاط داده ارائه شده انتخاب شود. به عنوان مثال: elephantdata ردیف تاریخ زمان Breeding_H E1 E2 E3 1 11/01/06 08:38 1 0 0 0 2 11/01/06 18:00 1 0 0 0 3 12/01/06 05:30 1 0 4 02/02/06 08:58 1 0 0 0 5 02/02/06 16:30 1 1 1 1 6 02/02/06 17:15 1 1 1 1 7 03/02/06 08:45 1 0 0 0 برای Breeding_H می‌خواهم آن را پیدا کنم اگر تاریخ تکراری باشد و دو ورودی در صبح باشد (قبل از ساعت 12:00) یا در شب (بعد از ظهر) می خواهم R به طور تصادفی یکی از ورودی ها را انتخاب کند. بنابراین ردیف 6 و 7 هر دو بعد از ظهر و در یک روز هستند، بنابراین من می خواهم فقط یکی از آن ورودی های داده را داشته باشم. پیشنهادی دارید؟ واقعا از هر کمکی که داشته باشید قدردانی می کنیم. من تابع منحصر به فرد و تکراری را جستجو کرده‌ام اما نمی‌دانم چگونه کد واقعی را بنویسم تا این اتفاق بیفتد.
به طور تصادفی یک ورودی داده برای صبح و یکی برای عصر برای هر روز در R انتخاب کنید
114162
بگویید من یک ماتریس داده با اندازه $N \times P$ دارم که $N$ تعداد نمونه ها و $P$ تعداد ویژگی ها است. اکنون، اگر تجزیه و تحلیل مؤلفه اصلی را انجام دهم، ماتریس داده دیگری به اندازه $N \times K$ دریافت می کنم که در آن $K$ بر اساس برخی معیارها انتخاب شده است. سوال من: اگر من یک ردیف (نمونه) را از ماتریس $\text{PCA}$ انتخاب کنم، آیا همچنان به نمونه _same_ مانند ماتریس داده اصلی اشاره می کند؟ در مطالعه من، داده‌های هر ردیف از یک موضوع است، بنابراین می‌خواهم بدانم اگر از $\text{PCA}$ برای انتخاب ویژگی استفاده کنم، آیا مکاتبات هنوز وجود دارد یا خیر. (من فکر می کنم این درست است اما امن تر از متاسفم ...!)
آیا PCA مشاهدات (ردیف) داده ها را حفظ می کند؟
51956
**سوال کوتاه:** آیا مطالعاتی درباره سیستم ها وجود دارد که توسط چندین متغیر وابسته به زمان تصادفی پنهان و متغیرهای مشاهده شده توصیف شده اند که توسط توابع قطعی شناخته شده متغیرهای پنهان ارائه شده باشند؟ **جزئیات بیشتر:** من یک فرآیند تصادفی وابسته به زمان دارم که در آن متغیرهای با ارزش واقعی $n$ به زمان بستگی دارند: $x_i(t)$. این متغیرها را نمی توان مستقیماً مشاهده کرد ($i.e.$ آنها متغیرهای پنهان هستند). با این حال، می‌توانیم یک تابع قطعی (نه تصادفی) از این متغیرهای پنهان مشاهده کنیم: $y(t) = y(x_{i}(t))$ (در مورد خاص من $y(t) = \sum_{i= 1}^n x_{i}(t)$). علاوه بر این، می توانیم متغیر دیگری را مشاهده کنیم که تابعی از متغیرهای پنهان است. این تابع دوم نیز قطعی است اما متغیرهای پنهان مربوط به زمان‌های مختلف را ترکیب می‌کند: $z(t) = x_{0}(t) + x_{1}(t-\Delta t) + x_{2}(t-2 \Delta t) + ... + x_{n}(t-n \Delta t)$. علاوه بر آن، می دانیم که بردارهای بعدی که متغیرهای پنهان را نشان می دهند، به روش تصادفی مرتبط هستند: $x_{i}(t) = \psi[x_{i}(t - \Delta t)]$. شکل دقیق $\psi$ مشخص نیست. ما همچنین همیشه $x_0(t)$ را می دانیم و مقدار $x_{n}(t)$ را تعیین می کنیم. هدف، یافتن رابطه تصادفی $\psi$ و انتخاب مقادیری از $x_{n}(t)$ است که $x_{t}=0$ است (اکنون $x_{n}$ را انتخاب می‌کنیم و چه چیزی را حفظ کنیم. $x_{0}=0$ در آینده). ما همچنین می خواهیم از $y=0$ جلوگیری کنیم. سوال من این است که چگونه می توان به این مشکل برخورد کرد و آیا نتایجی برای چنین سیستم هایی وجود دارد (یا نام چنین سیستم هایی چیست). نزدیک‌ترین چیزی که می‌توانم به آن فکر کنم، فرآیند پنهان مارکوف است، اما همانطور که می‌بینید، چیزی متفاوت است.
آیا تحقیقی در مورد کنترل فرآیندهای تصادفی پنهان وجود دارد؟
96281
عصر همگی بخیر، من در حال حاضر روی مجموعه ای از سوالات خودآموزی کار می کنم که به پاسخ های درست/کاذب مربوط می شود. من در حال حاضر با سوالی روبرو هستم که در آن پاسخ ادعای نادرست بودن آن دارد، اما آن را درست می دانم. مطمئن نیستم که آیا در پاسخ خطایی وجود دارد یا خیر. قدردان کمک و راهنمایی لطفا. > یک فاصله اطمینان تخمینی است که برای آن درجه مشخصی > از قطعیت وجود دارد که آمار نمونه در فاصله زمانی خواهد بود. برداشت من این است که **گزاره بالا درست است** زیرا فاصله اطمینان با درجه خاصی از اطمینان به ما می گوید که چقدر احتمال دارد یک مقدار در محدوده قرار گیرد. قدردان یک توصیه لطفا. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mzKSx.jpg)
سوال خودآموزی در مورد فاصله اطمینان (درست/نادرست)
69792
قبلاً خوانده بودم که تنظیم-$R^2$ معیاری برای تناسب نیست. با این حال، اخیراً می‌خواستم آن دانش را با درک دلیل آن اثبات کنم، اما هیچ منبع قابل‌توجهی برای تأیید این موضوع پیدا نکردم. مقاله ویکی‌پدیا در مورد آن بیان می‌کند «در حالی که $R^2$ معیاری برای تناسب است، در عوض $R^2$ تعدیل‌شده معیاری مقایسه‌ای برای مناسب بودن مجموعه‌های تودرتوی جایگزین از توضیح‌دهنده‌ها است» اما نقل قولی ارائه نمی‌کند. http://en.wikipedia.org/wiki/Coefficient_of_determination
آیا این درست است که تنظیم شده-$R^2$ معیار تناسب نیست؟ چرا یا چرا نه؟
103260
من می خواهم یک رگرسیون دو جمله ای منفی اجرا کنم، اما یکی از متغیرها را نیز کنترل کنم. مشابه کاری که با یک رگرسیون سلسله مراتبی انجام می دهید. من سعی می کنم خشونت را پیش بینی کنم (هرگز، یک بار، 3 بار ...) و ادبیات می گوید باید سن را کنترل کنم، زیرا پرخاشگری با افزایش سن کاهش می یابد. از نظرات شما استقبال می کنم، پیشاپیش متشکرم. شارون
کنترل متغیرها در رگرسیون دو جمله ای منفی
97626
1) فرض کنید، من 25 مقدار نمونه دارم. من نمی دانم که مشاهده از کدام توزیع می آید. چگونه ادامه دهم؟ 2) با توجه به همین سوال: فرض کنید، با وجود اینکه اطلاعی ندارم، وانمود می کنم که از توزیع نرمال می آید و میانگین و واریانس آن را تخمین می زنم، یک P-P یا یک اندرسون-دارلینگ انجام می دهم و به این نتیجه می رسم که از چگالی نرمال می آید. دقیقاً، آیا اساساً به این معنی است که داده ها از توزیع نرمال پیروی می کنند؟ آیا من فقط سعی نمی کنم داده های خود را در یک توزیع مناسب قرار دهم؟ به طور خلاصه، با توجه به یک نمونه پیوسته، چگونه می توانم توزیع اصلی آن را تعیین کنم؟
چگونه برای توزیع والد یک نمونه تصمیم گیری کنیم؟
89982
من در حال حاضر در حال کار بر روی یک تجزیه و تحلیل گذشته نگر هستم که در آن بیماران را بررسی می کنم تا ببینم آیا حساسیت ایمنی قبل از یک روش تاثیری بر نتایج بعد از عمل دارد یا خیر. حساسیت ایمنی یک متغیر طبقه بندی شده است (Hi vs Lo). در مورد نتایج، یکی از مواردی که من به دنبال آن هستم، تجزیه و تحلیل بقا (زمان تا مرگ) است. من یک تجزیه و تحلیل Kaplan-Meier را انجام دادم که بر اساس حساسیت ایمنی تجزیه شده بود و به نظر می رسد تفاوت آماری معنی داری (p<.05) در رابطه با زمان تا مرگ وجود دارد. سوالات من این است: 1. من یک تحلیل رگرسیون کاکس را با وضعیت حساسیت به عنوان تنها متغیر کمکی اجرا کردم و مقدار p را 0.35 دانستم. چرا تفاوت زیادی در اهمیت آماری وجود دارد و کدام یک را انتخاب کنم؟ (اگر کمک کند، از یک بازرسی بصری، فقط بیماران در رده سلام فوت کردند) 2. هنگام تجزیه و تحلیل ویژگی های بیمارم، متوجه شدم که تفاوت جنسیتی در دو دسته حساسیت وجود دارد (p<.05). من یک مدل رگرسیون کاکس را با حساسیت و جنسیت به عنوان متغیرهای کمکی اجرا کردم و اشاره کردم که p-value 0.955 برای وضعیت حساسیت و 0.5 برای جنسیت است. آیا من در تفسیر این که هیچ کدام از متغیرهای کمکی تأثیری بر زمان مرگ ندارند، درست است؟ * * * _طبق درخواست، در اینجا برخی از خروجی های من است_ تحلیل اصلی Kaplan Meier (PRA_Categ نشان دهنده وضعیت حساسیت است): ![نتایج اصلی Kaplam Meier \(PRA_Categ نشان دهنده وضعیت حساس شدن است\)](http://i.stack.imgur .com/ba1aJ.png) رگرسیون COX مربوطه با تنها یک متغیر کمکی (PRA_Categ): ![رگرسیون COX مربوطه تنها با یک متغیر کمکی \(PRA_Categ\)](http://i.stack.imgur.com/4Eabs.png) رگرسیون COX با دو متغیر کمکی (PRA_Categ و جنسیت): ![رگرسیون COX با دو متغیر کمکی \(PRA_Categ و جنسیت\)](http://i.stack.imgur.com/R2Bht.png)
معنی‌داری آماری با کاپلان مایر مشاهده شد اما با مدل کاکس مشاهده نشد
65497
** به روز رسانی ** سوال اصلی گیج و ضعیف بود. بیشتر بهش فکر کردم و فکر نکنم دیگه سوالی داشته باشم. بعد از اینکه کمی بیشتر فکر کردم به این نتیجه رسیدم: برای توزیعی، مثلاً معمولی، احتمال اینکه متغیر در محدوده معینی بیفتد این است: P(a<=X<=b|X ~ N(mu، sigma ^2)) با استفاده از قضیه بیز می توانم استنباط کنم: P(a<=X<=b|X ~ N(mu، sigma^2)) = P(a<=X<=b، X ~ N(mu، sigma^2)) / P(X ~ N(mu، sigma^2)) برای تفسیر این جمله می توانم بگویم: P(X ~ N(mu، sigma^2)) احتمال قبلی است که تصادفی متغیر X ~ N(mu, sigma^2) (بر اساس هر اطلاعاتی که داریم) و P(a<=X<=b, X~ N(mu, sigma^2)) قبلی است احتمال اینکه X ~ N(mu، sigma^2) **و** در بازه [a,b] باشد. سپس، اگر برای ما آشکار شود که X در واقع N(mu، sigma^2) توزیع شده است، یا اگر چنین فرض کنیم، احتمال اینکه در بازه [a,b] قرار گیرد، نسبت احتمالات قبلی، همانطور که در بالا ذکر شد. عبارت فوق به هیچ وجه به pdf خاصی که با آن سر و کار دارید بستگی ندارد. فکر می کنم امیدوار بودم که بین این دو رابطه ای ببینم، اما به نظر می رسد که آنها ایده های نامرتبط هستند.
ارتباط بین PDF/PMF و قضیه بیز
69799
من یک سری اعداد دارم، که برخی از احتمالات بقا هستند که یک منحنی پوسیده را تشکیل می دهند. من می خواهم آنها را با توزیع پارتو تطبیق دهم. من انتظار دارم که منحنی برازش صاف داشته باشم، بنابراین می توانم آن را برون یابی کنم و یک پیش بینی تقریبی داشته باشم. داده های من مانند «1، 0.987، 0.972، 0.965، ...» هستند. چگونه می توانم به هدفم برسم؟
چگونه از توزیع پارتو در برازش منحنی های بقا استفاده کنیم؟
69791
سیستم معادله رگرسیون m زیر را در نظر بگیرید: $$r^i = X^i \beta^i + \epsilon^i \;\;\; \text{for} \;i=1,2,3,..,T$$ که در آن $r^i$ بردار $(T\times 1)$ از مشاهدات T متغیر وابسته، $X^ است. i$ یک ماتریس $(T\times k)$ از متغیرهای مستقل است، $\beta^i$ بردار $(k\times1)$ از ضرایب رگرسیون و $\epsilon^i$ است. بردار خطاها برای مشاهدات $T$ رگرسیون $i^{th}$ است اگر مدل فوق یک مدل SUR است (رگرسیون های به ظاهر نامرتبط)، آیا محاسبه BIC (معیار اطلاعات بیزی) برای مدل منطقی است. ? اگر چنین است، چگونه محاسبه می شود؟ آیا برای بدست آوردن تنها یک معادله رگرسیون، متغیرهای وابسته باید در یک بردار انباشته شوند؟ هر گونه کمکی قدردانی خواهد شد! ممنونم!!!
محاسبه BIC برای مدل SUR
71734
من یک بردار به طول 400 با 6 مقدار منحصر به فرد با نسبت های نسبتاً مساوی ایجاد کرده ام (1-6). من دو نمونه تصادفی از بردار ترسیم کردم، هر کدام $n=26$، 10000 بار، تست‌های $t$-تست‌ها را انجام دادم، ارزش‌های $p$ را به یک لیست اضافه کردم و یک هیستوگرام از فرکانس $p$-value را خروجی کردم. هیستوگرام $p$-values ​​یک اثر تجمع چرخه ای را برای $p$-values ​​بیشتر از $0.7 نشان می دهد. من می خواهم بدانم چرا این اتفاق می افتد. این کد R من است: set.seed(117) cover1<-rep(1,100) cover2<-rep(2,63) cover3<-rep(3,59) cover4<-rep(4,74) cover5<- rep(5,56) cover6<-rep(6,48) landscape=c(cover1,cover2,cover3,cover4,cover5,cover6) sample.size<-26 x<-10000 pval.list <-vector(list, length(x)) alpha <- 0.05 conf.level < - 1 - آلفا برای (i در 1:x){ s1 <- نمونه (منظره، اندازه = نمونه. اندازه، جایگزین = درست، مشکل = NULL) s2 <- نمونه (منظره، اندازه = نمونه. اندازه، جایگزین = TRUE، prob = NULL) result.t.test <- t.test(s1,s2، conf.level=conf.level) pval.list [i] <- result.t.test[p.value] } s<-pval.list pvalue<-as.numeric(s) hist(pvalue, main = چسباندن (هیستوگرام، p-value)، شکست = 100) ![هیستوگرام p-values](http://i.stack.imgur.com/Hz4pH.jpg)
$p$-مقادیر از دو نمونه $t$-تست های توده برداری مجدد نمونه برداری شده در $p > 0.7$
19313
من دو سری زمانی دارم، S (استرس در مسیر راه آهن) و T (دما). سری زمانی چند ماهه است. این رابطه خطی است، با این حال، به دلیل کار انجام شده روی ریل، می تواند به طور نامحسوس تغییر کند یا در برخی نقاط پرش کند. در حال حاضر، من رگرسیون خطی را بر اساس هر روز انجام می‌دهم و سپس S را بر اساس مدل‌های روز اصلاح می‌کنم. با این حال، تغییرات در رابطه در هر روز اتفاق می افتد، بنابراین این کامل نیست. حدس می‌زنم که دارم سعی می‌کنم بفهمم چگونه می‌توان چندین مدل خطی را بین S/T در طول زمان به بهترین نحو جا داد. چگونه می توانم این کار را انجام دهم؟ من به تازگی با R شروع کرده ام، اگرچه با پایتون نیز خوب هستم.
رگرسیون خطی متغیر با زمان
19314
**واریوگرام** روشی ساده اما موثر برای بررسی تغییرات فضایی متغیر مورد علاقه در زمینه مورد مطالعه است. با این حال گزارش شده است که واریوگرام را نمی توان به عنوان رضایت بخش ترین مدل به خصوص در مواردی که انحنای _(به عنوان مثال کانال های نفوذپذیر در مهندسی مخزن)_ در محیط مورد مطالعه وجود دارد در نظر گرفت. یعنی الگوهای مختلف می‌توانند کپی دقیق‌تر و کمتری از یک واریوگرام داشته باشند. یک پیشنهاد برای توسعه یک رویکرد **آمار چند نقطه ای** ( **زمین آمار**) بود، که در آن برای مثال، یک **تصویر آموزشی**، یک الگوی ماتریس دوبعدی برای استنتاج تغییرات فضایی استفاده می شود. در ادبیات نشان داده شد که تصاویر آموزشی برای دیکته کردن خروجی الگوی مورد نظر با احترام به داده‌های شرطی و مبتنی بر رویکردهای تصادفی برای برآوردن استنباط‌های آماری مفید هستند. * سؤالات: > ** Q1: ** چه چیز دیگری در مورد مزایا و یا معایب آمار چند نقطه ای؟ > ** Q2: ** چگونه می توان تصاویر آموزشی را بدست آورد؟ > __ **Q2.1:** چگونه با استفاده از دانش موجود و غیره تصاویر آموزشی تولید کنیم؟ > **Q3:** سه بعدی و ابعاد بیشتر چطور؟ > **Q3:** تصویر مرحله بعدی بعد از تمرین چیست؟
مزایای آمار چند نقطه ای در مقایسه با واریوگرام چیست؟
96289
من سعی می کنم سلول ها (1×1 کیلومتر) را در یک منطقه خاص خوشه کنم. هر سلول از زیستگاه های مختلفی تشکیل شده است که توسط یک کد تعریف شده اند. (هر زیستگاه از 3 پارامتر تشکیل شده است، بنابراین یک کد زیستگاه مانند 1-3-15 به نظر می رسد. حدود 100 زیستگاه مختلف وجود دارد، یعنی حداکثر تعداد ترکیبی از این 3 پارامتر). اکنون سعی می‌کنم خوشه‌ها را بر اساس موارد زیر تعریف کنم: * تعداد زیستگاه در هر سلول * اولین زیستگاه بزرگ که سلول را می‌پوشاند * دومین زیستگاه بزرگ که سلول را می‌پوشاند و * نادرترین زیستگاه در سلول (من یک شاخص جهانی نادر برای هر زیستگاه و یک زیستگاه ایجاد کردم. داشتن کمترین شاخص در هر سلول انتخاب می شود). بنابراین 3 مورد آخر لیست به یک زیستگاه خاص در هر سلول اشاره دارد، و مورد اول بیشتر یک معیار کمی است که تعداد آنها در هر سلول وجود دارد. بر این اساس، آن‌ها می‌خواهند یک تحلیل خوشه‌ای انجام دهند، اما من نمی‌دانم که آیا ترکیبی بین داده‌های طبقه‌ای و کمی وجود دارد یا خیر. لطفاً کسی می تواند راهنمایی کند که از چه روشی استفاده شود، به عنوان مثال. در R با تشکر
تحلیل خوشه ای
60514
من روی طبقه بندی فایل های صوتی کار می کنم. این یک طبقه بندی باینری است و من قصد دارم از SVM استفاده کنم. من قبلاً از SVM برای تطبیق چهره و سایر موارد تجزیه و تحلیل و بازیابی تصویر استفاده کرده ام. من بردارهای ویژگی مورد نیاز را از فایل های صوتی استخراج کرده ام، یعنی مجموعه داده های آموزشی و آزمایشی و با استفاده از تجزیه و تحلیل مؤلفه های اصلی ابعاد آنها را کاهش داده ام. می‌خواهم بدانم آیا قبل از اعمال طبقه‌بندی و پیش‌بینی SVM، مراحل بیشتری وجود دارد؟ آیا مجموعه داده‌های آزمایشی و آموزشی که پس از اعمال PCA به دست می‌آیند باید نرمال شوند یا متمرکز شوند؟ آیا نتایج پس از اعمال نرمال سازی / مرکزیت متفاوت خواهد بود (بهتر / بدتر)؟ یا آیا روش های دیگری وجود دارد که بتوان از آن برای پیش پردازش داده ها قبل از اعمال SVM بر روی آن استفاده کرد؟
پردازش داده ها قبل از اعمال SVM
60510
با توجه به یک جمعیت داده (بی نهایت) که از آن به طور مکرر نمونه هایی با اندازه ثابت می گیرید. در هر نمونه یک طبقه‌بندی کننده را یاد می‌گیرید که سپس با محاسبه خطای پیش‌بینی در یک مجموعه آزمایشی مستقل بزرگ ارزیابی می‌کنید. خطای پیش‌بینی به‌عنوان میانگین تمام نمونه‌ها در مجموعه آزمایشی تابع ضرر صفر-یک $\mathcal{L}(y,\hat{y})$ تعریف می‌شود. (تابع ضرر صفر و یک $\mathcal{L}(y,\hat{y})=0$ اگر برچسب پیش‌بینی‌شده $\hat{y}$ یک نمونه برابر با برچسب واقعی نمونه y باشد، و 1 در غیر این صورت.) سوال من این است که آیا قضیه حد مرکزی در این وضعیت برقرار است، به طوری که توزیع خطای پیش‌بینی بر روی نمونه‌ها با توجه به تعداد کافی نمونه، به یک توزیع نرمال تقریبی می‌کند؟ من می دانم که این قضیه برای تعداد کافی از متغیرهای تصادفی _مستقل_ صادق است. بنابراین من در تردید هستم زیرا پیش‌بینی‌های فردی برای یک مجموعه آزمایشی از طبقه‌بندی‌کننده یکسانی سرچشمه می‌گیرد و طبقه‌بندی‌کننده‌ها در نمونه‌ها متفاوت هستند.
آیا قضیه حد مرکزی برای خطای پیش‌بینی در نمونه‌های مختلف صادق است؟
69790
منظور من این است که یک درخت تصمیم بسازیم که در آن هر گره یک ویژگی واحد نباشد به جای ترکیب چندین ویژگی، بنابراین معیارهای ارزیابی باید یک متریک را روی اعداد متعدد به جای عدد واحد در نظر بگیرند. برای مورد اصلی درخت تصمیم ما به دنبال مقدار یک ویژگی هستیم که رابطه ترتیبی آن < یا > را با نمونه های دیگر مقایسه می کند. اما من انتظار دارم چندین مقدار مانند $x_1,\cdots,x_n$ را با مقادیر نمونه جدید $x_1,\cdots,x_n$ در هر انتخاب گره مقایسه کنم. مانند انتخاب یک بردار از مقادیر برای هر گره درخت تصمیم است.
آیا نسخه درخت تصمیمی وجود دارد که در آن هر گره با معیارهایی از هیستوگرام به غیر از اعداد منفرد انتخاب شود؟
90937
من یک مدل جنگل های تصادفی دارم که با آن سعی می کنم حضور یا عدم حضور گونه ها را پیش بینی کنم. این کد من است: #read در چارچوب داده حاوی مشاهدات حضور/غیاب گونه‌ها و متغیرهای پیش‌بین mydata <- read.csv('mydata.csv') #مدل جنگل‌های تصادفی fitmodelA <- randomForest(SPECIESA ~ var1 + var2 + var3 + var4 + var5 +var6 + var7 + var8 + var9 + var10، data=mydata، mytry=3, ntrees=500, replace=T, important=T, keep.forest=T) #predict to new data predictmodelA <- predict(fitmodelA, newdata, type=prob) # save as rester image writeRaster(predictmodelA predictSPECIESA.tif) ظاهراً باید ماتریسی را برگردانم که احتمال هر دو کلاس را داشته باشد، یعنی در دو ستون آیا به درستی متوجه شدم که می توان آرگومان index را نیز برای پیش بینی تنها یک کلاس اضافه کرد؟ با کد من به شکلی که هست، رستر خروجی من یک لایه با احتمالات 0 تا 1 تولید کرد، اما هیچ ویژگی دیگری نداشت - **این چه کلاسی را پیش بینی می کند؟** من بیشتر علاقه مندم که نقشه من پیش بینی های حضور را به جای عدم حضور نشان دهد. احتمالاً یک راه حل ساده برای این ...؟ با تشکر
چگونه بفهمم مدل جنگل تصادفی من کدام کلاس را پیش‌بینی می‌کند؟
78602
من در حال پیاده سازی مدل ARIMAX هستم و باید انتخاب ویژگی را پیاده سازی کنم. من بیش از 100 ویژگی و داده های زیادی دارم، بنابراین به روشی نیاز دارم که از نظر محاسباتی خیلی گران نباشد. من یک الگوریتم انتخاب ویژگی رو به عقب را امتحان کردم اما خیلی گران بود. آیا رویکرد محاسباتی کمتری برای انتخاب ویژگی وجود دارد؟ شاید مانند روش انتخاب ویژگی فیلتر.
انتخاب ویژگی ARIMAX
96468
من نگران مدل‌های Box-Jenkins و به‌ویژه قدم اول، پیش سفید کردن برای به دست آوردن همبستگی‌های متقابل معنی‌دار برای شناسایی توابع انتقال و ساخت مدل‌های رگرسیون هستم. من با SAS کار می کنم و در اینجا باید یک مدل ARIMA مناسب برای سری ورودی شناسایی کرد تا نویز سفید را بدست آورد و پس از آن سری پاسخ به طور خودکار توسط همان مدل فیلتر می شود. حالا من در مورد دو چیز تعجب می کنم: 1. اگر من دو سری A و B داشته باشم و نمی دانم کدام یک ورودی است و کدام یک سری پاسخ (و شاید بازخوردی وجود داشته باشد)، آیا باید روی آن تنظیم کنم. سری اول A به عنوان ورودی و آن را با یک مدل ARIMA مناسب فیلتر کنید (و سری B هم فیلتر شده است) و من فقط می توانم نگاهی به تاخیرهای مثبت (و تاخیر 0) تابع همبستگی متقابل (CCF) داشته باشم که نشان می دهد. چگونه سری A بر B تاثیر می گذارد. و در مرحله دوم باید سری B را به عنوان ورودی انتخاب کنم و همین کار را انجام دهم (یک مدل ARIMA مناسب برای B تنظیم کنید، A با همان پارامترها فیلتر می شود، به تاخیرهای مثبت (و تاخیر) نگاه کنید 0) از CCF برای دیدن اینکه B چگونه بر A تأثیر می گذارد)؟ برای من کمی عجیب به نظر می رسد، اما از نظر منطقی درست به نظر می رسد. اما بعد از خودم می‌پرسم مثلاً با دو مقدار تاخیر 0 مختلف چه کنم؟ (در برخی موارد در یک مورد نتایج قابل توجهی گرفتم و وقتی ورودی و پاسخ را مانند آنچه توضیح داده شد تغییر دادم معنی دار نبود) من باید با تفریق چند جمله ای detrend کنم؟ در این مورد در SAS سری پاسخ (مثلاً سری B) به یک شکل فیلتر نمی شود. آیا این درست است که برای محاسبه CCF سری های detrended را از A و سری B اصلی را بگیریم؟ خیلی خوشحال میشم اگه کسی بتونه کمکم کنه درود، دانیلا
سری‌های زمانی پیش سفید کردن: مدل‌سازی ARIMA در مقابل حذف روند چند جمله‌ای
11672
من در حال انجام پروژه ای در مورد انتخاب جنسی (رقابت نر و مرد) در ماهی فیروزه ای فیروزه ای Nothobranchius furzeri هستم. دو شکل از نرها در جمعیتی وجود دارد که ماهی من از آنها به دست می آید - یکی دم قرمز و دیگری دم زرد دارد. فرضیه صفر من این است: رنگ دم به تسلط / توانایی رقابتی مربوط نیست. من یک مرد دم زرد و یک نر دم قرمز را در یک میدان قرار می دهم و تعداد یا تعاملات تهاجمی را که در عرض 5 دقیقه انجام می شود و برنده هر کدام را ثبت می کنم. من 8 نر قرمز و 8 مرد زرد دارم که همگی با شدت رنگ مشابه هستند. من در ابتدا فکر می کردم که از هر کدام حدود 30 عدد دارم و می خواستم از نظر اندازه رتبه بندی کنم و آنها را جفت کنم (یعنی بزرگترین قرمز با بزرگترین نر و غیره) که اندازه آنها را کنترل می کند (ماهی های بزرگتر غالب هستند). با این حال، با حجم نمونه تنها 8، این برای به دست آوردن نتایج قابل توجه کافی نخواهد بود. چگونه می توانم آزمایش را دوباره طراحی کنم و از کدام آزمون های آماری استفاده کنم؟ من به ماهی دیگری دسترسی ندارم.
از کدام آزمون آماری برای آزمایش خود در مورد فعل و انفعالات تهاجمی در ماهی کشتار استفاده کنم؟
82918
رئیس من این فایل do را به من داد اما من هرگز با dprobit کار نکردم. من همچنین باید آن را تفسیر کنم، نتیجه این است: xi: dprobit apoyado $X، robust nolog i.fuerza _Ifuerza_1-9 (_Ifuerza_1 برای fue~a==Comando General حذف شده است) توجه: _Ifuerza_8 != 0 موفقیت را کاملاً پیش بینی می کند _Ifuerza_8 و 1 obs استفاده نشده یادداشت: _Ifuerza_2 به دلیل همخطی بودن کاهش یافت. توجه: _Ifuerza_9 به دلیل همخطی بودن کاهش یافت. ------------------------------------------------ ---------------------------- | آپویادوی قوی | dF/dx Std. اشتباه z P>|z| x-bar [95% C.I. ] ----------------------------------------------- ----------------------------- _Ifuer~3*| -.1759987 .1586211 -1.10 0.273 .162162 -.48689 .134893 _Ifuer~4*| -.3915721 .1314311 -2.56 0.011 .155405 -.649172 -.133972 _Ifuer~5*| -.2404857 .1450899 -1.60 0.110 .533784 -.524857 .043885 _Ifuer~6*| .0252801 .1673778 0.15 0.881 .087838 -.302774 .353335 _Ifuer~7*| 0.0776492 .1834521 0.41 0.681 .038851 -.28191 .437209 ---------+--------------------------------------- ---------------------------- obs. P | .5675676 پیش. P | .5723459 (در نوار x) ----------------------------------------- ------------------------------------ (*) dF/dx برای تغییر گسسته متغیر ساختگی از 0 تا 1 z و P>|z| مطابق با آزمون ضریب اساسی 0 است
تفاوت بین dprobit و probit در stata چیست؟
97625
من سعی می کنم به یک سوال کلی در مورد روشی برای مقایسه موسیقی که فراتر از موسیقی غربی قابل تعمیم است، اما از مقیاس های موسیقی غربی به عنوان فضای فرعی تقریبا کافی برای کاهش ابعاد استفاده می کند، پاسخ دهم. یک مدل احتمال خوب از توزیع فرکانس ها که توسط نت موسیقی غربی برای SATB و سازها نشان داده شده است چیست؟
یک مدل احتمال خوب از توزیع فرکانس ها که توسط نت های غربی نشان داده شده است چیست؟
82917
اجازه دهید $X$ یک متغیر تصادفی از $f(x; \theta)$ باشد، که در آن $\theta =(\theta_1,\theta_2)$ است. من می خواهم: با استفاده از الگوریتم Metropolis Hastings از این توزیع یک نمونه بگیرم و پارامترها را به طور همزمان به روز کنیم. توزیع پیشنهادی یک توزیع نرمال دو متغیره با میانگین مقدار فعلی پارامتر $\theta$ و ماتریس کوواریانس $\Sigma$ است. مراحل: با توجه به $\theta$ مرحله 1: $\theta^{can}$ را از توزیع پیشنهاد ایجاد کنید. مرحله 2: $\theta$ = $\theta^{can}$ را با احتمال $\alpha(\theta,\theta^{can}) $ درج $\alpha(\theta,\theta^{can})$ بگیرید = $min \left( \frac{f(\theta^{can})}{f(\theta)}∗ \frac{proposal(\theta)}{proposal(\theta^{can})}, 1\right)$ می‌دانم که $proposal(\theta^{can}) = \frac{1}{\sqrt{( 2\pi)^k|\boldsymbol\Sigma|}} \exp\left(-\frac{1}{2}({\theta^{can}}-{\theta})^T{\boldsymbol\Sigma}^{-1}({\theta^{can} }-{\theta}) \راست)$. می‌خواهم بپرسم که آیا $proposal(\theta) = 0$ است. خیلی ممنون.
پیاده روی تصادفی با توزیع نرمال دو متغیره
65493
من سعی می کنم یک پیشین برای پارامترهای کوواریانس فرآیند گاوسی (GP) خود انتخاب کنم و با کد MCMC خود با مشکلات عددی مواجه شده ام. مدل من به صورت زیر است: $$Y = D\beta + GP(0,\sigma^2R(\psi))$$ که $R$ ماتریس همبستگی زیر است: $$R_{i,j}(\psi )=\exp(\psi(x_i-x_j)^2)$$ موارد قبلی من برای $\beta$ و $\sigma^2$ به شرح زیر است: $$p(\beta)\propto 1$$ و $$\sigma^2\sim IG(a,b)$$، بنابراین آنچه که من سعی می‌کنم کشف کنم این است که چه انتخاب‌های مناسب قبلی برای $\psi$ وجود دارد. تا کنون سعی کرده‌ام گامای معکوس را روی $\psi$ قرار دهم، اما خیلی خوب پیش نرفت. این یک به‌روزرسانی است: اگر به احتمال زیاد کمک می‌کند، فرمول‌بندی مشکل دیگر وجود دارد: $$f(\beta,\sigma^2,\psi|x)\propto|\sigma^2R(\psi)|^{-1/2 }\exp(-\frac{1}{2}(Y-D\beta)'R(\psi)^{-1}(Y-D\beta))$$ قبلی: $$p(\beta,\sigma^2,\psi)=p(\beta|\sigma^2,\psi)p(\sigma^2|\psi)p(\psi)\propto\sigma^{ -a-1}\exp(-b/\sigma^2)p(\psi)$$ اکنون، بر اساس نسخه قبلی خود در این قبلی، سعی کرده ام یک کلانشهر را در گیبس کدنویسی کنم. نمونه‌بردار با شرایط کامل زیر: $$\beta|\sigma^2,\psi,Y\sim N(\hat\beta,D'(\sigma^2 R(\psi))^{-1}D) $$ $$\sigma^2|\beta,\psi,Y\sim IG(a,b)$$ $$\psi|\beta,\sigma^2,Y\propto |R(\psi)|^{-1/2}\exp(-\frac{1}{2\sigma^2}(Y-D\beta)'R(\psi)^{-1}(Y-D\beta ))p(\psi)$$ بنابراین من $\beta$ و $\sigma^2$ را در یک مرحله gibbs نمونه می‌کنم و سپس از یک مرحله M-H برای نمونه‌برداری از $\psi$ استفاده می‌کنم اما حالم وحشتناک است. مشکلات عددی هنگام نمونه برداری از $\psi$ (اصولاً نسبت پذیرش من 0/0 است). در نهایت، اگر کمکی کرد، کدی را برای شما ارسال می کنم. کد: x = sort(runif(5,0,1)) y = exp(-1.4*x)*cos(7*pi*x/2) plot(x,y,type='l',ylim=c (-1،1)) tau = as.matrix(dist(x, upper=T, diag=T)) corrR = تابع (psi,tau){ R = exp(-tau^2*psi) return(R)} psi.cond = تابع (psi,r,sig,D,بتا,Y){d = 0.01 e = 0.01 ans = det(r)^(-.5)*exp(-.5 /sig*t(Y-D*beta)%*%solve(r)%*%(Y-D*beta))*psi^-(d+1)*exp(-e/psi) #ans = -.5*log(det(r))-.5/sig*t(Y-D*بتا)%*%حل(r)%*%(Y-D*بتا)-(d+1)*log(psi)- e/psi return(as.real(ans)) } D = rep(1,length(x)) Y = as.matrix(y) m = length(x) a = 0.01 b = 0.01 B = 100 بتا = rep(NA,B) sigma = c(1,rep(NA,B-1)) psi = c(120,rep(NA,B-1)) for(i در 1:B){R = corrR(psi[i]،tau) bhat = as.real(solve(t(D)%*%solve(R)%*%D)%*%t(D)%*%solve(R)%*%Y) beta[i] = rnorm(1، bhat,t(D)%*%solve(sigma[i]*R)%*%D) sigma[i+1] = 1/گاما(1،(m+2*a)/2،(به عنوان واقعی(t(Y-D*بتا[i])%*%حل(R)%*%(Y-D*بتا[i]))+ 2*b)/2) log.xi = rnorm(1,log(psi[i])،.1) xi = exp(log.xi) u = runif(1) R.xi = corrR(xi,tau) R.psi = corrR(psi[i],tau) temp = (psi.cond(xi,R.xi,sigma[i],D,بتا[i],Y)*(1/psi[i])) /(psi.cond(psi[i],R.psi,sigma[i],D,بتا[i],Y)*(1/xi)) alpha = min(1,temp) if(u <= آلفا){ psi[i+1] = xi }دیگر{ psi[i+1] = psi[i] } }
انتخاب قبلی برای فرآیندهای گاوسی (GP)
51954
من یک مجموعه داده از 903 مشاهدات پیوسته دارم که به صورت گرافیکی با یک هیستوگرام تجسم می کنم. مقادیر bin و عرض را می توان بهینه کرد، اما منطقی است که از توزیع من یک تابع گاوسی داشته باشم. وقتی فیتینگ را انجام می دهم، از مقادیر فرکانس داده ها به عنوان مقادیر Y استفاده می کنم. به عنوان مثال، اگر مشاهدات ${(2،3،3،3،4،4،5)}$ باشند، و عرض bin تعریف شده توسط کاربر 1.0 باشد، آنگاه مقادیر y مربوطه $(1،3 خواهد بود. ,3,3,2,2,1)$، با فرض اینکه اولین حد بن به عنوان حداقل مقدار اختصاص داده شود. من با آزمون مجذور کای ($\chi^2$) از نظر خوبی برازش ($Q$) با برازش گاوسی معنی‌داری آماری را بدست نمی‌آورم. به عبارت دیگر، فرضیه صفر من رد می شود که مدل گاوسی داده های تجربی را نشان نمی دهد. اکنون، من همان آزمایش را انجام می‌دهم، اما با استفاده از یک نسخه هیستوگرام جابجا شده میانگین از مقادیر x و فرکانس برای آن bin‌های میانگین به عنوان مقادیر y برای هر مشاهده، اکنون نتایج خوبی از نظر خوبی برازش به دست می‌آورم. من باید روشن کنم که آیا برای پی بردن به خوب بودن تناسب برای هیستوگرام جابجا شده متوسط ​​معتبر است یا اینکه سوگیری واضحی برای برازش داده ها وجود دارد. در اینجا یک نمودار q-q از داده ها است: ![QQ Plot](http://i.stack.imgur.com/gRHTp.jpg)
آزمایش کای دو برای داده های هیستوگرام پس از انجام یک هیستوگرام با جابجایی میانگین
11676
من فرمولی برای شبه $R^2$ را در کتاب بسط مدل خطی با R، جولیان جی فاراوی (ص. 59) پیدا کردم. $1-\frac{\text{ResidualDeviance}}{\text{NullDeviance}}$$. **آیا این یک فرمول رایج برای شبه $R^2$ برای GLM است؟**
فرمول شبه R مربع برای GLM ها
69795
من یک اسکرین شات دارم و این سوال می پرسد که اگر اندازه نمونه مسدود شده است، محتمل ترین اندازه نمونه ای که برای ایجاد این نتایج استفاده شده است چقدر است. چگونه این کار را انجام دهم؟ پاسخ های ممکن 5، 10، 20 و 25 است و 25 پاسخ صحیح است. میانگین 8.08، میانه 7، sd=6.22 skew=0.83 در بالا را می دهد.
اندازه نمونه از نمودار
19319
این به نظرم اساسی بود، اما به نظر نمی‌رسد راه‌حلی به صورت آنلاین پیدا کنم، بنابراین فکر کردم چه چیزی ممکن است از دست بدهم. من می خواهم خروجی یک شی خلاصه lm را در یک سند Sweave (.Rnw) قرار دهم. من می توانم از summary.lm همانطور که هست خروجی بگیرم یا از بسته های xtable/Hmisc (از طریق دستورات xtable یا latex) استفاده کنم. آیا چیزی مانند xtable وجود دارد که اطلاعات خلاصه ای را که از خارج از جدول در دسترس است را نیز ارائه دهد؟ ($R^2$، آمار F و غیره...؟) با تشکر.
خروجی LaTeX برای شی summary.lm R - در حالی که اطلاعات خارج از جدول نمایش داده می شود
19316
در بازی Pitch شانس پخش شدن جک ترامپ در 24 کارت چقدر است؟
این احتمال وجود دارد که جک ترامپ 46 درصد زمان را در زمین بازی انجام دهد
51957
من فقط یک مثال پیدا کردم که در آن محدودیت $\beta_i، \ i=1،...k$ آنها را به یک تبدیل می کند و همچنین محدودیتی را معرفی می کند که همه $\beta_i$ همگی بزرگتر یا مساوی صفر باشند. از آنجایی که من به شرطی برای جمع $\beta_i$ نیازی ندارم، کاملاً مطمئن نیستم که چگونه با این مشکل برخورد کنم. از آنجایی که در این زمینه یک ماتریس $C$ از محدودیت ها معرفی شده است به گونه ای که $C\beta = c$، من مطمئن نیستم که چگونه با $C\beta \geq 0$ برخورد کنم. هر گونه پیشنهاد بسیار استقبال می شود!
حداقل مربعات محدود: شرط این است که بردار پارامتر بزرگتر یا مساوی صفر باشد
90930
من یک پایگاه داده ادغام شده از دو نظرسنجی مقطعی برای سالهای متمایز دارم ($t_1$ و $t_2$). اگر همه سؤالات دقیقاً یکسان بودند، می‌توانستم داده‌ها را به صورت افقی جمع کنم و یک OLS معمولی پنل داده را اجرا کنم. مشکل این است که برخی از متغیرها فقط برای $t_1$ وجود دارند، در حالی که متغیرهای دیگر فقط برای $t_2$ وجود دارند. بنابراین سوال من این است: آیا باید مانند بالا عمل کنم و این متغیرها را نادیده بگیرم، آیا باید OLS مقطعی را روی هر پایگاه داده جداگانه با استفاده از همه متغیرهای موجود برای آن سال اجرا کنم (و سپس راهی برای تجمیع نتایج وجود دارد؟ ) یا می توانم یک مدل SUR را اجرا کنم که در آن برای هر سال از همه متغیرهای موجود استفاده کنم و ضرایب را محدود کنم که یکسان باشند؟
استفاده از داده های پانل با متغیرهای مختلف: SUR یا OLS به طور جداگانه؟
82916
از خودم می‌پرسیدم که آیا کسی می‌تواند کمک کند تا یک ANCOVA برای من روشن شود، یا شاید من را در جهت درست پست کند. من مجموعه ای از اقدامات نتیجه را دارم که قبل و بعد از درمان انجام شده است. من گروه کنترل ندارم. داده‌های من در قالب طولانی هستند (یعنی هر فرد داده‌هایی در 2 ردیف دارد، یکی برای قبل از درمان، یکی برای بعد از درمان). من می خواهم یک ANCOVA با نمرات پایه به عنوان متغیر کمکی انجام دهم. زمان عامل ثابت من است. به من گفته شده است که داده‌هایم را در قالب طولانی داشته باشم (توسط شخصی کاملاً ارشد)، اما نمی‌خواهم آن‌ها را به فرمت گسترده تبدیل کنم و سپس از امتیاز نتیجه به عنوان DV خود استفاده کنم. من از SPSS برای تجزیه و تحلیل استفاده می کنم.
قالب بندی داده ها برای یک ANCOVA در SPSS
114166
من در حال مقایسه عملکرد کتابخانه‌های pROC و AUC هنگام انجام محاسبات auc() روی داده‌های تصادفی بودم: library(pROC); کتابخانه (AUC) پیش بینی <- rnorm(10000, 5); نتیجه <- rnorm(10000) > 0; print (pROC:::auc() time & output) system.time(x <- proROC:::auc(نتیجه، پیش بینی)) print(x); print (AUC:::auc() زمان و خروجی) system.time(x <- AUC:::auc(AUC:::roc(پیش بینی، عامل(نتیجه)))) print(x); به نظر می‌رسید AUC:::auc بسیار سریع‌تر عمل می‌کند، اما چیزی که برای من عجیب بود این است که محاسبه مقادیر auc مختلف برای یک مجموعه داده: > system.time(x <- pROC:::auc(نتیجه، پیش‌بینی‌کننده)) سیستم کاربر سپری شده است. 1.00 0.01 1.31 > print(x); ناحیه زیر منحنی: 0.5058 > چاپ (AUC:::auc()زمان و خروجی) [1] AUC:::auc() time & output > system.time(x <- AUC:::auc (AUC:::roc(پیش بینی، عامل(نتیجه)))) سیستم کاربر سپری شده 0.19 0.00 0.18 > print(x); [1] 0.4942452 من فکر کردم که تابع Auc() قطعی است، بنابراین آنها باید همان عدد را تولید کنند. با این حال، pROC 0.5058 و AUC 0.4942452 تولید می کند. آیا من از هر یک از عملکردها سوء استفاده می کنم؟ EDIT: FYI من سعی کردم عدد را نیمه تصادفی کنم و توابع اکنون نتایج یکسانی دارند (خطاهای گرد کردن نوار): پیش‌بینی کننده <- runif(10000); نتیجه <- as.integer((predictor + runif(10000)) > 0.5);
تفاوت در محاسبه AUC در R بین pROC و AUC
11674
چگونه یک الگوریتم رایانه ای تنظیم می شود تا یک تابع چگالی احتمال دو متغیره آربیاری را به عنوان ورودی بگیرد و از آن توزیع جفت اعداد تولید کند؟ من روتینی به نام simcontour پیدا کرده ام که بخشی از LearnBayes در R است که آن عملیات را انجام می دهد.
تولید نمونه های تصادفی از تابع چگالی
60515
هنگام اجرای یک رگرسیون OLS با یک عبارت مربع، $$ y = a + b_1(X) + b_2(X^2) + e $$ می دانم که اثر جزئی $X$ $b_1 + 2b_2 (\bar X است. )$ برای به دست آوردن اثر کلی $X$ روی $Y$ که با میانگین ارزیابی می شود. با استفاده از حاشیه‌های reg y x c.x#c.x، dydx(*) atmeans این کار را در Stata انجام می‌دهد و همچنین دارای 95% CI برای اثر کلی است. سوال من اکنون این است: حاشیه چگونه خطای استاندارد و 95% CI اثر کلی X$ را در میانگین محاسبه می کند؟
فاصله اطمینان برای مجذور ترم با میانگین در Stata ارزیابی می شود
69797
از چه نوع تکنیک / فرمول تجزیه و تحلیل داده ها برای توصیف سریع ترین سیستم عامل در این نمودار استفاده می کنید، ویندوز یا لینوکس؟ ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/uleOH.png) اگر لینوکس و ویندوز در همه آزمایش ها سرعت یکسانی داشتند، همه نوارها 50% آبی و 50% سبز بودند. مدت زمان داده ها بر حسب میلی ثانیه است. هر عدد (به عنوان مثال راه اندازی لینوکس) نشان دهنده میانگین 1000 آزمایش مدت زمان فردی در آن سناریو است. نتایج هر آزمون به صورت جداگانه در نمودارهای جداگانه پوشش داده شده است. این داده یک نمای کلی از یک مجموعه داده (لینوکس در طول این 5 آزمایش) و نحوه ارتباط آن با مجموعه دوم داده ها (ویندوز در طول این 5 آزمایش) را نشان می دهد. هدف این است که بتوانیم بگوییم: در طی 5 تست ما ویندوز سریعتر است. (این را می توانید در نمودار ببینید زیرا رنگ سبز کمتری وجود دارد، اما این برای اثبات آماری آن است). توجه: نمودار زیر همان داده ها را به صورت ارزش واقعی نشان می دهد و نشان می دهد که یکی از آزمون ها بر تست های دیگر غالب است. در حالی که این یک نتیجه مهم است، اما روی سوال فعلی تاثیری ندارد زیرا دو نتیجه در تست Refreshing Desktop همچنان با یکدیگر رابطه مشابهی با سایر آزمون ها دارند. در نظرات در مورد چگونگی نمایش این داده ها بحث شده است. دلیل اینکه من آن را در نوارهای پشته‌ای نشان می‌دهم این است که می‌خواهم آن را _بدون_ اثر سایه‌اندازی یک داده غیرعادی نشان دهم. آیا روش ترجیحی برای نشان دادن این رابطه وجود دارد؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NqQNC.png)
چه نوع آماری برای توصیف این نمودار استفاده می شود؟
51958
من یک ANOVA یک طرفه از متغیر پاسخ (Y) را روی فاکتور درمانی (T) از 7 سطح انجام می دهم. با این حال، برای هر درمان، من فقط 2 مشاهده (یا تکرار) دارم. نتایج ANOVA نشان می‌دهد که میانگین‌ها در کل تیمار بسیار معنی‌دار هستند (001/0p<). من فرضیات عادی و واریانس ثابت را بررسی کرده ام و به نظر می رسد که داده های من این فرضیات را نقض نمی کند. سوال من این است: آیا می توانم به نتیجه ANOVA اعتماد کنم، حتی اگر حجم نمونه بسیار کوچک باشد (n=2*7=14)؟ اولین سوالی که به ذهن من می رسد قدرت آزمون من است. از آنجایی که ANOVA من اندازه اثر 0.9 را به دست آورده است. من یک تجزیه و تحلیل توان (با استفاده از Q*Power.3) انجام دادم تا ببینم چند نمونه برای به دست آوردن چنین اندازه اثری با سطح معنی داری 0.05 و توان 0.8 مورد نیاز است. نتیجه نشان داد که حداقل به 28 نمونه نیاز دارم. از آنجایی که تعداد نمونه های من بسیار کمتر از مقدار مورد نیاز است، آیا به این معنی است که نتایج ANOVA من قابل اعتماد نیستند؟
آیا می توانم به نتیجه یک آنالیز واریانس یک طرفه با درمان های زیاد که هرکدام تکرار بسیار کمی دارند اعتماد کنم
96460
من می‌خواهم یک متاآنالیز چند متغیره (تحلیل متا بازوی درمان چندگانه) با مقایسه اثر داروهای مختلف انجام دهم. اندازه گیری نتیجه من گسسته است و تعداد وقوع یک عارضه جانبی خاص را در طول دوره مشاهده توصیف می کند. مطالعاتی که می‌خواهم شامل شود، نسبت شانس (OR) و 95% CI آنها از این عارضه جانبی را برای هر دارو نسبت به یک داروی پایه گزارش می‌کنند. مشکل این است که مطالعات داروهای مختلف را به عنوان خط پایه تعریف کرده اند. * آیا صرفاً تبدیل OR من برای آوردن آنها به یک داروی پایه رایج معتبر است؟ * آیا تبدیل 95% CI OR به همین صورت معتبر است؟ * معمولاً 95% CI برای داروی پایه گزارش نشده است. بنابراین وقتی این داروی پایه را تبدیل می کنم، 95% CI ندارم. آیا راهی برای استخراج 95% CI در این مورد وجود دارد؟ در اینجا چند داده ساختگی وجود دارد: ساختار(لیست(مطالعه = ساختار(c(2L, 2L, 2L, 2L, 2L, 3L, 3L, 3L, 3L, 3L, 1L, 1L, 1L, 1L, 1L), .Label = c(لیو، مارک، اسمیت)، کلاس = عامل)، دارو = ساختار (c(1L، 2L، 3L، 4L، 5L، 1L، 2L، 3L، 4L، 5L، 1L، 2L، 3L، 4L، 5L)، .Label = c(A، B، C، D، E)، کلاس = عامل)، OR = c(1، 1.5، 1.7، 1.8، 2.5، 2.8، 1.1، 1، 2.3، 1.2، 1.8، 1.2، 2.5، 1، 1.8)، ci_lb = ساختار(c(13L، 5L، 4L، 9L، 11L، 12L، 2L، 13L، 10L، 1L، 6L، ، 13 لیتر، 7 لیتر)، .برچسب = c(0.5556، 0.6225، 0.7619، 1.2628، 1.365، 1.4212، 1.5758، 1.6208، 1.7048، 1.7435، 1.9497، 2.353 , NA)، class = factor)، ci_ub = ساختار(c(13L, 2L, 7L, 5L, 10L, 11L, 1L, 13L, 9L, 4L, 8L, 3L, 12L, 13L, 6L), .Label = c(1.5775, 1.635, 1.63 ، 1.8444, 1.8952، 2.0242، 2.1372، 2.1788، 2.8565، 3.0503، 3.2469، 3.3792، NA)، کلاس = عامل))، .Names = c(مطالعه، دارو، OR، ci_lb، ci_ub)، row.names = c(NA، -15L)، کلاس = data.frame) > my_data مطالعه دارو OR ci_lb ci_ub 1 Mark A 1.0 NA NA 2 Mark B 1.5 1.365 1.635 3 Mark C 1.7 1.2628 2.1372 4 Mark D 1.8 1.7048 1.7048 1.79 1.89 3.0503 6 Smith A 2.8 2.3531 3.2469 7 Smith B 1.1 0.6225 1.5775 8 Smith C 1.0 NA NA 9 Smith D 2.3 1.7435 2.8565 10 Smith E 1.24 A 1.211. 1.4212 2.1788 12 Liu B 1.2 0.7619 1.6381 13 Liu C 2.5 1.6208 3.3792 14 Liu D 1.0 NA NA 15 Liu E 1.8 1.5758 1.5758 mydata <-2. my_data[my_data$study==Mark,] my_data_2 <- my_data[my_data$study==Smith,] my_data_3 <- my_data[my_data$study==Liu,] my_data_2$OR <- my_data_2$OR * 1/my_data_2$OR[my_data_2$drug==A] my_data_3$OR <- my_data_3$OR * 1/my_data_3$OR[my_data_3$drug==A] my_data_2$ci_lb <- my_data_2$ci_lb * 1/my_data_2$OR[my_data_2$drug==A] my_data_3$ci_lb <- my_data_3$ci_lb * 1/my_data_3$OR[my_data_3$drug==A] my_data_2$ci_ub <- my_data_2$ci_ub 1/my_data_2$OR[my_data_2$drug==A] my_data_3$ci_ub <- my_data_3$ci_ub * 1/my_data_3$OR[my_data_3$drug==A] my_data_new <- rbind(my_data_2, my_data_3, my_data_3)_ my_data_new my_data_new$OR <- round(my_data_new$OR, 2) my_data_new$ci_lb <- round(my_data_new$ci_lb, 2) my_data_new$ci_ub <- round(my_data_new$ci_ub, 2) > my_data_new ci_OR . NA NA 2 Mark B 1.50 1.36 1.64 3 Mark C 1.70 1.26 2.14 4 Mark D 1.80 1.70 1.90 5 Mark E 2.50 1.95 3.05 6 Smith A 1.00 2.35 3.14 B.203 Smith 0.36 NA NA 9 Smith D 0.82 1.74 2.86 10 Smith E 0.43 0.56 1.84 11 Liu A 1.00 1.42 2.18 12 Liu B 0.67 0.76 1.64 13 Liu3 0.56 1.64 13 Liu A 1.00 0.56 NA NA 15 Liu E 1.00 1.58 2.02
تبدیل نسبت شانس (OR) در زمینه متاآنالیز چند متغیره در R (بسته متافور)
11678
من می خواهم مرجعی پیدا کنم، ترجیحاً رایگان در اینترنت، که در آن بتوانم در مورد توجیه نظری یا عملی استفاده از توزیع های احتمال پارامتری / تحلیلی مطالعه کنم. منظور من از توزیع های پارامتریک، توزیع های نامگذاری شده مانند Normal، Weibull و غیره است.
از کجا می توانم در مورد توجیه استفاده از توزیع های احتمال پارامتریک مطالعه کنم؟
17787
من فقط تعجب می کنم که چه چیزهایی می توانند باعث از بین رفتن برق شوند (برعکس کاهش نویز داده ها برای افزایش قدرت تست). آیا کسی می تواند خلاصه یا ایده ای ارائه دهد که چگونه می توان در مورد مسئله قدرت فکر کرد؟
چه چیزی باعث از دست دادن قدرت در آزمون فرضیه می شود؟
93637
من در حال نوشتن مقاله ای در مورد تأثیرات اعلامیه های M&A بر قیمت سهام هستم. من اکثر الزامات را کاملاً خوب درک می کنم، اما در یک بخش خاص از مقاله گیر کرده ام. من برای هر هدف و خریدار قیمت سهام در محدوده [-170، 10] روز دارم، که در آن روز 0 تاریخ اعلام است. من از [-170، -71] برای محاسبه بازده های غیرعادی در [-10، 10] استفاده می کنم که پنجره رویدادی است که به آن علاقه مند هستم. -11] به این معناست که برای هر شرکت/سهام می توان 4 متغیر ساخت که عبارتند از دوره قیمت سهام = بازده سهام [-70, -11]، سهام-سیگما = نوسانات سهام [-70، -11]، نوسان قیمت بازار = بازده بازار [-70، -11]، و بازار-سیگما = نوسانات بازار [-70، -11]. به دنبال این، من قرار است از این چهار متغیر برای هر دو رگرسیون تک متغیره و چند متغیره برای CAR[K,L] استفاده کنم که در آن [K,L] بسته به تعداد روزهایی که اثر اعلام قابل توجهی پیدا شده است، انتخاب می‌شود. سوال من این است: چرا می خواهم این را در مقاله خود داشته باشم، به معنای واقعی کلمه نمی دانم چرا این موضوع جالب است. هدف از چهار متغیر چیست و چرا می توان از آن برای پسرفت در CAR استفاده کرد؟ من می دانم که این یک سوال کاملا اقتصادی است، اما فکر می کنم این نظریه ماهیت آماری دارد و یک سایت stackexchange اقتصادی وجود ندارد، بنابراین تصمیم گرفتم این سوال را اینجا بپرسم. اگر کسی بتواند کمکی کند، حتی کوچکترین اشاره ای، بسیار سپاسگزار خواهم بود. از هر کمکی که می توانید بکنید متشکرم!
چرا می‌خواهم از داده‌هایم به این شکل استفاده کنم، و با این رگرسیون چه کار باید بکنم؟
62918
من اخیراً مقاله آیا واقعاً مقاوم است؟ (Schmider, E., Ziegler M., Danay, E., Beyer, L. & Bühner M., 2010) نویسندگان مقاله به این نتیجه می رسند که ANOVA در برابر نقض فرض نرمال بودن کاملاً قوی است. با این حال مطالعه بر روی ANOVAهای یک طرفه متمرکز است. می‌خواهم بدانم که آیا این یافته‌ها را می‌توان بر روی آنالیز واریانس اندازه‌گیری‌های مکرر دو طرفه تعمیم داد؟ ارجاع به مقالات بررسی شده بسیار قدردانی می شود! * * * ### مراجع Schmider, E., Ziegler M., Danay, E., Beyer, L. & Bühner M. (2010). آیا واقعا قوی است؟. _روش شناسی، 6 (4)، _ 147 - 151.
استحکام ANOVA دو طرفه در برابر نقض نرمال بودن
52799
تصور کنید که یک عدد 1 را انتخاب کنید زمانی که هر عدد واقعی به همان اندازه محتمل است. پی دی اف چیه؟ آیا این ایده کاربرد شناخته شده ای دارد؟ اسمش چیه؟ می‌توان از یک عدد واقعی تصادفی یکنواخت استفاده کرد. ممکن است در نهایت همیشه یکپارچه شود. ممکن است برای عددی که کاملاً ناشناخته است، پیشینی باشد. این تابع مانند یک تابع دلتا است که با یک عدد متناهی ادغام می شود، اگرچه مقدار کاملاً مشخصی در صفر ندارد. تابع دلتا از هر عددی در صفر بزرگتر است. این تصادفی یکنواخت در (-inf,inf) هیچ جا به خوبی تعریف نمی شود. از هر عدد مثبتی کوچکتر و از صفر بزرگتر خواهد بود. چیست؟
تصادفی یکنواخت در $(-\infty,\infty)$
11679
من یک مطالعه کنترل موردی تو در تو دارم که از آن برای تجزیه و تحلیل استفاده کرده ام. در پایان کارم مجموعه‌ای از متغیرها را استنباط کرده‌ام که بعداً برای طبقه‌بندی موارد جدید از آنها استفاده می‌کنم. یکی از نمونه‌های طبقه‌بندی‌کننده ساده‌ای که من استفاده می‌کنم، یک Bayes ساده‌لوح است که به سادگی یک احتمال را خروجی می‌دهد. بنابراین سوال من اینجاست: آیا می توانم احتمالاتم را منعکس کننده دنیای واقعی کنم؟ در مثال خاص من، وضعیتی که من برای آن آزمایش می‌کنم شیوع 33 درصدی در مطالعه من دارد، اما شیوع آن در جمعیت تنها 10 درصد است. فاکتورهای Bayes به عنوان راهی برای دستیابی به این هدف به من پیشنهاد شده است، اما من کمی مطمئن نیستم که چگونه مشکل را تنظیم کنم. به عنوان مثال، من یک عامل بیز را به عنوان یک منطق بین شیوع واقعی در مقابل مطالعه نتیجه دیدم. با این حال، طبقه‌بندی‌کننده یک رگرسیون لجستیک بود، و در آن حالت عامل بیز فقط به پیش‌بینی‌کننده‌های خطی اضافه شد. فکر می‌کنم مثال آنجا بسیار خاص و شاید روشی نامناسب برای احتمالات یک بیز ساده‌لوح بود. در عوض کاری که من انجام دادم این بود که عامل logit Bayes را به احتمالات ثبت شده اضافه کردم، اما همچنین متقاعد نشده ام که این درست باشد. همچنین فکر می‌کنم راه‌حل ساده‌تر استفاده مستقیم از قضیه بیز است، اما در آنجا مطمئن نیستم که چگونه شیوع مطالعه خود را در مقابل جمعیت نشان دهم. روش زیر کاملاً درست نیست، اما به چیزی که می‌خواهم می‌رسد: p_final = classier_posterior*(population_prev)/(study_prev) باید زمینه‌سازی کنم که از احتمالات برای ایجاد آستانه‌ای برای طبقه‌بندی پایین جریان استفاده می‌کنم.
احتمالات در مطالعات مورد شاهدی
27936
من نزدیک به 50 فایل دارم (هر فایل مربوط به یک بیمار است) با 4 ستون - مقدار شروع کروموزوم. موقعیت stop.pos 3 ستون اول در هر 50 فایل یکسان است و ستون چهارم مقداری است که متفاوت است (یا برای برخی می تواند یکسان باشد). ) برای همه بیماران. اساساً این مقدار با تعداد کپی (تنوع ساختاری در ژنوم) مطابقت دارد. من می خواهم آزمایشی را اعمال کنم (یا اگر می توانید روش دیگری را پیشنهاد دهید) تا مقادیری را که در مقایسه با سایرین انحراف دارند، پیدا کنم. مثال- file1 کروموزوم start.position stop.pos value 1 10 110 4 2 100 200 5 2 500 600 0.5 file2 chromosome start.position stop.pos value 1 10 110 2.5 2 100 200 200 6. 6 0 file start.position stop.pos value 1 10 110 3 2 100 200 5.5 2 500 600 3.5 file4 chromosome start.position stop.pos value 1 10 110 2 2 100 200 0.9 2 500 start.position 600. 10 110 8 2 100 200 4.5 2 500 600 2.5 بنابراین در خروجی، file5 دارای مقدار قابل توجهی (در مقایسه با موقعیت مشابه سایر فایل ها) در ردیف 1، file4 دارای ارزش قابل توجهی در ردیف 2 و file1 و file2 دارای ارزش قابل توجهی در ردیف 3 است. من 1 راه حل در ذهنم دارم - از هر فایل یک ردیف انتخاب کنید و میانگین مقادیر را بگیرید. سپس این میانگین را با هر فایل مقایسه کنید و اگر در مقایسه با میانگین قابل توجه است، موقعیت را برگردانید. اما من فکر می کنم باید راه حل بهتری برای این وجود داشته باشد. آیا می توانید هر آزمایش یا روش دیگری را که برای تکمیل این کار استفاده کنید، پیشنهاد دهید. پیشاپیش ممنون ویرایش: پس از خواندن نظر جوئل. بله سوال خاصی در ذهنم هست همانطور که اشاره کردم این فایل ها مربوط به هر بیمار است، بنابراین من در تلاشم تا دریابم که آیا یک بیمار در موقعیت خاصی (یعنی ردیف) به میزان قابل توجهی افزایش یا کاهش یافته است. خوب، اکنون می توانیم فقط در مورد 1 ردیف صحبت کنیم. فقط 1 موقعیت (1 ردیف) را در نظر بگیرید، مقادیر را بگیرید (در این مورد، برای ردیف اول ما 5 مقدار خواهیم داشت همانطور که پنج فایل داریم) و از این مقادیر بررسی کنید که کدام مقدار به طور قابل توجهی از مقدار دیگر منحرف می شود. بنابراین اگر می توانید برای 1 ردیف راه حل به من پیشنهاد دهید، من می توانم آن را برای تمام ردیف ها یک به یک انجام دهم. لطفا اگر مشخص نیست به من اطلاع دهید.
آزمون آماری برای یافتن موقعیت های معنی دار دارای مقادیر انحراف
52793
پروژه من شناسایی عوامل موثر بر موتور سیکلت برای سفر خانه به دفتر است. برخی از ویژگی ها مانند جنسیت، سن، وضعیت تأهل، مدرک تحصیلی، نوع شغل، بخش کاری، خیر وجود دارد. اعضای خانواده، اعضای شاغل در خانوار، درآمد ماهانه، کل درآمد خانوار، شماره. موتور سیکلت، اعضای دارای گواهینامه رانندگی موتور دوچرخه (D.L)، شماره. از خودروها، اعضای دارای ماشین D.L، آیا D.L برای موتور سیکلت دارید، آیا D.L برای ماشین دارید، نوع خانه، وضعیت زندگی در خانه، آیا از خانه کار می کنید، آیا از اینترنت برای مقاصد اداری استفاده می کنید، نه. روزهایی که از خانه کار می‌کنید، هدف سفر، زمان‌بندی دفتر یعنی زمان شروع و پایان، وسیله نقلیه برای سفر فوق، فاصله خانه تا دفتر، زمان از خانه به دفتر و دفتر به خانه، دلیل ترجیح دادن به وسیله نقلیه شخصی، احتمال دارد کرایه (اگر با اتوبوس یا اتوموبیل مشترک می روید)، هر کودکی را در حین رفتن به دفتر به مدرسه رها کنید، آیا مدرسه در راه شما به دفتر می آید، همسر فرد شاغل است، آیا همسرتان را ترک می کنید؟ به دفتر او، اتوبوس شهری به منزل شما قابل دسترسی است، مسافت پیاده روی از خانه تا ایستگاه اتوبوس، زمان انتظار در ایستگاه اتوبوس... و برخی از این سوالات به یکدیگر مربوط می شوند، مانند اینکه همسر کار می کند؟ اگر نه، او نباید سوال بعدی را پر کند. همچنین دوست دارم هر بچه ای را به مدرسه رها کنم.. در سوال مربوطه باید از چه استفاده کنم... - (یا) 9999...همچنین در مورد متغیرهای وابسته و مستقل و طبقه بندی کاملاً گیج شده ام. ... همچنین مدلی که برای این پروژه استفاده می کنیم چه لجستیک لجستیک باینری (یا) چند جمله ای ...
عوامل وابسته و مستقل و مقوله ای برای پروژه زیر چیست؟
64364
طبق قضیه بیز، $P(y|\theta)P(\theta) = P(\theta|y)P(y)$. اما با توجه به متن اقتصاد سنجی من، می گوید که $P(\theta|y) \propto P(y|\theta)P(\theta)$. چرا اینجوریه؟ نمی دانم چرا $P(y)$ نادیده گرفته می شود.
چرا چگالی خلفی متناسب با تابع احتمال چگالی قبلی است؟
93639
حدس می‌زنم این بدان معناست که حذف برخی از متغیرها در یک بازه زمانی خاص، مثلاً $(x_1، x_2، x_3، x_4، x_5) \to (x_1، x_5)$ در مدل AR(4). درست است؟ یا این به معنای حذف خودهمبستگی با تنظیم متغیرهای همبستگی خودکار با روش خاصی است؟ پیشاپیش متشکرم
سری های فیلتر شده AR(p) به چه معناست؟
11677
من در درک برآوردگرهای مختلف که می توانند در ارزیابی تاثیر استفاده شوند مشکل دارم. من می‌دانم که تخمین‌گر قصد درمان (ITT) تفاوت‌های بین افراد واجد شرایط بدون برنامه و افراد واجد شرایط را با برنامه، بدون توجه به انطباق، مقایسه می‌کند. با این حال، من فکر کردم که میانگین اثر درمانی (ATE) نیز همین مورد را اندازه گیری می کند. با این حال، به نظر می رسد که ATE انطباق را در نظر می گیرد. بنابراین، نتایج را بین افراد واجد شرایط و شروع درمان با افرادی که واجد شرایط نیستند مقایسه می کند. آیا این درست است؟
تفاوت بین ITT و ATE چیست؟
93634
من در حال مطالعه در مورد شبکه های عصبی کانولوشن هستم. همانطور که فهمیدم نقشه ویژگی مجموعه ای از نورون ها است (یعنی مانند یک لایه پنهان واحد در ANN سنتی). پس چرا نقشه های ویژگی با (i,j) نمایه می شوند؟ آیا یک نقشه ویژگی نباید تنها با یک شاخص نمایه شود زیرا فقط مجموعه ای از نورون ها است؟ در تصویر زیر لایه C1 دارای 6 نقشه ویژگی است. تصویر می گوید که یک نقشه ویژگی 28 در 28 است. اما چرا؟! چرا دو بعدی؟! ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/V79IH.png)
چرا نقشه های ویژگی توسط دو شاخص نمایه می شوند؟
27933
من با خطای خطا در گره Y1 مواجه می‌شوم[5] گره مشاهده‌شده با والدین مشاهده‌نشده مغایرت دارد در هنگام شروع آزمایش مدل اشکالات زیر در JAGS که از R قابل دسترسی است: ظاهرا «Y1[5] = 2» باعث ایجاد مشکل در «dcat» می‌شود. اما به نظر نمی رسد دلیل آن را بفهمم. هر گونه کمکی قدردانی می کنم. ### DATA d1 <- ماتریس(c(1,1,1,1,2,2,2,3,3,3,3,4,4,5,5,5, 0,0,0 ,0,0,0,1,0,0,1,1,1,1,1,0,1,1),ncol=2) d2 <- ماتریس(c(1,1,1,2,2,3,3,3,4,4,5,5,5, 0,0,0,0,0,0,0,1,1,1, 1،1،1)،ncol=2) d3 <- ماتریس(c(1،1،1،1،1،2،2،2،2،3،3،3، 0,0,0,0,0,0,0,1,1,1,1,1),ncol=2) bugdata <- list( N1 = 17, N2 = 13, N3 = 12, ncat1 = 4, ncat2 = 5، ncat3 = 3، Y1 = d1[,1]، Y2 = d2[,1]، Y3 = d3[,1]، D1 = d1[,2], D2 = d2[,2], D3 = d3[,2] ) ### INITS buginit <- list ( لیست ( ta=1, tb=1, a=0,5, b=2, al2=0.1، alpha1 = 0.5، alpha2 = 0.5، alpha3 = 0.5، beta1 = 2، beta2 = 2، beta3 = 2, theta1_0=c(-.5,0,1), theta2_0=c(-.5,0,1,2), theta3_0=c(-.5,0) ) ) ### مدل مدل{ # SET d1 برای (i در 1:N1) { برای (j در 1:(ncat1-1)) { probit(Q1[i,j]) <- (theta1[j] - beta1*D1[i])/exp(al2 + alpha1*D1[i]) } p1[i,1] <- Q1[i,1] برای (r در 2:(ncat1-1)) { p1[i ,r] <- Q1[i,r] - Q1[i,(r-1)] } p1[i,ncat1] <- 1 - Q1[i,(ncat1-1)] Y1[i] ~ dcat(p1[i,1:ncat1]) } # SET d2 برای (i در 1:N2) { برای (j در 1:(ncat2-1)) { probit(Q2[i,j] ) <- (theta2[j] - beta2*D2[i])/exp(al2 + alpha2*D2[i]) } p2[i,ncat2] <- 1 - Q2[i,(ncat2-1)] p2[i,1] <- Q2[i,1] برای (r در 2:(ncat2-1)) { p2[i,r] <- Q2 [i,r] - Q2[i,(r-1)] } Y2[i] ~ dcat(p2[i,1:ncat2]) } # SET d3 برای (i در 1:N3) { for (j در 1:(ncat3-1)) { probit(Q3[i,j]) <- (theta3[j] - beta3*D3[i])/exp(al2 + alpha3*D3 [i]) } p3[i,ncat3] <- 1 - Q3[i,(ncat3-1)] p3[i,1] <- Q3[i,1] برای (r در 2:(ncat3-1)) { p3[i,r] <- Q3[i,r] - Q3[i,(r-1)] } Y3[i] ~ dcat(p3[i,1 :ncat3]) } # PRIORS... برای (t در 1:3) {theta1_0[t] ~ dnorm(0, 0.1)} theta1[1:3] <- مرتب سازی(theta1_0) برای (t در 1:4) {theta2_0[t] ~ dnorm(0, 0.1)} theta2[1:4] <- مرتب سازی(theta2_0) برای (t در 1:2) {theta3_0[ t] ~ dnorm(0، 0.1)} theta3[1:2] <- مرتب‌سازی (theta3_0) alpha1 ~ dnorm(a,ta) T(-10,10) alpha2 ~ dnorm(a,ta) T(-10,10) alpha3 ~ dnorm(a,ta) T(-10,10) beta1~ dnorm(b, tb) beta2 ~ dnorm(b,tb) beta3 ~ dnorm(b,tb) al2 ~ dnorm(0.0، 0.1) T(-10،10) a ~ dnorm(0.0، 0.1) T(-10،10) b ~ dnorm(0.0، 0.1) ta ~ dgamma(0.01، 0.01) tb ~ dgamma(0.0 0.01) }
دستور probit در JAGS
99370
در یک مدل مختلط خطی، کوواریانس بین داده ها را با اضافه کردن یک برش تصادفی در هر خوشه در نظر می گیرید. به عنوان مثال، شما تأثیر یک کمپین مواد مخدر را در طول زمان بر دانش‌آموزان اندازه‌گیری می‌کنید و یک رهگیری تصادفی در هر مدرسه و یک رهگیری تصادفی برای هر دانش‌آموز در مدرسه اضافه می‌کنید: $Y_{ijk}=\beta_{0}+\beta_{1} *Time+b_k+b_{jk}+\epsilon_{ijk}$ با Y متغیر نتیجه چه مقدار از داروها می داند. ما فرض می کنیم که رهگیری های تصادفی هستند معمولاً با میانگین و واریانس توزیع می شود: $b_k \sim N(0, \sigma_3^2)$, $b_{jk} \sim N(0, \sigma_2^2)$ و $\epsilon_{ijk} \sim N( 0, \sigma_1^2)$ با این واریانس‌های رهگیری تصادفی می‌توانیم واریانس اثر درمان را در سطوح مختلف محاسبه کنیم، برای مثال در سطح مدرسه اگر من بخواهم مدل کنم که کمپین در طول زمان در هر مدرسه یک شیب تصادفی را اضافه نمی کند: $Y_{ijk}=\beta_{0}+\beta_{1}*Time+b_؟ {0k}+b_{1k}*Time+b_{jk}+\epsilon_{ijk}$ آیا در این مدل تغییر $b_{0}$ هنوز معنادار است؟ درست است که تغییرات بین مدارس مختلف در طول زمان افزایش می‌یابد، زیرا شیب‌های تصادفی مدارس را بیشتر از هم دور می‌کند؟ و به عنوان سوال دوم، بدون شیب تصادفی ما همچنین می دانیم که کوواریانس بین دانش آموزان در همان مدرسه به صورت زیر داده می شود: $Cov_{school}=\frac{sigma_3^2}{sigma_1^2+sigma_2^2+sigma_3^2 }$ اگر یک رهگیری تصادفی گنجانده شود، این کوواریانس چیست؟ پیشاپیش از شما متشکرم به روز رسانی: شامل نموداری از داده هایی است که با آنها کار می کنم، سطح 1 8 اندازه گیری تکراری در هر موقعیت اندازه گیری، سطح 2 موارد اندازه گیری تفاوت، سطح 3 بیماران هستند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MKt8e.jpg)
مدل‌های چند سطحی شامل شیب‌های تصادفی: نحوه محاسبه واریانس
52794
من روی یک مقاله تحقیقاتی تجاری کار می کنم. فرضیه این است که نماینده فروش بر تصمیمات مشتری تأثیر می گذارد. متغیرهای مستقل از نمایندگان فروش تشکیل شده است: دانش، سرسختی، دوستی و غیره. متغیر وابسته تمایل مشتری به خرید است. در کل، من 12 سوال دارم که در مقیاس لیکرت از 1 (اصلا مهم نیست) تا 7 (بسیار مهم) پرسیدم. در این مرحله، من تمام ابزارها و انحرافات استاندارد را محاسبه کرده‌ام، اما مطمئن نیستم که چگونه می‌توانم ارزیابی کنم که آیا کل مجموعه متغیرهای مستقل فرضیه من را مبنی بر اینکه ویژگی‌های نماینده بر خرید مشتری تأثیر می‌گذارد را ثابت می‌کند یا خیر. من مقداری در مورد رگرسیون، ANOVA و مجذور خی مطالعه کرده‌ام، اما واقعاً می‌خواهم بدانم چگونه می‌توانم آنها را در این موقعیت به کار ببرم. علاوه بر این، می خواهم بدانم اگر نمره ترکیبی زیر گروه ها را محاسبه کنم، یعنی مردان در مقابل زنان، چگونه می توانم آنها را از نظر آماری مقایسه کنم؟ با تشکر برای هر و همه پیشنهادات!
چگونه با داده های مقیاس لیکرت ۷ درجه ای معناداری را به صورت آماری تجزیه و تحلیل کنیم؟
17788
_(با عرض پوزش برای جداول ASCII، Stackexchange به جداول HTML اجازه نمی دهد و از آنجایی که من قرار نیست به یک تصویر لینک بدهم، این تنها راهی است که برای نشان دادن داده ها می دانم)_ در حال یادگیری ANOVA F-testing هستم. و به طور تصادفی به این مشکل برخورد کرد: مجموعه داده های زیر در مورد چهار روش تدریس و نمرات دانش آموزانی که تحت هر روش تدریس قرار گرفتند وجود دارد: روش 1 روش 2 روش. 3 روش 4 ---------------------------------------- 65 75 59 94 87 69 78 89 73 83 78 80 79 81 62 88 81 72 83 69 79 76 90 ------------------------------------$\bar{x} = 75.67$78.43$70.83$87.75$ $s = 8.17$7.11$9.58$$5.80$ که در آن $\bar{x}$ میانگین تمام نمرات برای هر روش تدریس است و $s$ انحراف استاندارد برای هر روش است. پس از انجام یک ANOVA، جدول ANOVA زیر را استخراج می کنم: منبع | درجه آزادی | اس اس | ام اس | F | ------------------------------------------------ ----------- درمان | 3 | 712.59 | 237.53 | 3.77 | خطا | 19 | 1196.63 | 62.98 | - | مجموع | 22 | 1909.22 | - | - | حال سوال این است: یک سطح $\alpha = 0.05$ را آزمایش کنید فرضیه صفر این است که هیچ تفاوتی در میانگین پیشرفت برای چهار تکنیک آموزشی وجود ندارد. بنابراین برای بیان مجدد: $H_0$: تکنیک تدریس _does_ تاثیری بر میانگین پیشرفت دانش آموزان دارد. یک جدول توزیع F به 3.1274 دلار می رسد مرحله بعدی چیزی است که من نمی فهمم. می‌توان ادعا کرد که تکنیک تدریس بر میانگین پیشرفت دانش‌آموزان تأثیر دارد (با کمتر از 5٪ احتمال اشتباه بودن) مقدار p مرتبط: $p = P(X>3.77) = 0.0281$ و در واقع , p < $0.05$ (بنابراین رد $H_0$) اما اکنون این $0.0281$ از کجاست؟ به نظر می رسد احتمال X> 3.77 باشد. اگر اشتباه نکنم، در این مورد $X ~ F_{3,19} = 3.1274$ (همانطور که قبلا محاسبه شد) و بنابراین مقدار p باید احتمال این باشد که 3.1274 بزرگتر از 3.77 باشد. حال چگونه 3.1274 می تواند بزرگتر از 3.77 باشد؟
چگونه P(X > F) را در ANOVA F-test پیدا کنیم؟
27939
برای تکالیف یک ورودی 20 بعدی $x \in \mathbb{R}^{20}$ به من داده شده است که بسیاری از آنها مشکوک به بی ربط بودن هستند. من سعی کردم از تنظیم کمند L1-norm استفاده کنم تا بفهمم کدام ابعاد در خروجی نقش دارند: $$L(\beta) = \sum_{i=1}^n (y_i - \phi(x_i)^T \cdot \beta)^ 2 + \lambda \sum_{j = 1}^k l(\beta_j)$$ لطفاً توجه داشته باشید که به جای $|\beta_j|$ از تابع دیگری استفاده شده است که در آن $$l(\beta_j) = \شروع{موارد} |\beta_j| - \varepsilon/2 & \textbf{if } |\beta_j| \geq \varepsilon\\ |\beta_j^2| / (2\varepsilon) & \textbf{if } |\beta_j| < \varepsilon\\ \end{cases}$$ با گرادیان حاصل: $$\frac{\partial}{\partial\beta} L(\beta) = -2 \sum_{i=1}^n - \ phi(x_i) \cdot (y_i - \phi(x_i)^T \cdot \beta) + \frac{\partial}{\partial\beta_m}\sum_{j=1}^kl(\beta_j)$$ $$ \frac{\partial}{\partial\beta_m}\sum_{j=1}^kl (\beta_j)= \begin{cases} 0&m\gt k\;,\\ sign(\beta_m)&m\le k\;،|\beta_m|\ge\epsilon\;،\\ sign(\beta_m)/\epsilon&m\le k\;,|\beta_m|\lt\epsilon\;. \end{cases} $$ برای یافتن حداقل، من شیب نزولی را روی تابع کمند متمایز اعمال کردم و پس از 6 تا 10 تکرار، یک بردار $\beta$ دریافت کردم. با این حال، نمی دانم که چگونه این به من کمک می کند تا ابعاد نامربوط را کشف کنم. چگونه باید ادامه دهم؟
تابع مدل برای کشف ابعاد نامربوط با تنظیم L1
62919
@Dmitrij Celov پاسخی به این سوال ارسال کرد که چگونه انتخاب زیر مجموعه رگرسیون لجستیک را انجام دهیم و گفت که این مقاله مرجع خوبی بود. می خواستم بدانم آیا کسی می داند که آیا هیچ یک از این نویسندگان یک بسته R را بر اساس آن ایجاد کرده اند یا خیر.
بهترین زیر مجموعه با رگرسیون لجستیک در R؟
64360
من تازه شروع به یادگیری این چیزها کرده ام، و واقعاً از هر کمکی در این زمینه سپاسگزارم. 4 گره در یک شبکه وجود دارد (مثلاً $A,B,C,D$) و هر گره احتمال خرابی خاصی دارد، یعنی ${\rm Pr}(F_A)$, ${\rm Pr}(F_B)$ , ${\rm Pr}(F_C)$, ${\rm Pr}(F_D)$. سپس، من یک ماتریس همبستگی 4 دلار \ برابر 4 دلار دارم که حاوی ضرایب همبستگی برای هر جفت گره است. **چگونه می توانم ${\rm Pr}(F_A|F_B)$ یا ${\rm Pr}(F_A| F_B، F_C، F_D)$ را محاسبه کنم؟**
چگونه ${\rm Pr}(F_A|F_B)$ یا ${\rm Pr}(F_A| F_B، F_C، F_D)$ را در یک شبکه چهار گره محاسبه کنیم؟
16788
** بازپخت شبیه‌سازی شده** روشی برای شبیه‌سازی است که در آن هر موجودی در سیستم در برخی ویژگی‌ها مانند مکان به دلیل افزایش و کاهش گرما (انرژی) کل سیستم دچار اختلال می‌شود. سوال من در مورد کاربرد روش بازپخت شبیه سازی شده برای شبیه سازی شرطی سازی است. به عنوان مثال، مراحل شرطی سازی یک شبیه سازی (به عنوان مثال به فرآیند نقطه شرطی سازی) به داده های نمونه موجود چیست؟
مراحل آنیل شبیه سازی شده (SA) چیست؟
80516
ما تازه شروع به یادگیری نظریه مجانبی کردیم و برای اثبات قضیه حد مرکزی لیندبرگ-لوی، قانون ضعیف اعداد بزرگ و غیره، RV ها را مقیاس و استاندارد می کنیم تا زمانی که اندازه نمونه T به $\ گرایش پیدا کند، توزیع نرمال استانداردی داشته باشد. گران قیمت ریاضی پشت آن ساده است، اما آیا کسی می‌تواند شهودی سریع یا مثالی از معنای «مقیاس‌سازی» یک RV، مثلاً با $T^{1/2}$ ارائه دهد؟
مقیاس بندی متغیرهای تصادفی به چه معناست؟
16780
**شکل A** یک فرآیند نقطه ای (شیء=مستطیل) را با علامت هایی به عنوان طول و عرض مستطیل نشان می دهد. **شکل B** تحقق فرآیند نقطه ای را در رابطه با اطلاعات استخراج شده از داده های ورودی نشان می دهد. **سوال** این است: چگونه می توان (با استفاده از پیش شرطی یا پس شرطی سازی) تحقق به نقاط داده موجود را با علامت شرط کرد؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8koYz.jpg) **توضیحات بیشتر:** شکل **E** فرآیند نقطه را نشان می دهد که دارای مکان، و علامت های عرض و ارتفاع اضافه شده است. . شکل **A** فرآیند نقطه ما است. شکل **B** علائم را به عنوان متغیرهای عرض و ارتفاع اضافه کرد. شکل **C** درک ما از فرآیند نقطه با استفاده از اطلاعات استخراج شده از شکل **A** است. شکل **D** فرآیند نقطه مشخص شده نهایی است، یک تحقق. ما به دنبال روشی هستیم تا این تحقق را به شکل **B** مشروط کنیم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/TEghN.jpg)
چگونه یک فرآیند نقطه‌ای را به داده‌های نمونه‌گیری واقعی شرط کنیم؟
99371
من اخیراً به _مدل سازی تشخیص شناختی_ علاقه مند شدم، که پاسخ دهندگان را بر اساس پاسخ هایشان و یک رابطه فرضی بین مهارت ها و موارد (Q- یا Transfer-Matrix) طبقه بندی می کند. من نگاهی به https://pslcdatashop.web.cmu.edu/ انداختم اما مجموعه داده های آنجا بسیار بزرگ هستند. آیا کسی پیشنهادی دارد که بتوانم _سوابق داده های آزمایشی با اندازه معقول را که قبلاً Q-Matrix مشخص شده است پیدا کنم؟
مجموعه داده ها برای کاوش مدل سازی تشخیص شناختی
17781
برای مشکل کمند $\min_\beta (Y-X\beta)^T(Y-X\beta)$ طوری که $\|\beta\|_1 \leq t$. من اغلب نتیجه آستانه‌گذاری نرم را می‌بینم $$ \beta_j^{\text{lasso}}= \mathrm{sgn}(\beta^{\text{LS}}_j)(|\beta_j^{\text{LS} }|-\gamma)^+ $$ برای حالت متعارف $X$. ادعا می شود که راه حل را می توان به راحتی نشان داد که چنین است، اما من هرگز راه حل کارآمدی ندیده ام. کسی یکی را دیده یا شاید اشتقاق را انجام داده باشد؟
استخراج محلول کمند شکل بسته
99376
![نقشه احتمال باقیمانده های استاندارد شده.](http://i.stack.imgur.com/gVwaj.png) از منوی اصلی به Stat می روم سپس Regression -> Regression... اگرچه تقریباً همه چیزهایی را که نمی توانم ترسیم کنم انتخاب کرده ام. اطلاعات اضافی (p-value، میانگین، N، و غیره) در بالا در دایره. من از Minitab 16.2.0 استفاده می کنم.
چگونه می توانم این مقدار P را به نمودار احتمال عادی در Minitab اضافه کنم؟
45770
فرض کنید $U، W، V، S$ چهار متغیر تصادفی عادی مستقل با میانگین $0$ و واریانس $1$ هستند. اجازه دهید $X=W+U$، $Y=2W+S$، $Z=3W+V$. $f(X، Y، Z)$ چیست؟ با تشکر
چگونه چگالی مشترک 3 متغیر نرمال را پیدا کنیم؟
45778
من در درک طرح زیر (برگرفته از وبلاگ ادوین چن) مشکل دارم. * محور x** قرار است نشان دهنده چیست؟ آیا رنگ نباید یک متغیر دسته بندی باشد؟ آیا محور**** باید روی خط واقعی برای مدل urn Polya باشد؟ * آیا قرار است تغییرات قابل توجهی را در بین اجراها برای همان آلفا مشاهده کنیم؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7G5hD.png)
آشنایی با مدل urn Polya
80519
استاد ما همچنان در اسلایدهای خود می نویسد که وقتی مدل های مختلف ARIMA را روی سری های زمانی خود آزمایش می کنید، همیشه باید T را ثابت نگه دارید. من فرض می‌کنم که او در مورد تطبیق مدل شما با استفاده از همان تعداد مشاهدات صحبت می‌کند. اگر مدلی با تاخیر بیشتر را امتحان کنید، یک مشاهده را برای تطبیق داده ها از دست می دهید. آیا این درست است؟ به همین دلیل است که می نویسد نمونه شما را محدود کنید؟ ما 214 مشاهده داریم، آیا مثلاً برای اینکه در سمت امن باشم فقط از 205 مشاهدات استفاده کنم؟ و چگونه Eviews می داند که همیشه از همان تعداد مشاهدات استفاده می کند؟ Ref screenshot: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/93Zjo.png) پیشاپیش متشکرم.
تعداد مشاهدات مورد استفاده برای مدلسازی ARIMA
80517
برخی از نویسندگان به عنوان مثال هانتر و همکاران (1982) پیشنهاد می‌کنند که باید همبستگی‌های نمونه را برای خطای اندازه‌گیری تصحیح کنیم. به نظر می‌رسد زمانی که ما به فراتحلیل همبستگی‌های نمونه در یک دیدگاه فرا تحلیلی متوسل می‌شویم، خطای اندازه‌گیری نیازی به اصلاح ندارد. ، خطای اندازه گیری (در اینجا سوگیری ساختاری است) تأثیر کمی بر واریانس خطای نمونه دارد.
آیا همیشه لازم است که همبستگی های نمونه برای یک متاآنالیز اصلاح شود؟
80514
من به دنبال انواع مدل های رگرسیون برای چنین داده هایی هستم که در آنها متغیر وابسته همیشه با متغیرهای مستقل کاهش می یابد. این دو مورد، که من می‌دانم و استفاده کرده‌ام، عبارتند از Y = C + C_a A + C_b B و Y = C + C_a A + C_b B + C_a2 A^2 + C_b2 B^2 + C_ab A B دومی بهترین‌ها را به من می‌دهد. تا اینجا مناسب است من میخواهم موارد دیگر را هم امتحان کنم اما نمیدانم. لطفا چندتا پیشنهاد بدید با تشکر
بهترین مدل های رگرسیون ممکن
17782
ما اخیراً مدلی را با تابع درستنمایی به شکل $$\Pr(d_i|\omega,t_i)=(1-d_i)+(2d_i-1)\cos^2(\omega t_i)،$$ مورد مطالعه قرار دادیم. d_i\in\{0,1\}$، $\omega$ یک پارامتر تخمینی است و $t_i$ توسط آزمایشگر تعیین می‌شود. این مجموعه ای از آزمایشات برنولی مستقل اما غیر یکسان توزیع شده است (فکر کنید: تلاش برای تخمین سوگیری متغیر با زمان یک سکه). از آنجایی که این یک مدل ساده یک پارامتر تخمینی، یک مدل پارامتر طراحی بود، اساساً می‌توانیم از یک رویکرد اصول اولیه برای تئوری و محاسبات استفاده کنیم (مقاله اینجاست: http://arxiv.org/abs/1110.3067). اکنون که قصد داریم این را به پارامترهای چندگانه برآورد و طراحی تعمیم دهیم، واقعاً می‌خواهم مطمئن شوم که کارآمدترین کار ممکن را انجام می‌دهیم. من کمی جستجو کردم اما نتوانستم چیزی در ادبیات مدل‌های آماری پیدا کنم که به پارامتر طراحی به طور دوره‌ای متغیر $t$ بستگی دارد. آیا کسی قبلاً چنین مدلی را دیده است که مطالعه شده باشد؟
تخمین پارامترها در یک مدل با پارامتر طراحی دوره ای
81166
من یک مجموعه داده متشکل از 166 مشاهده در 24 متغیر دارم (a1، a2، a3، a4، b1، ...، b4، ...، f4). پاسخ ها در مقیاس 6 نقطه ای از 1 تا 6 ساخته شده اند: d <- read.table(http://pastebin.com/raw.php?i=m1ZJuKLH) str(d) ## 'data.frame' : 166 obs. از 24 متغیر: ## $ a1: int 7 7 7 1 1 7 7 7 7 1 ... ## $ a2: int 7 7 4 7 5 5 1 7 7 4 ... ## $ a3: int 7 7 5 1 7 7 3 7 1 ... ## $ a4: int 7 7 6 7 1 7 1 7 7 1 ... ## $ b1: int 1 2 5 7 1 4 1 7 4 2 ... ## [...] ## $ f4: int 6 6 4 1 7 7 7 7 7 1 .. متغیرهایی که حرف مشترک دارند (یعنی همه «a»، همه «b»، ...، همه «f») از یک نوع هستند. من می خواهم آزمایش کنم که آیا عوامل پنهان پشت انواع متغیرها با یکدیگر همبستگی دارند (یا اینکه می توانید همبستگی را روی 0 تنظیم کنید). یک پیچیدگی دیگر این است که متغیرهای پنهان «c» تا «f» یک متغیر پنهان دیگر را به اشتراک می‌گذارند (که «c.to.f» نامیده می‌شود) و من فقط می‌خواهم همبستگی بین «a»، «b» و «c» را آزمایش کنم. به.f`. من می خواهم یک تحلیل عاملی تاییدی (که اساسا یک مدل معادلات ساختاری است) در آزمایش R اجرا کنم. حداقل دو بسته بالغ برای انجام این کار «sem» و «openMX» وجود دارد. ** من علاقه مند به نظرات / کدی هستم که در مورد کدام بسته می توان چنین مدلی را مشخص کرد. ** * * * * ویرایش: من می خواهم پاسخی را بپذیرم که شامل نمونه کد باشد.
چگونه می توان تجزیه و تحلیل کارخانه تاییدی ساده / SEM را در R انجام داد؟
49293
من می خواهم مدل های طبقه بندی مختلف مانند جنگل تصادفی، درخت، knn و غیره را بررسی کنم. من از برخی از مجموعه داده های علامت گذاری محک استفاده کردم اما اکنون باید مجموعه داده های خود را با یک متغیر پاسخ باینری شبیه سازی کنم.
چگونه داده های مصنوعی را با یک متغیر پاسخ باینری ایجاد کنیم؟