_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
89593
|
من تازه وارد شبکه های عصبی هستم و سعی می کنم RBM را پیاده سازی کنم. من در مقدار اولیه بایاس لایه قابل مشاهده گیر کرده ام. آیا قرار است به یک عدد تصادفی مقداردهی اولیه شود یا توزیع احتمالی وجود دارد که باید توسط آن مقداردهی اولیه شود. در پایتون دارم می بینم: > vbias = theano.shared(value =numpy.zeros(n_visible, > dtype = theano.config.floatX), name='vbias') اما نمی دانم اینجا در اینجا چه اتفاقی می افتد خط
|
نحوه راهاندازی گره بایاس در ماشین بولتزمن محدود
|
94433
|
من تاس $n$ با طرف $m$ دارم. تاس $i^{th}$ مقدار $0 \leq x_i \leq m-1$ را با احتمال $0 \leq D_i(x_i) \leq 1$ نشان خواهد داد. احتمال اینکه مجموع تاس ها برابر $\alpha$ باشد چقدر است آیا تقریبی برای $P(\alpha)$ وجود دارد؟
|
مجموع چندین تاس بارگذاری شده
|
72953
|
من روی پروژه نهایی خود کار می کنم و این یک الگوریتم QUEST است و از آزمون خی دو استفاده می کند. من مشکلی دارم که مقدار مورد انتظار = 0 است. 1. چه کاری باید انجام دهم؟ 2. برای آزمون کای اسکوئر یا الگوریتم QUEST چه معنایی دارد؟
|
مقدار مورد انتظار برابر با صفر در آزمون Chi-square ($\chi^2$) است
|
48902
|
این ممکن است برای این انجمن بسیار ساده باشد - احتمالاً یک سؤال آماری بسیار اساسی است که معمولاً در تحقیقات زیست پزشکی یافت می شود. اما از آنجایی که دانشمندان اغلب درک خوبی از آمار ندارند، اگر بتوانم نظرات آماردانان خبره را در این انجمن بشنوم و کمی آموزش ببینم، بسیار سپاسگزار خواهم بود. من می خواهم آزمایش کنم که آیا درمان X بر پارامتر P در یک گروه نمونه از افراد تأثیر می گذارد یا خیر. طرح زوجی است: هر آزمودنی بدون درمان (کنترل منفی) و با درمان X (ترتیب تصادفی شده) آزمایش میشود. برای تجزیه و تحلیل چنین داده هایی، آزمون t زوجی واضح است. با این حال، من یک گروه کنترل مثبت نیز دارم - که یک گروه مستقل جداگانه از افراد با سطح ذاتا متفاوت P است، گروهی که در صورت موثر بودن درمان X انتظار آن را داریم. بنابراین در حال حاضر من سه گروه اندازه گیری دارم - دو گروه جفت شده و یکی غیر جفت شده است. برای سه گروه، من باید از ANOVA یک طرفه استفاده کنم. با این حال، این سه گروه را مستقل در نظر می گیرد. چگونه می توانم آزمایش کنم که آیا تفاوت میانگین بین این سه گروه وجود دارد؟ از کدام تست استفاده کنیم؟ آیا همیشه مناسب است که نمونه های جفت شده به عنوان جفت نشده در نظر گرفته شوند؟ من می دانم که این منجر به کاهش قدرت می شود - آیا این تنها مشکل این رویکرد است و آیا هنوز هم درست است؟ متشکرم
|
آیا می توان نمونه های جفت شده را به عنوان جفت نشده برای ANOVA یک طرفه در نظر گرفت
|
64818
|
149 دانش آموز هر کدام در دو آزمون شرکت کردند. فرضیه صفر من این است که ضریب همبستگی لحظه-محصول 1 است، زیرا هر آزمون باید نشانگر دقیقی از دستیابی به جریان باشد. PMCC واقعی برای داده ها 0.912152856 است. لطفاً نشان دهید (و توضیح دهید) که چگونه می توان آزمایش کرد که آیا این نتیجه قابل توجهی است؟
|
آزمون اهمیت برای PMCC
|
89599
|
من یک رگرسیون لجستیک را با استفاده از چندین متغیر پیشبینیکننده (آنها را p1 p2 p3 p4 مینامیم) برای پیشبینی یک متغیر وابسته باینری (آن را y) اجرا کردهام. P1 یک پیش بینی کننده قابل توجه y در رگرسیون است. با این حال، آزمون Mann-Whitney از p1 تفاوت معنی داری را بر اساس دسته y نشان نمی دهد. آیا داشتن یک پیشبینیکننده رگرسیون لجستیک که تفاوت قابلتوجهی بر اساس گروهها ندارد، طبیعی است یا بهطور بالقوه چیزی در مورد دادهها وجود دارد؟
|
پیش بینی کننده در رگرسیون لجستیک معنی دار است، اما در من ویتنی نه
|
89597
|
کدام روش را برای تخمین یک رگرسیون تک متغیره پیشنهاد می کنید ($y = a + bx + e$) که شامل مقدار زیادی $0$ در متغیر وابسته است (در واقع نوعی داده سانسور شده). تجربه من به استفاده از **مدل توبیت** اشاره دارد. اما مشکلی در ارتباط با توزیع نرمال و همسویی بودن عبارت خطا وجود دارد. در مورد من، من مشکوک به نقض این مفروضات اساسی برای استفاده از Tobit هستم. به ویژه رفتار $y$ پنهان زیر صفر قابل پیش بینی نیست. آیا روشی (ادبیات) برای رسیدگی به این نوع مشکلات می شناسید؟
|
روش دیگری برای مدیریت توبیت - رگرسیون مرتبط در R
|
106259
|
من از SPSS استفاده می کنم، اما مجبورم از R برای رگرسیون لجستیک دقیق استفاده کنم. بنابراین من کاملاً با R جدید هستم (و تاکنون از آن متنفرم) و همچنین با رگرسیون لجستیک تازه وارد هستم. من مقاله اصلی elrm را خوانده ام و به نمونه هایی از کاربرد آن نگاه کرده ام. با این حال، من نمی توانم اطلاعاتی در مورد سوالات زیر (پس از توضیحات داده ها) پیدا کنم. برازش دو مدل پردازش شناختی برای هر موضوع در هر یک از 3 شرایط مقایسه شد. متغیر وابسته باینری من این است که آیا تفاوت در تناسب مدل معنادار بوده است یا خیر (متغیر موفقیت من در زیر). من سه شرط آزمایشی دارم: 0، 1، و 2. 0 گروه مرجع من است. سوال من این است: آیا تأثیر کلی Condition وجود دارد؟ اگر چنین است، کدام شرایط متفاوت است؟ فرضیه جایگزین خاص این است که نسبت/احتمال موفقیت باید در شرایط 0 و 1 بیشتر از شرایط 2 باشد. داده های من شبیه به ! .gif) ... و غیره. SPSS در واقع متغیرهای ساختگی را در لحظه برای شما ایجاد می کند، اما ایجاد آنها به اندازه کافی آسان است. **سوال 1:** خوانده ام که برای استفاده از elrm باید داده ها را طوری وارد کنید که متغیر پاسخ نشان دهنده موفقیت/تعداد آزمایشات باشد. و تا آنجا که من می توانم بگویم elrm به طور خودکار متغیرهای ساختگی ایجاد نمی کند. من نمونههایی از جداول را دیدهام که این ساختار داده را نشان میدهند، اما نمیتوانم هیچ نمونه گامبهگامی برای دریافت دادههای خام به آن قالب پیدا کنم، بهویژه با توجه به وضعیت یک متغیره 3 سطحی. آیا نمونه ای وجود دارد که من از قلم افتاده باشم؟ اگر نه، آیا داده ها باید به این شکل باشند؟  من مطمئن نیستم که چگونه متغیرهای ساختگی را در فرمول وارد کنم... فقط به عنوان متغیرهای جداگانه؟ **سوال 2:** می توانم ببینم چگونه می توانم تست های ضرایب متغیرهای ساختگی را بدست بیاورم. اما نمیتوانم بفهمم چگونه میتوانم آزمایشی از تأثیر کلی متغیر مستقل دریافت کنم. من باید قبل از بررسی شرایط فردی، تأثیر کلی Condition را ارزیابی کنم. آیا راهی برای خارج شدن از elrm وجود دارد؟ (من نمونه ای از این کار را برای بسته aod یافتم که رگرسیون لجستیک معمولی را اجرا می کند اما رگرسیون لجستیک دقیق را اجرا نمی کند.) **سوال 3:** نمی توانم توضیحی در مورد اینکه p-value برای ضرایب فردی در elrm نشان می دهد پیدا کنم. . آیا این برای تست والد است؟
|
رگرسیون لجستیک دقیق، R و elrm: قالببندی و خروجی دادهها
|
44819
|
من در حال انجام یک تست a/b مبتنی بر وب هستم که در آن یک کنترل و یک درمان وجود دارد. نتایج به سادگی «تبدیل» یا «تبدیل نشد» نیستند. یک کاربر می تواند بین 0-10 بار تبدیل کند. من همه داده ها را از کنترل و درمان دارم (هر کاربر چند بار از کنترل و درمان تبدیل شده است). اندازههای نمونه یکسان نیستند (حدود 1900 در مقابل 2100) و واریانسها متفاوت هستند (7.12 در مقابل 6.02). میانگین درمان حدود 11 درصد بیشتر از شاهد است. هدف از این آزمایش این است که بفهمیم آیا درمان میتواند تبدیل به ازای هر کاربر را افزایش دهد یا خیر. اعداد نشان دهنده افزایش 11 درصدی در تبدیل به ازای هر کاربر است. برای اینکه بفهمم آیا نتیجه از نظر آماری معنادار است یا نه، سعی کردم از آزمون t Welch استفاده کنم. وقتی از معادله تست ولش در این صفحه ویکیپدیا استفاده میکنم، نتایج زیر را دریافت میکنم: t-score: 2.26 درجه آزادی: 4025.82 در صفحه ویکیپدیا میگوید میتوانم از یک «t-distribution» برای آزمایش null استفاده کنم. فرضیه (فرضیه صفر من این است که ابزار کنترل و درمان یکسان است). اما من مطمئن نیستم که چگونه باید از «توزیع t» استفاده کرد. من حدس میزنم که ربطی به استفاده از جدول توزیع t دارد. سؤالات: * آیا استفاده از آزمون t Welch رویکرد خوبی برای این وضعیت است؟ * اگر نه چه روش دیگری را پیشنهاد می کنید؟ * با نتایج حاصل از آزمون t ولش، چگونه می توانم از «توزیع t» استفاده کنم تا مشخص کنم آیا نتیجه قابل توجهی دارم و با چه میزان اطمینان؟
|
نتایج حاصل از آزمون a/b را با استفاده از آزمون t ولچ تجزیه و تحلیل کنید
|
95882
|
$\newcommand{\E}{\mathrm{E}}$ من نمیدانم چرا الگوریتم Baum-Welch نمونهای از الگوریتم EM است. در واقع، چرا محاسبه $\alpha_t(i)$ و $\beta_t(i)$ با مرحله انتظار مطابقت دارد. مرحله انتظار مربوط به محاسبه انتظارات بر روی متغیر نهفته log- احتمال متغیر مشاهده شده با توجه به پارامتر: $\E_{Z|X,\theta^{t-1}}[L(X|\theta)]$. من لینک رو متوجه نشدم
|
چرا الگوریتم Baum-Welch نمونه ای از الگوریتم EM است؟
|
76270
|
**طراحی مطالعه:** در زیر یک کارآزمایی بالینی در یک مجموعه داده طولی آورده شده است. همه آزمودنیها (34 نفر) در «V1» (خط پایه) شرکت کردند و سپس به یک «دارونما» (15=n) یا یک «دارو» (19=n) اختصاص داده شدند، سپس هر دو در ویزیت «V2» مورد بررسی قرار گرفتند. . بر اساس نتیجه تحقیق در `V2` به نام `grpVar1` آنها به دو گروه گروه بندی شدند: grpVar1=P (16=n) و grpVar1=N (n=18). آن «N» برای بازدید «V3» مسیریابی شد، در حالی که «P» برای بازدید از «V4» و بعداً از «V5» بازدید شد. Par1 در تمام بازدیدها برای همه افراد در دو سایت تشریحی اندازه گیری شد: site1 و site2. بنابراین هر سوژه در تمام بازدیدها دو اندازه گیری در دو سایت دارد. علاوه بر این، متغیر «روزها» تعداد روزهای بازدیدهای بعدی بر اساس خط پایه است. با وجود یکسان بودن بازدید، افراد مختلف در روزهای مختلف در این بازدید حضور داشتند و ثبت شد. **به نظر می رسد:** > head(df,12) id id_site جنسیت روزهای بازدید grpVar1 درمان Par1 1 1 site1 F V1 0 P Placebo 0.61030187 2 1 site2 F V1 0 P Placebo 0.438333814 P 2 Placebo 7.45492517 4 1 site2 F V2 244 P Placebo 0.63105623 5 1 site1 F V3 322 P Placebo 0.22600916 6 1 site2 F V3 322 P Placebo 0.231802813 M. 0.18130448 8 2 site2 M V1 0 P Drug 0.14165622 9 2 site1 M V2 223 P Drug 1.02354748 10 2 site2 M V2 223 P Drug 2.05987466 1132 M Drug 0.10194901 12 2 site2 M V3 314 P Drug 0.22315864 **دسته متغیرها** > sapply(df، کلاس) id id_site جنسیت روزهای بازدید grpVar1 درمان Par1 factor factor factor factor factor ضریب عددی **مفهوم:** بنابراین همانطور که می بینید، طرح اندازه گیری های مکرر با پیچ و تاب. نوعی مسیریابی سوژه ها بر اساس نتایج «V2» وجود دارد، من آن را «انشعاب سوژه ها» به دو مسیر مختلف بازدید بعد از «V2» می نامم. واضح است که باید برخی از تغییرات فردی وجود داشته باشد که باید با اجازه دادن به تغییر هر دو مقطع و شیب در نظر گرفته شود. من معتقدم منبع دیگری از تغییرات، محل آناتومیک است که باید به طور یکسان در نظر گرفته شود. بنابراین Par1 در سلسله مراتبی از سایت و موضوعات اندازه گیری می شود. هر دو id_site و id را می توان به عنوان متغیرهای زمینه ای در نظر گرفت. بنابراین، آنها را می توان به عنوان اثرات تصادفی در یک مدل ترکیبی در نظر گرفت. اگر چه همانطور که در متغیر «بازدید» نشان داده شده است 5 بازدید وجود داشت، اما آیا میتوانیم از متغیر «روز» برای محاسبه تغییرات زمان به عنوان روزهای بعد از خط مبنا استفاده کنیم. من تعجب می کنم که چگونه می توان اجازه داد که مدل برای این نیز حساب کند؟ **کارآزمایی من در کتابخانه R**(nlme) lm_form_1 <- فرمول (Par1 ~ بازدید + جنسیت + درمان + id_site + grpVar1) mod1 <- lme(lm_form_1, تصادفی = ~ 1|id , data = df) **سوال :** نحوه محاسبه تنوع «id»، «id_site» و «روزها». به عنوان اثرات تصادفی نحوه تنظیم ساختار var-covar کلاس pdMat بر اساس این طرح مطالعه. آیا طرح مجموعه داده برای مدلسازی با تابع «lme()» مناسب است یا باید اصلاح شود، چه چیزی مناسب است؟ من از پیشنهادات جامعه آمار بسیار سپاسگزار خواهم بود. لطفاً پاسخ خود را به بسته R 'nlme' محدود کنید نه 'lme4'.
|
چگونه با این داده ها مدل سازی افکت های مختلط خطی انجام دهیم؟
|
88642
|
فرض کنید من دو مدل دارم. یکی دارای افزایش تجمعی در داده های آزمایشی 4.322578، دومی 2.84488 است. تنها مزیت دومی نسبت به اولی در کیفیت داشتن منحنی بالابر تجمعی تقریباً یکسان برای مجموعههای قطار و اعتبارسنجی است. برای مدل اول منحنی بالابر تجمعی همانطور که در زیر می بینید به نظر می رسد.  با عرض پوزش برای عناصر غیرانگلیسی در طرح، اما این تنها نسخه SAS Enterprise Miner است که من به آن دسترسی دارم. میانگین خطای استاندارد برای مدل از نمودار - اولی - برای مجموعه های قطار، اعتبارسنجی و تست عبارتند از: 0.038389، 0.04999 و 0.055314. برای مورد دوم: 0.070393، 0.071889 و 0.07727. به نظر می رسد مدل اول از نظر دقت بهتر است. اما در عین حال ثبات کمتری دارد و نسبت به تغییرات داده حساس تر است. سوال من این است که آیا آن مسائل ثبات در اینجا آنقدر بزرگ است که آن مدل را به نفع مدل دوم بی اعتبار کند؟ چگونه می توان ناپایداری را اندازه گیری کرد و در چه نقطه ای یک مدل را غیرقابل استفاده می کند؟ اگر مهم باشد، مدل های مورد نظر شبکه های عصبی هستند.
|
بی ثباتی مدل در داده کاوی چه زمانی به اندازه کافی بزرگ است که یک مدل را بی اعتبار کند و چگونه آن را اندازه گیری کنیم؟
|
103348
|
من نمی دانم که آیا مقایسه ضریب جینی دو توزیع گسسته با تعداد عناصر مختلف منصفانه است؟ اگر نه، چگونه می توانم ضرایب را برای مقایسه منصفانه تنظیم کنم. به طور خاص، من به موردی علاقه مند هستم که مجموع مقادیر در هر دو توزیع برابر باشد. به عنوان مثال، دقایق بازی توسط بازیکنان دو تیم در یک بازی بسکتبال در صورتی که تعداد بازیکنان آنها متفاوت باشد (10 بازیکن در یک تیم، 12 بازیکن در تیم دیگر) اما مجموع بازیهای هر دو تیم 48 در 5 دقیقه است. به عنوان مثال، متفاوت است. پارتیشن بندی برخی از سطوح در مناطق مختلف، نحوه مقایسه نابرابری برای پارتیشن بندی های مختلف در صورتی که تعداد زیر ناحیه های متفاوتی داشته باشند.
|
مقایسه ضریب جینی 2 توزیع
|
64812
|
من باید داده ها را در یک پایگاه داده با مقایسه آن با داده های یک سیستم کاربردی معتبر تأیید کنم. راه حلی که من به آن رسیدم (حداقل در تئوری) ایجاد یک روش آماری بود که تعداد نمونه های تصادفی مورد نیاز برای بررسی جدول پایگاه داده را مشخص می کرد تا بگویم با احتمال 95٪ تعداد خطاها نماینده آن جدول است. سپس، با احتمال خطا، می توانم در نظر بگیرم که آیا داده ها معتبر هستند یا خیر. توزیع دو جمله ای کمکی نمی کند، زیرا من هیچ دانشی در مورد احتمال یافتن خطا ندارم. دانش آماری من بسیار زنگ زده است و در حال حاضر نمی توانم آن را بفهمم. فقط برای روشن شدن مجدد: با توجه به N تعداد ورودی های یک جدول، می خواهم بدانم چه عدد n را برای نمونه های تصادفی باید انتخاب کنم تا بتوانم بعد از آزمایش بگویم که احتمال خطا در 95 p است. ٪ دقت من برای هر ایده کمکی که می توانستم به دست بیاورم بسیار مفید خواهم بود. هر گونه ارجاع به ادبیات یا سایت هایی که این موضوع را پوشش می دهد نیز بسیار قدردانی خواهد شد. پیشاپیش متشکرم
|
معیارهای آماری برای اعتبار سنجی داده ها
|
111152
|
من اخیراً با یک مشکل پیشبینی مواجه شدم (نتیجه 0-1، با بیش از 80 متغیر)، تصمیم گرفتم از GBM (ماشین تقویت گرادیان فریدمن) برای انجام این کار استفاده کنم. من به GBM اجازه میدهم فقط از 70 درصد مجموعه داده استفاده کند، و در این مجموعه آموزشی، 60 درصد در هر تکرار استفاده میشود. در طول این فرآیند، من یک مشکل بزرگ GBM پیدا کردم: یک پیشبینیکننده (AAA) وجود داشت که آنقدر مهم بود (تقریباً علی) که این پیشبینیکننده منفرد میتواند نتیجه را با دقت=40% در فراخوان=40% (0-1 توزیع نابرابر) پیشبینی کند. ، با 0: 80٪ و 1: 20٪، و این مدل پیش بینی تک بهتر از GBM با 80 پیش بینی کننده از جمله آن بود. (AAA). من تعجب می کنم که چرا ممکن است این اتفاق بیفتد، دوست دارم نظر شما را در مورد آن بشنوم. از دیدگاه «رگرسیون خطی»، من به چند خطی بودن شک دارم، که GBM بسیاری از پیشبینیکنندههای جعلی دیگر را که با AAA مرتبط هستند، تقسیم میکند و به تدریج قدرت پیشبینی AAA را از دست میدهد. علاوه بر این، متوجه شدم GBM هر یک از پیشبینیکنندههای من را به روشی بسیار «بیش از حد» کاهش میدهد (پیشبینیکننده گاهی اوقات مثبت، گاهی اوقات منفی بر مقدار برازش شده تأثیر میگذارد). برای مقابله با این مشکل، استراتژی من استفاده از پارامتری از GBM به نام var.monotone بود (سه مقدار می گیرد، 1 برای همبستگی مثبت، -1 برای منفی، 0 برای دلخواه). من 22 مورد از 80 پیش بینی اولیه را بر اساس ارتباط با نتیجه انتخاب کردم و از var.monotone برای وادار کردن رابطه آنها با نتیجه استفاده کردم. مدل کمی بهتر بود میخواهم بدانم که آیا اجبار رابطه هر پیشبینیکننده با نتیجه، استراتژی خوبی برای کاهش تناسب بیش از حد است، از دیدگاه شما چه راهی بهتر است؟ مهمتر از آن، به نظر شما جعبه سیاه با 80 پیش بینی واقعا کار می کند؟ یک رگرسیون لجستیک، یا یک رگرسیون منظم L1، با تنها 5 پیش بینی کننده بسیار مهم (یا علی) چطور؟ ممنون هیچام هو
|
GBM، مشکل اضافه برازش/چند خطی بودن و تنظیم پارامتر است
|
64813
|
من از یک مدل خطی برای دادههای خود استفاده میکنم: $$ y_{i}=\beta_{0}+\beta_{1}x_{i}+\epsilon_{i}, \quad\epsilon_{i} \sim N( 0,\sigma^{2}). $$ من می خواهم فاصله اطمینان (CI) ضرایب ($\beta_{0}$, $\beta_{1}$) را با استفاده از روش بوت استرپ تخمین بزنم. دو روش وجود دارد که میتوانم روش بوت استرپ را اعمال کنم: 1. نمونه پاسخ-پیشبینیکننده جفت: بهطور تصادفی جفتهای $y_{i}-x_{i}$ را مجدداً نمونهگیری کنید، و رگرسیون خطی را برای هر اجرا اعمال کنید. پس از اجرای $m$، مجموعه ای از ضرایب تخمینی ${\hat{\beta_{j}}}، j=1،...m$ را بدست می آوریم. در نهایت، چندک ${\hat{\beta_{j}}}$ را محاسبه کنید. 2. خطای نمونه: ابتدا رگرسیون خطی را روی داده های مشاهده شده اصلی اعمال کنید، از این مدل $\hat{\beta_{o}}$ و خطای $\epsilon_{i}$ را بدست می آوریم. سپس بهطور تصادفی خطای $\epsilon^{*}_{i}$ را مجدداً نمونهبرداری کنید و دادههای جدید را با $\hat{\beta_{o}}$ و $y^{*}_{i}=\hat{ محاسبه کنید. \beta_{o}}x_{i}+\epsilon^{*}_{i}$. یک بار دیگر رگرسیون خطی را اعمال کنید. پس از اجرای $m$، مجموعهای از ضرایب تخمینی ${\hat{\beta_{j}}}، j=1،...، m$ به دست میآوریم. در نهایت، چندک ${\hat{\beta_{j}}}$ را محاسبه کنید. سوال من این است: * **این دو روش چگونه با هم تفاوت دارند؟** * **این دو روش بر اساس کدام فرض نتیجه یکسانی می دهند؟**
|
دو روش استفاده از بوت استرپ برای تخمین فاصله اطمینان ضرایب در رگرسیون
|
64815
|
سلام من سعی می کنم از مقدار AIC برای مقایسه مدل لاجیت و پروبیت استفاده کنم که در هر مدل داده ها و تعداد متغیرهای کمکی یکسان است (مثلاً متغیر کمکی = 3 برای هر مدل) آیا مقدار AIC با افزایش حجم نمونه افزایش می یابد؟ کدام یک به عنوان ابزاری برای مقایسه logit و probit، AIC یا MSPE بهتر است؟
|
آیا می توانم از مقدار AIC برای مقایسه مدل لاجیت و پروبیت استفاده کنم که برای هر مدل تعداد متغیرهای کمکی برابر است؟
|
90276
|
طبق مقاله ویکیپدیا، ما سناریوی زیر را داریم، اما ABC چگونه میتواند مجموعه دادههای شبیهسازی را از نمونههای $\theta$ بدون دانستن یا ارزیابی تابع احتمال تولید کند؟ برای مثال، این روش برای توزیع $N(\mu, \sigma)$ معمولی چگونه کار می کند؟ با فرض اینکه پارامتر تخمین زده $\mu$ باشد و $\sigma$ شناخته شده باشد، چگونه شبیه سازی ها را بدون ارزیابی $N(\mu, \sigma)$ ایجاد می کند؟ 
|
ABC. چگونه می تواند از تابع احتمال اجتناب کند؟
|
88648
|
لطفاً در اثبات این به من کمک کنید: فرض کنید $Y_1،\ldots،Y_n$ i.i.d هستند. RVهای غیرمنفی با CDF $F$ و $E(Y_i)=\mu<\infty$. اجازه دهید $y_1,\ldots,y_n$ تحققی باشد که از آن یک EDF $\hat{F}$ تعریف میشود: $$ \hat{F}(y)=\frac{1}{n}\sum_{i= 1}^nI(y_i\leq y). $$ **می خواهم نشان دهم** : $$ \text{plim}_{n\to\infty}\left(n^{1/2}\int_0^\infty y(\hat{F}(y) -F(y))d(\hat{F}-F)(y)\right)=0. $$ لطفاً هر گونه فرضیات ضروری دیگر را بیان کنید. * * * پاسخ ویرایش به نظر GUNG: این نتیجه یک گام کوچک در یک بحث بزرگتر در مقاله راسل دیویدسون 2009 در مورد شاخص جینی است. مؤلف باید آن را بدیهی دانسته باشد زیرا بدون دلیل آن را ذکر کرده است. من تا حدودی از نظریه مجانبی مانند برخی از قوانین اعداد بزرگ، برخی از انواع CLT، حالت های مختلف همگرایی، قضیه اسلوتسکی، نظریه اندازه گیری به طور کلی و نظریه احتمال به طور خاص، و برخی از حساب های تصادفی درک دارم. مشکل من این است که به تنهایی تئوری مجانبی را یاد میگیرم و تمرینهای زیادی در این زمینه انجام ندادهام. بنابراین در حالی که می خواهم استدلال نویسنده را بفهمم، نمی دانم از کجا شروع کنم.
|
همگرایی مجانبی شامل EDF
|
69820
|
رگرسیون لجستیک اساساً به این معنی است که logit نسبت های پاسخ خود را، p، و سپس رگرسیون استاندارد انجام دهید. موردی را در نظر بگیرید که یک p 1 است. logit(1) = log(1/(1-1)) = بی نهایت. چگونه می توانید رگرسیون را با بی نهایت انجام دهید؟ یعنی اگر یکی از نسبتهای مشاهدهشده p 1 باشد، در این صورت سعی میکنید خطی را بیابید که مجموع مجذور تفاوتها را از مجموعهای از نقاط که شامل بینهایت است، به حداقل میرساند. چگونه این باعث نمی شود که خط رگرسیون همیشه شیب بی نهایت داشته باشد؟
|
وقتی y=1 باشد، لاجیت بی نهایت است. چگونه می توانید آن را پس بگیرید؟ با این حال، به نوعی، این رگرسیون لجستیک است
|
64814
|
احتمالاً قبلاً در این مورد بحث شده است، اما من میخواستم درک کنم که استفاده از R برای انتشارات آمار زیستی چقدر رایج است. در PubMed من تعدادی مقاله تحقیقاتی را پیدا کردم که با استفاده از R انجام شده بودند (همانطور که در بخش روش ها یا تجزیه و تحلیل آماری اسناد ذکر شد). با این حال، اکثریت با استفاده از SAS/SPSS و همچنین تعداد قابل توجهی با استفاده از Stata انجام شد. در سالهای اخیر صحبتهای زیادی در مورد R وجود داشته است و من به دنبال دادههایی هستم که میتواند این واقعیت را تأیید کند که R در حال افزایش محبوبیت در منطقه تجاری است. با این حال، در تجربهام، برخی از مقاومتها را برای شرکتها برای تغییر به R از SAS مشاهده کردهام، حتی اگر کارهای بیشتری با R در مقایسه با SAS انجام دهید. همچنین این نگرانی وجود دارد که FDA نتایج را در SAS ترجیح می دهد ... اگرچه من چیزی ندیدم که به طور رسمی توسط FDA در این مورد ذکر شود. من میدانم که SAS برای دههها وجود داشته است، این چیزی است که بسیاری از بخشهای تحقیق و توسعه راحتتر با آن کار میکنند، و غیره، و غیره، ... و به دنبال نمونههای واقعی از افرادی هستم که در عوض از R برای تحقیقات حرفهای و/ استفاده میکنند. یا انتشارات
|
استفاده از R برای انتشارات آمار زیستی
|
88641
|
من کمی تحقیق کردم و چیزی را که دنبالش بودم پیدا نکردم: من یک مجموعه داده x = 10,100,1000 و y1, y2, y3 دارم و میخواهم آن نقاط را رسم کنم. اما چیزی که اتفاق می افتد این است که در محور x مقادیری که ظاهر می شوند 10، 200، 400، 600، 800 و 1000 هستند. چگونه می توانم مقیاس را طوری تنظیم کنم که فقط مقادیری را که در بالا مشخص کردم ظاهر شود؟ کاری که من انجام می دهم این است: y_values <- c(9، 9.6، 9.7، 9.8) x_values <- c(10,100,1000) plot(x_values, y_values) متشکرم.
|
مقیاس مجموعه رسم R
|
96937
|
کدام یک از کدهای زیر برای برازش مدل GARCH-M(1,1) که ARMA(0,0) حذف شده است صحیح است؟ یا کد صحیح چیست؟ 1. `modm11 = ugarchspec(variance.model=list(model=sGARCH, garchOrder=c(1,1))، mean.model=list(archm=T، archpow=2، include.mean=F)) ` 2. `modm11 = ugarchspec(variance.model=list(model=sGARCH, garchOrder=c(1,1)), mean.model=list(armaOrder=c(0,0), archm=T, archpow=2, include.mean=F))` 3. `modm11 = ugarchspec(واریانس. model=list(model=sGARCH, garchOrder=c(1,1)), mean.model=list(armaOrder=c(0,0)، archm=T، archpow=2))`
|
GARCH-M(1,1) که در آن ARMA(0,0) در R حذف شده است
|
43343
|
میخواهم ببینم تنظیم نکردن عوامل مخدوشکننده چگونه بر ضرایب تخمینی در رگرسیون خطی تأثیر میگذارد. این چیزی است که یادداشتهای سخنرانی من میگویند: 1. مدل تنظیمنشده: $E[Yi] = \beta_0 + \beta_1X_i$ 2. مدل تنظیمشده: $\quad\ E[Yi] = \gamma_0 + \gamma_1X_i + \gamma_2W$ ، جایی که $W$ مخدوش کننده است. اجازه دهید $\hat{\beta_1}$ تخمین OLS $\beta_1$ باشد. سپس تحت مدل تعدیل شده داریم: $$ E[\hat{\beta_1}] = \gamma_1 + r_{XW}\sqrt{\frac{{\rm var}(W)}{{\rm var}(X )}}\gamma_2 $$ **$E[\hat{\beta_1}]$ چگونه محاسبه شد؟**
|
استخراج اثر مخدوش کننده های مدل نشده بر تخمین OLS
|
114169
|
من یک معیار برای مجموعه داده های مالی خود ایجاد کردم تا داده ها را به دو کلاس برای پردازش های دیگر طبقه بندی کنم (مانند «طبقه بندی باینری شبکه عصبی»). پس از محاسبه این معیار (بین 0 و 1)، توزیع خروجی مانند «نمایی» است (اما بین «0» و «1» - چیزی شبیه به «توزیع بتا»). اکنون می خواهم یک «آستانه» برای ایجاد دو کلاس از این نمونه ها تنظیم کنم. من میتوانم هر آستانه را تنظیم کنم (70٪ - (0.7)» در «دقت طبقهبندی» خوب بود) اما میخواهم منطقی برای آن داشته باشم. برای مثال در «توزیع عادی» میتوانیم «قانون 68–95–99.7» را تنظیم کنیم. من می خواهم این مقدار پیش فرض را در برنامه خود تنظیم کنم زیرا نمونه های مختلفی در سیستم من در ویژگی درج می شوند. با تشکر
|
یک آستانه برای مسئله طبقه بندی باینری بر اساس توزیع معیار ایجاد کنید
|
65490
|
من 3 متغیر A، B و C دارم که همگی به طور قابل توجهی منحرف هستند. در زیر، من همبستگی بین دو متغیر را نشان میدهم، به عنوان مثال، A و B به عنوان $r_{ab}$. استفاده از تست زیر با درجه آزادی $n-2$ $$t= \frac{r\sqrt{n-2}}{1-r^2}$$ * $r_{ac}$ مثبت است اما نه به طور قابل توجهی با صفر متفاوت است، *$r_{bc}$ مثبت است اما تفاوت معناداری با صفر ندارد، و *$r_{ab}$ به طور قابل توجهی با صفر متفاوت است. سپس با استفاده از آزمون t ویلیامز * $r_{ac}$ و $r_{bc}$ تفاوت معنیداری با یکدیگر ندارند. این چگونه ممکن است؟ **آیا تفاوت بین دو همبستگی مثبت همیشه زمانی که هر دو تفاوت معنی داری با صفر ندارند، نباید معنی دار باشد؟**
|
چگونه دو ضریب همبستگی وابسته مثبت می توانند بدون تفاوت معنی دار با صفر تفاوت معنی داری داشته باشند؟
|
65491
|
من طراحی اندازهگیریهای مکرر 2 دلار \ برابر 3 دلار دارم. * 2 شرط (الف و ب) * 3 شدت (کم، متوسط و زیاد). من فقط نگران تفاوت های a تا b در شدت متناظر هستم. به عنوان مثال می خواهم مقایسه کنم: * A کم و b کم * A متوسط و b متوسط * A زیاد و b زیاد. من نگران مقایسه A کم با A متوسط با A زیاد نیستم زیرا از نظر فیزیولوژیکی می دانیم که آنها متفاوت هستند و به سوال تحقیق من پاسخ نمی دهد. من به نحوه تعامل این 2 متغیر اهمیتی نمی دهم، اما ممکن است اشتباه کنم. تمایل من این است که بگویم آزمونهای T زوجی خوب هستند، زیرا **آیا باید 3 آزمون t زوجی را برای مقایسههای مورد علاقه انجام دهم یا ANOVA اندازهگیری مکرر 2$\times3$؟**
|
آیا باید یک ANOVA اندازه گیری مکرر 3 در 2 انجام داد یا سه آزمون t زوجی جداگانه؟
|
96280
|
من یک مجموعه داده از مکان های ثبت شده فیل برای مدت 6 سال دارم (elephantdata). برخی از ورودی ها تکراری همان روز هستند. من میخواهم زیرمجموعهای از 'elephantdata' خود ایجاد کنم و یک ماتریس جدید ایجاد کنم که فقط یک نقطه داده قبل از ظهر و یک نقطه داده بعد از ظهر برای هر روز داشته باشد. من می خواهم که آن نقطه داده به طور تصادفی از نقاط داده ارائه شده انتخاب شود. به عنوان مثال: elephantdata ردیف تاریخ زمان Breeding_H E1 E2 E3 1 11/01/06 08:38 1 0 0 0 2 11/01/06 18:00 1 0 0 0 3 12/01/06 05:30 1 0 4 02/02/06 08:58 1 0 0 0 5 02/02/06 16:30 1 1 1 1 6 02/02/06 17:15 1 1 1 1 7 03/02/06 08:45 1 0 0 0 برای Breeding_H میخواهم آن را پیدا کنم اگر تاریخ تکراری باشد و دو ورودی در صبح باشد (قبل از ساعت 12:00) یا در شب (بعد از ظهر) می خواهم R به طور تصادفی یکی از ورودی ها را انتخاب کند. بنابراین ردیف 6 و 7 هر دو بعد از ظهر و در یک روز هستند، بنابراین من می خواهم فقط یکی از آن ورودی های داده را داشته باشم. پیشنهادی دارید؟ واقعا از هر کمکی که داشته باشید قدردانی می کنیم. من تابع منحصر به فرد و تکراری را جستجو کردهام اما نمیدانم چگونه کد واقعی را بنویسم تا این اتفاق بیفتد.
|
به طور تصادفی یک ورودی داده برای صبح و یکی برای عصر برای هر روز در R انتخاب کنید
|
114162
|
بگویید من یک ماتریس داده با اندازه $N \times P$ دارم که $N$ تعداد نمونه ها و $P$ تعداد ویژگی ها است. اکنون، اگر تجزیه و تحلیل مؤلفه اصلی را انجام دهم، ماتریس داده دیگری به اندازه $N \times K$ دریافت می کنم که در آن $K$ بر اساس برخی معیارها انتخاب شده است. سوال من: اگر من یک ردیف (نمونه) را از ماتریس $\text{PCA}$ انتخاب کنم، آیا همچنان به نمونه _same_ مانند ماتریس داده اصلی اشاره می کند؟ در مطالعه من، دادههای هر ردیف از یک موضوع است، بنابراین میخواهم بدانم اگر از $\text{PCA}$ برای انتخاب ویژگی استفاده کنم، آیا مکاتبات هنوز وجود دارد یا خیر. (من فکر می کنم این درست است اما امن تر از متاسفم ...!)
|
آیا PCA مشاهدات (ردیف) داده ها را حفظ می کند؟
|
51956
|
**سوال کوتاه:** آیا مطالعاتی درباره سیستم ها وجود دارد که توسط چندین متغیر وابسته به زمان تصادفی پنهان و متغیرهای مشاهده شده توصیف شده اند که توسط توابع قطعی شناخته شده متغیرهای پنهان ارائه شده باشند؟ **جزئیات بیشتر:** من یک فرآیند تصادفی وابسته به زمان دارم که در آن متغیرهای با ارزش واقعی $n$ به زمان بستگی دارند: $x_i(t)$. این متغیرها را نمی توان مستقیماً مشاهده کرد ($i.e.$ آنها متغیرهای پنهان هستند). با این حال، میتوانیم یک تابع قطعی (نه تصادفی) از این متغیرهای پنهان مشاهده کنیم: $y(t) = y(x_{i}(t))$ (در مورد خاص من $y(t) = \sum_{i= 1}^n x_{i}(t)$). علاوه بر این، می توانیم متغیر دیگری را مشاهده کنیم که تابعی از متغیرهای پنهان است. این تابع دوم نیز قطعی است اما متغیرهای پنهان مربوط به زمانهای مختلف را ترکیب میکند: $z(t) = x_{0}(t) + x_{1}(t-\Delta t) + x_{2}(t-2 \Delta t) + ... + x_{n}(t-n \Delta t)$. علاوه بر آن، می دانیم که بردارهای بعدی که متغیرهای پنهان را نشان می دهند، به روش تصادفی مرتبط هستند: $x_{i}(t) = \psi[x_{i}(t - \Delta t)]$. شکل دقیق $\psi$ مشخص نیست. ما همچنین همیشه $x_0(t)$ را می دانیم و مقدار $x_{n}(t)$ را تعیین می کنیم. هدف، یافتن رابطه تصادفی $\psi$ و انتخاب مقادیری از $x_{n}(t)$ است که $x_{t}=0$ است (اکنون $x_{n}$ را انتخاب میکنیم و چه چیزی را حفظ کنیم. $x_{0}=0$ در آینده). ما همچنین می خواهیم از $y=0$ جلوگیری کنیم. سوال من این است که چگونه می توان به این مشکل برخورد کرد و آیا نتایجی برای چنین سیستم هایی وجود دارد (یا نام چنین سیستم هایی چیست). نزدیکترین چیزی که میتوانم به آن فکر کنم، فرآیند پنهان مارکوف است، اما همانطور که میبینید، چیزی متفاوت است.
|
آیا تحقیقی در مورد کنترل فرآیندهای تصادفی پنهان وجود دارد؟
|
96281
|
عصر همگی بخیر، من در حال حاضر روی مجموعه ای از سوالات خودآموزی کار می کنم که به پاسخ های درست/کاذب مربوط می شود. من در حال حاضر با سوالی روبرو هستم که در آن پاسخ ادعای نادرست بودن آن دارد، اما آن را درست می دانم. مطمئن نیستم که آیا در پاسخ خطایی وجود دارد یا خیر. قدردان کمک و راهنمایی لطفا. > یک فاصله اطمینان تخمینی است که برای آن درجه مشخصی > از قطعیت وجود دارد که آمار نمونه در فاصله زمانی خواهد بود. برداشت من این است که **گزاره بالا درست است** زیرا فاصله اطمینان با درجه خاصی از اطمینان به ما می گوید که چقدر احتمال دارد یک مقدار در محدوده قرار گیرد. قدردان یک توصیه لطفا. 
|
سوال خودآموزی در مورد فاصله اطمینان (درست/نادرست)
|
69792
|
قبلاً خوانده بودم که تنظیم-$R^2$ معیاری برای تناسب نیست. با این حال، اخیراً میخواستم آن دانش را با درک دلیل آن اثبات کنم، اما هیچ منبع قابلتوجهی برای تأیید این موضوع پیدا نکردم. مقاله ویکیپدیا در مورد آن بیان میکند «در حالی که $R^2$ معیاری برای تناسب است، در عوض $R^2$ تعدیلشده معیاری مقایسهای برای مناسب بودن مجموعههای تودرتوی جایگزین از توضیحدهندهها است» اما نقل قولی ارائه نمیکند. http://en.wikipedia.org/wiki/Coefficient_of_determination
|
آیا این درست است که تنظیم شده-$R^2$ معیار تناسب نیست؟ چرا یا چرا نه؟
|
103260
|
من می خواهم یک رگرسیون دو جمله ای منفی اجرا کنم، اما یکی از متغیرها را نیز کنترل کنم. مشابه کاری که با یک رگرسیون سلسله مراتبی انجام می دهید. من سعی می کنم خشونت را پیش بینی کنم (هرگز، یک بار، 3 بار ...) و ادبیات می گوید باید سن را کنترل کنم، زیرا پرخاشگری با افزایش سن کاهش می یابد. از نظرات شما استقبال می کنم، پیشاپیش متشکرم. شارون
|
کنترل متغیرها در رگرسیون دو جمله ای منفی
|
97626
|
1) فرض کنید، من 25 مقدار نمونه دارم. من نمی دانم که مشاهده از کدام توزیع می آید. چگونه ادامه دهم؟ 2) با توجه به همین سوال: فرض کنید، با وجود اینکه اطلاعی ندارم، وانمود می کنم که از توزیع نرمال می آید و میانگین و واریانس آن را تخمین می زنم، یک P-P یا یک اندرسون-دارلینگ انجام می دهم و به این نتیجه می رسم که از چگالی نرمال می آید. دقیقاً، آیا اساساً به این معنی است که داده ها از توزیع نرمال پیروی می کنند؟ آیا من فقط سعی نمی کنم داده های خود را در یک توزیع مناسب قرار دهم؟ به طور خلاصه، با توجه به یک نمونه پیوسته، چگونه می توانم توزیع اصلی آن را تعیین کنم؟
|
چگونه برای توزیع والد یک نمونه تصمیم گیری کنیم؟
|
89982
|
من در حال حاضر در حال کار بر روی یک تجزیه و تحلیل گذشته نگر هستم که در آن بیماران را بررسی می کنم تا ببینم آیا حساسیت ایمنی قبل از یک روش تاثیری بر نتایج بعد از عمل دارد یا خیر. حساسیت ایمنی یک متغیر طبقه بندی شده است (Hi vs Lo). در مورد نتایج، یکی از مواردی که من به دنبال آن هستم، تجزیه و تحلیل بقا (زمان تا مرگ) است. من یک تجزیه و تحلیل Kaplan-Meier را انجام دادم که بر اساس حساسیت ایمنی تجزیه شده بود و به نظر می رسد تفاوت آماری معنی داری (p<.05) در رابطه با زمان تا مرگ وجود دارد. سوالات من این است: 1. من یک تحلیل رگرسیون کاکس را با وضعیت حساسیت به عنوان تنها متغیر کمکی اجرا کردم و مقدار p را 0.35 دانستم. چرا تفاوت زیادی در اهمیت آماری وجود دارد و کدام یک را انتخاب کنم؟ (اگر کمک کند، از یک بازرسی بصری، فقط بیماران در رده سلام فوت کردند) 2. هنگام تجزیه و تحلیل ویژگی های بیمارم، متوجه شدم که تفاوت جنسیتی در دو دسته حساسیت وجود دارد (p<.05). من یک مدل رگرسیون کاکس را با حساسیت و جنسیت به عنوان متغیرهای کمکی اجرا کردم و اشاره کردم که p-value 0.955 برای وضعیت حساسیت و 0.5 برای جنسیت است. آیا من در تفسیر این که هیچ کدام از متغیرهای کمکی تأثیری بر زمان مرگ ندارند، درست است؟ * * * _طبق درخواست، در اینجا برخی از خروجی های من است_ تحلیل اصلی Kaplan Meier (PRA_Categ نشان دهنده وضعیت حساسیت است):  رگرسیون COX مربوطه با تنها یک متغیر کمکی (PRA_Categ):  رگرسیون COX با دو متغیر کمکی (PRA_Categ و جنسیت): 
|
معنیداری آماری با کاپلان مایر مشاهده شد اما با مدل کاکس مشاهده نشد
|
65497
|
** به روز رسانی ** سوال اصلی گیج و ضعیف بود. بیشتر بهش فکر کردم و فکر نکنم دیگه سوالی داشته باشم. بعد از اینکه کمی بیشتر فکر کردم به این نتیجه رسیدم: برای توزیعی، مثلاً معمولی، احتمال اینکه متغیر در محدوده معینی بیفتد این است: P(a<=X<=b|X ~ N(mu، sigma ^2)) با استفاده از قضیه بیز می توانم استنباط کنم: P(a<=X<=b|X ~ N(mu، sigma^2)) = P(a<=X<=b، X ~ N(mu، sigma^2)) / P(X ~ N(mu، sigma^2)) برای تفسیر این جمله می توانم بگویم: P(X ~ N(mu، sigma^2)) احتمال قبلی است که تصادفی متغیر X ~ N(mu, sigma^2) (بر اساس هر اطلاعاتی که داریم) و P(a<=X<=b, X~ N(mu, sigma^2)) قبلی است احتمال اینکه X ~ N(mu، sigma^2) **و** در بازه [a,b] باشد. سپس، اگر برای ما آشکار شود که X در واقع N(mu، sigma^2) توزیع شده است، یا اگر چنین فرض کنیم، احتمال اینکه در بازه [a,b] قرار گیرد، نسبت احتمالات قبلی، همانطور که در بالا ذکر شد. عبارت فوق به هیچ وجه به pdf خاصی که با آن سر و کار دارید بستگی ندارد. فکر می کنم امیدوار بودم که بین این دو رابطه ای ببینم، اما به نظر می رسد که آنها ایده های نامرتبط هستند.
|
ارتباط بین PDF/PMF و قضیه بیز
|
69799
|
من یک سری اعداد دارم، که برخی از احتمالات بقا هستند که یک منحنی پوسیده را تشکیل می دهند. من می خواهم آنها را با توزیع پارتو تطبیق دهم. من انتظار دارم که منحنی برازش صاف داشته باشم، بنابراین می توانم آن را برون یابی کنم و یک پیش بینی تقریبی داشته باشم. داده های من مانند «1، 0.987، 0.972، 0.965، ...» هستند. چگونه می توانم به هدفم برسم؟
|
چگونه از توزیع پارتو در برازش منحنی های بقا استفاده کنیم؟
|
69791
|
سیستم معادله رگرسیون m زیر را در نظر بگیرید: $$r^i = X^i \beta^i + \epsilon^i \;\;\; \text{for} \;i=1,2,3,..,T$$ که در آن $r^i$ بردار $(T\times 1)$ از مشاهدات T متغیر وابسته، $X^ است. i$ یک ماتریس $(T\times k)$ از متغیرهای مستقل است، $\beta^i$ بردار $(k\times1)$ از ضرایب رگرسیون و $\epsilon^i$ است. بردار خطاها برای مشاهدات $T$ رگرسیون $i^{th}$ است اگر مدل فوق یک مدل SUR است (رگرسیون های به ظاهر نامرتبط)، آیا محاسبه BIC (معیار اطلاعات بیزی) برای مدل منطقی است. ? اگر چنین است، چگونه محاسبه می شود؟ آیا برای بدست آوردن تنها یک معادله رگرسیون، متغیرهای وابسته باید در یک بردار انباشته شوند؟ هر گونه کمکی قدردانی خواهد شد! ممنونم!!!
|
محاسبه BIC برای مدل SUR
|
71734
|
من یک بردار به طول 400 با 6 مقدار منحصر به فرد با نسبت های نسبتاً مساوی ایجاد کرده ام (1-6). من دو نمونه تصادفی از بردار ترسیم کردم، هر کدام $n=26$، 10000 بار، تستهای $t$-تستها را انجام دادم، ارزشهای $p$ را به یک لیست اضافه کردم و یک هیستوگرام از فرکانس $p$-value را خروجی کردم. هیستوگرام $p$-values یک اثر تجمع چرخه ای را برای $p$-values بیشتر از $0.7 نشان می دهد. من می خواهم بدانم چرا این اتفاق می افتد. این کد R من است: set.seed(117) cover1<-rep(1,100) cover2<-rep(2,63) cover3<-rep(3,59) cover4<-rep(4,74) cover5<- rep(5,56) cover6<-rep(6,48) landscape=c(cover1,cover2,cover3,cover4,cover5,cover6) sample.size<-26 x<-10000 pval.list <-vector(list, length(x)) alpha <- 0.05 conf.level < - 1 - آلفا برای (i در 1:x){ s1 <- نمونه (منظره، اندازه = نمونه. اندازه، جایگزین = درست، مشکل = NULL) s2 <- نمونه (منظره، اندازه = نمونه. اندازه، جایگزین = TRUE، prob = NULL) result.t.test <- t.test(s1,s2، conf.level=conf.level) pval.list [i] <- result.t.test[p.value] } s<-pval.list pvalue<-as.numeric(s) hist(pvalue, main = چسباندن (هیستوگرام، p-value)، شکست = 100) 
|
$p$-مقادیر از دو نمونه $t$-تست های توده برداری مجدد نمونه برداری شده در $p > 0.7$
|
19313
|
من دو سری زمانی دارم، S (استرس در مسیر راه آهن) و T (دما). سری زمانی چند ماهه است. این رابطه خطی است، با این حال، به دلیل کار انجام شده روی ریل، می تواند به طور نامحسوس تغییر کند یا در برخی نقاط پرش کند. در حال حاضر، من رگرسیون خطی را بر اساس هر روز انجام میدهم و سپس S را بر اساس مدلهای روز اصلاح میکنم. با این حال، تغییرات در رابطه در هر روز اتفاق می افتد، بنابراین این کامل نیست. حدس میزنم که دارم سعی میکنم بفهمم چگونه میتوان چندین مدل خطی را بین S/T در طول زمان به بهترین نحو جا داد. چگونه می توانم این کار را انجام دهم؟ من به تازگی با R شروع کرده ام، اگرچه با پایتون نیز خوب هستم.
|
رگرسیون خطی متغیر با زمان
|
19314
|
**واریوگرام** روشی ساده اما موثر برای بررسی تغییرات فضایی متغیر مورد علاقه در زمینه مورد مطالعه است. با این حال گزارش شده است که واریوگرام را نمی توان به عنوان رضایت بخش ترین مدل به خصوص در مواردی که انحنای _(به عنوان مثال کانال های نفوذپذیر در مهندسی مخزن)_ در محیط مورد مطالعه وجود دارد در نظر گرفت. یعنی الگوهای مختلف میتوانند کپی دقیقتر و کمتری از یک واریوگرام داشته باشند. یک پیشنهاد برای توسعه یک رویکرد **آمار چند نقطه ای** ( **زمین آمار**) بود، که در آن برای مثال، یک **تصویر آموزشی**، یک الگوی ماتریس دوبعدی برای استنتاج تغییرات فضایی استفاده می شود. در ادبیات نشان داده شد که تصاویر آموزشی برای دیکته کردن خروجی الگوی مورد نظر با احترام به دادههای شرطی و مبتنی بر رویکردهای تصادفی برای برآوردن استنباطهای آماری مفید هستند. * سؤالات: > ** Q1: ** چه چیز دیگری در مورد مزایا و یا معایب آمار چند نقطه ای؟ > ** Q2: ** چگونه می توان تصاویر آموزشی را بدست آورد؟ > __ **Q2.1:** چگونه با استفاده از دانش موجود و غیره تصاویر آموزشی تولید کنیم؟ > **Q3:** سه بعدی و ابعاد بیشتر چطور؟ > **Q3:** تصویر مرحله بعدی بعد از تمرین چیست؟
|
مزایای آمار چند نقطه ای در مقایسه با واریوگرام چیست؟
|
96289
|
من سعی می کنم سلول ها (1×1 کیلومتر) را در یک منطقه خاص خوشه کنم. هر سلول از زیستگاه های مختلفی تشکیل شده است که توسط یک کد تعریف شده اند. (هر زیستگاه از 3 پارامتر تشکیل شده است، بنابراین یک کد زیستگاه مانند 1-3-15 به نظر می رسد. حدود 100 زیستگاه مختلف وجود دارد، یعنی حداکثر تعداد ترکیبی از این 3 پارامتر). اکنون سعی میکنم خوشهها را بر اساس موارد زیر تعریف کنم: * تعداد زیستگاه در هر سلول * اولین زیستگاه بزرگ که سلول را میپوشاند * دومین زیستگاه بزرگ که سلول را میپوشاند و * نادرترین زیستگاه در سلول (من یک شاخص جهانی نادر برای هر زیستگاه و یک زیستگاه ایجاد کردم. داشتن کمترین شاخص در هر سلول انتخاب می شود). بنابراین 3 مورد آخر لیست به یک زیستگاه خاص در هر سلول اشاره دارد، و مورد اول بیشتر یک معیار کمی است که تعداد آنها در هر سلول وجود دارد. بر این اساس، آنها میخواهند یک تحلیل خوشهای انجام دهند، اما من نمیدانم که آیا ترکیبی بین دادههای طبقهای و کمی وجود دارد یا خیر. لطفاً کسی می تواند راهنمایی کند که از چه روشی استفاده شود، به عنوان مثال. در R با تشکر
|
تحلیل خوشه ای
|
60514
|
من روی طبقه بندی فایل های صوتی کار می کنم. این یک طبقه بندی باینری است و من قصد دارم از SVM استفاده کنم. من قبلاً از SVM برای تطبیق چهره و سایر موارد تجزیه و تحلیل و بازیابی تصویر استفاده کرده ام. من بردارهای ویژگی مورد نیاز را از فایل های صوتی استخراج کرده ام، یعنی مجموعه داده های آموزشی و آزمایشی و با استفاده از تجزیه و تحلیل مؤلفه های اصلی ابعاد آنها را کاهش داده ام. میخواهم بدانم آیا قبل از اعمال طبقهبندی و پیشبینی SVM، مراحل بیشتری وجود دارد؟ آیا مجموعه دادههای آزمایشی و آموزشی که پس از اعمال PCA به دست میآیند باید نرمال شوند یا متمرکز شوند؟ آیا نتایج پس از اعمال نرمال سازی / مرکزیت متفاوت خواهد بود (بهتر / بدتر)؟ یا آیا روش های دیگری وجود دارد که بتوان از آن برای پیش پردازش داده ها قبل از اعمال SVM بر روی آن استفاده کرد؟
|
پردازش داده ها قبل از اعمال SVM
|
60510
|
با توجه به یک جمعیت داده (بی نهایت) که از آن به طور مکرر نمونه هایی با اندازه ثابت می گیرید. در هر نمونه یک طبقهبندی کننده را یاد میگیرید که سپس با محاسبه خطای پیشبینی در یک مجموعه آزمایشی مستقل بزرگ ارزیابی میکنید. خطای پیشبینی بهعنوان میانگین تمام نمونهها در مجموعه آزمایشی تابع ضرر صفر-یک $\mathcal{L}(y,\hat{y})$ تعریف میشود. (تابع ضرر صفر و یک $\mathcal{L}(y,\hat{y})=0$ اگر برچسب پیشبینیشده $\hat{y}$ یک نمونه برابر با برچسب واقعی نمونه y باشد، و 1 در غیر این صورت.) سوال من این است که آیا قضیه حد مرکزی در این وضعیت برقرار است، به طوری که توزیع خطای پیشبینی بر روی نمونهها با توجه به تعداد کافی نمونه، به یک توزیع نرمال تقریبی میکند؟ من می دانم که این قضیه برای تعداد کافی از متغیرهای تصادفی _مستقل_ صادق است. بنابراین من در تردید هستم زیرا پیشبینیهای فردی برای یک مجموعه آزمایشی از طبقهبندیکننده یکسانی سرچشمه میگیرد و طبقهبندیکنندهها در نمونهها متفاوت هستند.
|
آیا قضیه حد مرکزی برای خطای پیشبینی در نمونههای مختلف صادق است؟
|
69790
|
منظور من این است که یک درخت تصمیم بسازیم که در آن هر گره یک ویژگی واحد نباشد به جای ترکیب چندین ویژگی، بنابراین معیارهای ارزیابی باید یک متریک را روی اعداد متعدد به جای عدد واحد در نظر بگیرند. برای مورد اصلی درخت تصمیم ما به دنبال مقدار یک ویژگی هستیم که رابطه ترتیبی آن < یا > را با نمونه های دیگر مقایسه می کند. اما من انتظار دارم چندین مقدار مانند $x_1,\cdots,x_n$ را با مقادیر نمونه جدید $x_1,\cdots,x_n$ در هر انتخاب گره مقایسه کنم. مانند انتخاب یک بردار از مقادیر برای هر گره درخت تصمیم است.
|
آیا نسخه درخت تصمیمی وجود دارد که در آن هر گره با معیارهایی از هیستوگرام به غیر از اعداد منفرد انتخاب شود؟
|
90937
|
من یک مدل جنگل های تصادفی دارم که با آن سعی می کنم حضور یا عدم حضور گونه ها را پیش بینی کنم. این کد من است: #read در چارچوب داده حاوی مشاهدات حضور/غیاب گونهها و متغیرهای پیشبین mydata <- read.csv('mydata.csv') #مدل جنگلهای تصادفی fitmodelA <- randomForest(SPECIESA ~ var1 + var2 + var3 + var4 + var5 +var6 + var7 + var8 + var9 + var10، data=mydata، mytry=3, ntrees=500, replace=T, important=T, keep.forest=T) #predict to new data predictmodelA <- predict(fitmodelA, newdata, type=prob) # save as rester image writeRaster(predictmodelA predictSPECIESA.tif) ظاهراً باید ماتریسی را برگردانم که احتمال هر دو کلاس را داشته باشد، یعنی در دو ستون آیا به درستی متوجه شدم که می توان آرگومان index را نیز برای پیش بینی تنها یک کلاس اضافه کرد؟ با کد من به شکلی که هست، رستر خروجی من یک لایه با احتمالات 0 تا 1 تولید کرد، اما هیچ ویژگی دیگری نداشت - **این چه کلاسی را پیش بینی می کند؟** من بیشتر علاقه مندم که نقشه من پیش بینی های حضور را به جای عدم حضور نشان دهد. احتمالاً یک راه حل ساده برای این ...؟ با تشکر
|
چگونه بفهمم مدل جنگل تصادفی من کدام کلاس را پیشبینی میکند؟
|
78602
|
من در حال پیاده سازی مدل ARIMAX هستم و باید انتخاب ویژگی را پیاده سازی کنم. من بیش از 100 ویژگی و داده های زیادی دارم، بنابراین به روشی نیاز دارم که از نظر محاسباتی خیلی گران نباشد. من یک الگوریتم انتخاب ویژگی رو به عقب را امتحان کردم اما خیلی گران بود. آیا رویکرد محاسباتی کمتری برای انتخاب ویژگی وجود دارد؟ شاید مانند روش انتخاب ویژگی فیلتر.
|
انتخاب ویژگی ARIMAX
|
96468
|
من نگران مدلهای Box-Jenkins و بهویژه قدم اول، پیش سفید کردن برای به دست آوردن همبستگیهای متقابل معنیدار برای شناسایی توابع انتقال و ساخت مدلهای رگرسیون هستم. من با SAS کار می کنم و در اینجا باید یک مدل ARIMA مناسب برای سری ورودی شناسایی کرد تا نویز سفید را بدست آورد و پس از آن سری پاسخ به طور خودکار توسط همان مدل فیلتر می شود. حالا من در مورد دو چیز تعجب می کنم: 1. اگر من دو سری A و B داشته باشم و نمی دانم کدام یک ورودی است و کدام یک سری پاسخ (و شاید بازخوردی وجود داشته باشد)، آیا باید روی آن تنظیم کنم. سری اول A به عنوان ورودی و آن را با یک مدل ARIMA مناسب فیلتر کنید (و سری B هم فیلتر شده است) و من فقط می توانم نگاهی به تاخیرهای مثبت (و تاخیر 0) تابع همبستگی متقابل (CCF) داشته باشم که نشان می دهد. چگونه سری A بر B تاثیر می گذارد. و در مرحله دوم باید سری B را به عنوان ورودی انتخاب کنم و همین کار را انجام دهم (یک مدل ARIMA مناسب برای B تنظیم کنید، A با همان پارامترها فیلتر می شود، به تاخیرهای مثبت (و تاخیر) نگاه کنید 0) از CCF برای دیدن اینکه B چگونه بر A تأثیر می گذارد)؟ برای من کمی عجیب به نظر می رسد، اما از نظر منطقی درست به نظر می رسد. اما بعد از خودم میپرسم مثلاً با دو مقدار تاخیر 0 مختلف چه کنم؟ (در برخی موارد در یک مورد نتایج قابل توجهی گرفتم و وقتی ورودی و پاسخ را مانند آنچه توضیح داده شد تغییر دادم معنی دار نبود) من باید با تفریق چند جمله ای detrend کنم؟ در این مورد در SAS سری پاسخ (مثلاً سری B) به یک شکل فیلتر نمی شود. آیا این درست است که برای محاسبه CCF سری های detrended را از A و سری B اصلی را بگیریم؟ خیلی خوشحال میشم اگه کسی بتونه کمکم کنه درود، دانیلا
|
سریهای زمانی پیش سفید کردن: مدلسازی ARIMA در مقابل حذف روند چند جملهای
|
11672
|
من در حال انجام پروژه ای در مورد انتخاب جنسی (رقابت نر و مرد) در ماهی فیروزه ای فیروزه ای Nothobranchius furzeri هستم. دو شکل از نرها در جمعیتی وجود دارد که ماهی من از آنها به دست می آید - یکی دم قرمز و دیگری دم زرد دارد. فرضیه صفر من این است: رنگ دم به تسلط / توانایی رقابتی مربوط نیست. من یک مرد دم زرد و یک نر دم قرمز را در یک میدان قرار می دهم و تعداد یا تعاملات تهاجمی را که در عرض 5 دقیقه انجام می شود و برنده هر کدام را ثبت می کنم. من 8 نر قرمز و 8 مرد زرد دارم که همگی با شدت رنگ مشابه هستند. من در ابتدا فکر می کردم که از هر کدام حدود 30 عدد دارم و می خواستم از نظر اندازه رتبه بندی کنم و آنها را جفت کنم (یعنی بزرگترین قرمز با بزرگترین نر و غیره) که اندازه آنها را کنترل می کند (ماهی های بزرگتر غالب هستند). با این حال، با حجم نمونه تنها 8، این برای به دست آوردن نتایج قابل توجه کافی نخواهد بود. چگونه می توانم آزمایش را دوباره طراحی کنم و از کدام آزمون های آماری استفاده کنم؟ من به ماهی دیگری دسترسی ندارم.
|
از کدام آزمون آماری برای آزمایش خود در مورد فعل و انفعالات تهاجمی در ماهی کشتار استفاده کنم؟
|
82918
|
رئیس من این فایل do را به من داد اما من هرگز با dprobit کار نکردم. من همچنین باید آن را تفسیر کنم، نتیجه این است: xi: dprobit apoyado $X، robust nolog i.fuerza _Ifuerza_1-9 (_Ifuerza_1 برای fue~a==Comando General حذف شده است) توجه: _Ifuerza_8 != 0 موفقیت را کاملاً پیش بینی می کند _Ifuerza_8 و 1 obs استفاده نشده یادداشت: _Ifuerza_2 به دلیل همخطی بودن کاهش یافت. توجه: _Ifuerza_9 به دلیل همخطی بودن کاهش یافت. ------------------------------------------------ ---------------------------- | آپویادوی قوی | dF/dx Std. اشتباه z P>|z| x-bar [95% C.I. ] ----------------------------------------------- ----------------------------- _Ifuer~3*| -.1759987 .1586211 -1.10 0.273 .162162 -.48689 .134893 _Ifuer~4*| -.3915721 .1314311 -2.56 0.011 .155405 -.649172 -.133972 _Ifuer~5*| -.2404857 .1450899 -1.60 0.110 .533784 -.524857 .043885 _Ifuer~6*| .0252801 .1673778 0.15 0.881 .087838 -.302774 .353335 _Ifuer~7*| 0.0776492 .1834521 0.41 0.681 .038851 -.28191 .437209 ---------+--------------------------------------- ---------------------------- obs. P | .5675676 پیش. P | .5723459 (در نوار x) ----------------------------------------- ------------------------------------ (*) dF/dx برای تغییر گسسته متغیر ساختگی از 0 تا 1 z و P>|z| مطابق با آزمون ضریب اساسی 0 است
|
تفاوت بین dprobit و probit در stata چیست؟
|
97625
|
من سعی می کنم به یک سوال کلی در مورد روشی برای مقایسه موسیقی که فراتر از موسیقی غربی قابل تعمیم است، اما از مقیاس های موسیقی غربی به عنوان فضای فرعی تقریبا کافی برای کاهش ابعاد استفاده می کند، پاسخ دهم. یک مدل احتمال خوب از توزیع فرکانس ها که توسط نت موسیقی غربی برای SATB و سازها نشان داده شده است چیست؟
|
یک مدل احتمال خوب از توزیع فرکانس ها که توسط نت های غربی نشان داده شده است چیست؟
|
82917
|
اجازه دهید $X$ یک متغیر تصادفی از $f(x; \theta)$ باشد، که در آن $\theta =(\theta_1,\theta_2)$ است. من می خواهم: با استفاده از الگوریتم Metropolis Hastings از این توزیع یک نمونه بگیرم و پارامترها را به طور همزمان به روز کنیم. توزیع پیشنهادی یک توزیع نرمال دو متغیره با میانگین مقدار فعلی پارامتر $\theta$ و ماتریس کوواریانس $\Sigma$ است. مراحل: با توجه به $\theta$ مرحله 1: $\theta^{can}$ را از توزیع پیشنهاد ایجاد کنید. مرحله 2: $\theta$ = $\theta^{can}$ را با احتمال $\alpha(\theta,\theta^{can}) $ درج $\alpha(\theta,\theta^{can})$ بگیرید = $min \left( \frac{f(\theta^{can})}{f(\theta)}∗ \frac{proposal(\theta)}{proposal(\theta^{can})}, 1\right)$ میدانم که $proposal(\theta^{can}) = \frac{1}{\sqrt{( 2\pi)^k|\boldsymbol\Sigma|}} \exp\left(-\frac{1}{2}({\theta^{can}}-{\theta})^T{\boldsymbol\Sigma}^{-1}({\theta^{can} }-{\theta}) \راست)$. میخواهم بپرسم که آیا $proposal(\theta) = 0$ است. خیلی ممنون.
|
پیاده روی تصادفی با توزیع نرمال دو متغیره
|
65493
|
من سعی می کنم یک پیشین برای پارامترهای کوواریانس فرآیند گاوسی (GP) خود انتخاب کنم و با کد MCMC خود با مشکلات عددی مواجه شده ام. مدل من به صورت زیر است: $$Y = D\beta + GP(0,\sigma^2R(\psi))$$ که $R$ ماتریس همبستگی زیر است: $$R_{i,j}(\psi )=\exp(\psi(x_i-x_j)^2)$$ موارد قبلی من برای $\beta$ و $\sigma^2$ به شرح زیر است: $$p(\beta)\propto 1$$ و $$\sigma^2\sim IG(a,b)$$، بنابراین آنچه که من سعی میکنم کشف کنم این است که چه انتخابهای مناسب قبلی برای $\psi$ وجود دارد. تا کنون سعی کردهام گامای معکوس را روی $\psi$ قرار دهم، اما خیلی خوب پیش نرفت. این یک بهروزرسانی است: اگر به احتمال زیاد کمک میکند، فرمولبندی مشکل دیگر وجود دارد: $$f(\beta,\sigma^2,\psi|x)\propto|\sigma^2R(\psi)|^{-1/2 }\exp(-\frac{1}{2}(Y-D\beta)'R(\psi)^{-1}(Y-D\beta))$$ قبلی: $$p(\beta,\sigma^2,\psi)=p(\beta|\sigma^2,\psi)p(\sigma^2|\psi)p(\psi)\propto\sigma^{ -a-1}\exp(-b/\sigma^2)p(\psi)$$ اکنون، بر اساس نسخه قبلی خود در این قبلی، سعی کرده ام یک کلانشهر را در گیبس کدنویسی کنم. نمونهبردار با شرایط کامل زیر: $$\beta|\sigma^2,\psi,Y\sim N(\hat\beta,D'(\sigma^2 R(\psi))^{-1}D) $$ $$\sigma^2|\beta,\psi,Y\sim IG(a,b)$$ $$\psi|\beta,\sigma^2,Y\propto |R(\psi)|^{-1/2}\exp(-\frac{1}{2\sigma^2}(Y-D\beta)'R(\psi)^{-1}(Y-D\beta ))p(\psi)$$ بنابراین من $\beta$ و $\sigma^2$ را در یک مرحله gibbs نمونه میکنم و سپس از یک مرحله M-H برای نمونهبرداری از $\psi$ استفاده میکنم اما حالم وحشتناک است. مشکلات عددی هنگام نمونه برداری از $\psi$ (اصولاً نسبت پذیرش من 0/0 است). در نهایت، اگر کمکی کرد، کدی را برای شما ارسال می کنم. کد: x = sort(runif(5,0,1)) y = exp(-1.4*x)*cos(7*pi*x/2) plot(x,y,type='l',ylim=c (-1،1)) tau = as.matrix(dist(x, upper=T, diag=T)) corrR = تابع (psi,tau){ R = exp(-tau^2*psi) return(R)} psi.cond = تابع (psi,r,sig,D,بتا,Y){d = 0.01 e = 0.01 ans = det(r)^(-.5)*exp(-.5 /sig*t(Y-D*beta)%*%solve(r)%*%(Y-D*beta))*psi^-(d+1)*exp(-e/psi) #ans = -.5*log(det(r))-.5/sig*t(Y-D*بتا)%*%حل(r)%*%(Y-D*بتا)-(d+1)*log(psi)- e/psi return(as.real(ans)) } D = rep(1,length(x)) Y = as.matrix(y) m = length(x) a = 0.01 b = 0.01 B = 100 بتا = rep(NA,B) sigma = c(1,rep(NA,B-1)) psi = c(120,rep(NA,B-1)) for(i در 1:B){R = corrR(psi[i]،tau) bhat = as.real(solve(t(D)%*%solve(R)%*%D)%*%t(D)%*%solve(R)%*%Y) beta[i] = rnorm(1، bhat,t(D)%*%solve(sigma[i]*R)%*%D) sigma[i+1] = 1/گاما(1،(m+2*a)/2،(به عنوان واقعی(t(Y-D*بتا[i])%*%حل(R)%*%(Y-D*بتا[i]))+ 2*b)/2) log.xi = rnorm(1,log(psi[i])،.1) xi = exp(log.xi) u = runif(1) R.xi = corrR(xi,tau) R.psi = corrR(psi[i],tau) temp = (psi.cond(xi,R.xi,sigma[i],D,بتا[i],Y)*(1/psi[i])) /(psi.cond(psi[i],R.psi,sigma[i],D,بتا[i],Y)*(1/xi)) alpha = min(1,temp) if(u <= آلفا){ psi[i+1] = xi }دیگر{ psi[i+1] = psi[i] } }
|
انتخاب قبلی برای فرآیندهای گاوسی (GP)
|
51954
|
من یک مجموعه داده از 903 مشاهدات پیوسته دارم که به صورت گرافیکی با یک هیستوگرام تجسم می کنم. مقادیر bin و عرض را می توان بهینه کرد، اما منطقی است که از توزیع من یک تابع گاوسی داشته باشم. وقتی فیتینگ را انجام می دهم، از مقادیر فرکانس داده ها به عنوان مقادیر Y استفاده می کنم. به عنوان مثال، اگر مشاهدات ${(2،3،3،3،4،4،5)}$ باشند، و عرض bin تعریف شده توسط کاربر 1.0 باشد، آنگاه مقادیر y مربوطه $(1،3 خواهد بود. ,3,3,2,2,1)$، با فرض اینکه اولین حد بن به عنوان حداقل مقدار اختصاص داده شود. من با آزمون مجذور کای ($\chi^2$) از نظر خوبی برازش ($Q$) با برازش گاوسی معنیداری آماری را بدست نمیآورم. به عبارت دیگر، فرضیه صفر من رد می شود که مدل گاوسی داده های تجربی را نشان نمی دهد. اکنون، من همان آزمایش را انجام میدهم، اما با استفاده از یک نسخه هیستوگرام جابجا شده میانگین از مقادیر x و فرکانس برای آن binهای میانگین به عنوان مقادیر y برای هر مشاهده، اکنون نتایج خوبی از نظر خوبی برازش به دست میآورم. من باید روشن کنم که آیا برای پی بردن به خوب بودن تناسب برای هیستوگرام جابجا شده متوسط معتبر است یا اینکه سوگیری واضحی برای برازش داده ها وجود دارد. در اینجا یک نمودار q-q از داده ها است: 
|
آزمایش کای دو برای داده های هیستوگرام پس از انجام یک هیستوگرام با جابجایی میانگین
|
11676
|
من فرمولی برای شبه $R^2$ را در کتاب بسط مدل خطی با R، جولیان جی فاراوی (ص. 59) پیدا کردم. $1-\frac{\text{ResidualDeviance}}{\text{NullDeviance}}$$. **آیا این یک فرمول رایج برای شبه $R^2$ برای GLM است؟**
|
فرمول شبه R مربع برای GLM ها
|
69795
|
من یک اسکرین شات دارم و این سوال می پرسد که اگر اندازه نمونه مسدود شده است، محتمل ترین اندازه نمونه ای که برای ایجاد این نتایج استفاده شده است چقدر است. چگونه این کار را انجام دهم؟ پاسخ های ممکن 5، 10، 20 و 25 است و 25 پاسخ صحیح است. میانگین 8.08، میانه 7، sd=6.22 skew=0.83 در بالا را می دهد.
|
اندازه نمونه از نمودار
|
19319
|
این به نظرم اساسی بود، اما به نظر نمیرسد راهحلی به صورت آنلاین پیدا کنم، بنابراین فکر کردم چه چیزی ممکن است از دست بدهم. من می خواهم خروجی یک شی خلاصه lm را در یک سند Sweave (.Rnw) قرار دهم. من می توانم از summary.lm همانطور که هست خروجی بگیرم یا از بسته های xtable/Hmisc (از طریق دستورات xtable یا latex) استفاده کنم. آیا چیزی مانند xtable وجود دارد که اطلاعات خلاصه ای را که از خارج از جدول در دسترس است را نیز ارائه دهد؟ ($R^2$، آمار F و غیره...؟) با تشکر.
|
خروجی LaTeX برای شی summary.lm R - در حالی که اطلاعات خارج از جدول نمایش داده می شود
|
19316
|
در بازی Pitch شانس پخش شدن جک ترامپ در 24 کارت چقدر است؟
|
این احتمال وجود دارد که جک ترامپ 46 درصد زمان را در زمین بازی انجام دهد
|
51957
|
من فقط یک مثال پیدا کردم که در آن محدودیت $\beta_i، \ i=1،...k$ آنها را به یک تبدیل می کند و همچنین محدودیتی را معرفی می کند که همه $\beta_i$ همگی بزرگتر یا مساوی صفر باشند. از آنجایی که من به شرطی برای جمع $\beta_i$ نیازی ندارم، کاملاً مطمئن نیستم که چگونه با این مشکل برخورد کنم. از آنجایی که در این زمینه یک ماتریس $C$ از محدودیت ها معرفی شده است به گونه ای که $C\beta = c$، من مطمئن نیستم که چگونه با $C\beta \geq 0$ برخورد کنم. هر گونه پیشنهاد بسیار استقبال می شود!
|
حداقل مربعات محدود: شرط این است که بردار پارامتر بزرگتر یا مساوی صفر باشد
|
90930
|
من یک پایگاه داده ادغام شده از دو نظرسنجی مقطعی برای سالهای متمایز دارم ($t_1$ و $t_2$). اگر همه سؤالات دقیقاً یکسان بودند، میتوانستم دادهها را به صورت افقی جمع کنم و یک OLS معمولی پنل داده را اجرا کنم. مشکل این است که برخی از متغیرها فقط برای $t_1$ وجود دارند، در حالی که متغیرهای دیگر فقط برای $t_2$ وجود دارند. بنابراین سوال من این است: آیا باید مانند بالا عمل کنم و این متغیرها را نادیده بگیرم، آیا باید OLS مقطعی را روی هر پایگاه داده جداگانه با استفاده از همه متغیرهای موجود برای آن سال اجرا کنم (و سپس راهی برای تجمیع نتایج وجود دارد؟ ) یا می توانم یک مدل SUR را اجرا کنم که در آن برای هر سال از همه متغیرهای موجود استفاده کنم و ضرایب را محدود کنم که یکسان باشند؟
|
استفاده از داده های پانل با متغیرهای مختلف: SUR یا OLS به طور جداگانه؟
|
82916
|
از خودم میپرسیدم که آیا کسی میتواند کمک کند تا یک ANCOVA برای من روشن شود، یا شاید من را در جهت درست پست کند. من مجموعه ای از اقدامات نتیجه را دارم که قبل و بعد از درمان انجام شده است. من گروه کنترل ندارم. دادههای من در قالب طولانی هستند (یعنی هر فرد دادههایی در 2 ردیف دارد، یکی برای قبل از درمان، یکی برای بعد از درمان). من می خواهم یک ANCOVA با نمرات پایه به عنوان متغیر کمکی انجام دهم. زمان عامل ثابت من است. به من گفته شده است که دادههایم را در قالب طولانی داشته باشم (توسط شخصی کاملاً ارشد)، اما نمیخواهم آنها را به فرمت گسترده تبدیل کنم و سپس از امتیاز نتیجه به عنوان DV خود استفاده کنم. من از SPSS برای تجزیه و تحلیل استفاده می کنم.
|
قالب بندی داده ها برای یک ANCOVA در SPSS
|
114166
|
من در حال مقایسه عملکرد کتابخانههای pROC و AUC هنگام انجام محاسبات auc() روی دادههای تصادفی بودم: library(pROC); کتابخانه (AUC) پیش بینی <- rnorm(10000, 5); نتیجه <- rnorm(10000) > 0; print (pROC:::auc() time & output) system.time(x <- proROC:::auc(نتیجه، پیش بینی)) print(x); print (AUC:::auc() زمان و خروجی) system.time(x <- AUC:::auc(AUC:::roc(پیش بینی، عامل(نتیجه)))) print(x); به نظر میرسید AUC:::auc بسیار سریعتر عمل میکند، اما چیزی که برای من عجیب بود این است که محاسبه مقادیر auc مختلف برای یک مجموعه داده: > system.time(x <- pROC:::auc(نتیجه، پیشبینیکننده)) سیستم کاربر سپری شده است. 1.00 0.01 1.31 > print(x); ناحیه زیر منحنی: 0.5058 > چاپ (AUC:::auc()زمان و خروجی) [1] AUC:::auc() time & output > system.time(x <- AUC:::auc (AUC:::roc(پیش بینی، عامل(نتیجه)))) سیستم کاربر سپری شده 0.19 0.00 0.18 > print(x); [1] 0.4942452 من فکر کردم که تابع Auc() قطعی است، بنابراین آنها باید همان عدد را تولید کنند. با این حال، pROC 0.5058 و AUC 0.4942452 تولید می کند. آیا من از هر یک از عملکردها سوء استفاده می کنم؟ EDIT: FYI من سعی کردم عدد را نیمه تصادفی کنم و توابع اکنون نتایج یکسانی دارند (خطاهای گرد کردن نوار): پیشبینی کننده <- runif(10000); نتیجه <- as.integer((predictor + runif(10000)) > 0.5);
|
تفاوت در محاسبه AUC در R بین pROC و AUC
|
11674
|
چگونه یک الگوریتم رایانه ای تنظیم می شود تا یک تابع چگالی احتمال دو متغیره آربیاری را به عنوان ورودی بگیرد و از آن توزیع جفت اعداد تولید کند؟ من روتینی به نام simcontour پیدا کرده ام که بخشی از LearnBayes در R است که آن عملیات را انجام می دهد.
|
تولید نمونه های تصادفی از تابع چگالی
|
60515
|
هنگام اجرای یک رگرسیون OLS با یک عبارت مربع، $$ y = a + b_1(X) + b_2(X^2) + e $$ می دانم که اثر جزئی $X$ $b_1 + 2b_2 (\bar X است. )$ برای به دست آوردن اثر کلی $X$ روی $Y$ که با میانگین ارزیابی می شود. با استفاده از حاشیههای reg y x c.x#c.x، dydx(*) atmeans این کار را در Stata انجام میدهد و همچنین دارای 95% CI برای اثر کلی است. سوال من اکنون این است: حاشیه چگونه خطای استاندارد و 95% CI اثر کلی X$ را در میانگین محاسبه می کند؟
|
فاصله اطمینان برای مجذور ترم با میانگین در Stata ارزیابی می شود
|
69797
|
از چه نوع تکنیک / فرمول تجزیه و تحلیل داده ها برای توصیف سریع ترین سیستم عامل در این نمودار استفاده می کنید، ویندوز یا لینوکس؟  اگر لینوکس و ویندوز در همه آزمایش ها سرعت یکسانی داشتند، همه نوارها 50% آبی و 50% سبز بودند. مدت زمان داده ها بر حسب میلی ثانیه است. هر عدد (به عنوان مثال راه اندازی لینوکس) نشان دهنده میانگین 1000 آزمایش مدت زمان فردی در آن سناریو است. نتایج هر آزمون به صورت جداگانه در نمودارهای جداگانه پوشش داده شده است. این داده یک نمای کلی از یک مجموعه داده (لینوکس در طول این 5 آزمایش) و نحوه ارتباط آن با مجموعه دوم داده ها (ویندوز در طول این 5 آزمایش) را نشان می دهد. هدف این است که بتوانیم بگوییم: در طی 5 تست ما ویندوز سریعتر است. (این را می توانید در نمودار ببینید زیرا رنگ سبز کمتری وجود دارد، اما این برای اثبات آماری آن است). توجه: نمودار زیر همان داده ها را به صورت ارزش واقعی نشان می دهد و نشان می دهد که یکی از آزمون ها بر تست های دیگر غالب است. در حالی که این یک نتیجه مهم است، اما روی سوال فعلی تاثیری ندارد زیرا دو نتیجه در تست Refreshing Desktop همچنان با یکدیگر رابطه مشابهی با سایر آزمون ها دارند. در نظرات در مورد چگونگی نمایش این داده ها بحث شده است. دلیل اینکه من آن را در نوارهای پشتهای نشان میدهم این است که میخواهم آن را _بدون_ اثر سایهاندازی یک داده غیرعادی نشان دهم. آیا روش ترجیحی برای نشان دادن این رابطه وجود دارد؟ 
|
چه نوع آماری برای توصیف این نمودار استفاده می شود؟
|
51958
|
من یک ANOVA یک طرفه از متغیر پاسخ (Y) را روی فاکتور درمانی (T) از 7 سطح انجام می دهم. با این حال، برای هر درمان، من فقط 2 مشاهده (یا تکرار) دارم. نتایج ANOVA نشان میدهد که میانگینها در کل تیمار بسیار معنیدار هستند (001/0p<). من فرضیات عادی و واریانس ثابت را بررسی کرده ام و به نظر می رسد که داده های من این فرضیات را نقض نمی کند. سوال من این است: آیا می توانم به نتیجه ANOVA اعتماد کنم، حتی اگر حجم نمونه بسیار کوچک باشد (n=2*7=14)؟ اولین سوالی که به ذهن من می رسد قدرت آزمون من است. از آنجایی که ANOVA من اندازه اثر 0.9 را به دست آورده است. من یک تجزیه و تحلیل توان (با استفاده از Q*Power.3) انجام دادم تا ببینم چند نمونه برای به دست آوردن چنین اندازه اثری با سطح معنی داری 0.05 و توان 0.8 مورد نیاز است. نتیجه نشان داد که حداقل به 28 نمونه نیاز دارم. از آنجایی که تعداد نمونه های من بسیار کمتر از مقدار مورد نیاز است، آیا به این معنی است که نتایج ANOVA من قابل اعتماد نیستند؟
|
آیا می توانم به نتیجه یک آنالیز واریانس یک طرفه با درمان های زیاد که هرکدام تکرار بسیار کمی دارند اعتماد کنم
|
96460
|
من میخواهم یک متاآنالیز چند متغیره (تحلیل متا بازوی درمان چندگانه) با مقایسه اثر داروهای مختلف انجام دهم. اندازه گیری نتیجه من گسسته است و تعداد وقوع یک عارضه جانبی خاص را در طول دوره مشاهده توصیف می کند. مطالعاتی که میخواهم شامل شود، نسبت شانس (OR) و 95% CI آنها از این عارضه جانبی را برای هر دارو نسبت به یک داروی پایه گزارش میکنند. مشکل این است که مطالعات داروهای مختلف را به عنوان خط پایه تعریف کرده اند. * آیا صرفاً تبدیل OR من برای آوردن آنها به یک داروی پایه رایج معتبر است؟ * آیا تبدیل 95% CI OR به همین صورت معتبر است؟ * معمولاً 95% CI برای داروی پایه گزارش نشده است. بنابراین وقتی این داروی پایه را تبدیل می کنم، 95% CI ندارم. آیا راهی برای استخراج 95% CI در این مورد وجود دارد؟ در اینجا چند داده ساختگی وجود دارد: ساختار(لیست(مطالعه = ساختار(c(2L, 2L, 2L, 2L, 2L, 3L, 3L, 3L, 3L, 3L, 1L, 1L, 1L, 1L, 1L), .Label = c(لیو، مارک، اسمیت)، کلاس = عامل)، دارو = ساختار (c(1L، 2L، 3L، 4L، 5L، 1L، 2L، 3L، 4L، 5L، 1L، 2L، 3L، 4L، 5L)، .Label = c(A، B، C، D، E)، کلاس = عامل)، OR = c(1، 1.5، 1.7، 1.8، 2.5، 2.8، 1.1، 1، 2.3، 1.2، 1.8، 1.2، 2.5، 1، 1.8)، ci_lb = ساختار(c(13L، 5L، 4L، 9L، 11L، 12L، 2L، 13L، 10L، 1L، 6L، ، 13 لیتر، 7 لیتر)، .برچسب = c(0.5556، 0.6225، 0.7619، 1.2628، 1.365، 1.4212، 1.5758، 1.6208، 1.7048، 1.7435، 1.9497، 2.353 , NA)، class = factor)، ci_ub = ساختار(c(13L, 2L, 7L, 5L, 10L, 11L, 1L, 13L, 9L, 4L, 8L, 3L, 12L, 13L, 6L), .Label = c(1.5775, 1.635, 1.63 ، 1.8444, 1.8952، 2.0242، 2.1372، 2.1788، 2.8565، 3.0503، 3.2469، 3.3792، NA)، کلاس = عامل))، .Names = c(مطالعه، دارو، OR، ci_lb، ci_ub)، row.names = c(NA، -15L)، کلاس = data.frame) > my_data مطالعه دارو OR ci_lb ci_ub 1 Mark A 1.0 NA NA 2 Mark B 1.5 1.365 1.635 3 Mark C 1.7 1.2628 2.1372 4 Mark D 1.8 1.7048 1.7048 1.79 1.89 3.0503 6 Smith A 2.8 2.3531 3.2469 7 Smith B 1.1 0.6225 1.5775 8 Smith C 1.0 NA NA 9 Smith D 2.3 1.7435 2.8565 10 Smith E 1.24 A 1.211. 1.4212 2.1788 12 Liu B 1.2 0.7619 1.6381 13 Liu C 2.5 1.6208 3.3792 14 Liu D 1.0 NA NA 15 Liu E 1.8 1.5758 1.5758 mydata <-2. my_data[my_data$study==Mark,] my_data_2 <- my_data[my_data$study==Smith,] my_data_3 <- my_data[my_data$study==Liu,] my_data_2$OR <- my_data_2$OR * 1/my_data_2$OR[my_data_2$drug==A] my_data_3$OR <- my_data_3$OR * 1/my_data_3$OR[my_data_3$drug==A] my_data_2$ci_lb <- my_data_2$ci_lb * 1/my_data_2$OR[my_data_2$drug==A] my_data_3$ci_lb <- my_data_3$ci_lb * 1/my_data_3$OR[my_data_3$drug==A] my_data_2$ci_ub <- my_data_2$ci_ub 1/my_data_2$OR[my_data_2$drug==A] my_data_3$ci_ub <- my_data_3$ci_ub * 1/my_data_3$OR[my_data_3$drug==A] my_data_new <- rbind(my_data_2, my_data_3, my_data_3)_ my_data_new my_data_new$OR <- round(my_data_new$OR, 2) my_data_new$ci_lb <- round(my_data_new$ci_lb, 2) my_data_new$ci_ub <- round(my_data_new$ci_ub, 2) > my_data_new ci_OR . NA NA 2 Mark B 1.50 1.36 1.64 3 Mark C 1.70 1.26 2.14 4 Mark D 1.80 1.70 1.90 5 Mark E 2.50 1.95 3.05 6 Smith A 1.00 2.35 3.14 B.203 Smith 0.36 NA NA 9 Smith D 0.82 1.74 2.86 10 Smith E 0.43 0.56 1.84 11 Liu A 1.00 1.42 2.18 12 Liu B 0.67 0.76 1.64 13 Liu3 0.56 1.64 13 Liu A 1.00 0.56 NA NA 15 Liu E 1.00 1.58 2.02
|
تبدیل نسبت شانس (OR) در زمینه متاآنالیز چند متغیره در R (بسته متافور)
|
11678
|
من می خواهم مرجعی پیدا کنم، ترجیحاً رایگان در اینترنت، که در آن بتوانم در مورد توجیه نظری یا عملی استفاده از توزیع های احتمال پارامتری / تحلیلی مطالعه کنم. منظور من از توزیع های پارامتریک، توزیع های نامگذاری شده مانند Normal، Weibull و غیره است.
|
از کجا می توانم در مورد توجیه استفاده از توزیع های احتمال پارامتریک مطالعه کنم؟
|
17787
|
من فقط تعجب می کنم که چه چیزهایی می توانند باعث از بین رفتن برق شوند (برعکس کاهش نویز داده ها برای افزایش قدرت تست). آیا کسی می تواند خلاصه یا ایده ای ارائه دهد که چگونه می توان در مورد مسئله قدرت فکر کرد؟
|
چه چیزی باعث از دست دادن قدرت در آزمون فرضیه می شود؟
|
93637
|
من در حال نوشتن مقاله ای در مورد تأثیرات اعلامیه های M&A بر قیمت سهام هستم. من اکثر الزامات را کاملاً خوب درک می کنم، اما در یک بخش خاص از مقاله گیر کرده ام. من برای هر هدف و خریدار قیمت سهام در محدوده [-170، 10] روز دارم، که در آن روز 0 تاریخ اعلام است. من از [-170، -71] برای محاسبه بازده های غیرعادی در [-10، 10] استفاده می کنم که پنجره رویدادی است که به آن علاقه مند هستم. -11] به این معناست که برای هر شرکت/سهام می توان 4 متغیر ساخت که عبارتند از دوره قیمت سهام = بازده سهام [-70, -11]، سهام-سیگما = نوسانات سهام [-70، -11]، نوسان قیمت بازار = بازده بازار [-70، -11]، و بازار-سیگما = نوسانات بازار [-70، -11]. به دنبال این، من قرار است از این چهار متغیر برای هر دو رگرسیون تک متغیره و چند متغیره برای CAR[K,L] استفاده کنم که در آن [K,L] بسته به تعداد روزهایی که اثر اعلام قابل توجهی پیدا شده است، انتخاب میشود. سوال من این است: چرا می خواهم این را در مقاله خود داشته باشم، به معنای واقعی کلمه نمی دانم چرا این موضوع جالب است. هدف از چهار متغیر چیست و چرا می توان از آن برای پسرفت در CAR استفاده کرد؟ من می دانم که این یک سوال کاملا اقتصادی است، اما فکر می کنم این نظریه ماهیت آماری دارد و یک سایت stackexchange اقتصادی وجود ندارد، بنابراین تصمیم گرفتم این سوال را اینجا بپرسم. اگر کسی بتواند کمکی کند، حتی کوچکترین اشاره ای، بسیار سپاسگزار خواهم بود. از هر کمکی که می توانید بکنید متشکرم!
|
چرا میخواهم از دادههایم به این شکل استفاده کنم، و با این رگرسیون چه کار باید بکنم؟
|
62918
|
من اخیراً مقاله آیا واقعاً مقاوم است؟ (Schmider, E., Ziegler M., Danay, E., Beyer, L. & Bühner M., 2010) نویسندگان مقاله به این نتیجه می رسند که ANOVA در برابر نقض فرض نرمال بودن کاملاً قوی است. با این حال مطالعه بر روی ANOVAهای یک طرفه متمرکز است. میخواهم بدانم که آیا این یافتهها را میتوان بر روی آنالیز واریانس اندازهگیریهای مکرر دو طرفه تعمیم داد؟ ارجاع به مقالات بررسی شده بسیار قدردانی می شود! * * * ### مراجع Schmider, E., Ziegler M., Danay, E., Beyer, L. & Bühner M. (2010). آیا واقعا قوی است؟. _روش شناسی، 6 (4)، _ 147 - 151.
|
استحکام ANOVA دو طرفه در برابر نقض نرمال بودن
|
52799
|
تصور کنید که یک عدد 1 را انتخاب کنید زمانی که هر عدد واقعی به همان اندازه محتمل است. پی دی اف چیه؟ آیا این ایده کاربرد شناخته شده ای دارد؟ اسمش چیه؟ میتوان از یک عدد واقعی تصادفی یکنواخت استفاده کرد. ممکن است در نهایت همیشه یکپارچه شود. ممکن است برای عددی که کاملاً ناشناخته است، پیشینی باشد. این تابع مانند یک تابع دلتا است که با یک عدد متناهی ادغام می شود، اگرچه مقدار کاملاً مشخصی در صفر ندارد. تابع دلتا از هر عددی در صفر بزرگتر است. این تصادفی یکنواخت در (-inf,inf) هیچ جا به خوبی تعریف نمی شود. از هر عدد مثبتی کوچکتر و از صفر بزرگتر خواهد بود. چیست؟
|
تصادفی یکنواخت در $(-\infty,\infty)$
|
11679
|
من یک مطالعه کنترل موردی تو در تو دارم که از آن برای تجزیه و تحلیل استفاده کرده ام. در پایان کارم مجموعهای از متغیرها را استنباط کردهام که بعداً برای طبقهبندی موارد جدید از آنها استفاده میکنم. یکی از نمونههای طبقهبندیکننده سادهای که من استفاده میکنم، یک Bayes سادهلوح است که به سادگی یک احتمال را خروجی میدهد. بنابراین سوال من اینجاست: آیا می توانم احتمالاتم را منعکس کننده دنیای واقعی کنم؟ در مثال خاص من، وضعیتی که من برای آن آزمایش میکنم شیوع 33 درصدی در مطالعه من دارد، اما شیوع آن در جمعیت تنها 10 درصد است. فاکتورهای Bayes به عنوان راهی برای دستیابی به این هدف به من پیشنهاد شده است، اما من کمی مطمئن نیستم که چگونه مشکل را تنظیم کنم. به عنوان مثال، من یک عامل بیز را به عنوان یک منطق بین شیوع واقعی در مقابل مطالعه نتیجه دیدم. با این حال، طبقهبندیکننده یک رگرسیون لجستیک بود، و در آن حالت عامل بیز فقط به پیشبینیکنندههای خطی اضافه شد. فکر میکنم مثال آنجا بسیار خاص و شاید روشی نامناسب برای احتمالات یک بیز سادهلوح بود. در عوض کاری که من انجام دادم این بود که عامل logit Bayes را به احتمالات ثبت شده اضافه کردم، اما همچنین متقاعد نشده ام که این درست باشد. همچنین فکر میکنم راهحل سادهتر استفاده مستقیم از قضیه بیز است، اما در آنجا مطمئن نیستم که چگونه شیوع مطالعه خود را در مقابل جمعیت نشان دهم. روش زیر کاملاً درست نیست، اما به چیزی که میخواهم میرسد: p_final = classier_posterior*(population_prev)/(study_prev) باید زمینهسازی کنم که از احتمالات برای ایجاد آستانهای برای طبقهبندی پایین جریان استفاده میکنم.
|
احتمالات در مطالعات مورد شاهدی
|
27936
|
من نزدیک به 50 فایل دارم (هر فایل مربوط به یک بیمار است) با 4 ستون - مقدار شروع کروموزوم. موقعیت stop.pos 3 ستون اول در هر 50 فایل یکسان است و ستون چهارم مقداری است که متفاوت است (یا برای برخی می تواند یکسان باشد). ) برای همه بیماران. اساساً این مقدار با تعداد کپی (تنوع ساختاری در ژنوم) مطابقت دارد. من می خواهم آزمایشی را اعمال کنم (یا اگر می توانید روش دیگری را پیشنهاد دهید) تا مقادیری را که در مقایسه با سایرین انحراف دارند، پیدا کنم. مثال- file1 کروموزوم start.position stop.pos value 1 10 110 4 2 100 200 5 2 500 600 0.5 file2 chromosome start.position stop.pos value 1 10 110 2.5 2 100 200 200 6. 6 0 file start.position stop.pos value 1 10 110 3 2 100 200 5.5 2 500 600 3.5 file4 chromosome start.position stop.pos value 1 10 110 2 2 100 200 0.9 2 500 start.position 600. 10 110 8 2 100 200 4.5 2 500 600 2.5 بنابراین در خروجی، file5 دارای مقدار قابل توجهی (در مقایسه با موقعیت مشابه سایر فایل ها) در ردیف 1، file4 دارای ارزش قابل توجهی در ردیف 2 و file1 و file2 دارای ارزش قابل توجهی در ردیف 3 است. من 1 راه حل در ذهنم دارم - از هر فایل یک ردیف انتخاب کنید و میانگین مقادیر را بگیرید. سپس این میانگین را با هر فایل مقایسه کنید و اگر در مقایسه با میانگین قابل توجه است، موقعیت را برگردانید. اما من فکر می کنم باید راه حل بهتری برای این وجود داشته باشد. آیا می توانید هر آزمایش یا روش دیگری را که برای تکمیل این کار استفاده کنید، پیشنهاد دهید. پیشاپیش ممنون ویرایش: پس از خواندن نظر جوئل. بله سوال خاصی در ذهنم هست همانطور که اشاره کردم این فایل ها مربوط به هر بیمار است، بنابراین من در تلاشم تا دریابم که آیا یک بیمار در موقعیت خاصی (یعنی ردیف) به میزان قابل توجهی افزایش یا کاهش یافته است. خوب، اکنون می توانیم فقط در مورد 1 ردیف صحبت کنیم. فقط 1 موقعیت (1 ردیف) را در نظر بگیرید، مقادیر را بگیرید (در این مورد، برای ردیف اول ما 5 مقدار خواهیم داشت همانطور که پنج فایل داریم) و از این مقادیر بررسی کنید که کدام مقدار به طور قابل توجهی از مقدار دیگر منحرف می شود. بنابراین اگر می توانید برای 1 ردیف راه حل به من پیشنهاد دهید، من می توانم آن را برای تمام ردیف ها یک به یک انجام دهم. لطفا اگر مشخص نیست به من اطلاع دهید.
|
آزمون آماری برای یافتن موقعیت های معنی دار دارای مقادیر انحراف
|
52793
|
پروژه من شناسایی عوامل موثر بر موتور سیکلت برای سفر خانه به دفتر است. برخی از ویژگی ها مانند جنسیت، سن، وضعیت تأهل، مدرک تحصیلی، نوع شغل، بخش کاری، خیر وجود دارد. اعضای خانواده، اعضای شاغل در خانوار، درآمد ماهانه، کل درآمد خانوار، شماره. موتور سیکلت، اعضای دارای گواهینامه رانندگی موتور دوچرخه (D.L)، شماره. از خودروها، اعضای دارای ماشین D.L، آیا D.L برای موتور سیکلت دارید، آیا D.L برای ماشین دارید، نوع خانه، وضعیت زندگی در خانه، آیا از خانه کار می کنید، آیا از اینترنت برای مقاصد اداری استفاده می کنید، نه. روزهایی که از خانه کار میکنید، هدف سفر، زمانبندی دفتر یعنی زمان شروع و پایان، وسیله نقلیه برای سفر فوق، فاصله خانه تا دفتر، زمان از خانه به دفتر و دفتر به خانه، دلیل ترجیح دادن به وسیله نقلیه شخصی، احتمال دارد کرایه (اگر با اتوبوس یا اتوموبیل مشترک می روید)، هر کودکی را در حین رفتن به دفتر به مدرسه رها کنید، آیا مدرسه در راه شما به دفتر می آید، همسر فرد شاغل است، آیا همسرتان را ترک می کنید؟ به دفتر او، اتوبوس شهری به منزل شما قابل دسترسی است، مسافت پیاده روی از خانه تا ایستگاه اتوبوس، زمان انتظار در ایستگاه اتوبوس... و برخی از این سوالات به یکدیگر مربوط می شوند، مانند اینکه همسر کار می کند؟ اگر نه، او نباید سوال بعدی را پر کند. همچنین دوست دارم هر بچه ای را به مدرسه رها کنم.. در سوال مربوطه باید از چه استفاده کنم... - (یا) 9999...همچنین در مورد متغیرهای وابسته و مستقل و طبقه بندی کاملاً گیج شده ام. ... همچنین مدلی که برای این پروژه استفاده می کنیم چه لجستیک لجستیک باینری (یا) چند جمله ای ...
|
عوامل وابسته و مستقل و مقوله ای برای پروژه زیر چیست؟
|
64364
|
طبق قضیه بیز، $P(y|\theta)P(\theta) = P(\theta|y)P(y)$. اما با توجه به متن اقتصاد سنجی من، می گوید که $P(\theta|y) \propto P(y|\theta)P(\theta)$. چرا اینجوریه؟ نمی دانم چرا $P(y)$ نادیده گرفته می شود.
|
چرا چگالی خلفی متناسب با تابع احتمال چگالی قبلی است؟
|
93639
|
حدس میزنم این بدان معناست که حذف برخی از متغیرها در یک بازه زمانی خاص، مثلاً $(x_1، x_2، x_3، x_4، x_5) \to (x_1، x_5)$ در مدل AR(4). درست است؟ یا این به معنای حذف خودهمبستگی با تنظیم متغیرهای همبستگی خودکار با روش خاصی است؟ پیشاپیش متشکرم
|
سری های فیلتر شده AR(p) به چه معناست؟
|
11677
|
من در درک برآوردگرهای مختلف که می توانند در ارزیابی تاثیر استفاده شوند مشکل دارم. من میدانم که تخمینگر قصد درمان (ITT) تفاوتهای بین افراد واجد شرایط بدون برنامه و افراد واجد شرایط را با برنامه، بدون توجه به انطباق، مقایسه میکند. با این حال، من فکر کردم که میانگین اثر درمانی (ATE) نیز همین مورد را اندازه گیری می کند. با این حال، به نظر می رسد که ATE انطباق را در نظر می گیرد. بنابراین، نتایج را بین افراد واجد شرایط و شروع درمان با افرادی که واجد شرایط نیستند مقایسه می کند. آیا این درست است؟
|
تفاوت بین ITT و ATE چیست؟
|
93634
|
من در حال مطالعه در مورد شبکه های عصبی کانولوشن هستم. همانطور که فهمیدم نقشه ویژگی مجموعه ای از نورون ها است (یعنی مانند یک لایه پنهان واحد در ANN سنتی). پس چرا نقشه های ویژگی با (i,j) نمایه می شوند؟ آیا یک نقشه ویژگی نباید تنها با یک شاخص نمایه شود زیرا فقط مجموعه ای از نورون ها است؟ در تصویر زیر لایه C1 دارای 6 نقشه ویژگی است. تصویر می گوید که یک نقشه ویژگی 28 در 28 است. اما چرا؟! چرا دو بعدی؟! 
|
چرا نقشه های ویژگی توسط دو شاخص نمایه می شوند؟
|
27933
|
من با خطای خطا در گره Y1 مواجه میشوم[5] گره مشاهدهشده با والدین مشاهدهنشده مغایرت دارد در هنگام شروع آزمایش مدل اشکالات زیر در JAGS که از R قابل دسترسی است: ظاهرا «Y1[5] = 2» باعث ایجاد مشکل در «dcat» میشود. اما به نظر نمی رسد دلیل آن را بفهمم. هر گونه کمکی قدردانی می کنم. ### DATA d1 <- ماتریس(c(1,1,1,1,2,2,2,3,3,3,3,4,4,5,5,5, 0,0,0 ,0,0,0,1,0,0,1,1,1,1,1,0,1,1),ncol=2) d2 <- ماتریس(c(1,1,1,2,2,3,3,3,4,4,5,5,5, 0,0,0,0,0,0,0,1,1,1, 1،1،1)،ncol=2) d3 <- ماتریس(c(1،1،1،1،1،2،2،2،2،3،3،3، 0,0,0,0,0,0,0,1,1,1,1,1),ncol=2) bugdata <- list( N1 = 17, N2 = 13, N3 = 12, ncat1 = 4, ncat2 = 5، ncat3 = 3، Y1 = d1[,1]، Y2 = d2[,1]، Y3 = d3[,1]، D1 = d1[,2], D2 = d2[,2], D3 = d3[,2] ) ### INITS buginit <- list ( لیست ( ta=1, tb=1, a=0,5, b=2, al2=0.1، alpha1 = 0.5، alpha2 = 0.5، alpha3 = 0.5، beta1 = 2، beta2 = 2، beta3 = 2, theta1_0=c(-.5,0,1), theta2_0=c(-.5,0,1,2), theta3_0=c(-.5,0) ) ) ### مدل مدل{ # SET d1 برای (i در 1:N1) { برای (j در 1:(ncat1-1)) { probit(Q1[i,j]) <- (theta1[j] - beta1*D1[i])/exp(al2 + alpha1*D1[i]) } p1[i,1] <- Q1[i,1] برای (r در 2:(ncat1-1)) { p1[i ,r] <- Q1[i,r] - Q1[i,(r-1)] } p1[i,ncat1] <- 1 - Q1[i,(ncat1-1)] Y1[i] ~ dcat(p1[i,1:ncat1]) } # SET d2 برای (i در 1:N2) { برای (j در 1:(ncat2-1)) { probit(Q2[i,j] ) <- (theta2[j] - beta2*D2[i])/exp(al2 + alpha2*D2[i]) } p2[i,ncat2] <- 1 - Q2[i,(ncat2-1)] p2[i,1] <- Q2[i,1] برای (r در 2:(ncat2-1)) { p2[i,r] <- Q2 [i,r] - Q2[i,(r-1)] } Y2[i] ~ dcat(p2[i,1:ncat2]) } # SET d3 برای (i در 1:N3) { for (j در 1:(ncat3-1)) { probit(Q3[i,j]) <- (theta3[j] - beta3*D3[i])/exp(al2 + alpha3*D3 [i]) } p3[i,ncat3] <- 1 - Q3[i,(ncat3-1)] p3[i,1] <- Q3[i,1] برای (r در 2:(ncat3-1)) { p3[i,r] <- Q3[i,r] - Q3[i,(r-1)] } Y3[i] ~ dcat(p3[i,1 :ncat3]) } # PRIORS... برای (t در 1:3) {theta1_0[t] ~ dnorm(0, 0.1)} theta1[1:3] <- مرتب سازی(theta1_0) برای (t در 1:4) {theta2_0[t] ~ dnorm(0, 0.1)} theta2[1:4] <- مرتب سازی(theta2_0) برای (t در 1:2) {theta3_0[ t] ~ dnorm(0، 0.1)} theta3[1:2] <- مرتبسازی (theta3_0) alpha1 ~ dnorm(a,ta) T(-10,10) alpha2 ~ dnorm(a,ta) T(-10,10) alpha3 ~ dnorm(a,ta) T(-10,10) beta1~ dnorm(b, tb) beta2 ~ dnorm(b,tb) beta3 ~ dnorm(b,tb) al2 ~ dnorm(0.0، 0.1) T(-10،10) a ~ dnorm(0.0، 0.1) T(-10،10) b ~ dnorm(0.0، 0.1) ta ~ dgamma(0.01، 0.01) tb ~ dgamma(0.0 0.01) }
|
دستور probit در JAGS
|
99370
|
در یک مدل مختلط خطی، کوواریانس بین داده ها را با اضافه کردن یک برش تصادفی در هر خوشه در نظر می گیرید. به عنوان مثال، شما تأثیر یک کمپین مواد مخدر را در طول زمان بر دانشآموزان اندازهگیری میکنید و یک رهگیری تصادفی در هر مدرسه و یک رهگیری تصادفی برای هر دانشآموز در مدرسه اضافه میکنید: $Y_{ijk}=\beta_{0}+\beta_{1} *Time+b_k+b_{jk}+\epsilon_{ijk}$ با Y متغیر نتیجه چه مقدار از داروها می داند. ما فرض می کنیم که رهگیری های تصادفی هستند معمولاً با میانگین و واریانس توزیع می شود: $b_k \sim N(0, \sigma_3^2)$, $b_{jk} \sim N(0, \sigma_2^2)$ و $\epsilon_{ijk} \sim N( 0, \sigma_1^2)$ با این واریانسهای رهگیری تصادفی میتوانیم واریانس اثر درمان را در سطوح مختلف محاسبه کنیم، برای مثال در سطح مدرسه اگر من بخواهم مدل کنم که کمپین در طول زمان در هر مدرسه یک شیب تصادفی را اضافه نمی کند: $Y_{ijk}=\beta_{0}+\beta_{1}*Time+b_؟ {0k}+b_{1k}*Time+b_{jk}+\epsilon_{ijk}$ آیا در این مدل تغییر $b_{0}$ هنوز معنادار است؟ درست است که تغییرات بین مدارس مختلف در طول زمان افزایش مییابد، زیرا شیبهای تصادفی مدارس را بیشتر از هم دور میکند؟ و به عنوان سوال دوم، بدون شیب تصادفی ما همچنین می دانیم که کوواریانس بین دانش آموزان در همان مدرسه به صورت زیر داده می شود: $Cov_{school}=\frac{sigma_3^2}{sigma_1^2+sigma_2^2+sigma_3^2 }$ اگر یک رهگیری تصادفی گنجانده شود، این کوواریانس چیست؟ پیشاپیش از شما متشکرم به روز رسانی: شامل نموداری از داده هایی است که با آنها کار می کنم، سطح 1 8 اندازه گیری تکراری در هر موقعیت اندازه گیری، سطح 2 موارد اندازه گیری تفاوت، سطح 3 بیماران هستند. 
|
مدلهای چند سطحی شامل شیبهای تصادفی: نحوه محاسبه واریانس
|
52794
|
من روی یک مقاله تحقیقاتی تجاری کار می کنم. فرضیه این است که نماینده فروش بر تصمیمات مشتری تأثیر می گذارد. متغیرهای مستقل از نمایندگان فروش تشکیل شده است: دانش، سرسختی، دوستی و غیره. متغیر وابسته تمایل مشتری به خرید است. در کل، من 12 سوال دارم که در مقیاس لیکرت از 1 (اصلا مهم نیست) تا 7 (بسیار مهم) پرسیدم. در این مرحله، من تمام ابزارها و انحرافات استاندارد را محاسبه کردهام، اما مطمئن نیستم که چگونه میتوانم ارزیابی کنم که آیا کل مجموعه متغیرهای مستقل فرضیه من را مبنی بر اینکه ویژگیهای نماینده بر خرید مشتری تأثیر میگذارد را ثابت میکند یا خیر. من مقداری در مورد رگرسیون، ANOVA و مجذور خی مطالعه کردهام، اما واقعاً میخواهم بدانم چگونه میتوانم آنها را در این موقعیت به کار ببرم. علاوه بر این، می خواهم بدانم اگر نمره ترکیبی زیر گروه ها را محاسبه کنم، یعنی مردان در مقابل زنان، چگونه می توانم آنها را از نظر آماری مقایسه کنم؟ با تشکر برای هر و همه پیشنهادات!
|
چگونه با داده های مقیاس لیکرت ۷ درجه ای معناداری را به صورت آماری تجزیه و تحلیل کنیم؟
|
17788
|
_(با عرض پوزش برای جداول ASCII، Stackexchange به جداول HTML اجازه نمی دهد و از آنجایی که من قرار نیست به یک تصویر لینک بدهم، این تنها راهی است که برای نشان دادن داده ها می دانم)_ در حال یادگیری ANOVA F-testing هستم. و به طور تصادفی به این مشکل برخورد کرد: مجموعه داده های زیر در مورد چهار روش تدریس و نمرات دانش آموزانی که تحت هر روش تدریس قرار گرفتند وجود دارد: روش 1 روش 2 روش. 3 روش 4 ---------------------------------------- 65 75 59 94 87 69 78 89 73 83 78 80 79 81 62 88 81 72 83 69 79 76 90 ------------------------------------$\bar{x} = 75.67$78.43$70.83$87.75$ $s = 8.17$7.11$9.58$$5.80$ که در آن $\bar{x}$ میانگین تمام نمرات برای هر روش تدریس است و $s$ انحراف استاندارد برای هر روش است. پس از انجام یک ANOVA، جدول ANOVA زیر را استخراج می کنم: منبع | درجه آزادی | اس اس | ام اس | F | ------------------------------------------------ ----------- درمان | 3 | 712.59 | 237.53 | 3.77 | خطا | 19 | 1196.63 | 62.98 | - | مجموع | 22 | 1909.22 | - | - | حال سوال این است: یک سطح $\alpha = 0.05$ را آزمایش کنید فرضیه صفر این است که هیچ تفاوتی در میانگین پیشرفت برای چهار تکنیک آموزشی وجود ندارد. بنابراین برای بیان مجدد: $H_0$: تکنیک تدریس _does_ تاثیری بر میانگین پیشرفت دانش آموزان دارد. یک جدول توزیع F به 3.1274 دلار می رسد مرحله بعدی چیزی است که من نمی فهمم. میتوان ادعا کرد که تکنیک تدریس بر میانگین پیشرفت دانشآموزان تأثیر دارد (با کمتر از 5٪ احتمال اشتباه بودن) مقدار p مرتبط: $p = P(X>3.77) = 0.0281$ و در واقع , p < $0.05$ (بنابراین رد $H_0$) اما اکنون این $0.0281$ از کجاست؟ به نظر می رسد احتمال X> 3.77 باشد. اگر اشتباه نکنم، در این مورد $X ~ F_{3,19} = 3.1274$ (همانطور که قبلا محاسبه شد) و بنابراین مقدار p باید احتمال این باشد که 3.1274 بزرگتر از 3.77 باشد. حال چگونه 3.1274 می تواند بزرگتر از 3.77 باشد؟
|
چگونه P(X > F) را در ANOVA F-test پیدا کنیم؟
|
27939
|
برای تکالیف یک ورودی 20 بعدی $x \in \mathbb{R}^{20}$ به من داده شده است که بسیاری از آنها مشکوک به بی ربط بودن هستند. من سعی کردم از تنظیم کمند L1-norm استفاده کنم تا بفهمم کدام ابعاد در خروجی نقش دارند: $$L(\beta) = \sum_{i=1}^n (y_i - \phi(x_i)^T \cdot \beta)^ 2 + \lambda \sum_{j = 1}^k l(\beta_j)$$ لطفاً توجه داشته باشید که به جای $|\beta_j|$ از تابع دیگری استفاده شده است که در آن $$l(\beta_j) = \شروع{موارد} |\beta_j| - \varepsilon/2 & \textbf{if } |\beta_j| \geq \varepsilon\\ |\beta_j^2| / (2\varepsilon) & \textbf{if } |\beta_j| < \varepsilon\\ \end{cases}$$ با گرادیان حاصل: $$\frac{\partial}{\partial\beta} L(\beta) = -2 \sum_{i=1}^n - \ phi(x_i) \cdot (y_i - \phi(x_i)^T \cdot \beta) + \frac{\partial}{\partial\beta_m}\sum_{j=1}^kl(\beta_j)$$ $$ \frac{\partial}{\partial\beta_m}\sum_{j=1}^kl (\beta_j)= \begin{cases} 0&m\gt k\;,\\ sign(\beta_m)&m\le k\;،|\beta_m|\ge\epsilon\;،\\ sign(\beta_m)/\epsilon&m\le k\;,|\beta_m|\lt\epsilon\;. \end{cases} $$ برای یافتن حداقل، من شیب نزولی را روی تابع کمند متمایز اعمال کردم و پس از 6 تا 10 تکرار، یک بردار $\beta$ دریافت کردم. با این حال، نمی دانم که چگونه این به من کمک می کند تا ابعاد نامربوط را کشف کنم. چگونه باید ادامه دهم؟
|
تابع مدل برای کشف ابعاد نامربوط با تنظیم L1
|
62919
|
@Dmitrij Celov پاسخی به این سوال ارسال کرد که چگونه انتخاب زیر مجموعه رگرسیون لجستیک را انجام دهیم و گفت که این مقاله مرجع خوبی بود. می خواستم بدانم آیا کسی می داند که آیا هیچ یک از این نویسندگان یک بسته R را بر اساس آن ایجاد کرده اند یا خیر.
|
بهترین زیر مجموعه با رگرسیون لجستیک در R؟
|
64360
|
من تازه شروع به یادگیری این چیزها کرده ام، و واقعاً از هر کمکی در این زمینه سپاسگزارم. 4 گره در یک شبکه وجود دارد (مثلاً $A,B,C,D$) و هر گره احتمال خرابی خاصی دارد، یعنی ${\rm Pr}(F_A)$, ${\rm Pr}(F_B)$ , ${\rm Pr}(F_C)$, ${\rm Pr}(F_D)$. سپس، من یک ماتریس همبستگی 4 دلار \ برابر 4 دلار دارم که حاوی ضرایب همبستگی برای هر جفت گره است. **چگونه می توانم ${\rm Pr}(F_A|F_B)$ یا ${\rm Pr}(F_A| F_B، F_C، F_D)$ را محاسبه کنم؟**
|
چگونه ${\rm Pr}(F_A|F_B)$ یا ${\rm Pr}(F_A| F_B، F_C، F_D)$ را در یک شبکه چهار گره محاسبه کنیم؟
|
16788
|
** بازپخت شبیهسازی شده** روشی برای شبیهسازی است که در آن هر موجودی در سیستم در برخی ویژگیها مانند مکان به دلیل افزایش و کاهش گرما (انرژی) کل سیستم دچار اختلال میشود. سوال من در مورد کاربرد روش بازپخت شبیه سازی شده برای شبیه سازی شرطی سازی است. به عنوان مثال، مراحل شرطی سازی یک شبیه سازی (به عنوان مثال به فرآیند نقطه شرطی سازی) به داده های نمونه موجود چیست؟
|
مراحل آنیل شبیه سازی شده (SA) چیست؟
|
80516
|
ما تازه شروع به یادگیری نظریه مجانبی کردیم و برای اثبات قضیه حد مرکزی لیندبرگ-لوی، قانون ضعیف اعداد بزرگ و غیره، RV ها را مقیاس و استاندارد می کنیم تا زمانی که اندازه نمونه T به $\ گرایش پیدا کند، توزیع نرمال استانداردی داشته باشد. گران قیمت ریاضی پشت آن ساده است، اما آیا کسی میتواند شهودی سریع یا مثالی از معنای «مقیاسسازی» یک RV، مثلاً با $T^{1/2}$ ارائه دهد؟
|
مقیاس بندی متغیرهای تصادفی به چه معناست؟
|
16780
|
**شکل A** یک فرآیند نقطه ای (شیء=مستطیل) را با علامت هایی به عنوان طول و عرض مستطیل نشان می دهد. **شکل B** تحقق فرآیند نقطه ای را در رابطه با اطلاعات استخراج شده از داده های ورودی نشان می دهد. **سوال** این است: چگونه می توان (با استفاده از پیش شرطی یا پس شرطی سازی) تحقق به نقاط داده موجود را با علامت شرط کرد؟  **توضیحات بیشتر:** شکل **E** فرآیند نقطه را نشان می دهد که دارای مکان، و علامت های عرض و ارتفاع اضافه شده است. . شکل **A** فرآیند نقطه ما است. شکل **B** علائم را به عنوان متغیرهای عرض و ارتفاع اضافه کرد. شکل **C** درک ما از فرآیند نقطه با استفاده از اطلاعات استخراج شده از شکل **A** است. شکل **D** فرآیند نقطه مشخص شده نهایی است، یک تحقق. ما به دنبال روشی هستیم تا این تحقق را به شکل **B** مشروط کنیم. 
|
چگونه یک فرآیند نقطهای را به دادههای نمونهگیری واقعی شرط کنیم؟
|
99371
|
من اخیراً به _مدل سازی تشخیص شناختی_ علاقه مند شدم، که پاسخ دهندگان را بر اساس پاسخ هایشان و یک رابطه فرضی بین مهارت ها و موارد (Q- یا Transfer-Matrix) طبقه بندی می کند. من نگاهی به https://pslcdatashop.web.cmu.edu/ انداختم اما مجموعه داده های آنجا بسیار بزرگ هستند. آیا کسی پیشنهادی دارد که بتوانم _سوابق داده های آزمایشی با اندازه معقول را که قبلاً Q-Matrix مشخص شده است پیدا کنم؟
|
مجموعه داده ها برای کاوش مدل سازی تشخیص شناختی
|
17781
|
برای مشکل کمند $\min_\beta (Y-X\beta)^T(Y-X\beta)$ طوری که $\|\beta\|_1 \leq t$. من اغلب نتیجه آستانهگذاری نرم را میبینم $$ \beta_j^{\text{lasso}}= \mathrm{sgn}(\beta^{\text{LS}}_j)(|\beta_j^{\text{LS} }|-\gamma)^+ $$ برای حالت متعارف $X$. ادعا می شود که راه حل را می توان به راحتی نشان داد که چنین است، اما من هرگز راه حل کارآمدی ندیده ام. کسی یکی را دیده یا شاید اشتقاق را انجام داده باشد؟
|
استخراج محلول کمند شکل بسته
|
99376
|
 از منوی اصلی به Stat می روم سپس Regression -> Regression... اگرچه تقریباً همه چیزهایی را که نمی توانم ترسیم کنم انتخاب کرده ام. اطلاعات اضافی (p-value، میانگین، N، و غیره) در بالا در دایره. من از Minitab 16.2.0 استفاده می کنم.
|
چگونه می توانم این مقدار P را به نمودار احتمال عادی در Minitab اضافه کنم؟
|
45770
|
فرض کنید $U، W، V، S$ چهار متغیر تصادفی عادی مستقل با میانگین $0$ و واریانس $1$ هستند. اجازه دهید $X=W+U$، $Y=2W+S$، $Z=3W+V$. $f(X، Y، Z)$ چیست؟ با تشکر
|
چگونه چگالی مشترک 3 متغیر نرمال را پیدا کنیم؟
|
45778
|
من در درک طرح زیر (برگرفته از وبلاگ ادوین چن) مشکل دارم. * محور x** قرار است نشان دهنده چیست؟ آیا رنگ نباید یک متغیر دسته بندی باشد؟ آیا محور**** باید روی خط واقعی برای مدل urn Polya باشد؟ * آیا قرار است تغییرات قابل توجهی را در بین اجراها برای همان آلفا مشاهده کنیم؟ 
|
آشنایی با مدل urn Polya
|
80519
|
استاد ما همچنان در اسلایدهای خود می نویسد که وقتی مدل های مختلف ARIMA را روی سری های زمانی خود آزمایش می کنید، همیشه باید T را ثابت نگه دارید. من فرض میکنم که او در مورد تطبیق مدل شما با استفاده از همان تعداد مشاهدات صحبت میکند. اگر مدلی با تاخیر بیشتر را امتحان کنید، یک مشاهده را برای تطبیق داده ها از دست می دهید. آیا این درست است؟ به همین دلیل است که می نویسد نمونه شما را محدود کنید؟ ما 214 مشاهده داریم، آیا مثلاً برای اینکه در سمت امن باشم فقط از 205 مشاهدات استفاده کنم؟ و چگونه Eviews می داند که همیشه از همان تعداد مشاهدات استفاده می کند؟ Ref screenshot:  پیشاپیش متشکرم.
|
تعداد مشاهدات مورد استفاده برای مدلسازی ARIMA
|
80517
|
برخی از نویسندگان به عنوان مثال هانتر و همکاران (1982) پیشنهاد میکنند که باید همبستگیهای نمونه را برای خطای اندازهگیری تصحیح کنیم. به نظر میرسد زمانی که ما به فراتحلیل همبستگیهای نمونه در یک دیدگاه فرا تحلیلی متوسل میشویم، خطای اندازهگیری نیازی به اصلاح ندارد. ، خطای اندازه گیری (در اینجا سوگیری ساختاری است) تأثیر کمی بر واریانس خطای نمونه دارد.
|
آیا همیشه لازم است که همبستگی های نمونه برای یک متاآنالیز اصلاح شود؟
|
80514
|
من به دنبال انواع مدل های رگرسیون برای چنین داده هایی هستم که در آنها متغیر وابسته همیشه با متغیرهای مستقل کاهش می یابد. این دو مورد، که من میدانم و استفاده کردهام، عبارتند از Y = C + C_a A + C_b B و Y = C + C_a A + C_b B + C_a2 A^2 + C_b2 B^2 + C_ab A B دومی بهترینها را به من میدهد. تا اینجا مناسب است من میخواهم موارد دیگر را هم امتحان کنم اما نمیدانم. لطفا چندتا پیشنهاد بدید با تشکر
|
بهترین مدل های رگرسیون ممکن
|
17782
|
ما اخیراً مدلی را با تابع درستنمایی به شکل $$\Pr(d_i|\omega,t_i)=(1-d_i)+(2d_i-1)\cos^2(\omega t_i)،$$ مورد مطالعه قرار دادیم. d_i\in\{0,1\}$، $\omega$ یک پارامتر تخمینی است و $t_i$ توسط آزمایشگر تعیین میشود. این مجموعه ای از آزمایشات برنولی مستقل اما غیر یکسان توزیع شده است (فکر کنید: تلاش برای تخمین سوگیری متغیر با زمان یک سکه). از آنجایی که این یک مدل ساده یک پارامتر تخمینی، یک مدل پارامتر طراحی بود، اساساً میتوانیم از یک رویکرد اصول اولیه برای تئوری و محاسبات استفاده کنیم (مقاله اینجاست: http://arxiv.org/abs/1110.3067). اکنون که قصد داریم این را به پارامترهای چندگانه برآورد و طراحی تعمیم دهیم، واقعاً میخواهم مطمئن شوم که کارآمدترین کار ممکن را انجام میدهیم. من کمی جستجو کردم اما نتوانستم چیزی در ادبیات مدلهای آماری پیدا کنم که به پارامتر طراحی به طور دورهای متغیر $t$ بستگی دارد. آیا کسی قبلاً چنین مدلی را دیده است که مطالعه شده باشد؟
|
تخمین پارامترها در یک مدل با پارامتر طراحی دوره ای
|
81166
|
من یک مجموعه داده متشکل از 166 مشاهده در 24 متغیر دارم (a1، a2، a3، a4، b1، ...، b4، ...، f4). پاسخ ها در مقیاس 6 نقطه ای از 1 تا 6 ساخته شده اند: d <- read.table(http://pastebin.com/raw.php?i=m1ZJuKLH) str(d) ## 'data.frame' : 166 obs. از 24 متغیر: ## $ a1: int 7 7 7 1 1 7 7 7 7 1 ... ## $ a2: int 7 7 4 7 5 5 1 7 7 4 ... ## $ a3: int 7 7 5 1 7 7 3 7 1 ... ## $ a4: int 7 7 6 7 1 7 1 7 7 1 ... ## $ b1: int 1 2 5 7 1 4 1 7 4 2 ... ## [...] ## $ f4: int 6 6 4 1 7 7 7 7 7 1 .. متغیرهایی که حرف مشترک دارند (یعنی همه «a»، همه «b»، ...، همه «f») از یک نوع هستند. من می خواهم آزمایش کنم که آیا عوامل پنهان پشت انواع متغیرها با یکدیگر همبستگی دارند (یا اینکه می توانید همبستگی را روی 0 تنظیم کنید). یک پیچیدگی دیگر این است که متغیرهای پنهان «c» تا «f» یک متغیر پنهان دیگر را به اشتراک میگذارند (که «c.to.f» نامیده میشود) و من فقط میخواهم همبستگی بین «a»، «b» و «c» را آزمایش کنم. به.f`. من می خواهم یک تحلیل عاملی تاییدی (که اساسا یک مدل معادلات ساختاری است) در آزمایش R اجرا کنم. حداقل دو بسته بالغ برای انجام این کار «sem» و «openMX» وجود دارد. ** من علاقه مند به نظرات / کدی هستم که در مورد کدام بسته می توان چنین مدلی را مشخص کرد. ** * * * * ویرایش: من می خواهم پاسخی را بپذیرم که شامل نمونه کد باشد.
|
چگونه می توان تجزیه و تحلیل کارخانه تاییدی ساده / SEM را در R انجام داد؟
|
49293
|
من می خواهم مدل های طبقه بندی مختلف مانند جنگل تصادفی، درخت، knn و غیره را بررسی کنم. من از برخی از مجموعه داده های علامت گذاری محک استفاده کردم اما اکنون باید مجموعه داده های خود را با یک متغیر پاسخ باینری شبیه سازی کنم.
|
چگونه داده های مصنوعی را با یک متغیر پاسخ باینری ایجاد کنیم؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.