_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
113200
من سعی می کنم مدل جلوه های تصادفی خطی را جا بزنم: $y_{ijk}=\theta_{ij}+\epsilon_{ijk}، $ که $\theta_{ij}$ یک اثر تصادفی است. من فرض می کنم اثرات تصادفی و توزیع خطا نرمال است. علاوه بر این، من فرض می‌کنم که شاخص $i$ تنها دو مقدار $i=1,2$ می‌گیرد، و اثرات تصادفی برای $i=1,2$ برای $j$ ثابت، اما مستقل از مقادیر $ همبستگی دارند. j$. در نهایت، من فرض می‌کنم که خطاها با واریانس ثابت فقط به شاخص $i$ همبستگی ندارند. با استفاده از کتابخانه `nlme`، مدل را به صورت fm <- lme(fixed = y ~ ii - 1، data = mydata، random=list(jj=pdsymm(~ii-1))،weights=varIdent(form=) قرار دادم ~1|ii)) که در آن «ii» نشان دهنده متغیری است که توسط $i$ نمایه شده است و «jj» نشان دهنده متغیری است که نمایه شده است. با $j$. به نظر می‌رسد اجرای شبیه‌سازی مدل و برازش آن با استفاده از داده‌های بالا، پارامترهای مورد استفاده در شبیه‌سازی را بازتولید می‌کند، با این حال، برای یک مجموعه داده واقعی که من برازش می‌کنم، یک همبستگی اثرات تصادفی بین $i=1$ و $i به دست می‌آورم. =2$ از $\rho=1$. تخمین‌های مجزای $\theta_{ij}$ با استفاده از مدل اثرات ثابت، و به دنبال آن محاسبه همبستگی بین $i=1,2$ منجر به همبستگی تخمینی $\rho=.7$ می‌شود. سوالات من به شرح زیر است: 1) آیا به نظر می رسد عبارت 'lme' به درستی فرمول بندی شده است؟ 2) برخی از دلایل احتمالی که ممکن است من یک همبستگی اثرات تصادفی $\rho=1$ داشته باشم چیست و چگونه می توانم علت را تعیین کنم؟ داده‌ها ویژگی‌هایی را نشان می‌دهند که توسط مدل ثبت نشده‌اند (مانند ناهمگونی واریانس بر روی شاخص $j$، و یک عدد پرت). با تشکر کلارک
برآورد همبستگی اثرات تصادفی 1 هنگام برازش یک مدل قطع تصادفی با استفاده از lme
113205
من داشتم این سوال را می خواندم و به شبیه سازی مقدار مورد نیاز فکر کردم. مشکل به شرح زیر است: اگر $A$ و $B$ استاندارد iid نرمال باشند، $E(A^2|A+B)$ چیست؟ بنابراین من می خواهم $E(A^2|A+B)$ را شبیه سازی کنم. (برای مقدار انتخابی $A+B$) کد زیر را برای رسیدن به این هدف امتحان کردم: n <- 1000000 x <- 1 # مجموع A و B A <- rnorm(n) B <- rnorm(n) sum_AB = تخمین A+B <- 1/sum(sum_AB==x) * sum( (A[sum_AB==x])^2) مشکل این است که تقریباً همیشه هیچ مقداری در «sum_AB» که با «x» مطابقت دارد (در سراسر شبیه سازی). اگر عنصری را از «sum_AB» انتخاب کنم، معمولاً تنها نمونه‌ای از مقدار آن در بردار است. به طور کلی، چگونه می توان با این مشکل مقابله کرد و یک شبیه سازی دقیق برای یافتن انتظاری از فرم داده شده انجام داد؟ ($A$ و $B$ ممکن است لزوماً به طور معمول یا از یک توزیع توزیع نشوند.)
شبیه سازی شامل شرطی سازی بر روی مجموع متغیرهای تصادفی
16656
دارم ارزیابی برنامه رو انجام میدم من می خواهم از مدل مخلوط محدود برای آزمایش این فرضیه استفاده کنم که انواع مختلفی از شرکت ها ممکن است وجود داشته باشند. این یک تعیین درون زا از تعداد انواع مختلفی است که ممکن است وجود داشته باشد. با این حال، این تنها در یک نقطه از زمان انجام می شود. من اطلاعاتی در طول چندین سال دارم که در آن ورود شرکت و فرسایش شرکت رخ می دهد و التماس برای نوعی تجزیه و تحلیل بقا است. * آیا راهی برای اجرای یک مدل مخلوط محدود وجود دارد که بقای شرکت را از یک دوره به دوره دیگر محاسبه کند؟ * یا می‌توانید از یک مدل بقا استفاده کنید که در آن تعیین درون‌زای انواع شرکت‌ها مشخص می‌شود؟
چگونه می توان بقای شرکت را کنترل کرد و به انواع مختلف شرکت اجازه ظهور داد؟
24992
فرض کنید، مجموعه ای از اندازه گیری های مقداری در برخی واحدهای اندازه گیری داریم. ما همچنین یک مدل خوب داریم که به شدت به خواص توزیع گاوسی متکی است. این مدل برای داده‌ها در برخی واحدهای اندازه‌گیری خاص با برخی معنای فیزیکی (مانند وات، اهم و غیره) طراحی شده است. معلوم می شود که توزیع داده ها دقیقاً از توزیع نرمال پیروی نمی کند و دارای برخی ویژگی های نامطلوب (مانند چولگی) است. ما تبدیل محبوب Box-Cox را اعمال می کنیم و یک مجموعه داده کم و بیش معمولی توزیع می کنیم. مشکل اکنون این است که ما لگاریتم ها، توان ها و غیره اندازه گیری های اصلی را داریم که با مدل خوب ما در تضاد است. سوال این است که در چنین شرایطی چه می توان کرد؟ باید مدل را طوری تغییر دهم که بتواند داده های جدید را مدیریت کند؟ و به طور کلی، اگر من همه چیز را به درستی دریافت کردم، چرا مردم داده‌های تغییر یافته را که معنای فیزیکی خود را از دست داده‌اند، مطالعه کنند؟ زیرا، در پایان روز، احتمالاً باید به واحدهای اندازه گیری اولیه بازگردد. متشکرم.
زندگی پس از تحول باکس-کاکس
100983
من از hts و gts برای پیش‌بینی سلسله مراتبی در R استفاده می‌کنم. من یک ساختار 2 سطحی دارم که شامل Y_t (سری زمانی چند متغیره من برای کل تلفات انرژی) است که به نوبه خود می‌تواند ناشی از UCLF یا OCLF و مجموع 3 باشد. ایستگاه ها (Ankerlig، Anort و Camden). من می خواهم Y_t= **S** *Y_k,t را بسازم که در آن **S** ماتریس جمع من است.
ایجاد یک سری زمانی چند متغیره یا ماتریس حاوی سری سطح پایین
104391
من یک پرسشنامه متشکل از 7 مقیاس چند آیتمی دارم. چهار مقیاس اول چند ماده ای هر کدام نشان دهنده این است که آیا یک پاسخ دهنده نقش تعیین کننده ای را ایفا می کند و 3 مقیاس چند آیتمی باقی مانده هر کدام نشان دهنده شناسایی پاسخ دهنده با به عنوان مثال است. سازمان، همکاران، مدیران سطح بالا. همه مقیاس‌های چند سؤالی بر اساس مقیاس لیکرت هستند که در مقیاس چند سؤالی خلاصه می‌شوند (مثلاً 6 سؤال به یک نمره کل اضافه می‌شوند و سپس با تعداد سؤالات در مقیاس (6) تقسیم می‌شوند که میانگین مقیاس را نشان می‌دهد - اگر میانگین بالاتر از یک نقطه خاص است، سپس یک متغیر ساختگی ایجاد کرده‌ام (مثلاً اگر پاسخ‌دهنده A میانگینی برای مقیاس چند موردی 1 بیش از 3 داشته باشد، او دریافت خواهد کرد. 1 (و اگر نه، 0 که برای هر یک از مقیاس ها انجام می شود، به این معنی که آنها فقط از 1 و 0 تشکیل شده اند، اگر من می خواهم بدانم که آیا نقش زیر است). شناسایی می تواند توضیح دهد که چرا یک نقش خاص بیشتر از نقش های دیگر انجام می شود. از 7 مقیاس بیشتر از 0.70 باید چه کار کنم؟
آیا یک متغیر می تواند توضیح دهد که آیا متغیر دیگری بیش از سایرین ارجحیت دارد؟
112156
من از توابع S-PLUS 'rreg' و 'rlm' برای انجام رگرسیون قوی استفاده کردم و نتایج متفاوتی به دست آوردم. آیا این انتظار می رود؟
چرا توابع rlm و rreg در S-Plus نتایج متفاوتی می دهند؟
18478
من سعی می کنم چند تمرین را در Gelman and Hill 2007 حل کنم. مجموعه داده هایی که آنها استفاده می کنند همه در یک وب سایت هستند، با این حال، هر بار که سعی می کنم فایل ها را وارد کنم با یک خطا مواجه می شوم: > pollution=read.table(pollution .dta) خطا در scan(file, what, nmax, sep, > dec, quote, skip, nlines, na.strings, : خط 1 نداشت 2 عنصر در اینجا مجموعه داده است: http://www.stat.columbia.edu/~gelman/arm/examples/pollution/ من حدس می‌زنم مشکلی در مجموعه داده‌ها وجود داشته باشد، اما نمی‌دانم که آیا اصلاحی وجود دارد که می‌تواند به من امکان دهد آن را وارد کنم؟
خطای تفسیر هنگام تلاش برای وارد کردن فایل dta در R
102605
من سعی می کنم یک مدل رگرسیون پانل را پیاده سازی کنم، اما یک مسئله وجود دارد: هر دو تخمین اثرات ثابت (FE) و برآورد اثرات تصادفی (RE) مستلزم این هستند که نمونه مقطع تصادفی باشد. برای وضعیت من این الزام برآورده نشده است (من هر شهر را بر اساس یک ویژگی خاص انتخاب کردم). در این مورد چه کاری می توانم انجام دهم؟ من می دانم که در طراحی آزمایشی راهی برای محاسبه این موضوع وجود داشت (مثلاً مقایسه های بونفرونی، شفه و توکی)، اما آیا چیزی مشابه در رگرسیون پانل وجود دارد؟ آیا یک مدل رگرسیون پانل مخلوط در اینجا مناسب است؟
اگر نمونه من برای مقاطع در مدل رگرسیون پانل تصادفی نباشد، چه کار کنم؟
31379
من یک فایل csv با مقادیر داده های زمانی (زمان های سپری شده) با طول های مختلف برای سه گروه X، Y و Z دارم، با علم به این که: * نمونه ها مستقل هستند * بررسی نرمال بودن از طریق Shapiro-Wilk برای گروه های Y و Z ناموفق است (این کار انجام نمی شود. برای X شکست خورده است اما با توجه به نمودار Q-Q X X نباید به طور معمول توزیع شود) * تغییرات ستاره دار (sd(x) در R هستند): sd(X)=0.003577565، sd(Y)=0.013948358، sd(Z)=0.006929825 (آیا این ها وجود واریانس های نابرابر را نشان می دهند؟) من چند نمودار (باکس پلات، و نمودارهای Q-Q) برای X، Y و Z ایجاد کرده ام. می توانید از اینجا دانلود کنید برای تعیین تفاوت معنی دار آماری بین سه گروه از چه روش آماری استفاده کنم؟ آیا باید به جای ANOVA یک طرفه از Kruskal-Wallis استفاده کنم؟ با تشکر
از کدام روش آماری استفاده شود: Kruskal-Wallis، ANOVA یک طرفه، یا روش دیگر؟
106110
تصور کنید که 1000 دلار دارید که می توانید آن را هر طور که می خواهید تقسیم کنید. شما در یک سوسک شرط بندی می کنید، اما این پایان جالب نیست. شما می توانید برای سوسک شرط بندی کنید که به چپ یا راست برود، و به نسبت مقداری که او به نفع شما یا بر خلاف شما حرکت کرده است، از زمانی که وارد می شوید تا لحظه ای که تصمیم به ترک می گیرید، به دست می آورید. اما تو باهوشی شما متوجه شده اید که الگوهایی وجود دارد، و قهرمان کوچک ما تمایل دارد قبل از اینکه در نهایت بچرخد و به سمت دیگری برود، با احتمال کمی به مناطقی برسد. منظور ما از پیچ نهایی این است که در مسابقه بی نهایت خود، تا 24 ساعت آینده بیشتر به چپ یا راست دریفت نخواهد کرد. او یا به پهلو می‌چسبد یا به سمت دیگری می‌رود که احتمال دومی بسیار بیشتر است. هیستوگرام های آبی و قرمز (نرمال شده به 1.0) احتمال دورترین موقعیت هایی را نشان می دهد که سوسک قبل از اینکه بچرخد به آن می رسد (پیش از اینکه سفر طولانی خود را برای رسیدن به طرف دیگر شروع کند، آخرین چرخش را انجام می دهد). خطوط سیاه مسیر سوسک را نشان می دهد. از هیستوگرام‌هایی که هیستوگرام جمع‌آوری‌شده آماری **نقطه عطف شدید را نشان می‌دهند، می‌توانید به راحتی مقادیر مورد انتظار را برای بیشترین رانش شدید به چپ یا راست محاسبه کنید. شما به ازای هر میلی متری که سوسک به نفع شما می شکافد، 1 دلار دستمزد می گیرید و زمانی که او 1 میلی متر بر علیه شما می رود، 1 دلار از دست می دهید. شما تصمیم می گیرید که چه زمانی وارد شوید و چه زمانی از آن خارج شوید تا سود یا ضرر را جمع آوری کنید. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/I6WBm.png) چند سوال بهینه سازی جالب وجود دارد: 1. چگونه باید شرط بندی های جزئی خود را وارد کنید تا تا حد امکان نزدیک به 1000 دلار وارد شوید. و تا حد امکان به مقدار مورد انتظار نزدیک شود (به نظر من تجاوز از آن ممکن نیست)؟ 2. چگونه باید از همه چیزهایی که وارد کرده اید خارج شوید (احتمالاً موفق نشده اید با 1000 دلار وارد شوید)؟ 3. چگونه با نرسیدن برخورد کنیم؟ تا آنجا که از دست دادن ورودی ها مشکل بزرگی نیست، از دست دادن یک نقطه خروج ممکن است منجر به یک فاجعه کامل شود زیرا «توله سگ کوچک» علیه شما قرار نمی گیرد. 4. آیا باید برخی ویژگی های دیگر مسیر را اندازه گیری کنیم تا شرط بندی بهتری در مورد «میانگین» موقعیت های ورود/خروج داشته باشیم؟ این سؤالات من را بسیار متحیر می کند و یافتن سرنخی برای حل حداقل یکی از آنها باعث می شود بهتر بخوابم. :)
سوسک مست - تلاش برای رسیدن به ارزش مورد انتظار
58872
من یک مدل رگرسیون لجستیک چند سطحی دارم که احتمال عدم پاسخگویی آیتم را پیش بینی می کند، که در آن واریانس رهگیری تصادفی در سطح کشور توزیع زیر را برای کشورهای مختلف به خود می گیرد (مدل بدون قید و شرط): ![توضیح تصویر را در اینجا وارد کنید](http://i. stack.imgur.com/pKKa1.png) با توجه به کدهای کشور «بلژیک (BE)، بلغارستان (BG)، کرواسی (HR)، قبرس (CY)، جمهوری چک (CZ)، دانمارک (DK)، استونی (EE)، فنلاند (FI)، فرانسه (FR)، آلمان (DE)، یونان (GR)، مجارستان (HU)، ایرلند (IE)، اسرائیل (IL) ، لیتوانی (LT)، هلند (NL)، نروژ (NO)، لهستان (PL)، پرتغال (PT)، فدراسیون روسیه (RU)، اسلواکی (SK)، اسلوونی (SI)، اسپانیا (ES)، سوئد (SE) )، سوئیس (CH)، یونایتد پادشاهی (GB) و اوکراین (UA)` واضح است که روندی وجود دارد که کشورهای غربی شانس کمتری دارند و کشورهای شرقی شانس بیشتری نسبت به میانگین دارند و پرتغال از این روند سرپیچی می کند. من فرض می کنم این واریانس به دلیل تفاوت در ترکیب جمعیت و ویژگی های خاص کشور است. وارد کردن برخی از متغیرهای جمعیت شناختی برای پیش بینی شانس (سن، جنس، تحصیلات) واریانس کشور توضیح داده نشده است، به جز اینکه پرتغال اکنون روند غرب در مقابل شرق را بهتر دنبال می کند. _آیا این بدان معناست که برای پرتغال شانس بالاتر به دلیل اثرات ترکیب بندی بوده، اما برای کشورهای دیگر کمتر است؟_ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/outtc.png) سپس من نیز یک متغیر کشور اضافه کنید: حالت مدیریت (PAPI = مصاحبه کاغذی و مدادی و CAPI = مصاحبه به کمک کامپیوتر). این بسیاری از واریانس‌های شانس بین کشورها را توضیح می‌دهد و کمی روند غرب به شرق را حذف می‌کند: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/nNhXH.png) با این حال، من بدانید اکثر کشورهای غربی کشورهای CAPI و بیشتر کشورهای شرقی کشورهای PAPI بودند: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/W685d.png) _Is ممکن است «حالت» پیش‌بینی‌کننده من به شانس‌ها مرتبط نباشد، اما در واقع تغییرپذیری را توضیح می‌دهد، زیرا تمایز واضحی بین کشورهای شرقی و غربی ایجاد می‌کند؟_
واریانس سطح بالاتر باقیمانده چه چیزی به من می گوید؟
38063
از تصادفی بودن آماری ویکی پدیا: > تصادفی جهانی و تصادفی محلی متفاوت است. بیشتر تصورات فلسفی از تصادفی بودن جهانی هستند - زیرا بر این ایده مبتنی هستند که در دراز مدت یک دنباله واقعاً تصادفی به نظر می رسد، حتی اگر دنباله های فرعی خاصی تصادفی به نظر نرسند. برای مثال، در یک دنباله تصادفی واقعا از اعداد با طول > کافی، احتمالاً دنباله های طولانی > چیزی جز صفر وجود نخواهد داشت، اگرچه در کل این دنباله ممکن است تصادفی باشد. > تصادفی محلی به این ایده اشاره دارد که می تواند حداقل دنباله > طول هایی وجود داشته باشد که در آن توزیع های تصادفی تقریبی شوند. ** امتداد طولانی > ارقام یکسان، حتی آنهایی که توسط فرآیندهای تصادفی واقعا ایجاد می شوند، تصادفی محلی یک نمونه را کاهش می دهند (ممکن است فقط به صورت محلی تصادفی > برای دنباله های 10000 رقمی باشد؛ دنباله هایی کمتر از مثلاً 1000 ممکن است > اصلاً تصادفی به نظر نرسد. ** > > ** دنباله ای که یک الگو را نشان می دهد بنابراین از نظر آماری تصادفی ثابت نشده است.** طبق اصول نظریه رمزی، اجسام به اندازه کافی بزرگ باید الزاماً دارای زیرساخت معینی باشند (بی نظمی کامل > غیرممکن است). معنی دو جمله پررنگ را کاملا متوجه نمی شوم. 1. آیا جمله اول به این معنی است که چیزی یک دنباله را در طول بیشتر تصادفی محلی می کند و در طول کوتاهتر تصادفی محلی نمی کند؟ مثال داخل پرانتز چگونه کار می کند؟ 2. آیا جمله دوم به این معنی است که نمی توان تصادفی نبودن دنباله ای را که یک الگو را نشان می دهد ثابت کرد؟ چرا؟ با تشکر
چند سوال در مورد تصادفی بودن آماری
33499
می‌خواستم بدانم آیا کسی تابع R را می‌شناسد که توزیع «بهترین تناسب» (مثلاً نرمال) را فقط با داده‌های دم مطابقت دهد؟
تناسب دم توزیع
70512
من با داده‌های صید مکانی و متغیرهای محیطی کار می‌کنم، و فراوانی صید را با برخی پارامترهای اقیانوس‌شناسی مرتبط می‌کنم. من از یک مدل افزودنی تعمیم یافته (GAM) و یک مدل ترکیبی افزودنی تعمیم یافته (GAMM) با یک و دو اثر تصادفی (بسته «mgcv» در «R») استفاده می کنم، به ویژه: m1 <- gam(kg ~ s(var1 ، k=10) + s(var2، k=10) + ... + افست(زمان)، خانواده = گاما(لینک=log)، روش=REML) m2 <- گام(کیلوگرم ~ s(var1، k=10) + s(var2، k=10) + ... + افست(زمان)، خانواده = گاما(لینک=log)، روش=REML، تصادفی= لیست(رگ = ~ 1)) m3 <- گام (kg ~ s(var1، k=10) + s(var2، k=10) + ... + افست (زمان)، خانواده = گاما(لینک=log)، روش=REML، فهرست تصادفی=(رگ = ~ 1، dayOfTheYear = ~ 1)) من نتایج کاملا معقولی از نظر باقیمانده ها و اثرات جزئی متغیرهای کمکی دریافت می کنم، اما تفاوت زیادی در AIC بین m1 دارم. و m2/m3، یعنی `AIC(m1) = 58998`, AIC(m2$lme) = 9410`، و `AIC(m3$lme) = 8751`. با توجه به چیزی که فهمیدم، باید بتوانم GAM و GAMM را از `mgcv` با استفاده از `AIC` مقایسه کنم... آیا کار اشتباهی انجام می دهم؟ با تشکر
ΔAIC عظیم بین مدل های GAM و GAMM
4878
ما از Excel Solver برای مدل سازی یک مشکل DEA استفاده می کنیم. ما با چند منبع کار کرده‌ایم و مطمئن هستیم که مدل نتایج درستی را برمی‌گرداند، اما برای تفسیر آنها به کمک نیاز دارم. هنگامی که حل کننده تجزیه و تحلیل خود را کامل می کند، یک گزارش پاسخ ارائه می دهد که سستی یافت شده در برخی از محدودیت ها را ارائه می دهد - که الزام آور و غیر الزام آور هستند. در اینجا یک نتیجه نمونه برای یک DMU است که هنگام حل برای به حداقل رساندن ورودی‌ها ناکارآمد است: خروجی‌های جمع وزنی = ورودی‌های مجموعه مرجع DMU = DMU * E Slack Output1 2,892,230 >= 2,892,230 خروجی الزام آور2 66,227 > binding Output2 66,222 > 307,67 9,724,273 >= 5,372,010 4,352,263 خروجی4 3,123,300 >= 2,511,864 611,436 خروجی5 21,609 >= 16,039 5,570 5,570 5,570 خروجی 5,227,5 6 > 120 خروجی7 8,548 >= 2,769 5,779 خروجی8 17,314 >= 12,605 4,709 خروجی9 748 >= 616 132 ورودی1 19,775 <= 23,314 3,539 ورودی23 <231 <231 ورودی 2 9,1 20,028 <= 143,604 123,576 Input4 74,293 <= 74,293 binding Input5 15,558 <= 15,558 binding آیا این ادعا صحیح است که ورودی های یافت شده به صورت الزام آور نمی توانند بیشتر بهینه شوند، اما آنهایی که دارای موارد ناکارآمد هستند بهینه سازی می شوند؟ آیا می توان همین را در مورد خروجی ها نیز گفت؟ یا برعکس عمل می کند؟ یا اینکه Slack فقط یک دو محصول تجزیه و تحلیل است و مرتبط نیست؟ با تشکر از کمک شما!
کاهش ارزش در تحلیل پوششی داده ها
81032
من مدلی دارم که در آن نویز به صورت مستقل مدل‌سازی می‌شود و به طور یکسان در نقاط مختلف داده توزیع می‌شود. نویز $e$ به عنوان یک گاوسی میانگین 0 با $\phi$ به عنوان دقت (واریانس معکوس) مدل‌سازی می‌شود. احتمال یک نقطه داده واحد $i$ به این صورت تعریف می شود: $$ P(y|w, \phi) = (\frac{\phi}{2\pi})^{0.5} \exp ^{-0.5 e_ {i}\phi e_{i}} $$ $P(w|y)$ قبلی نیز به عنوان یک گاوسی چند متغیره با میانگین صفر و یک ماتریس کوواریانس مدل‌سازی می‌شود. یک پارامتر مقیاس $\lambda$ وجود دارد که همچنین به صورت احتمالی تعریف شده و با استفاده از توزیع گاما مدل شده است. دقت نویز $\phi$ نیز باید استنباط شود و با استفاده از توزیع گاما مدل‌سازی می‌شود، بنابراین در نهایت قسمت خلفی $$ P(w, \phi, \lambda|y) = \frac{P(w|\lambda) به ما داده می‌شود. ) p(\phi) p(\lambda) \prod_{i} P(y|w, \phi)}{P(y)} $$ اکنون، این احتمالاً واقعاً یک سوال احمقانه است اما از آنجایی که پیشین ها با استفاده از توزیع گاما یا گاوسی مدل می شوند و احتمال نیز با نویز گاوسی مدل می شود، آیا می توانیم بگوییم که توزیع پسین نیز مثلاً به خانواده نمایی توزیع ها تعلق خواهد داشت؟ می‌خواهم بدانم شکل پیشین‌ها و احتمال چگونه بر شکل توزیع پسین تأثیر می‌گذارد.
آیا می توانم در مورد شکل توزیع خلفی چیزی بگویم؟
14119
من سعی می کنم از بسته monomvn برای منتسب کردن موارد یکنواخت استفاده کنم. من از مثال اصلی پیروی کردم: data(cement.miss) out <- monomvn(cement.miss) با این حال هیچ یک از خروجی ها مانند ورودی اصلی به نظر نمی رسند. مطمئنم چیزی را از دست داده ام. اگر این سوال آماتوری است پیشاپیش عذرخواهی می کنیم. من یک دانشمند کامپیوتر هستم که وظیفه انجام برخی کارهای آماری را دارم =)
استفاده از monomvn برای منتسب کردن کمبودهای یکنواخت
81770
من مطالعه ای دارم که در آن از هفت معیار مختلف برای هر بیمار استفاده شد - قبل و بعد از مداخله - و من یک معیار کلی برای بیمار می خواهم. هر یک از این معیارها مقادیر بسیار متفاوتی دارند که جمع کردن آنها منطقی نیست، اما هر یک از معیارها به یک اندازه مهم هستند، بنابراین نیازی به سنجیدن آنها نیست. بنابراین درصد تغییر هر اندازه گیری منطقی تر است و من می توانم میانگین درصد تغییرات را به دست بیاورم تا یک درصد تغییر نهایی را برای بیمار به دست بیاورم. با این حال، چگونه می توانم یک انحراف استاندارد متوسط را برای این اندازه گیری نهایی محاسبه کنم؟ این به ویژه برای من مهم است زیرا باید یک محاسبه اندازه نمونه را بر اساس این اقدامات نهایی انجام دهم تا برای مطالعه دیگری مطرح کنم. هر گونه کمکی بسیار قدردانی خواهد شد.
میانگین انحراف معیار برای تغییرات چند درصدی
71647
من یک متغیر پاسخ در $Y(t) \in \\{1,2,3\\}$ دارم و در نظر دارم از لاجیت ترتیبی برای مدل کردن آن استفاده کنم. نمونه‌های $3000$ از $Y(t)=1$، $3000$ نمونه $Y(t)=3$ و $2\,000\,000$ از $Y(t)=2$ داریم. آیا لاجیت ترتیبی در اینجا مناسب است یا انتخاب بهتری (پواسون، دوجمله ای منفی، لاجیت چند جمله ای و غیره) وجود دارد؟ توجه داشته باشید که تمرکز اصلی من بر مدل سازی دقیق $Y(t)=1$ و $Y(t)=3$ است. اگر من $Y(t)=2$ را از نمونه به اشتباه طبقه بندی کنم، عواقب آن چندان بد نیست. نوعی تابع تلفات نامتقارن ممکن است مناسب باشد. همچنین توجه داشته باشید که این یک مشکل پیش‌بینی سری زمانی است، و $Y(t)$ همبستگی شدیدی را نشان نمی‌دهد، اما $Var(Y)$ با زمان متغیر است (چون شما امتدادهای طولانی $Y(t خواهید داشت. ) = 2$ فقط پس از مدت زمانی که متغیرتر است).
لاجیت ترتیبی رویداد نادر با پاسخ گسسته $Y_t \in \{1,2,3\}$
106116
من با مجموعه ای از 200 ژن کار می کنم. برای هر ژن، من 3 مقدار _p_ دارم که نشان‌دهنده ارزیابی‌های مستقل از اینکه آیا آن ژن در شرایط آزمایشی خاص در مقایسه با شاهد بیان متفاوتی را نشان می‌دهد یا خیر. در R، چارچوب داده چیزی شبیه به این است: ABCA 0.01 0.3 0.001 SEP8 0.98 0.8 0.765 COL4 0.31 0.4 0.28 و غیره. من 4 چارچوب داده‌ای دارم که نشان‌دهنده 4 روش آماری مختلف برای اندازه‌گیری بیان دیفرانسیل است، و می‌خواهم معیاری برای تصمیم‌گیری در مورد اینکه کدام یک از 4 روش با مقایسه سازگاری مقادیر _p_ اختصاص داده‌شده به هر ژن، سازگارترین نتایج را به من می‌دهد. همان روش ایده آل). **سوال:** چگونه می توانم همبستگی را در این مجموعه داده ارزیابی کنم با توجه به اینکه 3 بردار از مقادیر _p_ وجود دارد؟ اگر فقط 2 وجود داشت، می‌توانم یک همبستگی زوجی انجام دهم و یک مقدار _r_ ² دریافت کنم که نشان‌دهنده همبستگی کل مجموعه 200 ژن است. سپس می توانم چیزی در مورد سازگاری هر یک از 4 روش که به وسیله آن بالاترین _r_ ² را به دست می آورند، بگویم. اما من 3 دارم، نه 2، بنابراین به نوعی نتیجه سه بعدی از چنین آزمایشی نیاز دارم. آیا کسی ایده ای دارد؟ من با آمارم فوق العاده پیشرفته نیستم. با تشکر
چگونه می توان همبستگی بیش از 3 کارآزمایی را در هر مشاهده ارزیابی کرد؟
113206
من در حال کار بر روی کتاب _An Introduction to State space analysis series_ توسط Commandeur و Koopman هستم و می خواهم چند مدل ساده را در Stata 13.1 تکرار کنم. دو مدل مرتبطی که اکنون روی آنها کار می کنم موارد خاصی از مدل سطح محلی هستند: \begin{align} y_t &= u_t + \epsilon_t \\\ u_{t+1} &= u_t + \xi_t \end{align } مورد اول مدل «سطح قطعی» است، که در آن $\xi_t = 0، \forall t$، که دلالت بر این دارد که $y_t = u_1 + \epsilon_t$. همانطور که نویسندگان می گویند، تخمین این مدل فضای حالت با تخمین ساده میانگین و واریانس سری $y$ یکسان است، که بدیهی است که می توانم بدون روش های فضای حالت انجام دهم، اما عمدتاً به نحو علاقه مند هستم. با استفاده از این کد، با داده‌های شامل: ورودی شفاف cls ksi t ksi t 1687 108 1508 109 1507 110 1385 111 1632 112 1511 113 1559 114 1630 1151515151 118 2148 119 1752 120 1765 121 1717 122 1558 123 1575 124 1520 125 1805 126 1800 127 1719 1220 1224 1224 1223 131 2030 132 1655 133 1693 134 1623 135 1805 136 1746 137 1795 138 1926 139 1619 140 1992 13120 141421 144 1768 145 1835 146 1569 147 1976 148 1853 149 1965 150 1689 151 1778 152 1976 153 2397 140151515 157 157 1677 158 1941 159 2003 160 1813 161 2012 162 1912 163 2084 164 2080 165 2118 166 2150 1618 1613 1815 170 1382 171 1731 172 1798 173 1779 174 1887 175 2004 176 2077 177 2092 178 2051 179 1577 1801813 183 1519 184 1421 185 1442 186 1543 187 1656 188 1561 189 1905 190 2199 191 1473 192 1655 173150 193151 196 1309 197 1526 198 1327 199 1627 200 1748 201 1958 202 2274 203 1648 204 1401 205 1411 206 1411 206 206 1411 209 1528 210 1643 211 1515 212 1685 213 2000 214 2215 215 1956 216 1462 217 1563 218 1459 2126214 222 1638 223 1643 224 1683 225 2050 226 2262 227 1813 228 1445 229 1762 230 1461 231 1556 23213 23231 235 1645 236 1653 237 2016 238 2207 239 1665 240 1361 241 1506 242 1360 243 1453 244 1522 24514 1522 24514 248 1827 249 1737 250 1941 251 1474 252 1458 253 1542 254 1404 255 1522 256 1385 257 1641 1641 2528 1641 1641 2526 261 1868 262 1726 263 1456 264 1445 265 1456 266 1365 267 1487 268 1558 269 1488 270 1684 2458 271729 274 2079 275 1494 276 1057 277 1218 278 1168 279 1236 280 1076 281 1174 282 1139 283 1427 2841814 پایان ماهانه gen lgksi = log(ksi) sspace (u L.u، حالت noerror noconstant) (lgksi u، noconstant) و به طور خاص، این اسپای حالت
چگونه می توانم این مدل های فضای حالت ساده را از کتاب Commandeur در Stata تکرار کنم؟
83258
من یک مجموعه داده با 100 ستون و تقریباً 100000 خط دارم. من یک متغیر برای پیش بینی دارم که Y است (0،1 پس یک مشکل طبقه بندی است). من یک متغیر طبقه‌بندی دیگری با دو مقدار 0 و 1 دارم. با ترسیم توزیع متغیرهایم، متوجه شدم که بسیاری از متغیرهای من مخلوطی از دو توزیع گاوسی هستند. با مقایسه آن با مقدار طبقه‌بندی، دریافتم که این دو حالت دقیقاً با این مقدار طبقه‌بندی مطابقت دارند (یعنی هر توزیع افراد محدود به یکی از دو دسته با هر توزیع گاوسی مخلوط مطابقت دارد). احساس می کنم اطلاعات جالبی در مورد متغیرهای من است. با این حال من نمی دانم چگونه از این سرمایه گذاری کنم. آیا باید بر اساس متغیرها + دسته بندی متغیرهای جدیدی ایجاد کنم؟ آیا باید از دو مدل (1 برای هر مقدار متغیر طبقه بندی) برای بهبود نتیجه استفاده کنم؟ از چه مدلی استفاده کنم که بتواند بیشترین استفاده را از مشاهده من به عنوان فرضیه داشته باشد (svm، جنگل تصادفی، لجستیک reg و غیره...)؟ با تشکر
چگونه می توان از یک فرض مخلوط گاوسی در یک مدل بیشترین استفاده را کرد؟
16653
من در حال انجام مطالعه با یک متغیر با داده های پیوسته هستم. اندازه گیری شامل اندازه گیری هایی است که توسط سه نفر انجام می شود. من می خواهم یک تست قابلیت اطمینان بین ارزیاب انجام دهم، به عنوان مثال. با تجزیه و تحلیل Bland-Altman، اما نمی توان اطلاعاتی در مورد نحوه عملکرد آن با چندین معیار پیدا کرد. آیا آزمایش دیگری بهتر است؟ ### داده‌های نمونه > رتبه‌دهنده A: 380 404 381 374 377 392 373 369 371 378 392 331 366 418 > > رتبه‌دهنده B: 379 400 380 372 373 374 373 390 326 364 424 > > رتبه‌دهنده C: 379 402 380 372 367 392 374 361 373 378 392 332 364 420
کدام آزمون پایایی بین ارزیاب برای داده های پیوسته با معیارهای چندگانه بهترین است؟
38068
من سعی می کنم یک اندازه گیری اندازه اثر برای اثرات ساده در یک رگرسیون لجستیک باینری بدست بیاورم. من از روش GENLIN در SPSS استفاده می کنم. این نحو این است: GENLIN Bar_exact_score (REFERENCE=FIRST) BY Skill Bar_cut_point (ORDER=ASCENDING) /MODEL Skill Bar_cut_point Skill*Bar_cut_point INTERCEPT=YES DISTRIBUTION=BINOMIAL LINK=LOGITLECATHRIDC/ COVB=MODEL MAXITERATIONS=100 MAXSTEPHALVING=5 PCONVERGE=1E-006(ABSOLUTE) SINGULAR=1E-012 ANALYSISTYPE=3(WALD) CILEVEL=95 CITYPE=WALD LIKELIHOOD=FULL /EMMEANSLE=FULL /EMMEANSIGORSllTA COMPARE=Skill ConTRAST=SIMPLE(2) PADJUST=LSD /MISSING CLASSMISSING=EXCLUDE /PRINT CPS DSCRIPTIVES MODELINFO FIT SUMMARY SOLUTION. دستور فرعی CONTRAST در EMMEANS مقادیر Wald Chi-square و p را ارائه می دهد، اما من می خواهم اندازه اثر را به دست بیاورم - برای مثال، نسبت شانس. من نمی توانم نحوه انجام این کار را پیدا کنم. جزئیات بیشتر پس زمینه: * در مطالعه خود، من به افسران پلیس خبره و تازه کار فیلم های ویدئویی ویرایش شده از حوادث اجرای قانون را نشان می دهم. کلیپ ها به گونه ای ویرایش می شوند که در یک نقطه خاص متوقف شوند. هنگامی که کلیپ ویدیویی متوقف می شود، از افسران خواسته می شود تا پیش بینی کنند که بعداً در کلیپ چه اتفاقی می افتد (یعنی اگر قرار بود به پخش ادامه دهد). پاسخ افسران به صورت صحیح (1) / نادرست (0) نمره گذاری می شود. * 3 تا 5 نسخه از هر کلیپ وجود دارد - هر یک با نقطه توقف متفاوت (به عنوان مثال، نقطه توقف اولیه، اواسط، اواخر). * این یک مطالعه بین افراد است، بنابراین هر افسر فقط یک نسخه از هر کلیپ را می بیند. * هر افسر 23 رویداد ویدیویی مختلف را تماشا می کند و هر افسر ترکیبی از نقاط برش را در آن حوادث می بیند. * تعداد افسرانی که هر نسخه از یک کلیپ را مشاهده کرده اند متفاوت است. به عنوان مثال: برای کلیپ X، 20 تازه کار و 12 متخصص ممکن است نقطه برش شماره 1 را برای کلیپ A مشاهده کرده باشند، و 15 متخصص و 14 تازه کار ممکن است نقطه برش شماره 2 را مشاهده کرده باشند. * هدف من شناسایی نقطه توقف در هر کلیپ است که تفاوت بین توانایی متخصصان و تازه کارها را برای پیش بینی اتفاقات بعدی به حداکثر می رساند. بنابراین، من راهی برای مقایسه اثرات ساده مهارت در هر نقطه برش می‌خواهم. ممنون از وقتی که گذاشتید.
جستجوی یک اندازه گیری اندازه اثر برای اثرات ساده در رگرسیون لجستیک باینری در SPSS
102601
من سعی می‌کنم مجموعه متنی بسیار پراکنده را خوشه‌بندی کنم و تعداد خوشه‌ها را می‌دانم (داده‌های من عنوان و فهرست نویسنده انتشارات علمی است که قبلاً تعداد دسته‌ها را می‌دانم). هر ورودی در مجموعه من بین 5 تا 20 ویژگی دارد. کل مجموعه دارای 80000 نمونه و بین 5000-120000 ویژگی است (من می توانم برخی از ویژگی هایی را که به ندرت رخ می دهند یا آنهایی که بسیار مکرر رخ می دهند فیلتر کنم). همانطور که می بینید، داده ها بسیار پراکنده هستند. من سعی می کنم با ایجاد یک ماتریس TF-IDF از داده ها و اجرای معنی _k_ روی آن، خوشه ها را شناسایی کنم. الگوریتم کاملاً از کار می افتد، یعنی بیش از 99٪ داده ها را در یک خوشه قرار می دهد. من از Python scikit-learn برای هر دو مرحله استفاده می کنم. در اینجا چند کد نمونه (روی داده‌هایی که واقعاً کار می‌کنند) وجود دارد، در صورتی که به کسی کمک کند: از sklearn.cluster import KMeans از sklearn.feature_extraction.text import TfidfVectorizer vectorizer = TfidfVectorizer() data = ['aa ab','aa ab ','ac a_b','ac a_b','bc ba', 'bc ba', 'ba bc'] vectorized = vectorizer.fit_transform(data) km = KMeans(n_clusters=3, init='random', n_init=1, verbose=1) km.fit(vectorized) print km.labels_ [1 1 0 0 2 2 2] سوال من این است: آیا جایگزین بهتری برای TF-IDF به دنبال _k_ برای این مشکل وجود دارد؟ آیا منطقی است که شروع به جستجوی معیارهای فاصله متفاوت در داده‌های TF-IDF خود کنم (به عنوان مثال شباهت کسینوس)، یا به دلیل کمبود داده ناکام می‌مانم؟ با تشکر
الگوریتم های خوشه بندی برای داده های بسیار کم
18470
اساساً تنها کاری که می خواهم انجام دهم این است که با استفاده از برخی منحنی ها یک پاسخ اسکالر را پیش بینی کنم. من در حد انجام یک رگرسیون (با استفاده از fRegress از بسته fda) هستم، اما نمی دانم چگونه نتایج را برای یک مجموعه جدید از منحنی ها (برای پیش بینی) اعمال کنم. من N=536 منحنی و 536 پاسخ اسکالر دارم. این چیزی است که من تا کنون انجام داده ام: * من پایه ای برای منحنی ها ایجاد کرده ام. * من یک شی fdPar برای معرفی یک پنالتی ایجاد کردم * من شی fd را با استفاده از smooth.basis ایجاد کردم تا منحنی ها را با پنالتی انتخاب شده بر اساس مشخص شده صاف کنم. * من یک رگرسیون را با استفاده از fRegress() اجرا کردم که منحنی‌های پاسخ اسکالر را رگرسیون می‌کند. اکنون، تنها کاری که می‌خواهم انجام دهم، استفاده از این رگرسیون برای پیش‌بینی مجموعه جدیدی از داده‌هایی است که دارم. به نظر نمی رسد راه آسانی برای انجام این کار پیدا کنم. به سلامتی
پیش بینی پاسخ از منحنی های جدید با استفاده از بسته fda در R
112153
پیشاپیش از نداشتن مجموعه داده‌های دقیق عذرخواهی می‌کنم، زیرا این بیشتر یک سؤال تئوری است که هنگام کار بر روی مدل‌های جلوه‌های ترکیبی با آن برخورد کردم. فرض کنید من ساختار داده زیر را دارم: مکان / شخص / آزمایش. بنابراین در هر مکان، من چندین نفر و در هر فرد چندین آزمایش دارم. من می توانم این را در R با استفاده از چیزی شبیه به: lme (نتیجه ~ 1| مکان / شخص / آزمایش) مدل کنم. در خروجی، می دانیم که $location \sim N(0, \sigma^2_{loc})$, $person \sim N(0, \sigma^2_{per})$ و $experiment \sim N(0 ، \sigma^2_{exp})$. دلیلی که معمولاً برای تمام توزیع‌ها در مرکز 0 ارائه می‌شود، به این دلیل است که میانگین در تخمین متغیر بالا قرار می‌گیرد. بنابراین، برای مثال، میانگین آزمایش‌ها برای یک شخص X، تخمین اثر تصادفی برای شخص X است. علاوه بر این، همه واریانس‌ها از یکدیگر مستقل هستند. این بدان معناست که واریانس برای یک فرد در مکان x مستقل از فرد دیگری در مکان x و همچنین واریانس شخص سوم در مکان y است. **سوال** اگر واریانس ها بر اساس مکان متفاوت بود چه؟ به عنوان مثال، فرض کنید که واریانس یک فرد در مکان A بالاتر از واریانس یک فرد در مکان B باشد؟ بنابراین من $person \sim N(0, \sigma^2_{در هر|مکان})$ می‌خواهم. چگونه آن را مدل کنم؟ همچنین، آیا منطقی است که میانگین ها را 0 مدل نکنیم (با میانگین به عنوان تخمین پارامتر متغیر بالاتر)؟ با نگاهی به ریاضی، فکر نمی کنم اما شاید چیزی را از دست داده ام؟ با تشکر از همه برای کمک شما!
نحوه تودرتو کردن واریانس داده های سلسله مراتبی در R
102604
من در حال مطالعه معانی واژگانی هستم. من 65 جفت مترادف با ارتباط حسی آنها دارم. مجموعه داده از مقاله مشتق شده است: روبنشتاین، هربرت، و جان بی. گودناف. همبستگی های متنی مترادف. ارتباطات ACM 8.10 (1965): 627-633. من جملات حاوی آن مترادف ها را استخراج می کنم، کلمات همسایه ای که در آن جمله ها ظاهر می شوند را به بردارها منتقل می کنم، فاصله کسینوس بین بردارهای مختلف را محاسبه می کنم و در نهایت همبستگی پیرسون را بین ارتباط حسی ارائه شده توسط روبنشتاین و گودناف و فواصل ما به دست می آورم. من همبستگی پیرسون را برای روش 1 0.79 و برای روش 2 برای مثال 0.78 است. چگونه می توانم اندازه گیری کنم که آیا روش 1 به طور قابل توجهی بهتر از روش 2 است یا خیر؟
چگونه بفهمیم یک سیستم به طور قابل توجهی بهتر از سیستم دیگر است؟
38060
مربوط به سوال اینجاست من سعی کرده ام در مورد تجزیه و تحلیل شبکه به خودم بیاموزم و نمودارهای DAG را در R توسعه دهم. بیایید بگوییم که داده های زیر را دارم. dat=data.frame(sold=c(0,0,0,1,0,1), win=c(1,0,0,1,0,1), bid=c(5,3,2, 5،3،4)) dat با توجه به آنچه که می‌خواهم تجزیه و تحلیل کنم، می‌دانم که نمودار DAG باید به صورت زیر باشد: پیشنهاد => برنده => فروخته می‌شود، با این حال، وقتی از بسته bnlearn برای تولید نمودار استفاده می‌کنم، می‌آید. خارج به عنوان را دنبال می کند. فقط نمی تواند درست باشد، و باید در جهت مخالف باشد. library(bnlearn) library(Rgraphviz) bn.hc <- hc(dat, score = bic) graphviz.plot(bn.hc) ![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/Zg0rM.png) اکنون، من می دانم که این فقط داده هایی است که برای یادگیری آن ها ارائه کرده ام، اما با مقادیر متغیرها اشتباه گرفته ام، و هرگز ما را آنطور که باید می چرخاند. اساساً، یک پیشنهاد باید تعیین کند که آیا شما برنده هستید یا خیر، و اینکه آیا شما می توانید آن را بفروشید یا خیر. فقط معنی نداره آیا راهی برای تعیین متغیر پاسخ وجود ندارد؟ در مورد من، متغیر پاسخ باید فروخته شود و هیچ گونه قوسی از فروخته شده به گره دیگر وجود نداشته باشد. آیا کسی می تواند برای تشخیص مشکل در R کمک کند؟ آیا چیزی وجود دارد که من در کد گم کرده ام؟ یا از درک من از BN؟ آیا این مشکلی است که من به عنوان الگوریتمی که در «امتیاز» استفاده می‌کنم، عبور می‌دهم؟
نتایج عجیب از شبکه بیزی در R
47568
در یک فرآیند پواسون همگن با نرخ $\lambda$، احتمال مشاهده یک رویداد در یک لحظه، یعنی یک فاصله بی نهایت کوچک به طول dt چقدر است؟ من خوانده ام که تابع نرخ پواسون $\lambda(t)$ را می توان به عنوان احتمال لحظه ای مشاهده یک سنبله در هر نقطه از زمان تعریف کرد. (http://www.stat.columbia.edu/~liam/teaching/neurostat- spr11/uri-eden-point-process-notes.pdf) اما برای یک فرآیند همگن با $\lambda(t) = \lambda$ ، چگونه می تواند باشد وقتی ممکن است که $\lambda > 1$؟
احتمال رویداد آنی در فرآیند پواسون
85945
من یک رگرسیون لجستیک سلسله مراتبی با ۲ بلوک/پیش‌بینی‌کننده اجرا کردم: متوجه شدم که بلوک ۱ پیش‌بینی‌کننده مهمی نیست، اما بلوک ۲ است. هنوز: نسبت شانس برای بلوک 1 بسیار بیشتر است (2.90) نسبت به بلوک 2 (1.31) و با اضافه شدن بلوک دوم افزایش می یابد. چگونه می تواند اینقدر بالا باشد اما هنوز قابل توجه نباشد؟ آیا این می تواند ناشی از یک اثر زمینه ای باشد؟ یا ممکن است این به سادگی باشد، زیرا حجم نمونه من بسیار کوچک است، بنابراین مقادیر قابل اعتماد نیستند؟
افزایش نسبت شانس در یک پیش بینی غیر معنی دار
106112
من یک متغیر وابسته (داده های پیوسته) و 4 داده مستقل (ترکیبی از پیوسته و تعداد) دارم که طی 35 سال در چندین ایالت جمع آوری شده است. من از مدل های خطی جلوه های مختلط با یک برش تصادفی و یک شیب تصادفی استفاده می کنم. model<-lmer(y ~ x1 + x2 + x3 + x4 (1+x1+x2+x3+x4|state),data=data,method=ML) اگر برخی از متغیرهای مستقل من همبسته باشند، چه روش کاهش مسئله همخطی در یک مدل اثر مختلط خطی؟ من می‌توانم با استفاده از VIF هم‌سویی را تشخیص دهم و مهم‌ترین متغیرهای مستقل را حفظ کنم، اما می‌توانم این کار را برای هر سطح عامل (سطوح حالت) به صورت جداگانه انجام دهم. اما آیا منجر به حفظ برخی متغیرهای مستقل در یک سطح عامل و حذف همان متغیر در سطح عامل دیگر نمی شود؟ حدس می‌زنم سوال اصلی این است که چگونه می‌توان همخطی را در مدل‌های اثر ترکیبی تشخیص داد و وقتی 5 یا 6 متغیر مستقل دارید با آن چه باید کرد؟
همخطی در مدل اثرات مختلط خطی
34911
من 3 متغیر دارم که در 4 نوبت اندازه گیری شده اند و حجم نمونه 16 است. من یک MANOVA اندازه گیری های مکرر را در نظر گرفتم تا مطمئن شوم آیا تغییرات در طول زمان از نظر آماری معنی دار هستند یا خیر. با این حال، من فکر می کنم که حجم نمونه من برای استفاده از MANOVA در این راه بسیار کوچک است. من در نظر دارم از 3 ANOVA اندازه گیری مکرر جداگانه (یکی برای هر متغیر) استفاده کنم. آیا این قابل قبول و/یا قابل توجیه است؟
ANOVA اندازه گیری های مکرر به جای MANOVA اندازه گیری های مکرر با N کوچک؟
83254
برای بازنگری، من در حال کار کردن یک مدل ضربی برای داده‌های فروش هستم، و سپس یک تحلیل خطای ساده (فروش واقعی - پیش‌بینی‌شده) انجام می‌دهم. من روند را درک می کنم، اما در طرح نمره استاد من او شما باید مفید بودن ACF خطاها را ذکر کنید قرار داده است. چگونه می توانم در مورد این اقدام کنم؟ نتایج خطای من عبارتند از: خطاها: -7.75 1.67 -2.26 0.776 3.88 4.61 6.024 3.112 -0.49 -1.44 -7.688 2.448
ACF خطاها
85949
من در حال انجام تجزیه و تحلیل کوواریانس (در SPSS) هستم، اما نمی توانم جایی پیدا کنم که SPSS چگونه با متغیرهای کمکی در هنگام تولید تجزیه و تحلیل برای کنتراست های خاصی که مشخص کردم، رفتار می کند. آیا آنها را در مقدار متوسط ​​خود می گیرد، آنها را به طور کلی نادیده می گیرد (متغیرهای کمکی = 0) یا چیز دیگری؟ به همین ترتیب، وقتی جدول تخمین پارامترها را درخواست می‌کنم و به اثرات اصلی و تعاملات بین عامل*متغییر نگاه می‌کنم، برای بقیه متغیرهای کمکی چه اتفاقی می‌افتد؟ در مورد اثرات اصلی، آیا آنها در مقدار متوسط ​​در نظر گرفته می شوند یا نادیده گرفته می شوند؟ و در مورد تعاملات، یک متغیر کمکی در حال تحلیل است، اما برای بقیه چه اتفاقی می‌افتد؟ با تشکر
هنگام انجام کنتراست ها با متغیرهای کمکی چه اتفاقی می افتد؟
18477
من می‌خواهم یک آزمون استقلال برای یک جدول اقتضایی انجام دهم که در آن مشخصه Y برای اینکه یک فرد به مدرسه می‌رود یا نه، و X مخفف جنسیت آن است (MA، مرد؛ FE، زن). یک جدول احتمالی معمولی می تواند به صورت زیر باشد: +-----+------------------------------+ | X/Y | برو مدرسه | نه رفتن به مدرسه | +-----+------------------------------+ | MA | | | +-----+------------------------------+ | FE | | | +-----+------------------------------ این نوع آزمون برای من واضح است. حال فرض کنید که اقتضای من مانند مورد زیر باشد +-----+-----------------------------+ X/Y | برو مدرسه | نه رفتن به مدرسه | +-----+------------------------------+ | MA | | | +-----+------------------------------+ | MA | | | +-----+-----------------------------+ به عبارت دیگر متغیر X به نمونه همان اشاره دارد. نوع؛ یعنی هر دو از یک جمعیت استخراج شده و دارای یک جنسیت هستند. سوال من این است: اگر کشف کنم که بین نسبت های این دو نمونه تفاوت قابل توجهی وجود دارد، نمی توانم نتیجه بگیرم که این دو نمونه مشابه هستند. بلکه باید عامل یا ویژگی دیگری وجود داشته باشد (که من در نظر نگرفته ام) که باعث این تفاوت می شود اگرچه نمونه ها از یک جامعه هستند. آیا این درست است؟
آزمون های استقلال در جداول احتمالی
107644
روز گذشته من یک مدل پواسون در glmnet با استفاده از میانگین مشاهدات در یک دوره 1 ساله برای پیش بینی تعداد ایجاد کردم. نتیجه خیلی خوب بود، اما من فکر کردم که می‌توان آن را با جمع‌کردن دوره‌های زمانی به ماه بهتر کرد. من می‌دانم که نوع رگرسیون پواسونی که glmnet انجام می‌دهد برای این نوع داده‌ها چندان مناسب نیست، زیرا همبستگی بالایی بین هر متغیر در دوره‌های زمانی مختلف وجود دارد، اما از اینکه متوجه شدم همه ضرایب من در محدوده هستند، شگفت‌زده شدم. از «e-35» تا «e-36». همین امر در هر دو رگرسیون ریج (آلفا=0) و کمند (آلفا=1) رخ داد. آیا کسی توضیح خوبی دارد که چرا این اتفاق افتاده است و چگونه می توانم آن را برطرف کنم؟
ضرایب ناپدید شدن با مدل پواسون در glmnet
38065
من سعی می کنم از سی شارپ (و کتابخانه alglib) برای محاسبه احتمال پیش بینی شده که یک نتیجه به یکی از پنج کلاس ختم می شود، استفاده کنم. من موفق به محاسبه تخمین پارامترها (یعنی مقادیر شیب و فاصله) برای هر نتیجه شده ام، با استفاده از 1 گروه به عنوان مرجع. با این حال، به نظر نمی رسد که بفهمم چگونه از این ضرایب برای محاسبه احتمال پیش بینی شده هر نتیجه بر روی هر متغیر مستقل معینی استفاده کنم. عملیات مورد نیاز برای محاسبه احتمال برای هر نتیجه چیست؟
استفاده از ضرایب رگرسیون چند جمله ای برای استخراج نتایج پیش بینی شده در سی شارپ
47567
من با این انجمن برخورد کردم که سعی می کنم پاسخ قانع کننده ای بگیرم. پوزش می خواهم برای صحبت کردن به انگلیسی ساده زیرا من یک نابغه آماری نیستم! اساساً من یک پرسشنامه پیش و پس از آن را اجرا می کنم تا از جوانان (17-12 ساله) پرسیده شود و با هدف نشان دادن تأثیر مداخله یک روزه (برنامه آموزشی یک روزه) است. ایده این است که از دانش آموزان بخواهیم قبل و بعد از ارائه برنامه در مجموعه ای از 5 شاخص (کار تیمی، اعتماد به نفس، قابلیت استخدام ...) خود ارزیابی کنند. مقیاس رتبه بندی 1-5 (کاملاً مخالفم تا کاملاً موافقم) و 1-4 (حذف گزینه میانی) خواهد بود. سوال من به لزوم جفت کردن هر پاسخ قبل و بعد برای یک دانش آموز مربوط می شود؟ در واقع، من به دو روش برای جمع آوری اطلاعات فکر کردم. ONE دسته هایی از فرم های پیش و پس از آن را بدون هیچ شناسه ای برای هر دانش آموز به کلاس می دهد. در این صورت من به این فکر کردم که تمام پاسخ‌های قبل و بعد را برای هر شاخص جمع‌آوری کنم، سپس تفاوت را در مجموع بررسی کنم. دو جفت کردن پاسخ‌های قبل و بعد برای هر دانش‌آموز (احتمالاً با استفاده از یک بارکد یا شماره سریال منحصر به فرد)، به این ترتیب من را قادر می‌سازد تا تفاوت نمره‌های فردی را که می‌توان متعاقباً نیز جمع‌آوری کرد، بررسی کنم. من نمی دانم کدام روش از نظر آماری نتایج قوی تری را به همراه دارد یا اگر در نهایت از نظر حسابی تفاوتی ندارند به همان پاسخ می رسم؟ من از فرم های علامت گذاری نوری استفاده خواهم کرد و دلیل سوال من این است که تصمیم بگیرم آیا صرفه جویی در زمان در روش اول (در حالی که معلمان می توانند فرم ها را بدون توجه به اینکه چه کسی آنها را پر می کند توزیع کنند) نتایج مشکوکی به همراه خواهد داشت؟ من مبادله بین عملی بودن روی زمین و استحکام داده ها را در نظر می گیرم زیرا می خواهم درصدهای آماری قابل توجهی را افزایش دهم (آمار t که نرم افزار می تواند به طور خودکار کار کند). با تشکر فراوان از پاسخ های شما م
پرسشنامه پیش و پس از آن (T-test)
105584
من به دنبال مرجعی در مورد توزیع نمونه‌گیری مرتبط با جمعیتی هستم که در آن هر نمونه مورد استفاده برای تولید توزیع نمونه دارای اندازه ثابت n نیست. در عوض هر نمونه به طور کلی اندازه متفاوتی خواهد داشت. به عنوان مثال، شما m نمونه را از یک جمعیت N می گیرید: $$x_{1,1},...x_{1,n_{1}}, ..., x_{m,1},...x_{m, n_{m}}$$ که در آن $n_{i}$ اندازه نمونه i است و سپس توزیع $\overline{x}$ را می‌سازید که مقادیر آن با میانگین هر نمونه داده می‌شود. آیا یک نظریه کلی برای این نوع شرایط وجود دارد؟ هر گونه کمک در این زمینه بسیار قدردانی خواهد شد. با تشکر
مرجع توزیع نمونه با اندازه‌های نمونه متفاوت
112158
من از بسته بوت در R برای بوت استرپ فواصل اطمینان حول برآوردی از میانه استفاده می کنم. داده ها منحرف هستند، اما برآوردگر مغرضانه نیست، بنابراین من از فاصله اولیه استفاده می کنم. داده ها در واحد روز، از 0-30 است. در زیر توضیحاتی برای متغیر خاص ارائه شده است: var n میانگین sd میانه برش خورده شده حداکثر محدوده چولگی کشیدگی se Var3 3 100 8.65 11.28 2.0 7.06 2.97 0 30 30 0.90 -0.84 1.13 زمانی که تحلیل را پایین تر می آورم. > boot.ci(res100,type=basic,index=3) محاسبات بازه اطمينان راه انداز بر اساس 5000 تکرار بوت استرپ CALL: boot.ci(boot.out = res100، نوع = basic، index = 3) فواصل: سطح محاسبات و فواصل پایه 95٪ (-1، 4). در مقیاس اصلی این به چه معناست؟ فکر نمی کردم بتوان تخمینی را بدست آورد که در نمونه اصلی نباشد.
محدوده پایین CI بوت استرپ خارج از محدوده
34910
اکثر روش‌های طبقه‌بندی معمولاً همه موارد را آموزش می‌دهند و پیش‌بینی می‌کنند، که احتمالاً پاسخ کمتر کارآمدی می‌دهند. برای مثال، دو ناحیه پرجمعیت تصادفی را روی یک شبکه دوبعدی (هر دو با دو کلاس باینری یکسان) تصور کنید. یک فضای خوب تعریف شده (مثلاً نیمه بالا) 80٪ کلاس های مثبت دارد و دیگری فقط 50٪. علاوه بر این، فرض کنید این احتمالات پایدار هستند. من تصور می کنم که نوعی از یادگیرنده مانند درخت طبقه بندی می تواند مناطق را با استفاده از تقسیم مبتنی بر آنتروپی شناسایی کند. اما به‌جای ادغام مجموعه‌های پر سر و صدا بیشتر، می‌خواهم به معنای واقعی کلمه مناطق پر سر و صدای بیشتری را به عنوان روشی برای پیش پردازش برای مرحله پیش‌بینی، به کلاس 3 تغییر دهم یا دوباره کدنویسی کنم. به‌طوری‌که به‌جای پیش‌بینی میانگین پایین در همه نمونه‌ها، یادگیرنده من می‌تواند بیشتر روی مناطق احتمالی بالا تمرکز کند. آیا کسی چنین روشی را می شناسد؟
روش طبقه بندی و کدگذاری مجدد مناطق با احتمال زیاد و کم؟
85944
من دو گروه مستقل A و B دارم. به هر شرکت کننده 5 سوال داده می شود تا حل کند و پاسخ او صحیح یا نادرست ارزیابی می شود. با این حال، شرکت‌کنندگان می‌توانند سؤالات را نادیده بگیرند، بنابراین تعداد سؤالات امتحان شده برای هر شرکت‌کننده متفاوت است. بنابراین، به داده‌های زیر می‌رسم: گروه # پاسخ‌های صحیح # پاسخ‌های تلاش شده نسبت صحیح p1 A 3 5 0.6 p2 A 2 4 0.5 p3 B 1 1 1.0 p4 B 1 3 0.33 ...... می‌خواهم تست کنید که آیا صحت پاسخ ها بین گروه A و B متفاوت است یا خیر. از کدام آزمون آماری استفاده کنم؟ در حال حاضر من به سادگی تعداد کل پاسخ‌های تلاش شده و تعداد پاسخ‌های صحیح را برای همه افراد از گروه A و B، مثلاً 90/100 در مقابل 75/90، می‌شمارم و از آزمون نسبت (در R به عنوان prop.test) استفاده می‌کنم. ولی نمیدونم مناسبه؟
تست مناسب برای داده های نسبت
108883
من از مدل افزودنی فصلی Holt-Winters برای محاسبه باند اطمینان داده‌هایم استفاده می‌کنم. من فرآیند اولیه سازی HW را دنبال کردم که توسط راب جی هایندمن شرح داده شد. باند اطمینان از صاف کردن دلتا بین مقدار واقعی سری و مقدار پیش‌بینی‌شده توسط مدل HW به دست می‌آید. در برخی موارد که فصلی دارم با دامنه بسیار کم نسبت به تغییر ناشی از روند، به نظر می رسد مدل شکسته می شود و در شروع هر فصل یک خطای بزرگ ایجاد می کند.![توضیح تصویر را اینجا وارد کنید](http: //i.stack.imgur.com/vEJAl.png) من نمی دانم که آیا این یک مشکل شناخته شده در این رویکرد اولیه سازی است و آیا کسی می تواند لطف کند روش دیگری را برای غلبه بر این مشکل پیشنهاد کند. در مثال زیر از داده‌های مصنوعی با 48 ساعت فصل موج سینوسی، نویز افزایشی کوچک و روند قوی استفاده می‌کنم (داده‌ها شامل محدوده زمانی 4 هفته با نرخ نمونه‌برداری 5 دقیقه هستند). ![به نظر می رسد باند اعتماد](http://i.stack.imgur.com/vEJAl.png)
Holt Winters Initialization Issue
102984
من یک مجموعه داده متشکل از 5 ویژگی دارم: A، B، C، D، E. همه آنها مقادیر عددی هستند. به جای انجام یک خوشه بندی مبتنی بر چگالی، کاری که می خواهم انجام دهم این است که داده ها را به شیوه ای درخت تصمیم خوشه بندی کنم. منظور من چیزی شبیه به این است: الگوریتم ممکن است داده ها را بر اساس ویژگی C به X خوشه های اولیه تقسیم کند، به عنوان مثال، خوشه های X ممکن است مقادیر C کوچک، متوسط ​​C، C بزرگ و C بسیار بزرگ و غیره داشته باشند. سپس، در زیر هر یک از آنها در گره‌های خوشه X، الگوریتم داده‌ها را بر اساس ویژگی A به خوشه‌های Y تقسیم می‌کند. الگوریتم تا زمانی ادامه می‌یابد که همه ویژگی‌ها استفاده شوند. الگوریتمی که در بالا توضیح دادم مانند یک الگوریتم درخت تصمیم است. اما به جای طبقه‌بندی نظارت شده، برای خوشه‌بندی بدون نظارت به آن نیاز دارم. سوالات من به شرح زیر است: 1. آیا چنین الگوریتم هایی از قبل وجود دارد؟ نام صحیح چنین الگوریتم 2 چیست. آیا بسته/کتابخانه R/python وجود دارد که پیاده سازی این نوع الگوریتم ها را داشته باشد؟
آیا الگوریتم درخت تصمیم گیری برای خوشه بندی بدون نظارت وجود دارد؟
107647
پیشاپیش از کمک ممنونم فرض کنید من مجموعه ای از داده های فرم [ویژگی، رتبه بندی] را دارم. برای استدلال، فرض می کنیم که ویژگی می تواند فیلم A یا فیلم B باشد و رتبه بندی یک مقدار مرتب و پیوسته در بازه [0,100] است. همچنین فرض کنید مجموعه داده ها بسیار بزرگ است. در واقعیت، من چندین ویژگی دیگر دارم، اما قصد دارم هر جفت ویژگی را جدا کنم، بنابراین معتقدم که این یک نمونه قابل مقایسه است (هر چند هنوز یک رتبه). با این فرض ساده لوحانه که داشتن رتبه‌بندی‌های یکسان به معنای یکسان بودن ویژگی‌ها است، چگونه می‌توانم تشخیص دهم که آیا ویژگی A و B متفاوت یا یکسان هستند (اعتراف می‌کنم که ممکن است تعیین هر یک از آنها ممکن نباشد). با توجه به اینکه من انحراف معیار نحوه تخصیص رتبه‌بندی را می‌دانم (فرض کنید من یک کاربر یا مجموعه‌ای از کاربران دارم که امتیازها را اختصاص می‌دهند و من std رتبه‌بندی‌هایی را که می‌دهند می‌دانم)، چگونه می‌توانم این کار را انجام دهم؟ من عذرخواهی می کنم اگر برچسب های اشتباهی روی این سوال گذاشتم، مطمئن نیستم که این زیر چه چیزی باید باشد.
چگونه می توانم تشخیص دهم که با توجه به مجموعه ای از داده ها، دو ویژگی یکسان هستند یا خیر؟
112783
من دو توزیع احتمال دارم و می خواهم بگویم که آنها از نظر آماری متفاوت هستند. به طور معمول، من از آزمون K-S استفاده می کنم. اما، داده‌های من از افراد متعددی می‌آیند، که نشان می‌دهد من یک اثر تصادفی در داده‌هایی دارم که باید در نظر گرفته شوند. به عنوان مثال، من 16 فرد دارم (8 گونه از گونه A، 8 از گونه B). من 100 ثانیه عمق شیرجه برای هر فرد دارم. من توزیع احتمال اعماق غواصی را برای هر گونه ترسیم کرده ام و می خواهم بگویم که آنها از نظر آماری متفاوت هستند. آیا باید این واقعیت را در نظر بگیرم که اعماق شیرجه از افراد مختلف است؟ چه آزمون آماری مناسب است؟ با تشکر
تفاوت در 2 توزیع را آزمایش کنید و یک اثر تصادفی را در نظر بگیرید
15648
من یک مجموعه داده با نگهداری اسناد کتابخانه در هر سال انتشار دارم، که می‌توانم فراوانی اصطلاحات، موضوعات و غیره را جستجو کنم. این به من امکان می‌دهد سری‌های زمانی «محبوبیت» برخی اصطلاحات دانشگاهی را در مجموعه کلی کتابخانه بسازم. با این حال، اثرات مختلفی در بازی وجود دارد، حداقل افزایش حجم کلی اسناد در سال (به عنوان مثال کاهش در WOI، WOII، بودجه، و غیره)، رشد اسناد به زبان انگلیسی (زبان مادری انگلیسی نیست)، رشد خود رشته‌های دانشگاهی (که با اصطلاحات عمومی مانند «جامعه‌شناسی» و «روان‌شناسی» اندازه‌گیری می‌شوند) و محبوبیت برخی موضوعات خاص، به عنوان مثال. «قشربندی اجتماعی»، «تروریسم»، و غیره. ارائه رشد مطالعات در مورد مهاجرت، خالص از رشد رشته و حجم کلی اسناد. آیا تکنیک/بسته ای (ترجیح R) وجود دارد که بتوانم آن را بررسی کنم؟ مشکل اضافه شده این است که من دسترسی مستقیم به مجموعه داده کامل سند 13 میلیونی ندارم، اما می توانم فرکانس ها را در سال در شاخص های مختلف جستجو کنم.
تفکیک رشد کلی به عوامل کمک کننده
107643
اجازه دهید یک مدل رگرسیون خطی به‌دست‌آمده با تابع R lm بداند که آیا می‌توان آن را با دستور میانگین مربعات خطا به دست آورد. من خروجی زیر از یک مثال داشتم > lm <- lm(MuscleMAss~Age,data) > sm<-summary(lm) > sm Call: lm(فرمول = MuscleMAss ~ سن، داده = داده) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -16.1368 -6.1968 -0.5969 6.7607 23.4731 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 156.3466 5.5123 28.36 <2e-16 *** سن -1.1900 0.0902 -13.19 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 8.173 در 58 درجه آزادی چندگانه R-squared: 0.7501، R-squared تنظیم شده: 0.745 آمار: 174.1 در 1 و 58 DF، p-value: < 2.2e-16 R-squared چندگانه آیا مجموع مربعات خطا است؟ اگر پاسخ منفی است، می تواند معنای Multiple R-squared و Multiple R-squared را توضیح دهد
چگونه مقدار میانگین مربعات خطا را در رگرسیون خطی در R بدست آوریم
102606
تحقیق فعلی من در مورد انتخاب محل خواب زمستانی در لاک پشت های جعبه ای است. به منظور تعیین انتخاب، من طیف وسیعی از متغیرها را در مورد خاکی که لاک پشت در آن به خواب زمستانی رفت و همچنین پوشش (برگ، گیاه، سوزن کاج و غیره) که در محل خواب زمستانی وجود داشت، جمع آوری کردم. من به طور تصادفی 5 سایت کنترل جفت شده را در اطراف هر یک از سایت های خواب زمستانی انتخاب کردم و همان داده ها را از آن ها جمع آوری کردم. من قصد دارم یک رگرسیون لجستیک مشروط را روی مجموعه داده اجرا کنم اما یک سوال دارم. از آنجایی که متغیرهای پوشش و متغیرهای خاک واقعاً تأثیر بسیار کمی بر یکدیگر دارند، آیا اجرای یک لاجیت شرطی روی هر مجموعه از متغیرها (1 روی خاک، 1 روی پوشش) معتبر است یا باید خاک و پوشش را با هم قرار دهم. و آزمایشی را روی همه چیز ترکیبی اجرا کنید؟ من دانش بسیار کمی از این آزمون دارم، بنابراین نمی خواهم کاری انجام دهم که نتایجم را باطل کند. کمک شما قابل تقدیر است. با تشکر
اعتبار اجرای 2 آزمون رگرسیون لجستیک مشروط بر روی یک مجموعه داده
38064
من مایلم یک الگوریتم خوشه‌بندی را روی رکوردهای داده اجرا کنم که شامل مجموعه‌هایی است که هر کدام ویژگی‌هایی را که در یک زمان مشخص فعال شده‌اند را نشان می‌دهند. آیا الگوریتم خوشه بندی وجود دارد که به من توصیه کنید آن را امتحان کنم؟ در اولین آزمایش‌هایم در حال آزمایش K-means هستم، اما شاید چیزی مناسب‌تر وجود داشته باشد. آیا تابع فاصله ای وجود دارد که با مجموعه ها به خوبی کار کند؟ من حدس می‌زنم چیزی بهتر از فاصله اقلیدسی وجود دارد، اما من نمی‌دانم که چگونه متریک بهتر می‌تواند به نظر برسد.
الگوریتم خوشه بندی و تابع فاصله برای مجموعه ها
100724
آیا می توانید مجموعه ای از فرمول ها را به من بدهید که بتوانم از آنها برای محاسبه فاصله اطمینان eta-squared به صورت دستی استفاده کنم؟ من چند فرمول را در این مقاله پیدا کردم: http://www.jstatsoft.org/v20/i08/paper (صفحات 12 و 13)، اما نمی توانم نحوه محاسبه ΛL و ΛD را بفهمم. آیا کسی در اینجا این را می داند یا آیا کسی ابزار جایگزینی برای محاسبه دستی این فواصل اطمینان دارد؟
آیا می توان فواصل اطمینان eta-squared را به صورت دستی محاسبه کرد
109732
کنجکاو بودم که چه نوع مدل های سری زمانی استاندارد برای انجام این نوع تحلیل هستند. من داده های فروش هفتگی شرکت را دارم - می توانم مدل سری زمانی خودم را درست کنم اما می خواهم بدانم گزینه های من چیست.
تکنیک های استاندارد برای پیش بینی رشد درآمد یک شرکت؟
100725
من باید روش‌های مونت کارلو زنجیره مارکوف را مطالعه کنم، برای دقیق‌تر بودن باید الگوریتم متروپلیس هستینگز و همه چیز در مورد آن مانند معیارهای همگرایی را مطالعه کنم. چه کسی می‌تواند برای من کتاب، مقاله یا وب‌سایتی تجویز کند که این استدلال را با استفاده از اصطلاحات ساده اما بی‌اهمیت توضیح دهد؟
الگوریتم متروپلیس هاستینگز
107640
چرا آماردانان ما را از ارجاع به نتایج به عنوان _بسیار قابل توجه منصرف می کنند، وقتی که مقدار $p$ بسیار کمتر از سطح $\alpha$ معمولی 0.05$ است؟ آیا واقعاً اشتباه است که به نتیجه ای اعتماد کنیم که 99.9٪ احتمال دارد که خطای نوع I نباشد ($p=0.001$) بیش از نتیجه ای که فقط این شانس را در 99٪ به شما می دهد ($p=0.01$)؟
چرا اشتباه است که به نتایج به عنوان بسیار قابل توجه اشاره کنیم؟
109736
من سعی می کنم دو مجموعه از شمارش ها را با مجموع مقایسه کنم. به عنوان مثال، موضوع 1A دارای 40 از 600 و موضوع 1B دارای 3 از 20 خواهد بود. چگونه می توانم این نسبت ها و شمارش ها را با در نظر گرفتن تعداد کل خوانده ها/شمارش ها مقایسه کنم؟ باطل من این است که این نسبت ها یکسان هستند، و جایگزین من این است که آنها بسیار متفاوت هستند. من به انجام تست دوجمله ای یا خی دو فکر می کردم، اما نمی خواهم توزیع خاصی را فرض کنم و دوست دارم تا حد امکان ناپارامتریک باشد. همچنین احساس می‌کنم که هر دو ممکن است مقدار p پایین‌تری را بر اساس تعداد خوانده‌ها تولید کنند، اما برای داده‌های من، B (به معنی موضوع 2B، 3B، و 4B) به احتمال زیاد همه خوانده‌های کل کمتری نسبت به همتایان خود دارند (2A) ، 3A و 4A). هر توصیه ای مفید خواهد بود با تشکر
تست بهترین نسبت ها بر اساس تعداد (دقت، توزیع و غیره)
15641
Libre Office یک راه آسان برای محاسبه و نشان دادن خط تجارت به صورت گرافیکی دارد (یعنی روی سری داده ها کلیک راست کنید و خط روند را درج کنید). با این حال، قالب‌بندی گرافیک به این شکل واقعاً آسان نیست، زیرا رگرسیون خطی را نمی‌توان بدون سری داده‌ها نشان داد و ترسیم رگرسیون خطی دقیقاً همان چیزی است که من می‌خواهم. من در آمار آموزش ندیده‌ام، اگرچه می‌دانم خط روند چیست (به لطف StackExchange)، نمی‌دانم چگونه آن را محاسبه کنم. از این رو می خواهم بدانم: آیا ابزار خودکاری برای محاسبه خط روند در Libre Office به غیر از گزینه کلیک راست در گرافیک وجود دارد؟
چگونه رگرسیون خطی را با Libre Office محاسبه کنیم؟
109730
من یک مجموعه داده بزرگ از مشتریان با انواع متغیرهایی دارم که پیشینه، سابقه پرداخت و موارد دیگر را توصیف می کند... همچنین زیرمجموعه ای از مشتریانی دارم که همگی رفتارهای عجیب و غریب و در عین حال نگران کننده مشابهی را به تصویر کشیده اند. من می‌خواهم بتوانم مشتریانی را پیش‌بینی کنم که رفتار مشابهی از خود نشان می‌دهند یا حداقل بفهمم کدام متغیرها بیشترین تأثیر را در این رفتار دارند، اما مطمئن نیستم که از کدام روش‌ها برای یادگیری بهتر این نوع رفتار استفاده کنم. (من سعی کردم یک درخت رگرسیون را رشد دهم تا بفهمم کدام متغیرها نقش مهمی در این نوع رفتار دارند، اما خطای میانگین مربع من برای قابل اعتماد بودن آن خیلی زیاد بود.) آیا افراد پیشنهادی دارند؟
پیشنهادی برای کشف الگوهای ذاتی در داده ها
6480
من 10000 نمونه تصادفی (هر کدام 910 نقطه داده) را روی مجموعه داده ای از حدود 75000 نقطه داده اجرا کرده ام. من می‌خواهم از این یک توزیع مستمر انجام دهم تا بتوانم احتمال به دست آوردن نتایج یک نمونه غیرتصادفی خاص را که بر اساس نگرانی‌های نظری ساخته‌ام، آزمایش کنم. برای هر نمونه تصادفی (و برای نمونه واقعی)، تعداد بازدیدها، تعداد بازدیدها + از دست دادن (این تعداد به دلایلی که فکر نمی کنم مهم هستند تا حدودی متفاوت است) و تعداد نسبی بازدیدها را جمع آوری کردم. (بازدید / ضربه + از دست دادن). در حالت ایده‌آل، من می‌خواهم فرکانس‌های نسبی را بگیرم و آن را به یک توزیع پیوسته تبدیل کنم (من فرض می‌کنم تقریباً نرمال خواهد بود)، تا بتوانم ببینم فرکانس نسبی «واقعی» چقدر احتمال دارد (با استفاده از چیزی ساده مانند آزمون تی). اما من مطمئن نیستم که چگونه این کار را انجام دهم. از سوی دیگر، آیا راه آسان تری برای آزمایش احتمال به دست آوردن نتایج واقعی من فقط با یک فایل طولانی از نتایج هر نمونه تصادفی وجود دارد؟ من فرض می کنم نوعی تابع R وجود دارد که این را نسبتاً ساده می کند. هر نکته ای؟
چگونه می توانم یک توزیع پیوسته از نتایج شبیه سازی در R ایجاد کنم؟
30033
من اغلب دیده ام که PCA به طور نادرست در تحقیقات ژنتیکی اعمال می شود. من می خواستم توضیح دهم: چه زمانی استفاده از PCA به عنوان یک ابزار تجسم در تجزیه و تحلیل شما مناسب است؟ چند مثال: 1) به ندرت درصد واریانس برای مؤلفه ها گزارش می شود. با داده‌های انسانی، تجربه من این بوده است که سه مؤلفه اول (که اغلب ترسیم می‌شوند) درصد بسیار کمی از واریانس را شامل می‌شوند. وقتی سه مؤلفه اول به طور تجمعی تنها (مثلاً) 10 درصد از واریانس را تشکیل می دهند، نتایج بصری (یعنی خوشه بندی) چقدر معنی دار هستند؟ 2) هنگامی که به طور فعال انتخاب ویژگی را انجام دادید، یک آزمون t ساده را فرض کنید، و مجموعه داده های بزرگ خود را به مجموعه کوچکی از ویژگی ها کاهش دادید، آیا باید PCA را برای تجسم خوشه ها انجام دهید؟ من شنیده ام که استدلال می کنند از آنجایی که شما آنقدر فعالانه انتخاب ویژگی را انجام می دهید، پس از این واقعیت، خوشه بندی PCA واقعاً مرتبط نیست. آیا این درست است؟ 3) اگر قصد انجام PCA را دارید، چه پارامترهای مهمی باید گزارش شود؟ انتظار دارم %Variance هر جزء را پوشش دهد، اما آیا چیز دیگری وجود دارد؟
مناسب بودن PCA برای تجسم خوشه ها در داده های ژنتیکی
15642
مناسب ترین نرم افزار برای ساخت مدل پیش بینی ARMA چیست؟ EViews، Minitab،...؟ بهترین، میلوس
مناسب ترین نرم افزار ARMA
89900
من 4 مدل خطی ساخته ام. برای هر یک از این مدل ها، من باقی مانده ها را در برابر مقادیر برازش رسم کرده ام. * نمودار اول: مدل خطی تعمیم یافته با تابع پیوند شبه دو جمله ای * نمودار دوم: مدل خطی تعمیم یافته با تابع پیوند شبه دو جمله ای * نمودار سوم: رگرسیون خطی * نمودار چهارم: رگرسیون خطی من می دانم که برای برآورده کردن مفروضات مدل های خطی، باقیمانده ها باید نباید هیچ گونه الگوی، باید نرمال در اطراف صفر توزیع شود و غیره. مفروضات مدل های خطی و کدامیک نه؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/J5DNN.jpg) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4b5xg.jpg) ![ توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/i4Cz9.jpg) ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/bKQyS.jpg)
نمودارهای باقیمانده از چهار مدل خطی
78046
من می خواهم تابع هزینه یک مدل جنگل تصادفی را که توسط چندین زیرمجموعه از داده های آموزشی/آزمایشی من تغذیه می شود، تخمین بزنم. اندازه زیر مجموعه ها در حال افزایش است. با مقایسه هزینه با حجم نمونه آموزشی و سپس آزمون، می‌خواهم احتمال وجود کمبود در داده‌هایم را بررسی کنم (که به آن مشکوک هستم). سوال این است: چگونه می توانم هزینه یک یا چند اجرای RF را بدست بیاورم و آن را در R رسم کنم؟
تابع هزینه طرح برای جنگل تصادفی در برابر حجم نمونه در R
78045
من با رگرسیون خطی با یک نتیجه پیوسته سر و کار دارم. به دلیل مشکوک بودن غیرخطی بودن در یکی از متغیرهای کمکی (از طریق پراکندگی)، برخی از تبدیل‌های احتمالی متغیر مستقل را امتحان کردم. با استفاده از AIC به عنوان معیار، دو مدل دارم که مناسب به نظر می رسند: مدل 1: $$ Y =\beta_0 + \beta_1 X + \beta_2 X^2 $$ مدل 2: $$ Y =\beta_0 + \beta_1 X + \ beta_2 \log X $$ من به طور تصادفی بیشتر به مدل 2 برخورد کردم، زیرا می‌خواستم یک تبدیل log انجام دهم اما فراموش کردم که جلوه اصلی را حذف کنم. هر دو مدل به من تناسب مدل بهتری می دهند (بر اساس AIC)، اما تناسب با مدل 2 حتی بهتر از مدل 1 است (تفاوت در AIC بسیار زیاد است). من همچنین تغییر log-X$ را بدون $X$-Term تبدیل نشده امتحان کردم، اما در مقایسه با مدل اصلی بدون تغییر، هیچ پیشرفتی به من نداد. آیا وجود $\log X$ و همچنین $X$ در مدل مشکلی ندارد؟ من دلیلی نمی بینم که چرا مشکل باشد، اما قبلاً هرگز با این وضعیت روبرو نشده بودم. از این رو، من کاملاً مطمئن نیستم. علاوه بر این، من همچنین مطمئن نیستم که چگونه چنین مدلی را از نظر تأثیر X$ تفسیر کنم. ویرایش: در اینجا نمودار پراکندگی با منحنی‌های متناسب روی هم قرار گرفته است. مدل 3 فقط به مدلی با $log(X)$ اشاره دارد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rT4Rn.png)
ورود به سیستم تبدیل متغیر و اثر اصلی
15394
تنظیم ساده زیر را در نظر بگیرید. در بازه $[0, 1]$، ما در حال مشاهده متغیرهای تصادفی مستقل با توزیع نرمال در زمان‌های $t_1،\ldots، t_N$ هستیم. r.v. $X(t)$ دارای میانگین 0 است و انحراف استاندارد $\sigma(t)$، که در آن همه چیز در مورد $\sigma(\cdot)$ شناخته شده است، صاف است، مثلا حداقل قابل تمایز است. هدف این است که $\sigma$ را تخمین بزنیم تا تابع ضرر مورد انتظار (انتخاب به خواننده واگذار شود) به حداقل برسد. من می توانم به بسیاری از رویکردهای عملی فکر کنم، به عنوان مثال. استفاده از کرنل یا تقریب در یک مبنای معین، یا جریمه کردن MLE. اما آیا ادبیات منتشر شده ای در مورد این مشکل ساده وجود دارد؟ اگر نه، چه رویکرد رسمی را در پیش خواهید گرفت؟
تخمین شکل عملکردی واریانس آهسته متغیر با زمان یک فرآیند گاوسی
52938
امیدوارم هیچ سوالی خیلی ساده نباشد. من تازه در حال یادگیری هستم و به عبارتی برخوردم که انحراف معیار و میانگین توزیع را مقایسه می کند. من فکر می کردم که مقایسه آنها منطقی نیست، یعنی اطلاعات مفیدی از آن به دست نمی آید. آیا من اشتباه می کنم؟
آیا می توانم انحراف معیار و میانگین را با هم مقایسه کنم؟
15649
مجموعه داده من از 400 پاسخ دهنده تشکیل شده است. آنها خریدارانی با پیشینه های اجتماعی و جمعیت شناختی مختلف هستند. من از هر یک از آنها (از جمله موارد دیگر) پرسیدم که چقدر احتمال دارد یا بعید است که بستنی بخرند. به همین ترتیب، از آنها پرسیدم که چقدر احتمال دارد یا بعید است که ماست بخرند. آنها در مقیاس پنج درجه ای لیکرت پاسخ دادند. من بین خرید بستنی و خرید ماست بر اساس جنسیت همبستگی انجام می دهم. بنابراین من r=.8296 برای زنان و r=.7784 برای مردان دارم. هر دو در p<0.05 معنی دار هستند. سپس دو ضریب همبستگی را مقایسه کردم تا مشخص کنم که آیا بین خرید مرد و زن تفاوتی وجود دارد یا خیر. من از یکی از ماشین حساب های آنلاین استفاده کردم که می تواند ضرایب را با هم مقایسه کند (ماشین حساب از یک منبع معتبر است.). نتیجه قابل توجه نیست. **آیا این روش درستی برای آزمایش این سه رابطه است؟** (یعنی مرد، زن، و زن-مرد) من این سوال را پرسیده ام زیرا شخصی به این موضوع اشاره کرده است که استفاده از ضرایب همبستگی برای ارزیابی روابط در این راه در بهترین حالت ضعیف است. رویکرد و در بدترین حالت اشتباه و گمراه کننده است. به من گفته شد که تحلیل های متعارف بیشتری را در نظر بگیرم. من از نظر آماری آموزش ندیده‌ام (می‌دانم که این بهانه‌ای نیست) و باید یافته‌هایم را به مخاطبانی ارائه کنم که گرایش آماری چندانی ندارند، بنابراین از همبستگی پیرسون استفاده کردم (که برای من کاملاً مستقیم به نظر می‌رسد).
آیا همبستگی پیرسون بهترین روش برای مقایسه قدرت رابطه بین دو آیتم لیکرت در بین گروه هاست؟
38069
من می دانم که سوالات مشابه بارها در اینجا پرسیده شده است. اما من هنوز فرمول ساده یا ایده ای برای تخمین این موضوع ندارم. من سایتی با ترافیک دارم و می‌خواهم بخشی از آن را برای آزمایش الگوریتم‌های مرتبط جستجوی جدید، یعنی مرتب‌سازی نتایج، تقسیم کنم. من میزان رهاسازی (جستجوهای بدون کلیک/مجموع کل جستجوها) را اندازه گیری خواهم کرد. من می خواهم این آمار را با دقت $\pm2\%$ با اطمینان $95\%$ بدست بیاورم. آیا اکتشافی ساده (چیزی کاربردی) وجود دارد که بتوانم برای بدست آوردن تعداد مورد نیاز آزمایش ($10^3,~10^6,~\ldots$) استفاده کنم؟
برای انجام آزمایش مربوط به جستجو به چند تعامل کاربر نیاز دارم؟
78049
من یک متغیر تصادفی توزیع شده گاوسی $X$ با واریانس شناخته شده $\sigma^2$ دارم. با توجه به اینکه من $P(X\geq t)=m$ را می دانم، چگونه می توانم میانگین متغیر تصادفی را پیدا کنم؟
یافتن میانگین یک متغیر تصادفی توزیع شده گاوسی با توجه به واریانس
47564
کوزه 1 شامل 5 توپ سفید و 7 توپ سیاه است. کوزه 2 شامل 3 سفید و 12 سیاه است. یک سکه منصفانه ورق خورد. اگر Heads باشد، یک توپ از Urn 1 و اگر Tails باشد، یک توپ از Urn 2 کشیده می شود. فرض کنید این آزمایش انجام شده است و متوجه می شوید که یک توپ سفید انتخاب شده است. احتمال انتخاب توپ سفید چقدر است؟ من فکر کردم P(W) = 8/27 یا 0.29 زیرا P(H یا T) = 0.5 اما P(W) = P(W|T) P(T) + P(W|T') P(T') = 3/15 x 1/2 + 5/12 x 1/2 = 1/10 + 5/24 = 37/120 (= 0.302) حتی اگر دریافت H یا T یکسان است، فرکانس توپ های سفید در هر کوزه متفاوت است. اما من هنوز فکر می کنم احتمال 8/27 است (البته من اشتباه می کنم اما نمی دانم چگونه نظرم را تغییر دهم). آیا کسی می تواند بهتر توضیح دهد که چه اتفاقی می افتد و/یا مثال های دیگری را به من نشان دهد؟ من همیشه چنین سوالاتی را اشتباه می گیرم و می خواهم به طور غریزی خودم را برای چنین احتمالات سنگینی آموزش دهم. باید خودم را آموزش دهم تا آنها را ببینم.
همیشه با نوع سوالات احتمالات و احتمالات وزنی گیج شوید زیرا نمی توان بین دو مورد تفاوت قائل شد.
39332
من به دنبال پاسخی برای سوالات زیر هستم: * یک مدل رگرسیون خطی چندگانه با 2 IV ($X_1$ و $X_2$) را در نظر بگیرید. حال، فرض کنید که یک رابطه یکنواخت قوی بین $X_1$ و DV وجود دارد (با استفاده از ضریب رتبه Spearman)، و یک رابطه ضعیف بین $X_2$ و DV وجود دارد. آیا این بدان معناست که $X_1$ بالاترین وزن بتا را خواهد داشت ($\beta_{X_1} > \beta_{X_2}$)؟ * به عنوان مثال، اگر بگوییم IV1 قدرت پیش بینی بیشتری نسبت به IV2 و غیره دارد، چگونه می توانیم این جمله را بر حسب یکنواختی بین هر IV و DV تفسیر کنیم؟
اهمیت متغیر توسط MR در مقابل با ضریب مرتبه رتبه اسپیرمن ارزیابی شد
76242
به منظور آماده کردن متغیرها برای انتساب چندگانه، من مقداری تبدیل داده را روی متغیرهای اریب انجام دادم. بنابراین، آنها را منعکس کردم (بزرگترین مقدار + 1 منهای متغیر) و lg10 را گرفتم. پس از انتساب، می‌خواهم برخی از توصیف‌های داده‌های خود را ارائه کنم و بنابراین تبدیل روی داده‌های منتسب شده را لغو کنم. متأسفانه، هنگام گرفتن توان دهم متغیر تبدیل شده، SD اصلی را می‌گیرم، اما MEAN و MIN و MAX اصلی را دریافت نمی‌کنم (این را در مجموعه داده‌های غیرمجزا آزمایش کردم). همچنین، من نمی‌توانم ثابتی پیدا کنم که بتوانم آن را اضافه یا تفریق کنم تا MEAN را به متغیر تبدیل نشده خود ارائه کنم. من فکر می کنم باید یک توضیح یا راه حل آسان وجود داشته باشد، اما به نظر نمی رسد در حال حاضر آن را پیدا کنم. من از کمک شما سپاسگزارم!
تبدیل مجدد یک متغیر ثبت شده منعکس شده
109739
زمینه این تطبیق داده های تجربی RNA SHAPE با مدل های نظری احتمالات جفت پایه است. RNA بر روی خود تا می شود، برخی از پایه ها با یکدیگر جفت می شوند و برخی از پایه ها جفت نشده باقی می مانند و حلقه هایی ایجاد می کنند. داده‌های SHAPE «واکنش‌پذیری» یک پایه (متناسب با جفت شدن _نیست) را به عنوان تابعی از شاخص پایه نشان می‌دهد. داده‌هایی که بیرون می‌آیند چیزی شبیه به این است: qplot(x = 1:110، y = wt، geom = bar، stat = هویت) # wt ردیابی واکنش‌پذیری است، x شاخص پایه است، توالی 110 طول دارد. ![واکنش‌های Wildtype بر اساس شاخص](http://i.stack.imgur.com/JW8VL.png) متأسفانه، این با تا مدل احتمالات جفت ما اصلاً، که به این صورت است: `qplot(x = 1:110, y = probs, geom = bar, stat = identity)` ![توضیح تصویر را اینجا وارد کنید](http:/ /i.stack.imgur.com/tFUcc.png) مشاور من نظریه ای دارد مبنی بر اینکه واکنش پذیری یک پایه نه تنها به احتمال جفت شدن پایه بستگی دارد، بلکه به احتمال جفت شدن پایه نیز بستگی دارد. همسایگان آن، و نوع نوکلئوتیدها برای هر 3. من مدلی را پیشنهاد کردم که به این صورت بود: $$ p(i) \approx \alpha*react(i) + \beta*(react(i+1) + react( i-1))$$ که در آن $\alpha$ و $\beta$ پارامترهایی هستند که با برازش آنها در چندین مجموعه داده تخمین زده می شوند. به نظر می‌رسد مشاور من از این روش خوشش نمی‌آید زیرا احتمالاً مجموعه داده‌ها را حتی بیشتر هموار می‌کند. آیا راه شناخته شده ای برای غیرصاف کردن این داده ها وجود دارد؟
صاف کردن/مقیاس‌سازی (کمک به عادی‌سازی داده‌ها)
86379
با توجه به یک متغیر تصادفی $p$-بعدی $\xi \sim \mathcal{N}\left( 0, I_{p} \right)$ و یک ماتریس قطری بعدی $p\times p$ $\Lambda$ با ورودی‌های مورب $\lambda = \left( \lambda_{1},\cdots,\lambda_{p} \راست)$. آیا کسی می تواند من را به مقاله ای راهنمایی کند یا با اثبات اینکه: mean: $\mathbb{E} \left(\Lambda \left| \xi \right|\right)$ = $\sqrt{\frac{2} {\pi}}\lambda$ and $\mathbb{V}ar\left( \Lambda \left| \xi \right| \right)$ = $\left( 1 - \frac{2}{\pi}\right) \Lambda^{2}$. در ویکی‌پدیا، می‌توان نتایج یک بعدی را پیدا کرد که عبارتند از $\sqrt{\frac{2}{\pi}}\lambda$ و $\left( 1 - \frac{2}{\pi}\right)\ lambda^{2}$، به ترتیب.
اثبات میانگین و واریانس توزیع نیمه نرمال چند بعدی
77172
در مقایسه دو مدل چند متغیره تو در تو، آمار آزمون F معمولی به این شکل است: $\frac{(SSR_2 - SSR_1)/(p_2 - p_1)}{MSE_2} \sim F_{p_2-p_1، N - p_2}$ با فرض مدل 1 در مدل 2 تو در تو قرار دارد، جایی که $SSR_i$: مجموع باقیمانده مربع ها، $SST$: مجموع مجموع مربع ها، $p_i$: ابعاد مدل; $MSE_i$: میانگین مربعات خطا، محاسبه شده به صورت $\frac{SST - SSR_i}{N - p_i}$. من نمی‌دانم که آیا تغییر مخرج این آمار به $MSE_1$ (یعنی $MSE$ از مدل کاهش‌یافته) و استفاده از $F_{p_2-p_1، N - p_1}$ معتبر است؟
مخرج جایگزین برای آزمون F در مقایسه مدل تودرتو؟
39336
من می‌خواهم نکاتی را در مورد این مشکل قدردانی کنم: یک قالب ده بار پرتاب می‌شود، از تابع انحراف بزرگ توزیع برنولی برای تخمین احتمال 27 استفاده کنید. ابتدا به نظر من این دنباله‌ای از متغیرهای برنولی نیست. و دوم با فرض اینکه چگونه می توان میانگین را بین 0 و 1 مقیاس کرد؟
تمرین تئوری انحراف بزرگ
6484
من از رگرسیون لجستیک باینری برای آزمایش این مدل استفاده می کنم: logit(ρ1) = α + β1 (INDDIR) + β2 (INDCHAIR) + β3 (BOARDSIZE) + β4 (DIRSHIP) + β5 (MEETING) + β6 (EXPERT) + β7( INSTI) + β8 (بدهی) + β9 (LnSIZE) + β10 (BIG4) من مقداری دارم شک در فهرست موردی (غیره). اولین باری که تجزیه و تحلیل را اجرا کردم، 44 نقطه پرت وجود داشت. من تمام این 44 مورد را حذف کردم. سپس، تجزیه و تحلیل را دوباره اجرا می کنم. دوباره، 11 نقطه پرت ظاهر شد. تمام این 11 مورد را حذف کردم و دوباره اجرا کردم. بارها و بارها 6 عدد پرت پیدا شد! بنابراین، آیا باید همه موارد پرت را حذف کنم یا این یک داستان بی پایان خواهد بود؟ لطفا کمک کنید. با تشکر
مشکل با لیست موارد در رگرسیون لجستیک
88340
بیایید فرض کنیم که من یک تابع مانند زیر دارم، اما نمی دانم چیست. با این حال، همانطور که x را انتخاب می کنم، می دانم که f(x) مربوط به چیست. راه بهینه برای انتخاب «x» به گونه‌ای که مجموع «f(x)» برای برخی از تلاش‌های «n» متناهی به حداکثر برسد (برای مثال زیر 50 تلاش را فرض کنید) چیست؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xLbbX.png) ایده من تا کنون: 1) چند x را به صورت تصادفی در نوع جستجوی شبکه ای مد انتخاب کنید، به عنوان مثال، 0،25، 50,75,100. 2) الف) xهایی را انتخاب کنید که با f(x) بالاتر با احتمال بیشتر مطابقت دارند. ب) نوعی ضریب نویز را در اطراف `x` معرفی کنید، بنابراین ما می توانیم در اطراف `x` جستجو کنیم. به عنوان مثال اگر 75 انتخاب شده است، در 2.a، در 2.b می توان 78.33 را انتخاب کرد. این ضریب نویز باید با افزایش تعداد تکرارها کاهش یابد. 3) به انجام مرحله 2 برای تعدادی از مقادیر «x» ادامه دهید. آیا راه بهتری برای انجام موارد بالا وجود دارد؟ آیا الگوریتم شناخته شده ای برای مقابله با این مشکل وجود دارد؟
مجموع f(x) را به حداکثر برسانید، جایی که f(x) ناشناخته است، اما با انتخاب هر x یاد می گیریم
47563
آیا کسی می تواند هر طرح مناسبی را پیشنهاد کند که مقادیر مشاهده شده، مقادیر برازش شده آنها و فاصله اطمینان 95% را برای مقادیر برازش نشان دهد؟
ترسیم مقادیر برازش شده و فواصل اطمینان آنها
78042
اگر «glm» با استفاده از داده‌های شمارش داشتم، می‌توانم کارهای زیر را انجام دهم: glm (پاسخ ~ exp1 * exp2، خانواده = poisson، داده = داده) اولین کاری که در اینجا انجام می‌دهم این است که پراکندگی بیش از حد را با «انحراف باقی‌مانده» بررسی کنم. df`. اگر پراکندگی بیش از حد وجود داشت، ممکن است استفاده از «خانواده = شبه‌پوزیون» glm را انتخاب کنم (پاسخ ~ exp1 * exp2، خانواده = quaispoisson، داده = داده). آزمون های نسبت احتمال) به عنوان مثال. m1 <- glm (پاسخ ~ exp1 * exp2، خانواده = quaipoissn، داده = داده) m2 <- glm (پاسخ ~ exp1 + exp2، خانواده = quaipoissn، داده = داده) #حذف تعامل anova(m1، m2، آزمون = chi) #اگر هنوز سم # یا آنووا بود (m1، m2، تست = F) #برای quasipoisson # با استفاده از p-value برای ارزیابی اهمیت برهمکنش حذف شده در نهایت، سپس مدل خود را با رسم باقیمانده‌های انحراف در برابر مقادیر برازش، مقادیر توضیحی به عنوان مثال، اعتبارسنجی می‌کنم. قطعه (m2). اگر همه چیز خوب است، استقلال وجود دارد و هیچ الگوی وجود ندارد، من نیازی به اضافه کردن متغیرهای توضیحی اضافی و غیره ندارم. glmer(پاسخ ~ exp1 * exp2 + (1|تصادفی1/تصادفی2)، خانواده = پواسون، داده = داده)
اعتبارسنجی و انتخاب مدل جلوه‌های ترکیبی با «lme4::glmer».
78041
من در مورد تست chi-square جستجو کردم و آنچه خواندم فقط در مورد کاربرد آن در ژنتیک مانند قانون مندل است. داده های من در مورد بازاریابی اینترنتی است که متغیر من در مورد جلسات کاربر است. آنچه را که از آزمون کای دو به دست آوردم، سعی کردم در جلسات کاربر اعمال کنم. من داده هایی را برای جلسات مشاهده شده کاربر و سپس برای جلسات مورد انتظار کاربر ایجاد کردم. من می دانم که مجموع انتظارات و مشاهده شده باید یکسان باشد. 1. سوال نحوه ایجاد ستون مورد انتظار (جلسات کاربر): آیا با انتخاب تصادفی، مجموع آنها برابر با مجموع مشاهده شده است؟ 2. آیا برای داده های من قابل اجرا است؟ جلسات مورد انتظار کاربر من 4000 بود و آنچه مشاهده کردم 4 بود، بنابراین این محاسبه واحد می شود $(4-4000)^2/4000=3992$. با اضافه کردن دیگران در نتیجه من مانند 21747 است!!!! اما من خوندم خی دو باید کمتر از 1000 باشه کجا اشتباه کردم؟ در اینجا جدول به روز است: روز مورد انتظار مشاهده شده 1 4000 4 2 200 50 3 234 200 4 5000 289 5 333 41 6 3999 209 در حال حاضر من مقادیر مورد انتظار را به صورت تصادفی ایجاد می کنم زیرا در مورد مقدار مورد انتظارم واضح نیستم. و یک چیز مهم دیگر این است که من یک کلاس در مورد خود به عنوان جلسات کاربر آن دارم. اگر در مورد سوال ابهامی دارید از من بپرسید.
برنامه Chi-square
104253
> هنگام نمایش مجموعه داده ها بر روی بردارهای ویژه ماتریس کوواریانس >، مقادیر ویژه نشان می دهد که هر مثال چقدر از میانگین > مجموعه داده در جهت پیش بینی شده متفاوت است، بنابراین لامبدا 1 تنوع > بین مثال و میانگین را نشان می دهد. در جهت بزرگترین بردار ویژه آیا این جمله درست است؟ اگر درست است لطفا توضیح دهید که چرا ...
PCA به معنای مقادیر ویژه
88345
**زمینه:** Dwork و همکاران. در Rank Aggregation Methods for the Web چند روش مبتنی بر زنجیره مارکوف را برای انجام تجمیع رتبه (پیدا کردن یک رتبه‌بندی انبوه آیتم‌ها از مجموعه‌ای از رتبه‌بندی N - به عنوان مثال برنامه‌های کاربردی در متا جستجو، توصیه گروهی) پیشنهاد کرده‌اند. یک نقص در این رویکرد وجود دارد (که در چند مقاله دیگر مورد بحث قرار گرفته است) - یکنواختی توزیع ناسازگاری که یک لیست بهینه نامزد با لیست های ورودی دارد را در نظر نمی گیرد. به بیان ساده، از مثلاً 15 رأی‌دهنده، اگر 10 رأی‌دهنده یک مورد را نسبتاً بد رتبه‌بندی کنند، باید نشان‌دهنده حقارت آن آیتم باشد تا اینکه 2-3 رأی‌دهنده آن مورد را بسیار بد رتبه‌بندی کنند. این چیزی است که من سعی می کنم در رویکرد زنجیره مارکوف آنها بگنجانم. **مشکل:** اکنون، آنتروپی می تواند به عنوان معیاری برای یکنواختی داده ها در مواردی مانند این استفاده شود. بنابراین ماتریس انتقالی را در نظر بگیرید که در محاسبات PageRank داریم، با سطرهای نرمال شده با M(i,j) که احتمال رفتن یکی از i به j را می دهد. آیا می‌توانیم با پی بردن به کیفیت (یکنواختی) «رتبه‌ها» در اینجا، با استفاده از روش‌های مبتنی بر آنتروپی، رتبه‌بندی را بهتر کنیم؟ من پیشینه آماری/ریاضی رسمی ندارم، بنابراین ممکن است بسیاری از چیزهای واضح را در اینجا گم کرده باشم. اگر کسی بتواند نکاتی را به من بدهد، واقعاً قدردانی خواهم کرد.
تجمع رتبه بندی زنجیره مارکوف بهتر با استفاده از رویکرد مبتنی بر آنتروپی
15398
من در حال آزمایش انواع مدل‌ها برای تولید پیش‌بینی‌های یک ماهه از رکود ایالات متحده هستم. برای محک زدن این مدل ها، من می خواهم یک مدل رکود ساده بسازم. اولین فکر من این بود که از وضعیت فعلی متغیر رکود برای پیش بینی وضعیت بعدی متغیر رکود استفاده کنم: library(quantmod) getSymbols('USREC',src='FRED') library(caret) confusionMatrix(Lag(USREC), USREC,positive = '1') همانطور که می بینید، این پیش بینی بسیار دقیق است. با این حال، رکودها معمولاً قدیمی هستند، بنابراین مدل ساده لوح گاهی اطلاعاتی از آینده دارد: می‌داند قبل از اعلام رسمی NBER، رکود شروع شده است! یکی از ایده هایی که داشتم این بود که یک مدل ساده GLM بسازم که GDP را با رکود مرتبط کند. این روش همچنان از اطلاعات آینده استفاده می کند (و اعداد سه ماهه باید به اعداد ماهانه درون یابی شوند): #Load Data getSymbols('GDPC1',src='FRED') GDPC1 <- diff(log(GDPC1)) Data <- cbind( USREC,GDPC1) #NA's را در داده های تولید ناخالص داخلی پر کنید$GDPC1 <- ifelse(is.na(Data$GDPC1), Lag(Data$GDPC1,1),Data$GDPC1) Data$GDPC1 <- ifelse(is.na(Data$GDPC1), Lag(Data$GDPC1,1),داده $GDPC1) داده <- na.omit(Data) #مدل مدل ساخت <- glm(USREC~GDPC1,family=binomial(link = logit),داده) پیش بینی <- پیش بینی(مدل،داده) confusionMatrix(ifelse(پیش بینی>.5،1،0)،داده$USREC،positive = '1 از سوی دیگر، این مدل کمی دقت کمتری دارد و ممکن است به عنوان یک معیار مفید باشد، علیرغم استفاده از برخی اطلاعات آینده، آیا مدل دیگری وجود دارد. مدل های رکود ساده ای که می توانم به عنوان معیار استفاده کنم؟
ایجاد یک پیش بینی ساده رکود
109731
در آزمایش تفاوت بین گروه نظرسنجی «پیش» و گروه نظرسنجی «پس از»، من جامعه نمونه یکسانی را مورد بررسی قرار داده‌ام، در عین حال اندازه‌های نمونه متفاوتی را دارم (پاسخ‌دهندگان کمتری در گروه «پست»). آیا هنوز هم می توانم یک تست _t_ جفتی انجام دهم؟ توضیحات بیشتر: من 320 دانش آموز دارم. 304 نفر به پیش نظرسنجی و 156 نفر از این افراد به پس نظرسنجی پاسخ دادند. پاسخ‌ها ناشناس بودند، بنابراین من نه‌تنها می‌توانم ۱۵۶ دانش‌آموزی را که به هر دو نظرسنجی پاسخ داده‌اند، برای مقایسه بکشم. **آیا هنوز هم می توانم یک تست _t_ جفتی انجام دهم تا ببینم آیا قبل و بعد با توجه به حجم نمونه های مختلف تفاوت قابل توجهی دارند؟**
تست جفت شده $t$ - اندازه نمونه متفاوت
19430
من می دانم که می توانم با محاسبه خطای ضریب/استاندارد با استفاده از دستور R «pnorm()» مقدار p$-value را به دست بیاورم. وقتی مقدار $p$ هر ضریب کمتر از 0.05 باشد (فاصله اطمینان 95%)، آیا می توانم آن ضرایب را رد کنم؟ به عنوان مثال، با توجه به این $p$-value: ar1: 0.003 ar2: 0.432 ar3: 0.04 آیا باید ar2 را رد کنم و دوباره تحلیل خود را اجرا کنم؟ یا، از آنجایی که آخرین $p$-value «ar3» کمتر از 0.05 است، آیا می‌توانم همه را بپذیرم؟
درباره P-value برای ARIMA در R
6487
در صورت امکان به دنبال تخمین VARX(p,q) نوع VECM در R هستیم. من می‌خواهم یک VECM را با تأخیر p (تأخیر نسبت به سطح، نه تفاوت vars) در متغیرهای درون‌زا و تاخیر q در مؤلفه‌های برون‌زا تخمین بزنم. هر ایده ای؟ در حال حاضر من از تابع «ca.jo()» استفاده می‌کنم و متغیرهای برون‌زای هم‌زمان و با تأخیر را به گزینه «dumvar=» اضافه می‌کنم. من نسبت به این رویکرد اطمینان ندارم. آیا می توانم این کار را در R انجام دهم؟ آیا باید نرم افزار را تغییر دهم؟
متغیرهای اگزوژن با تاخیر در VECM با R
100510
**وضعیت:** بگویید من یک فرآیند پواسون دارم، مانند واپاشی رادیواکتیو، که ذرات _R_ در هر ثانیه تولید می کند. با دتکتور اندازه میگیرم یک احتمال _P_ وجود دارد که یک ذره توسط آشکارساز شناسایی شود. ** چیزهایی که فکر می کنم می دانم: ** 1. زمان بین رسیدن انتشار ذرات به صورت نمایی با پارامترهای مبتنی بر _R_ توزیع می شود. 2. تعداد ذرات ساطع شده قبل از تشخیص توسط یک دوجمله ای منفی بر اساس _P_ داده می شود. 3. اگر عدد _N_ از (2) نمونه برداری شود، یک نمونه واحد از زمان بین رسیدن ذرات شناسایی شده را می توان با مجموع _N_ نمونه از (1) به دست آورد. این مجموع را می توان با نمونه برداری از توزیع گاما با پارامترهای مبتنی بر _N_ و _R_ به دست آورد. **سوال من:** اگر بتوان یک زمان بین ورود را با نمونه برداری از یک گاما بر اساس _N_ و _R_ محاسبه کرد، چگونه تعداد شمارش آشکارسازها در یک بازه دوباره پواسون می شود؟ (برای پواسون بودن، زمان بین رسیدن آشکارساز باید نمایی باشد، نه بر اساس چیزهای عجیب گاما توزیع شود.) البته _N_ در حال نوسان است، اما من نمی توانم ببینم که چگونه این کار انجام می شود. با این حال، من تقریباً کاملاً مطمئن هستم که تعداد آشکارسازها در واقع پواسون توزیع شده است. آیا کسی می تواند ریاضی را به من نشان دهد؟ با تشکر از کمک! ویرایش: من این مقاله را پیدا کردم: Fried, D. L. Noise in photoemission current. Applied Optics 4.1 (1965): 79-80. که نتیجه را نشان می دهد که یک متغیر تصادفی پواسون که به صورت دوجمله ای انتخاب شده است نیز پواسون با نرخ داده شده توسط PR است. این نظر jbowman را تایید می کند. با این حال، من علاقه مند هستم توضیحی را ببینم که چگونه فرآیند من در تولید زمان بین رسیدن به آشکارساز با استفاده از توزیع دوجمله ای منفی و گاما نادرست است. این مشکل اصلی ذهنی من است. متشکرم. ویرایش 2: من این اسکریپت متلب را نوشتم تا آزمایش کنم که آیا آنچه با توزیع گاما امتحان می کردم کار می کند یا خیر. معلوم می شود که به نحوی زمان های بین رسیدن گاما تولید شده با یک N توزیع شده هندسی نمایی است و با زمان های بین رسیدن پیشنهاد شده توسط پواسون (PR) مطابقت دارد. (ia2 و ia3 به طور یکسان توزیع شده اند). آیا ایده ای دارید که چگونه این کار به صورت تحلیلی انجام می شود؟ به طور شهودی برای من واضح نبود! بستن همه n = 100000; ia1 = exprnd(1,n,1); % ایجاد زمان های بین ورود توزیع شده نمایی t1 = cumsum(ia1); % مجموع در حال اجرا (زمان آزمایش واقعی) mask = (rand(n,1) > 0.5); % برگرداندن یک سکه t2 = t1 (ماسک); % فقط رویدادهایی را دریافت می کند که سکه روی سرها فرود آمد ia2 = diff(t2); ٪ زمان بین ورود به آشکارساز را محاسبه کنید. % شکل توزیع را رسم کنید. hist(ia1,100); عنوان (زمان های بین ورود نمایی)؛ شکل hist(ia2,100); title('زمان های بین ورود نمونه دوجمله ای'); %% فاصله = geornd(0.5,n,1) + 1; % چند رویداد قبل از اینکه سرها را بدست آوریم ia3 = gamrnd(spacing,ones(n,1)); % زمان های بین ورود را با رقم گاما ایجاد می کند. hist(ia3,100); عنوان ('زمان های بین ورود ژئوم/گاما');
در یک فرآیند پواسون که با مقداری کارایی اندازه گیری می شود، آیا شمارش اندازه گیری شده همچنان پواسون است؟
3180
من اخیراً در شرایط زیر با یک محقق مشورت می کردم. **زمینه:** داده ها در طول چهار سال و با حدود 50 شرکت کننده در سال جمع آوری شد (شرکت کنندگان یک اختلال روانشناسی بالینی تشخیص داده شده خاص داشتند و به دست آوردن آنها در تعداد زیاد دشوار بود). شرکت‌کنندگان فقط یک‌بار اندازه‌گیری شدند (یعنی این یک مطالعه طولی نیست) * همه شرکت‌کنندگان اختلال یکسانی داشتند * در این مطالعه شرکت‌کنندگان مجموعه‌ای از 10 مقیاس روان‌شناختی را تکمیل کردند. معیارها تمایل به همبستگی بین $r = 0.3$ تا $.7 داشتند. * در سال اول یکی از مقیاس ها گنجانده نشد * محقق می خواست مدل سازی معادلات ساختاری را در هر 10 مقیاس در کل نمونه اجرا کند. بنابراین، این مسئله وجود داشت که حدود یک چهارم از نمونه داده‌های گمشده در یک مقیاس داشتند. **محقق می خواست بداند:** * استراتژی خوبی برای مقابله با داده های از دست رفته مانند این چیست؟ چه نکات، ارجاع به نمونه های کاربردی، یا ارجاع به مشاوره در مورد بهترین عملکرد را پیشنهاد می کنید؟ چند تا فکر داشتم، اما مشتاق شنیدن پیشنهادات شما بودم.
پرداختن به داده های از دست رفته به دلیل عدم اندازه گیری متغیر در دوره اولیه مطالعه
6483
من مواردی دارم که موقعیت جغرافیایی و مکانی و منشأ زمانی دارند. برای هر دو بعد، من تا به حال خوشه ها را می سازم. من اکنون در جستجوی راهی برای ادغام این خوشه های مختلف و تشکیل خوشه های مکانی- زمانی هستم. البته من می خواهم از محاسبه خوشه های کاملا جدید از ابتدا جلوگیری کنم و از اطلاعات موجود از طریق خوشه بندی قبلی استفاده کنم. آیا الگوریتمی وجود دارد که چگونه با ادغام یک فرآیند خوشه بندی 1d و 2d قبلی، خوشه های سه بعدی بسازیم؟ با تشکر
ادغام خوشه های مکانی و زمانی
43719
در حال حاضر پاسخ های خوبی در مورد مدیریت پروژه وجود دارد (مثلاً چگونه یک پروژه تحلیل آماری را به طور مؤثر مدیریت کنیم؟). اینها عالی هستند و زندگی را بسیار آسان تر می کنند. به طور خاص، گردش کاری که در امتداد خطوط 1 اجرا می شود. داده های خام را بارگذاری کنید. 2. داده های خام را به اشکال مفید دستکاری کنید. (برای صرفه جویی در فضا، داده های خام را تخلیه کنید). 3. انجام تجزیه و تحلیل و ذخیره نتایج. 4. فیگورها را بسازید و ذخیره کنید. یکی از چیزهایی که هنوز سخت است این است که از داده های خام به نتایج و ارقام نهایی برسیم، بدون اینکه هر بار که چیزی تغییر می کند کل پروژه را از ابتدا اجرا کنید. کاری که من دوست دارم بتوانم انجام دهم چیزی شبیه به این است: * تلاش برای ایجاد شکل. آیا داده های دستکاری شده در حافظه موجود است؟ * بله: ایجاد شکل. * خیر: آیا داده های دستکاری شده روی دیسک وجود دارد؟ * بله: داده های دستکاری شده را بارگیری کنید. * خیر: داده های خام را بارگیری کنید، دستکاری کنید و ذخیره کنید، سپس اشیاء داده خام را بارگیری کنید. همچنین، در هر مرحله، اگر داده‌های خام به‌روزرسانی شده باشند، خوب است که ماشه‌ای برای بارگذاری مجدد کامل داشته باشیم. آیا چارچوب موجود در R برای انجام چنین کاری وجود دارد؟ یا راه های توصیه شده ای برای انجام این کار وجود دارد؟ همانطور که وجود دارد، من اغلب مجبورم همه چیز را از ابتدا اجرا کنم، که ممکن است طول بکشد (فایل های داده های بزرگ، دستکاری های پیچیده)، و باعث اتلاف منابع می شود.
جریان داده کارآمد برای R؟
77174
من در حال حاضر با برخی از داده های سطح فردی کار می کنم و در مقابل یک دیوار در حال فهمیدن بهترین راه برای تجزیه و تحلیل آن هستم. اجازه دهید توضیح بدهم: ما یک نمونه N=9000 پزشک داریم. برای هر پزشک، تعداد شب‌هایی را که کار کرده‌اند (N-Nights) و تعداد بیمارانی را که دیده‌اند (N-Night-Patients) شمارش کرده‌ام. من با تقسیم N-Night-Patients بر N-Night به یک معیار میانگین بیماران در هر شب رسیدم. برای هر شبی که یک پزشک کار می کند، آنها می توانستند مستقیماً در روز بعد نیز کار کنند. من به تعداد مشابه و میانگین مشابهی رسیده ام: N-Day- بیماران / N-Days. توجه داشته باشید که N-Day کمتر یا مساوی N-Nights خواهد بود زیرا من فقط به روزهایی که مستقیماً از یک Night دنبال می شوند علاقه مند هستم. هدف من این است که مشخص کنم آیا میانگین تعداد بیمارانی که در یک شب درمان می شوند با میانگین تعداد بیمارانی که در یک روز درمان می شوند تفاوت دارد یا خیر. تجزیه و تحلیل من در سطح پزشک است، جایی که در هر رکورد دو میانگین، دو عدد شمار و دو ردکننده وجود دارد. شهود من به من می گوید که یک آزمون t زوجی ممکن است مناسب باشد. متغیر مستقل من Type است که نوع آن می تواند شب یا روز باشد. سوال من این است که آیا استفاده از میانگین ها به عنوان متغیر وابسته مجاز است یا خیر. پس از آن، نتایج تفاوت متوسط ​​در میانگین ها خواهد بود. آیا این مناسب است؟ اگر نه، آیا روشی برای تجزیه و تحلیل داده ها وجود دارد؟ آیا امکان رگرسیون با وزن دهی وجود دارد؟ پیشاپیش ممنون
میانگین تفاوت در میانگین ها و آزمون t
4019
اجازه دهید مقایسه دو الگوریتم یادگیری ماشین (A و B) را در برخی از مجموعه داده ها در نظر بگیریم. نتایج (ریشه میانگین مربعات خطا) هر دو الگوریتم به تقریب اولیه (پارامترها) به طور تصادفی تولید شده بستگی دارد. سؤالات: 1. وقتی از پارامترهای یکسانی برای هر دو الگوریتم استفاده می کنم، معمولا A کمی بهتر از B عمل می کند. چند آزمایش مختلف (_با پارامترهای مختلف /_ به روز شده _/_) باید انجام دهم تا اطمینان حاصل کنم که A بهتر است. از B؟ 2. چگونه می توان اهمیت نتایج خود را اندازه گیری کرد؟ (تا چه حد مطمئن هستم؟) لینک های مربوطه خوش آمدید! PS. من مقالاتی را دیده ام که در آنها نویسندگان از t-test و p-value استفاده می کنند. اما مطمئن نیستم که استفاده از آنها در چنین شرایطی خوب است یا نه. **به روز رسانی.** مشکل این است که اگر پارامترهای اولیه و مجموعه های یادگیری/اعتبار/آزمایش یکسان باشند، A (تقریبا) همیشه از B بهتر عمل می کند. اما اگر آنها متفاوت باشند لزوما برقرار نیست. من رویکردهای زیر را در اینجا می بینم: * تقسیم داده ها به مجموعه های ناهمگون D_1، D_2، .... ایجاد پارامترهای params_1; A(params_1، D_2، ...،) و B(params_1، D_2، ...،) را در D_1 مقایسه کنید. تولید params_2; A(params_2، D_1، D_3،...) و B(params_2، D_1، D_3،...) را در D_2 و غیره مقایسه کنید. به یاد داشته باشید که هر چند وقت یک بار A بهتر از B عمل می کند. ایجاد پارامترهای params_1a و params_1b. A(params_1a، D_2، ...،) و B(params_1b، D_2، ...،) را در D_1 مقایسه کنید. .... به یاد داشته باشید که چند وقت یکبار A بهتر از B عمل می کند. * ابتدا اعتبارسنجی متقاطع را برای A انجام دهید. سپس به طور مستقل برای B. نتایج را مقایسه کنید. کدام رویکرد بهتر است؟ چگونه می توان اهمیت نتیجه را در این بهترین حالت پیدا کرد؟
اندازه‌گیری اهمیت آماری مقایسه الگوریتم‌های یادگیری ماشین
76241
آیا می توان یک راه حل تنظیم شده توسط SVD کوتاه شده برای مشکل خطاهای هنجار L1 دریافت کرد؟ $$min\|Ax-b\|_{1}$$ در جهان L2 نتایج به راحتی به صورت تحلیلی به دست می‌آیند. من می خواهم با استفاده از نرم افزار L1 یک مسئله را برای حل کننده Matlab فرموله کنم و با استفاده از SVD کوتاه شده آن را منظم کنم.
تجزیه مقدار منفرد کوتاه شده
77171
اگر $X_1,\ldots,X_n$ iid $\sim N(\theta,\sigma^2)$ باشد و اجازه دهید $\theta$ دارای توزیع نمایی دو برابر باشد، $\pi(\theta) =\frac{e^ {-|\theta|/a}}{2a}$، با $a>0$ شناخته شده است. میانگین توزیع پسین را بیابید. **کار من** باید توزیع مشترک $f(\theta|x)$ را پیدا کنیم، جایی که $x$ بردار $f(\theta|x) = \frac{e^{-|\theta|/ a}}{2a}\frac{1}{(2\pi\sigma^2)^{n/2}}. e^{-n(x-\theta)^2/{2\sigma^2}}$$f(\theta|x) \propto e^{\frac{-n(x-\theta)^2} {2\sigma^2}-\frac{|\theta|}{a}}$ می‌دانم که باید دو مورد را در نظر بگیرم، یکی برای $\theta$ مثبت و دیگری برای منفی. اما برای رفتن بیشتر وقت سختی پیدا می کنم. لطفاً بازخورد یا کمکی را پیشنهاد دهید.
میانگین توزیع پسین
6481
به عنوان عنوان، تردید دارم که آیا باید از رگرسیون لجستیک ترتیبی استفاده کنم یا نه، اما فکر نمی‌کنم زمانی برای درک این موضوع و کشف نحوه انجام آن در R داشته باشم، آیا می‌توانم آن را نادیده بگیرم؟ آیا پیامد آن جدی خواهد بود (یعنی به طور جدی اندازه اثر را کمتر/بیش از حد تخمین زده شود)؟ با تشکر
پیامد نادیده گرفتن ترتیب یک متغیر مقوله ای با سطوح مختلف در رگرسیون لجستیک
283
وقتی می گوییم مدل اشباع شده داریم، منظور چیست؟
مدل اشباع چیست؟
4010
من اکنون دنباله ای از اعداد دارم، به عنوان مثال. $x_1، x_2،\dots، x_N$، ($0\leq x_i\leq 1$)، که ممکن است نشان دهنده همبستگی بین چند اندازه گیری باشد. من می خواهم یک آستانه برای این دنباله تنظیم کنم، که برای $x_i$ که از آستانه بزرگتر است ممکن است تفاوت قابل توجهی با $x_j$ که کوچکتر از آستانه است داشته باشد. یا به شکل دیگری، با فرض اینکه این مقادیر از توزیعی ناشناخته به دست آمده اند، می خواهم آستانه ای را تعیین کنم، که $\Pr(x_i > \text{threshold}) = 0.1$، هر روش ناپارامتریکی می تواند این آستانه را تعیین کند. ?
یک آستانه برای یک دنباله تعیین کنید
77173
من در حال یادگیری آمار هستم و می توانم به خوبی تصور کنم که انحراف معیار چگونه به نظر می رسد (تصویر اینجا). اما، با دانستن اینکه انحراف معیار جذر واریانس است، نمی توانم بفهمم که چگونه به نظر می رسد. آیا کسی می تواند به من یک تصویر یا طرحی ارائه دهد تا به من در درک آن کمک کند؟
نمایش گرافیکی واریانس