_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
66894
من در مورد تفاوت بین شیوع دوره و میزان بروز سردرگم هستم. موارد زیر از ویکی پدیا آمده است: > نرخ بروز تعداد موارد جدید در هر جمعیت در یک دوره زمانی معین است. > > شیوع دوره، نسبت جمعیتی است که دارای یک بیماری > یا وضعیت معین در یک دوره زمانی خاص هستند. با تشکر
تفاوت بین شیوع دوره و میزان بروز چیست؟
28233
من می دانم که نسبت 2 متغیر تصادفی توزیع شده معمولی یک توزیع کوچی است... که البته واریانسی ندارد. اما، اگر من $X$ و $Y=|X|$ داشته باشم و این نسبت را بگیرم: $Z=X/Y$، آیا می توان واریانس نسبت توزیع نرمال به نصف نرمال را پیدا کرد؟ * * * **ویرایش** : (توضیحات بیشتر) تا به حال در پاسخ ها چیزی کم دارم، اما بی نهایت سپاسگزارم. اجازه دهید کمی پیش زمینه بیشتر ارائه کنم. اندازه‌گیری داده‌های حسگرها شامل مقدار فرآیند و مقداری نویز است. Xk = Vk + Nk، که در آن Vk اندازه گیری فرآیند و Nk نویز است. دو مسئله وجود دارد، (1) تخمین Vk و (2) تشخیص نقطه تغییر یا تغییر. من می توانم Vk را با استفاده از یک فیلتر نمایی تخمین بزنم. بنابراین F0k = a*(Xk) + (1-a)*F0k-1. مقدار مورد انتظار F0 -> E(F0) = E(X). این بدان معناست که فیلتر نمایی ارزش مورد انتظار من را به من می دهد. واریانس F0 -> var(F0) = (a/(2-a))*var(X) در این مرحله من به باقی مانده ها علاقه مند هستم: RES = Xk - F0k. این مقدار باید در حالت ثابت 0 باشد. یعنی مقدار مورد انتظار 0 است. من همچنین فرض می کنم که مقدار به طور معمول توزیع می شود (در مورد این فرض بر سر من فریاد نزنید). من می توانم مقدار مورد انتظار را به صورت آنلاین با استفاده از یک فیلتر نمایی ساده تخمین بزنم (عمداً مشابه میانگین): F1k = b*(RES) + (1-b)*F1k-1. مقدار مورد انتظار F1 -> E(F1) = E(RES) = 0. واریانس F1 -> var(F1) = (2/(2-a))(b/(2-b))*var (X) سپس می توانم abs(RES) را بگیرم و دوباره از فیلتر نمایی استفاده کنم: F2k = b*(abs(RES)) + (1-b)*F2k-1 مقدار مورد انتظار F2 -> E(F2) = E(abs(RES)) = [sqrt(2/(2-a))*sqrt(2)/(sqrt(pi))] _std(X). واریانس F2 -> var(F2) = (2/(2-a))_ (b/(2-b))*(1-(2/pi))*var(X) همه این مقادیر مورد انتظار و واریانس ها فقط از ویژگی های فیلتر نمایی یا مقدار و واریانس مورد انتظار توزیع نرمال یا نیمه نرمال هستند. سوال من این بود که واریانس (و مقدار مورد انتظار) Z = F1/F2 چقدر است. F1 مقداری توزیع نرمال با مقدار مورد انتظار = 0 خواهد بود. F2 مقداری نیمه نرمال توزیع شده با مقدار مورد انتظار بر اساس انحراف استاندارد خواهد بود. x آیا می توانید var of Z را پیدا کنید؟ می‌دانم که X/abs(X) فقط به شما برنولی می‌دهد، اما به نظر می‌رسد دقیقاً همان چیزی را که به دنبالش هستم به من نمی‌دهد؟ * * * **ویرایش**: (جزئیات بیشتر) در اینجا نتایج شبیه سازی جالبی وجود دارد: F1 - فیلتر نمایی Residual (نویز اضافه شده به سیگنال اصلی گوسی بود - نتیجه به طور معمول توزیع می شود) ![توضیح تصویر را در اینجا وارد کنید](http: //i.stack.imgur.com/3cKs2.png) F2 - فیلتر نمایی abs(Residual) (توزیع نیمه نرمال) ![ وارد کنید توضیحات تصویر در اینجا](http://i.stack.imgur.com/pEgGZ.png) Z - F1/F2 - توزیع شبیه سازی شده نسبت F1/F2 (به واریانس بزرگ حول مقدار مورد انتظار 0 توجه کنید) ![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/AfEP7.png)
توزیع نسبت $X/Y$ که در آن $X$ نرمال است، $Y$ نصف نرمال است
66897
در Non-negative Sparse PCA، یک محدودیت غیر منفی را در ماتریس مختصات اعمال می کنیم. در اینجا می‌خواهم محدودیت‌های غیر منفی را هم بر روی ماتریس پایه و هم در ماتریس مختصات اعمال کنم. می‌خواهم تحقیقی در این مورد وجود داشته باشد. ضمناً من از بسته nsprcomp در R استفاده می کنم و آیا می توانم این محدودیت اضافی را با استفاده از این بسته اعمال کنم؟
محدودیت دوگانه غیر منفی را روی Sparse PCA اعمال کنید
114511
آیا برای یک متغیر تصادفی پیوسته با PDF پیوسته روی محور واقعی و CDF به خوبی تعریف شده است، آیا میانگین، واریانس و میانه همیشه به خوبی تعریف شده است؟ میانگین و واریانس همیشه وجود ندارد، به عنوان مثال. برای یک متغیر تصادفی کوشی. اما در مورد میانه چطور؟ از آنجایی که میانگین $m$ $$F_X(m)=\int\limits_{-\infty}^{m} f_X(x)dx=0.5 را برآورده می‌کند، می‌توانم بگویم که $$ باید یک مقدار $m$ راضی کننده باشد. شرط از آنجایی که متغیر تصادفی پیوسته با CDF به خوبی تعریف شده است؟
آیا میانگین، واریانس و میانه برای یک متغیر تصادفی پیوسته با PDF پیوسته روی محور واقعی و یک CDF به خوبی تعریف شده وجود دارد؟
51050
من در حال حاضر در درک نحوه وارد کردن و محاسبه داده های خود در SPSS مشکل دارم. من یک طراحی سه طرفه دارم که در آن هر کدام 2 متغیر در * Experts vs Novice وجود دارد. * کشف هدایت شده در مقابل کنترل. * Undisguised vs Disguised من شرکت کنندگانم را در معرض یک تست قبل و بعد قرار داده ام، اما نمی دانم چگونه متغیر سوم را به درستی وارد کنم، زیرا من بدون استتار و مبدل با هم در معرض همه شرکت کنندگان قرار داده ام. کسی میتونه توضیح بده لطفا
چگونه می توان آنالیز ANOVA سه طرفه را که دارای فاکتور pre-post و یک درون موضوعی است، تجزیه و تحلیل کرد؟
95985
من از LIBSVM برای طبقه بندی و هسته RBF پیش فرض استفاده می کنم. برای بدست آوردن پارامترهای بهینه برای C و گاما، از ابزار grid.py موجود در بسته LIBSVM استفاده می کنم. تا جایی که من می دانم بر اساس اعتبارسنجی متقاطع k-fold است. من یک مجموعه آموزش و تست 15 451 نمونه با 5 ویژگی دارم. آیا باید اعتبارسنجی متقاطع را در کل مجموعه آموزشی اجرا کنم یا آن را به عنوان مثال تقسیم کنم. یک نیم و به اعتبار بر روی آن. و آیا قاعده ای وجود دارد که با توجه به اندازه نمونه اعتبارسنجی متقاطع، چند تا k را انتخاب کنم؟ برای مثال، من می‌خواستم اعتبارسنجی متقاطع را روی کل مجموعه آموزشی (15451 نمونه) با k = 50 انجام دهم. آیا این روش خوبی برای بدست آوردن بهترین مقادیر پارامتر است؟
اعتبارسنجی متقابل LIBSVM - تعداد تاها در مقابل اندازه نمونه
93204
من دو مدل طبقه‌بندی باینری را بر روی داده‌های یکسان آموزش داده‌ام و آنها را با استفاده از مجموعه آزمایشی یکسان ارزیابی کرده‌ام. برای هر مدل نرخ مثبت کاذب (و تعداد مثبت کاذب) را در آستانه محاسبه کرده ام که حداکثر مجموع حساسیت و ویژگی را ایجاد می کند. هر دو مدل‌ها جنگل‌های تصادفی هستند، اگرچه از مجموعه ویژگی‌های متفاوتی استفاده می‌کنند. من علاقه مند به ارزیابی آماری تفاوت در دو نرخ مثبت کاذب هستم و می‌پرسیدم که آیا استفاده از آزمون دقیق فیشر روی یک جدول 2×2 حاوی تعداد موارد مثبت کاذب و غیرکاذب برای هر الگوریتم معتبر است؟ یا به طور کلی در کل جدول احتمالی نتایج طبقه بندی؟ می دانم که مقاله دیتریش (1998) و چندین سوال دیگر استفاده از آزمون مک نمار را پیشنهاد کرده است، اما هیچ پیشنهادی در مورد آزمون دقیق فیشر ندیده ام. توجه: من قبلاً آزمایش DeLong را انجام داده‌ام که سطح زیر منحنی ROC را مقایسه می‌کند، اما به این سؤال نیز علاقه‌مندم که آیا یک طبقه‌بندی کننده از نظر آماری به طور قابل توجهی در یک آستانه مشخص تفاوت دارد یا خیر.
تست دقیق فیشر برای ارزیابی اهمیت تفاوت بین نرخ های مثبت کاذب
61320
من یک پارامتر $\theta$ دارم که بین $[0,1]$ قرار دارد. اجازه دهید بگوییم که من می‌توانم آزمایشی را اجرا کنم و $\hat{\theta} = \theta + w$ را بدست بیاورم، که $w$ یک گاوسی استاندارد است. چیزی که من نیاز دارم تخمینی از $\theta$ است که 1) بی طرفانه 2) تقریباً مطمئناً محدود است. شرط (2) برای من بسیار مهم است. طبیعی است که باید یک تخمینگر جدید بسازید که $\hat{\theta}$ را به $1$ در صورتی که بالای $1$ است و $0$ را اگر کمتر از $0$ است، بسازید. اما پس از آن برآوردگر بی طرف نخواهد بود. پس باید چیکار کنم؟ به طور رسمی، سوال این است که آیا تابع $f: \mathbb{R} \rightarrow \mathbb{R}$ وجود دارد به طوری که $f(\hat \theta)$ (1) و (2) در بالا را برآورده کند. علاوه بر این، آیا اگر بیش از یک نمونه بکشم، وضعیت متفاوت خواهد بود؟
آیا می توان برآوردگر بی طرف و محدود داشت؟
25142
من باید از DCT روی فریم‌های ویدیوها به عنوان بردار ویژگی برای آموزش شبکه عصبی مصنوعی Feed-Forward استفاده کنم، اما مشکل تعداد زیاد ضرایب (به هزاران یا بیشتر) است. چگونه می توانم برخی از این ضرایب را انتخاب کنم و همچنان بیشتر اطلاعات را برای تصویر خود (قاب) ثبت کنم؟
چگونه ضرایب تبدیل کسینوس گسسته را به عنوان بردار ویژگی انتخاب کنیم؟
114514
من به دنبال انجام یک طبقه‌بندی باینری با استفاده از جنگل‌های تصادفی هستم، اما کاملاً نمی‌دانم چگونه آنتروپی داده‌ها را به حداقل برسانم / چه آزمایش‌هایی را باید روی گره‌ها اجرا کنم تا این کار را انجام دهم. من نسبتاً در این زمینه تازه کار هستم، بنابراین از هر گونه اشاره یا منبعی که می تواند من را در مسیر درست هدایت کند بسیار قدردانی می کنم. با تشکر
ساخت جنگل های تصادفی برای طبقه بندی باینری با به حداقل رساندن آنتروپی
110367
من سعی می کنم تعدادی از فرآیندهای نقطه ای را که داده هایی برای آنها دارم مدل کنم. اگر من انتخاب کنم که هر یک را با استفاده از یک فرآیند پواسون (متفاوت) همگن مدل کنم و نرخ را با استفاده از MLE تخمین بزنم، برای برخی از فرآیندها خوب بودن تناسب بسیار خوب است. با این حال برای دیگران اینطور نیست و وقتی هیستوگرام زمان‌های بین ورود را ترسیم می‌کنم، می‌بینم که آنها در ابتدا نمایی به نظر می‌رسند، اما پس از آن دم بلندی دارند که فرآیند پواسون توضیح نمی‌دهد. ساده لوحانه دوست دارم مدلی را امتحان کنم که در آن زمان بین ورود سنگین است. با این حال می‌دانم که این دیگر یک فرآیند پواسون نیست، بلکه یک فرآیند تجدید است. آیا راهی برای انجام MLE (یا مشابه) برای تخمین پارامترهای یک فرآیند تجدید وجود دارد تا بتوانم تست خوبی انجام دهم تا ببینم مدل چقدر قابل قبول است؟
یک سوال مدل سازی در مورد فرآیندهای نقطه ای با دم سنگین
82689
من می‌خواهم تابع چگالی تجمعی را برای این مشکل با اجرای آزمایش زیر $p$ بار رسم کنم: اعداد تصادفی بین 1 و $n$ تولید می‌کنند و وقتی تکرار می‌شوند متوقف می‌شوند. محور x تعداد آزمایشاتی است که انجام داده است. چگونه محور y را محاسبه کنم؟
مشکل تولد از طریق شبیه سازی
50980
من تا حدودی در آمار تازه کار هستم، پس تحمل کنید. من یک مجموعه داده دارم که حاوی مقادیر صحیح است. من یک مدل برای این مجموعه داده ایجاد کردم به طوری که y(x) = f(x) + c که در آن f(x) مدل من است و c خطای مدل من است. تابع «f» من پیوسته است و بنابراین «f(x)» پیوسته است. من فرض می‌کنم که «c» نویز است، و سعی می‌کنم توزیع «c» را محاسبه کنم. مشکل این است که، در حالی که c با ارزش واقعی است، پیوسته نیست، زیرا به عنوان یک مقدار گسسته منهای یک مقدار واقعی تعریف می شود (c = y(x) - f(x)، جایی که y (x)` یک عدد صحیح است. هیستوگرام «c» به نظر یک توزیع نمایی است، با این تفاوت که فاصله‌هایی بین آن‌ها وجود دارد (این سایت به من اجازه نمی‌دهد تصویرم را به دلیل عدم شهرت آپلود کنم). هدف من ایجاد یک مجموعه داده مصنوعی است که اساساً «y(x) = f(x) + c_2» است، که در آن «c_2» مقادیر تصادفی از همان توزیع «c» است. از چه توزیعی برای این کار استفاده کنم؟ ویرایش: در اینجا اطلاعات بیشتری وجود دارد. داده‌های من یک سری زمانی هستند که اساساً تعداد دفعاتی است که یک عمل در یک سطل زمانی معین انجام می‌شود (مثل پواسون). بنابراین من داده‌های `y(t)` را دارم، اما متوجه شده‌ام که می‌توانم تخمین‌های بسیار خوبی از متغیر دیگر `x` ایجاد کنم، به طوری که می‌توانم مدل‌های خوبی را با استفاده از `y(x) = f(x)` تشکیل دهم. با این حال، مدل کامل نیست، از این رو عبارت خطای «c» است. هدف من یافتن توزیع «c» است تا بتوانم یک مجموعه داده تخمینی جدید با مدل «f(x)» زیربنایی با همان توزیع نویز به عنوان مجموعه داده اصلی ایجاد کنم.
توزیع احتمال نیمه گسسته
96180
من با مقیاس 15 ماده ای آموزش پیش دبستانی کار می کنم. پنج ناظر 58 معلم را مشاهده کردند. این یک ماتریس متقاطع کامل است، یعنی همه ارزیاب ها همه معلمان را مشاهده کردند. در تلاشی برای از بین بردن ارزیاب‌های ضعیف، می‌خواهم تخمین قابلیت اطمینان را برای هر آیتم محاسبه کنم، که ارزیاب‌ها را با یکدیگر مقایسه می‌کند. آیا راهی وجود دارد که بتوانم این کار را از طریق SPSS یا R انجام دهم؟ danke!
برآورد قابلیت اطمینان برای هر آیتم (مقایسه رتبه‌دهندگان با یکدیگر)
82688
من می‌خواستم تست دقیق فیشر را بهتر بفهمم، بنابراین مثال اسباب‌بازی زیر را ابداع کردم، که در آن f و m مربوط به نر و ماده است، و n و y مطابق با «مصرف نوشابه» است: > سودا_جنسیت f m n 0 5 y 5 0 بدیهی است که ، این یک ساده سازی شدید است، اما من نمی خواستم زمینه مانع ایجاد شود. در اینجا من فقط فرض کردم که نرها نوشابه نمی خورند و ماده ها نوشابه می نوشند و می خواستم ببینم آیا روش های آماری به همین نتیجه می رسند یا خیر. وقتی تست دقیق فیشر را در R اجرا می کنم، نتایج زیر را دریافت می کنم: > fisher.test(soda_gender) آزمایش دقیق فیشر برای داده های شمارش داده ها: soda_gender p-value = 0.007937 فرضیه جایگزین: نسبت شانس واقعی برابر با 195 درصد نیست. فاصله اطمینان: 0.0000000 0.4353226 برآورد نمونه: شانس نسبت 0 در اینجا، از آنجایی که p-value 0.007937 است، نتیجه می گیریم که جنسیت و مصرف نوشابه با هم مرتبط هستند. من می دانم که تست دقیق فیشر مربوط به توزیع ابرژئومتری است. بنابراین من می خواستم با استفاده از آن به نتایج مشابهی برسم. به عبارت دیگر، شما می توانید این مشکلات را به صورت زیر مشاهده کنید: 10 توپ وجود دارد که 5 توپ با عنوان نر و 5 توپ با عنوان مونث مشخص شده است و شما 5 توپ را به طور تصادفی بدون جایگزینی می کشید و 0 توپ نر را مشاهده می کنید. . شانس این مشاهده چقدر است؟ برای پاسخ به این سوال، از دستور زیر استفاده کردم: > phyper(q=0,m=5,n=5,k=5,lower.tail=TRUE) [1] 0.003968254 سوالات من این است: 1) چگونه این دو نتایج متفاوت است؟ 2) آیا در استدلال من چیزی نادرست یا غیر دقیق وجود دارد؟
تست دقیق فیشر و توزیع فوق هندسی
110361
من اینجا تازه کارم در کل 155 نمونه وجود دارد. پنج پیش‌بینی‌کننده مختلف Xi (i=1،2...5) برای پیش‌بینی Y استفاده می‌شوند، مانند X1 X2 X3 X4 X5 Y .... هدف یافتن بهترین پیش‌بینی‌کننده Xi برای پیش‌بینی Y است. اعتبار متقاطع (LOOCV) استفاده می شود. 154 داده در تمرین و 1 داده در آزمون در هر دور وجود دارد. در مجموع 155 دور وجود دارد. سوال من این است 1. چگونه می توان بهترین Xi را پیدا کرد؟ 2. آخرین خط رگرسیون چیست؟ با استفاده از کل 155 داده؟ یا انتخاب یک نتیجه از 155 راند؟
اعتبار سنجی متقاطع یک طرفه در انتخاب پیش بینی کننده
65705
من باید فاصله ماهالانوبیس نمونه را در R بین هر جفت مشاهدات در یک ماتریس n x p از متغیرهای کمکی محاسبه کنم. من به راه حلی نیاز دارم که کارآمد باشد، یعنی فقط n(n-1)/2 فاصله محاسبه شود، و ترجیحا در C/RCpp/fortran و غیره پیاده سازی شود. **من فرض می کنم $\Sigma$، ماتریس کوواریانس، ناشناخته است و استفاده می شود ماتریس کوواریانس نمونه در جای خود قرار می گیرد.** من به خصوص به این سوال علاقه مند هستم زیرا به نظر می رسد هیچ روش اجماع برای محاسبه _ زوجی_ وجود ندارد. فاصله Mahalanobis در بسته «R»، یعنی در تابع «dist» و یا در تابع «cluster::daisy» اجرا نمی‌شود. تابع 'mahalanobis' فاصله دوتایی را بدون کار اضافی از برنامه نویس محاسبه نمی کند. این قبلاً در فاصله Pairwise Mahalanobis در R پرسیده شده بود، اما راه حل با رأی بالا نادرست به نظر می رسد (به چاپ های زیر مراجعه کنید): library(MASS) library(ICSNP) set.seed(0) x0<-mvrnorm(33, 1:10، دیاگ (c(Seq(1,1/2,l=10))،10)) x1<-pair.diff(x0) #C-implementation. dM<-mahalanobis(x1,colMeans(x1),var(x1)) این را با یک روش صحیح اما بسیار ناکارآمد (از آنجایی که n x n فاصله محاسبه شده) مقایسه کنید: dM2 = as.dist(apply(x0, 1, function(i) mahalanobis (x0, i, cov = cov(x0)))) نمودار (dM, dM2) ![ وارد کنید توضیح تصویر در اینجا](http://i.stack.imgur.com/jbnC7.png) dM[1:10] # [1] 12.046 5.835 9.545 8.152 11.294 7.658 13.847 9.062 9.062 9.062 9.404 9.062 #3[3104]M. ] 23.49 11.79 17.55 14.57 24.10 15.02 25.62 19.84 18.01 14.65 (dM/dM2)[1:10] # [1] 0.5128370 0.49494940.49491. 0.4686635 0.5098689 0.5405308 # [8] 0.4566752 0.5222861 0.4527394 روش پست اصلی با ضریب 2 غیرفعال است، به علاوه تغییرات ناشناخته عجیب. (1) آیا من چیزی را در پست اصلی گم کرده ام؟ اختلاف بین این دو روش نگران کننده است (من آنجا پست می کردم اما شهرت کافی نداشتم) (2) این به اندازه کافی آسان است که خودم را در C کدنویسی کنم، اما احساس می کنم چیزی به این پایه است. باید یک راه حل از قبل موجود داشته باشد. یکی هست؟ (3) راه حل های دیگری که کوتاهی می کنند: HDMD::pairwise.mahalanobis() n x n فاصله را محاسبه می کند، زمانی که فقط n(n-1)/2 فاصله منحصر به فرد مورد نیاز است. ترکیبات::MahalanobisDist() امیدوارکننده به نظر می رسد، اما من نمی خواهم تابع من از بسته ای باشد که به rgl بستگی دارد، که به شدت توانایی دیگران را برای اجرای کد من محدود می کند. اگر این پیاده سازی کامل نباشد، ترجیح می دهم خودم بنویسم. کسی تجربه این کارو داره؟
فاصله ماهالانوبیس به صورت زوجی
95986
گزارش اندازه افکت امروزه بسیار رایج است، اما من هنوز نتوانستم کتاب خوبی پیدا کنم که مقادیر مختلف اندازه افکت (d، g، r، و غیره) را با هم مقایسه کند. من مقاله Rosnow و Rosenthal (2009) را می شناسم، اما آنها هیچ نمونه ای از محاسبات ندارند. برای من گاهی اوقات مشخص نیست که از کدام انحراف استاندارد یا خطای استاندارد استفاده می شود و اندازه اثر چه محدوده ای می تواند داشته باشد. برای اینکه دقیق تر باشیم. در حال حاضر می‌خواهم نتایج آزمون‌های تی مستقل و وابسته را گزارش کنم. من r را برای اندازه‌های افکت می‌دانم، اما برای مثال می‌خواهم d کوهن را محاسبه کنم. چگونه آن را انجام دهم؟ محدوده آن چقدر است؟ پیشاپیش متشکرم
ادبیات خوب در اندازه افکت
50985
این تکلیف من است: 20 میلیون مولکول DNA در یک کتابخانه برای توالی یابی DNA با توان بالا وجود دارد، هر اجرای توالی یابی می تواند 10 میلیون خواندن ایجاد کند (یعنی تجزیه و تحلیل 10 میلیون مولکول DNA)، و در احتمال انتخاب در هر DNA تنوع وجود دارد. مولکولی که از توزیع دوجمله ای منفی پیروی می کند (0.5=p، r=0.5). سوال این است که برای تجزیه و تحلیل 15 میلیون مولکول DNA منحصر به فرد، چند مرحله توالی یابی لازم است؟ کسی میتونه کمکم کنه؟ خیلی ممنون
چند اندازه گیری (هر بار 10 میلیون مولکول) برای تجزیه و تحلیل 15 میلیون مولکول منحصر به فرد در یک استخر 20 میلیونی لازم است؟
74671
من به تازگی شروع به شرکت در کلاس تجزیه و تحلیل بقا کردم و در این سوال گیر کردم. اجازه دهید $T_1,...,T_n$ متغیرهای پیوسته تصادفی مستقل با تابع خطر $h_1(t),...,h_n(t)$. $T=min(T_1،...،T_n)$. و باید نشان دهیم که تابع خطر T $\sum_j{h_j(t)} است $ هر گونه راهنمایی یا راهنمایی قابل قبول است :)
تابع خطر - تجزیه و تحلیل بقا
61328
من از ابزار libsvm (http://www.csie.ntu.edu.tw/~cjlin/libsvm/) برای طبقه بندی بردار پشتیبانی استفاده می کنم. با این حال، من در مورد فرمت داده های ورودی گیج هستم. از README: > فرمت فایل داده های آموزش و تست به این صورت است: > > > <label> <index1>:<value1> <index2>:<value2> ... > . > > > > > هر خط حاوی یک نمونه است و با یک کاراکتر '\n' به پایان می رسد. برای طبقه‌بندی، «<label>» یک عدد صحیح است که برچسب کلاس را نشان می‌دهد (کلاس چندگانه پشتیبانی می‌شود). برای رگرسیون، <label> مقدار هدف است که می تواند هر عدد واقعی باشد. برای SVM یک کلاس، از آن استفاده نمی شود، بنابراین می تواند هر عددی باشد. > جفت «<index>:<value>» یک مقدار مشخصه (ویژگی) می دهد: «<index>» > یک عدد صحیح است که از 1 شروع می شود و «<value>» یک عدد واقعی است. تنها استثناء هسته از پیش محاسبه شده است که در آن «<index>» از 0 شروع می شود. بخش > هسته های از پیش محاسبه شده را ببینید. شاخص ها باید به ترتیب صعودی باشند. برچسب‌ها > در فایل آزمایشی فقط برای محاسبه دقت یا خطاها استفاده می‌شوند. اگر آنها > ناشناخته هستند، فقط ستون اول را با هر عددی پر کنید. من سوالات زیر را دارم: 1. استفاده از <index> چیست؟ چه هدفی را دنبال می کند؟ 2. آیا بین مقادیر شاخص یکسان نمونه های داده مختلف مطابقت وجود دارد؟ 3. اگر نمایه ای را در این بین از دست بدهم یا رد شوم چه می شود؟ من می‌پرسم چون فایل داده *heart_scale* که در بسته برای libsvm موجود است، در خط 12، ایندکس از 2 شروع می‌شود. توجه: ابزار tools/checkdata.py ارائه شده به همراه بسته می گوید که فایل *heart_scale* صحیح است.
فرمت داده libsvm
51056
من روی یک مولد بسته کار می کنم که می تواند بسته هایی با 50 اندازه مختلف تولید کند و اندازه بسته ها از توزیع نمایی پیروی می کنند. با توجه به اندازه بسته متوسط، چگونه می توانم 50 اندازه بسته را از توزیع نمایی پیوسته انتخاب کنم تا توزیع گسسته به دست آمده دقیقاً از توزیع پیوسته پیروی کند. پیشاپیش سپاسگزارم.
توزیع نمایی گسسته
82094
96 شرکت کننده به طور تصادفی در یکی از دو گروه بدون توجه به سطح انگیزه آنها قرار گرفتند. شرکت‌کنندگان در هر دو گروه در معرض هر دو شرایط آزمایشی پیام‌های قاب‌شده به دست آوردن و پیام‌های قاب از دست دادن قرار گرفتند. تنها تفاوت این بود - تعادل به گونه‌ای که به شرکت‌کنندگان پیام فریم افزایش در گروه 1 نشان داده شد و پیام فریم ضرر متناظر آن در گروه 2 نشان داده شد. بنابراین در اینجا فاکتور درون گروهی عبارت است از: شرایط چارچوب - فریم افزایش و فریم ضرر بین میانگین فاکتور گروه. که این باید در دو گروه متفاوت باشد، اما در مطالعه من، هر دو شرکت‌کننده با انگیزه بالا و پایین در هر دو گروه حضور داشتند و در معرض پیام‌های فریم افزایشی و فریم پایین قرار داشتند. شرکت کنندگان در دو گروه متفاوت بودند اما در معرض طراحی مشابه اما متوازن قرار گرفتند. من مطمئن نیستم که آیا این یک طرح آنووا مخلوط 2×2 با شرایط کادربندی در داخل گروه و انگیزه بین فاکتور گروه است. لطفا کمک کنید.
2 در 2 آنوا مخلوط؟
11039
من می‌خواهم یک تحلیل رگرسیون چندگانه برای اندازه‌گیری تأثیر متغیرهای مستقل مختلف بر روی یک متغیر وابسته پیوسته که قدرت یک نهاد سیاسی را اندازه‌گیری می‌کند، اجرا کنم. مشکل این است که داده ها در سال های مختلف اندازه گیری می شوند. بنابراین من ممکن است داده هایی را برای کشورهای A و B فقط برای سال 2009 و برای کشورهای C و D فقط برای سال 2010 داشته باشم. برای افزایش نمونه خود، می خواهم از همه کشورها استفاده کنم. چگونه می توانم این کار را انجام دهم، یعنی کدام روش آماری مناسب تر است؟ خیلی ممنون
چگونه می توان از نمونه های کشور مقطع سال های مختلف در تحلیل رگرسیون چندگانه استفاده کرد؟
82095
من یک جدول با 11 ستون و 2 ردیف دارم. ستون 1 گروه کنترل است و من می خواهم تمام ستون های دیگر را با آن مقایسه کنم. من علاقه ای به مقایسه ستون های 2 تا 11 با یکدیگر ندارم و نگرانم که تصحیح بونفرونی (که به نظر می رسد تنها گزینه موجود است) با ضرب مقدار p در 55 یا هر تعداد مقایسه که باشد جبران شود. آیا چیزی شبیه به Dunnett وجود دارد تا بتوانم فقط با گروه کنترل مقایسه کنم؟ یا فقط باید 10 تست کای دو انجام دهم و هر مقدار p را در 10 ضرب کنم؟ همچنین، وقتی از Bonferroni'sin a chi-squared استفاده می کنم، آیا می توان مقادیر p را دقیق مشاهده کرد؟ متشکرم
SPSS: مقایسه چندگانه Crosstabs
66890
من می خواهم یک مدل چند بعدی چند سطحی را در WinBUGS تجزیه و تحلیل کنم. مدل به صورت زیر است (N=2362 دانش آموز به K=45 مورد یک آزمون پاسخ می دهند، دانش آموزان در J=116 مدرسه تودرتو هستند): model{ #responses for(i در 1:N){ for(j در 1:K ){logit(p[i,j])<- a1[j]*th[i,1]+a2[j]*th[i,2]-b[j] y[i,j]~dbern(p[i,j] ) } th[i,1:2]~dmnorm(mu[sc[i],1:2],tau.p[1:2,1: 2]) } #سطح مدرسه برای(j در 1:J){ mu[j,1:2]~dmnorm(m[j,1:2],tau.s[1:2,1:2]) } #priors for(j در 1:J){ m[j,1:2]~dmnorm(m0[1:2],cov[1:2,1:2]) } tau.p[1:2, 1:2]~dwish(cov[1:2,1:2],2) tau.s[1:2,1:2]~dwish(cov[1:2,1:2],2) sigma.p[1:2,1:2]<-inverse(tau.p[,]) sigma.s[1:2,1:2]<-inverse(tau.s[,]) s2p<-sum (sigma.p[,]) s2s<-sum(sigma.s[,]) rho<-(s2s)/(s2s+s2p) a1[1]~dlnorm(0,4) a2[1]<-0 b[1]~dnorm(0,1) for(s in 2:K) { a1[s]~dlnorm(0,4) a2 [s]~dlnorm(0,4) b[s]~dnorm(0,1) } } من این توابع را به عنوان مقادیر اولیه تنظیم کردم: ini<-function(){ list(tau.p=ماتریس(گاما(4،100،100)، 2،2)، tau.s=ماتریس(گاما(4،100،100)، 2،2)، th=rmvnorm(N، میانگین=c(0،0)، سیگما =diag(2))، m=rmvnorm(J,mean=c(0,0),sigma=diag(2)) mu=rmvnorm(J,mean=c(0,0),sigma=diag(2)), a1=rlnorm(K,0, 0,4), a2=c(NA,rlnorm(K-1,0, 0,4) ), b=rnorm(45,0,0.5)) } من از بسته rube در R برای بررسی و اجرای تجزیه و تحلیل خود استفاده می کنم و همه چیز خوب به نظر می رسد. وقتی مدل را اجرا می کنم، Trap 66 (postcondition violated) یا نتیجه واقعی تعریف نشده را دریافت می کنم. من فکر می کنم مشکل از حروف اول است اما نمی دانم چگونه آن را حل کنم. هر ایده ای؟
تله 66 در WinBUGS در مدلسازی بیزی سلسله مراتبی
66893
با توجه به اینکه من مقداری داده برای قیمت ها دارم و چندین گروه قیمت دارم، مثلاً Data = [15$,20$,20$,10$,15$,25$,20$,15$] و گروه ها: زیر 5$>=5$, <$10>= 10 دلار، < 15 دلار >= 15 دلار، < 20 دلار > = 20 دلار، < 25 دلار ... و من می خواهم روشی داشته باشم تا بفهمم کدام گروه بهترین است. برای اختصاص داده های خود به. کسی میتونه به من پیشنهادی بده؟ با تشکر
طبقه بندی گروهی برای داده های تک متغیره R
82091
متاآنالیز تخمینی از یک همبستگی کلی ایجاد می کند. چگونه می توانیم بررسی کنیم که یک تخمین معتبر است.
آیا روشی برای آزمایش اهمیت برآورد متا تحلیلی همبستگی بر اساس مجموعه ای از همبستگی های نمونه وجود دارد؟
25148
من هنگام انجام برخی تجزیه و تحلیل با R با مشکل زیر مواجه هستم. من یک دیتافریم مانند این دارم: نام | گروه | تعداد نفر 1 | A | 3 نفر 2 | A | 1 نفر 3 | A | 0 نفر 1 | ب | 5 نفر 2 | ب | 0 نفر 3 | ب | 1 نفر 1 | ج | 1 و من باید آن را بسط بدهم (مطمئن نیستم که آیا اصطلاح مناسب است) تا به این صورت باشد: شخص 1 | یک شخص 1 | یک شخص 1 | یک شخص 2 | یک شخص 1 | B شخص 1 | B و غیره. بنابراین مقدار جفت Person 1 و A (در این مثال، 3) را می گیرد و با شخص 1 و A سه ردیف می سازد و این کار را برای هر Person - Group -combination انجام می دهد. نمی توانم هیچ کلمه خوبی برای جستجوی آنلاین پیدا کنم.
نحوه گسترش قاب داده در R
61325
من به دنبال بسته‌ای برای تخمین میانگین پاسخ طولی در شرایط انصراف یکنواخت با استفاده از روش به‌روزترین مبتنی بر GEEs، در `R` هستم (روش‌های AIPW، دو برابر قوی، هرچه می‌خواهید تماس بگیرید آن). من خیلی سخت گوگل کردم و هیچ چیز مفیدی به ذهنم نرسید. بنابراین همه ما در یک صفحه هستیم، من دنباله ای از بردارهای تصادفی پیوسته و سانسور شده $\mathbf Y_1، ...، \mathbf Y_n$ دارم که در آن $\mathbf Y_i = (Y_{i1}، ...، Y_{ iJ})$ و علاقه مند به تخمین میانگین پاسخ در زمان $J$ هستم. داده ها در معرض انصراف هستند، با زمان انصراف $S_i$. تحت MAR (به طور تصادفی وجود ندارد) فکر می کنم می توانم $\mu_J = E(Y_J)$ را به صورت $$ \frac 1 n \sum_{i= 1} ^ n \frac{I(S_i = J) Y_{iJ} تخمین بزنم }{\pi(\mathbf Y_i)} \tag{$*$} $$ جایی که $\pi(\mathbf Y_i) = P(S_i = J | \mathbf Y_i)$ احتمال رسیدن به پایان مطالعه با توجه به $\mathbf Y_i$ است. من می توانم مدلی را برای $\pi(\mathbf Y_i)$ فرض کنم (احتمالاً از نظر تابع خطر) و تحت MAR می توانم آن را در اصل به خوبی تخمین بزنم. بنابراین می‌توانم خطرات را با استفاده از داده‌های مشاهده‌شده برای تخمین وزن‌ها مدل‌سازی کنم و سپس آنها را به آن معادله متصل کنم. تا جایی که من می دانم این برآوردگر پیشرفته نیست - می تواند با وزنه های بیش از حد بزرگ و (فکر می کنم) مشکلات دیگری داشته باشد. ادبیات زیادی در مورد تخمین روش‌های مبتنی بر معادله وجود دارد که معادلات تخمین تقویت‌شده را حل می‌کند، که به همان روحیه است اما مشکلات را با $(*)$ برطرف می‌کند. مشکل این است که من هیچ نرم افزاری برای حل این مشکل در `R` پیدا نمی کنم. من چیزهایی را دیده‌ام که هدفشان MSMها (مدل‌های ساختار حاشیه‌ای) و استنتاج علّی است، اما هیچ چیز به‌ویژه برای داده‌های از دست رفته طولی با انصراف وجود ندارد.
تخمین وزنی احتمال معکوس داده های طولی سانسور شده در R?
50987
من باید از تکنیک bagging ( _bootstrap aggregating_ ) برای آموزش یک طبقه‌بندی جنگل تصادفی استفاده کنم. من در اینجا شرح این تکنیک یادگیری را خواندم، اما متوجه نشدم که چگونه در ابتدا مجموعه داده را سازماندهی کردم. در حال حاضر ابتدا همه نمونه های مثبت و بلافاصله بعد از موارد منفی بارگذاری می کنم. علاوه بر این، نمونه‌های مثبت کمتر از نیمی از نمونه‌های منفی هستند، بنابراین با نمونه‌گیری یکنواخت از مجموعه داده‌ها، احتمال به دست آوردن یک مثال منفی بیشتر از به دست آوردن یک مثال مثبت است. چگونه باید مجموعه داده اولیه را بسازم؟ آیا باید مجموعه داده اولیه حاوی مثال های مثبت و منفی را به هم بزنم؟
ساخت مجموعه داده برای روش آموزش جنگل تصادفی
66892
من یک سوال در مورد چگونگی حل این مشکل دارم: دو پیش بینی کننده A و B وجود دارد. اگر A مثبت باشد 60٪ احتمال بارندگی وجود دارد. اگر B مثبت باشد 60 درصد احتمال بارندگی وجود دارد. A و B تصمیم گیرنده مستقل هستند. وقتی A و B هر دو مثبت هستند، شانس بارندگی چقدر است. چگونه به این مشکل در چارچوب بیزی فکر کنیم؟ حدس می‌زنم شرایط کافی برای حل این مشکل وجود ندارد، اما آیا می‌توانیم نوعی فاصله اطمینان ایجاد کنیم؟ با تشکر
چگونه این سوال احتمال را حل کنیم
110362
روز گذشته، معلم من به من گفت که هر زمان یک مقدار متوسط ​​گزارش شد، خطای استاندارد میانگین باید در کنار آن گزارش شود. اما مطمئناً همیشه اینطور نیست؟ برای مثال، فرض کنید میانگین گل‌هایی که یک تیم فوتبال در هر بازی در یک فصل به ثمر می‌رساند را محاسبه می‌کنیم. ما در این مورد از یک جمعیت نمونه گیری نمی کنیم - تعداد گل هایی که تیم به ثمر می رساند جمعیت است. آیا من درست می گویم که خطای استاندارد در این مورد نیازی به گزارش ندارد؟
آیا باید خطای استاندارد میانگین را در زمانی که نمونه جامعه است گزارش دهید؟
56202
مایلم تحلیل موازی انجام دهم تا تعیین کنم چه تعداد عامل را باید از تحلیل عاملی اکتشافی حداکثر احتمال استخراج کنم. من به برنامه ای ارجاع شده ام که مقادیر ویژه را برای داده های تصادفی با استفاده از مونت کارلو برای تجزیه و تحلیل مؤلفه های اصلی محاسبه می کند. با این حال، من تجزیه و تحلیل مؤلفه های اصلی را انجام نمی دهم. من در حال انجام تحلیل عاملی اکتشافی حداکثر احتمال هستم. به من گفته شده است که شما می توانید آن را برای هر نوع EFA انجام دهید، اما من مطمئن نیستم. به عنوان مثال، تعدادی از ماکروهایی که من دیده ام نیاز دارند که مشخص کنید آیا از PCA یا PAF استفاده می کنید. این به وضوح به این معنی است که تا حدودی اهمیت دارد. توجه داشته باشید که من سعی کردم تجزیه و تحلیل موازی را برای PAF با استفاده از موتور در http://ires.ku.edu/~smishra/parallelengine.htm انجام دهم. متأسفانه، نتایج چندان منطقی نبود. هر مقدار ویژه در داده‌های من بیشتر از مقدار ویژه وب‌سایت بود، که فکر می‌کنم به این معناست که باید بیش از 100 فاکتور اضافه کنم. سؤالات: * آیا می توانم از نتایج تحلیل موازی طراحی شده برای استفاده با PCA برای تعیین اینکه چه تعداد عامل را باید از تحلیل عامل حداکثر احتمال استخراج کنم استفاده کنم؟ * اگر نه (من انتظار دارم که پاسخ سوال فوق نه باشد)، چگونه می توانم یک تحلیل موازی انجام دهم تا تعیین کنم چه تعداد عامل را باید از تحلیل عاملی اکتشافی حداکثر احتمال استخراج کنم؟
آیا می توانم تحلیل موازی با هر نوع تحلیل عاملی اکتشافی/تحلیل مؤلفه اصلی انجام دهم؟
61327
من باید مدلی ایجاد کنم که مخلوطی از توزیع نرمال و log-normal باشد. برای ایجاد آن، باید 2 ماتریس کوواریانس و پارامتر اختلاط (کل = 7 پارامتر) را با به حداکثر رساندن تابع log-likelihood تخمین بزنم. این بیشینه سازی باید توسط روال «nlm» انجام شود. از آنجایی که من از داده های نسبی استفاده می کنم، میانگین آن مشخص است و برابر با 1 است. قبلاً سعی کردم این کار را در 1 بعدی (با 1 مجموعه داده نسبی) انجام دهم و به خوبی کار می کند. با این حال، وقتی مجموعه دوم از داده‌های نسبی را معرفی می‌کنم، نتایج غیرمنطقی برای همبستگی و پیام‌های هشدار زیادی دریافت می‌کنم. برای تخمین پارامترها ابتدا تابع log-likelihood را با 2 دستور «dmvnorm» و «dlnorm.plus» تعریف کردم. سپس مقادیر شروع پارامترها را اختصاص می دهم و در نهایت از روال nlm برای تخمین پارامترها استفاده می کنم (به اسکریپت زیر مراجعه کنید). P <- read.ascii.grid(d:/Documents/JOINT_FREQUENCY/grid_E727_P-3000.asc, return.header= FALSE ) V <- read.ascii.grid(d:/Documents/JOINT_FREQUENCY/7_V_E7 .asc، return.header= FALSE ) p <- c(P) # تبدیل ماتریس به بردار v <- c(V) p<- p[!is.na(p)] # حذف مقادیر NA v<- v[!is.na(v )] p_rel <- p/mean(p) #تبدیل داده ها به مقادیر نسبی v_rel <- v/mean(v) PV <- cbind(p_rel, v_rel) # create ماتریسی از بردارها L <- تابع(par,p_rel,v_rel) { return (-sum(log((1- par[7])*dmvnorm(PV, mean=c(1,1), sigma= matrix(c (par[1], par[1]*par[2]* par[3], par[1]* par[2]* par[3], par[2] ),nrow=2, ncol=2))+ par[7]*dlnorm.rplus(PV، meanlog=c(1,1)، varlog= ماتریس(c(par[4]،par[4]*par[5]*par[6 ],par[4]*par[5]*par[6],par[5], nrow=2,ncol=2)) ))) } par.start<- c(0.74, 0.66، 0.40، 1.4، 1.2، 0.4، 0.5) # برآوردگرهای log-likelihood نتیجه <-nlm(L,par.start,v_rel=v_rel,p_rel=p_rel, hessian=TRUE, iterlim=200, check.analyticals= Il y a eu 50 avis ou plus (utilisez warnings() pour voir les 50 premiers) 1: در log(eigen(sigma, متقارن = TRUE, only.values ​​= TRUE)$values) : تولید از NaN 2: در sqrt(2 * pi * det(varlog) ): تولید از NaN 3: در nlm (L، par.start، v_rel = v_rel، p_rel = p_rel، hessian = TRUE، ... : NA/Inf جایگزین شده با حداکثر مقدار مثبت 4: در log (ویژن (سیگما، متقارن = TRUE، only.values ​​= TRUE)$values) : تولید از NaN 5: در sqrt (2 * pi * det (varlog)): تولید از NaN 6: در nlm (L، par.start، v_rel = v_rel، p_rel = p_rel، hessian = TRUE، ... : NA/Inf با حداکثر مقدار مثبت جایگزین شد ...... تا 50 par.hat <- result$estimate cat(sigN_p =، par[1 ],\n،sigN_v =، par[2]،\n،rhoN =، par[3]،\n،sigLN_p =، par[4],\n،sigLN_v =، par[5],\n،rhoLN =، par[6],\n، پارامتر اختلاط =، par[7] \n) sigN_p = 0.2919377 sigN_v = 0.4445056 rhoN = 1.737904 sigLN_p = 2.911735 sigLN_v = 2.539405 rhoLN = 0.3580525 پارامتر اختلاط = 0.8112917 آیا کسی می‌داند در مدل من چه اشکالی دارد یا چگونه باید این پارامترها را در 2 بعدی پیدا کنم؟ از اینکه وقت گذاشتید و سوالات من را بررسی کردید بسیار سپاسگزارم.
برآورد کوواریانس و پارامتر اختلاط با یک مدل نرمال-لگ نرمال دو متغیره
114943
تابع «zeroinfl» در بسته «pscl» در R فرض می‌کند که صفرها هم شامل صفرهای کاذب و هم صفرهای واقعی هستند. من یک مجموعه داده بادشده صفر دارم که مطمئن هستم فقط صفرهای واقعی را شامل می شود. آیا استفاده از تابع «zeroinfl» در این مجموعه داده مناسب است؟ یا اینکه تابع «مانع» مناسب‌تر است؟
مدل دوجمله ای منفی با تورم صفر برای صفرهای واقعی
86940
آیا کسی می تواند به طور خلاصه در چارچوب رگرسیون های پارامتری و حجم نمونه $N$ روشن کند که میزان همگرایی چقدر است؟ افزایش توان $k$ در $N^k$ (یا $N^{-k}$) باعث افزایش یا کاهش این نرخ می شود و چرا این خوب (یا بد) در نظر گرفته می شود؟ دلیل اینکه من می‌پرسم این است که وقتی «نرخ همگرایی» را در گوگل جستجو می‌کنم، هر دو منبع را پیدا می‌کنم که ادعا می‌کنند نرخ آن $N^{0.5}$ است، در حالی که منابع دیگر ادعا می‌کنند که این نرخ $N^{-0.5}$ است. هر دو نمی توانند درست باشند.
تعریف دقیق نرخ همگرایی
13622
من در یک شرکت اصلاح نباتات کار می کنم. در برخی اوقات فراغت، اخیراً برخی از داده‌هایمان را کاوش کردم (آزمایش‌های بازده)، عمدتاً فقط از روی کنجکاوی و می‌خواستم R را بهتر یاد بگیرم. من با ترسیم انحراف استاندارد میانگین های ایجاد شده با تعداد تکرارهای مختلف شروع کردم (در داده های واقعی هر رنگ نشان دهنده یک دانه خاص است که در یک محیط خاص رشد کرده است). مانند این (مثال ها داده های بازده واقعی نیستند): ![شکل 1](http://i.stack.imgur.com/cF3lz.png) شکل 1. انحراف استاندارد میانگین های ایجاد شده از تعداد متفاوت اعداد به طور معمول توزیع شده است. این برای من کاملا قابل درک به نظر می رسد. سپس به این ایده رسیدم که انحراف استاندارد را نسبت به انحراف استاندارد 1 تکراری رسم کنم: ![شکل 2](http://i.stack.imgur.com/ASjm6.png) شکل 2. انحراف استاندارد، نسبت به استاندارد انحراف در 1 تکرار، میانگین های ایجاد شده از تعداد متفاوت اعداد توزیع شده معمولی. 2 بدیهی است که این انحراف استاندارد نسبی رابطه قوی با تعداد تکرارها دارد. مدتی است به آن فکر می‌کنم، اما برای فرمول‌بندی ریاضی پشت این مشکل دارم. بنابراین سوال من این است: ** لطفاً کسی می تواند به من توضیح دهد که چرا ما رابطه را در شکل دوم تجسم می کنیم؟** (احساس می کنم که پاسخ باعث می شود من از پرسیدن کاملاً احمق باشم. من. همچنین متوجه باشید که این ممکن است بسیار افتضاح به نظر برسد مانند اینکه من سعی می کنم شما را وادار کنم که یک تکلیف برای من انجام دهید، اما من واقعاً کنجکاو هستم و به داده های زیادی دسترسی دارم اما آموزش آمار و آمار زیادی ندارم. ما یک آمارگیر داریم که می‌توانستم از او بپرسم، اما او در تعطیلات است.)
رابطه بین تعداد تکرار و انحراف معیار میانگین ورودی
61324
دیروز امتحان MBA خود را انجام دادم، با یک سوال در Probability مواجه شدم، سوالات را مطرح می کنم لطفا کسی می داند پاسخ دهد؟ > یک آژانس تحقیقاتی در حال برنامه ریزی برای انجام یک نظرسنجی در مورد دانشجویان > نگرش نسبت به فیس بوک است. آنها می خواهند داده ها را از دانشجویان مهندسی > در سراسر تامیلنادو جمع آوری کنند. حجم نمونه 1000 است. یک طرح نمونه برداری > با استفاده از تکنیک های نمونه گیری احتمالی تهیه کنید.
با استفاده از تکنیک های نمونه گیری احتمالی، طرح نمونه برداری تهیه کنید
82540
من باید الگوی استفاده از یک جزء نرم افزاری را اندازه گیری کرده و به افراد غیرآمار برسانم. به نظر می‌رسد که بر اساس داده‌ها، استفاده از یک توزیع خوب و هموار دنباله سنگین دنبال می‌کند: بسیاری از کاربران اصلاً از این مؤلفه استفاده نمی‌کنند، تعداد کمی از کاربران از آن استفاده زیادی می‌کنند. من نمی‌خواهم گزارش خود را با استفاده از یک میانگین خلاصه کنم، زیرا معتقدم ماهیت واقعی داده‌ها را پنهان می‌کند و افراد غیرمتخصص به راحتی آن را به‌عنوان توزیع عادی تفسیر می‌کنند. از سوی دیگر، من نمی توانم توزیع را ترسیم کنم و شروع کنم به توضیح اینکه قانون قدرت چیست، چرا شبیه توزیع عادی نیست، چرا پرت ها واقعاً پرت نیستند، بلکه کاربران قابل انتظار هستند و غیره... بنابراین من در نهایت توزیع را به 3 قسمت تقسیم کرد: کاربرانی که کمی از کامپوننت استفاده می کنند، کاربران متوسط ​​و کاربران قدرتمند (که از کامپوننت زیاد استفاده می کنند). برای هر گروه من مقادیر میانگین (و خطای میانگین) را اندازه‌گیری کردم و به نظر من گزارش این چند اعداد عملی‌تر و قابل هضم‌تر توسط افراد غیر متخصص است. نمی دانم آیا راه بهتری برای انجام این نوع تحلیل برای افراد غیر متخصص وجود دارد؟ هر گونه پیشنهاد بیش از خوش آمدید!
چگونه می توان الگوی استفاده را که از توزیع دم سنگین پیروی می کند برای افراد غیر متخصص توضیح داد؟
82093
من یک پایگاه داده با 32344 دوره از دانشگاه های سوئد دارم. یک دوره دارای ویژگی های زیر است: کد رشته خصوصی; نام رشته خصوصی; توضیحات رشته خصوصی; رشته خصوصی localName; رتبه های فهرست خصوصی<CourseRank>; خصوصی فهرست <نظر> نظرات; فهرست خصوصی<UserBook> UserBooks; فهرست خصوصی<CourseBook> coursebooks; دانشگاه خصوصی؛ private String mamosteName; رشته خصوصی رشته لینک; نیازهای رشته خصوصی پیوند; رشته خصوصی localCourseLink. رشته خصوصی localRequirementsLink. سطح رشته خصوصی؛ دوره رشته خصوصی; private String timeOfDay; نوع رشته خصوصی; سرعت int خصوصی؛ خصوصی int numberOfAssignments; خصوصی int numberOfProjects; خصوصی int numberOfExams; اعتبارات دوگانه خصوصی؛ اکثر دوره ها فقط دارای نام، دانشگاه، سطح، دوره، سرعت، نوع و واحد هستند اما هدف این است که اکثر دوره ها همه چیز را پر کنند. هر دوره دارای لیستی با رتبه است که اساساً ارزیابی دوره از دانشجویان است. یک رتبه به این صورت است: حجم کار خصوصی int. ساختار int خصوصی; معلمان خصوصی private int avarageScore; نظر رشته خصوصی; تاریخ رشته خصوصی; شناسه کاربری خصوصی int; من می خواهم نوعی یادگیری ماشینی را در این پایگاه داده اعمال کنم. من به استفاده از الگوریتم های خوشه بندی برای دسته بندی دروس مشابه با یکدیگر فکر می کنم. چیزی که من در ذهن داشتم چیزی شبیه به این بود: 1. اجازه دهید یک الگوریتم خوشه بندی نام و شرح یک دوره را مقایسه کند تا زمانی که کاربر در حال جستجو در وب سایت است، بازدیدهای مشابه را نشان دهد. 2. یا از تمام ویژگی های یک دوره، از جمله رتبه های دوره برای طبقه بندی دوره ها به خوشه ها استفاده کنید. این می‌تواند به دانش‌آموزان کمک کند تا با پیشنهاد دوره‌هایی مشابه دوره‌هایی که به‌عنوان مورد علاقه علامت‌گذاری کرده‌اند یا رتبه خوبی داده‌اند، دوره‌هایی را پیدا کنند که دوست دارند. آیا این منطقی است و چه الگوریتم هایی را پیشنهاد می کنید؟ پیشنهاد دیگری در مورد اینکه چه نوع یادگیری ماشینی سرگرم کننده ای می توانم در اینجا اعمال کنم وجود دارد؟ با احترام، نیلسی
خوشه بندی دروس دانشگاهی با استفاده از یادگیری ماشین
96182
من تازه یک مبتدی هستم. من یک نمونه 71 دارم. می خواهم یک رگرسیون پواسون انجام دهم. آیا این برای تخمین مدل پواسون کافی است؟ آیا باید فقط از تعداد به عنوان متغیر $Y$ استفاده کنم یا باید از درصدها (یعنی تعداد تبدیل به درصد) استفاده کنم؟ برای اندازه نمونه داده شده تا چند متغیر X$ می توانم در یک مدل استفاده کنم؟
آیا می توان رگرسیون پواسون را با یک نمونه کوچک اجرا کرد؟
56201
من در حال انجام تجزیه و تحلیل عاملی بر روی 40 متغیر سطح فاصله هستم و دو نگرانی فوری دارم: 1. عامل تعیین کننده '6.608E-006' است، که بسیار کمتر از برش '0.00001' است. من به عقب برگشتم و ماتریس همبستگی را غربال کردم تا همبستگی های مهم و بسیار زیاد بین متغیرها را پیدا کنم. چیزی به «0.8» هم نزدیک نمی شود. حالا چی؟ آیا به هر حال ادامه می دهم، فقط مقدار تعیین کننده را یادداشت می کنم، یا کار دیگری وجود دارد که باید برای تنظیم داده ها برای حذف چند خطی بودن انجام دهم؟ 2. KMO یک «.846» قابل احترام است، اما با بررسی ماتریس ضد همبستگی، پنج متغیر پیدا کردم که مقادیر فردی KMO آنها کمتر از «0.5» بود. حالا چی؟ مستثنی کردن؟ نادیده بگیرید، زیرا KMO کلی در حال حاضر به اندازه کافی بالا است؟
تحلیل عاملی: وقتی تعیین کننده تقریباً صفر است و زمانی که KMO برای یک متغیر کم است چه باید کرد؟
16352
من یک رگرسیون خطی ساده «mod <- lm(y ~ x)» انجام می‌دهم و باقیمانده‌های آن را رسم می‌کنم و «plot(mod$residuals)» را انجام می‌دهم. دو سوال: 1. من باید خط رگرسیون را در نموداری که باقیمانده ها را ترسیم کردم رسم کنم، چگونه می توانم این کار را انجام دهم؟ 2. من باید نقاط این خط را بدانم، زیرا باید این خط را در برنامه دیگری رسم کنم، بنابراین به آن نقاط (به عنوان بردار) نیاز دارم، چگونه می توانم انجام دهم؟ متشکرم
چگونه نقاط خط رگرسیون خطی را بدست آوریم؟
2430
من سعی می کنم تقریباً 3٪ از جمعیت را برای برخی ویژگی های مشخص شناسایی کنم. درخت تصمیم استاندارد یا رگرسیون لجستیک نتایج مثبت کاذب زیادی می دهد. آیا شانسی وجود دارد که طبقه بندی کننده مبتنی بر قوانین بتواند عملکرد را بهبود بخشد؟ من می خواهم تقریباً 75٪ از فراخوان را با 95٪ دقت به دست بیاورم (یعنی FalsePositives <= 5٪ از مثبت)
چه زمانی طبقه‌بندی‌کننده مبتنی بر قوانین از درخت‌های تصمیم بهتر عمل می‌کند؟
25144
من یک هیستوگرام با دو قله دارم و می خواهم توزیع احتمال مربوطه را ایجاد کنم. من از کد متلب زیر استفاده کرده ام: A=mydata; M1=max(A); M2=min(A); I=(0:100).*(M1-M2)./100+M2; [n,x]=hist(A,I); bar(x,n/(1000*0.352)) من اغلب این کد را پیدا کردم تا توضیح دهم چگونه می‌توانیم توزیع prob را برای هیستوگرام اعداد تصادفی که به طور معمول توزیع شده‌اند پیدا کنیم، اما نمی‌دانم آیا این برای هیستوگرام با دو قله درست است یا خیر. و یک توزیع احتمال نرمال شده ایجاد کنید. هیستوگرام در اینجا نشان داده شده است: ![Histogram bimodal](http://i.stack.imgur.com/wSxjf.png)
یک توزیع احتمال از یک هیستوگرام با دو قله در matlab ایجاد کنید
105727
فرض کنید $\textbf{Y} = (Y_{1}, ... , Y_{n})$ یک نمونه تصادفی از توزیع $N(\mu, \sigma_{0}^{2})$ است که در آن $ \mathrm{E}(Y_{i}) = \mu$ ناشناخته است اما $\mathrm{SD}(Y_{i}) = \sigma_{0}$ شناخته شده است. می توان یک فاصله اطمینان برای میانگین توزیع نرمال با انحراف معیار شناخته شده با استفاده از کمیت محوری ایجاد کرد: $$Q = \frac{\bar{Y} - \mu}{\sigma_{0} / \sqrt{n }}$$ سپس، فرض کنید $\mathrm{E}(Y_{i}) = \mu_{0}$ شناخته شده است اما $\mathrm{SD}(Y_{i}) = \sigma$ ناشناخته است، چرا نمی‌توانیم از کمیت محوری زیر برای ایجاد فاصله اطمینان برای انحراف استاندارد با میانگین شناخته شده استفاده کنیم؟ $$Q = \frac{\bar{Y} - \mu_{0}}{\sigma / \sqrt{n}}$$
فاصله اطمینان برای انحراف معیار یک توزیع نرمال با میانگین شناخته شده
93971
من می خواهم از شما در مورد برخی از سوالات شبیه سازی مقادیر شدید کمک بگیرم. به عنوان مثال، من کد R زیر را برای تولید QQplot برای داده های توزیع شده معمولی نوشته ام که اندازه نمونه را از 10 تا 1B تغییر می دهد. همانطور که در نمودار زیر مشاهده می شود، من مجبور شدم تا 1B نمونه بروم تا مقادیر شدید @ 6 Sigma را از میانگین ببینم. par(mfrow=c(2،3)) برای (i در c(10، 100، 1e+3، 1e+4، 1e+5، 1e+6، 1e+7، 1e+8، 1e+9)) { data <- rnorm(i, mean = 0, sd = 1) qqnorm(data, main=sprintf(Sample Size=%d, من))؛ qqline(data, col='red') } **Question1**: من فقط به مقادیر افراطی (دم) علاقه مند هستم. اگرچه نمونه‌برداری MC بیشتر داده‌ها را نزدیک به میانگین تولید می‌کند و من نمی‌دانم که از کدام روش می‌توانم برای جمع‌آوری چند (تا شاید هزاران) نمونه استفاده کنم و در عین حال مقادیر بسیار بالایی را تا 6 سیگما از میانگین دریافت کنم. **سوال2**: به نظر می رسد QQplot تنها پس از ~ 1K امتیاز قابل توجه است. همچنین، بدون توجه به اندازه نمونه، QQplot همیشه برخی از tail-off ها را نشان می دهد. این باید یک خطای نمونه باشد اما مطمئن نیستم. لطفاً هر گونه ادبیاتی که این رفتار را توضیح می دهد به من نشان دهید؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mLTlR.png)
شبیه سازی ارزش فوق العاده با مونت کارلو
93972
متغیر تصادفی $X$ دارای تابع چگالی احتمال \begin{معادله*} f\left(x\right) =\left\\{ \begin{array}{ccc} n\left( \frac{x}{\theta است }\right) ^{n-1} & , & 0<x\leqslant \theta \\\ n\left( \frac{1-x}{1-\theta }\right) ^{n-1} & , & \theta \leqslant x<1% \end{array}% \right. \end{معادله*} نشان می‌دهد که اگر $k\in \mathbb{N}$ \begin{معادله*} \mathrm{E}\left(X^{k}\right) =\frac{n\theta ^{ k+1}}{n+k}+\sum% \limits_{i=0}^{k}\left( -1\right) ^{i}\binom{k}{k-i}\frac{n}{n+i}\left( 1-\theta \right) ^{i+1} \end{equation*} پیدا کردن اولین عبارت $\mathrm{E}\left( X^{k}\right) $ اما من نتوانستم مورد دوم را پیدا کنم. فکر می کنم باید از ویژگی های توزیع بتا استفاده کنم. من سعی کردم انتگرال \begin{معادله*} \int\nolimits_{\theta }^{1}nx^{k}\left( \frac{1-x}{1-\theta }\right) ^{ را شبیه‌سازی کنم n-1}% \mathrm{d}x \end{equation*} به بتا pdf با استفاده از تبدیل $u=\frac{x-1}{\theta -1}$ اما i نتوانست نتیجه معقولی بگیرد بعد از اعمال این تبدیل، باید \begin{معادله*} \int\nlimits_{0}^{1}u^{n-1}\left[ 1+u\left( \theta -1\right) \ را پیدا کنم راست] ^{k}% \mathrm{d}x \end{equation*} اما نتوانستم. همچنین سعی کردم از تساوی \begin{equation*} x^{k}=1+\left(x-1\right) \sum\limits_{n=0}^{k-1}x^{n} استفاده کنم \end{معادله*} اما نتوانستم به نتیجه برسم.
مقدار مورد انتظار یک متغیر تصادفی
93203
من یک مبتدی هستم که سعی می کنم با استفاده از ماشین حساب آنلاین رایگان http://www.wessa.net/ آزمون علیت گرنجر را انجام دهم، نمی دانم صادقانه بودن به چه معناست. بسیار قدردانی شود من به دنبال پاسخی برای مواردی از جمله اینکه چه مقادیری را در پارامتر تبدیل Box-Cox، درجه (d) تفاوت غیر فصلی، دوره فصلی و غیره قرار دهم، هستم. من سعی می کنم یک آزمون علیت بر روی رابطه بین تولید ناخالص داخلی و جریان های ورودی سرمایه گذاری مستقیم خارجی انجام دهم، مطمئن نیستم که آیا این موضوع مرتبط است یا خیر. هر چیزی قدردانی خواهد شد، متشکرم.
کسی در مورد آزمون علیت گرنجر دو متغیره چیزی می داند؟
96181
بنابراین، من سعی می کنم تعیین کنم که بهترین توزیع برای تجزیه و تحلیل داده هایم کدام است. نویسندگان قبلی استفاده از آزمون chi-2 را برای تعیین اینکه آیا داده‌ها توزیع شده پواسونی یا گاوسی هستند، پیشنهاد می‌کنند. همه رویکردها تجربی هستند و هیچ اتفاق نظری در مورد نحوه توزیع داده ها وجود ندارد. اگر از برنامه‌های جدیدتر استفاده می‌کنید، می‌تواند پیوسته باشد، یا اگر از نرم‌افزار استاندارد برای این زمینه استفاده می‌کنید، گسسته باشد. از اوایل دهه 90 به روز نشده است. اندازه گیری ها را می توان در ابتدا فقط به صورت اعداد صحیح ثبت کرد. بخشی که من روی آن کار می کنم همان نقطه داده ای است که 2075 بار اندازه گیری شده است. هر یک از اندازه‌گیری‌های 2075 میانگین آن پیکسل در حدود 300 تصویر است. مشکل از نحوه یافتن عدم قطعیت برای آن مقدار ناشی می شود. عدم قطعیت ضروری است زیرا برنامه های تجزیه و تحلیل داده های بعدی نیاز به تخمین دارند. داده ها منحنی هستند زیرا باید به دلیل ماهیت آزمایش باشد. آشغال های زیادی وجود دارد. یک جمعیت کوچک از مقادیر بسیار بالا از دو منبع اشتباه، یک مشکل جزئی با محدودیت اندازه در مقادیر صحیح در برنامه قدیمی که تعداد بسیار کمی از شدت ها را دوباره توزیع می کند، یک پس زمینه و تلاش برای حذف پس زمینه وجود دارد. بزرگترین مشکل شدت بسیار بالا است زیرا به طور چشمگیری بر میانگین تأثیر می گذارد. بنابراین ما باید راه‌های بهتری برای هدف‌یابی آنها برای حذف و تخمین بهتری برای عدم قطعیت پیدا می‌کردیم. روشن‌های قدیمی‌تر فقط از سم استفاده می‌کنند و جدیدتر نشان می‌دهد گاوسی. جدیدترین چیزها می‌خواهند از یک پارتو معمولی استفاده کنند. آیا آزمون قدرتمندتری برای برازش مجموعه داده نسبت به مقایسه خی دو با برازش گاوسی یا پواسون وجود دارد؟ ترجیحاً چیزی در متلب موجود باشد.
آیا آزمونی بهتر از chi-2 برای تعیین معقول بودن توزیع وجود دارد؟
56203
با تعریف مجدد تابع انرژی، $E(x)$، آیا می توان هر $p(x)$ را به صورت توزیع بولتزمن نوشت. $p(x) = \frac{e^{-E(x)}}{Z}$، جایی که Z تابع پارتیشن است؟
آیا هر توزیع احتمالی را می توان به صورت توزیع بولتزمن نوشت؟
82096
این در زمینه دو متغیر تصادفی است. یک فرض متداول (مثلاً عبارت خطا در ANOVA) متغیرهای تصادفی مستقل و توزیع شده یکسان است. یک سوال در این سایت وجود دارد که می پرسد چگونه می توان این فرض را در یک مجموعه داده مشخص بررسی کرد. آیا این یک فرض است یا یک واقعیت؟
آیا مستقل و به طور یکسان توزیع شده یک فرض است یا یک واقعیت؟
105723
من روی یک مشکل پیش بینی کار می کنم. من یک پیشینه برنامه نویسی و یک آمار کوچک دارم. اگر دو متغیر وابسته و یک متغیر مستقل داشته باشم، چگونه می توانم بفهمم که این دو با هم مرتبط هستند؟ برای مثال، x1 دارای ضریب همبستگی 0.6 و x2 دارای ضریب همبستگی 0.4 است. من فرض می کنم که x1 و x2 کاملاً وابسته (هویت) نیستند و کاملاً مستقل از یکدیگر نیستند. آیا راهی برای تحلیل ریاضی این وضعیت وجود دارد تا در نهایت وزن معادله رگرسیون نهایی را تعیین کنیم؟ فکر می‌کنم می‌توانم یک x را در سطل‌ها قرار دهم و یک معادله تکه‌ای بر اساس برش‌های خاص ایجاد کنم. اما به نظر می رسد که این بهینه نیست و در واقعیت x های زیادی وجود دارد. من ادبیات خوبی در مورد نحوه افتراق وزن متغیرهای وابسته پیدا نکردم. می‌دانم که یادگیری ماشین برای این کار طراحی شده است، اما من یک رویکرد «خط‌کش اسلاید مدرسه قدیمی» را می‌خواهم که بتوانم تفاوت‌های واریانس را درک کنم. من در یک مرحله اکتشافی هستم که در آن دو متغیر (و واقعاً خیلی بیشتر) نتیجه را مشخص می کنند. اگر دو متغیر با هم مرتبط باشند، برخی از واریانس ها همپوشانی دارند. من می خواهم بدانم که چه مقدار همپوشانی دارند و چگونه می توان متغیرها را در یک معادله رگرسیون پایانی وزن کرد. (این اصطلاح درست نیست، پس لطفا با من همراه باشید.)
دو متغیر همبسته را از هم متمایز کنید
61815
$Y_{1...n}\sim \operatorname{Bin}(1,p)$, iid، و من باید یک برآوردگر بی طرفانه برای $\theta=\operatorname{var}(y_i)$ پیدا کنم. من محاسباتی انجام دادم و فکر می کنم که پاسخ $p(1-p)-\frac{p(1-p)}{n}$ است * آیا این درست است؟ * اگر نه، چگونه می توانم یک برآوردگر بی طرف پیدا کنم؟
برآوردگر بی طرفانه واریانس متغیر دو جمله ای
110368
من مطمئن نیستم که از کدام آزمون آماری برای آزمایش اینکه آیا دو مجموعه داده به طور قابل توجهی متفاوت هستند استفاده کنم. داده ها چیزی شبیه به این است: مجموعه داده گروهی 1 مجموعه داده 2 A 5 6 B 1 7 C 2 10 D 1 15 E 4 11 F 1 5 G 2 17 H 2 10 I 3 19 J 1 6 K 14 67 L 13 38 M 3 16 N 14 59 O 14 33 P 0 4 Q 10 28 R 0 6 S 4 9 T 3 5 U 3 13 V 0 13 من امیدوارم که، اگرچه یک مجموعه داده مجموع بیشتری دارد، نسبت بین گروه ها به این معنی است که آنها تفاوت قابل توجهی ندارند. آیا کسی توصیه یا پیشنهاد مفیدی در مورد یک آزمایش مناسب دارد؟ پیشاپیش ممنون
ارزیابی اینکه آیا تفاوت بین مجموعه داده‌ها قابل توجه است یا خیر
2439
یک جستجوی گذرا نشان می دهد که مربع های لاتین به طور گسترده ای در طراحی آزمایش ها استفاده می شود. در طول دوره دکترا، من ویژگی‌های نظری مختلف مربع‌های لاتین را مطالعه کرده‌ام (از دیدگاه ترکیب‌شناسی)، اما درک عمیقی از آنچه در مربع‌های لاتین وجود دارد که آنها را به‌ویژه برای طراحی تجربی مناسب می‌کند، ندارم. من می‌دانم که مربع‌های لاتین به آماردانان اجازه می‌دهند تا موقعیت‌هایی را که در آن دو عامل وجود دارد که در «جهت‌های» متفاوت متفاوت هستند، به خوبی مطالعه کنند. اما، من همچنین نسبتاً مطمئن هستم که بسیاری از تکنیک های دیگر وجود دارد که می توان از آنها استفاده کرد. > به خصوص چه چیزی در مورد مربع های لاتین است که آنها را برای طراحی آزمایش ها مناسب می کند که دیگر طرح ها ندارند؟ علاوه بر این، هزاران مربع لاتین برای انتخاب وجود دارد، بنابراین کدام مربع لاتین را انتخاب می کنید؟ من می‌دانم که انتخاب یک مورد به‌صورت تصادفی مهم است، اما همچنان تعدادی مربع لاتین وجود دارند که برای اجرای آزمایش‌ها نسبت به دیگران مناسب‌تر هستند (مثلاً جدول Cayley یک گروه چرخه‌ای). این سوال زیر را مطرح می کند. > کدام ویژگی مربع های لاتین مطلوب و کدام ویژگی مربع های لاتین برای طراحی آزمایشی نامطلوب است؟
خواص مطلوب و نامطلوب مربع های لاتین در آزمایشات؟
82546
من با این موضوع برخورد کردم که به تفاوت های بین بوت استرپینگ و اعتبارسنجی متقاطع می پردازم - به هر حال پاسخ و مراجع عالی. چیزی که الان می‌پرسم این است که اگر بخواهم 10 برابر CV تکرار کنم تا دقت یک طبقه‌بندی کننده را محاسبه کنم، چند بار _n_ باید آن را تکرار کنم؟ آیا _n_ به تعداد تاها بستگی دارد؟ در اندازه نمونه؟ آیا قانونی برای این وجود دارد؟ (در مورد من، من نمونه هایی به بزرگی 5000 دارم، و اگر چیزی بزرگتر از _n = 20_ را انتخاب کنم، کامپیوترم برای انجام محاسبات خیلی طول می کشد.)
چند بار باید یک CV K-fold را تکرار کنیم؟
61818
برای حداقل مربعات با یک پیش بینی: $y = \beta x + \epsilon$ اگر $x$ و $y$ قبل از برازش استاندارد شده باشند (یعنی $\sim N(0,1)$)، پس: * $\beta $ همان ضریب همبستگی پیرسون، $r$ است. * $\beta$ در رگرسیون منعکس شده یکسان است: $x = \beta y + \epsilon$ برای حداقل مربعات تعمیم یافته (GLS)، آیا همین امر صدق می کند؟ یعنی اگر داده های خود را استاندارد کنم، آیا می توانم ضرایب همبستگی را مستقیماً از ضرایب رگرسیون بدست بیاورم؟ از آزمایش با داده ها، GLS منعکس شده به ضرایب $\beta$ مختلف منجر می شود و همچنین مطمئن نیستم که معتقدم ضرایب رگرسیون با مقادیر مورد انتظار من برای همبستگی مطابقت داشته باشد. من می‌دانم که مردم ضرایب همبستگی GLS را نقل‌قول می‌کنند، بنابراین نمی‌دانم که چگونه به آن‌ها می‌رسند و از این رو واقعاً منظورشان چیست؟
حداقل مربعات تعمیم یافته: از ضرایب رگرسیون تا ضرایب همبستگی؟
53368
فرض کنید که $X_1، \ldots، X_n$ نرمال چند متغیره با همبستگی برابر $\rho$ هستند و هر یک از آنها به صورت حاشیه ای $N(0,1)$ توزیع می شوند. اجازه دهید $X_{(1)}، \ldots، X_{(n)}$ آمار سفارش مربوطه باشد. توزیع $X_{(1)}$ و $X_{(n)}$ به راحتی یافت می شود. در مورد توزیع سایر آمار سفارشات چطور؟ کسی میتونه در این مورد اشاره کنه؟ متشکرم. هانا
آمار ترتیب متغیرهای تصادفی پیوسته همبسته مساوی
105720
من مشاهدات X را به همراه برچسب‌های آن‌ها Y دارم. سپس یک هیستوگرام از Y ایجاد می‌کنم. سپس مشاهداتی را حذف می‌کنم که هیستوگرام همچنان همان شکل متمایز را حفظ کند. کسی میدونه اسم این روش کاهش داده چیه؟
برای کاهش داده ها به این تکنیک چه می گویند؟
93974
پس از خواندن «چگونه بر اساس میانگین رتبه‌بندی مرتب‌سازی نشود» (http://www.evanmiller.org/how-not-to-sort-by-average-rating.html)، کنجکاو شدم بدانم آیا همان چیزی وجود دارد یا خیر. برای متغیرهایی با بیش از دو نتیجه (0،1) یا حتی متغیرهای پیوسته. به عنوان مثال، چگونه کران پایین را به مشکل آمازون تعمیم می دهید؟ واضح است که 5 نتیجه وجود دارد (یکی برای هر تعداد ستاره داده شده توسط کاربر). از چه معیاری استفاده می کنید تا 4.5 ستاره با 2000 رای بهتر از 5 ستاره با 2 رای رتبه بندی شود؟ همچنین، به نظر من این نوع مشکل می تواند تعبیر بیزی داشته باشد. منظورم این است که استفاده از فرمول در چگونه مرتب سازی نکنیم دور از تنظیم یک پیشین در توزیع نیست، شاید یک برنولی با پارامتری استنباط شده در کل مجموعه داده / دسته ای که آیتم به آن تعلق دارد؟ کسی مرجعی برای این مشکل خاص میشناسه؟
آیا برای متغیرهایی که نتیجه بیشتری دارند، معادل حد پایین فاصله اطمینان نمره ویلسون وجود دارد؟
96185
من در حال تلاش برای یافتن راه‌ها/الگوریتم‌هایی هستم که نقاط پرت را برای ساختن مدل بهتر (طبقه‌بندی) با استفاده از شبکه عصبی شناسایی می‌کند. با توجه به تعداد زیادی از مقالات تحقیقاتی، من دریافته ام که نقاط پرت به طور قابل توجهی بر مدل سازی NN تأثیر می گذارد. با این حال، من نتوانستم روشی برای تشخیص آنها پیدا کنم. کسی روشش رو میدونه؟ (اگر بتوانید بسته R را پیشنهاد دهید عالی خواهد بود!) با تشکر!
تشخیص نقاط پرت برای دستیابی به عملکرد بهتر برای شبکه عصبی
82547
در یک مدل دوجمله ای منفی، آیا می توانم پارامتر پراکندگی را به عنوان تخمینی از واریانس باقیمانده در نظر بگیرم؟ به عبارت دیگر، آیا می توانم کارهای زیر را با پراکندگی $D$ انجام دهم: $$ \sigma^2 = \ln(\mu + \frac{\mu^2}{D}) $$ و از $\sigma^2 استفاده کنم $ همراه با سایر برآوردهای واریانس (به عنوان مثال، شیب تصادفی یا تغییرپذیری برش تصادفی) برای محاسبه نسبت واریانس توضیح داده شده یک اثر خاص؟ اگر نه، بهترین راه برای درمان تخمین پراکندگی در رابطه با سایر مولفه های واریانس تخمین زده شده چیست؟
چگونه می توانم پارامتر پراکندگی را به سایر پارامترهای واریانس تخمین زده شده به درستی مرتبط کنم؟
2335
من سعی می‌کنم نوع زیر را از مدل لجستیک تفسیر کنم: mdl <- glm(c(suc,fail) ~ fac1 + fac2، data=df، خانواده = دوجمله‌ای) آیا خروجی «predict(mdl)» شانس مورد انتظار است موفقیت برای هر نقطه داده؟ آیا راه ساده ای برای جدول بندی شانس برای هر سطح عامل مدل، به جای تمام نقاط داده وجود دارد؟
خروجی مدل لجستیک در R
2432
* آیا تکنیک مدل‌سازی مانند LOESS وجود دارد که صفر، یک یا چند ناپیوستگی را در جایی که زمان ناپیوستگی‌ها از قبل مشخص نیست، اجازه دهد؟ * اگر تکنیکی وجود داشته باشد، آیا پیاده سازی موجود در R وجود دارد؟
LOESS که اجازه ناپیوستگی را می دهد
93970
من با کتاب Reinsel عناصر تجزیه و تحلیل سری های زمانی چند متغیره مشکل دارم، زیرا فکر کردم که این ایده خوبی است که از Vector ARMA به بازنمایی های حالت-فضا تغییر مکان دهم. به ویژه پس از خواندن معایب مدل‌های فضای حالت و فیلتر کالمن برای مدل‌سازی سری‌های زمانی چیست؟، و پس از تلاش با تخمین پارامتر فرآیندهای VARMA. مشکل این است که من نمی توانم ببینم که چگونه می توان همبستگی بین دو سری زمانی را در نمایش های فضای حالت مدل کرد. آیا این همبستگی در ماتریس های کوواریانس خطا ظاهر می شود؟ برای من عجیب به نظر می رسد، به خصوص از VARMA. (جابه‌جایی به مدل‌های فضای حالت سخت‌تر از آن چیزی است که فکر می‌کردم!)
مدل های فضای حالت همبسته
77701
چگونه می توانم آزمایش کنم که آیا یک اثر غیرخطی قابل توجهی از یک پیش بینی پیوسته بر روی DV پیوسته وجود دارد؟ وضعیت من اینجاست من یک رگرسیون خطی ساده را اجرا کردم و اثر قابل توجهی از یک پیش بینی پیدا کردم (پیش بینی 2 در زیر). با این حال، وقتی dv خود را در برابر آن پیش‌بینی‌کننده رسم می‌کنم، روند خطی به نظر نمی‌رسد - در واقع به نظر می‌رسد که dv دو ماکزیمم محلی دارد. وقتی این یافته‌ها را به یک مجله ارسال کردم، داوران نظر دادند که باید اهمیت آماری احتمالی این اثر غیرخطی ظاهری را بررسی کنم. این اثر مورد انتظار نبود و بنابراین من مدل غیر خطی خاصی برای آزمایش در اینجا ندارم. من فقط به دنبال یک تکنیک مناسب برای اولین بار برای استفاده در شرایطی مانند این هستم. ایده ها؟ برای مرجع، داده‌های من به این صورت است: > D[1:10،] پیش‌آزمون sid predictor2 predictor3 predictor4 predictor5 1 2 0.75 0.75 0.8823529 1.00000000 0.8888889 18 2 3 8 1.606 1.000 0.06666667 1.0000000 16 3 5 1.00 1.00 0.9000000 1.00000000 0.9047619 21 4 6 0.75 0.75 0.333333333000. 16 5 7 0.50 0.75 0.8750000 0.87500000 0.8333333 18 6 8 0.75 1.00 0.5000000 0.50000000 0.88173509 0.88173509 0.8823529 0.58823529 0.4444444 18 8 10 1.00 0.50 0.8750000 0.87500000 0.5882353 17 9 13 0.75778 0.750 1.00000000 0.8947368 19 10 15 0.50 0.25 0.8666667 0.46666667 0.8125000 16 ... مدل رگرسیون خطی و خروجی آن به این صورت است: > lmA pretest +3-Diction pretest predictor4 + predictor5, data=D ) > summary ( lmA ) فراخوانی: lm(فرمول = پس آزمون ~ پیش آزمون + پیش بینی 2 + پیش بینی 3 + پیش بینی 4 + پیش بینی 5، داده = D) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.68810 -0.110153 -0.110153 0.36904 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (تقاطع) 0.773645 0.106033 7.296 8.45e-13 *** پیش آزمون 0.292674 0.030905 9.470 < 2e-16 *** پیش بینی کننده2 0.06 0.45 5 0.06 0.00988 ** پیشگو3 0.005529 0.026369 0.210 0.83398 پیشگو4 -0.026421 0.065049 -0.406 0.68474 پیشگو5 -0.0094512 -0.009451210. . --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1801 در 665 درجه آزادی چندگانه R-squared: 0.1298، R-squared تنظیم شده: 0.1 آمار: 19.83 در 5 و 665 DF، p-value: < 2.2e-16 در نهایت، در اینجا طرحی است که باعث نظر بازبین شد. توجه داشته باشید که از داده‌های binned با حباب استفاده شده است، با قطر حباب که تعداد ردیف‌های داده در هر bin را نشان می‌دهد، به‌جای نمودار پراکنده، زیرا فقط 5 سطح dv وجود دارد (0.0، 0.25، 0.5، 0.75، 1.0). اصلا نمی توان چیزی را با پراکندگی دید. بازبینان اظهار داشتند که می‌توان بن‌ها را به‌طور خودسرانه انتخاب کرد تا روند خطی متقاعدکننده‌تر به نظر برسد، که درست است، اما به نظر من، داده‌های binned همچنان باید به دلیل بالا استفاده شوند. ![طرح پس آزمون در برابر binned predictor2](http://i.stack.imgur.com/ClB0N.png)
آزمون اهمیت روند غیرخطی غیرمنتظره
97272
این سوال بیشتر در مورد یادگیری آمار است تا در مورد آمار _per se_، پس لطفا اگر انجمن دیگری مناسب نیست پیشنهاد دهید. من این کتاب درسی (ISLR نوشته جیمز، ویتن، هاستی و تیبشیرانی) را به صورت آنلاین پیدا کردم و به نظر منبع خوبی است. چند فصل خواندم و بعد متوجه شدم که درک درستی ندارم. بنابراین اکنون تصمیم گرفتم به سؤالات پایان هر فصل پاسخ دهم و آنها را در LaTeX/knitr بنویسم. من فصل 3 را پشت سر گذاشته ام. بسیار شگفت انگیز است که در مورد راه حل ها با افرادی که از همان کتاب استفاده می کنند صحبت کنیم. شاید من همه آنها را اشتباه می کنم! آیا کسی می تواند منبع / انجمن / وب سایتی را پیشنهاد کند که در آن چنین بحثی ممکن است انجام شود؟
منابع خوبی برای بحث در مورد راه حل های مقدمه ای بر یادگیری آماری در R چیست؟
105729
من نتونستم مثالی به ذهنم برسه ولی اگه کسی بتونه مثال بزنه عالی میشه.
آیا دو کمیت محوری متفاوت از یک پارامتر، فاصله اطمینان یکسانی را نشان می‌دهند؟
97275
من از داده های ابزار تحلیل آنلاین GEO و GEO2R که توسط NCBI ارائه شده است استفاده می کنم. تجزیه و تحلیل GEO2R نمرات زیر را به دست می دهد: نمرات P، P و t تنظیم شده. من 5-10 مطالعه با استفاده از ابزار GEO2R دارم. آیا راهی برای ترکیب همه این امتیازات و فیلتر کردن تنها ژن های مهم وجود دارد؟ آیا باید نمرات P یا T را به نمرات Z تبدیل کنم؟ سپس می‌توانم $z=\frac{E(zk)}{\sqrt{K}}$ را محاسبه کنم تا یک z -score (اتحاد ژن‌ها) ایجاد کنم.
متاآنالیز داده های GEO با استفاده از GEO2R
82545
من سعی می کنم یک مدل جلوه های ترکیبی را در بسته R 'nlme' اجرا کنم. من 3 گروه و 294 مشاهده دارم و از مدل زیر استفاده می کنم: model1<-lme(shy ~ int + ind + grpint +grpind, random =~1 | group, data = dt, control=list(opt=nlmimb )) متغیرهای 'grpint' و 'grpind' بردارهای میانگین گروهی برای متغیرهای 'int' و 'ind' هستند. (من این آزمون را اجرا می کنم تا ببینم آیا نمرات فردی در int یا ind هنوز به طور قابل توجهی تفاوت های گروهی را در خجالتی بیش از نمرات گروهی پیش بینی می کند.) وقتی به خروجی خود نگاه می کنم (زیر)، من در این مورد بسیار گیج هستم. چرا متغیرهای گروه من 0 df دارند. آیا چیزی را اشتباه وارد کردم؟ آیا این هنوز در هنگام تلاش برای آزمایش سؤال تحقیق من قابل قبول است؟ از به اشتراک گذاری دانش و تخصص خود بسیار سپاسگزارم! مدل خطی با جلوه های مختلط متناسب با REML داده ها: dt AIC BIC logLik 93.80127 119.4663 -39.90063 اثرات تصادفی: فرمول: ~1 | گروه (Intercept) Residual StdDev: 0.07421543 0.2755107 اثرات ثابت: خجالتی ~ وابسته + مستقل + grpint + grpind Value Std.Error DF t-value p-value (Intercept) 2.5677638 37.769 130.769 0.9458 به هم وابسته -0.0523904 0.05406 289 -0.9691753 0.3333 مستقل 0.1623483 0.05329 289 3.0462865 0.0025 grpint 1.232329 1.231. 0.0661965 NaN grpind -1.6347691 7.78430 0 -0.2100085 NaN همبستگی: (Intr) intrdp indpnd grpint وابسته 0.000 مستقل 0.000 -0.061 grpint -0.061 -0.061 grpint -0.098 -0.09 0.979 0.000 -0.007 -0.991 استاندارد شده درون گروهی باقیمانده: حداقل Q1 Med Q3 حداکثر -4.39909336 -0.43557519 -0.09616286 0.48480368 3.06: تعداد 3.05524 گروه مشاهده
چرا من در مدل ترکیبی خود 0 درجه آزادی برای متغیرهای میانگین گروه خود دارم؟ بسته nlme
97270
نمودارها خروجی «NbClust()» را نشان می دهند. با نگاه کردن به نمودار، آیا این درست است که بگوییم «k=5» تعداد بهینه خوشه‌ها است؟ > nc <- NbClust(m3, distance=euclidean, min.nc=2, max.nc=20, + method=kmeans, index=dindex) [1] *** : شاخص D یک روش گرافیکی برای تعیین تعداد خوشه ها است در نمودار شاخص D، ما به دنبال یک زانو قابل توجه (اوج قابل توجه در نمودار اختلاف دوم Dindex) هستیم که مربوط به افزایش قابل توجهی از شاخص است. ارزش اندازه گیری. همه 10829 مشاهدات استفاده شد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/aSX7T.jpg)
تفسیر نتیجه NbClust
105724
آیا کسی می تواند در مورد تکنیک های ممکن برای سرعت بخشیدن به فرآیند آموزش شبکه عصبی مصنوعی چندلایه در صورتی که آموزش شامل mini-batch باشد، به من ایده بدهد؟ تا اینجا متوجه شدم که آموزش تصادفی احتمالاً منجر به همگرایی سریع‌تر می‌شود، اما اگر باید از آموزش مینی دسته‌ای استفاده کنیم، آیا راهی برای سریع‌تر شدن همگرایی وجود دارد؟ (برخی اشاره به مقالات مرتبط نیز کمک خواهد کرد!) متشکرم!
چگونه می توان سرعت آموزش در شبکه عصبی را در هنگام استفاده از آموزش مینی بچ افزایش داد؟
26870
فرض کنید در یک سیستم ارتباطی واقعی، ما یک تصمیم زمان‌بندی $\omega$ در هر شکاف زمانی $t$ می‌گیریم که بر احتمال از دست دادن یک بسته تأثیر می‌گذارد (یعنی احتمال از دست دادن بستگی به تصمیم ما دارد و ما استقلال از یک شکاف به شکاف دیگر را فرض می‌کنیم. ). ما میانگین احتمال از دست دادن بسته را به صورت $P_{loss,t} = \frac{total\ packets\ lost\ تا\ t}{total\ packets\ transmitted\ تا\ t}$ تعریف می کنیم آیا تعریف یک متغیر تصادفی $X_t=a\times P_{loss,t} + b$ با ثابت های واقعی $a,b$؟
متغیر تصادفی به عنوان تابعی از احتمال میانگین
107473
من می دانم که مقدار z یک مشاهده منفرد چیست که در ویکی پدیا توضیح داده شده است. اما z-value یک پارامتر در مدل glm چیست؟
مقدار z پارامترهای مدل glm چیست؟
96186
لطفا کسی میدونه توزیع زیر چیه؟ می توانم بگویم که گسسته است و $\theta$ به نوعی یک احتمال است. متشکرم $$\mathbb P_X(x; \theta) = (x-1) \theta^2 (1-\theta)^{x-2}, \ \ x=2,3,\ldots; \ \ 0 < \تتا < 1.$$
این توزیع چیست؟
1807
آزمون t$-student به نمونه انحراف استاندارد $s$ نیاز دارد. با این حال، وقتی فقط اندازه نمونه و میانگین نمونه مشخص است، چگونه برای $s$ محاسبه کنم؟ به عنوان مثال، اگر اندازه نمونه 49 دلار و میانگین نمونه 112 دلار است، سپس سعی می کنم فهرستی از نمونه های مشابه 49 دلاری با ارزش هر کدام 112 دلار ایجاد کنم. انتظار می رود، انحراف استاندارد نمونه 0 دلار باشد. این یک مشکل تقسیم بر صفر در آزمون $t$ ایجاد می کند. **اطلاعات اضافی:** متوسط ​​درآمد کارگران کارخانه ACME North Factory $200$ است. گزارش شده است که یک نمونه تصادفی از کارگران 49 دلاری در کارخانه ACME South، درآمد سالانه 112 دلار دلار داشته است. آیا این تفاوت از نظر آماری معنادار است؟ آیا من درست می گویم که میانگین جمعیت 200 دلار است؟
چگونه می توان آزمون تی دانشجویی را انجام داد که فقط حجم نمونه، میانگین نمونه و میانگین جامعه مشخص است؟
11032
مزایای دادن مقادیر اولیه مشخص به احتمالات انتقال در یک مدل مارکوف پنهان چیست؟ در نهایت سیستم آنها را یاد خواهد گرفت، پس ارزش دادن مقادیری غیر از مقادیر تصادفی چیست؟ آیا الگوریتم زیربنایی مانند Baum-Welch تفاوتی ایجاد می کند؟ اگر من احتمالات انتقال را در ابتدا بسیار دقیق بدانم و هدف اصلی من پیش بینی احتمالات خروجی از حالت پنهان به مشاهدات باشد، چه توصیه ای به من می کنید؟
اهمیت احتمالات انتقال اولیه در یک مدل مارکوف پنهان
63419
من در درک یک توضیح رگرسیون لجستیک مشکل دارم. رگرسیون لجستیک بین دما و ماهی هایی است که می میرند یا نمی میرند. شیب رگرسیون لجستیک 1.76 است. سپس احتمال مرگ ماهی با ضریب exp(1.76) = 5.8 افزایش می یابد. به عبارت دیگر، احتمال تلف شدن ماهی ها به ازای هر تغییر 1 درجه سانتیگراد در دما به میزان 8/5 افزایش می یابد. 1. از آنجایی که 50 درصد ماهی ها در سال 2012 می میرند، افزایش 1 درجه سانتی گراد نسبت به دمای سال 2012، مرگ ماهی ها را به 82 درصد افزایش می دهد. 2. افزایش 2 درجه سانتیگراد نسبت به دمای سال 2012، مرگ ماهی را تا 97 درصد افزایش می دهد. 3. افزایش 3 درجه سانتیگراد -> 100٪ ماهی می میرند. چگونه 1 و 2 و 3 را محاسبه کنیم؟ (82%، 97% و 100%)
نسبت شانس و شانس در رگرسیون لجستیک
21241
من یک تابع کوچک نوشته ام که نمونه هایی از یک توزیع نرمال با واریانس خطی در حال تغییر rnormltv <- function(n,mu,rsd) { vc <- vector(mode=numeric, length=n) i <- 1 for (x in seq(from=rsd[1], to=rsd[2], length=n)) {vc[i]=rnorm(1,mu,x) i <- i+1 } return(vc) } فرض کنید 1000 نمونه به دست می آوریم، با واریانس کاهشی از 9 به 1. set.seed(1) x <- rnormltv(1000,0,c(9,1)) plot(x) هدف این است که پارامترهای 9 و 1 را با توجه به این داده ها، میانگین صفر، با فرض توزیع نرمال و روند خطی در واریانس، تخمین بزنید. از نظر مفهومی می توانم ببینم چگونه می توان این کار را با حداکثر احتمال انجام داد، اما چگونه می توان آن را در عمل، ترجیحاً در R انجام داد؟ توجه: این تکلیف نیست.
یافتن روند واریانس
105728
فرض کنید $n$ متغیر تصادفی عادی مستقل $$X_1 \sim \mathrm{N}(\mu_1, \sigma_1^2)\\\X_2 \sim \mathrm{N}(\mu_2, \sigma_2^2)\ دارم \\\\vdots\\\X_n \sim \mathrm{N}(\mu_n, \sigma_n^2)$$ و $Y=X_1+X_2+\dotsm+X_n$. چگونه می توانم چگالی $Y$ را مشخص کنم اگر توزیع هر $X_i$ هر کدام در داخل $(\mu_i - 2\sigma_i، \mu_i + 2\sigma_i)$ کوتاه شود؟ به عبارت دیگر، من از $n$ توزیع‌های نرمال مستقل نمونه‌برداری می‌کنم، نمونه‌هایی را که در محدوده $2\sigma_i$ از هر میانگین نیستند دور می‌اندازم و آنها را جمع می‌کنم. در حال حاضر، من این کار را با کد R زیر انجام می دهم: x_mu <- c(12, 18, 7) x_sd <- c(1.5, 2, 0.8) a <- x_mu - 2 * x_sd b <- x_mu + 2 * نمونه های x_sd <- sapply(1:3، تابع(i) { return(rtruncnorm(100000, a[i]، b[i]، x_mu[i]، x_sd[i])) }) y <- rowSums(samps) آیا روشی برای ایجاد چگالی $Y$ به طور مستقیم وجود دارد؟
مجموع متغیرهای تصادفی کوتاه شده نرمال
97279
مدتی است که سعی می‌کنم سرم را حول انتشار انتظارات بپیچم، اما کمی با یافتن عوامل تقریبی به روشی کارآمد و تقریب‌های «کاملاً فاکتوری‌شده» درگیر هستم. من در حال حاضر سعی می کنم پیاده سازی خودم را بنویسم (تا بررسی کنم که آیا همه چیز را کاملاً درک کرده ام) که بر اساس این مقاله Minka و Infer.NET (به عنوان مرجعی برای چگونگی پیاده سازی آن) است. * * * **یافتن عوامل تقریبی – پیچیدگی محاسباتی** درک من این است که فاکتورها در نمودار عاملی نشان دهنده CPD های شبکه بیزی من هستند. به عنوان مثال – با توجه به متغیرهای تصادفی $x_1,x_2,x_3$ – من می توانم $x_3 = x_1 + x_2$ را تعریف کنم. فاکتور مربوطه $f(x_1,x_2,x_3)$ سپس به صورت $p(x_3|x_1,x_2) = (pdf_{x_1} \cdot pdf_{x_2})(x_3)\rightarrow$ تعریف می‌شود. x_1$ و $x_2$. بسته به توزیع های درگیر، به حاشیه راندن متغیرهای دیگر ممکن است در یک شبکه بزرگتر غیرقابل حل شود زیرا انتگرال بیش از حد پیچیده می شود. به همین دلیل، شما سعی می کنید عوامل (و توزیع مشترک) را با توزیع های یک خانواده نمایی (مانند گاوسیان) تقریب بزنید. با این حال، هنگام پالایش تقریب ها و پیدا کردن $\arg\min KL(f_a(\boldsymbol{x}) q^{\backslash a}(\boldsymbol{x}) || \hat{f}_a(\boldsymbol{x }) q^{\slash معکوس a}(\boldsymbol{x})$ (معادله 52 در مقاله)، هنوز باید انتگرال را روی همه قرار دهم متغیرهای تصادفی که هنوز از نظر محاسباتی یک کار پرهزینه به نظر می‌رسد (مخصوصاً به این دلیل که باید چندین بار انجام شود). آیا من در اینجا چیزی را اشتباه متوجه شده ام یا برخی از ساده سازی ها را از دست داده ام * * * **تقریبی کاملاً فاکتوری*** در مقاله، بسیاری از الگوریتم ها از یک الگوریتم استفاده می کنند؟ پس از درک من، این بدان معناست که همه عوامل به عوامل جداگانه تقسیم می شوند، به طوری که هر عامل فقط به یک متغیر وابسته است. )q(x_3)$ آیا من درست می گویم که این کار به صورت خودکار توسط الگوریتم ها انجام می شود یک نمودار کاملا فاکتورسازی شده؟ * * * پیشاپیش برای هر پاسخی متشکرم. اگر حرف بیهوده ای می زنم، به من بگویید - این همه چیز در حال حاضر کمی ذهنم را به هم می زند و من مدام خودم را گیج می کنم ;)
یافتن موثر عوامل تقریبی در انتشار انتظار
93978
در نظر بگیرید که من دو موجودی دارم (به نام های 1 و 2). هر یک از این ترازها یک توزیع پسینی برای وزن جسم به شکل $m_1 \pm s_1$ (برای موجودی 1) و $m_2 \pm s_2$ (برای تعادل 2) می‌دهد. سپس فرض خواهم کرد که چگالی خلفی با میانگین $m_i$ و std $s_i$ نرمال است و مشروط به وزن واقعی، دو قسمت خلفی از یکدیگر مستقل هستند. سپس در نظر بگیرید که من یک شی داده شده را $N$ برابر با دو روش وزن می کنم که دو مجموعه $(m_{1,i} \pm s_{1,i})_{i=1,N}$ و $( m_{2,i} \pm s_{2,i})_{i=1,N}$. من می‌خواهم آزمایش کنم که آیا استنباط‌های به‌دست‌آمده در یک «سطح اطمینان» با یکدیگر سازگار هستند، یعنی ارزیابی کنم که آیا استنتاج‌های ارائه‌شده توسط دو روش (بدون تکیه بر یک نوع مشاهدات، اما بر یک شی) سازگار هستند یا خیر. اگر بله، می‌توان نتایج را مطرح کرد، اگر نه، می‌توان مشکوک بود. چگونه می توانم ادامه دهم؟
تست سازگاری استنتاج ها
113639
من یک مجموعه داده با محدوده 0 تا 1 دارم. من توزیعی را در MATLAB با استفاده از fitdist(Data_set, exponential) برازش می کنم. من می‌خواهم چارک سوم را با «log(4)/λ» پیدا کنم. وقتی این را محاسبه می‌کنم، نتیجه «4.28738» است، همانطور که اشاره کردم محدوده مجموعه داده‌های من بین «0 و 1» است. چرا این مقدار از حداکثر محدوده داده من بزرگتر است؟ چگونه می توانم این مشکل را حل کنم؟ من فکر می کنم این از دم یا توزیع نمایی است.
برازش توزیع نمایی به داده ها و یافتن مسئله چارک سوم
97274
چگونه می توانم واریانس این مدل ARMA(2,1) را پیدا کنم؟ $$ X_t=0.5X_{t-2} + e_t + e_{t-1} $$ من فرمول ARMA(1,1) را می‌دانم، اما وقتی سعی می‌کنم حل کنم، مسیر بی‌پایانی از کوواریانس‌های خودکار بالاتر را دریافت می‌کنم. برای پیدا کردن
واریانس ARMA(2،1)
112324
متغیر وابسته ما یک متغیر اسمی است که از پاسخ دهندگان می پرسد آیا این ویدئو را به اشتراک می گذارید؟ با پاسخ های مثبت یا خیر. فرضیه هایی که ما آزمایش می کنیم همگی فرضیه های جهت دار رابطه ای هستند و همه متغیرهای مستقل ما با استفاده از مقیاس لیکرت از 1 تا 7 اندازه گیری می شوند، بنابراین این داده های مقیاس بندی شده است. با این حال مشکلی که ما با آن روبرو هستیم این است که وقتی آزمایش‌های فرضیه‌ها را در SPSS اجرا می‌کنیم، خروجی می‌گوید که داده‌ها قابل محاسبه نیستند زیرا متغیر مستقل اسمی ما ثابت است (یعنی یک متغیر وابسته به مقیاس نیست). آیا راه حلی برای این مشکل وجود دارد؟ مشاوره بسیار قدردانی خواهد شد.
اگر یک متغیر وابسته اسمی داشته باشم و متغیرهای مستقل را مقیاس کنم، چه کاری می توانم انجام دهم؟
112322
برای درک تفاوت بین استنتاج Frequentist و Bayesian، من داشتم ارائه را در: http://www.stat.ufl.edu/archived/casella/Talks/BayesRefresher.pdf می خواندم. برای توضیح تفاوت بین رویکردها، نویسنده از مثال زیر استفاده می کند (صفحه 6): اگر من درست متوجه شده باشم، سه مورد مختلف از پروتکل ها وجود دارد (به نظر می رسد چیزی مربوط به سمیت است) و مطالعات مختلفی برای هر یک وجود دارد. از سه پروتکل، که رابطه پروتکل را با یک علت خاص که چیزی به نام AAN نامیده می شود، بررسی کرده است. به عنوان مثال، برای یکی از سه پروتکل، مطالعات مختلف که تعداد کل موارد (اول) و ارتباط با AAN (دوم) را نشان می دهد به شرح زیر است: 1) 66,11 2) 1756,129 3) 272, 48 4 ) 151، 18 ... و غیره هر یک از این جفت اعداد متعلق به مطالعات مختلف است. اکنون، مدل بیزی برای این مطالعات به این صورت ارائه می‌شود: با توجه به اینکه $X_j$ فرکانس AAN مطالعه $j$th در مورد پروتکل $i$ است، $X_j$ به صورت $X_j \sim Binomial(n_j,p_i) توزیع می‌شود. ) دلار. $n_j$ تعداد کل رخدادها برای $j$th مطالعه و $p_i$ پارامتر توزیعی است که می‌خواهیم استنباط کنیم. چیزی که من در اینجا متوجه نشدم این است که نویسنده می گوید که در این مدل $p_i$ می تواند از مطالعه ای به مطالعه دیگر متفاوت باشد. در درک من از رویکرد بیزی، در اینجا، همه مطالعات داده‌های ما را تشکیل می‌دهند، $D=\left(n_1,X_1,n_2,X_2,...,n_K,X_K \راست)$ که $K$ مجموع است. تعداد مطالعات برای $p_i$، توزیع قبلی $P(p_i)$ داریم. بنابراین سعی می کنیم توزیع پسین $P(p_i|D)$ را پیدا کنیم. به نظر من $p_i$ نمی تواند از مطالعه ای به مطالعه دیگر متفاوت باشد: $p_i$ ابتدا از توزیع قبلی به صورت $p_i \sim P(p_i)$ تولید می شود و سپس این مقدار تولید شده $p_i$ برای تولید هر $X_j \ استفاده می شود. دو جمله ای سیم کارت (n_j,p_i)$. بله، $p_i$ مانند رویکرد مکرر ثابت نیست، اما در تحقق های مختلف همه مطالعات $K$ متفاوت است، هنگامی که $p_i$ از قبلی ایجاد شد، سپس تمام مطالعات $K$ از همان $p_i$ استفاده می کنند. . بنابراین، نباید از یک مطالعه به مطالعه دیگر تغییر کند. بنابراین، این اسلاید من را در این نقطه خاص گیج کرده است. آیا من با افکارم در اینجا حق دارم یا چیزی را اشتباه متوجه شدم؟ پیشاپیش ممنون
سوال در مورد استنتاج بیزی یک پارامتر
61819
در De Livera، Hyndman & Snyder (2011)، یک مدل TBATS (مدل فضای حالت هموارسازی نمایی با تبدیل Box-Cox، خطاهای ARMA، روند و اجزای فصلی) برای فصلی بودن افزایشی مورد بحث قرار گرفته است. آیا TBATS با فصلی ضربی قابل استفاده است؟ آیا محدودیت یا مشکل عددی در TBATS یا BATS با فصلی ضربی وجود دارد؟
مدل tbats برای فصلی ضربی
112323
چگونه می توان به راحتی یک نقطه پرت را در مدل PH پیدا کرد و چرا آنها اینقدر مهم هستند؟ آیا کسی می تواند به من راهنمایی کند یا پیشنهاد دهد که از کدام تابع R می توانم استفاده کنم؟ با تشکر از نظرات و کمک.
نقاط پرت در مدل خطرات متناسب
16358
من در حال انجام یک رگرسیون خطی ساده هستم که امتحان کردم: > mod <- lm(rnorm(100,sd=2) ~ rnorm(100,sd=2.1)) > summary(mod) فراخوانی: lm(formula = rnorm(100, sd = 2) ~ rnorm (100، sd = 2.1)) باقیمانده ها: میانه حداقل 1Q 3Q Max -4.0396 -1.0698 0.0803 0.9823 5.4893 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.0280 0.1868 0.150 0.8812 rnorm(100, sd = 2.1) -0.1523 0.0900 -1.692 0.0939 . --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1.868 در 98 درجه آزادی چندگانه R-squared: 0.02838، R-squared تنظیم شده: 0.01 F آمار: 2.862 در 1 و 98 DF، p-value: 0.09387 همانطور که می بینید R-squared چندگانه بسیار بسیار پایین است. من باید آن مدل را رد کنم، اما در چه سطحی است که بفهمم آیا می توانم مدل را قبول کنم یا نه؟ متشکرم
چند مقدار R-squared چند کم برای رد یک مدل کافی است؟
9607
**زمینه:** من یک پیش بینی تلاش پروژه را به عنوان یک الگوی صفحه گسترده گوگل مدل کرده ام. جزئیات مدل: http://sites.google.com/site/efortprediction/methodology. Google Spreadsheet توابع توزیع بتا را پیاده سازی نمی کند. در PERT یک توزیع بتا برای تخمین تلاش یک کار در روزهای فرد ایده‌آل (یعنی یک کارگر 8 ساعت در روز بدون حواس‌پرتی) استفاده می‌شود. **مشکل:** وقتی توزیع به یک توزیع خلاصه می شود، استفاده از توزیع های عادی به جای توزیع های بتا چه پیامدهایی دارد. **جزئیات** یک _پروژه_ شامل فهرستی از وظایف_است. هر وظیفه _بتا توزیع شده_ و _مستقل_ است، بنابراین مجموع وظایف باید از _قضیه حد مرکزی_ تبعیت کند. بنابراین _project_ توزیع نرمال است. وقتی برای هر وظیفه از توزیع های معمولی به جای بتا استفاده می کنم، مقدار انتظار و SD برای پروژه چگونه تغییر می کند؟ من فرض می کنم که توزیع وظایف بیشتر به سمت راست منحرف می شود تا به چپ. **سوالات** * آیا دم ها چاق تر هستند؟ * آیا مقدار مورد انتظار با توزیع های نرمال بیشتر است یا کمتر؟ * پراکندگی بیشتر است یا کمتر؟
جمع کردن نرمال به جای توزیع بتا، پیامدهایی برای تابع چگالی مجموع؟
107472
من می خواهم ناهنجاری را با استفاده از میانگین متحرک موزون نمایی تشخیص دهم. من مجموعه ای از نقاط داده را ندارم. تمام چیزی که من دارم EMA(t-1) و نقطه داده زمان فعلی (t) DP(t) است. از این داده ها می توانم EMA(t) جدید را محاسبه کنم. ثابت EWMA 0.85 خواهد بود (با فرض). اکنون دو EMA={EMA(t-1) ,EMA(t)} و DP(t) دارم. آیا می توان تشخیص داد که DPt ناهنجاری است یا خیر؟ با استفاده از هر منطق؟ * * * برای مثال، Time(t) DataPoint(t) EMA(t-1) EMA(t) 1 120 0 102. . . . . . . . . . . . . . . . . . . . 10 300 150 277.5 من نمی خواهم یک سری از نقاط داده را در محاسبه قرار دهم. در هر زمان مثلاً 10، من می خواهم بدانم که آیا نقطه داده 300 (در این مورد) یک ناهنجاری است یا خیر. من همچنین EMA(9)=150 و EMA(10)=277.5 را برای محاسبه دارم (در صورت نیاز) آیا منطقی برای محاسبه این وجود دارد؟ پیشاپیش متشکرم * * * به روز رسانی: من به منطق زیر فکر کردم اما مطمئن نیستم که آیا مطمئنا کار می کند ABS(DP-EMA(جدید))> 3 *SD {EMA(قدیمی)،EMA(جدید)} (یا) ABS(DP -EMA(جدید))> 3 *EMWSD {EMA(قدیمی)،EMA(جدید)} DP - EMA نقطه داده - میانگین متحرک موزون نمایی
تشخیص ناهنجاری با استفاده از میانگین متحرک موزون نمایی
107479
اگر برای یک متغیر تصادفی مقادیر انتگرال منفی داشته باشیم چه؟ تمام تعاریفی که تا کنون دیده‌ام برای مقادیر صحیح غیر منفی است. امیدوارم کسی بتونه کمکم کنه با تشکر
تابع مولد احتمال برای مقادیر منفی متغیرهای تصادفی؟
49420
من می خواهم نمرات پیش و پس آزمون دانش آموزان سال 1-4 (نمرات تقسیم بر سؤال و سال) را با هم مقایسه کنم. از چه آزمایشی استفاده کنم؟
مقایسه پیش آزمون و پس آزمون
81017
آیا اگر MAPE را برای $\Delta$log($Y_t)$ ~ iid N($\mu$,$\sigma^2$) بدانیم، فرمول ساده ای برای پیدا کردن MAPE برای $Y_t$ وجود دارد؟ آیا رابطه جبری بین این دو وجود دارد؟ اگر به جای آن از RMSFE استفاده کنم چه می شود؟ یا معیار دیگری از دقت پیش بینی.
آیا اگر MAPE را برای $\Delta$log($Y_t)$ بدانیم، فرمولی برای یافتن MAPE برای $Y_t$ وجود دارد؟
113983
من از ca.jo در R برای انجام تست Johansen بر روی یک مجموعه داده معین استفاده می کنم. من ضرایب VECM، رتبه هم انباشتگی، و غیره را به دست می‌آورم. با این حال، به نظر نمی‌رسد که هیچ مفهومی از قدرت رابطه یا خوبی تناسب ارائه دهد. بنابراین سؤالات من عبارتند از: 1 - یک راه استاندارد/قابل اعتماد برای اندازه گیری میزان قوی بودن رابطه در یک مدل همجمعی VECM چیست؟ 2 - چگونه می توانم آن اندازه گیری را در R بدست آوریم؟
VECM خوبی تناسب در R
53362
من در حال حاضر با مجموعه داده های پیچیده ای سروکار دارم که قبلاً با مدل احتمال خطی و رگرسیون لاجیت آزمایش شده است. من می خواهم جایگزینی برای رگرسیون های اصلی پیدا کنم. نمونه از یک متغیر وابسته باینری استفاده می کند که توسط بسیاری از رگرسیون ها توضیح داده شده است. علاوه بر این، نمونه بسیار بزرگ است (~50000 مشاهده). هر گونه پیشنهاد استقبال خواهد شد!
جایگزینی برای LPM و رگرسیون لاجیت در Stata
113980
من GLMM زیر را دارم: موفقیت ~ سن + جنسیت + گروه/وظیفه + (1 + گروه/تکلیف|مدرسه/موضوع)، خانواده = دو جمله ای. بر اساس نوع کار من 6 کار دارم که می توان آنها را به 3 گروه (A, B, C) با 2 کار در هر گروه دسته بندی کرد. هر شرکت کننده 3 کار (یکی از A، یکی از B، یکی از C؛ ترکیب و ترتیب متوازن) دریافت کرد. آزمون‌های مک‌نمار کیو و پس‌هک کوکران نشان داد که سه گروه از نظر میزان موفقیت متفاوت هستند: A آسان‌تر از B و C است، و B و C به همان اندازه دشوار هستند. من از جدول های متقاطع برای تجزیه و تحلیل اینکه آیا وظایف هر گروه در میزان موفقیت آنها متفاوت است یا خیر استفاده کردم و دریافتم که آنها برای A و B متفاوت هستند. اکنون می خواهم مقایسه ای بین تمام وظایف فردی انجام دهم (نه فقط آنهایی که در یک دسته هستند). سوال من این است: آیا معادله بالا از نظر اثرات ثابت درست است یا دلیلی وجود دارد که گروه را به عنوان یک اثر ثابت اضافی در نظر بگیریم (مثلاً ببینیم که آیا وظیفه تأثیری بر اثرات گروهی که در آزمون‌های مک نمار یافت می‌شود) وجود دارد؟ آیا این غیر ضروری خواهد بود؟ شامل هر دو گروه / وظیفه و گروه به چه معناست؟
فاکتور تودرتو را به عنوان اثر ثابت در GLMM لحاظ کنید
63417
لطفاً کسی می تواند به من کمک کند تا بفهمم تفاوت بین مدل معادلات همزمان و مدل معادلات ساختاری (SEM) چیست؟ خیلی خوب می شود اگر کسی بتواند در مورد آن به من ادبیات بدهد. همچنین، آیا ادبیاتی وجود دارد که در آن SEM در زمینه سری زمانی استفاده شده باشد؟ ادبیاتی که به دست می‌آورم عمدتاً SEM در زمینه داده‌های مقطعی توضیح داده می‌شوند. متشکرم
تفاوت بین مدل معادلات همزمان و مدل معادلات ساختاری