_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
66894 | من در مورد تفاوت بین شیوع دوره و میزان بروز سردرگم هستم. موارد زیر از ویکی پدیا آمده است: > نرخ بروز تعداد موارد جدید در هر جمعیت در یک دوره زمانی معین است. > > شیوع دوره، نسبت جمعیتی است که دارای یک بیماری > یا وضعیت معین در یک دوره زمانی خاص هستند. با تشکر | تفاوت بین شیوع دوره و میزان بروز چیست؟ |
28233 | من می دانم که نسبت 2 متغیر تصادفی توزیع شده معمولی یک توزیع کوچی است... که البته واریانسی ندارد. اما، اگر من $X$ و $Y=|X|$ داشته باشم و این نسبت را بگیرم: $Z=X/Y$، آیا می توان واریانس نسبت توزیع نرمال به نصف نرمال را پیدا کرد؟ * * * **ویرایش** : (توضیحات بیشتر) تا به حال در پاسخ ها چیزی کم دارم، اما بی نهایت سپاسگزارم. اجازه دهید کمی پیش زمینه بیشتر ارائه کنم. اندازهگیری دادههای حسگرها شامل مقدار فرآیند و مقداری نویز است. Xk = Vk + Nk، که در آن Vk اندازه گیری فرآیند و Nk نویز است. دو مسئله وجود دارد، (1) تخمین Vk و (2) تشخیص نقطه تغییر یا تغییر. من می توانم Vk را با استفاده از یک فیلتر نمایی تخمین بزنم. بنابراین F0k = a*(Xk) + (1-a)*F0k-1. مقدار مورد انتظار F0 -> E(F0) = E(X). این بدان معناست که فیلتر نمایی ارزش مورد انتظار من را به من می دهد. واریانس F0 -> var(F0) = (a/(2-a))*var(X) در این مرحله من به باقی مانده ها علاقه مند هستم: RES = Xk - F0k. این مقدار باید در حالت ثابت 0 باشد. یعنی مقدار مورد انتظار 0 است. من همچنین فرض می کنم که مقدار به طور معمول توزیع می شود (در مورد این فرض بر سر من فریاد نزنید). من می توانم مقدار مورد انتظار را به صورت آنلاین با استفاده از یک فیلتر نمایی ساده تخمین بزنم (عمداً مشابه میانگین): F1k = b*(RES) + (1-b)*F1k-1. مقدار مورد انتظار F1 -> E(F1) = E(RES) = 0. واریانس F1 -> var(F1) = (2/(2-a))(b/(2-b))*var (X) سپس می توانم abs(RES) را بگیرم و دوباره از فیلتر نمایی استفاده کنم: F2k = b*(abs(RES)) + (1-b)*F2k-1 مقدار مورد انتظار F2 -> E(F2) = E(abs(RES)) = [sqrt(2/(2-a))*sqrt(2)/(sqrt(pi))] _std(X). واریانس F2 -> var(F2) = (2/(2-a))_ (b/(2-b))*(1-(2/pi))*var(X) همه این مقادیر مورد انتظار و واریانس ها فقط از ویژگی های فیلتر نمایی یا مقدار و واریانس مورد انتظار توزیع نرمال یا نیمه نرمال هستند. سوال من این بود که واریانس (و مقدار مورد انتظار) Z = F1/F2 چقدر است. F1 مقداری توزیع نرمال با مقدار مورد انتظار = 0 خواهد بود. F2 مقداری نیمه نرمال توزیع شده با مقدار مورد انتظار بر اساس انحراف استاندارد خواهد بود. x آیا می توانید var of Z را پیدا کنید؟ میدانم که X/abs(X) فقط به شما برنولی میدهد، اما به نظر میرسد دقیقاً همان چیزی را که به دنبالش هستم به من نمیدهد؟ * * * **ویرایش**: (جزئیات بیشتر) در اینجا نتایج شبیه سازی جالبی وجود دارد: F1 - فیلتر نمایی Residual (نویز اضافه شده به سیگنال اصلی گوسی بود - نتیجه به طور معمول توزیع می شود)  F2 - فیلتر نمایی abs(Residual) (توزیع نیمه نرمال)  Z - F1/F2 - توزیع شبیه سازی شده نسبت F1/F2 (به واریانس بزرگ حول مقدار مورد انتظار 0 توجه کنید)  | توزیع نسبت $X/Y$ که در آن $X$ نرمال است، $Y$ نصف نرمال است |
66897 | در Non-negative Sparse PCA، یک محدودیت غیر منفی را در ماتریس مختصات اعمال می کنیم. در اینجا میخواهم محدودیتهای غیر منفی را هم بر روی ماتریس پایه و هم در ماتریس مختصات اعمال کنم. میخواهم تحقیقی در این مورد وجود داشته باشد. ضمناً من از بسته nsprcomp در R استفاده می کنم و آیا می توانم این محدودیت اضافی را با استفاده از این بسته اعمال کنم؟ | محدودیت دوگانه غیر منفی را روی Sparse PCA اعمال کنید |
114511 | آیا برای یک متغیر تصادفی پیوسته با PDF پیوسته روی محور واقعی و CDF به خوبی تعریف شده است، آیا میانگین، واریانس و میانه همیشه به خوبی تعریف شده است؟ میانگین و واریانس همیشه وجود ندارد، به عنوان مثال. برای یک متغیر تصادفی کوشی. اما در مورد میانه چطور؟ از آنجایی که میانگین $m$ $$F_X(m)=\int\limits_{-\infty}^{m} f_X(x)dx=0.5 را برآورده میکند، میتوانم بگویم که $$ باید یک مقدار $m$ راضی کننده باشد. شرط از آنجایی که متغیر تصادفی پیوسته با CDF به خوبی تعریف شده است؟ | آیا میانگین، واریانس و میانه برای یک متغیر تصادفی پیوسته با PDF پیوسته روی محور واقعی و یک CDF به خوبی تعریف شده وجود دارد؟ |
51050 | من در حال حاضر در درک نحوه وارد کردن و محاسبه داده های خود در SPSS مشکل دارم. من یک طراحی سه طرفه دارم که در آن هر کدام 2 متغیر در * Experts vs Novice وجود دارد. * کشف هدایت شده در مقابل کنترل. * Undisguised vs Disguised من شرکت کنندگانم را در معرض یک تست قبل و بعد قرار داده ام، اما نمی دانم چگونه متغیر سوم را به درستی وارد کنم، زیرا من بدون استتار و مبدل با هم در معرض همه شرکت کنندگان قرار داده ام. کسی میتونه توضیح بده لطفا | چگونه می توان آنالیز ANOVA سه طرفه را که دارای فاکتور pre-post و یک درون موضوعی است، تجزیه و تحلیل کرد؟ |
95985 | من از LIBSVM برای طبقه بندی و هسته RBF پیش فرض استفاده می کنم. برای بدست آوردن پارامترهای بهینه برای C و گاما، از ابزار grid.py موجود در بسته LIBSVM استفاده می کنم. تا جایی که من می دانم بر اساس اعتبارسنجی متقاطع k-fold است. من یک مجموعه آموزش و تست 15 451 نمونه با 5 ویژگی دارم. آیا باید اعتبارسنجی متقاطع را در کل مجموعه آموزشی اجرا کنم یا آن را به عنوان مثال تقسیم کنم. یک نیم و به اعتبار بر روی آن. و آیا قاعده ای وجود دارد که با توجه به اندازه نمونه اعتبارسنجی متقاطع، چند تا k را انتخاب کنم؟ برای مثال، من میخواستم اعتبارسنجی متقاطع را روی کل مجموعه آموزشی (15451 نمونه) با k = 50 انجام دهم. آیا این روش خوبی برای بدست آوردن بهترین مقادیر پارامتر است؟ | اعتبارسنجی متقابل LIBSVM - تعداد تاها در مقابل اندازه نمونه |
93204 | من دو مدل طبقهبندی باینری را بر روی دادههای یکسان آموزش دادهام و آنها را با استفاده از مجموعه آزمایشی یکسان ارزیابی کردهام. برای هر مدل نرخ مثبت کاذب (و تعداد مثبت کاذب) را در آستانه محاسبه کرده ام که حداکثر مجموع حساسیت و ویژگی را ایجاد می کند. هر دو مدلها جنگلهای تصادفی هستند، اگرچه از مجموعه ویژگیهای متفاوتی استفاده میکنند. من علاقه مند به ارزیابی آماری تفاوت در دو نرخ مثبت کاذب هستم و میپرسیدم که آیا استفاده از آزمون دقیق فیشر روی یک جدول 2×2 حاوی تعداد موارد مثبت کاذب و غیرکاذب برای هر الگوریتم معتبر است؟ یا به طور کلی در کل جدول احتمالی نتایج طبقه بندی؟ می دانم که مقاله دیتریش (1998) و چندین سوال دیگر استفاده از آزمون مک نمار را پیشنهاد کرده است، اما هیچ پیشنهادی در مورد آزمون دقیق فیشر ندیده ام. توجه: من قبلاً آزمایش DeLong را انجام دادهام که سطح زیر منحنی ROC را مقایسه میکند، اما به این سؤال نیز علاقهمندم که آیا یک طبقهبندی کننده از نظر آماری به طور قابل توجهی در یک آستانه مشخص تفاوت دارد یا خیر. | تست دقیق فیشر برای ارزیابی اهمیت تفاوت بین نرخ های مثبت کاذب |
61320 | من یک پارامتر $\theta$ دارم که بین $[0,1]$ قرار دارد. اجازه دهید بگوییم که من میتوانم آزمایشی را اجرا کنم و $\hat{\theta} = \theta + w$ را بدست بیاورم، که $w$ یک گاوسی استاندارد است. چیزی که من نیاز دارم تخمینی از $\theta$ است که 1) بی طرفانه 2) تقریباً مطمئناً محدود است. شرط (2) برای من بسیار مهم است. طبیعی است که باید یک تخمینگر جدید بسازید که $\hat{\theta}$ را به $1$ در صورتی که بالای $1$ است و $0$ را اگر کمتر از $0$ است، بسازید. اما پس از آن برآوردگر بی طرف نخواهد بود. پس باید چیکار کنم؟ به طور رسمی، سوال این است که آیا تابع $f: \mathbb{R} \rightarrow \mathbb{R}$ وجود دارد به طوری که $f(\hat \theta)$ (1) و (2) در بالا را برآورده کند. علاوه بر این، آیا اگر بیش از یک نمونه بکشم، وضعیت متفاوت خواهد بود؟ | آیا می توان برآوردگر بی طرف و محدود داشت؟ |
25142 | من باید از DCT روی فریمهای ویدیوها به عنوان بردار ویژگی برای آموزش شبکه عصبی مصنوعی Feed-Forward استفاده کنم، اما مشکل تعداد زیاد ضرایب (به هزاران یا بیشتر) است. چگونه می توانم برخی از این ضرایب را انتخاب کنم و همچنان بیشتر اطلاعات را برای تصویر خود (قاب) ثبت کنم؟ | چگونه ضرایب تبدیل کسینوس گسسته را به عنوان بردار ویژگی انتخاب کنیم؟ |
114514 | من به دنبال انجام یک طبقهبندی باینری با استفاده از جنگلهای تصادفی هستم، اما کاملاً نمیدانم چگونه آنتروپی دادهها را به حداقل برسانم / چه آزمایشهایی را باید روی گرهها اجرا کنم تا این کار را انجام دهم. من نسبتاً در این زمینه تازه کار هستم، بنابراین از هر گونه اشاره یا منبعی که می تواند من را در مسیر درست هدایت کند بسیار قدردانی می کنم. با تشکر | ساخت جنگل های تصادفی برای طبقه بندی باینری با به حداقل رساندن آنتروپی |
110367 | من سعی می کنم تعدادی از فرآیندهای نقطه ای را که داده هایی برای آنها دارم مدل کنم. اگر من انتخاب کنم که هر یک را با استفاده از یک فرآیند پواسون (متفاوت) همگن مدل کنم و نرخ را با استفاده از MLE تخمین بزنم، برای برخی از فرآیندها خوب بودن تناسب بسیار خوب است. با این حال برای دیگران اینطور نیست و وقتی هیستوگرام زمانهای بین ورود را ترسیم میکنم، میبینم که آنها در ابتدا نمایی به نظر میرسند، اما پس از آن دم بلندی دارند که فرآیند پواسون توضیح نمیدهد. ساده لوحانه دوست دارم مدلی را امتحان کنم که در آن زمان بین ورود سنگین است. با این حال میدانم که این دیگر یک فرآیند پواسون نیست، بلکه یک فرآیند تجدید است. آیا راهی برای انجام MLE (یا مشابه) برای تخمین پارامترهای یک فرآیند تجدید وجود دارد تا بتوانم تست خوبی انجام دهم تا ببینم مدل چقدر قابل قبول است؟ | یک سوال مدل سازی در مورد فرآیندهای نقطه ای با دم سنگین |
82689 | من میخواهم تابع چگالی تجمعی را برای این مشکل با اجرای آزمایش زیر $p$ بار رسم کنم: اعداد تصادفی بین 1 و $n$ تولید میکنند و وقتی تکرار میشوند متوقف میشوند. محور x تعداد آزمایشاتی است که انجام داده است. چگونه محور y را محاسبه کنم؟ | مشکل تولد از طریق شبیه سازی |
50980 | من تا حدودی در آمار تازه کار هستم، پس تحمل کنید. من یک مجموعه داده دارم که حاوی مقادیر صحیح است. من یک مدل برای این مجموعه داده ایجاد کردم به طوری که y(x) = f(x) + c که در آن f(x) مدل من است و c خطای مدل من است. تابع «f» من پیوسته است و بنابراین «f(x)» پیوسته است. من فرض میکنم که «c» نویز است، و سعی میکنم توزیع «c» را محاسبه کنم. مشکل این است که، در حالی که c با ارزش واقعی است، پیوسته نیست، زیرا به عنوان یک مقدار گسسته منهای یک مقدار واقعی تعریف می شود (c = y(x) - f(x)، جایی که y (x)` یک عدد صحیح است. هیستوگرام «c» به نظر یک توزیع نمایی است، با این تفاوت که فاصلههایی بین آنها وجود دارد (این سایت به من اجازه نمیدهد تصویرم را به دلیل عدم شهرت آپلود کنم). هدف من ایجاد یک مجموعه داده مصنوعی است که اساساً «y(x) = f(x) + c_2» است، که در آن «c_2» مقادیر تصادفی از همان توزیع «c» است. از چه توزیعی برای این کار استفاده کنم؟ ویرایش: در اینجا اطلاعات بیشتری وجود دارد. دادههای من یک سری زمانی هستند که اساساً تعداد دفعاتی است که یک عمل در یک سطل زمانی معین انجام میشود (مثل پواسون). بنابراین من دادههای `y(t)` را دارم، اما متوجه شدهام که میتوانم تخمینهای بسیار خوبی از متغیر دیگر `x` ایجاد کنم، به طوری که میتوانم مدلهای خوبی را با استفاده از `y(x) = f(x)` تشکیل دهم. با این حال، مدل کامل نیست، از این رو عبارت خطای «c» است. هدف من یافتن توزیع «c» است تا بتوانم یک مجموعه داده تخمینی جدید با مدل «f(x)» زیربنایی با همان توزیع نویز به عنوان مجموعه داده اصلی ایجاد کنم. | توزیع احتمال نیمه گسسته |
96180 | من با مقیاس 15 ماده ای آموزش پیش دبستانی کار می کنم. پنج ناظر 58 معلم را مشاهده کردند. این یک ماتریس متقاطع کامل است، یعنی همه ارزیاب ها همه معلمان را مشاهده کردند. در تلاشی برای از بین بردن ارزیابهای ضعیف، میخواهم تخمین قابلیت اطمینان را برای هر آیتم محاسبه کنم، که ارزیابها را با یکدیگر مقایسه میکند. آیا راهی وجود دارد که بتوانم این کار را از طریق SPSS یا R انجام دهم؟ danke! | برآورد قابلیت اطمینان برای هر آیتم (مقایسه رتبهدهندگان با یکدیگر) |
82688 | من میخواستم تست دقیق فیشر را بهتر بفهمم، بنابراین مثال اسباببازی زیر را ابداع کردم، که در آن f و m مربوط به نر و ماده است، و n و y مطابق با «مصرف نوشابه» است: > سودا_جنسیت f m n 0 5 y 5 0 بدیهی است که ، این یک ساده سازی شدید است، اما من نمی خواستم زمینه مانع ایجاد شود. در اینجا من فقط فرض کردم که نرها نوشابه نمی خورند و ماده ها نوشابه می نوشند و می خواستم ببینم آیا روش های آماری به همین نتیجه می رسند یا خیر. وقتی تست دقیق فیشر را در R اجرا می کنم، نتایج زیر را دریافت می کنم: > fisher.test(soda_gender) آزمایش دقیق فیشر برای داده های شمارش داده ها: soda_gender p-value = 0.007937 فرضیه جایگزین: نسبت شانس واقعی برابر با 195 درصد نیست. فاصله اطمینان: 0.0000000 0.4353226 برآورد نمونه: شانس نسبت 0 در اینجا، از آنجایی که p-value 0.007937 است، نتیجه می گیریم که جنسیت و مصرف نوشابه با هم مرتبط هستند. من می دانم که تست دقیق فیشر مربوط به توزیع ابرژئومتری است. بنابراین من می خواستم با استفاده از آن به نتایج مشابهی برسم. به عبارت دیگر، شما می توانید این مشکلات را به صورت زیر مشاهده کنید: 10 توپ وجود دارد که 5 توپ با عنوان نر و 5 توپ با عنوان مونث مشخص شده است و شما 5 توپ را به طور تصادفی بدون جایگزینی می کشید و 0 توپ نر را مشاهده می کنید. . شانس این مشاهده چقدر است؟ برای پاسخ به این سوال، از دستور زیر استفاده کردم: > phyper(q=0,m=5,n=5,k=5,lower.tail=TRUE) [1] 0.003968254 سوالات من این است: 1) چگونه این دو نتایج متفاوت است؟ 2) آیا در استدلال من چیزی نادرست یا غیر دقیق وجود دارد؟ | تست دقیق فیشر و توزیع فوق هندسی |
110361 | من اینجا تازه کارم در کل 155 نمونه وجود دارد. پنج پیشبینیکننده مختلف Xi (i=1،2...5) برای پیشبینی Y استفاده میشوند، مانند X1 X2 X3 X4 X5 Y .... هدف یافتن بهترین پیشبینیکننده Xi برای پیشبینی Y است. اعتبار متقاطع (LOOCV) استفاده می شود. 154 داده در تمرین و 1 داده در آزمون در هر دور وجود دارد. در مجموع 155 دور وجود دارد. سوال من این است 1. چگونه می توان بهترین Xi را پیدا کرد؟ 2. آخرین خط رگرسیون چیست؟ با استفاده از کل 155 داده؟ یا انتخاب یک نتیجه از 155 راند؟ | اعتبار سنجی متقاطع یک طرفه در انتخاب پیش بینی کننده |
65705 | من باید فاصله ماهالانوبیس نمونه را در R بین هر جفت مشاهدات در یک ماتریس n x p از متغیرهای کمکی محاسبه کنم. من به راه حلی نیاز دارم که کارآمد باشد، یعنی فقط n(n-1)/2 فاصله محاسبه شود، و ترجیحا در C/RCpp/fortran و غیره پیاده سازی شود. **من فرض می کنم $\Sigma$، ماتریس کوواریانس، ناشناخته است و استفاده می شود ماتریس کوواریانس نمونه در جای خود قرار می گیرد.** من به خصوص به این سوال علاقه مند هستم زیرا به نظر می رسد هیچ روش اجماع برای محاسبه _ زوجی_ وجود ندارد. فاصله Mahalanobis در بسته «R»، یعنی در تابع «dist» و یا در تابع «cluster::daisy» اجرا نمیشود. تابع 'mahalanobis' فاصله دوتایی را بدون کار اضافی از برنامه نویس محاسبه نمی کند. این قبلاً در فاصله Pairwise Mahalanobis در R پرسیده شده بود، اما راه حل با رأی بالا نادرست به نظر می رسد (به چاپ های زیر مراجعه کنید): library(MASS) library(ICSNP) set.seed(0) x0<-mvrnorm(33, 1:10، دیاگ (c(Seq(1,1/2,l=10))،10)) x1<-pair.diff(x0) #C-implementation. dM<-mahalanobis(x1,colMeans(x1),var(x1)) این را با یک روش صحیح اما بسیار ناکارآمد (از آنجایی که n x n فاصله محاسبه شده) مقایسه کنید: dM2 = as.dist(apply(x0, 1, function(i) mahalanobis (x0, i, cov = cov(x0)))) نمودار (dM, dM2)  dM[1:10] # [1] 12.046 5.835 9.545 8.152 11.294 7.658 13.847 9.062 9.062 9.062 9.404 9.062 #3[3104]M. ] 23.49 11.79 17.55 14.57 24.10 15.02 25.62 19.84 18.01 14.65 (dM/dM2)[1:10] # [1] 0.5128370 0.49494940.49491. 0.4686635 0.5098689 0.5405308 # [8] 0.4566752 0.5222861 0.4527394 روش پست اصلی با ضریب 2 غیرفعال است، به علاوه تغییرات ناشناخته عجیب. (1) آیا من چیزی را در پست اصلی گم کرده ام؟ اختلاف بین این دو روش نگران کننده است (من آنجا پست می کردم اما شهرت کافی نداشتم) (2) این به اندازه کافی آسان است که خودم را در C کدنویسی کنم، اما احساس می کنم چیزی به این پایه است. باید یک راه حل از قبل موجود داشته باشد. یکی هست؟ (3) راه حل های دیگری که کوتاهی می کنند: HDMD::pairwise.mahalanobis() n x n فاصله را محاسبه می کند، زمانی که فقط n(n-1)/2 فاصله منحصر به فرد مورد نیاز است. ترکیبات::MahalanobisDist() امیدوارکننده به نظر می رسد، اما من نمی خواهم تابع من از بسته ای باشد که به rgl بستگی دارد، که به شدت توانایی دیگران را برای اجرای کد من محدود می کند. اگر این پیاده سازی کامل نباشد، ترجیح می دهم خودم بنویسم. کسی تجربه این کارو داره؟ | فاصله ماهالانوبیس به صورت زوجی |
95986 | گزارش اندازه افکت امروزه بسیار رایج است، اما من هنوز نتوانستم کتاب خوبی پیدا کنم که مقادیر مختلف اندازه افکت (d، g، r، و غیره) را با هم مقایسه کند. من مقاله Rosnow و Rosenthal (2009) را می شناسم، اما آنها هیچ نمونه ای از محاسبات ندارند. برای من گاهی اوقات مشخص نیست که از کدام انحراف استاندارد یا خطای استاندارد استفاده می شود و اندازه اثر چه محدوده ای می تواند داشته باشد. برای اینکه دقیق تر باشیم. در حال حاضر میخواهم نتایج آزمونهای تی مستقل و وابسته را گزارش کنم. من r را برای اندازههای افکت میدانم، اما برای مثال میخواهم d کوهن را محاسبه کنم. چگونه آن را انجام دهم؟ محدوده آن چقدر است؟ پیشاپیش متشکرم | ادبیات خوب در اندازه افکت |
50985 | این تکلیف من است: 20 میلیون مولکول DNA در یک کتابخانه برای توالی یابی DNA با توان بالا وجود دارد، هر اجرای توالی یابی می تواند 10 میلیون خواندن ایجاد کند (یعنی تجزیه و تحلیل 10 میلیون مولکول DNA)، و در احتمال انتخاب در هر DNA تنوع وجود دارد. مولکولی که از توزیع دوجمله ای منفی پیروی می کند (0.5=p، r=0.5). سوال این است که برای تجزیه و تحلیل 15 میلیون مولکول DNA منحصر به فرد، چند مرحله توالی یابی لازم است؟ کسی میتونه کمکم کنه؟ خیلی ممنون | چند اندازه گیری (هر بار 10 میلیون مولکول) برای تجزیه و تحلیل 15 میلیون مولکول منحصر به فرد در یک استخر 20 میلیونی لازم است؟ |
74671 | من به تازگی شروع به شرکت در کلاس تجزیه و تحلیل بقا کردم و در این سوال گیر کردم. اجازه دهید $T_1,...,T_n$ متغیرهای پیوسته تصادفی مستقل با تابع خطر $h_1(t),...,h_n(t)$. $T=min(T_1،...،T_n)$. و باید نشان دهیم که تابع خطر T $\sum_j{h_j(t)} است $ هر گونه راهنمایی یا راهنمایی قابل قبول است :) | تابع خطر - تجزیه و تحلیل بقا |
61328 | من از ابزار libsvm (http://www.csie.ntu.edu.tw/~cjlin/libsvm/) برای طبقه بندی بردار پشتیبانی استفاده می کنم. با این حال، من در مورد فرمت داده های ورودی گیج هستم. از README: > فرمت فایل داده های آموزش و تست به این صورت است: > > > <label> <index1>:<value1> <index2>:<value2> ... > . > > > > > هر خط حاوی یک نمونه است و با یک کاراکتر '\n' به پایان می رسد. برای طبقهبندی، «<label>» یک عدد صحیح است که برچسب کلاس را نشان میدهد (کلاس چندگانه پشتیبانی میشود). برای رگرسیون، <label> مقدار هدف است که می تواند هر عدد واقعی باشد. برای SVM یک کلاس، از آن استفاده نمی شود، بنابراین می تواند هر عددی باشد. > جفت «<index>:<value>» یک مقدار مشخصه (ویژگی) می دهد: «<index>» > یک عدد صحیح است که از 1 شروع می شود و «<value>» یک عدد واقعی است. تنها استثناء هسته از پیش محاسبه شده است که در آن «<index>» از 0 شروع می شود. بخش > هسته های از پیش محاسبه شده را ببینید. شاخص ها باید به ترتیب صعودی باشند. برچسبها > در فایل آزمایشی فقط برای محاسبه دقت یا خطاها استفاده میشوند. اگر آنها > ناشناخته هستند، فقط ستون اول را با هر عددی پر کنید. من سوالات زیر را دارم: 1. استفاده از <index> چیست؟ چه هدفی را دنبال می کند؟ 2. آیا بین مقادیر شاخص یکسان نمونه های داده مختلف مطابقت وجود دارد؟ 3. اگر نمایه ای را در این بین از دست بدهم یا رد شوم چه می شود؟ من میپرسم چون فایل داده *heart_scale* که در بسته برای libsvm موجود است، در خط 12، ایندکس از 2 شروع میشود. توجه: ابزار tools/checkdata.py ارائه شده به همراه بسته می گوید که فایل *heart_scale* صحیح است. | فرمت داده libsvm |
51056 | من روی یک مولد بسته کار می کنم که می تواند بسته هایی با 50 اندازه مختلف تولید کند و اندازه بسته ها از توزیع نمایی پیروی می کنند. با توجه به اندازه بسته متوسط، چگونه می توانم 50 اندازه بسته را از توزیع نمایی پیوسته انتخاب کنم تا توزیع گسسته به دست آمده دقیقاً از توزیع پیوسته پیروی کند. پیشاپیش سپاسگزارم. | توزیع نمایی گسسته |
82094 | 96 شرکت کننده به طور تصادفی در یکی از دو گروه بدون توجه به سطح انگیزه آنها قرار گرفتند. شرکتکنندگان در هر دو گروه در معرض هر دو شرایط آزمایشی پیامهای قابشده به دست آوردن و پیامهای قاب از دست دادن قرار گرفتند. تنها تفاوت این بود - تعادل به گونهای که به شرکتکنندگان پیام فریم افزایش در گروه 1 نشان داده شد و پیام فریم ضرر متناظر آن در گروه 2 نشان داده شد. بنابراین در اینجا فاکتور درون گروهی عبارت است از: شرایط چارچوب - فریم افزایش و فریم ضرر بین میانگین فاکتور گروه. که این باید در دو گروه متفاوت باشد، اما در مطالعه من، هر دو شرکتکننده با انگیزه بالا و پایین در هر دو گروه حضور داشتند و در معرض پیامهای فریم افزایشی و فریم پایین قرار داشتند. شرکت کنندگان در دو گروه متفاوت بودند اما در معرض طراحی مشابه اما متوازن قرار گرفتند. من مطمئن نیستم که آیا این یک طرح آنووا مخلوط 2×2 با شرایط کادربندی در داخل گروه و انگیزه بین فاکتور گروه است. لطفا کمک کنید. | 2 در 2 آنوا مخلوط؟ |
11039 | من میخواهم یک تحلیل رگرسیون چندگانه برای اندازهگیری تأثیر متغیرهای مستقل مختلف بر روی یک متغیر وابسته پیوسته که قدرت یک نهاد سیاسی را اندازهگیری میکند، اجرا کنم. مشکل این است که داده ها در سال های مختلف اندازه گیری می شوند. بنابراین من ممکن است داده هایی را برای کشورهای A و B فقط برای سال 2009 و برای کشورهای C و D فقط برای سال 2010 داشته باشم. برای افزایش نمونه خود، می خواهم از همه کشورها استفاده کنم. چگونه می توانم این کار را انجام دهم، یعنی کدام روش آماری مناسب تر است؟ خیلی ممنون | چگونه می توان از نمونه های کشور مقطع سال های مختلف در تحلیل رگرسیون چندگانه استفاده کرد؟ |
82095 | من یک جدول با 11 ستون و 2 ردیف دارم. ستون 1 گروه کنترل است و من می خواهم تمام ستون های دیگر را با آن مقایسه کنم. من علاقه ای به مقایسه ستون های 2 تا 11 با یکدیگر ندارم و نگرانم که تصحیح بونفرونی (که به نظر می رسد تنها گزینه موجود است) با ضرب مقدار p در 55 یا هر تعداد مقایسه که باشد جبران شود. آیا چیزی شبیه به Dunnett وجود دارد تا بتوانم فقط با گروه کنترل مقایسه کنم؟ یا فقط باید 10 تست کای دو انجام دهم و هر مقدار p را در 10 ضرب کنم؟ همچنین، وقتی از Bonferroni'sin a chi-squared استفاده می کنم، آیا می توان مقادیر p را دقیق مشاهده کرد؟ متشکرم | SPSS: مقایسه چندگانه Crosstabs |
66890 | من می خواهم یک مدل چند بعدی چند سطحی را در WinBUGS تجزیه و تحلیل کنم. مدل به صورت زیر است (N=2362 دانش آموز به K=45 مورد یک آزمون پاسخ می دهند، دانش آموزان در J=116 مدرسه تودرتو هستند): model{ #responses for(i در 1:N){ for(j در 1:K ){logit(p[i,j])<- a1[j]*th[i,1]+a2[j]*th[i,2]-b[j] y[i,j]~dbern(p[i,j] ) } th[i,1:2]~dmnorm(mu[sc[i],1:2],tau.p[1:2,1: 2]) } #سطح مدرسه برای(j در 1:J){ mu[j,1:2]~dmnorm(m[j,1:2],tau.s[1:2,1:2]) } #priors for(j در 1:J){ m[j,1:2]~dmnorm(m0[1:2],cov[1:2,1:2]) } tau.p[1:2, 1:2]~dwish(cov[1:2,1:2],2) tau.s[1:2,1:2]~dwish(cov[1:2,1:2],2) sigma.p[1:2,1:2]<-inverse(tau.p[,]) sigma.s[1:2,1:2]<-inverse(tau.s[,]) s2p<-sum (sigma.p[,]) s2s<-sum(sigma.s[,]) rho<-(s2s)/(s2s+s2p) a1[1]~dlnorm(0,4) a2[1]<-0 b[1]~dnorm(0,1) for(s in 2:K) { a1[s]~dlnorm(0,4) a2 [s]~dlnorm(0,4) b[s]~dnorm(0,1) } } من این توابع را به عنوان مقادیر اولیه تنظیم کردم: ini<-function(){ list(tau.p=ماتریس(گاما(4،100،100)، 2،2)، tau.s=ماتریس(گاما(4،100،100)، 2،2)، th=rmvnorm(N، میانگین=c(0،0)، سیگما =diag(2))، m=rmvnorm(J,mean=c(0,0),sigma=diag(2)) mu=rmvnorm(J,mean=c(0,0),sigma=diag(2)), a1=rlnorm(K,0, 0,4), a2=c(NA,rlnorm(K-1,0, 0,4) ), b=rnorm(45,0,0.5)) } من از بسته rube در R برای بررسی و اجرای تجزیه و تحلیل خود استفاده می کنم و همه چیز خوب به نظر می رسد. وقتی مدل را اجرا می کنم، Trap 66 (postcondition violated) یا نتیجه واقعی تعریف نشده را دریافت می کنم. من فکر می کنم مشکل از حروف اول است اما نمی دانم چگونه آن را حل کنم. هر ایده ای؟ | تله 66 در WinBUGS در مدلسازی بیزی سلسله مراتبی |
66893 | با توجه به اینکه من مقداری داده برای قیمت ها دارم و چندین گروه قیمت دارم، مثلاً Data = [15$,20$,20$,10$,15$,25$,20$,15$] و گروه ها: زیر 5$>=5$, <$10>= 10 دلار، < 15 دلار >= 15 دلار، < 20 دلار > = 20 دلار، < 25 دلار ... و من می خواهم روشی داشته باشم تا بفهمم کدام گروه بهترین است. برای اختصاص داده های خود به. کسی میتونه به من پیشنهادی بده؟ با تشکر | طبقه بندی گروهی برای داده های تک متغیره R |
82091 | متاآنالیز تخمینی از یک همبستگی کلی ایجاد می کند. چگونه می توانیم بررسی کنیم که یک تخمین معتبر است. | آیا روشی برای آزمایش اهمیت برآورد متا تحلیلی همبستگی بر اساس مجموعه ای از همبستگی های نمونه وجود دارد؟ |
25148 | من هنگام انجام برخی تجزیه و تحلیل با R با مشکل زیر مواجه هستم. من یک دیتافریم مانند این دارم: نام | گروه | تعداد نفر 1 | A | 3 نفر 2 | A | 1 نفر 3 | A | 0 نفر 1 | ب | 5 نفر 2 | ب | 0 نفر 3 | ب | 1 نفر 1 | ج | 1 و من باید آن را بسط بدهم (مطمئن نیستم که آیا اصطلاح مناسب است) تا به این صورت باشد: شخص 1 | یک شخص 1 | یک شخص 1 | یک شخص 2 | یک شخص 1 | B شخص 1 | B و غیره. بنابراین مقدار جفت Person 1 و A (در این مثال، 3) را می گیرد و با شخص 1 و A سه ردیف می سازد و این کار را برای هر Person - Group -combination انجام می دهد. نمی توانم هیچ کلمه خوبی برای جستجوی آنلاین پیدا کنم. | نحوه گسترش قاب داده در R |
61325 | من به دنبال بستهای برای تخمین میانگین پاسخ طولی در شرایط انصراف یکنواخت با استفاده از روش بهروزترین مبتنی بر GEEs، در `R` هستم (روشهای AIPW، دو برابر قوی، هرچه میخواهید تماس بگیرید آن). من خیلی سخت گوگل کردم و هیچ چیز مفیدی به ذهنم نرسید. بنابراین همه ما در یک صفحه هستیم، من دنباله ای از بردارهای تصادفی پیوسته و سانسور شده $\mathbf Y_1، ...، \mathbf Y_n$ دارم که در آن $\mathbf Y_i = (Y_{i1}، ...، Y_{ iJ})$ و علاقه مند به تخمین میانگین پاسخ در زمان $J$ هستم. داده ها در معرض انصراف هستند، با زمان انصراف $S_i$. تحت MAR (به طور تصادفی وجود ندارد) فکر می کنم می توانم $\mu_J = E(Y_J)$ را به صورت $$ \frac 1 n \sum_{i= 1} ^ n \frac{I(S_i = J) Y_{iJ} تخمین بزنم }{\pi(\mathbf Y_i)} \tag{$*$} $$ جایی که $\pi(\mathbf Y_i) = P(S_i = J | \mathbf Y_i)$ احتمال رسیدن به پایان مطالعه با توجه به $\mathbf Y_i$ است. من می توانم مدلی را برای $\pi(\mathbf Y_i)$ فرض کنم (احتمالاً از نظر تابع خطر) و تحت MAR می توانم آن را در اصل به خوبی تخمین بزنم. بنابراین میتوانم خطرات را با استفاده از دادههای مشاهدهشده برای تخمین وزنها مدلسازی کنم و سپس آنها را به آن معادله متصل کنم. تا جایی که من می دانم این برآوردگر پیشرفته نیست - می تواند با وزنه های بیش از حد بزرگ و (فکر می کنم) مشکلات دیگری داشته باشد. ادبیات زیادی در مورد تخمین روشهای مبتنی بر معادله وجود دارد که معادلات تخمین تقویتشده را حل میکند، که به همان روحیه است اما مشکلات را با $(*)$ برطرف میکند. مشکل این است که من هیچ نرم افزاری برای حل این مشکل در `R` پیدا نمی کنم. من چیزهایی را دیدهام که هدفشان MSMها (مدلهای ساختار حاشیهای) و استنتاج علّی است، اما هیچ چیز بهویژه برای دادههای از دست رفته طولی با انصراف وجود ندارد. | تخمین وزنی احتمال معکوس داده های طولی سانسور شده در R? |
50987 | من باید از تکنیک bagging ( _bootstrap aggregating_ ) برای آموزش یک طبقهبندی جنگل تصادفی استفاده کنم. من در اینجا شرح این تکنیک یادگیری را خواندم، اما متوجه نشدم که چگونه در ابتدا مجموعه داده را سازماندهی کردم. در حال حاضر ابتدا همه نمونه های مثبت و بلافاصله بعد از موارد منفی بارگذاری می کنم. علاوه بر این، نمونههای مثبت کمتر از نیمی از نمونههای منفی هستند، بنابراین با نمونهگیری یکنواخت از مجموعه دادهها، احتمال به دست آوردن یک مثال منفی بیشتر از به دست آوردن یک مثال مثبت است. چگونه باید مجموعه داده اولیه را بسازم؟ آیا باید مجموعه داده اولیه حاوی مثال های مثبت و منفی را به هم بزنم؟ | ساخت مجموعه داده برای روش آموزش جنگل تصادفی |
66892 | من یک سوال در مورد چگونگی حل این مشکل دارم: دو پیش بینی کننده A و B وجود دارد. اگر A مثبت باشد 60٪ احتمال بارندگی وجود دارد. اگر B مثبت باشد 60 درصد احتمال بارندگی وجود دارد. A و B تصمیم گیرنده مستقل هستند. وقتی A و B هر دو مثبت هستند، شانس بارندگی چقدر است. چگونه به این مشکل در چارچوب بیزی فکر کنیم؟ حدس میزنم شرایط کافی برای حل این مشکل وجود ندارد، اما آیا میتوانیم نوعی فاصله اطمینان ایجاد کنیم؟ با تشکر | چگونه این سوال احتمال را حل کنیم |
110362 | روز گذشته، معلم من به من گفت که هر زمان یک مقدار متوسط گزارش شد، خطای استاندارد میانگین باید در کنار آن گزارش شود. اما مطمئناً همیشه اینطور نیست؟ برای مثال، فرض کنید میانگین گلهایی که یک تیم فوتبال در هر بازی در یک فصل به ثمر میرساند را محاسبه میکنیم. ما در این مورد از یک جمعیت نمونه گیری نمی کنیم - تعداد گل هایی که تیم به ثمر می رساند جمعیت است. آیا من درست می گویم که خطای استاندارد در این مورد نیازی به گزارش ندارد؟ | آیا باید خطای استاندارد میانگین را در زمانی که نمونه جامعه است گزارش دهید؟ |
56202 | مایلم تحلیل موازی انجام دهم تا تعیین کنم چه تعداد عامل را باید از تحلیل عاملی اکتشافی حداکثر احتمال استخراج کنم. من به برنامه ای ارجاع شده ام که مقادیر ویژه را برای داده های تصادفی با استفاده از مونت کارلو برای تجزیه و تحلیل مؤلفه های اصلی محاسبه می کند. با این حال، من تجزیه و تحلیل مؤلفه های اصلی را انجام نمی دهم. من در حال انجام تحلیل عاملی اکتشافی حداکثر احتمال هستم. به من گفته شده است که شما می توانید آن را برای هر نوع EFA انجام دهید، اما من مطمئن نیستم. به عنوان مثال، تعدادی از ماکروهایی که من دیده ام نیاز دارند که مشخص کنید آیا از PCA یا PAF استفاده می کنید. این به وضوح به این معنی است که تا حدودی اهمیت دارد. توجه داشته باشید که من سعی کردم تجزیه و تحلیل موازی را برای PAF با استفاده از موتور در http://ires.ku.edu/~smishra/parallelengine.htm انجام دهم. متأسفانه، نتایج چندان منطقی نبود. هر مقدار ویژه در دادههای من بیشتر از مقدار ویژه وبسایت بود، که فکر میکنم به این معناست که باید بیش از 100 فاکتور اضافه کنم. سؤالات: * آیا می توانم از نتایج تحلیل موازی طراحی شده برای استفاده با PCA برای تعیین اینکه چه تعداد عامل را باید از تحلیل عامل حداکثر احتمال استخراج کنم استفاده کنم؟ * اگر نه (من انتظار دارم که پاسخ سوال فوق نه باشد)، چگونه می توانم یک تحلیل موازی انجام دهم تا تعیین کنم چه تعداد عامل را باید از تحلیل عاملی اکتشافی حداکثر احتمال استخراج کنم؟ | آیا می توانم تحلیل موازی با هر نوع تحلیل عاملی اکتشافی/تحلیل مؤلفه اصلی انجام دهم؟ |
61327 | من باید مدلی ایجاد کنم که مخلوطی از توزیع نرمال و log-normal باشد. برای ایجاد آن، باید 2 ماتریس کوواریانس و پارامتر اختلاط (کل = 7 پارامتر) را با به حداکثر رساندن تابع log-likelihood تخمین بزنم. این بیشینه سازی باید توسط روال «nlm» انجام شود. از آنجایی که من از داده های نسبی استفاده می کنم، میانگین آن مشخص است و برابر با 1 است. قبلاً سعی کردم این کار را در 1 بعدی (با 1 مجموعه داده نسبی) انجام دهم و به خوبی کار می کند. با این حال، وقتی مجموعه دوم از دادههای نسبی را معرفی میکنم، نتایج غیرمنطقی برای همبستگی و پیامهای هشدار زیادی دریافت میکنم. برای تخمین پارامترها ابتدا تابع log-likelihood را با 2 دستور «dmvnorm» و «dlnorm.plus» تعریف کردم. سپس مقادیر شروع پارامترها را اختصاص می دهم و در نهایت از روال nlm برای تخمین پارامترها استفاده می کنم (به اسکریپت زیر مراجعه کنید). P <- read.ascii.grid(d:/Documents/JOINT_FREQUENCY/grid_E727_P-3000.asc, return.header= FALSE ) V <- read.ascii.grid(d:/Documents/JOINT_FREQUENCY/7_V_E7 .asc، return.header= FALSE ) p <- c(P) # تبدیل ماتریس به بردار v <- c(V) p<- p[!is.na(p)] # حذف مقادیر NA v<- v[!is.na(v )] p_rel <- p/mean(p) #تبدیل داده ها به مقادیر نسبی v_rel <- v/mean(v) PV <- cbind(p_rel, v_rel) # create ماتریسی از بردارها L <- تابع(par,p_rel,v_rel) { return (-sum(log((1- par[7])*dmvnorm(PV, mean=c(1,1), sigma= matrix(c (par[1], par[1]*par[2]* par[3], par[1]* par[2]* par[3], par[2] ),nrow=2, ncol=2))+ par[7]*dlnorm.rplus(PV، meanlog=c(1,1)، varlog= ماتریس(c(par[4]،par[4]*par[5]*par[6 ],par[4]*par[5]*par[6],par[5], nrow=2,ncol=2)) ))) } par.start<- c(0.74, 0.66، 0.40، 1.4، 1.2، 0.4، 0.5) # برآوردگرهای log-likelihood نتیجه <-nlm(L,par.start,v_rel=v_rel,p_rel=p_rel, hessian=TRUE, iterlim=200, check.analyticals= Il y a eu 50 avis ou plus (utilisez warnings() pour voir les 50 premiers) 1: در log(eigen(sigma, متقارن = TRUE, only.values = TRUE)$values) : تولید از NaN 2: در sqrt(2 * pi * det(varlog) ): تولید از NaN 3: در nlm (L، par.start، v_rel = v_rel، p_rel = p_rel، hessian = TRUE، ... : NA/Inf جایگزین شده با حداکثر مقدار مثبت 4: در log (ویژن (سیگما، متقارن = TRUE، only.values = TRUE)$values) : تولید از NaN 5: در sqrt (2 * pi * det (varlog)): تولید از NaN 6: در nlm (L، par.start، v_rel = v_rel، p_rel = p_rel، hessian = TRUE، ... : NA/Inf با حداکثر مقدار مثبت جایگزین شد ...... تا 50 par.hat <- result$estimate cat(sigN_p =، par[1 ],\n،sigN_v =، par[2]،\n،rhoN =، par[3]،\n،sigLN_p =، par[4],\n،sigLN_v =، par[5],\n،rhoLN =، par[6],\n، پارامتر اختلاط =، par[7] \n) sigN_p = 0.2919377 sigN_v = 0.4445056 rhoN = 1.737904 sigLN_p = 2.911735 sigLN_v = 2.539405 rhoLN = 0.3580525 پارامتر اختلاط = 0.8112917 آیا کسی میداند در مدل من چه اشکالی دارد یا چگونه باید این پارامترها را در 2 بعدی پیدا کنم؟ از اینکه وقت گذاشتید و سوالات من را بررسی کردید بسیار سپاسگزارم. | برآورد کوواریانس و پارامتر اختلاط با یک مدل نرمال-لگ نرمال دو متغیره |
114943 | تابع «zeroinfl» در بسته «pscl» در R فرض میکند که صفرها هم شامل صفرهای کاذب و هم صفرهای واقعی هستند. من یک مجموعه داده بادشده صفر دارم که مطمئن هستم فقط صفرهای واقعی را شامل می شود. آیا استفاده از تابع «zeroinfl» در این مجموعه داده مناسب است؟ یا اینکه تابع «مانع» مناسبتر است؟ | مدل دوجمله ای منفی با تورم صفر برای صفرهای واقعی |
86940 | آیا کسی می تواند به طور خلاصه در چارچوب رگرسیون های پارامتری و حجم نمونه $N$ روشن کند که میزان همگرایی چقدر است؟ افزایش توان $k$ در $N^k$ (یا $N^{-k}$) باعث افزایش یا کاهش این نرخ می شود و چرا این خوب (یا بد) در نظر گرفته می شود؟ دلیل اینکه من میپرسم این است که وقتی «نرخ همگرایی» را در گوگل جستجو میکنم، هر دو منبع را پیدا میکنم که ادعا میکنند نرخ آن $N^{0.5}$ است، در حالی که منابع دیگر ادعا میکنند که این نرخ $N^{-0.5}$ است. هر دو نمی توانند درست باشند. | تعریف دقیق نرخ همگرایی |
13622 | من در یک شرکت اصلاح نباتات کار می کنم. در برخی اوقات فراغت، اخیراً برخی از دادههایمان را کاوش کردم (آزمایشهای بازده)، عمدتاً فقط از روی کنجکاوی و میخواستم R را بهتر یاد بگیرم. من با ترسیم انحراف استاندارد میانگین های ایجاد شده با تعداد تکرارهای مختلف شروع کردم (در داده های واقعی هر رنگ نشان دهنده یک دانه خاص است که در یک محیط خاص رشد کرده است). مانند این (مثال ها داده های بازده واقعی نیستند):  شکل 1. انحراف استاندارد میانگین های ایجاد شده از تعداد متفاوت اعداد به طور معمول توزیع شده است. این برای من کاملا قابل درک به نظر می رسد. سپس به این ایده رسیدم که انحراف استاندارد را نسبت به انحراف استاندارد 1 تکراری رسم کنم:  شکل 2. انحراف استاندارد، نسبت به استاندارد انحراف در 1 تکرار، میانگین های ایجاد شده از تعداد متفاوت اعداد توزیع شده معمولی. 2 بدیهی است که این انحراف استاندارد نسبی رابطه قوی با تعداد تکرارها دارد. مدتی است به آن فکر میکنم، اما برای فرمولبندی ریاضی پشت این مشکل دارم. بنابراین سوال من این است: ** لطفاً کسی می تواند به من توضیح دهد که چرا ما رابطه را در شکل دوم تجسم می کنیم؟** (احساس می کنم که پاسخ باعث می شود من از پرسیدن کاملاً احمق باشم. من. همچنین متوجه باشید که این ممکن است بسیار افتضاح به نظر برسد مانند اینکه من سعی می کنم شما را وادار کنم که یک تکلیف برای من انجام دهید، اما من واقعاً کنجکاو هستم و به داده های زیادی دسترسی دارم اما آموزش آمار و آمار زیادی ندارم. ما یک آمارگیر داریم که میتوانستم از او بپرسم، اما او در تعطیلات است.) | رابطه بین تعداد تکرار و انحراف معیار میانگین ورودی |
61324 | دیروز امتحان MBA خود را انجام دادم، با یک سوال در Probability مواجه شدم، سوالات را مطرح می کنم لطفا کسی می داند پاسخ دهد؟ > یک آژانس تحقیقاتی در حال برنامه ریزی برای انجام یک نظرسنجی در مورد دانشجویان > نگرش نسبت به فیس بوک است. آنها می خواهند داده ها را از دانشجویان مهندسی > در سراسر تامیلنادو جمع آوری کنند. حجم نمونه 1000 است. یک طرح نمونه برداری > با استفاده از تکنیک های نمونه گیری احتمالی تهیه کنید. | با استفاده از تکنیک های نمونه گیری احتمالی، طرح نمونه برداری تهیه کنید |
82540 | من باید الگوی استفاده از یک جزء نرم افزاری را اندازه گیری کرده و به افراد غیرآمار برسانم. به نظر میرسد که بر اساس دادهها، استفاده از یک توزیع خوب و هموار دنباله سنگین دنبال میکند: بسیاری از کاربران اصلاً از این مؤلفه استفاده نمیکنند، تعداد کمی از کاربران از آن استفاده زیادی میکنند. من نمیخواهم گزارش خود را با استفاده از یک میانگین خلاصه کنم، زیرا معتقدم ماهیت واقعی دادهها را پنهان میکند و افراد غیرمتخصص به راحتی آن را بهعنوان توزیع عادی تفسیر میکنند. از سوی دیگر، من نمی توانم توزیع را ترسیم کنم و شروع کنم به توضیح اینکه قانون قدرت چیست، چرا شبیه توزیع عادی نیست، چرا پرت ها واقعاً پرت نیستند، بلکه کاربران قابل انتظار هستند و غیره... بنابراین من در نهایت توزیع را به 3 قسمت تقسیم کرد: کاربرانی که کمی از کامپوننت استفاده می کنند، کاربران متوسط و کاربران قدرتمند (که از کامپوننت زیاد استفاده می کنند). برای هر گروه من مقادیر میانگین (و خطای میانگین) را اندازهگیری کردم و به نظر من گزارش این چند اعداد عملیتر و قابل هضمتر توسط افراد غیر متخصص است. نمی دانم آیا راه بهتری برای انجام این نوع تحلیل برای افراد غیر متخصص وجود دارد؟ هر گونه پیشنهاد بیش از خوش آمدید! | چگونه می توان الگوی استفاده را که از توزیع دم سنگین پیروی می کند برای افراد غیر متخصص توضیح داد؟ |
82093 | من یک پایگاه داده با 32344 دوره از دانشگاه های سوئد دارم. یک دوره دارای ویژگی های زیر است: کد رشته خصوصی; نام رشته خصوصی; توضیحات رشته خصوصی; رشته خصوصی localName; رتبه های فهرست خصوصی<CourseRank>; خصوصی فهرست <نظر> نظرات; فهرست خصوصی<UserBook> UserBooks; فهرست خصوصی<CourseBook> coursebooks; دانشگاه خصوصی؛ private String mamosteName; رشته خصوصی رشته لینک; نیازهای رشته خصوصی پیوند; رشته خصوصی localCourseLink. رشته خصوصی localRequirementsLink. سطح رشته خصوصی؛ دوره رشته خصوصی; private String timeOfDay; نوع رشته خصوصی; سرعت int خصوصی؛ خصوصی int numberOfAssignments; خصوصی int numberOfProjects; خصوصی int numberOfExams; اعتبارات دوگانه خصوصی؛ اکثر دوره ها فقط دارای نام، دانشگاه، سطح، دوره، سرعت، نوع و واحد هستند اما هدف این است که اکثر دوره ها همه چیز را پر کنند. هر دوره دارای لیستی با رتبه است که اساساً ارزیابی دوره از دانشجویان است. یک رتبه به این صورت است: حجم کار خصوصی int. ساختار int خصوصی; معلمان خصوصی private int avarageScore; نظر رشته خصوصی; تاریخ رشته خصوصی; شناسه کاربری خصوصی int; من می خواهم نوعی یادگیری ماشینی را در این پایگاه داده اعمال کنم. من به استفاده از الگوریتم های خوشه بندی برای دسته بندی دروس مشابه با یکدیگر فکر می کنم. چیزی که من در ذهن داشتم چیزی شبیه به این بود: 1. اجازه دهید یک الگوریتم خوشه بندی نام و شرح یک دوره را مقایسه کند تا زمانی که کاربر در حال جستجو در وب سایت است، بازدیدهای مشابه را نشان دهد. 2. یا از تمام ویژگی های یک دوره، از جمله رتبه های دوره برای طبقه بندی دوره ها به خوشه ها استفاده کنید. این میتواند به دانشآموزان کمک کند تا با پیشنهاد دورههایی مشابه دورههایی که بهعنوان مورد علاقه علامتگذاری کردهاند یا رتبه خوبی دادهاند، دورههایی را پیدا کنند که دوست دارند. آیا این منطقی است و چه الگوریتم هایی را پیشنهاد می کنید؟ پیشنهاد دیگری در مورد اینکه چه نوع یادگیری ماشینی سرگرم کننده ای می توانم در اینجا اعمال کنم وجود دارد؟ با احترام، نیلسی | خوشه بندی دروس دانشگاهی با استفاده از یادگیری ماشین |
96182 | من تازه یک مبتدی هستم. من یک نمونه 71 دارم. می خواهم یک رگرسیون پواسون انجام دهم. آیا این برای تخمین مدل پواسون کافی است؟ آیا باید فقط از تعداد به عنوان متغیر $Y$ استفاده کنم یا باید از درصدها (یعنی تعداد تبدیل به درصد) استفاده کنم؟ برای اندازه نمونه داده شده تا چند متغیر X$ می توانم در یک مدل استفاده کنم؟ | آیا می توان رگرسیون پواسون را با یک نمونه کوچک اجرا کرد؟ |
56201 | من در حال انجام تجزیه و تحلیل عاملی بر روی 40 متغیر سطح فاصله هستم و دو نگرانی فوری دارم: 1. عامل تعیین کننده '6.608E-006' است، که بسیار کمتر از برش '0.00001' است. من به عقب برگشتم و ماتریس همبستگی را غربال کردم تا همبستگی های مهم و بسیار زیاد بین متغیرها را پیدا کنم. چیزی به «0.8» هم نزدیک نمی شود. حالا چی؟ آیا به هر حال ادامه می دهم، فقط مقدار تعیین کننده را یادداشت می کنم، یا کار دیگری وجود دارد که باید برای تنظیم داده ها برای حذف چند خطی بودن انجام دهم؟ 2. KMO یک «.846» قابل احترام است، اما با بررسی ماتریس ضد همبستگی، پنج متغیر پیدا کردم که مقادیر فردی KMO آنها کمتر از «0.5» بود. حالا چی؟ مستثنی کردن؟ نادیده بگیرید، زیرا KMO کلی در حال حاضر به اندازه کافی بالا است؟ | تحلیل عاملی: وقتی تعیین کننده تقریباً صفر است و زمانی که KMO برای یک متغیر کم است چه باید کرد؟ |
16352 | من یک رگرسیون خطی ساده «mod <- lm(y ~ x)» انجام میدهم و باقیماندههای آن را رسم میکنم و «plot(mod$residuals)» را انجام میدهم. دو سوال: 1. من باید خط رگرسیون را در نموداری که باقیمانده ها را ترسیم کردم رسم کنم، چگونه می توانم این کار را انجام دهم؟ 2. من باید نقاط این خط را بدانم، زیرا باید این خط را در برنامه دیگری رسم کنم، بنابراین به آن نقاط (به عنوان بردار) نیاز دارم، چگونه می توانم انجام دهم؟ متشکرم | چگونه نقاط خط رگرسیون خطی را بدست آوریم؟ |
2430 | من سعی می کنم تقریباً 3٪ از جمعیت را برای برخی ویژگی های مشخص شناسایی کنم. درخت تصمیم استاندارد یا رگرسیون لجستیک نتایج مثبت کاذب زیادی می دهد. آیا شانسی وجود دارد که طبقه بندی کننده مبتنی بر قوانین بتواند عملکرد را بهبود بخشد؟ من می خواهم تقریباً 75٪ از فراخوان را با 95٪ دقت به دست بیاورم (یعنی FalsePositives <= 5٪ از مثبت) | چه زمانی طبقهبندیکننده مبتنی بر قوانین از درختهای تصمیم بهتر عمل میکند؟ |
25144 | من یک هیستوگرام با دو قله دارم و می خواهم توزیع احتمال مربوطه را ایجاد کنم. من از کد متلب زیر استفاده کرده ام: A=mydata; M1=max(A); M2=min(A); I=(0:100).*(M1-M2)./100+M2; [n,x]=hist(A,I); bar(x,n/(1000*0.352)) من اغلب این کد را پیدا کردم تا توضیح دهم چگونه میتوانیم توزیع prob را برای هیستوگرام اعداد تصادفی که به طور معمول توزیع شدهاند پیدا کنیم، اما نمیدانم آیا این برای هیستوگرام با دو قله درست است یا خیر. و یک توزیع احتمال نرمال شده ایجاد کنید. هیستوگرام در اینجا نشان داده شده است:  | یک توزیع احتمال از یک هیستوگرام با دو قله در matlab ایجاد کنید |
105727 | فرض کنید $\textbf{Y} = (Y_{1}, ... , Y_{n})$ یک نمونه تصادفی از توزیع $N(\mu, \sigma_{0}^{2})$ است که در آن $ \mathrm{E}(Y_{i}) = \mu$ ناشناخته است اما $\mathrm{SD}(Y_{i}) = \sigma_{0}$ شناخته شده است. می توان یک فاصله اطمینان برای میانگین توزیع نرمال با انحراف معیار شناخته شده با استفاده از کمیت محوری ایجاد کرد: $$Q = \frac{\bar{Y} - \mu}{\sigma_{0} / \sqrt{n }}$$ سپس، فرض کنید $\mathrm{E}(Y_{i}) = \mu_{0}$ شناخته شده است اما $\mathrm{SD}(Y_{i}) = \sigma$ ناشناخته است، چرا نمیتوانیم از کمیت محوری زیر برای ایجاد فاصله اطمینان برای انحراف استاندارد با میانگین شناخته شده استفاده کنیم؟ $$Q = \frac{\bar{Y} - \mu_{0}}{\sigma / \sqrt{n}}$$ | فاصله اطمینان برای انحراف معیار یک توزیع نرمال با میانگین شناخته شده |
93971 | من می خواهم از شما در مورد برخی از سوالات شبیه سازی مقادیر شدید کمک بگیرم. به عنوان مثال، من کد R زیر را برای تولید QQplot برای داده های توزیع شده معمولی نوشته ام که اندازه نمونه را از 10 تا 1B تغییر می دهد. همانطور که در نمودار زیر مشاهده می شود، من مجبور شدم تا 1B نمونه بروم تا مقادیر شدید @ 6 Sigma را از میانگین ببینم. par(mfrow=c(2،3)) برای (i در c(10، 100، 1e+3، 1e+4، 1e+5، 1e+6، 1e+7، 1e+8، 1e+9)) { data <- rnorm(i, mean = 0, sd = 1) qqnorm(data, main=sprintf(Sample Size=%d, من))؛ qqline(data, col='red') } **Question1**: من فقط به مقادیر افراطی (دم) علاقه مند هستم. اگرچه نمونهبرداری MC بیشتر دادهها را نزدیک به میانگین تولید میکند و من نمیدانم که از کدام روش میتوانم برای جمعآوری چند (تا شاید هزاران) نمونه استفاده کنم و در عین حال مقادیر بسیار بالایی را تا 6 سیگما از میانگین دریافت کنم. **سوال2**: به نظر می رسد QQplot تنها پس از ~ 1K امتیاز قابل توجه است. همچنین، بدون توجه به اندازه نمونه، QQplot همیشه برخی از tail-off ها را نشان می دهد. این باید یک خطای نمونه باشد اما مطمئن نیستم. لطفاً هر گونه ادبیاتی که این رفتار را توضیح می دهد به من نشان دهید؟  | شبیه سازی ارزش فوق العاده با مونت کارلو |
93972 | متغیر تصادفی $X$ دارای تابع چگالی احتمال \begin{معادله*} f\left(x\right) =\left\\{ \begin{array}{ccc} n\left( \frac{x}{\theta است }\right) ^{n-1} & , & 0<x\leqslant \theta \\\ n\left( \frac{1-x}{1-\theta }\right) ^{n-1} & , & \theta \leqslant x<1% \end{array}% \right. \end{معادله*} نشان میدهد که اگر $k\in \mathbb{N}$ \begin{معادله*} \mathrm{E}\left(X^{k}\right) =\frac{n\theta ^{ k+1}}{n+k}+\sum% \limits_{i=0}^{k}\left( -1\right) ^{i}\binom{k}{k-i}\frac{n}{n+i}\left( 1-\theta \right) ^{i+1} \end{equation*} پیدا کردن اولین عبارت $\mathrm{E}\left( X^{k}\right) $ اما من نتوانستم مورد دوم را پیدا کنم. فکر می کنم باید از ویژگی های توزیع بتا استفاده کنم. من سعی کردم انتگرال \begin{معادله*} \int\nolimits_{\theta }^{1}nx^{k}\left( \frac{1-x}{1-\theta }\right) ^{ را شبیهسازی کنم n-1}% \mathrm{d}x \end{equation*} به بتا pdf با استفاده از تبدیل $u=\frac{x-1}{\theta -1}$ اما i نتوانست نتیجه معقولی بگیرد بعد از اعمال این تبدیل، باید \begin{معادله*} \int\nlimits_{0}^{1}u^{n-1}\left[ 1+u\left( \theta -1\right) \ را پیدا کنم راست] ^{k}% \mathrm{d}x \end{equation*} اما نتوانستم. همچنین سعی کردم از تساوی \begin{equation*} x^{k}=1+\left(x-1\right) \sum\limits_{n=0}^{k-1}x^{n} استفاده کنم \end{معادله*} اما نتوانستم به نتیجه برسم. | مقدار مورد انتظار یک متغیر تصادفی |
93203 | من یک مبتدی هستم که سعی می کنم با استفاده از ماشین حساب آنلاین رایگان http://www.wessa.net/ آزمون علیت گرنجر را انجام دهم، نمی دانم صادقانه بودن به چه معناست. بسیار قدردانی شود من به دنبال پاسخی برای مواردی از جمله اینکه چه مقادیری را در پارامتر تبدیل Box-Cox، درجه (d) تفاوت غیر فصلی، دوره فصلی و غیره قرار دهم، هستم. من سعی می کنم یک آزمون علیت بر روی رابطه بین تولید ناخالص داخلی و جریان های ورودی سرمایه گذاری مستقیم خارجی انجام دهم، مطمئن نیستم که آیا این موضوع مرتبط است یا خیر. هر چیزی قدردانی خواهد شد، متشکرم. | کسی در مورد آزمون علیت گرنجر دو متغیره چیزی می داند؟ |
96181 | بنابراین، من سعی می کنم تعیین کنم که بهترین توزیع برای تجزیه و تحلیل داده هایم کدام است. نویسندگان قبلی استفاده از آزمون chi-2 را برای تعیین اینکه آیا دادهها توزیع شده پواسونی یا گاوسی هستند، پیشنهاد میکنند. همه رویکردها تجربی هستند و هیچ اتفاق نظری در مورد نحوه توزیع داده ها وجود ندارد. اگر از برنامههای جدیدتر استفاده میکنید، میتواند پیوسته باشد، یا اگر از نرمافزار استاندارد برای این زمینه استفاده میکنید، گسسته باشد. از اوایل دهه 90 به روز نشده است. اندازه گیری ها را می توان در ابتدا فقط به صورت اعداد صحیح ثبت کرد. بخشی که من روی آن کار می کنم همان نقطه داده ای است که 2075 بار اندازه گیری شده است. هر یک از اندازهگیریهای 2075 میانگین آن پیکسل در حدود 300 تصویر است. مشکل از نحوه یافتن عدم قطعیت برای آن مقدار ناشی می شود. عدم قطعیت ضروری است زیرا برنامه های تجزیه و تحلیل داده های بعدی نیاز به تخمین دارند. داده ها منحنی هستند زیرا باید به دلیل ماهیت آزمایش باشد. آشغال های زیادی وجود دارد. یک جمعیت کوچک از مقادیر بسیار بالا از دو منبع اشتباه، یک مشکل جزئی با محدودیت اندازه در مقادیر صحیح در برنامه قدیمی که تعداد بسیار کمی از شدت ها را دوباره توزیع می کند، یک پس زمینه و تلاش برای حذف پس زمینه وجود دارد. بزرگترین مشکل شدت بسیار بالا است زیرا به طور چشمگیری بر میانگین تأثیر می گذارد. بنابراین ما باید راههای بهتری برای هدفیابی آنها برای حذف و تخمین بهتری برای عدم قطعیت پیدا میکردیم. روشنهای قدیمیتر فقط از سم استفاده میکنند و جدیدتر نشان میدهد گاوسی. جدیدترین چیزها میخواهند از یک پارتو معمولی استفاده کنند. آیا آزمون قدرتمندتری برای برازش مجموعه داده نسبت به مقایسه خی دو با برازش گاوسی یا پواسون وجود دارد؟ ترجیحاً چیزی در متلب موجود باشد. | آیا آزمونی بهتر از chi-2 برای تعیین معقول بودن توزیع وجود دارد؟ |
56203 | با تعریف مجدد تابع انرژی، $E(x)$، آیا می توان هر $p(x)$ را به صورت توزیع بولتزمن نوشت. $p(x) = \frac{e^{-E(x)}}{Z}$، جایی که Z تابع پارتیشن است؟ | آیا هر توزیع احتمالی را می توان به صورت توزیع بولتزمن نوشت؟ |
82096 | این در زمینه دو متغیر تصادفی است. یک فرض متداول (مثلاً عبارت خطا در ANOVA) متغیرهای تصادفی مستقل و توزیع شده یکسان است. یک سوال در این سایت وجود دارد که می پرسد چگونه می توان این فرض را در یک مجموعه داده مشخص بررسی کرد. آیا این یک فرض است یا یک واقعیت؟ | آیا مستقل و به طور یکسان توزیع شده یک فرض است یا یک واقعیت؟ |
105723 | من روی یک مشکل پیش بینی کار می کنم. من یک پیشینه برنامه نویسی و یک آمار کوچک دارم. اگر دو متغیر وابسته و یک متغیر مستقل داشته باشم، چگونه می توانم بفهمم که این دو با هم مرتبط هستند؟ برای مثال، x1 دارای ضریب همبستگی 0.6 و x2 دارای ضریب همبستگی 0.4 است. من فرض می کنم که x1 و x2 کاملاً وابسته (هویت) نیستند و کاملاً مستقل از یکدیگر نیستند. آیا راهی برای تحلیل ریاضی این وضعیت وجود دارد تا در نهایت وزن معادله رگرسیون نهایی را تعیین کنیم؟ فکر میکنم میتوانم یک x را در سطلها قرار دهم و یک معادله تکهای بر اساس برشهای خاص ایجاد کنم. اما به نظر می رسد که این بهینه نیست و در واقعیت x های زیادی وجود دارد. من ادبیات خوبی در مورد نحوه افتراق وزن متغیرهای وابسته پیدا نکردم. میدانم که یادگیری ماشین برای این کار طراحی شده است، اما من یک رویکرد «خطکش اسلاید مدرسه قدیمی» را میخواهم که بتوانم تفاوتهای واریانس را درک کنم. من در یک مرحله اکتشافی هستم که در آن دو متغیر (و واقعاً خیلی بیشتر) نتیجه را مشخص می کنند. اگر دو متغیر با هم مرتبط باشند، برخی از واریانس ها همپوشانی دارند. من می خواهم بدانم که چه مقدار همپوشانی دارند و چگونه می توان متغیرها را در یک معادله رگرسیون پایانی وزن کرد. (این اصطلاح درست نیست، پس لطفا با من همراه باشید.) | دو متغیر همبسته را از هم متمایز کنید |
61815 | $Y_{1...n}\sim \operatorname{Bin}(1,p)$, iid، و من باید یک برآوردگر بی طرفانه برای $\theta=\operatorname{var}(y_i)$ پیدا کنم. من محاسباتی انجام دادم و فکر می کنم که پاسخ $p(1-p)-\frac{p(1-p)}{n}$ است * آیا این درست است؟ * اگر نه، چگونه می توانم یک برآوردگر بی طرف پیدا کنم؟ | برآوردگر بی طرفانه واریانس متغیر دو جمله ای |
110368 | من مطمئن نیستم که از کدام آزمون آماری برای آزمایش اینکه آیا دو مجموعه داده به طور قابل توجهی متفاوت هستند استفاده کنم. داده ها چیزی شبیه به این است: مجموعه داده گروهی 1 مجموعه داده 2 A 5 6 B 1 7 C 2 10 D 1 15 E 4 11 F 1 5 G 2 17 H 2 10 I 3 19 J 1 6 K 14 67 L 13 38 M 3 16 N 14 59 O 14 33 P 0 4 Q 10 28 R 0 6 S 4 9 T 3 5 U 3 13 V 0 13 من امیدوارم که، اگرچه یک مجموعه داده مجموع بیشتری دارد، نسبت بین گروه ها به این معنی است که آنها تفاوت قابل توجهی ندارند. آیا کسی توصیه یا پیشنهاد مفیدی در مورد یک آزمایش مناسب دارد؟ پیشاپیش ممنون | ارزیابی اینکه آیا تفاوت بین مجموعه دادهها قابل توجه است یا خیر |
2439 | یک جستجوی گذرا نشان می دهد که مربع های لاتین به طور گسترده ای در طراحی آزمایش ها استفاده می شود. در طول دوره دکترا، من ویژگیهای نظری مختلف مربعهای لاتین را مطالعه کردهام (از دیدگاه ترکیبشناسی)، اما درک عمیقی از آنچه در مربعهای لاتین وجود دارد که آنها را بهویژه برای طراحی تجربی مناسب میکند، ندارم. من میدانم که مربعهای لاتین به آماردانان اجازه میدهند تا موقعیتهایی را که در آن دو عامل وجود دارد که در «جهتهای» متفاوت متفاوت هستند، به خوبی مطالعه کنند. اما، من همچنین نسبتاً مطمئن هستم که بسیاری از تکنیک های دیگر وجود دارد که می توان از آنها استفاده کرد. > به خصوص چه چیزی در مورد مربع های لاتین است که آنها را برای طراحی آزمایش ها مناسب می کند که دیگر طرح ها ندارند؟ علاوه بر این، هزاران مربع لاتین برای انتخاب وجود دارد، بنابراین کدام مربع لاتین را انتخاب می کنید؟ من میدانم که انتخاب یک مورد بهصورت تصادفی مهم است، اما همچنان تعدادی مربع لاتین وجود دارند که برای اجرای آزمایشها نسبت به دیگران مناسبتر هستند (مثلاً جدول Cayley یک گروه چرخهای). این سوال زیر را مطرح می کند. > کدام ویژگی مربع های لاتین مطلوب و کدام ویژگی مربع های لاتین برای طراحی آزمایشی نامطلوب است؟ | خواص مطلوب و نامطلوب مربع های لاتین در آزمایشات؟ |
82546 | من با این موضوع برخورد کردم که به تفاوت های بین بوت استرپینگ و اعتبارسنجی متقاطع می پردازم - به هر حال پاسخ و مراجع عالی. چیزی که الان میپرسم این است که اگر بخواهم 10 برابر CV تکرار کنم تا دقت یک طبقهبندی کننده را محاسبه کنم، چند بار _n_ باید آن را تکرار کنم؟ آیا _n_ به تعداد تاها بستگی دارد؟ در اندازه نمونه؟ آیا قانونی برای این وجود دارد؟ (در مورد من، من نمونه هایی به بزرگی 5000 دارم، و اگر چیزی بزرگتر از _n = 20_ را انتخاب کنم، کامپیوترم برای انجام محاسبات خیلی طول می کشد.) | چند بار باید یک CV K-fold را تکرار کنیم؟ |
61818 | برای حداقل مربعات با یک پیش بینی: $y = \beta x + \epsilon$ اگر $x$ و $y$ قبل از برازش استاندارد شده باشند (یعنی $\sim N(0,1)$)، پس: * $\beta $ همان ضریب همبستگی پیرسون، $r$ است. * $\beta$ در رگرسیون منعکس شده یکسان است: $x = \beta y + \epsilon$ برای حداقل مربعات تعمیم یافته (GLS)، آیا همین امر صدق می کند؟ یعنی اگر داده های خود را استاندارد کنم، آیا می توانم ضرایب همبستگی را مستقیماً از ضرایب رگرسیون بدست بیاورم؟ از آزمایش با داده ها، GLS منعکس شده به ضرایب $\beta$ مختلف منجر می شود و همچنین مطمئن نیستم که معتقدم ضرایب رگرسیون با مقادیر مورد انتظار من برای همبستگی مطابقت داشته باشد. من میدانم که مردم ضرایب همبستگی GLS را نقلقول میکنند، بنابراین نمیدانم که چگونه به آنها میرسند و از این رو واقعاً منظورشان چیست؟ | حداقل مربعات تعمیم یافته: از ضرایب رگرسیون تا ضرایب همبستگی؟ |
53368 | فرض کنید که $X_1، \ldots، X_n$ نرمال چند متغیره با همبستگی برابر $\rho$ هستند و هر یک از آنها به صورت حاشیه ای $N(0,1)$ توزیع می شوند. اجازه دهید $X_{(1)}، \ldots، X_{(n)}$ آمار سفارش مربوطه باشد. توزیع $X_{(1)}$ و $X_{(n)}$ به راحتی یافت می شود. در مورد توزیع سایر آمار سفارشات چطور؟ کسی میتونه در این مورد اشاره کنه؟ متشکرم. هانا | آمار ترتیب متغیرهای تصادفی پیوسته همبسته مساوی |
105720 | من مشاهدات X را به همراه برچسبهای آنها Y دارم. سپس یک هیستوگرام از Y ایجاد میکنم. سپس مشاهداتی را حذف میکنم که هیستوگرام همچنان همان شکل متمایز را حفظ کند. کسی میدونه اسم این روش کاهش داده چیه؟ | برای کاهش داده ها به این تکنیک چه می گویند؟ |
93974 | پس از خواندن «چگونه بر اساس میانگین رتبهبندی مرتبسازی نشود» (http://www.evanmiller.org/how-not-to-sort-by-average-rating.html)، کنجکاو شدم بدانم آیا همان چیزی وجود دارد یا خیر. برای متغیرهایی با بیش از دو نتیجه (0،1) یا حتی متغیرهای پیوسته. به عنوان مثال، چگونه کران پایین را به مشکل آمازون تعمیم می دهید؟ واضح است که 5 نتیجه وجود دارد (یکی برای هر تعداد ستاره داده شده توسط کاربر). از چه معیاری استفاده می کنید تا 4.5 ستاره با 2000 رای بهتر از 5 ستاره با 2 رای رتبه بندی شود؟ همچنین، به نظر من این نوع مشکل می تواند تعبیر بیزی داشته باشد. منظورم این است که استفاده از فرمول در چگونه مرتب سازی نکنیم دور از تنظیم یک پیشین در توزیع نیست، شاید یک برنولی با پارامتری استنباط شده در کل مجموعه داده / دسته ای که آیتم به آن تعلق دارد؟ کسی مرجعی برای این مشکل خاص میشناسه؟ | آیا برای متغیرهایی که نتیجه بیشتری دارند، معادل حد پایین فاصله اطمینان نمره ویلسون وجود دارد؟ |
96185 | من در حال تلاش برای یافتن راهها/الگوریتمهایی هستم که نقاط پرت را برای ساختن مدل بهتر (طبقهبندی) با استفاده از شبکه عصبی شناسایی میکند. با توجه به تعداد زیادی از مقالات تحقیقاتی، من دریافته ام که نقاط پرت به طور قابل توجهی بر مدل سازی NN تأثیر می گذارد. با این حال، من نتوانستم روشی برای تشخیص آنها پیدا کنم. کسی روشش رو میدونه؟ (اگر بتوانید بسته R را پیشنهاد دهید عالی خواهد بود!) با تشکر! | تشخیص نقاط پرت برای دستیابی به عملکرد بهتر برای شبکه عصبی |
82547 | در یک مدل دوجمله ای منفی، آیا می توانم پارامتر پراکندگی را به عنوان تخمینی از واریانس باقیمانده در نظر بگیرم؟ به عبارت دیگر، آیا می توانم کارهای زیر را با پراکندگی $D$ انجام دهم: $$ \sigma^2 = \ln(\mu + \frac{\mu^2}{D}) $$ و از $\sigma^2 استفاده کنم $ همراه با سایر برآوردهای واریانس (به عنوان مثال، شیب تصادفی یا تغییرپذیری برش تصادفی) برای محاسبه نسبت واریانس توضیح داده شده یک اثر خاص؟ اگر نه، بهترین راه برای درمان تخمین پراکندگی در رابطه با سایر مولفه های واریانس تخمین زده شده چیست؟ | چگونه می توانم پارامتر پراکندگی را به سایر پارامترهای واریانس تخمین زده شده به درستی مرتبط کنم؟ |
2335 | من سعی میکنم نوع زیر را از مدل لجستیک تفسیر کنم: mdl <- glm(c(suc,fail) ~ fac1 + fac2، data=df، خانواده = دوجملهای) آیا خروجی «predict(mdl)» شانس مورد انتظار است موفقیت برای هر نقطه داده؟ آیا راه ساده ای برای جدول بندی شانس برای هر سطح عامل مدل، به جای تمام نقاط داده وجود دارد؟ | خروجی مدل لجستیک در R |
2432 | * آیا تکنیک مدلسازی مانند LOESS وجود دارد که صفر، یک یا چند ناپیوستگی را در جایی که زمان ناپیوستگیها از قبل مشخص نیست، اجازه دهد؟ * اگر تکنیکی وجود داشته باشد، آیا پیاده سازی موجود در R وجود دارد؟ | LOESS که اجازه ناپیوستگی را می دهد |
93970 | من با کتاب Reinsel عناصر تجزیه و تحلیل سری های زمانی چند متغیره مشکل دارم، زیرا فکر کردم که این ایده خوبی است که از Vector ARMA به بازنمایی های حالت-فضا تغییر مکان دهم. به ویژه پس از خواندن معایب مدلهای فضای حالت و فیلتر کالمن برای مدلسازی سریهای زمانی چیست؟، و پس از تلاش با تخمین پارامتر فرآیندهای VARMA. مشکل این است که من نمی توانم ببینم که چگونه می توان همبستگی بین دو سری زمانی را در نمایش های فضای حالت مدل کرد. آیا این همبستگی در ماتریس های کوواریانس خطا ظاهر می شود؟ برای من عجیب به نظر می رسد، به خصوص از VARMA. (جابهجایی به مدلهای فضای حالت سختتر از آن چیزی است که فکر میکردم!) | مدل های فضای حالت همبسته |
77701 | چگونه می توانم آزمایش کنم که آیا یک اثر غیرخطی قابل توجهی از یک پیش بینی پیوسته بر روی DV پیوسته وجود دارد؟ وضعیت من اینجاست من یک رگرسیون خطی ساده را اجرا کردم و اثر قابل توجهی از یک پیش بینی پیدا کردم (پیش بینی 2 در زیر). با این حال، وقتی dv خود را در برابر آن پیشبینیکننده رسم میکنم، روند خطی به نظر نمیرسد - در واقع به نظر میرسد که dv دو ماکزیمم محلی دارد. وقتی این یافتهها را به یک مجله ارسال کردم، داوران نظر دادند که باید اهمیت آماری احتمالی این اثر غیرخطی ظاهری را بررسی کنم. این اثر مورد انتظار نبود و بنابراین من مدل غیر خطی خاصی برای آزمایش در اینجا ندارم. من فقط به دنبال یک تکنیک مناسب برای اولین بار برای استفاده در شرایطی مانند این هستم. ایده ها؟ برای مرجع، دادههای من به این صورت است: > D[1:10،] پیشآزمون sid predictor2 predictor3 predictor4 predictor5 1 2 0.75 0.75 0.8823529 1.00000000 0.8888889 18 2 3 8 1.606 1.000 0.06666667 1.0000000 16 3 5 1.00 1.00 0.9000000 1.00000000 0.9047619 21 4 6 0.75 0.75 0.333333333000. 16 5 7 0.50 0.75 0.8750000 0.87500000 0.8333333 18 6 8 0.75 1.00 0.5000000 0.50000000 0.88173509 0.88173509 0.8823529 0.58823529 0.4444444 18 8 10 1.00 0.50 0.8750000 0.87500000 0.5882353 17 9 13 0.75778 0.750 1.00000000 0.8947368 19 10 15 0.50 0.25 0.8666667 0.46666667 0.8125000 16 ... مدل رگرسیون خطی و خروجی آن به این صورت است: > lmA pretest +3-Diction pretest predictor4 + predictor5, data=D ) > summary ( lmA ) فراخوانی: lm(فرمول = پس آزمون ~ پیش آزمون + پیش بینی 2 + پیش بینی 3 + پیش بینی 4 + پیش بینی 5، داده = D) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.68810 -0.110153 -0.110153 0.36904 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (تقاطع) 0.773645 0.106033 7.296 8.45e-13 *** پیش آزمون 0.292674 0.030905 9.470 < 2e-16 *** پیش بینی کننده2 0.06 0.45 5 0.06 0.00988 ** پیشگو3 0.005529 0.026369 0.210 0.83398 پیشگو4 -0.026421 0.065049 -0.406 0.68474 پیشگو5 -0.0094512 -0.009451210. . --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1801 در 665 درجه آزادی چندگانه R-squared: 0.1298، R-squared تنظیم شده: 0.1 آمار: 19.83 در 5 و 665 DF، p-value: < 2.2e-16 در نهایت، در اینجا طرحی است که باعث نظر بازبین شد. توجه داشته باشید که از دادههای binned با حباب استفاده شده است، با قطر حباب که تعداد ردیفهای داده در هر bin را نشان میدهد، بهجای نمودار پراکنده، زیرا فقط 5 سطح dv وجود دارد (0.0، 0.25، 0.5، 0.75، 1.0). اصلا نمی توان چیزی را با پراکندگی دید. بازبینان اظهار داشتند که میتوان بنها را بهطور خودسرانه انتخاب کرد تا روند خطی متقاعدکنندهتر به نظر برسد، که درست است، اما به نظر من، دادههای binned همچنان باید به دلیل بالا استفاده شوند.  | آزمون اهمیت روند غیرخطی غیرمنتظره |
97272 | این سوال بیشتر در مورد یادگیری آمار است تا در مورد آمار _per se_، پس لطفا اگر انجمن دیگری مناسب نیست پیشنهاد دهید. من این کتاب درسی (ISLR نوشته جیمز، ویتن، هاستی و تیبشیرانی) را به صورت آنلاین پیدا کردم و به نظر منبع خوبی است. چند فصل خواندم و بعد متوجه شدم که درک درستی ندارم. بنابراین اکنون تصمیم گرفتم به سؤالات پایان هر فصل پاسخ دهم و آنها را در LaTeX/knitr بنویسم. من فصل 3 را پشت سر گذاشته ام. بسیار شگفت انگیز است که در مورد راه حل ها با افرادی که از همان کتاب استفاده می کنند صحبت کنیم. شاید من همه آنها را اشتباه می کنم! آیا کسی می تواند منبع / انجمن / وب سایتی را پیشنهاد کند که در آن چنین بحثی ممکن است انجام شود؟ | منابع خوبی برای بحث در مورد راه حل های مقدمه ای بر یادگیری آماری در R چیست؟ |
105729 | من نتونستم مثالی به ذهنم برسه ولی اگه کسی بتونه مثال بزنه عالی میشه. | آیا دو کمیت محوری متفاوت از یک پارامتر، فاصله اطمینان یکسانی را نشان میدهند؟ |
97275 | من از داده های ابزار تحلیل آنلاین GEO و GEO2R که توسط NCBI ارائه شده است استفاده می کنم. تجزیه و تحلیل GEO2R نمرات زیر را به دست می دهد: نمرات P، P و t تنظیم شده. من 5-10 مطالعه با استفاده از ابزار GEO2R دارم. آیا راهی برای ترکیب همه این امتیازات و فیلتر کردن تنها ژن های مهم وجود دارد؟ آیا باید نمرات P یا T را به نمرات Z تبدیل کنم؟ سپس میتوانم $z=\frac{E(zk)}{\sqrt{K}}$ را محاسبه کنم تا یک z -score (اتحاد ژنها) ایجاد کنم. | متاآنالیز داده های GEO با استفاده از GEO2R |
82545 | من سعی می کنم یک مدل جلوه های ترکیبی را در بسته R 'nlme' اجرا کنم. من 3 گروه و 294 مشاهده دارم و از مدل زیر استفاده می کنم: model1<-lme(shy ~ int + ind + grpint +grpind, random =~1 | group, data = dt, control=list(opt=nlmimb )) متغیرهای 'grpint' و 'grpind' بردارهای میانگین گروهی برای متغیرهای 'int' و 'ind' هستند. (من این آزمون را اجرا می کنم تا ببینم آیا نمرات فردی در int یا ind هنوز به طور قابل توجهی تفاوت های گروهی را در خجالتی بیش از نمرات گروهی پیش بینی می کند.) وقتی به خروجی خود نگاه می کنم (زیر)، من در این مورد بسیار گیج هستم. چرا متغیرهای گروه من 0 df دارند. آیا چیزی را اشتباه وارد کردم؟ آیا این هنوز در هنگام تلاش برای آزمایش سؤال تحقیق من قابل قبول است؟ از به اشتراک گذاری دانش و تخصص خود بسیار سپاسگزارم! مدل خطی با جلوه های مختلط متناسب با REML داده ها: dt AIC BIC logLik 93.80127 119.4663 -39.90063 اثرات تصادفی: فرمول: ~1 | گروه (Intercept) Residual StdDev: 0.07421543 0.2755107 اثرات ثابت: خجالتی ~ وابسته + مستقل + grpint + grpind Value Std.Error DF t-value p-value (Intercept) 2.5677638 37.769 130.769 0.9458 به هم وابسته -0.0523904 0.05406 289 -0.9691753 0.3333 مستقل 0.1623483 0.05329 289 3.0462865 0.0025 grpint 1.232329 1.231. 0.0661965 NaN grpind -1.6347691 7.78430 0 -0.2100085 NaN همبستگی: (Intr) intrdp indpnd grpint وابسته 0.000 مستقل 0.000 -0.061 grpint -0.061 -0.061 grpint -0.098 -0.09 0.979 0.000 -0.007 -0.991 استاندارد شده درون گروهی باقیمانده: حداقل Q1 Med Q3 حداکثر -4.39909336 -0.43557519 -0.09616286 0.48480368 3.06: تعداد 3.05524 گروه مشاهده | چرا من در مدل ترکیبی خود 0 درجه آزادی برای متغیرهای میانگین گروه خود دارم؟ بسته nlme |
97270 | نمودارها خروجی «NbClust()» را نشان می دهند. با نگاه کردن به نمودار، آیا این درست است که بگوییم «k=5» تعداد بهینه خوشهها است؟ > nc <- NbClust(m3, distance=euclidean, min.nc=2, max.nc=20, + method=kmeans, index=dindex) [1] *** : شاخص D یک روش گرافیکی برای تعیین تعداد خوشه ها است در نمودار شاخص D، ما به دنبال یک زانو قابل توجه (اوج قابل توجه در نمودار اختلاف دوم Dindex) هستیم که مربوط به افزایش قابل توجهی از شاخص است. ارزش اندازه گیری. همه 10829 مشاهدات استفاده شد.  | تفسیر نتیجه NbClust |
105724 | آیا کسی می تواند در مورد تکنیک های ممکن برای سرعت بخشیدن به فرآیند آموزش شبکه عصبی مصنوعی چندلایه در صورتی که آموزش شامل mini-batch باشد، به من ایده بدهد؟ تا اینجا متوجه شدم که آموزش تصادفی احتمالاً منجر به همگرایی سریعتر میشود، اما اگر باید از آموزش مینی دستهای استفاده کنیم، آیا راهی برای سریعتر شدن همگرایی وجود دارد؟ (برخی اشاره به مقالات مرتبط نیز کمک خواهد کرد!) متشکرم! | چگونه می توان سرعت آموزش در شبکه عصبی را در هنگام استفاده از آموزش مینی بچ افزایش داد؟ |
26870 | فرض کنید در یک سیستم ارتباطی واقعی، ما یک تصمیم زمانبندی $\omega$ در هر شکاف زمانی $t$ میگیریم که بر احتمال از دست دادن یک بسته تأثیر میگذارد (یعنی احتمال از دست دادن بستگی به تصمیم ما دارد و ما استقلال از یک شکاف به شکاف دیگر را فرض میکنیم. ). ما میانگین احتمال از دست دادن بسته را به صورت $P_{loss,t} = \frac{total\ packets\ lost\ تا\ t}{total\ packets\ transmitted\ تا\ t}$ تعریف می کنیم آیا تعریف یک متغیر تصادفی $X_t=a\times P_{loss,t} + b$ با ثابت های واقعی $a,b$؟ | متغیر تصادفی به عنوان تابعی از احتمال میانگین |
107473 | من می دانم که مقدار z یک مشاهده منفرد چیست که در ویکی پدیا توضیح داده شده است. اما z-value یک پارامتر در مدل glm چیست؟ | مقدار z پارامترهای مدل glm چیست؟ |
96186 | لطفا کسی میدونه توزیع زیر چیه؟ می توانم بگویم که گسسته است و $\theta$ به نوعی یک احتمال است. متشکرم $$\mathbb P_X(x; \theta) = (x-1) \theta^2 (1-\theta)^{x-2}, \ \ x=2,3,\ldots; \ \ 0 < \تتا < 1.$$ | این توزیع چیست؟ |
1807 | آزمون t$-student به نمونه انحراف استاندارد $s$ نیاز دارد. با این حال، وقتی فقط اندازه نمونه و میانگین نمونه مشخص است، چگونه برای $s$ محاسبه کنم؟ به عنوان مثال، اگر اندازه نمونه 49 دلار و میانگین نمونه 112 دلار است، سپس سعی می کنم فهرستی از نمونه های مشابه 49 دلاری با ارزش هر کدام 112 دلار ایجاد کنم. انتظار می رود، انحراف استاندارد نمونه 0 دلار باشد. این یک مشکل تقسیم بر صفر در آزمون $t$ ایجاد می کند. **اطلاعات اضافی:** متوسط درآمد کارگران کارخانه ACME North Factory $200$ است. گزارش شده است که یک نمونه تصادفی از کارگران 49 دلاری در کارخانه ACME South، درآمد سالانه 112 دلار دلار داشته است. آیا این تفاوت از نظر آماری معنادار است؟ آیا من درست می گویم که میانگین جمعیت 200 دلار است؟ | چگونه می توان آزمون تی دانشجویی را انجام داد که فقط حجم نمونه، میانگین نمونه و میانگین جامعه مشخص است؟ |
11032 | مزایای دادن مقادیر اولیه مشخص به احتمالات انتقال در یک مدل مارکوف پنهان چیست؟ در نهایت سیستم آنها را یاد خواهد گرفت، پس ارزش دادن مقادیری غیر از مقادیر تصادفی چیست؟ آیا الگوریتم زیربنایی مانند Baum-Welch تفاوتی ایجاد می کند؟ اگر من احتمالات انتقال را در ابتدا بسیار دقیق بدانم و هدف اصلی من پیش بینی احتمالات خروجی از حالت پنهان به مشاهدات باشد، چه توصیه ای به من می کنید؟ | اهمیت احتمالات انتقال اولیه در یک مدل مارکوف پنهان |
63419 | من در درک یک توضیح رگرسیون لجستیک مشکل دارم. رگرسیون لجستیک بین دما و ماهی هایی است که می میرند یا نمی میرند. شیب رگرسیون لجستیک 1.76 است. سپس احتمال مرگ ماهی با ضریب exp(1.76) = 5.8 افزایش می یابد. به عبارت دیگر، احتمال تلف شدن ماهی ها به ازای هر تغییر 1 درجه سانتیگراد در دما به میزان 8/5 افزایش می یابد. 1. از آنجایی که 50 درصد ماهی ها در سال 2012 می میرند، افزایش 1 درجه سانتی گراد نسبت به دمای سال 2012، مرگ ماهی ها را به 82 درصد افزایش می دهد. 2. افزایش 2 درجه سانتیگراد نسبت به دمای سال 2012، مرگ ماهی را تا 97 درصد افزایش می دهد. 3. افزایش 3 درجه سانتیگراد -> 100٪ ماهی می میرند. چگونه 1 و 2 و 3 را محاسبه کنیم؟ (82%، 97% و 100%) | نسبت شانس و شانس در رگرسیون لجستیک |
21241 | من یک تابع کوچک نوشته ام که نمونه هایی از یک توزیع نرمال با واریانس خطی در حال تغییر rnormltv <- function(n,mu,rsd) { vc <- vector(mode=numeric, length=n) i <- 1 for (x in seq(from=rsd[1], to=rsd[2], length=n)) {vc[i]=rnorm(1,mu,x) i <- i+1 } return(vc) } فرض کنید 1000 نمونه به دست می آوریم، با واریانس کاهشی از 9 به 1. set.seed(1) x <- rnormltv(1000,0,c(9,1)) plot(x) هدف این است که پارامترهای 9 و 1 را با توجه به این داده ها، میانگین صفر، با فرض توزیع نرمال و روند خطی در واریانس، تخمین بزنید. از نظر مفهومی می توانم ببینم چگونه می توان این کار را با حداکثر احتمال انجام داد، اما چگونه می توان آن را در عمل، ترجیحاً در R انجام داد؟ توجه: این تکلیف نیست. | یافتن روند واریانس |
105728 | فرض کنید $n$ متغیر تصادفی عادی مستقل $$X_1 \sim \mathrm{N}(\mu_1, \sigma_1^2)\\\X_2 \sim \mathrm{N}(\mu_2, \sigma_2^2)\ دارم \\\\vdots\\\X_n \sim \mathrm{N}(\mu_n, \sigma_n^2)$$ و $Y=X_1+X_2+\dotsm+X_n$. چگونه می توانم چگالی $Y$ را مشخص کنم اگر توزیع هر $X_i$ هر کدام در داخل $(\mu_i - 2\sigma_i، \mu_i + 2\sigma_i)$ کوتاه شود؟ به عبارت دیگر، من از $n$ توزیعهای نرمال مستقل نمونهبرداری میکنم، نمونههایی را که در محدوده $2\sigma_i$ از هر میانگین نیستند دور میاندازم و آنها را جمع میکنم. در حال حاضر، من این کار را با کد R زیر انجام می دهم: x_mu <- c(12, 18, 7) x_sd <- c(1.5, 2, 0.8) a <- x_mu - 2 * x_sd b <- x_mu + 2 * نمونه های x_sd <- sapply(1:3، تابع(i) { return(rtruncnorm(100000, a[i]، b[i]، x_mu[i]، x_sd[i])) }) y <- rowSums(samps) آیا روشی برای ایجاد چگالی $Y$ به طور مستقیم وجود دارد؟ | مجموع متغیرهای تصادفی کوتاه شده نرمال |
97279 | مدتی است که سعی میکنم سرم را حول انتشار انتظارات بپیچم، اما کمی با یافتن عوامل تقریبی به روشی کارآمد و تقریبهای «کاملاً فاکتوریشده» درگیر هستم. من در حال حاضر سعی می کنم پیاده سازی خودم را بنویسم (تا بررسی کنم که آیا همه چیز را کاملاً درک کرده ام) که بر اساس این مقاله Minka و Infer.NET (به عنوان مرجعی برای چگونگی پیاده سازی آن) است. * * * **یافتن عوامل تقریبی – پیچیدگی محاسباتی** درک من این است که فاکتورها در نمودار عاملی نشان دهنده CPD های شبکه بیزی من هستند. به عنوان مثال – با توجه به متغیرهای تصادفی $x_1,x_2,x_3$ – من می توانم $x_3 = x_1 + x_2$ را تعریف کنم. فاکتور مربوطه $f(x_1,x_2,x_3)$ سپس به صورت $p(x_3|x_1,x_2) = (pdf_{x_1} \cdot pdf_{x_2})(x_3)\rightarrow$ تعریف میشود. x_1$ و $x_2$. بسته به توزیع های درگیر، به حاشیه راندن متغیرهای دیگر ممکن است در یک شبکه بزرگتر غیرقابل حل شود زیرا انتگرال بیش از حد پیچیده می شود. به همین دلیل، شما سعی می کنید عوامل (و توزیع مشترک) را با توزیع های یک خانواده نمایی (مانند گاوسیان) تقریب بزنید. با این حال، هنگام پالایش تقریب ها و پیدا کردن $\arg\min KL(f_a(\boldsymbol{x}) q^{\backslash a}(\boldsymbol{x}) || \hat{f}_a(\boldsymbol{x }) q^{\slash معکوس a}(\boldsymbol{x})$ (معادله 52 در مقاله)، هنوز باید انتگرال را روی همه قرار دهم متغیرهای تصادفی که هنوز از نظر محاسباتی یک کار پرهزینه به نظر میرسد (مخصوصاً به این دلیل که باید چندین بار انجام شود). آیا من در اینجا چیزی را اشتباه متوجه شده ام یا برخی از ساده سازی ها را از دست داده ام * * * **تقریبی کاملاً فاکتوری*** در مقاله، بسیاری از الگوریتم ها از یک الگوریتم استفاده می کنند؟ پس از درک من، این بدان معناست که همه عوامل به عوامل جداگانه تقسیم می شوند، به طوری که هر عامل فقط به یک متغیر وابسته است. )q(x_3)$ آیا من درست می گویم که این کار به صورت خودکار توسط الگوریتم ها انجام می شود یک نمودار کاملا فاکتورسازی شده؟ * * * پیشاپیش برای هر پاسخی متشکرم. اگر حرف بیهوده ای می زنم، به من بگویید - این همه چیز در حال حاضر کمی ذهنم را به هم می زند و من مدام خودم را گیج می کنم ;) | یافتن موثر عوامل تقریبی در انتشار انتظار |
93978 | در نظر بگیرید که من دو موجودی دارم (به نام های 1 و 2). هر یک از این ترازها یک توزیع پسینی برای وزن جسم به شکل $m_1 \pm s_1$ (برای موجودی 1) و $m_2 \pm s_2$ (برای تعادل 2) میدهد. سپس فرض خواهم کرد که چگالی خلفی با میانگین $m_i$ و std $s_i$ نرمال است و مشروط به وزن واقعی، دو قسمت خلفی از یکدیگر مستقل هستند. سپس در نظر بگیرید که من یک شی داده شده را $N$ برابر با دو روش وزن می کنم که دو مجموعه $(m_{1,i} \pm s_{1,i})_{i=1,N}$ و $( m_{2,i} \pm s_{2,i})_{i=1,N}$. من میخواهم آزمایش کنم که آیا استنباطهای بهدستآمده در یک «سطح اطمینان» با یکدیگر سازگار هستند، یعنی ارزیابی کنم که آیا استنتاجهای ارائهشده توسط دو روش (بدون تکیه بر یک نوع مشاهدات، اما بر یک شی) سازگار هستند یا خیر. اگر بله، میتوان نتایج را مطرح کرد، اگر نه، میتوان مشکوک بود. چگونه می توانم ادامه دهم؟ | تست سازگاری استنتاج ها |
113639 | من یک مجموعه داده با محدوده 0 تا 1 دارم. من توزیعی را در MATLAB با استفاده از fitdist(Data_set, exponential) برازش می کنم. من میخواهم چارک سوم را با «log(4)/λ» پیدا کنم. وقتی این را محاسبه میکنم، نتیجه «4.28738» است، همانطور که اشاره کردم محدوده مجموعه دادههای من بین «0 و 1» است. چرا این مقدار از حداکثر محدوده داده من بزرگتر است؟ چگونه می توانم این مشکل را حل کنم؟ من فکر می کنم این از دم یا توزیع نمایی است. | برازش توزیع نمایی به داده ها و یافتن مسئله چارک سوم |
97274 | چگونه می توانم واریانس این مدل ARMA(2,1) را پیدا کنم؟ $$ X_t=0.5X_{t-2} + e_t + e_{t-1} $$ من فرمول ARMA(1,1) را میدانم، اما وقتی سعی میکنم حل کنم، مسیر بیپایانی از کوواریانسهای خودکار بالاتر را دریافت میکنم. برای پیدا کردن | واریانس ARMA(2،1) |
112324 | متغیر وابسته ما یک متغیر اسمی است که از پاسخ دهندگان می پرسد آیا این ویدئو را به اشتراک می گذارید؟ با پاسخ های مثبت یا خیر. فرضیه هایی که ما آزمایش می کنیم همگی فرضیه های جهت دار رابطه ای هستند و همه متغیرهای مستقل ما با استفاده از مقیاس لیکرت از 1 تا 7 اندازه گیری می شوند، بنابراین این داده های مقیاس بندی شده است. با این حال مشکلی که ما با آن روبرو هستیم این است که وقتی آزمایشهای فرضیهها را در SPSS اجرا میکنیم، خروجی میگوید که دادهها قابل محاسبه نیستند زیرا متغیر مستقل اسمی ما ثابت است (یعنی یک متغیر وابسته به مقیاس نیست). آیا راه حلی برای این مشکل وجود دارد؟ مشاوره بسیار قدردانی خواهد شد. | اگر یک متغیر وابسته اسمی داشته باشم و متغیرهای مستقل را مقیاس کنم، چه کاری می توانم انجام دهم؟ |
112322 | برای درک تفاوت بین استنتاج Frequentist و Bayesian، من داشتم ارائه را در: http://www.stat.ufl.edu/archived/casella/Talks/BayesRefresher.pdf می خواندم. برای توضیح تفاوت بین رویکردها، نویسنده از مثال زیر استفاده می کند (صفحه 6): اگر من درست متوجه شده باشم، سه مورد مختلف از پروتکل ها وجود دارد (به نظر می رسد چیزی مربوط به سمیت است) و مطالعات مختلفی برای هر یک وجود دارد. از سه پروتکل، که رابطه پروتکل را با یک علت خاص که چیزی به نام AAN نامیده می شود، بررسی کرده است. به عنوان مثال، برای یکی از سه پروتکل، مطالعات مختلف که تعداد کل موارد (اول) و ارتباط با AAN (دوم) را نشان می دهد به شرح زیر است: 1) 66,11 2) 1756,129 3) 272, 48 4 ) 151، 18 ... و غیره هر یک از این جفت اعداد متعلق به مطالعات مختلف است. اکنون، مدل بیزی برای این مطالعات به این صورت ارائه میشود: با توجه به اینکه $X_j$ فرکانس AAN مطالعه $j$th در مورد پروتکل $i$ است، $X_j$ به صورت $X_j \sim Binomial(n_j,p_i) توزیع میشود. ) دلار. $n_j$ تعداد کل رخدادها برای $j$th مطالعه و $p_i$ پارامتر توزیعی است که میخواهیم استنباط کنیم. چیزی که من در اینجا متوجه نشدم این است که نویسنده می گوید که در این مدل $p_i$ می تواند از مطالعه ای به مطالعه دیگر متفاوت باشد. در درک من از رویکرد بیزی، در اینجا، همه مطالعات دادههای ما را تشکیل میدهند، $D=\left(n_1,X_1,n_2,X_2,...,n_K,X_K \راست)$ که $K$ مجموع است. تعداد مطالعات برای $p_i$، توزیع قبلی $P(p_i)$ داریم. بنابراین سعی می کنیم توزیع پسین $P(p_i|D)$ را پیدا کنیم. به نظر من $p_i$ نمی تواند از مطالعه ای به مطالعه دیگر متفاوت باشد: $p_i$ ابتدا از توزیع قبلی به صورت $p_i \sim P(p_i)$ تولید می شود و سپس این مقدار تولید شده $p_i$ برای تولید هر $X_j \ استفاده می شود. دو جمله ای سیم کارت (n_j,p_i)$. بله، $p_i$ مانند رویکرد مکرر ثابت نیست، اما در تحقق های مختلف همه مطالعات $K$ متفاوت است، هنگامی که $p_i$ از قبلی ایجاد شد، سپس تمام مطالعات $K$ از همان $p_i$ استفاده می کنند. . بنابراین، نباید از یک مطالعه به مطالعه دیگر تغییر کند. بنابراین، این اسلاید من را در این نقطه خاص گیج کرده است. آیا من با افکارم در اینجا حق دارم یا چیزی را اشتباه متوجه شدم؟ پیشاپیش ممنون | سوال در مورد استنتاج بیزی یک پارامتر |
61819 | در De Livera، Hyndman & Snyder (2011)، یک مدل TBATS (مدل فضای حالت هموارسازی نمایی با تبدیل Box-Cox، خطاهای ARMA، روند و اجزای فصلی) برای فصلی بودن افزایشی مورد بحث قرار گرفته است. آیا TBATS با فصلی ضربی قابل استفاده است؟ آیا محدودیت یا مشکل عددی در TBATS یا BATS با فصلی ضربی وجود دارد؟ | مدل tbats برای فصلی ضربی |
112323 | چگونه می توان به راحتی یک نقطه پرت را در مدل PH پیدا کرد و چرا آنها اینقدر مهم هستند؟ آیا کسی می تواند به من راهنمایی کند یا پیشنهاد دهد که از کدام تابع R می توانم استفاده کنم؟ با تشکر از نظرات و کمک. | نقاط پرت در مدل خطرات متناسب |
16358 | من در حال انجام یک رگرسیون خطی ساده هستم که امتحان کردم: > mod <- lm(rnorm(100,sd=2) ~ rnorm(100,sd=2.1)) > summary(mod) فراخوانی: lm(formula = rnorm(100, sd = 2) ~ rnorm (100، sd = 2.1)) باقیمانده ها: میانه حداقل 1Q 3Q Max -4.0396 -1.0698 0.0803 0.9823 5.4893 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.0280 0.1868 0.150 0.8812 rnorm(100, sd = 2.1) -0.1523 0.0900 -1.692 0.0939 . --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1.868 در 98 درجه آزادی چندگانه R-squared: 0.02838، R-squared تنظیم شده: 0.01 F آمار: 2.862 در 1 و 98 DF، p-value: 0.09387 همانطور که می بینید R-squared چندگانه بسیار بسیار پایین است. من باید آن مدل را رد کنم، اما در چه سطحی است که بفهمم آیا می توانم مدل را قبول کنم یا نه؟ متشکرم | چند مقدار R-squared چند کم برای رد یک مدل کافی است؟ |
9607 | **زمینه:** من یک پیش بینی تلاش پروژه را به عنوان یک الگوی صفحه گسترده گوگل مدل کرده ام. جزئیات مدل: http://sites.google.com/site/efortprediction/methodology. Google Spreadsheet توابع توزیع بتا را پیاده سازی نمی کند. در PERT یک توزیع بتا برای تخمین تلاش یک کار در روزهای فرد ایدهآل (یعنی یک کارگر 8 ساعت در روز بدون حواسپرتی) استفاده میشود. **مشکل:** وقتی توزیع به یک توزیع خلاصه می شود، استفاده از توزیع های عادی به جای توزیع های بتا چه پیامدهایی دارد. **جزئیات** یک _پروژه_ شامل فهرستی از وظایف_است. هر وظیفه _بتا توزیع شده_ و _مستقل_ است، بنابراین مجموع وظایف باید از _قضیه حد مرکزی_ تبعیت کند. بنابراین _project_ توزیع نرمال است. وقتی برای هر وظیفه از توزیع های معمولی به جای بتا استفاده می کنم، مقدار انتظار و SD برای پروژه چگونه تغییر می کند؟ من فرض می کنم که توزیع وظایف بیشتر به سمت راست منحرف می شود تا به چپ. **سوالات** * آیا دم ها چاق تر هستند؟ * آیا مقدار مورد انتظار با توزیع های نرمال بیشتر است یا کمتر؟ * پراکندگی بیشتر است یا کمتر؟ | جمع کردن نرمال به جای توزیع بتا، پیامدهایی برای تابع چگالی مجموع؟ |
107472 | من می خواهم ناهنجاری را با استفاده از میانگین متحرک موزون نمایی تشخیص دهم. من مجموعه ای از نقاط داده را ندارم. تمام چیزی که من دارم EMA(t-1) و نقطه داده زمان فعلی (t) DP(t) است. از این داده ها می توانم EMA(t) جدید را محاسبه کنم. ثابت EWMA 0.85 خواهد بود (با فرض). اکنون دو EMA={EMA(t-1) ,EMA(t)} و DP(t) دارم. آیا می توان تشخیص داد که DPt ناهنجاری است یا خیر؟ با استفاده از هر منطق؟ * * * برای مثال، Time(t) DataPoint(t) EMA(t-1) EMA(t) 1 120 0 102. . . . . . . . . . . . . . . . . . . . 10 300 150 277.5 من نمی خواهم یک سری از نقاط داده را در محاسبه قرار دهم. در هر زمان مثلاً 10، من می خواهم بدانم که آیا نقطه داده 300 (در این مورد) یک ناهنجاری است یا خیر. من همچنین EMA(9)=150 و EMA(10)=277.5 را برای محاسبه دارم (در صورت نیاز) آیا منطقی برای محاسبه این وجود دارد؟ پیشاپیش متشکرم * * * به روز رسانی: من به منطق زیر فکر کردم اما مطمئن نیستم که آیا مطمئنا کار می کند ABS(DP-EMA(جدید))> 3 *SD {EMA(قدیمی)،EMA(جدید)} (یا) ABS(DP -EMA(جدید))> 3 *EMWSD {EMA(قدیمی)،EMA(جدید)} DP - EMA نقطه داده - میانگین متحرک موزون نمایی | تشخیص ناهنجاری با استفاده از میانگین متحرک موزون نمایی |
107479 | اگر برای یک متغیر تصادفی مقادیر انتگرال منفی داشته باشیم چه؟ تمام تعاریفی که تا کنون دیدهام برای مقادیر صحیح غیر منفی است. امیدوارم کسی بتونه کمکم کنه با تشکر | تابع مولد احتمال برای مقادیر منفی متغیرهای تصادفی؟ |
49420 | من می خواهم نمرات پیش و پس آزمون دانش آموزان سال 1-4 (نمرات تقسیم بر سؤال و سال) را با هم مقایسه کنم. از چه آزمایشی استفاده کنم؟ | مقایسه پیش آزمون و پس آزمون |
81017 | آیا اگر MAPE را برای $\Delta$log($Y_t)$ ~ iid N($\mu$,$\sigma^2$) بدانیم، فرمول ساده ای برای پیدا کردن MAPE برای $Y_t$ وجود دارد؟ آیا رابطه جبری بین این دو وجود دارد؟ اگر به جای آن از RMSFE استفاده کنم چه می شود؟ یا معیار دیگری از دقت پیش بینی. | آیا اگر MAPE را برای $\Delta$log($Y_t)$ بدانیم، فرمولی برای یافتن MAPE برای $Y_t$ وجود دارد؟ |
113983 | من از ca.jo در R برای انجام تست Johansen بر روی یک مجموعه داده معین استفاده می کنم. من ضرایب VECM، رتبه هم انباشتگی، و غیره را به دست میآورم. با این حال، به نظر نمیرسد که هیچ مفهومی از قدرت رابطه یا خوبی تناسب ارائه دهد. بنابراین سؤالات من عبارتند از: 1 - یک راه استاندارد/قابل اعتماد برای اندازه گیری میزان قوی بودن رابطه در یک مدل همجمعی VECM چیست؟ 2 - چگونه می توانم آن اندازه گیری را در R بدست آوریم؟ | VECM خوبی تناسب در R |
53362 | من در حال حاضر با مجموعه داده های پیچیده ای سروکار دارم که قبلاً با مدل احتمال خطی و رگرسیون لاجیت آزمایش شده است. من می خواهم جایگزینی برای رگرسیون های اصلی پیدا کنم. نمونه از یک متغیر وابسته باینری استفاده می کند که توسط بسیاری از رگرسیون ها توضیح داده شده است. علاوه بر این، نمونه بسیار بزرگ است (~50000 مشاهده). هر گونه پیشنهاد استقبال خواهد شد! | جایگزینی برای LPM و رگرسیون لاجیت در Stata |
113980 | من GLMM زیر را دارم: موفقیت ~ سن + جنسیت + گروه/وظیفه + (1 + گروه/تکلیف|مدرسه/موضوع)، خانواده = دو جمله ای. بر اساس نوع کار من 6 کار دارم که می توان آنها را به 3 گروه (A, B, C) با 2 کار در هر گروه دسته بندی کرد. هر شرکت کننده 3 کار (یکی از A، یکی از B، یکی از C؛ ترکیب و ترتیب متوازن) دریافت کرد. آزمونهای مکنمار کیو و پسهک کوکران نشان داد که سه گروه از نظر میزان موفقیت متفاوت هستند: A آسانتر از B و C است، و B و C به همان اندازه دشوار هستند. من از جدول های متقاطع برای تجزیه و تحلیل اینکه آیا وظایف هر گروه در میزان موفقیت آنها متفاوت است یا خیر استفاده کردم و دریافتم که آنها برای A و B متفاوت هستند. اکنون می خواهم مقایسه ای بین تمام وظایف فردی انجام دهم (نه فقط آنهایی که در یک دسته هستند). سوال من این است: آیا معادله بالا از نظر اثرات ثابت درست است یا دلیلی وجود دارد که گروه را به عنوان یک اثر ثابت اضافی در نظر بگیریم (مثلاً ببینیم که آیا وظیفه تأثیری بر اثرات گروهی که در آزمونهای مک نمار یافت میشود) وجود دارد؟ آیا این غیر ضروری خواهد بود؟ شامل هر دو گروه / وظیفه و گروه به چه معناست؟ | فاکتور تودرتو را به عنوان اثر ثابت در GLMM لحاظ کنید |
63417 | لطفاً کسی می تواند به من کمک کند تا بفهمم تفاوت بین مدل معادلات همزمان و مدل معادلات ساختاری (SEM) چیست؟ خیلی خوب می شود اگر کسی بتواند در مورد آن به من ادبیات بدهد. همچنین، آیا ادبیاتی وجود دارد که در آن SEM در زمینه سری زمانی استفاده شده باشد؟ ادبیاتی که به دست میآورم عمدتاً SEM در زمینه دادههای مقطعی توضیح داده میشوند. متشکرم | تفاوت بین مدل معادلات همزمان و مدل معادلات ساختاری |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.