_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
111015
من با تفاوت بین روش بیز تجربی و روش بیز سلسله مراتبی اشتباه گرفته ام. مثالی بزنید (رجوع کنید به: http://www.cs.cmu.edu/~xuerui/papers/ctr.pdf). فرض کنید: * $C$ تعداد کلیک‌هایی است که روی یک تبلیغ تبلیغاتی مشاهده کردیم * $r$ که نشان‌دهنده احتمال کلیک بر روی یک تبلیغ است (در اصل نسبت $y$ و $n$ به روش مکرر است. ) * I$ تعداد نمایش های تبلیغاتی است (که به معنی تعداد کاربران اینترنتی است که تبلیغاتی را دیده اند) * سلسله مراتب طبیعی: تبلیغات تبلیغاتی در یک حساب گروه بندی می شوند. ![نمایش مدل گرافیکی تخمین r با روش تجربی بیز](http://i.stack.imgur.com/C3GEL.png) شکل بالا: * برای هر حسابی که $N$ تبلیغات دارد، یک توزیع Beta$ داریم. (\alpha,\beta)$ * کلیک‌های مشاهده‌شده $C_{i}$ فرض می‌شود که از یک -بدون مشاهده- زیرین ایجاد می‌شوند. $r_{i}$ طبق یک Bin توزیع دوجمله‌ای ($I_{i}$,$r_{i}$)، که در آن $I_{i}$ تعداد نمایش‌های مشاهده‌شده آگهی است $i$ * پارامترها $r_i$ به‌عنوان نمونه‌هایی در نظر گرفته می‌شود که از جمعیتی که توسط فراپارامترها بر اساس بتا ($\alpha,\beta$) مشخص می‌شوند، در نظر گرفته می‌شوند، خوب، برای من این یک مدل بتا-دوجمله‌ای با دو است. روش بیز تجربی مرحله ای (تخمین ML) برای تخمین $r_i$ برای هر تبلیغ $i$. اما من هیچ تفاوتی با ادبیاتی به نام مدل های بیز سلسله مراتبی نمی بینم. همچنین می‌توانیم با فرض اینکه پارامترهای $\alpha,\beta$ از یک توزیع گرفته شده‌اند، یک سطح اضافی اضافه کنیم؟ کسی میتونه برام توضیح بده؟ علاوه بر این تفاوت در این مدل برای مشاهده یا عدم مشاهده $r_{i}$ چیست؟ برای هر توزیعی که داریم (دوجمله ای، بتا) توزیع شرطی است، اینطور نیست؟ به عنوان مثال $C|I,r \sim$ Bin(I,r) ? من با همه اینها خیلی گیج شده ام، اما فکر می کنم به درک چیزی که برای من جدید است بسیار نزدیک هستم. پیشاپیش برای هر گونه راهنمایی متشکریم! BimBimBap
سردرگمی بین بیز تجربی و مدل بیز سلسله مراتبی برای مدل بتا دو جمله ای
113504
من تعدادی کد دارم که به دنبال خوشه ها در داده های x,y می گردد. برای بررسی تعداد خوشه هایی که استفاده می کنم، می خواهم BIC را دریافت کنم. این کار (به راحتی) با استفاده از `kmeans()` ممکن نیست، و بنابراین من به بسته mclust تغییر مکان دادم. به طور خاص، من سعی می کنم «kmeans()» را از بسته آماری R، با «Mclust()» از بسته mclust جایگزین کنم. استفاده از «Mclust()» مستلزم آن است که مشخص کنم کدام مدل باید برای خوشه بندی استفاده شود. با توجه به `?Mclust`، مدل های زیر را می توان در `Mclust()` استفاده کرد: مخلوط تک متغیره E = واریانس برابر (یک بعدی) V = واریانس متغیر (یک بعدی) مخلوط چند متغیره EII = کروی، حجم مساوی VII = کروی، حجم نابرابر EEI = مورب، حجم و شکل مساوی VEI = مورب، حجم متغیر، برابر شکل EVI = مورب، حجم مساوی، شکل متغیر VVI = مورب، حجم و شکل متغیر EEE = بیضی، حجم، شکل و جهت EEV = بیضی، حجم مساوی و شکل مساوی VEV = بیضی، شکل مساوی VVV = بیضی، حجم، شکل و جهت متغیر تک جزء X = نرمال تک متغیره XII = کروی چند متغیره نرمال XXI = مورب چند متغیره نرمال XXX = بیضوی چند متغیره نرمال من فرض می کنم که k-means در آمار یک مدل کروی، حجم نابرابر است، به عنوان مثال. برای به دست آوردن `k-means(x = داده، مراکز = 6)` برای مطابقت با mclust()`، باید از mclust(data, G = 6, modelNames = c(VII)) استفاده کنم. با این حال، در آزمایش‌های محدودی که انجام داده‌ام، این مرکز خوشه‌ای متفاوتی را ارائه می‌دهد. مثال زیر از 6 خوشه با برخی داده های آزمایشی استفاده می کند. مرکز به دست آمده از طریق هر روش نشان داده شده است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NJrQ0.png) آیا کسی می‌تواند تأیید کند که کدام مدل «mclust()» معادل «kmeans()» است؟
مقایسه mclust() و k-means centroids
111017
سلام بچه ها من یک یا دو مقاله پیدا کردم که از رگرسیون ریج (برای داده های بسکتبال) استفاده می کنند. همیشه به من گفته می‌شد که اگر رگرسیون رج را اجرا می‌کنم، متغیرهایم را استاندارد کنم، اما به سادگی به من می‌گفتند که این کار را انجام بدهم، زیرا رگرسیون یک نوع مقیاس بود (رگرسیون رج در واقع بخشی از دوره ما نبود، بنابراین مدرس ما آن را مرور کرد). این مقالاتی که خواندم متغیرهایشان را استاندارد نکردند، که به نظرم کمی تعجب آور بود. آنها همچنین از طریق اعتبارسنجی متقاطع به مقادیر زیادی لامبدا (حدود 2000-4000) رسیدند، و به من گفته شد که این به دلیل استاندارد نبودن متغیرها است. دقیقاً چگونه غیراستاندارد ماندن متغیر(ها) منجر به مقادیر بالای لامبدا می شود و همچنین، استاندارد نکردن متغیرها به طور کلی چه پیامدهایی دارد؟ آیا واقعاً چنین مسئله بزرگی است؟ هر گونه کمک بسیار قدردانی می شود.
سوال در مورد استانداردسازی در رگرسیون پشته
50858
این یک سوال در مورد یک رویکرد به ظاهر غیرمنطقی برای آزمون فرضیه و تفسیر _p_ - ارزش است که به نظر من تقریباً در سراسر جهان تأیید شده است. من پاسخ ها را در قسمت آیا می توانم به نتایج ANOVA برای یک DV غیرعادی توزیع شده اعتماد کنم ذکر خواهم کرد؟ به عنوان نمونه افرادی که می خواهند مثلاً یک ANOVA انجام دهند، اما با توزیع غیرعادی باقیمانده ها مواجه می شوند، انتخاب هایی انجام می دهند و برای آنها دلایل منطقی ارائه می دهند که گویی فقط 3 گزینه وجود دارد: 1. تصمیم بگیرید که باقیمانده ها عملاً نرمال هستند و با مقادیر -p_ رفتار کنید. از آزمایش های به دست آمده به گونه ای که گویی دقیق هستند. آن مقادیر را با استفاده از تعداد اعشار دلخواه ذکر کنید. 2. تصمیم بگیرید که نرمال بودن تقریباً مطابقت دارد، اما یک آزمون پارامتریک را طوری انجام دهید که گویی این داده‌ها عادی هستند، و دوباره با مقادیر _p_ طوری رفتار کنید که گویی دقیق هستند - تا هر تعداد رقم اعشار که مورد نظر است. 3. تصمیم بگیرید که فرض نرمال بودن قابل قبول نیست و از آزمون پارامتری صرف نظر کنید. بر اساس این منطق، ما باید باور کنیم که هر چه انحراف از حالت عادی بیشتر و شدیدتر می‌شود، هیچ چیز برای دقت مقادیر _p_ اتفاق نمی‌افتد - تا آستانه‌ای بحرانی که در آن نقطه کاملاً نامعتبر می‌شوند. ![-image-](http://i.stack.imgur.com/TRc59.jpg) در یک دیدگاه دقیق تر، جایگزین دیگری وجود دارد که انجام تست پارامتری علیرغم غیرعادی بودن _مقداری و درمان مقادیر _p_ به‌عنوان تقریب‌های مفید، تا شاید یک رقم اعشار خوب باشد. ما عدم قطعیت را می‌پذیریم و در بسیاری از موقعیت‌های دیگر به تخمین‌ها بسنده می‌کنیم: چرا با -p_ ارزش‌ها یکسان رفتار نکنیم؟
آیا می توانید این رفتار بسیار متداول (اما به ندرت مورد بحث) را با ارزش های $p$ توجیه کنید؟
8724
من یک پایگاه داده با ویژگی های بسیاری دارم. می‌خواهم بدانم کدام ویژگی کمترین تغییرات را در داده‌ها دارد. آیا تکنیک استانداردی وجود دارد؟ باید مانند خوشه بندی بدون تقسیم رکوردها در خوشه ها باشد. من می خواهم بدانم که رکوردها در خوشه خاص چه مشترکاتی دارند. قرار بود میانگین ($\bar{x}$) و st.d را محاسبه کنم. ($s$) برای هر ویژگی پیوسته $x$. پس از محاسبه ضریب تغییرات $CV=\frac{s}{\bar{x}}$ می‌توانم بگویم که ویژگی‌های با $CV\leq0.1$ مشابه هستند. برای موارد طبقه بندی، من ویژگی هایی با فرکانس نسبی بیش از $90\%$ را برای حالت انتخاب می کنم. آیا تکنیک استانداردی وجود دارد؟
کاوش ویژگی های داده
104319
من سعی می کنم یک ابزار آماری یا یادگیری ماشینی پیدا کنم که این تحلیلی را که به صورت دستی در اکسل انجام می دهم تکرار کند. هر ردیف در مجموعه داده من یک کاربر است. کاربر | بازدید از سایت ها | صفحات مشاهده شده | اقلام اضافه شده به سبد خرید | خریداری شده (1 یا 0) من یک جدول محوری تنظیم کردم تا خرید شده در قسمت ستون ها باشد. من آن را روی % ردیف تنظیم کرده ام. Purchased Didn't Purchase Total 80% 20% 100% سپس تمام متغیرهای دیگر را به عنوان فیلتر در Pivot Table اضافه می کنم. من با فیلتر کردن افرادی که 1 صفحه را مشاهده نکرده‌اند شروع می‌کنم و می‌بینم که چگونه روی درصد افرادی که خرید کرده‌اند تأثیر می‌گذارد. سپس افرادی را که 2 صفحه و غیره را مشاهده نکرده‌اند فیلتر می‌کنم. سپس شروع به فیلتر کردن سایر متغیرها می‌کنم تا ببینم تعاملات چگونه با هم کار می‌کنند. من به دنبال ترکیبی از ورودی ها هستم که منجر به نرخ خرید 80 درصدی شود. بنابراین شاید 2 بازدید، 6 بازدید از صفحه، و 2 افزودن به سبد خرید باشد. آیا ابزاری وجود دارد که این نوع تحلیل را خودکار کند؟
آیا ابزار آماری برای این تحلیلی که در اکسل اجرا می کنم وجود دارد؟
114227
1) یک مجموعه داده (100 نمونه، 10 کلاس، هر کدام 8 کاراکتر) چند طبقه ای بود که دقت خوبی با یک مجموعه داده خارجی به دست آورد. 2) همان مجموعه داده به نصف تقسیم شد (50 نمونه، 5 کلاس، هر کدام 8 کاراکتر) و به عنوان 2 مدل طبقه بندی (مانند، مدل 1 با کلاس های 1-5، و مدل 2 با کلاس های 6-10) آموزش داده شد. چرا نتایج 1 بهتر از 2 است؟ هر ایده ای؟ از نظر تئوری، فرض من این است که 2 یک نمای محلی از کل مجموعه داده دارد و باید نتایج بهتری دریافت کند.
بخش آموزش تشخیص الگو
50853
من هرگز توضیح خوبی در مورد اینکه امتیاز ROC50 چیست و چگونه محاسبه می شود، پیدا نکردم. برای مثال تعریفی که در شبکه یافت می شود: > امتیاز ROC50 مساحت زیر منحنی ROC است، تا 50 مورد اول نادرست > مثبت، بنابراین اگر من درست متوجه شده باشم، به چند طبقه بندی مثبت صحیح نگاه کنید تا زمانی که به دست آورید. پنجاه نفر اول اشتباه اما این باعث می‌شود که امتیاز ROC50 به طبقه‌بندی‌های مثبتی که ابتدا به آنها نگاه کنید، درست یا نادرست بستگی دارد. از چه سفارشی استفاده می شود؟ آیا ابتدا به اشیایی که با اطمینان بیشتر به عنوان مثبت طبقه بندی شده اند نگاه می کند؟ یعنی برای فهرست اشیاء طبقه‌بندی شده توسط SVM، با شی با بالاترین امتیاز از تابع تصمیم شروع می‌کنید و به سمت پایین حرکت می‌کنید تا به پنجاه مثبت کاذب برسید؟ اگر چنین است، آیا این درست است که بگوییم امتیاز ROC50 اطلاعاتی در مورد میزان طبقه بندی اشیاء با اطمینان بالا به شما می دهد؟
امتیاز ROC50 - چگونه محاسبه می شود؟
7763
من در حال بررسی همبستگی ها در یک مجموعه داده با تعداد زیادی متغیر اما حجم نمونه کوچک هستم. برای اینکه بفهمم چگونه این کمیت ها رفتار می کنند، داده های تصادفی تولید کردم و به توزیع همبستگی ها نگاه کردم: n = 4 y = ماتریس (rnorm(1000 * n)، 1000، n) x = ماتریس (rnorm(1000 * n )، 1000، n) p = as.numeric(cor(t(x)،t(y))) hist(p) در کمال تعجب، توزیع تقریباً کاملاً یکنواخت است: ![histogram](http://i.stack.imgur.com/XbDeb.png) آیا کسی توضیحی برای این پدیده دارد؟ منطقی است که برای n=2 یا p=1 یا p=-1 داریم، و با n->بی‌نهایت توزیع نرمال می‌شود، بنابراین این توزیع در جایی بینهایت قرار می‌گیرد. اما چرا یکدست؟ من گیج شده ام.
ویژگی همبستگی نمونه کنجکاو
50852
من یک سوال در مورد تخمین پایایی (ضریب آلفا) یک مقیاس آزمایشی با ارزیابی سازگاری داخلی آن دارم. پرسشنامه آزمایشی داده های ترتیبی را تولید می کند، هر کدام 9 گویه با 9 دسته بندی پاسخ مرتب. مجموعه داده دارای 183 قرائت کامل از مقیاس آزمایشی است. سوال من این است: آیا محاسبه آلفا با استفاده از فرمول کرونباخ از یک ماتریس همبستگی متشکل از ضرایب همبستگی مرتبه رتبه اسپیرمن بین 9 مورد مشروع است؟
پایایی داخلی برای مقیاس ترتیبی با استفاده از ماتریس همبستگی اسپیرمن
8071
چگونه بفهمم که چه زمانی بین $\rho$ اسپیرمن و $r$ پیرسون انتخاب کنم؟ متغیر من شامل رضایت است و نمرات با استفاده از مجموع نمرات تفسیر شد. با این حال، می توان این امتیازات را نیز رتبه بندی کرد.
چگونه بین همبستگی پیرسون و اسپیرمن یکی را انتخاب کنیم؟
17976
** آیا توزیع نمرات مرکب باید نرمال باشد (منحنی زنگی)؟** نمرات ترکیبی که من ایجاد کرده ام از وزن دادن به اجزای جداگانه آنها است. نمرات مؤلفه ها در پاسخ به یک نظرسنجی معمولی است (یعنی از روش های نمونه گیری مناسب استفاده شده است). سپس امتیازها را وزن کردم (طبق یک فرمول اساسی که سطح اهمیت آنها را تعیین می کند).
آیا توزیع نمرات ترکیبی باید به طور معمول توزیع شود؟
104318
بنابراین، من مجموعه داده ای دارم و پارامترها و خطاهای مدل را با استفاده از statsmodels محاسبه می کنم: result = sm.OLS(y, X).fit() result.summary() اکنون «result.mse_resid»، «result.mse_total» ارائه می دهد. MSE باقیمانده و مجذور میانگین مجذور خطا. با خواندن آموزش های آماری می بینم که $MSE=\frac{RSS}{DFE}$، که در آن DFE درجه آزادی خطا است. من باید بتوانم MSE را به صورت زیر محاسبه کنم: reg=LinearRegression() reg.fit(X,y) yp=reg.predict(X) resid=y-yp rss=np.sum(resid**2) MSE=rss /(result.nobs-2) MSE با استفاده از OLS چیست و چرا با این یکی متفاوت است (یا من چه چیزی را به درستی درک نمی کنم)؟
Statsmodels OLS و MSE
99778
به نظر می رسد نقاط زیادی در اطراف مقادیر منفی برای همه نمودارها جمع شده اند و در حالی که به نظر می رسد 3 و 4 دارای الگوهای تصادفی کافی هستند، به نظر می رسد 1 و 2 دارای روند شیب منفی هستند. اگر قرار بود اینها فرض خطی بودن و همگنی را نقض کنند، باید استفاده از مدل رگرسیون را متوقف کنم، درست است؟ ![متغیر نمودار باقیمانده 1](http://i.stack.imgur.com/oVR4u.png) ![متغیر نمودار باقیمانده 2](http://i.stack.imgur.com/jY8yb.png) ![ متغیر نمودار باقیمانده 3](http://i.stack.imgur.com/dpqmX.png) ![متغیر نمودار باقیمانده 4](http://i.stack.imgur.com/EKpXn.png)
آیا این نمودارهای باقیمانده مفروضات خطی بودن و همگنی رگرسیون خطی را نقض می کنند؟
112670
من روی یک مجموعه داده با متغیرهای زیر کار می‌کنم: Y: یک بولی که نشان می‌دهد آیا آزمودنی یک ID تشنج را تجربه کرده است یا خیر: شناسه آزمودنی Sess: شماره جلسه آزمودنی (یک موضوع چندین بار مشاهده شده است) X3: اندازه‌گیری‌های عددی از رفتار آزمودنی در جلسه X4: X6: ایده این است که ببینیم آیا اندازه‌گیری‌های رفتار (X3، X4، X6) می‌توانند وضعیت تشنج را پیش‌بینی کنند (Y) در جمعیت اگر فقط یک جلسه برای هر موضوع وجود داشت، داده ها را با رگرسیون لجستیک مدل می کردم، اما از آنجایی که هر موضوع چند جلسه دارد، مشاهدات را نمی توان مستقل فرض کرد. به نظر می رسد یک مدل لجستیک GEE برای این مجموعه داده بسیار منطقی است، اما در مقایسه با یک glm معمولی در درک نتایج با مشکل مواجه هستم. هنگام معرفی ساختار همبستگی به معادله GEE، علائم ضرایب معکوس می‌شوند و مقادیر پیش‌بینی‌شده برخلاف آنچه که با یک ساختار همبستگی مستقل خواهند بود، هستند. کتابخانه (geepack) #مدل لجستیک منظم mod0 = glm(Y~X3+X4+X6، خانواده=دوجمله ای(logit)، داده=موش) مدل لجستیک #gee، ساختار همبستگی مستقل mod1 = geeglm(Y~X3 +X4+X6، id=ID، family=binomial(logit)، corstr=indep، scale.fix=T، waves=Sess، data=mice) مدل لجستیک #gee، ساختار همبستگی قابل مبادله mod2 = geeglm(Y~X3+X4+X6، id=ID، خانواده=binomial(logit)، corstr=Echangeable، scale.fix =T، امواج = Sess، داده = موش) همانطور که انتظار می رود، تخمین پارامترهای مدل glm (mod0) و همبستگی مستقل مدل (mod1) یکسان است. اما هنگامی که یک ساختار همبستگی مبادله ای (mod2) معرفی می شود، برآوردها کاملاً متفاوت هستند و علامت تغییر می کنند. > > خلاصه (mod1) فراخوانی: geeglm (فرمول = Y ~ X3 + X4 + X6، خانواده = دوجمله ای (logit)، داده = موش، id = ID، امواج = Sess، corstr = indep، scale.fix = T) ضرایب: برآورد Std.err Wald Pr(>|W|) (Intercept) -1.494 0.459 10.59 0.00114 ** X3 -2.377 0.626 14.42 0.00015 *** X4 1.090 0.398 7.50 0.00619 ** X6 1.233 0.403 9.32if 0.403 9.32if 0.0. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مقیاس ثابت است. همبستگی: ساختار = استقلال تعداد خوشه: 28 حداکثر اندازه خوشه: 4 > خلاصه (mod2) فراخوانی: geeglm (فرمول = Y ~ X3 + X4 + X6، خانواده = دوجمله ای (logit)، داده = موش، شناسه = ID، امواج = Sess، corstr = قابل تعویض، scale.fix = T) ضرایب: برآورد Std.err Wald Pr(>|W|) (Intercept) -0.8928 0.4255 4.40 0.0359 * X3 0.1059 0.0383 7.64 0.0057 ** X4 -0.0427 0.0290 - 0.0290 0.0290 0.0359 2.04 X4 0.0213 6.16 0.0131 * --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مقیاس ثابت است. همبستگی: ساختار = پیوند قابل مبادله = هویت پارامترهای همبستگی تخمینی: برآورد Std.err آلفا 1.09 0.133 تعداد خوشه: 28 حداکثر اندازه خوشه: 4 بزرگترین نگرانی من این است که Yهای پیش بینی شده از دو مدل GEE روندهای متضادی را نشان می دهند، یعنی رفتارهایی که می توانند نشان دهند. پیش بینی وضعیت تشنج مثبت در mod1، پیش بینی تشنج منفی وضعیت در mod2. plot(mod1$fitted, mod2$fitted) ![نمودار پراکنده مقادیر برازش شده از mod1, mod2](http://i.stack.imgur.com/nAogH.png) همچنین، پارامتر همبستگی تخمینی آلفا = 1.09 در mod2؟ مگر اینکه من این را اشتباه تفسیر کنم، آیا نباید همیشه بین -1 و 1 قرار گیرد؟ همبستگی: ساختار = پیوند قابل مبادله = هویت پارامترهای همبستگی تخمینی: تخمین Std.err alpha 1.09 0.133 به نظر من عجیب به نظر می رسد که نتایج بسته به اینکه مشاهدات دارای ساختار وابستگی هستند یا نه کاملاً تغییر کرده اند. آیا شخص دیگری می تواند بینشی در مورد این رفتار ارائه دهد؟ این داده ها است: > ساختار dput(موش)(لیست(Y = c(0L، 0L، 0L، 0L، 0L، 0L، 1L، 1L، 1L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1L، 1L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L ), ID = c(1L, 1L, 1L, 2L, 2L, 2L, 3L, 3L, 3L, 4L, 4L, 4L, 5L, 5L, 5L ، 6 لیتر، 6 لیتر، 6 لیتر، 7 لیتر، 7 لیتر، 8 لیتر، 8 لیتر، 9 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 21 لیتر، 21 لیتر، 21، 2، 2، 2 لیتر، 2 لیتر، 2 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 27 لیتر، 27 لیتر، 27 لیتر،
geepack: تخمین پارامتر بسته به ساختار همبستگی علامت تغییر می کند
66945
حدس می‌زنم که من معادله شرط تعادل تفصیلی را درک کرده‌ام، که بیان می‌کند برای احتمال انتقال $q$ و توزیع ثابت $\pi$، یک زنجیره مارکوف تعادل دقیق را برآورده می‌کند اگر $$q(x|y)\pi(y)= q(y|x)\pi(x),$$ این برای من منطقی تر است اگر آن را مجدداً بیان کنم: $$\frac{q(x|y)}{q(y|x)}= \frac{\pi(x)}{\pi(y)}. $$ اساساً، احتمال انتقال از حالت $x$ به حالت $y$ باید متناسب با نسبت چگالی احتمال آنها باشد. سوال من این است که چگونه MCMC انجام تعادل دقیق توزیع ثابت را به همراه دارد؟
درک شرایط دقیق تعادل
110767
من سعی می کنم احتمال رسیدن یک آهنگ به 10 آهنگ برتر بیلبورد را در طول زمان مدل کنم. داده‌های من دارای ستون‌های «روز پس از انتشار»، «اگر به ۱۰ نفر برتر رسیدم» است. به عنوان مثال، [12,1] به این معنی است که آهنگ در روز دوازدهم پس از انتشار به رتبه 10 برتر رسیده است، و [350,0] به این معنی است که آهنگ به مدت 350 روز منتشر شده است و هنوز به 10 آهنگ برتر تبدیل نشده است. آیا پیشنهادی برای بهترین نوع تکنیک برای برخورد با این مشکل دارید؟ با تشکر برای هر گونه کمک!
مدل احتمال رسیدن آهنگ به رتبه 10 در طول زمان؟
48864
روش رایج برای تخمین پارامترهای یک توزیع نرمال استفاده از میانگین و انحراف استاندارد / واریانس نمونه است. با این حال، اگر برخی موارد پرت وجود داشته باشد، میانه و انحراف میانه از میانه باید بسیار قوی تر باشد، درست است؟ در برخی از مجموعه‌های داده‌ای که من امتحان کردم، به نظر می‌رسد توزیع نرمال تخمین زده شده توسط $\mathcal{N}(\text{median}(x)، \text{median}|x - \text{median}(x)|)$ تولید می‌کند. تناسب بسیار بهتری نسبت به $\mathcal{N}(\hat\mu, \hat\sigma)$ کلاسیک با استفاده از میانگین و انحراف RMS. اگر فرض کنید مقادیری پرت در مجموعه داده وجود دارد، آیا دلیلی وجود دارد که از میانه استفاده نکنید؟ آیا مرجعی برای این رویکرد می شناسید؟ یک جستجوی سریع در گوگل نتایج مفیدی برای من پیدا نکرد که مزایای استفاده از میانه ها را در اینجا مورد بحث قرار دهد (اما بدیهی است که میانگین تخمین پارامتر توزیع عادی مجموعه خیلی خاصی از عبارات جستجو نیست). انحراف میانه، آیا مغرضانه است؟ آیا باید آن را در $\frac{n-1}{n}$ ضرب کنم تا بایاس کاهش یابد؟ آیا روش‌های تخمین پارامتر قوی مشابهی را برای توزیع‌های دیگر مانند توزیع گاما یا توزیع گاوسی اصلاح‌شده نمایی (که در تخمین پارامتر به چولگی نیاز دارد و نقاط پرت واقعاً این مقدار را خراب می‌کنند) می‌شناسید؟
برآورد پارامترهای یک توزیع نرمال: میانه به جای میانگین؟
8725
من سعی کردم از روش نمودار تراکم هسته از بسته Hayfield and Racine (2008) 'np' برای داده های خود استفاده کنم، اما به نوعی به انواع مختلف نمودارها رسیدم و من نمی دانم تفاوت بین داده های من و داده های نمونه چیست. ارائه شده توسط بسته من از مثال تولید ناخالص داخلی ایتالیا استفاده کردم که در بسته np ارائه شده و در پرایمر راسین توضیح داده شده است. خود مثال به خوبی جواب داد و من به یک طرح سه بعدی خوب رسیدم. وقتی از آن با داده‌های خودم استفاده کردم، به‌جای یک طرح سه‌بعدی، دو نمودار دوبعدی دریافت کردم. چرا اینطور است؟ آیا چیزی را از نظر محتوایی از دست می‌دهم (این چیزی است که من فکر می‌کنم و به همین دلیل است که حدس می‌زنم این یک CV است تا یک سؤال SO) یا یک مشکل نحوی است؟ # یک شی با پهنای باند دریافت کنید bw2 <- npcdensbw(formula=mydf$values~ordered(mydf$datefield), tol=.1, ftol=.1) str(mydf) # data.frame': 780 obs. از 2 متغیر: $ datefield: Ord.factor w/ 104 سطح 1984-04-01<1984-07-01<..: 1 1 1 1 1 1 1 1 1 1 ... مقادیر $ : num 50.7 58.5 56.1 55.5 62.7 ... جداول (mydf$datefield) # نشان می دهد که من 13 ورودی در هر سه ماهه دارم. کوارتز() plot(bw2) npplot(bw2) # نمودار دو بعدی یکسان برای هر دو: (همه این ویژگی ها دقیقاً مطابق با داده های مثال هستند. با این وجود من به جای نمودار سه بعدی فقط نمودارهای دو بعدی دریافت می کنم. من سه بعد دارم: ربع، مقادیر و چگالی مشروط چه اشکالی دارد؟
نمودار چگالی هسته شرطی با بسته R's np
82035
در داده‌هایم می‌خواهم بتوانم تعیین کنم که کدام مجموعه از IVها (در مجموع 8 متغیر، 4 متغیر در هر مجموعه وجود دارد) کار بهتری را برای پیش‌بینی یک مجموعه DV انجام می‌دهد (4 متغیر وجود دارد). من می دانم که می توانم از رگرسیون چند متغیره برای استفاده از همه DV ها در آنالیزهای یکسان استفاده کنم، اما نمی دانم چگونه IV ها را در 2 مجموعه گروه بندی کنم. از طرف دیگر می‌توانم به اعتبار افزایشی با استفاده از رگرسیون خطی و قرار دادن مجموعه‌های IV مختلف در بلوک‌های مختلف نگاه کنم، اما در SPSS (شاید مشکل من این باشد...) شما فقط می‌توانید یک DV داشته باشید.
رگرسیون با متغیرهای وابسته چندگانه و 2 مجموعه از متغیرهای مستقل چندگانه
50859
من در تفسیر مفهوم برون زایی ضعیف در یک فرآیند VAR مشکل دارم. با فرض اینکه شکل ساختاری زیر را داریم: $y_t = b_{12}z_t + \gamma_{11}y_{t-1} + \gamma_{12}z_{t-1} + \epsilon_{yt}$z_t $ = b_{21}y_t + \gamma_{21}y_{t-1} + \gamma_{22}z_{t-1} + \epsilon_{zt}$ آیا برون زایی ضعیف به این معناست که یا $b_{12}=0$ یا $b_{21}=0$، اما نه هر دو؟
برون زایی ضعیف در تحلیل VAR
66940
داده‌های درآمدی با کد بالا اغلب با توزیع پارتو مدل‌سازی می‌شوند، اما این موضوع بحث‌برانگیز است. چه اشکالی دارد که آن مقادیر را گمشده اعلام کنیم و سپس با استفاده از انتساب چندگانه (MI) برای تولید مقادیر برای آن موارد با استفاده از یک مدل معمولی در حالی که یک کران پایینی مجاز در IVEware اختصاص دهیم (تا زمانی که تعداد موارد از دست رفته کم باشد، می گویند <5٪؟ IVEware از تلفیق رگرسیون چندگانه رگرسیون متوالی استفاده می کند. از p.2 در مقاله زیر الگوریتم این است: > استراتژی اساسی از طریق دنباله ای از رگرسیون های متعدد، انتساب ایجاد می کند، که نوع مدل رگرسیون را بر اساس نوع متغیر > در حال منتسب شدن تغییر می دهد. متغیرهای کمکی شامل همه متغیرهای دیگر مشاهده شده یا نسبت داده شده برای آن فرد است. انباشته‌ها به‌عنوان برداشت‌هایی از توزیع پسین> پیش‌بینی شده توسط مدل رگرسیون با توزیع قبلی مسطح یا غیر اطلاعاتی برای پارامترهای موجود در مدل رگرسیون تعریف می‌شوند. دنباله انتساب مقادیر گمشده را می توان به شیوه ای > چرخه ای ادامه داد، هر بار مقادیر ترسیم شده قبلی را بازنویسی کرد، وابستگی متقابل بین مقادیر انباشته ایجاد کرد و از ساختار همبستگی بین متغیرهای کمکی استفاده کرد. برای ایجاد انتساب های متعدد، روش > یکسان را می توان با دانه های شروع تصادفی مختلف یا گرفتن > هر P امین مجموعه مقادیر نسبت داده شده در چرخه های ذکر شده در بالا اعمال کرد. از ص. 3 رگرسیون های شرطی بر اساس: هر رگرسیون شرطی بر اساس یکی از مدل های زیر است: 1\. یک مدل رگرسیون خطی نرمال در مقیاس مناسب (به عنوان مثال، یک تبدیل توان BoxCox ممکن است برای دستیابی به نرمال استفاده شود) اگر Yj پیوسته باشد؛ 2\. یک مدل رگرسیون لجستیک اگر Y j باینری باشد؛ 3\. یک مدل رگرسیون لاجیت چندتومی یا تعمیم یافته اگر Y j مقوله ای باشد؛ 4\. یک مدل لاگ خطی پواسون اگر Y j یک متغیر تعداد باشد؛ و 5\. یک مدل دو مرحله‌ای که در آن وضعیت صفر صفر با استفاده از رگرسیون لجستیک و مشروط به وضعیت غیرصفر نسبت داده می‌شود، اگر Yj مخلوط شود، از یک مدل رگرسیون خطی معمولی برای القای مقادیر غیرصفر استفاده می‌شود.
داده های نظرسنجی با کد بالا
8187
من در آمار مبتدی هستم. من این داده های منتشر نشده (موارد و مرگ و میر) یک بیماری را به مدت 7 سال (2004-2010) از 2 ایالت همسایه دارم. این مطالعه در سال 2004 آغاز شد. ایالت 1 و ایالت 2 درمان های مختلفی را دریافت کردند. نرخ مرگ و میر در یک ایالت بالا است. من می‌خواهم ثابت کنم که درمان در حالت 1 در مقایسه با حالت ارائه شده در حالت 2 برتر است. سری زمانی به دلیل بسیاری از متغیرهای مخدوش کننده احتمالی پذیرفته نشد. من SPSS و نرم افزار جامع متاآنالیز دارم. لطفا مرا راهنمایی کنید. 1. بهترین طرح چیست؟ مطالعه کوهورت آینده نگر یا مطالعه مورد-شاهدی؟ 2. بهترین معیار اثر (نسبت شانس، نسبت ریسک، هر چیز دیگری) چیست؟ 3. بهترین آزمون آماری چیست (?Chi Square و غیره) 4. آیا می توانم در این مورد از متاآنالیز استفاده کنم؟ 5. هر گونه اطلاعات دیگری که فکر می کنید مفید باشد. ایالت 1 ایالت 2 مورد مرگ و میر موارد مرگ 2004 1125 5 2024 254 2005 1213 5 1978 209 2006 1003 4 2294 217 2007 1425 6 23128 23120 197 2009 1092 3 1683 204 2010 1316 4 2024 218
چگونه می توان اثر مداخله را در یک ایالت در مقابل دیگری با استفاده از داده های میزان مرگ و میر سالانه ارزیابی کرد؟
114229
در رگرسیون چند متغیره معمولی می‌توانید متغیرهای کمکی را کنار بگذارید (با فرض اینکه با هیچ یک از متغیرهای کمکی که در آن جا گذاشته اید همبستگی نداشته باشند) و واریانس متغیرهای کمکی حذف شده در عبارت خطا قرار می‌گیرد. در آنالیز بقا از مدل های پواسون استفاده می شود. در این مدل ها واریانس تابعی از میانگین است. سپس برای واریانس متغیرهای کمکی خارج از مدل چه اتفاقی می‌افتد زیرا هیچ پارامتر آزاد برای تخمین خطا وجود ندارد؟ تصور من، شاید ساده‌لوحانه، این است که تخمین واریانس برای مدل‌های پواسون تنها در صورتی صحیح است که مدل کاملاً مشخص شده باشد. اما این بدان معناست که واریانس برای هر مدلی که متغیرهای کمکی را کنار گذاشته است دست کم گرفته می شود. که به نوبه خود به این معنی است که مقادیر p برای هر موردی بسیار خوش بینانه خواهد بود. اما چنین مدل هایی در اپیدمیولوژی بسیار رایج هستند و من نمی توانم باور کنم که همه آنها تا این حد ناقص باشند. چه چیزی را از دست داده ام؟
چه اتفاقی برای واریانس متغیرهای کمکی گمشده در مدل‌های پواسون می‌افتد
12477
مسابقه نتفلیکس مسابقات زیادی را برای توسعه بهترین روش ها برای یادگیری اطلاعات از مجموعه داده های داده شده آغاز کرد. اینها شامل پیش‌بینی جریان ترافیک، پیش‌بینی موفقیت برنامه‌های کمک هزینه، تخمین زمانی که بیماران در بیمارستان می‌گذرانند، و ساختن نمایش‌های خوب از داده‌ها به شیوه‌ای بدون نظارت است. برخی به طور مستقل اجرا می شوند، برخی دیگر توسط پلتفرم هایی مانند Kaggle و TunedIT میزبانی می شوند. واضح است که این مسابقات می تواند علاقه به این رشته و برخی کاربردهای خاص را تحریک کند. با این حال، آنها همچنین ممکن است باعث شوند که مقدار زیادی از منابع به بهینه سازی دقیق یک برنامه کاربردی محدود اختصاص داده شود. این مسابقات تا چه اندازه مفید و تا چه حد مضر است؟ سازمان‌دهندگان مسابقه چگونه می‌توانند این مسابقات را برای به حداکثر رساندن مزایای بالقوه دانشگاهی و تجاری ساختار بدهند و از چه دام‌های رایجی باید اجتناب کنند؟
مسابقات داده کاوی و یادگیری ماشین از چه راه هایی به این رشته های دانشگاهی و کاربردهای تجاری آنها کمک می کند یا از آنها می کاهد؟
7760
من فقط می خواهم تأیید کنم که در مسیر درستی هستم. من باید یک عبارت برای b^Y1.2 استخراج کنم که فقط به واریانس ها و کوواریانس ها اشاره دارد (یعنی فقط به اصطلاحات دو متغیره و تک متغیره). من به موارد زیر رسیده ام: b-hatY1.2 = (CovY1)/(Var1) - (Cov1,2/V1)*(b-hatY2.1) این باید درست باشد، اما من فقط بازخورد می خواستم.
ضریب باقی مانده با استفاده از واریانس ها و کوواریانس ها
51810
فرض کنید می توانم $x_1,...,x_n$ را به عنوان تحقق متغیرهای تصادفی $X_1,..,X_n$ مشاهده کنم. با استفاده از $x_1،...،x_n$، می توانم تابع توزیع تجمعی تجربی (CDF) را تخمین بزنم، $F_n(x)=\sum_{i=1}^n\frac{I(x_i\leq x)}{ n}$. اکنون، با $\lambda$ داده شده، می توانم این CDF را با استفاده از تبدیل Wang که $F^*(x)=\Phi\big[\Phi^{-1}(F_n(x))-\ است، تبدیل کنم. lambda\big]$، که $\Phi(.)$ سی دی اف توزیع نرمال استاندارد است. **سوال**: چگونه می توانم $f^*(x)$ (یعنی تابع چگالی احتمال تحت تبدیل جدید) را با استفاده از $F^*(x)$ تخمین بزنم؟ آیا بسته ای در R برای انجام این کار وجود دارد؟
تخمین تابع چگالی از CDF تبدیل شده
114223
من می خواهم بدانم که مثال زیر در ریاضیات چه نامیده می شود: در یک مسابقه ژیمناستیک، داوران به یک رقیب 10، 8، 3، 7، 7، 9 و 8 امتیاز می دادند. به یاد می آورم که نمره پایان همیشه پس از آنها محاسبه می شد. بالاترین و کمترین اعداد را در گروه کنار گذاشتند و از آنچه باقی مانده بود برای بدست آوردن امتیاز استفاده کردند. این نوع ریاضی چیست؟ آیا این نمونه ای از کنار گذاشتن موارد پرت خواهد بود؟ و آیا نتیجه میانگین اعداد باقی مانده است؟
نقاط پرت و میانگین
89761
من یک مجموعه داده دارم که در زیر نشان داده شده است، اما بسیار طولانی تر. چگونه می توانم بفهمم که بین دسته کسب و کار و امتیاز کسب و کار رابطه آماری وجود دارد؟ نام کسب و کار رده کسب و کار امتیاز کسب و کار کسب و کار1 خرید 1 کسب و کار2 غذا خوردن 1 کسب و کار3 خرید 2 کسب و کار4 خرید 2 کسب و کار5 غذا خوردن 1 بیزینس6 مانیکور 3 کسب و کار 7 کوتاهی مو 2 بیزینس 8 مانیکور 3 کسب و کار9 غذا خوردن 3 کسب و کار 10 مانیکور 3 کسب و کار 11 کوتاهی مو 3 کسب و کار 12 غذا خوردن 1 تجارت 15 خرید 1 تجارت 16 کوتاه کردن مو 3 Business17 کوتاه کردن مو 2 Business18 خرید 3 Business19 غذا خوردن 2 Business20 مانیکور 3
یافتن همبستگی یا رابطه معنی دار آماری در داده ها
66943
من جمعیتی دارم که از نظر فنی بدون جایگزینی با استفاده از طرح طبقه بندی شده نمونه برداری می کنم. تخمین‌گر نسبت حاصل از میانگین نمونه در هر طبقه $i$ $\hat{R}_{i} = (\sum y_{i})/(\sum x_{i})$ است. من همچنین می‌دانم که $x_{i} \in \theta_{x,i}$ در هر طبقه‌ای، به طوری که می‌توانم $\hat{\theta}_{y,i} = \hat{R}_{i به دست بیاورم }\theta_{x,i}$. پس سوال من این است که آیا می توانم این وضعیت را به عنوان نمونه گیری تصادفی ساده با جایگزینی در نظر بگیرم، زیرا من تخمین نسبت را به مقدار کل شناخته شده $\theta_{x,i}$ اعمال می کنم. به عبارت دیگر، $\theta_{x,i} = N$ و نه $\theta_{x,i} = N-n$. من از یک روال بوت استرپ غیر پارامتری برای رسیدن به فواصل اطمینان استفاده می کنم. $y_{i}$ رویدادهای نادری هستند، بنابراین من نمی توانم فرض کنم که توزیع بوت استرپ می تواند به طور معمول تقریبی باشد، بنابراین من فقط از ناحیه 95% بالاترین چگالی تکرارهای بوت استرپ استفاده می کنم. من کنجکاو هستم که آیا این مناسب است یا اینکه باید ضریب تصحیح جمعیت محدود را به نحوی لحاظ کنم، زیرا برخی از اقشار به خوبی نمونه‌برداری می‌شوند (یعنی $n/N \geq 0.1$). با تشکر از @StasK برای پیشنهادات شما، اگرچه به توضیح کمی نیاز دارم. من از روش صدک برای بدست آوردن فواصل اطمینان استفاده نکردم. در عوض HDR را پیدا کردم. به عبارت دیگر، اگر $f(x)$ تابع چگالی متغیر تصادفی $X$ باشد، آنگاه منطقه را در فضای نمونه $X$ پیدا کردم به طوری که $HDR(f_{\alpha}) = \\{ x: f(x) \geq f_{\alpha}\\}$، که $f_{\alpha}$ بزرگترین ثابت است به طوری که $Pr(X \در HDR) \geq 1-\alpha$ است. من این کار را انجام دادم تا تا حدودی ماهیت اریب توزیع بوت استرپ را توضیح دهم. همچنین، توزیع تکرارهای بوت استرپ چند وجهی است - یکی دیگر از دلایل استفاده من از HDR. آیا هنوز فکر می کنید که این نامناسب است؟ اگر چنین است، پس آنچه توصیه می‌کنید این است که بازه زیر را پیدا کنید $(\hat{\theta}-\hat{t}^{(1-\alpha)}\cdot \hat{se},\hat{\theta }-\hat{t}^{(\alpha)}\cdot \hat{se})$. درست است؟
فواصل اطمینان برای بوت استرپ و FPC
92992
من در اینجا خوانده‌ام که > وقتی متغیرهای مستقل متعامد زوجی هستند، تأثیر هر > از آنها در رگرسیون با محاسبه شیب رگرسیون > بین این متغیر مستقل و متغیر وابسته ارزیابی می‌شود. در این حالت، (یعنی متعامد بودن IV)، ضرایب رگرسیون جزئی با ضرایب رگرسیون برابر است. در تمام موارد دیگر، > ضریب رگرسیون با ضرایب رگرسیون جزئی > متفاوت خواهد بود. با این حال، این سند قبلاً توضیح نداده است که تفاوت بین این دو نوع ضریب رگرسیون چیست.
تفاوت بین ضرایب رگرسیون و ضرایب رگرسیون جزئی چیست؟
7768
من واقعاً هیچ متن یا مثال خوبی در مورد نحوه مدیریت داده‌های «غیر موجود» برای ورودی‌های هر نوع طبقه‌بندی پیدا نکرده‌ام. من در مورد داده های از دست رفته مطالب زیادی خوانده ام، اما در مورد داده هایی که نمی توانند یا وجود ندارند در رابطه با ورودی های چند متغیره چه کاری می توان انجام داد. من می‌دانم که این یک سؤال بسیار پیچیده است و بسته به روش‌های تمرینی مورد استفاده متفاوت خواهد بود... به عنوان مثال، اگر سعی در پیش‌بینی زمان مسابقه برای چندین دونده با داده‌های دقیق خوب داشته باشید. در میان بسیاری از ورودی‌ها، متغیرهای ممکن در میان بسیاری عبارتند از: 1. متغیر ورودی - اولین بار (Y/N) 2. متغیر ورودی - زمان لپ‌تاپ قبلی (0 - 500 ثانیه) 3. متغیر ورودی - سن 4. متغیر ورودی - ارتفاع. . . بسیاری از متغیرهای ورودی و غیره و پیش‌بینی‌کننده خروجی - زمان لپ‌تاپ پیش‌بینی‌شده (0 تا 500 ثانیه) یک «متغیر گمشده» برای «2. زمان لپ‌تاپ قبلی» را می‌توان به چندین روش محاسبه کرد اما «1». دونده اول همیشه برابر با N است. اما برای «داده‌های موجود» برای اولین بار (که در آن «1. اولین بار دونده» = Y) چه مقدار/درمانی باید برای «2» بدهم. لپ تایم قبلی؟ به عنوان مثال تخصیص '2. لپ تایم قبلی به صورت -99 یا 0 می تواند توزیع را به طرز چشمگیری منحرف کند و به نظر برسد که یک دونده جدید خوب عمل کرده است. روش‌های آموزشی فعلی من استفاده از رگرسیون لجستیک، SVM، NN و درخت‌های تصمیم است
چگونه داده‌های موجود (غیر از دست رفته) را مدیریت کنیم؟
112677
با توجه به مجموعه داده‌ای از خطوط حاوی 6 مقدار باد **پیش‌بینی** به اضافه 1 مقدار مشاهده شده (واقعی) در هر یک مانند: FCT1 FCT2 FCT3 FCT4 FCT5 FCT6 مشاهده شده -3.17 3.51 -5.71 1.37 -0.22 -0.65 -2.38 -2.7 -2.37 -2.7 -0.33 -2.62 -1.38 -1.2 3.15 -4.17 3.33 -0.48 -1.65 -2.30 ... -3.0 3.50 -1.79 3.37 -0.18 -0.62 -2.32 برای ساختن هیستوگرام رتبه ای (یا Talagrand که Iagram نیاز به حلقه دارد)، خطوط، مرتب سازی **پیش بینی** مقادیر برای هر یک و فرض کنید که مقادیر مرتب شده (شش، در این مورد) حدود داخلی هر bin در نمودار هستند. 6 محدودیت 7 سطل تولید می کند. سپس، باید مقدار **مشاهده** متناظر را بگیرم و بنی که با آن مطابقت دارد را افزایش دهم (سطوحی که محدوده آن حاوی مقدار مشاهده شده است). من باید این کار را برای هر ردیف انجام دهم، بنابراین هر ردیف محدودیت های خود را دارد. این مربوط به این است که چه PDF باید با هیستوگرام رتبه مناسب باشد؟ فکر می کنم یک هیستوگرام ساده نیست که از طریق «hist()» در R ساخته شده باشد. آیا من اشتباه می کنم؟ > ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KlyGa.png) در مورد یک بارش **پیش بینی** داده ها چطور؟ مانند: FCT1 FCT2 FCT3 FCT4 FCT5 FCT6 OBSERVED 0 0 0.1 0 0 0 0 0 0 0 0 0.02 0 0 0 0.1 0 0 0 0 3 برای دانستن سطلی که دارای محدوده ای است که متناسب با سرویس است، چه کاری باید انجام دهم ** مقداری مانند 0، برای مثال؟ چگونه می توانم از این داده های **پیش بینی** 7 بن بسازم؟
رتبه هیستوگرام (یا نمودار تالاگرند) داده های بارش
92996
من سعی می کنم روش نزول مختصات را برای حل مسئله SVM خطی دوگانه پیاده کنم، اما در معیار توقف مسدود شده است. **دوگانه** مسئله SVM خطی این است: $$\min f(\mathbf{x}) = \frac{1}{2}\mathbf{x}^\top K \mathbf{x} - \mathbf {1}^\top\mathbf{x},\quad \mbox{s.t. } 0\le x_i\le C \quad i=1,\ldots,m$$ که در آن $C$ یک ثابت مثبت است و ماتریس $K$ دارای عناصر $K_{ij}=y_iy_jx_i^\top x_j$ است که در آن $y_i\in\\{-1,1\\}$ برچسب‌ها و $x_i\in\mathbb{R}^n$ داده‌ها هستند. در تکرار $k$، ما تکرارهای داخلی $m$ را انجام می دهیم که در آن $i$-th تکرار داخلی $x_i$ را با حل کردن به روز می کند: $$x_i^{k+1} = \arg\min_{y} f(x_1^{k+1},x_2^{k+1},\ldots,x_{i-1}^{k+1},y,x_{i+1}^{k},\ldots, x_{m}^{k})$$ تحت محدودیت $0\le y\le C$. سوال من این است که اگر بخواهیم معیار توقف این الگوریتم چیست. {x}^*) \le \epsilon$ که در آن $\mathbf{x}^*$ راه حل بهینه واقعی است؟ در حال حاضر من $f(\mathbf{x}^k) - f(\mathbf{x}^{k+1})<\epsilon$ را می‌گیرم اما $f(\mathbf{x}^k) - f( \mathbf{x}^{k+1})$ فقط کران پایینی $f(\mathbf{x}^k) - f(\mathbf{x}^*)$ است. 2. یک شکاف دوگانه دقیق $\epsilon$ بدست آورید؟ **به روز رسانی: برای این مشکل، دوگانگی قوی برقرار است، بنابراین یک راه حل دقیق $\epsilon$، یک شکاف دوگانه دقیق $\epsilon$ را ایجاد می کند.** پیشاپیش از شما متشکرم.
در مورد معیار توقف روش نزول مختصات برای SVM خطی با تنظیم $\ell_1$
92990
من یک طرح 2X2 (2 متغیر مستقل طبقه بندی شده (IVs) با 2 سطح هر کدام) و یک متغیر وابسته منفرد (DV) دارم. من در مجموع 91 نمونه با این تعداد سلول دارم: 30، 19. 20، 22. داده های من برای DV در یکی از IV هایم ناهمسان است (واریانس 2.5 با N=50 در یک سطح، و 1.2 با N=41 است. در سطح دیگر، علامت تست لوین 0.012 است. من می خواهم رگرسیون Weighted Least Squares را اجرا کنم تا سعی کنم این تفاوت را مدیریت کنم، اما مطمئن نیستم که چگونه باید وزن ها را تخمین بزنم. به طور شهودی، به نظر می رسد که بتوانم واریانس هر یک از 4 سلول در طراحی خود را محاسبه کنم و سپس برای هر سلول، وزن هر عنصر در آن سلول را برعکس واریانس تنظیم کنم. آیا این کار معقولی است یا باید به جای آن چیز دیگری را امتحان کنم؟
چگونه باید وزنه های WLS را با IV های دسته بندی انتخاب کنم؟
92995
من در حال حاضر در حال انجام یک ANOVA ترکیبی چهار طرفه فاکتوریل و در حال نوشتن نتایج هستم. من تجزیه و تحلیل اثرات ساده را روی تمام تعاملات مهم بین عوامل انجام داده ام، با این حال متوجه شده ام که خروجی شامل انحرافات استاندارد نمی شود. من نگاهی به تحقیقات گذشته داشته‌ام و به نظر می‌رسد که گاهی اوقات ابزارها و SD در هنگام نوشتن آزمون‌های تعقیبی گزارش می‌شوند، اما گاهی اوقات اینطور نیست. اینگونه است که من تا کنون یافته‌هایی را گزارش کرده‌ام که در آن‌ها فقط در مورد جایی که فکر می‌کردم SD باید بروند (در صورت نیاز) شکاف‌هایی ایجاد کرده‌ام... تجزیه و تحلیل اثرات ساده نشان داد که فعالیت موج‌دار تنها زمانی که محرک‌های صورت بود به‌طور قابل‌توجهی بیشتر بود. به مدت 56 میلی‌ثانیه در طول شرایط روایت همدلانه (M = 2.88، SD = ...) در مقایسه با شرایط روایت کنترل (M = -1.4، SD = ...)، F(32) = 4.77، p = 0.04، η2 = 1.3 (شکل 1 را ببینید) اگر لازم است SD را وارد کنم چگونه می توانم آنها را در تجزیه و تحلیل لحاظ کنم زیرا هیچ گزینه ای (که من از آن مطلع هستم) وجود ندارد که به SD اجازه دهد. در خروجی های جلوه های ساده؟ آیا باید تجزیه و تحلیل بعدی را انجام دهم تا متوجه شوم؟ از شما برای هر کمکی که ممکن است بتوانید ارائه دهید متشکرم! اما
آیا هنگام نوشتن تجزیه و تحلیل اثرات ساده یک تعامل ANOVA باید میانگین و انحراف معیار گزارش شود؟
50856
آیا کسی مرجع خوبی را می شناسد که دلایل تبدیل مسئله طبقه بندی چند کلاسه را به مجموعه ای از مسائل فرعی باینری فهرست کند؟ در پاسخ به نظر: یکی از دلایل تبدیل یک مسئله طبقه بندی چند طبقه به مجموعه ای از مشکلات فرعی باینری این است که یک شبکه باینری معمولاً ساده تر است و بنابراین برای جا دادن مجموعه داده های کوچک مناسب تر است (کمتر مستعد بیش از حد برازش است). Furnkranz استدلال می‌کند که مجموعه‌ای از طبقه‌بندی‌کننده‌های باینری ساده‌تر نیز می‌توانند عملکرد بهتری نسبت به یک طبقه‌بندی‌کننده چند کلاسه پیچیده ارائه دهند، زیرا اغلب یادگیری نحوه تمایز بین دو کلاس آسان‌تر از یادگیری نحوه تمایز بین چندین کلاس است. مدل های ساده تر زمان آموزش را نیز کاهش می دهند. میلگرام نشان می‌دهد که مجموعه‌ای از SVM باینری می‌تواند بهتر از یک MLP چند کلاسه ایجاد شود. اگرچه این ممکن است به دلیل انتخاب طبقه‌بندی‌کننده به جای باینری‌سازی باشد. اگر روی یک طبقه‌بندی‌کننده MLP تمرکز کنیم، آموزش مجموعه‌ای از MLP‌های باینری یک در برابر همه و ترکیب با استفاده از تابع softmax بسیار برابر با MLP چند کلاسه خواهد بود، اما این به ما امکان می‌دهد از تنظیمات فراپارامتر مختلف برای هر کلاس استفاده کنیم. .
دلایل تبدیل مسئله طبقه بندی چند طبقه به مجموعه ای از مسائل فرعی باینری؟
51819
فقط کنجکاو هستم که آیا کسی می داند که چرا بین انحراف معیار محاسبه شده توسط فرمول انتشار خطا و شبیه سازی تفاوت کوچک اما قطعی وجود دارد. این تفاوت فقط 0.2٪ است و شخصاً برای من مشکلی ایجاد نمی کند اما کنجکاو هستم که کدام یک از این دو دقیق تر در نظر گرفته می شود؟ اضافه کردن یک صفر دیگر به تابع rnorm باعث از کار افتادن رایانه من می شود. اما من این کد را 10 بار یا بیشتر تکرار کردم (واریانس بسیار کوچک) و مطمئن هستم که میانگین در واقع 0.2٪ بیشتر از چیزی است که باید باشد. # این حدود 6 ثانیه طول می کشد تا x <- rnorm (10000000، میانگین = 100، sd = 10) y <- rnorm (10000000، میانگین = 100، sd = 10) z <- x*y # SD از x*y با استفاده از شبیه سازی sd(z) # SD x*y با استفاده از فرمول (((10/100)^2+(10/100)^2)^.5)*(100*100)
اختلاف بین انتشار خطای محاسبه شده و شبیه سازی شده
51816
اگر من فواصل اطمینان را برای یک محاسبه بر اساس شبیه سازی ورودی ها به جای استفاده از فرمول های انتشار خطا بسازم، آیا این به عنوان متعلق به روش های مونته کارلو در نظر گرفته می شود؟ من باید چندین ورودی در محاسبه داشته باشم و هر کدام خطاهای استانداردی دارند که من از آنها برای تولید اعداد تصادفی از یک توزیع با استفاده از R استفاده می کنم. از ورودی های زیادی استفاده می کنم و سپس خطای استاندارد خروجی ها را دریافت می کنم. استفاده از فرمول های انتشار خطا ممکن است، اما به نظر من خسته کننده و مستعد اشتباه خواهد بود. آیا این روش معمولا قابل قبول است و از چه نامی برای توصیف بهترین روش استفاده می کنم؟
انتشار خطاها با استفاده از شبیه سازی
104109
فرض کنید یک سری زمانی $X_t$ s.t داریم. $X_t \sim^{iid} (0,1)$. چگونه ثابت می کنید که اگر $ X_t \sim^{iid} (0,1) $، آنگاه $ E(X_t^{2}X_{t-j}^{2}) = E(X_t^{2})E( X_{t-j}^{2})$؟ یا، حدس می‌زنم، اگر $X,Y\sim^{iid} (0,1)$ (یعنی $E(XY)=E(X)E(Y)$)، پس چرا اینطور است که $E (X^2Y^2)=E(X^2)E(Y^2)$؟ این برخاسته از سؤال دیگری است که در آن ظاهراً اگر مربع ها وابسته بودند، نوعی وابستگی در بین مقادیر مجذوب نشده وجود دارد. این منطقی است، اما چگونه می توان این را دقیقاً اثبات کرد؟ تلاش من: به جای وابستگی => وابستگی (که فکر می کنم شامل توزیع های احتمالی می شود)، سعی می کنم عدم همبستگی => عدم همبستگی را به صورت زیر ثابت کنم: $E(X^2Y^2) \neq E(X^2)E(Y ^2)$ $\به معنای E(X^2Y^2) \neq (Var(X)+E(X)^2)(Var(Y)+E(X)^2)$$\به معنی Var(XY)+E(XY)^2 \neq (Var(X)+E (X)^2)(Var(Y)+E(Y)^2)$$\به معنی Var(XY)+(E(X)E(Y))^2 \neq (Var(X)+E(X)^2)(Var(Y)+E(Y)^2)$ $\به معنی Var(XY)+(E(X)E(Y))^2 \neq Var (X)Var(Y)+Var(X)E(Y)^2+Var(Y)E(X)^2+(E(X)E(Y))^2$ $\به معنای Var(XY) \nq Var(X)Var(Y)+Var(X)E(Y)^2+Var(Y)E(X)^2$ $\ دلالت دارد ...$ $\به معنای E(XY) \neq E(X )E(Y) \ QED$ اوه...
چگونه ثابت می کنید که اگر $ X_t \sim^{iid} (0,1) $، آنگاه $ E(X_t^{2}X_{t-j}^{2}) = E(X_t^{2})E( X_{t-j}^{2})$؟
48863
سناریوی زیر را در نظر بگیرید: من یک نمایندگی خودرو دارم و می‌خواهم تصمیم بگیرم که آیا یک ماشین دست دوم بخرم یا نه. اگر خرید خوبی باشد، پول قابل توجهی از آن به دست خواهم آورد. اگر خرید بدی باشد، مقدار قابل توجهی از پول را از دست خواهم داد. اگر هیچ کدام (نه) نباشد، مقدار کمی از پول را از دست خواهم داد. طبیعتاً من با مجموعه‌های آموزشی و آزمایشی شروع می‌کنم و سپس از یک طبقه‌بندی‌کننده ساده 2 کلاسه استفاده می‌کنم که هدف آن پیش‌بینی خرید خوب یا بد است (من از gbm استفاده کردم، که اتفاقاً آخرین نسخه آن اکنون شامل چندجمله‌ای نیز می‌شود. پسرفت!). وقتی طبقه‌بندی‌کننده‌ام را گرفتم، می‌توانم به مجموعه آزمایشی خود نگاه کنم و خودروهایی را که طبقه‌بندی‌کننده به من گفته است بخرم را بررسی کنم. با این ماشین‌ها، من درآمدهای آینده‌ام را محاسبه می‌کنم: تعداد خریدهای خوب X سود - تعداد خریدهای بد x ضرر - تعداد خریدهای نه x ضرر کمتر. بنابراین، اگر در مورد آن فکر می کنید، من در واقع نباید سعی در طبقه بندی کنم. من باید سعی کنم منطقه ای را در فضای ویژگی های خود پیدا کنم که در آن معیار داده شده حداکثر شود. با این حال، این به نظر یک مشکل ترکیبی است. بنابراین (در نهایت)، سؤال من این است: چه الگوریتم / روشی وجود دارد که بتوانم از آن برای به حداکثر رساندن تابع هزینه خود استفاده کنم؟ خیلی ممنون
طبقه بندی 3 کلاسه با هزینه های مختلف
7766
چگونه باید تابع rma را از بسته متافور سینتکس کنم تا در مثال واقعی زیر از یک متاآنالیز کوچک به نتایجی دست یابیم؟ (تأثیر تصادفی، آمار خلاصه SMD)، مطالعه، میانگین 1، sd1، n1، میانگین 2، sd2، n2 Foo2000، 0.78، 0.05، 20، 0.82، 0.07، 25 Sun2003، 0.74، 0.74، 0.09، 0.09، 0.78 Pric2005، 0.75، 0.12، 20، 0.74، 0.09، 29 Rota2008، 0.62، 0.05، 24، 0.66، 0.03، 24 Pete2008، 0.68، 0.01، 0.03، 6. آموزش های متافور و مثال های تابع R با نتیجه ضعیف فعلا :(
متاآنالیز در R، با استفاده از بسته متافور
99435
من نمونه‌ای از توزیع ناشناخته دارم که می‌خواهم مقدار واقعی و خطای مورد انتظار آن تخمین‌گر را تخمین بزنم. از آنجایی که توزیع اساسی لزوماً گاوسی نیست و حجم نمونه کوچک است، در استفاده از میانگین و انحراف معیار تردید دارم. برآوردگر معقول و حد بالایی خطا در برآوردگر چیست؟ منظور من از کران بالا چیزی در حدود 95% CL است اما هر چیزی را که قابل توجیه باشد می پذیرم. خطای تخمین‌گر وارد یک روش برازش می‌شود، بنابراین داشتن تخمین کیفی خطا بسیار مهم‌تر از یک تخمین‌گر بی‌طرفانه از خود مقدار است. لطفاً محدوده‌ای از اندازه‌های نمونه را درج کنید که باید قبل از اینکه تخمین‌گر بیشتری مانند میانگین، میانه یا حالت قابل قبول باشد، روی آن اعمال شود.
بهترین برآوردگر برای نمونه های کوچک
114222
کارشناسان عزیز آمار، من در پیدا کردن یک رویکرد آماری معقول برای پشتیبان گیری از برخی تفسیرهای بسیار واضح (حداقل برای من) از یک مجموعه داده مشکل دارم (به نمودار توصیفی زیر مراجعه کنید). من پاسخ به دو محرک مختلف (محرک 1 و 2) را با 3 شدت مختلف (ضعیف متوسط ​​بالا)، در 2 جمعیت مختلف (جمعیت 1 و 2) اندازه می‌گیرم. چیزی که من می‌بینم و می‌خواهم با یک آزمون آماری از آن حمایت کنم، این است که به طور کلی پاسخ یک محدوده دینامیکی در امتداد دامنه شدت نشان می‌دهد، اما مهمتر از آن، این است که این محدوده برای محرک 1 در جمعیت 2 بسیار تند است اما در جمعیت 1 نه. از نظر طراحی، من * یک متغیر وابسته پیوسته (پاسخ من) دارم. * دو متغیر طبقه‌بندی با دو سطح هر کدام (محرک و جمعیت) * یک متغیر ترتیبی با 3 سطح (قدرت محرک) نمونه‌ها مستقل نیستند، زیرا پاسخ به هر جفت محرک/قدرت بر روی افراد مشابه در دو جمعیت ارزیابی می‌شود. من فکر کردم از یک ANOVA با اثر مختلط با موضوع به عنوان یک متغیر تصادفی برای محاسبه اندازه گیری مکرر استفاده کنم. مسئله اول: چگونه می توان انحراف از فرض همسویی را اندازه گیری کرد؟ آزمون لوین فرضیه صفر برابری واریانس بین گروه ها را رد می کند. گفته می شود که Anova در برابر نقض فرضیات خود مقاوم است، اما آیا راهی برای قضاوت در مورد شدت این نقض، به خصوص با توجه به طراحی نامتعادل من وجود دارد؟ دوم، آیا اگر بخواهم جمعیت تعامل سه طرفه قابل توجهی x محرک x قدرت پیدا کنم، اظهارات بیولوژیکی من تقویت می شود؟ من دو نگرانی دارم: * آیا یک تعامل سه طرفه p-value در چنین طرحی و به خصوص با توجه به اولین نکته من (اختلاف در واریانس) معنایی دارد؟ * حتی اگر این تأثیر واقعی بود، آیا مجاز است (نه اینکه امکان پذیر باشد)، از یک تعامل مهم سه جانبه هر چیزی که از نظر بیولوژیکی مرتبط است نتیجه گیری کرد، که اساساً به این معنی است که (اگر اشتباه می کنم، مرا تصحیح کنید) که حداقل یکی از تعامل دو طرفه بین یک جفت عامل تحت تأثیر عامل سوم است؟ به طور خاص در اینجا، می خواهم آزمایش کنم که آیا برهمکنش محرک x قدرت تحت تأثیر عامل جمعیت است یا خیر. آیا باید از قبل اهمیت این تعامل دو طرفه را آزمایش کنم؟ مراقبه هایم مرا بسیار فراتر از آن چیزی که درک بسیار ابتدایی ام از آمار به من اجازه می دهد، برده است. پیشاپیش از نظر شما متشکریم، بنجامین![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7lc9g.jpg)
اهمیت بیولوژیکی تعامل سه طرفه ANOVA
92999
من می‌خواهم چیزی مانند خوشه‌بندی kmeans جریان/آنلاین/خارج از هسته را روی داده‌های بزرگ انجام دهم. در اینجا ایده ساده ای وجود دارد: 1. همه داده ها را به N تکه تقسیم کنید. 2. از قسمت اول دیسک بخوانید و با استفاده از الگوریتم اصلی kmeans، مرکزها را محاسبه کنید. 3. از مرکز قطعه قبلی برای مقداردهی اولیه سانتروئیدهای تکه بعدی استفاده کنید. 4. مراحل را 2-3 N بار انجام دهید. اما در نتیجه چه تفاوتی با خوشه بندی kmeans اصلی خواهد داشت؟ شاید بتوانم به نحوی آن را بهبود بخشم؟ همچنین مینی Batch kmeans را پیدا کردم اما به نظر می رسد با داده های بزرگ نمی تواند کار کند.
استریم k-means
82145
ممکن است برای شما این یک سوال اساسی باشد. من سعی می کنم یک مشکل مدل سری زمانی را مدل کنم. درک من این است که ساده‌ترین مدل (کمترین متغیرها) با بهترین نتیجه بهترین است زیرا اکثر مدل‌ها به خوبی با تعداد زیادی از متغیرهای نامربوط سروکار ندارند و این متغیرها فقط نویز را به مدل وارد می‌کنند یا باعث افزایش آن می‌شوند. -مناسب سوال من این است که چه زمانی تصمیم بگیرم یک متغیر را حذف کنم یا نه؟ من از آزمون و خطای مدل استفاده می‌کنم و اگر خطا کوچک‌تر شود، متغیری را اضافه می‌کنم، با این حال، وقتی با مقدار زیادی از متغیرها سروکار داریم، بسیار ناکارآمد است. من حدس می‌زنم فراتر از این رویه اساسی، روش‌های دیگری باید وجود داشته باشند و کارآمدتر باشند. من از جهش بسته تابع regssubsets را امتحان کردم، اما طبق نتایج به نظر خیلی مؤثر نیست. آیا بسته ها یا توابع دیگری را می شناسید که ممکن است به انتخاب متغیر کمک کند.
انتخاب متغیر پیش بینی کننده
8180
آیا کسی می داند که چگونه می توان یک مقایسه post hoc را در یک ANOVA 2X2 با متغیر کمکی در بسته R. multcomp اجرا کرد، اما من نتوانستم پاسخ یا مثال واضحی برای سوال خود با این بسته پیدا کنم. پیشاپیش خیلی ممنون
مقایسه تعقیبی به روش ANOVA دو طرفه با متغیر کمکی با استفاده از R
65553
من در حال حاضر در تلاش هستم تا خطاهای مدل را در یک تابع احتمال ترکیب کنم تا مدل را با برخی از نتایج مطابقت دهم. اجازه دهید آنها را $x_{m,i}$ برای مدل و $x_{o,i}$ برای مشاهدات $N$، نمایه‌سازی شده توسط $i$، بنامیم. هر مشاهده دارای یک خطای Guassian/عادی توزیع شده $\sigma_{o,i}$ است. برای مدل، می‌دانم که در هر مدل معین، تمام $x_{m,i}$ دارای خطای کسری _ame_ هستند. یعنی یک خطای کسری $\sigma_f$ (در حال حاضر...) گاوسی/عادی توزیع شده است و هر مشاهده دارای خطای $\sigma_f\times x_{i,m}$ است. چگونه می توانم این را در یک تابع احتمال برای برازش مدل بگنجانم؟ من مطمئن نیستم که چقدر جزئیات لازم است تا این معنا پیدا کند، اما اساساً سعی می‌کنم $\chi^2$-minimization را با $$\chi^2=\sum_{i=1}^N انجام دهم. \frac{(x_{o,i}-x_{m,i})^2}{\sigma_{o,i}^2+\sigma_{m,i}^2}$$ اما مطمئن نیستم برای چه کاری انجام دهیم $\sigma_{m,i}$. غریزه من این است که فقط وارد کردن $\sigma_{m,i}=\sigma_fx_{m,i}$ اشتباه است، زیرا هنوز هم به نوعی اجازه می‌دهد که خطاهای مدل به طور مستقل ترسیم شوند، حتی اگر واقعاً فقط یک مورد وجود داشته باشد. فرآیند تصادفی برای خطای مدل کسری، به جای یک فرآیند مستقل برای هر مشاهده. من سعی کردم با نوشتن $$\sigma_{\text{total},i}^2=\left(\frac{\partial(x_{o, چیزی برای $\sigma_{m,i}$ با انتشار خطا فرموله کنم. i}-x_{m,i})}{\جزئی x_{o,i}}\راست)^2\sigma_{o,i}+\left(\frac{\partial(x_{o,i}-x_{o,i}\frac{x_{m,i }}{x_{o,i}})}{\partial \frac{x_{m,i}}{x_{o,i}}}\right)^2\sigma_{f}^2 \\\=\sigma_{o,i}^2+x_{o,i}^2\sigma_f^2$$ اما، همانطور که می‌بینید، من را به این پاسخ بازگرداند که باور نمی‌کنم. من گمان می کنم که روش بهتری برای تفکر در مورد آن از نظر یک جزء خطای کاملاً همبسته است. خب، به هر حال، این چیزی است که در آینده به آن فکر خواهم کرد! پیشاپیش از هر راهنمایی ممنونم من یک آمارگیر نیستم و به ویژه در آمار مسلط نیستم، بنابراین اگر توضیحات من برای یک متخصص قابل درک نیست عذرخواهی می کنم. در صورت لزوم سعی می کنم شفاف سازی کنم.
ترکیب خطای گاوسی مشاهده شده با خطای مدل کسری رایج
19253
من سعی می کنم الگوی انتشار بیماری ها را بسازم. من نقشه ای را در نظر دارم که به مناطق تفکیک شده است. یک منطقه آلوده است. داده هایی در طول زمان وجود دارد، با تعداد افرادی که به منطقه آلوده سفر می کنند و از آن خارج می شوند و به کدام منطقه سفر می کنند (جدول حمل و نقل افراد در کل نقشه). این یک ماتریس O-D (توضیح ویکی) است. همچنین اطلاعاتی در مورد شیوع این بیماری در منطقه وجود دارد. سوالاتی که می خواهم بپرسم عبارتند از: 1. چند گزینه کلاسیک برای مدل سازی انتشار بیماری در مناطق مختلف با این داده های فضایی که احتمالات قابل تفسیر آسانی را ایجاد می کند چیست؟ (مثلاً مدل‌های SIS/SIR که نیاز به شبیه‌سازی‌هایی دارند که من می‌توانم میانگین آن را انجام دهم، یا یک مدل سری زمانی مانند ARM با برخی پارامترهای اندازه‌گیری شده؟) 2. چه ویژگی‌های بیماری را باید از قبل بدانم؟ (مثلاً پارامترهای عفونت در شرایط مختلف؟) 3. نام رایج این نوع کاربردها در تحقیقات چیست؟ (مثلاً مدل سازی بیماری زمانی- مکانی؟ و غیره)
ارتباط احتمال انتشار بیماری در مناطق نقشه
48862
فرض کنید من چند مشاهدات سالانه (مثلاً نرخ) $x_1$,$x_2$...,$x_{t-1}$ دارم. من برخی از پارامترهای مورد علاقه را $\bar{x}_{t-1}=\frac{1}{t-1}\sum_i{x_i}$ برآورد می‌کنم. اکنون در سال $t$، من یک مشاهده جدید $x_t$ دریافت می کنم، به طوری که می توانم $\bar{x}_{t}$ را محاسبه کنم. 1. چگونه می‌توانم «تصمیم بگیرم» اگر باید برآوردم را از $\bar{x}_{t-1}$ به $\bar{x}_{t}$ به‌روزرسانی کنم؟ 2. من مشاهدات جدیدی را برای سالهای بعدی دریافت می کنم، چگونه می توانم تصمیم بگیرم برآوردم را به روز کنم یا نه؟
تغییر قابل توجهی در برآورد با مشاهده جدید؟
96671
اگر $X$ و $Y$ دو i.i.d باشند. متغیرهای تصادفی، پس $E(X|X<Y)$ اساساً چگونه باید باشد؟ P.S.- آیا مخرج برابر با $\frac12$ است؟ (دو r.v. بودن به عنوان انگیزه پشت این کار است.)
آیا کسی می تواند ایده روشنی از $E(X|X<Y)$ ارائه دهد؟
106228
من 2 گروه بیمار (شاهد و تحت درمان) و 1 متغیر دارم که در دو لحظه زمانی (قبل و بعد از درمان) اندازه گیری شده است. با استفاده از آزمون تی زوجی قادر به تعیین میانگین (با 95% CI) در هر گروه (در ابتدا و بعد از درمان) هستم. با استفاده از اسپلیت پلات ANOVA می توانم بگویم که اثر درمان بین دو گروه تفاوتی ندارد (از آزمون تأثیرات بین افراد). اما من قادر به تعیین تفاوت در تفاوت (میانگین با 95٪ CI) نیستم. یادم رفت بگم از SPSS استفاده میکنم. متشکرم
تفاوت در تفاوت با استفاده از spss
81721
من رویدادهایی دارم که نسبتی از یک برش زمانی مشاهده شده را می گیرند. متغیر مشاهده شده تعداد رویدادهایی است که در هر لحظه از زمان اتفاق می افتد. بنابراین میانگین صرفاً مجموع نسبت ها است، حداقل تعداد در زمانی است که کمترین همپوشانی وجود دارد. ![دیاگرام سری زمانی](http://i.stack.imgur.com/DamQL.png) در نمودار بالا داده‌هایی داریم که بر حسب زمان شروع و پایان برای هر «نمونه» است. همچنین نسبت همپوشانی با کادر آبی را داریم که اعداد جدول زیر نمودار هستند. با این حال، آنچه ما واقعاً سعی در محاسبه آن داریم، آمار توصیفی بر روی متغیر تصادفی است که تعداد نمونه‌های موجود در هر زمان معین است. سوال من این است که چگونه می توانم تنوع این نوع مجموعه داده را محاسبه کنم؟ * * * با کمی بیشتر فکر کردن به این سوال، متوجه می شوم که آنچه من واقعاً درخواست می کنم کمک به شناسایی توزیعی است که داده های من در آن قرار می گیرند. تجسم بهتر توزیع بالا نمودار زیر است: ![ نمودار 2] (http://i.stack.imgur.com/c6MoR.png) داده‌ها با شمارش هر لحظه در زمان رویدادهایی (که در بالا نمونه‌هایی نامیده می‌شوند) در حال انجام تولید می‌شوند. اینها به صورت تصادفی شروع و پایان می یابند. توجه داشته باشید که علیرغم ظاهر، هیستوگرام بالا نیست زیرا متغیر زمان پیوسته است. * * * با مطالعه بیشتر در اطراف، به نظر می رسد که داده های من را می توان به راحتی به عنوان یک فرآیند تولد-مرگ مشخص کرد زیرا تعداد رویدادها بسته به شروع و پایان رویدادها بالا یا پایین می رود. من هنوز نمی دانم که چگونه واریانس را محاسبه کنم.
نحوه محاسبه واریانس در توزیع نسبت مدت زمان
92993
من سعی کرده‌ام دانش آماری خود را به‌ویژه در رابطه با تعیین اندازه نمونه و تحلیل قدرت آماری تقویت کنم. اما به نظر می رسد که هر چه بیشتر می خوانم بیشتر نیاز به خواندن دارم. به هر حال من ابزاری به نام G*Power پیدا کردم که به نظر می‌رسد هر کاری را که من نیاز دارم انجام می‌دهد، اما در درک پارامتر غیرمرکزیت مشکل دارم، آن چیست، چه کاری انجام می‌دهد، مقدار پیشنهادی چیست و غیره؟ اطلاعات ویکی‌پدیا و غیره یا ناقص است یا من در درک آن خوب کار نمی‌کنم. من در حال انجام یک سری دو تست z دنباله دار هستم اگر کمکی باشد. p.s. آیا کسی می تواند برچسب های بهتری به این سوال اضافه کند؟
پارامتر غیر متمرکز - چیست، چه کاری انجام می دهد، مقدار پیشنهادی چه خواهد بود؟
96672
به ما n کلاس از مقادیر واقعی داده می شود. تعداد عناصر در هر کلاس خیلی زیاد نیست و می تواند بین کلاس ها متفاوت باشد. ما می خواهیم آزمایش کنیم که آیا کلاسی با مقادیر (متوسط) قابل توجهی بالاتر از همه کلاس های دیگر وجود دارد یا خیر. مورد به نوعی شبیه به ANOVA است، اما کمی متفاوت است. چه آزمایشی را پیشنهاد می کنید؟
آزمون آماری برای یک کلاس در مقابل چندین کلاس
96925
من از SPSS استفاده می کنم و با تصمیم گیری در مورد اینکه چه روش آماری باید استفاده شود مشکل دارم: 3 گروه با شرکت کنندگان و درمان های مختلف وجود دارد و آنها در سه شرایط آزمایشی مختلف اندازه گیری شدند، اما یکی از متغیرها باینری است (یکی دیگر داده های مستمر و مشتق شده). آیا باید از معادلات برآورد glmm یا تعمیم یافته (یا چیزی کاملاً متفاوت) استفاده کنم؟ آیا بهتر است متغیر باینری را همراه با دیگری تجزیه و تحلیل کنیم یا جداگانه؟ پیشاپیش متشکرم و بابت انگلیسی من متاسفم!
اندازه گیری های تکراری باینری با 3 گروه و 3 شرط
81727
من 4 خوشه (نگاه کنید به نمودار زیر) از داده های نمونه های پزشکی N=218 استخراج شده برای 11 ژن / پیش بینی کننده P=11 با این روش استخراج شده است: اولین تجزیه و تحلیل PCA دارای اعتبار 2 کامپیوتر مهم است که 75٪ از موارد را توضیح می دهد. داده‌ها، سپس الگوریتم‌های خوشه‌بندی مختلف، فواصل، پیوندها (فقط در رویکرد سلسله مراتبی) مقایسه شدند: اکثریت از وجود 4 متمایز پشتیبانی می‌کنند. خوشه ها با در نظر گرفتن فرضیه علمی، خوشه‌های خارج از الگوریتم $K$-means قابل قبول‌ترین و متعادل‌ترین خوشه‌ها نیز بودند: کلاس #1 «n=12»، کلاس #2 «n=21»، کلاس #3 «n=79»، و کلاس #4 «n=106». طرح مشاهدات بر روی نمرات اجزای صفحه 1-2، نمودار پراکندگی زیر را با هر رنگ خوشه ای نشان داد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/09sTF.png) **هدف این است که پس از انجام PLS به داده ها، یک طبقه بندی کننده بهینه جهانی با استفاده از R پیدا کنید.** دانستن اینکه این 4 خوشه ها در واقع محصول اجزای پنهان PCA بودند، طبیعی بود که PCR را به عنوان گام بعدی برای پیش بینی کلاس ها در نظر بگیریم، اما این رویکرد به دو دلیل کمتر از حد مطلوب بود: اول، نتایج به احتمالات مربوط نمی شود (0-1)، دوم، با کلاس ها به عنوان متغیر نتیجه ارتباط خوبی ندارد. همانطور که بسیاری می دانند، برای یافتن احتمالات کلاس (0-1) بهتر است با روش PLS-DA + softmax حل شود. با این حال، بسیاری از گزارش‌ها برتری استفاده از LDA را به عنوان گام دوم با استفاده از _scores_ PLS تایید می‌کنند، با توجه به اینکه پارامترهای استانداردسازی یکسان (میانگین، sd) در مجموعه آموزشی در مجموعه آزمون نگهدارنده استفاده می‌شود، حتی با استفاده از پیش‌بینی‌های PLS خارج از مجموعه آموزشی در مجموعه آزمون به منظور به دست آوردن _امتیازات_ که مجموعه آزمون انتظار _واقعی برای اعتبار سنجی طبقه بندی کننده مورد نظر است. از نقطه نظر روش شناسی، این مسیر به طور بالقوه با بسیاری از خطرات و خطاهای ظریف زمانی که فرد در مورد ابزارهای مورد استفاده در زمینه اطلاعات نادرست یا نادرست است، احاطه می شود. بسته «caret» که در نوع خود منحصر به فرد است با توجه به زیرساخت ثابتی که برای آموزش و اعتبارسنجی مجموعه‌ای از مدل‌های مختلف با استفاده از بسته‌های R مربوطه استاندارد _de facto_ ارائه می‌کند، و از این رو «caret» خود را به عنوان یک نقشه راه معرفی می‌کند. مدلسازی معتبر با استفاده از کتابخانه های غنی از R همانطور که قلب به رگ های خونی، بنابراین به بسته های دیگر به نظر من مراقبت. همانطور که گفته شد، بازی بی‌دقت با قلب می‌تواند هزینه گزافی برای شما داشته باشد و همچنین ممکن است منجر به توقف یا دستگیری مدل داده‌های شما شود. R رایگان است، بسیاری از کتاب‌های رایگان موجود است، اما خرید فقط کتاب «caret» نتیجه داد، یعنی «مدل‌سازی پیش‌بینی کاربردی». فایل‌های راهنما، وب‌سایت همراه (بسیار جذاب btw)، منابع خوبی هستند، اما جایگزین متن داخل کتاب IMHO نمی‌شوند. با این حال، در کتاب، من نتوانستم پاسخ مستقیمی برای روش دو مرحله‌ای PLS-Classifier در میان روش‌های دیگر پیدا کنم. پتانسیل caret بسیار زیاد است، به لطف مکس کوهن و همکارانش، که در درجه اول مرا تشویق به ارسال این سوال کردند. بازگشت به مثال بالا و روش شناسی آرزو: **تقسیم داده:** مجموعه آموزشی (77% `n=168`) برای اعتبارسنجی متقابل 10K: تنظیم (پارامترهای خاص مدل، انتخاب ویژگی `P=11` و هزینه مقابله با خوشه های نامتعادل). برای CV، این تقریباً «n=150» برای برازش مدل با استفاده از پارامترهای مختلف آرزو و «n=17» برای ارزیابی پارامترها است (برای جلوگیری از سردرگمی بعداً، «n=17» را آزمون CV می‌نامم. . تکرار = 5، بنابراین این باعث می شود 10 تا در 5 بار = 50 بار تمرین (هر کدام n=150) و 50 بار تست CV (هر کدام n=17). مجموعه آزمون Holdout (23% `n=50`). **Q1** من می دانم که می توان تنظیم پارامترها را همراه با انتخاب ویژگی به طور همزمان انجام داد (یعنی موازی)، اما اگر بخواهیم مدل های حساس به هزینه (SVM، CART) را ارزیابی کنیم، چگونه هزینه/وزن ها را ارزیابی کنیم. ، C5.0) با استفاده از امتیازات PLS برای مقابله با عدم تعادل کلاس؟ **Q2** هنگامی که رزرو مجموعه داده جداگانه برای ارزیابی هزینه (به عنوان مثال، مجموعه ارزیابی)، همانطور که توصیه می شود، با توجه به حجم نمونه کوچک در این مورد امکان پذیر نیست، رویکرد جایگزین چیست؟ آیا می توان تنظیم پارامتر مدل، انتخاب ویژگی و هزینه برای عدم تعادل هر سه را به طور همزمان انجام داد؟ اگر نه بهترین عمل در این مورد چیست؟ **Q3** با توجه به حجم نمونه کوچک، آیا بوت استرپینگ به CV ترجیح داده می شود؟ اگر بله، چگونه می توان تنظیم جامع مانند بالا برای نمرات PLS را اجرا کرد؟ **Q4** با توجه به عدم تعادل بالا، آیا راهی برای اطمینان از اینکه هر فولد آموزشی CV شامل حداقل تعداد کلاس(های) سخت باشد وجود دارد تا بتوان تخمین خوبی در قسمت آزمون CV داشت؟ آیا استدلالی برای اطمینان از حضور کلاس های کوچک در هر بار تولید fold وجود دارد؟ **یادداشت های ویژه PLS** این رویکردی است که در ذهن من وجود دارد (لطفاً اگر چیزی را در طول دوره از دست دادم، من را اصلاح کنید): در هر تکرار CV در بسیاری از چین های آموزش CV، باید یک ماتریس طرح ریزی PLS منحصر به فرد وجود داشته باشد. هر تکراری که در مرحله دوم بعدی دریافت امتیازات PLS برای مجموعه آزمون CV مربوطه که پارامترهای استانداردسازی یکسانی را به ارث می‌برد («متوسط»، «sd») استفاده می‌شود.
بهترین استراتژی برای آموزش و اعتبار سنجی طبقه بندی با استفاده از PLS-[طبقه بندی کننده] در بسته caret چیست؟
81497
من به نوعی درگیر یک سوال آسان هستم: من دو مجموعه داده با داده های تجربی دارم. مجموعه داده ها اندازه یکسانی ندارند. من می خواهم نشان دهم که این مجموعه داده ها احتمالاً از همان آزمایش می آیند. من یک تست $t$-دو نمونه ای را امتحان کردم. نشان می دهد که داده ها به طور قابل توجهی متفاوت است. آیا راهی برای ایجاد چیزی شبیه به $p$-value برای شباهت به جای تفاوت وجود دارد؟ به روز رسانی: در اینجا یک مثال: مجموعه تاریخ 1 (بردار): 1 1 2 3 1 2 1 3 4 1 میانگین: 1.9 مجموعه داده 2 (بردار): 2 2 1 2 1 1 2 2 3 2 2 میانگین: 1.83 چگونه شما اکنون نشان می دهید که این مجموعه داده ها از یک آزمایش هستند؟
2 مجموعه داده من چقدر شبیه هستند؟
94297
من سعی می کنم پیش بینی کنم که آیا کاپیتان ها در یک ماهیگیری زمینی خاص ماهیگیری را در هر روز انتخاب می کنند یا نه و چه متغیرهایی ممکن است بر این تصمیم تأثیر بگذارند. در ابتدا من برای استفاده از رگرسیون لجستیک وانیلی برنامه ریزی کرده بودم، جایی که هر کاپیتان تصمیم می گرفت در هر روز از فصل در یک ماهیگیری خاص ماهیگیری کند یا ماهی نگیرد. با این حال، این یک مدل واقعی نیست زیرا بسیاری از کشتی ها در چندین ماهیگیری شرکت می کنند. بنابراین، من می خواهم یک مدل رگرسیون لجستیک چند ملیتی تودرتو با ساختار در پایین اجرا کنم. توجه داشته باشید که گروه 1 و 2 برای جلوگیری از نقض فرض IIA وجود دارد. از آنجایی که هر گونه فصل متفاوتی دارد و در هر گونه ناخداها مقادیر متغیری از سهمیه ماهیگیری دارند (وقتی این سهمیه تمام شد، دیگر نمی‌توانید ماهیگیری کنید، حتی اگر فصل باز باشد)، همه گره‌ها به طور همزمان در دسترس نیستند. من می خواهم یک متغیر ساختگی برای اینکه آیا یک گره منفرد یک گزینه است یا نه اضافه کنم، اما مطمئن نیستم که منطقی است یا حتی این روش (لجستیک چند جمله ای) هنوز قابل اجرا است. من می‌توانم چیزی شبیه به این کدگذاری متغیرهای نیمه عددی، یعنی پاسخ whuber را امتحان کنم، اما من زیرمجموعه‌ها و لانه‌های بیشتری در آن زیر مجموعه‌ها دارم. ویرایش* من از آن زمان به دنبال آن بوده ام، اما در حال حاضر یک مدل لاجیت انتخابی متفاوت را اجرا نکرده ام. توضیحات مدل را می توان در http://web.mit.edu/teppei/www/research/dchoice.pdf پیدا کرد. من از R استفاده می کنم و قصد داشتم از lmer4 استفاده کنم، اما مطمئن نیستم که بتوانم یا نه. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4kC9H.jpg)
چگونه می توان در رگرسیون لجستیک چند جمله ای تو در تو زیر مجموعه های جایگزین را تنظیم کرد؟
92998
فرض کنید من دو طبقه بندی مختلف دارم، به عنوان مثال. C R s1 c1 r2 s2 c1 r2 s3 c3 r2 ... جایی که sn نمونه های طبقه بندی شده هستند و ستون های ماتریس نشان دهنده طبقه بندی های مختلف هستند (یکی به نام R \- مرجع و دیگری C \- خوشه بندی). می‌خواهم بررسی کنم که مثلاً نمونه‌های c1 به طور قابل توجهی (بخوانید: بیشتر) به عنوان r2 طبقه‌بندی می‌شوند یا خیر. اگر چنین است، من می‌گویم که نمونه‌های r2 در c1 غنی شده‌اند (نمی‌دانم این عبارت صحیح است یا خیر). برای انجام این کار، به بررسی اینکه آیا یک کلاس r در کلاس c غنی شده است، فکر کردم. من به این فکر کردم که بررسی کنم آیا کلاس r در نمونه های کلاس c نسبت به سایر کلاس های r ترکیبی بیشتر وجود دارد یا خیر. من اهمیت را با استفاده از آزمون دقیق فیشر روی تعداد نمونه ها بررسی کردم. جدول احتمالی من این است: a = نمونه‌ها در ci AND در rj b = نمونه‌ها در ci و نه در rj c = نمونه‌ها در ci و در rj d = نمونه‌ها در ci و نه در rj rj ~rj ci a b ~ci c d انجام دادن بنابراین، من انتظار دارم بفهمم که آیا توزیع نمونه ها به طور قابل توجهی متفاوت است یا خیر. اگر چنین است، و اگر a و d بزرگتر از b و c باشند (بخوانید: تعداد نمونه‌های rj در ci و تعداد نمونه‌های کلاس‌های rj دیگر در کلاس‌های ci دیگر حداکثر شده است)، فکر می‌کنم می‌توانم فرض کنم که می توانم بگویم rj در ci غنی شده است. آیا این منطقی است؟ با تشکر
چگونه می توان بررسی کرد که آیا یک گروه مشابه گروه دیگری است، در دو طبقه بندی مختلف
92997
**سناریو:** یک کمپین ایمیلی که در آن چهار طرح (درمان) ایمیل مختلف به چهار جمعیت مختلف با اندازه مساوی ارسال می شود تا مشخص شود کدامیک بهتر عمل می کند. نتایج به دست آمده عبارتند از: کلیک جمعیت درمان A 120 (گروه 1) 45 B 120 (گروه 2) 35 C 120 (گروه 3) 68 D 120 (گروه 4) 52 **اهداف:** 1. برای اینکه بفهمید آیا درمانی وجود دارد یا خیر عملکرد (از نظر آماری) به طور قابل توجهی بهتر از دیگران است. 2. برای یافتن مقدار واریانس تصادفی مورد انتظار در آزمون. **مشکل:** در حالی که می توانم به راحتی ببینم که درمان C عملکرد بهتری دارد، اما می دانم که در هر آزمایش تعدادی کلیک صرفاً به دلیل شانس (یا عواملی که به درمان مرتبط نیستند) وجود خواهد داشت. با توجه به جمعیت کم، قلب من به من می گوید که اگر بتوانم دوباره آزمون را اجرا کنم، کاملاً ممکن است که نتایج بتواند برنده دیگری را نشان دهد. اساساً من سعی می‌کنم تعیین کنم که چقدر باید انتظار تنوع داشته باشم و نتایج را در نظر بگیرم تا مشخص کنم برنده واقعاً یک برنده است یا فقط به دلیل شانس. **رویکردها:** من فقط آمارهای اولیه را دارم که می‌دانم و ایده‌های زیر را امتحان کرده‌ام: * به این موضوع از طریق انحراف استاندارد، محدودیت‌های اطمینان و ANOVA نگاه کردم، اما با توجه به اینکه تنها یک نقطه داده در هر درمان وجود دارد، به نظر نمی‌رسد که ابزار صحیح * در مورد انجام یک آزمایش A|A|A در دفعه بعد فکر کنید، جایی که همان درمان به گروه‌های مختلف ارسال می‌شود و واریانس را ببینید، سپس از آن به عنوان فاکتور فازی استفاده کنید. من بعد از آن بسیار قدردانی می شود!
تعیین معناداری و واریانس در آزمون A B C D
12471
من سعی می کنم 6 امتیاز رایانه شخصی را برای داده های 1600 موردی جمع کنم (بنابراین ماتریس 1600 x 6 است). من از تکنیک خوشه‌بندی پیوند متوسط ​​استفاده می‌کنم که با یک خوشه‌بندی میانگین K دنبال می‌شود. هدف از خوشه‌بندی میانگین پیوندی ارائه مقادیر بذر برای خوشه‌بندی میانگین K است. آیا کسی به من توضیح می دهد که چگونه می توان نتایج خوشه بندی میانگین پیوند را از برنامه تجمعی استخراج کرد؟
تفسیر میانگین نتایج خوشه بندی پیوند در SPSS
19258
من در حال ساخت یک فیلتر اسپم برای یک تکلیف هستم. یکی از مراحل ذکر شده در مقاله ای که خوانده ام، یافتن اطلاعات متقابل برای همه کلمات متن و سپس انتخاب 500 یا بیشتر با بالاترین MI است. معادله داده شده در مقاله (و جاهای دیگر) این است: $MI(X_i, C) = \sum{P(X_i, C) \log{\frac{P(X_i, C)}{P(X_i)\cdot P (C)}}}$ که در آن $X_i$ یک ویژگی و $C$ یک کلاس است. در مقاله مشخص نیست اما $X_i$ یک کلمه خواهد بود و $C$ هرزنامه یا غیر هرزنامه خواهد بود. آیا می توانم از محاسباتی که باید انجام دهم، بی خبر باشم؟ من فکر می کنم برای کلمه viagra به صورت زیر است: $P(X_i, C)$ در این مورد یا فرکانس ظاهر شدن کلمه viagra در همه ایمیل های هرزنامه تقسیم بر تعداد کلمات موجود در ایمیل خواهد بود. ایمیل‌های اسپم یا همان ایمیل‌های هم‌زمان (غیر اسپم). $P(X_i)$ احتمال وجود کلمه در هر دو ایمیل هرزنامه و ham است. $P(C)$ قبلی برای یک کلاس است. بنابراین اساساً ما دو محاسبه (یکی برای اسپم و دیگری برای ham) انجام می دهیم و آنها را با هم جمع می کنیم. به نظر شما این درسته؟ درک من این است که اطلاعات متقابل مانند یافتن سود اطلاعاتی برای یک ویژگی است. آیا این درست است؟ امیدوارم این منطقی باشد. پیشاپیش سپاس فراوان
محاسبه اطلاعات متقابل
94295
من می خواهم سعی کنم از ماشین های بردار پشتیبانی (SVM) در مجموعه داده خود استفاده کنم. با این حال، قبل از اینکه مشکل را امتحان کنم، به من هشدار داده شد که SVM ها روی داده های بسیار نامتعادل عملکرد خوبی ندارند. در مورد من، من می توانم به اندازه 95-98٪ -1 و 2-5٪ 1 داشته باشم. من سعی کردم منابعی را پیدا کنم که در مورد استفاده از SVM در داده‌های پراکنده/نامتعادل صحبت می‌کردند، اما تنها چیزی که پیدا کردم «sparseSVMs» بود (که از مقدار کمی از بردارهای پشتیبانی استفاده می‌کنند). من امیدوار بودم کسی بتواند به طور خلاصه توضیح دهد: 1) انتظار می رود SVM با چنین مجموعه داده ای چقدر خوب عمل کند، 2) که، در صورت وجود، اصلاحاتی باید در الگوریتم SVM انجام شود.
SVM برای داده های نامتعادل
81499
من در مورد ELM (ماشین های یادگیری شدید) یاد می گیرم و **به نظر می رسد ** وزن سوگیری در لایه خروجی ندارد. علاوه بر این، فقط برای روشن شدن، نوع ELM مورد نظر من از نظر توپولوژیکی با MLP های 2 لایه (یا اگر ورودی را به عنوان یک لایه حساب کنید 3 لایه) تفاوتی ندارد. بنابراین، نمی‌دانم که آیا در مورد عدم وجود وزن‌های بایاس لایه خروجی در ELM ها اشتباه متوجه شدم یا یک MLP می‌تواند بدون آن بقا کند.
اگر کسی یک تقریب‌کننده تابع جهانی (یا حل‌کننده مسئله غیرخطی قابل تفکیک) بخواهد، آیا وزن‌های بایاس در لایه خروجی ضروری هستند؟
16207
ما دیمونی داریم که داده‌های برخی از حسگرها را می‌خواند، و از جمله چیزهایی که محاسبه می‌کند (علاوه بر اینکه فقط وضعیت را گزارش می‌کند) میانگین زمانی است که طول می‌کشد تا حسگرها از یک مقدار به مقدار دیگر تغییر کنند. میانگین در حال اجرا 64 نقطه داده را نگه می دارد و زمان اجرا را نسبتاً ثابت فرض می کند. متأسفانه، همانطور که در نمودار زیر نشان داده شده است، داده های ورودی بکرترین نیستند: ![](http://random-hall.mit.edu/blog/wp-content/uploads/2009/04/graphpng.png ) (هر خط نشان دهنده مجموعه متفاوتی از داده ها است؛ محور x واقعاً به غیر از یک محور تاریخی مبهم معنایی ندارد). راه حل واضح من برای مقابله با این موضوع ایجاد یک هیستوگرام از داده ها و سپس انتخاب حالت است. با این حال، من نمی‌دانستم که آیا روش‌های دیگری وجود دارد که عملکرد بهتری داشته باشد یا برای عملیات با میانگین در حال اجرا مناسب‌تر باشد. برخی از جستجوهای سریع ویکی‌پدیا نشان می‌دهند که الگوریتم‌هایی برای تشخیص نقاط پرت نیز ممکن است مناسب باشند. سادگی مزیت است، زیرا دیمون به زبان C نوشته شده است. **ویرایش**: من ویکی‌پدیا را بررسی کردم و به این تکنیک‌های مختلف رسیدم: * معیار شوونه: با استفاده از میانگین و انحراف استاندارد، احتمال وقوع یک نقطه داده خاص را محاسبه کنید. ، و سپس اگر احتمال بد بودن کمتر از 50٪ باشد آن را حذف کنید. در حالی که به نظر می رسد این برای تصحیح میانگین در حال اجرا مناسب است، من در مورد کارایی آن کاملاً متقاعد نیستم: به نظر می رسد با مجموعه داده های بزرگ نمی خواهد نقاط داده را کنار بگذارد. * آزمون گرابز: روش دیگری که از تفاوت از میانگین تا انحراف استاندارد استفاده می‌کند و برای زمانی که فرضیه «بدون نقاط پرت» رد می‌شود، بیان می‌شود. فاصله کوک: تأثیر یک نقطه داده را بر رگرسیون حداقل مربعات اندازه‌گیری می‌کند. اگر از 1 تجاوز کند، برنامه ما احتمالاً آن را رد می کند * میانگین کوتاه: پایین و سطح بالا را کنار بگذارید، و سپس میانگین را به صورت عادی در نظر بگیرید. هر کسی تجربه خاصی دارد و می تواند در مورد این تکنیک های آماری نظر دهد؟ همچنین، برخی از نظرات در مورد وضعیت فیزیکی: ما در حال اندازه گیری میانگین زمان تا اتمام یک ماشین لباسشویی مکانیکی هستیم، بنابراین زمان کار آن باید نسبتاً ثابت باشد. من مطمئن نیستم که آیا واقعا توزیع نرمال دارد یا خیر. **ویرایش 2**: یک سوال جالب دیگر: وقتی دیمون در حال بوت استرپ است، مانند قبل، هیچ داده قبلی برای تجزیه و تحلیل ندارد، چگونه باید با داده های دریافتی برخورد کند؟ به سادگی هرس پرت انجام نمی دهید؟ **ویرایش 3**: یک چیز دیگر... اگر سخت افزار به گونه ای تغییر کند که زمان اجرا متفاوت شود، آیا ارزش آن را دارد که الگوریتم را به اندازه کافی قوی کنیم که این زمان های اجرا جدید را دور نریزد، باید انجام دهم. فقط به یاد داشته باشید که وقتی این اتفاق می‌افتد، کش را پاک کنید؟
تصحیح نقاط پرت در میانگین در حال اجرا
65551
مشکل این است که چگونه می توان داده هایی را که شامل چندین معیار وابسته است، که در موارد متعدد/تکرار انجام می شود، تجزیه و تحلیل کرد و تعیین کرد که آیا بین دو گروه تفاوت وجود دارد یا خیر. من سعی می کنم داده های یک مطالعه مربوط به کاشت حلزون را تجزیه و تحلیل کنم. اکنون یک کاشت حلزون دارای آرایه‌ای با چندین الکترود است و برای هر الکترود می‌توان پارامترهای مختلفی را اندازه‌گیری کرد. این پارامترها معمولاً در طول زمان به منظور درک چگونگی تغییر پارامتر در طول زمان اندازه گیری می شوند. در طرح مطالعه خوب، در مسئله ای که مد نظر من است، گروه کنترل و گروه آزمایش وجود دارد. لازم به ذکر است که هیچ عنصر متقاطع در طراحی وجود ندارد. به طور خاص: * دو گروه از N آزمودنی: کنترل و تجربی * 12 مقدار مختلف برای هر مجموعه اندازه گیری، از یک نفر در یک نقطه زمانی واحد * چندین نقطه اندازه گیری (در زمان)، بخش اندازه گیری های مکرر * آیا به طور کلی گروه کنترل و آزمایش با هم تفاوت دارند؟ * آیا تفاوت قابل توجهی در مقاطع زمانی مختلف وجود دارد؟ * آیا تفاوتی بین 12 مقدار در طول زمان وجود دارد؟ بنابراین سوالات من: 1. فکر من این است که این یک نوع تجزیه و تحلیل MANOVA با اندازه گیری های مکرر است. آیا من وضعیت را به درستی درک کرده ام؟ 2. چگونه باید اندازه گیری ها در چند نقطه زمانی را در نظر گرفت؟ یا شاید با ماهیت (چندگانه) مکرر تجزیه و تحلیل، به این امر توجه شود. پیشاپیش متشکرم
نوع ANOVA برای نمونه های وابسته در طول زمان
71728
من سعی می‌کنم یک سیستم هشدار روزانه بسازم تا وقتی اتفاق غیرعادی در داده‌های تحلیلی من رخ داده است که ممکن است نیاز به بررسی بیشتر داشته باشد، به من اطلاع دهد. در حال حاضر من ۷ هفته از داده ها استفاده می کنم و میانگینی برای هر روز هفته ایجاد می کنم (یعنی میانگین نرخ تبدیل برای دوشنبه). سپس مقایسه می کنم که این دوشنبه چقدر از میانگین دوشنبه معمولی از نظر انحرافات استاندارد تغییر کرده است. اگر +/-2 stdevs باشد، نیاز به بررسی دارد. چند نگرانی دارم: * چند هفته را باید در نظر بگیرم؟ نگرانی من این است که اگر تعداد زیادی مصرف کنم، ممکن است روندی در حال ظهور باشد که هشدارهای من را منحرف کند. اگر من خیلی کم استفاده کنم، ممکن است واریانس بالایی داشته باشم و سیستم ممکن است بیهوده هشدارها را ارسال کند. * آیا بهتر است یک میانگین چرخشی مثلاً 7 دوشنبه گذشته در نظر بگیریم و این دوشنبه را به جای میانگین مقایسه کنیم؟ * بهترین راه برای مقابله با فصلی بودن چیست - یعنی دوشنبه های تعطیلات بانکی که گاهی اتفاق می افتد اما میانگین ها و انحرافات استاندارد را تغییر می دهد. * برخی از وب سایت ها ممکن است ترافیک کمی در روز داشته باشند. چگونه باید با آنها برخورد کنم؟ آیا باید مدت زمان بیشتری را برای محاسبه میانگین ها صرف کنم؟ چگونه می توانم تصمیم بگیرم که چه تعداد مصرف کنم؟
ایجاد سیستم هشدار بر اساس انحراف معیار و میانگین: چگونه با حجم نمونه کوچک، روند و فصلی برخورد کنیم؟
17156
من سعی می‌کنم بفهمم مردم چگونه از بسته‌های R استفاده می‌کنند و نمی‌دانم که آیا موارد مستندی وجود دارد که بسته‌های R پاسخ‌های متفاوتی را تولید کرده‌اند. توضیح: انگیزه پشت این سوال ناشی از تلاشی است که من در آن مشارکت می‌کنم که هدف آن درک اهمیت منشأ در روش‌های تحلیلی و چگونگی تسهیل تحقیقات تکرارپذیر است. در حالی که R در حال حاضر در جامعه علمی بزرگ است و بسته‌های R در CRAN نسخه می‌شوند، بدون اطلاعات دقیق [به‌ویژه شماره نسخه‌ها]، شخصی که سعی می‌کند در آینده مجموعه‌ای از کار را بازتولید کند ممکن است به نتیجه‌گیری متفاوتی برسد که کار اصلی ( حتی با داده های اصلی). مثال: مقاله جان دو می گوید: ما از R 2.3.1 و بسته glmulti برای تناسب با مدل های خود استفاده کردیم. 10 سال بعد، کسی ممکن است از نسخه جدیدی از glmulti استفاده کند (هیچکس نمی داند از چه نسخه ای در نسخه اصلی استفاده شده است) که ممکن است نتیجه گیری بسیار متفاوتی داشته باشد. سوال من: آیا نمونه هایی از چنین چیزی در حال حاضر وجود دارد؟ نسخه 2 یا بسته R نتایج بسیار متفاوتی نسبت به نسخه 1 ایجاد می کند.
آیا نمونه هایی از بسته های R وجود دارد که به طور چشمگیری بین نسخه تغییر می کند به طوری که نتایج یک تابع آماری به طور قابل توجهی متفاوت است؟
94294
در کلاس آمار بیزی من، استاد من این نکته را بیان می کند که ما نباید درگیر برآوردگر بی طرف باشیم. اول: من این بیانیه را به معنای سوگیری معاملاتی برای واریانس کوچکتر می فهمم، یعنی برآوردگر خوب = برآوردگر با کوچکترین میانگین مربعات خطا (MSE). این ایده در Frequentist نیز دیده می شود. اما دوم، و بخش گیج کننده: استاد من سپس چیزی در مورد برآوردگر بی طرف گفت که نویز را دریافت می کند و سیگنال را نمی گیرد. از آنجایی که بیشتر داده های مشاهده شده فقط نویز هستند، ما می خواهیم تخمین خود را به 0 کاهش دهیم. تنوع نمونه گیری؟ 2) چرا برآوردگر بی طرفانه (مثلاً میانگین نمونه یک مدل معمولی) نمی تواند نویز و سیگنال را متمایز کند؟ اگر نمی تواند، چه نوع برآوردگر می تواند؟ یک مثال عالی خواهد بود و یک مثال علوم اجتماعی بهترین خواهد بود!
چرا ما نباید در بی طرفی وسواس داشته باشیم
81720
برای همه، من مطالعه ای را انجام داده ام که در آن 50 بیمار تحت یک اسکن کامپیوتری (CT) قرار گرفتند. هر اسکن با استفاده از 3 الگوریتم مختلف (بدون کاهش نویز، کاهش نویز متوسط، کاهش نویز زیاد) بازسازی شد. این الگوریتم‌های بازسازی باعث کاهش نویز می‌شوند که هنگام تلاش برای کاهش دوز تشعشع مسئله‌ای است. از آنجایی که هر 50 بیمار 3 بازسازی داشتند، در مجموع 150 مطالعه انجام شد. سپس این مطالعات ناشناس و تصادفی شدند. سپس 8 رادیولوژیست جداگانه هر مطالعه را خواندند و آنها را بر اساس مقیاس لیکرت 1-5 (1-وحشتناک، 5-ایده آل) برای دسته بندی های کیفی متعدد از جمله اطمینان تشخیصی، نویز تصویر درک شده، افزایش کنتراست درک شده، و مصنوعات تصویر درک شده درجه بندی کردند. من می خواهم نمرات خوانندگان را بین بازسازی های مختلف مقایسه کنم. به عنوان مثال، آیا الگوریتم کاهش نویز بالا منجر به بهبود اطمینان تشخیصی در مقایسه با سایر بازسازی ها می شود. همچنین، به طور کلی، اکثر مطالعات به صورت ذهنی به عنوان 4 یا 5 درجه بندی شدند که منجر به داده های منحرف شده بود. به طور خلاصه، چه آزمایشی را برای تجزیه و تحلیل این داده ها توصیه می کنید. من به تست فریدمن فکر می کنم. آیا این درست است؟ اگر چنین است، آیا یک پس آزمون از هر نوع اجرا می کنید؟ هر گونه کمکی بسیار قدردانی خواهد شد. با تشکر، SK
تجزیه و تحلیل داده های مقیاس لیکرت برای یک مطالعه رادیولوژی در تکنیک های کاهش دوز
57222
من دنباله‌ای از متغیرهای تصادفی معمولی را تولید می‌کنم (با استفاده از روال‌های کتابخانه boost C++). انتظار دارید میانگین و واریانس دنباله با چه سرعتی به واریانس واقعی همگرا شود؟ در مورد من، مقادیر واقعی عبارتند از: mean=-0.012083333333333333 واریانس=0.0075 برای متغیرهای ایجاد شده «10000000» دریافت می‌کنم: Mean=-0.0120757، var=0.00750125 که به طور شهودی برای تعداد بسیار متفاوت بسیار مضحک به نظر می‌رسد. آیا باید انتظار همگرایی سریع‌تری داشته باشم (یعنی مشکلی در کد من وجود دارد)، یا همان چیزی است که شما انتظار دارید؟
همگرایی پارامترهای توزیع تجربی دنباله ای از متغیرهای نرمال تولید شده
43179
در IV، من گاهی اوقات تخمین‌ها را در مقایسه با OLS مشاهده کرده‌ام تا درک کنم که LATE چگونه ممکن است با ATE مقایسه شود. آنالوگ در RD فازی چه خواهد بود؟ تخمین معیار چیست؟ من تصور می کنم آنالوگ معادله ساختاری بدون ابزارسازی برای متغیر درون زا باشد؟ آیا چند جمله ای RD را در آن قرار می دهید؟ آیا آن را به یک پهنای باند باریک محدود می کنید؟ آیا موارد زیر منطقی است؟ فرض کنید RD برای یک بریدگی نمره آزمون برای پذیرش در یک برنامه دانشگاهی است، و RD فازی به تأثیر جدا بودن از آن برنامه بر درآمدهای آتی می‌پردازد. خط پایه OLS می تواند دستمزدهای رگرسیون در یک ساختگی برای شرکت در برنامه دانشگاهی و سطح نمره آزمون باشد؟ ابزار این نیست. خط پایه چهارم، دستمزدهای رگرسیون شرکت در برنامه و سطح نمره آزمون، و مشارکت ابزاری با مرحله اول است که مشارکت را در یک ساختگی برای اینکه آیا نمره آزمون بالاتر از آستانه بوده به علاوه سطح نمره آزمون؟ سپس، RD با انجام 2 کار میخکوب می کند: اول، سطح نمره آزمون را با طیفی از چندجمله ای های انعطاف پذیر در سطح نمره آزمون جایگزین می کند: خطی تکه ای، درجه دوم و غیره... دوم، نمونه را به محدودتر محدود می کند. و پهنای باند باریکتر در اطراف ناپیوستگی. ارائه تخمینی از جایگشت های متعدد بین پهنای باند و مرتبه چند جمله ای؟ آیا این یک چارچوب معقول برای مقایسه ATE، LATE، و Weighted LATE (یعنی RD فازی) است؟
مقایسه برآوردهای RD فازی با آنالوگ OLS.
57228
ما داده‌هایی از دو کار مرتب‌سازی داریم که در آن موارد یکسان (N=87) به انواع مختلف گروه ('g' & 'd') اختصاص داده شده است. می‌خواهیم همپوشانی بین تخصیص‌ها به گروه‌های 'g' (N=13) را با گروه‌های 'd' (N=16) مقایسه کنیم. برای ارائه ایده ای از داده ها، من یک جدول فرکانس کوتاه شده ایجاد کرده ام _(با عرض پوزش برای قالب جدول - مطمئن نیستم بهترین روش را در اینجا نشان دهم)_: در این مثال 9 مورد قرار داده شده در گروه g4 نیز در آن قرار داده شده است. 'd1'. | g1 | g2 | g3 | g4 | g5 | ---------------------------- d1| 1 | 0 | 0 | 9 | 0 | ---------------------------- d2| 0 | 0 | 0 | 0 | 4 | ---------------------------- d3| 0 | 7 | 4 | 0 | 2 | ---------------------------- d4| 0 | 0 | 8 | 0 | 4 | ----------------------------- اندازه گروه های 'g' متفاوت است و بنابراین تعداد بالقوه موارد منطبق به 'd' اختصاص داده شده است. گروه ها به اندازه گروه g بستگی دارد. به عنوان مثال، g4 در واقع 18 مورد به آن اختصاص داده شده است، اما تنها 9 مورد با d1 مطابقت دارد، g3 دارای 3 مورد اختصاص داده شده است و هیچ کدام با d1 مطابقت ندارد. بنابراین فرکانس ها به تنهایی نماینده خاصی نیستند. ما می خواستیم 1) معیاری از همپوشانی بین همه گروه های 'g' با همه گروه های 'd' با در نظر گرفتن همپوشانی احتمالی داشته باشیم، و 2). یک معیار جهانی از ارتباط بین گروه‌های «g» و گروه‌های «d». من فرض می‌کنم (اگر اشتباه می‌کنم لطفاً اصلاح کنید) ما نمی‌توانیم از Chi-Squared استفاده کنیم زیرا اکثر سلول‌ها کمتر از 5 هستند و نمی‌توانیم از تست دقیق فیشر استفاده کنیم زیرا جدول 2x2 نیست. **سوالات من:** 1) آیا آزمون دیگری وجود دارد که بتوانیم برای تعیین کمیت روابط بین این تکالیف انجام دهیم؟ 2) هنگامی که من با داده ها بازی می کردم و یک تست مجذور کای در R اجرا می کردم ** مقادیر باقیمانده پیرسون** را برای هر ترکیب GxD به من می داد - آیا این مقادیر باقیمانده برای استفاده مستقل از آزمون Chi-Square مناسب هستند؟ - به نظر می رسد آنها چیزی را نشان می دهند که ما برای اولین نیاز خود نیاز داریم، یعنی ارائه شاخصی از همپوشانی بین گروه ها با در نظر گرفتن اندازه گروه - اما من نمی خواهم از آنها به اشتباه استفاده کنم. _ 3). من گزینه محاسبه p-values ​​توسط Monte Carlo Simulation را در تابع chisq.test در R دیدم. آیا می توان از این شبیه سازی برای غلبه بر مشکل سلول های < 5 با داده ها استفاده کرد؟
کمی کردن همپوشانی در نتایج کار مرتب‌سازی با سلول‌های کمتر از ۵
43171
من باید روش حداقل مربعات یک مدل را با روش کمترین برش محاسبه و مقایسه کنم. نتایج مدل LS عبارت بودند از: ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) -39.9197 11.8960 -3.356 0.00375 ** Air.Flow 0.7156 0.1349 5.307 5.8e-05 *** Water.Temp 1.252000 0.3. اسید. Conc. -0.1521 0.1563 -0.973 0.34405 نتایج LTS عبارت بودند از: (قطع) هوا. جریان آب. دمای اسید. تطبیق. -3.580556e+01 7.500000e-01 3.333333e-01 3.489094e-17 چگونه نتایج را برای LTS تفسیر کنم؟ من می‌دانم که «Air.Flow» و «Water.Temp» مهم هستند و «ACid.conc» مهم نیست. اما از ضرایب LTS اطلاعی ندارید زیرا هیچ خطای استانداردی وجود ندارد.
چگونه می توان خروجی را از برآورد مربع های کم ترش تفسیر کرد و آن را با OLS مقایسه کرد؟
65558
من از رگرسیون لجستیک استفاده می کنم و از ترکیبی از ویژگی های پیوسته و باینری استفاده می کنم. سوال من این است که هنگام تلاش برای عادی سازی ویژگی های باینری را چگونه دنبال می کنید. من بسیار قدردان هر کمکی هستم.
عادی سازی ویژگی های باینری برای رگرسیون لجستیک
46522
من اصطلاح دقیق این را نمی دانم، بنابراین گوگل جواب نداد. من دقیقاً آنچه را که نیاز دارم در زیر توضیح خواهم داد. من می‌خواهم دو مجموعه از مقادیر مانند قند خون یا فشار خون را مقایسه کنم، که در آن مقادیر هرگز از 0 شروع نمی‌شوند. لطفاً به مثال زیر توجه کنید: **به‌روزرسانی** من مدت زمان بلوک حرکتی را بعد از بی‌حسی نخاعی مقایسه کردم. نتایج به طور معمول توزیع نمی شوند: حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 75.0 140.0 160.0 157.2 175.8 280.0 90.0 166.2 190.0 193.3 210.0 295.0 و آزمون مجموع رتبه Wilcoxon با تصحیح پیوستگی W = 1.0-65.5، W = 1.0-622 بود. بنابراین، آیا نگرانی خاصی برای مقایسه این گروه ها به غیر از استفاده از آزمون t یا Mann-Whitney-U وجود دارد، با توجه به این واقعیت که محدوده قانونی از 0 شروع نمی شود؟ **@Peter Flom** خب، بعد از خواندن آخرین نظر شما، آن را روی R امتحان کردم و دیدم که دو مقدار p یکی هستند: > tension1<-c(160,180,170,150,145,176,198,200) > > deviation1<-c(20,40, 30،10،5،36،58،60) > > tension2<-tension1+12; deviation2<-deviation1+12 > > ks.test(tension1,tension2) داده های آزمون کولموگروف-اسمیرنوف دو نمونه ای: dev1 و dev2 D = 0.375، p-value = 0.6601 فرضیه جایگزین: دو طرفه > t.test(tension1,tension2) Welch Two داده های آزمون t نمونه: tension1 و tension2 t = -1.1792، df = 14، p-value = 0.258 > t.test(انحراف1، انحراف2) داده های آزمون t نمونه Welch Two: انحراف1 و انحراف 2 t = -1.1792، df = 14، p-value = 0.258
مقایسه آماری دو میانگین با محدوده ای که از 0 شروع نمی شود
24389
من یک رگرسیون OLS را با استفاده از متغیرهای ساختگی ساخته شده از متغیرهای طبقه ای اجرا می کنم. بگو، نژاد تبدیل به race1، race2 و race3 شد. من race1 را حذف می کنم تا از دام متغیر ساختگی فرار کنم و OLS را اجرا کنم و ضرایبی را برای race2 و race3 بدست بیاورم. ضریب race1 در معادله رگرسیون چقدر خواهد بود؟ یا فقط نباید متغیر ساختگی حذف شده را در معادله نهایی برای تخمین مقدار پیش بینی شده وارد کنم؟
ضریب متغیر ساختگی حذف شده در OLS
57223
من برخی از داده های تک متغیره دارم که ممکن است به خوبی به عنوان یک مخلوط دو جزئی مدل شوند که در آن جزء اول نرمال با میانگین و واریانس ناشناخته است و دومی مقداری توزیع پیوسته نامشخص است. میانگین توزیع دوم بیشتر از میانگین نرمال است. هدف طبقه بندی مشاهدات در هر یک از این دو توزیع است. آیا این روشی را به کسی پیشنهاد می کند؟ همه پیشنهادات بسیار قدردانی می شود.
مخلوط غیر استاندارد دو جزئی (معمولی + ناشناخته)
68124
http://cran.r-project.org/web/packages/quadprog/quadprog.pdf بسته R quadprog به نظر می رسد قادر به حل مشکل برنامه نویسی درجه دوم تنها زمانی باشد که ماتریس $D$ قطعی مثبت باشد. با این حال، یک مورد وجود دارد که ماتریس $D$ قطعی مثبت نیست. مانند \begin{eqnarray} \min(x^2 + y^2 - 6xy) \\\ \text{موضوع}\quad\quad x + y &\leq& 1,\\\ 3x + y &\leq& 1.5، \\\ x، y &\geq& 0\. \end{eqnarray} چگونه می توانم این نوع مشکل را حل کنم؟
برنامه ریزی درجه دوم زمانی که ماتریس قطعی مثبت نیست
65556
به عنوان مثال مجموعه داده مسکن معروف بوستون را در نظر بگیرید. در مقاله اصلی، از مدل رگرسیون برای مدل‌سازی مبلغی استفاده شد که مردم مایل بودند برای بهبود کیفیت هوا بپردازند. اما «افرادی» که رفتارشان در حال الگوبرداری بود، هرگز مشخص نشد. احتمالاً به «ساکنان بوستون بزرگ» محدود نمی شد. به طور غیرقابل قبولی، «انسان در هر کجای این سیاره» خواهد بود. و نه، همه ساکنان ایالات متحده. بنابراین، نویسندگان از چه استنباط دعوت شده‌ایم تا در مورد دامنه‌ای که آنها برای نظریه خود در نظر دارند، استفاده کنیم؟ شاید همه ساکنان مناطق بزرگ متروی ایالات متحده. اما - در مورد سایر مناطق متروی جهان اول چطور؟ دو بخش اول مقاله بوستون با دقت از هرگونه ارجاعی که ممکن است نشان دهد آنها «جمعیت» خاصی دارند که «نمونه» آنها برای آن اعمال می شود، اجتناب می کنند. بعد زمان نیز وجود دارد - داده ها از دهه 70 به دست آمده اند، در حالی که این نظریه هیچ محدودیت زمانی ندارد. به علاوه - بازگشت به اصول اولیه - چگونه می توان با داده های بوستون به عنوان نمونه ای از جمعیت از جمله منطقه متروی شیکاگو برخورد کرد در حالی که هیچ داده ای از منطقه شیکاگو در نظر گرفته نشد؟ علاوه بر این، بسیاری از متغیرهای کمکی در رگرسیون بوستون اصلاً نمونه نبودند، بلکه مجموع بودند - بنابراین، برای مثال، نسبت سیاه‌پوستان از آمار سرشماری تهیه شد. سوال من: چگونه می توانیم داده های بوستون را به عنوان پشتیبان گزاره های نامحدود جغرافیایی در مقاله تصور کنیم؟ آیا یک راه ریاضی برای نشان دادن معادل یا تقریب تجزیه و تحلیل داده های بوستون به شهرهای دیگر وجود دارد؟ یا صرفاً به عنوان یک موضوع عقل سلیم فرض می شود - به طوری که نویسندگان مقاله از این که فکر کنند هر کسی ممکن است در این مورد شک داشته باشد شگفت زده می شود؟
تعمیم نتایج - جمعیت چیست؟
57227
من در مورد توزیع عبارت خطا/فرایند نوآوری در فرآیند ARCH/GARCH و اجرای آن تعجب می کنم، در مورد برخی از نکات مطمئن نیستم. فرض اصلی $r_t=\sigma_t*\epsilon_t$ است که $\sigma_t$ نوسان است که توسط ARCH/GARCH مدل‌سازی شده است و $\epsilon_t$ اکثراً N(0,1) فرض می‌شود. اکنون سوالات من این است: 1. مدل های پیچیده تر این فرض را کنار می گذارند. بنابراین می توانم بگویم، به عنوان مثال. $\epsilon_t$ از یک توزیع هذلولی تعمیم یافته پیروی می کند. بنابراین لازم نیست میانگین صفر باشد و واریانس نباید برابر با 1 باشد. این درست است، درست است؟ 2. اگر از بسته rugarch استفاده کنم: از مفروضات توزیعی مختلف پشتیبانی می کند. اما من چیز زیر را دریافت نمی کنم: بنابراین آنها فرض میانگین صفر و واریانس یک را نیز کنار می گذارند؟ یا از چیزی شبیه نسخه استاندارد استفاده می کنند؟ 3. فرض کنید من می‌خواهم یک GARCH(1,1) را با فرض اینکه $\epsilon_t$ از یک توزیع هذلولی تعمیم‌یافته پیروی می‌کند، منطبق کنم، اما لازم نیست میانگین صفر باشد و واریانس لازم نیست یک باشد. آیا روگارچ یک تخمین پارامتر مشترک انجام می دهد؟ بنابراین در خروجی نهایی خود، آیا پارامترهای فرآیند GARCH و پارامترهای توزیع هذلولی تعمیم یافته خود را دریافت می کنم؟ آخرین سوال من این است که چگونه می توانم این را پیاده سازی کنم؟ حدس می‌زنم باید از دستور زیر استفاده کنم: ugarchspec(variance.model = list(model = sGARCH)، garchOrder = c(1، 1)، submodel = NULL، external.regressors = NULL، variance.targeting = FALSE)، mean.model = list(armaOrder = c(1, 1)، include.mean = TRUE، archm = FALSE، archpow = 1، arfima = FALSE، external.regressors = NULL، archex = FALSE)، توزیع.model = norm، start.pars = list()، fixed.pars = list()، ...) توزیع. مدل باید روی ghyp تنظیم شود. آیا این فرض میانگین صفر و واریانس یک است؟ فکر کنم نه، درسته؟ چگونه می توانم از توزیع هذلولی برای توزیع.model استفاده کنم؟
عبارت خطا/فرایند نوآوری در فرآیندهای ARCH/GARCH؟
104210
من روی مدل رگرسیون لجستیک چند کلاسه با تعداد زیادی ویژگی کار می کنم ('numFeatures'> 100). الگوریتم 'fmincg' با استفاده از تابع هزینه و شیب مبتنی بر برآورد احتمال حداکثری، مشکل را به سرعت حل می کند... با این حال، من در حال آزمایش یک تابع هزینه متفاوت هستم و گرادیان ندارم... آیا راه خوبی برای روند محاسبات را سرعت می بخشد؟ به عنوان مثال یک الگوریتم متفاوت یا تنظیمات fmincg؟
راه حل کارآمد fmincg بدون ارائه گرادیان؟
52542
من در حال کار بر روی اثبات برای تقسیم مجموع مربع ها هستم. آیا کسی می تواند به صراحت توضیح دهد که چگونه شخص از خط 14 به 15 در PDF زیر می رود: http://capone.mtsu.edu/dwalsh/4380/438PARTN.pdf یعنی چگونه بین این خطوط حرکت می کند - \begin{align} \rm{SSTO} &= \sum_{i=1}^r \sum_{j=1}^{n_i} (Y_{ij}-\overline{Y}_{..})^2 \\\ &= \sum_{i=1}^r \sum_{j=1}^{n_i} [(Y_{ij} -\overline{Y}_{i.})+(\overline{Y}_{i.}-\overline{Y}_{..})]^2 \end{align} من در واقع دارم می‌خوانم کازلا و استنتاج آماری برگر (صفحه 536)، اما پرش یکسان در هر دو اتفاق می افتد. با عرض پوزش، من هرگز در جبر بهترین نبودم... کسی لطفاً این را توضیح دهد.
مجموع تقسیم بندی مربع ها
81490
من سعی می کنم یک چگالی هسته را از داده های ابعادی بالا ($n > 2$) محاسبه کنم. مدل اساسی (تولید کننده) ناشناخته فرض می شود. هدف این است که نمونه هایی از این تخمین استخراج شود، به نوعی ایجاد داده های مصنوعی شبیه به توزیع زیربنایی. من امیدوار بودم که از ناپارامتریک های بیزی برای این کار استفاده کنم، زیرا پیچیدگی مدل می تواند با مقدار داده های مشاهده شده افزایش یابد. شهود استفاده از فرآیند دیریکله با هسته گاوسی بود. DPpackage از این قابلیت پشتیبانی می کند، اما من اطلاعات کمی در مورد نحوه تفسیر نتایج یا نمونه برداری از آنها دارم. آیا کسی توضیح کوتاهی در مورد نحوه تفسیر مقادیر برگشتی از تابع 'DPdensity' و احتمالاً نمونه برداری از آنها دارد؟
چگونه از یک تخمین چگالی ناپارامتری بیزی نمونه برداری کنیم؟ [بسته DP]
94292
من می خواهم برازش دو مدل رگرسیون غیر خطی را مقایسه کنم: 1) $$ Y = (\Pi^{10}_{i=1}\beta_i^{x_i})^{1/\Sigma \beta} $$ 2) $$ Y = \begin{cases} (\Pi^{10}_{i=1}\alpha_i \beta_i^{x_i})^{1/\Sigma \beta} & \text{برای یک زیر مجموعه از پیش تعریف شده از نقاط داده} \\\ (\Pi^{10}_{i=1}(1-\alpha_i)\ beta_i^{x_i})^{1/\Sigma \beta} & \text{otherwise} \end{cases} $$ آیا هنوز هم می‌توانم از آمار F برای تناسب این دو مدل را مقایسه کنید؟
مقایسه مدل های تو در تو و غیر خطی
90634
من روی چند تکلیف کار می کنم و نمی توانم این سوال را بفهمم، بنابراین فکر کردم برای کمک به اینجا بیایم. بخش 1: یک مطالعه اخیر در مورد اندازه وعده های غذایی گزارش داد که در طی یک دوره 17 ساله، اندازه متوسط ​​یک نوشابه مصرف شده توسط آمریکایی های 2 ساله و بالاتر از 13.1 اونس (اونس) به 19.9 اونس افزایش یافته است. نویسندگان بیان می کنند که > تفاوت از نظر آماری با P <0.01 معنی دار است. توضیح دهید که چه اطلاعات اضافی برای محاسبه فاصله اطمینان برای افزایش > نیاز دارید، و روشی را که برای محاسبات > استفاده می کنید، تشریح کنید. (همه موارد اعمال شده را انتخاب کنید.) > > a.) t و درجات آزادی را می توان برای یافتن فاصله اطمینان استفاده کرد. > در این مورد می‌توانیم SED را محاسبه کنیم و از درجات آزادی برای یافتن t* استفاده کنیم. > > ب) انحرافات استاندارد و درجات آزادی را می توان برای یافتن بازه اطمینان > استفاده کرد. در این مورد، اکنون می‌توانیم مقدار P را پیدا کنیم، که می‌تواند برای یافتن SED استفاده شود. > > ج.) اندازه های نمونه و یک مقدار P دقیق تر را می توان برای یافتن فاصله اطمینان > استفاده کرد. در این حالت می‌توانیم انحرافات استاندارد و > فاصله اطمینان را به روش معمول تعیین کنیم. > > د.) درجات آزادی و مقدار P دقیق تر را می توان برای یافتن بازه اطمینان > استفاده کرد. در این مورد می‌توانیم t را تعیین کنیم، سپس SED > و t* را محاسبه کنیم. > > ه.) از اندازه نمونه و انحرافات استاندارد می توان برای یافتن فاصله اطمینان > استفاده کرد. در این حالت می‌توانیم فاصله را به روش معمول > پیدا کنیم. * * * > بخش 2: آیا فکر می کنید که فاصله اطمینان اطلاعات مفید > اضافی را ارائه می دهد؟ توضیح دهید چرا یا چرا نه. > > الف) بله، فاصله اطمینان می تواند اطلاعات مفیدی در مورد > اندازه متوسط ​​نوشابه ها به ما بدهد. > > ب.) بله، فاصله اطمینان می تواند اطلاعات مفیدی در مورد > تنوع بین شرکت کنندگان نمونه در مطالعه به ما بدهد. > > ج.) بله، فاصله اطمینان می تواند اطلاعات مفیدی در مورد > بزرگی تفاوت به ما بدهد. > > د) خیر، فاصله اطمینان نمی تواند اطلاعات مفید بیشتری به ما بدهد > زیرا نمی تواند حجم نمونه را در مطالعه به ما بگوید. > > ه.) خیر، فاصله اطمینان نمی تواند اطلاعات مفید دیگری به ما بدهد > زیرا مقدار P از قبل به ما می گوید که این بازه حاوی 0 نیست. برای قسمت 1، من فکر می کنم a یکی از پاسخ های صحیح است، اما می توانم نگو که آیا دیگران هم کار می کنند. و برای قسمت 2، b را به عنوان یک راه حل ممکن حذف کردم.
سوالاتی در مورد فواصل اطمینان
927
پادکست های مرتبط با تجزیه و تحلیل آماری کدامند؟ من چند ضبط صوتی از سخنرانی‌های دانشگاه در ITunes U پیدا کرده‌ام، اما از هیچ پادکست آماری اطلاعی ندارم. نزدیک ترین چیزی که من از آن آگاه هستم، پادکست تحقیقات عملیاتی The Science of Better است. این به مسائل آماری می پردازد، اما به طور خاص یک نمایش آماری نیست.
پادکست های آماری
90631
من دو روش مختلف برای فرمول بندی بهینه سازی SVM دیده ام اما مطمئن نبودم که تفاوت بین آنها چیست یا تفاوتی وجود دارد یا خیر. فرمول اول: $$min \frac{1}{2}||\theta||^2 + C \sum^n_{i=1}\xi_i $$ $$\text{s.t. }\ \ y^{(i)}(\theta \cdot x^{(i)} +\theta_0) \geq 1 - \xi_i$$ فرمول دوم: $$min \frac{\lambda}{2}| |\theta||^2 + \frac{1}{n} \sum^n_{i=1}\xi_i $$ $$\text{s.t. }\ \ y^{(i)}(\theta \cdot x^{(i)} +\theta_0) \geq 1 - \xi_i$$ آیا آنها فرمول یکسانی دارند؟ چیزی که من را گیج می کند این است که فکر می کنم منظور آنها این است: $$min \frac{1}{2}||\theta||^2 + \frac{1}{\lambda} \sum^n_{i =1}\xi_i $$ جایی که: $$C = \frac{1}{\lambda}$$ یکسان است: $$min \frac{\lambda}{2}||\theta||^2 + \sum^n_{i=1}\xi_i $$ آیا درست می‌گویم که نباید وجود داشته باشد و 1/n؟ یا فرقی می کند؟
فرمولاسیون های مختلف برای SVM با متغیرهای شل (اولیه)
60456
من با Weka (و یادگیری ماشینی) تازه کار هستم، بنابراین این سوال کمی احمقانه خواهد بود. بنابراین من 2 مدل با استفاده از J48 و RandomForest (هر دو با حالت اعتبارسنجی متقاطع 10 برابری اجرا می‌شوند) روی یک مجموعه آموزشی 40000 تایی دارم. من همچنین 6 مجموعه تست مختلف کوچکتر دارم که هر کدام حدود 8000 تاپل دارد. اکنون می خواهم نحوه عملکرد این 2 الگوریتم طبقه بندی را پس از آزمایش مدل های آنها مقایسه کنم (من پیش بینی ها را گزارش کرده ام). مشکل این است که من درک خوبی از پیش‌بینی‌های گزارش‌شده ندارم، بنابراین نمی‌دانم چگونه پیش‌بینی هر کدام را مقایسه کنم تا ببینم کدام یک از نظر دقت بهتر است.
چگونه 2 طبقه بندی کننده را بعد از تست مدل آموزش دیده در Weka مقایسه کنیم؟
114583
من می‌خواهم یک متغیر پاسخ باینری را شبیه‌سازی کنم که به دو متغیر پیوسته توزیع شده عادی بستگی دارد، و می‌خواهم در متغیر پاسخ 1s بیشتر از 0s داشته باشم. من تعجب می کنم که چگونه می توان این کار را به گونه ای انجام داد که یک رگرسیون لجستیک یک اصطلاح تعامل قابل توجه را شناسایی نکند. رویکرد فعلی من در R به این صورت است: n = 1e5 x1 = rnorm(n) x2 = rnorm(n) y = x1+x2+rnorm(n) y = ifelse(y > 2, 1, 0) df=data. قاب (x1=x1، x2=x2، y=y) خلاصه (glm(y ~ x1*x2، df, ضرایب خانواده=دوجمله ای(logit)))$ این معمولاً منجر به یک ترم تعامل بسیار مهم می شود، حتی اگر y فقط مجموع x1 و x2 باشد. بنابراین چگونه می توانم یک y را شبیه سازی کنم که به هر دو x1 و x2 بستگی دارد، اما نه به تعامل آنها؟
نحوه شبیه سازی یک متغیر پاسخ باینری بر اساس دو متغیر پیوسته غیر متقابل
94291
من اینجا واقعا گیج شدم من سعی می کنم دو مجموعه از داده ها را که در اندازه نمونه متفاوت هستند مقایسه کنم. یکی دارای 257 ورودی و دیگری دارای 598 است. آنها معیارهای نمرات در دو نوع ارزیابی مختلف هستند که تنها امتیازهای ممکن 1 تا 4 با نصف امتیاز مجاز است. میانگین ها نیم امتیاز متفاوت است، انحرافات استاندارد 0.2 متفاوت است، و چولگی ها متفاوت است. من مطمئن هستم که تفاوت قابل توجه است. از چه آزمونی می توانم برای اثبات معنی دار بودن تفاوت استفاده کنم؟ من فکر می کنم این یک آزمون t مستقل 2 دنباله است، اما ظاهراً زمانی که اندازه های نمونه متفاوت است از آزمون ولش استفاده می شود؟ پاسخ به این احتمالاً بسیار ساده است، اما من زمان کافی را صرف تلاش برای کشف این موضوع کرده ام که بیشتر از زمانی که شروع کردم گیج شده ام.
آیا باید از تست ولچ یا T استاندارد استفاده کنم؟
94121
من یک پزشک هستم و واضح است که آمارگیر نیستم (سعی می کنم بفهمم چرا و چگونه تجزیه و تحلیل درست را انجام دهم، اما فرمول ها را نمی فهمم). من از SPSS نسخه 19 در تجزیه و تحلیل داده های خود استفاده می کنم. من سعی می‌کنم آنالیز کنم که آیا یک نشانگر زیستی با افزایش خطر مرگ و میر در زیرجمعیت مطالعه‌ام مرتبط است و نمی‌دانم آیا تجزیه و تحلیل من به درستی انجام شده است یا خیر. این نتیجه (بخشی از آن) برای کل جمعیت است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/THJwk.jpg) این برای یکی از زیر گروه ها است: ![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/zT7SR.png) این برای زیرگروه دیگر است: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/a0Q8B.jpg) در این موقعیت، من می خواستم ببینم آیا ارتباط با خطر مرگ و میر در گروه دوم واقعاً معنی دار است یا خیر و من یک تجزیه و تحلیل بقای کاکس را با یک اصطلاح تعامل: ارزش نشانگر زیستی*LOT_1: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EFMwA.jpg) آیا این تحلیل درست است؟ و اگر چنین است، از این خروجی باید بفهمم که هیچ ارتباط آماری معنی داری با مرگ و میر برای بیومارکر مورد مطالعه در زیرگروه دوم وجود ندارد (تفاوتی برای این ارتباط بین دو زیر گروه وجود ندارد)؟ متشکرم. LE: این خروجی شامل اثر اصلی LOT_1 است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mVFkP.jpg)
تعامل در تحلیل بقا
52541
اگر من یک متغیر تصادفی داشته باشم که از توزیع نرمال پیروی می کند، یعنی $X \sim N(-3,4)$ و بخواهم $P(|X| <1)$ را محاسبه کنم چگونه می توانم با استفاده از z این کار را انجام دهم. ارزش ها؟ با توجه به اینکه مدول است، آیا فقط باید نیمی از منحنی نرمال را در نظر بگیرم و بنابراین $P(X<1)$ را محاسبه کنم؟
احتمال نرمال $P(|X|<1)$ را با استفاده از مقادیر z پیدا کنید؟
17150
من با تلاش برای نشان دادن نرخ خطای بسیار پایین برای یک حسگر (نه بیش از 1 خطا در 1,000,000 تلاش) از طریق آزمایش مواجه هستم. ما زمان محدودی برای انجام آزمایش داریم، بنابراین پیش‌بینی می‌کنیم که نتوانیم بیش از 4000 تلاش به دست آوریم. من هیچ مشکلی نمی بینم که نشان دهد سنسور الزامات را برآورده نمی کند، زیرا حتی یک خطا در 4000 تلاش، فاصله اطمینان 95٪ را برای نرخ خطا با حد پایین تر از 0.000001 ایجاد می کند. با این حال، نشان دادن اینکه این الزامات را برآورده می کند، مشکل است، زیرا حتی 0 خطا در 4000 تلاش همچنان منجر به کران پایین تر از 0.000001 می شود. هر گونه پیشنهاد بسیار قدردانی خواهد شد.
چگونه نرخ خطای بسیار پایین را تأیید کنیم
96776
من تازه وارد هستم، پس لطفاً تا زمانی که به درستی فرموله شود، مرا تحمل کنید: **به طور خلاصه:** من در حال انجام رگرسیون غیرخطی (برآورد پارامتر) همزمان دو مدل پارامتری مختلف به سه مجموعه اندازه گیری متفاوت، اما مرتبط در یک آزمایش برخی از پارامترهای بردار پارامتر من در هر دو مدل وجود دارد. _روش فعلی (به صورت مفهومی):_ *من فرض می کنم خطاهایی به طور معمول توزیع شده اند. * وزن را تخمین زدم (انحراف معیار توزیع خطا). * با تابع هدف مجموع وزنی مجذور خطاها محاسبه می شود. * تابع هدف من لاگ احتمال را از مجموع وزنی مجذور خطاها محاسبه می کند. * برای همه رگرسیون‌های فردی، احتمال ورود به سیستم محاسبه می‌شود و روش _Current (از نظر ریاضی) را اضافه می‌کنیم. 2)+ 0.5∗(1−\phi^2)− 1/(2^2) * _1 (,\phi)$، با $ S_1(p,ϕ) = (1−\phi^2 ) − (_1−(_;))^2+S_2(p,ϕ) $ S_2(p,ϕ) = ∑_{=2}^ (_ - \phi _{−1} −(_;)+\phi (_{−1} ;))^2 $ $\phi$ - پارامتر برای همبستگی خودکار $\sigma$ - پارامتر برای انحراف استاندارد $p$ - بردار پارامتر $y$ - مشاهدات $(_;)$ - پاسخ مدل **سوالات** 1. من خطاهای همبسته خودکار را فرض می کنم، اما باید همبستگی متقاطع را در نظر بگیرم ، بیش از حد چگونه مدل آماری برای محاسبه همبستگی متقابل به نظر می رسد؟ 2. اگر به جای آن از توزیع t یا توزیع کوشی استفاده کنم، مدل آماری من چگونه به نظر می رسد. اینها امکان توصیف خطاهای دم چربی را دارند. ارجاع به یک نشریه یا کتاب درسی کافی است. چون متأسفانه من خودم نمی توانم آن را استخراج کنم.
رگرسیون با t توزیع شده خطاهای همبسته خودکار
85649
من می خواهم نسبت بین دو گروه کوچک را مقایسه کنم. در گروه 1، 2 نفر از 18 دانش آموز مورد تقدیر قرار گرفتند. در گروه 2، 9 نفر از 21 مورد افتخار دریافت کردند. این یک نمونه کوچک است، بنابراین اگر از آزمون t استفاده کنم: x1 <- c(rep(1,2),rep(0,16)) x2 <- c(rep(1,9),rep(0, 12)) t.test(x1,x2, alternative=two.sided, conf.level = 0.95) من یک p-value برابر با 0.0239 و CI برابر با (0.590) به دست می‌آورم. -0.0445): اگر از آزمون z (معروف به آزمون مجذور کای با 1 درجه آزادی) استفاده کرده بودم: prop.test(x=c(2,9), n= c(18,21), alternative= two.sided, conf.level=0.95) من یک p-value برابر با 0.0659 و یک CI برابر با (0.626-، -0.00921) دریافت می کنم که همیشه داشتم. تصور می‌شود که برای نمونه‌های کوچک باید از آزمون t استفاده کرد، زیرا تقریب نرمال برای نمونه‌های کوچک معتبر نیست، که باعث اهمیت اغراق‌آمیز در آزمون z می‌شود. پس چرا این تفاوت در آزمون t معنادار است، اما در آزمون z نه؟ و در آزمون t، چرا وقتی مقدار p کمتر از آلفا است، CI صفر را شامل نمی شود؟
تفسیر p-value در مقایسه نسبت بین دو گروه کوچک در R
94129
من داده هایی در مورد رشد تولید ناخالص داخلی به عنوان یک متغیر وابسته و رشد در بخش های اصلی تولید پاکستان مانند معدن، برق، ارتباطات، تولید و برق دارم. من قرار است یک رگرسیون بر روی آن اجرا کنم. آیا تفاوتی بین رگرسیون چند متغیره و رگرسیون چند متغیره وجود دارد؟ اگر چنین است، پس از چیست؟ کدام یک برای داده های من مناسب است؟
تفاوت بین رگرسیون چندگانه و رگرسیون متغییر چیست؟
94091
من 3 ویژگی سیگنال دارم (مثال: دامنه، فرکانس، انرژی). من می خواهم بررسی کنم که کدام ویژگی برای نشان دادن آن سیگنال خاص بهترین است. این سیگنال به دو دسته (خوب یا بد) طبقه بندی می شود. من از ROC برای پیدا کردن AUC استفاده کردم. از درک من: هر چه AUC بزرگتر باشد، بهتر می تواند بین دو کلاس (خوب: بد) تمایز قائل شود. آیا این حقیقت دارد؟ اگر این درست باشد، من ویژگی را انتخاب می‌کنم که بیشترین AUC را دارد تا در طبقه‌بندی‌کننده استفاده شود. آیا من در راه درست هستم؟ من از هر پاسخی قدردانی می کنم.
منحنی ROC و عملکرد آن مبتدی
929
کتاب زیر چقدر جامع است - چه تفاسیری وجود ندارد؟ تفسیرهای احتمال، آندری خرنیکوف، 2009، دی گرویتر، ISBN 978-3-11-020748-4 http://www.degruyter.com/cont/fb/ma/detailEn.cfm?isbn=9783110207484&sel مطالب:http://www.degruyter.com/files/pdf/9783110207484Contents.pdf
تفاسیر احتمال