_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
115278
ما در حال تجزیه و تحلیل تنوع هاپلوتیپ در داخل و بین شش جمعیت یا دم هستیم. ما به معیاری رسیدیم که شباهت هر جفت هاپلوتیپ ممکن را در یک دم یا بین دو دم مقایسه می‌کند. از این رو، برای هر مقایسه بین دو دیم، سه معیار داریم: _Hi_ (شباهت در deme _i_)، _Hj_ (همانطور برای deme _j_) و _Hij_ (شباهت بین deme _i_ و _j_). نتایج مشاهده شده در شکل 1 نشان داده شده است (15 مقایسه احتمالی بین شش سطح وجود دارد). توجه داشته باشید که _Hi_ و _Hj_ مستقل از هم هستند، اما _Hij_ به هر دو بستگی دارد! برای مقادیر بالای _Hi_ و _Hj_ (شباهت زیاد هاپلوتیپ ها) _Hij_ می تواند هم زیاد یا هم کم باشد (اگر هاپلوتیپ ها بین دِم ها تفاوت زیادی داشته باشند، اما در درونشان نباشند). برای مقادیر پایین _Hi_ و _Hj_، _Hij_ فقط می تواند کم باشد. ![1- نتایج مشاهده شده، 2-50 نسل، 3-150 نسل](http://i.stack.imgur.com/mQL0S.png) ما نرم افزاری را برای شبیه سازی فضایی تولید تنوع هاپلوتیپ تحت گرادیان های انتخاب ایجاد کردیم. در سناریوهای مختلف با پارامترهای جمعیتی متغیر. برای هر ترکیبی از پارامترها، 1000 شبیه‌سازی را اجرا می‌کنیم و برای هر شبیه‌سازی، سه معیار بالا (_Hi_، _Hj_ و _Hij_) را برای چندین زیر مجموعه از demes (نه لزوماً شش demes) محاسبه کردیم. این نتایج ابری از نقاط سه بعدی را ارائه می دهد که در شکل های 2 و 3 (برای نسل های مختلف) نشان داده شده است. هدف اصلی ما این است که بدانیم آیا نتایج مشاهده شده تحت هر یک از سناریوهای جمعیت شناختی که استفاده می کنیم، «قابل قبول» یا «محتمل» هستند. ما ابتدا یک رویکرد مبتنی بر مرکز را در نظر می گیریم (مقایسه فواصل نقاط مشاهده شده با مرکز ابر با فواصل هر نقطه شبیه سازی شده به مرکز)، اما عدم تقارن ابرها آن را رد می کند. در حال حاضر، ما به دنبال نوعی تخمین نواحی اطمینان برای توزیع‌های سه بعدی هستیم و به مقاله رویکرد بدون توزیع جدید برای ساختن منطقه اطمینان برای پارامترهای چندگانه رسیدیم. ما قدردان مشاوره در مورد این موضوع هستیم. آیا این تحلیل درستی است یا رویکردهای بهتری وجود دارد؟ ارادتمند شما
مناطق اطمینان برای توزیع های سه متغیره غیر عادی
72395
این یک عبارت دشوار است، اما من در تعجب هستم که چگونه فرض استقلال برای ANOVA را در شرایطی که در آن فضای کلی ثابت است، تفسیر کنم. به عنوان مثال: تصور کنید که شما رقابتی برای یک صندوق جایزه کلی 1 میلیون دلاری بین چندین فرد مختلف دارید که می توان هر کدام از آنها را به تیپ شخصیتی A، B و C اختصاص داد. فرضیه این است که یکی از این تیپ ها بهتر از سایرین است. تامین پول در مسابقه بنابراین شما مسابقه را اجرا کنید، دریابید که هر یک از افراد در هر گروه چقدر در مسابقه سود کرده اند و می خواهید با مقایسه میانگین هر گروه، فرضیه را آزمایش کنید. به نظر می رسد یک ANOVA یک طرفه ساده انتخاب بدیهی است. اما در این شرایط هیچ یک از مشاهدات مستقل از سایر مشاهدات نیست، زیرا با مبلغ ثابت موجود، سود یک بازیکن به معنای ضرر بازیکن دیگر است. و این به همان اندازه که در بین گروه ها صادق است. با وجود تنها سه بازیکن، انجام هر نوع تجزیه و تحلیل آماری کاملاً مضحک است. با تعداد بی نهایت بازیکن، وابستگی نتیجه یک نفر به دیگران بی نهایت کم است که نشان می دهد ANOVA در اصل خوب است. و مشکل جایی در این بین است. آیا آزمایش تفاوت در میانگین ها با ANOVA در شرایطی مانند این مشکلی ندارد؟ با فکر کردن به این موضوع، فکر می‌کنم پاسخ مثبت است، اما فقط در صورتی که مراقب باشید وضعیت چگونه در آمار آزمون نهایی ظاهر می‌شود. بیایید فرض کنیم که مفروضات نرمال بودن و برابری واریانس را می توان برآورده کرد، اما قبل از دستیابی به تکنیک دیگری، رویدادها چقدر باید به یکدیگر وابسته باشند؟ و در این صورت چه رویکردی بهتر است؟
ANOVA زمانی که فرض استقلال مشکوک/نقض است
91217
در مدلسازی درخت تصمیم چه تفاوتی بین داده های آموزش و آزمون وجود دارد؟ من در پیدا کردن معنی این دو کلمه مشکل دارم و امیدوارم شما بچه ها بتوانید به من کمک کنید. ممکن است چند مثال ساده همراه با تعاریف خود به من بدهید تا بتوانم عملاً تفاوت بین داده های آموزش و آزمون را ببینم و درک کنم. من سعی کردم این را در پشته سرریز ارسال کنم، اما به من توصیه شد که در اینجا پست کنم زیرا ممکن است شما در زمینه درختان تصمیم بیشتر آگاه باشید. امیدوارم بتوانید کمک کنید و خیلی ممنون
درختان تصمیم - تفاوت داده های آزمون و آموزش
23263
من در حال اجرای یک معیار برای یافتن کارایی کامپیوترم هستم. متغیرهای کنترلی $p$ به عنوان مثال، $x_1، x_2،...، x_p$ و یک متغیر خروجی $Y$ وجود دارد. به عنوان مثال، هر بار که آزمایشی را اجرا می کنم، متغیرهای کنترل را تغییر می دهم و خروجی را می بینم (کارایی کامپیوتر). بنابراین اساساً برای این مشکل از رگرسیون برای مدل کردن این مشکل استفاده کردم $\\{Y_i,\, x_{i1}, \ldots, x_{ip}\\}_{i=1}^n$. من همچنین به دلیل ماهیت آزمایش از رگرسیون استفاده کردم، یعنی اگر همان آزمایش را در رایانه دیگری انجام دهم، می‌خواهم آن رایانه را با w.r.t «تطبیق» کنم. به مقادیری که از رایانه قبلی خود دارم - که با یک مشکل خط مطابقت دارد. اکنون، در تنظیمات جدید، من همان متغیرهای کنترلی را دارم اما دو نتیجه $Y_{i1},Y_{i2}$ دارم که توان عملیاتی و پهنای باند هستند. من سعی می کنم متغیرهای کنترلی را تغییر دهم تا سود را به حداکثر برسانم، یعنی توان عملیاتی $بالا $ و مصرف $ کمتر از پهنای باند. چگونه باید این آزمایش را مدل سازی کنم؟ من فقط جبر خطی پایه را می دانم، به همین دلیل است که اولی را با استفاده از رگرسیون به راحتی مدل کردم. از هر کمکی که مرا در مسیر درست فکر کند قدردانی می کنم.
مدل آماری برای مشکل من
103700
[در ابتدا قبل از اینکه متوجه شوم این مکان بهتری است در ریاضیات پست شده است] من مجموعه داده ای با پیش بینی کننده های $p$ برای آیتم های $i$ دارم (پس رگرسیون چندگانه). برای هر یک از موضوعات $s$، من مشاهدات مکرر $r$ از متغیرهای وابسته $v$ دارم (بنابراین این یک مشکل چند متغیره است). می‌خواهم برای هر فردی بفهمم که پیش‌بینی‌کننده‌های $p$ چه مقدار واریانس را در همه آیتم‌های $i$ دارند. فرمول محاسبه ضرایب پارامتر (معروف به بتا) (با استفاده از نشان‌گذاری متلب) Betas=pinv(X'*X)*X'*Y است که در آن $X$ ماتریس $[i \times p]$ از پیش‌بینی‌کننده‌ها است. و $Y$ ماتریس مشاهدات است. متأسفانه، $Y$ من یک ماتریس سه بعدی به اندازه $[i \times r \times v]$ است. ضرب ماتریس به یک ماتریس دو بعدی نیاز دارد. با این حال، مطمئن نیستم که کدام رویکرد صحیح است: 1. مشاهدات $r$ اندازه‌گیری‌های $v$ را با هم ترکیب کنید تا به عنوان مثال. $X=[i \times p]، Y=[i \times (r \cdot v)]$ 2. مشاهدات $r$ آیتم‌های $i$ را با هم ترکیب کنید و ماتریس پیش‌بین را $r$ بارها تکرار کنید تا به عنوان مثال، $X=[(r\cdot i) \times p]، Y=[(r\cdot i) \times v]$ 3. میانگین $r$ مشاهدات اندازه گیری $v$ با هم به طوری که $X=[i \times p]$ و $Y=[i \times v]$ گزینه دوم پیش بینی ها را ضرب می کند که به دلیل افزایش مصنوعی تعداد متغیرهای توضیحی، به نظر می رسید. به احتمال زیاد خوب بودن تناسب را متورم می کند. گزینه اول متغیرهای وابسته را ضرب می کند، که سپس استفاده از پارامترها برای پیش بینی مجموعه ای از مقادیر $v$ را غیرممکن می کند. آخرین گزینه ای که من در نظر داشتم این بود که به سادگی میانگین مشاهدات $r$ را محاسبه کنم، اما پس از آن داده ها را از دست می دهید. آیا هر یک از اینها روش مناسبی برای اقدام است؟
رگرسیون چند متغیره با اندازه‌گیری‌های وابسته مکرر [MATLAB]
111953
امروز این سوال از من پرسیده شد: > چگونه می‌توانیم به طور منطقی به این نتیجه برسیم که برای یک مجموعه داده معین، در عمل، یک طبقه‌بندی‌کننده بهتر از دیگری تعمیم می‌یابد؟ من نتوانستم پاسخ مختصری بدهم، و فکر کردم شاید شما بچه ها بخواهید وارد شوید. واضح است که می دانم هنوز تحقیقات زیادی در این زمینه باید انجام شود، اما فکر می کنم هنوز ارزش تلاش برای پاسخ دادن را دارد. .
چگونه می توانیم انتخاب کنیم که کدام مدل بهتر تعمیم می یابد؟
100133
من 2 مجموعه داده دارم: یکی لیستی از تمام روزهای سال 2012 در قالب تاریخ ('DatesA'). دیگری لیستی از تاریخ هایی است که در سال 2012 در آن رویدادهای خاصی رخ داده است ('DatesB'). برخی از تاریخ‌ها در «DatesB» بیش از یک بار ظاهر می‌شوند زیرا چندین رویداد در آن تاریخ‌ها رخ داده‌اند. می‌خواهم ببینم که تاریخ‌های «DatesB» چقدر با هر تاریخ مشخصی مرتبط هستند. فرآیند دستیابی به این امر چگونه است؟
همبستگی تاریخ SPSS
91212
من یک ماتریس پراکنده و باینری از کاربر (ردیف ها) و آیتم ها (ستون ها) دارم. هر عنصر این ماتریس یا 0 یا 1 است: نیاز(ماتریس) set.seed(42) ردیف <- 10 cols <- 2 غیر صفر <- 20 x <- sparseMatrix(i = نمونه (1: ردیف، غیرصفر، جایگزین= TRUE)، j = نمونه (1:cols، non_zero، replace=TRUE)، x=1) colnames(x) <- حروف[1:ncol(x)] x <- sign(x) print(x) 10 x 2 پراکنده ماتریس کلاس dgCMatrix a b [1،] . . [2،] 1 1 [3،] . 1 [4،]. . [5،] 1 1 [6،] . 1 [7،] 1. [8،] 1 1 [9،] . 1 [10،] 1 1 (در واقع من حدود 1e7 سطر، 1e6 ستون و حدود 1e8 عنصر در این ماتریس دارم) من می خواهم آنتروپی شانون را بین هر ستون این ماتریس محاسبه کنم (همانطور که در اینجا توضیح داده شده است). من می خواهم این کار را با استفاده از عملیات ماتریس پراکنده انجام دهم، زیرا استفاده از عملیات ماتریس متراکم در ماتریسی با این اندازه بسیار ناکارآمد خواهد بود. محاسبه فرکانس های مختلف جداول مورد نیاز بسیار آسان است، به عنوان مثال: تعداد A و B: a_and_b <- crossprod(x) print(a_and_b) 2 x 2 ماتریس پراکنده از کلاس dsCMatrix a b a 5 4 b 4 7 B، نه A شمارش می شود. و A، B به حساب نمی آیند: b_not_a <- crossprod(sign(a_and_b)، مورب(x=diag(a_and_b))) a_not_b <- t(b_not_a) a_not_b <- a_not_b - a_and_b b_not_a <- b_not_a - a_and_b print(a_not_trix ma2x) a b a 0 1 b 3 0 print(b_not_a) 2 x 2 پراکنده ماتریس کلاس dgCMatrix a b a 0 3 b 1 0 و در نهایت، A نه B به حساب نمی آید: not_a_b <- crossprod( sign(a_and_b), Diagonal(n=ncol (a_and_b)، x=nrow(x)) ) - a_not_b - b_not_a - a_and_b print(not_a_b) 2 x 2 پراکنده ماتریس کلاس dgCMatrix a b a 5 2 b 2 3 من می توانم این 4 ماتریس اقتضایی (A و B، A نه B، نه B، نه A، نه A و نه B) را بسیار محاسبه کنم. سریع، حتی در ماتریس های بزرگ. چگونه می توانم از آنها برای محاسبه آنتروپی شانون بین هر آیتم (ستون) ماتریس x اصلی خود استفاده کنم؟ خروجی نهایی باید چیزی شبیه به این باشد: a b a 0.43 0.89 b 0.96 0.64
آنتروپی شانون را بین هر ردیف از یک ماتریس بزرگ و پراکنده محاسبه کنید
103708
به عنوان بخشی از یک دوره در مورد مشاهدات گمشده در آمار اجتماعی/پیمایشی، من سعی می کنم روش های موجود برای پیش بینی الگوی نقطه یا داده های چندضلعی را کشف کنم. من با تمام اصطلاحات مختلف و رسمی سازی های مورد استفاده در **زمین آماری** (بیشتر در سمت کریجینگ) از یک سو و **آمار مکانی/اقتصادسنجی** (بیشتر در سمت رگرسیون) از سوی دیگر کاملاً گیج شدم. تا اینجا فهمیدم که **خودرگرسیون فضایی** و **کریجینگ** * به دنبال پیش بینی فضایی هستند، * بر ماتریس کوواریانس واریانس (یا واریوگرام) تکیه دارند - به عبارت دیگر، آنها بر خود همبستگی فضایی تکیه می کنند * و تا آنجا که به کریجینگ_جهانی مربوط می شود، یک روند اساسی به اضافه باقیمانده های تصادفی را فرض کنید. با این حال، به نظر می رسد کریجینگ در درجه اول برای الگوهای نقطه ای با مناطق پیوسته استفاده می شود در حالی که خودرگرسیون فضایی شامل تجمع پدیده ها در چند ضلعی ها است. * * * بنابراین در اینجا سؤالات من وجود دارد: * آیا ساختار فضایی زیرین تنها تفاوت بین این دو است؟ * آیا فرمول های مدل ریاضی معادل برای کریجینگ جهانی و خودرگرسیون فضایی وجود دارد؟ * آیا کریجینگ جهانی منطقه به ناحیه دقیقاً مشابه مدل‌های پیش‌بینی با استفاده از خودرگرسیون خطای مکانی است؟
تفاوت بین مدل های کریجینگ (جهانی) و خودرگرسیون فضایی چیست؟
100018
من یک سوال سریع دارم آزمون عملی که من در مورد آن سوال دارم **لینک زیر** است و **اولین سوال** همانطور که می بینید **ستون (3) و (4)** روی جدول هر دو یکسان هستند به جز متغیر ساختگی که آنها حذف می کنند متفاوت است. از ما خواسته شده است که ضرایب و خطاهای استاندارد را برای رگرسیون جدید که متغیر حذف شده را تغییر می دهد کار کنیم و من همه ضرایب جدید را کار کرده ام اما نمی دانم چگونه **خطاهای استاندارد جدید** را حل کنم. از 4 متغیر ساختگی مکان. امتحان عملی - q مربوطه سوال 1 است
تغییر متغیری که به دلیل تله متغیر ساختگی حذف می کنید
109274
امیدوارم عنوان به خودی خود توضیح دهد، اما اساساً می‌خواهم بدانم کدام روش بهتر است: آیا استفاده از PCA برای کاهش تعدادی از متغیرهای پاسخ Y و سپس انجام یک رگرسیون چند متغیره یا انجام یک رگرسیون چند متغیره با استفاده از آن منطقی است. همه متغیرهای پاسخ همانطور که هستند؟ متغیرهای من همگی پیوسته هستند. من تجزیه و تحلیل در R انجام خواهد شد. پیشاپیش متشکرم!
رگرسیون چند متغیره یا PCA برای کاهش متغیرهای پاسخ؟
23267
من باید توانایی دو روش برای پیش بینی یک رویداد را با یک پاسخ باینری مقایسه کنم. هر روش یک امتیاز تولید می کند، که در آن نمره بالاتر نشان دهنده 1 و نمره پایین تر نشان دهنده 0 است. من به دنبال محاسبه نسبت شانس (در تحلیل تک متغیره و چند متغیره) برای مقایسه این روش ها هستم. روش 1: احتمال بین 0 و 1. روش 2: امتیاز بین 0 تا 12 در تجزیه و تحلیل تک متغیره، OR برای روش 1 بسیار بزرگ خواهد بود، اما برای روش 2 بسیار کوچک خواهد بود. من فکر می‌کنم که چون این دو روش مقیاس‌های متفاوتی دارند، نسبت‌های شانس بسیار متفاوت می‌شوند. افزایش واحد برای روش یک باید 0.1 باشد، در حالی که برای روش دو 1 است. راه حل های ممکن این است که هر دو روش را باینریزه کنید، با انتخاب یک برش، سپس همه چیز در مقیاس 0 و 1 است و OR قابل مقایسه است، با این حال وقتی اطلاعات را از دست می دهید. شما این کار را انجام دهید همچنین، انتخاب یک برش عینی می تواند دشوار باشد. آیا پیشنهادی برای مقایسه نسبت شانس متغیرهای پیوسته و گسسته وجود دارد؟
مقایسه نسبت شانس متغیرهای پیوسته و گسسته
111957
داشتم یادداشت های سخنرانی CS229 اندرو نگ (صفحه 12) را در مورد توجیه ریسک ضرر مجذور به عنوان وسیله ای برای تخمین پارامترهای رگرسیون می خواندم. آندرس توضیح می دهد که ابتدا باید فرض کنیم که تابع هدف $y^{(i)}$ را می توان به صورت زیر نوشت: $$ y^{(i)} = \theta^Tx^{(i)} + \epsilon^ {(i)}$$ که $e^{(i)}$ عبارت خطایی است که جلوه‌های مدل‌نشده و نویز تصادفی را نشان می‌دهد. بعلاوه فرض کنید که این نویز به صورت $\epsilon^{(i)} \sim \mathcal{N}(0, \sigma^2)$ توزیع شده است. بنابراین: $$p(e^{(i)}) = \frac{1}{\sqrt{2\pi\sigma}}exp \left( \frac{-(e^{(i)})^2 {2\sigma^2} \right) $$ بنابراین می‌توانیم ببینیم که عبارت خطا تابعی از $y^{(i)}$، $x^{(i)}$ و $\theta$ است. در: $$e^{(i)} = f(y^{(i)}، x^{(i)}؛ \theta) = y^{(i)} - \theta^Tx^{(i)} $$ بنابراین می توانیم معادله فوق را جایگزین $e^{(i)}$$$p(y^{(i)} - \theta^Tx^{(i)}) = \frac{1}{\sqrt{2\pi\sigma}}exp \left( \frac{-(y^{(i)} - \theta^Tx^{(i)})^2}{2\ sigma^2} \right)$$ اکنون می دانیم که: $p(e^{(i)}) = p(y^{(i)} - \theta^Tx^{(i)}) = p(f(y^{(i)}, x^{(i)}; \theta))$ که تابعی از متغیرهای تصادفی $x^{(i)}$ و $y^{(i) است. }$ (و متغیر غیر تصادفی $\theta$). سپس اندرو $x^{(i)}$ را به عنوان متغیر شرطی ترجیح می دهد و می گوید: $p(e^{(i)}) = p(y^{(i)} \mid x^{(i)} )$ با این حال، به نظر نمی رسد که من نمی توانم توجیه کنم که چرا او می گوید که از f به تنهایی استفاده می کند. یعنی با استفاده از $f(y^{(i)}، x^{(i)}؛ \theta)$ به نظر نمی رسد که هیچ متغیری را شرطی کند (یا حداقل در آن شکل). مشکلی که من با نتیجه گیری او دارم این است که فقط با معادله: $$\frac{1}{\sqrt{2\pi\sigma}}exp \left( \frac{-(e^{(i)}) ^2}{2\sigma^2} \right)$$ من واقعاً نتوانستم ببینم چرا $p(e^{(i)}) = p(x^{(i)} \mid y^{(i)})$. به نظر می رسد معادله Normal در $x^{(i)}$ و $y^{(i)}$ متقارن است. چرا طرفدار $p(y^{(i)} \mid x^{(i)})$ و نه $p(x^{(i)} \mid y^{(i)})$ هستید. علاوه بر این، اگر وضعیت یادگیری تحت نظارت باشد، هر دو جفت $(x^{(i)}، y^{(i)})$ را دریافت خواهیم کرد، درست است؟ اینطور نیست که اول یکی را بگیریم و بعد دیگری را. اساسا، من فقط سعی می کنم بفهمم که چرا $p(y^{(i)} \mid x^{(i)})$ و نه $p(x^{(i)} \mid y^{(i) })$.
تفسیر احتمالی رگرسیون برای توجیه تابع زیان مجذور
35215
الگوریتم ذکر شده در ویکی پدیا دارای یک خط $$s_t = \alpha \frac{x_t}{c_{t-L}} + (1-\alpha) (s_{t-1} + b_{t-1})$$ است. برای $1 < t < L$ چگونه باید $c_{t-L}$ را تفسیر کنیم؟ در آن بازه، باید آن را با $c_t$ جایگزین کنیم؟
شفاف سازی در تعریف الگوریتم Holt-Winters
58601
من تخمین های زیر را از یک مدل اثرات ثابت دارم: Open=β0+ β1Pol_r+ β2Infr+ β3Nat_re+ δ4SACU+ɤi+εit Open_ln=β0+ β1Pol_r+ β2Infr+ β3Nat_re+ δ4SACU+ɤi+εit که در آن باز بودن یک کشور اندازه گیری می شود. ((واردات+صادرات)/GDP)*100، Open_ln لگاریتم طبیعی Open است. SACU یک متغیر ساختگی است که برای کشورهایی که در یک سال خاص به عضویت یک منطقه تجارت آزاد درآمده اند، مقدار 1 را دریافت می کند. چگونه می توانم متغیر ساختگی را زمانی که Open به شکل سطح است تفسیر کنم؟ چگونه می توانم متغیر ساختگی را وقتی که Open در فرم log است تفسیر کنم؟ من ضریب SACU را در حالت اول 45.37 و در حالت دوم ضریب SACU 0.566 را دریافت می کنم.
تفسیر متغیر ساختگی زمانی که متغیر وابسته به درصد و log باشد
109276
فرض کنید از یک آزمایش قبلی با یک جدول حقیقت شناخته شده از طبقه بندی اشتباه ورودها به صورت جداگانه. $$ \begin{array}{c|lcr} \text{Truth}/\text{Observed} & \text{Al (M)} & \text{Ben (M)} & \text{Claire (F)} & \cdots\\\ \hline \text{Al (M)} & 10 & 2 & 4 & \cdots\\\ \text{Ben (M)} و 5 و 20 و 6 & \cdots\\\ \text{Claire (F)} & 3 & 1 & 30 & \cdots\\\ \vdots & \vdots & \vdots & \vdots & \ddots \\\ \end {آرایه} $$ (مثالی در اینجا برای 3x3 برای اهداف تصویری نشان داده شده است، جدول واقعی به طور قابل توجهی بزرگتر است. جمعیت شناسی را می توان سن + جنسیت نیز.) آیا راهی برای استفاده از جدول کالیبراسیون حقیقت برای کمک به استنباط تعداد واقعی تخمینی افراد منحصر به فرد از یک مطالعه بزرگتر وجود دارد که در آن فقط افراد منحصر به فرد مشاهده شده بر اساس جمعیت و تعداد مشاهده شده ورود به سیستم بر اساس جمعیت شناختی شناخته شده است؟ مثال: $$ \begin{array}{c|lcr} \text{Observed} & \text{Unique Indv.} & \text{Total Logins} \\\ \hline \text{M} & 257 & 5588 \\ \ \text{F} & 603 & 4412 \\\ \vdots & \vdots & \vdots \\\ \end{آرایه} $$ $$ \begin{array}{c|lcr} \text{حقیقت تخمینی} & \text{Unique Indv.} \\\ \hline \text{M} و ? \\\ \text{F} و ? \\\ \vdots & \vdots \\\ \end{array} $$
تخمین تعداد افراد منحصر به فرد
43851
من دو گروه 10 نفره دارم که در طول یک آزمایش سه بار مورد ارزیابی قرار گرفتند. برای آزمایش تفاوت‌های بین گروه‌ها و در سه ارزیابی، من یک ANOVA طرح ترکیبی 2×3 با «گروه» (شاهد، آزمایش)، «زمان» (اول، دوم، سه)، و «زمان x گروه» اجرا کردم. زمان و گروه هر دو معنی دار شدند، علاوه بر این یک تعامل معنی دار گروه x زمان وجود داشت. من به خوبی نمی دانم چگونه می توانم برای بررسی بیشتر تفاوت بین سه بار ارزیابی، همچنین با توجه به عضویت در گروه اقدام کنم. در واقع، من در ابتدا فقط در گزینه های ANOVA برای مقایسه تمام جلوه های اصلی با استفاده از اصلاح Bonferroni مشخص کردم. با این حال، بعد متوجه شدم که به این ترتیب آنها تفاوت های زمانی کل نمونه را بدون تمایز گروهی مقایسه کردند، درست است؟ بنابراین، من برای یافتن راه حل احتمالی، اما با نتایج کمیاب، در اینترنت بسیار جستجو کردم. من فقط 2 مورد مشابه مورد خودم پیدا کردم، اما راه حل های آنها برعکس است! 1. در یک مقاله، پس از طراحی ترکیبی، نویسندگان 2 اندازه گیری مکرر ANOVA را به صورت پس‌هک اجرا کردند، یکی برای هر گروه از افراد. اینجوری دو گروه بدون هیچ اصلاحی جداگانه تحلیل میشن، درست میگم؟ 2. در یک راهنمای در اینترنت، آنها می گویند که به صورت دستی در دستور SPSS «COMPARE(time) ADJ(BONFERRONI)»، درست بعد از «/EMMEANS=TABLES(newgroup*time)»، در حالی که ANOVA ترکیبی را اجرا می کنید، اضافه کنید. به این ترتیب سه زمان برای هر گروه جداگانه با تصحیح بونفرونی مقایسه می شود، درست می گویم؟ نظر شما چیست؟ کدام راه درست برای ادامه خواهد بود؟
آزمون تعقیبی در ANOVA طرح مختلط 2x3 با استفاده از SPSS؟
115277
تصور کنید که من سعی می کنم قیمت خانه را با مدل زیر تخمین بزنم: $Y_p=1 + \beta_{سطح} * X_{سطح} + \beta_{نیویورک}*X_{نیویورک} + \beta_{بوستون}*X_ {Boston} $ با $X_{Boston}$ یک متغیر ساختگی اگر در بوستون باشد به عبارت دیگر، من فرض می‌کنم که قیمت خانه به صورت خطی با سطح همبستگی دارد. منطقه، و اینکه میانگین قیمت در بوستون و نیویورک متفاوت است. حالا می‌خواهم خانه‌ای بین بوستون و نیویورک اضافه کنم. من می‌توانم هم $X_{New York}$ و هم $X_{Boston}$ را روی 0.5 تنظیم کنم. اما من در اینجا کمی گیر کرده ام، زیرا اکنون پیش بینی کننده دیگر ساختگی نیست بلکه یک متغیر پیوسته است. چه کاری باید انجام دهم تا همه خانه های بین نیویورک و بوستون را شامل شود و همچنان تفاوت میانگین قیمت بین دو شهر را بدانم؟
چگونه می توانم یک متغیر از 0 تا 1 را در یک مدل خطی پیوسته قرار دهم
87904
اساساً من حداکثر، شمارش، میانه و صدک 95 را برای هر ساعت برای یک جریان داده از قبل از پیش محاسبه شده از یک گردش کار ساعتی دارم. آیا می توانم از این 24 عکس فوری برای بدست آوردن میانگین تقریبی و صدک 95 روز استفاده کنم؟ آیا راهی / فرمول یا تکنیکی برای انجام این کار وجود دارد؟ ویرایش: متاسفم که باید اطلاعات مربوط به توزیع را می دادم. این یک زمان بندی عملکرد صفحه وب مربوط به داده است. من آن را تقریباً عادی فرض می کنم.
آیا راهی برای محاسبه صدک های روزانه (میانگین و 95) با استفاده از صدک های 24 ساعته وجود دارد؟
109273
من روی ایجاد یک تجزیه و تحلیل خوشه ای برای برخی از داده های بسیار اساسی در r برای ویندوز [نسخه 6.1.76] کار می کنم. خود گروه ها کشورها هستند و سپس من 2 ستون با متغیرهای عددی پیوسته دارم. من یک روش سلسله مراتبی بخش را برای داده ها اعمال کرده ام. واقعاً تلاش برای رسیدن به آن است که فقط متغیر اول را در نظر می گیرد و دومی را نادیده می گیرد. آیا راهی برای گنجاندن هر دو متغیر در محاسبات خوشه بندی وجود دارد؟ داده های من شبیه به این کشور است - Var 1 - Var 2 US - 10 - 20 Canada - 5 - 30 ....
ایجاد تحلیل خوشه ای بر روی متغیرهای متعدد
64678
من یک مجموعه داده واقعی دارم `275, 13, 147, 23, 181, 30, 65, 10, 300, 173, 106, 300, 300, 212, 300, 300, 300, 2, 232,8,29 , 28, 143, 300، 23، 300، 80، 245، 266` و سعی کنید با استفاده از حداکثر احتمال، توزیع Weibull را برازش دهید. من از «Mathematica» برای تجزیه و تحلیل استفاده کردم و «Mathematica» تخمین پارامترهای توزیع Weibull را به صورت $\alpha=1.07484، \beta=171.242،\gamma=9.46641$ می دهد که در آن $\alpha،\beta$ و $\gamma$ هستند. پارامترهای شکل، مقیاس و مکان به ترتیب. حالا دو سوال من این است: 1. اگر CDF توزیع Weibull را با استفاده از پارامترهای تخمین زده شده برای حداقل مقدار مجموعه داده پیدا کنم، پاسخ صفر است که واضح است اما برای مقدار حداکثر پاسخ 0.828829 می شود، چرا یک نیست؟ 2. چگونه می توانم مقدار تخمینی را با استفاده از این تخمین های پارامتر پیدا کنم؟ توجه داشته باشید. مشکل سوال 1 برای توزیع های دیگر نیز رخ می دهد. در اینجا توزیع Weibull به عنوان مثال در نظر گرفته شده است. کدهای «Mathematica» و نتیجه اینجا هستند
مشکل اتصالات توزیع
35218
اساساً چیزی که می‌خواهم به آن برسم این است که داده‌های زیادی را از مسابقات یک بازی خاص بگیرم و آن را با شانس مقایسه کنم، به عنوان مثال، می‌خواهم ببینم آیا یک مسابقه چرخاندن سکه نتایج مشابهی خواهد داشت یا خیر. یا به عبارت دیگر، آیا هر بازیکن معینی 50% شانس برنده شدن در برابر هر بازیکن دیگری را دارد، و در ابتدا همه آنها شانس مساوی برای برنده شدن در یک تورنمنت دارند (به دلیل سطح مهارت برابر، تصادفی بودن بیش از حد در بازی، یا دلایل دیگر، مهم نیست). ما بازیکنانی داریم که یک بار، بیش از یک بار یا هرگز قهرمان نشده اند. من فرض می‌کنم که این اتفاق در یک تورنمنت چرخاندن سکه نیز رخ می‌دهد. درک من از آمار در بهترین حالت ابتدایی است، بنابراین سوال اول این است که آیا این امکان وجود دارد که بررسی کنیم که آیا تفاوت‌های مهارتی واقعی با هم داریم و می‌توانیم احتمال برنده شدن برخی بازیکنان در آینده را پیش‌بینی کنیم؟ یا فقط شانس 50/50 خالص داریم؟ اگر بله، روش چیست؟ یا شاید، قبل از شروع آن چه چیزی را باید مطالعه کنم؟
مقایسه نتایج مسابقات با شانس
87905
من یک جدول احتمالی دارم و می‌خواهم از آن برای ارزیابی نتایج روش خوشه‌بندی خود استفاده کنم (مانند RandIndex). من همچنین نویزهایی در داده های خود دارم که به عنوان NOISE برچسب گذاری شده اند و بدیهی است که آنها نباید خوشه بندی شوند. سوال من این است: آیا باید یک ردیف در جدول احتمالی اضافه کنم؟ یا سر و صدا را نادیده بگیرید. علاوه بر این، آیا تعداد نقاط نویز را برای جمع سطرها و ستون ها در نظر بگیرم؟ به عنوان مثال، من جدول احتمالی زیر را دارم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/dSwud.png) داده مصنوعی من دارای یک برچسب کلاس (NoiseA) است که می دانم نویز است. . روش خوشه بندی من نیز برخی از نقاط داده را به عنوان نویز پیدا می کند که من آن را به عنوان NoiseC نامیدم. می خواهم بدانم برای محاسبه RandINdex و سایر معیارهای ارزیابی باید نقاط داده نویز را برای محاسبه TP/TN/FP/FN در نظر بگیرم یا محاسبه شده یا داده های واقعی؟
جدول احتمالی و نویز
95797
**راهبرد مناسب برای تقسیم مجموعه داده چیست؟** _من در مورد رویکرد زیر درخواست بازخورد می‌کنم (نه در مورد پارامترهای فردی مانند «test_size» یا «n_iter»، اما اگر از «X»، «y»، «استفاده کنم. X_train، «y_train»، «X_test» و «y_test» به طور مناسب و اگر دنباله منطقی باشد): (بسط این مثال از scikit-learn مستندات) ### 1\. مجموعه داده را از sklearn.datasets وارد کنید load_digits digits = load_digits() X, y = digits.data, digits.target ### 2\. تقسیم به مجموعه آموزشی و آزمایشی (مثلاً 80/20) از sklearn.cross_validation import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) ### . برآوردگر را از sklearn.svm انتخاب کنید SVC estimator = SVC(kernel='linear') ### 4\. تکرار کننده اعتبار متقابل را از sklearn.cross_validation import انتخاب کنید ShuffleSplit cv = ShuffleSplit(X_train.shape[0], n_iter=10, test_size=0.2, random_state=0) ### 5\. هایپرپارامترها را با اعمال تکرار کننده اعتبار متقابل روی **مجموعه آموزشی** از sklearn.grid_search import وارد کردن GridSearchCV numpy به صورت np گاما = np.logspace(-6, -1, 10) طبقه بندی کننده = GridSearchCV(estimator=estimator,) تنظیم کنید. =cv، param_grid=dict(گاما=گاما)) classifier.fit (X_train, y_train) ### 6\. الگوریتم اشکال زدایی با منحنی یادگیری «X_train» به طور تصادفی به یک مجموعه آموزشی و یک مجموعه آزمایشی 10 بار تقسیم می‌شود («n_iter=10»). هر نقطه در منحنی امتیاز آموزش میانگین 10 امتیاز است که در آن مدل در اولین نمونه های آموزشی _i_ آموزش دیده و ارزیابی شده است. هر نقطه در منحنی امتیاز اعتبار متقاطع میانگین 10 امتیاز است که در آن مدل بر روی اولین نمونه‌های آموزشی _i_ آموزش دیده و بر روی تمام نمونه‌های مجموعه آزمون ارزیابی شده است. from sklearn.learning_curve import learning_curve title = 'منحنی‌های یادگیری (SVM، هسته خطی، $\gamma=%.6f$)' %classifier.best_estimator_.gamma estimator = SVC(kernel='خطی', gamma=classifier_.best_maim) ) plot_learning_curve(Etimator, title، X_train، y_train، cv=cv) plt.show() ![منحنی یادگیری](http://i.stack.imgur.com/XJ4nN.png) plot_learning_curve() را می توان در نسخه توسعه دهنده فعلی scikit یافت -learn (0.15-git). ### 7\. ارزیابی نهایی در مجموعه آزمون classifier.score (X_test، y_test) ### 7a. تست بیش از حد برازش در انتخاب مدل با اعتبارسنجی متقابل تودرتو (با استفاده از کل مجموعه داده) از sklearn.cross_validation import cross_val_score cross_val_score (طبقه بندی، X، y) **سوال اضافی:** _آیا جایگزین کردن مرحله 7 با متقاطع تودرتو منطقی است اعتبار سنجی؟ یا باید cv تودرتو به عنوان مکمل مرحله 7_ در نظر گرفته شود (به نظر می رسد کد با اعتبار سنجی متقاطع k-fold در scikit-learn کار می کند، اما نه با shuffle & split. بنابراین «cv» باید در بالا تغییر کند تا کد کار کند) ### 8\. آموزش مدل نهایی در کل مجموعه داده classifier.fit(X, y) EDIT: اکنون با cbeleites موافقم که مرحله 7a در این دنباله چندان معنی ندارد. بنابراین من آن را قبول نمی کنم.
چگونه مجموعه داده را برای اعتبارسنجی متقابل، منحنی یادگیری و ارزیابی نهایی تقسیم کنیم؟
92741
من در تلاش برای درک اشتقاق مرز تصمیم SVM بودم. فرض کنید مرز تصمیم من 'y-x-1=0' باشد. حالا در کتاب نوشته شده بود که `(y-x-1) = +/-(1)` معادله حداکثر حاشیه است. اما سوال من این است که چرا فاصله 1 را از مرز تصمیم انتخاب می کنیم؟ از کجا می دانیم که می توانیم بردارهای پشتیبانی را فقط در فاصله +/-(1) از مرز تصمیم گیری کنیم؟ علاوه بر این، چگونه می توانیم بگوییم که اگر بتوانیم بردار پشتیبان را در فاصله 1+ از مرز تصمیم بزنیم، آنگاه دقیقاً در -1 خواهد بود (و نه در -3، -5، -10... و غیره. برای این موضوع)؟ یعنی چگونه مطمئن هستیم که دقیقاً در +/-(1) در هر دو طرف از مرز تصمیم می‌توانیم بردارهای پشتیبانی را بزنیم.
شرایط مرزی تصمیم گیری SVM: مسئله اشتقاق
63023
من یک مجموعه داده بزرگ با تعداد زیادی متغیر دارم. عدم وجود ~25% در برخی متغیرها، بسیاری از متغیرها بدون گم شدن. قضاوت در مورد یکنواختی الگوی گمشده برای انتخاب روش انتساب چندگانه مهم است. من دیده ام که برخی منابع در مورد الگوهای یکنواخت یا تقریبا یکنواخت صحبت می کنند. اما چگونه یکنواخت یکنواخت است، و چگونه می دانید، غیر از نگاه کردن؟ هر متنی که دیده‌ام، توجه به الگوها را توصیه می‌کند. اما آیا ابزاری برای خلاصه کردن آماری یکنواختی وجود ندارد (مثلاً مجموع تعلق، الگوی اصلی گمشده کنترل کننده تعلق به الگوهای دیگر)؟ من در هیچ متنی چنین چیزی ندیده ام، اما شاید من فقط آن را از دست داده ام. اگر ماتریس داده‌ها را طوری سازماندهی کنم که تعداد اندازه‌گیری‌های از دست رفته در یک الگوی یکنواخت را به حداکثر برسانم، حدود 35 درصد اندازه‌گیری‌ها در الگو دارم. (سایر اندازه‌گیری‌ها چیزی شبیه به الگوی پنکه مشابه آنچه در اینجا مشاهده می‌شود نشان می‌دهند. چگونه می‌توانم تصمیم بگیرم که آیا این به اندازه کافی یکنواخت است تا آن را برای هدف MI در نظر بگیرم؟ می‌دانم که می‌توانم MI را نیز در دو مرحله به ترتیب انجام دهم. برای جداسازی الگوی یکنواخت، سپس دوباره MI را با یک روش یکنواخت اجرا کنید.
ابزاری برای تعیین یکنواختی الگوی مفقود شده غیر از چشمک زدن؟ و برای انتساب چندگانه چقدر یکنواخت است؟
49563
چگونه یک توزیع دو جمله ای را مدل می کند که در آن احتمال موفقیت نتیجه توزیع دو جمله ای دیگر است. به عنوان مثال، بگویید من بارها 10 سکه پرتاب می کنم و تعداد سرها را ثبت می کنم (_H_). سپس به ازای هر ست (_i_) 10 پرتاب سکه، تیله های سیاه _Hi_ و 10- Hi_ را در یک شیشه ریختم و با جایگزینی 50 عدد کش انجام دادم. چگونه می توانم توزیع نقشه های مرمر سیاه را با در نظر گرفتن وابستگی آنها به توزیع دوجمله ای قبلی که احتمال موفقیت آنها را ایجاد می کند، مدل کنم.
توزیع دو جمله ای که در آن احتمال موفقیت به توزیع دو جمله ای دیگر وابسته است
6779
پیشاپیش پوزش می طلبم - من کمی با R مبتدی هستم، اما هفته هاست که در گوگل جستجو می کنم و پاسخ مستقیمی پیدا نکرده ام. **مشکل** اساساً من به دنبال ترسیم نسبت ها با فواصل اطمینان آنها بر روی جعبه و سبیل ها با استفاده از محیط R هستم. به عنوان مثال، نتایج binom.test (100,1000) و binom.test (125,1000) را ترسیم کنید. بهترین بسته (من ترجیحی برای انجام این کار ندارم) چیست؟
ترسیم نسبت‌های دو جمله‌ای روی جعبه و رسم سبیل با استفاده از R
95793
آیا دلیلی وجود دارد که هنگام خوشه‌بندی با روش وارد، تفاوت‌ها را مربع‌سازی کنیم یا نه؟ انگیزه این سوال عبارت زیر در مستندات تابع 'hclust()' R است: > دو الگوریتم مختلف در ادبیات خوشه بندی Ward یافت می شود. > موردی که توسط گزینه ward.D استفاده می شود (معادل تنها گزینه Ward > ward در نسخه های R <= 3.0.3) معیار خوشه بندی Ward (1963) را اجرا نمی کند، در حالی که گزینه ` ward.D2` این معیار را اجرا می کند > (Murtagh and Legendre 2013). با دومی، تفاوت‌ها قبل از به‌روزرسانی خوشه > _مربع_ می‌شوند. آیا مربع کردن الگوریتم را بهبود می بخشد؟
آیا در هنگام استفاده از خوشه بندی Ward مزیتی برای مربع کردن تفاوت ها وجود دارد؟
59578
برای درک تفاوت بین دو تضاد مختلف برای متغیرهای دوگانه از شما کمک می خواهم. در این صفحه: http://www.psychstat.missouristate.edu/multibook/mlt08.htm تحت متغیرهای پیش بینی دوگانه، دو راه برای کدگذاری پیش بینی کننده های دوگانه وجود دارد: با استفاده از کنتراست 0،1 یا کنتراست 1،-1. . من به نوعی تمایز را در اینجا درک می کنم (0،1 کدگذاری ساختگی است و 1،-1 به یک گروه اضافه می کند و از گروه دیگر کم می کند) اما نمی دانم از کدام یک در رگرسیون استفاده کنم. به عنوان مثال، اگر من دو پیش بینی کننده دوگانه داشته باشم، جنسیت (m/f) و ورزشکار (y/n)، می توانم از کنتراست 0.1 در هر دو یا 1،-1 در هر دو استفاده کنم. تفسیر یک اثر اصلی یا یک اثر متقابل هنگام استفاده از دو تضاد مختلف چگونه خواهد بود؟ آیا این بستگی به این دارد که سلول های من اندازه های متفاوتی داشته باشند؟
کدگذاری ساختگی برای کنتراست ها: 0،1 در مقابل 1،-1
6773
من یک مدل رگرسیون لجستیک در GeoBugs برای تخمین پیش بینی کننده های شیوع یک بیماری دارم. آیا کسی می تواند به من بگوید که آیا یک راه ساده برای تعیین مرزهای پایین و بالای ph برای spatial.exp وجود دارد یا خیر. این بخشی از مدل است: Infected[i] ~ dbin(p[i]، تست شده[i]) logit(p[i]) <- آلفا + beta1*covar1[i] + beta2*covar2[i] + u [i] mu[i] <- 0 u[1:N] ~ spatial.exp(mu[], x[], y[], tau, phi, 1) به این ترتیب من پیشین ها را مشخص کرده ام: phi ~ dunif(0.25, 20) در حال حاضر انتخاب من دلخواه بوده است. کتابچه راهنمای GeoBugs فقط تا آنجا پیش می رود که می گوید مرزهای توزیع توسط داده ها تعیین می شود. آنچه من می خواهم بدانم این است که یک نسخه ساختگی از بهترین راه برای انتخاب مقادیر وجود دارد.
تحلیل زمین آماری با استفاده از spatial.exp در WinBugs
109272
من در حال کار بر روی مدل سازی فروش بلیط برای یک رویداد خاص در طول زمان هستم. مشکلی که من دارم این است که موجودی دوباره پر نمی‌شود، بنابراین نمی‌توانم مدل من را در مورد آنچه واقعاً در دسترس دارم پیش‌بینی کند. به عنوان مثال، اگر من 100 بلیط در 30 روز عرضه داشته باشم و 20 بلیط بفروشم، باقی مانده استخری که باید از آن بفروشم فقط 80 بلیط است، بنابراین نمی توانم پیش بینی کنم که 90 بلیط در روز بعد بفروشم، زیرا 100 بلیط اصلی نیست. همه دیگر در دسترس نیست. آیا راهی برای در نظر گرفتن این موضوع در ساخت یک مدل وجود دارد؟
مدل‌سازی فروش R با موجودی غیر تکمیلی
95794
سه راننده و دو جاده X و Y وجود دارد. احتمال انتخاب جاده X برای همه رانندگان p است و احتمال انتخاب جاده Y برای همه رانندگان (1-p) است. برای محاسبه احتمال اینکه همه رانندگان جاده X را به طور همزمان انتخاب کنند p^3 است. با این حال، 3p چه چیزی را نشان می دهد؟ به طور شهودی به چه معناست؟
احتمال همزمان
114780
من سعی می کنم میانگین دو درمان را روی یک متغیر پیوسته با صفرهای زیاد مقایسه کنم. من یک تبدیل log(n+1) را امتحان کردم، اما من را به توزیع عادی نرساند. پیشنهادی دارید؟
مقایسه درمان با صفرهای زیاد
87903
من یک GLM را به داده های دوجمله ای با دو متغیر مستقل a و b برازش می کنم. من سعی کرده‌ام یک GLM دوجمله‌ای را با شکل «y~a+b+a*b» برازش کنم، به طوری که مشارکت دو متغیر و همچنین یک عبارت تعاملی را داشته باشم. این کار خوب است، اما در داده‌ها تأثیر «b» در مقایسه با «a» بسیار تدریجی است. بهترین تناسبی که من تاکنون امتحان کرده‌ام، به سادگی «y~a+log(b+1)+a*log(b+1)» است (+1 به این دلیل است که b=0 برای برخی از نقاط داده) با یک تابع پیوند دوجمله‌ای . آیا می توان از این به عنوان GLM استفاده کرد؟ فقط این است که من وقتی در اینترنت جستجو کردم این کار را انجام نداده‌ام، بنابراین نمی‌دانم دلیل موجهی وجود دارد که به نظر می‌رسد مردم فقط از چندجمله‌ای استفاده می‌کنند. سوالی وجود دارد که به نظر می رسد در پست قبلی مرتبط باشد. برهم کنش ها و لگاریتم ها را در رگرسیون خطی تفسیر کنید. بنابراین من به هیچ وجه به این رابطه اطمینان ندارم.
با استفاده از GLM که در آن یک پیش بینی خطی و یکی لگاریتمی است
77855
آیا تست Shapiro Wilk روی انتهای توزیع نمونه حساس نیست؟ من چنین بیانیه‌ای را روی کاغذ خوانده‌ام اما نمی‌توانم دلیل آن را از آمار آزمون W بفهمم. آیا کسی می‌تواند به من در درک این موضوع کمک کند؟
آیا تست Shapiro Wilk روی دم حساس نیست؟
43850
تقریباً هیچ ایده ای ندارم که دارم انجام می دهم. من داده‌های نظرسنجی را در یک دوره زمانی 11 ساله و پایگاه داده‌ای از رویدادها به‌طور ناهموار نمونه‌برداری کرده‌ام. می‌خواهم نشان دهم که آیا افزایش تعداد این رویدادها با افزایش درصد پاسخ‌های نظرسنجی مثبت مرتبط است یا نه (پاسخ‌های نظرسنجی «خیلی»، «نه خیلی»، «نه خیلی» و «اصلاً» رتبه‌بندی می‌شوند. من دو مورد اول را با هم به عنوان مثبت و دومی به عنوان منفی). تاریخ‌های نظرسنجی: http://puu.sh/1rj6l چگونه می‌توان این داده‌های نظرسنجی جمع‌آوری‌شده ناهموار را به یک سری زمانی معمولی تبدیل کرد؟ همانطور که می بینید، برخی از نقاط که در آن نظرسنجی ها بسیار نزدیک به هم هستند و برخی از آنها یک سال یا بیشتر فاصله دارند. آیا امکان تبدیل آن به این شکل وجود دارد؟ فاصله نهایی خیلی مهم نیست - کاری که من انجام می‌دهم جمع کردن تعداد رویدادها از آخرین فاصله زمانی است و دیدن اینکه چگونه تغییرات در آن عدد با تغییرات در پاسخ‌های افراد مرتبط است. من اکسل و SPSS را در اختیار دارم.
برای تبدیل یا تجزیه و تحلیل فواصل زمانی ناهموار به کمک نیاز دارید
73449
من باید توضیح دهم که میانگین اثرات جزئی (APEs) برای یک مخاطب غیرآماری بسیار عمومی (یعنی APE های مشتق شده از یک مدل پروبیت) چیست. من سعی کردم APE ها را با استفاده از اصطلاحات غیرمعمول تعریف کنم، اما به نظرم سخت است، لطفاً کسی می تواند در این مورد به من کمک کند؟
اثرات جزئی متوسط
49568
من یک داده تحقیقاتی با 3 سطح تجمیع دارم: سطح 1 فرد است، سطح 2 منطقه خانه و سطح 3 مدرسه است. این بدان معناست که سطوح به روش معمول تو در تو قرار نمی گیرند (سطح 1 در سطح 2 در سطح 3). در مورد من، سطح 1 در سطح 2 و همچنین در سطح 3 قرار دارد، اما سطح 2 و سطح 3 در داخل یکدیگر نیستند. آیا هنوز امکان تخمین رگرسیون hlm با چنین پیکربندی با تابع lme در R وجود دارد؟
آیا می توان سطوح غیر تودرتو در یک مدل چند سطحی را در R تخمین زد؟
92748
من یک مجموعه داده بزرگ متشکل از چندین قاب داده مستقل دارم مانند این Tiempo UT1 UT2 UT3 UT4 UT5 UT6 UT7 UT8 UT9 3082 616.2 0 4 0 1 1 0 0 0 0 3083 616.4 04 010 010 616.6 0 0 0 0 1 0 0 0 0 3085 616.8 0 1 0 1 2 0 0 0 0 3086 617.0 0 0 0 1 0 0 0 0 0 3087 3087 617.2 08 04 617.4 0 1 0 1 0 0 0 0 0 3089 617.6 0 1 0 1 1 0 0 0 0 3090 617.8 0 0 0 1 1 0 0 0 0 0 3091 618.0 018 010 01 618.2 0 0 0 2 1 0 0 0 0 3093 618.4 1 1 0 0 0 0 0 0 0 3094 618.6 0 0 0 16 4 0 0 0 0 0 0 3095 61114 0 0 0 0 0 3096 619.0 1 16 0 23 1 0 0 0 1 3097 619.2 0 6 0 9 0 0 0 1 0 3098 619.4 0 0 1 4 1 0 0 0 1 3099 0 0 0 1 0 1 4 1 0 0 0 1 3099 1 15 3 3100 619.8 0 21 23 25 0 21 8 22 16 3101 620.0 0 28 3 17 1 10 3 8 2 3102 620.2 0 3 2 7 0 534 29. یک 0 0 1 0 8 1 1 1 3108 621.4 0 0 0 2 0 10 0 2 2 3109 621.6 0 0 0 2 0 5 0 3 2 3110 621.8 0 0 0 0 10 0 2 0 0 2 0 5 0 3 2 3110 621.8 0 0 0 0 10 0 2 0 UT101 UT101 UT13 UT14 3082 5 0 0 0 3 3083 1 0 0 0 0 2 3084 0 0 0 0 1 3085 0 0 0 0 1 3086 0 0 0 0 0 2 3087 5 0 0 0 0 2 3087 5 0 0 08 3089 2 0 0 0 1 3090 0 0 0 0 0 3091 0 0 0 0 2 3092 1 0 0 0 1 3093 1 1 1 0 0 3094 4 2 0 0 0 0 0 0 0 0 0 2 3092 1 0 0 0 1 3093 1 1 1 0 0 3094 4 2 0 0 0 0 3095 1210 1 0 3 3097 4 2 0 1 5 3098 10 3 0 0 3 3099 10 1 12 0 1 3100 15 13 21 15 0 3101 11 6 6 14 2 3102 14 2 3102 13 3104 1 2 3 1 0 3105 2 4 1 2 0 3106 2 3 1 2 0 3107 0 0 1 2 0 3108 1 0 1 3 0 3109 0 2 1 2 0 3106 2 3 1 2 0 3107 0 0 1 2 0 3108 1 0 1 3 0 3109 0 2 1 2 0 3110 0 از طرح I در اینجا استفاده کنید. برای تجزیه و تحلیل من داده (UT4 در مقابل Tiempo): ![](http://i.stack.imgur.com/GG7Pl.png) هدف من این است که یک گاوسی چند قله ای برای هر ستون UT$_i قرار دهم $ به منظور بدست آوردن پارامترهای یک UT عمومی و استفاده از آن برای تجزیه و تحلیل آماری بیشتر. من در اینجا ایده هایی را با استفاده از «ksmooth» پیدا کرده ام که چندین قله را در یک مجموعه داده برازش می کند و اطلاعات اوج فردی را در R استخراج می کند، اما نتیجه ای که به دست آوردم یک تناسب یک وجهی از داده های من بود. امیدوارم با سوالم واضح گفته باشم. پیشاپیش از شما متشکرم.
تناسب گاوسی چند قله در R
92740
بدیهی است که فرض کنیم که عدم رد تهی دلالت بر درستی عدد صفر دارد. اما در موردی که صفر رد نمی شود و فاصله اطمینان متناظر (CI) باریک و حول محور 0 است، آیا این دلیل **** تهی نیست؟ من دو نظر دارم: بله، در عمل این شواهدی را ارائه می دهد که اثر کم و بیش 0 است. با این حال، در یک چارچوب دقیق آزمون فرضیه، به نظر می رسد که اثرات صفر به سادگی برای استنتاج غیرقابل استفاده هستند، همانطور که CI متناظر آنها نیز وجود دارد. بنابراین وقتی تخمین نقطه ای آن غیر قابل توجه است، معنای CI چیست؟ آیا برای استنباط نیز غیر قابل استفاده است یا می توان از آن مانند مثال قبل برای کمی کردن شواهد برای تهی استفاده کرد؟ پاسخ با منابع علمی تشویق می شود.
آیا یک فاصله اطمینان محدود در اطراف یک اثر غیر قابل توجه می تواند شواهدی برای صفر ارائه دهد؟
38567
اگر یک متغیر تصادفی پیوسته $X$ دارای توزیع متقارن در حدود 0 باشد، توزیع شرطی $X$ با توجه به $|X|$ چقدر است؟
توزیع مشروط $X$ با توجه به $|X|$
5058
در یک آزمایش اجتماعی که انجام می دادم، سعی کردم تعداد افرادی را که هر کاربر در یک بازه زمانی 10 روزه با آنها تماس گرفته است، بشمارم. اندازه جمعیت برای آزمایش 100 نفر بود. بر اساس مقادیری که محاسبه کردم، توزیع دوجمله ای منفی را به داده ها برازش می کنم (نمودار Q-Q در زیر آورده شده است). عقل متعارف می گوید که بیشتر شبکه ها در بین انسان ها از توزیع قانون قدرت پیروی می کنند. من حدس می‌زنم که اندازه جمعیت من برای نتیجه‌گیری کامل در مورد هر چیزی خیلی کوچک است، اما آیا هیچ نوع رابطه‌ای بین توزیع دوجمله‌ای منفی و توزیع قانون توان وجود دارد؟ من این را به این دلیل می‌پرسم که چند روز پیش خواندم که توزیع عادی و توزیع گاما (که آنالوگ گسسته آن دوجمله‌ای منفی است) نقش ویژه‌ای دارند که بسیاری از توزیع‌های دیگر را می‌توان از توزیع گاما مشتق کرد. من نمی دانم که آیا این حتی با توزیع قانون قدرت هم درست است؟ من در آمار مبتدی هستم، بنابراین اگر از مسیر درست خارج شدم، لطفاً مسیر درست را به من نشان دهید. ![متن جایگزین](http://i.stack.imgur.com/MMla7.png)
آیا رابطه ای بین قانون توان و توزیع دوجمله ای منفی وجود دارد؟
73445
اگرچه من فصل های کتاب مرتبط را خوانده ام، اما هنوز کمی سردرگم هستم، بنابراین سؤالات ابتدایی زیر را مطرح می کنم. 1) موارد زیر برابر با چیست؟ (برخی از آنها ممکن است بی معنی باشند) * $\sum_{x_1} p(x_1 | x_2) = ?$ (من فکر می کنم این برابر با $1$ برای تنظیم $x_2$ است، به عنوان مثال $\sum_{x_1} p( x_1 |. x_2 = 1) = 1$) * $\sum_{x_2} p(x_1 | x_2) = ?$ * $\sum_{x_1} p(x_1 | x_2، x_3) = ?$ (فکر می‌کنم این برابر با $1$ برای تنظیم $x_2$ و $x_3$ است) * $\sum_{x_2} p(x_1 | x_2 ، x_3) = ?$ * $p(x_1|x_3)p(x_2|x_3)p(x_3)$ = ? 2) با فرض اینکه هر یک از $x_1$، $x_2$ و $x_3$ می توانند سه مقدار متفاوت داشته باشند، $1$، $2$ و $3$، چگونه تعداد پارامترهای رایگان را برای موارد زیر محاسبه کنیم؟ * $p(x_1)$ (فکر می‌کنم این $3-1=2$ است) * $p(x_1، x_2، x_3)$ (فکر می‌کنم این $3^3=27$ است) * $p(x_1|x_2) $ (من فکر می کنم این $(3-1)*3=6$) * $p(x_1|x_2، x_3)$ (من فکر می کنم این است $(3-1)*3*3=18)$ * $p(x_1, x_2 | x_3)$ (فکر می‌کنم $(3*3-1)*3$3 باشد) آیا عبارات زیر درست هستند؟ * $p(x_1)$ یک توزیع احتمال است. * $p(x_1, x_2)$ یک توزیع احتمال است. * $p(x_1 | x_2)$ مجموعه ای از توزیع های احتمال است. * $p(x_1 | x_2 = 1)$ یک توزیع احتمال است.
سوالات احتمالی ابتدایی
55209
من مجموعه داده ای از 30000 بیمار دارم که با روش جراحی مطابقت دارند. در معرض اصلی علاقه من این است که آیا بیمار در حین جراحی بی حسی منطقه ای دریافت کرده است یا خیر. من 27 نوع روش جراحی مختلف دارم، بنابراین به جای گنجاندن 26 متغیر ساختگی در مدل رگرسیون کاکس، آنها را طبقه بندی کردم. علاوه بر قرار گرفتن در معرض اصلی مورد علاقه در مدل (بیهوشی منطقه ای/بدون بیهوشی منطقه ای)، من 3 متغیر کمکی دیگر دارم که آنها را کنترل می کنم... آیا روش ساده ای برای محاسبه میانگین بقا برای بیمارانی که بی حسی منطقه ای دریافت کرده اند وجود دارد. برای کسانی که نکردند؟ یا آیا باید میانگین بقای این دو گروه را برای تمام 27 قشر محاسبه کنم زیرا همه آنها خطرات پایه متفاوتی دارند؟
میانگین زمان بقا برای مدل طبقه بندی شده کاکس
45159
من سعی می‌کنم درگیر برخی یادداشت‌ها شوم، و موضوع داده‌های مقطعی و تلفیقی است. اگر رگرسیون داشته باشیم: $$\log{wage_i}=\beta_0+\beta_1\text{married}_i+\delta_0\text{yr10}_i+\delta_1\text{married}_i\times \text{yr10}_i+\varepsilon_i $$ Where $\text{married}$ یک متغیر ساختگی است که $=1$ if است یک فرد متاهل است و اگر نه $0$، و $\text{yr10}$ یک متغیر ساختگی است که نشان می‌دهد آیا مشاهده در سال 2010 ثبت شده است یا نه در سال 2000. یک نقطه خالی در یادداشت‌ها وجود دارد. که من متوجه نشدم، و می پرسد: چگونه $\delta_1$ را تفسیر کنیم؟ من فکر می‌کنم درست است که بگوییم $\delta_1$ نشان می‌دهد که چگونه بازده ازدواج افراد در 10 دلار گذشته تغییر کرده است. آیا این درست است؟ یا من اشتباه می کنم؟ من کمی در کتاب درسی ام مطالعه کردم و فکر می کنم این چیزی است که می گوید.
آیا این ضریب را درست تفسیر می کنم؟
114598
اجازه دهید $n>1$، اجازه دهید $X$ به طور یکنواخت در $[-\frac12,\frac12]$ توزیع شود، و دنباله $X_1,\ldots,X_{n+1}$ از نسخه‌های مستقل $X$ را در نظر بگیرید. . R معیارهای همبستگی «پیرسون»، «کندال» و «اسپرمن» را در تابع «cor» خود پیاده‌سازی می‌کند. بنابراین برای هر یک از این روش ها، اگر من cor(X[1:n]، X[2:(n+1)]، روش=...) را محاسبه کنم، آیا توزیع شناخته شده ای برای ضریب همبستگی حاصل وجود دارد؟ به نظر می‌رسد ضریب پیرسون تقریباً به‌طور معمول توزیع شده است، اما برای $n=10$ و روش «spearman» به‌طور قابل‌توجهی غیرعادی به نظر می‌رسد. همچنین «کندال» و « نیزه‌دار» هر دو گسسته هستند. من سعی می کنم بفهمم که آیا در یک دنباله طولانی $X_1,\ldots,X_{m(n+1)}$ از $m$ پنجره هایی با اندازه $n$، متغیرهای تصادفی متوالی هر پنجره مستقل هستند. بنابراین من ضریب همبستگی را برای هر پنجره محاسبه می‌کنم و می‌خواهم توزیع آن را با این فرضیه بدانم که همه آنها مستقل هستند و به طور یکنواخت مانند بالا توزیع شده‌اند. آیا این توزیع ها شناخته شده اند؟ اگر نه، آیا تقریب خوبی وجود دارد؟
توزیع ضرایب همبستگی برای متغیرهای تصادفی یکنواخت
64902
من در حال نوشتن یک مقاله هستم و کد زیر کدی است که در R نوشتم. دلیل اینکه من با این مشکل دست و پنجه نرم می کنم این است که صدها مدل را با متغیرهای مختلف امتحان کردم و مدل زیر بهترین مدل را با کمترین MAPE داشت. من چند متغیر را اضافه و ضرب کردم و مطمئن نیستم که مدل من چگونه باید در یک معادله ریاضی بیان شود و از هر کمکی ممنونم. متشکرم. FYI، B_1 یک متغیر طبقه بندی است و بقیه متغیرهای عددی هستند. model = glm(as.formula(y ~ (B_1+B_2)*B_3*B_4*B_5), data = train.set, family=Gamma) متشکرم!
چگونه یک معادله ریاضی برای مدل GLM با توزیع گاما و گاوسی بنویسیم؟
70134
من در این StackExchange کاملاً تازه کار هستم، تا به حال فقط در کمین بودم، اما همکاران StackOverflow من گفته اند که شما بهترین افرادی هستید که می توانید در مورد این سؤال بپرسید. به هر حال مقدمه بس است. من از الگوریتم وزنی k-Nearest-Neighbours استفاده می کنم. مجموعه داده اصلی من 37 ویژگی دارد. من به دنبال استفاده از PCA برای کاهش ابعاد بوده‌ام و این روش را دنبال می‌کنم. برای سادگی، اجازه دهید فرض کنیم که دو مورد از ویژگی های جدید ایجاد شده 90 درصد از واریانس را تشکیل می دهند و من فقط از این دو ویژگی جدید استفاده می کنم. اجازه دهید آنها را ویژگی 1 و ویژگی 2 ($f_1$, $f_2$) بنامیم. بگذارید بگوییم که $f_1$ 60% واریانس و $f_2%$ 30% از واریانس را به خود اختصاص می دهد. می‌دانم که می‌خواهم وزن‌ها ($w_1، w_2$) را برای این دو ویژگی انتخاب کنم. شهود اولیه من این است که می توانیم واریانس محاسبه شده را با وزن ویژگی مرتبط کنیم. بنابراین، من از ترکیب وزنی $w_1 = 0.6$ و $w_2 = 0.3$ در الگوریتم k-Nearest-Neighbours خود استفاده می کنم. من به خوبی می‌دانم که ادبیات زیادی وجود دارد که نشان می‌دهد بهترین راه برای انتخاب وزن‌ها استفاده از روش شبکه‌ای است که در آن ترکیب‌های مختلف وزن‌ها را انتخاب می‌کنیم و سپس ترکیبی را دنبال می‌کنیم که بهترین نتایج را به همراه دارد. من فقط به این فکر می کردم که آیا شهود وزن ها با واریانس کل مرتبط است یا خیر. همچنین، از آنجایی که مجموعه داده من در واقع به 11 ویژگی نیاز دارد تا 90 درصد از واریانس را در نظر بگیرد، می‌خواهم نقطه شروعی برای تعیین ترکیب وزن‌ها داشته باشم. **خلاصه:** هنگام استفاده از PCA به عنوان پیش ساز برای kNN، آیا می توان وزن ویژگی ها را در k-NN بر اساس کل واریانس ویژگی های گفته شده در داده ها قرار داد؟ ببخشید اگر اشکالی در قالب بندی وجود دارد یا اگر پروتکل ها را خراب می کنم. در صورت وجود به من اطلاع دهید و من پست را به روز خواهم کرد.
استفاده از مقادیر ویژه از PCA در k-نزدیکترین همسایه
81993
من به خودم چند آمار را برای سرگرمی یاد می دهم و در مورد آمار کافی دچار سردرگمی هستم. من ابهامات خود را در قالب لیست می نویسم: 1. اگر توزیعی دارای پارامترهای $n$ باشد، آیا آن $n$ آمار کافی خواهد داشت؟ 2. آیا هر نوع تناظر مستقیمی بین آمار کافی و پارامترها وجود دارد؟ یا آیا آمار کافی فقط به عنوان مجموعه ای از اطلاعات عمل می کند تا بتوانیم تنظیمات را دوباره ایجاد کنیم تا بتوانیم تخمین های مشابهی را برای پارامترهای توزیع اساسی محاسبه کنیم. 3. آیا همه توزیع ها آمار کافی دارند؟ یعنی آیا قضیه فاکتورسازی ممکن است شکست بخورد؟ 4. با استفاده از نمونه داده های خود، توزیعی را فرض می کنیم که داده ها به احتمال زیاد از آن هستند و سپس می توانیم تخمین هایی را برای پارامترهای توزیع محاسبه کنیم (مثلاً MLE). آمار کافی راهی است برای اینکه بتوانیم تخمین های یکسانی را برای پارامترها بدون تکیه بر خود داده ها محاسبه کنیم، درست است؟ 5. آیا همه مجموعه های آمار کافی دارای حداقل آمار کافی خواهند بود؟ این مطالبی است که من برای درک موضوع موضوع از آن استفاده می کنم: https://onlinecourses.science.psu.edu/stat414/node/283 از آنچه من می فهمم، یک قضیه فاکتورسازی داریم که توزیع مشترک را به دو تابع جدا می کند. ، اما من نمی دانم که چگونه می توانیم پس از فاکتورگیری توزیع در توابع خود، آمار کافی را استخراج کنیم. 1. سوال پواسون ارائه شده در این مثال فاکتورگیری واضحی داشت، اما سپس بیان شد که آمار کافی میانگین نمونه و مجموع نمونه است. فقط با نگاه کردن به شکل معادله اول از کجا فهمیدیم که این آمار کافی است؟ 2. چگونه ممکن است با استفاده از آمار کافی، همان برآوردهای MLE را انجام دهیم، اگر معادله دوم نتیجه فاکتورگیری گاهی اوقات به مقادیر داده ها $X_i$ بستگی دارد؟ به عنوان مثال در مورد پواسون تابع دوم به معکوس حاصلضرب فاکتوریل داده ها بستگی دارد و ما دیگر داده را نخواهیم داشت! 3. چرا اندازه نمونه $n$ در رابطه با مثال پواسون در صفحه وب، آمار کافی نیست؟ برای بازسازی بخش‌های خاصی از تابع اول به $n$ نیاز داریم، پس چرا آمار کافی نیست؟
آمار کافی، مشخصات/مشکلات شهودی
5054
بگوییم که به مرور هشتگ های توییتر را مطالعه می کنیم. ما بر میزان محبوبیت آنها نظارت می کنیم. برخی از هشتگ ها ممکن است فرار باشند (به عنوان مثال ناهار، سلتیکس، جمعه). محبوبیت آنها مرتباً افزایش و کاهش می یابد. برخی از هشتگ‌ها ممکن است در حال محبوب شدن نباشند (به عنوان مثال نشت نفت خلیج فارس، ترانسفورمرز 2، کریستین اودانل). آیا یک مدل ریاضی وجود دارد که بتواند بین هشتگی که به طور موقت محبوبیت خود را کاهش داده است اما احتمالاً بعداً محبوبیت بیشتری پیدا می کند و هشتگی که در حال غرق شدن است و احتمالاً در محبوبیت باقی می ماند تمایز قائل شود؟ با تشکر
آیا یک مدل ریاضی وجود دارد که بین نوسانات و روند تمایز قائل شود؟
87292
من مقالاتی پیدا می کنم که به جای p مقدار فقط CI را گزارش می کنند. تمام مقاله‌هایی که پیدا کردم، مقدار p را گزارش می‌کنند، علی‌رغم اینکه موضوع آن قطعی نیست. من می خواهم ببینم چگونه آنها اطلاعات مهم تجزیه و تحلیل خود را در جداول و پرانتز قرار داده اند تا بتوانم دنبال کنم. به سلامتی، پیت
آیا هیچ مقاله ای را می شناسید که به جای مقدار p فقط CI را گزارش کند، زمانی که آنالیز از LMM در lmer4 باشد؟
63029
من یک مدل غیر خطی به شکل زیر دارم: $y = a*x^b$ می‌توانم آن را با استفاده از لگاریتم و یک مدل خطی یا مستقیماً با یک مدل غیر خطی تطبیق دهم. رویکرد اول، لگاریتم ها و مدل خطی: lmfit <- lm(log(y)~log(x)) رویکرد دوم، مدل غیر خطی: nlsfit <- nls(y~a*x^b, start=list(a= 200، b=1.6)) در حالت اول می توانم به سادگی مقدار $R^2$ را از مدل خطی دریافت کنم یا خودم آن را با استفاده از: rsquared <- محاسبه کنم. var(fitted(lmfit)) / var(log(y)) در حالت دوم، هیچ مقدار $R^2$ ایجاد نمی شود، اما من می توانم یک مقدار $pseudoR^2$ را خودم به دست بیاورم: pseudorsquared <- var(fitted (nlsfit)) / var(y) در یک مدل خطی می توانم کسری از واریانس غیرقابل توضیح را با انجام $1-R^2$ محاسبه کنم. من خوانده ام که این برای رگرسیون های غیر خطی قابل اجرا نیست. می خواهم بدانم آیا نسخه ای معادل از این معیار وجود دارد تا بتوانم هر دو رگرسیون را با هم مقایسه کنم و از بهترین آنها استفاده کنم. به عنوان یک اطلاعات اضافی، می خواهم اضافه کنم که این یک رگرسیون از متغیرهای فیزیکی است و رویکرد غیر خطی نتایج نزدیک به ادبیات بیشتری را برای ضرایب ارائه می دهد، در حالی که رویکرد خطی عملکرد آماری بهتری را ارائه می دهد ($R ^2$، تعصب، و غیره).
کسر واریانس غیر قابل توضیح و R-square در رگرسیون خطی و غیر خطی
38568
من یک مدل سری زمانی با 5 متغیر سری زمانی داشتم و این مدلی است که در ادبیات به داشتن مشکلات همبستگی خودکار مشهور است. چرا وقتی از ماتریس استاندارد OLS var-covar استفاده می کنم، تنها 2 متغیر (بسیار) معنی دار هستند اما با ماتریس varcovar Newey West 4 از متغیرها (بسیار) معنی دار هستند (سطح 1٪)؟
خطاهای استاندارد نیوی وست به من اهمیت بیشتری می دهد
92742
من از lme4 برای اجرای یک مدل تعامل سه طرفه استفاده می کنم. من سه متغیر مستقل دارم: حیوان (موش، شیر، سگ)، رنگ (قرمز، سبز، آبی) و جنس (نر، ماده). خطوط پایه به شرح زیر است: حیوان: سگ رنگ: آبی جنسیت: ماده هدف نهایی من این است که تفاوت بین موش در مقابل سگ و شیر در مقابل سگ را پیدا کنم. سپس خروجی را به این صورت تفسیر می کنم: 1) موش = موش: آبی: ماده 2) شیر = شیر: آبی: ماده 3) قرمز = سگ: قرمز: ماده 4) سبز = سگ: سبز: ماده 5) نر = سگ :آبی:نر 6) موش:قرمز = موش:قرمز:مونث 7) شیر:قرمز = شیر:قرمز:ماده 8) موش:سبز = موش:سبز:ماده 9) شیر:سبز = شیر:سبز:مونث 10) موش:نر = موش:آبی:نر 11) شیر:نر = شیر:آبی:نر 12) موش:قرمز:نر = rat:red:male 13) lion:red:male = lion:red:male 14) موش:سبز:نر = موش:سبز:نر 15) موش:سبز:نر = موش:سبز:نر پس با توجه به این لینک: چگونه تعامل دو طرفه و 3 طرفه را در lmer تفسیر کنیم؟ به نظر می رسد که همه پارامترها باید این سه متغیر را همانطور که بعد از = نوشتم، با ظاهر خطوط مبنا در بر گیرند، اگر در پارامتر نباشند. سپس سوال من این است: از آنجایی که هدف من این است که تفاوت‌های بین موش در مقابل سگ و شیر در مقابل سگ را بیابم، مطمئن نیستم که بتوانم مستقیماً بتوانم سگ در مقابل موش را در اولین مورد در ماده مقایسه کنم [(1) rat = rat:blue :female] با موش در مقابل سگ در دهم [(10) rat:male = rat:blue:male] از نظر من، این دو پارامتر فقط از نظر جنسیت با یکدیگر متفاوت هستند. شرکت کنندگان نظر شما چیست؟
تفسیر برهمکنش سه طرفه در خروجی lmer
6777
من می خواهم شبکه بیزی را روی برخی از داده ها اعمال کنم. با این حال، برخی از متغیرها مربوط به زمان هستند. به عنوان مثال تعداد دفعاتی که وی از کتابخانه بازدید می کند. از آنجایی که مقدار را می توان به صورت تعداد کل بازدیدهای این شخص، میانگین تعداد بازدید هفتگی، تعداد بازدید روزانه، یا حتی تعداد بازدید در 3 روز گذشته و غیره تعریف کرد... من نمی خواهم همه اینها را شامل شود. تغییرات مختلف در شبکه من پس چگونه باید با این ویژگی به درستی رفتار کنم؟ با تشکر فراوان از کمک شما
چگونه باید با ویژگی های مربوط به زمان در شبکه بیزی برخورد کنم؟
73441
من نیاز به تولید مجموعه ای از اعداد تصادفی دارم (بین 100 تا 300 کافی است)، که با میانگین مشخصی مطابقت داشته باشند، و همچنین در نقاط پایانی بالایی و پایینی مشخص قرار گیرند. با استفاده از نرم افزار آماری که دارم (Minitab) می توانم گزینه هایی برای 1. تولید داده های تصادفی با میانگین معین اما بدون نقطه پایانی و 2. تولید داده های تصادفی با نقاط پایانی و حالت داده شده (نه میانگین) پیدا کنم. فکر می کنم مشکلی که دارم این است که به نظر نمی رسد توزیع عادی باشد. به عنوان مثال، یکی از مجموعه های داده باید میانگین 2.90 را ارائه دهد، اما بین 0 تا 30.66 باشد. این برای مقاله ای است که من می نویسم، که در آن نگرانی این است که بتوانم تجزیه و تحلیل های آماری را روی داده های مورد نظر انجام دهم. به عبارت دیگر، هنگامی که مجموعه داده را تولید می کنم، باید ANOVA و تست های دیگر را روی آن انجام دهم. (من با انجام همه این کارها خوب هستم؛ فقط نمی توانم بفهمم چگونه داده ها را تولید کنم.)
چگونه داده‌های تصادفی تولید کنیم که با میانگین معین و نقاط پایانی بالا/پایین مطابقت داشته باشد؟
6772
مطمئن نیستم می توانید به من کمک کنید اما مشکل اینجاست. من دو نسبت دو جمله ای A و B دارم (95% CI) - $A = 2\% \pm 0.2\%,\quad B = 3\% \pm 0.2\%.$ به عبارت دیگر، نسبت B 50٪ بیشتر است. از A. افراد تجاری تمایل دارند در مورد این تفاوت از نظر درصد افزایش صحبت کنند. به عبارت دیگر، نسبت B 50٪ بیشتر از A است. چگونه می توانم یک فاصله اطمینان را برای افزایش 50 درصدی نسبت B نسبت به A محاسبه کنم. من در مورد فرمول فیلر تحقیق کرده ام که گفته می شود تأثیر درصد دقیقی را ارائه می دهد. با این حال، علاوه بر اینکه قضیه فیلر را درک نمی کنم، نمی دانم چگونه می توانم این را در R محاسبه کنم. کسی می تواند کمک کند؟ **ویرایش:** به عنوان مثال، اگر CI برای آن فواصل 95٪ باشد، CI برای افزایش 50٪ = 98.52٪.
چگونه فاصله اطمینان مرتبط با افزایش نسبت دو جمله ای را محاسبه کنیم؟
70132
من داده‌هایی از یک PCA دارم و می‌خواهم مساحت بیضی اطمینان 95% دو رایانه شخصی اول را بدانم. آیا کسی می داند چگونه می توان مساحت بیضی اطمینان 95٪ را در R تخمین زد؟
تخمین مساحت بیضی اطمینان 95 درصد در R
85670
فقط به ذهن من خطور می کند که تحت چه شرایطی رگرسیون خطی می تواند نتیجه خوبی (معتبر) ایجاد کند. به عنوان مثال، فرض کنید y، $x_1$، $x_2$، ... $x_n$ از توزیع گاوسی چند متغیره پیروی می کنند، و اکنون وقتی $x_1$، $x_2$،... مشاهده می شود و ما باید $y$ را تخمین بزنیم، معقول ترین راه این است که فقط از گاوسی شرطی برای تخمین استفاده کنیم. با این حال، از دیدگاهی متفاوت، می‌توانیم آن را به عنوان یک مسئله رگرسیون خطی نیز حل کنیم - فرض کنید گروهی از نمونه‌ها (یا مشاهدات قبلی) x^{(1)}_1,x^{(1)}_2$ داریم. ،... x^{(1)}_n، y^{(1)}$، و $x^{(2)}_1،x^{(2)}_2،... x^{(2 )}_n، y^{(2)}$، ... سپس می‌توانیم همبستگی‌های بین $x_1، x_2، \ldots، x_n$ را فراموش کنیم و سپس آن را به عنوان یک مسئله رگرسیون خطی حل کنیم. نمی دانم آیا نتایج یکسان است؟ من شک دارم زیرا راه حل دوم همبستگی بین $x$ را در نظر نمی گیرد. لطفا راهنمایی کنید با تشکر
آیا می توان مسئله تخمین گاوسی شرطی را با رگرسیون خطی حل کرد؟
6770
من در حال نوشتن یک برنامه برای یک تکلیف برای دوره احتمالات و آمارم هستم. این برنامه چندین میلیون پرتاب سکه شبیه سازی شده را انجام می دهد و سپس خواص مختلف دنباله تولید شده را تجزیه و تحلیل می کند. یکی از کارهایی که انجام می دهد این است که دنباله تولید شده شامل چند اجرا و طول آنها است. یک نتیجه برای 10.000.000 پرتاب این است: تعداد اجراهای طول 1: 2500986 تعداد دورهای طول 2 است: 1246647 تعداد اجراهای طول 3 برابر است: 625656 تعداد دورهای طول 4: 311689 تعداد دورهای طول 5 است: 156673 تعداد اجراهای طول 6 است: 78464 تعداد اجراهای طول 7 است: 39253 تعداد اجراهای طول 8 است: 19547 تعداد اجراهای طول 9 است: 9866 تعداد اجراهای طول 10 یا بیشتر: 9818 اکنون مشکل من به شرح زیر است: من باید نتیجه به دست آمده از شبیه سازی را با انتظارات نظری مقایسه کنم. اساساً من به همان نتیجه فوق نیاز دارم که روی کاغذ محاسبه شود. الگویی در نتایج به وضوح وجود دارد، اما من فقط نمی توانم یک فرمول را پیدا کنم. کسی لطفا کمک کنه؟
تعداد دورهای مورد انتظار به طول n در پرتاب سکه
46797
من یک مجموعه داده دارم که ~ 150R X 2000C است و کنجکاو بودم که آیا RBM در شرایطی با این نوع عدم تعادل مناسب است یا خیر. این یک ریزآرایه است و من به یک مشکل طبقه بندی 0/1 نگاه می کنم. من کنجکاو هستم که آیا نمونه کدگذاری شده ای از استفاده از این به خصوص در R/Python/Java وجود دارد.
آیا می توان از RBM ها برای انتخاب / کاهش ویژگی استفاده کرد؟
18890
من سعی می کنم آنالیز آماری را که در یک مطالعه بالینی دیدم، درک کنم. آنها عملکرد 3 گروه از افراد را با یک سری معیارهای عملکردی (A، B، C، ...، N) اندازه گیری کردند. هدف این بود که بفهمیم آیا بین عملکرد 3 گروه تفاوت وجود دارد یا خیر، و اگر بله، پس از چه راه هایی با هم تفاوت دارند. تجزیه و تحلیل آنها شامل انجام یک MANOVA مانند این بود: گروه set.seed(100) <- rep(c(0,1)، هر=40) A <- rnorm(80, 5, 0.5) + 0.1 * گروه B <- rnorm(80، 9، 0.3) + 0.2 * گروه + 0.5 * A C <- rnorm(80، 12، 0.3) + 0.2 * گروه + 0.7 * B d.1 <- data.frame(A = A, B = B, C = C, group = group) fit.manova <- manova(cbind(A, B, C) ~ group, d. 1) خلاصه (fit.manova، test=Pillai) Df Pillai تقریباً F num Df den Df Pr(>F) group 1 0.19669 6.2027 3 76 0.0007949 *** باقیمانده ها 78 وقتی نشان دادند که تفاوت های قابل توجهی می بینند، به انجام یک سری آزمایش ANOVA برای هر DV ادامه دادند، به عنوان مثال: summary(lm(A ~ group, d.1)) summary(lm(B ~ گروه، d.1)) خلاصه (lm(C ~ گروه، d.1)) برای پیدا کردن اینکه کدام معیارهای عملکرد در کجا بین گروه ها آنچه من می خواهم بدانم این است: 1. آیا این رویکرد (MANOVA به دنبال سری ANOVA) قابل توجیه است؟ آیا پیش از این که بتوانیم این مسیر را طی کنیم، پیش فرض های دقیقی وجود دارد؟ 2. اگر بله، آیا باید نوعی اصلاح برای مرحله دوم، یعنی یک سری ANOVA برای DV های فردی (مقایسه های چندگانه) وجود داشته باشد؟ چه اصلاحی؟ 3. روش توصیه شده برای مشکلاتی مانند این با چند DV چیست؟ ویرایش 1: متن را تغییر داد تا شامل یک کد نمونه باشد. ویرایش 2: نمونه را به روز کرد. DV ها در حال حاضر مرتبط هستند. ویرایش 3: این در واقع یک وضعیت بسیار رایج در مطالعاتی است که شامل اقدامات عینی است. دستگاه‌ها معمولاً مجموعه‌ای از اقدامات را نشان می‌دهند، حتی اگر شما به‌طور خاص آنها را درخواست نکنید. به عنوان مثال، شما دو گروه، یک گروه کنترل و یک گروه بیمار دارید و یک تجزیه و تحلیل راه رفتن آزمایشگاهی انجام می دهید. سیستم های آنالیز راه رفتن 50 معیار راه رفتن مختلف را در اختیار شما قرار می دهد. سوال تحقیق شما ممکن است این باشد: آیا دو گروه راه رفتن مشابهی دارند؟ اگر نه، از چه جهت با هم تفاوت دارند؟
درک MANOVA در صورت وجود یک پیش بینی کننده واحد
18897
من می‌خواهم در مورد آنچه در ابتدا فکر می‌کردم تحلیل نسبتاً ساده‌ای بود، توضیحی بدهم. یک نظرسنجی به 100 جهنده نمایش (اسب) آلمانی داده شد تا آنچه که ما می خواهیم بدانیم موارد زیر است. آیا ارتباطی بین LBP (به صورت بله (1) یا خیر (2)) با سؤالات زیر وجود دارد؟ 1. و موفقیت یا شکست ظاهری در یک تورنمنت (با پاسخ بله (1)، نه (2) یا نمی دانم (3)) 2. و تغییر در ADL فرد (پاسخ به صورت بله (1) ، نه (2) یا نمی دانم (3)) 3. و تشدید سایر دردهای موجود در طول مسابقات (با پاسخ بله (1)، نه (2) یا نمی دانم (3)) اکنون من معتقدم که بهترین راه رو به جلو، انجام یک تجزیه و تحلیل جدول احتمالی 3×2 از «ارتباط» بین متغیر وابسته اسمی (LBP) و متغیرهای مستقل اسمی (موفقیت، تغییر در ADL و تشدید درد دیگر) است. تستی که می خواهید اجرا کنید تست Goodman & Kruskal Tau B است (آزمون معادل SPSS، تست Phi & Cramer's V است. مشکل زمانی ایجاد می شود که آزمایش CrossTab را اجرا می کنم (قرار دادن LBP (DV) در کادر ROWS و IV در جعبه ROWS. کادر COLUMNS) پیام هشدار زیر را دریافت می کنم _*_ > هشدارها > هیچ معیار ارتباطی برای جدول بندی متقاطع کمردرد محاسبه نشده است. * حداقل یک متغیر در هر > جدول دو طرفه که معیارهای ارتباط محاسبه می شود، یک > ثابت است > > هیچ معیاری از ارتباط برای جدول بندی کمردرد محاسبه نمی شود * تشدید درد ناشی از رقابت. حداقل یک > متغیر در هر جدول 2 طرفه که بر اساس آن معیارهای ارتباط محاسبه می شود، برای جدول بندی کمردرد * ADL ثابت است حداقل یک متغیر در هر جدول 2 طرفه > که معیارهای ارتباط بر اساس آن محاسبه می شود ثابت است. *** اکنون ممکن است چیزی بسیار اساسی را در اینجا از دست داده باشم اما کاملاً مطمئن نیستم که چرا این پیام هشدار/خطا را هنگام استفاده دریافت می کنم SPSS (آمار PASW 18)؟ هر گونه کمکی بسیار قدردانی خواهد شد و پیشاپیش از همه شما سپاسگزارم. اندرو V
پیام های خطای جدول بندی متقاطع SPSS هنگام تجزیه و تحلیل یک جدول احتمالی 3×2
81997
> اجازه دهید $X$ و $Y$ متغیرهای $N(0, \sigma^2)$ باشند. > > 1. نشان دهید که $X^2+Y^2$ و $X/ \sqrt{X^2 + Y^2}$ مستقل هستند. **Hint** > : توزیع مشترک عبارت اول و مربع دوم را محاسبه کنید. > از آنجایی که $X \sim N(0, \sigma^2)$، می دانیم که $X/\sigma \sim N(0,1)$. بنابراین $X^2/\sigma^2 \sim \chi^2(1)$. اما این بدان معنی است که $X^2 = \sigma^2(X^2/\sigma^2) \sim \chi^2(\sigma^2)$. البته همین نتیجه را برای $Y$ داریم. فرض کنید $W_1 = X^2/(X^2 + Y^2)$ و $W_2 = X^2 + Y^2$. توزیع مشترک را دریافت می کنیم، $$f_{W_1، W_2}(w_1، w_2) = \left[ \left( \frac{1}{\Gamma(\sigma^2/2)2^{\sigma^2/ 2}} \right)^2 (w_1(1-w_1))^{\sigma^2/2 - 1} \right] \چپ[ (w_2)^{\sigma^2 - 2} e^{-w_2} \right]$$ در کتاب درسی من یک قضیه وجود دارد (_مقدمه ای بر آمار ریاضی_ نوشته هاگ) که می گوید > _ اجازه دهید متغیرهای تصادفی $X_1$ و $ X_2$ به ترتیب از $S_1$ و $S_2$ > پشتیبانی می کند و دارای pdf مشترک $f(x_1، x_2) دلار. سپس $X_1$ و $X_2$> مستقل هستند اگر و فقط اگر $f(x_1, x_2)$ cna به‌عنوان حاصلضرب یک تابع > غیرمنفی x_1$ و یک تابع غیرمنفی x_2$ نوشته شود. یعنی > $$f(x_1, x_2) \equiv g(x_1)h(x_2)، $$ که در آن $g(x_1) > 0$، $x_1 \در S_1$، صفر > جاهای دیگر، و $h(x_2 ) > 0$، $x_2 \در S_2$، صفر در جای دیگر._ بنابراین، با این قضیه، $W_1$ و $W_2$ مستقل هستند. (ما می دانیم که $\left( \frac{1}{\Gamma(\sigma^2/2)2^{\sigma^2/2}} \right)^2 (w_1(1-w_1))^{ \sigma^2/2 - 1}$ مثبت است زیرا $w_1 = \frac{x^2}{x^2 + y^2} \leq 1$.) > 1. نشان دهید که $X+Y$ و $X-Y$ مستقل هستند. **نکته:** از ویژگی استاندارد > توزیع نرمال استفاده کنید. > $X+Y \sim N(0,2)$ و $X-Y \sim N(0,2)$. اجازه دهید $U_1 = X+Y$ و $U_2 = X-Y$. داریم، $$f_{U_1، U_2}(u_1، ,u_2) = \left[ \left( \frac{1}{4 \pi} \right) e^{-u_1^2}{4} \right ] \left[ e^{ (-u_2^2)/4} \right]$$ طبق قضیه فوق، $X+Y$ و $X-Y$ مستقل هستند. به نظر شما پاسخ های من درست است؟ پیشاپیش از شما متشکرم
تعیین اینکه آیا این متغیرهای تصادفی مستقل هستند یا خیر
93848
من در یک مجموعه داده یک متغیر طول جغرافیایی دارم که حاوی مقادیری مانند 39° 37 39 N و 39 درجه 24 دقیقه است. تا آنجا که من می دانم، عرض جغرافیایی مانند بالا در سطح بین المللی اندازه گیری می شود. داده های بالا را برای گنجاندن آنها در یک مدل خطی به عنوان مثال، کدام راه مناسب برای بیان یا قالب بندی مقادیر طول عرض با حفظ جنبه علمی و منطقی آنهاست؟
تبدیل عرض های جغرافیایی برای گنجاندن آنها یک مدل خطی
87298
cv.glmnet توسط اکثر مقالات و شرکت های تحقیقاتی استفاده شده است. در حین ساختن یک تابع مشابه مانند cv.glmnet برای glmnet.cr (بسته مشابهی که رگرسیون ترتیبی نسبت ادامه کمند را پیاده سازی می کند) در cv.glmnet با این مشکل مواجه شدم. cv.glmnet ابتدا با مدل مطابقت دارد: glmnet.object = glmnet(x, y, weights = weights, offset = offset, lambda = lambda, ...) پس از ایجاد شی glmnet با داده های کامل، مرحله بعدی به این صورت پیش می رود. به شرح زیر است: «لامبدا» از مدل کامل نصب شده، لامبدا = glmnet.object$lambda استخراج می شود. 3 if (nfolds <3) stop (nfolds باید بزرگتر از 3 باشد؛ nfolds=10 توصیه می شود) لیستی برای ذخیره نتایج تایید شده متقاطع outlist = as.list(seq(nfolds)) یک حلقه for ایجاد می شود برازش بخش‌های مختلف داده بر اساس نظریه اعتبار متقاطع برای (i در seq(nfolds)) { which = foldid == i if (is.matrix(y)) y_sub = y[!which, ] other y_sub = y[!which] if (is.offset) offset_sub = as.matrix(offset)[!which, ] other offset_sub = NULL #استفاده از لامبدا برای فهرست کامل داده[[ i]] = glmnet(x[!که، , drop = FALSE]، y_sub، lambda = lambda، offset = offset_sub، وزن = وزن[!which]، ...) } } پس چه می شود. پس از برازش داده ها به داده های کامل، اعتبارسنجی متقاطع با لامبدا از داده های کامل انجام می شود. آیا کسی می تواند به من بگوید که چگونه ممکن است این داده ها بیش از حد مناسب نباشد؟ ما در اعتبار سنجی متقابل می خواهیم که مدل هیچ اطلاعاتی در مورد قسمت حذف شده از داده ها نداشته باشد. اما `cv.glmnet` در این مورد تقلب می کند!!!!!!!!!!
glmnet بیش از اتصال
70135
بهترین راه برای مقایسه جمعیت کودکان 0-6 ساله (تعداد سر) در مناطق مختلف چیست؟ تراکم جمعیت (جمعیت در هر کیلومتر مربع) منطقی به نظر می رسد. یکی از همکاران به بررسی جمعیت سرانه اشاره کرد. آیا این منطقی است؟ هر گونه کمک بسیار قدردانی می شود. Tx!
مقایسه داده های سرشماری
6776
من قدردان کمک در راست کردن برخی موارد EM هستم. بنابراین، بگویید من داده ها را در R به صورت زیر تولید می کنم: N <- 100 اپسیلون <- rnorm(N) X <- 10*runif(N) beta.0 <- 10 beta.1 <- 3 سیگما <- 2 Y <- beta.0 + beta.1 * X + sigma * epsilon epsilon2 <- rnorm(N) X2 <- 10*runif(N) Y2 <- 3 - X2 + 0.25 * epsilon2 Y.mix <- c(Y, Y2) X.mix <- c(X, X2) در حال حاضر در به حداکثر رساندن انتظارات، در مرحله اول، I احتمال قبلی وجود دارد، مثلاً 0.5، که داده ها از یک یا آن توزیع باشند. بنابراین، با استفاده از EM می دانم که می توانم میانگین و واریانس دو مخلوط را تخمین بزنم. از نگاهی به نمودار چگالی، به نظر می رسد که میانگین برای داده هایی که شبیه سازی کردم در حدود 2- و 30 است. اما، در چه مرحله ای در EM می توانم از نسخه بتا عقب نشینی کنم؟ من می‌خواهم پارامترهای شیب، قطع و انحراف sd را برای 2 معادله رگرسیون بازیابی کنم. با تشکر از یک توضیح
درک بیشینه سازی انتظارات برای حالت مخلوط خطی 2 ساده
18891
چه شباهت‌ها و تفاوت‌هایی بین این 3 روش وجود دارد: کیسه‌بندی، تقویت، روی هم چیدن؟ کدام بهترین است؟ و چرا؟ میشه برای هر کدوم مثال بزنی؟
بسته بندی، تقویت و انباشته شدن در یادگیری ماشینی
44226
شناخته شده است که PCA نسبت به نویز بیرونی کاملاً حساس است (و به همین دلیل است که چندین تکنیک PCA قوی وجود دارد.) با این حال، من به دنبال یک مثال عینی از حساسیت PCA به نویزهای متخاصم هستم که یک تنظیم مصنوعی است که در آن بتوانیم نشان دهیم که دشمن می تواند به شدت بر کیفیت بردارهای ویژه به دست آمده تأثیر بگذارد. آیا کسی می تواند یک مثال ساده برای این موضوع ارائه دهد یا بهتر است یک مرجع ارائه دهد؟ من به ویژه به **PCA گراف Laplacians** نگاه می کنم که در آن یک دشمن مخرب می تواند بخش کوچکی از گره ها و/یا لبه ها را اضافه کند. هر گونه بینش بیشتر قدردانی خواهد شد. با تشکر
نویز دشمن در PCA
38563
من یک QAR خالص (رگرسیون خودکار چندکی) انجام نمی دهم، اما یک متغیر وابسته عقب مانده (AR(1)) به عنوان پیش بینی دارم. من از بسته quantreg در R برای انجام آن استفاده می کنم. من دو سوال بسیار مرتبط دارم: (1) من از quantreg در R برای انجام QR های خود استفاده می کنم. آیا باید با قرار دادن یک عبارت AR(1) روی RHS کار خاصی انجام دهم تا خوب باشم؟ (2) آیا استفاده از عبارت AR(1) به عنوان یک رگرسیون برای پرداختن به خودهمبستگی در رگرسیون چندک، همانطور که می توانید با OLS خوب است؟ یا QR از این نظر متفاوت است؟
(رگرسیون کوانتیل) متغیر AR(1) در ماتریس طراحی
87294
من فقط سعی کردم یک t-dist را در R برای برخی از داده ها قرار دهم، و این کار را با خواندن یک فایل csv 21x1 و تبدیل به عددی انجام دادم (اگر فکر می کنید مهم است، می تواند کد استفاده شده را نشان دهد). پارامترهایی را تولید کرده است اما با 27 اخطار که همه می‌گویند: «1: در log(ها): NaNs تولید شده» و غیره تا 26: و یکی می‌گوید «در sqrt(diag(vc)): NaNs تولید شده است. آیا این روی اعتبار پارامترهایی که با آن بازگشته است تأثیر می گذارد؟ من همچنین متوجه شدم که دارای 2 مقدار میانگین، sd و df است. یکی در بالا و یکی زیر در پرانتز؟ اینها یعنی چه m s df -0.0001337445 0.0034887033 10.0256862670 ( 0.0008246931) ( 0.0000891192) ( NaN) 27 اخطار وجود داشت (از هشدارها استفاده کنید)() برای دیدن آنها
اخطارها در R بعد از fitdistr استفاده می شود
70138
چندین بار (در سخنرانی‌ها، مقالات و غیره) با اظهارات غیررسمی/مماسی مواجه شده‌ام که شکل اصلی زیر را دارند: > مسائل فلسفی به کنار، روش‌های بیزی بسیار راحت هستند. ... با این مفهوم که این روش‌ها راحت‌تر (یا «دستی»، «آسان» و غیره) از روش‌های رقابتی («تکرارگرا») هستند. همانطور که از مقدمه این ادعا می توان فهمید، چنین اظهاراتی معمولاً از سوی افرادی می آید که خود را بیزی توصیف نمی کنند. (منظورم این بود که با قید widely در عنوان این پست پیشنهاد کنم: یعنی _ even_ در میان غیر بایزیان، روش های بیزی بسیار راحت در نظر گرفته می شوند.) چه چیزی در روش های بیزی وجود دارد که آنها را بسیار راحت می کند؟ بهترین پاسخی که می توانم به این سوال بدهم این است که روش های بیزی نیاز به تصمیم گیری های نسبتاً دلخواه در مورد پارامترها و کل مدل ها را برطرف می کند. در عوض، فرمالیسم بیزی به عنوان روشی اصولی برای در نظر گرفتن همزمان مجموعه‌هایی از این پارامترها و مدل‌ها (با وزن قبلی‌های مربوطه) عمل می‌کند. اکنون، درک من از آمار بیزی در بهترین حالت ضعیف است، بنابراین چندان به این توضیح اعتقادی ندارم. من دوست دارم توضیح دقیق تری ببینم. * * * 1 یکی از نمونه هایی که می توانم ذکر کنم مقاله اخیر گلمن و شالیزی است که در آن نویسندگان «داستان معمول» (یعنی تفسیر مرسوم آمار بیزی) را دلیل استفاده از روش های بیزی رد می کنند و در عوض می گویند از آنها استفاده می کنند. زیرا با آن‌ها می‌توانند «مدل‌های به‌اندازه کافی غنی» (احتمالاً غنی‌تر از آن چیزی باشند که با استفاده از روش‌های غیر بیزی جا بیفتند). متأسفانه، این تنها مرجع سختی است که می توانم ارائه دهم. موارد دیگر به صورت سخنرانی غیررسمی یا در خواندن گذشته بود که دیگر نمی توانم به طور خاص به خاطر بسپارم.
چرا روش های بیزی به طور گسترده ای به ویژه راحت در نظر گرفته می شوند؟
64901
فرض کنید من یک رگرسیون مشابه را برای 100 فرد مختلف به طور جداگانه اجرا کرده ام. ضرایب علاقه من مثبت است (و کاملاً با یکدیگر متفاوت است) اما از نظر آماری در تمام 100 نتیجه ناچیز است (بگذارید هر p-value = 0.11 باشد). آیا راهی برای ترکیب این مقادیر p وجود دارد تا به این نتیجه برسیم که «حداقل 80 مورد از این نتایج مثبت هستند» با معنی‌داری بیشتر از p=0.11؟ جستجوهای آنلاین من فقط به من نشان داده است که چگونه می توانم بگویم حداقل 1 از این نتایج مثبت است از طریق تست فیشر یا مشابه، اما نتوانستم آن نتیجه را تعمیم دهم. من می خواهم H0 = همه 100 اثر در 0 یکسان هستند در مقابل HA = حداقل 80 اثر مثبت هستند را آزمایش کنم. هدف من این نیست که بگویم به طور متوسط ​​یک ضریب مثبت وجود دارد و همچنین اندازه گیری مشخص ضریب نیست. هدف من این است که به طور قابل توجهی نشان دهم که حداقل 80 نفر به طور جداگانه بدون در نظر گرفتن 80 مورد، و بدون توجه به میزان تأثیری که هر فرد احساس می کند، با تأثیر مثبت روبرو شده اند. پیشاپیش از شما متشکرم
اگر من نتایج مثبت زیاد اما ناچیز داشته باشم، آیا آماری وجود دارد که به من اجازه دهد به طور معناداری بگویم حداقل n از این نتایج مثبت است؟
87295
به منظور ایجاد مدل پیش آگهی برای پیش بینی خطر سرطان پستان، نمونه 321 زن تشکیل شده است. هر زن به پرسشنامه پاسخ داد و از پاسخ ها به عنوان پیش بینی کننده استفاده شد. نتیجه این بود که آیا زنان سرطان سینه دارند یا خیر. 132 بیمار مبتلا به سرطان پستان و 189 زن بدون سرطان پستان به همین پرسشنامه پاسخ دادند. بنابراین بروز سرطان سینه در نمونه حدود 0.41 است. اما در جمعیت، بروز حدود 0005/0 در سال است. در نتیجه، نه تنها سرطان سینه، بلکه هر یک از عوامل مضر در نمونه، شیوع بیشتری نسبت به جمعیت دارد. حالا من برای سیگار کشیدن حدود 35 OR گرفته ام. * یعنی در جمعیت OR نیز 35 خواهد بود؟ اگر نه، آیا راهی برای انتقال نسبت شانس رگرسیون لجستیک به نسبت شانس جمعیت وجود دارد؟ * من می توانم ریسک نسبی را با $RR\approx \frac{OR}{1-BR+BR \times OR}$ محاسبه کنم. از چه چیزی به عنوان ریسک پایه استفاده کنم؟ اگر این خطر وجود دارد که افراد غیرسیگاری از جمعیت به سرطان مبتلا شوند که بسیار کوچک است، پس $RR\تقریبا OR$. اگر exp(intercept) مدل باشد، آنگاه به 35 نیز نزدیک است. و اگر در بین افراد غیرسیگاری از نمونه بروز کند، آنگاه $RR=2.7$ است. آیا هر کدام از این گزینه ها درست است؟
انتقال نسبت شانس رگرسیون لجستیک (بر اساس نمونه طبقه بندی شده) به نسبت شانس جمعیت
87293
من کمی گیج شده ام که چه زمانی باید از توزیع پواسون استفاده کنم. اگر موردی داشته باشم که در آن: * میانگین نمونه تعداد رویدادهایی که در یک روز خاص اتفاق می‌افتد را دارم (مثلاً 1.27 است). * پنج روز به طور تصادفی از یک نمونه انتخاب شده است. آیا می توانم از فرآیند پواسون برای یافتن احتمال اینکه میانگین نمونه اکنون بیش از 0.3 است استفاده کنم؟
چه زمانی از توزیع پواسون استفاده کنیم؟
67978
من سعی می کنم یک رگرسیون را محاسبه کنم. من یک متغیر وابسته پیوسته دارم (سرمایه گذاری به میلیون دلار) یک متغیر مستقل پیوسته پنج شاخص دوگانه (1/0) چهار تعامل. از خطاهای استاندارد قوی استفاده می شود. N=569. آیا دلیل خاصی وجود دارد که F-Test در Stata کار نمی کند؟ راهنمای Stata می‌گوید: > نتایج تخمین شما نشان می‌دهد که آمار مدل F یا chi2 وجود ندارد. Stata این کار را انجام داده است تا گمراه کننده نباشد، نه به این دلیل که > لزوماً مشکلی در مدل شما وجود دارد. خروجی رگرسیون رگرسیون خطی زیر است تعداد obs = 580 F( 9, 569) = . Prob > F = . R-squared = 0.2336 Root MSE = 1.2608 Robust lninv Coef. Std. اشتباه t P>t [95% Conf. فاصله] سن 0.1392668 0.0363307 3.83 0.000 0.0679081 0.2106255 1.idicatorone 0.4070426 0.2380546 1.71 0.0858 - 0.0850.460 1.indicatortwo 1.085003 0.1235029 8.79 0.000 .8424262 1.327581 1.indicatorthree -0.4390229 0.1781991 -2.46 0.001 - 0.081014 -2.46 1.fincrisis 0.4526393 0.1376538 3.29 0.001 0.1822677 0.7230108 1. bubble 1.657902 0.1088199 15.24 0.000 15.24 0.000 15641011110000001110000000000011564411 یک fincrisis#indicatorthree 1 1 -0.1068982 0.2141135 -0.5 0.618 -.5274474 0.313651 indicatorthree#c.age 1 -0.0103719 0.0450553 0.0450553 -0.888 -0.0. 0.0781231 _cons 0.0378515 0.1878819 0.2 0.840 -.3311753 0.4068783
آزمون F و متغیرهای طبقه بندی
113087
به زبان عامیانه، تفاوت بین پیش بینی و توضیح در آمار چیست؟ من به دنبال تفاوت های بین AIC و BIC بودم و این پست را با پاسخی یافتم که می گوید: > توضیح سریع من این است که > > AIC بهترین برای پیش بینی است، زیرا به طور مجانبی معادل اعتبار متقاطع است. BIC برای توضیح بهتر است زیرا امکان تخمین سازگار فرآیند تولید داده های اساسی را فراهم می کند. این باعث می‌شود فکر کنم که به همان اندازه دقت و دقت، تمایز اصلی در اینجا وجود دارد که به طور قابل‌توجهی بر زمان و نحوه استفاده از بسیاری از روش‌های آماری تأثیر می‌گذارد. من آن را در گوگل جستجو کردم و فقط مقالات مختلفی از جمله این مقاله را پیدا کردم، اما با توجه به دانش فعلی من، این برای سوال من بسیار سخت است. آیا کسی می تواند توضیحی شهودی از تفاوت و شاید نمونه هایی از تأثیر آن بر استفاده از روش ها و ابزارهای آماری ارائه دهد؟
پیش بینی در مقابل تبیین و تأثیر آن بر روش های آماری
108849
من سعی می کنم با توجه به تعدادی پارامتر پیوسته وزن ماهی صید شده را رگرسیون کنم، با استفاده از Weka از 1-12 پارامتر و اندازه نمونه 5000-15000 استفاده می کنم. یک خروجی معمولی === ارزیابی در تقسیم آزمایشی == = === خلاصه === ضریب همبستگی -0.0065 پیچیدگی کلاس | سفارش 0 22812.6387 بیت 8.5569 بیت/نمونه پیچیدگی کلاس | طرح 25229.8025 بیت 9.4635 بیت/نمونه بهبود پیچیدگی (Sf) -2417.1638 بیت -0.9067 بیت/نمونه میانگین خطای مطلق 1.9104 ریشه میانگین مربع خطا 2.3735 نسبی خطای ریشه مطلق 19 درصد 100.9444 % تعداد کل موارد 2666 حال، کدام معیار بهترین معیار برای میزان موفقیت رگرسیون است؟ بهبود پیچیدگی، میانگین خطای مطلق یا میانگین مربع خطا؟ بهبود پیچیدگی به آنتروپی دیفرانسیل متصل است (فکر می کنم، من یک سوال دیگر در این مورد پرسیدم) که به نظر اندازه گیری خوبی است. اما تا کنون، من فقط پیشرفت‌های پیچیدگی منفی داشته‌ام، که نشان می‌دهد یا رگرسیون‌های من بسیار ضعیف است یا اینکه تخمین ویکا از پیچیدگی کلاس (آیا شاید از پراکندگی داده‌ها رنج می‌برد؟) ریشه میانگین مربعات خطا و میانگین خطای مطلق است. دو کاندید دیگر هستند اما چگونه بین آنها انتخاب کنم؟ مزایا و معایب هر کدام چیست؟
پیچیدگی کلاس در مقابل میانگین خطای مطلق در مقابل میانگین مربع خطا هنگام انجام رگرسیون بر روی متغیرهای پیوسته
1194
این سوال مدتی است که ذهن من را درگیر کرده است و قصد داشتم در مورد آن یک پست وبلاگ بنویسم. با این حال، فکر می کنم بهتر است در این انجمن بحث شود. در ماه آوریل، در یک سخنرانی در مجموعه سمینارهای گروه آمار دپارتمان ریاضی UMD به نام توضیح یا پیش بینی؟ شرکت کردم. این سخنرانی توسط پروفسور Galit Shmueli که در مدرسه کسب و کار اسمیت UMD تدریس می کند، ارائه شد. صحبت‌های او بر اساس تحقیقاتی بود که برای مقاله‌ای با عنوان «مدل‌سازی پیش‌بینی‌کننده در مقابل مدل‌سازی توضیحی در تحقیقات IS» و یک مقاله کاری بعدی با عنوان «توضیح یا پیش‌بینی؟» انجام داد. استدلال دکتر شمولی این است که واژه‌های پیش‌بینی‌کننده و توضیحی در زمینه مدل‌سازی آماری با هم ترکیب شده‌اند و ادبیات آماری فاقد بحث کامل درباره تفاوت‌ها است. در مقاله، او هر دو را در تضاد قرار می دهد و در مورد مفاهیم عملی آنها صحبت می کند. من شما را به خواندن مقالات تشویق می کنم. سوالی که می‌خواهم برای جامعه تمرین‌کنندگان مطرح کنم این است: آیا تا به حال در دام استفاده از یکی در زمانی که منظور استفاده از دیگری است، افتاده‌اید؟ من قطعا دارم. چگونه می دانید از کدام یک استفاده کنید؟ چگونه یک تمرین پیشگویانه را در مقابل یک تمرین توضیحی / توصیفی تعریف می کنید؟ اگر بتوانید در مورد برنامه خاص صحبت کنید مفید خواهد بود.
افکار عملی در مورد مدل سازی توضیحی در مقابل پیش بینی
44227
من یک تازه کار در دنیای داده کاوی هستم. یه سوال کلی دارم من یک مجموعه داده دارم که دارای 10 متغیر مستقل و یک متغیر هدف به نام دسته است که دارای 9 مقدار است مانند: 1، 2، 3، 4، 5، 6، 7، 8، 9. 10 متغیر مستقل دارای دامنه متفاوتی هستند. از ارزش ها برخی از آنها دارای مقادیر بین 0 - 5000، برخی دارای دامنه بزرگ مانند 5000000 - 100000000 و غیره هستند. علاوه بر این، هیچ رابطه خاصی (خطی و غیره) بین متغیرهای هدف و مستقل وجود ندارد. من اساساً سعی می کنم با استفاده از همه این متغیرهای مستقل، دسته متغیر هدف را پیش بینی کنم. آیا کسی می تواند پیشنهاد دهد که رویکرد من چگونه باشد؟ من خیلی گیج هستم. آیا باید از مدل های رگرسیون، درخت تصمیم یا تحلیل خوشه ای استفاده کنم؟
کدام نوع رگرسیون مناسب تر است؟
5056
با توجه به بردارهای پشتیبانی یک SVM خطی، چگونه می توانم معادله مرز تصمیم را محاسبه کنم؟
محاسبه مرز تصمیم یک مدل SVM خطی
36171
من اعتبار سنجی متقابل تودرتو را در Matlab برای یک مشکل طبقه بندی پیاده سازی کرده ام. من 56 ویژگی و 408 مورد دارم. من در حال انجام انتخاب ویژگی و مدل در حلقه اعتبارسنجی متقاطع داخلی، با استفاده از CV 10 برابر برای هر دو حلقه داخلی و خارجی هستم. در حلقه CV داخلی، من از یک روش انتخاب ویژگی رو به جلو متوالی استفاده می‌کنم، تو در تو در داخل یک جستجوی شبکه‌ای برای تعیین پارامترهای منظم‌سازی بهینه برای یک مدل طبقه‌بندی‌کننده متمایز منظم شده و مجموعه ویژگی‌های انتخاب شده. من عملکرد بسیار ضعیفی در CV حلقه بیرونی پیدا می‌کنم (در مقایسه با یک طبقه‌بندی متمایز درجه دوم استاندارد، که با CV یک حلقه به دست می‌آید)، باعث می‌شود به این نتیجه برسم که در حلقه CV داخلی بیش از حد برازش دارم. من مقالاتی از Cawley و Talbot خوانده‌ام که نشان می‌دهد پروتکل‌های انتخاب مدل مغرضانه به نفع مدل‌های بدتر هستند و علاوه بر این، رویه حلقه داخلی به تنهایی یک برآورد عملکرد مغرضانه ایجاد می‌کند. آیا این بیش از حد برازش مشاهده شده برای حلقه داخلی در CV تودرتو را توضیح می دهد؟ آیا راهبردهای عملی برای جلوگیری از این زیاده‌روی وجود دارد؟
برازش بیش از حد حلقه داخلی در اعتبارسنجی متقابل تودرتو
18761
من از Proc Arima برای تولید تست های Dickey-Fuller و Dickey-Fuller تقویت شده استفاده می کنم. طبق مستندات Proc Arima از روش Dickey-Fuller استفاده می کند که فرضیه زیر را آزمایش می کند: H0: psi=0 H1: psi نه 0 در سه رگرسیون: DYt=psi*Yt-1 + ut DYt=intercept+psi*Yt-1 + ut DYt=برق + روند زمانی + psi*Yt-1 + ut اگر سری باقیمانده ها (ut) در رگرسیون های بالا به صورت سریالی همبستگی دارند، سپس رگرسیون ها باید با تأخیرهای متغیر وابسته (DYt) یعنی [سیگما (ai*DYt-1)] افزوده شوند] تعداد تأخیرها بر اساس: الف) مقادیر معیارهای اطلاعاتی مانند AIC و SBIC (تعداد زیادی رگرسیون افزایش یافته را اجرا کنید که با 1 افزایش شروع می شود و رگرسیون را با حداقل مقادیر معیارها انتخاب کنید) یا ب) طبق قانون: به افزایش ادامه دهید تا زمانی که مقدار رگرسیون به صورت سریالی همبستگی نداشته باشد. بر اساس موارد فوق، گزینه ای در Proc Arima وجود دارد که در خروجی (همراه با تست های DF و ADF) یک آزمون آماری برای همبستگی سریال ut (به عنوان مثال Darbin Watson) معادلات توصیف شده در بالا و مقادیر معیارهای اطلاعات (AIC و SIC)؟ سایر نرم افزارهای اقتصاد سنجی مانند E-Views این آمار را به طور پیش فرض هنگام درخواست آزمایش ریشه واحد تولید می کنند (به http://www.hkbu.edu.hk/~billhung/econ3600/application/app01/app01.html مراجعه کنید) تا کنون من از یک روش دستی برای محاسبه a) و b) استفاده کنید که بسیار وقت گیر است (به عنوان مثال رگرسیون های بالا را اجرا کنید (و رگرسیون های تقویت شده) موارد) با proc reg درخواست IC (بعد از ایجاد متغیرهای DYt، Yt-1 و DYt-1، DYt-2... به صورت دستی با Base SAS)، باقیمانده ها را با عبارت خروجی ذخیره کنید و تست های همبستگی خودکار را اجرا کنید (به عنوان مثال. g Darbin-Watson).
SAS Proc Arima - DF، ADF، SIC، AIC، همبستگی خودکار در باقیمانده ها
18899
در متن کاوی، اگر تعداد n-گرم را محاسبه کرده باشیم، مثلاً $n=1\ldots4$، آیا راه _اصولی_ برای ترکیب آنها وجود دارد، به جز اینکه فقط ماتریس های $tf-idf$ را برای هر یک به هم بچسبانیم؟ (اگر بخواهیم برای هر یک ماتریس هسته بسازیم، معادل مجموع غیر وزنی هسته ها است). به عنوان مثال، نمایشگر n-gram گوگل: http://books.google.com/ngrams/datasets نشان می دهد که آنها از یونی گرم تا 5 گرم را محاسبه کرده اند، اما نمی گویند چگونه آنها را ترکیب می کنند.
ترکیب n-گرم
18762
مورد منظم سازی در فضای هیلبرت در نظر گرفته می شود --- یک مسئله بهینه سازی با یک عبارت خطا و یک تنظیم کننده Tikhonov. در مقاله چه زمانی قضیه نماینده وجود دارد در صفحه 2 (2508) بیان شده است، و به شواهدی اشاره شده است که قضیه نماینده زمانی برقرار است که قاعده‌آور یک تابع _غیر کاهشی_ از هنجار، یعنی مربع هنجار فضای هیلبرت باشد. . **سوال من:** آیا الزامات دیگری برای مشکل وجود دارد، به عنوان مثال در مورد عبارت خطا؟ برای هر کمکی از شما متشکرم!
چه زمانی یک قضیه نماینده وجود دارد؟
36173
من در درک چیزی مشکل دارم. بیایید بگوییم که من داده ای دارم و یک مدل لاجیت روی آن داده ها می سازم. حال، فرض کنید من یک مجموعه داده مشابه و جدیدتر با همان متغیرها دارم، و نمی‌دانم که آیا مدل اصلی روی داده‌های جدید نیز همین را پیش‌بینی می‌کند. آیا مقادیر بیان شده در اولین مدل لاجیت در داده های جدیدتر نیز مشابه هستند؟ درست است، بنابراین من متعجب بودم که چگونه این کار را در R انجام می دهد. آیا این فقط یک موضوع مشخص کردن داده های جدید هنگام تلاش برای پیش بینی است. درک کامل مفهومی یا کاربردی این ایده را نداشتم. هر کمکی قابل تقدیر است. df = data.frame(sell=c(0،1،0،0،1)، home=c(خود، اجاره، اجاره، اجاره خود)، درآمد=c(50،20،20،50،50)، جنسیت=c(M، M، F، F، F)) df$sell = as.factor(df$sell) df$home = as.factor(df$home) df$income = as.factor(df$income) df$gender = as.factor(df$gender) str(df) m1 = glm(factor(sell) ~ خانه + درآمد + جنسیت، داده=df، خانواده=دوجمله(لینک=logit)) خلاصه (m1) new.df = data.frame(sell=c(1،1،1،0، 0)، home=c(خود، خود، اجاره، اجاره، خود)، درآمد=c(30،30،30،50)، جنسیت=c(M، M، F، M، F)) m2 = glm(عامل( فروش) ~ خانه + درآمد + جنسیت، data=new.df, family=binomial(link=logit)) summary(m2) بنابراین چگونه می توانم به این سوال پاسخ دهم که آیا مدل اصلی (m1) کار خوبی در پیش بینی مقادیر در داده های جدید (جدید) انجام داده است. df). با تشکر
نحوه آزمایش مدل لاجیت بر روی داده های جدید را بدانید
85676
من سعی می کنم برای مجموعه ای از داده ها معیاری به دست بیاورم که امتیاز هرزنامه یک نفر را نشان می دهد. اساساً، هرچه امتیاز هرزنامه بالاتر باشد، احتمال بیشتری دارد که هرزنامه باشند. در حال حاضر، من امتیاز هرزنامه یک فرد را به صورت نسبت می‌سنجیم: پست‌های بد/کل پست‌ها. اگر این نسبت بالا باشد، احتمالاً آنها هرزنامه هستند. مشکلی که من با آن روبرو هستم این است که سعی کنم افراد مختلف را با هم مقایسه کنم - به عنوان مثال، فردی که 6/8 پست بد دارد به اندازه کسی که 600/800 پست بد دارد اسپم نیست (کسی که 600 پست بد ایجاد کرده است واضح است که هرزنامه‌نویس است، اما کسی که رتبه 6 را کسب کرده است تا این حد ثابت نکرده است که هرزنامه‌نویس است. با این حال، در حال حاضر به آنها همان امتیاز هرزنامه 6/8 = 0.75 اختصاص داده شده است. آیا راهی وجود دارد که بتوانم اندازه نمونه را در امتیاز اسپم خود در نظر بگیرم؟
نسبتی که حجم نمونه های مختلف را در بر می گیرد
44223
من یک پایگاه داده پزشکی دارم که شامل 7 متغیر ورودی (4 متغیر باینری هستند) و یک متغیر نتیجه باینری (بقا: بله/خیر). هدف من آموزش و آزمایش الگوریتمی است که احتمال بقا (نه خروجی باینری) را پیش‌بینی می‌کند. من از پکیج nnet استفاده کردم. اما برای من یک خروجی باینری (با استفاده از نوع خام و کلاس) برگرداند. از کدام روش می توانم استفاده کنم؟ آیا بسته های R CRAN برای پیش بینی احتمال بقا با استفاده از شبکه های عصبی یا سایر الگوریتم های یادگیری ماشین وجود دارد؟ خیلی ممنون
روش‌ها و بسته‌های CRAN برای پیش‌بینی احتمال با استفاده از شبکه‌های عصبی یا سایر الگوریتم‌های یادگیری ماشین
113318
من اخیراً در حال بررسی تکنیک ها یا الگوریتم هایی هستم که مشکلات پراکندگی داده ها را در زمینه های مختلف مدیریت می کنند. و من متوجه شدم که نام کاملاً مشابه تعداد داده ها یا داده های پراکنده از جمله سیستم توصیه کننده، متن کاوی، بازیابی اطلاعات، مدل سازی زبان آماری و همچنین داده های با ابعاد بالا استفاده می شود. با این حال، همه آنها معنای خاص کاملاً متفاوتی برای کاربردهای خاص داشتند. به عنوان مثال، نسبت زیادی از مقادیر از دست رفته در ماتریس کاربر - آیتم به عنوان پراکندگی در نظر گرفته می شود. نسبت بزرگ مقدار صفر (به جای گمشده) در ماتریس ویژگی نمونه نیز پراکندگی نامیده می شود. همچنین افزایش ابعاد داده ها نیز منجر به پراکندگی داده ها می شود. برخی از تعاریف (نه رسمی) در کارهای قبلی ارائه شده است: > 1. در سیستم توصیه، به عنوان ناتوانی در یافتن مقدار کافی همسایه با کیفیت خوب برای کمک به پیش بینی > به دلیل همپوشانی ناکافی رتبه بندی ها بین فعال تعریف می شود. کاربر و > همسایگانش[1]. > 2. در داده‌های با ابعاد بالا، چگالی نمونه‌برداری ~$N^{1/p}$ که در آن $N$ است > اندازه نمونه و $p$ بعد داده نیز می‌تواند به عنوان یک مشکل > پراکنده باشد.[2] ] > 3. یک تعریف کاملاً رسمی از نسبت بزرگی از صفرها در ویژگی > ماتریس وجود دارد [3]، من همچنین این را به عنوان نمایش پراکنده به جای > پراکندگی داده ها می دانم. > به طور خلاصه، من کاملاً درک می کنم که پراکندگی در هر برنامه به چه معناست. ** با این حال، من گیج شده‌ام که آیا چنین نامی از نظر ریاضی توضیح یا تعریفی جهانی دارد.** تا کنون، برای رسیدن به هدف فوق، سعی می‌کنم یک اندازه‌گیری پراکندگی ارائه کنم که بتواند موارد فوق را پوشش دهد (اما در خودم. از نظر، نمایش پراکنده ای که به طور گسترده در متن کاوی و غیره استفاده می شود، مشکل متفاوتی دارد.) [1]:دیپا آناند و کمال ک بهارادواج. استفاده از معیارهای پراکندگی مختلف برای افزایش دقت سیستم های توصیه گر مشترک بر اساس شباهت های محلی و جهانی. سیستم های خبره با برنامه های کاربردی، 38(5):5101-5109، 2011. [2]:هستی، ت.، تیبشیرانی، آر.، فریدمن، جی.، هستی، تی، فریدمن، جی، و تیبشیرانی، آر. (2009). عناصر یادگیری آماری (جلد 2، شماره 1). نیویورک: اسپرینگر. صفحه 23. [3]: Duchi, J., Jordan, M., & McMahan, B. (2013). تخمین، بهینه سازی و موازی سازی زمانی که داده ها کم هستند. In Advances in Neural Information Processing Systems (ص 2832-2840).
نام پراکندگی داده ها در برنامه های مختلف
18764
من مقداری نحو برای SPSS دارم و همه چیزهایی را که نیاز دارم را کاملاً تولید می کند، اگرچه به دلایلی آن را به جای دو دنباله، یک دم بیرون می اندازد. آیا راهی برای ویرایش این نحو وجود دارد که از تجزیه و تحلیل دو طرفه استفاده کند؟ رگرسیون /توضیحات به معنای STDDEV CORR SIG N /فقدان لیست /ضریب آماری خروجی CI(95) R ANOVA CHANGE ZPP /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /DEPENDENTMETHODENTHENTH/=1 سن /METHOD=ENTER دبیرستان UnderGrad PostGrad /METHOD=ENTER دانش آموز BlueCollar WhiteCollar /METHOD=ENTER مجرد متاهل DeFacto /SCATTERPLOT=(*ZPRED،*ZRESID) /HISTOGRAM RESIDUALS(ZRESID) NORMPROB(ZRESID).
نحو SPSS برای تولید آزمون دو دنباله برای رگرسیون
36178
در یک مفهوم بسیار کلی، روش های مختلفی وجود دارد که از طریق آنها می توان یک مطالعه مشاهده ای گذشته نگر را قوی کرد؟ اعتبار سنجی متقابل؟ نوردهی به خوبی تعریف شده است؟ و غیره
چگونه می توان استحکام مطالعات مشاهده ای را افزایش داد؟
89946
من در حال انجام مطالعات مستقل در آمار مجانبی و تخمین نقطه‌ای هستم و می‌دانم که شما می‌توانید از تبدیل‌های log متغیرهای تصادفی یکنواخت (نمایی) تا توزیع‌های مجذور کای به دست آورید، اما به یک سوال جالب برخوردم و من نیستم. مطمئن شوید که چگونه آن را اداره کنید من به روش CLT یا دلتا فکر می کردم اما از خودم مطمئن نیستم. چیزی که من سعی می کنم مرتب کنم این است: با توجه به $X_1,\ldots X_n\overset{iid}{\sim}Uniform(0,\theta)$ و $Z_n=\left(\prod_{i=1}^nX_i \right)^{1/n}$ مثالی از تابع $Z_n$، یعنی $g(Z_n)$ چیست، به طوری که $g(Z_n)\overset{d}{\rightarrow}\chi_{(1)}^2$، که $\overset{d}{\longrightarrow}$ نشان‌دهنده همگرایی در توزیع و $\chi_{(1)} است. ^2$ یک متغیر تصادفی مجذور کای با 1 درجه آزادی است؟ شاید چیزی شبیه $g(h(Z_n))$ که در آن $h(Z_n)\overset{d}{\rightarrow}Normal(0,1)$ و $g(t)=t^2$؟ هر گونه کمکی بسیار قدردانی می شود.
میانگین هندسی همگرایی متغیرهای تصادفی یکنواخت
89948
_سوال اصلی_: اگر جمعیت 1 شامل شمع های ترکیبی با اندازه X_1 و جمعیت 2 از توده های ترکیبی با اندازه 4*X_1 باشد. آیا باید انتظار داشته باشم که انحراف معیار X_1 برابر با 4 * انحراف معیار X_2 باشد؟ چگونه می توانم انحراف معیار این دو جمعیت را مقایسه کنم؟ **ویرایش برای بازنویسی سوال (با تشبیه های مختلف).** **جمعیت 1**: سطل های بزرگ از تعداد زیادی توپ رنگی مختلف (56 رنگ ممکن)، هر سطل با اندازه X1 **جمعیت 2**: سطل های کوچک همان توپ های رنگی (دوباره 56 رنگ ممکن)، هر سطل اندازه X2. از آنجایی که سایز و چگالی توپ ها یکسان است، هر سطل در این جمعیت دارای مقدار بسیار کمتری از توپ ها نسبت به سطل های جمعیت 1 است. **نمونه** * من n1 مشت توپ رنگی، هر مشت از یک سطل متفاوت از جمعیت 1 برمی‌دارم و برای هر مشت مقداری از ویژگی‌های تعریف‌نشده را اندازه‌گیری می‌کنم. من روند را برای جمعیت 2 تکرار می کنم و n2 اندازه گیری می کنم. * به من گفته شد که چون سطل های جمعیت 1 بزرگتر هستند، باید انتظار تغییرات کمتری در اندازه گیری های n1 نسبت به اندازه گیری های n2 داشته باشم. * پیشنهاد شده است که فاکتورهای نرمال سازی 1/sqrt(X1) و 1/sqrt(X2) را در انحرافات استاندارد اعمال کنم تا آنها را قابل مقایسه کنم، اما نمی توانم هیچ نظریه یا منبع اطلاعاتی مرتبطی پیدا کنم.
مقایسه تنوع یک محصول مخلوط از جمعیت های با اندازه های مختلف (رقت)
44228
# پیشینه و تنظیمات من داده هایی با این فرمت دارم: در مورد هر موضوع فهرستی از قرار گرفتن در معرض برخی مواد، برخی مشخصات جمعیتی و سپس یک پاسخ چندگانه (این که آیا آزمودنی به بیماری مبتلا شده است یا نه و اگر چنین است، پس چه نوع بیماری). به عنوان مثال: موضوع 1 مردی 15 ساله بود که در شهر C زندگی می کرد. او در معرض مواد A، B و C قرار گرفت و نتیجه: آزمودنی سرطان پوست داشت. موضوع 2 .... نتیجه: آزمودنی پسوریازیس داشت... موضوع 3 .... نتیجه: آزمودنی سالم بود... و غیره * * * # سوال من می خواهم بتوانم از این داده ها پیش بینی کنم تا تخمین بزنم چه بیماری با توجه به جمعیت شناسی و سابقه قرار گرفتن در معرض احتمالاً موضوع جدیدی ایجاد می شود. من سعی کردم با رگرسیون لجستیک بازی کنم، اما پاسخ باینری نیست، ممکن است پیامدها/بیماری های زیادی (از جمله موارد عدم وجود بیماری) باشد. چگونه می توانم پیش بینی های خود را انجام دهم - در صورت امکان؟ با تشکر
پیش‌بینی‌هایی که نتایج متعددی دارند
33525
من در مورد استقلال حاصلضرب متغیرهای تصادفی مستقل گیج شده ام. بگذارید «A» و «B» مستقل از یکدیگر باشند و «C» و «D» نیز مستقل از یکدیگر باشند، آنگاه می‌فهمم که «AC» و «CB» لزوماً مستقل از یکدیگر نیستند. با این حال، «A»، «B»، «C» و «D» متقابلاً مستقل از یکدیگر هستند. در این صورت، آیا «AC» و «BD» مستقل از یکدیگر هستند؟
آیا محصولات متغیرهای تصادفی مستقل مختلف مستقل هستند؟
87126
سلام به همه و ممنون از کمک ارزشمند شما در تمام کارهای تحقیقاتی من :) من به هیچ وجه متخصص آمار نیستم، من یک روانپزشک هستم که دکترای خود را در زمینه آموزش پزشکی انجام می دهم و به این نقطه از کارم رسیده ام که من با تجزیه و تحلیل نتایج خود مشکل دارم. سوال من در اینجا مطرح می شود: من گروهی متشکل از 32 دانش آموز دارم که یک آزمون دانش متشکل از 11 سوال چند گزینه ای را قبل و بعد از یک لحظه آموزشی و همچنین چند ماه بعد پر کردند. آخرین آزمایش از طریق یک بستر ویژه در اینترنت انجام شد. دو نفر اول در محل بودند. من قصد دارم چند نمودار و آزمون t انجام دهم تا نتایج را قبل و بعد از آن بررسی و مقایسه کنم. مشکل من این است که در آخرین پیگیری چند ترک تحصیل دارم. شش نفر از آنها در آخرین آزمون دانش تکمیلی شرکت نکردند. چگونه با چنین موقعیتی برخورد می کنید؟ به طور کلی آن 6 نفر را از تجزیه و تحلیل حذف کنید؟ از آنجایی که من یک نمونه نسبتاً کوچک برای شروع دارم، به نظر بیهوده است... از شما متشکرم!
داده های از دست رفته در گروه نسبتاً کوچکی از شرکت کنندگان
83631
من دو تا مشکل دارم اول، من یک OLS، پواسون و رگرسیون دو جمله ای منفی را اجرا کرده ام. برای رگرسیون OLS، من چندین IV دارم (5 کنترل و در ابتدا 2 پیش بینی). برای یکی از متغیرهای پیش بینی، خطای استاندارد در مدل رگرسیون اولیه بسیار زیاد است (بیش از 4). تحمل 0.963 و VIF 1.034 است که نشان می دهد چند خطی بودن نباید نگران کننده باشد. این متغیر پیش بینی با یکی از متغیرهای کنترل/IV همبستگی معنی داری دارد - اما پایین است، 0.127. هیچ ایده ای دارید که چرا SE اینقدر بالاست؟ SE حتی برای رگرسیون دو جمله ای پواسون و منفی بزرگتر است. این من را به موضوع دومم می‌رساند - DV من به عنوان شمارشی از برخی پدیده‌ها اندازه‌گیری می‌شود. بنابراین، ترتیبی است. یک حد بالایی برای شمارش وجود دارد. من مطمئن نیستم که از کدام تکنیک تجزیه و تحلیل استفاده کنم. من فکر می کنم دو جمله ای منفی ممکن است درست باشد، اما مطمئن نیستم. از کمک شما متشکرم.
خطای استاندارد بزرگ بدون چند خطی
36174
درک من این است که جنگل تصادفی به طور تصادفی متغیرهای _mtry_ را برای ساختن هر درخت تصمیم انتخاب می کند. بنابراین اگر mtry=ncol/3 هر متغیر به طور متوسط ​​در 1/3 درختان استفاده می شود. و 2/3 درختان از آنها استفاده نمی کنند. اما اگر بدانم که یک متغیر احتمالاً بسیار مهم است، چه می‌شود، آیا خوب است که به صورت دستی احتمال انتخاب این متغیر در هر درخت را افزایش دهم؟ آیا با بسته randomForest در R امکان پذیر است؟
جنگل تصادفی: اگر بدانم متغیری مهم است چه می شود