_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
115278
|
ما در حال تجزیه و تحلیل تنوع هاپلوتیپ در داخل و بین شش جمعیت یا دم هستیم. ما به معیاری رسیدیم که شباهت هر جفت هاپلوتیپ ممکن را در یک دم یا بین دو دم مقایسه میکند. از این رو، برای هر مقایسه بین دو دیم، سه معیار داریم: _Hi_ (شباهت در deme _i_)، _Hj_ (همانطور برای deme _j_) و _Hij_ (شباهت بین deme _i_ و _j_). نتایج مشاهده شده در شکل 1 نشان داده شده است (15 مقایسه احتمالی بین شش سطح وجود دارد). توجه داشته باشید که _Hi_ و _Hj_ مستقل از هم هستند، اما _Hij_ به هر دو بستگی دارد! برای مقادیر بالای _Hi_ و _Hj_ (شباهت زیاد هاپلوتیپ ها) _Hij_ می تواند هم زیاد یا هم کم باشد (اگر هاپلوتیپ ها بین دِم ها تفاوت زیادی داشته باشند، اما در درونشان نباشند). برای مقادیر پایین _Hi_ و _Hj_، _Hij_ فقط می تواند کم باشد.  ما نرم افزاری را برای شبیه سازی فضایی تولید تنوع هاپلوتیپ تحت گرادیان های انتخاب ایجاد کردیم. در سناریوهای مختلف با پارامترهای جمعیتی متغیر. برای هر ترکیبی از پارامترها، 1000 شبیهسازی را اجرا میکنیم و برای هر شبیهسازی، سه معیار بالا (_Hi_، _Hj_ و _Hij_) را برای چندین زیر مجموعه از demes (نه لزوماً شش demes) محاسبه کردیم. این نتایج ابری از نقاط سه بعدی را ارائه می دهد که در شکل های 2 و 3 (برای نسل های مختلف) نشان داده شده است. هدف اصلی ما این است که بدانیم آیا نتایج مشاهده شده تحت هر یک از سناریوهای جمعیت شناختی که استفاده می کنیم، «قابل قبول» یا «محتمل» هستند. ما ابتدا یک رویکرد مبتنی بر مرکز را در نظر می گیریم (مقایسه فواصل نقاط مشاهده شده با مرکز ابر با فواصل هر نقطه شبیه سازی شده به مرکز)، اما عدم تقارن ابرها آن را رد می کند. در حال حاضر، ما به دنبال نوعی تخمین نواحی اطمینان برای توزیعهای سه بعدی هستیم و به مقاله رویکرد بدون توزیع جدید برای ساختن منطقه اطمینان برای پارامترهای چندگانه رسیدیم. ما قدردان مشاوره در مورد این موضوع هستیم. آیا این تحلیل درستی است یا رویکردهای بهتری وجود دارد؟ ارادتمند شما
|
مناطق اطمینان برای توزیع های سه متغیره غیر عادی
|
72395
|
این یک عبارت دشوار است، اما من در تعجب هستم که چگونه فرض استقلال برای ANOVA را در شرایطی که در آن فضای کلی ثابت است، تفسیر کنم. به عنوان مثال: تصور کنید که شما رقابتی برای یک صندوق جایزه کلی 1 میلیون دلاری بین چندین فرد مختلف دارید که می توان هر کدام از آنها را به تیپ شخصیتی A، B و C اختصاص داد. فرضیه این است که یکی از این تیپ ها بهتر از سایرین است. تامین پول در مسابقه بنابراین شما مسابقه را اجرا کنید، دریابید که هر یک از افراد در هر گروه چقدر در مسابقه سود کرده اند و می خواهید با مقایسه میانگین هر گروه، فرضیه را آزمایش کنید. به نظر می رسد یک ANOVA یک طرفه ساده انتخاب بدیهی است. اما در این شرایط هیچ یک از مشاهدات مستقل از سایر مشاهدات نیست، زیرا با مبلغ ثابت موجود، سود یک بازیکن به معنای ضرر بازیکن دیگر است. و این به همان اندازه که در بین گروه ها صادق است. با وجود تنها سه بازیکن، انجام هر نوع تجزیه و تحلیل آماری کاملاً مضحک است. با تعداد بی نهایت بازیکن، وابستگی نتیجه یک نفر به دیگران بی نهایت کم است که نشان می دهد ANOVA در اصل خوب است. و مشکل جایی در این بین است. آیا آزمایش تفاوت در میانگین ها با ANOVA در شرایطی مانند این مشکلی ندارد؟ با فکر کردن به این موضوع، فکر میکنم پاسخ مثبت است، اما فقط در صورتی که مراقب باشید وضعیت چگونه در آمار آزمون نهایی ظاهر میشود. بیایید فرض کنیم که مفروضات نرمال بودن و برابری واریانس را می توان برآورده کرد، اما قبل از دستیابی به تکنیک دیگری، رویدادها چقدر باید به یکدیگر وابسته باشند؟ و در این صورت چه رویکردی بهتر است؟
|
ANOVA زمانی که فرض استقلال مشکوک/نقض است
|
91217
|
در مدلسازی درخت تصمیم چه تفاوتی بین داده های آموزش و آزمون وجود دارد؟ من در پیدا کردن معنی این دو کلمه مشکل دارم و امیدوارم شما بچه ها بتوانید به من کمک کنید. ممکن است چند مثال ساده همراه با تعاریف خود به من بدهید تا بتوانم عملاً تفاوت بین داده های آموزش و آزمون را ببینم و درک کنم. من سعی کردم این را در پشته سرریز ارسال کنم، اما به من توصیه شد که در اینجا پست کنم زیرا ممکن است شما در زمینه درختان تصمیم بیشتر آگاه باشید. امیدوارم بتوانید کمک کنید و خیلی ممنون
|
درختان تصمیم - تفاوت داده های آزمون و آموزش
|
23263
|
من در حال اجرای یک معیار برای یافتن کارایی کامپیوترم هستم. متغیرهای کنترلی $p$ به عنوان مثال، $x_1، x_2،...، x_p$ و یک متغیر خروجی $Y$ وجود دارد. به عنوان مثال، هر بار که آزمایشی را اجرا می کنم، متغیرهای کنترل را تغییر می دهم و خروجی را می بینم (کارایی کامپیوتر). بنابراین اساساً برای این مشکل از رگرسیون برای مدل کردن این مشکل استفاده کردم $\\{Y_i,\, x_{i1}, \ldots, x_{ip}\\}_{i=1}^n$. من همچنین به دلیل ماهیت آزمایش از رگرسیون استفاده کردم، یعنی اگر همان آزمایش را در رایانه دیگری انجام دهم، میخواهم آن رایانه را با w.r.t «تطبیق» کنم. به مقادیری که از رایانه قبلی خود دارم - که با یک مشکل خط مطابقت دارد. اکنون، در تنظیمات جدید، من همان متغیرهای کنترلی را دارم اما دو نتیجه $Y_{i1},Y_{i2}$ دارم که توان عملیاتی و پهنای باند هستند. من سعی می کنم متغیرهای کنترلی را تغییر دهم تا سود را به حداکثر برسانم، یعنی توان عملیاتی $بالا $ و مصرف $ کمتر از پهنای باند. چگونه باید این آزمایش را مدل سازی کنم؟ من فقط جبر خطی پایه را می دانم، به همین دلیل است که اولی را با استفاده از رگرسیون به راحتی مدل کردم. از هر کمکی که مرا در مسیر درست فکر کند قدردانی می کنم.
|
مدل آماری برای مشکل من
|
103700
|
[در ابتدا قبل از اینکه متوجه شوم این مکان بهتری است در ریاضیات پست شده است] من مجموعه داده ای با پیش بینی کننده های $p$ برای آیتم های $i$ دارم (پس رگرسیون چندگانه). برای هر یک از موضوعات $s$، من مشاهدات مکرر $r$ از متغیرهای وابسته $v$ دارم (بنابراین این یک مشکل چند متغیره است). میخواهم برای هر فردی بفهمم که پیشبینیکنندههای $p$ چه مقدار واریانس را در همه آیتمهای $i$ دارند. فرمول محاسبه ضرایب پارامتر (معروف به بتا) (با استفاده از نشانگذاری متلب) Betas=pinv(X'*X)*X'*Y است که در آن $X$ ماتریس $[i \times p]$ از پیشبینیکنندهها است. و $Y$ ماتریس مشاهدات است. متأسفانه، $Y$ من یک ماتریس سه بعدی به اندازه $[i \times r \times v]$ است. ضرب ماتریس به یک ماتریس دو بعدی نیاز دارد. با این حال، مطمئن نیستم که کدام رویکرد صحیح است: 1. مشاهدات $r$ اندازهگیریهای $v$ را با هم ترکیب کنید تا به عنوان مثال. $X=[i \times p]، Y=[i \times (r \cdot v)]$ 2. مشاهدات $r$ آیتمهای $i$ را با هم ترکیب کنید و ماتریس پیشبین را $r$ بارها تکرار کنید تا به عنوان مثال، $X=[(r\cdot i) \times p]، Y=[(r\cdot i) \times v]$ 3. میانگین $r$ مشاهدات اندازه گیری $v$ با هم به طوری که $X=[i \times p]$ و $Y=[i \times v]$ گزینه دوم پیش بینی ها را ضرب می کند که به دلیل افزایش مصنوعی تعداد متغیرهای توضیحی، به نظر می رسید. به احتمال زیاد خوب بودن تناسب را متورم می کند. گزینه اول متغیرهای وابسته را ضرب می کند، که سپس استفاده از پارامترها برای پیش بینی مجموعه ای از مقادیر $v$ را غیرممکن می کند. آخرین گزینه ای که من در نظر داشتم این بود که به سادگی میانگین مشاهدات $r$ را محاسبه کنم، اما پس از آن داده ها را از دست می دهید. آیا هر یک از اینها روش مناسبی برای اقدام است؟
|
رگرسیون چند متغیره با اندازهگیریهای وابسته مکرر [MATLAB]
|
111953
|
امروز این سوال از من پرسیده شد: > چگونه میتوانیم به طور منطقی به این نتیجه برسیم که برای یک مجموعه داده معین، در عمل، یک طبقهبندیکننده بهتر از دیگری تعمیم مییابد؟ من نتوانستم پاسخ مختصری بدهم، و فکر کردم شاید شما بچه ها بخواهید وارد شوید. واضح است که می دانم هنوز تحقیقات زیادی در این زمینه باید انجام شود، اما فکر می کنم هنوز ارزش تلاش برای پاسخ دادن را دارد. .
|
چگونه می توانیم انتخاب کنیم که کدام مدل بهتر تعمیم می یابد؟
|
100133
|
من 2 مجموعه داده دارم: یکی لیستی از تمام روزهای سال 2012 در قالب تاریخ ('DatesA'). دیگری لیستی از تاریخ هایی است که در سال 2012 در آن رویدادهای خاصی رخ داده است ('DatesB'). برخی از تاریخها در «DatesB» بیش از یک بار ظاهر میشوند زیرا چندین رویداد در آن تاریخها رخ دادهاند. میخواهم ببینم که تاریخهای «DatesB» چقدر با هر تاریخ مشخصی مرتبط هستند. فرآیند دستیابی به این امر چگونه است؟
|
همبستگی تاریخ SPSS
|
91212
|
من یک ماتریس پراکنده و باینری از کاربر (ردیف ها) و آیتم ها (ستون ها) دارم. هر عنصر این ماتریس یا 0 یا 1 است: نیاز(ماتریس) set.seed(42) ردیف <- 10 cols <- 2 غیر صفر <- 20 x <- sparseMatrix(i = نمونه (1: ردیف، غیرصفر، جایگزین= TRUE)، j = نمونه (1:cols، non_zero، replace=TRUE)، x=1) colnames(x) <- حروف[1:ncol(x)] x <- sign(x) print(x) 10 x 2 پراکنده ماتریس کلاس dgCMatrix a b [1،] . . [2،] 1 1 [3،] . 1 [4،]. . [5،] 1 1 [6،] . 1 [7،] 1. [8،] 1 1 [9،] . 1 [10،] 1 1 (در واقع من حدود 1e7 سطر، 1e6 ستون و حدود 1e8 عنصر در این ماتریس دارم) من می خواهم آنتروپی شانون را بین هر ستون این ماتریس محاسبه کنم (همانطور که در اینجا توضیح داده شده است). من می خواهم این کار را با استفاده از عملیات ماتریس پراکنده انجام دهم، زیرا استفاده از عملیات ماتریس متراکم در ماتریسی با این اندازه بسیار ناکارآمد خواهد بود. محاسبه فرکانس های مختلف جداول مورد نیاز بسیار آسان است، به عنوان مثال: تعداد A و B: a_and_b <- crossprod(x) print(a_and_b) 2 x 2 ماتریس پراکنده از کلاس dsCMatrix a b a 5 4 b 4 7 B، نه A شمارش می شود. و A، B به حساب نمی آیند: b_not_a <- crossprod(sign(a_and_b)، مورب(x=diag(a_and_b))) a_not_b <- t(b_not_a) a_not_b <- a_not_b - a_and_b b_not_a <- b_not_a - a_and_b print(a_not_trix ma2x) a b a 0 1 b 3 0 print(b_not_a) 2 x 2 پراکنده ماتریس کلاس dgCMatrix a b a 0 3 b 1 0 و در نهایت، A نه B به حساب نمی آید: not_a_b <- crossprod( sign(a_and_b), Diagonal(n=ncol (a_and_b)، x=nrow(x)) ) - a_not_b - b_not_a - a_and_b print(not_a_b) 2 x 2 پراکنده ماتریس کلاس dgCMatrix a b a 5 2 b 2 3 من می توانم این 4 ماتریس اقتضایی (A و B، A نه B، نه B، نه A، نه A و نه B) را بسیار محاسبه کنم. سریع، حتی در ماتریس های بزرگ. چگونه می توانم از آنها برای محاسبه آنتروپی شانون بین هر آیتم (ستون) ماتریس x اصلی خود استفاده کنم؟ خروجی نهایی باید چیزی شبیه به این باشد: a b a 0.43 0.89 b 0.96 0.64
|
آنتروپی شانون را بین هر ردیف از یک ماتریس بزرگ و پراکنده محاسبه کنید
|
103708
|
به عنوان بخشی از یک دوره در مورد مشاهدات گمشده در آمار اجتماعی/پیمایشی، من سعی می کنم روش های موجود برای پیش بینی الگوی نقطه یا داده های چندضلعی را کشف کنم. من با تمام اصطلاحات مختلف و رسمی سازی های مورد استفاده در **زمین آماری** (بیشتر در سمت کریجینگ) از یک سو و **آمار مکانی/اقتصادسنجی** (بیشتر در سمت رگرسیون) از سوی دیگر کاملاً گیج شدم. تا اینجا فهمیدم که **خودرگرسیون فضایی** و **کریجینگ** * به دنبال پیش بینی فضایی هستند، * بر ماتریس کوواریانس واریانس (یا واریوگرام) تکیه دارند - به عبارت دیگر، آنها بر خود همبستگی فضایی تکیه می کنند * و تا آنجا که به کریجینگ_جهانی مربوط می شود، یک روند اساسی به اضافه باقیمانده های تصادفی را فرض کنید. با این حال، به نظر می رسد کریجینگ در درجه اول برای الگوهای نقطه ای با مناطق پیوسته استفاده می شود در حالی که خودرگرسیون فضایی شامل تجمع پدیده ها در چند ضلعی ها است. * * * بنابراین در اینجا سؤالات من وجود دارد: * آیا ساختار فضایی زیرین تنها تفاوت بین این دو است؟ * آیا فرمول های مدل ریاضی معادل برای کریجینگ جهانی و خودرگرسیون فضایی وجود دارد؟ * آیا کریجینگ جهانی منطقه به ناحیه دقیقاً مشابه مدلهای پیشبینی با استفاده از خودرگرسیون خطای مکانی است؟
|
تفاوت بین مدل های کریجینگ (جهانی) و خودرگرسیون فضایی چیست؟
|
100018
|
من یک سوال سریع دارم آزمون عملی که من در مورد آن سوال دارم **لینک زیر** است و **اولین سوال** همانطور که می بینید **ستون (3) و (4)** روی جدول هر دو یکسان هستند به جز متغیر ساختگی که آنها حذف می کنند متفاوت است. از ما خواسته شده است که ضرایب و خطاهای استاندارد را برای رگرسیون جدید که متغیر حذف شده را تغییر می دهد کار کنیم و من همه ضرایب جدید را کار کرده ام اما نمی دانم چگونه **خطاهای استاندارد جدید** را حل کنم. از 4 متغیر ساختگی مکان. امتحان عملی - q مربوطه سوال 1 است
|
تغییر متغیری که به دلیل تله متغیر ساختگی حذف می کنید
|
109274
|
امیدوارم عنوان به خودی خود توضیح دهد، اما اساساً میخواهم بدانم کدام روش بهتر است: آیا استفاده از PCA برای کاهش تعدادی از متغیرهای پاسخ Y و سپس انجام یک رگرسیون چند متغیره یا انجام یک رگرسیون چند متغیره با استفاده از آن منطقی است. همه متغیرهای پاسخ همانطور که هستند؟ متغیرهای من همگی پیوسته هستند. من تجزیه و تحلیل در R انجام خواهد شد. پیشاپیش متشکرم!
|
رگرسیون چند متغیره یا PCA برای کاهش متغیرهای پاسخ؟
|
23267
|
من باید توانایی دو روش برای پیش بینی یک رویداد را با یک پاسخ باینری مقایسه کنم. هر روش یک امتیاز تولید می کند، که در آن نمره بالاتر نشان دهنده 1 و نمره پایین تر نشان دهنده 0 است. من به دنبال محاسبه نسبت شانس (در تحلیل تک متغیره و چند متغیره) برای مقایسه این روش ها هستم. روش 1: احتمال بین 0 و 1. روش 2: امتیاز بین 0 تا 12 در تجزیه و تحلیل تک متغیره، OR برای روش 1 بسیار بزرگ خواهد بود، اما برای روش 2 بسیار کوچک خواهد بود. من فکر میکنم که چون این دو روش مقیاسهای متفاوتی دارند، نسبتهای شانس بسیار متفاوت میشوند. افزایش واحد برای روش یک باید 0.1 باشد، در حالی که برای روش دو 1 است. راه حل های ممکن این است که هر دو روش را باینریزه کنید، با انتخاب یک برش، سپس همه چیز در مقیاس 0 و 1 است و OR قابل مقایسه است، با این حال وقتی اطلاعات را از دست می دهید. شما این کار را انجام دهید همچنین، انتخاب یک برش عینی می تواند دشوار باشد. آیا پیشنهادی برای مقایسه نسبت شانس متغیرهای پیوسته و گسسته وجود دارد؟
|
مقایسه نسبت شانس متغیرهای پیوسته و گسسته
|
111957
|
داشتم یادداشت های سخنرانی CS229 اندرو نگ (صفحه 12) را در مورد توجیه ریسک ضرر مجذور به عنوان وسیله ای برای تخمین پارامترهای رگرسیون می خواندم. آندرس توضیح می دهد که ابتدا باید فرض کنیم که تابع هدف $y^{(i)}$ را می توان به صورت زیر نوشت: $$ y^{(i)} = \theta^Tx^{(i)} + \epsilon^ {(i)}$$ که $e^{(i)}$ عبارت خطایی است که جلوههای مدلنشده و نویز تصادفی را نشان میدهد. بعلاوه فرض کنید که این نویز به صورت $\epsilon^{(i)} \sim \mathcal{N}(0, \sigma^2)$ توزیع شده است. بنابراین: $$p(e^{(i)}) = \frac{1}{\sqrt{2\pi\sigma}}exp \left( \frac{-(e^{(i)})^2 {2\sigma^2} \right) $$ بنابراین میتوانیم ببینیم که عبارت خطا تابعی از $y^{(i)}$، $x^{(i)}$ و $\theta$ است. در: $$e^{(i)} = f(y^{(i)}، x^{(i)}؛ \theta) = y^{(i)} - \theta^Tx^{(i)} $$ بنابراین می توانیم معادله فوق را جایگزین $e^{(i)}$$$p(y^{(i)} - \theta^Tx^{(i)}) = \frac{1}{\sqrt{2\pi\sigma}}exp \left( \frac{-(y^{(i)} - \theta^Tx^{(i)})^2}{2\ sigma^2} \right)$$ اکنون می دانیم که: $p(e^{(i)}) = p(y^{(i)} - \theta^Tx^{(i)}) = p(f(y^{(i)}, x^{(i)}; \theta))$ که تابعی از متغیرهای تصادفی $x^{(i)}$ و $y^{(i) است. }$ (و متغیر غیر تصادفی $\theta$). سپس اندرو $x^{(i)}$ را به عنوان متغیر شرطی ترجیح می دهد و می گوید: $p(e^{(i)}) = p(y^{(i)} \mid x^{(i)} )$ با این حال، به نظر نمی رسد که من نمی توانم توجیه کنم که چرا او می گوید که از f به تنهایی استفاده می کند. یعنی با استفاده از $f(y^{(i)}، x^{(i)}؛ \theta)$ به نظر نمی رسد که هیچ متغیری را شرطی کند (یا حداقل در آن شکل). مشکلی که من با نتیجه گیری او دارم این است که فقط با معادله: $$\frac{1}{\sqrt{2\pi\sigma}}exp \left( \frac{-(e^{(i)}) ^2}{2\sigma^2} \right)$$ من واقعاً نتوانستم ببینم چرا $p(e^{(i)}) = p(x^{(i)} \mid y^{(i)})$. به نظر می رسد معادله Normal در $x^{(i)}$ و $y^{(i)}$ متقارن است. چرا طرفدار $p(y^{(i)} \mid x^{(i)})$ و نه $p(x^{(i)} \mid y^{(i)})$ هستید. علاوه بر این، اگر وضعیت یادگیری تحت نظارت باشد، هر دو جفت $(x^{(i)}، y^{(i)})$ را دریافت خواهیم کرد، درست است؟ اینطور نیست که اول یکی را بگیریم و بعد دیگری را. اساسا، من فقط سعی می کنم بفهمم که چرا $p(y^{(i)} \mid x^{(i)})$ و نه $p(x^{(i)} \mid y^{(i) })$.
|
تفسیر احتمالی رگرسیون برای توجیه تابع زیان مجذور
|
35215
|
الگوریتم ذکر شده در ویکی پدیا دارای یک خط $$s_t = \alpha \frac{x_t}{c_{t-L}} + (1-\alpha) (s_{t-1} + b_{t-1})$$ است. برای $1 < t < L$ چگونه باید $c_{t-L}$ را تفسیر کنیم؟ در آن بازه، باید آن را با $c_t$ جایگزین کنیم؟
|
شفاف سازی در تعریف الگوریتم Holt-Winters
|
58601
|
من تخمین های زیر را از یک مدل اثرات ثابت دارم: Open=β0+ β1Pol_r+ β2Infr+ β3Nat_re+ δ4SACU+ɤi+εit Open_ln=β0+ β1Pol_r+ β2Infr+ β3Nat_re+ δ4SACU+ɤi+εit که در آن باز بودن یک کشور اندازه گیری می شود. ((واردات+صادرات)/GDP)*100، Open_ln لگاریتم طبیعی Open است. SACU یک متغیر ساختگی است که برای کشورهایی که در یک سال خاص به عضویت یک منطقه تجارت آزاد درآمده اند، مقدار 1 را دریافت می کند. چگونه می توانم متغیر ساختگی را زمانی که Open به شکل سطح است تفسیر کنم؟ چگونه می توانم متغیر ساختگی را وقتی که Open در فرم log است تفسیر کنم؟ من ضریب SACU را در حالت اول 45.37 و در حالت دوم ضریب SACU 0.566 را دریافت می کنم.
|
تفسیر متغیر ساختگی زمانی که متغیر وابسته به درصد و log باشد
|
109276
|
فرض کنید از یک آزمایش قبلی با یک جدول حقیقت شناخته شده از طبقه بندی اشتباه ورودها به صورت جداگانه. $$ \begin{array}{c|lcr} \text{Truth}/\text{Observed} & \text{Al (M)} & \text{Ben (M)} & \text{Claire (F)} & \cdots\\\ \hline \text{Al (M)} & 10 & 2 & 4 & \cdots\\\ \text{Ben (M)} و 5 و 20 و 6 & \cdots\\\ \text{Claire (F)} & 3 & 1 & 30 & \cdots\\\ \vdots & \vdots & \vdots & \vdots & \ddots \\\ \end {آرایه} $$ (مثالی در اینجا برای 3x3 برای اهداف تصویری نشان داده شده است، جدول واقعی به طور قابل توجهی بزرگتر است. جمعیت شناسی را می توان سن + جنسیت نیز.) آیا راهی برای استفاده از جدول کالیبراسیون حقیقت برای کمک به استنباط تعداد واقعی تخمینی افراد منحصر به فرد از یک مطالعه بزرگتر وجود دارد که در آن فقط افراد منحصر به فرد مشاهده شده بر اساس جمعیت و تعداد مشاهده شده ورود به سیستم بر اساس جمعیت شناختی شناخته شده است؟ مثال: $$ \begin{array}{c|lcr} \text{Observed} & \text{Unique Indv.} & \text{Total Logins} \\\ \hline \text{M} & 257 & 5588 \\ \ \text{F} & 603 & 4412 \\\ \vdots & \vdots & \vdots \\\ \end{آرایه} $$ $$ \begin{array}{c|lcr} \text{حقیقت تخمینی} & \text{Unique Indv.} \\\ \hline \text{M} و ? \\\ \text{F} و ? \\\ \vdots & \vdots \\\ \end{array} $$
|
تخمین تعداد افراد منحصر به فرد
|
43851
|
من دو گروه 10 نفره دارم که در طول یک آزمایش سه بار مورد ارزیابی قرار گرفتند. برای آزمایش تفاوتهای بین گروهها و در سه ارزیابی، من یک ANOVA طرح ترکیبی 2×3 با «گروه» (شاهد، آزمایش)، «زمان» (اول، دوم، سه)، و «زمان x گروه» اجرا کردم. زمان و گروه هر دو معنی دار شدند، علاوه بر این یک تعامل معنی دار گروه x زمان وجود داشت. من به خوبی نمی دانم چگونه می توانم برای بررسی بیشتر تفاوت بین سه بار ارزیابی، همچنین با توجه به عضویت در گروه اقدام کنم. در واقع، من در ابتدا فقط در گزینه های ANOVA برای مقایسه تمام جلوه های اصلی با استفاده از اصلاح Bonferroni مشخص کردم. با این حال، بعد متوجه شدم که به این ترتیب آنها تفاوت های زمانی کل نمونه را بدون تمایز گروهی مقایسه کردند، درست است؟ بنابراین، من برای یافتن راه حل احتمالی، اما با نتایج کمیاب، در اینترنت بسیار جستجو کردم. من فقط 2 مورد مشابه مورد خودم پیدا کردم، اما راه حل های آنها برعکس است! 1. در یک مقاله، پس از طراحی ترکیبی، نویسندگان 2 اندازه گیری مکرر ANOVA را به صورت پسهک اجرا کردند، یکی برای هر گروه از افراد. اینجوری دو گروه بدون هیچ اصلاحی جداگانه تحلیل میشن، درست میگم؟ 2. در یک راهنمای در اینترنت، آنها می گویند که به صورت دستی در دستور SPSS «COMPARE(time) ADJ(BONFERRONI)»، درست بعد از «/EMMEANS=TABLES(newgroup*time)»، در حالی که ANOVA ترکیبی را اجرا می کنید، اضافه کنید. به این ترتیب سه زمان برای هر گروه جداگانه با تصحیح بونفرونی مقایسه می شود، درست می گویم؟ نظر شما چیست؟ کدام راه درست برای ادامه خواهد بود؟
|
آزمون تعقیبی در ANOVA طرح مختلط 2x3 با استفاده از SPSS؟
|
115277
|
تصور کنید که من سعی می کنم قیمت خانه را با مدل زیر تخمین بزنم: $Y_p=1 + \beta_{سطح} * X_{سطح} + \beta_{نیویورک}*X_{نیویورک} + \beta_{بوستون}*X_ {Boston} $ با $X_{Boston}$ یک متغیر ساختگی اگر در بوستون باشد به عبارت دیگر، من فرض میکنم که قیمت خانه به صورت خطی با سطح همبستگی دارد. منطقه، و اینکه میانگین قیمت در بوستون و نیویورک متفاوت است. حالا میخواهم خانهای بین بوستون و نیویورک اضافه کنم. من میتوانم هم $X_{New York}$ و هم $X_{Boston}$ را روی 0.5 تنظیم کنم. اما من در اینجا کمی گیر کرده ام، زیرا اکنون پیش بینی کننده دیگر ساختگی نیست بلکه یک متغیر پیوسته است. چه کاری باید انجام دهم تا همه خانه های بین نیویورک و بوستون را شامل شود و همچنان تفاوت میانگین قیمت بین دو شهر را بدانم؟
|
چگونه می توانم یک متغیر از 0 تا 1 را در یک مدل خطی پیوسته قرار دهم
|
87904
|
اساساً من حداکثر، شمارش، میانه و صدک 95 را برای هر ساعت برای یک جریان داده از قبل از پیش محاسبه شده از یک گردش کار ساعتی دارم. آیا می توانم از این 24 عکس فوری برای بدست آوردن میانگین تقریبی و صدک 95 روز استفاده کنم؟ آیا راهی / فرمول یا تکنیکی برای انجام این کار وجود دارد؟ ویرایش: متاسفم که باید اطلاعات مربوط به توزیع را می دادم. این یک زمان بندی عملکرد صفحه وب مربوط به داده است. من آن را تقریباً عادی فرض می کنم.
|
آیا راهی برای محاسبه صدک های روزانه (میانگین و 95) با استفاده از صدک های 24 ساعته وجود دارد؟
|
109273
|
من روی ایجاد یک تجزیه و تحلیل خوشه ای برای برخی از داده های بسیار اساسی در r برای ویندوز [نسخه 6.1.76] کار می کنم. خود گروه ها کشورها هستند و سپس من 2 ستون با متغیرهای عددی پیوسته دارم. من یک روش سلسله مراتبی بخش را برای داده ها اعمال کرده ام. واقعاً تلاش برای رسیدن به آن است که فقط متغیر اول را در نظر می گیرد و دومی را نادیده می گیرد. آیا راهی برای گنجاندن هر دو متغیر در محاسبات خوشه بندی وجود دارد؟ داده های من شبیه به این کشور است - Var 1 - Var 2 US - 10 - 20 Canada - 5 - 30 ....
|
ایجاد تحلیل خوشه ای بر روی متغیرهای متعدد
|
64678
|
من یک مجموعه داده واقعی دارم `275, 13, 147, 23, 181, 30, 65, 10, 300, 173, 106, 300, 300, 212, 300, 300, 300, 2, 232,8,29 , 28, 143, 300، 23، 300، 80، 245، 266` و سعی کنید با استفاده از حداکثر احتمال، توزیع Weibull را برازش دهید. من از «Mathematica» برای تجزیه و تحلیل استفاده کردم و «Mathematica» تخمین پارامترهای توزیع Weibull را به صورت $\alpha=1.07484، \beta=171.242،\gamma=9.46641$ می دهد که در آن $\alpha،\beta$ و $\gamma$ هستند. پارامترهای شکل، مقیاس و مکان به ترتیب. حالا دو سوال من این است: 1. اگر CDF توزیع Weibull را با استفاده از پارامترهای تخمین زده شده برای حداقل مقدار مجموعه داده پیدا کنم، پاسخ صفر است که واضح است اما برای مقدار حداکثر پاسخ 0.828829 می شود، چرا یک نیست؟ 2. چگونه می توانم مقدار تخمینی را با استفاده از این تخمین های پارامتر پیدا کنم؟ توجه داشته باشید. مشکل سوال 1 برای توزیع های دیگر نیز رخ می دهد. در اینجا توزیع Weibull به عنوان مثال در نظر گرفته شده است. کدهای «Mathematica» و نتیجه اینجا هستند
|
مشکل اتصالات توزیع
|
35218
|
اساساً چیزی که میخواهم به آن برسم این است که دادههای زیادی را از مسابقات یک بازی خاص بگیرم و آن را با شانس مقایسه کنم، به عنوان مثال، میخواهم ببینم آیا یک مسابقه چرخاندن سکه نتایج مشابهی خواهد داشت یا خیر. یا به عبارت دیگر، آیا هر بازیکن معینی 50% شانس برنده شدن در برابر هر بازیکن دیگری را دارد، و در ابتدا همه آنها شانس مساوی برای برنده شدن در یک تورنمنت دارند (به دلیل سطح مهارت برابر، تصادفی بودن بیش از حد در بازی، یا دلایل دیگر، مهم نیست). ما بازیکنانی داریم که یک بار، بیش از یک بار یا هرگز قهرمان نشده اند. من فرض میکنم که این اتفاق در یک تورنمنت چرخاندن سکه نیز رخ میدهد. درک من از آمار در بهترین حالت ابتدایی است، بنابراین سوال اول این است که آیا این امکان وجود دارد که بررسی کنیم که آیا تفاوتهای مهارتی واقعی با هم داریم و میتوانیم احتمال برنده شدن برخی بازیکنان در آینده را پیشبینی کنیم؟ یا فقط شانس 50/50 خالص داریم؟ اگر بله، روش چیست؟ یا شاید، قبل از شروع آن چه چیزی را باید مطالعه کنم؟
|
مقایسه نتایج مسابقات با شانس
|
87905
|
من یک جدول احتمالی دارم و میخواهم از آن برای ارزیابی نتایج روش خوشهبندی خود استفاده کنم (مانند RandIndex). من همچنین نویزهایی در داده های خود دارم که به عنوان NOISE برچسب گذاری شده اند و بدیهی است که آنها نباید خوشه بندی شوند. سوال من این است: آیا باید یک ردیف در جدول احتمالی اضافه کنم؟ یا سر و صدا را نادیده بگیرید. علاوه بر این، آیا تعداد نقاط نویز را برای جمع سطرها و ستون ها در نظر بگیرم؟ به عنوان مثال، من جدول احتمالی زیر را دارم:  داده مصنوعی من دارای یک برچسب کلاس (NoiseA) است که می دانم نویز است. . روش خوشه بندی من نیز برخی از نقاط داده را به عنوان نویز پیدا می کند که من آن را به عنوان NoiseC نامیدم. می خواهم بدانم برای محاسبه RandINdex و سایر معیارهای ارزیابی باید نقاط داده نویز را برای محاسبه TP/TN/FP/FN در نظر بگیرم یا محاسبه شده یا داده های واقعی؟
|
جدول احتمالی و نویز
|
95797
|
**راهبرد مناسب برای تقسیم مجموعه داده چیست؟** _من در مورد رویکرد زیر درخواست بازخورد میکنم (نه در مورد پارامترهای فردی مانند «test_size» یا «n_iter»، اما اگر از «X»، «y»، «استفاده کنم. X_train، «y_train»، «X_test» و «y_test» به طور مناسب و اگر دنباله منطقی باشد): (بسط این مثال از scikit-learn مستندات) ### 1\. مجموعه داده را از sklearn.datasets وارد کنید load_digits digits = load_digits() X, y = digits.data, digits.target ### 2\. تقسیم به مجموعه آموزشی و آزمایشی (مثلاً 80/20) از sklearn.cross_validation import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) ### . برآوردگر را از sklearn.svm انتخاب کنید SVC estimator = SVC(kernel='linear') ### 4\. تکرار کننده اعتبار متقابل را از sklearn.cross_validation import انتخاب کنید ShuffleSplit cv = ShuffleSplit(X_train.shape[0], n_iter=10, test_size=0.2, random_state=0) ### 5\. هایپرپارامترها را با اعمال تکرار کننده اعتبار متقابل روی **مجموعه آموزشی** از sklearn.grid_search import وارد کردن GridSearchCV numpy به صورت np گاما = np.logspace(-6, -1, 10) طبقه بندی کننده = GridSearchCV(estimator=estimator,) تنظیم کنید. =cv، param_grid=dict(گاما=گاما)) classifier.fit (X_train, y_train) ### 6\. الگوریتم اشکال زدایی با منحنی یادگیری «X_train» به طور تصادفی به یک مجموعه آموزشی و یک مجموعه آزمایشی 10 بار تقسیم میشود («n_iter=10»). هر نقطه در منحنی امتیاز آموزش میانگین 10 امتیاز است که در آن مدل در اولین نمونه های آموزشی _i_ آموزش دیده و ارزیابی شده است. هر نقطه در منحنی امتیاز اعتبار متقاطع میانگین 10 امتیاز است که در آن مدل بر روی اولین نمونههای آموزشی _i_ آموزش دیده و بر روی تمام نمونههای مجموعه آزمون ارزیابی شده است. from sklearn.learning_curve import learning_curve title = 'منحنیهای یادگیری (SVM، هسته خطی، $\gamma=%.6f$)' %classifier.best_estimator_.gamma estimator = SVC(kernel='خطی', gamma=classifier_.best_maim) ) plot_learning_curve(Etimator, title، X_train، y_train، cv=cv) plt.show()  plot_learning_curve() را می توان در نسخه توسعه دهنده فعلی scikit یافت -learn (0.15-git). ### 7\. ارزیابی نهایی در مجموعه آزمون classifier.score (X_test، y_test) ### 7a. تست بیش از حد برازش در انتخاب مدل با اعتبارسنجی متقابل تودرتو (با استفاده از کل مجموعه داده) از sklearn.cross_validation import cross_val_score cross_val_score (طبقه بندی، X، y) **سوال اضافی:** _آیا جایگزین کردن مرحله 7 با متقاطع تودرتو منطقی است اعتبار سنجی؟ یا باید cv تودرتو به عنوان مکمل مرحله 7_ در نظر گرفته شود (به نظر می رسد کد با اعتبار سنجی متقاطع k-fold در scikit-learn کار می کند، اما نه با shuffle & split. بنابراین «cv» باید در بالا تغییر کند تا کد کار کند) ### 8\. آموزش مدل نهایی در کل مجموعه داده classifier.fit(X, y) EDIT: اکنون با cbeleites موافقم که مرحله 7a در این دنباله چندان معنی ندارد. بنابراین من آن را قبول نمی کنم.
|
چگونه مجموعه داده را برای اعتبارسنجی متقابل، منحنی یادگیری و ارزیابی نهایی تقسیم کنیم؟
|
92741
|
من در تلاش برای درک اشتقاق مرز تصمیم SVM بودم. فرض کنید مرز تصمیم من 'y-x-1=0' باشد. حالا در کتاب نوشته شده بود که `(y-x-1) = +/-(1)` معادله حداکثر حاشیه است. اما سوال من این است که چرا فاصله 1 را از مرز تصمیم انتخاب می کنیم؟ از کجا می دانیم که می توانیم بردارهای پشتیبانی را فقط در فاصله +/-(1) از مرز تصمیم گیری کنیم؟ علاوه بر این، چگونه می توانیم بگوییم که اگر بتوانیم بردار پشتیبان را در فاصله 1+ از مرز تصمیم بزنیم، آنگاه دقیقاً در -1 خواهد بود (و نه در -3، -5، -10... و غیره. برای این موضوع)؟ یعنی چگونه مطمئن هستیم که دقیقاً در +/-(1) در هر دو طرف از مرز تصمیم میتوانیم بردارهای پشتیبانی را بزنیم.
|
شرایط مرزی تصمیم گیری SVM: مسئله اشتقاق
|
63023
|
من یک مجموعه داده بزرگ با تعداد زیادی متغیر دارم. عدم وجود ~25% در برخی متغیرها، بسیاری از متغیرها بدون گم شدن. قضاوت در مورد یکنواختی الگوی گمشده برای انتخاب روش انتساب چندگانه مهم است. من دیده ام که برخی منابع در مورد الگوهای یکنواخت یا تقریبا یکنواخت صحبت می کنند. اما چگونه یکنواخت یکنواخت است، و چگونه می دانید، غیر از نگاه کردن؟ هر متنی که دیدهام، توجه به الگوها را توصیه میکند. اما آیا ابزاری برای خلاصه کردن آماری یکنواختی وجود ندارد (مثلاً مجموع تعلق، الگوی اصلی گمشده کنترل کننده تعلق به الگوهای دیگر)؟ من در هیچ متنی چنین چیزی ندیده ام، اما شاید من فقط آن را از دست داده ام. اگر ماتریس دادهها را طوری سازماندهی کنم که تعداد اندازهگیریهای از دست رفته در یک الگوی یکنواخت را به حداکثر برسانم، حدود 35 درصد اندازهگیریها در الگو دارم. (سایر اندازهگیریها چیزی شبیه به الگوی پنکه مشابه آنچه در اینجا مشاهده میشود نشان میدهند. چگونه میتوانم تصمیم بگیرم که آیا این به اندازه کافی یکنواخت است تا آن را برای هدف MI در نظر بگیرم؟ میدانم که میتوانم MI را نیز در دو مرحله به ترتیب انجام دهم. برای جداسازی الگوی یکنواخت، سپس دوباره MI را با یک روش یکنواخت اجرا کنید.
|
ابزاری برای تعیین یکنواختی الگوی مفقود شده غیر از چشمک زدن؟ و برای انتساب چندگانه چقدر یکنواخت است؟
|
49563
|
چگونه یک توزیع دو جمله ای را مدل می کند که در آن احتمال موفقیت نتیجه توزیع دو جمله ای دیگر است. به عنوان مثال، بگویید من بارها 10 سکه پرتاب می کنم و تعداد سرها را ثبت می کنم (_H_). سپس به ازای هر ست (_i_) 10 پرتاب سکه، تیله های سیاه _Hi_ و 10- Hi_ را در یک شیشه ریختم و با جایگزینی 50 عدد کش انجام دادم. چگونه می توانم توزیع نقشه های مرمر سیاه را با در نظر گرفتن وابستگی آنها به توزیع دوجمله ای قبلی که احتمال موفقیت آنها را ایجاد می کند، مدل کنم.
|
توزیع دو جمله ای که در آن احتمال موفقیت به توزیع دو جمله ای دیگر وابسته است
|
6779
|
پیشاپیش پوزش می طلبم - من کمی با R مبتدی هستم، اما هفته هاست که در گوگل جستجو می کنم و پاسخ مستقیمی پیدا نکرده ام. **مشکل** اساساً من به دنبال ترسیم نسبت ها با فواصل اطمینان آنها بر روی جعبه و سبیل ها با استفاده از محیط R هستم. به عنوان مثال، نتایج binom.test (100,1000) و binom.test (125,1000) را ترسیم کنید. بهترین بسته (من ترجیحی برای انجام این کار ندارم) چیست؟
|
ترسیم نسبتهای دو جملهای روی جعبه و رسم سبیل با استفاده از R
|
95793
|
آیا دلیلی وجود دارد که هنگام خوشهبندی با روش وارد، تفاوتها را مربعسازی کنیم یا نه؟ انگیزه این سوال عبارت زیر در مستندات تابع 'hclust()' R است: > دو الگوریتم مختلف در ادبیات خوشه بندی Ward یافت می شود. > موردی که توسط گزینه ward.D استفاده می شود (معادل تنها گزینه Ward > ward در نسخه های R <= 3.0.3) معیار خوشه بندی Ward (1963) را اجرا نمی کند، در حالی که گزینه ` ward.D2` این معیار را اجرا می کند > (Murtagh and Legendre 2013). با دومی، تفاوتها قبل از بهروزرسانی خوشه > _مربع_ میشوند. آیا مربع کردن الگوریتم را بهبود می بخشد؟
|
آیا در هنگام استفاده از خوشه بندی Ward مزیتی برای مربع کردن تفاوت ها وجود دارد؟
|
59578
|
برای درک تفاوت بین دو تضاد مختلف برای متغیرهای دوگانه از شما کمک می خواهم. در این صفحه: http://www.psychstat.missouristate.edu/multibook/mlt08.htm تحت متغیرهای پیش بینی دوگانه، دو راه برای کدگذاری پیش بینی کننده های دوگانه وجود دارد: با استفاده از کنتراست 0،1 یا کنتراست 1،-1. . من به نوعی تمایز را در اینجا درک می کنم (0،1 کدگذاری ساختگی است و 1،-1 به یک گروه اضافه می کند و از گروه دیگر کم می کند) اما نمی دانم از کدام یک در رگرسیون استفاده کنم. به عنوان مثال، اگر من دو پیش بینی کننده دوگانه داشته باشم، جنسیت (m/f) و ورزشکار (y/n)، می توانم از کنتراست 0.1 در هر دو یا 1،-1 در هر دو استفاده کنم. تفسیر یک اثر اصلی یا یک اثر متقابل هنگام استفاده از دو تضاد مختلف چگونه خواهد بود؟ آیا این بستگی به این دارد که سلول های من اندازه های متفاوتی داشته باشند؟
|
کدگذاری ساختگی برای کنتراست ها: 0،1 در مقابل 1،-1
|
6773
|
من یک مدل رگرسیون لجستیک در GeoBugs برای تخمین پیش بینی کننده های شیوع یک بیماری دارم. آیا کسی می تواند به من بگوید که آیا یک راه ساده برای تعیین مرزهای پایین و بالای ph برای spatial.exp وجود دارد یا خیر. این بخشی از مدل است: Infected[i] ~ dbin(p[i]، تست شده[i]) logit(p[i]) <- آلفا + beta1*covar1[i] + beta2*covar2[i] + u [i] mu[i] <- 0 u[1:N] ~ spatial.exp(mu[], x[], y[], tau, phi, 1) به این ترتیب من پیشین ها را مشخص کرده ام: phi ~ dunif(0.25, 20) در حال حاضر انتخاب من دلخواه بوده است. کتابچه راهنمای GeoBugs فقط تا آنجا پیش می رود که می گوید مرزهای توزیع توسط داده ها تعیین می شود. آنچه من می خواهم بدانم این است که یک نسخه ساختگی از بهترین راه برای انتخاب مقادیر وجود دارد.
|
تحلیل زمین آماری با استفاده از spatial.exp در WinBugs
|
109272
|
من در حال کار بر روی مدل سازی فروش بلیط برای یک رویداد خاص در طول زمان هستم. مشکلی که من دارم این است که موجودی دوباره پر نمیشود، بنابراین نمیتوانم مدل من را در مورد آنچه واقعاً در دسترس دارم پیشبینی کند. به عنوان مثال، اگر من 100 بلیط در 30 روز عرضه داشته باشم و 20 بلیط بفروشم، باقی مانده استخری که باید از آن بفروشم فقط 80 بلیط است، بنابراین نمی توانم پیش بینی کنم که 90 بلیط در روز بعد بفروشم، زیرا 100 بلیط اصلی نیست. همه دیگر در دسترس نیست. آیا راهی برای در نظر گرفتن این موضوع در ساخت یک مدل وجود دارد؟
|
مدلسازی فروش R با موجودی غیر تکمیلی
|
95794
|
سه راننده و دو جاده X و Y وجود دارد. احتمال انتخاب جاده X برای همه رانندگان p است و احتمال انتخاب جاده Y برای همه رانندگان (1-p) است. برای محاسبه احتمال اینکه همه رانندگان جاده X را به طور همزمان انتخاب کنند p^3 است. با این حال، 3p چه چیزی را نشان می دهد؟ به طور شهودی به چه معناست؟
|
احتمال همزمان
|
114780
|
من سعی می کنم میانگین دو درمان را روی یک متغیر پیوسته با صفرهای زیاد مقایسه کنم. من یک تبدیل log(n+1) را امتحان کردم، اما من را به توزیع عادی نرساند. پیشنهادی دارید؟
|
مقایسه درمان با صفرهای زیاد
|
87903
|
من یک GLM را به داده های دوجمله ای با دو متغیر مستقل a و b برازش می کنم. من سعی کردهام یک GLM دوجملهای را با شکل «y~a+b+a*b» برازش کنم، به طوری که مشارکت دو متغیر و همچنین یک عبارت تعاملی را داشته باشم. این کار خوب است، اما در دادهها تأثیر «b» در مقایسه با «a» بسیار تدریجی است. بهترین تناسبی که من تاکنون امتحان کردهام، به سادگی «y~a+log(b+1)+a*log(b+1)» است (+1 به این دلیل است که b=0 برای برخی از نقاط داده) با یک تابع پیوند دوجملهای . آیا می توان از این به عنوان GLM استفاده کرد؟ فقط این است که من وقتی در اینترنت جستجو کردم این کار را انجام ندادهام، بنابراین نمیدانم دلیل موجهی وجود دارد که به نظر میرسد مردم فقط از چندجملهای استفاده میکنند. سوالی وجود دارد که به نظر می رسد در پست قبلی مرتبط باشد. برهم کنش ها و لگاریتم ها را در رگرسیون خطی تفسیر کنید. بنابراین من به هیچ وجه به این رابطه اطمینان ندارم.
|
با استفاده از GLM که در آن یک پیش بینی خطی و یکی لگاریتمی است
|
77855
|
آیا تست Shapiro Wilk روی انتهای توزیع نمونه حساس نیست؟ من چنین بیانیهای را روی کاغذ خواندهام اما نمیتوانم دلیل آن را از آمار آزمون W بفهمم. آیا کسی میتواند به من در درک این موضوع کمک کند؟
|
آیا تست Shapiro Wilk روی دم حساس نیست؟
|
43850
|
تقریباً هیچ ایده ای ندارم که دارم انجام می دهم. من دادههای نظرسنجی را در یک دوره زمانی 11 ساله و پایگاه دادهای از رویدادها بهطور ناهموار نمونهبرداری کردهام. میخواهم نشان دهم که آیا افزایش تعداد این رویدادها با افزایش درصد پاسخهای نظرسنجی مثبت مرتبط است یا نه (پاسخهای نظرسنجی «خیلی»، «نه خیلی»، «نه خیلی» و «اصلاً» رتبهبندی میشوند. من دو مورد اول را با هم به عنوان مثبت و دومی به عنوان منفی). تاریخهای نظرسنجی: http://puu.sh/1rj6l چگونه میتوان این دادههای نظرسنجی جمعآوریشده ناهموار را به یک سری زمانی معمولی تبدیل کرد؟ همانطور که می بینید، برخی از نقاط که در آن نظرسنجی ها بسیار نزدیک به هم هستند و برخی از آنها یک سال یا بیشتر فاصله دارند. آیا امکان تبدیل آن به این شکل وجود دارد؟ فاصله نهایی خیلی مهم نیست - کاری که من انجام میدهم جمع کردن تعداد رویدادها از آخرین فاصله زمانی است و دیدن اینکه چگونه تغییرات در آن عدد با تغییرات در پاسخهای افراد مرتبط است. من اکسل و SPSS را در اختیار دارم.
|
برای تبدیل یا تجزیه و تحلیل فواصل زمانی ناهموار به کمک نیاز دارید
|
73449
|
من باید توضیح دهم که میانگین اثرات جزئی (APEs) برای یک مخاطب غیرآماری بسیار عمومی (یعنی APE های مشتق شده از یک مدل پروبیت) چیست. من سعی کردم APE ها را با استفاده از اصطلاحات غیرمعمول تعریف کنم، اما به نظرم سخت است، لطفاً کسی می تواند در این مورد به من کمک کند؟
|
اثرات جزئی متوسط
|
49568
|
من یک داده تحقیقاتی با 3 سطح تجمیع دارم: سطح 1 فرد است، سطح 2 منطقه خانه و سطح 3 مدرسه است. این بدان معناست که سطوح به روش معمول تو در تو قرار نمی گیرند (سطح 1 در سطح 2 در سطح 3). در مورد من، سطح 1 در سطح 2 و همچنین در سطح 3 قرار دارد، اما سطح 2 و سطح 3 در داخل یکدیگر نیستند. آیا هنوز امکان تخمین رگرسیون hlm با چنین پیکربندی با تابع lme در R وجود دارد؟
|
آیا می توان سطوح غیر تودرتو در یک مدل چند سطحی را در R تخمین زد؟
|
92748
|
من یک مجموعه داده بزرگ متشکل از چندین قاب داده مستقل دارم مانند این Tiempo UT1 UT2 UT3 UT4 UT5 UT6 UT7 UT8 UT9 3082 616.2 0 4 0 1 1 0 0 0 0 3083 616.4 04 010 010 616.6 0 0 0 0 1 0 0 0 0 3085 616.8 0 1 0 1 2 0 0 0 0 3086 617.0 0 0 0 1 0 0 0 0 0 3087 3087 617.2 08 04 617.4 0 1 0 1 0 0 0 0 0 3089 617.6 0 1 0 1 1 0 0 0 0 3090 617.8 0 0 0 1 1 0 0 0 0 0 3091 618.0 018 010 01 618.2 0 0 0 2 1 0 0 0 0 3093 618.4 1 1 0 0 0 0 0 0 0 3094 618.6 0 0 0 16 4 0 0 0 0 0 0 3095 61114 0 0 0 0 0 3096 619.0 1 16 0 23 1 0 0 0 1 3097 619.2 0 6 0 9 0 0 0 1 0 3098 619.4 0 0 1 4 1 0 0 0 1 3099 0 0 0 1 0 1 4 1 0 0 0 1 3099 1 15 3 3100 619.8 0 21 23 25 0 21 8 22 16 3101 620.0 0 28 3 17 1 10 3 8 2 3102 620.2 0 3 2 7 0 534 29. یک 0 0 1 0 8 1 1 1 3108 621.4 0 0 0 2 0 10 0 2 2 3109 621.6 0 0 0 2 0 5 0 3 2 3110 621.8 0 0 0 0 10 0 2 0 0 2 0 5 0 3 2 3110 621.8 0 0 0 0 10 0 2 0 UT101 UT101 UT13 UT14 3082 5 0 0 0 3 3083 1 0 0 0 0 2 3084 0 0 0 0 1 3085 0 0 0 0 1 3086 0 0 0 0 0 2 3087 5 0 0 0 0 2 3087 5 0 0 08 3089 2 0 0 0 1 3090 0 0 0 0 0 3091 0 0 0 0 2 3092 1 0 0 0 1 3093 1 1 1 0 0 3094 4 2 0 0 0 0 0 0 0 0 0 2 3092 1 0 0 0 1 3093 1 1 1 0 0 3094 4 2 0 0 0 0 3095 1210 1 0 3 3097 4 2 0 1 5 3098 10 3 0 0 3 3099 10 1 12 0 1 3100 15 13 21 15 0 3101 11 6 6 14 2 3102 14 2 3102 13 3104 1 2 3 1 0 3105 2 4 1 2 0 3106 2 3 1 2 0 3107 0 0 1 2 0 3108 1 0 1 3 0 3109 0 2 1 2 0 3106 2 3 1 2 0 3107 0 0 1 2 0 3108 1 0 1 3 0 3109 0 2 1 2 0 3110 0 از طرح I در اینجا استفاده کنید. برای تجزیه و تحلیل من داده (UT4 در مقابل Tiempo):  هدف من این است که یک گاوسی چند قله ای برای هر ستون UT$_i قرار دهم $ به منظور بدست آوردن پارامترهای یک UT عمومی و استفاده از آن برای تجزیه و تحلیل آماری بیشتر. من در اینجا ایده هایی را با استفاده از «ksmooth» پیدا کرده ام که چندین قله را در یک مجموعه داده برازش می کند و اطلاعات اوج فردی را در R استخراج می کند، اما نتیجه ای که به دست آوردم یک تناسب یک وجهی از داده های من بود. امیدوارم با سوالم واضح گفته باشم. پیشاپیش از شما متشکرم.
|
تناسب گاوسی چند قله در R
|
92740
|
بدیهی است که فرض کنیم که عدم رد تهی دلالت بر درستی عدد صفر دارد. اما در موردی که صفر رد نمی شود و فاصله اطمینان متناظر (CI) باریک و حول محور 0 است، آیا این دلیل **** تهی نیست؟ من دو نظر دارم: بله، در عمل این شواهدی را ارائه می دهد که اثر کم و بیش 0 است. با این حال، در یک چارچوب دقیق آزمون فرضیه، به نظر می رسد که اثرات صفر به سادگی برای استنتاج غیرقابل استفاده هستند، همانطور که CI متناظر آنها نیز وجود دارد. بنابراین وقتی تخمین نقطه ای آن غیر قابل توجه است، معنای CI چیست؟ آیا برای استنباط نیز غیر قابل استفاده است یا می توان از آن مانند مثال قبل برای کمی کردن شواهد برای تهی استفاده کرد؟ پاسخ با منابع علمی تشویق می شود.
|
آیا یک فاصله اطمینان محدود در اطراف یک اثر غیر قابل توجه می تواند شواهدی برای صفر ارائه دهد؟
|
38567
|
اگر یک متغیر تصادفی پیوسته $X$ دارای توزیع متقارن در حدود 0 باشد، توزیع شرطی $X$ با توجه به $|X|$ چقدر است؟
|
توزیع مشروط $X$ با توجه به $|X|$
|
5058
|
در یک آزمایش اجتماعی که انجام می دادم، سعی کردم تعداد افرادی را که هر کاربر در یک بازه زمانی 10 روزه با آنها تماس گرفته است، بشمارم. اندازه جمعیت برای آزمایش 100 نفر بود. بر اساس مقادیری که محاسبه کردم، توزیع دوجمله ای منفی را به داده ها برازش می کنم (نمودار Q-Q در زیر آورده شده است). عقل متعارف می گوید که بیشتر شبکه ها در بین انسان ها از توزیع قانون قدرت پیروی می کنند. من حدس میزنم که اندازه جمعیت من برای نتیجهگیری کامل در مورد هر چیزی خیلی کوچک است، اما آیا هیچ نوع رابطهای بین توزیع دوجملهای منفی و توزیع قانون توان وجود دارد؟ من این را به این دلیل میپرسم که چند روز پیش خواندم که توزیع عادی و توزیع گاما (که آنالوگ گسسته آن دوجملهای منفی است) نقش ویژهای دارند که بسیاری از توزیعهای دیگر را میتوان از توزیع گاما مشتق کرد. من نمی دانم که آیا این حتی با توزیع قانون قدرت هم درست است؟ من در آمار مبتدی هستم، بنابراین اگر از مسیر درست خارج شدم، لطفاً مسیر درست را به من نشان دهید. 
|
آیا رابطه ای بین قانون توان و توزیع دوجمله ای منفی وجود دارد؟
|
73445
|
اگرچه من فصل های کتاب مرتبط را خوانده ام، اما هنوز کمی سردرگم هستم، بنابراین سؤالات ابتدایی زیر را مطرح می کنم. 1) موارد زیر برابر با چیست؟ (برخی از آنها ممکن است بی معنی باشند) * $\sum_{x_1} p(x_1 | x_2) = ?$ (من فکر می کنم این برابر با $1$ برای تنظیم $x_2$ است، به عنوان مثال $\sum_{x_1} p( x_1 |. x_2 = 1) = 1$) * $\sum_{x_2} p(x_1 | x_2) = ?$ * $\sum_{x_1} p(x_1 | x_2، x_3) = ?$ (فکر میکنم این برابر با $1$ برای تنظیم $x_2$ و $x_3$ است) * $\sum_{x_2} p(x_1 | x_2 ، x_3) = ?$ * $p(x_1|x_3)p(x_2|x_3)p(x_3)$ = ? 2) با فرض اینکه هر یک از $x_1$، $x_2$ و $x_3$ می توانند سه مقدار متفاوت داشته باشند، $1$، $2$ و $3$، چگونه تعداد پارامترهای رایگان را برای موارد زیر محاسبه کنیم؟ * $p(x_1)$ (فکر میکنم این $3-1=2$ است) * $p(x_1، x_2، x_3)$ (فکر میکنم این $3^3=27$ است) * $p(x_1|x_2) $ (من فکر می کنم این $(3-1)*3=6$) * $p(x_1|x_2، x_3)$ (من فکر می کنم این است $(3-1)*3*3=18)$ * $p(x_1, x_2 | x_3)$ (فکر میکنم $(3*3-1)*3$3 باشد) آیا عبارات زیر درست هستند؟ * $p(x_1)$ یک توزیع احتمال است. * $p(x_1, x_2)$ یک توزیع احتمال است. * $p(x_1 | x_2)$ مجموعه ای از توزیع های احتمال است. * $p(x_1 | x_2 = 1)$ یک توزیع احتمال است.
|
سوالات احتمالی ابتدایی
|
55209
|
من مجموعه داده ای از 30000 بیمار دارم که با روش جراحی مطابقت دارند. در معرض اصلی علاقه من این است که آیا بیمار در حین جراحی بی حسی منطقه ای دریافت کرده است یا خیر. من 27 نوع روش جراحی مختلف دارم، بنابراین به جای گنجاندن 26 متغیر ساختگی در مدل رگرسیون کاکس، آنها را طبقه بندی کردم. علاوه بر قرار گرفتن در معرض اصلی مورد علاقه در مدل (بیهوشی منطقه ای/بدون بیهوشی منطقه ای)، من 3 متغیر کمکی دیگر دارم که آنها را کنترل می کنم... آیا روش ساده ای برای محاسبه میانگین بقا برای بیمارانی که بی حسی منطقه ای دریافت کرده اند وجود دارد. برای کسانی که نکردند؟ یا آیا باید میانگین بقای این دو گروه را برای تمام 27 قشر محاسبه کنم زیرا همه آنها خطرات پایه متفاوتی دارند؟
|
میانگین زمان بقا برای مدل طبقه بندی شده کاکس
|
45159
|
من سعی میکنم درگیر برخی یادداشتها شوم، و موضوع دادههای مقطعی و تلفیقی است. اگر رگرسیون داشته باشیم: $$\log{wage_i}=\beta_0+\beta_1\text{married}_i+\delta_0\text{yr10}_i+\delta_1\text{married}_i\times \text{yr10}_i+\varepsilon_i $$ Where $\text{married}$ یک متغیر ساختگی است که $=1$ if است یک فرد متاهل است و اگر نه $0$، و $\text{yr10}$ یک متغیر ساختگی است که نشان میدهد آیا مشاهده در سال 2010 ثبت شده است یا نه در سال 2000. یک نقطه خالی در یادداشتها وجود دارد. که من متوجه نشدم، و می پرسد: چگونه $\delta_1$ را تفسیر کنیم؟ من فکر میکنم درست است که بگوییم $\delta_1$ نشان میدهد که چگونه بازده ازدواج افراد در 10 دلار گذشته تغییر کرده است. آیا این درست است؟ یا من اشتباه می کنم؟ من کمی در کتاب درسی ام مطالعه کردم و فکر می کنم این چیزی است که می گوید.
|
آیا این ضریب را درست تفسیر می کنم؟
|
114598
|
اجازه دهید $n>1$، اجازه دهید $X$ به طور یکنواخت در $[-\frac12,\frac12]$ توزیع شود، و دنباله $X_1,\ldots,X_{n+1}$ از نسخههای مستقل $X$ را در نظر بگیرید. . R معیارهای همبستگی «پیرسون»، «کندال» و «اسپرمن» را در تابع «cor» خود پیادهسازی میکند. بنابراین برای هر یک از این روش ها، اگر من cor(X[1:n]، X[2:(n+1)]، روش=...) را محاسبه کنم، آیا توزیع شناخته شده ای برای ضریب همبستگی حاصل وجود دارد؟ به نظر میرسد ضریب پیرسون تقریباً بهطور معمول توزیع شده است، اما برای $n=10$ و روش «spearman» بهطور قابلتوجهی غیرعادی به نظر میرسد. همچنین «کندال» و « نیزهدار» هر دو گسسته هستند. من سعی می کنم بفهمم که آیا در یک دنباله طولانی $X_1,\ldots,X_{m(n+1)}$ از $m$ پنجره هایی با اندازه $n$، متغیرهای تصادفی متوالی هر پنجره مستقل هستند. بنابراین من ضریب همبستگی را برای هر پنجره محاسبه میکنم و میخواهم توزیع آن را با این فرضیه بدانم که همه آنها مستقل هستند و به طور یکنواخت مانند بالا توزیع شدهاند. آیا این توزیع ها شناخته شده اند؟ اگر نه، آیا تقریب خوبی وجود دارد؟
|
توزیع ضرایب همبستگی برای متغیرهای تصادفی یکنواخت
|
64902
|
من در حال نوشتن یک مقاله هستم و کد زیر کدی است که در R نوشتم. دلیل اینکه من با این مشکل دست و پنجه نرم می کنم این است که صدها مدل را با متغیرهای مختلف امتحان کردم و مدل زیر بهترین مدل را با کمترین MAPE داشت. من چند متغیر را اضافه و ضرب کردم و مطمئن نیستم که مدل من چگونه باید در یک معادله ریاضی بیان شود و از هر کمکی ممنونم. متشکرم. FYI، B_1 یک متغیر طبقه بندی است و بقیه متغیرهای عددی هستند. model = glm(as.formula(y ~ (B_1+B_2)*B_3*B_4*B_5), data = train.set, family=Gamma) متشکرم!
|
چگونه یک معادله ریاضی برای مدل GLM با توزیع گاما و گاوسی بنویسیم؟
|
70134
|
من در این StackExchange کاملاً تازه کار هستم، تا به حال فقط در کمین بودم، اما همکاران StackOverflow من گفته اند که شما بهترین افرادی هستید که می توانید در مورد این سؤال بپرسید. به هر حال مقدمه بس است. من از الگوریتم وزنی k-Nearest-Neighbours استفاده می کنم. مجموعه داده اصلی من 37 ویژگی دارد. من به دنبال استفاده از PCA برای کاهش ابعاد بودهام و این روش را دنبال میکنم. برای سادگی، اجازه دهید فرض کنیم که دو مورد از ویژگی های جدید ایجاد شده 90 درصد از واریانس را تشکیل می دهند و من فقط از این دو ویژگی جدید استفاده می کنم. اجازه دهید آنها را ویژگی 1 و ویژگی 2 ($f_1$, $f_2$) بنامیم. بگذارید بگوییم که $f_1$ 60% واریانس و $f_2%$ 30% از واریانس را به خود اختصاص می دهد. میدانم که میخواهم وزنها ($w_1، w_2$) را برای این دو ویژگی انتخاب کنم. شهود اولیه من این است که می توانیم واریانس محاسبه شده را با وزن ویژگی مرتبط کنیم. بنابراین، من از ترکیب وزنی $w_1 = 0.6$ و $w_2 = 0.3$ در الگوریتم k-Nearest-Neighbours خود استفاده می کنم. من به خوبی میدانم که ادبیات زیادی وجود دارد که نشان میدهد بهترین راه برای انتخاب وزنها استفاده از روش شبکهای است که در آن ترکیبهای مختلف وزنها را انتخاب میکنیم و سپس ترکیبی را دنبال میکنیم که بهترین نتایج را به همراه دارد. من فقط به این فکر می کردم که آیا شهود وزن ها با واریانس کل مرتبط است یا خیر. همچنین، از آنجایی که مجموعه داده من در واقع به 11 ویژگی نیاز دارد تا 90 درصد از واریانس را در نظر بگیرد، میخواهم نقطه شروعی برای تعیین ترکیب وزنها داشته باشم. **خلاصه:** هنگام استفاده از PCA به عنوان پیش ساز برای kNN، آیا می توان وزن ویژگی ها را در k-NN بر اساس کل واریانس ویژگی های گفته شده در داده ها قرار داد؟ ببخشید اگر اشکالی در قالب بندی وجود دارد یا اگر پروتکل ها را خراب می کنم. در صورت وجود به من اطلاع دهید و من پست را به روز خواهم کرد.
|
استفاده از مقادیر ویژه از PCA در k-نزدیکترین همسایه
|
81993
|
من به خودم چند آمار را برای سرگرمی یاد می دهم و در مورد آمار کافی دچار سردرگمی هستم. من ابهامات خود را در قالب لیست می نویسم: 1. اگر توزیعی دارای پارامترهای $n$ باشد، آیا آن $n$ آمار کافی خواهد داشت؟ 2. آیا هر نوع تناظر مستقیمی بین آمار کافی و پارامترها وجود دارد؟ یا آیا آمار کافی فقط به عنوان مجموعه ای از اطلاعات عمل می کند تا بتوانیم تنظیمات را دوباره ایجاد کنیم تا بتوانیم تخمین های مشابهی را برای پارامترهای توزیع اساسی محاسبه کنیم. 3. آیا همه توزیع ها آمار کافی دارند؟ یعنی آیا قضیه فاکتورسازی ممکن است شکست بخورد؟ 4. با استفاده از نمونه داده های خود، توزیعی را فرض می کنیم که داده ها به احتمال زیاد از آن هستند و سپس می توانیم تخمین هایی را برای پارامترهای توزیع محاسبه کنیم (مثلاً MLE). آمار کافی راهی است برای اینکه بتوانیم تخمین های یکسانی را برای پارامترها بدون تکیه بر خود داده ها محاسبه کنیم، درست است؟ 5. آیا همه مجموعه های آمار کافی دارای حداقل آمار کافی خواهند بود؟ این مطالبی است که من برای درک موضوع موضوع از آن استفاده می کنم: https://onlinecourses.science.psu.edu/stat414/node/283 از آنچه من می فهمم، یک قضیه فاکتورسازی داریم که توزیع مشترک را به دو تابع جدا می کند. ، اما من نمی دانم که چگونه می توانیم پس از فاکتورگیری توزیع در توابع خود، آمار کافی را استخراج کنیم. 1. سوال پواسون ارائه شده در این مثال فاکتورگیری واضحی داشت، اما سپس بیان شد که آمار کافی میانگین نمونه و مجموع نمونه است. فقط با نگاه کردن به شکل معادله اول از کجا فهمیدیم که این آمار کافی است؟ 2. چگونه ممکن است با استفاده از آمار کافی، همان برآوردهای MLE را انجام دهیم، اگر معادله دوم نتیجه فاکتورگیری گاهی اوقات به مقادیر داده ها $X_i$ بستگی دارد؟ به عنوان مثال در مورد پواسون تابع دوم به معکوس حاصلضرب فاکتوریل داده ها بستگی دارد و ما دیگر داده را نخواهیم داشت! 3. چرا اندازه نمونه $n$ در رابطه با مثال پواسون در صفحه وب، آمار کافی نیست؟ برای بازسازی بخشهای خاصی از تابع اول به $n$ نیاز داریم، پس چرا آمار کافی نیست؟
|
آمار کافی، مشخصات/مشکلات شهودی
|
5054
|
بگوییم که به مرور هشتگ های توییتر را مطالعه می کنیم. ما بر میزان محبوبیت آنها نظارت می کنیم. برخی از هشتگ ها ممکن است فرار باشند (به عنوان مثال ناهار، سلتیکس، جمعه). محبوبیت آنها مرتباً افزایش و کاهش می یابد. برخی از هشتگها ممکن است در حال محبوب شدن نباشند (به عنوان مثال نشت نفت خلیج فارس، ترانسفورمرز 2، کریستین اودانل). آیا یک مدل ریاضی وجود دارد که بتواند بین هشتگی که به طور موقت محبوبیت خود را کاهش داده است اما احتمالاً بعداً محبوبیت بیشتری پیدا می کند و هشتگی که در حال غرق شدن است و احتمالاً در محبوبیت باقی می ماند تمایز قائل شود؟ با تشکر
|
آیا یک مدل ریاضی وجود دارد که بین نوسانات و روند تمایز قائل شود؟
|
87292
|
من مقالاتی پیدا می کنم که به جای p مقدار فقط CI را گزارش می کنند. تمام مقالههایی که پیدا کردم، مقدار p را گزارش میکنند، علیرغم اینکه موضوع آن قطعی نیست. من می خواهم ببینم چگونه آنها اطلاعات مهم تجزیه و تحلیل خود را در جداول و پرانتز قرار داده اند تا بتوانم دنبال کنم. به سلامتی، پیت
|
آیا هیچ مقاله ای را می شناسید که به جای مقدار p فقط CI را گزارش کند، زمانی که آنالیز از LMM در lmer4 باشد؟
|
63029
|
من یک مدل غیر خطی به شکل زیر دارم: $y = a*x^b$ میتوانم آن را با استفاده از لگاریتم و یک مدل خطی یا مستقیماً با یک مدل غیر خطی تطبیق دهم. رویکرد اول، لگاریتم ها و مدل خطی: lmfit <- lm(log(y)~log(x)) رویکرد دوم، مدل غیر خطی: nlsfit <- nls(y~a*x^b, start=list(a= 200، b=1.6)) در حالت اول می توانم به سادگی مقدار $R^2$ را از مدل خطی دریافت کنم یا خودم آن را با استفاده از: rsquared <- محاسبه کنم. var(fitted(lmfit)) / var(log(y)) در حالت دوم، هیچ مقدار $R^2$ ایجاد نمی شود، اما من می توانم یک مقدار $pseudoR^2$ را خودم به دست بیاورم: pseudorsquared <- var(fitted (nlsfit)) / var(y) در یک مدل خطی می توانم کسری از واریانس غیرقابل توضیح را با انجام $1-R^2$ محاسبه کنم. من خوانده ام که این برای رگرسیون های غیر خطی قابل اجرا نیست. می خواهم بدانم آیا نسخه ای معادل از این معیار وجود دارد تا بتوانم هر دو رگرسیون را با هم مقایسه کنم و از بهترین آنها استفاده کنم. به عنوان یک اطلاعات اضافی، می خواهم اضافه کنم که این یک رگرسیون از متغیرهای فیزیکی است و رویکرد غیر خطی نتایج نزدیک به ادبیات بیشتری را برای ضرایب ارائه می دهد، در حالی که رویکرد خطی عملکرد آماری بهتری را ارائه می دهد ($R ^2$، تعصب، و غیره).
|
کسر واریانس غیر قابل توضیح و R-square در رگرسیون خطی و غیر خطی
|
38568
|
من یک مدل سری زمانی با 5 متغیر سری زمانی داشتم و این مدلی است که در ادبیات به داشتن مشکلات همبستگی خودکار مشهور است. چرا وقتی از ماتریس استاندارد OLS var-covar استفاده می کنم، تنها 2 متغیر (بسیار) معنی دار هستند اما با ماتریس varcovar Newey West 4 از متغیرها (بسیار) معنی دار هستند (سطح 1٪)؟
|
خطاهای استاندارد نیوی وست به من اهمیت بیشتری می دهد
|
92742
|
من از lme4 برای اجرای یک مدل تعامل سه طرفه استفاده می کنم. من سه متغیر مستقل دارم: حیوان (موش، شیر، سگ)، رنگ (قرمز، سبز، آبی) و جنس (نر، ماده). خطوط پایه به شرح زیر است: حیوان: سگ رنگ: آبی جنسیت: ماده هدف نهایی من این است که تفاوت بین موش در مقابل سگ و شیر در مقابل سگ را پیدا کنم. سپس خروجی را به این صورت تفسیر می کنم: 1) موش = موش: آبی: ماده 2) شیر = شیر: آبی: ماده 3) قرمز = سگ: قرمز: ماده 4) سبز = سگ: سبز: ماده 5) نر = سگ :آبی:نر 6) موش:قرمز = موش:قرمز:مونث 7) شیر:قرمز = شیر:قرمز:ماده 8) موش:سبز = موش:سبز:ماده 9) شیر:سبز = شیر:سبز:مونث 10) موش:نر = موش:آبی:نر 11) شیر:نر = شیر:آبی:نر 12) موش:قرمز:نر = rat:red:male 13) lion:red:male = lion:red:male 14) موش:سبز:نر = موش:سبز:نر 15) موش:سبز:نر = موش:سبز:نر پس با توجه به این لینک: چگونه تعامل دو طرفه و 3 طرفه را در lmer تفسیر کنیم؟ به نظر می رسد که همه پارامترها باید این سه متغیر را همانطور که بعد از = نوشتم، با ظاهر خطوط مبنا در بر گیرند، اگر در پارامتر نباشند. سپس سوال من این است: از آنجایی که هدف من این است که تفاوتهای بین موش در مقابل سگ و شیر در مقابل سگ را بیابم، مطمئن نیستم که بتوانم مستقیماً بتوانم سگ در مقابل موش را در اولین مورد در ماده مقایسه کنم [(1) rat = rat:blue :female] با موش در مقابل سگ در دهم [(10) rat:male = rat:blue:male] از نظر من، این دو پارامتر فقط از نظر جنسیت با یکدیگر متفاوت هستند. شرکت کنندگان نظر شما چیست؟
|
تفسیر برهمکنش سه طرفه در خروجی lmer
|
6777
|
من می خواهم شبکه بیزی را روی برخی از داده ها اعمال کنم. با این حال، برخی از متغیرها مربوط به زمان هستند. به عنوان مثال تعداد دفعاتی که وی از کتابخانه بازدید می کند. از آنجایی که مقدار را می توان به صورت تعداد کل بازدیدهای این شخص، میانگین تعداد بازدید هفتگی، تعداد بازدید روزانه، یا حتی تعداد بازدید در 3 روز گذشته و غیره تعریف کرد... من نمی خواهم همه اینها را شامل شود. تغییرات مختلف در شبکه من پس چگونه باید با این ویژگی به درستی رفتار کنم؟ با تشکر فراوان از کمک شما
|
چگونه باید با ویژگی های مربوط به زمان در شبکه بیزی برخورد کنم؟
|
73441
|
من نیاز به تولید مجموعه ای از اعداد تصادفی دارم (بین 100 تا 300 کافی است)، که با میانگین مشخصی مطابقت داشته باشند، و همچنین در نقاط پایانی بالایی و پایینی مشخص قرار گیرند. با استفاده از نرم افزار آماری که دارم (Minitab) می توانم گزینه هایی برای 1. تولید داده های تصادفی با میانگین معین اما بدون نقطه پایانی و 2. تولید داده های تصادفی با نقاط پایانی و حالت داده شده (نه میانگین) پیدا کنم. فکر می کنم مشکلی که دارم این است که به نظر نمی رسد توزیع عادی باشد. به عنوان مثال، یکی از مجموعه های داده باید میانگین 2.90 را ارائه دهد، اما بین 0 تا 30.66 باشد. این برای مقاله ای است که من می نویسم، که در آن نگرانی این است که بتوانم تجزیه و تحلیل های آماری را روی داده های مورد نظر انجام دهم. به عبارت دیگر، هنگامی که مجموعه داده را تولید می کنم، باید ANOVA و تست های دیگر را روی آن انجام دهم. (من با انجام همه این کارها خوب هستم؛ فقط نمی توانم بفهمم چگونه داده ها را تولید کنم.)
|
چگونه دادههای تصادفی تولید کنیم که با میانگین معین و نقاط پایانی بالا/پایین مطابقت داشته باشد؟
|
6772
|
مطمئن نیستم می توانید به من کمک کنید اما مشکل اینجاست. من دو نسبت دو جمله ای A و B دارم (95% CI) - $A = 2\% \pm 0.2\%,\quad B = 3\% \pm 0.2\%.$ به عبارت دیگر، نسبت B 50٪ بیشتر است. از A. افراد تجاری تمایل دارند در مورد این تفاوت از نظر درصد افزایش صحبت کنند. به عبارت دیگر، نسبت B 50٪ بیشتر از A است. چگونه می توانم یک فاصله اطمینان را برای افزایش 50 درصدی نسبت B نسبت به A محاسبه کنم. من در مورد فرمول فیلر تحقیق کرده ام که گفته می شود تأثیر درصد دقیقی را ارائه می دهد. با این حال، علاوه بر اینکه قضیه فیلر را درک نمی کنم، نمی دانم چگونه می توانم این را در R محاسبه کنم. کسی می تواند کمک کند؟ **ویرایش:** به عنوان مثال، اگر CI برای آن فواصل 95٪ باشد، CI برای افزایش 50٪ = 98.52٪.
|
چگونه فاصله اطمینان مرتبط با افزایش نسبت دو جمله ای را محاسبه کنیم؟
|
70132
|
من دادههایی از یک PCA دارم و میخواهم مساحت بیضی اطمینان 95% دو رایانه شخصی اول را بدانم. آیا کسی می داند چگونه می توان مساحت بیضی اطمینان 95٪ را در R تخمین زد؟
|
تخمین مساحت بیضی اطمینان 95 درصد در R
|
85670
|
فقط به ذهن من خطور می کند که تحت چه شرایطی رگرسیون خطی می تواند نتیجه خوبی (معتبر) ایجاد کند. به عنوان مثال، فرض کنید y، $x_1$، $x_2$، ... $x_n$ از توزیع گاوسی چند متغیره پیروی می کنند، و اکنون وقتی $x_1$، $x_2$،... مشاهده می شود و ما باید $y$ را تخمین بزنیم، معقول ترین راه این است که فقط از گاوسی شرطی برای تخمین استفاده کنیم. با این حال، از دیدگاهی متفاوت، میتوانیم آن را به عنوان یک مسئله رگرسیون خطی نیز حل کنیم - فرض کنید گروهی از نمونهها (یا مشاهدات قبلی) x^{(1)}_1,x^{(1)}_2$ داریم. ،... x^{(1)}_n، y^{(1)}$، و $x^{(2)}_1،x^{(2)}_2،... x^{(2 )}_n، y^{(2)}$، ... سپس میتوانیم همبستگیهای بین $x_1، x_2، \ldots، x_n$ را فراموش کنیم و سپس آن را به عنوان یک مسئله رگرسیون خطی حل کنیم. نمی دانم آیا نتایج یکسان است؟ من شک دارم زیرا راه حل دوم همبستگی بین $x$ را در نظر نمی گیرد. لطفا راهنمایی کنید با تشکر
|
آیا می توان مسئله تخمین گاوسی شرطی را با رگرسیون خطی حل کرد؟
|
6770
|
من در حال نوشتن یک برنامه برای یک تکلیف برای دوره احتمالات و آمارم هستم. این برنامه چندین میلیون پرتاب سکه شبیه سازی شده را انجام می دهد و سپس خواص مختلف دنباله تولید شده را تجزیه و تحلیل می کند. یکی از کارهایی که انجام می دهد این است که دنباله تولید شده شامل چند اجرا و طول آنها است. یک نتیجه برای 10.000.000 پرتاب این است: تعداد اجراهای طول 1: 2500986 تعداد دورهای طول 2 است: 1246647 تعداد اجراهای طول 3 برابر است: 625656 تعداد دورهای طول 4: 311689 تعداد دورهای طول 5 است: 156673 تعداد اجراهای طول 6 است: 78464 تعداد اجراهای طول 7 است: 39253 تعداد اجراهای طول 8 است: 19547 تعداد اجراهای طول 9 است: 9866 تعداد اجراهای طول 10 یا بیشتر: 9818 اکنون مشکل من به شرح زیر است: من باید نتیجه به دست آمده از شبیه سازی را با انتظارات نظری مقایسه کنم. اساساً من به همان نتیجه فوق نیاز دارم که روی کاغذ محاسبه شود. الگویی در نتایج به وضوح وجود دارد، اما من فقط نمی توانم یک فرمول را پیدا کنم. کسی لطفا کمک کنه؟
|
تعداد دورهای مورد انتظار به طول n در پرتاب سکه
|
46797
|
من یک مجموعه داده دارم که ~ 150R X 2000C است و کنجکاو بودم که آیا RBM در شرایطی با این نوع عدم تعادل مناسب است یا خیر. این یک ریزآرایه است و من به یک مشکل طبقه بندی 0/1 نگاه می کنم. من کنجکاو هستم که آیا نمونه کدگذاری شده ای از استفاده از این به خصوص در R/Python/Java وجود دارد.
|
آیا می توان از RBM ها برای انتخاب / کاهش ویژگی استفاده کرد؟
|
18890
|
من سعی می کنم آنالیز آماری را که در یک مطالعه بالینی دیدم، درک کنم. آنها عملکرد 3 گروه از افراد را با یک سری معیارهای عملکردی (A، B، C، ...، N) اندازه گیری کردند. هدف این بود که بفهمیم آیا بین عملکرد 3 گروه تفاوت وجود دارد یا خیر، و اگر بله، پس از چه راه هایی با هم تفاوت دارند. تجزیه و تحلیل آنها شامل انجام یک MANOVA مانند این بود: گروه set.seed(100) <- rep(c(0,1)، هر=40) A <- rnorm(80, 5, 0.5) + 0.1 * گروه B <- rnorm(80، 9، 0.3) + 0.2 * گروه + 0.5 * A C <- rnorm(80، 12، 0.3) + 0.2 * گروه + 0.7 * B d.1 <- data.frame(A = A, B = B, C = C, group = group) fit.manova <- manova(cbind(A, B, C) ~ group, d. 1) خلاصه (fit.manova، test=Pillai) Df Pillai تقریباً F num Df den Df Pr(>F) group 1 0.19669 6.2027 3 76 0.0007949 *** باقیمانده ها 78 وقتی نشان دادند که تفاوت های قابل توجهی می بینند، به انجام یک سری آزمایش ANOVA برای هر DV ادامه دادند، به عنوان مثال: summary(lm(A ~ group, d.1)) summary(lm(B ~ گروه، d.1)) خلاصه (lm(C ~ گروه، d.1)) برای پیدا کردن اینکه کدام معیارهای عملکرد در کجا بین گروه ها آنچه من می خواهم بدانم این است: 1. آیا این رویکرد (MANOVA به دنبال سری ANOVA) قابل توجیه است؟ آیا پیش از این که بتوانیم این مسیر را طی کنیم، پیش فرض های دقیقی وجود دارد؟ 2. اگر بله، آیا باید نوعی اصلاح برای مرحله دوم، یعنی یک سری ANOVA برای DV های فردی (مقایسه های چندگانه) وجود داشته باشد؟ چه اصلاحی؟ 3. روش توصیه شده برای مشکلاتی مانند این با چند DV چیست؟ ویرایش 1: متن را تغییر داد تا شامل یک کد نمونه باشد. ویرایش 2: نمونه را به روز کرد. DV ها در حال حاضر مرتبط هستند. ویرایش 3: این در واقع یک وضعیت بسیار رایج در مطالعاتی است که شامل اقدامات عینی است. دستگاهها معمولاً مجموعهای از اقدامات را نشان میدهند، حتی اگر شما بهطور خاص آنها را درخواست نکنید. به عنوان مثال، شما دو گروه، یک گروه کنترل و یک گروه بیمار دارید و یک تجزیه و تحلیل راه رفتن آزمایشگاهی انجام می دهید. سیستم های آنالیز راه رفتن 50 معیار راه رفتن مختلف را در اختیار شما قرار می دهد. سوال تحقیق شما ممکن است این باشد: آیا دو گروه راه رفتن مشابهی دارند؟ اگر نه، از چه جهت با هم تفاوت دارند؟
|
درک MANOVA در صورت وجود یک پیش بینی کننده واحد
|
18897
|
من میخواهم در مورد آنچه در ابتدا فکر میکردم تحلیل نسبتاً سادهای بود، توضیحی بدهم. یک نظرسنجی به 100 جهنده نمایش (اسب) آلمانی داده شد تا آنچه که ما می خواهیم بدانیم موارد زیر است. آیا ارتباطی بین LBP (به صورت بله (1) یا خیر (2)) با سؤالات زیر وجود دارد؟ 1. و موفقیت یا شکست ظاهری در یک تورنمنت (با پاسخ بله (1)، نه (2) یا نمی دانم (3)) 2. و تغییر در ADL فرد (پاسخ به صورت بله (1) ، نه (2) یا نمی دانم (3)) 3. و تشدید سایر دردهای موجود در طول مسابقات (با پاسخ بله (1)، نه (2) یا نمی دانم (3)) اکنون من معتقدم که بهترین راه رو به جلو، انجام یک تجزیه و تحلیل جدول احتمالی 3×2 از «ارتباط» بین متغیر وابسته اسمی (LBP) و متغیرهای مستقل اسمی (موفقیت، تغییر در ADL و تشدید درد دیگر) است. تستی که می خواهید اجرا کنید تست Goodman & Kruskal Tau B است (آزمون معادل SPSS، تست Phi & Cramer's V است. مشکل زمانی ایجاد می شود که آزمایش CrossTab را اجرا می کنم (قرار دادن LBP (DV) در کادر ROWS و IV در جعبه ROWS. کادر COLUMNS) پیام هشدار زیر را دریافت می کنم _*_ > هشدارها > هیچ معیار ارتباطی برای جدول بندی متقاطع کمردرد محاسبه نشده است. * حداقل یک متغیر در هر > جدول دو طرفه که معیارهای ارتباط محاسبه می شود، یک > ثابت است > > هیچ معیاری از ارتباط برای جدول بندی کمردرد محاسبه نمی شود * تشدید درد ناشی از رقابت. حداقل یک > متغیر در هر جدول 2 طرفه که بر اساس آن معیارهای ارتباط محاسبه می شود، برای جدول بندی کمردرد * ADL ثابت است حداقل یک متغیر در هر جدول 2 طرفه > که معیارهای ارتباط بر اساس آن محاسبه می شود ثابت است. *** اکنون ممکن است چیزی بسیار اساسی را در اینجا از دست داده باشم اما کاملاً مطمئن نیستم که چرا این پیام هشدار/خطا را هنگام استفاده دریافت می کنم SPSS (آمار PASW 18)؟ هر گونه کمکی بسیار قدردانی خواهد شد و پیشاپیش از همه شما سپاسگزارم. اندرو V
|
پیام های خطای جدول بندی متقاطع SPSS هنگام تجزیه و تحلیل یک جدول احتمالی 3×2
|
81997
|
> اجازه دهید $X$ و $Y$ متغیرهای $N(0, \sigma^2)$ باشند. > > 1. نشان دهید که $X^2+Y^2$ و $X/ \sqrt{X^2 + Y^2}$ مستقل هستند. **Hint** > : توزیع مشترک عبارت اول و مربع دوم را محاسبه کنید. > از آنجایی که $X \sim N(0, \sigma^2)$، می دانیم که $X/\sigma \sim N(0,1)$. بنابراین $X^2/\sigma^2 \sim \chi^2(1)$. اما این بدان معنی است که $X^2 = \sigma^2(X^2/\sigma^2) \sim \chi^2(\sigma^2)$. البته همین نتیجه را برای $Y$ داریم. فرض کنید $W_1 = X^2/(X^2 + Y^2)$ و $W_2 = X^2 + Y^2$. توزیع مشترک را دریافت می کنیم، $$f_{W_1، W_2}(w_1، w_2) = \left[ \left( \frac{1}{\Gamma(\sigma^2/2)2^{\sigma^2/ 2}} \right)^2 (w_1(1-w_1))^{\sigma^2/2 - 1} \right] \چپ[ (w_2)^{\sigma^2 - 2} e^{-w_2} \right]$$ در کتاب درسی من یک قضیه وجود دارد (_مقدمه ای بر آمار ریاضی_ نوشته هاگ) که می گوید > _ اجازه دهید متغیرهای تصادفی $X_1$ و $ X_2$ به ترتیب از $S_1$ و $S_2$ > پشتیبانی می کند و دارای pdf مشترک $f(x_1، x_2) دلار. سپس $X_1$ و $X_2$> مستقل هستند اگر و فقط اگر $f(x_1, x_2)$ cna بهعنوان حاصلضرب یک تابع > غیرمنفی x_1$ و یک تابع غیرمنفی x_2$ نوشته شود. یعنی > $$f(x_1, x_2) \equiv g(x_1)h(x_2)، $$ که در آن $g(x_1) > 0$، $x_1 \در S_1$، صفر > جاهای دیگر، و $h(x_2 ) > 0$، $x_2 \در S_2$، صفر در جای دیگر._ بنابراین، با این قضیه، $W_1$ و $W_2$ مستقل هستند. (ما می دانیم که $\left( \frac{1}{\Gamma(\sigma^2/2)2^{\sigma^2/2}} \right)^2 (w_1(1-w_1))^{ \sigma^2/2 - 1}$ مثبت است زیرا $w_1 = \frac{x^2}{x^2 + y^2} \leq 1$.) > 1. نشان دهید که $X+Y$ و $X-Y$ مستقل هستند. **نکته:** از ویژگی استاندارد > توزیع نرمال استفاده کنید. > $X+Y \sim N(0,2)$ و $X-Y \sim N(0,2)$. اجازه دهید $U_1 = X+Y$ و $U_2 = X-Y$. داریم، $$f_{U_1، U_2}(u_1، ,u_2) = \left[ \left( \frac{1}{4 \pi} \right) e^{-u_1^2}{4} \right ] \left[ e^{ (-u_2^2)/4} \right]$$ طبق قضیه فوق، $X+Y$ و $X-Y$ مستقل هستند. به نظر شما پاسخ های من درست است؟ پیشاپیش از شما متشکرم
|
تعیین اینکه آیا این متغیرهای تصادفی مستقل هستند یا خیر
|
93848
|
من در یک مجموعه داده یک متغیر طول جغرافیایی دارم که حاوی مقادیری مانند 39° 37 39 N و 39 درجه 24 دقیقه است. تا آنجا که من می دانم، عرض جغرافیایی مانند بالا در سطح بین المللی اندازه گیری می شود. داده های بالا را برای گنجاندن آنها در یک مدل خطی به عنوان مثال، کدام راه مناسب برای بیان یا قالب بندی مقادیر طول عرض با حفظ جنبه علمی و منطقی آنهاست؟
|
تبدیل عرض های جغرافیایی برای گنجاندن آنها یک مدل خطی
|
87298
|
cv.glmnet توسط اکثر مقالات و شرکت های تحقیقاتی استفاده شده است. در حین ساختن یک تابع مشابه مانند cv.glmnet برای glmnet.cr (بسته مشابهی که رگرسیون ترتیبی نسبت ادامه کمند را پیاده سازی می کند) در cv.glmnet با این مشکل مواجه شدم. cv.glmnet ابتدا با مدل مطابقت دارد: glmnet.object = glmnet(x, y, weights = weights, offset = offset, lambda = lambda, ...) پس از ایجاد شی glmnet با داده های کامل، مرحله بعدی به این صورت پیش می رود. به شرح زیر است: «لامبدا» از مدل کامل نصب شده، لامبدا = glmnet.object$lambda استخراج می شود. 3 if (nfolds <3) stop (nfolds باید بزرگتر از 3 باشد؛ nfolds=10 توصیه می شود) لیستی برای ذخیره نتایج تایید شده متقاطع outlist = as.list(seq(nfolds)) یک حلقه for ایجاد می شود برازش بخشهای مختلف داده بر اساس نظریه اعتبار متقاطع برای (i در seq(nfolds)) { which = foldid == i if (is.matrix(y)) y_sub = y[!which, ] other y_sub = y[!which] if (is.offset) offset_sub = as.matrix(offset)[!which, ] other offset_sub = NULL #استفاده از لامبدا برای فهرست کامل داده[[ i]] = glmnet(x[!که، , drop = FALSE]، y_sub، lambda = lambda، offset = offset_sub، وزن = وزن[!which]، ...) } } پس چه می شود. پس از برازش داده ها به داده های کامل، اعتبارسنجی متقاطع با لامبدا از داده های کامل انجام می شود. آیا کسی می تواند به من بگوید که چگونه ممکن است این داده ها بیش از حد مناسب نباشد؟ ما در اعتبار سنجی متقابل می خواهیم که مدل هیچ اطلاعاتی در مورد قسمت حذف شده از داده ها نداشته باشد. اما `cv.glmnet` در این مورد تقلب می کند!!!!!!!!!!
|
glmnet بیش از اتصال
|
70135
|
بهترین راه برای مقایسه جمعیت کودکان 0-6 ساله (تعداد سر) در مناطق مختلف چیست؟ تراکم جمعیت (جمعیت در هر کیلومتر مربع) منطقی به نظر می رسد. یکی از همکاران به بررسی جمعیت سرانه اشاره کرد. آیا این منطقی است؟ هر گونه کمک بسیار قدردانی می شود. Tx!
|
مقایسه داده های سرشماری
|
6776
|
من قدردان کمک در راست کردن برخی موارد EM هستم. بنابراین، بگویید من داده ها را در R به صورت زیر تولید می کنم: N <- 100 اپسیلون <- rnorm(N) X <- 10*runif(N) beta.0 <- 10 beta.1 <- 3 سیگما <- 2 Y <- beta.0 + beta.1 * X + sigma * epsilon epsilon2 <- rnorm(N) X2 <- 10*runif(N) Y2 <- 3 - X2 + 0.25 * epsilon2 Y.mix <- c(Y, Y2) X.mix <- c(X, X2) در حال حاضر در به حداکثر رساندن انتظارات، در مرحله اول، I احتمال قبلی وجود دارد، مثلاً 0.5، که داده ها از یک یا آن توزیع باشند. بنابراین، با استفاده از EM می دانم که می توانم میانگین و واریانس دو مخلوط را تخمین بزنم. از نگاهی به نمودار چگالی، به نظر می رسد که میانگین برای داده هایی که شبیه سازی کردم در حدود 2- و 30 است. اما، در چه مرحله ای در EM می توانم از نسخه بتا عقب نشینی کنم؟ من میخواهم پارامترهای شیب، قطع و انحراف sd را برای 2 معادله رگرسیون بازیابی کنم. با تشکر از یک توضیح
|
درک بیشینه سازی انتظارات برای حالت مخلوط خطی 2 ساده
|
18891
|
چه شباهتها و تفاوتهایی بین این 3 روش وجود دارد: کیسهبندی، تقویت، روی هم چیدن؟ کدام بهترین است؟ و چرا؟ میشه برای هر کدوم مثال بزنی؟
|
بسته بندی، تقویت و انباشته شدن در یادگیری ماشینی
|
44226
|
شناخته شده است که PCA نسبت به نویز بیرونی کاملاً حساس است (و به همین دلیل است که چندین تکنیک PCA قوی وجود دارد.) با این حال، من به دنبال یک مثال عینی از حساسیت PCA به نویزهای متخاصم هستم که یک تنظیم مصنوعی است که در آن بتوانیم نشان دهیم که دشمن می تواند به شدت بر کیفیت بردارهای ویژه به دست آمده تأثیر بگذارد. آیا کسی می تواند یک مثال ساده برای این موضوع ارائه دهد یا بهتر است یک مرجع ارائه دهد؟ من به ویژه به **PCA گراف Laplacians** نگاه می کنم که در آن یک دشمن مخرب می تواند بخش کوچکی از گره ها و/یا لبه ها را اضافه کند. هر گونه بینش بیشتر قدردانی خواهد شد. با تشکر
|
نویز دشمن در PCA
|
38563
|
من یک QAR خالص (رگرسیون خودکار چندکی) انجام نمی دهم، اما یک متغیر وابسته عقب مانده (AR(1)) به عنوان پیش بینی دارم. من از بسته quantreg در R برای انجام آن استفاده می کنم. من دو سوال بسیار مرتبط دارم: (1) من از quantreg در R برای انجام QR های خود استفاده می کنم. آیا باید با قرار دادن یک عبارت AR(1) روی RHS کار خاصی انجام دهم تا خوب باشم؟ (2) آیا استفاده از عبارت AR(1) به عنوان یک رگرسیون برای پرداختن به خودهمبستگی در رگرسیون چندک، همانطور که می توانید با OLS خوب است؟ یا QR از این نظر متفاوت است؟
|
(رگرسیون کوانتیل) متغیر AR(1) در ماتریس طراحی
|
87294
|
من فقط سعی کردم یک t-dist را در R برای برخی از داده ها قرار دهم، و این کار را با خواندن یک فایل csv 21x1 و تبدیل به عددی انجام دادم (اگر فکر می کنید مهم است، می تواند کد استفاده شده را نشان دهد). پارامترهایی را تولید کرده است اما با 27 اخطار که همه میگویند: «1: در log(ها): NaNs تولید شده» و غیره تا 26: و یکی میگوید «در sqrt(diag(vc)): NaNs تولید شده است. آیا این روی اعتبار پارامترهایی که با آن بازگشته است تأثیر می گذارد؟ من همچنین متوجه شدم که دارای 2 مقدار میانگین، sd و df است. یکی در بالا و یکی زیر در پرانتز؟ اینها یعنی چه m s df -0.0001337445 0.0034887033 10.0256862670 ( 0.0008246931) ( 0.0000891192) ( NaN) 27 اخطار وجود داشت (از هشدارها استفاده کنید)() برای دیدن آنها
|
اخطارها در R بعد از fitdistr استفاده می شود
|
70138
|
چندین بار (در سخنرانیها، مقالات و غیره) با اظهارات غیررسمی/مماسی مواجه شدهام که شکل اصلی زیر را دارند: > مسائل فلسفی به کنار، روشهای بیزی بسیار راحت هستند. ... با این مفهوم که این روشها راحتتر (یا «دستی»، «آسان» و غیره) از روشهای رقابتی («تکرارگرا») هستند. همانطور که از مقدمه این ادعا می توان فهمید، چنین اظهاراتی معمولاً از سوی افرادی می آید که خود را بیزی توصیف نمی کنند. (منظورم این بود که با قید widely در عنوان این پست پیشنهاد کنم: یعنی _ even_ در میان غیر بایزیان، روش های بیزی بسیار راحت در نظر گرفته می شوند.) چه چیزی در روش های بیزی وجود دارد که آنها را بسیار راحت می کند؟ بهترین پاسخی که می توانم به این سوال بدهم این است که روش های بیزی نیاز به تصمیم گیری های نسبتاً دلخواه در مورد پارامترها و کل مدل ها را برطرف می کند. در عوض، فرمالیسم بیزی به عنوان روشی اصولی برای در نظر گرفتن همزمان مجموعههایی از این پارامترها و مدلها (با وزن قبلیهای مربوطه) عمل میکند. اکنون، درک من از آمار بیزی در بهترین حالت ضعیف است، بنابراین چندان به این توضیح اعتقادی ندارم. من دوست دارم توضیح دقیق تری ببینم. * * * 1 یکی از نمونه هایی که می توانم ذکر کنم مقاله اخیر گلمن و شالیزی است که در آن نویسندگان «داستان معمول» (یعنی تفسیر مرسوم آمار بیزی) را دلیل استفاده از روش های بیزی رد می کنند و در عوض می گویند از آنها استفاده می کنند. زیرا با آنها میتوانند «مدلهای بهاندازه کافی غنی» (احتمالاً غنیتر از آن چیزی باشند که با استفاده از روشهای غیر بیزی جا بیفتند). متأسفانه، این تنها مرجع سختی است که می توانم ارائه دهم. موارد دیگر به صورت سخنرانی غیررسمی یا در خواندن گذشته بود که دیگر نمی توانم به طور خاص به خاطر بسپارم.
|
چرا روش های بیزی به طور گسترده ای به ویژه راحت در نظر گرفته می شوند؟
|
64901
|
فرض کنید من یک رگرسیون مشابه را برای 100 فرد مختلف به طور جداگانه اجرا کرده ام. ضرایب علاقه من مثبت است (و کاملاً با یکدیگر متفاوت است) اما از نظر آماری در تمام 100 نتیجه ناچیز است (بگذارید هر p-value = 0.11 باشد). آیا راهی برای ترکیب این مقادیر p وجود دارد تا به این نتیجه برسیم که «حداقل 80 مورد از این نتایج مثبت هستند» با معنیداری بیشتر از p=0.11؟ جستجوهای آنلاین من فقط به من نشان داده است که چگونه می توانم بگویم حداقل 1 از این نتایج مثبت است از طریق تست فیشر یا مشابه، اما نتوانستم آن نتیجه را تعمیم دهم. من می خواهم H0 = همه 100 اثر در 0 یکسان هستند در مقابل HA = حداقل 80 اثر مثبت هستند را آزمایش کنم. هدف من این نیست که بگویم به طور متوسط یک ضریب مثبت وجود دارد و همچنین اندازه گیری مشخص ضریب نیست. هدف من این است که به طور قابل توجهی نشان دهم که حداقل 80 نفر به طور جداگانه بدون در نظر گرفتن 80 مورد، و بدون توجه به میزان تأثیری که هر فرد احساس می کند، با تأثیر مثبت روبرو شده اند. پیشاپیش از شما متشکرم
|
اگر من نتایج مثبت زیاد اما ناچیز داشته باشم، آیا آماری وجود دارد که به من اجازه دهد به طور معناداری بگویم حداقل n از این نتایج مثبت است؟
|
87295
|
به منظور ایجاد مدل پیش آگهی برای پیش بینی خطر سرطان پستان، نمونه 321 زن تشکیل شده است. هر زن به پرسشنامه پاسخ داد و از پاسخ ها به عنوان پیش بینی کننده استفاده شد. نتیجه این بود که آیا زنان سرطان سینه دارند یا خیر. 132 بیمار مبتلا به سرطان پستان و 189 زن بدون سرطان پستان به همین پرسشنامه پاسخ دادند. بنابراین بروز سرطان سینه در نمونه حدود 0.41 است. اما در جمعیت، بروز حدود 0005/0 در سال است. در نتیجه، نه تنها سرطان سینه، بلکه هر یک از عوامل مضر در نمونه، شیوع بیشتری نسبت به جمعیت دارد. حالا من برای سیگار کشیدن حدود 35 OR گرفته ام. * یعنی در جمعیت OR نیز 35 خواهد بود؟ اگر نه، آیا راهی برای انتقال نسبت شانس رگرسیون لجستیک به نسبت شانس جمعیت وجود دارد؟ * من می توانم ریسک نسبی را با $RR\approx \frac{OR}{1-BR+BR \times OR}$ محاسبه کنم. از چه چیزی به عنوان ریسک پایه استفاده کنم؟ اگر این خطر وجود دارد که افراد غیرسیگاری از جمعیت به سرطان مبتلا شوند که بسیار کوچک است، پس $RR\تقریبا OR$. اگر exp(intercept) مدل باشد، آنگاه به 35 نیز نزدیک است. و اگر در بین افراد غیرسیگاری از نمونه بروز کند، آنگاه $RR=2.7$ است. آیا هر کدام از این گزینه ها درست است؟
|
انتقال نسبت شانس رگرسیون لجستیک (بر اساس نمونه طبقه بندی شده) به نسبت شانس جمعیت
|
87293
|
من کمی گیج شده ام که چه زمانی باید از توزیع پواسون استفاده کنم. اگر موردی داشته باشم که در آن: * میانگین نمونه تعداد رویدادهایی که در یک روز خاص اتفاق میافتد را دارم (مثلاً 1.27 است). * پنج روز به طور تصادفی از یک نمونه انتخاب شده است. آیا می توانم از فرآیند پواسون برای یافتن احتمال اینکه میانگین نمونه اکنون بیش از 0.3 است استفاده کنم؟
|
چه زمانی از توزیع پواسون استفاده کنیم؟
|
67978
|
من سعی می کنم یک رگرسیون را محاسبه کنم. من یک متغیر وابسته پیوسته دارم (سرمایه گذاری به میلیون دلار) یک متغیر مستقل پیوسته پنج شاخص دوگانه (1/0) چهار تعامل. از خطاهای استاندارد قوی استفاده می شود. N=569. آیا دلیل خاصی وجود دارد که F-Test در Stata کار نمی کند؟ راهنمای Stata میگوید: > نتایج تخمین شما نشان میدهد که آمار مدل F یا chi2 وجود ندارد. Stata این کار را انجام داده است تا گمراه کننده نباشد، نه به این دلیل که > لزوماً مشکلی در مدل شما وجود دارد. خروجی رگرسیون رگرسیون خطی زیر است تعداد obs = 580 F( 9, 569) = . Prob > F = . R-squared = 0.2336 Root MSE = 1.2608 Robust lninv Coef. Std. اشتباه t P>t [95% Conf. فاصله] سن 0.1392668 0.0363307 3.83 0.000 0.0679081 0.2106255 1.idicatorone 0.4070426 0.2380546 1.71 0.0858 - 0.0850.460 1.indicatortwo 1.085003 0.1235029 8.79 0.000 .8424262 1.327581 1.indicatorthree -0.4390229 0.1781991 -2.46 0.001 - 0.081014 -2.46 1.fincrisis 0.4526393 0.1376538 3.29 0.001 0.1822677 0.7230108 1. bubble 1.657902 0.1088199 15.24 0.000 15.24 0.000 15641011110000001110000000000011564411 یک fincrisis#indicatorthree 1 1 -0.1068982 0.2141135 -0.5 0.618 -.5274474 0.313651 indicatorthree#c.age 1 -0.0103719 0.0450553 0.0450553 -0.888 -0.0. 0.0781231 _cons 0.0378515 0.1878819 0.2 0.840 -.3311753 0.4068783
|
آزمون F و متغیرهای طبقه بندی
|
113087
|
به زبان عامیانه، تفاوت بین پیش بینی و توضیح در آمار چیست؟ من به دنبال تفاوت های بین AIC و BIC بودم و این پست را با پاسخی یافتم که می گوید: > توضیح سریع من این است که > > AIC بهترین برای پیش بینی است، زیرا به طور مجانبی معادل اعتبار متقاطع است. BIC برای توضیح بهتر است زیرا امکان تخمین سازگار فرآیند تولید داده های اساسی را فراهم می کند. این باعث میشود فکر کنم که به همان اندازه دقت و دقت، تمایز اصلی در اینجا وجود دارد که به طور قابلتوجهی بر زمان و نحوه استفاده از بسیاری از روشهای آماری تأثیر میگذارد. من آن را در گوگل جستجو کردم و فقط مقالات مختلفی از جمله این مقاله را پیدا کردم، اما با توجه به دانش فعلی من، این برای سوال من بسیار سخت است. آیا کسی می تواند توضیحی شهودی از تفاوت و شاید نمونه هایی از تأثیر آن بر استفاده از روش ها و ابزارهای آماری ارائه دهد؟
|
پیش بینی در مقابل تبیین و تأثیر آن بر روش های آماری
|
108849
|
من سعی می کنم با توجه به تعدادی پارامتر پیوسته وزن ماهی صید شده را رگرسیون کنم، با استفاده از Weka از 1-12 پارامتر و اندازه نمونه 5000-15000 استفاده می کنم. یک خروجی معمولی === ارزیابی در تقسیم آزمایشی == = === خلاصه === ضریب همبستگی -0.0065 پیچیدگی کلاس | سفارش 0 22812.6387 بیت 8.5569 بیت/نمونه پیچیدگی کلاس | طرح 25229.8025 بیت 9.4635 بیت/نمونه بهبود پیچیدگی (Sf) -2417.1638 بیت -0.9067 بیت/نمونه میانگین خطای مطلق 1.9104 ریشه میانگین مربع خطا 2.3735 نسبی خطای ریشه مطلق 19 درصد 100.9444 % تعداد کل موارد 2666 حال، کدام معیار بهترین معیار برای میزان موفقیت رگرسیون است؟ بهبود پیچیدگی، میانگین خطای مطلق یا میانگین مربع خطا؟ بهبود پیچیدگی به آنتروپی دیفرانسیل متصل است (فکر می کنم، من یک سوال دیگر در این مورد پرسیدم) که به نظر اندازه گیری خوبی است. اما تا کنون، من فقط پیشرفتهای پیچیدگی منفی داشتهام، که نشان میدهد یا رگرسیونهای من بسیار ضعیف است یا اینکه تخمین ویکا از پیچیدگی کلاس (آیا شاید از پراکندگی دادهها رنج میبرد؟) ریشه میانگین مربعات خطا و میانگین خطای مطلق است. دو کاندید دیگر هستند اما چگونه بین آنها انتخاب کنم؟ مزایا و معایب هر کدام چیست؟
|
پیچیدگی کلاس در مقابل میانگین خطای مطلق در مقابل میانگین مربع خطا هنگام انجام رگرسیون بر روی متغیرهای پیوسته
|
1194
|
این سوال مدتی است که ذهن من را درگیر کرده است و قصد داشتم در مورد آن یک پست وبلاگ بنویسم. با این حال، فکر می کنم بهتر است در این انجمن بحث شود. در ماه آوریل، در یک سخنرانی در مجموعه سمینارهای گروه آمار دپارتمان ریاضی UMD به نام توضیح یا پیش بینی؟ شرکت کردم. این سخنرانی توسط پروفسور Galit Shmueli که در مدرسه کسب و کار اسمیت UMD تدریس می کند، ارائه شد. صحبتهای او بر اساس تحقیقاتی بود که برای مقالهای با عنوان «مدلسازی پیشبینیکننده در مقابل مدلسازی توضیحی در تحقیقات IS» و یک مقاله کاری بعدی با عنوان «توضیح یا پیشبینی؟» انجام داد. استدلال دکتر شمولی این است که واژههای پیشبینیکننده و توضیحی در زمینه مدلسازی آماری با هم ترکیب شدهاند و ادبیات آماری فاقد بحث کامل درباره تفاوتها است. در مقاله، او هر دو را در تضاد قرار می دهد و در مورد مفاهیم عملی آنها صحبت می کند. من شما را به خواندن مقالات تشویق می کنم. سوالی که میخواهم برای جامعه تمرینکنندگان مطرح کنم این است: آیا تا به حال در دام استفاده از یکی در زمانی که منظور استفاده از دیگری است، افتادهاید؟ من قطعا دارم. چگونه می دانید از کدام یک استفاده کنید؟ چگونه یک تمرین پیشگویانه را در مقابل یک تمرین توضیحی / توصیفی تعریف می کنید؟ اگر بتوانید در مورد برنامه خاص صحبت کنید مفید خواهد بود.
|
افکار عملی در مورد مدل سازی توضیحی در مقابل پیش بینی
|
44227
|
من یک تازه کار در دنیای داده کاوی هستم. یه سوال کلی دارم من یک مجموعه داده دارم که دارای 10 متغیر مستقل و یک متغیر هدف به نام دسته است که دارای 9 مقدار است مانند: 1، 2، 3، 4، 5، 6، 7، 8، 9. 10 متغیر مستقل دارای دامنه متفاوتی هستند. از ارزش ها برخی از آنها دارای مقادیر بین 0 - 5000، برخی دارای دامنه بزرگ مانند 5000000 - 100000000 و غیره هستند. علاوه بر این، هیچ رابطه خاصی (خطی و غیره) بین متغیرهای هدف و مستقل وجود ندارد. من اساساً سعی می کنم با استفاده از همه این متغیرهای مستقل، دسته متغیر هدف را پیش بینی کنم. آیا کسی می تواند پیشنهاد دهد که رویکرد من چگونه باشد؟ من خیلی گیج هستم. آیا باید از مدل های رگرسیون، درخت تصمیم یا تحلیل خوشه ای استفاده کنم؟
|
کدام نوع رگرسیون مناسب تر است؟
|
5056
|
با توجه به بردارهای پشتیبانی یک SVM خطی، چگونه می توانم معادله مرز تصمیم را محاسبه کنم؟
|
محاسبه مرز تصمیم یک مدل SVM خطی
|
36171
|
من اعتبار سنجی متقابل تودرتو را در Matlab برای یک مشکل طبقه بندی پیاده سازی کرده ام. من 56 ویژگی و 408 مورد دارم. من در حال انجام انتخاب ویژگی و مدل در حلقه اعتبارسنجی متقاطع داخلی، با استفاده از CV 10 برابر برای هر دو حلقه داخلی و خارجی هستم. در حلقه CV داخلی، من از یک روش انتخاب ویژگی رو به جلو متوالی استفاده میکنم، تو در تو در داخل یک جستجوی شبکهای برای تعیین پارامترهای منظمسازی بهینه برای یک مدل طبقهبندیکننده متمایز منظم شده و مجموعه ویژگیهای انتخاب شده. من عملکرد بسیار ضعیفی در CV حلقه بیرونی پیدا میکنم (در مقایسه با یک طبقهبندی متمایز درجه دوم استاندارد، که با CV یک حلقه به دست میآید)، باعث میشود به این نتیجه برسم که در حلقه CV داخلی بیش از حد برازش دارم. من مقالاتی از Cawley و Talbot خواندهام که نشان میدهد پروتکلهای انتخاب مدل مغرضانه به نفع مدلهای بدتر هستند و علاوه بر این، رویه حلقه داخلی به تنهایی یک برآورد عملکرد مغرضانه ایجاد میکند. آیا این بیش از حد برازش مشاهده شده برای حلقه داخلی در CV تودرتو را توضیح می دهد؟ آیا راهبردهای عملی برای جلوگیری از این زیادهروی وجود دارد؟
|
برازش بیش از حد حلقه داخلی در اعتبارسنجی متقابل تودرتو
|
18761
|
من از Proc Arima برای تولید تست های Dickey-Fuller و Dickey-Fuller تقویت شده استفاده می کنم. طبق مستندات Proc Arima از روش Dickey-Fuller استفاده می کند که فرضیه زیر را آزمایش می کند: H0: psi=0 H1: psi نه 0 در سه رگرسیون: DYt=psi*Yt-1 + ut DYt=intercept+psi*Yt-1 + ut DYt=برق + روند زمانی + psi*Yt-1 + ut اگر سری باقیمانده ها (ut) در رگرسیون های بالا به صورت سریالی همبستگی دارند، سپس رگرسیون ها باید با تأخیرهای متغیر وابسته (DYt) یعنی [سیگما (ai*DYt-1)] افزوده شوند] تعداد تأخیرها بر اساس: الف) مقادیر معیارهای اطلاعاتی مانند AIC و SBIC (تعداد زیادی رگرسیون افزایش یافته را اجرا کنید که با 1 افزایش شروع می شود و رگرسیون را با حداقل مقادیر معیارها انتخاب کنید) یا ب) طبق قانون: به افزایش ادامه دهید تا زمانی که مقدار رگرسیون به صورت سریالی همبستگی نداشته باشد. بر اساس موارد فوق، گزینه ای در Proc Arima وجود دارد که در خروجی (همراه با تست های DF و ADF) یک آزمون آماری برای همبستگی سریال ut (به عنوان مثال Darbin Watson) معادلات توصیف شده در بالا و مقادیر معیارهای اطلاعات (AIC و SIC)؟ سایر نرم افزارهای اقتصاد سنجی مانند E-Views این آمار را به طور پیش فرض هنگام درخواست آزمایش ریشه واحد تولید می کنند (به http://www.hkbu.edu.hk/~billhung/econ3600/application/app01/app01.html مراجعه کنید) تا کنون من از یک روش دستی برای محاسبه a) و b) استفاده کنید که بسیار وقت گیر است (به عنوان مثال رگرسیون های بالا را اجرا کنید (و رگرسیون های تقویت شده) موارد) با proc reg درخواست IC (بعد از ایجاد متغیرهای DYt، Yt-1 و DYt-1، DYt-2... به صورت دستی با Base SAS)، باقیمانده ها را با عبارت خروجی ذخیره کنید و تست های همبستگی خودکار را اجرا کنید (به عنوان مثال. g Darbin-Watson).
|
SAS Proc Arima - DF، ADF، SIC، AIC، همبستگی خودکار در باقیمانده ها
|
18899
|
در متن کاوی، اگر تعداد n-گرم را محاسبه کرده باشیم، مثلاً $n=1\ldots4$، آیا راه _اصولی_ برای ترکیب آنها وجود دارد، به جز اینکه فقط ماتریس های $tf-idf$ را برای هر یک به هم بچسبانیم؟ (اگر بخواهیم برای هر یک ماتریس هسته بسازیم، معادل مجموع غیر وزنی هسته ها است). به عنوان مثال، نمایشگر n-gram گوگل: http://books.google.com/ngrams/datasets نشان می دهد که آنها از یونی گرم تا 5 گرم را محاسبه کرده اند، اما نمی گویند چگونه آنها را ترکیب می کنند.
|
ترکیب n-گرم
|
18762
|
مورد منظم سازی در فضای هیلبرت در نظر گرفته می شود --- یک مسئله بهینه سازی با یک عبارت خطا و یک تنظیم کننده Tikhonov. در مقاله چه زمانی قضیه نماینده وجود دارد در صفحه 2 (2508) بیان شده است، و به شواهدی اشاره شده است که قضیه نماینده زمانی برقرار است که قاعدهآور یک تابع _غیر کاهشی_ از هنجار، یعنی مربع هنجار فضای هیلبرت باشد. . **سوال من:** آیا الزامات دیگری برای مشکل وجود دارد، به عنوان مثال در مورد عبارت خطا؟ برای هر کمکی از شما متشکرم!
|
چه زمانی یک قضیه نماینده وجود دارد؟
|
36173
|
من در درک چیزی مشکل دارم. بیایید بگوییم که من داده ای دارم و یک مدل لاجیت روی آن داده ها می سازم. حال، فرض کنید من یک مجموعه داده مشابه و جدیدتر با همان متغیرها دارم، و نمیدانم که آیا مدل اصلی روی دادههای جدید نیز همین را پیشبینی میکند. آیا مقادیر بیان شده در اولین مدل لاجیت در داده های جدیدتر نیز مشابه هستند؟ درست است، بنابراین من متعجب بودم که چگونه این کار را در R انجام می دهد. آیا این فقط یک موضوع مشخص کردن داده های جدید هنگام تلاش برای پیش بینی است. درک کامل مفهومی یا کاربردی این ایده را نداشتم. هر کمکی قابل تقدیر است. df = data.frame(sell=c(0،1،0،0،1)، home=c(خود، اجاره، اجاره، اجاره خود)، درآمد=c(50،20،20،50،50)، جنسیت=c(M، M، F، F، F)) df$sell = as.factor(df$sell) df$home = as.factor(df$home) df$income = as.factor(df$income) df$gender = as.factor(df$gender) str(df) m1 = glm(factor(sell) ~ خانه + درآمد + جنسیت، داده=df، خانواده=دوجمله(لینک=logit)) خلاصه (m1) new.df = data.frame(sell=c(1،1،1،0، 0)، home=c(خود، خود، اجاره، اجاره، خود)، درآمد=c(30،30،30،50)، جنسیت=c(M، M، F، M، F)) m2 = glm(عامل( فروش) ~ خانه + درآمد + جنسیت، data=new.df, family=binomial(link=logit)) summary(m2) بنابراین چگونه می توانم به این سوال پاسخ دهم که آیا مدل اصلی (m1) کار خوبی در پیش بینی مقادیر در داده های جدید (جدید) انجام داده است. df). با تشکر
|
نحوه آزمایش مدل لاجیت بر روی داده های جدید را بدانید
|
85676
|
من سعی می کنم برای مجموعه ای از داده ها معیاری به دست بیاورم که امتیاز هرزنامه یک نفر را نشان می دهد. اساساً، هرچه امتیاز هرزنامه بالاتر باشد، احتمال بیشتری دارد که هرزنامه باشند. در حال حاضر، من امتیاز هرزنامه یک فرد را به صورت نسبت میسنجیم: پستهای بد/کل پستها. اگر این نسبت بالا باشد، احتمالاً آنها هرزنامه هستند. مشکلی که من با آن روبرو هستم این است که سعی کنم افراد مختلف را با هم مقایسه کنم - به عنوان مثال، فردی که 6/8 پست بد دارد به اندازه کسی که 600/800 پست بد دارد اسپم نیست (کسی که 600 پست بد ایجاد کرده است واضح است که هرزنامهنویس است، اما کسی که رتبه 6 را کسب کرده است تا این حد ثابت نکرده است که هرزنامهنویس است. با این حال، در حال حاضر به آنها همان امتیاز هرزنامه 6/8 = 0.75 اختصاص داده شده است. آیا راهی وجود دارد که بتوانم اندازه نمونه را در امتیاز اسپم خود در نظر بگیرم؟
|
نسبتی که حجم نمونه های مختلف را در بر می گیرد
|
44223
|
من یک پایگاه داده پزشکی دارم که شامل 7 متغیر ورودی (4 متغیر باینری هستند) و یک متغیر نتیجه باینری (بقا: بله/خیر). هدف من آموزش و آزمایش الگوریتمی است که احتمال بقا (نه خروجی باینری) را پیشبینی میکند. من از پکیج nnet استفاده کردم. اما برای من یک خروجی باینری (با استفاده از نوع خام و کلاس) برگرداند. از کدام روش می توانم استفاده کنم؟ آیا بسته های R CRAN برای پیش بینی احتمال بقا با استفاده از شبکه های عصبی یا سایر الگوریتم های یادگیری ماشین وجود دارد؟ خیلی ممنون
|
روشها و بستههای CRAN برای پیشبینی احتمال با استفاده از شبکههای عصبی یا سایر الگوریتمهای یادگیری ماشین
|
113318
|
من اخیراً در حال بررسی تکنیک ها یا الگوریتم هایی هستم که مشکلات پراکندگی داده ها را در زمینه های مختلف مدیریت می کنند. و من متوجه شدم که نام کاملاً مشابه تعداد داده ها یا داده های پراکنده از جمله سیستم توصیه کننده، متن کاوی، بازیابی اطلاعات، مدل سازی زبان آماری و همچنین داده های با ابعاد بالا استفاده می شود. با این حال، همه آنها معنای خاص کاملاً متفاوتی برای کاربردهای خاص داشتند. به عنوان مثال، نسبت زیادی از مقادیر از دست رفته در ماتریس کاربر - آیتم به عنوان پراکندگی در نظر گرفته می شود. نسبت بزرگ مقدار صفر (به جای گمشده) در ماتریس ویژگی نمونه نیز پراکندگی نامیده می شود. همچنین افزایش ابعاد داده ها نیز منجر به پراکندگی داده ها می شود. برخی از تعاریف (نه رسمی) در کارهای قبلی ارائه شده است: > 1. در سیستم توصیه، به عنوان ناتوانی در یافتن مقدار کافی همسایه با کیفیت خوب برای کمک به پیش بینی > به دلیل همپوشانی ناکافی رتبه بندی ها بین فعال تعریف می شود. کاربر و > همسایگانش[1]. > 2. در دادههای با ابعاد بالا، چگالی نمونهبرداری ~$N^{1/p}$ که در آن $N$ است > اندازه نمونه و $p$ بعد داده نیز میتواند به عنوان یک مشکل > پراکنده باشد.[2] ] > 3. یک تعریف کاملاً رسمی از نسبت بزرگی از صفرها در ویژگی > ماتریس وجود دارد [3]، من همچنین این را به عنوان نمایش پراکنده به جای > پراکندگی داده ها می دانم. > به طور خلاصه، من کاملاً درک می کنم که پراکندگی در هر برنامه به چه معناست. ** با این حال، من گیج شدهام که آیا چنین نامی از نظر ریاضی توضیح یا تعریفی جهانی دارد.** تا کنون، برای رسیدن به هدف فوق، سعی میکنم یک اندازهگیری پراکندگی ارائه کنم که بتواند موارد فوق را پوشش دهد (اما در خودم. از نظر، نمایش پراکنده ای که به طور گسترده در متن کاوی و غیره استفاده می شود، مشکل متفاوتی دارد.) [1]:دیپا آناند و کمال ک بهارادواج. استفاده از معیارهای پراکندگی مختلف برای افزایش دقت سیستم های توصیه گر مشترک بر اساس شباهت های محلی و جهانی. سیستم های خبره با برنامه های کاربردی، 38(5):5101-5109، 2011. [2]:هستی، ت.، تیبشیرانی، آر.، فریدمن، جی.، هستی، تی، فریدمن، جی، و تیبشیرانی، آر. (2009). عناصر یادگیری آماری (جلد 2، شماره 1). نیویورک: اسپرینگر. صفحه 23. [3]: Duchi, J., Jordan, M., & McMahan, B. (2013). تخمین، بهینه سازی و موازی سازی زمانی که داده ها کم هستند. In Advances in Neural Information Processing Systems (ص 2832-2840).
|
نام پراکندگی داده ها در برنامه های مختلف
|
18764
|
من مقداری نحو برای SPSS دارم و همه چیزهایی را که نیاز دارم را کاملاً تولید می کند، اگرچه به دلایلی آن را به جای دو دنباله، یک دم بیرون می اندازد. آیا راهی برای ویرایش این نحو وجود دارد که از تجزیه و تحلیل دو طرفه استفاده کند؟ رگرسیون /توضیحات به معنای STDDEV CORR SIG N /فقدان لیست /ضریب آماری خروجی CI(95) R ANOVA CHANGE ZPP /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /DEPENDENTMETHODENTHENTH/=1 سن /METHOD=ENTER دبیرستان UnderGrad PostGrad /METHOD=ENTER دانش آموز BlueCollar WhiteCollar /METHOD=ENTER مجرد متاهل DeFacto /SCATTERPLOT=(*ZPRED،*ZRESID) /HISTOGRAM RESIDUALS(ZRESID) NORMPROB(ZRESID).
|
نحو SPSS برای تولید آزمون دو دنباله برای رگرسیون
|
36178
|
در یک مفهوم بسیار کلی، روش های مختلفی وجود دارد که از طریق آنها می توان یک مطالعه مشاهده ای گذشته نگر را قوی کرد؟ اعتبار سنجی متقابل؟ نوردهی به خوبی تعریف شده است؟ و غیره
|
چگونه می توان استحکام مطالعات مشاهده ای را افزایش داد؟
|
89946
|
من در حال انجام مطالعات مستقل در آمار مجانبی و تخمین نقطهای هستم و میدانم که شما میتوانید از تبدیلهای log متغیرهای تصادفی یکنواخت (نمایی) تا توزیعهای مجذور کای به دست آورید، اما به یک سوال جالب برخوردم و من نیستم. مطمئن شوید که چگونه آن را اداره کنید من به روش CLT یا دلتا فکر می کردم اما از خودم مطمئن نیستم. چیزی که من سعی می کنم مرتب کنم این است: با توجه به $X_1,\ldots X_n\overset{iid}{\sim}Uniform(0,\theta)$ و $Z_n=\left(\prod_{i=1}^nX_i \right)^{1/n}$ مثالی از تابع $Z_n$، یعنی $g(Z_n)$ چیست، به طوری که $g(Z_n)\overset{d}{\rightarrow}\chi_{(1)}^2$، که $\overset{d}{\longrightarrow}$ نشاندهنده همگرایی در توزیع و $\chi_{(1)} است. ^2$ یک متغیر تصادفی مجذور کای با 1 درجه آزادی است؟ شاید چیزی شبیه $g(h(Z_n))$ که در آن $h(Z_n)\overset{d}{\rightarrow}Normal(0,1)$ و $g(t)=t^2$؟ هر گونه کمکی بسیار قدردانی می شود.
|
میانگین هندسی همگرایی متغیرهای تصادفی یکنواخت
|
89948
|
_سوال اصلی_: اگر جمعیت 1 شامل شمع های ترکیبی با اندازه X_1 و جمعیت 2 از توده های ترکیبی با اندازه 4*X_1 باشد. آیا باید انتظار داشته باشم که انحراف معیار X_1 برابر با 4 * انحراف معیار X_2 باشد؟ چگونه می توانم انحراف معیار این دو جمعیت را مقایسه کنم؟ **ویرایش برای بازنویسی سوال (با تشبیه های مختلف).** **جمعیت 1**: سطل های بزرگ از تعداد زیادی توپ رنگی مختلف (56 رنگ ممکن)، هر سطل با اندازه X1 **جمعیت 2**: سطل های کوچک همان توپ های رنگی (دوباره 56 رنگ ممکن)، هر سطل اندازه X2. از آنجایی که سایز و چگالی توپ ها یکسان است، هر سطل در این جمعیت دارای مقدار بسیار کمتری از توپ ها نسبت به سطل های جمعیت 1 است. **نمونه** * من n1 مشت توپ رنگی، هر مشت از یک سطل متفاوت از جمعیت 1 برمیدارم و برای هر مشت مقداری از ویژگیهای تعریفنشده را اندازهگیری میکنم. من روند را برای جمعیت 2 تکرار می کنم و n2 اندازه گیری می کنم. * به من گفته شد که چون سطل های جمعیت 1 بزرگتر هستند، باید انتظار تغییرات کمتری در اندازه گیری های n1 نسبت به اندازه گیری های n2 داشته باشم. * پیشنهاد شده است که فاکتورهای نرمال سازی 1/sqrt(X1) و 1/sqrt(X2) را در انحرافات استاندارد اعمال کنم تا آنها را قابل مقایسه کنم، اما نمی توانم هیچ نظریه یا منبع اطلاعاتی مرتبطی پیدا کنم.
|
مقایسه تنوع یک محصول مخلوط از جمعیت های با اندازه های مختلف (رقت)
|
44228
|
# پیشینه و تنظیمات من داده هایی با این فرمت دارم: در مورد هر موضوع فهرستی از قرار گرفتن در معرض برخی مواد، برخی مشخصات جمعیتی و سپس یک پاسخ چندگانه (این که آیا آزمودنی به بیماری مبتلا شده است یا نه و اگر چنین است، پس چه نوع بیماری). به عنوان مثال: موضوع 1 مردی 15 ساله بود که در شهر C زندگی می کرد. او در معرض مواد A، B و C قرار گرفت و نتیجه: آزمودنی سرطان پوست داشت. موضوع 2 .... نتیجه: آزمودنی پسوریازیس داشت... موضوع 3 .... نتیجه: آزمودنی سالم بود... و غیره * * * # سوال من می خواهم بتوانم از این داده ها پیش بینی کنم تا تخمین بزنم چه بیماری با توجه به جمعیت شناسی و سابقه قرار گرفتن در معرض احتمالاً موضوع جدیدی ایجاد می شود. من سعی کردم با رگرسیون لجستیک بازی کنم، اما پاسخ باینری نیست، ممکن است پیامدها/بیماری های زیادی (از جمله موارد عدم وجود بیماری) باشد. چگونه می توانم پیش بینی های خود را انجام دهم - در صورت امکان؟ با تشکر
|
پیشبینیهایی که نتایج متعددی دارند
|
33525
|
من در مورد استقلال حاصلضرب متغیرهای تصادفی مستقل گیج شده ام. بگذارید «A» و «B» مستقل از یکدیگر باشند و «C» و «D» نیز مستقل از یکدیگر باشند، آنگاه میفهمم که «AC» و «CB» لزوماً مستقل از یکدیگر نیستند. با این حال، «A»، «B»، «C» و «D» متقابلاً مستقل از یکدیگر هستند. در این صورت، آیا «AC» و «BD» مستقل از یکدیگر هستند؟
|
آیا محصولات متغیرهای تصادفی مستقل مختلف مستقل هستند؟
|
87126
|
سلام به همه و ممنون از کمک ارزشمند شما در تمام کارهای تحقیقاتی من :) من به هیچ وجه متخصص آمار نیستم، من یک روانپزشک هستم که دکترای خود را در زمینه آموزش پزشکی انجام می دهم و به این نقطه از کارم رسیده ام که من با تجزیه و تحلیل نتایج خود مشکل دارم. سوال من در اینجا مطرح می شود: من گروهی متشکل از 32 دانش آموز دارم که یک آزمون دانش متشکل از 11 سوال چند گزینه ای را قبل و بعد از یک لحظه آموزشی و همچنین چند ماه بعد پر کردند. آخرین آزمایش از طریق یک بستر ویژه در اینترنت انجام شد. دو نفر اول در محل بودند. من قصد دارم چند نمودار و آزمون t انجام دهم تا نتایج را قبل و بعد از آن بررسی و مقایسه کنم. مشکل من این است که در آخرین پیگیری چند ترک تحصیل دارم. شش نفر از آنها در آخرین آزمون دانش تکمیلی شرکت نکردند. چگونه با چنین موقعیتی برخورد می کنید؟ به طور کلی آن 6 نفر را از تجزیه و تحلیل حذف کنید؟ از آنجایی که من یک نمونه نسبتاً کوچک برای شروع دارم، به نظر بیهوده است... از شما متشکرم!
|
داده های از دست رفته در گروه نسبتاً کوچکی از شرکت کنندگان
|
83631
|
من دو تا مشکل دارم اول، من یک OLS، پواسون و رگرسیون دو جمله ای منفی را اجرا کرده ام. برای رگرسیون OLS، من چندین IV دارم (5 کنترل و در ابتدا 2 پیش بینی). برای یکی از متغیرهای پیش بینی، خطای استاندارد در مدل رگرسیون اولیه بسیار زیاد است (بیش از 4). تحمل 0.963 و VIF 1.034 است که نشان می دهد چند خطی بودن نباید نگران کننده باشد. این متغیر پیش بینی با یکی از متغیرهای کنترل/IV همبستگی معنی داری دارد - اما پایین است، 0.127. هیچ ایده ای دارید که چرا SE اینقدر بالاست؟ SE حتی برای رگرسیون دو جمله ای پواسون و منفی بزرگتر است. این من را به موضوع دومم میرساند - DV من به عنوان شمارشی از برخی پدیدهها اندازهگیری میشود. بنابراین، ترتیبی است. یک حد بالایی برای شمارش وجود دارد. من مطمئن نیستم که از کدام تکنیک تجزیه و تحلیل استفاده کنم. من فکر می کنم دو جمله ای منفی ممکن است درست باشد، اما مطمئن نیستم. از کمک شما متشکرم.
|
خطای استاندارد بزرگ بدون چند خطی
|
36174
|
درک من این است که جنگل تصادفی به طور تصادفی متغیرهای _mtry_ را برای ساختن هر درخت تصمیم انتخاب می کند. بنابراین اگر mtry=ncol/3 هر متغیر به طور متوسط در 1/3 درختان استفاده می شود. و 2/3 درختان از آنها استفاده نمی کنند. اما اگر بدانم که یک متغیر احتمالاً بسیار مهم است، چه میشود، آیا خوب است که به صورت دستی احتمال انتخاب این متغیر در هر درخت را افزایش دهم؟ آیا با بسته randomForest در R امکان پذیر است؟
|
جنگل تصادفی: اگر بدانم متغیری مهم است چه می شود
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.