_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
94257
من با یک نمونه مغرضانه از کاربران وب کار می کنم. من فقط می‌توانم پاسخ‌های کاربرانی را که به روشی خاص در سایت من پیمایش کرده‌اند، ردیابی کنم، و می‌خواهم تجزیه و تحلیلی را انجام دهم تا تعیین کنم که چگونه عوامل خاصی (به کدام محصولات و غیره) بر میزان خرید آنها از سایت من تأثیر می‌گذارند. فروشگاه آنلاین. من در اطراف آنلاین جستجو کردم و اطلاعاتی در مورد تصحیح هکمن پیدا کردم، که به نوعی هم برنده جایزه نوبل شد و هم اطلاعات آنلاین بسیار کمی دارد، از جمله پشتیبانی از R یا ویدیوهای یوتیوب که می توانم پیدا کنم. راه‌هایی که با ساخت مدل‌هایی کار می‌کنید که سعی در تصحیح داده‌های جانبدارانه دارند چیست؟ آیا کتابخانه های نرم افزاری برای استفاده آسان در R وجود دارد؟ من تعداد زیادی داده بدون برچسب (محصولاتی که هر کاربر دیده است) دارم، بنابراین ممکن است بتوانم یک مدل ساده برای تعیین احتمال اینکه یک کاربر در نمونه من به پایان برسد، ایجاد کنم، و من مایل به کار با آن هستم. زبان آموزان پیشرفته تر مانند SVM (که من خوانده ام می تواند برای این نوع مسائل بهتر کار کند) در صورتی که رگرسیون خطی انتخاب بدی باشد.
بسته های R که با نمونه های بایاس کار می کنند
52505
من ثابت یا غیر ثابت بودن یک سری زمانی را با R بررسی می کنم و از «adf.test» و «kpss.test» در بسته «tseries» استفاده می کنم. مفروضات این تست ها چیست؟ آیا پیروی از توزیع گاوسی توسط مجموعه داده یکی از فرضیات است؟ اگر بله، برای سری های زمانی غیر گاوسی چه کاری می توانیم انجام دهیم؟ همچنین، آیا استفاده از گزینه های پیش فرض برای ترتیب تاخیر در ADF که $k = \text{trunc}((\text{length}(x)-1)^{1/3})$ است یک فرض مطمئن است؟ متشکرم
مفروضات برای بررسی ثابت بودن یک سری زمانی چیست؟
82811
اجازه دهید $X$ pdf $f_X (x;\theta)=1/(2\theta)$ برای $-\theta<x<\theta$ داشته باشد، صفر در جای دیگر که $\theta>0$ آمار $Y است. =|X|$ یک آمار کافی برای $\theta$؟ * * * کتاب من ادعا می کند که هست اما من آن را نمی بینم. یک آرگومان تبدیل نشان می دهد که توزیع $|X|$ با $f_X (x;\theta)=1/\theta$ برای $0<x<\theta$ یکنواخت است. بنابراین احتمال شرطی $$\frac{f(x_1;\theta)f(x_2;\theta)\ldots f(x_n;\theta)}{f_{|X|}(|X|;\theta)}$ $ _does_ به $\theta$ بستگی دارد و بنابراین، $|X|$ نمی تواند آمار کافی برای $\theta$ باشد. آیا من اینجا کار اشتباهی انجام می دهم؟ متشکرم.
آمار کافی برای یکنواخت
964
بنابراین در R، برای مثال، این خواهد بود: my_ts_logged_diffed = diff(log(some_ts_object)) plot(my_ts_logged_diffed) این به نظر می‌رسد بخشی از گردش کار تحلیلی هر تحلیلگر/پیش‌بینی‌کننده با تجربه باشد - به ویژه، یک _بررسی بصری داده‌های رسم‌شده. آنها به دنبال چه چیزی هستند - به عنوان مثال، این دگرگونی به فاش کردن چه اطلاعات مفیدی کمک می کند؟ به طور مشابه، من مجموعه‌ای خوب از کتاب‌های درسی سری زمانی، آموزش‌ها و موارد مشابه دارم. تقریباً همه آنها به این مرحله تحلیلی اشاره می کنند، اما هیچ یک از آنها نمی گویند که چرا این کار انجام شده است (من مطمئن هستم که دلیل خوبی وجود دارد، و ظاهراً آنقدر واضح است که حتی نمی توان به آن اشاره کرد). (من در واقع به طور معمول بر این تغییر تکیه می کنم، اما فقط برای هدف محدود آزمایش برای توزیع نرمال (من فکر می کنم این تست _Shapiro-Wilk_ نامیده می شود). کاربرد آزمون فقط شامل مقایسه کردن چند پارامتر (یک پارامتر 'W' و مقدار p) در برابر یک خط مبنا - به نظر نمی‌رسد که آزمون نیازی به ترسیم داده‌ها داشته باشد.
تحلیلگران وقتی یک سری زمانی متفاوت و ثبت شده را ترسیم می کنند به دنبال چه چیزی هستند؟
43131
وقتی از اعتبارسنجی متقاطع 10 برابری استفاده می کنم، در مورد بهینه سازی پارامتر سوال دارم. من می خواهم بپرسم که آیا پارامترها باید در طول آموزش مدل هر فولد ثابت شوند یا خیر، یعنی (1) یک مجموعه از پارامترهای بهینه شده را برای دقت متوسط ​​هر فولد انتخاب کنید. یا (2) باید پارامتر بهینه‌سازی شده را برای هر فولد پیدا کنم و سپس هر فولد از پارامترهای بهینه‌سازی شده متفاوتی برای آموزش مدل خود استفاده می‌کند، سپس به ترتیب داده‌های تست فولد را آزمایش می‌کند و در نهایت دقت هر فولد را در نتیجه میانگین می‌دهم؟ کدام یک روش صحیح برای اعتبارسنجی متقابل است؟ خیلی ممنون
اعتبار سنجی متقابل و بهینه سازی پارامترها
11420
من مدلی تهیه کردم که دقت بسیار خوبی (80.5 درصد) روی داده های خارج از نمونه من داشت. با این حال، زمانی که من آن مدل را بر روی جمعیتی که حدود 6 میلیون سن دارد اجرا کردم، دقت به 33 درصد کاهش یافت. من در اینجا در مورد تشخیص درصد رویداد (مثلاً پیش فرض ها) صحبت می کنم. بنابراین در حال حاضر مدل من فقط 33 مورد از 100 پیش‌فرض را در مجموعه داده خارج از زمان شناسایی می‌کند. لطفاً راهنمایی کنید که چه دلایلی می تواند پشت این موضوع باشد. چگونه می توانم این را بهبود بخشم؟ دفاع از این دقت در مقابل مشتری کار سختی است. خدای ناکرده در صورت نیاز به دفاع از این دقت در مقابل مشتری، چگونه می توان آن را توجیه کرد؟
دقت پایین در اعتبار سنجی خارج از زمان
11428
من می خواهم پیامدهای افزایش قیمت های جریمه را ارزیابی کنم. من چند سناریو مختلف خواهم داشت که از کسب و کار معمول، افزایش جزئی، افزایش متناسب، افزایش طبقه‌ای تا افزایش شدید را شامل می‌شود. هر سناریو بسته به جزئیات و زیربرنامه ها سطوح مختلفی از افزایش پولی خواهد داشت. همچنین، من می‌خواهم تحلیل مقایسه‌ای پیاده‌سازی یک سیستم پایه ضربه (x باری که جریمه می‌شوید، شما خارج هستید) در مقابل یک سیستم هدایت کاربر غیر افراطی مشارکتی انجام دهم. آیا مدل‌هایی وجود دارد که چنین افزایش‌هایی را پیش‌بینی کند، به‌ویژه با توجه به این که احتمال دارد افراد پس از ایجاد سیستم جدید، تعداد جریمه‌های خود را کاهش دهند یا افزایش دهند.
مدل ها و روش های آماری برای ارزیابی و پیش بینی افزایش «قیمت خوب».
17116
گفته می شود که برای دستیابی به یک نتیجه خوب (بسیاری از معیارهای مختلف) برای طبقه بندی متن، همیشه انتخاب الگوریتم/طبقه بندی کار نیست. گاهی اوقات، پیدا کردن یک روش انتخاب ویژگی خوب با توجه به وظیفه خاص، مهم تر است. با این حال، حتی قبل از انتخاب ویژگی، انتخاب مجموعه دسته بندی در واقع نتیجه نهایی را تعیین می کند. فرض کنید، در بسیاری از موارد، دسته‌ها در واقع نیمه انعطاف‌پذیر یا کاملاً انعطاف‌پذیر هستند. من می توانم تصور کنم، برای به دست آوردن مجموعه ای بهتر از مقوله ها، هم هدف طبقه بندی متن و هم ویژگی آماری متن نقش مهمی دارند. می خواهم بدانم آیا آموزش/بحث/پیشنهادی در مورد نحوه انتخاب دسته ها وجود دارد؟ و برای تحلیل ویژگی های آماری مجموعه متن از چه روش هایی می توان استفاده کرد؟ (می توانم به استفاده از خوشه بندی فکر کنم.)
انتخاب دسته برای طبقه بندی متن
52501
من در آمار زیاد باتجربه نیستم به همین دلیل ممکن است سوال من را احمقانه بدانید. به هر حال، من می‌خواهم یاد بگیرم که برای تفسیر نسبت‌های فرد در رگرسیون لجستیک باینری باید به کدام سطح از یک متغیر مستقل طبقه‌بندی نگاه کنم. به عنوان مثال، من یک متغیر مقوله ای مستقل (تحصیلات) با سه سطح دارم. نتایج رگرسیون لجستیک باینری نشان می‌دهد که «edu» (سطح مرجع) معنی‌دار نیست اما یکی از سطوح «edu(2)» معنی‌دار است. آیا می توان اهمیت کلی «ادو» را نادیده گرفت و «ادو(2)» را تفسیر کرد؟
متغیر مستقل طبقه ای با سه سطح و رگرسیون لجستیک باینری
97506
آیا امکان وجود چندین (حداقل 3) متغیر وابسته در یک مدل طبقه بندی واحد وجود دارد؟ من می دانم که این را می توان در یک مدل رگرسیون انجام داد، اما باید این کار را با یک مدل طبقه بندی انجام دهم. سه DV من با هم مرتبط هستند، بنابراین من نمی خواهم به سادگی سه مدل طبقه بندی جداگانه بنویسم. آیا کسی راهی برای انجام این کار در اسکیت R یا python می داند؟
طبقه بندی چند متغیره
11421
تا آنجا که من می دانم واریانس به صورت $$\text{variance} = \frac{(x-\text{mean})^2}{n}$$ محاسبه می شود در حالی که $$\text{واریانس تجربی} = \frac{ (x-\text{mean})^2}{n(n-1)} $$ درست است؟ یا تعریف دیگری وجود دارد؟ لطفاً با مثال یا هر مرجعی برای مطالعه در این موضوع توضیح دهید
تفاوت بین واریانس تجربی و واریانس چیست؟
49061
بیشاپ در _Pattern Recognition and Machine Learning_ درباره شبکه های بیز می نویسد: > برای کاربردهای عملی مدل های احتمالی، معمولاً متغیرهای با شماره بالاتر مربوط به گره های انتهایی نمودار هستند که > مشاهدات را نشان می دهند، با گره های با شماره کمتر مربوط به > نهفته است. متغیرها نقش اصلی متغیرهای پنهان این است که اجازه می دهند یک توزیع > پیچیده بر روی متغیرهای مشاهده شده در قالب مدلی که از توزیع های شرطی ساده تر (معمولاً خانواده نمایی) ساخته شده است نشان داده شود. و بعد از چند خط: > متغیرهای پنهان در یک مدل احتمالی، با این حال، نیازی به تفسیر فیزیکی صریح ندارند، اما ممکن است به سادگی معرفی شوند تا امکان ایجاد یک توزیع مشترک پیچیده تر از اجزای ساده تر را فراهم کنند. فکر می کنید منظور او از این نوع متغیرهای پنهان (بدون تفسیر فیزیکی) چیست؟ یک مثال ساده از این چه چیزی می تواند باشد؟ من در مورد مخلوطی از گاوسیان فکر کردم، اما آنها با موقعیتی که متغیرهای مورد نظر ما دارای تعداد بیشتری هستند مطابقت ندارند.
متغیرهای پنهان در شبکه های بیز بدون تفسیر فیزیکی
97500
کارآمدترین راه برای دستیابی به کار زیر در R چیست: ترکیب مقادیر یک متغیر برای مشاهداتی که روی یک متغیر شاخص مطابقت دارند و مقادیر مشخصی روی متغیر شاخص دوم دارند. به عنوان مثال: id1<-c(a،a،b،b) id2<-c (x, y, x, y) متغیر<-rep( 1،4) d<-as.data.frame(cbind(id1,id2,variable)) d$variable<-as.numeric(as.character(d$variable)) وظیفه مشاهدات است (ردیف‌هایی) که «id1» یکسان دارند، برای اضافه کردن مقدار «متغیر» برای موارد با «id2» برابر با «x» به مقدار «متغیر» برای موارد با «id2» برابر با «y» . بهترین چیزی که من می توانم به آن بیابم حلقه دوبل است که کار را انجام می دهد اما بسیار کند و زشت است: for (i in 1:nrow(d)){ if (d$id2[i]=='x') { for ( j در 1:nrow(d)){ if (d$id1[i]==d$id1[j] & d$id2[j]=='y'){ d$variable[j]<-d$variable[i]+d$variable[j] } other next } } other next } بنابراین کارآمدترین رویکرد چیست؟
تطبیق شرطی و ترکیب داده ها در R
60414
واریانس حاصلضرب متغیرهای تصادفی همبسته $k$ چقدر است؟
واریانس حاصلضرب k متغیرهای تصادفی همبسته
52509
من در حال نوشتن گزارشی در مورد یک مطالعه ترکیبی 2×3 هستم. ONE در IV با دو سطح و ONE بین آزمودنی های IV سه سطح وجود دارد. دو DV وجود دارد. حجم نمونه برای هر گروه 25، 25، 27 است. من تست Mauchly را امتحان کردم اما نتیجه ای نداشت. من در جایی خواندم که شما فقط می توانید از آن برای مطالعات با 3 یا بیشتر در داخل IV استفاده کنید. بنابراین سوال من این است که آیا از تست Box استفاده کنم و به خروجی گلخانه گیسر مراجعه کنم؟
آزمون باکس برای کوواریانس های برابر یا آزمون کروی بودن ماچلی؟
49062
به عنوان یک دانشجوی فارغ التحصیل روانشناسی اعصاب با تجربه ای در زمینه آمار (من معمولاً همان کسی هستم که روانشناسان دیگر با مشکلات آماری مواجه می شوند - بعد از اینکه خودشان آن را امتحان کردند اما قبل از مراجعه به یک آمارگیر)، در حال بررسی این هستم که آیا یک درمان پزشکی تأثیری بر اقدامات شناختی دارد یا خیر. از درمان مشکل پزشکی). من به دنبال یک روش آماری معتبر برای نزدیک شدن به مشکل زیر (ترجیحاً با استفاده از R) بوده‌ام که با بازبین‌های (پزشکی) نیز کنار بیاید. من سعی خواهم کرد مشکل را توضیح دهم، که به نظر می رسد تا حدودی غیر معمول است - شاید به دلیل اشتباه در تفکر من. من داده‌هایی از دو جمعیت دارم: گروه بزرگی از کنترل‌ها و گروه کوچک‌تری از بیماران (تعداد ~ 20). در هر دو گروه، من در یک مقیاس شناختی توزیع شده نرمال در چهار نقطه زمانی (T0-T3)، که در بیماران با یک نمره قبل از درمان (T0) و سه نمره پس از درمان (T1-T3) مطابقت دارد، نمرات دارم. به عنوان بخشی از یک رویکرد پذیرفته‌شده در روان‌شناسی عصبی (تحلیل SRB؛ به عنوان مثال داف، 2012)، من از رگرسیون چندگانه در داده‌های کنترل برای مدل‌سازی نمرات T1، T2 و T3 از نمرات جمعیت‌شناسی و پایه (T0) استفاده کرده‌ام. سپس از این مدل رگرسیون برای پیش‌بینی نمرات T1-T3 در بیماران استفاده می‌شود، و تغییر در بیماران فردی براساس تفاوت بین امتیاز پیش‌بینی‌شده و مشاهده‌شده در T1-T3 (و همچنین خطای پیش‌بینی/تغییرپذیری در کنترل‌ها) ارزیابی می‌شود. برای یک بیمار مجرد که چیزی شبیه این به نظر می رسد: T0 T1 T2 T3 امتیاز مشاهده شده 100 105 106 107 امتیاز پیش بینی شده - 110 117 120 با این حال، تجزیه و تحلیل برای مخاطبی در نظر گرفته شده است که برای تجزیه و تحلیل گروهی (و نه فردی) استفاده می شود و به ( به طور جزئی) این مخاطب را ملزم می کند. مایلم پیش بینی های بیماران **به صورت گروهی** را با نمرات مشاهده شده مقایسه کنم. این تجزیه و تحلیل گروهی با دو مشکل مواجه می شود: 1. به دلیل پدیده هایی مانند رگرسیون به میانگین، اثرات تمرین و غیره، توزیع نمرات پیش بینی شده با توزیع نمرات مشاهده شده متفاوت است. به عنوان مثال، رگرسیون به میانگین، گسترش در نمرات پیش بینی شده (در مقایسه با نمرات مشاهده شده) را کاهش می دهد. 2. اگرچه کاوش داده ها (هیستوگرام، نمودارهای qq، و غیره) نشان می دهد که امتیازات تفاوت (مشاهده-پیش بینی) به طور معمول توزیع شده است، اندازه گروه (n~20) کوچکتر از چیزی است که معمولاً به عنوان حداقل اندازه گروه برای نرمال بودن تقریبی توصیه می شود. (n~30). من می خواهم در تجزیه و تحلیل گروهی به دو سوال پاسخ دهم: 1. آیا نمرات مشاهده شده با نمرات (/ کمتر از) پیش بینی شده متفاوت است؟ 2. در چه نقاط زمانی (T1-T3) امتیازات کمتر از امتیازات پیش بینی شده مشاهده می شود؟ به عنوان اولین تقریب، من از آزمون های t تک نمونه ای بر روی تفاوت امتیازات (مشاهده-پیش بینی شده) با تصحیح بونفرونی برای مقایسه های متعدد (3) استفاده کرده ام. اما این به وضوح یک راه حل غیربهینه است: به طور مستقیم آزمون همه جانبه مورد نیاز برای پاسخ به سوال اول را ارائه نمی دهد و در جایی که حداقل تا حدودی مشکوک است، عادی بودن را فرض می کند. از این رو سوال من این است که روش بهینه برای انجام تحلیل گروهی چیست؟
مقایسه مقادیر مشاهده شده و پیش بینی شده در چندین اندازه گیری
961
من یک مجموعه داده دارم که از عناصر سه گروه تشکیل شده است، بیایید آنها را G1، G2 و G3 بنامیم. من ویژگی های خاصی از این عناصر را تجزیه و تحلیل کردم و آنها را به 3 نوع رفتار T1، T2 و T3 تقسیم کردم (برای انجام این کار از تحلیل خوشه ای استفاده کردم). بنابراین، اکنون من یک جدول احتمالی 3×3 دارم که تعداد عناصر در سه گروه بر اساس نوع تقسیم شده است: | T1 | T2 | T3 | ------+---------+---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 18 | 15 | 65 | ------+---------+------------------+---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 20 | 10 | 70 | ------+---------+--------------------------------------------------------------------------------------------------- 15 | 55 | 30 | اکنون، من می‌توانم یک آزمایش فیشر روی این داده‌ها در داده‌های R <- matrix(c(18, 20, 15, 15, 10, 55, 65, 70, 30), nrow=3) fisher.test(data) و من آزمون دقیق فیشر را برای داده های شمارش دریافت می کنم: داده p-value = 9.028e-13 فرضیه جایگزین: دو طرفه بنابراین من سوالات عبارتند از: * آیا استفاده از آزمون فیشر به این روش صحیح است؟ * چگونه می دانم چه کسی با چه کسی متفاوت است؟ آیا آزمایش بعد از تعقیب وجود دارد که بتوانم از آن استفاده کنم؟ با نگاه کردن به داده ها می توانم بگویم که گروه سوم رفتار متفاوتی با دو مورد اول دارند، چگونه می توانم آن را از نظر آماری نشان دهم؟ * شخصی به من اشاره کرد که مدل های لاجیت: آیا آنها گزینه مناسبی برای این نوع تحلیل هستند؟ * گزینه دیگری برای تجزیه و تحلیل این نوع داده ها وجود دارد؟ خیلی ممنون نیکو
آزمون آماری برای n x m جداول احتمالی
52507
اجرای این مثال از کتاب درسی Hyndman در فصل 9.1: auto.arima(austa,d=0,xreg=1:length(austa)) ARIMA(2,0,0) با میانگین غیر صفر ضرایب: ar1 ar2 intercept 1:length (austa) 1.0371 -0.3379 0.4173 0.1715 s.e. 0.1675 0.1797 0.1866 0.0102 sigma^2 تخمین زده شده به عنوان 0.02486: log likelihood=12.7 می خواهم آزمایش کنم که آیا روند قابل توجه است. هنگام استفاده از `lm`، برای بدست آوردن مقادیر p به درجات آزادی نیاز دارم، به عنوان مثال: tstats <- coef(test) / sqrt(diag(vcov(test))) 2 * pt(abs(tstats) , df = df.residual(test), bottom.tail = FALSE) چگونه d.o.f را برای این مثال (و به طور کلی برای ARIMA) محاسبه کنم مدل ها) برای بدست آوردن مقادیر p؟
چگونه df را برای مدل های ARIMA محاسبه کنیم؟
60413
چگونه می توانم از آزمون پیشینی برای تعیین اندازه نمونه برای تحقیقات کوهورت آینده نگر خود استفاده کنم که مردان واکسینه شده را با مردان غیر واکسینه شده مقایسه می کند. من در حال بررسی تأثیر واکسیناسیون بر شیوع بیماری در آینده هستم.
چگونه می توان حجم نمونه را قبل از طراحی یک تحقیق مطالعه کوهورت آینده نگر 2 گروهی تعیین کرد؟
60418
در اینجا برخی از نتایج برای ANN و KNN در مجموعه داده‌های آبالون با استفاده از Weka آورده شده است: نتیجه برای ANN نمونه‌های به‌درستی طبقه‌بندی‌شده 3183 76.203 % موارد طبقه‌بندی نادرست 994 23.797 درصد میانگین خطای مطلق 0.214 ریشه میانگین مربعات خطای ریشه 0.3649 %5 نمونه‌های به‌درستی طبقه‌بندی‌شده 3211 76.8734 % موارد طبقه‌بندی نادرست 966 23.1266 درصد میانگین خطای مطلق 0.2142 ریشه میانگین مربع خطا 0.3361 خطای مطلق نسبی 58.7113 درصد KNN دارای دقت پایین است. پس باید بگویم کدام یک از این دو الگوریتم بهتر است؟ کدام معیار، دقت یا خطا، ارجح تر است؟ آنچه من فهمیدم این بود که خطا باید با دقت بالا کاهش یابد، اما نتایج در اینجا برعکس است. چرا اینطور است؟
بهترین معیار برای ارزیابی عملکرد در الگوریتم های طبقه بندی چیست؟
104594
من چه ممکن است یک سوال ساده لوحانه است. من در حال مقایسه مدل های مختلف (یعنی توزیع ها) هستم. و مقایسه‌ها شامل توزیع‌های مختلف نیست، بلکه شامل نحوه تغذیه مدل از داده‌ها می‌شود. به عنوان مثال، دو مدل ممکن است 1) مخلوطی از گاما + نمایی و 2) مخلوطی از گاما + نمایی که در آن حداقل نقطه داده کم می شود. با توجه به مدل 2). اگر حداقل داده را کم کنم، یک نقطه داده = 0 باقی می‌مانم. مدل مناسب است و مقادیر MLE خود را دریافت می‌کنم. با این حال، اگر من فقط با یک گاما کار کنم و در یک مدل حداقل نقطه داده را حذف کنم، آن نقطه داده = 0 باعث ایجاد خطا در برآوردگر MLE می شود. برای عبور از این مشکل، من به سادگی نقطه داده 0 را حذف می کنم و توزیع را متناسب می کنم. سوال من این است که آیا صرفاً حذف نقطه داده (نگرانی من کاهش اندازه مجموعه داده من است) مشکلی دارد؟ و برای گاما + نمایی هم باید این کار را بکنم؟ با تشکر
محاسبه حداقل اندازه گیری وابسته در داده ها هنگام برازش توزیع
43134
سلام آماردانان فوق العاده، من در حال نوشتن یک پروپوزال برای پایان نامه ای هستم که در آن می خواهم بررسی کنم که آیا ضربان قلب می تواند پیش بینی کند 1) انسجام روایت (همانطور که در یک مقیاس قضاوت می شود - اما همچنین می تواند طبقه بندی شود) و 2) خود گزارش شده رضایت از رابطه (همچنین مقیاسی). در حالت ایده‌آل، من همچنین می‌خواهم ببینم آیا DV1 (انسجام روایت) DV2 (رضایت از رابطه) را پیش‌بینی می‌کند، زیرا گمان می‌کنم همه آنها به هم مرتبط هستند. بهترین راه برای تجزیه و تحلیل این داده ها چیست؟ آیا می توانم DV1 را به عنوان یک IV بدون به خطر انداختن یکپارچگی تجزیه و تحلیل خود تجزیه و تحلیل کنم؟ فکر من انجام یک MANOVA یا MANCOVA است. با این حال، هر توصیه ای قابل قدردانی خواهد بود!
چگونه باید یک مجموعه داده را با 1 IV و 2DV (همه متغیرهای مقیاس) تجزیه و تحلیل کنم؟
64249
با عرض پوزش برای پرسیدن چنین سوال احمقانه ای، اما من نمی توانم معیارهای پشت ماتریس کنتراست را درک کنم، باید برای طراحی مدل های خطی در R ایجاد شود. من راهنمای کاربر limma (P: 101) را خوانده ام و یک مثال برای آن وجود داشت. مثال در مورد استروژن (موجود/غایب) و تأثیر دیررس (48 ساعت) و اولیه (10 ساعت) آن بر سرطان است. من نمی توانم بفهمم که به چه معنا می توانند با اختصاص 1 برای e48 و E48 اثر زمان را از بین ببرند. در اینجا دستورات R آمده است: درمان <- factor(c(1،1،2،2،3،3،4،4)، labels=c(e10، E10، e48، E48) ) کنتراست ها (درمان ها) <- cbind(Time=c(0,0,1,1),E10=c(0,1,0,0),E48=c(0,0,0,1)) تضادها > درمان ها [1] e10 e10 E10 E10 e48 e48 E48 E48 attr(کنتراست) زمان E10 E48 e10 0 0 0 E10 0 1 0 e48 1 0 0 E48 1 0 1 سطوح: e10 E10 e48 E4
ایجاد ماتریس کنتراست برای رگرسیون خطی در R
52502
من با این تعریف دست و پنجه نرم می کنم حداقل مجموع مربع ها برای یک ماتریس $M$: حداقل مقدار $f(β)$ که $β = (X'X)^{−1}X'y$ از سیستم معادلات عادی $X′Xβ = X′y$ است $$y′(I − X(X′X)^{−1}X′)y = y′My$$، با $M = (I − X(X'X)^{−1}X')$ یک ماتریس متقارن و بدون توان (T × T). ردپای $M$ $\operatorname{tr(M)} = \operatorname{tr}(I)−\operatorname{tr}(X(X′X)^{−1}X′) = T -K است $ و برابر با رتبه $r(M)$ است. منظور از رتبه $M$ چیست (آیا این رتبه واقعی ماتریس $M$ است) و چگونه می توان به این نتیجه رسید؟
مدل رگرسیون چندگانه - حداقل مجموع مربعات
62810
من برخی از داده های تاریخچه کاربران را دریافت کردم و تعدادی دنباله از اعداد واقعی را ایجاد کردم. طول هر سکانس بین 15 تا 25 است. علاوه بر این، من نمی دانم که آیا این دنباله ها دارای الگوهایی هستند و فرکانس نیز مشخص نیست. هدف من استفاده از هر دنباله برای پیش بینی مقدار بعدی آن است و سپس از auto.arima در R برای انجام این کار استفاده می کنم. با این حال، دقت پیش بینی پایین است. کسی ایده خوبی برای بهبود دقت دارد؟ یکی از این دنباله ها: 1.5959709882736206 0.7300914525985718 2.0011744499206543 3.6755871772766113 0.806111239 1.3413848876953125 3.371157646179199 0.4400146007537842 2.637667655944824 2.145376920700079141232323 2.3429665565490723 1.1187453269958496 1.4169363975524902 3.328829050064087 4.1577486991882352352391 2.7843635082244873
چگونه می توان دقت پیش بینی را بهبود بخشید؟
76525
من مجموعه داده ای از روابط زوجی دارم که نشان می دهد $a$ با $b$ رابطه دارد یا خیر. بهتر است این مجموعه داده را به عنوان یک نمودار در نظر بگیرید که هر گره دارای یک مقدار عددی به عنوان ویژگی خود است. فرض کنید این ویژگی احتمالاً بین 10- تا 10 دلار متغیر است. حال سوال این است: آیا دو گره یکی به هم مرتبط هستند یا خیر؟ اگر آنها هستند، مقدار این عبارت $1$ است: $(\text{node}_1,\text{node}_2) = 1$، و یک لبه بین آنها در نمودار وجود خواهد داشت، در غیر این صورت $(\text {node}_1,\text{node}_2) = 0$، به این معنی که هیچ لبه‌ای بین $\text{node}_1$ و $\text{node}_2$ وجود نخواهد داشت. بیایید مشکل را به این صورت در چارچوب قرار دهیم. داده ها در مورد پزشکی است. هر دارویی یک ویژگی دارد (انحلال پذیری) و برخی از داروها وقتی با هم استفاده می شوند مؤثرتر هستند. بنابراین مجموعه داده در مورد آزمایش این دو دارو به طور کلی است. حال اگر دارو (گره) مثلاً برای یک بیماری مؤثرتر شود، ارزش $(\text{node}_1,\text{node}_2)$ 1 خواهد بود یا به عبارت دیگر یک لبه وجود خواهد داشت. در نمودار ما این کار را به صورت آزمایشی انجام داده‌ایم، اما اکنون چیزی که می‌خواهم انجام دهم این است که یادگیری یک گره را کنار بگذارم و سعی کنم لبه‌های آن را حدس بزنم، زیرا می‌توانم پشتیبانی بیشتری برای آزمایشم اضافه کنم. اکنون که داده‌ها را دارم، می‌خواهم لبه‌های یک گره جدید را به گونه‌ای پیش‌بینی کنم که هر بار یک گره را کنار بگذارم یا یک گره را بیرون بگذارم. من گره و تمام اتصالات (لبه‌های) آن را کنار می‌گذارم و از اطلاعاتی که در مورد سایر گره‌های مجموعه داده دارم، می‌خواهم لبه‌های گره‌ای را که کنار گذاشته‌ام پیش‌بینی کنم. سوال من این است که بهترین روش/الگوریتم و راه حل برای مشکل من چیست؟
پیش بینی لبه های نمودار
62816
مردم همیشه می گفتند که بیز ساده لوح یک مدل خطی است. من نمی توانم بفهمم چرا، پس کسی می تواند توضیح دهد؟
چرا بیز ساده لوح یک مدل خطی است؟
46562
در صورت رگرسیون لجستیک ترتیبی، هر دو آماره برازش، پیرسون و معیارهای تناسب انحراف، باید فقط برای مدل‌هایی استفاده شوند که مقادیر مورد انتظار نسبتاً زیادی در هر سلول دارند. اگر یک متغیر مستقل پیوسته یا پیش‌بینی‌کننده‌های طبقه‌بندی زیادی یا چند پیش‌بینی‌کننده با مقادیر زیاد دارید، ممکن است سلول‌های زیادی با مقادیر مورد انتظار کوچک داشته باشید. SPSS در مورد تعداد سلول های خالی طراحی به شما هشدار می دهد. در این شرایط، هیچ یک از آمارها، آزمون خوبی از برازش قابل اعتماد را ارائه نمی دهند. بنابراین اگر من چند متغیر مستقل پیوسته داشته باشم، آیا معیاری برای برازش وجود دارد؟ چگونه بفهمم که مدل من خوب است یا نه؟
سنجش میزان برازش در رگرسیون لجستیک ترتیبی با متغیر مستقل پیوسته
64245
برای یک مدل کلی $$y_{i} = \alpha + \beta_{1}X_{1} + \beta_{2}X_{2} + \epsilon_{i}$$ با پسرفت $y_{i}$ در $ X_{1}$ به تنهایی منجر به سوگیری $\beta_{1}$ می‌شود که توسط: $$plim \: \widehat{\beta}_{1} = \beta_{1} + \beta_{2}\frac{Cov(X_{1},X_{2})}{Var(X_{1})}$$ اکنون به طور تصادفی به کاغذی برخوردم که مدلی به شکل $$S_{i دارد } = \alpha D_{i} + \beta P_{i} + u_{i}$$ بدون هیچ متغیر دیگری و بدون وقفه. مقدار واقعی $\beta$ قرار است صفر باشد زیرا رویداد $S$ قبل از رویداد $P$ است. سپس نویسندگان بایاس متغیر حذف شده دو ضریب را به صورت زیر بیان می کنند: $$\widehat{\alpha}_{OLS} = \alpha + \frac{Cov(D,u)Var(P) - Cov(D,P) Cov(P,u)}{Var(D)Var(P) - Cov(D,P)^{2}}$$ and $$\widehat{\beta}_{OLS} = \frac{Cov(P,u)Var(D) - Cov(D,P)Cov(D,u)}{Var(D)Var(P) - Cov(D,P)^{2}}$ $ من مدت زیادی است که سعی کرده ام این نتیجه را بازتولید کنم، اما نمی توانم بفهمم چگونه آنها به این دو تعبیر سوگیری رسیده اند. نکته مشکل‌ساز این است که من ظاهراً نمی‌توانم بفهمم آنها از کدام فرمول OVB شروع می‌کنند، زیرا در تنظیمات آنها نمی‌تواند برای یک متغیر منفرد که در بالا نوشته شده است معمول باشد. مقاله توسط آدا و همکاران است. (2011) که مشکل مطرح شده را می توان در صفحه 52 PDF پیدا کرد. اگر کسی بتواند به سمت راست اشاره کند، بسیار سپاسگزار خواهم بود.
فرمول تعصب متغیر حذف شده با بیش از یک متغیر
64246
مطمئن نیستم که آیا این برای این سایت مناسب است یا خیر، اما من MSE خود را در علوم کامپیوتر (لیسانس ریاضی کاربردی) شروع می کنم و می خواهم یک پیشینه قوی در یادگیری ماشین کسب کنم (به احتمال زیاد قصد دارم مدرک دکترا را دنبال کنم). یکی از علاقه مندی های من شبکه های عصبی است. یک پس زمینه ریاضی خوب برای شبکه های عصبی مصنوعی چیست؟ مانند سایر حوزه های یادگیری ماشین، جبر خطی را مهم فرض می کنم، اما چه حوزه های دیگری از ریاضیات مهم هستند؟ من قصد دارم شبکه های عصبی: معرفی سیستماتیک یا شبکه های عصبی برای تشخیص الگو را بخوانم. آیا کسی ورودی یا پیشنهاد جایگزینی دارد؟
پیشینه ریاضی برای شبکه های عصبی
48139
**ما باید انحراف معیار را از متن زیر پیدا کنیم:** _مواد اولیه مورد نیاز برای ساخت دارو باید حداقل 97$\%$ خالص باشد. یک خریدار فرضیه صفر را تجزیه و تحلیل می کند که نسبت $\mu_0=97\%$ است، با فرضیه جایگزین که نسبت بالاتر از $97\%$ است. او تصمیم می گیرد در صورت رد فرضیه صفر با $\alpha = 0.05 $، ماده خام را بخرد. بنابراین اگر مقدار بحرانی محاسبه‌شده برابر با $t_{\alpha} = 98 \%$ باشد، او فقط در صورتی خرید می‌کند که با تجزیه و تحلیل خود نسبتی معادل 98$\%$ یا بالاتر پیدا کند. ریسک خرید مواد خام با نسبت $97\%$ (فرضیه صفر درست است) 100 دلار است \times \alpha = 5 \%$_ این متن من را تا حد زیادی گیج می کند. از قسمت اول به نظرم می رسد که شانس اینکه او مواد خام را با نسبت $\geq 98 \%$ دریافت کند 0.05 دلار است (چون این مقدار بحرانی است). از جمله آخر به نظر من شانس خرید مواد با نسبت $\leq$ $98 \%$ 0.05$ است البته اینها متناقض هستند و امیدوارم کسی بتواند سردرگمی من را برطرف کند! ps - یک سوال جانبی کوچک. فرض کنید می‌خواهید یک فرضیه را رد کنید ($\alpha = 0.05$) و متوجه می‌شوید که احتمال واقعی بودن $H_0$ به طور معجزه آسایی 0.05$ است. آیا شما فرضیه را رد می کنید یا خیر؟ به عبارت دیگر، آیا مرز به حساب می آید؟
انحراف معیار را پیدا کنید
49069
من سعی می کنم بفهمم که اصلاح نرخ تشخیص نادرست در یک مقاله ژنتیک از کجا می آید و شکست می خورد. مقاله مورد بحث به دنبال یک روش توالی است که در آن هر نمونه چندین بار خوانده می شود و هر بار یک نتیجه مثبت یا منفی می دهد. آنها سعی می کنند تا آستانه ای برای تعداد مثبت مورد نیاز قبل از پذیرفته شدن یک نمونه برای ارائه نرخ مثبت کاذب کلی 1٪ ارائه کنند. این روش از چیزی بسیار نزدیک به روش بنجامینی-هخبرگ استفاده می کند، اما به دلایلی من در تلاش هستم تا بفهمم آنها از مجموع منفی ها به جای مجموع آزمایشات برای مخرج استفاده کرده اند. بنجامینی-هوکبرگ $p(k) \le \frac{k}{m}\alpha$ خواهد بود که $p(k)$ احتمال موفقیت $k$ در آزمایشات $m$ و $\alpha$ است. q$-value مورد نظر. این مقاله از $p(k) \le \frac{k}{u}\alpha$ استفاده می‌کند که $u$ تعداد آزمایش‌های منفی است. چرا آنها این کار را می کنند؟ من می توانم ببینم که این رویکرد محافظه کارانه تری است، اما نمی توانم هیچ توجیه نظری برای استفاده از این فرمول خاص پیدا کنم. مقالات مورد بحث عبارتند از: http://www.ncbi.nlm.nih.gov/pubmed/20436463 و http://www.nature.com/nature/journal/v462/n7271/full/nature08514.html
با محاسبه نرخ تشخیص کاذب مشابه بنجامینی-هخبرگ در کاغذ اشتباه گرفته شد
46568
با توجه به مدل زیر که فروش کل سال خانه را به نرخ بیکاری مرتبط می کند (مشاهده یا تخمین زده شده) من یک افزایش پیش بینی شده 14 درصدی برای سال 2013 نسبت به 2012 دریافت می کنم... سال گذشته همین رویکرد بیش از 6 درصد پیش بینی شده بود (پیش بینی سال 2012 برای 41,992 و واقعی در حدود 39,535) بنابراین فکر می کنم مدل به پایان رسیده است اما من در بن بست هستم به یک راه خوب (معتبر) برای اصلاح آن فکر می کنید؟ BTW طرح ریزی)s) با آنچه که یک رگرسیون خط مستقیم ساده در یک صفحه گسترده به دست می آید یکسان است. همچنین می‌خواهم از افراد خوب Stack Overflow تشکر کنم که من را در اولین حمله من به R تا اینجا رساندند http://stackoverflow.com/questions/14032768/csv-input-to- r-forecast-with-dates-via- r-studio#14032768 اشاره گر قدردانی شد. # داده‌های پایه را همانطور که در Workbook سؤال ارائه شده است بارگیری کنید <- structure(list(Year = structure(1:10, .Label = c(31-Dec-04, 31-Dec-05, 31-Dec -06، 31-Dec-07، 31-Dec-08، 31-Dec-09، 31-Dec-10، «31-دسامبر-11»، «31-دسامبر-12»، «31-دسامبر-13»)، کلاس = «ضریب»)، کل = c(51439L، 59674L، 58664L، 55698L، 42235L، 37918L، 36234L، 36965L، 39535L، NA)، UnemplRt = c(5.7، 4.7، 3.8، 3.7، 4.3، 8.5، 10.9، 10، 8.3، 7.1))، .Names = c(Year، total، UnemplRt)، class = data.frame , row.names = c(NA, -10L)) # از مقدار یک سری زمانی بسازید وابسته <- ts(Workbook1[1:9,]$total، start=c(2004)، فرکانس=1) # بسته پیش‌بینی بار نیازمند (پیش‌بینی) # بارگذاری متغیرهای مستقل در متغیرها. بیکاری <- ts(Workbook1[1:9,]$UnemplRt, start=c(2004), frequency=1) unemployment_future <- ts(Workbook1[10:10,]$UnemplRt, start=c(2004), frequency= 1) # مدلی بسازید که متناسب با تاریخچه fit2 باشد <- auto.arima(dependent, xreg=unemployment) # ایجاد یک پیش بینی با نرخ بیکاری از قبل شناخته شده برای سال 2013. fcast2 <- forecast(fit2,xreg=unemployment_future) fcast2 Point Forecast Lo 80 Hi 80 Lo 95 Hi 95 2013 45168.02 38848.92 51492554. یک رگرسیون خطی صفحه گسترده ساده دقیقاً همان نتیجه را به دست می‌دهد. و من معتقدم که افزایش پیشنهادی در فروش خانه بسیار زیاد است، سال گذشته پیش بینی حدود 6٪ بسیار زیاد بود. بنابراین من سعی می‌کنم اعداد را با روش‌های معتبر ایستا شکنجه کنم تا به عددی کمتر برای سال 2013 برسم.
رگرسیون آریما بهبود مدل
45032
آیا آزمون یا اندازه گیری آماری برای ارزیابی میزان همبستگی یا وابستگی بین دو مجموعه از نقاط داده وجود دارد؟
اندازه گیری همبستگی یا وابستگی بین دو مجموعه داده
27655
در برخی تحقیقات بازار از مصرف کنندگان خواسته می شود که ویژگی های یک محصول را بر اساس اولویت رتبه بندی کنند. به عنوان مثال، _ ویژگی های زیر را برای یک دستگاه بر اساس اولویت خود رتبه بندی کنید (1 اولویت است)_ ظرفیت ذخیره سازی 6 قابلیت حمل 5 رابط لمسی 1 صفحه کلید 4 عمر باتری طولانی 2 سرگرمی در حال حرکت 3 _در مقیاس 1 تا 5 امتیاز دهید ویژگی ها بر اساس اهمیت (1 بسیار مهم است)_ 1 2 3 4 5 ظرفیت ذخیره سازی 1 قابلیت حمل 3 رابط لمسی 1 صفحه کلید 1 عمر باتری طولانی 2 سرگرمی در حال حرکت 4 اکنون بر اساس رتبه بندی و رتبه بندی، می خواهم وزن ها را تعیین کنم و در پایان بفهمم که آیا مصرف کننده لپ تاپ یا رایانه لوحی را ترجیح می دهد/ بگویید در این مثال مصرف کننده لمس را در رتبه 1 قرار داده است. و عمر باتری 2; اینها ویژگی های یک تبلت است. اما او کیبورد و ظرفیت فضای ذخیره سازی را از جمله مهم ترین ویژگی های لپ تاپ کیبورد دانسته است. چگونه می توانم این دو را با هم ترکیب کنم و احتمالاً وزن هایی را تعیین کنم و به یک نمره برسم؟ اگر امتیاز بالاتر از حد معینی باشد، مصرف کننده تبلت را ترجیح می دهد و کمتر از یک سطح مشخص، مصرف کننده لپ تاپ را ترجیح می دهد.
چگونه یک مقیاس رتبه بندی و رتبه بندی را با هم تجزیه و تحلیل کنیم؟
64242
من داده‌های اسباب‌بازی زیر را دارم: ساختار x <-(c(2L, 2L, 3L, 1L, 2L, 3L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 3L, 2L, 2L, 2L, 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، .Label = c(1، 2، 3 )، کلاس = عامل) y <- ساختار(c(2L, 2L, 3L, 1L, 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 1 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1L، 3L، 3L، 3L، 2L، 2L، 3L، 3L، 2L)، .Label = c(1، 2، 3), class = factor) z <- structure(c( ۱ لیتر، ۱ لیتر، ۳ لیتر، ۲ لیتر، ۱ لیتر، ۳ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۲ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، ۳ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، 1 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، .Label = c(1، 2، 3)، class = factor) من 1 در `x` را با 2 در `z` جایگزین کرده ام و بالعکس. حالا وقتی یک رگرسیون لجستیک مرتب در R با «polr» (MASS کتابخانه) انجام می دهم، ضرایب زیر را دریافت می کنم: f1 <- polr(y~x,Hess=TRUE) f2 <- polr(y~z,Hess=TRUE ) coef(summary(f1)) Value Std. خطای t مقدار x2 25.95727 0.3028808 85.70127 x3 30.21524 0.5463144 55.30742 1|2 24.02167 0.3480269 69.02247 69.02247| 0.3432316 80.90944 coef(summary(f2)) Value Std. خطای t مقدار z2 -21.495979 6.530398e-10 -3.291680e+10 z3 4.257964 8.119540e-01 5.244095e+00 1|2 -1.9355739 3.56-3.5 -5.425880e+00 2|3 1.813399 3.411874e-01 5.314964e+00 به نظر می رسد چیزی درست نیست. چرا برچسب‌گذاری مجدد سطوح، تخمین‌های SE را به‌طور چشمگیری تغییر می‌دهد؟
درک رگرسیون لجستیک منظم
62811
من یک پرسشنامه همراه دارم که دارای سؤالات مختلفی است که در آن پاسخ ها به صورت رتبه بندی ارائه می شوند (مثلاً 1-5، از بد به خوب). اکنون می خواهم آزمایش کنم که آیا پاسخ به سؤال A تحت تأثیر چندین متغیر است که شامل برخی از عوامل (مانند جنسیت)، برخی پیوسته (مانند سن) و همچنین برخی گسسته (1-5 پاسخ دیگر) می شود. اولین فکر من این بود که باید از GLM استفاده کنم، اما مطمئن نیستم که آیا این بهترین برای این نوع داده است و کدام توزیع مناسب است. اگر کسی ایده ای از بهترین کار برای انجام دادن داشته باشد، بسیار خوشحال می شوم که آن را بداند.
چگونه می توان یک آیتم رتبه بندی پنج امتیازی را که توسط متغیرهای متعددی که برخی از آنها فاکتور هستند، پیش بینی کرد، مدل کرد؟
45030
من یک ماتریس ویژگی سلسله مراتبی دارم، منظورم این است که هر مورد ممکن است به یک یا چند دسته تعلق داشته باشد، بنابراین داده های من چیزی شبیه به آن خواهند بود | کاربر | دسته بندی | مورد | | 1 | 12 | 120 | | 2 | 15 | 411 | | 9 | 35 | 411 | | 1 | 15 | 321 | که در آن اعداد به ترتیب نشان دهنده شناسه کاربران، دسته ها و آیتم ها هستند. همانطور که می بینید در اینجا یک سلسله مراتب وجود دارد، مجموعه ای از دسته ها برای هر کاربر و مجموعه ای از آیتم ها در آن دسته، که در آن یک آیتم می تواند به بیش از یک دسته تعلق داشته باشد. هدف من این است که موارد جدید را به کاربران ورودی جدید توصیه کنم. من قبلاً یک الگوریتم شباهت کاربر در محل دارم و می توانم n کاربر مشابه برتر را پیدا کنم. اکنون باید از جدول بالا برای توصیه یک یا چند مورد به کاربر جدید استفاده کنم. * راه آسان این است که دسته‌ها را از مشابه‌ترین کاربر بگیریم، مواردی را از این دسته‌ها انتخاب کنیم و به کاربر جدید پیشنهاد کنیم، اما من به دنبال رویکرد بهتری هستم که ترکیبی از **_categ-item_** را به طور همزمان در نظر بگیرد. این یک مجموعه داده بسیار بزرگ است، بنابراین الگوریتم باید مقیاس شود. هر پیشنهادی؟
توصیه کننده سلسله مراتبی
46561
هنگامی که من شبیه سازی مونت کارلو را برای برخی از مشکلات کدنویسی می کنم، و مدل به اندازه کافی ساده است، از یک کتاب درسی بسیار ابتدایی از نمونه گیری گیبس استفاده می کنم. زمانی که امکان استفاده از نمونه‌گیری گیبس وجود ندارد، کتاب درسی Metropolis-Hastings را که سال‌ها پیش آموخته‌ام، کدنویسی می‌کنم. تنها فکری که به آن دارم انتخاب توزیع پرش یا پارامترهای آن است. من می دانم که صدها و صدها روش تخصصی وجود دارد که نسبت به آن گزینه های کتاب درسی بهبود می یابند، اما من معمولاً هرگز به استفاده/یادگیری آنها فکر نمی کنم. معمولاً به نظر می رسد که تلاش زیادی برای بهبود کمی چیزی است که قبلاً بسیار خوب کار می کند. اما اخیراً به این فکر می‌کنم که آیا شاید روش‌های کلی جدیدی وجود نداشته باشد که بتواند نسبت به کاری که انجام می‌دهم بهبود یابد. چندین دهه از کشف آن روش ها می گذرد. شاید من _واقعا_ قدیمی شده ام! **آیا جایگزین های شناخته شده ای برای Metropolis-Hastings وجود دارد که عبارتند از:** * **پیاده سازی به طور منطقی آسان،** * **به اندازه MH در سراسر جهان قابل اجرا هستند،** * **و همیشه به نوعی نسبت به نتایج MH بهبود می یابند. (عملکرد محاسباتی، دقت، و غیره...)؟** من در مورد برخی از پیشرفت های بسیار تخصصی برای مدل های بسیار تخصصی می دانم، اما آیا چیزهای کلی وجود دارد که همه استفاده می کنند که من نمی دانم؟
برخی از پیشرفت های شناخته شده نسبت به الگوریتم های MCMC کتاب درسی که مردم برای استنتاج بیزی استفاده می کنند چیست؟
57954
من در حال حاضر با مشکلی روبرو هستم که در آن برخی از نمونه های آموزشی من به بیش از یک کلاس در همان زمان تعلق دارند، مثلاً نمونه $y_i$ مربوط به کلاس $A$ و $B$ است. من فکر می کردم که راه حل آن این است که آن نمونه را دو برابر در نظر بگیریم، یعنی آن را به عنوان دو نمونه در نظر بگیریم، یکی برای کلاس $A$ و دیگری برای کلاس $B$. با این حال، مشکل من این است که من یک استراتژی یک در مقابل همه را اجرا می کنم، که در آن فکر می کنم این راه حل ممکن است باعث خطاهای عددی شود (ماتریس ویژگی دارای ردیف های یکسان خواهد بود)! آیا اشاره ای به این نوع مشکل (یا نام فنی آن) می شناسید؟ پیشاپیش متشکرم
چگونه می توان نمونه هایی را که به چندین کلاس تعلق دارند در یادگیری نظارت شده مدیریت کرد؟
49395
من با مشاورم بر سر تجسم داده ها بحث دارم. او ادعا می کند که هنگام نمایش نتایج تجربی، مقادیر باید فقط با _markers_ ترسیم شوند، همانطور که در تصویر زیر ارائه شده است. در حالی که منحنی‌ها فقط باید یک **مدل** را نشان دهند![Markers.png](https://dl.dropbox.com/u/6484897/markers.png) من از سوی دیگر معتقدم که منحنی در آن غیر ضروری است. موارد زیادی به منظور تسهیل خوانایی، همانطور که در تصویر دوم زیر نشان داده شده است: ![Lines.png](https://dl.dropbox.com/u/6484897/lines.png) من اشتباه می کنم یا استادم؟ اگر مورد بعدی است، چگونه می توانم این اطراف را برای او توضیح دهم.
نمایش داده های تجربی
62815
آیا طبقه بندی NOIR داده ها را می دانید؟ NOIR - نسبت فاصله ترتیبی اسمی. من می خواهم استدلال کنم که نمودار خطی را می توان با داده های فاصله و نسبت استفاده کرد در حالی که نمودار مساحتی باید فقط با داده های نسبت استفاده شود. این به این دلیل است که داده‌های نسبت دارای 0 معنی‌دار هستند و در مورد نمودار مساحتی خط پایه نمودار 0 است (به این معنی که منطقه از منحنی تا محور افقی را در بر می‌گیرد). بنابراین استفاده از نمودار مساحتی با داده های بازه ای غیرمنطقی خواهد بود. با این حال این تنها احساس من است و مطمئن نیستم. نظر شما در مورد آن چیست؟ آیا نشریه‌ای می‌شناسید که در این مورد بحث کند؟
نمودار خط در مقابل نمودار مساحت - NOIR
46569
من یک مجموعه داده با تقریباً 500 مشاهده بر روی هشت متغیر کلیدی دارم. داده های گم شده زیادی وجود دارد. تنها حدود 1/12 از مشاهدات کامل است. من از «PROC MI» و «MIANALYZE» در SAS برای اجرای رگرسیون‌های مختلف روی داده‌های مضاعف منتسب استفاده می‌کنم، و این به خوبی کار می‌کند. (در مجموع حدود 200 متغیر وجود دارد، و همبستگی بالایی در بین آنها وجود دارد که به انتساب چندگانه کمک می کند.) با این حال، من می خواهم تحلیل عاملی را روی داده های منتسب نیز انجام دهم. به نظر نمی‌رسد این کار به راحتی در SAS انجام شود، و چالش‌های جالبی را ایجاد می‌کند: 1. نشانه‌های فاکتورها دلبخواه هستند، بنابراین انتساب‌های مختلف می‌توانند نشانه‌های متضادی را ایجاد کنند. 2. آنچه عامل 1 در یک انتساب بود می تواند عامل 2 در انتساب دیگر باشد (اگرچه در این مورد، با تعداد کمی متغیرهای کلیدی، احتمالاً یک عامل کافی است) و احتمالاً مسائل دیگر نیز. البته من می‌توانم تحلیل عاملی اکتشافی را روی هر مجموعه داده‌های منتسبی انجام دهم، و سپس می‌توانم آن‌ها را به‌صورت موقتی میانگین‌گیری کنم، اما این بسیار شلخته به نظر می‌رسد. برخی از گوگل هیچ راه حلی را فاش نکردند، اما ... خوب، گوگل همیشه همه چیز را پیدا نمی کند. هر گونه کمک، ایده، منابع قدردانی می شود. من به SAS و R دسترسی دارم.
تجزیه و تحلیل عاملی بر روی داده های چند برابری
57959
من در حال اندازه گیری خطا در میانه داده های خود با استفاده از بوت استرپ هستم. من می‌خواهم نوارهای خطای I sigma را روی داده‌هایم به‌دست بیاورم، بنابراین صدک 16 و 84 داده‌هایم را اندازه‌گیری می‌کنم. آیا باید این مقادیر صدک را بر جذر تعداد داده ها تقسیم کنم یا خیر؟ پیشاپیش ممنون
درصدهای یک توزیع
49068
من این خطا را در MICE دریافت می کنم خطا در seq.default(1, ncol(pred)) : 'to' باید طول داشته باشد 1 مجموعه داده من بسیار بزرگ است اما من توانسته ام یک مثال قابل تکرار با زیر مجموعه های کوچکتر ایجاد کنم، یکی از که کار می کند و دیگری با خطای بالا خراب می شود: dt.fail <- structure(list(hsp = c(49, 48, 42, 49, 49، 49، 50، 50، 43، 41، 43، 50، 50، 43، 45، 41، 45، 43، 50، 49)، سن = c(76، 83، 76، 88، 73، 41، 83 , 80, 66, 56, 50, NA, 84, 46، 64، 84، 77، 69، 80، 77)، sbp = c(137L، 60L، 155L، 170L، 95L، NA، 140L، 95L، 122L، 166L، 123L، 5L، 59. 207L، 118L، 112L، 150L، 185L)، ساعت = c(70، 90، 84، 64، 80، NA، 110، 77، 105، NA، 50، 80، 37، 38، 83، 76 ، 90، 80)، CTP = c(NA، 57، NA، NA، NA، NA، 100، 142، NA، 83، 56، NA، 66، 48، 46، 88، 43، NA، 79، NA)، const = c(1، 1 , 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1، 1، 1، 1، 1، 1، 1))، .Names = c(hsp، age، sbp، hr، CTP، const)، row.names = c(NA، 20L)، class = data.frame) dt.OK <- structure(list(hsp = c(2, 1, 5, 1, 5, 4, 1, 2, 4، 1، 1، 5، 5، 1، 2، 5، 1، 2، 5، 2)، سن = c(65، 100، 84، 52، 70، 83، 68، 81، 91، 80، 69 ، 54، 92، 66، 90، 42، 78، 55، 83، 78)، sbp = c(120L, 116L, 166L, 145L, 58L, NA, 146L, 156L, 130L, 110L, 83L, 162L, 101L, 135L, 118L, 135L, 120L, 130L 115L، 115L)، hr = c(68، 92، 94، 75، 143، NA، 79، 128، 90، 55، 58، 63، 95، 70، 100، 80، 59، 74، 103، 6)، CTP = c(76، NA، 196، 59، 78، NA، 111، 50، NA، 60، 54، 92، 113، 65، 54، NA، 102، 53، 80، 69)، const = c(1، 1، 1، 1، 1، 1 , 1, 1, 1, 1, 1, 1, 1, 1, 1, 1، 1، 1، 1، 1))، .Names = c(hsp، age، sbp، hr، CTP، const)، row.names = c(NA, 20L)، class = data.frame) require(موش) نیاز (pan) PredMatrix <- quickpred(dt.OK) PredMatrix [CTP] <- c(-2, 1، 1، 1، 0، 2) imp.OK <- موش(dt.OK، meth=c(،، 2l.pan،)، pred=PredMatrix , maxit=1, ,m=1) imp.fail <- mice(dt.fail, meth=c(2l.pan)، pred=PredMatrix ، maxit=1, ,m=1)
چرا MICE برای یک مجموعه داده با شکست مواجه می شود و دیگری نه؟
59881
من مجموعه ای از نقاط داده دارم و به من گفته شد که برای معتبر بودن آن، هر نقطه داده باید در +/- مثلاً 5٪ از میانگین کل مجموعه داده باشد. من مشکلی ندارم که تک تک نقاط داده را بررسی کنم و در صورت معتبر بودن به نتیجه برسم. سوال من این است که چگونه می توانم بیانیه بالا را با یک معیار آماری مرتبط کنم تا بتوانم بگویم چقدر معتبر است. به عبارت دیگر، آیا رابطه ای بین انحراف +/-5٪ از میانگین و اندازه گیری پراکندگی مانند sd و غیره وجود دارد؟ ممنون الیور
این +/- از میانگین به چه معناست؟
48132
چگونه می توانم جمع وزنی توزیع _chi_ را تقریب بزنم؟ من چندین سند برای جمع وزنی توزیع **chi-squared** و تقریب با توزیع گاما پیدا کردم، اما چیزی در مورد جمع وزنی توزیع های _chi_ پیدا نکردم.
جمع وزنی توزیع چی
99438
من نمی دانم که آیا کسی در مورد این سؤال بالقوه بسیار اساسی نکته ای دارد؟ من برخی از تحلیل‌های بیزی مبتنی بر شبکه را انجام داده‌ام و به یک تابع چگالی خلفی گسسته غیر استاندارد در بازه‌ای از 100 مقدار مشاهده‌ای (در هر نمودار) در زیر و همانطور که در قالب برداری در زیر نشان داده شده است، رسیدم. من به راحتی می توانم مقدار متناظر توزیع را در R (which.max) بیابم، اما در تلاش برای یافتن راهی برای محاسبه هر اندازه پراکندگی توزیع احتمال هستم. در حالت ایده آل - من می خواهم یک روش سریع برای محاسبه در R داشته باشم که به من پاسخ دهد که x٪ از چگالی بین مثلاً قرار دارد. مقادیر شاخص 20 و 80; هر راهنمایی بسیار خوش آمدید... ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/TfGml.png) [1] 4.615412e-02 7.685555e-02 7.936106e-02 9.355243e-02 9.390333e-02 9.415255e-02 8.812764e-02 8.094180e-02 [9] 7.111677e-02 6.096649e-02 5.067963e-02 4.113239e-02 3.252751e-0241e-024. 1.900486e-02 1.405895e-02 [17] 1.018350e-02 7.230007e-03 5.033092e-03 3.437899e-03 2.305284e-0304e-0301 9.831581e-04 6.261243e-04 [25] 3.925111e-04 2.424243e-04 1.476553e-04 8.878700e-05 5.277273e-0505 5.277273e-0505. 1.810726e-05 1.048550e-05
اندازه گیری پراکندگی - تابع چگالی احتمال
78307
من 4 مجموعه شناور تصادفی بین [0,1] دارم: $d1، d2، d3، d4$. من باید این مجموعه ها را با جفت مقایسه کنم و برای این کار از تابع kde.test بسته ks R استفاده می کنم. وقتی از «kde.test» برای به دست آوردن «pvalue» توزیع‌های $d1,d2$ استفاده می‌کنم، مقدار ~0.55 دریافت می‌کنم، اما اگر همین کار را برای $d3,d4$ انجام دهم، 0.00$ دریافت می‌کنم. کدی که در «R» برای بدست آوردن آن مقادیر استفاده می‌کنم این است: d1 <- c(...) d2 <- c(...) pv12 <- kde.test(x1=d1, x2=d2)$ pvalue d3 <- c(...) d4 <- c(...) pv34 <- kde.test(x1=d3, x4=d2)$pvalue کامل مجموعه های $d1,d2,d3,d4$ اینجا هستند و طول آنها عبارتند از: `len(d1) = 20, len(d2) = 210, len(d3) = 200, len(d4) = 2100`. مجموعه‌های $d1,d2$ دارای عناصر کمتری نسبت به $d3,d4$ هستند، اما شکل‌های_شکل_های KDE مشابه هستند. در اینجا KDEهای $d1,d2$ (به ترتیب آبی و قرمز): ![d1 قرمز، d2 آبی](http://i.stack.imgur.com/f2juZ.png) و در اینجا KDEها برای $d3,d4 هستند $ (به ترتیب آبی و قرمز): ![d3 قرمز، d4 آبی](http://i.stack.imgur.com/d8Zem.png) به دلیل شباهت KDE ها را انتظار داشتم pvalues تا حدودی مشابه باشد، اما نتایجی که به دست می‌آورم بسیار متفاوت است. من یا نمی‌دانم «kde.test» چه کاری انجام می‌دهد یا «pvalues» به‌دست‌آمده به چه معناست (یا هر دو). آیا کسی می تواند توضیح دهد که چه اتفاقی می افتد و چرا انتظارات من درست نیست؟ * * * ## افزودن اگر تست Kolmogorov-Smirnov را از بسته scipy.stats.ks_2samp اعمال کنم که یک p-value را نیز به عنوان خروجی می دهد، نتایج بسیار مشابهی دریافت می کنم.
kde.test مقادیر p متفاوتی را برای KDE های مشابه می دهد
59888
آیا پیشینی وجود دارد که معمولاً برای متغیرهای نوع شاخص یا امتیاز استفاده می شود که توسط کاربر به عنوان مجموع وزنی تعداد کمی از متغیرها (گاهی اوقات با مشارکت های تعاملی از پیش تعریف شده) تعریف می شود؟ من می‌دانم که توزیع‌های گاما، گامای معکوس، دوجمله‌ای، دوجمله‌ای منفی، پواسون و غیره کاملاً مثبت هستند، اما با فرآیندهایی مطابقت دارند که چیزی مانند متغیرهای نوع شاخص/نمره را به خوبی توصیف نمی‌کنند. توزیع مقادیر شاخص/نمره معمولاً نسبت به این توزیع ها بیش از حد پراکنده است. من می‌توانستم توزیع مخلوط خود را بسازم، اما می‌خواستم بدانم آیا روش‌های استانداردی برای این نوع داده‌ها وجود دارد یا خیر.
اولویت‌ها برای انواع شاخص کاملاً مثبت یا امتیاز متغیرها
86856
با تمام صحبت ها و هیاهوهای رسانه ای در مورد یادگیری عمیق این روزها، من چیزهای ابتدایی در مورد آن خواندم. من به تازگی متوجه شدم که این فقط یک روش یادگیری ماشینی دیگر برای یادگیری الگوها از داده ها است. اما سوال من این است: این روش کجا و چرا می درخشد؟ چرا این همه صحبت در مورد آن در حال حاضر؟ یعنی سر و صدا در مورد چیست؟
یادگیری عمیق کجا و چرا می درخشد؟
59880
من داده های تراکم چوب را برای تعدادی از گونه های درختی با توجه به وضعیت پوسیدگی درخت دارم. من با میانگین چگالی و خطاهای استاندارد (SE) ارائه شده ام. من با اندازه های نمونه ارائه نشده است. به عنوان مثال، یک درخت صنوبر کلاس پوسیدگی 1 دارای تراکم متوسط ​​0.305 با خطای استاندارد 0.024 است. من از R استفاده می‌کنم. می‌خواهم یک مقدار چگالی برای یک درخت صنوبر کلاس فروپاشی معین 1 مشابه استفاده از «rnorm(n، میانگین، انحراف استاندارد)» هنگام کشیدن از یک توزیع نرمال ایجاد کنم. در این مورد، آیا جایگزینی SE برای SD مناسب است، مانند «density<-rnorm(1, mean=0.305, sd=0.024)»؟
آیا استفاده از SE به جای SD در rnorm() مناسب است؟
29268
یک محقق می داند که احتمال اینکه پرسشنامه از طریق پست پاسخ داده شود 40٪ است. او می خواهد 99 درصد مطمئن باشد که حداقل 200 پرسشنامه پاسخ داده شده را پس خواهد گرفت. چند پرسشنامه باید از طریق پست بفرستد تا 99% مطمئن شود که حداقل 200 پاسخ خواهد گرفت؟
هر حرف 40$\%$ شانس دارد که به آن پاسخ داده شود. چند نامه ارسال کنید تا 99$\%$ مطمئن شوید که 200 پاسخ دریافت می کنید؟
78300
من فقط تعجب می کنم .. همه جا فقط جداول با Qcritic را به عنوان نتایج می بینم. بیایید بگوییم که من مجموعه بزرگی از نمونه داده ها (مانند 1000 یا بیشتر) دارم. آیا راهی برای محاسبه ریاضی مقدار Qcritic است؟ آیا فرمول ریاضی برای Qcritic وجود دارد؟
تست کیو دیکسون - آیا می توانم (به تنهایی) مقدار Q بحرانی را محاسبه کنم؟
10463
احتمال تکرار اول، من یک آماردان نیستم (اگرچه دوست دارم یکی باشم) اما سعی می کنم بفهمم چگونه می توان از تست های مختلف برای بررسی نمونه ها استفاده کرد. فرض کنید که من پنج مورد از تبلیغات گوگل ادوردز را دارم و سعی می کنم آزمایشی ایجاد کنم تا نشان دهم کدام یک در وادار کردن کاربران به کلیک کردن روی آن تبلیغ موثرتر بوده است. آگهی ژانویه فوریه A - 850 5000 Ad B - 900 5300 Ad C - 880 5100 Ad D - 880 5100 Ad E - 800 5000 از نظر فراوانی، Ad B بیشترین تعداد کلیک کاربران را در ژانویه و فوریه دارد. (آیا فقط گفتن این که یک تبلیغ فرکانس بالاتری دارد و بنابراین بدون اتکا به هیچ آزمون معناداری مؤثرتر است خوب است) با این حال، برای هر ماه، می خواهم از یک آزمون آماری استفاده کنم تا مشخص کنم کدام تبلیغ مؤثرتر بوده است. در ابتدا، من فرض می‌کردم که یک تست مجذور کای (پیرسون) مناسب است، اما با پنج آگهی جداگانه، مطمئن نیستم که آیا این برنامه اقدام مناسب است یا خیر. آیا کسی می تواند به من کمک کند تا بفهمم چه اقدامی باید انجام دهم و چرا، یا اینکه فقط به توزیع فرکانس پنج آگهی تکیه کنم کافی است.
تعیین اینکه کدام AdWords بیشترین تعداد کلیک کاربران را دارد
59887
من سعی می کنم با استفاده از دستور _switchr_ یک مدل رگرسیون سوئیچینگ مارکف در stata انجام دهم. دستور دستور به صورت زیر است: _switchr eq1 eq2 [وزن] [اگر exp] [، cluster(string) strata(string) sigequal tol(real) tout(integer) noisyn(integer) ]_ که در آن _eq1_ و _eq2_ رژیم هستند معادله (معادله ای که در آن ضرایب متغیرها نسبت به رژیم تغییر می کند) و اصلی معادله (یا معادله طبقه بندی). کمک stata این معادله را توضیح می‌دهد که می‌گوید: باید توسط کاربر تعریف شود تا متغیر وابسته آن متغیری باشد که حاوی حدس اولیه از تقسیم مشاهدات به دو مؤلفه است. این متغیر حدس اولیه توسط سوییچر بازنویسی می‌شود تا شامل شود. احتمال اینکه یک مشاهده معین به رگرسیون جزء اول پایبند باشد. من نمی توانم معنی معادله اصلی را بفهمم. متغیرهای رگرسیون معادله اصلی کدامند؟ امیدوارم در پرسیدن این سوال کاملا واضح بوده باشم. ممنون میشم کمک کنید
Stata - راهنمای دستور switchr
78305
من دو مجموعه از داده های میانگین دارم که آزمایش کولموگروف-اسمیرنوف را روی آنها انجام داده ام. آزمایش‌ها برگشتند و نشان دادند که یک مجموعه داده نرمال بود، اما دیگری نبود. این دو مجموعه داده مستقل از یکدیگر هستند و من باید تفاوت های میانگین را با هم مقایسه کنم. این واقعیت که یکی از مجموعه داده ها نرمال نیست، مطمئناً استفاده از آزمون t یا ANOVA را رد می کند، بنابراین آیا باید از آزمون من ویتنی استفاده کنم؟ بسته آماری مورد استفاده من SPSS است.
نحوه مقایسه تفاوت در میانگین زمانی که داده ها عادی نیستند
80415
در مطالعه خودم، مدخل‌های ویکی‌پدیا و برخی کتاب‌ها را در رابطه با M-estimators و L-estimators خوانده‌ام. من می‌دانم که برآوردگرهای M اصطلاحاً «M» نامیده می‌شوند، زیرا آنها تابع احتمال و/یا توابع خود داده‌ها را «به حداکثر می‌رسانند». من همچنین می‌دانم که تخمین‌گرهای L به این دلیل نامیده می‌شوند که از ترکیب‌های «خطی» آمار آماری داده‌ها استفاده می‌کنند. به نظر من اگرچه بین برآوردگرهای M و برآوردگرهای L همپوشانی وجود دارد، آیا این درست نیست؟ (به عنوان مثال، میانگین به نظر من می رسد که می توان آن را به عنوان یک برآوردگر M یا به عنوان یک برآوردگر L مشتق کرد). به عبارت دیگر، اگر بخواهیم یک نمودار ون از همه برآوردگرهای M و L رسم کنیم، چقدر با یکدیگر همپوشانی دارند، اگر اصلاً وجود داشته باشد؟ **ویرایش:** با تشکر از بازخورد، می‌دانم که چنین نمودار ون ممکن است عناصر بی‌نهایتی داشته باشد. با این حال، آنچه من می خواهم، درصدهای بسیار تقریبی از همپوشانی است، _بر اساس تجربه افراد_، زیرا می دانم که این تجربه به مراتب بیشتر از تجربه من است! من فقط به دنبال یک تخمین تقریبی بر اساس آنچه کارشناسان و متخصصان در این زمینه دیده‌اند و با آن مواجه شده‌اند، هستم. متشکرم.
آیا برآوردگرهای M و برآوردگرهای L با هم همپوشانی دارند؟
86853
من مجموعه ای از $n$ رویدادها را دارم. هر رویداد دارای متغیرهای $m$ است. حداقل 1 رویداد یک مشاهده ایجاد می کند. ممکن است چندین رویداد به طور همزمان رخ دهد. به عنوان مثال 4 رویداد. هر کدام 3 متغیر: $E_{11}=0.4، E_{12}=-0.3، E_{13}=-0.4، E_{21}=0.3، ...، E_{42}=-3.0، E_{43 }=2.1$ $y_1 = -5$ تولید می‌کند در اینجا همه رویدادها به طور همزمان رخ داده‌اند. با این حال، ممکن است این اتفاق بیفتد: $E_{11}=0.2، E_{12}=0.2، E_{13}=-2$ و همه رویدادهای دیگر 0 هستند (این اتفاق نیفتاد). بنابراین می‌خواهم همه ضرایب را برای مطابقت با مشاهدات مقیاس دهم. در واقع من می خواهم بتوانم رویدادها را با 4 وزنه وزن کنم. $W_1$ تا $W_4$ به طوری که سهم کل برای اولین بردار (همه رویدادها) خواهد بود: $W_1\cdot$(ضرایب رگرسیون $E_1) + W_2\cdot$(ضرایب رگرسیون $E_2) + .. + W_4\cdot$(ضرایب رگرسیون $E_4)$. جایی که هر $W$ در اینجا عادی شده است (و همه $W$ $>0)$ هستند. در حل این رگرسیون، ماتریس معمول مشاهدات $A$، ماتریس وزن پراکنده $w$، بردار ضرایب مجهول $x$ و مشاهدات حاصل $y$ را دارید. یعنی \begin{align} \displaystyle \left( \begin{array}{lllll} E^1_{11} & E^1_{12} & ... & E^1_{42} & E^1_{43}\ \ E^2_{11} & E^2_{12} & ... & E^2_{42} & E^2_{43}\\ ... \\ E^{k-1}_{11} & E^{k-1}_{12} & ... & E^{k-1}_{42} & E^{k-1}_{43 }\\ E^{k}_{11} & E^{k}_{12} & ... & E^{k}_{42} & E^{k}_{43} \end{آرایه }\راست)\\\cdot \left(\begin{array}{llllll} \frac {W_1}{\sum_4 W_i} & \frac {W_1}{\sum_4 W_i} & ... & \frac {W_4}{\sum_4 W_i} & \frac {W_4}{\sum_4 W_i}\\ \frac {W_1}{W_1+W_2} & \frac {W_1}{W_1+W_2} & ... & 0 & 0\\ ... \\ 0 & 0 & ... & 0 & 0\\ 0 & 0 & ... & 1 & 1\end{ array}\right)^T \left(\begin{array}{l} a_{11}\\a_{12}\\a_{13}\\...\\a_{41}\\a_{42}\\a_{43}\end{آرایه}\راست)\\= \left(\begin{آرایه}{l} y_1\\ y_2\\ ...\\ y_{k-1}\\ y_{k} \end{آرایه} \راست) \end{align} در معادله بالا، مشاهده اول دارای هر 4 رویداد بود، مشاهده دوم فقط رویدادهای 1 و 2 و غیره. آخرین مشاهده فقط رویداد 4 رخ داد. $E$s و $y$s شناخته شده اند. من به بردار ضرایب ($a$s) و وزن‌های $(w_1$ - $w_4)$ نیاز دارم. چگونه می توانم این را به طور موثر حل کنم؟ با تشکر
رگرسیون خطی وزنی
57955
من تعدادی داده دارم که به این صورت است: نتیجه Prob 0.09 0 0.10 0 0.10 0 0.11 1 0.84 1 0.99 1 0.86 1 0.78 1 0.86 1 0.00 0 و غیره. یعنی یک دسته با یک تست حرفه ای. از چه آزمون آماری برای آزمون فرضیه درست بودن احتمالات استفاده کنم؟ **جزئیات بیشتر**: نقاط داده _احتمالات رزمی_ از بازی Civilization IV هستند و من بیش از 3000 عدد از آنها را در مجموعه خود دارم. بنابراین، هر احتمال با استفاده از فرمول ناشناخته ای از داده های ورودی مختلف، بسته به قدرت نسبی واحدها در آن نبرد، تولید می شود. پیشنهاد شده است که نتایج به‌طور دقیق احتمالات داده‌شده را منعکس نمی‌کنند: برای مثال، پخش‌کننده رایانه بر اساس احتمال‌های نمایش‌داده‌شده، که می‌خواهیم آزمایش کنیم، بیشتر اوقات برنده می‌شود. بنابراین یک پیوند وجود دارد تا جایی که فرض کنیم احتمالات نمایش داده شده با استفاده از فرمول یکسان برای هر خط تولید می شوند. این فرمول ناشناخته ای است که می خواهیم برای سازگاری با نتایج واقعی آزمایش کنیم.
آزمون آماری مناسب برای تست دقیق بودن احتمالات
49391
من یک آماردان نیستم، بنابراین اگر اصطلاحات من اشتباه است، عذرخواهی می کنم، من مجموعه داده ای با مقادیر بیشتر از 14 میلیون p دارم که از آزمایش دقیق فیشر بر روی داده های توالی یابی مقیاس ژنوم به دست آمده است. تصحیح بنجامینی-هوچبرگ این مقادیر p فقط 1500 مقدار p قابل توجه را نشان می دهد، بنابراین من سعی کرده ام از بسته qvalue R برای آرام کردن FDR استفاده کنم و بنابراین تعداد بیشتری از P-مقدارهای قابل توجه را بدست آوریم. اعمال بسته qvalue با گزینه‌های پیش‌فرض، $\pi_0$ از 1 qobj برمی‌گرداند<-qvalue(p.fish.unadj) qsummary(qobj) pi0: 1 فرض می‌کنم این یک چیز خوب است و به این معنی است که: 1. من دارم قدرت خوبی در مجموعه داده من برای تشخیص نتایج _true null_ و بنابراین _true alternative_ results نیز 2. $\pi_0=1$ یک تقریب است زیرا گزینه های واقعی من یعنی تست های قابل توجه در مقایسه با اندازه کلی مجموعه داده بسیار کم است آیا درست می گویم؟
معنای واقعی $\pi_0 = 1$ در نرخ کشف نادرست
105751
من یک نمونه از Smooth Transition AR (STAR) Model از کتاب تجزیه و تحلیل سری های زمانی مالی، ویرایش 3 توسط Tsay، در بخش 4.1.3 را اجرا می کنم. اسکریپت به شرح زیر است: da=read.table(data/m-3m4608.txt,header=T) rtn=da[,2] star <- function(par){ f = 0 T1=length(rtn) h=c(1,1) at=c(0,0) برای (t در 3:T1){ resi = rtn[t]-par[1] at=c(at,resi) sig=par[2]+par[3]*at[t-1]^2+par[4]*at[t-2]^2 sig1=par[5]+par [6]*at[t-1]^2 tt=sqrt(sig+sig1/(1+exp(-1000*at[t-1]))) h=c(h,tt) x=resi/tt f=f+log(tt)+0.5*x*x } f } par=c(001,.002,.256,.141,.002,-.314) m2=optim(par,star,method= c(BFGS), hessian=T) داده ها را می توان در این آدرس یافت http://faculty.chicagobooth.edu/ruey.tsay/teaching/fts3/m-3m4608.txt. من خطای زیر را در optim دریافت می کنم: > m2=optim(par,star,method=c(BFGS),hessian=T) خطا در optim(par, star, method = c(BFGS), hessian = T ) : مقدار تفاضل محدود غیر محدود [2] علاوه بر این: پیام هشدار: در sqrt(sig + sig1/(1 + exp(-1000 * at[t - 1]))) : NaNs تولید شده چگونه می توانم آن را برطرف کنم؟
خطا در اجرای تابع optim با STAR از مثال کتاب
8916
با سلام، من روی درختان چگالی مشترک و مشروط برای تقریب پتانسیل های دسته در شبکه های باور بیزی کار می کنم. مقدمه کوتاهی برای موضوع از این مقاله در دسترس است: http://www.autonlab.org/autonweb/14653.html در صورتی که مایلید توضیح بهتری درباره آنچه در مورد آن صحبت می کنم به دست آورید. من به دنبال پیاده سازی هستم که از متغیرهای گسسته و پیوسته در یک توزیع احتمال مشترک پشتیبانی کند. گره های برگ در درخت آموخته شده توزیع احتمال را برای متغیرهای گسسته و پیوسته فراهم می کنند. من بسیار خوشحال خواهم شد که یک پیاده سازی متن باز پیدا کنم، اما هر پیاده سازی به هر شکلی برای من کار می کند، حداقل به عنوان آزمایشی برای پیاده سازی خودم (که به هر حال باید انجام دهم) من این رویکرد را توصیف کرده ام. در مقالات مختلف در زمینه های مختلف، اما من نتوانستم هیچ پیاده سازی را پیدا کنم. با احترام سرف
آیا پیاده سازی های موجود برای یادگیری درخت چگالی یا چگالی مشروط وجود دارد؟
29264
من به انجام پروژه ای بین علوم سیاسی و ریاضیات در مورد رفتار رأی دهندگان در یک دولت دموکراتیک محول شده ام. به طور خاص، من روی یک حزب از انتخابات ملی در سال 2007 تمرکز می کنم، جایی که جدولی متشکل از دو ردیف - دستورات و اخبار مربوط به آن حزب - و یک ستون برای هر روز انتخابات ایجاد کرده ام: روز 1 2 3 4 5 6 ... دستورات 11 8 11 13 12 12 اخبار 30 46 12 33 48 42 می خواهم بررسی کنم که آیا ظاهر اخبار در رسانه ها درباره این حزب بر تعداد مأموریت های داده شده به حزب در نظرسنجی های روزانه تأثیر گذاشته است. آیا انجام تست استقلال مجذور کای بر روی این داده ها مشروع است یا نمی توانم چیزی را نتیجه گیری کنم؟ چرا/چرا نه؟ - برای اینکه کمی پیشرفت کنم، به این فکر می کردم که آیا می توان با آزمون استقلال کای اسکوئر (*بله باید این روش باشد**) برخی از روزها را به ویژه نسبت به روزهای دیگر تحت تأثیر قرار داده است یا خیر. سپس تغییر دستورات را برای هر روز محاسبه می‌کنم که جدول من را به این شکل در می‌آورد: روز 1 2 3 4 5 6... دستورات 11 -3 3 2 -1 0 اخبار 30 46 12 33 48 42 سپس برای هر ستون، من به صورت دستی نتیجه مورد انتظار را محاسبه می کنم. مثال برای ستون روز 2: نتایج مشاهده شده این است که 46 خبر منتشر شده است و حزب سه ماموریت خود را از دست داده است. ما فرض می کنیم که اخبار بر تعداد مأموریت ها تأثیری نداشته است و بنابراین آنها برابر می مانند و تغییر صفر می شود: داده های مشاهده شده: روز 2 مأموریت -3 اخبار 46 داده های مورد انتظار: روز 2 دستورات 0 اخبار 46 اگر این کار را برای آیا در هر ستون، آیا می‌توانم ارزیابی کنم که اخبار یک روز بر تعداد مأموریت‌ها تأثیر گذاشته است، اما روزی دیگر از نظر ریاضی تأثیری نداشته است؟ من واقعاً دوست دارم این را آزمایش کنم، زیرا در آن صورت می‌توانم چند روز را برای تمرکز بر آن‌ها مشخص کنم که بتوانم از آن مقالات استخراج کنم و به لفاظی‌های مثبت/منفی ساخته شده توسط حزب نگاه کنم. با عرض پوزش برای جداول بد، اما من قادر به ارسال تصاویر نیستم. پیشاپیش ممنون /Brinck10
استقلال کای دو در علوم سیاسی
48133
من در تعیین اینکه دقیقاً چه تفاوتی بین این 2 وجود دارد، مشکل دارم، به خصوص وقتی تمرینی به من داده می شود و باید انتخاب کنم که کدام یک از این 2 مورد استفاده قرار گیرد. کتاب درسی من آنها را اینگونه توصیف می کند: **جمع انحراف معیار** _Given جمعیتی با متغیر تصادفی $X$ توزیع شده است. هنگامی که شما یک نمونه $n$ از این جمعیت دارید، جمعیت عبارت است از:_ $X_{sum} = X_1 + X_2 ... + X_n$ با $\mu_{Xsum} = n \times \mu_x$ و $\sigma_{ Xsum} = \sqrt{n} \times \sigma_x$. **خطای استاندارد** _وقتی یک متغیر تصادفی $X$ با توزیع نرمال با میانگین $\mu_X$ و انحراف استاندارد $\sigma_X$ و طول نمونه $n$ دارید، میانگین نمونه $\bar{X}$ معمولا توزیع می شود. با $\mu_{\bar{x}} = \mu_X$ و $\sigma_{\bar{x}} = \dfrac{\sigma_X}{\sqrt{n}}$_ این 2 تا خیلی شبیه من هستند تا جایی که اصلاً نمی‌توانم تصمیم بگیرم از کدام کجا استفاده کنم. در اینجا مشکلاتی وجود دارد که متوجه شدم نمی توانم: **مشکل 1 ** _ دستگاه پرکن بطری های لیموناد را پر می کند. مقدار معمولاً با $\mu = 102 \space cl$._ $\sigma$ = $1.93\space cl$ توزیع می‌شود. * این شانس را محاسبه کنید که از 12 بطری حجم متوسط ​​100 دلار \space cl$ باشد. مشکل به خودی خود آسان است، اما بخش دردسرساز این است که چه چیزی را برای انحراف استاندارد نمونه انتخاب کنیم. در اینجا آنها از $\dfrac{1.93}{\sqrt{12}} $ استفاده می کنند که من می توانم با آن زندگی کنم، تا زمانی که با مشکل دوم مواجه شدم. **مشکل 2** _شرکت چای سازی 20 عدد چای کیسه ای را در یک بسته قرار می دهد. وزن یک کیسه چای معمولاً با $\mu = 5.3 \space g$ و $\sigma = 0.5 \space g.$_ توزیع می شود * شانس وزن یک بسته کمتر از 100 گرم را محاسبه کنید. در اینجا فکر کردم از $\dfrac{0.5}{\sqrt{20}}$ نیز استفاده کنند، اما در عوض از $\sqrt{20} \times 0.5$ استفاده می‌کنند. آیا کسی می تواند سردرگمی را برطرف کند؟
جمع انحراف استاندارد در مقابل خطای استاندارد
57951
در زمینه استنتاج مبتنی بر احتمال، من برخی از نمادها را در مورد پارامتر(های) مورد علاقه دیده ام که کمی گیج کننده به نظرم می رسد. به عنوان مثال، نمادهایی مانند $p_{\theta}(x)$ و ${\mathbb E}_{\theta}\left[S(\theta)\right]$. اهمیت پارامتر ($\theta$) در نماد زیرنویس بالا چیست؟ به عبارت دیگر چگونه باید خوانده شود؟ اولین فرض من این بود که معنی آن با پارامتر $\theta$ است. به عنوان مثال، برای $p_{\theta}(x)$، به عنوان خوانده شده است: چگالی احتمال $x$ با پارامتر $\theta$. با این حال، این احتمالاً درست نیست زیرا $p_{\theta}(x) = L(\theta)$ و به طور کلی، $L(\theta)$ یک توزیع _نه_ است (یعنی با وحدت ادغام نمی شود) ; از این رو نمی تواند چگالی باشد، اینطور نیست؟ علاوه بر این، در مورد ${\mathbb E}_{\theta}\left[S(\theta)\right]$، مطمئن نیستم که نسبت به ${\mathbb E}\left[ (S(\theta)\right]$ (یعنی با حذف زیرنویس $\theta$). _در $S(\theta)$ و $L(\theta)$ بالا نشان دهنده تابع امتیاز هستند و تابع احتمال به ترتیب._
سوال ساده در مورد علامت گذاری
112639
در ابزارهای داده کاوی اکسل یک ابزار تاثیرگذاران کلیدی وجود دارد که به مجموعه داده ای که احتمالاً مشتریان هستند و اینکه آیا آنها به یک هدف معین تبدیل شده اند یا نه (مثلاً پرچمی که برابر با 1 است) نگاه می کند. سپس تأثیرگذارترین عوامل در رسیدن به آن هدف را به شما می گوید (به عنوان مثال جنسیت = مرد و سن = 30-45). الگوریتم معادل در R برای دستیابی به یک نتیجه مشابه چیست.
R تأثیرگذاران کلیدی را پیدا کنید
63144
من می‌دانم که مدل اصلی رگرسیون خطی ساده، همسویی را فرض می‌کند، یعنی واریانس‌های $\sigma^2$ در اطراف خط رگرسیون برای همه سطوح/مقدارهای پیش‌بین برابر است. با در نظر گرفتن این فرض، تعجب می کنم که چرا فواصل اطمینان برای مقدار $y$ پیش بینی شده برای همه سطوح پیش بینی کننده به یک اندازه بزرگ نیست. فرمول چنین فاصله اطمینانی (به عنوان مثال 95٪) نشان می دهد که زمانی که تفاوت بین ارزش پیش بینی کننده بهره $x$ و مقدار میانگین پیش بینی $\overline x$ افزایش می یابد، این فاصله بزرگتر می شود (به شمارشگر زیر ریشه مراجعه کنید. ): $\hat y \pm t_{n-2}(0.975) \cdot s \cdot \sqrt{1 + \frac{1}{n} + \frac{(x- \overline x)^2}{\sum_{i=1}^n \left(x_i - \overline x \right)^2}}$ افزایش اندازه CI به سمت لبه‌های توزیع را می‌توان در نمودارهای استاندارد «geom_smooth()» با بسته «ggplot2» در R. مشاهده کرد. [نقشه رگرسیون خطی ساده با CI](http://i.stack.imgur.com/0vDD1.png) حال، چگونه می‌توان واریانس‌های اطراف خط رگرسیون را در تمام سطوح پیش‌بینی‌کننده برابر کرد، اما CIهای مربوطه در لبه‌ها بزرگ‌تر هستند؟ آیا این یک مشکل نمونه و جامعه است، تا آنجا که تفاوت در محدوده CI کوچک می شود، زمانی که نمونه بزرگتر می شود (وقتی $n \rightarrow \infty$، می توانید کل عبارت ریشه را در فرمول CI حذف کنید)، در حالی که در همان زمان زمانی که $n$ بزرگتر می شود، شواهد بالاتری برای همجنسگرایی وجود دارد؟ یا اینکه همه چیز را کاملاً اشتباه متوجه می شوم و این دو چیز کاملاً مستقل از یکدیگر هستند؟
با فرض همسویی در رگرسیون خطی، چرا پیش‌بینی‌ها هنوز برای مقادیر پیش‌بینی‌کننده حاشیه‌ای دقیق نیستند؟
78308
من هنوز در استفاده از آلفای کرونباخ سردرگم هستم. آیا باید قبل از رفتن به نظرسنجی نهایی از آن در نظرسنجی نمونه استفاده کنیم؟ یا ارزش آلفا بر اساس داده های نظرسنجی نهایی محاسبه می شود؟ به طور مشابه، مجموعه سوالات اندازه گیری یک سازه به چه معناست؟ آیا به این معنی است که سؤالات متقابلاً منحصر به فرد هستند یا همه سؤالات باید با هم (شامل متقابل) برای اندازه گیری ساختار اساسی استفاده شوند؟
سردرگمی مربوط به آلفا کرونباخ
57953
فرض کنید می‌خواهیم دو متغیر $x$ و $y$ را مدل‌سازی کنیم که دارای یک رابطه خطی با خطاهای اضافه شده هستند. یعنی با داده $(x,y)_i: i = 1,...,n$ مدل می کنیم: $$ \begin{pmatrix} x_i \\ y_i \end{pmatrix} \sim \mathcal N\left (\begin{pmatrix}u_i\\v_i\end{pmatrix},\Sigma\right) $$ و $v_i = a + bu_i$ با مقداری پارامترهای ($a,b)$ و $\Sigma$ یک مورب است. فرض کنید که مقدار $u_i$ از توزیع نرمال با میانگین $\mu$ و واریانس $\tau^2$ پیروی می کند. احتمال داده ها را با توجه به پارامترها بنویسید. شما می توانید این کار را با ادغام بیش از $u_1،...،u_n$ یا با کار با توزیع نرمال چند متغیره انجام دهید. تابع چگالی داده شده: \begin{align} f(x,y|u,a,b,\Sigma) &= \frac{1}{\sqrt{2\pi}} \exp\left(-\frac{1 }{2}\left[\frac{(x-u_i)^2}{\sigma_x^2}+\frac{(y-a- bu_i)^2}{\sigma_y^2}\right]\right) \\ p(u_i)&= \frac{1}{\sqrt{2\pi}\tau} \exp\left(-\frac{ 1}{2}\frac{(u_i-\mu)^2}{\tau^2}\right) \\ f(x,y|a,b,\Sigma) &= \int ...\int f(x,y|u,a,b,\Sigma)p(u_i)du_1...du_n \end{align} سوال من این است که چگونه می توان ادغام بالا را بدست آورد؟ چه توزیعی را دنبال می کند؟
ادغام پارامتر مجهول خارج از تابع احتمال
78304
من یک نتیجه سفارشی 3 دسته ای دارم (مصرف غذا: 1=بدون غذا، 2=غذای کمتر، 3=غذای بیشتر) و یک پیش بینی کننده سفارشی دسته 3 (قرار گرفتن در معرض غذا: 3=بدون زمان، 2=زمان کمتر، 1= زمان بیشتر- به موجب آن 3=بدون زمان به عنوان مقوله مرجع در مدل رگرسیون ترتیبی در نظر گرفته می شود. من می خواهم این فرضیه را بررسی کنم که قرار گرفتن در معرض مواد غذایی بیشتر با مصرف بیشتر غذا مرتبط است. می‌خواهم بدانم چگونه می‌توانم نسبت‌های شانس کمتر از 1 را تفسیر کنم. برای مثال، من OR= 0.62 برای دسته پیش‌بین 2= زمان کمتر دارم. من OR را به عنوان exp(coeff) در اکسل محاسبه کرده ام که به موجب آن OR از دسته مرجع هیچ زمان exp(0)=1 است.
تفسیر نسبت شانس کمتر از 1 با نتیجه 3 دسته
80410
من یادداشت های عالی در مورد مدل های ARCH و GARCH را اینجا پیدا کردم. در صفحه 3 آورده شده است که: مدل های سری زمانی استاندارد: \begin{eqnarray*} Y_{t} & = & E\left(Y_{t}|\Omega_{t-1}\right)+\epsilon_{t }\\ E\left(Y_{t}|\Omega_{t-1}\right) & = & \mu_{t}\left(\theta\right)\\ E\left(Y_{t}|\Omega_{t-1}\right) & = & E\left(\epsilon_{t}^{2}|\Omega_{t-1}\right)=\sigma^ {2} \end{eqnarray*} این $\Omega$ در اینجا به چه معناست؟ هر کمکی بسیار قدردانی خواهد شد. با تشکر
مدل های ARCH و GARCH
78309
فرض کنید من یک ماتریس کوواریانس (خطا) 'C_xyz' برای سیستم با 3 پارامتر دارم: `x, y, z`. سپس به نظر می رسد که «x، y» و «z» به یکدیگر بستگی دارند: det(C_xyz) = 0 ax + by + z = 0 نحوه یافتن ماتریس کوواریانس «C_xy» پارامترهای مستقل «x,y» با دانستن کوواریانس « C_xyz` و تابع a,b؟
چگونه می توان ماتریس کوواریانس (خطا) پارامترهای مستقل x,y را از ماتریس کوواریانس پارامترهای وابسته x,y,z استخراج کرد؟
95618
من سعی می کنم یک مدل MIMIC برای اندازه گیری فقر را در یک نمونه خانوار جا بزنم. این مدل به شکل زیر است: (HUMCAP -> شغل آموزشی) (HOUSINGQUAL -> تلویزیون خانه دیواری کف اتاق تلویزیون یخچال رادیویی برق روشنایی گرمایش پخت و پز ماشین لباسشویی) (POV->HUMCAP HOUSINGQUAL) با این حال، وقتی سعی می کنید این مدل را متناسب کنید، برای همیشه تکرار می شود. من نمی فهمم چرا bc طبق قانون k(k+1)/2 - مدل من باید شناسایی شود. اگر کسی ایده ای داشته باشد بسیار سپاسگزار خواهم بود. ممنونم!! ارسال شده: http://www.statalist.org/forums/forum/general-stata- diskutim/general/3006-mimic-fail-to-converge
MIMIC همگرا نمی شود
46565
من داشتم این مقاله را در ویکی پدیا مربوط به MAP می خواندم http://en.wikipedia.org/wiki/Maximum_a_posteriori_estimation. با این حال، وقتی می‌گوید برآورد MAP حدی از تخمین‌گرهای بیز است (تحت تابع ضرر 0-1)، این سردرگمی را داشتم، به طور کلی خیلی نماینده روش‌های بیزی نیست. منظور از برآورد MAP یک حد است و انتقادی از MAP ارائه کرده است که می‌گوید برآورد میانگین/میانگین بهتر خواهد بود. نفهمیدم چرا اینطوریه؟ هر گونه راهنمایی قدردانی خواهد شد.
سردرگمی مربوط به حداکثر تخمین پسینی
115367
جان و فرانک 2 ساندویچ فوتی سفارش دادند، اما در عوض 4 ساندویچ 6 اینچی گرفتند. جون تند ایتالیایی و تریاکی مرغ فرانک سفارش داده بود. ساندویچ ها برچسب ندارند و بسته بندی شده اند، بنابراین نمی توانند تشخیص دهند کدام ساندویچ کدام است. شانس اینکه جون 2 ساندویچی را که مال خودش است انتخاب کند چقدر خواهد بود؟ (دو ساندویچ ایتالیایی تند)؟ من می دانم که شانس انتخاب یک ساندویچ صحیح 50/50 است، زیرا 2 تریکاکی و 2 مورد تند وجود دارد، اما زمانی که 1 انتخاب شود، تنها 1/3 شانس برای درست کردن ساندویچ دوم وجود دارد. شانس بدست آوردن گزینه اول 50/50 و انتخاب دوم 1/3 صحیح جمع می شود؟ با تشکر
چگونه شانس اضافه کنیم؟ (یا چگونه ساندویچ اشتباهی گرفتم)
112638
من سعی می کنم خطی را با نقاطی که در هر دو جهت y و x دارای خطا هستند در یک نمودار قرار دهم. من سند زیر را در مورد این موضوع پیدا کردم: https://www.che.udel.edu/pdf/FittingData.pdf مشکل من این است که منظور نویسنده در صفحه 8 را کاملاً درک نمی کنم: > برای استفاده از این روش ، ابتدا باید خطای استاندارد هر نقطه > را تعیین کنید. این کمیت e_i نامیده خواهد شد. اگر اندازه گیری های تکراری انجام دادید، > باید از انحراف استاندارد استفاده کنید. از داده ها: x = [2، 4، 6]، x_error = [0.2، 0.15، 0.1] y = [1، 3، 5]، y_error = [0.1، 0.12، 0.2] می‌خواهم حداقل y_error را هنگام نصب خط در نظر بگیرم.
استفاده از برازش خط مستقیم حداقل مربعات روی داده های تجربی با خطا
54908
من تازه وارد این انجمن هستم اما چندین تاپیک را پیدا کرده ام که بسیار مفید است، بنابراین خودم یک سوال مطرح می کنم. داده‌های من (*طول ماهی = فاکتور**، **جیوه ماهی = پاسخ**) از چندین رودخانه طی چندین سال به منظور پایش محیطی (جیوه) جمع‌آوری شد. کاری که من می‌خواهم انجام دهم این است که با استفاده از داده‌هایی که در اختیار دارم، آنالیز توان را انجام دهم تا مشخص کنم در آینده چند نمونه باید جمع‌آوری شود تا نتایج مشابهی به دست آید. هدف این است که کمترین تعداد نمونه لازم را توصیه کنیم (در نتیجه کمترین تعداد ماهی را از بین ببریم). آیا این امکان پذیر است و آیا کسی توصیه ای برای انجام این کار دارد؟ پیشاپیش بسیار متشکرم
تجزیه و تحلیل توان با مجموعه داده های موجود
83913
مدل طبقه‌بندی «C5.0» در این داده‌های مشکل کلاس 4 با $N_{train}$=165، $P$=11، با استفاده از بسته R-caret با اجرای کد زیر استفاده شد. گزینه winnowing در مدل تنظیم شده است که نوعی رویکرد انتخاب ویژگی است. این گزیده‌ای را که در رابطه با برنده شدن از کتاب همراه «caret» نقل می‌کنم، کتابی که به نظر من برای کشف سنگ‌های پنهان کدگذاری شده در بسته ضروری است، نقل می‌کنم: _Kuhn M, Johnson K. Applied Predictive Modeling. چاپ 1. نیویورک: اسپرینگر. 2013_. > C5.0 همچنین گزینه ای برای حذف یا حذف پیش بینی ها دارد: یک الگوریتم اولیه > نشان می دهد که کدام پیش بینی کننده ها با نتیجه ارتباط دارند، و مدل نهایی > تنها از پیش بینی های مهم ایجاد می شود. برای انجام این کار، مجموعه آموزشی > به طور تصادفی به دو نیم تقسیم می شود و یک درخت به منظور ارزیابی سودمندی پیش بینی کننده ها ایجاد می شود (این را درخت > برنده نامید). دو رویه اهمیت هر یک از پیش‌بینی‌کننده‌ها را برای مدل نشان می‌دهند: 1. پیش‌بینی‌کننده‌ها در صورتی که در هیچ شکافی در درخت برنده نباشند، بی‌اهمیت در نظر گرفته می‌شوند. 2. نیمی از نمونه های مجموعه آموزشی که شامل > برای ایجاد درخت برنده نمی شوند، برای تخمین میزان خطای درخت > استفاده می شوند. نرخ خطا نیز بدون هر پیش‌بینی‌کننده تخمین زده می‌شود و با نرخ خطا در زمانی که همه پیش‌بینی‌کننده‌ها استفاده می‌شوند، مقایسه می‌شود. اگر نرخ خطا > بدون پیش بینی بهبود یابد، بی ربط تلقی می شود و > موقتاً حذف می شود. c50Grid <- expand.grid(.trials = c(1:9، (1:10)*10)، .model = c(tree، rules)، .winnow = c(TRUE، FALSE)) c50Grid set.seed(1) # مهم برای داشتن نتایج قابل تکرار c5Fitvac <- train(Class ~ ., data = training, method = C5.0, tuneGrid = c50Grid، trControl = ctrl، متریک = دقت، # مورد نیاز نیست، بنابراین به طور پیش فرض اهمیت = TRUE، # not need preProc = c(center, scale)) > c5Fitvac$finalModel$tuneValue مدل آزمایشی Winnow 16 70 tree خروجی تنظیم CV FALSE: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/yHzDV.png) گزیده ای از خروجی درخت C5.0: > c5Fitvac$finalModel$tree [1] id=\See5/C5.0 2.07 GPL Edition 22-01-2014 \\nentries=\70\\ntype=\2\ class=\Q\ freq=\9,16,60,80\ att=\IL17A\ forks=\3\ cut=\0.92485309\\ntype=\0\ class=\Q\\ ntype=\2\ class=\Q\ freq=\0,4,59,80\ att=\IL23R\ forks=\3\ cut=\0.26331303\\ntype=\0\ class=\Q\\ntype=\2\ class=\Q\ Freq=\0, 4,19,80\ att=\IL12RB2\ forks=\3\ cut=\0.41611555\\ntype=\0\ class=\Q\\ntype=\2\ class=\Q\ Freq=\0,4,9,80\ att=\IL23R\ forks=\ اکنون اهمیت پیش بینی کننده ها: > پیش بینی کننده ها(c5Fitvac ) [1] IL23R IL12RB2 IL8 IL23A IL6ST IL12A IL12RB1 [8] IL27RA IL12B IL17A EBI3 **سوالات:** 1. چرا در طرح، سطوح `دقت` وجود دارد بدون برنده شدن حدود دو برابر برنده شدن؟ آیا می توانید در تفسیر این خروجی وقتی می گوید winnow = FALSE کمک کنید؟ 2. چگونه می توان خروجی درخت را به جای متن ناخواسته محاسبه شده که در مورد من ظاهر شد، تجسم کرد؟ آیا راهی برای _ببینی_ یک درخت به جای نمادهای شلوغ وجود دارد؟
درک خروجی مدل طبقه بندی C5.0 با استفاده از بسته CARET
34259
من در درک مثال زیر در پرانتز مشکل دارم. شاید بتوانید به من کمک کنید. در حالت ایده‌آل، محققان از گستره کامل جامعه‌ای که می‌خواهند مطالعه کنند، می‌دانند و می‌توانند نمونه‌ای از این جامعه را به‌طور تصادفی انتخاب کنند. آماردانان می توانند این احتمال را محاسبه کنند که چنین نمونه های تصادفی نشان دهنده جامعه هستند. این معمولاً بر حسب خطای نمونه‌گیری بیان می‌شود (*مثلاً ممکن است 95 درصد احتمال وجود داشته باشد که توزیع پاسخ‌ها در یک نمونه در 3 درصد توزیع در جامعه باشد**).
سوال در مورد خطای نمونه گیری
8918
من کنجکاو هستم، آیا راهی برای بهینه سازی رگرسیون با توجه به یک آمار خاص وجود دارد؟ فرض کنید من به مدلی با بهترین آمار ممکن AIC علاقه مند هستم (یا MSE یا هر اندازه گیری دیگری که به آن علاقه دارم) - آیا می توانم به نحوی رگرسیون را هدایت کنم تا مدل های X برتر را به من بدهم که این کار را انجام می دهند؟ (البته سایر اقدامات را نادیده نمی گیرم، اما آیا می توان این را درخواست کرد؟) چه نرم افزاری این را پشتیبانی می کند یا کد خود را (مثلا R) می نویسید؟ همچنین به طور کلی، زمانی که نتایج رگرسیون چندگانه نمایش داده می شود (مثلاً رگرسیون همه ممکن یا بهترین زیر مجموعه انجام می شود)، آیا رتبه بندی وجود دارد و اگر چنین است، بر اساس چه معیار/معیاری؟ من نمی گویم که این بهترین راه برای ارزیابی مدل ها است، اما شاید راهی برای کشف مدل های نامزد باشد؟ (هر چند این واقعاً سؤال اصلی من نیست.) با تشکر .. با خواندن این سایت چیزهای زیادی یاد گرفتید.
آیا راهی برای بهینه سازی رگرسیون با توجه به یک معیار خاص وجود دارد؟
54900
وقتی داده‌های برچسب‌گذاری شده‌ام را به مجموعه‌های آموزشی، اعتبارسنجی و آزمایش تقسیم کردم، همه چیز را از 50/25/25 تا 85/5/10 شنیده‌ام. من مطمئن هستم که این بستگی به این دارد که شما چگونه از مدل خود استفاده می کنید و چقدر مستعد به تناسب بیش از حد الگوریتم یادگیری شما است. آیا راهی برای تصمیم گیری وجود دارد یا همه اینها طبق قانون سرانگشتی است؟ حتی ELSII در مورد این موضوع مبهم به نظر می رسد.
چگونه تصمیم می گیرید که درصد قطار، اعتبار سنجی و آزمون شما چقدر باشد؟
49938
من اخیراً تخمین‌های حداکثر احتمال را انجام دادم که در آن متغیر وابسته استفاده از توزیع نرمال را توجیه می‌کرد. اما اکنون، متغیر وابسته دارای چولگی 0.4 و کشیدگی 1.5 است و همچنین کاملاً عجیب به نظر می رسد. حال سوال من این است: چگونه توزیع مناسب را انتخاب/پیدا کنیم؟ من در مورد تخمین‌های تراکم هسته مطالعه کردم، اما نمی‌دانم که آیا این می‌تواند فرمول توزیعی را ارائه دهد که می‌تواند در تخمین حداکثر احتمال استفاده شود.
چه توزیعی را انتخاب کنیم؟ آیا تخمین کرنل کمک می کند؟
8911
از چه ابزار رایگانی می توانم برای انجام شبیه سازی های ساده مونت کارلو در OS X استفاده کنم؟
از چه ابزار رایگانی می توانم برای انجام شبیه سازی های ساده مونت کارلو در OS X استفاده کنم؟
34255
من در حال مطالعه یک دوره آنلاین با حدود 3000 دانش آموز هستم که هر کدام چندین آزمون شرکت کردند و سعی می کنم از تئوری پاسخ آیتم (با استفاده از بسته ltm در R) برای مدل کردن سؤالات استفاده کنم، تعیین کنم که کدام آیتم ها بیشترین یا کمترین اهمیت را برای حفظ کردن دارند و چه آیتم های جدیدی ممکن است مورد نیاز باشد، و برای ارائه روشی جایگزین برای نمره گذاری و مقایسه عملکرد دانش آموزان. با این حال، هر زمان که سعی می‌کنم همه 16 تا 20 سؤال را در یک مسابقه با هم مدل کنم، متوجه می‌شوم که این مدل بر اساس حاشیه‌های دو و سه طرفه، تناسب ضعیفی دارد، با بسیاری از باقیمانده‌های مجذور کای بیش از 10 و برخی بیش از 20 است. ، حتی با یک مدل سه پارامتری. من دو استراتژی را برای مقابله با این موضوع امتحان کردم. در یکی سعی کردم سوالات را بر اساس شباهت مفاهیم تست شده به گروه های کوچکتر تقسیم کنم. با این حال، متوجه شدم که برای به دست آوردن تناسب قابل قبول (بیش از 2-3 حاشیه با مجذور کای بیش از 3.5)، باید اندازه پارتیشن را حداکثر به 3-5 مورد محدود کنم. پس از انجام این کار، من بینش کمی در مورد اینکه دقیقاً چه متغیر پنهانی در هر پارتیشن اندازه‌گیری می‌شود و بنابراین چگونه می‌توان تبعیض کم را تفسیر کرد، یا چگونه نمرات هر پارتیشن را در یک نمره آزمون جمع‌آوری کرد، ندارم. همچنین مطمئن نیستم که چگونه آیتم ها را در پارتیشن های مختلف از نظر اهمیت مقایسه کنم. استراتژی دیگری که من سعی کردم استفاده از ltm برای جا دادن به فضای متغیر پنهان دو بعدی بود. این باقیمانده‌های مجذور کای معقول ایجاد کرد (با فرض اینکه برش معمول 3.5 در حالت 2 بعدی منطقی باقی می‌ماند) اما تلاش من برای درک کیفی آنچه توسط هر متغیر اندازه‌گیری می‌شود، چه با نگاه کردن به پارامترهای آیتم، نمودارهای 3 بعدی ICC، یا حداکثر امتیازهای پسین، انجام داد. شکست خورد. بدون این درک، من مطمئن نیستم که چگونه دو نمره متغیر پنهان را در یک نمره آزمون ترکیب کنم. ممکن است آزمون‌هایی که من با آن‌ها کار می‌کنم بسیار کوتاه باشند و حوزه‌ای را پوشش دهند که نمی‌توان به اندازه کافی IRT را در آن اعمال کرد (مثلاً 2 تا 3 مبحث را در یک آزمون چند گزینه‌ای شامل 16 مورد پوشش می‌دهد). امیدوارم اینطور نباشد. همچنین ممکن است من کمی بیش از حد نگران تناسب اندام باشم. من در تئوری پاسخ آیتم تازه کار هستم و از هرگونه بینشی در این مورد سپاسگزارم.
برخورد با تناسب ضعیف در یک مدل نظریه پاسخ آیتم
49936
من اطلاعاتی از سطح دریا از یک ایستگاه خاص از سال 1940 تا امروز دارم. رگرسیون خطی در داده‌های 1940-1980 منجر به شیب 3 شد. رگرسیون خطی در داده‌های 1980-2010 منجر به شیب 4 شد. از چه آزمونی می‌توان برای تعیین اینکه آیا افزایش شیب قابل توجه است یا خیر استفاده کرد؟
آزمایش اینکه آیا افزایشی بین دو شیب رگرسیون در یک سری زمانی وجود دارد یا خیر
63140
فرض کنید که من نگران اشیایی هستم که با نقاط N 2D توصیف می شوند. همه این نکات برای من اهمیت یکسانی دارند. من با تعداد زیادی R از چنین اشیایی شروع می‌کنم که هر کدام فهرست N عنصری مربوط به نقاط دوبعدی خود را دارند. این را جمعیت بنامیم. اکنون یک شیء جدید B، با N مکان نقاط دوبعدی آن به من داده شده است. من می خواهم بدانم که چقدر می توانم مطمئن باشم که B متعلق به جمعیت است. من همچنین با یک احتمال یا هر عدد دیگری با یک تفسیر ساده خوشحال خواهم شد. مایلم فرض کنم که همه چیز به هم مرتبط نیست، نقطه $i$ در هر شی به طور یکنواخت با توجه به نقطه $i$ در اشیاء دیگر توزیع شده است، و سایر فرضیات معمولی دیگر. وقتی فقط یک متغیر وجود دارد، آزمون t Student ابزار مناسبی به نظر می رسد. این حدود عمق آماری من است. من در مورد آزمون‌های t چند بعدی، تست‌های هتلینگ و موضوعات مرتبط مطالعه کرده‌ام، اما درک نحوه استفاده از این ابزارها به پیچیدگی و عمق بیشتری نسبت به من نیاز دارد. صادقانه بگویم، من نمی‌توانم منابعی را که پیدا کرده‌ام (مانند صفحه ویکی‌پدیا در «توزیع چند متغیره»)، به یک راه‌حل عملی تبدیل کنم. من تشویق می‌شوم که این ابزارها در Mathematica (سیستمی که من با آن آشنا هستم - R را نمی‌دانم) تعبیه شده‌اند، و به نظر می‌رسد که آنها بسیار نزدیک به آنچه من نیاز دارم، اما دریابیم که چگونه از آنها برای این سؤال استفاده کنم. به نظر دور از دسترس است مثال‌هایی که خوانده‌ام شامل مقایسه چیزهایی مانند میانگین دو جمعیت و مقایسه‌های دیگر است، اما نمی‌دانم چگونه سؤالم را بر حسب این نوع آزمون‌ها بیان کنم. در حالت ایده‌آل، من می‌خواهم برای یادگیری تئوری آماری کافی وقت بگذارم تا بتوانم این ابزارها را به خوبی درک کنم تا بتوانم به این سؤال برای خودم پاسخ دهم. اما در حال حاضر با یک موقعیت عملی مواجه هستم که باید برای آن پاسخی دریافت کنم. هدف من یک روال کوچک Mathematica است که دو ورودی می گیرد: یک ماتریس از بردارهای R، که هر کدام از N 2D نقطه تشکیل شده است، و یک بردار دوم از N 2D نقاط، و ** عددی را به من برمی گرداند که بیانگر این اطمینان است که بردار متعلق به جمعیت **. یا، به همان اندازه مفید، نوعی معیار که به من می گوید بردار جدید تا چه اندازه از تعلق به جمعیت فاصله دارد. اگر کسی می تواند به من در رسیدن به آن هدف به صورت عینی و عملی کمک کند، بسیار سپاسگزار خواهم بود.
آزمایش اینکه آیا یک بردار در جمعیتی از بردارها قرار دارد یا خیر
34251
هنگام ارزیابی عملکرد مدل، می‌خواهیم خطاهای پیش‌بینی را به دلیل محدودیت‌های مدل از آن خطاهای ناشی از نویز ذاتی جدا کنیم. به عنوان مثال، در داده های پر سر و صدا، AUC در منحنی ROC می تواند کمتر از 1.0 باشد، حتی زمانی که از مدل واقعی استفاده می شود. چند رویکرد برای به دست آوردن یک تخمین کمی از حداکثر قدرت پیش بینی یک مدل با توجه به سطح مشخصی از نویز چیست؟
برآورد حداکثر قدرت پیش بینی در داده های نویزدار
76668
من جدولی دارم که در آن نتایج رگرسیون خطی چندگانه ارائه شده است. اگر ضرایب غیر استاندارد و خطای استاندارد برای هر متغیر مستقل داشته باشم، آیا می توان ضریب استاندارد شده (بتا) و ضریب تعیین ($R^2$) را از این داده ها محاسبه کرد؟ دوست من $R^2=0.41$ را برای این داده ها ارائه کرد، اما من شک دارم که آیا نتایج قابل اعتماد باشد. من جدول را در زیر آوردم، لطفا بتا و R-squared را محاسبه کنید تا با جدول اصلی مقایسه کنم؟ ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LJGFb.jpg) آمار توصیفی جدول زیر است: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur. com/re6g2.jpg)
چگونه بتا و ضریب تعیین ($R^2$) را از ضرایب غیر استاندارد در رگرسیون OLS محاسبه کنیم؟
29190
تخمین پارامترها با استفاده از تخمین حداکثر درستنمایی (MLE) شامل ارزیابی تابع درستنمایی است که احتمال وقوع نمونه (X) را به مقادیر (x) در فضای پارامتر (θ) با توجه به یک خانواده توزیع (P(X=x|θ) ترسیم می کند. ) بیش از مقادیر احتمالی θ (توجه داشته باشید: آیا من در این مورد درست هستم؟ F(X) توزیع با مقدار محلی θ و X نمونه (بردار) است، آیا به این نتیجه می رسد که داده ها مستقل باشند داده های سری زمانی مناسب است یا اینکه پارامترها فقط باید مستقل باشند؟
آیا MLE به i.i.d نیاز دارد؟ داده ها؟ یا فقط پارامترهای مستقل؟
58424
آیا توالی ضرر توسط cv.glmnet (شکاف cvm) در مقیاس متغیر استاندارد شده برگردانده می شود یا مقیاس اصلی؟ فکر می کنم این فقط روی قسمت پنالتی باخت تاثیر می گذارد. به عبارت دیگر، آیا مدل‌هایی که با فراخوانی cv.glmnet با standardize=TRUE به دست می‌آیند با مدل‌های به‌دست‌آمده با standardize=FALSE قابل مقایسه هستند؟
دنباله از دست دادن برای glmnet
95769
فرض کنید ما یک رگرسیون اول تفاوت با یک متغیر پاسخ محدود ، $ $ \ delta y_ {i} = \ beta_1 \ delta x_ {i}+\ delta \ epsilon_i. 0،1] $ که در آن $ y_ {it} $ می تواند مشارکت یک جمعیت را در یک نظرسنجی معین یا نرخ گذر دانش آموزان در یک آزمون استاندارد در یک مدرسه معین نشان دهد $i$ برای یک سال معین $t$. $X_{it}$ متغیری است که در طول زمان تغییر می‌کند، برای مثال اگر $y_{it}$ نرخ قبولی در یک مدرسه معین باشد، $X_{it}$ می‌تواند اندازه متوسط ​​کلاس باشد. هدف ما بدست آوردن یک تخمین بی طرفانه برای $\beta_1.$ است اگر مدل فوق را با استفاده از OLS تخمین بزنیم، مشکل زیر ممکن است رخ دهد. برای سادگی، فرض کنید دو دوره داریم، $t = 1، 2.$، سپس اگر $y_{i1} = 1$، آنگاه $\Delta y_{i} \در [-1,0]، $، در حالی که اگر $y_{i1 } = 0$ سپس $\Delta y_{i} \in [0,1].$ بنابراین اگر $y_{i1}$ نزدیک به $1 باشد، فقط می‌تواند اندکی افزایش یابد. در حالی که اگر $y_{i1}$ نزدیک به $0 باشد، می تواند بسیار افزایش یابد. اما در واقع این می تواند منجر به نتایج مغرضانه شود. این امر به این دلیل است که اگر $ y_ {it} $ محدود نشده باشد ، افزایش در $ x_i $ در دوره دوم ممکن است $ y_i $ در دوره دوم افزایش یابد ، اما این در مورد ما با پاسخ محدود وقتی $ y_ {i1} غیرممکن است = 1. $ مسئله مشابه است اگر افزایش $ x_i $ منجر به کاهش $ y_i $ شود وقتی $ y_ {i1} = 0. از این رو من گمان می کنم OLS ممکن است یک برآوردگر مناسب نباشد در این مورد، اما تحت شرایط دیگر ممکن است کار کند؟ ایده ای که من باید این مشکل را برطرف کنم این است که در مدل زیر موارد زیر را در نظر بگیرم. در واقع با توجه به پایین $ y_ {i1} $ (کمتر از 0.5) با توجه به تغییر در $ x_i $ آسان تر $ {i2} $ آسانتر است ، سپس برای افزایش $ y_i $ با داده در ابتدا $ y_ {i1} $ بالا (بیش از 0.5). من مطمئن نیستم که دقیقاً چگونه این کار را انجام دهیم، من گمان می کنم استفاده از یک متغیر نشانگر ممکن است کار کند. آیا این نوع رویکرد کارساز خواهد بود؟ آیا ایده دیگری برای رفع این مشکل سقفی وجود دارد؟
مسائل برآورد برای OLS با متغیر پاسخ محدود
58282
من داده هایی با اندازه 116.667 ردیف دارم که به این صورت تعریف شده است: iD Signal chr17.3620 0.5741552 chr1.7341 0.5680284 chr7.3937 0.5479430 chr17.3802020235 0.5298978 chr17.7227 0.5298536 از آنجایی که نشان دادن نتایج با تمام داده ها دشوار است، زیرا من شهرت کافی برای آپلود تصاویر را ندارم، پست خود را با 200 ردیف اول ارسال کردم. خلاصه: * حداقل = 0.3693 * ربع اول = 0.3847 * میانه = 0.4039 * میانگین = 0.4199 * ربع سوم = 0.4413 * حداکثر. 0.5742 = همچنین برخی از تحلیل‌های اکتشافی را امتحان کردم تا ببینم کدام نوع توزیع از این داده‌ها پیروی می‌کند (یعنی «Plot(density(t))» و «qqnorm(t)»؛ «qqline(t،col=2)». با توجه به نتایج اولیه، من می گویم که این داده ها ظاهراً از توزیع گاما پیروی می کنند. در اینجا من 200 مقدار سیگنال اول را قرار دادم: ساختار <-(list(V1 = c(0.5741552,0.5680284,0.5479430,0.5402434,0.5298978,0.5298536,0.5282417, 0.5165426,0.5131503,0.5129329,0.5105448,0.5104201,0.5095860,0.5090263, 0.5061467,0.4972821,0.4959428,0.4953381,0.4920510,0.4915160,0.4868505, 0.4843749,0.4825519,0.4823313,0.4809742,0.4788553,0.4775991,0.4770962, 0.4745947,0.4743952,0.4727112,0.4718017,0.4714738,0.4674141,0.4670385, 0.4648104,0.4633502,0.4616054,0.4615068,0.4614247,0.4613338,0.4597812, 0.4551755,0.4535067,0.4528133,0.4508228,0.4494993,0.4494936,0.4442789, 0.4413460,0.4412279,0.4402557,0.4392294,0.4385639,0.4385187,0.4361337, 0.4344499,0.4342413,0.4342331,0.4338879,0.4337806,0.4336820,0.4329372, 0.4325534,0.4323201,0.4312287,0.4292037,0.4281761,0.4279843,0.4279774, 0.4252035,0.4243487,0.4228516,0.4226953,0.4218263,0.4214821,0.4212546, 0.4210894,0.4206089,0.4204235,0.4193896,0.4168915,0.4164699,0.4152126, 0.4127455,0.4126053,0.4113571,0.4105654,0.4099753,0.4088188,0.4085093, 0.4075957,0.4074018,0.4072499,0.4072114,0.4067329,0.4065400,0.4052757, 0.4044982,0.4040699,0.4036509,0.4033471,0.4031712,0.4026698,0.4017872, 0.4011538,0.4011325,0.4011320,0.4008897,0.4006470,0.4003469,0.3996736, 0.3992583,0.3991979,0.3990366,0.3989118,0.3983172,0.3980860,0.3978592, 0.3977522,0.3965371,0.3963045,0.3957640,0.3954328,0.3950159,0.3935825, 0.3934975,0.3932916,0.3931091,0.3929565,0.3922829,0.3919779,0.3919713, 0.3914740,0.3910446,0.3909540,0.3890607,0.3890550,0.3876478,0.3875172, 0.3873815,0.3872299,0.3870533,0.3858995,0.3858361,0.3855984,0.3854444, 0.3852595,0.3849558,0.3847531,0.3844442,0.3842814,0.3831377,0.3822418, 0.3817666,0.3805661,0.3803090,0.3802035,0.3800845,0.3800580,0.3799694, 0.3795814,0.3794039,0.3792874,0.3788970,0.3787295,0.3785160,0.3782523, 0.3782439,0.3779547,0.3778596,0.3777452,0.3770986,0.3767652,0.3767104, 0.3765786,0.3760886,0.3760124,0.3753271,0.3750943,0.3749116,0.3744146, 0.3743998,0.3730250,0.3729932,0.3727007,0.3726170,0.3722539,0.3721743, . t<-as.matrix(A$V1) سوالات من این است: **1.- چگونه می توانم داده های خود را در یک توزیع گاما تطبیق دهم؟** **2.- آیا راهی برای تعیین، با توجه به برازش مدل وجود دارد ، کدام مقدار سیگنال با p-value < 0.05 مطابقت دارد؟** از راهنمایی شما متشکرم! PD 1: پیشنهادهایی را برای ویرایش می‌پذیرم زیرا این اولین پست من در انجمن است! PD 2: من همه اینها را با استفاده از R امتحان کردم
برازش داده ها به توزیع گاما برای یافتن امتیازی که با pvalue < 0.05 مطابقت دارد؟
49931
در تحقیقات بازار، من در حال ساخت یک مدل رگرسیون لجستیک برای برآورد احتمال تغییر بانک توسط مشتریان هستم. نسبت رویدادها در نمونه من تقریباً 10٪ است. از دانشگاه به یاد می‌آورم که نسبتی از رویدادها که خیلی کوچک هستند، سوگیری را به تخمین وارد می‌کنند. یا این خطای استاندارد است که بایاس می شود؟ (سؤال 1) به عنوان یک قاعده کلی، نسبت مناسبی از رویدادها چقدر است؟ (سؤال 2) لطفاً به جای توضیح فنی که توسط مراجع مختلف پشتیبانی می شود، یک پاسخ مستقیم و خشن بدهید.
نسبت قابل قبول رویدادها در رگرسیون لجستیک چقدر است؟
34257
من در حال خواندن مقاله ای هستم که ادعا می کند $$\hat{X}_k=\frac{1}{\sqrt{N}}\sum_{j=0}^{N-1}X_je^{-i2\pi kj/N}، $$ (یعنی تبدیل فوریه گسسته، DFT) توسط C.L.T. به یک متغیر تصادفی گاوسی (پیچیده) تمایل دارد. با این حال، من می دانم که این به طور کلی درست نیست. پس از خواندن این استدلال (اشتباه)، در شبکه جستجو کردم و این مقاله 2010 توسط Peligrad & Wu را پیدا کردم، جایی که آنها ثابت کردند که برای **برخی از فرآیندهای ثابت، می توان یک قضیه C.L.T. پیدا کرد. سوال من این است: آیا شما مرجع دیگری دارید که سعی کند به مشکل یافتن توزیع محدود کننده DFT یک دنباله نمایه شده معین (هم از طریق شبیه سازی و هم از طریق تئوری) رسیدگی کند؟ من به ویژه به نرخ همگرایی (یعنی سرعت همگرایی DFT) با توجه به ساختار کوواریانس برای $X_j$ در زمینه تجزیه و تحلیل سری های زمانی، یا مشتقات/کاربردهای سری های غیر ثابت علاقه دارم.
قضیه حد مرکزی برای مجموع وزنی متغیرهای تصادفی همبسته
50376
دو متغیر تصادفی مستقل، X و Y، به طور یکنواخت در بازه واحد (-1،1) توزیع شده اند. چگالی را برای U=min(X,Y) و برای W=max(X,Y) تعیین کنید.
تعیین چگالی min(x,y) و max(x,y) برای متغیرهای توزیع شده به طور یکنواخت
93528
من در حال حاضر بر روی پیاده سازی مدل 'SVAR' در یک تحلیل اقتصادی کار می کنم. من 10 متغیر در تجزیه و تحلیل خود دارم و در حال حاضر در تلاش برای گنجاندن محدودیت های کوتاه مدت هستم. در اینجا یک مثال با چهار متغیر وجود دارد، Y1 (GDP)، Y2 (نرخ ارز)، Y3 (نرخ بهره) Y4 (ریسک بانک). من می خواستم محدودیت های کوتاه مدت زیر را اعمال کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/tqXEW.png) چند کتاب درسی را مرور کردم و نمونه ها با سفارش کوتاه مدت شروع می شدند. برخلاف اینجا که من ترتیبی ندارم و بنابراین ماتریس را غیر مثلثی می کنم.
مدل SVAR با محدودیت های کوتاه مدت
50377
پاسخ به این سوال ایده جالبی به من داد. بخشی که برای من جالب بود شرح مختصری از کریجینگ بود که توسط > روش انجام شد، کریجینگ همانطور که معمولاً انجام می شود کاملاً مشابه حداقل مربعات > تخمین نیست، زیرا Σ در یک روش مقدماتی (معروف به > واریوگرافی) با استفاده از همان داده ها این برخلاف مفروضات > این اشتقاق است، که فرض می‌کرد Σ شناخته شده است (و تا حد زیادی مستقل از > داده‌ها). بنابراین، در همان ابتدا، کریجینگ دارای برخی اشکالات مفهومی و > آماری است. تمرین‌کنندگان متفکر همیشه از این موضوع آگاه بوده‌اند و راه‌های خلاقانه مختلفی برای توجیه ناسازگاری‌ها پیدا کرده‌اند. (داشتن داده‌های زیاد واقعاً می‌تواند کمک کند.) اکنون روش‌هایی برای تخمین همزمان Σ و پیش‌بینی مجموعه‌ای از مقادیر در مکان‌های ناشناخته وجود دارد. آنها برای انجام این کار به فرضیات کمی قوی تری نیاز دارند (چند متغیره > عادی). سوالی که من از این داشتم این بود که آیا روش مشابهی برای کوکریجینگ وجود دارد مانند اینکه چگونه مدل‌های فضایی تعمیم‌یافته نسبت به کریجینگ بهبود می‌یابند؟ اساساً تکنیکی که هیچ چیزی را روی سیگما یا mu فرض نمی‌کند و از متغیر ثانویه استفاده می‌کند.
کوکریجینگ و مدل های فضایی خطی تعمیم یافته
49939
معنی t value و Pr(>|t|) هنگام استفاده از تابع summary() در مدل رگرسیون خطی در R چیست؟ ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 10.1595 1.3603 7.469 1.11e-13 *** log(var) 0.3422 0.1597 2.143 0.0322 *
تفسیر تابع خلاصه برای مدل lm در R
112637
من نمودار آزمایشی را اضافه کرده‌ام که در آن سلول‌ها از چندین حیوان جمع‌آوری می‌شوند، سلول‌های استخر سپس به تیمارهای مختلف اختصاص داده می‌شوند و اندازه‌گیری از هر سلول جداگانه در هر تیمار انجام می‌شود. هدف از این آزمایش تعیین اینکه چگونه دوزهای یک دارو (درمان ها) بر اندازه سلول تأثیر می گذارد. من قبلاً نظرات مختلفی در مورد اینکه چه چیزی واحد آزمایشی را در این مورد تشکیل می دهد دریافت کرده ام. من می‌توانم بگویم واحد آزمایشی استخر است، بنابراین n=1، اما وقتی به تعریف واحد آزمایشی نگاه می‌کنیم، می‌گویم: «کوچک‌ترین تقسیم ماده آزمایشی به‌طوری که هر دو واحد آزمایشی می‌توانند درمان‌های متفاوتی دریافت کنند» - مطمئناً دو سلول جداگانه می‌توانند از نظر تئوری درمان‌های متفاوتی دریافت می‌کنند، زیرا آنها نهادهای جداگانه هستند؟ بیشتر نمونه‌هایی که من پیدا کرده‌ام ساده‌تر هستند، برای مثال اگر حلزون‌ها خودشان در معرض درمان قرار می‌گرفتند، می‌توانستم ببینم که چگونه سلول‌های درون هر حلزون دیگر مستقل نیستند و بنابراین حلزون واحد آزمایشی خواهد بود. من قدردان هر گونه فکر یا توضیحی هستم. ![طراحی مطالعه](http://i.stack.imgur.com/m1wol.jpg)
شناسایی واحد آزمایشی