_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
94257 | من با یک نمونه مغرضانه از کاربران وب کار می کنم. من فقط میتوانم پاسخهای کاربرانی را که به روشی خاص در سایت من پیمایش کردهاند، ردیابی کنم، و میخواهم تجزیه و تحلیلی را انجام دهم تا تعیین کنم که چگونه عوامل خاصی (به کدام محصولات و غیره) بر میزان خرید آنها از سایت من تأثیر میگذارند. فروشگاه آنلاین. من در اطراف آنلاین جستجو کردم و اطلاعاتی در مورد تصحیح هکمن پیدا کردم، که به نوعی هم برنده جایزه نوبل شد و هم اطلاعات آنلاین بسیار کمی دارد، از جمله پشتیبانی از R یا ویدیوهای یوتیوب که می توانم پیدا کنم. راههایی که با ساخت مدلهایی کار میکنید که سعی در تصحیح دادههای جانبدارانه دارند چیست؟ آیا کتابخانه های نرم افزاری برای استفاده آسان در R وجود دارد؟ من تعداد زیادی داده بدون برچسب (محصولاتی که هر کاربر دیده است) دارم، بنابراین ممکن است بتوانم یک مدل ساده برای تعیین احتمال اینکه یک کاربر در نمونه من به پایان برسد، ایجاد کنم، و من مایل به کار با آن هستم. زبان آموزان پیشرفته تر مانند SVM (که من خوانده ام می تواند برای این نوع مسائل بهتر کار کند) در صورتی که رگرسیون خطی انتخاب بدی باشد. | بسته های R که با نمونه های بایاس کار می کنند |
52505 | من ثابت یا غیر ثابت بودن یک سری زمانی را با R بررسی می کنم و از «adf.test» و «kpss.test» در بسته «tseries» استفاده می کنم. مفروضات این تست ها چیست؟ آیا پیروی از توزیع گاوسی توسط مجموعه داده یکی از فرضیات است؟ اگر بله، برای سری های زمانی غیر گاوسی چه کاری می توانیم انجام دهیم؟ همچنین، آیا استفاده از گزینه های پیش فرض برای ترتیب تاخیر در ADF که $k = \text{trunc}((\text{length}(x)-1)^{1/3})$ است یک فرض مطمئن است؟ متشکرم | مفروضات برای بررسی ثابت بودن یک سری زمانی چیست؟ |
82811 | اجازه دهید $X$ pdf $f_X (x;\theta)=1/(2\theta)$ برای $-\theta<x<\theta$ داشته باشد، صفر در جای دیگر که $\theta>0$ آمار $Y است. =|X|$ یک آمار کافی برای $\theta$؟ * * * کتاب من ادعا می کند که هست اما من آن را نمی بینم. یک آرگومان تبدیل نشان می دهد که توزیع $|X|$ با $f_X (x;\theta)=1/\theta$ برای $0<x<\theta$ یکنواخت است. بنابراین احتمال شرطی $$\frac{f(x_1;\theta)f(x_2;\theta)\ldots f(x_n;\theta)}{f_{|X|}(|X|;\theta)}$ $ _does_ به $\theta$ بستگی دارد و بنابراین، $|X|$ نمی تواند آمار کافی برای $\theta$ باشد. آیا من اینجا کار اشتباهی انجام می دهم؟ متشکرم. | آمار کافی برای یکنواخت |
964 | بنابراین در R، برای مثال، این خواهد بود: my_ts_logged_diffed = diff(log(some_ts_object)) plot(my_ts_logged_diffed) این به نظر میرسد بخشی از گردش کار تحلیلی هر تحلیلگر/پیشبینیکننده با تجربه باشد - به ویژه، یک _بررسی بصری دادههای رسمشده. آنها به دنبال چه چیزی هستند - به عنوان مثال، این دگرگونی به فاش کردن چه اطلاعات مفیدی کمک می کند؟ به طور مشابه، من مجموعهای خوب از کتابهای درسی سری زمانی، آموزشها و موارد مشابه دارم. تقریباً همه آنها به این مرحله تحلیلی اشاره می کنند، اما هیچ یک از آنها نمی گویند که چرا این کار انجام شده است (من مطمئن هستم که دلیل خوبی وجود دارد، و ظاهراً آنقدر واضح است که حتی نمی توان به آن اشاره کرد). (من در واقع به طور معمول بر این تغییر تکیه می کنم، اما فقط برای هدف محدود آزمایش برای توزیع نرمال (من فکر می کنم این تست _Shapiro-Wilk_ نامیده می شود). کاربرد آزمون فقط شامل مقایسه کردن چند پارامتر (یک پارامتر 'W' و مقدار p) در برابر یک خط مبنا - به نظر نمیرسد که آزمون نیازی به ترسیم دادهها داشته باشد. | تحلیلگران وقتی یک سری زمانی متفاوت و ثبت شده را ترسیم می کنند به دنبال چه چیزی هستند؟ |
43131 | وقتی از اعتبارسنجی متقاطع 10 برابری استفاده می کنم، در مورد بهینه سازی پارامتر سوال دارم. من می خواهم بپرسم که آیا پارامترها باید در طول آموزش مدل هر فولد ثابت شوند یا خیر، یعنی (1) یک مجموعه از پارامترهای بهینه شده را برای دقت متوسط هر فولد انتخاب کنید. یا (2) باید پارامتر بهینهسازی شده را برای هر فولد پیدا کنم و سپس هر فولد از پارامترهای بهینهسازی شده متفاوتی برای آموزش مدل خود استفاده میکند، سپس به ترتیب دادههای تست فولد را آزمایش میکند و در نهایت دقت هر فولد را در نتیجه میانگین میدهم؟ کدام یک روش صحیح برای اعتبارسنجی متقابل است؟ خیلی ممنون | اعتبار سنجی متقابل و بهینه سازی پارامترها |
11420 | من مدلی تهیه کردم که دقت بسیار خوبی (80.5 درصد) روی داده های خارج از نمونه من داشت. با این حال، زمانی که من آن مدل را بر روی جمعیتی که حدود 6 میلیون سن دارد اجرا کردم، دقت به 33 درصد کاهش یافت. من در اینجا در مورد تشخیص درصد رویداد (مثلاً پیش فرض ها) صحبت می کنم. بنابراین در حال حاضر مدل من فقط 33 مورد از 100 پیشفرض را در مجموعه داده خارج از زمان شناسایی میکند. لطفاً راهنمایی کنید که چه دلایلی می تواند پشت این موضوع باشد. چگونه می توانم این را بهبود بخشم؟ دفاع از این دقت در مقابل مشتری کار سختی است. خدای ناکرده در صورت نیاز به دفاع از این دقت در مقابل مشتری، چگونه می توان آن را توجیه کرد؟ | دقت پایین در اعتبار سنجی خارج از زمان |
11428 | من می خواهم پیامدهای افزایش قیمت های جریمه را ارزیابی کنم. من چند سناریو مختلف خواهم داشت که از کسب و کار معمول، افزایش جزئی، افزایش متناسب، افزایش طبقهای تا افزایش شدید را شامل میشود. هر سناریو بسته به جزئیات و زیربرنامه ها سطوح مختلفی از افزایش پولی خواهد داشت. همچنین، من میخواهم تحلیل مقایسهای پیادهسازی یک سیستم پایه ضربه (x باری که جریمه میشوید، شما خارج هستید) در مقابل یک سیستم هدایت کاربر غیر افراطی مشارکتی انجام دهم. آیا مدلهایی وجود دارد که چنین افزایشهایی را پیشبینی کند، بهویژه با توجه به این که احتمال دارد افراد پس از ایجاد سیستم جدید، تعداد جریمههای خود را کاهش دهند یا افزایش دهند. | مدل ها و روش های آماری برای ارزیابی و پیش بینی افزایش «قیمت خوب». |
17116 | گفته می شود که برای دستیابی به یک نتیجه خوب (بسیاری از معیارهای مختلف) برای طبقه بندی متن، همیشه انتخاب الگوریتم/طبقه بندی کار نیست. گاهی اوقات، پیدا کردن یک روش انتخاب ویژگی خوب با توجه به وظیفه خاص، مهم تر است. با این حال، حتی قبل از انتخاب ویژگی، انتخاب مجموعه دسته بندی در واقع نتیجه نهایی را تعیین می کند. فرض کنید، در بسیاری از موارد، دستهها در واقع نیمه انعطافپذیر یا کاملاً انعطافپذیر هستند. من می توانم تصور کنم، برای به دست آوردن مجموعه ای بهتر از مقوله ها، هم هدف طبقه بندی متن و هم ویژگی آماری متن نقش مهمی دارند. می خواهم بدانم آیا آموزش/بحث/پیشنهادی در مورد نحوه انتخاب دسته ها وجود دارد؟ و برای تحلیل ویژگی های آماری مجموعه متن از چه روش هایی می توان استفاده کرد؟ (می توانم به استفاده از خوشه بندی فکر کنم.) | انتخاب دسته برای طبقه بندی متن |
52501 | من در آمار زیاد باتجربه نیستم به همین دلیل ممکن است سوال من را احمقانه بدانید. به هر حال، من میخواهم یاد بگیرم که برای تفسیر نسبتهای فرد در رگرسیون لجستیک باینری باید به کدام سطح از یک متغیر مستقل طبقهبندی نگاه کنم. به عنوان مثال، من یک متغیر مقوله ای مستقل (تحصیلات) با سه سطح دارم. نتایج رگرسیون لجستیک باینری نشان میدهد که «edu» (سطح مرجع) معنیدار نیست اما یکی از سطوح «edu(2)» معنیدار است. آیا می توان اهمیت کلی «ادو» را نادیده گرفت و «ادو(2)» را تفسیر کرد؟ | متغیر مستقل طبقه ای با سه سطح و رگرسیون لجستیک باینری |
97506 | آیا امکان وجود چندین (حداقل 3) متغیر وابسته در یک مدل طبقه بندی واحد وجود دارد؟ من می دانم که این را می توان در یک مدل رگرسیون انجام داد، اما باید این کار را با یک مدل طبقه بندی انجام دهم. سه DV من با هم مرتبط هستند، بنابراین من نمی خواهم به سادگی سه مدل طبقه بندی جداگانه بنویسم. آیا کسی راهی برای انجام این کار در اسکیت R یا python می داند؟ | طبقه بندی چند متغیره |
11421 | تا آنجا که من می دانم واریانس به صورت $$\text{variance} = \frac{(x-\text{mean})^2}{n}$$ محاسبه می شود در حالی که $$\text{واریانس تجربی} = \frac{ (x-\text{mean})^2}{n(n-1)} $$ درست است؟ یا تعریف دیگری وجود دارد؟ لطفاً با مثال یا هر مرجعی برای مطالعه در این موضوع توضیح دهید | تفاوت بین واریانس تجربی و واریانس چیست؟ |
49061 | بیشاپ در _Pattern Recognition and Machine Learning_ درباره شبکه های بیز می نویسد: > برای کاربردهای عملی مدل های احتمالی، معمولاً متغیرهای با شماره بالاتر مربوط به گره های انتهایی نمودار هستند که > مشاهدات را نشان می دهند، با گره های با شماره کمتر مربوط به > نهفته است. متغیرها نقش اصلی متغیرهای پنهان این است که اجازه می دهند یک توزیع > پیچیده بر روی متغیرهای مشاهده شده در قالب مدلی که از توزیع های شرطی ساده تر (معمولاً خانواده نمایی) ساخته شده است نشان داده شود. و بعد از چند خط: > متغیرهای پنهان در یک مدل احتمالی، با این حال، نیازی به تفسیر فیزیکی صریح ندارند، اما ممکن است به سادگی معرفی شوند تا امکان ایجاد یک توزیع مشترک پیچیده تر از اجزای ساده تر را فراهم کنند. فکر می کنید منظور او از این نوع متغیرهای پنهان (بدون تفسیر فیزیکی) چیست؟ یک مثال ساده از این چه چیزی می تواند باشد؟ من در مورد مخلوطی از گاوسیان فکر کردم، اما آنها با موقعیتی که متغیرهای مورد نظر ما دارای تعداد بیشتری هستند مطابقت ندارند. | متغیرهای پنهان در شبکه های بیز بدون تفسیر فیزیکی |
97500 | کارآمدترین راه برای دستیابی به کار زیر در R چیست: ترکیب مقادیر یک متغیر برای مشاهداتی که روی یک متغیر شاخص مطابقت دارند و مقادیر مشخصی روی متغیر شاخص دوم دارند. به عنوان مثال: id1<-c(a،a،b،b) id2<-c (x, y, x, y) متغیر<-rep( 1،4) d<-as.data.frame(cbind(id1,id2,variable)) d$variable<-as.numeric(as.character(d$variable)) وظیفه مشاهدات است (ردیفهایی) که «id1» یکسان دارند، برای اضافه کردن مقدار «متغیر» برای موارد با «id2» برابر با «x» به مقدار «متغیر» برای موارد با «id2» برابر با «y» . بهترین چیزی که من می توانم به آن بیابم حلقه دوبل است که کار را انجام می دهد اما بسیار کند و زشت است: for (i in 1:nrow(d)){ if (d$id2[i]=='x') { for ( j در 1:nrow(d)){ if (d$id1[i]==d$id1[j] & d$id2[j]=='y'){ d$variable[j]<-d$variable[i]+d$variable[j] } other next } } other next } بنابراین کارآمدترین رویکرد چیست؟ | تطبیق شرطی و ترکیب داده ها در R |
60414 | واریانس حاصلضرب متغیرهای تصادفی همبسته $k$ چقدر است؟ | واریانس حاصلضرب k متغیرهای تصادفی همبسته |
52509 | من در حال نوشتن گزارشی در مورد یک مطالعه ترکیبی 2×3 هستم. ONE در IV با دو سطح و ONE بین آزمودنی های IV سه سطح وجود دارد. دو DV وجود دارد. حجم نمونه برای هر گروه 25، 25، 27 است. من تست Mauchly را امتحان کردم اما نتیجه ای نداشت. من در جایی خواندم که شما فقط می توانید از آن برای مطالعات با 3 یا بیشتر در داخل IV استفاده کنید. بنابراین سوال من این است که آیا از تست Box استفاده کنم و به خروجی گلخانه گیسر مراجعه کنم؟ | آزمون باکس برای کوواریانس های برابر یا آزمون کروی بودن ماچلی؟ |
49062 | به عنوان یک دانشجوی فارغ التحصیل روانشناسی اعصاب با تجربه ای در زمینه آمار (من معمولاً همان کسی هستم که روانشناسان دیگر با مشکلات آماری مواجه می شوند - بعد از اینکه خودشان آن را امتحان کردند اما قبل از مراجعه به یک آمارگیر)، در حال بررسی این هستم که آیا یک درمان پزشکی تأثیری بر اقدامات شناختی دارد یا خیر. از درمان مشکل پزشکی). من به دنبال یک روش آماری معتبر برای نزدیک شدن به مشکل زیر (ترجیحاً با استفاده از R) بودهام که با بازبینهای (پزشکی) نیز کنار بیاید. من سعی خواهم کرد مشکل را توضیح دهم، که به نظر می رسد تا حدودی غیر معمول است - شاید به دلیل اشتباه در تفکر من. من دادههایی از دو جمعیت دارم: گروه بزرگی از کنترلها و گروه کوچکتری از بیماران (تعداد ~ 20). در هر دو گروه، من در یک مقیاس شناختی توزیع شده نرمال در چهار نقطه زمانی (T0-T3)، که در بیماران با یک نمره قبل از درمان (T0) و سه نمره پس از درمان (T1-T3) مطابقت دارد، نمرات دارم. به عنوان بخشی از یک رویکرد پذیرفتهشده در روانشناسی عصبی (تحلیل SRB؛ به عنوان مثال داف، 2012)، من از رگرسیون چندگانه در دادههای کنترل برای مدلسازی نمرات T1، T2 و T3 از نمرات جمعیتشناسی و پایه (T0) استفاده کردهام. سپس از این مدل رگرسیون برای پیشبینی نمرات T1-T3 در بیماران استفاده میشود، و تغییر در بیماران فردی براساس تفاوت بین امتیاز پیشبینیشده و مشاهدهشده در T1-T3 (و همچنین خطای پیشبینی/تغییرپذیری در کنترلها) ارزیابی میشود. برای یک بیمار مجرد که چیزی شبیه این به نظر می رسد: T0 T1 T2 T3 امتیاز مشاهده شده 100 105 106 107 امتیاز پیش بینی شده - 110 117 120 با این حال، تجزیه و تحلیل برای مخاطبی در نظر گرفته شده است که برای تجزیه و تحلیل گروهی (و نه فردی) استفاده می شود و به ( به طور جزئی) این مخاطب را ملزم می کند. مایلم پیش بینی های بیماران **به صورت گروهی** را با نمرات مشاهده شده مقایسه کنم. این تجزیه و تحلیل گروهی با دو مشکل مواجه می شود: 1. به دلیل پدیده هایی مانند رگرسیون به میانگین، اثرات تمرین و غیره، توزیع نمرات پیش بینی شده با توزیع نمرات مشاهده شده متفاوت است. به عنوان مثال، رگرسیون به میانگین، گسترش در نمرات پیش بینی شده (در مقایسه با نمرات مشاهده شده) را کاهش می دهد. 2. اگرچه کاوش داده ها (هیستوگرام، نمودارهای qq، و غیره) نشان می دهد که امتیازات تفاوت (مشاهده-پیش بینی) به طور معمول توزیع شده است، اندازه گروه (n~20) کوچکتر از چیزی است که معمولاً به عنوان حداقل اندازه گروه برای نرمال بودن تقریبی توصیه می شود. (n~30). من می خواهم در تجزیه و تحلیل گروهی به دو سوال پاسخ دهم: 1. آیا نمرات مشاهده شده با نمرات (/ کمتر از) پیش بینی شده متفاوت است؟ 2. در چه نقاط زمانی (T1-T3) امتیازات کمتر از امتیازات پیش بینی شده مشاهده می شود؟ به عنوان اولین تقریب، من از آزمون های t تک نمونه ای بر روی تفاوت امتیازات (مشاهده-پیش بینی شده) با تصحیح بونفرونی برای مقایسه های متعدد (3) استفاده کرده ام. اما این به وضوح یک راه حل غیربهینه است: به طور مستقیم آزمون همه جانبه مورد نیاز برای پاسخ به سوال اول را ارائه نمی دهد و در جایی که حداقل تا حدودی مشکوک است، عادی بودن را فرض می کند. از این رو سوال من این است که روش بهینه برای انجام تحلیل گروهی چیست؟ | مقایسه مقادیر مشاهده شده و پیش بینی شده در چندین اندازه گیری |
961 | من یک مجموعه داده دارم که از عناصر سه گروه تشکیل شده است، بیایید آنها را G1، G2 و G3 بنامیم. من ویژگی های خاصی از این عناصر را تجزیه و تحلیل کردم و آنها را به 3 نوع رفتار T1، T2 و T3 تقسیم کردم (برای انجام این کار از تحلیل خوشه ای استفاده کردم). بنابراین، اکنون من یک جدول احتمالی 3×3 دارم که تعداد عناصر در سه گروه بر اساس نوع تقسیم شده است: | T1 | T2 | T3 | ------+---------+---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 18 | 15 | 65 | ------+---------+------------------+---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 20 | 10 | 70 | ------+---------+--------------------------------------------------------------------------------------------------- 15 | 55 | 30 | اکنون، من میتوانم یک آزمایش فیشر روی این دادهها در دادههای R <- matrix(c(18, 20, 15, 15, 10, 55, 65, 70, 30), nrow=3) fisher.test(data) و من آزمون دقیق فیشر را برای داده های شمارش دریافت می کنم: داده p-value = 9.028e-13 فرضیه جایگزین: دو طرفه بنابراین من سوالات عبارتند از: * آیا استفاده از آزمون فیشر به این روش صحیح است؟ * چگونه می دانم چه کسی با چه کسی متفاوت است؟ آیا آزمایش بعد از تعقیب وجود دارد که بتوانم از آن استفاده کنم؟ با نگاه کردن به داده ها می توانم بگویم که گروه سوم رفتار متفاوتی با دو مورد اول دارند، چگونه می توانم آن را از نظر آماری نشان دهم؟ * شخصی به من اشاره کرد که مدل های لاجیت: آیا آنها گزینه مناسبی برای این نوع تحلیل هستند؟ * گزینه دیگری برای تجزیه و تحلیل این نوع داده ها وجود دارد؟ خیلی ممنون نیکو | آزمون آماری برای n x m جداول احتمالی |
52507 | اجرای این مثال از کتاب درسی Hyndman در فصل 9.1: auto.arima(austa,d=0,xreg=1:length(austa)) ARIMA(2,0,0) با میانگین غیر صفر ضرایب: ar1 ar2 intercept 1:length (austa) 1.0371 -0.3379 0.4173 0.1715 s.e. 0.1675 0.1797 0.1866 0.0102 sigma^2 تخمین زده شده به عنوان 0.02486: log likelihood=12.7 می خواهم آزمایش کنم که آیا روند قابل توجه است. هنگام استفاده از `lm`، برای بدست آوردن مقادیر p به درجات آزادی نیاز دارم، به عنوان مثال: tstats <- coef(test) / sqrt(diag(vcov(test))) 2 * pt(abs(tstats) , df = df.residual(test), bottom.tail = FALSE) چگونه d.o.f را برای این مثال (و به طور کلی برای ARIMA) محاسبه کنم مدل ها) برای بدست آوردن مقادیر p؟ | چگونه df را برای مدل های ARIMA محاسبه کنیم؟ |
60413 | چگونه می توانم از آزمون پیشینی برای تعیین اندازه نمونه برای تحقیقات کوهورت آینده نگر خود استفاده کنم که مردان واکسینه شده را با مردان غیر واکسینه شده مقایسه می کند. من در حال بررسی تأثیر واکسیناسیون بر شیوع بیماری در آینده هستم. | چگونه می توان حجم نمونه را قبل از طراحی یک تحقیق مطالعه کوهورت آینده نگر 2 گروهی تعیین کرد؟ |
60418 | در اینجا برخی از نتایج برای ANN و KNN در مجموعه دادههای آبالون با استفاده از Weka آورده شده است: نتیجه برای ANN نمونههای بهدرستی طبقهبندیشده 3183 76.203 % موارد طبقهبندی نادرست 994 23.797 درصد میانگین خطای مطلق 0.214 ریشه میانگین مربعات خطای ریشه 0.3649 %5 نمونههای بهدرستی طبقهبندیشده 3211 76.8734 % موارد طبقهبندی نادرست 966 23.1266 درصد میانگین خطای مطلق 0.2142 ریشه میانگین مربع خطا 0.3361 خطای مطلق نسبی 58.7113 درصد KNN دارای دقت پایین است. پس باید بگویم کدام یک از این دو الگوریتم بهتر است؟ کدام معیار، دقت یا خطا، ارجح تر است؟ آنچه من فهمیدم این بود که خطا باید با دقت بالا کاهش یابد، اما نتایج در اینجا برعکس است. چرا اینطور است؟ | بهترین معیار برای ارزیابی عملکرد در الگوریتم های طبقه بندی چیست؟ |
104594 | من چه ممکن است یک سوال ساده لوحانه است. من در حال مقایسه مدل های مختلف (یعنی توزیع ها) هستم. و مقایسهها شامل توزیعهای مختلف نیست، بلکه شامل نحوه تغذیه مدل از دادهها میشود. به عنوان مثال، دو مدل ممکن است 1) مخلوطی از گاما + نمایی و 2) مخلوطی از گاما + نمایی که در آن حداقل نقطه داده کم می شود. با توجه به مدل 2). اگر حداقل داده را کم کنم، یک نقطه داده = 0 باقی میمانم. مدل مناسب است و مقادیر MLE خود را دریافت میکنم. با این حال، اگر من فقط با یک گاما کار کنم و در یک مدل حداقل نقطه داده را حذف کنم، آن نقطه داده = 0 باعث ایجاد خطا در برآوردگر MLE می شود. برای عبور از این مشکل، من به سادگی نقطه داده 0 را حذف می کنم و توزیع را متناسب می کنم. سوال من این است که آیا صرفاً حذف نقطه داده (نگرانی من کاهش اندازه مجموعه داده من است) مشکلی دارد؟ و برای گاما + نمایی هم باید این کار را بکنم؟ با تشکر | محاسبه حداقل اندازه گیری وابسته در داده ها هنگام برازش توزیع |
43134 | سلام آماردانان فوق العاده، من در حال نوشتن یک پروپوزال برای پایان نامه ای هستم که در آن می خواهم بررسی کنم که آیا ضربان قلب می تواند پیش بینی کند 1) انسجام روایت (همانطور که در یک مقیاس قضاوت می شود - اما همچنین می تواند طبقه بندی شود) و 2) خود گزارش شده رضایت از رابطه (همچنین مقیاسی). در حالت ایدهآل، من همچنین میخواهم ببینم آیا DV1 (انسجام روایت) DV2 (رضایت از رابطه) را پیشبینی میکند، زیرا گمان میکنم همه آنها به هم مرتبط هستند. بهترین راه برای تجزیه و تحلیل این داده ها چیست؟ آیا می توانم DV1 را به عنوان یک IV بدون به خطر انداختن یکپارچگی تجزیه و تحلیل خود تجزیه و تحلیل کنم؟ فکر من انجام یک MANOVA یا MANCOVA است. با این حال، هر توصیه ای قابل قدردانی خواهد بود! | چگونه باید یک مجموعه داده را با 1 IV و 2DV (همه متغیرهای مقیاس) تجزیه و تحلیل کنم؟ |
64249 | با عرض پوزش برای پرسیدن چنین سوال احمقانه ای، اما من نمی توانم معیارهای پشت ماتریس کنتراست را درک کنم، باید برای طراحی مدل های خطی در R ایجاد شود. من راهنمای کاربر limma (P: 101) را خوانده ام و یک مثال برای آن وجود داشت. مثال در مورد استروژن (موجود/غایب) و تأثیر دیررس (48 ساعت) و اولیه (10 ساعت) آن بر سرطان است. من نمی توانم بفهمم که به چه معنا می توانند با اختصاص 1 برای e48 و E48 اثر زمان را از بین ببرند. در اینجا دستورات R آمده است: درمان <- factor(c(1،1،2،2،3،3،4،4)، labels=c(e10، E10، e48، E48) ) کنتراست ها (درمان ها) <- cbind(Time=c(0,0,1,1),E10=c(0,1,0,0),E48=c(0,0,0,1)) تضادها > درمان ها [1] e10 e10 E10 E10 e48 e48 E48 E48 attr(کنتراست) زمان E10 E48 e10 0 0 0 E10 0 1 0 e48 1 0 0 E48 1 0 1 سطوح: e10 E10 e48 E4 | ایجاد ماتریس کنتراست برای رگرسیون خطی در R |
52502 | من با این تعریف دست و پنجه نرم می کنم حداقل مجموع مربع ها برای یک ماتریس $M$: حداقل مقدار $f(β)$ که $β = (X'X)^{−1}X'y$ از سیستم معادلات عادی $X′Xβ = X′y$ است $$y′(I − X(X′X)^{−1}X′)y = y′My$$، با $M = (I − X(X'X)^{−1}X')$ یک ماتریس متقارن و بدون توان (T × T). ردپای $M$ $\operatorname{tr(M)} = \operatorname{tr}(I)−\operatorname{tr}(X(X′X)^{−1}X′) = T -K است $ و برابر با رتبه $r(M)$ است. منظور از رتبه $M$ چیست (آیا این رتبه واقعی ماتریس $M$ است) و چگونه می توان به این نتیجه رسید؟ | مدل رگرسیون چندگانه - حداقل مجموع مربعات |
62810 | من برخی از داده های تاریخچه کاربران را دریافت کردم و تعدادی دنباله از اعداد واقعی را ایجاد کردم. طول هر سکانس بین 15 تا 25 است. علاوه بر این، من نمی دانم که آیا این دنباله ها دارای الگوهایی هستند و فرکانس نیز مشخص نیست. هدف من استفاده از هر دنباله برای پیش بینی مقدار بعدی آن است و سپس از auto.arima در R برای انجام این کار استفاده می کنم. با این حال، دقت پیش بینی پایین است. کسی ایده خوبی برای بهبود دقت دارد؟ یکی از این دنباله ها: 1.5959709882736206 0.7300914525985718 2.0011744499206543 3.6755871772766113 0.806111239 1.3413848876953125 3.371157646179199 0.4400146007537842 2.637667655944824 2.145376920700079141232323 2.3429665565490723 1.1187453269958496 1.4169363975524902 3.328829050064087 4.1577486991882352352391 2.7843635082244873 | چگونه می توان دقت پیش بینی را بهبود بخشید؟ |
76525 | من مجموعه داده ای از روابط زوجی دارم که نشان می دهد $a$ با $b$ رابطه دارد یا خیر. بهتر است این مجموعه داده را به عنوان یک نمودار در نظر بگیرید که هر گره دارای یک مقدار عددی به عنوان ویژگی خود است. فرض کنید این ویژگی احتمالاً بین 10- تا 10 دلار متغیر است. حال سوال این است: آیا دو گره یکی به هم مرتبط هستند یا خیر؟ اگر آنها هستند، مقدار این عبارت $1$ است: $(\text{node}_1,\text{node}_2) = 1$، و یک لبه بین آنها در نمودار وجود خواهد داشت، در غیر این صورت $(\text {node}_1,\text{node}_2) = 0$، به این معنی که هیچ لبهای بین $\text{node}_1$ و $\text{node}_2$ وجود نخواهد داشت. بیایید مشکل را به این صورت در چارچوب قرار دهیم. داده ها در مورد پزشکی است. هر دارویی یک ویژگی دارد (انحلال پذیری) و برخی از داروها وقتی با هم استفاده می شوند مؤثرتر هستند. بنابراین مجموعه داده در مورد آزمایش این دو دارو به طور کلی است. حال اگر دارو (گره) مثلاً برای یک بیماری مؤثرتر شود، ارزش $(\text{node}_1,\text{node}_2)$ 1 خواهد بود یا به عبارت دیگر یک لبه وجود خواهد داشت. در نمودار ما این کار را به صورت آزمایشی انجام دادهایم، اما اکنون چیزی که میخواهم انجام دهم این است که یادگیری یک گره را کنار بگذارم و سعی کنم لبههای آن را حدس بزنم، زیرا میتوانم پشتیبانی بیشتری برای آزمایشم اضافه کنم. اکنون که دادهها را دارم، میخواهم لبههای یک گره جدید را به گونهای پیشبینی کنم که هر بار یک گره را کنار بگذارم یا یک گره را بیرون بگذارم. من گره و تمام اتصالات (لبههای) آن را کنار میگذارم و از اطلاعاتی که در مورد سایر گرههای مجموعه داده دارم، میخواهم لبههای گرهای را که کنار گذاشتهام پیشبینی کنم. سوال من این است که بهترین روش/الگوریتم و راه حل برای مشکل من چیست؟ | پیش بینی لبه های نمودار |
62816 | مردم همیشه می گفتند که بیز ساده لوح یک مدل خطی است. من نمی توانم بفهمم چرا، پس کسی می تواند توضیح دهد؟ | چرا بیز ساده لوح یک مدل خطی است؟ |
46562 | در صورت رگرسیون لجستیک ترتیبی، هر دو آماره برازش، پیرسون و معیارهای تناسب انحراف، باید فقط برای مدلهایی استفاده شوند که مقادیر مورد انتظار نسبتاً زیادی در هر سلول دارند. اگر یک متغیر مستقل پیوسته یا پیشبینیکنندههای طبقهبندی زیادی یا چند پیشبینیکننده با مقادیر زیاد دارید، ممکن است سلولهای زیادی با مقادیر مورد انتظار کوچک داشته باشید. SPSS در مورد تعداد سلول های خالی طراحی به شما هشدار می دهد. در این شرایط، هیچ یک از آمارها، آزمون خوبی از برازش قابل اعتماد را ارائه نمی دهند. بنابراین اگر من چند متغیر مستقل پیوسته داشته باشم، آیا معیاری برای برازش وجود دارد؟ چگونه بفهمم که مدل من خوب است یا نه؟ | سنجش میزان برازش در رگرسیون لجستیک ترتیبی با متغیر مستقل پیوسته |
64245 | برای یک مدل کلی $$y_{i} = \alpha + \beta_{1}X_{1} + \beta_{2}X_{2} + \epsilon_{i}$$ با پسرفت $y_{i}$ در $ X_{1}$ به تنهایی منجر به سوگیری $\beta_{1}$ میشود که توسط: $$plim \: \widehat{\beta}_{1} = \beta_{1} + \beta_{2}\frac{Cov(X_{1},X_{2})}{Var(X_{1})}$$ اکنون به طور تصادفی به کاغذی برخوردم که مدلی به شکل $$S_{i دارد } = \alpha D_{i} + \beta P_{i} + u_{i}$$ بدون هیچ متغیر دیگری و بدون وقفه. مقدار واقعی $\beta$ قرار است صفر باشد زیرا رویداد $S$ قبل از رویداد $P$ است. سپس نویسندگان بایاس متغیر حذف شده دو ضریب را به صورت زیر بیان می کنند: $$\widehat{\alpha}_{OLS} = \alpha + \frac{Cov(D,u)Var(P) - Cov(D,P) Cov(P,u)}{Var(D)Var(P) - Cov(D,P)^{2}}$$ and $$\widehat{\beta}_{OLS} = \frac{Cov(P,u)Var(D) - Cov(D,P)Cov(D,u)}{Var(D)Var(P) - Cov(D,P)^{2}}$ $ من مدت زیادی است که سعی کرده ام این نتیجه را بازتولید کنم، اما نمی توانم بفهمم چگونه آنها به این دو تعبیر سوگیری رسیده اند. نکته مشکلساز این است که من ظاهراً نمیتوانم بفهمم آنها از کدام فرمول OVB شروع میکنند، زیرا در تنظیمات آنها نمیتواند برای یک متغیر منفرد که در بالا نوشته شده است معمول باشد. مقاله توسط آدا و همکاران است. (2011) که مشکل مطرح شده را می توان در صفحه 52 PDF پیدا کرد. اگر کسی بتواند به سمت راست اشاره کند، بسیار سپاسگزار خواهم بود. | فرمول تعصب متغیر حذف شده با بیش از یک متغیر |
64246 | مطمئن نیستم که آیا این برای این سایت مناسب است یا خیر، اما من MSE خود را در علوم کامپیوتر (لیسانس ریاضی کاربردی) شروع می کنم و می خواهم یک پیشینه قوی در یادگیری ماشین کسب کنم (به احتمال زیاد قصد دارم مدرک دکترا را دنبال کنم). یکی از علاقه مندی های من شبکه های عصبی است. یک پس زمینه ریاضی خوب برای شبکه های عصبی مصنوعی چیست؟ مانند سایر حوزه های یادگیری ماشین، جبر خطی را مهم فرض می کنم، اما چه حوزه های دیگری از ریاضیات مهم هستند؟ من قصد دارم شبکه های عصبی: معرفی سیستماتیک یا شبکه های عصبی برای تشخیص الگو را بخوانم. آیا کسی ورودی یا پیشنهاد جایگزینی دارد؟ | پیشینه ریاضی برای شبکه های عصبی |
48139 | **ما باید انحراف معیار را از متن زیر پیدا کنیم:** _مواد اولیه مورد نیاز برای ساخت دارو باید حداقل 97$\%$ خالص باشد. یک خریدار فرضیه صفر را تجزیه و تحلیل می کند که نسبت $\mu_0=97\%$ است، با فرضیه جایگزین که نسبت بالاتر از $97\%$ است. او تصمیم می گیرد در صورت رد فرضیه صفر با $\alpha = 0.05 $، ماده خام را بخرد. بنابراین اگر مقدار بحرانی محاسبهشده برابر با $t_{\alpha} = 98 \%$ باشد، او فقط در صورتی خرید میکند که با تجزیه و تحلیل خود نسبتی معادل 98$\%$ یا بالاتر پیدا کند. ریسک خرید مواد خام با نسبت $97\%$ (فرضیه صفر درست است) 100 دلار است \times \alpha = 5 \%$_ این متن من را تا حد زیادی گیج می کند. از قسمت اول به نظرم می رسد که شانس اینکه او مواد خام را با نسبت $\geq 98 \%$ دریافت کند 0.05 دلار است (چون این مقدار بحرانی است). از جمله آخر به نظر من شانس خرید مواد با نسبت $\leq$ $98 \%$ 0.05$ است البته اینها متناقض هستند و امیدوارم کسی بتواند سردرگمی من را برطرف کند! ps - یک سوال جانبی کوچک. فرض کنید میخواهید یک فرضیه را رد کنید ($\alpha = 0.05$) و متوجه میشوید که احتمال واقعی بودن $H_0$ به طور معجزه آسایی 0.05$ است. آیا شما فرضیه را رد می کنید یا خیر؟ به عبارت دیگر، آیا مرز به حساب می آید؟ | انحراف معیار را پیدا کنید |
49069 | من سعی می کنم بفهمم که اصلاح نرخ تشخیص نادرست در یک مقاله ژنتیک از کجا می آید و شکست می خورد. مقاله مورد بحث به دنبال یک روش توالی است که در آن هر نمونه چندین بار خوانده می شود و هر بار یک نتیجه مثبت یا منفی می دهد. آنها سعی می کنند تا آستانه ای برای تعداد مثبت مورد نیاز قبل از پذیرفته شدن یک نمونه برای ارائه نرخ مثبت کاذب کلی 1٪ ارائه کنند. این روش از چیزی بسیار نزدیک به روش بنجامینی-هخبرگ استفاده می کند، اما به دلایلی من در تلاش هستم تا بفهمم آنها از مجموع منفی ها به جای مجموع آزمایشات برای مخرج استفاده کرده اند. بنجامینی-هوکبرگ $p(k) \le \frac{k}{m}\alpha$ خواهد بود که $p(k)$ احتمال موفقیت $k$ در آزمایشات $m$ و $\alpha$ است. q$-value مورد نظر. این مقاله از $p(k) \le \frac{k}{u}\alpha$ استفاده میکند که $u$ تعداد آزمایشهای منفی است. چرا آنها این کار را می کنند؟ من می توانم ببینم که این رویکرد محافظه کارانه تری است، اما نمی توانم هیچ توجیه نظری برای استفاده از این فرمول خاص پیدا کنم. مقالات مورد بحث عبارتند از: http://www.ncbi.nlm.nih.gov/pubmed/20436463 و http://www.nature.com/nature/journal/v462/n7271/full/nature08514.html | با محاسبه نرخ تشخیص کاذب مشابه بنجامینی-هخبرگ در کاغذ اشتباه گرفته شد |
46568 | با توجه به مدل زیر که فروش کل سال خانه را به نرخ بیکاری مرتبط می کند (مشاهده یا تخمین زده شده) من یک افزایش پیش بینی شده 14 درصدی برای سال 2013 نسبت به 2012 دریافت می کنم... سال گذشته همین رویکرد بیش از 6 درصد پیش بینی شده بود (پیش بینی سال 2012 برای 41,992 و واقعی در حدود 39,535) بنابراین فکر می کنم مدل به پایان رسیده است اما من در بن بست هستم به یک راه خوب (معتبر) برای اصلاح آن فکر می کنید؟ BTW طرح ریزی)s) با آنچه که یک رگرسیون خط مستقیم ساده در یک صفحه گسترده به دست می آید یکسان است. همچنین میخواهم از افراد خوب Stack Overflow تشکر کنم که من را در اولین حمله من به R تا اینجا رساندند http://stackoverflow.com/questions/14032768/csv-input-to- r-forecast-with-dates-via- r-studio#14032768 اشاره گر قدردانی شد. # دادههای پایه را همانطور که در Workbook سؤال ارائه شده است بارگیری کنید <- structure(list(Year = structure(1:10, .Label = c(31-Dec-04, 31-Dec-05, 31-Dec -06، 31-Dec-07، 31-Dec-08، 31-Dec-09، 31-Dec-10، «31-دسامبر-11»، «31-دسامبر-12»، «31-دسامبر-13»)، کلاس = «ضریب»)، کل = c(51439L، 59674L، 58664L، 55698L، 42235L، 37918L، 36234L، 36965L، 39535L، NA)، UnemplRt = c(5.7، 4.7، 3.8، 3.7، 4.3، 8.5، 10.9، 10، 8.3، 7.1))، .Names = c(Year، total، UnemplRt)، class = data.frame , row.names = c(NA, -10L)) # از مقدار یک سری زمانی بسازید وابسته <- ts(Workbook1[1:9,]$total، start=c(2004)، فرکانس=1) # بسته پیشبینی بار نیازمند (پیشبینی) # بارگذاری متغیرهای مستقل در متغیرها. بیکاری <- ts(Workbook1[1:9,]$UnemplRt, start=c(2004), frequency=1) unemployment_future <- ts(Workbook1[10:10,]$UnemplRt, start=c(2004), frequency= 1) # مدلی بسازید که متناسب با تاریخچه fit2 باشد <- auto.arima(dependent, xreg=unemployment) # ایجاد یک پیش بینی با نرخ بیکاری از قبل شناخته شده برای سال 2013. fcast2 <- forecast(fit2,xreg=unemployment_future) fcast2 Point Forecast Lo 80 Hi 80 Lo 95 Hi 95 2013 45168.02 38848.92 51492554. یک رگرسیون خطی صفحه گسترده ساده دقیقاً همان نتیجه را به دست میدهد. و من معتقدم که افزایش پیشنهادی در فروش خانه بسیار زیاد است، سال گذشته پیش بینی حدود 6٪ بسیار زیاد بود. بنابراین من سعی میکنم اعداد را با روشهای معتبر ایستا شکنجه کنم تا به عددی کمتر برای سال 2013 برسم. | رگرسیون آریما بهبود مدل |
45032 | آیا آزمون یا اندازه گیری آماری برای ارزیابی میزان همبستگی یا وابستگی بین دو مجموعه از نقاط داده وجود دارد؟ | اندازه گیری همبستگی یا وابستگی بین دو مجموعه داده |
27655 | در برخی تحقیقات بازار از مصرف کنندگان خواسته می شود که ویژگی های یک محصول را بر اساس اولویت رتبه بندی کنند. به عنوان مثال، _ ویژگی های زیر را برای یک دستگاه بر اساس اولویت خود رتبه بندی کنید (1 اولویت است)_ ظرفیت ذخیره سازی 6 قابلیت حمل 5 رابط لمسی 1 صفحه کلید 4 عمر باتری طولانی 2 سرگرمی در حال حرکت 3 _در مقیاس 1 تا 5 امتیاز دهید ویژگی ها بر اساس اهمیت (1 بسیار مهم است)_ 1 2 3 4 5 ظرفیت ذخیره سازی 1 قابلیت حمل 3 رابط لمسی 1 صفحه کلید 1 عمر باتری طولانی 2 سرگرمی در حال حرکت 4 اکنون بر اساس رتبه بندی و رتبه بندی، می خواهم وزن ها را تعیین کنم و در پایان بفهمم که آیا مصرف کننده لپ تاپ یا رایانه لوحی را ترجیح می دهد/ بگویید در این مثال مصرف کننده لمس را در رتبه 1 قرار داده است. و عمر باتری 2; اینها ویژگی های یک تبلت است. اما او کیبورد و ظرفیت فضای ذخیره سازی را از جمله مهم ترین ویژگی های لپ تاپ کیبورد دانسته است. چگونه می توانم این دو را با هم ترکیب کنم و احتمالاً وزن هایی را تعیین کنم و به یک نمره برسم؟ اگر امتیاز بالاتر از حد معینی باشد، مصرف کننده تبلت را ترجیح می دهد و کمتر از یک سطح مشخص، مصرف کننده لپ تاپ را ترجیح می دهد. | چگونه یک مقیاس رتبه بندی و رتبه بندی را با هم تجزیه و تحلیل کنیم؟ |
64242 | من دادههای اسباببازی زیر را دارم: ساختار x <-(c(2L, 2L, 3L, 1L, 2L, 3L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 3L, 2L, 2L, 2L, 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، .Label = c(1، 2، 3 )، کلاس = عامل) y <- ساختار(c(2L, 2L, 3L, 1L, 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 1 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1L، 3L، 3L، 3L، 2L، 2L، 3L، 3L، 2L)، .Label = c(1، 2، 3), class = factor) z <- structure(c( ۱ لیتر، ۱ لیتر، ۳ لیتر، ۲ لیتر، ۱ لیتر، ۳ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۲ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، ۳ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۱ لیتر، 1 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، .Label = c(1، 2، 3)، class = factor) من 1 در `x` را با 2 در `z` جایگزین کرده ام و بالعکس. حالا وقتی یک رگرسیون لجستیک مرتب در R با «polr» (MASS کتابخانه) انجام می دهم، ضرایب زیر را دریافت می کنم: f1 <- polr(y~x,Hess=TRUE) f2 <- polr(y~z,Hess=TRUE ) coef(summary(f1)) Value Std. خطای t مقدار x2 25.95727 0.3028808 85.70127 x3 30.21524 0.5463144 55.30742 1|2 24.02167 0.3480269 69.02247 69.02247| 0.3432316 80.90944 coef(summary(f2)) Value Std. خطای t مقدار z2 -21.495979 6.530398e-10 -3.291680e+10 z3 4.257964 8.119540e-01 5.244095e+00 1|2 -1.9355739 3.56-3.5 -5.425880e+00 2|3 1.813399 3.411874e-01 5.314964e+00 به نظر می رسد چیزی درست نیست. چرا برچسبگذاری مجدد سطوح، تخمینهای SE را بهطور چشمگیری تغییر میدهد؟ | درک رگرسیون لجستیک منظم |
62811 | من یک پرسشنامه همراه دارم که دارای سؤالات مختلفی است که در آن پاسخ ها به صورت رتبه بندی ارائه می شوند (مثلاً 1-5، از بد به خوب). اکنون می خواهم آزمایش کنم که آیا پاسخ به سؤال A تحت تأثیر چندین متغیر است که شامل برخی از عوامل (مانند جنسیت)، برخی پیوسته (مانند سن) و همچنین برخی گسسته (1-5 پاسخ دیگر) می شود. اولین فکر من این بود که باید از GLM استفاده کنم، اما مطمئن نیستم که آیا این بهترین برای این نوع داده است و کدام توزیع مناسب است. اگر کسی ایده ای از بهترین کار برای انجام دادن داشته باشد، بسیار خوشحال می شوم که آن را بداند. | چگونه می توان یک آیتم رتبه بندی پنج امتیازی را که توسط متغیرهای متعددی که برخی از آنها فاکتور هستند، پیش بینی کرد، مدل کرد؟ |
45030 | من یک ماتریس ویژگی سلسله مراتبی دارم، منظورم این است که هر مورد ممکن است به یک یا چند دسته تعلق داشته باشد، بنابراین داده های من چیزی شبیه به آن خواهند بود | کاربر | دسته بندی | مورد | | 1 | 12 | 120 | | 2 | 15 | 411 | | 9 | 35 | 411 | | 1 | 15 | 321 | که در آن اعداد به ترتیب نشان دهنده شناسه کاربران، دسته ها و آیتم ها هستند. همانطور که می بینید در اینجا یک سلسله مراتب وجود دارد، مجموعه ای از دسته ها برای هر کاربر و مجموعه ای از آیتم ها در آن دسته، که در آن یک آیتم می تواند به بیش از یک دسته تعلق داشته باشد. هدف من این است که موارد جدید را به کاربران ورودی جدید توصیه کنم. من قبلاً یک الگوریتم شباهت کاربر در محل دارم و می توانم n کاربر مشابه برتر را پیدا کنم. اکنون باید از جدول بالا برای توصیه یک یا چند مورد به کاربر جدید استفاده کنم. * راه آسان این است که دستهها را از مشابهترین کاربر بگیریم، مواردی را از این دستهها انتخاب کنیم و به کاربر جدید پیشنهاد کنیم، اما من به دنبال رویکرد بهتری هستم که ترکیبی از **_categ-item_** را به طور همزمان در نظر بگیرد. این یک مجموعه داده بسیار بزرگ است، بنابراین الگوریتم باید مقیاس شود. هر پیشنهادی؟ | توصیه کننده سلسله مراتبی |
46561 | هنگامی که من شبیه سازی مونت کارلو را برای برخی از مشکلات کدنویسی می کنم، و مدل به اندازه کافی ساده است، از یک کتاب درسی بسیار ابتدایی از نمونه گیری گیبس استفاده می کنم. زمانی که امکان استفاده از نمونهگیری گیبس وجود ندارد، کتاب درسی Metropolis-Hastings را که سالها پیش آموختهام، کدنویسی میکنم. تنها فکری که به آن دارم انتخاب توزیع پرش یا پارامترهای آن است. من می دانم که صدها و صدها روش تخصصی وجود دارد که نسبت به آن گزینه های کتاب درسی بهبود می یابند، اما من معمولاً هرگز به استفاده/یادگیری آنها فکر نمی کنم. معمولاً به نظر می رسد که تلاش زیادی برای بهبود کمی چیزی است که قبلاً بسیار خوب کار می کند. اما اخیراً به این فکر میکنم که آیا شاید روشهای کلی جدیدی وجود نداشته باشد که بتواند نسبت به کاری که انجام میدهم بهبود یابد. چندین دهه از کشف آن روش ها می گذرد. شاید من _واقعا_ قدیمی شده ام! **آیا جایگزین های شناخته شده ای برای Metropolis-Hastings وجود دارد که عبارتند از:** * **پیاده سازی به طور منطقی آسان،** * **به اندازه MH در سراسر جهان قابل اجرا هستند،** * **و همیشه به نوعی نسبت به نتایج MH بهبود می یابند. (عملکرد محاسباتی، دقت، و غیره...)؟** من در مورد برخی از پیشرفت های بسیار تخصصی برای مدل های بسیار تخصصی می دانم، اما آیا چیزهای کلی وجود دارد که همه استفاده می کنند که من نمی دانم؟ | برخی از پیشرفت های شناخته شده نسبت به الگوریتم های MCMC کتاب درسی که مردم برای استنتاج بیزی استفاده می کنند چیست؟ |
57954 | من در حال حاضر با مشکلی روبرو هستم که در آن برخی از نمونه های آموزشی من به بیش از یک کلاس در همان زمان تعلق دارند، مثلاً نمونه $y_i$ مربوط به کلاس $A$ و $B$ است. من فکر می کردم که راه حل آن این است که آن نمونه را دو برابر در نظر بگیریم، یعنی آن را به عنوان دو نمونه در نظر بگیریم، یکی برای کلاس $A$ و دیگری برای کلاس $B$. با این حال، مشکل من این است که من یک استراتژی یک در مقابل همه را اجرا می کنم، که در آن فکر می کنم این راه حل ممکن است باعث خطاهای عددی شود (ماتریس ویژگی دارای ردیف های یکسان خواهد بود)! آیا اشاره ای به این نوع مشکل (یا نام فنی آن) می شناسید؟ پیشاپیش متشکرم | چگونه می توان نمونه هایی را که به چندین کلاس تعلق دارند در یادگیری نظارت شده مدیریت کرد؟ |
49395 | من با مشاورم بر سر تجسم داده ها بحث دارم. او ادعا می کند که هنگام نمایش نتایج تجربی، مقادیر باید فقط با _markers_ ترسیم شوند، همانطور که در تصویر زیر ارائه شده است. در حالی که منحنیها فقط باید یک **مدل** را نشان دهند من از سوی دیگر معتقدم که منحنی در آن غیر ضروری است. موارد زیادی به منظور تسهیل خوانایی، همانطور که در تصویر دوم زیر نشان داده شده است:  من اشتباه می کنم یا استادم؟ اگر مورد بعدی است، چگونه می توانم این اطراف را برای او توضیح دهم. | نمایش داده های تجربی |
62815 | آیا طبقه بندی NOIR داده ها را می دانید؟ NOIR - نسبت فاصله ترتیبی اسمی. من می خواهم استدلال کنم که نمودار خطی را می توان با داده های فاصله و نسبت استفاده کرد در حالی که نمودار مساحتی باید فقط با داده های نسبت استفاده شود. این به این دلیل است که دادههای نسبت دارای 0 معنیدار هستند و در مورد نمودار مساحتی خط پایه نمودار 0 است (به این معنی که منطقه از منحنی تا محور افقی را در بر میگیرد). بنابراین استفاده از نمودار مساحتی با داده های بازه ای غیرمنطقی خواهد بود. با این حال این تنها احساس من است و مطمئن نیستم. نظر شما در مورد آن چیست؟ آیا نشریهای میشناسید که در این مورد بحث کند؟ | نمودار خط در مقابل نمودار مساحت - NOIR |
46569 | من یک مجموعه داده با تقریباً 500 مشاهده بر روی هشت متغیر کلیدی دارم. داده های گم شده زیادی وجود دارد. تنها حدود 1/12 از مشاهدات کامل است. من از «PROC MI» و «MIANALYZE» در SAS برای اجرای رگرسیونهای مختلف روی دادههای مضاعف منتسب استفاده میکنم، و این به خوبی کار میکند. (در مجموع حدود 200 متغیر وجود دارد، و همبستگی بالایی در بین آنها وجود دارد که به انتساب چندگانه کمک می کند.) با این حال، من می خواهم تحلیل عاملی را روی داده های منتسب نیز انجام دهم. به نظر نمیرسد این کار به راحتی در SAS انجام شود، و چالشهای جالبی را ایجاد میکند: 1. نشانههای فاکتورها دلبخواه هستند، بنابراین انتسابهای مختلف میتوانند نشانههای متضادی را ایجاد کنند. 2. آنچه عامل 1 در یک انتساب بود می تواند عامل 2 در انتساب دیگر باشد (اگرچه در این مورد، با تعداد کمی متغیرهای کلیدی، احتمالاً یک عامل کافی است) و احتمالاً مسائل دیگر نیز. البته من میتوانم تحلیل عاملی اکتشافی را روی هر مجموعه دادههای منتسبی انجام دهم، و سپس میتوانم آنها را بهصورت موقتی میانگینگیری کنم، اما این بسیار شلخته به نظر میرسد. برخی از گوگل هیچ راه حلی را فاش نکردند، اما ... خوب، گوگل همیشه همه چیز را پیدا نمی کند. هر گونه کمک، ایده، منابع قدردانی می شود. من به SAS و R دسترسی دارم. | تجزیه و تحلیل عاملی بر روی داده های چند برابری |
57959 | من در حال اندازه گیری خطا در میانه داده های خود با استفاده از بوت استرپ هستم. من میخواهم نوارهای خطای I sigma را روی دادههایم بهدست بیاورم، بنابراین صدک 16 و 84 دادههایم را اندازهگیری میکنم. آیا باید این مقادیر صدک را بر جذر تعداد داده ها تقسیم کنم یا خیر؟ پیشاپیش ممنون | درصدهای یک توزیع |
49068 | من این خطا را در MICE دریافت می کنم خطا در seq.default(1, ncol(pred)) : 'to' باید طول داشته باشد 1 مجموعه داده من بسیار بزرگ است اما من توانسته ام یک مثال قابل تکرار با زیر مجموعه های کوچکتر ایجاد کنم، یکی از که کار می کند و دیگری با خطای بالا خراب می شود: dt.fail <- structure(list(hsp = c(49, 48, 42, 49, 49، 49، 50، 50، 43، 41، 43، 50، 50، 43، 45، 41، 45، 43، 50، 49)، سن = c(76، 83، 76، 88، 73، 41، 83 , 80, 66, 56, 50, NA, 84, 46، 64، 84، 77، 69، 80، 77)، sbp = c(137L، 60L، 155L، 170L، 95L، NA، 140L، 95L، 122L، 166L، 123L، 5L، 59. 207L، 118L، 112L، 150L، 185L)، ساعت = c(70، 90، 84، 64، 80، NA، 110، 77، 105، NA، 50، 80، 37، 38، 83، 76 ، 90، 80)، CTP = c(NA، 57، NA، NA، NA، NA، 100، 142، NA، 83، 56، NA، 66، 48، 46، 88، 43، NA، 79، NA)، const = c(1، 1 , 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1، 1، 1، 1، 1، 1، 1))، .Names = c(hsp، age، sbp، hr، CTP، const)، row.names = c(NA، 20L)، class = data.frame) dt.OK <- structure(list(hsp = c(2, 1, 5, 1, 5, 4, 1, 2, 4، 1، 1، 5، 5، 1، 2، 5، 1، 2، 5، 2)، سن = c(65، 100، 84، 52، 70، 83، 68، 81، 91، 80، 69 ، 54، 92، 66، 90، 42، 78، 55، 83، 78)، sbp = c(120L, 116L, 166L, 145L, 58L, NA, 146L, 156L, 130L, 110L, 83L, 162L, 101L, 135L, 118L, 135L, 120L, 130L 115L، 115L)، hr = c(68، 92، 94، 75، 143، NA، 79، 128، 90، 55، 58، 63، 95، 70، 100، 80، 59، 74، 103، 6)، CTP = c(76، NA، 196، 59، 78، NA، 111، 50، NA، 60، 54، 92، 113، 65، 54، NA، 102، 53، 80، 69)، const = c(1، 1، 1، 1، 1، 1 , 1, 1, 1, 1, 1, 1, 1, 1, 1, 1، 1، 1، 1، 1))، .Names = c(hsp، age، sbp، hr، CTP، const)، row.names = c(NA, 20L)، class = data.frame) require(موش) نیاز (pan) PredMatrix <- quickpred(dt.OK) PredMatrix [CTP] <- c(-2, 1، 1، 1، 0، 2) imp.OK <- موش(dt.OK، meth=c(،، 2l.pan،)، pred=PredMatrix , maxit=1, ,m=1) imp.fail <- mice(dt.fail, meth=c(2l.pan)، pred=PredMatrix ، maxit=1, ,m=1) | چرا MICE برای یک مجموعه داده با شکست مواجه می شود و دیگری نه؟ |
59881 | من مجموعه ای از نقاط داده دارم و به من گفته شد که برای معتبر بودن آن، هر نقطه داده باید در +/- مثلاً 5٪ از میانگین کل مجموعه داده باشد. من مشکلی ندارم که تک تک نقاط داده را بررسی کنم و در صورت معتبر بودن به نتیجه برسم. سوال من این است که چگونه می توانم بیانیه بالا را با یک معیار آماری مرتبط کنم تا بتوانم بگویم چقدر معتبر است. به عبارت دیگر، آیا رابطه ای بین انحراف +/-5٪ از میانگین و اندازه گیری پراکندگی مانند sd و غیره وجود دارد؟ ممنون الیور | این +/- از میانگین به چه معناست؟ |
48132 | چگونه می توانم جمع وزنی توزیع _chi_ را تقریب بزنم؟ من چندین سند برای جمع وزنی توزیع **chi-squared** و تقریب با توزیع گاما پیدا کردم، اما چیزی در مورد جمع وزنی توزیع های _chi_ پیدا نکردم. | جمع وزنی توزیع چی |
99438 | من نمی دانم که آیا کسی در مورد این سؤال بالقوه بسیار اساسی نکته ای دارد؟ من برخی از تحلیلهای بیزی مبتنی بر شبکه را انجام دادهام و به یک تابع چگالی خلفی گسسته غیر استاندارد در بازهای از 100 مقدار مشاهدهای (در هر نمودار) در زیر و همانطور که در قالب برداری در زیر نشان داده شده است، رسیدم. من به راحتی می توانم مقدار متناظر توزیع را در R (which.max) بیابم، اما در تلاش برای یافتن راهی برای محاسبه هر اندازه پراکندگی توزیع احتمال هستم. در حالت ایده آل - من می خواهم یک روش سریع برای محاسبه در R داشته باشم که به من پاسخ دهد که x٪ از چگالی بین مثلاً قرار دارد. مقادیر شاخص 20 و 80; هر راهنمایی بسیار خوش آمدید...  [1] 4.615412e-02 7.685555e-02 7.936106e-02 9.355243e-02 9.390333e-02 9.415255e-02 8.812764e-02 8.094180e-02 [9] 7.111677e-02 6.096649e-02 5.067963e-02 4.113239e-02 3.252751e-0241e-024. 1.900486e-02 1.405895e-02 [17] 1.018350e-02 7.230007e-03 5.033092e-03 3.437899e-03 2.305284e-0304e-0301 9.831581e-04 6.261243e-04 [25] 3.925111e-04 2.424243e-04 1.476553e-04 8.878700e-05 5.277273e-0505 5.277273e-0505. 1.810726e-05 1.048550e-05 | اندازه گیری پراکندگی - تابع چگالی احتمال |
78307 | من 4 مجموعه شناور تصادفی بین [0,1] دارم: $d1، d2، d3، d4$. من باید این مجموعه ها را با جفت مقایسه کنم و برای این کار از تابع kde.test بسته ks R استفاده می کنم. وقتی از «kde.test» برای به دست آوردن «pvalue» توزیعهای $d1,d2$ استفاده میکنم، مقدار ~0.55 دریافت میکنم، اما اگر همین کار را برای $d3,d4$ انجام دهم، 0.00$ دریافت میکنم. کدی که در «R» برای بدست آوردن آن مقادیر استفاده میکنم این است: d1 <- c(...) d2 <- c(...) pv12 <- kde.test(x1=d1, x2=d2)$ pvalue d3 <- c(...) d4 <- c(...) pv34 <- kde.test(x1=d3, x4=d2)$pvalue کامل مجموعه های $d1,d2,d3,d4$ اینجا هستند و طول آنها عبارتند از: `len(d1) = 20, len(d2) = 210, len(d3) = 200, len(d4) = 2100`. مجموعههای $d1,d2$ دارای عناصر کمتری نسبت به $d3,d4$ هستند، اما شکلهای_شکل_های KDE مشابه هستند. در اینجا KDEهای $d1,d2$ (به ترتیب آبی و قرمز):  و در اینجا KDEها برای $d3,d4 هستند $ (به ترتیب آبی و قرمز):  به دلیل شباهت KDE ها را انتظار داشتم pvalues تا حدودی مشابه باشد، اما نتایجی که به دست میآورم بسیار متفاوت است. من یا نمیدانم «kde.test» چه کاری انجام میدهد یا «pvalues» بهدستآمده به چه معناست (یا هر دو). آیا کسی می تواند توضیح دهد که چه اتفاقی می افتد و چرا انتظارات من درست نیست؟ * * * ## افزودن اگر تست Kolmogorov-Smirnov را از بسته scipy.stats.ks_2samp اعمال کنم که یک p-value را نیز به عنوان خروجی می دهد، نتایج بسیار مشابهی دریافت می کنم. | kde.test مقادیر p متفاوتی را برای KDE های مشابه می دهد |
59888 | آیا پیشینی وجود دارد که معمولاً برای متغیرهای نوع شاخص یا امتیاز استفاده می شود که توسط کاربر به عنوان مجموع وزنی تعداد کمی از متغیرها (گاهی اوقات با مشارکت های تعاملی از پیش تعریف شده) تعریف می شود؟ من میدانم که توزیعهای گاما، گامای معکوس، دوجملهای، دوجملهای منفی، پواسون و غیره کاملاً مثبت هستند، اما با فرآیندهایی مطابقت دارند که چیزی مانند متغیرهای نوع شاخص/نمره را به خوبی توصیف نمیکنند. توزیع مقادیر شاخص/نمره معمولاً نسبت به این توزیع ها بیش از حد پراکنده است. من میتوانستم توزیع مخلوط خود را بسازم، اما میخواستم بدانم آیا روشهای استانداردی برای این نوع دادهها وجود دارد یا خیر. | اولویتها برای انواع شاخص کاملاً مثبت یا امتیاز متغیرها |
86856 | با تمام صحبت ها و هیاهوهای رسانه ای در مورد یادگیری عمیق این روزها، من چیزهای ابتدایی در مورد آن خواندم. من به تازگی متوجه شدم که این فقط یک روش یادگیری ماشینی دیگر برای یادگیری الگوها از داده ها است. اما سوال من این است: این روش کجا و چرا می درخشد؟ چرا این همه صحبت در مورد آن در حال حاضر؟ یعنی سر و صدا در مورد چیست؟ | یادگیری عمیق کجا و چرا می درخشد؟ |
59880 | من داده های تراکم چوب را برای تعدادی از گونه های درختی با توجه به وضعیت پوسیدگی درخت دارم. من با میانگین چگالی و خطاهای استاندارد (SE) ارائه شده ام. من با اندازه های نمونه ارائه نشده است. به عنوان مثال، یک درخت صنوبر کلاس پوسیدگی 1 دارای تراکم متوسط 0.305 با خطای استاندارد 0.024 است. من از R استفاده میکنم. میخواهم یک مقدار چگالی برای یک درخت صنوبر کلاس فروپاشی معین 1 مشابه استفاده از «rnorm(n، میانگین، انحراف استاندارد)» هنگام کشیدن از یک توزیع نرمال ایجاد کنم. در این مورد، آیا جایگزینی SE برای SD مناسب است، مانند «density<-rnorm(1, mean=0.305, sd=0.024)»؟ | آیا استفاده از SE به جای SD در rnorm() مناسب است؟ |
29268 | یک محقق می داند که احتمال اینکه پرسشنامه از طریق پست پاسخ داده شود 40٪ است. او می خواهد 99 درصد مطمئن باشد که حداقل 200 پرسشنامه پاسخ داده شده را پس خواهد گرفت. چند پرسشنامه باید از طریق پست بفرستد تا 99% مطمئن شود که حداقل 200 پاسخ خواهد گرفت؟ | هر حرف 40$\%$ شانس دارد که به آن پاسخ داده شود. چند نامه ارسال کنید تا 99$\%$ مطمئن شوید که 200 پاسخ دریافت می کنید؟ |
78300 | من فقط تعجب می کنم .. همه جا فقط جداول با Qcritic را به عنوان نتایج می بینم. بیایید بگوییم که من مجموعه بزرگی از نمونه داده ها (مانند 1000 یا بیشتر) دارم. آیا راهی برای محاسبه ریاضی مقدار Qcritic است؟ آیا فرمول ریاضی برای Qcritic وجود دارد؟ | تست کیو دیکسون - آیا می توانم (به تنهایی) مقدار Q بحرانی را محاسبه کنم؟ |
10463 | احتمال تکرار اول، من یک آماردان نیستم (اگرچه دوست دارم یکی باشم) اما سعی می کنم بفهمم چگونه می توان از تست های مختلف برای بررسی نمونه ها استفاده کرد. فرض کنید که من پنج مورد از تبلیغات گوگل ادوردز را دارم و سعی می کنم آزمایشی ایجاد کنم تا نشان دهم کدام یک در وادار کردن کاربران به کلیک کردن روی آن تبلیغ موثرتر بوده است. آگهی ژانویه فوریه A - 850 5000 Ad B - 900 5300 Ad C - 880 5100 Ad D - 880 5100 Ad E - 800 5000 از نظر فراوانی، Ad B بیشترین تعداد کلیک کاربران را در ژانویه و فوریه دارد. (آیا فقط گفتن این که یک تبلیغ فرکانس بالاتری دارد و بنابراین بدون اتکا به هیچ آزمون معناداری مؤثرتر است خوب است) با این حال، برای هر ماه، می خواهم از یک آزمون آماری استفاده کنم تا مشخص کنم کدام تبلیغ مؤثرتر بوده است. در ابتدا، من فرض میکردم که یک تست مجذور کای (پیرسون) مناسب است، اما با پنج آگهی جداگانه، مطمئن نیستم که آیا این برنامه اقدام مناسب است یا خیر. آیا کسی می تواند به من کمک کند تا بفهمم چه اقدامی باید انجام دهم و چرا، یا اینکه فقط به توزیع فرکانس پنج آگهی تکیه کنم کافی است. | تعیین اینکه کدام AdWords بیشترین تعداد کلیک کاربران را دارد |
59887 | من سعی می کنم با استفاده از دستور _switchr_ یک مدل رگرسیون سوئیچینگ مارکف در stata انجام دهم. دستور دستور به صورت زیر است: _switchr eq1 eq2 [وزن] [اگر exp] [، cluster(string) strata(string) sigequal tol(real) tout(integer) noisyn(integer) ]_ که در آن _eq1_ و _eq2_ رژیم هستند معادله (معادله ای که در آن ضرایب متغیرها نسبت به رژیم تغییر می کند) و اصلی معادله (یا معادله طبقه بندی). کمک stata این معادله را توضیح میدهد که میگوید: باید توسط کاربر تعریف شود تا متغیر وابسته آن متغیری باشد که حاوی حدس اولیه از تقسیم مشاهدات به دو مؤلفه است. این متغیر حدس اولیه توسط سوییچر بازنویسی میشود تا شامل شود. احتمال اینکه یک مشاهده معین به رگرسیون جزء اول پایبند باشد. من نمی توانم معنی معادله اصلی را بفهمم. متغیرهای رگرسیون معادله اصلی کدامند؟ امیدوارم در پرسیدن این سوال کاملا واضح بوده باشم. ممنون میشم کمک کنید | Stata - راهنمای دستور switchr |
78305 | من دو مجموعه از داده های میانگین دارم که آزمایش کولموگروف-اسمیرنوف را روی آنها انجام داده ام. آزمایشها برگشتند و نشان دادند که یک مجموعه داده نرمال بود، اما دیگری نبود. این دو مجموعه داده مستقل از یکدیگر هستند و من باید تفاوت های میانگین را با هم مقایسه کنم. این واقعیت که یکی از مجموعه داده ها نرمال نیست، مطمئناً استفاده از آزمون t یا ANOVA را رد می کند، بنابراین آیا باید از آزمون من ویتنی استفاده کنم؟ بسته آماری مورد استفاده من SPSS است. | نحوه مقایسه تفاوت در میانگین زمانی که داده ها عادی نیستند |
80415 | در مطالعه خودم، مدخلهای ویکیپدیا و برخی کتابها را در رابطه با M-estimators و L-estimators خواندهام. من میدانم که برآوردگرهای M اصطلاحاً «M» نامیده میشوند، زیرا آنها تابع احتمال و/یا توابع خود دادهها را «به حداکثر میرسانند». من همچنین میدانم که تخمینگرهای L به این دلیل نامیده میشوند که از ترکیبهای «خطی» آمار آماری دادهها استفاده میکنند. به نظر من اگرچه بین برآوردگرهای M و برآوردگرهای L همپوشانی وجود دارد، آیا این درست نیست؟ (به عنوان مثال، میانگین به نظر من می رسد که می توان آن را به عنوان یک برآوردگر M یا به عنوان یک برآوردگر L مشتق کرد). به عبارت دیگر، اگر بخواهیم یک نمودار ون از همه برآوردگرهای M و L رسم کنیم، چقدر با یکدیگر همپوشانی دارند، اگر اصلاً وجود داشته باشد؟ **ویرایش:** با تشکر از بازخورد، میدانم که چنین نمودار ون ممکن است عناصر بینهایتی داشته باشد. با این حال، آنچه من می خواهم، درصدهای بسیار تقریبی از همپوشانی است، _بر اساس تجربه افراد_، زیرا می دانم که این تجربه به مراتب بیشتر از تجربه من است! من فقط به دنبال یک تخمین تقریبی بر اساس آنچه کارشناسان و متخصصان در این زمینه دیدهاند و با آن مواجه شدهاند، هستم. متشکرم. | آیا برآوردگرهای M و برآوردگرهای L با هم همپوشانی دارند؟ |
86853 | من مجموعه ای از $n$ رویدادها را دارم. هر رویداد دارای متغیرهای $m$ است. حداقل 1 رویداد یک مشاهده ایجاد می کند. ممکن است چندین رویداد به طور همزمان رخ دهد. به عنوان مثال 4 رویداد. هر کدام 3 متغیر: $E_{11}=0.4، E_{12}=-0.3، E_{13}=-0.4، E_{21}=0.3، ...، E_{42}=-3.0، E_{43 }=2.1$ $y_1 = -5$ تولید میکند در اینجا همه رویدادها به طور همزمان رخ دادهاند. با این حال، ممکن است این اتفاق بیفتد: $E_{11}=0.2، E_{12}=0.2، E_{13}=-2$ و همه رویدادهای دیگر 0 هستند (این اتفاق نیفتاد). بنابراین میخواهم همه ضرایب را برای مطابقت با مشاهدات مقیاس دهم. در واقع من می خواهم بتوانم رویدادها را با 4 وزنه وزن کنم. $W_1$ تا $W_4$ به طوری که سهم کل برای اولین بردار (همه رویدادها) خواهد بود: $W_1\cdot$(ضرایب رگرسیون $E_1) + W_2\cdot$(ضرایب رگرسیون $E_2) + .. + W_4\cdot$(ضرایب رگرسیون $E_4)$. جایی که هر $W$ در اینجا عادی شده است (و همه $W$ $>0)$ هستند. در حل این رگرسیون، ماتریس معمول مشاهدات $A$، ماتریس وزن پراکنده $w$، بردار ضرایب مجهول $x$ و مشاهدات حاصل $y$ را دارید. یعنی \begin{align} \displaystyle \left( \begin{array}{lllll} E^1_{11} & E^1_{12} & ... & E^1_{42} & E^1_{43}\ \ E^2_{11} & E^2_{12} & ... & E^2_{42} & E^2_{43}\\ ... \\ E^{k-1}_{11} & E^{k-1}_{12} & ... & E^{k-1}_{42} & E^{k-1}_{43 }\\ E^{k}_{11} & E^{k}_{12} & ... & E^{k}_{42} & E^{k}_{43} \end{آرایه }\راست)\\\cdot \left(\begin{array}{llllll} \frac {W_1}{\sum_4 W_i} & \frac {W_1}{\sum_4 W_i} & ... & \frac {W_4}{\sum_4 W_i} & \frac {W_4}{\sum_4 W_i}\\ \frac {W_1}{W_1+W_2} & \frac {W_1}{W_1+W_2} & ... & 0 & 0\\ ... \\ 0 & 0 & ... & 0 & 0\\ 0 & 0 & ... & 1 & 1\end{ array}\right)^T \left(\begin{array}{l} a_{11}\\a_{12}\\a_{13}\\...\\a_{41}\\a_{42}\\a_{43}\end{آرایه}\راست)\\= \left(\begin{آرایه}{l} y_1\\ y_2\\ ...\\ y_{k-1}\\ y_{k} \end{آرایه} \راست) \end{align} در معادله بالا، مشاهده اول دارای هر 4 رویداد بود، مشاهده دوم فقط رویدادهای 1 و 2 و غیره. آخرین مشاهده فقط رویداد 4 رخ داد. $E$s و $y$s شناخته شده اند. من به بردار ضرایب ($a$s) و وزنهای $(w_1$ - $w_4)$ نیاز دارم. چگونه می توانم این را به طور موثر حل کنم؟ با تشکر | رگرسیون خطی وزنی |
57955 | من تعدادی داده دارم که به این صورت است: نتیجه Prob 0.09 0 0.10 0 0.10 0 0.11 1 0.84 1 0.99 1 0.86 1 0.78 1 0.86 1 0.00 0 و غیره. یعنی یک دسته با یک تست حرفه ای. از چه آزمون آماری برای آزمون فرضیه درست بودن احتمالات استفاده کنم؟ **جزئیات بیشتر**: نقاط داده _احتمالات رزمی_ از بازی Civilization IV هستند و من بیش از 3000 عدد از آنها را در مجموعه خود دارم. بنابراین، هر احتمال با استفاده از فرمول ناشناخته ای از داده های ورودی مختلف، بسته به قدرت نسبی واحدها در آن نبرد، تولید می شود. پیشنهاد شده است که نتایج بهطور دقیق احتمالات دادهشده را منعکس نمیکنند: برای مثال، پخشکننده رایانه بر اساس احتمالهای نمایشدادهشده، که میخواهیم آزمایش کنیم، بیشتر اوقات برنده میشود. بنابراین یک پیوند وجود دارد تا جایی که فرض کنیم احتمالات نمایش داده شده با استفاده از فرمول یکسان برای هر خط تولید می شوند. این فرمول ناشناخته ای است که می خواهیم برای سازگاری با نتایج واقعی آزمایش کنیم. | آزمون آماری مناسب برای تست دقیق بودن احتمالات |
49391 | من یک آماردان نیستم، بنابراین اگر اصطلاحات من اشتباه است، عذرخواهی می کنم، من مجموعه داده ای با مقادیر بیشتر از 14 میلیون p دارم که از آزمایش دقیق فیشر بر روی داده های توالی یابی مقیاس ژنوم به دست آمده است. تصحیح بنجامینی-هوچبرگ این مقادیر p فقط 1500 مقدار p قابل توجه را نشان می دهد، بنابراین من سعی کرده ام از بسته qvalue R برای آرام کردن FDR استفاده کنم و بنابراین تعداد بیشتری از P-مقدارهای قابل توجه را بدست آوریم. اعمال بسته qvalue با گزینههای پیشفرض، $\pi_0$ از 1 qobj برمیگرداند<-qvalue(p.fish.unadj) qsummary(qobj) pi0: 1 فرض میکنم این یک چیز خوب است و به این معنی است که: 1. من دارم قدرت خوبی در مجموعه داده من برای تشخیص نتایج _true null_ و بنابراین _true alternative_ results نیز 2. $\pi_0=1$ یک تقریب است زیرا گزینه های واقعی من یعنی تست های قابل توجه در مقایسه با اندازه کلی مجموعه داده بسیار کم است آیا درست می گویم؟ | معنای واقعی $\pi_0 = 1$ در نرخ کشف نادرست |
105751 | من یک نمونه از Smooth Transition AR (STAR) Model از کتاب تجزیه و تحلیل سری های زمانی مالی، ویرایش 3 توسط Tsay، در بخش 4.1.3 را اجرا می کنم. اسکریپت به شرح زیر است: da=read.table(data/m-3m4608.txt,header=T) rtn=da[,2] star <- function(par){ f = 0 T1=length(rtn) h=c(1,1) at=c(0,0) برای (t در 3:T1){ resi = rtn[t]-par[1] at=c(at,resi) sig=par[2]+par[3]*at[t-1]^2+par[4]*at[t-2]^2 sig1=par[5]+par [6]*at[t-1]^2 tt=sqrt(sig+sig1/(1+exp(-1000*at[t-1]))) h=c(h,tt) x=resi/tt f=f+log(tt)+0.5*x*x } f } par=c(001,.002,.256,.141,.002,-.314) m2=optim(par,star,method= c(BFGS), hessian=T) داده ها را می توان در این آدرس یافت http://faculty.chicagobooth.edu/ruey.tsay/teaching/fts3/m-3m4608.txt. من خطای زیر را در optim دریافت می کنم: > m2=optim(par,star,method=c(BFGS),hessian=T) خطا در optim(par, star, method = c(BFGS), hessian = T ) : مقدار تفاضل محدود غیر محدود [2] علاوه بر این: پیام هشدار: در sqrt(sig + sig1/(1 + exp(-1000 * at[t - 1]))) : NaNs تولید شده چگونه می توانم آن را برطرف کنم؟ | خطا در اجرای تابع optim با STAR از مثال کتاب |
8916 | با سلام، من روی درختان چگالی مشترک و مشروط برای تقریب پتانسیل های دسته در شبکه های باور بیزی کار می کنم. مقدمه کوتاهی برای موضوع از این مقاله در دسترس است: http://www.autonlab.org/autonweb/14653.html در صورتی که مایلید توضیح بهتری درباره آنچه در مورد آن صحبت می کنم به دست آورید. من به دنبال پیاده سازی هستم که از متغیرهای گسسته و پیوسته در یک توزیع احتمال مشترک پشتیبانی کند. گره های برگ در درخت آموخته شده توزیع احتمال را برای متغیرهای گسسته و پیوسته فراهم می کنند. من بسیار خوشحال خواهم شد که یک پیاده سازی متن باز پیدا کنم، اما هر پیاده سازی به هر شکلی برای من کار می کند، حداقل به عنوان آزمایشی برای پیاده سازی خودم (که به هر حال باید انجام دهم) من این رویکرد را توصیف کرده ام. در مقالات مختلف در زمینه های مختلف، اما من نتوانستم هیچ پیاده سازی را پیدا کنم. با احترام سرف | آیا پیاده سازی های موجود برای یادگیری درخت چگالی یا چگالی مشروط وجود دارد؟ |
29264 | من به انجام پروژه ای بین علوم سیاسی و ریاضیات در مورد رفتار رأی دهندگان در یک دولت دموکراتیک محول شده ام. به طور خاص، من روی یک حزب از انتخابات ملی در سال 2007 تمرکز می کنم، جایی که جدولی متشکل از دو ردیف - دستورات و اخبار مربوط به آن حزب - و یک ستون برای هر روز انتخابات ایجاد کرده ام: روز 1 2 3 4 5 6 ... دستورات 11 8 11 13 12 12 اخبار 30 46 12 33 48 42 می خواهم بررسی کنم که آیا ظاهر اخبار در رسانه ها درباره این حزب بر تعداد مأموریت های داده شده به حزب در نظرسنجی های روزانه تأثیر گذاشته است. آیا انجام تست استقلال مجذور کای بر روی این داده ها مشروع است یا نمی توانم چیزی را نتیجه گیری کنم؟ چرا/چرا نه؟ - برای اینکه کمی پیشرفت کنم، به این فکر می کردم که آیا می توان با آزمون استقلال کای اسکوئر (*بله باید این روش باشد**) برخی از روزها را به ویژه نسبت به روزهای دیگر تحت تأثیر قرار داده است یا خیر. سپس تغییر دستورات را برای هر روز محاسبه میکنم که جدول من را به این شکل در میآورد: روز 1 2 3 4 5 6... دستورات 11 -3 3 2 -1 0 اخبار 30 46 12 33 48 42 سپس برای هر ستون، من به صورت دستی نتیجه مورد انتظار را محاسبه می کنم. مثال برای ستون روز 2: نتایج مشاهده شده این است که 46 خبر منتشر شده است و حزب سه ماموریت خود را از دست داده است. ما فرض می کنیم که اخبار بر تعداد مأموریت ها تأثیری نداشته است و بنابراین آنها برابر می مانند و تغییر صفر می شود: داده های مشاهده شده: روز 2 مأموریت -3 اخبار 46 داده های مورد انتظار: روز 2 دستورات 0 اخبار 46 اگر این کار را برای آیا در هر ستون، آیا میتوانم ارزیابی کنم که اخبار یک روز بر تعداد مأموریتها تأثیر گذاشته است، اما روزی دیگر از نظر ریاضی تأثیری نداشته است؟ من واقعاً دوست دارم این را آزمایش کنم، زیرا در آن صورت میتوانم چند روز را برای تمرکز بر آنها مشخص کنم که بتوانم از آن مقالات استخراج کنم و به لفاظیهای مثبت/منفی ساخته شده توسط حزب نگاه کنم. با عرض پوزش برای جداول بد، اما من قادر به ارسال تصاویر نیستم. پیشاپیش ممنون /Brinck10 | استقلال کای دو در علوم سیاسی |
48133 | من در تعیین اینکه دقیقاً چه تفاوتی بین این 2 وجود دارد، مشکل دارم، به خصوص وقتی تمرینی به من داده می شود و باید انتخاب کنم که کدام یک از این 2 مورد استفاده قرار گیرد. کتاب درسی من آنها را اینگونه توصیف می کند: **جمع انحراف معیار** _Given جمعیتی با متغیر تصادفی $X$ توزیع شده است. هنگامی که شما یک نمونه $n$ از این جمعیت دارید، جمعیت عبارت است از:_ $X_{sum} = X_1 + X_2 ... + X_n$ با $\mu_{Xsum} = n \times \mu_x$ و $\sigma_{ Xsum} = \sqrt{n} \times \sigma_x$. **خطای استاندارد** _وقتی یک متغیر تصادفی $X$ با توزیع نرمال با میانگین $\mu_X$ و انحراف استاندارد $\sigma_X$ و طول نمونه $n$ دارید، میانگین نمونه $\bar{X}$ معمولا توزیع می شود. با $\mu_{\bar{x}} = \mu_X$ و $\sigma_{\bar{x}} = \dfrac{\sigma_X}{\sqrt{n}}$_ این 2 تا خیلی شبیه من هستند تا جایی که اصلاً نمیتوانم تصمیم بگیرم از کدام کجا استفاده کنم. در اینجا مشکلاتی وجود دارد که متوجه شدم نمی توانم: **مشکل 1 ** _ دستگاه پرکن بطری های لیموناد را پر می کند. مقدار معمولاً با $\mu = 102 \space cl$._ $\sigma$ = $1.93\space cl$ توزیع میشود. * این شانس را محاسبه کنید که از 12 بطری حجم متوسط 100 دلار \space cl$ باشد. مشکل به خودی خود آسان است، اما بخش دردسرساز این است که چه چیزی را برای انحراف استاندارد نمونه انتخاب کنیم. در اینجا آنها از $\dfrac{1.93}{\sqrt{12}} $ استفاده می کنند که من می توانم با آن زندگی کنم، تا زمانی که با مشکل دوم مواجه شدم. **مشکل 2** _شرکت چای سازی 20 عدد چای کیسه ای را در یک بسته قرار می دهد. وزن یک کیسه چای معمولاً با $\mu = 5.3 \space g$ و $\sigma = 0.5 \space g.$_ توزیع می شود * شانس وزن یک بسته کمتر از 100 گرم را محاسبه کنید. در اینجا فکر کردم از $\dfrac{0.5}{\sqrt{20}}$ نیز استفاده کنند، اما در عوض از $\sqrt{20} \times 0.5$ استفاده میکنند. آیا کسی می تواند سردرگمی را برطرف کند؟ | جمع انحراف استاندارد در مقابل خطای استاندارد |
57951 | در زمینه استنتاج مبتنی بر احتمال، من برخی از نمادها را در مورد پارامتر(های) مورد علاقه دیده ام که کمی گیج کننده به نظرم می رسد. به عنوان مثال، نمادهایی مانند $p_{\theta}(x)$ و ${\mathbb E}_{\theta}\left[S(\theta)\right]$. اهمیت پارامتر ($\theta$) در نماد زیرنویس بالا چیست؟ به عبارت دیگر چگونه باید خوانده شود؟ اولین فرض من این بود که معنی آن با پارامتر $\theta$ است. به عنوان مثال، برای $p_{\theta}(x)$، به عنوان خوانده شده است: چگالی احتمال $x$ با پارامتر $\theta$. با این حال، این احتمالاً درست نیست زیرا $p_{\theta}(x) = L(\theta)$ و به طور کلی، $L(\theta)$ یک توزیع _نه_ است (یعنی با وحدت ادغام نمی شود) ; از این رو نمی تواند چگالی باشد، اینطور نیست؟ علاوه بر این، در مورد ${\mathbb E}_{\theta}\left[S(\theta)\right]$، مطمئن نیستم که نسبت به ${\mathbb E}\left[ (S(\theta)\right]$ (یعنی با حذف زیرنویس $\theta$). _در $S(\theta)$ و $L(\theta)$ بالا نشان دهنده تابع امتیاز هستند و تابع احتمال به ترتیب._ | سوال ساده در مورد علامت گذاری |
112639 | در ابزارهای داده کاوی اکسل یک ابزار تاثیرگذاران کلیدی وجود دارد که به مجموعه داده ای که احتمالاً مشتریان هستند و اینکه آیا آنها به یک هدف معین تبدیل شده اند یا نه (مثلاً پرچمی که برابر با 1 است) نگاه می کند. سپس تأثیرگذارترین عوامل در رسیدن به آن هدف را به شما می گوید (به عنوان مثال جنسیت = مرد و سن = 30-45). الگوریتم معادل در R برای دستیابی به یک نتیجه مشابه چیست. | R تأثیرگذاران کلیدی را پیدا کنید |
63144 | من میدانم که مدل اصلی رگرسیون خطی ساده، همسویی را فرض میکند، یعنی واریانسهای $\sigma^2$ در اطراف خط رگرسیون برای همه سطوح/مقدارهای پیشبین برابر است. با در نظر گرفتن این فرض، تعجب می کنم که چرا فواصل اطمینان برای مقدار $y$ پیش بینی شده برای همه سطوح پیش بینی کننده به یک اندازه بزرگ نیست. فرمول چنین فاصله اطمینانی (به عنوان مثال 95٪) نشان می دهد که زمانی که تفاوت بین ارزش پیش بینی کننده بهره $x$ و مقدار میانگین پیش بینی $\overline x$ افزایش می یابد، این فاصله بزرگتر می شود (به شمارشگر زیر ریشه مراجعه کنید. ): $\hat y \pm t_{n-2}(0.975) \cdot s \cdot \sqrt{1 + \frac{1}{n} + \frac{(x- \overline x)^2}{\sum_{i=1}^n \left(x_i - \overline x \right)^2}}$ افزایش اندازه CI به سمت لبههای توزیع را میتوان در نمودارهای استاندارد «geom_smooth()» با بسته «ggplot2» در R. مشاهده کرد. [نقشه رگرسیون خطی ساده با CI](http://i.stack.imgur.com/0vDD1.png) حال، چگونه میتوان واریانسهای اطراف خط رگرسیون را در تمام سطوح پیشبینیکننده برابر کرد، اما CIهای مربوطه در لبهها بزرگتر هستند؟ آیا این یک مشکل نمونه و جامعه است، تا آنجا که تفاوت در محدوده CI کوچک می شود، زمانی که نمونه بزرگتر می شود (وقتی $n \rightarrow \infty$، می توانید کل عبارت ریشه را در فرمول CI حذف کنید)، در حالی که در همان زمان زمانی که $n$ بزرگتر می شود، شواهد بالاتری برای همجنسگرایی وجود دارد؟ یا اینکه همه چیز را کاملاً اشتباه متوجه می شوم و این دو چیز کاملاً مستقل از یکدیگر هستند؟ | با فرض همسویی در رگرسیون خطی، چرا پیشبینیها هنوز برای مقادیر پیشبینیکننده حاشیهای دقیق نیستند؟ |
78308 | من هنوز در استفاده از آلفای کرونباخ سردرگم هستم. آیا باید قبل از رفتن به نظرسنجی نهایی از آن در نظرسنجی نمونه استفاده کنیم؟ یا ارزش آلفا بر اساس داده های نظرسنجی نهایی محاسبه می شود؟ به طور مشابه، مجموعه سوالات اندازه گیری یک سازه به چه معناست؟ آیا به این معنی است که سؤالات متقابلاً منحصر به فرد هستند یا همه سؤالات باید با هم (شامل متقابل) برای اندازه گیری ساختار اساسی استفاده شوند؟ | سردرگمی مربوط به آلفا کرونباخ |
57953 | فرض کنید میخواهیم دو متغیر $x$ و $y$ را مدلسازی کنیم که دارای یک رابطه خطی با خطاهای اضافه شده هستند. یعنی با داده $(x,y)_i: i = 1,...,n$ مدل می کنیم: $$ \begin{pmatrix} x_i \\ y_i \end{pmatrix} \sim \mathcal N\left (\begin{pmatrix}u_i\\v_i\end{pmatrix},\Sigma\right) $$ و $v_i = a + bu_i$ با مقداری پارامترهای ($a,b)$ و $\Sigma$ یک مورب است. فرض کنید که مقدار $u_i$ از توزیع نرمال با میانگین $\mu$ و واریانس $\tau^2$ پیروی می کند. احتمال داده ها را با توجه به پارامترها بنویسید. شما می توانید این کار را با ادغام بیش از $u_1،...،u_n$ یا با کار با توزیع نرمال چند متغیره انجام دهید. تابع چگالی داده شده: \begin{align} f(x,y|u,a,b,\Sigma) &= \frac{1}{\sqrt{2\pi}} \exp\left(-\frac{1 }{2}\left[\frac{(x-u_i)^2}{\sigma_x^2}+\frac{(y-a- bu_i)^2}{\sigma_y^2}\right]\right) \\ p(u_i)&= \frac{1}{\sqrt{2\pi}\tau} \exp\left(-\frac{ 1}{2}\frac{(u_i-\mu)^2}{\tau^2}\right) \\ f(x,y|a,b,\Sigma) &= \int ...\int f(x,y|u,a,b,\Sigma)p(u_i)du_1...du_n \end{align} سوال من این است که چگونه می توان ادغام بالا را بدست آورد؟ چه توزیعی را دنبال می کند؟ | ادغام پارامتر مجهول خارج از تابع احتمال |
78304 | من یک نتیجه سفارشی 3 دسته ای دارم (مصرف غذا: 1=بدون غذا، 2=غذای کمتر، 3=غذای بیشتر) و یک پیش بینی کننده سفارشی دسته 3 (قرار گرفتن در معرض غذا: 3=بدون زمان، 2=زمان کمتر، 1= زمان بیشتر- به موجب آن 3=بدون زمان به عنوان مقوله مرجع در مدل رگرسیون ترتیبی در نظر گرفته می شود. من می خواهم این فرضیه را بررسی کنم که قرار گرفتن در معرض مواد غذایی بیشتر با مصرف بیشتر غذا مرتبط است. میخواهم بدانم چگونه میتوانم نسبتهای شانس کمتر از 1 را تفسیر کنم. برای مثال، من OR= 0.62 برای دسته پیشبین 2= زمان کمتر دارم. من OR را به عنوان exp(coeff) در اکسل محاسبه کرده ام که به موجب آن OR از دسته مرجع هیچ زمان exp(0)=1 است. | تفسیر نسبت شانس کمتر از 1 با نتیجه 3 دسته |
80410 | من یادداشت های عالی در مورد مدل های ARCH و GARCH را اینجا پیدا کردم. در صفحه 3 آورده شده است که: مدل های سری زمانی استاندارد: \begin{eqnarray*} Y_{t} & = & E\left(Y_{t}|\Omega_{t-1}\right)+\epsilon_{t }\\ E\left(Y_{t}|\Omega_{t-1}\right) & = & \mu_{t}\left(\theta\right)\\ E\left(Y_{t}|\Omega_{t-1}\right) & = & E\left(\epsilon_{t}^{2}|\Omega_{t-1}\right)=\sigma^ {2} \end{eqnarray*} این $\Omega$ در اینجا به چه معناست؟ هر کمکی بسیار قدردانی خواهد شد. با تشکر | مدل های ARCH و GARCH |
78309 | فرض کنید من یک ماتریس کوواریانس (خطا) 'C_xyz' برای سیستم با 3 پارامتر دارم: `x, y, z`. سپس به نظر می رسد که «x، y» و «z» به یکدیگر بستگی دارند: det(C_xyz) = 0 ax + by + z = 0 نحوه یافتن ماتریس کوواریانس «C_xy» پارامترهای مستقل «x,y» با دانستن کوواریانس « C_xyz` و تابع a,b؟ | چگونه می توان ماتریس کوواریانس (خطا) پارامترهای مستقل x,y را از ماتریس کوواریانس پارامترهای وابسته x,y,z استخراج کرد؟ |
95618 | من سعی می کنم یک مدل MIMIC برای اندازه گیری فقر را در یک نمونه خانوار جا بزنم. این مدل به شکل زیر است: (HUMCAP -> شغل آموزشی) (HOUSINGQUAL -> تلویزیون خانه دیواری کف اتاق تلویزیون یخچال رادیویی برق روشنایی گرمایش پخت و پز ماشین لباسشویی) (POV->HUMCAP HOUSINGQUAL) با این حال، وقتی سعی می کنید این مدل را متناسب کنید، برای همیشه تکرار می شود. من نمی فهمم چرا bc طبق قانون k(k+1)/2 - مدل من باید شناسایی شود. اگر کسی ایده ای داشته باشد بسیار سپاسگزار خواهم بود. ممنونم!! ارسال شده: http://www.statalist.org/forums/forum/general-stata- diskutim/general/3006-mimic-fail-to-converge | MIMIC همگرا نمی شود |
46565 | من داشتم این مقاله را در ویکی پدیا مربوط به MAP می خواندم http://en.wikipedia.org/wiki/Maximum_a_posteriori_estimation. با این حال، وقتی میگوید برآورد MAP حدی از تخمینگرهای بیز است (تحت تابع ضرر 0-1)، این سردرگمی را داشتم، به طور کلی خیلی نماینده روشهای بیزی نیست. منظور از برآورد MAP یک حد است و انتقادی از MAP ارائه کرده است که میگوید برآورد میانگین/میانگین بهتر خواهد بود. نفهمیدم چرا اینطوریه؟ هر گونه راهنمایی قدردانی خواهد شد. | سردرگمی مربوط به حداکثر تخمین پسینی |
115367 | جان و فرانک 2 ساندویچ فوتی سفارش دادند، اما در عوض 4 ساندویچ 6 اینچی گرفتند. جون تند ایتالیایی و تریاکی مرغ فرانک سفارش داده بود. ساندویچ ها برچسب ندارند و بسته بندی شده اند، بنابراین نمی توانند تشخیص دهند کدام ساندویچ کدام است. شانس اینکه جون 2 ساندویچی را که مال خودش است انتخاب کند چقدر خواهد بود؟ (دو ساندویچ ایتالیایی تند)؟ من می دانم که شانس انتخاب یک ساندویچ صحیح 50/50 است، زیرا 2 تریکاکی و 2 مورد تند وجود دارد، اما زمانی که 1 انتخاب شود، تنها 1/3 شانس برای درست کردن ساندویچ دوم وجود دارد. شانس بدست آوردن گزینه اول 50/50 و انتخاب دوم 1/3 صحیح جمع می شود؟ با تشکر | چگونه شانس اضافه کنیم؟ (یا چگونه ساندویچ اشتباهی گرفتم) |
112638 | من سعی می کنم خطی را با نقاطی که در هر دو جهت y و x دارای خطا هستند در یک نمودار قرار دهم. من سند زیر را در مورد این موضوع پیدا کردم: https://www.che.udel.edu/pdf/FittingData.pdf مشکل من این است که منظور نویسنده در صفحه 8 را کاملاً درک نمی کنم: > برای استفاده از این روش ، ابتدا باید خطای استاندارد هر نقطه > را تعیین کنید. این کمیت e_i نامیده خواهد شد. اگر اندازه گیری های تکراری انجام دادید، > باید از انحراف استاندارد استفاده کنید. از داده ها: x = [2، 4، 6]، x_error = [0.2، 0.15، 0.1] y = [1، 3، 5]، y_error = [0.1، 0.12، 0.2] میخواهم حداقل y_error را هنگام نصب خط در نظر بگیرم. | استفاده از برازش خط مستقیم حداقل مربعات روی داده های تجربی با خطا |
54908 | من تازه وارد این انجمن هستم اما چندین تاپیک را پیدا کرده ام که بسیار مفید است، بنابراین خودم یک سوال مطرح می کنم. دادههای من (*طول ماهی = فاکتور**، **جیوه ماهی = پاسخ**) از چندین رودخانه طی چندین سال به منظور پایش محیطی (جیوه) جمعآوری شد. کاری که من میخواهم انجام دهم این است که با استفاده از دادههایی که در اختیار دارم، آنالیز توان را انجام دهم تا مشخص کنم در آینده چند نمونه باید جمعآوری شود تا نتایج مشابهی به دست آید. هدف این است که کمترین تعداد نمونه لازم را توصیه کنیم (در نتیجه کمترین تعداد ماهی را از بین ببریم). آیا این امکان پذیر است و آیا کسی توصیه ای برای انجام این کار دارد؟ پیشاپیش بسیار متشکرم | تجزیه و تحلیل توان با مجموعه داده های موجود |
83913 | مدل طبقهبندی «C5.0» در این دادههای مشکل کلاس 4 با $N_{train}$=165، $P$=11، با استفاده از بسته R-caret با اجرای کد زیر استفاده شد. گزینه winnowing در مدل تنظیم شده است که نوعی رویکرد انتخاب ویژگی است. این گزیدهای را که در رابطه با برنده شدن از کتاب همراه «caret» نقل میکنم، کتابی که به نظر من برای کشف سنگهای پنهان کدگذاری شده در بسته ضروری است، نقل میکنم: _Kuhn M, Johnson K. Applied Predictive Modeling. چاپ 1. نیویورک: اسپرینگر. 2013_. > C5.0 همچنین گزینه ای برای حذف یا حذف پیش بینی ها دارد: یک الگوریتم اولیه > نشان می دهد که کدام پیش بینی کننده ها با نتیجه ارتباط دارند، و مدل نهایی > تنها از پیش بینی های مهم ایجاد می شود. برای انجام این کار، مجموعه آموزشی > به طور تصادفی به دو نیم تقسیم می شود و یک درخت به منظور ارزیابی سودمندی پیش بینی کننده ها ایجاد می شود (این را درخت > برنده نامید). دو رویه اهمیت هر یک از پیشبینیکنندهها را برای مدل نشان میدهند: 1. پیشبینیکنندهها در صورتی که در هیچ شکافی در درخت برنده نباشند، بیاهمیت در نظر گرفته میشوند. 2. نیمی از نمونه های مجموعه آموزشی که شامل > برای ایجاد درخت برنده نمی شوند، برای تخمین میزان خطای درخت > استفاده می شوند. نرخ خطا نیز بدون هر پیشبینیکننده تخمین زده میشود و با نرخ خطا در زمانی که همه پیشبینیکنندهها استفاده میشوند، مقایسه میشود. اگر نرخ خطا > بدون پیش بینی بهبود یابد، بی ربط تلقی می شود و > موقتاً حذف می شود. c50Grid <- expand.grid(.trials = c(1:9، (1:10)*10)، .model = c(tree، rules)، .winnow = c(TRUE، FALSE)) c50Grid set.seed(1) # مهم برای داشتن نتایج قابل تکرار c5Fitvac <- train(Class ~ ., data = training, method = C5.0, tuneGrid = c50Grid، trControl = ctrl، متریک = دقت، # مورد نیاز نیست، بنابراین به طور پیش فرض اهمیت = TRUE، # not need preProc = c(center, scale)) > c5Fitvac$finalModel$tuneValue مدل آزمایشی Winnow 16 70 tree خروجی تنظیم CV FALSE:  گزیده ای از خروجی درخت C5.0: > c5Fitvac$finalModel$tree [1] id=\See5/C5.0 2.07 GPL Edition 22-01-2014 \\nentries=\70\\ntype=\2\ class=\Q\ freq=\9,16,60,80\ att=\IL17A\ forks=\3\ cut=\0.92485309\\ntype=\0\ class=\Q\\ ntype=\2\ class=\Q\ freq=\0,4,59,80\ att=\IL23R\ forks=\3\ cut=\0.26331303\\ntype=\0\ class=\Q\\ntype=\2\ class=\Q\ Freq=\0, 4,19,80\ att=\IL12RB2\ forks=\3\ cut=\0.41611555\\ntype=\0\ class=\Q\\ntype=\2\ class=\Q\ Freq=\0,4,9,80\ att=\IL23R\ forks=\ اکنون اهمیت پیش بینی کننده ها: > پیش بینی کننده ها(c5Fitvac ) [1] IL23R IL12RB2 IL8 IL23A IL6ST IL12A IL12RB1 [8] IL27RA IL12B IL17A EBI3 **سوالات:** 1. چرا در طرح، سطوح `دقت` وجود دارد بدون برنده شدن حدود دو برابر برنده شدن؟ آیا می توانید در تفسیر این خروجی وقتی می گوید winnow = FALSE کمک کنید؟ 2. چگونه می توان خروجی درخت را به جای متن ناخواسته محاسبه شده که در مورد من ظاهر شد، تجسم کرد؟ آیا راهی برای _ببینی_ یک درخت به جای نمادهای شلوغ وجود دارد؟ | درک خروجی مدل طبقه بندی C5.0 با استفاده از بسته CARET |
34259 | من در درک مثال زیر در پرانتز مشکل دارم. شاید بتوانید به من کمک کنید. در حالت ایدهآل، محققان از گستره کامل جامعهای که میخواهند مطالعه کنند، میدانند و میتوانند نمونهای از این جامعه را بهطور تصادفی انتخاب کنند. آماردانان می توانند این احتمال را محاسبه کنند که چنین نمونه های تصادفی نشان دهنده جامعه هستند. این معمولاً بر حسب خطای نمونهگیری بیان میشود (*مثلاً ممکن است 95 درصد احتمال وجود داشته باشد که توزیع پاسخها در یک نمونه در 3 درصد توزیع در جامعه باشد**). | سوال در مورد خطای نمونه گیری |
8918 | من کنجکاو هستم، آیا راهی برای بهینه سازی رگرسیون با توجه به یک آمار خاص وجود دارد؟ فرض کنید من به مدلی با بهترین آمار ممکن AIC علاقه مند هستم (یا MSE یا هر اندازه گیری دیگری که به آن علاقه دارم) - آیا می توانم به نحوی رگرسیون را هدایت کنم تا مدل های X برتر را به من بدهم که این کار را انجام می دهند؟ (البته سایر اقدامات را نادیده نمی گیرم، اما آیا می توان این را درخواست کرد؟) چه نرم افزاری این را پشتیبانی می کند یا کد خود را (مثلا R) می نویسید؟ همچنین به طور کلی، زمانی که نتایج رگرسیون چندگانه نمایش داده می شود (مثلاً رگرسیون همه ممکن یا بهترین زیر مجموعه انجام می شود)، آیا رتبه بندی وجود دارد و اگر چنین است، بر اساس چه معیار/معیاری؟ من نمی گویم که این بهترین راه برای ارزیابی مدل ها است، اما شاید راهی برای کشف مدل های نامزد باشد؟ (هر چند این واقعاً سؤال اصلی من نیست.) با تشکر .. با خواندن این سایت چیزهای زیادی یاد گرفتید. | آیا راهی برای بهینه سازی رگرسیون با توجه به یک معیار خاص وجود دارد؟ |
54900 | وقتی دادههای برچسبگذاری شدهام را به مجموعههای آموزشی، اعتبارسنجی و آزمایش تقسیم کردم، همه چیز را از 50/25/25 تا 85/5/10 شنیدهام. من مطمئن هستم که این بستگی به این دارد که شما چگونه از مدل خود استفاده می کنید و چقدر مستعد به تناسب بیش از حد الگوریتم یادگیری شما است. آیا راهی برای تصمیم گیری وجود دارد یا همه اینها طبق قانون سرانگشتی است؟ حتی ELSII در مورد این موضوع مبهم به نظر می رسد. | چگونه تصمیم می گیرید که درصد قطار، اعتبار سنجی و آزمون شما چقدر باشد؟ |
49938 | من اخیراً تخمینهای حداکثر احتمال را انجام دادم که در آن متغیر وابسته استفاده از توزیع نرمال را توجیه میکرد. اما اکنون، متغیر وابسته دارای چولگی 0.4 و کشیدگی 1.5 است و همچنین کاملاً عجیب به نظر می رسد. حال سوال من این است: چگونه توزیع مناسب را انتخاب/پیدا کنیم؟ من در مورد تخمینهای تراکم هسته مطالعه کردم، اما نمیدانم که آیا این میتواند فرمول توزیعی را ارائه دهد که میتواند در تخمین حداکثر احتمال استفاده شود. | چه توزیعی را انتخاب کنیم؟ آیا تخمین کرنل کمک می کند؟ |
8911 | از چه ابزار رایگانی می توانم برای انجام شبیه سازی های ساده مونت کارلو در OS X استفاده کنم؟ | از چه ابزار رایگانی می توانم برای انجام شبیه سازی های ساده مونت کارلو در OS X استفاده کنم؟ |
34255 | من در حال مطالعه یک دوره آنلاین با حدود 3000 دانش آموز هستم که هر کدام چندین آزمون شرکت کردند و سعی می کنم از تئوری پاسخ آیتم (با استفاده از بسته ltm در R) برای مدل کردن سؤالات استفاده کنم، تعیین کنم که کدام آیتم ها بیشترین یا کمترین اهمیت را برای حفظ کردن دارند و چه آیتم های جدیدی ممکن است مورد نیاز باشد، و برای ارائه روشی جایگزین برای نمره گذاری و مقایسه عملکرد دانش آموزان. با این حال، هر زمان که سعی میکنم همه 16 تا 20 سؤال را در یک مسابقه با هم مدل کنم، متوجه میشوم که این مدل بر اساس حاشیههای دو و سه طرفه، تناسب ضعیفی دارد، با بسیاری از باقیماندههای مجذور کای بیش از 10 و برخی بیش از 20 است. ، حتی با یک مدل سه پارامتری. من دو استراتژی را برای مقابله با این موضوع امتحان کردم. در یکی سعی کردم سوالات را بر اساس شباهت مفاهیم تست شده به گروه های کوچکتر تقسیم کنم. با این حال، متوجه شدم که برای به دست آوردن تناسب قابل قبول (بیش از 2-3 حاشیه با مجذور کای بیش از 3.5)، باید اندازه پارتیشن را حداکثر به 3-5 مورد محدود کنم. پس از انجام این کار، من بینش کمی در مورد اینکه دقیقاً چه متغیر پنهانی در هر پارتیشن اندازهگیری میشود و بنابراین چگونه میتوان تبعیض کم را تفسیر کرد، یا چگونه نمرات هر پارتیشن را در یک نمره آزمون جمعآوری کرد، ندارم. همچنین مطمئن نیستم که چگونه آیتم ها را در پارتیشن های مختلف از نظر اهمیت مقایسه کنم. استراتژی دیگری که من سعی کردم استفاده از ltm برای جا دادن به فضای متغیر پنهان دو بعدی بود. این باقیماندههای مجذور کای معقول ایجاد کرد (با فرض اینکه برش معمول 3.5 در حالت 2 بعدی منطقی باقی میماند) اما تلاش من برای درک کیفی آنچه توسط هر متغیر اندازهگیری میشود، چه با نگاه کردن به پارامترهای آیتم، نمودارهای 3 بعدی ICC، یا حداکثر امتیازهای پسین، انجام داد. شکست خورد. بدون این درک، من مطمئن نیستم که چگونه دو نمره متغیر پنهان را در یک نمره آزمون ترکیب کنم. ممکن است آزمونهایی که من با آنها کار میکنم بسیار کوتاه باشند و حوزهای را پوشش دهند که نمیتوان به اندازه کافی IRT را در آن اعمال کرد (مثلاً 2 تا 3 مبحث را در یک آزمون چند گزینهای شامل 16 مورد پوشش میدهد). امیدوارم اینطور نباشد. همچنین ممکن است من کمی بیش از حد نگران تناسب اندام باشم. من در تئوری پاسخ آیتم تازه کار هستم و از هرگونه بینشی در این مورد سپاسگزارم. | برخورد با تناسب ضعیف در یک مدل نظریه پاسخ آیتم |
49936 | من اطلاعاتی از سطح دریا از یک ایستگاه خاص از سال 1940 تا امروز دارم. رگرسیون خطی در دادههای 1940-1980 منجر به شیب 3 شد. رگرسیون خطی در دادههای 1980-2010 منجر به شیب 4 شد. از چه آزمونی میتوان برای تعیین اینکه آیا افزایش شیب قابل توجه است یا خیر استفاده کرد؟ | آزمایش اینکه آیا افزایشی بین دو شیب رگرسیون در یک سری زمانی وجود دارد یا خیر |
63140 | فرض کنید که من نگران اشیایی هستم که با نقاط N 2D توصیف می شوند. همه این نکات برای من اهمیت یکسانی دارند. من با تعداد زیادی R از چنین اشیایی شروع میکنم که هر کدام فهرست N عنصری مربوط به نقاط دوبعدی خود را دارند. این را جمعیت بنامیم. اکنون یک شیء جدید B، با N مکان نقاط دوبعدی آن به من داده شده است. من می خواهم بدانم که چقدر می توانم مطمئن باشم که B متعلق به جمعیت است. من همچنین با یک احتمال یا هر عدد دیگری با یک تفسیر ساده خوشحال خواهم شد. مایلم فرض کنم که همه چیز به هم مرتبط نیست، نقطه $i$ در هر شی به طور یکنواخت با توجه به نقطه $i$ در اشیاء دیگر توزیع شده است، و سایر فرضیات معمولی دیگر. وقتی فقط یک متغیر وجود دارد، آزمون t Student ابزار مناسبی به نظر می رسد. این حدود عمق آماری من است. من در مورد آزمونهای t چند بعدی، تستهای هتلینگ و موضوعات مرتبط مطالعه کردهام، اما درک نحوه استفاده از این ابزارها به پیچیدگی و عمق بیشتری نسبت به من نیاز دارد. صادقانه بگویم، من نمیتوانم منابعی را که پیدا کردهام (مانند صفحه ویکیپدیا در «توزیع چند متغیره»)، به یک راهحل عملی تبدیل کنم. من تشویق میشوم که این ابزارها در Mathematica (سیستمی که من با آن آشنا هستم - R را نمیدانم) تعبیه شدهاند، و به نظر میرسد که آنها بسیار نزدیک به آنچه من نیاز دارم، اما دریابیم که چگونه از آنها برای این سؤال استفاده کنم. به نظر دور از دسترس است مثالهایی که خواندهام شامل مقایسه چیزهایی مانند میانگین دو جمعیت و مقایسههای دیگر است، اما نمیدانم چگونه سؤالم را بر حسب این نوع آزمونها بیان کنم. در حالت ایدهآل، من میخواهم برای یادگیری تئوری آماری کافی وقت بگذارم تا بتوانم این ابزارها را به خوبی درک کنم تا بتوانم به این سؤال برای خودم پاسخ دهم. اما در حال حاضر با یک موقعیت عملی مواجه هستم که باید برای آن پاسخی دریافت کنم. هدف من یک روال کوچک Mathematica است که دو ورودی می گیرد: یک ماتریس از بردارهای R، که هر کدام از N 2D نقطه تشکیل شده است، و یک بردار دوم از N 2D نقاط، و ** عددی را به من برمی گرداند که بیانگر این اطمینان است که بردار متعلق به جمعیت **. یا، به همان اندازه مفید، نوعی معیار که به من می گوید بردار جدید تا چه اندازه از تعلق به جمعیت فاصله دارد. اگر کسی می تواند به من در رسیدن به آن هدف به صورت عینی و عملی کمک کند، بسیار سپاسگزار خواهم بود. | آزمایش اینکه آیا یک بردار در جمعیتی از بردارها قرار دارد یا خیر |
34251 | هنگام ارزیابی عملکرد مدل، میخواهیم خطاهای پیشبینی را به دلیل محدودیتهای مدل از آن خطاهای ناشی از نویز ذاتی جدا کنیم. به عنوان مثال، در داده های پر سر و صدا، AUC در منحنی ROC می تواند کمتر از 1.0 باشد، حتی زمانی که از مدل واقعی استفاده می شود. چند رویکرد برای به دست آوردن یک تخمین کمی از حداکثر قدرت پیش بینی یک مدل با توجه به سطح مشخصی از نویز چیست؟ | برآورد حداکثر قدرت پیش بینی در داده های نویزدار |
76668 | من جدولی دارم که در آن نتایج رگرسیون خطی چندگانه ارائه شده است. اگر ضرایب غیر استاندارد و خطای استاندارد برای هر متغیر مستقل داشته باشم، آیا می توان ضریب استاندارد شده (بتا) و ضریب تعیین ($R^2$) را از این داده ها محاسبه کرد؟ دوست من $R^2=0.41$ را برای این داده ها ارائه کرد، اما من شک دارم که آیا نتایج قابل اعتماد باشد. من جدول را در زیر آوردم، لطفا بتا و R-squared را محاسبه کنید تا با جدول اصلی مقایسه کنم؟  آمار توصیفی جدول زیر است:  | چگونه بتا و ضریب تعیین ($R^2$) را از ضرایب غیر استاندارد در رگرسیون OLS محاسبه کنیم؟ |
29190 | تخمین پارامترها با استفاده از تخمین حداکثر درستنمایی (MLE) شامل ارزیابی تابع درستنمایی است که احتمال وقوع نمونه (X) را به مقادیر (x) در فضای پارامتر (θ) با توجه به یک خانواده توزیع (P(X=x|θ) ترسیم می کند. ) بیش از مقادیر احتمالی θ (توجه داشته باشید: آیا من در این مورد درست هستم؟ F(X) توزیع با مقدار محلی θ و X نمونه (بردار) است، آیا به این نتیجه می رسد که داده ها مستقل باشند داده های سری زمانی مناسب است یا اینکه پارامترها فقط باید مستقل باشند؟ | آیا MLE به i.i.d نیاز دارد؟ داده ها؟ یا فقط پارامترهای مستقل؟ |
58424 | آیا توالی ضرر توسط cv.glmnet (شکاف cvm) در مقیاس متغیر استاندارد شده برگردانده می شود یا مقیاس اصلی؟ فکر می کنم این فقط روی قسمت پنالتی باخت تاثیر می گذارد. به عبارت دیگر، آیا مدلهایی که با فراخوانی cv.glmnet با standardize=TRUE به دست میآیند با مدلهای بهدستآمده با standardize=FALSE قابل مقایسه هستند؟ | دنباله از دست دادن برای glmnet |
95769 | فرض کنید ما یک رگرسیون اول تفاوت با یک متغیر پاسخ محدود ، $ $ \ delta y_ {i} = \ beta_1 \ delta x_ {i}+\ delta \ epsilon_i. 0،1] $ که در آن $ y_ {it} $ می تواند مشارکت یک جمعیت را در یک نظرسنجی معین یا نرخ گذر دانش آموزان در یک آزمون استاندارد در یک مدرسه معین نشان دهد $i$ برای یک سال معین $t$. $X_{it}$ متغیری است که در طول زمان تغییر میکند، برای مثال اگر $y_{it}$ نرخ قبولی در یک مدرسه معین باشد، $X_{it}$ میتواند اندازه متوسط کلاس باشد. هدف ما بدست آوردن یک تخمین بی طرفانه برای $\beta_1.$ است اگر مدل فوق را با استفاده از OLS تخمین بزنیم، مشکل زیر ممکن است رخ دهد. برای سادگی، فرض کنید دو دوره داریم، $t = 1، 2.$، سپس اگر $y_{i1} = 1$، آنگاه $\Delta y_{i} \در [-1,0]، $، در حالی که اگر $y_{i1 } = 0$ سپس $\Delta y_{i} \in [0,1].$ بنابراین اگر $y_{i1}$ نزدیک به $1 باشد، فقط میتواند اندکی افزایش یابد. در حالی که اگر $y_{i1}$ نزدیک به $0 باشد، می تواند بسیار افزایش یابد. اما در واقع این می تواند منجر به نتایج مغرضانه شود. این امر به این دلیل است که اگر $ y_ {it} $ محدود نشده باشد ، افزایش در $ x_i $ در دوره دوم ممکن است $ y_i $ در دوره دوم افزایش یابد ، اما این در مورد ما با پاسخ محدود وقتی $ y_ {i1} غیرممکن است = 1. $ مسئله مشابه است اگر افزایش $ x_i $ منجر به کاهش $ y_i $ شود وقتی $ y_ {i1} = 0. از این رو من گمان می کنم OLS ممکن است یک برآوردگر مناسب نباشد در این مورد، اما تحت شرایط دیگر ممکن است کار کند؟ ایده ای که من باید این مشکل را برطرف کنم این است که در مدل زیر موارد زیر را در نظر بگیرم. در واقع با توجه به پایین $ y_ {i1} $ (کمتر از 0.5) با توجه به تغییر در $ x_i $ آسان تر $ {i2} $ آسانتر است ، سپس برای افزایش $ y_i $ با داده در ابتدا $ y_ {i1} $ بالا (بیش از 0.5). من مطمئن نیستم که دقیقاً چگونه این کار را انجام دهیم، من گمان می کنم استفاده از یک متغیر نشانگر ممکن است کار کند. آیا این نوع رویکرد کارساز خواهد بود؟ آیا ایده دیگری برای رفع این مشکل سقفی وجود دارد؟ | مسائل برآورد برای OLS با متغیر پاسخ محدود |
58282 | من داده هایی با اندازه 116.667 ردیف دارم که به این صورت تعریف شده است: iD Signal chr17.3620 0.5741552 chr1.7341 0.5680284 chr7.3937 0.5479430 chr17.3802020235 0.5298978 chr17.7227 0.5298536 از آنجایی که نشان دادن نتایج با تمام داده ها دشوار است، زیرا من شهرت کافی برای آپلود تصاویر را ندارم، پست خود را با 200 ردیف اول ارسال کردم. خلاصه: * حداقل = 0.3693 * ربع اول = 0.3847 * میانه = 0.4039 * میانگین = 0.4199 * ربع سوم = 0.4413 * حداکثر. 0.5742 = همچنین برخی از تحلیلهای اکتشافی را امتحان کردم تا ببینم کدام نوع توزیع از این دادهها پیروی میکند (یعنی «Plot(density(t))» و «qqnorm(t)»؛ «qqline(t،col=2)». با توجه به نتایج اولیه، من می گویم که این داده ها ظاهراً از توزیع گاما پیروی می کنند. در اینجا من 200 مقدار سیگنال اول را قرار دادم: ساختار <-(list(V1 = c(0.5741552,0.5680284,0.5479430,0.5402434,0.5298978,0.5298536,0.5282417, 0.5165426,0.5131503,0.5129329,0.5105448,0.5104201,0.5095860,0.5090263, 0.5061467,0.4972821,0.4959428,0.4953381,0.4920510,0.4915160,0.4868505, 0.4843749,0.4825519,0.4823313,0.4809742,0.4788553,0.4775991,0.4770962, 0.4745947,0.4743952,0.4727112,0.4718017,0.4714738,0.4674141,0.4670385, 0.4648104,0.4633502,0.4616054,0.4615068,0.4614247,0.4613338,0.4597812, 0.4551755,0.4535067,0.4528133,0.4508228,0.4494993,0.4494936,0.4442789, 0.4413460,0.4412279,0.4402557,0.4392294,0.4385639,0.4385187,0.4361337, 0.4344499,0.4342413,0.4342331,0.4338879,0.4337806,0.4336820,0.4329372, 0.4325534,0.4323201,0.4312287,0.4292037,0.4281761,0.4279843,0.4279774, 0.4252035,0.4243487,0.4228516,0.4226953,0.4218263,0.4214821,0.4212546, 0.4210894,0.4206089,0.4204235,0.4193896,0.4168915,0.4164699,0.4152126, 0.4127455,0.4126053,0.4113571,0.4105654,0.4099753,0.4088188,0.4085093, 0.4075957,0.4074018,0.4072499,0.4072114,0.4067329,0.4065400,0.4052757, 0.4044982,0.4040699,0.4036509,0.4033471,0.4031712,0.4026698,0.4017872, 0.4011538,0.4011325,0.4011320,0.4008897,0.4006470,0.4003469,0.3996736, 0.3992583,0.3991979,0.3990366,0.3989118,0.3983172,0.3980860,0.3978592, 0.3977522,0.3965371,0.3963045,0.3957640,0.3954328,0.3950159,0.3935825, 0.3934975,0.3932916,0.3931091,0.3929565,0.3922829,0.3919779,0.3919713, 0.3914740,0.3910446,0.3909540,0.3890607,0.3890550,0.3876478,0.3875172, 0.3873815,0.3872299,0.3870533,0.3858995,0.3858361,0.3855984,0.3854444, 0.3852595,0.3849558,0.3847531,0.3844442,0.3842814,0.3831377,0.3822418, 0.3817666,0.3805661,0.3803090,0.3802035,0.3800845,0.3800580,0.3799694, 0.3795814,0.3794039,0.3792874,0.3788970,0.3787295,0.3785160,0.3782523, 0.3782439,0.3779547,0.3778596,0.3777452,0.3770986,0.3767652,0.3767104, 0.3765786,0.3760886,0.3760124,0.3753271,0.3750943,0.3749116,0.3744146, 0.3743998,0.3730250,0.3729932,0.3727007,0.3726170,0.3722539,0.3721743, . t<-as.matrix(A$V1) سوالات من این است: **1.- چگونه می توانم داده های خود را در یک توزیع گاما تطبیق دهم؟** **2.- آیا راهی برای تعیین، با توجه به برازش مدل وجود دارد ، کدام مقدار سیگنال با p-value < 0.05 مطابقت دارد؟** از راهنمایی شما متشکرم! PD 1: پیشنهادهایی را برای ویرایش میپذیرم زیرا این اولین پست من در انجمن است! PD 2: من همه اینها را با استفاده از R امتحان کردم | برازش داده ها به توزیع گاما برای یافتن امتیازی که با pvalue < 0.05 مطابقت دارد؟ |
49931 | در تحقیقات بازار، من در حال ساخت یک مدل رگرسیون لجستیک برای برآورد احتمال تغییر بانک توسط مشتریان هستم. نسبت رویدادها در نمونه من تقریباً 10٪ است. از دانشگاه به یاد میآورم که نسبتی از رویدادها که خیلی کوچک هستند، سوگیری را به تخمین وارد میکنند. یا این خطای استاندارد است که بایاس می شود؟ (سؤال 1) به عنوان یک قاعده کلی، نسبت مناسبی از رویدادها چقدر است؟ (سؤال 2) لطفاً به جای توضیح فنی که توسط مراجع مختلف پشتیبانی می شود، یک پاسخ مستقیم و خشن بدهید. | نسبت قابل قبول رویدادها در رگرسیون لجستیک چقدر است؟ |
34257 | من در حال خواندن مقاله ای هستم که ادعا می کند $$\hat{X}_k=\frac{1}{\sqrt{N}}\sum_{j=0}^{N-1}X_je^{-i2\pi kj/N}، $$ (یعنی تبدیل فوریه گسسته، DFT) توسط C.L.T. به یک متغیر تصادفی گاوسی (پیچیده) تمایل دارد. با این حال، من می دانم که این به طور کلی درست نیست. پس از خواندن این استدلال (اشتباه)، در شبکه جستجو کردم و این مقاله 2010 توسط Peligrad & Wu را پیدا کردم، جایی که آنها ثابت کردند که برای **برخی از فرآیندهای ثابت، می توان یک قضیه C.L.T. پیدا کرد. سوال من این است: آیا شما مرجع دیگری دارید که سعی کند به مشکل یافتن توزیع محدود کننده DFT یک دنباله نمایه شده معین (هم از طریق شبیه سازی و هم از طریق تئوری) رسیدگی کند؟ من به ویژه به نرخ همگرایی (یعنی سرعت همگرایی DFT) با توجه به ساختار کوواریانس برای $X_j$ در زمینه تجزیه و تحلیل سری های زمانی، یا مشتقات/کاربردهای سری های غیر ثابت علاقه دارم. | قضیه حد مرکزی برای مجموع وزنی متغیرهای تصادفی همبسته |
50376 | دو متغیر تصادفی مستقل، X و Y، به طور یکنواخت در بازه واحد (-1،1) توزیع شده اند. چگالی را برای U=min(X,Y) و برای W=max(X,Y) تعیین کنید. | تعیین چگالی min(x,y) و max(x,y) برای متغیرهای توزیع شده به طور یکنواخت |
93528 | من در حال حاضر بر روی پیاده سازی مدل 'SVAR' در یک تحلیل اقتصادی کار می کنم. من 10 متغیر در تجزیه و تحلیل خود دارم و در حال حاضر در تلاش برای گنجاندن محدودیت های کوتاه مدت هستم. در اینجا یک مثال با چهار متغیر وجود دارد، Y1 (GDP)، Y2 (نرخ ارز)، Y3 (نرخ بهره) Y4 (ریسک بانک). من می خواستم محدودیت های کوتاه مدت زیر را اعمال کنم.  چند کتاب درسی را مرور کردم و نمونه ها با سفارش کوتاه مدت شروع می شدند. برخلاف اینجا که من ترتیبی ندارم و بنابراین ماتریس را غیر مثلثی می کنم. | مدل SVAR با محدودیت های کوتاه مدت |
50377 | پاسخ به این سوال ایده جالبی به من داد. بخشی که برای من جالب بود شرح مختصری از کریجینگ بود که توسط > روش انجام شد، کریجینگ همانطور که معمولاً انجام می شود کاملاً مشابه حداقل مربعات > تخمین نیست، زیرا Σ در یک روش مقدماتی (معروف به > واریوگرافی) با استفاده از همان داده ها این برخلاف مفروضات > این اشتقاق است، که فرض میکرد Σ شناخته شده است (و تا حد زیادی مستقل از > دادهها). بنابراین، در همان ابتدا، کریجینگ دارای برخی اشکالات مفهومی و > آماری است. تمرینکنندگان متفکر همیشه از این موضوع آگاه بودهاند و راههای خلاقانه مختلفی برای توجیه ناسازگاریها پیدا کردهاند. (داشتن دادههای زیاد واقعاً میتواند کمک کند.) اکنون روشهایی برای تخمین همزمان Σ و پیشبینی مجموعهای از مقادیر در مکانهای ناشناخته وجود دارد. آنها برای انجام این کار به فرضیات کمی قوی تری نیاز دارند (چند متغیره > عادی). سوالی که من از این داشتم این بود که آیا روش مشابهی برای کوکریجینگ وجود دارد مانند اینکه چگونه مدلهای فضایی تعمیمیافته نسبت به کریجینگ بهبود مییابند؟ اساساً تکنیکی که هیچ چیزی را روی سیگما یا mu فرض نمیکند و از متغیر ثانویه استفاده میکند. | کوکریجینگ و مدل های فضایی خطی تعمیم یافته |
49939 | معنی t value و Pr(>|t|) هنگام استفاده از تابع summary() در مدل رگرسیون خطی در R چیست؟ ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 10.1595 1.3603 7.469 1.11e-13 *** log(var) 0.3422 0.1597 2.143 0.0322 * | تفسیر تابع خلاصه برای مدل lm در R |
112637 | من نمودار آزمایشی را اضافه کردهام که در آن سلولها از چندین حیوان جمعآوری میشوند، سلولهای استخر سپس به تیمارهای مختلف اختصاص داده میشوند و اندازهگیری از هر سلول جداگانه در هر تیمار انجام میشود. هدف از این آزمایش تعیین اینکه چگونه دوزهای یک دارو (درمان ها) بر اندازه سلول تأثیر می گذارد. من قبلاً نظرات مختلفی در مورد اینکه چه چیزی واحد آزمایشی را در این مورد تشکیل می دهد دریافت کرده ام. من میتوانم بگویم واحد آزمایشی استخر است، بنابراین n=1، اما وقتی به تعریف واحد آزمایشی نگاه میکنیم، میگویم: «کوچکترین تقسیم ماده آزمایشی بهطوری که هر دو واحد آزمایشی میتوانند درمانهای متفاوتی دریافت کنند» - مطمئناً دو سلول جداگانه میتوانند از نظر تئوری درمانهای متفاوتی دریافت میکنند، زیرا آنها نهادهای جداگانه هستند؟ بیشتر نمونههایی که من پیدا کردهام سادهتر هستند، برای مثال اگر حلزونها خودشان در معرض درمان قرار میگرفتند، میتوانستم ببینم که چگونه سلولهای درون هر حلزون دیگر مستقل نیستند و بنابراین حلزون واحد آزمایشی خواهد بود. من قدردان هر گونه فکر یا توضیحی هستم.  | شناسایی واحد آزمایشی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.