_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
111435 | صبح، بگویید من 5 نوع گندم دارم که تحت 2 درمان قرار می گیرند. هنگام شمارش بذر تکرارها، درصد تفاوت بین میانگین دو تیمار 10% برای رقم 1، 30% برای 2، 50% برای 3، 80% برای 4 و 90% برای رقم 5 است. چگونه می توانم نشان دهم که var 1 دارای درصد کاهش قابل توجهی بیشتر از var، 3 است اما نه var. 2 مثلا؟ هر هپ بسیار قدردانی خواهد شد. با تشکر فراوان | آیا درصد تفاوت به طور قابل توجهی با یکدیگر متفاوت است؟ |
107929 | من یک بار جملات زیر را در مورد همبستگی در زمینه رگرسیون شنیدم. > همبستگی فقط روابط خطی را اندازه گیری می کند > > $\text{corr}(X,Y)=0$ به این معنی نیست که متغیرها به هم مرتبط نیستند! سوال من این است که چرا همبستگی نمی تواند روابط غیر خطی را اندازه گیری کند؟ دوم اینکه $\text{corr}(X,Y)=0$ به ما چه می گوید؟ | همبستگی در رگرسیون خطی |
8306 | به عنوان عنوان، چیزی شبیه به این وجود دارد؟ من می دانم چگونه CI را برای میانگین حسابی محاسبه کنم، اما در مورد میانگین هندسی چطور؟ با تشکر | فاصله اطمینان برای میانگین هندسی |
107926 | مدتی است که یادگیری و طبقه بندی تحت نظارت را با پرسپترون چند لایه انجام می دهم. اما اکنون باید از یادگیری بدون نظارت برای پی بردن به وجود یک الگو استفاده کنم و به کمک نیاز دارم. این به خودی خود مشکل سختی نیست و من می توانم آن را با یادگیری نظارت شده حل کنم (با نشان دادن نمونه هایی از الگوهای ممکن)، اما می خواهم الگوریتم من بتواند بدون دادن نمونه های الگو به آن کار کند. تصور کنید که من 9 کاشی به صورت مربع 3x3 ارائه شده است که از 1 تا 9 شماره گذاری شده اند. آنها هر بار با الگوی مشخصی که برای کاربر ناشناخته است روشن می شوند. این الگو می تواند دنباله ای از هر چیزی از 2 کاشی (مثلا 3-4-3-4-3-4...) تا یک دنباله بسیار طولانی تر (مثلاً **2** -5-3-2-6-4) باشد. -6-1- **2** -5-3-2-6-4-6-1 و غیره). من به الگوریتمی نیاز دارم که بتواند الگوی (یا قاعدگی) را استنتاج کند و سپس از این دانش برای حدس زدن دقیق کاشی بعدی که باید روشن شود استفاده کنم. اگرچه نیازی به یادگیری برای همیشه نیست. می تواند این باشد: اگر فکر می کنید الگویی دارید و حداقل 10 بار تکرار می شود، فرض کنید آن را پیدا کرده اید. من در حال خواندن مقالات علمی در مورد این موضوع بودم، اما فکر می کنم برای محدود کردن تحقیقاتم ابتدا به ایده هایی نیاز دارم. با تشکر | شناخت الگوهای ساده و پیش بینی |
92170 | من در تلاش برای پیاده سازی تحلیل تشخیصی خطی برای تشخیص چهره هستم. من 3 کلاس دارم و هر کلاس هر کدام 10 تصویر دارد. بعد ماتریس در کلاس A، B و C 10*500 است. بنابراین هر سطر یک تصویر را نشان می دهد اگر ماتریس میانگین هر کلاس را پیدا کنم، بعد 1*500 را دریافت می کنم. یعنی من سطر را اضافه می کنم و بر 10 تقسیم می کنم. ماتریس میانگین جهانی همه کلاس ها بعد 1*500 را دریافت می کنم. درون ماتریس پراکندگی Sw= بعد ماتریس 10*10 ماتریس است. Between Scatter Matrix Sb= بعد ماتریس 1*1 است. گام بعدی این است که من باید Inverse(Sw)*Sb را پیدا کنم. اما بعد ماتریس کاملاً متفاوت است. میدونم یه اشتباهی میکنم ولی نمیدونم کجا؟ میشه لطفا کمکم کنید این مشکل رو حل کنم؟ میشه لطفا بگید ابعاد ماتریس چقدر باید باشه؟ متشکرم | بعد ماتریس تحلیل تفکیک خطی |
56400 | فرض کنید من یک مدل AR(2) را در یک مجموعه داده قرار می دهم و تشخیص را دریافت می کنم. اگر آمار Ljung-Box برای همه تأخیرها برای مدل سری زمانی معنادار باشد، تفسیر آن چیست؟ یعنی مدل مناسب نیست؟ به غیر از این، ACF باقیمانده ها نشان می دهد که ثابت و نرمال هستند. | آمار Ljung-Box |
56402 | من مشکلی دارم که سادهلوحانه فکر میکردم مشکلی نسبتاً مستقیم است که شامل تشخیص پرت برای بسیاری از مجموعههای مختلف دادههای شمارش میشود. به طور خاص، من میخواهم تعیین کنم که آیا یک یا چند مقدار در یک سری دادههای شمارش نسبت به بقیه شمارشها در توزیع، بالاتر یا کمتر از حد انتظار است. عامل مخدوش کننده این است که من باید این کار را برای 3500 توزیع انجام دهم و به احتمال زیاد برخی از آنها با یک سم پراکنده بیش از حد باد شده صفر مطابقت دارند، در حالی که برخی دیگر ممکن است به بهترین وجه با یک دوجمله ای منفی یا ZINB مطابقت داشته باشند، در حالی که برخی دیگر ممکن است به طور معمول توزیع شوند. به همین دلیل، امتیازهای Z ساده یا رسم توزیع برای بسیاری از مجموعه داده ها مناسب نیستند. در اینجا نمونهای از دادههای شمارش است که میخواهم مقادیر پرت را تشخیص دهم. counts1=[1 1 1 0 2 1 1 0 0 1 1 1 1 1 0 0 0 0 1 2 1 1 2 1 1 1 1 0 0 1 0 1 1 1 1 0 0 0 0 0 1 2 1 1 1 1 1 0 1 1 2 0 0 0 1 0 1 2 1 1 0 2 1 1 1 0 0 1 0 0 0 2 0 1 1 0 2 1 0 1 1 0 0 2 1 0 1 1 1 1 2 0 3] counts2=[0 1 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 صفر 14 14 15 14 14 14 14 14 14 15 14 13 14 14 15 12 13 17 13 14 14 14 14 15 14 14 13 14 13 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 15 14 1414 14 15 14 14 14 14 14 14 14 14 14 14 14 14 13 16] counts4=[0 3 1.......] و به همین ترتیب تا تعداد 3500. در ابتدا فکر کردم باید یک حلقه در پایتون یا R بنویسم که مجموعهای از مدلها را برای هر توزیع اعمال کند و بهترین مدل برازش را بر اساس AIC یا موارد دیگر انتخاب کند (شاید fitdistrplus در R؟). سپس میتوانم بپرسم که افراطیها برای توزیع دادهشده چه هستند (شمارهایی که در دنبالهها قرار میگیرند، بهعنوان مثال، آیا شمارش «4» در توزیع counts1 در بالا پرت خواهد بود؟). با این حال، من مطمئن نیستم که این یک استراتژی معتبر باشد، و به نظرم رسید که ممکن است روش ساده ای برای تعیین نقاط پرت در داده های شمارش وجود داشته باشد که من از آن آگاه نبودم. من به طور گسترده جستجو کردم و با توجه به تعداد توزیعهایی که میخواهم به آنها نگاه کنم، چیزی پیدا نکردم که برای مشکلم مناسب به نظر برسد. هدف نهایی من این است که با استفاده از مناسب ترین روش آماری، افزایش یا کاهش قابل توجه در شمارش برای هر توزیع شمارش را شناسایی کنم. | تشخیص نقاط پرت در داده های شمارش |
21567 | من به طور سنتی یک مرد بینایی کامپیوتری هستم و شروع به انجام برخی از خودآموزی در داده کاوی کرده ام. من در پیدا کردن مکان هایی که این 2 زمینه با هم همگرا می شوند مشکل دارم، زیرا می خواهم یک پروژه خودآموزی دریافت کنم که این دو زمینه را به هم مرتبط کند. کجا از این دو ناحیه با هم استفاده می شود؟ | در کجا داده کاوی و بینایی کامپیوتری همگرا می شوند؟ |
110523 | من میخواهم بتوانم انحراف معیار یک توزیع گاوسی چند بعدی با بعد $n$ را نمونهبرداری کنم. یعنی با توجه به مقداری $\phi$، میخواهم $P(\sigma | \phi) \propto \frac{1}{\sigma^n} e^{-\frac{\phi}{2\ را نمونهبرداری کنم. sigma^2}}$ برای $n$ بالا، این توزیع به شدت به اوج می رسد. برای مقاصد من $n$ در حدود 1000-3000 خواهد بود. روش کارآمد برای به دست آوردن یک نمونه واحد از این توزیع چیست؟ (یک نمونه به عنوان $\phi$ بین هر نمونه تغییر می کند.) | نحوه نمونه برداری از توزیع پارامتر مقیاس گاوسی |
9930 | این احتمالاً نشان دهنده عدم درک اساسی از نحوه عملکرد همبستگی های جزئی است. من 3 متغیر x،y،z دارم. وقتی z را کنترل میکنم، همبستگی بین x و y نسبت به همبستگی بین x و y افزایش مییابد زمانی که z برای آن کنترل نمیشود. آیا این منطقی است؟ من تمایل دارم فکر کنم که وقتی اثر یک متغیر سوم را کنترل کنیم، همبستگی باید کاهش یابد. با تشکر از شما برای کمک شما! | آیا منطقی است که یک همبستگی جزئی بزرگتر از همبستگی مرتبه صفر باشد؟ |
46827 | من یک مجموعه داده پانل دو بعدی دارم که یک مشخصه در امتداد این خطوط است: فردی | سال | BMI 1 2005 25.3 1 2006 25.4 1 2007 24.1 2 2005 22.9 2 2006 22.1 2 2007 21.1 ... من همچنین مقادیر سالانه ای برای متغیر خارجی دیگری دارم که برای سال های 2005 سرمایه گذاری کنم یا خیر. همبستگی بین BMI افراد و V. به ویژه، من این فرضیه را دارم که همبستگی واقعی > 0 است که می خواهم آن را آزمایش کنم. سوال من این است که آیا می توانم این را با ساخت یک سری زمانی آزمایش کنم که هر مقدار BMI را با مقدار V برای سال معین جفت می کند و از r پیرسون برای آزمون فرضیه و ضرایب همبستگی استفاده می کند؟ چرا یا چرا نه؟ اگر این کار را انجام دهم، آیا نتایج اصلا مفید است؟ اگر نه، جایگزینهایی که نسبتاً ساده هستند کدامند؟ منظورم از ساخت سری زمانی را روشن می کنم. فرض کنید V به ترتیب 1.1، 2.2 و 3.3 برای 2005 - 2007 باشد. سپس سری زمانی ساخته شده به صورت زیر خواهد بود (مقادیر BMI از بالا): BMI | V 25.3 1.1 25.4 2.2 24.1 3.3 22.9 1.1 22.1 2.2 21.1 3.3 یک سوال مرتبط که پیدا کردم (متاسفانه تمام پاسخ هایی که به دنبالش بودم را به من نداد): آیا سری های زمانی کوتاه ارزش مدل سازی دارند؟ پیشاپیش متشکرم | آزمون فرضیه بر روی داده های پانل دو بعدی با 1 مشخصه؟ |
56408 | بسیار خوشحال خواهم شد اگر کسی بتواند در این زمینه به من کمک کند. من از مدل رگرسیون لجستیک تعمیم یافته «gologit2» / شانس متناسب جزئی برای متغیرهای وابسته ترتیبی استفاده می کنم. متغیر وابسته اندازه شرکت را توصیف می کند و یک متغیر طبقه بندی شده با سه گروه کوچک، متوسط و بزرگ است. من از margeff برای به دست آوردن میانگین ضرایب اثر حاشیه ای استفاده کردم (به زیر مراجعه کنید)، اما در درک اینکه چگونه می توانم سطح پایه را بدست بیاورم که سه ساختگی (انواع شرکت) زیر با آن مقایسه شده اند (به عنوان مثال -.1368403 + پایه) مشکل دارم. = احتمال اینکه یک نوع شرکت معین از اندازه y باشد). آیا وقتی y = 0 (کوچک) پایه به سادگی میانگین آن مقدار است؟ اگر از گزینه at(means) در margeff استفاده کنم چطور؟ به سلامتی . margeff، dummies (Iprsv* \ Ipscl* \ Icountry* \ Inace*) میانگین اثرات جزئی بعد از gologit2 y = Pr(اندازه04) ------------------------------------------------ ------------------------------ متغیر | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] ----------------------------------------------- -------------------------------- کوچک | Iprsvinn_1 | -.1368403 .0136474 -10.03 0.000 -.1635887 -.1100918 Iprsvinn_2 | -.0130166 .0185622 -0.70 0.483 -.0493979 .0233646 Iprsvinn_3 | -.0665578.0193864 -3.43 0.001 -.1045544 -.0285611 | به دست آوردن سطح پایه با margeff و gologit2 در Stata |
56406 | من سناریوی زیر را دارم: من دو حالت دارم. من متغیرهای $n$ را که تحت تأثیر وضعیت قرار میگیرند اندازهگیری میکنم. حالت 0 حالت پسزمینه است و در این مورد انتظار دارم هر متغیر $n_i$ از توزیع نرمال $N_i$~$(\mu_i,\sigma_i)$ که قبلاً پارامترها را برای آن تخمین زدهام ترسیم شود. وقتی حالت 1 است، من انتظار دارم که متغیرها مقداری بالاتر از آنچه شما از مقدار پسزمینه انتظار دارید داشته باشند، اما هیچ اطلاعی درباره توزیع دقیق آنها ندارم. من میخواهم با مشاهده متغیرها محاسبه کنم که چقدر احتمال دارد در حالت 1 نسبت به حالت 0 باشم. به نظر میرسد که Naive Bayes راهحل درستی باشد، زیرا انتظار دارم متغیرها عمدتاً مستقل باشند. من می توانم احتمالات مربوط به حالت 0 را محاسبه کنم، به عنوان مثال. احتمال مشاهده وضعیت داده شده 0. با این حال، اگر من توزیع را ندانم، چگونه می توانم احتمال داده های وضعیت 1 را محاسبه کنم؟ فکر دیگری که داشتم این بود که شاید رویکرد باید متفاوت باشد، برای مثال برای هر متغیر یک z-score محاسبه کنید و آن توزیع را آزمایش کنید. حدس میزنم که در مرکز صفر برای حالت 0 و بالاتر در حالت 1 باشد. چگونه آن را آزمایش کنم؟ تست تی؟ هر گونه فکری پذیرفته می شود. | بیس ساده بدون مدل |
25745 | در Statistica می توان یک تحلیل فوریه دو سری/دو متغیره/طیف متقاطع برای بررسی همدوسی، بهره و طیف فاز در یک جفت سیگنال انجام داد. احتمالاً این یک شکست از طرف من است، اما تلاشهای من برای استفاده از آن عبارات جستجو برای بدست آوردن مقادیر مشابه از R خالی بوده است. چه توابع/بسته هایی را باید با جزئیات بیشتری بررسی کنم؟ می توانید چند مثال ساده ارائه دهید؟ | چگونه می توان تحلیل های فوریه «دو سری» را در R انجام داد؟ |
3676 | **زمینه:** من یک محقق جوان در مؤسسه ای هستم که با مسائل منطقه ای، به ویژه در زمینه سیاست مواد مخدر سروکار دارد. تقریباً دو سال پیش، یکی از محققان ارشد ما شروع به جمعآوری دادههای دستگیری در مورد یک شهر بزرگ مجاور کرد. او تا زمانی که من یک سال پیش به عضویتم در آمدم و تغییر کردم و او را متقاعد کردم که به جمعآوری خودکار دادهها روی بیاورد، به صورت دستی نوار پلیس روزنامه را رونویسی میکرد. ما اکنون آماده ایم تا تجزیه و تحلیل این مجموعه داده را آغاز کنیم. این شامل حدود 20 هزار رکورد بازداشت است که تقریباً هیچ مقدار گم شده یا نامعتبر وجود ندارد (من تخمین می زنم که کمتر از 100 رکورد وجود دارد و برخی از آنها فقط خطاهای تجزیه کننده هستند). این سوابق شامل نام کامل و آدرس منزل فرد دستگیر شده، افسران دستگیر شده، اتهامات دقیق و غیره است (ما حتی SSN ها را در داده ها پیدا کرده ایم). در این مرحله، ما فقط دادهها را بررسی میکنیم، اما انتظار داریم که تفاوتهایی در تعداد و شدت اتهامات بر اساس نژاد، محل دستگیری و مکان خانه پیدا کنیم. **سوال** مجموعه داده دارای دو متغیر است که طبق درک من، سؤالات دسته بندی چند پاسخی هستند. افسر دستگیر دو ستون است که یکی از آنها همیشه دارای ارزش و یکی از آنها ممکن است دارای ارزش باشد (برای افسر دوم حاضر در دستگیری). هزینه ها پنج ستون است که هر کدام شامل یک بار شارژ و بدون ترتیب خاصی است. برای پیچیده تر کردن ساختار، برای فردی که به بیش از پنج اتهام دستگیر شده است چندین سوابق صادر می شود. ما تا به حال چند ساعت با مجموعه داده بالا درگیر شدیم و با استفاده از ویژگی Multiple Response Set و وصل کردن آن به جداول سفارشی، توانستیم تعداد و درصدهای مفیدی را در SPSS بدست آوریم. این شروع خوبی است، اما ما می خواهیم در مقطعی به تجزیه و تحلیل دقیق تر بپردازیم. متأسفانه، هیچ یک از ما از روش های توصیه شده (یا ضد توصیه شده) برای تجزیه و تحلیل یک سؤال چند پاسخی طبقه بندی شده آگاه نیستیم. این همچنین در مورد تمایل ما برای گروه بندی اتهامات خاص (مثلاً تصرف مواد کنترل شده کمتر از 4 اونس) در دسته های گسترده تر مانند جرایم خشونت آمیز یا جرایم مواد مخدر صدق می کند. توجه داشته باشید که من در اینجا فقط به دنبال پاسخ فوری نیستم، زیرا مهلتی نداریم. من خوشحال خواهم شد که مطالعه انجام دهم، بنابراین به راحتی به من در جهت آموزش، کتاب های درسی و غیره اشاره کنید. من همچنین به SPSS وابسته نیستم - این همان چیزی است که همکارم به آن عادت کرده است. اگر استفاده از آن برای این نوع مشکلات معایب واضحی دارد، من بدم نمی آید چیز جدیدی یاد بگیرم. | تحلیل سوابق دستگیری پاسخ چندگانه. |
110527 | بر اساس ویکی پدیا، > همچنین امکان گسترش نمونه گیبس به روش های مختلف وجود دارد. ... می توان متغیرهایی را که متغیرهای تصادفی نیستند، اما مقدار > آنها به طور قطعی از سایر متغیرها محاسبه می شود، ترکیب کرد. اسم این تکنیک چیست؟ چه مراجع خوبی در مورد آن وجود دارد؟ | ارجاع به متغیر افزوده قطعی برای نمونه گیری گیبس |
110526 | فرض کنید من می خواهم یک آزمون z چند نمونه ای برای نسبت ها انجام دهم. آیا راهی برای رتبه بندی آنها وجود دارد؟ چگونه می توانم بیش از دو نمونه را همزمان با هم مقایسه کنم؟ | چند نمونه z-test برای نسبت ها |
3672 | آیا کسی می تواند معیارهای آماری را برای توصیف توزیع دندروگرام پیشنهاد کند؟ اگر من دو دندروگرام داشته باشم، چگونه می توانم تفاوت های ساختاری آنها را کمّی کنم؟ | اندازه گیری برای توصیف توزیع دندروگرام |
21847 | من این مثال را در سخنرانی یادگیری ماشینم داشتم. > اجازه دهید $X_2,\ldots,X_n$ به طور یکسان توزیع شوند (اما نه مستقل) نسخههای > از $X_1$ برگرفته از $\mathcal N(0,1)$. سپس $X_n$ به $Y = -X_1$ همگرا می شود به عنوان > $n \rightarrow \infty$. هیچ توضیحی برای اینکه چرا این دنباله از متغیرهای تصادفی به $Y$ همگرا می شود وجود ندارد. همگرایی به معنای $\lim_{n \rightarrow \infty} F_{X_n}(t)$ که در آن $F_{X_n}$ CDF X_n$ است. کسی میتونه کمکم کنه؟ | همگرایی متغیرهای تصادفی عادی توزیع شده یکسان |
107922 | من یک مقدار F مرحله اول 9 برای مدلی با 1 ابزار و 1 متغیر درون زا دارم، قانون مکانیکی 10 می گوید ابزارهای من ضعیف هستند. با این حال، من مقاله سال 2005 توسط Stock و Yogo را می خوانم که مقادیر بحرانی را جدول بندی کرده اند و تفسیر موارد زیر را در یادداشت جدول متوجه نمی شوم: حداکثر اندازه مورد نظر (r) یک آزمون والد 5٪ از β = β0 همچنین، آیا تستهای اندرسون CC، کرگ-دونالد، یا KP برای شناسایی کمتر در یک مدل تازه شناسایی شده با تنها یک درونزا استفاده میشود. متغیر بنابراین هیچ رتبه ماتریسی برای آزمایش وجود ندارد. همچنین کسی می تواند آزمایش دیگری را پیشنهاد دهد؟ | تفسیر اهمیت آماره F-Cragg-Donald برای ابزارهای ضعیف |
56409 | در حال حاضر من روی استادم کار می کنم که در مورد بازدهی اضافی (نسبت شارپ) REIT آسیایی است. من فقط تمام داده ها را به متغیرهایی تبدیل کردم که آماده استفاده در SPSS هستند. در دادههای پانل مقداری از ارزش وجود دارد که دلیل آن شرکتهایی است که فهرستی در فهرست نداشتند. 2002 اما در 2005 انجام دهید. در این مورد من شناسه ها (کدهای cusip) را گذاشتم اما فضایی برای داده های از دست رفته دارم. قبل از انجام یک رگرسیون اثر ثابت (روش LSDV) داده ها را برای نرمال بودن، چولگی و کشیدگی بررسی می کنم. اینجاست که من گیج می شوم، زیرا برخی از متغیرها کشش بالا (38.024) و چولگی (5.480) را نشان می دهند. من با گرفتن ln همه متغیرها، آن را تبدیل کردم. نمودارهای QQ و هیستوگرام ها بهبود یافتند اما نه همه. اما آیا عاقلانه است که حتی LN را بگیرم، زیرا برخی از مقادیر منفی هستند. گرفتن LN منجر به مقادیر خالی می شود. برای بهبود چولگی و کشیدگی چه کار دیگری می توانم انجام دهم؟ ریشه مربع را نیز نمی توان از اعداد منفی گرفت و اگر درست می گویم، اگر یک متغیر تنظیم شود، همه متغیرهای مجموعه داده باید تنظیم شوند. هنگام تجزیه و تحلیل برای موارد پرت، من از قاعده برچسب گذاری پرت پیشنهاد شده توسط توکی و همکاران (1986) استفاده می کنم. مطابق با آنچه مقاله توصیه می کند، مقدار G روی 2.2 تنظیم شده است. اما این منجر به مقدار بسیار زیادی از نقاط پرت می شود. اگرچه اولیه ها نماینده نیستند، می ترسم که مجبور باشم (در برخی موارد) بیش از 20 مشاهده را حذف کنم، در حالی که میانگین مقدار هر متغیر حدود 800 است. می توانم مقدار G را کاهش دهم. آیا این درست است؟ پیشاپیش ممنون هنک | کشیدگی، چولگی و پرت بالا |
9931 | من مشکلی دارم که باید رگرسیون خطی را با ورود نمونه ها محاسبه کنم. آیا فرمولی وجود دارد که بتوانم از آن برای بدست آوردن رگرسیون خطی متحرک با وزن نمایی استفاده کنم؟ مطمئن نیستم که این همان چیزی است که شما آن را می نامید. | رگرسیون خطی متحرک با وزن نمایی |
99964 | من پیشینه آماری ندارم اما سعی می کنم با استفاده از یک مثال عملی قضیه بیز را درک کنم. در مثال خود من قصد دارم از قضیه بیز برای محاسبه تعداد دفعات قرار گرفتن دو کلمه در کنار یکدیگر استفاده کنم. من اساساً مقداری متن بزرگ دارم و قصد دارم از فرمول قبلی استفاده کنم: احتمال اینکه این به دنبال است باشد = (احتمالاً کلمه این با است همراه شود) * (احتمال کلمه این) / (احتمال کلمه است) و من احتمال یک کلمه را به این صورت محاسبه می کنم: P(word) = (#تعداد بار کلمه رخ می دهد) / (کل #کلمه) و در آخر بعد از I این را در مجموعه داده اولیه من محاسبه کنید، من قصد دارم احتمال خود را به صورت زیر به روز کنم: احتمال = (احتمال قدیمی) * (احتمال جدید) آیا این درست به نظر می رسد؟ من واقعا قدردان هر بازخوردی هستم. | کاربرد قانون بیز - رابطه بین یک جفت کلمه |
24837 | من سعی میکنم در طول زمان با دادهها یک رگرسیون انجام دهم، و در مواردی که گمان میکنم ممکن است یک مؤلفه تاخیر در رابطه بین متغیرهای وابسته و مستقل من وجود داشته باشد. من در واقع برخی از دادههای آنلاین را در اینجا پیدا کردهام که حداقل نمونه خوبی از sales<-data.frame(Quarter=1:8, Sales=c(16850, 12010, 14740, 13890, 12950, 15640, 14960, 13630), Newspaper =c(1000، 500، 2000، 1000، 1000، 500، 1000، 500)، تلویزیون=c(500، 500، 500، 1000، 500، 1000، 1000، 1500)، آنلاین=c(1500، 500، 500، 500، 500 500)) lm(داده=فروش، فروش ~ روزنامه+تلویزیون+آنلاین) بنابراین داده هایی که من پیدا کردم ارقام فروش در هر سه ماهه و هزینه تبلیغات منطبق است، اما من انتظار دارم که بین تبلیغات و خریدها فاصله وجود داشته باشد. چگونه می توانم آن را در این داده ها مدل کنم؟ | چگونه تاخیر را در یک رگرسیون ساده در R محاسبه کنیم؟ |
49833 | همانطور که عنوان قبلاً بیان می کند، من متعجبم که دقیقاً به چه داده هایی از «svmstruct» MATLAB نیاز است تا بتوان یک نمونه جدید را خارج از MATLAB طبقه بندی کرد، به عنوان مثال. در پایتون یا c++. من مطمئناً نیاز دارم: * خود «SupportVectors» (برای محاسبه فاصله با استفاده از تابع هسته). * تابع هسته (شامل پارامتر[ها) منتقل شد / بازنویسی شد * تعصب اکنون در مورد 'ScaleData'، 'Alpha' و 'SupportVetorindices' مطمئن نیستم... آیا آنها مورد نیاز هستند؟ آیا در اینجا فاقد درک پایه هستم؟ | چه داده هایی از svmstruct MATLAB برای طبقه بندی در زبان های مختلف مورد نیاز است؟ |
56401 | من یک سوال در مورد استفاده از فاما و فاکتور فرانسوی دارم. من در حال حاضر در حال بررسی تفاوت های احتمالی در درآمدهای غیرعادی بین انواع مختلف پرتفوی املاک و مستغلات هستم. برای مقابله با انتقاد رول (1977) در مورد استفاده از بتا برای تخمین درجه عملکرد بهتر پورتفولیو، چند رویکرد را شامل میشود. دو ساختار مختلف نمونه کارها استفاده می شود: 1. ارزش; 2. و به طور مساوی از چهار شاخص مختلف بازار استفاده می شود: 1. شاخص وزنی ارزش CRSP، 2. شاخص وزنی ارزش سهام CRSP / Ziman، 3. شاخص دارای سقف کوچک، 4. و شاخص S&P 500. اولین سوال من این است: **آیا می توان از فاکتورهای FF (وزن دار ارزشی) با حرکت برای تخمین عملکرد بهتر دو پرتفوی مختلف استفاده کرد، زیرا یکی از آنها دارای وزن مساوی و دیگری وزن دار ارزشی است؟** مورد دیگر چهار نمونه است؟ معیارهای مختلف سه بازده اول بر اساس سهام NYSE، AMEX و NASDAQ است، همان چهار عامل دانلود شده از کتابخانه داده Kenneth K French. با این حال، این مورد برای معیار S&P 500 صادق نخواهد بود. بنابراین، سوال دوم من این است: **آیا هنوز استفاده از این چهار عامل مفید است یا باید آنها را به صورت دستی با داده های سهام S&P 500 محاسبه کنم؟** | چگونه می توان Fama&French را با تکانه برای تخمین درجه عملکرد بهتر به درستی اعمال کرد؟ |
99962 | من سعی می کنم با استفاده از R. Historical.stats <- ddply (تاریخی، .(شرکت، مشتری)، خلاصه، میانگین= میانگین (فروش)، حد پایین = چندک (فروش، 05) تغییرات را در فروش مشتریان از هفته به هفته مشاهده کنم. ,higherlimit = quantile (Sales,.95) pval=t.test(Sales,data=Historical)$p.value) اولین تلاش من برای انجام این کار استفاده از Quantile و سپس ادغام با داده های هفته جاری توسط شرکت و مشتری بود. سپس بررسی میکنم که آیا فروش این هفته بالاتر است یا پایینتر از چندکهای پایینتر و بالاتر. dat <- merge(CurrentWeek, Historical.stats, by = c(Company,Customer)) dat$plot <- ifelse((dat$Sales< dat$lowerlimit | dat$Sales> dat$higherlimit) ,1 0) پس از انجام تحقیقات بیشتر، بهتر است از چیزی مانند تست لوین، آزمون t.test استاندارد یا نوعی ANOVA استفاده کنید. روشی برای انجام این نوع تشخیص ناهنجاری می دانم که نمی توانم فصلی یا تعطیلات را در نظر بگیرم. نمونه داده شرکت مشتری هفته فروش شرکت A مشتری 1 05/07/2014 100 شرکت A مشتری 2 05/07/2014 50 شرکت B مشتری 1 05/07/2014 200 شرکت B مشتری 2 05/07/2014 1150 مشتری A 1393/05/14 20 شرکت الف مشتری 2 2014/05/14 20 شرکت B مشتری 1 14/05/2014 100 شرکت B مشتری 2 2014/05/14 50 | مقایسه میانگین 6 هفته با هفته های فعلی واقعی |
25740 | نسبت بهینه مورد/ شاهد در مطالعه مورد-شاهدی چقدر است؟ چرا بیشتر کتاب های درسی یا تک نگاری ها بیش از 1 است؟ آیا می تواند کمتر از 1 باشد (چه اشکالاتی دارد؟)؟ متشکرم. | نسبت بهینه مورد / شاهد در مطالعه مورد-شاهدی |
26094 | من با استفاده از عبارت نسبتاً استاندارد، مقداری برازش انجام دادهام، $$\chi^2 = \sum_i \frac{(y_{i} - F(x_{i}, \theta))^2}{\sigma_{i} ^{2}}$$ که در آن y داده های اندازه گیری شده من است، $\sigma$ عدم قطعیت تجربی و $\theta$ پارامتری است که من تخمین می زنم. من می دانم که در واقع داده های من مستقل نیستند و می توانم خطاهای مرتبط داشته باشم. آیا روش استانداردی برای توسعه مدل دقیق تر با در نظر گرفتن خطاها و خطاهای مرتبط وجود دارد؟ من نکاتی از فیزیک انرژی بالا مانند http://www.desy.de/~blobel/banff.pdf پیدا کرده ام. | $\chi^2$ برازش با خطاهای مرتبط |
99967 | تفاوت بین شبکه های عصبی مکرر و شبکه های هاپفیلد چیست یا آنها یکسان هستند؟ | شبکه های عصبی بازگشتی در مقابل هاپفیلد |
21846 | من سعی میکنم طنین را اندازهگیری کنم تا بتوانم در مورد یک متغیر صحبت کنم - و تأثیر آن بر خودش در واحدهای بعدی زمان و تأثیر آن بر سایر متغیرها. برای مثال «var1» یک رویداد خواهد داشت که در آن 20 واحد در روز اول تولید میکند. من می خواهم تجزیه و تحلیل کنم که چه اتفاقی برای var1 در روز دوم، روز سوم و غیره می افتد. اما همچنین آنچه برای «var 2» در روز اول، روز دوم و غیره اتفاق میافتد. اندازه گیری های من به این صورت است: `var1: 20,19,17...`, `var2: 15,15,16...`, بهترین راه برای انجام این کار چیست؟ (هر بسته R مفیدی نیز عالی خواهد بود) * * * ویرایش: منظور من از طنین در مورد من این است. یک تبلیغ تلویزیونی در روز دوشنبه نمایش داده می شود. من می توانم تأثیر آن را اندازه گیری کنم، اما چگونه می توانم آن را در چند روز آینده مدل کنم. همچنین، زمانی که آن تبلیغ در روز دوشنبه اجرا شود، احتمالاً بازدیدهای اینترنتی بیشتری نیز وجود خواهد داشت (که من می توانم اندازه گیری کنم). چگونه می توانم رابطه با تبلیغ تلویزیونی را مدل کنم و اثر آن چقدر طول می کشد. داشتم به تحلیل بقا یا چیزی در همین راستا فکر می کردم. اما من با تجزیه و تحلیل بقا در سطح ویکی پدیا آشنا هستم. * * * ممنون | تجزیه و تحلیل طنین |
64999 | من یک متاآنالیز نمرات نهایی را تکمیل کرده ام (مقایسه میانگین ها در پس آزمون). با این حال، من متوجه شده ام که علیرغم تصادفی شدن، تفاوت هایی در پایه وجود دارد و یافته ها را مغرضانه می کند. آیا میتوانم میانگینهای تعدیلشده هممتغیر (در جایی که گزارش شده) و میانگین نمرات نهایی را در یک فراترکیب ترکیب کنم؟ | چگونه تفاوتهای میانگین استاندارد شده با متغیرهای کمکی و میانگین استاندارد تعدیلنشده را در متاآنالیز ترکیب کنیم؟ |
25748 | برخی از دستورالعمل های مفید برای آزمایش پارامترها (یعنی عمق تعامل، کوچک، نرخ نمونه و غیره) با استفاده از GBM چیست؟ فرض کنید من 70 تا 100 ویژگی دارم، جمعیتی 200000 نفری دارم و قصد دارم عمق تعامل 3 و 4 را آزمایش کنم. واضح است که باید آزمایشی انجام دهم تا ببینم چه ترکیبی از پارامترها بهترین عملکرد را در خارج از نمونه دارد. آیا پیشنهادی در مورد نحوه نزدیک شدن به این طرح آزمون دارید؟ | چند دستورالعمل مفید برای پارامترهای GBM چیست؟ |
57758 | این احتمالاً یک سؤال احمقانه است، اما چگونه می توانم ANOVA را تنها با استفاده از میانگین، انحراف استاندارد و اندازه نمونه اجرا کنم؟ یعنی میانگین گروهی sd n 1: 200 5 5 2: 100 22 5 3: 150 14 5 من از نرم افزار Statsoft Statistica استفاده می کنم. من می دانم چگونه آن را با استفاده از صفحه گسترده با تمام داده ها اجرا کنم، اما هرگز این کار را فقط با استفاده از اطلاعات ذکر شده در بالا انجام نداده ام. هر گونه اطلاعات بسیار قدردانی خواهد شد. | تجزیه و تحلیل ANOVA تنها با میانگین و انحراف معیار |
110522 | لطفاً کسی می تواند به من کمک کند تا بررسی کنم که مدل های AR با خطاهای GARCH دارای چگالی طیفی مثبت و محدود هستند؟ | آیا مدلهای AR با خطای GARCH چگالی طیفی مثبتی دارند؟ |
24839 | من از توزیع Zipf-Mandelbrot در کارم طبق تعریف آن در ویکیپدیا استفاده میکنم: http://en.wikipedia.org/wiki/Zipf%E2%80%93Mandelbrot_law. من می خواهم استناد مقاله یا کتابی را که آن را معرفی می کند، دریافت کنم. | استناد توزیع Zipf-Mandelbrot |
21843 | من یک مجموعه داده دارم که میخواهم آن را مدل کنم، و به نظر میرسد بهترین مدل به این شکل باشد: $y = (\beta_1 x_1 + \beta_2 x_2 + \beta_3 x_3) \cdot (\beta_4 x_4 + \beta_5 x_5 + \beta_6 x_6) + \epsilon$. $\beta_4$ تا $\beta_6$ مستقل از یکدیگر هستند و یک اثر خطی روی $y$ دارند که توسط $\beta_1$ تا $\beta_3$ تعدیل میشوند، که مستقل از یکدیگر هستند اما اثر سایر پیش بینی کننده ها من انتظار دارم که باقیمانده های مدل بالا نسبتاً عادی باشد. اگر بخواهم این مدل را در R قرار دهم، می توانم از یک روال برازش مدل غیرخطی مانند «nls()» استفاده کنم، به نظر می رسد. اما آیا رویکرد بهتری وجود دارد؟ به نظر می رسد این مدلی باشد که ممکن است یک مورد خاص با یک نام و یک رویکرد برازش بهینه باشد. آیا این است؟ | فرمول بندی و برازش یک مدل غیر خطی که شبیه محصول مدل های خطی است |
96124 | برای داده های متقارن دم سنگین، یک میانگین برش خورده یا دیگر برآوردگر قوی میانگین می تواند برآوردگر بهتری از میانگین نسبت به میانگین نمونه باشد. میانگین بریده شده برای توزیع اریب بایاس می شود. یک برآوردگر قوی از میانگین که برای توزیع اریب تعصب ندارد چیست؟ | برآوردگر قوی میانگین برای داده های کج |
114607 | من می خواهم نمودارهای ون متناسب با مساحت را با 3 مجموعه داده با هر نرم افزار آنلاین رایگان ترسیم کنم. من با نرم افزار eularAPE امتحان کردم اما کار نمی کند زیرا 3 مجموعه داده های من با هم همپوشانی ندارند. داده های من عبارتند از: a =45، b=20، c=12، a∩b =9، a∩c =6، b∩c= 1، a∩b∩c= 0. آیا امکان تولید نمودارهای ون متناسب وجود دارد. وقتی a∩b∩c=0؟ | آیا نرم افزاری برای ترسیم نمودارهای ون متناسب با مساحت زمانی که a∩b∩c=0 باشد وجود دارد؟ |
99961 | یک مجموعه داده $X$ متشکل از زیر مجموعههای کوچکتر را در نظر بگیرید: $X=A \cup B \cup C$، با مجموعههای دادههای جدا از $A,B,C$. به عنوان مثال: $A=\{1.0، -1.0، 0\}$، $B=\{5.0، -7.0، 2.0\}$، $C=\{1.5، -5.0، 8.0\}$ ممکن است تبدیل (مقیاس، جابجایی) $A,B,C$ به گونه ای که هرکدام به صورت جداگانه استاندارد شده اند تا میانگین=0 و std dev=1.0 داشته باشند و به طوری که $X$ نیز دارای mean=0، std dev=1.0؟ | استاندارد کردن مجموعههای دادههای فرعی، به گونهای که کل مجموعه داده استاندارد شود |
96122 | با خواندن «ماشینهای محدود شده بولتزمن برای فیلتر کردن مشارکتی» (Salakhutdinov و همکاران 2007)، نمیدانم که آیا کار بعدی در مورد استفاده از معماریهای گرافیکی و/یا عمیق برای موتورهای توصیهکننده وجود داشته است یا خیر. این مقاله برخی پسوندهای ممکن جالب را پیشنهاد میکند، مانند استفاده از RBMهای انباشته شده به جای آنهایی که تک لایه هستند. با این حال، من هیچ مقاله بعدی توسط صفحه انتشارات سالاخودینوف پیدا نکردم. | روش های گرافیکی / معماری های عمیق برای فیلتر مشترک |
114601 | من دادهها را از یک دستگاه بالینی آزمایش میکنم، دادهها با استفاده از دو روش مکمل استخراج شد. روش 1: روش موجود، 17 متغیر روش 2: روش جدید، 13 متغیر باید به صورت کمی و تصویری توضیح دهم که **محتوای اطلاعات / اطلاعات متقابل** هر دو روش یکسان است من داده های همبستگی دارم و **بعضی از متغیرها همبستگی دارند و برخی دیگر همبسته نیستند**. من به دنبال روشی شهودی برای توضیح هستم که صرف نظر از تفاوت در تعداد متغیرها بین روشهای استخراج دادهها و جهت همبستگی، اطلاعات جمعآوریشده توسط روشها قابل مقایسه هستند. لطفا نظرات خود را به من بگویید، پیشاپیش متشکرم! | چگونه می توان محتوای اطلاعاتی / اطلاعات متقابل بین دو مجموعه از متغیرها را ارزیابی کرد؟ |
96128 | وقتی یک سکه پرتاب می کنید 8 سر و 2 دم به دست می آورید. چگونه تحلیل می کنید که آیا یک سکه منصفانه است؟ مقدار p چیست؟ p-value به راحتی قابل محاسبه است و 56/1024 است. با این حال من نتوانستم قسمت دوم را حل کنم. علاوه بر این، سکه های بیشتری به این آزمایش اضافه می شود. حالا شما 10 سکه دارید. شما هر سکه را 10 بار پرتاب می کنید (در کل 100 پرتاب) و نتایج را مشاهده می کنید. آیا رویکرد خود را به روشی که عادلانه بودن سکه ها را آزمایش می کنید تغییر می دهید؟ | پرتاب سکه ارزش p |
57755 | من بیش از یک سال است که داده های سرعت باد را جمع آوری کرده ام. من می خواهم میانگین سرعت باد را با استفاده از فرمولی محاسبه کنم که در آن سرعت متوسط تابع دو پارامتر ویبول و تابع گاما است. چگونه تابع گاما را در این لحظه ارزیابی کنم؟ چه چیزی را به عنوان استدلال در نظر بگیرم؟ | چه چیزی را به عنوان آرگومان گاما در نظر می گیرم؟ |
26095 | اگر هیستوگرام زیر را داشته باشیم:  و، بخواهید آن را بر اساس یکی از گزینه های زیر توصیف کنید، به نظر شما کدام یک درست است؟ چرا؟ 1. دارای انحراف مثبت 2. متقارن 3. هیچکدام از موارد بالا 4. دارای انحراف منفی پیشنهاد اولیه من 3. هیچ یک از موارد بالا خواهد بود. نظر شما چیست؟ با تشکر | شکل توزیع هیستوگرام |
21568 | من از رگرسیون SoftMax برای یک مشکل طبقه بندی چند طبقه استفاده می کنم. من برای هر یک از کلاس ها احتمال قبلی مساوی ندارم. من از رگرسیون لجستیک (رگرسیون softmax با 2 کلاس) می دانم که احتمالات قبلی کلاس ها به طور ضمنی به بایاس اضافه می شود ($\log(p_0/p_1)$). معمولاً کاری که من انجام می دهم این است که این اصطلاح را از تعصب حذف کنید. سوال من این است که اصطلاح مربوطه در بایاس رگرسیون سافت مکس چیست؟ با تشکر | سوگیری رگرسیون سافت مکس و احتمالات قبلی برای کلاس های نابرابر |
9937 | در یک قاب داده، من میخواهم فهرست ستون را با نام دریافت کنم. به عنوان مثال: x <- data.frame(foo=c('a','b','c'),bar=c(4,5,6),quux=c(4,5,6)) I می خواهم شاخص ستون نوار را بدانم. من به موارد زیر رسیدم اما بیظرافت به نظر میرسد. آیا ساختار ساده تری وجود دارد که من آن را از دست داده باشم؟ seq(1,length(names(x)))[names(x) == bar] [1] 2 | یافتن نمایه ستون با نام آن در R |
64993 | ما اطلاعات غربالگری هزاران بیمار را داریم که چندین سال دنبال شده اند. ما همچنین پیامدهای سرطانی آنها را داریم، خواه چنین سرطان هایی با غربالگری شناسایی شده باشند یا علائم دیگری داشته باشند. برونزا برای این سوال، این سوال است که مردم چگونه نمایش می دهند. به طور کلی این یک سوال سخت است، زیرا عوامل متعددی وجود دارد که تعیین می کند چگونه / چرا / چه زمانی افراد نمایش داده می شوند. این ایده مربوط به پیشبینی زمان غربالگری یک فرد مشروط به سابقه غربالگری است. معمولاً نرخ ها تنها معیاری هستند که برای توصیف چنین الگوهایی استفاده می شود. که با محاسبه مخرج کل زمان ریسک انجام می شود. اما ممکن است پیچیده تر از این باشد. همانطور که می دانیم، فرآیندهایی که زمان بین ورود را تعیین می کنند می توانند در واقع بسیار پیچیده باشند. اینکه آیا آنها وابسته هستند یا تقریباً مارکوف مهم است. علاوه بر این، مایلیم بدانیم که شکل چگالی زمانهای بین ورود چیست و آیا ویژگیهای متمایز مشترکی مانند دووجه بودن در آن دادهها وجود دارد یا خیر. با این حال، یک رویکرد پارامتریک می تواند در واقع کاملاً محدود باشد. و به نظر می رسد آزمایش ساختاری فرضیات در حین ساخت مدل های پیچیده به اندازه کافی برای تعیین تفاوت ها، خطای نوع 1 را تا حد زیادی افزایش می دهد. آیا یک مدل عمومی مارکوف یا رویکرد یادگیری بدون نظارت وجود دارد که بتوان از آن برای شناسایی خوشههایی از سریهای زمان که از یکدیگر متمایز هستند به شکل کلیتری نسبت به نرخها استفاده کرد؟ | خوشه بندی تک متغیره برای کوهورت طولی |
106325 | من می خواهم فاصله جفریز- ماتوزیتا را روی 14 باند طیفی اجرا کنم. آیا کسی هست که بتواند در مورد نحوه انجام آن در R کمک کند؟ متشکرم. | فاصله جفریس ماتوزیتا برای 14 متغیر |
106324 | اجازه دهید $z$ یک متغیر تصادفی با PDF باشد: $f_z= Cz^{k-1}(1-\frac{z}{d})^bF(-a+k+1,b;b+1;1- \frac{z}{d})$، که $0\leq z \leq d$، $F$ تابع Hypergeometric است، $k$ یک عدد صحیح مثبت است، $-a+k+1 >0$، $C $ ثابت است و $a,b$ 2 عدد مثبت واقعی هستند. لطفاً من باید یک فرم بسته از تابع تولید لحظه $z$ را محاسبه کنم. | تابع تولید لحظه اگر PDF $f_z= Cz^{k-1}(1-\frac{z}{d})^bF(-a+k+1,b;b+1;1-\frac{ باشد. z}{d})$ |
3584 | من یک مجموعه داده دارم که از افراد میپرسد آیا به مکان خاصی رفتهاند (مثلاً A، B، C، D)، و میتوانند بیش از یک انتخاب داشته باشند، سپس یک نمونه از بینی آنها گرفته میشود تا ببینند آیا آنها به برخی از مکانها آلوده هستند یا خیر. بیماری. من باید خطر نسبی عفونت را برای کسی که به یک مکان خاص می رود، دریابم، در حال حاضر فقط می توانم به رگرسیون لجستیک فکر کنم، آیا پیشنهاد دیگری وجود دارد؟ با تشکر | چگونه با سوال نظرسنجی با چند پاسخ برخورد کنیم؟ |
106320 | من از تابع R lme (بسته nlme) برای ساخت مدل های مختلط خطی، با یک اثر تصادفی منفرد (به عنوان یک برش تصادفی) و یک ساختار واریانس متغیر بر روی یک اثر ثابت (که یک عامل است) استفاده کرده ام. داده ها از یک ماهیگیری تجاری است و من به دنبال این هستم که ببینم مهمترین متغیرهایی که باید برای این ماهیگیری گزارش شوند کدامند. من 3 متغیر بیولوژیکی دارم (قد کل، وزن، نسبت ماده ها) و دو متغیر عملیاتی (تلاش و فصل) (متاسفانه نمی توانم داده هایم را به دلیل محرمانه بودن پست کنم و نتوانستم مشکلم را با داده های ساختگی بازتولید کنم) . من از AICc برای انتخاب «بهترین» مدلها از فهرست مدلهای پیشینی استفاده کردهام و اکنون در حال محاسبه مقادیر مربع R از هر یک از «بهترین» مدلها هستم (با استفاده از کد https://github.com/ jslefche/rsquared.glmer/blob/master/rsquaredglmm.R از پست وبلاگ http://jonlefcheck.net/2013/03/13/r2-for-linear-mixed-effects- models/ و برگرفته از Nakagawa and Schielzeth (2013) r2 for GLMMs). من 6 مدل با AICc < 10 دارم و از آن به عنوان برش استفاده کرده ام زیرا تعداد متعادلی از مدل ها را به من می دهد تا اهمیت نسبی هر متغیر مورد علاقه را با استفاده از مجموع وزن های آکایک (هدف مدل سازی) محاسبه کنم. ). با این حال، مقادیر مربع R برای «بهترین» مدلهای من (وزنهای Akaike بین 0.5-0.8؛ R^2$ حاشیه = 0.48) از مدلی با تمام جلوههای ثابت من (وزنهای Akaike 0.00؛ R2^$ حاشیهای) کمتر است. = 0.89). من دوباره انتخاب مدل را با استفاده از BIC اجرا کردم و با همان مشکل مواجه شدم. سوال من این است: آیا اکثر مدلهای «بهترین» مدلهایی هستند که دارای ارزش R^2$ کمتر (و AICc کمتر) هستند یا مقادیر R2 بالاتر اما مقادیر AICc بالاتری دارند؟ | «بهترین» مدل انتخاب شده با AICc دارای مربع R^2$ کمتر از مدل کامل/جهانی است. |
103583 | بررسی های تشخیصی باقیمانده های ARMA-GARCH از طریق تست های Box-Ljung. مطمئن نیستم که از درجات آزادی درست استفاده کنم یا نه. یک مثال دلخواه: ARMA(0,1)-eGARCH(2,1)-SkewedStudent's-t. خروجی: Estimate Std. خطای t مقدار Pr(>|t|) mu 0.000418 0.000115 3.62471 0.000289 ma1 0.013034 0.009898 1.31689 0.187877 omega -0.150288 -0.150289 0.000000 آلفا1 -0.177460 0.017078 -10.39099 0.000000 آلفا2 0.110598 0.016937 6.52996 0.000000 بتای 1 0.9820000 . 0.000000 گاما1 0.018616 0.025403 0.73284 0.463655 گاما2 0.153550 0.026689 5.75323 0.000000 0.000000 0.000000 0.919474781 0.000000 شکل 9.399434 0.795150 11.82095 0.000000 با فرض اینکه من تمام پارامترها را در مدل نگه دارم (همچنین موارد ناچیز) من میتوانم همبستگی خودکار را در باقیماندههای استاندارد شده برای برخی از آزمونهای تاخیر (e.x1-ang (e.x1-ang) آزمایش کنم. درجه آزادی (به دلیل تنها یک MA-Lag). من با استفاده از آزمون Box-Ljung با درجه آزادی 3-3 (2 ARCH-lag و 1 GARCH-lag که مجموعاً 3 می شود) خود همبستگی را در باقیمانده های استاندارد شده مربع برای برخی تاخیرها (مثلاً 5،10) آزمایش خواهم کرد. ). آیا از df استفاده شده موارد صحیحی است؟ یا باید تمام 5 پارامتر مدل eGARCH و 2 پارامتر را برای توزیع در نظر بگیرم؟ اگر برخی از پارامترهای ناچیز را صفر کنم، آیا این روی df تأثیر می گذارد؟ فقط توصیه هایی برای موارد ساده مانند GARCH (1،1) با نوآوری های معمولی در ادبیات یافت شده است. خیلی ممنون!!! | درجات آزادی Box-Ljung برای بقایای مدل پیشرفته GARCH مانند |
21844 | من یک کد جاوا دارم که یک رگرسیون خطی را روی مجموعه ای از داده ها با استفاده از حذف Gauss-Jordan انجام می دهد. توابع خطی، درجه دوم و مکعبی را با استفاده از روش حداقل مربعات محاسبه می کند. مشکل من انتخاب تابعی از بین سه تابعی است که داده های من را به بهترین شکل مدل می کند. این البته بدون ترسیم منحنی است. بنابراین فرض کنید من مجموعهای از دادههای «{x:1،2،3،4} {y:3،8،910}» دارم و یک تابع خطی، درجه دوم و مکعبی برای آن با استفاده از روش حداقل مربعات دریافت میکنم. چگونه می توانم مدل مناسب برای داده های من را انتخاب کنم؟ | انتخاب بهترین مدل بر اساس برازش خطی، درجه دوم و مکعبی داده ها |
106328 | من در حال انجام یک پروژه روانشناسی هستم و با آمار (SPSS) به خصوص در مورد تجزیه و تحلیل مدیتیشن درگیر هستم. من تمام یادداشت هایم را از مدرک لیسانس خود جستجو کرده ام، اما هیچ چیزی در مورد تحلیل های مدیتیشن وجود ندارد. تقریباً هیچ مرحله ای نشان داده نشده است، فقط نتایج در تمام مجلاتی که از وب آو ساینس خوانده ام ارائه شده است. من همچنین در مورد وارد کردن متغیرها گیج شده ام (تغییرات زیادی وجود دارد). من از بخش خود کمک خواستم، اما کمک های ارائه شده در هنگام نمره گذاری در نظر گرفته می شود. | کمک به تجزیه و تحلیل میانجی SPSS |
57752 | من کاربر جدید تحلیل مولفه اصلی (PCA) هستم و شک بزرگی دارم. من 32 مشاهده با 45 متغیر دارم و می دانم که نمی توانم از PCA ساده برای این تحلیل استفاده کنم (n < p). با این حال، من می خواهم از این 32 مورد (افراد) برای یک سال استفاده کنم (مثلاً 2008) و سپس می خواهم یک جدول با همان 32 مورد اما برای سال های 2009، 2010، 2011 و 2012 ایجاد کنم. بنابراین، آیا می توان آن را ساخت تجزیه و تحلیل خوبی از PCA انجام آن؟ و همچنین، آیا می توانم مدل را هر سال فقط با اضافه کردن 32 مورد جدید برای هر سال بهبود یا بازسازی کنم؟ یا چیکار میتونم بکنم | PCA با موارد مشابه در دوره های زمانی مختلف |
106321 | من علائم حیاتی زیادی را از بیماران بخش اورژانس جمعآوری میکنم و میخواهم ارزیابی کنم که آیا ویژگیهای مختلف توزیعهای قابل توجهی متفاوتی دارند یا خیر. به عنوان مثال برای ضربان قلب من 888.424 اندازه گیری (ذخیره شده در all_hr) برای همه بیماران و 321.357 اندازه گیری برای بیماران سالمند (ذخیره شده در g_hr) دارم. بازده آمار خلاصه: خلاصه (all_hr$hr) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 2.00 74.00 87.00 88.56 101.00 242.00 خلاصه (g_hr$hr) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 2.00 72.00 85.00 87.77 100.00 207.00 هنگام ترسیم ecdfs برای این نمونهها میتوانم: برای استفاده از Kolgomorov-Smirnov ks.test() تابع در R برای این: ks.test(all_hr$hr,g_hr$hr,alternative=two.sided) داده های آزمون کولموگروف-اسمیرنوف دو نمونه: all_hr$hr و g_hr$hr D = 0.0289، p-value < 2.2e-16 فرضیه جایگزین: دو طرفه هشدار: در ks.test(all_hr$hr، g_hr$hr، جایگزین = دو طرفه) : مقادیر p در حضور پیوندها تقریبی خواهد بود بنابراین تا آنجایی که من این آزمون را درک می کنم، این فرضیه که نمونه ها از توزیع های مختلف هستند درست است؟ اکنون، من نیز رویکرد مشابهی را امتحان کرده ام، اما در عوض بیماران را بر اساس بخش های تخصصی گروه بندی کرده ام. به عنوان مثال این دو ecdfs دو توزیع نمونه 6000 تصادفی برای بیماران عصبی و گوارشی است:  با این حال، هنگام اجرای ks.test در این دو نمونه، من نیز همان نتیجه را دریافت می کنم ks.test(N.vs.hr.rs$hr,S.vs.hr.rs$hr,alternative=two.sided) دو نمونه داده های آزمون کولموگروف-اسمیرنوف: N.vs.hr.rs$hr و S.vs.hr.rs$hr D = 0.6307، p-value < 2.2e-16 فرضیه جایگزین: دو طرفه Warninf: در ks.test (N.vs.hr.rs$hr، S.vs.hr.rs$hr، جایگزین = دو طرفه) : مقادیر p در حضور پیوندها تقریبی خواهند بود بنابراین، به طور خلاصه.. آیا این آزمون روشی معتبر برای اثبات تفاوت در توزیع هاست؟ و آیا نباید با این واقعیت که دو نمودار ecdf بسیار متفاوت نتایج ks.test یکسانی به دست میدهند، مناقشهای نداشته باشم؟ | کولموگروف-اسمیرنوف از دو نمونه ضربان قلب |
99969 | یک مقاله چهار سوال تحقیقاتی میپرسد که با اندازهگیری صفت نهفته _x_، یک متغیر پیوسته که از طریق یادگیری یا تمرین به دست میآید، و سرعتی که با آن دانش یا مهارت میتواند در گروه بزرگی از شرکتکنندگان مورد استفاده قرار گیرد ($n) میپرسد. = 500 دلار). دو سؤال اول تحقیق عبارتند از: 1. آیا تفاوتی در زمان پاسخگویی بین گروههای با صفت x متفاوت وجود دارد؟ 2. چه ارتباطی بین زمان پاسخ و صفت x_ وجود دارد؟ آزمودنی ها بر اساس عملکرد آنها در آزمون _ صفت x_ به گروه های مرجع در RQ1 _post hoc_ اختصاص داده می شوند. به نظر من اگر بین زمان پاسخ و صفت x_ همبستگی وجود داشته باشد، می توان همیشه گروه بندی را به گونه ای پیدا کرد که از نظر آماری تفاوت معنی داری بین گروه ها وجود داشته باشد. بنابراین، سؤالات من عبارتند از: 1. آیا کسی می تواند به من توضیح دهد که چرا هر دو سؤال باید پرسیده شوند؟ 2. آیا یک اشتباه آماری اساسی در اینجا وجود دارد یا من در تفکرم بیش از حد ساده هستم؟ ویرایش ### این ویژگی میتواند هر ویژگی نهفته اندازهگیری شده از نظر روانسنجی باشد، اما من اغلب دیدهام که این دو سؤال به طور همزمان در مقالات مختلفی ظاهر میشوند، جایی که چیزی از طریق یادگیری یا تمرین، مانند آموزش یا زبانشناسی کاربردی، به دست آمده است. در این مثال، ممکن است چیزی بیاهمیت باشد، مانند توانایی انتخاب صحیح نام یک فرد مشهور در یک عکس از لیست نامهای احتمالی. با توجه به آنچه من متوجه شدم، یکی از مشکلات اصلی در مورد سوال اول، گسست دلخواه یک متغیر پیوسته (خصلت _x_) است که منجر به از دست دادن اطلاعات و سوگیری احتمالی از طریق بنها/آستانههای دلخواه ایجاد میشود. آیا این درست است؟ آیا مشکلات دیگری در اینجا رخ می دهد؟ ### مثال زندگی واقعی من در ارائه یک مثال_واقعی مردد بودهام، زیرا پاسخها معمولاً بر جزئیات تمرکز دارند، در حالی که من سعی میکردم تعمیم دهم، اما اینجا یکی است. دو سوال تحقیق وجود دارد: 1. حجم واژگان دانش آموزان اول دانشگاه چقدر است و درک مطلب آنها چقدر خوب است؟ 2. آیا دانش واژگان و دانش محتوایی دانشجویان دانشگاه بر درک مطلب آنها تأثیر می گذارد؟ محقق آزمون درک مطلب، اندازه واژگان و دانش محتوا را اجرا می کند. نادیده گرفتن RQ1 دو لول، تا اینجا بسیار خوب است. اما این قسمتی است که من نمی توانم بفهمم (که شبیه به سوال انتزاعی تر من در بالا است): تجزیه و تحلیل شامل: تحلیل همبستگی متغیرها دانش واژگان دانش محتوا ----------------- ----- -------------------- ----------------- درک مطلب .70** 0.41** دانش واژگان 0.22** **p <.01 (دو دنباله) مقایسه گروه ها بر اساس عملکرد آزمون اندازه واژگان درک مطلب دانش محتوا میانگین SD t df میانگین SD t df ------- ---------------------------------- ----------------------- بالا (n = 83) 20.34 6.18 12.25** 244 30.10 4.31 2.06 192 زیر (n = 163) 11.23 ** 5.82 5.15 . p ≦ 0.01 و a مدل رگرسیون چندگانه مجموع مربعات df میانگین مربع F ---------- -------------- ---- ------------ ------- رگرسیون 6719.39 2 154.91 154.91** باقیمانده 5270.35 243 21.67 کل 11989.74 245 توجه. R2 = 0.56 ** p < 0.01 من به سادگی نمی توانم بفهمم که چگونه آزمون دوم (آزمون _t_) حتی توجیه می شود، زیرا گروه ها از متغیری ایجاد می شوند که قبلا نشان داده شده است که با DVs در آزمون های _t_ مرتبط است. . آیا این یک نتیجه گیری قبلی نیست؟ _note:_ متوجه می شوم که مطالعه به خصوص خوب نیست و با توجه به رگرسیون چندگانه، هم آزمون _t_ و هم همبستگی حتی در اینجا مرتبط نیستند، اما این صرفاً یک _مثال_ از پدیده ای است که من در مورد آن سوال می کنم. یعنی اگر قبلاً بین دو متغیر همبستگی برقرار شده باشد، آیا منطقی است که یکی از متغیرها را به صورت دلخواه در گروهها قرار دهیم و تفاوت بین گروهها را آزمایش کنیم. من اغلب تغییراتی را در این موضوع می بینم و نمی توانم بفهمم چرا توجیه شده است. | چرا همبستگی و تفاوت های گروهی را با استفاده از یک متغیر آزمایش کنیم؟ |
3586 | من سعی می کنم خطر نسبی مثبت بودن آزمایش را برای افراد بالای 25 یا <=25 محاسبه کنم و نتیجه اینجاست. $data منفی مثبت مجموع >25 115 11 126 <=25 117 3 120 مجموع 232 14 246 $measure نسبت ریسک با 95% C.I. تخمین پایین بالا > 25 1.0000000 NA NA <=25 0.2863636 0.08189025 1.001391 $ p.value دو طرفه midp.exact fisher. chi.square دقیق >25 NA NA NA <387189025 0.03500415 $correction [1] FALSE attr(روش) [1] MLE بدون قید و شرط و تقریب نرمال (Wald) CI یکی از چیزهایی که من را بسیار متحیر کرد این است که چرا از مربع chi یک نتیجه از نظر آماری معنادار دریافت می کنم (I از تست دقیق فیشر استفاده نکنید زیرا هیچ یک از مقادیر مورد انتظار کوچک از 5 نیست)، اما نسبت ریسک شامل 1، چگونه می توانم توضیح دهم؟ با تشکر ### تصحیح با عرض پوزش برای اشتباه، من داده ها را دوباره بررسی کردم و هیچ یک از سلول های مورد انتظار کوچکتر از 5 نیست. | ناسازگاری بین تخمین کای اسکو و CI با استفاده از آزمون والد |
106327 | اجازه دهید توزیعهای احتمال زیر را در نظر بگیریم X P Q Kullback Kullback_divergence 1 0.526810511 0.6557 -0.166341349 11.97922287 2 0.213080233 0.0357 0.5263019 0.5263019 0.8491 -0.130769473 4 0.088595233 0.934 -0.301057372 5 0.546739097 0.6787 -0.170539661 6 0.280595237 0.28057372 0.082491531 0.7431 -0.261600315 8 0.106326487 0.3922 -0.200222185 9 0.92608417 0.6555 0.46116969876 0.4616969876 2.028853203 11 0.122989593 0.706 -0.310072991 12 0.782494583 0.0318 3.615893457 13 0.03018272806 13 - 0.0301827280651510. 0.580645161 0.0462 2.120337307 15 0.632129887 0.0971 1.708443428 16 0.118564409 0.8235 -0.33515176 0.6948 0.501651889 18 0.139591662 0.3171 -0.165238155 19 0.668691061 0.9502 -0.338953731 20 0.83920.8392 3.868023675 میخواهم بدانم این عدد چه چیزی را به ما نشان میدهد؟ آیا این اطلاعات در مورد توزیع دوم بیان میکند؟ یا فاصله بین دو توزیع چقدر است، زیرا میدانم اگر از 1$ دور باشد، به این معنی است که آنها واقعاً متفاوت هستند، اما کدام است خوب و واقعی؟ لطفا به راهنمایی شما نیاز دارم | واگرایی KLDIV Kullback-Leibler یا Jensen-Shannon بین دو توزیع |
105785 | من مجموعه ای از داده ها دارم که میانگین سالانه حداقل و حداکثر دماهای ماهانه 32 ایستگاه در سراسر کشور از سال 1948 را دارد. طول و عرض جغرافیایی ایستگاه ها نیز آورده شده است. از من خواسته شده است که مجموعه داده ها را عمیقاً بررسی کنم و تا آنجا که می توانم تجزیه و تحلیل کنم. هدف اصلی درک روند و احتمالاً پیشبینی ارزشهای آینده است. من تجربه کمی برای کار با چنین مجموعه داده ای دارم. من معمولاً دوست دارم از R استفاده کنم. من به طور خاص سه سؤال دارم. 1) می توانم ببینم که طول و عرض جغرافیایی یک ایستگاه به ترتیب 25.72 و 89.26 است. مختصات Y و X مربوطه به صورت 844822.3 و 426172.9 محاسبه می شود. من نمی فهمم آنها این را چگونه محاسبه کرده اند. کسی میتونه توضیح بده؟ 2) چه مدلی را باید در داده ها قرار دهم تا بتوانم پیش بینی خوبی از مقادیر آینده داشته باشم؟ از آنجایی که از سال 1948 داده ها را دارم، ممکن است از مدل سری زمانی استفاده کنم، اما در اینجا اطلاعات طول و عرض جغرافیایی را نیز دارم. بنابراین آیا مدلی وجود دارد که بتواند از این اطلاعات نیز استفاده کند؟ آیا بسته خاصی در R وجود دارد که برای من مفید باشد؟ 3) آیا می توانم از R برای یافتن نمودارهای جالب یافته های خود یا آمار خلاصه های مختلف در نقشه کشور استفاده کنم؟ برخی از طرح های دو بعدی یا سه بعدی برای من عالی خواهند بود. پیشاپیش از پاسخ محبت آمیز شما سپاسگزارم. | تجزیه و تحلیل داده های مکانی در طول زمان و مکان |
3589 | در مسئلهای که روی آن کار میکنم، دو متغیر تصادفی دارم، X و Y. باید بفهمم این دو تا چه حد با هم مرتبط هستند، اما ابعاد متفاوتی دارند. رتبه فضای ردیف X 4350 است و رتبه فضای ردیف Y در ده ها هزار نفر از نظر قابل ملاحظه ای بزرگتر است. هر دو X و Y تعداد ستون های یکسانی دارند. من به معیاری از همبستگی بین دو متغیر نیاز دارم، و r پیرسون مستلزم آن است که X و Y ابعاد مساوی داشته باشند (حداقل R مستلزم این است که دو r.v باشند). آیا من امیدوار هستم که بین این دو ارتباط برقرار کنم یا باید راهی برای هرس مشاهدات از Y پیدا کنم؟ | همبستگی بین دو متغیر با اندازه نابرابر |
105439 | آیا میتوانیم از پیشبینیکنندههای ترتیبی/چندسطحی مستقیماً در مدل رگرسیون لجستیک باینری استفاده کنیم؟ من حدس می زنم نه. ما معمولاً در اینجا آنها را به چندین پیش بینی کننده تبدیل می کنیم تا مقادیر 1/0 برای هر دسته داشته باشیم. همچنین اگر متغیری با مثلاً 20 سطح داشته باشیم (مثلاً بخش هایی مانند «انرژی» «IT» «تلکام») یا فاکتورها، آیا باید برای هر نوع 20 متغیر با مقادیر 1/0 ایجاد کنیم یا راه بهتری وجود دارد؟ | آیا میتوانیم از پیشبینیکنندههای ترتیبی یا چندسطحی مستقیماً در رگرسیون لجستیک استفاده کنیم؟ |
102832 | من مطالعه ای انجام دادم که در آن می خواستم ببینم که آیا مداخله آموزشی بر یادگیری دانش آموزان تأثیر دارد یا خیر. دانشآموزان را بهطور غیرتصادفی به دو گروه کنترل و آزمایش تقسیم کردم و در ابتدای کلاس یک پیشآزمون و در پایان یک پسآزمون گذاشتم. از آنجایی که فاکتورهای بین گروهی و درون گروهی وجود دارد، من آزمون t را انجام ندادم، بلکه آزمایشی مختلط انجام دادم (قطعات تقسیم شده-ANOVA). آیا این درست است؟ خیلی ممنون. | Split plot ANOVA یا t-test |
75017 | من 2 میلیون (_user_, _item_, _category_, _score_) تاپل دارم که کاربران به آیتم هایی که به دسته ها تعلق دارند امتیاز 0/1 می دهند. من میخواهم اینها را به مجموعهای از تاپلهای ( _user_، _category_، _affinity_)، با استفاده از آیتمهایی که یک کاربر و یک دسته را پیوند میدهند، برای محاسبه آن وابستگی تبدیل کنم. دو احتمال: * نسبت امتیازات مثبت به کل امتیازات: $a_{uc} = \frac{\sum{scores}}{|scores|}$ * میانگین بیزی: $b_{uc} = \frac{C\,\ bar{a}_{uc}\,+\,\sum{scores}}{C\,+\,|امتیازات|}$ که $C$ میانگین یا میانه تعداد مورد است امتیازات هر جفت (_user_, _category_). من به میانگین بیزی متمایل هستم، زیرا با داده های پراکنده بهتر سروکار دارد - یک رای مثبت منفرد نباید به قرابت بالاتر از نه مثبت و یک منفی منجر شود - اما می توانم از برخی تحقیقات منتشر شده در مورد این مشکل برای توجیه بیزی استفاده کنم. به طور خاص میانگین، یا برای یافتن سایر اندازه گیری های ممکن. آیا شرایطی وجود دارد که باید به دنبال آن باشم که با این مشکل برخورد کند؟ | با توجه به امتیازات آیتم کاربر برای موارد طبقه بندی شده، چگونه می توان وابستگی های دسته کاربر را محاسبه کرد؟ |
106329 | اجازه دهید $X(t)$ یک فرآیند تصادفی وابسته به زمان پیوسته غیر ثابت با یک مدل شناخته شده اما پارامترهای ناشناخته باشد. میخواهم بدانم آیا میتوان پارامترهای $X(t)$ را نه با استفاده از مشاهدات مختلف یک اجرا در لحظههای مختلف $t$، بلکه با مشاهده اجراهای مختلف در لحظههای مختلف $t$ تخمین زد. آیا به همین سادگی است؟ به نظر من خیلی واضح نیست. آیا خاصیتی وجود دارد که بتوانم به آن استناد کنم؟ فرآیند تصادفی مورد بحث، انتگرال زمانی یک فرآیند Ornstein-Uhlenbeck است، اگر این مهم باشد. | برآورد پارامترهای فرآیند تصادفی غیر ثابت با استفاده از اجراهای مختلف |
64991 | موضوعات متعددی در CrossValidated با موضوع انتخاب مدل و اعتبارسنجی متقابل وجود دارد. در اینجا چند مورد وجود دارد: * اعتبارسنجی متقاطع داخلی و خارجی و انتخاب مدل * پاسخ برتر @DikranMarsupial به انتخاب ویژگی و اعتبارسنجی متقابل با این حال، پاسخهای این رشتهها نسبتاً عمومی هستند و بیشتر مسائل مربوط به رویکردهای خاص اعتبارسنجی متقابل و مدل را برجسته میکنند. انتخاب برای اینکه همه چیز تا حد امکان **بتن ریزی** باشد، مثلاً بگویید که ما با یک SVM با هسته RBF کار می کنیم: $K(x, x' ) = (\gamma \, \vert x - x'\vert) ^2$، و اینکه من مجموعه داده ای از ویژگی های **X** و برچسب های **y** دارم، و می خواهم 1. **بهترین مقادیر ممکن مدل خود را بیابم ($\gamma$ و $C$** ) 2. **آموزش SVM با مجموعه داده من (برای استقرار نهایی)** 3. **خطای تعمیم و عدم قطعیت (واریانس) را در اطراف این خطا تخمین بزنید** برای انجام این کار، من شخصا این کار را انجام می دهم. جستجوی شبکه ای، به عنوان مثال من هر ترکیب ممکنی از $C$ و $\gamma$ را امتحان می کنم. برای سادگی، میتوانیم محدودههای زیر را در نظر بگیریم: * $C \in \{10, 100, 1000\}$ * $\gamma \{0.1, 0.2, 0.5, 1.0\}$ به طور خاص با استفاده از مجموعه داده کامل من من کارهای زیر را انجام می دهم: 1. برای هر جفت ($C$,$\gamma$)، تکرارهای مکرر را انجام می دهم (مثلاً. 100 تکرار تصادفی) اعتبار سنجی متقاطع $K$-fold (به عنوان مثال $K=10$)، در مجموعه داده من، یعنی SVM خود را روی تاهای $K-1$ آموزش میدهم و خطا را در سمت چپ ارزیابی میکنم، در تمام $ها تکرار میشود. K$ تا می شود. به طور کلی، من 100 x 10 = 1000 خطای تست را جمع آوری می کنم. 2. برای هر جفت ($C$,$\gamma$)، من میانگین و واریانس آن 1000 خطای تست $\mu_M, \sigma_M$ را محاسبه میکنم. اکنون میخواهم بهترین مدل (بهترین پارامترهای هسته) را انتخاب کنم که از آن برای آموزش SVM نهایی خود بر روی مجموعه داده کامل استفاده کنم. درک من این است که انتخاب مدلی که **کمترین میانگین خطا و واریانس** $\mu_M$ و $\sigma_M$ را داشته باشد، انتخاب درستی است و اینکه $\mu_M$ این مدل $\sigma_M$ است بهترین انتخاب من است. برآورد سوگیری و واریانس خطای تعمیم مدل هنگام آموزش با مجموعه داده کامل. اما، پس از خواندن پاسخها در تاپیکهای بالا، این تصور را به دست میآورم که این روش برای انتخاب بهترین SVM برای استقرار و/یا برای تخمین خطای آن (عملکرد تعمیم)، ناقص است و راههای بهتری برای انتخاب وجود دارد. بهترین SVM و گزارش خطای آن. اگر چنین است، آنها چه هستند؟ من به دنبال پاسخ دقیق هستم لطفا. با چسبیدن به این مشکل، چگونه می توانم **بهترین مدل** را انتخاب کنم و **خطای تعمیم آن را به درستی تخمین بزنم**؟ | انتخاب مدل و اعتبارسنجی متقابل: راه درست |
104787 | علیرغم خوانشهایم (در پشته 1، 2، یا در ادبیات (کاولی، 2010؛ جاپکوویچ، 2011))، روش روشنی برای تنظیم و ارزیابی یک مدل در یک کار طبقهبندی پیدا نمیکنم. من میخواهم یک **انتخاب ویژگیها/پارامترها (مدل تنظیم)** را انجام دهم و پس از آن، یک **ارزیابی مدل** را با اعتبارسنجی متقاطع (k=10) روی کل مجموعه داده انجام دهم. بهترین استراتژی چیست؟ به طور مستقیم، من این مراحل را انجام می دهم: 1. مجموعه داده را در **validation_train** (60%)، **validation_test** (20%) و **test** (20%) تقسیم کنید. 2. تنظیم مدل را روی **validation_train** و **validation_test** پردازش کنید. 3. (2) را تکرار کنید تا به دقت خوبی برسید. 4. در نهایت، یک CV-10 برابر روی کل مجموعه داده پردازش کنید (validation_train، validation_test و test). یا، این استراتژی به یک امتیاز خیلی خوش بینانه منجر می شود؟ ## مرجع: * Cawley, G. C. & Talbot, N. L. در مورد تناسب بیش از حد در انتخاب مدل و سوگیری انتخاب بعدی در ارزیابی عملکرد مجله تحقیقات یادگیری ماشین، JMLR. org، 2010، 11، 2079-2107. * N. Japkowicz و M. Shah، ارزیابی الگوریتم های یادگیری: دیدگاه طبقه بندی، انتشارات دانشگاه کمبریج، 2011 | تنظیم مدل و ارزیابی مدل در یادگیری ماشین |
113075 | من در تلاشم تا میزان مرگ و میر را برای مردان و زنان در دو گروه بیماری مختلف (دیابت نوع 1 و 2) محاسبه کنم. در تحلیلهای اولیهام فراموش کردم از جنسیت مربوطه به عنوان جمعیت پسزمینه استفاده کنم و در عوض از کل جمعیت استفاده کردم. اکنون مسئله این است که وقتی جمعیت پیشینه را در زنان و مردان برای دیابت نوع 1 و 2 تقسیم می کنم و از این جمعیت های مرجع (به جای کل جمعیت) استفاده می کنم، نرخ بروز برای نوع 1 به شدت تغییر می کند در حالی که حتی یک اعشار در نوع تغییر نمی کند. 2 میزان مرگ و میر آیا این حتی قابل قبول است؟ واقعاً از همه کمکی که می توانم دریافت کنم سپاسگزارم! | در نظر گرفتن نرخهای بروز استاندارد شده براساس سن: آیا تغییر جمعیت مرجع، نرخهای بروز را تغییر میدهد |
57757 | من روی پروژه ای کار می کنم تا یک مقدار حفاظت از تشعشع به نام DDREF را تخمین بزنم که نسبت دو ضریب رگرسیون است. به طور خاص: $DDREF$ $=$ $a/B$ که در آن $E$ ~ $a*D+B*D^2$ $D$ دوز است و $E$ برخی از نتایج است، مانند بقا. $a$ و $B$ ضرایبی هستند که با رگرسیون تعیین می شوند. من برآوردهای مستقلی از DDREF از بسیاری از مطالعات دارم و می خواهم آنها را در یک تخمین واحد ترکیب کنم. اما من مطمئن نیستم که چگونه این کار را انجام دهم زیرا نسبت دو ضریب رگرسیون به طور معمول توزیع نشده است. آیا کسی می داند چگونه می توان یک متاآنالیز بر روی متغیرهایی که نسبت توزیع شده اند انجام داد؟ یا شاید بهتر است این سوال کلی تر را بپرسیم که چگونه می توانم یک متاآنالیز را برای تولید یک تخمین مرکزی از متغیرهایی که به طور معمول توزیع نشده اند اعمال کنم؟ | چگونه می توانم یک متاآنالیز بر روی متغیرهایی که به طور معمول توزیع نشده اند انجام دهم؟ |
58913 | من تجزیه و تحلیل رگرسیون چندگانه انجام دادم و یک مشکل کوچک در مورد تفسیر خروجی دارم. McFadden R-Square به چه معناست، اگر 0,196 باشد. چه چیزی را به من نشان می دهد؟ آیا مک فادن بهترین راه حل است یا باید دیگرانی مانند ناگلکرکه یا کاکس و اسنل را تماشا کنم. تفاوت بین این سه مورد (در کنار ارزش) چیست؟ با تشکر | میدان مک فادن آر |
104789 | من مدل زیر را دارم: $$ |X| = B_0 +B_1 \cdot y + B_2 \cdot z ، $$ که $z$ و $y$ معمولاً متغیرهای تصادفی توزیع شده اند و $B_1$ و $B_2$ نشان دهنده ضرایب هستند. متغیر وابسته من حاوی مقادیر مثبت یا منفی X$ است. مقادیر مثبت و منفی $X$ با هم معمولاً با میانگین و میانه حدود صفر توزیع می شوند. به دلایل آماری می خواهم مقادیر مثبت و منفی را جداگانه آزمایش کنم. این سمت چپ و راست متغیر معمولی توزیع شده $X$ را تقسیم می کند. این به وضوح فرض نرمال بودن مورد استفاده برای مدل های رگرسیون خطی را نقض می کند. اگر بخواهم گروه ها را با هم مقایسه کنم، از یک نوع آزمون ناپارامتریک استفاده می کنم، اما در این مورد می خواهم معادل یک رگرسیون خطی را اجرا کنم. آیا این امکان پذیر است؟ | متغیر مطلق به عنوان متغیر وابسته |
113079 | من یک مجموعه داده بیولوژیکی با 30000 ویژگی (ژن) و 1000 نقطه داده (سلول) دارم. اساساً من دو کلاس اصلی سلول دارم: 1 و 0 با توزیع 90/10. اکنون سعی می کنم با استفاده از اعتبارسنجی متقاطع تودرتو این موارد را به درستی طبقه بندی کنم. اولین کاری که من سعی کردم کاهش دستی تعداد ویژگی ها با در نظر گرفتن زیرمجموعه های مرتبط بیولوژیکی از کل مجموعه ویژگی ها (کاهش به 20 ویژگی) بود که نتایج معقولی به من می دهد (0.7 امتیاز F2). با این حال، نمیدانم که آیا از کل مجموعه ویژگیها استفاده میکنم یا خیر، زیرا نقاط داده بسیار کمتری نسبت به ویژگیها دارم. آیا این درست است که اگر از کل مجموعه ویژگی استفاده کنم، داده های خود را بیش از حد مناسب می کنم؟ و اگر چنین است، آیا راهی برای کاهش مجموعه ویژگی ها بدون دانش زیستی قبلی وجود دارد؟ خیلی ممنون تومی | با استفاده از SVM مجموعه بزرگی از ویژگی ها را مدیریت کنید |
113078 | من مجموعه ای از نقاط گسسته روی یک سطح دو بعدی دارم و باید یک نقشه حرارتی یا توزیع چگالی نقاط ایجاد کنم. با این حال، من همچنین باید چگالی/توزیع را با اعمال نوعی هسته (مثلاً هسته گاوسی) صاف کنم. من میدانم توزیع گاوسی چیست، و نمیدانم چگونه هسته گاوسی را به صورت ریاضی روی نقاط دوبعدی اعمال کنم تا بتوانم توزیع یا چگالی نقطهها را صاف کنم. من می دانم که توابعی در Wolfram برای انجام این کار وجود دارد، اما این بیشتر شبیه یک مشکل تحقیقاتی است، بنابراین باید تئوری آن را درک کنم. من یک فرد تئوری هستم و نیازی به برنامه نویسی ندارم. من فقط باید ریاضیات اساسی آن را درک کنم. لطفاً آن را برای من توضیح دهید، احتمالاً با یک مثال، یا مرا به وب سایتی ببرید که بتوانم در مورد آن مطالعه کنم. * * * من این پاسخ را دریافت کردم، اما هنوز در تلاش برای درک آن هستم: > از آنجایی که نقاط گسسته هستند، شما به سادگی هسته را به هر نقطه ترجمه کنید > و آن را بر اساس ارتفاع (مقدار) در آن نقطه مقیاس کنید، و سپس جمع کنید. نتایج > > $$f(x,y)=\sum_i \sum_j p_{i,j} f(x−x_i,y−y_j)$$ که در آن $f(x,y)$ هسته من است > و $p_{ i,j}$ مقدار نقطه $(x_i,y_j)$ است. نتیجه صاف خواهد بود زیرا مجموع محدودی از توابع صاف است. با این حال، اگر ارتفاع را در هر نقطه با $f(x−x_i,y−y_j)$ ضرب کنیم، آیا اصلاً بر چگالی تأثیر میگذارد؟ بگویید، اگر $f(x−x_i,y−y_j) > f(x−x_p,y−y_q)$ برای دو نقطه خاص $(x_i,x_j)$ و $(x_p,x_q)$، آنگاه این تغییر خواهد کرد. چگالی اولیه نسبی در $(x_i,x_j)$ و $(x_p,x_q)$. فکر می کنم اشتباه می کنم، اما نمی توانم بفهمم چرا اشتباه می کنم. شاید چیزی در خود تابع $f(x−x_i,y−y_j)$ باشد که من اشتباه متوجه شده ام. هر گونه توضیح یا پیوند به مستندات / آموزش بسیار قدردانی می شود! | نحوه اعمال هسته گاوسی برای صاف کردن چگالی نقاط در دو بعدی (از لحاظ نظری) |
104788 | من داده های زیر را دارم: رتبه بندی document1 document2 5 برخی کلمات برخی کلمات 3 برخی کلمات برخی کلمات 2 برخی کلمات برخی کلمات ستون اول رتبه بندی کاربر است و دو مورد دیگر بازخورد کاربر است که یک سند است. همچنین، «دسته» فهرستی از -1 و 1 است که مخفف منفی و مثبت برای هر ردیف است. من می خواهم پیش بینی رده را انجام دهم. من به ماتریس سند-اصطلاح فکر می کنم، پس نمی دانم چگونه رتبه بندی را نیز در پیش بینی دخالت دهم؟ کسی هست راهنماییم کنه؟ خیلی ممنون | چگونه می توان با متن کاوی و امتیاز رتبه پیش بینی کرد؟ |
112382 | بگویید من 10 سوژه دارم که از سه گروه می آیند. در هر موضوع دو اندازه گیری می کنم (یکی در سمت چپ، یکی در سمت راست). شناسه <- rep(1:10، 2) myData <- data.frame(ID) myData$Group <- rep(c('A','B'), 10) myData$Measurement <- rnorm(20، میانگین = 10، sd = 1) myData$MeasurementLocation <- c(rep('Left', 10), rep('Right', 10)) myData <- myData[with(myData, order(ID)),] با استفاده از تابع 'gee()' از بسته 'gee' در R، می توانم 'Measurement' را با ' مقایسه کنم هنگام کنترل همبستگی درون موضوعی با استفاده از «gee()»: gee(Measurement ~ Group, id = ID, data = myData) می خواهم تعیین کنید که اندازه گیری از کجا آمده است (یعنی راست در مقابل چپ). به من گفته شده است که در SPSS میتوانید یک آرگومان «WITINSUBJECT» (که فرض میکنم «myData$MeasurementLocation» در دادههای من باشد) مشخص کنید. آیا راهی برای انجام این کار با استفاده از «gee()» وجود دارد؟ اگر نه، آیا تابع/بسته دیگری وجود دارد که این امکان را فراهم کند؟ | اندازه گیری های مکرر GEE: تعیین شناسه اندازه گیری |
102835 | این شبیه به یک سوال قبلی است که هرگز پاسخ داده نشده است... تفسیر تعاملات بین داده های طبقه بندی شده... و بسیار کوتاهتر است، بنابراین اگر بخواهید به جای آن بخوانید/به آن پاسخ دهید، مشکلی نیست: من آزمایشی را انجام می دهم که در آن وجود دارد. متغیر یک پارامتر (گام زمانی [ **tt** ] - فاکتور، 5 سطح: ساعتی، 3 ساعته، 6 ساعته، 12 ساعته، روزانه)، اضافه شده در چند متغیر کمکی (محل انتشار [ **موقعیت** ]، ماه انتشار [ **m** ]) - تا اینجای کار ساده - و دارای یک متغیر پاسخ (جایی که شروع به پیچیده شدن می کند). من سعی میکنم ببینم که چگونه گام زمانی بر مسیر ذرهای که در طول زمان ردیابی میشود، تأثیر میگذارد، اما فراتر از آن، حداکثر گام زمانی را پیشنهاد میکنم که میتواند با کمترین تأثیر بر سرنوشت ذره استفاده شود. سرنوشت ذرات مفهوم پیچیده ای است که در جهت و فاصله پس از انتشار متفاوت است، بنابراین من یک متغیر پاسخ ایجاد کرده ام که در حال حاضر یک مقایسه متحرک است - یعنی فاصله از موقعیت گام زمانی روزانه، در روز (به عنوان مثال زیر [ **day_3**) ]). این به من امکان میدهد روز ردیابی را از آزمون حذف کنم که کمی به موضوع سریهای زمانی/همبستگی خودکار میپردازد، اما میدانم که باید مراقب باشم و به یاد داشته باشم که در زمانهای مختلف به ذرات مشابه نگاه میکنم و احتمالاً الگوها گم میشوند. در طول زمان به دلیل تأثیر فزاینده عوامل تصادفی. من تصور می کنم که یک مشتق ANOVA/ANCOVA آزمون مناسبی است زیرا من به دنبال تفاوت بین گروه های نمونه هستم، بنابراین من یک lm را در R اجرا کرده ام تا از ANOVA خاص سطح عامل آن استفاده کنم - در اینجا یک نمونه خروجی آمده است: > summary( lm (day_3 ~ tt + m * مکان)) تماس: lm (فرمول = روز_3 ~ tt + m * مکان) باقیمانده ها: حداقل 1Q میانه 3Q Max -6.7523 -0.3392 -0.0836 0.2803 2.4548 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 10.7602 0.7272 14.796 < 2e-16 *** tt3 -0.1765 0.4719 -0.374 0.710065 tt6 -0.4822 tt6 -0.4822 0.4023 -0.4719 -0.4719 -1.8280 0.4719 -3.874 0.000345 *** m4 0.3378 0.9438 0.358 0.722087 m7 -9.1490 0.9438 -9.694 1.36e-9.694 1.36e-12 -12 -80 *** 1.36e-12 -40 *** 1.54e-07 *** location180 -5.2777 0.9438 -5.592 1.25e-06 *** location270 -8.6343 0.9438 -9.149 7.82e-12 *** location360 -7.3264 -7.3264 - 0.76 0.9 *** m4:location180 -4.8520 1.3347 -3.635 0.000710 *** m7:location180 5.5768 1.3347 4.178 0.000133 *** m10:location180 ** 4.1863 4.1863 180 4.1863 701. m4:location270 -0.5704 1.3347 -0.427 0.671166 m7:location270 10.3842 1.3347 7.780 7.21e-10 *** m10:location270 8.831166 8.8340 1.3347 7.21e-10 *** m4:location360 -1.8426 1.3347 -1.381 0.174234 m7:location360 6.5613 1.3347 4.916 1.22e-05 *** m10:location360 ** 3.1767 1.034-3.034. Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1.335 در 45 درجه آزادی. آمار: 19.37 در 18 و 45 DF، p-value: 1.724e-15 در این مثال، از تمام مراحل زمانی، می توانید ببینید که رهگیری (ساعتی) و tt12 (12hrly) مهم است که من آن را به عنوان ساعتی متفاوت از روزانه (که یک رهگیری خواهد بود) تفسیر می کنم. صفر)، 3 ساعت و 6 ساعت هیچ تفاوتی با ساعتی ندارند و 12 ساعت با ساعتی متفاوت هستند. اما این به من نمی گوید که آیا 12 ساعت با روزانه متفاوت است؟ من دوباره تست را با مرتب کردن مجدد سطوح انجام دادم به طوری که 12hrly سطح مرجع باشد و خروجی زیر را دریافت کردم: > summary(lm(day_3 ~ tt + m * location)) Call: lm(formula = day_3 ~ tt + m * location ) باقیمانده ها: Min 1Q Median 3Q Max -6.7523 -0.3392 -0.0836 0.2803 2.4548 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 8.9322 0.7272 12.283 5.69e-16 *** tt1 1.8280 0.4719 3.874 0.000345 *** tt3 1.67015 0.4 0.67015 0.3 0.4 tt6 1.3458 0.4719 2.852 0.006538 ** m4 0.3378 0.9438 0.358 0.722087 m7 -9.1490 0.9438 -9.694 1.36 0.3378 - 12 *** -6.207 1.54e-07 *** location180 -5.2777 0.9438 -5.592 1.25e-06 *** location270 -8.6343 0.9438 -9.149 7.82e-12 *** موقعیت360 -7.394 -7.326 7.64e-10 *** m4:location180 -4.8520 1.3347 -3.635 0.000710 *** m7:location180 5.5768 1.3347 4.178 0.000133 *** m103:4.181. 0.003011 ** m4:location270 -0.5704 1.3347 -0.427 0.671166 m7:location270 10.3842 1.3347 7.780 7.21e-10 *** m10:locati | تفسیر برهمکنش سطح متغیر طبقه ای در یک مدل خطی / ANOVA |
105437 | آیا توصیه می شود در صورت ناقص بودن پاسخ ها، موارد را از پایگاه داده حذف کنید؟ آیا درصدی وجود دارد که بتوان آن را در نظر گرفت؟ (مثلاً حذف یک مورد در صورتی که بیش از 50 درصد موارد پاسخ داده نشده باشد). | پرسشنامه های ناقص |
105430 |  داده های من از یک ستون دمای واقعی و یک ستون از دمای محاسبه شده تشکیل شده است. من یک عدد واحد میخواهم که سوگیری را در دمای واقعی کمیت کند. اساساً، اگر بیشتر نقاط داده من در زیر خط رفرنس قرار داشته باشند، باید انتظار یک سوگیری منفی را داشته باشم، و اگر آنها بالای خط قرار بگیرند، انتظار سوگیری مثبت را خواهم داشت. و این تعصب با گسترش در نمودار پراکندگی کمیت یافت. بهترین آمار برای تعیین کمیت این چیست؟ هر گونه کمکی بسیار قدردانی خواهد شد. ویرایش ها: هدف از این پروژه به دست آوردن تخمینی از تعصب در دمای تابستان به دلیل توزیع نابرابر زمین در نیمکره شمالی و جنوبی است. نیمکره شمالی حدود 68 درصد از کل خشکی روی زمین را دارد، در حالی که نیمکره جنوبی کمتر از نیمی از زمین های نیمکره شمالی (~32 درصد) را دارد. داده های دما در اینجا از شبیه سازی GCM به دست آمده است. Temp_Real از شبیه سازی با زمین واقعی و Temp_symmetric از شبیه سازی GCM با استفاده از مدل زمین متقارن به دست می آید. با مقایسه آب و هوای زمین واقعی و زمین متقارن، میخواهم تعصب ناشی از عدم تقارن در زمین واقعی را محاسبه کنم. این طرح پراکندگی برای نیمکره شمالی است. | محاسبه سوگیری از داده های دو متغیره |
83401 | آیا راهی برای بدست آوردن واریانس پیش بینی برای مدل رگرسیون خطی در R وجود دارد؟ واریانسی که من نیاز دارم $s_f^2=s^2\left(1+\frac{1}{n}+\frac{(x_{n+1}-\bar{x})^2}{\ است sum_{i=1}^n (x_i-\bar{x})^2}\right)$. | واریانس پیش بینی در R |
105433 | من به دنبال کمک برای تعریف مشکل خود هستم. اساساً، من دو فرآیند داده دارم (هر دو متغیر اقتصاد کلان پیوسته: $x$ و $y$). شواهدی از علیت دو طرفه بین $x$ و $y$ وجود دارد که با آزمون علیت گرنجر اثبات شده است. چیزی که من اکنون ادعا می کنم این است که $x$ و $y$ باعث یکدیگر نمی شوند، بلکه هر دو توسط یک فرآیند سوم، $z$ ایجاد می شوند، که دلیل ایجاد علت بین $x$ و $y$ است. . بنابراین، $x$ و $y$ در واقع باعث یکدیگر نمی شوند، اما هر دو به سادگی توسط $z$ ایجاد می شوند. من در مورد آن به این صورت فکر میکنم: $x$ و $y$ برای GC یکدیگر ظاهر میشوند، زیرا برخی رویدادهای $x$ قبل از رویدادهای $y$ و بالعکس میشوند. اما اگر یک فرآیند $z$ وجود داشته باشد که رویدادهای آن همیشه مقدم بر $x$ و $y$ باشد، $x$ و $y$ لزوما باعث یکدیگر نمی شوند. در حال حاضر، من سعی می کنم این مشکل را به درستی چارچوب بندی کنم، یعنی به دنبال تعریف آن هستم. من نتوانستم ادبیاتی در مورد این نوع خاص از مشکل پیدا کنم، اما مطمئن هستم که باید برخی از آنها وجود داشته باشد. من فرض می کنم که من به سادگی به دنبال عبارات صحیح نیستم. از این رو، سؤال ساده من (امیدوارم) این است که این پدیده چگونه نامیده می شود؟ (البته من از هر پیشنهادی در مورد ادبیات نیز استقبال می کنم) | به دنبال تعریف: علیت گرنجر با فرآیند توضیحی مشترک |
58910 | من در حال اجرای kmeans برای مطالعه تحقیقات بازار هستم، و چند سوال دارم: 1. آیا باید داده های خود را استاندارد کنم، و اگر چنین است، چگونه؟ به عنوان مثال، یک متغیری که من دارم تقاضای محصول است که در مقیاس هفت درجه ای اندازه گیری می شود. از طرفی من یک متغیر سنی هم دارم که مقیاس بسیار متفاوتی است. آیا باید اینها را استاندارد کنم و چگونه؟ 2. آیا می توانم از متغیرهای طبقه بندی در kmeans استفاده کنم؟ به طور خاص، من می خواهم از جنسیت و قومیت استفاده کنم. اگر ممکن است، چگونه این داده ها را برای تجزیه و تحلیل خوشه ای آماده کنم؟ فکر میکنم اعدادی را به آنها اختصاص میدهم، اما چگونه میتوانم آنها را با سایر دادههایم استاندارد کنم؟ 3. من نرم افزار متن باز Cluster 3.0 را دانلود کردم. آیا این برای استفاده خوب است؟ | Kmeans: آیا باید استاندارد شود؟ آیا می توانید از متغیرهای طبقه بندی استفاده کنید؟ آیا Cluster 3.0 مناسب است؟ |
99036 | یک جمعیت $D$ وجود دارد که در آن هر نقطه داده دارای دو ویژگی $X$ و $Y$ است که به طور تصادفی توزیع شده اند. در حالی که احتمالاً دقیقاً به طور معمول توزیع نشده اند، تصور می کنم خیلی آسیب شناسی نیستند. من ابزار آنها و $s.d.$ را نمی دانم، اما احتمالا تا حدودی شبیه به هم هستند. من همچنین نمی دانم که آیا $\mu_X$ یا $\mu_Y$ بزرگتر است. من همچنین نمی دانم که آیا $X$ و $Y$ همبستگی دارند یا خیر. مجموعه دیگری از دادهها $D'$ وجود دارد، با دو ویژگی مشابه، اما کمی متفاوت توزیع شده است: $X'$ و $Y'$ توزیع شدهاند. $ که در آن $c1$ و $c2$ ثابت اما ناشناخته فرض می شوند. من می توانم مستقیماً از $X$ (بدون دانستن $Y$) یا از $Y$ (بدون دانستن $X$) نمونه برداری کنم. و همچنین میتوانم از $max(X', Y')$ نمونهبرداری کنم که در آن شناسههایی دریافت کنم که نشان میدهد آیا هر مقدار از $X'$ یا Y'$ میآید، به عنوان مثال، آیا $x' > y'$ یا $y' > x'$ برای این نقطه داده. اگرچه متغیرها اعداد واقعی هستند، اما به دلیل روش نمونه گیری گرد می شوند. در نتیجه، $x'$ و $y'$ می توانند با هم گره بخورند و در این صورت شناسه به طور تصادفی $X'$ یا $Y'$ را گزارش می کند. دو تا سوال دارم بهترین راه برای آزمایش چیست: 1. آیا $X' > X$ و $Y' > Y$؟ 2. آیا $max(X', Y')$ > $max(X, Y)$؟ | چگونه می توان در برابر توزیع مختلط آزمایش کرد؟ |
112388 | تمام ادبیات مدلسازی توزیع گونهها نشان میدهد که هنگام پیشبینی حضور/غیاب گونهای با استفاده از مدلی که احتمالات را به دست میدهد (به عنوان مثال، جنگلهای تصادفی)، انتخاب آستانه احتمالی که براساس آن واقعاً یک گونه را به عنوان حضور یا غیاب طبقهبندی کنیم، مهم است و فرد باید همیشه به پیش فرض 0.5 تکیه نکنید. در این مورد به کمک نیاز دارم! کد من اینجاست: library(randomForest) library(PresenceAbsence) #build model RFfit <- randomForest(Y ~ x1 + x2 + x3 + x4 + x5, data=mydata, mytry = 2, ntrees=500) #در نهایت اعمال خواهم کرد این برای (پیشبینی برای) دادههای جدید است، اما برای اولین بار من بازگشت به دادههای آموزشی را برای مقایسه مشاهدهشده با پیشبینیشده پیشبینی میکنم. RFpred <- predict(RFfit, mydata, type = prob) #قرار دادن مشاهده شده در مقابل پیش بینی شده در همان قاب داده ObsPred <- data.frame(cbind(mydata), Predicted=RFpred) #create auc.roc plot auc. roc.plot(ObsPred, threshold = 10, xlab=1-Specificity (false positives), ylab=Sensitivity (true positives), main = ROC plot , color = TRUE, find.auc=TRUE, opt.thresholds = TRUE, opt.methods = 9) از اینجا مشخص کردم که آستانه ای که می خواهم استفاده برای طبقه بندی حضور از روی احتمالات پیش بینی شده 0.7 است، نه پیش فرض 0.5. من کاملاً نمی دانم با این اطلاعات چه کنم. آیا هنگام ایجاد نقشه ای از خروجی خود به سادگی از این آستانه استفاده می کنم؟ من به راحتی میتوانم یک خروجی نقشهبرداری شده با احتمالات پیوسته ایجاد کنم، سپس به سادگی آنهایی را که دارای مقادیر بیشتر از 0.7 هستند، و آنهایی را که مقادیر کمتر از 0.7 وجود ندارند، دوباره طبقهبندی کنم. یا، آیا میخواهم این اطلاعات را بگیرم و با استفاده از پارامتر برش، مدلسازی تصادفی جنگلهایم را دوباره اجرا کنم؟ پارامتر قطع دقیقاً چه کاری انجام می دهد؟ آیا رای حاصل را تغییر می دهد؟ (در حال حاضر می گوید اکثریت است). چگونه از این پارامتر قطع استفاده کنم؟ من مستندات را نمی فهمم! با تشکر | چگونه آستانه طبقه بندی را در جنگل های تصادفی R تغییر دهیم؟ |
113387 | من یک مجموعه داده با مقادیر گسسته/گرد در آن دارم. در نتیجه، هنگامی که من یک نمودار Q-Q تولید می کنم، یک الگوی پله-مورد ظاهر می شود. آیا هنوز هم می توانم این را درست مانند یک نمودار Q-Q معمولی تفسیر کنم، حتی اگر انجام آن بسیار سخت تر باشد؟ آیا محدودیتی برای تفسیر طرحی مانند این وجود دارد؟ | آیا هنوز می توانم نمودار Q-Q را که از داده های گسسته/گرد استفاده می کند تفسیر کنم؟ |
113072 | نمرات آزمون مرد 58 54 61 64 60 60 45 44 53 54 32 56 43 69 69 72 66 45 63 49 48 53 نمرات امتحان زنان 71 55 42 49 514 60 5 41 24 43 48 57 79 73 53 53 64 54 59 73 47 | کدام آزمون آماری برای تعیین اینکه آیا تفاوت معنی داری در نمرات امتحانات 2 گروه (توزیع غیرعادی) وجود دارد مناسب است؟ |
102788 | به عنوان مثال برای داده های سری زمانی 30 ساله (زمانی که معادلات هم انباشتگی متفاوتی را در آزمون هم انباشتگی یوهانسن ارائه می دهند) به کدام آزمون تکیه کنیم؟ تست ردیابی یا حداکثر مقدار ویژه؟ تست ردیابی می گوید 8 معادله هم انباشته وجود دارد. آیا این عددی است که هنگام تخمین VECM در کادر تعداد cointegrating وارد می کنیم؟ اگر عدد 1 را بگذاریم تفاوت زیادی ایجاد می کند؟ با تشکر | آزمون ردیابی یا حداکثر مقدار ویژه در آزمون همجمعی یوهانسن؟ |
105432 | سوال من واقعاً ساده است، اما آنهایی هستند که واقعاً مرا متوجه میکنند :) من واقعاً نمیدانم چگونه ارزیابی کنم که آیا یک سری زمانی خاص قرار است با استفاده از یک روش تجزیه ضربی یا افزایشی تجزیه شود. من می دانم که نشانه های بصری برای جدا کردن آنها از یکدیگر وجود دارد، اما آنها را نمی فهمم. به عنوان مثال این سری زمانی را در نظر بگیرید:  چگونه آن را توصیف می کنید؟ پیشاپیش از کمک شما سپاسگزارم | تجزیه افزایشی در مقابل تجزیه ضربی |
81616 | فرض کنید من سه مدل مختلف $M_1، M_2$ و $M_3$ دارم، این مدل ها به گونه ای تو در تو هستند که $M_1 \subseteq M_2 \subseteq M_3$. من دو تست نسبت درستنمایی انجام میدهم، M_1$ در برابر M_3$ و M_2$ در برابر M_3$. در این مورد چگونه نرخ خطای خانوادگی را کنترل میکنید (با خیال راحت تصور کنید که یک زنجیره طولانی از مدلهای تودرتو وجود دارد)؟ به طور شهودی به نظر می رسد که این آمار تست وابسته خواهد بود، زیرا $M_1$ و $M_2$ تو در تو هستند و هر دو با یک مدل $M_3$ تست می کنند. آیا مفهوم یا مقاله ای وجود دارد که این وضعیت را توصیف کند؟ | چگونه FWER را هنگام آزمایش چندین مدل تو در تو با آزمونهای نسبت درستنمایی کنترل میکنید؟ |
58918 | من داده های طراحی متقاطع 3 (درمان) x3 (دوره) x6 (توالی) دارم. من از روش SAS PROC MIXED استفاده کرده ام و نتایج را با کد زیر دریافت کردم: data cross; توالی دوره درمان شناسه بازده ورودی. کارت؛ 72 1 1 1 1 73 1 2 2 1 77 1 3 3 1 75 2 2 1 2 78 2 3 2 2 70 2 1 3 2 75 3 3 1 3 77 3 1 2 3 73 3 1 2 2 68 4 3 2 4 71 4 2 3 4 80 5 2 1 5 72 5 1 2 5 80 5 3 3 5 74 6 3 1 6 76 6 2 2 6 70 6 1 3 6 58 7 1 1 4 6 7 2 3 4 64 8 2 1 5 56 8 1 2 5 60 8 3 3 5 72 9 3 1 6 69 9 2 2 6 66 9 1 3 6 76 10 2 1 2 79 10 3 2 2 65 10 10 1 1 11 2 2 1 60 11 3 3 1 71 12 3 1 3 72 12 1 2 3 75 12 2 3 3 ; PROC MIXED data=cross; توالی دوره درمان شناسه کلاسها. بازده مدل = دوره درمان دوره توالی * درمان / محلول. شناسه تصادفی (دنباله)؛ *lsmeans period/alpha=0.05 cl diff adjust=tukey; اجرا؛ نتایج: اثر DF DF F Value Pr > F دنباله 5 6 0.88 0.5479 دوره 2 16 0.24 0.7863 درمان 2 16 7.23 0.0058 درمان*دوره 4 16 3.32 0.0368 R'n'l` زیر نتایج: کد R: anova(متقاطع <- lme(بازده ~ توالی + درمان + دوره + دوره*درمان، داده = متقاطع، تصادفی = ~1| شناسه/توالی، همبستگی=NULL، روش = REML)) نتایج: numDF denDF F-value p-value (Intercept) 1 16 1086.7422 <.0001 توالی 5 6 0.5755 0.7196 درمان 2 16 7.2270 0.0058 دوره 2 16 0.2441 0.7863 درمان: دوره 4 16 3.3186 0.0368 نتایج درمان بین دوره و دوره درمان متفاوت است، اما نتایج برای دوره درمان متفاوت است. و نمیدانم چرا؟ کسی ایده ای دارد؟ | نتایج متفاوت از روش SAS PROC MIXED و عملکرد R lme |
75018 | به طور معمول، یک فرآیند Lévy، $X_t$، برای $t\geq 0$ تعریف می شود، بنابراین $t_0=0$. من یک تبدیل روی شاخص زمان اعمال می کنم تا به جای صفر از یک مقدار منفی شروع شود. حال، آیا می توان فرآیند Lévy را با $t_0<0$ تعریف کرد؟ اگر بله، آیا میتوانیم با این فرآیند تصادفی جدید دقیقاً مانند فرآیند Lévy همانطور که در اینجا تعریف شده است رفتار کنیم؟ آیا مرجعی وجود دارد که چنین فرآیند لوی را توضیح دهد؟ خیلی ممنون. | فرآیند لوی با شاخص زمان شروع منفی |
59219 | من سعی می کنم با استفاده از G*Power یک محاسبه توان انجام دهم. من به $\eta_P^2$ نیاز دارم، اما بسته ez برای R به من $\eta_G^2$ می دهد. من دلایل انجام این کار را میدانم، اما هنوز به $\eta_P^2$ برای محاسبه توان برای یک تکرار نیاز دارم. آیا راهی وجود دارد که بتوانم $\eta_P^2$ را از خروجی ezANOVA محاسبه کنم یا $\eta_G^2$ خود را به $\eta_P^2$ تبدیل کنم؟ | محاسبه $\eta_P^2$ از $\eta_G^2$ eta عمومی برای G*Power |
102785 | من نتایج عجیبی در رگرسیونی دارم که سعی می کنم اجرا کنم و امیدوارم کسی بتواند در تفسیر آنها به من کمک کند. اصولاً ابتدا متغیر وابسته خود را روی مجموعه ای از رگرسیون ها که همه معنی دار بودند رگرسیون کردم، سپس یک کنترل اضافه کردم و برخی دیگر معنی دار نشدند. تا اینجا خوب بود، من آن را با یک سوگیری متغیر حذف شده توضیح دادم. مشکل این است که وقتی یک برهمکنش بین دو رگرسیور را اضافه میکنم، ضرایب دوباره معنیدار میشوند، در حالی که ضریب تعامل اصلاً معنیدار نیست. چگونه می توان این را توضیح داد؟ خیلی ممنون برای کمک!! | تعامل ناچیز متغیر مورد علاقه را معنادار می کند |
27879 | من یک نمونه (200=n) دارم که داده های پرسشنامه را از آن جمع آوری کرده ام. هر شرکت کننده 5 پرسشنامه را تکمیل می کند که رفتارهای مختلف را نشان می دهد و همه 5 پرسشنامه من بین 10 تا 27 مورد را شامل می شود. من قصد دارم از SEM برای ساخت مدلی استفاده کنم که بررسی کند آیا نمرات 4 پرسشنامه من (IVs) نمرات پرسشنامه پنجم (DV) را پیش بینی می کند یا خیر. IVs و DV به عنوان متغیرهای پنهان در مدل، هر کدام با تعدادی نشانگر متصل می شوند. با این حال، از آنجایی که پرسشنامههای من موارد زیادی دارند، میخواهم نوعی فرآیند کاهش را درگیر کنم تا شاخصهای کمتری در SEM خود داشته باشم. من تعجب می کنم که منطق من چگونه است، زیرا من تازه وارد این کار هستم. آنچه من در حال حاضر در نظر دارم انجام یک تحلیل عاملی اکتشافی و سپس تحلیل عاملی تاییدی بر روی هر یک از 5 پرسشنامه به طور جداگانه برای استخراج چند عامل توسط آیتم ها است (مثلاً بگوییم که به طور جادویی هر پرسشنامه دارای 3 عامل اساسی است) . سپس نمرات مواردی را که با هر یک از 3 عامل مرتبط هستند به طور جداگانه جمع میکنم، بنابراین هر شرکتکننده اکنون 3 امتیاز از هر پرسشنامه به جای 1 نمره کل دارد. سپس 3 امتیاز، 3 شاخص مورد استفاده در مدل نهایی پیش بینی SEM را تشکیل می دهند. در مدل SEM پیشبینی من، 5 متغیر پنهان دارم که هر کدام روی 3 نشانگر بارگذاری میشوند. حدس میزنم سوال اصلی این است: اگر بیش از 10 مورد مرتبط با یک متغیر پنهان دارید، آیا استفاده از امتیازهای عامل مشتق شده بهعنوان شاخص در SEM به جای موارد اصلی قابل قبول است؟ | خرده مقیاس ها (نه موارد) به عنوان شاخص های متغیرهای نهفته در SEM |
102786 | بر اساس $N$ تحقق دو متغیر تصادفی $X \sim N(0,\sigma_X^2)$ و $Y \sim N(0, \sigma_Y^2)$ با همبستگی $\rho$، من یک روش ساده انجام دادم. رگرسیون خطی $Y = \beta_0 + X\beta_1 + \epsilon$. با استفاده از توزیع های شناخته شده $X$ و $Y$، همبستگی آنها $\rho$ و تعداد تحقق $N$، سعی می کنم توزیع نمونه ضرایب رگرسیون را بیابم. تخمین ضرایب را می توان به صورت زیر محاسبه کرد: $\hat \beta_1=r\frac{s_Y}{s_X}$ که $r$ تخمینی از $\rho$ و $s_X است، s_Y$ تخمینی از $\sigma_X است، \sigma_Y$ $\hat \beta_0=\overline{Y} - \hat \beta_1 \overline{X}$ کجا $\overline{X}، \overline{Y}$ برآوردی از میانگین $X$ و $Y$ هستند. با این حال، پس از چند فکر اضافی، دیگر مطمئن نیستم. ترسیم توزیع $\beta_1$ از 10000 اجرای آزمایشی با $N=12، \sigma_X^2=1، \sigma_Y^2=2، \rho =0.6$ (سیاه) در مقابل توزیع نرمال برازش، انحراف از نرمال توزیع دیده می شود. این همچنین در مورد تکرارهای بیشتر است (من تا 100000 را آزمایش کردم) که توزیع نرمال باید کاملاً پایدار باشد. برای جزئیات بیشتر در مورد آزمایش، زیر را ببینید.  یافتن توزیع خاص $\beta_0، \beta_1$ - اگر یکی باشد - تنها مرحله دوم است. در مرحله اول سعی می کنم مقدار مورد انتظار و واریانس ضرایب رگرسیون را بیابم. واضح است که $E[\hat \beta_0]= 0$ و $E[\hat \beta_1] = \rho \frac{\sigma_Y}{\sigma_X}$. با این حال، من در استخراج واریانس هر دو پارامتر مشکل دارم. من تعاریفی برای واریانس ضریب در ادبیات پیدا کرده ام. $Var[\hat \beta_0] = \frac{s_\epsilon^2\sum x_i^2}{N \sum (x_i - \overline{x})^2}$ و $Var[\hat \beta_1] = \frac{s_\epsilon^2}{\sum (x_i - \overline{x})^2} = \frac{s_\epsilon^2}{N \sigma_X^2}$. با این حال، همانطور که توسط whuber به درستی بیان شده است، این تعاریف مشروط به X$ هستند. بنابراین محاسبه فقط برای موارد خاص امکان پذیر است و بنابراین تعاریف برای مورد استفاده من قابل اجرا نیستند. در ادبیات، متوجه شدم که محدودیت در $X$ ثابت به فیشر بازمی گردد (به عنوان مثال کار او توزیع مجانبی تخمینگر رگرسیون کاهش رتبه تحت شرایط عمومی از سال 1922). با این حال، من در متون جدیدتر موردی با X$ تصادفی پیدا نکردم. من فقط ارجاعاتی به توزیع (غیر مرکزی) Wishart پیدا کردم. من مطمئن نیستم که آیا و چگونه توزیع Wishart می تواند در مورد استفاده من استفاده شود. به طور کلی، من کاملاً در مورد چگونگی استخراج واریانس در مورد توصیف شده گیر کرده ام، $Var[\hat \beta_0]، Var[\hat \beta_0]$ با $X، Y$ که متغیرهای تصادفی هستند. برای مواردی با شرطی شدن روی X$، من پاسخ های مختلفی در مورد چگونگی استخراج واریانس ضرایب رگرسیون پیدا کرده ام، به عنوان مثال http://stats.stackexchange.com/a/89155/48067. با این حال، از آنجایی که نه تنها $\epsilon_i$ یک متغیر تصادفی است، رویکرد توضیح داده شده در پاسخ به راحتی به مشکل من قابل انتقال نیست. با توجه به اینکه $\hat \beta = r \frac{cov(X, Y)}{s_X^2}= r \frac{s_Y}{s_X}$، فرض میکنم که توزیعهای $r، s_Y، s_X$ ممکن است به دلایلی برای محاسبه واریانس مشکل ساز باشد. من متوجه شده ام که $s_X^2، s_Y^2$ از توزیع گاما پیروی می کنند. بنابراین $s_X، s_Y$ باید از یک توزیع گامای تعمیم یافته پیروی کنند، که دارای یک واریانس خوب تعریف شده است. با این حال، من در مورد ضریب دو متغیر تصادفی توزیع شده گامای تعمیم یافته مطمئن نیستم. $r$ یک توزیع اریب دارد که می توان از تبدیل فیشر استفاده کرد - اما مطمئن نیستم که آیا این به محاسبه واریانس کمک می کند یا خیر. در نهایت، کوواریانس نمونه توزیع عجیبی دارد، تقریباً مانند توزیع گامای جابجا شده. به طور کلی، من قبلاً اطلاعاتی در مورد توزیع ویژگی های نمونه ها به دست آورده ام. با این حال، من راهی برای استفاده از این اطلاعات برای استخراج واریانس ضرایب نمونه در مورد استفاده خود پیدا نکردهام. آیا کسی می تواند من را در مسیر درست راهنمایی کند؟ -- برخی از جزئیات بیشتر در مورد شبیه سازی من، همانطور که درخواست شده است: * نمونه هایی با اندازه N (به عنوان مثال N=12) از $X \sim N(0, \sigma_X^2)$ و $Y \sim N(0) گرفته شده است. ,\sigma_Y^2)$ (به عنوان مثال $\sigma_X^2 = 1$, $\sigma_Y^2 = 2$) به طوری که نمونه ها دارای یک ویژگی خاص باشند همبستگی $\rho$ (به عنوان مثال $\rho = 0.6 $). این با استفاده از دو متغیر تصادفی غیر همبسته $A, B \sim N(0,1)$ و ساخت یک متغیر جدید (همبسته) به صورت $C = \rho^2 A + \sqrt{1- \rho^2 به دست میآید. } B$ و تصحیح واریانس $A$ و $C$ به منظور داشتن $X$ و $Y$ * رگرسیون $Y$ در $X$ اجرا می شود که منجر به ضرایب $b_0$ و $b_1$ * مراحل یک و دو تکرار می شوند (مثلا 10000 بار) * توزیع حاصل از $b_0$ و $b_1$ حاصل از اجراها تجزیه و تحلیل می شود توزیع های حاصل از آخرین مرحله توزیع های برای که من می خواهم | توزیع نمونه گیری از ضرایب رگرسیون برای متغیرهای تصادفی با توزیع نرمال |
112387 | من سعی می کنم یک مدل SV را با قیمت های یورو/دلار اجرا کنم. برای کسانی که با SV آشنایی ندارند، این یک مدل نوسان است که در آن هر نقطه پارامتر نوسان خود را $h_t$ با 3 پارامتر اصلی که با استفاده از شبیهسازی مونت کارلو (MCMC) به دست میآید، دریافت میکند، * $\mu$ = میانگین نوسانات در سراسر کل مجموعه نمونه * $\phi$ = وزنی که نوسانات آخرین نقطه در نوسانات بعدی (پیش بینی شده) دارد * $h_t$ = جدیدترین - {time نوسانات interval}. * $\sigma$ = نوسانات نوسان هنگامی که $\mu$، $\phi$، و $h_t$ داشته باشیم، میتوانیم $h_{t+1}$ را پیشبینی کنیم، یعنی نوسانات پیشبینیشده نقطه بعدی، توسط $h_{t+1} \sim \text{Normal}(\mu+\phi(h_t-\mu)، \sigma)$. نمیدانم که آیا قسمت بعدی را به درستی انجام میدهم: برای عملی کردن این موضوع، هر 5 دقیقه یک MCMC اجرا میکنیم، آن متغیرها را جمعآوری میکنیم و $h_{t+1}$ را پیشبینی میکنیم. این منجر به نموداری مانند این می شود، برای قرارداد آتی CME 6EU4 (یورو سپتامبر) با BBand های 5 دوره ای نیز نمایش داده می شود. اشکالی که در نمودار ظاهر می شوند را نادیده بگیرید.  به نظر نادرست است، بنابراین مطمئن نیستم که کار اشتباهی انجام می دهم یا خیر. آیا من فرآیند را به درستی درک کردم؟ 'phi' برای نیمه اول روز حدود 0.55 است، سپس به 0.95 میپرد و همانجا میماند، که اشتباه به نظر میرسد، اما حدس میزنم با توجه به دادهها، خیلی تعجبآور نیست... بسته R's stochvol در حال مراقبت از تخمین پارامتر، بنابراین فرض کنید که خود اعداد دقیق هستند. آیا باید قیمتهای میانگین وزنی حجمی 5 دقیقهای را اینجا بچسبانم؟ یک مجموعه داده نسبتا طولانی است. من آن را ویرایش می کنم تا این کار را انجام دهم. | نوسان تصادفی یک قدم جلوتر برای قیمت های VWAP 5 دقیقه ای |
113380 | من در حال بررسی برخی از مقالات مرتبط با عملکرد مدرسه با پیشینه اقتصادی-اجتماعی هستم: * http://archive.treasury.gov.au/documents/1421/HTML/docshell.asp?URL=05%20How%20much%20of%20the%20 تنوع%20در%20سواد%20و%20حساب%20میتوان%20میباشد%20توضیح%20با%20مدرسه%20عملکرد.htm * http://www.bristol.ac.uk/cmpo/publications/papers/2012/wp287.pdf * http://datatopics.worldbank.org/hnp/files/edstats/KHMimp09b.pdf این مقالات از رگرسیون کوارتیک برای قدرت توضیحی تحلیل رگرسیون آنها را افزایش می دهد، اما به نظر نمی رسد که بگوید چرا یک کوارتیک یک انتخاب طبیعی است. چرا این نویسندگان به طور خاص از یک رابطه چهارگانه استفاده می کردند؟ البته این میتواند یک انتخاب متعارف برای این حوزه مطالعاتی خاص باشد، اما من نمیتوانم بلافاصله ببینم که این مورد است. من علاقه مند هستم که چه زمانی باید روابط چهارگانه به طور کلی بررسی شود. | توجیه پیشینی برای استفاده از رگرسیون کوارتیک |
113384 | من میخواهم کل انرژی مصرفی را بر اساس وزن و جنسیت کاهش دهم. آیا بهتر است جنسیت را به عنوان یک متغیر ساختگی در نظر بگیریم یا معادلات رگرسیونی جداگانه برای مردان و زنان پیدا کنیم؟ | رگرسیون با استفاده از متغیر ساختگی |
99030 | من اغلب در استنباط بیزی به این موضوع برخورد میکنم که برای تشویق پراکندگی، باید توزیع احتمال دم سنگین را به عنوان قبلی انتخاب کنیم. AFAIK، در توزیع دم سنگین، احتمال بیشتری وجود دارد که یک متغیر تصادفی مقادیر بزرگ یا شدید به خود بگیرد. اکنون برای یک متغیر تصادفی چند متغیره $\bf{x}$، برای پراکندگی آن به این معنی است که بیشتر ورودیهای $\bf{x}$ باید $0 باشد، پس چگونه میتواند یک توزیع سنگین کار کند؟ آیا به این معنی است که برای هر ورودی در $\bf{x}$ (مستقل از یکدیگر) یک توزیع سنگین وجود دارد و احتمال مشترک اکثر ورودی ها $0$ زیاد است؟ اگر چنین است، چرا یک توزیع معمولی گاوسی مناسب نیست؟ | توزیع دنباله دار منجر به متغیر تصادفی پراکنده می شود؟ |
27872 | من در حال مطالعه یک دوره یادگیری ماشین هستم و اسلایدهای سخنرانی حاوی اطلاعاتی هستند که به نظر من با کتاب توصیه شده در تضاد است. مشکل به شرح زیر است: سه طبقهبندی کننده وجود دارد: * **طبقهبند A** عملکرد بهتری را در محدوده پایینتر آستانهها ارائه میکند، * **طبقهبند B** عملکرد بهتری را در محدوده بالاتر آستانهها ارائه میکند، * ** طبقهبندیکننده C** چیزی که با چرخاندن یک p-coin و انتخاب از بین دو طبقهبندی به دست میآوریم. ** عملکرد طبقهبندیکننده C، همانطور که در منحنی ROC مشاهده میشود، چگونه خواهد بود؟** اسلایدهای سخنرانی بیان میکنند که فقط با چرخاندن این سکه، ما میخواهیم *بدنه محدب** جادویی طبقهبندیکننده A را بدست آوریم و منحنی ROC B. من این نکته را نمی فهمم **فقط با ورق زدن یک سکه، چگونه می توانیم اطلاعات کسب کنیم؟** **اسلاید سخنرانی** ** کتاب می گوید** کتاب توصیه شده ( _داده کاوی... نوشته ایان اچ ویتن، ایبه فرانک و مارک ای. هال_) از سوی دیگر بیان می کند که: > برای دیدن این موضوع، یک مورد خاص را انتخاب کنید. برش احتمالی برای روش A که به ترتیب نرخ مثبت و نادرست tA و fA را می دهد و برش دیگر > برای روش B که tB و fB را می دهد. اگر از این دو طرح به صورت تصادفی > با احتمالات p و q استفاده کنید، که در آن p + q = 1، آنگاه نرخ مثبت صحیح و > نادرست p را دریافت خواهید کرد. tA + q. tB و p. fA + q. fB. این نشان دهنده > نقطه ای است که روی خط مستقیم قرار دارد و نقاط (tA, fA) و (tB, fB) را به هم می پیوندد، > و با تغییر p و q می توانید کل خط بین این دو نقطه > را ردیابی کنید. در درک من، آنچه کتاب میگوید این است که برای به دست آوردن اطلاعات و رسیدن به بدنه محدب، باید کاری پیشرفتهتر از ورق زدن یک سکه p انجام دهیم. AFAIK، راه صحیح (همانطور که در کتاب پیشنهاد شده است) به شرح زیر است: 1. ما باید یک آستانه بهینه Oa برای طبقه بندی A پیدا کنیم. 2. باید یک آستانه بهینه Ob را برای طبقه بندی B پیدا کنیم. < Oa، از طبقه بندی A با t * اگر t > Ob، از طبقه بندی B با t استفاده کنید * اگر Oa < t < Ob، بین طبقه بندی A با Oa و B با Ob توسط احتمال به عنوان یک ترکیب خطی از جایی که ما بین Oa و Ob قرار داریم. **آیا این درست است؟** اگر بله، چند تفاوت کلیدی در مقایسه با آنچه که اسلایدها پیشنهاد می کنند وجود دارد. 1. این یک چرخش سکه ساده نیست، بلکه یک الگوریتم پیشرفته تر است که به نقاط و انتخاب های دستی نیاز دارد که بر اساس منطقه ای که در آن قرار می گیریم. 2. هرگز از طبقه بندی A و B با مقادیر آستانه بین Oa و Ob استفاده نمی کند. **می توانید این مشکل را برای من توضیح دهید** و **در صورتی که درک من درست نبود راه صحیح درک آن چیست**؟ ** چه اتفاقی میافتد اگر به سادگی یک p-coin را مانند اسلایدها ورق بزنیم؟ ** من فکر میکنم که یک منحنی ROC بین A و B داشته باشیم، اما هرگز بهتر از بهتر نیستیم. در یک نقطه معین تا جایی که من می بینم، من واقعاً نمی فهمم که چگونه اسلایدها می توانند درست باشند. محاسبه احتمالی سمت چپ برای من منطقی نیست. **به روز رسانی:** مقاله نوشته شده توسط نویسنده اصلی که روش بدنه محدب را اختراع کرده بود پیدا کردم: http://www.bmva.org/bmvc/1998/pdf/p082.pdf | ترکیب طبقه بندی کننده ها با چرخاندن یک سکه |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.