_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
38889
فرض کنید $X_1, X_2, ...,X_n$ نمونه هایی از یک توزیع گسسته یکنواخت با احتمال 1/3 در هر یک از نقاط $\theta-1, \theta, \theta+1$ هستند که در آن $\theta\in \mathbb{Z}.$ از نظریه تخمین نقطه توسط Lehman و Casella. صفحه 130 مشکل 1.9 من می‌خواهم همه تخمین‌گرهای بی‌طرف صفر را پیدا کنم. چگونه باید این کار را انجام دهم؟ درک من: تعریف برآوردگر بی طرف می گوید: $E[\delta(x)]=g(\theta)$. یعنی من هر چیزی را می‌خواهم که $bias=E[\delta(x)]-g(\theta)=0$ داشته باشد، اما دقیقاً چگونه می‌توانم این پسر، $\delta(x)$ را پیدا کنم؟ و پارامتر مورد علاقه در اینجا چیست؟ کار من: $f(x;3)= \frac{1}{3}, \text{for } \theta-1\le x \le \theta+1, \text{where }\theta\in\mathbb {Z}$ آیا کسی می‌تواند به چیزی که در اینجا گم می‌کنم اشاره کند؟ من احساس می کنم که به پاسخ بسیار نزدیک هستم. پیشاپیش متشکرم
چگونه یک برآوردگر بی طرف پیدا کنیم؟
3181
اگر به گذشته فکر کنید، به زمانی که برای اولین بار با تحلیل سری های زمانی شروع کردید، فکر کنید. دوست دارید از چه ابزارها، بسته های R و منابع اینترنتی اطلاع داشته باشید؟ آنچه من سعی دارم بپرسم این است که از کجا باید شروع کرد؟ به طور خاص، آیا منابعی برای R وجود دارد که واقعاً آن را برای کسی که در تحلیل سری های زمانی با R تازه است، خلاصه کند.
جدی شدن در مورد سری های زمانی با R
78043
من می خواهم یک مدل آرما را با مولفه ma1 و ma9 تخمین بزنم، نه اجزای بین آنها. آیا این کار در روگارچ امکان پذیر است؟
ARMA((1,9),1) را در rugarch برآورد کنید؟
43716
من فکر می‌کنم یک فرض اساسی در مورد یادگیری ماشین یا تخمین پارامتر این است که داده‌های دیده نشده از همان توزیع مجموعه آموزشی به دست می‌آیند. با این حال، در برخی موارد عملی، توزیع مجموعه تست تقریبا با مجموعه آموزشی متفاوت خواهد بود. برای یک مشکل چند طبقه بندی در مقیاس بزرگ که سعی می کند توضیحات محصول را به حدود 17000 کلاس طبقه بندی کند، بگویید. مجموعه آموزشی دارای اولویت های کلاسی بسیار منحرف است، به طوری که برخی از کلاس ها ممکن است نمونه های آموزشی زیادی داشته باشند، اما برخی ممکن است فقط چند نمونه داشته باشند. فرض کنید یک مجموعه آزمایشی با برچسب های کلاس ناشناخته از مشتری به ما داده می شود. ما سعی می کنیم با استفاده از طبقه بندی کننده آموزش داده شده در مجموعه آموزشی، هر محصول در مجموعه تست را در یکی از 17000 کلاس طبقه بندی کنیم. مجموعه آزمایشی احتمالاً دارای توزیع کلاسی منحرف است، اما احتمالاً بسیار متفاوت از مجموعه آموزشی است، زیرا ممکن است به حوزه های مختلف تجاری مرتبط باشد. اگر دو توزیع کلاس بسیار متفاوت باشند، طبقه‌بندی‌کننده آموزش‌دیده ممکن است در مجموعه آزمایشی به خوبی کار نکند. این امر به ویژه با طبقه بندی کننده Naive Bayes آشکار به نظر می رسد. آیا هیچ راه اصولی برای رسیدگی به تفاوت بین مجموعه آموزشی و مجموعه آزمایشی خاص برای طبقه‌بندی‌کننده‌های احتمالی وجود دارد؟ من شنیدم که SVM transductive کار مشابهی را در SVM انجام می دهد. آیا تکنیک های مشابهی برای یادگیری طبقه بندی کننده ای وجود دارد که در یک مجموعه آزمایشی خاص بهترین عملکرد را داشته باشد؟ سپس می‌توانیم طبقه‌بندی‌کننده را برای مجموعه‌های آزمایشی مختلف، همانطور که در این سناریوی عملی مجاز است، دوباره آموزش دهیم.
چگونه می توان تفاوت بین توزیع مجموعه تست و مجموعه آموزشی را مدیریت کرد؟
39330
من در حال توسعه مدلی از پیشرفت تحصیلی با استفاده از پاسخ های دانش آموزان به تقریباً 20 مقیاس تعیین شده هستم که نشان داده شده است که با پیشرفت تحصیلی مرتبط هستند. بیش از 200 مورد وجود دارد. من در تعجبم که چگونه می توان عوامل را با استفاده از تحلیل عاملی شناسایی کرد. آیا مناسب است که همه موارد را در یک تحلیل واحد قرار دهیم؟ یا تجزیه و تحلیل های زیر گروه بهتر است؟ من معیارهایی در سطوح مختلف ویژگی از ویژگی های شخصیتی گسترده (مانند وظیفه شناسی) تا شناخت های اجتماعی خاص تر (مانند اهداف نمره، خودکارآمدی تحصیلی) دارم. هر گونه راهنمایی/توصیه با تشکر دریافت شد.
تحلیل عاملی مقیاس ها در سطوح مختلف ویژگی
112385
وقتی از مدل‌های رگرسیون استفاده می‌کنم، دوست دارم روابط عملکردی را با استفاده از رگرسیون هموارسازی ناپارامتریک (مانند مدل‌های افزایشی تعمیم‌یافته، پایین‌ترین، هموارکننده‌های خط در حال اجرا، و غیره) قبل از تخمین یک مدل پارامتری با استفاده از رگرسیون حداقل مربعات غیرخطی برای تخمین پارامترهای توابع پیشنهادی، در صورت لزوم، بررسی کنم. توسط مدل ناپارامتریک راه خوبی برای فکر کردن در مورد انجام اعتبارسنجی متقاطع در مرحله رگرسیون هموارسازی ناپارامتریک چنین رویکردی چیست؟ نمی‌دانم که آیا ممکن است با موقعیتی روبرو شوم که در نمونه A تصادفی یک رابطه تقریبی با یک تابع لولای خطی چوب شکسته مشهود باشد، در حالی که نمونه نگهدارنده B رابطه‌ای را نشان می‌دهد که با یک تابع لولای آستانه سهموی بهتر است تقریب یابد. آیا می‌توان با رویکردی غیر جامع، بخشی از داده‌ها را که به‌طور تصادفی انتخاب شده است، نگه داشت، رگرسیون ناپارامتریک را انجام داد، اشکال تابعی قابل قبول را برای نتیجه تفسیر کرد، و این کار را چند بار (قابل مدیریت توسط انسان) تکرار کرد و شکل‌های عملکردی قابل قبول از نظر ذهنی را تکرار کرد. ? یا آیا یک رویکرد جامع (مثلاً LOOCV) اتخاذ می‌شود و از برخی الگوریتم‌ها برای «صاف کردن همه هموارها» استفاده می‌کند و از صاف‌ترین هموارها برای اطلاع از اشکال عملکردی قابل قبول استفاده می‌کند؟ برنامه‌های کاربردی من معمولاً شامل تعداد متغیرهای پیش‌بینی‌کننده قابل مدیریت توسط انسان هستند (مثلاً تعداد انگشت شماری تا چند ده)، اما اندازه‌های نمونه من از چند صد تا چند صد هزار متغیر است. هدف من این است که یک مدل به‌طور شهودی و قابل ترجمه به آسانی تولید کنم که ممکن است برای پیش‌بینی توسط افرادی با مجموعه‌های داده‌ای غیر از من مورد استفاده قرار گیرد، و متغیرهای نتیجه را شامل نمی‌شود. منابع در پاسخ بسیار خوش آمدید.
اعتبار سنجی متقاطع با رگرسیون هموارسازی ناپارامتریک
288
فرض کنید من سلول های سرطانی را در _n_ ظرف های مختلف _g1_، _g2_، ...، _g n_ کشت می کنم و تعداد سلول های _n i_ را در هر ظرف که متفاوت از حالت عادی به نظر می رسند، مشاهده می کنم. تعداد کل سلول های ظرف _g i_ _t i_ است. تفاوت‌های فردی بین سلول‌های جداگانه وجود دارد، اما بین جمعیت‌های ظروف مختلف نیز تفاوت‌هایی وجود دارد، زیرا هر ظرف دارای دمای کمی متفاوت، مقدار مایع و غیره است. من این را به عنوان توزیع دو جمله ای بتا مدل می کنم: _n i_ ~ دو جمله ای( _p i_, _t i_) که در آن _p i_ ~ بتا( _α_، _β_ ). با توجه به تعدادی از مشاهدات _n i_ و _t i_، چگونه می توانم _α_ و _β_ را تخمین بزنم؟
تخمین توزیع بتا دو جمله ای
112380
من برای ساختن و توضیح رگرسیون چندگانه خطی مشکل دارم. من یک مجموعه داده به نام Cars93 با 26 متغیر (عددی و نه عددی) و 93 مشاهده دارم. این مجموعه داده را می توانید در بسته R `MASS` پیدا کنید. من می خواهم یک مدل رگرسیون خطی برای پیش بینی قیمت یک خودرو بسازم. سپس باید با استفاده از AIC و BIC در R یک انتخاب متغیر (به جلو و عقب به صورت گام به گام) انجام دهم. دانش من در R خیلی کم است به همین دلیل مشکلاتی دارم. واقعا امیدوارم بتوانید به من کمک کنید! 1) مجموعه داده مقداری از دست رفته دارد من این مشکل را به این صورت حل کردم: Cars93 [! Complete.cases (Cars93)] Cars93new <- na.omit (Cars93) Cars93 = Cars93new فکر می کنم برخی از اطلاعات در حال از دست رفتن هستند. آیا راه حل دیگری برای حذف مقادیر از دست رفته وجود دارد؟ 2) برخی از متغیرهای مجموعه داده عددی نیستند من سعی کردم این مقادیر را به مقادیر عددی تبدیل کنم: Cars93 $ کیسه هوا = ضریب (Cars93 $ کیسه هوا، برچسب = c (2,1,0)) Cars93 $ کیسه هوا [1] 0 2 1 2 1 1 1 1 1 1 2 0 1 2 0 1 2 2 1 0 1 ۱ ۱ ۱ ۱ 1 1 0 0 1 0 1 1 [77] 1 0 0 0 1 2 سطوح: 2 1 0 من همین کار را با سایر متغیرهای غیر عددی انجام دادم. سپس سعی کردم یک رگرسیون مدل خطی با همه متغیرها بسازم: Modell=lm(Price~Horsepower+EngineSize+MPG.city+MPG.highway+Rev.per.mile+Man.trans.avail+Fuel.tank.capacity+Passeng ers + طول + فاصله + عرض + چرخش. دایره + وزن + عقب. صندلی. اتاق + چمدان. اتاق + مبدا + کیسه هوا + نوع + سیلندر + وزن + PRM) خلاصه (مدل) اما خروجی منطقی است: تماس: lm (فرمول = قیمت ~ اسب بخار + حجم موتور + MPG.city + MPG.highway + Rev.per.mile + Man.trans.avail + Fuel.tank.capacity + سرنشینان + طول + فاصله بین دو محور + عرض + چرخش دایره + وزن + صندلی عقب. اتاق + اتاق چمدان + مبدا + کیسه هوا + نوع + سیلندر + وزن + دور در دقیقه) باقیمانده ها: حداقل 1Q Median 3Q Max -9.4893 -2.3664 -0.0062 2.1180 18.1112 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 81.335018 37.993697 2.141 0.036826 * اسب بخار 0.123535 0.049355 2.503 0.015372 * 61538282846. -0.202 0.840602 MPG.city -0.392888 0.470385 -0.835 0.407259 MPG.highway 0.013646 0.428978 0.032 0.9747140 0.9747140 0.9747140 0.974714 0.974714 0.974714 0.974714 - 0.835 برعکس 0.597 0.553206 Man.trans.availYes -1.600967 2.480497 -0.645 0.521387 سوخت.مخزن.ظرفیت 0.462731 0.572169 0.809 0.42225191919 1.823089 0.338 0.736925 طول 0.074875 0.130511 0.574 0.568547 فاصله محوری 0.740146 0.343760 2.153 0.0.04579. 0.571082 -3.057 0.003473 ** Turn.circle -0.695287 0.415708 -1.673 0.100203 وزن -0.004068 0.006255 -0.650 0.695287 -0.5181 0.420050 0.241 0.810619 اتاق چمدان 0.176183 0.367199 0.480 0.633306 Originnon-USA 1.881047 1.762845 1.029D69D690. -3.294049 1.888346 -1.744 0.086777. AirBagsNone -8.535307 2.289737 -3.728 0.000464 *** TypeLarge -1.692122 3.999146 -0.423 0.673887 TypeMidsize 2.684947 2.684947 2.684947 2.614127 2.692122 TypeSmall 1.913341 2.896592 0.661 0.511710 TypeSporty 4.686129 3.268426 1.434 0.157407 Cylinders4 -3.126727 4.5546856 - 4.5546856 - Cylinders4. -4.732933 7.498898 -0.631 0.530605 سیلندر6 0.224795 5.695793 0.039 0.968664 سیلندر8 4.020677 7.255405 0.52078 - 7.255405 0.507 PM 0.002450 -1.134 0.261805 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 5.009 در 54 درجه آزادی (11 مشاهدات حذف شده به دلیل عدم وجود) R-squared چندگانه: 0.8313، R-squared تنظیم شده: 0.747 F-statistic: 9.859 در 27 و 54 DF، p-value: 1.014e-12 من در خلاصه 4 بار Cylinders و Type و دو بار Airbag دارم. نمی دانم چرا... و تنها 4 متغیر در مدل معنادار هستند. کسی میتونه به من بگه اشتباه مدل من کجاست؟ من همچنین می خواهم بدانم که چگونه فرضیات دیگر را در R برای مدل خطی چندگانه آزمایش کنم.
مشکلات برای ساخت رگرسیون چندگانه خطی در R و توضیح خروجی
38886
این یک مشکل از یک شبه یادگیری ماشینی است که من از http://www.seas.harvard.edu/courses/cs281/assignment-1.pdf خودآموز آن را می آموزم. > فرض کنید سلسله مراتبی از سه توزیع داریم: > $p(\alpha)$، $p(\theta | \alpha)$ و $p(y | \theta، \alpha)$. عبارت‌ها را برای محاسبه توزیع‌های مرتبط زیر بنویسید: > > $p(y|\theta)$, $p(y|\alpha)$, $p(y)$, $p(\theta|y,\alpha) $, > $p(\alpha|y,\theta)$, $p(\theta)$, $p(\theta|y)$, $p(\alpha|y)$ من می بینم که روی مفصل توزیع برای بدست آوردن احتمال حاشیه ای $$p(y|\theta) = \int p(y|\theta,\alpha)p(\alpha)d\alpha$$ این اولین عبارت را بر حسب داده ها به من می دهد. با این حال، من نمی دانم چگونه می توانم دیگران را بدست بیاورم. من می دانم که می توانم معادلات مختلفی را با استفاده از قضیه بیز تنظیم کنم $$p(\theta|\alpha) = p(\alpha|\theta) * p(\theta)/p(\alpha)$$ اما معادله فوق دارای دو مجهول ($p(\theta)$ و $p(\alpha|\theta)$). آیا ویژگی دیگری وجود دارد که بتوانم از آن به جز به حاشیه راندن توزیع مشترک و استفاده از قضیه بیز استفاده کنم؟
ویژگی های توزیع احتمال شرطی
100512
من با مجموعه داده ای کار می کنم که نشان دهنده محدوده پوشش یک ماده است، یا مدت زمان محاسبه شده ای که انتظار می رود در انبار بماند. این محاسبه بر اساس استفاده از یک ماده در یک دوره زمانی است. تا الان مقادیر من کمتر از 150 بوده است. با این حال، من در دوره هایی بدون استفاده از مواد با مشکل مواجه می شوم، زیرا آنها محاسبه را تا 99999 افزایش می دهند. هنگامی که من این داده ها را در نرم افزار آماری خود تجزیه و تحلیل می کنم، مقادیر زیاد و اساساً بی معنی این مقادیر پرت به شدت بر نتایج آزمایش من تأثیر می گذارد. آیا کسی می تواند راهی را برای رقیق کردن این موارد پرت به دلیل ارزش آنها، اما در عین حال از وجود آنها به عنوان یک معیار آماری استفاده کند؟ به عبارت دیگر، من نمی خواهم آنها را به طور کامل حذف کنم زیرا حضور آنها قابل توجه است، اما از آنجایی که ارزش هر مشاهده در حال تجزیه و تحلیل است، چه گزینه های دیگری برای آزمایش این مجموعه داده دارم؟ در اینجا یک مجموعه داده نمونه است که شامل هر دو مورد است - مقدار ROC '0' و همچنین مقدار ROC '99,999'. از آنجایی که این مقادیر تعداد تقریبی روزهای موجودی را نشان می‌دهند، «0» منطقی است اما «99999» اینطور نیست. فوریه-13 - 99999 مارس-13 - 0 آوریل-13 - 34 مه-13 - 0 Jun-13 - 99,999 Jul-13 - 44 Aug-13 - 18 Sep-13 - 99,999! (http://i.stack.imgur.com/UENNp.png) متشکرم همه MCC
چگونه می توان به طور مناسب برخی از نقاط پرت را نشان داد
86997
امیدوارم کسی با پیشینه GIS وجود داشته باشد که بتواند کمی شفافیت ارائه دهد! من 15 لایه داده شطرنجی (شبکه) دارم که از یک DEM با استفاده از تابع تجزیه و تحلیل زمین در SAGA مشتق شده است. طبیعتاً این اشتقاق‌ها به‌طور قوی با DEM همبستگی دارند زیرا از دم مشتق شده‌اند، با این حال من سعی می‌کنم مشخص کنم که کدام متغیرها تأثیرگذارترین متغیرها برای بهینه‌سازی یک رویکرد نمونه‌برداری برای بررسی‌های خاک هستند. من مقالاتی را خوانده ام که در آن افراد از PCA یا PFA برای ارزیابی کوواریانس بین متغیرها و سپس کاهش متغیرها بر این اساس استفاده کرده اند، با این حال، هیچ مشاهداتی برای شروع ندارم (همانطور که اگر شما به مطالعه جدیدی می روید. سایت و می‌خواستم در مورد مکان‌های نمونه‌گیری بهینه تصمیم بگیرم) زیرا من سعی می‌کنم مکان بهینه مکان‌یابی یک نقطه نظرسنجی را با استفاده از PCA (در نهایت با استفاده از ابرمکعب لاتین شرطی شده مدل‌سازی کنم). آیا این کار منطقی است؟
آیا می توان PCA را روی مجموعه داده های شبکه (متغیرها) بدون مشاهدات اعمال کرد
86378
من مجموعه‌ای از پیش‌بینی‌کننده‌ها دارم که به وضوح از مقداری چندخطی بودن رنج می‌برند، بنابراین از PCA برای متعامد کردن ستون‌های X استفاده می‌کنم. من همچنین از این به عنوان راهی برای منظم کردن رگرسیون بعدی با حذف مؤلفه‌هایی که %0 از واریانس را تشکیل می‌دهند، استفاده می‌کنم. برای مثال، اگر من رگرسیون OLS را روی داده‌های تبدیل‌شده با PCA که دارای 8 پیش‌بینی‌کننده است، اجرا کنم، می‌توانم از بردارهای ویژه تبدیل PCA اصلی برای دریافت وزن‌های بتا برای 12 پیش‌بینی‌کننده اصلی استفاده کنم. تا اینجای کار خیلی خوبه. با این حال، برای اینکه بتوانم سهم این پیش‌بینی‌کننده‌ها را در برازش مدل ارزیابی کنم، می‌خواهم بازه‌های اطمینان 95% را به فضای اصلی 12 پیش‌بینی‌کننده برگردانم. به این ترتیب، من می‌توانم از R^2 کلی و مقادیر p مرتبط برای مدل کامل استفاده کنم تا رگرسیون‌هایی را پیدا کنم که مهم هستند، جایی که پیش‌بینی‌کننده‌های خاص سهم غیر صفر دارند. برای من مشخص نیست که چگونه فواصل اطمینان 95٪ را تغییر دهم. اگر این امکان پذیر نیست، آیا راه دیگری برای ارزیابی اهمیت پیش بینی کننده های خاص در فضای اصلی وجود دارد؟ با تشکر
رگرسیون اجزای اصلی: 95% CI ها را به فضای اصلی تبدیل کنید
86991
برای مدل خطی $y=\beta_0+x*\beta+\varepsilon$، عبارت انقباض همیشه مانند $P(\beta) $ است. دلیل اینکه اصطلاح تعصب $\beta_0$ را کوچک نمی کنیم چیست؟ به طور مقایسه ای، آیا باید عبارت بایاس را در مدل شبکه عصبی کوچک کنیم؟
دلیل برای کوچک نشدن اصطلاح تعصب
52935
پس آن پارامتر چیست. وقتی من یک تناسب غیر خطی ایجاد می کنم، برنامه مقدار χ2/doF را به من می دهد. چیست؟ من برخی از آمارها را می‌دانم و می‌دانم که توزیع‌های χ2 برای تضادهای غیر پارامتری استفاده می‌شوند، مانند اینکه چقدر با داده‌ها تناسب دارند، با دانستن اینکه λ⇝χ2n−1 (به این معناست که پارامتر پیرسون مانند آن توزیع عمل می‌کند). من گمان می‌کنم که کاملاً به آن مربوط باشد، به من می‌گوید که تناسب چقدر خوب است که کنتراست را ایجاد می‌کند، اما نمی‌دانم چگونه این مقدار را به هم مرتبط کنم، زیرا سطح اطمینان نمی‌دهم، بنابراین حدس می‌زنم این یک عدد کلی باشد. مستقل از آن، بنابراین شما تصمیم می گیرید که خوب است یا نه، دقیقا چیست؟ چرا بر درجات آزادی تقسیم می شود؟ با تشکر
پارامتر $\chi^2$ یک تناسب داده
38881
مثال زیر را در نظر بگیرید. از 50 مرد و 50 زن یک سوال پرسیدیم که آنها در مقیاس لیکرت 5 درجه ای (1 کاملا مخالف و 5 کاملا موافق) پاسخ دادند. فرض کنید 50 مرد 20 بار 1، 3 بار 2، 4 بار 3، 20 بار 4 و 3 بار 5 و 50 زن 15 بار 1، 15 بار 2، 15 بار 3، 2 بار 4 و 3 بار 5 پاسخ دادند. می خواهم آزمایش کنم که آیا میانگین (یا میانه) پاسخ ها در هر دو گروه به طور قابل توجهی متفاوت است. مشکل این است که من نمی‌توانم از آزمون پارامتری (t-test) و نه ناپارامتریک (Mann-Whitney) استفاده کنم، زیرا داده‌ها غیرعادی هستند (بنابراین آزمون t مناسب نیست)، ترتیبی و در نتیجه پیوسته نیستند، چندوجهی، با واریانس‌های مختلف و با متفاوت. اشکال (بنابراین آزمون من ویتنی مناسب نیست). چگونه می توانم فرضیه خود را آزمایش کنم؟ ممنون میشم اگه جواب بدید
چگونه می توان تفاوت های گروهی را زمانی که هیچ یک از مفروضات پارامتری یا ناپارامتریک برآورده نمی شوند، آزمایش کرد؟
39337
من در مورد چگونگی تعیین اهمیت آماری در نظرسنجی های انتخاباتی سردرگم هستم. به من آموختند که همپوشانی فواصل اطمینان لزوماً به معنای تفاوت آماری ناچیز بین دو مقدار نیست. من در جستجوی پاسخ بودم و این مقاله آن را تأیید می کند. با این حال، به نظر می رسد این مقاله تفسیر دیگری ارائه می دهد. به طور خاص، من نگران یک سوال ساده نظرسنجی بله/خیر (یا کاندید A / کاندید B) هستم و نه در موردی که گزینه سوم وجود دارد. ادعایی که مقاله دوم مطرح می کند این است که در این حالت ساده شده، می توان به سادگی فواصل اطمینان را اضافه کرد و اگر با هم همپوشانی داشته باشند، این تفاوت از نظر آماری معنی دار نیست _ یعنی کاندید A در 53٪ و نامزد B در 47٪ با + /- 3% MOE از نظر آماری معنی دار نیست. به نظر می رسد این دو مقاله در تضاد هستند و من می خواهم دلیل آن را بفهمم. آیا به این دلیل است که در مورد نظرسنجی بله/خیر، این دو مقدار کاملاً همبستگی منفی دارند؟
تعیین اهمیت آماری در نظرسنجی‌های انتخاباتی از فاصله اطمینان / وزارت اقتصاد
43710
20 دانش آموز از یک مدرسه به طور تصادفی انتخاب شدند تا مبلغ دلاری را که برای خرید نوشابه در یک هفته معمولی صرف می کنند، مطالعه کنند. داده های جمع آوری شده (به دلار): 24 دلار، 35 دلار، 17 دلار، 21 دلار، 24 دلار، 37 دلار، 26 دلار، 46 دلار، 58 دلار، 30 دلار، 32 دلار، 13 دلار، 12 دلار، 38 دلار، 41 دلار، 43 دلار، 44 دلار، 27 دلار، 53 دلار، 27 دلار برخی از نمایش های گرافیکی بر اساس داده های فوق ایجاد شده اند. شکل های 1 تا 4 در زیر نشان داده شده اند. کدام یک هیستوگرام مناسب در نظر می گیرید؟ شما می توانید بیش از 1 انتخاب کنید. . کسی میتونه کمک کنه؟
سوال هیستوگرام: چگونه یک هیستوگرام کامل انتخاب کنیم؟
92573
برای $H_0: \hat \beta=\beta^*$ می‌خواهم ثابت کنم که ناحیه غیر رد در رویکرد سطح اهمیت برابر با ناحیه تعیین‌شده توسط کران‌های بالا و پایین در رویکرد فاصله اطمینان خواهد بود. * * * من با استفاده از معادله $$-t_{crit} \le \frac{\hat\beta -\beta^*}{SE(\hat\beta)}\le +t_{crit}$ بیان می‌کنم. $ و من فاصله اطمینان زیر را دریافت می کنم. $CI= ( \beta^*- t_{crit}SE(\hat\beta), \beta^* +t_{crit}SE(\hat\beta))$ خوب، پس از آن، چگونه این اثبات را ادامه دهیم. ممنون میشم کمک کنید
منطقه غیر رد در سطح اهمیت رویکرد برابر با منطقه تعیین شده توسط کرانهای بالا و پایین در رویکرد فاصله اطمینان است.
43715
من با این فرمول در برخی منابع آنلاین برخورد کردم. $$r_{12.34} = \frac {r_{12.3} - r_{14.3}r_{24.3}}{ \sqrt {(1- r_{14.3}^2)(1-r_{24.3}^2 }}$ $ من می‌توانم از این استفاده کنم، اما می‌خواهم فرمول را اثبات کنید یا لطفاً من را به هر پیوندی با مدرک راهنمایی کنید؟
استخراج فرمول ضریب همبستگی جزئی مرتبه دوم
112383
چگونه منحنی های ROC را می سازید وقتی بیش از دو دسته نتیجه وجود دارد (در مورد من، من چهار دسته دارم)؟ من شنیده ام که باید این کار را برای محبوب ترین گروه انجام دهید. آیا ایده های دیگری وجود دارد؟ آیا توابعی در R وجود دارد که در این مورد کمک کند؟
ROC برای بیش از 2 دسته نتیجه
86993
من چند نمونه دارم که دو متغیر مستقل تقریباً کاملاً به صورت معکوس همبستگی دارند، معمولاً در چنین نمونه‌ای یکی را حذف می‌کنم که هر دو متغیر شامل: متغیر A: 50% مقادیر صفر، توزیع نرمال جدا از صفرها. متغیر B: همانند A، صفرهای موجود در A با غیر صفرهای B مطابقت دارد و بالعکس در ابتدا قصد حذف یک را داشتم، اما قدرت توصیفی مقادیر غیر صفر یکی از متغیرها را از دست خواهم داد. اگر Var B i را رها کنم عملاً مقادیر غیر صفر **توزیع شده** آن را در مقدار 0 Var A قرار می دهد. راه صحیح برای ادامه چیست؟ من البته می‌توانم مدل‌هایی را روی هر کدام اجرا کنم، اما بیش از یک نمونه از آن را دارم
دو متغیر مستقل با همبستگی معکوس ... چگونه ترکیب کنیم؟
88348
این اولین سوال من در مورد Cross Validated در اینجا است، بنابراین لطفاً به من کمک کنید حتی اگر بی اهمیت به نظر می رسد :-) اول از همه، این سؤال ممکن است نتیجه تفاوت زبان یا شاید من نقص واقعی در آمار باشد. با این وجود، اینجا این است: **در آمار جمعیت، آیا تنوع و واریانس عبارت‌های یکسان هستند؟ اگر نه، تفاوت بین این دو چیست؟** می دانم که واریانس مربع انحراف معیار است. من همچنین می‌دانم که این معیاری برای پراکندگی داده‌ها است و می‌دانم چگونه آن را محاسبه کنم. با این حال، من یک دوره آموزشی Coursera.org به نام تفکر مدل را دنبال کرده ام، و مدرس به وضوح واریانس را توصیف می کند، اما دائما آن را تنوع می نامد. این باعث شد کمی گیج شوم. اگر منصف باشیم، او همیشه در مورد محاسبه تغییرات یک نمونه خاص در یک جمعیت صحبت می کرد. آیا کسی می تواند برای من روشن کند که آیا آنها قابل تعویض هستند یا شاید من چیزی را از دست داده ام؟
آیا تنوع همان واریانس است؟
38884
من یک مدل رگرسیون لجستیک برای داده‌های پاسخ باینری 0/1 دارم که از نمونه‌های $(x_1,Y_1),\dots,(x_m,Y_m)$ ساخته شده است که در آن $x_1,\dots,x_m$ ثابت و غیر تصادفی هستند، مقادیر واقعی و $Y_1،\dots،Y_m$ مقادیر پاسخ باینری مربوطه هستند. بنابراین، مدل من این است: $$\log\bigg(\frac{\text{P}(Y=1|x)}{1-\text{P}(Y=1|x)}\bigg) = \ alpha + \beta x.$$ با استفاده از داده‌هایمان، $\alpha$ و $\beta$ را $\hat{\alpha}$ و $\hat{\beta}$ تخمین می‌زنیم. حالا یکی می خواهد مدل من را تست کند. آنها $n$ مقادیر جدید $Y$ را وارد می کنند، مثلاً $\hat Y'_1،...،\hat Y'_n$، همه مربوط به مقدار خاصی از $x$ هستند، مثلاً $x = x_0$ . آنها ادعا می کنند که اگر مدل من درست باشد، نسبت $\hat Y'_i$ که برابر با 1 است باید نزدیک به $$\frac{1}{1+\exp(\hat{\alpha} + باشد. \hat{\beta} x_0)}، $$ (مثلاً در بازه اطمینان 95٪ برای این کمیت، که می‌توانیم با استفاده از نرمال مجانبی $\hat{\alpha}$ و $\hat{\beta}$ و ماتریس کوواریانس مجانبی آنها). اما می دانیم که حتی اگر مدل کاملاً صحیح باشد و $$\text{P}(Y = 1 | x_0) = \frac{1}{\exp(\hat{\alpha} + \hat{\beta} x_0 )}،$$ نرخ همگرایی $(\hat Y'_1+\ldots+\hat Y'_n)/n$ به $\text{P}(Y = 1|x_0)$ برابر است با $1/\sqrt{n}$ سفارش دهید (اگر در این مورد اشتباه می کنم، لطفاً مرا تصحیح کنید). بنابراین، حتی یک نمونه با اندازه 100 (که بسیار بزرگ در نظر گرفته می شود) واقعاً به اندازه کافی بزرگ نیست که نسبت نمونه به مقدار مورد انتظار فرضی خود که مدل رگرسیون لجستیک ادعا می کند نزدیک باشد. واقعاً چگونه با استفاده از این داده‌های به‌دست‌آمده، ادعای درستی مدل را آزمایش کنیم؟ من کمی به اطراف نگاه کرده‌ام، و به نظر می‌رسد رویکرد بیزی استفاده از شبیه‌سازی برای ایجاد یک فاصله پیش‌بینی برای نسبت نمونه یک نمونه با اندازه $n$ است (به عنوان مثال به فصل 7 در کتاب رگرسیون گلمن و هیل مراجعه کنید). اما من نتوانستم چیزی در دنیای مکرر پیدا کنم که به این سوال پاسخ دهد. من بسیار قدردان هر گونه نظر، پیشنهاد، یا اشاره به ادبیات هستم.
اعتبارسنجی یک رگرسیون لجستیک برای $x$ خاص
101393
من در حال تلاش برای انجام تحلیل بیزی هستم. پس نیاز به راهنمایی من یک مجموعه داده به شکل زیر دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ykQt0.jpg) آیا هر ردیف دارای یک مقدار توزیع مشترک است. چگونه آن را در R محاسبه کنیم، از چه بسته هایی استفاده کنم؟
محاسبه توزیع مشترک 2 متغیر در R
101396
سلام کسی میتونه کمکم کنه تو این مشکل؟ من از R استفاده می کنم، بنابراین از چه توابعی باید استفاده کنم؟ متشکرم![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/IurEa.png)
تحلیل رگرسیون
46748
من در هر دو مدل لاجیت و GLM تازه کار هستم، اما فکر می کنم یکی از این دو کلاس مدل ممکن است تجزیه و تحلیل صحیحی برای مجموعه داده های من باشد: من علاقه مند به مقایسه ترکیب رژیم غذایی ماهی های جمع آوری شده در 3 نوع زیستگاه - بنابراین زیستگاه هستم. یک پیش بینی طبقه بندی شده با 3 سطح است. من می‌خواهم 2 نوع فرضیه صفر را آزمایش کنم: 1. نسبت نسبی انواع غذای A، B و C در بین 3 نوع زیستگاه یکسان است. به عبارت دیگر، برای انجام ارزیابی هایی مانند ترکیب متناسب جیره ماهی به طور قابل توجهی در بین زیستگاه ها متفاوت بود... سهم نسبی غذای A در جیره غذایی ماهی به طور قابل توجهی بود. در زیستگاه 1 بالاتر از زیستگاه 3... اگر رژیم غذایی ماهی ها در زیستگاه 1 نسبت به غذای نوع B، نوع غذای A نسبت بیشتری را شامل می شود. داده‌های پاسخ، نسبت‌های غذا در دسته‌های A، B یا C هستند. البته این نسبت‌ها بین 0 و 1 محدود می‌شوند و در یک ماهی مجموع نسبت‌ها به 1 می‌رسد. داده‌های خام در واقع نسبت‌ها هستند، نه تعداد مواد غذایی. من تعداد مواد غذایی خام را انتخاب کرده ام و از روابط طول/عرض برای انواع مواد غذایی استفاده کرده ام تا تخمین های زیست توده را برای هر نوع غذا به دست بیاورم - بنابراین داده های موجود در سلول ها برای ستون های A، B و C نسبت کل زیست توده در روده یک ماهی منفرد من چندین ماهی را از هر نوع زیستگاه تجزیه و تحلیل کرده ام (22 از زیستگاه 1، 20 از زیستگاه 2، 8 از زیستگاه 3). در مطالعه توابع log-linear و رگرسیون های لجستیک چند جمله ای، اکنون خود را کاملاً گیج کرده ام. عناصر این نرم افزار: 1. من یک متغیر پیش بینی کننده قطعی دارم (زیستگاه) 2. در سطح تک تک ماهی ها (تکثیر)، 3 دسته غذایی (A، B، و C) متقابل نیستند. 3. به دلیل تبدیل زیست توده، داده های خام نسبت هستند، نه شمارش. بهترین راه برای ارزیابی فرضیه های صفر برای این داده ها چیست؟ چه رویکردهای مقایسه‌ای مناسب هستند؟ از پیشنهادات عمومی استقبال می شود، پیشنهادات متناسب با R حتی بیشتر مورد استقبال قرار می گیرند.
تکرار در لاجیت چند متغیره در R
56692
بنابراین من بسته به نوع اطلاعات، آزمایشی را در مورد وفاداری انتقال در انسان اجرا می کنم. این کار با داشتن زنجیره های 5 نفره انجام می شود که یک بازی از نوع نجواهای چینی را با 4 پاساژ اطلاعات انجام می دهند که در آن اطلاعات از طریق زنجیره منتقل می شود و اطلاعات بررسی می شود. 4 نوع اطلاعات مختلف وجود دارد، پاساژها نیز به 4 مرتبه ارائه می شوند (می توان آنها را در 1، 2، 3، 4 انجام داد). هر زنجیره دارای 5 موقعیت است. این واقعیت که زنجیره‌ها مستقل نیستند و شرکت‌کنندگان هم نیستند (هر کدام ۴ قسمت را انجام می‌دهند) به این معنی است که من این دو عبارت را به عنوان عوامل تصادفی درج کردم. از آنجایی که این داده متناسب است، من از توزیع دوجمله ای با تابع logit استفاده کردم. من از GenStat برای انجام تجزیه و تحلیل خود استفاده کردم (سرپرست آن را توصیه کرد). من 2 تجزیه و تحلیل مربوط به این سوال را انجام دادم، اولی به بررسی نگهداری اطلاعات کلی (نسبت اطلاعات منتقل شده در مقایسه با اطلاعات اصلی، نسل 0) و دومی بررسی نگهداری اطلاعات قبلی (اطلاعات منتقل شده در مقایسه با نسل قبلی) بود. من برای اولین GLMM، تأثیر قابل توجهی از موقعیت و نوع سفارش پیدا کردم. برای GLMM دوم، تأثیر قابل توجهی از موقعیت * نوع، بدون تأثیر نظم. به نظر نمی رسد Genstat در مورد اثرات ثابت در هنگام تعامل به شما بگوید، شاید نتواند این را محاسبه کند، من نمی دانم. چیزی که من را گیج می کند این است که چگونه این را تفسیر کنم - درک من این است که یک فرد به طور کلی اطلاعات بیشتری را در صورت قرار گرفتن در نسل اولیه حفظ می کند (منطقی است، اطلاعات فقط می تواند تنزل پیدا کند، نه بهبود) آنها همچنین بسته به زمانی که هستند اطلاعات بیشتری را حفظ می کنند. دریافت شده (اول دوم و غیره) و نوع آن چیست. در برخی از انواع یک عاطفه خستگی و در برخی دیگر یک عاطفه یادگیری وجود دارد. شخص بسته به موقعیت خود در زنجیره و نوع اطلاعاتی که دریافت می کند، اطلاعات قبلی را حفظ می کند. هیچ اثری از سفارش در نگهداری اطلاعات قبلی آنها وجود ندارد. حدس می‌زنم جایی که من گم شده‌ام این است که چرا در آزمون اول تأثیر نظم می‌گیرید اما در آزمایش دوم نه، چگونه و چرا ممکن است این اتفاق بیفتد؟ هر گونه کمکی قدردانی خواهد شد. با تشکر
تفسیر خروجی از یک مدل ترکیبی خطی تعمیم یافته
80236
فرض کنید دو محصول A و B وجود دارد که هر دو مقداری ارزش دارند. جمعیت 10000 نفری را در نظر بگیرید که بین این دو محصول انتخاب می کنند. من می‌خواهم تابعی را ارائه کنم که قیمت «A» و «B» را بر اساس تعداد افرادی که محصولات را انتخاب می‌کنند تنظیم کند. تابع باید معیارهای زیر را برآورده کند: «1.» مقدار A و B همیشه باید مجموع 1 باشد و در محدوده بین 0 و 1 باشد. و به طور مشابه، هر چه افراد کمتری محصولی را انتخاب کنند، ارزش آن بالاتر خواهد بود. برای نشان دادن، فرض کنید «در روز 1:» «6000» نفر محصول «A» و «4000» محصول «B» را انتخاب می‌کنند و مقدار آنها به ترتیب «0.6» و «0.4» است. «در روز 2:» «7000» نفر محصول «A» را انتخاب می‌کنند و «3000» محصول «B» را انتخاب می‌کنند، مقدار «A» باید کاهش یابد و مقدار «B» باید افزایش یابد. «3.» تعدیل مقدار نباید بر اساس تعداد افرادی که از محصول استفاده می کنند به صورت خطی افزایش یا کاهش یابد، اما زمانی که نسبت افرادی که از محصولات استفاده می کنند نزدیک به «50 درصد» است، افزایش یا کاهش باید تندتر باشد. زمانی که افرادی که محصولات را انتخاب می‌کنند، آهسته‌تر افزایش یا کاهش می‌یابد (مثلاً «90» در مقابل «10٪»).
تنزیل ارزش ها بر اساس فرکانس
80238
خوب، بنابراین من داده‌هایی از کلاسی دارم که یک خودآزمایی مقدماتی داشت تا ببینم چقدر برای کلاس آماده شده‌اند و نتایج نهایی برای کلاس. خودآزمایی مقدماتی دامنه ای از 0..13 و نهایی از 0..100 داشت. (به افسانه تمایز عادی، هیچ‌کدام اهمیت ندهید، این فقط کلاس (Coursera) آستانه گواهینامه 50% داشت و شما یک با تمایز بالای 80٪ دریافت خواهید کرد، اما، اینجا، به اینها نگاه کنید. دو نمودار: ![قبل از از بین بردن 13ها](http://cablemodem.hex21.com/~binesh/coursera/useful- genetics-1/scatterplot-full.png) ![پس از حذف 13ها](http://cablemodem.hex21.com/~binesh/coursera/useful- genetics-1/scatterplot.png) ضریب همبستگی برای داده های کامل مجموعه r=0.29782 است و اگر 13 ها را از خودآزمایی مقدماتی حذف کنم تبدیل می شود r=0.294383، بنابراین حدس می‌زنم همبستگی آنقدرها تغییر نمی‌کند. اما، حدس می‌زنم سوال من بیشتر از این بود، آیا معتبر است/ایده خوبی است که 13 را از آزمون مقدماتی حذف کنیم؟ این چیزی است که من فکر می کردم: به نظر می رسد فینال برای مجموعه دانش آموزانی که مورد آزمایش قرار می گیرند معتبر است. اما، شما واقعاً نمی توانید بین دانش آموزی که نمره 13 گرفته است و دانش آموز دیگری که نمره 13 گرفته است، تمایز قائل شوید، زیرا آنها آزمون را به حداکثر رسانده اند. (مثلاً اگر ترازو داشتید که تا 100 گرم اندازه می گرفت و یک فیل، یک نهنگ و یک مرغ را روی آن گذاشتید و همه آنها را 100 گرم اعلام کردید) اگر آزمایش در حال انجام است چه باید کرد. توسط افراد خاصی؟ بهتر است آن را رها کنیم، آن را حذف کنیم یا به طور کلی با آن کار دیگری انجام دهیم؟ با تشکر
حذف داده ها از افرادی که نمرات عالی دارند
92240
در اکثر متاآنالیزهایی که خوانده‌ام، نویسندگان مطالعاتی را با حجم نمونه بسیار کوچک حذف می‌کنند (مثلاً 10=n). چرا اینطور است؟ ## حدس و گمان من می توانم حدس بزنم که یک دلیل این است که از آنجایی که اندازه اثر از یک مطالعه به میانگین گروه ها و همچنین انحراف استاندارد ادغام شده بستگی دارد، مانند $$\frac{\bar{X}_1-\bar{ X}_2}{SD_{pooled}}$$ و نمونه‌های کوچک را نمی‌توان فرض کرد که به اندازه کافی توزیع نرمال را در بین نتایج خود به دست آورند، انحراف استاندارد تلفیقی به‌طور وحشتناکی کاهش می‌یابد، در نتیجه احتمالاً اندازه کلی اثر را به هم ریخته است. علاوه بر این، برخی از نویسندگان استدلال می کنند که مطالعات با حجم نمونه بزرگ، از جمله موارد دیگر، تمایل به کیفیت بالاتری نسبت به مطالعات با حجم نمونه کوچکتر دارند، و ممکن است یک سوگیری انتشار وجود داشته باشد، و مطالعات کوچکتر باید نتایج مثبتی داشته باشند تا به دست آیند. منتشر شده است. به عنوان مثال، این استدلالی است که توسط Nüesch و همکاران، 2010 ارائه شده است، اگرچه مطالعات کوچک در اینجا به عنوان $n<100$ تعریف شده است. با این حال، من حدس می‌زنم که می‌توان از نتایجی مانند این به اینکه با مطالعات حتی کوچک‌تر چه کرد. ## مراجع * Nüesch و همکاران، 2010. اثرات مطالعه کوچک در متاآنالیز کارآزمایی‌های استئوآرتریت: مطالعه فرااپیدمیولوژیک. _BMJ، 2010، 16 ژوئیه، 10.1136/bmj.c3515._
چرا در متاآنالیزها از حجم نمونه کوچک اجتناب می شود؟
80231
من سعی می کنم مجموعه ای از داده ها را با تقریباً 3500 ورودی خوشه بندی کنم که عمدتاً از پاسخ های نظرسنجی در مقیاس لیکرت-10 تشکیل شده است. بیشتر پاسخ‌های نظرسنجی ناهنجار هستند - یک مثال معمولی در زیر آمده است: ![توزیع](http://i.imgur.com/pDo18EM.jpg) من کارهای زیر را انجام داده‌ام: * محدوده استاندارد داده‌ها * ردیف‌هایی که در آن‌ها حذف شده‌اند. پاسخگوی نظرسنجی به تمام سوالات با 5/خنثی یا 10/کاملا موافق پاسخ داد * از PROC VARCLUS و PROC FACTOR SAS برای کاهش متغیرهای استفاده شده در راه حل خوشه بندی * متغیرهای حذف شده با بیشترین انحراف * از گزینه TRIM= برای حذف نقاط پرت خوشه استفاده کنید. علی‌رغم همه این‌ها، همه راه‌حل‌های خوشه‌ای من به طور مداوم مقادیر معیار خوشه‌بندی مکعبی منفی را نشان می‌دهند. در اینجا یک مثال معمولی وجود دارد: ![CCC منفی](http://i.imgur.com/dzrBv09.jpg) آیا کسی می‌تواند راهبردی برای ارائه راه‌حل خوشه‌ای با CCC مثبت پیشنهاد کند؟ من مطمئن نیستم که در مرحله بعد چه چیزی را امتحان کنم.
استراتژی یافتن راه حل خوشه ای با مقادیر مثبت برای معیار خوشه بندی مکعبی
77175
با استفاده از آزمونی برای تک متغیره کردن داده‌های سری زمانی برای بررسی اینکه آیا این سری ریشه واحد دارد یا نه، فرد با این تصمیم مواجه می‌شود که آیا می‌خواهد آزمایش کند که آیا سری حول یک ثابت است یا یک روند. اما من خیلی مطمئن نیستم، بر اساس چه علامتی باید استنباط کنم که کدام آزمون معقول است؟ آیا درست است که به نمودار داده‌ها نگاه کنیم و ببینیم آیا روندی قابل مشاهده است یا خیر، و اگر بله، سپس آزمایش ثابت بودن حول یک روند را انتخاب کنیم؟ و با ثابت به همین ترتیب: اگر روندی قابل مشاهده نیست، ببینید آیا این سری ممکن است میانگینی متفاوت از صفر داشته باشد؟
آزمایشات ریشه واحد: چگونه می توان تصمیم گرفت که آیا یک روند و/یا یک ثابت را شامل شود
100082
من با داده های بالینی چند صد بیمار کار می کنم. هر بیمار در 6 نقطه زمانی مختلف با فواصل منظم اندازه گیری شد. هر بیمار در 3 حوزه مختلف ارزیابی می شود و برای هر دامنه از 0 تا 11 نمره داده می شود. در این مقیاس 11 کامل و 0 بدترین نمره است. توزیع بسیار کانونی نمرات 11،11،0 و نمونه ای از توزیع بسیار پراکنده 7،7،7 است. سوال تحقیق این است که آیا توزیع نمرات با طول بقای بیمار ارتباط دارد؟ رویکرد فعلی من به این صورت است: کمترین امتیاز را از دو نمره دیگر کم می کنم و هر کدام را مربع می کنم. به عنوان مثال: امتیاز 0،2،11 مقدار (11-0)2 + (2-0)2 = 125 را به دست می دهد. متعاقبا، من یک رگرسیون کاکس را برای بررسی همبستگی با بقا انجام می دهم. علاوه بر این، من می‌خواهم الگوی پیشرفت بیمار را با یک پیشرفت بسیار کانونی بیماری مطابقت دهم، یعنی فردی که به‌جای 8،7،7 برای مجموع 22 به 0,11,11 پیشرفت می‌کند. داده های چند نقطه زمانی در تجزیه و تحلیل آیا به نظر شما رگرسیون کاکس یک رویکرد مناسب است؟ مشکل این است که برای هر مجموع سه حوزه، یک نتیجه متفاوت ممکن است. ثانیا، چه تحلیلی باید انجام دهم تا میزان تطابق الگوی پیشرفت را با بقا مرتبط کنم؟
رگرسیون کاکس برای مشاهده اینکه آیا توزیع بیماری بقا را پیش بینی می کند یا خیر
46486
من سعی می‌کنم برای فراتحلیل ده‌ها مطالعه‌ای که گروه‌های پیش‌بینی دودویی یکسان و اندازه‌گیری پیامد پیوسته یکسانی دارند، به یک تفاوت میانگین استاندارد شده ترکیبی/تجمعی دست یابم. من قادر به بازیابی حجم نمونه، میانگین و انحراف معیار برای گروه کنترل و آزمایش در هر مطالعه هستم که منابع متعددی مانند Chochrane Reviews (http://130.226.106.152/openlearning/html/modA1-3) هستند. htm) گفته اند که نیاز دارم -- اما من نمی توانم هیچ منبعی را پیدا کنم که توضیح دهد با این مقادیر چه کنم. در اینجا برخی از داده های نمونه جعلی مشابه آنچه من دارم وجود دارد، در صورتی که برای اهداف مثال مفید باشد: مطالعه، درمان N، میانگین درمان، SD درمان، کنترل N، میانگین کنترل، کنترل SD A، 30، 15.5، 3.2، 31، 17.9، 3.0 B، 60، 17.3، 1.1، 60، 18.2، 0.9 C، 40، 15.1، 3.5، 44، 18.0، 2.8
معادله ترکیب تفاوت های میانگین استاندارد شده در مطالعات متعدد چیست؟
88349
من دو متغیر دارم، و رابطه بین آنها در این نمودار به نظر می رسد: ggplot(mtcars, aes(wt, mpg)) + geom_point() ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur. com/C8BRP.jpg) رابطه بین «mpg» و «wt» به بهترین شکل با وارد کردن «wt» به عنوان یک عبارت درجه دوم توصیف می‌شود، مانند: lm(mpg ~ wt + I(wt^2)، mtcars) اما اگر بخواهم از «wt» در یک اصطلاح تعاملی استفاده کنم چه؟ آیا باید «wt»، «wt^2» یا هر دو را در اصطلاح تعامل لحاظ کنم؟ بنابراین فرض کنید می‌خواهم تعامل «wt» را با «cyl» درج کنم، از کدام یک از مدل‌های زیر استفاده کنم؟ lm(mpg ~ wt*cyl + I(wt^2), mtcars) lm(mpg ~ wt + I(wt^2)*cyl, mtcars) lm(mpg ~ wt*cyl + I(wt^2)*cyl ، mtcars)
عبارت اندرکنش در رگرسیون خطی
19431
من سعی دارم با استفاده از بسته کوپولا توزیع مشترک بازده سهام را تخمین بزنم. من چند مقاله در مورد کوپولا خوانده ام، اما افسوس که فقدان دانش ریاضی من را از درک فراتر از اصول اولیه باز می دارد. من به تخمین توزیع مشترک با استفاده از مراحل زیر فکر می کنم و به طور کلی چند سوال در مورد فرآیند دارم: 1. دانلود قیمت سهام برای دو شرکت 2. تبدیل قیمت ها به بازده مداوم 3. تبدیل بازده به توزیع یکنواخت حاشیه ای. 1. چجوری اینکارو بکنم؟؟ 4. ایجاد شی copula 1. هنگام ایجاد شی Copula با استفاده از `ellipCopula()` یا `archmCopula()`، باید نوع copula و پارامترها را مشخص کنم. چگونه بفهمم از کدام کوپولا استفاده کنم؟ و چگونه پارامترها را به دست بیاورم... من فکر می کردم هدف از برازش یک کوپول با داده ها به دست آوردن پارامترهای تخمینی است، پس چرا باید اینجا را مشخص کنم؟ آیا من فقط تخمین های اولیه پارامترهایی را ارائه می کنم که سپس در برازش واقعی اصلاح می شوند؟ 5. مشخص کردن توزیع دو متغیره 1. هنگام تعیین توزیع دو متغیره، باید حاشیه ها را در `mvdc()` مشخص کنم، زیرا، طبق تعدادی از منابع، باید داده ها (بازگشت ها) را به توزیع های یکنواخت تبدیل کنم، آیا می خواهم. حاشیه ها را به عنوان 'unif' در تابع مشخص کنید؟ 6. داده هایی را که قرار است برازش شوند تعریف کنید. 1. من فرض می کنم که ماتریسی با 2 ستون در این مورد است که هر ستون یکنواخت است. بسیار قدردانی می شود!
برآورد توزیع مشترک با استفاده از بسته کوپولا در R
86998
بیوشیمیست اهل سیبری به تازگی یک ابر ژنوم جدید را که از ترکیب ژنوم X و ژنوم Y تشکیل شده است، ثبت کرده است. این ژنوم ها در صورت جدا شدن بی ضرر هستند، اما زمانی که مخلوط شوند، 45٪ احتمال یک واکنش جانبی ناخواسته و 10٪ احتمال عدم واکنش وجود دارد. همه با توجه به اینکه مواد شیمیایی در ابتدا جدا شده اند، زمان تا حالت جذب را محاسبه کنید. طرح به شرح زیر است: ![تصویر](http://s9.postimg.org/opq36p45r/1task.jpg) زمان قبل از رسیدن به حالت جذب، میانگین زمان شکست (MTTF) نیز نامیده می شود. این تبدیل لاپلاس نرخ فاجعه است. من می خواهم این را بفهمم، نه اینکه حل شود، پس لطفاً فقط راهنمایی هایی به من بدهید که کجا بروم.
محاسبه زمان تا زمانی که حالت جذبی مواد شیمیایی داده شده در ابتدا جدا شوند
6306
اگرچه این سوال تا حدودی ذهنی است، امیدوارم مطابق دستورالعمل های FA به عنوان یک سوال ذهنی خوب واجد شرایط باشد. این بر اساس سوالی است که Olle Häggström یک سال پیش از من پرسید و با وجود اینکه نظراتی در مورد آن دارم، پاسخ قطعی ندارم و از کمک دیگران سپاسگزارم. ## پیش زمینه: مقاله ای با عنوان توالی حروف مساوی در کتاب پیدایش توسط D. Witztum، E. Rips و Y. Rosenberg این ادعای خارق العاده را مطرح کرد که متن عبری کتاب پیدایش رویدادهایی را رمزگذاری می کند که تا قبل از وقوع آنها رخ نداده است. هزاران سال پس از نگارش متن این مقاله توسط Statistical Science در سال 1994 (جلد 9 429-438) منتشر شد و به عنوان یک معمای چالش برانگیز ارائه شد که راه حل آن ممکن است به حوزه آمار کمک کند. در پاسخ، مقاله دیگری با عنوان حل معمای رمز کتاب مقدس توسط B. McKay، D. Bar-Natan، M. Bar-Hillel و G. Kalai در سال 1999 در علم آمار منتشر شد (جلد 14 (1999) 150-173). . مقاله جدید استدلال می کند که پرونده ویتزتوم، ریپس و روزنبرگ به طور مهلکی معیوب است، در واقع که نتیجه آنها صرفاً منعکس کننده انتخاب های انجام شده در طراحی آزمایش آنها و جمع آوری داده ها برای آن است. این مقاله شواهد گسترده ای را در حمایت از این نتیجه گیری ارائه می کند. (علائق خودم که در بخش 8 مقاله ما خلاصه شده است در گزارش فنی دیگری با بار هیلل و مک کی با عنوان آزمایش دو خاخام معروف: چقدر شبیه به هم هستند؟ به این سایت نیز مراجعه کنید.) ## سوالات: سوال خاص اوله هاگستروم این بود: یک بار پیشنهاد کردم که مقاله شما ممکن است در یک دوره آماری در مقطع کارشناسی پیشرفته برای نشان دادن این موضوع مفید باشد. مشکلات > داده کاوی و تکنیک های مرتبط آیا موافقید؟ علاوه بر سوال اول، اجازه دهید یک سوال کلی تر بپرسم. > آیا چیزی مربوط به آمار است که ما آموخته ایم، (شامل > شاید برخی سؤالات جالب برای پرسیدن) از قسمت کد کتاب مقدس. فقط برای روشن شدن، سوال من محدود به بینش **مربوط به آمار** است و نه به هیچ جنبه دیگری از این قسمت.
آیا درس های آماری از قسمت رمز کتاب مقدس وجود دارد؟
112386
من 1) توضیح بصری ریشه واحد و 2) http://www.r-bloggers.com/unit-root-tests/ را برای انجام تست ریشه واحد خواندم. من سؤالات اساسی دارم: 1) آیا باید ریشه واحد را در هر دو متغیر 'x' و 'y' معادله lm خود بررسی کنم یا فقط یکی از آنها؟ برای فرآیند AR، مهم نیست (من فکر می کنم)، اما معادله lm من 1) چند متغیر (x) در سمت راست دارد، و همچنین 2) یک تاخیر y. آیا باید ur.lm را برای همه x ها نیز بررسی کنم؟ 2) من در مورد چه پارامترهایی باید به ur.df منتقل کنم گیج شده ام؟ پارامتر type به چه معناست (none/trend/drift) و چگونه تصمیم بگیرم کدام یک از none/trend/drift مناسب است 3) چگونه نتیجه تست df زیر را تفسیر کنم (z.diff.lag چیست؟ درست است که بگوییم z.diff.lag با توجه به آمار بالای آن، ریشه واحد را نشان نمی دهد، بنابراین z.diff.lag ثابت است، اما به هر حال چیزی که z.diff.lag است. > خلاصه (ur.df(temp3)) ########################################################### ####### تست ریشه واحد تست دیکی-فولر تقویت شده # ############################################## تست رگرسیون هیچکدام تماس: lm(فرمول = z.diff ~ z.lag.1 - 1 + z.diff.lag) باقیمانده ها: حداقل 1Q Median 3Q Max -5.7048 -0.7167 -0.1592 0.4686 7.4964 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) z.lag.1 -0.0002636 0.0001407 -1.874 0.0609. z.diff.lag -0.3607210 0.0048720 -74.040 <2e-16 ***
نحوه تفسیر نتایج آزمون دیکی فولر (DF) در R (برای آزمون واحد)
46746
من مقدار زیادی داده دارم (مثلاً 100K) و می‌خواهم آنها را در خوشه‌های بسیار ریز دانه (مثلاً 10K) دسته‌بندی کنم. من به دنبال الگوریتم مناسبی هستم که از تابع شباهت به جای کل داده ها استفاده کند و همچنین به دلیل مقیاس داده نمی توانم کل ماتریس شباهت را محاسبه کنم. پیاده سازی پایتون قدردانی می شود.
خوشه‌بندی داده‌های مقیاس بزرگ در خوشه‌های ریزدانه
70251
مشتری از من خواسته است تا برنامه ای را با R بنویسم که آزمون پراکندگی دو جمله ای را محاسبه کند. من چیزی برای این پیدا نکردم، اما متوجه شدم که شما می توانید توزیع دو جمله ای را محاسبه کنید. آیا آنها یکسان هستند؟ من گمان می کنم آنها هستند.
آیا پراکندگی دو جمله ای همان توزیع دو جمله ای است؟
6308
من به این مقاله اشاره می کنم: http://www.nytimes.com/2011/01/11/science/11esp.html > آزمایش زیر را در نظر بگیرید. فرض کنید دلیلی برای این باور وجود دارد که > یک سکه کمی به سمت سرها وزن داشته باشد. در یک آزمایش، سکه 527 بار از 1000 سر بالاتر می رود. > > آیا این دلیل قابل توجهی است که سکه وزن دارد؟ > > تحلیل کلاسیک می گوید بله. با یک سکه منصفانه، شانس بدست آوردن 527 یا بیشتر هد در 1000 تلنگر کمتر از 1 در 20 یا 5 درصد است که برش معمولی > است. به بیان دیگر: این آزمایش شواهدی از یک سکه وزنی با 95 درصد اطمینان پیدا می کند. > > با این حال بسیاری از آماردانان آن را نمی خرند. یک در 20 احتمال > گرفتن هر تعداد سر بالای 526 در 1000 پرتاب است. یعنی مجموع > احتمال ورق زدن 527، احتمال ورق زدن 528، 529 > و غیره است. > > اما آزمایش همه اعداد را در آن محدوده پیدا نکرد. این متخصصان می گویند که > فقط یک - 527. بنابراین، این کارشناسان می گویند که محاسبه > احتمال به دست آوردن آن یک عدد - 527 - اگر وزن سکه باشد، > و مقایسه آن با احتمال بدست آوردن همان عدد در صورتی که سکه > منصفانه است. آماردانان می توانند نشان دهند که این نسبت نمی تواند بیشتر از 4 به 1 باشد، به گفته پل اسپکمن، آماردان، که به همراه جف رودر، روانشناس، مثال را ارائه کرد. **سوال اول:** این برای من جدید است. آیا کسی مرجعی دارد که بتوانم محاسبه دقیق را بیابم و/یا می توانید با دادن محاسبه دقیق به من کمک کنید و/یا می توانید مطالبی را به من نشان دهید که بتوانم نمونه های مشابه را پیدا کنم؟ > بیز راهی ابداع کرد تا احتمال یک فرضیه را به عنوان شواهد جدید به روز کند > > بنابراین در ارزیابی قدرت یک یافته معین، تجزیه و تحلیل بیزی (تلفظ BAYZ-> ee-un) احتمالات شناخته شده را، در صورت وجود، ترکیب می کند. خارج > مطالعه > > ممکن است به آن اثر بله، درست گفته شود. اگر یک مطالعه نشان دهد که کامکوات خطر ابتلا به بیماری قلبی را تا 90 درصد کاهش می دهد، که یک درمان اعتیاد به الکل را در یک هفته درمان می کند، احتمال اینکه والدین حساس دو برابر بیشتر از یک پسر بچه به دنیا بیاورند، دختر هستند، پاسخ بیزی با شکاک > بومی مطابقت دارد: بله، درست است. یافته های مطالعه با آنچه در جهان > قابل مشاهده است سنجیده می شود. > > حداقل در یکی از زمینه های پزشکی - آزمایش های غربالگری تشخیصی - محققان از قبل از احتمالات شناخته شده برای ارزیابی یافته های جدید استفاده می کنند. به عنوان مثال، یک تست جدید تشخیص دروغ ممکن است 90 درصد دقیق باشد و 9 نفر از 10 دروغگو را به درستی علامت گذاری کند. اما اگر به جمعیتی 100 نفری داده شود که از قبل شناخته شده است > شامل 10 دروغگو باشد، این آزمایش بسیار تاثیرگذار خواهد بود. > > 9 نفر از 10 دروغگو را به درستی شناسایی می کند و یکی را از دست می دهد. اما به اشتباه 9 مورد از 90 مورد دیگر را دروغگو معرفی می کند. تقسیم به اصطلاح مثبت واقعی > (9) بر تعداد کل افرادی که تست پرچم گذاری شده است (18) دقت > 50 درصد را به دست می دهد. مثبت های کاذب و منفی های کاذب به > نرخ های شناخته شده در جمعیت بستگی دارد. **سوال دوم:** با این روش دقیقاً چگونه قضاوت می کنید که یک یافته جدید واقعی است یا خیر؟ و: آیا به دلیل استفاده از برخی احتمالات از پیش تعیین شده، این به اندازه مانع 5% دلخواه نیست؟
مقاله ای در مورد استفاده نادرست از روش های آماری در NYTimes
287
آیا کسی می تواند تفاوت بین روش لحظه ها و GMM (روش کلی لحظه ها)، رابطه آنها و اینکه چه زمانی باید از یکی یا دیگری استفاده شود را برای من توضیح دهد؟
تفاوت/رابطه بین روش لحظه ها و GMM چیست؟
70252
می‌خواهم تفاوت مدل چندجمله‌ای و مدل چندجمله‌ای را بدانم. هر دو مدل چند جمله ای، به عنوان مثال مدل لاجیت / پروبیت چند جمله ای، و مدل چند جمله ای برای تخمین داده های کمی استفاده می شوند. اما، یک مدل چند تومی به ندرت استفاده می شود. من فکر می کنم که تفاوت این است که آیا پارامترها را برای هر دسته تخمین بزنیم یا خیر. بنابراین در مدل چندتومی پارامترهای هر دسته یکسان است. آیا درست است؟ علاوه بر این، من علاقه مند به درک روش تخمین برای مدل چندتوم هستم. اگر کسی آن را درک می کند، خوشحال می شوم که کسی به من اشاره کند.
تفاوت بین چند جمله ای و چند جمله ای چیست؟
10137
در رابطه با سوال قبلی در مورد تحلیل قدرت برای رگرسیون چندگانه، یک محقق علوم اجتماعی از من در مورد تحلیل قدرت برای رگرسیون تعدیل کننده (یعنی اثر متقابل) پرسید. محقق از من پرسید: > به نظر می رسد به یاد دارم که قدرت آزمون های اعتدال با دو متغیر پیوسته > پیش بینی کننده کم است - آیا حداقل نیاز به حجم نمونه را می دانید > در این زمینه؟ با توجه به زمینه، می توان فرض کرد که این یک مطالعه مشاهده ای (نه یک مطالعه تجربی) است و متغیر وابسته پیوسته است. ### سوال * در مورد محاسبه حداقل حجم نمونه مورد نیاز چه توصیه ای می کنید؟ * آیا اخطارهایی وجود دارد که ارائه دهید؟
تحلیل توان برای اثر تعدیل کننده در رگرسیون با دو پیش بینی پیوسته
45218
یک روش تحلیلی به مدت 112 روز متوالی اجرا می شود. هر روز، آنالیزها در چهار دسته به ترتیب اجرا می‌شوند - Batch-1، Batch-2، و غیره. در هر دسته یک نمونه QC با برچسب QC1، QC2 و غیره وجود دارد. کد R زیر یک جدول احتمالی برای داده‌ها ایجاد می‌کند. ، تعداد دفعاتی که هر نمونه QC یک رتبه خاص را نشان می دهد. به عنوان مثال، QC1 بالاترین نتیجه را در 43 روز از 112 و QC4 کمترین نتیجه را در 28 روز از 112 داشته است. تحلیلگر این احساس را دارد که اولین دسته از روز بیشترین نتایج را دارد. از چه آزمون آماری برای بررسی تصادفی بودن یا نبودن رتبه‌های نمونه‌های QC در روز به روز استفاده کنم؟ می‌دانم که نباید از آزمون کای دو استقلال بین نمونه QC و رتبه‌ها استفاده کنم، اما چرا که نه؟ تعداد <- c(43,26,26,17,24,33,28,27,18,27,27,40,27,26,31,28) mat.obs <- ماتریس(count,nrow=4, byrow=TRUE) نام‌های ردیف (mat.obs) <- c(QC1، QC2، QC3، QC4) colnames(mat.obs) <- c(1،2،3،4) mat.obs
تست مربع چی برای نمونه های QC
46743
من روی تحقیقی کار می کنم که شامل جمع آوری داده ها از کارمندان و مشتریان است. به طور خاص، سؤال تحقیق من با تأثیر رضایت کارکنان بر کیفیت خدمات به مشتریان سروکار دارد. من داده‌ها را هم از کارمندان و هم از مشتریان جمع‌آوری می‌کنم و برای اجرای یک تحلیل همبستگی روی نتایج برنامه‌ریزی می‌کنم. من می دانم که **همبستگی متعارف** را اجرا خواهم کرد، اما سوال من این است که اگر 200 پرسشنامه از کارمندان جمع آوری کرده باشم و 400 پرسشنامه از مشتریان داشته باشم، در یک فایل SPSS، مشکل از دست دادن داده ها وجود دارد، زیرا داده های کارکنان وجود دارد. 200 کمتر از داده های مشتریان است. آیا کسی پیشنهادی دارد که چگونه باید این موضوع را مدیریت کنم؟
همبستگی متعارف
70255
من می خواهم مدل های مختلف رتبه بندی را با استفاده از متریک NDCG مقایسه کنم. من NDCG مدل ها را میانگین می کنم، سپس از تفاوت بین میانگین استفاده می کنم. NDCG برای مقایسه مدل ها. سوالات من: 1. داشتن 0.1 (متوسط) NDCG بیشتر از یک رتبه‌بندی دیگر به چه معناست؟ آیا می توانم بیشتر از این بگویم: این رتبه کمی بهتر است؟ به خصوص، چقدر تفاوت در NDCG به صورت مطلق «معنی‌دار» خواهد بود؟ 2. آیا می توانم چیزی در مورد اهمیت آماری تفاوت میانگین NDCG با فرضیه 0 بگویم؟ من کاملاً مطمئن نیستم که آیا فرض نرمال بودن اینجا وجود دارد یا خیر... به خصوص که من به میانگین تفاوت ها نگاه نمی کنم، بلکه به تفاوت میانگین ها نگاه می کنم.
چگونه مقادیر NDCG را مقایسه کنم؟
68840
معادلات رگرسیونی به من داده شده است که یکی رگرسیون خطی x را روی y و دیگری y را روی x نشان می دهد. هر دو به **مجموعه واحدی از نقاط داده** اشاره دارند. 4X - 5Y + 33 = 0 20X - 9Y - 107 = 0 * در نظر گرفتن اولین X (وابسته) به Y (مستقل) => به شکل `X = a + bY`. در نهایت مقدار شیب 1.25 را به دست می‌آورم * با در نظر گرفتن دومی Y (وابسته) به X (مستقل) => به شکل 'Y = a + bX'. من در نهایت با مقدار شیب 2.22 به پایان می رسم. حال، این مقادیر **به نوعی نشان می دهد** که سیستم خطوط رگرسیون _invalid_ است؟ چطور است؟ من نمی توانم این را تجسم کنم. در کتاب قاعده آمده است که: 1. هر دو ضرایب (شیب) باید کمتر از 1 باشند 2. هر دو ضرایب (شیب) باید علامت یکسانی داشته باشند آیا اینها صحیح هستند؟ چه محدودیت های دیگری برای معتبر بودن مجموعه ای از معادلات رگرسیون وجود دارد؟
رگرسیون خطی: توضیح محدودیت های شیب
4017
من می خواهم یاد بگیرم از **Rcpp** استفاده کنم. من اسناد را در وب‌سایت CRAN بسته مرور کردم، اما احساس می‌کنم کار بر روی یک مثال عملی (دومین عملی، با توجه به convolve3) مفیدتر خواهد بود. من کد زیر را از بسته **robustbase** پیشنهاد می کنم، زیرا نه خیلی طولانی است و نه خیلی کوتاه، از ترکیبی از انواع R و توابع R استفاده می کند و یکی از آن تکرارهای کوچک حسابی را دارد که در R بسیار کند هستند. آیا به دنبال Rcpp-ing آن هستید؟ scaleTau2<-تابع (x، c1 = 4.5، c2 = 3، قوام = TRUE، mu.too = FALSE){ n <- طول(x) medx <- میانه(x) x. <- abs(x - medx) sigma0 <- میانه(x.) mu <- if (c1 > 0) { x. <- x./(sigma0 * c1) w <- 1 - x. * x. w <- ((abs(w) + w)/2)^2 sum(x * w)/sum(w) } other medx x <- (x - mu)/sigma0 rho <- x^2 rho[rho > c2^2] <- c2^2 if (!یکسان(سازگاری، نادرست)) { Erho <- تابع(b) 2*((1-b^2)*pnorm(b)-b*dnorm(b)+b^2)-1 Es2 <- تابع(c2) Erho(c2*qnorm(3/4)) nEs2 <- ifelse(consistency == finiteSample,n-2,n)*Es2(c2) } else nEs2 <- n c(if (mu.too) mu, sigma0 * sqrt(sum(rho)/nEs2)) } لطفاً تا جایی که می توانید توضیح دهید. **ویرایش** این در واقع ایده یک توضیح گام به گام است که چگونه می توانید یک کد R خوب نوشته شده (و مستند) را به یک پیاده سازی کارآمد تبدیل کنید (بنابراین حداقل پایه ها درست است). انتخاب کد کمی تصادفی قابل بحث است، اما فکر می‌کنم اسکریپت معمولی روی نقشه‌های ما را منعکس می‌کند (توابع R را که کسی نمی‌خواهد ترجمه کند، از حلقه‌های حسابی استفاده می‌کند، فراخوانی می‌کند...). **EDIT2** از نظرات من متوجه شدم که این ممکن است در واقع کار بزرگی در C++ باشد (من هنگام ارسال کد متوجه آن نشدم). با توجه به این موضوع، استفاده از قطعات منفرد به عنوان ابزار آموزشی مشکلی ندارد. در نهایت با ویرایش سوال، قطعات را با هم تجزیه خواهم کرد.
ترجمه R به C++ (در نهایت با Rcpp)
100084
من تمام تجزیه و تحلیل های خود را بر روی یک DV (کیفیت) با استفاده از ANOVA اندازه گیری های مکرر، با دو متغیر (زمان و جنسیت) در دو سطح انجام داده ام. با این حال، امروز به ذهنم رسید که ممکن است این نادرست باشد، و مشکل اینجاست: اگرچه جنسیت یکی از متغیرهای من است، حقیقت این است که شرکت‌کنندگان تا زمان دو جنسیت را نمی‌دانند. تنظیمات به گونه ای است که آنها دو مقاله (الف و ب) را می خوانند و هر دو را ارزیابی می کنند (کیفیت). سپس متوجه می‌شوند که هر یک از این انشاها مرد (M) یا زن (F) هستند و دوباره به آنها از نظر کیفیت امتیاز می‌دهند، اما من انشاها را متعادل کرده بودم تا گاهی اوقات آنها AM یا BM (یا AF / BF) را ببینند. بنابراین به نظر می‌رسد که با استفاده از ANOVA اندازه‌گیری‌های مکرر معمولی، جفت‌سازی اشتباه خواهد بود، بنابراین مدل فرض می‌کند که A همیشه با F و B همیشه با M همراه است، بنابراین تفاوت بین A و F را گرفته و آن را بر خلاف تفاوت بین B تجزیه و تحلیل می‌کند. و M، درست است؟ راه حل های خشن من: از آنجایی که تشخیص اینکه کدام مقاله با کدام جنسیت جفت شده است برای من تقریبا غیرممکن است، راه حل من این بود که میانگین مقاله A و B را بگیرم و یک متغیر جدید (AB) بسازم و F و M را با AB مقایسه کنم. با این حال، به نظر نمی رسد که بتوانم این کار را با استفاده از مدل معمولی انجام دهم (حداقل نه در SPSS). به صورت دستی، می‌توانم آزمون‌های t زوجی جداگانه انجام دهم، یا می‌توانم میانگین بزرگ (AB) را از F و M کم کنم و سپس یک آزمون T زوجی روی آن‌ها انجام دهم، اما باز هم، به نظر درست نیست. مگر اینکه، شاید معتبر باشد؟ یا، آیا زمان را به‌عنوان یک متغیر سطح 3 قرار می‌دهم و پس از انجام اقدامات مکرر بدون تلاقی آن با جنسیت، به کنتراست‌های زوجی نگاه می‌کنم؟ راه حل معتبر؟ آیا راهی برای انجام یک ANOVA اندازه گیری های مکرر با همه این متغیرها بدون نیاز به انجام محاسبات دستی یا سری تست های t وجود دارد که در آن از df های اشتباه استفاده می کنم؟ من از کمک شما قدردانی می کنم! PS: من از SPSS استفاده می کنم با تشکر!
مشکل تعادل جفت شدن ANOVA با اقدامات مکرر
101399
کدام آزمون برای آزمایش اینکه آیا ضرایب برآورد شده به عنوان بخشی از روش ARIMA با 0 متفاوت است یا خیر، لازم است؟ و چگونه می توان این تست را محاسبه کرد؟ من در حال خواندن چند روش در مورد وارونگی ماتریس Hessian در طول MLE هستم. آیا این مسیری است که بتوانم دنبال کنم؟ من واقعاً نمی‌خواهم وارد بوت استرپینگ یا نمونه‌برداری مجدد دیگر شوم زیرا مجموعه داده‌های من بزرگ است و محاسبه آن برای همیشه طول می‌کشد.
چگونه ضرایب ARIMA را آزمایش کنیم؟
71531
من یک نمونه از `b` برای id=1 دارم و می خواهم این نمونه را با نمونه id={2,3} از `a` مقایسه کنم، یعنی می خواهم احتمال قرعه کشی از نمونه `b` را محاسبه کنم ( id=1) بزرگتر از قرعه کشی نمونه «a» است (id={2,3}). library(data.table) df <- data.table(id=c(rep(1,500), rep(2,500), rep(3,500)), a=rnorm(1500),b=rnorm(1500,1) ot <- df[id!=1,a] ow <- df[id==1,b] sa <- df[id!=1,sample(a,500)] #همه جایگشتهای eig و sam fall <- expand.grid(ow,sa) #همه جایگشتهای eig و سایر همه <- expand.grid(ow,ot) #1. بهترین اندازه گیری تجربی ممکن مجموع (همه[,1]>همه[,2])/nrow(همه) #2. sum(fall[,1]>fall[,2])/nrow(fall) #3. sum(ow>sa)/length(sa) Nb. بدیهی است که 1 بهترین راه حل خواهد بود زیرا در مجموعه داده های واقعی من ویژگی های توزیعی a و b ناشناخته هستند. Nb. با این حال، 1 امکان پذیر نیست، زیرا من باید این روش را برای هر «ID» تکرار کنم. مجموعه داده های من بسیار زیاد است. راه حلی که تا الان استفاده کردم Nb بود. 3: من یک نمونه تصادفی از `a` (id={2,3}) در اندازه نمونه برای `b` (id=1) می کشم. اما این البته نادقیق است. راه حل Nb. 2 یک مصالحه خواهد بود اما از نظر محاسباتی نیز امکان پذیر نیست. من می‌خواهم جدول داده‌ای را پیدا کنم (این یک پیاده‌سازی سریع‌تر از فریم‌های داده در قالب بسته R data.table است) زیرا معمولاً سریع‌تر هستند. من این سوال را در Stackoverflow پست نکردم، زیرا همچنین امیدوار بودم که یکی از شما بتواند به من یک ترفند ریاضی برای غلبه بر این مشکل را راهنمایی کند، اما البته از توصیه های کدنویسی نیز استقبال می شود. پیشاپیش متشکرم
احتمال اینکه قرعه کشی از یک نمونه بیشتر از برداشت از یک نمونه دیگر باشد
6302
_توجه: من عمداً به دلیل انتشارات در حال انتظار، محور را برچسب گذاری نکردم. رنگ‌های خط نشان‌دهنده داده‌های یکسانی در هر سه نمودار هستند. من داده‌هایم را با استفاده از توزیع دوجمله‌ای منفی برای تولید یک pdf تنظیم کردم. من از pdf راضی هستم و نیازهای تحقیقاتی خود را برآورده می کنم. نمودار PDF: ![متن جایگزین](http://i.stack.imgur.com/ttDnS.png) * * * **برای گزارش CDF، آیا باید از CDF تجربی یا نصب شده استفاده کنم؟** موارد کمی وجود دارد تفاوت بین CDF تجربی و نصب شده، به طور خاص در x = 40، خطوط زرد و فیروزه ای در توزیع تجربی قطع می شوند، اما نه برازش. تجربی: ![متن جایگزین](http://i.stack.imgur.com/j0ELI.png) CDF دو جمله ای منفی: ![متن جایگزین](http://i.stack.imgur.com/13yyc.png)
از CDF تجربی در مقابل CDF توزیع استفاده کنید؟
68847
من واقعاً برای تحلیلی که انجام می دهم به کمک نیاز دارم. این مطالعه شامل مقایسه دو درمان مختلف برای پرخوری عصبی (درمان نگرانی با وزن و درمان کمال‌گرایی) و ترکیبی از 2 درمان و همچنین یک گروه کنترل در طول زمان است. به عبارت دیگر، شرکت کنندگان به طور تصادفی به یکی از چهار گروه تقسیم شدند: (الف) یک گروه کنترل فعال که شامل جلسات مشاوره گروهی بود، اما بدون هدف کمال گرایی یا نگرانی وزن. (ب) یک گروه مداخله کمال گرایی که درمانی را با هدف کاهش کمال گرایی دریافت کردند. (ج) یک گروه درمان نگران وزن که درمانی را با هدف کاهش نگرانی درک شده دریافت کرده است. و (د) یک برنامه درمانی ترکیبی که در آن کمال گرایی و نگرانی وزن مورد هدف قرار گرفته است. بنابراین من یک طرح فاکتوریل با دو متغیر مستقل دارم: درمان کمال گرایی (بله، خیر) و درمان نگرانی وزن (بله، خیر). فاکتور درون آزمودنی ها زمان است (یعنی T1 قبل از درمان و T2 بعد از درمان). متغیر وابسته علائم اختلال خوردن (مستمر) است. من در ابتدا یک ANOVA مدل ترکیبی 3 طرفه را اجرا کردم و یک تعامل سه طرفه قابل توجه پیدا کردم. ![آزمون های چند متغیره ANOVA مدل مختلط](http://i.stack.imgur.com/mIBZT.png) ![تست های ANOVA مدل مختلط اثرات درون آزمودنی ها](http://i.stack.imgur.com/nvvn5 .png). اثرات] (http://i.stack.imgur.com/hbLlU.png) برای آزمایش بیشتر این تعامل، من یک ANOVA فاکتوریل را اجرا کردم. برای انجام این کار، من یک متغیر وابسته جدید را محاسبه کردم که تغییر در علائم اختلال خوردن بین T1 و T2 بود (من T1 - T2 را انجام دادم، بنابراین نمره تغییر مثبت بالاتر نشان دهنده بهبود بیشتر در علائم اختلال خوردن است). در اینجا نتایج حاصل از آنالیز واریانس فاکتوریل من (با استفاده از تغییر در نمرات اختلال خوردن به عنوان DV من) آمده است: ! جلوه های بین موضوعات](http://i.stack.imgur.com/3eSxS.png) ![خط تعامل graph](http://i.stack.imgur.com/xTdlI.png) مشکلات من به شرح زیر است: 1. من مطمئن نیستم چگونه بهترین نتایج را ارائه دهم (یعنی به صورت گرافیکی، جدول؟). من فکر می کنم منطقی است که تغییر را در طول زمان در یک نمودار، کمی شبیه آنچه در بالا ایجاد کردم، ارائه دهیم. من مطمئن نیستم که نمودار من درست است یا نه، و آیا تعامل را نشان می دهد؟ مشکلی که من پیدا می کنم این است که شرایط درمان بخشی از یک متغیر مستقل با چندین سطح نیست، بلکه متغیرهای مستقل جداگانه هستند. من عادت دارم آنها را به عنوان IV از گروه درمانی ببینم (درمان کمال گرایی، درمان نگرانی وزن، درمان ترکیبی، کنترل)، اما در عوض در اینجا درمان کمال گرایی (بله، نه) و درمان نگرانی وزن (بله، خیر) 2. من نمی دانم که آیا باید آزمایشات بیشتری انجام دهم، یعنی تجزیه و تحلیل اثرات ساده به دنبال این ANOVA فاکتوریل یا این؟ من آزمایش 2 t-test را امتحان کردم اما بیشتر گیج شدم 3. همچنین با این واقعیت که در ANOVA با مدل مختلط اولیه یک تعامل تقریباً معنی دار بین 2 درمان در جعبه تست تأثیرات بین افراد دریافت کردم (ص 55/0 =)، اما اثر آن در ANOVA فاکتوریل معنی دار بود. همچنین، تأثیر اصلی درمان نگرانی وزن در جعبه آزمایش تأثیرات بین افراد (085/0 = p) در آنالیز واریانس مدل مختلط معنی‌دار نبود، اما در آنالیز واریانس فاکتوریل (001/0 > p) معنی‌دار بود. آیا می توانم نتیجه بگیرم که درمان IV نگرانی از وزن تأثیر اصلی دارد زیرا p در فاکتوریل معنی دار است؟ در مورد اینکه در 3 طرفه غیر قابل توجه نشان داده شد چطور؟ 4. آیا من درست فکر می کنم که تفاوت زیادی بین تأثیر درمان کمال گرایی و درمان ترکیبی وجود ندارد و تفاوت میانگین ها کم است (و خطوط روی نمودار تقریباً روی هم و موازی هستند)؟ از کجا می توانم معیار اهمیت را برای این و سایر گروه های درمانی دریافت کنم؟ هر گونه کمکی بسیار قدردانی خواهد شد!
برای تفسیر ANOVA مدل مختلط و فاکتوریل به کمک نیاز است
101392
ما باید داده های جدید را بر اساس یک مجموعه آموزشی در 11 کلاس ترتیبی طبقه بندی کنیم. آیا از یک رویکرد ترتیبی مانند logit سفارشی استفاده می کنم. یا روش هایی برای داده های پیوسته؟ اما چگونه می توانم داده های جدید را به کلاس ها برش دهم؟ آیا آنها را به نزدیکترین کلاس گرد می کنم؟ مثلاً باید سال های تحصیل را حدس بزنیم. من می توانم OLS ساده را انجام دهم و به نزدیکترین مقدار گرد کنم. اما اگر مدل من -3 را پیش بینی کند چه؟ یا 20+؟ شهود من این است که در این مورد نیز بهتر است با یک تابع در محدوده 0 تا 1 کار کنیم و احتمالات را به جای مقادیر مطلق تخمین بزنیم. درست است؟
طبقه بندی 10 یا بیشتر کلاس های ترتیبی
40992
فرض کنید DGP استاندارد خود را داریم، $y=\alpha+\beta x+\varepsilon،$ که $x$ دودویی است. فرض کنید $x$ مشاهده شده در واقع با خطا اندازه گیری می شود، به طوری که متغیر توضیحی برای بخشی از جامعه به اشتباه طبقه بندی می شود. این خطای اندازه گیری بسیار غیر کلاسیک است. من سعی دارم اثرات این نوع خطای اندازه گیری را خلاصه کنم. از Bound، Brown و Mathiowetz (2001)، آموخته‌ام که تا زمانی که طبقه‌بندی اشتباه غیردیفرانسیل باشد (و هیچ یک از دیگر مفروضات خطای اندازه‌گیری کلاسیک نقض نشود)، ضریب روی $x$ کاهش می‌یابد. در اینجا غیر دیفرانسیل به این معنی است که خطاهای طبقه بندی مستقل از متغیر وابسته $y$ هستند. دو سوال باقی می ماند: 1. شهود من مبتنی بر شبیه سازی این است که با افزایش درجه طبقه بندی اشتباه، اندازه بالا می رود و قدرت آزمون کاهش می یابد. من تا حدودی به دومی اطمینان دارم. 2. اگر $x$ بردار باشد (اما ما فقط در یک متغیر خطای اندازه گیری داریم)، ​​آیا بایاس به طور واضح به سمت صفر است؟ باند، جان، چارلز براون، و نانسی ماتیووتز، 2001. خطای اندازه گیری در داده های نظرسنجی. در James J. Heckman and Edward E. Leamer (Eds.), _Handbook of Econometrics_, Volume 5. Amsterdam: Elsevier Science, 2001. پیوند به نسخه کاغذ کار.
طبقه بندی اشتباه متغیر مستقل و آزمون های آماری
6309
در حال مطالعه مقاله بودم و جدولی را دیدم که بین PPV (ارزش پیش‌بینی مثبت) و NPV (ارزش پیش‌بینی منفی) مقایسه شده بود. آنها نوعی آزمایش آماری را برای آنها انجام دادند، این یک طرح از جدول است: PPV NPV p-value 65.9 100 < 0.00001 ... هر ردیف به یک جدول احتمالی خاص اشاره دارد. چه نوع آزمون فرضیه ای انجام دادند؟ با تشکر
آزمون آماری ارزش اخباری مثبت و منفی
101397
من تست دوربین واتسون را می فهمم، اما نمی توانم این جمله را بفهمم. من نمی توانم آن را ثابت کنم. > آمار آزمون دوربین واتسون به طور مجانبی معادل (rootT*C) است، > که در آن C نمونه اتوکوواریانس مرتبه اول حداقل مربعات > باقیمانده است. به نظر من، ما معمولاً خود همبستگی نمونه را شناسایی می کنیم، نه خودکوواریانس. بنابراین، من نمی توانم اتوکوواریانس نمونه را از معادله دوربین-واتسون خارج کنم. کسی میتونه این جمله رو توضیح بده؟
نمونه اتوکوواریانس آزمون دوربین واتسون
21343
این مقاله در مورد Adaboost چند پیشنهاد و کد (صفحه 17) برای گسترش مدل‌های 2 کلاسه به مشکلات کلاس K ارائه می‌کند. من می خواهم این کد را تعمیم دهم، به طوری که بتوانم مدل های مختلف 2 کلاسه را به راحتی وصل کنم و نتایج را با هم مقایسه کنم. از آنجا که اکثر مدل‌های طبقه‌بندی دارای یک رابط فرمول و یک روش «پیش‌بینی» هستند، برخی از این کارها باید نسبتاً آسان باشد. متأسفانه، من راه استانداردی برای استخراج احتمالات کلاس از مدل های 2 کلاس پیدا نکرده ام، بنابراین هر مدل به کد سفارشی نیاز دارد. در اینجا تابعی است که من نوشتم تا یک مشکل کلاس K را به مسائل کلاس 2 تقسیم کنم و مدل های K را برگردانم: oneVsAll <- function(X,Y,FUN,...) { models <- lapply(unique(Y), function(x) { name <- as.character(x) .Target <- factor(ifelse(Y==name,name,'other'), level=c(name, 'other')) dat <- data.frame(.Target, X) model <- FUN(.Target~., data=dat, ...) return(model) }) names(models) <- منحصر به فرد(Y) info <- list (X=X, Y=Y, classes=unique(Y)) out <- list(models=models, info=info) class(out) <- 'oneVsAll' return(out) } این یک روش پیش‌بینی است که برای تکرار روی هر مدل و انجام پیش‌بینی‌ها نوشتم: predict.oneVsAll <- function(object, newX=object$info$X, ...) { stopifnot(class(object)=='oneVsAll') lapply (object$models, function(x) { predict(x, newX, ...) }) } و در نهایت، در اینجا تابعی برای عادی سازی یک 'data.frame' از احتمالات پیش بینی شده و طبقه بندی موارد. توجه داشته باشید که ساخت ستون K «data.frame» احتمالات از هر مدل به عهده شماست، زیرا راه واحدی برای استخراج احتمالات کلاس از یک مدل کلاس 2 وجود ندارد: classify <- function(dat) { out <- dat/rowSums(dat) out$Class <- application(dat, 1, function(x) names(dat)[which.max(x)]) out } در اینجا مثالی با استفاده از «adaboost» آورده شده است: library(ada) library(caret) X <- iris[,-5] Y <- iris[,5] myModels <- oneVsAll(X, Y, ada) preds <- predict( myModels, X, type='probs') preds <- data.frame(lapply(preds, function(x) x[,2])) #Make a data.frame of probs preds <- classify(preds) >confusionMatrix(preds$Class, Y) ماتریس سردرگمی و آمار مرجع پیش بینی setosa versicolor virginica setosa 50 0 0 versicolor 0 47 2 virginica 0 3 48 در اینجا یک مثال با استفاده از `lda` آورده شده است. (من می دانم که lda می تواند چندین کلاس را مدیریت کند، اما این فقط یک مثال است): library(MASS) myModels <- oneVsAll(X, Y, lda) preds <- predict(myModels, X) preds <- data.frame(lapply(preds, function(x) x[[2]][,1]) ) #Make a data.frame of probs preds <- classify(preds) >confusionMatrix(preds$Class, Y) Confusion Matrix and Statistics پیش‌بینی مرجع setosa versicolor virginica setosa 50 0 0 versicolor 0 39 5 virginica 0 11 45 این توابع باید برای هر مدل 2 کلاسه با رابط فرمول و روش «پیش‌بینی» کار کنند. توجه داشته باشید که باید اجزای X و Y را به صورت دستی تقسیم کنید، که کمی زشت است، اما نوشتن یک رابط فرمول در حال حاضر فراتر از من است. آیا این رویکرد برای همه منطقی است؟ آیا راهی وجود دارد که بتوانم آن را بهبود بخشم یا بسته ای موجود برای حل این مشکل وجود دارد؟
گسترش مدل‌های 2 کلاسه به مسائل چند کلاسه
6304
اجازه دهید $t_i$ به صورت i.i.d از توزیع Student t با $n$ درجه آزادی، برای $n$ با اندازه متوسط ​​(مثلاً کمتر از 100) ترسیم شود. $$T = \sum_{1\le i \le k} t_i^2$$ را تعریف کنید آیا $T$ تقریباً به صورت مربع کای با $k$ درجه آزادی توزیع می‌شود؟ آیا چیزی شبیه قضیه حد مرکزی برای مجموع متغیرهای تصادفی مجذور وجود دارد؟
مجموع مجذور متغیر t چقدر است؟
80907
من باید جهتی را به ارتباط بین یک متغیر ترتیبی (مستقل) و یک متغیر اسمی (وابسته) بدهم. این کار پس از انجام تست Chi-square. متغیر ترتیبی مانند نمره آزمایش خون با مقادیر (بالا، کم، متوسط) و متغیر اسمی بله/خیر است (منعکس کننده احتمال بیمار بودن). آیا استفاده از گامای گودمن برای این کار مشکلی ندارد؟ اگر نه به این دلیل که یک متغیر اسمی است، کدام یک جایگزین خوب است؟
گودمن گاما برای متغیرهای اسمی
20581
سوال دیروز تعیین دقت مدلی که احتمال رخداد را تخمین می زند، مرا در مورد امتیازدهی احتمال کنجکاو کرد. امتیاز بریر $$\frac{1}{N}\sum\limits _{i=1}^{N}(prediction_i - reference_i)^2$$ یک میانگین مربع خطا است. آیا معیار مشابه عملکرد خطای میانگین مطلق $$\frac{1}{N}\sum\limits _{i=1}^{N}|prediction_i - reference_i|$$ نیز نامی دارد؟
نام میانگین آنالوگ خطای مطلق به امتیاز بریر؟
84269
من روی یک کار طبقه بندی کار می کنم که در آن از 12 ویژگی استفاده می کنم. مجموعه آموزشی من دارای 400 نمونه داده مثبت و 2000 نمونه داده بدون برچسب است. در حالی که آزمایش 34 نمونه مثبت و 999 نمونه داده بدون برچسب دارد که اکثرا منفی است (اما به طور قطع مشخص نیست که چه تعداد). قبل از استفاده از آن برای آموزش به دو دلیل آنها را استاندارد نکردم... جایی خواندم که واریانس بین نمونه ها اطلاعاتی دارد (اینجا یک داده بیولوژیکی است) و استانداردسازی اطلاعات را می کشد. ثانیاً وقتی سعی کردم طبقه‌بندی کننده را بعد از استانداردسازی آموزش و آزمایش کنم، از نظر عملکرد ضعیف‌تر باقی ماند. من از تکنیک یادگیری نیمه نظارت شده استفاده می کنم و ابزاری که برای آن استفاده می کنم http://vikas.sindhwani.org/svmlin.html است ( پارامترهای انتخاب شده A=3 و W=0.3) ابتدا یک فایل ورودی با مجموعه داده های مثبت و بدون برچسب آماده کردم. . بعد از آموزش خطا را محاسبه کردم و همان را برای مجموعه های آموزشی و مجموعه های تست ترسیم کردم. در اینجا نموداری است که دریافت می کنم https://www.dropbox.com/s/uqma194uiipm9n8/sample_plot.png من سه مشکل دارم: 1) این نمودار خطا چه نتیجه ای دارد؟ قرمز خطای تست و آبی خطای تمرین است. محور x اندازه داده است، y خطا است. چرا من دارای چنین نوسانات بالایی در خطا هستم در حالی که نمودار خطای طبقه‌بندی کننده استاندارد فراز و نشیب کمتری دارد و هر دو با آموزش نزدیک‌تر می‌شوند. آیا این به شدت بر نتایج طبقه بندی تأثیر می گذارد؟ وقتی به شدت می‌گویم، به این معنی است که طبقه‌بندی‌کننده من در مجموعه‌های آزمایشی مستقل من عملکرد مناسبی دارد، اما در همان نوع داده‌های مستقل اما متفاوت از منابع دیگر به‌شدت شکست می‌خورد. 3) چگونه آستانه را در تکنیک یادگیری نیمه نظارتی و به طور کلی برای هر طبقه بندی کننده انتخاب کنیم؟ در روش تمرین مشترک باید موارد منفی را از نمونه های بدون برچسب جدا کنیم. اما من نتوانستم پیدا کنم که چگونه می توان جدا کرد و بر چه اساسی جدول 1 را از این مقاله ببینید \--->> www.dropbox.com/s/7rhis2gl5ztm3wn/BlumMitchell98.pdf 4) آیا استانداردسازی داده ها در یک طبقه‌بندی‌کننده، با علم به اینکه داده‌های بیولوژیکی شکل غیرخطی دارند و استانداردسازی ممکن است باعث از بین رفتن اطلاعات شود؟
چه چیزی را می توان از نمودار خطای طبقه بندی کننده من استنباط کرد؟
45214
من یک متغیر ترتیبی دارم (رتبه‌بندی عملکرد کارکنان در مقیاس 5 درجه‌ای) و می‌خواهم با یک متغیر اسمی (4 سطح نژاد/قومیت) تلاقی انجام دهم. بهترین معیار ارتباط برای این دو متغیر در SPSS چیست؟
معیارهای متغیر اسمی/ترتیبی انجمن
41023
من یک سوال جالب دارم، با کاربرد اصلی آن در امور مالی. فرض کنید من یک بازده سهام $Y$ و مجموعه ای از متغیرهای مستقل (سایر دارایی های قابل معامله) $X$ دارم. به طور معمول، Y را با X با یافتن راه حل حداقل مربعات برای رگرسیون $Y$ در $X$، _پرچین می کند. بنابراین $Y - X\beta$ تقریباً صفر است. اما اگر در عوض $Y = Y^{+} + Y^{-}$ را تجزیه کنیم، که در آن $Y^{+}$ بردار اجزای _positive_ $Y$ است و در غیر این صورت صفر است، به همین ترتیب برای $Y^{ -}$. اگر $Y^{-}$ را به $X$ برگردانیم، آنگاه $Y - X\beta_{neg}$ فقط مقادیر منفی را پوشش می‌دهد و ما را در معرض سود حاصل از مقادیر مثبت $Y$ به عنوان $Y$ قرار می‌دهد - X\beta_{neg}$$ $$ = Y^{+} + ( Y^{-} - X\beta_{neg} )$$ $$ \approx Y^{+} $$ این برای ریسک نزولی را پوشش دهد، اما متأسفانه در عمل واقعاً کار نمی کند. هر توصیه ای؟
پسرفت فقط روی قسمت مثبت یک بردار
101391
بر اساس مقالات: 1. Deniz Erdogmus، Member، IEEE، و Jose C. Principe، یک الگوریتم کمینه سازی آنتروپی خطا برای آموزش نظارت شده سیستم های تطبیقی ​​غیرخطی. فیلترینگ، اس. هایکین، اد. نیویورک: ویلی، 2000، جلد. اول، ص 265-319. از آنتروپی (شانون و رنیس) در یادگیری با به حداقل رساندن آنتروپی خطا به عنوان تابع هدف به جای خطای مربع میانگین استفاده شده است. منطق این است که به حداقل رساندن آنتروپی = به حداکثر رساندن اطلاعات متقابل. حال آنتروپی = بی نظمی = عدم قطعیت. هر چه عدم قطعیت بیشتر باشد، آنتروپی بیشتر است. همچنین، آنتروپی بالاتر = محتوای اطلاعات بالا (در فشرده سازی استفاده می شود)، بنابراین نمی توانیم سیگنالی را با آنتروپی بالا فشرده کنیم. بنابراین، با توجه به موارد فوق سؤالی دارم که آیا اطلاعات متقابل نام دیگری برای کسب اطلاعات است؟ در مرحله بعد، اگر حداکثر آنتروپی دلالت بر محتوای اطلاعاتی بالایی دارد، پس چرا آنتروپی خطای بین سیگنال خروجی و سیگنال مورد نظر را به حداقل می‌رسانیم. آیا مدرکی وجود دارد که نشان دهد به حداقل رساندن آنتروپی خطا هنگام استفاده به عنوان تابع تناسب، به این معنی است که ما به تخمین واقعی پارامتر ناشناخته نزدیک می شویم؟
رابطه بین آنتروپی و کسب اطلاعات
80909
من با استفاده از تابع calibrate() در بسته rms برای R، یک نمودار کالیبراسیون برای مدل Cox پیش آگهی سرطان سینه خود ایجاد می کنم، که شامل هیچ گونه تغییر شکلی نیست. آیا باید از روش hare یا KM استفاده کنم؟ ادبیات مشابه کاری که من انجام می‌دهم همیشه از روش «KM» استفاده می‌کند، اما کنجکاو هستم که «خرگوش» سودمندتر باشد. من 3 گزینه دارم: از روش KM استفاده کنید، از روش hare استفاده کنید، یا هر دو hare و KM را روی یک شکل ترسیم کنید. نمونه کد اینجاست: کتابخانه(rms) کتابخانه(بقا) کتابخانه(موش) حذف(کهنه سرباز) داده(کهنه سرباز) جانباز$trt=factor(کهنه سرباز$trt,levels=c(1,2)) جانباز$پیش=عامل(کهنه سرباز $prior,levels=c(0,10)) survmod=with(کهنه سرباز,Surv(زمان,وضعیت)) fit=cph(survmod~celltype+karno,data=veteran,surv=TRUE,u=100,x=T,y=T) cal.KM <- کالیبره(fit, u=100, cmethod='KM', m =20، B=20) cal.hare=calibrate(fit,u=100,cmethod='hare',B=20) plot(cal.hare) plot(cal.KM,add=TRUE) از کمک شما متشکرم!
با استفاده از تابع کالیبره در بسته rms برای مدل Cox: از روش 'hare' یا 'KM' استفاده کنید؟
10133
سوال برای داده کاویان با تجربه: ### با توجه به این سناریو: * تعداد سبد خرید وجود دارد * هر سبد خرید با تعداد دلخواه M مورد از یک مجموعه بی نهایت بزرگ پر شده است (با مقدار فعلی داده ای که من دارم، این عدد دلخواه می تواند به اعدادی در حدود 1500 برسد) * ترتیب پر شدن هر سبد خرید قابل توجه است * ویژگی های دیگری مانند موقعیت جغرافیایی خریدار وجود دارد، اما اینها می توانند (و در حال حاضر) به نفع ساده‌تر کردن الگوریتم حذف می‌شوند ### من باید: * در یک مقطع زمانی خاص، با توجه به مجموعه‌های سفارش‌داده‌شده اقلام در هر سبد خرید، سبدهای «مشابه» را بدون اطلاع قبلی از برچسب‌های کلاس شناسایی کنم * پس از جمع‌آوری مقدار معینی از داده‌ها و کار سخت‌گیری از طریق داده‌ها و اختصاص برچسب‌ها، طبقه‌بندی‌کننده‌ای ایجاد کنید که بتواند به سرعت با داده‌های دیده نشده آینده کار کند ### رویکرد اولیه: * تاکنون، رویکرد من روی نکته اول متمرکز شده است. روش من از خوشه‌بندی k-means استفاده می‌کند و ماهیت ترتیبی داده‌ها را با استفاده از یک ماتریس فاصله تولید شده با محاسبه فاصله همینگ بین چرخ دستی‌ها کنترل می‌کند. بدین ترتیب [سیب، موز، گلابی] با [گلابی، سیب، موز] متفاوت است، اما [سیب، موز، گلابی] با [سیب، موز، بز] تفاوت کمتری دارد. مقدار مناسب k با بررسی ضریب silhouette تعیین می شود. خوشه های ایجاد شده از این به نظر منطقی هستند، اما زمان اجرا روش من قطعاً به عنوان مقیاس داده های من بازدارنده خواهد بود. ### سوال: * آیا کسی برای این مشکل پیشنهادی برای یک داده کاوی مبتدی دارد؟ ### ویرایش‌ها با اطلاعات بیشتر: * من پیشنهاداتی پیدا کرده‌ام که از ویژگی‌های n-gram و مقایسه آن‌ها به صورت جفتی استفاده می‌کنند. نگرانی من در این مورد نظم است: آیا در صورت استفاده از مدل های n-gram، ترتیب توالی ها حفظ می شود؟ همچنین، من می بینم که مشکلات عملکرد با این روش یک امکان بزرگتر است.
رویکردهای داده کاوی برای تجزیه و تحلیل داده های متوالی با ویژگی های اسمی
33382
من در چندین جا شنیده یا دیده ام که می توانید با گرفتن لگاریتم هر نمونه، مجموعه داده را به چیزی که توزیع نرمال است تبدیل کنید، فاصله اطمینان داده های تبدیل شده را محاسبه کنید، و فاصله اطمینان را با استفاده از عملیات معکوس تبدیل کنید. (مثلاً برای $\log_{10}$، به ترتیب 10 را به توان کران پایین و بالا ببرید). با این حال، من به این روش مشکوک هستم، فقط به این دلیل که برای خود میانگین کار نمی کند: $10^{\operatorname{mean}(\log_{10}(X)} \ne \operatorname{mean} (X)$ راه صحیح انجام این کار چیست؟ اگر برای خود میانگین کار نمی کند، چگونه می تواند برای فاصله اطمینان برای میانگین کار کند؟
چگونه یک فاصله اطمینان را برای میانگین یک مجموعه داده log-normal محاسبه کنم؟
41029
من در حال پیگیری سؤالی هستم که قبلاً در مورد RBM پرسیده بودم. من ادبیات زیادی را می بینم که آنها را توصیف می کند، اما هیچ کدام از آنها در واقع از رگرسیون صحبت نمی کند (حتی طبقه بندی با داده های برچسب گذاری شده). من احساس می کنم که فقط برای داده های بدون برچسب استفاده می شود. آیا منابعی برای مدیریت رگرسیون وجود دارد؟ یا به سادگی اضافه کردن یک لایه دیگر در بالای لایه پنهان و اجرای الگوریتم CD بالا و پایین است؟ پیشاپیش خیلی ممنون
ماشین های بولتزمن برای رگرسیون محدود شده است؟
41022
توضیح مسئله من در عنوان این سوال کمی سخت است، بنابراین امیدوارم بتوانم مشکلم را در این متن روشن کنم. من با طبقه بندی متن تا حدی تحت نظارت سروکار دارم. من یک سری اسناد مثبت و یک سری اسناد بدون برچسب (که شامل اسناد مثبت و منفی است) دارم. هدف من شناسایی اسناد در این مجموعه بدون برچسب است که به احتمال زیاد اسناد منفی هستند. به محض اینکه آنها را شناسایی کردم، از آنها و مجموعه مثبت برای طبقه بندی بقیه اسناد بدون برچسب استفاده می کنم. به منظور شناسایی مجموعه اسناد منفی قابل اعتماد، من از نسخه خاصی از الگوریتم طبقه بندی روچیو استفاده می کنم که در این مقاله توضیح داده شده است: > Xiao-Li Li, Bing Liu, See-Kiong Ng (2010) _ داده های آموزشی منفی می تواند > مضر برای طبقه بندی متن_. در: مجموعه مقالات کنفرانس > روشهای تجربی در پردازش زبان طبیعی (EMNLP-2010). در گوشه سمت چپ بالای صفحه 6 (شکل 4)، شبه کدی وجود دارد که الگوریتم را توضیح می دهد. در زیر، دو خط مرتبطی که سوال من در مورد آن است، آمده است. $$ \begin{تراز شده} 3.~~~~~p &= \alpha\frac{1}{|P|}\sum_{d_j\in P}\frac{d_j}{||d_j||}- \beta\frac{1}{|PN|}\sum_{d_i\in PN}\frac{d_i}{||d_i||} ; \\\ 4.~~~~~n &= \alpha\frac{1}{|PN|}\sum_{d_i\in PN}\frac{d_i}{||d_i||}-\beta\frac {1}{|P|}\sum_{d_j\in P}\frac{d_j}{||d_j||} ; \end{aligned} $$ در این مرحله از الگوریتم، من یک مجموعه _P_ از اسناد مثبت و یک مجموعه _PN_ از اسناد منفی احتمالی دارم که در مرحله قبل شناسایی شدند. هر سند در این دو مجموعه به عنوان یک برداری (با حروف پررنگ) از مقادیر TF-IDF واژگان کلمه از مجموعه مربوطه نشان داده می شود. در خط اول کد بالا، بردار _PN_ - را از بردار _P_ کم می کنم. در خط دوم برعکس این کار را انجام می دهم. هدف ایجاد یک بردار نمونه اولیه مثبت **p** و یک بردار نمونه اولیه منفی **n** است. **سوال من این است:** برای هر یک از این دو تفریق، کدام واژگان را باید در نظر بگیرم؟ آیا باید همه بردارهای ویژگی را از کل واژگان هر دو مجموعه مثبت و منفی بالقوه ایجاد کنم؟ یا اینکه در سطر اول باید فقط واژگان مجموعه مثبت و در سطر دوم از واژگان مجموعه منفی بالقوه استفاده کنم؟ یا چیزی کاملا متفاوت از آن؟ متأسفانه این موضوع در جایی توضیح داده نشده است.
از کدام واژگان برای نسخه خاصی از الگوریتم طبقه بندی روکیو استفاده کنیم؟
40995
همبستگی جزئی معمول بین X و Y با توجه به مجموعه متغیرهای Z، همبستگی پیرسون بین باقیمانده های حاصل از رگرسیون خطی X در Z و Y در Z است. می توان آن را با استفاده از فرمول بازگشتی (به ویکی پدیا مراجعه کنید) از ماتریس همبستگی محاسبه کرد. . سوال من این است که اگر ماتریس همبستگی حاوی ضرایب همبستگی دیگری مانند تاو کندال یا rho اسپیرمن باشد و نه ضرایب همبستگی پیرسون، تفسیر همبستگی جزئی چیست.
تعبیر همبستگی های جزئی «تعمیم یافته» چیست؟
40997
می توانید لطفاً پاسخ های من را بررسی کنید و استدلال من را تأیید کنید. این کار خودآموز است. از چند طریق می توان 8 نفر را پشت سر هم نشست اگر: (الف) محدودیتی وجود نداشته باشد: ### پاسخ: 8! (ب) افراد A و B باید در کنار یکدیگر بنشینند: ### پاسخ: 8!/2! در حال حاضر، اهریمنی 2 است! چون این زوج مانند در نظر گرفته می شوند، درست است؟ (ج) 4 مرد و 4 زن هستند و هیچ 2 مرد و 2 زن نمی توانند کنار هم بنشینند ### پاسخ: 8!/(4!*4!) فکر می کنم این درست است، می توانید توضیح دهید چرا؟ د) 5 مرد هستند و باید کنار هم بنشینند. ### پاسخ: 8!/5! من نمی توانم توضیح دهم که چرا این درست است (ه) 4 زوج متاهل هستند و هر زوج باید کنار هم بنشینند ### 8!/(2!X4) 4 زوج شبیه هم هستند.
تمرین های جایگشت با اشیاء مشابه. تکالیفم را چک کن
14256
زمانی که مشغول محاسبه حجم نمونه بودم، یک سوال اساسی به ذهنم خطور کرد. من یک توضیح احتمالی دارم و می خواهم آن را با شما مقایسه کنم. اجازه دهید بگوییم که من می خواهم مقداری از متغیر پاسخ $Y$ را از متغیرهای توضیحی $A$ و $B$ توضیح دهم. علاوه بر این، فرض کنیم که $B$ هیچ تاثیری بر $Y$ ندارد. ضریب رگرسیون مربوطه $0 است. دو مدل ممکن عبارتند از: $E(Y) = \mu + \beta_{1} A$ و $E(Y) = \mu + \beta_{1} A + \beta_{2} B$. کدام یک از این دو را باید انتخاب کنم تا قدرت بیشتری برای تشخیص اثر $A$ داشته باشم. اگر $B$ تأثیر داشته باشد ($\beta_{2} \neq 0$) چه می‌شود؟
تفاوت در قدرت های آماری بین دو مدل تودرتو
46749
ویرایش: آیا کسی می تواند قوانین تصمیم گیری در متن کاوی را توضیح دهد و اینکه آنها برای چه چیزهایی مفید هستند و چگونه می توان آنها را از متن به دست آورد؟
استفاده از طبقه بندی اسناد متن کاوی از طریق قوانین تصمیم گیری؟
104418
من با مشکل تشخیص تغییر در میزان عفونت بعد از جراحی در حدود 400 بیمار جراحی چشم مواجه هستم. پیشینه مهم پزشکی شامل موارد زیر است - حدود 30٪ بیماران هر دو چشم تحت عمل جراحی، 70٪ یک چشم تحت عمل جراحی. وضعیت عفونت (بله/خیر) در روز 14 پس از جراحی جمع آوری می شود. همه بیماران در روز اول پس از جراحی برای جلوگیری از عفونت با آنتی بیوتیک درمان می شوند. هیچ تفاوتی از نظر دوز بین افرادی که تحت عمل جراحی یک یا دو چشم قرار می گیرند، وجود ندارد. اثر آنتی بیوتیک ها سیستمیک (کل بدن) است نه موضعی (فقط در عمل جراحی چشم موثر است). تفاوت فلسفی / تفسیری بین-- استفاده از نرخ عفونت در هر چشم به عنوان نتیجه و مدل رگرسیون لجستیک با اثرات مختلط با شناسه بیمار به عنوان متغیر اثرات تصادفی چیست. و جمع کردن داده‌های جفت شده در وضعیت عفونت به ازای هر فرد، ایجاد یک متغیر طبقه‌بندی «تعداد چشم‌های تحت عمل جراحی» و استفاده از نرخ عفونت به ازای هر بیمار به‌عنوان نتیجه و «تعداد چشم‌های تحت عمل جراحی» به‌عنوان یکی از متغیرهای کمکی در رگرسیون لجستیک؟ یک مشاهدات واضح این است که اگر داده های جفت شده جمع شوند، شیوع عفونت در هر بیمار بیشتر از شیوع هر چشم به نظر می رسد. لطفاً کدام مدل منطقی تر است (و چرا)؟ متشکرم!
مدل‌سازی داده‌های زوجی: تفاوت فلسفی بین استفاده از مدل اثرات مختلط و استفاده از پیامدهای سطح متغیر گروه‌بندی
40990
من در حال انجام تحقیق هستم و برای آزمایش روش های خود از اعتبار سنجی متقاطع 5 برابری استفاده می کنیم. مجموعه های ما از چند متن از پیش طبقه بندی شده تشکیل شده است. برای استفاده از داده‌ها در Weka، آن‌ها را با فیلتر «StringToWordVector» از قبل پردازش می‌کنم. تا اینجا خیلی خوب است... مشکل این است: هم من و هم سرپرستم الگوریتم ها را اجرا می کنیم. من از Weka استفاده می کنم و او از الگوریتم های پیاده سازی شده خود در Matlab استفاده می کند. به منظور استفاده از نمونه های فرعی مشابه برای اعتبارسنجی متقابل 5 برابری در Weka و Matlab، من هر یک از مجموعه های خود را به 5 نمونه فرعی تقسیم کردم. پس از انجام این کار، برای هر نمونه فرعی فایل «arff» را ایجاد کردم و «StringToWordVector» را اعمال کردم. **سوال این است**: چگونه می توانم این نمونه های فرعی را ادغام کنم تا فایل های قطار و تست را برای هر فولد دریافت کنم؟ من نمی توانم فایل های متنی را به صورت دستی ادغام کنم و سپس «StringToWordVector» را اعمال کنم، زیرا کلمات موجود در فایل آموزشی با کلمات موجود در فایل آزمایشی متفاوت هستند. همچنین می‌توانم فیلتر «StringToWordVector» را در مجموعه اعمال کنم، بدون اینکه آن را به نمونه‌های فرعی تقسیم کنم، و سپس از فیلتر «StratifiedRemoveFolds» برای تولید قطار و فایل‌های آزمایشی استفاده کنم، اما می‌خواهم از زیر مجموعه‌های یکسانی در Weka و Matlab استفاده کنم. در صورت امکان، من می خواهم از نمونه های فرعی که قبلا ایجاد کرده ام استفاده کنم.
ادغام نمونه های فرعی مجموعه متن برای اعتبارسنجی متقابل
29958
من کارشناسی ام را در اوایل دهه 80 در رشته آمار به پایان رساندم. اخیراً، به دلایل مختلف، من به مدل های خطی تعمیم یافته علاقه مند شده ام. بچه ها لطفاً چند کتاب خوب در مورد تئوری و کاربردهای GLIM به من معرفی کنید؟ هر مرجعی با نمونه های کار شده زیاد، اثبات نتایج اصلی و تمرین های زیاد عالی خواهد بود. راهنمای راه حل برای مطالعه خود بسیار مفید خواهد بود. با تشکر
کتاب های خوب GLIM
114326
من سعی می کنم تجزیه و تحلیل ارائه شده در bottenada.se و شرح داده شده در مخزن ADA را تکرار کنم. اگرچه فایل آزمایشی کاملاً دقیق است، من متوجه نشدم که این مقادیر برای مؤلفه C0 از کجا آمده است. من می‌خواهم ترکیب‌های m0 دیگری را امتحان کنم، اما نمی‌توانم بفهمم چگونه می‌توانم مقادیر C0 را برای پر کردن مدل ایجاد کنم. فایل راهنما می گوید: شما باید پیشین خود را برای انتخابات در دو مرحله تعریف کنید. ابتدا بهترین تخمین های خود را ارائه دهید که فکر می کنید انتخابات در کجا به پایان می رسد. سپس باید آن را به عنوان ماتریس کوواریانس مشخص کنید. در Ada ما پیشین های خود را مشخص می کنیم. به روش زیر (از 9 اوت). priors2014$m0 <- c(0.227، 0.0665، 0.0645، 0.0595، 0.353، 0.08، 0.08، 0.081) priors2014$C0 <- دیاگ(c(0.001020، 4،4،4،401 0.000144، 0.001024، 0.000625، 0.000625، 0.000625)) نام های colnames($)priors2014C0 <- rownames($)priors2014C0 <- names(priors2014, P$0، P$0 ، S، V، MP، SD)
یک ماتریس کوواریانس را مشخص کنید
110133
آیا کسی پکیج R برای طرح های تقریباً متعامد می شناسد؟ من می خواهم یک طرح آزمایشی با استفاده از 12 اجرا، حداکثر 10 عامل، و با سطوح مختلط (به عنوان مثال ترکیبی از عوامل 2 و 3 سطح) ایجاد کنم. من می خواهم چند طرح تقریباً متعامد را بررسی کنم. بسته های زیادی برای طرح های کسری متعامد وجود دارد. به عنوان مثال، من به مستندات AlgDesign، planor، FrF2، support.CEs، DoE.Base نگاه کرده‌ام. در SAS، مجموعه‌ای از ماکروها برای ایجاد طرح‌های آزمایشی فاکتوریل کسری متعامد و تقریباً متعامد وجود دارد: http://support.sas.com/techsup/technote/ts723.html آیا کسی می‌داند آیا چیزی مشابه در R وجود دارد؟ نمای کار CRAN به طرح‌های تقریباً متعامد اشاره نمی‌کند. http://cran.r-project.org/web/views/ExperimentalDesign.html با تشکر فراوان از تیم **به روز رسانی:** الگوریتم Federov پیاده سازی شده در AlgDesign optFederov به شما امکان می دهد طرح های تقریباً متعامد برای فاکتورهای ترکیبی ایجاد کنید، همانطور که در مستندات نشان داده شده است.
چگونه یک طرح آزمایشی تقریبا متعامد در R ایجاد کنیم؟
111668
من دو گروه از آزمودنی ها دارم که هر دو تحت دو شرایط آزمایشی قرار می گیرند و داده ها در دو مقطع زمانی جمع آوری می شوند: شرط قبل و بعد. من یک ANOVA 3 طرفه را اجرا می کنم که یکی بین فاکتور موضوعی (گروهی) و دو مورد درون فاکتورهای موضوعی (شرایط و زمان) قرار دارد. تجزیه و تحلیل یک تعامل سه طرفه پیدا نمی کند، اما یک تعامل شرط گروه x وجود دارد. سوال من این است: چگونه یک ANOVA دو طرفه را برای تعامل شرط x گروه اجرا کنیم؟ اگر تعامل شرط x زمان باشد، می توانم تمام موضوعات را در یک گروه جمع کنم و یک ANOVA دو طرفه (شرط، زمان) اجرا کنم. اما برای یک تعامل شرط گروه x، من نمی دانم چگونه این کار را انجام دهم زیرا زمان یک عامل درون گروهی است. (من از SPSS استفاده می کنم)
نحوه تایید یک تعامل دو طرفه در یک مدل ANOVA سه طرفه با استفاده از SPSS
84263
شاهد من یک نمونه بدون درمان دارویی است. نمونه های من با دارو درمان می شوند. هر دو به طور تصادفی از توزیع نرمال گرفته شدند. فرضیه $\text{H}_0: \mu = \mu_0$ و $\text{H}_\text{a} است: \mu \neq \mu_0$ محاسبه خواهد شد $t = (X-\mu_0 )/(S/\sqrt n)$ و سپس تأیید کنید که آیا کنترل و میانگین نمونه تفاوت معنی داری دارند یا خیر. $\mu_0$ بر اساس میانگین گرفته شده از کنترل است، و X از میانگین نمونه می آید آیا این منطقی است؟
آیا می توانم از آزمون t برای مقایسه کنترل و میانگین نمونه برای تأیید تفاوت معنی دار استفاده کنم؟
45213
این یک مثال ساختگی است، اما به نقطه ای می رسد که سعی می کنم بفهمم. من می دانم که اگر IV های شما به صورت خوشه ای جمع آوری شده اند، می توانید از یک مدل تودرتو استفاده کنید - برای مثال، اگر می خواهید تأثیر # ساعت هایی که دانش آموز صرف کار می کند را روی نمرات خود مدل کنید، می توانید بر اساس مدرسه خوشه بندی کنید. و شاید معلم اما، اگر بخواهید تأثیر «# ساعت‌هایی که دانش‌آموزان کار می‌کنند» را بر «رتبه‌بندی مدرسه» آزمایش کنید، چه؟ سپس، شما همه مشاهدات را در یک مدرسه نقشه برداری به یک اندازه گیری DV دارید. این خیلی متفاوت به نظر می رسد. چگونه باید مدل شود؟
تودرتو، نوعی: نگاشت مشاهدات متعدد به یک اندازه گیری واحد DV؟
29957
در کلاس حساب دیفرانسیل و انتگرال من با تابع $e^{-x^2}$ یا منحنی زنگ مواجه شدیم و به من گفته شد که کاربردهای مکرری در آمار دارد. از روی کنجکاوی، می خواهم بپرسم: آیا تابع $e^{-x^2}$ واقعاً در آمار مهم است؟ اگر چنین است، چه چیزی در مورد $e^{-x^2}$ است که آن را مفید می کند، و برخی از کاربردهای آن چیست؟ من نتوانستم اطلاعات زیادی در مورد عملکرد در اینترنت پیدا کنم، اما پس از انجام برخی تحقیقات، پیوندی بین منحنی های زنگ به طور کلی و چیزی به نام **توزیع عادی** پیدا کردم. یک صفحه ویکی‌پدیا این نوع توابع را به برنامه آمار پیوند می‌دهد، با برجسته‌سازی من، که بیان می‌کند: «توزیع نرمال به‌عنوان بارزترین احتمال > توزیع در آمار در نظر گرفته می‌شود. چندین دلیل برای این وجود دارد: اول، توزیع نرمال از قضیه حد مرکزی ناشی می شود، که بیان می کند > **در شرایط ملایم، مجموع تعداد زیادی از متغیرهای تصادفی استخراج شده > از یک توزیع تقریباً به طور معمول توزیع می شود، > صرف نظر از شکل توزیع اصلی **. بنابراین، اگر من مقدار زیادی از داده ها را از نوعی نظرسنجی یا موارد مشابه جمع آوری کنم، آنها می توانند به طور مساوی بین تابعی مانند $e^{-x^2}$ توزیع شوند؟ تابع متقارن است، بنابراین آیا تقارن آن یعنی مفید بودن آن برای توزیع نرمال است، چه چیزی آن را در آمار بسیار مفید می کند؟ من فقط حدس میزنم به طور کلی، چه چیزی $e^{-x^2}$ را در آمار مفید می کند؟ اگر توزیع نرمال تنها ناحیه است، پس چه چیزی $e^{-x^2}$ را منحصر به فرد یا به طور خاص در میان دیگر توابع نوع گاوسی در توزیع نرمال مفید می کند؟
اهمیت تابع $e^{-x^2}$ در آمار چیست؟
29954
من یک محاسبه احتمال ساده دارم که روی آن کار می‌کردم و پاسخی برای آن پیدا کردم، اما سؤالی که یکی از همکاران از من پرسید باعث شد به رویکرد دوم - و پاسخی متفاوت- بیایم. در آن زمان (یکی دو سال پیش) آن را کنار گذاشتم، اما اکنون به من بداخلاق می کند. من فکر می کنم پاسخ اصلی من به دلیل ملاحظات دیگر صحیح است، اما نتوانستم نقصی را در هر دو رویکرد شناسایی کنم. من از پاسخ هایی که دلیل اشتباه بودن یکی از آنها را روشن می کند، قدردانی می کنم. تصور کنید دو فرآیند پواسون (مستقل) (مثلاً «نوع A» و «نوع B») در طول یک بازه اتفاق می‌افتند. نوع A با نرخ $k_1 اتفاق می افتد. \lambda$ و نوع B با نرخ $k_2 .\lambda$، که در آن $k$ شناخته شده است (این همچنین می تواند به عنوان یک فرآیند پواسون پارتیشن بندی شده در نظر گرفته شود). با این حال، ما فقط رویدادهای نوع A را می بینیم (ما رویدادهای $n > 0$ از نوع A را مشاهده می کنیم). ایده این است که سعی کنیم توزیع رویدادهای نوع B را با توجه به نوع A مشاهده کنیم. قرار دادن رویدادهای B با حروف کوچک (برای تاکید بر اینکه آنها را ندیده ایم): | b A b b A A b AA b bb A b | 0 1 با توجه به نوع A به عنوان موفقیت و B به عنوان شکست - با توجه به نادیده گرفتن زمان های واقعی (که ما در واقع مشاهده نمی کنیم) - و فقط با در نظر گرفتن ترتیب رویدادها، بلافاصله مشخص می شود که تعداد b ها افزایش یافته است. به $n^{th}$ A است NegBin$(n,p)$ که در آن $p = k_2/(k_1 + k_2)$ (این نسخه «شمار شکست‌ها» از دوجمله‌ای منفی، به جای نسخه «شمار آزمایش‌ها»). مشکل در نحوه برخورد با تعداد رویدادهای بین آخرین A و پایان بازه است. یک راه برای نگاه کردن به آن این است که اکنون از سمت راست به سمت چپ نگاه کنید. تعداد شکست‌ها تا اولین موفقیت از سمت راست NegBin$(1,p)$ است، که تعداد کل رویدادهای نوع B را مشروط به $n$ رویدادهای نوع A در کل بازه NegBin$(n+1,p می‌کند. ) دلار. راه دیگر برای نگاه کردن به آن این است که کل بازه را روی یک دایره در نظر بگیریم. اکنون، بین هر جفت A متوالی، تعداد Bها NegBin$(1,p)$ است و با $n$ چنین فواصل، تعداد کل Bها NegBin$(n,p)$ است. (اولین استدلال همان چیزی است که سوال همکار من را به آن سوق داد) با توجه به ویژگی بدون حافظه، مهم نیست که فاصله از کجا شروع می شود. هر بار، تعداد رویدادهای A بعدی باید NB$(1,p)$ باشد، اما هر دو پاسخ نمی توانند صحیح باشند. کدام اشتباه است؟
تعداد رویدادهای نوع B با توجه به n رویداد از نوع A در فرآیند پواسون
114324
بنابراین، تصور کنید که به داده های کافی (میلیون ها نقطه داده برای آموزش و آزمایش) با کیفیت کافی دسترسی داشته باشید. لطفاً فعلاً دریفت مفهومی را نادیده بگیرید و داده ها را ثابت فرض کنید و در طول زمان تغییر نمی کنند. آیا حتی استفاده از همه آن داده ها از نظر کیفیت مدل منطقی است؟ Brain و Webb (http://www.csse.monash.edu.au/~webb/Files/BrainWebb99.pdf) نتایجی را در مورد آزمایش با اندازه های مختلف داده ارائه کرده اند. الگوریتم های آزمایش شده آنها پس از آموزش با 16000 یا 32000 نقطه داده تا حدودی پایدار هستند. با این حال، از آنجایی که ما در دنیای داده های بزرگ زندگی می کنیم، به مجموعه داده های میلیون ها نقطه دسترسی داریم، بنابراین مقاله تا حدودی مرتبط است اما بسیار قدیمی است. آیا تحقیقات جدید تری در مورد تأثیر اندازه مجموعه داده ها بر الگوریتم های یادگیری (Naive Bayes، Decision Trees، SVM، شبکه های عصبی و غیره) وجود دارد. چه زمانی یک الگوریتم یادگیری به یک مدل پایدار خاص همگرا می شود که داده های بیشتر کیفیت آن را افزایش نمی دهد؟ آیا بعد از 50000 نقطه داده یا شاید بعد از 200000 یا فقط بعد از 1000000 اتفاق می افتد؟ آیا قانون کلی وجود دارد؟ یا شاید هیچ راهی برای یک الگوریتم برای همگرایی به یک مدل پایدار، به یک تعادل خاص وجود ندارد؟ چرا این را می پرسم؟ سیستمی با فضای ذخیره سازی محدود و حجم عظیمی از مدل های منحصر به فرد (هزاران مدل با مجموعه داده های منحصر به فرد خود) را تصور کنید و هیچ راهی برای افزایش فضای ذخیره سازی وجود ندارد. بنابراین محدود کردن اندازه یک مجموعه داده مهم است. نظر یا تحقیقی در این مورد دارید؟
آیا اندازه مجموعه داده بر الگوریتم یادگیری ماشین تأثیر می گذارد؟
29959
من یک مجموعه داده با نسبت مبادله ارز برای چندین سال دارم. نسبت‌های مبادله‌ای برای دو ارز آسیایی و دلار کانادا، همه در برابر دلار آمریکا است. تفکر (شاید ساده لوحانه) من این است که می توانم با نگاه کردن به قدرت ارتباط بین نسبت ها مشاهده کنم که کدام اقتصادها به شدت وابسته هستند. بنابراین، من یک افزونه اکسل دارم که می‌تواند همبستگی فاصله و حداکثر ضریب اطلاعات را محاسبه کند، به علاوه با کمی تغییرات می‌تواند حتی مقادیر p پیرسون را ارائه دهد. با این حال، هنگامی که من سه معیار را برای همه جفت متغیرها و مقادیر p آنها در برابر فرضیه صفر مستقل بودن متغیرها محاسبه می‌کنم، نتایج کاملاً متناقضی به دست می‌دهند. کدام معیار را بهتر باور کنم؟ آیا تحلیل من اشکالی دارد؟ ![Screenshot with the problem](http://dl.dropbox.com/u/5363697/currency_screeshot.png) امکان بررسی هر دو کاربرگ Excel و نسخه PDF آن وجود دارد. پیشاپیش از هرگونه کمکی متشکرم
چگونه بین پیرسون، همبستگی فاصله یا حداکثر ضریب اطلاعات برای داده های ارز تصمیم گیری کنیم؟
94843
من سه نمونه از داده‌ها دارم که هر کدام توزیع غیر عادی دارند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/BxUwZ.png) می‌خواهم تعیین کنم که آیا نمونه‌ها با هم تفاوت دارند یا خیر. بنابراین من آزمون KW را اعمال می کنم و به من مقدار قابل توجهی می دهد، یعنی نمونه ها از جمعیت های مختلف آمده اند؟ با این حال، این چیزی به شما نمی گوید که کدام یک متفاوت است. بنابراین برای مقایسه دو نمونه از نمونه ها، آزمون MWU را می توان برای هر یک از نمونه ها اعمال کرد، یعنی سه تست MWU مورد نیاز است. این به من مکثی برای فکر کردن داد: 1) آیا استفاده از آزمون MWU به طور جداگانه برای هر یک از جمعیت ها قابل قبول است؟ آیا این می تواند نرخ کشف کاذب را افزایش دهد؟ (اگرچه من متشکرم که تعداد زیادی جمعیت برای مقایسه ندارم) 2) آیا استفاده از آزمون KW فایده ای دارد، اگر بعداً آزمایش MWU را برای هر یک از نمونه ها اعمال کنم؟
تست کروسکال-والیس و آزمون U Mann-Whitney
110138
آیا این درست است که وقتی بین گروه ها تفاوت معنی داری وجود ندارد، بین گروه ها همبستگی وجود خواهد داشت؟ * * * وضعیت من به شرح زیر است: من یک نمونه دارم که با استفاده از دو ابزار $A$ و $B$ اندازه گیری شده است. $A$ و $B$ هر دو پرسشنامه هایی برای اندازه گیری قابلیت استفاده هستند. 1. من داده‌های $A$ را با داده‌های $B$ با استفاده از آزمون t مقایسه کردم تا نشان دهم که تفاوت معنی‌داری بین میانگین‌ها وجود ندارد، زیرا $A$ و $B$ یک چیز را اندازه‌گیری می‌کنند. 2. سپس از همبستگی پیرسون برای دیدن همبستگی استفاده کردم و دریافتم که آنها همبستگی دارند. آیا می توانم این کار را انجام دهم؟ آیا می توانم بگویم که بین $A$ و $B$ تفاوت معنی داری وجود ندارد و این را به این معنا تفسیر کنم که بین $A$ و $B$ همبستگی وجود دارد؟ * * * یک سوال دیگر، چگونه می توانم از آزمون آماری برای توجیه اینکه پرسشنامه $A$ بهتر از پرسشنامه $B$ است استفاده کنم؟ تفاوت بین آنها این است که $A$ دارای ساختارهایی است که با $B$ اندازه گیری نشده اند و با این حال آنها امتیاز کاربرد یکسانی برای یک نرم افزار دارند. هر ایده ای؟
تفاوت و همبستگی قابل توجه
94842
برای تحقیق من در مورد مشکلات و همبستگی های سلامت روان، رابطه کودک و والدین به عنوان یک همبستگی شناسایی شده است. رابطه فرزند و والد با 6 سؤال برنامه ریزی شده است و هر سؤال دارای مقیاس پنج درجه ای پاسخ است. مثال- سؤال کاملاً موافقم موافقم نه موافقم/مخالفم کاملاً مخالفم 1 2 3 4 5 آیا اگر به آنها نمره 5،4،3 بزنم، قابل توجیه است. ,2,1 و جمع هر مورد را بگیرید و 5 مورد را با هم جمع کنید. آیا می توانم در مورد نقاط برش برای دسته بندی شرکت کنندگان در مطالعه در سه گروه مانند رابطه خوب، رابطه خنثی و رابطه ضعیف تصمیم بگیرم.
مقیاس ترکیبی برای اندازه گیری رابطه فرزند و والدین
14253
من یک سوال در مورد تجزیه و تحلیل اجزای اصلی دارم. من سعی کردم در مورد آن زیاد بخوانم اما در مورد این برنامه شک دارم. من داده‌هایی با ابعاد بالا دارم (مشاهده می‌شود که مشابه هستند) که در ستون‌های ماتریس Q سازمان‌دهی شده‌اند. من یک پرینومپ روی این داده‌ها انجام می‌دهم و ستون‌های مرکزی Q را بر اساس بردار ویژه محاسبه‌شده (4 مورد اول) طرح می‌کنم. سوال من این است که آیا می توانم از بردارهای مستقل خطی نتیجه A برای ایجاد مبنایی استفاده کنم تا بتوانم سایر داده های کم نور زیاد را برای تشابه آزمایش کنم؟ به عنوان مثال برای حل دقیق Ax=b را حل کنید؟ من فکر می کنم روش معمول برای تعیین شباهت با فاصله اقلیدسی است، اما نمی دانم که آیا این نیز امکان پذیر است؟
بردارهای پایه تحلیل مؤلفه های اصلی
110139
برای تعیین اینکه آیا در یک سری زمانی از داده های شمارش همبستگی سریال وجود دارد، آیا آمار دوربین واتسون یا رویکردهای مشابه مناسب است؟ من این سوال را می‌پرسم زیرا dwtest پیاده‌سازی‌شده در R می‌تواند یک شی lm را به عنوان ورودی بگیرد، اما سری زمانی من شامل داده‌های شمارش است که می‌توان با یک توزیع دوجمله‌ای منفی تقریب زد و lm انتخاب مدل مناسبی نیست.
آیا آزمون دوربین واتسون برای داده های شمارش مناسب است؟
104305
من 3 معادله هم انباشته دارم. وقتی به رابطه بلندمدت بین متغیرها نگاه می‌کنیم، حدس می‌زنم که باید به «ضرایب هم‌انباشتگی عادی شده (خطای استاندارد در پرانتز)» برای «3 معادله(های) هم‌انجمادی» نگاه کنم. سپس چگونه می توانم فرمول را فرموله کنم؟ زیرا اکثر متغیرها به 1000 نرمال شده اند متشکرم!
معادلات هم انباشته نرمال شده در آزمون هم انباشتگی جوهانسن
108767
من سعی می کنم آزمایش کنم که آیا ضریب یک متغیر مستقل ($X_1$) بزرگتر از ضریب متغیر دیگر ($X_2$) در پیش بینی متغیر وابسته ($Y$) است یا خیر. به عنوان مثال، فرضیه من بیان می کند: اثر X_1$ روی $Y$ بزرگتر از تاثیر $X_2$ روی $Y$ است. در تجزیه و تحلیل رگرسیون من، معلوم می شود که $X_1$ قابل توجه است در حالی که $X_2$ مهم نیست. در این مورد، آیا می توانم نتیجه بگیرم که تأثیر X_1$ روی $Y$ بزرگتر از X_2$ است؟ اگر از دستور تست در Stata استفاده کنم، این دو افکت از نظر آماری تفاوتی ندارند. آیا زمانی که یک متغیر معنادار نیست، آزمون هنوز معنی دارد؟ منتظر نظر شما هستم
مقایسه ضرایب دو متغیر: یکی معنی دار و دیگری معنی دار نیست
1184
آیا می توانید یک مرجع مقدماتی برای تجزیه و تحلیل تجزیه شاخص توصیه کنید، از جمله * روش های مختلف (به عنوان مثال روش های مرتبط با شاخص Laspeyre و روش های مرتبط با شاخص Divisa) * ویژگی های روش های تجزیه که می توانند برای مقایسه روش های مختلف استفاده شوند * پیاده سازی روش ها، به عنوان مثال در R هر گونه اشاره قدردانی می شود. (به دلیل عدم شهرت نمی تواند به عنوان تجزیه شاخص برچسب گذاری شود)
مقدمه ای بر تحلیل تجزیه شاخص
114498
با توجه به مجموعه‌ای از سری‌ها، به عنوان مثال 9 موردی که در زیر نشان داده شده است، ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/vSFaZ.png) که در آن هر سری دارای رتبه‌ای مرتبط با آن است، _مثلاً سرخابی شماره 1 است، نارنجی شماره 2 است، مشکی شماره 3 است و به همین ترتیب، **می‌خواهم رابطه‌ای بین شکل یک سریال و رتبه آن پیدا کنم. به عبارت دیگر، می‌خواهم بدانم: آیا ویژگی‌های خاصی در یک سریال وجود دارد که با رتبه بالاتر آن مرتبط باشد؟** البته همانطور که گفته شد، مشکل مشخص نشده است، زیرا تا آنجا که می‌توان «ویژگی» وجود داشت. تصور کنید - برای مثال‌هایی که ممکن است سریال‌ها را به‌عنوان «فرار» یا دارای انواع خاصی از «عطف‌ها» یا «بالا رفتن به سمت پایان» و غیره توصیف کنیم. اما، من فکر می‌کنم باید وجود داشته باشد. یک رویکرد کلی وجود دارد - اگر تکنیک روشنی وجود نداشته باشد، از اصطلاحاتی که ممکن است من را به یک استراتژی هدایت کند سپاسگزار خواهم بود. (در حال حاضر نمی‌دانم چگونه این را به‌جز «همبستگی بین یک متغیر و یک سری» بیان کنم.) اگر بخواهم آن را به تنهایی حل کنم، ممکن است الگوریتم ژنتیکی را کشف کنم که تابع هزینه آن پیچیدگی یک مشخصه را جریمه می‌کند. (مثلاً تعداد مولفه‌های تکه تکه، یا درجات چندجمله‌ای یا دیفرانسیل، مورد نیاز برای توصیف مشخصه)، اما همه اینها حدس و گمان اصلاح نشده است. برای مثال مرتبط، در اینجا موارد فوق به صورت دلتاهای نرمال شده بیان شده است (در اصل یک مشتق): ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/lSFMh.png)
آیا راهی برای همبستگی یک متغیر با شکل یک سری وجود دارد؟
114329
من یک اندازه گیری طیف سنجی با ارزیابی غلظت یک عنصر انجام دادم. برای عنصر مورد علاقه من دو قله (با توزیع نرمال) دارم. $ C_1 ± \sigma_1 $ که در آن $ \sigma_1 = \sqrt{C_1} $ و تعداد شمارش ها _n_ $ C_2 ± \sigma_2 $ که در آن $ \sigma_2 = \sqrt{C_2} $ و تعداد شمارش ها _m_ غلظت توسط نسبت بین شمارش $ C_i $ و جرم $ m ± \sigma_m $ و زمان $t$ (با خطای اندازه گیری ناچیز). $ A_i = C_i/(m*t) $ و عدم قطعیت اندازه گیری $\sigma_{Ai} = f ( \sigma_i ;\sigma_m) $ در پایان من نسبت $ R=A_1/A_2 $ را با $\sigma_R کمی می کنم. = f ( \sigma_{a1} ;\sigma_{a2}) $ من نسبت را اندازه گرفتم **R** برای سه نمونه مختلف خاک (از آنها در مکان های مختلف نمونه برداری شد.) خاک _s1_ \--> $ R_{s1} ± \sigma_{s1} $ خاک _s2_ \--> $ R_{s2} ± \sigma_{s2} $ خاک _s3_ \--> $ R_{s3} ± \sigma_{s3} $ **سوال** باید اینها را مقایسه کنم سه نتیجه برای ارزیابی مشابه یا متفاوت بودن آنها. چگونه می توانم این مقایسه را انجام دهم؟ چگونه می توانم بین خاک _s1_ و میانگین ( _s2_ ; _s3_ ) مقایسه کنم؟ یک نمونه _t-test_؟
نحوه مقایسه نسبت غلظت
104417
من یک چارچوب داده با ساختار زیر دارم: سن، جنسیت منطقه مالک خانه. وضعیت برون گرا موافق نوع وظیفه شناس 1 34 زن شمال انگلستان رهن شده 7 4 5 3 2 38 زن جنوب شرق انگلستان رهن شده 4 3 6 1 3 35 زن شمال انگلستان رهن شده 3 7 4 4 30 زن شمال انگلستان رهن شده 2 6 5 3 5 60 مذکر اسکاتلند مالک مطلق 4 5 6 4 6 66 مالکیت مطلق مرد انگلستان شمالی 7 6 6 3 ستون «نوع» با اختصاص دادن هر سطر به یک خوشه ایجاد شده است. خوشه ها با استفاده از متغیرهایی که در این چارچوب وجود ندارند، تعیین شدند. من می خواهم یک گزارش کلی در مورد تفاوت انواع مختلف با یکدیگر از نظر ستون های دیگر تهیه کنم. یعنی، من می‌خواهم آماری از این شکل تولید کنم: نوع 1. 5% کمتر احتمال دارد که صاحب خانه باشم (003/0=p) 3 درصد بیشتر از اسکاتلند باشم (03/0=p) 1/2 درصد برون‌گراتر از میانگین (p=.xxxx) من در واقع ستون های بسیار بیشتری از این دارم، بنابراین یک روش برنامه ای برای مقابله با هر ستون مطلوب است. من از R استفاده می کنم.
کاوش خواص گروه ها در R
70258
بنابراین ما چندین RBM داریم > شبکه باور عمیق > > > یک شبکه باور عمیق از روی هم قرار دادن چندین RBM بر روی یکدیگر به دست می آید. لایه پنهان RBM در لایه i به ورودی > RBM در لایه i+1 تبدیل می شود. RBM لایه اول ورودی شبکه > را دریافت می کند و لایه پنهان آخرین RBM خروجی را نشان می دهد. > هنگامی که > برای طبقه بندی استفاده می شود، با افزودن یک لایه رگرسیون > logistic > در بالا، DBN به عنوان یک MLP در نظر گرفته می شود. > اما چرا RBM بیشتر به معنای بهتر نیست؟ چگونه بهترین تعداد لایه ها را تعیین کنیم؟ به نظر مرتبط است: شبکه باور عمیق بدتر از یک MLP ساده عمل می کند
شبکه باور عمیق (تعداد لایه ها)