_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
93223
من یک مدل خطی (که دارای چندین پیش بینی کننده است) با استفاده از تابع ()lm ایجاد کرده ام و می خواهم ضرایب را که هنگام استفاده از تابع summary() در مدل خطی به دست می آورم تفسیر کنم. اکنون می‌خواهم در نظر بگیرم که چگونه ضرایب بر تأثیر پیش‌بینی‌کننده‌ها در مدل منعکس می‌شوند - آیا من درست فکر می‌کنم که یک مقدار بزرگ برای ضریب به این معنی است که پیش‌بینی‌کننده مربوطه تأثیر بیشتری دارد؟ من مطمئن نیستم که چه چیز دیگری را باید در نظر بگیرم یا اینکه حتی در مسیر درستی فکر می کنم. همچنین، آیا من درست فکر می کنم که این ضرایب در واقع ضرایب بتا هستند؟
تفسیر خروجی ضریب تابع lm در R
93225
من رگرسیون چندگانه را با تولید گاز (l/d) به‌عنوان متغیر پاسخ، و نرخ جریان (l/h) و ورودی COD (g/l) به‌عنوان متغیرهای توضیحی در R انجام می‌دهم. من دو مدل ساختم. mod1 <- گاز ~ جریان + COD r^2 = 0.64 f stat= 56.62 (2،64) با 0.0000 .... مقدار p. mod2 <- گاز ~ جریان *COD r^2 = 0.81 f stat = 89.14 (3،63) با مقدار p نیز بسیار کم. حالا برای هر دو مورد، r^2 چه می گوید و f stat چه می گوید؟ من تست آنووا هر دو مدل را انجام دادم. چگونه آنها را تفسیر کنیم؟ مدل 1: گاز ~ جریان + CODin مدل 2: گاز ~ جریان * CODin Res.Df RSS Df مجموع مربع F Pr(>F) 1 64 24307 2 63 12835 1 11472 56.311 2.631e-10 ***
مقایسه R-squared و F-stat
73925
این سوال به نوعی دنباله سوال دیگری است که من داشتم: توزیع نرمال مجانبی از طریق قضیه حد مرکزی در آنجا باید تخمینگر را برای $p$ (به معنی $p$ برای موفقیت) محاسبه می کردم و توزیع آن را با تقریب با یک نرمال تقریب می زدم. توزیع اکنون می خواهم توزیع دقیق $p$ را بدست بیاورم. من قبلاً راهنمایی زیر را دریافت کردم: شما شکل تابعی $\hat{p}$ را دارید. ببینید چگونه توزیع یک تابع از یک متغیر تصادفی گسسته را استخراج می کنیم. متأسفانه من را به راه حلی هدایت نکرد ...
چگونه می توان توزیع دقیق p تخمین زده شده را برای توزیع دو جمله ای بدست آورد؟
61348
من چولگی 0.5- در باقیمانده ها دارم که به نظر نمی رسد بعد از استفاده از log/root بهبود چندانی پیدا کند. آیا این یک نگرانی عمده است؟ تست‌های مربوط به هم‌اسکاداستیسیته، چند خطی بودن، پرت‌ها همگی خوب به نظر می‌رسند. شاید تفسیر رگرسیون با استفاده از خطاهای استاندارد قوی کمک کند.
چولگی در باقیمانده ها
26363
من سعی می کنم از یک تبدیل سینوس هذلولی معکوس برای کاهش اثر نقاط پرت در متغیر هدفم استفاده کنم. متأسفانه، به نظر نمی رسد به مقالات اولیه آن دسترسی داشته باشم. من فرمول را پیدا کردم اما مطمئن نیستم که چگونه پارامتر تتا را برای آن تخمین بزنم. کسی میدونه؟ با تشکر
تبدیل سینوس هذلولی معکوس: تخمین تتا
1378
من مجموعه داده ای دارم که شامل 7500 آزمایش خون از 2500 نفر است. من سعی می کنم بفهمم که آیا تنوع در آزمایش خون با فاصله زمانی بین دو آزمایش افزایش می یابد یا کاهش می یابد. به عنوان مثال - من خون شما را برای آزمایش پایه می‌گیرم، سپس بلافاصله نمونه دوم را می‌گیرم. شش ماه بعد یک نمونه دیگر می کشم. ممکن است انتظار داشته باشیم که تفاوت بین آزمون های پایه و تکرار فوری کمتر از تفاوت بین آزمون پایه و آزمون شش ماهه باشد. هر نقطه در نمودار زیر نشان دهنده تفاوت بین دو آزمون است. X تعداد روزهای بین دو آزمون است. Y اندازه تفاوت بین دو آزمون است. همانطور که می بینید، آزمون ها به طور مساوی در طول X توزیع نمی شوند - این مطالعه در واقع برای پاسخ به این سوال طراحی نشده است. از آنجایی که نقاط به شدت در میانگین انباشته شده اند، من 95٪ (آبی) و 99٪ (قرمز) خطوط کمیت را بر اساس پنجره های 28 روزه گنجانده ام. بدیهی است که اینها توسط نقاط شدیدتر کشیده می شوند، اما شما این ایده را دریافت می کنید. ![متن جایگزین](http://a.imageshack.us/img175/6595/diffsbydays.png) به نظر من تغییرپذیری نسبتاً پایدار است. در غیر این صورت، زمانی که تست در مدت کوتاهی تکرار شود، بیشتر می شود - این بسیار غیر منطقی است. چگونه می توانم به روشی سیستماتیک به این موضوع بپردازم و n را در هر نقطه زمانی متفاوت در نظر بگیرم (و برخی دوره ها بدون هیچ آزمونی)؟ ایده های شما بسیار قابل تقدیر است. فقط برای مرجع، این توزیع تعداد روزهای بین آزمون و آزمایش مجدد است: ![متن جایگزین](http://a.imageshack.us/img697/6572/testsateachtimepoint.png)
تخمین تغییرپذیری در طول زمان
55753
من سعی می کنم چند جمله ای مرتبه دوم را جا بزنم. پیش بینی های خود را در مرکز و مقیاس قرار می دهم و داده ها را با استفاده از تابع lm برازش می کنم. من «خلاصه (مناسب)» را انجام دادم. برای 3 تا از متغیرهایم، من NA را در تمام ستون‌ها از جمله تخمین، p-value و غیره دریافت کردم. بنابراین، من از R استفاده می‌کنم و از تابع `lm` به صورت fit1<- lm استفاده کردم (y ~ x11+x22 + I(x11^2 ) +I(x22^2) +I(x11*x22) ) خروجی که دریافت کردم این است: فراخوانی: lm(فرمول = y ~ x11 + x22 + I(x11^2) + I(x22^2) + I(x11 * x22)) باقی‌مانده‌ها: حداقل 1Q میانه 3Q حداکثر -0.33889 -0.21371 0.01898 0.15166 0.47933 Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 2.57956 0.05367 48.062 <2e-16 *** x11 -0.13097 0.05329 -2.458 0.0194 * x22 NA NA NA NA I (30.501) 2.437 0.0204 * I(x22^2) NA NA NA NA I(x11 * x22) NA NA NA NA --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 بنابراین، به طور خلاصه، متغیرهای x22، x22-square و تعامل x1*x2 NA را در تمام ستون‌ها نشان می‌دهد. آیا برای به دست آوردن NA خطایی وجود دارد یا فقط باید فرض کنم که پیش بینی هایی که تخمین ها برای آنها NA است، ناچیز هستند؟ از کمک شما متشکرم
آیا این یک خطا است یا خیر؟
51073
آیا منطقی است که به نمودار پراکنده میانگین ها در مقابل انحرافات استاندارد از نظر جستجوی نقاط پرت یا تغییر نگاه کنیم؟ بنابراین میانگین روی محور x و انحراف معیار روی محور y است. ما یک خوشه از داده ها را دریافت خواهیم کرد که داده های مشابه را نشان می دهد (میانگین و انحراف استاندارد نسبتاً یکسان). توجه داشته باشید که من حجم نمونه یا مشاهدات فردی را که این میانگین ها و انحرافات استاندارد از آن محاسبه شده اند، نمی دانم.
ابزارهای رسم و انحراف معیار
22470
فقط یک سوال ساده در مورد انتخاب پارامتر برای SVM ها. اگر برای یافتن پارامترهای بهینه برای مجموعه‌ای از داده‌ها از یک الگوریتم حداقل یافتن استفاده کنم، چگونه می‌توانم پارامترها را در مجموعه‌ای از اجراهای اعتبارسنجی متقاطع «میانگین» کنم تا بهترین پارامترها را برای اجرای مجموعه آزمایشی خود به دست بیاورم؟ هنگام انجام اعتبارسنجی متقاطع X-fold، من می توانم به سادگی میانگین تناسب مدل را برای هر مجموعه پارامتر ببینم، اما مطمئن نیستم که چگونه این کار را با حداقل الگوی یافته انجام دهم. با تشکر
SVM و اعتبار سنجی متقابل با حداقل الگوریتم یافتن
32539
من دو متغیر دارم که هر کدام سه سطح دارند (کم، متوسط ​​و زیاد). من می‌خواهم بتوانم آزمایش کنم که آیا روند معنی‌داری بین دو متغیر وجود دارد یا خیر، یعنی وقتی x بالا می‌رود یا خیر. به نظر می‌رسد که آزمون‌های روندی که من همه آنها را بررسی کرده‌ام، دارای یک متغیر با 2 سطح و دیگری با n سطح هستند. در اینجا نمونه ای از جدول فرکانس داده های من است: mat <- structure(c(20, 19, 6, 10, 22, 4, 0, 12, 4), .Dim = c(3L, 3L), .Dimnames = list(c(low_1، medium_1، high_1)، c(low_2، medium_2، high_2))) اگر یک تابع برای آن در R وجود دارد که مفید خواهد بود.
آزمون روند برای دو متغیر ترتیبی که هر دو شامل سه عامل هستند
51074
در اینجا چیزی است که من دارم: یک مجموعه آموزشی مقیاس بندی شده، با برچسب. تصاویر بخش‌بندی شده، که از آنها بردارهای جدیدی را برای طبقه‌بندی استخراج می‌کنم. طبقه بندی کننده من یک KNN است که بدیهی است با استفاده از مجموعه آموزشی من آموزش داده شده است. حالا، من تعجب می کنم که چگونه باید بردارهای جدیدی را که به دست آوردم، مقیاس کنم. آیا این درست است که آنها را به تنهایی مقیاس کنیم یا باید کار دیگری انجام دهم؟ برای مثال نمی‌دانم که آیا یک نقطه پرت بر مقیاس‌بندی و طبقه‌بندی بعدی تأثیر می‌گذارد... [ویرایش] افزودن یک نقطه پرت (که می‌خواهم با استفاده از الگوریتم kNN آن را تشخیص دهم) به داده‌های آزمون، بر مقیاس‌بندی تأثیر می‌گذارد، بنابراین طبقه‌بندی بعدی برنده شد. درست کار نمی کند اونوقت باید چیکار کنم؟ [ویرایش 2] به این ترتیب داده‌هایم را مقیاس‌بندی می‌کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/9tpnF.png) که در Scilab به آن ترجمه می‌کنم: function dataout = scaledata(datain) dataout = صفر (اندازه (داده، 1)، اندازه (داده، 2)); برای i=1:size(datain,2) dataout(1:size(datain,1),i) = (datain(1:$,i) - min(datain(1:$,i))) / .. (حداکثر(داده(1:$,i)) - min(داده(1:$,i))); endfunction با تشکر از شما
چگونه می توان داده های جدید را در زمانی که یک مجموعه آموزشی از قبل وجود دارد، مقیاس بندی کرد
40853
من می خواهم 2 طبقه بندی کننده مختلف را برای یک مسئله طبقه بندی متن چند کلاسه که از مجموعه داده های آموزشی بزرگ استفاده می کند، مقایسه کنم. من شک دارم که آیا باید از منحنی های ROC یا منحنی های یادگیری برای مقایسه 2 طبقه بندی کننده استفاده کنم. از یک طرف، منحنی‌های یادگیری برای تعیین اندازه مجموعه داده آموزشی مفید هستند، زیرا می‌توانید اندازه مجموعه داده‌ای را پیدا کنید که در آن طبقه‌بندی‌کننده یادگیری را متوقف می‌کند (و شاید کاهش یابد). بنابراین بهترین طبقه‌بندی در این مورد ممکن است طبقه‌بندی‌کننده‌ای باشد که با کوچک‌ترین اندازه داده به بالاترین دقت برسد. از سوی دیگر، منحنی‌های ROC به شما امکان می‌دهند نقطه‌ای با مبادله مناسب بین حساسیت/ویژگی پیدا کنید. بهترین طبقه‌بندی در این مورد فقط طبقه‌بندی‌کننده‌ای است که به قسمت بالا سمت چپ نزدیک‌تر است، با بالاترین TPR برای هر FPR. آیا باید از هر دو روش ارزیابی استفاده کنم؟ آیا ممکن است روشی با منحنی یادگیری بهتر منحنی ROC بدتری داشته باشد و بالعکس؟
ارزیابی طبقه‌بندی‌کننده‌ها: منحنی‌های یادگیری در مقابل منحنی‌های ROC
55758
من یک جمعیت کامل متشکل از 6587 فرد (ژن) دارم و برای هر فرد یک مقدار فاصله دارم. این مقادیر فاصله معمولاً توزیع نمی شوند. من علاقه مند به تعیین این هستم که آیا نمونه ای از 348 نفر (که مقدار فاصله متوسط ​​کمتری در مقایسه با مقدار میانگین فاصله از جمعیت کامل دارد) به طور قابل توجهی متفاوت از حد انتظار است یا خیر. من پیشینه آماری محدودی دارم و از مشاوره در مورد اینکه از چه آزمون آماری استفاده کنم سپاسگزارم. ایده ها عبارتند از: 1. دو آزمون t نمونه (احتمالاً درست نیست، زیرا توزیع نرمال نیست) 2. آزمایش جمع رتبه ویلکاکسون (دوستش این را پیشنهاد کرد) 3. آزمایش دیگری که اجرای آن در R 4 آسان است. تست سفارشی - یکی ایده من این بود که به طور تصادفی 348 نفر (با جایگزینی) را انتخاب کنم و میانگین فاصله آنها را تعیین کنم. سپس این کار را 1000 بار تکرار کنید (من فکر می کنم به این می گویند بوت استرپینگ). من این کار را انجام دادم و یک توزیع نرمال از مقادیر با میانگین 32000 (همان میانگین جمعیت) و sd = 2000 دریافت کردم. میانگین مقدار فاصله برای نمونه واقعی 348 نفر 18000 بود. بنابراین با مقدار p 1 دنباله از نرمال توزیع میانگین 32000 و sd=2000 معنی دار به نظر می رسد. پیشاپیش از هر راهنمایی متشکرم!
جمعیت با توزیع شناخته شده (غیر نرمال) در مقابل نمونه کوچک
110308
من روی تطبیق یک مدل GEE با یک نتیجه لجستیک چند جمله ای با استفاده از بسته R geepack کار می کنم. درک من این است که بسته از glm برای تناسب با فرمول استفاده می کند. با این حال، از آنچه من می توانم ببینم، glm خانواده ای برای یک نتیجه چند جمله ای ندارد، فقط دو جمله ای است. چگونه می‌توانید یک معادله لجستیک چند جمله‌ای را با استفاده از «gee» در R تنظیم کنید؟ با تشکر
رگرسیون لجستیک چند جمله ای با geepack در R
56226
من با بسیاری از موارد مشکل رگرسیون بزرگ دارم، اما متغیرهای مستقل نسبتا کمی دارند. یکی از آنها یک عامل طبقه بندی شده با هزاران سطح است. رگرسیون قوی برای همیشه اجرا می شود. در برخی موارد، تعداد زیادی از متغیرهای ساختگی برای محاسبه حتی با lm عادی بسیار پراکنده می شود. چیزی که معمولاً منطقی است این است که به نوعی میانگین را برای هر سطح از عامل محاسبه کنیم، سپس متغیر وابسته را متناسب با آن تنظیم کنیم، و رگرسیون را بدون عامل بزرگ انجام دهیم. یکی از همکاران من می تواند به خاطر بیاورد که یک تابع دو حرفی R وجود دارد که این کار را به صورت خودکار انجام می دهد، اما او نمی تواند ترکیب دو حرف را به خاطر بیاورد. هر گونه کمکی بسیار قدردانی خواهد شد.
خلاص شدن از شر یک عامل طبقه بندی بزرگ در رگرسیون چندگانه
55756
من علاقه مند به کسب اطلاعات بیشتر در مورد آزمایش مدل پروبیت دو متغیره با یک رگرسیون درمان درون زا هستم. من چیزهایی را کشف کرده ام - خلاصه در زیر، زیرا چیز زیادی در مورد این موضوع نمی بینم - اما سؤالات دیگری باقی می ماند. تنظیمات اینجاست. فرض کنید من یک نتیجه باینری $y_1$ دارم که به $x_1$، خطای $\varepsilon_1$ و نشانگر درمان باینری $y_2$ بستگی دارد، که خود به $x_2$ بستگی دارد، و $z$ و خطای $\varepsilon_2$. وابستگی به شکل $y_1=\mathbb{1}(\beta_1'x_1+\alpha y_2+\varepsilon_1>0)$ و $y_2=\mathbb{1}(\beta_2'x_2+\gamma z+\varepsilon_2>0) است. .$ خطاهای دو معادله با $\rho$ همبستگی دارند. من در آزمایش مفروضات: 1. نرمال بودن دو عبارت خطا 2. $\rho=0$ 3. همسانی خطاها 4. برون زایی و ابزار ضعیف برای معادله درمان، نرمال بودن را می توان با خوبی آزمایش کرد. آزمون امتیاز رائو / مورفی برازش که توسط چیبوریس و همکارانش توضیح داده شده است. (2011) و چیبوریس (2010)، که کد Stata را ارائه می دهند (`scoregof`). این آزمون با افزودن پارامترهای بیشتر به مدل، توزیع نرمال دو متغیره را در خانواده بزرگتری از توزیع ها تعبیه می کند و بررسی می کند که آیا پارامترهای اضافی با استفاده از امتیاز پارامترهای اضافی در تخمین biprobit صفر هستند یا خیر. هنگامی که کشش یا چولگی بیش از حد در توزیع خطا وجود داشته باشد، رد می شود. آنها یک نوع تست Hosmer-Lemeshow را برای انجام این کار بر اساس شبیه سازی توصیه نمی کنند. همبستگی بین خطاها را می توان با استفاده از آزمون نسبت درستنمایی بر اساس این ایده آزمایش کرد که اگر $\rho=0$ باشد، احتمال ورود به سیستم برای پروبیت دو متغیره برابر با مجموع احتمالات ورود به سیستم از 2 پروبیت تک متغیره خواهد بود. . اگر خطاهای ساندویچ Huber/White را محاسبه کنید، این یک تست والد می شود. برخی از سوالات باقی می ماند. 1. در صورت استفاده از خطاهای قوی، آیا باید نگران ناهمگنی باشم؟ چگونه می توانم برای این تست کنم؟ 2. آیا می توانم هتروسکداستیکی را از اثرات درمان های ناهمگن متمایز کنم؟ 3. آیا می توانم از تشخیص خطی IV (مانند تست های ابزار ضعیف) برای بررسی مدل پروبیت غیر خطی استفاده کنم؟ آیا چیز بهتری وجود دارد؟ این برای من عجیب به نظر می رسد زیرا آنها اثرات درمانی متفاوتی را تخمین می زنند. 4. آیا چیزهای دیگری وجود دارد که باید بررسی کنم که از آنها بی اطلاعم؟
پروبیت دو متغیره با آزمایش متغیر کمکی درون زا
114683
من می‌خواهم یک مدل 3 سطحی (سال‌های خوشه‌بندی شده در مناطق خوشه‌بندی شده در شهرستان‌ها) را بر اساس داده‌های لیلاند (مرگ در انگلستان و ولز، 1979-1992 مقدمه‌ای بر مدل‌سازی چندسطحی با استفاده از MlwiN) با استفاده از R تخمین بزنم. من 3 پیش‌بینی‌کننده دارم. (سال ۷۹ (در سطح ۱)، سال ۷۹۲ (در سطح ۱) و خانواده (در سطح ۲)). سال 792 فقط مربع سال 79 است. من می خواهم شیب سال را بین واحدهای سطح سوم (شهرستان) تغییر دهم. من از کد زیر استفاده کردم اما مطمئن نیستم که درست باشد: fit7<-lmer(smr ~ year79 + year792 + family + (1 | شهرستان/منطقه ) + (سال79 | شهرستان)، data=Imdp، REML=FALSE)
مدل 3 سطحی با شیب تصادفی در R
93227
فرض کنید من از داده‌های «Sonar» استفاده می‌کنم و می‌خواهم یک اعتبار سنجی در R انجام دهم. من داده‌ها را با استفاده از «createFolds» از بسته «caret» به‌عنوان «folds <\- createFolds(mydata$) تقسیم‌بندی کردم. کلاس، k=5)`. سپس می‌خواهم دقیقاً از «mydata[i]» به‌عنوان داده‌های آزمایشی استفاده کنم و یک طبقه‌بندی کننده را با استفاده از «mydata[-i]» به‌عنوان داده قطار آموزش دهم. اولین فکر من استفاده از تابع قطار بود، اما نتوانستم هیچ پشتیبانی برای اعتبار سنجی نگهدارنده پیدا کنم. منظورم این است که من نمی خواهم داده هایم را پارتیشن بندی کنم و سپس تمام ترکیب ها را برای تخمین دقت متوسط ​​آزمایش کنم، می خواهم فقط یک بار آن را آموزش دهم. آیا من اینجا چیزی را از دست داده ام؟ همچنین، من می‌خواهم به جای اینکه تابع داده‌ها را پارتیشن بندی کند، بتوانم دقیقاً از تاهای از پیش تعریف شده به عنوان پارامتر استفاده کنم. آیا کسی نظری دارد؟ پیشاپیش ممنون
نحوه اجرای اعتبار سنجی نگهدارنده در R
114688
من در حال مطالعه کتاب مقدمه ای بر یادگیری آماری: با برنامه های کاربردی در R هستم، در صفحه 66 در حالی که کتاب نحوه محاسبه $\beta_0$ و $\beta_1$ را توضیح می دهد، از نحوه محاسبه واقعی صرف نظر می کند و فقط معادلات را نشان می دهد. آنها را محاسبه کرده و سپس نتیجه را در صفحه بعد بدست آورید. وقتی $\sigma^2$ محاسبه شد گم شدم. من نمی دانم چگونه محاسبه شده است، همانطور که از کتاب نقل می کنم: > به طور کلی $\sigma^2$ مشخص نیست، اما می توان از روی داده ها تخمین زد. > این تخمین به عنوان خطای استاندارد باقی مانده شناخته می شود و با فرمول > $\text{RSE} = \sqrt\frac{RSS}{n-2}$ ارائه می شود، بنابراین من $\sigma^2$ را به عنوان $ محاسبه کردم. \text{RSE} = \sqrt\frac{RSS}{n-2}$ که «3.258» را به دست می‌دهد اما وقتی سعی می‌کنم از این مقدار به جای استفاده کنم، جمع نمی‌شود. $\sigma^2$ در معادلات (3.8) در همان صفحه. P.S: این مثال متعلق به مجموعه داده های تبلیغاتی است و فروش (Y) به عنوان تابعی از تبلیغات تلویزیونی (X) است. در اینجا موجود است
محاسبه واریانس (تخمین خطای استاندارد)
93229
من سعی می کنم از بسته fitdistrplus در R استفاده کنم تا یک توزیع غیر استاندارد را در مجموعه داده خود جای دهم. من سعی می کنم روش هایی را کپی کنم که سازندگان بسته در آموزش خود برای تعیین توزیع Gumbel استفاده کرده اند اما متأسفانه نمی توانم این کار را انجام دهم. (مستندات بسته را می توان در این pdf پیدا کرد.) بنابراین مشکل من این است که تابع CDF و تابع چگالی خود را دارم که استاندارد نیستند: $ \begin{align*} H_{G}(x)&=\frac{ 1}{P(1)}\left[ \frac{\Phi^{3}\left( \frac{x-\mu}{\sigma}\right)}{6}-\frac{\delta}{ 2} \Phi^{2}\left( \frac{x-\mu}{\sigma}\right)+\left( \frac{\delta^{2}}{2} + \beta\right) \Phi\ left( \frac{x-\mu}{\sigma}\right)\right]\\ h_{G}(x)&= \frac{1}{\sigma P(1)}\left[ \frac{\left[ \Phi^{2}\left( \frac{x-\mu}{\sigma}\right)\right] }{2}-\delta \Phi\left( \frac{x- \mu}{\sigma}\right)+\left( \frac{\delta^{2}}{2} + \beta\right) \right] \phi\left( \frac{x-\mu}{\sigma}\right) \end{align*}$ with $ P(1)= \left[ \frac{1}{6}-\frac{\delta}{2} +\left( \frac{\delta^{2}}{2} + \beta\right) x\right] $ و \begin{equation*} \Phi(\dfrac{x-\mu}{\sigma} ) =\frac{1}{\sqrt{2\pi}}\int^{x}_{-\infty}e^{-\frac{\left(t-\mu\right) ^{2}}{ 2\sigma^{2}}}dt \qquad \text{and} \qquad \phi(\dfrac{x-\mu}{\sigma}) =\frac{1}{\sqrt{2\pi}}e^{-\frac{\left(x-\mu\right) ^{2}}{2\sigma^{2}}}. \end{معادله*} و در اینجا تعدادی از کد من است: ###### من چگالی خود را در گامبل تعریف می‌کنم ###### ds <- function(u,a,e,mu,sigma){ P = تابع(a,e){ (( (1/6)*(1^3) ) - ((a/2)*(1^2)) + (((((a)^2)/2 ) + e)*1)) } D = تابع(u,mu,sigma){ (1/((sigma)*sqrt(2*pi)))*exp(-(((u-mu)^2)/( 2*(سیگما^2)))) } K = تابع(u,a,e){ (((1/2)*(u^2))- (a*u) +(((a^2) /2)+e)) } H = تابع (u,mu,sigma){ pnorm(u,mu,sigma) } Fprim = تابع (u,a,e,mu,sigma){ (1/P(a,e))*(D( u,mu,sigma))*(K(H(u,mu,sigma),a,e)) } return(Fprim) } ###### من تابع CDF خود را در گامبل تعریف می کنم ###### ps <- function(u,a,e,mu,sigma) { S = function(u) (((1/6)*(u^3)) - ((a/2)* (u^2)) + ((((a)^2)/2)+e)*u))/(((1/6)*(1^3)) - ((a/2)* (1^2)) + ((((a)^2)/2)+e)*1)) cdf = S(pnorm(u, mu, sigma)) return(cdf) } ###### تابع چندک خود را به صورت تعریف می کنم در آدامس ###### qs <- function(u,a,e,mu,sigma) optimize(function(z) (ps(z)-u)^2, c(-10,10))$minimum ###### تخمین MLE با استفاده از fitdist و mledist ###### fgu <- fitdist(X, s, start=list(a=0.035, e= 0.005، mu=-0.52، سیگما=1) mledist(X، s، start=list(a=0.035، e=0.005، mu=-0.52، سیگما=1))
بسته fitdistrplus
104473
به عنوان یک تکلیف کاری، از من خواسته شده است که تعداد بهینه SKU را برای یک گروه محصول تعیین کنم. من تصمیم گرفتم با استفاده از یک رگرسیون خطی ساده با فروش به عنوان متغیر وابسته و # SKU و # SKUها به عنوان متغیرهای مستقل من، با این Q مقابله کنم. مجموعه داده های من بخشی از فروش فروشگاه و تعداد SKU برای هر فروشگاه است. هنگامی که من رگرسیون را اجرا می کنم و ضرایب مثبت را برای هر دو SKU و # SKU مجذور می کنم، مشکل ایجاد می شود (من فکر می کنم بازده کاهشی با یک ضریب منفی برای متغیر مجذور مشخص می شود). من گمان می کنم که فروش برای فروشگاه های بزرگتر نسبت به فروشگاه های کوچکتر از # SKU بیشتر است و شاید به همین دلیل است که ضریب من منطقی نیست. من به دنبال پیشنهادهایی در مورد مشخصات مدل یا راه‌هایی برای استاندارد کردن فروشگاه‌ها هستم (اگر راه حل این باشد). مجموعه داده‌های من حدود 600 فروشگاه دارد و به این فکر کردم که گروه را بر اساس اندازه فروشگاه محدود کنم، اما فروشگاه‌های با اندازه مشابه معمولاً تعداد SKUهای یکسانی دارند. من همچنین به استفاده از یک سری زمانی فکر کردم، اما داده های سالانه من فقط به یک دهه یا بیشتر برمی گردد. من همچنین در این زمینه بی تجربه هستم و نگران هستم که آن را به درستی مدل نکنم. ممنون از هر راهنمایی به سلامتی،
مشکل در شناسایی بازده های کاهش یافته از SKU های اضافی
51075
فرض کنید باید «ttest bhar12=0» را اجرا کنم و خروجی به صورت زیر باشد: آزمون t یک نمونه ---------------------------- ------------------------------------------------ متغیر | Obs Mean Std. اشتباه Std. توسعه دهنده [95% Conf. فاصله] ---------------------------------------------- ------------------------------ bhar12 | 124 -.0325875 .0751874 .8372516 -.1814163 .1162414 ------------------------------------------------ ----------------------------- میانگین = میانگین(bhar12) t = -0.4334 Ho: میانگین = 0 درجه آزادی = 123 هکتار: معنی < 0 Ha: mean != 0 Ha: mean > 0 Pr(T <t) = 0.3327 **Pr(|T| > |t|) = 0.6655** Pr(T > t) = 0.6673 اگر می دانستم توزیع برای `bhar12` دارای انحراف مثبت است، چگونه می توانم یک ttest برای دریافت **Pr(|T| > |t|) بوت استرپ انجام دهم. ارزش **؟
چگونه p-value را در ttest در Stata بوت استرپ کنیم؟
56221
من ناامیدانه به دنبال کمک آماری با داده هایم هستم، زیرا خودم نمی توانم مطالب نظری را که اخیراً در مورد باقیمانده ها، توزیع های مربع کای، مقادیر z-مقدار مجذور دیگر خوانده ام به مشکل خود منتقل کنم. بنابراین من واقعاً از کسی ممنونم که در این زمینه به من کمک کند: من 2 توزیع را با 4 دسته با استفاده از آزمون دقیق فیشر مقایسه کردم - این تفاوت معنی دار بود. حالا می خواستم بدانم کدام دسته مسئول تفاوت هستند. به طور خاص، من علاقه مند بودم که در کدام یک از 4 دسته، مقادیر مشاهده شده با آنچه انتظار می رفت متفاوت است. بنابراین من باقیمانده های استاندارد شده یا مقادیر z مربع را محاسبه کردم (اگر درست باشد؟) ، مانند این: (مشاهده - انتظار می رود) طبقه بندی مربع / مورد انتظار: 1; 2 3;4 مشاهده شده: 4; 7; 5 56 مورد انتظار: 1.4; 3.2; 4.6; 62.8 z-squared: 4.8; 4.5; 0.03; 0.73 از این رو، از آنچه من از این مثال می فهمم، مقادیر مشاهده شده و مورد انتظار در دسته 3 و 4 آن متفاوت نیستند، اما در دسته 1 و 2 خوب هستند. اما حالا اعداد دقیقا به چه معنا هستند؟ آیا با توجه به اینکه مقایسه با تعداد افراد در هر دسته سروکار دارد، اطلاعات احتمالی را منتقل می کنند؟ من در مورد هر توصیه ای بسیار خوشحال خواهم شد. با احترام، یوهانا
تست دقیق پست فیشر - چگونه وزن را در محدوده تفاوت های دسته بندی کنیم؟
110303
من به تازگی در برنامه کارشناسی ارشد آمار در دانشگاه ویلانوا (یک دانشگاه منطقه ای برتر در شمال ایالات متحده) و در دانشگاه تمپل (یک دانشگاه سطح سوم ملی) پذیرفته شدم. میخواستم بدونم کسی میتونه منو راهنمایی کنه که کدوم دانشگاه رو انتخاب کنم. ویلانوا برنامه دکترا در آمار ندارد و فقط کلاس های شبانه را برای دانشجویان کارشناسی ارشد ارائه می دهد، که به این معنی است که اکثر دانشجویان آن حرفه ای هستند. برنامه آن در گروه ریاضی است. Temple یک برنامه دکترا دارد و دانشجویان کارشناسی ارشد در صورت تمایل می توانند دوره های دکترا را بگذرانند. این برنامه توسط دپارتمان آمار که در دانشکده بازرگانی است اجرا می شود. هزینه برنامه در Temple حدود 45000 دلار است، در حالی که در Villanova هزینه آن حدود 25000 دلار است. سوابق تحصیلی من در اقتصاد است و تجربه تحقیقاتی در مدل سازی و تحلیل داده های اقتصادی دارم. من در اواسط دهه 40 هستم. هر گونه پیشنهاد قدردانی می شود. به روز رسانی: از آنجایی که من نمی توانم نظر بگذارم، بنابراین برخی از کلمات را اینجا تایپ می کنم. من سوال را اینجا ارسال می کنم زیرا یک بار یک پست مرتبط را در اینجا خواندم که در زیر لینک داده شده است (متشکرم، کاردینال). همچنین، نظرات افراد با سابقه علمی در آمار (کارشناسی ارشد یا دکترا) ممکن است تا آنجا که به سؤال من مربوط می شود، نسبت به نظرات افراد در رشته های کاملاً متفاوت مرتبط باشد.
برنامه کارشناسی ارشد آمار در یک دانشگاه برتر منطقه ای 1 در مقابل یک دانشگاه سطح 3 ملی
110301
من این رگرسیون خطی را انجام دادم که نشان می‌دهد مکان‌های تخمینی حیوانات (طول جغرافیایی) چقدر مکان‌های واقعی حیوانات را پیش‌بینی می‌کنند. تخمین <- c(-1.514276، -1.513683، -1.514253، -1.514207، -1.513557، -1.513634، -1.513870، -1.511210، -1.51151515، -1.511515، 7.71- -1.511802، -1.509500، -1.510037، -1.510214) واقعی <- c(-1.514255، -1.514053، -1.514527، -1.514223، -1.513513، -1.513672، -1.513514، -1.513672، -1. -1.511118، -1.511567، -1.511658، -1.511585، -1.511830، -1.509438، -1.509843، -1.510080) lm_طول طولی <- lm_ll)تختاری (کلی) lm(فرمول = برآورد ~ واقعی) باقیمانده ها: حداقل 1Q میانه 3Q Max -2.630e-04 -3.825e-05 8.945e-06 6.530e-05 1.645e-04 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 0.09325 0.02706 3.445 0.00435 ** برآورد 1.06167 0.01790 59.325 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.000112 در 13 درجه آزادی. آمار: 3519 در 1 و 13 DF، p-value: < 2.2e-16 همانطور که می بینید، مکان های تخمینی پیش بینی کننده های بسیار خوبی برای مکان های واقعی هستند. من در ابتدا از نمودار باقیمانده در برابر مقادیر برازش نگران شدم. به نظر می رسد که باقیمانده هایی را نشان می دهد که با مقادیر برازش همبستگی دارند: library(ggplot2) df_lm_longitude <- ggplot2::fortify(lm_longitude) ggplot(df_lm_longitude، aes(.fitted، .resid)) + geom(+)_moint توضیحات تصویر را وارد کنید اینجا](http://i.stack.imgur.com/0c7Hk.jpg) اما مقیاس محور y را تغییر دهید، و نمودار باقیمانده در مقابل مقادیر برازش عالی به نظر می رسد: ggplot(df_lm_longitude, aes(.fitted, .resid)) + geom_point() + stat_smooth() + ylim(-0.01، 0.01) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NHres.jpg) بنابراین یکی از مفروضات رگرسیون خطی این است که باقیمانده ها نباید با مقادیر برازش همبستگی داشته باشند. در مدل بالا، باقیمانده ها با مقادیر برازش در مقیاس بزرگ همبستگی دارند. اما در مقیاس کوچک بزرگنمایی کنید، و باقیمانده ها اصلا با هم مرتبط نیستند؟ از چه وضوحی باید برای محور y در نمودار باقیمانده در برابر مقادیر برازش استفاده کنم؟
از چه وضوحی باید برای نمودارهای باقیمانده در مقابل مقادیر برازش از رگرسیون خطی استفاده کنم؟
56220
$U_i \sim^{iid} برنولی(\pi)$ را در نظر بگیرید. همچنین در نظر بگیرید: $$Y_i | U_i = 0 \sim exp(1/\gamma) \text{ و } Y_i | U_i = 1 \sim exp(1/2\gamma) $$ روش برآوردگرهای لحظه ای $\pi \text{ و} \text{ }\gamma$ چیست؟ راه حل من این است: $E(U_i) = \pi \Rightarrow \hat{\pi_{MOM}} = \bar{U} = \sum U_i / n$ $E(Y_i) = E(E(Y_i | U_i )) = \gamma (1 + \pi) \Rightarrow \hat{\gamma_{MOM}} = \frac{\sum Y_i / n}{1 + \hat{\pi_{MOM}}}$ آیا برآوردهای بالا درست است؟
روش برآوردگر لحظه ای
37683
من داده هایی دارم که چندین سال را در بر می گیرند: 2006-2010. من رگرسیون لجستیک را برای مدل سازی داده ها اجرا کرده ام. برای کل مجموعه داده، من یک فاصله اطمینان 95% برای **نسبت شانس** یک پارامتر مورد علاقه (0.34 - 0.47) دریافت می کنم که نشان دهنده یک اثر بسیار مهم است. با این حال، برای هر سال جداگانه، با مشخصات مدل یکسان، فواصل اطمینان عبارتند از: 2006: (0.78 - 1.94) (غیر قابل توجه) 2007: (0.61 - 0.93) 2008: (0.63 - 0.90) 2009: (0.92 - 1). (مهم نیست) 2010: (0.88 - 1.33) (مهم نیست) چگونه می توانم تطبیق دهم که فاصله اطمینان برای کل مجموعه داده کمتر از فواصل اطمینان برای همه سال های فردی باشد؟ من حدس می‌زنم که این مربوط به اندازه‌های نمونه باشد - اندازه‌های نمونه بزرگ‌تر که منجر به مقادیر p پایین‌تر می‌شود: فکر می‌کنم ریاضیات پشت آن را می‌دانم، اما نمی‌توانم شهود پشت آن را دریافت کنم. **به روز رسانی1** در پاسخ به پاسخ های مایکل و پیتر، اطلاعات بیشتری ارائه می کنم. این مدل عبارت است از: مرگ ~ درمان + سن + دارو + سیگار + داروها + بیماری های همراه یادداشت ها: 1. مرگ دوتایی است 2. درمان دوتایی است - چه درمان A یا درمان B داده شده باشد. این پارامتر مورد علاقه‌ای است که من فواصل اطمینان را برای آن ارائه کرده‌ام (که با نشان دادن CI برای تخمین +/- 1.96xSE به دست آوردم) 3. سن سن در سال 4 است. imd یک شاخص وضعیت اجتماعی-اقتصادی برای بیمار 5 است. استعمال دخانیات مقوله ای است و دارای سطوح مختلفی است که به وضعیت سیگار کشیدن بیماران مربوط می شود. 6. کلینیکی مجموعه ای از اقدامات بالینی است مانند ضربان قلب، فشار خون. 7. داروها مجموعه ای از متغیرهای کمکی دوتایی است که نشان می دهد آیا داروی خاصی داده شده است یا خیر. : به عنوان مثال آسم، دیابت در مدل کلی من سال را به عنوان متغیر کمکی در نظر نگرفتم - از فرمول مدل یکسان برای داده های زیر مجموعه و کل داده ها استفاده شد. هیچ مشکلی با هم خطی بودن بین متغیرهای پیوسته وجود ندارد، اما من در مورد ارتباط بین متغیرهای طبقه بندی کمتر مطمئن هستم. فکر می‌کنم این می‌تواند یک مشکل باشد اما نمی‌دانم چگونه با آن مقابله کنم - برخی از تست‌های مجذور کای را امتحان کردم اما هیچ چیز مستقل از هیچ چیز دیگری نبود (من فکر می‌کردم که ممکن است به دلیل حجم نمونه باشد - طبق گفته معلمم اینطور نیست منطقی نیست که آسم به عنوان مثال با دیابت هم خط باشد) **به روز رسانی2** پس از نظرات بیشتر توسط مایکل، اکنون اطلاعات بیشتری ارائه می کنم... نسبت درمان A/B در طول دوره بسیار تغییر کرده است - بود یک درمان جدید در سال 2006 و به ندرت استفاده می شود، اما اکنون درمان انتخابی است: 2006: 555 از 11505 2007: 2810 از 12307 2008: 5669 از 13243 2009: 912146 از 912146 از 15,573 به طور کلی: 30,643 از 92,767 میزان مرگ و میر تغییر چندانی نکرده است (حدود 7٪ در کل)
درک نتایج رگرسیون زمانی که داده ها زیر مجموعه هستند
77054
من یک دوازده وجهی معمولی (قاتل 12 طرفه) را 1200 بار می چرخانم. من باید فاصله ای پیدا کنم که در آن تعداد کل نتایج اعداد اول با احتمال 95٪ باشد. من باید از قضیه حد مرکزی (CLT) استفاده کنم. من مطمئن نیستم که چگونه از CLT استفاده کنم، اما روشی را توسعه داده ام که چگونه می تواند کار کند. از شما می خواهم آن را بررسی کنید و به من بگویید که آیا درست است یا اشتباه است و چگونه باید باشد. و همچنین سؤالاتی وجود دارد که می خواهم بپرسم. راه حل من: $n = 1200$ ... تعداد رول ها اعداد اول در دوازده وجهی 2،3،5،7،11 هستند، بنابراین احتمال $q$ از چرخش یکی از اعداد اول $\frac است {5} {12}$. برای توزیع جایگزین، میانگین برابر با $q$ و واریانس $q(1-q)$ است. بنابراین ما دریافتیم: $\mu = \frac {5}{12}$ $\sigma^2 = \frac {35}{144}$ سپس همانطور که CLT می گوید، می توانیم یک تقریبی برای توزیع این متغیر تصادفی بدست آوریم. $X$ با توزیع عادی ($X_n$). این متغیر تصادفی دارای پارامترهایی خواهد بود: $EX = n \cdot \mu = 1200 \cdot \frac {5}{12} = 500$ $DX=n \cdot \sigma^2 = 1200 \cdot \frac {35}{ 144} $ و متغیر تصادفی مورد نظر ما این است: $X_n = \frac {X-EX}{\sqrt{DX}}$ می‌دانم که برای احتمال 95% به آن نیاز دارم، بنابراین در جداول آماری آن را برای تابع چندک توزیع نرمال استاندارد شده جستجو می‌کنم و $\ را پیدا می‌کنم. Phi^{-1}(0.950) = 1.645$، که X_n$ است. $\frac {X-EX}{\sqrt{DX}} = 1.645$ و من این را برای $X-EX$ $X-EX = 1.645 \cdot \sqrt{DX} = 1.645 \cdot \sqrt{1200 \ حل کردم cdot \frac {35}{144} } = 28.09$. با احتمال 95% تعداد مقادیر با اعداد اول در 1200 رول دوازده وجهی منظم در بازه $ \left[EX-28 ... EX+28\right] $ خواهد بود. من معتقدم این نتیجه درست نیست. باید مقداری نابرابری وجود داشته باشد، درست است؟ کدام و چرا؟ یعنی... احتمال 95 درصد و بیشتر است یا 95 درصد و کمتر؟ و سوال دوم این است: چگونه فاصله بین EX و X را گرد کنیم؟ یعنی... همه پایین، یا 0.4 پایین، 0.5 بالا؟ در نابرابری چبیشف که مشخص است، به دلیل نابرابری در فرمول. اینجا من گیج شدم و همچنین می‌خواهم در مورد نقش استانداردسازی در اینجا، در صورت وجود، چیز بیشتری بدانم. از آنجایی که جداول تابع چندکی توزیع نرمال **استاندارد شده** نامیده می شوند، $X_n$ باید در واقع استاندارد شود، به هر معنی که باشد.
قضیه حد مرکزی - تخمین بازه
60123
چه زمانی از مخرج $\sigma$ بر مخرج $\sigma /\sqrt{n}$ استفاده می شود؟ چرا دو فرم جداگانه وجود دارد و چرا یکی دقیقاً شبیه نمره t است؟ آیا برخی از نویسندگان هر دو امتیاز t و z را امتیاز z می نامند؟
تنوع فرمول Z-Score
60124
یک سوال کوتاه در مورد ساخت یک «ساختگی گمشده» که در نتیجه آن را به رگرسیون لجستیک خود اضافه خواهم کرد. این گمشده، به مواردی که داده‌های مربوط به یک متغیر خاص وجود ندارد، مقدار «1» و به مواردی که داده‌ها دارند، مقدار «0» می‌دهد. من از این دستور در SPSS استفاده کرده ام، اما به نوعی مقادیر از دست رفته شناسایی نمی شوند. (نسخه 204 (-2 -1=1)(else=0) را به authomis بازنویسی کنید). جدول‌بندی متقابل v204 و authomis نشان می‌دهد که گمشده-دوممی فقط دارای یک رده '0' است، صرف نظر از این واقعیت که بیش از 400 مورد (در مجموع 40000) وجود دارد که در متغیر v204 وجود ندارد. آیا این به نحوه علامت گذاری موارد گمشده در متغیر v204 مربوط می شود؟ دلیل دیگری به ذهنم نمی رسد. امیدوارم بتوانید. پیشاپیش ممنون
ساخت ساختگی گمشده. چرا SPSS موارد گمشده را شناسایی نمی کند؟
25129
با توجه به یک _نمونه جزئی_ از مقادیر یک مجموعه (اندازه شناخته شده)، چگونه می توان پایین ترین/بالاترین مقدار را در مجموعه _کل برون یابی کرد؟_
کمترین/بالاترین مقدار را از نمونه جزئی برون یابی کنید
104470
هنگام مقایسه واریانس ها، اغلب از آزمون F استفاده می شود. $$F=\frac{s_1^2}{s_2^2}$$ سپس $F$ را با یک توزیع F مقایسه می‌کنیم. فرض این آزمون این است که دو نمونه (که واریانس آنها $s_1^2$ و $s_2^2$ هستند) به طور معمول توزیع شده اند. **می توانید توضیح دهید که چرا (با توجه به اینکه دو نمونه به طور معمول توزیع می شوند) $\frac{s_1^2}{s_2^2}$ F-توزیع شده است؟** اگر اشتباه نکنم، اگر $U_1$ و $ U_2$ مجذور کای هستند که به ترتیب با درجه آزادی $df_1$ و $df_2$ توزیع شده اند، سپس $\frac{U_1/df_1}{U_2/df_2}$ توزیع F-توزیع شده است. من واقعاً قدردان پاسخی هستم که همچنین کلماتی را بین پیوند بین توزیع کای دو و توزیع F بیان کند.
F-test و F-distribution
26360
این یک سوال مصاحبه است. در ابتدا n توپ سفید وجود دارد. هر روز مجاز به گرفتن یک توپ هستید. اگر توپ در دست سفید است، آن را با توپ قرمز جایگزین کنید. اگر رنگ آن قرمز است، آن توپ را بدون انجام کاری داخل کیسه قرار دهید. سوال این است که احتمال داشتن k توپ قرمز بعد از d روز را پیدا کنیم. راه حل کلی را که با ساختن یک درخت دودویی شروع کردم، ارائه دهید. در ابتدا در روز اول n توپ سفید داریم، زمانی که 1 توپ را انتخاب می کنیم و قانون را اعمال می کنیم. 1 توپ قرمز و (n-1) توپ سفید در روز دوم 1 توپ را انتخاب کنید، ممکن است سفید یا قرمز باشد. اگر رنگ سفید را انتخاب کنیم با 2 توپ قرمز و (n-2) توپ سفید در غیر این صورت 1 توپ قرمز و (n-1) توپ سفید باقی می ماند. این دو گره دوباره هر کدام دو فرزند برای روز سوم خواهند داشت. 1 با 3 توپ قرمز و (n-3) توپ سفید، دیگری با 2 توپ قرمز و (n-2) توپ سفید و غیره اما این یک فرمول بازگشتی مستقیم، آیا راه حل بهتری وجود دارد؟ فکر کنم با برنامه نویسی پویا حل بشه ولی نمیتونم برنامه نویسی پویا رو با احتمال وصل کنم. آیا ایده ای برای انجام این کار دارید؟ همچنین کسی می تواند به من کمک کند که چگونه احتمال در این سوال محاسبه می شود؟ در آخر، آیا کسی می تواند منبع خوبی برای مطالعه سوالات برنامه نویسی مبتنی بر احتمال به من بدهد؟
احتمال داشتن k توپ قرمز بعد از d روز را پیدا کنید
60128
من یک مجموعه (تقریباً 12000) مقادیر همبستگی دارم. تجزیه و تحلیل همبستگی ما اجازه همبستگی منفی را نمی دهد (ما با امواج سینوسی همبستگی داریم، بنابراین به جای همبستگی منفی، به سادگی با فاز مخالف همبستگی مثبت داریم). این یک توزیع از مقادیر r مثبت را تولید می کند. ما به طور سنتی این توزیع را با استفاده از (در متلب) به z-scores تبدیل می کنیم: zVal = sqrt(degreesOfFreedom)/2 * log((1+rVal) ./ (1-rVal)); جایی که «سیگما = sqrt(درجات آزادی)» و «z = 1/2 * log((1+rVal) ./ (1-rVal))» من تقریباً مطمئن هستم که این محاسبه «درست» است، اگرچه مشکوک هستم این نامناسب است زیرا مقادیر r به طور معمول توزیع نمی شوند (آزمون KS نیز ناموفق است). در مرحله بعد، با استفاده از: pVal = 1 - normcdf(abs(zVal), 0, 1) را به مقادیر p تبدیل می کنیم. # توزیع نرمال w را فرض می کند. mean = 0، sigma = 1 سوال من این است که اگر مقادیر r شما از یک توزیع نرمال گرفته نشده باشد، آیا محاسبه بالا مقادیر p نادرستی را به شما می دهد؟ من با مقاومتی از سطوح بالاتر مواجه می شوم، اما تقریباً مطمئن هستم که این اشتباه است. این چیزی است که داده‌ها به نظر می‌رسند: ![r، z، و p توزیع‌های مجموعه داده‌های نمونه](http://i.stack.imgur.com/Umafg.jpg) آیا درست می‌توانم بگویم «normcdf» مسئول تعداد زیادی از موارد بسیار مهم است؟ آیا راهی برای شناسایی مستقیم مقادیر p از یک توزیع دلخواه وجود دارد؟ با توجه به انحراف باورنکردنی در توزیع مقادیر p، اکثر روش‌های اصلاح مقایسه چندگانه آستانه‌های p نسبتاً آزاد تولید می‌کنند.
مقادیر P از توزیع غیر نرمال
25121
الگوریتم‌های تقویت‌کننده، مانند AdaBoost، چندین طبقه‌بندی ضعیف را برای تشکیل یک طبقه‌بندی قوی‌تر ترکیب می‌کنند. اگرچه در تئوری تقویت باید با هر طبقه‌بندی پایه امکان‌پذیر باشد، اما در عمل به نظر می‌رسد که طبقه‌بندی‌کننده‌های مبتنی بر درخت رایج‌ترین هستند. چرا این است؟ چه ویژگی هایی از طبقه بندی کننده های درختی آنها را برای این کار مناسب تر می کند؟ آیا طبقه‌بندی‌کننده‌های پایه دیگری وجود دارند که از تقویت نیز بهره زیادی ببرند؟ من با در نظر گرفتن مشکلات طبقه بندی می پرسم، اما همچنین علاقه مند به پاسخ هایی در مورد برنامه های رگرسیون هستم.
طبقه بندی پایه برای تقویت
25122
از پرسیدن چنین سوال کلی متنفرم، اما به طور کلی آنقدر با آمار ناآشنا هستم که نمی دانم چه چیزی را جستجو کنم و پاسخ آن را از کجا پیدا کنم. من می خواهم یاد بگیرم که چگونه خطاها را دستکاری کنم. مثلاً اگر من یک تابع $f\left(x,y,z\right)$ داشتم و می‌دانستم $\sigma_x,\sigma_y,\sigma_z$، خطای $\sigma_{f}$ چیست.
دستکاری ریاضی منابع خطا
108145
تصور کنید من یک مسابقه بین 2 نوع مورچه ترتیب دادم. نوع A و B. در پایان مسابقه، رتبه‌بندی را دارم که چیزی شبیه به این است: 1 A1 2 A3 3 B5 4 A4 5 B2 ... جایی که در A1، A نوع مورچه است و 1 شناسه مورچه مورچه ها در طول مسابقه بین یکدیگر تداخل ندارند. اگر نسبت A یا B را هر 10 درصد از رتبه بندی رسم کنم، این را نشان می دهد (داده های جعلی): ![ants](http://i.stack.imgur.com/Ufi1g.png) شاید نمودار نواری در اینجا بهتر باشد . اما باید آن را به صورت زیر بخواند: 1000 مورچه در مسابقه وجود دارد، من به طور دلخواه رتبه را به 10 تقسیم می کنم. وقتی * N = 1، یعنی 100 مورد اول است، 54 B و 46 As وجود دارد. * N = 2، 50 As و Bs وجود دارد * N = 3، 55 As و 45 Bs * N = 4، 61 As و 39 Bs * و غیره. سوال من این است: من به تازگی نتایج رتبه بندی دارم و می خواهم بدانم که آیا برخی از تعصبات در رتبه بندی به عنوان تابعی از نوع وجود دارد. به عنوان مثال برای یک مورچه، می توان پیش بینی کرد که در کجا قرار می گیرد؟ به عنوان مثال، چگونه می توانیم بگوییم که آیا مورچه های A در رسیدن به موقعیت های اول بسیار خوب هستند 10٪، و B-ant ها در رسیدن به 30-50٪ رتبه بسیار خوب هستند یا نه، اما هر دو به یک اندازه خوب هستند. در عملکرد بد (من نمی خواهم برای این آزمایش انجام دهم، اما چگونه می توانم به نتایجی از این دست برسم). من تکرارهای زیادی از این آزمایش دارم. من واقعا نمی دانم چگونه برای این مورد آزمایش کنم. من به این فکر می کردم: * تقسیم رتبه به N قسمت (چگونه N را انتخاب کنیم؟) * ~~ انجام یک تست $\chi^{2}$ برای هر قسمت، که در آن انتظار دارم 50٪ از نوع A و B تحت فرضیه صفر باشد. .~~: خیر چون قطعات وابسته هستند. * من نمی دانم. چگونه انجام می دهید، و چرا؟ توجه داشته باشید که رتبه بندی شامل مقادیر (به عنوان مثال زمان) نمی شود، بنابراین ما فقط اطلاعات رتبه بندی را داریم. در صورتی که ما ارزش زمانی را داشته باشیم، اگر متفاوت باشد، چگونه این کار را انجام می دهید؟ من قدردانی می کنم که مشکل را دوباره بیان کنید، زیرا من آمارگیر نیستم و این مانع از جستجوی من در کتاب ها می شود (چون نمی دانم کجا جستجو کنم) با تشکر
مقایسه عملکرد در طول مسابقه بین 2 گروه، از کدام آزمون استفاده کنم؟
22473
من سعی می کنم با صدای بلند این مشکل را حل کنم. من در آمار عالی نیستم اما گاهی اوقات سعی می کنم بفهمم اوضاع کجاست و به کجا می رود. من سعی می کنم بهترین روش را برای مقایسه دو مجموعه داده زیر پیدا کنم. اولی مشاهدات واقعی و دومی چیزی است که حسگر من مقدار را تعیین کرده است. اساساً یک شی در طول سنسور با ویژگی‌هایی حرکت می‌کند. هر شی می تواند از 2 تا 5 جزء داشته باشد. ما ارزش دقیق هر یک از آن اجزا را می دانیم. جدول بزرگ زیر نتایج داده‌های حاصل از اجرای آن اشیا روی حسگر را نشان می‌دهد. مشاهدات مستقل هستند، بنابراین مشاهده 5 هیچ تأثیری بر مشاهده 26 ندارد. مجموعه داده دارای 31 شی در خود است، و هر شی با استفاده از حسگر اندازه گیری شد. ما خصوصیات دقیق شی را می دانیم و آن را در قسمت واقعی قرار دادم **توجه:** مجموع = 1 + 2 + 3 + 4 + 5 تمام آنچه که من سعی می کنم بفهمم که آیا سنسور کافی بود یا خیر آیا نیاز به کالیبراسیون بیشتری دارد؟ روش قدیمی انجام کارها این بود که میانگین اختلاف کمتر از 5 درصد را به دست آوریم تا قابل قبول باشد. من با آن روش موافق نیستم زیرا معتقدم مستعد خطا است و ماهیت اندازه گیری ها را در بر نمی گیرد. بنابراین، من در حال بررسی ابزارهای تجزیه و تحلیل داده های بهتر برای مشکل هستم. **فرضیه ها:** 1. آیا سنسور به اندازه کافی کار می کند؟ 2. آیا تفاوت آماری کلی بین مقادیر واقعی و سنسور وجود دارد؟ 3. آیا بین هر جفت مشاهده شده تفاوت آماری وجود دارد؟ 4. اهمیت در کدام نقطه شکسته می شود؟ یعنی در کدام فاصله اطمینان دو مجموعه داده متفاوت می شوند؟ **تحلیل:** اولین کاری که انجام دادم مقایسه میانگین تفاوت ها برای هر ستون بود. من همچنین میانگین تفاوت های مطلق را انجام دادم و در اینجا نتایج آمده است: تفاوت بین واقعی و سنسور (%) مجموع 1 2 3 4 5 میانگین تفاوت 1.06 2.80 -4.00 7.12 -10.86 17.01 میانگین تفاوت abs 7.31 6.96 .1025 .6. این اعداد واقعاً چیز زیادی به من نگو، اما آنها تا حدودی یک مقایسه مرتبط را نشان می دهند. سپس آزمایش t دو زوجی را با استفاده از آلفا = 0.05 با نتایج زیر انجام دادم: df میانگین میانگین واقعی سنسور Var واقعی سنسور پیرسون t stat P 1 tail t Crit 1 tail P 2 tail t Crit 2 tail مجموع 30 37,858 89,829,589 89,829,589 77,766,451 0.9463 1.4871 0.0737 1.6973 0.1474 2.0423 1 30 5,411.61 5,261 254,000 407,118 0.7101876.020 0.0435 2.0423 2 30 15,246 15,719 4,762,169 3,878,279 0.7845 -1.9103 0.0328 1.6973 0.0657 2.0657 2.024237 2.024236 40,196,438 33,216,653 0.4268 2.0742 0.0239 1.7033 0.0477 2.0518 4 1 6,770.00 7,600 14,257,810,800 20 -1.5661 0.1809 6.3138 0.3618 12.7062 5 1 5,910.00 4,900 64,800 0.00 N/A 5.6108 0.0561 6.31332 0.110. برای کل ، ، 4 و 5 به طور قابل توجهی متفاوت است. آیا در تحلیل درست هستم؟ سپس برای مقایسه آن نتایج، تجزیه و تحلیل آزمون F را برای دو وسیله انجام دادم. توجه داشته باشید که من مطمئن نبودم که آیا باید آزمون F را انجام دهم یا خیر، اما این کار را برای مقایسه واریانس انجام دادم. من به این نتیجه رسیدم که طبق آزمون F، به نظر می رسد که واریانس من در همه حساب ها بالا است که نتایج از نظر آماری معنی دار هستند. F P 1 دم F Crit 1 دم مجموع 1.1551 0.3477 1.8409 1 0.6239 0.1011 0.5432 2 1.2279 0.2887 1.8409 3 1.0299 0.469 0.469 0.469 0.4427 0.0062 5 65,535 N/A 161.4476 **جدول داده** مشاهده سنسور واقعی مجموع 1 2 3 4 5 مجموع 1 2 3 4 5 1 36820 5860 14840 1620120 14800 2 42530 5160 12000 9840 9440 6090 43300 5200 13100 9200 10800 4900 3 48650 4770 18260 2501 18260 4770 18260 2501 29000 4 42290 5020 16080 21190 48800 5600 18400 24800 5 40530 5350 15670 19510 37800 4800 171406 171406 16000 20470 41500 5700 17100 18700 7 35210 5310 15150 14750 34000 5100 15600 13300 8 36150 55201
تعیین روش مناسب برای مقایسه داده های مشاهده شده با داده های اندازه گیری شده
25125
من قصد دارم همه اینها را با گفتن این که وقتی صحبت از تجزیه و تحلیل آماری بزرگ به میان می‌آید، بسیار پیاده‌رو هستم، مقدمه می‌کنم. من تقریباً 11 هزار رویداد مجزا و یک امتیاز مربوطه دارم. من همچنین تقریباً 500 ویژگی باینری دارم. هر رویداد برای یک تا شش ویژگی مثبت است. چگونه می توانم سعی کنم روابط بین متغیرها و امتیاز را بفهمم؟ از چه ابزاری (ترجیحاً منبع باز) استفاده کنم؟ یا این واقعا چیزی است که من باید کسی را برای انجام آن استخدام کنم. باید توجه داشته باشم که من با اکسل بسیار خوب هستم و تجربه برنامه نویسی خوبی دارم.
چگونه روابط بین 500 ویژگی باینری و امتیاز پیوسته مربوطه را ارزیابی کنم؟
51070
فرض کنید من یک بردار از مقادیر q دارم، که با کنترل نرخ کشف نادرست، امکان انجام آزمایش چند فرضیه را فراهم می کند. معمولاً این مقادیر q از توزیع مقادیر p تولید می شوند. با این حال، اگر توزیع p-value اصلی را نداشته باشم، فقط بردار مقادیر q را نداشته باشم، چه؟ آیا راهی برای تبدیل از مقادیر q به مقادیر p وجود دارد؟
چگونه می توانم توزیع q-value را به توزیع p-value تبدیل کنم؟
60127
مدل آماری برای طرح _کامل تصادفی_ $y_{ij} = \mu + \tau_i + \epsilon_{ij}$ که در آن $i$ نشان دهنده درمان و $j$ نشان دهنده مشاهده است. $i=1,2,...,k\quad و \quad j=1,2,..., n_i$ $y_{ij}$ یک متغیر تصادفی باشد که نشان‌دهنده پاسخ به‌دست‌آمده در مشاهده $jth$ است. از درمان $ith $. $\mu$ میانگین کلی پاسخ $y_{ij}$ $\tau_i$ تأثیر بر پاسخ درمان $ith$ است. $\mu_i = \mu + \tau_i$ در اینجا $\mu_i$ نشان دهنده پاسخ _واقعی_ درمان $ith$ است. و $\epsilon_{ij}$ عبارت خطای تصادفی است که نشان‌دهنده منابع تغییرات مزاحم است، یعنی تغییرات ناشی از عواملی غیر از درمان‌ها. فرض $\epsilon_{ij}\sim^{iid} N(0,\sigma^2)$ است چرا باید $\epsilon_{ij}\sim^{iid} N(0,\sigma^ را فرض کنیم؟ 2) دلار؟ یعنی _ اهمیت این فرض چیست؟ اگر آن را فرض نکنیم، چه تأثیری خواهد داشت؟
اهمیت فرض نرمال بودن در مدل های آماری خطی
114686
سلام، می‌خواستم بفهمم که چگونه می‌توانم خطای زیر را بفهمم، فرض کنید $y=x+e$ که e یک خطای i.i.d است. بگویید $x \sim N(\mu,\sigma_1^2)$ و $e \sim N (0, \sigma_e^2)$ که به معنای $y \sim N (\mu, \sigma_1^2+\sigma_e^ 2) دلار. من باید مقدار مورد انتظار y را با شرط $y>\mu$ پیدا کنم. من می دانم که فرمول y در pdf معمولی ضرب می شود، اما خروجی واقعی چقدر است. همانطور که در اینجا، من می توانم انتگرال را تنظیم کنم، اما نمی توانم آن را محاسبه کنم. من می دانم که پاسخ این خواهد بود ($\mu$+something) فقط نمی دانم آن چیزی چیست. با تشکر
انتظارات مشروط
113425
من از LMM در lmer استفاده می کنم. برای یافتن بهینه ترین مدل، مدل های سه سطحی را با دو سطح با استفاده از تابع ANOVA مقایسه می کنم. اگر معلوم شد که بین این دو تفاوت معنی داری وجود ندارد، من مدل دو سطحی را با مدل یک سطح مقایسه می کنم. فرمول های من به این صورت است: lmer1 <- lmer(peak_Mid ~ (1| مورد) + (1+صدا|سخنگو) + جنسیت*صدا*زبان، data=data.frame، REML=FALSE، na.action=na.omit ) lmer2 <- lmer(peak_Mid ~ (1|مورد) + (1+واکه|گوینده) + جنس + صدادار + زبان + زبان: مصوت + زبان: جنس + مصوت: جنسیت، داده=داده.فریم، REML=FALSE، na.action=na.omit) anova(lmer1,lmer2) lmer3 <- lmer(peak_Mid ~ (1| مورد) + (1+صدا|گوینده) + جنس + مصوت + زبان، داده=داده.فریم، REML=FALSE، na.action=na.omit) anova(lmer2,lmer3) سپس فرض کنید که بهترین مدل مدل دو سطحی است که به این معنی است که تعاملات معنی دار هستند. من مقایسه زوجی را با استفاده از: lsmeans(lmer2, pairwise ~ language*vowel, adjust=tukey) lsmeans(lmer2, pairwise ~ language*gender, adjust=tukey) انجام خواهم داد اما در واقع می خواهم بدانم که آیا هر جفت از گروه‌های زبانی در زمینه‌های مشابه با یکدیگر متفاوت هستند، مانند هندی و چینی با حروف صدادار بالا که توسط سخنرانان زن صحبت می‌شود. نتایج حاصل از lsmeans (lmer2، دو به دو ~ زبان*صدا، تنظیم = tukey) فقط زبان x واکه را مقایسه می کند، در حالی که نتایج lsmeans (lmer2، جفت ~ زبان*جنس، تنظیم = tukey) به من می دهد. من فقط مقایسه زبان x جنسیت. سوال من این است که آیا می توانم این دو مقایسه را در یافته ها ترکیب کنم؟
آیا می توانم دو مقایسه زوجی را ترکیب کنم؟
18770
بی زحمت مرا به جایی راهنمایی کنید که می توان پاسخ آن را پیدا کرد، اما من مدتی است که سرم را به این موضوع کوبیده ام و به شما مردم خوب متوسل شده ام: سناریو: من یکسری داده های دو بعدی غیر انحصاری دارم (داده های مکان) برای چندین هزار مشاهدات منحصر به فرد از موضوعات مستقل: موضوع 1، رده A، نوعB، توزیع_دوبعدی موضوع2، رده B، نوعB، توزیع_دوبعدی Subject3، CategoryA، TypeA، توزیع_دوبعدی و غیره... توزیع دو بعدی کاملاً ساده است که فقط شامل سه مختصات x و y ممکن با حضور(1)/غیبت(0) برای هر کدام است. به عنوان مثال: C----0-----1-----1 B----1-----1-----0 A----1----- 0-----0 -----X-----Y-----Z اگر همه obs ها را ترکیب کنم، نتیجه چیزی شبیه به C---15%----62%-- است. -25٪ B---10%---35%---12% الف----9%---11%----7% -----X-----Y---- -Z چگونه می توانم ANOVA/MANOVA را انجام دهم تا به تأثیر «دسته» و «نوع» بر توزیع ها نگاه کنم و مشخص کنم که آیا تفاوت قابل توجهی در توزیع بین گروه ها وجود دارد یا خیر. بیت مشکل: * توزیع فرکانس برابر با 100٪ نیست (زیرا هر مشاهده می تواند در بیش از یک مکان حضور داشته باشد.) در نهایت من می خواهم این را از طریق R اجرا کنم - بنابراین اگر ایده ای در آن جهت دارید. اگر این سوال کاملاً عابر پیاده است، عذرخواهی می کنیم. با تشکر از کمک شما.
ANOVA با متغیر(های) وابسته به عنوان توزیع دو بعدی؟ آیا ممکن است؟
100433
همانطور که در زیر نشان داده شده است، سعی می کنم TMin1array را از Tarray کم کنم. آیا کسی می داند چرا آرایه به دست آمده همه 0 ها را برمی گرداند؟ Tarray و Tmin1array از نوع double هستند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/AJkCF.png)
R: سری زمانی: تفاوت آرایه ها به جای تفاوت واقعی 0 را برمی گرداند
56227
سعی می کنم ماتریس کوواریانس خود را درک و تجسم کنم. فرض کنید ماتریس A = [ 2 3 4; 5 5 6 ]`، چگونه ماتریس کوواریانس آن را محاسبه کنم و معنای عملی آن چیست؟ (تمام چیزی که تا الان توانستم بفهمم این است که در مورب ماتریس کوواریانس، واریانس‌هایی برای متغیرهای خاص قرار می‌گیرد و در قسمت‌های بالا و پایین همبستگی بین آن متغیرها قرار می‌گیرد.)
توضیح ماتریس کوواریانس
76333
اجازه دهید $(\Omega,\mathcal B,P)$ یک فضای احتمال باشد. من دو سوال (مرتبط) دارم. با فرض اینکه $g:\mathbb{R}\to\mathbb{R}$ قابل اندازه‌گیری بورل است، و درک اینکه $$E(g(X)) = \int_{\Omega}g(X(\omega))dP (\omega)،$$ چگونه ثابت کنم که این برابری ها برای دو شرایط زیر برقرار است؟ اول، $X$ گسسته است، با محدوده $\{x_{i}:i\in \mathbb N\}$. سپس $$E(g(X))=\sum_{i=0}^{\infty}g(x_{i})P(X=x_{i}),\ \ \text{ ارائه شد } \sum_{ i=0}^{\infty}|g(x_{i})|P(X=x_{i})<\infty.$$ دوم، $X $ کاملاً پیوسته با چگالی $f.$ است سپس $$E(g(X))=\int g(x)f(x)dx\ \ \text{ ارائه شده }\int |g(x)|f(x)dx<\infty.$$
من می خواهم ثابت کنم که این تعاریف ارزش مورد انتظار برقرار است
104476
من در چند هفته گذشته در مورد نظریه پاسخ آیتم مطالعه کرده ام و می خواهم از آن برای بررسی نحوه عملکرد ترازو خود استفاده کنم. دسته های پاسخ به ترتیب هستند. اگر به خوبی متوجه شده باشم، مدل پاسخ درجه بندی شده به ویژه جذاب است زیرا نسبت به سایر گزینه ها مانند مدل اعتبار جزئی یا مدل مقیاس رتبه بندی انعطاف پذیرتر است و پارامترهای سختی متفاوت در هر دسته در هر مورد و پارامترهای تبعیض متفاوت را ارائه می دهد. برای هر مورد علاوه بر این، من مطمئن هستم که دسته‌های پاسخ مرتب شده‌اند (درجات مختلفی از توافق را با یک عبارت بیان می‌کنند) بنابراین لاجیت تجمعی به جای مدل‌های دسته مجاور کافی به نظر می‌رسند. (هر چند ممکن است در بخش های مختلف این استدلال اشتباه کنم!). 1) آیا راهی برای جا دادن مدل های پاسخ درجه بندی شده در Stata 13 وجود دارد، شاید با استفاده از دستور gsem یا gsem builder؟ اگر چنین است، آیا کسی می‌تواند درباره نحوه انجام آن و نحوه پردازش خروجی‌ها برای ترسیم منحنی‌های پاسخ دسته، توابع اطلاعات آیتم و عملکرد خطای استاندارد اندازه‌گیری برای مقیاس توضیح دهد؟ 2) اگر با gsem نمیشه با glamm هم میشه کرد؟ در این مقاله نحوه تطبیق PCM و RSM اما نه مدل‌های پاسخ درجه‌بندی شده توضیح داده شده است. این پست نشان می‌دهد که می‌توان این کار را با گزینه thresh() انجام داد، تا فرض/محدودیت شانس متناسب را کاهش دهد، اما من هیچ سرنخی در مورد آنچه که باید در گزینه thresh() قرار دهم، ندارم. به نظر می رسد باید معادلاتی را برای آستانه ها تعریف کنم، و باز هم در اینجا بی اطلاع هستم. 3) سوال آخر من یک سوال مفهومی است: اگر به خوبی متوجه شده باشم، مدل پاسخ درجه بندی شده یک پارامتر تبعیض برای هر مورد و پارامترهای سختی C-1 برای دسته های پاسخ C ارائه می دهد. آیا مدلی وجود دارد که پارامترهای «تبعیض» متفاوتی را برای هر دسته پاسخ نیز ارائه دهد؟ آیا این یک مدل اسمی خواهد بود؟ چرا منطقی است که پارامترهای تبعیض را برای دسته های مختلف پاسخ یک آیتم یکسان کنیم؟ (شاید این واقعا یک محدودیت نیست؟)
آیا می توان یک مدل پاسخ درجه بندی شده را در Stata جا داد؟
110306
فرض کنید که ما 2 مجموعه داده داریم $X = x_1، \dots، x_n$ و $Y = y_1، \dots، y_m$ و یک آزمون $T$ که فرضیه صفر را آزمایش می کند که این داده ها از توزیع **با همان میانه **. $T$ می تواند به عنوان مثال آزمون Mann-Whitney U یا آزمون رتبه امضا شده Wilcoxon باشد (اگر داده های جفت شده داشته باشیم). از نظر برنامه نویسی $T$ تابعی است که دو نمونه می گیرد و **یک p-value را برمی گرداند** $$ p := T(X,Y) $$ حال فرض کنید می خواهیم $X$ و $ را با هم مقایسه کنیم. Y$ **از نظر کمی**. مثلاً می‌خواهیم بگوییم: > در سطح معنی‌داری 5%، میانه X$ حداقل 5 برابر بزرگ‌تر از $Y$ است، اما نه بیش از 7 برابر بزرگ‌تر. برای انجام این کار می توانیم فرضیه هایی را برای مضرب های مختلف $Y$ آزمایش کنیم: $$ p(c) := T(X, cY) $$ سپس مقادیر p را رسم می کنیم و چیزی شبیه به این می گیریم: ![توضیح تصویر را اینجا وارد کنید ](http://i.stack.imgur.com/vMMqj.png) برای مقادیر بسیار بزرگ و بسیار کوچک $c$، p-value به سطحی کاهش می‌یابد که با اندازه نمونه تعیین می‌شود، در حالی که جایی در وسط خواهد بود. یک حداکثر جهانی متصل داشته باشید. اگر سطح معناداری خاصی را انتخاب کنیم، آنگاه مجموعه $I_s$ تعریف شده توسط $$ I_s := \{c\in \mathbb{R} \text{ به گونه‌ای است که } p(c) > s \} $$ فاصله $[a; b]$ و می توانیم بگوییم: > در سطح معنی داری 5%، میانه $X$ حداقل $a$ برابر بیشتر است > از $Y$ اما نه بیش از $b$ برابر بزرگتر. اما ما فقط چه کردیم؟ آیا فاصله اطمینان را برای میانه $\frac{\textbf{x}}{\textbf{y}}$ پیدا کردیم که در آن $\textbf{x, y}$ متغیرهای تصادفی زیرین هستند؟ یا این روش شناسی ناقص است؟ آیا چنین روشی در جایی در ادبیات وجود دارد؟ آیا راه بهتری وجود دارد؟
آیا این روش برای یافتن فاصله اطمینان صحیح است؟
82526
من یک نمونه تصادفی $(X_1, X_2,...,X_n)$ دارم و یک تخمینگر $\bar{X_n}=\sum_{i=1}^{n} X_i$ برای محاسبه اطلاعات فیشر نیاز دارم از $\bar{X_n}$. اطلاعات فیشر به صورت $-E\left(\frac{d^2}{d\theta^2}logL\right)$ تعریف می‌شود، که در آن $L$ تابع احتمال است. سوال من این است: برای محاسبه اطلاعات فیشر **برآورنده** (نه نمونه تصادفی، بلکه تابعی از نمونه تصادفی)، آیا باید تابع درستنمایی نمونه تصادفی را بگیریم یا تابع درستنمایی توزیع را؟
اطلاعات فیشر از یک آمار
114684
سوال کاملاً کلی است، اما من در حال انجام تحقیقی در رابطه با یادگیری ماشینی تحت نظارت هستم تا دو مجموعه از شخصیت ها را به دو دسته طبقه بندی کنم. در واقع، من می خواهم برخی از معیارهای شباهت بین مجموعه قطار و مجموعه آزمایشی را بر اساس رویکرد N-gram محاسبه کنم. من سعی می کنم منبعی پیدا کنم که برخی از روش های رایج در همان حوزه را در نحوه کشف بهترین مقدار N هنگام استفاده از الگوریتم های N-gram توضیح دهد. می دانم که این یک سوال بسیار کلی است، با این حال، مهمترین چیزی که من به دنبال آن هستم این است که چگونه به طور خودکار بهترین N را بر اساس محاسبات N-1 کشف کنیم تا تصمیم بگیریم که آیا N را افزایش دهیم و دوباره حلقه کنیم یا متوقف کنیم. آیا روش های شناخته شده یا رویکرد رایجی برای انجام این کار به جز استفاده از مجموعه داده توسعه (آزمایش و رفع مقدار N) وجود دارد؟ با احترام
انتخاب بهترین مقدار برای N هنگام استفاده از رویکرد N-Gram
113428
من سعی می کنم برخی از نتایج را در اینجا تفسیر کنم، و فقط می خواهم مطمئن شوم که منطق من درست است. من یک نتیجه باینری را با یک پیش‌بینی‌کننده طبقه‌بندی پیش‌بینی می‌کنم (سطح ژن کد شده به صورت 0، 1 یا 2 بستگی به تعداد آلل‌های خطر موجود دارد). فرضیه من این است که تأثیر ژن بر نتیجه به دلیل تأثیر آن بر متغیر دیگری (مستمر) است، مثلاً سطح گلوکز خون، که به نوبه خود بر CAD تأثیر می گذارد. وقتی من پاسخ را به عنوان تابعی از ژن مدل می‌کنم، همه چیز خوب است و خیلی خوب پیش‌بینی می‌کند (این یک مکان ثابت است). glm(cad ~ gene, Mastersheet, family = binomial) %>% summary() Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 0.002729 0.041267 0.066 0.947 ژن 0.354027 0.032885 10.766 <2e-16 *** وقتی متغیر کمکی خود را در مدل لحاظ کنم، همه چیز خوب است. متغیر کمکی نیز یک پیش‌بینی‌کننده ثابت برای cad است. glm(cad ~ gene+glucose, Mastersheet, family = binomial) %>% summary() Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 2.66501 0.10820 24.630 <2e-16 *** ژن 0.33467 0.03813 8.778 <2e-16 *** glucose -2.17507 -2.17507 0.07 <2.17507 -2.17507 0.07 <6 هنگامی که یک اصطلاح تعاملی گنجانده شود، ژن دیگر مهم نیست، اگرچه مدل همچنان وجود دارد. glm (فرمول = cad ~ ژن * گلوکز، خانواده = دوجمله ای، داده = Mastersheet) Estimate Std. خطای z مقدار Pr(>|z|) (برق) 3.2845 0.1920 17.109 < 2e-16 *** gene -0.2306 0.1449 -1.591 0.112 گلوکز -2.6674 0.1401 - 0.1401 -18. 0.4471 0.1108 4.035 5.47e-05 *** من به دنبال کمکی برای تفسیر معنادار این هستم. آیا این بدان معناست که از آنجایی که ژن با فاکتورگیری برهمکنش ناچیز می شود، تأثیر ژن بر CAD به طور کامل توسط تعامل آن با گلوکز انجام می شود؟ من هیچ سوال دیگری مثل این پیدا نکردم، ببخشید اگر تکراری است. از هر کمکی قدردانی می شود! ممنون از وقتی که گذاشتید
متغیر کمکی پس از گنجاندن عبارت تعامل دیگر معنی دار نیست
104472
من یک سیستم امتیازدهی برای صفحات وب بر اساس سطح خوانایی آنها با استفاده از LIX ایجاد می کنم. منتخبی از صفحات از یک وب سایت خزیده شده و امتیاز داده می شود. علاوه بر میانگین و میانه، چه جایگزین هایی برای منعکس کردن امتیاز کل وب سایت با استفاده از نتایج هر صفحه دارم؟
عملکرد امتیازدهی صفحه وب بر اساس خوانایی (LIX)
60129
فرض کنید ما یک آماره آزمایشی داریم که برای آزمایش عدد صفر در مورد دو گروه از نمونه ها طراحی شده است. اگر آزمون جایگشت را برای گروه‌های نمونه و آماره آزمون اعمال کنیم، آیا فرضیه صفر تغییر می‌کند؟ آنچه قبلاً در مورد آن شنیده بودم این بود که آزمایش جایگشت این است که آزمایش کند آیا دو گروه نمونه از یک توزیع می آیند یا نه، شاید به معنای متفاوت یکسان. پس یعنی بعد از اعمال تست جایگشت، تهی اصلی عوض میشه؟ به عنوان مثال، زمانی را در نظر بگیرید که آمار آزمون برای آزمایش یکسان بودن مکان دو گروه از نمونه ها است. * در صورتی که میانگین دو گروه نمونه با توزیع نرمال دارای میانگین یکسانی باشند، آمار آزمون t آزمایش می کند. آیا اعمال جایگشت، تهی آن را مثلاً از میانگین مساوی به توزیع برابر تغییر می دهد؟ * اگر دو گروه از نمونه‌ها دارای میانگین رتبه‌های دو گروه یکسان باشند، آزمون آزمون مجموع رتبه‌ای ویلکاکسون. آیا اعمال جایگشت، تهی آن را، به عنوان مثال، از رتبه میانگین مساوی به توزیع برابر تغییر می دهد؟ تست جایگشت چه چیزی را به آزمون مکان می آورد؟ با تشکر و احترام!
آیا آزمون پرموتاتون فرضیه صفر آزمون اصلی را تغییر می دهد؟
82527
من تعدادی ماتریس فاصله دارم که می خواهم اعضای آنها را با توزیع احتمال مرتبط کنم. آیا روشی وجود دارد که بتواند هر ماتریس فاصله را با یک توزیع مرتبط کند؟ ویرایش: فرض کنید من یک ماتریس فاصله دارم مانند: A1 A2 A3 A4 ... A1 X 1 3 2 A2 1 X 4 3 A3 3 4 X 3 A4 2 3 3 X . . . حالا می‌خواهم ببینم اگر اعضای این ماتریس از توزیع احتمال باشند، پارامترهای توزیع چیست. من فقط ماتریس را دارم و نمی دانم توزیع داده ها چگونه است.
شناسایی توزیع از یک ماتریس فاصله
107720
من روی یک مسئله رگرسیون لجستیک چند جمله ای کار می کنم که شامل ویژگی هایی از متغیر وابسته است. شاید بهتر باشد که مشکل را با استفاده از مثال در راهنمای _mlogit_ mlogit توصیف کنید. در اینجا اطلاعات آموزشی آمده است، ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hbdtA.png) هدف این است که حالت ماهیگیری را بر اساس سه ویژگی پیش بینی کنید، 1) قیمت، 2) صید - که هر دو به حالت های ماهیگیری انتخاب شده بستگی دارد و 3) درآمد - که خاص فرد است. من می دانم که glmnet رگرسیون لجستیک چندجمله ای انجام می دهد، اما به نظر من مستقیماً برای مشکل من اعمال نمی شود. من همچنین متوجه شدم که mlogit می تواند ویژگی های خاص متغیر وابسته را کنترل کند اما برای ویژگی های پراکنده کار نمی کند. آیا کسی بسته ای را می شناسد که بتوان از آن برای مشکل من استفاده کرد؟ با تشکر
رگرسیون لجستیک چند جمله ای با متغیرهای خاص جایگزین
82529
من بین دو معیار عملکرد برای مدل‌های طبقه‌بندی تعجب می‌کنم: دقت و مساحت زیر منحنی ROC (AUC)، کدام یک در چه شرایطی ترجیح داده می‌شود؟ نمونه ها قابل تقدیر است
کدام معیارهای عملکرد برای طبقه بندی مدل
53345
ظاهراً، یک الگوریتم یادگیری هنگام تولید یک فرضیه باید بین سوگیری و واریانس معاوضه ایجاد کند. تعصب به معنای انحراف سیستماتیک از داده ها است. واریانس به خطای ناشی از نوسانات هنگام اعمال فرضیه در مجموعه های آموزشی مختلف اشاره دارد. چرا باید اینجا معامله ای صورت گیرد؟
چرا باید بین تعصب و واریانس معاوضه کرد؟
65578
برای ارزیابی شباهت دنباله ها از چه روش هایی می توان استفاده کرد؟ بیایید بگوییم که ما سه دنباله داریم. من می خواهم بتوانم بگویم که از نظر آماری دنباله شماره 1 و دنباله شماره 3 شبیه هم هستند، اما دنباله شماره 2 از نظر آماری متمایز است. مانند p-value برای تست های آماری.
شباهت آماری در توالی ها
82835
من با 4 مجموعه داده دنباله ای کار می کنم که می خواهم مقایسه کنم. مجموعه داده ها از حدود 150 تا 2000 دنباله متغیر است. من می‌توانم از TraMineR روی مجموعه‌های داده تا 1000 دنباله استفاده کنم، اما وقتی سعی می‌کنم مجموعه داده را با 2000 دنباله اجرا کنم، حتی ابررایانه دانشگاه ما نمی‌تواند در کمتر از 36 ساعت کار را تمام کند. از این رو، من نمونه برداری با متغیر id را در نظر دارم. مجموعه داده من به این صورت است: زمان رویداد id 1 ویرایش 1 1 ویرایش 2 2 نظر 3 3 نظر 4 4 بستن 5 اکنون، می خواهم نمونه تصادفی مثلاً 2 را با اعداد شناسه بگیرم. فرض کنید نمونه تصادفی id 1 و 4 را به دست می آورد، سپس نمونه من به این صورت خواهد بود: id event time 1 edit 1 1 edit 2 4 close 5 به عبارت دیگر، من از 2 عدد شناسه نمونه برداری می کنم، اما در واقع 3 می کنم. موارد اکنون به سؤال من می پردازیم: من فقط باید این نمونه برداری را برای 1 مورد از 4 مجموعه داده خود انجام دهم و این کار را به دلایل محاسباتی انجام می دهم. ملاحظاتی که باید در طراحی نمونه‌گیری لحاظ شود چیست؟ به عنوان مثال: * آیا باید یک نمونه به همان اندازه بزرگ از هر مجموعه داده (% یا N؟) بکشم، حتی اگر در محاسبه مجموعه داده های کوچکتر مشکلی نداشته باشم؟ * حجم نمونه چقدر باید باشد تا بتوانم ادعای تعمیم پذیری داشته باشم؟ * آیا اشکالی ندارد که به سادگی از بزرگترین مجموعه داده نمونه‌برداری از هر تعداد موردی که می‌توانم انجام دهم، سپس سایر مجموعه‌های داده را بدون نمونه‌گیری اجرا کنیم (زیرا آن‌ها به اندازه کافی کوچک هستند که بتوان آن‌ها را محاسبه کرد)، و سپس مقایسه‌ای را در بین هر 3 مجموعه داده انجام داد؟
نمونه برداری از داده های توالی
82523
آیا برگرداندن امتیازهای z به یک مجموعه میانگین و انحراف منجر به مقایسه منصفانه می شود؟ یعنی اگر من 2 گروه داشتم: * گروه 1 میانگین = 76، stdev = 8 * میانگین گروه 2 = 81، stdev = 11. سپس برای مقایسه گروه 1 و 2، نمرات گروه ها را با استفاده از امتیازهای z در برابر میانگین مجموعه برمی گردم. = 70 و stdev = 12.5. آیا این مقادیر نسبتاً قابل مقایسه خواهند بود؟ آیا این روشی منصفانه برای ایجاد یک امتیاز رتبه بندی استاندارد از 100 برای هر فرد است؟
Z-scores - مقادیر را به رتبه برمی گرداند
93918
یک سوال در مورد برابری $$F_{r_{1},r_{2},\alpha}=\frac{1}{F_{r_{2},r_{1},1-\alpha}}$$ ما می دانیم اگر $X\sim\chi^{2}\left(r_{1}\right) ,~Y\sim\chi^{2}\left(r_{2}\right) $ و $X,~Y$ پس مستقل $$\frac{X/r_{1}}{Y/r_{2}}=F\implies\frac{Y/r_{2}}{X/r_{1}}=\frac{1}{F }$$ توزیع شده است. اما چگونه می توانیم به جای $\alpha$، $1-\alpha$ دریافت کنیم. آیا باید این نتیجه را با استفاده از تابع چگالی احتمال و تبدیل ها به دست بیاورم یا توضیح معقول دیگری وجود دارد؟
سطح معنی داری برابری توزیع 1/F
52034
من می خواهم با استفاده از فرآیند زیر یک جنگل تصادفی ایجاد کنم: * ساختن یک درخت بر روی نمونه های تصادفی داده ها و ویژگی ها با استفاده از بدست آوردن اطلاعات برای تعیین تقسیمات * اگر یک گره برگ از عمق از پیش تعریف شده فراتر رفت، خاتمه دهید یا هر گونه تقسیمی منجر شود. در تعداد برگ کمتر از حداقل از پیش تعریف شده * به جای اختصاص یک برچسب کلاس برای هر درخت، نسبت کلاس ها را در گره برگ اختصاص دهید * ساخت و ساز را متوقف کنید درختان پس از ساخته شدن یک عدد از پیش تعریف شده، فرآیند جنگل تصادفی سنتی را به دو روش کاهش می دهد. یکی، از درختان هرس شده استفاده می‌کند که نسبت‌ها را به جای برچسب‌های کلاس اختصاص می‌دهند. و دوم، معیار توقف، تعداد درختان از پیش تعیین شده است، نه برآورد خطای خارج از کیسه. **سوال من این است:** > برای فرآیند بالا که N درخت را خروجی می‌دهد، آیا می‌توانم مدلی را با استفاده از رگرسیون > _logistic_ با انتخاب LASSO قرار دهم؟ آیا کسی تجربه > نصب طبقه بندی کننده جنگل تصادفی و پس پردازش با LASSO لجستیک را دارد؟ چارچوب ISLE استفاده از LASSO را به عنوان یک مرحله پس از پردازش برای مشکلات رگرسیون ذکر می کند، اما نه مشکلات طبقه بندی. علاوه بر این، هنگام جستجوی کندند تصادفی جنگل هیچ نتیجه مفیدی دریافت نمی کنم.
استفاده از LASSO در جنگل تصادفی
82832
من در حال ساخت یک پیش‌بینی‌کننده ریزش هستم که یک سری زمانی را به عنوان ورودی می‌گیرد و یک پیش‌بینی باینری را برمی‌گرداند که نشان می‌دهد آیا آن حساب در دو هفته آینده خراب می‌شود یا خیر. من یک مجموعه آموزشی ساختم که شامل دو نوع نمونه سری زمانی بود - سری زمانی حساب‌های لغو شده 2 هفته قبل از لغو (یعنی نمونه‌هایی از رفتار ناسالم)، و سری‌های زمانی حساب‌های فعال فعلی در یک نقطه زمانی تصادفی (یعنی. نمونه هایی از رفتار سالم). سری های زمانی در مجموعه آموزشی 3 هفته است (21 نقطه داده). سپس ویژگی‌هایی را از این سری‌های زمانی در مجموعه آموزشی استخراج می‌کنم و یک مدل طبقه‌بندی را آموزش می‌دهم. سپس، به‌صورت دوره‌ای، طبقه‌بندی‌کننده را روی یک مجموعه آزمایشی اجرا می‌کردم که شامل داده‌های 3 هفته آخر برای هر حساب فعال فعلی است. نتیجه پیش‌بینی حساب‌هایی خواهد بود که گمان می‌کنم در آینده ایجاد شوند. این یک نمای کلی بسیار گسترده است، اما من نمی‌دانستم که آیا کسی می‌تواند خطاها یا بهبودهای احتمالی را در رابطه با این طرح ببیند.
بررسی Churn Predictor من
93913
سوال من مربوط به بخش 2 است که رگرسیون لجستیک چند کلاسه نام دارد، مخصوصا قوانین به روز رسانی. (کل بخش فقط چند پاراگراف است.) همه چیز منطقی به نظر می رسد، اما من نمی دانم که چگونه قرار است الگوریتم شیب صعود را پیاده سازی کند. * $y_i^k$ چیست؟ ابعاد آن چقدر است؟ * ابعاد وزنه ها چقدر است؟ * $x_i$ چیست؟ فرض کنید ماتریسی دارید که در آن هر سطر یک مشاهده و هر ستون یک ویژگی است. $x_i$ چه خواهد بود؟ ردیف است؟ * آیا $p(k|x_i)$ همان چیزی است که $p(y = k|x)$ برای یک مشاهده خاص؟ نکته جانبی: من در حال تلاش برای پیاده سازی یک رگرسیون لجستیک چند کلاسه ساده در متلب هستم.
الگوریتم به روز رسانی رگرسیون لجستیک چند کلاسه
49047
یکی از رایج‌ترین روش‌های آماری که مورد سوء استفاده قرار می‌گیرد، مقیاس‌بندی است. بیشتر اوقات، ما داده ها را با آگاهی از اینکه در وهله اول از داده های آموزشی پردازش نمی کنیم، عادی می کنیم. من اخیراً LIBSVM را یک ابزار خوب برای انجام ماشین آلات SV پیدا کردم. با این حال، من چندان مطمئن نیستم که آیا با داده های مقیاس بندی در مدل موافق هستم یا خیر. در راهنمای عملی ضمیمه B، نویسنده یک اشتباه رایج در مقیاس بندی داده های آموزشی و آزمایشی را بیان می کند که بر اهمیت استفاده از عوامل مقیاس بندی یکسان برای مجموعه های آموزشی و آزمایشی تاکید می کند؟ آیا همه اینجا با این جمله موافق هستند؟
سوالات مقیاس بندی LIBSVM
61834
من یک نظرسنجی رضایت شغلی انجام داده ام که در آن DV یک مقیاس لیکرت 7 درجه ای و 5 IV با مقیاس لیکرت 6 درجه ای و 6 IV با مقیاس نوع لیکرت 5 درجه است، همه ترتیبی. کدام نوع تحلیل برای این نوع مطالعه مناسب است؟ بین رگرسیون ترتیبی و چندجمله ای کدام یک برای تحلیل IV هایی که DV را پیش بینی می کنند مناسب است؟
کدام مدل رگرسیون ترتیبی یا چندجمله ای قابل اجرا است؟
2455
هرم سنی به این شکل است: ![متن جایگزین](http://i.stack.imgur.com/GtBSK.png) من می خواهم چیزی مشابه بسازم، یعنی یک 2 بار پلات (نه هیستوگرام) با دسته های مشابه، که به صورت عمودی می چرخند. و مانند هرم به دو طرف گسترش می یابد. آیا این یک راه ساده برای انجام این کار در R است؟ همچنین خوب است که رنگ هر نوار را کنترل کنید.
چگونه هرم سنی را در R درست کنیم؟
52037
آیا ماژولی برای پایتون وجود دارد که توزیع ثابت یک زنجیره مارکوف را با توجه به ماتریس مولد محاسبه کند؟ با تشکر برای هر گونه کمک!
ماژول پایتون برای محاسبه توزیع ثابت زنجیره مارکوف
63472
من با آمار تازه کار هستم، بنابراین در تفسیر برخی نتایج با مشکل مواجه هستم. فرض کنید من علاقه مند به ایجاد یک پروفایل سرعت باد روزانه برای قطب شمال در یک دوره 30 روزه بودم. من 5 ایستگاه هواشناسی مختلف برای اندازه گیری سرعت باد x و y تنظیم کرده ام. سرعت باد x و y مستقل هستند و هر دو معمولاً با میانگین صفر و واریانس مساوی توزیع می شوند. این یک توزیع رایلی برای بزرگی بردار کلی باد ایجاد می کند. اگر من 4 نقطه داده در دقیقه، در طول 30 روز، از دقیقه 0 تا 1 جمع آوری کنم، برای یک ایستگاه 120 نقطه داده خواهم داشت. اگر بخواهم همه اینها را با هم میانگین کنم، برای هر ایستگاه یک نقطه داده با مقداری واریانس در هر دقیقه به دست می‌آورم. بنابراین از دقیقه 0 تا 1 من اکنون 5 نقطه داده دارم که هر کدام میانگین 120 نقطه داده است. اکنون من تجزیه و تحلیل رگرسیون را روی 5 مجموعه منحنی که از میانگین ایجاد کرده‌ام انجام می‌دهم، زیرا انتظار دارم هر نیمرخ باد مشابه باشد. چگونه می توانم واریانس را در هر نقطه داده متوسط ​​وارد کنم؟ آیا این واقعیت که نقاط از توزیع رایلی به جای توزیع نرمال می آیند، تأثیری بر تحلیل رگرسیون دارد؟ درک من این است که تا زمانی که باقیمانده ها به طور معمول توزیع شوند، تمام معیارهای فاصله اطمینان معتبر هستند. این یک مدل رگرسیون غیرخطی خواهد بود، آیا آمار دوربین واتسون هنوز معتبر است؟ من همچنین می بینم که مواردی مانند آزمون های F و آزمون های T برای رگرسیون خطی اعمال می شود، آیا می تواند برای رگرسیون غیر خطی اعمال شود؟
تفسیر نتایج رگرسیون: نقاط داده ترکیبی
53340
افزایش یا کاهش تعداد حالات در فرآیند زنجیره مارکوف چه تأثیری دارد؟
تأثیر تعداد حالت ها در فرآیند زنجیره مارکوف
65576
با توجه به مجموعه ای از متغیرهای تصادفی $\{X_1، X_2، \dots، X_M \}$ و مجموعه داده (کامل) $D$، من از برخی الگوریتم‌های استاندارد (طمع‌آمیز) برای یافتن نامزدهای خوب برای بیزی واقعی استفاده کرده‌ام. مدل سازی شبکه / پشت توزیع احتمال مشترک این متغیرها. در پایان، من مجموعه ای از شبکه های بیزی مختلف با امتیاز بالا (با توجه به D$) دارم. من می خواهم قبل از انتخاب یک نوع فاصله بین این شبکه ها را محاسبه کنم. من در مورد واگرایی Kullback-Leibler مطالعه کردم، اما البته من شبکه واقعی را نمی دانم. آیا معیار مفیدی برای مقایسه دو توزیع احتمال وجود دارد؟
چگونه فاصله بین دو شبکه بیزی را اندازه گیری کنیم؟
82521
من یک طرح آزمایشی با نگرش نسبت به یک محرک مثبت و یک محرک منفی دارم که در درون افراد وجود دارد. من همچنین یک پیش بینی کننده پیوسته در سطح فرد دارم (یک ساختار شخصیت). برنامه من اکنون این بود که یک مدل چند سطحی با ظرفیت به عنوان پیش بینی کننده سطح 1، شخصیت (مرکز) به عنوان پیش بینی سطح 2، و تعامل سطح متقابل این دو متغیر بسازم. از آنجایی که من می‌خواستم از آمار کای دو تو در تو برای ارزیابی اثرات فردی استفاده کنم، کد چیزی شبیه به این خواهد بود: library(nlme) mod0 <- lme(attitude~ 1, random = ~1|ID, data=dat, method= ML) mod1 <- lme(نگرش ~ ظرفیت، تصادفی = ~ ظرفیت| شناسه، داده = داده، روش = ML) mod2 <- lme(نگرش ~ valence+z_personality، تصادفی = ~valence|ID، data=dat، روش = ML) mod3 <- lme(نگرش ~ ظرفیت*z_شخصیت، تصادفی = ~ ظرفیت|ID، داده = داده، روش = ML) سوالات من به شرح زیر است: 1) آیا استفاده از مدل های چند سطحی با توجه به اینکه من فقط دو مشاهده برای هر شرکت کننده دارم، موجه است؟ 2) واریانس تصادفی برای ظرفیت دقیقاً تعریف شده است (فقط با دو نقطه داده برای هر نفر، هیچ درجه آزادی باقی نمانده است؛ خطای استاندارد برای برآورد واریانس تصادفی 0 است). آیا در این مورد باید یک اثر تصادفی برای ظرفیت اضافه کنم؟ 3) من به ویژه به تعامل سطح متقابل علاقه مند هستم (بسته به شخصیت، برخی از شرکت کنندگان فرض می کنند که نگرش مثبت تری نسبت به محرک منفی نسبت به محرک مثبت دارند). اگر واریانس تصادفی را برای ظرفیت لحاظ نکنم (نگاه کنید به 2)، این - در درک من - به این معنی است که تفاوت بین محرک های مثبت و منفی برای همه شرکت کنندگان یکسان است. با این حال، این به صراحت آن چیزی نیست که من انتظار دارم. به بیان ساده این سوال: آیا اگر به تعامل سطح متقابل این پیش بینی کننده علاقه دارم، باید واریانس تصادفی را برای پیش بینی سطح 1 مشخص کنم؟ برای همه این نکات، سوال این نیست که آیا R/SPSS می تواند این کار را انجام دهد؟ (من سعی کرده ام، هر دو می توانند این کار را انجام دهند)، اما اگر بتوانم نتایج را با توجه به طراحی من به طور منطقی تفسیر کنم. همچنین، اگر منابعی برای حمایت از این موضوع برای من داشته باشید، بسیار قابل قدردانی خواهد بود. با تشکر از کمک شما!
مدل چند سطحی با دو نمره در هر واحد سطح 2 - تحلیل منطقی؟
93915
بعدازظهر بخیر، من سعی می کنم یک مدل فضای حالت از فرم را بسازم: $$ (S_t- \mu) = G*(S_{t-1} - \mu) + E_t $$ $$ Y = F*S_t + v_t $$ که در آن $Y$ nx1 است، $G$ 3x3، $S_t$ 3x1، $\mu$ 3x1، و $F$ 17x3 است. تا آخر عمر من نمی توانم بفهمم که چگونه این را در بسته DLM در R تعریف کنم. سعی کردم $G$ 6X6 (و بنابراین $S_t$ 6x1) بسازم و در ستون و ردیف مناسب قرار دهم تا از $\ کم کنم. mu$ و سپس متغیر مناسب را با $F$ انتخاب می‌کنم، اما بعد از فیلتر کردن، نتایج بی‌معنی دریافت می‌کنم. یعنی همه $\mu$s 0 هستند. در حالی که آنها باید مقادیر مطلق را با فاصله ای از 0 داشته باشند. حل TIA برای پارامترها: $$ (S_t- \mu) = G*(S_{t-1} - \mu) + E_t $$ $$ S_t = \mu + G*(S_{t-1} - \ mu) + E_T $$ $$ S_t = \mu - G* \mu + G*S_{t-1} + E_T $$ $$ S_t = (I - G) *\mu + G*S_{t-1} + E_T $$ ترکیب در یک ماتریس G واحد: $$ \begin{bmatrix} g_{11} & g_{12} & g_{13} و (1-g_{11}) و -g_{12} & -g_{13}\\ g_{21} & g_{22} & g_{23} & -g_{21} و (1-g_{22}) & -g_{23}\\ g_{31} & g_{32} & g_{33} & -g_{31} & -g_{32} و (1-g_{33} )\\ 0 و 0 و 0 و 1 و 0 و 0 \\ 0 و 0 و 0 و 0 و 1 و 0 \\ 0 و 0 و 0 و 0 & 0 و 1 \\ \end{bmatrix} $$ و: $$ S_t = \begin{bmatrix} S_{1t}\\ S_{2t}\\ S_{3t}\\ \mu_1\\ \mu_2\\ \mu_3\\ \end{bmatrix} $$ کد: #مدل مدل DLM را بسازید <- function(param){ #F ماتریس F.mat را تعریف کنید <-matrix(rep(0,6*17),nr=17) F.mat[,1] <-1 dimf <-dim(F.mat) برای (i در 1:dim(F.mat)[1 ]){ برای (j در 2:3){ F.mat[i,j] <- f_fun(i,j,param[1])} } #F.mat[,4:6] = F.mat[,1:3] #V ماتریس V.mat <- diag(var_rest(param[2:18])) #اکنون G. ما باید در اینجا وقفه ها را تعریف کنیم G.mat <- matrix(rep(0 ,6*6),nr=6) G.mat[4,4] <- 1 G.mat[5,5] <- 1 G.mat[6,6] <- 1 param[19] <-coef_rest(param[19]) G.mat[1:3، 1:3] <- ماتریس(param[19:27]،nrow =3، ncol = 3، byrow = TRUE) G.mat[1: 3، 4:6] <- -G.mat[1:3،1:3] #در نهایت، W W.mat <-matrix(rep(0,6*6),nrow=6) param[c(28,31,33)] <- var_rest(param[c(28,31,33)]) W.mat[1, 1:3] <-param[28:30] W.mat[2,1:3] <-param[c(29,31,32)] W.mat[3,1:3] <-param[c(30،32،33)] W.mat[4،4] <- 1e-7 W.mat[5،5] <- 1e-7 W.mat[6،6] <- 1e -7 #و اکنون حالت های اولیه m0.mat <- matrix(rep(0,6),nrow=6) #C0.mat <- matrix(rep(0,36),nrow=6) C0.mat <- diag(rep(1e-7,6)) C0.mat[1:3,1:3] <- 10^7 } وقفه واریانس نمایی است و محدودیت پارامتر از پایدار بودن آن اطمینان می دهد. تابع کمکی برای F فقط یک دسته از مقادیر را بر اساس پارامتر محاسبه می کند. که سپس با پارامترهای شروع به dlmMLE ارسال می شود. این آخرین تکرار است اما L-BFGS-B از مقادیر محدود شکایت دارد.
ثابت ها در یک DLM مدل R
112303
من در حال انجام یک تجزیه و تحلیل خوشه سلسله مراتبی در SPSS در پایگاه داده خود با چندین متغیر عصب روانشناختی و روانپزشکی هستم. در پایگاه داده من، برخی از متغیرهای من (یعنی: دو جفت متغیر) دارای همبستگی هستند (_r_ > 0.80). اولین فکر من حذف این متغیرها از تحلیل خوشه ای بود. با این حال، گزینه دیگر استفاده از فاصله Mahalanobis به عنوان اندازه گیری فاصله است، زیرا این اندازه گیری همبستگی را در نظر می گیرد (طبق مثال تجزیه و تحلیل داده های چند متغیره توسط Hair و همکاران). سوال من این است که آیا راهی برای انجام تحلیل خوشه سلسله مراتبی در SPSS با استفاده از فاصله Mahalanobis وجود دارد؟ من با R یا SAS آشنایی ندارم، بنابراین ترجیح من روشی با استفاده از SPSS است. پیشاپیش از شما متشکرم.
فاصله ماهالانوبیس در تحلیل خوشه ای سلسله مراتبی در SPSS
33475
من در حال حاضر سعی می کنم برخی از الگوریتم های یادگیری ماشین را به تنهایی پیاده سازی کنم. بسیاری از آنها دارای خاصیت بدی هستند که اشکال زدایی آنها سخت است، برخی از باگ ها باعث از کار افتادن برنامه نمی شوند، بلکه آنطور که در نظر گرفته شده کار نمی کنند و به نظر می رسد که الگوریتم ها فقط نتایج ضعیف تری می دهند. من مایلم راهی برای افزایش اعتماد به نفس خود در پیاده سازی داشته باشم، به عنوان مثال اگر مجموعه داده های کوچکی داشته باشم، با اطلاعات اضافی الگوریتم های X برای تکرارهای Y کار می کنند و نتایج Z را در این مجموعه داده دارند، این واقعا مفید خواهد بود. کسی در مورد چنین مجموعه داده هایی شنیده است؟
کجا می توانم مجموعه داده های مفید برای آزمایش پیاده سازی های یادگیری ماشین خودم را پیدا کنم؟
112308
من سعی می کنم در اینجا کارگاه آماری را دنبال کنم تا به خودم برخی از تجزیه و تحلیل رگرسیون را برای شغلم در یادگیری ماشین بیاموزم، اما هنگام نصب بسته mozaic به بسته ماشین نیاز دارد. بنابراین من install.packages(car) را انجام دادم، اما می بینم که آدرس اینترنتی R در حال تلاش برای باز شدن است http://cran.rstudio.com/bin/windows/contrib/3.1/ **car_2.0-20.zip ** با این حال، آدرس اینترنتی صحیح (همانطور که در اینجا مشاهده می شود) http://cran.r-project.org/bin/windows/contrib/3.1/ است. **car_2.0-21.zip** چگونه می توانم کاری کنم که R یک URL سفارشی باز کند و این بسته را نصب کنم؟
آدرس اینترنتی بسته car قدیمی است
63471
اگر نتایجی برای تجزیه و تحلیل رگرسیون به شما داده شد و از شما پرسیده شد که چگونه تجزیه و تحلیل را گسترش می دهید تا بفهمید آیا یک متغیر جدید بر متغیر پاسخ نیز تأثیر می گذارد، چگونه این کار را انجام می دهید؟ آیا با در نظر گرفتن یک مدل با متغیر جدید به عنوان یک مدل کامل و آزمایش اینکه آیا یک مدل کاهش یافته کافی است یا یک نمودار متغیر اضافه شده کافی است؟
در نظر گرفتن یک متغیر جدید در مدل رگرسیونی
82525
من این را به لیست کاربران TraMineR ارسال کردم و پیشنهاد شد که در اینجا نیز ارسال شود. هر گونه پیشنهادی در مورد چگونگی تعیین حداقل اندازه مجموعه داده و ویژگی های کمبود که TraMineR ممکن است به طور معقولی برای آن اعمال شود مفید خواهد بود. من به دنبال اطلاعات در اسناد گشتم اما چیزی را ندیدم که بتوانم از آن به عنوان اکتشافی استفاده کنم. من از TraMineR برای تجزیه و تحلیل 5 سال مشاهدات BMI استفاده می کنم که به عنوان یک متغیر طبقه بندی ترتیبی چهار سطحی برای 5046 کودک دبستانی (کلاس K-5) کدگذاری شده است. فقط 414 مورد از اینها 5 مشاهدات دارند (~ 56٪ از K، 1 دانش آموز در زمان 1 اندازه گیری شد که می توانست در سال های 1 تا 5 اندازه گیری شود). در اینجا دو سؤال مرتبط وجود دارد، اگر به خوبی بیان نشده باشد: 1. آیا مجاز است که فقط روی موارد کامل تمرکز کنم زیرا من فقط 5 نقطه داده و ساییدگی طبیعی تجمعی بالایی دارم؟ آزمایش موارد کامل در برابر همه موارد، تفاوت اساسی در مقادیر پیش بینی کننده ها نشان نمی دهد. تجزیه و تحلیل موارد کامل آموزنده است، در حالی که شامل همه موارد، صرف نظر از انتخاب انتساب، فقط باعث ایجاد سروصدا می شود. من سعی کردم فقط دنباله های 4 یا 5 را بپذیرم، اما نتایج همچنان پر سر و صدا بود. 2. آیا با توجه به الگوهای انتساب مورد نیاز مجموعه داده کامل، صرف نظر از اینکه به دلیل عدم برنامه ریزی شده باشد یا MAR، پنج شی دنباله برای استفاده با TraMineR بسیار کوتاه است؟ 3. در زیر تعداد موارد با 1 تا 5 مشاهده آمده است. 1 2 3 4 5 1846 1287 869 630 414 TraMineR یک ابزار عالی است. من می خواهم مطمئن شوم که از آن به درستی استفاده می کنم.
حداقل معیار برای مجموعه داده های مورد استفاده با TraMineR
9627
اول از همه، متوجه شدم که رگرسیون چندگانه واقعاً استنتاج «علّی» در مورد داده ها به دست نمی دهد. اجازه دهید مورد فعلی خود را توضیح دهم: من چهار متغیر مستقل دارم که امیدوارم (اما مطمئن نیستم) در هدایت چیزی که اندازه‌گیری می‌کنم نقش داشته باشند. من می خواستم از رگرسیون چندگانه استفاده کنم تا ببینم هر کدام از این متغیرها چقدر در متغیر وابسته من نقش دارند و این کار را انجام دادم. فرضاً متغیر شماره چهار به شدت بر اندازه گیری نتیجه من تأثیر می گذارد (وزن بتا نزدیک به 0.7). با این حال، به من گفته شده است که این کافی نیست، زیرا برخی از متغیرهای مستقل من ممکن است در واقع با یکدیگر همبستگی داشته باشند. در آن صورت، من می‌توانم فکر کنم «متغیر چهار» متغیر وابسته من را هدایت می‌کند، در حالی که واقعاً هر دو سه و چهار می‌توانند به طور مساوی مشارکت داشته باشند. این درست به نظر می رسد، اما از آنجایی که من تازه وارد این کار هستم، مطمئن نیستم. چگونه می توانم به طور سیستماتیک از این مشکل در آینده جلوگیری کنم؟ هنگام استفاده از رگرسیون چندگانه برای اطمینان از اینکه داده های مستقل شما از قبل دارای همبستگی های پنهان نیستند، چه رویه های خاصی را توصیه می کنید؟ ویرایش: داده ها خود مجموعه ای از مدل های شبکه (گراف) از یک وضعیت عصبی خاص هستند. من «ضریب خوشه‌بندی» را اندازه‌گیری می‌کنم که توپولوژی هر شبکه را به‌عنوان یک کل توصیف می‌کند (متغیر وابسته در اینجا)، و سپس می‌بینم که آیا اتصالات تکی چهار گره در شبکه بزرگ‌تر 100+، مقادیر خوشه‌بندی جهانی را هدایت می‌کنند (چهار مستقل) متغیرها). با این حال، این گره ها بخشی از یک شبکه هستند، بنابراین طبق تعریف ممکن است تا حدی با هم مرتبط باشند.
هنگام استفاده از رگرسیون چندگانه برای یافتن روابط «علّی» در داده‌هایم، از چه چیزهایی باید آگاه باشم؟
105704
قبل از ارسال این سوال، من CV را برای یک سوال مشابه جستجو کردم که می تواند به من کمک کند، اما آن را پیدا نکردم. بنابراین، متاسفم اگر قبلاً این سؤال مطرح شده است. بنابراین، من خودم از آمار ریاضی کیث نایت مطالعه می کنم. در ابتدا و با توجه به فهرست مطالب، انتخاب خوبی به نظر می رسید. این تخمین نقطه، تخمین احتمال، کارایی برآوردگرها، تخمین فاصله و آزمون فرضیه را پوشش می دهد. با این حال، پس از کمی کار با آن، متوجه شدم که اشتباهات تایپی زیادی وجود دارد، و برخی از تمرینات درست به نظر نمی رسد، مانند این یکی. و برخی از جزئیات حساب دیفرانسیل و انتگرال به نظر می رسد حذف شده است. من به دنبال کتابی نیستم که خیلی عمیق به مبانی نظری بپردازد، مانند کتاب جون شائو که از نظریه اندازه گیری استفاده می کند. من به دنبال چیزی شبیه کتاب نایت هستم، بدون خطا، و رسمی تر. اگر کتاب در بیان قضایا و اثبات با جزئیات زیاد با آنها دقت زیادی داشته باشد، عالی خواهد بود (مخصوصاً در مورد موارد چند بعدی). بنابراین من برای کتابشناسی بهتر جستجو کردم و دو کتاب را پیدا کردم که به نظر بهتر هستند. مدل‌های آماری دیویسون که در مورد کارایی زیاد یا اصلاً صحبت نمی‌کند، و اصول استنتاج آماری یانگ. من می خواهم نظر شما را در مورد این کتاب ها بدانم و اگر کتاب دیگری را می شناسید که فکر می کنید ممکن است مفیدتر باشد لطفاً به من بگویید.
خوب خواندن / کتابشناسی
53343
مشکل من این است که چهار مدل کاندید ایجاد کرده‌ام که عمدتاً با معیارهای عملکرد زیر مقایسه می‌کنم: «اندازه‌گیری F»، «یادآوری»، «دقت»، «دقت» و «ارزیابی ROC» بصری. مشکل این است که همانطور که از جدول می بینید، SVM_linear_test بهترین F-measure را انجام می دهد. این مدل با خط آبی در نمودار ROC مطابقت دارد. خط قرمز در نمودارهای ROC مربوط به SVM_RBF_test است زیرا با توجه به نمودار ROC این مدل بهترین عملکرد را دارد. با مطالعه زیاد اخیراً در مورد معیارهای عملکرد در طبقه‌بندی‌کننده‌های دوجمله‌ای، به چیزی که در مثال من در اینجا واضح است برخورد نکرده‌ام. ROC مثبت های نادرست را در نظر نمی گیرد و بنابراین در مورد من، ارزیابی ROC ارزش زیادی ندارد. البته همیشه می توان بحث کرد که آیا بخواهیم وزن بیشتری را به طبقه مثبت اختصاص دهیم، اما در این مورد این بحث را کنار می گذاریم. ![معیارهای عملکرد عددی](http://i.stack.imgur.com/xDGJI.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/UtBpe.png)
آیا ارزیابی ROC از یک طبقه‌بندی‌کننده دوجمله‌ای به عنوان یک معیار عملکرد خوب با توجه به وزن‌های مساوی بین مثبت و منفی عمل می‌کند؟
97219
من دیتافریم پایتون زیر را دارم (5 ردیف از نزدیک به 15000): N0_YLDF MAT MAP 0 6.286333 11.669069 548.8765 1 6.317000 11.669069 5248.869 5248.869. 11.516454 531.5035 3 6.320667 11.516454 531.5035 4 6.325556 11.516454 531.5035 OLS را با استفاده از فرمول زیر اجرا می‌کنم: N0_YLDF برای پایه‌گذاری سالانه، MAT. ضریب y-intercept برای MAP 0.0079 است. با این حال، وقتی من MAP را بر 100 تقسیم می کنم، ضریب به 0.79 افزایش می یابد آیا این بدان معنی است که باید متغیرهای مستقل خود را نرمال کنم؟
نتایج OLS وابسته به مقیاس بندی متغیر مستقل است
52033
من یک مجموعه داده دارم که شامل تقریباً 40000 مشاهده است که در 12 کلاس گروه بندی شده اند. من یک جنگل تصادفی سریع را روی یک تقسیم 80٪ آموزش و 20٪ تست انجام دادم (بحث در مورد آب و هوا را مطرح نکنید یا نه لازم است داده ها را در جنگل های تصادفی تقسیم کنید، این فقط یک آزمایش سریع است) و موارد زیر را دریافت کردم. دقت در مجموعه آزمایشی: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/DvOwV.jpg) سپس یک مدل RF برای هر کلاس آموزش می دهم و ایجاد می کنم یک متغیر دوتایی «به کلاس تعلق دارد»: بله/خیر. برای مثال، این دقت‌ها را در مجموعه آزمون کلاس شماره 1 و کلاس شماره 5 دریافت می‌کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/JhPFt.jpg) که دقیق‌تر به نظر می‌رسد . آیا آموزش چندین مدل گزینه مناسبی است؟ ممکن است دست و پا گیر باشد، اما اگر شما هر مشاهده را با همه مدل ها پیش بینی کنید و شاید بالاترین احتمال عضویت را در یک تحلیل تفکیک خطی انتخاب کنید، آیا می توانید دقت بهتری نسبت به یک جنگل تصادفی واحد داشته باشید؟ امیدوارم این سوال احمقانه نباشد، نمی دانم چرا به چنین چیزهایی فکر می کنم.
باتری مدل های جنگلی تصادفی برای هر کلاس
112301
من سعی می کنم برخی از آمارهای مکانی را برای برخی برآوردهای رفتاری خوشه بندی کنم. با این حال، بخش‌هایی از مسیر دقیقاً سرعت صفر را گزارش می‌کنند، که به نوعی حالت استراحت را نشان می‌دهد که با حالت جستجوی غذایی که من می‌خواهم استخراج کنم متفاوت است. به نظر می رسد یک راه حل فواصل رفتار کاملاً ثابت را حذف می کند. با این حال، این مجموعه داده را به قطعات متمایز تقسیم می کند که من مطمئن نیستم چگونه با تکنیک های مختلف تخمین فضای حالت متوالی تجزیه و تحلیل کنم. آیا راهی برای ایجاد تمایز خوشه‌ای بین سرعت‌های پایین (0.3-0.7) برای وضعیت جستجوی فعال مورد نظر من، در مقابل داده‌های کاملاً ثابت (سرعت 0.0) وجود دارد؟
تکنیک های خوشه بندی زمانی که دو خوشه مجزا اما از نظر عددی مشابه در میان دیگران وجود دارد
112309
من دو سوال نسبتا مفهومی در مورد طبقه‌بندی‌کننده‌های تصادفی جنگل دارم. قبل از اینکه به آنجا برسیم، می‌خواهم سریعاً مشکلی را که روی آن کار می‌کنم بیان کنم: مجموعه داده‌ای بزرگی دارم که شامل 300 نمونه با حدود 370000 نقطه داده است. 6 گروه مختلف 50 نمونه وجود دارد. من یک طبقه‌بندی کننده RF با 1000 درخت ساختم که قادر به پیش‌بینی برچسب‌های کلاس در گروه دوم با همان اندازه و ترکیب بود. مشخص است که در هر گروه زیرگروه های خاصی وجود دارد. با این حال، PCA و سایر روش‌های بدون نظارت نشان می‌دهند که تفاوت‌های عمده در واقع بین گروه‌ها است. 1. من تعجب کردم که آیا ناهمگونی درون گروهی ممکن است بر نتایج طبقه بندی تأثیر بگذارد. با توجه به درک من از نحوه ساخت درختان، فرض می‌کنم که این مهم نیست، زیرا نمونه‌های یک گروه لزوماً نباید به همان گره پایانه ختم شوند. 2. من احتمال انتخاب نشدن کاوشگر را _اصلاً در هیچ یک از درخت ها_ به صورت p=0.21 محاسبه کردم (برای تنظیمات استاندارد، یعنی جذر ویژگی ها برای نمونه برداری فرعی). قبل از اینکه شروع به افزایش تعداد درختان کنم، می‌خواهم بپرسم آیا چیزی شبیه یک قانون کلی وجود دارد که برای ارزیابی قابل‌اعتماد اهمیت یک متغیر به چند مورد نیاز است؟ بنابراین اساساً من به شرایط لازم برای انتخاب ویژگی علاقه مند هستم. بهترین ها کریس
آیا ناهمگونی درون گروهی بر طبقه‌بندی تصادفی جنگل تأثیر منفی می‌گذارد؟
52035
من یک سری زمانی هفتگی دارم که هزینه های یک گروه را نشان می دهد. می‌خواهم بگویم که آیا مداخله در گروه (می‌توانیم فرض کنیم که در یک هفته اتفاق افتاده است) هزینه‌های گروه را کاهش داده است یا خیر. من اتفاقاً می دانم که روند طی این دوره برای جمعیتی که این کوهورت از آن گرفته شده است - 120- در هفته در هفته بود. فکر اولیه من صرفاً انجام یک رگرسیون خطی «lm (هزینه ها ~ هفته ها، جبران =-120 * هفته)» بود، اما (بدیهی است) اهمیت آن تنها تابعی از تأثیر مداخله نیست، بلکه این است که چقدر به عقب نگاه می کنم ( اگر به $-\infty$ برگردم، البته غیر قابل توجه به نظر می رسد). من به این وب سایت نگاه کردم: http://www.r-bloggers.com/time-series-intervention- analysis-wih-r-and-sas/ و سعی کردم کد R را با داده هایم تکرار کنم، اما وقتی وارد دستور arimax()، پیغام خطا Error در آمار دریافت کردم:::arima(x=x,order=order,seasonal=seasonal,fixed=par[1:narma], : طول اشتباه برای تثبیت اکنون، من مطمئن نیستم که چه کاری انجام دهم. آیا کسی می تواند مرا راهنمایی کند؟
تجزیه و تحلیل سری های زمانی منقطع ساده
97213
من در حال کدگذاری موارد زیر در R هستم، می‌خواهم 10 عدد تصادفی را از یک توزیع معمولی استاندارد انتخاب کنم که مجموع آنها برابر با 5 است. من تا کنون کد زیر را دارم (زیر)، اما زمانی که اعداد تصادفی این کار را انجام نمی‌دهند، عددی (0) را برمی‌گرداند. شرایط را ارضا کند چیزی که من می خواهم این است که 10 عدد تصادفی را انتخاب کنم که این شرط را برآورده کنند. آیا راهی برای تغییر مقیاس این اعداد پس از انتخاب وجود دارد، یا می توانم به نحوی شرطی را برای آن در rnorm وارد کنم؟ کمک بسیار قدردانی! a <- rnorm(10, 0, 1) ones <- matrix(1, nrow=10, ncol=1 ) A <- a[t(a) %*% ones == 5]
r - 10 عدد تصادفی را از توزیع نرمال استاندارد انتخاب کنید که مجموع آنها برابر با 5 است
9625
فرض کنید می خواهید این فرضیه را آزمایش کنید که میانگین یک توزیع برابر با میانه است، با توجه به نمونه هایی که از توزیع گرفته شده اند. چگونه این کار انجام می شود؟ من حدس می زنم که آمار آزمون (مقدار مطلق) میانگین نمونه منهای میانه نمونه باشد، اما در مورد خطای استاندارد آن آمار مطمئن نیستم (معتقدم میانگین و میانه نمونه مستقل نیستند). آیا این یک آزمایش شناخته شده است؟
چگونه می توان آزمایش کرد که آیا میانگین برابر با میانه است؟
53349
من یک توزیع t غیر استاندارد با پارامترهای $\nu$,$\beta$ (یا گاهی اوقات با $\sigma^2$ نیز نشان داده می‌شود) و $\nu$ دارم. حالا می‌خواهم تعداد آن را بدست بیاورم. qt فقط چندک توزیع t استاندارد شده را محاسبه می کند، می دانم که یک تبدیل یکنواخت وجود دارد، اما من نمی خواهم از آن استفاده کنم، بنابراین می خواهم کمیت توزیع t غیر استاندارد را محاسبه کنم. آیا تابعی از پیش پیاده سازی شده در R وجود دارد؟ اگر تابعی وجود نداشته باشد، چندک معکوس cdf است، چگونه می توانم این را در R پیاده سازی کنم؟
چندک توزیع t غیر استاندارد؟
112288
من با آمار و SPSS تازه کار هستم. من یک پرسشگر دارم که 30 سوال با مقیاس لیکرت دارد و 5 فاکتور هر کدام 5 یا 6 سوال دارد. من تجزیه و تحلیل قابلیت اطمینان را انجام دادم و مشکلی پیدا نشد. همه عوامل دارای آلفای بزرگتر از 0.7 هستند. اکنون می‌خواهم تحلیل همبستگی بین عوامل را برای تأیید فرضیه‌هایم انجام دهم، اما نتوانستم در SPSS گزینه‌ای برای اختصاص سؤال به عوامل و تجزیه و تحلیل آنها پیدا کنم. چگونه می توانم این کار را انجام دهم؟
همبستگی بین عوامل
112289
من می‌خواهم میزان متابولیسم پایه (BMR) را بر اساس قد، وزن، سن و جنسیت کاهش دهم. چگونه می توانم این کار را با در نظر گرفتن تعامل بین متغیر انجام دهم؟ آیا مجبور نیستم تعاملات را تا حد چهارم در نظر بگیرم؟
تعامل بین متغیرها
58999
من این سوال را با اشاره به مثالی در صفحه 138-142 سند زیر می نویسم: ftp://ftp.software.ibm.com/software/analytics/spss/documentation/amos/20.0/en/Manuals/IBM_SPSS_Amos_User_Guide.pdf. در اینجا شکل‌های توضیحی و یک جدول وجود دارد: ![مثال CFA](http://i.imgur.com/Rmayocw.png) من می‌دانم که متغیر نهفته هیچ متریک طبیعی ندارد و تنظیم یک بارگذاری ضریب روی 1 برای رفع آن انجام می‌شود. این مشکل با این حال، تعدادی از چیزها وجود دارد که من (به طور کامل) درک نمی کنم: 1. چگونه تثبیت بار عاملی به 1 این مشکل عدم قطعیت مقیاس را برطرف می کند؟ 2. چرا به جای یک عدد دیگر، به 1 ثابت می شود؟ 3. من درک می کنم که با تثبیت یکی از وزن های رگرسیون فاکتور-> شاخص به 1، بنابراین، تمام وزن های رگرسیون دیگر را برای آن عامل نسبت به آن می سازیم. اما چه اتفاقی می‌افتد اگر یک بار عاملی خاص را روی 1 قرار دهیم اما بعد معلوم شود که امتیازهای بالاتر روی عامل امتیازهای کمتری را در متغیر مشاهده‌شده مورد نظر پیش‌بینی می‌کند؟ پس از اینکه بارگذاری عاملی را در ابتدا بر روی 1 قرار دادیم، آیا می‌توانیم به وزن رگرسیون استاندارد شده منفی برسیم یا به وزن رگرسیون استاندارد شده منفی؟ 4. در این زمینه، بارهای عاملی را دیده ام که هم به عنوان ضرایب رگرسیون و هم به عنوان کوواریانس شناخته می شوند. آیا هر دو این تعاریف کاملاً صحیح هستند؟ 5. چرا باید spatial->visperc و verbal-paragrap را هر دو به 1 ثابت کنیم؟ اگر یکی از آن مسیرها را به 1 ثابت می کردیم چه اتفاقی می افتاد؟ 6. با نگاهی به ضریب استاندارد، چگونه ممکن است که ضریب غیر استاندارد برای wordmean > جمله > paragrap باشد، اما با نگاهی به ضرایب استاندارد شده paragrap > wordmean > جمله. من فکر کردم که ابتدا با ثابت کردن پاراگرپ روی 1، همه متغیرهای دیگر بارگذاری شده بر روی فاکتور نسبت به پاراگرپ ساخته شدند. من همچنین یک سؤال را اضافه می کنم که تصور می کنم پاسخ مرتبطی دارد: چرا ضریب رگرسیون را برای عبارت های منحصر به فرد (به عنوان مثال err_v->visperc) به 1 ثابت کنیم؟ برای err_v داشتن ضریب 1 در پیش بینی visperc چه معنایی دارد؟ من بسیار از پاسخ‌ها استقبال می‌کنم، حتی اگر پاسخ‌ها به همه سؤالات نپردازند.
چرا در تحلیل عاملی تاییدی وزن ها را 1 می کنیم؟
105706
هنگام طراحی یک نمودار عاملی، طراح باید ساختار نمودار (فرض های استقلال رمزگذاری) و شکل و پارامتر توابع انرژی را برای عوامل فردی مشخص کند. آیا بهترین شیوه ها برای طراحی توابع انرژی وجود دارد؟
چگونه یک تابع انرژی را در مدل نمودار عاملی طراحی کنیم؟
49403
من یک رگرسیون کاکس را با داده های خود اجرا می کنم. در مدل نهایی خود من چهار پیش بینی بالقوه داشتم و ابتدا یک رگرسیون کاکس رو به جلو (روش والد) و سپس برای اعتبارسنجی مدل خود یک رگرسیون کاکس رو به عقب (روش والد) انجام دادم. متاسفانه من دو مدل مختلف گرفتم. الان چیکار کنم؟ آیا قراردادی وجود دارد که تصمیم بگیرد کدام مدل پایدارتر است؟ خیلی ممنون از پاسخ های شما! :)
اگر مدل های مختلف را با استفاده از رگرسیون کاکس به جلو و عقب دریافت کنم، از کدام مدل استفاده کنم؟
108039
مادرم در مورد SPSS 16 رایگان شنید و به من وظیفه یافت یک دانلود مطمئن از آن پیدا کنم. با این حال، من نمی توانم _هیچ سایتی را پیدا کنم (به جز تورنت ها) که واقعاً آن را در دسترس داشته باشد، به نظر می رسد همه آنها از SPSS 16 به عنوان طعمه استفاده می کنند و سوئیچ می کنند تا شما را به صفحه ای با آخرین نسخه ببرند.
آیا SPSS 16 رایگان واقعا وجود دارد؟
9626
من معتقدم که برای ANOVA نامتعادل به معنای گروه های نابرابر است. اما برای کارآزمایی‌های تصادفی‌سازی و کنترل‌شده، به نظر می‌رسد که نامتعادل به معنای چیزی شبیه به گروه‌هایی با ویژگی‌های مختلف علی‌رغم تصادفی‌سازی باشد. بنابراین در مورد RCT ها آیا نامتعادل صرفاً به معنای تصادفی بدشانسی است؟ ربطی به اندازه گروه ندارید؟ تعریف RCT نامتعادل چیست؟
چه زمانی یک کارآزمایی تصادفی کنترل شده (RCT) متعادل است؟
58995
من سعی می کنم یک رگرسیون خطی از یک متغیر وابسته پیوسته مثبت (نتیجه) با چندین متغیر مستقل (همه آنها مقوله ای / باینری هستند) انجام دهم. من برای بدست آوردن باقیمانده های گاوسی مشکلات زیادی داشتم (توزیع متغیر نتیجه من خود گوسی نیست). من تغییرهای زیادی را برای نتیجه امتحان کردم: log، ریشه مربع، معکوس... و بهترین آنها Box-Cox با پارامتر: $\lambda = -3$ است. رگرسیون صحیح است، باقیمانده ها گاوسی و هموسکداستی هستند. اما دریافته‌ام که Box-Cox ساده‌ترین چیز برای تفسیر نیست. نتیجه اصلی نشان دهنده یک تاخیر است و هیچ راهی برای تفسیر نتیجه تبدیل شده با ترکیبی از قدرت و معکوس وجود ندارد. و وقتی می خواهم به نتیجه اولیه خود برگردم، ریشه مکعب (یا توان 1/3) دارم. سؤالات من این است: * با دانستن ضریب مربوطه، تغییر یک متغیر باینری معین بر نتیجه اصلی من چگونه است؟ * آیا می توانم با فاصله اطمینان (حدود 2.5٪ و 97.5٪) ضرایب رگرسیون همین کار را انجام دهم؟
نحوه تفسیر ضرایب رگرسیون زمانی که متغیر نتیجه توسط باکس-کاکس تبدیل شد
9623
نمونه های خطای نمونه برداری را در ویکی پدیا خوانده ام، اما هنوز متوجه نشده ام. ممکن است یک مثال ساده و مشخص برای خطای نمونه برداری به من بدهید؟
مثال خطای نمونه گیری
58334
من متوجه شدم که اگر $X$ یک RV در $[0,1]$ باشد، آنگاه $V[X] \leq E[X](1-E[X])$، که همچنین نشان می‌دهد که توزیع برنولی واریانس را به حداکثر می‌رساند ( یکی از راه حل های متعدد). برای علاقه، حالت گسسته را در نظر بگیرید: اجازه دهید $p_i \geq 0$ احتمال $1 را بدهد \geq x_i \geq 0$، فرض می‌کنیم: $V[X] > E[X](1-E[X])$ \ شروع{تراز} E[X^2] - E[X]^2 & > E[X](1-E[X]) \\ \sum_i x_i^2p_i & > \sum_i x_ip_i\\ \sum_i (x_i-1)x_ip_i & > 0 \end{align} که یک تناقض است زیرا $(x_i-1) \leq 0, x_i \geq 0, p_i \geq 0$. به هر حال، این یک واقعیت نسبتاً مفید است، آیا این نابرابری نام، تعمیم یا پسوند بیشتری دارد؟
محدود به واریانس برای [0،1] RVها به عنوان تابعی از میانگین