_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
93223
|
من یک مدل خطی (که دارای چندین پیش بینی کننده است) با استفاده از تابع ()lm ایجاد کرده ام و می خواهم ضرایب را که هنگام استفاده از تابع summary() در مدل خطی به دست می آورم تفسیر کنم. اکنون میخواهم در نظر بگیرم که چگونه ضرایب بر تأثیر پیشبینیکنندهها در مدل منعکس میشوند - آیا من درست فکر میکنم که یک مقدار بزرگ برای ضریب به این معنی است که پیشبینیکننده مربوطه تأثیر بیشتری دارد؟ من مطمئن نیستم که چه چیز دیگری را باید در نظر بگیرم یا اینکه حتی در مسیر درستی فکر می کنم. همچنین، آیا من درست فکر می کنم که این ضرایب در واقع ضرایب بتا هستند؟
|
تفسیر خروجی ضریب تابع lm در R
|
93225
|
من رگرسیون چندگانه را با تولید گاز (l/d) بهعنوان متغیر پاسخ، و نرخ جریان (l/h) و ورودی COD (g/l) بهعنوان متغیرهای توضیحی در R انجام میدهم. من دو مدل ساختم. mod1 <- گاز ~ جریان + COD r^2 = 0.64 f stat= 56.62 (2،64) با 0.0000 .... مقدار p. mod2 <- گاز ~ جریان *COD r^2 = 0.81 f stat = 89.14 (3،63) با مقدار p نیز بسیار کم. حالا برای هر دو مورد، r^2 چه می گوید و f stat چه می گوید؟ من تست آنووا هر دو مدل را انجام دادم. چگونه آنها را تفسیر کنیم؟ مدل 1: گاز ~ جریان + CODin مدل 2: گاز ~ جریان * CODin Res.Df RSS Df مجموع مربع F Pr(>F) 1 64 24307 2 63 12835 1 11472 56.311 2.631e-10 ***
|
مقایسه R-squared و F-stat
|
73925
|
این سوال به نوعی دنباله سوال دیگری است که من داشتم: توزیع نرمال مجانبی از طریق قضیه حد مرکزی در آنجا باید تخمینگر را برای $p$ (به معنی $p$ برای موفقیت) محاسبه می کردم و توزیع آن را با تقریب با یک نرمال تقریب می زدم. توزیع اکنون می خواهم توزیع دقیق $p$ را بدست بیاورم. من قبلاً راهنمایی زیر را دریافت کردم: شما شکل تابعی $\hat{p}$ را دارید. ببینید چگونه توزیع یک تابع از یک متغیر تصادفی گسسته را استخراج می کنیم. متأسفانه من را به راه حلی هدایت نکرد ...
|
چگونه می توان توزیع دقیق p تخمین زده شده را برای توزیع دو جمله ای بدست آورد؟
|
61348
|
من چولگی 0.5- در باقیمانده ها دارم که به نظر نمی رسد بعد از استفاده از log/root بهبود چندانی پیدا کند. آیا این یک نگرانی عمده است؟ تستهای مربوط به هماسکاداستیسیته، چند خطی بودن، پرتها همگی خوب به نظر میرسند. شاید تفسیر رگرسیون با استفاده از خطاهای استاندارد قوی کمک کند.
|
چولگی در باقیمانده ها
|
26363
|
من سعی می کنم از یک تبدیل سینوس هذلولی معکوس برای کاهش اثر نقاط پرت در متغیر هدفم استفاده کنم. متأسفانه، به نظر نمی رسد به مقالات اولیه آن دسترسی داشته باشم. من فرمول را پیدا کردم اما مطمئن نیستم که چگونه پارامتر تتا را برای آن تخمین بزنم. کسی میدونه؟ با تشکر
|
تبدیل سینوس هذلولی معکوس: تخمین تتا
|
1378
|
من مجموعه داده ای دارم که شامل 7500 آزمایش خون از 2500 نفر است. من سعی می کنم بفهمم که آیا تنوع در آزمایش خون با فاصله زمانی بین دو آزمایش افزایش می یابد یا کاهش می یابد. به عنوان مثال - من خون شما را برای آزمایش پایه میگیرم، سپس بلافاصله نمونه دوم را میگیرم. شش ماه بعد یک نمونه دیگر می کشم. ممکن است انتظار داشته باشیم که تفاوت بین آزمون های پایه و تکرار فوری کمتر از تفاوت بین آزمون پایه و آزمون شش ماهه باشد. هر نقطه در نمودار زیر نشان دهنده تفاوت بین دو آزمون است. X تعداد روزهای بین دو آزمون است. Y اندازه تفاوت بین دو آزمون است. همانطور که می بینید، آزمون ها به طور مساوی در طول X توزیع نمی شوند - این مطالعه در واقع برای پاسخ به این سوال طراحی نشده است. از آنجایی که نقاط به شدت در میانگین انباشته شده اند، من 95٪ (آبی) و 99٪ (قرمز) خطوط کمیت را بر اساس پنجره های 28 روزه گنجانده ام. بدیهی است که اینها توسط نقاط شدیدتر کشیده می شوند، اما شما این ایده را دریافت می کنید.  به نظر من تغییرپذیری نسبتاً پایدار است. در غیر این صورت، زمانی که تست در مدت کوتاهی تکرار شود، بیشتر می شود - این بسیار غیر منطقی است. چگونه می توانم به روشی سیستماتیک به این موضوع بپردازم و n را در هر نقطه زمانی متفاوت در نظر بگیرم (و برخی دوره ها بدون هیچ آزمونی)؟ ایده های شما بسیار قابل تقدیر است. فقط برای مرجع، این توزیع تعداد روزهای بین آزمون و آزمایش مجدد است: 
|
تخمین تغییرپذیری در طول زمان
|
55753
|
من سعی می کنم چند جمله ای مرتبه دوم را جا بزنم. پیش بینی های خود را در مرکز و مقیاس قرار می دهم و داده ها را با استفاده از تابع lm برازش می کنم. من «خلاصه (مناسب)» را انجام دادم. برای 3 تا از متغیرهایم، من NA را در تمام ستونها از جمله تخمین، p-value و غیره دریافت کردم. بنابراین، من از R استفاده میکنم و از تابع `lm` به صورت fit1<- lm استفاده کردم (y ~ x11+x22 + I(x11^2 ) +I(x22^2) +I(x11*x22) ) خروجی که دریافت کردم این است: فراخوانی: lm(فرمول = y ~ x11 + x22 + I(x11^2) + I(x22^2) + I(x11 * x22)) باقیماندهها: حداقل 1Q میانه 3Q حداکثر -0.33889 -0.21371 0.01898 0.15166 0.47933 Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 2.57956 0.05367 48.062 <2e-16 *** x11 -0.13097 0.05329 -2.458 0.0194 * x22 NA NA NA NA I (30.501) 2.437 0.0204 * I(x22^2) NA NA NA NA I(x11 * x22) NA NA NA NA --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 بنابراین، به طور خلاصه، متغیرهای x22، x22-square و تعامل x1*x2 NA را در تمام ستونها نشان میدهد. آیا برای به دست آوردن NA خطایی وجود دارد یا فقط باید فرض کنم که پیش بینی هایی که تخمین ها برای آنها NA است، ناچیز هستند؟ از کمک شما متشکرم
|
آیا این یک خطا است یا خیر؟
|
51073
|
آیا منطقی است که به نمودار پراکنده میانگین ها در مقابل انحرافات استاندارد از نظر جستجوی نقاط پرت یا تغییر نگاه کنیم؟ بنابراین میانگین روی محور x و انحراف معیار روی محور y است. ما یک خوشه از داده ها را دریافت خواهیم کرد که داده های مشابه را نشان می دهد (میانگین و انحراف استاندارد نسبتاً یکسان). توجه داشته باشید که من حجم نمونه یا مشاهدات فردی را که این میانگین ها و انحرافات استاندارد از آن محاسبه شده اند، نمی دانم.
|
ابزارهای رسم و انحراف معیار
|
22470
|
فقط یک سوال ساده در مورد انتخاب پارامتر برای SVM ها. اگر برای یافتن پارامترهای بهینه برای مجموعهای از دادهها از یک الگوریتم حداقل یافتن استفاده کنم، چگونه میتوانم پارامترها را در مجموعهای از اجراهای اعتبارسنجی متقاطع «میانگین» کنم تا بهترین پارامترها را برای اجرای مجموعه آزمایشی خود به دست بیاورم؟ هنگام انجام اعتبارسنجی متقاطع X-fold، من می توانم به سادگی میانگین تناسب مدل را برای هر مجموعه پارامتر ببینم، اما مطمئن نیستم که چگونه این کار را با حداقل الگوی یافته انجام دهم. با تشکر
|
SVM و اعتبار سنجی متقابل با حداقل الگوریتم یافتن
|
32539
|
من دو متغیر دارم که هر کدام سه سطح دارند (کم، متوسط و زیاد). من میخواهم بتوانم آزمایش کنم که آیا روند معنیداری بین دو متغیر وجود دارد یا خیر، یعنی وقتی x بالا میرود یا خیر. به نظر میرسد که آزمونهای روندی که من همه آنها را بررسی کردهام، دارای یک متغیر با 2 سطح و دیگری با n سطح هستند. در اینجا نمونه ای از جدول فرکانس داده های من است: mat <- structure(c(20, 19, 6, 10, 22, 4, 0, 12, 4), .Dim = c(3L, 3L), .Dimnames = list(c(low_1، medium_1، high_1)، c(low_2، medium_2، high_2))) اگر یک تابع برای آن در R وجود دارد که مفید خواهد بود.
|
آزمون روند برای دو متغیر ترتیبی که هر دو شامل سه عامل هستند
|
51074
|
در اینجا چیزی است که من دارم: یک مجموعه آموزشی مقیاس بندی شده، با برچسب. تصاویر بخشبندی شده، که از آنها بردارهای جدیدی را برای طبقهبندی استخراج میکنم. طبقه بندی کننده من یک KNN است که بدیهی است با استفاده از مجموعه آموزشی من آموزش داده شده است. حالا، من تعجب می کنم که چگونه باید بردارهای جدیدی را که به دست آوردم، مقیاس کنم. آیا این درست است که آنها را به تنهایی مقیاس کنیم یا باید کار دیگری انجام دهم؟ برای مثال نمیدانم که آیا یک نقطه پرت بر مقیاسبندی و طبقهبندی بعدی تأثیر میگذارد... [ویرایش] افزودن یک نقطه پرت (که میخواهم با استفاده از الگوریتم kNN آن را تشخیص دهم) به دادههای آزمون، بر مقیاسبندی تأثیر میگذارد، بنابراین طبقهبندی بعدی برنده شد. درست کار نمی کند اونوقت باید چیکار کنم؟ [ویرایش 2] به این ترتیب دادههایم را مقیاسبندی میکنم:  که در Scilab به آن ترجمه میکنم: function dataout = scaledata(datain) dataout = صفر (اندازه (داده، 1)، اندازه (داده، 2)); برای i=1:size(datain,2) dataout(1:size(datain,1),i) = (datain(1:$,i) - min(datain(1:$,i))) / .. (حداکثر(داده(1:$,i)) - min(داده(1:$,i))); endfunction با تشکر از شما
|
چگونه می توان داده های جدید را در زمانی که یک مجموعه آموزشی از قبل وجود دارد، مقیاس بندی کرد
|
40853
|
من می خواهم 2 طبقه بندی کننده مختلف را برای یک مسئله طبقه بندی متن چند کلاسه که از مجموعه داده های آموزشی بزرگ استفاده می کند، مقایسه کنم. من شک دارم که آیا باید از منحنی های ROC یا منحنی های یادگیری برای مقایسه 2 طبقه بندی کننده استفاده کنم. از یک طرف، منحنیهای یادگیری برای تعیین اندازه مجموعه داده آموزشی مفید هستند، زیرا میتوانید اندازه مجموعه دادهای را پیدا کنید که در آن طبقهبندیکننده یادگیری را متوقف میکند (و شاید کاهش یابد). بنابراین بهترین طبقهبندی در این مورد ممکن است طبقهبندیکنندهای باشد که با کوچکترین اندازه داده به بالاترین دقت برسد. از سوی دیگر، منحنیهای ROC به شما امکان میدهند نقطهای با مبادله مناسب بین حساسیت/ویژگی پیدا کنید. بهترین طبقهبندی در این مورد فقط طبقهبندیکنندهای است که به قسمت بالا سمت چپ نزدیکتر است، با بالاترین TPR برای هر FPR. آیا باید از هر دو روش ارزیابی استفاده کنم؟ آیا ممکن است روشی با منحنی یادگیری بهتر منحنی ROC بدتری داشته باشد و بالعکس؟
|
ارزیابی طبقهبندیکنندهها: منحنیهای یادگیری در مقابل منحنیهای ROC
|
55758
|
من یک جمعیت کامل متشکل از 6587 فرد (ژن) دارم و برای هر فرد یک مقدار فاصله دارم. این مقادیر فاصله معمولاً توزیع نمی شوند. من علاقه مند به تعیین این هستم که آیا نمونه ای از 348 نفر (که مقدار فاصله متوسط کمتری در مقایسه با مقدار میانگین فاصله از جمعیت کامل دارد) به طور قابل توجهی متفاوت از حد انتظار است یا خیر. من پیشینه آماری محدودی دارم و از مشاوره در مورد اینکه از چه آزمون آماری استفاده کنم سپاسگزارم. ایده ها عبارتند از: 1. دو آزمون t نمونه (احتمالاً درست نیست، زیرا توزیع نرمال نیست) 2. آزمایش جمع رتبه ویلکاکسون (دوستش این را پیشنهاد کرد) 3. آزمایش دیگری که اجرای آن در R 4 آسان است. تست سفارشی - یکی ایده من این بود که به طور تصادفی 348 نفر (با جایگزینی) را انتخاب کنم و میانگین فاصله آنها را تعیین کنم. سپس این کار را 1000 بار تکرار کنید (من فکر می کنم به این می گویند بوت استرپینگ). من این کار را انجام دادم و یک توزیع نرمال از مقادیر با میانگین 32000 (همان میانگین جمعیت) و sd = 2000 دریافت کردم. میانگین مقدار فاصله برای نمونه واقعی 348 نفر 18000 بود. بنابراین با مقدار p 1 دنباله از نرمال توزیع میانگین 32000 و sd=2000 معنی دار به نظر می رسد. پیشاپیش از هر راهنمایی متشکرم!
|
جمعیت با توزیع شناخته شده (غیر نرمال) در مقابل نمونه کوچک
|
110308
|
من روی تطبیق یک مدل GEE با یک نتیجه لجستیک چند جمله ای با استفاده از بسته R geepack کار می کنم. درک من این است که بسته از glm برای تناسب با فرمول استفاده می کند. با این حال، از آنچه من می توانم ببینم، glm خانواده ای برای یک نتیجه چند جمله ای ندارد، فقط دو جمله ای است. چگونه میتوانید یک معادله لجستیک چند جملهای را با استفاده از «gee» در R تنظیم کنید؟ با تشکر
|
رگرسیون لجستیک چند جمله ای با geepack در R
|
56226
|
من با بسیاری از موارد مشکل رگرسیون بزرگ دارم، اما متغیرهای مستقل نسبتا کمی دارند. یکی از آنها یک عامل طبقه بندی شده با هزاران سطح است. رگرسیون قوی برای همیشه اجرا می شود. در برخی موارد، تعداد زیادی از متغیرهای ساختگی برای محاسبه حتی با lm عادی بسیار پراکنده می شود. چیزی که معمولاً منطقی است این است که به نوعی میانگین را برای هر سطح از عامل محاسبه کنیم، سپس متغیر وابسته را متناسب با آن تنظیم کنیم، و رگرسیون را بدون عامل بزرگ انجام دهیم. یکی از همکاران من می تواند به خاطر بیاورد که یک تابع دو حرفی R وجود دارد که این کار را به صورت خودکار انجام می دهد، اما او نمی تواند ترکیب دو حرف را به خاطر بیاورد. هر گونه کمکی بسیار قدردانی خواهد شد.
|
خلاص شدن از شر یک عامل طبقه بندی بزرگ در رگرسیون چندگانه
|
55756
|
من علاقه مند به کسب اطلاعات بیشتر در مورد آزمایش مدل پروبیت دو متغیره با یک رگرسیون درمان درون زا هستم. من چیزهایی را کشف کرده ام - خلاصه در زیر، زیرا چیز زیادی در مورد این موضوع نمی بینم - اما سؤالات دیگری باقی می ماند. تنظیمات اینجاست. فرض کنید من یک نتیجه باینری $y_1$ دارم که به $x_1$، خطای $\varepsilon_1$ و نشانگر درمان باینری $y_2$ بستگی دارد، که خود به $x_2$ بستگی دارد، و $z$ و خطای $\varepsilon_2$. وابستگی به شکل $y_1=\mathbb{1}(\beta_1'x_1+\alpha y_2+\varepsilon_1>0)$ و $y_2=\mathbb{1}(\beta_2'x_2+\gamma z+\varepsilon_2>0) است. .$ خطاهای دو معادله با $\rho$ همبستگی دارند. من در آزمایش مفروضات: 1. نرمال بودن دو عبارت خطا 2. $\rho=0$ 3. همسانی خطاها 4. برون زایی و ابزار ضعیف برای معادله درمان، نرمال بودن را می توان با خوبی آزمایش کرد. آزمون امتیاز رائو / مورفی برازش که توسط چیبوریس و همکارانش توضیح داده شده است. (2011) و چیبوریس (2010)، که کد Stata را ارائه می دهند (`scoregof`). این آزمون با افزودن پارامترهای بیشتر به مدل، توزیع نرمال دو متغیره را در خانواده بزرگتری از توزیع ها تعبیه می کند و بررسی می کند که آیا پارامترهای اضافی با استفاده از امتیاز پارامترهای اضافی در تخمین biprobit صفر هستند یا خیر. هنگامی که کشش یا چولگی بیش از حد در توزیع خطا وجود داشته باشد، رد می شود. آنها یک نوع تست Hosmer-Lemeshow را برای انجام این کار بر اساس شبیه سازی توصیه نمی کنند. همبستگی بین خطاها را می توان با استفاده از آزمون نسبت درستنمایی بر اساس این ایده آزمایش کرد که اگر $\rho=0$ باشد، احتمال ورود به سیستم برای پروبیت دو متغیره برابر با مجموع احتمالات ورود به سیستم از 2 پروبیت تک متغیره خواهد بود. . اگر خطاهای ساندویچ Huber/White را محاسبه کنید، این یک تست والد می شود. برخی از سوالات باقی می ماند. 1. در صورت استفاده از خطاهای قوی، آیا باید نگران ناهمگنی باشم؟ چگونه می توانم برای این تست کنم؟ 2. آیا می توانم هتروسکداستیکی را از اثرات درمان های ناهمگن متمایز کنم؟ 3. آیا می توانم از تشخیص خطی IV (مانند تست های ابزار ضعیف) برای بررسی مدل پروبیت غیر خطی استفاده کنم؟ آیا چیز بهتری وجود دارد؟ این برای من عجیب به نظر می رسد زیرا آنها اثرات درمانی متفاوتی را تخمین می زنند. 4. آیا چیزهای دیگری وجود دارد که باید بررسی کنم که از آنها بی اطلاعم؟
|
پروبیت دو متغیره با آزمایش متغیر کمکی درون زا
|
114683
|
من میخواهم یک مدل 3 سطحی (سالهای خوشهبندی شده در مناطق خوشهبندی شده در شهرستانها) را بر اساس دادههای لیلاند (مرگ در انگلستان و ولز، 1979-1992 مقدمهای بر مدلسازی چندسطحی با استفاده از MlwiN) با استفاده از R تخمین بزنم. من 3 پیشبینیکننده دارم. (سال ۷۹ (در سطح ۱)، سال ۷۹۲ (در سطح ۱) و خانواده (در سطح ۲)). سال 792 فقط مربع سال 79 است. من می خواهم شیب سال را بین واحدهای سطح سوم (شهرستان) تغییر دهم. من از کد زیر استفاده کردم اما مطمئن نیستم که درست باشد: fit7<-lmer(smr ~ year79 + year792 + family + (1 | شهرستان/منطقه ) + (سال79 | شهرستان)، data=Imdp، REML=FALSE)
|
مدل 3 سطحی با شیب تصادفی در R
|
93227
|
فرض کنید من از دادههای «Sonar» استفاده میکنم و میخواهم یک اعتبار سنجی در R انجام دهم. من دادهها را با استفاده از «createFolds» از بسته «caret» بهعنوان «folds <\- createFolds(mydata$) تقسیمبندی کردم. کلاس، k=5)`. سپس میخواهم دقیقاً از «mydata[i]» بهعنوان دادههای آزمایشی استفاده کنم و یک طبقهبندی کننده را با استفاده از «mydata[-i]» بهعنوان داده قطار آموزش دهم. اولین فکر من استفاده از تابع قطار بود، اما نتوانستم هیچ پشتیبانی برای اعتبار سنجی نگهدارنده پیدا کنم. منظورم این است که من نمی خواهم داده هایم را پارتیشن بندی کنم و سپس تمام ترکیب ها را برای تخمین دقت متوسط آزمایش کنم، می خواهم فقط یک بار آن را آموزش دهم. آیا من اینجا چیزی را از دست داده ام؟ همچنین، من میخواهم به جای اینکه تابع دادهها را پارتیشن بندی کند، بتوانم دقیقاً از تاهای از پیش تعریف شده به عنوان پارامتر استفاده کنم. آیا کسی نظری دارد؟ پیشاپیش ممنون
|
نحوه اجرای اعتبار سنجی نگهدارنده در R
|
114688
|
من در حال مطالعه کتاب مقدمه ای بر یادگیری آماری: با برنامه های کاربردی در R هستم، در صفحه 66 در حالی که کتاب نحوه محاسبه $\beta_0$ و $\beta_1$ را توضیح می دهد، از نحوه محاسبه واقعی صرف نظر می کند و فقط معادلات را نشان می دهد. آنها را محاسبه کرده و سپس نتیجه را در صفحه بعد بدست آورید. وقتی $\sigma^2$ محاسبه شد گم شدم. من نمی دانم چگونه محاسبه شده است، همانطور که از کتاب نقل می کنم: > به طور کلی $\sigma^2$ مشخص نیست، اما می توان از روی داده ها تخمین زد. > این تخمین به عنوان خطای استاندارد باقی مانده شناخته می شود و با فرمول > $\text{RSE} = \sqrt\frac{RSS}{n-2}$ ارائه می شود، بنابراین من $\sigma^2$ را به عنوان $ محاسبه کردم. \text{RSE} = \sqrt\frac{RSS}{n-2}$ که «3.258» را به دست میدهد اما وقتی سعی میکنم از این مقدار به جای استفاده کنم، جمع نمیشود. $\sigma^2$ در معادلات (3.8) در همان صفحه. P.S: این مثال متعلق به مجموعه داده های تبلیغاتی است و فروش (Y) به عنوان تابعی از تبلیغات تلویزیونی (X) است. در اینجا موجود است
|
محاسبه واریانس (تخمین خطای استاندارد)
|
93229
|
من سعی می کنم از بسته fitdistrplus در R استفاده کنم تا یک توزیع غیر استاندارد را در مجموعه داده خود جای دهم. من سعی می کنم روش هایی را کپی کنم که سازندگان بسته در آموزش خود برای تعیین توزیع Gumbel استفاده کرده اند اما متأسفانه نمی توانم این کار را انجام دهم. (مستندات بسته را می توان در این pdf پیدا کرد.) بنابراین مشکل من این است که تابع CDF و تابع چگالی خود را دارم که استاندارد نیستند: $ \begin{align*} H_{G}(x)&=\frac{ 1}{P(1)}\left[ \frac{\Phi^{3}\left( \frac{x-\mu}{\sigma}\right)}{6}-\frac{\delta}{ 2} \Phi^{2}\left( \frac{x-\mu}{\sigma}\right)+\left( \frac{\delta^{2}}{2} + \beta\right) \Phi\ left( \frac{x-\mu}{\sigma}\right)\right]\\ h_{G}(x)&= \frac{1}{\sigma P(1)}\left[ \frac{\left[ \Phi^{2}\left( \frac{x-\mu}{\sigma}\right)\right] }{2}-\delta \Phi\left( \frac{x- \mu}{\sigma}\right)+\left( \frac{\delta^{2}}{2} + \beta\right) \right] \phi\left( \frac{x-\mu}{\sigma}\right) \end{align*}$ with $ P(1)= \left[ \frac{1}{6}-\frac{\delta}{2} +\left( \frac{\delta^{2}}{2} + \beta\right) x\right] $ و \begin{equation*} \Phi(\dfrac{x-\mu}{\sigma} ) =\frac{1}{\sqrt{2\pi}}\int^{x}_{-\infty}e^{-\frac{\left(t-\mu\right) ^{2}}{ 2\sigma^{2}}}dt \qquad \text{and} \qquad \phi(\dfrac{x-\mu}{\sigma}) =\frac{1}{\sqrt{2\pi}}e^{-\frac{\left(x-\mu\right) ^{2}}{2\sigma^{2}}}. \end{معادله*} و در اینجا تعدادی از کد من است: ###### من چگالی خود را در گامبل تعریف میکنم ###### ds <- function(u,a,e,mu,sigma){ P = تابع(a,e){ (( (1/6)*(1^3) ) - ((a/2)*(1^2)) + (((((a)^2)/2 ) + e)*1)) } D = تابع(u,mu,sigma){ (1/((sigma)*sqrt(2*pi)))*exp(-(((u-mu)^2)/( 2*(سیگما^2)))) } K = تابع(u,a,e){ (((1/2)*(u^2))- (a*u) +(((a^2) /2)+e)) } H = تابع (u,mu,sigma){ pnorm(u,mu,sigma) } Fprim = تابع (u,a,e,mu,sigma){ (1/P(a,e))*(D( u,mu,sigma))*(K(H(u,mu,sigma),a,e)) } return(Fprim) } ###### من تابع CDF خود را در گامبل تعریف می کنم ###### ps <- function(u,a,e,mu,sigma) { S = function(u) (((1/6)*(u^3)) - ((a/2)* (u^2)) + ((((a)^2)/2)+e)*u))/(((1/6)*(1^3)) - ((a/2)* (1^2)) + ((((a)^2)/2)+e)*1)) cdf = S(pnorm(u, mu, sigma)) return(cdf) } ###### تابع چندک خود را به صورت تعریف می کنم در آدامس ###### qs <- function(u,a,e,mu,sigma) optimize(function(z) (ps(z)-u)^2, c(-10,10))$minimum ###### تخمین MLE با استفاده از fitdist و mledist ###### fgu <- fitdist(X, s, start=list(a=0.035, e= 0.005، mu=-0.52، سیگما=1) mledist(X، s، start=list(a=0.035، e=0.005، mu=-0.52، سیگما=1))
|
بسته fitdistrplus
|
104473
|
به عنوان یک تکلیف کاری، از من خواسته شده است که تعداد بهینه SKU را برای یک گروه محصول تعیین کنم. من تصمیم گرفتم با استفاده از یک رگرسیون خطی ساده با فروش به عنوان متغیر وابسته و # SKU و # SKUها به عنوان متغیرهای مستقل من، با این Q مقابله کنم. مجموعه داده های من بخشی از فروش فروشگاه و تعداد SKU برای هر فروشگاه است. هنگامی که من رگرسیون را اجرا می کنم و ضرایب مثبت را برای هر دو SKU و # SKU مجذور می کنم، مشکل ایجاد می شود (من فکر می کنم بازده کاهشی با یک ضریب منفی برای متغیر مجذور مشخص می شود). من گمان می کنم که فروش برای فروشگاه های بزرگتر نسبت به فروشگاه های کوچکتر از # SKU بیشتر است و شاید به همین دلیل است که ضریب من منطقی نیست. من به دنبال پیشنهادهایی در مورد مشخصات مدل یا راههایی برای استاندارد کردن فروشگاهها هستم (اگر راه حل این باشد). مجموعه دادههای من حدود 600 فروشگاه دارد و به این فکر کردم که گروه را بر اساس اندازه فروشگاه محدود کنم، اما فروشگاههای با اندازه مشابه معمولاً تعداد SKUهای یکسانی دارند. من همچنین به استفاده از یک سری زمانی فکر کردم، اما داده های سالانه من فقط به یک دهه یا بیشتر برمی گردد. من همچنین در این زمینه بی تجربه هستم و نگران هستم که آن را به درستی مدل نکنم. ممنون از هر راهنمایی به سلامتی،
|
مشکل در شناسایی بازده های کاهش یافته از SKU های اضافی
|
51075
|
فرض کنید باید «ttest bhar12=0» را اجرا کنم و خروجی به صورت زیر باشد: آزمون t یک نمونه ---------------------------- ------------------------------------------------ متغیر | Obs Mean Std. اشتباه Std. توسعه دهنده [95% Conf. فاصله] ---------------------------------------------- ------------------------------ bhar12 | 124 -.0325875 .0751874 .8372516 -.1814163 .1162414 ------------------------------------------------ ----------------------------- میانگین = میانگین(bhar12) t = -0.4334 Ho: میانگین = 0 درجه آزادی = 123 هکتار: معنی < 0 Ha: mean != 0 Ha: mean > 0 Pr(T <t) = 0.3327 **Pr(|T| > |t|) = 0.6655** Pr(T > t) = 0.6673 اگر می دانستم توزیع برای `bhar12` دارای انحراف مثبت است، چگونه می توانم یک ttest برای دریافت **Pr(|T| > |t|) بوت استرپ انجام دهم. ارزش **؟
|
چگونه p-value را در ttest در Stata بوت استرپ کنیم؟
|
56221
|
من ناامیدانه به دنبال کمک آماری با داده هایم هستم، زیرا خودم نمی توانم مطالب نظری را که اخیراً در مورد باقیمانده ها، توزیع های مربع کای، مقادیر z-مقدار مجذور دیگر خوانده ام به مشکل خود منتقل کنم. بنابراین من واقعاً از کسی ممنونم که در این زمینه به من کمک کند: من 2 توزیع را با 4 دسته با استفاده از آزمون دقیق فیشر مقایسه کردم - این تفاوت معنی دار بود. حالا می خواستم بدانم کدام دسته مسئول تفاوت هستند. به طور خاص، من علاقه مند بودم که در کدام یک از 4 دسته، مقادیر مشاهده شده با آنچه انتظار می رفت متفاوت است. بنابراین من باقیمانده های استاندارد شده یا مقادیر z مربع را محاسبه کردم (اگر درست باشد؟) ، مانند این: (مشاهده - انتظار می رود) طبقه بندی مربع / مورد انتظار: 1; 2 3;4 مشاهده شده: 4; 7; 5 56 مورد انتظار: 1.4; 3.2; 4.6; 62.8 z-squared: 4.8; 4.5; 0.03; 0.73 از این رو، از آنچه من از این مثال می فهمم، مقادیر مشاهده شده و مورد انتظار در دسته 3 و 4 آن متفاوت نیستند، اما در دسته 1 و 2 خوب هستند. اما حالا اعداد دقیقا به چه معنا هستند؟ آیا با توجه به اینکه مقایسه با تعداد افراد در هر دسته سروکار دارد، اطلاعات احتمالی را منتقل می کنند؟ من در مورد هر توصیه ای بسیار خوشحال خواهم شد. با احترام، یوهانا
|
تست دقیق پست فیشر - چگونه وزن را در محدوده تفاوت های دسته بندی کنیم؟
|
110303
|
من به تازگی در برنامه کارشناسی ارشد آمار در دانشگاه ویلانوا (یک دانشگاه منطقه ای برتر در شمال ایالات متحده) و در دانشگاه تمپل (یک دانشگاه سطح سوم ملی) پذیرفته شدم. میخواستم بدونم کسی میتونه منو راهنمایی کنه که کدوم دانشگاه رو انتخاب کنم. ویلانوا برنامه دکترا در آمار ندارد و فقط کلاس های شبانه را برای دانشجویان کارشناسی ارشد ارائه می دهد، که به این معنی است که اکثر دانشجویان آن حرفه ای هستند. برنامه آن در گروه ریاضی است. Temple یک برنامه دکترا دارد و دانشجویان کارشناسی ارشد در صورت تمایل می توانند دوره های دکترا را بگذرانند. این برنامه توسط دپارتمان آمار که در دانشکده بازرگانی است اجرا می شود. هزینه برنامه در Temple حدود 45000 دلار است، در حالی که در Villanova هزینه آن حدود 25000 دلار است. سوابق تحصیلی من در اقتصاد است و تجربه تحقیقاتی در مدل سازی و تحلیل داده های اقتصادی دارم. من در اواسط دهه 40 هستم. هر گونه پیشنهاد قدردانی می شود. به روز رسانی: از آنجایی که من نمی توانم نظر بگذارم، بنابراین برخی از کلمات را اینجا تایپ می کنم. من سوال را اینجا ارسال می کنم زیرا یک بار یک پست مرتبط را در اینجا خواندم که در زیر لینک داده شده است (متشکرم، کاردینال). همچنین، نظرات افراد با سابقه علمی در آمار (کارشناسی ارشد یا دکترا) ممکن است تا آنجا که به سؤال من مربوط می شود، نسبت به نظرات افراد در رشته های کاملاً متفاوت مرتبط باشد.
|
برنامه کارشناسی ارشد آمار در یک دانشگاه برتر منطقه ای 1 در مقابل یک دانشگاه سطح 3 ملی
|
110301
|
من این رگرسیون خطی را انجام دادم که نشان میدهد مکانهای تخمینی حیوانات (طول جغرافیایی) چقدر مکانهای واقعی حیوانات را پیشبینی میکنند. تخمین <- c(-1.514276، -1.513683، -1.514253، -1.514207، -1.513557، -1.513634، -1.513870، -1.511210، -1.51151515، -1.511515، 7.71- -1.511802، -1.509500، -1.510037، -1.510214) واقعی <- c(-1.514255، -1.514053، -1.514527، -1.514223، -1.513513، -1.513672، -1.513514، -1.513672، -1. -1.511118، -1.511567، -1.511658، -1.511585، -1.511830، -1.509438، -1.509843، -1.510080) lm_طول طولی <- lm_ll)تختاری (کلی) lm(فرمول = برآورد ~ واقعی) باقیمانده ها: حداقل 1Q میانه 3Q Max -2.630e-04 -3.825e-05 8.945e-06 6.530e-05 1.645e-04 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 0.09325 0.02706 3.445 0.00435 ** برآورد 1.06167 0.01790 59.325 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.000112 در 13 درجه آزادی. آمار: 3519 در 1 و 13 DF، p-value: < 2.2e-16 همانطور که می بینید، مکان های تخمینی پیش بینی کننده های بسیار خوبی برای مکان های واقعی هستند. من در ابتدا از نمودار باقیمانده در برابر مقادیر برازش نگران شدم. به نظر می رسد که باقیمانده هایی را نشان می دهد که با مقادیر برازش همبستگی دارند: library(ggplot2) df_lm_longitude <- ggplot2::fortify(lm_longitude) ggplot(df_lm_longitude، aes(.fitted، .resid)) + geom(+)_moint توضیحات تصویر را وارد کنید اینجا](http://i.stack.imgur.com/0c7Hk.jpg) اما مقیاس محور y را تغییر دهید، و نمودار باقیمانده در مقابل مقادیر برازش عالی به نظر می رسد: ggplot(df_lm_longitude, aes(.fitted, .resid)) + geom_point() + stat_smooth() + ylim(-0.01، 0.01)  بنابراین یکی از مفروضات رگرسیون خطی این است که باقیمانده ها نباید با مقادیر برازش همبستگی داشته باشند. در مدل بالا، باقیمانده ها با مقادیر برازش در مقیاس بزرگ همبستگی دارند. اما در مقیاس کوچک بزرگنمایی کنید، و باقیمانده ها اصلا با هم مرتبط نیستند؟ از چه وضوحی باید برای محور y در نمودار باقیمانده در برابر مقادیر برازش استفاده کنم؟
|
از چه وضوحی باید برای نمودارهای باقیمانده در مقابل مقادیر برازش از رگرسیون خطی استفاده کنم؟
|
56220
|
$U_i \sim^{iid} برنولی(\pi)$ را در نظر بگیرید. همچنین در نظر بگیرید: $$Y_i | U_i = 0 \sim exp(1/\gamma) \text{ و } Y_i | U_i = 1 \sim exp(1/2\gamma) $$ روش برآوردگرهای لحظه ای $\pi \text{ و} \text{ }\gamma$ چیست؟ راه حل من این است: $E(U_i) = \pi \Rightarrow \hat{\pi_{MOM}} = \bar{U} = \sum U_i / n$ $E(Y_i) = E(E(Y_i | U_i )) = \gamma (1 + \pi) \Rightarrow \hat{\gamma_{MOM}} = \frac{\sum Y_i / n}{1 + \hat{\pi_{MOM}}}$ آیا برآوردهای بالا درست است؟
|
روش برآوردگر لحظه ای
|
37683
|
من داده هایی دارم که چندین سال را در بر می گیرند: 2006-2010. من رگرسیون لجستیک را برای مدل سازی داده ها اجرا کرده ام. برای کل مجموعه داده، من یک فاصله اطمینان 95% برای **نسبت شانس** یک پارامتر مورد علاقه (0.34 - 0.47) دریافت می کنم که نشان دهنده یک اثر بسیار مهم است. با این حال، برای هر سال جداگانه، با مشخصات مدل یکسان، فواصل اطمینان عبارتند از: 2006: (0.78 - 1.94) (غیر قابل توجه) 2007: (0.61 - 0.93) 2008: (0.63 - 0.90) 2009: (0.92 - 1). (مهم نیست) 2010: (0.88 - 1.33) (مهم نیست) چگونه می توانم تطبیق دهم که فاصله اطمینان برای کل مجموعه داده کمتر از فواصل اطمینان برای همه سال های فردی باشد؟ من حدس میزنم که این مربوط به اندازههای نمونه باشد - اندازههای نمونه بزرگتر که منجر به مقادیر p پایینتر میشود: فکر میکنم ریاضیات پشت آن را میدانم، اما نمیتوانم شهود پشت آن را دریافت کنم. **به روز رسانی1** در پاسخ به پاسخ های مایکل و پیتر، اطلاعات بیشتری ارائه می کنم. این مدل عبارت است از: مرگ ~ درمان + سن + دارو + سیگار + داروها + بیماری های همراه یادداشت ها: 1. مرگ دوتایی است 2. درمان دوتایی است - چه درمان A یا درمان B داده شده باشد. این پارامتر مورد علاقهای است که من فواصل اطمینان را برای آن ارائه کردهام (که با نشان دادن CI برای تخمین +/- 1.96xSE به دست آوردم) 3. سن سن در سال 4 است. imd یک شاخص وضعیت اجتماعی-اقتصادی برای بیمار 5 است. استعمال دخانیات مقوله ای است و دارای سطوح مختلفی است که به وضعیت سیگار کشیدن بیماران مربوط می شود. 6. کلینیکی مجموعه ای از اقدامات بالینی است مانند ضربان قلب، فشار خون. 7. داروها مجموعه ای از متغیرهای کمکی دوتایی است که نشان می دهد آیا داروی خاصی داده شده است یا خیر. : به عنوان مثال آسم، دیابت در مدل کلی من سال را به عنوان متغیر کمکی در نظر نگرفتم - از فرمول مدل یکسان برای داده های زیر مجموعه و کل داده ها استفاده شد. هیچ مشکلی با هم خطی بودن بین متغیرهای پیوسته وجود ندارد، اما من در مورد ارتباط بین متغیرهای طبقه بندی کمتر مطمئن هستم. فکر میکنم این میتواند یک مشکل باشد اما نمیدانم چگونه با آن مقابله کنم - برخی از تستهای مجذور کای را امتحان کردم اما هیچ چیز مستقل از هیچ چیز دیگری نبود (من فکر میکردم که ممکن است به دلیل حجم نمونه باشد - طبق گفته معلمم اینطور نیست منطقی نیست که آسم به عنوان مثال با دیابت هم خط باشد) **به روز رسانی2** پس از نظرات بیشتر توسط مایکل، اکنون اطلاعات بیشتری ارائه می کنم... نسبت درمان A/B در طول دوره بسیار تغییر کرده است - بود یک درمان جدید در سال 2006 و به ندرت استفاده می شود، اما اکنون درمان انتخابی است: 2006: 555 از 11505 2007: 2810 از 12307 2008: 5669 از 13243 2009: 912146 از 912146 از 15,573 به طور کلی: 30,643 از 92,767 میزان مرگ و میر تغییر چندانی نکرده است (حدود 7٪ در کل)
|
درک نتایج رگرسیون زمانی که داده ها زیر مجموعه هستند
|
77054
|
من یک دوازده وجهی معمولی (قاتل 12 طرفه) را 1200 بار می چرخانم. من باید فاصله ای پیدا کنم که در آن تعداد کل نتایج اعداد اول با احتمال 95٪ باشد. من باید از قضیه حد مرکزی (CLT) استفاده کنم. من مطمئن نیستم که چگونه از CLT استفاده کنم، اما روشی را توسعه داده ام که چگونه می تواند کار کند. از شما می خواهم آن را بررسی کنید و به من بگویید که آیا درست است یا اشتباه است و چگونه باید باشد. و همچنین سؤالاتی وجود دارد که می خواهم بپرسم. راه حل من: $n = 1200$ ... تعداد رول ها اعداد اول در دوازده وجهی 2،3،5،7،11 هستند، بنابراین احتمال $q$ از چرخش یکی از اعداد اول $\frac است {5} {12}$. برای توزیع جایگزین، میانگین برابر با $q$ و واریانس $q(1-q)$ است. بنابراین ما دریافتیم: $\mu = \frac {5}{12}$ $\sigma^2 = \frac {35}{144}$ سپس همانطور که CLT می گوید، می توانیم یک تقریبی برای توزیع این متغیر تصادفی بدست آوریم. $X$ با توزیع عادی ($X_n$). این متغیر تصادفی دارای پارامترهایی خواهد بود: $EX = n \cdot \mu = 1200 \cdot \frac {5}{12} = 500$ $DX=n \cdot \sigma^2 = 1200 \cdot \frac {35}{ 144} $ و متغیر تصادفی مورد نظر ما این است: $X_n = \frac {X-EX}{\sqrt{DX}}$ میدانم که برای احتمال 95% به آن نیاز دارم، بنابراین در جداول آماری آن را برای تابع چندک توزیع نرمال استاندارد شده جستجو میکنم و $\ را پیدا میکنم. Phi^{-1}(0.950) = 1.645$، که X_n$ است. $\frac {X-EX}{\sqrt{DX}} = 1.645$ و من این را برای $X-EX$ $X-EX = 1.645 \cdot \sqrt{DX} = 1.645 \cdot \sqrt{1200 \ حل کردم cdot \frac {35}{144} } = 28.09$. با احتمال 95% تعداد مقادیر با اعداد اول در 1200 رول دوازده وجهی منظم در بازه $ \left[EX-28 ... EX+28\right] $ خواهد بود. من معتقدم این نتیجه درست نیست. باید مقداری نابرابری وجود داشته باشد، درست است؟ کدام و چرا؟ یعنی... احتمال 95 درصد و بیشتر است یا 95 درصد و کمتر؟ و سوال دوم این است: چگونه فاصله بین EX و X را گرد کنیم؟ یعنی... همه پایین، یا 0.4 پایین، 0.5 بالا؟ در نابرابری چبیشف که مشخص است، به دلیل نابرابری در فرمول. اینجا من گیج شدم و همچنین میخواهم در مورد نقش استانداردسازی در اینجا، در صورت وجود، چیز بیشتری بدانم. از آنجایی که جداول تابع چندکی توزیع نرمال **استاندارد شده** نامیده می شوند، $X_n$ باید در واقع استاندارد شود، به هر معنی که باشد.
|
قضیه حد مرکزی - تخمین بازه
|
60123
|
چه زمانی از مخرج $\sigma$ بر مخرج $\sigma /\sqrt{n}$ استفاده می شود؟ چرا دو فرم جداگانه وجود دارد و چرا یکی دقیقاً شبیه نمره t است؟ آیا برخی از نویسندگان هر دو امتیاز t و z را امتیاز z می نامند؟
|
تنوع فرمول Z-Score
|
60124
|
یک سوال کوتاه در مورد ساخت یک «ساختگی گمشده» که در نتیجه آن را به رگرسیون لجستیک خود اضافه خواهم کرد. این گمشده، به مواردی که دادههای مربوط به یک متغیر خاص وجود ندارد، مقدار «1» و به مواردی که دادهها دارند، مقدار «0» میدهد. من از این دستور در SPSS استفاده کرده ام، اما به نوعی مقادیر از دست رفته شناسایی نمی شوند. (نسخه 204 (-2 -1=1)(else=0) را به authomis بازنویسی کنید). جدولبندی متقابل v204 و authomis نشان میدهد که گمشده-دوممی فقط دارای یک رده '0' است، صرف نظر از این واقعیت که بیش از 400 مورد (در مجموع 40000) وجود دارد که در متغیر v204 وجود ندارد. آیا این به نحوه علامت گذاری موارد گمشده در متغیر v204 مربوط می شود؟ دلیل دیگری به ذهنم نمی رسد. امیدوارم بتوانید. پیشاپیش ممنون
|
ساخت ساختگی گمشده. چرا SPSS موارد گمشده را شناسایی نمی کند؟
|
25129
|
با توجه به یک _نمونه جزئی_ از مقادیر یک مجموعه (اندازه شناخته شده)، چگونه می توان پایین ترین/بالاترین مقدار را در مجموعه _کل برون یابی کرد؟_
|
کمترین/بالاترین مقدار را از نمونه جزئی برون یابی کنید
|
104470
|
هنگام مقایسه واریانس ها، اغلب از آزمون F استفاده می شود. $$F=\frac{s_1^2}{s_2^2}$$ سپس $F$ را با یک توزیع F مقایسه میکنیم. فرض این آزمون این است که دو نمونه (که واریانس آنها $s_1^2$ و $s_2^2$ هستند) به طور معمول توزیع شده اند. **می توانید توضیح دهید که چرا (با توجه به اینکه دو نمونه به طور معمول توزیع می شوند) $\frac{s_1^2}{s_2^2}$ F-توزیع شده است؟** اگر اشتباه نکنم، اگر $U_1$ و $ U_2$ مجذور کای هستند که به ترتیب با درجه آزادی $df_1$ و $df_2$ توزیع شده اند، سپس $\frac{U_1/df_1}{U_2/df_2}$ توزیع F-توزیع شده است. من واقعاً قدردان پاسخی هستم که همچنین کلماتی را بین پیوند بین توزیع کای دو و توزیع F بیان کند.
|
F-test و F-distribution
|
26360
|
این یک سوال مصاحبه است. در ابتدا n توپ سفید وجود دارد. هر روز مجاز به گرفتن یک توپ هستید. اگر توپ در دست سفید است، آن را با توپ قرمز جایگزین کنید. اگر رنگ آن قرمز است، آن توپ را بدون انجام کاری داخل کیسه قرار دهید. سوال این است که احتمال داشتن k توپ قرمز بعد از d روز را پیدا کنیم. راه حل کلی را که با ساختن یک درخت دودویی شروع کردم، ارائه دهید. در ابتدا در روز اول n توپ سفید داریم، زمانی که 1 توپ را انتخاب می کنیم و قانون را اعمال می کنیم. 1 توپ قرمز و (n-1) توپ سفید در روز دوم 1 توپ را انتخاب کنید، ممکن است سفید یا قرمز باشد. اگر رنگ سفید را انتخاب کنیم با 2 توپ قرمز و (n-2) توپ سفید در غیر این صورت 1 توپ قرمز و (n-1) توپ سفید باقی می ماند. این دو گره دوباره هر کدام دو فرزند برای روز سوم خواهند داشت. 1 با 3 توپ قرمز و (n-3) توپ سفید، دیگری با 2 توپ قرمز و (n-2) توپ سفید و غیره اما این یک فرمول بازگشتی مستقیم، آیا راه حل بهتری وجود دارد؟ فکر کنم با برنامه نویسی پویا حل بشه ولی نمیتونم برنامه نویسی پویا رو با احتمال وصل کنم. آیا ایده ای برای انجام این کار دارید؟ همچنین کسی می تواند به من کمک کند که چگونه احتمال در این سوال محاسبه می شود؟ در آخر، آیا کسی می تواند منبع خوبی برای مطالعه سوالات برنامه نویسی مبتنی بر احتمال به من بدهد؟
|
احتمال داشتن k توپ قرمز بعد از d روز را پیدا کنید
|
60128
|
من یک مجموعه (تقریباً 12000) مقادیر همبستگی دارم. تجزیه و تحلیل همبستگی ما اجازه همبستگی منفی را نمی دهد (ما با امواج سینوسی همبستگی داریم، بنابراین به جای همبستگی منفی، به سادگی با فاز مخالف همبستگی مثبت داریم). این یک توزیع از مقادیر r مثبت را تولید می کند. ما به طور سنتی این توزیع را با استفاده از (در متلب) به z-scores تبدیل می کنیم: zVal = sqrt(degreesOfFreedom)/2 * log((1+rVal) ./ (1-rVal)); جایی که «سیگما = sqrt(درجات آزادی)» و «z = 1/2 * log((1+rVal) ./ (1-rVal))» من تقریباً مطمئن هستم که این محاسبه «درست» است، اگرچه مشکوک هستم این نامناسب است زیرا مقادیر r به طور معمول توزیع نمی شوند (آزمون KS نیز ناموفق است). در مرحله بعد، با استفاده از: pVal = 1 - normcdf(abs(zVal), 0, 1) را به مقادیر p تبدیل می کنیم. # توزیع نرمال w را فرض می کند. mean = 0، sigma = 1 سوال من این است که اگر مقادیر r شما از یک توزیع نرمال گرفته نشده باشد، آیا محاسبه بالا مقادیر p نادرستی را به شما می دهد؟ من با مقاومتی از سطوح بالاتر مواجه می شوم، اما تقریباً مطمئن هستم که این اشتباه است. این چیزی است که دادهها به نظر میرسند:  آیا درست میتوانم بگویم «normcdf» مسئول تعداد زیادی از موارد بسیار مهم است؟ آیا راهی برای شناسایی مستقیم مقادیر p از یک توزیع دلخواه وجود دارد؟ با توجه به انحراف باورنکردنی در توزیع مقادیر p، اکثر روشهای اصلاح مقایسه چندگانه آستانههای p نسبتاً آزاد تولید میکنند.
|
مقادیر P از توزیع غیر نرمال
|
25121
|
الگوریتمهای تقویتکننده، مانند AdaBoost، چندین طبقهبندی ضعیف را برای تشکیل یک طبقهبندی قویتر ترکیب میکنند. اگرچه در تئوری تقویت باید با هر طبقهبندی پایه امکانپذیر باشد، اما در عمل به نظر میرسد که طبقهبندیکنندههای مبتنی بر درخت رایجترین هستند. چرا این است؟ چه ویژگی هایی از طبقه بندی کننده های درختی آنها را برای این کار مناسب تر می کند؟ آیا طبقهبندیکنندههای پایه دیگری وجود دارند که از تقویت نیز بهره زیادی ببرند؟ من با در نظر گرفتن مشکلات طبقه بندی می پرسم، اما همچنین علاقه مند به پاسخ هایی در مورد برنامه های رگرسیون هستم.
|
طبقه بندی پایه برای تقویت
|
25122
|
از پرسیدن چنین سوال کلی متنفرم، اما به طور کلی آنقدر با آمار ناآشنا هستم که نمی دانم چه چیزی را جستجو کنم و پاسخ آن را از کجا پیدا کنم. من می خواهم یاد بگیرم که چگونه خطاها را دستکاری کنم. مثلاً اگر من یک تابع $f\left(x,y,z\right)$ داشتم و میدانستم $\sigma_x,\sigma_y,\sigma_z$، خطای $\sigma_{f}$ چیست.
|
دستکاری ریاضی منابع خطا
|
108145
|
تصور کنید من یک مسابقه بین 2 نوع مورچه ترتیب دادم. نوع A و B. در پایان مسابقه، رتبهبندی را دارم که چیزی شبیه به این است: 1 A1 2 A3 3 B5 4 A4 5 B2 ... جایی که در A1، A نوع مورچه است و 1 شناسه مورچه مورچه ها در طول مسابقه بین یکدیگر تداخل ندارند. اگر نسبت A یا B را هر 10 درصد از رتبه بندی رسم کنم، این را نشان می دهد (داده های جعلی):  شاید نمودار نواری در اینجا بهتر باشد . اما باید آن را به صورت زیر بخواند: 1000 مورچه در مسابقه وجود دارد، من به طور دلخواه رتبه را به 10 تقسیم می کنم. وقتی * N = 1، یعنی 100 مورد اول است، 54 B و 46 As وجود دارد. * N = 2، 50 As و Bs وجود دارد * N = 3، 55 As و 45 Bs * N = 4، 61 As و 39 Bs * و غیره. سوال من این است: من به تازگی نتایج رتبه بندی دارم و می خواهم بدانم که آیا برخی از تعصبات در رتبه بندی به عنوان تابعی از نوع وجود دارد. به عنوان مثال برای یک مورچه، می توان پیش بینی کرد که در کجا قرار می گیرد؟ به عنوان مثال، چگونه می توانیم بگوییم که آیا مورچه های A در رسیدن به موقعیت های اول بسیار خوب هستند 10٪، و B-ant ها در رسیدن به 30-50٪ رتبه بسیار خوب هستند یا نه، اما هر دو به یک اندازه خوب هستند. در عملکرد بد (من نمی خواهم برای این آزمایش انجام دهم، اما چگونه می توانم به نتایجی از این دست برسم). من تکرارهای زیادی از این آزمایش دارم. من واقعا نمی دانم چگونه برای این مورد آزمایش کنم. من به این فکر می کردم: * تقسیم رتبه به N قسمت (چگونه N را انتخاب کنیم؟) * ~~ انجام یک تست $\chi^{2}$ برای هر قسمت، که در آن انتظار دارم 50٪ از نوع A و B تحت فرضیه صفر باشد. .~~: خیر چون قطعات وابسته هستند. * من نمی دانم. چگونه انجام می دهید، و چرا؟ توجه داشته باشید که رتبه بندی شامل مقادیر (به عنوان مثال زمان) نمی شود، بنابراین ما فقط اطلاعات رتبه بندی را داریم. در صورتی که ما ارزش زمانی را داشته باشیم، اگر متفاوت باشد، چگونه این کار را انجام می دهید؟ من قدردانی می کنم که مشکل را دوباره بیان کنید، زیرا من آمارگیر نیستم و این مانع از جستجوی من در کتاب ها می شود (چون نمی دانم کجا جستجو کنم) با تشکر
|
مقایسه عملکرد در طول مسابقه بین 2 گروه، از کدام آزمون استفاده کنم؟
|
22473
|
من سعی می کنم با صدای بلند این مشکل را حل کنم. من در آمار عالی نیستم اما گاهی اوقات سعی می کنم بفهمم اوضاع کجاست و به کجا می رود. من سعی می کنم بهترین روش را برای مقایسه دو مجموعه داده زیر پیدا کنم. اولی مشاهدات واقعی و دومی چیزی است که حسگر من مقدار را تعیین کرده است. اساساً یک شی در طول سنسور با ویژگیهایی حرکت میکند. هر شی می تواند از 2 تا 5 جزء داشته باشد. ما ارزش دقیق هر یک از آن اجزا را می دانیم. جدول بزرگ زیر نتایج دادههای حاصل از اجرای آن اشیا روی حسگر را نشان میدهد. مشاهدات مستقل هستند، بنابراین مشاهده 5 هیچ تأثیری بر مشاهده 26 ندارد. مجموعه داده دارای 31 شی در خود است، و هر شی با استفاده از حسگر اندازه گیری شد. ما خصوصیات دقیق شی را می دانیم و آن را در قسمت واقعی قرار دادم **توجه:** مجموع = 1 + 2 + 3 + 4 + 5 تمام آنچه که من سعی می کنم بفهمم که آیا سنسور کافی بود یا خیر آیا نیاز به کالیبراسیون بیشتری دارد؟ روش قدیمی انجام کارها این بود که میانگین اختلاف کمتر از 5 درصد را به دست آوریم تا قابل قبول باشد. من با آن روش موافق نیستم زیرا معتقدم مستعد خطا است و ماهیت اندازه گیری ها را در بر نمی گیرد. بنابراین، من در حال بررسی ابزارهای تجزیه و تحلیل داده های بهتر برای مشکل هستم. **فرضیه ها:** 1. آیا سنسور به اندازه کافی کار می کند؟ 2. آیا تفاوت آماری کلی بین مقادیر واقعی و سنسور وجود دارد؟ 3. آیا بین هر جفت مشاهده شده تفاوت آماری وجود دارد؟ 4. اهمیت در کدام نقطه شکسته می شود؟ یعنی در کدام فاصله اطمینان دو مجموعه داده متفاوت می شوند؟ **تحلیل:** اولین کاری که انجام دادم مقایسه میانگین تفاوت ها برای هر ستون بود. من همچنین میانگین تفاوت های مطلق را انجام دادم و در اینجا نتایج آمده است: تفاوت بین واقعی و سنسور (%) مجموع 1 2 3 4 5 میانگین تفاوت 1.06 2.80 -4.00 7.12 -10.86 17.01 میانگین تفاوت abs 7.31 6.96 .1025 .6. این اعداد واقعاً چیز زیادی به من نگو، اما آنها تا حدودی یک مقایسه مرتبط را نشان می دهند. سپس آزمایش t دو زوجی را با استفاده از آلفا = 0.05 با نتایج زیر انجام دادم: df میانگین میانگین واقعی سنسور Var واقعی سنسور پیرسون t stat P 1 tail t Crit 1 tail P 2 tail t Crit 2 tail مجموع 30 37,858 89,829,589 89,829,589 77,766,451 0.9463 1.4871 0.0737 1.6973 0.1474 2.0423 1 30 5,411.61 5,261 254,000 407,118 0.7101876.020 0.0435 2.0423 2 30 15,246 15,719 4,762,169 3,878,279 0.7845 -1.9103 0.0328 1.6973 0.0657 2.0657 2.024237 2.024236 40,196,438 33,216,653 0.4268 2.0742 0.0239 1.7033 0.0477 2.0518 4 1 6,770.00 7,600 14,257,810,800 20 -1.5661 0.1809 6.3138 0.3618 12.7062 5 1 5,910.00 4,900 64,800 0.00 N/A 5.6108 0.0561 6.31332 0.110. برای کل ، ، 4 و 5 به طور قابل توجهی متفاوت است. آیا در تحلیل درست هستم؟ سپس برای مقایسه آن نتایج، تجزیه و تحلیل آزمون F را برای دو وسیله انجام دادم. توجه داشته باشید که من مطمئن نبودم که آیا باید آزمون F را انجام دهم یا خیر، اما این کار را برای مقایسه واریانس انجام دادم. من به این نتیجه رسیدم که طبق آزمون F، به نظر می رسد که واریانس من در همه حساب ها بالا است که نتایج از نظر آماری معنی دار هستند. F P 1 دم F Crit 1 دم مجموع 1.1551 0.3477 1.8409 1 0.6239 0.1011 0.5432 2 1.2279 0.2887 1.8409 3 1.0299 0.469 0.469 0.469 0.4427 0.0062 5 65,535 N/A 161.4476 **جدول داده** مشاهده سنسور واقعی مجموع 1 2 3 4 5 مجموع 1 2 3 4 5 1 36820 5860 14840 1620120 14800 2 42530 5160 12000 9840 9440 6090 43300 5200 13100 9200 10800 4900 3 48650 4770 18260 2501 18260 4770 18260 2501 29000 4 42290 5020 16080 21190 48800 5600 18400 24800 5 40530 5350 15670 19510 37800 4800 171406 171406 16000 20470 41500 5700 17100 18700 7 35210 5310 15150 14750 34000 5100 15600 13300 8 36150 55201
|
تعیین روش مناسب برای مقایسه داده های مشاهده شده با داده های اندازه گیری شده
|
25125
|
من قصد دارم همه اینها را با گفتن این که وقتی صحبت از تجزیه و تحلیل آماری بزرگ به میان میآید، بسیار پیادهرو هستم، مقدمه میکنم. من تقریباً 11 هزار رویداد مجزا و یک امتیاز مربوطه دارم. من همچنین تقریباً 500 ویژگی باینری دارم. هر رویداد برای یک تا شش ویژگی مثبت است. چگونه می توانم سعی کنم روابط بین متغیرها و امتیاز را بفهمم؟ از چه ابزاری (ترجیحاً منبع باز) استفاده کنم؟ یا این واقعا چیزی است که من باید کسی را برای انجام آن استخدام کنم. باید توجه داشته باشم که من با اکسل بسیار خوب هستم و تجربه برنامه نویسی خوبی دارم.
|
چگونه روابط بین 500 ویژگی باینری و امتیاز پیوسته مربوطه را ارزیابی کنم؟
|
51070
|
فرض کنید من یک بردار از مقادیر q دارم، که با کنترل نرخ کشف نادرست، امکان انجام آزمایش چند فرضیه را فراهم می کند. معمولاً این مقادیر q از توزیع مقادیر p تولید می شوند. با این حال، اگر توزیع p-value اصلی را نداشته باشم، فقط بردار مقادیر q را نداشته باشم، چه؟ آیا راهی برای تبدیل از مقادیر q به مقادیر p وجود دارد؟
|
چگونه می توانم توزیع q-value را به توزیع p-value تبدیل کنم؟
|
60127
|
مدل آماری برای طرح _کامل تصادفی_ $y_{ij} = \mu + \tau_i + \epsilon_{ij}$ که در آن $i$ نشان دهنده درمان و $j$ نشان دهنده مشاهده است. $i=1,2,...,k\quad و \quad j=1,2,..., n_i$ $y_{ij}$ یک متغیر تصادفی باشد که نشاندهنده پاسخ بهدستآمده در مشاهده $jth$ است. از درمان $ith $. $\mu$ میانگین کلی پاسخ $y_{ij}$ $\tau_i$ تأثیر بر پاسخ درمان $ith$ است. $\mu_i = \mu + \tau_i$ در اینجا $\mu_i$ نشان دهنده پاسخ _واقعی_ درمان $ith$ است. و $\epsilon_{ij}$ عبارت خطای تصادفی است که نشاندهنده منابع تغییرات مزاحم است، یعنی تغییرات ناشی از عواملی غیر از درمانها. فرض $\epsilon_{ij}\sim^{iid} N(0,\sigma^2)$ است چرا باید $\epsilon_{ij}\sim^{iid} N(0,\sigma^ را فرض کنیم؟ 2) دلار؟ یعنی _ اهمیت این فرض چیست؟ اگر آن را فرض نکنیم، چه تأثیری خواهد داشت؟
|
اهمیت فرض نرمال بودن در مدل های آماری خطی
|
114686
|
سلام، میخواستم بفهمم که چگونه میتوانم خطای زیر را بفهمم، فرض کنید $y=x+e$ که e یک خطای i.i.d است. بگویید $x \sim N(\mu,\sigma_1^2)$ و $e \sim N (0, \sigma_e^2)$ که به معنای $y \sim N (\mu, \sigma_1^2+\sigma_e^ 2) دلار. من باید مقدار مورد انتظار y را با شرط $y>\mu$ پیدا کنم. من می دانم که فرمول y در pdf معمولی ضرب می شود، اما خروجی واقعی چقدر است. همانطور که در اینجا، من می توانم انتگرال را تنظیم کنم، اما نمی توانم آن را محاسبه کنم. من می دانم که پاسخ این خواهد بود ($\mu$+something) فقط نمی دانم آن چیزی چیست. با تشکر
|
انتظارات مشروط
|
113425
|
من از LMM در lmer استفاده می کنم. برای یافتن بهینه ترین مدل، مدل های سه سطحی را با دو سطح با استفاده از تابع ANOVA مقایسه می کنم. اگر معلوم شد که بین این دو تفاوت معنی داری وجود ندارد، من مدل دو سطحی را با مدل یک سطح مقایسه می کنم. فرمول های من به این صورت است: lmer1 <- lmer(peak_Mid ~ (1| مورد) + (1+صدا|سخنگو) + جنسیت*صدا*زبان، data=data.frame، REML=FALSE، na.action=na.omit ) lmer2 <- lmer(peak_Mid ~ (1|مورد) + (1+واکه|گوینده) + جنس + صدادار + زبان + زبان: مصوت + زبان: جنس + مصوت: جنسیت، داده=داده.فریم، REML=FALSE، na.action=na.omit) anova(lmer1,lmer2) lmer3 <- lmer(peak_Mid ~ (1| مورد) + (1+صدا|گوینده) + جنس + مصوت + زبان، داده=داده.فریم، REML=FALSE، na.action=na.omit) anova(lmer2,lmer3) سپس فرض کنید که بهترین مدل مدل دو سطحی است که به این معنی است که تعاملات معنی دار هستند. من مقایسه زوجی را با استفاده از: lsmeans(lmer2, pairwise ~ language*vowel, adjust=tukey) lsmeans(lmer2, pairwise ~ language*gender, adjust=tukey) انجام خواهم داد اما در واقع می خواهم بدانم که آیا هر جفت از گروههای زبانی در زمینههای مشابه با یکدیگر متفاوت هستند، مانند هندی و چینی با حروف صدادار بالا که توسط سخنرانان زن صحبت میشود. نتایج حاصل از lsmeans (lmer2، دو به دو ~ زبان*صدا، تنظیم = tukey) فقط زبان x واکه را مقایسه می کند، در حالی که نتایج lsmeans (lmer2، جفت ~ زبان*جنس، تنظیم = tukey) به من می دهد. من فقط مقایسه زبان x جنسیت. سوال من این است که آیا می توانم این دو مقایسه را در یافته ها ترکیب کنم؟
|
آیا می توانم دو مقایسه زوجی را ترکیب کنم؟
|
18770
|
بی زحمت مرا به جایی راهنمایی کنید که می توان پاسخ آن را پیدا کرد، اما من مدتی است که سرم را به این موضوع کوبیده ام و به شما مردم خوب متوسل شده ام: سناریو: من یکسری داده های دو بعدی غیر انحصاری دارم (داده های مکان) برای چندین هزار مشاهدات منحصر به فرد از موضوعات مستقل: موضوع 1، رده A، نوعB، توزیع_دوبعدی موضوع2، رده B، نوعB، توزیع_دوبعدی Subject3، CategoryA، TypeA، توزیع_دوبعدی و غیره... توزیع دو بعدی کاملاً ساده است که فقط شامل سه مختصات x و y ممکن با حضور(1)/غیبت(0) برای هر کدام است. به عنوان مثال: C----0-----1-----1 B----1-----1-----0 A----1----- 0-----0 -----X-----Y-----Z اگر همه obs ها را ترکیب کنم، نتیجه چیزی شبیه به C---15%----62%-- است. -25٪ B---10%---35%---12% الف----9%---11%----7% -----X-----Y---- -Z چگونه می توانم ANOVA/MANOVA را انجام دهم تا به تأثیر «دسته» و «نوع» بر توزیع ها نگاه کنم و مشخص کنم که آیا تفاوت قابل توجهی در توزیع بین گروه ها وجود دارد یا خیر. بیت مشکل: * توزیع فرکانس برابر با 100٪ نیست (زیرا هر مشاهده می تواند در بیش از یک مکان حضور داشته باشد.) در نهایت من می خواهم این را از طریق R اجرا کنم - بنابراین اگر ایده ای در آن جهت دارید. اگر این سوال کاملاً عابر پیاده است، عذرخواهی می کنیم. با تشکر از کمک شما.
|
ANOVA با متغیر(های) وابسته به عنوان توزیع دو بعدی؟ آیا ممکن است؟
|
100433
|
همانطور که در زیر نشان داده شده است، سعی می کنم TMin1array را از Tarray کم کنم. آیا کسی می داند چرا آرایه به دست آمده همه 0 ها را برمی گرداند؟ Tarray و Tmin1array از نوع double هستند. 
|
R: سری زمانی: تفاوت آرایه ها به جای تفاوت واقعی 0 را برمی گرداند
|
56227
|
سعی می کنم ماتریس کوواریانس خود را درک و تجسم کنم. فرض کنید ماتریس A = [ 2 3 4; 5 5 6 ]`، چگونه ماتریس کوواریانس آن را محاسبه کنم و معنای عملی آن چیست؟ (تمام چیزی که تا الان توانستم بفهمم این است که در مورب ماتریس کوواریانس، واریانسهایی برای متغیرهای خاص قرار میگیرد و در قسمتهای بالا و پایین همبستگی بین آن متغیرها قرار میگیرد.)
|
توضیح ماتریس کوواریانس
|
76333
|
اجازه دهید $(\Omega,\mathcal B,P)$ یک فضای احتمال باشد. من دو سوال (مرتبط) دارم. با فرض اینکه $g:\mathbb{R}\to\mathbb{R}$ قابل اندازهگیری بورل است، و درک اینکه $$E(g(X)) = \int_{\Omega}g(X(\omega))dP (\omega)،$$ چگونه ثابت کنم که این برابری ها برای دو شرایط زیر برقرار است؟ اول، $X$ گسسته است، با محدوده $\{x_{i}:i\in \mathbb N\}$. سپس $$E(g(X))=\sum_{i=0}^{\infty}g(x_{i})P(X=x_{i}),\ \ \text{ ارائه شد } \sum_{ i=0}^{\infty}|g(x_{i})|P(X=x_{i})<\infty.$$ دوم، $X $ کاملاً پیوسته با چگالی $f.$ است سپس $$E(g(X))=\int g(x)f(x)dx\ \ \text{ ارائه شده }\int |g(x)|f(x)dx<\infty.$$
|
من می خواهم ثابت کنم که این تعاریف ارزش مورد انتظار برقرار است
|
104476
|
من در چند هفته گذشته در مورد نظریه پاسخ آیتم مطالعه کرده ام و می خواهم از آن برای بررسی نحوه عملکرد ترازو خود استفاده کنم. دسته های پاسخ به ترتیب هستند. اگر به خوبی متوجه شده باشم، مدل پاسخ درجه بندی شده به ویژه جذاب است زیرا نسبت به سایر گزینه ها مانند مدل اعتبار جزئی یا مدل مقیاس رتبه بندی انعطاف پذیرتر است و پارامترهای سختی متفاوت در هر دسته در هر مورد و پارامترهای تبعیض متفاوت را ارائه می دهد. برای هر مورد علاوه بر این، من مطمئن هستم که دستههای پاسخ مرتب شدهاند (درجات مختلفی از توافق را با یک عبارت بیان میکنند) بنابراین لاجیت تجمعی به جای مدلهای دسته مجاور کافی به نظر میرسند. (هر چند ممکن است در بخش های مختلف این استدلال اشتباه کنم!). 1) آیا راهی برای جا دادن مدل های پاسخ درجه بندی شده در Stata 13 وجود دارد، شاید با استفاده از دستور gsem یا gsem builder؟ اگر چنین است، آیا کسی میتواند درباره نحوه انجام آن و نحوه پردازش خروجیها برای ترسیم منحنیهای پاسخ دسته، توابع اطلاعات آیتم و عملکرد خطای استاندارد اندازهگیری برای مقیاس توضیح دهد؟ 2) اگر با gsem نمیشه با glamm هم میشه کرد؟ در این مقاله نحوه تطبیق PCM و RSM اما نه مدلهای پاسخ درجهبندی شده توضیح داده شده است. این پست نشان میدهد که میتوان این کار را با گزینه thresh() انجام داد، تا فرض/محدودیت شانس متناسب را کاهش دهد، اما من هیچ سرنخی در مورد آنچه که باید در گزینه thresh() قرار دهم، ندارم. به نظر می رسد باید معادلاتی را برای آستانه ها تعریف کنم، و باز هم در اینجا بی اطلاع هستم. 3) سوال آخر من یک سوال مفهومی است: اگر به خوبی متوجه شده باشم، مدل پاسخ درجه بندی شده یک پارامتر تبعیض برای هر مورد و پارامترهای سختی C-1 برای دسته های پاسخ C ارائه می دهد. آیا مدلی وجود دارد که پارامترهای «تبعیض» متفاوتی را برای هر دسته پاسخ نیز ارائه دهد؟ آیا این یک مدل اسمی خواهد بود؟ چرا منطقی است که پارامترهای تبعیض را برای دسته های مختلف پاسخ یک آیتم یکسان کنیم؟ (شاید این واقعا یک محدودیت نیست؟)
|
آیا می توان یک مدل پاسخ درجه بندی شده را در Stata جا داد؟
|
110306
|
فرض کنید که ما 2 مجموعه داده داریم $X = x_1، \dots، x_n$ و $Y = y_1، \dots، y_m$ و یک آزمون $T$ که فرضیه صفر را آزمایش می کند که این داده ها از توزیع **با همان میانه **. $T$ می تواند به عنوان مثال آزمون Mann-Whitney U یا آزمون رتبه امضا شده Wilcoxon باشد (اگر داده های جفت شده داشته باشیم). از نظر برنامه نویسی $T$ تابعی است که دو نمونه می گیرد و **یک p-value را برمی گرداند** $$ p := T(X,Y) $$ حال فرض کنید می خواهیم $X$ و $ را با هم مقایسه کنیم. Y$ **از نظر کمی**. مثلاً میخواهیم بگوییم: > در سطح معنیداری 5%، میانه X$ حداقل 5 برابر بزرگتر از $Y$ است، اما نه بیش از 7 برابر بزرگتر. برای انجام این کار می توانیم فرضیه هایی را برای مضرب های مختلف $Y$ آزمایش کنیم: $$ p(c) := T(X, cY) $$ سپس مقادیر p را رسم می کنیم و چیزی شبیه به این می گیریم:  برای مقادیر بسیار بزرگ و بسیار کوچک $c$، p-value به سطحی کاهش مییابد که با اندازه نمونه تعیین میشود، در حالی که جایی در وسط خواهد بود. یک حداکثر جهانی متصل داشته باشید. اگر سطح معناداری خاصی را انتخاب کنیم، آنگاه مجموعه $I_s$ تعریف شده توسط $$ I_s := \{c\in \mathbb{R} \text{ به گونهای است که } p(c) > s \} $$ فاصله $[a; b]$ و می توانیم بگوییم: > در سطح معنی داری 5%، میانه $X$ حداقل $a$ برابر بیشتر است > از $Y$ اما نه بیش از $b$ برابر بزرگتر. اما ما فقط چه کردیم؟ آیا فاصله اطمینان را برای میانه $\frac{\textbf{x}}{\textbf{y}}$ پیدا کردیم که در آن $\textbf{x, y}$ متغیرهای تصادفی زیرین هستند؟ یا این روش شناسی ناقص است؟ آیا چنین روشی در جایی در ادبیات وجود دارد؟ آیا راه بهتری وجود دارد؟
|
آیا این روش برای یافتن فاصله اطمینان صحیح است؟
|
82526
|
من یک نمونه تصادفی $(X_1, X_2,...,X_n)$ دارم و یک تخمینگر $\bar{X_n}=\sum_{i=1}^{n} X_i$ برای محاسبه اطلاعات فیشر نیاز دارم از $\bar{X_n}$. اطلاعات فیشر به صورت $-E\left(\frac{d^2}{d\theta^2}logL\right)$ تعریف میشود، که در آن $L$ تابع احتمال است. سوال من این است: برای محاسبه اطلاعات فیشر **برآورنده** (نه نمونه تصادفی، بلکه تابعی از نمونه تصادفی)، آیا باید تابع درستنمایی نمونه تصادفی را بگیریم یا تابع درستنمایی توزیع را؟
|
اطلاعات فیشر از یک آمار
|
114684
|
سوال کاملاً کلی است، اما من در حال انجام تحقیقی در رابطه با یادگیری ماشینی تحت نظارت هستم تا دو مجموعه از شخصیت ها را به دو دسته طبقه بندی کنم. در واقع، من می خواهم برخی از معیارهای شباهت بین مجموعه قطار و مجموعه آزمایشی را بر اساس رویکرد N-gram محاسبه کنم. من سعی می کنم منبعی پیدا کنم که برخی از روش های رایج در همان حوزه را در نحوه کشف بهترین مقدار N هنگام استفاده از الگوریتم های N-gram توضیح دهد. می دانم که این یک سوال بسیار کلی است، با این حال، مهمترین چیزی که من به دنبال آن هستم این است که چگونه به طور خودکار بهترین N را بر اساس محاسبات N-1 کشف کنیم تا تصمیم بگیریم که آیا N را افزایش دهیم و دوباره حلقه کنیم یا متوقف کنیم. آیا روش های شناخته شده یا رویکرد رایجی برای انجام این کار به جز استفاده از مجموعه داده توسعه (آزمایش و رفع مقدار N) وجود دارد؟ با احترام
|
انتخاب بهترین مقدار برای N هنگام استفاده از رویکرد N-Gram
|
113428
|
من سعی می کنم برخی از نتایج را در اینجا تفسیر کنم، و فقط می خواهم مطمئن شوم که منطق من درست است. من یک نتیجه باینری را با یک پیشبینیکننده طبقهبندی پیشبینی میکنم (سطح ژن کد شده به صورت 0، 1 یا 2 بستگی به تعداد آللهای خطر موجود دارد). فرضیه من این است که تأثیر ژن بر نتیجه به دلیل تأثیر آن بر متغیر دیگری (مستمر) است، مثلاً سطح گلوکز خون، که به نوبه خود بر CAD تأثیر می گذارد. وقتی من پاسخ را به عنوان تابعی از ژن مدل میکنم، همه چیز خوب است و خیلی خوب پیشبینی میکند (این یک مکان ثابت است). glm(cad ~ gene, Mastersheet, family = binomial) %>% summary() Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 0.002729 0.041267 0.066 0.947 ژن 0.354027 0.032885 10.766 <2e-16 *** وقتی متغیر کمکی خود را در مدل لحاظ کنم، همه چیز خوب است. متغیر کمکی نیز یک پیشبینیکننده ثابت برای cad است. glm(cad ~ gene+glucose, Mastersheet, family = binomial) %>% summary() Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 2.66501 0.10820 24.630 <2e-16 *** ژن 0.33467 0.03813 8.778 <2e-16 *** glucose -2.17507 -2.17507 0.07 <2.17507 -2.17507 0.07 <6 هنگامی که یک اصطلاح تعاملی گنجانده شود، ژن دیگر مهم نیست، اگرچه مدل همچنان وجود دارد. glm (فرمول = cad ~ ژن * گلوکز، خانواده = دوجمله ای، داده = Mastersheet) Estimate Std. خطای z مقدار Pr(>|z|) (برق) 3.2845 0.1920 17.109 < 2e-16 *** gene -0.2306 0.1449 -1.591 0.112 گلوکز -2.6674 0.1401 - 0.1401 -18. 0.4471 0.1108 4.035 5.47e-05 *** من به دنبال کمکی برای تفسیر معنادار این هستم. آیا این بدان معناست که از آنجایی که ژن با فاکتورگیری برهمکنش ناچیز می شود، تأثیر ژن بر CAD به طور کامل توسط تعامل آن با گلوکز انجام می شود؟ من هیچ سوال دیگری مثل این پیدا نکردم، ببخشید اگر تکراری است. از هر کمکی قدردانی می شود! ممنون از وقتی که گذاشتید
|
متغیر کمکی پس از گنجاندن عبارت تعامل دیگر معنی دار نیست
|
104472
|
من یک سیستم امتیازدهی برای صفحات وب بر اساس سطح خوانایی آنها با استفاده از LIX ایجاد می کنم. منتخبی از صفحات از یک وب سایت خزیده شده و امتیاز داده می شود. علاوه بر میانگین و میانه، چه جایگزین هایی برای منعکس کردن امتیاز کل وب سایت با استفاده از نتایج هر صفحه دارم؟
|
عملکرد امتیازدهی صفحه وب بر اساس خوانایی (LIX)
|
60129
|
فرض کنید ما یک آماره آزمایشی داریم که برای آزمایش عدد صفر در مورد دو گروه از نمونه ها طراحی شده است. اگر آزمون جایگشت را برای گروههای نمونه و آماره آزمون اعمال کنیم، آیا فرضیه صفر تغییر میکند؟ آنچه قبلاً در مورد آن شنیده بودم این بود که آزمایش جایگشت این است که آزمایش کند آیا دو گروه نمونه از یک توزیع می آیند یا نه، شاید به معنای متفاوت یکسان. پس یعنی بعد از اعمال تست جایگشت، تهی اصلی عوض میشه؟ به عنوان مثال، زمانی را در نظر بگیرید که آمار آزمون برای آزمایش یکسان بودن مکان دو گروه از نمونه ها است. * در صورتی که میانگین دو گروه نمونه با توزیع نرمال دارای میانگین یکسانی باشند، آمار آزمون t آزمایش می کند. آیا اعمال جایگشت، تهی آن را مثلاً از میانگین مساوی به توزیع برابر تغییر می دهد؟ * اگر دو گروه از نمونهها دارای میانگین رتبههای دو گروه یکسان باشند، آزمون آزمون مجموع رتبهای ویلکاکسون. آیا اعمال جایگشت، تهی آن را، به عنوان مثال، از رتبه میانگین مساوی به توزیع برابر تغییر می دهد؟ تست جایگشت چه چیزی را به آزمون مکان می آورد؟ با تشکر و احترام!
|
آیا آزمون پرموتاتون فرضیه صفر آزمون اصلی را تغییر می دهد؟
|
82527
|
من تعدادی ماتریس فاصله دارم که می خواهم اعضای آنها را با توزیع احتمال مرتبط کنم. آیا روشی وجود دارد که بتواند هر ماتریس فاصله را با یک توزیع مرتبط کند؟ ویرایش: فرض کنید من یک ماتریس فاصله دارم مانند: A1 A2 A3 A4 ... A1 X 1 3 2 A2 1 X 4 3 A3 3 4 X 3 A4 2 3 3 X . . . حالا میخواهم ببینم اگر اعضای این ماتریس از توزیع احتمال باشند، پارامترهای توزیع چیست. من فقط ماتریس را دارم و نمی دانم توزیع داده ها چگونه است.
|
شناسایی توزیع از یک ماتریس فاصله
|
107720
|
من روی یک مسئله رگرسیون لجستیک چند جمله ای کار می کنم که شامل ویژگی هایی از متغیر وابسته است. شاید بهتر باشد که مشکل را با استفاده از مثال در راهنمای _mlogit_ mlogit توصیف کنید. در اینجا اطلاعات آموزشی آمده است،  هدف این است که حالت ماهیگیری را بر اساس سه ویژگی پیش بینی کنید، 1) قیمت، 2) صید - که هر دو به حالت های ماهیگیری انتخاب شده بستگی دارد و 3) درآمد - که خاص فرد است. من می دانم که glmnet رگرسیون لجستیک چندجمله ای انجام می دهد، اما به نظر من مستقیماً برای مشکل من اعمال نمی شود. من همچنین متوجه شدم که mlogit می تواند ویژگی های خاص متغیر وابسته را کنترل کند اما برای ویژگی های پراکنده کار نمی کند. آیا کسی بسته ای را می شناسد که بتوان از آن برای مشکل من استفاده کرد؟ با تشکر
|
رگرسیون لجستیک چند جمله ای با متغیرهای خاص جایگزین
|
82529
|
من بین دو معیار عملکرد برای مدلهای طبقهبندی تعجب میکنم: دقت و مساحت زیر منحنی ROC (AUC)، کدام یک در چه شرایطی ترجیح داده میشود؟ نمونه ها قابل تقدیر است
|
کدام معیارهای عملکرد برای طبقه بندی مدل
|
53345
|
ظاهراً، یک الگوریتم یادگیری هنگام تولید یک فرضیه باید بین سوگیری و واریانس معاوضه ایجاد کند. تعصب به معنای انحراف سیستماتیک از داده ها است. واریانس به خطای ناشی از نوسانات هنگام اعمال فرضیه در مجموعه های آموزشی مختلف اشاره دارد. چرا باید اینجا معامله ای صورت گیرد؟
|
چرا باید بین تعصب و واریانس معاوضه کرد؟
|
65578
|
برای ارزیابی شباهت دنباله ها از چه روش هایی می توان استفاده کرد؟ بیایید بگوییم که ما سه دنباله داریم. من می خواهم بتوانم بگویم که از نظر آماری دنباله شماره 1 و دنباله شماره 3 شبیه هم هستند، اما دنباله شماره 2 از نظر آماری متمایز است. مانند p-value برای تست های آماری.
|
شباهت آماری در توالی ها
|
82835
|
من با 4 مجموعه داده دنباله ای کار می کنم که می خواهم مقایسه کنم. مجموعه داده ها از حدود 150 تا 2000 دنباله متغیر است. من میتوانم از TraMineR روی مجموعههای داده تا 1000 دنباله استفاده کنم، اما وقتی سعی میکنم مجموعه داده را با 2000 دنباله اجرا کنم، حتی ابررایانه دانشگاه ما نمیتواند در کمتر از 36 ساعت کار را تمام کند. از این رو، من نمونه برداری با متغیر id را در نظر دارم. مجموعه داده من به این صورت است: زمان رویداد id 1 ویرایش 1 1 ویرایش 2 2 نظر 3 3 نظر 4 4 بستن 5 اکنون، می خواهم نمونه تصادفی مثلاً 2 را با اعداد شناسه بگیرم. فرض کنید نمونه تصادفی id 1 و 4 را به دست می آورد، سپس نمونه من به این صورت خواهد بود: id event time 1 edit 1 1 edit 2 4 close 5 به عبارت دیگر، من از 2 عدد شناسه نمونه برداری می کنم، اما در واقع 3 می کنم. موارد اکنون به سؤال من می پردازیم: من فقط باید این نمونه برداری را برای 1 مورد از 4 مجموعه داده خود انجام دهم و این کار را به دلایل محاسباتی انجام می دهم. ملاحظاتی که باید در طراحی نمونهگیری لحاظ شود چیست؟ به عنوان مثال: * آیا باید یک نمونه به همان اندازه بزرگ از هر مجموعه داده (% یا N؟) بکشم، حتی اگر در محاسبه مجموعه داده های کوچکتر مشکلی نداشته باشم؟ * حجم نمونه چقدر باید باشد تا بتوانم ادعای تعمیم پذیری داشته باشم؟ * آیا اشکالی ندارد که به سادگی از بزرگترین مجموعه داده نمونهبرداری از هر تعداد موردی که میتوانم انجام دهم، سپس سایر مجموعههای داده را بدون نمونهگیری اجرا کنیم (زیرا آنها به اندازه کافی کوچک هستند که بتوان آنها را محاسبه کرد)، و سپس مقایسهای را در بین هر 3 مجموعه داده انجام داد؟
|
نمونه برداری از داده های توالی
|
82523
|
آیا برگرداندن امتیازهای z به یک مجموعه میانگین و انحراف منجر به مقایسه منصفانه می شود؟ یعنی اگر من 2 گروه داشتم: * گروه 1 میانگین = 76، stdev = 8 * میانگین گروه 2 = 81، stdev = 11. سپس برای مقایسه گروه 1 و 2، نمرات گروه ها را با استفاده از امتیازهای z در برابر میانگین مجموعه برمی گردم. = 70 و stdev = 12.5. آیا این مقادیر نسبتاً قابل مقایسه خواهند بود؟ آیا این روشی منصفانه برای ایجاد یک امتیاز رتبه بندی استاندارد از 100 برای هر فرد است؟
|
Z-scores - مقادیر را به رتبه برمی گرداند
|
93918
|
یک سوال در مورد برابری $$F_{r_{1},r_{2},\alpha}=\frac{1}{F_{r_{2},r_{1},1-\alpha}}$$ ما می دانیم اگر $X\sim\chi^{2}\left(r_{1}\right) ,~Y\sim\chi^{2}\left(r_{2}\right) $ و $X,~Y$ پس مستقل $$\frac{X/r_{1}}{Y/r_{2}}=F\implies\frac{Y/r_{2}}{X/r_{1}}=\frac{1}{F }$$ توزیع شده است. اما چگونه می توانیم به جای $\alpha$، $1-\alpha$ دریافت کنیم. آیا باید این نتیجه را با استفاده از تابع چگالی احتمال و تبدیل ها به دست بیاورم یا توضیح معقول دیگری وجود دارد؟
|
سطح معنی داری برابری توزیع 1/F
|
52034
|
من می خواهم با استفاده از فرآیند زیر یک جنگل تصادفی ایجاد کنم: * ساختن یک درخت بر روی نمونه های تصادفی داده ها و ویژگی ها با استفاده از بدست آوردن اطلاعات برای تعیین تقسیمات * اگر یک گره برگ از عمق از پیش تعریف شده فراتر رفت، خاتمه دهید یا هر گونه تقسیمی منجر شود. در تعداد برگ کمتر از حداقل از پیش تعریف شده * به جای اختصاص یک برچسب کلاس برای هر درخت، نسبت کلاس ها را در گره برگ اختصاص دهید * ساخت و ساز را متوقف کنید درختان پس از ساخته شدن یک عدد از پیش تعریف شده، فرآیند جنگل تصادفی سنتی را به دو روش کاهش می دهد. یکی، از درختان هرس شده استفاده میکند که نسبتها را به جای برچسبهای کلاس اختصاص میدهند. و دوم، معیار توقف، تعداد درختان از پیش تعیین شده است، نه برآورد خطای خارج از کیسه. **سوال من این است:** > برای فرآیند بالا که N درخت را خروجی میدهد، آیا میتوانم مدلی را با استفاده از رگرسیون > _logistic_ با انتخاب LASSO قرار دهم؟ آیا کسی تجربه > نصب طبقه بندی کننده جنگل تصادفی و پس پردازش با LASSO لجستیک را دارد؟ چارچوب ISLE استفاده از LASSO را به عنوان یک مرحله پس از پردازش برای مشکلات رگرسیون ذکر می کند، اما نه مشکلات طبقه بندی. علاوه بر این، هنگام جستجوی کندند تصادفی جنگل هیچ نتیجه مفیدی دریافت نمی کنم.
|
استفاده از LASSO در جنگل تصادفی
|
82832
|
من در حال ساخت یک پیشبینیکننده ریزش هستم که یک سری زمانی را به عنوان ورودی میگیرد و یک پیشبینی باینری را برمیگرداند که نشان میدهد آیا آن حساب در دو هفته آینده خراب میشود یا خیر. من یک مجموعه آموزشی ساختم که شامل دو نوع نمونه سری زمانی بود - سری زمانی حسابهای لغو شده 2 هفته قبل از لغو (یعنی نمونههایی از رفتار ناسالم)، و سریهای زمانی حسابهای فعال فعلی در یک نقطه زمانی تصادفی (یعنی. نمونه هایی از رفتار سالم). سری های زمانی در مجموعه آموزشی 3 هفته است (21 نقطه داده). سپس ویژگیهایی را از این سریهای زمانی در مجموعه آموزشی استخراج میکنم و یک مدل طبقهبندی را آموزش میدهم. سپس، بهصورت دورهای، طبقهبندیکننده را روی یک مجموعه آزمایشی اجرا میکردم که شامل دادههای 3 هفته آخر برای هر حساب فعال فعلی است. نتیجه پیشبینی حسابهایی خواهد بود که گمان میکنم در آینده ایجاد شوند. این یک نمای کلی بسیار گسترده است، اما من نمیدانستم که آیا کسی میتواند خطاها یا بهبودهای احتمالی را در رابطه با این طرح ببیند.
|
بررسی Churn Predictor من
|
93913
|
سوال من مربوط به بخش 2 است که رگرسیون لجستیک چند کلاسه نام دارد، مخصوصا قوانین به روز رسانی. (کل بخش فقط چند پاراگراف است.) همه چیز منطقی به نظر می رسد، اما من نمی دانم که چگونه قرار است الگوریتم شیب صعود را پیاده سازی کند. * $y_i^k$ چیست؟ ابعاد آن چقدر است؟ * ابعاد وزنه ها چقدر است؟ * $x_i$ چیست؟ فرض کنید ماتریسی دارید که در آن هر سطر یک مشاهده و هر ستون یک ویژگی است. $x_i$ چه خواهد بود؟ ردیف است؟ * آیا $p(k|x_i)$ همان چیزی است که $p(y = k|x)$ برای یک مشاهده خاص؟ نکته جانبی: من در حال تلاش برای پیاده سازی یک رگرسیون لجستیک چند کلاسه ساده در متلب هستم.
|
الگوریتم به روز رسانی رگرسیون لجستیک چند کلاسه
|
49047
|
یکی از رایجترین روشهای آماری که مورد سوء استفاده قرار میگیرد، مقیاسبندی است. بیشتر اوقات، ما داده ها را با آگاهی از اینکه در وهله اول از داده های آموزشی پردازش نمی کنیم، عادی می کنیم. من اخیراً LIBSVM را یک ابزار خوب برای انجام ماشین آلات SV پیدا کردم. با این حال، من چندان مطمئن نیستم که آیا با داده های مقیاس بندی در مدل موافق هستم یا خیر. در راهنمای عملی ضمیمه B، نویسنده یک اشتباه رایج در مقیاس بندی داده های آموزشی و آزمایشی را بیان می کند که بر اهمیت استفاده از عوامل مقیاس بندی یکسان برای مجموعه های آموزشی و آزمایشی تاکید می کند؟ آیا همه اینجا با این جمله موافق هستند؟
|
سوالات مقیاس بندی LIBSVM
|
61834
|
من یک نظرسنجی رضایت شغلی انجام داده ام که در آن DV یک مقیاس لیکرت 7 درجه ای و 5 IV با مقیاس لیکرت 6 درجه ای و 6 IV با مقیاس نوع لیکرت 5 درجه است، همه ترتیبی. کدام نوع تحلیل برای این نوع مطالعه مناسب است؟ بین رگرسیون ترتیبی و چندجمله ای کدام یک برای تحلیل IV هایی که DV را پیش بینی می کنند مناسب است؟
|
کدام مدل رگرسیون ترتیبی یا چندجمله ای قابل اجرا است؟
|
2455
|
هرم سنی به این شکل است:  من می خواهم چیزی مشابه بسازم، یعنی یک 2 بار پلات (نه هیستوگرام) با دسته های مشابه، که به صورت عمودی می چرخند. و مانند هرم به دو طرف گسترش می یابد. آیا این یک راه ساده برای انجام این کار در R است؟ همچنین خوب است که رنگ هر نوار را کنترل کنید.
|
چگونه هرم سنی را در R درست کنیم؟
|
52037
|
آیا ماژولی برای پایتون وجود دارد که توزیع ثابت یک زنجیره مارکوف را با توجه به ماتریس مولد محاسبه کند؟ با تشکر برای هر گونه کمک!
|
ماژول پایتون برای محاسبه توزیع ثابت زنجیره مارکوف
|
63472
|
من با آمار تازه کار هستم، بنابراین در تفسیر برخی نتایج با مشکل مواجه هستم. فرض کنید من علاقه مند به ایجاد یک پروفایل سرعت باد روزانه برای قطب شمال در یک دوره 30 روزه بودم. من 5 ایستگاه هواشناسی مختلف برای اندازه گیری سرعت باد x و y تنظیم کرده ام. سرعت باد x و y مستقل هستند و هر دو معمولاً با میانگین صفر و واریانس مساوی توزیع می شوند. این یک توزیع رایلی برای بزرگی بردار کلی باد ایجاد می کند. اگر من 4 نقطه داده در دقیقه، در طول 30 روز، از دقیقه 0 تا 1 جمع آوری کنم، برای یک ایستگاه 120 نقطه داده خواهم داشت. اگر بخواهم همه اینها را با هم میانگین کنم، برای هر ایستگاه یک نقطه داده با مقداری واریانس در هر دقیقه به دست میآورم. بنابراین از دقیقه 0 تا 1 من اکنون 5 نقطه داده دارم که هر کدام میانگین 120 نقطه داده است. اکنون من تجزیه و تحلیل رگرسیون را روی 5 مجموعه منحنی که از میانگین ایجاد کردهام انجام میدهم، زیرا انتظار دارم هر نیمرخ باد مشابه باشد. چگونه می توانم واریانس را در هر نقطه داده متوسط وارد کنم؟ آیا این واقعیت که نقاط از توزیع رایلی به جای توزیع نرمال می آیند، تأثیری بر تحلیل رگرسیون دارد؟ درک من این است که تا زمانی که باقیمانده ها به طور معمول توزیع شوند، تمام معیارهای فاصله اطمینان معتبر هستند. این یک مدل رگرسیون غیرخطی خواهد بود، آیا آمار دوربین واتسون هنوز معتبر است؟ من همچنین می بینم که مواردی مانند آزمون های F و آزمون های T برای رگرسیون خطی اعمال می شود، آیا می تواند برای رگرسیون غیر خطی اعمال شود؟
|
تفسیر نتایج رگرسیون: نقاط داده ترکیبی
|
53340
|
افزایش یا کاهش تعداد حالات در فرآیند زنجیره مارکوف چه تأثیری دارد؟
|
تأثیر تعداد حالت ها در فرآیند زنجیره مارکوف
|
65576
|
با توجه به مجموعه ای از متغیرهای تصادفی $\{X_1، X_2، \dots، X_M \}$ و مجموعه داده (کامل) $D$، من از برخی الگوریتمهای استاندارد (طمعآمیز) برای یافتن نامزدهای خوب برای بیزی واقعی استفاده کردهام. مدل سازی شبکه / پشت توزیع احتمال مشترک این متغیرها. در پایان، من مجموعه ای از شبکه های بیزی مختلف با امتیاز بالا (با توجه به D$) دارم. من می خواهم قبل از انتخاب یک نوع فاصله بین این شبکه ها را محاسبه کنم. من در مورد واگرایی Kullback-Leibler مطالعه کردم، اما البته من شبکه واقعی را نمی دانم. آیا معیار مفیدی برای مقایسه دو توزیع احتمال وجود دارد؟
|
چگونه فاصله بین دو شبکه بیزی را اندازه گیری کنیم؟
|
82521
|
من یک طرح آزمایشی با نگرش نسبت به یک محرک مثبت و یک محرک منفی دارم که در درون افراد وجود دارد. من همچنین یک پیش بینی کننده پیوسته در سطح فرد دارم (یک ساختار شخصیت). برنامه من اکنون این بود که یک مدل چند سطحی با ظرفیت به عنوان پیش بینی کننده سطح 1، شخصیت (مرکز) به عنوان پیش بینی سطح 2، و تعامل سطح متقابل این دو متغیر بسازم. از آنجایی که من میخواستم از آمار کای دو تو در تو برای ارزیابی اثرات فردی استفاده کنم، کد چیزی شبیه به این خواهد بود: library(nlme) mod0 <- lme(attitude~ 1, random = ~1|ID, data=dat, method= ML) mod1 <- lme(نگرش ~ ظرفیت، تصادفی = ~ ظرفیت| شناسه، داده = داده، روش = ML) mod2 <- lme(نگرش ~ valence+z_personality، تصادفی = ~valence|ID، data=dat، روش = ML) mod3 <- lme(نگرش ~ ظرفیت*z_شخصیت، تصادفی = ~ ظرفیت|ID، داده = داده، روش = ML) سوالات من به شرح زیر است: 1) آیا استفاده از مدل های چند سطحی با توجه به اینکه من فقط دو مشاهده برای هر شرکت کننده دارم، موجه است؟ 2) واریانس تصادفی برای ظرفیت دقیقاً تعریف شده است (فقط با دو نقطه داده برای هر نفر، هیچ درجه آزادی باقی نمانده است؛ خطای استاندارد برای برآورد واریانس تصادفی 0 است). آیا در این مورد باید یک اثر تصادفی برای ظرفیت اضافه کنم؟ 3) من به ویژه به تعامل سطح متقابل علاقه مند هستم (بسته به شخصیت، برخی از شرکت کنندگان فرض می کنند که نگرش مثبت تری نسبت به محرک منفی نسبت به محرک مثبت دارند). اگر واریانس تصادفی را برای ظرفیت لحاظ نکنم (نگاه کنید به 2)، این - در درک من - به این معنی است که تفاوت بین محرک های مثبت و منفی برای همه شرکت کنندگان یکسان است. با این حال، این به صراحت آن چیزی نیست که من انتظار دارم. به بیان ساده این سوال: آیا اگر به تعامل سطح متقابل این پیش بینی کننده علاقه دارم، باید واریانس تصادفی را برای پیش بینی سطح 1 مشخص کنم؟ برای همه این نکات، سوال این نیست که آیا R/SPSS می تواند این کار را انجام دهد؟ (من سعی کرده ام، هر دو می توانند این کار را انجام دهند)، اما اگر بتوانم نتایج را با توجه به طراحی من به طور منطقی تفسیر کنم. همچنین، اگر منابعی برای حمایت از این موضوع برای من داشته باشید، بسیار قابل قدردانی خواهد بود. با تشکر از کمک شما!
|
مدل چند سطحی با دو نمره در هر واحد سطح 2 - تحلیل منطقی؟
|
93915
|
بعدازظهر بخیر، من سعی می کنم یک مدل فضای حالت از فرم را بسازم: $$ (S_t- \mu) = G*(S_{t-1} - \mu) + E_t $$ $$ Y = F*S_t + v_t $$ که در آن $Y$ nx1 است، $G$ 3x3، $S_t$ 3x1، $\mu$ 3x1، و $F$ 17x3 است. تا آخر عمر من نمی توانم بفهمم که چگونه این را در بسته DLM در R تعریف کنم. سعی کردم $G$ 6X6 (و بنابراین $S_t$ 6x1) بسازم و در ستون و ردیف مناسب قرار دهم تا از $\ کم کنم. mu$ و سپس متغیر مناسب را با $F$ انتخاب میکنم، اما بعد از فیلتر کردن، نتایج بیمعنی دریافت میکنم. یعنی همه $\mu$s 0 هستند. در حالی که آنها باید مقادیر مطلق را با فاصله ای از 0 داشته باشند. حل TIA برای پارامترها: $$ (S_t- \mu) = G*(S_{t-1} - \mu) + E_t $$ $$ S_t = \mu + G*(S_{t-1} - \ mu) + E_T $$ $$ S_t = \mu - G* \mu + G*S_{t-1} + E_T $$ $$ S_t = (I - G) *\mu + G*S_{t-1} + E_T $$ ترکیب در یک ماتریس G واحد: $$ \begin{bmatrix} g_{11} & g_{12} & g_{13} و (1-g_{11}) و -g_{12} & -g_{13}\\ g_{21} & g_{22} & g_{23} & -g_{21} و (1-g_{22}) & -g_{23}\\ g_{31} & g_{32} & g_{33} & -g_{31} & -g_{32} و (1-g_{33} )\\ 0 و 0 و 0 و 1 و 0 و 0 \\ 0 و 0 و 0 و 0 و 1 و 0 \\ 0 و 0 و 0 و 0 & 0 و 1 \\ \end{bmatrix} $$ و: $$ S_t = \begin{bmatrix} S_{1t}\\ S_{2t}\\ S_{3t}\\ \mu_1\\ \mu_2\\ \mu_3\\ \end{bmatrix} $$ کد: #مدل مدل DLM را بسازید <- function(param){ #F ماتریس F.mat را تعریف کنید <-matrix(rep(0,6*17),nr=17) F.mat[,1] <-1 dimf <-dim(F.mat) برای (i در 1:dim(F.mat)[1 ]){ برای (j در 2:3){ F.mat[i,j] <- f_fun(i,j,param[1])} } #F.mat[,4:6] = F.mat[,1:3] #V ماتریس V.mat <- diag(var_rest(param[2:18])) #اکنون G. ما باید در اینجا وقفه ها را تعریف کنیم G.mat <- matrix(rep(0 ,6*6),nr=6) G.mat[4,4] <- 1 G.mat[5,5] <- 1 G.mat[6,6] <- 1 param[19] <-coef_rest(param[19]) G.mat[1:3، 1:3] <- ماتریس(param[19:27]،nrow =3، ncol = 3، byrow = TRUE) G.mat[1: 3، 4:6] <- -G.mat[1:3،1:3] #در نهایت، W W.mat <-matrix(rep(0,6*6),nrow=6) param[c(28,31,33)] <- var_rest(param[c(28,31,33)]) W.mat[1, 1:3] <-param[28:30] W.mat[2,1:3] <-param[c(29,31,32)] W.mat[3,1:3] <-param[c(30،32،33)] W.mat[4،4] <- 1e-7 W.mat[5،5] <- 1e-7 W.mat[6،6] <- 1e -7 #و اکنون حالت های اولیه m0.mat <- matrix(rep(0,6),nrow=6) #C0.mat <- matrix(rep(0,36),nrow=6) C0.mat <- diag(rep(1e-7,6)) C0.mat[1:3,1:3] <- 10^7 } وقفه واریانس نمایی است و محدودیت پارامتر از پایدار بودن آن اطمینان می دهد. تابع کمکی برای F فقط یک دسته از مقادیر را بر اساس پارامتر محاسبه می کند. که سپس با پارامترهای شروع به dlmMLE ارسال می شود. این آخرین تکرار است اما L-BFGS-B از مقادیر محدود شکایت دارد.
|
ثابت ها در یک DLM مدل R
|
112303
|
من در حال انجام یک تجزیه و تحلیل خوشه سلسله مراتبی در SPSS در پایگاه داده خود با چندین متغیر عصب روانشناختی و روانپزشکی هستم. در پایگاه داده من، برخی از متغیرهای من (یعنی: دو جفت متغیر) دارای همبستگی هستند (_r_ > 0.80). اولین فکر من حذف این متغیرها از تحلیل خوشه ای بود. با این حال، گزینه دیگر استفاده از فاصله Mahalanobis به عنوان اندازه گیری فاصله است، زیرا این اندازه گیری همبستگی را در نظر می گیرد (طبق مثال تجزیه و تحلیل داده های چند متغیره توسط Hair و همکاران). سوال من این است که آیا راهی برای انجام تحلیل خوشه سلسله مراتبی در SPSS با استفاده از فاصله Mahalanobis وجود دارد؟ من با R یا SAS آشنایی ندارم، بنابراین ترجیح من روشی با استفاده از SPSS است. پیشاپیش از شما متشکرم.
|
فاصله ماهالانوبیس در تحلیل خوشه ای سلسله مراتبی در SPSS
|
33475
|
من در حال حاضر سعی می کنم برخی از الگوریتم های یادگیری ماشین را به تنهایی پیاده سازی کنم. بسیاری از آنها دارای خاصیت بدی هستند که اشکال زدایی آنها سخت است، برخی از باگ ها باعث از کار افتادن برنامه نمی شوند، بلکه آنطور که در نظر گرفته شده کار نمی کنند و به نظر می رسد که الگوریتم ها فقط نتایج ضعیف تری می دهند. من مایلم راهی برای افزایش اعتماد به نفس خود در پیاده سازی داشته باشم، به عنوان مثال اگر مجموعه داده های کوچکی داشته باشم، با اطلاعات اضافی الگوریتم های X برای تکرارهای Y کار می کنند و نتایج Z را در این مجموعه داده دارند، این واقعا مفید خواهد بود. کسی در مورد چنین مجموعه داده هایی شنیده است؟
|
کجا می توانم مجموعه داده های مفید برای آزمایش پیاده سازی های یادگیری ماشین خودم را پیدا کنم؟
|
112308
|
من سعی می کنم در اینجا کارگاه آماری را دنبال کنم تا به خودم برخی از تجزیه و تحلیل رگرسیون را برای شغلم در یادگیری ماشین بیاموزم، اما هنگام نصب بسته mozaic به بسته ماشین نیاز دارد. بنابراین من install.packages(car) را انجام دادم، اما می بینم که آدرس اینترنتی R در حال تلاش برای باز شدن است http://cran.rstudio.com/bin/windows/contrib/3.1/ **car_2.0-20.zip ** با این حال، آدرس اینترنتی صحیح (همانطور که در اینجا مشاهده می شود) http://cran.r-project.org/bin/windows/contrib/3.1/ است. **car_2.0-21.zip** چگونه می توانم کاری کنم که R یک URL سفارشی باز کند و این بسته را نصب کنم؟
|
آدرس اینترنتی بسته car قدیمی است
|
63471
|
اگر نتایجی برای تجزیه و تحلیل رگرسیون به شما داده شد و از شما پرسیده شد که چگونه تجزیه و تحلیل را گسترش می دهید تا بفهمید آیا یک متغیر جدید بر متغیر پاسخ نیز تأثیر می گذارد، چگونه این کار را انجام می دهید؟ آیا با در نظر گرفتن یک مدل با متغیر جدید به عنوان یک مدل کامل و آزمایش اینکه آیا یک مدل کاهش یافته کافی است یا یک نمودار متغیر اضافه شده کافی است؟
|
در نظر گرفتن یک متغیر جدید در مدل رگرسیونی
|
82525
|
من این را به لیست کاربران TraMineR ارسال کردم و پیشنهاد شد که در اینجا نیز ارسال شود. هر گونه پیشنهادی در مورد چگونگی تعیین حداقل اندازه مجموعه داده و ویژگی های کمبود که TraMineR ممکن است به طور معقولی برای آن اعمال شود مفید خواهد بود. من به دنبال اطلاعات در اسناد گشتم اما چیزی را ندیدم که بتوانم از آن به عنوان اکتشافی استفاده کنم. من از TraMineR برای تجزیه و تحلیل 5 سال مشاهدات BMI استفاده می کنم که به عنوان یک متغیر طبقه بندی ترتیبی چهار سطحی برای 5046 کودک دبستانی (کلاس K-5) کدگذاری شده است. فقط 414 مورد از اینها 5 مشاهدات دارند (~ 56٪ از K، 1 دانش آموز در زمان 1 اندازه گیری شد که می توانست در سال های 1 تا 5 اندازه گیری شود). در اینجا دو سؤال مرتبط وجود دارد، اگر به خوبی بیان نشده باشد: 1. آیا مجاز است که فقط روی موارد کامل تمرکز کنم زیرا من فقط 5 نقطه داده و ساییدگی طبیعی تجمعی بالایی دارم؟ آزمایش موارد کامل در برابر همه موارد، تفاوت اساسی در مقادیر پیش بینی کننده ها نشان نمی دهد. تجزیه و تحلیل موارد کامل آموزنده است، در حالی که شامل همه موارد، صرف نظر از انتخاب انتساب، فقط باعث ایجاد سروصدا می شود. من سعی کردم فقط دنباله های 4 یا 5 را بپذیرم، اما نتایج همچنان پر سر و صدا بود. 2. آیا با توجه به الگوهای انتساب مورد نیاز مجموعه داده کامل، صرف نظر از اینکه به دلیل عدم برنامه ریزی شده باشد یا MAR، پنج شی دنباله برای استفاده با TraMineR بسیار کوتاه است؟ 3. در زیر تعداد موارد با 1 تا 5 مشاهده آمده است. 1 2 3 4 5 1846 1287 869 630 414 TraMineR یک ابزار عالی است. من می خواهم مطمئن شوم که از آن به درستی استفاده می کنم.
|
حداقل معیار برای مجموعه داده های مورد استفاده با TraMineR
|
9627
|
اول از همه، متوجه شدم که رگرسیون چندگانه واقعاً استنتاج «علّی» در مورد داده ها به دست نمی دهد. اجازه دهید مورد فعلی خود را توضیح دهم: من چهار متغیر مستقل دارم که امیدوارم (اما مطمئن نیستم) در هدایت چیزی که اندازهگیری میکنم نقش داشته باشند. من می خواستم از رگرسیون چندگانه استفاده کنم تا ببینم هر کدام از این متغیرها چقدر در متغیر وابسته من نقش دارند و این کار را انجام دادم. فرضاً متغیر شماره چهار به شدت بر اندازه گیری نتیجه من تأثیر می گذارد (وزن بتا نزدیک به 0.7). با این حال، به من گفته شده است که این کافی نیست، زیرا برخی از متغیرهای مستقل من ممکن است در واقع با یکدیگر همبستگی داشته باشند. در آن صورت، من میتوانم فکر کنم «متغیر چهار» متغیر وابسته من را هدایت میکند، در حالی که واقعاً هر دو سه و چهار میتوانند به طور مساوی مشارکت داشته باشند. این درست به نظر می رسد، اما از آنجایی که من تازه وارد این کار هستم، مطمئن نیستم. چگونه می توانم به طور سیستماتیک از این مشکل در آینده جلوگیری کنم؟ هنگام استفاده از رگرسیون چندگانه برای اطمینان از اینکه داده های مستقل شما از قبل دارای همبستگی های پنهان نیستند، چه رویه های خاصی را توصیه می کنید؟ ویرایش: داده ها خود مجموعه ای از مدل های شبکه (گراف) از یک وضعیت عصبی خاص هستند. من «ضریب خوشهبندی» را اندازهگیری میکنم که توپولوژی هر شبکه را بهعنوان یک کل توصیف میکند (متغیر وابسته در اینجا)، و سپس میبینم که آیا اتصالات تکی چهار گره در شبکه بزرگتر 100+، مقادیر خوشهبندی جهانی را هدایت میکنند (چهار مستقل) متغیرها). با این حال، این گره ها بخشی از یک شبکه هستند، بنابراین طبق تعریف ممکن است تا حدی با هم مرتبط باشند.
|
هنگام استفاده از رگرسیون چندگانه برای یافتن روابط «علّی» در دادههایم، از چه چیزهایی باید آگاه باشم؟
|
105704
|
قبل از ارسال این سوال، من CV را برای یک سوال مشابه جستجو کردم که می تواند به من کمک کند، اما آن را پیدا نکردم. بنابراین، متاسفم اگر قبلاً این سؤال مطرح شده است. بنابراین، من خودم از آمار ریاضی کیث نایت مطالعه می کنم. در ابتدا و با توجه به فهرست مطالب، انتخاب خوبی به نظر می رسید. این تخمین نقطه، تخمین احتمال، کارایی برآوردگرها، تخمین فاصله و آزمون فرضیه را پوشش می دهد. با این حال، پس از کمی کار با آن، متوجه شدم که اشتباهات تایپی زیادی وجود دارد، و برخی از تمرینات درست به نظر نمی رسد، مانند این یکی. و برخی از جزئیات حساب دیفرانسیل و انتگرال به نظر می رسد حذف شده است. من به دنبال کتابی نیستم که خیلی عمیق به مبانی نظری بپردازد، مانند کتاب جون شائو که از نظریه اندازه گیری استفاده می کند. من به دنبال چیزی شبیه کتاب نایت هستم، بدون خطا، و رسمی تر. اگر کتاب در بیان قضایا و اثبات با جزئیات زیاد با آنها دقت زیادی داشته باشد، عالی خواهد بود (مخصوصاً در مورد موارد چند بعدی). بنابراین من برای کتابشناسی بهتر جستجو کردم و دو کتاب را پیدا کردم که به نظر بهتر هستند. مدلهای آماری دیویسون که در مورد کارایی زیاد یا اصلاً صحبت نمیکند، و اصول استنتاج آماری یانگ. من می خواهم نظر شما را در مورد این کتاب ها بدانم و اگر کتاب دیگری را می شناسید که فکر می کنید ممکن است مفیدتر باشد لطفاً به من بگویید.
|
خوب خواندن / کتابشناسی
|
53343
|
مشکل من این است که چهار مدل کاندید ایجاد کردهام که عمدتاً با معیارهای عملکرد زیر مقایسه میکنم: «اندازهگیری F»، «یادآوری»، «دقت»، «دقت» و «ارزیابی ROC» بصری. مشکل این است که همانطور که از جدول می بینید، SVM_linear_test بهترین F-measure را انجام می دهد. این مدل با خط آبی در نمودار ROC مطابقت دارد. خط قرمز در نمودارهای ROC مربوط به SVM_RBF_test است زیرا با توجه به نمودار ROC این مدل بهترین عملکرد را دارد. با مطالعه زیاد اخیراً در مورد معیارهای عملکرد در طبقهبندیکنندههای دوجملهای، به چیزی که در مثال من در اینجا واضح است برخورد نکردهام. ROC مثبت های نادرست را در نظر نمی گیرد و بنابراین در مورد من، ارزیابی ROC ارزش زیادی ندارد. البته همیشه می توان بحث کرد که آیا بخواهیم وزن بیشتری را به طبقه مثبت اختصاص دهیم، اما در این مورد این بحث را کنار می گذاریم.  
|
آیا ارزیابی ROC از یک طبقهبندیکننده دوجملهای به عنوان یک معیار عملکرد خوب با توجه به وزنهای مساوی بین مثبت و منفی عمل میکند؟
|
97219
|
من دیتافریم پایتون زیر را دارم (5 ردیف از نزدیک به 15000): N0_YLDF MAT MAP 0 6.286333 11.669069 548.8765 1 6.317000 11.669069 5248.869 5248.869. 11.516454 531.5035 3 6.320667 11.516454 531.5035 4 6.325556 11.516454 531.5035 OLS را با استفاده از فرمول زیر اجرا میکنم: N0_YLDF برای پایهگذاری سالانه، MAT. ضریب y-intercept برای MAP 0.0079 است. با این حال، وقتی من MAP را بر 100 تقسیم می کنم، ضریب به 0.79 افزایش می یابد آیا این بدان معنی است که باید متغیرهای مستقل خود را نرمال کنم؟
|
نتایج OLS وابسته به مقیاس بندی متغیر مستقل است
|
52033
|
من یک مجموعه داده دارم که شامل تقریباً 40000 مشاهده است که در 12 کلاس گروه بندی شده اند. من یک جنگل تصادفی سریع را روی یک تقسیم 80٪ آموزش و 20٪ تست انجام دادم (بحث در مورد آب و هوا را مطرح نکنید یا نه لازم است داده ها را در جنگل های تصادفی تقسیم کنید، این فقط یک آزمایش سریع است) و موارد زیر را دریافت کردم. دقت در مجموعه آزمایشی:  سپس یک مدل RF برای هر کلاس آموزش می دهم و ایجاد می کنم یک متغیر دوتایی «به کلاس تعلق دارد»: بله/خیر. برای مثال، این دقتها را در مجموعه آزمون کلاس شماره 1 و کلاس شماره 5 دریافت میکنم:  که دقیقتر به نظر میرسد . آیا آموزش چندین مدل گزینه مناسبی است؟ ممکن است دست و پا گیر باشد، اما اگر شما هر مشاهده را با همه مدل ها پیش بینی کنید و شاید بالاترین احتمال عضویت را در یک تحلیل تفکیک خطی انتخاب کنید، آیا می توانید دقت بهتری نسبت به یک جنگل تصادفی واحد داشته باشید؟ امیدوارم این سوال احمقانه نباشد، نمی دانم چرا به چنین چیزهایی فکر می کنم.
|
باتری مدل های جنگلی تصادفی برای هر کلاس
|
112301
|
من سعی می کنم برخی از آمارهای مکانی را برای برخی برآوردهای رفتاری خوشه بندی کنم. با این حال، بخشهایی از مسیر دقیقاً سرعت صفر را گزارش میکنند، که به نوعی حالت استراحت را نشان میدهد که با حالت جستجوی غذایی که من میخواهم استخراج کنم متفاوت است. به نظر می رسد یک راه حل فواصل رفتار کاملاً ثابت را حذف می کند. با این حال، این مجموعه داده را به قطعات متمایز تقسیم می کند که من مطمئن نیستم چگونه با تکنیک های مختلف تخمین فضای حالت متوالی تجزیه و تحلیل کنم. آیا راهی برای ایجاد تمایز خوشهای بین سرعتهای پایین (0.3-0.7) برای وضعیت جستجوی فعال مورد نظر من، در مقابل دادههای کاملاً ثابت (سرعت 0.0) وجود دارد؟
|
تکنیک های خوشه بندی زمانی که دو خوشه مجزا اما از نظر عددی مشابه در میان دیگران وجود دارد
|
112309
|
من دو سوال نسبتا مفهومی در مورد طبقهبندیکنندههای تصادفی جنگل دارم. قبل از اینکه به آنجا برسیم، میخواهم سریعاً مشکلی را که روی آن کار میکنم بیان کنم: مجموعه دادهای بزرگی دارم که شامل 300 نمونه با حدود 370000 نقطه داده است. 6 گروه مختلف 50 نمونه وجود دارد. من یک طبقهبندی کننده RF با 1000 درخت ساختم که قادر به پیشبینی برچسبهای کلاس در گروه دوم با همان اندازه و ترکیب بود. مشخص است که در هر گروه زیرگروه های خاصی وجود دارد. با این حال، PCA و سایر روشهای بدون نظارت نشان میدهند که تفاوتهای عمده در واقع بین گروهها است. 1. من تعجب کردم که آیا ناهمگونی درون گروهی ممکن است بر نتایج طبقه بندی تأثیر بگذارد. با توجه به درک من از نحوه ساخت درختان، فرض میکنم که این مهم نیست، زیرا نمونههای یک گروه لزوماً نباید به همان گره پایانه ختم شوند. 2. من احتمال انتخاب نشدن کاوشگر را _اصلاً در هیچ یک از درخت ها_ به صورت p=0.21 محاسبه کردم (برای تنظیمات استاندارد، یعنی جذر ویژگی ها برای نمونه برداری فرعی). قبل از اینکه شروع به افزایش تعداد درختان کنم، میخواهم بپرسم آیا چیزی شبیه یک قانون کلی وجود دارد که برای ارزیابی قابلاعتماد اهمیت یک متغیر به چند مورد نیاز است؟ بنابراین اساساً من به شرایط لازم برای انتخاب ویژگی علاقه مند هستم. بهترین ها کریس
|
آیا ناهمگونی درون گروهی بر طبقهبندی تصادفی جنگل تأثیر منفی میگذارد؟
|
52035
|
من یک سری زمانی هفتگی دارم که هزینه های یک گروه را نشان می دهد. میخواهم بگویم که آیا مداخله در گروه (میتوانیم فرض کنیم که در یک هفته اتفاق افتاده است) هزینههای گروه را کاهش داده است یا خیر. من اتفاقاً می دانم که روند طی این دوره برای جمعیتی که این کوهورت از آن گرفته شده است - 120- در هفته در هفته بود. فکر اولیه من صرفاً انجام یک رگرسیون خطی «lm (هزینه ها ~ هفته ها، جبران =-120 * هفته)» بود، اما (بدیهی است) اهمیت آن تنها تابعی از تأثیر مداخله نیست، بلکه این است که چقدر به عقب نگاه می کنم ( اگر به $-\infty$ برگردم، البته غیر قابل توجه به نظر می رسد). من به این وب سایت نگاه کردم: http://www.r-bloggers.com/time-series-intervention- analysis-wih-r-and-sas/ و سعی کردم کد R را با داده هایم تکرار کنم، اما وقتی وارد دستور arimax()، پیغام خطا Error در آمار دریافت کردم:::arima(x=x,order=order,seasonal=seasonal,fixed=par[1:narma], : طول اشتباه برای تثبیت اکنون، من مطمئن نیستم که چه کاری انجام دهم. آیا کسی می تواند مرا راهنمایی کند؟
|
تجزیه و تحلیل سری های زمانی منقطع ساده
|
97213
|
من در حال کدگذاری موارد زیر در R هستم، میخواهم 10 عدد تصادفی را از یک توزیع معمولی استاندارد انتخاب کنم که مجموع آنها برابر با 5 است. من تا کنون کد زیر را دارم (زیر)، اما زمانی که اعداد تصادفی این کار را انجام نمیدهند، عددی (0) را برمیگرداند. شرایط را ارضا کند چیزی که من می خواهم این است که 10 عدد تصادفی را انتخاب کنم که این شرط را برآورده کنند. آیا راهی برای تغییر مقیاس این اعداد پس از انتخاب وجود دارد، یا می توانم به نحوی شرطی را برای آن در rnorm وارد کنم؟ کمک بسیار قدردانی! a <- rnorm(10, 0, 1) ones <- matrix(1, nrow=10, ncol=1 ) A <- a[t(a) %*% ones == 5]
|
r - 10 عدد تصادفی را از توزیع نرمال استاندارد انتخاب کنید که مجموع آنها برابر با 5 است
|
9625
|
فرض کنید می خواهید این فرضیه را آزمایش کنید که میانگین یک توزیع برابر با میانه است، با توجه به نمونه هایی که از توزیع گرفته شده اند. چگونه این کار انجام می شود؟ من حدس می زنم که آمار آزمون (مقدار مطلق) میانگین نمونه منهای میانه نمونه باشد، اما در مورد خطای استاندارد آن آمار مطمئن نیستم (معتقدم میانگین و میانه نمونه مستقل نیستند). آیا این یک آزمایش شناخته شده است؟
|
چگونه می توان آزمایش کرد که آیا میانگین برابر با میانه است؟
|
53349
|
من یک توزیع t غیر استاندارد با پارامترهای $\nu$,$\beta$ (یا گاهی اوقات با $\sigma^2$ نیز نشان داده میشود) و $\nu$ دارم. حالا میخواهم تعداد آن را بدست بیاورم. qt فقط چندک توزیع t استاندارد شده را محاسبه می کند، می دانم که یک تبدیل یکنواخت وجود دارد، اما من نمی خواهم از آن استفاده کنم، بنابراین می خواهم کمیت توزیع t غیر استاندارد را محاسبه کنم. آیا تابعی از پیش پیاده سازی شده در R وجود دارد؟ اگر تابعی وجود نداشته باشد، چندک معکوس cdf است، چگونه می توانم این را در R پیاده سازی کنم؟
|
چندک توزیع t غیر استاندارد؟
|
112288
|
من با آمار و SPSS تازه کار هستم. من یک پرسشگر دارم که 30 سوال با مقیاس لیکرت دارد و 5 فاکتور هر کدام 5 یا 6 سوال دارد. من تجزیه و تحلیل قابلیت اطمینان را انجام دادم و مشکلی پیدا نشد. همه عوامل دارای آلفای بزرگتر از 0.7 هستند. اکنون میخواهم تحلیل همبستگی بین عوامل را برای تأیید فرضیههایم انجام دهم، اما نتوانستم در SPSS گزینهای برای اختصاص سؤال به عوامل و تجزیه و تحلیل آنها پیدا کنم. چگونه می توانم این کار را انجام دهم؟
|
همبستگی بین عوامل
|
112289
|
من میخواهم میزان متابولیسم پایه (BMR) را بر اساس قد، وزن، سن و جنسیت کاهش دهم. چگونه می توانم این کار را با در نظر گرفتن تعامل بین متغیر انجام دهم؟ آیا مجبور نیستم تعاملات را تا حد چهارم در نظر بگیرم؟
|
تعامل بین متغیرها
|
58999
|
من این سوال را با اشاره به مثالی در صفحه 138-142 سند زیر می نویسم: ftp://ftp.software.ibm.com/software/analytics/spss/documentation/amos/20.0/en/Manuals/IBM_SPSS_Amos_User_Guide.pdf. در اینجا شکلهای توضیحی و یک جدول وجود دارد:  من میدانم که متغیر نهفته هیچ متریک طبیعی ندارد و تنظیم یک بارگذاری ضریب روی 1 برای رفع آن انجام میشود. این مشکل با این حال، تعدادی از چیزها وجود دارد که من (به طور کامل) درک نمی کنم: 1. چگونه تثبیت بار عاملی به 1 این مشکل عدم قطعیت مقیاس را برطرف می کند؟ 2. چرا به جای یک عدد دیگر، به 1 ثابت می شود؟ 3. من درک می کنم که با تثبیت یکی از وزن های رگرسیون فاکتور-> شاخص به 1، بنابراین، تمام وزن های رگرسیون دیگر را برای آن عامل نسبت به آن می سازیم. اما چه اتفاقی میافتد اگر یک بار عاملی خاص را روی 1 قرار دهیم اما بعد معلوم شود که امتیازهای بالاتر روی عامل امتیازهای کمتری را در متغیر مشاهدهشده مورد نظر پیشبینی میکند؟ پس از اینکه بارگذاری عاملی را در ابتدا بر روی 1 قرار دادیم، آیا میتوانیم به وزن رگرسیون استاندارد شده منفی برسیم یا به وزن رگرسیون استاندارد شده منفی؟ 4. در این زمینه، بارهای عاملی را دیده ام که هم به عنوان ضرایب رگرسیون و هم به عنوان کوواریانس شناخته می شوند. آیا هر دو این تعاریف کاملاً صحیح هستند؟ 5. چرا باید spatial->visperc و verbal-paragrap را هر دو به 1 ثابت کنیم؟ اگر یکی از آن مسیرها را به 1 ثابت می کردیم چه اتفاقی می افتاد؟ 6. با نگاهی به ضریب استاندارد، چگونه ممکن است که ضریب غیر استاندارد برای wordmean > جمله > paragrap باشد، اما با نگاهی به ضرایب استاندارد شده paragrap > wordmean > جمله. من فکر کردم که ابتدا با ثابت کردن پاراگرپ روی 1، همه متغیرهای دیگر بارگذاری شده بر روی فاکتور نسبت به پاراگرپ ساخته شدند. من همچنین یک سؤال را اضافه می کنم که تصور می کنم پاسخ مرتبطی دارد: چرا ضریب رگرسیون را برای عبارت های منحصر به فرد (به عنوان مثال err_v->visperc) به 1 ثابت کنیم؟ برای err_v داشتن ضریب 1 در پیش بینی visperc چه معنایی دارد؟ من بسیار از پاسخها استقبال میکنم، حتی اگر پاسخها به همه سؤالات نپردازند.
|
چرا در تحلیل عاملی تاییدی وزن ها را 1 می کنیم؟
|
105706
|
هنگام طراحی یک نمودار عاملی، طراح باید ساختار نمودار (فرض های استقلال رمزگذاری) و شکل و پارامتر توابع انرژی را برای عوامل فردی مشخص کند. آیا بهترین شیوه ها برای طراحی توابع انرژی وجود دارد؟
|
چگونه یک تابع انرژی را در مدل نمودار عاملی طراحی کنیم؟
|
49403
|
من یک رگرسیون کاکس را با داده های خود اجرا می کنم. در مدل نهایی خود من چهار پیش بینی بالقوه داشتم و ابتدا یک رگرسیون کاکس رو به جلو (روش والد) و سپس برای اعتبارسنجی مدل خود یک رگرسیون کاکس رو به عقب (روش والد) انجام دادم. متاسفانه من دو مدل مختلف گرفتم. الان چیکار کنم؟ آیا قراردادی وجود دارد که تصمیم بگیرد کدام مدل پایدارتر است؟ خیلی ممنون از پاسخ های شما! :)
|
اگر مدل های مختلف را با استفاده از رگرسیون کاکس به جلو و عقب دریافت کنم، از کدام مدل استفاده کنم؟
|
108039
|
مادرم در مورد SPSS 16 رایگان شنید و به من وظیفه یافت یک دانلود مطمئن از آن پیدا کنم. با این حال، من نمی توانم _هیچ سایتی را پیدا کنم (به جز تورنت ها) که واقعاً آن را در دسترس داشته باشد، به نظر می رسد همه آنها از SPSS 16 به عنوان طعمه استفاده می کنند و سوئیچ می کنند تا شما را به صفحه ای با آخرین نسخه ببرند.
|
آیا SPSS 16 رایگان واقعا وجود دارد؟
|
9626
|
من معتقدم که برای ANOVA نامتعادل به معنای گروه های نابرابر است. اما برای کارآزماییهای تصادفیسازی و کنترلشده، به نظر میرسد که نامتعادل به معنای چیزی شبیه به گروههایی با ویژگیهای مختلف علیرغم تصادفیسازی باشد. بنابراین در مورد RCT ها آیا نامتعادل صرفاً به معنای تصادفی بدشانسی است؟ ربطی به اندازه گروه ندارید؟ تعریف RCT نامتعادل چیست؟
|
چه زمانی یک کارآزمایی تصادفی کنترل شده (RCT) متعادل است؟
|
58995
|
من سعی می کنم یک رگرسیون خطی از یک متغیر وابسته پیوسته مثبت (نتیجه) با چندین متغیر مستقل (همه آنها مقوله ای / باینری هستند) انجام دهم. من برای بدست آوردن باقیمانده های گاوسی مشکلات زیادی داشتم (توزیع متغیر نتیجه من خود گوسی نیست). من تغییرهای زیادی را برای نتیجه امتحان کردم: log، ریشه مربع، معکوس... و بهترین آنها Box-Cox با پارامتر: $\lambda = -3$ است. رگرسیون صحیح است، باقیمانده ها گاوسی و هموسکداستی هستند. اما دریافتهام که Box-Cox سادهترین چیز برای تفسیر نیست. نتیجه اصلی نشان دهنده یک تاخیر است و هیچ راهی برای تفسیر نتیجه تبدیل شده با ترکیبی از قدرت و معکوس وجود ندارد. و وقتی می خواهم به نتیجه اولیه خود برگردم، ریشه مکعب (یا توان 1/3) دارم. سؤالات من این است: * با دانستن ضریب مربوطه، تغییر یک متغیر باینری معین بر نتیجه اصلی من چگونه است؟ * آیا می توانم با فاصله اطمینان (حدود 2.5٪ و 97.5٪) ضرایب رگرسیون همین کار را انجام دهم؟
|
نحوه تفسیر ضرایب رگرسیون زمانی که متغیر نتیجه توسط باکس-کاکس تبدیل شد
|
9623
|
نمونه های خطای نمونه برداری را در ویکی پدیا خوانده ام، اما هنوز متوجه نشده ام. ممکن است یک مثال ساده و مشخص برای خطای نمونه برداری به من بدهید؟
|
مثال خطای نمونه گیری
|
58334
|
من متوجه شدم که اگر $X$ یک RV در $[0,1]$ باشد، آنگاه $V[X] \leq E[X](1-E[X])$، که همچنین نشان میدهد که توزیع برنولی واریانس را به حداکثر میرساند ( یکی از راه حل های متعدد). برای علاقه، حالت گسسته را در نظر بگیرید: اجازه دهید $p_i \geq 0$ احتمال $1 را بدهد \geq x_i \geq 0$، فرض میکنیم: $V[X] > E[X](1-E[X])$ \ شروع{تراز} E[X^2] - E[X]^2 & > E[X](1-E[X]) \\ \sum_i x_i^2p_i & > \sum_i x_ip_i\\ \sum_i (x_i-1)x_ip_i & > 0 \end{align} که یک تناقض است زیرا $(x_i-1) \leq 0, x_i \geq 0, p_i \geq 0$. به هر حال، این یک واقعیت نسبتاً مفید است، آیا این نابرابری نام، تعمیم یا پسوند بیشتری دارد؟
|
محدود به واریانس برای [0،1] RVها به عنوان تابعی از میانگین
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.