_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
29525
من داده‌هایی با مقدار شروع (y) دارم که به صورت متوالی افزایش/کاهش می‌یابد که زمان (x) در روز اندازه‌گیری می‌شود. من این پیوند را برای ایجاد یک رگرسیون خطی از داده ها پیدا کردم http://www.easycalculation.com/statistics/regression.php من می خواهم محاسبه شیب را در اکسل خودکار کنم. آیا کسی ایده ای در مورد نحوه انجام آن دارد؟ من فرمول ریاضی را در پایین صفحه $$\frac{N\sum XY- \sum X\sum Y}{N\sum X^2-(\sum X)^2}$$ می بینم اما من نمی بینم نمی دانم چگونه آن را به فرمول اکسل ترجمه کنید. مشکل عمدتاً $\sum XY$ و $\sum X^2$ است. بقیه با تابع count، sum و pow آسان هستند. مختصات x و مختصات y من در ردیف هایی قرار دارند به طوری که 'C1' 'x1' و 'D1' 'x2' است.
شیب خطی که چندین نقطه داده شده است
44517
من اغلب اظهارات مشابهی را در وب سایت های فوتبال (فوتبال) می بینم. > تیم A در 4 بازی از 5 بازی اخیر خود مقابل تیم B شکست خورده است. آخرین بازی از 5 بازی اخیر آنها چیزی شبیه به 10 سال پیش خواهد بود، بنابراین در آن بازه زمانی 12 ساله (بین سال های 2000 و 2012)، کل تیم تغییر کرده است. تغییر و غیره. بنابراین آیا نوشتن چنین عباراتی اشکال دارد * * * همچنین، اگر یک تیم فقط 1 بازی انجام دهد (با فرض اینکه شما فقط می توانید برنده شوید یا ببازید، بدون تساوی)، به درصد برد آنها نگاه کنید بدون اینکه تعداد بازی های انجام شده را ببینید؟ می تواند گمراه کننده باشد، زیرا درصد برد می تواند 100٪ یا 0٪ باشد، اما از آنجایی که آنها بازی های بیشتری را انجام می دهند، شما تصور بهتری از نسبت برد واقعی آنها دارید؟
آیا این آمار اشتباه است؟
92134
من باید یک متاآنالیز انجام دهم. مشکل زیر پیش آمد: یک مطالعه واحد کیفیت زندگی را اندازه‌گیری کرده و از دو پرسشنامه استفاده شده است. حال سوال من این است که آیا من دو نفر دارم که یکی از ابزارها را برای گنجاندن در متاآنالیز انتخاب کنم یا امکان ترکیب میانگین های دو مقیاس برای ارائه یک تفاوت میانگین استاندارد در متاآنالیز وجود دارد؟ ممنون!!!!
ترکیب معیارهای نتیجه برای متاآنالیز
44513
من در مورد رابطه بین دو روش به نام حداکثر انتظار (EM) و عمده سازی- حداقل کردن تعجب می کنم. یکی از آنها، الگوریتم EM است که می توان با معرفی متغیرهای نهفته، برای یافتن حالت احتمال یا توزیع پسین استفاده کرد. در کتاب بیشاپ، BRML، او ادعا می کند که توزیع جدید با متغیرهای پنهان به راحتی قابل بهینه سازی است. روش‌های به حداقل رساندن عمده‌سازی زیربنای همین ایده است، یعنی می‌توان تابع هزینه دیگری را معرفی کرد که به طور مکرر به تابع هزینه اصلی همگرا می‌شود که به سختی می‌توان آن را به حداکثر رساند. اجازه دهید مدل زیر را در نظر بگیریم: $$ y = x + \eta$$ که در آن $\eta$ یک متغیر تصادفی گاوسی است. تخمین حداکثر احتمال در این مدل با بهینه سازی در یک ترم درجه دوم $\|y -x \|_2^2$ مطابقت دارد. بهینه‌سازی این تابع آسان است، با این حال می‌توانیم مدل‌های پیچیده‌تری را پیدا کنیم که بهینه‌سازی آن‌ها آسان نیست، از این رو یک تابع هزینه جایگزین را معرفی می‌کنیم که به طور مکرر به تابع اصلی همگرا می‌شود (به حداقل رساندن عمده‌سازی). الگوریتم EM به اهداف مشابهی دست می یابد اما مفاهیم احتمالی مانند متغیرهای پنهان را معرفی می کند. من نمی دانم که آیا این دو الگوریتم برای برخی موارد خاص معادل هستند؟ یا اگر کاملاً با هم متفاوت هستند، چه نسبتی بین آنها وجود دارد؟ با تشکر
رابطه بین انتظار-بیشینه سازی و گرایش- حداقل سازی
92133
فرض کنید ما در حال ساخت یک DBN (شبکه باور عمیق) هستیم و قبلاً برخی از لایه های پایین تر را به عنوان ماشین های محدود Bolzmann آموزش داده ایم. اکنون یک لایه جدید اضافه می کنیم، با وزن های جدید و بایاس های جدید برای گره های پنهان جدید. آیا از بایاس های گره های پنهان لایه قبلی به عنوان بایاس گره های مرئی لایه جدید استفاده می کنیم؟ یا باید عبارات بایاس مجزا و غیر مرتبط با شرایط بایاس لایه قبلی ایجاد کنم؟
شبکه های باور عمیق: اتصال بایاس مرئی لایه های بالاتر به سوگیری پنهان لایه پایین؟
1084
من سعی می‌کنم مجموعه‌ای از داده‌ها را تجسم کنم که نشان‌دهنده توده بدن انسان در طول زمان است، که از وزن‌های (معمولا) روزانه گرفته شده است. از آنجایی که توده بدن بر اساس هیدراتاسیون +/- 3 پوند در نوسان است، می‌خواهم یک نمودار خطی به شدت هموار ترسیم کنم تا نوسان را به حداقل برسانم. هر گونه کمکی در مورد اینکه معادله چگونه به نظر می رسد بسیار قدردانی می شود، یا حتی برخی از نام ها / پیوندها برای ارسال به من در جهت درست. **ویرایش:** من باید تجسم را در جاوا اسکریپت کدنویسی کنم، بنابراین به جای کتابخانه ای که این کار را برای من انجام دهد، به درک ریاضی مربوطه نیاز دارم.
معادله محاسبه یک خط صاف با یک سری زمانی نامنظم؟
59276
اشاره کردم که وظیفه رگرسیون در یادگیری ماشین به نحوی با حل معادلات دیفرانسیل تقریباً مرتبط است - هر دو در تلاش برای تقریب تابع مجهول هستند. سپس، سوال من این است: آیا ML می تواند به نوعی در حل معادلات دیفرانسیل مفید باشد؟ پیشاپیش از شما متشکرم.
آیا روش های یادگیری ماشینی می توانند به نوعی در حل معادلات دیفرانسیل مفید باشند؟
8695
من مشکلاتی با تحلیل عاملی اکتشافی دارم. لطفاً کسی می تواند به من بگوید که چگونه میانگین واریانس استخراج شده (AVE) و قابلیت اطمینان مرکب را از دو عامل محاسبه کنم که هر کدام با سه مورد با استفاده از SPSS هستند؟ اگر با SPSS نیست، Stata نیز ممکن است کمک کند.
قابلیت اطمینان AVE و ترکیبی با SPSS
59277
**زمینه:** من با مشکلی روبه رو هستم که معتقدم یک مشکل مدل سازی غیر پیش پا افتاده است که به عنوان بخشی از پست دکتری من به آن اختصاص داده شده است. تخصص من در زمینه تئوری گراف/شبکه ​​است، بنابراین متوجه شده ام که با تمام گزینه های مدل سازی و زبان موجود در حال مبارزه هستم. **مشکل به شرح زیر است**: در یک مجموعه داده مشاهده ای ما یک پاسخ پیوسته داریم که نتیجه تعامل دو فرد است. افراد به یک عامل تغییرناپذیر زمان با 6 سطح تعلق دارند، بنابراین 36 نوع ممکن از جفت های تعاملی وجود دارد. علاوه بر این، داده ها ماهانه جمع می شوند و $t=\\{1,..,T\\}$ ماه وجود دارد. ما می خواهیم وابستگی نتایج به عوامل را با مدلی از این شکل درک کنیم: $$Y_{i,j,t} = G_i + G_j + G_i*G_j، $$ که در آن $i,j$ افراد و $ هستند. G_i,G_j$ عوامل آنها. با توجه به زمان، ما فقط به این موضوع علاقه مندیم که آیا امتیازها در دو طرف یک رویداد مهم قرار می گیرند یا خیر، اما نمی خواهیم بین ماه های متعلق به همان طرف رویداد تفاوت قائل شویم. بنابراین اساساً داده ها را می توان در دو بازه زمانی مجزا در دو طرف رویداد با مشاهدات مکرر جمع کرد. بنابراین با در نظر گرفتن مجموعه داده دو دوره زمانی، مسائل ما به شرح زیر است: 1. _ مجموعه داده بسیار نامتعادل است: _ عضویت این گروه ها بسیار ناهمگن است، برای مثال می تواند تا 1 یا 2 مرتبه تفاوت بین سطوح اشغال وجود داشته باشد. این عامل منجر به طراحی بسیار نامتعادل می شود. علاوه بر این، همبستگی هایی در میزان تعامل سطوح عامل وجود دارد که اوضاع را حتی بیشتر پیچیده می کند. 2. _به دلیل تجمع زمانی مشاهدات مکرر وجود دارد._ سوال من این است: **یک طرح آزمایشی خوب برای درک تأثیرات اصلی و متقابل عامل چیست؟** به عنوان مثال، یک راه حل می تواند نمونه برداری از هر طرف باشد. این رویداد برای مقابله با تعادل است، اما در آن صورت مشکل مشاهدات مکرر باقی می ماند.
طراحی تجربی برای داده‌های تعامل جفت زمانی پیچیده
92136
اولین پست CV اما قبل از S.O. کاربر. از شکیبایی شما سپاسگزارم زیرا آمار زیستگاه طبیعی من نیست. من داده هایی به شکل زیر دارم که در آنها سعی می کنم ببینم آیا رابطه ای وجود دارد یا خیر. * بازگشت روزانه ورود به سیستم برای یک سری از شرکت ها. * داده‌های روزانه که ممکن است بر عملکرد آن شرکت‌ها تأثیر بگذارد. من انتظار دارم که نویز زیادی در داده‌ها وجود داشته باشد، به طوری که داده‌های ناظر مستقل در بازدید از فروشگاه در T-1 بر بازده T-1 تأثیر نخواهد گذاشت، اما داده‌های مستقل جمع‌آوری شده از T-1 تا T-30 ممکن است، برای مثال ، بر بازده از T به T+15 تأثیر می گذارد. من به دنبال بازخوردی در مورد چگونگی جمع‌آوری این داده‌ها به شیوه‌ای معنادار هستم تا ببینم آیا رابطه‌ای وجود دارد، چه در فضای بازگشتی یا در فضای نوسان. من مطمئناً می‌توانم خطوط دلخواه را ترسیم کنم (مثل نگاه کردن به بازدیدکنندگان متوسط ​​یا متوسط ​​برای یک ماه و در نظر گرفتن بازده ماهانه)، اما این اطلاعات زیادی را دور می‌اندازد و «درست» به نظر نمی‌رسد. شهود من همچنین این است که داده های کافی برای در نظر گرفتن هر نوع رگرسیون با ابعاد بالا یا تجزیه و تحلیل دیگری که مثلاً 15 مشاهدات عقب افتاده را در بر می گیرد، ندارم. بنابراین، یک راه معقول برای جمع آوری داده های سری زمانی پر سر و صدا چیست؟ یا دارم به این موضوع اشتباه فکر می کنم؟
چگونه می توانم داده های سری زمانی پر سر و صدا را برای کشف روابط احتمالی صاف کنم
8692
من می‌خواهم یک قاب داده را در R با «unstack» جابه‌جا کنم. دو فریم داده، «a» و «b» را در نظر بگیرید: > وضعیت شمارش 1 199665 RSTO 2 4147 RSTR 3 31274 S1 4 1 S2 5 2522 S3 6 118009 SF > وضعیت شمارش b 1 31956 RS106 RSTO1 4 2838 S2 5 6268 S3 6 672561 SF مشکل من این است که جدا کردن یک تکی کار نمی کند: > formula(a) count ~ state > unstack(a) res RSTO 199665 RSTR 4147 S1 31274 S2 1 S301، اما اگر S301 من به هم می پیوندم a و b، unstack همانطور که انتظار می رود کار می کند. > unstack(rbind(a,b)) RSTO RSTR S1 S2 S3 SF 1 199665 4147 31274 1 2522 118009 2 31956 11689 6702 2838 6261 6725 چرا این اتفاق می افتد؟ آیا گروه ها (یعنی RHS فرمول) برای اینکه «unstack» به درستی کار کند نیاز به تکرار دارند؟ چگونه می توانم «unstack» را با یک قاب داده کار کنم؟
انتقال فریم های داده در R از طریق unstack
66658
من می‌خواهم تأثیر انواع پاداش (IV) را بر عوامل انگیزشی (DV) آزمایش کنم، به این ترتیب که می‌خواهم تأثیر هر نوع پاداش را بر سطح یک ناظم شناسایی کنم. من از جنسیت به عنوان مدیر استفاده می کنم. من این کار را با وارد کردن هر نوع پاداش یک بار در تحلیل رگرسیون انجام می دهم. من IV را در مرکز قرار داده ام، و همانطور که ناظم قاطعانه است، آن را در مرکز قرار ندادم. من IV را با ناظم ترکیب کردم و حاصل دو متغیر را بدست آوردم. من رگرسیون را اجرا کردم و متوجه شدم که همه نتایج دارای یک همبستگی بالا (بین IV و محصول) هستند. مهمتر از آن، اکثر نتایج بی‌اهمیت هستند (یعنی محصول تأثیر معنی‌داری بر رابطه علی ندارد)، که در آن همه نتایج معنی‌دار منفی هستند. فکر می کنم با داده هایم مشکلی دارم، زیرا VIF ها بالای 10 هستند (مثلاً 24، 35).
اثر تعدیل غیر قابل توجه با VIF بالا
66656
من در حال انجام تجزیه و تحلیل عامل تاییدی (CFA) خود با استفاده از AMOS هستم و به ترتیب وزن عامل ها، برازش مدل و غیره را دریافت می کنم. با این حال، آیا راهی در AMOS وجود دارد که امتیازات عامل واقعی را برای هر مشاهده به SPSS صادر کند و سپس از آن استفاده کند. آنها را وارد مدل رگرسیون می کنند؟ با تشکر <_>
فاکتور CFA امتیاز AMOS را کسب می کند
110875
من داده‌هایم را با ARIMA مدل‌سازی می‌کنم و برای بررسی اینکه آیا مدل من خوب است، باید باقیمانده‌ها را محاسبه کنم و تابع همبستگی و تابع همبستگی جزئی باقیمانده‌ها را رسم کنم. اگر نتایج توابع بین $1.96 \pm 1/\sqrt(\sigma)$ باشد، به این معنی است که باقیمانده‌ها از فرآیند گاوسی گرفته شده‌اند، بنابراین مدل من خوب است (فرایندهای بیشتری برای بررسی مدل لازم است، اما در حال حاضر نگران آنها نیستم). حال، فرض کنید داده‌های خود را مدل‌سازی کنم که از ARIMA با نوآوری استفاده کردم که از توزیع t بدست می‌آید. اگر اکنون باقیمانده ها را محاسبه کنم و تابع همبستگی خودکار و همبستگی جزئی را رسم کنم، آیا باز هم باید بین $1.96 \pm 1/\sqrt(\sigma)$ باشد؟ حدس می‌زنم باید پیدا کنم که اطمینان 95 درصدی توزیع t چقدر است و این مرز من خواهد بود! درست میگم؟ و سوال دوم این است که چگونه می توانم باقیمانده ها را استاندارد کنم، با دانستن اینکه آنها دارای توزیع t هستند.
چگونه خطای استاندارد ACF را محاسبه کنم اگر خطاها به صورت t توزیع شوند؟
110874
من در حال انجام تفاوت در برآورد تفاوت هستم. در مورد اضافه کردن متغیرهای کنترل، من تا حدودی گیج هستم. آیا می‌خواهم متغیرهای کنترلی را اضافه کنم که بر متغیر وابسته تأثیر می‌گذارند یا متغیرهای کنترلی که بر متغیر وابسته تأثیر می‌گذارند، اما تأثیر سیاست روی متغیر وابسته را ندارند.
متغیرهای کنترل - تفاوت در تفاوت
110878
در بررسی چند نمونه از مسائل مربوط به یادداشت‌های کلاس، به مشکل زیر برخوردم: فرض کنید ما یک مدل رگرسیون $y=\beta_0+\beta_1x_1+\beta_2x_2+\beta_3x_4+\beta_4x_4+\epsilon$ داریم. می‌خواهیم فرضیه صفر را آزمایش کنیم که $ H_0: \beta_1=\beta_2$ فرضیه را بیان کنید $A\beta=c$، $A$ و $c$ را ارائه دهید که فرمول صحیح $H_0$ را بدست می دهد. بنابراین، مگر اینکه من مشکل را اشتباه متوجه شده باشم، به این ترتیب به آن پاسخ خواهم داد: 1) فرضیه صفر را به صورت $H_0 دوباره بیان کنید: \beta_1-\beta_2=0$. 2) $c=0$ را تنظیم کنید. 3) سپس برای $A\beta=c$، $A=[0,1,-1,0,0]$ و (نمیدانم چگونه بردار ستونی را تایپ کنیم) $\beta'=[\beta_0 داریم. ,\beta_1,\beta_2,\beta_3,\beta_4]$. ضرب برداری را انجام دهید، و در نهایت به $\beta_1-\beta_2=0$ می رسید، که فرضیه صفر ما است. اما، پس چگونه می توانم به بخش آخر سوال پاسخ دهم؟ رتبه $A$؟ من هرگز نشنیده ام که کسی در مورد رتبه در زمینه یک بردار صحبت کند. آیا من در اینجا کار اشتباهی انجام دادم و $A$ قرار است یک ماتریس $m$ x $n$ باشد که بتوانم برای آن رتبه محاسبه کنم؟ یا این فقط یک سوال بد بود (استاد مورد نظر به پرسیدن سوالاتی که هیچ منطقی ندارد بدنام است)؟
رتبه یک ماتریس در آزمون فرضیه رگرسیون؟
92132
فرض کنید من تابعی برای شبیه سازی داده ها برای رگرسیون دو جمله ای منفی دارم: simnegbin = تابع (X، بتا، آلفا) { lambda = exp(1 + X %*% بتا) y=NULL برای (j در 1:length(lambda) ) y = c(y,rnbinom(1,mu = lambda[j],size = alpha)) return(y)} و من آن تابع را فراخوانی می کنم مانند این: set.seed(123) x1 = rnorm(100) X = ماتریس(c(x1,x1^2)، ncol = 2) # داده با اثر درجه دوم بتا = c(0.5,-0.5) # ضرایب یک با علامت منفی آلفا = 1 y = simnegbin (X، بتا، آلفا) و سپس من دو مدل را برای این داده های شبیه سازی شده قرار می دهم. NB = MASS::glm.nb(y ~ X) Normal = glm(y ~ X) و به ضرایب حاصل نگاه کنید. هیچ چیز خیلی عجیبی نیست. مدلی با فرض اینکه توزیع نرمال کمی بالاتر است، اما خیلی بد نیست. coef(NB) coef(Normal) Normal: (Intercept) X1 X2 2.3997424 0.4019599 -0.5234614 NB: (Intercept) X1 X2 0.8992080 0.3573460 -0.4023558 به سادگی علامت مثبت را فراخوانی کنید. تابع: X = ماتریس (c(x1,x1^2)، ncol = 2) بتا = c(0.5،0.5) # ضرایب با علامت مثبت آلفا = 1 y = سیمنگبین (X، بتا، آلفا) و سپس من دو را برازش می کنم مدل هایی با استفاده از داده های شبیه سازی شده مشابه NB = MASS::glm.nb(y ~ X) Normal = glm(y ~ X) coef(normal) coef(NB) Normal: (Intercept) X1 X2 1.342937 3.162534 4.130669 # Biased Term NB: (Intercept) X27029 X1. 0.2905278 0.4587727 ضریب درجه دوم glm با فرض اینکه توزیع نرمال ** فوق العاده بایاس** است. آیا کسی شهودی در مورد دلیل این امر دارد؟
مقایسه رگرسیون glm نرمال و glm.nb با ترم درجه دوم؟
78959
من این فرمول را دارم: $\Delta a_{ki} \propto v_k (v_i - \langle v_i \rangle_{recon})$ اول اینکه $\propto$ به چه معناست و دوم اینکه تفاوت بین $v_i$ و $ چیست؟ \langle v_i \rangle$؟
منظور از براکت های زاویه ای چیست؟
66655
من در حال انجام پایان نامه کارشناسی ارشد هستم و باید تکنیک های مختلف پیش بینی را در فرکانس های مختلف مجموعه داده ها مقایسه کنم. من از مجموعه داده دانشگاهی خود، مجموعه داده REDD، مجموعه داده UCI و مجموعه داده CER Ireland برای این منظور استفاده می کنم. داده‌هایی که من استفاده می‌کنم بر حسب ثانیه برای بازه زمانی یک ماهه است و بیش از 3 میلیون رکورد می‌دهد. من سعی کرده ام بفهمم که چگونه از همه این داده ها به خوبی استفاده کنم اما دقیقاً نتوانستم به یک راه حل برسم. من مدل‌سازی سری زمانی را با داده‌های فرکانس بالا خوانده‌ام، اما نمی‌فهمم و نتوانستم منابعی را پیدا کنم که چگونه آن را برای مشکلم اعمال کنم. من سعی کرده‌ام چندین وبلاگ و کتاب را بخوانم تا درک درستی از پیش‌بینی سری‌های زمانی داشته باشم، اما بیشتر ادبیات نمونه‌هایی با جزئیات کمتر از داده‌های ساعتی دارند. برخی از منابعی که من پیدا کردم در مورد داده های با جزئیات بالا بود، اما فقط برای یک دوره زمانی کوتاه. من در وبلاگ پروفسور راب هایندمن خوانده ام که عملا مدل ARIMA فقط می تواند تا 200 نقطه اتورگرسیو محاسبه کند و اگر درک من درست باشد برای داده های با فرکانس در ثانیه، من می توانم به روندهای روزانه فقط با 3600*24 = 86400 دلار قبلی دست پیدا کنم. ارزش ها؟ من مطمئن نیستم که چگونه باید با این موضوع برخورد کنم. شکل داده ها به این صورت است (محور y وات است): ![http://postimg.org/image/i0txbwz6h/](http://i.stack.imgur.com/uKC7j.png)
پیش بینی با مجموعه داده بزرگ و فرکانس بالا
8690
فرض کنید من می‌خواستم مدلی از شکل $$y_i = \beta_0 + \sum_{1 \le j \le k} \beta_j X_{i,j} + \gamma_i Z_i + \epsilon_i,$$ را در برخی داده‌ها جا بدهم، که در آن رگرسیورهای $X$ و $Z$، و رگرسیون $y$ مشاهده می‌شوند، و جایی که $\gamma_i$ یک متغیر تصادفی برنولی است که برابر با یک با احتمال (نامعلوم) $p$ و در غیر این صورت صفر است. ما می‌توانیم انواع «قاعدگی» را فرض کنیم: خطاهای $\epsilon_i$ مستقل از رگرسیورها هستند و مستقل از $\gamma_i$ و غیره هستند. 2. اگر من فقط داده‌های $Z$ را با داده‌های $X$ پرتاب کنم و یک حداقل مربعات چندگانه معمولی انجام دهم، آیا ضریب حداقل مربعات مربوط به عبارت $Z$ به $p$ همگرا می‌شود که مشاهدات بیشتری اضافه می‌کنم؟ 3. اگر رگرسیون حداقل مربعات برای این مدل توصیه می شود، توزیع ضریب حداقل مربعات مربوط به عبارت $Z$ تحت فرض صفر $p = p_0$ چگونه است؟ (برای یک رگرسیون قطعی، ضریب دارای یک توزیع t معین است، با پارامترهای بسته به $p_0، n، k$ و ماتریس طراحی؛ من به دنبال آنالوگ برای ضریب تصادفی هستم.) 4. اگر حداقل مربعات باشد. رگرسیون توصیه می شود، وجود ضریب تصادفی چگونه بر توزیع سایر ضرایب رگرسیون (نمونه) تأثیر می گذارد؟
مدل خطی با ضریب تصادفی
78953
من یک فرضیه معمولی دارم که در آن آزمایش می کنم که آیا میانگین یک متغیر بزرگتر از میانگین متغیر دیگر است یا نه: H0: mean(variable1) <= mean(variable2) H1: mean(variable1) > mean(variable2) ) من تغییر آزمون Welch از آزمون t student را در R اجرا کرده ام و خروجی من این است: داده های آزمون t-test Welch Two: x و y t = -2.8207، df = 43.367، p-value = 0.9964 فرضیه جایگزین: تفاوت واقعی در میانگین بیشتر از 0.95 درصد فاصله اطمینان است: -0.08806587 تخمین نمونه Inf: میانگین x میانگین y 0.67082160'm سطح معنی داری 0.670821603 استفاده است 5 درصد بنابراین بر اساس خروجی، می دانم که نمی توانم فرضیه H0 را در سطح معناداری 5 درصد رد کنم. از آنجایی که تفاوت میانگین از x و y حدود 0.05- است و در محدوده CI 95% قرار دارد، باز هم می توانم نتیجه بگیرم که نمی توانم فرضیه H0 را رد کنم. سوال فرعی: آیا تجزیه و تحلیل هر دو نتیجه با CI و p-value به نحوی بیانیه من را تقویت می کند؟ آیا می‌توانم مطمئن‌تر باشم که اگر CI را تجزیه و تحلیل کنم، اگر مقدار p من از قبل نشان می‌دهد که بالاتر یا پایین‌تر از سطح معنی‌داری است، می‌توانم H0 را رد کنم یا نمی‌توانم؟ من فرض می‌کنم تناقضی بین تست p-value و تست CI نمی‌تواند رخ دهد. سوال اصلی: چگونه باید t-value را دقیقا تفسیر کنم؟ از آنچه من آموختم، هرچه مقدار t بیشتر از 0 فاصله بگیرد، احتمال اینکه اثر از نظر آماری معنی دار باشد بیشتر است. اول از همه، من مطمئن نیستم که دقیقاً معنی آن چیست که می گویند یک اثر از نظر آماری معنی دار است. من حدس می زنم این بدان معنی است که آزمایش ما به احتمال زیاد دقیق تر است؟ و چقدر از 0 ایمن خواهد بود و چرا؟
معنی دقیق t-value در آزمون t student چیست؟
55717
من سعی می کنم برخی از داده ها را تجزیه و تحلیل کنم که شامل 10 اندازه گیری مکرر در 10 نمونه مختلف است. این معمولاً مستلزم استفاده از مدل‌های ترکیبی است، و من سعی کرده‌ام این مدل‌ها را با استفاده از «lme» در nlme و با استفاده از «glmer» در lme4 مدل‌سازی کنم. مشکل این است که برای اکثر این نمونه ها، منحنی پاسخ یک خط صاف است (یعنی شیب صفر است) به دلیل داشتن چندین نمونه که تمام مقادیر صفر را دارند. این به این معنی است که اثرات تصادفی قرار نیست به طور معمول توزیع شوند، که یک فرض مدل های ترکیبی است. من در نظر دارم از 0 مدل ZINB باد شده استفاده کنم. درک من این است که فرض بر این است که برخی از صفرها صفرهای کاذب هستند. در مورد من، همه صفرها صفرهای واقعی هستند. آیا این با استفاده از مدل های ZINB نفی می کند؟ حتی اگر اینطور نباشد، مطمئن نیستم که این موضوع به مسئله اثرات تصادفی عادی رسیدگی کند. من سعی کردم از glmmadmb برای مدل‌سازی این داده‌ها با استفاده از «family = nbinom» و «zeroInflated = TRUE» استفاده کنم، اما نمی‌دانم با توجه به داده‌ها، این مناسب است یا خیر. هر ورودی بسیار قدردانی خواهد شد.
مدل های ترکیبی و اثرات تصادفی به طور معمول توزیع شده است
111474
یه سوال کوتاه دارم من یک تحلیل مؤلفه اصلی انجام دادم و دو مؤلفه به دست آوردم. آیا دو مؤلفه به اندازه کافی برای انجام تجزیه و تحلیل خوشه ای (تعداد شرکت کنندگان > 400) هستند؟ با تشکر از کمک شما!
برای تحلیل خوشه ای از چند عامل باید استفاده کرد؟
61380
من با تفسیر مدل AFT، مدل خطر متناسب کاکس و مدل خطر گسسته زمان مبارزه می کنم. _سوال من این است:_ آیا **ضرایب در مدل خطر گسسته-زمان** نیز قابل تفسیر هستند (مثلاً با استفاده از glm یا glmer در R) به روشی که در زیر توضیح داده شده است. یعنی *ضرایب مثبت حاکی از طولانی شدن زمان بقا است؛ بنابراین میزان خطر در حال کاهش است** و برعکس؟ آیا راهی برای نمایش ریاضی این موضوع وجود دارد؟ آنچه تاکنون خوانده ام (به عنوان مثال http://monogan.myweb.uga.edu/teaching/pd/16duration2.pdf و چگونه Exp(B) را در رگرسیون کاکس تفسیر کنم؟ و تفسیر رگرسیون کاکس): **مدل AFT* * * در مورد مدل AFT (زمان شکست تسریع شده) ضریب 2. نشان دهنده کاهش زمان بقا توسط این عامل است، به این معنی که در این در صورتی که رویداد پنج برابر سریعتر تجربه شود. * در مدل خطر متناسب: 1. ضرایب مثبت حاکی از افزایش نرخ خطر است. از این رو، زمان بقا کوتاه می شود. 2. ضرایب منفی نشان می دهد که میزان خطر در حال کاهش است. از این رو، زمان بقا طولانی می شود. ** مدل خطر متناسب کاکس** * در مدل کاکس یک ضریب نشان دهنده افزایش نرخ خطر ورود به سیستم است. * در مدل زمان شکست تسریع شده: 1. ضرایب مثبت حاکی از طولانی شدن زمان بقا است. از این رو، نرخ خطر در حال کاهش است. 2. ضرایب منفی حاکی از کوتاه شدن زمان بقا است. بنابراین، نرخ خطر در حال افزایش است **مدل خطر گسسته در زمان گسسته** در مدل خطر گسسته، ضریب رگرسیون منعکس کننده ورود به سیستم نسبت شانس است، از این رو به عنوان یک افزایش k برابری در ریسک تفسیر می شود.
تفسیر AFT، کاکس PH و مدل خطر گسسته زمان
110806
من سعی می کنم روش پیشنهادی Chib را در احتمال حاشیه ای از خروجی متروپلیس هیستینگز برای محاسبه احتمال نهایی یک مدل لاجیت که شامل متغیرهای پنهان است، به کار ببرم. به طور خاص، $Pr(Y=1)=\exp\frac{\beta x+z}{1+\exp(\beta x + z)}$ که در آن یک متغیر مشاهده نشده $z \sim N(0,\sigma) $. برای راهنمایی در مورد نحوه محاسبه احتمال حاشیه ای مدل بسیار سپاسگزار خواهم بود!
مدل متغیر نهفته احتمال حاشیه ای
66653
من آزمایشی را در طول چهار هفته انجام دادم تا داده‌های مربوط به متغیرهای وابسته مختلف را برای پاسخ به سؤالات فرعی مختلف جمع‌آوری کنم. از آنجایی که در هر متغیر وابسته، شرکت‌کنندگان مختلف ظاهر نشدند و بنابراین من داده‌های گمشده متفاوتی از شرکت‌کنندگان مختلف دارم. آیا باید همه داده‌های شرکت‌کنندگان مختلف را روی متغیرهای وابسته مختلف حذف کنم؟ یا باید از داده هایی که دارم برای هر متغیر وابسته استفاده کنم؟
مقادیر از دست رفته برای متغیرهای وابسته مختلف
110872
می‌پرسم آیا راهی برای انجام یک همبستگی درون‌طبقه‌ای، دو طرفه، مختلط، با داده‌های غیرعادی (در این مورد اثر سقف) وجود دارد؟ متناوبا، تفسیر (در صورت وجود) چه خواهد بود؟ چولگی من -2 است و همبستگی درون کلاسی 0.132 است. من از SPSS برای اجرای آنالیز استفاده می کنم.
داده های غیر عادی (اثر سقف) و همبستگی درون طبقاتی
8691
من در حال مقایسه نمرات دو گروه کوچک از افراد هستم که در یک تورنمنت شرکت کردند و به من می گویند که این مقایسه مستلزم آزمون Mann-Whitney U است. اگرچه برای من اشتباه است: دو مجموعه امتیازات من اساساً به یکدیگر وابسته هستند زیرا دو گروه با یکدیگر رقابت کردند. به طور خلاصه: من دو گروه دارم، یک گروه کنترل A (10 مرد) و یک گروه آزمایش B (12 مرد). گروه B تحت درمان قرار گرفتند و سپس اعضای گروه A و گروه B در یک تورنمنت مقابل یکدیگر قرار گرفتند. من به میزان موفقیت A در مقابل B در شکست دادن مردان گروه مقابل که با آنها رقابت می کردند علاقه مند هستم. در هر روز از مسابقات، دو A و دو B به رقابت پرداختند. هر بازی هر مردی برای خودش بود و برای امتیاز رقابت می کرد (فکر می کنم وظیفه نامربوط است). در یک روز، همیشه 4 رقیب وجود داشت - 2 A و 2 B. اما اگر هر یک از آن افراد در آن روز به معیار می رسید (در اصل تعداد معینی امتیاز کسب می کرد)، او کشیده می شد و روز بعد با یک بازیکن جدید از همان گروه خانگی (الف یا ب) جایگزین می شد. یک فرد می تواند تا 7 روز به معیار برسد (اگر شما 7 روز را بدون رسیدن به معیار می گذرانید، در نظر گرفته می شوید که باخته اید و از بازی خارج شده اید). این بدان معنی است که یک فرد (مثلاً یک A) که در یک روز بازی کرده و برنده شده است، تنها با سه رقیب دیگر روبرو می شود - 1 A و 2 B. اما A که ضعیف عمل کرد و 7 روز ماندگار شد، می‌توانست با تعداد زیادی از بازیکنان A و B روبرو شود، زیرا رقبای بهتری از آن عبور می‌کردند. بنابراین من به هر یک از مردان یک امتیاز رتبه‌ای داده‌ام که نشان‌دهنده درصد مردان گروه مقابل است که او شکست داده‌اند. فرض کنید یک A به نام جو به مدت دو روز رقابت کرد و با 1 A و 3 B دیگر روبرو شد و او پس از یک A دیگر در گروه اما بالاتر از سه B قرار گرفت. امتیاز او 1.0 خواهد بود. اگر جو کار سخت تری داشت و روزهای بیشتری را برای رسیدن به معیار زمان می برد، احتمالاً در مجموع با رقبای بیشتری روبرو می شد، اما اگر از همه Bهایی که ملاقات کرده بود، امتیاز او 1.0 بود. این امتیاز تلاش می‌کند تا اثربخشی بازیکنان را در شکست دادن مردان گروه مقابل اندازه‌گیری کند و امکان مقایسه بین مردانی را که با تعداد متفاوتی از رقبا روبرو شده‌اند، فراهم کند. بنابراین امتیازات رتبه برای دو گروه به این صورت است: A: 1، 1، 1، 0.833333، 0.75، 0.833333، 0.5، 0.333333، 0.333333، 0.5، 0.3333333، 0.5، 0.3333333، 0.63333، 0.6، 0.6، 0.125. 0.5، 0.333333، 0.5، 0.5، 0.2، 0.166667، 0 و سوال من این است: آیا راه معتبرتری برای دیدن اینکه آیا تفاوتی بین گروه ها وجود دارد یا نه از من ویتنی وجود دارد؟
تجزیه و تحلیل آماری داده های رقابت
8347
در حین شرکت در کنفرانس ها، طرفداران آمار بیزی برای ارزیابی نتایج آزمایش ها کمی اصرار داشتند. از آن به عنوان حساس‌تر، مناسب‌تر و انتخابی‌تر نسبت به یافته‌های واقعی (کمتر مثبت کاذب) نسبت به آمارهای متداول یاد می‌شود. من موضوع را تا حدودی بررسی کرده ام و تا کنون در مورد مزایای استفاده از آمار بیزی متقاعد نشده ام. با این حال، از تحلیل‌های بیزی برای رد تحقیقات داریل بم در حمایت از پیش‌شناخت استفاده شد، بنابراین من با احتیاط کنجکاو هستم که چگونه تحلیل‌های بیزی ممکن است حتی برای تحقیقات خودم مفید باشد. بنابراین من در مورد موارد زیر کنجکاو هستم: * قدرت در تحلیل بیزی در مقابل تحلیل مکرر * حساسیت به خطای نوع 1 در هر نوع تجزیه و تحلیل * معاوضه در پیچیدگی تحلیل (به نظر می رسد بیزی پیچیده تر است) در مقابل مزایا به دست آورد. تجزیه و تحلیل های آماری سنتی ساده و با دستورالعمل های ثابت برای نتیجه گیری هستند. سادگی را می توان به عنوان یک مزیت در نظر گرفت. آیا ارزش تسلیم شدن را دارد؟ با تشکر برای هر بینش!
آیا آمار بیزی واقعاً نسبت به آمارهای سنتی (تکرارگرا) برای تحقیقات رفتاری بهبود یافته است؟
92130
من از libsvm برای یک مشکل طبقه بندی 2 کلاس استفاده می کنم. برای آزمایش خود از C-SVM با هسته RBF استفاده می کنم. به نظر می رسد مشکل اصلی من این است که کلاس ها به شدت نامتعادل هستند. در حالی که من 35000 مجموعه داده در کلاس -1 دارم، تنها 16 مجموعه داده در کلاس +1 (تقریبا 0.05٪) در داده های آموزشی وجود دارد. این باید خوب باشد زیرا آن 16 مجموعه داده کلاس +1 را کاملاً دقیق توصیف می کنند. اما برای آموزش SVM مشکلاتی ایجاد می کند. libsvm گزینه -w را ارائه می‌کند که به من امکان می‌دهد وزن‌ها (یا جریمه‌ها) را برای طبقه‌بندی اشتباه در طول تمرین اضافه کنم. من کلاس -1 را با 1 و کلاس +1 را با 2187.5 وزن می کنم (= 35000 / 16). به نظر می رسد که در طول آموزش بسیار خوب کار می کند زیرا من نتایج مورد انتظار را با آزمایش مدل روی داده های آزمایشی خود دریافت می کنم. با این حال، من باید پارامترهای SVM (c و gamma) را به صورت دستی انتخاب کنم. این به این دلیل است که اعتبار سنجی متقاطع واقعاً کار نمی کند. با نگاهی به داده های آزمایشی من، انتظار دارم پارامترهایی را پیدا کنم که منجر به دقت 100٪ می شود، زیرا کلاس ها به وضوح قابل تفکیک هستند. اما اگر از Cross Validation استفاده کنم، دقت هایی که می گیرم بین 95% و 99.98% است. من از همان وزنه هایی که برای تمرین معمولی و اعتبارسنجی متقاطع 5 برابری استفاده می کنم استفاده می کنم. به نظر می رسد من دارم کار اشتباهی انجام می دهم. من گمان می‌کنم که وقتی مجموعه داده‌ها تقسیم می‌شوند، برخی از زیر مجموعه‌ها فقط شامل اعضای کلاس -1 هستند که آموزش با این زیر مجموعه را بی‌فایده می‌کند. کار درست در مورد من چیست؟ واضح است که وزن ها کمکی نمی کند. من نمی‌خواهم از کلاس -1 کم نمونه برداری کنم، زیرا 16 مجموعه داده واقعاً برای توصیف این کلاس کافی نیستند. آیا باید نوعی از نمونه برداری بیش از حد را در کلاس +1 امتحان کنم؟ یا مشکل من چیز دیگری است؟ پیشاپیش متشکرم
libsvm: اعتبارسنجی متقاطع با کلاس های نامتعادل
33933
من دو متغیر پیوسته ($X,Y$) را برای 21 موضوع اندازه می‌گیرم. $X$ و $Y$ هر کدام 216 نقطه داده (در هر موضوع) دارند. می‌خواهم ببینم آیا $X$ و $Y$ در سطح گروه همبستگی دارند یا خیر. من می توانم به 3 گزینه فکر کنم: الف) همه موضوعات را به هم متصل کنید و همبستگی را محاسبه کنید. من معتقدم این روش میزان خطای نوع $\text{I}$ من را کمی افزایش می دهد و ایده بدی به نظر می رسد. ب) برای هر موضوع یک همبستگی جداگانه اجرا کنید، و سپس تجزیه و تحلیل سطح 2 را اجرا کنید تا ببینید آیا مقادیر t از هر همبستگی به طور قابل توجهی با 0 متفاوت است (آزمون t تک نمونه). به نظر می رسد این در تجزیه و تحلیل داده های fMRI در سطح گروه کاملاً برجسته باشد. ج) یک مدل خطی با اثر مختلط بسازید و موضوع را به عنوان یک متغیر تصادفی در نظر بگیرید. من این کار را در R با استفاده از «lmer(y ~ x + (1|sub))» انجام دادم و همان نتیجه b را گرفتم، البته مقدار p متفاوتی داشت. با این حال، من به ندرت از R استفاده می‌کنم و زمانی که pvals.fnc مقدار p 0 را گزارش می‌کند (که من کمتر از 0.0001 تفسیر می‌کنم) تا حدودی مشکوک هستم. راه مناسب برای اجرای این تحلیل چیست و به طور خاص تفاوت بین (b) و (c) چیست؟
اثر همبستگی در سطح گروه
55718
من یک مجموعه داده دارم که چندین مجموعه از برچسب های باینری برای آن دارم. برای هر مجموعه ای از برچسب ها، من یک طبقه بندی کننده را آموزش می دهم و آن را با اعتبارسنجی متقاطع ارزیابی می کنم. من می خواهم با استفاده از PCA ابعاد را کاهش دهم. سوال من این است: **آیا می توان یک بار PCA را برای مجموعه داده انجام داد و سپس از این مجموعه داده جدید همانطور که در بالا توضیح داده شد استفاده کرد؟ یا آیا باید برای هر مجموعه آموزشی یک PCA جداگانه انجام دهم (که به معنای انجام یک PCA جداگانه برای هر طبقه‌بندی کننده و برای هر فولد CV است)؟** از یک طرف، PCA از برچسب‌ها استفاده نمی‌کند. از سوی دیگر، از داده‌های آزمایشی برای انجام تبدیل استفاده می‌کند، بنابراین می‌ترسم که بتواند نتایج را سوگیری کند. باید اشاره کنم که علاوه بر ذخیره مقداری کار، انجام یکبار PCA روی کل مجموعه داده به من این امکان را می دهد که مجموعه داده را برای همه مجموعه های برچسب به طور همزمان تجسم کنم. اگر من یک PCA متفاوت برای هر مجموعه برچسب داشته باشم، باید هر مجموعه برچسب را جداگانه تجسم کنم.
PCA قبل از تقسیم قطار/آزمایش
111470
آیا می توانم به طور دستی متغیر وابسته تاخیر را در بین متغیرهای توضیحی در برآورد مدل داده های تابلویی قرار دهم (در تلاش برای ایجاد رابطه بین سود ناخالص/درآمد قبل از بهره و مالیات به عنوان متغیر وابسته برای معادلات 1 و 2 به ترتیب. مواد خام، کار در حال انجام، موجودی های خوب به پایان برسد. متغیرهای مستقل.logFsize، Year Dummy - متغیرهای کنترل.
متغیر وابسته تاخیر در بین متغیرهای توضیحی در تحلیل داده های تابلویی
50745
SPSS چندین روش برای استخراج عامل ارائه می دهد: 1. مولفه های اصلی (که اصلاً تحلیل عاملی نیست) 2. حداقل مربعات بدون وزن 3. حداقل مربعات تعمیم یافته 4. حداکثر احتمال 5. محور اصلی 6. فاکتورسازی آلفا 7. فاکتورسازی تصویر نادیده گرفتن روش اول، که تحلیل عاملی نیست، کدام یک از این روش ها بهترین است؟ مزایای نسبی روش های مختلف چیست؟ و اساساً چگونه انتخاب کنم که از کدام یک استفاده کنم؟ سوال مشابه: آیا باید از هر 6 روش نتایج مشابهی بدست آورد؟
بهترین روش های استخراج عامل، با ارجاع به SPSS
107966
من سعی می‌کنم k طبقه‌بندی نزدیک‌ترین همسایه را در R انجام دهم. برای اینکه می‌خواهم معنی‌دارترین ویژگی‌ها را برای مقابله با نفرین ابعاد انتخاب کنم. من قبلاً تصمیم گرفته ام از فاصله ماهالانوبیس و فاصله اقلیدینی استفاده کنم. سوال من اکنون این است که بهترین راه برای انتخاب ویژگی های مورد استفاده چیست. همانطور که قبلاً متوجه شدم جستجوی جامع توصیه نمی شود زیرا این امر منجر به بیش از حد مناسب می شود. آیا دستورالعمل یا مقاله ای وجود دارد؟ برخی از مثال ها در R نیز انجام می دهند. پیشاپیش از شما بسیار سپاسگزارم
روش انتخاب ویژگی های معنادار برای طبقه بندی نزدیکترین همسایه
22430
من در حال کار بر روی برازش یک مدل کاکس برای پیش بینی هستم. اما چندین پیش بینی فرض خطرات متناسب را نقض کردند. من می خواهم مدل طبقه بندی شده کاکس را برای تنظیم آنها انجام دهم. اما نتایج مدل طبقه بندی شده کاکس شامل هیچ اطلاعات یا تأثیری از آن پیش بینی کننده های طبقه بندی نمی شود. از آنجایی که من واقعاً می‌خواهم تأثیر یک پیش‌بینی‌کننده مهم را ببینم، فرض می‌کنم که برای نتیجه داده‌های من بسیار مهم است. آیا راه دیگری برای این کار وجود دارد؟
مدل طبقه بندی شده کاکس
107961
من در درک SVM برای موارد قابل جداسازی خطی و غیرخطی مشکل دائمی دارم. من تا حدی می‌دانم که SVM یک ابرصفحه ایجاد می‌کند که حداکثر یا بهینه فاصله بین دو کلاس را دارد که باید از هم جدا شوند، که اساساً به عنوان مرز تصمیم در زمان پیش‌بینی عمل می‌کند. من همه چیز را تا جایی دنبال کردم که گفته شد 1/2 (||w||) را کمینه کنید، که واقعاً متوجه نمی شوم. همچنین، پس از آن چیزی مربوط به ترفند هسته وجود داشت، در آن مرحله، من به طور کامل مسیر را گم کردم. آیا کسی می‌تواند یک مثال عددی کوتاه را نشان دهد که چگونه می‌توانیم یک SVM را به صورت آماری روی یک مجموعه داده کوتاه انجام دهیم، اجازه دهید این یکی را بگوییم: x = [(2،3،5)، (4،5،6)، (6،5) ,9), (9,11,22)] y = [1,1,-1,-1] همچنین، من به بخش پیش بینی بر اساس نتیجه حاصل از svm این مجموعه داده علاقه مند هستم. پیشاپیش ممنون
مثال عددی SVM (گام به گام)
63943
من می خواهم عملکرد یک مخزن آب باران را که دارای ورودی تصادفی (بارندگی) است، مدل کنم. داده ها حجم خالی مخزن در پایان هر روز است. مقادیر به سمت افراط‌ها منحرف شده‌اند، و من مطمئن نیستم که چگونه این را مدل کنم یا آن را به صورت آماری ارائه کنم. با بررسی توزیع‌های مختلف در ویکی‌پدیا، متوجه شدم که به نظر یک توزیع بتا است - اما مطمئن نیستم که یکی است یا خیر. من باید یک روش آماری برای نمایش حجم خالی پیدا کنم. یکی از دوستان به من پیشنهاد داد که از توزیع دوجمله ای احتمال خالی بودن 25 درصد، 50 درصد خالی یا 75 درصد خالی بودن مخزن استفاده کنم و فواصل اطمینان مرتبط با آن مقادیر را پیدا کنم. توزیع داده‌های من در اینجا است: ![DataDist](http://i.stack.imgur.com/yBg7d.png) ویرایش - 11 ژوئیه، 7:28 GMT (برای شفاف‌سازی نظرات زیر را دنبال کنید) جریان ورودی به مخزن به‌طور تصادفی رخ می‌دهد به دلیل بارندگی در صورت وجود حجم ذخیره شده، انتزاع منظم از مخزن وجود دارد. من می‌خواهم احتمال حجم خالی مخزن را در هر روز تصادفی در آینده بر اساس داده‌های تاریخی و اطمینان مرتبط با آن احتمال تخمین بزنم. سپس می‌خواهم از این رقم «حجم خالی» برای تخمین میزان بارندگی طوفانی بزرگ استفاده کنم که تعداد زیادی از این مخازن می‌توانند حجم سیل‌های ناگهانی را کاهش دهند. احتمالاً ممکن است نیاز به ارائه احتمالات ترکیبی با احتمال طوفان داشته باشد.
نحوه مدل سازی توزیع هایی که به طور معمول توزیع نمی شوند
55714
من می‌خواهم یک توزیع هذلولی را با توجه به نماد خود تنظیم کنم: \begin{align*} H(l;\alpha,\beta,\mu,\delta)&=\frac{\sqrt{\alpha^2-\beta^ 2}}{2\alpha \delta K_1 (\delta\sqrt{\alpha^2-\beta^2})} exp\left(-\alpha\sqrt{\delta^2+(l-\mu)^2}+\beta(l-\mu)\right) \end{align*} من از بسته HyperblicDistr استفاده می کنم. برای مرحله اول، تخمین پارامترها (داده): hyperbFit(dat,hessian=TRUE) خروجی ![t1](http://i.stack.imgur.com/EHat0.png) اکنون پارامترها را به نماد خود تبدیل می کنم: hyperbChangePars(from=1,to=2,c(-0.002494,0.002035,0.090747,0.204827 )) که می دهد ![t2](http://i.stack.imgur.com/qOSK0.png) حالا، من می خواهم خطاهای استاندارد پارامترهایم را محاسبه کنم، اگر این کار را انجام دهم: summary(hyperbFit(dat,hessian=TRUE)) I دریافت ![t4](http://i.stack.imgur.com/LEIoM.png) اما اینها خطاهای استاندارد در مورد نماد پارامتر هستند که من نمی دانم خواستن بنابراین اولین سوال من: 1. خطاهای استاندارد به کدام پارامترها (در نماد من) تعلق دارند؟ بنابراین، خطای استاندارد $\hat{\alpha}، \hat{\beta}، \hat{\mu}$ و $\hat{\delta}$ چیست؟ 2. مقادیر ثابت می مانند، درست است، بنابراین آنها تغییر نمی کنند یا؟
خطاهای استاندارد HyperbFit؟
33931
من سعی می کنم یک رگرسیون چندگانه ساده بسازم تا ارزش یک خانه را تخمین بزنم. 5 نقطه داده، 5 فروش خانه قابل مقایسه هستند (از نظر اندازه، زمین، مکان، تعداد اتاق خواب، و غیره مشابه). اگر چنین مدلی را اجرا کنید، نرم افزار می گوید که به یک نقطه داده بیشتر از متغیرها نیاز دارید. بنابراین، اگر من 5 فروش خانه قابل مقایسه خود را بگیرم و آنها را 4 بار تکرار کنم، چطور؟ بنابراین، اکنون من 20 نقطه داده دارم. نرم افزار باید بتواند رگرسیون چندگانه مرتبط را اجرا کند. من پیش بینی می کنم که شما پاسخ دهید که این روش شناسی ناقص است زیرا در زیربنای همه این موارد شما هنوز فقط 5 نقطه داده متفاوت دارید. اما، می توانید این رد را کمی بیشتر بیان کنید. همچنین، آیا می توانید هر روش جایگزینی برای رفع این محدودیت پیشنهاد کنید.
چگونه یک مدل رگرسیون فقط با 5 نقطه داده با 5 متغیر یا بیشتر بسازیم؟
78950
فکر می کردم در آمار مهارت دارم تا اینکه متوجه شدم در یک مشکل ساده غرق شده ام که حل آن مشکل دارم، از این رو درخواست من برای تخصص شماست :) 1) یک آزمون برای بسیاری از داوطلبان برگزار شده است. 2) تعداد داوطلبان بیش از 20000 نفر می باشد. c1,c2,c3 ...C20000+ 3) هر داوطلب در نتیجه آزمون رتبه بندی شده است و 2 داوطلب با رتبه برابر وجود ندارد. رأی: r1,r2,r3...r20000 4) 5 دوره s1,s2,s3,s4,s5 وجود دارد که نامزدها انتخاب خود را برای آنها بیان کرده اند. کاندیدایی که دارای بالاترین رتبه است، مکان های بالاترین انتخاب خود را تا تکمیل تمام مکان های 20 رشته تکمیل می کند. 5) تعداد مکان های هر درس s متفاوت است: s1=50، s2=70 s3=10، s4=200، s5=20. مجموع مکان ها = 350 از چه سیستم رتبه بندی برای رتبه بندی محبوبیت یا تقاضای دوره ها توسط داوطلبان موفق استفاده می کنید؟ رتبه‌بندی تقاضا/محبوبیت هر دوره با جمع‌بندی انتخاب‌های هر رشته از 20000+ داوطلب بسیار آسان است، اما این به من شاخص تقاضا را برای کل جمعیت می‌دهد. من رتبه هایی را می خواهم که از 350 متقاضی موفق بدست می آید. ایده کسب رتبه ای است که توسط انتخاب های متقاضیان موفق بیان می شود. می توانید به من کمک کنید؟ پ.ن: تلاش من برای حل این مشکل عبارت بود از: الف) رتبه بندی داوطلبان موفق در هر دوره و تقسیم آن بر تعداد رتبه های دروس. ب) با جمع آوری رتبه داوطلب، آن را در رتبه در دوره ضرب کرد و این مقدار را بر مجموع رتبه های درس تقسیم کرد، مثلاً داوطلب 203 در درس S2 (که دارای 70 رتبه است) پنجم شد: (203*5 +... برای همه 70 نامزد)/70
نحوه محاسبه رتبه دروس
55715
من به دنبال یک بسته نرم افزاری آماری هستم که بتوانم از آن در دوره مقدماتی آمار برای یک برنامه مطالعاتی علوم اجتماعی استفاده کنم. دانش آموزان هیچ دانش قبلی از آمار و هیچ تجربه ای با زبان های برنامه نویسی ندارند. هدف این است که آنها را با مفاهیم اساسی آماری (به عنوان میانگین، واریانس، مجموع مربع ها، مقادیر p، ... و در نهایت رگرسیون خطی) آشنا کنیم و آنها را قادر به انجام تجزیه و تحلیل های اساسی به تنهایی با استفاده از مجموعه داده های نمونه کنیم. این دوره باید در مورد یادگیری مفاهیم با انجام آمار باشد نه حفظ فرمول ها (اگرچه به نظر من فرمول ها مهم هستند). بنابراین، من به دنبال یک جایگزین برای نحو معمول (به عنوان R معمولی) یا نقطه و کلیک (به عنوان SPSS یا Rcmdr) نرم افزار محور هستم. نرم افزار باید به راحتی قابل یادگیری باشد و باید دارای یک رابط کاربری گرافیکی واضح باشد که مجموعه داده ها را تجسم کرده و نمودارها و جداول استاندارد را ارائه دهد. بهترین کار این است که تمام مراحل مختلف یک تجزیه و تحلیل (مانند خواندن و دستکاری داده ها، محاسبه معیارهای توصیفی، ساخت جداول و نمودارهای توصیفی، محاسبه معیارهای استنتاجی، ترسیم نمودارهای استنباطی، صادرات به گزارش) را به تصویر بکشد. **آیا نرم افزار آماری (متن باز یا رایگان) پیشنهادی دارید که برای یادگیری و اولین تمرین آمار مناسب باشد؟** **ویرایش** با تشکر از پیشنهادات شما. من به gretl و دو برنامه دیگر که در طول تحقیق آنلاین خودم پیدا کردم، نگاه کردم: RapidMiner و Statistical Lab.[1] دریافته‌ام که رابط و خروجی «gretl» واضح‌تر و متمرکزتر از مثال است. Rcmdr، SPSS یا Stata. بنابراین، از دیدگاه من ابزار مناسبی برای شروع آموزش آمار است. با این حال، فلوچارت رابط کاربری گرافیکی RapidMiner و Statistical Lab من را تحت تاثیر قرار داد زیرا آنها مراحل تکی یک تجزیه و تحلیل آماری (شروع با بارگذاری داده ها) را تجسم می کنند. من فکر می کنم این ممکن است برای بسیاری از دانش آموزانی که با تمرکز معمول بر روی توضیحات ریاضی مشکل دارند مفید باشد. البته به نظر من RapidMiner بیش از حد با توابع، منوها و دکمه‌ها برای مبتدیان پر شده است، در حالی که آزمایشگاه آماری بسیار متمرکزتر است. مزیت بزرگ آزمایشگاه آماری R-Calculator کنسول مانند با جادوگر R-code است که به تولید نحو واقعی R کمک می کند زیرا آزمایشگاه آماری برای محاسبات خود به R متکی است. در نهایت تصمیم گرفتم در ترم اول با معرفی مفاهیم اولیه با _آزمایشگاه آماری شروع کنم و در ترم دوم به _RStudio_ (و Rcmdr) بروم. [1]: Gnumeric، SciPy، Scilab، GNU Octave و موارد مشابه به نظر من کمتر به علوم اجتماعی معطوف می شود.
کدام نرم افزار آماری برای تدریس دوره مقدماتی آمار در مقطع کارشناسی علوم اجتماعی مناسب است؟
66657
آیا هنگام اجرای برخی از پروژه های NLP، مانند بخش بندی متن، شناسایی موجودیت نام، آیا استفاده از trigram تضمین می کند که عملکرد دقیق تری نسبت به bigram دارد؟ $$ Trigram: p(s_t\mid s_{t-2}, s_{t-1}) $$ $$ Bigram: p(s_t\mid s_{t-1}) $$ ویرایش: من از HMM استفاده می کردم برای انجام NER در سوابق استناد (انتشارات). من از بیگرام در پیاده سازی خود استفاده می کردم. دقت خوب بود من کلاس NLP مایکل کالینز را در Coursera می بینم که در آن از یک HMM سه گانه برای انجام برچسب گذاری POS استفاده می کند. بنابراین من فکر می کردم که آیا trigram عملکرد را به طور قابل توجهی افزایش می دهد یا فقط کمی. و همچنین کنجکاو هستم که آیا در هر صورت تریگرام بدتر از بیگرام عمل می کند. whuber قبلاً یک نمای کلی بسیار خوب از مزایا و معایب trigram در نظرات ارائه کرده است.
آیا تریگرام عملکرد دقیق تری نسبت به بیگرام تضمین می کند؟
66650
من از رگرسیون لجستیک استفاده می کنم و سعی می کنم بفهمم که آیا به هر حال می توان مقادیر p را در اکتاو یا پایتون محاسبه کرد. با تشکر
مقدار P برای رگرسیون لجستیک در اکتاو یا پایتون
55711
من داده‌هایی دارم که در آن بازبینان مختلف اهمیت موضوعات متعدد را در مقیاس 1 تا 5 (مقیاس لیکرت) رتبه‌بندی کرده‌اند. هر یک از موضوعات به یک گروه اختصاص داده شده است. می‌خواهم ببینم آیا تفاوتی در رتبه‌بندی کلی اهمیت بین گروه‌های موضوعات وجود دارد یا خیر. در اینجا نمونه‌ای از شکل ظاهری داده‌ها آمده است... \begin{array}{|c|c||c|} موضوع & گروه & reviewer1 & reviewer2 & reviewer3 \\\ \hline 1&A&4&2&2\\\ 2&A&5&5&5\\\ 3&B&3&3&2\\\ 4&B&4&5&2\\\ 5&C&5&4&4 \end{آرایه} داده های واقعی موضوعات، گروه ها و بازبین های بیشتری دارد. من می دانم که نباید از ANOVA استفاده کنم، بنابراین فرض می کنم که باید از یک تکنیک ناپارامتریک استفاده کنم، اما مطمئن نیستم که کدام یک با توجه به چندین موضوع و چندین بازبین در هر گروه وجود دارد. برخی از داوران ممکن است سختگیرتر از دیگران باشند و من می‌خواهم آن را توضیح دهم. با تشکر از کمک شما!
چگونه تفاوت رتبه‌بندی‌های چندگانه لیکرت چندین آیتم را در گروه‌ها ارزیابی کنیم؟
55712
من 2 آرایه با داده های مربوط به الگوی میدان اطراف آنتن ها در آنها دارم. میخوام ببینم چقدر شبیه هم هستن آیا این بدان معناست که باید ماتریس کوواریانس یا ضرایب همبستگی ماتریس را پیدا کنم؟ داده‌های آرایه‌ها به این شکل هستند (مقادیر ساخته شده): شعاع (m) زاویه (درجه) قدرت میدان (dbm) 0.5 0 -21 1.5 0 -31 2.5 0 -41 3.5 0 -51 4.5 0 -61 0.5 45 - 21 1.5 45 -31 2.5 45 -41 3.5 45 -51 4.5 45 -61 ADD: من فقط می خواهم شباهت بین مقادیر در آخرین ستون هر دو آرایه را آزمایش کنم، به عنوان مثال قدرت میدان در یک نقطه خاص در اطراف آنتن. من همچنین فکر می کنم ممکن است که من انحراف معیار را بخواهم. متاسفم اگر خیلی منطقی نیستم، این پروژه ای است که من با WiFi انجام می دهم. سال ها پیش آمار یاد گرفتم.
آیا می خواهم ضرایب همبستگی یا ماتریس کوواریانس دو آرایه را پیدا کنم؟
22691
> **تکراری احتمالی:** > افزایشی یا آنلاین یا تک گذر یا خوشه بندی جریان داده به همین موضوع اشاره دارد؟ 1. الگوریتم‌های خوشه‌بندی افزایشی 2. الگوریتم‌های خوشه‌بندی آنلاین 3. الگوریتم‌های خوشه‌بندی جریان داده‌ها 4. الگوریتم‌های خوشه‌بندی تک گذر آیا عبارات زیر به هم مرتبط هستند؟ آیا برخی از آنها شامل برخی دیگر می شود؟ چه تفاوتی بین آنها وجود دارد؟ چه محدودیت هایی وجود دارد که هر یک بر خلاف دیگران باید با آن روبرو شود؟
Incremental یا Online یا Single Pass یا Data Stream Clustering به همین موضوع اشاره دارد؟
26326
من یک رگرسیون با چندین متغیر مستقل با 32 مشاهده (از 1975 تا 2006 و آنها داده های سالانه) اجرا می کنم. مسئله اینجاست که هیچ مشاهده ای برای یکی از متغیرهای قبل از سال 1980 وجود ندارد. در نتیجه، آن متغیر دارای 5 مشاهدات گمشده (از 1975 تا 1979) است. آیا روشی در R برای ارائه تخمینی برای این مقادیر از دست رفته وجود دارد؟ ضمناً متغیر توضیحی در اینجا «کل نیروی کار» است و روند بسیار بارزی دارد. بنابراین، من به خوبی می دانم که از نظر آماری برآورد مقادیر گذشته بسیار امکان پذیر است.
چگونه داده های از دست رفته را تخمین بزنیم؟
66652
من دو سری زمانی دارم * $p_t$، قیمت روز بازار یک نوع خاص از کالا * $f_t$، تولید روزانه چنین کالایی حالا فرض کنید یک رابطه منحصر به فرد وجود دارد که به شما می گوید تولید بهینه با توجه به قیمت تابع عرضه): $q(p_t) = a + b p_t$. سری تولید $f_t$ به $q(p_t)$ نزدیک می شود اما این کار را به آرامی و پر سر و صدا انجام می دهد. مثالی از منظور من از آن این است: ![خط آبی $f_t$ است، خط سیاه $p_t$ است ](http://i.stack.imgur.com/zRbZe.png) من باید $ را تخمین بزنم a$ و $b$ فقط با مشاهده $f_t$ و $p_t$. من مطمئنم که می توان این کار را انجام داد، اما من واقعاً در سری های زمانی زنگ زده هستم. با تشکر از کمک!
یک سری زمانی به سمت تابع (خطی) سری زمانی دیگر گرایش دارد، چگونه آن تابع را پیدا کنیم؟
26323
چه روش هایی برای اندازه گیری قدرت روابط دلخواه و بسیار غیرخطی بین دو متغیر جفتی وجود دارد؟ منظور من از بسیار غیرخطی، روابطی است که نمی‌توانند به طور معقول یا قابل اعتماد با رگرسیون به یک مدل شناخته شده مدل شوند. من به خصوص به سری‌های زمانی علاقه‌مندم، اما تصور می‌کنم هر چیزی که برای داده‌های دو متغیره کار می‌کند در اینجا کار می‌کند (اگر دو سری زمانی را به‌عنوان مجموعه‌ای از نقاط داده جفتی در نظر بگیریم) دو موردی که من از آنها مطلع هستم، میانگین هستند. اختلاف مربع (یعنی میانگین مربعات خطا، در نظر گرفتن یک سری زمانی به عنوان مقدار مورد انتظار و یکی به عنوان مقدار مشاهده شده)، به عنوان و کوواریانس فاصله. دیگران چه هستند؟ **توضیح:** من اساساً در مورد وابستگی بین سری ها می پرسم، جایی که همبستگی خطی یا همبستگی غیرخطی ساده (پس از log، exp، trig، سایر تبدیل های تحلیلی ساده) واقعاً معنی ندارد.
روش های اندازه گیری قدرت روابط غیرخطی دلخواه بین دو متغیر؟
26325
من یک فایل مدل دارم که با استفاده از svmlight در حالت طبقه بندی با هسته خطی ایجاد شده است. آیا می توان این فایل را تبدیل کرد تا libsvm از آن برای طبقه بندی استفاده کند؟
آیا می توان یک مدل svmlight را به کار با libsvm تبدیل کرد؟
46958
من دو متغیر ترتیبی دارم که در مقیاس های مختلف تنظیم شده اند. متغیرها از پرسشنامه استخراج شدند. متغیر اول از 12- تا 12+ با گام 1 عرض، (-12، -11،...-2،-1، 0، 1، 2،...، +11، +12) و دومی فقط از 2- تا 2+ با همان عرض پله (-2,-1,0,+1,+2) متغیر است. من می خواهم بررسی کنم که آیا آنها با هم مرتبط هستند یا خیر و همچنین قدرت ارتباط بالقوه بین آنها را اندازه گیری کنم. چگونه این کار را انجام دهم؟ آیا باید متغیرها را استانداردسازی کنم تا بتوانم آنها را با یکدیگر مقایسه کنم؟ پیشاپیش از شما متشکرم کنستانتینوس
چگونه می توان آزمون ضریب همبستگی را بین دو متغیر ترتیبی با مقیاس های ناهموار اجرا کرد؟
107962
من یک داده بارندگی دارم که شامل حدود 95 سال برای ردیف ها و دوازده ماه از سال برای ستون ها است. بنابراین این یک ماتریس 95x12 است، نه بردار ستونی. آیا می توانم با تجزیه و تحلیل مولفه های اصلی، ایده ای در مورد ماه هایی که باید با توجه به بارندگی متمرکز شوند به دست بیاورم؟ اگر چنین است، اجزای اصلی به چه سال‌ها یا ماه‌ها اشاره می‌کنند؟ همچنین پاسخ بردارهای ویژه را به ترتیب قدر کاهشی برمی گرداند. بنابراین هر کدام به کدام ماه (ماه) اشاره می کنند؟ یک مثال کوچک در مورد چگونگی تفسیر نتایج با استفاده از T2 هتلینگ، امتیازات و مؤلفه‌های اصلی می‌تواند به روشن شدن این مسائل برای من کمک کند.
آیا فصلی بودن را می توان با تجزیه و تحلیل مولفه های اصلی شناسایی/کاوش کرد؟
8342
من یک جدول احتمالی سه سطحی دارم، با داده‌های شمارش برای چندین گونه، گیاه میزبانی که از آن جمع‌آوری شده‌اند و اینکه آیا این مجموعه در یک روز بارانی اتفاق افتاده است (این در واقع مهم است!). با استفاده از R، داده های جعلی ممکن است چیزی شبیه به این باشد: شمارش <- rpois(8، 10) گونه <- rep(c(a، b)، 4) میزبان <- rep(c(c, c، d، d)، 2) rain <- c(rep(0,4), rep(1,4)) my.table <- xtabs(تعداد ~ میزبان + گونه ها + باران) , باران = 0 گونه میزبان a b c 12 15 d 10 13 , , rain = 1 گونه میزبان a b c 11 12 d 12 7 حال می خواهم دو چیز را بدانم: آیا گونه ها با گیاهان میزبان مرتبط هستند؟ آیا باران یا نه بر این ارتباط تأثیر می گذارد؟ من از «loglm()» از «MASS» برای این کار استفاده کردم: با توجه به تأثیر باران، آیا گونه‌ها از گیاهان میزبان مستقل هستند؟ loglm(~گونه + میزبان + باران + گونه*باران + میزبان*باران، داده=my.table) # با توجه به هر رابطه ای بین گیاهان میزبان و گونه ها، آیا باران آن را تغییر می دهد؟ loglm (~گونه + میزبان + باران + گونه* میزبان) این کمی خارج از سطح راحتی من است و می‌خواستم بررسی کنم که آیا مدل‌ها را درست تنظیم کرده‌ام و این بهترین راه برای نزدیک شدن به این سؤالات است.
روشی مناسب برای مقابله با جدول احتیاطی 3 سطحی
19523
رگرسیون خطی را با مقداری منظم سازی در نظر بگیرید: به عنوان مثال. $x$ را بیابید که $||Ax - b||^2+\lambda||x||_1$ را به حداقل می‌رساند، معمولاً ستون‌های A استاندارد می‌شوند تا میانگین و هنجار واحد صفر داشته باشند، در حالی که $b$ در مرکز صفر قرار می‌گیرد. معنی می‌خواهم مطمئن شوم که درک من از دلیل استانداردسازی و مرکزی‌سازی درست است یا خیر. با صفر کردن میانگین ستون های $A$ و $b$، دیگر نیازی به عبارت رهگیری نداریم. در غیر این صورت، هدف $||Ax- x_01-b||^2+\lambda||x||_1$ بود. با برابر کردن هنجارهای ستون‌های A برابر 1، این امکان را حذف می‌کنیم که فقط به دلیل اینکه یک ستون از A هنجار بسیار بالایی دارد، ضریب پایینی در x$ دریافت می‌کند، که ممکن است ما را به اشتباه به این نتیجه برساند که ستون A $x$ را خوب توضیح نمی دهد. این استدلال دقیقاً دقیق نیست، اما به طور شهودی، آیا این راه درستی برای فکر کردن است؟
نیاز به مرکزیت و استانداردسازی داده ها در رگرسیون
8340
**به روز رسانی: می خواستم توضیح دهم که این یک شبیه سازی است. ببخشید اگه همه رو گیج کردم من همچنین از نام های معنی دار برای متغیرهایم استفاده کرده ام.** من آمارگیر نیستم، پس اگر اشتباهی در توضیح آنچه می خواهم مرتکب شدم، لطفاً مرا تصحیح کنید. در رابطه با سوال قبلی ام، بخش هایی از سوالم را برای مرجع در اینجا بازتولید کرده ام. > من در حال ارزیابی وابستگی خروجی یک سناریو به سه متغیر هستم: Area، > Speed ​​و NumOfVehicles. برای این، من آزمایش‌های زیر را انجام می‌دهم: > > * Fix Area+Speed، Vary NumOfVehicles - مجموعا چهار مجموعه (Area+Speed) > هر کدام دارای 4 تغییر از NumOfVehicles > * Fix Speed+NumOfVehicles، Vary Area - مجموعا چهار مجموعه ای از > (Speed+NumOfVehicles) که هر کدام دارای 3 تغییر منطقه هستند > * رفع NumOfVehicles+Area، Vary Speed ​​- در مجموع چهار مجموعه > (NumOfVehicles+ Area) که هر کدام دارای 6 تغییر سرعت هستند > > > خروجی هر شبیه سازی مقدار یک متغیر در طول زمان است. متغیر خروجی > که من مشاهده می کنم زمانی است که در آن 80 درصد اتومبیل ها تصادف می کنند. > > من سعی می کنم تعیین کنم که کدام پارامتر (ها) بر نتیجه آزمایش > غالب است. منظور من از تسلط این است که گاهی اوقات، نتایج با تغییر یکی از پارامترها تغییر نمی کند، اما زمانی که برخی از پارامترهای دیگر حتی به مقدار کمی تغییر می کند، یک تغییر بزرگ در خروجی مشاهده می شود. من باید این اثر را ثبت کنم و تجزیه و تحلیلی به دست بیاورم تا بتوانم وابستگی خروجی به پارامترهای ورودی را بفهمم. یکی از دوستان > تجزیه و تحلیل حساسیت را پیشنهاد کرد، اما مطمئن نیستم که آیا راه های ساده تری برای > انجام آن وجود دارد یا خیر. لطفاً کسی می تواند در مورد یک تکنیک خوب (احتمالاً آسان زیرا من > سابقه آماری ندارم) به من کمک کند؟ اگر همه اینها را بتوان در R انجام داد بسیار عالی خواهد بود. نتیجه قبلی من با توجه به نتایج رگرسیون خیلی رضایت بخش نبود. بنابراین کاری که من انجام دادم این بود که ادامه دادم و همه آزمایش‌هایم را 20 بار با تغییرات مختلف هر متغیر تکرار کردم (به عنوان مثال، به جای 4 تغییر Area، اکنون 8 و غیره دارم). در زیر خلاصه ای از R پس از استفاده از رگرسیون خطی به دست آوردم: فراخوانی: lm(فرمول = T ~ مساحت + سرعت + تعداد وسایل نقلیه) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.13315 -0.06332 -0.01346 0.04249670 St. خطای t مقدار Pr(>|t|) (تقاطع) 0.04285 0.02953 1.451 0.148 ناحیه 0.70285 0.02390 29.406 < 2e-16 *** سرعت -0.15560 0.15560 0.0207-2-7.0208 *** NumOfVehicles -0.27447 0.02927 -9.376 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.08659 در 206 درجه آزادی چندگانه R-squared: 0.8304، تنظیم شده R-squared: 0-27. آمار: 336.2 در 3 و 206 DF، p-value: < 2.2e-16 برخلاف نتیجه قبلی من: lm(فرمول = T ~ مساحت + سرعت + تعداد وسایل نقلیه) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.35928 -0.06842 -0.006958940. Std. خطای t مقدار Pr(>|t|) (Intercept) -0.01606 0.16437 -0.098 0.923391 Area 0.80199 0.15792 5.078 0.000112 *** سرعت -0.2748501 -0.274150 0.1 . NumOfVehicles -0.31898 0.14889 -2.142 0.047892 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1665 در 16 درجه آزادی چندگانه R-squared: 0.6563، R-squared تنظیم شده: 0.59 آمار: 10.18 در 3 و 16 DF، p-value: 0.0005416 از درک من، نتایج فعلی من دارای خطای استاندارد کمتری است، بنابراین خوب است. علاوه بر این، مقدار Pr نیز بسیار پایین به نظر می رسد که به من می گوید که این نتیجه بهتر از نتیجه قبلی من است. پس آیا می توانم ادامه دهم و بگویم که A بیشترین تأثیر را روی خروجی دارد و سپس S و V به این ترتیب بیایند؟ آیا می توانم از این نتیجه کسر دیگری انجام دهم؟ همچنین، به من پیشنهاد شد که تغییرات دیگری مانند $A^2$ و غیره را اضافه کنم. اما اگر $A$ منطقه باشد، گفتن زمان به $A^2$ بستگی دارد در واقع به چه معناست؟
مقایسه و درک نتیجه رگرسیون خطی من با تلاش قبلی
55716
من می خواهم داده های سری زمانی زیر را به اجزای فصلی، روند و باقیمانده تجزیه کنم. داده ها یک نمایه انرژی خنک کننده ساعتی از یک ساختمان تجاری است: TotalCoolingForDecompose.ts <- ts(TotalCoolingForDecompose, start=c(2012,3,18), freq=8765.81) نمودار (TotalCoolingForDecompose.ts) ![سری زمانی انرژی خنک کننده] (http://i.stack.imgur.com/IQcQ1.png) اثرات فصلی روزانه و هفتگی آشکاری وجود دارد، بنابراین بر اساس توصیه‌هایی از: چگونه یک سری زمانی را با چندین مؤلفه فصلی تجزیه کنیم؟، من از تابع «tbats» از بسته «پیش‌بینی» استفاده کردم: TotalCooling.tbats <- tbats(TotalCoolingForDecompose. ts، seasonal.periods=c(24168)، use.trend=TRUE، use.parallel=TRUE) plot(TotalCooling.tbats) که منجر به این می شود: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/fUvBk.png) اجزای سطح و شیب این مدل چه چیزی را توصیف می کنند؟ چگونه می توانم مؤلفه های «روند» و «باقی مانده» را مشابه کاغذ مورد اشاره این بسته (De Livera، Hyndman و Snyder (JASA، 2011)) دریافت کنم؟
تفسیر تجزیه سری های زمانی با استفاده از TBATS از بسته پیش بینی R
32579
من در مورد این متعجب بودم، مخصوصاً به این دلیل که داشتم این چیزی به نام روشن کردن را بررسی می کردم که ظاهراً شبیه سازی های مونتکارلو را انجام می دهد، اما به خوبی نمی فهمم که آیا هدف من را برآورده می کند (ارزیابی حسن تناسب). با سلام و تشکر فراوان
ارزیابی خوبی برازش مدل logit و اصلاح درونزایی در STATA
111479
من از جعبه ابزار ریاضی Doronix استفاده می کنم. آنها توابع آماری دارند (http://www.doronix.com/statistics.html). من نمی توانم بفهمم که آنها چگونه p-value را در آزمون های رتبه بندی و نشانه ای پیدا می کنند. کسی آن را می شناسد؟ من می پرسم چون پاسخ با متلب متفاوت است. اما پاسخ در متلب با SPSS متفاوت است. آیا می توانم از تست های جعبه ابزار ریاضی Doronix Wilcoxon استفاده کنم؟
تست های Wilcoxon در جعبه ابزار ریاضی Doronix
8344
من سعی می کنم بفهمم توابع تأثیر چگونه کار می کنند. آیا کسی می‌تواند در زمینه یک رگرسیون OLS ساده \begin{معادله} y_i = \alpha + \beta \cdot x_i + \varepsilon_i \end{equation} توضیح دهد که در آن من تابع تأثیر را برای $\beta$ می‌خواهم.
توابع نفوذ و OLS
32574
هر سال (یا هر سال دیگر) داده‌های بیشتری (به عنوان مثال، سرشماری، سلامت، کار) با نتایج در سطح خانوار در خانواده‌هایی که به‌طور تصادفی انتخاب شده‌اند در دسترس قرار می‌گیرد که می‌تواند با داده‌های جغرافیایی (به عنوان مثال، شرایط اقتصادی منطقه‌ای، ایالت) جفت شود. یا انتخاب سیاست های محلی یا قیمت مسکن و غیره)، ما نیاز به ساخت مدل هایی داریم که به نظر من آنچه در مورد داده های پانل مقطعی شناخته شده به اندازه کافی کمک نمی کند. یک سطح (به عنوان مثال، مجموعه ای از کشورها در طول زمان). به بیان دیگر: در داده‌هایی که من به آنها نگاه می‌کنم، خانوارها به‌طور تصادفی ترسیم می‌شوند، اما سطحی که در آن خوشه‌بندی می‌شوند (به عنوان مثال، ایالت‌ها/استان‌ها) یک پانل است (شاید یک پانل کامل، همه ایالت‌ها در هر سال). و هر دو متغیر در سطح خانوار و سطح دولتی مورد توجه هستند (به عنوان مثال، تأثیر نرخ های بیکاری ایالتی بر نتیجه، زیرا در طول ایالت و در سال متفاوت است). تا کنون، من دیده ام که افرادی با این موضوع برخورد کرده اند که می گویند خانوارها (که یک پانل نیستند، اما هر سال از هر منطقه جغرافیایی ترسیم می شوند) در یک گروه «زمان قضایی سال»، مانند «سال های ایالتی» یا سال های ملت. به عنوان مثال، شما 50 ایالت و 10 سال دارید، بنابراین 500 سال حالت. با این حال، آیا نباید اصلاحاتی (در این مثال، فراتر از خوشه بندی خطاهای مربوط به سال های حالت) برای ماهیت پانل داده ها در سطح ایالت انجام شود؟ امیدوارم این سوال منطقی باشد. من فکر می کنم چنین داده هایی بیشتر و بیشتر مورد تجزیه و تحلیل قرار خواهند گرفت، بنابراین این یک مشکل جالب برای فکر کردن است. برای هر فکری از شما متشکرم
مشاوره در مورد سری های زمانی مقطعی با دو سطح مورد نیاز است
93264
من یک سوال سریع در مورد پرو LSMS از سال 1994 داشتم (http://microdata.worldbank.org/index.php/catalog/617). LSMS به ده ها فایل تقسیم می شود که همه آنها حاوی اطلاعات مختلفی هستند (برخی از آنها حاوی اطلاعاتی در مورد جمعیت شناسی، برخی دیگر در مورد درآمد و برخی دیگر در مورد سطح تحصیلات هستند). با این حال، نمی توانم بفهمم که چگونه می توانم بفهمم چه مشاهداتی در بین فایل ها مطابقت دارند (و تعداد مشاهدات در هر فایل متفاوت است). آیا X.CASENUM متغیری است که من به دنبال آن هستم؟ من فکر کردم که اینطور است، اما مشکوک هستم زیرا در هر فایل، بالاترین X.CASENUM = تعداد مشاهدات، و من نگران هستم که X.CASENUM فقط با شماره پرونده برای پرونده برابر باشد و در سراسر آن یکسان نباشد. فایل ها (به عبارت دیگر، X.CASENUM #5 در reg01 با X.CASENUM #5 در reg 11 یکسان نیست).
شناسه فرد در مجموعه داده LSMS پرو در سال 1994 چیست؟
8349
من از نظر آماری کاملاً یک چیز مبهوت هستم، پس لطفاً فقدان اصطلاحات استاندارد من را ببخشید. فکر می کنم ممکن است سوال من مربوط به نرمال سازی باشد، اما اگر اشتباه می کنم، لطفا دوباره تگ کنید. من یک برنامه نویس هستم و وظیفه ایجاد نموداری را بر عهده دارم که نشان می دهد چگونه تعداد خطاها در یک مجموعه داده از ماه به ماه تغییر می کند. متأسفانه ما یک آمارگیر در داخل نداریم که به من کمک کند تا آن را بفهمم... داده ها به شرح زیر است: هر ماه تعدادی از آیتم ها در یک پایگاه داده وارد می شوند. این موارد از نظر خطا بررسی می شوند و خطاها نیز وارد پایگاه داده می شوند. هر مورد می تواند چندین خطا از انواع مختلف داشته باشد و تعداد موارد اضافه شده در هر ماه می تواند بسیار متفاوت باشد. چگونه می توانم نشان دهم که فرکانس خطا از ماه به ماه چگونه تغییر می کند؟ نشان دادن درصدی از خطاها/تعداد آیتم ها درست نیست زیرا ممکن است برای هر مورد چندین خطا وجود داشته باشد. نمودار همچنین باید حتی برای افرادی که هیچ پیشینه ای در آمار ندارند به راحتی قابل درک باشد، بنابراین چیزی تا حد امکان نزدیک به مقادیر یا درصدهای واقعی خوب است. نمونه ای از داده ها با تعداد کل خطاها در ماه: اقلام خطاهای ماه ===================== مارس 208 2027 آوریل 276 1304 مه 609 1721 ژوئن 167 1561 جولای 268 513 خطاهای مارس را می‌توان به این صورت تقسیم کرد: خطاهای نوع ================== نوع 1 2 تیپ 2 43 نوع 3 93 تیپ 4 0 تیپ 5 1 تیپ 6 0 تیپ 7 4 نوع 8 0 تیپ 9 22 نوع 10 0 نوع 11 43
نمودار خطاها بر اساس تعداد موارد در ماه
3632
فرض کنید باید در مورد جمعیتی با درآمد (x) بیش از 5000 دلار اقدامی انجام دهیم. درآمد مستقیم مشاهده نمی شود. آیا باید از رگرسیون لجستیک برای تخمین x استفاده کنیم یا باید از رگرسیون لجستیک برای تخمین مستقیم احتمال x>5000 استفاده کنیم؟ (اشکال / مزیت روش ها چیست؟) ویرایش: بله - منظور من از لجستیک رگرسیون لجستیک بود. متغیرهای دیگری که من دارم، متغیرهای تاریخ مالی، دموگرافیک و متغیرهای دفتر اعتبار هستند. به عنوان مثال، موجودی، استفاده، جنسیت، # خودرو، مالکیت یا عدم مالکیت خانه، موجودی کارت خارجی، # بدهی بد خارجی و غیره.
آیا باید x را رگرسیون کنیم یا از رگرسیون لجستیک روی x>5000 استفاده کنیم
93263
من یک سری داده از شمارش فوتون در مقابل زمان دارم. این داده‌ها دوره‌ای هستند، سپس می‌توانم آن‌ها را تا بزنم و نمایه متوسطی از داده‌ها را بدست بیاورم. با این وجود، برخی از تغییرات گاهی در پروفایل های منفرد ظاهر می شوند. برای بررسی اینکه آیا میانگین پروفایل و تک از نظر آماری متفاوت است یا خیر، آنها به من پیشنهاد کردند که از آزمون کولموگروف-اسمیرنوف استفاده کنم. من تازه وارد این کار هستم، اما به نظر بسیار جذاب است! با این حال، روش پیشنهادی مستقیماً بر روی دو مجموعه داده (متوسط ​​و تک‌ها)، بلکه بر روی باقیمانده‌ها استوار است. اساسا، من باید تک پروفایل ها را از میانگین کم کنم و بررسی کنم که آیا باقیمانده ها به طور معمول توزیع شده اند یا خیر. چیزی که من نمی فهمم این است: چگونه تست نرمال بودن روی باقیمانده ها می تواند معادل یا تفاوت دو مجموعه داده را ارزیابی کند؟
چگونه نرمال بودن در آزمون ks را برای هم ارزی یا تفاوت در مجموعه داده ها ارزیابی می کند؟
22438
با توجه به آزمایشی که در آن تعدادی از موجودیت ها با استفاده از دو روش مختلف در دو اجرای مختلف اندازه گیری/ارزیابی می شوند، چگونه می توان همبستگی بین اجراها را محاسبه کرد؟ به عبارت دیگر؛ من حدود هزار موجودیت $X_i$ دارم که هر کدام با دو امتیاز $S_{i,1}$ و $S_{i,2}$، و دو مجموعه داده از این قبیل از دو اجرا. من در موقعیتی نیستم که در مورد توزیع های واقعی $S_{i,j}$ که از آن می آیند چیزی را فرض کنم. همانطور که در بالا ذکر شد، هدف من این است که بفهمم این امتیازات تا چه حد بین اجراها همبستگی دارند. آمار مناسب من نیست، بنابراین من واقعاً مطمئن نیستم که چگونه ادامه دهم، اما اولین غریزه من این است: 1. نمرات را از یکدیگر جدا کرده و دو ضریب همبستگی را برای مدل های امتیازی $S_{i,1}$ و $ محاسبه کنید. S_{i,2}$. 2. برای هر موجودیت $X_i$ امتیاز اجرای اول را به عنوان مختصات x و امتیاز اجرای دوم را به عنوان مختصات y بگیرید و یک نمودار پراکندگی بدست آورید. سپس از نمودار به عنوان مبنایی برای محاسبه ضریب همبستگی پیرسون استفاده کنید. آیا این یک رویکرد مناسب/قابل قبول خواهد بود؟ من کمی در مورد همبستگی پیرسون در ویکی‌پدیا مطالعه کرده‌ام و محاسبه مقادیر و واریانس‌های مورد انتظار $S_{i,j}$ کمی مشکل به نظر می‌رسد، زیرا هیچ سرنخی در مورد توزیع زیربنایی ندارم، و به ویژه اینکه آیا می‌توانم آن را فرض کنم یا نه. نمرات باید از همان توزیع حاصل شود. به طور خلاصه، من بسیار گیج هستم، و واقعاً از هر کمکی در این مورد سپاسگزارم.
در مورد محاسبه همبستگی برای یک تنظیم خاص مطمئن نیستید
19526
حداقل طول یک سری زمانی برای در نظر گرفتن نتایج آزمون روند من-کندال منسجم چقدر است؟
آزمون روند Mann-Kendall حداقل طول سری زمانی
37405
آیا کسی می تواند توضیح دهد که تفسیر طبیعی هیپرپارامترهای LDA چیست؟ 'ALPHA' و 'BETA' پارامترهای توزیع دیریکله به ترتیب برای (در هر سند) موضوع و (در هر موضوع) توزیع کلمه هستند. اما آیا کسی می تواند توضیح دهد که انتخاب مقادیر بزرگتر از این ابرپارامترها در مقابل مقادیر کوچکتر به چه معناست؟ آیا این به معنای قرار دادن هر گونه باور قبلی از نظر پراکندگی موضوع در اسناد و انحصار متقابل موضوعات از نظر کلمات است؟ _این سوال در مورد تخصیص دیریکله نهفته است، اما نظر BGReene بلافاصله در زیر به تجزیه و تحلیل تشخیص خطی اشاره دارد که به طور گیج کننده ای نیز به اختصار LDA نامیده می شود.
تفسیر طبیعی برای فراپارامترهای LDA
26329
من در حال خواندن Wagenmakers (2007) بودم. یک راه حل عملی برای مشکل فراگیر مقادیر p. من شیفته تبدیل مقادیر BIC به عوامل و احتمالات بیز هستم. با این حال، تا کنون درک خوبی از اینکه **اطلاعات واحد قبلی** دقیقاً چیست، ندارم. اگر توضیحی با تصاویر یا کد R برای تولید تصاویر از این پیشین خاص ارائه دهم سپاسگزار خواهم بود.
Unit Information Prior چیست؟
57710
من در یک محیط بسیار محدود حافظه کار می کنم، و تعداد بردارهای پشتیبانی که طراحی Matlab من ایجاد می کند چیزی نیست که مقیاس شود. این باعث شد که به دنبال یافتن راهی برای کاهش تعداد بردارهای حمایتی باشم. و من با این مقاله از MIT مواجه شدم: http://dspace.mit.edu/handle/1721.1/54725 مقاله برای دانلود رایگان در دسترس است. اکنون در صفحه 4203 (به پایین، صفحه نمایه سازی صفحه مجله نگاه کنید)، آخرین پاراگراف بیان می کند: _ بکارگیری روش های مجموعه کاهش یافته [8]، یک تکنیک کاهش سفارش مدل، اجازه می دهد تا تابع توصیف غیرخطی با استفاده از NM << بردارهای پشتیبانی بیان شود. ._ اکنون مرجع هشتم این مقاله فقط پیوندی به جعبه ابزار است، در اینجا: جعبه ابزار تشخیص الگوی آماری ForMatlab (STPRTool): http://cmp.felk.cvut.cz/cmp/software/stprtool/index.html سوال من این است: آیا کسی ایده ای برای کاهش بردارهای پشتیبانی دارد؟ چند الگوریتم ساده و پیاده سازی آن؟ برای پاسخ سپاسگزار خواهم بود.
ترتیب بردارهای پشتیبانی و نحوه کاهش آنها
26328
مجموعه داده ای شامل افراد و تعداد دندان هایی که آنها کشیده اند به من ارائه شده است. حداکثر 32 است و تقریباً نیمی از داده ها صفر هستند. از من خواسته شده است که یک مدل چند متغیره مناسب برای این داده ها پیشنهاد کنم. من در ابتدا فکر می‌کردم که این یک توزیع دوجمله‌ای منفی است، اما به من اشاره شد که تعداد استخراج‌ها می‌تواند مجموعه‌ای از آزمایش‌های برنولی را نشان دهد. من قبلاً داده‌های رویدادها/آزمایش‌ها را مدل‌سازی نکرده‌ام و به نظر نمی‌رسد متنی پیدا کنم که این را توضیح دهد (ممکن است از کلمات کلیدی نادرستی استفاده کنم) و به من کمک کند تا نتایج را به درستی تفسیر کنم. آیا کسی می تواند به من چند متنی را نشان دهد که این را توضیح دهد؟ من خوشحال می شوم هر متنی را که مربوط به SAS، Stata، SPSS یا R باشد، بخوانم، اما ترجیح می دهم یک متن کاربردی و نه یک متن بیش از حد نظری باشد. متناوبا نظرات شما در مورد مدل خوش آمدید، با تشکر.
اطلاعات اولیه یا متون مورد نیاز در مورد مدل‌سازی آزمایش‌های برنولی
96161
آیا اصطلاحنامه مرجعی برای اصطلاحات آمار و یادگیری ماشین وجود دارد؟ می‌دانم که مقالات ویکی‌پدیا اغلب دارای مترادف‌هایی هستند، اما می‌خواهم اصطلاحنامه‌ای داشته باشم که بتوانم به راحتی از آن عبور کنم (در مقایسه با یک دایره‌المعارف کامل) تا مطمئن شوم که همه اصطلاحات را می‌دانم.
اصطلاحنامه برای اصطلاحات آمار و یادگیری ماشین
104439
من روی تولید یک مدل خطی وزنی در R با استفاده از تابع 'lm' کار می کنم. مجموعه داده من حدود 1200 مشاهده دارد. متغیرهای مستقل من مجموعه ای از 168 مؤلفه اصلی هستند، یعنی متغیرهای مستقل قبلاً نرمال شده اند و همبستگی ندارند. هیچ متغیر عاملی وجود ندارد. بردار وزن دارای مقادیری از حدود 0.05 تا 0.2 است. مشکل من این است که وقتی یک مدل با استفاده از تمام 168 متغیر مستقل ایجاد می کنم، پیامی دریافت می کنم که 22 مورد از آنها به دلیل تکینگی ها تعریف نشده اند. تعداد مشاهدات من بسیار بیشتر از تعداد متغیرها است، بنابراین در درک اینکه چرا این اتفاق می افتد مشکل دارم. دیگرانی که در مورد همین پیام اخطار پست کردند، راه‌حل‌هایی پیدا کردند که مربوط به چند خطی بودن یا متغیرهای عاملی بود، که واقعاً در مورد وضعیت من صدق نمی‌کند. برای هر ایده ای بسیار متشکرم! این خروجی است (ستون curweight وزن هایی است که در بالا مشخص کردم): pc_string <- log_hire_length ~ PC_1 + PC_2 + PC_3 + ... + PC_168 تماس: lm(فرمول = فرمول (pc_string)، داده = قطار، وزن = قطار[، وزن وزن]) باقیمانده های وزنی: حداقل 1Q میانه 3Q حداکثر -2.15762 -0.16307 0.03723 0.24849 1.16929 ضرایب: (22 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 6.214563 0.051896 119.750 <2e-16 *** PC_1 -0.031482 0.318851 -0.099 0.9214 PC_2 -0.28041 -0.28041 0.8677 PC_3 -0.315965 1.053582 -0.300 0.7643 ... PC_145 0.184415 2.946271 0.063 0.9501 PC_146 0.4688915 2.4688915 2.9501. PC_147 NA NA NA NA PC_148 NA NA NA NA PC_149 NA NA NA NA PC_150 NA NA NA NA NA PC_151 NA NA NA NA PC_152 NA NA NA NA PC_153 NA NA NA NA NA PC_154 NA NA NA NA PC_154 NA PC_156 NA NA NA NA PC_157 NA NA NA NA PC_158 NA NA NA NA PC_159 NA NA NA NA PC_160 NA NA NA NA PC_161 NA NA NA NA PC_162 NA NA NA NA NA PC_163 NA NA NA NA PC_163 NA PC_165 NA NA NA NA PC_166 NA NA NA NA PC_167 NA NA NA NA PC_168 NA NA NA NA خطای استاندارد باقیمانده: 0.4434 در 1123 درجه آزادی (8 مشاهده به دلیل فقدان حذف شد)
درک تابع R lm (وزن دار) - ضرایب به دلیل تکینگی ها تعریف نشده اند
57711
1. مدل شرکت و سازمان مجری در بیش از یک حوزه با هم تعامل دارند. این ممکن است به این دلیل باشد که یک آژانس واحد مسئول اجرای بیش از یک مقررات است یا به این دلیل که مقررات یکسانی را در بیش از یک کارخانه سازنده یک شرکت چند کارخانه ای اجرا می کند. برای سادگی فرض می کنیم که تعداد دامنه ها دو است و از قبل یکسان هستند. در هر حوزه، شرکت ملزم به رعایت مقررات است. اگر مطابقت داشته باشد هیچ آسیبی به محیط زیست وارد نمی کند در غیر این صورت آسیب d را وارد می کند که معمولاً مشاهده می شود. هزینه انطباق شرکت پنجم در حوزه j [h1, 2j به cij نشان داده می شود که ci 1 و ci 2 مستقل هستند و به طور خصوصی از توزیع f(c) با F(c) تجمعی مرتبط هستند. F دانش عمومی است. اگر آژانس متوجه عدم انطباق توسط یک شرکت در هر یک از حوزه ها شود، می تواند آن شرکت را به دادگاه بکشاند («تعقیب» شرکت) که در این صورت شرکت مشمول جریمه L است که برون زا است. پنالتی ها به این معنا محدود می شوند که F(L) < 1\. این نشان می‌دهد که یک سیاست پیگیری کامل، که به موجب آن آژانس هر 3 تخلف را دنبال می‌کند، باعث انطباق کامل نخواهد شد. شرکت و سازمان مجری هر دو ریسک خنثی هستند و به ترتیب هدفشان به حداکثر رساندن سود مورد انتظار و به حداقل رساندن آسیب محیطی مورد انتظار است. آیا کسی می تواند به من توضیح دهد که F(L) < 1 به چه معناست؟ اگر به زمینه پشت این مدل نیاز دارید، لطفاً به من بگویید تا آن را نیز توضیح دهم
سوال در مورد پارادوکس هرینگتون
48271
از کتاب جانسون، می توانم مدل عامل متعامد را به صورت زیر ببینم: $X-\mu=LF+\epsilon$ بنابراین اگر از SPSS برای استخراج امتیازهای عاملی از تحلیل عاملی چندین متغیر استفاده کنم، آیا می‌خواهم عاملی را بدست بیاورم. امتیاز برای میانگین متغیرهای تفریق شده؟ در واقع قصد من این است که از نمرات عامل به عنوان IV به همراه برخی از IV هایی که در تحلیل عاملی استفاده نشده اند استفاده کنم، که تا آنجا که من می دانم یک روش معتبر است. اما اگر من مقادیر تخمینی $F$ (نمرات عاملی) را از $(X-\mu)$ دریافت کنم، پس با IVهایی که در تحلیل عاملی در طول رگرسیون لحاظ نشده‌اند چه باید کرد؟ با DV چه کار کنم؟ آیا باید آنها را نیز کم کرد؟
آیا SPSS برای میانگین متغیرهای تفریق شده امتیاز عاملی می دهد؟
22434
من کتاب توکی تحلیل داده های اکتشافی را خوانده ام. این کتاب که در سال 1977 نوشته شده است، بر روش های کاغذی/مدادی تاکید دارد. آیا جانشین مدرن تری وجود دارد که به این نکته توجه داشته باشد که اکنون بتوانیم مجموعه داده های بزرگ را به صورت آنی ترسیم کنیم؟
جانشین مدرن تجزیه و تحلیل داده های اکتشافی توسط توکی؟
96163
آیا راهی برای تعیین کمیت \ تست \ توصیف می‌کند که چقدر احتمال دارد که داده‌های ابعادی بالا از یک گاوسی منفرد یا مخلوطی از گاوسی‌ها (با میانگین‌های مختلف \ SD) به دست بیاید یا خیر؟ چیزی که من به آن فکر می کنم شبیه به ایده آزمون t است، اما زمانی که جداسازی به گروه ها ناشناخته است.
تست این است که داده ها از مخلوط یا فقط نرمال نویز گرفته شده است
99924
برای تجزیه و تحلیل رگرسیون، اغلب دانستن فرآیند تولید داده برای بررسی نحوه عملکرد روش استفاده شده مفید است. در حالی که انجام این کار برای یک رگرسیون خطی ساده نسبتاً ساده است، زمانی که متغیر وابسته باید از توزیع خاصی پیروی کند، این مورد صادق نیست. یک رگرسیون خطی ساده را در نظر بگیرید: N <- 100 x <- rnorm(N) بتا <- 3 + 0.4*rnorm(N) y <- 1 + x * بتا + 0.75*rnorm(N) آیا راهی برای استفاده وجود دارد همان رویکرد، اما برای اینکه «y» غیر از حالت عادی باشد، می‌گوییم چپ کج است؟
شبیه سازی داده های رگرسیون با متغیر وابسته غیرعادی توزیع شده است
81227
من یک مجموعه داده با 3000 زیرمنطقه با داده‌های مربوط به جمعیت آنها بر اساس محدوده درآمد و هزینه‌های ارزش آنها در یک کالا دارم. من یک مدل OLS با تبدیل log-log با استفاده از تابع «lm()» در R ساختم تا هزینه‌های 300 منطقه فرعی دیگر را پیش‌بینی کنم. $$ \ln(Y+1) = \beta_0 + \beta_1\ln(X_1+1) + \beta_2\ln(X_2+1) + ... + \epsilon $$ که در آن $Y$ هزینه‌های جمع‌آوری شده توسط منطقه فرعی، و $X$ جمعیت بر اساس محدوده درآمد هستند. در R: myModel = lm(log(spending + 1) ~ log(pop_income1 + 1) + log(pop_income2) + log(pop_income3 + 1) + log(pop_income4 + 1)، data=myOldData) سپس از «predict( myModel, myNewData, interval = پیش‌بینی)`. اما این منجر به مقدار مورد انتظار $\ln(Y_i+1)$ و فواصل پیش‌بینی آن برای هر $i$ شد و من به فاصله پیش‌بینی و میانگین $\sum\limits_{i=1}^n Y_i$ نیاز دارم، که در آن $n$ 300 است. چگونه می توانم این کار را با R انجام دهم؟
مجموع متغیرهای پیش بینی شده را با یک مدل خطی در R تخمین بزنید
102871
عکس زیر نمونه‌ای از نتیجه‌ای است که می‌خواهم با استفاده از آزمون به دست بیاورم که در خود مقاله نمی‌توانم آن را پیدا کنم، امیدوارم شاید هر یک از شما بداند. من سعی کرده‌ام تست مجذور کای را برای تناسب اندام انجام دهم، اما آنچه واقعاً می‌خواهم این است که بتوانم BP را بین دو گروه (مردان در مقابل زنان) مقایسه کنم. آیا کسی می تواند نوری بتابد و به من بگوید که نام آزمایش چیست؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CkB3O.jpg)
از کدام آزمون برای اندازه گیری در صورت رسیدن به هدف استفاده کنیم؟
52071
من سعی می کنم مجموعه ای از پیش بینی کننده های $p$ را به 5 کلاس طبقه بندی کنم. اما اندازه نمونه من $n$ نسبتاً کوچک است، بنابراین می ترسم که تخمین خیلی محکمی نداشته باشم. اکنون یک ایده این است که داده های خود را برای هر یک از 5 کلاس پاسخ زیر مجموعه قرار دهم و داده های بیشتری را در هر کلاس شبیه سازی کنیم. من به عنوان مثال یک توزیع نرمال چند متغیره را برای پیش‌بینی‌کننده‌ها فرض کنید، و سپس (فکر می‌کنم برخی افراد آن را راه‌اندازی _parametric_ می‌نامند) $\mu$ و $\Sigma$ را از نرمال چند متغیره تخمین بزنند، و با آن پارامترها 10000 مشاهدات جدید را در این کلاس شبیه‌سازی کنند. من این کار را برای هر کلاس انجام می دهم و سپس 50000 مشاهده اضافی داشته باشم. با توجه به اینکه من داده ها را فقط از دانشی که از نمونه کوچک خود دارم شبیه سازی می کنم، آیا چیزی می توانم با این روش به دست بیاورم؟ استحکام بله، اما مطمئناً اطلاعات بیشتری دریافت نخواهم کرد، درست است؟ آیا این رویکرد اصلا منطقی است؟ آیا ممکن است در حال حاضر راه بهتری برای حل این مشکل وجود داشته باشد؟
(چه زمانی) آیا شبیه سازی یک نمونه بزرگتر از یک نمونه کوچک نتایج بهتری به همراه دارد؟
57715
من یک متغیر تصادفی $X(a) = \log(a)$ دارم که در آن a معمولی است $\mathcal N(\mu,\sigma^2)$ توزیع شده است. در مورد $E(X)$ و $Var(X)$ چه می توانم بگویم؟ یک تقریب نیز مفید خواهد بود.
مقدار مورد انتظار و واریانس log(a)
32575
با توجه به ضرایب از یک مدل آریما، چگونه مقدار برازش را برای اولین مشاهده سری محاسبه می کنید؟ به عنوان مثال، با توجه به داده ها (به نام xshort): ![شرح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/ZvdWs.jpg) و یک تماس با R: mod<-Arima(xshort,order= c(1,0,0)) mod$coef تولید مقادیر برازش ساده است. به عنوان مثال ورودی دوم در این مجموعه این است: `mod$coef[1]*xshort[1]+((1-mod$coef[1])*mod$coef[2])` اما اولین مورد چگونه نصب می‌شود مقدار محاسبه شده، از Arima باید '1038.3884776139' باشد؟
محاسبه مقدار برازش شده برای اولین مشاهده در یک سری زمانی
52070
کسی میتونه لطفا تفاوت آموزش و تست یک مدل رو به من بگه. من 5/6 الگوریتم یادگیری آنلاین تک پاسی مختلف را توسعه داده ام (ets، ets+، مدل سازی فازی در حال تکامل، SOFNN، گوستافسون-کسل، یادگیری مشارکتی). من 3000 امتیاز داده برای آموزش و 500 امتیاز داده برای آزمایش از سری زمانی MG در فایل *.mat در simulink جمع آوری کرده ام. روش های آموزش و آزمون چگونه متفاوت است؟
تفاوت در آموزش و روش تست مدل
96167
من امروز نمودار زیر را در اقیانوس اطلس دیدم (لینک)، اما نمی توانم بفهمم که چگونه هزینه تلویزیون ها در ده سال گذشته بیش از 100 درصد کاهش می یابد. از نظر ریاضی چگونه ممکن است؟ یا نویسندگان اشتباه کرده اند؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VlG8C.png)
چگونه می توان هزینه را بیش از 100 درصد کاهش داد؟
94584
من دوست دارم در اوقات فراغت خود با الگوریتم های خوشه بندی سرهم بندی کنم. در چند روز گذشته سعی کردم با استفاده از فیلدهای چگالی داده ها، الگوریتم خوشه بندی را اصلاح کنم. من چندین تغییر را امتحان کردم و از اینکه الگوریتم های من به طور معقولی پایدار و قوی بودند شگفت زده شدم. من می‌خواهم به کاوش در این خیابان ادامه دهم، اما می‌خواهم بدانم چه گونه‌های محبوب دیگری در آنجا وجود دارد. من یک بررسی گذرا از ادبیات انجام نداده‌ام، اما متأسفانه نتوانستم نظرسنجی مناسبی پیدا کنم که با الگوریتم‌های مبتنی بر چگالی سر و کار داشته باشد. اگر بتوانم اشاره‌ای به چنین نظرسنجی یا فهرستی از الگوریتم‌های ایجاد شده دریافت کنم، خوشحال می‌شوم.
خوشه بندی با استفاده از میدان های چگالی
99925
من می‌خواهم 2 متغیر تصادفی پیوسته Q1، Q2 (ویژگی‌های کمی) و 2 متغیر تصادفی باینری Z1، Z2 (ویژگی‌های دودویی) را با همبستگی‌های زوجی داده شده بین همه جفت‌های ممکن ایجاد کنم. بگویید (Q1,Q2):0.23, (Q1,Z1):0.55, (Q1,Z2):0.45, (Q2,Z1):0.4, (Q2,Z2):0.5, (Z1,Z2): 0.47 لطفا راهنمایی کنید من چنین داده هایی را در R ایجاد می کنم.
ایجاد متغیرهای تصادفی با همبستگی داده شده بین جفت آنها:
104433
من اخیراً کاوش R را شروع کرده‌ام مجموعه‌ای از داده‌ها را دانلود کرده‌ام که شامل زمان پرواز برای زمانی که هواپیما در مبدا بلند می‌شود و در مقصد فرود می‌آید داده‌ها تا سه ماه اطلاعات دارند و چیزی شبیه به این Plan_ ID، Origin_Airport، Destin_Airport، Sched_Dep, Sched_Arriv, Act_Dep, Actual_Arriv داده‌ها را تغییر دادم تا حدودی شبیه شکل زیر باشد Dep_Day_Month: FRI-3 Movement: AAAAAAA (ORKORK - DUBDUB) Num_Flights 1 OT_Dep 1 OT_Arr 0 OT_Dep_Per 1.0000000 OT_Arr_Per 0.00000000 OT_Arr_Per 0.00000000 داده ها به مدت سه ماه می توان در هر ساعت شامل Mon-3 تا Sun-3 که از دوشنبه تا جمعه ماه مارس است. این تقسیم بندی دوشنبه تا جمعه به مدت 3 ماه وجود دارد. من همچنین یک دوشنبه تا جمعه اضافی را برای هفته قبل اضافه کردم. The Movement ترکیبی از شماره پرواز و مقصد مبدا است. تعداد پروازها تعداد پروازها در مسیر/ماه/روز است. OT Dep تعداد پروازهایی است که به موقع حرکت کرده اند (بنابراین هر زمان قبل یا برابر با زمان حرکت به موقع). OT_Arr شمارش تعداد پروازهای به موقع است. دو ستون آخر درصدی از این است. هدف نهایی آزمایش این است که همه دوشنبه‌ها را در جدول قرار دهیم، همه سه‌شنبه‌ها را در جدول، همه چهارشنبه‌ها را...، سپس پیش‌بینی کنیم که آیا پرواز به موقع می‌رسد یا خیر. بر اساس عملکرد گذشته خود از خط شاید با استفاده از یک مدل بیزی. اساساً این یک شکل بسیار ساده از تحلیل مسیریابی است (در حال حاضر برای یک پا.. همیشه به جای دیگری ORKORK) من دو سؤال دارم که امیدوارم در مورد J کمک بگیرم. برای کار موثر (من مقالات تحقیقاتی را خوانده ام که نتایج خوبی در مورد متغیرهای غیر مستقل دارد، اما این برای زمان دیگری است). فکر می‌کنم اگر فقط OT_Dep_Per و OT_Arr_Per را در یک ستون ترکیب کنم، می‌توان به این امر دست یافت. فکر می کنم با استفاده از Dependent probability می توان این کار را انجام داد. به عنوان مثال، با توجه به اینکه پرواز A به موقع حرکت کرده است، احتمال رسیدن پرواز A به موقع چقدر است. چیزی که مشخص نیست این است که چگونه می توان این را اجرا کرد اگر مثلاً اگر پرواز A دیر پرواز کند به موقع برسد زیرا خلبانان معمولاً اگر باد خوب باشد می توانند هوا را بگیرند و آن را کف کنند) 2) آیا فکر می کنید این راه خوبی است برای نزدیک شدن به مشکل؟ تقسیم عملکرد پرواز به صورت روز به ماه برای متغیرهایی که هفته قبل را اضافه کرده اند تا آخرین روندها را دریافت کنید از کمک شما بسیار سپاسگزاریم
احتمال شرطی با بیز ساده لوح
99920
فرض کنید من یک جدول احتمالی 18 2 3 40 دارم اگر داده‌های بیشتری جمع‌آوری کنم، احتمالاً ماتریسی مانند این به دست می‌آورم. از روی شهود، فکر می‌کنم این به این دلیل است که هرچه داده‌های بیشتری جمع‌آوری کنید، شانس کمتری برای مشاهده تفاوت در توزیع با نسبت شانس یکسان وجود دارد.
در تست دقیق فیشر، چرا هر چه داده های شما بیشتر باشد، مقدار pvalue بیشتر به مقادیر کوچکتر کاهش می یابد؟
3634
من باید یک طرح فاکتوریل را با پنج عامل (یکی از آنها در یکی دیگر تودرتو) و پاسخ های عددی تجزیه و تحلیل کنم. من می خواهم یک ANOVA ناپارامتری انجام دهم، اما البته نمی توانم از آزمون Kruskall Wallis و Friedman استفاده کنم (من اندازه گیری های تکراری دارم). آیا دستور یا کدی در R وجود دارد که بتواند به من کمک کند؟ متشکرم استفانیا
آنوا ناپارامتریک چند طرفه
3636
من یک مجموعه نمونه از مقادیر دارم که در یک دوره زمانی گرفته شده است. با این حال، زمان دلتا بین هر نمونه متفاوت است. آیا باید دلتاهای زمانی مختلف را در std-dev در نظر بگیرم؟ آیا std-dev برای این نوع داده ها مناسب است؟ * * * اطلاعات بیشتر... داده ها نمونه های دما هستند. محدوده زمانی از 1 ساعت تا چند روز است.
نحوه محاسبه انحراف معیار روی یک مجموعه نمونه با دوره های زمانی نامنظم
60166
من یک شبکه عصبی ساده دارم و با تابع لجستیک به عنوان تابع فعال سازی کار می کند. اکنون می‌خواهم با جایگزین کردن تابع لجستیک با مماس هذلولی از مشکل اشباع اجتناب کنم: #define SIGMOID(x) (1.7159*tanh(0.66666667*x)) #define DSIGMOID(S) (0.666666667/1.7159*(1.7159-(S))*(1.7159+(S))) اما شبکه هرگز همگرا نمی شود، MSE در طول آموزش یکسان می ماند. نمونه‌های آموزشی من این است: double training_data[][4]={0, 0, 0, -1}, {0, 0, 1, 1}, {0, 1, 0, 1}, {0, 1, 1، -1}، {1، 0، 0، 1}، {1، 0، 1، -1}، {1، 1، 0، -1}، {1، 1، 1، 1}}; اگر از تابع مماس هیپربولیک اصلی (غیر مقیاس‌شده) استفاده کنم، شبکه همگرا می‌شود، یعنی: #define SIGMOID(x) (tanh(x)) #define DSIGMOID(S) (1-((S)*(S) )) آیا چیزی را از دست داده ام؟ به عنوان مثال مقیاس کردن خروجی برای مطابقت با محدوده (-1.7159، 1.7159) یا هر چیزی؟
چگونه از 1.7159 * tanh(2/3 * x) به عنوان تابع فعال سازی استفاده کنیم؟
48274
فرض کنید من یک قاب داده مانند این دارم (چهار گروه، برای هر n = 12): > head(my_data,n=8) Subject Group Condition Value 1 1 A Cond_1 12.40407 2 1 A Cond_2 14.89856 3 2 B Cond_1 13.828 B Cond_2 14.31305 5 3 C Cond_1 13.40773 6 3 C Cond_2 13.48016 7 4 D Cond_1 13.76183 8 4 D Cond_2 12.60769 ... ... می خواهم بررسی کنم که آیا تفاوت هایی در `Value` بین چهار گروه C, D, B, C وجود دارد یا خیر. با در نظر گرفتن تأثیر شرط نیز. بنابراین باید یک مدل ترکیبی انجام دهم. قبل از این، تضادهای خاصی را تنظیم کردم: > AvsB <- c(1,-1,0,0) > AvsC <- c(1,0,-1,0) > A vsD <- c(1,0,0, -1) > AvsAvg <- c(1,0,0,0) > تضادها(my_data$Group) <- cbind(AvsB,AvsC,AvsC,AvsAvg) و مدل کامل را برازش کنید (فرض کنید قبلاً مدل‌های مختلف را با مدل رهگیری مقایسه کرده‌ام): > مدل <- lme(Value~Group+Condition+Group:Condition, random=~1 |Subject/Condition, data=my_data, method=ML) اما گاهی اوقات خطای زیر ظاهر می شود: خطا در MEEM(object, conLin, control$niterEM): تکینگی در backsolve در سطح 0، بلوک 1 در موارد دیگر، خطا ظاهر نمی شود اما خروجی همه تضادها را نشان نمی دهد. به عنوان مثال، در اینجا «AvsAvg» ناپدید می‌شود: جلوه‌های ثابت: مقدار ~ گروه + شرایط + گروه: مقدار شرط Std. خطا DF t-value p-value (Intercept) 21.793124 1.2435711 44 ​​17.524631 0.524631 0.000B5630 GroupA 2.1539283 44 -0.118650 0.9061 GroupAvsC 0.176721 2.1539283 44 0.082046 0.9350 GroupAvsD 0.492208 2.1539283 2.1539283 ConditionCond_2 -0.016164 0.2029039 44 -0.079661 0.9369 GroupAvsB:ConditionCond_2 -0.270565 0.3514399 44 -0.769874 0.4496661 0.3514399 44 0.617754 0.5399 GroupAvsD:ConditionCond_2 -0.277043 0.3514399 44 -0.788309 0.4347 به طور کلی، به نظر می رسد که حداکثر سه تضاد نشان داده شده است. **من با تضادها اشتباه می کنم یا با مدل؟** پیشاپیش ممنون.
کنتراست ها در مدل ترکیبی
110746
من برخی داده ها را دارم و می خواهم این فرضیه را آزمایش کنم که آنها از یک فرآیند پواسون همگن می آیند. البته می‌توانم به زمان‌های بین رویدادی نگاه کنم و آزمایش کنم که آیا این زمان‌ها به صورت نمایی توزیع شده‌اند یا خیر. با این حال، به نظر می رسد که دلایل زیادی وجود ندارد که چرا ممکن است پواسون نباشد. آیا فهرستی از تست‌ها، یا آزمون خوب خاصی وجود دارد که بتوانم از آن استفاده کنم که بیشتر از بررسی مجموعه زمان‌های بین رویدادی بین رویدادهای متوالی باشد؟ اگر تمام تفاوت‌های بین زمان‌های ورود را در نظر بگیرید، این فقط زمان‌های ورود متوالی نیست، آیا می‌توان از آن برای ایجاد یک آزمایش قدرتمندتر برای مثال استفاده کرد؟
فرآیند نقطه فرضیه آزمون پواسون است
60169
من در مفاهیم پارامترها، تخمین ها و لحظه (ریاضی و آمار) دانش کافی ندارم. من نمی توانم یک منبع آنلاین آسان برای درک اطلاعات در مورد این مفاهیم پیدا کنم. آیا با یک لینک یا حتی بهتر از یک سخنرانی به من کمک می کنید؟ در اینجا یک چیز وجود دارد که من قصد درک آن را داشتم: منبع: کتابی به نام _اصول در ژنتیک جمعیت_ > $\sigma_x^2 = \text{E}[x-\text{E}(x)^2]$ > > $\text{Var}(x) = \text{mean}(x^2) - \text{mean}(x)^2$ > > اما یک تخمین‌گر مغرضانه است زیرا... > > $\text{E}[\text{Var}(x)] = (n-1)\sigma^2/n$ > > یک تخمین‌گر غیر مغرضانه برای $\sigma^2$ است > > $ [n/(n-1)]\text{Var}(x)$ **معنای همه اینها چیست؟**
پارامترها، برآوردها
45604
توزیع نرمال یک پیش نیاز برای ANOVA است. مشخص نیست که ما از «توزیع نرمال استاندارد» چه چیزی را باید بفهمیم. آیا ANOVA به توزیع نرمال _استاندارد_ نیاز دارد؟ پاسخ را می توان در چارچوب فراتحلیل همبستگی نمونه داد.
بر چه اساسی توزیع نرمال استاندارد را از توزیع نرمال متمایز می کنیم؟
60162
من روی یک مسئله طبقه‌بندی دودویی کار می‌کنم که مجموعه داده‌ها عمدتاً از ویژگی‌های طبقه‌بندی، اما همچنین چند ویژگی واژگانی (یعنی عناوین مقاله و چکیده‌ها) تشکیل شده است. من با جنگل‌های تصادفی آزمایش می‌کنم و استراتژی فعلی من این است که مجموعه آموزشی را با افزودن بهترین ویژگی‌های واژگانی $k$ (انتخاب شده با انتخاب ویژگی تک متغیره و وزن‌دهی شده با $tf-idf$) به مجموعه کامل ویژگی‌های طبقه‌بندی بسازم. . این به خوبی کار می کند، اما از آنجایی که نمی توانم ارجاعات صریحی به چنین استراتژی استفاده از ویژگی های هیبریدی برای RF پیدا کنم، در مورد رویکرد خود تردید دارم: آیا منطقی است؟ آیا من با انجام این کار قدرت RF را رقیق می کنم، و آیا بهتر است سعی کنم دو طبقه بندی کننده متخصص در هر دو نوع ویژگی را ترکیب کنم؟
جنگل تصادفی با ترکیبی از ویژگی های طبقه بندی و واژگانی
86955
کتاب درسی من در مورد اعتبارسنجی متقاطع عنصر یادگیری آماری است (هستی و همکاران، ویرایش دوم) در بخش های 7.10.1 و 7.12، آنها در مورد تفاوت بین خطای آزمون شرطی $E_{(X^*,Y^* صحبت می کنند. )}[L(Y, \hat{f}(X))|\tau]$ و خطای تست مورد انتظار $E_\tau [E_{(X^*,Y^*)}[L(Y, \hat{f}(X))|\tau]]$. در اینجا $\tau$ مجموعه داده های آموزشی است، $L$ تابع ضرر، $\hat{f}$ مدل است. $E$ انتظار است. آنها توضیح دادند که CV فقط خطای مورد انتظار آزمون را به خوبی برآورد می کند. سوال من این است که آیا دلیلی وجود دارد که به خطای تست شرطی اهمیت دهیم؟ تنها دلیلی که می‌توانم به آن فکر کنم این است که می‌خواهیم به این سؤال پاسخ دهیم اگر خدا n مجموعه داده را روی میز بگذارد، اما فقط اجازه دهد 1 عدد را به خانه ببریم تا با مدل خود مطابقت داشته باشد، کدام یک را باید انتخاب کنیم؟
اعتبارسنجی متقابل: خطای تست شرطی در مقابل خطای تست مورد انتظار
60167
من یک مجموعه داده با ورودی $\approx2000$ دارم (به عنوان مثال، مدل ماشین). برای هر مدل ماشین وزن ماشین و توان خروجی را می دانم. قیمت و سن را نمی دانم که احتمالاً بر نسبت قدرت به وزن خودرو تأثیر می گذارد. من تا حد معقولی به داده ها ایمان دارم، اما برخی از تولیدکنندگان ممکن است کمی اشتباه کنند (شاید 5٪ از داده ها غیرقابل اعتماد باشد). **چگونه می توانم بهترین توان خروجی را برای وزن معین خودرو به روشی قابل دفاع تعیین کنم؟** من سواد ریاضی تا مقطع کارشناسی مهندسی دارم، اما هیچ تجربه آماری فراتر از دبیرستان ندارم. من به موارد زیر فکر کرده ام: * ماشین ها را بر اساس نسبت قدرت/وزن مرتب کنید و سپس $n\%$ برتر را بگیرید. مشکل در تعیین $n$ است. * داده ها را نمودار کنید و یک خط روند را از طریق آن رسم کنید. این بهترین توان خروجی را تا حد زیادی دست کم می گیرد. * از بهترین نسبت توان به وزن استفاده کنید و فقط از آن استفاده کنید. مشکل این است که نسبت قدرت به وزن لزوماً به صورت خطی با وزن خودرو مقیاس نمی شود (مثلاً ممکن است تولید یک ماشین کوچک با نسبت قدرت به وزن بالا آسان تر باشد). * داده ها را در دسته های وزنی قرار دهید، سپس مانند بالا عمل کنید. مشکل این است که گرفتن یک نقطه داده از یک مجموعه داده غیرقابل اعتماد درست به نظر نمی رسد. * همانطور که در بالا ذکر شد، اما تلاش برای بررسی متقاطع داده ها در برابر اطلاعات خارجی (به عنوان مثال، تست های عملکرد مجله). این اطلاعات برای همه خودروها در دسترس نیست، بنابراین احتمالا امکان پذیر نیست. برای کنجکاوی من، نام این دسته از مشکلات چیست؟ به نظر می رسد چیزی است که معمولا رخ می دهد، اما من نمی دانم چگونه آن را جستجو کنم. آیا ابزار ترجمه انگلیسی به آمار در جایی وجود دارد؟
انتخاب بخش مناسب از یک مجموعه داده غیرقابل اعتماد
106363
آیا یک کتاب یا مقاله مروری وجود دارد که به عنوان یک مرجع کلی خوب به آنتروپی Rényi، کاربردهای آن و مفاهیم مرتبط با آن عمل کند؟
ارجاع کلی به آنتروپی Rényi