_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
29525 | من دادههایی با مقدار شروع (y) دارم که به صورت متوالی افزایش/کاهش مییابد که زمان (x) در روز اندازهگیری میشود. من این پیوند را برای ایجاد یک رگرسیون خطی از داده ها پیدا کردم http://www.easycalculation.com/statistics/regression.php من می خواهم محاسبه شیب را در اکسل خودکار کنم. آیا کسی ایده ای در مورد نحوه انجام آن دارد؟ من فرمول ریاضی را در پایین صفحه $$\frac{N\sum XY- \sum X\sum Y}{N\sum X^2-(\sum X)^2}$$ می بینم اما من نمی بینم نمی دانم چگونه آن را به فرمول اکسل ترجمه کنید. مشکل عمدتاً $\sum XY$ و $\sum X^2$ است. بقیه با تابع count، sum و pow آسان هستند. مختصات x و مختصات y من در ردیف هایی قرار دارند به طوری که 'C1' 'x1' و 'D1' 'x2' است. | شیب خطی که چندین نقطه داده شده است |
44517 | من اغلب اظهارات مشابهی را در وب سایت های فوتبال (فوتبال) می بینم. > تیم A در 4 بازی از 5 بازی اخیر خود مقابل تیم B شکست خورده است. آخرین بازی از 5 بازی اخیر آنها چیزی شبیه به 10 سال پیش خواهد بود، بنابراین در آن بازه زمانی 12 ساله (بین سال های 2000 و 2012)، کل تیم تغییر کرده است. تغییر و غیره. بنابراین آیا نوشتن چنین عباراتی اشکال دارد * * * همچنین، اگر یک تیم فقط 1 بازی انجام دهد (با فرض اینکه شما فقط می توانید برنده شوید یا ببازید، بدون تساوی)، به درصد برد آنها نگاه کنید بدون اینکه تعداد بازی های انجام شده را ببینید؟ می تواند گمراه کننده باشد، زیرا درصد برد می تواند 100٪ یا 0٪ باشد، اما از آنجایی که آنها بازی های بیشتری را انجام می دهند، شما تصور بهتری از نسبت برد واقعی آنها دارید؟ | آیا این آمار اشتباه است؟ |
92134 | من باید یک متاآنالیز انجام دهم. مشکل زیر پیش آمد: یک مطالعه واحد کیفیت زندگی را اندازهگیری کرده و از دو پرسشنامه استفاده شده است. حال سوال من این است که آیا من دو نفر دارم که یکی از ابزارها را برای گنجاندن در متاآنالیز انتخاب کنم یا امکان ترکیب میانگین های دو مقیاس برای ارائه یک تفاوت میانگین استاندارد در متاآنالیز وجود دارد؟ ممنون!!!! | ترکیب معیارهای نتیجه برای متاآنالیز |
44513 | من در مورد رابطه بین دو روش به نام حداکثر انتظار (EM) و عمده سازی- حداقل کردن تعجب می کنم. یکی از آنها، الگوریتم EM است که می توان با معرفی متغیرهای نهفته، برای یافتن حالت احتمال یا توزیع پسین استفاده کرد. در کتاب بیشاپ، BRML، او ادعا می کند که توزیع جدید با متغیرهای پنهان به راحتی قابل بهینه سازی است. روشهای به حداقل رساندن عمدهسازی زیربنای همین ایده است، یعنی میتوان تابع هزینه دیگری را معرفی کرد که به طور مکرر به تابع هزینه اصلی همگرا میشود که به سختی میتوان آن را به حداکثر رساند. اجازه دهید مدل زیر را در نظر بگیریم: $$ y = x + \eta$$ که در آن $\eta$ یک متغیر تصادفی گاوسی است. تخمین حداکثر احتمال در این مدل با بهینه سازی در یک ترم درجه دوم $\|y -x \|_2^2$ مطابقت دارد. بهینهسازی این تابع آسان است، با این حال میتوانیم مدلهای پیچیدهتری را پیدا کنیم که بهینهسازی آنها آسان نیست، از این رو یک تابع هزینه جایگزین را معرفی میکنیم که به طور مکرر به تابع اصلی همگرا میشود (به حداقل رساندن عمدهسازی). الگوریتم EM به اهداف مشابهی دست می یابد اما مفاهیم احتمالی مانند متغیرهای پنهان را معرفی می کند. من نمی دانم که آیا این دو الگوریتم برای برخی موارد خاص معادل هستند؟ یا اگر کاملاً با هم متفاوت هستند، چه نسبتی بین آنها وجود دارد؟ با تشکر | رابطه بین انتظار-بیشینه سازی و گرایش- حداقل سازی |
92133 | فرض کنید ما در حال ساخت یک DBN (شبکه باور عمیق) هستیم و قبلاً برخی از لایه های پایین تر را به عنوان ماشین های محدود Bolzmann آموزش داده ایم. اکنون یک لایه جدید اضافه می کنیم، با وزن های جدید و بایاس های جدید برای گره های پنهان جدید. آیا از بایاس های گره های پنهان لایه قبلی به عنوان بایاس گره های مرئی لایه جدید استفاده می کنیم؟ یا باید عبارات بایاس مجزا و غیر مرتبط با شرایط بایاس لایه قبلی ایجاد کنم؟ | شبکه های باور عمیق: اتصال بایاس مرئی لایه های بالاتر به سوگیری پنهان لایه پایین؟ |
1084 | من سعی میکنم مجموعهای از دادهها را تجسم کنم که نشاندهنده توده بدن انسان در طول زمان است، که از وزنهای (معمولا) روزانه گرفته شده است. از آنجایی که توده بدن بر اساس هیدراتاسیون +/- 3 پوند در نوسان است، میخواهم یک نمودار خطی به شدت هموار ترسیم کنم تا نوسان را به حداقل برسانم. هر گونه کمکی در مورد اینکه معادله چگونه به نظر می رسد بسیار قدردانی می شود، یا حتی برخی از نام ها / پیوندها برای ارسال به من در جهت درست. **ویرایش:** من باید تجسم را در جاوا اسکریپت کدنویسی کنم، بنابراین به جای کتابخانه ای که این کار را برای من انجام دهد، به درک ریاضی مربوطه نیاز دارم. | معادله محاسبه یک خط صاف با یک سری زمانی نامنظم؟ |
59276 | اشاره کردم که وظیفه رگرسیون در یادگیری ماشین به نحوی با حل معادلات دیفرانسیل تقریباً مرتبط است - هر دو در تلاش برای تقریب تابع مجهول هستند. سپس، سوال من این است: آیا ML می تواند به نوعی در حل معادلات دیفرانسیل مفید باشد؟ پیشاپیش از شما متشکرم. | آیا روش های یادگیری ماشینی می توانند به نوعی در حل معادلات دیفرانسیل مفید باشند؟ |
8695 | من مشکلاتی با تحلیل عاملی اکتشافی دارم. لطفاً کسی می تواند به من بگوید که چگونه میانگین واریانس استخراج شده (AVE) و قابلیت اطمینان مرکب را از دو عامل محاسبه کنم که هر کدام با سه مورد با استفاده از SPSS هستند؟ اگر با SPSS نیست، Stata نیز ممکن است کمک کند. | قابلیت اطمینان AVE و ترکیبی با SPSS |
59277 | **زمینه:** من با مشکلی روبه رو هستم که معتقدم یک مشکل مدل سازی غیر پیش پا افتاده است که به عنوان بخشی از پست دکتری من به آن اختصاص داده شده است. تخصص من در زمینه تئوری گراف/شبکه است، بنابراین متوجه شده ام که با تمام گزینه های مدل سازی و زبان موجود در حال مبارزه هستم. **مشکل به شرح زیر است**: در یک مجموعه داده مشاهده ای ما یک پاسخ پیوسته داریم که نتیجه تعامل دو فرد است. افراد به یک عامل تغییرناپذیر زمان با 6 سطح تعلق دارند، بنابراین 36 نوع ممکن از جفت های تعاملی وجود دارد. علاوه بر این، داده ها ماهانه جمع می شوند و $t=\\{1,..,T\\}$ ماه وجود دارد. ما می خواهیم وابستگی نتایج به عوامل را با مدلی از این شکل درک کنیم: $$Y_{i,j,t} = G_i + G_j + G_i*G_j، $$ که در آن $i,j$ افراد و $ هستند. G_i,G_j$ عوامل آنها. با توجه به زمان، ما فقط به این موضوع علاقه مندیم که آیا امتیازها در دو طرف یک رویداد مهم قرار می گیرند یا خیر، اما نمی خواهیم بین ماه های متعلق به همان طرف رویداد تفاوت قائل شویم. بنابراین اساساً داده ها را می توان در دو بازه زمانی مجزا در دو طرف رویداد با مشاهدات مکرر جمع کرد. بنابراین با در نظر گرفتن مجموعه داده دو دوره زمانی، مسائل ما به شرح زیر است: 1. _ مجموعه داده بسیار نامتعادل است: _ عضویت این گروه ها بسیار ناهمگن است، برای مثال می تواند تا 1 یا 2 مرتبه تفاوت بین سطوح اشغال وجود داشته باشد. این عامل منجر به طراحی بسیار نامتعادل می شود. علاوه بر این، همبستگی هایی در میزان تعامل سطوح عامل وجود دارد که اوضاع را حتی بیشتر پیچیده می کند. 2. _به دلیل تجمع زمانی مشاهدات مکرر وجود دارد._ سوال من این است: **یک طرح آزمایشی خوب برای درک تأثیرات اصلی و متقابل عامل چیست؟** به عنوان مثال، یک راه حل می تواند نمونه برداری از هر طرف باشد. این رویداد برای مقابله با تعادل است، اما در آن صورت مشکل مشاهدات مکرر باقی می ماند. | طراحی تجربی برای دادههای تعامل جفت زمانی پیچیده |
92136 | اولین پست CV اما قبل از S.O. کاربر. از شکیبایی شما سپاسگزارم زیرا آمار زیستگاه طبیعی من نیست. من داده هایی به شکل زیر دارم که در آنها سعی می کنم ببینم آیا رابطه ای وجود دارد یا خیر. * بازگشت روزانه ورود به سیستم برای یک سری از شرکت ها. * دادههای روزانه که ممکن است بر عملکرد آن شرکتها تأثیر بگذارد. من انتظار دارم که نویز زیادی در دادهها وجود داشته باشد، به طوری که دادههای ناظر مستقل در بازدید از فروشگاه در T-1 بر بازده T-1 تأثیر نخواهد گذاشت، اما دادههای مستقل جمعآوری شده از T-1 تا T-30 ممکن است، برای مثال ، بر بازده از T به T+15 تأثیر می گذارد. من به دنبال بازخوردی در مورد چگونگی جمعآوری این دادهها به شیوهای معنادار هستم تا ببینم آیا رابطهای وجود دارد، چه در فضای بازگشتی یا در فضای نوسان. من مطمئناً میتوانم خطوط دلخواه را ترسیم کنم (مثل نگاه کردن به بازدیدکنندگان متوسط یا متوسط برای یک ماه و در نظر گرفتن بازده ماهانه)، اما این اطلاعات زیادی را دور میاندازد و «درست» به نظر نمیرسد. شهود من همچنین این است که داده های کافی برای در نظر گرفتن هر نوع رگرسیون با ابعاد بالا یا تجزیه و تحلیل دیگری که مثلاً 15 مشاهدات عقب افتاده را در بر می گیرد، ندارم. بنابراین، یک راه معقول برای جمع آوری داده های سری زمانی پر سر و صدا چیست؟ یا دارم به این موضوع اشتباه فکر می کنم؟ | چگونه می توانم داده های سری زمانی پر سر و صدا را برای کشف روابط احتمالی صاف کنم |
8692 | من میخواهم یک قاب داده را در R با «unstack» جابهجا کنم. دو فریم داده، «a» و «b» را در نظر بگیرید: > وضعیت شمارش 1 199665 RSTO 2 4147 RSTR 3 31274 S1 4 1 S2 5 2522 S3 6 118009 SF > وضعیت شمارش b 1 31956 RS106 RSTO1 4 2838 S2 5 6268 S3 6 672561 SF مشکل من این است که جدا کردن یک تکی کار نمی کند: > formula(a) count ~ state > unstack(a) res RSTO 199665 RSTR 4147 S1 31274 S2 1 S301، اما اگر S301 من به هم می پیوندم a و b، unstack همانطور که انتظار می رود کار می کند. > unstack(rbind(a,b)) RSTO RSTR S1 S2 S3 SF 1 199665 4147 31274 1 2522 118009 2 31956 11689 6702 2838 6261 6725 چرا این اتفاق می افتد؟ آیا گروه ها (یعنی RHS فرمول) برای اینکه «unstack» به درستی کار کند نیاز به تکرار دارند؟ چگونه می توانم «unstack» را با یک قاب داده کار کنم؟ | انتقال فریم های داده در R از طریق unstack |
66658 | من میخواهم تأثیر انواع پاداش (IV) را بر عوامل انگیزشی (DV) آزمایش کنم، به این ترتیب که میخواهم تأثیر هر نوع پاداش را بر سطح یک ناظم شناسایی کنم. من از جنسیت به عنوان مدیر استفاده می کنم. من این کار را با وارد کردن هر نوع پاداش یک بار در تحلیل رگرسیون انجام می دهم. من IV را در مرکز قرار داده ام، و همانطور که ناظم قاطعانه است، آن را در مرکز قرار ندادم. من IV را با ناظم ترکیب کردم و حاصل دو متغیر را بدست آوردم. من رگرسیون را اجرا کردم و متوجه شدم که همه نتایج دارای یک همبستگی بالا (بین IV و محصول) هستند. مهمتر از آن، اکثر نتایج بیاهمیت هستند (یعنی محصول تأثیر معنیداری بر رابطه علی ندارد)، که در آن همه نتایج معنیدار منفی هستند. فکر می کنم با داده هایم مشکلی دارم، زیرا VIF ها بالای 10 هستند (مثلاً 24، 35). | اثر تعدیل غیر قابل توجه با VIF بالا |
66656 | من در حال انجام تجزیه و تحلیل عامل تاییدی (CFA) خود با استفاده از AMOS هستم و به ترتیب وزن عامل ها، برازش مدل و غیره را دریافت می کنم. با این حال، آیا راهی در AMOS وجود دارد که امتیازات عامل واقعی را برای هر مشاهده به SPSS صادر کند و سپس از آن استفاده کند. آنها را وارد مدل رگرسیون می کنند؟ با تشکر <_> | فاکتور CFA امتیاز AMOS را کسب می کند |
110875 | من دادههایم را با ARIMA مدلسازی میکنم و برای بررسی اینکه آیا مدل من خوب است، باید باقیماندهها را محاسبه کنم و تابع همبستگی و تابع همبستگی جزئی باقیماندهها را رسم کنم. اگر نتایج توابع بین $1.96 \pm 1/\sqrt(\sigma)$ باشد، به این معنی است که باقیماندهها از فرآیند گاوسی گرفته شدهاند، بنابراین مدل من خوب است (فرایندهای بیشتری برای بررسی مدل لازم است، اما در حال حاضر نگران آنها نیستم). حال، فرض کنید دادههای خود را مدلسازی کنم که از ARIMA با نوآوری استفاده کردم که از توزیع t بدست میآید. اگر اکنون باقیمانده ها را محاسبه کنم و تابع همبستگی خودکار و همبستگی جزئی را رسم کنم، آیا باز هم باید بین $1.96 \pm 1/\sqrt(\sigma)$ باشد؟ حدس میزنم باید پیدا کنم که اطمینان 95 درصدی توزیع t چقدر است و این مرز من خواهد بود! درست میگم؟ و سوال دوم این است که چگونه می توانم باقیمانده ها را استاندارد کنم، با دانستن اینکه آنها دارای توزیع t هستند. | چگونه خطای استاندارد ACF را محاسبه کنم اگر خطاها به صورت t توزیع شوند؟ |
110874 | من در حال انجام تفاوت در برآورد تفاوت هستم. در مورد اضافه کردن متغیرهای کنترل، من تا حدودی گیج هستم. آیا میخواهم متغیرهای کنترلی را اضافه کنم که بر متغیر وابسته تأثیر میگذارند یا متغیرهای کنترلی که بر متغیر وابسته تأثیر میگذارند، اما تأثیر سیاست روی متغیر وابسته را ندارند. | متغیرهای کنترل - تفاوت در تفاوت |
110878 | در بررسی چند نمونه از مسائل مربوط به یادداشتهای کلاس، به مشکل زیر برخوردم: فرض کنید ما یک مدل رگرسیون $y=\beta_0+\beta_1x_1+\beta_2x_2+\beta_3x_4+\beta_4x_4+\epsilon$ داریم. میخواهیم فرضیه صفر را آزمایش کنیم که $ H_0: \beta_1=\beta_2$ فرضیه را بیان کنید $A\beta=c$، $A$ و $c$ را ارائه دهید که فرمول صحیح $H_0$ را بدست می دهد. بنابراین، مگر اینکه من مشکل را اشتباه متوجه شده باشم، به این ترتیب به آن پاسخ خواهم داد: 1) فرضیه صفر را به صورت $H_0 دوباره بیان کنید: \beta_1-\beta_2=0$. 2) $c=0$ را تنظیم کنید. 3) سپس برای $A\beta=c$، $A=[0,1,-1,0,0]$ و (نمیدانم چگونه بردار ستونی را تایپ کنیم) $\beta'=[\beta_0 داریم. ,\beta_1,\beta_2,\beta_3,\beta_4]$. ضرب برداری را انجام دهید، و در نهایت به $\beta_1-\beta_2=0$ می رسید، که فرضیه صفر ما است. اما، پس چگونه می توانم به بخش آخر سوال پاسخ دهم؟ رتبه $A$؟ من هرگز نشنیده ام که کسی در مورد رتبه در زمینه یک بردار صحبت کند. آیا من در اینجا کار اشتباهی انجام دادم و $A$ قرار است یک ماتریس $m$ x $n$ باشد که بتوانم برای آن رتبه محاسبه کنم؟ یا این فقط یک سوال بد بود (استاد مورد نظر به پرسیدن سوالاتی که هیچ منطقی ندارد بدنام است)؟ | رتبه یک ماتریس در آزمون فرضیه رگرسیون؟ |
92132 | فرض کنید من تابعی برای شبیه سازی داده ها برای رگرسیون دو جمله ای منفی دارم: simnegbin = تابع (X، بتا، آلفا) { lambda = exp(1 + X %*% بتا) y=NULL برای (j در 1:length(lambda) ) y = c(y,rnbinom(1,mu = lambda[j],size = alpha)) return(y)} و من آن تابع را فراخوانی می کنم مانند این: set.seed(123) x1 = rnorm(100) X = ماتریس(c(x1,x1^2)، ncol = 2) # داده با اثر درجه دوم بتا = c(0.5,-0.5) # ضرایب یک با علامت منفی آلفا = 1 y = simnegbin (X، بتا، آلفا) و سپس من دو مدل را برای این داده های شبیه سازی شده قرار می دهم. NB = MASS::glm.nb(y ~ X) Normal = glm(y ~ X) و به ضرایب حاصل نگاه کنید. هیچ چیز خیلی عجیبی نیست. مدلی با فرض اینکه توزیع نرمال کمی بالاتر است، اما خیلی بد نیست. coef(NB) coef(Normal) Normal: (Intercept) X1 X2 2.3997424 0.4019599 -0.5234614 NB: (Intercept) X1 X2 0.8992080 0.3573460 -0.4023558 به سادگی علامت مثبت را فراخوانی کنید. تابع: X = ماتریس (c(x1,x1^2)، ncol = 2) بتا = c(0.5،0.5) # ضرایب با علامت مثبت آلفا = 1 y = سیمنگبین (X، بتا، آلفا) و سپس من دو را برازش می کنم مدل هایی با استفاده از داده های شبیه سازی شده مشابه NB = MASS::glm.nb(y ~ X) Normal = glm(y ~ X) coef(normal) coef(NB) Normal: (Intercept) X1 X2 1.342937 3.162534 4.130669 # Biased Term NB: (Intercept) X27029 X1. 0.2905278 0.4587727 ضریب درجه دوم glm با فرض اینکه توزیع نرمال ** فوق العاده بایاس** است. آیا کسی شهودی در مورد دلیل این امر دارد؟ | مقایسه رگرسیون glm نرمال و glm.nb با ترم درجه دوم؟ |
78959 | من این فرمول را دارم: $\Delta a_{ki} \propto v_k (v_i - \langle v_i \rangle_{recon})$ اول اینکه $\propto$ به چه معناست و دوم اینکه تفاوت بین $v_i$ و $ چیست؟ \langle v_i \rangle$؟ | منظور از براکت های زاویه ای چیست؟ |
66655 | من در حال انجام پایان نامه کارشناسی ارشد هستم و باید تکنیک های مختلف پیش بینی را در فرکانس های مختلف مجموعه داده ها مقایسه کنم. من از مجموعه داده دانشگاهی خود، مجموعه داده REDD، مجموعه داده UCI و مجموعه داده CER Ireland برای این منظور استفاده می کنم. دادههایی که من استفاده میکنم بر حسب ثانیه برای بازه زمانی یک ماهه است و بیش از 3 میلیون رکورد میدهد. من سعی کرده ام بفهمم که چگونه از همه این داده ها به خوبی استفاده کنم اما دقیقاً نتوانستم به یک راه حل برسم. من مدلسازی سری زمانی را با دادههای فرکانس بالا خواندهام، اما نمیفهمم و نتوانستم منابعی را پیدا کنم که چگونه آن را برای مشکلم اعمال کنم. من سعی کردهام چندین وبلاگ و کتاب را بخوانم تا درک درستی از پیشبینی سریهای زمانی داشته باشم، اما بیشتر ادبیات نمونههایی با جزئیات کمتر از دادههای ساعتی دارند. برخی از منابعی که من پیدا کردم در مورد داده های با جزئیات بالا بود، اما فقط برای یک دوره زمانی کوتاه. من در وبلاگ پروفسور راب هایندمن خوانده ام که عملا مدل ARIMA فقط می تواند تا 200 نقطه اتورگرسیو محاسبه کند و اگر درک من درست باشد برای داده های با فرکانس در ثانیه، من می توانم به روندهای روزانه فقط با 3600*24 = 86400 دلار قبلی دست پیدا کنم. ارزش ها؟ من مطمئن نیستم که چگونه باید با این موضوع برخورد کنم. شکل داده ها به این صورت است (محور y وات است):  | پیش بینی با مجموعه داده بزرگ و فرکانس بالا |
8690 | فرض کنید من میخواستم مدلی از شکل $$y_i = \beta_0 + \sum_{1 \le j \le k} \beta_j X_{i,j} + \gamma_i Z_i + \epsilon_i,$$ را در برخی دادهها جا بدهم، که در آن رگرسیورهای $X$ و $Z$، و رگرسیون $y$ مشاهده میشوند، و جایی که $\gamma_i$ یک متغیر تصادفی برنولی است که برابر با یک با احتمال (نامعلوم) $p$ و در غیر این صورت صفر است. ما میتوانیم انواع «قاعدگی» را فرض کنیم: خطاهای $\epsilon_i$ مستقل از رگرسیورها هستند و مستقل از $\gamma_i$ و غیره هستند. 2. اگر من فقط دادههای $Z$ را با دادههای $X$ پرتاب کنم و یک حداقل مربعات چندگانه معمولی انجام دهم، آیا ضریب حداقل مربعات مربوط به عبارت $Z$ به $p$ همگرا میشود که مشاهدات بیشتری اضافه میکنم؟ 3. اگر رگرسیون حداقل مربعات برای این مدل توصیه می شود، توزیع ضریب حداقل مربعات مربوط به عبارت $Z$ تحت فرض صفر $p = p_0$ چگونه است؟ (برای یک رگرسیون قطعی، ضریب دارای یک توزیع t معین است، با پارامترهای بسته به $p_0، n، k$ و ماتریس طراحی؛ من به دنبال آنالوگ برای ضریب تصادفی هستم.) 4. اگر حداقل مربعات باشد. رگرسیون توصیه می شود، وجود ضریب تصادفی چگونه بر توزیع سایر ضرایب رگرسیون (نمونه) تأثیر می گذارد؟ | مدل خطی با ضریب تصادفی |
78953 | من یک فرضیه معمولی دارم که در آن آزمایش می کنم که آیا میانگین یک متغیر بزرگتر از میانگین متغیر دیگر است یا نه: H0: mean(variable1) <= mean(variable2) H1: mean(variable1) > mean(variable2) ) من تغییر آزمون Welch از آزمون t student را در R اجرا کرده ام و خروجی من این است: داده های آزمون t-test Welch Two: x و y t = -2.8207، df = 43.367، p-value = 0.9964 فرضیه جایگزین: تفاوت واقعی در میانگین بیشتر از 0.95 درصد فاصله اطمینان است: -0.08806587 تخمین نمونه Inf: میانگین x میانگین y 0.67082160'm سطح معنی داری 0.670821603 استفاده است 5 درصد بنابراین بر اساس خروجی، می دانم که نمی توانم فرضیه H0 را در سطح معناداری 5 درصد رد کنم. از آنجایی که تفاوت میانگین از x و y حدود 0.05- است و در محدوده CI 95% قرار دارد، باز هم می توانم نتیجه بگیرم که نمی توانم فرضیه H0 را رد کنم. سوال فرعی: آیا تجزیه و تحلیل هر دو نتیجه با CI و p-value به نحوی بیانیه من را تقویت می کند؟ آیا میتوانم مطمئنتر باشم که اگر CI را تجزیه و تحلیل کنم، اگر مقدار p من از قبل نشان میدهد که بالاتر یا پایینتر از سطح معنیداری است، میتوانم H0 را رد کنم یا نمیتوانم؟ من فرض میکنم تناقضی بین تست p-value و تست CI نمیتواند رخ دهد. سوال اصلی: چگونه باید t-value را دقیقا تفسیر کنم؟ از آنچه من آموختم، هرچه مقدار t بیشتر از 0 فاصله بگیرد، احتمال اینکه اثر از نظر آماری معنی دار باشد بیشتر است. اول از همه، من مطمئن نیستم که دقیقاً معنی آن چیست که می گویند یک اثر از نظر آماری معنی دار است. من حدس می زنم این بدان معنی است که آزمایش ما به احتمال زیاد دقیق تر است؟ و چقدر از 0 ایمن خواهد بود و چرا؟ | معنی دقیق t-value در آزمون t student چیست؟ |
55717 | من سعی می کنم برخی از داده ها را تجزیه و تحلیل کنم که شامل 10 اندازه گیری مکرر در 10 نمونه مختلف است. این معمولاً مستلزم استفاده از مدلهای ترکیبی است، و من سعی کردهام این مدلها را با استفاده از «lme» در nlme و با استفاده از «glmer» در lme4 مدلسازی کنم. مشکل این است که برای اکثر این نمونه ها، منحنی پاسخ یک خط صاف است (یعنی شیب صفر است) به دلیل داشتن چندین نمونه که تمام مقادیر صفر را دارند. این به این معنی است که اثرات تصادفی قرار نیست به طور معمول توزیع شوند، که یک فرض مدل های ترکیبی است. من در نظر دارم از 0 مدل ZINB باد شده استفاده کنم. درک من این است که فرض بر این است که برخی از صفرها صفرهای کاذب هستند. در مورد من، همه صفرها صفرهای واقعی هستند. آیا این با استفاده از مدل های ZINB نفی می کند؟ حتی اگر اینطور نباشد، مطمئن نیستم که این موضوع به مسئله اثرات تصادفی عادی رسیدگی کند. من سعی کردم از glmmadmb برای مدلسازی این دادهها با استفاده از «family = nbinom» و «zeroInflated = TRUE» استفاده کنم، اما نمیدانم با توجه به دادهها، این مناسب است یا خیر. هر ورودی بسیار قدردانی خواهد شد. | مدل های ترکیبی و اثرات تصادفی به طور معمول توزیع شده است |
111474 | یه سوال کوتاه دارم من یک تحلیل مؤلفه اصلی انجام دادم و دو مؤلفه به دست آوردم. آیا دو مؤلفه به اندازه کافی برای انجام تجزیه و تحلیل خوشه ای (تعداد شرکت کنندگان > 400) هستند؟ با تشکر از کمک شما! | برای تحلیل خوشه ای از چند عامل باید استفاده کرد؟ |
61380 | من با تفسیر مدل AFT، مدل خطر متناسب کاکس و مدل خطر گسسته زمان مبارزه می کنم. _سوال من این است:_ آیا **ضرایب در مدل خطر گسسته-زمان** نیز قابل تفسیر هستند (مثلاً با استفاده از glm یا glmer در R) به روشی که در زیر توضیح داده شده است. یعنی *ضرایب مثبت حاکی از طولانی شدن زمان بقا است؛ بنابراین میزان خطر در حال کاهش است** و برعکس؟ آیا راهی برای نمایش ریاضی این موضوع وجود دارد؟ آنچه تاکنون خوانده ام (به عنوان مثال http://monogan.myweb.uga.edu/teaching/pd/16duration2.pdf و چگونه Exp(B) را در رگرسیون کاکس تفسیر کنم؟ و تفسیر رگرسیون کاکس): **مدل AFT* * * در مورد مدل AFT (زمان شکست تسریع شده) ضریب 2. نشان دهنده کاهش زمان بقا توسط این عامل است، به این معنی که در این در صورتی که رویداد پنج برابر سریعتر تجربه شود. * در مدل خطر متناسب: 1. ضرایب مثبت حاکی از افزایش نرخ خطر است. از این رو، زمان بقا کوتاه می شود. 2. ضرایب منفی نشان می دهد که میزان خطر در حال کاهش است. از این رو، زمان بقا طولانی می شود. ** مدل خطر متناسب کاکس** * در مدل کاکس یک ضریب نشان دهنده افزایش نرخ خطر ورود به سیستم است. * در مدل زمان شکست تسریع شده: 1. ضرایب مثبت حاکی از طولانی شدن زمان بقا است. از این رو، نرخ خطر در حال کاهش است. 2. ضرایب منفی حاکی از کوتاه شدن زمان بقا است. بنابراین، نرخ خطر در حال افزایش است **مدل خطر گسسته در زمان گسسته** در مدل خطر گسسته، ضریب رگرسیون منعکس کننده ورود به سیستم نسبت شانس است، از این رو به عنوان یک افزایش k برابری در ریسک تفسیر می شود. | تفسیر AFT، کاکس PH و مدل خطر گسسته زمان |
110806 | من سعی می کنم روش پیشنهادی Chib را در احتمال حاشیه ای از خروجی متروپلیس هیستینگز برای محاسبه احتمال نهایی یک مدل لاجیت که شامل متغیرهای پنهان است، به کار ببرم. به طور خاص، $Pr(Y=1)=\exp\frac{\beta x+z}{1+\exp(\beta x + z)}$ که در آن یک متغیر مشاهده نشده $z \sim N(0,\sigma) $. برای راهنمایی در مورد نحوه محاسبه احتمال حاشیه ای مدل بسیار سپاسگزار خواهم بود! | مدل متغیر نهفته احتمال حاشیه ای |
66653 | من آزمایشی را در طول چهار هفته انجام دادم تا دادههای مربوط به متغیرهای وابسته مختلف را برای پاسخ به سؤالات فرعی مختلف جمعآوری کنم. از آنجایی که در هر متغیر وابسته، شرکتکنندگان مختلف ظاهر نشدند و بنابراین من دادههای گمشده متفاوتی از شرکتکنندگان مختلف دارم. آیا باید همه دادههای شرکتکنندگان مختلف را روی متغیرهای وابسته مختلف حذف کنم؟ یا باید از داده هایی که دارم برای هر متغیر وابسته استفاده کنم؟ | مقادیر از دست رفته برای متغیرهای وابسته مختلف |
110872 | میپرسم آیا راهی برای انجام یک همبستگی درونطبقهای، دو طرفه، مختلط، با دادههای غیرعادی (در این مورد اثر سقف) وجود دارد؟ متناوبا، تفسیر (در صورت وجود) چه خواهد بود؟ چولگی من -2 است و همبستگی درون کلاسی 0.132 است. من از SPSS برای اجرای آنالیز استفاده می کنم. | داده های غیر عادی (اثر سقف) و همبستگی درون طبقاتی |
8691 | من در حال مقایسه نمرات دو گروه کوچک از افراد هستم که در یک تورنمنت شرکت کردند و به من می گویند که این مقایسه مستلزم آزمون Mann-Whitney U است. اگرچه برای من اشتباه است: دو مجموعه امتیازات من اساساً به یکدیگر وابسته هستند زیرا دو گروه با یکدیگر رقابت کردند. به طور خلاصه: من دو گروه دارم، یک گروه کنترل A (10 مرد) و یک گروه آزمایش B (12 مرد). گروه B تحت درمان قرار گرفتند و سپس اعضای گروه A و گروه B در یک تورنمنت مقابل یکدیگر قرار گرفتند. من به میزان موفقیت A در مقابل B در شکست دادن مردان گروه مقابل که با آنها رقابت می کردند علاقه مند هستم. در هر روز از مسابقات، دو A و دو B به رقابت پرداختند. هر بازی هر مردی برای خودش بود و برای امتیاز رقابت می کرد (فکر می کنم وظیفه نامربوط است). در یک روز، همیشه 4 رقیب وجود داشت - 2 A و 2 B. اما اگر هر یک از آن افراد در آن روز به معیار می رسید (در اصل تعداد معینی امتیاز کسب می کرد)، او کشیده می شد و روز بعد با یک بازیکن جدید از همان گروه خانگی (الف یا ب) جایگزین می شد. یک فرد می تواند تا 7 روز به معیار برسد (اگر شما 7 روز را بدون رسیدن به معیار می گذرانید، در نظر گرفته می شوید که باخته اید و از بازی خارج شده اید). این بدان معنی است که یک فرد (مثلاً یک A) که در یک روز بازی کرده و برنده شده است، تنها با سه رقیب دیگر روبرو می شود - 1 A و 2 B. اما A که ضعیف عمل کرد و 7 روز ماندگار شد، میتوانست با تعداد زیادی از بازیکنان A و B روبرو شود، زیرا رقبای بهتری از آن عبور میکردند. بنابراین من به هر یک از مردان یک امتیاز رتبهای دادهام که نشاندهنده درصد مردان گروه مقابل است که او شکست دادهاند. فرض کنید یک A به نام جو به مدت دو روز رقابت کرد و با 1 A و 3 B دیگر روبرو شد و او پس از یک A دیگر در گروه اما بالاتر از سه B قرار گرفت. امتیاز او 1.0 خواهد بود. اگر جو کار سخت تری داشت و روزهای بیشتری را برای رسیدن به معیار زمان می برد، احتمالاً در مجموع با رقبای بیشتری روبرو می شد، اما اگر از همه Bهایی که ملاقات کرده بود، امتیاز او 1.0 بود. این امتیاز تلاش میکند تا اثربخشی بازیکنان را در شکست دادن مردان گروه مقابل اندازهگیری کند و امکان مقایسه بین مردانی را که با تعداد متفاوتی از رقبا روبرو شدهاند، فراهم کند. بنابراین امتیازات رتبه برای دو گروه به این صورت است: A: 1، 1، 1، 0.833333، 0.75، 0.833333، 0.5، 0.333333، 0.333333، 0.5، 0.3333333، 0.5، 0.3333333، 0.63333، 0.6، 0.6، 0.125. 0.5، 0.333333، 0.5، 0.5، 0.2، 0.166667، 0 و سوال من این است: آیا راه معتبرتری برای دیدن اینکه آیا تفاوتی بین گروه ها وجود دارد یا نه از من ویتنی وجود دارد؟ | تجزیه و تحلیل آماری داده های رقابت |
8347 | در حین شرکت در کنفرانس ها، طرفداران آمار بیزی برای ارزیابی نتایج آزمایش ها کمی اصرار داشتند. از آن به عنوان حساستر، مناسبتر و انتخابیتر نسبت به یافتههای واقعی (کمتر مثبت کاذب) نسبت به آمارهای متداول یاد میشود. من موضوع را تا حدودی بررسی کرده ام و تا کنون در مورد مزایای استفاده از آمار بیزی متقاعد نشده ام. با این حال، از تحلیلهای بیزی برای رد تحقیقات داریل بم در حمایت از پیششناخت استفاده شد، بنابراین من با احتیاط کنجکاو هستم که چگونه تحلیلهای بیزی ممکن است حتی برای تحقیقات خودم مفید باشد. بنابراین من در مورد موارد زیر کنجکاو هستم: * قدرت در تحلیل بیزی در مقابل تحلیل مکرر * حساسیت به خطای نوع 1 در هر نوع تجزیه و تحلیل * معاوضه در پیچیدگی تحلیل (به نظر می رسد بیزی پیچیده تر است) در مقابل مزایا به دست آورد. تجزیه و تحلیل های آماری سنتی ساده و با دستورالعمل های ثابت برای نتیجه گیری هستند. سادگی را می توان به عنوان یک مزیت در نظر گرفت. آیا ارزش تسلیم شدن را دارد؟ با تشکر برای هر بینش! | آیا آمار بیزی واقعاً نسبت به آمارهای سنتی (تکرارگرا) برای تحقیقات رفتاری بهبود یافته است؟ |
92130 | من از libsvm برای یک مشکل طبقه بندی 2 کلاس استفاده می کنم. برای آزمایش خود از C-SVM با هسته RBF استفاده می کنم. به نظر می رسد مشکل اصلی من این است که کلاس ها به شدت نامتعادل هستند. در حالی که من 35000 مجموعه داده در کلاس -1 دارم، تنها 16 مجموعه داده در کلاس +1 (تقریبا 0.05٪) در داده های آموزشی وجود دارد. این باید خوب باشد زیرا آن 16 مجموعه داده کلاس +1 را کاملاً دقیق توصیف می کنند. اما برای آموزش SVM مشکلاتی ایجاد می کند. libsvm گزینه -w را ارائه میکند که به من امکان میدهد وزنها (یا جریمهها) را برای طبقهبندی اشتباه در طول تمرین اضافه کنم. من کلاس -1 را با 1 و کلاس +1 را با 2187.5 وزن می کنم (= 35000 / 16). به نظر می رسد که در طول آموزش بسیار خوب کار می کند زیرا من نتایج مورد انتظار را با آزمایش مدل روی داده های آزمایشی خود دریافت می کنم. با این حال، من باید پارامترهای SVM (c و gamma) را به صورت دستی انتخاب کنم. این به این دلیل است که اعتبار سنجی متقاطع واقعاً کار نمی کند. با نگاهی به داده های آزمایشی من، انتظار دارم پارامترهایی را پیدا کنم که منجر به دقت 100٪ می شود، زیرا کلاس ها به وضوح قابل تفکیک هستند. اما اگر از Cross Validation استفاده کنم، دقت هایی که می گیرم بین 95% و 99.98% است. من از همان وزنه هایی که برای تمرین معمولی و اعتبارسنجی متقاطع 5 برابری استفاده می کنم استفاده می کنم. به نظر می رسد من دارم کار اشتباهی انجام می دهم. من گمان میکنم که وقتی مجموعه دادهها تقسیم میشوند، برخی از زیر مجموعهها فقط شامل اعضای کلاس -1 هستند که آموزش با این زیر مجموعه را بیفایده میکند. کار درست در مورد من چیست؟ واضح است که وزن ها کمکی نمی کند. من نمیخواهم از کلاس -1 کم نمونه برداری کنم، زیرا 16 مجموعه داده واقعاً برای توصیف این کلاس کافی نیستند. آیا باید نوعی از نمونه برداری بیش از حد را در کلاس +1 امتحان کنم؟ یا مشکل من چیز دیگری است؟ پیشاپیش متشکرم | libsvm: اعتبارسنجی متقاطع با کلاس های نامتعادل |
33933 | من دو متغیر پیوسته ($X,Y$) را برای 21 موضوع اندازه میگیرم. $X$ و $Y$ هر کدام 216 نقطه داده (در هر موضوع) دارند. میخواهم ببینم آیا $X$ و $Y$ در سطح گروه همبستگی دارند یا خیر. من می توانم به 3 گزینه فکر کنم: الف) همه موضوعات را به هم متصل کنید و همبستگی را محاسبه کنید. من معتقدم این روش میزان خطای نوع $\text{I}$ من را کمی افزایش می دهد و ایده بدی به نظر می رسد. ب) برای هر موضوع یک همبستگی جداگانه اجرا کنید، و سپس تجزیه و تحلیل سطح 2 را اجرا کنید تا ببینید آیا مقادیر t از هر همبستگی به طور قابل توجهی با 0 متفاوت است (آزمون t تک نمونه). به نظر می رسد این در تجزیه و تحلیل داده های fMRI در سطح گروه کاملاً برجسته باشد. ج) یک مدل خطی با اثر مختلط بسازید و موضوع را به عنوان یک متغیر تصادفی در نظر بگیرید. من این کار را در R با استفاده از «lmer(y ~ x + (1|sub))» انجام دادم و همان نتیجه b را گرفتم، البته مقدار p متفاوتی داشت. با این حال، من به ندرت از R استفاده میکنم و زمانی که pvals.fnc مقدار p 0 را گزارش میکند (که من کمتر از 0.0001 تفسیر میکنم) تا حدودی مشکوک هستم. راه مناسب برای اجرای این تحلیل چیست و به طور خاص تفاوت بین (b) و (c) چیست؟ | اثر همبستگی در سطح گروه |
55718 | من یک مجموعه داده دارم که چندین مجموعه از برچسب های باینری برای آن دارم. برای هر مجموعه ای از برچسب ها، من یک طبقه بندی کننده را آموزش می دهم و آن را با اعتبارسنجی متقاطع ارزیابی می کنم. من می خواهم با استفاده از PCA ابعاد را کاهش دهم. سوال من این است: **آیا می توان یک بار PCA را برای مجموعه داده انجام داد و سپس از این مجموعه داده جدید همانطور که در بالا توضیح داده شد استفاده کرد؟ یا آیا باید برای هر مجموعه آموزشی یک PCA جداگانه انجام دهم (که به معنای انجام یک PCA جداگانه برای هر طبقهبندی کننده و برای هر فولد CV است)؟** از یک طرف، PCA از برچسبها استفاده نمیکند. از سوی دیگر، از دادههای آزمایشی برای انجام تبدیل استفاده میکند، بنابراین میترسم که بتواند نتایج را سوگیری کند. باید اشاره کنم که علاوه بر ذخیره مقداری کار، انجام یکبار PCA روی کل مجموعه داده به من این امکان را می دهد که مجموعه داده را برای همه مجموعه های برچسب به طور همزمان تجسم کنم. اگر من یک PCA متفاوت برای هر مجموعه برچسب داشته باشم، باید هر مجموعه برچسب را جداگانه تجسم کنم. | PCA قبل از تقسیم قطار/آزمایش |
111470 | آیا می توانم به طور دستی متغیر وابسته تاخیر را در بین متغیرهای توضیحی در برآورد مدل داده های تابلویی قرار دهم (در تلاش برای ایجاد رابطه بین سود ناخالص/درآمد قبل از بهره و مالیات به عنوان متغیر وابسته برای معادلات 1 و 2 به ترتیب. مواد خام، کار در حال انجام، موجودی های خوب به پایان برسد. متغیرهای مستقل.logFsize، Year Dummy - متغیرهای کنترل. | متغیر وابسته تاخیر در بین متغیرهای توضیحی در تحلیل داده های تابلویی |
50745 | SPSS چندین روش برای استخراج عامل ارائه می دهد: 1. مولفه های اصلی (که اصلاً تحلیل عاملی نیست) 2. حداقل مربعات بدون وزن 3. حداقل مربعات تعمیم یافته 4. حداکثر احتمال 5. محور اصلی 6. فاکتورسازی آلفا 7. فاکتورسازی تصویر نادیده گرفتن روش اول، که تحلیل عاملی نیست، کدام یک از این روش ها بهترین است؟ مزایای نسبی روش های مختلف چیست؟ و اساساً چگونه انتخاب کنم که از کدام یک استفاده کنم؟ سوال مشابه: آیا باید از هر 6 روش نتایج مشابهی بدست آورد؟ | بهترین روش های استخراج عامل، با ارجاع به SPSS |
107966 | من سعی میکنم k طبقهبندی نزدیکترین همسایه را در R انجام دهم. برای اینکه میخواهم معنیدارترین ویژگیها را برای مقابله با نفرین ابعاد انتخاب کنم. من قبلاً تصمیم گرفته ام از فاصله ماهالانوبیس و فاصله اقلیدینی استفاده کنم. سوال من اکنون این است که بهترین راه برای انتخاب ویژگی های مورد استفاده چیست. همانطور که قبلاً متوجه شدم جستجوی جامع توصیه نمی شود زیرا این امر منجر به بیش از حد مناسب می شود. آیا دستورالعمل یا مقاله ای وجود دارد؟ برخی از مثال ها در R نیز انجام می دهند. پیشاپیش از شما بسیار سپاسگزارم | روش انتخاب ویژگی های معنادار برای طبقه بندی نزدیکترین همسایه |
22430 | من در حال کار بر روی برازش یک مدل کاکس برای پیش بینی هستم. اما چندین پیش بینی فرض خطرات متناسب را نقض کردند. من می خواهم مدل طبقه بندی شده کاکس را برای تنظیم آنها انجام دهم. اما نتایج مدل طبقه بندی شده کاکس شامل هیچ اطلاعات یا تأثیری از آن پیش بینی کننده های طبقه بندی نمی شود. از آنجایی که من واقعاً میخواهم تأثیر یک پیشبینیکننده مهم را ببینم، فرض میکنم که برای نتیجه دادههای من بسیار مهم است. آیا راه دیگری برای این کار وجود دارد؟ | مدل طبقه بندی شده کاکس |
107961 | من در درک SVM برای موارد قابل جداسازی خطی و غیرخطی مشکل دائمی دارم. من تا حدی میدانم که SVM یک ابرصفحه ایجاد میکند که حداکثر یا بهینه فاصله بین دو کلاس را دارد که باید از هم جدا شوند، که اساساً به عنوان مرز تصمیم در زمان پیشبینی عمل میکند. من همه چیز را تا جایی دنبال کردم که گفته شد 1/2 (||w||) را کمینه کنید، که واقعاً متوجه نمی شوم. همچنین، پس از آن چیزی مربوط به ترفند هسته وجود داشت، در آن مرحله، من به طور کامل مسیر را گم کردم. آیا کسی میتواند یک مثال عددی کوتاه را نشان دهد که چگونه میتوانیم یک SVM را به صورت آماری روی یک مجموعه داده کوتاه انجام دهیم، اجازه دهید این یکی را بگوییم: x = [(2،3،5)، (4،5،6)، (6،5) ,9), (9,11,22)] y = [1,1,-1,-1] همچنین، من به بخش پیش بینی بر اساس نتیجه حاصل از svm این مجموعه داده علاقه مند هستم. پیشاپیش ممنون | مثال عددی SVM (گام به گام) |
63943 | من می خواهم عملکرد یک مخزن آب باران را که دارای ورودی تصادفی (بارندگی) است، مدل کنم. داده ها حجم خالی مخزن در پایان هر روز است. مقادیر به سمت افراطها منحرف شدهاند، و من مطمئن نیستم که چگونه این را مدل کنم یا آن را به صورت آماری ارائه کنم. با بررسی توزیعهای مختلف در ویکیپدیا، متوجه شدم که به نظر یک توزیع بتا است - اما مطمئن نیستم که یکی است یا خیر. من باید یک روش آماری برای نمایش حجم خالی پیدا کنم. یکی از دوستان به من پیشنهاد داد که از توزیع دوجمله ای احتمال خالی بودن 25 درصد، 50 درصد خالی یا 75 درصد خالی بودن مخزن استفاده کنم و فواصل اطمینان مرتبط با آن مقادیر را پیدا کنم. توزیع دادههای من در اینجا است:  ویرایش - 11 ژوئیه، 7:28 GMT (برای شفافسازی نظرات زیر را دنبال کنید) جریان ورودی به مخزن بهطور تصادفی رخ میدهد به دلیل بارندگی در صورت وجود حجم ذخیره شده، انتزاع منظم از مخزن وجود دارد. من میخواهم احتمال حجم خالی مخزن را در هر روز تصادفی در آینده بر اساس دادههای تاریخی و اطمینان مرتبط با آن احتمال تخمین بزنم. سپس میخواهم از این رقم «حجم خالی» برای تخمین میزان بارندگی طوفانی بزرگ استفاده کنم که تعداد زیادی از این مخازن میتوانند حجم سیلهای ناگهانی را کاهش دهند. احتمالاً ممکن است نیاز به ارائه احتمالات ترکیبی با احتمال طوفان داشته باشد. | نحوه مدل سازی توزیع هایی که به طور معمول توزیع نمی شوند |
55714 | من میخواهم یک توزیع هذلولی را با توجه به نماد خود تنظیم کنم: \begin{align*} H(l;\alpha,\beta,\mu,\delta)&=\frac{\sqrt{\alpha^2-\beta^ 2}}{2\alpha \delta K_1 (\delta\sqrt{\alpha^2-\beta^2})} exp\left(-\alpha\sqrt{\delta^2+(l-\mu)^2}+\beta(l-\mu)\right) \end{align*} من از بسته HyperblicDistr استفاده می کنم. برای مرحله اول، تخمین پارامترها (داده): hyperbFit(dat,hessian=TRUE) خروجی  اکنون پارامترها را به نماد خود تبدیل می کنم: hyperbChangePars(from=1,to=2,c(-0.002494,0.002035,0.090747,0.204827 )) که می دهد  حالا، من می خواهم خطاهای استاندارد پارامترهایم را محاسبه کنم، اگر این کار را انجام دهم: summary(hyperbFit(dat,hessian=TRUE)) I دریافت  اما اینها خطاهای استاندارد در مورد نماد پارامتر هستند که من نمی دانم خواستن بنابراین اولین سوال من: 1. خطاهای استاندارد به کدام پارامترها (در نماد من) تعلق دارند؟ بنابراین، خطای استاندارد $\hat{\alpha}، \hat{\beta}، \hat{\mu}$ و $\hat{\delta}$ چیست؟ 2. مقادیر ثابت می مانند، درست است، بنابراین آنها تغییر نمی کنند یا؟ | خطاهای استاندارد HyperbFit؟ |
33931 | من سعی می کنم یک رگرسیون چندگانه ساده بسازم تا ارزش یک خانه را تخمین بزنم. 5 نقطه داده، 5 فروش خانه قابل مقایسه هستند (از نظر اندازه، زمین، مکان، تعداد اتاق خواب، و غیره مشابه). اگر چنین مدلی را اجرا کنید، نرم افزار می گوید که به یک نقطه داده بیشتر از متغیرها نیاز دارید. بنابراین، اگر من 5 فروش خانه قابل مقایسه خود را بگیرم و آنها را 4 بار تکرار کنم، چطور؟ بنابراین، اکنون من 20 نقطه داده دارم. نرم افزار باید بتواند رگرسیون چندگانه مرتبط را اجرا کند. من پیش بینی می کنم که شما پاسخ دهید که این روش شناسی ناقص است زیرا در زیربنای همه این موارد شما هنوز فقط 5 نقطه داده متفاوت دارید. اما، می توانید این رد را کمی بیشتر بیان کنید. همچنین، آیا می توانید هر روش جایگزینی برای رفع این محدودیت پیشنهاد کنید. | چگونه یک مدل رگرسیون فقط با 5 نقطه داده با 5 متغیر یا بیشتر بسازیم؟ |
78950 | فکر می کردم در آمار مهارت دارم تا اینکه متوجه شدم در یک مشکل ساده غرق شده ام که حل آن مشکل دارم، از این رو درخواست من برای تخصص شماست :) 1) یک آزمون برای بسیاری از داوطلبان برگزار شده است. 2) تعداد داوطلبان بیش از 20000 نفر می باشد. c1,c2,c3 ...C20000+ 3) هر داوطلب در نتیجه آزمون رتبه بندی شده است و 2 داوطلب با رتبه برابر وجود ندارد. رأی: r1,r2,r3...r20000 4) 5 دوره s1,s2,s3,s4,s5 وجود دارد که نامزدها انتخاب خود را برای آنها بیان کرده اند. کاندیدایی که دارای بالاترین رتبه است، مکان های بالاترین انتخاب خود را تا تکمیل تمام مکان های 20 رشته تکمیل می کند. 5) تعداد مکان های هر درس s متفاوت است: s1=50، s2=70 s3=10، s4=200، s5=20. مجموع مکان ها = 350 از چه سیستم رتبه بندی برای رتبه بندی محبوبیت یا تقاضای دوره ها توسط داوطلبان موفق استفاده می کنید؟ رتبهبندی تقاضا/محبوبیت هر دوره با جمعبندی انتخابهای هر رشته از 20000+ داوطلب بسیار آسان است، اما این به من شاخص تقاضا را برای کل جمعیت میدهد. من رتبه هایی را می خواهم که از 350 متقاضی موفق بدست می آید. ایده کسب رتبه ای است که توسط انتخاب های متقاضیان موفق بیان می شود. می توانید به من کمک کنید؟ پ.ن: تلاش من برای حل این مشکل عبارت بود از: الف) رتبه بندی داوطلبان موفق در هر دوره و تقسیم آن بر تعداد رتبه های دروس. ب) با جمع آوری رتبه داوطلب، آن را در رتبه در دوره ضرب کرد و این مقدار را بر مجموع رتبه های درس تقسیم کرد، مثلاً داوطلب 203 در درس S2 (که دارای 70 رتبه است) پنجم شد: (203*5 +... برای همه 70 نامزد)/70 | نحوه محاسبه رتبه دروس |
55715 | من به دنبال یک بسته نرم افزاری آماری هستم که بتوانم از آن در دوره مقدماتی آمار برای یک برنامه مطالعاتی علوم اجتماعی استفاده کنم. دانش آموزان هیچ دانش قبلی از آمار و هیچ تجربه ای با زبان های برنامه نویسی ندارند. هدف این است که آنها را با مفاهیم اساسی آماری (به عنوان میانگین، واریانس، مجموع مربع ها، مقادیر p، ... و در نهایت رگرسیون خطی) آشنا کنیم و آنها را قادر به انجام تجزیه و تحلیل های اساسی به تنهایی با استفاده از مجموعه داده های نمونه کنیم. این دوره باید در مورد یادگیری مفاهیم با انجام آمار باشد نه حفظ فرمول ها (اگرچه به نظر من فرمول ها مهم هستند). بنابراین، من به دنبال یک جایگزین برای نحو معمول (به عنوان R معمولی) یا نقطه و کلیک (به عنوان SPSS یا Rcmdr) نرم افزار محور هستم. نرم افزار باید به راحتی قابل یادگیری باشد و باید دارای یک رابط کاربری گرافیکی واضح باشد که مجموعه داده ها را تجسم کرده و نمودارها و جداول استاندارد را ارائه دهد. بهترین کار این است که تمام مراحل مختلف یک تجزیه و تحلیل (مانند خواندن و دستکاری داده ها، محاسبه معیارهای توصیفی، ساخت جداول و نمودارهای توصیفی، محاسبه معیارهای استنتاجی، ترسیم نمودارهای استنباطی، صادرات به گزارش) را به تصویر بکشد. **آیا نرم افزار آماری (متن باز یا رایگان) پیشنهادی دارید که برای یادگیری و اولین تمرین آمار مناسب باشد؟** **ویرایش** با تشکر از پیشنهادات شما. من به gretl و دو برنامه دیگر که در طول تحقیق آنلاین خودم پیدا کردم، نگاه کردم: RapidMiner و Statistical Lab.[1] دریافتهام که رابط و خروجی «gretl» واضحتر و متمرکزتر از مثال است. Rcmdr، SPSS یا Stata. بنابراین، از دیدگاه من ابزار مناسبی برای شروع آموزش آمار است. با این حال، فلوچارت رابط کاربری گرافیکی RapidMiner و Statistical Lab من را تحت تاثیر قرار داد زیرا آنها مراحل تکی یک تجزیه و تحلیل آماری (شروع با بارگذاری داده ها) را تجسم می کنند. من فکر می کنم این ممکن است برای بسیاری از دانش آموزانی که با تمرکز معمول بر روی توضیحات ریاضی مشکل دارند مفید باشد. البته به نظر من RapidMiner بیش از حد با توابع، منوها و دکمهها برای مبتدیان پر شده است، در حالی که آزمایشگاه آماری بسیار متمرکزتر است. مزیت بزرگ آزمایشگاه آماری R-Calculator کنسول مانند با جادوگر R-code است که به تولید نحو واقعی R کمک می کند زیرا آزمایشگاه آماری برای محاسبات خود به R متکی است. در نهایت تصمیم گرفتم در ترم اول با معرفی مفاهیم اولیه با _آزمایشگاه آماری شروع کنم و در ترم دوم به _RStudio_ (و Rcmdr) بروم. [1]: Gnumeric، SciPy، Scilab، GNU Octave و موارد مشابه به نظر من کمتر به علوم اجتماعی معطوف می شود. | کدام نرم افزار آماری برای تدریس دوره مقدماتی آمار در مقطع کارشناسی علوم اجتماعی مناسب است؟ |
66657 | آیا هنگام اجرای برخی از پروژه های NLP، مانند بخش بندی متن، شناسایی موجودیت نام، آیا استفاده از trigram تضمین می کند که عملکرد دقیق تری نسبت به bigram دارد؟ $$ Trigram: p(s_t\mid s_{t-2}, s_{t-1}) $$ $$ Bigram: p(s_t\mid s_{t-1}) $$ ویرایش: من از HMM استفاده می کردم برای انجام NER در سوابق استناد (انتشارات). من از بیگرام در پیاده سازی خود استفاده می کردم. دقت خوب بود من کلاس NLP مایکل کالینز را در Coursera می بینم که در آن از یک HMM سه گانه برای انجام برچسب گذاری POS استفاده می کند. بنابراین من فکر می کردم که آیا trigram عملکرد را به طور قابل توجهی افزایش می دهد یا فقط کمی. و همچنین کنجکاو هستم که آیا در هر صورت تریگرام بدتر از بیگرام عمل می کند. whuber قبلاً یک نمای کلی بسیار خوب از مزایا و معایب trigram در نظرات ارائه کرده است. | آیا تریگرام عملکرد دقیق تری نسبت به بیگرام تضمین می کند؟ |
66650 | من از رگرسیون لجستیک استفاده می کنم و سعی می کنم بفهمم که آیا به هر حال می توان مقادیر p را در اکتاو یا پایتون محاسبه کرد. با تشکر | مقدار P برای رگرسیون لجستیک در اکتاو یا پایتون |
55711 | من دادههایی دارم که در آن بازبینان مختلف اهمیت موضوعات متعدد را در مقیاس 1 تا 5 (مقیاس لیکرت) رتبهبندی کردهاند. هر یک از موضوعات به یک گروه اختصاص داده شده است. میخواهم ببینم آیا تفاوتی در رتبهبندی کلی اهمیت بین گروههای موضوعات وجود دارد یا خیر. در اینجا نمونهای از شکل ظاهری دادهها آمده است... \begin{array}{|c|c||c|} موضوع & گروه & reviewer1 & reviewer2 & reviewer3 \\\ \hline 1&A&4&2&2\\\ 2&A&5&5&5\\\ 3&B&3&3&2\\\ 4&B&4&5&2\\\ 5&C&5&4&4 \end{آرایه} داده های واقعی موضوعات، گروه ها و بازبین های بیشتری دارد. من می دانم که نباید از ANOVA استفاده کنم، بنابراین فرض می کنم که باید از یک تکنیک ناپارامتریک استفاده کنم، اما مطمئن نیستم که کدام یک با توجه به چندین موضوع و چندین بازبین در هر گروه وجود دارد. برخی از داوران ممکن است سختگیرتر از دیگران باشند و من میخواهم آن را توضیح دهم. با تشکر از کمک شما! | چگونه تفاوت رتبهبندیهای چندگانه لیکرت چندین آیتم را در گروهها ارزیابی کنیم؟ |
55712 | من 2 آرایه با داده های مربوط به الگوی میدان اطراف آنتن ها در آنها دارم. میخوام ببینم چقدر شبیه هم هستن آیا این بدان معناست که باید ماتریس کوواریانس یا ضرایب همبستگی ماتریس را پیدا کنم؟ دادههای آرایهها به این شکل هستند (مقادیر ساخته شده): شعاع (m) زاویه (درجه) قدرت میدان (dbm) 0.5 0 -21 1.5 0 -31 2.5 0 -41 3.5 0 -51 4.5 0 -61 0.5 45 - 21 1.5 45 -31 2.5 45 -41 3.5 45 -51 4.5 45 -61 ADD: من فقط می خواهم شباهت بین مقادیر در آخرین ستون هر دو آرایه را آزمایش کنم، به عنوان مثال قدرت میدان در یک نقطه خاص در اطراف آنتن. من همچنین فکر می کنم ممکن است که من انحراف معیار را بخواهم. متاسفم اگر خیلی منطقی نیستم، این پروژه ای است که من با WiFi انجام می دهم. سال ها پیش آمار یاد گرفتم. | آیا می خواهم ضرایب همبستگی یا ماتریس کوواریانس دو آرایه را پیدا کنم؟ |
22691 | > **تکراری احتمالی:** > افزایشی یا آنلاین یا تک گذر یا خوشه بندی جریان داده به همین موضوع اشاره دارد؟ 1. الگوریتمهای خوشهبندی افزایشی 2. الگوریتمهای خوشهبندی آنلاین 3. الگوریتمهای خوشهبندی جریان دادهها 4. الگوریتمهای خوشهبندی تک گذر آیا عبارات زیر به هم مرتبط هستند؟ آیا برخی از آنها شامل برخی دیگر می شود؟ چه تفاوتی بین آنها وجود دارد؟ چه محدودیت هایی وجود دارد که هر یک بر خلاف دیگران باید با آن روبرو شود؟ | Incremental یا Online یا Single Pass یا Data Stream Clustering به همین موضوع اشاره دارد؟ |
26326 | من یک رگرسیون با چندین متغیر مستقل با 32 مشاهده (از 1975 تا 2006 و آنها داده های سالانه) اجرا می کنم. مسئله اینجاست که هیچ مشاهده ای برای یکی از متغیرهای قبل از سال 1980 وجود ندارد. در نتیجه، آن متغیر دارای 5 مشاهدات گمشده (از 1975 تا 1979) است. آیا روشی در R برای ارائه تخمینی برای این مقادیر از دست رفته وجود دارد؟ ضمناً متغیر توضیحی در اینجا «کل نیروی کار» است و روند بسیار بارزی دارد. بنابراین، من به خوبی می دانم که از نظر آماری برآورد مقادیر گذشته بسیار امکان پذیر است. | چگونه داده های از دست رفته را تخمین بزنیم؟ |
66652 | من دو سری زمانی دارم * $p_t$، قیمت روز بازار یک نوع خاص از کالا * $f_t$، تولید روزانه چنین کالایی حالا فرض کنید یک رابطه منحصر به فرد وجود دارد که به شما می گوید تولید بهینه با توجه به قیمت تابع عرضه): $q(p_t) = a + b p_t$. سری تولید $f_t$ به $q(p_t)$ نزدیک می شود اما این کار را به آرامی و پر سر و صدا انجام می دهد. مثالی از منظور من از آن این است:  من باید $ را تخمین بزنم a$ و $b$ فقط با مشاهده $f_t$ و $p_t$. من مطمئنم که می توان این کار را انجام داد، اما من واقعاً در سری های زمانی زنگ زده هستم. با تشکر از کمک! | یک سری زمانی به سمت تابع (خطی) سری زمانی دیگر گرایش دارد، چگونه آن تابع را پیدا کنیم؟ |
26323 | چه روش هایی برای اندازه گیری قدرت روابط دلخواه و بسیار غیرخطی بین دو متغیر جفتی وجود دارد؟ منظور من از بسیار غیرخطی، روابطی است که نمیتوانند به طور معقول یا قابل اعتماد با رگرسیون به یک مدل شناخته شده مدل شوند. من به خصوص به سریهای زمانی علاقهمندم، اما تصور میکنم هر چیزی که برای دادههای دو متغیره کار میکند در اینجا کار میکند (اگر دو سری زمانی را بهعنوان مجموعهای از نقاط داده جفتی در نظر بگیریم) دو موردی که من از آنها مطلع هستم، میانگین هستند. اختلاف مربع (یعنی میانگین مربعات خطا، در نظر گرفتن یک سری زمانی به عنوان مقدار مورد انتظار و یکی به عنوان مقدار مشاهده شده)، به عنوان و کوواریانس فاصله. دیگران چه هستند؟ **توضیح:** من اساساً در مورد وابستگی بین سری ها می پرسم، جایی که همبستگی خطی یا همبستگی غیرخطی ساده (پس از log، exp، trig، سایر تبدیل های تحلیلی ساده) واقعاً معنی ندارد. | روش های اندازه گیری قدرت روابط غیرخطی دلخواه بین دو متغیر؟ |
26325 | من یک فایل مدل دارم که با استفاده از svmlight در حالت طبقه بندی با هسته خطی ایجاد شده است. آیا می توان این فایل را تبدیل کرد تا libsvm از آن برای طبقه بندی استفاده کند؟ | آیا می توان یک مدل svmlight را به کار با libsvm تبدیل کرد؟ |
46958 | من دو متغیر ترتیبی دارم که در مقیاس های مختلف تنظیم شده اند. متغیرها از پرسشنامه استخراج شدند. متغیر اول از 12- تا 12+ با گام 1 عرض، (-12، -11،...-2،-1، 0، 1، 2،...، +11، +12) و دومی فقط از 2- تا 2+ با همان عرض پله (-2,-1,0,+1,+2) متغیر است. من می خواهم بررسی کنم که آیا آنها با هم مرتبط هستند یا خیر و همچنین قدرت ارتباط بالقوه بین آنها را اندازه گیری کنم. چگونه این کار را انجام دهم؟ آیا باید متغیرها را استانداردسازی کنم تا بتوانم آنها را با یکدیگر مقایسه کنم؟ پیشاپیش از شما متشکرم کنستانتینوس | چگونه می توان آزمون ضریب همبستگی را بین دو متغیر ترتیبی با مقیاس های ناهموار اجرا کرد؟ |
107962 | من یک داده بارندگی دارم که شامل حدود 95 سال برای ردیف ها و دوازده ماه از سال برای ستون ها است. بنابراین این یک ماتریس 95x12 است، نه بردار ستونی. آیا می توانم با تجزیه و تحلیل مولفه های اصلی، ایده ای در مورد ماه هایی که باید با توجه به بارندگی متمرکز شوند به دست بیاورم؟ اگر چنین است، اجزای اصلی به چه سالها یا ماهها اشاره میکنند؟ همچنین پاسخ بردارهای ویژه را به ترتیب قدر کاهشی برمی گرداند. بنابراین هر کدام به کدام ماه (ماه) اشاره می کنند؟ یک مثال کوچک در مورد چگونگی تفسیر نتایج با استفاده از T2 هتلینگ، امتیازات و مؤلفههای اصلی میتواند به روشن شدن این مسائل برای من کمک کند. | آیا فصلی بودن را می توان با تجزیه و تحلیل مولفه های اصلی شناسایی/کاوش کرد؟ |
8342 | من یک جدول احتمالی سه سطحی دارم، با دادههای شمارش برای چندین گونه، گیاه میزبانی که از آن جمعآوری شدهاند و اینکه آیا این مجموعه در یک روز بارانی اتفاق افتاده است (این در واقع مهم است!). با استفاده از R، داده های جعلی ممکن است چیزی شبیه به این باشد: شمارش <- rpois(8، 10) گونه <- rep(c(a، b)، 4) میزبان <- rep(c(c, c، d، d)، 2) rain <- c(rep(0,4), rep(1,4)) my.table <- xtabs(تعداد ~ میزبان + گونه ها + باران) , باران = 0 گونه میزبان a b c 12 15 d 10 13 , , rain = 1 گونه میزبان a b c 11 12 d 12 7 حال می خواهم دو چیز را بدانم: آیا گونه ها با گیاهان میزبان مرتبط هستند؟ آیا باران یا نه بر این ارتباط تأثیر می گذارد؟ من از «loglm()» از «MASS» برای این کار استفاده کردم: با توجه به تأثیر باران، آیا گونهها از گیاهان میزبان مستقل هستند؟ loglm(~گونه + میزبان + باران + گونه*باران + میزبان*باران، داده=my.table) # با توجه به هر رابطه ای بین گیاهان میزبان و گونه ها، آیا باران آن را تغییر می دهد؟ loglm (~گونه + میزبان + باران + گونه* میزبان) این کمی خارج از سطح راحتی من است و میخواستم بررسی کنم که آیا مدلها را درست تنظیم کردهام و این بهترین راه برای نزدیک شدن به این سؤالات است. | روشی مناسب برای مقابله با جدول احتیاطی 3 سطحی |
19523 | رگرسیون خطی را با مقداری منظم سازی در نظر بگیرید: به عنوان مثال. $x$ را بیابید که $||Ax - b||^2+\lambda||x||_1$ را به حداقل میرساند، معمولاً ستونهای A استاندارد میشوند تا میانگین و هنجار واحد صفر داشته باشند، در حالی که $b$ در مرکز صفر قرار میگیرد. معنی میخواهم مطمئن شوم که درک من از دلیل استانداردسازی و مرکزیسازی درست است یا خیر. با صفر کردن میانگین ستون های $A$ و $b$، دیگر نیازی به عبارت رهگیری نداریم. در غیر این صورت، هدف $||Ax- x_01-b||^2+\lambda||x||_1$ بود. با برابر کردن هنجارهای ستونهای A برابر 1، این امکان را حذف میکنیم که فقط به دلیل اینکه یک ستون از A هنجار بسیار بالایی دارد، ضریب پایینی در x$ دریافت میکند، که ممکن است ما را به اشتباه به این نتیجه برساند که ستون A $x$ را خوب توضیح نمی دهد. این استدلال دقیقاً دقیق نیست، اما به طور شهودی، آیا این راه درستی برای فکر کردن است؟ | نیاز به مرکزیت و استانداردسازی داده ها در رگرسیون |
8340 | **به روز رسانی: می خواستم توضیح دهم که این یک شبیه سازی است. ببخشید اگه همه رو گیج کردم من همچنین از نام های معنی دار برای متغیرهایم استفاده کرده ام.** من آمارگیر نیستم، پس اگر اشتباهی در توضیح آنچه می خواهم مرتکب شدم، لطفاً مرا تصحیح کنید. در رابطه با سوال قبلی ام، بخش هایی از سوالم را برای مرجع در اینجا بازتولید کرده ام. > من در حال ارزیابی وابستگی خروجی یک سناریو به سه متغیر هستم: Area، > Speed و NumOfVehicles. برای این، من آزمایشهای زیر را انجام میدهم: > > * Fix Area+Speed، Vary NumOfVehicles - مجموعا چهار مجموعه (Area+Speed) > هر کدام دارای 4 تغییر از NumOfVehicles > * Fix Speed+NumOfVehicles، Vary Area - مجموعا چهار مجموعه ای از > (Speed+NumOfVehicles) که هر کدام دارای 3 تغییر منطقه هستند > * رفع NumOfVehicles+Area، Vary Speed - در مجموع چهار مجموعه > (NumOfVehicles+ Area) که هر کدام دارای 6 تغییر سرعت هستند > > > خروجی هر شبیه سازی مقدار یک متغیر در طول زمان است. متغیر خروجی > که من مشاهده می کنم زمانی است که در آن 80 درصد اتومبیل ها تصادف می کنند. > > من سعی می کنم تعیین کنم که کدام پارامتر (ها) بر نتیجه آزمایش > غالب است. منظور من از تسلط این است که گاهی اوقات، نتایج با تغییر یکی از پارامترها تغییر نمی کند، اما زمانی که برخی از پارامترهای دیگر حتی به مقدار کمی تغییر می کند، یک تغییر بزرگ در خروجی مشاهده می شود. من باید این اثر را ثبت کنم و تجزیه و تحلیلی به دست بیاورم تا بتوانم وابستگی خروجی به پارامترهای ورودی را بفهمم. یکی از دوستان > تجزیه و تحلیل حساسیت را پیشنهاد کرد، اما مطمئن نیستم که آیا راه های ساده تری برای > انجام آن وجود دارد یا خیر. لطفاً کسی می تواند در مورد یک تکنیک خوب (احتمالاً آسان زیرا من > سابقه آماری ندارم) به من کمک کند؟ اگر همه اینها را بتوان در R انجام داد بسیار عالی خواهد بود. نتیجه قبلی من با توجه به نتایج رگرسیون خیلی رضایت بخش نبود. بنابراین کاری که من انجام دادم این بود که ادامه دادم و همه آزمایشهایم را 20 بار با تغییرات مختلف هر متغیر تکرار کردم (به عنوان مثال، به جای 4 تغییر Area، اکنون 8 و غیره دارم). در زیر خلاصه ای از R پس از استفاده از رگرسیون خطی به دست آوردم: فراخوانی: lm(فرمول = T ~ مساحت + سرعت + تعداد وسایل نقلیه) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.13315 -0.06332 -0.01346 0.04249670 St. خطای t مقدار Pr(>|t|) (تقاطع) 0.04285 0.02953 1.451 0.148 ناحیه 0.70285 0.02390 29.406 < 2e-16 *** سرعت -0.15560 0.15560 0.0207-2-7.0208 *** NumOfVehicles -0.27447 0.02927 -9.376 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.08659 در 206 درجه آزادی چندگانه R-squared: 0.8304، تنظیم شده R-squared: 0-27. آمار: 336.2 در 3 و 206 DF، p-value: < 2.2e-16 برخلاف نتیجه قبلی من: lm(فرمول = T ~ مساحت + سرعت + تعداد وسایل نقلیه) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.35928 -0.06842 -0.006958940. Std. خطای t مقدار Pr(>|t|) (Intercept) -0.01606 0.16437 -0.098 0.923391 Area 0.80199 0.15792 5.078 0.000112 *** سرعت -0.2748501 -0.274150 0.1 . NumOfVehicles -0.31898 0.14889 -2.142 0.047892 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1665 در 16 درجه آزادی چندگانه R-squared: 0.6563، R-squared تنظیم شده: 0.59 آمار: 10.18 در 3 و 16 DF، p-value: 0.0005416 از درک من، نتایج فعلی من دارای خطای استاندارد کمتری است، بنابراین خوب است. علاوه بر این، مقدار Pr نیز بسیار پایین به نظر می رسد که به من می گوید که این نتیجه بهتر از نتیجه قبلی من است. پس آیا می توانم ادامه دهم و بگویم که A بیشترین تأثیر را روی خروجی دارد و سپس S و V به این ترتیب بیایند؟ آیا می توانم از این نتیجه کسر دیگری انجام دهم؟ همچنین، به من پیشنهاد شد که تغییرات دیگری مانند $A^2$ و غیره را اضافه کنم. اما اگر $A$ منطقه باشد، گفتن زمان به $A^2$ بستگی دارد در واقع به چه معناست؟ | مقایسه و درک نتیجه رگرسیون خطی من با تلاش قبلی |
55716 | من می خواهم داده های سری زمانی زیر را به اجزای فصلی، روند و باقیمانده تجزیه کنم. داده ها یک نمایه انرژی خنک کننده ساعتی از یک ساختمان تجاری است: TotalCoolingForDecompose.ts <- ts(TotalCoolingForDecompose, start=c(2012,3,18), freq=8765.81) نمودار (TotalCoolingForDecompose.ts) ![سری زمانی انرژی خنک کننده] (http://i.stack.imgur.com/IQcQ1.png) اثرات فصلی روزانه و هفتگی آشکاری وجود دارد، بنابراین بر اساس توصیههایی از: چگونه یک سری زمانی را با چندین مؤلفه فصلی تجزیه کنیم؟، من از تابع «tbats» از بسته «پیشبینی» استفاده کردم: TotalCooling.tbats <- tbats(TotalCoolingForDecompose. ts، seasonal.periods=c(24168)، use.trend=TRUE، use.parallel=TRUE) plot(TotalCooling.tbats) که منجر به این می شود:  اجزای سطح و شیب این مدل چه چیزی را توصیف می کنند؟ چگونه می توانم مؤلفه های «روند» و «باقی مانده» را مشابه کاغذ مورد اشاره این بسته (De Livera، Hyndman و Snyder (JASA، 2011)) دریافت کنم؟ | تفسیر تجزیه سری های زمانی با استفاده از TBATS از بسته پیش بینی R |
32579 | من در مورد این متعجب بودم، مخصوصاً به این دلیل که داشتم این چیزی به نام روشن کردن را بررسی می کردم که ظاهراً شبیه سازی های مونتکارلو را انجام می دهد، اما به خوبی نمی فهمم که آیا هدف من را برآورده می کند (ارزیابی حسن تناسب). با سلام و تشکر فراوان | ارزیابی خوبی برازش مدل logit و اصلاح درونزایی در STATA |
111479 | من از جعبه ابزار ریاضی Doronix استفاده می کنم. آنها توابع آماری دارند (http://www.doronix.com/statistics.html). من نمی توانم بفهمم که آنها چگونه p-value را در آزمون های رتبه بندی و نشانه ای پیدا می کنند. کسی آن را می شناسد؟ من می پرسم چون پاسخ با متلب متفاوت است. اما پاسخ در متلب با SPSS متفاوت است. آیا می توانم از تست های جعبه ابزار ریاضی Doronix Wilcoxon استفاده کنم؟ | تست های Wilcoxon در جعبه ابزار ریاضی Doronix |
8344 | من سعی می کنم بفهمم توابع تأثیر چگونه کار می کنند. آیا کسی میتواند در زمینه یک رگرسیون OLS ساده \begin{معادله} y_i = \alpha + \beta \cdot x_i + \varepsilon_i \end{equation} توضیح دهد که در آن من تابع تأثیر را برای $\beta$ میخواهم. | توابع نفوذ و OLS |
32574 | هر سال (یا هر سال دیگر) دادههای بیشتری (به عنوان مثال، سرشماری، سلامت، کار) با نتایج در سطح خانوار در خانوادههایی که بهطور تصادفی انتخاب شدهاند در دسترس قرار میگیرد که میتواند با دادههای جغرافیایی (به عنوان مثال، شرایط اقتصادی منطقهای، ایالت) جفت شود. یا انتخاب سیاست های محلی یا قیمت مسکن و غیره)، ما نیاز به ساخت مدل هایی داریم که به نظر من آنچه در مورد داده های پانل مقطعی شناخته شده به اندازه کافی کمک نمی کند. یک سطح (به عنوان مثال، مجموعه ای از کشورها در طول زمان). به بیان دیگر: در دادههایی که من به آنها نگاه میکنم، خانوارها بهطور تصادفی ترسیم میشوند، اما سطحی که در آن خوشهبندی میشوند (به عنوان مثال، ایالتها/استانها) یک پانل است (شاید یک پانل کامل، همه ایالتها در هر سال). و هر دو متغیر در سطح خانوار و سطح دولتی مورد توجه هستند (به عنوان مثال، تأثیر نرخ های بیکاری ایالتی بر نتیجه، زیرا در طول ایالت و در سال متفاوت است). تا کنون، من دیده ام که افرادی با این موضوع برخورد کرده اند که می گویند خانوارها (که یک پانل نیستند، اما هر سال از هر منطقه جغرافیایی ترسیم می شوند) در یک گروه «زمان قضایی سال»، مانند «سال های ایالتی» یا سال های ملت. به عنوان مثال، شما 50 ایالت و 10 سال دارید، بنابراین 500 سال حالت. با این حال، آیا نباید اصلاحاتی (در این مثال، فراتر از خوشه بندی خطاهای مربوط به سال های حالت) برای ماهیت پانل داده ها در سطح ایالت انجام شود؟ امیدوارم این سوال منطقی باشد. من فکر می کنم چنین داده هایی بیشتر و بیشتر مورد تجزیه و تحلیل قرار خواهند گرفت، بنابراین این یک مشکل جالب برای فکر کردن است. برای هر فکری از شما متشکرم | مشاوره در مورد سری های زمانی مقطعی با دو سطح مورد نیاز است |
93264 | من یک سوال سریع در مورد پرو LSMS از سال 1994 داشتم (http://microdata.worldbank.org/index.php/catalog/617). LSMS به ده ها فایل تقسیم می شود که همه آنها حاوی اطلاعات مختلفی هستند (برخی از آنها حاوی اطلاعاتی در مورد جمعیت شناسی، برخی دیگر در مورد درآمد و برخی دیگر در مورد سطح تحصیلات هستند). با این حال، نمی توانم بفهمم که چگونه می توانم بفهمم چه مشاهداتی در بین فایل ها مطابقت دارند (و تعداد مشاهدات در هر فایل متفاوت است). آیا X.CASENUM متغیری است که من به دنبال آن هستم؟ من فکر کردم که اینطور است، اما مشکوک هستم زیرا در هر فایل، بالاترین X.CASENUM = تعداد مشاهدات، و من نگران هستم که X.CASENUM فقط با شماره پرونده برای پرونده برابر باشد و در سراسر آن یکسان نباشد. فایل ها (به عبارت دیگر، X.CASENUM #5 در reg01 با X.CASENUM #5 در reg 11 یکسان نیست). | شناسه فرد در مجموعه داده LSMS پرو در سال 1994 چیست؟ |
8349 | من از نظر آماری کاملاً یک چیز مبهوت هستم، پس لطفاً فقدان اصطلاحات استاندارد من را ببخشید. فکر می کنم ممکن است سوال من مربوط به نرمال سازی باشد، اما اگر اشتباه می کنم، لطفا دوباره تگ کنید. من یک برنامه نویس هستم و وظیفه ایجاد نموداری را بر عهده دارم که نشان می دهد چگونه تعداد خطاها در یک مجموعه داده از ماه به ماه تغییر می کند. متأسفانه ما یک آمارگیر در داخل نداریم که به من کمک کند تا آن را بفهمم... داده ها به شرح زیر است: هر ماه تعدادی از آیتم ها در یک پایگاه داده وارد می شوند. این موارد از نظر خطا بررسی می شوند و خطاها نیز وارد پایگاه داده می شوند. هر مورد می تواند چندین خطا از انواع مختلف داشته باشد و تعداد موارد اضافه شده در هر ماه می تواند بسیار متفاوت باشد. چگونه می توانم نشان دهم که فرکانس خطا از ماه به ماه چگونه تغییر می کند؟ نشان دادن درصدی از خطاها/تعداد آیتم ها درست نیست زیرا ممکن است برای هر مورد چندین خطا وجود داشته باشد. نمودار همچنین باید حتی برای افرادی که هیچ پیشینه ای در آمار ندارند به راحتی قابل درک باشد، بنابراین چیزی تا حد امکان نزدیک به مقادیر یا درصدهای واقعی خوب است. نمونه ای از داده ها با تعداد کل خطاها در ماه: اقلام خطاهای ماه ===================== مارس 208 2027 آوریل 276 1304 مه 609 1721 ژوئن 167 1561 جولای 268 513 خطاهای مارس را میتوان به این صورت تقسیم کرد: خطاهای نوع ================== نوع 1 2 تیپ 2 43 نوع 3 93 تیپ 4 0 تیپ 5 1 تیپ 6 0 تیپ 7 4 نوع 8 0 تیپ 9 22 نوع 10 0 نوع 11 43 | نمودار خطاها بر اساس تعداد موارد در ماه |
3632 | فرض کنید باید در مورد جمعیتی با درآمد (x) بیش از 5000 دلار اقدامی انجام دهیم. درآمد مستقیم مشاهده نمی شود. آیا باید از رگرسیون لجستیک برای تخمین x استفاده کنیم یا باید از رگرسیون لجستیک برای تخمین مستقیم احتمال x>5000 استفاده کنیم؟ (اشکال / مزیت روش ها چیست؟) ویرایش: بله - منظور من از لجستیک رگرسیون لجستیک بود. متغیرهای دیگری که من دارم، متغیرهای تاریخ مالی، دموگرافیک و متغیرهای دفتر اعتبار هستند. به عنوان مثال، موجودی، استفاده، جنسیت، # خودرو، مالکیت یا عدم مالکیت خانه، موجودی کارت خارجی، # بدهی بد خارجی و غیره. | آیا باید x را رگرسیون کنیم یا از رگرسیون لجستیک روی x>5000 استفاده کنیم |
93263 | من یک سری داده از شمارش فوتون در مقابل زمان دارم. این دادهها دورهای هستند، سپس میتوانم آنها را تا بزنم و نمایه متوسطی از دادهها را بدست بیاورم. با این وجود، برخی از تغییرات گاهی در پروفایل های منفرد ظاهر می شوند. برای بررسی اینکه آیا میانگین پروفایل و تک از نظر آماری متفاوت است یا خیر، آنها به من پیشنهاد کردند که از آزمون کولموگروف-اسمیرنوف استفاده کنم. من تازه وارد این کار هستم، اما به نظر بسیار جذاب است! با این حال، روش پیشنهادی مستقیماً بر روی دو مجموعه داده (متوسط و تکها)، بلکه بر روی باقیماندهها استوار است. اساسا، من باید تک پروفایل ها را از میانگین کم کنم و بررسی کنم که آیا باقیمانده ها به طور معمول توزیع شده اند یا خیر. چیزی که من نمی فهمم این است: چگونه تست نرمال بودن روی باقیمانده ها می تواند معادل یا تفاوت دو مجموعه داده را ارزیابی کند؟ | چگونه نرمال بودن در آزمون ks را برای هم ارزی یا تفاوت در مجموعه داده ها ارزیابی می کند؟ |
22438 | با توجه به آزمایشی که در آن تعدادی از موجودیت ها با استفاده از دو روش مختلف در دو اجرای مختلف اندازه گیری/ارزیابی می شوند، چگونه می توان همبستگی بین اجراها را محاسبه کرد؟ به عبارت دیگر؛ من حدود هزار موجودیت $X_i$ دارم که هر کدام با دو امتیاز $S_{i,1}$ و $S_{i,2}$، و دو مجموعه داده از این قبیل از دو اجرا. من در موقعیتی نیستم که در مورد توزیع های واقعی $S_{i,j}$ که از آن می آیند چیزی را فرض کنم. همانطور که در بالا ذکر شد، هدف من این است که بفهمم این امتیازات تا چه حد بین اجراها همبستگی دارند. آمار مناسب من نیست، بنابراین من واقعاً مطمئن نیستم که چگونه ادامه دهم، اما اولین غریزه من این است: 1. نمرات را از یکدیگر جدا کرده و دو ضریب همبستگی را برای مدل های امتیازی $S_{i,1}$ و $ محاسبه کنید. S_{i,2}$. 2. برای هر موجودیت $X_i$ امتیاز اجرای اول را به عنوان مختصات x و امتیاز اجرای دوم را به عنوان مختصات y بگیرید و یک نمودار پراکندگی بدست آورید. سپس از نمودار به عنوان مبنایی برای محاسبه ضریب همبستگی پیرسون استفاده کنید. آیا این یک رویکرد مناسب/قابل قبول خواهد بود؟ من کمی در مورد همبستگی پیرسون در ویکیپدیا مطالعه کردهام و محاسبه مقادیر و واریانسهای مورد انتظار $S_{i,j}$ کمی مشکل به نظر میرسد، زیرا هیچ سرنخی در مورد توزیع زیربنایی ندارم، و به ویژه اینکه آیا میتوانم آن را فرض کنم یا نه. نمرات باید از همان توزیع حاصل شود. به طور خلاصه، من بسیار گیج هستم، و واقعاً از هر کمکی در این مورد سپاسگزارم. | در مورد محاسبه همبستگی برای یک تنظیم خاص مطمئن نیستید |
19526 | حداقل طول یک سری زمانی برای در نظر گرفتن نتایج آزمون روند من-کندال منسجم چقدر است؟ | آزمون روند Mann-Kendall حداقل طول سری زمانی |
37405 | آیا کسی می تواند توضیح دهد که تفسیر طبیعی هیپرپارامترهای LDA چیست؟ 'ALPHA' و 'BETA' پارامترهای توزیع دیریکله به ترتیب برای (در هر سند) موضوع و (در هر موضوع) توزیع کلمه هستند. اما آیا کسی می تواند توضیح دهد که انتخاب مقادیر بزرگتر از این ابرپارامترها در مقابل مقادیر کوچکتر به چه معناست؟ آیا این به معنای قرار دادن هر گونه باور قبلی از نظر پراکندگی موضوع در اسناد و انحصار متقابل موضوعات از نظر کلمات است؟ _این سوال در مورد تخصیص دیریکله نهفته است، اما نظر BGReene بلافاصله در زیر به تجزیه و تحلیل تشخیص خطی اشاره دارد که به طور گیج کننده ای نیز به اختصار LDA نامیده می شود. | تفسیر طبیعی برای فراپارامترهای LDA |
26329 | من در حال خواندن Wagenmakers (2007) بودم. یک راه حل عملی برای مشکل فراگیر مقادیر p. من شیفته تبدیل مقادیر BIC به عوامل و احتمالات بیز هستم. با این حال، تا کنون درک خوبی از اینکه **اطلاعات واحد قبلی** دقیقاً چیست، ندارم. اگر توضیحی با تصاویر یا کد R برای تولید تصاویر از این پیشین خاص ارائه دهم سپاسگزار خواهم بود. | Unit Information Prior چیست؟ |
57710 | من در یک محیط بسیار محدود حافظه کار می کنم، و تعداد بردارهای پشتیبانی که طراحی Matlab من ایجاد می کند چیزی نیست که مقیاس شود. این باعث شد که به دنبال یافتن راهی برای کاهش تعداد بردارهای حمایتی باشم. و من با این مقاله از MIT مواجه شدم: http://dspace.mit.edu/handle/1721.1/54725 مقاله برای دانلود رایگان در دسترس است. اکنون در صفحه 4203 (به پایین، صفحه نمایه سازی صفحه مجله نگاه کنید)، آخرین پاراگراف بیان می کند: _ بکارگیری روش های مجموعه کاهش یافته [8]، یک تکنیک کاهش سفارش مدل، اجازه می دهد تا تابع توصیف غیرخطی با استفاده از NM << بردارهای پشتیبانی بیان شود. ._ اکنون مرجع هشتم این مقاله فقط پیوندی به جعبه ابزار است، در اینجا: جعبه ابزار تشخیص الگوی آماری ForMatlab (STPRTool): http://cmp.felk.cvut.cz/cmp/software/stprtool/index.html سوال من این است: آیا کسی ایده ای برای کاهش بردارهای پشتیبانی دارد؟ چند الگوریتم ساده و پیاده سازی آن؟ برای پاسخ سپاسگزار خواهم بود. | ترتیب بردارهای پشتیبانی و نحوه کاهش آنها |
26328 | مجموعه داده ای شامل افراد و تعداد دندان هایی که آنها کشیده اند به من ارائه شده است. حداکثر 32 است و تقریباً نیمی از داده ها صفر هستند. از من خواسته شده است که یک مدل چند متغیره مناسب برای این داده ها پیشنهاد کنم. من در ابتدا فکر میکردم که این یک توزیع دوجملهای منفی است، اما به من اشاره شد که تعداد استخراجها میتواند مجموعهای از آزمایشهای برنولی را نشان دهد. من قبلاً دادههای رویدادها/آزمایشها را مدلسازی نکردهام و به نظر نمیرسد متنی پیدا کنم که این را توضیح دهد (ممکن است از کلمات کلیدی نادرستی استفاده کنم) و به من کمک کند تا نتایج را به درستی تفسیر کنم. آیا کسی می تواند به من چند متنی را نشان دهد که این را توضیح دهد؟ من خوشحال می شوم هر متنی را که مربوط به SAS، Stata، SPSS یا R باشد، بخوانم، اما ترجیح می دهم یک متن کاربردی و نه یک متن بیش از حد نظری باشد. متناوبا نظرات شما در مورد مدل خوش آمدید، با تشکر. | اطلاعات اولیه یا متون مورد نیاز در مورد مدلسازی آزمایشهای برنولی |
96161 | آیا اصطلاحنامه مرجعی برای اصطلاحات آمار و یادگیری ماشین وجود دارد؟ میدانم که مقالات ویکیپدیا اغلب دارای مترادفهایی هستند، اما میخواهم اصطلاحنامهای داشته باشم که بتوانم به راحتی از آن عبور کنم (در مقایسه با یک دایرهالمعارف کامل) تا مطمئن شوم که همه اصطلاحات را میدانم. | اصطلاحنامه برای اصطلاحات آمار و یادگیری ماشین |
104439 | من روی تولید یک مدل خطی وزنی در R با استفاده از تابع 'lm' کار می کنم. مجموعه داده من حدود 1200 مشاهده دارد. متغیرهای مستقل من مجموعه ای از 168 مؤلفه اصلی هستند، یعنی متغیرهای مستقل قبلاً نرمال شده اند و همبستگی ندارند. هیچ متغیر عاملی وجود ندارد. بردار وزن دارای مقادیری از حدود 0.05 تا 0.2 است. مشکل من این است که وقتی یک مدل با استفاده از تمام 168 متغیر مستقل ایجاد می کنم، پیامی دریافت می کنم که 22 مورد از آنها به دلیل تکینگی ها تعریف نشده اند. تعداد مشاهدات من بسیار بیشتر از تعداد متغیرها است، بنابراین در درک اینکه چرا این اتفاق می افتد مشکل دارم. دیگرانی که در مورد همین پیام اخطار پست کردند، راهحلهایی پیدا کردند که مربوط به چند خطی بودن یا متغیرهای عاملی بود، که واقعاً در مورد وضعیت من صدق نمیکند. برای هر ایده ای بسیار متشکرم! این خروجی است (ستون curweight وزن هایی است که در بالا مشخص کردم): pc_string <- log_hire_length ~ PC_1 + PC_2 + PC_3 + ... + PC_168 تماس: lm(فرمول = فرمول (pc_string)، داده = قطار، وزن = قطار[، وزن وزن]) باقیمانده های وزنی: حداقل 1Q میانه 3Q حداکثر -2.15762 -0.16307 0.03723 0.24849 1.16929 ضرایب: (22 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 6.214563 0.051896 119.750 <2e-16 *** PC_1 -0.031482 0.318851 -0.099 0.9214 PC_2 -0.28041 -0.28041 0.8677 PC_3 -0.315965 1.053582 -0.300 0.7643 ... PC_145 0.184415 2.946271 0.063 0.9501 PC_146 0.4688915 2.4688915 2.9501. PC_147 NA NA NA NA PC_148 NA NA NA NA PC_149 NA NA NA NA PC_150 NA NA NA NA NA PC_151 NA NA NA NA PC_152 NA NA NA NA PC_153 NA NA NA NA NA PC_154 NA NA NA NA PC_154 NA PC_156 NA NA NA NA PC_157 NA NA NA NA PC_158 NA NA NA NA PC_159 NA NA NA NA PC_160 NA NA NA NA PC_161 NA NA NA NA PC_162 NA NA NA NA NA PC_163 NA NA NA NA PC_163 NA PC_165 NA NA NA NA PC_166 NA NA NA NA PC_167 NA NA NA NA PC_168 NA NA NA NA خطای استاندارد باقیمانده: 0.4434 در 1123 درجه آزادی (8 مشاهده به دلیل فقدان حذف شد) | درک تابع R lm (وزن دار) - ضرایب به دلیل تکینگی ها تعریف نشده اند |
57711 | 1. مدل شرکت و سازمان مجری در بیش از یک حوزه با هم تعامل دارند. این ممکن است به این دلیل باشد که یک آژانس واحد مسئول اجرای بیش از یک مقررات است یا به این دلیل که مقررات یکسانی را در بیش از یک کارخانه سازنده یک شرکت چند کارخانه ای اجرا می کند. برای سادگی فرض می کنیم که تعداد دامنه ها دو است و از قبل یکسان هستند. در هر حوزه، شرکت ملزم به رعایت مقررات است. اگر مطابقت داشته باشد هیچ آسیبی به محیط زیست وارد نمی کند در غیر این صورت آسیب d را وارد می کند که معمولاً مشاهده می شود. هزینه انطباق شرکت پنجم در حوزه j [h1, 2j به cij نشان داده می شود که ci 1 و ci 2 مستقل هستند و به طور خصوصی از توزیع f(c) با F(c) تجمعی مرتبط هستند. F دانش عمومی است. اگر آژانس متوجه عدم انطباق توسط یک شرکت در هر یک از حوزه ها شود، می تواند آن شرکت را به دادگاه بکشاند («تعقیب» شرکت) که در این صورت شرکت مشمول جریمه L است که برون زا است. پنالتی ها به این معنا محدود می شوند که F(L) < 1\. این نشان میدهد که یک سیاست پیگیری کامل، که به موجب آن آژانس هر 3 تخلف را دنبال میکند، باعث انطباق کامل نخواهد شد. شرکت و سازمان مجری هر دو ریسک خنثی هستند و به ترتیب هدفشان به حداکثر رساندن سود مورد انتظار و به حداقل رساندن آسیب محیطی مورد انتظار است. آیا کسی می تواند به من توضیح دهد که F(L) < 1 به چه معناست؟ اگر به زمینه پشت این مدل نیاز دارید، لطفاً به من بگویید تا آن را نیز توضیح دهم | سوال در مورد پارادوکس هرینگتون |
48271 | از کتاب جانسون، می توانم مدل عامل متعامد را به صورت زیر ببینم: $X-\mu=LF+\epsilon$ بنابراین اگر از SPSS برای استخراج امتیازهای عاملی از تحلیل عاملی چندین متغیر استفاده کنم، آیا میخواهم عاملی را بدست بیاورم. امتیاز برای میانگین متغیرهای تفریق شده؟ در واقع قصد من این است که از نمرات عامل به عنوان IV به همراه برخی از IV هایی که در تحلیل عاملی استفاده نشده اند استفاده کنم، که تا آنجا که من می دانم یک روش معتبر است. اما اگر من مقادیر تخمینی $F$ (نمرات عاملی) را از $(X-\mu)$ دریافت کنم، پس با IVهایی که در تحلیل عاملی در طول رگرسیون لحاظ نشدهاند چه باید کرد؟ با DV چه کار کنم؟ آیا باید آنها را نیز کم کرد؟ | آیا SPSS برای میانگین متغیرهای تفریق شده امتیاز عاملی می دهد؟ |
22434 | من کتاب توکی تحلیل داده های اکتشافی را خوانده ام. این کتاب که در سال 1977 نوشته شده است، بر روش های کاغذی/مدادی تاکید دارد. آیا جانشین مدرن تری وجود دارد که به این نکته توجه داشته باشد که اکنون بتوانیم مجموعه داده های بزرگ را به صورت آنی ترسیم کنیم؟ | جانشین مدرن تجزیه و تحلیل داده های اکتشافی توسط توکی؟ |
96163 | آیا راهی برای تعیین کمیت \ تست \ توصیف میکند که چقدر احتمال دارد که دادههای ابعادی بالا از یک گاوسی منفرد یا مخلوطی از گاوسیها (با میانگینهای مختلف \ SD) به دست بیاید یا خیر؟ چیزی که من به آن فکر می کنم شبیه به ایده آزمون t است، اما زمانی که جداسازی به گروه ها ناشناخته است. | تست این است که داده ها از مخلوط یا فقط نرمال نویز گرفته شده است |
99924 | برای تجزیه و تحلیل رگرسیون، اغلب دانستن فرآیند تولید داده برای بررسی نحوه عملکرد روش استفاده شده مفید است. در حالی که انجام این کار برای یک رگرسیون خطی ساده نسبتاً ساده است، زمانی که متغیر وابسته باید از توزیع خاصی پیروی کند، این مورد صادق نیست. یک رگرسیون خطی ساده را در نظر بگیرید: N <- 100 x <- rnorm(N) بتا <- 3 + 0.4*rnorm(N) y <- 1 + x * بتا + 0.75*rnorm(N) آیا راهی برای استفاده وجود دارد همان رویکرد، اما برای اینکه «y» غیر از حالت عادی باشد، میگوییم چپ کج است؟ | شبیه سازی داده های رگرسیون با متغیر وابسته غیرعادی توزیع شده است |
81227 | من یک مجموعه داده با 3000 زیرمنطقه با دادههای مربوط به جمعیت آنها بر اساس محدوده درآمد و هزینههای ارزش آنها در یک کالا دارم. من یک مدل OLS با تبدیل log-log با استفاده از تابع «lm()» در R ساختم تا هزینههای 300 منطقه فرعی دیگر را پیشبینی کنم. $$ \ln(Y+1) = \beta_0 + \beta_1\ln(X_1+1) + \beta_2\ln(X_2+1) + ... + \epsilon $$ که در آن $Y$ هزینههای جمعآوری شده توسط منطقه فرعی، و $X$ جمعیت بر اساس محدوده درآمد هستند. در R: myModel = lm(log(spending + 1) ~ log(pop_income1 + 1) + log(pop_income2) + log(pop_income3 + 1) + log(pop_income4 + 1)، data=myOldData) سپس از «predict( myModel, myNewData, interval = پیشبینی)`. اما این منجر به مقدار مورد انتظار $\ln(Y_i+1)$ و فواصل پیشبینی آن برای هر $i$ شد و من به فاصله پیشبینی و میانگین $\sum\limits_{i=1}^n Y_i$ نیاز دارم، که در آن $n$ 300 است. چگونه می توانم این کار را با R انجام دهم؟ | مجموع متغیرهای پیش بینی شده را با یک مدل خطی در R تخمین بزنید |
102871 | عکس زیر نمونهای از نتیجهای است که میخواهم با استفاده از آزمون به دست بیاورم که در خود مقاله نمیتوانم آن را پیدا کنم، امیدوارم شاید هر یک از شما بداند. من سعی کردهام تست مجذور کای را برای تناسب اندام انجام دهم، اما آنچه واقعاً میخواهم این است که بتوانم BP را بین دو گروه (مردان در مقابل زنان) مقایسه کنم. آیا کسی می تواند نوری بتابد و به من بگوید که نام آزمایش چیست؟  | از کدام آزمون برای اندازه گیری در صورت رسیدن به هدف استفاده کنیم؟ |
52071 | من سعی می کنم مجموعه ای از پیش بینی کننده های $p$ را به 5 کلاس طبقه بندی کنم. اما اندازه نمونه من $n$ نسبتاً کوچک است، بنابراین می ترسم که تخمین خیلی محکمی نداشته باشم. اکنون یک ایده این است که داده های خود را برای هر یک از 5 کلاس پاسخ زیر مجموعه قرار دهم و داده های بیشتری را در هر کلاس شبیه سازی کنیم. من به عنوان مثال یک توزیع نرمال چند متغیره را برای پیشبینیکنندهها فرض کنید، و سپس (فکر میکنم برخی افراد آن را راهاندازی _parametric_ مینامند) $\mu$ و $\Sigma$ را از نرمال چند متغیره تخمین بزنند، و با آن پارامترها 10000 مشاهدات جدید را در این کلاس شبیهسازی کنند. من این کار را برای هر کلاس انجام می دهم و سپس 50000 مشاهده اضافی داشته باشم. با توجه به اینکه من داده ها را فقط از دانشی که از نمونه کوچک خود دارم شبیه سازی می کنم، آیا چیزی می توانم با این روش به دست بیاورم؟ استحکام بله، اما مطمئناً اطلاعات بیشتری دریافت نخواهم کرد، درست است؟ آیا این رویکرد اصلا منطقی است؟ آیا ممکن است در حال حاضر راه بهتری برای حل این مشکل وجود داشته باشد؟ | (چه زمانی) آیا شبیه سازی یک نمونه بزرگتر از یک نمونه کوچک نتایج بهتری به همراه دارد؟ |
57715 | من یک متغیر تصادفی $X(a) = \log(a)$ دارم که در آن a معمولی است $\mathcal N(\mu,\sigma^2)$ توزیع شده است. در مورد $E(X)$ و $Var(X)$ چه می توانم بگویم؟ یک تقریب نیز مفید خواهد بود. | مقدار مورد انتظار و واریانس log(a) |
32575 | با توجه به ضرایب از یک مدل آریما، چگونه مقدار برازش را برای اولین مشاهده سری محاسبه می کنید؟ به عنوان مثال، با توجه به داده ها (به نام xshort):  و یک تماس با R: mod<-Arima(xshort,order= c(1,0,0)) mod$coef تولید مقادیر برازش ساده است. به عنوان مثال ورودی دوم در این مجموعه این است: `mod$coef[1]*xshort[1]+((1-mod$coef[1])*mod$coef[2])` اما اولین مورد چگونه نصب میشود مقدار محاسبه شده، از Arima باید '1038.3884776139' باشد؟ | محاسبه مقدار برازش شده برای اولین مشاهده در یک سری زمانی |
52070 | کسی میتونه لطفا تفاوت آموزش و تست یک مدل رو به من بگه. من 5/6 الگوریتم یادگیری آنلاین تک پاسی مختلف را توسعه داده ام (ets، ets+، مدل سازی فازی در حال تکامل، SOFNN، گوستافسون-کسل، یادگیری مشارکتی). من 3000 امتیاز داده برای آموزش و 500 امتیاز داده برای آزمایش از سری زمانی MG در فایل *.mat در simulink جمع آوری کرده ام. روش های آموزش و آزمون چگونه متفاوت است؟ | تفاوت در آموزش و روش تست مدل |
96167 | من امروز نمودار زیر را در اقیانوس اطلس دیدم (لینک)، اما نمی توانم بفهمم که چگونه هزینه تلویزیون ها در ده سال گذشته بیش از 100 درصد کاهش می یابد. از نظر ریاضی چگونه ممکن است؟ یا نویسندگان اشتباه کرده اند؟  | چگونه می توان هزینه را بیش از 100 درصد کاهش داد؟ |
94584 | من دوست دارم در اوقات فراغت خود با الگوریتم های خوشه بندی سرهم بندی کنم. در چند روز گذشته سعی کردم با استفاده از فیلدهای چگالی داده ها، الگوریتم خوشه بندی را اصلاح کنم. من چندین تغییر را امتحان کردم و از اینکه الگوریتم های من به طور معقولی پایدار و قوی بودند شگفت زده شدم. من میخواهم به کاوش در این خیابان ادامه دهم، اما میخواهم بدانم چه گونههای محبوب دیگری در آنجا وجود دارد. من یک بررسی گذرا از ادبیات انجام ندادهام، اما متأسفانه نتوانستم نظرسنجی مناسبی پیدا کنم که با الگوریتمهای مبتنی بر چگالی سر و کار داشته باشد. اگر بتوانم اشارهای به چنین نظرسنجی یا فهرستی از الگوریتمهای ایجاد شده دریافت کنم، خوشحال میشوم. | خوشه بندی با استفاده از میدان های چگالی |
99925 | من میخواهم 2 متغیر تصادفی پیوسته Q1، Q2 (ویژگیهای کمی) و 2 متغیر تصادفی باینری Z1، Z2 (ویژگیهای دودویی) را با همبستگیهای زوجی داده شده بین همه جفتهای ممکن ایجاد کنم. بگویید (Q1,Q2):0.23, (Q1,Z1):0.55, (Q1,Z2):0.45, (Q2,Z1):0.4, (Q2,Z2):0.5, (Z1,Z2): 0.47 لطفا راهنمایی کنید من چنین داده هایی را در R ایجاد می کنم. | ایجاد متغیرهای تصادفی با همبستگی داده شده بین جفت آنها: |
104433 | من اخیراً کاوش R را شروع کردهام مجموعهای از دادهها را دانلود کردهام که شامل زمان پرواز برای زمانی که هواپیما در مبدا بلند میشود و در مقصد فرود میآید دادهها تا سه ماه اطلاعات دارند و چیزی شبیه به این Plan_ ID، Origin_Airport، Destin_Airport، Sched_Dep, Sched_Arriv, Act_Dep, Actual_Arriv دادهها را تغییر دادم تا حدودی شبیه شکل زیر باشد Dep_Day_Month: FRI-3 Movement: AAAAAAA (ORKORK - DUBDUB) Num_Flights 1 OT_Dep 1 OT_Arr 0 OT_Dep_Per 1.0000000 OT_Arr_Per 0.00000000 OT_Arr_Per 0.00000000 داده ها به مدت سه ماه می توان در هر ساعت شامل Mon-3 تا Sun-3 که از دوشنبه تا جمعه ماه مارس است. این تقسیم بندی دوشنبه تا جمعه به مدت 3 ماه وجود دارد. من همچنین یک دوشنبه تا جمعه اضافی را برای هفته قبل اضافه کردم. The Movement ترکیبی از شماره پرواز و مقصد مبدا است. تعداد پروازها تعداد پروازها در مسیر/ماه/روز است. OT Dep تعداد پروازهایی است که به موقع حرکت کرده اند (بنابراین هر زمان قبل یا برابر با زمان حرکت به موقع). OT_Arr شمارش تعداد پروازهای به موقع است. دو ستون آخر درصدی از این است. هدف نهایی آزمایش این است که همه دوشنبهها را در جدول قرار دهیم، همه سهشنبهها را در جدول، همه چهارشنبهها را...، سپس پیشبینی کنیم که آیا پرواز به موقع میرسد یا خیر. بر اساس عملکرد گذشته خود از خط شاید با استفاده از یک مدل بیزی. اساساً این یک شکل بسیار ساده از تحلیل مسیریابی است (در حال حاضر برای یک پا.. همیشه به جای دیگری ORKORK) من دو سؤال دارم که امیدوارم در مورد J کمک بگیرم. برای کار موثر (من مقالات تحقیقاتی را خوانده ام که نتایج خوبی در مورد متغیرهای غیر مستقل دارد، اما این برای زمان دیگری است). فکر میکنم اگر فقط OT_Dep_Per و OT_Arr_Per را در یک ستون ترکیب کنم، میتوان به این امر دست یافت. فکر می کنم با استفاده از Dependent probability می توان این کار را انجام داد. به عنوان مثال، با توجه به اینکه پرواز A به موقع حرکت کرده است، احتمال رسیدن پرواز A به موقع چقدر است. چیزی که مشخص نیست این است که چگونه می توان این را اجرا کرد اگر مثلاً اگر پرواز A دیر پرواز کند به موقع برسد زیرا خلبانان معمولاً اگر باد خوب باشد می توانند هوا را بگیرند و آن را کف کنند) 2) آیا فکر می کنید این راه خوبی است برای نزدیک شدن به مشکل؟ تقسیم عملکرد پرواز به صورت روز به ماه برای متغیرهایی که هفته قبل را اضافه کرده اند تا آخرین روندها را دریافت کنید از کمک شما بسیار سپاسگزاریم | احتمال شرطی با بیز ساده لوح |
99920 | فرض کنید من یک جدول احتمالی 18 2 3 40 دارم اگر دادههای بیشتری جمعآوری کنم، احتمالاً ماتریسی مانند این به دست میآورم. از روی شهود، فکر میکنم این به این دلیل است که هرچه دادههای بیشتری جمعآوری کنید، شانس کمتری برای مشاهده تفاوت در توزیع با نسبت شانس یکسان وجود دارد. | در تست دقیق فیشر، چرا هر چه داده های شما بیشتر باشد، مقدار pvalue بیشتر به مقادیر کوچکتر کاهش می یابد؟ |
3634 | من باید یک طرح فاکتوریل را با پنج عامل (یکی از آنها در یکی دیگر تودرتو) و پاسخ های عددی تجزیه و تحلیل کنم. من می خواهم یک ANOVA ناپارامتری انجام دهم، اما البته نمی توانم از آزمون Kruskall Wallis و Friedman استفاده کنم (من اندازه گیری های تکراری دارم). آیا دستور یا کدی در R وجود دارد که بتواند به من کمک کند؟ متشکرم استفانیا | آنوا ناپارامتریک چند طرفه |
3636 | من یک مجموعه نمونه از مقادیر دارم که در یک دوره زمانی گرفته شده است. با این حال، زمان دلتا بین هر نمونه متفاوت است. آیا باید دلتاهای زمانی مختلف را در std-dev در نظر بگیرم؟ آیا std-dev برای این نوع داده ها مناسب است؟ * * * اطلاعات بیشتر... داده ها نمونه های دما هستند. محدوده زمانی از 1 ساعت تا چند روز است. | نحوه محاسبه انحراف معیار روی یک مجموعه نمونه با دوره های زمانی نامنظم |
60166 | من یک شبکه عصبی ساده دارم و با تابع لجستیک به عنوان تابع فعال سازی کار می کند. اکنون میخواهم با جایگزین کردن تابع لجستیک با مماس هذلولی از مشکل اشباع اجتناب کنم: #define SIGMOID(x) (1.7159*tanh(0.66666667*x)) #define DSIGMOID(S) (0.666666667/1.7159*(1.7159-(S))*(1.7159+(S))) اما شبکه هرگز همگرا نمی شود، MSE در طول آموزش یکسان می ماند. نمونههای آموزشی من این است: double training_data[][4]={0, 0, 0, -1}, {0, 0, 1, 1}, {0, 1, 0, 1}, {0, 1, 1، -1}، {1، 0، 0، 1}، {1، 0، 1، -1}، {1، 1، 0، -1}، {1، 1، 1، 1}}; اگر از تابع مماس هیپربولیک اصلی (غیر مقیاسشده) استفاده کنم، شبکه همگرا میشود، یعنی: #define SIGMOID(x) (tanh(x)) #define DSIGMOID(S) (1-((S)*(S) )) آیا چیزی را از دست داده ام؟ به عنوان مثال مقیاس کردن خروجی برای مطابقت با محدوده (-1.7159، 1.7159) یا هر چیزی؟ | چگونه از 1.7159 * tanh(2/3 * x) به عنوان تابع فعال سازی استفاده کنیم؟ |
48274 | فرض کنید من یک قاب داده مانند این دارم (چهار گروه، برای هر n = 12): > head(my_data,n=8) Subject Group Condition Value 1 1 A Cond_1 12.40407 2 1 A Cond_2 14.89856 3 2 B Cond_1 13.828 B Cond_2 14.31305 5 3 C Cond_1 13.40773 6 3 C Cond_2 13.48016 7 4 D Cond_1 13.76183 8 4 D Cond_2 12.60769 ... ... می خواهم بررسی کنم که آیا تفاوت هایی در `Value` بین چهار گروه C, D, B, C وجود دارد یا خیر. با در نظر گرفتن تأثیر شرط نیز. بنابراین باید یک مدل ترکیبی انجام دهم. قبل از این، تضادهای خاصی را تنظیم کردم: > AvsB <- c(1,-1,0,0) > AvsC <- c(1,0,-1,0) > A vsD <- c(1,0,0, -1) > AvsAvg <- c(1,0,0,0) > تضادها(my_data$Group) <- cbind(AvsB,AvsC,AvsC,AvsAvg) و مدل کامل را برازش کنید (فرض کنید قبلاً مدلهای مختلف را با مدل رهگیری مقایسه کردهام): > مدل <- lme(Value~Group+Condition+Group:Condition, random=~1 |Subject/Condition, data=my_data, method=ML) اما گاهی اوقات خطای زیر ظاهر می شود: خطا در MEEM(object, conLin, control$niterEM): تکینگی در backsolve در سطح 0، بلوک 1 در موارد دیگر، خطا ظاهر نمی شود اما خروجی همه تضادها را نشان نمی دهد. به عنوان مثال، در اینجا «AvsAvg» ناپدید میشود: جلوههای ثابت: مقدار ~ گروه + شرایط + گروه: مقدار شرط Std. خطا DF t-value p-value (Intercept) 21.793124 1.2435711 44 17.524631 0.524631 0.000B5630 GroupA 2.1539283 44 -0.118650 0.9061 GroupAvsC 0.176721 2.1539283 44 0.082046 0.9350 GroupAvsD 0.492208 2.1539283 2.1539283 ConditionCond_2 -0.016164 0.2029039 44 -0.079661 0.9369 GroupAvsB:ConditionCond_2 -0.270565 0.3514399 44 -0.769874 0.4496661 0.3514399 44 0.617754 0.5399 GroupAvsD:ConditionCond_2 -0.277043 0.3514399 44 -0.788309 0.4347 به طور کلی، به نظر می رسد که حداکثر سه تضاد نشان داده شده است. **من با تضادها اشتباه می کنم یا با مدل؟** پیشاپیش ممنون. | کنتراست ها در مدل ترکیبی |
110746 | من برخی داده ها را دارم و می خواهم این فرضیه را آزمایش کنم که آنها از یک فرآیند پواسون همگن می آیند. البته میتوانم به زمانهای بین رویدادی نگاه کنم و آزمایش کنم که آیا این زمانها به صورت نمایی توزیع شدهاند یا خیر. با این حال، به نظر می رسد که دلایل زیادی وجود ندارد که چرا ممکن است پواسون نباشد. آیا فهرستی از تستها، یا آزمون خوب خاصی وجود دارد که بتوانم از آن استفاده کنم که بیشتر از بررسی مجموعه زمانهای بین رویدادی بین رویدادهای متوالی باشد؟ اگر تمام تفاوتهای بین زمانهای ورود را در نظر بگیرید، این فقط زمانهای ورود متوالی نیست، آیا میتوان از آن برای ایجاد یک آزمایش قدرتمندتر برای مثال استفاده کرد؟ | فرآیند نقطه فرضیه آزمون پواسون است |
60169 | من در مفاهیم پارامترها، تخمین ها و لحظه (ریاضی و آمار) دانش کافی ندارم. من نمی توانم یک منبع آنلاین آسان برای درک اطلاعات در مورد این مفاهیم پیدا کنم. آیا با یک لینک یا حتی بهتر از یک سخنرانی به من کمک می کنید؟ در اینجا یک چیز وجود دارد که من قصد درک آن را داشتم: منبع: کتابی به نام _اصول در ژنتیک جمعیت_ > $\sigma_x^2 = \text{E}[x-\text{E}(x)^2]$ > > $\text{Var}(x) = \text{mean}(x^2) - \text{mean}(x)^2$ > > اما یک تخمینگر مغرضانه است زیرا... > > $\text{E}[\text{Var}(x)] = (n-1)\sigma^2/n$ > > یک تخمینگر غیر مغرضانه برای $\sigma^2$ است > > $ [n/(n-1)]\text{Var}(x)$ **معنای همه اینها چیست؟** | پارامترها، برآوردها |
45604 | توزیع نرمال یک پیش نیاز برای ANOVA است. مشخص نیست که ما از «توزیع نرمال استاندارد» چه چیزی را باید بفهمیم. آیا ANOVA به توزیع نرمال _استاندارد_ نیاز دارد؟ پاسخ را می توان در چارچوب فراتحلیل همبستگی نمونه داد. | بر چه اساسی توزیع نرمال استاندارد را از توزیع نرمال متمایز می کنیم؟ |
60162 | من روی یک مسئله طبقهبندی دودویی کار میکنم که مجموعه دادهها عمدتاً از ویژگیهای طبقهبندی، اما همچنین چند ویژگی واژگانی (یعنی عناوین مقاله و چکیدهها) تشکیل شده است. من با جنگلهای تصادفی آزمایش میکنم و استراتژی فعلی من این است که مجموعه آموزشی را با افزودن بهترین ویژگیهای واژگانی $k$ (انتخاب شده با انتخاب ویژگی تک متغیره و وزندهی شده با $tf-idf$) به مجموعه کامل ویژگیهای طبقهبندی بسازم. . این به خوبی کار می کند، اما از آنجایی که نمی توانم ارجاعات صریحی به چنین استراتژی استفاده از ویژگی های هیبریدی برای RF پیدا کنم، در مورد رویکرد خود تردید دارم: آیا منطقی است؟ آیا من با انجام این کار قدرت RF را رقیق می کنم، و آیا بهتر است سعی کنم دو طبقه بندی کننده متخصص در هر دو نوع ویژگی را ترکیب کنم؟ | جنگل تصادفی با ترکیبی از ویژگی های طبقه بندی و واژگانی |
86955 | کتاب درسی من در مورد اعتبارسنجی متقاطع عنصر یادگیری آماری است (هستی و همکاران، ویرایش دوم) در بخش های 7.10.1 و 7.12، آنها در مورد تفاوت بین خطای آزمون شرطی $E_{(X^*,Y^* صحبت می کنند. )}[L(Y, \hat{f}(X))|\tau]$ و خطای تست مورد انتظار $E_\tau [E_{(X^*,Y^*)}[L(Y, \hat{f}(X))|\tau]]$. در اینجا $\tau$ مجموعه داده های آموزشی است، $L$ تابع ضرر، $\hat{f}$ مدل است. $E$ انتظار است. آنها توضیح دادند که CV فقط خطای مورد انتظار آزمون را به خوبی برآورد می کند. سوال من این است که آیا دلیلی وجود دارد که به خطای تست شرطی اهمیت دهیم؟ تنها دلیلی که میتوانم به آن فکر کنم این است که میخواهیم به این سؤال پاسخ دهیم اگر خدا n مجموعه داده را روی میز بگذارد، اما فقط اجازه دهد 1 عدد را به خانه ببریم تا با مدل خود مطابقت داشته باشد، کدام یک را باید انتخاب کنیم؟ | اعتبارسنجی متقابل: خطای تست شرطی در مقابل خطای تست مورد انتظار |
60167 | من یک مجموعه داده با ورودی $\approx2000$ دارم (به عنوان مثال، مدل ماشین). برای هر مدل ماشین وزن ماشین و توان خروجی را می دانم. قیمت و سن را نمی دانم که احتمالاً بر نسبت قدرت به وزن خودرو تأثیر می گذارد. من تا حد معقولی به داده ها ایمان دارم، اما برخی از تولیدکنندگان ممکن است کمی اشتباه کنند (شاید 5٪ از داده ها غیرقابل اعتماد باشد). **چگونه می توانم بهترین توان خروجی را برای وزن معین خودرو به روشی قابل دفاع تعیین کنم؟** من سواد ریاضی تا مقطع کارشناسی مهندسی دارم، اما هیچ تجربه آماری فراتر از دبیرستان ندارم. من به موارد زیر فکر کرده ام: * ماشین ها را بر اساس نسبت قدرت/وزن مرتب کنید و سپس $n\%$ برتر را بگیرید. مشکل در تعیین $n$ است. * داده ها را نمودار کنید و یک خط روند را از طریق آن رسم کنید. این بهترین توان خروجی را تا حد زیادی دست کم می گیرد. * از بهترین نسبت توان به وزن استفاده کنید و فقط از آن استفاده کنید. مشکل این است که نسبت قدرت به وزن لزوماً به صورت خطی با وزن خودرو مقیاس نمی شود (مثلاً ممکن است تولید یک ماشین کوچک با نسبت قدرت به وزن بالا آسان تر باشد). * داده ها را در دسته های وزنی قرار دهید، سپس مانند بالا عمل کنید. مشکل این است که گرفتن یک نقطه داده از یک مجموعه داده غیرقابل اعتماد درست به نظر نمی رسد. * همانطور که در بالا ذکر شد، اما تلاش برای بررسی متقاطع داده ها در برابر اطلاعات خارجی (به عنوان مثال، تست های عملکرد مجله). این اطلاعات برای همه خودروها در دسترس نیست، بنابراین احتمالا امکان پذیر نیست. برای کنجکاوی من، نام این دسته از مشکلات چیست؟ به نظر می رسد چیزی است که معمولا رخ می دهد، اما من نمی دانم چگونه آن را جستجو کنم. آیا ابزار ترجمه انگلیسی به آمار در جایی وجود دارد؟ | انتخاب بخش مناسب از یک مجموعه داده غیرقابل اعتماد |
106363 | آیا یک کتاب یا مقاله مروری وجود دارد که به عنوان یک مرجع کلی خوب به آنتروپی Rényi، کاربردهای آن و مفاهیم مرتبط با آن عمل کند؟ | ارجاع کلی به آنتروپی Rényi |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.