_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
32901 | هنگام خواندن کتاب یادگیری ماشینی اوریلی برای هکرها، میگوید هر جزء درصدی از واریانس را نشان میدهد. من بخش مربوطه از صفحه را در زیر نقل کرده ام. در صحبت با کارشناس دیگری، آنها موافقت کردند که این درصد است. اما مجموع 24 مؤلفه به 133.2095 درصد می رسد. چطور ممکن است؟ * * * (گزیده ای از فصل 8، ص 207) پس از اینکه خودمان را متقاعد کردیم که می توانیم از PCA استفاده کنیم، چگونه این کار را در R انجام دهیم؟ باز هم، اینجا جایی است که R می درخشد: کل PCA را می توان در یک خط کد انجام داد. ما از تابع princomp برای اجرای PCA استفاده می کنیم: pca <- princomp(date.stock.matrix[,2:ncol(date.stock.matrix)]) اگر فقط pca را در R تایپ کنیم، خلاصه سریعی از اجزای اصلی: فراخوانی: princomp(x = date.stock.matrix[, 2:ncol(date.stock.matrix)]) انحرافات استاندارد: Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 Comp.7 29.1001249 20.4403404 12.6726924 11.4636450 8.4963820 8.1969345 5.543838308 Comp. Comp.14 5.1300931 4.7786752 4.2575099 3.3050931 2.6197715 2.4986181 2.1746125 Comp.15 Comp.16 Comp.17 Comp.18 Comp.19 Comp.19 Comp. 1.8706240 1.6984043 1.6344116 1.2327471 1.1280913 0.9877634 Comp.22 Comp.23 Comp.24 0.8583681 0.7390626 0.73906426 0.43 متغیر مشاهده در این خلاصه، انحرافات استاندارد به ما می گوید که چه مقدار از واریانس در مجموعه داده ها توسط اجزای اصلی مختلف محاسبه می شود. مؤلفه اول که Comp.1 نام دارد 29 درصد واریانس را به خود اختصاص می دهد در حالی که مؤلفه بعدی 20 درصد واریانس را به خود اختصاص می دهد. در پایان، آخرین مؤلفه، Comp.24، کمتر از 1 درصد از واریانس را به خود اختصاص می دهد. این نشان می دهد که ما می توانیم با نگاه کردن به اولین مؤلفه اصلی، چیزهای زیادی در مورد داده های خود بیاموزیم. * * * کد و داده ها را می توانید در اینجا پیدا کنید: https://github.com/johnmyleswhite/ML_for_Hackers/tree/master/08-PCA | آیا اجزای PCA واقعاً درصد واریانس را نشان می دهند؟ آیا می توان آنها را بیش از 100٪ جمع کرد؟ |
23931 | من باید یک رگرسیون لجستیک باینری انجام دهم. من مجموعه ای از 7 متغیر مستقل دارم. 4 تای آن ها متغیر باینری و 3 تای دیگر متغیرهای طبقه ای هستند. متغیرهای طبقه بندی شده به 4 سطح تقسیم می شوند. به عنوان مثال، نحوه پرداخت: نقدی، بانکداری اینترنتی، کارت نقدی، کارت اعتباری. من گیج هستم که آیا باید 4 ستون با 0-1 ساختگی بسازم یا فقط آنها را 1، 2، 3، 4 کدنویسی کنم. روش مناسب برای این متغیرها چیست؟ | کدگذاری متغیرهای طبقه بندی شده در رگرسیون لجستیک |
9131 | بیایید مثال زیر را در نظر بگیریم: set.seed(342) x1 <- runif(100) x2 <- runif(100) y <- x1+x2 + 2*x1*x2 + rnorm(100) fit <- lm(y~ x1*x2) با استفاده از رگرسیون OLS، یک مدل از y بر اساس x1 و x2 ایجاد میکند. اگر بخواهیم y را برای x_vec معین پیشبینی کنیم، میتوانیم به سادگی از فرمولی که از «خلاصه(مطابق») میگیریم استفاده کنیم. با این حال، اگر بخواهیم پیش بینی های پایین و بالایی y را پیش بینی کنیم، چه؟ (برای یک سطح اطمینان معین). پس چگونه فرمول را بسازیم؟ با تشکر | به دست آوردن فرمول محدودیت های پیش بینی در مدل خطی |
101050 | من به صورت روزانه، مدلهای پیشبینیکننده (یعنی مدلهای رگرسیون لجستیک و کارت امتیازی اعتباری) را با استفاده از مجموعه دادههای نسبتاً بزرگ (معمولاً 500 هزار رکورد و حدود 1 هزار متغیر کاندید) برای پیشبینی نتایجی مانند پرداخت در مقابل عدم پرداخت، عدم پرداخت وام در مقابل پرداخت میسازم. عدم پرداخت وام، تقلب در مقابل عدم تقلب، و غیره. در حال حاضر، من از SAS و R برای اجرای ویژگی استفاده می کنم. انتخاب با استفاده از روشهایی مانند رگرسیون حداقل انقباض مطلق و الگوریتم انتخابگر (LASSO)، جنگل تصادفی، و تقویت گرادیان و همچنین تعدادی از الگوریتمهای خوشهبندی و تحلیل مؤلفههای اصلی. به این ترتیب، من دائماً به دنبال راههای کارآمدتر و مؤثرتر برای ساخت مدلهای بهتر هستم، که من را به این پست رسانده است. من بسیار علاقه مند به یادگیری در مورد اینکه چگونه پایتون و/یا جاوا می توانند زندگی من را در قلمرو مدل سازی پیشگویانه آسان تر/جذاب تر کنند، هستم و امیدوارم کسی بتواند موارد زیر را در اختیار من قرار دهد: 1) چند دلیل برای یادگیری پایتون چیست؟ و/یا جاوا برای تبدیل شدن به یک مدل ساز پیشگوی بهتر؟ 2) آیا منابعی وجود دارد که برای کسب اطلاعات بیشتر در مورد این موضوع به من توصیه کنید؟ 3) کدام برنامه برای یادگیری من مفیدتر است، پایتون یا جاوا (یا زبان برنامه نویسی دیگر)؟ من واقعا از هر کمک و/یا بینشی که می توانید ارائه دهید قدردانی می کنم! با تشکر | Predictive Modeler: یادگیری پایتون و/یا جاوا چگونه می تواند برای من مفید باشد؟ |
65943 | من به نمونه اسباب بازی زیر برخوردم و فاقد پاسخ / مرحله نهایی برای تکمیل تجزیه و تحلیل هستم. یک جراحی یا روش پزشکی را تصور کنید که در آن ما از احتمال موفقیت آن اطلاعی نداریم. می توان آن را به عنوان یک فرآیند برنولی (ضربه یا از دست دادن) با تتا ناشناخته در نظر گرفت. اکنون برای اولین بیمار اولین تلاش جراحی موفقیت آمیز است. من می دانم چگونه می توانم پسین را محاسبه کنم وقتی با یک پیشین یکنواخت شروع می کنم. اما بدانید که من میخواهم بیمار دومی را نیز در نظر بگیرم. برای او این جراحی فقط در آزمایش دهم جواب می دهد. بنابراین او قبل از اولین ضربه 9-مسئله دارد. من همچنین میدانم که چگونه میتوانم تابع احتمال را از آن و با یک پیشین یکنواخت دریافت کنم که پسین من است. اما اگر قبلی من یکنواخت نباشد، چه میشود، اما من اعتقاد قوی دارم که برای بخشهایی از جمعیت این عملیات احتمال موفقیت بالایی دارد، اما برای بخشی دیگر از جمعیت فقط در یک مورد از ده یا حتی بیست تلاش عمل میکند. من می دانم چگونه یک توزیع (یا شبکه) قبلی تولید کنم که نشان دهنده آن باور احتمال موفقیت (و توزیع دووجهی، به عنوان ترکیبی از جمعیت بیماران آسان و سخت) باشد. چیزی که من نمی دانم این است که چگونه تابع احتمال را محاسبه کنم که آن قبلی را تقویت می کند. من دو مشاهده مستقل در اینجا دارم (1،1) برای ضربه فوری و (9،1). وزن هر دو برابر است. اگر من با اولین بیمار دو حالته خود را به روز کنم، برآمدگی pdf به سمت چپ (تتا با موفقیت کم) کاهش می یابد و قسمت خلفی در وسط و به راست افزایش می یابد. اگر بعد از آن قسمت خلفی را به عنوان پایه ای برای بیمار دوم استفاده کنم، سمت راست توزیع (موفقیت بالا) کاهش می یابد و وسط دوباره رشد می کند. بنابراین میخواستم بدانم که آیا واقعاً برای بهروزرسانی باورم به یک تابع درستنمایی دووجهی نیاز دارم؟ آیا من در اینجا در تفکر خود اشتباه می کنم یا برخی از اصول بیزی را از دست می دهم؟ | آیا می توانم یک تابع درستنمایی دووجهی برای نشان دادن ترکیبی از دو جمعیت داشته باشم؟ |
99392 | من از روش جنگل تصادفی (رگرسیون) برای ایجاد یک پیش بینی استفاده می کنم. به طور معمول، وقتی جنگل خود را آموزش میدهم، یک پاسخ/پاسخ به همراه هر بردار ویژگی ارائه میدهم. با این حال، برای برخی از پاسخ های من، فقط یک محدوده مشخص است و نه مقدار دقیق. به عنوان مثال (به صورت فرضی)، مثلاً، پاسخ قیمت فروش یک خانه است و بردار ویژگی برای هر خانه مواردی مانند اندازه، شکل، مکان و غیره است. چه اتفاقی میافتد اگر برای برخی از خانهها فقط محدوده قیمتی باشد. شناخته شده (یعنی کمتر از 10000 دلار) و نه ارزش واقعی (به قیمت 20000 دلار فروخته می شود). چگونه می توانم/باید این اطلاعات را در پاسخ رمزگذاری کنم؟ شاید این خانه ها باید از آموزش حذف شوند. اما چه میشود اگر همه خانههایی که کمتر از 10000 دلار به فروش میرسند فقط به عنوان محدوده ارائه شوند (یعنی «کمتر از 10000 دلار»، «کمتر از 4500 دلار» یا «کمتر از 90 دلار»). اگر آنها را حذف کنم، پیش بینی کننده من در ارزیابی خانه هایی که کمتر از 10000 دلار به فروش می رسند ضعیف خواهد بود. | محدوده پاسخ در جنگل تصادفی |
93368 | من سناریوی زیر را دارم: * کارآزماییهایی انجام شد که در آن شرکتکنندگان در طول دوره کارآزمایی در معرض محرکهای متعدد قرار گرفتند * یک پاسخ فیزیولوژیکی خاص به طور مداوم در طول هر کارآزمایی ثبت شد برای هر مجموعه از دادههای پاسخ فاز تحریک، من میخواهم حذف پایه را اعمال کنم. بر اساس داده های پیش از محرک، یعنی داده هایی که حدود 500 میلی ثانیه قبل از معرفی محرک جمع آوری شده اند. سوال من این است: چگونه می توانم این کار را در R انجام دهم؟ حتی یک توصیف صرفا نظری نیز بسیار مفید خواهد بود. | حذف پایه پیش محرک در R |
65942 | من دو سوال در مورد زمان استفاده از تنظیم Bonferroni دارم: * آیا استفاده از تنظیم Bonferroni در همه موارد آزمایش چندگانه مناسب است؟ * اگر کسی آزمایشی را روی یک مجموعه داده انجام دهد، سپس آن مجموعه داده را به سطوح دقیقتری تقسیم کند (مثلاً دادهها را بر اساس جنسیت تقسیم کند) و همان آزمایشها را انجام دهد، این چگونه ممکن است بر تعداد آزمایشهای فردی که درک میشوند تأثیر بگذارد؟ یعنی اگر فرضیه های X بر روی یک مجموعه داده شامل داده های زن و مرد آزمایش شوند و سپس مجموعه داده ها برای ارائه داده های زن و مرد به طور جداگانه تقسیم شود و فرضیه های یکسان مورد آزمایش قرار گیرد، آیا تعداد فرضیه های فردی به عنوان X باقی می ماند یا به دلیل افزایش می یابد. تست اضافی؟ از نظرات شما متشکرم. | نحوه و زمان استفاده از تنظیم Bonferroni |
64590 | به نظر شما کدام کتاب اقتصاد سنجی یا هر مرجع دیگری دقیق ترین دیدگاه را در مورد موضوع ارائه می دهد، ترجیحاً با اثبات و بحث کامل در مورد موضوعات ریاضی؟ منظورم کتابی است که مثلاً شواهد فریش واو، گاوس مارکو، کرامر و امثال آن را دارد. مسئله این است که کتابهای اقتصاد سنجی، از جمله کتابهای راهنما، صرفاً بیانیهای از نتایج هستند که هیچ گونه اثباتی ندارند. برای اثبات باید به مقالات اصلی نگاه کرد. این برای تحولات اخیر (LATE، MTE و غیره) یا برای نتایج بسیار ثابت مانند بی طرفی برآوردگر واریانس خطا صادق است. | اقتصاد سنجی با اثبات |
23932 | اگر من دو متغیر تصادفی معمولی توزیع شده X و Y داشته باشم و بخواهم میانگین توزیع حاصل از ضرب آنها را در یکدیگر پیدا کنم، از کدام یک از دو فرمول زیر استفاده کنم و چرا؟ (و چه زمانی از دیگری استفاده کنم؟): 1. E[XY] = (فرمول محاسباتی برای واریانس) = Cov(X,Y) + E[X]E[Y] 2. E[XY] = (محصول از دو فایل PDF گاوسی) = (E[X]Var[Y] + E[Y]Var[X]) / (Var[Y] + Var[X]) اگر مثال X = Y را در نظر بگیرم، هر دو گاوسی با میانگین=5 و واریانس=2، سپس دو فرمول بالا به پاسخ های متفاوتی منجر می شوند: 1. E[XY] = 2 + 5*5 = 27 2. E[XY] = (5*2+5*2) / ( 2+2) = 5 می دانم که چیزی را گم کرده ام - آیا حاصل ضرب دو فایل پی دی اف گاوسی توزیع حاصلضرب متغیرهای مربوطه را توصیف نمی کند؟ اگر اینطور نیست، پس چه چیزی (فرمول دوم) را توصیف می کند و چگونه باید از آن استفاده کرد؟ آیا می توان تفاوت معنایی این دو فرمول را به زبان انگلیسی ساده توضیح داد؟ :P پیشاپیش متشکرم! | میانگین یک محصول از گاوسیان |
70938 | هنگام برازش مدلهای سری زمانی (ایستا)، مانند مدلهای ARIMA، رویکرد استاندارد به حداقل رساندن خطای پیشبینی یک مرحلهای است که معادل انجام تخمین حداکثر درستنمایی احتمال گاوسی است. با این حال، گاهی اوقات، هدف اصلی یک مدل این است که پیشبینیهای خوبی در مقیاس زمانی قابلتوجهی انجام دهد (بزرگتر از یک مرحله، مثلاً 4 یا 12 مرحله). **بنابراین من متعجبم که آیا رویکردهایی وجود دارند که با به حداقل رساندن مجموع پیشبینیهای یک، دو، ... و h پیشبینی یک مدل را تخمین بزنند. به گونه ای که می توان به خطاهای اوایل اهمیت بیشتری داد. من مدت زیادی است که جستجو کرده ام، اما فقط می توانم مقالاتی در مورد روش های تخمین چند مرحله ای پیش رو پیدا کنم که (فقط) خطای پیش بینی h-step ahead را به حداقل می رساند. شاید از کلمات کلیدی جستجوی اشتباهی استفاده می کنم؟ علاوه بر این واقعیت که رویکردی که در اینجا توضیح میدهم برای من شهودی به نظر میرسد، همچنین احساس میکنم میتوان از آن برای تأکید بیشتر بر روند دادهها (و کمتر بر نویز) هنگام تخمین استفاده کرد، و به طور بالقوه جایگزینی برای اولیه (و گاهی اوقات نامطلوب) ارائه کرد. ) حذف نویز/صاف کردن داده ها. | یک مدل را با به حداقل رساندن مجموع پیش بینی های یک، دو، ... و h پیش بینی کنید؟ |
25574 | در یک مدل پیکربندی که در آن هر گره دارای درجه 2 است. احتمال اینکه یک گره به جزء با اندازه n تعلق داشته باشد چقدر است. | احتمال تعلق یک جزء به یک جزء غول پیکر |
25575 | من میخواهم بدانم آیا آزمون آماری وجود دارد که بتوانم از آن برای تعیین اینکه آیا تفاوت میانگین به طور قابلتوجهی بیشتر از تفاوت میانگین دیگر است استفاده کنم. برای تعیین اینکه آیا یک میانگین با میانگین دیگر متفاوت است، از آزمون t استفاده می کنم، اما این در اینجا اعمال نمی شود زیرا توزیع های واقعی وجود ندارد. در عوض، تفاوت هایی وجود دارد. در زیر یک مثال قابل تکرار در R برای کمک به توضیح وجود دارد. x1 <- c(1,1,1,1,0,0,0,0,1,1,1,1,1) x2 <- c(1,1,1,1,0,0,0, 0,0,0,0,0,0) x1_mean_diff <- mean(x1) - mean(x2) x1_mean_diff #sig متفاوت با آزمون t y1 <- c(1,1,1,1,0,0,0,0,1,1,1,1,1) y2 <- c(1,1,1,1,0,0,0,0,0 ,1,1,0,0) y1_mean_diff <- mean(y1) - mean(y2) y1_mean_diff #با آزمون t تفاوتی نداشته باشید اساساً، من می خواهم ببینم آیا x1_mean_diff به طور قابل توجهی بیشتر از y1_mean_diff است. آیا راهی برای این کار وجود دارد؟ لطفا اگر نامشخص هستم به من اطلاع دهید. با تشکر | آزمون معناداری برای دو تفاوت میانگین؟ مانند آزمون t اما برای مقایسه تفاوت ها |
51155 | جان @John اخیراً به من اشاره کرد که تابع 'poly' R مقادیر همبستگی کمتری (متعامدتر) را برای برازش پیشبینیکنندههای چند جملهای تولید میکند، یعنی پیشبینیکنندههای تبدیلشده همبستگی کمتری با یکدیگر دارند تا اینکه منظور من فقط مرکز پیشبینیکننده مرتبه 1 قبل از تولید باشد. پیش بینی کننده (های) مرتبه n R's poly این کار را با استفاده از الگوریتم کندی، W. J. Jr و Gentle، J. E. (1980) Statistical Computing Marcel Dekker، صفحات 343-344 انجام می دهد. من کتاب را از کتابخانه چک کردم، اما باید بگویم که من کاملاً آنچه را که می گذرد دنبال نمی کنم. من همچنین نمودارهایی را برای مقایسه این مقادیر با مقادیر خام تهیه کرده ام و به نوعی می توانم ببینم چه اتفاقی می افتد، اما هنوز کاملاً آن را درک نمی کنم. به نظر می رسد که داده ها در حال پردازش هستند و تحت تغییراتی قرار می گیرند که شامل میانگین مقادیر و برخی ضرایب پیش بینی می شود. من همیشه میتوانم از «predict.poly» برای تبدیل مقادیر از مقادیر واقعی به مقادیر «poly» استفاده کنم. سوال من این است که چگونه باید نتایج یک مدل متناسب با 'poly' را گزارش کنم؟ ضرایب شیب خام به یک مقدار تبدیل شده اشاره دارد، اگر آنها را گزارش کنم، فرض می کنم باید برخی از ضرایب را نیز از خود «poly» گزارش کنم. کدومشون؟ در هر قالب خاصی؟ آیا کسی واقعاً آنها را درک می کند؟ آیا این دلیل قانعکنندهای برای پایبندی به ضرایب خام متوسط است؟ | چگونه نتایج یک برازش مدل خطی را با استفاده از تابع poly در R گزارش می دهید (در انتشار)؟ |
56875 | من پیش بینی فروش را از یک مشاور ارسال کرده ام. از تابع LINEST اکسل استفاده میکند و 4 عامل را که به نظر میرسد در گذشته بر فروش تأثیر گذاشتهاند، میگیرد و از آنها برای پیشبینی استفاده میکند. چگونه می توانم نوارهای خطا را به این پیش بینی اضافه کنم؟ من معتقدم LINEST یک خطای استاندارد ارائه میکند، اما استفاده از آن میلههای خطای ثابتی را برای من به ارمغان میآورد، و مطمئناً این خطا در آیندهای که میرویم بیشتر میشود؟ (لطفا توجه داشته باشید، من یک آمارگیر نیستم، پس ملایم باشید!) با تشکر! | محاسبه نوارهای خطا برای رگرسیون خطی اکسل |
85477 | داشتم مقاله ای می خواندم و به شکل درختی برخوردم که نمایش های سری زمانی را به نمایش های «داده تطبیقی» و «غیر داده تطبیقی» تقسیم می کرد. در شاخه Data Adaptive نمایش هایی مانند SVD، ضرایب مرتب شده، چند جمله ای تکه ای و غیره وجود داشت. در حالی که در شاخه Non Data Adaptive نمایش هایی مانند موجک ها، تبدیل های فوریه/کسینوسی، نگاشت تصادفی و غیره وجود داشت. بنابراین من متعجب بودم که منظور از چیست؟ «داده تطبیقی» و «غیر سازگار با داده»؟ | معنی نمایش های سری زمانی «داده تطبیقی» و «غیر تطبیقی داده». |
146 | چندی پیش کاربری در لیست پستی R-help در مورد صحت استفاده از امتیازات PCA در رگرسیون پرسید. کاربر سعی می کند از برخی امتیازات رایانه شخصی برای توضیح تنوع در رایانه دیگری استفاده کند (بحث کامل را اینجا ببینید). پاسخ این بود که نه، این صدا نیست زیرا رایانه های شخصی متعامد با یکدیگر هستند. کسی میتونه با جزئیات بیشتر توضیح بده که چرا اینطوریه؟ | امتیازات PCA در رگرسیون چندگانه |
27229 | به طور گسترده ای شناخته شده است که نمی توان یک فرضیه را با استفاده از داده هایی که ویژگی فرضیه آفرینی در آن مشاهده شد، به طور معتبر آزمایش کرد. بنابراین حداقل به دو نمونه نیاز دارد، یکی برای ایجاد فرضیه و دیگری برای آزمایش آنها. اما این دو نمونه باید به نوعی شبیه به هم باشند، به عنوان مثال. این یافته که اندازه کفش با هوش در پایگاه داده افراد 5-15 ساله مرتبط است، احتمالاً در نمونه های این گروه سنی از کشورها و زمان های دیگر بازتولید می شود، اما نه نمونه های 45-55 ساله. تعجب می کنم: این دو مجموعه داده چقدر باید متفاوت باشند؟ چقدر شبیه؟ آیا معیارهای رسمی کلی برای تفاوت/شباهت آنها وجود دارد؟ آیا بررسی یک جمعیت در زمان های مختلف معتبر است؟ آیا تقسیم یک مجموعه داده به یکی برای تولید فرضیه و دیگری برای آزمایش فرضیه معتبر است؟ | آزمون فرضیه های ارائه شده توسط داده ها |
70590 | با توجه به اینکه $\mathbf{x}\in\mathbb{C}^{N\times 1}$، جایی که $\mathbf{x}\sim\mathcal{CN}(0,\mathbf{R})$ سپس $ \mathbf{x}\mathbf{x}^\mathrm{H}$ Wishart پیچیده است، یعنی $\mathbf{x}\mathbf{x}^\mathrm{H}\sim\mathcal{CW}(1,\mathbf{R})$. * اگر PDF $\mathbf{x}\mathbf{x}^\mathrm{H}$ مشخص باشد، پس توزیع $\mathbf{x}\mathbf{x}^\mathrm{H}\ چقدر است mathbf{A}$، با توجه به اینکه $\mathbf{A}$ از ثابت ها، هرمیتین، مفرد و رتبه-1 تشکیل شده است؟ * اگر $\mathbf{x}\in\mathbb{C}^{N\times m}$، یعنی $\mathbf{x}\mathbf{x}^\mathrm{H}\sim\mathcal{ چه اتفاقی میافتد CW}(m,\mathbf{A})$؟ | توزیع آماری یک ماتریس پیچیده مقیاس شده Wishart |
55309 | من در حال انجام یک کار طبقه بندی چند کلاسه هستم و نمی دانم که آیا تست دوجمله ای را به درستی انجام می دهم زیرا به تعداد آزمایش های طبقه بندی شده درست (تعداد بازدیدها) بسیار حساس است. مثلاً 20 هزار آزمایش و 3 کلاس وجود دارد. من مقدار p را به صورت «p(#hits) = 1-binocdf(#hits,20k,3) محاسبه میکنم، سپس به نظرم میرسد که مقدار p نسبت به تغییرات نسبتاً کوچک در #Hits در مقایسه با کل آزمایشهای آزمایشی بسیار حساس است. 20 هزار `p(6700) = 0.31` در حالی که `6700/20k = 33.50%` `p(6750) = 0.10` در حالی که `6750/20k = 33.75%` `p(6800) = 0.02` در حالی که `6800/20k% = 34. آیا این روش درست است و من نباید گیج شوم که این به نحوی بر خلاف شهود من است یا من کار اشتباهی انجام می دهم؟ بنابراین اگر سطح معنی داری 5 درصد را فرض کنم، 6750 بازدید معنی دار نیستند، اما 6800 هستند؟ من حدس میزنم این رفتار زمانی که کلاسهای بیشتری وجود دارد، برجستهتر میشود. | آزمون دو جمله ای برای آزمایش اهمیت طبقه بندی بسیار حساس به تعداد بازدید |
85479 | من باید داده های پانل نامتعادل را تجزیه و تحلیل کنم که در آن متغیر مورد علاقه یک ساختگی با دو حالت غیرجذب است (یعنی تغییر از 0 به 1 و 1 به 0 در هر دوره زمانی امکان پذیر است). هدف پیش بینی احتمال قرار گرفتن در حالت 1 برای داده های خارج از زمان و خارج از نمونه و مقایسه نتایج با نتیجه واقعی در این داده ها است. با استفاده از این مقایسه، میخواهم مواردی را شناسایی کنم که نتیجه واقعی از پیشبینی انحراف دارد (یعنی نتیجه 1 با احتمال بسیار بالا پیشبینی میشود، اما نتیجه 0 است؛ یا نتیجه 1 با احتمال بسیار کم پیشبینی میشود، اما نتیجه 1 است). رویکرد من استفاده از تجزیه و تحلیل بقا (مثلاً خطرات متناسب کاکس یا جنگلهای بقای تصادفی) است، اما مطمئن نیستم که این راه درستی باشد، زیرا در تجزیه و تحلیل بقا یک حالت معمولاً یک حالت جذبکننده است که احتمالاً نیاز به یک حالت متفاوت را القا میکند. رویکرد آماری سؤالات: 1) کدام رویکرد برای رسیدن به هدف من (بقا، یک مورد خاص از بقا یا چیز دیگری) صحیح است؟ 2) آیا می توانید چند مطالعه پیشینه نظری در مورد این موضوع را توصیه کنید؟ 3) آیا می توانید چند مثال/راهنمای عملی در مورد استفاده از R برای دستیابی به این هدف توصیه کنید؟ | مدل دو حالته با حالت های گذرا برای داده های تابلویی |
74276 | من در حال اجرای تجزیه و تحلیل دادههای دانشآموز هستم و سؤالاتی در رابطه با فرض نرمال بودن چند متغیره MANOVA دارم. **_آیا باید با استفاده از مقادیر متغیرهای وابسته یا باقیمانده آنها_** انجام شود؟ اکثر کتابهای درسی در این مورد به اندازه کافی روشن نیستند، فقط از اصطلاح «طبیعی بودن چند متغیره DVs» استفاده میکنند. من در حال خواندن _کشف آمار با استفاده از R_ توسط A. Field و همکاران هستم. و از نمرات خام DV استفاده کردند. با این حال، در StackExchange و اینترنت نظرات متفاوتی در این مورد پیدا کردم و مطمئن نیستم که چه کار کنم. من نرمال بودن چند متغیره را برای 6 سطح متغیر مستقل خود با استفاده از نمرات معیارهای وابسته محاسبه کردم و همه آنها بسیار معنی دار بودند. سپس، با توجه به اینکه تمام DV های من تعداد هستند، از تبدیل log2(n+1) برای عادی سازی داده ها استفاده کردم و سپس دوباره همان آنالیز را اجرا کردم (به هر شمارش 1 اضافه کردم تا بتوانم لاگ شمارش صفر را محاسبه کنم). در نهایت، من مقادیر p را برای هر یک از گروه های متغیر مستقل دارم: 1) 0.0911 (n=22)، 2) 0.0236 (n=15)، 3) 0.00033 (n=6)، 4) 0.556 (n= 21) و 5) 0.0376 (n=14)، تعداد شرکت کنندگان در هر گروه در پرانتز است. مسئله این است که من مطمئن نیستم که آیا این برای تجزیه و تحلیل MANOVA من کافی است یا خیر. M Box (آزمون همگنی کوواریانس) معنی دار نبود، چند خطی وجود ندارد (همه DV های من همبستگی متوسطی دارند)، فقط این نرمال بودن چند متغیره به من مشکل می دهد. همچنین خواندهام که MANOVA با استفاده از آماره ردیابی Pillai برای مجموعههای دادههای کوچک، زمانی که نقض همگنی واریانس وجود ندارد و زمانی که مشکلی با نقض سایر مفروضات وجود دارد، قوی است، اما در این مورد مطمئن نیستم. علاوه بر آن گروه کوچک 3 که مقدار p به وضوح قابل توجهی دارد، دو مقدار P معنیدار دیگر با توجه به اندازه دادهها حاشیهای به نظر میرسند (037/0=p و 0236/0=p). آیا این به اندازه کافی خوب است یا کار دیگری وجود دارد که می توانم برای رفع این مشکلات عادی انجام دهم؟ من همچنین از فاصله Mahalanobis برای بررسی نقاط پرت چند متغیره استفاده کرده ام. وقتی آن را روی تمام دادهها اجرا میکنم، هیچ نقطه پرت دریافت نمیکنم، و وقتی آن را برای هر گروه از متغیرهای مستقل اجرا میکنم، تعداد زیادی از آنها وجود دارد، اما نه یک روی در آن گروه با مقدار p پایین. همچنین، وقتی یکی از آن موارد پرت پیدا شده را حذف می کنم، مقادیر p در واقع بسیار بدتر می شوند. آیا باید تست پرت های تک متغیره را روی همه داده ها اجرا کنم و سپس سعی کنم آن ها یا شاید حتی در هر گروه از متغیرهای مستقل را حذف کنم؟ من در مورد حذف موارد پرت مطمئن نیستم، به خصوص که گروه ها در حال حاضر کوچک هستند و چگونه باید این تصمیم را توجیه کنم. | نرمال بودن چند متغیره MANOVA |
105370 | برای مدت زیادی معتقد بودم که تفسیر مناسب توزیع بتا با $\alpha$ و $\beta$ این است: _احتمال $P$ برای $\alpha -1 $ موفقیت (سرها) چیست، و $\ beta -1 $ از شکست (دم)_ ، که همچنین زمانی که $\alpha -1 $ و $\beta$ برابر با 1 هستند، منطقی است، به این معنی که شما هیچ سر / دم، یعنی یک لباس، ندارید. توزیع دیروز، پس از پرسیدن یک سوال متفاوت، آیا واقعاً توزیع بتا بهتر از توزیع عادی برای آزمایش تفاوت دو نسبت است؟ ، این درک تضعیف شد. آیا کسی می تواند به من کمک کند تا تفسیر پارامترهای $\alpha$ و $\beta$ را بهتر درک کنم؟ من سعی کردم از این پست کمک بگیرم: اینجا اما این هم فایده ای نداشت. | پارامترهای آلفا/بتا را در توزیع بتا به درستی تفسیر کنید |
93366 | فرض کنید من یک ماتریس باینری بسیار بزرگ دارم که نمایانگر $n$ مشتریان و $m$ محصولاتی است که آنها خریداری کردهاند، با $n$ و $m$ هر دو نسبتاً بزرگ (به ترتیب میلیونها). ماتریس نیز بسیار پراکنده است. از آنجایی که محاسبه همه (یا حتی فقط $k$) نزدیکترین همسایگان برای هر مشتری به وضوح یک مشکل حل نشدنی است، من به دنبال راهی برای تقریب آن هستم. یکی از ایدههای من این است که از minhashing/LSH استفاده کنم تا ابتدا مشتریان را به سطلهای تقریباً $\frac{n}{k}$ تقسیم کنم (این را میتوان با تغییر آستانه شباهت که من فرض میکنم انجام داد) و سپس به سادگی در نظر بگیرید که $k$ همسایگان هر نقطه، اعضای دیگر سطل مربوطه آن هستند. یکی دیگر از انواع کمی کارآمدتر که ممکن است نتایج بهتری ایجاد کند، تقسیم کردن به سطلهای $\frac{n}{2k}$ (یعنی بزرگتر) و سپس جستجوی نزدیکترین همسایههای $k$ با نیروی بیرحمانه، در داخل یک سطل است. . بدیهی است که این طرحها نتایج دقیقی به همراه نخواهد داشت، اما نمیدانم که آیا ممکن است با این وجود قابل قبول باشند. من همچنین علاقه مند به هر روش یا ایده دیگری برای مقابله با این مشکل هستم. | همه نزدیکترین همسایگان در فضای با ابعاد بالا |
25577 | من 500 سطر و سه ستون دارم. دو تا از متغیرها (که می خواهم تحلیل کنم) به صورت ترتیبی و دیگری در مقیاس هستند. با این حال، وقتی جادوگر تحلیل مکاتبات را در SPSS اجرا میکنم، فقط میتوانم متغیر مقیاس را انتخاب کنم و نه ترتیبی. چگونه می توان بر روی متغیرهای ترتیبی تحلیل مطابقت انجام داد؟ من چیزی شبیه به این دارم: Variable1 | Variable2 ..Home . .| قوی .. کار . . | قوی | چگونه می توان تجزیه و تحلیل مکاتبات را روی داده های ترتیبی در SPSS انجام داد؟ |
65941 | از نظر تخمین مولفه های واریانس: اثر تصادفی و واریانس باقیمانده، هم تخمین های Anova و هم برآوردگرهای احتمال محدود می توانند منفی باشند و برای تخمین اثر تصادفی به صفر منجر شوند. من نمی دانم که آیا یک رویکرد تخمینی وجود دارد که بتواند برآوردگرهای مثبت را تضمین کند و آیا برآوردگرهای مربوطه را می توان با استفاده از برخی از توابع R موجود محاسبه کرد. | برآورد اجزای واریانس |
70591 | یک کارآزمایی بالینی اثر دو درمان را بر عملکرد ریه بررسی می کند. بیماران در هر گروه داده ها را در ابتدا و در پایان کارآزمایی ارائه می دهند. داده های پایه برای هر گروه و سپس داده های پایان درمان ارائه می شود.  من باید میانگین تغییر (SD) را در طول زمان آزمایش برای هر دارو محاسبه کنم تا بتوانم از داده ها در یک متا استفاده کنم. -تحلیل - چگونه باید به این موضوع نزدیک شوم؟ | تخمین تفاوت مطلق بین دو شرط |
109669 | من در حال ساخت یک مدل رگرسیون لجستیک هستم و یکی از متغیرهای مستقل من به شدت منحرف شده است. استفاده از ln بهتر است یا log10؟ چرا؟ و چگونه می توان چولگی متغیری که حاوی مقادیر زیادی صفر است را اصلاح کرد؟ | متغیر Skewed - log10 بهتر است یا ln؟ |
27228 | من روی پیش بینی سری های زمانی کار می کنم. من دو مجموعه داده $D1=\\{x_1، x_2،....x_n\\}$ و $D2=\\{x_n+1، x_n+2، x_n+3،....، x_n+ دارم. k\\}$. من سه مدل پیشبینی دارم: M1، M2، M3$. همه این مدل ها با استفاده از نمونه ها در مجموعه داده $D1$ آموزش داده شده اند و عملکرد آنها با استفاده از نمونه های مجموعه داده $D2$ اندازه گیری می شود. فرض کنید معیارهای عملکرد MSE (یا هر چیز دیگری) است. MSE این مدلها وقتی برای مجموعه دادههای $D2$ اندازهگیری میشوند، $MSE_1، MSE_2، $ و $MSE_3$ هستند. چگونه می توانم آزمایش کنم که بهبود یک مدل نسبت به مدل دیگر از نظر آماری معنادار است. به عنوان مثال، فرض کنید $MSE_1=200$، $MSE_2=205$، $MSE_3=210$، و تعداد کل نمونه در مجموعه داده $D2$ که بر اساس آن MSE محاسبه شده است 2000 است. چگونه می توانم آن $ را آزمایش کنم. MSE_1$، $MSE_2$، و $MSE_3$ تفاوت قابل توجهی دارند. اگر کسی بتواند در این مشکل به من کمک کند بسیار سپاسگزار خواهم بود. پیشاپیش ممنون | نحوه مقایسه دقت دو مدل مختلف با استفاده از معناداری آماری |
74278 | فرض کنید 8 متغیر در یک مدل رگرسیونی دارید. اگر برخی از آنها همبستگی دارند، چه درجه یا درصدی از همبستگی را باید در نظر بگیرید که برخی از متغیرها را از معادله حذف کنید؟ در مورد کوواریانس چطور - چه تأثیری دارد؟ در نهایت، چند متغیر برای اطلاع رسانی به مدل بسیار زیاد است؟ 5، 15، 50، 500؟ مدلی که من دارم یک مدل سود/مالی است و نسبتاً ساده است - سود خروجی است. | متغیرهای همبسته در یک مدل ریاضی |
51153 | من سعی می کنم آزمایش هایی انجام دهم تا ببینم آیا دو عدد از توزیع های مشابه مشتق شده اند یا خیر. من یک آمارگیر نیستم، پس لطفاً استفاده از کلمات را عذرخواهی کنید. سعی می کنم تا حد امکان دقیق باشم. من دو سری اعداد دارم. اگر من یک Student's T-Test (جفت نشده، دو طرفه) انجام دهم، مقدار p دریافت می کنم که بسیار بیشتر از 0.05 است. با این حال، برای مجموعههای مشابهی از اعداد، اگر آزمایش U Mann-Whitney یا آزمون Kolmogorov-Smirnoff را انجام دهم، مقدار p بسیار کوچکتر از 0.05 است. آیا چنین رفتاری قابل انتظار است. و آیا تفاوت ها را قابل توجه بدانم یا خیر؟ ویرایش: پس از خواندن پاسخ ارسال شده، حدس میزنم باید یک سوال فرعی دیگر اضافه کنم، این تستها چه چیزی را تست میکنند؟ | آزمون های پارامتریک و ناپارامتریک؟ |
97631 | من سعی می کنم تصمیم بگیرم که آیا هنگام تخمین ضرایب رگرسیون باید از رگرسیون وزنی استفاده کنم یا خیر. مطمئناً اگر سن، جنسیت، منطقه، و غیره را به عنوان متغیرهای پیشبینیکننده در مدل لحاظ کنم، این موضوع کمتر اهمیت دارد، اما من چیزهای متناقضی را در ادبیات مطالعه میکنم. دلیلی که می پرسم این است که برخی از مدل هایی که به آنها علاقه مندم، برآوردگر وزنی در دسترس ندارند. به عنوان مثال، اگر من به تأثیر تحصیلات بر درآمد علاقه مند هستم، با دانستن اینکه زنان بیش از حد نمونه گیری می شوند، آیا می توانم فقط جنسیت را به عنوان یک پیش بینی اضافی در نظر بگیرم یا واقعاً نیاز به استفاده از رگرسیون وزنی دارم؟ | وزن های پس از طبقه بندی چقدر در تحلیل رگرسیون مهم هستند؟ |
85474 | سه فروشنده a، b، c فروش خانه به خانه انجام می دهند. اگر همه آنها برای یک تماس فروش شرکت کنند، احتمال فروش آنها $\frac{5}{8}$، $\frac{3}{8}$، و $\frac{1}{3}$ است. احتمال اینکه: 1) فروش انجام شود 2) فقط یکی از فروشندگان اقدام به فروش کند چقدر است. | 3 احتمال فروشنده |
70593 | من یک سوال در مورد تفسیر فراخوانی tsboot در R دارم. من اسناد و مدارک بسته کندال و بوت را بررسی کردم، اما از قبل هوشمندتر نیستم. وقتی یک بوت استرپ را با استفاده از مثال اجرا می کنم. مثال در بسته کندال، که در آن آمار آزمون تاو کندال است: کتابخانه(کندال) # بارش سالانه در کل دریاچه های بزرگ # آزمون روند من-کندال روند صعودی را تایید می کند. data(PrecipGL) MannKendall(PrecipGL) که روند صعودی را تأیید می کند: tau = 0.265، pvalue دو طرفه = 0.00029206 مثال سپس به استفاده از یک بلوک بوت استرپ ادامه می دهد: # #Use block bootstrap library(boot) data(PrecipGL<-) MKta تابع(z) MannKendall(z)$tau tsboot (PrecipGL، MKtau، R=500، l=5، sim=fixed) من نتیجه زیر را دریافت می کنم: BLOCK BOOTSTRAP FOR TIME SERIES طول بلوک ثابت 5 تماس: tsboot(tseries = PrecipGL، statistic = MKtau، R = 500، l = 5، سیم = ثابت) آمار بوت استرپ : original bias std. خطای t1* 0.2645801 -0.2670514 0.09270585 اگر درست متوجه شده باشم، t1* original MKtau اصلی است، bias میانگین MKtau از سری زمانی R=500 بوت استرپ است، و خطای std. است. انحراف استاندارد MKtaus از 500 نمونه. من در درک معنای این مشکل دارم - این اساساً به من می گوید که همه 500 MKTaus از نسخه اصلی پایین تر هستند و t1* اصلی در محدوده 3 sd از MKtaus بوت استرپ قرار دارد. بنابراین آن را به طور قابل توجهی متفاوت است؟ یا می توانم بگویم MKtau برای مجموعه داده 0.26 به علاوه/منهای خطای استاندارد است؟ برای طولانی شدن سوال متاسفم، اما من یک تازه کار آمار هستم و از طریق خودآموزی یاد می گیرم و کسی را ندارم که این مشکل واقعاً ساده را به عقب و جلو برگرداند. | درک خروجی یک بوت استرپ اجرا شده در R (tsboot، MannKendall) |
4610 | آمار هرگز نقطه قوت من نبود و این اولین سوال من است، پس لطفاً ملایم باشید :) من در حال انجام تحقیقاتی با استفاده از Computational Fluid Dynamics، CFD، برای مدلسازی جریان آئروسل روغن از طریق یک فیلتر فیبری هستم. آئروسل دارای توزیع اندازه قطرات است که log-normal است. کد موجود فقط اجازه می دهد تا مشخصات یک اندازه را مشخص کند، من باید پشتیبانی log-normal را اضافه کنم. کاری که من باید انجام دهم این است که اگر کسی یک جریان آئروسل را بهعنوان مثال دارای 10000 قطره، اندازه قطرات متوسط 425 نانومتر و توسعهدهنده استاندارد 15 توصیف کند، بتواند در کد من محاسبه کند که وجود دارد: aaa ذرات با اندازه 100 نانومتر bbb ذرات با اندازه 200 نانومتر ذرات سی سی سی با اندازه 300 نانومتر ذرات ddd با اندازه 400 نانومتر ... ... ... iii ذرات با اندازه 900 نانومتر ذرات jjj با اندازه 1000 نانومتر وقتی به ذرات در محدوده 100 نانومتر - 1000 نانومتر با اندازه گام های 100 نانومتری نگاه می کنیم. به نوبه خود من باید این اطلاعات را، شمارش ذرات، همراه با بسیاری چیزهای دیگر را به حل کننده CFD فشار دهم و ببینم چه اتفاقی برای قطرات می افتد. سوال بزرگ این است که چگونه می توانم تعداد ذرات را برای اندازه هر مرحله محاسبه کنم. همانطور که گفتم، آمار من کاملاً محدود است، بنابراین من حتی نمی دانم که آیا گفتن _ میانگین 425 نانومتر است..._ راه درستی برای قاب بندی داده های ورودی است یا خیر. سرپرست ارشد من با استفاده از pdf یک چیز را به من گفته است، اما خواندن من از تعریف log-normal، بله در ویکی پدیا، باعث می شود فکر کنم او اشتباه می کند. هر گونه فکری در مورد اینکه چگونه می توانم این کار را انجام دهم بسیار قدردانی می شود. اندرو بهروزرسانی شد: از پاسخهای شما متشکرم، اما این جایی است که حداقل آمار من به خوبی میدرخشد. بسیار خوب، بنابراین میگوییم که GM مثلاً 328 نانومتری و GSD 14.8 نانومتری داریم. سپس به تعریف تابع dist تجمعی نگاه می کنم. و ببینید: cdf = 1/2 + 1/2 * erf[(ln(x) - mu) / sqrt(2 * sigma^2)] - از ویکی پدیا آیا در آن mu = GM = 328nm و sigma = GSD درست هستم = 14.8 نانومتر؟ سپس به نوبه خود، از چه چیزی برای مقدار x خود استفاده کنم؟ اگر من نیاز به دریافت مقادیر در 100 نانومتر، 200 نانومتر، 300 نانومتر، .....، 900 نانومتر، 1000 نانومتر داشته باشم، آیا از این مقادیر استفاده میکنم، اجازه میدهم فعلاً بخش nm را به عنوان X یکی یکی رها کنیم یا انجام دهیم. من از یک ln/log از آنها یا شماره جادویی دیگر بر اساس مقدار مورد نظر استفاده می کنم؟ من واقعاً نیازی به کدنویسی erf() ندارم زیرا c++ یک تابع برای آن فراخوانی دارد، فقط نحوه محاسبه مقدار واقعی است که به تابع c++ میدهم که باعث ناراحتی من میشود. آیا درست است که وقتی می توانم ورودی تابع erf را محاسبه کنم، مقادیر cfd را محاسبه کنم که در محدوده 0 -> 1 خواهد بود و سپس در اندازه نمونه خود ضرب می کنم تا تعداد ذرات زیر نقطه مورد نظر را بدست بیاورم. . سپس فقط مقادیر متوالی را کم می کنم تا ذرات در یک محدوده به دست بیایند - درست/مرتب سازی صحیح/اشتباه؟؟؟ یک بار دیگر، اندرو برای کمک متشکرم | ثبت توزیع های نرمال - اندازه ذرات در یک آئروسل |
102746 | 1. هنگام اجرای آزمون همجمعی یوهانسن از کدام متغیرها استفاده کنیم؟ سطوح یا تفاوت؟ 2. چگونه می توانم قبل از اجرای آزمون هم انباشتگی جوهانسن، چند خطی بودن را بهتر تشخیص دهم و از آن جلوگیری کنم؟ | آزمون هم انباشتگی و چند خطی بودن یوهانسن |
37424 | فرض کنید من دو توزیع حاشیه ای تک متغیره دارم، مثلاً $F$ و $G$، که می توانم از آنها شبیه سازی کنم. اکنون، توزیع مشترک آنها را با استفاده از یک کوپول گاوسی، که $C(F,G;\Sigma)$ نشان می دهد، بسازید. تمام پارامترها مشخص است. آیا روش غیر MCMC برای شبیه سازی از این کوپولا وجود دارد؟ | چگونه از یک کوپول گاوسی شبیه سازی کنیم؟ |
74275 | من قصد دارم بهینه سازی پاسخ یک پاسخ، $y$، با داشتن سه متغیر پیش بینی، $x_1$، $x_2$، و $x_3$ را انجام دهم. این متغیرها به روش زیر کدگذاری می شوند: A B C y -1.00000 -1.00000 -1.00000 66 1.00000 -1.00000 -1.00000 80 -1.00000 1.00000 -1.000000 -1.000000. -1.00000 100 -1.00000 -1.00000 1.00000 70 1.00000 -1.00000 1.00000 100 -1.00000 1.00000 1.00000 1.00000 1.00000 0001.0001.000. 75 -1.68179 0.00000 0.00000 100 1.68179 0.00000 0.00000 80 0.00000 -1.68179 0.00000 0.00000 68 0.000000 0.000000 0.00000 0.00000 0.00000 1.68179 1. 0.00000 0.00000 -1.68179 65 0.00000 0.00000 1.68179 82 0.00000 0.00000 0.00000 113 0.00000 0.0000 0.000 0.0000 0.00000 0.00000 118 0.00000 0.00000 0.00000 88 0.00000 0.00000 0.00000 100 0.00000 0.00000 - 0.00000 0.00000 من امتحان کرده ام DOE -> Define Custom Response Surface و انتخاب 3 پاسخ، 6 نقطه مرکزی، 1 تکرار و آلفا 1682 و متعاقباً انتخاب Stat -> DOE -> Optimize Response و انتخاب Maximize و کمترین 100 و هدف 118 که حداکثر را برای $y دریافت کردم. $ 101.711 و D=0.41 است اما A=0.6، B = -0.11 و C=0.15 که اگر درست متوجه شده باشم برای این طرح نامعتبر است. وقتی در گوگل سرچ کردم تنها چیزی که میبینم افرادی هستند که صرفاً نمودارهای سطحی میسازند و نتیجه میگیرند که در چه مسیری پاسخ بهینه شده است - اما با استفاده از سه متغیر نمیدانم چگونه این کار را انجام دهم. | مشکل بهینه سازی پاسخ با سه متغیر با استفاده از Response Surface در Minitab |
97634 | من در حال تجزیه و تحلیل در مورد یافتن دنبالههای مکرر در مجموعه دادههای حالت رویداد با استفاده از بسته R «TraMineR» (و همچنین «arulesSequences») هستم. در arulesSequences الگوریتم مورد استفاده برای یافتن توالی های مکرر، الگوریتم cSPADE است. اما الگوریتم «TraMineR» برای تابع «seqefsub» چیست؟ آیا از الگوریتم GSP یا الگوریتم cSPADE نیز استفاده می کند؟ من نتوانستم هیچ اطلاعاتی در مورد آن در راهنمای کاربر و سایر مطالب اطلاعاتی پیدا کنم. | الگوریتم برای یافتن توالی های مورد استفاده TraMineR چیست؟ |
18633 | پس از سوال من در اینجا، برای کمک بیشتر برای رفع سردرگمی خود بسیار سپاسگزار خواهم بود. سردرگمی به این دلیل است که من در بسیاری از جاها خوانده ام که وقتی از ANCOVA در GLM (در SPSS) استفاده می کنید، تأثیر متغیر کمکی کنترل می شود. من مطمئن نیستم که چرا باید در مورد من در زیر کنترل شود (مگر اینکه به اشتباه معنی متغیر را تفسیر کنم). یا استفاده از تست اشتباه! **سوال 1** **بهترین روش برای تجزیه و تحلیل مسئله زیر در SPSS چیست؟** من به دنبال این هستم که چگونه رابطه بین A و B بر اساس جنسیت رفتار یا متفاوت است. به عبارت دیگر، جنسیت چگونه بر رابطه بین A و B تأثیر می گذارد. A و B متغیرهای فاصله ای هستند. A مستقل و B متغیر وابسته است. البته جنسیت یک متغیر مقوله ای است. (طبیعت متغیرها، همانطور که من می فهمم، ANOVA فاکتوریل را نامناسب می کند، که منجر به انتخاب ANCOVA برای این مثال می شود.) درک من این است که B در کادر متغیر وابسته، جنسیت در کادر عامل و A وارد کادر می شود. جعبه متغیر در SPSS GLM (تک متغیره). **سؤال 2** _**_*تعامل به چه معناست؟**** من می دانم که می توانم یک تعامل بین A و جنسیت داشته باشم، به این معنی که A و جنسیت بر B تأثیر مشترک دارند. معنی دار است، آیا به این معنی است که جنسیت بر رابطه بین A و B تأثیر می گذارد. **سوال 3** **آیا باید به تأثیر A و جنسیت جداگانه نگاه کنم یا فقط روی تعامل بین A و جنسیت تمرکز کنم؟** من هستم GLM بسیار جدید است و جذاب است (اگر بتوانم آن را درست دریافت کنم!). | مدل خطی عمومی با عبارت تعامل در SPSS |
37421 | برای تفسیر برخی از نتایج یک مطالعه غیر حقارت به کمک نیاز دارم. نقطه پایانی اولیه برای ارزیابی عدم حقارت، تغییر از سطح پایه در امتیاز قدرت توجه است. این مطالعه به دنبال نشان دادن این است که درمان جدید از نظر تأثیر آن بر عملکرد شناختی بیمار بدتر از دارونما نیست. حد عدم حقارت 121 میلیثانیه است. نتایج حاصل از تجزیه و تحلیلها تفاوت بین گروههای درمانی 23.23 میلیثانیه را از نظر افزایش از سطح پایه در امتیاز قدرت توجه (دارونما-درمان) نشان میدهد، بنابراین درمان جدید نسبت به دارونما افزایش کمتری نسبت به سطح پایه نشان میدهد. 95% CI برای این تفاوت (145.1-191.59) است. با توجه به اینکه میانگین افزایش نسبت به سطح پایه در گروه درمان جدید کمتر بود و حد بالای 95% فاصله اطمینان (CI) کمتر از 121 میلیثانیه است (محدودیت غیر حقارت)، پس فرض میکنم میتوانیم به عدم حقارت نتیجهگیری کنیم (یعنی هر مزیتی در دارونما کمتر است. از حد غیر حقارت) زیرا CI در سمت چپ حد قرار دارد؟ من این سوال را میپرسم که کمی گیج شدهام که آیا از کران بالایی کران پایینی بازهی عدم حقارت استفاده کنم یا خیر. 95٪ CI در واقع شامل حد پایین است. همچنین، CI بسیار گسترده است، بنابراین من متعجبم که به هر حال این نتیجه گیری بر اساس تعداد بیمارانی که در آنالیز گنجانده شده است چقدر معتبر است. با تشکر از کمک شما در این مورد. | تفسیر نتایج در مطالعه عدم حقارت |
105374 | یک سوال مشابه با سوال دیگر من در مورد توزیع های مختلط. در اینجا من تعداد زیادی متغیر دارم که جمعیت آنها کمتر از 5٪ است، بسیاری از آنها حتی کمتر از 1٪ جمعیت دارند، این 1٪ نشان دهنده 10 مورد از 1000 ورودی است. جزئیات آنها اینها دوباره مجموعه ای از رویدادهای تقریباً OR هستند (اگر متغیر 1 و 2 پر شوند 3 - 10 صفر خواهد بود) در دنیای واقعی اینها به طور ضعیفی هستند. انواع غذاهای خورده شده بنابراین همه آنها یک پیوند شل دارند و مهم هستند زیرا وزن یک خروجی است. مسئله من این است که ترکیب همه آنها با هم اطلاعات زیادی را از دست می دهد، اما جدا گذاشتن آنها به نظر می رسد هر دو متغیر بسیار زیادی را شامل می شود و هر یک از آنها هیچ توضیحی ندارد. قدرت آیا نوعی از ترکیب تنها گزینه واقعی من است؟ به عنوان مثال، اطلاعات خارجی که می گویند متغیر ورودی 1،2،3 را می توان ترکیب کرد و 4، 5، 6 به اندازه کافی شبیه به ترکیب هستند. این ممکن است ممکن باشد یا ممکن نباشد زیرا ممکن است هیچ پیوندی مانند این وجود نداشته باشد | متغیرهایی را که جمعیت بسیار کمی دارند ترکیب کنید؟ |
105376 | من سعی می کنم یک مدل رویداد زمانی گسسته بسازم. این رویداد یک بار در دوره زمانی 20 ساله رخ می دهد. بیشتر مثالی که من دیدم فقط از متغیرهای کمکی استفاده می کند که در طول دوره زمانی یکسان هستند. به عنوان مثال جنس، نژاد و غیره. اما من مقادیر متغیرهای کمکی را برای دوره های زمانی مختلف مشاهده کرده ام. و حدود 10-15 متغیر کمکی وجود دارد که برای 20 سال مشاهده می شود. من می خواهم همیشه متغیرهای کمکی مختلف را برای هر سال مدل کنم. به عنوان مثال در SAS گزینه به این صورت است: model event=var1 var2 var3 number_of_years در اینجا var1 var2 به عنوان نژاد، جنس و غیره دارند که در طول دوره زمانی ثابت هستند (مستقل از زمان). اما من مقادیر متفاوت var1 را برای چندین سال مشاهده کرده ام. بنابراین برای نهاد دوم، دوباره برای چند سال متفاوت است. این رویداد یک بار برای تعداد سال معین به شکل 1/0 رخ می دهد که من از SAS استفاده می کنم، اما اگر کمک کند می توانم از R نیز استفاده کنم. لطفا اگر سوالی دارید به من اطلاع دهید. برای توضیح بیشتر: لطفاً به: http://ccsr.ac.uk/qmss/summer/Paris09/documents/SingerWillet.pdf در آخرین کد رگرسیون لجستیک مراجعه کنید. میخواهم بدانم چگونه میتوان پیشبینیکنندههایی مانند ارزش نقدی را به همراه متغیرهای ساختگی D01-D12 که برای 12 دوره زمانی متفاوت هستند، لحاظ کنم. | مدل خطر با متغیرهای کمکی متغیر زمان |
37422 | من به دنبال یک تعریف رسمی از انتساب تصادفی هستم. اجازه دهید $\mathbf{Z}$ بردار تخصیص های درمانی باشد که در آن هر عنصر 0 (واحد اختصاص داده شده به درمان) یا 1 (واحد اختصاص داده شده به درمان) است. در مقاله JASA، انگیست، ایمبنس و روبین (1996، 446-47) می گویند که تخصیص درمان $Z_i$ تصادفی است اگر $\Pr(\mathbf{Z} = \mathbf{c}) = \Pr(\mathbf {Z} = \mathbf{c'})$ برای همه $\mathbf{c}$ و $\mathbf{c'}$ طوری که $\iota^T\mathbf{c} = \iota^T\mathbf{c'}$، که $\iota$ یک بردار ستونی با تمام عناصر برابر با 1 است. به نظر میرسد که تعریف به این صورت است: اگر هر بردار تخصیصی که شامل تخصیص $m$ به درمان باشد، تخصیص $Z_i$ تصادفی است به اندازه هر بردار دیگری که شامل $m$ باشد. تکالیف برای درمان این تعریف رضایت بخش به نظر نمی رسد. اگر به طور پیشینی تصمیم بگیرم که بخواهم بردار خاصی از تکالیف را رد کنم و یکی از بردارهای باقی مانده را به طور تصادفی انتخاب کنم، چه؟ این عمل تعریف AIR را برآورده نمی کند، اما همچنان تخصیص تصادفی خواهد بود. در اینجا یک مثال است. یک تخصیص دوتایی برای درمان برای هر یک از دو موضوع را تصور کنید. اجازه دهید $\mathbf{Z}$ بردار تکالیف درمان باشد. سپس $\mathbf{Z}$ دارای چهار مقدار ممکن است: {0، 0}، {0، 1}، {1، 0}، و {1، 1}. طبق تعریف AIR، انتساب فقط در صورتی تصادفی است که $\Pr(\mathbf{Z} = \\{1, 0\\}) = \Pr(\mathbf{Z} = \\{0, 1\\}) $. اما چرا باید این تعریف تخصیص تصادفی یا حتی شرط لازم برای آن باشد؟ اگر به سادگی تصمیم بگیرم که {0، 1} را رد کنم و به طور تصادفی از بین سه بردار باقیمانده انتخاب کنم، چه؟ به نظر می رسد که این عمل با درک مرسوم از تخصیص تصادفی سازگار است اما با تعریف AIR ناسازگار است. بنابراین: آیا یک تعریف رسمی از انتساب تصادفی وجود دارد که این ایده را در بر گیرد که آزمایشگر ممکن است برخی از بردارهای انتساب را پیشینی رد کند؟ | تعریف رسمی تخصیص تصادفی |
73173 | انگیزه استفاده از آمار سفارش در تخمین پارامتر چیست؟ در یک مفهوم بسیار کلی، آمار مرتبه اول به عنوان یک تخمین اولیه برای پارامتر مکان در نظر گرفته می شود. من تعجب می کنم، چگونه این ممکن است. یک توضیح غیرمعمول کمک خواهد کرد. | آمار سفارش |
27227 | من با فرضیات (پارامتری) ارائه شده در تحلیل هم انباشتگی چندان راحت نیستم. اخیراً دریافتهام که راهی برای انجام تجزیه و تحلیل تلفیق ناپارامتری وجود دارد (جستجوی گوگل با عبارت 'همانجمادی ناپارامتریک' چندین نتیجه را به همراه دارد). آیا کسی از بسته R اطلاع دارد که امکان تجزیه و تحلیل هم انباشتگی ناپارامتریک را فراهم می کند؟ | آزمون هم انباشتگی غیر پارامتری در R |
41306 | منظور از tilde هنگام تعیین توزیع های احتمال چیست؟ به عنوان مثال: $$Z \sim \mbox{Normal}(0,1).$$ | چرا توزیع های احتمال را با یک tilde نشان می دهند؟ |
51152 | من سعی کردهام از تابع fastbw از بسته rms در R برای انجام رگرسیون لجستیک با انتخاب رو به عقب، با مقادیر p به عنوان معیار حذف استفاده کنم (من به خوبی از استدلالهای مخالف استفاده از p-values برای این کار به عنوان مثال آگاه هستم. AIC). با این حال، نتایج با آنچه که در صورت انجام انتخاب معکوس به صورت دستی به دست میآورم، مطابقت ندارد، زیرا fastbw اغلب فاکتورهای بیشتری را در مقایسه با آن کاهش میدهد. به نظر می رسد که نتایج حتی با گزینه type=individual نیز به تعداد عوامل در نظر گرفته شده بستگی دارد. من چند داده مثال ساده را برای اثبات نظر خود ایجاد کردم که نتیجه زیر را به دست میدهد: > fastbw(lrm(y~x1+x2+x3+x4),rule=p,type=individual) حذف شده Chi- مربع d.f. P باقیمانده d.f. P AIC x3 0.37 1 0.5412 0.37 1 0.5412 -1.63 x 1 1.82 1 0.1771 2.20 2 0.3336 -1.80 x4 2.58 1 0.1082 0.1082 - 4.782 x1 0.0591 8.34 4 0.0799 0.34 [...] فاکتورها در مدل نهایی هیچ کدام، یعنی x2 به عنوان آخرین فاکتور در نظر گرفته شده حذف می شود و در نتیجه مدلی بدون فاکتور ایجاد می شود. با این حال، اگر فقط x2 را در نظر بگیرم، نتیجه زیر را دریافت می کنم. > fastbw(lrm(y~x2),rule=p,type=individual) هیچ عاملی فاکتورهای حذف شده در مدل نهایی [1] x2 اگر انتخاب رو به عقب را به صورت دستی انجام دهم، همین امر صادق است، زیرا x2 به طور جداگانه در نظر گرفته شده است. مقدار p 0.045. چه چیزی ممکن است باعث این رفتار شود؟ از آنجایی که x2 آخرین متغیر باقیمانده در انتخاب به عقب است، نتایج نباید به ارتباط با سایر متغیرهای کمکی مدل بستگی داشته باشد. | fastbw با rule=p در بسته RMS: چرا نتایج به تعداد متغیرهای کمکی بستگی دارد؟ |
41307 | من در تلاش برای درک یادگیری نیمه نظارت شده در پیاده روی تصادفی هستم. بیایید بگوییم که من 10 کلاس دارم و چند نکته برچسب دار و بدون برچسب دارم. اکنون، باید با استفاده از یادگیری نیمه نظارت شده در پیاده روی تصادفی، برچسبهایی را برای نقاط بدون برچسب پیدا کنم. من میتوانم ماتریس انتقال P را برای گرهها/عناصر تعریف کنم که هر ورودی $P_{ij}$ احتمال حرکت از گره i به j را بدهد. اکنون می توانم برچسب ها را منتشر کنم. اگر P ماتریس انتقال باشد، میتوانم P را به P = $$P_{ll} P_{lu}$$ $$P_{ul} P_{uu}$$ بازنشانی کنم و اگر Y نشاندهنده ماتریسی از توزیعهای احتمال روی برچسب باشد. تنظیم کنید، سپس میتوانم از الگوریتم تکراری زیر برای دریافت برچسبهای نقاط بدون برچسب استفاده کنم. فرض کنید $Y_l$ مجموعه ای از نقاط برچسب زده شده باشد و $Y_u$ مجموعه ای از نقاط بدون برچسب باشد که باید برچسب ها را برای آنها پیدا کنیم. بیایید بگوییم ده نقطه برچسب گذاری شده برای 10 برچسب داده شده است و من باید برچسب های 100 نقطه باقی مانده را پیدا کنم، بگذارید بگوییم، سپس این الگوریتم تکراری وجود دارد $Y^{0} \lefttarrow Y$ $t \lefttarrow 1$ تکرار $Y^{t} \leftarrow PY^{t-1}$Y_{l}^{t} \lefttarrow Y_{l}$ تا همگرایی به $Y^\inf$ $\tilde{Y} \lefttarrow Y^{inf}$ من در ابتدا متوجه نشدم که چگونه این بردار Y را مقداردهی اولیه کنم. فرض کنید من 110 امتیاز داده ام. من برچسب 1.2.3...10 را برای ده نقطه دارم، پس چگونه میخواهم این ماتریس Y را مقداردهی اولیه کنم و در پایان وقتی $\tilde{Y}$ دریافت کردم چگونه میتوانم بدانم متعلق به کدام کلاس است. منظورم این است که من فقط مقداری ارزش خواهم داشت. چگونه میتوانم بدانم نقاط بدون برچسب از $\tilde{Y}$ متعلق به کدام کلاس هستند. اگر باینری بود میدانستم، زیرا اگر مقدار آن بزرگتر از 0.5 بود، میگفتم متعلق به کلاس 1 است وگرنه 0. اما در موردی که ده برچسب دارم چه میشود. | سردرگمی مربوط به یادگیری نیمه نظارتی در پیاده روی تصادفی |
12492 | از نظر ریاضی، یک مدل رگرسیون لجستیک برای کدام داده ها راه حل منحصر به فردی دارد؟ | چه زمانی یک مدل رگرسیون لجستیک راه حل منحصر به فردی دارد؟ |
79621 | برای رفع این ایده، فرض کنید C مصرف به دلار و Y درآمد به دلار است. این یک مدل سری زمانی است. فرض کنید به دلایل عجیبی باید مدل $Y = a + b\cdot \Delta X$ را تخمین بزنم که $\Delta X$ اولین تفاوت X است. چگونه این ضریب $b$ را تفسیر کنم؟ اگر هر دو طرف FD هستند، میتوانیم آن را به صورت سطوح تفسیر کنیم، زیرا مدل از سطوح (و روند زمانی) میآید. اما اگر LHS مانند رگرسیون بالا سطوح باشد و RHS FD باشد چه؟ با تشکر | وقتی Y در سطوح است و RHS اولین تفاوت است چگونه ضریب را تفسیر کنیم؟ |
30740 | حرکت براونی به عنوان حدی از مجموع i.i.d ساخته می شود. افزایش گاوسی آیا میتوان به جای آن از توزیع غیرگاوسی $\alpha$ (مثلاً توزیع کوشی) استفاده کرد و همچنان یک فرآیند ساخت؟ آیا پارامتر مقیاس چنین فرآیندی مطابق فرمول $c_t = t^{1/\alpha}$ تکامل مییابد؟ | تعمیم حرکت براونی به توزیع های $\alpha$-پایدار |
88204 | من به نوشتن یک بازی ساده در مورد زامبی ها فکر می کنم. من در تلاش برای محاسبه چند نفر باید زامبی شوند گیر کردم. **شرایط من این است:** یک شهر کوچک روستایی 700 نفری داریم. یک شب 200 زامبی به شهر می آیند. هر زامبی 30 درصد شانس تماس (در روز) با 50 درصد احتمال ابتلا به یک انسان و تبدیل او به یک زامبی جدید دارد. چند نفر باید در روز **اول**، *دوم** و **سوم** زامبی شوند؟ من تصمیم گرفتم با توجه به تعداد مردم شهر از شانس عفونت استفاده کنم. هر چه تعداد افراد بیشتر باشد، شانس کمتری برای تماس وجود دارد (که ممکن است بحث برانگیز به نظر برسد، اما بگذارید اینطور باشد). بنابراین شانس تماس «(200/700)*0.3=0.086» یا «8.6٪». سپس شروع کردم به این فکر که یک زامبی 8.6% شانس ابتلا به یک انسان را دارد و در طول یک روز فقط به ازای هر 200 انسان، 200 بار تلاش می شود. من سعی کردم تعدادی آزمایش را پیدا کنم که در آن احتمال عفونت 99.9٪ است و به نظر می رسد 60 باشد. سپس هر 60 امین انسان باید آلوده شود که به معنای '700/60 = 11.6' نفر در روز است. من هیچ سابقه ای در زمینه آمار ندارم، بنابراین احتمالاً اشتباه می کنم، خوب است اگر کسی به من کمک کند. | پازل احتمال در مورد زامبی ها |
14197 | من روی یک مدل پیشبینی مبتنی بر ANN برای یک سری زمانی مالی کار میکنم. من از اعتبار سنجی متقاطع 5 برابری استفاده می کنم و میانگین عملکرد بسیار بالاست. عملکرد در آخرین فولد (تکراری که در آن آخرین بخش از آموزش حذف میشود و برای اعتبارسنجی استفاده میشود) بهتر از میانگین است. آیا این یک تصادف / وابسته به داده است، یا عملکرد اعتبارسنجی در آخرین قسمت معمولا بهتر است؟ (احتمالاً به این دلیل که آموزش با تمام دادههای قبلی بیشتر به دادههای بعدی در سریهای زمانی مربوط میشود) این سؤال کمی شبیه به یک سؤال عجیب به نظر میرسد، اما به هر حال امیدوارم پاسخهایی بدهم. پیشاپیش ممنون :) | K-برابر CV پیش بینی سری زمانی مالی -- آیا عملکرد در آخرین بار مرتبط تر است؟ |
86411 | من تجزیه و تحلیل سری های زمانی برای یک بیماری و همچنین داده های آب و هوایی در همان دوره زمانی که شامل بارش و دما می شود، دارم. من این داده ها را برای هشت مکان متمایز (نقاط طول و عرض جغرافیایی) دارم. میخواهم ببینم آیا بین الگوهای فصلی بیماری و آب و هوا همبستگی وجود دارد و ببینم آیا آب و هوا میتواند شیوع بیماری را پیشبینی کند. من مطمئن نیستم که چگونه این را آزمایش کنم. کاری که من تاکنون انجام داده ام این است - از سری زمانی، می توانم زمان میانگین پیک سالانه را تخمین بزنم، و از رگرسیون چند متغیره در R استفاده کرده ام: خلاصه مدل = lm(peak_peak ~ طول جغرافیایی، rainfall_peak، temp_peak، data=mydata) (مدل) آیا راه های دیگری/بهتر برای انجام این تحلیل با داده های سری زمانی وجود دارد؟ (من جعبه ابزار آمار متلب را دارم) | پیش بینی با استفاده از متغیرهای متعدد |
14199 | من یک مجموعه داده پردازش شده دارم که در آن بیماران دارویی مصرف می کردند و مقدار متفاوتی وزن اضافه می کردند. علاوه بر این، هر گونه تشخیص ICD9 که بیماران در حین پایش دریافت کرده اند، ثبت می شود. میخواهم ببینم آیا تشخیصهای خاص با مقدار اضافه وزن مرتبط هستند یا خیر. یک روش خوب برای آزمایش این چیست؟ قابل توجه است که هر بیمار چندین تشخیص دارد: در مجموع حدود 1200 تشخیص منحصر به فرد وجود دارد. در حال حاضر میانگین wt را محاسبه کرده ام. افزایش همراه با انحراف معیار، سپس بیماران را بر اساس انحراف معیار گروه بندی کنید، بگویید: (#های واقعی نیست) مجموع بیماران: 420 کل در گروه 1 (بیشتر از 2 SD کاهش وزن): 10 کل در گروه 2 (وزن 1 SD) از دست دادن: 50 کل در گروه 3 (<1Sd افزایش یا کاهش وزن): 300 مجموع در گروه 4 (>1 sd افزایش وزن): 50 کل در گروه 5 (بیشتر از 2 sd افزایش وزن): 10 داشتم به این فکر می کردم که در هر گروه چند بیمار دارای تشخیص x,y,z (و غیره) هستند /10 امتیاز آن را دارند گروه 2: 15/50 امتیاز آن را دارند و غیره... با این روش، به سادگی یک همبستگی پیرسون بر روی تعداد مطلق تشخیص ها محاسبه می شود. به علاوه، اگر تا زمانی که من به گروه 2 یا گروه 4 برسم، یک تشخیص خاص را داشته باشند، این چگونه بر اجرای آنالیز به این طریق تأثیر می گذارد؟ | ارتباط تشخیص های مختلف با میزان وزن به دست آمده |
88208 | من اغلب می بینم که اندازه نمونه برای یک آزمون $z$-تست برای دستیابی به نرخ خطای خاص نوع II $\beta$ (در یک سطح اهمیت معین، $\alpha$) این است: $$n = \frac{(Z_{ 1-\alpha/2}+Z_{1-\beta})^2\sigma^2}{\delta^2}$$ چگونه به آن نتیجه میرسند/تعیین میکنند؟ | چگونه می توان حجم نمونه را برای به دست آوردن نرخ خطای خاص نوع دوم استخراج کرد؟ |
70596 | فرمول $R^2$ تنظیم شده این است: $$ 1 - \frac{(n-1)}{(n-p-1)}(1-R^2) $$ که در آن $r^2$ ضریب تعیین، $n$ تعداد نقاط و $p$ تعداد پارامترهایی است که مدل دارد. اگر من $R^2$ تنظیم شده را از یک مجموعه نگهدارنده بخواهم، $n$ تعداد نقاط در داده هایی است که مدل روی آنها آموزش داده شده است یا تعداد نقاط موجود در مجموعه نگهدارنده؟ | تنظیم R مربع در یک مجموعه نگهدارنده |
18969 | من می خواهم از خوشه بندی مبتنی بر مدل برای طبقه بندی 1225 سری زمانی (هر دوره 24 دوره) استفاده کنم. من این سریهای زمانی را با استفاده از تبدیل فوریه سریع تجزیه کردم و هارمونیکهایی را انتخاب کردم که حداقل درصد آستانهای از واریانس سریهای زمانی را برای همه سریهای زمانی در نمونه توضیح میدهند. من میخواهم خوشهبندی مبتنی بر مدل را بر روی بخشهای واقعی و خیالی برای هر عنصر تبدیل یک سری زمانی معین انجام دهم، زیرا به طور بالقوه من را از به حساب آوردن خودهمبستگی زمانی در خوشهبندی مبتنی بر مدل در طول دورههای یک سری زمانی نجات میدهد. من می دانم که هر عنصر پیچیده تبدیل فوریه سریع از عناصر دیگر مستقل است، اما نمی دانم که آیا قسمت های خیالی و واقعی خروجی برای یک عنصر خروجی معین مستقل هستند یا خیر. میخواهم بدانم زیرا اگر چنین بودند، به من این امکان را میداد که فرض پیشفرض بسته Mclust را در R برای خوشهبندی مبتنی بر مدل حفظ کنم که متغیرهای تحلیلشده دارای یک توزیع گاوسی چند متغیره هستند. توجه: ورودی دارای ارزش واقعی است، و من با حذف عناصر فرکانس اضافی و ضرب فرکانس های مثبت (غیر از مولفه میانگین) در دو به ازای توصیه ای که از دیگری دریافت کردم، از طیف دو طرفه به یک طیف یک طرفه تبدیل شده ام. پاسخ StackOverflow در اینجا: http://stackoverflow.com/questions/8264530/how-do-i-calculate-amplitude-and-phase-angle-of-fft-output-from-real-valued-in | آیا اجزای واقعی و خیالی عنصر فرکانس fft همبستگی دارند؟ |
12495 | آیا کسی می تواند به من یک پیاده سازی k-means (بهتر است اگر در matlab باشد) که بتواند ماتریس فاصله را در ورودی بگیرد به من معرفی کند؟ پیاده سازی استاندارد متلب به ماتریس مشاهده در ورودی نیاز دارد و امکان تغییر سفارشی معیار تشابه وجود ندارد. با تشکر | k-means پیاده سازی با ماتریس فاصله سفارشی در ورودی |
110994 | من مجموعه ای از حدود 200000 نمونه آموزشی دارم. هر نمونه آموزشی از یک ویژگی به نام $duration$، یک نوع عدد صحیح گسسته و یک سری زمانی از مقادیر ممیز شناور، به شکل بردار طول=$duration$ تشکیل شده است. بنابراین اگر قرار است هر نمونه آموزشی یک بردار در نظر گرفته شود، طول آن $دوره+1$ است. مشکل این است که یک طبقهبندیکننده بسازیم و در حالی که روی مسئله کار میکردم، روش زیر را امتحان کردم: از آنجا که هر بردار آموزشی طول متفاوتی برابر با ویژگی duration داشت، تصمیم گرفتم طبقهبندیکنندههای مختلفی برای مدتهای مختلف بسازم. به این ترتیب می توانم مشکل مقایسه 2 سری زمانی با طول های مختلف را برطرف کنم. اکنون باید داده ها را به گروه هایی تقسیم می کردم که هر یک از اعضا مدت زمان یکسانی داشته باشند. این منجر به تفکیک داده ها به 20 گروه (برای مدت زمان های مختلف) با 10000 نمونه شد. چند نفر از من سؤال کردند و گفتند که 10000 ممکن است اصلاً برای ساخت یک مدل کافی نباشد. من سعی کردم با استدلال زیر خود را متقاعد کنم که چنین 10000 ممکن است کافی باشد: برای مثال یک درخت تصمیم را در نظر بگیرید. با تصمیم گیری در مورد یک ویژگی خاص و ساختن به صورت بازگشتی، زیر درختان به عنوان فرزندان خود کار می کند. هنگامی که زیردرخت ها ایجاد می شوند، با استفاده از تعداد نمونه های آموزشی کمتری نسبت به تعداد مورد استفاده برای آموزش گره والد آن، این کار را انجام می دهند، زیرا نمونه های آموزشی مورد استفاده برای آموزش زیردرخت زیرمجموعه ای از نمونه های مجموعه آموزشی هستند که دارای مقدار مشخصی هستند. از ویژگی در گره والد مطابق با شاخه. به این ترتیب، همانطور که درخت تصمیم رشد می کند، نه. نمونههای آموزشی که برای ایجاد یک درخت فرعی استفاده میکند کاهش مییابد، اما به این معنی نیست که درختهای فرعی پایین درخت به هیچ وجه نادرست یا غیر قابل توجیه هستند. سؤالات: وقتی دادههایم را به گروهها تقسیم کردم و برای هر گروه مدلهایی ساختم، آیا کار مشابهی انجام ندادم (و به طور ضمنی ساختاری شبیه درخت تصمیم به طبقهبندیکننده دادم)؟ آیا همکاران من در مورد زیر سوال بردن رویکرد من حق دارند؟ همچنین توجه داشته باشید که مدت زمان یک ویژگی است که به شدت به یادگیری تابع هدف کمک می کند. آیا با تقسیم به گروه ها و ساختن یک طبقه بندی کننده برای هر گروه، نمی توانم اثر مدت زمان را روی هدف بگیرم؟ آیا راه های بهتری برای رسیدن به نتیجه در این مورد وجود دارد؟ | یک سوال در مورد خیر نمونه های آموزشی و درخت تصمیم |
18348 | مایلم نظرات شما در مورد تفاوت بین اعتبارسنجی متقاطع و بوت استرپینگ برای تخمین خطای پیش بینی باشد. آیا برای اندازه های داده کوچک بهتر است یا مجموعه داده های بزرگ؟ | تفاوت بین اعتبارسنجی متقاطع و راهاندازی برای تخمین خطای پیشبینی |
15824 | اساساً هدف از خوشهبندی گراف و روشهای تشخیص جامعه، محاسبه خوشهها است. آیا تفاوتی بین آنها وجود دارد؟ با تشکر فراوان برای هر راهنمایی | تفاوت بین خوشه بندی نمودار و روش های تشخیص جامعه چیست؟ |
70598 | من یک رگرسیون خطی متغیرهای ابزاری را تخمین می زنم که دارای تعداد زیادی متغیر شاخص (عامل) است. من به خصوص به تخمین ضرایب در آن متغیرهای شاخص اهمیتی نمی دهم. در بسته ivreg2 Stata یک گزینه جزئی وجود دارد که قضیه Frisch-Waugh-Lovell را برای متعامد کردن متغیرهای وابسته و برونزا به متغیرهای نشانگر اعمال می کند. بعد از این تبدیل، متغیرهای اندیکاتور تخمین زده نمیشوند زیرا بر ضرایب متغیرهای مورد علاقه من تأثیر نمیگذارند. سؤال من این است که آیا چیزی شبیه به این در R وجود دارد؟ لازم نیست که بخشی از یک بسته رگرسیون IV باشد، اما من به دنبال متعامد کردن یک مجموعه از متغیرها به مجموعه دیگری از متغیرها هستم. به نظر می رسد این چیزی است که قبلاً اجرا شده بود. با تشکر | بکارگیری قضیه فریش-و-لاول در رگرسیون IV در R |
14397 | من شباهتی بین مشکلی که دارم روی آن کار میکنم و تجزیه و تحلیل تشخیصی خطی (یا درجه دوم) وقتی که اندازه نمونه کوچکتر از $p+1$ باشد، میبینم. من علاقه مند به تئوری محدود کردن خطای تعمیم هر یک از طبقهبندیکنندهها هستم، زمانی که دادهها را میتوان متراکم فرض کرد (یعنی همه پارامترهای داده به طور بالقوه آموزنده هستند) و کوواریانس (های) کلاس تخمین زده شده منفرد هستند (و بنابراین باید منظم شود. برای به دست آوردن یک طبقه بندی کار). به عنوان مثال، به نظر من در این تنظیمات، وارونگی کاذب (به معنای خطای تعمیم) باید بدترین کار ممکن باشد، زیرا فرد اطلاعات متمایز کننده بالقوه مفید را در فضای صفر ماتریس کوواریانس دور می زند. ملموس تر کردن این شهود ساده به نظر نمی رسد. جستجوها در Scholar با استفاده از رشتههای احتمالی بهعنوان مثال. تحلیل تمایز و اندازه نمونه کوچک هزاران مقاله را باز می گرداند، عمدتاً از ادبیات تشخیص چهره و، تا آنجا که من می بینم، طرح های منظم سازی متفاوت یا انواع LDA/QDA را پیشنهاد می کند. با توجه به اینکه راههای جایگزین زیادی وجود دارد که میتوان مسائل عددی را حل کرد، علاقه من به هرگونه ضمانتهایی در مورد عملکرد چنین طبقهبندیکنندههایی در نمونه کوچک است. لطفاً، کسی می تواند به من یک نظریه مرتبط را راهنمایی کند؟ | تئوری تجزیه و تحلیل متمایز در شرایط حجم نمونه کوچک |
105378 | نمیدانم که آیا میتوانم از همه شما یک سؤال سریع در مورد ورودی دادههای اندازه اثر در متاآنالیز جامع (CMA) بپرسم؟ من سعی کردم از طریق پورتال نرم افزار تماس بگیرم بدون پاسخ. من در حال حاضر در حال انجام یک متاآنالیز هستم که نقش بیومارکر سرم را در ایجاد حالت تهوع ارزیابی می کند. اکثر مطالعات آزمودنیها را به گروههایی تقسیم میکنند که نسبت به یک محرک خاص به حالت تهوع مقاوم هستند و افرادی که به حالت تهوع حساس هستند و سطوح بیومارکر قبل و بعد از محرک را گزارش میکنند. به عنوان مثال در گروه حساس به حالت تهوع (10=n) ممکن است 1 pg/mL +/- SD 0.5 در ابتدا و سپس 2.5pg/mL +/- SD 0.5 پس از محرک باشد در حالی که در گروه مقاوم به تهوع (n=15) ) ممکن است 1 pg/mL در پایه +/- SD 0.6 و سپس 1.2 pg/mL باشد. +/- SD 0.8 بعد از محرک. در CMA من سعی میکنم دادههای اندازه اثر را در دو گروه وارد کنم/همبستگی > گروه بیهمتا قبل و بعد > میانگین، SD قبل و بعد، N در هر گروه، اما چگونه میتوانم همبستگیهای قبل/پس را محاسبه کنم و چه چیزی را استاندارد کنم. نتایج توسط (یعنی تغییر امتیاز در SD یا ارسال امتیاز SD). هر گونه کمک یا توصیه ای با سپاس پذیرفته می شود، | متاآنالیز با CMA |
33940 | اجازه دهید $X_1,X_2,\dots$ i.i.d باشد. متغیرهای تصادفی برنولی با پارامتر $\frac{1}{4}$. اجازه دهید $Y_1،Y_2، \dots $ دنباله دیگری از i.i.d باشد. متغیرهای تصادفی برنولی با پارامتر $\frac{3}{4}$. و اجازه دهید $N$ یک متغیر تصادفی هندسی با پارامتر $\frac{1}{2}$ (یعنی $\mathrm{P}(N = k) =\frac{1}{2^k},\, \forall\ k=1,2,\dots$). فرض کنید $X_i$، $Y_j$ و $N$ همگی مستقل هستند. $$\mathrm{Cov}(\sum_{i=1}^NX_i,\sum_{i=1}^NY_i) را محاسبه کنید.$$ در اینجا $N$ نیز r.v است. بنابراین فکر می کنم باید از کوواریانس شرطی استفاده کنم. چگونه می توانم این را حل کنم؟ از کجا شروع کنیم؟ من در مرحله اول گیر کرده ام؟ | محاسبه $\mathrm{Cov}(\sum_{i=1}^NX_i,\sum_{i=1}^NY_i)$ |
105377 | من بعد از انجام پیشبینی دادههای سری زمانی سرعت باد با استفاده از ARIMA با پایتون، با دیوار روبرو شدهام. من نتیجه دارم با رشد nrmse از 2% به 15% و حالا چیزی که میخوام اینه که از فیلتر کالمن استفاده کنم تا خطاهای پیش بینی خود رو کم کنم و نتیجه بهتری داشته باشم. 1/در واقع من حتی بعد از مطالعه زیاد نمی دانم چه کاری انجام می دهد. هدف اصلی من بهبود نتایج پیش بینی من است (که با استفاده از ARIMA به دست آوردم). آیا می توانید من را در مورد فیلتر کالمن برای پیش بینی سری های زمانی تک متغیره روشن کنید؟ 2/ همچنین می خواهم بدانم چگونه می توانم بفهمم یک سری زمانی غیر خطی است یا نه؟ تعریف روی کاغذهای مختلف به من اجازه نمی دهد که بر اساس آنها کد بنویسم. با تشکر از ملاحظات شما؟ | پیش بینی بهبود با استفاده از پاکسازی فیلتر Kalman |
33947 | اجازه دهید $X $ یک مجموعه اعداد صحیح متراکم باشد به طوری که عناصر آن از نظر ارزش نزدیک به هم باشند. به عنوان مثال: 1 1 1 1 2 2 2 2 3 3 5 5 6 6 6 6 7 7 7 7 8 8 8 8 8 8 ... من به دنبال فشرده سازی این مجموعه داده به هر طریق ممکن هستم، در حال حاضر به رمزگذاری دلتا از طریق رمزگذاری دلتا، من میتوانم آرایه فوق را فقط با بیتهای داده به جای اعداد صحیح کامل ذخیره کنم، زیرا فقط تفاوت را از یک عنصر به عنصر بعدی میبرم. با این حال، همانطور که متوجه خواهید شد، مجموعه فوق فاقد 4 است. اگرچه داده ها نسبتاً متراکم هستند، مقادیر کمی وجود دارد (<0.1%`) که یافت نمی شوند. من به قرار دادن این عناصر به این صورت متوسل شده ام: برای ایجاد یک مجموعه کد دلتا : 1 0 0 0 1 0 0 0 0 1 0 1 1 0 1 0 0 0 0 1 0 0 0 1 0 0 0 0 ... این منجر به برخی از داده های فازی می شود که منجر به عوارض جانبی کم اما به طرز مشکوکی برای مجموعه اصلی می شود. سوال من این است که آیا روش های دیگری برای عادی سازی داده های متراکم و فشرده سازی آن ها برای کاهش پیچیدگی فضایی که حول آن می چرخد وجود دارد؟ | فشرده سازی متراکم داده (کدگذاری دلتا؟) |
86418 | من قصد دارم با تبلیغات از طریق پوسترها، بروشورها و فیس بوک کالج، شرکت کنندگان را در یک کالج جذب کنم. آیا این روش استخدام، نمونه گیری خوشه ای است که نوعی نمونه گیری احتمالی است؟ من می ترسم که اگر از نمونه گیری آسان استفاده کنم، نمونه گیری احتمالی در نظر گرفته نشود و از این رو نتوانم برخی از آزمون های آماری مانند تحلیل رگرسیون، تحلیل عاملی یا ANOVA را اعمال کنم. هر گونه فکر قدردانی خواهد شد. متشکرم | جذب شرکت کنندگان برای مطالعه |
6976 | این سوال ممکن است بسیار گسترده به نظر برسد، اما اینجا چیزی است که من به دنبال آن هستم. من میدانم که کتابهای بسیار عالی در مورد روشهای اقتصادسنجی، و مقالات توضیحی بسیار عالی در مورد تکنیکهای اقتصادسنجی وجود دارد. همانطور که در این سوال CrossValidated توضیح داده شده است، حتی نمونههای _تکرارپذیر_ عالی از اقتصادسنجی وجود دارد. در واقع مثال های این سوال به آنچه من به دنبال آن هستم بسیار نزدیک است. تنها چیزی که در آن نمونه ها گم شده این است که آنها فقط گزارش های _تحقیقی_ هستند، بدون هیچ اشاره ای به نحوه عملکرد نتایج مطالعه در یک _کاربرد دنیای واقعی_. آنچه من به دنبال آن هستم نمونههای مستند/قابل تکرار از کاربردهای دنیای واقعی نظریه اقتصاد سنجی است که به طور ایدهآل دارای ویژگیهای زیر هستند: 1. آنها باید **تکرارپذیر** باشند، یعنی حاوی توضیحات مفصل (و اشارهگرها به) دادهها، تکنیکهای اقتصادسنجی باشند. ، و کد. در حالت ایده آل کد به زبان R خواهد بود. 2. باید مستندات دقیقی وجود داشته باشد که نشان دهد این تکنیک **در دنیای واقعی موفقیت آمیز بوده**، بر اساس معیارهای کمی از موفقیت (مثلاً این تکنیک به افزایش درآمد کمک کرده است زیرا پیش بینی بهبود تقاضا را امکان پذیر می کند، و در اینجا موارد ذکر شده است. اعداد درگیر) من از اصطلاح _اقتصادسنجی_ به طور کاملاً گسترده در اینجا استفاده می کنم -- منظورم هر نوع _داده کاوی_، _آماری است. تکنیک تحلیل داده، پیش بینی، پیش بینی یا یادگیری ماشینی. یک مشکل فوری در یافتن چنین نمونه هایی: بسیاری از کاربردهای موفق اقتصاد سنجی در یک محیط انتفاعی انجام می شوند و بنابراین اختصاصی هستند، بنابراین اگر یک تکنیک خوب کار کند، احتمالاً منتشر نخواهد شد (این امر به ویژه در مورد تجارت اختصاصی صادق است. استراتژی ها)، اما با این وجود امیدوارم نمونه های منتشر شده ای وجود داشته باشد که حداقل دارای ویژگی (2) در بالا باشد، اگر نه هر دو (1) و (2). | نمونه های مستند/قابل تکرار از کاربردهای موفق روش های اقتصادسنجی در دنیای واقعی؟ |
14449 | من یک مجموعه داده با چهار شرط درون موضوعی دارم. شرکتکنندگان به 8 سوال در هر شرایط پاسخهای دودویی دادند و اینها بهطور میانگین برای ایجاد نسبتی برای هر شرط محاسبه شدند. من می خواهم میانگین نسبت افراد را که یک پاسخ خاص را بین شرایط انتخاب می کنند مقایسه کنم. برای مثال 80% در شرط اول، 60% در حالت دوم 40% در سوم 20% در شرط چهارم پاسخ خاصی را انتخاب کردند. در اینجا نموداری از نتایج آمده است:  میانگین احتمال حدس زدن RED به عنوان شماره کاهش می یابد. سبز افزایش می یابد. میخواهم ببینم این افت قابل توجه است یا خیر. * چگونه می توانم به نحوی خلاصه کنم که آیا این افت قابل توجه است؟ | در شرایط موضوعی که متغیر وابسته یک نسبت است، چگونه تفاوت معنیدار میانگینها را در چهار مورد آزمایش کنیم؟ |
18349 | نظر شما در مورد روش زیر برای انجام نمونه برداری تصادفی چیست: 1. به تعداد افراد شناور (بین 0 و 1) با استفاده از یک مولد تصادفی کوانتومی (هر مقدار فقط یک بار ظاهر می شود) تولید کنید. 2. به افراد شناور اختصاص دهید. 3. افراد را بر اساس ترتیب شناورها مرتب کنید. 4. در صورت نیاز افراد را انتخاب کنید. از آنجایی که ژنراتور کیفیت خوبی دارد، آیا استفاده از این روش ریسک دارد؟ | چگونه به طور تصادفی از یک جامعه نمونه برداری کنیم؟ |
86417 | در اینجا یک سوال آماری وجود دارد که من با آن مشکل دارم: فرض کنید محققان قصد دارند در آینده یک مطالعه تکمیلی انجام دهند تا یک بار دیگر π = نسبت واقعی جمعیتی را که برای دردهای مرتبط با درد مفاصل یا سفتی ناشی از طب سوزنی کمک میگیرند، تخمین بزنند. (در این مطالعه، 31 نفر از 32 نفر از پاسخ دهندگان گزارش دادند که از درمان طب سوزنی کمک گرفتند). آنها می خواهند که حاشیه خطا حداکثر 3±٪ باشد. آنها برای اطمینان از اینکه حاشیه خطا از این مقدار تجاوز نمی کند به چه اندازه حجم نمونه نیاز دارند؟ آیا کسی می تواند من را در جهت درست برای این مشکل راهنمایی کند؟ آیا می توانم حاشیه خطا را برابر با 0.03 تنظیم کنم و این کار را انجام دهم: 0.03 = 1.96 sqrt(.96875(1 - 0.96875))/n) و برای n حل کنم؟ آیا من در مسیر درست هستم؟ | حداکثر حاشیه خطا |
34994 | می خواستم بدانم که آیا علیت گرنجر ابزار کارآمدی برای جستجوی داده های ورودی مرتبط برای یک سیستم SVM خواهد بود؟ به عنوان مثال، اگر بخواهم بازده SP 500 را پیش بینی کنم، می توانم در داده های ورودی خود نرخ لیبور، نرخ مبادله USD/EUR، شاخص FTSE، شاخص Eurostoxx 50 را در داده های ورودی خود قرار دهم. اگر این داده ها را به ویژگی های ورودی SVM اضافه کنید، اگر بین بازده شاخص SP و نرخ مبادله USD/EUR و غیره، علیت گرنجر وجود داشته باشد؟ آیا علیت گرنجر ابزاری سازگار برای پیش انتخاب داده های ورودی SVM است؟ | ماشین های بردار پشتیبانی و علیت گرنجر |
93181 | روشهای منظمسازی رج، LASSO و الاستیکنت چگونه با هم مقایسه میشوند؟ مزایا و معایب آنها چیست؟ هر مقاله فنی خوب یا یادداشت سخنرانی نیز قدردانی می شود. | توری رج، کمند و الاستیک |
15828 | من جمعیتی از _محصولات مارکدار_ دارم، مثلاً غذای لبنیات، و میخواهم بدانم کدام برند بیشتر مورد پسند است. از 1001 نفر می خواهم که _سه برند محبوب_شان را به من بگویند. توضیح ریاضی مسئله چیست؟ | توضیح ریاضی مسئله ای که از نمونه در مورد سه برند مورد علاقه پرسیده می شود؟ |
97637 | در کد R زیر، خطای مورد انتظار نوع I باید 0.05 باشد (من فکر می کنم)، اما به طور مداوم بیشتر از 0.05 است. من می خواهم بدانم چرا. library(MASS) nsim <- 1000 آلفا <- 0.05 out <- rep(NA,nsim) for(i در 1:nsim){ x <- runif(20,0,10) y <- rnbinom(20,mu= 3,size=1.285714) out[i] <- summary(glm.nb(y~x))$ضرایب[2,4] } mean(out<alpha) | خطای نوع I در GLM دوجمله ای منفی |
33942 | من برای یک پروژه علوم کامپیوتری که دارم انجام می دهم، فکر می کردم. اسناد معمولاً دارای تعداد زیادی کلمات متمایز برای پردازش کارآمد در رایانه هستند. یک راه حل این است که همه کلمات را به یک مترادف نگاشت کنید. به عنوان مثال، غول و بزرگ و بزرگ همه به بزرگ نگاشت می شوند. من همچنین میخواهم چند معنایی را توضیح دهم، که در آن کلمات میتوانند بیش از یک معنی داشته باشند. اگر بخواهم همه کلمات را به مترادف آنها تبدیل کنم در حالی که همه دو، سه تایی و غیره ممکن را در نظر بگیرم. به نظر شما تعداد کلمات متمایز در یک سند افزایش می یابد یا کاهش می یابد؟ (توجه: فرض کنید که همه کلمات قبلاً ریشه شده باشند). علاوه بر این، آیا کسی پیشنهاد API خوبی برای این دارد؟ (ترجیحاً جاوا) به منظور پرداختن به برخی مسائل از نظرات زیر: پایگاه داده اسناد من عمدتاً از انجمن های وب و پیوندهایی تشکیل شده است که از طریق انجمن ها واکشی می شوند (یک خزنده وب برای خزیدن حدود 10 میلیون سایت تا کنون با بسیاری از سایت ها استفاده شده است. بیشتر در راه است). و شاید این سوال بهتری برای پرسیدن باشد: برای هر کسی که روشهای مختلف کاهش ابعادی را امتحان کرده است، آیا نگاشت کلمات به مترادفها را مفید میدانید، و اگر چنین کردهاید، پس چندمعنی را چگونه محاسبه کردهاید؟ | کاهش ابعادی با مترادف و چندمعنی |
34997 | من می خواهم یک رگرسیون لجستیک ترتیبی در R بدون فرض شانس تناسب انجام دهم. من می دانم که می توان این کار را مستقیماً با استفاده از تابع vglm() در R با تنظیم parallel=FALSE انجام داد. اما مشکل من این است که چگونه می توان مجموعه خاصی از ضرایب را در این تنظیم رگرسیون برطرف کرد؟ برای مثال، فرض کنید متغیر وابسته $Y$ گسسته و ترتیبی است و می تواند مقادیر $Y = 1$، $2$، یا $3$ را بگیرد. اگر رگرسیونها $X_{1}$ و $X_{2}$ باشند، معادلات رگرسیون $$ \begin{aligned} {\rm logit} \big( P(Y \leq 1) \big) &= هستند. \alpha_{1} + \beta_{11}X_{1} + \beta_{12}X_{2} \\\ {\rm logit}\big(P(Y \leq 2) \big) &= \alpha_{2} + \beta_{21}X_{1} + \beta_{22}X_{2} \end{aligned} $$ میخواهم $\beta_ را تنظیم کنم{11 }$ و $\beta_{22}$ تا $1$. لطفا به من بگویید چگونه می توانم به این هدف برسم. همچنین اگر R نمی تواند این کار را انجام دهد، لطفاً به من اطلاع دهید که آیا می توانم در هر نرم افزار آماری دیگری به این هدف برسم؟ | چگونه یک ضریب را در یک رگرسیون لجستیک ترتیبی بدون فرض شانس متناسب در R ثابت کنیم؟ |
14443 | من تعجب میکنم که آیا رویکرد مستقیمی برای تبدیل یک فرآیند گاوس-مارکوف، یعنی یک فرآیند اتورگرسیو مرتبه اول با i.i.d وجود دارد. ورودی گاوسی، با ماتریس کوواریانس $K=Toeplitz(1, \rho, \rho^2, \ldots, \rho^{N-1})$ که $0 \leq \rho < 1$ ضریب همبستگی نرمال شده است، به i.i.d. فرآیند گاوسی همانطور که میدانم، میتوانم تجزیه ارزش ویژه-بردار ویژه (KLT) را اعمال کنم تا فرآیند غیرهمبسته و مستقل باشد (از آنجایی که فرآیند به طور مشترک گاوسی است)، اما فرآیند تبدیل شده به دلیل تنوع واریانسها (مقادیر ویژه) به طور یکسان توزیع نمیشود. پیشاپیش خیلی ممنون فرزاد | چگونه می توانم یک فرآیند Gauss-Markov را به i.i.d تبدیل کنم؟ فرآیند گاوسی؟ |
41304 | من دیده ام که r پیرسون معمولاً برای ارزیابی بین شرایط غیر تجربی استفاده می شود. با این حال، من همچنین R پیرسون را دیده ام که برای نشان دادن اندازه افکت استفاده می شود - آیا این قابل قبول است؟ آیا حداقل آمار توصیفی مفیدی است؟ به عنوان مثال، دو گروه از دانش آموزان وجود دارد. در یک گروه دانش آموزان برای انجام یک کار به صورت جفت قرار می گیرند، در گروه دیگر آنها نه. (این وظیفه ای است که به موجب آن باید در طول زمان انتظار بهبودی داشت.) اندازه اثر متوسطی بین زمان و شباهت بین شرکا پس از گروه بندی وجود دارد. آیا این کافی است: r = 0.25 برای دانش آموزان زوج در طول زمان، و 0.67، 0.4، 0.3 پس از گروه بندی به صورت جفت. (به نظر می رسد که نشان می دهد که افراد غیر جفت شده هیچ شباهت قابل توجهی به بقیه افراد در طول زمان نشان نمی دهند.) | مقایسه شباهت ساده در طول زمان |
108462 | آیا مفاهیم عادی سازی و مقیاس بندی داده ها در تضاد با یکدیگر هستند؟ من وزنهها را به ویژگیهایم اضافه میکنم، وزنها را نرمالسازی کردم و هیچ تفاوتی در نتیجه نداشت. من همچنین داده های ورودی خود را مقیاس بندی کرده ام. و نتایج مثبت گرفت با این حال، من از منابع دیگر شنیده ام، همدانشجویان - نه چندان قابل اعتماد، که باید ** وزنه ها را مقیاس کنم**. بنابراین من نسبتاً گیج شدهام، نمیدانم واقعاً چیز سادهای است و من یک بلوک ذهنی دارم یا چیز پیچیدهتری است که نمیفهمم. | عادی سازی در مقابل مقیاس بندی |
109280 | من موارد زیر را دارم که سعی می کنم با فیلتر ذرات مدل سازی کنم. \begin{align*} y_{i,t}&\sim\mathrm{Poisson}\left(\lambda_{i,j,t}\right)\\\ y_{j,t}&\sim\mathrm{ Poisson}\left(\mu_{i,j,t}\right) \end{align*} \begin{align*} \lambda_{i,j,t}&=\delta_1\exp\left(\alpha_{i,t}-\alpha_{j,t}\right)\\\ \mu_{i,j,t}&= \delta_2\exp\left(\alpha_{j,t}-\alpha_{i,t}\right) \end{align*} \begin{align*} \alpha_{i,t}&\sim\mathrm{N}\left(\alpha_{i,t-1},\sigma_{\alpha}^2\راست)\\\ \alpha_{j,t}& \sim\mathrm{N}\left(\alpha_{j,t-1},\sigma_{\alpha}^2\right)\\\ \end{align*} کجا: t یک شاخص زمان، $t=1،\ldots،5320$; $i,j\in\left\lbrace 1,\ldots,40\right\rbrace$, $i\ne j$ (بنابراین در مجموع 40 حالت اما فقط 2 حالت به روز رسانی در هر بار $t$). حالت های $\alpha$ مشاهده نشده است. و $y$ برای هر $t$ مشاهده می شود. برای سادگی، فرض کنید مقادیر $\delta_1$، $\delta_2$، و $\sigma_{\alpha}^2$ هر دو شناخته شده و ثابت هستند. ایده من این بود که برای هر حالت مجموعه ای از ذرات داشته باشم. سپس با استفاده از معادلات حالتها، آنها را (2 مجموعه در زمان $t$) با نویز گاوسی بهروزرسانی کنید. با توجه به این مقادیر، لامبداها را می توان محاسبه کرد و سپس توزیع های شرطی برای $y_{i,t}$ و $y_{j,t}$، با توجه به حالت ها، شناخته می شوند. با این حال، در محاسبه وزنهای اهمیت از توزیعهای شرطی $y_{i,t}|\alpha_{i,t},\alpha_{j,t}$ و $y_{j,t}|\alpha_{j,t },\alpha_{i,t}$، دو مجموعه وزن اهمیت از \begin{align*} دریافت می کنید y_{i,t}&|(\alpha_{i,t}-\alpha_{j,t})\\\ y_{j,t}&|(\alpha_{j,t}-\alpha_{i, t}). \end{align*} سوال من این است که چگونه ذرات را برای $\alpha_{i,t}$ و $\alpha_{j,t}$ مجدداً نمونهبرداری کنم، یا احتمالاً چگونه میتوانم این کار را به روشی متفاوت انجام دهم تا بر مشکل غلبه کنم. من با روشهای متوالی مونت کارلو نسبتاً تازه کار هستم، بنابراین هرگونه توصیه یا پیشنهاد دیگری برای مقابله با این مشکل قدردانی خواهد شد. | فیلتر ذرات (مونته کارلو متوالی) برای یک مدل سلسله مراتبی غیر گاوسی |
34990 | من از رگرسیون لجستیک چند جمله ای برای پیش بینی درصد دانش آموزانی که به استفاده از تهویه طبیعی در سه کلاس درس مشاهده شده در فصول سرد و گرم رای «قابل قبول»، «نامشخص» و «غیرقابل قبول» دادند، استفاده کردم. مجموعه IV های قابل توجهی از موارد فصل سرد و گرم متفاوت بود. به عنوان مثال، تأثیر اندازه پنجره (یعنی کوچک، متوسط، بزرگ) بر پذیرش تهویه طبیعی برای موارد فصل سرد قابل توجه بود اما برای موارد فصل گرم نه. سوال 1: چگونه می توانم درصد آرای «قابل قبول» دو فصل را با هم مقایسه کنم؟ آیا می توانم مستقیماً به تفاوت درصدهای پیش بینی شده بین دو فصل نگاه کنم؟ سوال 2: چگونه می توانم درصد آرای قابل قبول دانش آموزان را در اتاق هایی با اندازه پنجره های مختلف مقایسه کنم؟ متشکرم. لطفاً مرا به خاطر انگلیسی بدم ببخشید زیرا من انگلیسی زبان مادری نیستم. | آیا می توانیم به سادگی درصدهای پیش بینی شده نتیجه را بین مطالعات مقایسه کنیم؟ |
15822 | من مدل ساده ای برای محاسبه برخی از ویژگی های آزمایش پزشکی دارم. * $T$=test * $D$=بیماری * $D+$= بیماری موجود * $T+$= تست مثبت (بله\خیر) $P(D+)$ بسیار کوچک است (0.000001). مشکل این است که من نمی دانم احتمال مثبت بودن تست در جمعیت عمومی چقدر است. این یک تست بسیار جدید است و هنوز مشخصات دقیق این تست بسیار گران قیمت را نمی دانیم. نتیجه آزمایش می تواند تحت تأثیر عوامل زیادی باشد. با توجه به این تعریف مشکل، چگونه می توانم این عوامل بسیاری را که ممکن است نتیجه آزمایش را تغییر دهند (باعث مثبت کاذب یا مثبت کاذب) در مدل بیزی پایه عمومی خود در زیر بگنجانم؟ مدل من $P(T+|D+) = P(D+|T+)P(D+) / P(D+)$ است متشکرم | محاسبه بیزی با عوامل مستقل مرکب |
18964 | من دادههایی از یک نظرسنجی با سؤالهای نوع لیکرت دارم (در مقیاس 1 تا 10 به شدت نسبت به این موضوع امتیاز دهید). ما شهر زادگاه پاسخ دهندگان را می شناسیم (و همچنین برخی اطلاعات دیگر، مانند جنسیت، سن، سطح تحصیلات و غیره). ما دریافتیم که میانگین (میانگین) نمره در یکی از سؤالات نظرسنجی برای شرکت کنندگان در نظرسنجی از یک شهر بسیار بیشتر از سایر شهرها بود. در اینجا سؤالات من وجود دارد: چگونه آزمایش کنیم که آیا به طور قابل توجهی چنین است؟ * آیا می توانیم شهر A را در مقابل همه شهرهای دیگر با هم آزمایش کنیم؟ * یا باید آن را در مقابل شهر دیگر آزمایش کنیم؟ (آزمایش Anova با همه شهرها و به دنبال آن تست های پس از آن انجام دهید؟) هر اشاره ای بسیار قدردانی می شود! | میانگین یک گروه در مقابل بقیه نمونه |
34998 | من به دو همبستگی مختلف نگاه میکردم (BU-OEU و BC-OEC) و متوجه شدم که **هر دو به طور قابل توجهی منفی هستند** (به **شکلهای 1 و 2** مراجعه کنید). با این حال، با توجه به دادههای پایینتر از «BU» و «BC» («> 0.1»)، به نظر میرسد که **گسترش امتیازات بسیار بیشتری برای «OEU» نسبت به «OEC»** وجود دارد (با نادیده گرفتن نقطه پرت در «OEC» **شکل 3 و 4** را ببینید. **آیا راهی برای تعیین کمیت این موضوع وجود دارد؟** شاید به کوتاهی + انحراف معیار فکر می کردم، اما مطمئن نیستم. **شکل 1**  **شکل 2**  **شکل 3**  **شکل 4**  | چگونه اختلافی را که فقط در زیرمجموعه ای از داده ها وجود دارد تعیین کنم؟ |
14448 | در اینجا ساختار data.frames من است: > str(c) 'data.frame': 21633 obs. از 20 متغیر: $ تجارت : num 7e+12 7e+12 7e+12 7e+12 7e+12 ...
$ جدید : فاکتور w/ 2 سطح N، Y: 1 1 1 1 1 1 1 1 1 1 ... $ اصلاح شده : فاکتور w/ 2 سطح N،Y: 1 1 1 1 1 1 1 1 1 1 1 ...
$ Unwound : Factor w/ 2 level N,Y: 1 1 1 1 1 1 1 1 1 1 1 ... $ ثابت شده : Factor w/ 2 level N,Y: 1 1 1 1 1 1 1 1 1 1 1 ...
$ FX.Fixed : Factor w/ 2 level N,Y: 1 1 1 1 1 1 1 1 1 1 1 ... $ شاخه : Factor w/ 1 level nil: 1 1 1 1 1 1 1 1 1 1 ...
$ واحد پول : فاکتور w/ 8 سطح AUD، EUR، USD،..: 1 1 1 1 1 1 1 3 1 1 ... $ محصول : Factor w/ 4 سطح A,B C،...: 2 2 2 2 2 2 2 2 2 2 ...
$ Today.NPV : num 444 222 0 0 -77777 ... $ Today. Unreal : num 13.4 5555.54 0 0 6666.36 ...
$ امروز. واقعی : num 0 0 0 0 0 0 0 0 0 0 ... $ MTD.Real : num 0 0 0 0 0 0 0 0 0 0 ...
$ MTD.Unreal : num 222 -333 0 0 -444 ... $ New.Deals.P.L: num 0 0 0 0 0 0 0 0 0 0 ...
$ Amend.P.L : num 0 0 0 0 0 0 0 0 0 0 ... $ Unwind.P.L : num 0 0 0 0 0 0 0 0 0 0 ...
$ Fixing.P.L : num 0 0 0 0 0 0 0 0 0 0 ... $ Carry.P.L : num 16.6 81.9 0 0 -319.3 ...
$ FX.Fixing.P.L: num 0 0 0 0 0 0 0 0 0 0 ... > str(predict) 'data.frame': 735755 obs. از 7 متغیر: $ X.Financial.Object. : num 7e+12 7e+12 7e+12 7e+12 7e+12 ...
X.Scaling.Crency. : فاکتور w/ 7 سطح AUD،CAD،EUR،..: 4 4 4 4 4 4 4 4 4 4 ... $ X.Burity..date.. : Factor w/ 108 level 12 آگوست 2011، 12 آگوست 2014،...: 22 98 95 88 85 ...
$ X.Rate.Change. : num 0 0 0 0 0 0 0 0 0 0 ... $ X.Env.COB.Date. : int 20110815 20110815 20110815 20110815 20110815 ...
X. پیش بینی. : num 74.36 -3.84 16.77 4.66 11.88 ... $ X.گزارش.ارز.: فاکتور w/ 7 سطح AUD،CAD،EUR،...: 4 4 4 4 4 4 4 4 4 4 . .. **هدف 1:** اولین قاب داده 'c' را جمع کنید تا همه اعداد جمع شوند مقادیر بر اساس ارز من به فیلدهای متنی غیر از فیلد ارزی که سعی کردم از آن استفاده کنم نیازی ندارم > aggregate(x=c, by=list(Currency), FUN=sum) خطا در FUN(X[[1L]]، .. .) : آرگومان ها باید طول یکسانی داشته باشند ظاهراً نادرست است. **هدف 2:** من می خواهم data.frame c را با پیش بینی با استفاده از این رابطه ادغام کنم: c.Trade == predict.Financial.Object سعی کردم: > cc = merge(c, predict, by=c (Trade، Financial.Object)) خطا در fix.by(by.x، x): by باید ستون(های) معتبری را مشخص کند، اما کار نمی کند. یک سوال دیگر: چرا نام فیلدها در قاب داده 'پیش بینی' دارای نقطه هستند؟ راه صحیح مراجعه به آنها چیست؟ | چگونه این دو data.frame را جمع و ادغام کنیم؟ |
15445 | من به دنبال راهنمایی برای این هستم که در مورد این مشکل از کجا شروع کنم. فرض کنید من دادههای معاملات فروش از تعدادی خردهفروش مختلف دارم که همگی محصولات مشابهی را میفروشند. حتی اگر آنها محصولات مشابهی را می فروشند، همه آنها را کمی متفاوت تشخیص می دهند. به عنوان مثال برای یک محصول خاص، یک خرده فروش آن را Kellogs Corn Flakes 20oz می نامد. و دیگری آن را Kel CF, 20 می نامد. و نمایندگی های دیگری برای 100 خرده فروشان دیگر وجود دارد. مشکلی که باید حل شود این است که چگونه هر یک از محصولات مختلف را به مجموعه استانداردی از توضیحات محصول نگاشت کنیم تا بتوان داده ها را جمع کرد. فرض کنید که من گروهی از خرده فروشان را قبلاً به صورت دستی نقشه برداری کرده ام. من در ذهنم به این موضوع پرداختم که از کجا شروع کنم. آیا این یک مشکل جستجو است که من در نظر میگیرم پرس و جو جستجو نماینده خردهفروش است و توضیحات استاندارد «سند» برای یافتن است؟ یا این یک مشکل طبقه بندی است که من سعی می کنم هر توضیحات را به یک دسته توصیف استاندارد محصول طبقه بندی کنم؟ یا میتواند به نحوی شناسایی موجودیت نامگذاری شده در آن نقش داشته باشد. هر توصیه ای که می توانید برای شروع به من ارائه دهید بسیار قدردانی خواهد شد. من به ابزارهایی مانند Apache Lucene، Solr و OpenNLP نگاه کردهام، اما برای من روشن نیست که چگونه مشکل را مشخص کنم. | نحوه مشخص کردن مشکل استانداردسازی توضیحات محصول |
6978 | این از رگرسیون خطی آنلاین کارآمد الهام گرفته شده است که به نظر من بسیار جالب بود. آیا متون یا منابعی وجود دارد که به محاسبات آماری در مقیاس بزرگ اختصاص داده شده است، که به موجب آن محاسبات با مجموعه دادههای آنقدر بزرگ هستند که در حافظه اصلی جای نمیگیرند، و شاید برای نمونهگیری مؤثر بسیار متنوع باشند. به عنوان مثال، آیا می توان مدل های جلوه های ترکیبی را به صورت آنلاین جا داد؟ آیا کسی به اثرات جایگزینی تکنیک های استاندارد بهینه سازی مرتبه دوم برای MLE با تکنیک های نوع SGD مرتبه 1 نگاه کرده است؟ | روش های آماری مقیاس پذیر آنلاین |
14392 | هدف تخمین خطا در نرخ رویداد تصادفی به صورت پویا است. این سؤال در همین راستا است، من به یک بسط نظری علاقه مند هستم. من شمارنده رویداد را در مرحله دوم خواندم، هر $1$ سیاه یک رویداد شمارش شده است (رویدادهای جدید در طول زمان، به طرح زیر مراجعه کنید). در طول اندازهگیری، من نرخ رویداد را تخمین میزنم، بنابراین با جمعآوری آمار بیشتر، میانگین نرخ رویداد (قرمز) باید به طور مجانبی دقیقتر شود.  همانطور که می بینید، مقدار میانگین حول مقدار واقعی 0.5 نوسان می کند حتی پس از یک مرتبه بزرگی رویدادهای بیشتری جمع آوری شد. **سوال عملی:** چگونه می توان تعداد رویدادهای مورد نیاز برای تخمین مقدار میانگین تا حداکثر خطا (0.5$\pm\sigma$) را محاسبه کرد؟ - **جواب (؟)اینجا ** **سوال نظری:** آیا می توان این نوسان را به صورت تحلیلی توصیف کرد؟ آیا می توانید مطالعه بیشتر را پیشنهاد دهید؟ رویدادها تعداد تشعشعات هستند، بنابراین آنها با هم مرتبط نیستند، آیا می توان توزیع پواسون را اعمال کرد؟ **اضافه:** تقریب اول ایده آل - هر دهمین رویداد غیرصفر است:  ممکن است این منحنی با زندگی واقعی همراه باشد در مثال بالا، آیا هر تکنیکی برای پارتیشن بندی در توابع دلخواه در اینجا قابل اجرا است؟ | میانگین پویا رویدادهای توزیع شده تصادفی |
76576 | من روی داده های آب و هوایی کار خواهم کرد تا پیش بینی کنم که آیا بیماری روی یک محصول اتفاق می افتد یا خیر. در طول جستجو متوجه شدم که رگرسیون لجستیک بهترین انتخاب برای تحقیق من است، اما مشکلات متعددی دارد که منجر به کاهش پیش بینی شده است. من در تحلیل پیش بینی تازه کار هستم و نمی دانم چگونه دقت پیش بینی خود را افزایش دهم. چندین روش انتخاب با آن استفاده می شود. کدام یک برای انتخاب داده ها متناسب با مدل بهتر است. کدام نوع رگرسیون به من در این تحقیق کمک می کند؟ | چگونه می توانم دقت پیش بینی وقوع رویداد را با استفاده از رگرسیون لجستیک افزایش دهم؟ |
14194 | فرض کنید مجموعه ای از مسیرها را در صفحه $y,t$ ثبت کرده اید، با $y = f(t)$، $f$ یک تابع تصادفی است (یعنی یک عبارت نویز وجود دارد)، و $t$ ممکن است زمان باشد. یا یک متغیر مستقل افزایشی یکنواخت دیگر. فرض کنید که می دانید فرآیند زیربنایی تصادفی است، به این معنی که مجموعه شرایط اولیه یکسان (حتی، متغیرهای پنهان) مسیر یکسانی را ایجاد نمی کند. فرض نکنید که تغییرات $y$ مستقل یا حتی ثابت هستند (البته، تغییرات ثابت اما وابسته یک مورد خاص مهم است). چه تکنیک هایی برای شبیه سازی یک منحنی ناقص در آینده وجود دارد؟ منظور من از منحنی «ناقص» این است: مجموعه منحنیهای تاریخی شما _هر کدام در محدودهای از علاقه، $T=[0,t_{max}]$ هستند. منحنی به شما داده میشود که نشاندهنده دادههای $y_1(t)$ است که تا مقدار میانی $t' \در T$ ثبت شدهاند. | چه تکنیک هایی برای شبیه سازی تجربی و تصادفی یک سری زمانی استفاده می شود؟ |
108460 | من از الگوریتم های یادگیری نظارت شده (به ویژه SVM) روی داده های خود استفاده می کنم. می دانم که برای داده های ورودی من به مقیاس بندی نیاز بود. با این حال، از آنجایی که وزنها را نیز اضافه میکنم (با استفاده از مقایسه زوجی)، مطمئن نیستم که آیا وزنهای من نیز باید مقیاس شوند. منظورم نرمال کردن وزنه ها نیست. | آیا وزنه ها هم باید مقیاس شوند؟ |
15826 | فرض کنید من (مثلاً با مدل لاجیت) به یک گروه 10000 مشتری با توجه به پتانسیل خرید یک محصول امتیاز می دهم و تصمیم دارم با یک پیشنهاد ویژه با 1000 نفر برتر تماس بگیرم. من از رفتار قبلی مشتریان به عنوان داده های آموزشی خود استفاده می کنم. تا اینجا این فقط یک مشکل طبقه بندی معمولی است. با این حال، سوال من به برنامه بلندمدت من مربوط می شود: چگونه باید نتایج این کمپین را در امتیازدهی بعدی خود بگنجانم؟ فرض کنید که من میخواهم هر چند ماه یک بار به مشتریان امتیاز بدهم و پیشنهادهای جدید ارسال کنم. بازخورد آخرین دور (= آگاهی از اینکه چه کسی پیشنهاد را دریافت کرده و چه کسی نپذیرفته) اطلاعات ارزشمندی برای تنظیم مدل است. اما در عین حال، نمونه ای که این اطلاعات جدید از آن استخراج شده است، نمونه ای معرف از کل پایگاه داده مشتریان نیست (من فقط از 1000 با بالاترین امتیاز بازخورد دریافت می کنم). اگر من یک مدل جدید را صرفاً بر اساس آخرین دور آموزش دهم، به سرعت به سمت مدلی خواهم رفت که به طور کامل از مشتریان با امتیاز کمتر غفلت می کند. با این حال، اگر من فقط از داده های اصلی استفاده کنم (و متغیرهای مرتبط با 1000 مشتری انتخاب شده برای کمپین را به روز کنم) احساس می کنم که وزن کافی برای اطلاعات جدید قائل نیستم و این نیز یک سوگیری ایجاد می کند: زیرا فقط 1000 مشتری انتخاب شده مشتریان مقادیر به روز شده را دریافت می کنند، به احتمال زیاد آنها ممکن است (یا ممکن است) من را در دور بعدی انتخاب کنند. به عنوان مثال، اگر یک متغیر مرکزی در مدل من تأخر باشد (مثلاً مدت زمان کوتاهتری از آخرین کمپین، احتمال خرید مجدد مشتری بیشتر میشود)، آن چیزی که اخیراً انتخاب شده است مزیت غیرمنصفانهای نسبت به دیگر کمپینهای پنهان دارد. بالقوه در پایگاه داده مشتریان معمولا در این مواقع چه گزینه ها و راه حل هایی اجرا می شود؟ بیایید بگوییم که این روند امتیاز دهی باید ده ها بار تکرار شود. | مدل طبقه بندی مجدد با داده های مغرضانه برآورد شود |
13873 | بیایید بگوییم که فاصله ای را بین N مورد تعریف می کنیم که یک متریک نیست. بر اساس این فاصله، ما از یک خوشه بندی سلسله مراتبی انبوهی استفاده می کنیم. آیا میتوانیم از هر یک از الگوریتمهای شناخته شده (پیوند تک/حداکثر/متوسط و غیره) برای به دست آوردن نتایج معنادار استفاده کنیم؟ یا به عبارت دیگر، اگر فاصله متریک نباشد، استفاده از آنها چه مشکلی دارد؟ | آیا فاصله باید یک «متریک» باشد تا خوشهبندی سلسله مراتبی روی آن معتبر باشد؟ |
34993 | من روی آزمایشی کار میکنم که در آن سعی میکنیم رویدادها را بر اساس تقریباً 20 ورودی با استفاده از یک شبکه عصبی پیشخور (آموزش داده شده از طریق انتشار پسانداز) به سه دسته دستهبندی کنیم. متأسفانه، بسیاری از متغیرهایی که تبعیض خوبی ارائه می دهند در برخی شرایط بی معنی می شوند. تا کنون، رویه به این صورت بوده است که متغیرهای بی معنی را روی مقداری مکان نگهدار که خارج از محدوده نرمال برای آن متغیر است، تنظیم کنیم. اما این تقریباً نیمی از ورودیها در چیزی شبیه به نیمی از رویدادها است. طبقهبندی آنطور که ما میخواهیم قوی نیست، بنابراین گزینههایی که من به آنها رسیدهام عبارتند از: 1. رویدادها را بر اساس وجود متغیرهای غیرقابل اعتماد تقسیم کنید، چندین شبکه عصبی را روی نمونههای فرعی آموزش دهید. سپس نمونه های طبقه بندی شده ادغام می شوند. 2. به دستهبندیکننده دیگری بروید (درختهای تصمیم تقویتشده در زمینه من بسیار محبوب هستند) که اطلاعات از دست رفته را به طور طبیعیتر مدیریت میکند. آیا یکی از این رویکردها آشکارا برتر است؟ آیا گزینه واضح دیگری وجود دارد که من گم کرده ام؟ | طبقهبندیکننده نظارتشده برای رویدادهایی که دادههای گمشده دارند |
89335 | شناور شرکت %9.0g شناسه شرکت سال شناور %9.0g سال، 82-88 va شناور %9.0g ارزش افزوده در میلیون لیره شناور نیروی کار %9.0g کارکنان دائمی در پایان سال شناور سرمایه 9.0% دارایی های ثابت به بهای تمام شده تاریخی به میلیون ها از لیر عضو شناور 9.0% نسبت کارکنان دائمی که عضو تعاونی کارگری شناور پاداش 9.0% هستند میانگین سود توزیع شده به ازای هر کارگر بر حسب میلیون لیر شناور خود 9.0 گرم میانگین سهام سرمایه هر کارگر-عضو در میلیون لیره pindex شناور 9.0 گرم شاخص قیمت کالا و خدمات با 1985 = 1 kp شاخص شناور 9.0 گرم شاخص قیمت کالاهای سرمایه ای با 1985 = 1 ژن RVA = va/pindex gen ROWN = خود / pindex ژن RBONUS = bonus/pindex COOP = یک متغیر ساختگی برای تعاونی کارگری. (از FIRM برای ایجاد COOP استفاده کنید.) lnQ = لگاریتم طبیعی خروجی (ارزش افزوده واقعی -- RVA) lnL = لگاریتم طبیعی نیروی کار lnK = لگاریتم طبیعی موجودی سرمایه واقعی (RCAPITAL) . xtreg lnQ lnL lnK عضو ROWN RBONUS t83 t84 t85 t86 t87 t88، i(firm) fe رگرسیون با اثرات ثابت (در داخل) تعداد obs = 410 متغیر گروه: شرکت تعداد گروه ها = 87 R-sq: درون 26 Obs در هر 2 گروه. : حداقل = 1 بین = 0.6663 ag = 4.7 کلی = 0.7219 max = 7 F(11,312) = 8.12 corr(u_i, Xb) = 0.1447 Prob > F = 0.0000 ------------------------------------------------ ---------------------------- lnQ | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ lnL | .5887753 .088453 6.66 0.000 .4147355 .7628151 lnK | .1322499 .0940503 1.41 0.161 -.0528031 .3173028 ممب | .3400343 .3263662 1.04 0.298 -.3021226 .9821913 ROWN | .0114904 .0370171 0.31 0.756 -.0613443 .0843251 RBONUS | .0508802 .0873018 0.58 0.560 -.1208946 .222655 t83 | -.0421102 .0544063 -0.77 0.440 -.1491598 .0649395 t84 | -.1505105 .0542093 -2.78 0.006 -.2571725 -.0438485 t85 | -.1355591 .0541061 -2.51 0.013 -.2420181 -.0291002 t86 | -.0414257 .0563853 -0.73 0.463 -.1523692 .0695178 t87 | .0662506 .0587879 1.13 0.261 -.0494202 .1819215 t88 | .0377116 .0654083 0.58 0.565 -.0909855 .1664087 _cons | 5.023615 .8488226 5.92 0.000 3.353475 6.693755 ------------------------------------------------ ---------------------------- sigma_u | .44866063 sigma_e | .25416569 rho | 0.75704764 (کسری از واریانس ناشی از u_i) ---------------------------------------- -------------------------------------- آزمون F که همه u_i=0: F(86, 312) = 4.32 Prob > F = 0.0000 چه ویژگی هایی از 87 شرکت موجود در نمونه ممکن است توسط اثرات شرکت در نظر گرفته شود؟ (به یاد بیاورید که اثرات شرکت توسط STATA گزارش نشده است.) اثرات سال ثابت (ضریب بر روی متغیرهای ساختگی YEAR) چه چیزی را می تواند به تصویر بکشد؟ | تفسیر مدل اثر ثابت |
34995 | با آمار خی دو log-likelihood می توانم دو مدل مختلط خطی (Maximum Likelihood) را مقایسه کنم و ببینم کدام یک بهتر است. اما GEE شبه احتمال را تحت معیار مدل استقلال (QIC) میدهد و من درجات آزادی را نمیبینم، بنابراین مطمئن نیستم که چگونه دو مدل را از نظر آماری در مقابل یکدیگر آزمایش کنم و یکی را با بهترین تناسب انتخاب کنم. | چگونه شبه احتمال دو مدل معادله تخمین تعمیم یافته چند سطحی را مقایسه کنم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.