_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
53256
من می دانم که چگونه یک مدل مارکوف پنهان را با استفاده از پیاده سازی متلب الگوریتم baum-welch به دنباله داده برازم. اما اگر یک توالی داده نداشته باشم، بلکه یک دسته از آنها را داشته باشم، چه باید بکنم؟ **چگونه می توانم با مجموعه ای از دنباله ها مطابقت داشته باشم؟** فکر می کنم کاری که می خواهم انجام دهم این است که احتمال خروجی HMM هر یک از دنباله های من را به حداکثر برسانم. آیا بهترین روش برای چنین مشکلی وجود دارد؟
دو سکانس، یک HMM
71648
من تعدادی توالی نمونه از داده ها دارم که می خواهم آنها را با تعداد زیادی توالی داده مقایسه کنم. این نمونه ها در بین پارتیشن بندی شده اند و من می خواهم ببینم کدام ترکیب پارتیشن برای این دنباله ها بهترین تطابق دارند. من معیارهایی برای مقایسه این توالی ها دارم، اما مطمئن نیستم که کارآمدترین راه برای یافتن بهترین گروه بندی پارتیشن برای هر نمونه چیست. به عنوان مثال ما لیستی از دنباله ها داریم مانند: 1,3,4,4,4,4,4,5 2,4,4,4,4,4,4,5,3,3,4 5,6, 3،5،3،3،3،3 2،2،2 و دنباله نمونه: 3،4،4،4،4،4،5||2،2،2 حالا می خواهم بررسی کنم که آیا بهترین ترکیبی از این پارتیشن ها [(3،4،4،4،4،4،5) و (2،2،2)] است [(3،4،4،4،4،4،5) و (2،2،2) ] یا (3،4،4،4،4،4،5،2،2،2) به عنوان دنباله ای از داده ها. من ممکن است بتوانم آن را به راحتی برای ترکیب دو پارتیشن انجام دهم، اما تعداد گزینه های جایگزین برای ترکیب به سرعت افزایش می یابد. بهترین راه برای انجام این کار چیست؟ من ممکن است بتوانم تعداد پارتیشن‌ها را به پایان برسانم مانند 6 یا موارد دیگر، اما می‌خواهم ببینم آیا راه بهتری برای انجام این کار وجود دارد یا خیر.
شبیه ترین ترکیب پارتیشن ها به بقیه گروه ها
37905
اگر کسی از من بخواهد که فاصله اطمینان را تفسیر کنم (مثلاً در سطح اولین دوره تحصیلات تکمیلی در آمار) -- آیا الگوهای معمولی برای چنین تفسیری وجود دارد. منظور من از الگوهای معمولی چیزی شبیه به این است (و لطفاً اگر راه بهتری برای گفتن این موضوع دارید، آن را ویرایش کنید): فاصله گفته شده: 1. دارای خاصیت بین [[چیزی]] و [[چیزی]] 2. به [[Some-Property]] حساس است 3. .... جایی که رشته های بین [[ و ]] را می توان با مقادیر، مفاهیم، ​​پارامترها و غیره جایگزین کرد. راه دیگری شاید بیان این مطلب این است: آیا قبل از اینکه به تفسیر موردی بروید، فهرستی از مواردی وجود دارد که در مورد فاصله اطمینان تفسیر شوند؟ پیشاپیش ممنون توجه: چند سوال جالب در مورد تفسیر فواصل اطمینان در این سایت وجود دارد، مانند: اینجا، اینجا و اینجا \- اما من نتوانستم به این سوال خود پاسخ دهم.
تفسیر فاصله اطمینان
60619
من سه مجموعه داده X، Y و Z دارم. هر مجموعه داده فرکانس وقوع یک رویداد را تعریف می کند. به عنوان مثال: مجموعه داده X: E1:4، E2:0، E3:10، E4:5، E5:0، E6:0 و غیره.. مجموعه داده Y: E1:2، E2:3، E3:7 , E4:6, E5:0, E6:0 و غیره.. مجموعه داده Z: E1:0, E2:4, E3:8, E4:4, E5:1, E6:0 و به همین ترتیب.. من باید واگرایی KL بین X و Y را پیدا کنم. و بین X و Z. همانطور که می بینید برای برخی از رویدادها مقادیر 0 و غیر صفر وجود خواهد داشت. برای برخی از رویدادها، هر سه مجموعه داده 0 هستند. اگر کسی بتواند به من کمک کند تا واگرایی KL را برای این کار پیدا کنم، سپاسگزارم. من زیاد اهل آمار نیستم، بنابراین نظر زیادی ندارم. آموزش هایی که من به صورت آنلاین نگاه می کردم برای درک من کمی پیچیده بود.
چگونه واگرایی/فاصله کولبک-لایبلر را محاسبه کنیم؟
53259
من داشتم تست نرمال بودن متغیرها را انجام می‌دادم و به یکی برخوردم که مقادیر یکسانی برای هر مشاهده داشت. من نمیتونم تست نرمال انجام بدم من چگالی هسته را رسم کردم و طبیعی به نظر می رسد، اما نمودار qq متفاوت می گوید. من قبلاً با این وضعیت روبرو نشده بودم و مطمئن نیستم که چگونه ادامه دهم. آیا می توانم نرمال بودن را فرض کنم و از t.test استفاده کنم یا باید ناپارامتریک باشم؟ من باید تفاوت ها را با نمونه دیگری آزمایش کنم. اگر جواب واضح است ببخشید. به سلامتی در اینجا یک مثال است. فرض کنید 10 فروشگاه داریم که به صورت تصادفی در شهری انتخاب شده اند که همگی یک کالا را می فروشند. قیمت آن کالا در برخی زمان‌ها برای هر فروشگاه 50 دلار است (نمونه 1). مدتی بعد، موادی که برای ساخت آن مورد استفاده می شود کمی سخت تر می شود. پس از در دسترس بودن مواد، قیمت کالا در هر یک از 10 فروشگاه اصلی بررسی می شود، با قیمت های این بار 50,50,50,50,50,50,51,50,50,49 ( نمونه 2). من می خواهم آزمایش کنم که آیا تفاوتی در میانگین قیمت قبل و بعد از تغییر در دسترس بودن مواد وجود دارد یا خیر. ابتدا نرمال بودن را بررسی می کنم، اما این برای نمونه 1 دشوار است زیرا قیمت همه آنها یکسان است. آزمون‌های معمولی برای نرمال بودن برای نمونه 1 کار نمی‌کنند. بنابراین، مطمئن نیستم که بتوانم تفاوت میانگین را با استفاده از آزمون t. مقایسه کنم یا اینکه باید تغییر مکان را با استفاده از یک آزمون ناپارامتریک مقایسه کنم.
همه مشاهدات من یکسان است. از آزمون ناپارامتریک استفاده کنید؟
54706
من داده‌هایی از شرکت‌کنندگانی دارم که محتوای احساسی تصاویر را ارزیابی می‌کنند. به طور خاص، مردم 20 عکس از نقاشی های انتزاعی را می بینند (یکی یکی) و از آنها می پرسند که چه احساساتی در تصویر بیان می شود؟ 5 گزینه برای پاسخ وجود دارد: خشم، ترس، غم، شادی و هیچ کدام. اطلاعات کلیدی در اینجا این است که برای هر تصویر، افراد تنها یکی از گزینه های احساسی را انتخاب می کنند. سپس تعداد عکس‌هایی که به عنوان بیانگر خشم، ترس، غم و غیره رتبه‌بندی شده‌اند را اضافه می‌کنم و ۵ متغیر پیوسته دارم. 5 متغیر پیوسته آشکارا مستقل نیستند زیرا اگر کسی X را به عنوان بیانگر خشم و Y را به عنوان بیانگر شادی رتبه بندی کند، نمی تواند بیش از 20 تصویر (X+Y) را به عنوان بیانگر ترس یا غم انتخاب کند. بنابراین متغیرها همبستگی منفی دارند. سوال من اکنون این است که چگونه می توانم ارتباط بین این احساسات را بررسی کنم اگر مستقل از یکدیگر نباشند؟
همبستگی بین متغیرها از مقیاس انتخاب اجباری
20424
من در حال انجام پایان نامه خود در مورد _الگوریتم تکاملی هستم. برای انجام انواع مختلف جهش، باید اعداد تصادفی را از توزیع‌های **گاوسی، لوی، کوشی** تولید کنم. چگونه می توانم این را پیاده سازی کنم؟ من به **شبه کد** یا **الگوریتم** نیاز دارم. پیشاپیش ممنون
تولید اعداد تصادفی برای گاوسی، کوشی و لوی
20537
ویرایش: من سوال را به روز کردم تا بتوانم درک آن را آسان تر کنم. من فکر می کنم بیش از حد پیچیده بود. من با استفاده از مدل‌های پنهان مارکوف در بازی‌ای که برای یادگیری برنامه‌نویسی می‌سازم، مشکل دارم. من یک بازی دارم که سعی می کند به طور هوشمندانه آنچه در سبد خرید شما وجود دارد را تخمین بزند. به عنوان یک کاربر، قیمت‌های تصادفی برای اقلام به شما داده می‌شود و سپس تنها ارزش کل سبد خود را ارائه می‌کنید. در اینجا یک مثال آورده شده است: مقدار(P) مقدار(روز1)(Q) مقدار(P) مقدار(روز1)(Q) سیب 1 100 2 200 گلابی 2 20 1 20 نارنجی 3 1 3 3 مجموع(T) 121 223 و غیره . تمام برنامه من مقدار (P) و مجموع (T) داده شده است تا بتوانم مقدار (Q) را حدس بزنم. محدودیتی که من می گذارم این است که سبدها نمی توانند بیش از 5٪ تغییر کنند، اما در نهایت مطمئن نیستم که مهم است یا خیر زیرا انسان دشمن نیست و فکر می کنم باید یک الگو در چرخش ها ظاهر شود. **اکنون کجا هستم:** من تمام مقادیر ممکن را ایجاد می کنم که Q می تواند بر اساس P و T باشد (بسیاری از سبدهای ممکن را ایجاد می کند) و سپس همه سبدهای غیرممکن را حذف می کنم. بنابراین در طول چرخش چند سبد ناپدید می‌شوند و تعداد کمی سبد جدید ظاهر می‌شوند. من سعی می‌کنم بفهمم کدام سبد محتمل‌تر است (در آن زمان مشخص، و امیدوارم در طول چرخش‌ها دقیق‌تر شود). **مشکل من:** من در اعمال مدل های مارکوف پنهان برای این مشکل مشکل دارم. منابع مختلف به من گفته اند که این یک مدل مخفی مارکوف است. به من گفته می شود دنباله ای که به دنبال آن هستم مجموعه ای از حالت های پنهان (کمیت) است. این توضیحی است که هنگام ارسال پست دریافت کردم: _ شما دنباله ای از حالت های پنهان دارید که با تعداد هر شی در مرحله زمانی T مشخص می شود. تابع انتقال از حالت های T به حالت های T+1. روش‌های بیزی قوی برای یافتن حالت‌های پنهان وجود دارد - اما می‌توانید انتظار داشته باشید که زمان زیادی طول بکشد تا همگرا شوند._ بنابراین من برای یادگیری در مورد HMM وقت گذاشتم، اما در تطبیق مشکلم با مشکلم مشکل زیادی دارم. متغیرهای مورد نیاز برای HMM این چیزی است که من تا کنون داشته ام: 1. وضعیت = سبدهای ممکنی هستند که برای هر روز ایجاد کرده ام 2. مشاهدات = ارزش نهایی سبد وارد شده توسط کاربر هستند 3. احتمال انتقال = نمی دانم باید ترک کنم یا نه آن را در وزن برابر برای همه ایالت ها یا اگر من باید این را محاسبه کنم. من فرض می‌کنم که این باید در هر نوبت تغییر کند، زیرا سبدهای خاصی بسیار بعید می‌شوند زیرا سبدهای خاص بسیار محتمل هستند. 4. احتمالات انتشار: مطمئن نیستید چه چیزی را در اینجا قرار دهید زیرا همه حالت های ممکن (برای هر چرخش) مقدار نهایی یکسانی دارند. **مشکلات موازی:** مطمئن نیستم که این کمکی می کند یا نه، اما می خواهم به یافتن راه حل کمک کنم، بنابراین به یک مشکل موازی فکر کردم که شاید مفید باشد (اگر بینشی درباره این مشکل دارید، ممکن است به مشکل من کمک کند). من فکر می‌کنم تشخیص کاراکتر شبیه به این است، زیرا جهانی از کلمات وجود دارد (در مورد من سبدهای میوه) و برنامه باید بفهمد که کدام کلمه (سبد) به احتمال زیاد به روشی که کاربر یک جمله را نوشته است، دارد. البته ممکن است در ابتدا کاملاً دقیق نباشد، اما باید خودش را تمرین کند زیرا اشتباه می کند و اصلاح می شود (در مورد من اگر سبد اشتباهی را انتخاب کند که دیگر در نوبت بعدی موجود نیست). من فکر می کنم که این نوعی توزیع احتمال ایجاد می کند. برای یادگیری، من این را در جاوا و پایتون کدنویسی کرده ام، اگر کمک کند اما به زبان اهمیتی نمی دهم، به دنبال منطق هستم. امیدوارم کسی بتواند به من کمک کند تا این مشکل را پیدا کنم. این اولین برنامه واقعی من است و یک چالش بزرگ است اما در این بخش کمی ناامید شده است. بسیار چالش برانگیز است اما من فکر می کنم این یک تمرین یادگیری خوب است.
مشکل در اعمال مدل‌های پنهان مارکوف
37902
من سعی می کنم تحلیلی (تحلیل رونویسی) را که در یک مقاله تحقیقاتی یافتم، بازتولید کنم. بخش روش‌ها می‌گوید: > بعد از نرمال‌سازی، یک آستانه بیان برای هر خط سلول محاسبه شد تا از پروب‌های با شدت کم خلاص شود که می‌توان آن را در نظر گرفت > نویز فنی. ابتدا، مجموعه‌های پروب با افزایش بیان > مقدار مرتب شدند. برای هر مجموعه کاوشگر یک آزمون t انجام شد تا بیان دیفرانسیل > بین این مجموعه کاوشگر و مقدار متوسط ​​> مجموعه های پروب با مقادیر بیان کمتر را ارزیابی کند. من از تابع کوتاه در R برای بازتولید این تحلیل استفاده کرده ام، می خواهم بدانم آیا این روش مناسبی است یا خیر. داده های من از یک آرایه Affymetrix Hugene 1.1 است. پس از نرمال سازی با استفاده از RMA _(dat)_ کد زیر را برای به دست آوردن مجموعه های کاوشگر کمتر بیان شده اجرا کردم: med.exp <- rowMedians(exprs(dat)) med <- shorth(med.exprs) و سپس، یک ` را محاسبه کردم t.test` برای مقایسه هر مجموعه پروب با مقدار _med_ tt <- rep(0.8256, 23) ## 0.8256 مقدار *shorth(med.exprs)* است و من 23 نمونه result.pvalue <- sapply(1:nrow(myAB1_rma.exprs), function(i) t.test(dat[i,], tt) دارم. ) آیا این رویکرد معتبر است؟
تابع shorth در تحلیل R و ریزآرایه
54701
فرض کنید من یک مدل رگرسیون دارم، به عنوان مثال یک مدل رگرسیون لجستیک، که امتیازی بین 0 و 1 ارائه می‌کند که نشان می‌دهد دانش‌آموز با توجه به متغیرهای خاصی، یک درس را می‌گذراند یا نه: * متغیرهای مربوط به جمعیت شناسی / عملکرد تحصیلی گذشته آن دانش آموز * متغیرهای توصیف کننده دوره، مانند موضوع دوره، خواه سطح 100، 200، 300 و غیره باشد، شاید ترم قبلی میزان قبولی برای آن دوره و اینکه خروجی مدل رگرسیون لجستیک به گونه‌ای کالیبره شده است که پاسخ، امیدواریم، احتمالات قابل اعتمادی باشد. با در نظر گرفتن زیرمجموعه ای از جامعه، به عنوان مثال یک بخش یا یک دوره، نرخ قبولی مورد انتظار برای آن زیرمجموعه باید میانگین احتمالات خروجی توسط لجستیک برای آن زیر مجموعه، بر اساس خطی بودن انتظارات باشد. آیا این روش معقولی برای پیش‌بینی نرخ‌های عبور برای این زیرگروه‌ها است، یا باید انتظار داشته باشم که این نرخ‌های قبولی پیش‌بینی‌شده به دلایلی غیرقابل اعتماد باشد (مثلاً مدل احتمالاً برای زیرجمعیت‌های خاص نادرست است، حتی اگر دقت کلی کاملاً خوب باشد). من در مورد مدل سازی چند سطحی خوانده ام. آیا این رویکرد کمک می‌کند تا این پیش‌بینی‌ها برای زیرجمعیت‌ها قابل اعتمادتر باشند؟ همچنین، من داده‌های نرخ قبولی تاریخی برای هر یک از دروس و بخش‌ها دارم، بنابراین می‌توانم نرخ قبولی پیش‌بینی‌شده را بر اساس احتمالات برای هر دانش‌آموز در یک دوره یا بخش با نوعی پیش‌بینی میزان قبولی بر اساس زمان ترکیب کنم. -سری از نرخ پاس تاریخی. گنجاندن این اطلاعات سری زمانی ممکن است در سطح دپارتمان که در آن تعداد زیادی دانشجو وجود دارد کمک بیشتری کند. آیا رویکردهای دیگری وجود دارد که بتوانید توصیه کنید یا اشکالاتی در رویکرد فعلی وجود دارد که بتوانید به آنها اشاره کنید؟
مدل سازی نرخ قبولی برای بخش ها و دوره های آموزشی در یک مدرسه
37909
در گذشته من مدل‌های پنهان مارکوف (HMM) را برای تشخیص توالی با الگوریتم Baum-Welch آموزش داده‌ام، به طوری که اگر کلاس‌های $n$ وجود داشت، از داده‌های آموزشی $D_i$ برای یک کلاس $i$ برای تولید یک HMM استفاده می‌کردم. برای تشخیص کلاس $i$. داشتم اطراف را مطالعه می کردم و دیدم که راهی برای ایجاد یک HMM بزرگ و آموزش آن با استفاده از $D = \cup_{i=1}^n D_i$ وجود دارد که بتوانم کلاس را از طریق مشاهده توالی حالت بهینه (به دست آمده از طریق) تشخیص دهم. الگوریتم ویتربی) برای تعیین کلاس. من معتقدم که به این می‌گویند آموزش از طریق تنظیم مجدد ویتربی، اما مطمئن نیستم. هر گونه کمک در مورد این موضوع قدردانی خواهد شد.
تنظیم مجدد ویتربی
48176
برای سری های زمانی به کمک نیاز دارم. در گروه $A$ سری زمانی $N$ دارم. اینها ویژگی های ارزشی هستند که از سیگنال EEG (الکتروانسفالوگراف) در هر جلسه درمان استخراج می شوند. در گروه $B$ من یک سری زمانی دارم که نتیجه یک تست روانشناسی در هر جلسه است. من می خواهم سری زمانی را از گروه $A$ پیدا کنم که بیشترین همبستگی را با $B$ _OR_ دارد، ترکیبی از چندین سری زمانی را در گروه $A$ پیدا کنم که همبستگی بالایی با سری زمانی $B$ دارند. **سوالات من این است**: 1) آیا همبستگی برای یافتن شباهت بین سری های زمانی کافی است؟ اگر نه راه این کار چیست؟ 2) چگونه می توانم ترکیبی از سری های زمانی (خطی یا غیر خطی) داشته باشم؟ آیا امکان ترکیب آنها وجود دارد؟ آیا چنین ترکیبی نیاز به عادی سازی دارد؟ چگونه می توانیم از گروه $A$ یک ترکیب بهینه از سری های زمانی بسازیم به نحوی که این ترکیب با سری زمانی $B$ همبستگی بالایی داشته باشد؟
ترکیب سری های زمانی
99471
من عمدتاً به کمک نیاز دارم تا بفهمم چه آماری را باید روی داده‌هایم اعمال کنم، زیرا این یک مشکل بسیار عجیب است: ارزهای رمزنگاری شده درک خود از زمان را بر اساس تعداد بلوک‌ها می‌دانند. یک بلوک در اصل خروجی یک تابع _mining_ است که برای تکمیل آن زمان متغیری نیاز دارد. تابع زیربنایی سعی می کند خود را به طور خودکار تصحیح کند تا با 1 بلوک در هر 10 دقیقه مطابقت داشته باشد. اما این تنظیم به طور قابل توجهی متفاوت است (فقط هر چند هفته یکبار اعمال می شود) و مکانیسم تنظیم خودکار به طور کلی نمی تواند با نرخ افزایش یافته عملکرد مطابقت داشته باشد. من چندین سال از تعداد بلوک های استخراج شده در روز دارم. من سعی می کنم یک تابع هشدار را پیاده سازی کنم که به کاربر هشدار می دهد که نام آنها در شرف منقضی شدن است. برای انجام این کار، باید مدت زمانی را که برای تکمیل 36000 بلوک دیگر با اطمینان صدک 95-99 طول می‌کشد، تخمین بزنم. به دست آوردن آماری در مورد نرخ استخراج بلوک ها و سپس پایه گذاری نرخ پیش بینی شده برای سال آینده بر اساس یک توپ متوسط ​​بسیار ساده است. اما آیا این به معنای حدس زدن بر میانگین نرخ تغییر بر اساس تخمین میزان نرخ تغییر در آن لحظه در زمان نیست؟ به نظر می رسد که باید بتوانم خیلی بهتر از این کار کنم. من مدل‌های آماری پر کردن سهام را که برای محاسبه اندازه‌های بافر در تولید ناب استفاده می‌شود، اصلاح کردم، اما مطمئن نیستم که آیا این مناسب بود یا خیر.
پیش بینی بازه با نرخ های متغیر تغییر
20423
من از smooth.spline با موفقیت استفاده می کنم، اما باید درجه رگرسیون بین گره ها را کنترل کنم (مکعب برای نیازهای من خیلی زیاد است). من به عملکرد «bs» نگاه کردم، که درجه قابل کنترل را امکان پذیر می کند اما به مشخصات دستی مکان گره نیاز دارد. آیا تابعی در R وجود دارد که گره ها را به طور خودکار برای من پیدا کند، اما اجازه دهید درجه رگرسیون های بین گره را کنترل کنم (مطمئن نیستم که این عبارت درست است یا نه...)؟
Splines با درجه قابل کنترل اما تولید خودکار گره در R
20544
> **تکراری احتمالی:** > مشکل در اعمال مدل های مخفی مارکوف سلام و سال نو به همه مبارک! من با استفاده از مدل‌های پنهان مارکوف در بازی‌ای که برای یادگیری برنامه‌نویسی می‌سازم، مشکل دارم. لطفاً توجه داشته باشید که من فکر می‌کنم HMM آن است که من به آن نیاز دارم، بر اساس مشکل و پیشرفتم، اگر کار دیگری وجود دارد که باید انجام دهم، پس مایلم در مورد آن بیاموزم. **زمینه:** من یک بازی دارم که سعی می کند به طور هوشمندانه آنچه در حال حاضر در سبد خرید شما وجود دارد را تخمین بزند. به عنوان یک کاربر، قیمت‌های تصادفی برای اقلام به شما داده می‌شود و سپس تنها ارزش کل سبد خود را ارائه می‌کنید. در اینجا یک مثال آورده شده است: مقدار(P) مقدار(روز1)(Q) مقدار(P) مقدار(روز1)(Q) سیب 1 100 2 200 گلابی 2 20 1 20 نارنجی 3 1 3 3 مجموع(T) 121 223 و غیره . تمام برنامه من مقدار (P) و مجموع (T) داده شده است تا بتوانم مقدار (Q) را حدس بزنم. محدودیتی که من می گذارم این است که سبدها نمی توانند بیش از 5٪ تغییر کنند، اما در نهایت مطمئن نیستم که مهم است یا خیر زیرا انسان دشمن نیست و فکر می کنم باید یک الگو در چرخش ها ظاهر شود. **اکنون کجا هستم:** من تمام مقادیر ممکن را ایجاد می کنم که Q می تواند بر اساس P و T باشد (بسیاری از سبدهای ممکن را ایجاد می کند) و سپس همه سبدهای غیرممکن را حذف می کنم. بنابراین در طول چرخش چند سبد ناپدید می‌شوند و تعداد کمی سبد جدید ظاهر می‌شوند. من سعی می‌کنم بفهمم کدام سبد محتمل‌تر است (در آن زمان مشخص، و امیدوارم در طول چرخش‌ها دقیق‌تر شود). **مشکل من:** من در اعمال مدل های مارکوف پنهان برای این مشکل مشکل دارم. منابع مختلف به من گفته اند که این یک مدل مخفی مارکوف است. به من گفته می شود دنباله ای که به دنبال آن هستم مجموعه ای از حالت های پنهان (کمیت) است. این توضیحی است که هنگام ارسال پست دریافت کردم: _ شما دنباله ای از حالت های پنهان دارید که با تعداد هر شی در مرحله زمانی T مشخص می شود. تابع انتقال از حالت های T به حالت های T+1. روش‌های بیزی قوی برای یافتن حالت‌های پنهان وجود دارد - اما می‌توانید انتظار داشته باشید که زمان زیادی طول بکشد تا همگرا شوند._ بنابراین من برای یادگیری در مورد HMM وقت گذاشتم، اما در تطبیق مشکلم با مشکلم مشکل زیادی دارم. متغیرهای مورد نیاز برای HMM این چیزی است که من تا کنون داشته ام: 1. وضعیت = سبدهای ممکنی هستند که برای هر روز ایجاد کرده ام 2. مشاهدات = ارزش نهایی سبد وارد شده توسط کاربر هستند 3. احتمال انتقال = نمی دانم باید ترک کنم یا نه آن را در وزن برابر برای همه ایالت ها یا اگر من باید این را محاسبه کنم. من فرض می‌کنم که این باید در هر نوبت تغییر کند، زیرا سبدهای خاصی بسیار بعید می‌شوند زیرا سبدهای خاص بسیار محتمل هستند. 4. احتمالات انتشار: مطمئن نیستید چه چیزی را در اینجا قرار دهید زیرا همه حالت های ممکن (برای هر چرخش) مقدار نهایی یکسانی دارند. **مشکلات مشابه:** مطمئن نیستم که آیا این کمک می کند یا نه، اما می خواهم به یافتن راه حل کمک کنم، بنابراین به یک مشکل موازی فکر کردم که ممکن است مفید باشد (اگر بینشی در مورد این مشکل دارید، ممکن است به مشکل من کمک کند). من فکر می‌کنم تشخیص کاراکتر شبیه به این است، زیرا جهانی از کلمات (در مورد من سبدهای میوه) وجود دارد و برنامه باید بفهمد کدام کلمه (سبد) با توجه به نحوه نوشتن یک جمله توسط کاربر، به احتمال زیاد انتخاب می‌شود. البته ممکن است در ابتدا کاملاً دقیق نباشد، اما باید خودش را تمرین کند زیرا اشتباه می کند و اصلاح می شود (در مورد من اگر سبد اشتباهی را انتخاب کند که دیگر در نوبت بعدی موجود نیست). من فکر می کنم که این نوعی توزیع احتمال ایجاد می کند. برای یادگیری، من این را در جاوا و پایتون کدنویسی کرده ام، اگر کمک کند اما به زبان اهمیتی نمی دهم، به دنبال منطق هستم. امیدوارم کسی بتواند به من کمک کند تا این مشکل را پیدا کنم. این اولین برنامه واقعی من است و یک چالش بزرگ است اما در این بخش کمی ناامید شده است. بسیار چالش برانگیز است اما من فکر می کنم این یک تمرین یادگیری خوب است. پیشاپیش ممنون و با عرض پوزش از طولانی شدن سوال من سعی کردم اطلاعات زیادی را برای کمک به زندگی شما اضافه کنم، اما اگر چیزی را از دست دادم یا سؤالی دارید، لطفاً به من اطلاع دهید! بازم ممنون
نمی توانم سرم را با استفاده از HMM یا تکنیک های دیگر برای حل مشکلم بپیچم
67064
آزمایش 1: موش های ژنوتیپ 1 در مقایسه با همزادهای نوع وحشی خود، آزمایش 2: موش های ژنوتیپ 2 در مقایسه با همزادان نوع وحشی خود. (هر آزمایش به خودی خود بسیار ساده است: برای تعیین اینکه آیا تیمار آزمایشی (= ژنوتیپ) تأثیر قابل توجهی بر متغیر اندازه گیری شده دارد، یک آزمون t دو نمونه ای انجام دهید.) مشکل من به شرح زیر است: آزمایش 1 و 2 به روشی مستقل از یکدیگر انجام شد. آنها متغیر مشابهی را اندازه‌گیری می‌کنند و گروه‌های آزمایشی متفاوتی دارند (موش‌های دو ژنوتیپ مختلف)، که همزادهای نوع وحشی مربوطه به عنوان گروه کنترل عمل می‌کنند. موش ها و به دلایل مختلف نمی توان آنها را یکسان در نظر گرفت). یکی دیگر از مشکلات گیج کننده این است که آزمایش 1 و 2 توسط 2 ناظر مختلف انجام و تجزیه و تحلیل شدند، که دلیل دیگری برای مستقل در نظر گرفتن آنها از یکدیگر است. ** کاری که می‌خواهم انجام دهم این است که موش‌های ژنوتیپ 1 را با موش‌های ژنوتیپ 2 مقایسه کنم. ** اساساً می‌توانم این کار را با داده‌هایی که در اختیار دارم انجام دهم، اما به دلایلی که در بالا ذکر شد و به این دلیل که عمل خوبی در نظر گرفته می‌شود. در آزمایش‌های موش، این امر امکان‌پذیر نیست. بنابراین احتمالاً تنها راه برای دستیابی به این مقایسه (تا حدودی کثیف) این است که به نوعی _عادی کردن داده ها_. متأسفانه، هیچ ارتباط یا جفت ذاتی بین آزمودنی‌های گروه آزمایش و کنترل وجود ندارد، بنابراین تنها راهبردی که می‌توانم به آن فکر کنم این است که از متغیر اندازه‌گیری شده هر آزمودنی آزمایشی، میانگین گروه کنترل را کم کرده و بر انحراف معیار گروه کنترل تقسیم کنم. سپس داده های نرمال شده را با استفاده از آزمون t دو نمونه ای مستقل (پس از آزمایش برای واریانس های مساوی) مقایسه می کنم. من شک دارم که آیا این رویکرد مشروع است یا خیر و از هرگونه نظر یا سؤال روشنگر بسیار قدردانی می کنم.
چگونه می توان دو آزمایش مختلف را در حالی که کنترل های متفاوتی دارند مقایسه کرد؟
27435
اجازه دهید نقطه تصادفی $(X,Y)$ به طور یکنواخت روی مربع توزیع شود $D=\\{(x,y):-1\leq x\leq 1,\ -1\leq y \leq 1\\} $. تابع توزیع و تابع توزیع احتمال $Z=X +Y$ را پیدا کنید
بگذارید نقطه تصادفی (X,Y) به طور یکنواخت روی مربع توزیع شود
91107
در رگرسیون لجستیک، نسبت شانس 2 به این معنی است که با توجه به افزایش یک واحدی در پیش بینی، رویداد 2 برابر بیشتر محتمل است. در رگرسیون کاکس، نسبت خطر 2 به این معنی است که با توجه به افزایش یک واحدی در پیش بینی، رویداد دو برابر در هر نقطه زمانی رخ می دهد. آیا اینها عملاً یکسان نیستند؟ اگر بتوانیم از نظر عملکردی اطلاعات مشابهی را از نسبت‌های شانس رگرسیون لجستیک بدست آوریم، مزیت انجام رگرسیون کاکس و دریافت نسبت‌های خطر چیست؟
آیا تفاوت عملکردی بین نسبت شانس و نسبت خطر وجود دارد؟
20421
آیا کتابخانه نموداری برای R وجود دارد که بتواند یک دیتافریم از زمان‌های شروع و توقف را به نمودار جدول زمانی چیزی شبیه به زیر تبدیل کند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/OKv3q.png) تنها معنای محور Y این است که با همزمانی انباشته می‌شود، اما همیشه نشان‌دهنده همزمانی نیست (شکاف در وسط را ببینید). هر کادر خاکستری یک رویداد است -- یک ردیف از چارچوب داده. دیتافریم دو ستون دارد، یک زمان شروع و یک زمان توقف.
ترسیم رویدادها در یک جدول زمانی در R
67067
آیا جوایزی برای مشارکت های عمده در آمار، داده کاوی یا یادگیری ماشینی مانند مدال معروف فیلدز در ریاضیات تعلق می گیرد؟ تنها جایزه ای که تاکنون پیدا کرده ام فقط مربوط به آمار محاسباتی است.
جوایزی در زمینه آمار، داده کاوی و یادگیری ماشینی تعلق می گیرد
99479
من در تلاشم تا ثابت کنم که انحراف مطلق میانه از میانه (MAD)، با k=1.4862، برآوردگر ثابتی از انحراف معیار است.
اثبات سازگاری MAD
27430
توزیع نرمال چقدر به واقعیت نزدیک است؟ قد افراد قرار است به طور معمول توزیع شود اما احتمال یک فرد 30 فوتی در یک توزیع عادی صفر نیست. آیا این مهم است؟
توزیع نرمال چقدر خوب عمل می کند؟
68945
من در حال انجام آزمایشی برای بررسی صحت ترکیب و اعتماد به نفس هستم. خلاصه داستان: ما می‌خواهیم بدانیم الگوی مثبت‌های کاذب، ضربه‌ها و از دست دادن‌ها در یک کار ترکیبی در شرایط مختلف ترکیب چگونه است و چگونه اعتماد ممکن است با/مستقل از دقت متفاوت باشد. به طور منطقی، اطمینان شاهد نیز ممکن است تحت تأثیر شرایط مختلف قرار گیرد، و ما دوست داریم این را نیز بدانیم. متغیرهای بین آزمودنی‌ها عبارتند از: جنسیت (مرد، زن)، قومیت (آسیایی، قفقازی)، و نوع ترکیب (به ترتیب - جایی که افراد هر یک از اعضای صف را یکی یکی می‌بینند و در مورد هر کدام تصمیم می‌گیرند، و همزمان - جایی که مردم می‌بینند. همه اعضای صف و تصمیم گیری در مورد اینکه آیا مجرم را می بینند یا نه) متغیرهای درون سوژه عبارتند از: نوع عکس (همان عکس در مقابل عکس متفاوت فرد)، قومیت ترکیب (ترکیب آسیایی در مقابل قفقازی)، اعتماد به نفس (5 سطح از مقیاس لیکرت از 1 اصلا اطمینان ندارم تا 5 بسیار مطمئن) متغیر وابسته دقت از نظر ضربات، از دست دادن و مثبت کاذب است (اینها را می توان با 0 کد کرد. یا 1؟) و تشخیص صحیح (هیت- مثبت کاذب) یکی از مشکلات این است که می خواهیم رابطه بین اعتماد به نفس و دقت، که ایجاب می‌کند که اطمینان یک متغیر مستقل باشد، اما ما همچنین می‌خواهیم بدانیم که آیا متغیرهای دیگر ممکن است بر اعتماد تأثیر بگذارند (مانند قومیت یا نوع ترکیب)، بنابراین من در یافتن بهترین روش برای تجزیه و تحلیل این داده‌ها با مشکل مواجه هستم. کسی جوابی برای من داره؟ کسی احتمالاً رگرسیون لجستیک را پیشنهاد کرد، اما آنها واقعاً مطمئن نبودند. من واقعاً عادت ندارم با داده های طبقه بندی شده برخورد کنم، بنابراین به کمک نیاز دارم!
چگونه این داده ها را تجزیه و تحلیل کنیم؟
67060
من دو گروه نمونه دارم و آنها جفت می شوند و هر القاء نمونه را به القای چین اولیه (در زمان = 0) نرمال می کنند. به این ترتیب، تمام نمونه ها در زمان = 0 باید 1 یا 100٪ باشند. من به دنبال این هستم که ثبات بین دو گروه را در طول زمان ببینم. کدام تست در SAS برای مشاهده مقدار p در طول زمان مناسب است؟
آزمون مناسب برای محاسبه p-value در طول زمان بین دو گروه چیست؟
68944
من یک مجموعه داده در مورد **ترکیب متناسب** بستر دریایی برای مکان های مختلف دارم که می خواهم آنها را با هم مقایسه کنم. به عنوان مثال، یک ترانسکت تکراری در یک مکان ممکن است 50٪ ماسه، 25٪ علف دریایی، 25٪ قلوه سنگ باشد (14 دسته وجود دارد). به طور کلی، **چگونه می توان چنین داده های تناسبی شرطی را تجزیه و تحلیل کرد**، زیرا هر مقدار برای هر متغیر (به عنوان مثال % شن) به نسبت های دیگر وابسته است؟ اگر این نسبت‌های مستقل بودند، من یک _ordination_ (به عنوان مثال NMDS) را برای بررسی خوشه‌بندی ترانسکت‌های تکراری با توجه به مکان‌ها در نظر می‌گرفتم، اما **آیا این با نسبت‌های شرطی امکان‌پذیر است؟** و اگر چنین است **چگونه با نسبت‌ها رفتار کنم** (استانداردسازی، اندازه گیری فاصله و غیره)؟ به‌علاوه، من رگرسیون چندگانه را برای آزمایش اینکه آیا ویژگی‌های سایت (ترکیب بستر و مکان) بر تراکم ماهی (تعداد افراد/متر مربع) تأثیر می‌گذارد در نظر می‌گیرم. **آیا این امکان پذیر است**؟ یا کسی می تواند **جایگزین مناسب** را پیشنهاد دهد؟ هنگام تحقیق در مورد این سؤال، تنها چیزی که می‌توانستم پیدا کنم اطلاعاتی در مورد متغیرهایی بود که به طور مستقل به عنوان نسبت اندازه‌گیری می‌شدند - هیچ کمکی وجود ندارد!
تجزیه و تحلیل داده های اندازه گیری شده به عنوان ترکیب متناسب
20429
من فقط پاهایم را در آمار خیس می کنم، بنابراین اگر این سوال منطقی نیست متاسفم. من از مدل‌های مارکوف برای پیش‌بینی حالت‌های پنهان (کازینوهای ناعادلانه، تاس‌ریزی و غیره) و شبکه‌های عصبی برای مطالعه کلیک‌های کاربران روی موتور جستجو استفاده کرده‌ام. هر دو حالت های پنهانی داشتند که ما سعی می کردیم با استفاده از مشاهدات به آنها پی ببریم. طبق درک من، هر دو حالت‌های پنهان را پیش‌بینی می‌کنند، بنابراین می‌پرسم چه زمانی می‌توان از مدل‌های مارکوف روی شبکه‌های عصبی استفاده کرد؟ آیا آنها فقط رویکردهای متفاوتی برای مشکلات مشابه دارند؟ (من علاقه مند به یادگیری هستم، اما انگیزه دیگری هم دارم، مشکلی دارم که سعی می کنم با استفاده از مدل های پنهان مارکوف حلش کنم، اما من را به وحشت می اندازد، بنابراین علاقه مند بودم ببینم که آیا می توانم از چیز دیگری استفاده کنم یا خیر.)
تفاوت بین مدل های پنهان مارکوف و شبکه های عصبی چیست؟
62617
یک SEM معمولی می تواند به عنوان ترکیبی از یک مدل اندازه گیری و یک مدل ساختاری دیده شود و همه پارامترهای هر دو مدل به طور همزمان برآورد شوند. یک روش جایگزین، یک راه دو مرحله‌ای است، یعنی ابتدا مدل اندازه‌گیری را اجرا کنید، نمرات عامل را استخراج کنید (با استفاده از روش رگرسیون یا روش بیزی)، سپس از این امتیازات عامل به عنوان متغیرهای وابسته یا مستقل، همراه با سایر متغیرهای مشاهده‌شده برای اجرا استفاده کنید. یک مدل رگرسیون من در برخی از ادبیات دریافتم که این راه دو مرحله ای می تواند از مشکل مشکل تفسیری جلوگیری کند. به عنوان مثال بارهای عاملی در مدل اندازه گیری در مرحله اول تحت تاثیر مدل ساختاری در مرحله دوم قرار نمی گیرند، که در SEM همزمان صدق نمی کند. **بنابراین سوال من این است:** راه دو مرحله ای چقدر محبوب است و مزیت/مضرات آن چیست و چه زمانی این روش را به جای تخمین همزمان SEM انتخاب کنیم؟ من برخی از اوراق و کتاب ها را بررسی کرده ام، اما آنها برای من خیلی واضح نیستند. هر گونه نظر، پیشنهاد، مقالات / کتاب های توصیه شده قدردانی می شود!
برآورد همزمان یا جداگانه مدل سازی معادلات ساختاری؟
67069
آیا کنترل متغیرهایی که ممکن است ساختار ارثی متغیر وابسته را داشته باشند صحیح است؟ دو مورد زیر: 1) متغیرهایی که به عنوان پیش بینی در نظر گرفته نمی شوند، بلکه پیامد پویایی در DV هستند. مثال: میزان موفقیت یک پروژه آنلاین (DV) و نظرات آن پروژه (کنترل)؟ 2) متغیر وابسته تبدیل شده باینری به عنوان یک کنترل گنجانده شده است؟
کنترل های درست یا غلط
68942
فاصله اطمینان 95٪ (یا سایر٪) محدوده ای را نشان می دهد که انتظار داریم میانگین واقعی در آن قرار داشته باشد با احتمال 95٪ (= 'اطمینان') طبق قضیه حد مرکزی، با توجه به دقت میانگین تخمین زده شده (یعنی خطای استاندارد میانگین نمونه). مایلم برخی از داده های ارائه شده در یک مقاله ژورنالی را به عنوان میانگین هایی با خطاهای استاندارد (و n) تفسیر کنم که از نظر آماری آزمایش نشده اند. به ذهنم رسید که اگر 95% CI را برای هر نمونه محاسبه کنم، می توانم استنباط کنم که آیا تفاوت واقعی وجود دارد یا خیر. اما، **آیا این درست است**؟ برای توضیح بیشتر (اگر قبلاً آنچه را که من می‌پرسم متوجه شده‌اید از این مطلب صرفنظر کنید). قوانین احتمال نشان می دهد که با توجه به میانگین واقعی هر گروه در خارج از CI مربوط به خود با احتمال 5٪، احتمال <5٪ وجود دارد که میانگین گروه **هر دو** خارج از CI آنها و در فضای بین CI ها قرار دارد. از دو گروه (بیایید آنها را بسیار نزدیک به هم در نظر بگیریم تا مرزهای این سؤال را کنار بگذاریم) ** سؤال منطقی که پیش می آید این است که چرا ما زحمت تست کردن گروه ها را به طور رسمی به زحمت می اندازیم. (مثلاً آزمون t، ANOVA)؟** باید دلیل(هایی) وجود داشته باشد اما من آن را نمی دانم. بسط این سوال: با توجه به ماهیت محافظه کارانه تست های مقایسه چندگانه زمانی که گروه های زیادی در تجزیه و تحلیل وجود دارد، به عنوان مثال. ANOVA با 5 گروه (و عدم توافق در مورد نحوه نزدیک شدن به این!) **آیا می‌توانیم در عوض استنباط کنیم که کدام گروه‌ها با مقایسه همپوشانی در CIs** زمانی که حداقل یک جفت گروه را ایجاد می‌کنیم تفاوت معنی‌داری دارند؟ پیشاپیش ممنون، دین
تفسیر 95% CI - چرا آزمایش های آماری رسمی یا مقایسه های متعدد انجام می شود؟
20428
من از یک گروه 100 نفره سؤالی می پرسم که هر فرد یا موافق است، مخالف است یا نمی تواند پاسخ دهد - مثلاً. 70/100 موافق، 10/100 مخالف و 20/100 هیچ نظری ندارند. آیا آزمون آماری وجود دارد که بتوانم از آن استفاده کنم تا احتمال اینکه پاسخ صحیح با سؤال موافق است را بدهم؟
اهمیت پاسخ گروهی به یک سوال
68947
من یک مجموعه داده دارم که یک سیگنال را در یک هواپیمای دو بعدی توصیف می کند. داده ها را می توان با افزایش دلخواه فاصله داد. اگر یک شبکه مرتب بود، می‌دانم که درون‌یابی دو مکعبی انتخاب خوبی خواهد بود. در غیاب یک شبکه منظم، چه نوع الگوریتم‌هایی برای مدیریت آن نوع مجموعه داده بهترین هستند؟ من بر جایی که از داده‌ها نمونه‌برداری می‌کنم کنترل دارم، و در نهایت احتمالاً به شبکه‌ای با فاصله یکنواخت درون یابی می‌کنم، اما ترجیحاً این یک محدودیت نباشد. داده در سیگنال 3 قسمت است، یک قسمت سیگنال در محور x افزایش می یابد، قسمت دیگر سیگنال در محور y افزایش می یابد و قطعه سوم داده نسبتاً ثابت می ماند. اگرچه نرخ تغییر برای سیگنال های افزایشی متفاوت است و نسبت به محور مخالف متفاوت است. داده های ثابت نیز معمولاً با نزدیک شدن به مبدأ کوچکتر می شوند. تا آنجا که فاصله نمونه پیش می رود، من روی آن کنترل دارم، اندازه خروجی زیاد نیست، معمولاً حداکثر 65×65 نقطه با فاصله یکسان با فاصله یکسان برای هر دو محور x و y درون یابی می کنم. با توجه به محدودیت های زمانی، من فقط می توانم حدود 100 نمونه جمع آوری کنم تا الگوریتم درون یابی را تخمین بزنم. من یک برنامه نویس دات نت در دانش ریاضی هستم، بنابراین اگر کتابخانه ریاضی حاوی الگوریتم وجود داشته باشد، حتی بهتر است.
الگوریتم های مناسب برای درونیابی صفحه دو بعدی
68949
بگذارید بگوییم که شما در حال انجام آزمایشی هستید که تعدادی از شرایط را مقایسه می کند. شما یک پایگاه داده از نمرات فردی دارید که در گروه‌ها قرار گرفته‌اند، که سپس بر اساس شرایط تودرتو می‌شوند. آیا در جمع آوری داده های فردی با جمع کردن مجموع نمره برای هر گروه و سپس تقسیم برای ارائه امتیاز برای هر گروه، مسائل/مشکلاتی وجود دارد؟ بدیهی است که شما نمی خواهید بر اساس مجموعات گروهی در مورد تفاوت های فردی استنباط کنید، اما جدا از آن آیا هیچ مشکل/مساله ای وجود دارد؟
اجتناب از اشتباهات هنگام تجزیه و تحلیل داده های فردی در سطح گروه
68940
من علاقه مندم که الگوریتم جنگل تصادفی وزن دار (WRF) را که در Chen, Liaw, Breiman توضیح داده شده است امتحان و/یا پیاده سازی کنم. ناخالصی جینی وزن شده در واقع چگونه تعریف می شود؟ چه پیاده سازی هایی از الگوریتم وجود دارد؟ بهترین حدس من این است که ناخالصی وزنی جینی با $$\sum_i w_i * f_i * (1-f_i)$$ تعریف می شود که $i$ شاخص کلاس، $w_i$ وزن کلاس، و $f_i$ است. کسر عناصر در گروه کلاس $i$. و این شکاف در هر گره با به حداقل رساندن میانگین وزنی مجموع این ناخالصی ها انتخاب می شود.
معیار جینی وزنی چگونه تعریف می شود؟
109561
من در تلاش برای تخمین **مدل آستانه حرکت** برای رابطه بین شاخص اصلی سهام، ریسک سیاسی و ریسک اقتصادی هستم. معادله ای که می خواهم ارزیابی کنم StockIndex(t)=a*PoliticRisk+b*EconomicRisk+error است. من از هر دو افزونه **Eviews به نام TARCOINT** با بسته **tsdyn در R** استفاده کرده ام. من در درک مراحل با مشکلاتی مواجه شده ام که یک شک اساسی داشتم - مقادیر R-squared واقعا پایین هستند و ضرایب معنی دار نیستند. آیا می توانم با وجود این به مدل MTAR ادامه دهم؟ آیا باید مدل های مختلف ARIMA را امتحان کنم و سپس MTAR را روی باقیمانده ها انجام دهم؟ امیدوارم واضح بوده باشم واقعا نیاز به کمک!!
مدل های آستانه
99473
من دارم یک شبیه‌سازی کامپیوتری راه‌اندازی می‌کنم (که می‌دانم روش‌های طراحی آزمایش‌ها را تغییر می‌دهد) و واقعاً نمی‌توانم نحوه انتخاب روش طراحی آزمایش‌ها (DOE) را تعیین کنم. من با همه انتخاب ها و گزینه ها کمی غرق شده ام و کمی مشخص نیستم که کدام یک برای چه اهدافی بهترین هستند. من 17 ورودی و شاید 5 خروجی دارم. می گویم شاید چون مطمئن نیستم در پایان چه چیزی جالب خواهد بود. در حالت ایده آل، من می خواهم یک مدل (سطح پاسخ) ایجاد کنم که با توجه به ورودی ها، خروجی ها را پیش بینی کند. اما شاید به برخی از ورودی ها نیاز نباشد. یا شاید برخی از خروجی ها مفید نباشند. برخی از خروجی ها مستقل از دیگران هستند، بنابراین شاید یک مدل 17 ورودی، 5 خروجی خوب نباشد و باید به چند مدل تقسیم شود که برخی از ورودی ها اهمیت دارند و برخی از خروجی ها جفت می شوند. شاید برخی از ورودی‌ها مهم نباشند، یا شاید برخی از ورودی‌ها مرتبط باشند - برای مثال، نسبت دو ورودی ممکن است پاسخ را تعیین کند. در نهایت این احتمالاً یک فرآیند چند مرحله‌ای خواهد بود که در آن من باید حساسیت به ورودی‌ها را برای هر خروجی تعیین کنم، یا روابط مهم بین ورودی‌ها (محصولات، نسبت‌ها، مجموع، و غیره) و جایی که داده‌ها می‌توانند برای تولید یک مورد استفاده شوند را تعیین کنم. یا مدل های بیشتری از پاسخ ها. مثل همیشه، باید تعداد شبیه سازی ها را به حداقل برسانم. من از بسته داکوتا استفاده می کنم و با مطالعه کتابچه راهنمای کاربر، روش های مونت کارلو یا آرایه متعامد - نمونه برداری Hypercube Latin ممکن است بهترین کار را داشته باشد. اما چه چیزی یک روش را بهتر از روش دیگر برای این نوع آزمایش می کند؟ آیا می‌توانم ورودی‌های مهم، روابط بین ورودی‌ها، و مدل‌هایی را با استفاده از یکی توسعه دهم؟
چگونه می توانم روش طراحی آزمایش را انتخاب کنم؟
109564
من دو عکس دارم که نشان دهنده دو آزمایش آزمایشگاهی است. ایده این است که هر نوار سیاه نشان دهنده یک نمونه است. اکنون باید از برنامه خاصی برای اندازه گیری شدت باندها استفاده کنم که به من می گوید چه مقدار محصول از واکنش دارم. برای هر تصویر می توانم تفریق پس زمینه را انجام دهم که پاسخ مطمئن تری به من می دهد. من این گزینه را دارم: تفریق میانگین محلی و میانگین محلی. کدام یک برای هر یک از آنها بهتر خواهد بود؟ و چرا ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/eQbX9.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ug8xf.png)
میانه محلی و میانگین محلی
95451
من با یکی از دوستانم دعوا داشتم و ممکن است اینجا اشتباه کرده باشم. ما در حال انجام رگرسیون لجستیک باینری بر روی یک مجموعه داده با 10000 مشاهده هستیم و عملکرد را به عنوان خوب یا بد طبقه بندی می کنیم. دو متغیر مستقل (x1، x2) و متغیر کلاس (y، با مقادیر خوب یا بد) وجود دارد. در این مجموعه داده، ما 7500 مشاهده داریم که به عنوان بد طبقه بندی شده اند و 2500 مورد به عنوان خوب طبقه بندی شده اند برای انجام یک عمل بد، اما تنها یک راه برای آنها برای انجام یک عمل خوب ما با استفاده از تابع glm() داده های آموزشی را با نمونه گیری تصادفی از 7500 مشاهده انجام می دهیم و داده های آزمایشی را از 2500 مشاهدات دیگر ایجاد می کنیم، سپس یک مدل با استفاده از رگرسیون لجستیکی روی داده های آموزشی می سازیم، سپس آن را روی داده های آزمایشی آزمایش می کنیم مدل 75% است **آیا می توانیم بگوییم مدل ما بهتر از حدس زدن است؟** او می گوید که این مدل بهتر از حدس زدن نیست. طبقه‌بندی‌کننده‌های بد، برای اینکه بگوییم عملکرد بهتری نسبت به حدس‌زنی تصادفی دارد، باید مدل خود را بهتر از ۷۵ درصد پیش‌بینی کند. من مخالفم...اما نمی توانم از نظرم با هیچ چیز دیگری دفاع کنم جز اینکه این درست به نظر نمی رسد. آیا کسی می تواند تفسیر صحیح و دلیل آن را روشن کند؟
ارزیابی دقت رگرسیون لجستیک باینری بر روی داده های کج
109562
در جایی خواندم که بخش زیادی از BMR با وزن بدن توضیح داده می شود. با استفاده از یک داده در دست، از رگرسیون گام به گام با BMR به عنوان متغیر وابسته و جنسیت، سن، قد و وزن به عنوان متغیر مستقل استفاده کردم و مدل های زیر را با متغیرهای وارد شده در هر مرحله به دست آوردم: مدل 1: جنسیت R2 = 0.772 مدل 2: جنسیت ، وزن R2 = 0.979 مدل 3: جنسیت، وزن، سن R2 = 0.985 آیا کسی می تواند توضیح دهد که نتیجه من چیست؟ بدست آمده است؟
برآورد انرژی مورد نیاز
109567
**ویرایش** برای اینکه دو سیگنال یا متغیر تصادفی مستقل باشند، اطلاعات متقابل (MI) باید صفر باشد. 1. اطلاعات متقابل (MI) چه چیزی را منتقل می کند؟ 2. منظور از استقلال چیست؟ آیا به معنای متفاوت، غیر مرتبط است؟
مفهوم اطلاعات متقابل
109569
من باید یک CFA را روی یک پرسشنامه 18 موردی انجام دهم، و نمی‌دانم کدام روش برای تجزیه و تحلیل مناسب‌تر است (با توجه به رعایت الزامات نرمال بودن چند متغیره): MLE، GLS، ULS یا WLS؟ مزایای هر کدام چیست؟ در چه مواردی یکی بر بقیه ارجحیت دارد؟ علاوه بر این، من همچنین از مرجعی که روش های مختلف را با جزئیات توضیح می دهد قدردانی می کنم.
در CFA کدام روش (MLE، GLS و ...) برای آیتم های نوع مقیاس لیکرت ارجحیت دارد؟
67396
من مجموعه داده ای از تقاضای انرژی با اندازه نمونه کوچک دارم: >dput(dat.demand2050.unique) c(79، 56، 69، 61، 53، 73، 72، 86، 75، 68، 74.2، 80، 65.6، 60، 54) با تابع چگالی که به این صورت است: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/rKUgN.png) داده‌ها از تعدادی مطالعه به دست می‌آیند و می‌توانند به دو رژیم - کم و زیاد، که در تابع چگالی قابل مشاهده است، تفکیک شوند. با این حال، می دانم که داده ها به سمت گروه خاصی از مطالعات سوگیری دارند. من می خواهم تعداد زیادی نمونه تصادفی از داده ها را تولید کنم که ورودی یک مطالعه شبیه سازی باشد. من بین انتخاب سه رویکرد بحث می‌کنم: 1. تابع چگالی را با استفاده از تابع «normalmixEM()» از بسته «mixtools()» مدل‌سازی کنید، که نتیجه زیر را می‌دهد: (پست مرتبط اینجا http://stackoverflow.com /questions/17924976/fitting-multimodal-distributions- in-r-generating-new-values-from-fitted-distrib) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qwl4M.png) اخطار این است که من یک نرمال سخت را مجبور می کنم فرضیه در مورد فرآیند زیربنایی من یا 2. تولید یک نمونه تصادفی از یک توزیع یکنواخت، یعنی با فرض اینکه هر مشاهده ای برابر است: NN = 1000 #یک عدد set.seed(99) dat.demand2050.random <- runif(NN,min=min(dat.demand2050 .unique),max=max(dat.demand2050.unique)) که موارد زیر را نشان می دهد تابع چگالی: densityplot(dat.demand2050.random) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/eo0iN.png) یا 3. استفاده از «sample()» با جایگزینی: dat.demand2050 .random2 <- نمونه (dat.demand2050.unique,NN,replace=TRUE) densityplot(dat.demand2050.random2) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/c9onK.png) بنابراین سوال من این است که مزایا و معایب این رویکردها چیست و چه معیارهایی باید برای انتخاب صحیح اقدام کنم؟
انتخاب روشی برای نمونه‌گیری تصادفی یک مجموعه داده اقتصادی با اندازه نمونه کوچک در R: برازش تابع فاصله احتمالی یا نمونه ()
95454
ممنون می‌شوم اگر کسی بتواند تفاوت‌های بین 1a) مدل‌سازی معادلات ساختاری چندسطحی و مدل‌سازی معادلات ساختاری حداقل مربعات جزئی را برای یک فرد عادی توضیح دهد. 1ب) مزایا و معایب (یعنی محدودیت) هر کدام چیست؟ 2الف) مدل سازی معادلات ساختاری و مدل سازی چند سطحی چه تفاوت هایی دارند؟ مزایا و معایب (یعنی محدودیت) هر کدام چیست؟ خیلی خیلی خیلی ممنون از این انجمن فوق العاده.
تفاوت بین Multilevel-SEM و PLS-SEM
67392
ما یک نظرسنجی از شرکت‌های FTSE350 را تکمیل کردیم، اما فقط 49 پاسخ دریافت کردیم. ما فرض می کنیم که این نرخ پاسخ به این معنی است که نتایج ما نماینده FTSE350 به عنوان یک کل نیست، اما می خواهیم این را به صورت علمی تر نشان دهیم. من مطمئن هستم که این یک محاسبه بسیار ساده است، اما کسی می تواند لطفا در مورد آن با من صحبت کند. با تشکر
آیا نمونه من نماینده جمعیتی است که می خواهم اندازه گیری کنم؟
109568
من در حال حاضر روی یک مدل آستانه برای نرخ ارز بین بریتانیا و ایالات متحده کار می کنم. من دانش پیش زمینه ای در مورد این مدل ندارم، بنابراین من واقعاً در مورد چگونگی تعیین مقدار آستانه، تعداد رژیم ها و متغیرهای تاخیری (d=?) گیر کرده ام. من در حال حاضر از R استفاده می کنم. از کتابی که خواندم متوجه شدم ابتدا باید یک نمودار پراکندگی X(t) و X(t-k) ایجاد کنم، k=1،2... (تاخیر) با یک منحنی برازش زیر هموار شده. سپس باقیمانده را در برابر X(t-k) رسم کنید تا مقدار آستانه، تعداد رژیم ها را تعیین کنید. آیا من درست هستم و چگونه این نمودارها را در R رسم کنم؟ آیا بسته ای وجود دارد که بتوانم از آن برای مقابله با مدل آستانه در R استفاده کنم؟ آیا باید S-Plus را دانلود کنم؟
مقدار آستانه و تعداد رژیم های دارای متغیر تاخیری را تعیین کنید
78500
راستش من حتی مطمئن نیستم که نام مناسب برای این نوع آزمایش چیست، بنابراین من فقط کل تنظیمات را شرح می دهم. فرض کنید من یک متغیر عدد صحیح **n** دارم، که از صفر شروع می شود و هر بار که موفقیت وجود دارد، افزایش می یابد. سپس فرض کنید آنچه را که من حدس می‌زنم می‌توانید «سختی» یک آزمایش موفقیت‌آمیز بنامید، با تابع چند جمله‌ای تعریف می‌شود که من **p(n)** نوشتم، به طوری که با افزایش **n**، احتمال موفقیت افزایش می‌یابد. به طور فزاینده ای کوچکتر یعنی **p(n=1) >> p(n=1500)**. حالا فرض کنید یک قالب تصادفی 100 وجهی می‌چرخانم و مقداری که **d** رول کردم را با مقداری که توسط **p** برگردانده شده مقایسه می‌کنم. اگر **p(n) <= d**، آن را موفقیت می نامم، و **n** را 1 افزایش می دهم. در غیر این صورت، n را افزایش نمی دهم و دوباره رول می کنم. چگونه می توانم تعداد تاس های مورد نیاز را قبل از اینکه n به مقداری دلخواه (مثلاً 1500؟) برسد محاسبه کنم؟
تعداد آزمایش‌های مورد نیاز برای افزایش یک متغیر شمارنده
78504
من از R برای رسم نمودارهایی برای بازرسی بصری نرمال بودن متغیرهایی که به یک مدل رگرسیون خطی می‌روند، استفاده می‌کنم. به جز هیستوگرام و نمودار QQ، از چه گرافیک دیگری می توانم استفاده کنم؟
بازرسی بصری نرمال بودن متغیرها
29025
من یک شبکه از نمودارها (نمونه زیر را ببینید) با محورهای x متفاوت اما محورهای y یکسان دارم. بهترین راه برای برچسب زدن محور y بدون اضافی بودن چیست؟ اطلاعات در افسانه است، اما این راه حل نیست. در اینجا دو گزینه وجود دارد که من در نظر دارم: * یک برچسب را در سمت راست و با همان فونت برچسب‌های محور x وسط قرار دهید. اگر برچسب محور y فقط با یک طرح فرعی مرتبط باشد، می‌تواند مبهم باشد. * محور y را خالی بگذارید و اطلاعات را در عنوان شکل ارائه دهید (پاسخ 'برچسب (واحد) محور y' به 15 متغیر). این طرح در یک مجله علمی منتشر خواهد شد. وضوح پایین برای این پست عمدی است زیرا منتشر نشده است. هر گونه پیشنهاد دیگر قدردانی می شود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WO0LL.png)
چگونه یک محور y ثابت را در یک شبکه از نمودارها برچسب گذاری کنیم؟
452
توسط آنگریست و پیشکه پیشنهاد شده است که خطاهای استاندارد قوی (یعنی قوی نسبت به ناهمسانی یا واریانس‌های نابرابر) به‌جای آزمایش برای آن به‌عنوان یک امر طبیعی گزارش می‌شوند. دو سوال: 1. چه تاثیری بر خطاهای استاندارد انجام این کار زمانی که هموسکداستیکی وجود دارد چیست؟ 2. آیا کسی واقعاً در کار خود این کار را انجام می دهد؟
همیشه خطاهای استاندارد قوی (سفید) گزارش شود؟
71641
پرسیدن این سوال وحشتناکی است. اما دانستن آن مفید خواهد بود (به جای اینکه کسی نظری را مطرح کند که 99.999٪ چنین هستند/ نیستند). تخمین زده شده است که 18.3٪ از زنان در مقطعی از زندگی خود مورد تجاوز جنسی قرار می گیرند (CDC: خشونت جنسی، حقایق در یک نگاه). بنابراین برای پاسخ به چند مرد (احتمالاً) متجاوز به عنف هستند، اطلاعات بیشتری لازم است. یک مرز بالای 18.3٪ وجود دارد، اما برخی از مردان به بیش از یک زن تجاوز می کنند. بنابراین برای تخمین درصد مردانی که ممکن است به یک یا چند زن تجاوز جنسی را مرتکب شده باشند، باید بدانید که چه نوع توزیعی وجود دارد. بنابراین به احتمال زیاد توزیع برای رفتار متجاوز چگونه خواهد بود؟ (یک دنباله معمولی، پارتو، چیز دیگری؟) *برای ساده کردن همه چیز، اجازه دهید فقط حالت M -> F را فرض کنیم. این نسبتاً ذهنی است، بنابراین من خوشحالم که اگر کسی پیشنهادی دارد که چگونه آن را بیان کنم. همچنین پیوندهایی به تحقیقات واقعی ایده آل خواهد بود.
چه توزیعی برای تعداد متجاوزین (در مقابل تعداد قربانیان) انتظار می رود؟
67397
فرض کنید 20 نقطه داده آموزشی در 50 بعد داریم. فرض کنید من یک SOM 3 در 3 (شبکه با 9 نقطه) مشخص کرده ام، منیفولد خود را (3 در 3 شبکه) در فضای 50 بعدی قرار داده و پس از آموزش، هر نقطه داده به یکی از 9 نقطه (گره) در نگاشت می شود. منیفولد من اکنون، منیفولد تعبیه شده من (3 در 3 SOM) 50-D است. بنابراین چگونه می توانم به 2-D برگردم؟ به عبارت دیگر، این طرح غیرخطی کجاست؟
کاهش ابعاد با نقشه خود سازماندهی
109566
اخیراً با یک تکنیک تخمین کار حضور داشتم. به جای اینکه به افراد اجازه دهم یک کار را برای x - مقدار ساعت رتبه‌بندی کنند، به آنها اجازه می‌دهم وظایف را به اندازه‌های مجزا مانند کوچک / متوسط ​​/ بزرگ / x-large تقسیم کنند. (وظایف برنامه ریزی پوکر از اسکرام برای افرادی است که از این موضوع آگاه هستند.) پس از کمی ردیابی، باید بتوانیم مدت زمان را بر اساس داده های تاریخی (یعنی آمار) تخمین بزنیم. مجموعه‌ای از داده‌های نمونه به من داده شده است (داده‌های واقعی، اما نه از کار من) و می‌خواهم ببینم که در واقع می‌توان هر توزیعی را که متناسب با آن است انجام داد. (البته، من باید این را برای وظایف خودم دوباره محاسبه کنم.) توزیع های ارائه ها به این صورت است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ED5Oj.jpg) به نظر می رسد یک توزیع نادرست درست است. از دانشگاه، به یاد می‌آورم که با توزیعی شبیه به این کار می‌کردم، اما درباره نام آن مطمئن نیستم. من به چیزی پارامتریک امیدوار بودم که بتوانم برخی از پارامترهای ساده را از داده ها استخراج کنم (مانند میانگین و واریانس برای توزیع عادی). .imgur.com/nkj6b.jpg) (من می دانم که داده های بسیار کمی وجود دارد.)
کدام توزیع برای مدل سازی مدت زمان وظایف؟
78509
من یک باستان شناس (نامزد دکتری) هستم که اخیراً نحوه انجام تست های مجذور کای را یاد گرفته ام. با این حال، به من گفته شده است که برای جدول زیر، به آزمایش دقیق فیشر نیاز دارم، زیرا برخی از سطل ها دارای <5 هستند. من می دانم که این تست معمولا برای جداول 2x2 است اما می توان از آن برای جداول بزرگتر نیز استفاده کرد و من تعدادی سایت پیدا کرده ام که به شما امکان می دهد داده ها را وارد کنید و برای جداول 2x4 مانند من مقدار P را به شما می دهد. با این حال، می دانم که در استناد به نتایج یک آزمون کای دو، باید آمار آزمون و df را نقل قول کنم و فرض کنم که برای این آزمون نیز باید این کار را انجام دهم. من می دانم که چگونه df را برای تست های مجذور کای (ردیف-1)*(ستون های-1) درست کنم، اما نمی دانم که آیا این همان دشمن آزمایش دقیق فیشر است. در مورد آمار آزمون، من نمی دانم از کجا شروع کنم. هر گونه کمکی بسیار قدردانی خواهد شد. اگر این سوال قدیمی است عذرخواهی می کنم. فکر می‌کنم ممکن است شخص دیگری قبلاً در این مورد سؤال کرده باشد، اگرچه اصطلاحات استفاده شده در سؤال و پاسخ، اطمینان را سخت می‌کند! درجه 1: 0 2 | 2 درجه 2: 5 58 | 63 کلاس 3: 4 3 | 7 درجه 4: 4 3 | 7 --------------+----- مجموع: 13 66 | 79
تست دقیق فیشر
105908
فرض کنید $x_i \sim \operatorname{Bernoulli}(p_i)$ با $p_i \sim \operatorname{Beta}(\alpha,\beta)$ دارید. من در حال بررسی $Z=X_1+ \dots +X_n$ هستم طبق این صفحه، $Z \sim \operatorname{BetaBinomial}(n,\alpha,\beta)$ است اما طبق این صفحه، با شبیه سازی، $ است. Z \sim \operatorname{Binomial}(n,\frac{\alpha}{\alpha+\beta})$ دو توزیع مختلف. کدام یک درست است؟ همچنین به همان اندازه مهم، تفاوت در مفروضات برای هر کدام چیست؟ بنابراین من می دانم چه زمانی از آنها به درستی استفاده کنم و می توانم هر کدام را در زمینه مناسب شبیه سازی کنم. با تشکر
مجموع متغیرهای بتا برنولی
50282
من باید خطای استاندارد یک موقعیت خاص را محاسبه کنم: من یک جمعیت تولید شده به طور تصادفی را بر اساس توزیع گاوسی با میانگین $\mu$ و std.dev $\sigma$ شبیه سازی می کنم. هنگامی که شبیه سازی شروع می شود، جمعیت در گروه ها توزیع می شود و با ادامه شبیه سازی، افراد بیشتری در برخی از گروه ها نسبت به گروه های دیگر جان خود را از دست می دهند. سپس باید میانگین افراد مرده $\bar{d}$ را در هر نقطه از شبیه سازی برای استفاده در تابع $f(x)$ محاسبه کنم. من می دانم که خطای استاندارد میانگین $\bar{d}$ توسط $s_e = s_{\bar{d}}/\sqrt{n}$ و خطا به تابع $f(\bar{d} داده می شود. )$ $\sqrt{\left(\dfrac{d}{dx}f(x)\cdot s_e\right)^2}$ است. من معتقدم که تا اینجا همه چیز اوکی است. درست است؟ سردرگمی من به این دلیل شروع می شود که مقداری که می خواهم $\displaystyle \sum_{i = 1}^{\omega} f(\bar{d}_i)$ است، مجموع اعمال $f(x)$ بین شبیه سازی مراحل 1 تا $\omega$، در هر مرحله از شبیه سازی، من مقداری $\bar{d}_i$ دارم زیرا مردم همچنان به مرگ خود ادامه می دهند. چیزی که من خواندم و فهمیدم این است که خطای استاندارد آن مجموع را با محاسبه ریشه دوم مربع های هر خطای $f(\bar{d}_i)$ محاسبه می کنم. با این حال، من نمی دانم که آیا تمام مراحل را به درستی انجام داده ام یا خیر.
نحوه محاسبه SE مجموع خطاها در یک شبیه سازی پیچیده
29020
این بخشی از یک اثبات است و تکلیف نیست. $F$ یک تابع توزیع است و $s,t>0$: $\int\limits_{t-s}^{t}\frac{\overline{F}(t-u)}{\overline{F}(t)}dF(u)=\frac{F(t)-\overli ne{F}(s)F(t-s)}{\overline{F}(t)}-\int\limits_{0}^{s}\frac{F(t-u)}{\overline{F}(t )}dF(u)$ من یکپارچه سازی توسط قطعات را امتحان کرده ام، اما کاملاً به آنجا نمی رسم ... هر گونه کمکی قدردانی می شود! ویرایش: $\int\limits_a^b f(x)dg(x)= f(b)g(b)-f(a)g(a)-\int\limits_a^b g(x)df(x)$ بنابراین برای $f(u)=\frac{\overline{F}(t-u)}{\overline{F}(t)}$ و $g(u)=F(u)$، داریم: $\int\limits_{t-s}^{t}\frac{\overline{F}(t-u)}{\overline{F}(t)}dF(u)=\frac{\overline{F}(t-t) }{\overline{F}(t)}F(t)-\frac{\overline{F}(t-t+s)}{\overline{F}(t)}F(t-s)-\int\ limits_{t-s}^t F(u)d\left(\frac{\overline{F}(t-u)}{\overline{F}(t)}\right)$ = $ اما، چرا $\int\limits_{t-s}^t F(u)d\left(\frac{\overline{F}(t-u)}{\overline{F}(t)}\right)=\int\limits_{0}^{s}\frac{F( t-u)}{\overline{F}(t)}dF(u)$ ?
یکپارچه سازی توسط تابع توزیع قطعات
459
ما معیارهای سری زمانی را در زمینه عملیات شبکه/سرور ترسیم می کنیم. داده ها دارای نرخ نمونه 5 دقیقه ای هستند و شامل مواردی مانند استفاده از CPU، نرخ خطا و غیره است. ما یک خط آستانه افقی را به نمودارها اضافه می کنیم تا به صورت بصری آستانه ارزشی را نشان دهیم که افراد باید بالاتر از آن نگران باشند/برداشته شوند. اطلاع دهید. به عنوان مثال، در مثال استفاده از CPU، شاید آستانه نگرانی 75٪ باشد. تیم من در مورد اینکه این خط باید چه رنگی باشد بحث‌های داخلی دارد: 1. چیزی شبیه قرمز روشن که به وضوح از شبکه پس‌زمینه و خطوط داده متمایز است و نشان می‌دهد که این یک شرایط هشدار است. 2. چیزی ظریف‌تر و قطعا قرمز نیست از آنجایی که جوهر برای خط هیچ داده واقعی را نشان نمی دهد، و بنابراین نباید بی جهت توجه به آن جلب شود. از راهنمایی/بهترین شیوه ها سپاسگزارم...
رنگ خط خوب برای خط آستانه در نمودار سری زمانی؟
26743
مدل ترکیبی زیر را در نظر بگیرید: $$(y_{ijk} \mid \mu_{ij}) \sim_{\text{i.i.d}} {\cal N}(\mu_{ij}, \sigma^2), \quad k=1، \ldots K $$ $$ \begin{pmatrix} \mu_{i1} \\\ \vdots \\\ \mu_{iJ} \end{pmatrix} \sim_{\text{i.i.d}} {\cal N}\left(\begin{pmatrix} \mu_{1} \\\ \vdots \\\ \mu_{J} \end{pmatrix} ، \Sigma\right)، \quad i=1، \ldots، I $$ با پارامترهای ثابت ناشناخته $\sigma^2$، $\Sigma$، $\mu_i$. علاوه بر این، من فرض می‌کنم $\Sigma$ یک ساختار تقارن مرکب دارد. بنابراین مدل فوق تقریباً معادل مدل ANOVA دو طرفه با اثرات مختلط $$y_{ijk}=\mu + \alpha_i + \beta_j + (\alpha\beta)_{ij} + \epsilon_{ijk}$ است. $ با $\beta_j$ و $(\alpha\beta)_{ij}$ اثرات تصادفی. من مقداری فواصل اطمینان در پارامترهای ثابت $\alpha_i$ می خواهم. من از PROC MIXED در SAS استفاده می کنم اما برای برخی از مجموعه داده ها کار نمی کند (که با lme/lmer در R نیز کار نمی کند). آیا فواصل اطمینان را بر اساس حداقل مربعات به جای احتمال می دانید؟ من به فرمول هایی که این فواصل را ارائه می دهند و / یا روش محاسبه آنها با یک نرم افزار علاقه مند هستم.
فواصل اطمینان در یک مدل ترکیبی
100940
به طور خلاصه، من به دنبال گسترش آزمون بروش-پاگان در مورد متغیرهای وابسته چند متغیره هستم. فرم _اسکالر_ آزمون، با رگرسیورهای متعدد، مدل \begin{equation} \begin{split} y &= \vec{\beta}^{\top} \vec{x} + \epsilon,\\\ را فرض می‌کند. \epsilon^2 &= h(\vec{z}^{\top}\vec{\alpha})، \end{split} \end{معادله} که در آن اولین عنصر $\vec{z}$ به طور یکسان یک است و $h$ یک تابع شناخته شده با مشتقات اول و دوم است. آزمون از فرضیه صفر $$ H_0 است: \alpha_2 = \alpha_3 = \ldots = \alpha_p = 0. $$ من کنجکاو هستم در مورد موردی که یکی در حال انجام رگرسیون خطی چند متغیره_ چند متغیره با بردار $\vec{y} است. $. آیا آزمایش های شناخته شده ای برای این کار وجود دارد؟
آزمایش هتروسکداستیکی شرطی چندگانه در رگرسیون چند متغیره
105903
من سعی می کنم با استفاده از مدل اسمی، احتمالات مشاهده مقوله های مختلف را با توجه به توانایی افراد مختلف ترسیم کنم. از کتابچه راهنمای نظریه پاسخ آیتم چندگانه 2010، احتمال پاسخگویی در دسته $k$ توانایی داده شده $\theta$ و پارامترهای آیتم $a$ و $b$ برای آیتم $i$ عبارت است از: $$P_{ik}(u =k|\theta;\textbf{a, b})={\exp(a_k\theta+b_k)}/{\sum_i \exp(a_i\theta+b_i)}$$ این مدل باید از نظر توانایی شخصی $\theta$ متغیر باشد. با این حال، به نظر نمی رسد که اگر $\theta$ را در کد R خود تغییر دهم، تفاوتی ایجاد نمی کند. من مطمئن نیستم که آیا این برای CV مناسب نیست. فکر کردم ممکن است یک اشتباه تئوری از طرف من باشد. این کد R من است: pnom <- تابع (تتا، a، b) exp(a*theta+b)/sum(exp(a*theta+b)) pnom(2,c(1,1),c( -1،1)) [1] 0.1192029 0.8807971 pnom(1,c(1,1),c(-1,1)) [1] 0.1192029 0.8807971
پیاده‌سازی مدل اسمی از نظریه پاسخ آیتم‌های چندتومی
79679
فرض کنید دو سهم P و Q وجود دارد. سهام «P» دارای مقدار «1» و سهام «Q» دارای ارزش «2» است. 1.000.000 نفر در جمعیت وجود دارد و همه آنها بین سهام P و Q انتخاب می کنند. من می خواهم ارزش سهام را بر اساس تعداد افرادی که سهام را انتخاب می کنند، تخفیف دهم. به طور خاص، هر چه تعداد افرادی که سهام را انتخاب می کنند بیشتر باشد، ارزش آن کمتر خواهد بود. آیا می توانید فرمول خوبی را معرفی کنید که مقادیر را به روش دلخواه کاهش دهد؟ برای مثال: در روز 1: «400.000» نفر «P» و «600.000 Q» را انتخاب می‌کنند. و مقادیر «P=1» و «Q=2» در روز 2: «450.000» نفر «P» و «550.000 Q» را انتخاب می‌کنند. مقادیر باید به گونه ای تنزیل شوند که مقدار P کاهش و Q متناسب با تعداد افرادی که گزینه ها را انتخاب می کنند افزایش یابد.
تنزیل ارزش بر اساس فرکانس
78501
من 5 مدل لجستیک برای 5 محصول دارم. برای توصیه یک محصول به مشتری، می‌خواهم سفارش محصولات را بر اساس امتیاز احتمالی آنها رتبه‌بندی کنم. مشکل به این دلیل است که من سیب را با پرتقال مقایسه می کنم، مقیاس احتمال برای هر یک از مدل ها متفاوت است، ضریب نفوذ برای هر محصول متفاوت است. من می توانم احتمال را استاندارد کنم، اما چگونه می توانم ضریب نفوذ را نیز لحاظ کنم؟
مقایسه احتمالات دو مدل مختلف - سیب تا پرتقال
105901
آیا ارائه‌دهنده نظرسنجی مانند Rainforest QA وجود دارد، اما برای نظرسنجی طراحی شده باشد؟ به عنوان مثال یک ارائه دهنده ارزان و مقیاس پذیر که به سؤالات ساده در مورد صفحه اول صفحه وب پاسخ می دهد مانند آیا طراحی را دوست دارید؟
ارائه دهنده نظرسنجی مانند Rainforest QA
79678
تنظیم: $X_i$ ~ i.i.d $Uniform(\theta,2\theta)$، و بگویید نشان داده‌ایم که $X_{(1)}$، اولین آمار مرتب‌شده، یک تخمین‌گر ثابت برای $\theta$ است. اکنون می‌خواهیم نشان دهیم که $$n \left( \frac{X_{(1)}}{\theta} - 1 \right) \longrightarrow_d G_1$$ جایی که $G_1$ مقداری توزیع غیر منحط است. من دیده‌ام که $$P\left(n(\frac{X_{(1)}}{\theta} - 1) > t \right) = (1-\frac{t}{n})^n \ longrightarrow e^{-t}$$ و نحوه نشان دادن آن را درک کنید. ادعا این است که $e^{-t}$ توزیع دنباله یک متغیر تصادفی با توزیع نمایی با پارامتر مقیاس = 1 است. این به این معنی است: $$n \left( \frac{X_{(1)}}{ \theta} - 1 \right) \longrightarrow_d Exp(0,1)$$ دانستن اینکه همگرایی در احتمال مستلزم همگرایی در توزیع است بینش کمی در مورد چرا این روش کار می کند/ ایده خوبی است، اما هنوز احساس می کنم که آن را کاملاً درک نمی کنم. برای یک t ثابت، آیا نشان نمی‌دهیم که از نظر احتمال به یک ثابت همگرا می‌شود؟ (شاید یک کاربرد Slutsky سپس ما را به همگرایی به توزیع نمایی وادار کند، اما من کاملاً نمی دانم چگونه). علاوه بر این، چرا توزیع دنباله نشان می دهد که کل متغیر به صورت نمایی رفتار می کند؟ با تشکر فراوان برای بینش شما!
تعیین توزیع محدود کننده یک برآوردگر سازگار
26748
افشا: من امتحان شفاهی خود را برای آمار آماده می کنم (بنابراین من به عنوان تکلیف برچسب گذاری می کنم، امیدوارم مناسب باشد). من فکر می کنم که در درک مفهوم قدرت یک آزمون (از نظر گرافیکی) ناکام هستم. من سعی خواهم کرد آنچه را که در ذهن دارم توضیح دهم: من یک آزمون دارم که برای آن H0 دارم: Mu = 52 H1: Mu > 52 اعتماد به نفس: آلفا و از من خواسته می شود تا زمانی که میانگین واقعی باشد، قدرت آزمون را پیدا کنم. 50. آنچه من می دانم این است که قدرت = 1 - بتا = P(rej H0 | H0 نادرست است). و اینکه بتا = P (نه rej H0 | H0 نادرست است) یا خطای نوع II. آیا این رقم نمایانگر درستی از استدلال من است؟ ![قدرت یک تست](http://i.stack.imgur.com/v3den.png) اگر تست من چیزی شبیه به H0: Mu = 50 H1: Mu < 50 اعتماد به نفس: آلفا بود، عکس چگونه به نظر می رسید و میانگین واقعی = 52 برای بررسی قدرت تست به من داده شد؟ آیا این رقم یکسان است اما با آلفا و بتا مبادله شده است؟
چگونه می توان قدرت آماری را به صورت گرافیکی برای یک آزمون فرضیه معین نشان داد؟
68366
من از روش مونت کارلو زنجیره مارکوف (متروپلیس-هیستینگز) برای تخمین میانگین توزیع استفاده می کنم. از چه روش های عملی می توان برای تعیین دقیق دقت این تخمین، به ویژه زمانی که نرخ پذیرش کاهش می یابد، استفاده کرد؟ به طور خاص، آیا راهی بهتر از محاسبه مجدد میانگین چندین بار و نگاه کردن به گسترش نتایج وجود دارد؟ کلمه کلیدی در اینجا _efficiency_ است: امیدوارم راهی برای محاسبه میانگین نسبتاً دقیق و تخمین آن دقت بدون افزایش زمان محاسبه پیدا کنم. زمان محاسبات طولانی یک مشکل در برنامه من است. محاسبه میانگین به طور دقیق در همه موارد (زمانی که نرخ پذیرش کاهش می یابد) امکان پذیر نخواهد بود و به ویژه مهم است که تخمینی از دقت زمانی که این اتفاق می افتد داشته باشیم.
دقت میانگین برآورد شده با MCMC را تعیین کنید
92452
من یک لیست $l$ حاوی اعداد صحیح در محدوده $[1,max]$ دارم در لیست $l$ من یک عملیات $isPresent(x)$ را انجام می‌دهم که اگر x در $l$ موجود باشد، true را برمی‌گرداند. من $x$ را با استفاده از تابع $nextX()$ ایجاد می کنم که $x$ بعدی را با استفاده از توزیع تصادفی لیست $l$ ایجاد می کند و تابع $isPresent(x)$ با هم سیستمی است که لیست $l$ در آن است. یک ساختار داده سفارشی شده مشابه درخت جستجوی باینری و $isPresent(x)$ یک الگوریتم جدید شبیه به یک الگوریتم جستجوی باینری است که به طور موثر بر روی ساختار داده عمل می کند. من می خواهم عملکرد این سیستم را در برابر درختان جستجوی شناخته شده و الگوریتم های جستجو آزمایش کنم. روش فعلی که من برای محک زدن این سیستم ها استفاده می کنم این است که یک «بار کاری تصادفی» ایجاد می کنم. من لیست $l$ را با اعداد تصادفی یکنواخت در محدوده $[1,max]$ پر می کنم. سپس یک عدد تصادفی یکنواخت $x$ را با استفاده از $nextX()$ ایجاد می کنم و آن را به تابع $isPresent(x)$ ارسال می کنم. من چنین عملیاتی را $k$ انجام می دهم. در اینجا تابع $nextX()$ فقط $rand()$ را صدا می کند تا عدد تصادفی بعدی را بدست آورد. چیزی که من می‌خواستم امتحان کنم، یک «بار کاری کج» است. من سعی کردم از توزیع پواسون در $nextX()$ برای تولید $x$ (استفاده از توزیع پواسون برای تولید اعداد صحیح تصادفی) با $mu$ به عنوان max/1.1 استفاده کنم، اما انحراف استاندارد کوچک است و اعداد تولید شده نزدیک به خوشه‌بندی می‌شوند. حداکثر دلار من می‌خواهم توزیع گسسته‌ای غیر از توزیع یکنواخت انتخاب کنم، اما مقادیر تولید شده باید «تقریباً» کل محدوده $[1,max]$ را پوشش دهد. حجم کاری دیگری که می‌خواهم ایجاد کنم باید ویژگی زیر را داشته باشد. تابع $nextX()$ باید یک عدد صحیح در محدوده $[1,max]$ برگرداند. اگر تابع $nextX$ را $k$ بار صدا بزنم، برخی از اعداد صحیح $k$ باید تصادفی باشند، اما ممکن است دوره‌ای وجود داشته باشد که برخی از آنها می‌توانند دنباله‌ای مرتب شده (صعودی یا نزولی) باشند، برای مثال، اگر $max=32 باشد. $، سپس با فراخوانی $nextX()$ 18 بار می تواند 17,11,23, **5,7,17,23,30** ,2,31,17,1, **19,14,8,6,5,2** در اینجا اولین اعداد صحیح '3' تصادفی هستند و دنباله ای مرتب شده با طول تصادفی '5' و به دنبال آن یک دنباله تصادفی هستند. از اعداد صحیح به طول 4 و به دنبال آن یک دنباله مرتب شده معکوس با طول تصادفی 6 من می توانم با تولید اعداد مرتب شده 18 و آنها به طور تصادفی به این هدف برسم. انتخاب تعداد پارتیشن ها و در هر پارتیشن می توانم به طور تصادفی آنها را به هم بزنم. اما مشکل این است که به فضای ذخیره‌سازی زیادی نیاز دارد و مقدار $k$ که نشان‌دهنده تعداد دفعاتی است که تابع $nextX()$ فراخوانی می‌شود بسیار بزرگ است، بنابراین من می‌خواهم این توزیع اریب را به سرعت ایجاد کنم. **زمینه:** دلیلی که من به دنبال ایجاد چنین دنباله ای هستم این است که یک درخت جستجوی باینری نامتعادل برای توزیع تصادفی به خوبی کار می کند زیرا ارتفاع درخت نزدیک به $O(log(n))$ است. برای دنباله مرتب شده، ارتفاع می تواند تا $O(n)$ برسد. در عمل هر دو هرگز چنین نیستند. بارهای کاری معمولاً تصادفی هستند و توالی های مرتب شده گاه به گاه در هم قرار می گیرند.
انتخاب یک توزیع غیر یکنواخت گسسته برای تولید اعداد صحیح تصادفی
105906
> جایزه ای که برای این سوال گذاشتم در 24 ساعت آینده منقضی می شود. من یک مجموعه داده های روانشناختی دارم که به طور سنتی با استفاده از آزمون t نمونه های زوجی تجزیه و تحلیل می شود. طرح آزمایش $39 (موضوعات) \times 7 (هدف‌ها) \times 2 (شرایط) $ است و من به تفاوت در یک متغیر معین بین شرایط علاقه مند هستم. رویکرد سنتی میانگین گیری در بین اهداف بوده است، به طوری که من 2 مشاهده برای هر شرکت کننده داشته باشم، و سپس این میانگین ها را با استفاده از آزمون t زوجی مقایسه کنم. من می‌خواستم از یک رویکرد مدل‌های ترکیبی استفاده کنم، همانطور که به طور فزاینده‌ای در این زمینه محبوب شده است (یعنی بااین، دیویدسون و بیتس، 2008)، و بنابراین اولین مدلی که من برازش کردم، که فکر کردم باید نتایج آزمون t را تقریبی کند، یکی بود. با $condition$ به عنوان یک اثر ثابت، و وقفه های تصادفی برای $subjects$ (یعنی $var = \alpha + \beta*condition + Intercept(موضوع) + \epsilon$ بدیهی است که مدل کامل شامل رهگیری های تصادفی $هدف است دیدم (چیزی که من می فهمم) سوال مشابهی که در اینجا پرسیده شده است، با پاسخی در مورد ساختار همبستگی که من برای درک آن مجهز نیستم برخی از منابع را برای خواندن در این مورد پیشنهاد کنید **ویرایش:** من نمونه داده ها و اسکریپت R را در اینجا ارسال کرده ام پاسخ های صحیح (آن را مشابه زمان واکنش در نظر بگیرید)، بنابراین **موارد گمشده** وجود دارد - هر شرکت کننده 7 نقطه داده در هر شرط ارائه نمی دهد. * وقتی همه پاسخ ها را تجزیه و تحلیل می کنم، نه فقط پاسخ های صحیح، تفاوت بین دو نتیجه کاهش می یابد، اما حذف نمی شود. این به من نشان می دهد که موارد مفقود یک عامل در اینجا هستند. * متغیر به طور معمول توزیع نشده است. در مدل نهایی خود، آن را با استفاده از تبدیل Box-Cox مقیاس می‌دهم، اما برای سازگاری با آزمون t آن را در اینجا حذف می‌کنم. * همانطور که توسط @PeterFlom اشاره کرد، $df$s بین این دو رویکرد بسیار متفاوت است، اما من فرض می‌کنم این به این دلیل است که آزمون t روی داده‌های کل اعمال می‌شود (2 مشاهده برای هر شرکت‌کننده، 1 در هر شرط)، در حالی که مدل ترکیبی برای نمرات خام اعمال می شود ($<14$ مشاهدات برای هر شرکت کننده، $<7$ در هر شرط). * @BenBolker خاطرنشان می کند که مقادیر t نیز بسیار متفاوت است. کد تحلیل من در زیر آمده است. >library(dplyr) >subject_means = group_by(داده، موضوع، شرط) %>% summarise(var=mean(var)) >t.test(var ~ condition, data=subject_means, paired=T) داده های آزمون t زوجی : var با شرط t = -1.3394، df = 37، p-value = 0.1886 فرضیه جایگزین: تفاوت واقعی در میانگین برابر 0 95 درصد فاصله اطمینان نیست: -0.14596388 0.02978745 برآورد نمونه: میانگین تفاوت -0.05808822 >library(lme4) >lm.0 = lmer(var ~ (1|موضوع)، data=da) >lm. 1 = lmer(var ~ شرط + (1|موضوع)، data=data) >anova(lm.0, lm.1) داده: داده مدل‌ها: شی: var ~ (1 | موضوع) ..1: var ~ شرط + (1 | موضوع) Df AIC BIC logLik انحراف Chisq Chi Df Pr(> Chisq) شی 3 489.09 501.23 -241.55 483.09 ..1 4 485.81 502.00 -238.90 477.81 5.2859 1 0.0215 * >library(lmerTest) >summary(lm.1)$coef Estimate Std. خطای df t مقدار Pr(>|t|) (قطع) 0.11862462 0.02878027 98.60659 4.121734 7.842075e-05 شرط 0.09580546 0.041610237 0.041610237 0.041610237 2.182890e-02، به طور خاص، به جهش در مقدار p از $p = 0.188$ در آزمون t، به $p = 0.021$ از هر روش «lmer» توجه کنید. * * * من سعی کردم، و نتوانستم یک مثال تکرارپذیر از این را ارائه دهم، با استفاده از مجموعه داده «بی اشتهایی» در بسته «MASS»، بنابراین فرض می‌کنم مشکل چیزی غیرعادی برای داده‌های من است، اما نمی‌فهمم. چی # قرض گرفتن از http://ww2.coastal.edu/kingw/statistics/R-tutorials/dependent-t.html >data(anorexia, package=MASS) >ft = subset(anorexia, subset=(Treat== FT)) >wgt = c(ft$Prewt، ft$Postwt) >pre.post = rep(c(pre,post),c(17,17)) >subject = rep(LETTERS[1:17],2) >t.test(wgt~pre.post, data=ft.new , paired=T) داده های آزمون t زوجی: wgt توسط pre.post t = 4.1849، df = 16، p-value = 0.0007003 فرضیه جایگزین: تفاوت واقعی در میانگین برابر با 0 95 درصد فاصله اطمینان نیست: 3.58470 10.94471 برآورد نمونه: میانگین تفاوت ها 7.264706 > m = lmer(wgt ~ pre.post + (1|موضوع)، داده=ft.new) >خلاصه(m)$coef Estimate Std. خطای df t مقدار Pr(>|t|) (تقاطع) 90.494118 1.689013 26.17129 53.578096 0.0000000000 pre.postpre -7.264706 1.735930.48615 0.0007002806
رابطه بین آزمون تی زوجی و مدل ترکیبی ساده
78503
تخصص دامنه من در آمار نیست، بنابراین سوال من ممکن است برای شما احمقانه به نظر برسد. من دو توزیع مختلف دارم، اول studentID به عنوان ستون و ویژگی در ردیف. *اولین توزیع** شاهکار. std1 std2 std3 std4 بینی 3.0cm 3.5cm 2.9cm 3.1cm ارتفاع 170cm 173cm 167cm 165cm مو 5.0cm 20cm 7.0cm 2.0cm توزیع دوم جزئیات بیشتری در مورد ویژگی ها دارد، اجازه دهید در مورد مو بگوییم. ** توزیع دوم** مو std1 std2 std3 std4 ضخامت دانش آموزان؟ یعنی فاصله std1 از std3 بر اساس ویژگی مو چقدر است؟
چگونه از دو توزیع ماتریس شباهت بسازیم؟
21152
جنگل‌های تصادفی جزو جعبه‌های سیاه محسوب می‌شوند، اما اخیراً به این فکر می‌کردم که از یک جنگل تصادفی چه دانشی می‌توان به دست آورد؟ بارزترین چیز اهمیت متغیرها است، در ساده ترین نوع آن را می توان فقط با محاسبه تعداد وقوع یک متغیر انجام داد. دومین چیزی که من به آن فکر می کردم تعاملات است. من فکر می کنم که اگر تعداد درختان به اندازه کافی زیاد باشد، می توان تعداد وقوع جفت متغیرها را آزمایش کرد (چیزی مانند استقلال مربع کای). مورد سوم غیر خطی بودن متغیرها است. اولین ایده من این بود که به نموداری از یک امتیاز متغیر Vs نگاه کنم، اما هنوز مطمئن نیستم که آیا منطقی است یا خیر. این چیزها احتمالاً به خوبی مطالعه شده اند (فقط یک شهود). اگر کسی بتواند به من راهنمایی کند که چگونه این موارد را به درستی بررسی کنم، ممنون می شوم. اضافه شده 23.01.2012 **انگیزه** من می خواهم از این دانش برای بهبود مدل لاجیت استفاده کنم. من فکر می‌کنم (یا حداقل امیدوارم) بتوان تعامل‌ها و غیرخطی‌هایی را یافت که نادیده گرفته شده‌اند.
کسب دانش از یک جنگل تصادفی
88734
من سعی می کنم رگرسیون لجستیک فرث (روش مدیریت جداسازی کامل یا شبه کامل در رگرسیون لجستیک) را درک کنم تا بتوانم آن را به زبان ساده برای دیگران توضیح دهم. آیا کسی توضیح ساده‌ای درباره تغییراتی که تخمین فرث در MLE انجام می‌دهد دارد؟ من تا جایی که می توانستم، فرث (1993) را خواندم و متوجه شدم که یک تصحیح در تابع امتیاز اعمال می شود. من در مورد منشاء و توجیه اصلاح و اینکه تابع امتیاز در MLE چه نقشی ایفا می کند مبهم هستم. ببخشید اگر این دانش ابتدایی است. به نظر می رسد ادبیاتی که من بررسی کرده ام نیاز به درک بسیار عمیق تری از MLE نسبت به من دارد.
به دنبال درک نظری رگرسیون لجستیک فرث
114836
من یک طبقه‌بندی کننده دارم که ثابت است و می‌خواهم عملکرد پیش‌بینی‌کننده آن را با استفاده از مجموعه داده‌های آزمایشی ارزیابی کنم. من با شرایطی آشنا هستم (به عنوان مثال در K-fold CV) که در آن داده ها تقسیم می شوند و طبقه بندی کننده روی زیر مجموعه ها آموزش داده می شود، اما در این مورد من نمی توانم هیچ آموزشی را انجام دهم. به طور خاص من فواصل اطمینان در اندازه گیری F1 را می خواهم، بنابراین قصد دارم با استفاده از مجموعه داده آزمایشی، F1 را با هر نمونه بوت استرپ بوت استرپ کنم. من نمی توانم هیچ اطلاعاتی در مورد این نوع سناریو پیدا کنم - آیا بوت استرپ یک رویکرد معتبر است؟
ارزیابی یک طبقه بندی ثابت
92459
من واقعا 2 سوال دارم من مقیاسی را از ایالات متحده آمریکا تا ترکیه اتخاذ می کنم. مقیاس اصلی دارای شش عامل است، اما بر اساس نتایج تحلیل عاملی، دریافتم که مقیاس پذیرفته شده از 9 عامل تشکیل شده است. یک عامل به دلیل داشتن بارهای مشابه بر روی عوامل مختلف، حذف شد. به نظر شما مقیاس پذیرفته شده می تواند به عنوان 8 عامل استفاده شود یا مشکلی است؟ اتفاقاً من تحلیل عاملی اکتشافی را در SPSS انجام دادم. سوال دوم من مهم تر است. بر اساس تجزیه و تحلیل سازگاری درونی، من آلفای کرونباخ بالایی را برای کل مقیاس پذیرفته شده یافتم، اما دو عامل با سطح آلفای پایین مانند 0.200 و 0.387 را یافتم. آیا باید این عوامل را حذف کنم و دوباره همان تجزیه و تحلیل پایایی را برای کل مقیاس انجام دهم؟ چه کار کنم؟ پیشاپیش از پاسخ شما متشکرم
آیا باید عوامل را به دلیل سطح آلفای کرونباخ پایین حذف کنم؟
92457
من همان مجموعه داده (الماس از ggplot2) را در R با چهار مدل خطی تجزیه و تحلیل کرده ام. هر مدل ساختار خطای متفاوتی دارد. برای افرادی که از نظر آماری شروع نشده اند، ممکن است هر مدلی محاسن خود را داشته باشد: به نظر می رسد هر کدام نسبت مناسبی از تغییرات را توضیح می دهند، «قیراط» یک پیش بینی بسیار مهم در هر مدل است و غیره. اما من حدس می زنم که اکثر یا همه این مدل ها هستند. برای تجزیه و تحلیل این داده ها مناسب نیست. آیا کسی می تواند محاسن و معایب هر یک از این مدل ها را ارزیابی کند: کتابخانه (ggplot2) lm (قیمت ~ قیراط، الماس) glm (قیمت > 10000 ~ قیراط، خانواده = دو جمله ای، الماس) glm (قیمت > 10000 ~ قیراط، خانواده = quasibinomial، الماس) glm (قیمت ~ قیراط، خانواده = poisson، الماس)
همان مجموعه داده با چهار مدل خطی مختلف تجزیه و تحلیل شد
26741
به دنبال پاسخ برایان دیگز، من سعی کردم تا حدی احتمال بقا را در «R» تخمین بزنم. با این حال، نتیجه اشتباه است ('1' به جای '0.9') و من نمی فهمم چه اتفاقی می افتد ... می توانید به من توضیح دهید؟ > زمان [1] 1.38103330 2.14191380 1.47271212 0.02703924 0.34921793 3.01005383 1.01132532 0.09546903 0.09546903 0.09546903 0.09546903 > 0.09546903 0.09546903 [1] 1 1 1 1 1 1 1 1 1 1 > km <- survfit(Surv(زمان، رویداد) ~ 1) > surv <- stepfun(km$time, c(1, km$surv), right=FALSE ، f=0) > surv(min(زمان)) [1] 1
تخمین احتمال بقا در R (2)
34762
من در تلاش برای تولید یک مدل ترکیبی خطی هستم که کد R به شرح زیر است. > > lme(Average.payoff~Game+Type+Others.Type+Game:Type+Game:Others.Type+Type:Others.Type,random=~1|موضوعات،روش=REML، > data=Subjectsm1) ->lme1 عبارت پاسخ Average.payoff پیوسته است در حالی که همه متغیرهای توضیحی هستند همه باینری وقتی به اعتبار سنجی می رسم، به وضوح می توانم ببینم که گسترش باقیمانده ها با مقادیر برازش بزرگتر کاهش می یابد. اگرچه به نظر می رسد اطلاعات زیادی در مورد ناهمگونی به شکلی که باقیمانده ها با مقادیر برازش بزرگتر افزایش می یابند، در مورد موارد مشابه خود چیزی نخوانده ام. من باقیمانده ها را در برابر هر اثر توضیحی رسم کرده ام و می بینم که اسپرد با مقادیر برازش بزرگتر برای متغیرهای Game و Type کاهش می یابد اما برای متغیر Others.Type افزایش می یابد. علت این امر چیست و چه کاری باید انجام دهم؟ آیا باید به اضافه کردن اصطلاحات درجه دوم نگاه کنم یا از مدل سازی افزایشی استفاده کنم؟ آیا تحولی وجود دارد که باید اعمال شود؟ ممنون جاناتان
با ناهمگنی واریانس چه باید کرد زمانی که گسترش با مقادیر برازش بزرگتر کاهش می یابد
34763
هنگام تخمین میانگین یک جمعیت، دو توزیع مفید به نظر می رسد، توزیع نرمال و توزیع t. آیا درست است که بگوییم $t=(\overline{x}-\mu)/{\rm SE}(\overline{x})$ از یک توزیع نرمال برای هر جمعیتی (نه فقط به طور معمول توزیع شده) پیروی می کند، تا زمانی که اندازه نمونه ها از نظر اندازه معنی دار هستند (با استفاده از قضیه حد مرکزی)؟ و آیا درست است که t از یک توزیع t پیروی کند زمانی که حجم نمونه کوچک است، اما پس از آن جامعه تنها در صورتی که جامعه به طور معمول توزیع شده باشد، زیرا قضیه حد مرکزی اعمال نمی شود؟ با تشکر
توزیع $(\overline{x}-\mu)/{\rm SE}(\overline{x})$ چه زمانی نرمال است و چه زمانی $t$ است؟
91810
من دو آگهی دارم و می خواهم بفهمم کدام بهتر است. اگر هر دو هزینه یکسانی داشته باشند، فرضیه صفر من این است که احتمال موفقیت در اولی برابر با دومی است و می توانم از آزمون کای دو پیرسون استفاده کنم. اگر هزینه های دو تبلیغ متفاوت باشد، فرضیه صفر من این است که $c_1/p_1 = c_2/p_2$ که در آن $c_1$ هزینه هر کلیک تبلیغ است، و $p_1$ نرخ موفقیت است. (نسبت $c/p$ نشان دهنده «هزینه موفقیت» است.) من مطمئن نیستم که چگونه این فرضیه را آزمایش کنم. می‌توانم عبارت‌ها را به صورت $p_1 = p_2 c_1 / c_2$ بازنویسی کنم و بپرسم که تفاوت آنها با چه اطمینانی از این نسبت فراتر می‌رود (شاید با مدل‌سازی احتمالات به صورت بتا توزیع شده) - آیا این بهترین راه برای انجام آن است؟
آزمایش فرضیه برای معیارهای هزینه به ازای کلیک
34767
فراوانی اصطلاح - بسامد معکوس سند، تعداد ترم ها در یک سند است که در برابر همه جا بودن عبارت در داخل بدنه وزن دارد. این وزن بر این اصل استوار است که عباراتی که تقریباً در هر سندی وجود دارد، برای یک سند خاص کمتر است و باید به گونه ای کوچک شود که مقدار tf-idf نشان دهنده اهمیت نسبی عبارت در یک سند باشد. با این حال، آیا یک SVM که از یک طبقه‌بندی‌کننده خطی استفاده می‌کند، فرکانس عبارت مناسبی را در یک سند وزن نمی‌کند؟ آیا به طور خودکار اصطلاحات همه جا را در نظر نمی گیرد و وزن آنها را کاهش نمی دهد؟
چرا tf-idf همراه با SVM ها برای طبقه بندی اسناد استفاده می شود؟
34761
(این سوال ادامه سوال قبلی است) من در حال ایجاد یک پرسشنامه هستم و 3 سوال را شناسایی کرده ام که دارای انحراف هستند (2 سوال دارای انحراف مثبت و 1 سوال دارای انحراف منفی). من با موفقیت دو تا از سوالات را با استفاده از Lg10 و معکوس Lg10 در SPSS تغییر دادم، اما سوال دوم دارای انحراف مثبت حتی پس از تبدیل Lg10 همچنان دارای انحراف مثبت است. سؤالات من به شرح زیر است: 1. آیا بسیار خوب است که سؤال پس از تبدیل همچنان دارای انحراف مثبت باشد؟ آیا اقدام دیگری لازم است (هر گونه تغییر و تحول بیشتر)؟ 2. آیا می توانم برای این سوال خاص از تبدیل متفاوتی استفاده کنم (باقیمانده دارای انحراف مثبت) یا باید از همان تبدیل برای همه سؤالات اریب استفاده کنم؟ 3. قوی ترین تبدیل بعدی بعد از Lg10 در SPSS چیست؟ چگونه در SPSS وارد می شود؟ (مثلاً سؤال دارای انحراف منفی = Lg10 ((حداکثر امتیاز + 1) - سؤال))
آیا تبدیل داده ها قبل از تحلیل عاملی باید در بین متغیرهای مختلف سازگار باشد؟
67936
من بارها با این نقل قول مواجه شده ام: > مشورت با آمارگیر پس از پایان آزمایش، اغلب صرفاً > درخواست از او برای انجام معاینه پس از مرگ است. او شاید بتواند بگوید که این آزمایش به چه دلیلی از بین رفت. - رونالد فیشر (1938) برای من، شاید کمی متکبرانه به نظر برسد. تنها نمونه‌هایی که من تا به حال پیدا کرده‌ام که نشان می‌دهد چگونه آزمایش‌ها بدون طراحی خوب می‌میرند، مربوط به نبود کنترل یا کنترل ضعیف است. برای مثال، آزمایش‌هایی که کاربرد کود را کنترل می‌کنند، اما نمی‌توانند محیط مورد نیاز برای کاربرد را کنترل کنند. شاید این فقط من باشم، اما به نظر می رسد که مطالعه سریع بخش ویکی پدیا در مورد اصول طراحی فیشر، بیشتر مبانی را پوشش می دهد. به‌عنوان یک آماردان، چند بار طراحی مشکلات مربوط به آزمایش با داده‌ها را می‌بینید؟ آیا آنها همیشه به چند عامل ذکر شده توسط فیشر مرتبط هستند یا مشکلات جدی دیگری وجود دارد که ما دانشمندان غیرآماری آموزش دیده باید به دنبال آنها باشیم؟
مشکلات در طراحی آزمایشی: اجتناب از آزمایش های مرده
92456
امیدوارم این حتی امکان پذیر باشد. من در حال انجام برخی آمار در لیگ بسکتبال فانتزی هستم که در آن حضور دارم. بیایید فرض کنیم که آمار کل هفته برای هر تیم را در قالب داده پانداها دارم. چیزی شبیه به زیر است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NwsZ2.png) **هدف نهایی من این است که از طریق این پایگاه داده مرور کنم و آنچه را که می توانم در مقابل تجارت افزایش دهم پیدا کنم -خارج از چیزی که باید کاهش دهم تا عملکردم را در برابر لیگ به بهترین نحو بهبود بخشم.** در مثال بالا، با این حال، می توانید ببینید که جایگزینی PTS بسیار آسان تر از BK است. بنابراین نمی توانم بگویم خوب 10 امتیاز تیمم را افزایش بده و ببین چقدر خوب کار می کنم... حالا تیم را 10 BK افزایش بده و ببین چقدر خوب هستم. من به اندازه ای نیاز دارم که ارزش هر متغیر در رابطه با متغیرهای دیگر چقدر است. بنابراین بگویید من این اعداد را پیدا کردم، و معلوم شد که 10 PTS ارزش 1 BLK دارد. حالا می‌توانم تکرار کنم و ببینم اگر 10 واحد از یکی را بیرون بیاورم و 10 واحد را به دیگری اضافه کنم (100 PTS و 10 BLK) تیم من چگونه عمل می‌کند. آیا من یک دسته را بهبود می بخشم؟ همچنین می‌توانستم ببینم که می‌خواهم به دنبال چه نوع بازیکنانی بروم اگر بدانم یک دسته برای تیم من بسیار مهم است و دیگران به درستی برای آن ارزش قائل نیستند. ببخشید اگر این آسان یا بیش از حد پیچیده است، من حتی نمی دانم چگونه به آن نزدیک شوم. اگر رویکردی بهتر از آنچه که توضیح دادم وجود دارد، من همه گوش هستم! ممنون بچه ها
یافتن اینکه چه تغییری در هر متغیر معادل همان تأثیر است
72597
من سعی می کنم تعیین کنم که آیا یک تبدیل خاص در سایت من از نظر آماری معنی دار است یا خیر. به یاد داشتم که این نوع کارها را در مدرسه انجام می دادم، اما به نظر نمی رسد اکنون به یاد بیاورم که چگونه این کار را انجام دهم. برای مجموعه اول: n = 7297 و تبدیل 2.618٪ بود برای مجموعه دوم: n = 6107 و تبدیل 2.669٪ بود آیا راهنمایی در مورد چگونگی انجام این کار؟
چگونه می توان آزمایش کرد که آیا نتیجه از نظر آماری معنی دار است؟
67934
در صورت نیاز به اجرای تحلیل عاملی و رگرسیون با عوامل به دست آمده به عنوان متغیر، آیا باید نمونه را به دو گروه تقسیم کنم و روی یکی تحلیل عاملی و در دیگری رگرسیون انجام دهم؟ تئوری چه می گوید، و اگر نمونه به اندازه کافی بزرگ نباشد، مردم چه می کنند؟ متشکرم
آیا باید از نمونه های جداگانه برای تحلیل عاملی و برای تجزیه و تحلیل موارد زیر استفاده کرد (رگرسیون و غیره)
50285
من در حال تجزیه و تحلیل برخی از داده های ارتوپدی هستم و نتیجه ما جوش خوردن در مقابل عدم اتصال یک شکستگی است. یکی از متغیرهای مستقل ما این است که آیا شکستگی اولیه بسته بود (پوست سالم) در مقابل باز. چنین ارزیابی را می توان با انجام آزمایش دقیق فیشر انجام داد. در R یکی به سادگی یک جدول احتمالی 2*2 ایجاد می کند و آن را آرگومان «fisher.test» می سازد. با این حال، چه اتفاقی می‌افتد وقتی یک متغیر دوجمله‌ای سوم را اضافه کنید: آیا ارگانیسم باکتریایی کشت شده است (بله یا خیر)؟ حالا یک میز 2*2*2 داریم. آیا یک fisher.exact می تواند 3 عامل (یا ابعاد) را مدیریت کند؟ من می توانم به راه دیگری برای رسیدگی به این موضوع فکر کنم. می توان رگرسیون لجستیک را در جایی انجام داد که فرهنگ و بسته در مقابل باز به سادگی دو متغیر مستقل بودند. آیا این کار می کند؟ مزیت رگرسیون لجستیک چندگانه ممکن است این باشد که می توان تخمین نسبت شانس و حتی شرایط تعامل را بدست آورد.
چگونه استقلال k متغیرهای دو جمله ای را آزمایش می کنید؟
91814
من Warlight را به صورت آنلاین بازی می کنم (چیزی مانند Risk) و هدف من ایجاد یک ربات است که در برابر ربات های دیگر بازی کند. n=100 سرباز مهاجم در هر نوبت به طور متوسط ​​60 (0.6=p) سرباز را می کشند، n=100 سرباز مدافع به طور متوسط ​​70 (p=0.7) سرباز را در هر نوبت می کشند. دقیقاً در همان زمان حمله می کنند. توزیع دوجمله ای به گونه ای که variance=n*p*(1-p) سوال من این است: تصور کنید ما 40 نیرو داریم و دشمن 25 سرباز. من به این مورد علاقه دارم که به طور مداوم حمله کنم. شانس اینکه من در نوبت X برنده شده باشم چقدر خواهد بود (مثلاً X=5)؟ برای نوبت = 1، صرفاً مجموع تجمعی حداقل 25 کشته است: $$\sum_{i=25}^{40} {40 \choose i} * 0.6^i * (1-0.6)^{(40 -i)} = 0.440$$ من با توزیع دوجمله ای بازی کرده ام، اما به دلیل این در نوبت های X محاسبه آن دشوار است. به نظر می رسد که واقعاً مقدار محاسبات مورد نیاز را منفجر می کند (به دلیل عدم وجود یک ترفند هوشمند). آیا می توان این کار را به صورت تحلیلی انجام داد یا من بهترین حالت را دارم که فقط این را شبیه سازی کنم (که فکر می کنم بسیار کندتر خواهد بود)؟ ویرایش: شاید بتوان آن را به سادگی با استفاده از 60% و 70% انجام داد؟
احتمال تصرف قلمرو دشمن در نوبت X
91817
فرض کنید من بردارهای 1 بعدی زیادی با ابعاد یکسان دارم که می خواهم آنها را با یکدیگر مقایسه کنم. چیزی که من واقعاً به دنبال آن هستم این است که بررسی کنم آیا همه آنها بسیار شبیه هستند یا نه، و بر اساس شباهت کلی (میانگین شباهت ها؟) امتیازی بدست آوریم. من نیازی به تراز کردن بردارها ندارم، فقط می خواهم آنها را از ابتدا تا انتها با یکدیگر مرتبط کنم. من باید این محاسبات را چندین بار انجام دهم و باید خیلی سریع باشد. بردارها کوچک (100 واحد) و بر پایه شناور هستند. من از پایتون استفاده میکنم آیا ترفند دیگری جز مقایسه هر بردار با بردارهای دیگر و گرفتن بدترین همبستگی برای هر یک وجود دارد؟
همبستگی بسیاری از بردارهای 1d
91813
من در تلاش برای درک برخی از داده‌های مربوط به احتمال بازده مثبت سهام پس از یک سیگنال خاص هستم. فراوانی بازده های مثبت در بین مجموعه داده ها متفاوت است (در یک دوره زمانی خاص) برخی از سهام بازده مثبت بیشتری نسبت به بازده منفی دارند، در حالی که برخی دیگر بازده منفی بیشتری نسبت به بازده مثبت دارند (اما نه چندان). من می خواهم احتمال دریافت بازده مثبت را با توجه به وقوع آنچه به عنوان سیگنال مثبت تعریف کرده ام، درک کنم. فرض کنید سیگنال های مثبت در مقابل منفی به طور تصادفی رخ می دهند. این بدان معناست که (من فکر می‌کنم) با دوره‌ها یا مجموعه داده‌هایی که بازدهی مثبت‌تر از منفی بود، احتمال اینکه یک سیگنال مثبت با بازده مثبت به دنبال داشته باشد بیشتر از 50٪ خواهد بود - اما این در واقع نتیجه داشتن بیشتر خواهد بود. بازده مثبت چگونه می توانم تأثیر نتایج مطلوب تر از نتایج نامطلوب را از اندازه گیری قابلیت اطمینان سیگنال باز کنم؟ آیا این سوال در مورد نحوه استفاده از قضیه بیز است؟
در این شرایط چگونه به احتمال مشروط فکر می کنم؟
67938
من فکر می‌کنم اگر مستقیماً از متغیر ساختگی برای پیش‌بینی‌کننده طبقه‌ای با صدها سطح استفاده کنیم، ممکن است مشکل‌ساز باشد. من یک راه حل از کتاب عنصر یادگیری آماری پیدا کرده ام. راه حل در بخش های درخت طبقه بندی ذکر شده است. به طور خاص، راه‌حل سطوح پیش‌بینی‌کننده طبقه‌ای را بر اساس تعداد وقوع هر سطح در یک کلاس مرتب می‌کند و سپس با پیش‌بینی‌کننده به‌عنوان یک پیش‌بینی‌کننده مرتب رفتار می‌کند. من نمی‌دانم برای مدل‌هایی غیر از درخت طبقه‌بندی، مانند رگرسیون خطی، چه روش‌های مناسبی برای مدیریت پیش‌بینی‌کننده‌های طبقه‌بندی با سطوح بسیار زیاد است. من یک پست قدیمی پیدا کردم که سوالات مشابهی را مطرح می کرد، اما هیچ پاسخی ارسال نشده است. پیش‌بینی‌کننده لاجیت طبقه‌ای با سطوح مختلف بسیار زیاد
چگونه می توان با پیش بینی های طبقه بندی شده با سطوح بسیار زیاد برخورد کرد؟
34769
در مجموعه داده‌ای از دو جمعیت غیر همپوشانی (بیماران و سالم، مجموع $n=60$) من می‌خواهم (از بین متغیرهای مستقل $300) پیش‌بینی‌کننده‌های مهمی برای یک متغیر وابسته پیوسته پیدا کنم. همبستگی بین پیش بینی کننده ها وجود دارد. من علاقه مندم که بفهمم آیا هر یک از پیش بینی کننده ها با متغیر وابسته در واقعیت مرتبط هستند یا نه (به جای اینکه متغیر وابسته را تا حد امکان دقیقاً پیش بینی کنم). از آنجایی که من با رویکردهای متعدد ممکن غرق شدم، می خواهم بپرسم که کدام رویکرد بیشتر توصیه می شود. * از درک من گنجاندن یا حذف گام به گام پیش بینی کننده ها توصیه نمی شود * به عنوان مثال. یک رگرسیون خطی را جداگانه برای هر پیش‌بینی‌کننده اجرا کنید و مقادیر p را برای مقایسه چندگانه با استفاده از FDR درست کنید (احتمالاً بسیار محافظه‌کار است؟) * رگرسیون مؤلفه اصلی: تفسیر دشوار است زیرا نمی‌توانم درباره قدرت پیش‌بینی‌کننده‌های فردی بگویم، اما فقط در مورد اجزاء * پیشنهاد دیگری دارید؟
شناسایی پیش بینی کننده های مهم از بین 300 متغیر مستقل
50284
با استفاده از R، می‌خواهم آزمایش کنم که آیا چندین پارامتر در یک مدل رگرسیونی برابر با مقادیر خاص هستند (به طور پیش‌فرض، چندین پارامتر برابر با 0 هستند). به عنوان مثال، در این مدل رگرسیونی: امتیاز ~ beta0 + beta1*i1 + beta2*i2 + beta3* سن + beta4*i1* سن + beta5*i2* سن می‌خواهم H0 را آزمایش کنم: (بتا2 = 0) و (بتا5 = 0) SAS می تواند این کار را در PROC REG با استفاده از دستور TEST انجام دهد. محتویات ویرایشگر برنامه SAS: proc reg data=tolerate; مدل امتیاز=i1 i2 سن i1age i2age; تست i2=0, i2age=0; * آیا assc prof دارای همان خط reg با asst هستند؟ ; اجرا؛ محتویات پنجره خروجی SAS: نتایج آزمون 1 برای نمره متغیر وابسته میانگین منبع DF مربع F مقدار Pr > F Numerator 2 0.15581 0.38 0.6859 مخرج 24 0.40678 در اینجا کدی در R است که تجزیه و تحلیل را آغاز می کند: # توضیحات داده: http://statacumen.com/teach/ADA2/ADA2_HW_07_S13.pdf tolerate <- read.csv(http://statacumen.com/teach/ADA2/ADA2_HW_07_tolerate.csv) tolerate$rank <- factor(tolerate$rank ) tolerate$rank <- relevel(tolerate$rank, 3) str(tolerate) tolerate.manual <- data.frame(score = tolerate$score , i1 = (tolerate$rank==1) , i2 = (tolerate$rank==2) , age = tolerate$age , i1age = tolerate $age * (tolerate$rank==1) , i2age = tolerate$age * (tolerate$rank==2) lm.man <- lm(امتیاز ~ i1 + i2 + سن + i1age + i2age، داده = tolerate.manual) خلاصه (lm.man) من نتوانستم راه حلی با استفاده از کتابخانه multcomp، کنتراست یا (C) پیدا کنم. در حالت ایده‌آل، می‌توانم این کار را بدون ایجاد عبارت‌های جداگانه در مدل انجام دهم، اما مستقیماً از این عبارت lm(): من به دنبال همان کاربردهای F-test SAS هستم. summary(lm.s.a.r.ar) library(aod) # برای wald.test() coef.test.values ​​<- rep(0, length(coef(lm.s.a.r.ar))) # معمولاً، این همه 0s wald خواهد بود. test(b = coef(lm.s.a.r.ar) - coef.test.values ​​, Sigma = vcov(lm.s.a.r.ar)، اصطلاحات = c(4،6)) تست والد: ---------- تست مجذور کای: X2 = 0.77، df = 2، P(> X2) = 0.68 با تشکر از توجه به این سوال
آزمون پارامترهای همزمان R lm
50133
من در حال مدل سازی یک بازی ویدئویی تیراندازی هدف هستم. یک بازیکن می تواند شلیک کند و به هدف بزند، شلیک کند و از دست بدهد، یا اسلحه را عوض کند. برای سادگی، نتایج «HIT»، «MISS»، «NEW_WEAPON» هستند. من متغیرهای کمکی در مورد ویژگی های بازیکن و سلاح دارم. داده‌ها نامتعادل هستند: برخی از بازیکنان زیاد بازی می‌کنند، برخی کمی، برخی در یک بازدید، برخی در چندگانه، و اهداف به‌طور تصادفی با دشواری‌های متفاوت تولید می‌شوند. **برخی سلاح ها برای برخی از اهداف بهتر هستند، اما تعویض در بازی جریمه دارد، بنابراین بازیکنان دوست ندارند جابجا شوند. چیزی که می‌خواهم بپرسم این است که آیا تغییر به طور متوسط ​​یک استراتژی خوب است و آیا برای برخی از بازیکنان موثرتر از سایرین است یا خیر. مدل 1. یک رگرسیون لجستیک از نتایج «HIT»+ «MISS» به عنوان 0 در مقابل «NEW_WEAPON» به عنوان 1. شامل یک رهگیری برای هر بازیکن، تمایل بازیکن به شلیک سلاح در مقابل سلاح‌های سوئیچ را به من نشان می‌دهد. 2. سپس می‌توانم این رهگیری را به‌عنوان یک متغیر کمکی در رگرسیون لجستیک دوم وارد کنم، این بار نتایج «MISS» به‌عنوان 0 در مقابل «HIT» به‌عنوان 1. این متغیر کمکی دارای شیب $\beta$ است، که اثر را به من می‌گوید. تمایل به شلیک یک سلاح در مقابل سلاح های سوئیچ به طور متوسط. 3. به‌عنوان پسوند (2)، می‌توانم یک رگرسیون لجستیک از «MISS» به‌عنوان 0 در مقابل «HIT» به‌عنوان 1 با شیب‌های $\beta_p$ برای هر بازیکن بسازم، که به من می‌گوید آیا تعویض برای برخی از بازیکنان موثرتر از دیگران ** آیا این منطقی به نظر می رسد؟ پیشنهادی دارید؟ من نگرانم که استفاده مجدد از مشاهدات «HIT» و «MISS» در (1) و در (2) به نحوی درست نیست.**
دسته های نتیجه تو در تو در یک لجستیک چند جمله ای
91816
من پاره وقت را به عنوان یک متغیر وابسته باینری (0 که پاره وقت کار نمی کنند و 1 نفر نیمه وقت کار می کنند) با پارامترهای مختلف در زیر partme - متغیر = 1 اگر کارمند پاره وقت کار می کند، 0 در غیر این صورت سن = سن پاسخ دهنده بر حسب سال ethbg رگرسیون می کنم. =متغیر طبقه ای (1-5) نشان دهنده پیشینه قومی یک زن - متغیر اگر زن باشد، 0 در غیر این صورت hqual=متغیر طبقه بندی (0-4) نشان دهنده بالاترین مدرک تحصیلی کسب شده marstat=متغیر طبقه ای (1-3) نشان دهنده وضعیت تأهل فردی reg=متغیر طبقه ای (1-11) نشان دهنده منطقه محل سکونت ind=متغیر طبقه بندی (1-9) نشان دهنده صنعت اشتغال در حال حاضر من سن و سن را به مدل خود مربع اضافه کردم و در هر متغیر یک دسته را رها کردم تا وارد تله متغیر ساختگی نشوم که به نتیجه می رسم. ![Eviews result](http://i.stack.imgur.com/9yGjE.jpg) 1.) حال مشکل این است که چگونه اثر حاشیه ای را تفسیر کنیم؟ می دانم فقط ضریب سن است. بنابراین آیا این یک واحد تغییر در سن است، به طور متوسط ​​احتمال کار افراد در شغل پاره وقت 2.49٪ کاهش می یابد؟ 2.) در متغیر مجذور سن، چگونه ضریب را تفسیر کنم؟ با افزایش سن، افراد کار پاره وقت با نرخ 0.03 درصد افزایش می یابد؟ اگر با سوال 1 ترکیب کنیم اصلاً معنی ندارد. 3) چگونه عبارت ثابت را تفسیر کنم؟ 4. اگر مقدار p روی ضریب معنی دار باشد، آیا این ضریب مدل را توضیح می دهد. به عنوان مثال 0.0000<5% سطح علامت. 5.) من می دانم که در LPM نمی توانیم از R-squared به عنوان معیار خوبی استفاده کنیم... زیرا متغیر باینری 0 و 1 را می گیرد. با تشکر فراوان
ضریب تفسیر، اثر حاشیه ای از مدل احتمال خطی
50131
من یک مدل مداخله را بر روی گزارش یک سری ارقام فروش با تفاوت فصلی تخمین زده‌ام و به جای تابع پالس از تابع پله استفاده کرده‌ام. سوال من این است: چگونه اثر مداخله را تفسیر کنم؟ اگر ضریب 0.05- است، آیا من درست می گویم که مداخله منجر به کاهش 5 درصدی در فروش شده است؟ آیا این تعبیر درست است، حتی اگر سریال اصلی که مداخله روی آن اعمال شده، تفاوت های فصلی داشته باشد (این یک سریال هفتگی است)؟
اثرات مداخله فصلی
67935
اگر من اصطلاحات را به درستی درک کنم، می پرسم: مقدار مورد انتظار متغیر تصادفی تعریف شده به عنوان تعداد شش های به دست آمده از چرخاندن یک قالب 6 وجهی N بار چیست؟ من منبعی پیدا کردم که می گفت برای $N=2$، تعداد مورد انتظار شش ها $12/36=1/3$ است، اما مطمئن نیستم چرا.
به طور متوسط ​​چند بار با چرخاندن یک قالب N بار یک عدد شش به دست می‌آورم؟
67937
من در حال انجام یک مطالعه تحقیقاتی برای یافتن بحث در مورد نقص های امنیتی در تعاملات بررسی کد همتا هستم. من یک پایگاه داده استخراج شده از مخازن بررسی کد را پر کرده ام. از آنجایی که بیش از 200000 رشته در پایگاه داده وجود دارد، من فهرستی از کلمات کلیدی را برای جستجو در موضوعات بحث ایجاد کرده ام که ممکن است به بحث امنیتی مرتبط باشند. با استفاده از کلمات کلیدی، حدود 5000 موضوع را فیلتر کردم. ما به صورت دستی آن رشته ها را بررسی می کنیم و طبقه بندی می کنیم که آیا هر یک از آنها مربوط به نقص امنیتی است. ما متوجه شدیم که حدود 30٪ از آنها در واقع به نقص های امنیتی مربوط می شوند. اکنون، من باید کارآمدی مجموعه کلمات کلیدی خود را بیابم. برای آن، من قصد دارم به طور تصادفی تعدادی از موضوعات را انتخاب کنم، آنها حاوی هیچ یک از کلمات کلیدی نیستند. ما همچنین به صورت دستی آن‌ها را بررسی می‌کنیم تا ببینیم چند نفر از آن‌ها درباره نقص‌های امنیتی بحث می‌کنند. اگر موارد بسیار پایین (مثلاً کمتر از 1٪) مربوط به بحث امنیتی باشد، می توانیم نتیجه بگیریم که مجموعه کلمات کلیدی ما موثر است. برای قضاوت در مورد اثربخشی مجموعه کلمات کلیدی خود به کمک در تعیین حجم نمونه مناسب (چه تعداد از 195000 رشته بدون کلمه کلیدی را بررسی کنم) نیاز دارم. من دریافته ام که فرمول کوکران می تواند برای تعیین اندازه جمعیت برای یک نظرسنجی استفاده شود. آیا می توانم آن را در این سناریو اعمال کنم؟
چگونه می توان حجم نمونه مناسب را تعیین کرد؟
24420
من فاقد دانش رسمی در مورد آمار هستم و در مقاله های ویکی پدیا در مورد این موضوع گم شدم. من یک الگوریتم دارم که یک راه حل برای یک مسئله تولید می کند. ممکن است چندین راه حل وجود داشته باشد. همه راه حل ها به یک اندازه خوب نیستند و من می توانم برای هر راه حل نمره بدهم. من می خواهم بتوانم بگویم الگوریتم خوب است یا نه. برای هر مسئله می توانم حد و مرزهای بهترین و بدترین راه حل ممکن را محاسبه کنم (فقط کران ها، نه مقادیر دقیق). من همچنین می‌توانم یک راه‌حل تصادفی برای یک مسئله ایجاد کنم، اما هر راه‌حل تصادفی معتبر نیست (هر چند شانس بالایی برای دریافت یک راه‌حل معتبر وجود دارد). مجموعه داده ای که قرار است از آن استفاده کنم مشکلاتی تقریباً مشابه دارد. واضح است که باید از تست های آماری استفاده کنم، اما کدام یک؟ به نظر می رسد که آنها نیاز به دانش در مورد توزیع دارند و برای مقایسه الگوریتم ها مناسب تر هستند. **ویرایش:** نمی‌خواهم جزئیات بی‌ربط زیادی اضافه کنم، بنابراین سعی می‌کنم ساده‌سازی کنم. من یک الگوریتم دارم که یک مشکل را حل می کند. برای مثال، مسیری بین دو گره در یک گراف پیدا می کند. ورودی یک نمودار است. خروجی یک مسیر است. بدیهی است که مسیرهای کوتاهتر بهتر از مسیرهای طولانی تر هستند. میخوام بدونم الگوریتمم خوبه؟ من دقیقاً نمی دانم خوب را چگونه تعریف کنم، اما اینجاست که آمار می تواند به من کمک کند، اینطور نیست؟ چیزی که تا به حال در مورد آن فکر می کردم این بود که کارهای زیر را انجام دهم: 1. الگوریتم را روی مجموعه ای از مسائل اجرا کنید (مشکل یک نمودار است). اندازه همه این نمودارها از نظر قدر یکسان است. 2. برای هر گراف یک مسیر تصادفی (در مسئله خاص من امکان پذیر است) پیدا کنید و این کار را چندین بار انجام دهید. 3. نتایج 1 و 2 را مقایسه کنید تا ببینید آیا الگوریتم من بهتر از انتخاب یک مسیر به صورت تصادفی است یا خیر. آیا این کار را درست انجام می دهم؟ چگونه باید مرحله 3 را انجام دهم؟
چگونه می توان عملکرد الگوریتم ارائه راه حل های با کیفیت متفاوت را ارزیابی کرد؟
67931
من در حال مدل‌سازی یک مدل خطرات متناسب چند متغیره (ریسک‌های رقابتی) هستم، و می‌خواهم یک متغیر کمکی با زمان متغیر داخلی را لحاظ کنم. 1. آیا باید یک افکت اصلی را برای این متغیر کمکی در مدل لحاظ کنم؟ (من سعی نمی کنم فرض تناسب را در اینجا آزمایش کنم) 2. چگونه می توان مقدار کلی و اهمیت این متغیر با زمان متغیر را گزارش کرد؟
اثر اصلی مورد نیاز برای متغیر کمکی متغیر با زمان؟
50132
فرض کنید من یک مجموعه محدود از مشاهدات $x_{i}$، $i = 1، 2، \ldots، n$ دارم. آیا نابرابری در رابطه با انحراف معیار و محدوده بین چارکی وجود دارد؟
نابرابری شامل محدوده بین چارکی و انحراف معیار
77410
چند سوال کلی دارم فرض کنید من یک مجموعه داده با پاسخ باینری Y و تعدادی پیش بینی دارم. اگر Y کاملاً متعادل نباشد، مثلاً تعداد 1های بسیار بیشتر از 0 باشد. 1. آیا مشکل بالقوه ای برای تحلیل بیشتر (به عنوان مثال، رگرسیون لجستیک یا طبقه بندی) به همراه خواهد داشت؟ 2. اگر چنین است، چگونه می توان «بسیار بیشتر» را تعریف کرد و چه نوع تأثیری را می توان معرفی کرد؟ 3. به نظر می رسد نمونه گیری طبقه ای گزینه ای با داده های کافی باشد. آیا مرجع خوبی در مورد مزایا و معایب تجربی صحبت می کند؟ 4. درمان/بحث دیگری برای این مشکل وجود دارد؟ پیشاپیش از شما متشکرم.
متغیر پاسخ نامتعادل
24424
امیدوارم از یک سوال مبتدی رنج ببرید :) من سعی می کنم بهترین روش را برای نمودار (در اکسل) سهم ماه به ماه بازدیدهای سایت و بازدید از صفحه در پنج منبع ارجاع، گروه بندی بقیه را بیابم. به اشتراک بگذارید: منابع دیگر. فکر من این بود که یک نمودار ستونی خوشه‌ای و انباشته انجام دهم که در آن هر ماه دارای یک خوشه از دو ستون باشد - بازدید و بازدید از صفحه. هر ستون در یک خوشه بر اساس منبع انباشته می شود. ستون بازدیدها از یک محور y استفاده می کند و بازدید از صفحه از یک محور y ثانویه استفاده می کند - بازدید از صفحه مقادیر بسیار بالاتری نسبت به بازدیدها دارد. اگر هر یک از این اصطلاحات اشتباه است مرا ببخشید. آیا من در مسیر درستی هستم یا راه بهتری برای تجسم این داده ها وجود دارد؟ اگر این راهی است که باید رفت، هیچ جهتی در مورد اینکه چگونه داده های خود را مرتب کنم تا اکسل را متقاعد کنم تا همه این پارامترها را در یک نمودار قرار دهد؟ یا این سوال مربوط به یک سایت StackExchange دیگر است؟ با تشکر
تجسم ترافیک در اکسل: پنج منبع، دو معیار، ماه به ماه