_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
82896
می خواستم بدانم آیا کسی می تواند در تلاش برای تجسم برخی داده ها کمک کند. من 11 گروه ارگانیسم دارم و آنها را به سطوح یک باکتری خاص در نمونه های آب مرتبط کرده ام. I have a strong positive relationship between the proportion of one of the groups and some non-significant relationships in others, some positive, some negative. My idea was to show on one plot how the proportion of this positively related group increases as the level of bacteria increases and others stay similar or decline. من سعی کردم این کار را با استفاده از نمودار geom_area در ggplot http://docs.ggplot2.org/current/geom_area.html انجام دهم. استفاده از داده‌های متناسب خام ایده بدی است، زیرا این رابطه تنها زمانی واقعاً دیده می‌شود که اثرات تصادفی در یک مدل اثرات مختلط گنجانده شود. من استفاده از مقادیر مدل برازش را در نظر گرفتم، اما مطمئن نیستم اگر بخواهم نتایج مدل را با هم مقایسه کنم این بهترین ایده است؟ با تشکر فراوان برای هر کمکی در این زمینه.
مقایسه نتایج lmer با استفاده از نمودارهای geom_area
95561
عصر همگی بخیر، من روی سوال خودآزمایی زیر برای رگرسیون کار می کنم، اما پاسخ من 26.901 واقعاً متفاوت از پاسخ مدل 27.2155 به نظر می رسید. **_Question_** > یک هتل درآمد ناخالص خود را از عملیات هتل و رستوران خود به دست می آورد. > مالکان به رابطه بین تعداد اتاق های اشغال شده به صورت شبانه و درآمد روزانه در رستوران علاقه مند هستند. > در زیر نمونه ای از 25 روز (دوشنبه تا پنجشنبه) از سال گذشته نشان داده شده است > درآمد رستوران Y را به هزار دلار و تعداد اتاق ها > X اشغال شده نشان می دهد > > ![توضیح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/NvVcQ.jpg) **_My Attempt_** > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pjueE.jpg) قدردان هر راهنمایی لطفا.
سوال خود مطالعه رگرسیون
82720
اگر تخمین شما این است که p=0 (یا به طور مشابه p=1) و اندازه نمونه نسبتا کوچک است، برای مثال n=25، بهترین تکنیک برای محاسبه فاصله اطمینان یک آزمایش دو جمله ای چیست؟
فاصله اطمینان حول تخمین دوجمله ای 0 یا 1
64131
من سعی می کنم بسته R DEPMIXS4 را به منظور خوشه ای سری با خوشه بندی مبتنی بر مدل اعمال کنم. این مدل از مؤلفه های K تشکیل شده است که هر یک مدل های Markov مرتبه اول هستند. الگوریتم انتظار حداکثر انتظار برای برآورد پارامترهای مدل استفاده می شود. سری زمانی من چند متغیره و از طول دلخواه است (یعنی می تواند 400 باشد ، می تواند 1 باشد). در حال حاضر، 2 مشکل وجود دارد: 1. depmixS4 به سمت مدل‌های پنهان مارکوف است، نه مدل‌های مرتبه اول اولیه. 2. من به طور کامل مراحل E و M خوشه بندی مبتنی بر مدل را هنگام اعمال بر اجزای مدل مارکوف مرتبه اول درک نمی کنم. به طور گسترده، ادبیات علمی در مورد مدل های پنهان مارکوف صحبت می کند. با این حال، به نظر من مدل‌های مارکوف ساده مرتبه اول را می‌توان به عنوان یک مورد خاص از مدل‌های پنهان در نظر گرفت (که در آن توزیع احتمال پاسخ فقط هویت است، پاسخ برابر با حالت است - بنابراین حالت‌ها در واقع قابل مشاهده هستند). بنابراین فرآیند خوشه بندی نیازی به رمزگشایی حالت های پنهان ندارد. با این حال، خود فرآیند E-M هنوز نامشخص است و من مطمئن نیستم که بتوانم روش‌های بسته depmixS4 را با تنظیم آنها اعمال کنم یا باید الگوریتم خودم را در R توسعه دهم. $p(v | \Theta) = \sum_{t=1\ldots K}p(c_k)p_k(v | \Theta_k)، $$ کجا $v=v_1،\ldots،v_L$ - بردار با طول دلخواه، و $$p_k(v |\Theta_k)=p(v_1| \Theta_{k_i})\prod_{i=2\ldots L} p(v_i |v_{i-1}، \Theta_{k_T}).$$ همچنین بردار توزیع قبلی حالت اولیه و ماتریس احتمال انتقال داده شده است. T_p$.
آیا زنجیره مارکوف مرتبه اول را می توان مورد خاصی از مدل مخفی مارکوف در نظر گرفت؟
52239
آیا کسی می تواند جریان کاری در این مورد ارائه دهد؟ برای مثال، فرض کنید در حال انجام طبقه‌بندی باینری هستم، برای هر تکرار الگوریتم: به‌طور تصادفی k*N ردیف را نمونه‌گیری کنید، که k کیسه کسر، و N nrow (مجموعه داده) است. با استفاده از این نمونه آموزشی یک طبقه بندی بسازید، فرض کنید در اینجا از درخت طبقه بندی استفاده می کنیم. برچسب کلاس گره ترمینال را پیش بینی کنید. به این ترتیب تقویت بدون CV انجام می شود. اگر بخواهم رزومه 3 برابری انجام دهم، دقیقاً کجا آن را اعمال کنم؟ بین مرحله 1 و 2 یا بعد از مرحله 3؟ با تشکر
اعتبار سنجی متقاطع در بسته gbm R چگونه کار می کند؟
46074
من سعی می کنم با جمع آوری داده های عملکرد با استفاده از ابزارهای استاندارد مانند Windows Performance Monitor و سپس قرار دادن این داده ها در Excel برای تجزیه و تحلیل، عملکرد سرور خود را تجزیه و تحلیل کنم. وقتی جمع‌آوری داده را راه‌اندازی می‌کنم (به نام آن)، می‌توانم فواصل مختلفی را برای جمع‌آوری انتخاب کنم، مانند هر 1 ثانیه، هر 10 ثانیه و غیره. اولین فکر من این بود که داده‌هایی که در هر 1 ثانیه جمع‌آوری می‌شوند یک «جمعیت» خواهند بود، و فواصل زمانی بیشتر این داده‌ها را به «نمونه» تبدیل می‌کنند، اما خیلی زود متوجه شدم که می‌توانم آن‌ها را به میلی‌ثانیه‌ها و غیره بشکنم. آیا داده هایی که در هر بازه زمانی معینی جمع آوری می کنم «جمعیت» یا «نمونه» در نظر گرفته می شود؟
نمونه در مقابل جمعیت
97055
با پیروی از صفحه ویکی و شکل تابع احتمال برای یک مدل توبیت تعمیم یافته ارائه شده در اینجا، به استفاده از مدلی از این نوع برای مشکلی که با آن روبرو هستم، اما در تفسیر به کمک نیاز دارم، فکر می کنم. من یک متغیر $ y $ دارم که تصور می کنم به صورت خطی از طریق پارامتر $ \ بتا $ به $ x $ بستگی دارد. مدل من \begin{equation} Y = X\beta + \epsilon_i \end{equation} است. مشکل این است که برخی از مقادیر مشاهده‌شده من برای $Y$، یعنی $y_i$، حد بالایی هستند. آیا می توانم مفهوم داده های سانسور شده را به این مورد گسترش دهم و از مدل Tobit برای انجام رگرسیون خطی استفاده کنم؟ آیا در مورد امکان بیشتر متغیر متغیر تعدیل کننده طبقه بندی شده در رگرسیون فکر دارید؟ آیا این امکان پذیر است؟ با تشکر
مدل توبیت مانند برای متغیر وابسته با حد بالایی
90584
توزیع بتا مزدوج قبل از توزیع دو جمله ای است. آیا توزیع دو جمله ای بتا مزدوج برای برخی از توزیع های نمونه برداری است؟
آیا توزیع بتا دو جمله ای مزدوج برای برخی توزیع ها است؟
16827
اخیراً به من گفته شد که نمی‌توان متغیرهای کمکی متغیر با زمان را در مدل‌های ترکیبی طولی بدون معرفی یک تاخیر زمانی برای این متغیرهای کمکی گنجاند. آیا می توانید این را تأیید یا رد کنید؟ آیا مرجعی در مورد این وضعیت دارید؟ من یک موقعیت ساده را برای روشن شدن پیشنهاد می کنم. فرض کنید که من اندازه گیری های (مثلاً بیش از 30 بار) متغیرهای کمی (y، x1، x2، x3) را در 40 موضوع تکرار کرده ام. هر متغیر در هر موضوع 30 بار توسط پرسشنامه اندازه گیری می شود. در اینجا داده های نهایی 4800 مشاهده (4 متغیر X 30 مورد X 40 موضوع) خواهد بود که در 40 موضوع تو در تو قرار گرفته اند. من می خواهم به طور جداگانه (نه برای مقایسه مدل) آزمایش کنم: * اثرات همزمان (همزمان): تأثیر x1، x2، و x3 در زمان t بر روی y در زمان t. * اثرات تاخیر: تاثیر x1، x2، و x3 در زمان t-1 بر y در زمان t. امیدوارم همه چیز روشن باشد (من انگلیسی زبان مادری نیستم!). به عنوان مثال، در R lmer{lme4}، فرمول با اثرات تاخیری این است: lmer(y ~ lag1.x1 + lag1.x2 + lag1.x3 + (1|موضوع)) که در آن «y» متغیر وابسته در آن زمان است. t، `lag1.x1` متغیر مستقل با تاخیر x1 در سطح فردی و غیره است. برای اثرات همزمان، فرمول به صورت زیر است: lmer(y ~ x1 + x2 + x3 + (1|موضوع)) همه چیز به خوبی اجرا می شود و نتایج جالبی به من می دهد. اما آیا درست است که یک مدل lmer با متغیرهای کمکی متغیر زمان سنکرون مشخص کنیم یا چیزی را از دست داده ام؟ _**ویرایش:_** علاوه بر این، آیا می‌توان هم افکت‌های هم‌زمان و هم افکت‌های تاخیری را همزمان آزمایش کرد؟ به عنوان مثال: lmer(y ~ x1 + x2 + x3 + lag1.x1 + lag1.x2 + lag1.x3 + (1|موضوع)) از نظر تئوری، آزمایش رقابت بین اثرات همزمان در مقابل تأخیر منطقی است. اما آیا مثلاً با «lmer{lme4}» در R ممکن است؟
آزمایش اثرات همزمان و تاخیری در مدل‌های ترکیبی طولی با متغیرهای کمکی متغیر با زمان
7839
1. با استفاده از درصد خطا یا درصد اختلاف، می خواهم یکی از مقادیر اندازه گیری شده خود را از یک مجموعه با میانگین مجموعه مقایسه کنم. با خواندن مقاله ویکی پدیا در مورد اختلاف درصد، هنوز کاملاً مشخص نیست که کدام را انتخاب کنم. 2. اگر بخواهم شیب آنی را با شیب رگرسیون خطی مقایسه کنم، از درصد خطا یا درصد اختلاف استفاده کنم، چطور؟ اگر هنوز روشن نیست، سوء تفاهم من در مقایسه یک مقدار از یک مجموعه با مقداری جمع آوری شده محاسبه شده از آن مجموعه نهفته است. پیشاپیش ممنون -جی پی
درصد خطا یا درصد اختلاف؟
90589
مجموعه ای از (مصنوعی) وجود دارد که Minkovski (نابرابری مثلث تضمین نشده است) معیارهای تعریف شده در مجموعه اشیاء. یک متریک اتالون (طبیعی) وجود دارد که تخمین آن فقط برای برخی اشیا (یک زیر مجموعه یادگیری محدود) شناخته شده است. چگونه می توانم ترکیبی از معیارهای «مصنوعی» (در اصل متریک جدید) را به دست بیاورم که بهترین تقریب (برای کلاس پیشنهادی از ترکیبات) متریک «طبیعی» باشد؟ منظورم نوع روش های مناسب یا چیزی است که حوزه جستجوی بیشتر را مشخص می کند. شاید این فقط یک تقریب تابع دو بعدی باشد که در آن هر دو بعد فضای گسسته یکسانی را به عنوان یک ماتریس فاصله ارائه می‌کنند و تابع یک متریک اتالون است. تحقق خاص ترکیب فاصله ها نکته مهمی نیست (اگرچه پیچیدگی محاسباتی کمتر بهتر است)، بنابراین ممکن است ترکیب خطی ساده باشد. و نوع اشیاء نیز مهم نیست، اما در مورد من برخی از مجموعه داده‌ها هستند که من چندین معیار شباهت را برای آنها تعریف می‌کنم که باید در یک مورد مطابق با تخمین متخصص ترکیب شوند.
بهینه سازی متریک در نمونه یادگیری گسسته
65660
در کتاب ویتن و فرانک در مورد الگوریتم های داده کاوی_ می خوانم: _اگر تقویت در کاهش خطا در داده های آزمایشی جدید موفق باشد، اغلب این کار را به شیوه ای دیدنی انجام می دهد. یک یافته بسیار شگفت انگیز این است که انجام تکرارهای تقویت کننده بیشتر می تواند باعث کاهش خطا شود. خطای داده های جدید مدت ها بعد از اینکه خطای طبقه بندی کننده ترکیبی روی داده های آموزشی به صفر رسید، محققان متحیر شدند این نتیجه از آنجایی که به نظر می‌رسد با تیغ اوکام در تضاد است، که بیان می‌کند از بین دو فرضیه که شواهد تجربی را به خوبی توضیح می‌دهند، فرضیه ساده‌تر ترجیح داده می‌شود مطمئناً به طبقه‌بندی‌کننده ترکیبی پیچیدگی اضافه می‌کند پیش‌بینی‌ها._ اگر درست متوجه شده باشم، تقویت می‌تواند خطای تست را پس از صفر شدن خطای تمرین کاهش دهد. آیا به این معنی است که طبقه بندی کننده بیش از حد مناسب است؟ آیا می توانید این نکته را برای من روشن کنید؟
تقویت الگوریتم ها و بیش از حد برازش
80496
من تعجب می کنم که چرا داده های بیان ژن اغلب توسط توزیع های نرمال چند متغیره مدل سازی می شوند. دلیل آن فرضیات قوی که ژن ها از گاوسی چند متغیره پیروی می کنند چیست؟ آیا دلایل خاصی برای ژنتیک به جز دلایل فرضیات کلی گوسی (راحتی ریاضی و غیره) وجود دارد؟
چرا فرض می شود که ژن ها از نرمال چند متغیره پیروی می کنند؟
90586
در اینجا موضوعاتی وجود داشته است که قبلاً پیوندهای رسانه‌ای که علیت را به مطالعات همبستگی نسبت می‌دهند، و پیوندهایی به آن مطالعات پست شده است. به نظر می رسد که ما همیشه بر این تمرکز داریم که به دانش آموزان نشان دهیم که چگونه همبستگی ها را شناسایی کنند و آن را با علیت اشتباه نگیرند. با این حال، ما چیز مهمی را در این فرآیند از دست می‌دهیم: برخی از دانش‌آموزان پس از آن تصور می‌کنند که علیت هرگز قابل استنباط نیست، و مطلقاً همه چیز یک همبستگی است! آیا کسی پیوندی به مطالعات در رسانه ها دارد که در واقع پیوندهای علی را نشان می دهند؟ درک دانش‌آموز از تفاوت بین همبستگی/علیت در مطالعات گزارش‌شده توسط روزنامه‌نگاران، تنها زمانی قابل استنباط است که رابطه علی گاهی اوقات واقعاً پاسخ صحیح باشد.
مثال هایی برای آموزش: گاهی اوقات می توانیم علیت را استنتاج کنیم.
95563
من به دنبال کلمه/عبارتی هستم که برای گفتن اینکه یک نتیجه گیری اشتباه (بالقوه) از داده ها بدون داشتن ارتباط با سایر نقاط داده حمایتی گرفته شده است، استفاده می شود. به عنوان مثال، اگر شخصی مجموعه داده تعداد خودروهای قرمز فروخته شده در ایالات متحده در ماه را به عنوان «ژانویه: 10، فوریه: 10، مارس: 9، آوریل: 8، مه: 7، و غیره» داشته باشد و نتیجه گیری کند: «خودروهای قرمز از مد می‌افتند»» بدون اینکه این داده‌ها با کل فروش خودرو در همان دوره زمانی، یا تعداد خودروهای رنگی فروخته‌شده دیگر مرتبط باشد. فروش به طور کلی کاهش نیافته است، اما اگر فروش خودرو به طور کلی کاهش یافته باشد، و غیره، این نتیجه می تواند نادرست باشد. آیا این سوگیری نمونه گیری نام دارد یا چیز دیگری؟
نتیجه گیری از داده ها بدون همبستگی با سایر داده های پشتیبان
90583
P-value احتمال به دست آوردن یک آماره آزمون حداقل به اندازه آنچه مشاهده می شود، با فرض صحت فرضیه صفر تعریف می شود. به عبارت دیگر، $$P( X \ge t | H_0 )$$ اما اگر آزمون آماره در توزیع دووجهی باشد چه؟ آیا p-value در این زمینه به معنای چیزی است؟ به عنوان مثال، من قصد دارم برخی از داده های دووجهی را در R شبیه سازی کنم: set.seed(0) # Generate bi-modal توزیع bimodal <- c(rnorm(n=100,mean=25,sd=3),rnorm(n= 100,mean=100,sd=5)) hist(bimodal, breaks=100) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/spCCE.png) و فرض کنیم یک مقدار آماری آزمایشی 60 را مشاهده می کنیم. و در اینجا از تصویر می دانیم _این مقدار بسیار بعید است_. بنابراین، در حالت ایده‌آل، من یک روش آماری را می‌خواهم که از آن استفاده کنم (مثلاً pvalue). اما اگر مقدار p را همانطور که تعریف شده محاسبه کنیم، یک مقدار p بسیار بالا مشاهده می کنیم <- 60 # دریافت Pvalue sum(bimodal[bimodal >= 60])/sum(bimodal) [1] 0.7991993 اگر من این کار را نکردم با دانستن توزیع، به این نتیجه می‌رسم که آنچه من مشاهده کرده‌ام به سادگی تصادفی است. اما می دانیم که این درست نیست. حدس می‌زنم سؤالی که دارم این است که چرا هنگام محاسبه p-value، احتمال مقادیر «حداقل به اندازه» مشاهده‌شده را محاسبه می‌کنیم؟ و اگر با موقعیتی مانند آنچه در بالا شبیه سازی کردم مواجه شوم، راه حل جایگزین چیست؟
اگر توزیع دووجهی باشد، آیا p-value معنایی دارد؟
52234
آیا کسی می تواند شهود پشت طرح تقسیم را توضیح دهد. از آنچه من درک می کنم، اساساً تصادفی سازی محدود است. اما من هنوز کاملا آن را درک می کنم. آیا منبع یا مثالی وجود دارد که کسی بتواند به من بدهد تا آن را واضح تر کنم؟
درک طرح تقسیم
95567
من می خواستم از استفاده از ابزارهای محاسبه توان (JMP، Lenth) به نفع تکنیک های مونت کارلو برای تعیین توان پیشینی برای مشاهده اثرات سطح عامل در یک DOE دوری کنم. من واقعاً تازه وارد این کار هستم و چند سوال دارم. بیایید با آنچه من دارم شروع کنیم: 1. یک پاسخ دو جمله ای که من قصد دارم یک رگرسیون لجستیک به 2 انجام دهم. فهرست عواملی که فکر می کنم مرتبط هستند 3. یک مدل (اثرات اصلی + تعامل + اصطلاحات درجه دوم) 4. یک طرح آزمایشی ( برگرفته از JMP یا بسته DoE.wrapper) 5. شرط آستانه (0.6) 6. اندازه اثر (ES = 0.1) مانند تعیین قدرت مشاهده یک اثر در پاسخ برای هر یک از اصطلاحات مدل. من پاسخ عالی کاربر gung را خوانده ام که می خواستم از آن برای کمک به خیاطی رویکرد خودم استفاده کنم. بعد از خواندن، چند سوال خاص داشتم. 1. در مثال از دانش قبلی از عملکرد سیستم (نرخ ها) استفاده می شود که من ندارم. چگونه بدون این آگاهی ادامه دهم؟ 2. راه حل به هیچ وجه در اندازه اثر (حداقل تا جایی که من می توانم بگویم) فاکتور ندارد. چگونه اندازه اثر را در این فرآیند فاکتور بگیرم؟ 3. توان هر یک از عبارت ها از معنی دار بودن عبارت مدل به غیر صفر بودن می آید. آیا این همان قدرت مشاهده اندازه اثر در پاسخ است؟ برای سوال 2، من فرض می کنم که شما فقط باید مدل را با فرض عملکرد تهی (0.6 = p) اجرا کنید و سپس با فرض عملکرد Null + Effect Size (p = 0.6 + ES)، تناسب را مجدداً اجرا کنید. می دانم که این قسمت آخر ممکن است کمی درهم و برهم باشد. هر گونه کمکی بسیار قدردانی خواهد شد.
مونت کارلو برای محاسبه توان DOE هنگامی که عملکرد نامشخص است
7835
من مجموعه ای از نقاط را دارم که به یکی از جمعیت های P1، P2، ... Pn و به کلاس A یا B تعلق دارند. در هر جمعیت، طبقه بندی بین A و B را انجام خواهم داد، و می خواهم ویژگی هایی را انتخاب کنم که تفاوتی با بهترین حالت بین A و B. اکنون، ویژگی‌های من با عضویت در جمعیت نیز مرتبط است، اما من به آن اهمیتی نمی‌دهم، فقط می‌خواهم بدانم اقدامات چقدر در یک جمعیت تبعیض‌آمیز است. بنابراین، آیا یک راه مناسب برای اندازه گیری آن وجود دارد؟ در یک جمعیت، من فقط می‌توانم بررسی کنم که متریک چقدر با عضویت در کلاس همبستگی دارد (همبستگی دوتایی)، اما اگر همبستگی را در کل جمعیت به دست بیاورم، پارادوکس سیمپسون مانع می‌شود و ممکن است در نهایت چیز اشتباهی را اندازه‌گیری کنم. من فقط می‌توانم همبستگی‌ها را برای هر جمعیت محاسبه کنم، و میانگین آن یا چیزی را محاسبه کنم، اما این برای من زشت به نظر می‌رسد (این برای برنامه‌ریزی برنامه‌های کاربردی در دنیای واقعی است، نه برای انتشار در یک مقاله، بنابراین اگر روش من اینطور نباشد، اهمیتی نمی‌دهم. _that_ سختگیرانه تا زمانی که نتیجه خوب باشد). بنابراین، راه مناسب برای کنترل عضویت جمعیت چیست؟
انتخاب ویژگی برای طبقه بندی، کنترل برای زیر جمعیت
87753
این تکلیف نیست. فقط در حال تمرین برای امتحان آینده سوال از یک وب pdf گرفته شده است: http://www.dartmouth.edu/~chance/teaching_aids/books_articles/probability_book/Chapter11.pdf فرآیند زیر را در نظر بگیرید. ما دو سکه داریم که یکی منصفانه است و دیگری سر دو طرف آن است. این دو سکه را به دوستمان می دهیم که به صورت تصادفی یکی از آنها را انتخاب می کند (هر کدام با احتمال 1/2). در بقیه مراحل، او فقط از سکه ای که انتخاب کرده استفاده می کند. او اکنون چندین بار سکه را پرتاب می کند و نتایج را گزارش می دهد. ما این فرآیند را صرفاً شامل آنچه او به ما گزارش می‌دهد، می‌دانیم. (الف) با توجه به اینکه او یک سر را در پرتاب n گزارش می کند، احتمال اینکه یک سر روی پرتاب (n + 1) پرتاب شود چقدر است؟ (ب) این فرآیند را دارای دو حالت، سر و دم در نظر بگیرید. با محاسبه سه احتمال انتقال دیگر مشابه با یکی در قسمت (a)، یک ماتریس \transition را برای این فرآیند بنویسید. st و n امين پرتاب احتمال را پيدا کنيد که يک هد بالا مي آيد (d) آيا اين فرآيند يک زنجيره مارکوف است؟ فصل 11 سوال 19 :http://www.dartmouth.edu/~chance/teaching_aids/books_articles/probability_book/Answersodd-10-14-08.pdf همچنین، بهترین رویکرد در اعطای حالت i state 1= چیست؟ ...؟ همچنین، تفاوت بین فرآیند مارکوف و زنجیره مارکوف چیست؟
زنجیره مارکوف و فرآیند
99236
برآوردگرهای پانل مانند آنچه در بسته R «plm» پیاده‌سازی شده است، امکان تخمین اثرات «انفرادی»، «زمان» یا «دو طرفه» را فراهم می‌کند. به http://cran.r-project.org/web/packages/plm/vignettes/plm.pdf مراجعه کنید (صفحه 5). چه زمانی از کدام یک از سه مشخصات ممکن استفاده کنم؟
جلوه‌ها در مدل‌های پانل انفرادی، زمان یا دو طرفه
80498
معمولاً می‌توانیم تفاوت دو گروه داده را با اضافه کردن متغیر ساختگی آزمایش کنیم. اما سوال من این است که اگر این دو گروه از داده ها در یک خط باشند، اما در قسمت های مختلف این خط متمرکز شوند. آیا راهی وجود دارد که بتوانیم تفاوت را آزمایش کنیم؟ به عنوان مثال، در گروه یک، مجموعه داده‌های ما $(x_{1i},y_{1i})$ است، در گروه دو، مجموعه داده‌های ما $(x_{2j},y_{2j})$ است. هر دو گروه می توانند به یک خط $y=a+bx$ برگردند، جایی که $a$ و $b$ ثابت هستند. اما در گروه یک $x_{1i}\in(1,3)$، در گروه دو $x_{2j}\in(6,7)$. بنابراین اگر گروه یک و گروه دو را با هم رسم کنیم، می‌توانیم ببینیم که آنها در قسمت‌های مختلف خط $y=a+bx$ متمرکز می‌شوند. ظاهراً متغیر ساختگی در اینجا خوب کار نمی کند. بنابراین آیا آزمایشی وجود دارد که می تواند تفاوت را نشان دهد؟ با تشکر
نحوه آزمایش تفاوت بین دو گروه داده در یک خط
16822
داده های متغیر من فقط به صورت Z-scores است. من می‌خواهم نمرات را تغییر دهم، اما میانگین یا انحراف معیار را برای نمرات پنهان به خام نمی‌دانم. آیا می توانم یک میانگین دلخواه و انحراف استاندارد را تعیین کنم، از آن برای تبدیل به نمرات خام استفاده کنم، سپس نمرات خام را تبدیل کنم؟ یا راه دیگری برای ثبت امتیازات تبدیل Z وجود دارد؟ با تشکر
چگونه می توان امتیازهای تبدیل Z را ثبت کرد؟
80499
آیا می توانم از آزمون کای دو برای مقایسه دو توزیع تجربی استفاده کنم؟ نشانه ها به «بله» اشاره می کنند. تست chisq.R به دو بردار x و y اجازه می دهد. می‌گوید: > موارد با مقادیر گمشده حذف می‌شوند، اشیا به عوامل اجباری می‌شوند، > و جدول احتمالی از اینها محاسبه می‌شود. سپس آزمون کای اسکوئر > پیرسون از این فرضیه صفر انجام می شود که توزیع مشترک تعداد سلول های > در جدول احتمالی 2 بعدی حاصل ضرب حاشیه های سطر > و ستون است. همچنین ببینید: همان سوال در مورد آزمون KS.
آیا می توانم از آزمون کای دو برای مقایسه دو توزیع تجربی استفاده کنم؟
19836
من می خواهم مدت زمان فراخوانی تابع را اندازه گیری کنم. فراخوانی تابع دارای یک پارامتر، «n» است. اگر بخواهم میانگین مدت زمان فراخوانی تابع را با 'n' روی محور x رسم کنم، خطای استاندارد را برای هر 'n' نیز ارائه خواهم کرد. مدت زمان فراخوانی تابع بسیار کوتاه است. به نظر می رسد برای زمان، مثلاً 100 تماس مناسب تر است. آیا این رویکرد کاملاً متعامد با استفاده قبلی از خطای استاندارد است؟ آیا میانگین 100 تماس اکنون به عنوان 1 اندازه گیری محاسبه می شود؟ آیا _it_ خطای استاندارد دارد؟
مشکل اصلی خطای استاندارد با رویداد کوتاه
90581
یک بردار تصادفی گاوسی $X$ را می توان با استفاده از یک نمودار نشان داد که در آن دو گره $a$ و $b$ به هم متصل هستند $\فلش سمت چپ X_a$ با توجه به تمام متغیرهای تصادفی باقیمانده به $X_b$ وابسته است. من دو سوال دارم - 1) گفته می شود که همسایگی $a$ کوچکترین زیر مجموعه است به طوری که با توجه به این زیر مجموعه، $X_a$ به طور مشروط مستقل از همه متغیرهای باقی مانده است. آیا اثبات این امر آسان است یا اثبات به اثبات یک سری قضایا بستگی دارد؟ من متعجبم که آیا مدرک را پیدا کنم و بخوانم یا فقط این واقعیت را فرض کنم. 2) به طور کلی فرض بر این است که همسایگی هر گره از نظر اندازه کوچک است، یعنی یک گره به تمام گره های دیگر متصل نیست. چرا این یک فرض معقول در عمل است؟ با تشکر
همسایگی در مدل های گرافیکی گاوسی
97580
اعتبار سنجی متقاطع v-fold در رابطه با اعتبار متقاطع k-fold چیست؟ همچنین آیا روش متداول تری برای ارجاع اعتبار متقاطع v-fold وجود دارد؟ من در تلاش برای یافتن منابع در این روش هستم.
اعتبار سنجی متقاطع v-fold چیست؟
97585
فرض کنید $x$ مقادیر زیر را می گیرد: 0 فوت از شروع، 10 فوت از شروع، و 15 فوت از شروع. اجازه دهید متغیر نتیجه $y$ باشد. چگونه ضریب رگرسیون $x$ ($\beta_1$) را در یک رگرسیون خطی تفسیر می کنید؟ آیا ممکن است: افزایش واحد در $x$ با افزایش مورد انتظار $\beta_1$ در $y$ همراه باشد؟ به نظر می رسد که این یک مشکل باشد زیرا یک واحد می تواند افزایش از $x=0$ به $x=10$ یا افزایش از $x=10$ به $x=15$ باشد.
متغیر فاصله با فواصل نامساوی
63678
من درک می کنم که چگونه حساب دیفرانسیل برای تکنیک های اساسی تخمین حداکثر درستنمایی مفید است. با این حال، سوال من این است: چه نوع گسترده ای از آمار نیاز به درک حساب انتگرال دارد؟
حساب انتگرال برای چه نوع گسترده ای از آمار مفید است؟
12119
من می خواهم پارامترهای یک تابع به شکل کلی $y = a \cdot x^b$ را تخمین بزنم. من یک تبدیل log-log را برای به دست آوردن یک تابع خطی به شکل $\log y = \log a + b \times \log x$ اعمال کردم. من مدل خطی را در متلب قرار داده ام. MATLAB خوب بودن یک برازش را بر حسب مجموع مربعات خطا (SSE) و R bar (تعدیل شده) محاسبه می کند. من می‌خواهم این اعداد را گزارش کنم، اما با توجه به اینکه در واقع $\log a$ و نه $a$ تخمین زده شده است، احتمالاً بی‌معنی هستند. چگونه این را درست کنم؟
چگونه خوب بودن تناسب را پس از اعمال تبدیل لگاریتمی محاسبه کنیم؟
12118
به دنبال طراحی و داده‌هایی که در این سوال توضیح داده شد، من یک ANOVA یک طرفه با اندازه‌گیری‌های مکرر درون آزمودنی‌ها (RM) انجام دادم و مقادیر p قابل توجهی پیدا کردم. سپس تست‌های HSD غیرمتعامد Tukey را اعمال کردم و زمانی که نتایج قابل توجهی گرفتم تصحیح Holm-Bonferroni (1979) را اعمال کردم. هر زمان که برخی از مقادیر p از اصلاح FWER جان سالم به در بردند، من 95% CI و میانگین را برای مقایسه‌های زوجی مرتبط محاسبه کردم. سوال من این است: اگر در هیچ یک از مراحل بالا نتیجه قابل توجهی مشاهده نکردم، آیا باید آنالیز توان را برای RM ANOVA انجام دهم، تست HSD Tukey یا تنظیمات Holm-Bonferroni را اعمال کنم یا فقط نتایج را گزارش کنم. از RM ANOVA بدون انجام آنالیز توان؟ مشکل این است که من فقط پس از آزمایشاتم شروع به غوطه ور شدن در آمار زیستی کردم و متأسفانه قبلاً آنالیز توان را اجرا نکردم.
اگر آماری اهمیتی را نشان ندهد، آیا باید قدرت را برای آن محاسبه کنم؟
7831
من با فرآیند خوشه دو مرحله ای در SPSS Modeler (Clementine) کار می کنم و سعی می کنم درک عملکرد فاصله مورد استفاده را پیدا کنم. این یک تابع احتمال log است (همانطور که در اسناد ذکر شده است) اما من حتی برای متغیرهای پیوسته (این تابع متغیر پیوسته و اسمی را کنترل می کند) مطمئن نیستم که چگونه این یک احتمال ورود به سیستم است (بیشتر عناصر گاوسی را از دست داده است). در زیر اسکرین شات از اسنادی است که فرمول فاصله را توصیف می کند. آیا کسی مشتق این تابع فاصله را دیده است؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LlSix.jpg)
استخراج فاصله در خوشه بندی دو مرحله ای
97582
من مجموعه‌ای از داده‌ها با پاسخ ترتیبی از «1-5» (بدترین تا بهترین) و یک پیش‌بینی‌کننده طبقه‌بندی با پنج سطح نامرتب دارم. آزمایش یک آزمایش زبانی است که در آن از آزمودنی ها خواسته می شود تا انواع جملات مختلف را رتبه بندی کنند. در ادبیات به نظر می‌رسد که افراد در اکثر مواقع با مقیاس‌بندی پاسخ ترتیبی در هر موضوع (یعنی در نظر گرفتن میانگین پاسخ و انحراف معیار آن موضوع و تقسیم تک تک پاسخ‌ها بر آن) «lmer()» را متناسب می‌کنند. از سوی دیگر، به نظر می‌رسد یک رویکرد معقول برای استفاده از مدل‌های پروبیت اثرات مختلط خطی مرتب شده یا مدل‌های لاجیت اثرات مختلط خطی، همانطور که در به عنوان مثال پیاده‌سازی شده‌اند. «MCMCglmm()» یا «clmm()». (1) از خودم می پرسم بهترین روش چیست. همانطور که در بالا توضیح دادم چه زمانی یک روش بر دیگری ترجیح داده می شود؟ (2) چرا مردم ترجیح می‌دهند مدل «lmer()» را با یک پاسخ مقیاس‌پذیر برازش دهند؟ مزیت چیست؟ (3) اگر استفاده از مدل پروبیت سفارشی یا لاجیت توصیه می شود، چگونه می توانم بین مدل پروبیت سفارش داده شده یا مدل لاجیت سفارشی تصمیم بگیرم؟ با تشکر برای هر گونه کمک!
مدل اثر مختلط خطی در مقابل پروبیت مرتب در مقابل لاجیت مرتب با پاسخ ترتیبی
52581
من یک مدل ترکیبی دارم که با استفاده از داده A در زیر ساخته شده است، و اکنون می‌خواهم مدل را با استفاده از داده B اعتبار سنجی کنم. برای تأیید اعتبار مدل باید چه کار کنم؟ مدل <- lme(Y~1+X1+X3, random=~1|مدرسه، روش ==ML, data=A) من می دانم چگونه از predict(model,B) - B$Y برای بدست آوردن باقیمانده ها استفاده کنم ، اما چه کارهای دیگری نیز باید در این فرآیند اعتبار سنجی انجام دهم؟ (از آنجایی که داده‌های من ساختار سلسله مراتبی دارند، از تکنیک اعتبارسنجی متقابل استفاده نمی‌کنم.)
هنگام انجام اعتبارسنجی مدل چه کارهایی باید انجام دهم؟
17196
این تا حدودی یک سوال مبتدی است، اما چگونه می توان نتیجه exp(B) 6.012 را در یک مدل رگرسیون لجستیک چند جمله ای تفسیر کرد؟ 1) آیا 6.012-1.0 = 5.012 = 5012٪ افزایش در خطر است؟ یا 2) 6.012/(1+6.012) = 0.857 = 85.7 درصد افزایش خطر؟ اگر هر دو گزینه نادرست هستند، لطفاً کسی می تواند راه صحیح را ذکر کند؟ من منابع زیادی را در اینترنت جستجو کردم و به این دو گزینه رسیدم و کاملاً مطمئن نیستم که کدام یک صحیح است.
تفسیر exp(B) در رگرسیون لجستیک چند جمله ای
63673
آیا یک مثال ساده برای یک جفت فرضیه وجود دارد که برای آنها آزمون قدرتمندترین یکنواخت (UMP) وجود ندارد؟ چگونه می توان این را ثابت کرد؟ آیا این درست است که برای آزمون هایی با فرضیه های دو طرفه، آزمون UMP وجود ندارد؟ آیا این درست است که برای پارامترهای چند متغیره، یک تست UMP وجود ندارد؟
چه زمانی قوی ترین تست های یکنواخت (UMP) وجود ندارند و چگونه می توان آن را اثبات کرد؟
97589
من مجموعه ای از نقاط را دارم که تعداد پیوندهایی است که کاربران روی آنها کلیک کرده اند: پیوند1، پیوند2، پیوند3، پیوند4 کاربر1، 0،2،3،2 کاربر2، 1،4،0،5، مطمئن نیستم کدام تابع فاصله من باید برای محاسبه فاصله بین کاربران استفاده کنم. من فکر می کنم فاصله اقلیدسی مناسب است (مطالعه http://en.wikipedia.org/wiki/Euclidean_distance)؟
آیا این یک مورد استفاده معتبر برای فاصله اقلیدسی است؟
52589
من یک سوال در مورد کدنویسی مقیاس لیکرت در SPSS دارم. با فرض اینکه ما یک مقیاس لیکرت 7 درجه ای داریم، نمره بهزیستی ممکن است از 1 تا 7 رتبه بندی شود. در حین مطالعه در تجزیه و تحلیل چند متغیره، به مرجعی برخورد کردم که امتیاز انحراف را پیشنهاد می کند. یعنی از [-3، -2، -1، 0، 1، 2، 3] متغیر است. برای تجزیه و تحلیل بعدی نتایج نظرسنجی، کدام روش (نمره بهزیستی در مقابل امتیاز انحراف) به بهترین وجه به من کمک می کند؟ یا اینها «سیب و پرتقال» هستند؟ با تشکر، EEH
کدگذاری در مقیاس لیکرت
9352
من با ماشین‌های بردار پشتیبان (SVM) با استفاده از تابع e1071::svm در R بازی می‌کنم، و با سناریویی مواجه شدم که در آن از آن درخواست کردم که یک طبقه‌بندی معتبر متقاطع از یک پاسخ دو دسته‌ای را ترک کند و دقت کلی 38% (35/90) را به دست آورد که با توجه به 90 نمونه، به یک فاصله اطمینان 95% ختم می شود که **زیر** شانس. آیا باید این را یک تصادف در نظر بگیرم، و اگر نه، چگونه ممکن است یک SVM ضد پیش بینی شود؟ اگر مهم باشد، از مقادیر پیش‌فرض برای پارامترهای هزینه و گاما استفاده کردم، و داده‌ای که پاسخ را پیش‌بینی می‌کرد، یک بردار 8192 آیتمی بود که نشان‌دهنده 500 میلی‌ثانیه داده‌های الکتروانسفالوگرام جمع‌آوری‌شده در 64 الکترود بود.
آیا کسی می تواند توضیح دهد که چرا من یک ماشین بردار پشتیبانی ضد پیش بینی به دست آورده ام؟
12112
مردم، نجابت من را ببخشید، اما من مدتی است که به ریاضیات دست نزده ام و نیاز به تجدید نظر در آمار دارم: خواندم که در قانون بیز، مخرج `P(params|data) = L(params)P(params)/P( داده)` یک ثابت نرمال کننده نامیده می شود. آیا کسی می تواند توضیح دهد که چرا ادغام f(data|params)f(params) در مورد مخرج، به پارامترها بستگی ندارد؟
ثابت عادی در قضیه بیز
12115
تعریف همبستگی خودکار تاخیر $k$-th $Cov(y_t,y_{t-k})/Var(y_t)$ است. سوال من این است که چرا نباید $Cov(y_t,y_{t-k})/[Var(y_t)\cdot Var(y_{t-k})]^{0.5}$ باشد. به عبارت دیگر، چه تفاوتی با ضریب همبستگی بین $y_t$ و $y_{t-k}$ دارد؟
خودهمبستگی سری زمانی
17195
آزمون z برای مقایسه دو نسبت $\newcommand{\p}{\hat{p}}\newcommand{\v}{\mathrm{Var}} z=\frac{\p_1-\p_2}{\sqrt است. {\v(\p_1-\p_2)}}$. معمولاً تعریف می شود که $$\v(\p_1-\p_2)=\p(1-\hat{p})(1/n_1+1/n_2)، $$ جایی که $$\p=\frac{n_1 \p_1+n_2 \p_2}{n_1+n_2}.$$ آیا مرجع مکتوبی وجود دارد که من را به جای استفاده از واریانس unpooled قانونی کند، یعنی $$\v(\p_1-\p_2)=\frac{\p_1(1-\p_1)}{n_1}+\frac{\p_2(1-\p_2)}{n_2}؟$$
آیا مرجعی وجود دارد که استفاده از z-test unpooled را برای مقایسه دو نسبت مشروعیت بخشد؟
95694
داشتم به این مشکل فکر می کردم. http://en.wikipedia.org/wiki/Two_envelopes_problem من راه حل را باور دارم و فکر می کنم آن را درک می کنم، اما اگر رویکرد زیر را در پیش بگیرم کاملا گیج می شوم. مشکل 1: > بازی زیر را به شما پیشنهاد می کنم. شما 10 دلار به من بپردازید و من یک سکه منصفانه را برگردانم. سرهایی که به شما 5 دلار می‌دهم و دم‌ها به شما 20 دلار می‌دهم. > > انتظار 12.5$ است، بنابراین شما همیشه بازی را انجام خواهید داد. مشکل 2: > من یک پاکت با 10$ به شما می دهم، پاکت باز است و می توانید > چک کنید. سپس یک پاکت دیگر را به شما نشان می‌دهم، این بار بسته شده و به شما می‌گویم: این > پاکت دارای 5 دلار یا 20 دلار با احتمال مساوی است. آیا می خواهید > تعویض کنید؟ > > من احساس می کنم این دقیقاً مشابه مشکل 1 است، شما از 10$ برای $5 یا > $20 صرف نظر می کنید، بنابراین دوباره همیشه تغییر خواهید کرد. مشکل 3: > من مانند بالا عمل می کنم اما پاکت ها را می بندم. بنابراین شما نمی دانید که > 10 دلار وجود دارد اما مقداری X است. من به شما می گویم که پاکت دیگر دو یا نصف است. حالا > اگر همان منطقی را که می خواهید تغییر دهید دنبال کنید. این همان پاکت > پارادوکس است. وقتی پاکت رو بستم چی عوض شد؟؟ ویرایش: برخی استدلال کرده‌اند که مشکل 3 مشکل پاکت نیست و من سعی می‌کنم با تجزیه و تحلیل اینکه هر کدام از آنها چگونه بازی را می‌بینند، دلیل آن را در زیر توضیح دهم. همچنین، تنظیمات بهتری را برای بازی ارائه می دهد. ارائه توضیحاتی برای مسئله 3: از دیدگاه شخصی که بازی را سازماندهی می کند: > من 2 پاکت در دست دارم. در یکی 10$ آن را ببندم و به پخش کننده بدهم. من > سپس به او می گویم، من یک پاکت دیگر دارم که دو برابر یا نصف > مقدار پاکتی که به شما دادم دارد. آیا می خواهید تغییر دهید؟ سپس > به ورق زدن یک سکه منصفانه و Heads که \$5 در آن و Tails \$20 قرار می‌دهم، ادامه می‌دهم. و > پاکت را به او بدهید. سپس از او می پرسم پاکت نامه ای که به من دادی > دو برابر یا نصف مقدار پاکتی است که در دست دارید. آیا می خواهید > تغییر دهید؟ از دیدگاه بازیکن: > به من یک پاکت می دهند و به من می گویند که یک پاکت دیگر وجود دارد که دو برابر یا > نصف مقدار آن با احتمال مساوی است. میخوام عوض کنم فکر می‌کنم مطمئن هستم که > $X$ دارم، بنابراین $\frac{1}{2}(\frac{1}{2}X + 2X) > X$ دارم، بنابراین می‌خواهم تغییر بدهم. من > پاکت را می گیرم و ناگهان دقیقاً با همین وضعیت روبرو می شوم. من > می خواهم دوباره جابجا شوم زیرا پاکت دیگر دو یا نصف مقدار > دارد.
مشکل دو پاکت دوباره بررسی شد
46691
من جرم **6** را به عنوان داده ورودی دارم که آنها به صورت m+/- delta m بیان می شوند. من از طریق فرآیندهای پیچیده **عرض فروپاشی** را به عنوان نتیجه نهایی محاسبه می کنم. مدت زمان زیادی طول می کشد تا کد عرض پوسیدگی را برای مثال برای مقادیر **m** محاسبه کند. بیایید آن را **(عرض فروپاشی)_central** بنامیم. بیایید **m + delta m= m_max** و **m- delta m =m_min** را صدا کنیم. (برای 6 جرم: به عنوان مثال m_max یعنی من هر 6 جرم را با حداکثر مقدار آنها جایگزین می کنم). سپس عرض واپاشی برای m_max **(عرض فروپاشی)_max** و عرض واپاشی برای m_min **(عرض واپاشی)_min** است. آیا می توانم تخمینی برای نوار خطا فقط با این 3 مقدار عرض پوسیدگی داشته باشم؟ (پیدا کردن بیش از این 3 نتیجه بسیار زمان بر است.) یا ممکن است راه بهتری را پیشنهاد کنید؟ خیلی ممنون مشکل من نحوه محاسبه نوارهای خطا برای عرض واپاشی است. خطاها از 6 داده تجربی که من از آنها به عنوان ورودی استفاده کردم نشات می گیرد. سوال این است که چگونه باید نوارهای خطا را برای عرض پوسیدگی پیدا کنم؟ من نمی توانم از روش های معمول مانند انحراف برای خطاها استفاده کنم، زیرا محاسبه عرض فروپاشی برای جرم ها در محدوده تجربی و سپس یافتن مقدار میانگین بسیار زمان بر است. آیا می توانم تخمینی برای نوارهای خطا فقط با 3 مقدار عرض پوسیدگی پیدا کنم؟ عرض فروپاشی که با جایگزین کردن همه جرم ها با m + دلتا m، با جایگزین کردن همه جرم ها با m - دلتا m و آن چیزی که با جایگزین کردن مقادیر میانگین برای m پیدا کردم؟
من نمی دانم چگونه باید نوارهای خطای معنی دار را در این مورد خاص محاسبه کنم
65878
فرض کنید که من یک مدل خطی با خطاهای همبسته خودکار دارم. آیا نتایجی وجود دارد که به من بگوید اگر خطاهای iid را فرض کنم، خطاهای استاندارد خود را بیش از حد یا دست کم می‌گیرم؟
وقتی فراموش می‌کنم که همبستگی خودکار خطاها را تصحیح کنم، چگونه تخمین‌های خطای استاندارد خود را بایاس کنم؟
46695
من یادگیری تحت نظارت و بدون نظارت را به خوبی درک می‌کنم و می‌توانم برخی از نمونه‌های «پایه» را از طبقه‌بندی نظارت شده به‌عنوان مثال شناسایی کنم: * SVM * جنگل‌های تصادفی * رگرسیون لجستیک اینها کارهای کلیدی در این زمینه هستند که دارای کد و انتشارات زیادی هستند. موجود است. من اکنون شروع به بررسی تطبیق دامنه در یادگیری تحت نظارت می کنم، جایی که توزیع داده ها در زمان یادگیری و آزمایش متفاوت است. علیرغم خواندن برخی از متون، من هیچ روش مشابه «اساسی» را که بارها و بارها مطرح می شود، ندیده ام. در مقابل، به نظر می‌رسد مجموعه‌ای وحشی از روش‌های کاملاً متفاوت برای دستیابی به هدف وجود دارد که بسیاری از آنها تنها چند سالی است که در ادبیات وجود دارند. آیا چنین روش‌های کلیدی و مشخصی برای تطبیق دامنه وجود دارد؟ رایج ترین روش هایی که در حال حاضر مورد استفاده قرار می گیرند کدامند؟
محبوب ترین روش های تطبیق دامنه (برای یادگیری انتقال) چیست؟
46696
**مقدمه** من یک مدل SVM را بر اساس 300 مورد آموزشی آموزش داده ام تا فیلتری بسازم که باید به من کمک کند مجموعه آموزشی بزرگتر و متعادل تر را استخراج کنم، که باید توسط داوران انسانی تایید شود. **داده** مجموعه آموزشی من این است: 288 حالت منفی 12 مورد مثبت عملکرد مدل من این است: مثبت واقعی = 6 مثبت کاذب = 0 منفی واقعی = 288 منفی کاذب = 6 من از این مدل در مجموعه داده های 440000 مورد استفاده کرده ام و من به من مقادیر اطمینان برای صفر و یک داده می شود (اطمینان.1. = 95% -> اطمینان.0. = 5% و اطمینان.1. = 50% -> اطمینان. 0 = 50%) وقتی این مدل برای 440000 مورد اعمال می شود، 1499 مورد را مثبت پیش بینی می کند. **مشکل** همانطور که توضیح داده شد من در حال گرفتن یک نمونه تصادفی از 3000 مورد هستم که امیدواریم برای آموزش یک مدل بهتر متعادل شوند. بنابراین مشکل رسمی من این می شود: _چگونه می توان یک نمونه تصادفی 3000 را استخراج کرد و با توجه به اطلاعاتی که بیان کردم، تعادل مجموعه داده را تقریب زد؟_ **افکار خودم** من با R نسبتاً خوب هستم اما به سادگی نمی دانم دانش یا مهارت لازم برای کشف این موضوع را دارند. حتی نمی دانم ممکن است یا نه. تنها چیزی که می دانم این است که کمی عروسک به نظر می رسد که فقط انگشت خود را در هوا بگذارد و حدس بزند که روی چه مواردی باید استخراج کرد. راه آسان این است که 3000 برتر را بر اساس اطمینان مرتب کنید.1. که چیزی بیش از حدس واجد شرایط نیست. سال نو مبارک کسپر
چگونه با توجه به اطمینان پیش‌بینی و عملکرد مدل، یک نمونه تصادفی متعادل ترسیم کنیم؟
109889
مجموعه داده من از نقاطی در کره زمین تشکیل شده است. فرض کنید کاربری از مکان‌های $l_1,l_2,\dots l_n$ بازدید می‌کند (هر مکان به $(lat، طولانی)$ در شهر با احتمال $p_1,p_2,\dots,p_n$ و من می‌خواهم مکان مورد انتظار بازدید شده توسط کاربر چگونه باید آن را محاسبه کنم؟ اگر مقادیر فردی $(lat,long)$ را به مختصات دکارتی تبدیل کنم و انتظارات آنها را محاسبه کنم، ممکن است اشتباه شود؟
فاصله ژئودزیکی و میانگین
52582
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/IBHdy.png) این گزیده ای از آمار ریاضی مدرن با کاربردها توسط Devore و همکاران است. چیزی که من را متحیر می کند این است که برآوردگر نمی تواند به $\theta$ وابسته نباشد، زیرا نمونه به پارامتر بستگی دارد.
چرا یک برآوردگر باید مستقل از پارامتر باشد؟
52587
من یک مجموعه داده حاوی مقادیری دارم که فروش ماهانه را در وب سایت تجارت الکترونیک فرضی نشان می دهد. ستون اول شامل ترتیب ماه خاص (متغیر توضیحی) و ستون دوم (متغیر وابسته) ارزش فروش در این ماه است. ماه_سفارش مقدار 1 2591 2 2262 3 2531 4 2379 5 2106 6 2500 7 2345 8 2200 9 2385 10 2991 11 2219 12 2600 رگرسیون داده برای خط 13 f(x) = 27,42x + 2278 **سوال:** چون می‌خواهم یک پیش‌بینی بسیار ساده از ارزش فروش در ماه آینده انجام دهم و متغیر توضیحی مناسب‌تری ندارم، ممکن است از month_order استفاده کنم و روند خطی را پیش‌بینی کنم. ? در مورد من این خواهد بود: f(14) = 27,42 * 15 + 2278 = 2689 آیا این در تئوری رگرسیون خطی صحیح است و آیا می توانم آن را به این صورت بشمارم؟
رگرسیون خطی با مقیاس خطی به عنوان متغیر توضیحی
45527
من سعی می کنم پیش بینی و داده های واقعی را روی همان نمودار ترسیم کنم. اما همیشه بین آنها در تصویر فاصله وجود دارد: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ni7FR.png) من برای پیش بینی کد زیر استفاده می کنم: y=boardings[,1] ## هموارسازی نمایی ساده #پیش‌بینی مقادیر موجود نتایج=HoltWinters(y،بتا=FALSE، گاما=FALSE) #پرینت داده print(cbind(y,results$fitted)) #طراحی با مقادیر برازش رسم نمودار(نتایج) #پیش‌بینی مقادیر آینده results2=پیش‌بینی. plot.forecast(results2,lwd=1,xlab='time',ylab='log.boardings',main='12-month prediction by Exponential Smoothing') داده ها از بسته timeSeries با نام boardings گرفته شده است. من واقعا از هر کمکی قدردانی می کنم.
شکاف در نمودار بین داده های پیش بینی شده و واقعی
52583
من آزمایشی انجام داده ام که چگونه گونه های مختلف جانوری بر شار مواد مغذی در رسوبات تأثیر می گذارند. من تعدادی واحد آزمایشی (جعبه های رسوب) داشتم که گونه های مختلف جانوری به آنها اضافه شد. سپس شار مواد مغذی را در این واحدها اندازه گرفتم. هر واحد پنج بار اندازه گیری شد. من از بسته ezANOVA برای R برای انجام یک ANOVA اندازه گیری های مکرر با دو عامل (بین فاکتور گونه ها و درون فاکتور موضوع زمان) استفاده کرده ام. نمونه ای از ورودی من در اینجا آمده است: > ezANOVA(data=NoP_3_5,dv=.(AcPO4),wid=.(موضوع),within=.(زمان),between=.(گونه ها),return_aov=T) $ANOVA Effect DFn DFd F p p<.05 ges 2 گونه 2 6 10.60384830 1.072453e-02 * 0.50875722 3 Time 2 12 27.88590570 3.081718e-05 * 0.76667542 4 گونه:زمان 4 12 0.0809317017878189189.9. $`تست Mauchly برای کرویت` اثر W p p<.05 3 Time 0.1439855 0.007866779 * 4 گونه:Time 0.1439855 0.007866779 * $`اصلاح کروییت` p. p[HF] p[HF]<.05 3 زمان 0.5387889 0.001349263 * 0.5630403 0.001103048 * 4 گونه: زمان 0.5387889 0.933492530 0.933492530 0.933492530 0.9334925300 فراخوانی: aov(فرمول = فرمول(aov_formula)، داده = داده) میانگین بزرگ: -0.004276663 لایه 1: شرایط موضوع: گونه ها باقیمانده مجموع مربع ها 0.0004410742 0.0001247870 درجه. of Freedom 2 6 خطای استاندارد باقی مانده: 0.004560464 اثرات تخمینی ممکن است نامتعادل باشد لایه 2: موضوع: شرایط زمانی: زمان گونه: زمان باقیمانده مجموع مربعات 0.0013994206 0.0000081229 0.0028 0.0000g of Freedom 2 4 12 خطای استاندارد باقیمانده: 0.005009181 اثرات تخمینی ممکن است نامتعادل باشد. با این حال، کار نمی کند: mod <- ezANOVA(data=NoP_3_5,dv=.(AcPO4),wid=.(موضوع),within=.(زمان),between=.(Species),return_aov=T) > TukeyHSD (mod$aov) خطا در UseMethod (TukeyHSD): هیچ روش قابل اجرا برای TukeyHSD برای یک شیء کلاس c('aovlist', 'listof') من همچنین سعی کردم مستقیماً از دستور aov استفاده کنم: > mod2 <- aov(AcPO4~(Species)+Error(Subject/Time)+(Species), data=NoP_3_5) > TukeyHSD(mod2) خطا در UseMethod(TukeyHSD): هیچ روش کاربردی برای TukeyHSD اعمال نشده است به یک شی از کلاس c('aovlist', 'listof') من سعی کردم از lme() برای مشخص کردن مدل anova با هدف تولید چیزی که TukeyHSD() بدون موفقیت بپذیرد استفاده کنم. هر گونه کمکی بسیار قدردانی خواهد شد!
آزمون تعقیبی بین فاکتور موضوعی در اندازه گیری مکرر ANOVA در R
21715
بسته های متعددی وجود دارد که می تواند آزمون دوربین واتسون را برای همبستگی سریال اعمال کند. با این حال، من بسته‌ای نمی‌بینم که از محاسبه در موردی که زمانی دارای رگرسیون وزنی GLS باشد پشتیبانی کند. به عنوان مثال، بسته CRAN lmtest در تغییرات خود یادآور می شود که آنها به صراحت از رگرسیون وزنی (هنوز) پشتیبانی نمی کنند. قبل از انتشار اخیر، lmtest هنگام عبور از رگرسیون های وزنی خطایی ایجاد نمی کند. نگرانی من این است که سایر بسته های dwtest نیز ممکن است به صراحت با این سناریو سروکار نداشته باشند.
آیا بسته ای در R وجود دارد که آزمون دوربین واتسون را با فرض رگرسیون وزنی محاسبه کند؟
82205
من چند مدل مختلف (Perceptron، Stochastic Gradient Descent و Naive Bayes) را آموزش دادم، هر کدام با پارامترهای متفاوت. سپس دقت آنها را در یک مجموعه اعتبارسنجی متقاطع به ثمر رساندم. نمرات بهترین پارامتر مدل های Perceptron، SGD و NB به ترتیب 93، 91 و 94 درصد بود. من انتظار چنین نتایج مشابهی را نداشتم و کمی گیج هستم زیرا احساس می‌کنم که احتمال واریانس، انتخاب NB به عنوان بهترین مدل را زیر سوال می‌برد. آیا قرار است هر 3 مورد را در مجموعه تست تست کنم و از مدلی با بهترین خطای بی طرفانه استفاده کنم؟ یا این که به طور ضمنی چیدن گیلاس بهترین مدل است؟
ارزیابی خطاهای بی طرفانه در مجموعه تست زمانی که امتیازهای اعتبارسنجی متقاطع نزدیک است
45528
من می خواهم دو مدل رگرسیون خطی را مقایسه کنم که نشان دهنده نرخ تخریب یک mRNA در طول زمان در دو شرایط مختلف است. داده های هر مدل به طور مستقل جمع آوری شد. در اینجا مجموعه داده است. گزارش زمان (ساعت) (درمان A) گزارش (درمان B) 0 2.02 1.97 0 2.04 2.06 0 1.93 1.96 2 2.02 1.91 2 2.00 1.95 2 2.07 1.04 1.894 1.99 4 2.02 1.99 6 1.94 1.90 6 1.94 1.97 6 1.86 1.88 8 1.93 1.97 8 2.12 1.99 8 2.06 1.93 121.97 1.71 1.71 1.71 1.76 24 1.70 1.46 24 1.83 1.41 24 1.62 1.42 اینها مدل های من هستند: Exp1.A.lm<-lm(Exp1$Time~Exp1$(درمان A)) Exp1.BT.1$1.px1. $(درمان ب)) تماس: lm(فرمول = Exp1$Time ~ Exp1$(درمان A)) باقیمانده ها: Min 1Q Median 3Q Max -6.8950 -1.2322 0.2862 1.2494 5.2494 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 74.68 6.27 11.91 2.94e-10 *** Exp1$(Treatment A) -36.14 3.38 -10.69 1.77e-09 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 2.97 در 19 درجه آزادی چندگانه R-squared: 0.8575، R-squared تنظیم شده: 0.85 F- آمار: 114.3 در 1 و 19 DF، p-value: 1.772e-09 تماس: lm(فرمول = Exp1$Time ~ Exp1$(Treatment B)) باقیمانده: حداقل 1Q میانه 3Q حداکثر -7.861 -3.278 -1.444 3.222 11.972 ضرایب: برآورد. خطای t مقدار Pr(>|t|) (Intercept) 88.281 16.114 5.478 2.76e-05 *** Exp1$(Treatment B) -41.668 8.343 -4.994 8.05e-05 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 5.173 در 19 درجه آزادی چندگانه R-squared: 0.5676، R-squared تنظیم شده: 0.544 آمار: 24.94 در 1 و 19 DF, p-value: 8.052e-05 برای مقایسه این دو مدل از کد زیر استفاده کردم. anova (Exp1.A.lm, Exp1.B.lm) تجزیه و تحلیل جدول واریانس مدل 1: Exp1$Time ~ Exp1$Exp1$(درمان A) مدل 2: Exp1$Time ~ Exp1$Exp1$(درمان B) Res. Df RSS Df مجموع مربع F Pr(>F) 1 19 167.60 2 19 508.48 0 -340.88 سوال من این است که چرا آنالیز ANOVA آمار F و p.val را نشان نمی دهد. اگر این سوال ساده لوحانه است عذرخواهی می کنم. بر اساس شیب های مختلف، میزان تخریب در این دو مدل متفاوت است، اما می خواهم بدانم این تفاوت از نظر آماری چقدر معنادار است. امیدوارم که این منطقی باشد. ممنون -
مقایسه دو مدل رگرسیون خطی
21718
با توجه به یک ماتریس داده مانند این: [,1] [,2] [,3] [,4] [,5] [,6] [,7] [1,] 9.520 11.137 16.576 18.225 20.576 25.861 NA [2،] 9.005 9.491 11.106 16.530 18.184 20.495 25.773 [3،] 9.437 11.050 20.393 25.711 NA NA NA [4,] 9.442 11.058 20.411 25.711 25.711 NA NA NA NA [4،] 20.411 25.711 NA NA NA NA 19. 20.421 25.707 NA NA NA [6،] 9.461 11.052 20.319 25.657 NA NA NA [7,] 9.245 10.819 20.253 25.628 25.628 NA NA NA.201.201. 25.594 NA NA NA [9،] 9.234 10.805 20.258 25.619 NA NA NA [10،] 9.241 10.814 20.264 25.626 NA NA NA [11,8] 12.89.19. 25.649 NA NA NA [12،] 9.231 10.800 20.219 25.567 NA NA NA چگونه می توانم یک قاب داده به این شکل بدست بیاورم؟: S p1 p2 p3 p4 p5 p6 p7 1 NA 9.520 11.15276.8.1527616. 25.861 2 9.005 9.491 11.106 16.530 18.184 20.495 25.773 3 NA 9.437 11.050 NA NA 20.393 25.711 4 NA 45.773 NA 19 20.411 25.711 5 NA 9.431 11.045 NA NA 20.421 25.707 6 NA 9.461 11.052 NA NA 20.319 25.657 7 NA 9.28125 NA 9.2825 10 NA 25.628 8 NA 9.229 10.801 NA NA 20.216 25.594 9 NA 9.234 10.805 NA NA 20.258 25.619 10 NA 9.241 10.821 NA 9.241 10.821 NA 25.594 NA. 9.248 10.819 NA NA 20.281 25.649 12 NA 9.231 10.800 NA NA 20.219 25.567 در ماتریس، هر ردیف نشان دهنده نقاط زمانی از 1 نمونه است. در صورت نیاز، ماتریس با تعداد دلخواه NA متعادل می شود. در چارچوب داده، هر ستون نشان دهنده تمام نقاط زمانی است که از نظر عملکردی معادل هستند. نقاط زمانی در یک نمونه واحد نمی توانند از نظر عملکردی معادل باشند. فکر می کنم باید بتوانم این را با نوعی از خوشه بندی kmeans حل کنم که هر خوشه را از داشتن بیش از یک عضو از هر نمونه محدود می کند. هر ایده ای؟
تراز کردن داده های نمونه
46692
من یک جدول داده T1 دارم که شامل نزدیک به هزار متغیر (V1) و حدود 200 میلیون نقطه داده است. داده ها پراکنده هستند و بیشتر ورودی ها NA هستند. هر نقطه داده یک جفت شناسه و تاریخ منحصر به فرد برای تشخیص از دیگری دارد. من یک جدول T2 دیگر دارم که شامل مجموعه ای جداگانه از متغیرها (V2) است. این جدول همچنین دارای جفت شناسه و تاریخ است که ورودی های T2 را به طور منحصر به فرد شناسایی می کند. ما گمان می کنیم که داده های موجود در T1 می توانند برای پیش بینی مقادیر متغیرها در T2 استفاده شوند. برای اثبات این موضوع، فکر کردم که مدل 'glm' را در R اعمال کنم و بررسی کنم که آیا واقعاً می توانیم متغیری را در T2 پیدا کنیم که به متغیرهای T1 وابسته است یا خیر. برای هر متغیر در T2، من شروع به بیرون کشیدن تمام داده ها در T1 با شناسه و جفت تاریخ یکسان کردم که منجر به ~50K نقطه داده بسیار کوچکتر برای برخی از متغیرهای آزمایشی شد. مشکلاتی که در حال حاضر با استفاده از glm با آن مواجه هستم به شرح زیر است. 1. در برخی موارد، خطای مطابق یافت نشد و هشدار glm.fit: الگوریتم همگرا نشد را به من نشان می دهد. من مطمئن نیستم چرا نشان داده شده است؟ 2. چگونه NA ها در glm درمان می شوند؟ آیا ابتدا همه رکوردهای مربوط به 'NA' را حذف می کند و سپس فیتینگ را انجام می دهد؟ 3. آیا این یک استراتژی خوب است که ابتدا همه NA ها را حذف کنید و سپس 'glm' را فراخوانی کنید. من می ترسم که این ممکن است نقاط داده را به طور قابل توجهی کاهش دهد زیرا اکثر آنها NA هستند. 4. از کدام روش برای محاسبه ضرایب استفاده می شود. من نتوانستم وب سایت یا مقاله یا کتابی پیدا کنم که در مورد نحوه محاسبه خروجی بحث کند. من glm را با و بدون «NA» آزمایش کردم و پاسخ‌های متفاوتی پیدا کردم که کدام نکات NA در هنگام برازش داده‌ها در نظر گرفته می‌شوند: مثال 1: > tmpData x1 x2 x3 Y 1 1 1 1 3 2 1 0 4 5 3 1 2 3 6 4 0 3 1 4 تماس بگیرید: glm(formula = as.formula(paste(dep, ~ , paste(xn, collapse = +))), na.action = na.exclude) ضرایب: (Intercept) as.numeric(unlist(tmpData[x1])) as.numeric(unlist(tmpData[ x2])) 5.551e-16 1.000e+00 1.000e+00 as.numeric(unlist(tmpData[x3])) 1.000e+00 Degrees of Freedom: 3 Total (i.e. Null); 0 انحراف صفر باقیمانده: 5 انحراف باقیمانده: 9.861e-31 AIC: -260.6 مثال 2: 'x1' 'x2' 'x3' 'Y' 100000 1 NA 2 1 1 1 3 1 NA -1124 2 510 2 3 6 0 3 1 4 ضرایب: (Intercept) as.numeric(unlist(tmpData[x1])) as.numeric(unlist(tmpData[x2])) as.numeric(unlist(tmpData[x3])) -2.3749044 - 0.0000625 0.6249899 1.8749937 درجه آزادی: 5 مجموع (یعنی صفر)؛ 2 انحراف صفر باقیمانده: 13.33 انحراف باقیمانده: 1.875 AIC: 20.05
نحوه برخورد با مقادیر «NA» در glm در R
97867
من سعی می‌کنم مدلی را برای بررسی مقدار وام (یا تبدیل آن) به عنوان تابعی از متغیرهای «درآمد»، «جنسیت»، «مشتری» و «سن» بسازم. برازش رگرسیون خطی استاندارد نتایج ضعیفی به دست می دهد (R-squared فقط 0.27). علاوه بر این، رابطه بین درآمد و وام بسیار عجیب به نظر می رسد. این یک نوع Z شکل چرخش چپ دارد آیا استفاده از یک مدل نیمه پارامتریک در اینجا مناسب است؟ و بنابراین بله، چگونه آن را مدل می کنید؟ من این را امتحان کردم: مدل <- spm(loan~f(income, base=trunc.poly)+age+factor(gender)+factor(customer)) اما نتایج ضعیفی به همراه داشت (بدون متغیر قابل توجهی). کسی پیشنهادی داره؟ پیشاپیش سپاس فراوان
مدل وام بانکی (spm؟)
26949
من از ترکیب نمونه‌بردار Metropolis/Gibbs برای ایجاد چگالی مشترک برای برخی پارامترها استفاده کرده‌ام (این یک مدل سلسله مراتبی است، با $y_i\sim Poisson(\lambda_i)$, $\lambda_i\sim Gamma(\alpha,\beta )$). از چه تکنیک هایی می توانم برای کاهش همبستگی خودکار استفاده کنم (این در $\alpha$ و $\beta$ وجود دارد)؟ من از thinning استفاده کرده‌ام، اما حتی زمانی که از تاخیرهای بسیار زیاد استفاده می‌کنم (4950، که در حال رسیدن به محدودیت حافظه در رایانه من برای استفاده است) هنوز همبستگی خودکار قابل توجهی وجود دارد. آیا کاری وجود دارد که بتوانم با توزیع اندازه گام خود در این مورد کمک کنم؟ من مقادیر جدید $\alpha$ و $\beta$ را از یک توزیع معمولی، با میانگین مقدار پارامتر فعلی، و انحراف استاندارد 1 ترسیم کرده‌ام. متشکرم!
چگونه می توان همبستگی خودکار را در الگوریتم متروپلیس کاهش داد؟
8997
این در ارجاع به قضیه Girsanov است با این حال سوال کلی است. اگر $X$ یک متغیر عادی استاندارد $N(0,1)$ است، چرا انتظار $e^{-\mu X - \mu^2/2}$ برابر با 1 است؟ آیا نباید $e^{-\mu^2/2}$ باشد؟
مقدار مورد انتظار تبدیل نمایی معین متغیر نرمال استاندارد
15025
من به دنبال راهی برای ترکیب دو نسبت خطر از یک مطالعه برای یک متاآنالیز بودم، اما چیزی پیدا نکردم. کسی میدونه چطوری میشه اینکارو کرد؟ هر فکری عالی خواهد بود. روز بخیر سیمون
چگونه دو نسبت خطر از مطالعه را برای یک متاآنالیز ترکیب کنیم؟
82201
من اعتبار متقاطع را با استفاده از روش اعتبارسنجی متقاطع ترک یک بیرون انجام می دهم (در مجموع 10 اجرا). من $\hat{y}$ را پیش‌بینی کرده‌ام و $y$ را از همه اجراها مشاهده کرده‌ام. من معادله زیر را برای محاسبه $R^2$ اعمال کردم. لطفاً کسی می تواند تأیید کند که آیا کارم درست است؟ من گیج شده ام زیرا مقدار $R^2$ منفی به نظر می رسد. \begin{align} SSE&=∑(y-\hat{y})^2 \\ SST&=∑(y–\bar{y})^2 \\ R^2&=1-(SSE/SST) \end {align} (نکته، $\bar{y}=$ میانگین $y$ است.)
اعتبار سنجی متقاطع یک طرفه برای MLR
6519
ما در حال اندازه گیری داده ها با نرخ نمونه بالا (20 کیلوهرتز) هستیم و یک خطای استاندارد بزرگ را به دلیل راه اندازی سیستم خود محاسبه می کنیم. در حال حاضر ما فقط به سیگنال های کند علاقه مند هستیم (به ترتیب هرتز) آیا استفاده از میانگین (یک بار در هر 20.000 نمونه) و در نتیجه کاهش خطای استاندارد با سفارش 20.000 معتبر است؟
میانگین گیری برای سطح نویز سیگنال من چه می کند
46698
من دانشجوی مردم شناسی هستم. من به عنوان بخشی از مطالعاتم در حال تحقیق در مورد روابط متقابل اکثر انسان ها، اگر نه همه آنها هستم. من شخصاً به آمار و تئوری احتمال علاقه دارم و از آن در رابطه با این موضوع استفاده کرده ام. قبل از اینکه نظریه خود را توضیح دهم، موارد زیر را از یک دانشمند کامپیوتر دریافت کردم که می‌خواهم آن را به اشتراک بگذارم تا ایده‌ای بهتر از آنچه که می‌خواهم مطرح کنم به اشتراک بگذارم: اگر اختلاط تصادفی وجود داشت، هر کدام حدود 1 میلیون اجداد داشتیم. زندگی در 1500 پس از میلاد، از جمعیت 500 میلیون نفری جهان. بنابراین همپوشانی کسری بین دو نفر حدود 1/500 خواهد بود. اما احتمال اینکه دو نفر حداقل یک جد مشترک داشته باشند اساساً 100٪ است. اساساً، شما یک میلیون بار یک عدد تصادفی بین 1 تا 500 را انتخاب می‌کنید و می‌پرسید که آیا هرگز عدد 500 را انتخاب کرده‌اید یا خیر. در یک میلیون آزمایش، ما انتظار داریم این اتفاق 2000 بار رخ دهد. به طوری که حداقل یک بار اتفاق می افتد تضمین شده است. اگر از اختلاط تصادفی خلاص شویم، همپوشانی کسری به بسیار کمتر از 1/500 کاهش می یابد. اما من گمان می کنم که احتمال حداقل یک همپوشانی بسیار بالا باقی بماند. اگر جمعیت در سال 1500 500 میلیون نفر بود و امروز به 6 میلیارد نفر رسیده است (12 برابر بیشتر). اگر میانگین طول نسل 30 سال باشد، در 500 سال 17 نسل وجود دارد. بنابراین میانگین تعداد فرزندان بازمانده به ازای هر مادر $\exp((\log 12)/17) = 1.157$ است، از آنجایی که یک کودک دارای دو والد است، میانگین تعداد فرزندان بازمانده به ازای هر نفر 2 * 1.157 = 2.315 است، بنابراین این مقدار است. میانگین نرخ رشد در هر نسل برای فرزندان یک فرد در سال 1500. $2.315^{17}$ = 1.575 میلیون بنابراین یک فرد متوسط ​​در سال 1500 امروز حدود 1.5 میلیون فرزند زنده دارد. با نمونه گیری از کل جهان، احتمال اینکه یک فرد تصادفی از 1500 جد یک فرد تصادفی در سال 2000 باشد، 1.5 میلیون / 6 میلیارد = 0.025٪ خواهد بود. اگر فقط مردم منطقه ای مانند اروپا را در نظر بگیرید، احتمالاً چیزی در حدود 1.4 میلیون / 700 میلیون = 0.2٪ خواهد بود. همانطور که در بالا گفتم، این از یک دانشمند کامپیوتر است. بعد، نظریه خودم است. از منظر احتمالی، به دلیل قانون اعداد بزرگ، من، شما یا تقریباً هر کسی که امروز زندگی می‌کند اجدادی در ژاپن فئودال در سال 1500 میلادی داشتیم. من ژاپن را به دلیل دور بودنش انتخاب کردم اما هنوز با بقیه جهان در آن زمان تماس داشت و سال 1500 را انتخاب کردم زیرا هر فرد در تئوری حدود یک میلیون اجداد داشت - کمتر از آن به دلیل همخونی اما هنوز تعداد قابل توجهی است. با این وجود من این نظریه را با چند تن از همکارانم در میان گذاشته ام و آنها مجذوب آن هستند، اما هنوز آن را با یک آمارگیر واقعی در میان نگذاشته ام. می دانم که بعید به نظر می رسد، اما از نقطه نظر کاملاً آماری، نظر شما در مورد آن چیست؟ *لطفاً توجه داشته باشید، این شامل جمعیت هایی نمی شود که با هم تماس نداشته اند.
آیا نظریه من در مورد قانون اعداد و اجداد واقعاً بزرگ معتبر است؟
59802
من مجموعه ای از مشاهدات دارم. وقتی یک OLS انجام می دهم یک $\beta$ دریافت می کنم. پس از حذف برخی از مقادیر، یک $\beta$ نیز دریافت می کنم. حالا میخوام تست کنم که آیا خواص دو تا بتا یکیه؟ لطفا به من راهنمایی کنید که چگونه این کار را انجام دهم؟
تست روی خواص دو بتا؟
45524
من سعی کرده ام از بسته sspir R برای تخمین مدل پواسون زیر استفاده کنم: $Y_{t}\sim Po(\exp(\lambda_{t}));$ به طوری که $\lambda_{t}=X_{t} \beta +\gamma_{t}$ و $\gamma_{t}=\theta\gamma_{t-1}+u_{t},u_{t}\sim NID(0,\sigma ^{2}).$ به شکل فضای حالت، $\lambda_{t}=Z_{t}F_{t}، $Z_{t}=\ چپ[ X_{t داریم }\: 1\right] ,$ $F_{t}=\left[ \beta^{\prime}\: \gamma_{t}\right] $ سپس، $F_{t}=\left( \begin{array} [c]{ll}% 1 & 0\\ 0 & \theta \end{array} \right) F_{t-1}+\left( \begin {array} [c]{l}% 0\\ u_{t}% \end{array} \right) $. شرایط اولیه استاندارد نیز تنظیم شده است. من سعی کردم از پکیج 'sspir' در R برای تخمین این مدل استفاده کنم، اما نتوانستم. اگر اجازه بدهم $\gamma_{t}$ یک راه رفتن تصادفی باشد، استاندارد است. هر پیشنهادی؟ من با این مدل ها به نوعی تازه کار هستم، بنابراین از هرگونه کمکی بسیار استقبال می شود.
فضای حالت پواسون با فرآیند نهفته AR(1).
17190
من چند دسته پروژه $(PC_1, ... ,PC_n)$ و برخی موسسات $(I_1, ..., I_n)$ دارم و می‌خواهم تعیین کنم که چگونه پروژه‌ها توسط برخی منابع خارجی به موسسات و دسته‌های پروژه آنها نسبت داده می‌شوند. . من به این فکر می کردم که از معیارهای مبتنی بر مربع کای برای این کار استفاده کنم. اساساً من یک جدول احتمالی دو بعدی دارم که یک بعد آن مربوط به مقوله های پروژه و دیگری مربوط به مؤسسات است. هر سلول از جدول احتمالی تعداد پروژه هایی را که هر موسسه برای یک دسته پروژه خاص اجرا می کند می شمارد. من می توانم $(O – E)\cdot|O-E|/E$ را برای هر سلول تعیین کنم. در اینجا: * $O$ تعداد ناظر پروژه ها است * $E$ تعداد مورد انتظار پروژه ها است IMHO به من مقداری برای هر سلول می دهد که نشان می دهد مقدار مشاهده شده چقدر با مقدار مورد انتظار متفاوت است و بنابراین چقدر منابع منصفانه است. برای یک موسسه و دسته پروژه اختصاص داده شد. به عبارت دیگر یک مقدار منفی نشان دهنده «عدم انصاف»، یک مقدار مثبت نشان دهنده «محبوب بودن» و یک مقدار نزدیک به صفر نشان دهنده «انصاف» است. نظر شما چیست؟
اندازه گیری مربع چی برای عدالت؟
9357
هنگامی که می‌خواهید مدل‌ها را در یک مجموعه داده بزرگ قرار دهید، توصیه رایج این است که داده‌ها را به سه بخش تقسیم کنید: آموزش، اعتبارسنجی و مجموعه داده آزمایشی. این به این دلیل است که مدل‌ها معمولاً سه سطح پارامتر دارند: اولین پارامتر کلاس مدل است (به عنوان مثال SVM، شبکه عصبی، جنگل تصادفی)، مجموعه دوم پارامترها پارامترهای قاعدگی یا hyperparameters هستند. به عنوان مثال ضریب جریمه کمند، انتخاب هسته، ساختار شبکه عصبی) و مجموعه سوم معمولاً به عنوان پارامترها در نظر گرفته می شوند. (به عنوان مثال ضرایب برای متغیرهای کمکی.) با توجه به یک کلاس مدل و انتخابی از فراپارامترها، پارامترها را با انتخاب پارامترهایی انتخاب می کنیم که خطا را در مجموعه آموزشی به حداقل می رساند. با در نظر گرفتن یک کلاس مدل، با به حداقل رساندن خطا در مجموعه اعتبارسنجی، هایپرپارامترها را تنظیم می کنیم. یکی کلاس مدل را بر اساس عملکرد در مجموعه آزمایشی انتخاب می کند. اما چرا پارتیشن های بیشتر نه؟ اغلب می توان ابرپارامترها را به دو گروه تقسیم کرد و از اعتبار 1 برای تناسب با اولی و اعتبار 2 برای تناسب با دوم استفاده کرد. یا حتی می‌توان اندازه داده‌های آموزشی/تقسیم داده‌های اعتبارسنجی را به‌عنوان یک فراپارامتر برای تنظیم در نظر گرفت. آیا این در حال حاضر در برخی از برنامه ها یک روش معمول است؟ آیا کار نظری در مورد پارتیشن بندی بهینه داده ها وجود دارد؟
چرا فقط سه پارتیشن؟ (آموزش، اعتبارسنجی، آزمون)
45522
با توجه به آنچه که من خواندم، برآوردگر Theil-Sen به نظر می رسد یک برآوردگر واقعاً جالب باشد. قوی و آسان برای درک **آیا می‌توان یک «نسخه» بیزی از تخمین‌گر Theil-Sen را تجهیز کرد (یا در حال حاضر وجود دارد) تا به جای تخمین نقطه‌ای، یک پیشینی برای شیب ارائه کنید و چگالی احتمال را برگردانید؟ چنین برآوردگر چگونه به نظر می رسد/کار می کند؟**
آیا یک نسخه بیزی از برآوردگر Theil-Sen وجود دارد؟
1942
مهمترین کنفرانس های سالانه با تمرکز بر روش های کمی در روانشناسی کدامند؟ این می‌تواند شامل روان‌سنجی، روان‌شناسی ریاضی و روش‌های آماری در روان‌شناسی باشد، اما محدود به آن نیست. قوانین: * یک کنفرانس در هر پاسخ * شامل یک لینک به کنفرانس
همایش روش های کمی و آمار در روانشناسی؟
68748
چگونه می توانم تفکیک پذیری بین تعداد نمونه های مختلف یک بردار ویژگی را اندازه گیری کنم؟ به عنوان مثال، بردار اصلی V=[1 1 2 3 4 5 7 8 10 100 1000 99 999 54] است و سه بردار فرعی با طول های نمونه متفاوت t1=[1 1 2 3 99 1000] یا ` t2=[1 10 1000]` یا `t3 = [2 3 4 10 100 99 999 54]`. کدام یک قابل تفکیک تر و آموزنده تر است؟ منظورم این است که من به دنبال بردار فرعی با حداقل طول و حداکثر قدرت تفکیک هستم. اگر آن را در GMM قرار دهم، بردار فرعی با نمونه های کمتر احتمال بهتری دارد که تقریباً نزدیک نیست. train=[1 2 1 2 1 2 100 101 102 99 100 101 1000 1001 999 1003]; No_of_Iterations=10; No_of_Clusters=3; [mm,vv,ww]=gaussmix(train,[],No_of_Iterations,No_of_Clusters); test1=[1 1 1 2 2 2 100 100 100 101 1000 1000 1000]; test2=[1 1 2 2 100 99 1000 999]; test3=[1 100 1000]; [lp,rp,kh,kp]=gaussmixp(test1,mm,vv,ww); sum(lp) [lp,rp,kh,kp]=gaussmixp(test2,mm,vv,ww); sum(lp) [lp,rp,kh,kp]=gaussmixp(test3,mm,vv,ww); sum(lp) نتایج به شرح زیر است: ans = -8.0912e+05 ans = -8.1782e+05 ans = -5.0381e+05 اگر بتوانید به من کمک کنید واقعاً متشکر خواهم شد.
چگونه می توانم تفکیک پذیری بین تعداد نمونه های مختلف یک بردار ویژگی را اندازه گیری کنم؟
26942
من زمان زیادی را صرف تلاش برای حل این مشکل کردم اما نمی توانم راه حلی پیدا کنم. به طور خاص، ماتریس زیر را دارم: P(D|E&F) = [ 0.5 0.3 0.5 0.2 ; 0.5 0.7 0.5 0.8 ] همه متغیرها باینری هستند (دو حالت) D، E و F گره های یک شبکه بیزی هستند. E و F والدین D هستند و مستقل هستند. اکنون، شواهد جدیدی وارد می‌شود و می‌دانیم که D و E نیز مستقل هستند (ارتباط بین D و F باقی می‌ماند اما قوس E به D حذف می‌شود). چگونه می توانم P(D|F) را از P(D|E&F) پیدا کنم؟
به روز رسانی توزیع احتمال هنگام حذف پیوندها از شبکه بیزی
82204
من اطلاعاتی در مورد زمان رفت و آمد در یک مسیر مشخص در روزهای مختلف در شرایط مختلف دارم. برخی از شرایط مقوله ای هستند (به عنوان مثال، آب و هوا، ترافیک)، و برخی از آنها عددی هستند (به عنوان مثال، زمان خروج از مبدا). من می‌خواهم بدانم کدام یک از این شرایط با کوتاه‌ترین زمان رفت‌وآمد در هر روز از هفته (M-F) بیشترین ارتباط را دارد. آیا الگوریتمی شبیه درخت تصمیم وجود دارد که شرایط را با کوتاه ترین زمان رفت و آمد بیشتر مرتبط کند؟
درخت تصمیم برای متغیر وابسته عددی؟
15022
من با رسم بسیار ابتدایی در R آشنا هستم، اما مطمئن نیستم که چگونه می توان طرحی با پیچیدگی معقول را ایجاد کرد که در زیر توضیح داده شده است. من یک روش تخمین چگالی را توسعه داده‌ام که اساساً با یک توزیع تجربی برای نمونه‌های تک متغیره متعدد، تحت شرایط متمایز مطابقت دارد. برای واضح بودن، اجازه دهید $\mathbf{x}_i^\mathrm{j}$ بردار مقادیر تک متغیره برای نمونه $i^\mathrm{th}$ تحت شرط $j$ باشد. روش من به من اجازه می دهد تا توزیعی را که مقادیر $\mathbf{x}_i^\mathrm{j}$ از آن ترسیم شده است، تقریبی کنم. اگرچه در اصل، $j$ می تواند مقادیر زیادی داشته باشد، در عمل من فقط به دو شرط علاقه مند هستم (به عنوان مثال، $j$ مشخص می کند که آیا نمونه برای شرایط قبل یا بعد از مداخله است). به طور خاص، روشی که من توسعه داده‌ام تلاش می‌کند تا مطابقت بین ویژگی‌های مشترک تخمین‌های چگالی برازش شده (مانند حالت‌ها) را ایجاد کند. من می‌خواهم بتوانم منحنی‌هایی را برای تمام تخمین‌های چگالی ترسیم کنم به گونه‌ای که امکان مقایسه بین دو شرایط و بین ویژگی‌های متناظر توزیع‌ها را فراهم کند. من می‌خواهم شبکه‌ای از طرح‌های فرعی ایجاد کنم (مثلاً _m_ × _n_ اگر در مجموع 2 × _m_ × _n_ نمونه وجود دارد؛ توجه داشته باشید که _m_ و _n_ فقط به‌گونه‌ای مشخص شده‌اند که نمودار کلی نسبت ابعاد مناسبی داشته باشد، اما اینطور نیست. مربوط به طراحی آزمایش و غیره). هر طرح فرعی دو منحنی را نشان می‌دهد: یکی برای توزیع زیربنای $\mathbf{x}_i^\mathrm{pre}$ و دیگری برای $\mathbf{x}_i^\mathrm{post}$. بعلاوه، برای اینکه بتوانم مطابقت ها را با هم مقایسه کنیم، می خواهم خط مورد استفاده برای ترسیم منحنی ها را با استفاده از رنگین کمان (یا نقشه رنگی دیگر) رنگ آمیزی کنم، به طوری که می توان به عنوان مثال، به مناطق قرمز دو منحنی نگاه کرد. و بصری تعیین کنید که آیا آنها در واقع مطابقت دارند یا خیر. برای این منظور، من می توانم بردارهایی را ارائه کنم (_x_، p(_x_)، _c_، که در آن _x_ یک مقدار دلخواه در محور افقی نمودار تخمین چگالی است، p( _x_) تخمین چگالی برای _x_، و _c_ یک مقدار است. مقدار در (0، 1)، به طوری که یک مقدار خاص از _c_ باید در تمام تخمین های چگالی مطابقت داشته باشد، و بنابراین باید به همان رنگ رسم شود. (به عنوان مثال، مقدار 0.2 ممکن است در اوج حالت توزیع ها قرار گیرد). در نهایت، برای اینکه بتوانم دو منحنی در هر طرح فرعی را از هم متمایز کنیم، می‌خواهم بتوانم هر کدام را به گونه‌ای متفاوت طراحی کنم، برای مثال با استفاده از یک خط نازک برای شرط اولیه و یک خط ضخیم برای شرط پست. با تشکر
چگونه با استفاده از R این طرح را بسازم؟
44343
این شبیه به روش‌های نمونه‌گیری مجدد پرسش Caret است، اگرچه واقعاً هرگز به این بخش از سؤال به روش توافق شده پاسخ نداد. تابع قطار caret 'cv' و 'repeatedcv' را ارائه می دهد. تفاوت در انجام گفتن چیست: MyTrainControl=trainControl(روش = cv، عدد=5، تکرار=5) در مقابل MyTrainControl=trainControl(روش = repeatedcv، عدد=5، تکرار=5) من cv را می فهمم مجموعه را به k-fold می‌شکند (پارامتر «تعداد»)، و سپس دوباره شروع می‌کند و پارامترهای «تکرار» را چند بار اجرا می‌کند. تنها چیزی که می‌توانم به آن فکر کنم این است که شاید «cv» معمولی با «تکرار» هر بار از شاخص‌های دقیق یکسانی برای فولدها استفاده کند؟ اساساً هر بار «cv» روی همان تاهای دقیقاً یکسان اجرا می‌شود، در مقابل اینکه «repeatedcv» هر بار فولدهای جدیدی را انتخاب می‌کند؟ کسی میتونه شفاف سازی کنه؟
در caret تفاوت واقعی بین cv و repeatedcv چیست؟
95691
من سعی می کنم 2 ایده را با هم مقایسه کنم تا ببینم کدام یک بهتر/موثرتر است - به دنبال این هستم که ببینم آیا تفاوت قابل توجهی وجود دارد یا خیر. (2 شرط) ما از یک پرسشنامه برای جمع آوری بازخورد از صدها نفر استفاده کردیم. (سوالات عبارتند از: چقدر احتمال دارد آن را بخرید، چقدر احتمال دارد به دوستان و خانواده خود بگویید، من می خواهم در مورد این محصول بیشتر بدانم... و غیره. پاسخ ها چند گزینه ای هستند: کاملاً موافق، تا حدودی موافق، خنثی، تا حدودی مخالف ، کاملاً مخالفم و هیچ مزیتی وجود ندارد، برخی از مزیت ها، مزیت جزئی، یک مزیت بزرگ) ** چه کاری باید انجام دهم؟ و آیا این روش درستی برای انجام آن است؟ (با استفاده از SPSS)** 1. t-test: با ترکیب داده ها (آیا به هر پاسخ مقداری مانند 1-4 می دهم، برای امتیاز کل هر شرکت کننده مقادیر را اضافه می کنم) 2. تب های متقاطع را اجرا کنید و سپس کاری انجام دهید؟ 3. پیشنهادات دیگر؟ با تشکر :)
مقایسه 2 ایده - متغیرهای وابسته چندگانه
44348
من در حال نوشتن یک پیشنهاد برای یک مطالعه کوهورت گذشته نگر با استفاده از داده های ثبت هستم. آیا من حق دارم که داده های ثبت را به عنوان کل جمعیت در نظر بگیرم؟ اگر این جامعه باشد، آیا من درست فکر می کنم که نیازی به محاسبه حجم نمونه مورد نیاز (همانطور که برای سایر مطالعات کوهورت لازم است) یا فواصل اطمینان وجود ندارد؟ اگر نمونه باشد، جامعه مورد مطالعه چقدر خواهد بود و چگونه باید حجم نمونه را محاسبه کنم؟ علاوه بر این، با در نظر گرفتن این موضوع، چگونه با داده های از دست رفته رفتار کنم؟ اگر 1000 بیمار پیوند قلب در یک رجیستری وجود داشته باشد اما فقط 500 نفر از آنها اطلاعات کامل داشته باشند (یعنی همه متغیرها دارای مقادیر باشند)، آیا این 500 بیمار را به عنوان نمونه درمان می کنم؟ علاوه بر این، اگر یک نمونه باشد، تصادفی نیست. بنابراین آیا ارزش محاسبه فواصل اطمینان از این حجم نمونه واقعی را دارد؟
شناسایی جمعیت ها و نمونه ها از یک مجموعه داده
13243
اخیراً به پدیده های مربوط به حذف متغیرها علاقه مند شده ام. به عنوان مثال، می توان نشان داد که مقدار مورد انتظار واریانس نمونه با درج یک متغیر $x_1$ اما حذف یک متغیر $x_2$، $\mathbb{E}(s^2|x_1,x_2)= \ sigma^2 + \frac{\sigma^2}{n-1} RSS_{x_1، \beta_2 x_2}$ که در آن $\beta_2$ واقعی است ضریب $x_2$ و $RSS_{x_1، \beta_2 x_2}$ مجموع باقیمانده مربع ها هنگام اجرای رگرسیون با $x_1$ به عنوان پیش بینی و $\beta_2x_2$ به عنوان نتیجه است. در حال حاضر، من علاقه مند به دریافت یک عبارت بهتر برای این هستم زمانی که یک فرآیند $AR(2)$ داریم. اجازه دهید یک $AR(2)$-فرآیند با $x_t = ax_{t-1}+bx_{t-2} + \epsilon_t$ داده شود (با $\epsilon_i$ مستقل و نرمال با انحراف استاندارد $\sigma دلار). اگر یک رگرسیون با $(x_2,\ldots, x_T)$ به عنوان بردار پاسخ و $(x_1,\ldots, x_{T-1})$ به عنوان متغیر پیش‌بینی‌کننده اجرا کنیم، در مورد مجموع باقی‌مانده چه می‌توان گفت مربع؟ یعنی، اگر (به اشتباه) فکر کنیم که فرآیند یک فرآیند $AR(1)$ است، در مورد مجموع باقیمانده مربعات مورد انتظار چه می توان گفت؟ از آنجایی که من در آمار کاملاً درس نخوانده ام (تنها پیشینه تحصیلی من در ریاضیات است)، به منابع (مقالات و کتاب ها) و همچنین پاسخ ها علاقه مند هستم، حتی اگر فقط به صورت مماس با این سؤال مرتبط باشند.
مقدار مورد انتظار واریانس نمونه تحت یک رگرسیون خطی با متغیرهای حذف شده یک فرآیند AR(2) چقدر است؟
87744
من دو نمونه دارم، یکی با $n_1 = 41000$ و دیگری با $n_2 = 881$. نمونه بزرگتر دارای انحراف استاندارد 13.74 دلار و نمونه کوچکتر دارای انحراف استاندارد 10.75 دلار است. میانگین ها متفاوت است، و زمانی که من تست t Welch را اجرا می کنم، یک $p <.001$ دریافت می کنم. من مطمئن نیستم که آیا این تست مناسب است. من انحراف را برای هر دو نمونه بررسی کردم. برای نمونه بزرگ 29 دلار و برای نمونه کوچک 9 دلار بود. آیا باید از آزمون Mann-Whitney U استفاده کنم یا اطلاعات کافی برای فرض نمونه های توزیع شده عادی دارم؟ در پایان باید بدانم که آیا میانگین نمونه ها از نظر آماری متفاوت است و بتوانم بگویم که یک میانگین X$ برابر بیشتر از دیگری است.
محاسبه معناداری آماری با حجم نمونه نابرابر و واریانس نابرابر
45520
فرض کنید مدل $ \ y = X\beta + u \ $ با $\ W \ $ یک $ \ n\ بار l \ $ است به اصطلاح ماتریس ابزارها. مفروضات زیر پابرجاست. قانون اعداد بزرگ (LLN) برای 1.2.3 وجود دارد. و 4. به طوری که 1. $\text{plim}_{n\to\infty} \ \left(\frac{X^TX}{n}\right) = m_{X^TX}$ جایی که $m_ باشد {X^TX}$، یک ماتریس محدود و غیر تصادفی با رتبه ستون کامل، وجود دارد. 2. $\text{plim}_{n\to\infty} \ \left(\frac{W^TW}{n}\right) = \text{lim}_{n\to\infty} \left( \frac{{\mathbb E}\left(W^TW\right)}{n}\right)$ در جایی که فرض می‌کنیم، RHS وجود دارد و متناهی و مثبت است. 3. $\text{plim}_{n\to\infty} \ \left(\frac{W^TX}{n}\right)$ در جایی که فرض می‌کنیم محدودیت $W^TX$ وجود دارد، محدود است و $W^TX$ دارای رتبه ستون کامل است، یعنی $\text{rk}\left(W^TX\right)=k$. 4. $\text{plim}_{n\to\infty} \ \left(\frac{W^Tu}{n}\right) = \text{lim}_{n\to\infty} \left( \frac{{\mathbb E}\left(W^Tu\right)}{n}\right) = 0$ که در آن فرض می‌کنیم $\text{lim}_{n\to\infty} \left(\frac{{\mathbb E}\left(W^Tu\right)}{n}\right)$ برابر با $0 است. واریانس مجانبی برای OLS، با فرض خطاهای همسوداستیک $u$ خواهد بود، یعنی ${\mathbb E}\left(uu^T|X\right) = \sigma^2_0 I_n$ و اینکه مدل واقعاً به درستی مشخص شده است. ، $\text{plim}_{n\to\infty} \text{Var}\left[ n^{\frac{1}{2}}\left(\boldsymbol{\widehat{\beta}}_{\text{KQ}} - \boldsymbol{\beta_0}\right)\big| X\right] = \sigma_0^2 \ m_{X^TX}^{-1}$ واریانس مجانبی مربوطه برای مورد 2SLS شبیه $\text{plim}_{n\to\infty} \text{ var} \ سمت چپ [ n^{\frac{1}{2}}\left(\boldsymbol{\widetilde{\beta}_{\text{2SLS}}} - \boldsymbol{\beta_0}\right)\big| X\right] = \sigma_0^2 \ \text{plim}_{n\to\infty} \left(\frac{X^TP_W X}{n}\right)^{-1}$ اگر اکنون در نظر بگیرم ماتریس دقیق به جای ماتریس واریانس و تفاوت آنها را می‌گیرم. $\text{plim}_{n\to\infty} \ \left(\frac{X^TM_WX}{n}\right) = \left(\text{plim}_{n\to\infty} \ \frac{X^TX}{n}\راست) - \چپ (\text{plim}_{n\to\infty} \\frac{X^TP_WX}{n}\right)$ که یک ماتریس نیمه معین مثبت است. **سوال من: چه زمانی هر دو واریانس مجانبی OLS و 2SLS برابر هستند** حدس من این است که باید $X^TX = X^T P_W X$ را تنظیم کنیم. تنها امکان چنین چیزی زمانی است که $P_WX=X$ باشد. بنابراین تمام ستون های $X$ باید در تصویر $P_W$ باشند. این بدان معنی است که تمام ستون های $X$ در واقع ابزارهای قابل دوام هستند. با آن نتیجه می‌گیرم که اگر واریانس مجانبی آن‌ها برابر باشد (حداقل مجانبی) هیچ رگرسیون درون‌زا در X$ وجود ندارد. اما به نظر می رسد که این درست باشد. در صورت عدم وجود درون زایی، استفاده از رویکرد 2SLS دارای اشکالاتی است. مجدداً، این بدان معناست که اگر واریانس‌های تخمین‌گر 2SLS و OLS به صورت مجانبی برابر باشند، فرقی نمی‌کند که 2SLS یا OLS را انتخاب کنیم زیرا هر دو برآوردگر برای $\beta$ سازگار هستند. هر گونه فکر در مورد این مشکل بسیار قدردانی می شود Druss
چه زمانی واریانس مجانبی OLS و 2SLS برابر است؟
28538
این یک سوال نرم است: چگونه می توان ترتیب داده های تک متغیره نمونه را با حفظ واریانس معکوس کرد؟
تک متغیره- حفظ واریانس، تبدیل مرتبه معکوس
59301
من از رابط MATLAB libsvm برای انجام طبقه بندی باینری داده های آموزشی 997 بعدی استفاده کردم. من سعی می کنم بفهمم که چگونه از مدل به دست آمده برای محاسبه خروجی پیش بینی شده استفاده می شود (که با فراخوانی 'svmpredict' به دست می آوریم). 246]; totalSV=792; rho = 0.093 و svCoeff [792x1 double] و SVs [792x997 double] من فکر کردم که ما باید به سادگی svCoeff را با SV ضرب کنیم تا یک ماتریس [997x1] بدست آوریم که سپس آن را با ویژگی واقعی ضرب می کنیم، قبل از سهامداری در rho. اما اینطور نیست. آیا کسی می تواند با یک معادله ساده نشان دهد که چگونه از این پارامترها برای انجام طبقه بندی استفاده می شود؟
چگونه پارامترهای مدل libsvm را از طریق رابط MATLAB تفسیر کنیم؟
2854
همه عزیزان، من تشویق شدم که این سوال را در اینجا و همچنین در stackoverflow بپرسم و از هر پاسخی بسیار قدردان خواهم بود... به دلیل ناهمگونی، من رگرسیون خطی بوت استرپ را انجام می دهم (برای من جذاب تر از رگرسیون قوی است). من می‌خواهم طرحی را مطابق با آنچه در فیلمنامه انجام داده‌ام در اینجا ایجاد کنم. با این حال، «fill=int» درست نیست زیرا «int» باید (به اعتقاد من) با استفاده از توزیع نرمال دو متغیره محاسبه شود. * آیا ایده ای دارید که چگونه می توانم این کار را در این تنظیمات انجام دهم؟ * همچنین آیا راهی برای «bootcov» وجود دارد که صدک‌های تصحیح شده بایاس را برگرداند؟ نمونه اسکریپت: library(ggplot2) library(Hmisc) library(Design) # for ols() o<-data.frame(value=rnorm(10,20,5), bc=rnorm(1000,60,50), age =rnorm(1000,50,20) ai=as.factor(round(runif(1000,0,4),0)), Gs=as.factor(round(runif(1000,0,6),0))) reg.s<-function(x ){ ols(value~as.numeric(bc)+as.numeric(age),data=x,x=T,y=T)->temp bootcov(temp,B=1000,coef.reps=T)->t2 return(t2) } dlply(o,.(ai,Gs),function(x) reg.s(x))->b.list llply (b.list,function(x) x[[boot.Coef]])->b2 ks<-llply(names(b2),function(x){s<-data.frame(b2[[x]]) s$ai<-x return(s)}) ks3<-do.call(rbind, ks) ks3$ai2<-with(ks3,substring(ai,1,1)) ks3$gc2<-sapply(strsplit(as.character(ks3$ai)، \\.)، [[، 2) k<-ks3 j<-dlply(k,.(ai2،gc2)، function(x){ i1<-quantile(x$Intercept,probs=c(0.025,0.975))[1] i2<-quantile(x$Intercept,probs=c(0.025,0.975))[2] j1<-quantile(x$bc,probs=c(0.025,0.975))[1] j2<-quantile(x$bc ,probs=c(0.025,0.975))[2] o<-x$Intercept>i1 و x$Intercept<i2 p<-x$bc>j1 & x$bc<j2 h<-o & p return(h) }) m<-melt(j) ks3$int<-m[,1] ggplot( ks3,aes(x=bc,y= intercept,fill=int)) + geom_point(,alpha=0.3,size=1,shape=21) + facet_grid(gc2~ai2,scales = free_y)+theme_bw()->Plott plott<-plott+opts(panel.grid.minor=theme_blank(),panel.grid.major=theme_blank()) plott<-plott +geom_vline(x=0,color=red) plott+xlab(BC ضریب)+ylab (برق)
محاسبه احتمال برای توزیع های نرمال دو متغیره بر اساس ضرایب رگرسیون بوت استرپ
90050
من دو نشانگر باکتری دارم، فقط آنها را _X_ و _Y_ می نامم. _X_ برای بیماریزایی کد می کند، در حالی که _Y_ فقط نشان دهنده وجود باکتری است. در نتیجه، _X_ بدون _Y_ ظاهر نمی شود، اگرچه همه باکتری ها _X_ را ندارند. هر دو همچنین دارای محدودیت تشخیص هستند، اگرچه من فقط به محدودیت تشخیص برای _X_ اهمیت می‌دهم زیرا می‌خواهم توزیع احتمال نسبت _X_ / _Y_ (باکتری‌های بیماری‌زا به نرمال در صورت وجود) را بدانم. از آنجایی که داده‌ها سانسور شده‌اند و نسبتی دارند، من در نظر داشتم یک توزیع بتا سانسور شده را تنظیم کنم. با این حال متوجه شدم که این نسبت به خودی خود سانسور نشده است - برای مثال، _X_ می‌تواند زیر حد تشخیص باشد، اما اگر _Y_ نیز نسبتاً پایین باشد، باز هم مقدار زیادی از _Y_. آیا کسی پیشنهادی برای رفع این مشکل دارد؟ من فرض می‌کنم استفاده از توزیع نسبت کار نخواهد کرد زیرا _X_ و _Y_ آشکارا مستقل نیستند.
توزیع احتمال مناسب برای داده های نسبت سانسور شده
76233
من سعی می کنم یک GLM را در R اعمال کنم. من یک پاسخ دودویی (موفقیت در مقابل شکست) و 3 متغیر توضیحی طبقه بندی دارم: جنسیت (مرد یا زن)، غذا (حال یا غایب) و باد (هیچ، کم، زیاد). من داده‌هایم را طوری ترتیب دادم که برای هر ترکیب ممکن از متغیرهای توضیحی، تعداد موفقیت‌آمیز به دست آید. ( _*_ با عرض پوزش برای تصاویر به جای کد، اما من نتوانستم آن را فرمت کنم تا قابل درک باشد...) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ ZZd6m.png) من سعی کردم یک GLM در این مورد اجرا کنم، ستون Success را به عنوان متغیر پاسخ در نظر بگیرم و آن را به عنوان داده های شمارش در نظر بگیرم: 'model2<-glm(موفقیت~Wind*Sex*Food, data=data, family=poisson)` اما خلاصه آن چیزی غیرمنتظره به دست می دهد: انحراف باقیمانده 0 درجه آزادی را نشان می دهد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8H0ko.png) چرا اینطور است؟ (یعنی آنطور که من فکر می کنم غیرعادی است یا من فقط بیهوده عصبانی هستم) آیا از مدل یا توزیع نامناسبی استفاده می کنم؟ آیا مشکل از نحوه مدیریت مجموعه داده ام ناشی می شود؟ نمی دانم از تکنیک مناسبی استفاده می کنم یا نه... اصولاً می خواهم بدانم آیا هر یک از متغیرهای توضیحی من یا تعامل آنها در موفقیت آزمایش تأثیر دارد یا خیر؟ نمی دانم چگونه می توانم این اطلاعات را به دست بیاورم... ممنون
نحوه برخورد با نتایج باینری با متغیرهای توضیحی طبقه بندی شده
59805
ارزیابی مقدماتی را به این صورت انجام می‌دهم: با یک مجموعه آموزشی شروع کنید، تعدادی مثال را طبقه‌بندی کنید، سپس نمونه‌های طبقه‌بندی شده را به مجموعه آموزشی اضافه کنید و به طبقه‌بندی تعداد بعدی از نمونه‌های دیده نشده ادامه دهید. آیا قرار است با افزودن نمونه هایی به مجموعه آموزشی، این کارایی را افزایش دهد یا در هر موردی صدق نمی کند؟ منظور من از افزایش کارایی این است که میانگین F1، نه تنها دقت، نمونه های نادیده دوم باید بیشتر از نمونه های اول باشد یا ممکن است قطعه دوم دارای میانگین F1 بدتر از نمونه های قبلی باشد؟ و اگر بدتر است، این احتمالاً به چه معناست؟ آیا می تواند به معنای مشکل در داده های آموزشی باشد؟ این مقاله کشف دانش احساسات در داده‌های جریانی توییتر، ارزیابی اولیه را توصیف می‌کند. احتمالاً به دلایلی که در نظرات زیر ذکر شده است، با Naive Bayes و نه SVM ها آزمایش می کند. پیشاپیش بسیار متشکرم
ارزیابی مقدماتی - طبقه بندی
44344
من یک تحلیل چندسطحی با استفاده از اندازه گیری های مکرر در چهار نقطه زمانی انجام دادم. مدل شامل شیب خطی، شیب مقطع و درجه دوم است. من علاقه مند به بررسی میزان تعامل متغیر A با سایر متغیرهای شناسایی شده در مدل خود هستم، بنابراین برای تخمین اثرات ثابت این برهمکنش‌ها، شرایط تعامل را به intercept، شیب خطی و شیب درجه دوم اضافه کردم. سپس برهمکنش‌های غیر معنی‌دار را حذف کردم و مدل را دوباره استفاده کردم تا زمانی که شرایط تعامل در مدل همه معنی‌دار باشد. سؤالات من این است: 1. هنگام حذف برهمکنش های غیر معنی دار از مدل، اگر برهمکنش در شیب خطی معنی دار بود اما شیب درجه دوم نبود، آیا باز هم باید آن غیر معنی دار را روی شیب درجه دوم نگه دارم؟ یا باید فقط یک مورد قابل توجه را روی شیب خطی نگه دارم؟ 2. چگونه باید یک برهمکنش را در شیب خطی تفسیر کنم اما شیب درجه دوم (یا بالعکس) را ندارد؟ پیشاپیش از پاسخ شما متشکرم! هر توصیه ای قابل تقدیر است.
تفسیر اثرات متقابل در یک مدل چند سطحی
44342
من یک مجموعه داده دارم که به وضوح با گذشت زمان در حال افزایش است (نرخ ارز، داده های ماهانه در طول 20 سال)، سوال من این است: آیا می توانم داده ها را کاهش دهم و سپس آن ها را نیز برای ثابت نگه داشتن آنها تغییر دهم، در صورتی که به خودی خود کاهش می یابد. به این نمی رسد؟ و اگر چنین است، آیا این دو بار متمایز در نظر گرفته می شود، یا صرفاً کاهش یافته و یک بار متفاوت؟
آیا می توانم برای ثابت ساختن یک سریال، ترند و تفاوت ایجاد کنم؟
79031
فرض کنید شما بازیکنانی دارید که $n$ در یک تورنمنت دوره ای بازی می کنند. یک برد 1 به امتیاز برد بازیکن اضافه می کند در حالی که باخت چیزی اضافه نمی کند. پس از پایان تورنمنت دور رفت، به بازیکنان بر اساس امتیازاتشان رتبه‌هایی اختصاص داده می‌شود که تساوی‌ها به‌طور تصادفی شکسته می‌شوند، بازیکن برتر رتبه $n-1$ و بازیکن پایین رتبه 0 را دریافت می‌کند. رابطه چیست. بین مقدار مورد انتظار $\textbf{score}$ بازیکن $i$ و مقدار مورد انتظار $\textbf{rank}$ بازیکن $i$؟ نتیجه نمونه مسابقات با 5 بازیکن: $scores=(3,3,2,1,1)$ و $ranks=(3,4,2,1,0)$ اطلاعات اضافی: بازیکن $i$ دارای یک ویژگی $\lambda_i$. احتمال اینکه بازیکن i در یک بازی بازیکن $j$ را شکست دهد $\frac{\lambda_i}{\lambda_i+\lambda_j}$ است. شبیه‌سازی‌های عددی نشان می‌دهند که در بین بازیکنان، این دو کمیت کاملاً با هم مرتبط هستند، اما من نمی‌دانم چگونه این را ثابت کنم. هر مرجعی قدردانی خواهد شد.
رابطه بین امتیاز مورد انتظار و رتبه مورد انتظار در مسابقات دوره ای
45525
من بین نوع مشکلاتی که این سه مدل می‌گیرند و کاربردهای آنها سردرگم هستم: * تخصیص دیریکله پنهان (LDA) * فرآیندهای دیریکله و فرآیندهای پیتمن-یور * فرآیند سلسله مراتبی دیریکله (HDP) و فرآیندهای سلسله مراتبی پیتمن-یور بیش از تعاریف رسمی ( که می توانم در ویکی پدیا پیدا کنم، من به دنبال **شهود** پشت هر یک از آنها هستم ( چگونه آنها بر روی یکدیگر می سازند). شاید، به طور دقیق تر: * آیا تفاوت بین LDA و HDP این است که LDA پارامتری است (یعنی باید تعداد موضوعات را از قبل مشخص کنم) در حالی که HDP ناپارامتریک است؟ (و بنابراین من نیازی به دانستن چند موضوع ندارم) * تفاوت بین فرآیندهای دیریکله و فرآیندهای پیتمن-یور چیست؟ * تفاوت بین یک فرآیند ناپارامتریک (به عنوان مثال DP) و یک فرآیند غیر پارامتریک سلسله مراتبی (مانند HDP) چیست؟
مدل های موضوعی ناپارامتری
112856
من می خواهم یک نظرسنجی 4 سوالی و چند گزینه ای انجام دهم که در آن هر سوال در مورد طیف مشابهی از اقدامات برای سناریوهای کمی متفاوت می پرسد. هر شرکت کننده فقط یک بار در نظرسنجی اجرا می شود. به عنوان مثال: در موقعیت W چگونه رفتار می کنید؟ (5 [بسیار پرخاشگرانه] -- 1 [نه پرخاشگرانه]). در موقعیت X چگونه رفتار می کنید؟ (5 [بسیار پرخاشگرانه] -- 1 [نه پرخاشگرانه]). در موقعیت Y چگونه رفتار می کنید؟ (5 [بسیار پرخاشگرانه] -- 1 [نه پرخاشگرانه]). در موقعیت Z چگونه رفتار می کنید؟ (5 [بسیار پرخاشگرانه] -- 1 [نه پرخاشگرانه]). سپس می خواستم پاسخ های 4 سوال را جمع بندی کنم و از آن نمره کل به عنوان DV خود استفاده کنم. من قصد دارم 2 IV داشته باشم. اولین مورد وضعیت رابطه خواهد بود و شامل 7 سطح است (به عنوان مثال متاهل، مجرد، مطلقه، قرار ملاقات، بیوه و غیره). دومی، مثلاً ترجیح رنگ موی شریک زندگی است و از 3 سطح تشکیل می شود (به عنوان مثال، بلوند، سبزه، مو قرمز). بنابراین، درک من این است که این یک طرح فاکتوریل 3x7، با تعداد کل 21 شرایط فردی، و یک DV ترتیبی خواهد بود. در حالت ایده‌آل، من می‌خواهم یک ANOVA فاکتوریل 3x7 برای آزمایش اثرات اصلی و اثرات متقابل انجام دهم، اما فکر نمی‌کنم DV پاسخ نظرسنجی ترتیبی و جمع‌بندی شده من قابل قبول باشد. آیا تحلیل دیگری وجود دارد که بتوانم در این شرایط استفاده کنم؟ آیا کروسکال-والیس مناسب خواهد بود؟ با تشکر
طراحی فاکتوریل برای تعامل با DV ترتیبی
62238
من این را در mathoverflow پست کردم و کسی پاسخگو نیست: روش شفه برای شناسایی تضادهای آماری معنی دار به طور گسترده شناخته شده است. **کنتراست** بین میانگین های $\mu_i$, $i=1,\ldots,r$ از جمعیت های $r$ یک ترکیب خطی $\sum_{i=1}^r c_i \mu_i$ است که در آن $ \sum_{i=1}^r c_i=0$، و مضرب اسکالر یک کنتراست اساساً همان کنتراست است، بنابراین می‌توان گفت مجموعه تضادها یک فضای تصویری است. روش شفه یک فرضیه صفر را آزمایش می‌کند که می‌گوید تضادهای _all_ در میان این جمعیت‌های $r$ 0$ است، و با توجه به سطح معناداری $\alpha$، فرضیه صفر را با احتمال $\alpha$ رد می‌کند، با توجه به اینکه فرضیه صفر درست است. و اگر فرضیه صفر رد شود، شفه خاطرنشان می کند که آزمون او به ما می گوید که تضادها به طور قابل توجهی از 0 دلار متفاوت است (مطمئن نیستم مقاله ویکی پدیا که به آن پیوند دادم به آن اشاره کند). می‌خواهم بدانم آیا کسی می‌تواند کاری مشابه را در موقعیت‌های متفاوت انجام دهد؟ یک مدل رگرسیون خطی ساده را در نظر بگیرید $Y_i = \alpha + \بتا x_i + \varepsilon_i$، که در آن $\varepsilon_i\sim\operatorname{i.i.d.}N(0,\sigma^2)$, $i=1,\ldots، n$. فرضیه صفری که من می‌خواهم در نظر بگیرم به نوع دیگری از تضاد مربوط می‌شود. می گوید هیچ زیرمجموعه $A\subseteq\lbrace 1,\ldots,n\rbrace$ وجود ندارد به طوری که $E(Y_i) = \alpha_1 + \beta x_i$ برای $i\ در A$ و $E(Y_i) = \alpha_2 + \beta x_i$ برای $i\not\ در A$، جایی که $\alpha_1\ne\alpha_2$. اگر زیرمجموعه $A$ از قبل مشخص شده باشد، آنگاه یک تست $t$-تست دو نمونه ای معمولی این کار را انجام می دهد، اما ما چیزی می خواهیم که همه زیر مجموعه ها را در نظر گرفته و احتمال رد یک فرضیه صفر واقعی را پایین نگه دارد. اگر کارآیی نگران کننده نبود، می‌توان این را فهمید: آزمایشی را پیدا کنید که از تمام احتمالات $2^{n-1}-1$ عبور کند. حتی در این صورت هم مشکل ساز است. دو تضاد مستقل نیستند. من از یک متخصص در زمینه تشخیص نقاط دورتر در مورد این سوال پرسیدم و او فقط گفت که این یک کابوس ترکیبی است. سپس پرسیدم که آیا می‌توان ثابت کرد که هیچ راه کارآمدی برای انجام آن وجود ندارد، شاید با کاهش یک مشکل NP-hard به آن. او فقط گفت که از مشکلات NP-hard دوری می کند. بنابراین: آیا می توان ثابت کرد که این مشکل سخت است یا این که اینطور نیست؟
آزمایش برخی از تضادها: آیا این یک مشکل سخت است یا نه؟
112859
من یک سوال در مورد تحقیق کوچکی دارم که در رابطه بین طول دنباله مشاهده، T انجام داده‌ام، که روی آن دو رمزگشا (BCJR و Viterbi کلاسیک) در یک HMM کوچک ثابت (2 حالت، 3 نماد) رمزگشایی می‌کنند. وقتی $T$ را در برابر میانگین دقت نرخ رمزگشایی رسم می‌کنم، نتایج غیرمعمولی دریافت می‌کنم، الگوریتم BCJR نسبت به Viterbi در رمزگشایی نماد به نماد عملکرد متوسطی دارد و داده‌ها اساساً هیچ رابطه‌ای بین $T$ و نرخ دقت نشان نمی‌دهند. با این حال، برای همان دنباله‌ها، من T را در برابر $\log P(O,Q\vert\lambda)$ ترسیم کردم، هم برای دنباله از رمزگشا BCJR و هم برای دنباله از رمزگشای Viterbi، که $O$ مشاهده است. دنباله من همچنین $T$ را در برابر $\log P(O\vert Q,\lambda)$ ترسیم کرده‌ام. در هر دو مورد، برای یک مجموعه از نتایج، یک رابطه خطی منفی کامل بین $T$ و این احتمالات ورود به سیستم وجود دارد. این با یک رابطه کامل مطابقت دارد: با افزایش طول دنباله مشاهده، احتمالات ورود به سیستم به طور تصاعدی کاهش می‌یابد و کاهش نمایی بیش از T$ تغییر نمی‌کند، که حداقل تعجب‌آور است. آیا کسی دلیلی دارد که چگونه بفهمیم این نتایج اشتباه است؟ رابطه مورد انتظار بین $T$ و این احتمالات لاگ چه خواهد بود؟ هر کمکی، مهم نیست که چقدر کوچک یا بی اهمیت باشد - حتی اگر فقط یک ایده یا فکر باشد، واقعاً قدردانی می شود زیرا من فقط می خواهم این وضعیت را بیشتر درک کنم.
رابطه مدل های پنهان مارکوف
79038
لطفا کمک کنید! من یک مدل رگرسیون لجستیک برای پیش‌بینی یک نتیجه باینری در بازه زمانی مختلف پس از یک نقطه تنظیم ایجاد کرده‌ام. این به من مدل‌های مختلفی با لیست متغیرهای مختلف داد، اگرچه بسیاری از متغیرها با هم همپوشانی داشتند و در زمان‌های مختلف قابل توجه بودند. سپس یک مدل ترکیبی برای استفاده از مجموعه متغیرهای یکسان در تمام نقاط زمانی ایجاد کردم و این را برای هر یک از 6 بار مورد نظر اجرا کردم. بنابراین این مدل برای هر نقطه زمانی منفرد مناسب نیست، اما در تمام نقاط زمانی بهترین است. من در حال بررسی نحوه اعتبارسنجی داخلی این مدل در SPSS بودم و گیر کردم. من توانسته ام برای به دست آوردن تخمین های متغیر در هر یک از نقاط زمانی بوت استرپ کنم، اما به دنبال معیاری از عملکرد کلی مدل هستم (یعنی میانگین AUC برای محاسبه خوش بینی مدل یا موارد مشابه). با این حال، تلاش‌های من برای اعتبارسنجی متقابل 10 برابری شکست خورده است زیرا نمی‌توانم نحوه اعمال مدل ایجاد شده در 9/10 مجموعه داده را در 1/10 دیگر اعمال کنم. هر بار که من یک فایل xml. را ذخیره می کنم، SPSS به من می گوید که شناسایی نشده و قابل استفاده نیست. مشکل اضافی این است که مدل بر روی تعداد جمعیت های مختلف در مقاطع زمانی مختلف آزمایش شد، به دلیل مشکلات داده از دست رفته. آیا با توجه به مشکلاتی که عرض کردم، راه ساده ای برای به دست آوردن داده های عملکرد کلی مدل برای اعتبارسنجی داخلی یک مدل رگرسیون لجستیک در SPSS وجود دارد؟ با تشکر
اعتبار سنجی داخلی مدل رگرسیون لجستیک در SPSS
1495
آیا کسی تحقیقی را می شناسد که اثربخشی (قابل درک بودن؟) تکنیک های مختلف تجسم را بررسی کند؟ به عنوان مثال، مردم با چه سرعتی یک شکل از تجسم را نسبت به دیگری درک می کنند؟ آیا تعامل با تجسم به افراد کمک می کند تا داده ها را به خاطر بیاورند؟ هر چیزی در امتداد این خطوط. نمونه ای از تجسم ها ممکن است این باشد: نمودارهای پراکنده، نمودارها، خطوط زمانی، نقشه ها، رابط های تعاملی (مانند مختصات موازی) و غیره.
پردازش شناختی/تفسیر تکنیک های تجسم داده ها
62237
من روی یک مجموعه داده کار می کنم. پس از استفاده از چند تکنیک شناسایی مدل، مدل ARIMA(0،2،1) را ارائه کردم. من از تابع detectIO در بسته TSA در R استفاده کردم تا در مشاهده 48 از مجموعه داده های اصلی خود، یک نقطه مبتکرانه (IO) را شناسایی کنم. چگونه می توانم این شاخص را در مدل خود بگنجانم تا بتوانم از آن برای اهداف پیش بینی استفاده کنم؟ من نمی‌خواهم از مدل ARIMAX استفاده کنم زیرا ممکن است نتوانم هیچ پیش‌بینی از آن در R انجام دهم. آیا راه‌های دیگری وجود دارد که بتوانم این کار را انجام دهم؟ در اینجا مقادیر من به ترتیب آمده است: VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.6 5.8 6.6 8.3 8.7 9.0 9.4 9.5 9.5 9.6 9.8 10.0 9.9 9.9 9.8 9.8 9.9 9.9 9.6 9.4 9.5 9.5 9.5 9.5 9.8 9.3 9.9 9.9 9.1 9.0 9.0 9.0 8.9 8.6 8.5 8.3 8.3 8.2 8.1 8.2 8.2 8.2 8.1 7.8 7.9 7.8 7.8 در واقع داده های من است. آنها نرخ بیکاری در یک دوره 6 ساله هستند. سپس 72 مشاهده وجود دارد. هر مقدار حداکثر یک رقم اعشار است
چگونه می توانم یک نقطه پرت ابتکاری در مشاهده 48 را در مدل ARIMA خود بگنجانم؟
59809
من تعداد زیادی جاده دارم که متعلق به یک شهر است. هر بخش جاده به عنوان وزنی که به دلیل سطح اتصال به آن داده می شود (تاثیر از یک خیابان فرعی کوچک به یک بزرگراه). بنابراین، شبکه‌های جاده‌ای محله‌ای کوچک وزن زیادی در سطح منطقه‌ای ندارند. این ها در شعاع های مختلف از هر بخش محاسبه می شوند که از 400 متر در فواصل 400 متری تا 20000 متر می رسد. بنابراین هر بخش خط در هر شعاع (400، 800، 1200 متر) یک اندازه خواهد داشت که سطح تأثیر آن را بر کل شبکه نشان می دهد. اکنون سوال من اینجاست: من می‌خواهم بتوانم اینها را خوشه‌بندی کنم تا بتوانم بگویم که این بخش‌ها در اطراف شعاع R400 (400 متر) خوشه‌بندی می‌شوند و بنابراین محلی هستند، اما فعالیتی در حدود 800 متر و 1000 متر نیز دارند، بنابراین می‌توانند محلی و فعالیت محیطی کم بنابراین در زیر 6 رکورد وجود دارد که فقط فعالیت را در 400، 800 و 1200 متر نشان می دهد - در واقع تا 20000 متر در فواصل زمانی 400 متر می رسد. 400m 800m 1200m 1 1.2982806 1.3231481 1.3453017 2 1.2048655 1.2961186 1.3369008 3 1.25577251 1.381 1.3301. 1.3692737 1.367762 1.3970656 5 1.3519189 1.3815914 1.3904856 6 1.3940601 1.3942301 1.4031725 بالاتر است. بنابراین شعاع 400 متری رکورد دوم از 1.20 شروع می شود سپس در 1200 متر 1.33 است - بنابراین در 1200 متر اتصال بالاتری دارد. بنابراین، من فکر می کنم شکل خط و نحوه خوشه بندی آن با خطوط مشابه مهم است. اما من می‌خواهم که داده‌ها این را دیکته کنند و نه اینکه با وادار کردن داده‌ها به انجام کارهایی که می‌خواهم ببینم، «مقوله‌هایی» ایجاد کنم - این نگرانی من است. من فکر می‌کردم از معیار K Mean استفاده کنم (اما این تعداد دسته‌ها را می‌خواهد... که فکر می‌کنم به داده‌ها چیزی را که می‌خواهم ببینم دیکته می‌کند) یا مقایسه مناطق زیر منحنی‌ها یا شکل‌های منحنی‌ها یک بار - اساساً آنها را ترسیم کرد. گروه بندی یکبار که شبیه به هم هستند، اما من می دانم که مسائلی وجود دارد که در آن قسمت ها و اشکال مشابه هستند اما معکوس هستند. از شکیبایی شما متشکرم، واضح است که من گمشده ام... از هر راهنمایی سپاسگزار خواهم بود! با احترام، آتاکان
خوشه بندی شبکه های جاده ای در شعاع های مختلف
13241
آیا درک درستی دارم که ترتیب تعیین متغیرها در یک ANOVA چند عاملی تفاوتی ایجاد می کند اما ترتیب در هنگام انجام رگرسیون خطی چندگانه مهم نیست؟ بنابراین با فرض نتیجه ای مانند **از دست دادن خون اندازه گیری شده، y** و دو متغیر طبقه بندی 1. **روش آدنوئیدکتومی، a** 2. **روش لوزه برداری، b** مدل _y~a+b_ متفاوت است مدل _y~b+a_ (یا به نظر می رسد اجرای من در R نشان می دهد). آیا درست است که بفهمم اصطلاح در اینجا این است که ANOVA یک مدل **سلسله مراتبی** است زیرا ابتدا تا آنجا که می تواند واریانس را به عامل اول نسبت می دهد قبل از اینکه سعی شود واریانس باقیمانده را به عامل دوم نسبت دهد؟ در مثال بالا، سلسله مراتب منطقی است زیرا من همیشه قبل از انجام عمل لوزه، ابتدا آدنوئیدکتومی را انجام می دهم، اما اگر یکی دو متغیر بدون ترتیب ذاتی داشته باشد، چه اتفاقی می افتد؟
ترتیب متغیرها در ANOVA مهم است، اینطور نیست؟
20046
من یک پایگاه داده از کاربران دارم که فیلدی مربوط به آخرین باری است که آنها وارد شده اند. آیا این نوع داده ها سانسور شده در نظر گرفته می شوند، و اگر چنین است، کاری وجود دارد که بتوانم با آن بیش از یک هیستوگرام/تراکم تعداد افرادی که وارد سیستم شده اند انجام دهم. در ماه گذشته، دو ماه و غیره؟ (برای واضح بودن: من فقط آخرین باری که آنها وارد سیستم شده اند می دانم، بنابراین آنها می توانستند سال ها، تا یک هفته پیش هر روز وارد سیستم شوند، و تنها چیزی که می دانم این است که آنها از هفته گذشته وارد سیستم نشده اند.) این احساس می کند. به نظر من این داده های سانسور شده است، اما به شکلی معکوس از تعاریفی که من آنلاین خواندم. اما شاید این فقط داده های سانسور شده چپ باشد؟ یا این نوعی مشکل لاجیت است؟ در حال حاضر، تنها چیزی که می توانم بگویم درصد کاربرانی است که در طول یک ماه، دو ماه گذشته و غیره وارد سیستم شده اند، اما می دانم که مردم مایلند بیشتر از آن بشنوند، و همچنین می ترسم که تفسیر اشتباه آن آسان باشد این داده ها به چه معناست (به نظر بسیار خاص است، مانند توضیح یک فاصله اطمینان.) در نهایت، ممکن است مجبور شوم (به صورت دستی) داده ها را به صورت هفتگی جمع آوری کنم تا بتوانم آن را بیشتر ببرم. هر مرجع قدردانی می شود.
آیا یک عکس فوری از آخرین زمان ورود به سیستم یک نوع داده سانسور شده است؟
1493
$\chi^n_k=\sum_{i=1}^kx_i^n$ که در آن $x_i$ متغیرهای گاوسی هستند و $n>2$؟
توزیع $\chi^n_k$ چگونه است؟