_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
80253
من یک مجموعه داده دارم که در آن دو متغیر X و Y وجود دارد، X مجموعه ای از مقادیر است و Y مجموعه ای از مقادیر متناظر است، مانند X = [1, 2, 3, 4] و Y = [100, 200, 300 ، 400]. در حالت ایده آل، من باید رابطه ای مستقیم داشته باشم. هنگامی که X افزایش می یابد، Y نیز افزایش می یابد، و بالعکس. کاری که من می‌خواهم انجام دهم این است که یاد بگیرم این رابطه چگونه است، خطی است یا غیرخطی یا چیز دیگری. چگونه چنین چیزهایی بررسی می شوند؟ سوالات عمومی بیشتر![توضیح تصویر را در اینجا وارد کنید، وقتی دو متغیر از این قبیل را ارائه دهید چگونه شروع به کاوش در آن می کنید؟ چگونه بررسی کنیم که آیا همبستگی وجود دارد؟ در حال پیوست کردن تصویر نمودار پراکندگی ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MgMiC.png)
نحوه یادگیری رابطه بین دو متغیر
17461
من در حال مطالعه یک مجموعه داده در R با استفاده از هر دو درخت رگرسیون (درخت و توابع rpart) و رگرسیون لجستیک هستم. من متغیرهای توضیحی را در رگرسیون پیدا می‌کنم که معنی‌دار هستند، اما وقتی درختی را برازش می‌کنم از آن متغیرها به عنوان تقسیم استفاده نمی‌شود. این در مورد توانایی پیش بینی نتایج چیست؟
عدم تطابق بین متغیرهای معنی‌دار از رگرسیون لجستیک و تقسیم درخت در R
13371
من آنقدرها با این ادبیات آشنا نیستم، پس اگر این سوال بدیهی است مرا ببخشید. از آنجایی که AIC و BIC به حداکثر کردن احتمال بستگی دارند، به نظر می‌رسد که می‌توانند تنها برای مقایسه نسبی بین مجموعه‌ای از مدل‌هایی که تلاش می‌کنند مجموعه داده‌ای معین را برازش کنند، استفاده شوند. با توجه به درک من، محاسبه AIC برای مدل A در مجموعه داده 1، محاسبه AIC برای مدل B در مجموعه داده 2، و سپس مقایسه دو مقدار AIC و قضاوت در مورد آن منطقی نیست (برای مثال) مدل A با مجموعه داده 1 بهتر از مدل B متناسب با مجموعه داده 2 می شود. یا شاید من اشتباه می کنم و این کار منطقی است. لطفا به من اطلاع دهید. سوال من این است: آیا آمار برازش مدلی وجود دارد که بتوان از آن به‌جای مقایسه‌های نسبی برای مطلق استفاده کرد؟ برای مدل های خطی، چیزی شبیه $R^2$ کار می کند. این یک محدوده تعریف شده و ایده های خاص رشته ای در مورد ارزش خوب دارد. من به دنبال چیز کلی تر هستم و فکر کردم که می توانم با پینگ کردن کارشناسان اینجا شروع کنم. من مطمئن هستم که کسی قبلاً به این نوع چیزها فکر کرده است، اما من دقیقاً عبارات مناسب برای جستجوی سازنده در Google Scholar را نمی دانم. هر گونه کمکی قدردانی خواهد شد.
آیا یک آمار برازش مدل (مانند AIC یا BIC) وجود دارد که بتوان از آن به‌جای مقایسه‌های نسبی، برای مطلق استفاده کرد؟
46765
دو معادله 1 را فرض کنید. $Y_1 = X_1\beta_1 + X_2\beta_2 + U_1$ 2. $Y_2 = X_1\alpha_1 + X_2\alpha_2 + U_2$ بعلاوه فرض کنید که $ \ U_1 = X_4 + E_1$ و $U_2 = X_4 + E_2$ با $ \ corr(Y_1,X_4)\ne 0, \\ corr(Y_1,E_2)= 0 \\\ $ و $ \\\ corr(Y_2,X_4)\ne 0, \ \ corr(Y_2,E_1)= 0$ بنابراین اگر معادله را تخمین بزنیم. 1 و 2 توسط OLS ما یک مشکل بایاس - متغیر حذف شده دریافت می کنیم زیرا رگرسیور $X_4$ در هیچ یک از معادله ها ظاهر نمی شود. **سوال من این است:** از آنجایی که $Y_1$ و $Y_2$ در آن معادلات به عنوان متغیرهای توضیحی ظاهر نمی شوند، یعنی با یکدیگر همبستگی ندارند، پس می توان از $Y_1$ به عنوان یک پروکسی برای $X_4$ در معادله استفاده کرد. . 2 و به طور مشابه $Y_2$ به عنوان یک پروکسی برای $X_4$ در معادله. 1 پاسخ من این خواهد بود که اگر درون زایی بالقوه آن متغیرها را کنترل کنیم، بله، زیرا دو شرط لازم برای یک متغیر پراکسی داده شده است 1. متغیر پراکسی با متغیر غیرقابل مشاهده همبستگی دارد. 2. متغیر پراکسی تا حدی با متغیر وابسته همبستگی ندارد. * * * دوماً دو معادله 1 را فرض کنید. $Y_1 = Y_2\beta_1 + X_1\beta_2 + X_2\beta_3 + U_1$ 2. $Y_2 = Y_1\alpha_1 + X_1\alpha_2 + X_2\alpha_3 + U_2$ بعلاوه فرض کنید که $ \ U_1 = X_4 + E_1$ و $U_2 = X_4 + E_2$ با $ \ corr(Y_1 ,X_4)\ne 0, \\ corr(Y_1,E_2)= 0 \ \\ $ و $ \\\ corr(Y_2,X_4)\ne 0, \\ corr(Y_2,E_1)= 0$ بنابراین اگر معادله را تخمین بزنیم. 1 و 2 توسط OLS، یک مشکل سوگیری متغیر حذف شده را دریافت می کنیم که با یک مشکل درون زایی جفت شده است، زیرا رگرسیور $X_4$ در هیچ یک از معادله ظاهر نمی شود و متغیرهای وابسته $Y_1$ و $Y_2$ به طور مشترک در داخل تعیین می شوند. مدل **سوال من این است:** به عنوان مثال: درون زایی $Y_2$ در معادله. 1 به دلیل 1 است. همبستگی جزئی به $Y_1$ 2. همبستگی جزئی با رگرسیون حذف شده $X_4$ اگر من از یک رویکرد تابع کنترلی استفاده کنم که این درون زایی $Y_2$ را در معادله کنترل می کند. 1 آیا من کمیتی دریافت نمی کنم که نه تنها (1) بلکه برای (2) را نیز کنترل می کند؟ به نظر من این یک راه حل برای یک مشکل سوگیری-حذف متغیر نیست، اما راه حلی برای درون زایی ارائه می دهد؟ **بنابراین نتیجه نهایی:** اگر $Y_1$ و $Y_2$ واقعاً همبستگی ندارند، من در واقع می‌توانم مشکل omitted-variables-bias-problem را حل کنم. در هر صورت باید توجیه کنم که کدام یک از مشکلات من جدی تر است تا راه حل مناسبی پیدا کنم.
بحث در مورد متغیرهای پراکسی و ابزار و درون زایی در چارچوب یک مدل چند معادله ای
101375
من یک مدل 'lmer' ایجاد کرده ام. اثرات یکی از درمان های من، کود بسته به اینکه از lsmeans یا difflsmeans از lmerTest استفاده کنم، متفاوت است. به کدام باید اعتماد کنم، «lsmeans» یا «difflsmeans»؟ من یک آزمایش طرح تقسیم شده دارم. کود کل طرح است، برداشت قطعه شکافته است. در هر پلات 10 نمونه (چهار) وجود دارد. داده‌های جمع‌آوری‌شده در طول 4 سال، که من آنها را به صورت ترتیبی ساخته‌ام. پاسخ زیست توده کل است که من آن را تغییر داده ام. > مدل <- lmer(logTotal ~ ordYear*Fertilizer*Harvest + (1|(Block:Fertilizer)) + (1|(Plot:Quad))، REML = FALSE، data = df) > difflsmeans(model, test.eff =Fertilizer) تفاوت های LSMEANS: برآورد خطای استاندارد DF t-value CI پایین تر CI بالایی کود p-value هیچ توصیه شده -0.3 0.0868 16.0 -3.27 -0.4677 -0.0996 0.005 ** کود هیچ نصف -0.2 0.0868 16.0 -2.19 -0.304 -0.304 Ferizer بدون کود -0.1 0.0868 16.0 -0.84 -0.2572 0.1110 0.412 کود توصیه شده-نصف 0.1 0.0868 16.0 1.08 -0.0905 0.2777 0.2800.2970. 16.0 2.42 0.0264 0.3946 0.028 * کود نیمه کود 0.1 0.0868 16.0 1.35 -0.0671 0.3011 0.197 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 > lsmeans(model, list (دوتا ~ کود)) توجه: نتایج ممکن است به دلیل دخالت در تعاملات گمراه کننده باشند. lsmeans of Fertilizer` Fertilizer lsmean SE df low.CL بالا 21.33 4.644838 4.939462 کود دامی 4.675189 0.07090356 21.33 4.527877 4.822500 نتایج به طور میانگین در سطوح: ordYear، برداشت محصول، تفاوت تخمین زده شده، 9$ تضاد، سطح اطمینان استفاده شده: SE df t.ratio p.value هیچ - توصیه می شود -0.28364706 0.1002728 21.33 -2.829 0.0455 هیچ - نصف -0.19007464 0.1002728 21.33 -1.8511 -1.8510 -1.8910 - غیر مرد. 0.1002728 21.33 -0.729 0.8843 توصیه می شود - نصف 0.09357242 0.1002728 21.33 0.933 0.7875 توصیه می شود - کود 0.21053396 0.102102723 - نصف کود 0.11696153 0.1002728 21.33 1.166 0.6537 میانگین نتایج در سطوح: ordYear، برداشت مقدار P تنظیم شده است: روش tukey برای یک خانواده 4 نفره به معنی تشکر
تفاوت بین lsmeans و difflsmeans
45239
من با یک سوال در مورد قضیه بیز مشکل دارم. سوال اینجاست: > یک فروشگاه اینترنتی لباس دارای سه مارک شلوار جین است. 40% از فروش‌ها به برند A، 20% مربوط به برند B و مابقی مربوط به برند C هستند. 20% از شلوار جین با نام تجاری A > قیمت بیش از 100، 40% از شلوار جین با نام تجاری B بیش از 100 دلار و 90% از شلوار جین برند C > هزینه بیش از 100. با توجه به اینکه یک شلوار جین بالای 100 خریده شده است، احتمال اینکه مارک A باشد چقدر است؟ کار من به شرح زیر است: با استفاده از قضیه بیز دو رویداد را طبقه‌بندی کردم: A$: انتخاب مارک A $B$: شلوار جین بیش از 100 قیمت دارد، بنابراین باید $P(A|B)$$$P(A) = 2 را پیدا کنم. /5$$$$P(B|A) = 1/5$$$$P(\neg A) = 3/5$$$$P(B|\neg A) = 11/25$$ وقتی محاسباتی را با قضیه بیز انجام می دهم، دریافت می کنم؛ $$\frac{2/25}{2/25 + (11/25)\times(3/5)} = 10/43$$ اما پاسخ 2/13$ است. حالا، وقتی برای اولین بار سوال را انجام دادم، فراموش کردم $P(B|\neg A)$ را در $P(\neg A)$ در مخرج ضرب کنم و پاسخ درست را گرفتم. آیا دلیلی وجود دارد که من باید $P(\neg A)$ را کنار بگذارم؟ یا اینکه من به طور کامل به مشکل برخورد کردم؟
قضیه بیز - مسئله شلوار احتمال
48603
من دو متغیر مورد علاقه دارم: * مشاغل خالی مسکونی (res_vac) * مشاغل خالی تجاری (com_vac) من همچنین دو متغیر دارم که می توانم موارد فوق را عادی کنم: * کل اقامتگاه ها (res_tot) * مجموع مشاغل (bus_tot) مشاغل خالی تجاری من کلی را دریافت می کنم. تئوری چگونگی عادی سازی داده ها، اما این تقسیم دوگانه مغز من را دچار سردرد می کند. اگر بخواهم res_vac را عادی کنم (مثلاً آن را با یک متغیر com_vac نرمال شده مقایسه کنم)، که درست است: * res_vac / res_tot * res_vac / (res_tot + bus_tot) من به سمت اولین متمایل می شوم. یک پاسخ عالی همچنین به من کمک می کند تا بفهمم چرا این یکی یا دیگری است.
در مورد روش مناسب برای عادی سازی دو متغیر سردرگم شده است
45232
من در تجزیه و تحلیل توالی تازه کار هستم، و می‌پرسیدم اگر میانگین عرض‌های شبح (ASW) از تحلیل‌های خوشه‌ای ماتریس‌های عدم تشابه مبتنی بر تطابق بهینه کم باشد (حدود 25/0) چگونه واکنش نشان می‌دهم. آیا این نتیجه گیری مناسب به نظر می رسد که ساختار زیربنایی کمی وجود دارد که به توالی ها اجازه خوشه بندی می دهد؟ آیا ممکن است ASW پایین را بر اساس سایر معیارهای کیفیت خوشه نادیده بگیرید (من برخی از آنها را در زیر چسبانده ام)؟ یا این احتمال وجود دارد که انتخاب های انجام شده در طول تجزیه و تحلیل توالی یا تجزیه و تحلیل های خوشه ای بعدی ممکن است مسئول اعداد پایین ASW باشد؟ هر گونه پیشنهادی قدردانی خواهد شد. با تشکر در صورتی که به زمینه بیشتری نیاز است: من در حال بررسی 624 توالی از عدم تطابق ساعت کاری (یعنی عدم تطابق بین تعداد ساعات کاری که یک فرد ترجیح می دهد در هفته کار می کند و تعداد ساعات کار واقعی آنها) را در بین افراد 20 ساله بررسی می کنم. تمام دنباله هایی که من بررسی می کنم دارای طول 10 هستند. شی دنباله من دارای پنج حالت است (M=ساعت بیشتر می خواهد، S=همان ساعت می خواهد، F=ساعت کمتری می خواهد، O=خارج از نیروی کار، و U=بیکار است. ). من یک حسابداری سیستماتیک از اینکه چگونه نتایج ASW با ترکیب های مختلف رویکردها متفاوت است، انجام نداده ام. با این حال، من هزینه های پایین و متوسط ​​را امتحان کرده ام (1.1 و 0.6 از حداکثر هزینه جایگزینی--من به ترتیب رویدادها بیشتر از زمان بندی آنها اهمیت می دهم) و روش های مختلف خوشه بندی (بخش، متوسط ​​و پم). تصور کلی من این است که اعداد ASW کم می مانند. شاید نتایج پایین ASW منطقی باشد. من انتظار دارم که این ایالت ها به ترتیب های مختلف بیایند و حالت ها تکرار شوند. حذف مشاهدات تکراری فقط N را از 624 به 536 کاهش می دهد. مطالعه داده ها نشان می دهد که در واقع مقدار زیادی تنوع و توالی وجود دارد که من آنها را بسیار متفاوت در نظر می گیرم، به عنوان مثال، افرادی که در تمام مدت ساعات یکسانی را می خواستند، عدم تطابق داشتند، آنها را حل کردند. عدم تطابق، و بین داشتن و نداشتن ناهماهنگی در نوسان بود. شاید فقدان خوشه های کاملاً متمایز شده با فقدان تنوع جالب یکسان نباشد. با این حال، به نظر می‌رسد که نتایج خوشه‌ای ضعیف باعث می‌شود که راه خوبی برای خلاصه کردن دنباله‌ها نداشته باشم. نتایج حاصل از روش وارد با تنظیم ایندل در 0.1 از هزینه جایگزینی 2 به نظر می رسد این آمار نشان می دهد که یک راه حل 6 خوشه ای ممکن است خوب باشد. با این حال، ASW پایین است - حداقل برای راه حل هایی که تعداد معقولی خوشه دارند (2 یا 3 بسیار کم است). PBC HG HGSD ASW ASWw CH R2 CHsq R2sq HC cluster2 0.56 0.78 0.75 0.38 0.38 110.76 0.15 241.65 0.28 0.14 0.14 خوشه 3 0.820.6 0.51 108.10 0.26 237.60 0.43 0.17 خوشه4 0.54 0.74 0.71 0.25 0.25 88.66 0.30 203.72 0.50 0.14 0.14 خوشه5 0.590. 75.85 0.33 183.21 0.54 0.09 cluster6 0.59 0.85 0.82 0.24 0.25 66.94 0.35 164.51 0.57 0.08 خوشه7 0.49 0.47 0.47 0.47 0.47 0.47 64.09 0.38 154.47 0.60 0.12 cluster8 0.47 0.81 0.77 0.20 0.21 59.47 0.40 152.36 0.63 0.11 خوشه 9 0.41 0.48 0.48 0.48 56.68 0.42 147.83 0.66 0.10 cluster10 0.47 0.86 0.82 0.19 0.21 53.24 0.44 140.18 0.67 0.08
آیا عرض شبح کم به این معنی است که داده ها ساختار زیرین کمی دارند؟
17460
من یک برنامه نویس سرگرمی هستم که دوستش اخیراً یک سفر کاری به خارج از کشور داشته است. او از دوستان مشترک ما برای شرط بندی در مورد اندازه صندوق پست الکترونیکی خود در هنگام بازگشت نظرسنجی کرده است. من می خواهم این را به عنوان یک نقشه حرارتی یک بعدی تجسم کنم که در آن رنگ نوعی چگالی حدس ها را برای آن مقدار منعکس می کند. من می دانم که می توانم یک هیستوگرام ایجاد کنم و راهی برای ترجمه مقادیر آن به مقادیر رنگی پیدا کنم. با این حال، سطل‌های هیستوگرام، انتقال‌های عجیب و غریب در رنگ ایجاد می‌کنند. آیا راهی برای ایجاد یک تابع مناسب و پیوسته برای خروجی زیباتر وجود دارد؟
بهترین راه برای تجسم یک متغیر عددی به عنوان یک نقشه حرارتی چیست؟
17462
فرض کنید در طول یک ساعت در حال تجزیه و تحلیل الگوهای رفتاری هستم. من سه رفتار مختلف و مهرهای زمانی (پایان شروع) را ثبت کرده ام. چیزی مانند: خمیازه کشیدن کشش زمزمه 2:21-2:22 3:31-3:33 1:21-1:30 3:42-3:45 8:23-8:59 9:27-9:33 9: 20-925 9:34-9:44 14:04-14:07 14:45-14:32 15:01-15:06 18:00-18:22. . . 45:40-45-43 45:23-45:30 44:19-44:44 آیا یک روش آماری برای تعیین اینکه آیا رفتارهای خاصی در اطراف دوره های زمانی خاص با یکدیگر همبستگی یا خوشه بندی دارند وجود دارد؟ به عنوان مثال شاید من بخواهم بدانم که آیا این سه (یا فقط 2) رفتار در مجاورت یکدیگر یافت می شوند یا شاید بخواهم بدانم که آیا این رفتارها در مجاورت یکدیگر نیستند. کدام یک از این سه رفتار تمایل به جمع شدن با هم دارند؟ من حتی نمی دانم چه زمینه ای از آمار را با این بررسی می کنم.
همبستگی مهرهای زمانی
101378
من یک تحقیق پزشکی دارم که در آن دو مجموعه داده دارم. 1. گروه کنترل: افرادی که هیچ بیماری ندارند. 2. گروه مطالعه: افرادی که بیماری خاصی دارند. در هر دسته زیر گروه هایی مانند سن، جنسیت، محدوده فشار خون، محدوده کلسترول و غیره وجود دارد. اکنون من چند مشاهدات (حدود 50) برای هر دو گروه کنترل و گروه مطالعه دریافت کردم. من پارامترهای مختلفی مانند فشار خون، سطح کلسترول و غیره را مشاهده می‌کنم. می‌خواهم اهمیت آماری این پارامترها (فشار خون/کلسترول) را در گروه مطالعه ثابت کنم. بهترین راه برای انجام آن چیست؟ آیا باید از توزیع $t$ استفاده کنم یا توزیع عادی؟ همچنین وقتی مقدار $p$-value را محاسبه می‌کنم، آیا باید هر زیرگروه در گروه مطالعه (بر اساس محدوده) را با زیرگروه مربوطه در گروه کنترل مقایسه کنم یا مقدار p$-$ را به عنوان یک کل برای مطالعه در مقابل گروه کنترل محاسبه کنم؟
از کدام آمار استفاده کنیم؟
45236
خیلی شبیه هم به نظر می رسند آیا آنها یک چیز هستند اما فقط به عنوان نام های متفاوت از آنها یاد می شود؟
تفاوت بین داده های مقطعی تلفیقی و داده های تابلویی چیست؟
6320
من تعداد بسیار زیادی مشاهدات دارم. مشاهدات به صورت متوالی می رسند. هر مشاهده یک بردار $n$-بعدی است (با $n \ge 100$)، مستقل از بقیه است و از همان توزیع مجهول گرفته شده است. آیا خط مشی بهینه ای برای تخمین توزیع ناشناخته با توجه به محدودیت های فضایی در تعداد مشاهداتی که می توان ذخیره کرد وجود دارد؟ من معیارهای تخمین را باز می گذارم (از نظر خطای مورد انتظار یا حداقل، سازگاری مجانبی، کارایی همیشگی و غیره).
تخمین تابع توزیع احتمال یک جریان داده
59714
من معیارهای وابسته ترتیبی و غیرعادی توزیع شده را با استفاده از روش اسپیرمن تجزیه و تحلیل می کنم. به طور خاص، ما یک طراحی گروه‌های مستقل داریم، و من یک رابطه معنی‌دار بین متغیرهای یک گروه پیدا کرده‌ام اما در گروه دیگر نه (اجرای تحلیل‌های اسپیرمن جداگانه برای هر گروه). من می خواهم تفاوت در ارتباط بین دو گروه را آزمایش کنم، اما نمی توانم اطلاعاتی در مورد روش/آزمایش مورد استفاده پیدا کنم. من می‌دانم که تبدیل فیشر r به z ممکن است در مورد همبستگی لحظه محصول پیرسون استفاده شود، که اجازه می‌دهد تفاوت‌ها در ارتباط بین گروه‌ها آزمایش شود - آیا ابزاری برای اجرای آزمون مشابهی از ارتباط بین گروه‌ها با rho اسپیرمن وجود دارد؟
تست Spearman's rho بین گروه ها
44727
آیا روش استانداردی برای گزارش درصد پیش‌بینی‌شده درست هنگام پیش‌بینی یک نتیجه باینری وجود دارد؟ با استفاده از glm در r، نتایج احتمالات را پیش بینی می کنند. با این حال، برای مقایسه با یک مدل دیگر، می‌خواهم یک درصد از مقدار پیش‌بینی‌شده درست را از مدل باینری خود گزارش کنم. آیا من به سادگی یک نقطه برش را انتخاب می کنم، و اگر چنین است، چگونه؟ در اینجا یک مثال ساده از کد است. model.results <- glm(binary.outcome ~ predictor1 + predictor2, family=quasibinomial) با تشکر،
درصد به درستی از مدل لاجیت پیش بینی شده است
46768
من در حال خواندن این کتاب تشخیص الگو و یادگیری ماشین توسط بیشاپ بودم. من یک سردرگمی مربوط به یک مشتق از سیستم دینامیکی خطی داشتم. در LDS متغیرهای پنهان را پیوسته فرض می کنیم. اگر Z نشان دهنده متغیرهای پنهان و X نشان دهنده متغیرهای مشاهده شده است $p(z_n|z_{n-1}) = N(z_n|Az_{n-1},\tau)$$p(x_n|z_n) = N( x_n,Cz_n,\Sigma)$ $p(z_1) = N(z_1|u_0,V_0)$ در LDS نیز آلفا ارسال پیام به جلو بتا به عقب برای محاسبه توزیع پنهان پسین استفاده می شود، یعنی $p(z_n|X)$ $\alpha(z_n)=p(x1...xn,z_n)$ $\hat\alpha(z_n) = \ alpha(z_n)/P(x1....xn)$ اولین سوال من در کتاب این است که $\hat\alpha(z_n) = N(z_n|u_n,V_n)$ چطور به موارد بالا رسیدیم. منظورم $\hat\alpha(z_n)$ = $N(z_n|u_n,V_n))$ است. منظورم این است که چگونه این را به دست آوردیم؟ سوال بعدی من مربوط به اشتقاق است که می توانید تصاویر صفحات کتاب پیوست شده را دنبال کنید. من متوجه نشدم که $K_n$ از کجا آمده است و سود فیلتر کالمن چیست $u_n = Au_{n-1} + K_n(x_n - CAu_{n-1})$ V_n = I - K_nC)P_(n -1)$c_n = N(x_n|CAu_{n-1},CP_{n-1}C^T + \Sigma$$K_n$ ماتریس بهره کالمن $P_{n-1}C^T(CP_{n-1}C^T + \Sigma) ^ {-1}$ چگونه معادلات بالا را استخراج کردیم، منظورم این است که چگونه $u_n = Au_{ n-1} + K_n(x_n - CAu_{n-1})$ من فقط گیج شده ام که چگونه مشتق بالا ساخته شده است ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/1Uutt.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hBijX.png) ![شرح تصویر را اینجا وارد کنید] (http://i.stack.imgur.com/C0xWn.png)
سردرگمی مربوط به سیستم های دینامیکی خطی
6326
من دو درمان A و B دارم. در اینجا گروه های من هستند، که در آن X نشان دهنده کنترل مناسب برای آن درمان خاص است: گروه 1: XX گروه 2: AX گروه 3: XB گروه 4: AB فرضیه این است که درمان B دارای یک اثر، اما زمانی که با درمان A ترکیب شود، این اثر دیگر آشکار نخواهد بود. بنابراین، اگر آزمایش من را اجرا کنم و یک ANOVA روی داده ها اجرا کنم، و نتایج تجزیه و تحلیل نشان می دهد که تنها گروه 3 به طور قابل توجهی متفاوت از دیگران، آیا درست است که بگوییم درمان B اثر داشت و با ترکیب با درمان A این اثر از بین رفت؟ یا، آیا لازم است تفاوت قابل توجهی بین XB و AB نشان دهم؟
تفسیر تعاملات بین دو درمان
41009
من یک سوال احمقانه در مورد روش های بوت استرپ برای محاسبه p-value دارم. فرض کنید من یک مجموعه داده دارم که احتمالاً توزیع عادی است. اکنون می‌خواهم تعیین کنم که آیا یک مقدار خاص X در مجموعه داده با مقدار pvalue بالا است یا خیر. برای من، دو گزینه وجود دارد 1. از آنجایی که مجموعه داده تقریباً نرمال توزیع شده است، می توانم sd و mean را محاسبه کنم، مساحت z>(X-mean)/sd را از جدول Z دریافت کنم و از آن به عنوان pvalue استفاده کنم. 2. بوت استرپ. من می‌توانم یک نمونه جدید S (طول N) از مجموعه داده اصلی توسط بوت استرپ ایجاد کنم، سپس مقدار p را با مجموع (S>X)/N دریافت کنم. سؤال من این است که آیا درست است که از bootstrap در گزینه دوم استفاده کنم؟ آیا می توانید کتاب هایی را برای درک بهتر تست بوت استرپ و جایگشت معرفی کنید؟ با تشکر
سوالاتی در مورد روش های بوت استرپ در محاسبه p-value
80864
این سوال یک نسخه ساده برای سوال قبلی من است: انتخاب روش نمونه گیری قبل از استفاده از روش اعتبار سنجی بوت استرپ برای مدل های کامپیوتری آیا می توان از نمونه های روش Hypercube لاتین (LHS) برای بوت استرپ استفاده کرد؟ در این صورت، مزایای استفاده از LHS از بین می رود زیرا نمونه های جدید راه انداز غیر LHS خواهند بود. می توان واریانس آمارهای علاقه مند را با استفاده از ترکیب LHS و بوت استرپ بیش از حد تخمین زد. آیا روش نمونه گیری تصادفی یا شبه تصادفی برای بوت استرپ مناسب است؟ هر گونه فکر بسیار قدردانی خواهد شد.
آیا می توان از نمونه های روش Hypercube لاتین برای بوت استرپ استفاده کرد؟
45233
الگوریتم AdaBoost بیان می کند که آموزش یک طبقه بندی بر اساس داده های تمرین بر اساس بردار وزن است. فرض کنید اندازه داده های تمرین N است، بردار وزن نیز از بعد N است. من سه سوال در مورد این روش نمونه گیری دارم، 1) آیا اندازه داده های نمونه برداری شده با مجموعه داده های اصلی یکسان خواهد بود؟ 2) بردار وزن چگونه است؟ اگر یک توزیع است، مجموع آنها باید 1 باشد. آیا می توان یک بردار وزنی با ورودی های عدد صحیح داشت؟ 3) به طور کلی، کدام الگوریتم را می توان برای نمونه برداری از یک مجموعه داده بر اساس یک بردار وزنی یا یک توزیع استفاده کرد؟
با توجه به روش نمونه گیری در الگوریتم Adaboost
44720
من گیج شده ام که چه کار کنم. من به اجرای دو رگرسیون چندگانه جداگانه با یک DV در هر کدام فکر می کردم. بعد از این، من گیر کردم. چگونه می توانم ببینم که این دو DV چه تأثیری با هم دارند؟ یا اینکه من در مورد همه چیز اشتباه می کنم. کمک! IV من جنسیت و گروه است. DV من نمرات دو آزمون روان‌سنجی مجزا (مقیاس لیکرت) خواهد بود. امیدوارم حداقل 100 نفر در هر گروه (3 گروه) داشته باشند، بنابراین حجم نمونه تقریباً 300 خواهد بود.
چگونه داده ها را با 2 متغیر مستقل و 2 متغیر وابسته تجزیه و تحلیل کنم؟
59712
من سعی می کنم نحوه عملکرد مدل های MA(q) را درک کنم. برای این منظور من یک مجموعه داده ساده با تنها سه مقدار ایجاد کرده ام. سپس یک مدل MA(1) را با آن تطبیق دادم. نتایج زیر نشان داده شده است: x<-c(2,5,3) m<-arima(x,order=c(0,0,1)) سری: x ARIMA(0,0,1) با غیر صفر میانگین ضرایب: ma1 intercept -1.0000 3.5000 s.e. 0.8165 0.3163 sigma^2 تخمین زده شده به عنوان 0.5: احتمال ورود به سیستم=-3.91 AIC=13.82 AICc=-10.18 BIC=11.12 در حالی که مدل MA(1) به این صورت است: $$X_t = c +a_t - \theta*a_{t- 1}$$ و $a_t$ نویز سفید است. چیزی که نمی توانم بفهمم این است که چگونه مقادیر برازش را بدست بیاورم: کتابخانه (پیش بینی) برازش (m) سری زمانی: شروع = 1 پایان = 3 فرکانس = 1 [1] 3.060660 4.387627 3.000000 راه های مختلفی را امتحان کردم، اما نمی توانم بفهمم چگونه مقادیر برازش شده ('3.060660'، '4.387627' و 3.000000) محاسبه می شود. برای پاسخ بسیار سپاسگزار خواهم بود!
روشی که یک مدل MA(q) کار می کند
20172
نتیجه در زیر نشان داده شده است: [1] W.D. Penny، KL-Divergences of Normal، Gamma، Dirichlet, and Wishart densities، موجود در: www.fil.ion.ucl.ac.uk/~wpenny/publications/densities.ps اما کسی می تواند به من کمک کند تا خطوط بالای صفحه 3 را بفهمم: $L=\int \log(\Gamma) Wishart(\Gamma|a,B) d\Gamma$$=\log(\tilde\Gamma(a,B))$$=\sum\limits_{i=1}^{d}\Psi((a_{ s}+1-i)/2)-\log|B_{s}|+d\log(2)$ ($\Psi(.)$ تابع دیگام است) پس چیست $\tilde\Gamma(a,B),a_{s},B_{s}$?
واگرایی Kullback-Leibler بین دو توزیع Wishart
59717
من در حال مطالعه تکنیک های بیزی برای مدل های خطی و سری های زمانی هستم. در حالی که متون در آموزش تئوری عالی هستند، من می‌خواهم در مورد جوانب مثبت و منفی تحلیل بیزی در مقایسه با معادل‌های متداول آن‌ها اطلاعات بهتری کسب کنم. من نمی توانم مقاله یا حتی مقاله ای پیدا کنم که این کار را انجام دهد. من واقعاً آن را به عنوان یک سطح نسبتاً بالا می خواهم به جای اینکه فوراً درگیر جزئیات فنی باشم. به طور ایده آل برجسته کردن کجا و در چه موقعیت هایی بیزی بهتر است و بالعکس. بیشتر آنها فقط اشاره می کنند که رویکردهای frequestist نیز به اطلاعات قبلی متکی هستند، اما در این مورد کمتر صادق هستند، اما به جزئیات زیادی پرداخته نشد.
طرح کلی مزایا/هزینه‌های استفاده از OLS بیزی به جای تکراری و سری زمانی؟
70273
من تحقیقی در مورد اثربخشی برنامه درسی جدید برای مدرسه خود دارم. یکی از شاخص های من وضعیت تحصیلی دانش آموزان (درصد قبولی/شکست) است. داده های موجود برای برنامه درسی جدید فقط برای یک سال است، در حالی که من داده های پنج سال گذشته را برای برنامه درسی قدیمی دارم. من قصد داشتم از میانگین های برنامه درسی قدیمی استفاده کنم و سپس آن را با برنامه درسی اخیر مقایسه کنم. چگونه می توانم تعیین کنم که آیا تغییرات محاسبه شده از نظر آماری معنی دار هستند؟
مقایسه دو مجموعه داده
41006
اگر این سوال احمقانه است، ساده لوحی من را ببخشید، اما من در R جدید هستم. سعی می کنم یک رگرسیون لاجیت مرتب انجام دهم. من این مدل را به همین صورت اجرا می کنم (فقط یک مدل کوچک احمقانه که تعداد شرکت ها را در یک بازار بر اساس معیارهای درآمد و جمعیت تخمین می زند). سوال من در مورد پیش بینی است. nfirm.opr<-polr(y~pop0+inc0, Hess = TRUE) pr_out<-predict(nfirm.opr) وقتی پیش بینی را اجرا می کنم (که می خواهم از آن برای بدست آوردن y پیش بینی شده استفاده کنم)، خروجی ها 0 هستند ، 3 یا 27، که به هیچ وجه منعکس کننده آن چیزی نیست که باید بر اساس پیش بینی های دستی من از برآورد ضرایب و رهگیری می کند. آیا کسی می داند چگونه پیش بینی های دقیق را برای مدل لاجیت سفارش داده شده من بدست آوریم؟ **ویرایش** برای روشن شدن نگرانی من، داده های پاسخ من مشاهداتی در تمام سطوح دارد > head(table(y)) y 0 1 2 3 4 5 29 21 19 27 15 16، جایی که به نظر می رسد متغیر پیش بینی من در حال جمع شدن است. > head(table(pr_out)) pr_out 0 1 2 3 4 5 117 0 0 114 0 0
پیش بینی لاجیت مرتب شده در R
6321
من دو متغیر دارم و می توانم به عنوان مثال محاسبه کنم. همبستگی پیرسون بین آنها وجود دارد، اما من می خواهم چیزی شبیه به آنچه که یک آزمون t به من می دهد بدانم (یعنی تصوری از میزان معنی دار بودن همبستگی). آیا چنین چیزی وجود دارد؟
ارزیابی اهمیت همبستگی
77367
من این سوال را پیدا کردم و از آنجایی که در حال یادگیری احتمالات هستم، مطمئن نیستم که چگونه آن را انجام دهم: از کارمندان یک شرکت، 30٪ زن و 6٪ زن متاهل هستند. فرض کنید یک کارمند به صورت تصادفی انتخاب شده است. اگر کارمند انتخاب شده زن باشد، احتمال متاهل بودن او چقدر است؟ من این کار را به این صورت انجام داده ام: W W' M 0.018 M' 0.282 p(W)=0.3 p(W')0.7 p(W')=1-p(W)=1-0.3=0.7 p(M و W) =p(W)p(M|W)=0.3x0.06=0.018 p(W and M')=p(W)-p(M and W')= 0.3-0.018=0.282 خوب من در اینجا هستم، چگونه می توانم آن را ادامه دهم؟ آیا می توانم این اعداد را دریافت کنم؟ با تشکر
جدول مشروط، نحوه پر کردن آن
70271
من چند سوال مشابه را دیده ام، اما هیچکدام با پاسخ نیستند، بنابراین شاید بتوانم این سوال را به گونه ای بیان کنم که پاسخگو باشد. من یک رگرسیون خطی استاندارد را با یک محدودیت مثبت با استفاده از حداقل مربعات غیرمنفی محاسبه می کنم (در واقع در Matlab 'lsqnonneg'). آیا می توان خطاهای رسمی را از یک مسئله حداقل مربعات غیرمنفی محاسبه کرد و اگر چنین است چگونه این کار را انجام دهیم؟ اگر هیچ شکل تحلیلی از خطاها وجود نداشته باشد، من فکر می کنم فقط می توانم بوت استرپ کنم. برای یک مشکل معمولی از چیزی مانند: mcov = sigma^2*inv(G'*G); که در آن سیگما واریانس داده و G ماتریس سیستم است. اما، این برای مشکل من بسیار نزدیک به مفرد است، و بنابراین mcov منفجر می شود.
خطاهای صوری از حداقل مربعات غیر منفی؟
70274
به نظر می رسد توصیف مقادیر آلفای کرونباخ به صورت زیر نسبتاً معمول است: * α ≥ 0.9 عالی * 0.7 ≤ α < 0.9 خوب * 0.6 ≤ α < 0.7 قابل قبول * 0.5 ≤ α < 0.6 ضعیف * α < 0.5 این مقادیر از کجا می آیند غیر قابل قبول هستند؟ من نمی توانم یک مقاله تحقیقاتی اصلی که اینها را توصیف کند پیدا کنم. ویرایش: من 90٪ مطمئن هستم که صرفاً بر اساس قرارداد است و هیچ مقاله تحقیقاتی کلاسیکی وجود ندارد که این موارد را بیان کند.
توصیف کننده های مقادیر آلفای کرونباخ از کجا می آیند (به عنوان مثال، ضعیف، عالی)؟
59715
با توجه به آزمون فرضیه ها، تخمین اندازه نمونه ها از طریق توان انجام می شود و شهودی است که افزایش همان اندازه، دقت اثرات برآورد شده را افزایش می دهد. اما در مورد پیش‌بینی برای طبقه‌بندی و رگرسیون چطور؟ چه جنبه هایی از مسئله پیش بینی تحت تأثیر حجم نمونه غیر از تخمین خطای تعمیم یا RMSE برای رگرسیون است. در مجموع، ویژگی هایی که در تنظیم فرضیه-آزمایش به قدرت کمک می کنند با آنهایی که پیش بینی موفقیت آمیز را از طریق رگرسیون جریمه شده / داده کاوی / مدل سازی الگوریتمی امکان پذیر می کنند، متفاوت است. اندازه نمونه چگونه بر موفقیت این تکنیک ها تأثیر می گذارد؟ یکی از مقاله هایی که این ایده را توصیف می کند، همین مقاله است. آیا کسی می تواند برای نظرات خود مرجع ارائه دهد؟ با تشکر
حجم نمونه با توجه به پیش بینی در طبقه بندی و رگرسیون
80921
ما داده‌هایی از 600000 کاربر داریم که توضیح می‌دهد آیا هر یک از 80+ ویژگی باینری را مشاهده می‌کنند یا خیر. یعنی داده های ما یک ماتریس باینری 600000 x 80 با نمایه کاربر است. ما از بازرسی می دانیم که برخی از ویژگی ها همبستگی مثبت و منفی دارند. برخی از ویژگی های مثبت/منفی برخی دیگر را حذف می کند. اکثر کاربران کمتر از 10 ویژگی مثبت در پروفایل خود دارند. ما می‌خواهیم مشخصات کاربران جدید را با پرسیدن حداقل مجموعه سوالات از 80+ بالقوه با توجه به داده‌های قبلی، بازیابی کنیم. ایده این است که مجموعه کوچکی از سوالات (5-10) به کاربران جدید ارائه شود. آن‌ها باید حداکثر مقدار اطلاعات را ارائه کنند تا تعداد سؤالات بعدی قابل قبول کاهش یابد. پس از اینکه کاربر به اولین مجموعه سوالات پاسخ داد، می‌خواهیم مجموعه بعدی را بپرسیم که مجدداً تعداد سؤالات بعدی را سریع‌تر کاهش می‌دهد. در نظر گرفتن پاسخ های مثبت و منفی منطقی به نظر می رسد. لطفاً راهنمایی هایی در مورد نحوه پیاده سازی این مدل به من بدهید؟ ما می خواهیم: * روشی برای اندازه گیری توزیع تعداد مورد انتظار سوالات داده شده به هر کاربر. * روشی برای تنظیم تعداد سوالات اولیه ارائه شده است. * مدل باید از قبل پردازش شده باشد تا بتواند سریع به ورودی کاربر واکنش نشان دهد. * در صورت امکان، رابطه بین سوالات را تجسم کنید. * در صورت امکان، بتوانید تعداد سؤالات مورد انتظار را کنترل کنید (من حدس می زنم با کنار گذاشتن همبستگی های کم). * در صورت امکان، مدل را به صورت تدریجی با استفاده از پاسخ دهندگان جدید به روز کنید (نه حیاتی) ما قصد داریم نمونه اولیه را در پایتون و سپس در .Net پیاده سازی کنیم، اما هر نکته/کد دیگری مورد استقبال قرار خواهد گرفت.
به حداقل رساندن تعداد سوالات پرسشنامه از پاسخ های دودویی گذشته
70275
وقتی این همه هشدار می دهد، در واقع به چه معناست؟ آیا اعتبار مدل های پیش بینی تصادفی مشکلی دارد؟ من یک پیش‌بینی تصادفی از یک جمعیت کوچک با تقریباً انجام می‌دهم. 50000 نفر من از فواصل سنی یک ساله 0-90+ استفاده می کنم. از آنجایی که مجموعه داده بسیار کوچک است، من نرخ مرگ و میر را از جمعیتی قرض می‌گیرم که از نظر امید به زندگی مشابه هستند. نرخ باروری با 0 با 1/10000 جایگزین می شود. مهاجرت های خالص با تابع netmigration در بسته دموگرافی محاسبه می شود. سپس از تابع pop.sim برای شبیه سازی مثلا 1000 مسیر نمونه از جمعیت 40 سال آینده استفاده می کنم. هنگام انجام این کار با set.seed(505) و N=1000، هیچ هشداری دریافت نمی کنم. اما تقریباً تمام مقادیر دیگر در set.seed و یا N=1000 پیام های هشدار دهنده را به من می دهند: NAs تولید شده است. برای مثال وقتی کد من set.seed(300) sim300 <- pop.sim(mort=mort.fcast, fert=fert.fcast, mig=mig.fcast, firstyearpop=mort.fo,N=300, mfratio=mfratio است. , bootstrap=FALSE) ده پیام اول به این صورت است: پیام های هشدار: 1: در rpois(rep(1, طول (fert$ سن))، lambda): NAهای تولید شده 2: در rbinom(1, B, mfratio/(1 + mfratio)) : NAهای تولید شده 3: در rpois(1, Ef0 * mort.sim$female[1, j، i]): NAهای تولید شده 4: در rpois(1، Em0 * mort.sim$male[1، j، i]): NAهای تولید شده 5: در rpois(rep(1, p), Ef * mort.sim$female[, j, i]) : NAهای تولید شده 6: در rpois(rep(1, p), Em * mort.sim$male [, j, i]): NAهای تولید شده 7: در rpois(1, Ef0 * mort.sim$female[1, j, i]) : NAهای تولید شده 8: در rpois(1، Em0 * mort.sim$male[1, j, i]): NAهای تولید شده 9: در rpois(rep(1, p)، Ef * mort.sim$female[, j, i] ) : NAهای تولید شده 10: در rpois(rep(1, p), Em * mort.sim$male[, j, i]): NAهای تولید شده چگونه اینها را تفسیر کنم پیام ها؟ آیا این نشان می‌دهد که چیزی در داده‌ها، مدل‌ها، روش‌های پیش‌بینی یا شبیه‌سازی اشتباه است؟ اولین حدس من این است که در پیام شماره. 1، یک مقدار منفی به lambda اختصاص داده شده است؟، اگر چنین است، آیا راهی برای جلوگیری از آن وجود دارد؟ مهم ترین سوال این است که آیا این NAهای تولید شده نشانگر اعتبار مدل ها و یا پیش بینی جمعیت است؟ آیا کسی آنجا هست که بتواند چیزی در مورد آنچه اینجا می گذرد بگوید؟
دلیل دریافت این همه هشدار: تولید NA هنگام استفاده از تابع pop.sim در بسته دموگرافی چیست؟
44185
1) من می خواهم عملکرد KNN و SVM را در نمودار ROC مقایسه کنم. الف) برای KNN، من یک خط خطی در نمودار ROC به جای یک منحنی به دست آوردم. از x=0 تا x=0.275، y=0.65 و از x=0.35 تا x=0.95، y = 1.0. ب) برای SVM، منحنی ROC به طور معمول رفتار می کند. x=0، y=0 و در x=0.95، y=0.98. کدام یک از این دو مدل بهتر است؟
مقایسه KNN با SVM در نمودار ROC
81240
به نظر می‌رسد ESL فصل 2.4 رگرسیون خطی را به عنوان «مبتنی بر مدل» طبقه‌بندی می‌کند، زیرا $f(x) \تقریبا x\cdot\beta$ را فرض می‌کند، در حالی که هیچ تقریبی مشابه برای k-نزدیک‌ترین همسایه‌ها بیان نشده است. اما آیا هر دو روش در مورد $f(x)$ مفروضاتی ایجاد نمی کنند؟ بعداً در 2.4 حتی می‌گوید: > * حداقل مربعات فرض می‌کند $f(x)$ به خوبی با یک تابع خطی سراسری تقریب می‌شود. > * k-نزدیکترین همسایه فرض می کند $f(x)$ با یک تابع ثابت محلی به خوبی تقریب می شود. > فرض KNN به نظر می‌رسد که می‌تواند رسمیت یابد (اگرچه مطمئن نیستم که آیا انجام این کار به الگوریتم KNN منجر می‌شود، همانطور که با فرض خطی بودن $f$ منجر به رگرسیون خطی می‌شود). بنابراین اگر KNN واقعاً مبتنی بر مدل نیست، چرا؟ یا من ESL را اشتباه می خوانم؟
چرا KNN مدل محور نیست؟
84209
من یک آیتم پرسشنامه دارم (N=6572) که برای آن: 5064 (77.1%) آزمودنی **به سوال پاسخ دادند** و 1508 (22.9%) آزمودنی **به سوال پاسخ ندادند**. اگر **نسبت آزمودنی‌هایی که پاسخ دادند=نسبت آزمودنی‌هایی که پاسخ ندادند، از چه آزمون آماری استفاده کنم؟** من یک آزمون z نمونه برای نسبت‌ها فکر می‌کنم. لطفا راهنمایی کنید.
آزمون آماری برای تست نسبت های مساوی
6329
من از توابع ets() و auto.arima() از بسته پیش بینی برای پیش بینی تعداد زیادی سری زمانی تک متغیره استفاده کرده ام. من از تابع زیر برای انتخاب بین 2 روش استفاده می‌کردم، اما نمی‌دانستم که CrossValidated ایده‌های بهتر (یا کمتر ساده‌لوحانه) برای پیش‌بینی خودکار دارد یا خیر. auto.ts <- function(x,ic=aic) { XP=ets(x, ic=ic) AR=auto.arima(x, ic=ic) if (get(ic,AR)<get(ic ,XP)) { model<-AR } else { model<-XP } model } /edit: در مورد این تابع چطور؟ auto.ts <- function(x,ic=aic,holdout=0) { S<-start(x)[1]+(start(x)[2]-1)/frequency(x) #Convert YM بردار به سال اعشاری E<-end(x)[1]+(پایان(x)[2]-1)/frequency(x) holdout<-holdout/frequency(x) #تبدیل توقف در ماه به اعشاری fitperiod<-window(x,S,E-holdout) #Determine fit window if (holdout==0) { testperiod<-fitperiod } else { testperiod<-window(x,E-holdout+1/frequency(x ),E) #تعیین پنجره تست } XP=ets(fitperiod, ic=ic) AR=auto.arima(fitperiod, ic=ic) اگر (Holdout==0) { AR_acc<-accuracy(AR) XP_acc<-accuracy(XP) } other {AR_acc<-accuracy(forecast(AR,holdout*frequency(x)), testperiod) XP_acc<-accuracy(forecast( XP, Holdout*frequency(x)) Testperiod) } if (AR_acc[3]<XP_acc[3]) { #Use MAE model<-AR } else { model<-XP } model } «Holdout» تعداد دوره‌هایی است که می‌خواهید به عنوان آزمون خارج از نمونه استفاده کنید. سپس تابع یک پنجره مناسب و یک پنجره تست را بر اساس این پارامتر محاسبه می کند. سپس توابع auto.arima و ets را در پنجره fit اجرا می‌کند و در پنجره آزمایشی را انتخاب می‌کند که دارای کمترین MAE باشد. اگر Holdout برابر با 0 باشد، تناسب درون نمونه را آزمایش می کند. آیا راهی برای به روز رسانی خودکار مدل انتخابی با مجموعه داده کامل، پس از انتخاب وجود دارد؟
ترکیب auto.arima() و ets() از بسته پیش بینی
10117
اگر تاپیک دیگری در حال حاضر وجود دارد که به این سوال پاسخ دهد، صمیمانه عذرخواهی می کنم. من به قدری از لیگ خودم خارج شده ام که حتی نمی دانم چه کلمات کلیدی را جستجو کنم :-). من یک برنامه نویس کامپیوتر هستم و در حالی که پیشینه پایه ای در ریاضیات دارم، آمار هرگز واقعاً فنجان چای من نبود. من در حال حاضر در یک مدرسه کار می‌کنم و به‌تازگی ایجاد مجموعه‌ای از ابزارها را برای کمک به جمع‌آوری و تجزیه و تحلیل خودکار داده‌ها در مورد رفتارهای دانش‌آموزانمان به پایان رساندم (این مدرسه برای کودکان اوتیسم و ​​سایر ناتوانی‌ها است). بنابراین، ما داده‌های چند سالی برای مواردی مانند: با توجه به بیلی، تعداد دفعات پرخاشگری، رفتارهای آسیب‌رسان به خود، سقوط و غیره داشته‌ایم. احتمالاً 6 تا 10 ورودی (من فکر می‌کنم این عبارت صحیح است) در هر دانشجو در آینده نیز موارد بیشتری را اضافه خواهیم کرد. ** چیزی که من در مورد آن کنجکاو هستم این است: ** آیا هیچ آموزش ابتدایی وجود دارد که ممکن است کارهای جالبی را برای انجام این داده ها به من نشان دهد (علاوه بر ترسیم نمودار؟) برای مثال، جالب است که بتوانم پیش بینی کنید چه زمانی بیلی احتمالاً یک رشته پرخاشگری طولانی خواهد داشت، با توجه به اینکه این «x» دیگر عوامل اخیراً افزایش یافته اند. یا، روند رو به افزایشی از این رفتار وجود دارد که با مقادیر قبلی خود فاصله زیادی دارد، که باید یک پرچم قرمز بزرگ را بلند کند. من برخی از گوگل‌های اولیه را انجام می‌دهم و به نظر می‌رسد این در حوزه «داده‌کاوی آماری» است - برخی آموزش‌های مختصر در سایت اندرو مور یافت شد، اما اینها به اندازه کافی دقیق نیستند که بتوانم واقعاً چیزی یاد بگیرم. من متوجه شدم که این شبیه به کسی است که وارد Stack Overflow می شود و می گوید هی، به من بگو چگونه فیس بوک بعدی را بنویسم. بنابراین، اگر اینها چیزهایی هستند که من فقط با سالها و سالها تجربه آماری می توانم انجام دهم، فقط به من اطلاع دهید و من در راه هستم. با این حال، من همچنین می‌دانم که در حالی که کسی نمی‌تواند چند هفته دیگر وارد SO شود و فیس‌بوک بعدی را بنویسد، ما احتمالاً می‌توانیم او را در جهت درست راهنمایی کنیم تا یک سایت اساسی برای تجارت پدرش ایجاد کند، حتی اگر این سایت زیبا باشد. سایت پایه به همین ترتیب، من به دنبال ایجاد یک هوش مصنوعی نابغه نیستم که بتواند رفتار دانش آموزان را تا میلی ثانیه پیش بینی کند. در عوض، من فقط کنجکاو هستم که آیا میوه‌ای وجود دارد که مردی مثل من بتواند در چند هفته یا چند ماه مطالعه دقیق آن را بیاورد که ممکن است برای استفاده‌های جالبی از این داده‌های جدیدی که قفل آن را باز کرده‌ایم استفاده کند. **من برای آموزش های آنلاین، کتاب ها، کتاب های درسی، فیلم ها، برنامه ها و کتابخانه های متن باز و غیره آماده هستم.**
مبتدی برای پیش بینی/آمار: از کجا شروع کنم؟
70272
من سعی می کنم یک طرح خودکار برای اشیاء mer در همان مسیری که مثال autoplot.lm ایجاد می کنم. من می توانم چارچوب داده اصلی، باقیمانده ها و پیش بینی کننده های خطی را مستقیماً از شی برگشتی استخراج کنم... > مدل تصادفی <- lmer(a ~ b + c + (1 | d)، داده = مثال، خانواده = دو جمله ای > تشخیص <- cbind(random.model@frame، random.model@eta، random.model@resid) ... و بعد از خواندن یک پیشنهاد در اینجا می توانم Cooks را محاسبه کنم فاصله با استفاده از بسته influence.ME... > library(influence.ME) > آشپزها <- cooks.distance(influence.ME::influence(random.model)) > تشخیصی <- cbind(diagnostics, cooks) ... و در جاهای دیگر (با عرض پوزش نمی توانم پیوند را پیدا کنم) دریافتم که می توانم باقیمانده های استاندارد شده را با استفاده از بسته HLMdiag استخراج کنم... > library(HLMdiag) > stdresid <- HLMresid(random.model, level = 1, standardize = TRUE) > diagnostics <- cbind(diagnostics, stdresid) اما من با مشکلی مواجه شدم زیرا مثال autoplot تابع 'fortify()' ggplot2 را برای محاسبه اینها فراخوانی می کند و دو اندازه گیری اضافی، سیگما، تخمین SD باقیمانده زمانی که مشاهدات مربوطه از مدل حذف می شود و کلاه، مورب ماتریس کلاه. با مطالعه اطراف فکر کردم که تابع 'hatTrace()' بخشی از راه حل است، اما پست هایی در R-help یافتم که نشان می دهد از بسته lme4 حذف شده است. آیا کسی می تواند در مورد نحوه محاسبه بردار سیگما و کلاه راهنمایی کند؟ یا اگر کسی راه حل های کنسرو شده ای برای نمودارهای تشخیصی برای lme4 دارد که می تواند مفید باشد.
lme4 - استخراج مورب ماتریس کلاه
21799
من باید شباهت بین یک سند مرجع و مجموعه ای از اسناد را در یک مخزن پیدا کنم. در اینجا روش من است: 1. من عبارت ماتریس سند را برای همه اسناد از جمله سند مرجع پیدا می کنم. 2. svd برای این ماتریس محاسبه می شود. 3. آرایه v را می گیرم (نتیجه سوم). 4. من این ماتریس را جابجا می کنم تا هر ردیف نشان دهنده یک سند باشد. 5. ردیف اول نشان دهنده سند مرجع است. 6. شباهت کسینوس بین این ردیف و بقیه سطرها را پیدا کردم. تردیدهای من: 1. از آنجایی که من حدود 7 سند در پایگاه داده خود دارم، فقط یک آرایه `v` 8x8 (ماتریس سند) دریافت می کنم. بنابراین اگر شباهت کسینوس را تنها با این 8 مقدار پیدا کنم، نتیجه درستی می‌گیرم؟ 2. آیا چنین روشی به طور کلی اتخاذ می شود؟
یافتن شباهت بین یک مرجع و چند سند کاری
44186
اگر مجموعه آموزشی مجموعه‌ای از $n$-tuples، با برچسب‌های گسسته باشد، می‌توان به طور استاندارد از رگرسیون لجستیک چندجمله‌ای (softmax) استفاده کرد، اما اگر برچسب‌های هدف جفت‌هایی از مقادیر گسسته باشند، یا به طور کلی، یک $m$- باشند. چند عدد از مقادیر گسسته؟ آیا روشی وجود دارد که بتوانم از آن استفاده کنم، یا آیا می توانم برای هر بعد هدف، طبقه بندی رگرسیون softmax $m$ جداگانه انجام دهم؟
روش مورد استفاده در طبقه بندی آماری هنگام برخورد با برچسب های هدف گسسته چند بعدی چیست؟
44181
من در حال تلاش برای محاسبه رتبه اعتبار برای ایمیل های بالقوه مخرب هستم. اساساً سیستمی که در آن چندین نفر یک ایمیل مشکوک را مشاهده می کنند و به آن یک امتیاز سوء نیت اختصاص می دهند. ایده این است که ایمیل‌هایی که ارزیاب‌ها به طور قابل اعتماد آن را مخرب ارزیابی می‌کنند، آن را پرچم‌گذاری کنند و کارهایی را برای آن انجام دهند (رد کردن، علامت‌گذاری برای بررسی و غیره) و غیره، اما همه اینها به ارزیاب‌های یکسانی برای رتبه‌بندی چند نمونه نیاز دارند (که در سناریوی من اتفاق نمی‌افتد - فقط تعداد زیادی نمونه توسط تعداد زیادی از کاربران انتخاب شده به‌طور تصادفی رتبه‌بندی می‌شوند). آیا کسی می تواند چیزی برای امتحان کردن پیشنهاد دهد؟ (و/یا اگر کاملاً اشتباه متوجه شده‌ام به من اطلاع دهید!) با توجه به بررسی، فکر می‌کنم باید بیشتر توضیح دهم: هدف این است که میزان توافق را در میان نمونه تصادفی رتبه‌دهندگان برای **هر ایمیل** تعیین کنیم. با این اطلاعات، می‌توانیم یک اقدام را برای هر ایمیل خودکار کنیم: به عنوان مثال. اگر اتفاق نظر وجود دارد که ایمیل بد/خوب است، نادیده بگیرید/اجازه دهید. اگر اختلاف نظر قابل توجهی وجود دارد، قرنطینه کنید. هرگونه علاقه به اینکه آیا کل سیستم رتبه‌دهندگان به‌طور تصادفی انتخاب‌شده + ایمیل‌های انتخاب‌شده به‌طور تصادفی قابل اعتماد هستند یا نه، بیشتر یک موضوع فرعی است. آیا این چیزی را تغییر می دهد؟
چگونه می توان قابلیت اطمینان بین ارزیاب را فقط برای یک نمونه محاسبه کرد؟
1651
من باید $Y_{ij} \sim NegBin(m_{ij},k)$، یعنی یک توزیع دوجمله‌ای منفی را برای شمارش داده‌ها برازش کنم. با این حال، داده‌هایی که من مشاهده کرده‌ام سانسور شده‌اند - من ارزش $y_{ij}$ را می‌دانم، اما می‌تواند بیشتر از این مقدار باشد. احتمال گزارش \begin{معادله} ll = \sum_{i=1}^n w_i است (c_i \log(P(Y_{ij}=y_{ij}|X_{ij})) + (1- c_i ) \log(1- \sum_{k=1}^32 P(Y_{ij} = k|X_{ij}))) \end{معادله} که در آن $X_{ij}$ نشان دهنده ماتریس طراحی (با متغیرهای مورد نظر)، $w_i$ وزن هر مشاهده، $y_{ij}$ متغیر پاسخ و $P(Y_{ij}=y_{ij}|X_{ij} است. )$ توزیع دوجمله ای منفی است که در آن $m_{ij}=exp(X_{ij} \beta)$ و $\alpha$ پارامتر پراکندگی بیش از حد است. آیا کسی پکیج R برای رفع این مشکل می شناسد؟
چگونه یک توزیع دوجمله ای منفی را در R در حالی که شامل سانسور می شود برازش دهیم
84205
یادداشت‌های کلاس من مراحل زیر را برای محاسبه یک plim تحت خطاهای کلاسیک در متغیرها فهرست می‌کنند: $$ {\rm plim}\ \beta_1 = \frac{{\rm cov}(\beta_0 + \beta_1 x_1 + \epsilon - \beta_1 e , x_1)}{{\rm var}(x_1)}=\frac{\beta_1 {\rm var}(x_1) - \beta_1 {\rm cov}(x_1, e)}{{\rm var}(x_1)}... $$ ساده‌سازی در شماره‌گر چگونه انجام شد؟
محاسبه حد احتمال
10111
من می خواهم مقدار p ANOVA دو طرفه خود را محاسبه کنم. امتیازی که من برای شناسایی نمونه های قابل توجه استفاده می کنم، امتیاز eta است که به صورت SS (بین) / SS (کل) محاسبه می شود. در بسیاری از سایت ها دیدم که F=Var(بین)/Var(در داخل). می خواهم بدانم آیا می توانم امتیاز eta را به عنوان مقدار آماره F در نظر بگیرم و سپس مقدار p را محاسبه کنم؟ اگر بخواهم p-value را برای امتیازهای دیگر مانند eta-partial یا omega محاسبه کنم؟ آیا معنی دار است که من مقدار p را برای آنها محاسبه کنم؟ یا فقط برای نسبت Var(بین)/Var(درون) معنی دارد؟ چه فرقی می کند که به جای Var از SS(بین)/SS(در داخل) استفاده کنم؟ فرمولی که من برای محاسبه p-value استفاده می کنم این است: pvalue=-log10(betai(0.5 * df2, 0.5* df1, df2 / (df2 + df1 * eta))); بر اساس کتاب _دستورالعمل های عددی در C_ که df1 و df2 درجه آزادی هستند. با تشکر از کمک شما.
محاسبه مقدار p برای یک ANOVA دو طرفه
103588
سپس دو طبقه‌بندی‌کننده بر روی یک مجموعه داده مورد ارزیابی قرار می‌گیرند، آزمون مک‌نمار می‌تواند برای مقایسه صحت طبقه‌بندی کلی آنها استفاده شود و بگوید که آیا تفاوت بین آنها قابل توجه است یا خیر. اما اگر بخواهیم آنها را به طور جداگانه در خطاهای نوع I و نوع II مقایسه کنیم و تفاوت را در دقت و یادآوری کمی محاسبه کنیم، چه؟ به نظر می رسد که آزمون مک نمار به دلیل تصادفی بودن مخرج نمی تواند حداقل برای دقت مورد استفاده قرار گیرد. آزمون های آماری مناسب برای این مورد کدامند؟
چگونه دقت و فراخوانی دو طبقه‌بندی کننده را در یک مجموعه داده مقایسه کنیم؟
10110
100 دوره از یک سیگنال تناوبی 3 بعدی جمع آوری شده است. طول موج کمی متفاوت است. نویز طول موج از توزیع گاوسی با میانگین صفر تبعیت می کند. تخمین خوبی از طول موج مشخص است، که در اینجا موضوعی نیست. نویز دامنه ممکن است گاوسی نباشد و ممکن است به نقاط پرت آلوده باشد. ** چگونه می توانم یک دوره واحد را محاسبه کنم که بهترین تمام 100 دوره جمع آوری شده را تقریب می کند؟** من نمی دانم مدل های سری زمانی چگونه کار می کنند. آیا آنها برای طول موج های مختلف آماده هستند؟ آیا آنها می توانند سیگنال های واقعی غیر هموار را کنترل کنند؟ اگر یک مدل سری زمانی برازش شود، آیا می توانم «بهترین تخمین» را برای یک دوره واحد محاسبه کنم؟ چگونه؟ یک سوال مرتبط این است. سرعت در مورد من مسئله ای نیست. پس از جمع آوری تمام دوره ها، پردازش به صورت آفلاین انجام می شود. **منشأ مشکل:** من شتاب گام‌های انسان را در 200 هرتز اندازه‌گیری می‌کنم. پس از آن من سعی می کنم داده ها را دو برابر کنم تا جابجایی عمودی مرکز ثقل را بدست بیاورم. البته وقتی دو بار ادغام می‌شوید، نویز یک خطای بزرگ ایجاد می‌کند. من می خواهم از تناوب برای کاهش این سر و صدا استفاده کنم. در اینجا یک نمودار خام از داده های واقعی (y: شتاب در g، x: زمان در ثانیه) از 6 مرحله مربوط به 3 دوره است (1 مرحله چپ و 1 گام راست یک نقطه است): ![گام های انسانی](http:/ /i.stack.imgur.com/44q8d.png) علاقه من اکنون کاملاً نظری است، زیرا http://jap.physiology.org/content/39/1/174.abstract دستور العمل بسیار خوبی ارائه می دهد که چه باید کرد. به تناوب نمی پردازد. **توجه:** من این سوال را در stackoverflow پرسیده ام اما به نظر می رسد خارج از موضوع باشد.
چگونه از تناوب برای کاهش نویز سیگنال استفاده کنیم؟
84207
در یک نمودار، می‌خواهم بارگذاری اجزای اصلی یک آیتم را بر اساس رنگ نشان دهم. ایده این است که بارگذاری های آیتم را روی سه جزء اصلی (به عنوان مثال، سه جزء اول) روی مقادیر RGB ترسیم کنیم. آیتم های مورد نظر را می توان با بردارهای واحد 20 بعدی نشان داد (در مورد خاص که انگیزه این سوال است، آیتم ها توالی پروتئین هستند و من در حال تجزیه و تحلیل ترکیب اسید آمینه آنها هستم). اجزای اصلی از تجزیه ویژه ماتریس همبستگی این بردارها برای تعداد زیادی از آیتم ها به دست می آیند. می توان نگاشتهای ساده ای مانند: بردارهای ویژه = $n \times n$ ماتریس $\mathbf{T}$، هدف $n \times 1$ بردار = $\mathbf{v}$، طرح $\mathbf{p} = \ mathbf{v}'\mathbf{T}$، سه بار اول طرح ریزی $\mathbf{n} = \mathbf{p_{i \in 1\dots 3}}$، و بردار مقادیر RGB بین 0 و 1 که از $(\mathbf{n/||n||}+[1\quad1\quad1]' به دست آمده است )/2$ (که ابتدا $\mathbf{n}$ را عادی می‌کند، ورودی‌های تضمین شده در [-1,1] را به دست می‌آورد، و سپس نقشه‌برداری می‌کند. [-1،1] ورودی به [0،1] ورودی). این بسیار ساده است و به نظر می رسد کار می کند، اما ممکن است نقاط کور غیر آشکاری داشته باشد. من به ویژه نگران این هستم که آیا عادی سازی های ساده منجر به پوشش ضعیف فضای رنگ و در نتیجه کنتراست ضعیف می شود. هدف اصلی، مانند همه کدهای رنگی، ارائه کنتراست بصری است. آیا راه حل استانداردی برای این مشکل وجود دارد؟ اگر نه، پیشنهاداتی برای بهبود این یکی؟ به روز شده: برنامه در نظر گرفته شده اجازه دادن به رنگ آمیزی خودکار و آموزنده اقلام خارج از یک نمودار پراکنده یا سایر فرمت های کمی است. نمونه ای از چنین قالبی در زیر نشان داده شده است. هر ردیف یک توالی پروتئین است، و هر استوانه رنگی ناحیه ای از پروتئین است که ویژگی های خاصی را به اشتراک می گذارد، با همان رنگی که برای نشان دادن نمونه های تکراری یک نوع منطقه استفاده می شود. محدودیت این است که شباهت ها یا تفاوت های رنگ ها، در این مثال، معنایی ندارند و به دلایل طراحی گرافیکی انتخاب شده اند. ![شکل. 3 از شرایبر و همکاران. 2006](http://i.stack.imgur.com/seBo1.jpg)
رنگ آمیزی با بارگذاری جزء اصلی
41004
من یک روش خوشه‌بندی می‌خواهم که به من اجازه دهد محدودیت‌هایی را روی حداکثر و حداقل اندازه‌های خوشه اعمال کنم که می‌توانم پیاده‌سازی کنم. در غیر این صورت پیشنهادهایی برای ترکیبی از تکنیک های موجود که می توانم از آنها برای رسیدن به نتیجه مشابه استفاده کنم، استقبال می شود.
خوشه بندی با اندازه محدودیت
23281
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4S96q.jpg) سلام به همه، لطفاً کسی می تواند به من کمک کند؟ من سعی می‌کنم بدانم آیا رویکرد خوبی در آمارهای مدرن وجود دارد که بتواند این داده‌ها را بدون تطابق بیش از حد به خوبی منطبق کند. خوب، در اینجا یک طرح دیگر است که من از pch=. استفاده کردم... ممنون که به من اشاره کردید! ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/PyPvK.jpg) این یک 3 بعدی است: دوباره، من می خواهم بتوانم {مثبت، منفی}- بودن z را طبقه بندی کنم. -axis... ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/g4JlY.jpg)
بهترین راه برای جا دادن این داده های عجیب و غریب چیست؟
94860
قدردانی کنید که این یک سوال بسیار آسان است - اما من فقط ماتریس‌های گذار مارکوف را با احتمالات مشخص دیده‌ام، بنابراین کمی با آن مشکل دارم. در یک رژیم ساده 2 حالته، اگر حالت 1 به طور معمول با میانگین 2 و واریانس 1 و هنجار حالت 2 با میانگین 4 و واریانس 36 توزیع شده باشد و احتمال اولیه بودن در حالت 1 برابر 0.75 باشد - چگونه می توانم ماتریس انتقال؟ با تشکر
احتمالات انتقال مارکوف
84203
در رابطه با این سوال، اگر من 1500 یا بیشتر نتیجه جکپات از یک قرعه کشی 6/49 داشته باشم (اعداد قرعه کشی شده، تعداد برندگان و جایزه هر برنده جکپات)، چگونه می توانم نشان دهم که برخی از اعداد کمتر از سایرین توسط بازیکنان انتخاب می شوند. ? البته من به توزیع اعداد انتخاب شده مستقیم دسترسی ندارم. به عنوان مثال، این فرضیه را در نظر بگیرید که بازیکنان بیشتر از آنچه که به طور تصادفی انتظار می رود، اعداد مربوط به تاریخ را انتخاب کنند، یعنی از (1-31): من یک همبستگی مثبت بین تعداد اعداد > 31 و جایزه در هر پیدا می کنم. برنده، و همبستگی منفی بین تعداد اعداد <32 و جایزه به ازای هر برنده. همچنین، مجموع اعداد با جایزه به ازای هر برنده همبستگی مثبت دارد و تعداد اعداد > 31 با یک رویداد rollover همبستگی مثبت دارد، زمانی که هیچ‌کس برنده نمی‌شود. بهترین راه برای نزدیک شدن به این با داده های موجود چیست؟
احراز عدم تصادفی بودن در انتخاب شماره قرعه کشی
21790
اگر اصلاً می توان «برازش» یک مدل رگرسیون خطی ساده در مقابل غیرخطی را با داده های مشاهده شده مقایسه کرد؟ من عذرخواهی می کنم اگر به اندازه کافی طولانی / سخت برای پاسخ جستجو نکردم، اما چیزی مشخص پیدا نکردم. -پاتریک
مقایسه مدل رگرسیون خطی با غیر خطی برای بهترین برازش
5402
من شنیده ام که بسیاری از مسائل در آمار ریاضی را می توان بر اساس هندسه سمپلتیک بیان و حل کرد. متأسفانه این یک بیانیه بسیار مبهم بود و من به چیز دقیق تر علاقه مند هستم. همچنین به نظر می رسد برخی از کتاب ها از این دیدگاه نوشته شده است، اما من نتوانستم پیدا کنم.
منابعی برای استفاده از هندسه ترکیبی در آمار؟
72625
مثال کوتاه زیر از تبدیل ها را در نظر بگیرید. بگذارید چگالی مشترک X و Y با مربع واحد داده شود، یعنی $$f_{X,Y}(x,y) = \begin{cases} 1\ \quad 0<x<1\ \text{ و } \ 0<y<1 \\ 0 \quad \text{elsewhere} \end{cases}$$ سپس تابع توزیع تجمعی $Z=X+Y$ داده می‌شود توسط: $$ F_Z = \begin{cases}\begin{array}{ll} 0\ & \text{ for }\ z<0 \\ \int_0^{z} \int_0^{z-x} dy\,dx\ & \text{ for }\ 0\leq z <1 \\1-\int_{z-1}^1 \int_{z-x}^1 dy\,dx\ & \text{ برای }\ 1\leq z<2 \\1\ & \text{ for }\ 2\leq{z} \end{array}\end{cases} $$ می‌دانم چرا باید CDF خود را پارتیشن بندی کنیم، من چیستم مشکل در فهمیدن این است که چرا برای بازه $[1،2)$ آن فرم خاص است. شهود در اینجا چیست؟ با تشکر
تبدیل (تکنیک CDF)
40356
من ریاضیدان نیستم و باید ثابت کنم که این قضیه چه می گوید. فکر می‌کنم آسان است و می‌دانم چگونه کار می‌کند، اما قطعاً آنقدر سختگیر نیستم که بتوانم نمایشی ارائه دهم. کسی میتونه کمکم کنه؟ من آن را اعلام می‌کنم: اگر آمار آزمون دارای توزیع پیوسته باشد، در زیر H0: θ = θ0، p-value دارای توزیع یکنواخت[0، 1] است. بنابراین، اگر زمانی که مقدار p کمتر از α باشد، H0 را رد کنیم، احتمال خطای نوع I α است. * بنابراین، وقتی H0 درست است، مقدار p مانند یک قرعه کشی تصادفی از یک Uniform است[0, 1]. * از طرف دیگر، اگر H0 درست نباشد، توزیع مقدار p به 0 نزدیک‌تر خواهد شد. اما تست قدرت پایینی دارد * مقدار p را با P(H0 | داده) اشتباه نگیرید. مقدار p احتمال درستی فرضیه صفر نیست. خیلی ممنون!
این قضیه را در رابطه با تست های مشخصات ثابت کنید
46610
مزایای مشخص کردن ساختار کوواریانس در GLM (به جای صفر در نظر گرفتن تمام ورودی‌های خارج از مورب در ماتریس کوواریانس) چیست؟ جدا از انعکاس آنچه که فرد از داده ها می داند، آیا 1. تناسب را بهبود می بخشد؟ 2. بهبود دقت پیش بینی در داده های نگهداری شده؟ 3. به ما اجازه می دهد تا میزان کوواریانس را تخمین بزنیم؟ هزینه های تحمیل ساختار کوواریانس چیست؟ آیا 1. پیچیدگی های محاسباتی را برای الگوریتم های تخمین اضافه می کند؟ 2. افزایش تعداد پارامترهای برآورد شده، همچنین افزایش AIC، BIC، DIC؟ آیا می توان ساختار کوواریانس مناسب را به صورت تجربی تعیین کرد یا این چیزی است که به دانش شما از فرآیند تولید داده بستگی دارد؟ هر گونه هزینه / مزیتی که ذکر نکردم؟
تعیین ساختار کوواریانس: جوانب مثبت و منفی
94869
من سعی می کنم در مورد میانگین گیری مدل بیزی با استفاده از رگرسیون لجستیک بیزی بیاموزم (Genkin, A., Lewis, D. D., & Madigan, D. (2007). رگرسیون لجستیک بیزی در مقیاس بزرگ برای طبقه بندی متن. Technometrics, 49(3), 291 -304.)، همانطور که در ابزار داده کاوی Weka یافت می شود. من دو سوال دارم - 1. روش هایی که در آن مدل ها با استفاده از رگرسیون لجستیک بیزی تولید می شوند چیست؟ (آیا زیرمجموعه‌های متغیرهای پیش‌بینی‌کننده در یک زمان استفاده می‌شوند؟ آیا فراپارامترهای قبلی برای هر مدل تغییر می‌کنند؟) 2. احتمال بعدی مدل (وزن برای میانگین‌گیری مدل) چقدر است؟ آیا احتمال داده ها و پارامترهای رگرسیون لجستیک است؟ یا، آیا با روش های نظری اطلاعات مانند AIC/BIC محاسبه می شود (من با این ناآشنا هستم)؟ متشکرم.
احتمال عقبی داده های مدل مورد استفاده برای میانگین گیری مدل با رگرسیون لجستیک بیزی چقدر است؟
40354
من با مجموعه بزرگی از داده‌های شتاب‌سنج کار می‌کنم که با سنسورهای متعددی که توسط افراد زیادی استفاده می‌شود جمع‌آوری شده است. متأسفانه، به نظر می رسد که هیچ کس در اینجا مشخصات فنی دستگاه ها را نمی داند و فکر نمی کنم آنها تا به حال کالیبره شده باشند. من اطلاعات زیادی در مورد دستگاه ها ندارم. من دارم روی پایان نامه کارشناسی ارشدم کار می کنم، شتاب سنج ها از دانشگاه دیگری به امانت گرفته شده بود و در مجموع وضعیت کمی غیر شفاف بود. بنابراین، در حال پیش پردازش روی دستگاه؟ هیچ سرنخی. چیزی که من می دانم این است که آنها شتاب سنج های سه محوری با نرخ نمونه برداری 20 هرتز هستند. دیجیتال و احتمالا MEMS. من به رفتار غیرکلامی و ژست دادن علاقه دارم که طبق منابع من بیشتر باید فعالیتی در محدوده 0.3-3.5Hz ایجاد کند. ** عادی سازی ** داده ها کاملاً ضروری به نظر می رسد، اما مطمئن نیستم از چه چیزی استفاده کنم. بخش بسیار بزرگی از داده ها به مقادیر باقی مانده نزدیک است (مقادیر خام ~ 1000، از گرانش)، اما برخی افراط ها مانند تا 8000 در برخی از گزارش ها یا حتی 29000 در برخی دیگر وجود دارد. **تصویر زیر را ببینید**. من فکر می کنم این باعث می شود که تقسیم بر max یا stdev برای عادی سازی ایده بدی باشد. **رویکرد معمول در چنین موردی چیست؟** تقسیم بر میانه؟ یک مقدار صدک؟ چیز دیگری؟ به عنوان یک مسئله جانبی، من همچنین مطمئن نیستم که آیا باید مقادیر شدید را کلیپ کنم یا نه. **ویرایش**: در اینجا نموداری از حدود 16 دقیقه داده (20000 نمونه) آورده شده است تا به شما ایده ای درباره نحوه توزیع داده ها ارائه دهد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/nXQBU.png)
چگونه باید داده های حسگر شتاب سنج خود را عادی کنم؟
28004
من یک سری مُهر زمانی دارم و می‌خواهم بدانم حداکثر نرخ ساعتی رویدادی که این مهرهای زمانی نشان می‌دهند چقدر است. می توانید این را به هر واحدی تعمیم دهید. من به دنبال یک پنجره (فاصله) با اندازه معینی هستم که حاوی بیشتر این مقادیر باشد. رویکرد واضح این است که مجموعه را بر این بازه تقسیم کنیم و سپس مجموعه ای را انتخاب کنیم که بیشترین مقدار را دارد. با این حال، این نادقیق است، به خصوص اگر اوج نزدیک به محدوده فاصله باشد. آیا راه حل بهتری وجود دارد؟
چگونه یک نرخ اوج را در سری های زمانی پیدا می کنید؟
79916
من از طبقه بندی SVM (Matlab) در کارهای تحقیقاتی خود استفاده می کنم و می خواهم بدانم: 1. مزایا و معایب هر الگوریتم آموزشی، یعنی SMO، LS و QP. 2. به طور کلی، الگوریتم مناسب چیست؟ 3. اگر انتخاب یکی از آنها می تواند بر عملکرد طبقه بندی تأثیر بگذارد؟ 4. اگر بین انتخاب روش آموزشی (یا الگوریتم) و انتخاب تابع هسته رابطه وجود داشته باشد.
روش آموزش SVM (یا alg.)
23288
اخیراً دو AUC همبسته را با روش Delong مقایسه کرده ام. شخصی گفت که از آنجایی که CI همپوشانی دارد، نمی توانیم بگوییم که این دو مدل متفاوت بودند. من می دانم که روش دلونگ AUC را همبسته محاسبه کرده است، اما نمی دانم چگونه به صورت رسمی به سؤال او پاسخ دهم. کسی میتونه کمک کنه؟
فاصله اطمینان و اهمیت آماری در مقایسه AUC
28006
من مقالات ویکی‌پدیا را در مورد آزمایش‌های آماری مختلف می‌خواندم و سعی می‌کردم برنامه‌هایی را که آن‌ها را انجام می‌دهند کدنویسی کنم. با این حال، مقاله در مورد آزمون Kolmogorov-Smirnov برای من مبهم است. آیا کسی می تواند به زبان ساده توضیح دهد که چگونه می توانم برنامه ای بنویسم که لیستی از اعداد واقعی و CDF را می گیرد و مقدار p-value را برای میزان تطابق آنها محاسبه می کند؟
چگونه برنامه ای بنویسیم که یک بردار و یک CDF بگیرد و تست کولموگروف اسمیرنوف را انجام دهد؟
84201
بگویید که در حال شمارش کوسه‌ها و نهنگ‌ها در اقیانوس‌های اطلس و هند هستید و می‌خواهید بررسی کنید که آیا به عنوان مثال، کوسه‌ها اقیانوس اطلس و نهنگ‌ها اقیانوس هند را ترجیح می‌دهند، همانطور که در مثال اینجا توضیح داده شد. اما به جای شمارش کل (مثلاً کوسه‌هایی که در اقیانوس اطلس مشاهده شده‌اند)، شمارش را برای روزهای جداگانه نگه می‌دارید. به عنوان مثال: +--------+------------------------------------ --------+---------+---------+ | | Atlantic1 | آتلانتیک2 | Atlantic3 | هندی1 | هندی2 | هندی3 | +------------------------------------------------- -----+---------+---------+ | نهنگ | 9 | 3 | 11 | 4 | 5 | 6 | | کوسه ها | 2 | 5 | 1 | 10 | 5 | 8 | +------------------------------------------------- -----+---------+---------+شما می توانید وسیله ای را برای تهیه یک جدول احتمالی 2*2 بگیرید و مانند پیوند آزمایش دقیق فیشر ادامه دهید در بالا، اما آیا اطلاعات ارزشمند را حذف نمی کنید در مورد واریانس؟ آیا راهی برای آزمایش ارتباط با استفاده از تمام اطلاعات جدول بالا وجود دارد؟ با تشکر
آزمایش ارتباط بین دو متغیر طبقه‌بندی، با آزمایش‌های مکرر
44188
آیا کسی می تواند به من اشاره کند، چه کتاب یا مقاله، جایی که بتوانم تعریف دقیق برآوردگر پراکنده را پیدا کنم؟ با تشکر
برآوردگر پراکنده چیست؟
44189
در آزمایشم متوسط ​​تأخیر عملیات در ثانیه را محاسبه می کنم. من می خواهم N را تعریف کنم، به عنوان مثال: چند بار باید آزمایش خود را اجرا کنم تا یک تاخیر متوسط ​​نزدیک به واقعی را محاسبه کنم؟ من فکر کردم که می توانم CLT را در اینجا اعمال کنم، زیرا اگر همان آزمایش را 1000 بار تکرار کنم و یک هیستوگرام رسم کنم، منحنی توزیع نرمال را دریافت می کنم. آیا قضیه مرکزی در مورد من مفید است؟ در تعاریفی که پیدا کردم، برای اینکه بتوان میانگین تخمینی را با یک خطای خاص محاسبه کرد، باید واریانس را از قبل بدانیم، و من آن را نمی دانم.
قضیه حد مرکزی با واریانس مجهول
114347
اگر من تابع همبستگی خودکار خروجی یک سیستم مشاهده شده را داشته باشم، اگر اطلاعاتی در مورد ورودی نداشته باشم، چه ارتباطی با تابع واکنش-پاسخ آن سیستم دارد؟
تابع تکانه-پاسخ یک سیستم معین چگونه با تابع همبستگی خود ارتباط دارد؟
84204
من روی یک تکلیف رگرسیون با استفاده از SPSS کار می کنم. من نمرات خام، متمرکز و z برای داده ها دارم. من قبلاً DV و IV را پسرفت کرده‌ام و ضرایب غیر استاندارد و استاندارد را در زیر جعبه خروجی ضرایب می‌بینم. معادله رگرسیون استاندارد من این است: Y'=1727.528X+-6290.967 و معادله رگرسیون غیراستاندارد این است: Y'=.633x چگونه معادله رگرسیون استاندارد و غیر استاندارد را برای هر نمره بنویسم؟ آیا باید کادرهای استاندارد و غیراستاندارد زیر منوی رگرسیون خطی> ذخیره..._را برای هر IV بررسی کنم؟
اجرای معادله رگرسیون استاندارد/غیراستاندارد در SPSS
114343
من دو نمونه با مقدار میانگین $\mu $ و انحراف استاندارد $\sigma $ (توزیع نرمال) دارم. آیا می توانم از آزمون Z برای مقایسه آنها استفاده کنم؟ همچنین اگر من حجم نمونه را نمی دانم؟ اگر پنج نمونه برای مقایسه داشته باشم .. چه کار کنم؟ یک آزمون z برای هر مقایسه:\ یا یک آزمون ANOVA (مثل آزمون t)؟
تست Z می تواند انتخاب خوبی باشد؟ و z-test برای چند نمونه؟
77340
من می‌خواهم d کوهن را برای مقایسه‌های زوجی در ANCOVA یک طرفه (4 گروه) محاسبه کنم. من این را در شبکه پیدا کردم: d-FAMILY MEASURE یک معیار رایج d-family (شاخص اندازه اثر) d کوهن است. مانند روش Oneway ANOVA، اندازه اثر شامل تفاوت میانگین بین کنتراست ها (جفت ها) تقسیم بر متغیر (مخرج) میانگین یا ادغام شده است. ما می‌توانیم میانگین تنوع را با گرفتن جذر خطای MS از تحلیل کوواریانس تخمین بزنیم، که تفاوت میانگین را در متریک امتیازهای تعدیل شده استاندارد می‌کند. به این ترتیب، می‌توانیم d کوهن را با فرمول زیر تخمین بزنیم: d = اختلاف 2 میانگین تعدیل‌شده/ریشه مربع خطای MS. آیا این درست است؟
کوهن d در یک طرفه ANCOVA
111648
من متوجه شدم که یک MA 3x5 (میانگین متحرک) معادل MA 7 ترم است. با این حال، با اعمال همان روی یک سری زمانی مانند زیر، مقادیر دقیق سری زمانی نهایی (در این مورد یک مقدار) را بدست نیاوردم، بلکه تقریباً نزدیک به آن هستم. باعث شد به این فکر کنم که آیا این کار را به درستی انجام داده ام. سری هایی که من در نظر گرفتم این بود: 0.067، 0.133، 0.2، 0.2، 0.2، 0.133، 0.067 آیا کسی می تواند مشخص کند که این دو دقیقا چگونه محاسبه می شوند. رویکرد من: 7-MA: آنها را جمع کنید و بر 7 = 0.1423 تقسیم کنید. 3x5 MA: a. 5-MA را با 0.16، 0.1732، 0.16 b دریافت کنید. 3-MA بالا را به صورت زیر دریافت کنید: 0.1644 (!= 0.1423) آیا آن را به درستی انجام می دهم؟
سردرگمی متوسط ​​متحرک
103584
من یک سوال خیلی ساده دارم. من در حال انجام یک تحلیل فرکانس ساده هستم که در آن به دو سند نگاه می کنم و فراوانی کلمات استفاده شده برتر در هر سند را با هم مقایسه می کنم. من می خواهم مقایسه ای بین دو سند در R انجام دهم، اما مشکل این است که یک سند 10 برابر بیشتر از سند دیگر دارد. بهترین راه برای عادی سازی چیست به طوری که من دو نمودار میله فرکانس در کنار هم داشته باشم که به من امکان می دهد رایج ترین اصطلاحات را با هم مقایسه کنم. امیدوارم منطقی باشد. نیازی به ارائه کد نیست من می‌توانم کدی را که فقط می‌خواهم بدانم چگونه نمودارهای میله‌ای را ارائه کنم، پیدا کنم. داشتم فکر می کردم (تعداد کلمه x)/(تعداد کل کلمات در سند y). با تشکر
من یک سوال فرکانس متن کاوی آسان دارم
40352
این اولین بار است که یک سوال تکلیف واقعی را پست می کنم. معمولا منابع محلی بیشتری مانند ساعات اداری و همتایان دانشجویی دارم، اما این بار در این موارد کمی کوتاهم. من همچنین نیاز به استراحت دارم، اما نمی توانم، بنابراین چرخ هایم را خیلی بیشتر از حد معمول می چرخانم. من یک مدل سلسله مراتبی از دوجمله‌های مختلف $m$ با اندازه‌های نمونه متفاوت $m$ دارم که پارامترهای $m$ مختلف $p$ آن توسط توزیع بتا جمعیت کنترل می‌شوند. البته توزیع بتا یک پیشینی نیز دارد. من آنچه را که فکر می‌کنم توزیع مشترک خلفی صحیح برای این مدل است ساختم: $$P(p_1, p_2,\dots,p_{m}, \alpha,\beta|\mathbf X)\propto \pi(\alpha, \ بتا)\prod_{i=1}^{m} P(p_i|\alpha، \beta)P(x_i|p_i)$$ $$\propto\pi(\alpha، \beta) \prod_{i=1}^{m}p_i^{x_i+\alpha-1}(1-p_i)^{n_i-x_i+\beta-1} $$ مشکلی که من با آن روبرو هستم این است که اگر بخواهم $$P(\alpha,\beta|\mathbf X)$$ را محاسبه کنم، به نظر می رسد، چون m پارامتر برای حذف دارم، به دنبال آن هستم. در m انتگرال (انتگرال چون بتا پیوسته است). این احتمالاً نمی تواند کاری باشد که از من انتظار می رود مگر اینکه یکی از موارد زیر درست باشد: 1. من قسمت خلفی مفصل را اشتباه گرفتم 2. باید این کار را با نمونه برداری انجام دهم. 3. ترفند ساده تری برای محاسبه ریاضی خلفی حاشیه ای وجود دارد. در این مورد 4. من تصور اشتباهی در مورد اینکه پارامترهای m به حاشیه رانده شده از توزیع جمعیت چقدر است (مثلاً ما فقط یک بار ادغام می کنیم زیرا همه آنها از همان توزیع من نمی توانم ببینم که در آن مورد از پارامترهای p استفاده کنم)
محاسبه یک پسین حاشیه ای یک مدل سلسله مراتبی
114349
من در درک اثبات لئو بریمن مبنی بر اینکه خطای تعمیم یک جنگل تصادفی با افزایش تعداد درختان همگرا می شود، مشکل دارم (اینجا پیوندی به مقاله است). در ضمیمه I بیان می کند که: > **اثبات قضیه 1.2**: برای نشان دادن اینکه مجموعه ای از > احتمال صفر C در فضای دنباله $ \Theta_1, \Theta_2, ... $ چنین > که در خارج وجود دارد کافی است از C، برای همه x، $$ \frac{1}{N}\sum_{n=1}^{N}I(h(\Theta_n,x)=j) > \rightarrow P_\Theta(h(\Theta,x)=j) $$ من نمی‌توانم موارد زیر را درک کنم: 1. فضای توالی $ \Theta $s یک فضای دنباله‌ای است که در ویکی‌پدیا تعریف شده است؟ آیا عناصر فضای دنباله ای بی نهایت دنباله های اعداد حقیقی هستند یا مختلط؟ 2. مجموعه احتمال صفر C در فضای دنباله ... به چه معناست؟ آیا راه دیگری برای توصیف C وجود دارد؟ از هرگونه کمک یا توضیحی، جزئی یا غیر آن، بسیار استقبال می شود. با تشکر
جنگل تصادفی - اثبات همگرایی
28003
من تازه وارد مدل سازی ARIMA هستم. من اکثر مفاهیم اولیه را درک می کنم و موضوعات زیادی در مورد ARIMA در این سایت خوانده ام. در حال حاضر من با تجزیه و تحلیل نمودارهای ACF و PACF، بررسی فصلی بودن و ایجاد مدل از داده های خود بسیار راحت هستم. گام بعدی می‌خواهم با مقادیر پرت و پالس‌های دوره‌ای در داده‌هایم سر و کار داشته باشم. بنابراین، چگونه با استفاده از R این کار را انجام دهم؟ آیا باید چند متغیر ساختگی و پالس های متناوب کد را با مثلاً 1، سایر نقاط پرت با 2 و هر چیز دیگری با 0 ایجاد کنم و سپس این متغیر را به گزینه xreg در دستور arima ارسال کنم؟ من همچنین می ترسم با عدم درک درست اصطلاحات، مسائل را به هم بزنم. صحبت‌های زیادی در مورد پالس‌ها، تغییر سطح، پالس‌های فصلی، تغییر زمان محلی و غیره وجود دارد.
چگونه پالس ها / تغییر سطح در داده ها را هنگام ایجاد ARIMA در R مشخص کنیم؟
81246
من سعی کرده ام با استفاده از `lmer` یک مدل اندازه گیری های مکرر را در R قرار دهم اما یک پیام خطا دریافت می کنم. من در گذشته از SAS استفاده کرده‌ام و توانستم یک مدل تا حدودی مشابه را جا بزنم، اما به نظر نمی‌رسد که بتوانم آن را در R انجام دهم. این کد SAS است: proc glimmix data=dat; اندازه کلاس موضوع موقعیت روز; مدل y = اندازه اندازه روز * اندازه موقعیت روز * موقعیت / ddfm = kr; روز تصادفی /subject=subject(size) type=ar(1) residual; lsmeans size| موقعیت روز ; کد R به شرح زیر است: m1 = lmer(y ~ 1 + Size + Position + Size*Day + Position + (1 + Day|ID)، داده = dat، REML = F) و اینها پیام های خطایی هستند که دریافت می کنم: پیام های هشدار: 1: در checkZrank (reTrms$Zt، n = n، کنترل، nonSmall = 1e+06) : تعداد مشاهدات <= رتبه (Z); ماتریس واریانس کوواریانس غیرقابل شناسایی خواهد بود 2: در (تابع (fn, par, low = rep.int(-Inf, n), upper = rep.int(Inf, : عدم همگرایی در 10000 ارزیابی داده ها شامل 242 مشاهده است از 22 فرد در یک دوره 11 روزه گرفته شده است، به علاوه برخی از متغیرهای دیگر نیز مشاهده شد (یعنی موقعیت). اندازه، روز، موضوع و موقعیت فاکتورهایی هستند و y پاسخ مشاهده شده ساختار داده است (اگر کمک کند می توانم کل 242 مشاهده را ارائه دهم): > dput(head(dat, 4)) structure(list(y = c(7.12820702168194, 7.70152948380659، 6.42263644198494، 6.9249926063685)، روز = ساختار (1:4، .Label = c(1، 2، 3، 4، 5، 6، 7، 8، 9، 10، 11)، کلاس = عامل)، اندازه = c(1، 1، 1، 1)، موضوع = ساختار(c(1L، 1L، 1L، 1L)، .Label = c(101X، 104X، 111X، 112X, 118X، 119X، 126X, 139X، «26X»، «41X»، «44X»، «45X»، «46X»، «48X»، «55X»، «63X»، 67X، 68X، 79X، 84X، 87X، 92X)، کلاس = ضریب)، موقعیت = c(1، 1، 1، 2))، .Names = c (y، Day، Size، Subject، Position)، row.names = c(NA, 4L)، class = data.frame) از هر کمکی در این مورد سپاسگزارم موضوع با احترام
نمی توان اندازه گیری های مکرر را در R جا داد
8590
من از علوم اجتماعی آمده‌ام، جایی که p <0.05 تقریباً هنجار است، با p <0.1 و p <0.01 نیز نشان داده می‌شود، اما می‌پرسیدم: در کدام رشته‌های تحصیلی، در صورت وجود، از مقادیر p پایین‌تر به عنوان رایج استفاده می‌شود. استاندارد؟
نمونه هایی از مطالعات با استفاده از p <0.001، p <0.0001 یا حتی مقادیر p کمتر؟
94863
من یک سوال در مورد یک مدل پیچیده ترک برای یک سری زمانی دارم. فرض کنید $ \{X_t:0\le t\le T\}$ یک سری زمانی است. نمودار تابع خودهمبستگی و تابع همبستگی جزئی و مدل ARMA را پیشنهاد می کند. با این حال، من همچنین می خواهم نوسانات را مدل کنم، بنابراین از یک مدل ARMA(p,q)-GARCH(1,1) استفاده می کنم. این یعنی $$ X_t=\mu_t+\sigma_t Z_t$$ $$\mu_t=\mu +\sum_{i=1}^p\phi_i(X_{t-i}-\mu)+\sum_{j=1}^ q\theta_j(X_{t_j}-\mu_{t-j}) $$ $$ \sigma_t^2=\omega+\alpha_1(X_{t-1}-\mu_{t-1})^2+\beta_1\sigma_{t-1}^2$$ سپس $\mu_t$ انتظار شرطی را مدل می‌کند و $\sigma_tZ_t$ واریانس شرطی، که $\{Z_t\}$ یک نویز سفید سخت است. در `R` می توانیم از دستور <- garchFit(formula=~arma(p,q)+garch(1,1),cond.dist=std,trace=F) استفاده کنیم که در آن باید $p را مشخص کنیم. q$ و ما تصمیم گرفتیم فرض کنیم نویز سفید دارای توزیع $t$ دانشجویی است. با استفاده از تابع داخلی «پیش‌بینی»، می‌توانیم پیش‌بینی روز بعد را دریافت کنیم: پیش‌بینی (model,n=1) اما مقدار بازگشتی «پیش‌بینی» چقدر است؟ آیا $\sigma_{t+1}^2$، $\mu_{t+1}$ یا $X_{t+1}$ را پیش‌بینی می‌کند و چگونه می‌توانم دو پیش‌بینی دیگر را در «R» دریافت کنم؟
مقدار بازگشتی پیش بینی در بسته fGarch چقدر است
94865
من مدل AR(p) را درک می‌کنم: ورودی آن سری زمانی است که مدل‌سازی می‌شود. من وقتی در مورد مدل MA(q) می خوانم کاملاً گیر کرده ام: ورودی آن همان طور که اغلب فرموله می شود _نوآوری_ یا _ شوک تصادفی_ است. مشکل این است که نمی‌توانم تصور کنم چگونه می‌توان یک مؤلفه _innovation_ را که از قبل مدلی از سری زمانی (عالی) نداشته باشد (یعنی فکر می‌کنم $\varepsilon=X_{\rm مشاهده شده}-X_{\rm کامل}$) به دست آورد، و این احتمالا اشتباه است). علاوه بر این، اگر بتوانیم این مؤلفه نوآوری را به صورت نمونه دریافت کنیم، چگونه می‌توانیم آن را هنگام انجام یک پیش‌بینی بلندمدت (اصطلاح خطای مدل به‌عنوان جزء مجزای سری زمانی افزایشی) دریافت کنیم؟
ورودی مدل MA(q) در دنیای واقعی چیست؟
111641
من در حال انجام تجزیه و تحلیل داده ها هستم. من یک پانل با شرکت های فردی با متغیرهای خاص شرکت و اقتصاد کلان دارم. من می خواهم یک رگرسیون OLS تنظیم شده برای اثرات خوشه بندی شرکت و محاسبه اثر زمانی اجرا کنم (من 449 شرکت و 36 دوره زمانی دارم، پانل نامتعادل). متغیر جذب شده توسط آدمک‌ها، به عبارت دیگر: آیا شامل کردن زمان‌ها منجر به چند خطی شدن بین زمان‌ها و آدمک‌ها می‌شود. متغیرهای کلان اقتصادی؟ من متعجبم زیرا مطالعات مختلف از این رویکرد استفاده می‌کنند، اگرچه به نظر من منطقی‌تر به نظر می‌رسد که متغیرهای کلان اقتصادی را با احتساب زمان‌ها حذف کنند. آیا من در اینجا چیزی مهم را در نظر نگرفتم؟
ساختگی‌های زمان در داده‌های پانل - اثرات جذب؟
3704
من این سوال را قبلاً ارسال کردم و به امید دریافت راهنمایی آن را بازنویسی می کنم. من از یک رگرسیون وزنی (پس از تطبیق امتیاز تمایل) برای به دست آوردن برآوردهایی از اثرات یک درمان (درمان) بر یک نتیجه برای پنجک های مختلف درآمد استفاده می کنم. من فعل و انفعالات پنجک ها و درمان را در معادله گنجانده ام، همانطور که در زیر نشان داده شده است: نتیجه رگرسیون درمان quintile2 quin3 quin4 quin5 treatXquin2 treatXquin3 treatXquin4 treatXquin5 برای به دست آوردن اثر درمان بر پنجک2، ضریب روی درمان را با ضریب درمانXquin2 اضافه می کنم. با این حال، با خطاهای استاندارد چه کنم؟ آیا می توانم به سادگی خطاهای استاندارد دو ضریب را با هم اضافه کنم؟ آیا می توانم t-stats را با هم اضافه کنم؟ هر توصیه ای بسیار قدردانی خواهد شد. من یک متخصص آمار نیستم اما درک اولیه ای از اقتصاد سنجی دارم.
اضافه کردن ضرایب برای به دست آوردن اثرات متقابل - آیا می توانم خطاهای استاندارد را اضافه کنم؟
17669
من دو مجموعه از مشاهدات دارم که با مجموعه کمیت های مشابه مطابقت دارند. اولین مجموعه مشاهدات با یک نوع حسگر و مجموعه دیگر مشاهدات با نوع حسگر متفاوت گرفته شد. بر اساس مشاهدات و مقادیر مربوط به آنها، چگونه می توانم تشخیص دهم که کدام نوع سنسور آموزنده تر است؟
تعیین نوع سنسور آموزنده تر است
89515
فرض کنید یک مدل رگرسیون خطی با متغیر نتیجه $Y$ و متغیرهای توضیحی $X_{1}، \dots، X_{10}$ دارید. فرض کنید $X_1$ اثر اصلی باشد. همچنین فرض کنید $X_{2}، \dots، X_{10}$ با نتیجه و متغیر توضیحی بر اساس تخصص موضوع مرتبط هستند. آیا باید همه متغیرهای $X_{2}، \dots، X_{10}$ را در مدل تنظیم شده بگنجانید؟
تنظیم برای متغیرهای بیش از حد
111643
من و یکی از همکاران با تفاوت GMM، یعنی برآوردگر Arellano-Bond، در R کار می‌کنیم. گزینه ما استفاده از دستور pgmm از بسته plm بوده است. با این حال، اکنون در تلاش هستم تا تناسب مدل های خود را آزمایش کنم، زیرا بسته plm خود چنین عملکردی را به همراه ندارد. آیا راه خوبی برای تست تناسب مدل یک مدل تفاوت-GMM وجود دارد؟ البته، یک رویکرد آزمایش مربع همبستگی بین Y و Yhat است، همانطور که در بلوم، باند و همکارانش. (2001). با این حال، دستور pgmm پیش‌بینی‌ها را نمی‌دهد، فقط مقادیر برازش را ارائه می‌کند. آیا کسی می تواند در این مورد راهنمایی کند؟
معیارهای تناسب برای برآوردگر GMM Arellano-Bond در R
110110
من این احتمال را دارم که می خواهم پارامترهای رایگان آن را تخمین بزنم و از MCMC برای تخمین پارامترها استفاده می کنم. دو تا از پارامترهای آزاد موقعیت هستند و من پیشینهای یکنواخت را تعریف کردم و یکی دارای نمایی و دیگری دارای پیشین لگ نرمال است. من یک کد MCMC با **pymc** نوشته‌ام و از «AdaptiveMetropolis» به‌عنوان نمونه‌گر گروه استفاده کرده‌ام و کد MCMC خود را روی داده‌های شبیه‌سازی شده اجرا می‌کنم که پاسخ نهایی را می‌دانم. من از تست Raftery-Lewis در pymc استفاده کردم تا ببینم چند زنجیره باید اجرا کنم تا به همگرایی برسم و بر اساس آن تعداد مراحل را انتخاب کردم. اما بعد از اجرا با مراحل تخمین زده شده، به نتایج ورودی نرسیدم. حدس من این است که از آنجایی که پارامترهای من با هم مرتبط هستند، همگرا نشده است. **سوال من** این است که بهترین روش گام برای فضای پارامترهای همبسته چیست؟ چگونه می‌توانم تست کنم که کدام یک از نمونه‌برداران برای کیس من بهترین کار را دارد؟
بهترین نمونه‌برگر گروهی برای فضای پارامترهای بسیار همبسته چیست؟
104733
من یک بردار داده با خطاهای استاندارد آنها دارم: برآورد <- c(0.254719513441046، 0.130492717014416، 0.0386710035855823، 0.141185623251046، 0.1411856232510405 0.60363287936294، 0.173485345603584، 0.425817607348994، 0.128802795868366، 0.104136474748466، 0.104136474748466، 0.104136474748466، 0.104136474748465، 0.104136474748465 . 0.0585237357996271، 0.16702614577514، 0.124308993809982) من باید یک فاصله پیش‌بینی برای عناصر جدیدی که از همان جمعیت اصلی گرفته می‌شوند تشکیل دهم. ابتدا فکر کردم یک رگرسیون خطی برای تخمین میانگین و خطا روی میانگین انجام دهم: summary(lm(Estimate ~ 1, weights = 1/SE^2)) Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.28014 0.04996 5.607 0.000331 *** اما وقتی ساده‌لوحانه سعی می‌کنم «predict()» را فراخوانی کنم، این چیزی است که دریافت می‌کنم: predict(lm(تخمین ~ 1، وزن = 1/ SE^2)، newdata = data.frame (x = 0)، فاصله = پیش‌بینی) fit lwr upr 1 0.2801405 -2.860802 3.421083 پیام هشدار: در predict.lm(lm(Estimate ~ 1, weights = 1/SE^2), newdata = data.frame(x = 0), : با فرض پیش‌بینی ثابت واریانس با وجود اینکه تناسب مدل وزن دارد آیا این کار را درست انجام دادم؟ فاصله اطمینان 95% واقعا [-2.86 3.42] آیا باید نگران هشدار باشم؟
چگونه یک فاصله پیش بینی را از یک نمونه وزنی تخمین بزنم؟
110113
21 بار زدن یک سکه منصفانه. احتمال بدست آوردن 8 هد به هر ترتیبی $$p = \frac{21!}{8!(21-8)!}0.5^8(1-0.5)^{21-8} = 0.097$$ است که من دریافت می کنم که فرمول Binomial توالی‌های مختلفی را در نظر می‌گیرد که در آن هدها می‌توانند در طول 21 تلنگر رخ دهند. اما در هر صورت، حداقل انتظار داشتم که فرمول Binomial مقداری نزدیکتر به $0.5$ بدهد. سوال این است: پس من با 8/21 دلار = 0.38 دلار چه چیزی را محاسبه می کنم؟
چرا p برای 8 بار هد از 21 تلنگر 8/21 نیست؟
114346
آیا می توانیم چندین منحنی مرتبه دوم را به مجموعه ای از نقاط در $R^2$ برسانیم؟ فرض کنید ما مجموعه ای از نقاط را در فضای ذکر شده در بالا داریم. من می دانم که حداکثر می تواند 10 منحنی وجود داشته باشد که می تواند در آن فضا مناسب باشد. من می خواهم با استفاده از تعداد دلخواه منحنی بهترین تناسب ممکن را با آن نقاط داشته باشم.
برازش چندین منحنی به طور همزمان به مجموعه نقاط
111649
من با ایجاد مجموعه داده برای یک مدل پیش بینی کشف تقلب کمی گیج شده ام. در اینجا من یک لینک با یک نمونه از مجموعه داده ای که ساخته ام قرار داده ام. (مجموعه داده واقعی 950000 مشتری دارد). https://www.dropbox.com/s/r2r0f8s7nqvi59d/sample.csv من در حال توسعه یک رگرسیون لجستیک هستم و متغیر وابسته تقلب است. بنابراین من با مجموعه داده مشکل دارم زیرا نمی دانم چگونه این کار را ترتیب دهم، زیرا برای هر مشتری 67 ماه مصرف دارم. و من فکر می کنم که راه درست برای تنظیم مجموعه داده چیزی شبیه به این است. https://www.dropbox.com/s/ejj7v405xj0s9m7/Arrange.PNG در دیتاست واقعی در 1 ردیف شناسه (شماره منحصر به فرد) و 67 ماه با مصرف را قرار دادم، پس در تصویری که پیوست کردم (یعنی راهی که فکر می کنم می تواند بهترین باشد) برای هر مشتری 67 ردیف وجود دارد، این بدان معناست که در ردیف 1 من ژانویه.08، در ردیف 2 قرار دارد. من فوریه.08 و غیره دارم. بنابراین برای هر مشتری من 67 ردیف خواهم داشت و کل مجموعه داده 67 (ماه) * 950.000 (مشتری) خواهد بود. برای هر کمکی بسیار ممنونم با احترام. کریستین والنسولا
چگونه می توانم یک مجموعه داده تشخیص تقلب ایجاد کنم (من داده ها را آماده اما نامرتب دارم)
48983
من در حال نوشتن یک ابزار آماری در جاوا هستم. در اینجا من مقادیر همبستگی پیرسون (r) را محاسبه می کنم. قدم بعدی من این است که تأیید کنم آیا مقادیر همبستگی من به اندازه کافی خوب است تا ثابت کنم که متغیرهای my to همبستگی دارند یا خیر. بنابراین من دو رویکرد در ذهن دارم: الف) از آنجایی که اندازه نمونه = n و همبستگی = r قبلا محاسبه شده است، می توانم از این مقادیر برای محاسبه p-value استفاده کنم و اگر p<alpha (سطح معنی داری) اعتبار سنجی کنم. ) اما برای این رویکرد، من فرمول محاسبه p-value را از دست داده‌ام. ب) از آنجایی که قصد دارم از یک آلفای ثابت استفاده کنم، به این فکر می‌کردم که حداقل r_min را برای داده شده از قبل محاسبه کنم. n (به عنوان مثال n=1 -> n=10000) و سپس r محاسبه شده را در مقابل r_min از پیش محاسبه شده بررسی کنید. کسی راه حل خوبی برای این مشکل میدونه؟ من قبلاً این را پیدا کرده‌ام، اما تا آنجا که من می‌بینم، کتابخانه باید r را مجدداً محاسبه کند تا عملکرد را کاهش دهد.
p-value برای آزمون فرضیه با همبستگی داده شده، حجم نمونه
111640
بنابراین من یک مجموعه داده دارم که از آن برای آموزش دسته ای از طبقه بندی کننده ها استفاده خواهم کرد. من باید این کار را برای پایان نامه خود انجام دهم. با این حال من مطمئن نیستم که کدام آمار برای درک بهتر مجموعه داده ها و ویژگی ها مناسب است. من در اینجا آماری را که بر روی مجموعه داده محاسبه می کنم ذکر می کنم، اما اگر شما موارد بهتری را می دانید یا چیزی را فراموش کرده ام، یا اگر چیز جالبی برای استفاده وجود دارد، **لطفا** به من بگویید! واقعاً خوب است که در پایان نامه حضور داشته باشید ;). لازم به ذکر است که مقادیر تمام ویژگی ها بین 0-1.0 است. بنابراین کاری که من انجام می دهم این است: 1- نمودار کوواریانس برای ویژگی ها. 2- ماتریس Scatterplot برای ویژگی ها. 3- همبستگی پیرسون بین ویژگی ها. من یک سوال اضافی دارم لطفا من فکر می کنم به دست آوردن اطلاعات بر روی ویژگی محاسبه می شود. اما آیا محاسبه و گزارش سود اطلاعات برای _all_ ویژگی ها فقط در سطح ریشه منطقی است؟ یا بهتر است فقط به دست آوردن اطلاعات در گره های تقسیم شده گزارش شود؟ فکر می کنم دومی منطقی تر است، درست است؟
از کدام آمار برای درک یک مجموعه داده استفاده کنیم؟
8598
من برای دوره ای که در حال ممیزی آن هستم روی مسئله ای به شرح زیر کار می کنم: > فرض کنید یک بازه t متقارن 95% برای تخمین میانگین اعمال می شود، اما داده های نمونه غیر عادی هستند. سپس احتمال اینکه بازه اطمینان > میانگین را پوشش دهد لزوماً برابر با 0.95 نیست. از آزمایش مونت کارلو > برای تخمین احتمال پوشش بازه t برای نمونه‌های تصادفی داده‌های $\chi^2(2)$ با اندازه نمونه $n = 20$ استفاده کنید. در اینجا وضعیت فعلی کد R من است: alpha = 0.05; n = 20; متر = 1000; UCL = عددی (m)؛ LCL = عددی (m)؛ for(i در 1:m) { x = rchisq(n, 2); LCL[i] = mean(x) - qt(alpha / 2, low.tail = FALSE) * sd(x); UCL[i] = mean(x) + qt(alpha / 2, low.tail = FALSE) * sd(x); } # این خط زیر اشتباه است... mean(LCL > 0 & UCL < 0); مشکل این است که نتیجه 0 دلار است. آیا من به این سوال نادرست برخورد می کنم؟ احتمال پوشش دقیقا به چه معناست...؟ ممنونم :)
آزمایش مونت کارلو برای تخمین احتمال پوشش
322
من به دنبال کتاب یا منبع آنلاینی هستم که انواع مختلف آنتروپی مانند آنتروپی نمونه و آنتروپی شانون و مزایا و معایب آنها را توضیح دهد. آیا کسی می تواند من را در مسیر درست راهنمایی کند؟
معرفی خوبی به انواع مختلف آنتروپی
48985
آیا هیچ فرمول بسته ای برای رگرسیون چندک تنها با یک پیش بینی وجود دارد؟ **انگیزه** باید رگرسیون میانه SQL را با یک پیش بینی پیاده سازی کنم. پیاده‌سازی OLS با یک پیش‌بین بسیار آسان است، زیرا فرمول ساده‌ای برای ضرایب وجود دارد، اما من نمی‌دانم چگونه فرمولی برای رگرسیون چندک وجود دارد یا خیر.
رگرسیون چندکی با یک پیش بینی کننده
89512
فرض کنید در ابتدا دو متغیر $a_{1}$ و $a_{2}$ از یک نوع دارم، سپس ماتریس واریانس کوواریانس را به صورت زیر تعریف می‌کنم: $\sum = \begin{bmatrix} \sigma^ {2}_{a_{1}} و \sigma_{a_{1},a_{2}} \\ \sigma_{a_{2},a_{1}} & \sigma^{2}_{a_{2}} \end{bmatrix}$، که در آن قطرها نشان دهنده واریانس ها و قطرهای خارج به عنوان کوواریانس هستند. می دانم که می توان ناحیه اطمینان را با یک بیضی خطا تجسم کرد که پارامترهای آن به صورت زیر تعریف می شوند: * مرکز بیضی میانگین (یا مقدار مورد انتظار) دو متغیر است، * جهت گیری به صورت $\alpha = محاسبه می شود. \frac{1}{2}\tan^{-1}(\frac{2\sigma_{{a_{1}},a_{2}}}{\sigma^{2}_{a_{1}} -\sigma^{2}_{a_{2}}})$ * طول محورها به عنوان جذر مقادیر ویژه ماتریس کوواریانس محاسبه می شود. * و غیره. حالا اگر اجازه بگویم، متغیرهای $n$، به این ترتیب ماتریکس واریانس کوواریانس با اندازه $n\times n$ را خواهم داشت: $\sum = \begin{bmatrix} \sigma^{2} _{a_{1}} & \sigma_{a_{1},a_{2}} &\dots & \sigma_{a_{1},a_{n}}\\ \sigma_{a_{2},a_{1}} & \sigma^{2}_{a_{2}} & \dots & \sigma_{a_ {2},a_{n}} \\ \vdots & \vdots & \ddots & \vdots\\ \sigma_{a_{n},a_{1}} & \sigma_{a_{n},a_{2}} & \dots & \sigma^{2}_{a_{n}} \end{bmatrix}$ ، ناحیه اطمینان یک ابر بیضی (با بعد $n$) خواهد بود که تجسم آن ممکن نیست. سوال من: آیا راه دیگری برای تجسم یا نقشه برداری این منطقه به صورت دو بعدی وجود دارد؟
جایگزینی برای تجسم هایپر بیضی تعریف شده توسط ماتریس واریانس-کوواریانس
48980
اگر یک طبقه‌بندی‌کننده GNB/LDA/kNN/دیگر را آموزش دهم، می‌خواهم بدانم، در مدل ساخته‌شده، ویژگی‌ها برای طبقه‌بندی چقدر مهم هستند یا کدام ویژگی (ها) طبقه‌بندی کننده را هدایت می‌کند. به عنوان مثال در مدل‌های SVM، گاهی اوقات اهمیت ویژگی با توجه به بزرگی وزن‌ها ارزیابی می‌شود، اما برای مدل‌های غیرخطی و مولد استخراج وزن‌ها دشوارتر است. آیا کتاب/مقاله ای می شناسید که بتواند برای حل سوال من مفید باشد؟
اهمیت ویژگی طبقه بندی کننده
110115
**pr** = خوانندگان RFID فیزیکی که در خط تولید در کارخانه مستقر هستند. **p(pr)** = احتمال خواننده RFID فیزیکی. **o** = قطعه محصول در حال حرکت روی خط تولید در کارخانه. **O** = {o1, o2, o3 ... on} مجموعه ای از قطعات محصول است که روی خط تولید در کارخانه حرکت می کند. **re** یک رویداد خوانده شده است و به صورت re = (o, pr, t) تعریف می شود. که در آن o شی شناسایی/خوانده شده توسط خواننده فیزیکی pr در زمان t است. **p(re)** = احتمال رویداد خوانده شده، در سناریوی ما p(re) برابر است با احتمال RFID خوان فیزیکی که رویداد خوانده شده را راه اندازی کرده است، یعنی p(re) = p(pr) **محصول حرکت و توالی قطعات:** قطعات محصول در کارخانه به ترتیب حرکت می کنند. شکل 1 نشان داده شده در زیر این حرکت قطعات محصول را در خط تولید در کارخانه نشان می دهد. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/NQA7S.png) خوانندگان RFID فیزیکی (pr) دستگاه های الکترونیکی هستند که با احتمال خاصی دقیق هستند. آنها ممکن است تشخیص بخشی از محصول را گزارش کنند، زمانی که ممکن است هیچ قطعه محصولی در خط تولید وجود نداشته باشد. یا زمانی که واقعاً یک قطعه محصول در خط تولید وجود داشته باشد، ممکن است بخشی از محصول را شناسایی نکنند. احتمال خوانندگان RFID p(pr) برای تشخیص بخشی از محصول یا داشتن برچسب RFID به تعداد برچسب هایی که باید تشخیص دهد، فاصله بین خواننده و برچسب و موارد دیگر بستگی دارد. ** توالی جزئی:** دنباله جزئی (ps) دنباله ای از قطعات محصول فرم (o1 < o2) است. دنباله جزئی (o1 < o2) نشان می دهد که قسمت محصول o1 جلوتر از قسمت محصول o2 در خط تولید است. **قوانین تشخیص توالی:** **قاعده 1:** اگر pr1 قسمت o1 محصول را در زمان t1 تشخیص دهد و سپس قسمت o2 محصول را در زمان بعدی t2 تشخیص دهد، آنگاه o1 جلوتر از o2 در خط تولید است، یعنی (( o1 < o2). در این سناریو، دو رویداد خوانده شده re1 = (o1, pr1, t1) و re2 = (o2, pr1, t2) خواهند بود. توجه: در این سناریو، خواننده فیزیکی برای هر دو رویداد خوانده شده یکسان است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MDC5j.png) **قانون 2:** اگر pr1 قبل از pr2 در خط تولید مستقر شده باشد، یعنی (pr1 < pr2)، پس قسمت محصول o1 شناسایی شده توسط pr2 در زمان t1 جلوتر از قسمت محصول o2 است که توسط pr1 در همان زمان t1 شناسایی شده است، یعنی (o1 < o2). در این سناریو دو رویداد خوانده شده re1 = (o2, pr1, t1) و re2 = (o1, pr2, t1) خواهند بود. توجه: در این سناریو، زمان شناسایی قطعات محصول برای هر دو رویداد خوانده شده یکسان است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/10TzN.png) **قانون 3:** اگر pr1 قبل از pr2 در خط تولید مستقر شود (pr1 < pr2)، پس یک محصول قسمت o1 شناسایی شده توسط pr2 در زمان t1 جلوتر از محصول o2 است که توسط pr1 در زمان بعدی t2 شناسایی می شود، یعنی (o1 < o2). این از قانون 1 و 2 واضح است. **p(ps)** = احتمال دنباله جزئی. **سوال 1:** احتمال توالی جزئی دو بخش محصول (o1 < o2) چقدر خواهد بود؟ ** دنباله توسعه یافته:** (o1 < o2) یک دنباله جزئی ps1 باشد. فرض کنید (o2 < o3) یک دنباله جزئی ps2 باشد. از آنجایی که قطعات محصول به ترتیب و یکی پس از دیگری در خط تولید حرکت می کنند، می توانیم گذر را اعمال کنیم و دو دنباله جزئی را در یک توالی (es) توسعه یافته از 3 قسمت محصول (o1 < o2 < o3) گسترش دهیم![توضیح تصویر را اینجا وارد کنید. ](http://i.stack.imgur.com/lfbEc.png) **p(es)** = احتمال دنباله توسعه یافته. **سوال 2:** احتمال توالی توسعه یافته سه بخش محصول (o1 < o2 < o3) چقدر خواهد بود؟ **سوال 3:** احتمال توالی توسعه یافته n بخش محصول (o1 < o2 < o3 .... <روشن) چقدر خواهد بود؟ **توجه:** این تکلیف نیست. من روی پروژه ای کار می کنم که شامل نظارت بر محصول در زمان واقعی با استفاده از خوانندگان RFID است. مشکل و مفاهیم کار شخصی من است.
احتمال مشاهدات چندگانه از اجسام چندگانه
48989
من خیلی با رگرسیون پواسون آشنا نیستم، بنابراین فکر می‌کنم در تحلیل زیر اشتباه کرده‌ام: من در حال مطالعه اثرات سیگار بر میزان سرطان ریه هستم. مجموعه داده در اینجا ارائه شده است. متغیر «وضعیت_سیگاری» تعریف شده است: > وضعیت سیگار کشیدن: کد شده 1 = سیگار نمی کشد، 2 = فقط سیگار یا پیپ می کشد، 3 = > سیگار و سیگار یا پیپ می کشد، و 4 = فقط سیگار می کشد، من داده ها را اصلاح کردم بیت و دو متغیر دسته بندی جدید ایجاد کرد: پیپ/سیگار سیگار و سیگاری سیگاری، به جای smoking_status. بنابراین وضعیت سیگار کشیدن 1 به (0,0)، 2 نقشه به (1,0)، 3 نقشه به (1,1) و غیره. من همچنین یک ستون ثابت به مجموعه داده خود اضافه کردم. این تمام کاری است که من با داده ها انجام دادم. سپس با استفاده از تابع پیوند نمایی، رگرسیون پواسون را روی این مجموعه داده انجام دادم. امید من این بود که ضرایب دو متغیر جدید مثبت باشد اما در عوض فقط سیگار_کشنده مثبت است. فواصل اطمینان نیز حاوی نکات مثبت نیستند. آیا داده ها را اشتباه تجزیه و تحلیل کرده ام یا داده های من اشتباه است؟ **ویرایش** خروجی (از کتابخانه Python Statsmodels است) نتایج رگرسیون مدل خطی تعمیم یافته بخش. متغیر: y تعداد مشاهدات: 36 مدل: GLM Df باقیمانده ها: 31 خانواده مدل: پواسون Df مدل: 4 عملکرد پیوند: مقیاس ورود: 1.0 روش: IRLS Log-Likelihood: -815.93 تاریخ: پنجشنبه، 31 ژانویه 2013 زمان: Devi. : 13:19:32 پیرسون chi2: 1.22e+03 تعداد تکرار: 7 coef std err t P>|t| [95.0% Conf. داخلی] ---------------------------------------------- ------------------------------- x1 0.2596 0.006 44.097 0.000 0.248 0.271 x2 -0.1850 0.024 -7.775 0.000 -0.232 -0.138 x3 0.5327 0.031 17.101 0.000 0.472 0.594 x4 0.0504-0.0504 0.0504 0.0004 0.0004 0.0004 0.0004 0.000 0.000 const 2.9593 0.046 63.903 0.000 2.869 3.050 متغیرها به ترتیب سن، سیگار_سیگار (0،1)، سیگار_دود (0،1)، جمعیت (در صد هزار)، ترم ثابت هستند. برخی از داده‌های نمونه: آرایه ([[ 2.، 0.، 0.، 359.، 1.]، [4.، 0.، 1.، 3270.، 1.]]) با مرگ‌های هدف [22.، 514. .] به ترتیب.
پاسخ غیر شهودی از رگرسیون پواسون
110118
من این مقاله Fuzzy e-Means Clustering of Mixed Databases شامل متغیرهای عددی و اسمی را از IEEE برای پیاده سازی و یادگیری ارجاع می دهم. لطفاً درک من را تا کنون تصحیح کنید: 1. امتیاز دسته با استفاده از معادله: 18 به روز می شود. برای نرمال کردن، میانگین را کم کرده و بر انحراف معیار تقسیم کنید. 3. برای نرمال کردن، میانگین از سمت چپ معادله محاسبه می‌شود: 19، واریانس از سمت راست معادله محاسبه می‌شود: 20 [از واریانس محاسبه انحراف استاندارد] در حالی که میانگین از L.H.S معادله: 19: $1_{n} ^{T}U_{c}^{\theta}q_{j}$ متغیر $U_{c}^{\theta}$ را انجام می‌دهد از ما می خواهد که از کل ماتریس عضویت یا عضویت در هر خوشه [یک ستون از ماتریس عضویت] استفاده کنیم. من در اینجا در پیاده سازی گیر کرده ام تا این محدودیت ها در معادله: 19،20 برآورده شوند. هر گونه کمکی بسیار قدردانی می شود. پیشاپیش ممنون یوگالاکشمی.جی
چگونه می توان مقیاس بهینه متغیرهای طبقه بندی شده را برای خوشه بندی فازی پیاده سازی کرد؟
94864
من ناقلی از مقادیر بیان ژن در 20 بیمار دارم. هر بیمار همچنین دارای یک اندازه گیری گلوکز (بردار عددی پیوسته) است. من می خواهم بفهمم که ارزش همبستگی واقعی در مقایسه با مقادیر همبستگی توزیع شده تصادفی چقدر معنادار است. 1. Real Pearson محاسبه شده توسط: real<-cor(gene1, glucose) 2. من توزیعی از 10K همبستگی تصادفی را با استفاده از نمونه با جایگزینی random_glucose <- replicate(10000, cor(sample(gene1,replace=T),sample( گلوکز، جایگزین=T))) **چگونه می توانم یک مقدار p از اهمیت واقعی در مقایسه با تصادفی بدست بیاورم مقادیر؟** من موارد زیر را امتحان کرده ام: 1. استفاده از pnorm با کد: pnorm_p <- 2*pnorm(q=abs(real),mean=mean(random_glucose),sd=sd(random_glucose),lower. tail=F) 2. من متقاعد نشده ام که مقادیر تصادفی به طور معمول توزیع شده اند، بنابراین از «ecdf» با کد استفاده می کنم: ecdf_calc<-function(real, random_glucose){ funny<-ecdf(random_glucose) value<-funny(real) if(value<=0.5){ res<-2*value return(res)}alse{ res<-(( 1 - value)*2) return(res) } } راه های درستی برای انجام آن با `ecdf` چیست و پنرم؟ من راه های مختلفی برای انجام این کار از طریق گوگل می بینم و تفاوت را درک نمی کنم. به عنوان مثال، روش‌هایی با استفاده از امتیاز Z مانند اینجا؛ http://www.cyclismo.org/tutorial/R/pValues.html#calculating-a-single-p-value- from-a-normal-distribution و گاهی اوقات 1-pnorm(...) را می بینم و دیگران را من pnorm(..) را به تنهایی بدون 1- می بینم.
روش صحیح تولید p-value برای همبستگی با نمونه گیری مجدد چیست؟