_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
80253 | من یک مجموعه داده دارم که در آن دو متغیر X و Y وجود دارد، X مجموعه ای از مقادیر است و Y مجموعه ای از مقادیر متناظر است، مانند X = [1, 2, 3, 4] و Y = [100, 200, 300 ، 400]. در حالت ایده آل، من باید رابطه ای مستقیم داشته باشم. هنگامی که X افزایش می یابد، Y نیز افزایش می یابد، و بالعکس. کاری که من میخواهم انجام دهم این است که یاد بگیرم این رابطه چگونه است، خطی است یا غیرخطی یا چیز دیگری. چگونه چنین چیزهایی بررسی می شوند؟ سوالات عمومی بیشتر | نحوه یادگیری رابطه بین دو متغیر |
17461 | من در حال مطالعه یک مجموعه داده در R با استفاده از هر دو درخت رگرسیون (درخت و توابع rpart) و رگرسیون لجستیک هستم. من متغیرهای توضیحی را در رگرسیون پیدا میکنم که معنیدار هستند، اما وقتی درختی را برازش میکنم از آن متغیرها به عنوان تقسیم استفاده نمیشود. این در مورد توانایی پیش بینی نتایج چیست؟ | عدم تطابق بین متغیرهای معنیدار از رگرسیون لجستیک و تقسیم درخت در R |
13371 | من آنقدرها با این ادبیات آشنا نیستم، پس اگر این سوال بدیهی است مرا ببخشید. از آنجایی که AIC و BIC به حداکثر کردن احتمال بستگی دارند، به نظر میرسد که میتوانند تنها برای مقایسه نسبی بین مجموعهای از مدلهایی که تلاش میکنند مجموعه دادهای معین را برازش کنند، استفاده شوند. با توجه به درک من، محاسبه AIC برای مدل A در مجموعه داده 1، محاسبه AIC برای مدل B در مجموعه داده 2، و سپس مقایسه دو مقدار AIC و قضاوت در مورد آن منطقی نیست (برای مثال) مدل A با مجموعه داده 1 بهتر از مدل B متناسب با مجموعه داده 2 می شود. یا شاید من اشتباه می کنم و این کار منطقی است. لطفا به من اطلاع دهید. سوال من این است: آیا آمار برازش مدلی وجود دارد که بتوان از آن بهجای مقایسههای نسبی برای مطلق استفاده کرد؟ برای مدل های خطی، چیزی شبیه $R^2$ کار می کند. این یک محدوده تعریف شده و ایده های خاص رشته ای در مورد ارزش خوب دارد. من به دنبال چیز کلی تر هستم و فکر کردم که می توانم با پینگ کردن کارشناسان اینجا شروع کنم. من مطمئن هستم که کسی قبلاً به این نوع چیزها فکر کرده است، اما من دقیقاً عبارات مناسب برای جستجوی سازنده در Google Scholar را نمی دانم. هر گونه کمکی قدردانی خواهد شد. | آیا یک آمار برازش مدل (مانند AIC یا BIC) وجود دارد که بتوان از آن بهجای مقایسههای نسبی، برای مطلق استفاده کرد؟ |
46765 | دو معادله 1 را فرض کنید. $Y_1 = X_1\beta_1 + X_2\beta_2 + U_1$ 2. $Y_2 = X_1\alpha_1 + X_2\alpha_2 + U_2$ بعلاوه فرض کنید که $ \ U_1 = X_4 + E_1$ و $U_2 = X_4 + E_2$ با $ \ corr(Y_1,X_4)\ne 0, \\ corr(Y_1,E_2)= 0 \\\ $ و $ \\\ corr(Y_2,X_4)\ne 0, \ \ corr(Y_2,E_1)= 0$ بنابراین اگر معادله را تخمین بزنیم. 1 و 2 توسط OLS ما یک مشکل بایاس - متغیر حذف شده دریافت می کنیم زیرا رگرسیور $X_4$ در هیچ یک از معادله ها ظاهر نمی شود. **سوال من این است:** از آنجایی که $Y_1$ و $Y_2$ در آن معادلات به عنوان متغیرهای توضیحی ظاهر نمی شوند، یعنی با یکدیگر همبستگی ندارند، پس می توان از $Y_1$ به عنوان یک پروکسی برای $X_4$ در معادله استفاده کرد. . 2 و به طور مشابه $Y_2$ به عنوان یک پروکسی برای $X_4$ در معادله. 1 پاسخ من این خواهد بود که اگر درون زایی بالقوه آن متغیرها را کنترل کنیم، بله، زیرا دو شرط لازم برای یک متغیر پراکسی داده شده است 1. متغیر پراکسی با متغیر غیرقابل مشاهده همبستگی دارد. 2. متغیر پراکسی تا حدی با متغیر وابسته همبستگی ندارد. * * * دوماً دو معادله 1 را فرض کنید. $Y_1 = Y_2\beta_1 + X_1\beta_2 + X_2\beta_3 + U_1$ 2. $Y_2 = Y_1\alpha_1 + X_1\alpha_2 + X_2\alpha_3 + U_2$ بعلاوه فرض کنید که $ \ U_1 = X_4 + E_1$ و $U_2 = X_4 + E_2$ با $ \ corr(Y_1 ,X_4)\ne 0, \\ corr(Y_1,E_2)= 0 \ \\ $ و $ \\\ corr(Y_2,X_4)\ne 0, \\ corr(Y_2,E_1)= 0$ بنابراین اگر معادله را تخمین بزنیم. 1 و 2 توسط OLS، یک مشکل سوگیری متغیر حذف شده را دریافت می کنیم که با یک مشکل درون زایی جفت شده است، زیرا رگرسیور $X_4$ در هیچ یک از معادله ظاهر نمی شود و متغیرهای وابسته $Y_1$ و $Y_2$ به طور مشترک در داخل تعیین می شوند. مدل **سوال من این است:** به عنوان مثال: درون زایی $Y_2$ در معادله. 1 به دلیل 1 است. همبستگی جزئی به $Y_1$ 2. همبستگی جزئی با رگرسیون حذف شده $X_4$ اگر من از یک رویکرد تابع کنترلی استفاده کنم که این درون زایی $Y_2$ را در معادله کنترل می کند. 1 آیا من کمیتی دریافت نمی کنم که نه تنها (1) بلکه برای (2) را نیز کنترل می کند؟ به نظر من این یک راه حل برای یک مشکل سوگیری-حذف متغیر نیست، اما راه حلی برای درون زایی ارائه می دهد؟ **بنابراین نتیجه نهایی:** اگر $Y_1$ و $Y_2$ واقعاً همبستگی ندارند، من در واقع میتوانم مشکل omitted-variables-bias-problem را حل کنم. در هر صورت باید توجیه کنم که کدام یک از مشکلات من جدی تر است تا راه حل مناسبی پیدا کنم. | بحث در مورد متغیرهای پراکسی و ابزار و درون زایی در چارچوب یک مدل چند معادله ای |
101375 | من یک مدل 'lmer' ایجاد کرده ام. اثرات یکی از درمان های من، کود بسته به اینکه از lsmeans یا difflsmeans از lmerTest استفاده کنم، متفاوت است. به کدام باید اعتماد کنم، «lsmeans» یا «difflsmeans»؟ من یک آزمایش طرح تقسیم شده دارم. کود کل طرح است، برداشت قطعه شکافته است. در هر پلات 10 نمونه (چهار) وجود دارد. دادههای جمعآوریشده در طول 4 سال، که من آنها را به صورت ترتیبی ساختهام. پاسخ زیست توده کل است که من آن را تغییر داده ام. > مدل <- lmer(logTotal ~ ordYear*Fertilizer*Harvest + (1|(Block:Fertilizer)) + (1|(Plot:Quad))، REML = FALSE، data = df) > difflsmeans(model, test.eff =Fertilizer) تفاوت های LSMEANS: برآورد خطای استاندارد DF t-value CI پایین تر CI بالایی کود p-value هیچ توصیه شده -0.3 0.0868 16.0 -3.27 -0.4677 -0.0996 0.005 ** کود هیچ نصف -0.2 0.0868 16.0 -2.19 -0.304 -0.304 Ferizer بدون کود -0.1 0.0868 16.0 -0.84 -0.2572 0.1110 0.412 کود توصیه شده-نصف 0.1 0.0868 16.0 1.08 -0.0905 0.2777 0.2800.2970. 16.0 2.42 0.0264 0.3946 0.028 * کود نیمه کود 0.1 0.0868 16.0 1.35 -0.0671 0.3011 0.197 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 > lsmeans(model, list (دوتا ~ کود)) توجه: نتایج ممکن است به دلیل دخالت در تعاملات گمراه کننده باشند. lsmeans of Fertilizer` Fertilizer lsmean SE df low.CL بالا 21.33 4.644838 4.939462 کود دامی 4.675189 0.07090356 21.33 4.527877 4.822500 نتایج به طور میانگین در سطوح: ordYear، برداشت محصول، تفاوت تخمین زده شده، 9$ تضاد، سطح اطمینان استفاده شده: SE df t.ratio p.value هیچ - توصیه می شود -0.28364706 0.1002728 21.33 -2.829 0.0455 هیچ - نصف -0.19007464 0.1002728 21.33 -1.8511 -1.8510 -1.8910 - غیر مرد. 0.1002728 21.33 -0.729 0.8843 توصیه می شود - نصف 0.09357242 0.1002728 21.33 0.933 0.7875 توصیه می شود - کود 0.21053396 0.102102723 - نصف کود 0.11696153 0.1002728 21.33 1.166 0.6537 میانگین نتایج در سطوح: ordYear، برداشت مقدار P تنظیم شده است: روش tukey برای یک خانواده 4 نفره به معنی تشکر | تفاوت بین lsmeans و difflsmeans |
45239 | من با یک سوال در مورد قضیه بیز مشکل دارم. سوال اینجاست: > یک فروشگاه اینترنتی لباس دارای سه مارک شلوار جین است. 40% از فروشها به برند A، 20% مربوط به برند B و مابقی مربوط به برند C هستند. 20% از شلوار جین با نام تجاری A > قیمت بیش از 100، 40% از شلوار جین با نام تجاری B بیش از 100 دلار و 90% از شلوار جین برند C > هزینه بیش از 100. با توجه به اینکه یک شلوار جین بالای 100 خریده شده است، احتمال اینکه مارک A باشد چقدر است؟ کار من به شرح زیر است: با استفاده از قضیه بیز دو رویداد را طبقهبندی کردم: A$: انتخاب مارک A $B$: شلوار جین بیش از 100 قیمت دارد، بنابراین باید $P(A|B)$$$P(A) = 2 را پیدا کنم. /5$$$$P(B|A) = 1/5$$$$P(\neg A) = 3/5$$$$P(B|\neg A) = 11/25$$ وقتی محاسباتی را با قضیه بیز انجام می دهم، دریافت می کنم؛ $$\frac{2/25}{2/25 + (11/25)\times(3/5)} = 10/43$$ اما پاسخ 2/13$ است. حالا، وقتی برای اولین بار سوال را انجام دادم، فراموش کردم $P(B|\neg A)$ را در $P(\neg A)$ در مخرج ضرب کنم و پاسخ درست را گرفتم. آیا دلیلی وجود دارد که من باید $P(\neg A)$ را کنار بگذارم؟ یا اینکه من به طور کامل به مشکل برخورد کردم؟ | قضیه بیز - مسئله شلوار احتمال |
48603 | من دو متغیر مورد علاقه دارم: * مشاغل خالی مسکونی (res_vac) * مشاغل خالی تجاری (com_vac) من همچنین دو متغیر دارم که می توانم موارد فوق را عادی کنم: * کل اقامتگاه ها (res_tot) * مجموع مشاغل (bus_tot) مشاغل خالی تجاری من کلی را دریافت می کنم. تئوری چگونگی عادی سازی داده ها، اما این تقسیم دوگانه مغز من را دچار سردرد می کند. اگر بخواهم res_vac را عادی کنم (مثلاً آن را با یک متغیر com_vac نرمال شده مقایسه کنم)، که درست است: * res_vac / res_tot * res_vac / (res_tot + bus_tot) من به سمت اولین متمایل می شوم. یک پاسخ عالی همچنین به من کمک می کند تا بفهمم چرا این یکی یا دیگری است. | در مورد روش مناسب برای عادی سازی دو متغیر سردرگم شده است |
45232 | من در تجزیه و تحلیل توالی تازه کار هستم، و میپرسیدم اگر میانگین عرضهای شبح (ASW) از تحلیلهای خوشهای ماتریسهای عدم تشابه مبتنی بر تطابق بهینه کم باشد (حدود 25/0) چگونه واکنش نشان میدهم. آیا این نتیجه گیری مناسب به نظر می رسد که ساختار زیربنایی کمی وجود دارد که به توالی ها اجازه خوشه بندی می دهد؟ آیا ممکن است ASW پایین را بر اساس سایر معیارهای کیفیت خوشه نادیده بگیرید (من برخی از آنها را در زیر چسبانده ام)؟ یا این احتمال وجود دارد که انتخاب های انجام شده در طول تجزیه و تحلیل توالی یا تجزیه و تحلیل های خوشه ای بعدی ممکن است مسئول اعداد پایین ASW باشد؟ هر گونه پیشنهادی قدردانی خواهد شد. با تشکر در صورتی که به زمینه بیشتری نیاز است: من در حال بررسی 624 توالی از عدم تطابق ساعت کاری (یعنی عدم تطابق بین تعداد ساعات کاری که یک فرد ترجیح می دهد در هفته کار می کند و تعداد ساعات کار واقعی آنها) را در بین افراد 20 ساله بررسی می کنم. تمام دنباله هایی که من بررسی می کنم دارای طول 10 هستند. شی دنباله من دارای پنج حالت است (M=ساعت بیشتر می خواهد، S=همان ساعت می خواهد، F=ساعت کمتری می خواهد، O=خارج از نیروی کار، و U=بیکار است. ). من یک حسابداری سیستماتیک از اینکه چگونه نتایج ASW با ترکیب های مختلف رویکردها متفاوت است، انجام نداده ام. با این حال، من هزینه های پایین و متوسط را امتحان کرده ام (1.1 و 0.6 از حداکثر هزینه جایگزینی--من به ترتیب رویدادها بیشتر از زمان بندی آنها اهمیت می دهم) و روش های مختلف خوشه بندی (بخش، متوسط و پم). تصور کلی من این است که اعداد ASW کم می مانند. شاید نتایج پایین ASW منطقی باشد. من انتظار دارم که این ایالت ها به ترتیب های مختلف بیایند و حالت ها تکرار شوند. حذف مشاهدات تکراری فقط N را از 624 به 536 کاهش می دهد. مطالعه داده ها نشان می دهد که در واقع مقدار زیادی تنوع و توالی وجود دارد که من آنها را بسیار متفاوت در نظر می گیرم، به عنوان مثال، افرادی که در تمام مدت ساعات یکسانی را می خواستند، عدم تطابق داشتند، آنها را حل کردند. عدم تطابق، و بین داشتن و نداشتن ناهماهنگی در نوسان بود. شاید فقدان خوشه های کاملاً متمایز شده با فقدان تنوع جالب یکسان نباشد. با این حال، به نظر میرسد که نتایج خوشهای ضعیف باعث میشود که راه خوبی برای خلاصه کردن دنبالهها نداشته باشم. نتایج حاصل از روش وارد با تنظیم ایندل در 0.1 از هزینه جایگزینی 2 به نظر می رسد این آمار نشان می دهد که یک راه حل 6 خوشه ای ممکن است خوب باشد. با این حال، ASW پایین است - حداقل برای راه حل هایی که تعداد معقولی خوشه دارند (2 یا 3 بسیار کم است). PBC HG HGSD ASW ASWw CH R2 CHsq R2sq HC cluster2 0.56 0.78 0.75 0.38 0.38 110.76 0.15 241.65 0.28 0.14 0.14 خوشه 3 0.820.6 0.51 108.10 0.26 237.60 0.43 0.17 خوشه4 0.54 0.74 0.71 0.25 0.25 88.66 0.30 203.72 0.50 0.14 0.14 خوشه5 0.590. 75.85 0.33 183.21 0.54 0.09 cluster6 0.59 0.85 0.82 0.24 0.25 66.94 0.35 164.51 0.57 0.08 خوشه7 0.49 0.47 0.47 0.47 0.47 0.47 64.09 0.38 154.47 0.60 0.12 cluster8 0.47 0.81 0.77 0.20 0.21 59.47 0.40 152.36 0.63 0.11 خوشه 9 0.41 0.48 0.48 0.48 56.68 0.42 147.83 0.66 0.10 cluster10 0.47 0.86 0.82 0.19 0.21 53.24 0.44 140.18 0.67 0.08 | آیا عرض شبح کم به این معنی است که داده ها ساختار زیرین کمی دارند؟ |
17460 | من یک برنامه نویس سرگرمی هستم که دوستش اخیراً یک سفر کاری به خارج از کشور داشته است. او از دوستان مشترک ما برای شرط بندی در مورد اندازه صندوق پست الکترونیکی خود در هنگام بازگشت نظرسنجی کرده است. من می خواهم این را به عنوان یک نقشه حرارتی یک بعدی تجسم کنم که در آن رنگ نوعی چگالی حدس ها را برای آن مقدار منعکس می کند. من می دانم که می توانم یک هیستوگرام ایجاد کنم و راهی برای ترجمه مقادیر آن به مقادیر رنگی پیدا کنم. با این حال، سطلهای هیستوگرام، انتقالهای عجیب و غریب در رنگ ایجاد میکنند. آیا راهی برای ایجاد یک تابع مناسب و پیوسته برای خروجی زیباتر وجود دارد؟ | بهترین راه برای تجسم یک متغیر عددی به عنوان یک نقشه حرارتی چیست؟ |
17462 | فرض کنید در طول یک ساعت در حال تجزیه و تحلیل الگوهای رفتاری هستم. من سه رفتار مختلف و مهرهای زمانی (پایان شروع) را ثبت کرده ام. چیزی مانند: خمیازه کشیدن کشش زمزمه 2:21-2:22 3:31-3:33 1:21-1:30 3:42-3:45 8:23-8:59 9:27-9:33 9: 20-925 9:34-9:44 14:04-14:07 14:45-14:32 15:01-15:06 18:00-18:22. . . 45:40-45-43 45:23-45:30 44:19-44:44 آیا یک روش آماری برای تعیین اینکه آیا رفتارهای خاصی در اطراف دوره های زمانی خاص با یکدیگر همبستگی یا خوشه بندی دارند وجود دارد؟ به عنوان مثال شاید من بخواهم بدانم که آیا این سه (یا فقط 2) رفتار در مجاورت یکدیگر یافت می شوند یا شاید بخواهم بدانم که آیا این رفتارها در مجاورت یکدیگر نیستند. کدام یک از این سه رفتار تمایل به جمع شدن با هم دارند؟ من حتی نمی دانم چه زمینه ای از آمار را با این بررسی می کنم. | همبستگی مهرهای زمانی |
101378 | من یک تحقیق پزشکی دارم که در آن دو مجموعه داده دارم. 1. گروه کنترل: افرادی که هیچ بیماری ندارند. 2. گروه مطالعه: افرادی که بیماری خاصی دارند. در هر دسته زیر گروه هایی مانند سن، جنسیت، محدوده فشار خون، محدوده کلسترول و غیره وجود دارد. اکنون من چند مشاهدات (حدود 50) برای هر دو گروه کنترل و گروه مطالعه دریافت کردم. من پارامترهای مختلفی مانند فشار خون، سطح کلسترول و غیره را مشاهده میکنم. میخواهم اهمیت آماری این پارامترها (فشار خون/کلسترول) را در گروه مطالعه ثابت کنم. بهترین راه برای انجام آن چیست؟ آیا باید از توزیع $t$ استفاده کنم یا توزیع عادی؟ همچنین وقتی مقدار $p$-value را محاسبه میکنم، آیا باید هر زیرگروه در گروه مطالعه (بر اساس محدوده) را با زیرگروه مربوطه در گروه کنترل مقایسه کنم یا مقدار p$-$ را به عنوان یک کل برای مطالعه در مقابل گروه کنترل محاسبه کنم؟ | از کدام آمار استفاده کنیم؟ |
45236 | خیلی شبیه هم به نظر می رسند آیا آنها یک چیز هستند اما فقط به عنوان نام های متفاوت از آنها یاد می شود؟ | تفاوت بین داده های مقطعی تلفیقی و داده های تابلویی چیست؟ |
6320 | من تعداد بسیار زیادی مشاهدات دارم. مشاهدات به صورت متوالی می رسند. هر مشاهده یک بردار $n$-بعدی است (با $n \ge 100$)، مستقل از بقیه است و از همان توزیع مجهول گرفته شده است. آیا خط مشی بهینه ای برای تخمین توزیع ناشناخته با توجه به محدودیت های فضایی در تعداد مشاهداتی که می توان ذخیره کرد وجود دارد؟ من معیارهای تخمین را باز می گذارم (از نظر خطای مورد انتظار یا حداقل، سازگاری مجانبی، کارایی همیشگی و غیره). | تخمین تابع توزیع احتمال یک جریان داده |
59714 | من معیارهای وابسته ترتیبی و غیرعادی توزیع شده را با استفاده از روش اسپیرمن تجزیه و تحلیل می کنم. به طور خاص، ما یک طراحی گروههای مستقل داریم، و من یک رابطه معنیدار بین متغیرهای یک گروه پیدا کردهام اما در گروه دیگر نه (اجرای تحلیلهای اسپیرمن جداگانه برای هر گروه). من می خواهم تفاوت در ارتباط بین دو گروه را آزمایش کنم، اما نمی توانم اطلاعاتی در مورد روش/آزمایش مورد استفاده پیدا کنم. من میدانم که تبدیل فیشر r به z ممکن است در مورد همبستگی لحظه محصول پیرسون استفاده شود، که اجازه میدهد تفاوتها در ارتباط بین گروهها آزمایش شود - آیا ابزاری برای اجرای آزمون مشابهی از ارتباط بین گروهها با rho اسپیرمن وجود دارد؟ | تست Spearman's rho بین گروه ها |
44727 | آیا روش استانداردی برای گزارش درصد پیشبینیشده درست هنگام پیشبینی یک نتیجه باینری وجود دارد؟ با استفاده از glm در r، نتایج احتمالات را پیش بینی می کنند. با این حال، برای مقایسه با یک مدل دیگر، میخواهم یک درصد از مقدار پیشبینیشده درست را از مدل باینری خود گزارش کنم. آیا من به سادگی یک نقطه برش را انتخاب می کنم، و اگر چنین است، چگونه؟ در اینجا یک مثال ساده از کد است. model.results <- glm(binary.outcome ~ predictor1 + predictor2, family=quasibinomial) با تشکر، | درصد به درستی از مدل لاجیت پیش بینی شده است |
46768 | من در حال خواندن این کتاب تشخیص الگو و یادگیری ماشین توسط بیشاپ بودم. من یک سردرگمی مربوط به یک مشتق از سیستم دینامیکی خطی داشتم. در LDS متغیرهای پنهان را پیوسته فرض می کنیم. اگر Z نشان دهنده متغیرهای پنهان و X نشان دهنده متغیرهای مشاهده شده است $p(z_n|z_{n-1}) = N(z_n|Az_{n-1},\tau)$$p(x_n|z_n) = N( x_n,Cz_n,\Sigma)$ $p(z_1) = N(z_1|u_0,V_0)$ در LDS نیز آلفا ارسال پیام به جلو بتا به عقب برای محاسبه توزیع پنهان پسین استفاده می شود، یعنی $p(z_n|X)$ $\alpha(z_n)=p(x1...xn,z_n)$ $\hat\alpha(z_n) = \ alpha(z_n)/P(x1....xn)$ اولین سوال من در کتاب این است که $\hat\alpha(z_n) = N(z_n|u_n,V_n)$ چطور به موارد بالا رسیدیم. منظورم $\hat\alpha(z_n)$ = $N(z_n|u_n,V_n))$ است. منظورم این است که چگونه این را به دست آوردیم؟ سوال بعدی من مربوط به اشتقاق است که می توانید تصاویر صفحات کتاب پیوست شده را دنبال کنید. من متوجه نشدم که $K_n$ از کجا آمده است و سود فیلتر کالمن چیست $u_n = Au_{n-1} + K_n(x_n - CAu_{n-1})$ V_n = I - K_nC)P_(n -1)$c_n = N(x_n|CAu_{n-1},CP_{n-1}C^T + \Sigma$$K_n$ ماتریس بهره کالمن $P_{n-1}C^T(CP_{n-1}C^T + \Sigma) ^ {-1}$ چگونه معادلات بالا را استخراج کردیم، منظورم این است که چگونه $u_n = Au_{ n-1} + K_n(x_n - CAu_{n-1})$ من فقط گیج شده ام که چگونه مشتق بالا ساخته شده است   ![شرح تصویر را اینجا وارد کنید] (http://i.stack.imgur.com/C0xWn.png) | سردرگمی مربوط به سیستم های دینامیکی خطی |
6326 | من دو درمان A و B دارم. در اینجا گروه های من هستند، که در آن X نشان دهنده کنترل مناسب برای آن درمان خاص است: گروه 1: XX گروه 2: AX گروه 3: XB گروه 4: AB فرضیه این است که درمان B دارای یک اثر، اما زمانی که با درمان A ترکیب شود، این اثر دیگر آشکار نخواهد بود. بنابراین، اگر آزمایش من را اجرا کنم و یک ANOVA روی داده ها اجرا کنم، و نتایج تجزیه و تحلیل نشان می دهد که تنها گروه 3 به طور قابل توجهی متفاوت از دیگران، آیا درست است که بگوییم درمان B اثر داشت و با ترکیب با درمان A این اثر از بین رفت؟ یا، آیا لازم است تفاوت قابل توجهی بین XB و AB نشان دهم؟ | تفسیر تعاملات بین دو درمان |
41009 | من یک سوال احمقانه در مورد روش های بوت استرپ برای محاسبه p-value دارم. فرض کنید من یک مجموعه داده دارم که احتمالاً توزیع عادی است. اکنون میخواهم تعیین کنم که آیا یک مقدار خاص X در مجموعه داده با مقدار pvalue بالا است یا خیر. برای من، دو گزینه وجود دارد 1. از آنجایی که مجموعه داده تقریباً نرمال توزیع شده است، می توانم sd و mean را محاسبه کنم، مساحت z>(X-mean)/sd را از جدول Z دریافت کنم و از آن به عنوان pvalue استفاده کنم. 2. بوت استرپ. من میتوانم یک نمونه جدید S (طول N) از مجموعه داده اصلی توسط بوت استرپ ایجاد کنم، سپس مقدار p را با مجموع (S>X)/N دریافت کنم. سؤال من این است که آیا درست است که از bootstrap در گزینه دوم استفاده کنم؟ آیا می توانید کتاب هایی را برای درک بهتر تست بوت استرپ و جایگشت معرفی کنید؟ با تشکر | سوالاتی در مورد روش های بوت استرپ در محاسبه p-value |
80864 | این سوال یک نسخه ساده برای سوال قبلی من است: انتخاب روش نمونه گیری قبل از استفاده از روش اعتبار سنجی بوت استرپ برای مدل های کامپیوتری آیا می توان از نمونه های روش Hypercube لاتین (LHS) برای بوت استرپ استفاده کرد؟ در این صورت، مزایای استفاده از LHS از بین می رود زیرا نمونه های جدید راه انداز غیر LHS خواهند بود. می توان واریانس آمارهای علاقه مند را با استفاده از ترکیب LHS و بوت استرپ بیش از حد تخمین زد. آیا روش نمونه گیری تصادفی یا شبه تصادفی برای بوت استرپ مناسب است؟ هر گونه فکر بسیار قدردانی خواهد شد. | آیا می توان از نمونه های روش Hypercube لاتین برای بوت استرپ استفاده کرد؟ |
45233 | الگوریتم AdaBoost بیان می کند که آموزش یک طبقه بندی بر اساس داده های تمرین بر اساس بردار وزن است. فرض کنید اندازه داده های تمرین N است، بردار وزن نیز از بعد N است. من سه سوال در مورد این روش نمونه گیری دارم، 1) آیا اندازه داده های نمونه برداری شده با مجموعه داده های اصلی یکسان خواهد بود؟ 2) بردار وزن چگونه است؟ اگر یک توزیع است، مجموع آنها باید 1 باشد. آیا می توان یک بردار وزنی با ورودی های عدد صحیح داشت؟ 3) به طور کلی، کدام الگوریتم را می توان برای نمونه برداری از یک مجموعه داده بر اساس یک بردار وزنی یا یک توزیع استفاده کرد؟ | با توجه به روش نمونه گیری در الگوریتم Adaboost |
44720 | من گیج شده ام که چه کار کنم. من به اجرای دو رگرسیون چندگانه جداگانه با یک DV در هر کدام فکر می کردم. بعد از این، من گیر کردم. چگونه می توانم ببینم که این دو DV چه تأثیری با هم دارند؟ یا اینکه من در مورد همه چیز اشتباه می کنم. کمک! IV من جنسیت و گروه است. DV من نمرات دو آزمون روانسنجی مجزا (مقیاس لیکرت) خواهد بود. امیدوارم حداقل 100 نفر در هر گروه (3 گروه) داشته باشند، بنابراین حجم نمونه تقریباً 300 خواهد بود. | چگونه داده ها را با 2 متغیر مستقل و 2 متغیر وابسته تجزیه و تحلیل کنم؟ |
59712 | من سعی می کنم نحوه عملکرد مدل های MA(q) را درک کنم. برای این منظور من یک مجموعه داده ساده با تنها سه مقدار ایجاد کرده ام. سپس یک مدل MA(1) را با آن تطبیق دادم. نتایج زیر نشان داده شده است: x<-c(2,5,3) m<-arima(x,order=c(0,0,1)) سری: x ARIMA(0,0,1) با غیر صفر میانگین ضرایب: ma1 intercept -1.0000 3.5000 s.e. 0.8165 0.3163 sigma^2 تخمین زده شده به عنوان 0.5: احتمال ورود به سیستم=-3.91 AIC=13.82 AICc=-10.18 BIC=11.12 در حالی که مدل MA(1) به این صورت است: $$X_t = c +a_t - \theta*a_{t- 1}$$ و $a_t$ نویز سفید است. چیزی که نمی توانم بفهمم این است که چگونه مقادیر برازش را بدست بیاورم: کتابخانه (پیش بینی) برازش (m) سری زمانی: شروع = 1 پایان = 3 فرکانس = 1 [1] 3.060660 4.387627 3.000000 راه های مختلفی را امتحان کردم، اما نمی توانم بفهمم چگونه مقادیر برازش شده ('3.060660'، '4.387627' و 3.000000) محاسبه می شود. برای پاسخ بسیار سپاسگزار خواهم بود! | روشی که یک مدل MA(q) کار می کند |
20172 | نتیجه در زیر نشان داده شده است: [1] W.D. Penny، KL-Divergences of Normal، Gamma، Dirichlet, and Wishart densities، موجود در: www.fil.ion.ucl.ac.uk/~wpenny/publications/densities.ps اما کسی می تواند به من کمک کند تا خطوط بالای صفحه 3 را بفهمم: $L=\int \log(\Gamma) Wishart(\Gamma|a,B) d\Gamma$$=\log(\tilde\Gamma(a,B))$$=\sum\limits_{i=1}^{d}\Psi((a_{ s}+1-i)/2)-\log|B_{s}|+d\log(2)$ ($\Psi(.)$ تابع دیگام است) پس چیست $\tilde\Gamma(a,B),a_{s},B_{s}$? | واگرایی Kullback-Leibler بین دو توزیع Wishart |
59717 | من در حال مطالعه تکنیک های بیزی برای مدل های خطی و سری های زمانی هستم. در حالی که متون در آموزش تئوری عالی هستند، من میخواهم در مورد جوانب مثبت و منفی تحلیل بیزی در مقایسه با معادلهای متداول آنها اطلاعات بهتری کسب کنم. من نمی توانم مقاله یا حتی مقاله ای پیدا کنم که این کار را انجام دهد. من واقعاً آن را به عنوان یک سطح نسبتاً بالا می خواهم به جای اینکه فوراً درگیر جزئیات فنی باشم. به طور ایده آل برجسته کردن کجا و در چه موقعیت هایی بیزی بهتر است و بالعکس. بیشتر آنها فقط اشاره می کنند که رویکردهای frequestist نیز به اطلاعات قبلی متکی هستند، اما در این مورد کمتر صادق هستند، اما به جزئیات زیادی پرداخته نشد. | طرح کلی مزایا/هزینههای استفاده از OLS بیزی به جای تکراری و سری زمانی؟ |
70273 | من تحقیقی در مورد اثربخشی برنامه درسی جدید برای مدرسه خود دارم. یکی از شاخص های من وضعیت تحصیلی دانش آموزان (درصد قبولی/شکست) است. داده های موجود برای برنامه درسی جدید فقط برای یک سال است، در حالی که من داده های پنج سال گذشته را برای برنامه درسی قدیمی دارم. من قصد داشتم از میانگین های برنامه درسی قدیمی استفاده کنم و سپس آن را با برنامه درسی اخیر مقایسه کنم. چگونه می توانم تعیین کنم که آیا تغییرات محاسبه شده از نظر آماری معنی دار هستند؟ | مقایسه دو مجموعه داده |
41006 | اگر این سوال احمقانه است، ساده لوحی من را ببخشید، اما من در R جدید هستم. سعی می کنم یک رگرسیون لاجیت مرتب انجام دهم. من این مدل را به همین صورت اجرا می کنم (فقط یک مدل کوچک احمقانه که تعداد شرکت ها را در یک بازار بر اساس معیارهای درآمد و جمعیت تخمین می زند). سوال من در مورد پیش بینی است. nfirm.opr<-polr(y~pop0+inc0, Hess = TRUE) pr_out<-predict(nfirm.opr) وقتی پیش بینی را اجرا می کنم (که می خواهم از آن برای بدست آوردن y پیش بینی شده استفاده کنم)، خروجی ها 0 هستند ، 3 یا 27، که به هیچ وجه منعکس کننده آن چیزی نیست که باید بر اساس پیش بینی های دستی من از برآورد ضرایب و رهگیری می کند. آیا کسی می داند چگونه پیش بینی های دقیق را برای مدل لاجیت سفارش داده شده من بدست آوریم؟ **ویرایش** برای روشن شدن نگرانی من، داده های پاسخ من مشاهداتی در تمام سطوح دارد > head(table(y)) y 0 1 2 3 4 5 29 21 19 27 15 16، جایی که به نظر می رسد متغیر پیش بینی من در حال جمع شدن است. > head(table(pr_out)) pr_out 0 1 2 3 4 5 117 0 0 114 0 0 | پیش بینی لاجیت مرتب شده در R |
6321 | من دو متغیر دارم و می توانم به عنوان مثال محاسبه کنم. همبستگی پیرسون بین آنها وجود دارد، اما من می خواهم چیزی شبیه به آنچه که یک آزمون t به من می دهد بدانم (یعنی تصوری از میزان معنی دار بودن همبستگی). آیا چنین چیزی وجود دارد؟ | ارزیابی اهمیت همبستگی |
77367 | من این سوال را پیدا کردم و از آنجایی که در حال یادگیری احتمالات هستم، مطمئن نیستم که چگونه آن را انجام دهم: از کارمندان یک شرکت، 30٪ زن و 6٪ زن متاهل هستند. فرض کنید یک کارمند به صورت تصادفی انتخاب شده است. اگر کارمند انتخاب شده زن باشد، احتمال متاهل بودن او چقدر است؟ من این کار را به این صورت انجام داده ام: W W' M 0.018 M' 0.282 p(W)=0.3 p(W')0.7 p(W')=1-p(W)=1-0.3=0.7 p(M و W) =p(W)p(M|W)=0.3x0.06=0.018 p(W and M')=p(W)-p(M and W')= 0.3-0.018=0.282 خوب من در اینجا هستم، چگونه می توانم آن را ادامه دهم؟ آیا می توانم این اعداد را دریافت کنم؟ با تشکر | جدول مشروط، نحوه پر کردن آن |
70271 | من چند سوال مشابه را دیده ام، اما هیچکدام با پاسخ نیستند، بنابراین شاید بتوانم این سوال را به گونه ای بیان کنم که پاسخگو باشد. من یک رگرسیون خطی استاندارد را با یک محدودیت مثبت با استفاده از حداقل مربعات غیرمنفی محاسبه می کنم (در واقع در Matlab 'lsqnonneg'). آیا می توان خطاهای رسمی را از یک مسئله حداقل مربعات غیرمنفی محاسبه کرد و اگر چنین است چگونه این کار را انجام دهیم؟ اگر هیچ شکل تحلیلی از خطاها وجود نداشته باشد، من فکر می کنم فقط می توانم بوت استرپ کنم. برای یک مشکل معمولی از چیزی مانند: mcov = sigma^2*inv(G'*G); که در آن سیگما واریانس داده و G ماتریس سیستم است. اما، این برای مشکل من بسیار نزدیک به مفرد است، و بنابراین mcov منفجر می شود. | خطاهای صوری از حداقل مربعات غیر منفی؟ |
70274 | به نظر می رسد توصیف مقادیر آلفای کرونباخ به صورت زیر نسبتاً معمول است: * α ≥ 0.9 عالی * 0.7 ≤ α < 0.9 خوب * 0.6 ≤ α < 0.7 قابل قبول * 0.5 ≤ α < 0.6 ضعیف * α < 0.5 این مقادیر از کجا می آیند غیر قابل قبول هستند؟ من نمی توانم یک مقاله تحقیقاتی اصلی که اینها را توصیف کند پیدا کنم. ویرایش: من 90٪ مطمئن هستم که صرفاً بر اساس قرارداد است و هیچ مقاله تحقیقاتی کلاسیکی وجود ندارد که این موارد را بیان کند. | توصیف کننده های مقادیر آلفای کرونباخ از کجا می آیند (به عنوان مثال، ضعیف، عالی)؟ |
59715 | با توجه به آزمون فرضیه ها، تخمین اندازه نمونه ها از طریق توان انجام می شود و شهودی است که افزایش همان اندازه، دقت اثرات برآورد شده را افزایش می دهد. اما در مورد پیشبینی برای طبقهبندی و رگرسیون چطور؟ چه جنبه هایی از مسئله پیش بینی تحت تأثیر حجم نمونه غیر از تخمین خطای تعمیم یا RMSE برای رگرسیون است. در مجموع، ویژگی هایی که در تنظیم فرضیه-آزمایش به قدرت کمک می کنند با آنهایی که پیش بینی موفقیت آمیز را از طریق رگرسیون جریمه شده / داده کاوی / مدل سازی الگوریتمی امکان پذیر می کنند، متفاوت است. اندازه نمونه چگونه بر موفقیت این تکنیک ها تأثیر می گذارد؟ یکی از مقاله هایی که این ایده را توصیف می کند، همین مقاله است. آیا کسی می تواند برای نظرات خود مرجع ارائه دهد؟ با تشکر | حجم نمونه با توجه به پیش بینی در طبقه بندی و رگرسیون |
80921 | ما دادههایی از 600000 کاربر داریم که توضیح میدهد آیا هر یک از 80+ ویژگی باینری را مشاهده میکنند یا خیر. یعنی داده های ما یک ماتریس باینری 600000 x 80 با نمایه کاربر است. ما از بازرسی می دانیم که برخی از ویژگی ها همبستگی مثبت و منفی دارند. برخی از ویژگی های مثبت/منفی برخی دیگر را حذف می کند. اکثر کاربران کمتر از 10 ویژگی مثبت در پروفایل خود دارند. ما میخواهیم مشخصات کاربران جدید را با پرسیدن حداقل مجموعه سوالات از 80+ بالقوه با توجه به دادههای قبلی، بازیابی کنیم. ایده این است که مجموعه کوچکی از سوالات (5-10) به کاربران جدید ارائه شود. آنها باید حداکثر مقدار اطلاعات را ارائه کنند تا تعداد سؤالات بعدی قابل قبول کاهش یابد. پس از اینکه کاربر به اولین مجموعه سوالات پاسخ داد، میخواهیم مجموعه بعدی را بپرسیم که مجدداً تعداد سؤالات بعدی را سریعتر کاهش میدهد. در نظر گرفتن پاسخ های مثبت و منفی منطقی به نظر می رسد. لطفاً راهنمایی هایی در مورد نحوه پیاده سازی این مدل به من بدهید؟ ما می خواهیم: * روشی برای اندازه گیری توزیع تعداد مورد انتظار سوالات داده شده به هر کاربر. * روشی برای تنظیم تعداد سوالات اولیه ارائه شده است. * مدل باید از قبل پردازش شده باشد تا بتواند سریع به ورودی کاربر واکنش نشان دهد. * در صورت امکان، رابطه بین سوالات را تجسم کنید. * در صورت امکان، بتوانید تعداد سؤالات مورد انتظار را کنترل کنید (من حدس می زنم با کنار گذاشتن همبستگی های کم). * در صورت امکان، مدل را به صورت تدریجی با استفاده از پاسخ دهندگان جدید به روز کنید (نه حیاتی) ما قصد داریم نمونه اولیه را در پایتون و سپس در .Net پیاده سازی کنیم، اما هر نکته/کد دیگری مورد استقبال قرار خواهد گرفت. | به حداقل رساندن تعداد سوالات پرسشنامه از پاسخ های دودویی گذشته |
70275 | وقتی این همه هشدار می دهد، در واقع به چه معناست؟ آیا اعتبار مدل های پیش بینی تصادفی مشکلی دارد؟ من یک پیشبینی تصادفی از یک جمعیت کوچک با تقریباً انجام میدهم. 50000 نفر من از فواصل سنی یک ساله 0-90+ استفاده می کنم. از آنجایی که مجموعه داده بسیار کوچک است، من نرخ مرگ و میر را از جمعیتی قرض میگیرم که از نظر امید به زندگی مشابه هستند. نرخ باروری با 0 با 1/10000 جایگزین می شود. مهاجرت های خالص با تابع netmigration در بسته دموگرافی محاسبه می شود. سپس از تابع pop.sim برای شبیه سازی مثلا 1000 مسیر نمونه از جمعیت 40 سال آینده استفاده می کنم. هنگام انجام این کار با set.seed(505) و N=1000، هیچ هشداری دریافت نمی کنم. اما تقریباً تمام مقادیر دیگر در set.seed و یا N=1000 پیام های هشدار دهنده را به من می دهند: NAs تولید شده است. برای مثال وقتی کد من set.seed(300) sim300 <- pop.sim(mort=mort.fcast, fert=fert.fcast, mig=mig.fcast, firstyearpop=mort.fo,N=300, mfratio=mfratio است. , bootstrap=FALSE) ده پیام اول به این صورت است: پیام های هشدار: 1: در rpois(rep(1, طول (fert$ سن))، lambda): NAهای تولید شده 2: در rbinom(1, B, mfratio/(1 + mfratio)) : NAهای تولید شده 3: در rpois(1, Ef0 * mort.sim$female[1, j، i]): NAهای تولید شده 4: در rpois(1، Em0 * mort.sim$male[1، j، i]): NAهای تولید شده 5: در rpois(rep(1, p), Ef * mort.sim$female[, j, i]) : NAهای تولید شده 6: در rpois(rep(1, p), Em * mort.sim$male [, j, i]): NAهای تولید شده 7: در rpois(1, Ef0 * mort.sim$female[1, j, i]) : NAهای تولید شده 8: در rpois(1، Em0 * mort.sim$male[1, j, i]): NAهای تولید شده 9: در rpois(rep(1, p)، Ef * mort.sim$female[, j, i] ) : NAهای تولید شده 10: در rpois(rep(1, p), Em * mort.sim$male[, j, i]): NAهای تولید شده چگونه اینها را تفسیر کنم پیام ها؟ آیا این نشان میدهد که چیزی در دادهها، مدلها، روشهای پیشبینی یا شبیهسازی اشتباه است؟ اولین حدس من این است که در پیام شماره. 1، یک مقدار منفی به lambda اختصاص داده شده است؟، اگر چنین است، آیا راهی برای جلوگیری از آن وجود دارد؟ مهم ترین سوال این است که آیا این NAهای تولید شده نشانگر اعتبار مدل ها و یا پیش بینی جمعیت است؟ آیا کسی آنجا هست که بتواند چیزی در مورد آنچه اینجا می گذرد بگوید؟ | دلیل دریافت این همه هشدار: تولید NA هنگام استفاده از تابع pop.sim در بسته دموگرافی چیست؟ |
44185 | 1) من می خواهم عملکرد KNN و SVM را در نمودار ROC مقایسه کنم. الف) برای KNN، من یک خط خطی در نمودار ROC به جای یک منحنی به دست آوردم. از x=0 تا x=0.275، y=0.65 و از x=0.35 تا x=0.95، y = 1.0. ب) برای SVM، منحنی ROC به طور معمول رفتار می کند. x=0، y=0 و در x=0.95، y=0.98. کدام یک از این دو مدل بهتر است؟ | مقایسه KNN با SVM در نمودار ROC |
81240 | به نظر میرسد ESL فصل 2.4 رگرسیون خطی را به عنوان «مبتنی بر مدل» طبقهبندی میکند، زیرا $f(x) \تقریبا x\cdot\beta$ را فرض میکند، در حالی که هیچ تقریبی مشابه برای k-نزدیکترین همسایهها بیان نشده است. اما آیا هر دو روش در مورد $f(x)$ مفروضاتی ایجاد نمی کنند؟ بعداً در 2.4 حتی میگوید: > * حداقل مربعات فرض میکند $f(x)$ به خوبی با یک تابع خطی سراسری تقریب میشود. > * k-نزدیکترین همسایه فرض می کند $f(x)$ با یک تابع ثابت محلی به خوبی تقریب می شود. > فرض KNN به نظر میرسد که میتواند رسمیت یابد (اگرچه مطمئن نیستم که آیا انجام این کار به الگوریتم KNN منجر میشود، همانطور که با فرض خطی بودن $f$ منجر به رگرسیون خطی میشود). بنابراین اگر KNN واقعاً مبتنی بر مدل نیست، چرا؟ یا من ESL را اشتباه می خوانم؟ | چرا KNN مدل محور نیست؟ |
84209 | من یک آیتم پرسشنامه دارم (N=6572) که برای آن: 5064 (77.1%) آزمودنی **به سوال پاسخ دادند** و 1508 (22.9%) آزمودنی **به سوال پاسخ ندادند**. اگر **نسبت آزمودنیهایی که پاسخ دادند=نسبت آزمودنیهایی که پاسخ ندادند، از چه آزمون آماری استفاده کنم؟** من یک آزمون z نمونه برای نسبتها فکر میکنم. لطفا راهنمایی کنید. | آزمون آماری برای تست نسبت های مساوی |
6329 | من از توابع ets() و auto.arima() از بسته پیش بینی برای پیش بینی تعداد زیادی سری زمانی تک متغیره استفاده کرده ام. من از تابع زیر برای انتخاب بین 2 روش استفاده میکردم، اما نمیدانستم که CrossValidated ایدههای بهتر (یا کمتر سادهلوحانه) برای پیشبینی خودکار دارد یا خیر. auto.ts <- function(x,ic=aic) { XP=ets(x, ic=ic) AR=auto.arima(x, ic=ic) if (get(ic,AR)<get(ic ,XP)) { model<-AR } else { model<-XP } model } /edit: در مورد این تابع چطور؟ auto.ts <- function(x,ic=aic,holdout=0) { S<-start(x)[1]+(start(x)[2]-1)/frequency(x) #Convert YM بردار به سال اعشاری E<-end(x)[1]+(پایان(x)[2]-1)/frequency(x) holdout<-holdout/frequency(x) #تبدیل توقف در ماه به اعشاری fitperiod<-window(x,S,E-holdout) #Determine fit window if (holdout==0) { testperiod<-fitperiod } else { testperiod<-window(x,E-holdout+1/frequency(x ),E) #تعیین پنجره تست } XP=ets(fitperiod, ic=ic) AR=auto.arima(fitperiod, ic=ic) اگر (Holdout==0) { AR_acc<-accuracy(AR) XP_acc<-accuracy(XP) } other {AR_acc<-accuracy(forecast(AR,holdout*frequency(x)), testperiod) XP_acc<-accuracy(forecast( XP, Holdout*frequency(x)) Testperiod) } if (AR_acc[3]<XP_acc[3]) { #Use MAE model<-AR } else { model<-XP } model } «Holdout» تعداد دورههایی است که میخواهید به عنوان آزمون خارج از نمونه استفاده کنید. سپس تابع یک پنجره مناسب و یک پنجره تست را بر اساس این پارامتر محاسبه می کند. سپس توابع auto.arima و ets را در پنجره fit اجرا میکند و در پنجره آزمایشی را انتخاب میکند که دارای کمترین MAE باشد. اگر Holdout برابر با 0 باشد، تناسب درون نمونه را آزمایش می کند. آیا راهی برای به روز رسانی خودکار مدل انتخابی با مجموعه داده کامل، پس از انتخاب وجود دارد؟ | ترکیب auto.arima() و ets() از بسته پیش بینی |
10117 | اگر تاپیک دیگری در حال حاضر وجود دارد که به این سوال پاسخ دهد، صمیمانه عذرخواهی می کنم. من به قدری از لیگ خودم خارج شده ام که حتی نمی دانم چه کلمات کلیدی را جستجو کنم :-). من یک برنامه نویس کامپیوتر هستم و در حالی که پیشینه پایه ای در ریاضیات دارم، آمار هرگز واقعاً فنجان چای من نبود. من در حال حاضر در یک مدرسه کار میکنم و بهتازگی ایجاد مجموعهای از ابزارها را برای کمک به جمعآوری و تجزیه و تحلیل خودکار دادهها در مورد رفتارهای دانشآموزانمان به پایان رساندم (این مدرسه برای کودکان اوتیسم و سایر ناتوانیها است). بنابراین، ما دادههای چند سالی برای مواردی مانند: با توجه به بیلی، تعداد دفعات پرخاشگری، رفتارهای آسیبرسان به خود، سقوط و غیره داشتهایم. احتمالاً 6 تا 10 ورودی (من فکر میکنم این عبارت صحیح است) در هر دانشجو در آینده نیز موارد بیشتری را اضافه خواهیم کرد. ** چیزی که من در مورد آن کنجکاو هستم این است: ** آیا هیچ آموزش ابتدایی وجود دارد که ممکن است کارهای جالبی را برای انجام این داده ها به من نشان دهد (علاوه بر ترسیم نمودار؟) برای مثال، جالب است که بتوانم پیش بینی کنید چه زمانی بیلی احتمالاً یک رشته پرخاشگری طولانی خواهد داشت، با توجه به اینکه این «x» دیگر عوامل اخیراً افزایش یافته اند. یا، روند رو به افزایشی از این رفتار وجود دارد که با مقادیر قبلی خود فاصله زیادی دارد، که باید یک پرچم قرمز بزرگ را بلند کند. من برخی از گوگلهای اولیه را انجام میدهم و به نظر میرسد این در حوزه «دادهکاوی آماری» است - برخی آموزشهای مختصر در سایت اندرو مور یافت شد، اما اینها به اندازه کافی دقیق نیستند که بتوانم واقعاً چیزی یاد بگیرم. من متوجه شدم که این شبیه به کسی است که وارد Stack Overflow می شود و می گوید هی، به من بگو چگونه فیس بوک بعدی را بنویسم. بنابراین، اگر اینها چیزهایی هستند که من فقط با سالها و سالها تجربه آماری می توانم انجام دهم، فقط به من اطلاع دهید و من در راه هستم. با این حال، من همچنین میدانم که در حالی که کسی نمیتواند چند هفته دیگر وارد SO شود و فیسبوک بعدی را بنویسد، ما احتمالاً میتوانیم او را در جهت درست راهنمایی کنیم تا یک سایت اساسی برای تجارت پدرش ایجاد کند، حتی اگر این سایت زیبا باشد. سایت پایه به همین ترتیب، من به دنبال ایجاد یک هوش مصنوعی نابغه نیستم که بتواند رفتار دانش آموزان را تا میلی ثانیه پیش بینی کند. در عوض، من فقط کنجکاو هستم که آیا میوهای وجود دارد که مردی مثل من بتواند در چند هفته یا چند ماه مطالعه دقیق آن را بیاورد که ممکن است برای استفادههای جالبی از این دادههای جدیدی که قفل آن را باز کردهایم استفاده کند. **من برای آموزش های آنلاین، کتاب ها، کتاب های درسی، فیلم ها، برنامه ها و کتابخانه های متن باز و غیره آماده هستم.** | مبتدی برای پیش بینی/آمار: از کجا شروع کنم؟ |
70272 | من سعی می کنم یک طرح خودکار برای اشیاء mer در همان مسیری که مثال autoplot.lm ایجاد می کنم. من می توانم چارچوب داده اصلی، باقیمانده ها و پیش بینی کننده های خطی را مستقیماً از شی برگشتی استخراج کنم... > مدل تصادفی <- lmer(a ~ b + c + (1 | d)، داده = مثال، خانواده = دو جمله ای > تشخیص <- cbind(random.model@frame، random.model@eta، random.model@resid) ... و بعد از خواندن یک پیشنهاد در اینجا می توانم Cooks را محاسبه کنم فاصله با استفاده از بسته influence.ME... > library(influence.ME) > آشپزها <- cooks.distance(influence.ME::influence(random.model)) > تشخیصی <- cbind(diagnostics, cooks) ... و در جاهای دیگر (با عرض پوزش نمی توانم پیوند را پیدا کنم) دریافتم که می توانم باقیمانده های استاندارد شده را با استفاده از بسته HLMdiag استخراج کنم... > library(HLMdiag) > stdresid <- HLMresid(random.model, level = 1, standardize = TRUE) > diagnostics <- cbind(diagnostics, stdresid) اما من با مشکلی مواجه شدم زیرا مثال autoplot تابع 'fortify()' ggplot2 را برای محاسبه اینها فراخوانی می کند و دو اندازه گیری اضافی، سیگما، تخمین SD باقیمانده زمانی که مشاهدات مربوطه از مدل حذف می شود و کلاه، مورب ماتریس کلاه. با مطالعه اطراف فکر کردم که تابع 'hatTrace()' بخشی از راه حل است، اما پست هایی در R-help یافتم که نشان می دهد از بسته lme4 حذف شده است. آیا کسی می تواند در مورد نحوه محاسبه بردار سیگما و کلاه راهنمایی کند؟ یا اگر کسی راه حل های کنسرو شده ای برای نمودارهای تشخیصی برای lme4 دارد که می تواند مفید باشد. | lme4 - استخراج مورب ماتریس کلاه |
21799 | من باید شباهت بین یک سند مرجع و مجموعه ای از اسناد را در یک مخزن پیدا کنم. در اینجا روش من است: 1. من عبارت ماتریس سند را برای همه اسناد از جمله سند مرجع پیدا می کنم. 2. svd برای این ماتریس محاسبه می شود. 3. آرایه v را می گیرم (نتیجه سوم). 4. من این ماتریس را جابجا می کنم تا هر ردیف نشان دهنده یک سند باشد. 5. ردیف اول نشان دهنده سند مرجع است. 6. شباهت کسینوس بین این ردیف و بقیه سطرها را پیدا کردم. تردیدهای من: 1. از آنجایی که من حدود 7 سند در پایگاه داده خود دارم، فقط یک آرایه `v` 8x8 (ماتریس سند) دریافت می کنم. بنابراین اگر شباهت کسینوس را تنها با این 8 مقدار پیدا کنم، نتیجه درستی میگیرم؟ 2. آیا چنین روشی به طور کلی اتخاذ می شود؟ | یافتن شباهت بین یک مرجع و چند سند کاری |
44186 | اگر مجموعه آموزشی مجموعهای از $n$-tuples، با برچسبهای گسسته باشد، میتوان به طور استاندارد از رگرسیون لجستیک چندجملهای (softmax) استفاده کرد، اما اگر برچسبهای هدف جفتهایی از مقادیر گسسته باشند، یا به طور کلی، یک $m$- باشند. چند عدد از مقادیر گسسته؟ آیا روشی وجود دارد که بتوانم از آن استفاده کنم، یا آیا می توانم برای هر بعد هدف، طبقه بندی رگرسیون softmax $m$ جداگانه انجام دهم؟ | روش مورد استفاده در طبقه بندی آماری هنگام برخورد با برچسب های هدف گسسته چند بعدی چیست؟ |
44181 | من در حال تلاش برای محاسبه رتبه اعتبار برای ایمیل های بالقوه مخرب هستم. اساساً سیستمی که در آن چندین نفر یک ایمیل مشکوک را مشاهده می کنند و به آن یک امتیاز سوء نیت اختصاص می دهند. ایده این است که ایمیلهایی که ارزیابها به طور قابل اعتماد آن را مخرب ارزیابی میکنند، آن را پرچمگذاری کنند و کارهایی را برای آن انجام دهند (رد کردن، علامتگذاری برای بررسی و غیره) و غیره، اما همه اینها به ارزیابهای یکسانی برای رتبهبندی چند نمونه نیاز دارند (که در سناریوی من اتفاق نمیافتد - فقط تعداد زیادی نمونه توسط تعداد زیادی از کاربران انتخاب شده بهطور تصادفی رتبهبندی میشوند). آیا کسی می تواند چیزی برای امتحان کردن پیشنهاد دهد؟ (و/یا اگر کاملاً اشتباه متوجه شدهام به من اطلاع دهید!) با توجه به بررسی، فکر میکنم باید بیشتر توضیح دهم: هدف این است که میزان توافق را در میان نمونه تصادفی رتبهدهندگان برای **هر ایمیل** تعیین کنیم. با این اطلاعات، میتوانیم یک اقدام را برای هر ایمیل خودکار کنیم: به عنوان مثال. اگر اتفاق نظر وجود دارد که ایمیل بد/خوب است، نادیده بگیرید/اجازه دهید. اگر اختلاف نظر قابل توجهی وجود دارد، قرنطینه کنید. هرگونه علاقه به اینکه آیا کل سیستم رتبهدهندگان بهطور تصادفی انتخابشده + ایمیلهای انتخابشده بهطور تصادفی قابل اعتماد هستند یا نه، بیشتر یک موضوع فرعی است. آیا این چیزی را تغییر می دهد؟ | چگونه می توان قابلیت اطمینان بین ارزیاب را فقط برای یک نمونه محاسبه کرد؟ |
1651 | من باید $Y_{ij} \sim NegBin(m_{ij},k)$، یعنی یک توزیع دوجملهای منفی را برای شمارش دادهها برازش کنم. با این حال، دادههایی که من مشاهده کردهام سانسور شدهاند - من ارزش $y_{ij}$ را میدانم، اما میتواند بیشتر از این مقدار باشد. احتمال گزارش \begin{معادله} ll = \sum_{i=1}^n w_i است (c_i \log(P(Y_{ij}=y_{ij}|X_{ij})) + (1- c_i ) \log(1- \sum_{k=1}^32 P(Y_{ij} = k|X_{ij}))) \end{معادله} که در آن $X_{ij}$ نشان دهنده ماتریس طراحی (با متغیرهای مورد نظر)، $w_i$ وزن هر مشاهده، $y_{ij}$ متغیر پاسخ و $P(Y_{ij}=y_{ij}|X_{ij} است. )$ توزیع دوجمله ای منفی است که در آن $m_{ij}=exp(X_{ij} \beta)$ و $\alpha$ پارامتر پراکندگی بیش از حد است. آیا کسی پکیج R برای رفع این مشکل می شناسد؟ | چگونه یک توزیع دوجمله ای منفی را در R در حالی که شامل سانسور می شود برازش دهیم |
84205 | یادداشتهای کلاس من مراحل زیر را برای محاسبه یک plim تحت خطاهای کلاسیک در متغیرها فهرست میکنند: $$ {\rm plim}\ \beta_1 = \frac{{\rm cov}(\beta_0 + \beta_1 x_1 + \epsilon - \beta_1 e , x_1)}{{\rm var}(x_1)}=\frac{\beta_1 {\rm var}(x_1) - \beta_1 {\rm cov}(x_1, e)}{{\rm var}(x_1)}... $$ سادهسازی در شمارهگر چگونه انجام شد؟ | محاسبه حد احتمال |
10111 | من می خواهم مقدار p ANOVA دو طرفه خود را محاسبه کنم. امتیازی که من برای شناسایی نمونه های قابل توجه استفاده می کنم، امتیاز eta است که به صورت SS (بین) / SS (کل) محاسبه می شود. در بسیاری از سایت ها دیدم که F=Var(بین)/Var(در داخل). می خواهم بدانم آیا می توانم امتیاز eta را به عنوان مقدار آماره F در نظر بگیرم و سپس مقدار p را محاسبه کنم؟ اگر بخواهم p-value را برای امتیازهای دیگر مانند eta-partial یا omega محاسبه کنم؟ آیا معنی دار است که من مقدار p را برای آنها محاسبه کنم؟ یا فقط برای نسبت Var(بین)/Var(درون) معنی دارد؟ چه فرقی می کند که به جای Var از SS(بین)/SS(در داخل) استفاده کنم؟ فرمولی که من برای محاسبه p-value استفاده می کنم این است: pvalue=-log10(betai(0.5 * df2, 0.5* df1, df2 / (df2 + df1 * eta))); بر اساس کتاب _دستورالعمل های عددی در C_ که df1 و df2 درجه آزادی هستند. با تشکر از کمک شما. | محاسبه مقدار p برای یک ANOVA دو طرفه |
103588 | سپس دو طبقهبندیکننده بر روی یک مجموعه داده مورد ارزیابی قرار میگیرند، آزمون مکنمار میتواند برای مقایسه صحت طبقهبندی کلی آنها استفاده شود و بگوید که آیا تفاوت بین آنها قابل توجه است یا خیر. اما اگر بخواهیم آنها را به طور جداگانه در خطاهای نوع I و نوع II مقایسه کنیم و تفاوت را در دقت و یادآوری کمی محاسبه کنیم، چه؟ به نظر می رسد که آزمون مک نمار به دلیل تصادفی بودن مخرج نمی تواند حداقل برای دقت مورد استفاده قرار گیرد. آزمون های آماری مناسب برای این مورد کدامند؟ | چگونه دقت و فراخوانی دو طبقهبندی کننده را در یک مجموعه داده مقایسه کنیم؟ |
10110 | 100 دوره از یک سیگنال تناوبی 3 بعدی جمع آوری شده است. طول موج کمی متفاوت است. نویز طول موج از توزیع گاوسی با میانگین صفر تبعیت می کند. تخمین خوبی از طول موج مشخص است، که در اینجا موضوعی نیست. نویز دامنه ممکن است گاوسی نباشد و ممکن است به نقاط پرت آلوده باشد. ** چگونه می توانم یک دوره واحد را محاسبه کنم که بهترین تمام 100 دوره جمع آوری شده را تقریب می کند؟** من نمی دانم مدل های سری زمانی چگونه کار می کنند. آیا آنها برای طول موج های مختلف آماده هستند؟ آیا آنها می توانند سیگنال های واقعی غیر هموار را کنترل کنند؟ اگر یک مدل سری زمانی برازش شود، آیا می توانم «بهترین تخمین» را برای یک دوره واحد محاسبه کنم؟ چگونه؟ یک سوال مرتبط این است. سرعت در مورد من مسئله ای نیست. پس از جمع آوری تمام دوره ها، پردازش به صورت آفلاین انجام می شود. **منشأ مشکل:** من شتاب گامهای انسان را در 200 هرتز اندازهگیری میکنم. پس از آن من سعی می کنم داده ها را دو برابر کنم تا جابجایی عمودی مرکز ثقل را بدست بیاورم. البته وقتی دو بار ادغام میشوید، نویز یک خطای بزرگ ایجاد میکند. من می خواهم از تناوب برای کاهش این سر و صدا استفاده کنم. در اینجا یک نمودار خام از داده های واقعی (y: شتاب در g، x: زمان در ثانیه) از 6 مرحله مربوط به 3 دوره است (1 مرحله چپ و 1 گام راست یک نقطه است):  علاقه من اکنون کاملاً نظری است، زیرا http://jap.physiology.org/content/39/1/174.abstract دستور العمل بسیار خوبی ارائه می دهد که چه باید کرد. به تناوب نمی پردازد. **توجه:** من این سوال را در stackoverflow پرسیده ام اما به نظر می رسد خارج از موضوع باشد. | چگونه از تناوب برای کاهش نویز سیگنال استفاده کنیم؟ |
84207 | در یک نمودار، میخواهم بارگذاری اجزای اصلی یک آیتم را بر اساس رنگ نشان دهم. ایده این است که بارگذاری های آیتم را روی سه جزء اصلی (به عنوان مثال، سه جزء اول) روی مقادیر RGB ترسیم کنیم. آیتم های مورد نظر را می توان با بردارهای واحد 20 بعدی نشان داد (در مورد خاص که انگیزه این سوال است، آیتم ها توالی پروتئین هستند و من در حال تجزیه و تحلیل ترکیب اسید آمینه آنها هستم). اجزای اصلی از تجزیه ویژه ماتریس همبستگی این بردارها برای تعداد زیادی از آیتم ها به دست می آیند. می توان نگاشتهای ساده ای مانند: بردارهای ویژه = $n \times n$ ماتریس $\mathbf{T}$، هدف $n \times 1$ بردار = $\mathbf{v}$، طرح $\mathbf{p} = \ mathbf{v}'\mathbf{T}$، سه بار اول طرح ریزی $\mathbf{n} = \mathbf{p_{i \in 1\dots 3}}$، و بردار مقادیر RGB بین 0 و 1 که از $(\mathbf{n/||n||}+[1\quad1\quad1]' به دست آمده است )/2$ (که ابتدا $\mathbf{n}$ را عادی میکند، ورودیهای تضمین شده در [-1,1] را به دست میآورد، و سپس نقشهبرداری میکند. [-1،1] ورودی به [0،1] ورودی). این بسیار ساده است و به نظر می رسد کار می کند، اما ممکن است نقاط کور غیر آشکاری داشته باشد. من به ویژه نگران این هستم که آیا عادی سازی های ساده منجر به پوشش ضعیف فضای رنگ و در نتیجه کنتراست ضعیف می شود. هدف اصلی، مانند همه کدهای رنگی، ارائه کنتراست بصری است. آیا راه حل استانداردی برای این مشکل وجود دارد؟ اگر نه، پیشنهاداتی برای بهبود این یکی؟ به روز شده: برنامه در نظر گرفته شده اجازه دادن به رنگ آمیزی خودکار و آموزنده اقلام خارج از یک نمودار پراکنده یا سایر فرمت های کمی است. نمونه ای از چنین قالبی در زیر نشان داده شده است. هر ردیف یک توالی پروتئین است، و هر استوانه رنگی ناحیه ای از پروتئین است که ویژگی های خاصی را به اشتراک می گذارد، با همان رنگی که برای نشان دادن نمونه های تکراری یک نوع منطقه استفاده می شود. محدودیت این است که شباهت ها یا تفاوت های رنگ ها، در این مثال، معنایی ندارند و به دلایل طراحی گرافیکی انتخاب شده اند.  | رنگ آمیزی با بارگذاری جزء اصلی |
41004 | من یک روش خوشهبندی میخواهم که به من اجازه دهد محدودیتهایی را روی حداکثر و حداقل اندازههای خوشه اعمال کنم که میتوانم پیادهسازی کنم. در غیر این صورت پیشنهادهایی برای ترکیبی از تکنیک های موجود که می توانم از آنها برای رسیدن به نتیجه مشابه استفاده کنم، استقبال می شود. | خوشه بندی با اندازه محدودیت |
23281 |  سلام به همه، لطفاً کسی می تواند به من کمک کند؟ من سعی میکنم بدانم آیا رویکرد خوبی در آمارهای مدرن وجود دارد که بتواند این دادهها را بدون تطابق بیش از حد به خوبی منطبق کند. خوب، در اینجا یک طرح دیگر است که من از pch=. استفاده کردم... ممنون که به من اشاره کردید!  این یک 3 بعدی است: دوباره، من می خواهم بتوانم {مثبت، منفی}- بودن z را طبقه بندی کنم. -axis...  | بهترین راه برای جا دادن این داده های عجیب و غریب چیست؟ |
94860 | قدردانی کنید که این یک سوال بسیار آسان است - اما من فقط ماتریسهای گذار مارکوف را با احتمالات مشخص دیدهام، بنابراین کمی با آن مشکل دارم. در یک رژیم ساده 2 حالته، اگر حالت 1 به طور معمول با میانگین 2 و واریانس 1 و هنجار حالت 2 با میانگین 4 و واریانس 36 توزیع شده باشد و احتمال اولیه بودن در حالت 1 برابر 0.75 باشد - چگونه می توانم ماتریس انتقال؟ با تشکر | احتمالات انتقال مارکوف |
84203 | در رابطه با این سوال، اگر من 1500 یا بیشتر نتیجه جکپات از یک قرعه کشی 6/49 داشته باشم (اعداد قرعه کشی شده، تعداد برندگان و جایزه هر برنده جکپات)، چگونه می توانم نشان دهم که برخی از اعداد کمتر از سایرین توسط بازیکنان انتخاب می شوند. ? البته من به توزیع اعداد انتخاب شده مستقیم دسترسی ندارم. به عنوان مثال، این فرضیه را در نظر بگیرید که بازیکنان بیشتر از آنچه که به طور تصادفی انتظار می رود، اعداد مربوط به تاریخ را انتخاب کنند، یعنی از (1-31): من یک همبستگی مثبت بین تعداد اعداد > 31 و جایزه در هر پیدا می کنم. برنده، و همبستگی منفی بین تعداد اعداد <32 و جایزه به ازای هر برنده. همچنین، مجموع اعداد با جایزه به ازای هر برنده همبستگی مثبت دارد و تعداد اعداد > 31 با یک رویداد rollover همبستگی مثبت دارد، زمانی که هیچکس برنده نمیشود. بهترین راه برای نزدیک شدن به این با داده های موجود چیست؟ | احراز عدم تصادفی بودن در انتخاب شماره قرعه کشی |
21790 | اگر اصلاً می توان «برازش» یک مدل رگرسیون خطی ساده در مقابل غیرخطی را با داده های مشاهده شده مقایسه کرد؟ من عذرخواهی می کنم اگر به اندازه کافی طولانی / سخت برای پاسخ جستجو نکردم، اما چیزی مشخص پیدا نکردم. -پاتریک | مقایسه مدل رگرسیون خطی با غیر خطی برای بهترین برازش |
5402 | من شنیده ام که بسیاری از مسائل در آمار ریاضی را می توان بر اساس هندسه سمپلتیک بیان و حل کرد. متأسفانه این یک بیانیه بسیار مبهم بود و من به چیز دقیق تر علاقه مند هستم. همچنین به نظر می رسد برخی از کتاب ها از این دیدگاه نوشته شده است، اما من نتوانستم پیدا کنم. | منابعی برای استفاده از هندسه ترکیبی در آمار؟ |
72625 | مثال کوتاه زیر از تبدیل ها را در نظر بگیرید. بگذارید چگالی مشترک X و Y با مربع واحد داده شود، یعنی $$f_{X,Y}(x,y) = \begin{cases} 1\ \quad 0<x<1\ \text{ و } \ 0<y<1 \\ 0 \quad \text{elsewhere} \end{cases}$$ سپس تابع توزیع تجمعی $Z=X+Y$ داده میشود توسط: $$ F_Z = \begin{cases}\begin{array}{ll} 0\ & \text{ for }\ z<0 \\ \int_0^{z} \int_0^{z-x} dy\,dx\ & \text{ for }\ 0\leq z <1 \\1-\int_{z-1}^1 \int_{z-x}^1 dy\,dx\ & \text{ برای }\ 1\leq z<2 \\1\ & \text{ for }\ 2\leq{z} \end{array}\end{cases} $$ میدانم چرا باید CDF خود را پارتیشن بندی کنیم، من چیستم مشکل در فهمیدن این است که چرا برای بازه $[1،2)$ آن فرم خاص است. شهود در اینجا چیست؟ با تشکر | تبدیل (تکنیک CDF) |
40356 | من ریاضیدان نیستم و باید ثابت کنم که این قضیه چه می گوید. فکر میکنم آسان است و میدانم چگونه کار میکند، اما قطعاً آنقدر سختگیر نیستم که بتوانم نمایشی ارائه دهم. کسی میتونه کمکم کنه؟ من آن را اعلام میکنم: اگر آمار آزمون دارای توزیع پیوسته باشد، در زیر H0: θ = θ0، p-value دارای توزیع یکنواخت[0، 1] است. بنابراین، اگر زمانی که مقدار p کمتر از α باشد، H0 را رد کنیم، احتمال خطای نوع I α است. * بنابراین، وقتی H0 درست است، مقدار p مانند یک قرعه کشی تصادفی از یک Uniform است[0, 1]. * از طرف دیگر، اگر H0 درست نباشد، توزیع مقدار p به 0 نزدیکتر خواهد شد. اما تست قدرت پایینی دارد * مقدار p را با P(H0 | داده) اشتباه نگیرید. مقدار p احتمال درستی فرضیه صفر نیست. خیلی ممنون! | این قضیه را در رابطه با تست های مشخصات ثابت کنید |
46610 | مزایای مشخص کردن ساختار کوواریانس در GLM (به جای صفر در نظر گرفتن تمام ورودیهای خارج از مورب در ماتریس کوواریانس) چیست؟ جدا از انعکاس آنچه که فرد از داده ها می داند، آیا 1. تناسب را بهبود می بخشد؟ 2. بهبود دقت پیش بینی در داده های نگهداری شده؟ 3. به ما اجازه می دهد تا میزان کوواریانس را تخمین بزنیم؟ هزینه های تحمیل ساختار کوواریانس چیست؟ آیا 1. پیچیدگی های محاسباتی را برای الگوریتم های تخمین اضافه می کند؟ 2. افزایش تعداد پارامترهای برآورد شده، همچنین افزایش AIC، BIC، DIC؟ آیا می توان ساختار کوواریانس مناسب را به صورت تجربی تعیین کرد یا این چیزی است که به دانش شما از فرآیند تولید داده بستگی دارد؟ هر گونه هزینه / مزیتی که ذکر نکردم؟ | تعیین ساختار کوواریانس: جوانب مثبت و منفی |
94869 | من سعی می کنم در مورد میانگین گیری مدل بیزی با استفاده از رگرسیون لجستیک بیزی بیاموزم (Genkin, A., Lewis, D. D., & Madigan, D. (2007). رگرسیون لجستیک بیزی در مقیاس بزرگ برای طبقه بندی متن. Technometrics, 49(3), 291 -304.)، همانطور که در ابزار داده کاوی Weka یافت می شود. من دو سوال دارم - 1. روش هایی که در آن مدل ها با استفاده از رگرسیون لجستیک بیزی تولید می شوند چیست؟ (آیا زیرمجموعههای متغیرهای پیشبینیکننده در یک زمان استفاده میشوند؟ آیا فراپارامترهای قبلی برای هر مدل تغییر میکنند؟) 2. احتمال بعدی مدل (وزن برای میانگینگیری مدل) چقدر است؟ آیا احتمال داده ها و پارامترهای رگرسیون لجستیک است؟ یا، آیا با روش های نظری اطلاعات مانند AIC/BIC محاسبه می شود (من با این ناآشنا هستم)؟ متشکرم. | احتمال عقبی داده های مدل مورد استفاده برای میانگین گیری مدل با رگرسیون لجستیک بیزی چقدر است؟ |
40354 | من با مجموعه بزرگی از دادههای شتابسنج کار میکنم که با سنسورهای متعددی که توسط افراد زیادی استفاده میشود جمعآوری شده است. متأسفانه، به نظر می رسد که هیچ کس در اینجا مشخصات فنی دستگاه ها را نمی داند و فکر نمی کنم آنها تا به حال کالیبره شده باشند. من اطلاعات زیادی در مورد دستگاه ها ندارم. من دارم روی پایان نامه کارشناسی ارشدم کار می کنم، شتاب سنج ها از دانشگاه دیگری به امانت گرفته شده بود و در مجموع وضعیت کمی غیر شفاف بود. بنابراین، در حال پیش پردازش روی دستگاه؟ هیچ سرنخی. چیزی که من می دانم این است که آنها شتاب سنج های سه محوری با نرخ نمونه برداری 20 هرتز هستند. دیجیتال و احتمالا MEMS. من به رفتار غیرکلامی و ژست دادن علاقه دارم که طبق منابع من بیشتر باید فعالیتی در محدوده 0.3-3.5Hz ایجاد کند. ** عادی سازی ** داده ها کاملاً ضروری به نظر می رسد، اما مطمئن نیستم از چه چیزی استفاده کنم. بخش بسیار بزرگی از داده ها به مقادیر باقی مانده نزدیک است (مقادیر خام ~ 1000، از گرانش)، اما برخی افراط ها مانند تا 8000 در برخی از گزارش ها یا حتی 29000 در برخی دیگر وجود دارد. **تصویر زیر را ببینید**. من فکر می کنم این باعث می شود که تقسیم بر max یا stdev برای عادی سازی ایده بدی باشد. **رویکرد معمول در چنین موردی چیست؟** تقسیم بر میانه؟ یک مقدار صدک؟ چیز دیگری؟ به عنوان یک مسئله جانبی، من همچنین مطمئن نیستم که آیا باید مقادیر شدید را کلیپ کنم یا نه. **ویرایش**: در اینجا نموداری از حدود 16 دقیقه داده (20000 نمونه) آورده شده است تا به شما ایده ای درباره نحوه توزیع داده ها ارائه دهد.  | چگونه باید داده های حسگر شتاب سنج خود را عادی کنم؟ |
28004 | من یک سری مُهر زمانی دارم و میخواهم بدانم حداکثر نرخ ساعتی رویدادی که این مهرهای زمانی نشان میدهند چقدر است. می توانید این را به هر واحدی تعمیم دهید. من به دنبال یک پنجره (فاصله) با اندازه معینی هستم که حاوی بیشتر این مقادیر باشد. رویکرد واضح این است که مجموعه را بر این بازه تقسیم کنیم و سپس مجموعه ای را انتخاب کنیم که بیشترین مقدار را دارد. با این حال، این نادقیق است، به خصوص اگر اوج نزدیک به محدوده فاصله باشد. آیا راه حل بهتری وجود دارد؟ | چگونه یک نرخ اوج را در سری های زمانی پیدا می کنید؟ |
79916 | من از طبقه بندی SVM (Matlab) در کارهای تحقیقاتی خود استفاده می کنم و می خواهم بدانم: 1. مزایا و معایب هر الگوریتم آموزشی، یعنی SMO، LS و QP. 2. به طور کلی، الگوریتم مناسب چیست؟ 3. اگر انتخاب یکی از آنها می تواند بر عملکرد طبقه بندی تأثیر بگذارد؟ 4. اگر بین انتخاب روش آموزشی (یا الگوریتم) و انتخاب تابع هسته رابطه وجود داشته باشد. | روش آموزش SVM (یا alg.) |
23288 | اخیراً دو AUC همبسته را با روش Delong مقایسه کرده ام. شخصی گفت که از آنجایی که CI همپوشانی دارد، نمی توانیم بگوییم که این دو مدل متفاوت بودند. من می دانم که روش دلونگ AUC را همبسته محاسبه کرده است، اما نمی دانم چگونه به صورت رسمی به سؤال او پاسخ دهم. کسی میتونه کمک کنه؟ | فاصله اطمینان و اهمیت آماری در مقایسه AUC |
28006 | من مقالات ویکیپدیا را در مورد آزمایشهای آماری مختلف میخواندم و سعی میکردم برنامههایی را که آنها را انجام میدهند کدنویسی کنم. با این حال، مقاله در مورد آزمون Kolmogorov-Smirnov برای من مبهم است. آیا کسی می تواند به زبان ساده توضیح دهد که چگونه می توانم برنامه ای بنویسم که لیستی از اعداد واقعی و CDF را می گیرد و مقدار p-value را برای میزان تطابق آنها محاسبه می کند؟ | چگونه برنامه ای بنویسیم که یک بردار و یک CDF بگیرد و تست کولموگروف اسمیرنوف را انجام دهد؟ |
84201 | بگویید که در حال شمارش کوسهها و نهنگها در اقیانوسهای اطلس و هند هستید و میخواهید بررسی کنید که آیا به عنوان مثال، کوسهها اقیانوس اطلس و نهنگها اقیانوس هند را ترجیح میدهند، همانطور که در مثال اینجا توضیح داده شد. اما به جای شمارش کل (مثلاً کوسههایی که در اقیانوس اطلس مشاهده شدهاند)، شمارش را برای روزهای جداگانه نگه میدارید. به عنوان مثال: +--------+------------------------------------ --------+---------+---------+ | | Atlantic1 | آتلانتیک2 | Atlantic3 | هندی1 | هندی2 | هندی3 | +------------------------------------------------- -----+---------+---------+ | نهنگ | 9 | 3 | 11 | 4 | 5 | 6 | | کوسه ها | 2 | 5 | 1 | 10 | 5 | 8 | +------------------------------------------------- -----+---------+---------+شما می توانید وسیله ای را برای تهیه یک جدول احتمالی 2*2 بگیرید و مانند پیوند آزمایش دقیق فیشر ادامه دهید در بالا، اما آیا اطلاعات ارزشمند را حذف نمی کنید در مورد واریانس؟ آیا راهی برای آزمایش ارتباط با استفاده از تمام اطلاعات جدول بالا وجود دارد؟ با تشکر | آزمایش ارتباط بین دو متغیر طبقهبندی، با آزمایشهای مکرر |
44188 | آیا کسی می تواند به من اشاره کند، چه کتاب یا مقاله، جایی که بتوانم تعریف دقیق برآوردگر پراکنده را پیدا کنم؟ با تشکر | برآوردگر پراکنده چیست؟ |
44189 | در آزمایشم متوسط تأخیر عملیات در ثانیه را محاسبه می کنم. من می خواهم N را تعریف کنم، به عنوان مثال: چند بار باید آزمایش خود را اجرا کنم تا یک تاخیر متوسط نزدیک به واقعی را محاسبه کنم؟ من فکر کردم که می توانم CLT را در اینجا اعمال کنم، زیرا اگر همان آزمایش را 1000 بار تکرار کنم و یک هیستوگرام رسم کنم، منحنی توزیع نرمال را دریافت می کنم. آیا قضیه مرکزی در مورد من مفید است؟ در تعاریفی که پیدا کردم، برای اینکه بتوان میانگین تخمینی را با یک خطای خاص محاسبه کرد، باید واریانس را از قبل بدانیم، و من آن را نمی دانم. | قضیه حد مرکزی با واریانس مجهول |
114347 | اگر من تابع همبستگی خودکار خروجی یک سیستم مشاهده شده را داشته باشم، اگر اطلاعاتی در مورد ورودی نداشته باشم، چه ارتباطی با تابع واکنش-پاسخ آن سیستم دارد؟ | تابع تکانه-پاسخ یک سیستم معین چگونه با تابع همبستگی خود ارتباط دارد؟ |
84204 | من روی یک تکلیف رگرسیون با استفاده از SPSS کار می کنم. من نمرات خام، متمرکز و z برای داده ها دارم. من قبلاً DV و IV را پسرفت کردهام و ضرایب غیر استاندارد و استاندارد را در زیر جعبه خروجی ضرایب میبینم. معادله رگرسیون استاندارد من این است: Y'=1727.528X+-6290.967 و معادله رگرسیون غیراستاندارد این است: Y'=.633x چگونه معادله رگرسیون استاندارد و غیر استاندارد را برای هر نمره بنویسم؟ آیا باید کادرهای استاندارد و غیراستاندارد زیر منوی رگرسیون خطی> ذخیره..._را برای هر IV بررسی کنم؟ | اجرای معادله رگرسیون استاندارد/غیراستاندارد در SPSS |
114343 | من دو نمونه با مقدار میانگین $\mu $ و انحراف استاندارد $\sigma $ (توزیع نرمال) دارم. آیا می توانم از آزمون Z برای مقایسه آنها استفاده کنم؟ همچنین اگر من حجم نمونه را نمی دانم؟ اگر پنج نمونه برای مقایسه داشته باشم .. چه کار کنم؟ یک آزمون z برای هر مقایسه:\ یا یک آزمون ANOVA (مثل آزمون t)؟ | تست Z می تواند انتخاب خوبی باشد؟ و z-test برای چند نمونه؟ |
77340 | من میخواهم d کوهن را برای مقایسههای زوجی در ANCOVA یک طرفه (4 گروه) محاسبه کنم. من این را در شبکه پیدا کردم: d-FAMILY MEASURE یک معیار رایج d-family (شاخص اندازه اثر) d کوهن است. مانند روش Oneway ANOVA، اندازه اثر شامل تفاوت میانگین بین کنتراست ها (جفت ها) تقسیم بر متغیر (مخرج) میانگین یا ادغام شده است. ما میتوانیم میانگین تنوع را با گرفتن جذر خطای MS از تحلیل کوواریانس تخمین بزنیم، که تفاوت میانگین را در متریک امتیازهای تعدیل شده استاندارد میکند. به این ترتیب، میتوانیم d کوهن را با فرمول زیر تخمین بزنیم: d = اختلاف 2 میانگین تعدیلشده/ریشه مربع خطای MS. آیا این درست است؟ | کوهن d در یک طرفه ANCOVA |
111648 | من متوجه شدم که یک MA 3x5 (میانگین متحرک) معادل MA 7 ترم است. با این حال، با اعمال همان روی یک سری زمانی مانند زیر، مقادیر دقیق سری زمانی نهایی (در این مورد یک مقدار) را بدست نیاوردم، بلکه تقریباً نزدیک به آن هستم. باعث شد به این فکر کنم که آیا این کار را به درستی انجام داده ام. سری هایی که من در نظر گرفتم این بود: 0.067، 0.133، 0.2، 0.2، 0.2، 0.133، 0.067 آیا کسی می تواند مشخص کند که این دو دقیقا چگونه محاسبه می شوند. رویکرد من: 7-MA: آنها را جمع کنید و بر 7 = 0.1423 تقسیم کنید. 3x5 MA: a. 5-MA را با 0.16، 0.1732، 0.16 b دریافت کنید. 3-MA بالا را به صورت زیر دریافت کنید: 0.1644 (!= 0.1423) آیا آن را به درستی انجام می دهم؟ | سردرگمی متوسط متحرک |
103584 | من یک سوال خیلی ساده دارم. من در حال انجام یک تحلیل فرکانس ساده هستم که در آن به دو سند نگاه می کنم و فراوانی کلمات استفاده شده برتر در هر سند را با هم مقایسه می کنم. من می خواهم مقایسه ای بین دو سند در R انجام دهم، اما مشکل این است که یک سند 10 برابر بیشتر از سند دیگر دارد. بهترین راه برای عادی سازی چیست به طوری که من دو نمودار میله فرکانس در کنار هم داشته باشم که به من امکان می دهد رایج ترین اصطلاحات را با هم مقایسه کنم. امیدوارم منطقی باشد. نیازی به ارائه کد نیست من میتوانم کدی را که فقط میخواهم بدانم چگونه نمودارهای میلهای را ارائه کنم، پیدا کنم. داشتم فکر می کردم (تعداد کلمه x)/(تعداد کل کلمات در سند y). با تشکر | من یک سوال فرکانس متن کاوی آسان دارم |
40352 | این اولین بار است که یک سوال تکلیف واقعی را پست می کنم. معمولا منابع محلی بیشتری مانند ساعات اداری و همتایان دانشجویی دارم، اما این بار در این موارد کمی کوتاهم. من همچنین نیاز به استراحت دارم، اما نمی توانم، بنابراین چرخ هایم را خیلی بیشتر از حد معمول می چرخانم. من یک مدل سلسله مراتبی از دوجملههای مختلف $m$ با اندازههای نمونه متفاوت $m$ دارم که پارامترهای $m$ مختلف $p$ آن توسط توزیع بتا جمعیت کنترل میشوند. البته توزیع بتا یک پیشینی نیز دارد. من آنچه را که فکر میکنم توزیع مشترک خلفی صحیح برای این مدل است ساختم: $$P(p_1, p_2,\dots,p_{m}, \alpha,\beta|\mathbf X)\propto \pi(\alpha, \ بتا)\prod_{i=1}^{m} P(p_i|\alpha، \beta)P(x_i|p_i)$$ $$\propto\pi(\alpha، \beta) \prod_{i=1}^{m}p_i^{x_i+\alpha-1}(1-p_i)^{n_i-x_i+\beta-1} $$ مشکلی که من با آن روبرو هستم این است که اگر بخواهم $$P(\alpha,\beta|\mathbf X)$$ را محاسبه کنم، به نظر می رسد، چون m پارامتر برای حذف دارم، به دنبال آن هستم. در m انتگرال (انتگرال چون بتا پیوسته است). این احتمالاً نمی تواند کاری باشد که از من انتظار می رود مگر اینکه یکی از موارد زیر درست باشد: 1. من قسمت خلفی مفصل را اشتباه گرفتم 2. باید این کار را با نمونه برداری انجام دهم. 3. ترفند ساده تری برای محاسبه ریاضی خلفی حاشیه ای وجود دارد. در این مورد 4. من تصور اشتباهی در مورد اینکه پارامترهای m به حاشیه رانده شده از توزیع جمعیت چقدر است (مثلاً ما فقط یک بار ادغام می کنیم زیرا همه آنها از همان توزیع من نمی توانم ببینم که در آن مورد از پارامترهای p استفاده کنم) | محاسبه یک پسین حاشیه ای یک مدل سلسله مراتبی |
114349 | من در درک اثبات لئو بریمن مبنی بر اینکه خطای تعمیم یک جنگل تصادفی با افزایش تعداد درختان همگرا می شود، مشکل دارم (اینجا پیوندی به مقاله است). در ضمیمه I بیان می کند که: > **اثبات قضیه 1.2**: برای نشان دادن اینکه مجموعه ای از > احتمال صفر C در فضای دنباله $ \Theta_1, \Theta_2, ... $ چنین > که در خارج وجود دارد کافی است از C، برای همه x، $$ \frac{1}{N}\sum_{n=1}^{N}I(h(\Theta_n,x)=j) > \rightarrow P_\Theta(h(\Theta,x)=j) $$ من نمیتوانم موارد زیر را درک کنم: 1. فضای توالی $ \Theta $s یک فضای دنبالهای است که در ویکیپدیا تعریف شده است؟ آیا عناصر فضای دنباله ای بی نهایت دنباله های اعداد حقیقی هستند یا مختلط؟ 2. مجموعه احتمال صفر C در فضای دنباله ... به چه معناست؟ آیا راه دیگری برای توصیف C وجود دارد؟ از هرگونه کمک یا توضیحی، جزئی یا غیر آن، بسیار استقبال می شود. با تشکر | جنگل تصادفی - اثبات همگرایی |
28003 | من تازه وارد مدل سازی ARIMA هستم. من اکثر مفاهیم اولیه را درک می کنم و موضوعات زیادی در مورد ARIMA در این سایت خوانده ام. در حال حاضر من با تجزیه و تحلیل نمودارهای ACF و PACF، بررسی فصلی بودن و ایجاد مدل از داده های خود بسیار راحت هستم. گام بعدی میخواهم با مقادیر پرت و پالسهای دورهای در دادههایم سر و کار داشته باشم. بنابراین، چگونه با استفاده از R این کار را انجام دهم؟ آیا باید چند متغیر ساختگی و پالس های متناوب کد را با مثلاً 1، سایر نقاط پرت با 2 و هر چیز دیگری با 0 ایجاد کنم و سپس این متغیر را به گزینه xreg در دستور arima ارسال کنم؟ من همچنین می ترسم با عدم درک درست اصطلاحات، مسائل را به هم بزنم. صحبتهای زیادی در مورد پالسها، تغییر سطح، پالسهای فصلی، تغییر زمان محلی و غیره وجود دارد. | چگونه پالس ها / تغییر سطح در داده ها را هنگام ایجاد ARIMA در R مشخص کنیم؟ |
81246 | من سعی کرده ام با استفاده از `lmer` یک مدل اندازه گیری های مکرر را در R قرار دهم اما یک پیام خطا دریافت می کنم. من در گذشته از SAS استفاده کردهام و توانستم یک مدل تا حدودی مشابه را جا بزنم، اما به نظر نمیرسد که بتوانم آن را در R انجام دهم. این کد SAS است: proc glimmix data=dat; اندازه کلاس موضوع موقعیت روز; مدل y = اندازه اندازه روز * اندازه موقعیت روز * موقعیت / ddfm = kr; روز تصادفی /subject=subject(size) type=ar(1) residual; lsmeans size| موقعیت روز ; کد R به شرح زیر است: m1 = lmer(y ~ 1 + Size + Position + Size*Day + Position + (1 + Day|ID)، داده = dat، REML = F) و اینها پیام های خطایی هستند که دریافت می کنم: پیام های هشدار: 1: در checkZrank (reTrms$Zt، n = n، کنترل، nonSmall = 1e+06) : تعداد مشاهدات <= رتبه (Z); ماتریس واریانس کوواریانس غیرقابل شناسایی خواهد بود 2: در (تابع (fn, par, low = rep.int(-Inf, n), upper = rep.int(Inf, : عدم همگرایی در 10000 ارزیابی داده ها شامل 242 مشاهده است از 22 فرد در یک دوره 11 روزه گرفته شده است، به علاوه برخی از متغیرهای دیگر نیز مشاهده شد (یعنی موقعیت). اندازه، روز، موضوع و موقعیت فاکتورهایی هستند و y پاسخ مشاهده شده ساختار داده است (اگر کمک کند می توانم کل 242 مشاهده را ارائه دهم): > dput(head(dat, 4)) structure(list(y = c(7.12820702168194, 7.70152948380659، 6.42263644198494، 6.9249926063685)، روز = ساختار (1:4، .Label = c(1، 2، 3، 4، 5، 6، 7، 8، 9، 10، 11)، کلاس = عامل)، اندازه = c(1، 1، 1، 1)، موضوع = ساختار(c(1L، 1L، 1L، 1L)، .Label = c(101X، 104X، 111X، 112X, 118X، 119X، 126X, 139X، «26X»، «41X»، «44X»، «45X»، «46X»، «48X»، «55X»، «63X»، 67X، 68X، 79X، 84X، 87X، 92X)، کلاس = ضریب)، موقعیت = c(1، 1، 1، 2))، .Names = c (y، Day، Size، Subject، Position)، row.names = c(NA, 4L)، class = data.frame) از هر کمکی در این مورد سپاسگزارم موضوع با احترام | نمی توان اندازه گیری های مکرر را در R جا داد |
8590 | من از علوم اجتماعی آمدهام، جایی که p <0.05 تقریباً هنجار است، با p <0.1 و p <0.01 نیز نشان داده میشود، اما میپرسیدم: در کدام رشتههای تحصیلی، در صورت وجود، از مقادیر p پایینتر به عنوان رایج استفاده میشود. استاندارد؟ | نمونه هایی از مطالعات با استفاده از p <0.001، p <0.0001 یا حتی مقادیر p کمتر؟ |
94863 | من یک سوال در مورد یک مدل پیچیده ترک برای یک سری زمانی دارم. فرض کنید $ \{X_t:0\le t\le T\}$ یک سری زمانی است. نمودار تابع خودهمبستگی و تابع همبستگی جزئی و مدل ARMA را پیشنهاد می کند. با این حال، من همچنین می خواهم نوسانات را مدل کنم، بنابراین از یک مدل ARMA(p,q)-GARCH(1,1) استفاده می کنم. این یعنی $$ X_t=\mu_t+\sigma_t Z_t$$ $$\mu_t=\mu +\sum_{i=1}^p\phi_i(X_{t-i}-\mu)+\sum_{j=1}^ q\theta_j(X_{t_j}-\mu_{t-j}) $$ $$ \sigma_t^2=\omega+\alpha_1(X_{t-1}-\mu_{t-1})^2+\beta_1\sigma_{t-1}^2$$ سپس $\mu_t$ انتظار شرطی را مدل میکند و $\sigma_tZ_t$ واریانس شرطی، که $\{Z_t\}$ یک نویز سفید سخت است. در `R` می توانیم از دستور <- garchFit(formula=~arma(p,q)+garch(1,1),cond.dist=std,trace=F) استفاده کنیم که در آن باید $p را مشخص کنیم. q$ و ما تصمیم گرفتیم فرض کنیم نویز سفید دارای توزیع $t$ دانشجویی است. با استفاده از تابع داخلی «پیشبینی»، میتوانیم پیشبینی روز بعد را دریافت کنیم: پیشبینی (model,n=1) اما مقدار بازگشتی «پیشبینی» چقدر است؟ آیا $\sigma_{t+1}^2$، $\mu_{t+1}$ یا $X_{t+1}$ را پیشبینی میکند و چگونه میتوانم دو پیشبینی دیگر را در «R» دریافت کنم؟ | مقدار بازگشتی پیش بینی در بسته fGarch چقدر است |
94865 | من مدل AR(p) را درک میکنم: ورودی آن سری زمانی است که مدلسازی میشود. من وقتی در مورد مدل MA(q) می خوانم کاملاً گیر کرده ام: ورودی آن همان طور که اغلب فرموله می شود _نوآوری_ یا _ شوک تصادفی_ است. مشکل این است که نمیتوانم تصور کنم چگونه میتوان یک مؤلفه _innovation_ را که از قبل مدلی از سری زمانی (عالی) نداشته باشد (یعنی فکر میکنم $\varepsilon=X_{\rm مشاهده شده}-X_{\rm کامل}$) به دست آورد، و این احتمالا اشتباه است). علاوه بر این، اگر بتوانیم این مؤلفه نوآوری را به صورت نمونه دریافت کنیم، چگونه میتوانیم آن را هنگام انجام یک پیشبینی بلندمدت (اصطلاح خطای مدل بهعنوان جزء مجزای سری زمانی افزایشی) دریافت کنیم؟ | ورودی مدل MA(q) در دنیای واقعی چیست؟ |
111641 | من در حال انجام تجزیه و تحلیل داده ها هستم. من یک پانل با شرکت های فردی با متغیرهای خاص شرکت و اقتصاد کلان دارم. من می خواهم یک رگرسیون OLS تنظیم شده برای اثرات خوشه بندی شرکت و محاسبه اثر زمانی اجرا کنم (من 449 شرکت و 36 دوره زمانی دارم، پانل نامتعادل). متغیر جذب شده توسط آدمکها، به عبارت دیگر: آیا شامل کردن زمانها منجر به چند خطی شدن بین زمانها و آدمکها میشود. متغیرهای کلان اقتصادی؟ من متعجبم زیرا مطالعات مختلف از این رویکرد استفاده میکنند، اگرچه به نظر من منطقیتر به نظر میرسد که متغیرهای کلان اقتصادی را با احتساب زمانها حذف کنند. آیا من در اینجا چیزی مهم را در نظر نگرفتم؟ | ساختگیهای زمان در دادههای پانل - اثرات جذب؟ |
3704 | من این سوال را قبلاً ارسال کردم و به امید دریافت راهنمایی آن را بازنویسی می کنم. من از یک رگرسیون وزنی (پس از تطبیق امتیاز تمایل) برای به دست آوردن برآوردهایی از اثرات یک درمان (درمان) بر یک نتیجه برای پنجک های مختلف درآمد استفاده می کنم. من فعل و انفعالات پنجک ها و درمان را در معادله گنجانده ام، همانطور که در زیر نشان داده شده است: نتیجه رگرسیون درمان quintile2 quin3 quin4 quin5 treatXquin2 treatXquin3 treatXquin4 treatXquin5 برای به دست آوردن اثر درمان بر پنجک2، ضریب روی درمان را با ضریب درمانXquin2 اضافه می کنم. با این حال، با خطاهای استاندارد چه کنم؟ آیا می توانم به سادگی خطاهای استاندارد دو ضریب را با هم اضافه کنم؟ آیا می توانم t-stats را با هم اضافه کنم؟ هر توصیه ای بسیار قدردانی خواهد شد. من یک متخصص آمار نیستم اما درک اولیه ای از اقتصاد سنجی دارم. | اضافه کردن ضرایب برای به دست آوردن اثرات متقابل - آیا می توانم خطاهای استاندارد را اضافه کنم؟ |
17669 | من دو مجموعه از مشاهدات دارم که با مجموعه کمیت های مشابه مطابقت دارند. اولین مجموعه مشاهدات با یک نوع حسگر و مجموعه دیگر مشاهدات با نوع حسگر متفاوت گرفته شد. بر اساس مشاهدات و مقادیر مربوط به آنها، چگونه می توانم تشخیص دهم که کدام نوع سنسور آموزنده تر است؟ | تعیین نوع سنسور آموزنده تر است |
89515 | فرض کنید یک مدل رگرسیون خطی با متغیر نتیجه $Y$ و متغیرهای توضیحی $X_{1}، \dots، X_{10}$ دارید. فرض کنید $X_1$ اثر اصلی باشد. همچنین فرض کنید $X_{2}، \dots، X_{10}$ با نتیجه و متغیر توضیحی بر اساس تخصص موضوع مرتبط هستند. آیا باید همه متغیرهای $X_{2}، \dots، X_{10}$ را در مدل تنظیم شده بگنجانید؟ | تنظیم برای متغیرهای بیش از حد |
111643 | من و یکی از همکاران با تفاوت GMM، یعنی برآوردگر Arellano-Bond، در R کار میکنیم. گزینه ما استفاده از دستور pgmm از بسته plm بوده است. با این حال، اکنون در تلاش هستم تا تناسب مدل های خود را آزمایش کنم، زیرا بسته plm خود چنین عملکردی را به همراه ندارد. آیا راه خوبی برای تست تناسب مدل یک مدل تفاوت-GMM وجود دارد؟ البته، یک رویکرد آزمایش مربع همبستگی بین Y و Yhat است، همانطور که در بلوم، باند و همکارانش. (2001). با این حال، دستور pgmm پیشبینیها را نمیدهد، فقط مقادیر برازش را ارائه میکند. آیا کسی می تواند در این مورد راهنمایی کند؟ | معیارهای تناسب برای برآوردگر GMM Arellano-Bond در R |
110110 | من این احتمال را دارم که می خواهم پارامترهای رایگان آن را تخمین بزنم و از MCMC برای تخمین پارامترها استفاده می کنم. دو تا از پارامترهای آزاد موقعیت هستند و من پیشینهای یکنواخت را تعریف کردم و یکی دارای نمایی و دیگری دارای پیشین لگ نرمال است. من یک کد MCMC با **pymc** نوشتهام و از «AdaptiveMetropolis» بهعنوان نمونهگر گروه استفاده کردهام و کد MCMC خود را روی دادههای شبیهسازی شده اجرا میکنم که پاسخ نهایی را میدانم. من از تست Raftery-Lewis در pymc استفاده کردم تا ببینم چند زنجیره باید اجرا کنم تا به همگرایی برسم و بر اساس آن تعداد مراحل را انتخاب کردم. اما بعد از اجرا با مراحل تخمین زده شده، به نتایج ورودی نرسیدم. حدس من این است که از آنجایی که پارامترهای من با هم مرتبط هستند، همگرا نشده است. **سوال من** این است که بهترین روش گام برای فضای پارامترهای همبسته چیست؟ چگونه میتوانم تست کنم که کدام یک از نمونهبرداران برای کیس من بهترین کار را دارد؟ | بهترین نمونهبرگر گروهی برای فضای پارامترهای بسیار همبسته چیست؟ |
104733 | من یک بردار داده با خطاهای استاندارد آنها دارم: برآورد <- c(0.254719513441046، 0.130492717014416، 0.0386710035855823، 0.141185623251046، 0.1411856232510405 0.60363287936294، 0.173485345603584، 0.425817607348994، 0.128802795868366، 0.104136474748466، 0.104136474748466، 0.104136474748466، 0.104136474748465، 0.104136474748465 . 0.0585237357996271، 0.16702614577514، 0.124308993809982) من باید یک فاصله پیشبینی برای عناصر جدیدی که از همان جمعیت اصلی گرفته میشوند تشکیل دهم. ابتدا فکر کردم یک رگرسیون خطی برای تخمین میانگین و خطا روی میانگین انجام دهم: summary(lm(Estimate ~ 1, weights = 1/SE^2)) Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.28014 0.04996 5.607 0.000331 *** اما وقتی سادهلوحانه سعی میکنم «predict()» را فراخوانی کنم، این چیزی است که دریافت میکنم: predict(lm(تخمین ~ 1، وزن = 1/ SE^2)، newdata = data.frame (x = 0)، فاصله = پیشبینی) fit lwr upr 1 0.2801405 -2.860802 3.421083 پیام هشدار: در predict.lm(lm(Estimate ~ 1, weights = 1/SE^2), newdata = data.frame(x = 0), : با فرض پیشبینی ثابت واریانس با وجود اینکه تناسب مدل وزن دارد آیا این کار را درست انجام دادم؟ فاصله اطمینان 95% واقعا [-2.86 3.42] آیا باید نگران هشدار باشم؟ | چگونه یک فاصله پیش بینی را از یک نمونه وزنی تخمین بزنم؟ |
110113 | 21 بار زدن یک سکه منصفانه. احتمال بدست آوردن 8 هد به هر ترتیبی $$p = \frac{21!}{8!(21-8)!}0.5^8(1-0.5)^{21-8} = 0.097$$ است که من دریافت می کنم که فرمول Binomial توالیهای مختلفی را در نظر میگیرد که در آن هدها میتوانند در طول 21 تلنگر رخ دهند. اما در هر صورت، حداقل انتظار داشتم که فرمول Binomial مقداری نزدیکتر به $0.5$ بدهد. سوال این است: پس من با 8/21 دلار = 0.38 دلار چه چیزی را محاسبه می کنم؟ | چرا p برای 8 بار هد از 21 تلنگر 8/21 نیست؟ |
114346 | آیا می توانیم چندین منحنی مرتبه دوم را به مجموعه ای از نقاط در $R^2$ برسانیم؟ فرض کنید ما مجموعه ای از نقاط را در فضای ذکر شده در بالا داریم. من می دانم که حداکثر می تواند 10 منحنی وجود داشته باشد که می تواند در آن فضا مناسب باشد. من می خواهم با استفاده از تعداد دلخواه منحنی بهترین تناسب ممکن را با آن نقاط داشته باشم. | برازش چندین منحنی به طور همزمان به مجموعه نقاط |
111649 | من با ایجاد مجموعه داده برای یک مدل پیش بینی کشف تقلب کمی گیج شده ام. در اینجا من یک لینک با یک نمونه از مجموعه داده ای که ساخته ام قرار داده ام. (مجموعه داده واقعی 950000 مشتری دارد). https://www.dropbox.com/s/r2r0f8s7nqvi59d/sample.csv من در حال توسعه یک رگرسیون لجستیک هستم و متغیر وابسته تقلب است. بنابراین من با مجموعه داده مشکل دارم زیرا نمی دانم چگونه این کار را ترتیب دهم، زیرا برای هر مشتری 67 ماه مصرف دارم. و من فکر می کنم که راه درست برای تنظیم مجموعه داده چیزی شبیه به این است. https://www.dropbox.com/s/ejj7v405xj0s9m7/Arrange.PNG در دیتاست واقعی در 1 ردیف شناسه (شماره منحصر به فرد) و 67 ماه با مصرف را قرار دادم، پس در تصویری که پیوست کردم (یعنی راهی که فکر می کنم می تواند بهترین باشد) برای هر مشتری 67 ردیف وجود دارد، این بدان معناست که در ردیف 1 من ژانویه.08، در ردیف 2 قرار دارد. من فوریه.08 و غیره دارم. بنابراین برای هر مشتری من 67 ردیف خواهم داشت و کل مجموعه داده 67 (ماه) * 950.000 (مشتری) خواهد بود. برای هر کمکی بسیار ممنونم با احترام. کریستین والنسولا | چگونه می توانم یک مجموعه داده تشخیص تقلب ایجاد کنم (من داده ها را آماده اما نامرتب دارم) |
48983 | من در حال نوشتن یک ابزار آماری در جاوا هستم. در اینجا من مقادیر همبستگی پیرسون (r) را محاسبه می کنم. قدم بعدی من این است که تأیید کنم آیا مقادیر همبستگی من به اندازه کافی خوب است تا ثابت کنم که متغیرهای my to همبستگی دارند یا خیر. بنابراین من دو رویکرد در ذهن دارم: الف) از آنجایی که اندازه نمونه = n و همبستگی = r قبلا محاسبه شده است، می توانم از این مقادیر برای محاسبه p-value استفاده کنم و اگر p<alpha (سطح معنی داری) اعتبار سنجی کنم. ) اما برای این رویکرد، من فرمول محاسبه p-value را از دست دادهام. ب) از آنجایی که قصد دارم از یک آلفای ثابت استفاده کنم، به این فکر میکردم که حداقل r_min را برای داده شده از قبل محاسبه کنم. n (به عنوان مثال n=1 -> n=10000) و سپس r محاسبه شده را در مقابل r_min از پیش محاسبه شده بررسی کنید. کسی راه حل خوبی برای این مشکل میدونه؟ من قبلاً این را پیدا کردهام، اما تا آنجا که من میبینم، کتابخانه باید r را مجدداً محاسبه کند تا عملکرد را کاهش دهد. | p-value برای آزمون فرضیه با همبستگی داده شده، حجم نمونه |
111640 | بنابراین من یک مجموعه داده دارم که از آن برای آموزش دسته ای از طبقه بندی کننده ها استفاده خواهم کرد. من باید این کار را برای پایان نامه خود انجام دهم. با این حال من مطمئن نیستم که کدام آمار برای درک بهتر مجموعه داده ها و ویژگی ها مناسب است. من در اینجا آماری را که بر روی مجموعه داده محاسبه می کنم ذکر می کنم، اما اگر شما موارد بهتری را می دانید یا چیزی را فراموش کرده ام، یا اگر چیز جالبی برای استفاده وجود دارد، **لطفا** به من بگویید! واقعاً خوب است که در پایان نامه حضور داشته باشید ;). لازم به ذکر است که مقادیر تمام ویژگی ها بین 0-1.0 است. بنابراین کاری که من انجام می دهم این است: 1- نمودار کوواریانس برای ویژگی ها. 2- ماتریس Scatterplot برای ویژگی ها. 3- همبستگی پیرسون بین ویژگی ها. من یک سوال اضافی دارم لطفا من فکر می کنم به دست آوردن اطلاعات بر روی ویژگی محاسبه می شود. اما آیا محاسبه و گزارش سود اطلاعات برای _all_ ویژگی ها فقط در سطح ریشه منطقی است؟ یا بهتر است فقط به دست آوردن اطلاعات در گره های تقسیم شده گزارش شود؟ فکر می کنم دومی منطقی تر است، درست است؟ | از کدام آمار برای درک یک مجموعه داده استفاده کنیم؟ |
8598 | من برای دوره ای که در حال ممیزی آن هستم روی مسئله ای به شرح زیر کار می کنم: > فرض کنید یک بازه t متقارن 95% برای تخمین میانگین اعمال می شود، اما داده های نمونه غیر عادی هستند. سپس احتمال اینکه بازه اطمینان > میانگین را پوشش دهد لزوماً برابر با 0.95 نیست. از آزمایش مونت کارلو > برای تخمین احتمال پوشش بازه t برای نمونههای تصادفی دادههای $\chi^2(2)$ با اندازه نمونه $n = 20$ استفاده کنید. در اینجا وضعیت فعلی کد R من است: alpha = 0.05; n = 20; متر = 1000; UCL = عددی (m)؛ LCL = عددی (m)؛ for(i در 1:m) { x = rchisq(n, 2); LCL[i] = mean(x) - qt(alpha / 2, low.tail = FALSE) * sd(x); UCL[i] = mean(x) + qt(alpha / 2, low.tail = FALSE) * sd(x); } # این خط زیر اشتباه است... mean(LCL > 0 & UCL < 0); مشکل این است که نتیجه 0 دلار است. آیا من به این سوال نادرست برخورد می کنم؟ احتمال پوشش دقیقا به چه معناست...؟ ممنونم :) | آزمایش مونت کارلو برای تخمین احتمال پوشش |
322 | من به دنبال کتاب یا منبع آنلاینی هستم که انواع مختلف آنتروپی مانند آنتروپی نمونه و آنتروپی شانون و مزایا و معایب آنها را توضیح دهد. آیا کسی می تواند من را در مسیر درست راهنمایی کند؟ | معرفی خوبی به انواع مختلف آنتروپی |
48985 | آیا هیچ فرمول بسته ای برای رگرسیون چندک تنها با یک پیش بینی وجود دارد؟ **انگیزه** باید رگرسیون میانه SQL را با یک پیش بینی پیاده سازی کنم. پیادهسازی OLS با یک پیشبین بسیار آسان است، زیرا فرمول سادهای برای ضرایب وجود دارد، اما من نمیدانم چگونه فرمولی برای رگرسیون چندک وجود دارد یا خیر. | رگرسیون چندکی با یک پیش بینی کننده |
89512 | فرض کنید در ابتدا دو متغیر $a_{1}$ و $a_{2}$ از یک نوع دارم، سپس ماتریس واریانس کوواریانس را به صورت زیر تعریف میکنم: $\sum = \begin{bmatrix} \sigma^ {2}_{a_{1}} و \sigma_{a_{1},a_{2}} \\ \sigma_{a_{2},a_{1}} & \sigma^{2}_{a_{2}} \end{bmatrix}$، که در آن قطرها نشان دهنده واریانس ها و قطرهای خارج به عنوان کوواریانس هستند. می دانم که می توان ناحیه اطمینان را با یک بیضی خطا تجسم کرد که پارامترهای آن به صورت زیر تعریف می شوند: * مرکز بیضی میانگین (یا مقدار مورد انتظار) دو متغیر است، * جهت گیری به صورت $\alpha = محاسبه می شود. \frac{1}{2}\tan^{-1}(\frac{2\sigma_{{a_{1}},a_{2}}}{\sigma^{2}_{a_{1}} -\sigma^{2}_{a_{2}}})$ * طول محورها به عنوان جذر مقادیر ویژه ماتریس کوواریانس محاسبه می شود. * و غیره. حالا اگر اجازه بگویم، متغیرهای $n$، به این ترتیب ماتریکس واریانس کوواریانس با اندازه $n\times n$ را خواهم داشت: $\sum = \begin{bmatrix} \sigma^{2} _{a_{1}} & \sigma_{a_{1},a_{2}} &\dots & \sigma_{a_{1},a_{n}}\\ \sigma_{a_{2},a_{1}} & \sigma^{2}_{a_{2}} & \dots & \sigma_{a_ {2},a_{n}} \\ \vdots & \vdots & \ddots & \vdots\\ \sigma_{a_{n},a_{1}} & \sigma_{a_{n},a_{2}} & \dots & \sigma^{2}_{a_{n}} \end{bmatrix}$ ، ناحیه اطمینان یک ابر بیضی (با بعد $n$) خواهد بود که تجسم آن ممکن نیست. سوال من: آیا راه دیگری برای تجسم یا نقشه برداری این منطقه به صورت دو بعدی وجود دارد؟ | جایگزینی برای تجسم هایپر بیضی تعریف شده توسط ماتریس واریانس-کوواریانس |
48980 | اگر یک طبقهبندیکننده GNB/LDA/kNN/دیگر را آموزش دهم، میخواهم بدانم، در مدل ساختهشده، ویژگیها برای طبقهبندی چقدر مهم هستند یا کدام ویژگی (ها) طبقهبندی کننده را هدایت میکند. به عنوان مثال در مدلهای SVM، گاهی اوقات اهمیت ویژگی با توجه به بزرگی وزنها ارزیابی میشود، اما برای مدلهای غیرخطی و مولد استخراج وزنها دشوارتر است. آیا کتاب/مقاله ای می شناسید که بتواند برای حل سوال من مفید باشد؟ | اهمیت ویژگی طبقه بندی کننده |
110115 | **pr** = خوانندگان RFID فیزیکی که در خط تولید در کارخانه مستقر هستند. **p(pr)** = احتمال خواننده RFID فیزیکی. **o** = قطعه محصول در حال حرکت روی خط تولید در کارخانه. **O** = {o1, o2, o3 ... on} مجموعه ای از قطعات محصول است که روی خط تولید در کارخانه حرکت می کند. **re** یک رویداد خوانده شده است و به صورت re = (o, pr, t) تعریف می شود. که در آن o شی شناسایی/خوانده شده توسط خواننده فیزیکی pr در زمان t است. **p(re)** = احتمال رویداد خوانده شده، در سناریوی ما p(re) برابر است با احتمال RFID خوان فیزیکی که رویداد خوانده شده را راه اندازی کرده است، یعنی p(re) = p(pr) **محصول حرکت و توالی قطعات:** قطعات محصول در کارخانه به ترتیب حرکت می کنند. شکل 1 نشان داده شده در زیر این حرکت قطعات محصول را در خط تولید در کارخانه نشان می دهد.  خوانندگان RFID فیزیکی (pr) دستگاه های الکترونیکی هستند که با احتمال خاصی دقیق هستند. آنها ممکن است تشخیص بخشی از محصول را گزارش کنند، زمانی که ممکن است هیچ قطعه محصولی در خط تولید وجود نداشته باشد. یا زمانی که واقعاً یک قطعه محصول در خط تولید وجود داشته باشد، ممکن است بخشی از محصول را شناسایی نکنند. احتمال خوانندگان RFID p(pr) برای تشخیص بخشی از محصول یا داشتن برچسب RFID به تعداد برچسب هایی که باید تشخیص دهد، فاصله بین خواننده و برچسب و موارد دیگر بستگی دارد. ** توالی جزئی:** دنباله جزئی (ps) دنباله ای از قطعات محصول فرم (o1 < o2) است. دنباله جزئی (o1 < o2) نشان می دهد که قسمت محصول o1 جلوتر از قسمت محصول o2 در خط تولید است. **قوانین تشخیص توالی:** **قاعده 1:** اگر pr1 قسمت o1 محصول را در زمان t1 تشخیص دهد و سپس قسمت o2 محصول را در زمان بعدی t2 تشخیص دهد، آنگاه o1 جلوتر از o2 در خط تولید است، یعنی (( o1 < o2). در این سناریو، دو رویداد خوانده شده re1 = (o1, pr1, t1) و re2 = (o2, pr1, t2) خواهند بود. توجه: در این سناریو، خواننده فیزیکی برای هر دو رویداد خوانده شده یکسان است.  **قانون 2:** اگر pr1 قبل از pr2 در خط تولید مستقر شده باشد، یعنی (pr1 < pr2)، پس قسمت محصول o1 شناسایی شده توسط pr2 در زمان t1 جلوتر از قسمت محصول o2 است که توسط pr1 در همان زمان t1 شناسایی شده است، یعنی (o1 < o2). در این سناریو دو رویداد خوانده شده re1 = (o2, pr1, t1) و re2 = (o1, pr2, t1) خواهند بود. توجه: در این سناریو، زمان شناسایی قطعات محصول برای هر دو رویداد خوانده شده یکسان است.  **قانون 3:** اگر pr1 قبل از pr2 در خط تولید مستقر شود (pr1 < pr2)، پس یک محصول قسمت o1 شناسایی شده توسط pr2 در زمان t1 جلوتر از محصول o2 است که توسط pr1 در زمان بعدی t2 شناسایی می شود، یعنی (o1 < o2). این از قانون 1 و 2 واضح است. **p(ps)** = احتمال دنباله جزئی. **سوال 1:** احتمال توالی جزئی دو بخش محصول (o1 < o2) چقدر خواهد بود؟ ** دنباله توسعه یافته:** (o1 < o2) یک دنباله جزئی ps1 باشد. فرض کنید (o2 < o3) یک دنباله جزئی ps2 باشد. از آنجایی که قطعات محصول به ترتیب و یکی پس از دیگری در خط تولید حرکت می کنند، می توانیم گذر را اعمال کنیم و دو دنباله جزئی را در یک توالی (es) توسعه یافته از 3 قسمت محصول (o1 < o2 < o3) گسترش دهیم **p(es)** = احتمال دنباله توسعه یافته. **سوال 2:** احتمال توالی توسعه یافته سه بخش محصول (o1 < o2 < o3) چقدر خواهد بود؟ **سوال 3:** احتمال توالی توسعه یافته n بخش محصول (o1 < o2 < o3 .... <روشن) چقدر خواهد بود؟ **توجه:** این تکلیف نیست. من روی پروژه ای کار می کنم که شامل نظارت بر محصول در زمان واقعی با استفاده از خوانندگان RFID است. مشکل و مفاهیم کار شخصی من است. | احتمال مشاهدات چندگانه از اجسام چندگانه |
48989 | من خیلی با رگرسیون پواسون آشنا نیستم، بنابراین فکر میکنم در تحلیل زیر اشتباه کردهام: من در حال مطالعه اثرات سیگار بر میزان سرطان ریه هستم. مجموعه داده در اینجا ارائه شده است. متغیر «وضعیت_سیگاری» تعریف شده است: > وضعیت سیگار کشیدن: کد شده 1 = سیگار نمی کشد، 2 = فقط سیگار یا پیپ می کشد، 3 = > سیگار و سیگار یا پیپ می کشد، و 4 = فقط سیگار می کشد، من داده ها را اصلاح کردم بیت و دو متغیر دسته بندی جدید ایجاد کرد: پیپ/سیگار سیگار و سیگاری سیگاری، به جای smoking_status. بنابراین وضعیت سیگار کشیدن 1 به (0,0)، 2 نقشه به (1,0)، 3 نقشه به (1,1) و غیره. من همچنین یک ستون ثابت به مجموعه داده خود اضافه کردم. این تمام کاری است که من با داده ها انجام دادم. سپس با استفاده از تابع پیوند نمایی، رگرسیون پواسون را روی این مجموعه داده انجام دادم. امید من این بود که ضرایب دو متغیر جدید مثبت باشد اما در عوض فقط سیگار_کشنده مثبت است. فواصل اطمینان نیز حاوی نکات مثبت نیستند. آیا داده ها را اشتباه تجزیه و تحلیل کرده ام یا داده های من اشتباه است؟ **ویرایش** خروجی (از کتابخانه Python Statsmodels است) نتایج رگرسیون مدل خطی تعمیم یافته بخش. متغیر: y تعداد مشاهدات: 36 مدل: GLM Df باقیمانده ها: 31 خانواده مدل: پواسون Df مدل: 4 عملکرد پیوند: مقیاس ورود: 1.0 روش: IRLS Log-Likelihood: -815.93 تاریخ: پنجشنبه، 31 ژانویه 2013 زمان: Devi. : 13:19:32 پیرسون chi2: 1.22e+03 تعداد تکرار: 7 coef std err t P>|t| [95.0% Conf. داخلی] ---------------------------------------------- ------------------------------- x1 0.2596 0.006 44.097 0.000 0.248 0.271 x2 -0.1850 0.024 -7.775 0.000 -0.232 -0.138 x3 0.5327 0.031 17.101 0.000 0.472 0.594 x4 0.0504-0.0504 0.0504 0.0004 0.0004 0.0004 0.0004 0.000 0.000 const 2.9593 0.046 63.903 0.000 2.869 3.050 متغیرها به ترتیب سن، سیگار_سیگار (0،1)، سیگار_دود (0،1)، جمعیت (در صد هزار)، ترم ثابت هستند. برخی از دادههای نمونه: آرایه ([[ 2.، 0.، 0.، 359.، 1.]، [4.، 0.، 1.، 3270.، 1.]]) با مرگهای هدف [22.، 514. .] به ترتیب. | پاسخ غیر شهودی از رگرسیون پواسون |
110118 | من این مقاله Fuzzy e-Means Clustering of Mixed Databases شامل متغیرهای عددی و اسمی را از IEEE برای پیاده سازی و یادگیری ارجاع می دهم. لطفاً درک من را تا کنون تصحیح کنید: 1. امتیاز دسته با استفاده از معادله: 18 به روز می شود. برای نرمال کردن، میانگین را کم کرده و بر انحراف معیار تقسیم کنید. 3. برای نرمال کردن، میانگین از سمت چپ معادله محاسبه میشود: 19، واریانس از سمت راست معادله محاسبه میشود: 20 [از واریانس محاسبه انحراف استاندارد] در حالی که میانگین از L.H.S معادله: 19: $1_{n} ^{T}U_{c}^{\theta}q_{j}$ متغیر $U_{c}^{\theta}$ را انجام میدهد از ما می خواهد که از کل ماتریس عضویت یا عضویت در هر خوشه [یک ستون از ماتریس عضویت] استفاده کنیم. من در اینجا در پیاده سازی گیر کرده ام تا این محدودیت ها در معادله: 19،20 برآورده شوند. هر گونه کمکی بسیار قدردانی می شود. پیشاپیش ممنون یوگالاکشمی.جی | چگونه می توان مقیاس بهینه متغیرهای طبقه بندی شده را برای خوشه بندی فازی پیاده سازی کرد؟ |
94864 | من ناقلی از مقادیر بیان ژن در 20 بیمار دارم. هر بیمار همچنین دارای یک اندازه گیری گلوکز (بردار عددی پیوسته) است. من می خواهم بفهمم که ارزش همبستگی واقعی در مقایسه با مقادیر همبستگی توزیع شده تصادفی چقدر معنادار است. 1. Real Pearson محاسبه شده توسط: real<-cor(gene1, glucose) 2. من توزیعی از 10K همبستگی تصادفی را با استفاده از نمونه با جایگزینی random_glucose <- replicate(10000, cor(sample(gene1,replace=T),sample( گلوکز، جایگزین=T))) **چگونه می توانم یک مقدار p از اهمیت واقعی در مقایسه با تصادفی بدست بیاورم مقادیر؟** من موارد زیر را امتحان کرده ام: 1. استفاده از pnorm با کد: pnorm_p <- 2*pnorm(q=abs(real),mean=mean(random_glucose),sd=sd(random_glucose),lower. tail=F) 2. من متقاعد نشده ام که مقادیر تصادفی به طور معمول توزیع شده اند، بنابراین از «ecdf» با کد استفاده می کنم: ecdf_calc<-function(real, random_glucose){ funny<-ecdf(random_glucose) value<-funny(real) if(value<=0.5){ res<-2*value return(res)}alse{ res<-(( 1 - value)*2) return(res) } } راه های درستی برای انجام آن با `ecdf` چیست و پنرم؟ من راه های مختلفی برای انجام این کار از طریق گوگل می بینم و تفاوت را درک نمی کنم. به عنوان مثال، روشهایی با استفاده از امتیاز Z مانند اینجا؛ http://www.cyclismo.org/tutorial/R/pValues.html#calculating-a-single-p-value- from-a-normal-distribution و گاهی اوقات 1-pnorm(...) را می بینم و دیگران را من pnorm(..) را به تنهایی بدون 1- می بینم. | روش صحیح تولید p-value برای همبستگی با نمونه گیری مجدد چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.