_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
60816
در _Optimal Hedging Using Cointegration_، C. Alexander، 1999 (http://www.icmacentre.ac.uk/pdf/cointegration.pdf)، صفحه 3، پانوشت شماره 2: > [...] یک PCA از متغیرهای هم انباشته خواهد شد روند تصادفی رایج > به عنوان اولین مؤلفه اصلی [..] من در تلاش برای یافتن دلیلی برای این جمله هستم. اگر بتوانید به من دست بدهید ممنون می شوم. با تشکر
PCA متغیرهای هم انباشته
9014
در قضیه گیرسانوف، تغییر متغیر اندازه‌گیری احتمال $Z_t = \frac{dQ}{dP}|_{\mathcal{F}_t}$، چرا باید با توجه به اندازه‌گیری $P$، یک مارتینگل باشد. تغییر اندازه $\frac{dQ}{dP}$ وجود دارد؟ من در درک این مشکل دارم کسی با این آشناست؟
چرا خاصیت محلی Martingale در قضیه Girsanov مهم است؟
9013
فرض کنید من یک فایل A1.txt و یک فایل A2.txt دارم. من نام فایل اظهارات را در 1 'A1.txt' نوشته ام. نام فایل in2 'A2.txt'; اکنون، من می خواهم این کار را با استفاده از B1 و B2 (و در نهایت C1، C2، D1، D2) دوباره انجام دهم و فقط نام متغیر را در یک مکان تغییر دهم. بنابراین، من یک عبارت مانند %let prefix = 'B'; و سپس می خواهم آن پیشوند را در دستورات نام فایل قرار دهم. نام فایل in1 '&prefix1.txt'; نام فایل in2 '&prefix2.txt'; من این کار را در بیانیه داده انجام نمی دهم. من تقریبا می توانم آن را دریافت کنم. نام فایل in1 &prefix'.txt' سعی می کند B'.txt را بخواند اما این نقل قول اضافی مزاحم است. چیزی مبهم در حافظه من در مورد استفاده از _ وجود دارد، اما نمی توانم آن را بیرون بیاورم. با تشکر
جایگزینی رشته در SAS؟
15623
من کاملاً با R جدید هستم، امروز آن را دانلود و نصب کردم. من با SAS و Stata آشنا هستم. من از R استفاده می کنم زیرا متوجه شده ام که در تحلیل رگرسیون پیمایشی، R می تواند از داده هایی استفاده کند که دارای لایه با یک PSU هستند. با این حال، من نمی توانم بفهمم که چگونه کد را بنویسم. کاری که من تاکنون انجام داده‌ام این است: یک مجموعه داده Stata را بخوانید و فایل .RData را ذخیره کنید. بسته های MASS، pscl و بررسی (برای svyglm) را نیز قرار داده ام. کاری که باید انجام دهم این است: 1) من از داده های نظرسنجی استفاده می کنم، بنابراین یک متغیر وزن، یک متغیر لایه و یک متغیر PSU دارم. من باید آنها را بگنجانم. من می دانم چگونه از svyset در Stata استفاده کنم، اما در R اطلاعی ندارم. من معتقدم که باید از گزینه ای به نام survey.lonely.psu استفاده کنم و نمی دانم از کجا شروع کنم. این دلیلی است که من از R به جای Stata استفاده می کنم زیرا نمی خواهم لایه ها را از بین ببرم یا مشاهدات را حذف کنم. 3) انواع مدل‌های رگرسیونی که باید اجرا کنم: دوجمله‌ای منفی بررسی، دوجمله‌ای منفی با تورم صفر بررسی (نیاز به تعیین پیش‌بینی‌کننده‌های صفر)، لجستیک پیمایش، و رگرسیون OLS پیمایشی. 4) همچنین من واقعاً نمی توانم در R نحوه نوشتن مدل در کد R را درک کنم. در Stata، من به سادگی می‌توانم مدل را به صورت زیر بنویسم: svy: nbreg dependent_vardependent_var1dependent_var2 مستقل_var3 اصلاً نمی‌توانم بفهمم چگونه این کار را در R انجام دهم. از هر کمکی بسیار قدردانی می‌شود.
رگرسیون نظرسنجی در R با PSU های تک تن
71887
من یک PCA خود پیاده‌سازی شده را روی مجموعه‌ای از داده‌های تصویر آزمایش می‌کنم ($N \times d$، $N = 10000$ اندازه نمونه، $d = 28 \ برابر 28$ اندازه ویژگی). وقتی دقت طبقه‌بندی را مشاهده کردم، متوجه شدم که دقت به نحوی با افزایش _target کاهش بعد_$k$ افزایش یافته و از آن به بعد کاهش یافته است. تصویر زیر را ببینید: ![y: دقت از 10k، x: ابعاد کاهش یافته](http://i.stack.imgur.com/upcc3.png) حداکثر دقت مطابق با $PoV = 89\%$ است. من همچنین سعی کردم داده ها را به $k = d$ کاهش دهم، دقت هنوز بسیار کمتر از حداکثر نشان داده شده در نمودار بود. آیا اینها چیزی است که برای **PCA** انتظار می رود؟ یا **دسته بندی** من کار نمی کند؟ _چگونه می توانم اطلاعات از دست رفته را برای $k$ مختلف در PCA تفسیر کنم؟_ ps: من حتی تابع داخلی princomp را امتحان کردم، نتیجه مشابهی داشت. خود مجموعه آموزشی و یک مجموعه تست جداگانه به عنوان مجموعه تست، نتیجه مشابه نمودار را گرفتم.
درک اطلاعات از دست رفته در طول PCA در طبقه بندی
30162
سوالات خوبی در مورد مدیریت داده های نامتعادل در زمینه _طبقه بندی_ وجود داشته است، اما من نمی دانم که مردم برای نمونه برداری برای رگرسیون چه می کنند. بگوییم دامنه مشکل به علامت بسیار حساس است اما فقط تا حدودی به بزرگی هدف حساس است. با این حال، اندازه به اندازه کافی مهم است که مدل باید رگرسیون (هدف پیوسته) باشد نه طبقه بندی (طبقات مثبت در مقابل منفی). و در این حوزه مشکل بگویید که هر مجموعه ای از داده های آموزشی 10 برابر بیشتر از اهداف مثبت خواهد داشت. در این سناریو، ممکن است مثال‌های هدف مثبت را بیش از حد نمونه‌برداری کنم تا با تعداد نمونه‌های هدف منفی مطابقت داشته باشد، و سپس مدلی را برای تمایز این دو مورد آموزش دهم. بدیهی است که رویکرد آموزشی روی داده‌های نامتعادل عملکرد بدی دارد، بنابراین من باید نمونه‌برداری را انجام دهم. چه راه مناسبی برای لغو این نمونه برداری بیش از حد در هنگام انجام پیش بینی ها خواهد بود؟ شاید با میانگین یا میانه (منفی) هدف داده های تمرین طبیعی ترجمه شود؟
نمونه گیری برای داده های نامتعادل در رگرسیون
107620
طبق تعریف (1) $S(x)=\begin{موارد} S_0 = a_0x^3 + b_0x^2 + c_0x + d_0، & \text{if }t_0\le x\le t_1\\ .... .\\ S_{k} = a_kx^3 + b_kx^2 + c_kx + d_k، & \text{if }t_{k-1}\le x\le t_k\\ \end{موردها} $ با استفاده از شرایط لازم که تضمین می‌کند $S(x)$ دو بار در گره‌های $t_0,...,t_k$ متمایز می‌شود. : (2) $ \ S_i(x) = \frac{z_i}{6h_i}(t_{i+1}-x)^3 + \frac{z_{i+1}}{6h_i}(x-t_{i})^3 + (\frac{y_{i+1}}{h_i}-\frac{z_{i+1}h_i} {6})(x-t_i) + (\frac{y_{i}}{h_i}-\frac{z_{i}h_i}{6})(t_{i+1}-x)$ کجا $z_i = S_i''(t_i)$، $y_i = S_i(t_i)$ و $h_i = t_{i+1}-t_i$. با توجه به _Wood - Generalized Additive Models an Introduction with R (صفحه 145، 146)_، می توان (1) و (2) تا (3) $S(X) = a_j^-(x)\beta_j + a_j^ را بازنویسی کرد. +(x)\beta_{j+1} + c_j^-(x)\boldsymbol{F}_j\boldsymbol{\beta} + c_j^+(x)\boldsymbol{F}_{j+1}\boldsymbol{\beta}$ از آنجایی که این فقط یک فرمول مجدد از (2) است، من واقعاً علاقه مند هستم که چگونه فرمول دقیق $b_i(x) $ به نظر می رسد زیرا $S(x) = \sum_{i=1}^k b_i(x)\beta_i$ در واقع برای جا دادن داده ها استفاده می شود.
اساس اسپلاین مکعبی دقیقاً چگونه به نظر می رسد؟
71882
من یک برنامه نویس هستم، اما اطلاعات کمی در مورد آمار دارم و حتی مطمئن نیستم که کجا و چگونه این را بپرسم. فرض کنید 2 متغیر در مورد افراد به طور کلی دارید، var A و var B، که ویژگی های ملموس این افراد هستند. افراد یا دارای A یا B هستند. سپس من 11 اندازه گیری مختلف را در مورد شخص انجام می دهم و از آنها برای تعیین اینکه آیا واقعاً A یا B هستند بدون اینکه به آنها نگاه کنم استفاده می کنم. این برنامه با موفقیت تعیین می کند که آیا فردی A یا B در یک گروه 10 نفره است. اما همانطور که افراد بیشتری را آزمایش می کنم، متوجه می شوم که برخی از افراد تفاوت ها یا استثناهای جزئی در متغیرهای خود دارند که من باید آنها را در نظر بگیرم. مثال: همه افراد A اولین متغیر را در محدوده 12 تا 13 دارند، متغیر دوم را در محدوده 5 تا 6 دارند، اما بعد از آن من یک شخص را پیدا می کنم که برای متغیر دوم محدوده 1 دارد. بنابراین به فرمول اضافه می‌کنم که اگر متغیر دوم = 1 باشد، آن شخص دارای A است. همانطور که موضوعات بیشتری را اضافه می کنم که با آن معادله مطابقت دارند، آیا این به افزایش دقت برنامه در هنگام استفاده در جمعیت عمومی منجر می شود؟
تحلیل فرضی جمعیت و دقت آن تحلیل
99138
من می خواهم از توزیع معکوس نرمال در winbugs استفاده کنم اما آن را در آنجا پیدا نکردم. لطفا کمکم کنید تا راه حلی پیدا کنم. من در اینجا توزیع نرمال y را برای (j در 1:P) { y1[i,j] ~ dnorm(mu1[i,j], psi1[j])I(thd[j,z1[i,j] کوتاه کردم ]، thd[j,z1[i,j]+1]) } که در آن «y» به عنوان یک متغیر گمشده در نظر گرفته می‌شود و با تجزیه و تحلیل پسین افزوده می‌شود. متغیر z متغیرهای طبقه بندی شده و مجموعه آستانه های thd هستند.
توزیع نرمال معکوس در Winbugs
78023
تنظیم: مجموعه داده پانل T بزرگ N، کوتاه. تعداد بسیار کمی از 1 (احتمالاً 1 درصد)، اکثر آنها صفر است. من یک رگرسیون لجستیک را تخمین می زنم و یک ضریب معنادار منفی بر روی IV مورد علاقه پیدا می کنم. با اطمینان، با متغیر شاخص همبستگی منفی دارد. اما وقتی این را در یک LPM (با OLS) اجرا می‌کنم، یک ضریب معنی‌دار مثبت پیدا می‌کنم. چه چیزی این را هدایت می کند؟ کدام (منفی یا مثبت) به احتمال زیاد درست است؟ با تشکر
تفاوت ضریب بزرگ بین مدل logit/probit و احتمال خطی
113848
من تازه وارد bootstrapping هستم. فرض کنید داده‌های غیرعادی دارم، می‌توانم هر توزیعی داشته باشم، مهم نیست، و می‌خواهم یک فاصله اطمینان برای میانگین، میانه و انحراف استاندارد پیدا کنم. برای میانه این سوال برای حالت عادی نیز مرتبط است. چیزی که من نمی‌دانم این است (و از شما می‌خواهم در موردش کمک کنید) این است: من ایده راه‌اندازی، ایده نمونه‌برداری مجدد تولید n نمونه با جایگزینی، و بنابراین دریافت n میانگین، میانه یا انحراف استاندارد را درک می‌کنم. چیزی که من نمی فهمم این است که فاصله اطمینان چگونه محاسبه می شود. منظورم این است که با توجه به نمونه ای از n میانه که به طور معمول توزیع نشده اند، چگونه آن را محاسبه کنم، من مقادیر Z یا t را ندارم.
بوت استرپ کردن برخی از آمارها با داده های غیر عادی
60819
من دوست دارم در مورد موارد زیر راهنمایی دریافت کنم! من در مطالعه ای شرکت دارم که به شناخت در 3 گروه جداگانه می پردازد (1= گروه بالینی مورد علاقه؛ ​​2= گروه کنترل بالینی؛ 3=گروه کنترل سالم). همه شرکت‌کنندگان طیفی از آزمون‌های شناختی را تکمیل کردند. تجزیه و تحلیل اولیه بر روی کل نمونه (51=n) نشان داد که بین گروه‌ها تفاوت عقل کلی وجود دارد (grp 3 بیشتر از grps 1+2 بود)، به این معنی که هر تجزیه و تحلیل بعدی که تفاوت در آزمون‌های شناختی را نشان می‌دهد می‌تواند ناشی از هوش باشد. تنها به جای یک تفاوت واقعی بنابراین نمونه به طور خاص بر اساس ضریب هوشی مطابقت داده شد، که منجر به حجم نمونه تعدیل شده 33 نفر (11 نفر در هر گروه) شد. در ابتدا به من دستور داده شد که برای هر یک از تست های شناختی خود، ANOVA اندازه گیری های مکرر را روی نمونه تصفیه شده انجام دهم. به این ترتیب، طرح بندی فایل داده SPSS من 11 ردیف را نشان می دهد، بنابراین 3 گروه در هر متغیر وجود دارد (به عنوان مثال، test1_group1؛ test1_group2، test1_group3). در حال حاضر، برای هیچ یک از این آزمون های شناختی تفاوت معنی داری وجود نداشت. با این حال، تفاوت قابل توجهی از نظر خلق و خو وجود داشت، و بنابراین من علاقه مند به اجرای یک اندازه گیری مکرر ANCOVA برای بررسی میزان تأثیر خلق بر نتایج شناختی هستم. با این حال، با توجه به چیدمان متغیرهای من، من در نحوه اجرای ANCOVA اندازه‌گیری‌های مکرر با استفاده از SPSS سردرگم شده‌ام، زیرا گزینه‌های متغیر من عبارتند از: پرسشنامه خلقی 3 گزینه تولید می‌کند (مثلاً Mood_group1؛ Mood_group2؛ Mood_group3) - آیا من گزینه را انتخاب کنم. متغیر خلقی برای گروه فقط با تفاوت معنی دار، یا از هر 3 متغیر به عنوان متغیرهای کمکی استفاده کنید (که خروجی را تا حدودی پیچیده می کند!) برای افزودن یک لایه دیگر از پیچیدگی، با برخی از دوستان در مورد تحلیل هایم مشورت کردم. آنها گیج شده بودند که چرا با استفاده از اندازه‌گیری‌های مکرر تجزیه و تحلیل می‌کردم و به من پیشنهاد دادند که در عوض طرح‌بندی صفحه داده SPSS خود را تغییر دهم تا 33 ردیف داشته باشم (برای مطابقت با n=33)، و یک سری ANOVA یک طرفه مستقل را اجرا کنم. به نظر می‌رسد که 3 متغیر من را برای هر فرد حل می‌کند: انجام یک ANCOVA، اما من را به شدت گیج می‌کند زیرا به نظر منطقی می‌رسد، اما با آنچه در ابتدا به من گفته شد مطابقت ندارد. متاسفم که این به یک پست طولانی تر از آنچه در نظر داشتم تبدیل شده است، اما امیدوارم که زمینه کافی را فراهم کند تا بتوانم برخی از توصیه های ضروری را در اختیارم بگذارم!! هر ورودی/ایده ای بسیار قدردانی می شود!
تجزیه و تحلیل داده ها با استفاده از طرح همسان - کمک SPSS
107859
من از رگرسیون لجستیک باینری استفاده می کنم زیرا متغیر وابسته من یک متغیر دوگانه با حجم نمونه 740 است. من از متد enter برای وارد کردن متغیرهایم استفاده کرده ام و دو بلوک طراحی کرده ام. در بلوک 1 سعی کرده ام تاثیر متغیرهای جمعیتی را ببینم و در بلوک 2 10 پیش بینی جدید اضافه کرده ام. مقدار Chi-Square به طور قابل توجهی از بلوک 1 به بلوک 2 افزایش یافته است، آزمون Hosmer و lemeshow دارای مقدار بیشتر از 0.05 است (برای بلوک 1 0.000 بود) و احتمال ورود -2 نیز به شدت از بلوک 1 به بلوک 2 کاهش یافته است که نشان دهنده مدل خوب است. مناسب اما در بلوک 1 می توانم تأثیر قابل توجهی از برخی از متغیرهای جمعیتی ببینم، اما در بلوک 2 تأثیر هیچ یک از پیش بینی کننده ها وجود ندارد. لطفا در مورد خروجی من به من کمک کنید.. معنی آن چیست؟ آیا من در جایی اشتباه می کنم؟
برازش مدل بالا اما تاثیر قابل توجهی از هیچ یک از پیش بینی ها ندارد
71881
فرض کنید ما یک صف $M/GI/\infty$ داریم، یعنی بی‌نهایت سرور داریم، یک فرآیند ورود پواسون با نرخ $\lambda$ (یعنی زمان‌های ورود تصادفی $0=t_0 < t_1 < t_2 < \dots < t_n < \dots$، با زمان‌های بین ورود $\theta_n = t_n - t_{n-1}$ مستقل است توزیع نمایی با میانگین $1/\lambda$، و تاخیر i.d (مستقل از ورود) با میانگین محدود $\tau$. ما می دانیم (به عنوان مثال، از کتاب Takacs [1962]) که توزیع ثابتی وجود دارد به طوری که اندازه $q(t)$ صف در زمان $t$ (در حالت پایدار) از توزیع پواسون با میانگین پیروی می کند. $\lambda \alpha$، یعنی $ P(q(t) = k ) = \dfrac{e^{-\lambda \tau}(\lambda \tau)^k}{k!}، \qquad $ برای همه $t \ge 0$. حال فرض کنید که توزیع اندازه صف را در زمان رسیدن $n$ می خواهیم، ​​با فرض اینکه در حالت ثابت است. یعنی ما $p_k = P(q_n = k)$ می خواهیم، ​​که در آن $q_n = \lim_{t \to t_n^-} q(t)$. چگونه می توانیم $p_k$ را بدست آوریم؟
صف M/GI/inf در توزیع ثابت، چگونه می توان توزیع اندازه صف را در زمان رسیدن دریافت کرد؟
4341
من یک لیست بزرگ از مقادیر عددی (از جمله موارد تکراری) دارم و می‌خواهم آنها را در محدوده‌هایی گروه‌بندی کنم تا ببینم چگونه توزیع می‌شوند یا خیر. فرض کنید 1000 مقدار از 0 تا 2.000.000 وجود دارد و من می خواهم آنها را گروه بندی کنم. چگونه می توانم به این هدف برسم، ترجیحاً در اکسل یا SQL.
چگونه لیستی از مقادیر عددی را در محدوده گروه بندی کنم؟
4347
از آنچه خوانده اید یا در مورد آن شنیده اید، کدام کتاب خوب در مورد منطق / مجموعه ها / سیستم های فازی است؟ من به اصول سیستم های فازی، فازی سازی/فازی زدایی و غیره علاقه مند هستم. با تشکر، لوسیان
کتاب درسی فازی خوب
68387
من قبلاً در انجمن در مورد arima خودکار سؤالی پرسیدم اینجا را کلیک کنید ارزیابی عملکرد auto.arima در R و UCM در یک مجموعه داده. auto.arima پیش بینی عجیبی ارائه کرد، با نگاهی بیشتر به کد، هیچ مشکلی در کد R خود پیدا نکردم، کد زیر را ببینید. این یک مشکل بسیار ساده به نظر می رسد. اگر auto.arima با یک مجموعه داده ساده و ساده مناسب نیست، من در استفاده از این تابع برای جا دادن مجموعه داده های پیچیده تر بسیار محتاط خواهم بود. من استفاده از ابزار/توابع دیگر را تشویق می کنم و پیش بینی را تأیید می کنم. نمودار (تخم مرغ) ## 10 نقطه داده نگه دارید - 1984 تا 1993 egg_price = ts (تخم مرغ، شروع = 1900، پایان = 1983) ## Fit arima model fit <- auto.arima(egg_price) fcast <- forecast(fit, h=10) طرح (fcast)
نگاه انتقادی به auto .arima در بسته پیش بینی در R
91475
بگویید من مدل زیر را دارم: $$\text{Poisson}(\lambda) \sim \begin{cases} \lambda_1 & \text{if } t \lt \tau \\ \lambda_2 & \text{if } t \ geq \tau \end{cases} $$ و من از داده‌های من، پشتی‌های $\lambda_1$ و $\lambda_2$ را استنباط می‌کنم. آیا روش بیزی برای تشخیص (یا کمی کردن) وجود دارد که $\lambda_1$ و $\lambda_2$ **یکسان یا متفاوت** هستند؟ شاید اندازه گیری **احتمال متفاوت بودن $\lambda_1$ با $\lambda_2$**؟ یا شاید از واگرایی های KL استفاده کنید؟ به عنوان مثال، چگونه می توانم $p(\lambda_2 \neq \lambda_1)$ یا حداقل، $p(\lambda_2 \gt \lambda_1)$ را اندازه گیری کنم؟ به طور کلی، هنگامی که پسین های نشان داده شده در زیر را داشته باشید (مقادیر PDF غیر صفر** را در همه جا برای هر دو فرض کنید)، راه خوبی برای پاسخ به این سوال چیست؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jb5HU.png) ## به‌روزرسانی به نظر می‌رسد که این سؤال را می‌توان به دو صورت پاسخ داد: 1. اگر نمونه‌هایی از پسین‌ها داشته باشیم، می تواند به کسری از نمونه ها نگاه کند که در آن $\lambda_1 \neq \lambda_2$ (یا معادل $\lambda_2 > \lambda_1$) است. @Cam.Davidson.Pilon پاسخی ارائه کرد که با استفاده از چنین نمونه هایی به این مشکل رسیدگی می کرد. 2. ادغام نوعی تفاوت از پسین. و این بخش مهمی از سوال من است. **آن یکپارچه سازی چگونه به نظر می رسد؟** احتمالاً رویکرد نمونه گیری به این انتگرال تقریبی می کند، اما من می خواهم فرمول این انتگرال را بدانم. **توجه:** طرح های بالا از این مطالب می آیند.
یکسان یا متفاوت؟ راه بیزی
78025
اجازه دهید $B(t)$ حرکت براونی باشد. من می خواهم $\int B(t)^2 dB(t)$ را محاسبه کنم. تعریف. یک فرآیند $\{X(t),0\le t \le T \}$ در صورت وجود زمان $0=t_{0}<t_{1}<t_{2}<\ یک فرآیند سازگار ساده نامیده می شود cdots<t_{n}=T $ و متغیرهای تصادفی $\eta_{0},\eta_{1},\cdots,\eta_{n}$ به طوری که $\eta_{0}$ یک ثابت، $\eta_{i}$ $\mathcal F_{i}$-قابل اندازه‌گیری است، برای فرآیندهای سازگار ساده، انتگرال $\int X dB$ به عنوان مجموع $$\int_{0}^{T}X تعریف می‌شود (t)dB(t)=\sum_{i=0}^{n-1}\eta_{i}(B(t_{i+1}-B(t_{i}))$$
من می خواهم $\int B(t)^2 dB(t)$ را محاسبه کنم که در آن $B(t)$ حرکت براونی است
76358
من با یک سوال در مورد اثرات تصادفی دست و پنجه نرم می کنم که با منابع معمولی خود نتوانسته ام آن را بفهمم. من در حال بررسی اثرات دو تیمار (گرما و آب) بر روی داده های زیست توده گیاهی هستم که به مدت 4 سال در 20 قطعه جمع آوری کرده ام (هر کرت دارای 4 ربع است که مستقل نیستند اما به طور جداگانه اندازه گیری می شوند). مدل «lme» من (با استفاده از «nlme» در «R») دارای دو افکت تصادفی طبقه‌ای تو در تو است: سال درون نمودار و چهارتایی تو در تو قرار می‌گیرد به طوری که اسکریپت R من به شرح زیر است: lme(زیست توده ~ گرما*آب + ... + elevation, data, random=~1|plot/quad/year) هیچ پیام خطایی داده نشده است و به نظر می رسد که مدل به خوبی اجرا می شود. من فقط 4 سطح برای سال دارم (80 برای نمودار/چهار) و خوانده ام که تعداد کم سطوح، برآورد دقیق واریانس را دشوار می کند. من سعی کردم سال را به عنوان یک اثر ثابت اضافه کنم و نتایج کاملاً متفاوتی دریافت کنم (تغییرات سال به سال زیادی در متغیر وابسته من وجود دارد). سوالات من: 1. آیا اندازه کوچک اثر تصادفی سطح دوم مشکل ساز است؟ آیا فقط تعداد سطوح اثر تصادفی اصلی است که باید نگران آن باشم؟ 2. اگر فکر می کنید فقط 4 سطح مشکل دارد، چگونه می توانم تست کنم که آیا مدل من را به هم می زند یا خیر؟ جمع آوری داده ها برای چندین سال دیگر فقط برای اصلاح این مشکل امکان پذیر نیست. در زیر خروجی خلاصه مدل آمده است: > خلاصه (مدل) مدل اثرات مختلط خطی متناسب با REML داده: داده AIC BIC logLik 2327.316 2359.081 -1154.658 اثرات تصادفی: فرمول: ~1 | نمودار (Intercept) StdDev: 13.89338 فرمول: ~1 | چهار درصد در% نمودار (Intercept) StdDev: 11.32595 فرمول: ~1 | سال %در درصد چهار درصد درصد در درصد نمودار (برق) باقیمانده StdDev: 18.00256 7.39362 جلوه‌های ثابت: forbs ~ h * w + elevation Value Std.Error DF t-value p-value (Intercept) 1290.2549 221508.222171.20 0.6171 hy -10.6171 10.5874 15 -1.0028063 0.3319 wy -13.6224 10.3395 15 -1.3175078 0.2074 ارتفاع -0.3365 0.754 -0.3365 0.754 -0.3364 0.6483 hy:wy 37.1865 15.0869 15 2.4648273 0.0263 همبستگی: (Intr) hy wy elevtn hy -0.222 wy -0.189 0.503 elevation -1.000 hy 0.10 0.12 -1.000: 0.12 -0.728 -0.713 -0.274 استاندارد شده درون گروه باقیمانده: حداقل Q1 Med Q3 حداکثر -0.76090000 -0.23913835 -0.02857524 0.19955752 1.399955752 1.399996632 1.399966632 % تعداد نمودارها در سال: تعداد %25 تعداد نمودارها در سال: تعداد مشاهده %25 %in% quad %in% plot 20 74 257 با تشکر از کمک شما، و لطفاً اگر می توانم اطلاعات بیشتری ارائه دهم، به من اطلاع دهید. اگر کمکی کرد، خوشحال می شوم که داده ها و اسکریپت خود را برای شما ارسال کنم.
اندازه گروه اثرات تصادفی تودرتو با استفاده از lme (در nlme)
44945
من سعی کرده‌ام منابع خوبی را در اینترنت بیابم که شبکه‌های عصبی Wisard چیست و تفاوت‌های آن‌ها با شبکه‌های عصبی سنتی را توضیح دهد، اما نتوانستم چیز قابل‌توجهی پیدا کنم. لطفاً کسی می تواند خصوصیات اصلی آنها را توضیح دهد؟
شبکه عصبی WISARD چیست؟
108262
فرض کنید من متغیرهای تصادفی $X_i$ دارم که پواسون با میانگین $\mu$ توزیع شده اند. من به توزیع نمونه متغیر $\frac{X_1+...+X_n}{n}$ علاقه مند هستم. اکنون که $n$ به بی نهایت می رود، توزیع میانگین گاوسی است. با فرض اینکه من توزیع زیربنایی که پواسون است را می شناسم، آیا راهی برای محاسبه کران برای $n$ وجود دارد، مثلاً $N$، به طوری که اگر $n>N$، با یک خطای کوچک $\epsilon$ همگرایی داشته باشیم؟
توزیع نمونه‌گیری میانگین برای توزیع‌های پواسون
108265
من قبلا این سوال را حل کرده ام، اما به بازخورد نیاز دارم. > روش جدیدی برای اندازه گیری فشار خون در موش های آزمایشگاهی با استفاده از > رادیوتلمتری پیشنهاد شده است. این چگونه با روش > موجود مقایسه می شود؟ شما هر دو روش را روی نمونه 16 موش اعمال می کنید و از **________** استفاده می کنید. من معتقدم که یک تست _t_ همسان باید در جای خالی باشد. آیا من درست هستم یا اشتباه؟ با تشکر
تعیین اینکه کدام آزمون t درست است؟
40641
من به دنبال یک معیار خوب برای ثبت خوشه بندی در رویدادهای مبتنی بر زمان هستم. بگویید که برای یک فاصله زمانی معین 5 دقیقه، اتومبیل ها به طور تصادفی از جلوی خانه عبور می کنند ... مثلاً در هر 10 ثانیه یک اتومبیل (در مجموع 30 اتومبیل). برای فاصله زمانی 5 دقیقه ای دیگر، در هر سی ثانیه 3 ماشین عبور می کند و زمان بین سه ماشین 0 است (باز هم 30 ماشین در طول 5 دقیقه). تفاوت هر دو بازه در این است که برای بازه های دوم، ورود خودروها خوشه است. چه چیزی می تواند معیار خوبی برای گرفتن خوشه بندی باشد؟ من معیاری را می‌خواهم که نشان دهد در بازه دوم خوشه‌بندی بیشتر از اولی بوده است.
اندازه گیری برای ثبت خوشه بندی در رویداد مبتنی بر زمان
71886
امیدوارم این انجمن مناسب برای پرسیدن این سوال باشد. چارچوب‌های فیلتر متوالی اساساً ۲ مرحله را انجام می‌دهند: مدل فرآیند (پیش‌بینی): $x_{t+1} = f_t(x_t) + v_t$ مدل مشاهده (به‌روزرسانی): $z_t = h_t(x_t) + w_t$ در اینجا، $v_t ، w_t$ فرآیندهای نویز میانگین صفر نامرتبط هستند و $f_t، h_t$ توابعی هستند (ممکن است خطی یا غیر خطی باشد). برای مورد خاص فیلترهای کالمن، $f_t، h_t$ _خطی_ و فرآیندهای نویز _Gaussian_ هستند. در برنامه من، کاربر مدل مشاهده را با استفاده از داده های تاریخی (مثلاً رگرسیون خطی) یاد می گیرد. از آنجایی که چنین است، کاربر ممکن است یک _مدل مشاهده معکوس_ را نیز بیاموزد، به طوری که $$x_t = g_t(z_t) + \eta_t$$ در اینجا، بردار حالت زیربنایی به عنوان تابعی از مشاهدات $z_t$ بیان می شود. فرض کنید $\eta_t$ گاوسی است. با مدل مشاهده معکوس، مرحله به روز رسانی ساده شده است. $g_t$ را روی $z_t$ اعمال کنید و سپس بردار حاصل را به سادگی _assimilate_ کنید (آن را $\hat{x}_t$ نامید) به $x_t$. همسان سازی در اینجا یک جمع وزنی از دو متغیر توزیع شده گاوسی است که در آن وزن ها در نسبت معکوس ماتریس های کوواریانس آنها هستند (برای حل بهینه کالمن). بنابراین سوال من این است: آیا این رویکرد استفاده از مدل مشاهده معکوس به جای مدل مشاهده اشکالی دارد؟ مزیت این است که می توانم جمع وزنی را به عنوان یک عملگر در ساختار داده خود تعریف کنم.
مدل مشاهده معکوس و فیلتر کالمن
67434
من برخی از داده های مشاهده شده (یعنی توسط هیچ توزیع فرضی ایجاد نشده است، بلکه توسط فرآیندهای واقعی تولید شده است) دارم که معتقدم دووجهی هستند (ممکن است بیش از دو حالت داشته باشد). در این مجموعه داده، 241792 مشاهده وجود دارد. دهک ها مقادیر زیر هستند: MIN - 0.1472 10th - 0.3072 20th - 0.4094 30th - 0.6267 40th - 0.9396 50th - 1.4678 60th - 2.4125. 90th - 16.7443 MAX - 241.0211 چگونه می توانم حالت ها را با استفاده از R شناسایی کنم؟ پس از شناسایی و با فرض اینکه هر حالت مکان گرایش مرکزی برای یک توزیع محلی و تا حدودی گاوسی است، چگونه باید تعیین کنم که یک دم به کجا ختم می‌شود و بعدی شروع می‌شود؟ نتیجه نهایی این است که من سعی می کنم مجموعه داده ها را به عنوان ترکیب پارتیشن ها در نظر بگیرم، جایی که هر پارتیشن به تنهایی قابل تجزیه و تحلیل است.
داده های چندوجهی - یک دم به کجا ختم می شود و دیگری شروع می شود؟
67433
من یک مجموعه داده با تعداد کمی نمونه (322) و تعداد زیادی ویژگی (318.976) دارم. داده های من از تصاویر تشکیل شده است و من می خواهم یک طبقه بندی کننده باینری آموزش دهم. از آنجایی که من حجم کمی از داده ها را در اختیار دارم، استراتژی زیر را به کار گرفته ام: * کاهش ابعاد با استفاده از چند قانون دست نویس (از 318.976 به 12.000 ویژگی) * آموزش فیلتر پراکنده برای کاهش بیشتر ابعاد (از 12.000 به 1000 ویژگی * برای آموزش فیلتر پراکنده، با جابجایی تصاویرم به صورت افقی که مشکل من است، داده های اضافی ایجاد می کنم ثابت در زیر این به من 19.320 نمونه می دهد. نمونه‌های مثبت بالا می‌روند، بنابراین آنها در مجموع به همان وزن نمونه‌های منفی می‌رسند تخمین OOB از جنگل تصادفی من، اما مشکل این است که وقتی داده‌هایم را برای به دست آوردن نمونه‌های بیشتری تغییر دادم و سپس فیلتر پراکنده را آموزش دادم، مجموعه‌ای از ویژگی‌ها را دریافت می‌کنم که فقط نسخه‌های تغییر یافته از یکدیگر هستند. وقتی جنگل تصادفی خود را آموزش می‌دهم، این ویژگی‌ها همبستگی بسیار بالایی دارند و تخمین OOB این را در نظر نمی‌گیرد که برخی از ویژگی‌های من همبستگی بسیار بالایی دارند، در نتیجه قدرت پیش‌بینی بیش از حد برآورد می‌شود. از آنجایی که در ابتدا نمونه های کمی دارم، هیچ راه خوبی برای اعتبارسنجی متقاطع ندارم، به خصوص که مجموعه داده های بسیار نامتعادلی دارم. آیا راهی برای دستیابی به تخمین خطاهای کمی دقیق تر وجود دارد؟
برآورد خارج از کیسه با جانبداری از ویژگی های مرتبط
76359
من یک معادله انتگرالی به شکل $$ T_1(x) = \int_0^x g(T_1(y)) \ d\hat{F}_n(y) $$ دارم که $\hat{F}_n$ تجربی است cdf و $g$ یک تابع است. من یک نقشه انقباضی دارم و بنابراین سعی می کنم معادله انتگرال را با استفاده از دنباله قضیه Banach Fixed Point حل کنم. با این حال، این در R بسیار کند اجرا می شود و من فکر می کنم به این دلیل است که من با استفاده از تابع sum() برای $x \in \hat{F}_n$ بارها و بارها ادغام می کنم. آیا راه سریع تری برای ادغام با استفاده از توزیع تجربی با تابعی مانند integrate() وجود دارد؟
با ECDF به سرعت در R ادغام شوید
86621
**آیا گنجاندن پیامدهای میانی در یک مدل پیش بینی مناسب است؟** کاملاً واضح است که نباید متغیرهای پس از درمان / پیامدهای میانی را زمانی که هدف استنتاج علّی است کنترل کرد، اما من مطمئن نبودم که آیا همان توصیه است یا خیر. زمانی که هدف فرد ساختن مدلی برای پیش بینی باشد، باید رعایت شود. در اینجا زمینه ای برای سوال من وجود دارد: من سعی می کنم مدلی بسازم که پیش بینی کند آیا یک دانش آموز در طی 6 سال پس از فارغ التحصیلی از دبیرستان با استفاده از مجموعه داده های مشاهده ای بزرگ مدرک لیسانس کسب می کند یا خیر. من داده‌هایی درباره متغیرهای دبیرستان دانش‌آموزان (معدل HS، نمرات آزمون، تعداد فعالیت‌های شرکت‌کننده و غیره)، برخی از داده‌های مربوط به تجربیات کالج دانش‌آموزان (ثبت‌نام با تأخیر در کالج، وضعیت تمام وقت / پاره وقت، انتقال داده شده در داخل) دارم. دو سال از ثبت نام)، و همچنین اطلاعات در مورد ویژگی های کالج آنها شرکت می کنند. به عبارت دیگر، من داده های سطح دانش آموزی و سطح موسسه را دارم. من لانه سازی دانش آموزان در یک موسسه خاص را حساب می کنم. برخی به من گفته‌اند که داده‌های سطح دانش‌آموز در مورد تجربیات دانشگاه نتایج متوسطی هستند و من نباید آنها را در مدل لحاظ کنم. برای من روشن نیست که آیا باید / می‌توانم متغیرهای تجربه دانشگاهی (که می‌توانند نتایج متوسط ​​در نظر گرفته شوند) را در مدل پیش‌بینی بگنجانم، و اگر آنها را وارد کنم، چگونه باید با آنها رفتار کرد.
مدل رگرسیون برای پیش بینی با استفاده از پیامدهای میانی
68269
فرض کنید می‌خواستید تقاطع‌های بین n انجمن آنلاین مختلف را ترسیم کنید. به عنوان مثال: * 80٪ از کاربران CrossValidated همچنین یک حساب Stack Overflow دارند * 50٪ از کاربران Hacker News نیز یک حساب Reddit دارند * و غیره. راه خوبی برای تجسم این موضوع چیست؟ آیا نمونه ای از نمودارهای موجود وجود دارد؟ من این سوال را دیده ام که پاسخی را ارائه می دهد. اما من کنجکاو هستم که بدانم آیا تکنیک های تجسم دیگری وجود دارد که به طور خاص به مقایسه روابط بین جوامع کمک کند.
تجسم تقاطع ها بین جوامع آنلاین
76350
چند آزمون یا شاخص خوب بودن تناسب برای مورد متغیرهای پیوسته چیست؟ به عنوان مثال، من به آزمون کولموگروف-اسمیرنوف نگاه می کنم. چیزی که من متوجه نمی شوم این است که چگونه می توان CDF تجربی را در وهله اول دریافت کرد؟ منظور من این است که فرض کنید من یک تحلیل رگرسیون با خطاهای گاوسی انجام دهم. من تخمین حداکثر احتمال پارامترها را دارم. اکنون من همچنین باید یک تخمین چگالی برای CDF تجربی انجام دهم؟ آیا آنها یکسان نیستند؟ آیا احتمال من از قبل به من تناسب خوبی نمی دهد؟ چرا به K-S نیاز دارم؟ واقعا گیج شده
Good of Fit برای متغیرهای پیوسته
56681
من در حال خواندن قضیه گواس-مارکوف در ویکی پدیا هستم و امیدوار بودم کسی بتواند به من کمک کند تا نکته اصلی قضیه را بفهمم. فرض می کنیم یک مدل خطی، به شکل ماتریسی، به صورت زیر داده می شود: $$ y = X\beta +\eta $$ و ما به دنبال BLUE، $ \widehat\beta $ هستیم. مطابق با این، من $\eta = y - X\beta$ را باقیمانده و $\varepsilon = \widehat\beta - \beta$ را خطا می‌نامم. (یعنی برعکس استفاده در صفحه گاوس مارکوف). برآوردگر OLS (کمترین مربعات معمولی) ممکن است به عنوان argmin $||\text{residual}||_2^2 = ||\eta||_2^2$ مشتق شود. حال، اجازه دهید $\mathbb{E}$ عملگر انتظار را نشان دهد. طبق درک من، آنچه قضیه گاوس-مارکوف به ما می گوید این است که اگر $\mathbb{E}(\eta) = 0$ و $\text{Var}(\eta) = \sigma^2 I $، آنگاه argmin، روی همه برآوردگرهای خطی و بی طرفانه، $\mathbb{E}(||\text{error}||_2^2) = \mathbb{E} (||\varepsilon||_2^2)$ با همان عبارت برآوردگر OLS داده می شود. یعنی $$ \text{argmin}_{\text{} \widehat\beta(y)} \, ||\eta||_2^2 \;=\; (X'X)^{-1}X'y \;=\; \text{argmin}_{\text{خطی، بی طرفانه } \widehat\beta(y)} \, \mathbb{E}(||\varepsilon||_2^2)$$ آیا درک من درست است؟ و اگر چنین است، آیا می گویید که سزاوار تاکید برجسته تری در مقاله است؟
قضیه گاوس مارکوف: آبی و OLS
91080
من در حال انجام یک مقاله آماری هستم که در آن باید تشخیص بالینی را با هیستوپاتولوژیک مرتبط کنم. بنابراین، اساساً من یک گروه از افراد با 2 تشخیص مختلف دارم: 1. بالینی 2. هیستوپاتولوژیک معمولاً این دو باید یکسان باشند، اما به دلیل برخی از خطاهای بالینی گاهی اوقات اینطور نیست. کار من این است که محاسبه کنم چه تعداد تشخیص مشابه دارند و چه تعداد تشخیص متفاوت دارند. از چه آزمون آماری باید استفاده کنم؟ متشکرم
همبستگی بین همان گروه
26654
اکتشاف لرزه ای شامل تحریک امواج لرزه ای با استفاده از بارهای انفجاری صنعتی است. توزیع انرژی انفجار چنین بارهایی چگونه می تواند باشد؟ حدس من این است که می تواند گوسی باشد با میانگینی که می تواند از مشخصات شارژ گرفته شود و با پراکندگی بسیار کم. با این حال، کسب میدان موج انفجار در سطح زمین نشان می دهد که توزیع دارای چولگی بسیار قوی است (دم سمت راست بسیار بلند است).
توزیع انرژی انفجار مواد منفجره درجه معدن و اکتشاف لرزه ای چگونه می تواند باشد؟
108268
من در حال حاضر سعی می کنم از خطاهای استاندارد Newey-West برای حسابداری Heteroskedasticity و AutoCorrelation با بسته ساندویچ در R استفاده کنم، اما درک کاملی از آن ندارم زیرا نمی توانم دستورالعمل های ارائه شده در راهنما را به طور کامل درک کنم. کتابخانه (ساندویچ) ## متناسب داده معادله سرمایه گذاری (سرمایه گذاری) fm <- lm(RealInv ~ RealGNP + RealInt، داده = سرمایه گذاری) خلاصه (fm) ## نیوی و وست (1994) (ناهمبستگی و خودهمبستگی سازگار؛ HAC) ## کوواریانس تخمین ماتریس NeweyWest(fm) ## The Newey & West برآوردگر (1987) به مشخصات ## تاخیر و سرکوب پیش سفید شدن NeweyWest نیاز دارد (fm, lag = 4, prewhite = FALSE) متأسفانه این همه اطلاعاتی است که نویسندگان ارائه می دهند. من می دانم که این فقط ماتریس واریانس-کوواریانس HAC برآورد شده است، اما چگونه می توان از آنجا برای به دست آوردن خطاهای استاندارد معتبر و آمار t- اقدام کرد؟ و آیا فرض من درست است که اگر تاخیر را مشخص نکنید، تابع bwNeweyWest به طور خودکار تعداد تاخیرهای مربوطه را انتخاب می کند؟
نحوه محاسبه خطاهای استاندارد نیوی وست و آمار t
78022
من با استفاده از بسته quantreg رگرسیون های کمی را در R انجام می دهم. مجموعه داده من شامل 12328 مشاهدات از 0.12 تا 330 است. نقاط زمانی برای داده های من دقیقاً پیوسته نیستند. همه داده‌ها در یکی از چند ده bin از 73 تا 397 قرار می‌گیرند. وقتی یک رگرسیون خطی روی این داده‌ها با استفاده از تابع lm() انجام دادم، توانستم این کار را با چند جمله‌ای تا 4 انجام دهم: lm(Y~poly( X,3,raw=TRUE),data=mydata) با این حال، با بسته quantreg و دستور rq() نمی توانم از هیچ چند جمله ای استفاده کنم. یک رگرسیون ساده به خوبی کار می کند: rq(Y~X,data=mydata,tau=.15) اما به محض اینکه وارد چندجمله ای ها شدم، دیگر تاس نمی ماند. وقتی این را وارد می کنم: rq(Y~poly(X,2,raw=TRUE),data=mydata,tau=.15) پیغام خطای زیر را دریافت می کنم: خطا در rq.fit.br(x, y, tau = tau، ...) : ماتریس طراحی تکی من با همه اینها خیلی تازه کار هستم. من تا آنجایی که می‌توانم ماتریس‌های تکی را مطالعه کرده‌ام و فکر می‌کنم ممکن است دو دلیل برای این وجود داشته باشد: (1) من فقط یک متغیر در هر محور دارم، یا (2) داده‌های من بایند هستند/متغیر Y نیست. تی واقعا پیوسته آیا کسی می تواند به من بگوید که چرا این خطا را دریافت می کنم؟ متشکرم! PS - نمودار به این صورت است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/htUdA.png)
علت تکینگی در ماتریس برای رگرسیون چندک
67437
من این سردرگمی را دارم که از کدام تبدیل در داده های خود استفاده کنم. هیستوگرام داده های اصلی من به این شکل است ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ANDSY.jpg) اکنون اکثر مکان هایی را دیده ام که در صورت وجود داده ها، تبدیل گزارش انجام شود. دارای انحراف مثبت است. اما زمانی که من تغییر لگ را انجام می‌دهم، چیزی شبیه به این را دریافت می‌کنم که به طور منفی منحرف است، نه آن چیزی که من می‌خواهم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/aorf0.jpg) اگر تبدیل ریشه مربع و تبدیل ریشه مکعب را بگیرم اینگونه می شوم ![شرح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/hwls7.jpg) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uJ70C.jpg) اکنون داده ها تقریباً به حالت عادی نزدیک شده اند. اما من شهود پشت این موضوع را دریافت نکردم. چرا وقتی می‌بینم که در بسیاری از مکان‌ها افراد درباره تبدیل گزارش زمانی که داده‌ها دارای انحراف مثبت هستند، مفید است، با تبدیل گزارش کار نکرد. در اینجا ریشه مربع و ریشه مکعب کار می کند. می خواهم بدانم در چه شرایطی باید از تبدیل log و در چه شرایطی از تبدیل ریشه مکعب استفاده کنیم. پیشنهادات؟
سردرگمی مربوط به اینکه از کدام تبدیل استفاده شود
91083
در حالت ایده‌آل، می‌خواهم کسر میانگین $x$ را روی مجموع میانگین $x$ و میانگین $y$ بدانم: $$\text{کسری از علاقه} = \frac{\bar{ x}}{\bar{x}+\bar{y}}$$ جایی که $$\bar{x} = \frac{\sum_{i=1}^I x_i }{I}$$. با این حال، من کسری از میانگین هندسی $x$ را روی مجموع میانگین هندسی $x$ و میانگین هندسی $y$ دارم: $$\text{کسری که دارم} = \frac{\prod_{i=1}^I{x_i}}{\prod_{i=1}^I{x_i}+\prod_{i=1}^I{y_i}}$$. آیا تعبیر خوبی برای کسری که دارم وجود دارد؟ وقتی صحبت از ابزارهای هندسی به میان می آید، شهود خود را از دست می دهم. در غیر این صورت، آیا راهی برای اتصال این دو کسر وجود دارد؟ توجه داشته باشید (با تشکر از نظرات توجه کنید که): $x_i، y_i، i=1،\ldots، I$ همیشه $>0$. برای افزودن بیشتر به این، $x_i$ و $y_i$ مشاهداتی از یک آزمایش هستند. فرض بر این است که $log(x_i)$ و $log(y_i)$ از توزیع نرمال پیروی می کنند. من به تفاوت بین $x_i$ و $y_i$ در بین تکرارها علاقه مند هستم (یعنی آزمایش های $R$ دارم که در هر کدام از $x_i$ و $y_i$ را اندازه گیری می کنم) بنابراین برای من راحت است. برای مدل کردن $log(x_i/y_i)$ به عنوان یک متغیر تصادفی توزیع شده نرمال (با میانگین و واریانس به عنوان میانگین نمونه و واریانس نمونه $log(x_i/y_i)$ بیش از $I$). سپس از یک مدل رگرسیون استفاده می‌کنم (بدون پرداختن به جزئیات زیاد) که در آن پاسخ در هر آزمایش $r$ از $R$، میانگین $log(x_i/y_i)$ بیش از $I$ (تقریباً $\sum_{i) است. =1}^I log(x_i/y_i)/I = \alpha + \beta X$). با برآورد $\alpha$ (یعنی میانگین پاسخ) می خواهم $\frac{\bar{x}}{\bar{x}+\bar{y}}$ را به عنوان تابعی از $\hat\ بیان کنم. آلفا دلار بنابراین چیزی که من دارم این است: $\hat\alpha = \sum_{i=1}^I log(x_i/y_i)/I = log(\frac{\prod_{i=1}^I{x_i}}{\ prod_{i=1}^I{y_i}})$ بنابراین، $e^{I\alpha} = \frac{\prod_{i=1}^I{x_i}}{\prod_{i=1}^I{y_i}}$ اضافه کردن 1 به هر دو طرف و رد کردن چند مرحله به من می‌رسد که: $\frac{e ^{I\alpha}}{1 + e^{I\alpha}} = \frac{\prod_{i=1}^I{x_i}}{\prod_{i=1}^I{x_i}+\prod_{i=1}^I{y_i}}$ بنابراین اساساً دارم تلاش می‌کنم برای اینکه شهودی از چگونگی آن بدست آورید $\frac{\prod_{i=1}^I{x_i}}{\prod_{i=1}^I{x_i}+\prod_{i=1}^I{y_i}}$ مربوط به $\frac است {\bar{x}}{\bar{x}+\bar{y}}$ یا یک تابع برای اتصال این دو.
کسری از میانگین هندسی در مقابل کسری از میانگین های حسابی
67435
من یک مجموعه داده با 90000 مشاهده و کمتر از 10 ویژگی دارم (همه پیوسته). مشکل این است که متغیر پاسخ دارای ~300 دسته است. در حال حاضر من سعی می کنم یک مدل خطی چند جمله ای یا یک جنگل تصادفی را جا بزنم. من باید احتمالات را برای 300 دسته پیش بینی کنم. من به مقداری الهام نیاز دارم و می خواهم بدانم دیگران از کدام مدل استفاده می کنند؟
یادگیری ماشینی برای پاسخگویی چند سطحی
108263
فرض کنید من برخی از مدل‌ها را با فرمت زیر اجرا می‌کنم. متغیر وابسته به‌عنوان مجموع مقادیر تحقق‌یافته یک متغیر تصادفی باینری در آزمایش‌های متعدد، یعنی «تعداد رأی‌های بله در صورتحساب‌ها»: Coef. SE z (ثابت) 0.467 0.239 1.950 SPD 0.094 0.174 0.541 #احزاب -0.218 0.100 -2.192 $\gamma$ 0.012 0.009 1.374 مایل به افزایش تعداد احزاب به تعداد I -4. به تعداد دفعاتی که یک ایالت پیشنهاد دولت فدرال را از بین 103 رای تایید کرده است، یک عدد. چگونه می توانم بر اساس خروجی رگرسیون خود این کار را انجام دهم؟
نحوه محاسبه و تفسیر اولین اثر تفاوت مدل رگرسیون دو جمله ای بتا توسعه یافته
79371
این ممکن است به طور کلی یک سوال باشد: به دلیل بار محاسباتی، من باید از زیرمجموعه ای از داده های کامل خود (مثلاً 1000 از 10000 مشاهده کامل) استفاده کنم تا مقدار p-value یک آزمون را بدست بیاورم. خود تست از شبیه سازی مونت کارلو است. سوال من این است که آیا راهی برای تعیین کمیت عدم قطعیت مقدار p وجود دارد **به دلیل استفاده از زیرمجموعه ای از 1000 مشاهدات به جای استفاده از مجموعه داده کامل؟** با تشکر!
خطای استاندارد مقادیر p برآورد شده از شبیه سازی ها
91087
من یک تکلیف در مورد پیاده سازی الگوریتم adaboost دارم. ما این مقاله توسط Schapire را دنبال می کنیم. من دقیقاً مطمئن نیستم منظور آنها در انتساب از : > اجازه دهید الگوهای آموزشی و برچسب های آنها در مجموعه داده D به ترتیب xi و > yi نشان داده شوند و اجازه دهید Wk(i) kth (گسسته) توزیع بر روی همه > اینها باشد. نمونه های آموزشی ما این وزن ها را به Wk مقداردهی می کنیم تا در > تکرار k=1 یکنواخت باشند. آیا فقط یک آرایه از آن ها درست کنم؟ Wk = ones((size(H(x))) سپس آن را بر اساس آن در هر تکرار به روز کرد.
چگونه توزیع وزنی adaboost را مقداردهی اولیه کنیم؟
85630
اگرچه من می دانم که چگونه بسیاری از مقادیر آماری را محاسبه کنم، اما در درک اینکه کدام یک را باید در یک موقعیت خاص استفاده کنم با مشکلاتی روبرو هستم. در اینجا مثال من است: در آزمایشم سعی کردم بفهمم آب از 8 ماده مختلف غیرواون با چه سرعتی تبخیر می شود. برای رسیدن به این هدف، من برای هر ماده 4 Testobject آماده کردم (که در مجموع 32 عدد می شود) و آنها را مرطوب کردم. سپس آنها را در یک محیط کنترل شده قرار دادم خشک شوند (آزمایشگاه تهویه مطبوع شد و دما و رطوبت هوای مربوطه ثبت شد). هر ساعت وزن هر تست را اندازه گرفتم. من رابطه بین وزن آب و وزن یک Testobject خشک را محاسبه کردم تا بتوانم نتایج را با یکدیگر مقایسه کنم و آنها را در یک نمودار (نسبت آب به خشک به نمودار زمان) ارائه کردم. من یک خط روند خطی برای هر یک از 32 شی آزمایشی با روش حداقل مربعات گاوسی ایجاد کردم. شیب نمودار نشان دهنده نرخ تبخیر در ساعت یک شی معین است. من برای محاسبه از اکسل استفاده کردم. من می توانم خطای مشاهده ای را برای وزن اندازه گیری شده و زمان اندازه گیری مربوطه تخمین بزنم. با توجه به اینکه خط روند محاسبه شده به صورت زیر تعریف می شود: $ m = a \times t + b$ - وزن و زمان اندازه گیری شده $m_{i}$ و $t_{i}$ است و فاصله عمودی بین داده های اندازه گیری شده و خط روند برابر است. تعریف شده به صورت: $ e_{i} = a \times t_{i} + b - m_{i}$ می‌توان خطای شیب «a» را با معادله زیر محاسبه کرد: ![Error of Slope of a trendline](http://i.stack.imgur.com/BpwGw.png) بنابراین مشکل من اینجاست: من 4 خط روند برای هر ماده با 4 شیب دارم. من برای هر ماده یک میانگین محاسبه کردم. همه شیب ها خطای خود را دارند. همچنین هر میانگین پراکندگی آماری خود را دارد. من می‌خواهم آن میانگین‌ها را با نوعی محدوده +-، مانند انحراف استاندارد یا چیزی دیگر، ارائه دهم. از چه نوع اندازه گیری پراکندگی آماری باید استفاده کنم؟
کدام معیارهای پراکندگی آماری باید برای تخمین پراکندگی شیب یک خط روند استفاده شود
108261
من سعی می کنم مجموعه داده های خود را به دو کلاس (درون گرا / برون گرا) طبقه بندی کنم. من در ابتدا به استفاده از درخت تصمیم فکر می کردم، اما هیچ نتیجه بالقوه شناخته شده ای برای ایجاد مدل درخت تصمیم خود ندارم. بنابراین تصمیم گرفتم از یک الگوریتم خوشه بندی _k_ -means با _k_ = 2 استفاده کنم. قبل از شروع خوشه بندی برخی از قوانین را که در درخت تعریف می کنم؟ 2. فرض کنید در پایان الگوریتم من 2 خوشه خود را دریافت می کنم: خوشه 1 و خوشه 2. چگونه می توانم این دو خوشه را بر اساس 2 کلاس خود طبقه بندی کنم؟ آیا قرار است از خوشه بندی نظارت شده یا نیمه نظارتی استفاده کنم؟ (نمی دانم خوشه بندی نیمه و نظارت شده چگونه کار می کند). 3. آیا روش طبقه بندی ساده و کارآمد دیگری وجود دارد که بتواند نیازهای من را برآورده کند؟ P.S. من تازه وارد این دامنه هستم و همه توصیه ها و نظرات شما قابل قدردانی است.
یک سوال خوشه بندی و طبقه بندی
92543
من می خواهم نتایج خود را تجزیه و تحلیل کنم که دارای 3 گروه با 5 نتیجه ممکن است (به هر حال آنها داده های ترتیبی هستند) و تعداد سلول های مورد انتظار کمتر از 5 است. به نظر می رسد که نمی توان تجزیه و تحلیل بزرگتر از یک جدول 2X2 را اجرا کرد. SPSS. کسی راه حلی براش داره؟ یا باید از تست های دیگری مانند رگرسیون ترتیبی استفاده کنم؟ با تشکر
چگونه تست دقیق فیشر را برای میزهای 2X5 یا 3X5 انجام دهیم؟
68265
من در حال انجام محاسبات توان ANOVA یک طرفه (در R) برای آزمایش RCBD با 15 گروه، 3 بلوک و n = 3 در هر گروه هستم. چگونه ممکن است که دو مدل مختلف ANOVA دقیقاً قدرت یکسانی داشته باشند حتی اگر متغیرهای پاسخ متفاوت باشند؟ حتی اگر پاسخ‌ها تا حدودی مرتبط باشند، نمی‌دانم چرا قدرت حتی برای 7 رقم قابل توجه یکسان است. این واقعیت که قدرت بسیار کم است منطقی است. در اینجا محاسبات برای دو پاسخ ممکن است: گروه = 15 n = 3 بین.var = 0.3422844 inside.var = 1.026853 sig.level = 0.01 توان = 0.2162478 گروه = 15 n = 3 بین.var = 1.7597588. سطح = توان 0.01 = 0.2162478
چگونه دو مجموعه داده می توانند قدرت یکسانی داشته باشند؟
101241
[من یک نوبت آماری هستم، پس اگر جایی اشتباه می کنم، لطفاً تصحیح کنید!] ما یک نظرسنجی از مشتریان خود بر اساس رویدادها یا نقاط تماس خاص انجام می دهیم. پاسخ ها به طور قابل توجهی بر اساس این نقاط تماس متفاوت است، بنابراین من می خواهم پاسخ ها را با طبقه بندی پست وزن کنم. با این حال، من هیچ پاسخی از مشتریانی که رویداد نداشته اند، ندارم و این مشتریان بیش از 60 درصد از جمعیت پورتفولیو را تشکیل می دهند! آیا راه‌حلی برای این مشکل وجود دارد - چگونه می‌توانم بخش‌های غیرنمونه‌شده را در تحلیل خود جای دهم؟ آیا انتساب یک راه حل ممکن است؟ به عنوان مثال: فرض کنید - ما یک ارائه دهنده خدمات تلفنی هستیم و از مشتریان خود نظرسنجی می کنیم تا بفهمیم آنها تا چه حد از برخی از عناصر خدمات ما رضایت دارند. ما مشتریانی را با تماس های قطع شده بیش از حد نمونه برداری کرده ایم، زیرا این بیشتر یک منطقه مشکل است. علاوه بر این، ما به طور تصادفی از برخی از مشتریانی که اتصال 3G دارند اما تماس قطعی ندارند نظرسنجی می کنیم. بیایید چند عدد به این اضافه کنیم - 1000 مشتری، 600 با 3G، 400 بدون. از این تعداد 100 مشتری با 3G قطع تماس دارند و 100 مشتری بدون 3G قطع تماس دارند. در نظرسنجی ما، فرض کنیم از 150 مشتری پاسخ داریم - 50 نفر با 3G و یک تماس قطع شده، 50 نفر با 3G و بدون تماس قطع شده، و 50 نفر بدون 3G و تماس قطع شده. اگر بخواهیم بفهمیم که سبد مشتریان چقدر رضایت دارند، می‌توانیم پاسخ‌ها را با وزن‌های زیر طبقه‌بندی کنیم: مشتریان با 3G و تماس قطع شده (100/1000)/(50/150) = 0.3 مشتریان با 3G و بدون تماس قطع شده - ((600-100)/1000)/(50/150) = 1.5 مشتری بدون 3G و قطع تماس - (100/1000)/(50/150) = 0.3 مشتری بدون 3G و بدون قطع تماس - ???? اگر پاسخ‌هایی از این بخش نداشته باشیم، چگونه می‌توانیم نظرسنجی را برای درک رضایت پورتفولیو برون‌یابی کنیم؟ تنها چیزی که می‌توانم به آن فکر کنم این است که پاسخ‌های چند مشتری را بر اساس پاسخ‌های 3 بخش دیگر درج کنم - شاید با توجه به متغیرهای پیش‌بینی‌کننده خاصی، یک پاسخ پایه برای مشتری وجود داشته باشد، و وجود/غیاب 3G و تماس‌های قطع‌شده باعث شود. آن پاسخ را برای یک مشتری مشخص تغییر دهید؟ این یک ایده بسیار مبهم است و من نگران اضافه کردن پاسخ هایی به نظرسنجی خود هستم که ساخته شده هستند! لطفا کمک کنید! با تشکر
حسابداری برای عدم پوشش در نظرسنجی
108267
در مجموعه داده‌های فعلی‌ام، من چندین متغیر طبقه‌بندی دارم. اکثر آنها توزیع مناسبی بین دسته ها دارند. 30:40:30 تقسیمات و غیره که اینها درصد اعضای مجموعه داده در هر مجموعه داده 2000 عضو است، اما تعداد کمی از آنها (من احساس می کنم) توزیع های بی فایده یا دشواری دارند. برخی از آنها توزیع هایی مانند 97:2:1 دارند - برای من اعضای کمی در دسته های کم جمعیت وجود دارد که فقط این متغیر را کنار می گذارم. ممکن است فقط 10-20 عضو در دسته 1٪ وجود داشته باشد. دیگران توزیع هایی دارند که من مطمئن نیستم چه کار کنم. 80:10:5:5 و غیره اگر در دنیای واقعی منطقی باشد، با این گزینه آیا ترکیب بخش 10:5:5 در یک گروه قابل اجرا است؟ یعنی متغیر جدید دارای 2 دسته است که شامل تقسیم 80:20 در اعضا است. در مورد درختان تصمیم فکر نمی‌کنم این مشکل خیلی زیادی باشد، زیرا به‌طور موثر خود ترکیب را انجام می‌دهد. با سایر روش‌های مدل‌سازی که در آن متغیرهای ساختگی ایجاد می‌شوند، آیا ترکیب (یا حتی حذف) متغیرها یک روش تشویقی است زیرا به کاهش ابعاد نیز کمک می‌کند؟
متغیرهای مقوله ای با توزیع بسیار ناهموار؟ حذف/تغییر/ترک؟
109793
دیس، یک فرض برای همبستگی اسپیرمن این است که داده ها باید یکنواخت باشند. من سعی کردم در spss پراکندگی انجام دهم، اما نمودار زیر را دریافت کردم که نتوانستم تصمیم بگیرم که یکنواخت است یا خیر.. راه حل چیست لطفا؟ توجه: داده های من متغیرهای ترتیبی هستند. ![Scatterplot gragh](http://i.stack.imgur.com/RZOUG.jpg)
اسپیرمن - یکنواخت؟
91558
در حین مطالعه بازخورد مربوط (بازخورد شبه مرتبط)، متوجه شدم که این مدل برای برخی از پرس و جوها به طرز وحشتناکی اشتباه می کند. آیا کسی می تواند دلایلی برای این موضوع ارائه دهد؟
بازخورد مربوط - (بازخورد شبه مرتبط)
91088
یک رویکرد معمولی برای حل یک مشکل طبقه‌بندی، شناسایی کلاسی از مدل‌های کاندید، و سپس انجام انتخاب مدل با استفاده از روشی مانند اعتبار سنجی متقابل است. به طور معمول، مدلی با بالاترین دقت، یا برخی از تابع های مرتبط که اطلاعات خاص مشکل را رمزگذاری می کند، مانند $\text{F}_\beta$ انتخاب می کند. با فرض اینکه هدف نهایی تولید یک طبقه‌بندی‌کننده دقیق است (جایی که تعریف دقت مجدداً وابسته به مشکل است)، در چه شرایطی بهتر است انتخاب مدل با استفاده از یک قانون امتیازدهی مناسب به جای موارد نامناسب مانند دقت، دقت، یادآوری انجام شود. و غیره؟ علاوه بر این، بیایید مسائل پیچیدگی مدل را نادیده بگیریم و فرض کنیم که همه مدل‌ها را به یک اندازه محتمل در نظر می‌گیریم. قبلاً می گفتم هرگز. ما می دانیم که، به معنای رسمی، طبقه بندی مشکل آسان تری نسبت به رگرسیون است [1]، [2] و می توانیم مرزهای سخت تری را برای اولی نسبت به بعدی ($*$) استخراج کنیم. علاوه بر این، مواردی وجود دارد که تلاش برای تطبیق دقیق احتمالات می‌تواند منجر به مرزهای تصمیم نادرست یا تطبیق بیش از حد شود. با این حال، با توجه به صحبت های اینجا و الگوی رای گیری جامعه در مورد چنین موضوعاتی، این دیدگاه را زیر سوال برده ام. 1. دورویه، لوک. نظریه احتمالی تشخیص الگو جلد 31. Springer, 1996, Section 6.7 2. Kearns, Michael J., and Robert E. Schapire. یادگیری کارآمد بدون توزیع مفاهیم احتمالی. مبانی علوم کامپیوتر، 1990. مجموعه مقالات.، سی و یکمین سمپوزیوم سالانه در. IEEE، 1990. $(*)$ این عبارت ممکن است کمی شلخته باشد. منظورم این است که داده‌های برچسب‌گذاری‌شده داده‌شده به شکل $S = \{(x_1, y_1), \ldots, (x_n, y_n)\}$ با $x_i \in \mathcal{X}$ و $y_i \in \{ 1، \ldots، K\}$، به نظر می رسد تخمین یک مرز تصمیم آسان تر از تخمین دقیق احتمالات شرطی باشد.
چه زمانی یک قانون امتیازدهی مناسب تخمین بهتری از تعمیم در یک محیط طبقه بندی است؟
79374
در R، آیا این درست است که: `pt(q,df=Inf)` $=$ `pnorm(q)`؟ یا به عبارتی، آیا می توانم «df=Inf» را در توزیع t تجمعی برای رسیدن به تابع توزیع نرمال استاندارد در R، همانطور که در تئوری باید انجام دهم، عرضه کنم؟
رابطه بین توزیع نرمال و t در R (pt و pnorm) چیست؟
103628
من وضعیتی دارم که می‌خواهم تفاوت بین ردیف‌ها و ستون‌ها را در قاب داده‌ام آزمایش کنم: ID Cond1A Cond1B Cond2A Cond2B Sample1 2000 2311 2323 2324 Sample2 2424 1313 2324 4546 Sample3 11213 نمونه 1 با نمونه 2 و 3 در شرایط 1 و 2 (که در آن A و B تکرار هستند) متفاوت است. من ترجیح می دهم آن را در R انجام دهم، اما واقعاً راه خوبی پیدا نمی کنم.
ردیف‌ها را در ستون‌ها مقایسه کنید - ANOVA کلاسیک؟
91554
آنتروپی توزیع های احتمال تعمیم یافته زیر چقدر است؟ $P_1(x) = \delta(x)$ $P_2(x,y) = \delta(x+y)$، برای $0\le x\le 1$، و $P_2(x,y)=0$ در غیر این صورت. انتگرال های نوع $-\int \delta(x) \ln\delta(x) \mathrm{d}x$ به نظر می رسد به $-\infty$ واگرا می شوند (اینجا را ببینید). اما آنتروپی قرار است مثبت باشد. اینجا چه خبر است؟ چگونه می توانم آنتروپی این توزیع ها را محاسبه کنم؟ آیا راهی برای تعریف آنتروپی برای این توزیع ها وجود دارد؟
آنتروپی توزیع های تعمیم یافته؟
23346
من به دنبال یک بسته رگرسیون هسته خوب و مدرن در R هستم که ویژگی های زیر را داشته باشد: 1. دارای اعتبار متقابل است 2. می تواند به طور خودکار پهنای باند بهینه را انتخاب کند 3. اثر تصادفی ندارد - یعنی اگر من تابع را در زمان‌های مختلف روی یک مجموعه داده اجرا می‌کنم، نتایج باید دقیقاً یکسان باشد... من np را امتحان می‌کنم، اما می‌بینم: Multistart 1 از 1 | چند شروع 1 از 1 | ... به نظر می رسد برای انجام بهینه سازی، بهینه سازی چندتایی-تصادفی را انجام می دهد ... درست می گویم؟ ممکن است لطفاً چند نکته به من بدهید؟ من کمی در گوگل جستجو کردم اما بسته های زیادی وجود دارد که این کار را انجام می دهند ... فقط می خواستم بهترین / مدرن را برای استفاده پیدا کنم ...
بهترین بسته رگرسیون هسته در R چیست؟
91551
من از WEKA برای انجام طبقه بندی استفاده می کنم. می‌خواهم با مقاله‌ای موجود مقایسه کنم که از عملکرد Precision و Recall Break-Even به عنوان نتایج استفاده می‌کند. آیا کسی می تواند کمک کند تا من بتوانم عملکرد Break-Even را تعیین کنم؟ ترجیحاً - در صورت امکان - با WEKA. اگر نه، فرمولی که می توانم استفاده کنم.
دقت و یادآوری عملکرد Break-Even
91086
از Berger&Casella، فصل 8، مسئله 8.5، صفحه 402 برای ویرایش دوم. مشکل این است: یک نمونه تصادفی، $X_{i}$ از جمعیت پارتو با pdf $$ f(x|\theta,v)=\frac{\theta v^{\theta}}{x^{ گرفته شده است. \theta+1}}I_{[v,\infty)}(x),\theta>0,v>0 $$ نشان می‌دهد که LRT $$ H_{0}:\theta=1; H_{1}:\theta\not=1، $$ با $v$ ناشناخته دارای ناحیه بحرانی به شکل $$ \{x:T(x)\le c_{1} است. T(x)\ge c_{2}\} $$ جایی که $0<c_{1}<c_{2}$ و $$ T=\log[\frac{\prod^{n}_{i=1} X_{i}}{(\min_{i}X_{i})^{n}}] $$ نشان دهید که در زیر $H_{0}$، $2T$ دارای توزیع مجذور خی است و تعداد درجات آزادی (نکته: توزیع مشترک $n-1$ شرایط غیر ضروری $\frac{X_{i}}{\min_{i} X_{i}}$ را مشروط به $\min_{i}X_{i بدست آورید }$ این شرایط $n-1$ را کنار هم قرار دهید و توجه کنید که توزیع $T$ داده شده $\min_{i}X_{i}$ به $\min_{i}X_{i}$ بستگی ندارد. بنابراین این توزیع بدون قید و شرط $T$ است). پس از اتمام قسمت اول، سعی کردم توزیع $T$ را محاسبه کنم، اما پس از چندین ساعت تلاش به طور واضح به جایی نرسیدم. کاری که من انجام دادم این است: از آنجایی که می‌دانیم $$ T=\log[\frac{\prod^{n}_{i=1}X_{i}}{(\min_{i}X_{i})^{ n}}] $$ باید از روش ژاکوبین استفاده کنیم. ما می خواهیم توزیع $A=\sum \log[X_{i}]$ و $B=n\log[X_{(1)}]$ را محاسبه کنیم. اکنون، اگر $X$ دارای توزیع $f_{X}[x]$ باشد، آنگاه $\log[X]$ دارای توزیع $$ f_{Y}(y)=f_{X}(e^{y})* است. e^{y}=\frac{v}{e^{y}}I_{[\log[v],\infty)}(y)=ve^{-y}I_{[\log[v], \infty)}(y) $$ از سوی دیگر $$ Z=\log[X_{(1)}] $$ دارای توزیع از $X_{(1)}$ است. ما می دانیم که $X_{(1)} pdf $$$ nf_{X}(x)(1-F_{X}(x)))^{n-1} $$ می‌دانیم که $$ f_{X }(x)=\frac{v}{x^{2}}I_{(v,\infty)}(x) $$ بنابراین $$ F_{X}(x)=\int^{x}_{v}\frac{v}{t^{2}}dt=v(-\frac{1}{t})^{x}_{ v}=v(-\frac{1}{x}+\frac{1}{v})=1-\frac{v}{x} $$ بنابراین $$ f_{X_{(1)}}(x)=n\frac{v}{x^{2}}I_{(v,\infty)}\frac{v^{n-1}}{x^{ n-1}}=\frac{nv^{n}}{x^{n+1}}I_{(v,\infty)} $$ و اگر $\log[X_{(1)}]=z $، سپس $$ داریم f_{Z}(z)=\frac{nv^{n}}{e^{(n+1)z}}e^{z}I_{(\log[v],\infty)}=\frac {nv^{n}}{e^{nz}}I_{(\log[v],\infty)} $$ اکنون برای محاسبه توزیع کافی است $2(\sum_{i=1}^{n}\log[X_{i}]-n\log[Z])$$ از $\log[X_{i}]،\log[X_{j} ]$ مستقل هستند، با روش ژاکوبین $$ Z=X+Y، W=Y داریم. f_{Z,W}(z,w)=f_{X,Y}(Z-W,W)=f_{X}(Z-W)f_{Y}(W) $$ بنابراین ما $$ f_{(Z, W)}=ve^{-(z-w)}ve^{-w}=v^{2}e^{-z} $$ جایی که $$ w\ge \log[v]، z-w\ge داریم \log[v]\rightarrow z\ge 2\log[v] $$ بنابراین $$ \log[X_{i}]+\log[X_{j}]\sim v^{2}e^{-z }I_{(2\log[v],\infty)} $$ به صورت استقرایی ادامه دهید $$ داریم f_{\sum^{n}_{i=1}\log[X_{i}]}(s)=v^{n}e^{-s}I_{(n\log[v]،\infty )} $$ از طرف دیگر ما می خواهیم pdf $f_{n\log[X_{(1)}]}$ را محاسبه کنیم. از سی دی اف داریم: $$ \log[X_{(1)}]\le t\leftrightarrow n\log[X_{(1)}]\le nt $$ بنابراین $$ F_{n\log[X_{ (1)}]}(t)=F_{\log[X_{i}]}(\frac{t}{n}) $$ این به معنای $$ است f_{n\log[X_{(1)}]}(t)=f_{\log[X_{i}]}(\frac{t}{n})*\frac{1}{n}=\ frac{v^{n}}{e^{t}}I_{(n\log[v],\infty)}=v^{n}e^{-t}I_{(n\log[v] ,\infty)} $$ اجازه دهید $S=\sum^{n}_{i=1}\log[X_{i}],T=n\log[X_{(1)}]$. سپس $S,T$ به دلیل قضیه باسو مستقل هستند. اما من نمی توانم $f_{S,T}$ را به دلیل محدودیت دامنه جدا کنم، زیرا $S+T\ge n\log[v] دارم، T\ge n\log[v]$ به معنای $ نیست. S\in (0،\infty)$. همچنین توزیع حاصل $\chi^{2}$ نیست. بنابراین فکر می کنم به کمک نیاز دارم.
چگونه می توان این را به عنوان توزیع $\chi^{2}$ استخراج کرد؟
66265
من داده‌هایی دارم که شبیه این هستند![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2CdaI.png) فقط می‌خواهم بقیه سال 2013 را پیش‌بینی کنم. بهترین راه برای انجام این کار چیست. من از فرمول پیش بینی اکسل استفاده کردم که از رگرسیون خطی استفاده می کند. من فقط اطلاعات جزئی/خیلی کمی در مورد آمار دارم.
پیش بینی اعداد بعدی
23348
با نگاهی به جایزه سلامت هریتیج، ساختار داده ها به صورت زیر است: > هر یک از مجموعه داده ها از جداول زیر تشکیل می شود: الف. جدول اعضا که شامل: i. ID عضو (شناسه عضو منحصر به فرد) ii. AgeAtFirstClaim (سن عضو زمانی که اولین ادعا در دوره مجموعه داده مطرح شد) iii. جنسیت ب. جدول مطالبات، که شامل موارد زیر است: i. ID عضو II. شناسه ارائه دهنده (شناسه پزشک یا متخصص ارائه دهنده خدمات) iii. فروشنده (شرکتی که صورتحساب را صادر می کند) iv. PCP (پزشک مراقبت اولیه عضو) v. سال (سال ادعا، Y1، Y2، Y3) vi. تخصص vii. PlaceSvc (محلی که عضو تحت درمان قرار گرفت) viii. PayDelay (تأخیر بین ادعا و روز پرداخت خسارت) ix. LengthOfStay x. DSFS (روزهای پس از اولین سرویس در آن سال) xi. PrimaryConditionGroup (تعمیم کدهای تشخیص اولیه) xii. CharlsonIndex (تعمیم کدهای تشخیص در قالب یک نمره همبودی طبقه بندی شده) xiii. ProcedureGroup (تعمیم کد CPT یا کد درمان) xiv. SupLOS (پرچمی که نشان می دهد که آیا LengthOfStay null است زیرا سرکوب شده است) ج. جدول آزمایشگاهی، که حاوی جزئیات خاصی از تست های آزمایشگاهی است که به اعضا ارائه می شود. د جدول RX، که حاوی جزئیات خاصی از نسخه های پر شده توسط اعضا است. ه. جداول DaysInHospital - Y2 و Y3، که شامل تعداد روزهای بستری شدن در بیمارستان برای هر عضو واجد شرایط در طول Y2 و Y3 خواهد بود و شامل موارد زیر است: i. شناسه عضو؛ ii ClaimsTruncated (پرچم برای اعضایی که ادعاهایشان سرکوب شده است. اگر پرچم برای عضو xxx در DaysInHospital_Y2 1 باشد، برخی از ادعاها برای عضو xxx در Y1 سرکوب شده است). III. DaysInHospital (تعداد روزهای بستری در بیمارستان Y2 یا Y3، در صورت لزوم). این دو جدول برای استفاده شرکت کنندگان برای آموزش و اعتبارسنجی الگوریتم هایشان در نظر گرفته شده است. جداول DaysInHospital بر اساس جدول ادعاها با پذیرش در Y2 یا Y3، در صورت لزوم. به عنوان معیار حفظ حریم خصوصی، هر عضوی که بیش از دو هفته را در بیمارستان سپری کرده باشد، گروه بندی می شود. با آنها طوری رفتار می شود که انگار 15 روز را در بیمارستان گذرانده اند. f. هدف - DaysInHospital_Y4 است اما DaysInHospital را شامل نمی شود. داده‌های DaysInHospital برای Y4 باید توسط شرکت‌کنندگان برای تولید ورودی‌ها پر شود. به عنوان مثال SampleEntry.csv را در نظر بگیرید. بنابراین هدف پیش بینی مقادیر جدول f است. واضح است که اولین کاری که باید انجام دهید این است که با استفاده از شناسه اعضا یک JOIN در جداول انجام دهید. به نظر می رسد برخی از اینها متغیرهای گسسته استاندارد (سن، جنس و غیره) باشند، اما رسیدگی به برخی دیگر بسیار دشوارتر است. به عنوان مثال، شاخص آزمایشگاه ها و شاخص RX به جداول دیگر اشاره می کنند. همچنین، انواع دسته بندی زیادی وجود دارد. برخی از انواع دسته بندی شده (مانند PrimaryConditionGroup) مقادیر ممکن زیادی دارند. معمولاً برای داده‌های طبقه‌بندی، می‌توان آنها را با استفاده از یک پرچم باینری برای هر دسته به ویژگی‌هایی تبدیل کرد (به سادگی استفاده از ایندکس شکست خواهد خورد زیرا هیچ ترتیبی وجود ندارد). با این حال وقتی هزاران نفر از این موارد وجود دارد ، این یک رویکرد ناکارآمد به نظر می رسد. آیا روش های بهتری برای مقابله با مخلوط داده های عددی و طبقه بندی مانند این وجود دارد؟
پرداختن به داده های دسته بندی مختلط: به عنوان مثال. داده های جایزه سلامت میراث
91556
برای جلوگیری از اختراع مجدد چرخ، کدام رویکرد برای استخراج داده های محصول/خدمات از صفحات وب ناشناخته قبلی از طریق یادگیری ماشینی شناخته شده است؟ کدام کلمات کلیدی در یک موتور جستجو ممکن است نتایج بهتری در مورد این موضوع به من بدهد؟
کدام روش برای استخراج داده های محصول/خدمات از صفحات وب ناشناخته قبلی از طریق یادگیری ماشینی شناخته شده است؟
109134
من سعی می کنم فاکتور خاصی را در نمودارم تقریب بزنم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mvX9h.jpg) پس از آموزش تام مینکا، کاری که باید انجام دهم به شرح زیر است: $$ \prod_{i=1}^3 q_{ w_i}(\pi_2)\approx \int p(\pi_2|w_1)q_{\pi_1}(w_1)\prod_{i=1}^3 q_{D_i}(w_1)\, dw_1\,\, q_{w_2}(\pi_2)q_{w_3}(\pi_2) $$ که $q_x(y)$ پیامی است که $y$ از $x دریافت می‌کند $, $p(\pi_2|w_1)\propto \pi_2 (1-\pi_2)^{{w_1}^2}$ و پیام‌ها $q_{w_i}(\pi_2)$ همگی بتا توزیع شده اند و در نهایت $q_x(w_1)$ همگی گاوسی هستند. سوال من این است که با سمت راست تقریب می توانم کارهای زیر را انجام دهم: $$ RHS \propto \int \pi(1-\pi)^{{w_1}^2}\exp\left(-\frac{1 {2\sigma^2}(w_1-\mu)^2\right)\times C_1\, dw_1\,\, C_2 \pi^{\alpha_0-1}(1-\pi)^{\beta_0-1} $$ جایی که اجازه دادم $\pi\equiv \pi_2$, $C_1,C_2$ ثابت هایی هستند که به $\pi$ و $\alpha_0، \beta_0$ با ترکیب پیام‌های $q_{w_2}، q_{w_3}$ به دست می‌آید. به طور مشابه من گاوسی ها را ترکیب کرده ام، بنابراین عبارت نمایی را می دهم. بنابراین اساساً من به این نتیجه می رسم: $$ RHS \propto \pi^{\alpha_0}(1-\pi)^{\beta_0-1}\left(\frac{1}{\sigma^2}-2\ln (1-\pi)\راست) $$ **آیا می توانم به سادگی این را با توزیع بتا تطبیق دهم** تا تقریب بدست آید، در این مورد ممان $E(\ln \pi) است. E(\ln (1-\pi))$ (تفسیر من از عملیات proj) و تقسیم بر پیام های LHS یا کارهای بیشتری برای انجام دادن وجود دارد. در نهایت تلاش برای یافتن این پیام ها برای هر عامل خسته کننده به نظر می رسد و برای لحظاتی مانند بالا شکل بسته ای ندارد. **آیا نکات یا نظری در مورد استنباط آسانتر/سریعتر وجود دارد**.
آیا باید به ثابت ها در Expectation Propagation اهمیت بدهم؟
91553
من یک سوال آماری کلی در مورد تجزیه و تحلیل آزمایش های دو عاملی دارم. من می خواهم چندین متغیر پاسخ (حجم زیستی، غنا و غیره) دو آزمایش (همگن و ناهمگن) را با ترکیب فاکتوریل یکسان (پراکندگی x اختلال) مقایسه کنم. حدس می‌زنم ANOVA یا ANOVA تودرتو روش مناسبی نیست، زیرا هر دو آزمایش به طور جداگانه از یکدیگر انجام می‌شوند... کسی ایده‌ای دارد که بهترین راه برای تحقق آن در R چیست؟ پیشاپیش ممنون نیلز
طراحی تودرتو، طرح تقسیم شده یا ANOVA
103624
من یک سری زمانی دارم که در تاریخ تغییر خط مشی قبل و بعد تقسیم می شود. من می‌خواهم واریانس‌های بین دو بخش زمانی را مقایسه کنم و به من می‌گویند که یک آزمون F از مجموع باقی‌مانده مربع‌ها انجام دهم. چگونه F stat را بسازم؟ آیا من ARMA را اجرا می کنم و مجموع مربعات دو مقطع زمانی را به دست می آورم و یک آمار F از نسبت دو مجموع باقیمانده مربع یا نسبت دو واریانس خطا دریافت می کنم؟ یا آزمون F ساده برابری واریانس داده ها را در هر یک از دو بخش زمانی انجام دهم؟ خیلی ممنون
آزمون F برای آزمون برابری واریانس
53215
من باید آزمایشی انجام دهم و از آزمون ANOVA یک طرفه برای تجزیه و تحلیل داده ها استفاده کنم. من می دانم آزمایش چیست، اما برای انجام آزمایشی مشکل دارم. آیا پیشنهادی در مورد آزمایش دارید؟ یک کار ساده که می توانم در خانه انجام دهم. متشکرم
ایده های آزمایش ANOVA یک طرفه
94774
من در صفحه جدید هستم و در آمار و R بسیار جدید هستم. من روی پروژه ای برای دانشگاه کار می کنم که هدف آن یافتن همبستگی بین میزان باران و سطح جریان آب در رودخانه ها است. پس از اثبات همبستگی، می خواهم آن را پیش بینی/پیش بینی کنم. **داده** من مجموعه ای از داده های چند ساله (هر 5 دقیقه یک بار) برای یک رودخانه خاص دارم که شامل: * بارندگی بر حسب میلی متر * جریان رودخانه بر حسب متر مکعب در ثانیه این رودخانه برف ندارد، بنابراین مدل فقط بر اساس باران و زمان است. گاهی اوقات دماهای انجمادی وجود دارد، اما من به حذف آن دوره‌ها از داده‌ها به عنوان موارد دورافتاده فکر می‌کنم، زیرا این وضعیت خارج از محدوده پروژه من است. **نمونه**ها در اینجا چند نمودار از داده های نمونه از یک باران و افزایش آب چند ساعت بعد دارید. ![نمونه بزرگتر چند روز](http://i.stack.imgur.com/ssmtM.jpg) ![مثال کوتاهتر فقط یک دوره بارندگی](http://i.stack.imgur.com/XSkvv.jpg ) خط قرمز جریان رودخانه است. نارنجی باران است. می توانید ببینید که همیشه قبل از بالا آمدن آب در رودخانه باران می بارد. مقداری باران در پایان سری زمانی دوباره شروع می شود، اما بعداً بر جریان رودخانه تأثیر می گذارد. همبستگی وجود دارد. این چیزی است که من در R برای اثبات همبستگی با استفاده از ccf در R انجام داده‌ام: * همبستگی متقابل * متغیر اصلی * تاخیر این خط R من است که برای مثال دوم (یک دوره بارندگی) استفاده می‌شود: ccf(arnoiaex1$ Caudal، arnoiaex1$Precip، lag.max=1000، plot=TRUE، main=Flow & Rain) ![ نتیجه ccf برای مثال کوچک 2](http://i.stack.imgur.com/IT62e.jpg) تعبیر من این است: * که باران منجر می شود (اول اتفاق می افتد)، * یک همبستگی قابل توجهی وجود دارد که با تاخیر $\حدود 450 $ به اوج خود می رسد. (می توانم عدد دقیق را چک کنم، آن قسمت را می دانم). * من نمی دانم چگونه می توانم زمانی را پیدا کنم که همبستگی بر جریان رودخانه تأثیر می گذارد، فکر می کنم نام آن احتباس است. چیزی که من می بینم این است که نمودار از همان شکل نمودار اول پیروی می کند، زمانی که رودخانه پس از باران آب خود را از دست می دهد. اگر بر اساس آن بتوانم بگویم حفظ از $\prox 450$ زمانی که به حداکثر $\approx $800 $ طول می کشد، نمی توانم (من می توانم این را در شی ایجاد شده در دیتافریم بازگشتی توسط `ccf` بررسی کنم و ببینم چه زمانی سطح آب به مقدار قبل از باران برمی گردد. آیا راه بهتری برای یافتن سری زمانی وجود دارد؟ تناوب یا فصلی ندارد. باران می‌تواند در تابستان کم شود، اما هنوز هم این اتفاق می‌افتد. **مدل و پیش‌بینی شده است نمی دانم چگونه می توانم مدلی ایجاد کنم تا بتوانم یک پیش بینی انجام دهم که به من بگوید چقدر رودخانه بعد از یک دوره بارانی حجم آن را افزایش می دهد اما آیا باید از «Arima»، «vars» یا دیگر مدل‌های چند متغیره استفاده کنم ، از چه مدلی استفاده کنم. چند کار دیگر وجود دارد که من در نظر دارم انجام دهم اما آنها را برای سادگی از این توضیح حذف کردم. در صورت نیاز می توانم برخی از داده ها را به اشتراک بگذارم.
سری های زمانی چند متغیره در R. چگونه می توان همبستگی تاخیری را پیدا کرد و مدل ساخت برای پیش بینی
76827
می‌دانم که «glmnet(x,y)» $\lambda$ را تولید می‌کند، اما من بسیار کنجکاو هستم که فرمول واقعی را بدانم که پشت این کار است، که $\lambda$ را ایجاد می‌کند.
چگونه پارامتر تنظیم $\lambda$ در رگرسیون لجستیک کمند ایجاد می شود
109139
من در حال توسعه مدل پیش بینی بر اساس تحلیل PLS (حداقل مربعات جزئی) هستم. من به دنبال تغییرات ثبت شده توسط X (R مربع X)، R مربع Y، تعداد مؤلفه ها و دقت پس از استفاده از اعتبارسنجی متقابل، در فرآیند توسعه مدل هستم. آیا کسی می تواند به من پیشنهاد دهد که چه رویکردی برای معاوضه بین R2X، تعداد قطعات و درصد دقت مدل باید باشد. به عنوان بهترین روش، سطوح مورد قبول R2X و دقت، در صنعت چیست؟ خیلی ممنون از کمک شما
ایجاد مدل تحت PLS
109131
من یک متغیر (سری زمانی) دارم که غیر ثابت است. من متوجه شدم که از نموداری که به نظر می رسد روند تصادفی دارد و همبستگی یک الگوی غیر ثابت معمولی دارد. پس از آن، از من خواسته شد که مدل ARMA صرفه‌جویی را (با استفاده از معیارهای اطلاعاتی) پیدا کنم و با پیروی از روش Box-Jenkins، تا پیش‌بینی پایین بیایم. توجه کنید که در این مرحله از من خواسته نشده است که یک آزمایش ریشه واحد انجام دهم تا بررسی کنم که آیا سری ثابت است یا نه ... آیا ممکن است یک سری غیر ثابت یک مدل ARMA ثابت تولید کند که پیش بینی قابل اعتمادی را به ما بدهد؟ بعد از پیش‌بینی، از من می‌خواهند که یک آزمایش ریشه واحد انجام دهم (البته که متوجه شدم متغیر غیر ثابت است). به عنوان گام بعدی، متغیر را در تفاوت‌های اول انتخاب می‌کنم و همین رویه را برای یافتن مدل ARMA با بهترین معیارهای اطلاعاتی دنبال می‌کنم. من همچنین مقایسه‌هایی با مدلی که در مرحله اول پیدا کردم انجام می‌دهم، اما بعد از آن از من نمی‌خواهند که دوباره متدولوژی Box-Jenkins را دنبال کنم و از مدل ARMA تولید شده توسط متغیر متمایز پیش‌بینی کنم. 'm confused about این است: چرا آنها از من خواستند که یک ARMA را از یک متغیر غیر ثابت پیدا کنم؟ می تواند غیر ایستا. متغیر تولید مدل ARMA ثابت و پیش بینی قابل اعتماد؟ آیا طبیعی نیست که از من بخواهیم روش باکس جنکینز را در مدل دوم (جایی که متغیر متفاوت است) دنبال کنم و از آنجا پیش بینی کنم؟ هر پاسخی مفید خواهد بود!
آیا می توان یک سری زمانی غیر ثابت برای تولید یک مدل ARMA ثابت ایجاد کرد؟
928
این یکی مدتی است که مرا آزار می دهد و دعوای بزرگی پیرامون آن ایجاد شد. در روانشناسی (و همچنین در سایر علوم اجتماعی) ما با روش های مختلف برخورد با اعداد سروکار داریم:-) یعنی **سطوح اندازه گیری**. همچنین استاندارد کردن برخی پرسشنامه ها در روانشناسی معمول است، بنابراین داده ها را به نمرات صدک تبدیل می کند (به منظور ارزیابی موقعیت یک پاسخ دهنده در نمونه نماینده). به طور خلاصه، اگر متغیری دارید که داده های بیان شده را در نمرات صدک نگه می دارد، چگونه باید با آن رفتار کنید؟ به عنوان متغیر ترتیبی، فاصله ای یا حتی نسبتی؟! این نسبت نیست، زیرا 0 واقعی وجود ندارد (صدک 0 به معنای عدم وجود ویژگی اندازه گیری شده نیست، بلکه کوچکترین مقدار متغیر است). من از این دیدگاه دفاع می کنم که نمرات صدک ترتیبی هستند، زیرا P70 - P50 برابر با P50 - P30 نیست، در حالی که طرف مقابل می گوید این فاصله است. لطفا آقایان، بند ناف را قطع کنید. ترتیبی یا فاصله ای؟
سطح اندازه گیری نمرات صدک
23347
من در حال طراحی یک طبقه بندی کننده چند کلاسه (برای 4 کلاس) با استفاده از **HMM های گسسته با حالت N و نمادهای M** برای هر یک از HMM هستم. با این حال، متوجه شدم که عملکرد تشخیص (یعنی بالاترین احتمال ورود به سیستم) یک کلاس خاص به **N و M** که با آن آموزش داده شده است بستگی دارد. بیشتر ادبیاتی که در وب پیدا کردم، **استفاده از تعداد حالت ها، نمادها در تمام HMM ها** را پیشنهاد می کند. **می خواستم بدونم که آیا لازم نیست اینطور باشد؟** یعنی HMM1 می تواند 4 حالت، 18 نماد و HMM2 می تواند 5 حالت، 20 نماد داشته باشد............
تعداد حالت ها و نمادها در طبقه بندی کننده مدل مخفی مارکوف چند کلاسه
91550
نمی دانم آیا کسی الگوریتم تشخیص ناهنجاری منبع باز را در گزارش رایانه می داند؟ به عنوان مثال، گزارش رایانه مانند آنچه در زیر ذکر شد به نظر می رسد: value UL-CCCH-Message ::= { integrityCheckInfo { messageAuthenticationCode 0, rrc-MessageSequenceNumber 0 }, message cellUpdate : { u-RNTI { srnc-2R2, Identity 178710 }, startList { { cn-DomainIdentity ps-domain, start-Value 58 } }, am-RLC-ErrorIndicationRb2-3or4 FALSE, am-RLC-ErrorIndicationRb5orAbove FALSE, cellUpdateCause cellReselection-3,indicator- t315-expired FALSE }, measuredResultsOnRACH { currentCell { modeSpecificInfo fdd : {metermentQuantity cpich-Ec-N0 : 24 } } } راهی وجود دارد، می توانم ویژگی ها را از گزارش ها استخراج کنم و تشخیص ناهنجاری را در داده های سری زمانی اعمال کنم، اما یکی نیز وجود دارد راه دیگر این است که الگوی کلی را از لاگ به طور خودکار کشف می کنم و قانون/معیارها را می سازم، اگر ورود به سیستم آینده متعلق به الگوی عمومی است، اگر نه پس ناهنجاری آن است. من می خواهم هر الگوریتمی را برای یافتن کشف خودکار الگو در لاگ ها بدانم. لطفا اگر در این زمینه تخصص دارید نظرات خود را به اشتراک بگذارید. با تشکر با احترام، ساش
تشخیص ناهنجاری در داده های گزارش
43950
من از بسته mda و به ویژه روال fda استفاده می کنم تا مجموعه ای از 20 سفر را از نظر دنده طبقه بندی کنم. من یک تجزیه و تحلیل تفکیک انعطاف پذیر (FDA) را با استفاده از مجموعه ای از 151 سفر انجام دادم. FDAT1 <- fda(as.factor(gear) ~ . , data =matrizR) در مجموع 22 پیش بینی در نظر گرفته شد. 20 عدد از پیش بینی کننده ها عددی و 2 عدد عامل/گسسته هستند (با چندین سطح، به عنوان مثال A، B، C و D). قانون FDA حاصل برای 20 سفر و برای همان پیش بینی کننده ها به منظور پیش بینی نوع دنده مورد استفاده اعمال شد. با این حال یک خطای ثابت در حال رخ دادن است: خطا در polybasis(newdata، درجه، تک اسمی) %*% object$coef : آرگومان های ناسازگار * آیا ممکن است مشکل مربوط به 2 پیش بینی کننده باشد که متغیرهای گسسته هستند؟ * آیا در حال حاضر روال هایی برای انجام یک تحلیل تفکیک گسسته با در نظر گرفتن متغیرهای پیوسته و گسسته وجود دارد؟ * * * وقتی من ردیابی را انجام می دهم این نتیجه است: 6: predict.polyreg(object$fit, newdata) 5: predict(object$fit, newdata) 4: predict(object$fit, newdata) 3: predict.fda (FDAT1، matriz_vr) 2: پیش بینی (FDAT1، matriz_vr) 1: پیش بینی (FDAT1، matriz_vr) متأسفانه من نمی توانم این را تفسیر کنم... این یک خطای خاص دستورات من است؟
تجزیه و تحلیل تفکیک انعطاف پذیر با پیش بینی کننده های گسسته در R
109132
ماه مه مانند یک سوال عجیب به نظر می رسد اما من نمی دانم که آیا یک شبه از یک ماتریس با استفاده از SVD می توان پیدا کرد که آیا معادل مدل سازی گرافیکی وجود دارد که می تواند برای تخمین معکوس یک ماتریس استفاده شود.
معادل مدل گرافیکی ماتریس شبه معکوس
76823
سوالی از یک کاندیدای دکترای مضطرب که روی بازنگری پایان نامه کار می کند. نظر فعلی در مورد نحوه گنجاندن و تفسیر تعاملات سه طرفه در مدل های خطی چیست؟ اگر مقدار p برای یک تعامل 3 طرفه برای تفسیر معنی‌دار نباشد، چگونه یک نفر - هم از نظر ماهوی و هم تجربی - تقاطع‌های مهم سه متغیر کلیدی را با استفاده از داده‌های تجربی نشان می‌دهد؟ منابع در حال حاضر در دسترس: Kam, Cindy D. and Robert J. Franzese, Jr. 2007. Modeling and Interpreting Interactive Hypotheses in Regression Analysis. آن آربور، MI: انتشارات دانشگاه میشیگان. Braumoeller, Bear F. Hypothesis Testing and Multiplicative Interaction Terms International Organization, Vol. 58، شماره 4 (پاییز، 1383)، صفحات 807-820 آدرس مقاله پایدار: http://www.jstor.org/stable/3877804
آزمون فرضیه و تفسیر تعاملات 3 طرفه
23340
می‌خواستم بدانم که آیا تحت شرایطی ممکن است شبکه‌های عصبی مصنوعی اگر برخی از اتصالات روی آن‌ها را قطع کنید، عملکرد بهتری داشته باشند، به عنوان مثال: ساخت یک ANN با موازی کردن دو ANN چند لایه A و B (گره‌های ورودی و خروجی یکسان) و اضافه کردن چند اتصال ارتباطاتی بین لایه های پنهان A و B؟ آیا می توان به نتایج تعمیم بهتری دست یافت؟ آیا این به نوعی در عمل استفاده می شود یا همیشه از شبکه های کاملاً متصل چند لایه استفاده می شود؟
آیا می توان با حذف برخی از اتصالات ANN بهتری دریافت کرد؟
76820
فرض کنید ماتریس کوواریانس n در n از n متغیر تصادفی عادی داریم. آیا برنامه ای وجود دارد که مقادیر نمونه را برای k از n متغیر وصل کنیم و برنامه با استفاده از ماتریس کوواریانس و این مقادیر k، نمونه هایی را برای متغیرهای n-k باقیمانده تولید کند؟
تولید نمونه های تصادفی نرمال با توجه به ماتریس کوواریانس و مشاهدات روی برخی از مؤلفه ها؟
91552
من در حال انجام مطالعه ای برای تحلیل مشارکت مردان در تنظیم خانواده هستم. ایجاد شاخصی برای درگیری مردان بسیار جالب است. من در حال حاضر در تنظیم یک مدل IRT با مشکل مواجه هستم زیرا داده های من مقادیر زیادی از دست رفته و پاسخ هایی مانند نمی دانم و برخی از پاسخ های گیج کننده دارند. توجه داشته باشید که متغیرهای من همگی ماهیت دوگانه دارند. پیشنهادی برای رسیدگی به این نوع مشکل در مورد مقادیر از دست رفته در مدل IRT دارید؟ با تشکر
چگونه می توانم مقادیر از دست رفته را هنگام برازش مدل IRT کنترل کنم؟
72042
من 17 بیمار دارم که تحت پوشش دهانه رحم قرار گرفته اند، 1. اندازه گیری های دهانه رحم قبل از عمل مانند زوایای معینی که قرار است عمل شود، کل زوایای دهانه رحم 2. همان پارامترهای محاسبه شده بعد از عمل 3. ​​همان پارامترهای محاسبه شده بعد از 2 سال عمل محاسبه شده است، حالا کدام آزمایش آیا باید از آزمون t زوجی استفاده کنم یا از واریانس مساوی استفاده کنم یا واریانس نابرابر؟ درجات آزادی در هر مورد چه اتفاقی می افتد؟
چه زمانی از واریانس های مساوی و نابرابر استفاده کنیم
84326
من سعی می‌کنم بفهمم چگونه می‌توانم متغیری را که در طول زمان پیش‌بینی‌کننده‌های دقیق‌تری به دست آورده‌ام، به بهترین شکل مدل‌سازی کنم. برای مثال، مدل‌سازی نرخ بازیابی وام‌های معوق را در نظر بگیرید. فرض کنید ما یک مجموعه داده با 20 سال داده داریم و در 15 سال اول آن سال فقط می دانیم که وام وثیقه بوده یا نه، اما هیچ چیز در مورد ویژگی های آن وثیقه نیست. با این حال، در پنج سال گذشته، می‌توانیم وثیقه‌ها را به دسته‌هایی تقسیم کنیم که انتظار می‌رود پیش‌بینی‌کننده خوبی برای نرخ بازیابی باشد. با توجه به این تنظیمات، من می‌خواهم مدلی را با داده‌ها تطبیق دهم، معیارهایی مانند اهمیت آماری پیش‌بینی‌کننده‌ها را تعیین کنم و سپس با مدل پیش‌بینی کنم. این در چه چارچوب داده گمشده ای قرار می گیرد؟ آیا ملاحظات خاصی در رابطه با این واقعیت وجود دارد که متغیرهای توضیحی دقیق‌تر تنها پس از یک مقطع زمانی مشخص در دسترس قرار می‌گیرند، برخلاف پراکندگی در نمونه تاریخی؟
ترکیب متغیرهای توضیحی دقیق تر در طول زمان
74466
من در حال انجام اعتبارسنجی متقاطع 5 برابری روی یک مجموعه داده نسبتاً بزرگ هستم و متوجه شده ام که خطای اعتبارسنجی برای هر یک از 5 مجموعه آموزشی بسیار شبیه است. بنابراین حدس می‌زنم، در این مورد، اعتبارسنجی متقاطع چندان مفید نیست (تقریباً مانند استفاده از یک مجموعه آموزشی و آزمایشی است). بنابراین می‌خواستم بدانم که آیا من با یک کیس خاص کار می‌کنم یا این مورد برای همه مجموعه‌های داده بزرگ است. به این فکر می کنم که شاید اگر نمونه های آموزشی کافی داشته باشید، میانگین نمره اعتبارسنجی متقاطع تفاوت زیادی با امتیاز یک مجموعه آموزشی و تستی نداشته باشد. آیا این شهود درست است؟
اعتبار سنجی متقابل k-fold برای مجموعه داده های بزرگ
84321
من مجموعه داده ای دارم که با استفاده از شتاب سنج جمع آوری شده است. من قدرها را از سیگنال استخراج می کنم تا تفاوت الگوی دویدن را بین دو سطح مختلف در حال اجرا پیدا کنم. آیا عادی سازی به بهبود دقت طبقه بندی من کمک می کند؟ به طور کلی، چه زمانی باید داده های سری زمانی را نرمال کنیم؟ پیشنهادی دارید؟
چرا و چه زمانی داده های سری زمانی را عادی می کنیم؟
72047
من منحنی هایی را برای استخراج یک پارامتر به داده های خود برازش می کنم. با این حال، من مطمئن نیستم که قطعیت آن پارامتر چیست و چگونه فاصله اطمینان 95 دلاری آن را محاسبه / بیان کنم. مثلاً برای مجموعه داده‌ای حاوی داده‌هایی که به صورت تصاعدی تحلیل می‌روند، من یک منحنی برای هر مجموعه داده قرار می‌دهم. سپس اطلاعاتی که می خواهم استخراج کنم، توان $b$ است. من مقادیر $t$ و مقدار $a$ را می‌دانم که به آن علاقه‌ای ندارم (این متغیری است که از جمعیت می‌آید، نه فرآیندی که می‌خواهم مدل کنم). من از رگرسیون غیر خطی برای برازش این پارامترها استفاده می کنم. با این حال، من نمی‌دانم چگونه فاصله اطمینان 95 دلاری را برای هر روشی محاسبه کنم، بنابراین پاسخ‌های گسترده‌تر نیز استقبال می‌شود. $$f= a\cdot e^{-bt}$$ ![داده های مثال و تناسب](http://www.mathworks.nl/help/releases/R2013b/matlab/math/expfun.gif) یک بار مقدار من برای $b$، چگونه می توانم بازه اطمینان 95$٪ آن را محاسبه کنم؟ پیشاپیش متشکرم
هنگام برازش منحنی، چگونه می توانم فاصله اطمینان 95% را برای پارامترهای برازش شده خود محاسبه کنم؟
74469
MLE (برآورنده حداکثر احتمال) داده های داده شده چقدر خواهد بود: با فرض نقطه i-ام $ {p}_{i} = ({x}_{i}، {y}_{i}) $. ما اندازه‌های زیر را برای این نقطه خاص داریم - $ (x, y, r = \sqrt{{x}_{i}^{2} + {y}_{i}^{2}}) $. یعنی، ما یک اندازه گیری مختصات x، y و هنجار نقطه را با توزیع های زیر داریم: $$ x \sim N(0, {\sigma}_{x}), y \sim N(0, { \sigma}_{y}), r \sim N(0, {\sigma}_{r}) $$ با توجه به این بردار اندازه گیری، MLE مختصات $ {p}_{i} $ چقدر خواهد بود (${x}_{i}، {y}_{i})$؟ من نیروی بی رحم برای محاسبه آن را می دانم، آیا روش کارآمدی برای این فرمولاسیون خاص وجود دارد؟ در مورد مجموعه ای از نقاط و اندازه گیری های مربوط به آنها چطور؟ با فرض خطی بودن مدل مجموعه نقاط (چند جمله ای درجه N و ...). آیا کسی با مقاله یا چیزی در مورد این مشکل مواجه شده است؟ کران پایین Cramer-Rao یا کران بهتر چیست؟ متشکرم
تخمین مختصات نقطه با توجه به مختصات آن و فاصله (هنجار)
72049
من یک سوال خاص در مورد انتخاب تصادفی، نمایندگی و استنتاج دارم. به خوبی شناخته شده است که استفاده از انتخاب تصادفی برای به دست آوردن نمونه های نماینده از جامعه مورد نظر ضروری است. اما با نمونه های غیر تصادفی چه اتفاقی می افتد؟ من با یک نمونه عمدی کار می کنم. من میانگین برخی از متغیرهای اصلی پایگاه داده خود را با داده های رسمی مقایسه کردم. و من می توانم نتیجه بگیرم که تفاوت های مهمی بین آنها وجود ندارد. بنابراین من یک نمونه کاملا نماینده دارم. با این حال، من در مورد نحوه برخورد با این نمونه سردرگم هستم. وقتی میانگین برخی از متغیرها یا همبستگی بین آنها را تخمین می زنم، آیا باید مقادیر CI یا p را برای این تخمین ها محاسبه کنم؟ من حدس می‌زنم که لازم نباشد، زیرا نمونه را بدون انتخاب تصادفی دریافت کردم. بنابراین، من هیچ خطای نمونه‌گیری ندارم و نمی‌توانم تفاوت تخمین‌هایم با جامعه را بدانم. با این حال، من مقالاتی را خوانده ام که در آن نویسندگان با نمونه های غیر تصادفی کار می کنند و تخمین می زنند (از CI و p-value استفاده می کنند). علاوه بر این، استفاده از تکنیک‌های چند متغیره (مانند ANOVA یا رگرسیون) بدون کمک معنی‌داری آماری دشوار است. کسی میتونه کمکم کنه؟ من خیلی با این موضوع گیج شده ام.
چگونه با نمونه های غیر تصادفی برخورد کنیم؟
91557
من در حال مطالعه الگوریتم Rocchio هستم. من می فهمم که چگونه کار می کند. و معمولاً ما بازخورد مثبت را با ارزش‌تر از بازخورد منفی تنظیم می‌کنیم (بنابراین، β <γ را تنظیم کنید؛ به عنوان مثال γ = 0.25، β = 0.75). ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/cIH7x.jpg) و بسیاری از سیستم ها فقط بازخورد مثبت را می دهند که به معنای γ = 0.0 است. سوال من چرا آن سیستم ها اسناد غیر مرتبط را در نظر نمی گیرند؟ و آن سیستم ها چیست؟ با تشکر
الگوریتم Rocchio - بازخورد مربوط
101086
من یک رگرسیون بردار پشتیبان با حدود 70 هزار نمونه با هر کدام 500 ویژگی انجام می دهم. من از اجرای sklearn SVR استفاده می کنم و ورودی من برای مجموعه قطار یک ماتریس پراکنده است. اما، در کمال تعجب، آموزش با کرنل خطی زمان زیادی می برد، بسیار بیشتر از آموزش با کرنل RBF. آیا کسی اشاره ای به این دارد که چرا این اتفاق می افتد؟ برای من به نظر می رسد که این برخلاف شهود است، با توجه به اینکه محاسبه فاصله هسته RBF گران تر به نظر می رسد.
هسته خطی نسبت به هسته RBF (SVR) زمان بیشتری برای آموزش می‌گیرد.
68859
این ابتدا در math.stackexchange پرسیده شده است، جایی که پیشنهاد شده بود Cross Validated را امتحان کنم. سابقه من ریاضی نیست. این یک مشکل فناوری اطلاعات است که ممکن است یک راه حل ریاضی داشته باشد: من تعداد زیادی مجموعه متغیر دارم. متغیرها به مجموعه ای متمایز از داده ها تعلق دارند (مثلاً هر متغیر ممکن است سن یک فرد بر حسب سال باشد، در این صورت محدوده پتانسیل من حدود 100 مقدار دارد). هر مجموعه دارای تعداد نامشخصی از نقاط داده است (برای درک آسان تر، فرض می کنیم که هر مجموعه سن افراد در یک میز رستوران است): * مجموعه 1: {1، 100، 2، 3} * مجموعه 2: {3، 4، 45، 2،1،34، 65، 33، 59، 32} * مجموعه 3: {40} * و غیره و غیره. نیاز به شناسایی زیرمجموعه های مشترک در داده ها. بنابراین در حالت ایده‌آل می‌خواهم به چند میلیون مجموعه نگاه کنم و مشخص کنم که در 20٪ از این مجموعه‌ها می‌توانید برای مثال زیرمجموعه (30، 45، 50) را پیدا کنید. در این صورت، اگر یک فرد 50 ساله و یک فرد 45 ساله را ببینید، احتمال زیادی وجود دارد که یک فرد 30 ساله به آنها ملحق شود - یا چیزی مشابه) آیا کسی می تواند چند نکته را ارائه دهد؟ * * * برخی اطلاعات بیشتر که درک این موضوع را آسان تر می کند: باز هم از @whuber برای راهنمایی تشکر می کنیم. 1. مقادیر اعداد نیستند. فکر می‌کنم بهترین توصیفی که می‌توانم ارائه کنم چیزی شبیه نام محصول است. بنابراین در اندازه گیری آنها خطایی وجود ندارد و تعداد محدودی از آنها وجود دارد که از قبل مشخص است. 2. امکان مرتبط کردن مقادیر به یکدیگر وجود دارد، به عنوان مثال، A ممکن است ارتباط نزدیکی با B داشته باشد، در حالی که A ممکن است کاملاً با C نامرتبط باشد. در هر صورت، ممکن است نتوانم رابطه را کمیت کنم، بنابراین فعلاً باید فرض کنم که هیچ ارتباطی بین مقادیر وجود ندارد.
رایج ترین زیر مجموعه ها کدامند؟
43954
هدف پیش‌بینی ارزش خرده‌فروشی خودرو بر اساس ویژگی‌های مسافت پیموده شده، ساخت، مدل، اندازه موتور، سبک داخلی و کروز کنترل است. * * * ## قیمت خودرو * * * ## سیلندر 4،6،8 * * * ## لیتری موتور چند لیتری * * * ## درهای 4 یا 2 درب * * * ## کروز کنترل 1 اگر ماشین دارد، 0 اگر ندارد * * * ## چرم 1 اگر ماشین دارد، 0 اگر ندارد * * * ## ساخت بیوک، کادیلاک، شورلت، پونتیاک، SAAB، زحل * * * ## مدل قرن، چوگان، لسابر، پارک اونیو، CST-V، CTS، دیویل، STS-V6، STS-V8، XLR-V8، AVEO، کاوالیر، کلاسیک، کبالت، کوروت، ایمپالا، مالیبو، مونت کارلو، بونویل، G6، گرند ام، جایزه بزرگ، GTO، سانفایر، ویبی، 9_3, 9_3 HO, 9_5, 9_5 HO, 9-2X AWD, Ion, L Series * * * ## Trim Sedan 4D, CX Sedan 4D, CXL Sedan 4D, CXS Sedan 4D, Custom Sedan 4D, Limited Sedan 4D, Special Ed Ultra 4D، DHS Sedan 4D، DTS Sedan 4D, Hardtop Conv 2D, LS Hatchback 4D, LS Sedan 4D, LT Hatchback 4D, LT Sedan 4D, SVM Hatchback 4D, SVM Sedan 4D, Coupe 2D, LS Coupe 2D, LS Sport Coupe 2D, LS 4, Sportv Sedan SS سدان 4D، LS MAXX Hback 4D، LT MAXX Hback 4D، MAXX Hback 4D، LT Coupe 2D، SS Coupe 2D، GXP Sedan 4D، SE Sedan 4D، SLE Sedan 4D، GT سدان 4D، GT Coupe 2D، GTP سدان 4D، GTP سدان 4D، اسپورت واگن، اسپورت واگن 4D, Linear Conv 2D, Linear Sedan 4D, Aero Conv 2D, Aero Sedan 4D, Arc Conv 2D, Arc Sedan 4D, Arc Wagon 4D, Linear Wagon 4D, Aero Wagon 4D, Quad Coupe 2D, L300 *##4D نوع سدان، کانورتیبل، هاچ بک، کوپه، واگن * * * من فقط به این فکر می کردم که چگونه باید یک مدل برای این مجموعه داده تنظیم کنم؟ این چیزی است که تا به حال فکر می کردم: مدل (متغیرهای ساختگی برای درها، سیلندر، ساخت، مدل، تریم و نوع) قیمت = مسافت پیموده شده + Make_bui + Make_Cad+Make_Che + Make_Pon + Make_Saa + Make_Sat + سیلندر + لیتر + درها + کروز + چرم
مدل تحلیل رگرسیون
28593
من سعی می کنم خواص فاصله ماهالانوبیس نقاط تصادفی چند متغیره را درک کنم (هدف نهایی من استفاده از فاصله ماهالانوبیس برای تشخیص پرت است). محاسبات من در پایتون است. من برخی از اصول اولیه را در اینجا از دست داده ام و خوشحال می شوم اگر کسی اشتباهم را به من توضیح دهد. کد من اینجاست: ابتدا 1000 نقطه تصادفی چند متغیره (2 بعدی) در اطراف مبدا ایجاد می کنم #واردات و تعاریف import numpy به عنوان np import scipy.stats به عنوان آمار واردات scipy.spatial.distance به عنوان فاصله chi2 = stats.chi2 np.random.seed (111) #ماتریس کوواریانس: X و Y معمولاً با std از توزیع می‌شوند 1 #و مستقل از یکدیگر هستند covCircle = آرایه ([[1, 0.], [0., 1.]]) دایره = multivariate_normal([0, 0], covCircle, 1000) #1000 نقطه در اطراف [0, 0] mahalanobis = lambda p: distance.mahalanobis(p, [0, 0], covCircle.T) d = np.array(map(mahalanobis, دایره)) #مقادیر فاصله ماهالانوبیس برای 1000 نقطه d2 = d ** 2 #MD مربع در این نقطه انتظار دارم که `d2` (مقادیر فاصله Mahalanobis در مجذور) از توزیع chi2 با 2 درجه پیروی کند. از آزادی من می خواهم مقادیر تابع توزیع احتمال (PDF) مربوطه را محاسبه کرده و از آنها برای تشخیص نقاط پرت استفاده کنم. برای نشان دادن مشکل من، مقادیر PDF محاسبه شده را برای مقادیر بین 0 تا 10 برای توزیع مجذور کای با 2 درجه آزادی و با مقادیر مکان و مقیاس برابر با میانگین و انحراف استاندارد d2 رسم کنید: theMean = mean( d2) theStd = std(d2) x = linspace(0، 10) pdf = chi2.pdf(x، 2، theMean, theStd) plot(x, pdf, '-b') این نمودار است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hLDyO.png) همانطور که می بینیم، مقادیر PDF که با مقادیر «X» زیر ~2.04 مطابقت دارند، بسیار کم هستند، که نشان می دهد هیچ نقطه ای نزدیکتر از 2.04 از مبدا وجود ندارد، که بدیهی است درست نیست. چه چیزی را از دست داده ام؟ **ویرایش** چرا از «theMean» و «theStd» به عنوان آرگومان های تابع pdf استفاده می کنم؟ تا آنجا که من متوجه شدم، انتظار می رود فاصله ها دارای توزیع chi2 با میانگین و stdev داده شده باشند. به همین دلیل است که من از آنها به عنوان آرگومان های PDF استفاده می کنم. از یک نظر به این سوال می فهمم که این درست نیست. بنابراین پارامترهای صحیح توزیع نظری chi2 چیست؟
توزیع فاصله ماهالانوبیس نقاط با توزیع نرمال چند متغیره
103180
من مجموعه بزرگی از نقاط داده دریافت شده توسط آزمایش دارم و هر نقطه دارای n یا در این مورد 8 متغیر مستقل و یک خروجی/متغیر وابسته است. (x1، x2، x3، ....، xn) = y --> برخی از خروجی های اندازه گیری شده چگونه می توانم یک منحنی را در این نقاط جاسازی کنم یا با نقاط داده درون یابی کنم؟ من خیلی مطمئن نیستم که با این کار از کجا شروع کنم. اگر فرمول‌های کلی یا کلیدواژه‌ای وجود داشته باشد که هر کسی می‌تواند برای شروع من در مسیر درست به همراه داشته باشد، بسیار قابل قدردانی خواهد بود.
درونیابی چند متغیره: شروع به کار
88960
این اولین پست من است، بنابراین امیدوارم همه چیز در قالب درست باشد. من مشکلاتی با گلمر دارم و نمی دانم چگونه آن را برطرف کنم، بنابراین امیدوارم کسی بتواند در این مورد به من کمک کند. هیچ جا نتونستم جوابی برای این موضوع پیدا کنم. آزمایش من: راه اندازی آزمایشی دارای هشت مکان است، هر سایت دارای یک منطقه مرکزی است که موجودات زنده در آن علامت گذاری می شوند. از ناحیه مرکزی، ارگانیسم ها این انتخاب را دارند که به سه ناحیه مختلف که مجهز به تله هستند بروند. این سه منطقه با سایت ها تلاقی می کنند. نرخ بازپس گیری در این سه منطقه بسیار کم و تلاش نمونه برداری (روز تله) بسیار بالا است. به دلیل تأثیرات خارجی، تله ها به درجات مختلف در تمام مناطق نمونه برداری تخریب شدند. علاوه بر ارگانیسم های مشخص شده، موجودات بی نشان از همان گونه نیز گرفتار می شوند. مجموعه داده چیزی شبیه به این است: داده های کتابخانه (lme4) <- ساختار(list(site = c(A، A، A، B، B، B، C, ج و ج ، G، H، H، H)، منطقه = c(I، II، III، I، II، III، I، II، III، I، II، III، I، II، III، I، II ، III، I، II، III، I، II، III)، علامت گذاری شده = c(2، 6، 3، 5، 3، 9، 0، 8 , 1, 1, 1, 18, 3, 0, 0, 1، 5، 6، 3، 0، 2، 2، 4، 5)، بدون علامت = c(38، 78، 104، 1، 6، 10، 1، 13، 0، 13،7، 85، 7، 1 ، 0، 9، 4، 36، 3، 4، 3، 10، 20، 29)، sampl_efort = c(9300، 9100، 8700، 9900، 9600، 8600، 9800، 9400، 10800، 11600، 11000، 13950، 10300، 10300، 10300، 9850، 9401 10800، 9600، 9900، 9300، 11800، 11250، 9450))، .Names = c(site، area، marked، unmarked، sampl_efort)، row.names = c(NA، -24)، class = data.frame) حالا می خواستم یک گلمر جاسازی کنم. از آنجایی که مقدار موجودات علامت‌گذاری شده ممکن است با کل موجودات مرتبط باشد، من یک رویکرد دو جمله‌ای را انتخاب کردم، با cbind (علامت‌گذاری شده، بدون علامت). من از ناحیه با سه درمان به عنوان متغیر توضیحی و مکان به عنوان عامل تصادفی استفاده می کنم. از آنجایی که تلاش نمونه‌گیری بین مناطق مختلف متفاوت است، می‌خواهم آن را به عنوان یک افست لحاظ کنم. کد به این صورت است: mod.glmer1= glmer(cbind(علامت گذاری شده، بدون علامت) ~ area + (1 | site) + offset(sampl_efort)، family=binomial, data=data) سپس، خطا را دریافت می کنم: > Error: (maxstephalfit) PIRLS step-halvings نتوانست انحراف را کاهش دهد در > pwrssUpdate اگر glmer را بدون افست امتحان کنم، همه چیز خوب کار می کند: mod.glmer2= glmer(cbind(علامت گذاری شده، بدون علامت) ~ area + (1 | سایت)، خانواده = دوجمله ای، داده = داده) خارج از علاقه، یک glm را بدون فاکتور تصادفی و با افست امتحان کردم: mod .glm1= glm(cbind(علامت گذاری شده، بدون علامت) ~ area + offset(sampl_efort)، خانواده=دوجمله ای، داده=داده) و من اخطارهای زیر: > پیام‌های هشدار: 1: glm.fit: احتمالات برازش عددی 0 یا 1 > رخ داده 2: glm.fit: احتمالات برازش عددی 0 یا 1 با نگاه کردن به مقادیر برازش گرد (cbind(data[,3:5 ],fits=fitted(mod.glm1)),8) می توانم ببینم که همه مقادیر برازش 0 هستند. من اکنون فکر می کرد که افست برای بدست آوردن ارزش مناسب معقول بسیار بزرگ است. از آنجایی که تلاش نمونه‌گیری دلخواه است (به‌جای روز، می‌توانستم ساعت‌ها، هفته‌ها و غیره نمونه‌برداری کنم)، تصمیم گرفتم تلاش نمونه‌برداری را بر 1000 تقسیم کنم. با انجام این کار، glm اکنون کار می‌کند: mod.glm2= glm(cbind (علامت گذاری شده، بدون علامت) ~ ناحیه + افست (sampl_efort/1000)، خانواده = دوجمله ای، داده = داده) با این حال، برای glmer mod.glmer3= glmer(cbind(علامت گذاری شده، بدون علامت) ~ ناحیه + (1 | سایت) + offset(sampl_efort/1000)، خانواده=دوجمله ای، داده=داده) هنوز دریافت می کنم > خطا: (maxstephalfit) PIRLS step-halvings موفق به کاهش انحراف در > pwrssUpdate نشد، بنابراین سؤالات من اساساً عبارتند از: 1. آیا من مجاز به تقسیم تلاش نمونه برداری 1000؟ به نظر من باید به نتایج یکسانی منجر شود، زیرا تفاوت‌های نسبی در تلاش نمونه‌گیری ثابت می‌ماند (و روزهای نمونه‌گیری یک اندازه‌گیری دلخواه است). با این حال، من البته آن را با به عنوان مثال امتحان کردم. با تقسیم بر 10000 به نتایج متفاوتی می رسم. 2. چگونه می توانم تلاش نمونه گیری را در glmer لحاظ کنم؟ تلاش نمونه‌گیری برای جلوگیری از آن بسیار مهم است، با این حال، من به سایت‌ها به عنوان فاکتور تصادفی نیز نیاز دارم. آیا افست رویکرد درستی است و اگر بله، چرا کار نمی کند. P.S.: اطلاعات جلسه من: > R نسخه 3.0.2 (25-09-2013) پلت فرم: i386-w64-mingw32/i386 (32 بیتی) > > محلی: [1] LC_COLLATE=English_United States.1252 LC_CTYPE=English State.1252 > [3] LC_MONETARY=English_United States.1252 LC_NUMERIC=C > [5] LC_TIME=English_United States.1252 > > بسته‌های پایه پیوست شده: [1] آمار گرافیکی grDevices از روش‌های مجموعه داده استفاده می‌کند > پایه > > سایر بسته‌های پیوست شده: [0-19_2 خودرو. lme4_1.0-6 Matrix_1.1-2 > lattice_0.20-23 > > بارگیری شده از طریق فضای نام (و پیوست نشده): [1] grid_3.0.2 MASS_7.3-29 > minqa_1.2.3 nlme_3.1-111 nnet_7.3-7 > [ 6] Rcpp_0.11.0 splines_3.0.2 tools_3.0.2 پیشاپیش متشکرم! جان
lme4: مشکلات گلمر با offset()
43958
من داده های زیر را برای 10 آزمودنی بر اساس اندازه گیری های قبل و بعد دارم: x <- c(12.9، 13.5، 12.8، 15.6، 17.2، 19.2، 12.6، 15.3، 14.4، 11.3) y <- c(12.6، 11. ، 15.2، 16.8، 20.0، 12.0، 15.9، 16.0، 11.1) و مایل به انجام آزمایش جایگشت هستند. من از permTS(...) برای انجام تست t دو طرفه استفاده کردم و مقدار 0.982 را به دست آوردم. اما من می‌خواهم از «expand.grid(rep(x,k))» با تعویض تگ‌های قبل و بعد استفاده کنم. آیا کسی می داند چگونه می توان به این امر دست یافت؟ با توجه به تعداد جایگشت‌های ممکن، تحریک هر جایگشت ممکن نیست، از این رو می‌خواهم از expand.grid برای بررسی اینکه آیا همان نتیجه به دست می‌آید استفاده کنم. با تشکر
تست جایگشت در R
91734
من سعی می کنم مشتق معادلات کوکریجینگ را بازتولید کنم که شامل کوواریانس متقاطع و واریوگرام متقاطع است. این اشتقاق در زمین آمار چند متغیره توسط واکرناگل گنجانده شده است. با این حال، من نمی توانم نتیجه زیر را بازتولید کنم: \begin{align}{}\sigma_{E}^{2} &= \sum_{i=1}^{N} \sum_{j=1}^{N } \sum_{\alpha=0}^{n_{i}}\sum_{\beta=0}^{n_{j}} w_{\alpha}^{i}w_{\beta}^{j}C_{ij}^{I}(x_{\alpha},x_{\beta})\\ &=2\sum_{i=1 }^{N}\sum_{\alpha=1}^{n_{i}}w_{\alpha}^{i}\gamma_{ii_{0}}(x_{\alpha} -x_{0})-\gamma_{i_{0}i_{0}}(x_{0} -x_{0})\\ &-\sum_{i=1}^{N} \sum_{j= 1}^{N} \sum_{\alpha=1}^{n_{i}}\sum_{\beta=1}^{n_{j}} w_{\alpha}^{i}w_{\beta}^{j}\gamma_{ij}(x_{\alpha} -x_{\beta})\end{align} کوواریانس متقاطع افزایش‌ها به صورت تعریف می‌شود $$C_{ij}^{I}= E[(Z_{i}(x_{\alpha})-Z_{i}(0))(Z_{j}(x_{\beta})-Z_{j}(0))]$$ و ضربدر واریوگرام به صورت $$\gamma_{ij}(h) = تعریف می شود \frac{1}{2}E[(Z_{i}(x+h)-Z_{i}(x))(Z_{j}(x+h)-Z_{j}(x))]$ $ چند شرط برای وزن‌های $w_{\alpha}^{i}$: \begin{equation} \sum_{\alpha=1}^{n_{i}}w_{\alpha}^{i وجود دارد } = \delta_{ii_{0}}\\ w_{0}^{i} = -\delta_{ii_{0}} \end{معادله} که در آن $\delta_{ii_{0}} = 1$ اگر $i= i_{0}$ و $\delta_{ii_{0}} = 0$ در غیر این صورت. فکر می کنم بتوانم به این عبارت برسم که بسیار شبیه برابری لازم \begin{align}{}\sigma_{E}^{2} &=2\sum_{i=1}^{N}\sum_{\alpha=1}^{n_{i}}w_{\alpha}^{i}C_{ii_{0}}(x_{\alpha },x_{0})-C_{i_{0}i_{0}}(x_{0},x_{0})\\ &-\sum_{i=1}^{N} \sum_{j=1}^{N} \sum_{\alpha=1}^{n_{i}}\sum_{\beta=1}^{n_{j}} w_{\alpha}^{i} w_{\beta}^{j}C_{ij}(x_{\alpha},x_{\beta})\end{align} سپس، سعی کردم عبارتی برای کوواریانس متقاطع افزایش‌ها به دست بیاورم. $C_{ij}^{I}$ بر حسب واریوگرام متقاطع $\gamma_{ij}(h)$ با استفاده از ترفند اضافه کردن 0 (با متغیر تصادفی $Z(0)$) به محصولات واریوگرام : $$\gamma_{ij}(h) = \frac{1}{2}E[(Z_{i}(x+h)-Z_{i}(x)+Z_{i}(0)-Z_{i}(0))(Z_{j} (x+h)-Z_{j}(x)+Z_{j}(0)-Z_{j}(0))]$$ که موارد زیر را ایجاد می‌کند: $$C_{ij}^{I}(x ، x+h)=-\gamma_{ij}(h)+\gamma_{ij}(x+h)+\gamma_{ij}(x)$$ با این حال، وقتی این را در معادله برای $\sigma_{ جایگزین می‌کنم E}^{2}$، شرایط اضافی وجود دارد که نباید وجود داشته باشد. پس به احتمال زیاد من دارم اشتباه می کنم. من از هر کمکی قدردانی می کنم.
رابطه بین کوواریانس متقاطع و واریوگرام متقاطع
43957
آیا اصطلاحی برای محاسبه واریانس یا انحراف معیار از مقداری غیر از میانگین وجود دارد؟ **مثال:** اگر مجموعه ای از تخمین ها برای دانه های ژله ای در یک شیشه داشته باشم، محاسبه انحراف معیار و واریانس عملیاتی بر روی میانگین آن تخمین ها است. با این حال، من همچنین می خواهم انحراف استاندارد توزیع را از تعداد _واقعی_ دانه های ژله در شیشه پیدا کنم. آیا این هنوز **انحراف استاندارد** نامیده می شود، حتی اگر انحراف از میانگین نباشد؟ آیا اصطلاح یا حوزه موضوعی خاصی برای تجزیه و تحلیل توزیع در برابر یک مقدار مستقل مانند این وجود دارد؟
واریانس یا انحراف معیار از مقداری غیر از میانگین
113576
من داده های rna-seq را در قالب شمارش تجزیه و تحلیل می کنم. اثر دسته ای توسط PCA نشان داده شده است. یکی از روش هایی که من امتحان کردم **RUVseq** نام داشت، تغییرات را بر اساس ژن های کنترل تخمین زد و سپس آن را به ماتریس طراحی اضافه کرد. من نمی دانم چرا به سادگی اضافه کردن یک متغیر پیوسته کار خواهد کرد. در اینجا یک مثال وجود دارد، تنظیمات آزمایش به این صورت است: گروه‌های نمونه A 1 B 1 C 1 D 2 E 2 F 2 G 3 H 3 I 3 سپس روش‌های **RUVseq** می‌توانند تغییرات ناخواسته را تخمین بزنند، برای مثال، B <- ( -0.37670272، 2.44136463، -0.79533912، -0.05487747، 0.25014132, 0.61824329 -0.17262350 ,-2.22390027, -1.26361438) سپس آنها را با هم ترکیب کنید: گروه های نمونه B A 1 -0.37670272 B 1 2.441390027 - D 1 2.4413613643 -0.05487747 E 2 0.25014132 F 2 0.61824329 G 3 -0.17262350 H 3 -2.22390027 I 3 -1.26361438 یک ماتریس طراحی بسازید که متناسب با glm باشد. این سوال من مدل +matri است. کار می کند؟ ضریب متغیر پیوسته به این معنی است که با تغییر یک واحد B چند تعداد خوانده شده ژن ها تغییر می کند، درست است؟ پس چرا B می تواند برای اصلاح اثر دسته ای استفاده شود؟
تنظیم اثر دسته ای با رگرسیون خطی چندگانه
101088
هنگام آزمایش 35 شرکت کننده از چه تجزیه و تحلیل آماری استفاده کنم. پیش و پس آزمون و بررسی تغییرات پس از 1 مداخله و گروه کنترل بدون مداخله؟ من یک متغیر واسطه، 3 متغیر مستقل و دو متغیر وابسته دارم.
تجزیه و تحلیل آماری پیش آزمون + پس آزمون - با کنترل و مداخله 35 شرکت کننده
46471
نیوی و مک فادن - تخمین نمونه بزرگ و آزمون فرضیه را می خوانم (در کتابچه راهنمای اقتصاد سنجی، جلد 4، 1994، صفحه 2178). مدل من که به آن علاقه دارم، قبل از انجام تخمین مدل اولیه، تخمین قبلی انجام شده است. از این رو مدل اولیه (گام دوم) شامل برخی از رگرسیون های تخمینی از مرحله قبلی (مرحله اول) است. برای محاسبه واریانس مرحله اول، من رویکرد نیوی و مک فادن را دنبال کردم، در اینجا شرایط مشترک GMM به صورت $\widetilde{g}\left(z,\theta,\gamma\right) = \left[ تعریف می‌شوند. g\left(z,\theta,\gama\right),m\left(z,\گاما\راست)\راست]$ کجا $g\left(z,\theta,\gamma\right)$ شرایط مرحله دوم و $m\left(z,\gamma\right)$ شرایط مرحله اول هستند. واریانس معمول مجانبی GMM برآوردگر GMM $\widehat{\theta}$ شبیه $Var\left(\widehat{\theta}\right)$ = $\left(G^TWG\right)^{-1}\mathbb{E}\left(g(z,\theta)g(z,\theta)^T\right)\left(G^TWG\right )^{-1}$ که در آن $g(z،\theta)$ برخی شرایط لحظه ای هستند، $G = \frac{\partial\mathbb{E}\left(g(z,\theta_0)\right)}{\partial \theta^T}$ and $W$ مقداری ماتریس وزنی است. برای محاسبه واریانس GMM برای رویکرد دو مرحله ای، باید $G$، $W$ و مشتق $\mathbb{E}$ را استخراج کنم. **سوال من: من برای درک اینکه چرا این درست است تلاش می کنم.** اجازه دهید $G_\theta = \frac{\partial\mathbb{E}\left(\widetilde{g}(z,\theta_0, \gamma_0)\ راست)}{\partial \theta^T}$, $G_\gamma = \frac{\partial\mathbb{E}\left(\widetilde{g}(z,\theta_0, \gamma_0)\right)}{\partial \gamma^T}$, $M = \frac{\partial\ mathbb{E}\left(m(z, \gamma_0)\right)}{\partial \gamma^T}$ سپس $\widetilde{G} = \frac{\partial\mathbb{E}\left(\widetilde{g}(z,\theta_0, \gamma_0)\right)}{\partial \left(\theta^T, \gamma^T\right)^ T} = \begin{Bmatrix} G_\theta & G_\gamma\\ 0 & M\end{Bmatrix}$ این به راحتی قابل مشاهده است اما چرا معکوس $G$ این $\widetilde{G}^{-1} = \begin{Bmatrix} G_\theta^{-1} & -G_\theta^{-1}G_\gamma M^{-1} \\ 0 & M^{-1}\end{Bmatrix}$ می‌دانم که مشتق یک ماتریس 2x2-Jacobian در صورتی است که $J = \begin{Bmatrix} x_u & x_v\\ y_u & y_v \end{Bmatrix}$ که $x_u،...$ مشتقات جزئی هستند سپس $J^{-1} = \frac{1}{det\left( J\right)}\begin{Bmatrix} y_v & -x_v\\ -y_u & x_u \end{Bmatrix}$ اما بعد $\widetilde{G}^{-1} = M^{-1}G_\theta^{-1}\begin{Bmatrix} M & -G_\gamma\\ 0 & G_\theta \end{Bmatrix} = \begin{Bmatrix} M^{-1}G_\theta^{-1}M & -M^{-1}G_\theta^{-1}G_\gamma\\ 0 & M^{-1} \end{Bmatrix}$ اما این یکسان نیست. **من چه اشتباهی کردم؟**
سوال در مورد معکوس در یک برآوردگر دو مرحله ای به عنوان یک رویکرد مشترک برآوردگرهای GMM
68151
من در حال خواندن کتابی در زمینه رگرسیون خطی هستم و در درک ماتریس واریانس-کوواریانس $\mathbf{b}$: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RIgsS.png) مشکل دارم ) آیتم های مورب به اندازه کافی آسان هستند، اما موارد خارج از مورب کمی دشوارتر هستند، چیزی که من را گیج می کند این است که $$ \sigma(b_0, b_1) = E(b_0 b_1) - E(b_0)E(b_1) = E(b_0 b_1) - \beta_0 \beta_1 $$ اما هیچ اثری از $\beta_0$ و $\beta_1$ در اینجا وجود ندارد.
نحوه استخراج ماتریس واریانس کوواریانس ضرایب در رگرسیون خطی
58666
من دو مجموعه از یک داده طولی دارم که فرضیه‌ای برای اندازه‌گیری همان ساختار پنهان دارم. سعی می‌کنم این فرضیه را با استفاده از تکنیک مدل‌سازی معادلات ساختاری آزمایش کنم. اساساً سعی می کنم از تحلیل عاملی تأییدی در داده های طولی با استفاده از SEM استفاده کنم. مدل های من مدل های نسبتا ساده CFA هستند. مشکل این است که حجم نمونه من از نظر استانداردهای SEM کوچک است. ما داده‌ها را فقط از 20 نفر برای نزدیک به دو سال جمع‌آوری کردیم (تعداد نقاط زمانی تقریباً برابر با 18 است) زیرا جمع‌آوری داده‌ها بسیار گران است. من با SEM تازه کار هستم و نتوانستم تصمیم بگیرم که آیا SEM انتخاب مناسبی برای من است یا خیر. به سوال من حجم نمونه کوچکی داده شده است، آیا استفاده از تکنیک های مبتنی بر SEM برای مدل سازی داده ها و آزمایش فرضیه من ایده خوبی است؟ بر اساس تحقیقاتم، به این نتیجه رسیدم که نباید SEM را با استفاده از حداقل مربعات، حداقل مربعات وزنی یا حداکثر احتمال برازش کنم زیرا آنها به نمونه های بزرگی نیاز دارند که من ندارم. به نظر می رسد که آنها توصیه می کنند SEM را با استفاده از حداقل مربعات جزئی یا رویکردهای Baysian برای حجم نمونه کوچک برازش کنند، اما مشکل این است که حجم نمونه من بسیار کوچک است. آیا مقاله ای وجود دارد که در مورد برازش SEM با استفاده از حجم نمونه بسیار کوچک بحث می کند؟ من به دنبال پیشنهادها، متون یا توصیه‌هایی برای تطبیق چنین داده‌هایی با حجم نمونه کوچک هستم.
مدل معادلات ساختاری با نمونه های بسیار کوچک
72046
**تعریفی قبل از شروع:** یک مسیر $t$ به طول $n$ در اینجا به عنوان یک سری مختصات دو بعدی $$\{(x_1,y_1), (x_2, y_2),..., ( x_n، y_n)\}$$ اکنون مجموعه‌ای متشکل از چنین مسیرهایی دارم که با مجموعه $T=\{t_1، t_2،...، t_n\}$ نشان داده می‌شوند. * * * $t_1$ و $t_2$ را به عنوان مثال در نظر بگیرید: فرض کنید قسمتی از $t_1$ که با $S_{t_1}$ نشان داده شده است با بخشی از $t_2$ که با $S_{t_2}$ نشان داده شده است همپوشانی دارد. اما برای قسمت های دیگر همپوشانی ندارند. همه مسیرها ممکن است چنین رابطه تا حدی همپوشانی با سایرین داشته باشند. بدیهی است که در این مورد، ما نمی‌توانیم هر مسیری را به عنوان یک کل در نظر بگیریم، متریک فاصله را پیدا کنیم و در نهایت آنها را خوشه کنیم. **ما باید مسیرها را به‌جای کل، به‌صورت جزئی دسته‌بندی کنیم. هر گونه پیشنهاد یا اشاره بسیار استقبال می شود.
به جای «به‌عنوان یک کل»، «بر اساس بخش» خوشه‌بندی شود؟