_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
57849 | من سعی میکنم از طریق فاصله اطمینان یا نرخ پاسخ استنتاجی از دقت به دست بیاورم، به جز اینکه روشهای معمولی واقعاً با مشکل من سازگار نیستند، زیرا کل جمعیت برای رای بله یا خیر مورد بررسی قرار گرفتند. «نمونه» دادهها که متغیرهای باینری طبقهبندی هستند، به سادگی نسبت جمعیتی است که پاسخ دادند، که 47=n 63% بود. بر این اساس، عدم پاسخ آنطور که در ادبیات معمولی وجود دارد، نشان داده نمیشود، که به موجب آن عدم پاسخ در نسبت پاسخ در یک نمونه گرفتهشده از جامعه و نه در جایی که کل جمعیت مورد بررسی قرار میگیرد، قاببندی میشود. علاوه بر این، به نظر می رسد قضیه حد مرکزی از نظر تجربی در رابطه با داده های پیوسته و پارامترهای خاصی مانند میانگین قوی تر است. این بدان معنا نیست که توابع همگرایی و جذب کننده در اینجا مرتبط نیستند. من فرض میکنم که هر دو روش قاببندی مسئله از نظر تجربی توصیفی هستند، اما در تلاشم تا موضوع را با دقت فنی چارچوببندی کنم. هر ورودی عالی خواهد بود. | متغیر باینری دسته بندی |
29336 | **مقدمه** هدف من پیش بینی نرخ رشد سالانه برای تعدادی از شاخص های کلان اقتصادی است (یکی را با Y_t$ نشان دهید). یکی از کارها آزمایش عملکرد پیشبینی مدلهای سری زمانی رقیب با و بدون متغیرهای برونزا (X_t$، یک ماتریس $T\times k$) است. لیست مدل های رقیب عبارتند از: 1. مدل AR(I)MA (نرخ رشد سالانه بعید است که واحد Roo داشته باشد، اگرچه مدل دوم یا فرض شده یا آزمایش شده است) $$A(L)Y_t =\mu+ B(L )\varepsilon_t$$ 2. مدل رگرسیون خطی با خطاهای ARMA $$Y_t = X_t\beta + \eta_t, \ \ A(L)\eta_t = B(L)\varepsilon_t $$ 3. مدل متغیر وابسته عقب مانده (مدل خودرگرسیون با متغیرهای برون زا) $$A(L)Y_t = X_t\beta + \varepsilon_t$$ 4. مدل رگرسیون خطی $ $Y_t = X_t\beta + \varepsilon_t$$ جایی که $\varepsilon_t$ فرض می شود نویز سفید قوی، واریانس ثابت میانگین صفر i.d. فرآیند؛ $A(L)$ و $B(L)$ چندجملهایهای اتورگرسیو (از مرتبه $p$) و میانگین متحرک (از مرتبه $q$) با $L$ - یک عملگر عقبگرد (تاخیر) هستند. توجه داشته باشید که هدف اولیه و تنها پیشبینی عملکرد است، بنابراین هرگونه ویژگی «خوب» تخمینهای پارامتر یکی از نگرانیهای ثانویه است. تنها چیزی که نیاز دارم این است که برای پیشبینیکنندهترین و قویترین شرایط شروع آزمایش کنم. تصمیم با یکی از گزینه های «دقت()» گرفته می شود، اما ابتدا باید مطالبی را برای مقایسه به دست بیاورم. مدلهای 1. و 2. توسط «auto.arima()» با روش تخمین پیشفرض «CSS-ML» برآورد میشوند. مدل های 3. و 4. با حداقل مربعات معمولی (`lm()`) تخمین زده می شوند. $ T $ حدود 40 $ است. **رویکردهایی که تاکنون امتحان شده** برای ایجاد باقیمانده های جک دار اولین رویکردی که با غلتیدن نشان داده شده است، اجرا شده است. با شروع از نمونههای فرعی بزرگی از دادههای سری زمانی، پارامترها تخمین زده میشوند و پیشبینی $h$ توسط تابع «predict()» انجام میشود (EDIT: این همان پیشنهادی است که در قسمت اول پاسخ راب به قسمت دوم ارائه شد. سوال). پس از آن یک امتیاز اضافه می شود و مراحل تخمین\پیش بینی تکرار می شود. نقطه ضعف چنین آزمایشاتی این است که تعداد تیک های زمانی (اندازه نمونه) مورد استفاده برای تخمین پارامترها متفاوت است. در حالی که من می خواهم استحکام را در شرایط شروع آزمایش کنم، اندازه نمونه را برای تخمین ثابت نگه دارم. با در نظر گرفتن این موضوع، سعی کردم چندین مقدار بعدی را تنظیم کنم (EDIT: برای بازه $k+p+q<t_0<t_1<T-h+1$) در $Y_t$ که مقادیری از دست رفته است (NA). در مدل های 2.-4. این همچنین به معنای حذف ردیف های بعدی مربوطه در ماتریس داده $X_t$ است. پیشبینی برای 3. و 4. ساده است (همان «predict()» با ردیفهای داده X_t$ حذف شده به خوبی کار میکند). تمام نگرانی های من در مورد مدل های 1. و 2 است. فقط با بخش AR($p$) پیش بینی ها به صورت متوالی انجام می شود $Y_{t+1|t} = \hat A(L)Y_t$. اما با وجود MA($q$) نمی توان (؟) از پارامترهای تخمین زده شده به طور مستقیم استفاده کرد. از براکول و دیویس مقدمه ای بر سری های زمانی و پیش بینی فصل 3.3 چنین استنباط می شود که برای تخمین بازگشتی $\theta_{n,j}$ از سیستم معادلات خاص که شامل پارامترهای خودرگرسیون و میانگین متحرک تخمین زده می شود، به یک الگوریتم نوآوری نیاز است. . ویرایش: این پارامترهای $\theta_{n,j}$ برای پیشبینی ARMA استفاده میشوند، نه پارامترهای برآورد شده اولیه $\theta_{j}$. با این حال در همان فصل اشاره شده است که $\theta_{n,j}$ به طور مجانبی به $\theta_{j}$ نزدیک میشود اگر فرآیند معکوس باشد. مشخص نیست که 30-40 امتیاز برای استفاده از نتیجه مجانبی حتی اگر معکوس باشد کافی نیست. نکات: من نمیخواهم $q$ را به صفر محدود کنم، زیرا این کار را در پیشبینی واقعی خارج از نمونه انجام نمیدهم. ویرایش: همچنین نه این که مشکل انتساب مقدار از دست رفته نیست، بلکه آزمایش پیشبینی است که قرار نیست مسیر دو نمونه فرعی را با انتساب مقادیر گمشده پل بزند. **سوالات** 1. آیا «auto.arima()» با وجود مقادیر گمشده در داخل نمونه به درستی عمل می کند؟ [قبلاً توسط راب پاسخ داده شده است.] 2. (قسمت بسیار مهم این پست) چگونه می توان این نقاط از دست رفته را از مدل ARMA به درستی پیش بینی کرد (نه نسبت داد) زمانی که هم $p>0$ و هم $q>0$؟ (امیدوارم راههایی وجود داشته باشد که قبلاً در زبان R پیادهسازی شدهاند، اما من به سادگی چیزی را از دست دادهام.) ویرایش: از آنجایی که پارامترهای قطعات ARMA به درستی تخمین زده میشوند، آیا میتوانم بهطور قانونی شی arima را دوباره مرتب کنم تا پارامترهای تخمینی و دادهها را فقط برای ابتدا نمونه فرعی و سپس از یک تابع پیش بینی استفاده کنید؟ EDIT2: من سعی کردم ساختار mod تخمینی را اصلاح کنم - پیش بینی حاصل از predict.Arima با پیش بینی یکسان است (تفاوت با دقت دو برابر) که در آن از ضرایب MA و AR تخمین زده شده برای پیش بینی $Y_{t+1 استفاده می کنم. t}$ مستقیماً به صورت $\hat A(L)(Y_t-X_t\hat \beta)+ X_t\hat \beta+\hat B(L)\hat \varepsilon_t $، بدون «KalmanForecast()». این مورد انتظار بود زیرا نمایش فضای حالت با همان $\theta_j$ تخمین زده می شود، نه $\theta_{n,j}$. بنابراین تنها سوالی که باقی میماند این است که تفاوت بین $\theta_j$ و $\theta_{n,j}$ برای تأثیرگذاری بر پیشبینیهای نقطهای مهم است؟ من | جک چاقو با مدل های سری زمانی |
63493 | در حوزه یادگیری ماشین، بیشتر الگوریتمها برای مسائل کوچک p بزرگ در نظر گرفته شدهاند. من با تکنیکهای آماری PCA و غیره آشنا هستم، اما میپرسیدم چه الگوریتمهایی در حوزه یادگیری ماشین برای کارهای تحلیلی مشابه موجود است. هدف تعیین تأثیر تعداد محدودی از متغیرهای پیش بینی کننده بر نتیجه با استفاده از روش های قوی مانند pca در حوزه ML است، پیشاپیش متشکرم. | رگرسیون p بزرگ n کوچک - یادگیری ماشینی |
9688 | حتی مدلهای ساده در تئوری احتمال میتوانند کاملاً گیجکننده باشند (مثلاً ترسیم چیزی با یا بدون برگرداندن آن، احتمالات شرطی، یک و تنها یک نتیجه، حداقل یک برآیند asoasf...) در سایر حوزههای مدلسازی ریاضی (مثلاً معادلات دیفرانسیل) شما اغلب ابزارهای مدل سازی قدرتمند و آسان برای استفاده دارند - من هرگز این را برای مدل های تصادفی ندیده ام. آیا مولد (الف) را می شناسید که با استفاده از آن بتوانید مدل های احتمال خاصی را در یک سبک نقطه و کلیک (به عنوان مثال) تنظیم کنید و مولد فرمول های مربوطه را به شما می دهد. (ب) مترجمی که تفسیرهای احتمالی از فرمولهای احتمال را در اصطلاحات پایه (به عنوان مثال) urn یا سکه به شما میدهد. متشکرم | مولد و/یا مفسر مدل های احتمال |
17004 | من در تعجب بودم که دلایل یک همبستگی بسیار پایین اسپیرمن، به اندازه 0.01-0.06 چه می تواند باشد. اساساً هیچ ارتباطی وجود ندارد! همه متغیرهای دیگر من همبستگی متوسطی دارند به جز هر همبستگی با این یک متغیر خاص. | چرا همه همبستگی های rho اسپیرمن با یک متغیر کم است در حالی که متغیرهای دیگر همبستگی متوسطی دارند؟ |
48774 | یک فروشنده تلفنی در یک ماه با 3 نفر تماس می گیرد و یک محصول را با احتمال 30 درصد می فروشد. در هر تماس او 0 یا 1 محصول می فروشد. این ماه با سه نفر تماس می گیرد. اگر در تماس اول یا دوم موفق به فروش محصول شود، در هر تماس موفق 100 یورو و در صورت فروش محصول در آخرین تماس، 200 یورو دریافت می کند. بگذارید X$ تعداد محصولاتی باشد که میفروشد و Y$ مجموع یورویی باشد که میفروشد. آیا $X$ و $Y$ مستقل هستند؟ من موفق به محاسبه کل توزیع ها و توزیع های حاشیه ای $X$ و $Y$ شدم، اما چگونه می توانم $\mathbb{P}(X=x\cap Y=y) را محاسبه کنم؟$ | چگونه می توانم بررسی کنم که آیا دو توزیع مستقل هستند؟ |
97417 | من سعی میکنم بفهمم آیا میتوان یک مدل AR آستانهای را با افکت GARCH با استفاده از R تطبیق داد یا خیر. تاکنون فقط توابع «garchFit» (که همچنین امکان «ادغام» مدلهای ARIMA و GARCH را فراهم میکند) و «tar» را پیدا کردهام. `. در کتابم (توسط Tsay) کدی را پیدا کردم که چنین مدلهایی را روی RATS قرار دهد، اما از من خواسته شده است که از R استفاده کنم. اگر غیرممکن است، میخواهم راهحلی برای دور زدن این مشکل پیشنهاد کنم. من در حال مطالعه بازده ثبت پیوسته ترکیبی شاخص S&P500 هستم و با موفقیت (حداقل از آزمایشات!) یک مدل GARCH را قبلاً نصب کردم. این به این دلیل است که این سری ناهمگونی در واریانس را نشان داد. اما طرح همچنین مقداری اثر اهرمی را نشان می دهد، بنابراین فکر کردم که یک TAR (بهتر از TGARCH) می تواند این پدیده را توضیح دهد. آیا ادغام این دو مدل منطقی است؟ آیا باید GARCH را ترک کنم؟ با تشکر | نحوه قرار دادن مدل TAR-GARCH در R |
111884 | من مفاهیم اصلی داده/متن کاوی را می دانم، اما آنها را عمدتاً در مسائل طبقه بندی باینری (فقط دو کلاس) استفاده کردم. من در حال حاضر با یک مشکل با 8 کلاس روبرو هستم و در مورد نحوه انجام اندازه گیری ارزیابی مانند دقت، یادآوری و موارد دیگر مشکل دارم. سوال من این است که آیا می توانم یک ماتریس چند کلاسه را به یک ماتریس conf باینری با مقادیر TP، FP، TN FN تبدیل کنم و سپس معیارهایی را که می خواهم محاسبه کنم؟ اگر نه، میتوانید در مورد نحوه انجام ارزیابی یک طبقهبندیکننده وقتی که ماتریس سردرگمی دریافت کردم، راهنمایی کنید: https://docs.google.com/spreadsheets/d/1yhGqO5KK_B9U6HMmxIQyincE3NNht- zUgdMQiPOLeu8/edit?usp برای ویرایش سند | ماتریس سردرگمی چند کلاسه به ماتریس سردرگمی باینری |
29332 | من یک دانشمند کامپیوتر هستم که در زمینه داده کاوی کار می کنم. بر کسی پوشیده نیست که بگوییم دانشمندان کامپیوتر در انجام طراحی و ارزیابی آزمایشی سیستماتیک نسبتا ضعیف هستند - استفاده از مقادیر p و تخمین های اطمینان پیشرفته در نظر گرفته می شود :). آنچه میخواهم بدانم آیا دورهها/مواد خوبی برای آموزش طراحی تجربی خوب به دانشمندان کامپیوتر وجود دارد یا خیر. برای مشخصتر کردن این موضوع، اطلاعات زیر را اضافه میکنم: * این دوره باید برای دانشجویان تحصیلات تکمیلی باشد که میتوان تصور کرد که درک معقولی از احتمال، اما پیشینهای محدود در آمار دارند. * این دوره باید بر روی طراحی آزمایشی در محیط های غیر طبیعی کنترل نشده تمرکز کند: به عبارت دیگر نه یک حقیقت فیزیکی اساسی وجود دارد و نه راهی برای کنترل فرآیند جمع آوری داده ها (مانند سوژه های انسانی). البته یک دوره خوب بر روی اصول متمرکز خواهد بود، اما باید به طور قابل توجهی با این سناریو مقابله کند. * یک عنصر محاسباتی یک جایزه است اما اجباری نیست. ما با داده های زیادی سر و کار داریم، اما در صورت نیاز می توانیم مسائل محاسباتی را خودمان بفهمیم. | دوره طراحی آزمایشی برای داده کاویان |
52677 | من 30 نقطه داده دارم و باید باقیمانده $u_t$ را از آنها محاسبه کنم. مدل رگرسیونی من این است: $$y_t = β + u_t$$ نقاط داده -15,6 -21,6 -19,5 -19,1 -20,9 -20,7 -19,3 -18,3 -15 ,1 -14,1 -14,9 -26,4 -26,87 -23,11 -25,38 -20,60 -14,96 -10,54 -4,72 -0,36 -4,17 4,14 1,09 6,81 17,27 19,24 24,35 25,35 30,02 من با روش حداقل مربع معمولی محاسبه کردم که β $β=-y_t$ است بنابراین از تمام نقاط داده $β=26,8722467$ و سپس $u_t = y_t-β$ آیا این درست است؟ | رگرسیون توسط مدل $y_t = β + u_t$ |
99675 | تعیین کننده ماتریس کوواریانس مربع حجم یک ابرمستطیل را با توزیعی که طول ضلع آن توسط واریانس های توزیع در فضای ویژه تعیین می شود، به ما می دهد. در حالت تک متغیره این به واریانس خلاصه می شود. اما چنین اقدامی را چه بنامیم؟ این اندازه گیری به چه معناست؟ از یک طرف میتوان گفت که میزان پراکندگی توزیع یا به سادگی گسترش آن را اندازهگیری میکند. اسامی مترادف مورد استفاده در ادبیات عبارتند از «پراکندگی»، «تغییرپذیری» و «پراکندگی». مشکل من با این نام ها این است که بیش از حد مبهم هستند. Spread همچنین می تواند به یکنواختی اشاره کند. من باید بین یکنواختی و مفهوم دیگری که در تلاشم کلمه مناسبی برای آن پیدا کنم، ابهام زدایی کنم. چه کلمه ای مناسب خواهد بود؟ | نام جایگزین برای پراکندگی یا گسترش |
64060 | این پست در ادامه این مطلب آمده است. من سعی می کنم یک مجموعه داده را تجزیه و تحلیل کنم: افراد $S$ برای اندازه گیری $A$ در شرایط $B\ برابر C$ مورد آزمایش قرار گرفتند. من به این نتیجه رسیدهام که میتوانم با استفاده از یک طرح اثرات مختلط که در آن سوژهها عوامل تصادفی هستند، تجزیه و تحلیل اندازهگیریهای مکرر را انجام دهم. سپس با یک '3 راه' $A\times B \times C$ ANOVA باقی میمانم که با تابع 'anovan' MATLAB انجام میدهم. جایی که من گیر کرده ام این است: ** از چه ساختار مدلی باید استفاده کنم، و چه چیزی را گزارش کنم؟ به طور خاص، اگر نه همه تعاملات (تصادفی)، یعنی $?\times S$، باید در مدل لحاظ کنم؟** (اگر همه تعاملات $?\times S$ را درج نکنم، MATLAB به حالت عادی برمی گردد. با استفاده از MSE درجات خطای آزادی به عنوان مخرج در محاسبات آماره F نمی دانم خوب است یا بد.) **خاص سوالات:** 1. نامگذاری: آیا من یک ANOVA اندازه گیری های مکرر $A \times B \times C$ انجام می دهم یا یک $S \times A \times B \times C$ ANOVA با جلوه های مختلط یا شاید یک $A\ بار B \ بار C$ اندازه گیری های مکرر اثرات مختلط ANOVA؟ 2. آیا باید تمام عبارات تعامل $?\times S$ را در تجزیه و تحلیل لحاظ کنم، یا این یک سوال انتخاب مدل است؟ 3. آیا باید اثرات $S$ و/یا تعاملات $?\times S$ را گزارش کنم؟ آیا میخواهم نوعی اندازهگیری اثر $\eta^2$ برای ارتباط دادن میزان واریانس ناشی از سوژهها؟ | اثرات مختلط برای اقدامات مکرر در Matlab - چگونه یک مدل انتخاب کنیم؟ |
8807 | من از بسته caret در R برای ساخت مدل های پیش بینی برای طبقه بندی و رگرسیون استفاده کرده ام. Caret یک رابط یکپارچه برای تنظیم پارامترهای مدل توسط اعتبار سنجی متقاطع یا بوت بند فراهم می کند. به عنوان مثال، اگر در حال ساخت یک مدل ساده «نزدیکترین همسایگان» برای طبقه بندی هستید، از چند همسایه باید استفاده کنید؟ 2 10؟ 100؟ Caret به شما کمک میکند با نمونهگیری مجدد از دادههایتان، آزمایش پارامترهای مختلف، و سپس جمعآوری نتایج برای تصمیمگیری بهترین دقت پیشبینی، به این سؤال پاسخ دهید. من این رویکرد را دوست دارم زیرا روشی قوی برای انتخاب فراپارامترهای مدل ارائه میکند، و هنگامی که پارامترهای فوقالعاده نهایی را انتخاب کردید، با استفاده از دقت برای مدلهای طبقهبندی، تخمینی متقاطع از «خوب» بودن مدل ارائه میکند. و RMSE برای مدل های رگرسیون. من اکنون برخی از داده های سری زمانی دارم که می خواهم یک مدل رگرسیون برای آنها بسازم، احتمالاً با استفاده از یک جنگل تصادفی. با توجه به ماهیت داده ها، یک تکنیک خوب برای ارزیابی دقت پیش بینی مدل من چیست؟ اگر جنگلهای تصادفی واقعاً برای دادههای سری زمانی اعمال نمیشوند، بهترین راه برای ساخت یک مدل مجموعه دقیق برای تجزیه و تحلیل سریهای زمانی چیست؟ | تجزیه و تحلیل سری های زمانی متقابل |
17006 | بنابراین، من می خواهم یک مدل دوجمله ای منفی با اثرات تصادفی را برازش کنم. برای چنین مدلی STATA می تواند ضرایب توانی تولید کند. با توجه به فایل راهنما، چنین ضرایبی را می توان به عنوان نسبت های بروز-نرخ تفسیر کرد. متأسفانه من انگلیسی زبان مادری نیستم و واقعاً نمی دانم نسبت های بروز- نرخ چیست یا چگونه می توانم آنها را ترجمه کنم. بنابراین سوال من این است که چگونه می توانم نسبت های میزان بروز را تفسیر کنم. به عنوان مثال: اگر مدل به من نسبت نرخ بروز 0.7 برای یک var را بدهد. آیا این بدان معناست که تعداد مشاهدات مورد انتظار (شمارش) بر روی متغیر وابسته. اگر var مستقل یک واحد تغییر کند .7 تغییر می کند؟ کسی میتونه کمک کنه؟ | تفسیر نسبت های بروز-نرخ |
60767 | سناریوی زیر بیشترین سؤالات متداول را در سه نفر محقق (I)، بازبین/ویرایشگر (R، غیر مرتبط با CRAN) و من (M) به عنوان خالق طرح تبدیل شده است. میتوانیم فرض کنیم که (R) یک بازبین ارشد معمول پزشکی است، که فقط میداند که هر طرح باید نوار خطا داشته باشد، در غیر این صورت اشتباه است. هنگامی که یک بازبین آماری درگیر است، مشکلات بسیار کمتر مهم هستند. **سناریو** در یک مطالعه متقاطع دارویی معمولی، دو داروی A و B برای تأثیر آنها بر سطح گلوکز آزمایش می شوند. هر بیمار دو بار به ترتیب تصادفی و با فرض عدم انتقال آزمایش می شود. نقطه پایانی اولیه تفاوت بین گلوکز (B-A) است و ما فرض می کنیم که آزمون t زوجی کافی است. (I) نموداری می خواهد که سطح گلوکز مطلق را در هر دو مورد نشان دهد. او از تمایل (R) به میله های خطا می ترسد و از خطاهای استاندارد در نمودارهای میله ای درخواست می کند. بیایید جنگ نمودار میله ای را اینجا شروع نکنیم._)  (I): این نمی تواند درست باشد. میله ها با هم همپوشانی دارند و ما 0.03=p داریم؟ این چیزی نیست که من در دبیرستان یاد گرفتم. (M): ما در اینجا یک طرح جفت داریم. نوارهای خطای درخواستی کاملاً بی ربط هستند، آنچه مهم است SE/CI تفاوت های جفت شده است که در نمودار نشان داده نمی شوند. اگر حق انتخاب داشتم و دادههای زیادی وجود نداشت، نمودار زیر را ترجیح میدادم! *اضافه شده 1:** این نمودار مختصات موازی است که در چندین پاسخ ذکر شده است (M): خطوط جفت شدن را نشان می دهند و بیشتر خطوط بالا می روند و این برداشت درستی است، زیرا شیب چیزی است که اهمیت دارد (خوب، این کاملاً مشخص است، اما با این وجود). (من): این عکس گیج کننده است. هیچ کس آن را درک نمی کند و هیچ نوار خطایی ندارد (R در کمین است). (M): همچنین می توانیم نمودار دیگری اضافه کنیم که فاصله اطمینان مربوط به تفاوت را نشان می دهد. فاصله از خط صفر تصوری از اندازه اثر می دهد. (من): هیچ کس آن را انجام نمی دهد (ر): و درختان گرانبها را هدر می دهد (م): (به عنوان یک آلمانی خوب): بله، نقطه روی درختان گرفته می شود. اما من با این وجود از این استفاده می کنم (و هرگز آن را منتشر نمی کنم) زمانی که چندین درمان و تضادهای متعدد داریم.  **پیشنهادی دارید**؟ اگر می خواهید یک نمودار ایجاد کنید، R-Code در زیر آمده است. # گرافیک برای آزمایشهای متقاطع کتابخانه (ggplot2) library(plyr) theme_set(theme_bw()+theme(panel.margin=grid::unit(0lines))) n = 20 effect = 5 set.seed(4711) glu0 = rnorm(n,120,30) glu1 = glu0 + rnorm(n,اثر,7) dt = data.frame(patient = rep(paste0(P,10:(9+n)))، درمان = rep(c(A،B)، هر=n)، گلوکز = c( glu0,glu1)) dt1 = ddply(dt,.(درمان)، تابع(x){ data.frame(گلوکز = میانگین(x$گلوکز)، se = sqrt(var(x$glucose)/nrow(x))}) tt = t.test(glucose~treatment,paired=TRUE,data=dt,conf.int=TRUE) dt2 = data.frame(diff = - tt$estimate,low=-tt$conf.int[2], up=-tt$conf.int[1] p = paste(p =,signif(tt$p.value,2)) png(height=300,width=300) ggplot(dt1, aes(x=treatment, y=glucose, fill=treatment))+ geom_bar(stat=هویت )+ geom_errorbar(aes(ymin=glucose-se, ymax=glucose+se)،size=1., عرض=0.3)+ geom_text(aes(1.5150)، label=p،size=6) ggplot(dt،aes(x=درمان، y=گلوکز، گروه=بیمار))+ylim(0،190)+ geom_line() +نقطه_geom(اندازه=4.5)+ geom_text(aes(1.5,60),label=p,size=6) ggplot(dt2,aes(x=,y=diff))+ geom_errorbar(aes(ymin=low,ymax=up),size=1.5 ,width=0.2)+ geom_text(aes(1,-0.8),label=p,size=6)+ ylab(95% فاصله اطمینان (CI) تفاوت گلوکز B-A)+ ylim(-10،10)+ theme(panel.border=element_blank()، panel.grid.major.x=element_blank()، panel.grid.major.y =element_line(size=1,colour=grey88)) dev.off() | نحوه نمایش نوارهای خطا برای آزمایش های متقاطع (جفت شده). |
86293 | فرض کنید $X$ و $Y$ به ترتیب متغیرهای تصادفی پیوسته و گسسته هستند، با $f(x)$ و $g(y)$ به ترتیب چگالی احتمال برای $X$ و جرم احتمال برای $Y$. آیا می توانم بگویم که $Z=XY$ دارای تابع چگالی برابر با $$\sum_{y} f(z/y)g(y)$$ است و آیا می توانم این را برای همه جفت متغیرهای تصادفی تعمیم دهم؟ | چگونه چگالی حاصل ضرب یک متغیر گسسته و پیوسته را محاسبه کنیم؟ |
9667 | > **تکراری احتمالی:** > کتاب هایی برای تحلیل سری های زمانی خودآموز؟ من کلاً در مدل سازی سری های زمانی تازه کار هستم. اما من از مدلسازی رگرسیون و برخی الگوریتمهای داده کاوی مانند درختهای تصمیم آگاه هستم. من می خواهم سری های زمانی را از ابتدا یاد بگیرم. سابقه من ریاضی است. لطفاً هر کتاب/مواد/منبع وب خوب را برای یادگیری گام به گام با مطالعات موردی به من پیشنهاد دهید. با تشکر | مطالب آموزشی در مورد سری های زمانی |
57842 | من تست KPSS را برای برخی از متغیرها در stata انجام دادم تا ثابت بودن را بررسی کنم. من می خواهم خروجی های stata را تفسیر کنم، اما نمی دانم چگونه این کار را انجام دهم. به عنوان مثال، در مورد زیر: آزمون KPSS برای mIlliq1 Maxlag = 13 انتخاب شده توسط معیار شورت. خودکوواریانس وزن شده توسط هسته بارتلت مقادیر بحرانی برای H0: mIlliq1 روند ثابت است 10%: 0.119 5% : 0.146 2.6% 2.17: La سفارش دهید آمار تست 0.557 1.309 2.229 3.188 4.162 5.144 6.129 7.118 8.109 9.102 10.0974 11.0934 017.0939.121 = حداکثر انتخاب شده. توسط معیار شورت اتوکوواریانس های وزن شده توسط هسته بارتلت چگونه می توانم این نتیجه را تفسیر کنم؟ یعنی TS ثابته یا نه؟ اگر اینطور نیست، چگونه می توانم آن را به یک سری زمانی ثابت تبدیل کنم؟ با تشکر از همه. | تست KPSS - تفسیر خروجی در stata |
96516 | من سعی میکنم یک مدل اقتصادسنجی ایجاد کنم که چندین لایه داشته باشد، و مطمئن نیستم که امکانپذیر باشد. من 8 کشور اصلی دارم که در 3 کشور میزبان سرمایه گذاری می کنند و من به سیر تحول سرمایه گذاری در یک دوره 10 ساله (2002-2011) نگاه می کنم. من به عنوان متغیر مستقل خود، ورودی سرمایه گذاری مستقیم خارجی به 3 کشور میزبان از 8 کشور مبدا را برای هر سال دارم. من به عنوان متغیرهای مستقل خود، برای مثال تولید ناخالص داخلی/سرانه کشور میزبان i را در دوره 10 ساله دارم. اکنون همان تولید ناخالص داخلی/سرانه، برای 8 کشور مبدا در پانل من اعمال خواهد شد. چگونه با این مشاهدات مکرر در پانل خود برخورد کنم؟ من به شدت نیاز به کمک دارم. باید بدانم آیا چنین پنلی امکان پذیر است و چه نوع رگرسیونی را باید اعمال کنم. ممنون از وقتی که گذاشتید | FDI رگرسیون چندگانه |
63496 | با استفاده از بسته lme در R برای شبیه سازی رگرسیون دو متغیره با برهمکنش همه IV ها با یک متغیر گروهی کدگذاری شده ساختگی، از coefplot2 استفاده کرده ام، اما دوست دارم نمودارهای گروه بندی شده توسط IV به صورت بصری ارتباط دیفرانسیل x و y را توسط گروه نشان دهند. اگر لازم باشد میتوانم با استفاده از ggplot2 گروهبندی را با دست انجام دهم، اما 100% مطمئن نیستم که کدام نقاط را ترسیم کنم، مخصوصاً برای حداقل و حداکثر باندهای اطمینان. با مثال Y = b0 + b1(X) + b2(Z) + b3(XZ) + e، نمودارهای گروه 1 (Z=0) در b1 با حداقل و حداکثر برای باند اطمینان فرموله شده به صورت b1+- متمرکز خواهند شد. 1.96 * SE. نمودارهای گروه 2 (Z=1) در مرکز b1+b3 قرار خواهند گرفت، درست است؟ اگر درست است، چگونه حداقل و حداکثر را برای باند اطمینان گروه 2 فرموله کنم؟ آیا من فقط از SE مرتبط با b3 استفاده می کنم؟ | رسم ضرایب متمایز گروه |
62726 | به نظر میرسد من یک نقص روششناختی را در مجموعه دادههای مطالعاتی منتشر شده کشف کردهام که در ابتدا حدود 30 سال طول کشید تا جمعآوری و جمعآوری شود. آزمایش دارای دنباله ای از محرک ها به ترتیب تصادفی منحصر به فرد جهانی بود - یعنی هر مصاحبه به همان ترتیب انجام شد، اما ترتیب یک بار به عنوان بخشی از طرح آزمایش تصادفی شد. با تجزیه و تحلیل دادهها، متوجه شدم که محرک اول متفاوت از بقیه رفتار میکند: محرکهای مجاور به خوبی همبستگی دارند (مقدار مطلق پیرسون r بین 0.3 و 0.85، با مقادیر p بسیار کمتر از 0.05). به جز اولین محرک به ترتیب تصادفی، که با همسایگانش بسیار کمتر همبستگی دارد (Pearson r در حدود -0.07، p ~ 1e-25). قبل از نوشتن این یافتهها و انتشار آنها، میخواهم بتوانم روشهایی را پیشنهاد کنم تا همچنان از دادههای جمعآوریشده برای تجزیه و تحلیل بیشتر استفاده کنیم، که من را به این سوال راهنمایی میکند: چه استراتژیهایی ممکن است ارزش دنبال کردن برای استخراج نتایج قابل اعتماد از مجموعه دادهای را داشته باشند که از این مشکل رنج میبرند. نوع مشکلات متوالی سوختن در روش جمع آوری داده ها؟ آیا منبع خوبی وجود دارد که بتوانم در مورد مدیریت داده های طراحی آزمایشی معیوب مطالعه کنم؟ | طراحی آزمایش معیوب را تعمیر کنید |
63494 | در `R` من یک متغیر طبقه بندی دارم که رگرسیون لجستیک را روی آن انجام دادم و نتیجه زیر را گرفتم: glm (فرمول = مرگ و میر ~ SMOKE، خانواده = دوجمله ای، داده = c.data) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -0.2155 - 0.2155 -0.2155 -0.1860 2.8515 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -4.0483 0.3189 -12.694 <2e-16 *** SMOKEN 0.2968 0.3559 0.834 0.404 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 492.45 در 2369 درجه آزادی انحراف باقیمانده: 491. 2368 درجه آزادی AIC: 495.72 تعداد تکرارهای امتیازدهی فیشر: 6 آیا مقدار رهگیری با «SMOKEY» (دارای سابقه سیگار کشیدن) یکسان است؟ | تفسیر Intercept هنگام انجام رگرسیون لجستیک با داده های طبقه بندی شده در R |
30842 | یک نفر پشت پرده است - نمی دانم آن شخص زن است یا مرد. من می دانم که این فرد دارای موهای بلند است و 90٪ از همه افرادی که موهای بلند دارند زن هستند، می دانم که فرد دارای گروه خونی نادر AX3 است و 80٪ از همه افراد دارای این گروه خونی زن هستند. احتمال اینکه فرد زن باشد چقدر است؟ توجه: این فرمول اولیه با دو فرض دیگر گسترش یافته است: 1\. گروه خونی و طول مو مستقل هستند 2\. نسبت مرد: زن در جمعیت به طور کلی 50:50 است (سناریوی خاص در اینجا چندان مرتبط نیست - بلکه، من یک پروژه فوری دارم که نیاز دارد ذهنم را در مورد رویکرد صحیح برای پاسخ دادن به این موضوع معطوف کنم. احساس من این است که این یک سوال احتمال ساده است، با یک پاسخ قطعی ساده، به جای چیزی که بر اساس تئوری های آماری مختلف، چندین پاسخ قابل بحث دارد.) | احتمال اینکه این فرد زن باشد چقدر است؟ |
55525 | من 400 بیمار دارم و برای همه آنها 4 آزمایش انجام می دهم. این به من تعدادی مثبت و منفی برای هر آزمایش می دهد. من می خواهم تست های 2 در 2 را با هم مقایسه کنم تا بفهمم آیا تفاوت آماری معنی داری بین آنها وجود دارد یا خیر. Test Pos Neg 1 100 300 2 150 250 3 160 240 4 200 200 از چه آزمون آماری می توانم برای تعیین این استفاده کنم؟ من در این زمینه بسیار تازه کار هستم، بنابراین از هرگونه اشاره ای قدردانی می کنم. | اهمیت آماری تفاوت بین نتایج آزمون ها را ارزیابی کنید |
78436 | این مربوط به تست علامت ویلکاکسون یک دم است. من در حال مقایسه رتبهبندی (تخیلی) دوست داشتن قبل و بعد از تراشیدن مو توسط یک زن هستم. طراحی پیچیده است. تمام تلاشم را می کنم تا توضیح دهم. 9 زن هستند. از شرکت کنندگان خواسته می شود تا میزان علاقه خود را به هر یک از زنان ارزیابی کنند. پس از آن از آنها سؤال می شود که آیا زنان باید موهای او را بتراشند؟ از کسانی که پاسخ مثبت دادند، از آنها خواسته میشود که پس از تراشیدن موهای خود، میزان علاقهشان به زن را ارزیابی کنند، در حالی که از کسانی که پاسخ منفی دادهاند، برای رتبهبندی زن بعدی درخواست میشود. (لطفاً به یاد داشته باشید که این تخیلی است، تحقیق واقعی من متفاوت است. اما من نمی خواهم آن را در اینجا پست کنم، بنابراین با استفاده از یک تحقیق تخیلی که تقریباً مشابه است). بنابراین اساسا، من رتبه بندی قبل و بعد از اصلاح دارم. شرکتکننده یک ممکن است 5 رتبهبندی قبل و بعد در حین عضویت داشته باشد. 2 دارای 7 رتبه بندی قبل و بعد است. * * * من انتظار دارم رتبه بندی قبل از اصلاح بیشتر از رتبه بندی های پس از اصلاح باشد، بنابراین یک دنباله است. این خروجی از SPSS است: آمار توصیفی N Mean Std. انحراف حداقل حداکثر درصد 25th 50th (میانگین) 75th رتبه1 379 4.000 1.08588 1.00 5.00 3.0000 4.0000 5.0000 امتیاز2 379 3.524 1.7050 1.70 4.0000 5.0000 رتبه N میانگین رتبه مجموع رتبهها رتبهبندی2 - رتبهبندی 1 رتبههای منفی 135a 63.00 7975.00 رتبههای مثبت 0b -10.331b Asymp. سیگ (2-tailed) .000 a Wilcoxon Signed Ranks Test b بر اساس رتبه های مثبت. تا جایی که من می بینم، تفاوت معنی داری است 001/0p< (دو دنباله). تک دم چطور؟ چگونه می توانم بفهمم که در یک دم مهم است زیرا فرضیه من یک دم است ... من پیش بینی کرده ام که رتبه بندی پس از اصلاح کمتر از قبل از اصلاح است. | تست تک دم ویلکاکسون |
48772 | اگر یک فضای یک بعدی دارید، مانند یک متغیر، و دو مجموعه مشاهدات، و می خواهید اندازه ای برای جدایی بین دو مجموعه مشاهدات داشته باشید، می توانید یک d اول مانند $d=(\mu1-\mu2)/\ را محاسبه کنید. sqrt{(s_1^2+s_2^2)/2}$ اساساً فاصله بین میانگین ها بیش از جذر مجموع واریانس های بیش از دو، مطمئن نیستم، اما حدس می زنم وجود داشته باشد فرض نرمال بودن و مثبت در اینجا به این معنی است، سوال من این است که اگر در یک فضای چند بعدی (یا حداقل دو بعدی) باشید، بنابراین بیش از یک متغیر دارید که هر مشاهده را تعریف می کند، چه؟ چگونه عدد اول 2 بعدی یا ND d را محاسبه می کنید؟ | d اول چند بعدی |
54635 | با توجه به یک بردار نمونه $x$ به اندازه $N$ از یک جمعیت به طور معمول توزیع شده است. با روشهای مکرر، میانگین جمعیت به صورت $\hat{\mu}=\frac{\Sigma{}x_i}{N}$، و سیگمای جمعیت به صورت $\hat{\sigma}=\sqrt{\frac{ برآورد میشود. \Sigma{(x_i - \hat{\mu})^2}}{N - 1}}$. آیا یک پیشین بیزی برای میانگین جمعیت و سیگمای جمعیت وجود دارد که به تخمین های مشابه فرمول های متداول بالا برای هر $x$ منجر شود؟ | مقدمات پارامترهای توزیع نرمال که منجر به نتایج مشابه فرمول فرکانس گرا می شود |
54636 | من به دنبال جزئیاتی در مورد توزیع زیر هستم: فرض کنید که احتمال یک متغیر تصادفی $n \sim \text{Pois}(k)$ مشروط به $k \sim \text{Pois}(\mu)$ است. بعد از مدتی تلاش متوجه شدم که احتمال شرطی $\Pr(n\mid\mu)$ باید $$ \Pr(n\mid\mu) = \frac{e^{-\mu/e\,(e باشد -1)}}{n!} \, T_n\left(\mu/e\right) \, \text{,} $$ که در آن $T_n(x)$ چند جملهای Touchard هستند. کسی اسم این توزیع رو میدونه؟ من آنچه را که در اینجا به آن نیاز دارم کار کرده ام، اما ترجیح می دهم فقط این را از جایی نقل کنم. هر مرجعی؟ (من همان سوال را بدون پاسخ به http://math.stackexchange.com/ ارسال کردم، سپس متوجه شدم که اینجا ممکن است جای بهتری برای پرسیدن باشد. اگر یک پست متقاطع مورد مخالفت قرار گیرد، یکی از سوالات را حذف خواهم کرد. ) | توزیع پواسون مشروط به میانگین توزیع شده پواسون است |
58391 | چگونه می توانیم میانگین درصد مطلق خطا (MAPE) پیش بینی های خود را با استفاده از Python و scikit-learn محاسبه کنیم؟ از اسناد، ما فقط این 4 تابع متریک را برای رگرسیون داریم: * metrics.explained_variance_score(y_true, y_pred) * metrics.mean_absolute_error(y_true, y_pred) * metrics.mean_squared_error *,(y_pred) metrics.r2_score (y_true، y_pred) | میانگین درصد خطای مطلق (MAPE) در Scikit-learn |
99679 | من سعی می کنم وزن نمونه کارها را پیدا کنم، که نسبت Sortino من را به حداکثر برساند. من بازده هفتگی 16 سهم دارم. من تمام روز دیروز را برای نصب و پیاده سازی مثال زیر روی داده های خودم استفاده کرده ام: https://r-forge.r-project.org/scm/viewvc.php/pkg/PortfolioAnalytics/demo/sortino.R?view =markup&root=returnanalytics&pathrev=1765 کد به خوبی اجرا میشود، اما نتایج من بسیار ضعیف است. بنابراین من متوجه شدم که می توانم تابع خودم را برای محاسبه نسبت Sortino بنویسم و سپس از نوعی تابع بهینه سازی در R مانند optim استفاده کنم. بنابراین من یک تابع برای محاسبه نسبت Sortino نوشتهام و سپس از optim برای به حداکثر رساندن آن استفاده میکنم: sorsol <- optim(rep(0,16)، روش = BFGS، fn = Sortino، مجموعه داده = afkastweekly، control =list(fnscale=-1)) من باید یک قید را اعمال کنم که می گوید وزن ها مجموعاً به یک می رسد، اما با استفاده از ساعت های زیادی برای امتحان کردن آن در ConstrOpt بدون استفاده از آن یک راه حل، من فکر کردم که می توانم وزن هایم را بعد از حداکثر کردن مجدد مقیاس کنم، اما آیا این رویکرد نادرست است؟ sorsol$par/sum(sorsol$par) و اگر چنین است چرا؟ من معتقدم اینطور است، زیرا من یک نمونه کار دیگر دارم (پرتفوی مماس)، که نسبت Sortino بالاتری را به همراه دارد، بنابراین باید نادرست باشد، اما نمی توانم دلیل آن را بفهمم. اگر نادرست است، آیا کسی میتواند به من در جهت به حداکثر رساندن نسبت Sortino اشاره کند؟ در زیر یک dput از (برخی) از داده های من پیدا خواهید کرد: > dput(head(afkastheekly)) structure(c(0.0496716097972385, 0.0196298560448849, 0.015005640617851385, 0.015005640617851385 0.0326470778366659, 0.0460332318059749, -0.0125472160520887, 0.0396091380950461, -0.01467018974779 0.0195128142235816, 0.00961545869944214, 0.10227924687079, -0.00464064410673171, -0.0187799192715 0.0417697208491958, -0.0137309788880824, 0.0450532353179636, 0.023311078868447, 0.021277398447285 0.0030030052597696، 0.01340303012734، -0.0300322870988752، -0.0122700925918142، 0.0747800151897679، 0.0747800151897679، 0.0747800151897679 0.0297894368021074, 0.0668942348300301, -0.0440953198652241, 0.00612872194137326, -0.052810580903 0.0299167610379927, -0.00845671001822357, 0.0126583968719234, 0.105360515657826, 0.0149815536156 -0.0504708516508101، 0.00235118644773902، 0.0277798072067919، -0.0230968977290251، -0.0070340575925 -0.0214010936503484, 0.00775197680431772, 0.0415938972988372, -0.0168071183163812, 0.046006273008 0.00716848947861326، 0، -0.0294666592968058، 0.0258298703198072، -0.0371094812328154، -0.0018292905، -0.00182968058 0.0131695147656332، -0.018870660553068، 0.0514031784599656، 0.016563525671673، 0.020325903030140404، 0.0203259030140404، 0.0203259030140404140401 0.0331980694095968، 0.0497615095590636، 0.0250639686632166، 0.110052461541528، -0.0178975694132166، -0.0178975694137548، -0.0178975694137547 0.0229367853430982, 0.0378243086673389, 0.0616935690053397, -0.00858374369139181, 0.050430853626 0.123232640423948, -0.0989399478549036, 0.0314986670593704, -0.0451204352804702, 0.07410797215372 -0.0588405000229342, 0.00754720563538314, 0.00749067172915741, 0.0112571545246345, 0.001863938343, 0.001863938343 0.0184507079131166، -0.0353525187157198، 0.0150378773645405، -0.00186741417479563، -0.0141843724069 0.010656907162943، 0.00352746690692918، -0.00352746690692918، 0.0278766136011539، -0.024349146694، -0.024349146694 0.0137301928119018، 0.00227014853453911، 0.0721624462482309، -0.00634922767865875، 0.0375043453911، 0.0375043453911، L. .Dimnames = list(NULL، c(MRSKA، WDH، VWS، TOP، TDC، NOVOB، NRDEA، COLOB، CARLB، MAERSKB، GN، GENMAB، FLS، DSV، DANSKE، NVZY))، شاخص = ساختار (c(12426، 12433، 12440, 12447, 12454, 12461), class = Date), class = zoo) این تابعی است که نسبت Sortino من را محاسبه می کند: Sortino <- تابع (وزن ها، مجموعه داده ها، MAR = 0.0319، مقیاس = 52) {pafkast <- NULL برای (i in 1:dim(dataset)[1]) { pafkast <- rbind(pafkast، as.vector(weights) %*% as. vector(dataset[i,])) } Er <- ExpectedReturns(pafkast) * scale DD <- Downside Deviation(pafkast، MAR = MAR) * sqrt (مقیاس) SR <- (Er-MAR) / DD return(SR) } تابع DownsideDeviation از بسته PerformanceAnalytics است. اگر چیز دیگری لازم است، لطفا به من اطلاع دهید. | به حداکثر رساندن نسبت Sortino در R |
59440 | من در حال انجام یک مطالعه برای بررسی تفاوت بین نوشتن پاراگراف به زبان انگلیسی در میان دانش آموزان دبیرستانی در ژاپن هستم. ما نمونههای نوشتاری را از چهار کلاس، تقریباً 38 دانشآموز در هر کلاس، جمعآوری کردیم و تعداد کلمات نوشته شده، تعداد اشتباهات دستور زبان و تعداد غلطهای املایی را بررسی کردیم. دانش آموزان در طول ترم پنج پاراگراف نوشتند که دو کلاس سه پاراگراف کامپیوتری و دو پاراگراف کاغذ و قلم نوشتند در حالی که دو کلاس دیگر دو پاراگراف کامپیوتری و سه پاراگراف کاغذ و قلم نوشتند. ما فرض کردیم که دانشآموزان به دلیل غلطگیر املا و دستور زبان، بیشتر مینویسند و خطاهای کمتری را با استفاده از رایانه انجام میدهند. ما آمار توصیفی را محاسبه خواهیم کرد، اما در تعجبم که چگونه می توانیم تفاوت بین پاراگراف های کامپیوتری و کاغذی را نشان دهیم. من فکر می کنم که از آزمون t برای نمونه های مستقل استفاده کنیم که میانگین تمام نوشته های کامپیوتری را با تمام نوشته های کاغذی مقایسه می کند. آیا این درست است؟ من فقط از آزمون t با دو گروه مجزا (مرد و زن) استفاده کرده ام اما در این مورد تفاوت بین دو فعالیت است. هر گونه کمکی قدردانی خواهد شد. من یک تازه کار واقعی در آمار هستم. با تشکر | مقایسه نتایج برای نوشتن کامپیوتر و قلم و کاغذ |
97642 | با توجه به مجموعه ای از داده ها، فرض می شود که به طور معمول از 1 تا 19 توزیع شده است. و دو زیر مجموعه از آن داده ها، یکی با اعداد زیر 10، و دیگری با اعداد بالا: subset1 = [1 2 3 4 5 6 7 8 9 9 8 7 6 5 4 3 2 1]; زیر مجموعه 2 = [15 16 17 18 19 19 18 17 16 15 15 16 17 18 19 18 17 16]; داده = [زیر مجموعه 1 زیر مجموعه 2]; میتوانیم میانگین ($\mu_1,\mu_2,\mu_{tot}$) و SD ($\sigma_1,\sigma_2,\sigma_{tot}$) را برای هر سه بردار بالا محاسبه کنیم و اگر توزیعها را فرض کنیم گاوسی، نمودار زیر را دریافت می کنیم:  اما حالا بیایید فرض کنیم مجموعه داده قبل از اینکه بتوانم میانگین کل و واریانس را محاسبه کنم از بین می رود (می دانم، مسخره است). فقط $\mu_1،\mu_2$، $\sigma_1،\sigma_2$ و طول زیر مجموعههای $n_1،n_2$ باقی مانده است. آیا می توانم کل pdf را با پارامترهای زیر مجموعه ها بازسازی کنم؟ میانگین بسیار آسان است: $\hat{\mu}=\frac{n_1\mu_1+n_2\mu_2}{n_1+n_2}=\mu_{tot}$ اما واریانس $\sigma_{tot}$ چطور؟ من در مورد واریانس ادغام شده مطالعه کردم، اما این بستگی به میانگین زیرمجموعهها ندارد و بنابراین احتمالاً نمیتواند درست باشد، زیرا فاصله بین دو subgaussians آشکارا تأثیرگذار است. [ویرایش] در واقع، وجود دارد! چگونه می توان واریانس ترکیبی دو گروه را با توجه به واریانس های گروه شناخته شده، میانگین ها و اندازه نمونه محاسبه کرد؟ من عذرخواهی می کنم. سوال بعدی: آیا برای pdf های چند متغیره هم همینطور است؟ | چگونه میانگین نمونه و واریانس نمونه را ترکیب کنیم؟ |
111268 | من میخواهم از آزمون _Kolmogorov-Smirnov_ برای آزمایش اینکه آیا نمونهای از توزیع _Pareto_ گرفته شده است استفاده کنم. متأسفانه، تنها راه تخمین پارامترهای توزیع از نمونه است. آیا کسی از وجود جداول با مقادیر بحرانی اصلاح شده یا هر روش دیگری برای انجام آزمایش در این مورد اطلاعی دارد؟ | کولموگروف-اسمیرنوف برای توزیع پارتو روی نمونه |
59442 | بگویید من سه گروه درمانی دارم و آنها را در سه نقطه زمانی اندازه میگیرم. از آنجایی که تعامل مورد بحث شامل گروهها (که بین آزمودنیها رخ میدهد) و زمانهای زمانی (که در آزمودنیها اتفاق میافتد) را شامل میشود، چرا باید تعامل گروههای x فواصل تحت SSwithin و نه SSbetween تجزیه شود؟ | در یک ANOVA دو طرفه مختلط، چرا یک تعامل گروه x فواصل تحت SSwithin تجزیه می شود و نه SSbetween؟ |
91358 | در بازی رایانهای محبوب «دوتا ۲»، تیمهای حرفهای با یکدیگر مسابقه میدهند. گاهی اوقات این مسابقات بهترین یک، گاهی اوقات آنها بهترین از دو، گاهی اوقات بهترین از سه، و غیره، و غیره. یا بخشی از یک سری را تشکیل نمی دهد) به عنوان نقطه داده برای به روز رسانی های Elo. سوال من این است که آیا این کار درستی است و اگر نه برای رفع مشکل چه باید کرد؟ نگرانی من در مورد گزینه جایگزین (در نظر گرفتن یک سری بازی به عنوان یک موجودیت Elo با یک نتیجه واحد) این است که بین سری هایی که 7-0 رفتند و سری هایی که 7-6 رفتند تفاوتی قائل نشد، در حالی که به وضوح تفاوت وجود دارد. همچنین، این به برخی از الگوریتم های وزن دهی برای بهترین مسابقات نیاز دارد، که به نظر من فقط وزن دادن به مسابقات انفرادی است (برنده شدن در بهترین امتیاز 101 51-0 نباید امتیازی مشابه با پیروزی 51-49 کسب کند). من فرض میکنم که توانایی پیشبینی بر اساس بازیها نیز منطقی است، زیرا به عنوان یک مدل پیشبینی، انعطافپذیری زیادی در توانایی پیشبینی برندگان (و درصد برد مورد انتظار برای تیمها) در مجموعهای از اندازههای دلخواه را فراهم میکند. برای مثال، اگر ارزش مورد انتظار تیم A را که تیم B را در یک بازی شکست میدهد، میدانستید، میتوانید موارد پیچیدهتری مانند «احتمال برنده شدن ۳-۰ تیم A»، «احتمال باخت تیم A در اولین بازی اما بعد برنده شدن» را محاسبه کنید. سه پشت سر هم و غیره | استفاده از Elo برای مسابقات چند بازی |
114906 | از آنجایی که PCA به مقیاس بندی حساس است، به این فکر می کنم که هر متغیر توضیحی را با میانگین 0 و انحراف استاندارد 1 استاندارد کنم. اشکالات چنین استانداردسازی چیست؟ متشکرم. | استاندارد کردن داده ها در تجزیه و تحلیل مؤلفه های اصلی؟ |
30849 | من یک متغیر دارم که در آن بسیاری از نمرات صفر است (این یک مقیاس فاصله جغرافیایی است که در آن متروپولیتن = 0 است). چه نوع تبدیلی باید روی این دادهها انجام دهم تا از مفروضات عادی برای انجام یک DFA تخلف نکنم؟ ممنون دی سی | توزیع متغیر برای تجزیه و تحلیل تابع تفکیک |
63236 | من میخواهم نمونههای بردار زیر را با هم مقایسه کنم: a: [0، 1، 2، 3، 4] b: [4، 3، 2، 1، 0] «a[i]» یک متغیر نظارت شده «i» را در طول اجرا نشان میدهد. «a» (به همین ترتیب برای «ب») چیزهایی که میخواهم بدانم عبارتند از: 1. آیا این جفتها تفاوت قابل توجهی دارند؟ 2. چقدر متفاوت هستند؟ 3. کدام یک با یکدیگر متفاوت هستند (مقایسه های زوجی)؟ برای (1) و (2) من به آزمون رتبه علامت دار ویلکاکسون و اندازه گیری اندازه اثر دلتای کلیف فکر می کنم. (3) را می توان با استفاده از برنامه نویسی ساده انجام داد. بنابراین، سؤالات من این است: 1. آیا اینها آزمون و روش مناسبی برای این مشکل هستند؟ 2. وقتی Wilcoxon را در پایتون برای بردارهای «a» و «b» اجرا می کنم، «(5.0، 1.0)» را به عنوان خروجی دریافت می کنم. من مقدار p 1.0 را درک نمی کنم زیرا مجموعه ها را بسیار متفاوت می دانم. همچنین مقدار 5.0 چقدر است؟ آیا این مقدار W است؟ وقتی این را به صورت دستی محاسبه میکنم، 0.0 دریافت میکنم. **ویرایش** برای روشن شدن معنای «متفاوت» برای من: من روی روشی کار میکنم تا نمایههای استفاده را که در طول اجرای آزمایشی نرمافزار نظارت میشوند، مقایسه کنم. بنابراین، یک نمایه نمونه ممکن است a: a: [func1 = 0sec، func2 = 1sec، func3 = 2sec، func4 = 3sec، func5 = 4sec] b: [func1 = 0sec، func2 = 3sec، func3 = 2sec، func4 = 3sec , func5 = 4sec] که ثانیه کل زمان اجرای آن ثانیه است در آن تابع در حین اجرای a یا b یک آزمایش خاص، اما با b اجرا شد (کمی) کد تغییر یافته (= نسخه جدید). من می خواهم این نمایه را با نمایه دیگری مقایسه کنم تا بررسی کنم که آیا زمان اجرا به طور قابل توجهی تغییر کرده است یا خیر. از پاسخ ها می فهمم که گفتن چیزی در مورد اهمیت تنها برای دو اعدام دشوار است. آیا بهتر است من 10 اجرای a و 10 اجرای b داشته باشم، میانگین و stdev را برای همه توابع محاسبه کنم و آنهایی را که از Wilcoxon استفاده می کنند مقایسه کنم؟ | از دلتای ویلکاکسون و کلیف برای مقایسه دو مجموعه از متغیرهای نظارت شده استفاده می کنید؟ |
58394 | من این سردرگمی را در رابطه با نحوه انتخاب پیشینها برای رگرسیون لجستیک دارم. توسط قضیه بیز $P(\theta|D) = \frac{P(D|\theta) * P(\theta)}{P(D)}$ . اکنون احتمال $P(D|\theta)$ من با تابع لجستیک $P(y=1) = \frac{1}{1+exp^{(-\theta'x)}}$ داده میشود. داشتم به این فکر می کردم که از چه نوع پیشین هایی می توانم برای P(theta) استفاده کنم. آیا می توانم از توزیع گاما برای P (تتا) استفاده کنم. آیا این به من کمک می کند تا $\int P(\theta)*P(D|\theta) d\theta$ را محاسبه کنم؟ | انتخاب پیشین برای توابع لجستیک |
63233 | ## پیشینه در مقاله ای از اپشتاین (1991): در مورد بدست آوردن مقادیر روزانه اقلیم شناسی از میانگین ماهانه، فرمول و الگوریتمی برای محاسبه درونیابی فوریه برای مقادیر دوره ای و زوج ارائه شده است. در مقاله، هدف، **به دست آوردن مقادیر روزانه از میانگین ماهانه** با درونیابی است. به طور خلاصه، فرض می شود که مقادیر روزانه ناشناخته را می توان با مجموع مولفه های هارمونیک نشان داد: $$ y(t) = a_{0} + \sum_{j}\left[a_{j}\,\cos(2 \pi jt/12)+b_{j}\,\sin(2\pi jt/12)\right] $$ در مقاله $t$ (زمان) به ماه بیان میشود. پس از مقداری انحراف، نشان داده میشود که شرایط را میتوان به صورت زیر محاسبه کرد: $$ \begin{align} a_{0} &= \sum_{T}Y_{T}/12 \\\ a_{j} &= \left [ (\pi j/12)/\sin(\pi j/12)\right] \times \sum_{T}\left[Y_{T}\,\cos(2\pi jT/12)/6 \راست]~~~~~~~j=1,\ldots, 5 \\\ b_{j} &= \left[ (\pi j/12)/\sin(\pi j /12)\right] \times \sum_{T}\left[Y_{T}\,\sin(2\pi jT/12)/6 \right]~~~~~~~j=1،\ldots، 5 \\\ a_{6} &= \چپ[ (\pi j/12)/\sin(\pi j/12)\راست] \times \sum_{T}\left[Y_{T}\cos(\pi T)/12\right] \\\ b_{6} &= 0 \end{align} $$ کجا $Y_{T}$ نشان دهنده میانگین ماهانه و $T$ ماه است. هرزالله (1995) این رویکرد را به صورت زیر خلاصه می کند: درون یابی با افزودن صفر به ضرایب طیفی داده ها و با انجام تبدیل فوریه معکوس به ضرایب توسعه یافته حاصل انجام می شود. این روش معادل اعمال یک فیلتر مستطیلی بر ضرایب فوریه است. * * * ## سوالات هدف من استفاده از روش شناسی فوق برای درون یابی **وسایل هفتگی برای به دست آوردن داده های روزانه** است (به سوال قبلی من مراجعه کنید). به طور خلاصه، من 835 میانگین هفتگی داده های شمارش دارم (به مجموعه داده نمونه در پایین سوال مراجعه کنید). قبل از اینکه بتوانم روش ذکر شده در بالا را اعمال کنم، چیزهای زیادی را درک نمی کنم: 1. چگونه باید فرمول ها را برای وضعیت من تغییر داد (هفتگی به جای مقادیر ماهانه)؟ 2. چگونه می توان زمان $t$ را بیان کرد؟ من فرض کردم $t/835$ (یا $t/n$ با نقاط داده $n$ به طور کلی)، آیا این درست است؟ 3. چرا نویسنده 7 عبارت (یعنی $0\leq j \leq 6$) را محاسبه می کند؟ چند عبارت را باید در نظر بگیرم؟ 4. میدانم که احتمالاً میتوان با استفاده از رویکرد رگرسیون و استفاده از پیشبینیهای درون یابی (به لطف نیک) این سؤال را حل کرد. هنوز، برخی چیزها برای من نامشخص است: چند عبارت هارمونیک باید در رگرسیون گنجانده شود؟ و چه دوره ای بگیرم؟ چگونه می توان رگرسیون را انجام داد تا اطمینان حاصل شود که میانگین هفتگی حفظ می شود (چون من یک تناسب هارمونیک دقیق با داده ها نمی خواهم)؟ با استفاده از روش رگرسیون (که در این مقاله نیز توضیح داده شده است)، من موفق شدم به یک تناسب هارمونیک دقیق با داده ها برسم ($j$ در مثال من از $1، \ldots، 417$ عبور می کند، بنابراین من 417 عبارت را برازش کردم) . **چگونه می توان این رویکرد را -$~$در صورت امکان$~$- تغییر داد تا به حفظ میانگین هفتگی دست یافت؟** شاید با اعمال عوامل تصحیح برای هر عبارت رگرسیونی؟ نمودار تناسب هارمونیک دقیق به این صورت است:  **ویرایش** با استفاده از بسته سیگنال و تابع 'interp1'، این چیزی است که من موفق شدم با استفاده از مجموعه داده نمونه از زیر این کار را انجام دهم (با تشکر فراوان از @noumenal). من از «q=7» استفاده میکنم زیرا دادههای هفتگی داریم: # مقیاس زمانی روزانه.ts را تنظیم کنید <- seq(from=as.Date(1995-01-01), to=as.Date(2010- 12-31)، by=day) # تنظیم قاب داده ts.frame <- data.frame(daily.ts=daily.ts, wdayno=as.POSIXlt(daily.ts)$wday, yearday = 1:5844, no.influ.cases=NA) # داده ها را از مجموعه داده نمونه به نام my.dat ts.frame$no.influ.cases اضافه کنید [ts.frame$wdayno==3] <- my.dat$case # Interpolation case.interp1 <- interp1(x=ts.frame$yearday[!is.na(ts.frame$no.influ.case)],y=(ts.frame$no.influ.cases[!is.na(ts.frame$no .influ.case)])، xi=ts.frame$yearday، روش = c(مکعب)) # زیر مجموعه نمودار برای تفسیر بهتر par(bg=سفید، cex=1.2، las=1) plot((ts.frame$no.influ.cases)~ts.frame$yearday، pch=20، col=grey(0.4)، cex=1، las=1،xlim=c(0،400)، خطوط xlab=Day، ylab=موارد آنفلوانزا) (case.interp1، col=steelblue، lwd=1)  دو مسئله در اینجا وجود دارد: 1. به نظر می رسد منحنی خیلی خوب است: از هر نقطه عبور می کند. 2. میانگین هفتگی عبارتند از حفظ نشده **به عنوان مثال مجموعه داده** ساختار(لیست(تاریخ = ساختار(c(9134, 9141, 9148, 9155, 9162, 9169، 9176، 9183، 9190، 9197، 9204، 9211، 9218، 9225، 9232، 9239، 9246، 9253، 9260، 9267، 9282، 9282، 9302 9309 9316 9323 9330 9337 9344 9351 9358 9365 9372 9379 9386 9393 9400 92149 9435, 9442, 9449, 9456, 9463, 9470, 9477, 9484, 9491, 9498, 9505, 9512, 9519, 9526, 9533, 9547,9549 9568، 9575، 9582، 9589، 9596، 9603، 9610، 9617، 9624، 9631، 9638، 9645، 9652، 9659، 9666، 9666، 9673، 9701, 9708, 9715, 9722, 9729, 9736, 9743, 9750, 9 | درونیابی فوریه/ مثلثاتی |
103464 | من دادههایی دارم که به طور معمول توزیع نمیشوند (هیستوگرام دادههای زنگولهای را نشان نمیدهد و نمودار معمولی کمی دادههای زیگ زاگ را نشان میدهد که از خط بهترین تناسب عبور میکنند) اما انحرافات استاندارد اندازه مشابهی دارند. در نتیجه، من نمی توانم از ANOVA اندازه گیری های مکرر استفاده کنم زیرا داده ها یکی از مفروضات را برآورده نمی کنند. اکنون ناپارامتریک اندازه گیری های مکرر ANOVA آزمون فریدمن است، اما از stata استفاده می کنم و این بسته آماری این آزمون را در برنامه ندارد. میخواستم نظر شما را در مورد اینکه آیا استفاده از ANOVA با اندازهگیریهای مکرر درست است، حتی اگر دادهها ناپارامتریک هستند یا خیر، یا واقعاً نتایج نادرستی به من میدهد؟ منتظر شنیدن نظر شما هستم با تشکر | مفروضات را نادیده بگیرید و همچنان با آزمون پارامتریک ادامه دهید؟ |
78432 | فقط به این فکر می کنم که آیا یک مدل به مفروضات کلی ساخته شده در هنگام ساخت مدل ARIMA حساس است، اگر هر یک از این مفروضات نقض شود چه تاثیری بر مدل خواهد داشت؟ | حساسیت مدل ARIMA |
58398 | x توزیع t است. y به صورت t توزیع شده است. x/y چگونه توزیع می شود؟ آیا فرمول بسته ای دارد؟ | توزیع نسبت دو متغیر تصادفی با توزیع t چقدر است؟ |
57847 | من در حال نوشتن برنامهای هستم که با کمتر از 30 مشاهده در توزیع عادی سروکار دارد. درک من این است که در این نقطه باید از توزیع t استفاده کنم. مسئله این است که به اندازه کافی آسان است که در جدول جستجو کنید. با این حال، من باید این چیزی باشد که بتوانم آن را به صورت برنامهریزی محاسبه کنم. به نظر نمی رسد فرمولی برای یافتن امتیاز توزیع t پیدا کنم. چگونه می توانم این جدول را بسازم؟ من این را با PHP می نویسم. همچنین باید توجه داشته باشم که من به هیچ وجه یک متخصص ریاضی / آمار نیستم. بنابراین، اگر استفاده من از اصطلاحات/واژگان غیرممکن به نظر می رسد، با من همراه باشید. | فرمول محاسبه توزیع t |
57844 | من یک مجموعه داده دارم که رتبهبندیهای تکراری چهار دستگاه (دو متغیر دو سطحی) برای 6 بعد (سهولت، اطمینان، راحتی، کنترل، اندازه و تناسب)، با یک متغیر دو سطحی بین افراد است. مانند: ptcip / grp / fdback / dur / assem / accep / freq / t.vs.r / attrib / meas / d.rating 1 RA باینری کوتاه <NA> <NA> <NA> رتبه بندی آسان 9 2 1 RA باینری کوتاه <NA> <NA> <NA> رتبه بندی اطمینان 7 1 1 RA باینری کوتاه <NA> <NA> <NA> رتبه راحتی 6 4 1 RA باینری کوتاه <NA> <NA> <NA> کنترل رتبه بندی 5 3 1 RA کوتاه باینری <NA> <NA> <NA> رتبه بندی اندازه 7 -1 1 کوتاه باینری RA <NA> <NA> <NA> مناسب رتبه بندی 6 0 1 RA باینری med <NA> <NA> <NA> رتبه بندی سهولت 9 6 1 RA باینری med <NA> <NA> <NA> رتبه بندی اطمینان 5 6 1 RA باینری med <NA> <NA> <NA> رتبه بندی راحتی 6 5 1 RA باینری med <NA> <NA> <NA> کنترل رتبه بندی 9 -1 1 RA باینری med <NA> <NA> <NA> رتبه بندی اندازه 2 - 1 1 RA باینری med <NA> <NA> <NA> رتبه بندی مناسب 8 -2 من باید ANOVA های جداگانه ای را روی هر یک از ابعاد اجرا کنم (ما از تحلیل های دیگر می دانیم که ابعاد رتبه بندی شده اند متفاوت است، بنابراین گنجاندن آن به عنوان یک عامل چندان آموزنده نخواهد بود). کارآمدترین راه برای نوشتن این چیست - هر یک از ابعاد را به فریم های داده جداگانه تقسیم کنید، یا مشخص کنید aov روی داده اجرا شود if attrib == ease؟ به نظر می رسد دومی بهتر باشد، اما من با R جدید هستم. مدلی که در حال حاضر مشخص می کنم aov(d.ratings ~ grp*fdback*dur + Error(particip/(fdback*dur))+grp, PDdonly) است. اما از آنجایی که در شش بعد فرو می ریزد، در واقع اتمسفر معنی دار نیست. | روشی کارآمد برای اجرای چندین ANOVA در زیر مجموعههای داده |
58392 | من خروجی رگرسیون ناقصی دارم که شامل اندازه نمونه، خطای استاندارد ضریب رگرسیون و مقدار p برای دو متغیر در یک مدل رگرسیونی است. آیا می توانم تعیین کنم که ضرایب رگرسیون چقدر است؟ آیا می توانم استنباط کنم که کدام ضریب مقدار بیشتری را برای ضریب رگرسیون نشان می دهد؟ | استفاده از خروجی رگرسیون ناقص برای تعیین مقدار آماره آزمون |
18595 | **خلاصه مختصر** چرا استفاده از رگرسیون لجستیک (با نسبت شانس) در مطالعات کوهورت با پیامدهای دودویی، به جای رگرسیون پواسون (با خطرات نسبی) رایج تر است؟ **زمینه** دوره های آمار و اپیدمیولوژی در مقطع کارشناسی و کارشناسی ارشد، طبق تجربه من، به طور کلی به این امر می آموزند که رگرسیون لجستیک باید برای مدل سازی داده ها با نتایج باینری، با تخمین خطر به عنوان نسبت شانس استفاده شود. با این حال، رگرسیون پواسون (و مرتبط: شبه پواسون، دوجمله ای منفی، و غیره) همچنین می تواند برای مدل سازی داده ها با نتایج باینری استفاده شود و با روش های مناسب (به عنوان مثال برآوردگر واریانس ساندویچ قوی)، برآوردهای ریسک معتبر و سطوح اطمینان را ارائه دهد. به عنوان مثال، * گرینلند S.، برآورد مبتنی بر مدل خطرات نسبی و سایر اقدامات اپیدمیولوژیک در مطالعات پیامدهای رایج و در مطالعات مورد شاهدی، Am J Epidemiol. 15 اوت 2004؛ 160 (4): 301-5. * Zou G.، یک رویکرد رگرسیون پواسون اصلاح شده برای مطالعات آینده نگر با داده های باینری، Am J Epidemiol. 2004 آوریل 1؛ 159 (7): 702-6. * Zou G.Y. و Donner A.، گسترش مدل رگرسیون پواسون اصلاح شده به مطالعات آینده نگر با داده های باینری همبسته، Stat Methods Med Res. 8 نوامبر 2011. از رگرسیون پواسون، خطرات نسبی را می توان گزارش کرد، که برخی استدلال کرده اند که تفسیر آنها در مقایسه با نسبت شانس، به ویژه برای پیامدهای مکرر، و به ویژه توسط افراد بدون پیشینه قوی در آمار، آسان تر است، به Zhang J. و Yu K.F مراجعه کنید. ، خطر نسبی چیست؟ روشی برای تصحیح نسبت شانس در مطالعات کوهورت پیامدهای رایج، JAMA. 1998 نوامبر 18؛ 280 (19): 1690-1. از خواندن متون پزشکی، در میان مطالعات کوهورت با نتایج باینری، به نظر می رسد که گزارش نسبت شانس از رگرسیون های لجستیک به جای خطرات نسبی ناشی از رگرسیون پواسون، بسیار رایج تر است. **سوالات** برای مطالعات کوهورت با نتایج باینری: 1. آیا دلیل خوبی برای گزارش نسبت شانس از رگرسیون لجستیک به جای خطرات نسبی ناشی از رگرسیون پواسون وجود دارد؟ 2. اگر نه، آیا فراوانی رگرسیون سم با خطرات نسبی در ادبیات پزشکی را می توان بیشتر به تأخیر بین نظریه و عمل روش شناختی در میان دانشمندان، پزشکان، آماردانان و اپیدمیولوژیست ها نسبت داد؟ 3. آیا دروس میانی آمار و اپیدمیولوژی باید بحث بیشتری در مورد رگرسیون پواسون برای پیامدهای باینری داشته باشد؟ 4. آیا باید دانشآموزان و همکاران را تشویق کنم که در صورت لزوم، رگرسیون سم را نسبت به رگرسیون لجستیک در نظر بگیرند؟ | رگرسیون پواسون برای تخمین ریسک نسبی برای نتایج باینری |
63231 | اگر یک هیستوگرام با فرکانس در محور y و bin ها برای محدوده های مختلف مقادیر در محور x دارید، پس منطقی است که برچسب روی محور y فرکانس باشد. اما اگر این فرکانس ها نرمال شوند، برچسب y صحیح چیست؟ فرکانس نرمال شده؟ سهمیه؟ من از matplotlib پایتون استفاده می کنم: import matplotlib.pyplot به صورت plt l = [3,3,3,2,1,4,4,5,5,5,5,5] plt.hist(l,normed=True) plt. show() به نظر می رسد که یک bin می تواند به بالای 1.0 برسد که من واقعاً نمی خواهم. من می خواهم بیشتر شبیه نسبت یا کسری باشد. ارتفاع سطل ها باید تا یک جمع شود. | روی محور y در یک هیستوگرام نرمال شده برچسب بزنید |
114901 | آیا باید اثرات تصادفی را در یک مدل لحاظ کنم حتی اگر از نظر آماری معنی دار نباشند؟ من یک طرح آزمایشی با اندازه گیری های مکرر دارم که در آن هر فرد سه درمان مختلف را به ترتیب تصادفی تجربه می کند. من میخواهم اثرات فردی و نظمی را کنترل کنم، اما به نظر میرسد هیچ کدام از نظر آماری در مدلهای من معنیدار نیستند. آیا این امر باعث می شود که آنها را حذف کنم، یا باید همچنان آنها را اضافه کنم؟ | اگر اثرات تصادفی از نظر آماری معنی دار نیستند، باید در یک مدل لحاظ کنم؟ |
34690 | من میخواستم روی پیشبینی نوسانات تمرکز کنم، بنابراین به جای اینکه از R بخواهم یک GARCH را محاسبه کند که در آن خطاهای بازده را محاسبه میکند، میخواستم نوسانات را به عنوان ARMA مدل کنم و با استفاده از آرگومان xreg در تابع arima یک رگرسیون خارجی اضافه کنم. من دو سوال دارم: * آیا محاسبه ARMA(p,q) بر روی نوسانات با رگرسیون های خارجی به عنوان مجذور بازده دقیقاً معادل است و محاسبه یک GARCH (برای پیش بینی نوسانات) * آیا روش صحیحی برای انجام آن در R تونی | اگر ARMA را روی نوسانات انجام دهید و بازده مربع را به عنوان متغیر خارجی اضافه کنید، آیا یک GARCH به دست می آورید؟ |
58393 | برای من، اولین چیزی که وقتی با اصطلاح _تصحیح تداوم_ به ذهنم می رسد این است که وقتی $X\sim\mathrm{Bin}(n,p)$، یکی $\Pr(X\le x)=\ را تقریب می زند. Pr(X<x)$ توسط $\Pr(Y<x+1/2)$ که در آن $Y$ به طور معمول توزیع شده است و دارای انتظارات و واریانس مشابه با $X$ است. البته میتوان از تصحیحهای پیوستگی با توزیعهای پواسون نیز استفاده کرد، و در میان فهرست خودکار «سوالاتی که ممکن است پاسخ شما را داشته باشند»، من تصحیحات پیوستگی را برای آزمونهای مجذور کای پیرسون و مکنمار و تصحیح تداوم یتس با قیمت 2/times2 دلار پیدا کردم. جداول این واقعیت که حتی برای $n$ نسبتاً کوچک تقریبهای منطقی نزدیک میشود، به راحتی تأیید میشود. این واقعیت که همه چیز به خوبی $n\to\infty$ کار می کند به راحتی قابل مشاهده است. اما در مورد نتایج ریاضی دقیقاً بیان شده و اثبات شده چطور؟ اینها ممکن است شامل مرزهای دقیق خطا، چیزهایی در مورد نرخ همگرایی و موارد دیگر باشد. چه نتایجی شناخته شده است و در کجا یافت می شود؟ | نتایج در مورد اصلاحات تداوم |
34347 | من در حال انجام تجزیه و تحلیل مؤلفههای اصلی در مقیاس روانشناختی 4 سؤالی هستم (فرمت پاسخ یک مقیاس لیکرت 0-10 برای هر سؤال است). همانطور که من امیدوار بودم، یک تحلیل عاملی اکتشافی یک عامل را به دست آورد. نتیجه خوب به نظر می رسد، یک عامل 83 درصد واریانس را توضیح می دهد، ضرایب همبستگی بالا هستند اما خیلی زیاد نیستند (0.7-0.8)، آزمون های KMO و بارتلت همه خوب هستند. مشکل من این است که 4 باقیمانده (66٪) از همبستگی های بازتولید شده بیش از مقدار مطلق 0.05 هستند. من می دانم که این یک مشکل است، اما سعی می کنم مشخص کنم که این مشکل چقدر برای مدل است. همچنین (اگر کاری) برای رفع آن چه کاری می توان انجام داد؟ هر گونه پاسخ یا راهنمایی در مورد جایی که می توان پاسخ ها را یافت، قدردانی خواهد شد. | چگونه می توانم باقیمانده های بالا را برای همبستگی های بازتولید شده در تحلیل عاملی تفسیر کنم؟ |
24518 | من می خواهم یک مجموعه نسبتا بزرگ (بیش از 9000) از سری های زمان کوتاه را طبقه بندی کنم. طول هر دنباله متفاوت است، اما می توانم بگویم حدود 80٪ بین 2 تا 9 مشاهده دارد. در حالی که میتوانم از یک خط روند ساده (شاید همراه با یک اندازهگیری واریانس) برای توصیف هر یک از این دنبالهها استفاده کنم، میخواهم یک قدم فراتر از این راهحل بروم. از چه روش های دیگری می توانم برای خوشه بندی ظاهر بصری این دنباله ها استفاده کنم؟ هدف نهایی طبقهبندی این است که درک درستی از نوع گرایش/سبک/رفتار هر دنباله به نمایش بگذارد. | خوشه بندی سری های زمانی کوتاه |
111265 | من میخواهم یک روش حالت متقاطع دو جهته نیمه متقارن روی برخی دادههای تولید شده با استفاده از رگرسیون لجستیک شرطی اجرا کنم. من دادههایی را از توزیع پواسون Poiss(lambda) با $\textrm{log}(\lambda)=\lambda_0 \textrm{exp}(x\beta)، $ که $\lambda_0$ و $\beta$ شناخته شدهاند و $ تولید کردم. x$ یک سری زمانی شناخته شده است. سپس برای هر نقطه زمانی، مقدار تولید شده را به جفت تقسیم میکنم: case در این نقطه زمانی و کنترل در دوره مرجع (یعنی اگر در دادههای تولید شده موارد $5$ در روز $11$ وجود داشته باشد، من مشاهدات $10$ برای این نقطه زمانی دریافت میکنم: $5$$( 1$، $x$ در روز $11)$ و $5 (0$، $x$ در دوره مرجع برای روز $11)$). اکنون من رگرسیون لجستیک مشروط را روی این داده ها اجرا می کنم، با لایه های جداگانه برای هر جفت. سوال این است که آیا تخمین پارامتری که از CLR دریافت می کنم باید $\beta$ از پارامتر توزیع پواسون باشد؟ من مقالههای کمی را یافتم که از این رویه استفاده شده است، اما نمیتوانم بفهمم چرا تخمینهای CLR و $\beta$ از توزیع پواسون باید یکسان باشند. مقالات مرجع: * T.Bateson, J.Shwartz, Control for Seasonal Variation and Time Trend in Case-Crossover Studies of Acute Effects of Environmental Exposures, Epidemiology 1999, 10(4), 539-544; * S.Wang, B.Coukk, J.Shwartz, M.Mittleman, G.Wellenius, Potential for Bas in Case-Crossover Studies with Shared Exposures Analysed with SAS, American Journal of Epidemiology 2011, 174(1), 118-124 ; * K.Fung, D.Krewski, Y.Chen, R.Burnett, S.Cakmak, Comparison of time-series and case-crossover analysis of pollution air and hospital data data, International Journal of Epidemiology 2003, 32, 1064-1070 ; با تشکر برای کمک | روش متقاطع موردی با رگرسیون لجستیک شرطی برای داده های تولید شده مدل پواسون |
78435 | **ویرایش:** شاید باید توجه داشته باشم که تلاش اولیه من برای تجزیه و تحلیل این داده ها از یک مدل سلسله مراتبی در rJAGS استفاده کرد که میانگین ها را از توزیع های یکنواخت و واریانس ها از توزیع های گاما نمونه برداری کرد، اما انتخاب پیشین ها در واریانس سطح گروه را به شدت تحت تاثیر قرار داد. نتایج شاید راه بهتری برای استفاده از این رویکرد برای برآورد وجود داشته باشد؟ هر گونه راهنمایی در مورد بهترین راه برای انجام این کار استقبال می شود. **پایان ویرایش** این سوال مربوط به این دو سوال قبلی من است. @Elvis پیشنهاد کرده است که من آن را به سوال خودش تبدیل کنم زیرا نظرات طولانی شد: چگونه از احتمال پروفایل استفاده کنیم؟ رابطه بین احتمال پروفایل و فواصل اطمینان چیست؟ من داده هایی مانند موارد زیر را بر اساس حیواناتی که یک کار رفتاری انجام می دهند دارم: 1) داده ها می توانند هر مقداری از 0 تا 20 داشته باشند 2) داده های تعداد نسبتاً زیادی (~50) از نتایج قبلی با حیوانات کنترل که نشان دهنده توزیع مورد انتظار نتایج است. (حداقل برای گروه کنترل) نرمال نیست و شبیه طرح بالاست. 3) من داده های جدیدی دارم که در نمودارهای جعبه در پانل میانی نشان داده شده است. گروه 1 کنترلی است که باید مانند نتایج قبلی باشد (اگرچه هیچ دو گروه از حیوانات و شرایط هرگز دقیقاً یکسان نیستند). گروه 2 کنترلی است که تحت درمان با دارونما قرار گرفت که انتظار می رود هیچ اثری نداشته باشد، بنابراین باید مانند گروه 1 باشد. گروه 3 یک دارو دریافت کرد. 4) هدف از مطالعه تعیین این است که آیا دارو ممکن است بر رفتار حیوانات تأثیر بگذارد یا خیر. 5) بسیاری از عوامل دیگر ممکن است بر رفتار حیوانات تأثیر بگذارند، بنابراین این فرض رایج است که بهترین کاری که می توان انجام داد این است که ببینیم آیا دارو به طور متوسط بر رفتار تأثیر گذاشته است یا خیر. بنابراین من می خواهم میانگین نتایج هر گروه را با هم مقایسه کنم. 6) مطالعات قبلی با استفاده از آنالیز واریانس یک طرفه و آزمون های t-hoc و سپس گزارش مقادیر p مقایسه شده اند. این موضوع مرا آزار میدهد زیرا به نظر میرسد که فرضیات آزمایشها (طبیعی بودن) نقض میشوند، استفاده از یک برش دلخواه برای تصمیمگیری «اهمیت» (به عنوان مثال p<0.05) غیر منطقی به نظر میرسد، و من هرگز انتظار ندارم که هیچ دو گروه از حیوانات دقیقاً یکسان باشند. (فرضیه صفر مساوی بودن دو میانگین همیشه نادرست است). بنابراین میخواهم بهجای آن، میانگینها را به سادگی تخمین بزنم و نشان دهم که چه میانگینهایی برای هر گروه با استفاده از احتمالها محتملتر است و بگویم چیزی شبیه به میانگین گروه 3، 20 برابر بیشتر از میانگین گروه 1 15 است. 7) همچنین ممکن است /در عوض می خواهید فواصل اطمینان را برای میانگین محاسبه کنید. برای من روشن نیست که آیا این کاری است که باید انجام دهم یا خیر. 8) توجه داشته باشید که این دادههای واقعی من نیست، بلکه با نمونهگیری از چگالی قبلی/قبلی به دست آمده است، به عنوان مثال: sample(x=prior.dens$x،size=12، prob=prior.dens$y) بنابراین ظاهر تفاوت واقعی بین گروه ها در اینجا نادرست است. با این حال این بسیار شبیه به وضعیت داده های واقعی من است. 9) من احتمال نمایه (نقاط پایین) را با استفاده از این کد R محاسبه کرده ام که به نظر می رسد بر اساس پاسخ به سؤالات قبلی من معتبر است: muVals <- seq(0,20، طول = 10000) profile.likelihood<-function( dat, muVals){ likVals <- sapply(muVals, function(mu){ (sum((dat - mu)^2) / sum((dat - mean(dat))^2)) ^ (-length(dat)/2) } ) return(cbind(muVals,likVals)) }  **dput() داده جدید:** ساختار(c(1, 1, 1, 1, 1, 1, 1, 1, 1، 1، 1، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 13.6986301369863، 16.16438 12.0547945205479، 12.1722113502935، 9.74559686888454، 0.430528375733855، 11.3502935420744، 10.3502935420744، 10.9256، 10.706. 9.9412915851272، 10.7240704500978، 10.958904109589، 11.6242661448141، 17.9701232444495، 15.930976 7.98247314058244, 14.4031004607677, 13.5198221541941, 2.82421704847366, 16.114045586437, 19.3127, 19.3129 3.74181577004492, 17.4085859861225, 19.2017483590171, 8.26946665905416, 10.0207103956491, 16.189, 16.189 . c(32L, 2L)) **dput() از چگالی قبلی** ساختار(list(x = c(0, 0.0391389432485323, 0.0782778864970646, 0.117416829745597, 0.155529, 0.17 . 0.430528375733855، 0.469667318982387، 0.50880626223092، 0.547945205479452، 0.587084148727926، 0.587084148727926، 0.587084148727926، 0.587084148727926، 0.5088062387، 0.665362035225049, 0.704500978473581, 0.743639921722113, 0.782778864970646, 0.8219178082191716, 0.82191780821917176, 0.8219178082191717176, 0.82191780821917171716, 0.900195694716243, 0.939334637964775, 0.978473581213307, 1.01761252446184, 1.05675146771035, 109491037, 1.05675146771037, 10949101035, 1.13502935420744، 1.17416829745597، 1.2133072407045، 1.25244618395303، 1.29158512720157، 1.33045، 1.3304 1.36986301369863, 1.40900195694716, 1.44814090019569, 1.487279 | چگونه می توانم از احتمالات برای مقایسه این سه گروه استفاده کنم؟ آیا من باید این کار را انجام دهم؟ |
109369 | من در حال تلاش برای به دست آوردن میانگین های پیش بینی شده توسط مدل و CI برای یک پیش بینی کننده طبقه بندی در یک مدل GEE هستم که با تابع geeglm (بسته geepack) مجهز شده است. مدل بدون مشکل نصب شده است، اما جایی که من گیر کرده ام زمانی است که سعی می کنم میانگین گروه پیش بینی شده توسط مدل را تخمین بزنم. انجام این کار در بستههای نرمافزاری دیگر (مانند SAS و SPSS) بسیار آسان است، اما هدف من این است که سعی کنم این کار را در R انجام دهم (همچنین از پیدا کردن هیچ راهی مستقیم برای به دست آوردن آزمایشهای کلی برای یک پیشبینیکننده طبقهای کمی ناامید شدم. به غیر از نصب مدل های کاهش یافته و کامل به طور جداگانه و سپس مقایسه آنها، اما از طرف دیگر توانستم یک راه آسان برای محاسبه QIC با بسته MESS پیدا کنم. به هر حال، من در اطراف جستجو کردم تا ببینم آیا این کار با بسته دیگری انجام شده است (یک بسته به نام lsmeans وجود دارد، اما به نظر می رسد با بسته های geepack یا gee سازگار نیست). من متعجبم که نتوانسته ام چیزی به اندازه میانگین پیش بینی شده مدل تخمینی برای یک مدل GEE در R پیدا کنم، بنابراین می خواستم ببینم آیا کسی راه حلی برای این موضوع می داند. من سعی کردم با نگهدارنده geepack تماس بگیرم، اما پاسخی دریافت نکردم. چرا GEE به جای یک مدل ترکیبی (میزان حاشیه ای برای یک مدل ترکیبی را می توان با استفاده از بسته lmerTest محاسبه کرد)؟ خوب، مفروضات کمتری دارد و با نمونه های کوچک قوی تر است. | چگونه می توانم میانگین های پیش بینی شده مدل (با نام مستعار میانگین های حاشیه ای، lsmeans یا میانگین های EM) را از یک مدل GEE برازش شده در R تخمین بزنم؟ |
102701 | چگونه می توانم از GPU خود (Intel HD 4000) برای سرعت بخشیدن به ماشین بردار پشتیبانی (چه با استفاده از پایتون یا متلب یا هر وسیله دیگری) استفاده کنم؟ به نظر می رسد که Mavericks اکنون OpenCL را شامل می شود، اما می خواهم بدانم آیا کتابخانه ای در جایی وجود دارد یا باید همه چیز را به تنهایی کدنویسی کنم... متشکرم! | پشتیبانی از دستگاه برداری با پردازنده گرافیکی IntelHD4000 در Mac OS X Mavericks؟ |
34696 | به عنوان بخشی از یک تیم مشاوره در مؤسسه آموزشی خود برای پرستاران مقطع کارشناسی، به من (در میان دیگران) مأموریت داده شده است که پرسشنامه ای طراحی کنم که ادراک دانشجویان و کارکنان دانشگاهی را در مورد توانایی امتحانات سال آخر به عنوان ابزاری مناسب برای ارزیابی دانشجویان ارزیابی می کند. ': دانش - درک / شایستگی - مهارت / و قضاوت - رویکرد (به عبارت دیگر، قضاوت در مورد آمادگی آنها با خیال راحت در دنیای واقعی کار کنید). پرسشنامه نهایی شامل 21 سوال در رابطه با 3 مفهوم اساسی فوق می باشد. من پیشنهاد کردم که پاسخ ها در مقیاس 5 درجه ای از نوع لیکرت متوازن (کاملاً مخالفم تا کاملاً موافق با نقطه میانی خنثی) داده شوند. با این حال، بقیه اعضای تیم طرفدار استفاده از یک مقیاس نامتعادل 4 نقطه ای (مخالف/موافق کمی/موافق/کاملاً موافقم) هستند. ** سوال 1: ** کدام مقیاس مناسب تر است؟ همچنین، من معتقدم که این ابزار پیشنهادی باید قبل از اینکه برای جامعه هدف اجرا شود، ابتدا اعتبار و قابلیت اطمینان آن بررسی شود، با این حال، اکثر همکاران من مخالف هستند، زیرا، سوالات از 21 بیانیه مربوطه هیئت نظارت ملی ما ناشی می شود. که: 1. پرستاران باید دانش برنامه ریزی اقدامات مراقبت بهداشتی را نشان دهند، 2. پرستاران باید توانایی ترسیم برنامه های مراقبتی را نشان دهند، 3. پرستاران باید توانایی به کارگیری دانش خود را برای مقابله با موقعیت های مختلف نشان می دهند» و غیره. اکثریت تیم موافق تبدیل این اظهارات قانونی به پرسشنامه به شرح زیر هستند: > من معتقدم که آزمون: Q1 دانش نشان داده شده در مورد برنامه ریزی اقدامات بهداشتی > مراقبتی، Q2 توانایی ترسیم برنامه های مراقبتی را نشان داد و بنابراین تا سوال 21، بدون بررسی روایی و پایایی ابتدا. **سوال 2:** آیا این ابزار نباید ابتدا برای پایایی و روایی آن (همگرا، متمایز، اعتبار معیار، تحلیل عاملی و غیره) آزمایش شود؟ | طراحی و اعتبارسنجی مقیاس لیکرت با دستههای پاسخ زوج یا فرد |
57801 | من به نسخه استاندارد شده (میانگین صفر، واریانس یک) توزیع هایپربولیک تعمیم یافته و هذلولی علاقه مند هستم. من میخواهم این را در تحلیل خود لحاظ کنم و به همین دلیل به برداشتها و اجراها نیاز دارم. در R، اجرای توزیع استاندارد تعمیم هذلولی وجود دارد. 1. من به فرمول استفاده شده و نحوه استخراج آن برای این پیاده سازی نیاز دارم، از کجا می توانم آن را تهیه کنم؟ 2. کجا میتونم ببینم کد داره چیکار میکنه؟ بنابراین از کجا می توانم نگاهی به پشت صحنه داشته باشم تا ببینم چه چیزی اجرا شده است؟ 3. من از طریق گوگل جستجو کردم اما نتوانستم هیچ گونه انشعابی از نحوه دریافت یک نسخه استاندارد از ghyp یا hyp پیدا کنم. از کجا می توانم این را پیدا کنم؟ 4. اگر کارهای زیر را انجام دهم، میتوانم از دستور R برای جا دادن یک توزیع هذلولی استاندارد شده استفاده کنم: Inser for lambda=1 (این هذلولی میدهد) و سپس از دستور «dsgh» همراه با دستور «optim» برای به دست آوردن یک مناسب توزیع هذلولی استاندارد شده با داده های من، آیا این درست است؟ ویرایش: خوب، پاسخ 2) این است که من فقط می توانم بسته را بارگیری کنم و دستور را بدون هیچ مشخصاتی وارد کنم. سپس کد پشت آن را دریافت می کنم. ویرایش: من هم متوجه دستور sghFIT شدم، از کجا می توانم نظریه پشت این را پیدا کنم؟ از آنجا که آنها باید از یک نسخه استاندارد استفاده کنند، بنابراین آنها به فرمول و مشتق نیاز دارند، این چیزی است که من نیاز دارم. ویرایش: همین الان دیدم که فقط از دستور dsgh برای فیتینگ هم استفاده می کنند. خوب، آخرین ویرایش من، همه به اجرای دستور dsgh برمی گردد، کد این دستور این است: dsgh <- function(x, zeta = 1, rho = 0, lambda = 1, log = FALSE) { # A تابع پیادهسازی شده توسط Diethelm Wuertz # توضیحات: # چگالی توزیع sgh را برمیگرداند # تابع: # پارامترها: اگر (طول(زتا) == 3) { lambda = zeta[3] rho = zeta[2] zeta = zeta[1] } # چگالی محاسبه: param = .paramGH(zeta, rho, lambda) ans = dgh(x, param[1], param[ 2], param[3], param[4], lambda, log) # مقدار بازگشتی: ans } او چگالی را با # محاسبه چگالی: param = .paramGH(zeta، rho، lambda) ans = dgh(x، param[1]، param[2]، param[3]، param[4]، lambda، log) اما من دریافت نمیکنم ایده پشت کد dgh فقط لحظه های توزیع هذلولی تعمیم یافته را می دهد، اینجا را ببینید؟ پس چگالی کجاست؟ او چگونه اصلاحات را انجام می دهد تا یک نسخه استاندارد دریافت کند؟ نظریه پشت این کجاست؟ بنابراین باید یک مقاله چاپ شده یا بیشتر وجود داشته باشد، جایی که توضیح داده شده است که چگونه نسخه استاندارد را دریافت کنیم؟ من نمیتونم اینو پیدا کنم؟ | توزیع هذلولی تعمیم یافته استاندارد شده |
59446 | آیا نمودار مفیدی برای مقایسه ماتریس های واریانس-کوواریانس دو (یا شاید بیشتر) گروه وجود دارد؟ جایگزینی برای نگاه کردن به بسیاری از نمودارهای حاشیه ای، به خصوص در حالت چند متغیره نرمال؟ | نمودار تشخیصی برای ارزیابی همگنی ماتریس های واریانس-کوواریانس |
111267 | من 2 شرایط مختلف حالت رفتار و 2 فرد متفاوت دارم. من در حال تلاش برای یافتن راهی برای آزمایش هستم که آیا تفاوت در توزیع ها (که فرض می کنم تقریباً نرمال است) بین این شرایط به طور قابل توجهی تغییر می کند و تا آخر عمر نمی توانم بفهمم که چگونه این کار را انجام دهم (به ویژه در متلب). هر فرد تعداد مشاهدات متفاوتی دارد، بنابراین من نمی توانم به سادگی طوری رفتار کنم که انگار جفت های همسان هستند و از آنها کم کنم. یا به عبارت دیگر، اگر تفاوت $\Delta_1$ بین افراد $X_1$ و $Y_1$ به طور قابل توجهی بین تفاوت $\Delta_2$ بین افراد $X_2$ و $Y_2$ متفاوت باشد. | چگونه می توان آزمایش کرد که آیا تغییر تفاوت بین 2 توزیع قابل توجه است؟ |
23159 | من با یک مجموعه داده که سعی می کنم SEM را روی آن اعمال کنم، مشکلات زیادی دارم. فرض می کنیم 5 عامل نهفته A، B، C، D، E با شاخص های مربوطه وجود داشته باشد. A1 تا A5 (عوامل مرتب شده)، B1 تا B3 (کمی)، C1، D1، E1 (هر سه فاکتور مرتب شده آخر، تنها با 2 سطح برای E1. ما علاقه مند به کوواریانس بین همه عوامل هستیم. من سعی کردم از OpenMx استفاده کنم. برای انجام این کار در اینجا چند مورد از تلاش های من وجود دارد: * ابتدا سعی کردم از ماتریس های آستانه برای همه عوامل مرتب شده استفاده کنم، اما همگرایی ناموفق بود همبستگی های پلی کوریک به جای داده های خام، با تابع «hetcor» از کتابخانه «polycor» (من برنامه ریزی کردم که نمونه را برای به دست آوردن فواصل اطمینان، همگرا کنم سوال اول من هم این است: آیا راهی طبیعی برای تفسیر این شکست ها وجود دارد. **ویرایش: برای خوانندگان آینده؟ همان مشکل**، پس از مرور کد توابع در «polycor»... راه حل به سادگی استفاده از «hetcor()» با گزینه «std.err=FALSE» است داد. الان وقت کم دارم تا بهتر بفهمم اینجا چه خبر است! سوالات زیر توسط StasK به خوبی پاسخ داده شده است. من سؤالات دیگری دارم، اما قبل از هر چیزی، در اینجا یک آدرس اینترنتی با یک فایل RData حاوی یک قاب داده «L1» است که فقط شامل دادههای کامل است: data_sem.RData در اینجا چند خط کد وجود دارد که شکست «hetcor» را نشان میدهد. > require(OpenMx) > require(polycor) > load(data_sem.RData) > hetcor(L1) Erreur dans cut.default(scale(x)، c(-Inf، row.cuts, Inf) ) : 'breaks' منحصر به فرد نیستند De plus : Il y a eu 11 avis (utilisez warnings() pour les visionner) > head(L1) A1 A2 A3 A4 A5 B1 B2 B3 C1 D1 E1 1 4 5 4 5 7 -0.82759 0.01884 -3.34641 4 6 1 4 7 5 0 4 6 -0.18103 0.1464 0.18103 0.1475 0.1464 7 6 9 -0.61207 -0.18914 0.13943 0 0 0 10 5 5 10 7 3 -1.47414 0.10204 0.13943 2 0 0 11 7 5 8 9 0 10 5 5 10 7 3 -1.47414 0.10204 0.13943 2 0 0 11 7 5 8 9 120 9 - 720 7204. 0 2 0 12 5 5 9 10 5 0.25000 -0.52192 1.44662 0 0 0 اما من هنوز هم می توانم یک همبستگی یا یک ماتریس کوواریانس را به روشی بسیار کثیف محاسبه کنم و فاکتورهای مرتب شده ام را به عنوان متغیرهای کمی در نظر بگیرم:( > Corta.frame <- اعمال (L1, as.numeric))) در اینجا یک قطعه از کد 'OpenMx' به همراه سؤال بعدی من وجود دارد: آیا مدل زیر صحیح است؟ پارامترهای زیادی آزاد نیست؟ manif <- c(A1، A2، A3، A4، A5، B1، B2، B3، C1، D1، E1); model1 <- mxModel(type=RAM، manifestVars=manif، latentVars=c(ADE)، # factor variance mxPath(from=c( A، B، C، D، E)، فلش = 2، آزاد = FALSE، مقادیر = 1)، # عامل کوواریانس mxPath (از = A، به B، arrows=2، values=0.5)، mxPath(from=A، to=C، arrows=2، values=0.5)، mxPath(from=A، to=D، arrows=2، values=0.5)، mxPath(from=A، to=E، arrows=2، values=0.5)، mxPath(from=B، to=C، arrows=2، values=0.5)، mxPath(from=B، to=D، arrows=2، values=0.5)، mxPath(from=B، to=E، arrows=2، values=0.5) ، mxPath(from=C، to=D، arrows=2، values=0.5)، mxPath(from=C، to=E، arrows=2، values=0.5)، mxPath(from=D، to=E، arrows=2، values=0.5)، # factor → varis vars mxPath(from=A, to=c(A1،A2،A3 A4،A5)، free=TRUE، values=1)، mxPath(from=B، to=c(B1،B2،B3)، free=TRUE، مقادیر =1) mxPath(from=C، to=c(C1)، free=TRUE، values=1)، mxPath(from=D، to=c(D1)، free=TRUE، values=1 )، mxPath(from=E، to=c(E1)، free=TRUE، values=1)، # عبارت خطا mxPath(from=manif، arrows=2، values=1، free=TRUE)، # data mxData(Cor0, type=cor,numObs=dim(L1)[1]) ); و یک سوال آخر با این مدل (برای لحظه ای روش نامناسب محاسبه ماتریس همبستگی را فراموش کنیم)، OpenMx: > mxRun(model1) -> fit1 Running untitled1 > summary(fit1) را در میان خلاصه اجرا کردم، این: آمار مشاهده شده: 55 پارامتر تخمینی : 32 درجه آزادی: 23 -2 احتمال ورود: 543.5287 اشباع -2 احتمال ورود: 476.945 تعداد مشاهدات: 62 chi-square: 66.58374 p: 4.048787e-06 با وجود تعداد زیاد پارامترها، تناسب بسیار بد به نظر می رسد. این به چه معناست؟ آیا این بدان معناست که باید بین متغیرهای آشکار کوواریانس اضافه کنیم؟ پیشاپیش از پاسخ های شما کم کم دارم دیوونه میشم... | کمک به مدل سازی SEM (OpenMx، polycor) |
111266 | با رگرسیون OLS، خطاها باید به طور معمول توزیع شده و همسان باشند. آیا این قوانین در مورد رگرسیون چند جمله ای نیز صدق می کند؟ | قوانین رگرسیون چند جمله ای |
72176 | من مشاهداتی با آستانه های حساسیت مختلف و حداقل سطوح تشخیص دارم، یعنی آزمایشگاه A حساسیت کمتری دارد و حداقل سطح تشخیص 0.2 دارد و آزمایشگاه B حساس تر است و حداقل سطح تشخیص 0.02 دارد. _ویرایش 2: من نمونه های $N$ گرفته ام و آنها را توسط دو آزمایشگاه مختلف پردازش کرده ام (به دلایل سیاسی احمقانه). هر دو آزمایشگاه نتایج را برای من ارسال می کنند و من متوجه می شوم که آزمایشگاه A حداقل سطح تشخیص 0.2 و آزمایشگاه B حداقل سطح تشخیص 0.02 دارد. به مثال نگاه کنید:_ هر ردیف مربوط به اندازه گیری منحصر به فردی است که توسط هر یک از آزمایشگاه ها گرفته شده است: Obs | آزمایشگاه A | آزمایشگاه B --------------------- 1 | .6 | NA 2 | 0 | NA 3 | NA | .53 4 | .2 | NA 5 | NA | .07 _ویرایش 2: من دوست دارم بتوانم از نتایج هر دو آزمایشگاه استفاده و ترکیب کنم، انگار که در یک مقیاس هستند. مشکل این است که آزمایشگاههایی که برای پردازش نمونهها استفاده میشوند آستانههای بسیار متفاوتی برای تشخیص دارند و سطوح حساسیت متفاوتی دارند._ فکر میکنم چیزی مانند: LabA | آزمایشگاه | NewLab ---------------------------- 1 | .6 | NA | .64 2 | 0 | NA | .13 3 | NA | .53 | .53 4 | .2 | NA | .21 5 | NA | .07 | 0.07 چه تکنیک هایی برای استانداردسازی مقادیر به گونه ای وجود دارد که اطلاعات زیادی از دست نرود؟ 1. بدیهی است که می توانم مقادیر را از آزمایشگاه B بگیرم و هر چیزی کمتر از 0 را جایگزین کنم و سپس آنها را گرد کنم، اما می خواهم در صورت امکان از دور ریختن اطلاعات خودداری کنم. 2. یک نفر پیشنهاد اضافه کردن نویز تصادفی به مقادیر آزمایشگاه A را داد، اما من مطمئن نیستم که این کار در مقابل صرفاً نسبت دادن مقادیر گمشده از آزمایشگاه B سودمند است. مقادیر A و Lab B وجود دارند، یکی همیشه از دست خواهد رفت. _ویرایش 2:_ برای دریافت نتایج از هر دو آزمایشگاه در مقیاس مشابه چه کاری می توانم انجام دهم؟ | چگونه آستانه های حساسیت مختلف و محدودیت های تشخیص را مقایسه کنیم؟ |
108977 | راه بهینه برای رمزگذاری ویژگی ماه چیست؟ یک مقدار صحیح منفرد یا 12 مقدار باینری کاملاً مفهوم فاصله مدولو را درک نمی کند... بگویید من می خواهم یک SVM را برای یک کار خاص آموزش دهم و معتقدم که زمان سال ممکن است اطلاعات ارزشمندی را ارائه دهد، چگونه باید تغییر دهم آن را به یک ویژگی؟ هنگام استفاده از طبقهبندیکنندههای خطی، رویکرد کلی برای رمزگذاری مقادیر عددی که به جای یک محور روی یک حلقه قرار میگیرند چیست؟ | راه بهینه برای رمزگذاری ویژگی ماه چیست؟ |
24516 | SPSS در مقایسه با منوی رگرسیون، گزینه سادهتری را برای کدگذاری ساختگی در تابع مدل خطی عمومی (GLM) فراهم میکند. من فقط به این فکر می کنم که برای انجام رگرسیون سلسله مراتبی در GLM چه باید بکنم؟ آیا فقط باید مجموع مربعات نوع 1 را انتخاب کنم. تحلیل من شامل یک متغیر وابسته، یک متغیر طبقهبندی (عامل) و یک پیشبینیکننده پیوسته (متغیر متغییر) است. من به اثر اصلی و همچنین هر تعاملی علاقه دارم. پیشاپیش از هرگونه کمکی متشکریم. **ویرایش** در پاسخ به نظر زیر، پیشنهاد می کنم موارد زیر را در پنجره GLM وارد کنید: 1. DV پیوسته را وارد کنید 2. IV پیوسته را به عنوان متغیر کمکی وارد کنید. 3. IV طبقه بندی را به عنوان فاکتور 4 وارد کنید. محصول را وارد کنید. عبارت (ضریب * متغیر) 5. مجموع مربعات 1 را به دلیل حجم نمونه نابرابر برای عامل انتخاب کنید همانطور که در بالا گفته شد، هدف من تعیین تأثیر اصلی متغیر کمکی در DV، و همچنین تعامل بین متغیر کمکی و عامل در DV. | تعامل متغیر طبقه ای و پیوسته با استفاده از GLM در SPSS |
59444 | من سعی میکنم خلاصهای از مدلهای خطی ارائهشده در R را بررسی کنم. به عبارت دیگر، سعی میکنم تشخیص دهم که خلاصهای از یک مدل خوب یا بد است. دو مثال زیر را در نظر بگیرید، هر دو از یک داده مشتق شدهاند، با این تفاوت که مورد دوم با استفاده از step() سادهسازی شده است. چرا دومی بهتر از اولی است؟ مثال اول: باقیمانده ها: Min 1Q Median 3Q Max -37.679 -11.893 -2.567 7.410 62.190 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 42.942055 24.010879 1.788 0.07537. فصل بهار 3.726978 4.137741 0.901 0.36892 فصل تابستان 0.747597 4.020711 0.186 0.85270 فصل زمستان 3.692955 3.865391 0.965391 0.956 سایز 3.802051 0.858 0.39179 سایزهای کوچک 9.682140 4.179971 2.316 0.02166 * speedlow 3.922084 4.706315 0.833 0.405734474medium 0.076 0.93941 mxPH -3.589118 2.703528 -1.328 0.18598 mnO2 1.052636 0.705018 1.493 0.13715 Cl -0.04013313261 -0.040131761 NO3 -1.511235 0.551339 -2.741 0.00674 ** NH4 0.001634 0.001003 1.628 0.10516 oPO4 -0.005435 0.005435 0.039887 -0.0204 -0.131 0.030755 -1.699 0.09109 . Chla -0.088022 0.079998 -1.100 0.27265 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 17.65 در 182 درجه آزادی چندگانه R-squared: 0.3731، R-squared تنظیم شده: 0.321 آمار: 7.223 در 15 و 182 DF، p-value: 2.444e-12 مثال دوم: فراخوانی: lm (فرمول = a1 ~ اندازه + mxPH + Cl + NO3 + PO4، داده = clean.algae[, 1:12]) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -28.874 -12.732 -3.741 8.424 62.926 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 57.28555 20.96132 2.733 0.00687 ** اندازه متوسط 2.80050 3.40190 0.823 0.41141 اندازه کوچک 10.41141 10.406223 0.00708 ** mxPH -3.97076 2.48204 -1.600 0.11130 Cl -0.05227 0.03165 -1.651 0.10028 NO3 -0.89529 -0.89529 0.35148 -0.35148 -0.35148 -0.501 -0.35148 -0.501 *0.501 0.01117 -5.291 3.32e-07 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 17.5 در 191 درجه آزادی چندگانه R-squared: 0.3527، R-squared تنظیم شده: 0.332 آمار: 17.35 در 6 و 191 DF، p-value: 5.554e-16 | خلاصه مدل خطی R، چرا یک مدل بهتر از دیگری است؟ |
23154 | سوال: این سوال کمی انتزاعی است، اما تحمل کنید. من تصاویر را میانگین می گیرم تا تلاش کنم و استنباط کنم که میانگین تصویر یک موضوع خاص چگونه به نظر می رسد (فقط از روی کنجکاوی، ممکن است نتایج جالبی داشته باشد). برای اینکه بدانم چه نوع روش میانگین گیری مجاز است، سعی می کنم تعیین کنم که چه نوع تصاویر داده ای را می توان طبقه بندی کرد (اسمی، ترتیبی، فاصله ای یا نسبت). من فکر میکنم مجموعهای از تصاویر از یک موضوع خاص (مثلاً پرترههای مشترک خلاقانه که از فلیکر خراشیده شدهاند) را میتوان به عنوان دادههای اسمی طبقهبندی کرد، زیرا ترتیب دادن پرترهها معنایی ندارد (که آن را به دادههای ترتیبی یا بالاتر تبدیل میکند). به نظر من تصاویر در یک سطح با نام ها هستند، اما به جای یک بازنمایی زبانی از چیزی، آنها یک بازنمایی بصری از چیزی هستند (در نتیجه در همان سطح یک نام عمل می کنند). که آن را به داده های اسمی تبدیل می کند. اما باز هم: تصاویر دیجیتال در اصل آرایه ای از اعداد هستند (مقادیر rgb)، که می تواند به این معنی باشد که در سطح نسبت اندازه گیری می شوند (یا حداقل رنگ ها هستند). **بنابراین میانگین میانگین _ممکن_ است، اما آیا معقول است؟ | سطح اندازه گیری داده های تصویر چقدر است؟ |
24514 | من داده های چند کلاسه نامتعادل دارم (کلاس 4 با داده های 15% 25% 45% 15% در هر کلاس). کدام روش برای طبقه بندی چنین داده هایی مناسب است - SVM یا ANN؟ به روز رسانی- اجازه دهید سوال را کمی کلی تر کنم. @Dikran Marsupial در یک پاسخ گفت: انتخاب طبقه بندی کننده به ماهیت مجموعه داده خاص بستگی دارد اما چه عواملی را باید قبل از انتخاب طبقه بندی در نظر گرفت. من می دانم که انتخاب اول ممکن است همیشه بهترین پاسخ را ندهد، اما می تواند نقطه شروع خوبی باشد. بنابراین قبل از انتخاب یک طبقه بندی کننده باید چه ویژگی هایی از داده ها را در نظر بگیرم؟ | SVM در مقابل شبکه عصبی مصنوعی |
113305 | فرض کنید در فضای دوبعدی آرایه ای از نقاط داریم و هر نقطه دارای یک ضریب وزنی است که یک مقدار شناور از 0 تا 1 است. هر نقطه همچنین دارای مختصاتی در شبکه دو بعدی است. شبه کدهای زیر ویژگی نقطه را نشان می دهند: class Point { public: float weightingFactor_; // [0،1]. شناور x_; شناور y_; } حال سوال من این است: با توجه به آرایه ای از نقاط، چگونه می توانیم بهترین جفت امتیاز را انتخاب کنیم؟ معیار بهترین جفت امتیاز این است: (1) هر دو نقطه باید فاکتورهای وزنی زیادی داشته باشند. (2) دو نقطه باید تا حد امکان از نظر مکانی بر اساس فاصله اقلیدسی قرار گیرند. در حال حاضر، راه حل من این است که برای هر جفت نقطه، معیار زیر را محاسبه کنید: Point1.weightingFactor_*Point2.weightingFactor*Distance(Point1, Point2) از بین تمام جفت نقاط، سپس جفتی را انتخاب کنید که مقدار معیار آن بزرگترین است. من مطمئن نیستم که آیا این بهترین راه حل است. هر ایده ای؟ با تشکر | بهترین جفت نقطه را در شبکه دو بعدی انتخاب کنید |
34698 | من سعی می کنم یک ماتریس کوواریانس را بر اساس مجموعه داده های پراکنده / شکاف تجزیه کنم. من متوجه شدم که مجموع لامبدا (واریانس توضیح داده شده)، همانطور که با 'svd' محاسبه میشود، با دادههای شکاف فزاینده تقویت میشود. بدون شکاف، «svd» و «eigen» نتایج یکسانی را به همراه دارند. به نظر نمی رسد که با تجزیه «ویژن» این اتفاق بیفتد. من به استفاده از svd تمایل داشتم زیرا مقادیر لامبدا همیشه مثبت هستند، اما این تمایل نگران کننده است. آیا نوعی اصلاح وجود دارد که باید اعمال شود، یا باید از «svd» بهکلی برای چنین مشکلی اجتناب کنم. ###مجموعه دادههای کامل و شکاف ایجاد کنید.seed(1) x <- 1:100 y <- 1:100 grd <- expand.grid(x=x, y=y) #کامل داده z <- matrix( runif(dim(grd)[1])، طول(x)، طول(y)) تصویر(x,y,z, col=rainbow(100)) #gappy data zg <- جایگزین(z، نمونه(sq(z)، طول(z)*0.5)، NaN) تصویر(x,y,zg, col=rainbow(100)) ###تجزیه ماتریس کوواریانس #داده کامل C < - cov(z، use=pair) E <- eigen(C) S <- svd(C) sum(E$values) sum(S$d) sum(diag(C)) #gappy data (50%) Cg <- cov(zg, use=pair) Eg <- eigen(Cg) Sg <- svd(Cg) sum(Eg$values) sum(Sg $d) sum(diag(Cg)) ###تصویر تقویت مجموعه Lambda.seed(1) frac <- seq(0,0.5,0.1) E.lambda <- list() S.lambda <- list() for(i in seq(frac)){ zi <- z NA.pos <- نمونه(seq(z) طول(z)*فرک[i]) if(طول(NA.pos) > 0){ zi <- جایگزین(z، NA.pos، NaN) } Ci <- cov(zi، use=pair) E.lambda[[i]] <- eigen(Ci)$values S.lambda[[i]] <- svd(Ci)$d } x11(width=10، height=5) par (mfcol=c(1،2)) YLIM <- محدوده (c(sapply(E.lambda، محدوده)، sapply(S.lambda، محدوده))) #eigen for(i در seq(E.lambda)){ if(i == 1) plot(E.lambda[[i]], t=n, ylim=YLIM, ylab=lambda, xlab= , main=Eigen Decomposition) خطوط(E.lambda[[i]], col=i, lty=1) } abline(h=0, col=8, lty=2) legend(topright, legend=frac, lty=1, col=1:length(frac), title=fraction gaps) #svd for(i در seq(S.lambda)){ if( i == 1) plot(S.lambda[[i]], t=n, ylim=YLIM, ylab=lambda, xlab=, main=Singular تجزیه ارزش) خطوط (S.lambda[[i]]، col=i، lty=1) } abline(h=0، col=8، lty=2) legend(topright، legend=frac، lty= 1, col=1:length(frac), title=fraction gaps)  | چرا تجزیه ویژه و svd یک ماتریس کوواریانس بر اساس داده های پراکنده نتایج متفاوتی را به همراه دارد؟ |
72172 | بنابراین من سوال زیر را از کتاب درسی خود دارم، پاسخی که می گیرم با پاسخ کتاب کمی متفاوت است که به نظرم ممکن است اشتباه باشد، لطفاً یکی تایید کند؟ **سؤال:** فرض کنید $y_{1:T} = (y_1، y_2، \cdots، y_T)'$ نمونهای از متغیرهای تصادفی $T = 20$ پواسون است به طوری که: $y_t|\theta_1 \stackrel{ i.i.d}{\sim} Poisson(\theta_1) \ \text{for} \ t=1, 2, \dots, T_1=10$ $y_t|\theta_2 \stackrel{i.i.d}{\sim} Poisson(\theta_2) \ \text{for} \ t=T_1+1, 2, \dots, T=T_1+T_2$ جایی که $T_2 = 10$ حالا فرض کنید که پارامترهای دو توزیع پواسون، $\theta_1$ و $\theta_2$، ترسیمهای مستقل از توزیع $Gamma(شکل = \آلفا، مقیاس = \بتا)$، به عنوان مثال، $$\theta_1، \theta_2 \stackrel{i.i.d}{\sim} گاما(شکل = \آلفا، مقیاس = \بتا )$$ که در آن $\alpha$ شناخته شده است اما $\beta$ شناخته شده نیست. در نهایت، توزیع قبلی را روی $\beta$ قرار دهید، که توسط: $$\beta \sim InverseGamma(شکل=w، مقیاس = \tau)$$ که در آن $w$ و $\tau$ هر دو شناخته شدهاند. شرطی کامل پسین را برای $\beta$ پیدا کنید، یعنی توزیع $\beta|\theta_1, \theta_2, y_{1:T}$ را بیابید. **کار من:** داریم: \begin{align*}\displaystyle p(y_t|\theta_1) = \frac{\theta_1^{y_t}\exp(-\theta_1)}{y_t!} \ \\ \ \text{for} \ t=1, 2, \cdots, T_1\end{align*} از این رو: \begin{align*}p(y_{1:T_1}|\theta_1) = \prod_{t=1}^{T_1} \frac{\theta_1^{y_t}\exp(-\theta_1)}{y_t! } = \frac{\theta_1^{\sum_{t=1}^{T_1} y_t}\exp(-T_1 \theta_1)}{\prod_{t=1}^{T_1}(y_t!)} \end{align*} به همین ترتیب: \begin{align*}\displaystyle p(y_t|\theta_2) = \frac{\theta_2 ^{y_t}\exp(-\theta_2)}{y_t!} \ \ \ \ \text{for} \ t=T_1+1، T_1+2، \cdots، T=T_1+T_2\end{align*} بنابراین: \begin{align*}p(y_{T_1+1:T_1+T_2}|\theta_2) = \prod_{t=T_1+ 1}^{T_1+T_2} \frac{\theta_2^{y_t}\exp(-\theta_2)}{y_t!} = \frac{\theta_2^{\sum_{t=T_1+1}^{T_1+T_2} y_t}\exp(- T_2 \theta_2)}{\prod_{t=T_1+1}^{T_1+T_2}(y_t!)} \end{align*} از آنجایی که $y_t|\theta_1$ برای $t = 1، 2، \cdots، T_1$ مستقل از $y_t|\theta_2$ برای $t=T_1+1، T_1+2، \cdots، T=T_1+T_2$، احتمال با: \begin{align*} p(y_{1:T}|\theta_1، \theta_2) & = p(y_{1:T_1}|\theta_1) \times p(y_{T_1+1:T_1+T_2}|\theta_2) \\\ & = \frac{\theta_1^{\sum_{ t=1}^{T_1} y_t}\exp(-T_1 \theta_1)}{\prod_{t=1}^{T_1}(y_t!)} \times \frac{\theta_2^{\sum_{t=T_1+1}^{T_1+T_2} y_t}\exp( -T_2 \theta_2)}{\prod_{t=T_1+1}^{T_1+T_2}(y_t!)} \\\ & = \frac{\theta_1^{\sum_{t=1}^{T_1}y_t}\theta_2^{\sum_{t=T_1+1}^{T_1+T_2}y_t}\exp(-T_1\theta_1 -T_2\theta_2)}{\prod_{t=1}^{T_1+T_2}(y_t!)} \end{align*} قبلی با: \begin{align*} p(\theta_1, \theta_2, \beta) & = p(\theta_1, \theta_2|\beta)p(\beta) \\\ داده میشود & = p(\theta_1|\بتا)p(\theta_2|\بتا)p(\بتا) \\\ & = \frac{\theta_1^{\alpha-1}}{\beta^{\alpha}\Gamma(\alpha)}\exp\left(-\frac{\theta_1}{\beta}\right) \times \frac{\theta_2^{\alpha-1}}{\beta^{\alpha}\Gamma(\alpha)}\exp\left(-\frac{\theta_2}{\beta}\right) \times \ frac{\tau^{w}}{\Gamma(w)\beta^{w+1}}\exp\left(-\frac{\tau}{\beta}\right) \\\ & = \frac{(\theta_1\theta_2)^{\alpha-1}\tau^w\exp\left(-\frac{1}{\beta}\left(\theta_1+\theta_2+\tau\right)\right) }{\beta^{2\alpha+w+1}\left(\Gamma(\alpha)\right)^2\Gamma(w)} \end{align*} بنابراین چگالی مشترک برای $(\theta_1، \theta_2، \beta، y_{1:T})$ توسط: \begin{align*} p(\theta_1, \theta_2, \beta, y_{1:T بدست میآید }) = \frac{\theta_1^{\sum_{t=1}^{T_1}y_t + \alpha -1}\theta_2^{\sum_{t=T_1+1}^{T_1+T_2}y_t + \alpha -1}\tau^w\exp\left(-T_1\theta_1-T_2\theta_2-\frac{1}{\beta}\left(\theta_1+\theta_2+\tau\right) \right)}{\prod_{t=1}^{T_1+T_2}(y_t!)\beta^{2\alpha+w+1}\left(\Gamma(\alpha)\right)^2\Gamma (w)} \end{align*} بنابراین یک هسته برای چگالی مشترک خلفی $(\theta_1، \theta_2، \beta)$ توسط: \begin{align*} p(\theta_1, \theta_2, \beta|y_{ 1:T}) \propto \frac{\theta_1^{\sum_{t=1}^{T_1}y_t + \alpha -1}\theta_2^{\sum_{t=T_1+1}^{T_1+T_2}y_t + \alpha -1}\exp\left(-T_1\theta_1-T_2\theta_2-\frac{1}{\ beta}\left(\theta_1+\theta_2+\tau\right)\right)}{\beta^{2\alpha+w+1}} \end{align*} شرطی کامل برای $\beta$ توسط: \begin{align*} p(\beta|\theta_1, \theta_2, y_{1:T}) و \propto داده میشود \frac{\exp\left(-\frac{1}{\beta}\left(\theta_1+\theta_2+\tau\right)\right)}{\beta^{2\alpha+w+1}} \\ \ & = \frac{1}{\beta^{2\alpha+w+1}}\exp\left(-\frac{\theta_1+\theta_2+\tau}{\beta}\right) \end{align*} بنابراین $ \beta|\theta_1، \theta_2، y_{1:T} \sim InverseGamma\left(shape=2\alpha+w, scale=\theta_1+\theta_2+\tau\right)$ **پاسخ کتاب:** $\beta|\theta_1, \theta_2, y_{1:T} \sim InverseGamma\left(shape=2\alpha+w, scale =\theta_1+\theta_2+1/\tau\right)$ این $1/\tau$ از کجا آمده است؟ به نظر من درست نیست | پیدا کردن کامل پسین شرطی برای $\beta$ |
1507 | س: آیا رویکرد من صحیح است؟ رویداد: شما به طور همزمان 5 سکه پرتاب می کنید. یکی از دانشجویان من ادعا کرد که در 39 مورد از 40 آزمایش 4T و 1H بدست آورده است (!!) تصمیم گرفتم شانس این را محاسبه کنم... ابتدا P(4T & 1H) = 5C4 * (1/2)^4 * (1/2)^1 = 0.16 من این کار را به دو روش انجام دادم: * * * 1) احتمال دو جمله ای n = 40 r = 39 p = 0.16 q = 0.84 P (دقیقاً 39) = 40 C 39 * (.16)^39 * (0.84)^1 = 0% * * * 2) توزیع دو جمله ای: n = 40 r = 39 (یا بیشتر) p = . 16 q = 0.84 E(X) = u = np = (.16)(40) = 6.4 SD = SQRT(npq) = 3.16 Z(39) = (مشاهده شده - مورد انتظار) / SD = (39 - 6.4) / 3.16 = 10.3 p = P(Z > 10.3) = 0٪ * * * نتیجه گیری: شانس بدست آوردن 4T و 1H در 39 از 40 کارآزمایی ناچیز است. دانش آموز در آن زمان مواد مخدر مصرف می کرد. | مثالی از استفاده از توزیع دو جمله ای |
54633 | اگر $X$ یک متغیر تصادفی توزیع شده با گامای معکوس باشد، آیا $X^p$ نیز به عنوان گامای معکوس توزیع می شود؟ من پیدا کردم که کسی در مورد جذر گامای معکوس سوال کرده است، اما پاسخ مستقیمی برای آن سوال پیدا نکردم. | آیا توان یک متغیر تصادفی گامای معکوس خود گامای معکوس است؟ |
1501 | من علاقه مند به فرآیند آزمایش یا تأیید یک پیاده سازی خاص از یک روش آماری هستم، و اینکه چه مجموعه داده ها و/یا تجزیه و تحلیل منتشر شده وجود دارد که می تواند برای انجام این کار در عمل مورد استفاده قرار گیرد. به عنوان مثال، اگر من الگوریتمی بنویسم که یک رگرسیون خطی ساده را پیاده سازی کند، ممکن است تعدادی اعداد را تغذیه کنم و نتیجه را بررسی کنم که خوب به نظر می رسد، یا ممکن است اعداد را به کد خود و برخی سیستم های دیگر وارد کنم و مقایسه کنم. در برخی موارد، به نظر می رسد که افراد قبلاً این کار را انجام داده اند و سپس اعداد و نتایجی را منتشر می کنند که می تواند به عنوان داده های مرجع تعریف شود. برای شروع، بهترین موردی که من می شناسم صفحه مجموعه داده های مرجع آماری NIST است که طیف گسترده ای از مجموعه داده ها و محاسبات را منتشر می کند که حوزه هایی مانند تحلیل واریانس، رگرسیون خطی، شبیه سازی زنجیره مارکوف و مونت کارلو و رگرسیون غیر خطی را پوشش می دهد. آیا موارد خوب / قابل توجه دیگری وجود دارد؟ ویرایش: برای روشن کردن این موضوع که من فقط به دنبال مجموعه دادههای باز نیستم، بازنویسی کردم، بلکه به مجموعه دادهها و راهحلهایی برای مشکلات آماری خاص که میتوانند برای آزمایش اجرای یک تکنیک استفاده شوند، علاقهمندم. | چه منابع/روش هایی برای آزمایش/ اعتبارسنجی یا ارزیابی روش های آماری وجود دارد |
72173 | من دیدم که تقریباً هر روش رگرسیون مربوط به یک روش طبقه بندی است. به عنوان مثال، طبقه بندی adaboost، رگرسیون adaboost. چه رابطه ای بین آنها وجود دارد؟ آیا می توانم بلافاصله یک روش رگرسیون را از روش طبقه بندی دریافت کنم؟ | چه رابطه ای بین رگرسیون و طبقه بندی وجود دارد؟ |
114908 | در مقاله: > A. Vlad، A. Luca، و M. Frunzete، _اندازه گیری های محاسباتی > زمان گذرا و فاصله نمونه برداری که امکان استقلال آماری در نقشه لجستیک را فراهم می کند در Proc. بین المللی Conf. محاسبات > علم و کاربردهای آن، برلین، 2009، صفحات 703-718 ذکر شده است که برای یک سری زمانی $X = \\{x_k,x_{k+1},\ldots,x_{k+n},\ ldots\\}$، $x_n$ و $x_{k+d}$ زمانی که $d \rightarrow \infty$ که $d$ یک عدد صحیح که نشان دهنده فاصله نمونه برداری است. فرض کنید $d = 5$، سپس برای یک سری زمانی که توسط $x_{k+1} = Rx_k(1-x_k) \tag{1}$ ایجاد میشود، جایی که پارامتر $R$ رفتار آشفته را فعال میکند. توزیع گاوسی نیست و نویسندگان آزمون کولموگروف-اسمیرنوف را برای نشان دادن استقلال آماری انجام دادند. نقل قول : pg: 705 > این روش آزمون در اینجا مورد نیاز است زیرا متغیرهای تصادفی مورد بررسی > معمولاً توزیع نشده اند، حتی از قانون آماری ناشناخته هستند. برای > هر مقدار R بررسی شده، از آزمون های اسمیرنوف استفاده کردیم تا بررسی کنیم که آیا دو مجموعه داده تجربی از قانون احتمال یکسانی خارج می شوند یا خیر. ویرایش: فاصله نمونه برداری همانطور که در مقاله تعریف شده است > Vlad، Adriana، Adrian Luca و Madalin Frunzete. محاسبات > اندازه گیری زمان گذرا و فاصله نمونه برداری که استقلال آماری را در نقشه لجستیک امکان پذیر می کند. Computational Science and Its > Applications–ICCSA 2009. Springer Berlin Heidelberg, 2009. 703-718. > > دو متغیر تصادفی $X$ و $Y$ ارائه شده به آزمون آماری > از فرآیند تصادفی اختصاص داده شده به (1) در دو تکرار $k_1$ و > $k_1 + d$ نمونه برداری شده اند. ما سعی کردیم مقدار را اندازه گیری کنیم. حداقل فاصله نمونه برداری $d$ که > استقلال آماری بین $X$ و $Y$ را فعال می کند امکان پذیرفتن اینکه دو متغیر تصادفی $X$ و $Y$ استخراج شده از فرآیند تصادفی (1) > در تکرارها از نظر آماری مستقل هستند، به شواهدی میآیند که حداقل فاصله استقلال آماری $d$ تحتتاثیر قرار میگیرد پارامتر $R$ مطالعه تجربی کلی بر روی تمام مقادیر ذکر شده از پارامتر $R$ انجام شد (4; 3.9999; 3.999; 3.99; 3.95; 3.78. حداقل فاصله نمونه برداری: 15 تکرار برای R = 3.999 و R = 3.99 فاصله استقلال در عمل به طور عمده برای منطقه ایستایی نقشه آشفته مهم است، به طوری که نتایج کمی > وابسته به قانون توزیع اولیه فرآیند آشفته > نیستند. با مراجعه به نتایج کلی، می توان گفت که برای شرایط اولیه > x_0$ (برای تولید فرآیند تصادفی در (1)) به طور یکنواخت > در بازه (0,1) توزیع شده است، مقدار حدود 40-50 تکرار کاملاً است. > برای اطمینان از زمان گذرا (فاصله زمانی سپری شده از وضعیت اولیه سیگنال آشوب تا ورود آن در ایستایی) > و حداقل استقلال آماری کافی است. فاصله نمونه برداری برای همه مقادیر R > بررسی شده. در مقاله: یو، لی، و همکاران. سنگر فشاری با توالی آشفته. و نکته 2.2: ذکر شده است که خروجی (1) مستقل نیست اما استقلال آن را می توان از طریق همبستگی های مرتبه بالاتر اندازه گیری کرد. که با فاصله نمونه برداری تعیین می شود اگر فاصله نمونه برداری به اندازه کافی بزرگ انتخاب شود، برای فاصله $d$ = 15، سپس برای هر عدد صحیح مثبت $m_0$، $m_1 <2^d$، $X$ دارای $E(x_k است. ^{m_0} x_{k+d}^{m_1}) = E(x_k^{m_0}) E(x_{k+d}^{m_1})$ بر اساس این، من سوال زیر را دارم: Q1: لطفاً کسی می تواند با یک نمونه بردار سری زمانی نشان دهد که منظور از فاصله نمونه چیست؟ آیا فاصله نمونهگیری مثلاً $d = 5$ به این معنی است که سری زمانی نمونهبرداری شده، مثلاً $Z$، پس از هر 5 نمونه، نقاط دادهای خواهد داشت؟ برای مثال، اگر $X$ به صورت $X = \\{x_n، x_{n+1}،\ldots،x_{n+k}،\ldots\\}$ و $Z = \\{z_n نشان داده شود، z_{n+d}،\ldots،z_{n+kd}\\}$. فرض کنید که از معادله 1 $$X = [x_1,\, x_2,\, x_3,\, x_4,\, x_5,\, x_6,\, x_7,\, x_8,\, x_9,\, x_{10 },\, x_{11},\, x_{12},\, x_{13},\, x_{14},\, x_{15}،\، x_{16}،\، x_{17}،\، x_{18}،\، x_{19}،\، x_{20}]$$ سپس $Z$ خواهد بود: $ $Z = [x_6,\, x_7,\, x_8,\, x_9,\, x_{10},\, x_{16},\, x_{17},\, x_{18}،\، x_{19}،\، x_{20}]$$ | فاصله نمونه برداری چیست؟ |
78431 | من می خواهم تفاوت ضرایب (رگرسیون) را در دو گروه آزمایش کنم. من میدانم که این کار با گنجاندن اصطلاحات تعاملی و انجام تست چاو امکانپذیر است. اما اگر دیگر نتوانید گروه های موجود در مجموعه داده پانل خود را شناسایی کنید، چه کار می کنید؟ به این مثال نگاهی بیندازید. این ممکن است مشکل من را روشن کند: 2 گروه از مردم را تصور کنید. در طول 1 ماه، میزان هزینهای که همه برای بستنی خرج میکنند (4 نوع)، چگونه به بستنی امتیاز دادهاند و اندازه بستنی که دریافت کردهاند را ثبت میکنید. متغیر وابسته شما رتبه بندی است، متغیرهای مستقل شما هزینه و اندازه هستند. +----------------------------------------------- + | روز | بستنی | امتیاز | هزینه | اندازه | گروه| |-----+------------------------------------------- + 1. | 1 | وانیل | 2 | 3 | 4 | 1 | 2. | 1 | choco | 1 | 4 | 3 | 0 | 3. | 1 | وانیل | 2 | 2 | 1 | 1 | 4. | 1 | فندق | 9 | 2 | 1 | 0 | 5. | 2 | فندق | 2 | 1 | 1 | 0 | 6. | 2 | فندق | 5 | 1 | 1 | 0 | 7. | 2 | وانیل | 6 | 5 | 2 | 1 | 8. | 3 | توت | 1 | 6 | 3 | 0 | 9. | 3 | توت | 6 | 4 | 2 | 0 | 10. | 3 | توت | 7 | 3 | 4 | 1 | 11. | 3 | توت | 5 | 2 | 1 | 1 | 12. | 3 | وانیل | 4 | 1 | 2 | 0 | 13. | 3 | وانیل | 4 | 5 | 2 | 0 | و غیره | . | ...... | . | . | ... | . | +----------------------------------------------- + **اصلاً به گروه ها اهمیت نمی دهم، فقط می توانم داده ها را در سطح بستنی روزانه جمع آوری کنم (زیرا می خواهم اثرات ثابتی را در سطح بستنی در نظر بگیرم). مجموعه داده پانل من به این صورت خواهد بود: +----------------------------------------- -+ | روز | بستنی | امتیاز | هزینه | اندازه | |-----+-----------+--------+-------+--------+ 1. | 1 | وانیل | 2 | 2.5 | 2.5 | 2. | 1 | choco | 1 | 4 | 3 | 3. | 1 | فندق | 9 | 2 | 1 | 4. | 2 | فندق | 3.5 | 1 | 1 | 5. | 2 | وانیل | 6 | 5 | 2 | 6. | 3 | توت | 4.75 | 3.7 | 2.5 | 7. | 3 | وانیل | 4 | 3 | 2 | و غیره | . | ...... | . | . | ... | +------------------------------------------- با این حال، اینطور نیست اجازه دهید برای هر گروه یک مدل رگرسیون محاسبه کنم. بنابراین، مسیر متفاوتی را دنبال کردم: مجموعه دادههای خام را بر اساس گروهها (یک مجموعه برای هر گروه) تقسیم کردم و پس از آن در سطح روزانه جمعآوری کردم. دو مجموعه داده پانل به این صورت است: **گروه 1** +----------------------------------- --------------+ | روز | بستنی | امتیاز | هزینه | اندازه | گروه| |-----+------------------------------------------- + 1. | 1 | وانیل | 1.5 | 2.5 | 2.5 | 1 | 2. | 2 | وانیل | 6 | 5 | 2 | 1 | 3. | 3 | توت | 7 | 3 | 4 | 1 | 4. | 3 | وانیل | 6 | 2.5 | 2.5 | 1 | و غیره | . | ...... | . | . | ... | . | +----------------------------------------------- + **گروه 2** +----------------------------------------- -------+ | روز | بستنی | امتیاز | هزینه | اندازه | گروه| |-----+------------------------------------------- + 1. | 1 | choco | 1 | 4 | 3 | 0 | 2. | 1 | فندق | 9 | 2 | 1 | 0 | 3. | 2 | فندق | 3.5 | 1 | 1 | 0 | 4. | 3 | توت | 3.5 | 5 | 2.5 | 0 | 5. | 3 | وانیل | 4 | 3 | 2 | 0 | و غیره | . | ...... | . | . | ... | . | +----------------------------------------------- + برای هر مجموعه داده، یک رگرسیون با اثرات ثابت اجرا می کنم. این برای من دو خروجی مدل باقی می گذارد که می خواهم مقایسه کنم و ببینم آیا ضرایب متفاوت هستند یا خیر. آیا ایده ای برای آزمایش ضرایب در بین مدل ها در این مورد دارید؟ خیلی ممنون! سیمون | مقایسه ضرایب بین گروه ها در مجموعه داده های پانل |
67805 | برای قسمت a من فکر میکنم فقط احتمال پواسون 40 با نرخ = 48 است. من روی b تا d گیر کردهام. خودروها از ایست بازرسی A مطابق با فرآیند پواسون با سرعت متوسط 24 خودرو در ساعت عبور می کنند. تمام خودروهایی که از ایست بازرسی A عبور می کنند، از ایست بازرسی B نیز عبور می کنند که در 10 مایلی پایین جاده قرار دارد. سرعت (MPH) هر خودروی منفرد بین A و B ثابت و به طور یکنواخت در (40، 60) توزیع شده است. سرعت همه خودروها متقابل مستقل است. پیدا کنید: a) P (40 اتومبیل بین ظهر و 14 بعد از ظهر از A عبور می کنند) ب) P (بین 3 و 18 بعد از ظهر، 20 اتومبیل با سرعت بیش از 55 مایل در ساعت از A عبور می کنند) ج) P (10 اتومبیل بین ظهر و 1 بعد از ظهر از B عبور می کنند) d ) احتمال اینکه 5 اتومبیل بین ساعت 1 بعد از ظهر و 13:10 بعد از ظهر از B عبور کنند، با توجه به اینکه دقیقاً 10 اتومبیل بین ساعت 12:30 و ساعت 1 بعد از ظهر | سوال احتمال پواسون |
77524 | ما آزمایشی داریم که در آن تعداد تصادفی از اشیاء (نمونه) را مشاهده می کنیم و اندازه می گیریم که چه تعداد از آنها معیوب هستند. تصور کنید که این کار در کارخانه های مختلف انجام می شود که آنها این اشیاء را با سرعت های مختلف تولید می کنند، بنابراین یک کارخانه ممکن است یک شی در روز تولید کند و بقیه 1000 یا بیشتر. آیا هیچ راه رسمی (یا ایده ای) برای تولید سفارشی از کارخانه ها وجود دارد که نشان دهنده میزان معیوب بودن محصولات آنها (از بدتر تا بهترین) باشد؟ مشکل این است که اگر فقط نسبت $\frac{defectives}{observed}$ را در نظر بگیریم، یک سفارش عادلانه ایجاد نمی کند زیرا $\frac{1~defective}{2~observed}=\frac{20 ~defective}{40~observed}$ در حالی که نسبت دوم را باید بدتر در نظر گرفت زیرا نمونه بزرگتری دارد. | نسبت های سفارش |
23158 | من یک سری زمانی دارم که باید ناهنجاری های فاحش را به دلیل اشتباهات کدگذاری تشخیص دهم، نه تغییرات کوچک در ساختار سریال. من به جدیدترین نقاط داده علاقه مند هستم، نه داده های تاریخی، بنابراین نیازی به فیلتر کردن همه چیز ندارم. بهترین راه برای استفاده از ابزارهای متحرک و میانگین ها در ترکیب با برآوردگرهای اسپرد برای یافتن این نقاط چیست؟ | استفاده از گسترش قوی چنین انحراف میانگین میانه و فیلترهای میانه را برای سری های زمانی اندازه گیری می کند |
23157 | هنگام ساختن یک درخت تصمیم، فرض کنید دو ویژگی وجود دارد که حداکثر بهره اطلاعاتی یکسانی دارند. آیا تفاوتی بین انتخاب هر یک از این دو ویژگی به عنوان یک گره درختی وجود خواهد داشت؟ یا آیا عوامل دیگری وجود دارد که باید در نظر بگیرم تا تصمیم بگیرم کدام ویژگی را انتخاب کنم؟ | انتخاب بین بهترین دو ویژگی با کسب اطلاعات یکسان هنگام ساخت درخت تصمیم |
111269 | اگرچه ممکن است سؤالی بپرسم که قبلاً حل شده است (اما هیچ موردی را پیدا نکردم که صریحاً به این موضوع اشاره کند) ، می خواهم بدانم اگر (و من آمارگیر نیستم) با برنامه نویسی تابع log-likelihood یک بتا درست می گویم. توزیع دو جمله ای در R به شرح زیر است: sum(lgamma(تتا) - lgamma(Pi * تتا) - lgamma((1 - Pi) * تتا) + lgamma(n + 1) - lgamma(Y + 1) - lgamma((n - Y) + 1) + lgamma(Y + Pi * theta) + lgamma(n - Y + (1 - Pi) * تتا) - lgamma (n + تتا)) در اینجا، تتا به عنوان یک پارامتر overdispersion استفاده می شود. n تعداد آزمایشها، Y موفقیتهای واقعی (از دادههای واقعی)، و Pi احتمال موفقیت است که از مدل من در JAGS مشتق شده است. من (ساده لوحانه) تابع چگالی را همانطور که در بولکر (2008) بیان شد گرفتم و سعی کردم لگاریتم آن را بگیرم. بعد از آن برای محاسبه یک AIC از این استفاده کردم و اعداد معقولی داد اما مطمئن نیستم! با تشکر از شما برای کمک شما! P.S. من می دانم که در مورد استفاده از AIC، به ویژه در زمینه بیزی، هشدارهایی وجود دارد، اما من فقط می خواهم بدانم آیا در راه یافتن پاسخ به این موضوع حق دارم، اگرچه تلاش برای آن ممکن است از دیدگاه فلسفی در ابتدا احمقانه باشد. مکان... | احتمال ورود به سیستم برای یک بتا دو جمله ای در R |
59441 | من در حال انجام یک مطالعه تحقیقاتی در مورد شیردهی هستم. من یک پایگاه داده کامل از موضوعاتی را دریافت می کنم که برای تحقیق من مناسب است. من مجبور شدم با هر فرد تماس بگیرم تا از آنها برای شرکت در مطالعه درخواست کنم، زیرا این امر مستلزم مشارکت روسای آنها و یک همکار است. این بدان معنی است که من فقط می توانم در مورد افرادی تحقیق کنم که رئیس و همکار مایل به مشارکت هستند. من چندین اعلان از افرادی دریافت کرده ام که به دلایل مختلف نمی توانند شرکت کنند. از این منظر لیست شرکت کنندگان بالقوه من کاهش یافته است. آیا این نوع نمونه گیری از منظر آماری معتبر است؟ نمونه من تقریباً از 30 نفر تشکیل خواهد شد. | نمونه برداری از پایگاه داده |
67804 | من داده هایی دارم که می خواهم تعیین کنم که آیا شکل توزیع احتمال نسبت به 10 سال قبل تغییر کرده است یا خیر. یک مثال این است که من برای خودروهای مختلف چندین معیار قیمت در یک نقطه زمانی معین از فروشندگان مختلف خودروهای دست دوم و فروشندگان آنلاین دارم. ساخت، مدل، سال ساخت، قیمت (عوارض دیگری مانند شرایط و غیره وجود دارد، اما من مشکل را تا حدودی ساده کردم). دادهها دارای تعدادی پرت هستند. آیا می توان یک تبدیل قوی (برای روشن شدن، مقصودم از قوی مقاوم در برابر موارد پرت) انجام داد که توزیع اصلی مقادیر را حفظ کند، اما امکان مقایسه توزیع های احتمال (با میانگین / sds مختلف) را در مقیاس مشابه یا یکسان فراهم کند. [0،1]. همچنین اگر فرضیه ای داشتم که شاید توزیع قیمت ها در گذشته شکل دیگری داشته است. آیا روش معقولی برای ترکیب داده ها از ساخت و مدل های مختلف وجود دارد تا تخمین دقیق تری از شکل تابع توزیع بدست آوریم یا این کاملاً بی معنی است. البته من می توانم به صورت جداگانه همان مدل، مدل، سال ساخت را با هم مقایسه کنم، اما به تعداد زیادی از مقایسه ها نگاه می کنم. با تشکر از هر نظر یا پیشنهاد. | استانداردسازی قوی داده ها |
92696 | من یک ANCOVA با اندازه گیری های مکرر با «نمرات خلق و خو» به عنوان متغیر وابسته، «وضعیت تصویر» به عنوان متغیر مستقل، «BMI» به عنوان متغیر کمکی و «زمان» به عنوان اثر تصادفی انجام می دهم. و من میخواهم بدانم آیا «BMI» تغییرات «نمرات خلقوخوی» را در هر سه «شرایط تصویر» تعدیل میکند یا خیر. از این رو، من به دنبال یک اثر تعامل 3 طرفه (زمان × شرایط × BMI) برای این اثر تعدیل هستم. با این حال، من هیچ اثر متقابل سه طرفه ای پیدا نکردم، اما به جای آن یک اثر تعامل دو طرفه («BMI» × «شرط») یافت می شود. آیا کسی می تواند به من توضیح دهد که این اثر تعامل دو طرفه به چه معناست؟ و آیا تست بعدی وجود دارد که برای روشن شدن تعامل دو طرفه باید انجام دهم؟ خیلی ممنونم | تعدیل با استفاده از ANCOVA |
114907 | 1000 نفر انتخاب شدند، 200 پاسخ به عنوان داده در نظر گرفته شد. آیا این نماینده استرالیاست با وجود اینکه فقط در منطقه سیدنی است. آیا تصادفی است؟ | آیا مصاحبه با 200 نفر از دفترچه تلفن منطقه سیدنی تصادفی و نماینده همه استرالیایی هاست؟ |
79470 | من در حال حاضر در حال تلاش برای ایجاد یک خوشه DBSCAN با استفاده از یادگیری scikit در پایتون هستم. من می خواهم خروجی های مختلف را هنگام تغییر پارامتر اپسیلون برای انتخاب پارامتر اپسیلون مناسب مقایسه کنم. من مجموعه داده عنبیه را به عنوان مثال در نظر گرفتم. برای مقایسه خوشهها، به تلاش برای خوشهبندی با اپسیلون در محدوده (مثلا: 0.1، 0.2، ...، 1) فکر کردم. اکنون، وقتی یک kmeans یا یک خوشهبندی سلسله مراتبی را اجرا میکنم، میتوانم مقدار k خود را با بررسی آمار شکاف به عنوان مثال، یا با نگاه کردن به اینرسی و انتخاب یک k که برای آن یک «زانو» در نمودار اینرسی در مقابل k وجود دارد، انتخاب کنم. مشکل من این است که فرض میکنم این دیگر کار نخواهد کرد زیرا تعداد کل نقاط در همه خوشهها در DBSCAN ثابت نیست. در واقع، بسته به اپسیلون، تعداد نقاط طبقهبندینشده «نمونه پر سر و صدا» متفاوت خواهد بود. در نتیجه، من ممکن است فقط چند امتیاز برای یک اپسیلون کم داشته باشم، که در نتیجه یک اینرسی بسیار کوچک ایجاد می شود که ممکن است بایاس باشد. من می توانم آمار شکاف را در نظر بگیرم زیرا ممکن است هر بار بتوانم نمونه های تصادفی با اندازه مناسب تولید کنم. اما نمیدانم که آیا چارچوب اعتبار مقاله را ترک میکنم و مطمئن نیستم که خوشهبندیهای مختلف هنوز قابل مقایسه باشند. آیا کسی ایده ای در مورد نحوه مقایسه کلسترینگ اندازه های مختلف و به طور دقیق تر نتایج dbscan برای اپسیلون های مختلف دارد؟ آیا ضریب silhouette کار می کند یا اندازه کل نیز حساس است؟ همچنین، لطفاً کسی می تواند تگ 'dbscan' را ایجاد کند؟ من آبرو ندارم. با تشکر | نحوه مقایسه خوشه های dbscan / پارامتر epsilon را انتخاب کنید |
22200 | هنگام ایجاد یک مدل شبیه سازی مونت کارلو برای یک متغیر، یک مرحله مهم انتخاب توزیعی است که به بهترین وجه با چگالی احتمال متغیر مطابقت دارد. من به طور کلی این کار را با نگاه کردن به نمودار چگالی و تعیین اینکه کدام توزیع به بهترین شکل با شکل چگالی مطابقت دارد، انجام میدهم. برای مثال (بسیار لنگ)، این ... x <- rnorm(1000) نمودار(تراکم(x)) ... به نظر می رسد یک توزیع نرمال باشد (اما فقط به این دلیل که یک نمونه تصادفی از توزیع نرمال است). با این حال، هنگام برخورد با داده های دنیای واقعی، دشوار است که بدانید کدام یک از 17 توزیع داخلی شکل داده ها را به بهترین شکل نشان می دهد. برای مثال، این دادهها… دادهها <- c(6.515، 0.243، 0.725، 2.276، 1.456، 4.047، 0.766، 0.29، 2.368، 0.543، 2.223، 0.481، 0.5، 0.5 4.191، 0.414، 0.704، 4.917، 0.434، 0.773، 0.477، 3.257، 0.415، 1.921، 0.278، 3.159، 4.193، 0.13، 1.13، 0.193، 0.13 4.088، 0.468، 0.047، 2.204، 3.765، 0.168، 2.231، 0.164، 0.371، 2.33، 4.458، 0.046، 1.195، 1.206، 1.201، 1.714، 1.714 5.409، 0.466) نمودار(تراکم(داده))  … به نظر می رسد که می توان آن را با توزیع خی دو مدل کرد، اما می تواند همچنین توزیع گاما باشد. تنها راهی که پیدا کرده ام برای تناسب با بهترین نوع مدل این است که دسته ای از توزیع های ممکن مختلف را روی هم قرار دهم تا زمانی که یکی را ببینم که از نظر بصری مطابقت داشته باشد (یا نزدیک شود). اما مطمئناً یک روش عددی و رسمی تر برای انجام این کار وجود دارد، درست است؟ آیا روشی سیستماتیک، غیر بصری (و خودکار) برای یافتن بهترین توزیع برای یک متغیر معین وجود دارد؟ آیا تابعی در برخی از تابعهای R وجود دارد که از طریق توزیعهای مختلف اجرا میشود تا تناسب آنها را بررسی کند، یا به طرز وحشتناکی ناکارآمد است؟ | چگونه مناسب ترین توزیع را برای یک بردار معین در R انتخاب کنیم؟ |
92693 | من یک تحلیل میانجی ساده با استفاده از PROCESS (پیوست) انجام دادم. نتیجه همه معنی دار است اما مسیر b یا M -> Y منفی است. من جایی خوانده ام، ژائو و همکاران، که به این می گویند «میانجیگری رقابتی؟»، اما نمی دانم چگونه نتیجه را توضیح دهم یا تفسیر کنم. کسی می تواند این را توضیح دهد؟ متشکرم.    | توضیح میانجیگری رقابتی |
67801 | برای توزیع نرمال میانگین صفر دو متغیره $P(x_1,x_2)$، احتمال ربع به صورت $P(x_1>0,x_2>0)$ یا $P(x_1<0,x_2<0)$ تعریف می شود و با توجه به http://mathworld.wolfram.com/BivariateNormalDistribution.html $P(x_1>0,x_2>0) = \frac{1}{4}+\frac{sin^{-1}(\rho)}{2\pi}$، جایی که $\rho \equiv corr(x_1,x_2)$ آیا راه حل تحلیلی برای بالاتر وجود دارد احتمالات ابرکوادران بعدی؟ به عنوان مثال، برای $X\sim N(0_{N\times 1}،\Sigma_{N\times N})$، احتمال ابرکوادران به صورت $P(X>0)=P(x_1>0,x_2) تعریف میشود. >0,...,x_N>0)$ | احتمال ربع چند متغیره |
28178 | در تعریف مجموعههای معمولی مشترک (در «عناصر نظریه اطلاعات»، فصل 7.6، ص 195)، از $$-\frac{1}{n} \log{p(x^n)}$$ استفاده میکنیم. به عنوان **آنتروپی تجربی** یک دنباله $n$ با $p(x^n) = \prod_{i=1}^{n}{p(x_i)}$. من قبلاً با این اصطلاح آشنا نشده بودم. هیچ جا با توجه به نمایه کتاب به صراحت تعریف نشده است. سوال من اساسا این است: چرا آنتروپی تجربی $-\sum_{x}{\hat p (x) \log(\hat p(x))}$ نیست که $\hat p(x)$ توزیع تجربی است؟ جالب ترین تفاوت ها و شباهت های این دو فرمول چیست؟ (از نظر املاکی که به اشتراک می گذارند / مشترک نیستند). | آنتروپی تجربی چیست؟ |
652 | من این کتاب را خریدم: چگونه هر چیزی را اندازه گیری کنیم: یافتن ارزش دارایی های نامشهود در تجارت و تجزیه و تحلیل داده های اصلی: راهنمای یادگیرنده برای اعداد بزرگ، آمار و تصمیمات خوب چه کتاب های دیگری را پیشنهاد می کنید؟ | بهترین کتاب ها برای مقدمه ای بر تجزیه و تحلیل داده های آماری؟ |
79471 | من یک مجموعه داده $(y_i، \mathbf{X}_i)$ دارم، که $\mathbf{X}_i$ یک ماتریس $3 \times n$ واقعی است و $y_i$ مقداری در $\\{1 می گیرد، 2، 3 \\} دلار. در اصل، $y_i$ یک انتخاب از بردار ردیف $\mathbf{x}_{iy_i}$ را نشان می دهد. (یکی از راههای فکر کردن به این موضوع، انتخاب یک راس مثلث در ابعاد $n$ است.) من میخواهم یک روش کلی برای یادگیری $f پیدا کنم: \mathbb{N}^{m \times n} \rightarrow \ \{1، \dots، m\\}$ (که در مورد من $m = 3$) که همچنین به من امکان میدهد اهمیت ویژگی (وزن ابعاد) را برای هر یک از $n$ ویژگیهای نشاندادهشده در ستون های $\mathbf{X}_i$. این محدودیت آخر من را از محاسبه یک $p$-فاصله Minkowski بین هر رأس و استفاده از آن فواصل به عنوان ویژگی منع می کند. اولین ضربه من به این مشکل این بود که $\mathbf{X}_i$ را با مقداری دقت $p$, $\mathbf{X}^{(p)}_i$, s.t به ماتریسی از طبیعی ها نگاشت کردم. $x^{(p)}_{ijk} = \lfloor(10^p)x_{ijk}\rfloor$، و سپس به یک بردار منحصر به فرد $n$-dimensional $\mathbf{z}_i$، به عنوان مثال. با اعمال تابع جفت شدن Cantor در ستون های $\mathbf{X}^{(p)}_i$ به طوری که $z_{ij} = \langle\langle x^{(p)}_{ij1}, x^ {(p)}_{ij2}\rangle, x^{(p)}_{ij3}\rangle$. سپس از یک روش نظارت شده استفاده کردم، به عنوان مثال. یک جنگل تصادفی، برای یادگیری $g: \mathbb{N}^n \rightarrow \\{1, 2, 3\\}$. ایده اصلی در اینجا این است که هر $\mathbf{X}^{(p)}_i \in \mathbb{N}^{3 \times n}$ را به یک نقطه منحصر به فرد در ابعاد $n$ ترسیم کنید، سپس از آن ها نقشه برداری کنید. به دسته بندی (توزیع احتمالات روی) اشاره می کند. ویرایش: راه حل ممکن دیگر این است که فرض کنیم یک نقطه بعدی ($[m+1]^{th}$ برای حالت کلی) $n$ بعدی $\mathbf{z}$ وجود دارد و پارامتر(های) $ \phi$ توزیع روی رئوس مثلث از توزیعی ترسیم می شود که پارامترهای آن مقداری تابع $d$ از فاصله بین هر یک از رئوس است. $\mathbf{x}_{ij}$ و این نقطه چهارم ($[m+1]^{th}$). اهمیت ویژگی $\mathbf{w}$ را می توان در پارامتر فاصله به عنوان وزن اعمال شده برای هر بعد گنجاند: به عنوان مثال، اگر $d$ فاصله اقلیدسی $d(\mathbf{x}_{ij}، \mathbf{ باشد. z}) = \sqrt{\sum_{k=1}^n(x_{ijk} - z_k)^2}$ سپس فاصله وزنی $\mathbf{w}$-$d_{\mathbf{w}}(\mathbf{x}_{ij}, \mathbf{z}) = \sqrt{\sum_{k=1}^n است w_k(x_{ijk} - z_k)^2}$ برای مشخص بودن، اجازه دهید $\phi_{k(i)} \sim \mathrm{دیریکله}\left(d_{\mathbf{w}}(\mathbf{x}_{i1}، \mathbf{z})، \ldots، d_{\mathbf{w}}(\mathbf{x }_{im}، \mathbf{z})\right)$. از آنجایی که هر مثلث یکتایی دارای تعدادی انتخاب رئوس مرتبط با آن است، ما یک $\phi_{k(i)}$ برای همه نمونههای مثلث $k(i)$ (که $\mathbf{X}_i) ترسیم میکنیم. دلار یک است). اجازه دهید انتخابهای راس $\mathbf{y}_i \sim \mathrm{Categorical}(\phi_{k(i)})$. ما یک قبل از نمایی را روی هر $w_l \sim \mathrm{نمایی}(\alpha)$ و یک گاوسی چند متغیره را روی $\mathbf{z}_{k(i)} \sim \mathcal{N}(\frac) قرار میدهیم. {1}{m}\sum_{j=1}^m \mathbf{x}_{ij}، \mathrm{Cov}(\mathbf{X}_i))$. ما به وزنهای پسین $p(\mathbf{w}\;|\;\mathbf{y}، \mathbf{X}; \alpha) \propto p(\mathbf{w};\alpha) علاقهمندیم. \int \mathrm{d}\mathbf{z}\; p(\mathbf{z}\;|\;\mathbf{X}) \int \mathrm{d}\phi\; p(\mathbf{y}\;|\;\phi)p(\phi\;|\;\mathbf{z})$. با توجه به مزدوج دیریکله-چند جمله ای، عمیق ترین انتگرال را می توان به صورت تحلیلی حل کرد، اما من گمان می کنم انتگرال بیش از $\mathbf{z}$ به نیروی بی رحم نیاز دارد. وضوح بیشتر --- و در نتیجه، حسابداری کمتر --- را می توان با مشخص کردن این مدل بر حسب احتمال چند جمله ای به جای احتمال طبقه ای (زیرا می توانیم نیاز به تابع نمایه سازی $k()$) را حذف کنیم. | استنباط وزن ابعاد در یک نقشه برداری از یک مثلث به توزیع روی رئوس آن |
28173 | حداقل تعداد مشاهداتی که باید برای تعیین وابستگی برد بلند در نظر گرفته شود چقدر است؟ من سعی می کنم پارامتر هرست را با استفاده از روش R/S تخمین بزنم. من از SELFIS و همچنین R استفاده کرده ام. منطقاً، از آنجایی که ما به وابستگی _طولانی_ علاقه مندیم، باید مشاهدات _به اندازه کافی داشته باشیم. SELFIS قبل از اینکه بتواند تجزیه و تحلیل کند به حداقل 64 مقدار نیاز دارد. بنابراین، آیا این یک مقدار استاندارد است (یا مقدار استانداردی وجود دارد)؟ همچنین، برای روش «rsFit» بسته «fArma» در R، آیا پارامتر «levels» آن مقدار حداقل را نشان میدهد؟ | حداقل تعداد مشاهدات برای تعیین وابستگی برد بلند |
77527 | من تعاریف احتمالاً متناقضی را برای آمار اعتبار متقاطع (CV) و برای آمار اعتبار متقاطع تعمیم یافته (GCV) مرتبط با مدل خطی $Y = X\boldsymbol\beta + \boldsymbol\varepsilon$ (با یک خطای عادی و همسوداستیک پیدا کردم. بردار $\boldsymbol\varepsilon$). از یک طرف، Golub، Heath و Wahba تخمین GCV $\hat{\lambda}$ را به عنوان (ص. 216) تعریف میکنند > حداقلکننده $V\left(\lambda\right)$ توسط $$ V\left ارائه میشود. (\lambda\right) = > \frac{\frac{1}{n} \left\|\left(I - > A\left(\lambda\right)\right)y\right\|^2}{\left(\frac{1}{n} > \mathrm{tr}\left(I - A\left(\lambda\ راست)\راست)\راست)^2} $$ where > $A\left(\lambda\right) = X\left(X^T X + n\lambda I\right)^{-1} X^T$ روشن از سوی دیگر، افرون همان مفهوم را به عنوان $V\left(0\right)$ (ص 24) تعریف می کند، اما او معرفی این مفهوم را به Craven & Wahba نسبت می دهد، جایی که تعریف آن (ص. 377) اساساً این است. همانند تعریف گلوب، هیث و وهبا که در بالا ذکر شد. آیا این بدان معناست که $0$ $V\left(\lambda\right)$ را به حداقل می رساند؟ به طور مشابه، Golub، Heath و Wahba برآورد CV $\lambda$ (ص. 217) را به عنوان حداقلکننده $$ P\left(\lambda\right) = \frac{1}{n}\sum_{k= تعریف میکنند. 1}^n \left(\left[X \beta^{(k)}\left(\lambda\right)\right]_k - y_k\right)^2 $$ که $\beta^{\left(k\right)}\left(\lambda\right)$ تخمینی است $$ \hat{\beta}\left(\lambda\right) = \left(X^ T X + n \lambda I\right)^{-1} X^T y $$ از $\beta$ با $k$th نقطه داده $y_i$ حذف شده است. نویسندگان مقدمه تخمین CV (که تخمین PRESS نیز نامیده می شود) را به آلن نسبت می دهند (مطبوعات آلن، همانجا). \right)$ (در مقاله Efron به صورت $P\left(0\right)$ (ص 24) تعریف شده است). باز هم، آیا این بدان معناست که $0$ $P\left(\lambda\right)$ را به حداقل می رساند؟ * * * 1. آلن، دیوید ام. رابطه بین انتخاب متغیر و تلفیق داده ها و روشی برای پیش بینی. تکنومتریک، جلد. 16، شماره 1 (بهمن 1353)، صص 125-127 2. کریون، پیتر و وهبه، گریس. صاف کردن داده های پر سر و صدا با توابع Spline. Numerische Mathematik 31, (1979), pp. 377-403 3. Efron, Bradley. نرخ خطای ظاهری یک رگرسیون لجستیک تا چه حد مغرضانه است؟ گزارش فنی شماره 232. گروه آمار، دانشگاه استنفورد (آوریل 1985) 4. گلوب، ژن اچ، هیث و گریس وهبا. اعتبارسنجی متقاطع تعمیم یافته به عنوان روشی برای انتخاب پارامتر ریج خوب. تکنومتریک، جلد. 21، شماره 2 (اردیبهشت 1358)، صص 215-223 | آمار اعتبار متقاطع (CV) و اعتبار متقاطع تعمیم یافته (GCV). |
50847 | با توجه به یک فیلد تصادفی مارکوف $\mathcal{G} = (\mathcal{V},\mathcal{E})$، تابع چگالی مربوطه با $f(x) \propto \prod_{x\in\ بیان میشود. mathcal{V}} \psi_u(x) \prod_{(x_i,x_j)\in\mathcal{E}} \psi_p(x_i,x_j; \theta)$ که $\psi_u$ پتانسیل واحد و $\psi_p$ پتانسیل زوجی است. حال فرض کنید $\psi_u$ شناخته شده باشد، ساختار MRF و شکل عملکردی $\psi_p$ (که گاوسی است) نیز داده شده است، آیا روش کارآمدی برای تخمین فراپارامتر رایج $\theta$ برای همه وجود دارد. پتانسیل های جفتی MCMC گزینه خوبی است، با این حال، در مورد من بسیار گران است. من برخی از روشهای محاسبه نقطه تخمین $\theta$ را ترجیح میدهم. | یادگیری پارامتر میدان تصادفی مارکوف |
77522 | من سعی می کنم با استفاده از رگرسیون دو جمله ای منفی (GLM دو جمله ای منفی) مدلی ارائه کنم. من حجم نمونه نسبتا کوچکی دارم (بیشتر از 300) و داده ها مقیاس بندی نشده اند. من متوجه شدم که دو راه برای اندازه گیری خوبی وجود دارد - یکی انحراف و دیگری آمار پیرسون. چگونه می توانم تعیین کنم که از کدام معیار مناسب بودن استفاده کنم؟ آیا معیارهایی وجود دارد که بتوانم در انتخاب معیار مناسب بودن به آنها نگاهی بیندازم؟ | Deviance vs Pearson Good-of-fit |
55148 | برخی از آزمونهای آماری شناخته شده برای اندازهگیری خوبی برازش متغیرهای تصادفی مشاهدهشده با توزیع پواسون کدامند؟ من می دانم که آزمون کولموگروف- اسمیرنوف یکی از این تست هاست، آیا تست دیگری وجود دارد؟ با تشکر | حسن تناسب با توزیع پواسون |
73561 | من با نمره بیزی آشنا هستم که برای مقایسه ساختارهای رقیب یک BN استفاده می شود. با این حال، من در درک چگونگی استخراج فرمول امتیاز بیزی زیر مشکل دارم. **1)** توضیح شهودی امتیاز بیزی چیست؟ (به عنوان مثال، چگونه کسری در عملگرهای محصول برابر با $P(D|B_S)$ است) **2)** چه نوع ساختارهایی را ترجیح می دهد؟ (به عنوان مثال، اتصال بیشتر/کمتر، تعداد بیشتر/کمتر از والدین، و غیره) **زمینه:** امتیاز بیزی یک ساختار BN، $B_S$، برای یک مجموعه داده، $D$، برای محاسبه مشترک استفاده می شود. احتمال $P(B_S,D)$. برای یک شبکه گسسته (پس از برخی فرضیات*)، به صورت زیر داده می شود: $$P(B_S,D) = P(B_S)\prod_{i=0}^n\prod_{j=1}^{qi} \ frac{\Gamma(N'_{ij})}{\Gamma(N'_{ij} + N_{ij})} \prod_{k=1}^{ri} \frac{\Gamma(N'_{ijk} + N_{ijk})}{\Gamma(N'_{ijk})} $$ * $\Gamma()$ تابع گاما است. در بالا، از آنجایی که همه شمارش ها اعداد صحیح مثبت هستند، $\Gamma(int) = (int-1)!$ * $P(B_S)$ مقدم بر ساختار شبکه است (در بسیاری از نسخه های بیزی یکنواخت/غیر اطلاعاتی در نظر گرفته شده است. امتیاز) * $xi$ یک گره در شبکه با $n$ گره است. * $ri (1 ≤ i ≤ n)$ اصلی بودن $xi$ است. * $qi$ نشاندهنده اصلی بودن مجموعه والد $xi$ است، یعنی تعداد مقادیر مختلفی که والدین xi، $pa(xi)$ میتوانند به آنها نمونهسازی شوند. * $N_{ij} (1 ≤ i ≤ n، 1 ≤ j ≤ qi)$ نشان دهنده تعداد رکوردهایی در $D$ است که $pa(xi)$ مقدار $j$th آن را می گیرد. * $N_{ijk} (1 ≤ i ≤ n، 1 ≤ j ≤ qi، 1 ≤ k ≤ ri)$ نشان دهنده تعداد رکوردهایی در $D$ است که $pa(xi)$ مقدار $j$th آن را می گیرد. و $xi$ ارزش k$th آن را می گیرد. بنابراین، $N_{ij} = \sum_{k=1}^{ri} N_{ijk}$. * $N′_{ij}$ و $N′_{ijk}$ نشان دهنده انتخاب های قبلی در تعداد محدود شده توسط $N'_{ij} = \sum_{k=1}^{ri} N'_{ijk }$. *فهرست مفروضات: 1 - نمونه چند جمله ای. 2- پارامتر استقلال; 3- مدولار بودن پارامتر; 4 - دیریکله; 5- اطلاعات کامل | توضیح شهودی نمره بیزی چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.