_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
49977
من فهرستی از فایل‌ها را دارم که بر روی آن روش‌های آماری را اجرا می‌کنم تا امتیازی بین 0 و 1 کسب کنم. اکنون باید فایل‌ها را برای شباهت‌ها دسته‌بندی کنم. ساده ترین روشی که فکر می کردم این است که از مقدار متوسط ​​رتبه بندی و خوشه با n*sigma استفاده کنم. بنابراین بزرگترین قسمت همه فایل ها در محدوده «[avg-sigma, avg+sigma]» خواهد بود، سپس قسمت بعدی «(avg+sigma، avg + 2*sigma]» و غیره خواهد بود... مشکل این است که اگر مقادیر بسیار گسترده باشند و دارای توزیع بسیار نزدیک به یک دامنه باشند، خوشه بندی خیلی خوب نخواهد بود، به عنوان مثال، یک مقدار 0.9 به من میانگین 0.1 می دهد اما میانه 0.01 ... بنابراین یک مشکل معمولی در اینجا ... حالا فکر می کنم بهتر است از میانه به عنوان نقطه شروع استفاده کنم اما آیا می توانم از انحراف استاندارد برای محاسبه خوشه های خود استفاده کنم؟ آیا روش بهتری از StdDev برای ایجاد خوشه ها وجود دارد؟
به جای مقدار متوسط، از میانه برای خوشه بندی استفاده کنید
45074
من علاقه مند به محاسبه مقدار مورد انتظار متغیر تصادفی زیر $Y$ هستم. اجازه دهید $X$ یا $\mathrm{Bin}(p,N)$ یا $\mathrm{Hyp}(n,m,N)$ با $m$ تعداد موفقیت باشد (من به هر دو اثبات علاقه دارم ). آیا راهی برای محاسبه **مقدار مورد انتظار** $$ Y = X \log X $$ وجود دارد که من سعی کردم تابع تولید لحظه را طی کنم اما هنوز به نتیجه ای نرسیدم.
مقدار مورد انتظار یک متغیر تصادفی تبدیل شده
10421
اخیراً من الگوریتم‌های EM را برای تخمین MAP در مسئله‌ای کار کرده‌ام که انتظارات غیرقابل حل است، اما حداکثر کردن آن آسان است. علاوه بر این، نقشه‌های توزیع در مرحله E به راحتی از طریق MCMC در دسترس هستند، بنابراین من با نسخه‌های تصادفی EM آزمایش کرده‌ام. اجازه دهید $X$ داده مشاهده شده باشد، $Z$ داده گمشده و $\Theta$ پارامترهایی باشد که باید تخمین زده شوند. من از $\Theta_t$ برای برآورد فعلی $\Theta$ استفاده خواهم کرد. من به طور خاص به تقریب تصادفی EM و مونت کارلو EM نگاه کرده‌ام که گام E را به این صورت تخمین می‌زنند: 1) MCEM: تابع $Q$ با میانگین $m_t$ MC قرعه کشی $\hat Q(\Theta; \Theta_t) = \frac{1}{m_t}\sum_{i=1}^{m_t}\log(p(X,Z_i|\Theta)$ که $Z_i$ از $p(Z|X,\Theta_t)$ گرفته شده است 2) SAEM: $\hat Q(\Theta; \Theta_t) = \gamma_t \hat Q(\Theta; \Theta_{t_1}) + (1-\gamma_t)\frac{1}{m_t}\sum_{i=1}^{m_t}\log(p(X,Z_i|\Theta)$. در زمینه خانواده‌های نمایی، این به معنای استفاده از میانگین وزنی آمارهای کافی جدید و قدیمی در هر مرحله، در مقایسه با MCEM که میانگین کاملاً جدیدی را می گیرد (یعنی $\gamma_t=0$) هر دو دارای گام M یکسانی هستند، با $\Theta_{t+1}$ برای به حداکثر رساندن تابع تقریبی $Q$ انتخاب شده است. و درک من این است که همگرایی (از لحاظ نظری) بی‌تأثیر است زیرا $\Theta_t$ به یک نقطه ثابت با شرایط مناسب در $m_t$ همگرا می‌شوند. و $\gamma_t$. آنچه من به دنبال آن هستم توصیه های عملی تر است، زیرا میانگین گیری خیلی زود باعث سوگیری تخمین های (نمونه محدود) می شود و میانگین گیری خیلی دیر اتلاف است. همچنین سوال مربوط به ارزیابی همگرایی; اگر معیارهای همگرایی مانند $|\Theta_t - \Theta_{t-1}| را در نظر بگیریم \leq \epsilon$ آیا باید تفاوت بین دو تخمین _میانگین_ گرفته شود؟ (من می دانم که بهترین معیار نیست، اما بسیار آسان است :))
برآوردگرهای میانگین در نسخه های تصادفی EM
48089
من دو بردار $a$، $b$ دارم که هر کدام حاوی اعداد تصادفی $10$ از توزیع های نرمال استاندارد هستند. من می خواهم بردار دیگری $C$ از اعداد $10$ را از توزیع استاندارد ایجاد کنم که در آن $\mathbb{E}(a\cdot C)=\mathbb{E}(b\cdot C)=0$ (متعامد) $\mathbb{E}$ انتظار است.
نحوه تولید بردار متعامد
45071
فقط به این دلیل که در اوقات فراغت خود در مورد این نوع چیزها متعجب هستم، می‌پرسیدم که آیا داده‌ای وجود دارد که 1Gig+ است که 0 افزونگی آماری داشته باشد؟ (یعنی غیر قابل فشرده سازی با فشرده سازی بدون اتلاف.) آیا حتی ممکن است فایلی بزرگتر از چند بایت چنین ویژگی داشته باشد؟ آیا این خاصیت اصلاً ممکن است یا صرفاً نظری است؟ به هر حال، لطفاً به من اطلاع دهید که آیا چنین چیزی امکان پذیر است، و در صورت امکان، لطفاً من را به مکانی پیوند دهید که بتوانم چنین اطلاعاتی را مشاهده کنم. گوگل چیزی به من نداد. ممکن است صفحه ویکی‌پدیا درباره افزونگی آماری را نیز شامل شود: en.wikipedia.org/wiki/Redundancy (نظریه اطلاعات)
آیا محدودیت عملی برای اندازه یک قطعه داده با افزونگی آماری 0 وجود دارد؟
68704
من در مورد اجرای شبکه عصبی خود تردیدهایی دارم. من 750 ویژگی و 98 خروجی دارم. من تعداد نمونه ها = 5000 است. اکنون از اعتبارسنجی متقاطع برای انتخاب تعداد نورون ها در لایه پنهان (1 لایه پنهان) استفاده کردم. من از اعتبارسنجی متقاطع 10 برابری استفاده کردم. من این تعداد نورون = 30 را دریافت کردم که بهترین عملکرد را داشتند که به نوعی عجیب است. نمی توانستم توضیح دهم اینجا چه خبر است. هر گونه ایده / پیشنهاد؟ چگونه فقط 30 نورون می‌توانند با چنین داده‌هایی با ابعاد بالا بهتر عمل کنند، من از فعال‌سازی tansig برای لایه پنهان و logsig برای خروجی استفاده کردم. خروجی های مورد استفاده برای آموزش در محدوده [01] مقیاس بندی شدند. ورودی ها با میانگین صفر و واریانس واحد استاندارد شده اند.
مشکل با نورون های لایه پنهان در شبکه عصبی
26906
من به برخی از داده ها با 5 عامل و یک متغیر پاسخ نگاه می کنم. این آزمایش به صورت آزمایش فاکتوریل با مشاهدات در سطوح مختلف هر عامل طراحی شد. با این حال، چیزی که من به آن توجه کرده‌ام این است که مقداری تغییر در قرائت‌های سطوح عامل وجود دارد. به عنوان مثال، RPM موتور یک متغیر است و قرار بود خوانش ها در 800 RPM، 1000 RPM و 1200 RPM ثبت شوند. آزمایش‌کنندگان توانستند RPM را در این سطوح برای آزمایش تنظیم کنند. یک مانیتور RPM وجود دارد که RPM را در طول آزمایش پیگیری می کند و همراه با داده ها ثبت می شود. با این حال، با نگاه کردن به داده ها، می بینیم که تغییرات جزئی وجود دارد. به عنوان مثال، وقتی روی 800 RPM تنظیم می شود، خوانش هایی داریم که بین 790 تا 810 RPM است. این برای هر پنج متغیر عامل ما رخ می دهد. متغیر RPM ناچیز است، اما برخی از عوامل بیش از 15 درصد از سطح عامل مورد نظر تغییر می کنند. این ممکن است به دلیل برخی خطاها در خوانش تجهیزات نظارت باشد. سوال من این است که آیا می توانم تغییرپذیری در سطوح عاملی را نادیده بگیرم و فرض کنم که مشاهدات را در آن سطوح عاملی می خوانیم یا می توانم هنگام انجام تحلیل، متغیر سطح عامل را در نظر بگیرم؟
طراحی آزمایشی: وقتی عوامل را نمی توان در سطوح ثابت نگه داشت چه باید کرد؟
48080
من می خواهم بدانم که آیا می توانم از آزمون t-test یا آزمون معادل ناپارامتریک در زمانی که سال ها به عنوان مشاهدات دارم استفاده کنم؟ فرض کنید می‌خواهم سطوح سودآوری دو شرکت را با هم مقایسه کنم و داده‌های سود دهی بیش از 10 سال برای هر یک از شرکت‌ها دارم. فکر می‌کردم می‌توانم از شرکت به‌گونه‌ای استفاده کنم که گویی یک درمان است (یعنی شرکت A یا غیرشرکت A)، و از سال‌ها به عنوان مورد استفاده کنم. با این حال، من می ترسم که این ممکن است مشکلات وابستگی ایجاد کند، زیرا مشاهدات در طول زمان احتمالاً مستقل نیستند، مثلاً بیمارانی که به طور تصادفی از یک جمعیت گرفته می شوند. من بسیار قدردان هر گونه کمکی هستم و خوشحال می شوم در صورت نیاز توضیحات تکمیلی را ارائه دهم.
تست تی زمانی که مشاهدات سال هستند
15379
من و دوستم می خواهیم یک آموزش عملی در مورد قضیه بیز برای گروه سیاتل LessWrong انجام دهیم. هیچ‌یک از ما قبلاً این کار را انجام نداده‌ایم، بنابراین به دنبال هنر قبلی هستیم. تکنیک‌هایی که افراد دیگر قبلاً امتحان کرده‌اند و توضیحاتی در مورد اینکه چگونه به نتیجه رسیده‌اند. تکنیک ها و منابع خوبی برای آموزش قضیه بیز چیست؟ گزارش‌های موفقیت‌ها و شکست‌ها مفید هستند، می‌خواهم بدانم علاوه بر کارهایی که باید انجام دهم، چه کاری باید انجام دهم. مخاطبان گروهی متشکل از 8 نفر از برنامه نویسان و دانشجویان علوم طبیعی هستند. آنها باهوش و توانا خواهند بود اما لزوماً به انجام ریاضیات زیاد عادت ندارند.
تکنیک ها و منابع خوبی برای آموزش قضیه بیز چیست؟
49970
من روی پروژه‌ای کار می‌کنم که باید توازن حجم کاری را انجام دهم و برای اینکه ببینم رویکرد من چقدر خوب کار می‌کند، می‌خواهم میانگین زمان بین درخواست‌ها برای حجم کاری و میانگین زمان برای حجم کاری درخواستی را محاسبه کنم. به دست آمده است. اینجا چیزی است که مرا آزار می دهد. داده‌های من شامل فهرستی از فواصل زمانی است (به عنوان مثال، 0.4 ثانیه، 1.3 ثانیه، و غیره). از این داده‌ها، می‌توانم نرخ متوسطی را که یک رویداد در آن اتفاق می‌افتد، با در نظر گرفتن _متقابل_ هر بازه زمانی برای تبدیل آن به نرخ آنی و میانگین‌گیری بیش از آن محاسبه کنم، یا می‌توانم متوسط ​​دوره را با میانگین‌گیری مستقیم بر روی آن محاسبه کنم. داده های بازه زمانی انجام اولی معادل محاسبه میانگین هارمونیک داده ها است و انجام دومی مستلزم محاسبه میانگین حسابی داده ها است، بنابراین دو تحلیل نتایج متفاوتی به دست می آورند. چیزی که من را گیج می‌کند این است که، اگرچه این دو به معنای نتایج متفاوتی می‌گیرند، یک نرخ برابر با معکوس یک دوره است، و بنابراین به نظر می‌رسد که این دو نتیجه باید از طریق متقابل به هم مرتبط باشند، اگرچه اینطور نیست. گزینه دیگری که من دارم این است که از میانگین هندسی استفاده کنم که نتایج ثابتی را برای نرخ و دوره به دست می آورد (از آنجایی که حرکت متقابل با ریشه کردن جابجا می شود)، اما درک محدود من می گوید که باید از میانگین هندسی فقط در مواردی استفاده کرد که شما در نظر گرفتن میانگین چیزی مانند نرخ رشد. بنابراین به طور خلاصه، برای من روشن نیست که کدام یک از این معانی --- هارمونیک، حسابی، هندسی، یا چیزی کاملاً متفاوت --- باید در این موقعیت استفاده شود. هر گونه بینش قدردانی خواهد شد.
نرخ متوسط ​​در مقابل دوره متوسط
45073
من لیستی از نمرات از مکان های مختلف در امتحانات مختلف در زیر دارم. چگونه می توانم آزمون ها و نمرات مختلف را با هم مقایسه کنم تا نشان دهم کدام مکان از همه بهتر است؟ اگر کسی بتواند نوع آزمایشی را که باید انجام شود و چرا باید اطلاع دهد، واقعاً کمک خواهد کرد. من ابتدا فکر کردم از آزمون رتبه بندی علامت دار Wilcoxon استفاده کنم، اما داده ها به صورت جفت نیستند. انگلیسی AP CalcBC AP PhyscsB AP Chem AP Econ City امتیاز رتبه رتبه امتیاز امتیاز رتبه رتبه امتیاز امتیاز رتبه (پکن) 6 36.33 4 39.14 1 35.54 1 47.94 3 46.55 (Hefei) 5.2313.6 5.2313 8 27.83 8 30.52 (Hexi) na na 8 33.04 na na 6 37.7 7 32.46 (Huzhou) 4 39.06 1 45.47 na na na na na (Jiangyin) 9 29.9 9 30.347572 (جینان) 1 47.72 6 37.2 3 28.91 3 41.55 2 47.94 (نانتانگ) 3 39.67 5 38.45 2 32.59 5 38.9 4 45.05 (شانگهای) 24.24.41. 5 43.86 (سوژو) 8 30.19 10 27.5 7 21.75 9 26 9 19.87 (یانگژو) 2 43.59 2 40.45 4 26.7 4 41.45 1 50.75 9 26.73 (Yangzhou) 2 43.59 8 21.48 10 24.7 na na
چگونه می توانم بگویم کدام مکان بهترین است؟
24221
من یک ماتریس _n توسط p_ دارم، که در آن _n_ ژن و _p_ بیماران است. هر کسی که با چنین داده هایی کار کرده است می داند که _n_ همیشه بزرگتر از _p_ است. با استفاده از انتخاب ویژگی، _n_ را به عدد معقول تری رساندم، با این حال _n_ هنوز از _p_ بزرگتر است. من می خواهم شباهت بیماران را بر اساس مشخصات ژنتیکی آنها محاسبه کنم. من می توانم از فاصله اقلیدسی استفاده کنم، اما Mahalanobis مناسب تر به نظر می رسد زیرا همبستگی بین متغیرها را به حساب می آورد. مشکل (همانطور که در این پست ذکر شد) این است که فاصله Mahalanobis، به ویژه ماتریس کوواریانس، زمانی که _n_ > _p_ کار نمی کند. وقتی فاصله Mahalanobis را در R اجرا می کنم، خطایی که دریافت می کنم این است: > خطا در solve.default(cov, ...) : سیستم از نظر محاسباتی مفرد است: > شماره شرط متقابل = 2.81408e-21 تا کنون برای حل این مشکل، من من از PCA استفاده کرده‌ام و به جای استفاده از ژن‌ها، از مؤلفه‌ها استفاده می‌کنم و به نظر می‌رسد این به من اجازه می‌دهد تا فاصله Mahalanobis را محاسبه کنم. 5 مولفه حدود 80 درصد واریانس را نشان می دهند، بنابراین اکنون _n_ < _p_. **سوالات من این است:** آیا می توانم از PCA برای بدست آوردن معنی دار فاصله Mahalanobis بین بیماران استفاده کنم یا نامناسب است؟ آیا معیارهای فاصله جایگزینی وجود دارد که وقتی _n_ > _p_ کار می کند و همچنین همبستگی زیادی بین _n_ وجود دارد؟
فاصله ماهالانوبیس وقتی n>p
49978
من یک مدل رگرسیون لجستیک به شرح زیر ایجاد می کنم. متغیر وابسته نتیجه یک بازی (برد/باخت) و متغیر مستقل درجه MOON در روز مسابقه است. بنابراین وقتی من یک مسابقه را می‌گیرم، مقدار ماه را بر حسب درجه (1 تا 360) دریافت می‌کنم. من احساس می کنم که درجه فقط اندازه گیری از یک خط ثابت نقطه مرجع است و از این رو باید موقعیت ماه را به عنوان یک متغیر طبقه بندی با تقسیم 360 درجه به گروه ها و توجه به گروهی که ماه در طول مسابقه در آن وجود داشته است در نظر بگیرم. بنابراین من درجه ها را به 12 گروه 30 درجه ای (بر اساس علامت خورشید) تقسیم کردم و موقعیت ماه را یادداشت کردم. درست میگم؟ آیا هنوز هم می توانم کل 360 درجه را به 27 بخش (تقسیمات 83 یا 249) تقسیم کنم تا اطلاعات دقیق را بدست بیاورم؟ آیا می توانم 27 یا 83 نتیجه ممکن برای یک متغیر طبقه بندی داشته باشم؟ در صورت نیاز به توضیح بیشتر سوالم را به من اطلاع دهید. در حال حاضر من یک نمونه از 900 ورودی دارم.
متغیر مستقل طبقه بندی و رگرسیون لجستیک
48081
الگوریتم‌های اصلی یادگیری تحت نظارت برای طبقه‌بندی (بیش از 2 کلاس) که باید ابتدا وقتی در آن حوزه مبتدی هستیم یاد بگیریم، چیست؟ اگر بتوانید برای الگوریتم‌هایی که در اینجا پیشنهاد می‌کنید، آموزش‌های آسان و قابل درک نیز ارائه دهید، خوب است.
الگوریتم های یادگیری نظارت شده برای طبقه بندی، که ابتدا باید آنها را بخوانیم
79074
من بسته رسمی MNP را در R اجرا کردم، مانند زیر. داده (ژاپن) res <- mnp(cbind(LDP، NFP، SKG، JCP) ~ جنسیت + تحصیلات + سن، داده = ژاپن، n.draws = 10000، verbose = TRUE) خلاصه (res) و نتیجه ضرایب بود: معنی std.dev. 2.5% 97.5% (مقاطع):LDP 0.615184 0.517157 -0.386151 1.6 (Intercept):NFP 0.689753 0.568109 -0.419521 1.79 (Intercept): SK34956 -0.758883 1.02 جنسیت:LDP 0.099748 0.152323 -0.194786 0.40 جنس نر:NFP 0.216824 0.166103 -0.102108 0.5323G6410. -0.127145 0.40 آموزش:LDP -0.107038 0.074792 -0.253483 0.04 آموزش:NFP -0.107222 0.082324 -0.270127 0.05 آموزش: SKG 0.056 -0.003 -28349 از سن 0.13:LDP 0.013518 0.006122 0.001492 0.03 سن:NFP 0.006948 0.006783 -0.006572 0.02 سن: SKG 0.009653 0.009653 0.009653 0.009654 0.005 0.006948 0.005 - 0.006 چگونه می توانم مقدار میانگین بین زن و LDP/NFP/SKG را بدانم؟ گزینه دیگری برای جنسیت وجود دارد. زن، اما در نتیجه با مقدار میانگین ظاهر نمی شود.
پروبیت چند جمله ای در R
48086
من می خواهم یک سری زمانی از احتمالات خودهمبسته (با سطح میانگین از پیش تعریف شده همبستگی) تولید کنم. من این و این را دیدم که فکر می کنم باید چیزی را که به دنبالش هستم به من بدهد، اما نمی توانم به آنها دسترسی پیدا کنم. اگر کسی بتواند در مورد این روش مجموع یونیفرم ها به من اشاره کند، متشکرم. با تشکر فراوان.
الگوریتمی برای تولید عدد توزیع شده یکنواخت همبسته خودکار
58465
سلام من این خروجی را از خلاصه R یک lm دریافت می کنم: lm(فرمول = وزن.nz ~ dChgs.nz) باقیمانده ها: Min 1Q Median 3Q Max -15373.7 -664.4 243.3 1104.2 9137.2 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 1.853e+00 2.141e+01 0.087 0.931 dChgs.nz 7.036e+07 5.841e+06 12.046 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 1814 در 7464 درجه آزادی چندگانه R-squared: 0.01907، R-squared تنظیم شده: 0.0-0.0 آمار: 145.1 در 1 و 7464 DF، p-value: < 2.2e-16 فکر می‌کنم p کوچک نشان‌دهنده اهمیت است، اما r2 کوچک است - بنابراین معنی‌دار نیست. من در مورد مشکلات r2 در سؤالات دیگر در این موضوع خوانده ام که پیشنهاد می کند از stdError به عنوان راهنما استفاده کنم، اما مطمئن نیستم که چگونه آن را تفسیر کنم. چگونه از 1814 استفاده کنم تا به من بگویم آیا نتیجه من قابل توجه است یا خیر؟
آیا این رگرسیون قابل توجه است؟
28573
فاکتوریل $2^6$ را در 8 بلوک 8 تایی با ABCD، ACE و ABEF به عنوان جلوه‌های مستقل انتخاب شده برای مخلوط شدن با بلوک‌ها در نظر بگیرید. طراحی ایجاد کنید. اثر دیگر گیج کننده را پیدا کنید. من می توانم قسمت دوم سوال را حل کنم. من راه حل قسمت اول را در کتابچه راهنمای راه حل ها (سؤال 7-11) برای کتاب درسی مونتگومری در مورد طراحی و تجزیه و تحلیل تجربیات (Wiley, 2001) پیدا کردم، اما نتوانستم این جدول را بفهمم. من می خواهم یکی این جدول را توضیح دهد. اگر تعداد بلوک ها را تغییر دهیم، چگونه طرح را می سازیم؟
مسدود کردن و مخدوش کردن در طراحی فاکتوریل 2^k$ تکراری
59594
من اخیراً به عنوان بخشی از پروژه کارشناسی خود در دانشگاهم یک آزمون انتخاب اجباری دو جایگزین انجام داده ام. من به روش‌هایی نگاه کرده‌ام که بتوانم چیزی را با اهمیت در مورد کدام تصاویر بگویم (به شرکت‌کنندگان در آزمون مجموعه‌ای از 4 جفت تصویر داده شد، برای هر جفت آنها باید یکی را انتخاب کنند). در حالی که در تحصیلات من بر تست زدن تاکید شده است، من دانش کافی در مورد تجزیه و تحلیل نتایجی که اکنون دارم ندارم. چگونه می توانم چیزی مهم در مورد متغیرهای مستقلی که در حال دستکاری آنها هستم (در سناریوهای جداگانه) کشف کنم؟ آیا رگرسیون لجستیک چیزی است که بتوانم از آن استفاده کنم یا آیا روش هایی وجود دارد که برای افرادی که فقط یک دوره آماری داشته اند قابل درک باشند؟ **داده‌ها (و ویرایش‌های مربوط به داده‌ها)**: داده‌ها شامل ردیف‌هایی از شرکت‌کنندگان در آزمون و چهار ستون است که به‌عنوان جفت تصویر نام‌گذاری شده‌اند که شرکت‌کنندگان بین آنها انتخاب می‌کردند. مقادیر انتخاب شرکت کنندگان در آزمون است (بین دو تصویر در جفت) من چهار متغیر مستقل دارم، سه تای آنها مقیاس و یک اسمی که به ترتیب در چهار سناریو تغییر می‌دهم. هر سناریو دارای مسیرهایی است که «به‌طور تصادفی» انتخاب می‌شوند (بسته به آخرین عدد در ساعت دیجیتال شرکت‌کننده آزمون، مثلاً اگر ساعت 13:37 باشد، شرکت‌کننده آزمون مسیر 7 را طی می‌کند). دلیل این مسیرها، جزئیات پیاده‌سازی در فرم‌های Google است که اجازه می‌دهد همه ترکیب‌های جفت تصویر ارائه شوند، اما نه همه آنها برای هر شرکت‌کننده در آزمون. من می خواهم مدلی برای دستیابی به احتمال بالای یک نتیجه از متغیر باینری وابسته پیدا کنم. * IV: مقدار، گسترش، اشیاء تفاوت، مدل قرارگیری (اسمی) * DV: تصویر انتخاب شده یا خیر. e.i. اگر می‌خواهم پاسخ‌های احتمالی YES/1/ACCEPT/و غیره را داشته باشم (به سؤال دودویی: آیا محیط مجازی به نظر می‌رسد که نسبت به تصویر دیگر در این جفت تصویر مسکونی بیشتر است؟). به یک تصویر، نسبت بین متغیرهای مستقل چه نیازی است؟ در اینجا یک پیوند یک کپی از صفحه گسترده حاوی داده ها است. https://docs.google.com/spreadsheet/ccc?key=0Am7BMwlOEiUNdGJhNU1uQlg5QUtxYW1ZNHhfUHlqS1E&usp=sharing
چگونه یک آزمون انتخاب اجباری دو گزینه ای را تجزیه و تحلیل کنم؟
2819
من مقادیر p را از بسیاری از آزمایش‌ها دارم و می‌خواهم بدانم که آیا واقعاً بعد از تصحیح آزمایش‌های چندگانه چیز مهمی وجود دارد یا خیر. عارضه: آزمایشات من مستقل نیستند. روشی که من به آن فکر می کنم (نوعی از روش محصول فیشر، زایکین و همکاران، ژنت اپیدمیول، 2002) به همبستگی بین مقادیر p نیاز دارد. برای تخمین این همبستگی، من در حال حاضر به موارد راه‌اندازی، اجرای تحلیل‌ها و همبستگی بردارهای حاصل از مقادیر p فکر می‌کنم. آیا کسی ایده بهتری دارد؟ یا حتی ایده بهتری برای مشکل اصلی من (تصحیح برای تست های متعدد در تست های همبسته)؟ سابقه و هدف: من از نظر لجستیکی در حال پسرفت هستم که آیا آزمودنی‌های من از یک بیماری خاص در برهمکنش بین ژنوتیپ (AA، Aa یا aa) و یک متغیر کمکی رنج می‌برند یا خیر. با این حال، ژنوتیپ در واقع تعداد زیادی (30-250) از پلی‌مورفیسم‌های تک نوکلئوتیدی (SNPs) است که مطمئناً مستقل نیستند اما در عدم تعادل پیوندی هستند.
تصحیح مقادیر p برای تست های متعدد که در آن تست ها همبستگی دارند (ژنتیک)
68705
فرض کنید دو متغیر مستقل و یک متغیر پاسخ داریم، می‌توانیم سه مدل مختلف را برازش کنیم: \begin{align*} Y &= \beta_{00} + \beta_{10} X_1 + \epsilon \\\ Y &= \beta_ {01} + \beta_{20} X_2 + \epsilon \\\ Y &= \beta_{02} + \beta_{11} X_1 + \beta_{21} X_2 + \epsilon \end{align*} هنگامی که $X_1$ و $X_2$ همبستگی دارند، می‌دانیم که تخمین $b_{10}$ برابر با $b_{11}$ نخواهد بود و به همین ترتیب $b_{20}$ برابر با $b_{21}$ نخواهد بود. اما دقیقاً چه روابطی بین این چهار تخمین وجود دارد؟ در مورد p-values ​​چطور؟ به ویژه، اگر $X_1$ بسیار با X_2$$ همبستگی داشته باشد، از نظر تجربه و شهود من تمایل دارم که $b_{10}$ و $b_{20}$ و مقادیر p آنها را کاملاً نزدیک به یکدیگر ببینم. آیا فرمولی برای حمایت از این مشاهده وجود دارد؟
رابطه شیب های پیش بینی کننده ها زمانی که در رگرسیون خطی همبستگی دارند
44304
من یک نمونه با 400 مورد دارم. هنگامی که من مدل کامل خود را که شامل 13 پیش بینی کننده است اجرا می کنم، اصطلاح تعامل غیر قابل توجه است. با این حال، زمانی که من مدلی را اجرا می کنم که فقط شامل سه متغیر درگیر در تعامل است (دو اثر اصلی + اثر متقابل)، اثر متقابل قابل توجه است. من مشکل را به یکی از IV های دیگر در مدل کامل ردیابی کرده ام، که با یکی از آیتم های عبارت تعامل (r=.75) بسیار همبستگی دارد، اگرچه تست های همخطی نشان می دهد که هیچ مشکلی با چند خطی وجود ندارد. هر دو آیتم های موجود در اصطلاح تعامل و موردی که همبستگی بالایی دارد مقیاس های ترکیبی هستند که هر کدام از چهار تا نه ماده تشکیل شده است. سوال من این است: وقتی نتایج حاصل از تحلیل هایم را گزارش می کنم، فرضیه ای در مورد تعامل دارم. آیا صحبت در مورد اثرات متقابل قابل توجهی که در غیاب کنترل این IV دیگر وجود دارد، درست است، که اگرچه از نظر تئوری مهم نیست، هنوز مهم است که در رگرسیون ها گنجانده شود. اگر چنین است، چگونه گنجاندن را توجیه کنم؟
رگرسیون OLS: اثر متقابل به خودی خود قابل توجه است، نه زمانی که در مدل کامل گنجانده شود - خوب برای گزارش؟
115320
پیشاپیش از کمک متشکرم من در حال خواندن یک گزارش فنی در مورد یک الگوریتم رگرسیون هستم که یک جفت توابع را به عنوان دارای درجه آزادی کل 5.4 گزارش می کند. من معتقدم که هر دوی این توابع spline هستند، اما مستقیماً در گزارش مشخص نشده است (آنها نمودار شده اند اما توابع صریح داده نشده اند \ آنها همچنین می توانند چند جمله ای باشند). چگونه ممکن است یک تابع یا مجموعه ای از توابع دارای درجه آزادی کلی باشد که یک عدد کامل نیست؟ تابع مثالی که این رفتار را نشان می دهد چیست؟
چه نوع توابعی می توانند درجات غیر کامل داشته باشند؟
29489
یک معیار همبستگی معنی دار برای مطالعه رابطه بین این دو نوع متغیر چیست؟ در R، چگونه این کار را انجام دهیم؟ خیلی ممنون
چگونه می توانم همبستگی بین یک متغیر پیوسته و یک متغیر طبقه ای را مطالعه کنم؟
29486
من فکر می‌کنم فراتحلیل روشی عالی برای بررسی یک فرضیه است، زمانی که شواهد موجود ناهمگن هستند. با این حال، معمولاً هنگام انجام یک متاآنالیز، داده های جمع آوری شده را در یک مدل قرار می دهیم و احتمالاً اطلاعات را از دست می دهیم. بنابراین، در حال بررسی جمع‌آوری داده‌هایی از تحقیقات منتشر شده از نویسندگان هستم تا بتوانم به جای داده‌های جمع‌آوری شده، تحلیلی بر روی «داده‌های خام» انجام دهم (رشته من عصب‌شناسی/روان‌شناسی/روان‌پزشکی است). ### سوالات * از کجا می توانم درباره انجام چنین تحلیل هایی بیشتر بیاموزم؟ * آیا محققان معمولاً مایل به اشتراک گذاری داده های خود هستند؟ * آیا رهنمودهای اخلاقی مانع از اشتراک گذاری چنین داده هایی می شود؟
چگونه می توان یک متاآنالیز با استفاده از داده های خام انجام داد؟
83794
فرض کنید سعی می‌کنم از یک توزیع پسین، $p(\theta|x)$ نمونه‌برداری کنم، که گمان می‌کنم بسیار پردست‌انداز است (10s تا 1000s حالت‌های کوچک). علاوه بر این، ارزیابی هسته خلفی $K(\theta|x) \propto p(\theta|x)$ برای ارزیابی (و نه مزدوج) بسیار گران است و مجموعه داده‌ها به اندازه‌ای بزرگ است که می‌خواهم از آن اجتناب کنم. هر تکنیک مبتنی بر زنجیره های موازی با این حال، من می‌خواهم از گیر افتادن در یک حالت برای مدت طولانی در طول فرآیند نمونه‌برداری اجتناب کنم، بنابراین از یک تکنیک MCMC آنیل شده استاندارد (مانند Metroplis-Hastings با احتمال پذیرش آنیل شده) استفاده می‌کنم، اما هرگز پارامتر دما را خنک نمی‌کنم. بنابراین، توزیعی که من از آن نمونه‌برداری می‌کنم، «مسطح» است، و نمونه‌برداری از آن در حالت‌های مختلف آسان‌تر است، اما توزیع ثابت برای زنجیره مارکوف به وضوح از توزیع تعریف‌شده توسط $K(\theta|x)$ تغییر کرده است. . آیا کسی در مورد اینکه در این مورد برای توزیع ثابت زنجیره مارکوف چه اتفاقی می افتد، مرجعی دارد؟
آنیل کردن MCMC با دمای ثابت؟
59596
من یک مدل لاجیت شرطی در Stata ایجاد کردم. مدل خوب است و متغیرها بسیار معنی دار هستند. سپس mfx predicted (PU0) را برای تعیین اثرات حاشیه ای متغیرهای $\frac{dy}{dx}$ انجام دادم. مشکل زمانی است که جدول اثرات حاشیه ای متغیرها را در Stata بدست می آورم: اهمیت متغیرها بسیار کوچک و ناچیز می شود. چرا و بنابراین من می توانم اظهار نظر کنم یا نه اثرات حاشیه ای؟ ضرایب نمونه سیگاری 0.6666 و معنی‌داری P مقدار 0.000، اما وقتی mfx compute را قرار دادم تا اثر حاشیه‌ای سیگاری $\frac{dy}{dx}$ داشته باشد 1.2 و معنی‌داری $p=0.521$ است.
گرفتگی اثر حاشیه ای معنی دار نیست
24222
با استفاده از $d$ کوهن، برای نتایجی که از نظر آماری معنی‌دار نیستند، اندازه‌های اثر کوچک و متوسط ​​را دریافت می‌کنم ($p>.05$). آیا این منطقی است؟
اندازه اثر و اهمیت آماری
28572
من می دانم که مقیاس لیکرت مجموع (یا نوعی ترکیب) از تمام پاسخ های یک نظرسنجی، آزمون و غیره است و پاسخ های عددی واقعی سطوح پاسخ نامیده می شوند. آیا این در مورد همه پاسخ‌های عددی روان‌سنجی صادق است؟ به عنوان مثال آیا به آن پاسخ ها سطوح پاسخ نیز گفته می شود یا گاهی اوقات مقیاس نامیده می شوند؟ اگر ادبیاتی دارید که از گفته هایتان پشتیبانی کند، ممنون می شود.
هنگام توصیف تعداد سطوح پاسخ در مقیاس لیکرت، اصطلاحات صحیح چیست؟
79070
من می‌خواهم در زمینه داده‌کاوی مکانی تحقیق کنم که در آن مفهوم شبکه‌های باور بیزی در حوزه‌ای پزشکی مانند سرطان اعمال شود. من به دنبال مقالات اخیر در مجلات مختلف خوب بوده‌ام، اما نمی‌توانم مقالات خوبی را پیدا کنم که هر سه مفهوم با هم باشند. آیا کسی می تواند در ارائه لینک به این نوع مقالات به من کمک کند؟ هر نوع کمکی قدردانی خواهد شد.
منابع مدل سازی فضایی با شبکه های اعتقادی بیزی در کاربردهای پزشکی
34212
G-Causality را روی دو بردار سری زمانی ثابت در نظر بگیرید (این متغیرها را $X$ و $Y$ بنامید) که هر کدام دارای بیش از 100 مشاهده است. این داده های سری زمانی بازار مالی روزانه است. دلیلی دارم که باور کنم بین این دو متغیر علیت معکوس وجود دارد (یعنی $X$ باعث $Y$ و همچنین $Y$ باعث $X$ می شود). من می‌خواهم اجماع فعلی (یا اجماع نزدیک) را در مورد بهترین روش انتخاب طول تاخیر بدانم. جستجوی گوگل فقط برخی از مقالات 1984 و 1985 را نشان داد. مدخل Scholarpedia در مورد علیت گرنجر می گوید که خوب است. برای به حداقل رساندن AIC یا BIC، اما هیچ مرجعی برای این ادعا ارائه نشده است، بنابراین نمی‌خواهم آن را تا زمانی که تأیید دریافت کنم، کدنویسی کنم. یا انتخاب بر اساس استدلال کیفی است؟ **سلب مسئولیت:** صلیب در talkstats.com ارسال شد.
انتخاب طول تاخیر آزمون علیت گرنجر
44308
من در حال ساختن یک مدل یادگیری نظارت شده هستم که در آن متغیر هدف یک مقدار پیوسته توزیع شده یکنواخت از 0-1 است (در ابتدا یک مقدار رتبه از 1-38000، سپس به 0-1 کاهش می یابد). 20 متغیر پیش‌بین ترکیبی از متغیرهای پیوسته و طبقه‌ای هستند که برای دومی بیش از 6 سطح ندارند. اما وقتی تکنیک‌های مدل‌سازی مختلفی را با استفاده از R روی داده‌ها اعمال می‌کنم (از جمله رگرسیون، جنگل تصادفی، MARS، شبکه‌های عصبی)، مقادیر پیش‌بینی‌شده برای هر مدل مانند یک منحنی زنگی شکل می‌گیرد. چه چیزی می تواند باعث شود که مقادیر برازش شده (شکل زنگ) به طور مداوم با مقادیر واقعی (شکل یکنواخت) متفاوت باشد؟ و آیا راهی وجود دارد که این مدل‌ها را وادار به تولید یک پیش‌بینی یکنواخت‌تر کنیم؟
چرا وقتی مقادیر واقعی یکنواخت هستند، مقادیر پیش‌بینی‌شده به طور معمول توزیع می‌شوند؟
58469
وقتی من یک رگرسیون دوجمله‌ای لجستیک را با تأثیر مجاز برای تغییر در سطح دوم و سوم تخمین می‌زنم، وقفه کلی نشان‌دهنده میانگین شانس ورود برای هر واحد سطح یک در هر واحد سطح بالاتر است: $\text{logit}(\pi_ {ijk}) = \beta_0 + \mu_{jk} + \mu_{k}$ جایی که $\beta_0$ رهگیری ثابت و $\mu_{jk}$ و $\mu_{k}$ اثرات خوشه‌ای تصادفی هستند. $\beta_0$ در این مورد 3.525- تخمین زده می شود (یا 2.9٪ احتمال موفقیت: $\pi_{ijk} = \frac{e^{\beta_{0}}}{1+e^{\beta_{0 }}}$). با این حال، مدلی که در آن هیچ اثر تصادفی مجاز نیست (یا میانگین کلی): $\text{logit}(\pi_{ijk}) = \beta_0$ شانس ورود -2.932 یا 5% احتمال موفقیت را می‌دهد. آیا کاهش رهگیری کلی به این معنی است که تعداد خوشه‌های با احتمال کم بیشتر از با احتمال زیاد است؟ PS: همچنین هنگام رفتن به مدل رهگیری تصادفی از MQL به PQL تغییر می کنم (زیرا PQL فقط برای مدل اثر ثابت امکان پذیر نیست). می تواند به آن هم مربوط باشد.
اگر اجازه خوشه بندی در داده های خود را بدهید، تغییر در رهگیری به چه معناست؟
59590
تا آنجا که من متوجه شدم، مرحله آموزش معمولاً از فرمول بهینه سازی دوگانه استفاده می کند که در آن ما می توانیم به طور ضمنی بردار وزن را محاسبه کنیم که تابع متمایز را تعریف می کند. در مرحله پیش‌بینی چطور از این وزن‌ها و تابع هسته وقتی یک نمونه آزمایشی جدید می‌آید استفاده کنیم؟ ویرایش: باید توضیح دهم، من به SVM غیرخطی علاقه مند هستم.
پیش‌بینی SVM چگونه کار می‌کند؟
28683
در مدل اثر مختلط، بسیاری از آماردانان مایلند داده‌ها را شبیه‌سازی یا راه‌اندازی کنند تا مناطق اطمینان تجربی برای پارامترهای اثر ثابت و پارامترهای اثر تصادفی ایجاد کنند. نمونه‌برداری مجدد (یعنی بوت استپ) برای من بصری به نظر می‌رسد، زیرا فرضیات کمی در مورد ماهیت داده‌ها ایجاد می‌کند. به عنوان جایگزین، برخی توزیع چند متغیره مجموعه ای از متغیرها را شناسایی کرده و به صورت تصادفی از آن توزیع استخراج می کنند. سوال من این است: آیا اصولی وجود دارد که در آن بین یکی از این رویکردها تصمیم گیری شود؟ آیا یکی از آنها همیشه بهتر است؟
بوت استرپ در مقابل سایر روش های داده شبیه سازی شده
58460
تفاوت اصلی KS، Lift، Concordance در اعتبارسنجی رگرسیون لجستیک چیست؟ مزایا و معایب استفاده از این معیارها برای مشاهده عملکرد مدل چیست؟
تفاوت در KS، Lift، Concordance در اعتبارسنجی رگرسیون لجستیک
35168
من در حال برنامه ریزی یک مطالعه درون آزمودنی با چهار شرط مختلف هستم و از G*Power برای محاسبه حجم نمونه مورد نیاز خود استفاده می کنم. عدم آشنایی دقیق با پیچیدگی های آمار به طور کلی (و ANOVA اندازه گیری های مکرر به طور خاص) چه مفروضات خوبی برای _همبستگی بین مقادیر تکراری_ و _تصحیح غیرکروی_ وجود دارد؟ این ارزش ها را به جای حدس و گمان بر چه چیزی می توانم استوار کنم؟
چه مقادیر خوبی برای همبستگی و کرویت در هنگام تخمین اندازه نمونه برای طرح درون آزمودنی ها باید در نظر گرفت؟
35164
من گم شده ام اگر من مدل مخلوط گاوسی را با کوواریانس قطری مشترک تخمین بزنم، آیا اطلاعات فیشر از میانگین $\Sigma^{-1}$ خواهد بود؟
محاسبه اطلاعات فیشر نرمال دو متغیره
58466
من برای دولت برزیل کار می کنم و اخیراً متوجه شدم که بیشتر داده های خریدی که آزمایش کرده ام یک قانون قدرت است. من تعجب می کنم که معنی آن چیست؟ در ابتدا، من فکر کردم که رابطه بین قیمت و حجم خرید باید مانند یک خط مستقیم بدون استفاده از تابع log باشد. سپس، در مورد آن فکر کردم و به نوعی منطقی است که فکر کنم با ده برابر افزایش حجم، به عنوان مثال، دو برابر تخفیف دریافت می کنم. با این حال، درک این که این به چه معناست، برایم سخت است. کسی می تواند کمک کند؟ تا واضح تر شود. یکی از داده هایی که من دارم، مقدار در مقابل قیمت خریدهای دیزلی است که توسط دولت در سال 2012 انجام شده است. بنابراین، برای هر خریدی که توسط آژانس های مختلف انجام می شود، قیمت پرداخت شده به ازای هر لیتر و مقدار خریداری شده توسط دولت را دارم. وقتی این دو را در یک نمودار پراکنده ساده ترسیم می کنم، تقریباً یک توزیع قانون قدرت دریافت می کنم. خوب، اولاً، چند مشکل با داده های من وجود دارد، زیرا برخی از مقادیر کاملاً اشتباه است (بسیاری از مردم فقط 1 لیتر را به همان اندازه هزاران دلار برای آن لیتر می خرند!). علاوه بر این، در آن سوی توزیع، کسانی را دارم که یک دسته کامل لیتر (هزار) می خرند و برای هر لیتر 0 می پردازند! دقیقا، پرداخت صفر، هیچی، نادا. بنابراین، می‌توانید تصور کنید که هنگام پر کردن مقادیر، مشکلاتی در تایپ کردن در انتهای کاربر داریم. یکی از چیزهایی که آنها هرگز اشتباه نمی کنند قیمت کل است، زیرا آنها برای پرداخت به فروشنده به آن نیاز دارند. به هر حال، حتی اگر این موارد پرت را حذف کنم، باز هم به توزیع قانون قدرت می رسم (حداقل اینطور به نظر می رسد). در پایان روز، من فقط سعی کردم بفهمم که آیا بین مقدار خریداری شده و قیمت پرداخت شده همبستگی وجود دارد یا خیر. و سوال من اینجاست. آیا حجم بالا/ قیمت پایین باید به عنوان توزیع قانون قدرت نشان داده شود؟ به عبارت دیگر، اگر من یک قانون قدرت دارم، به این معنی است که بین قیمت و کمیت همبستگی بالایی دارم؟ اگر من cor(log(data$valuePerLiter), log(data$quantity)) را محاسبه کنم، چیزی در حدود -.70 به دست می آید که به نظر می رسد همبستگی مناسبی باشد. با این حال، اگر «cor(data$valuePerLiter,data$quantity)» را محاسبه کنم، مقداری نزدیک به 0 بدست می‌آورم. بنابراین، آیا من همبستگی قوی بین قیمت و مقدار دارم یا خیر؟ آیا توزیع قانون قدرت در این سناریو انتظار می رود؟ پیشاپیش متشکرم رومل
طرح مقدار و قیمت در خرید همان محصول - آیا باید توزیع قدرت باشد؟
91654
من می خواهم 20 پاسخ از نظرسنجی بی بی سی را به میانگین توانایی (سطح شانس) و توانایی بیشتر دسته بندی کنم. جایی خواندم که 25 درصد بالاتر از شانس دیگر شانس نیست. آیا استفاده از 12.5% ​​بالای 50% (62.5%) به عنوان مقوله توانایی بیشتر برای رگرسیون لجستیک مناسب است؟ آیا این را درست محاسبه کرده ام؟ من از نظرسنجی BBC Spot the Fake Smile را به عنوان پاسخ برای توانایی استفاده می کنم. http://www.bbc.co.uk/science/humanbody/mind/index_surveys.shtml من 20 متغیر پیش بینی کننده برای ایجاد یک متغیر ترکیبی از شخصیت دارم.
رگرسیون لجستیک
91653
من علاقه مند به تولید یک ماتریس کوواریانس بعد مثلاً 100 هستم. موفق شدم یک ماتریس همبستگی با عدد شرط محدود به دست بیاورم. برای ساخت ماتریس کوواریانس باید انحرافات استاندارد داشته باشم. من فکر می کنم برای مورد من مناسب ترین مورد ایجاد انحرافات استاندارد از توزیع گاما است. بنابراین، انحرافات استاندارد کوچک و همچنین انحرافات استاندارد بزرگ را به من می دهد. در نتیجه، ماتریس کوواریانس به دست آمده دارای عدد شرط بسیار بالایی است. من می خواهم بدانم که آیا عدد شرط می تواند تحت تأثیر مقیاس متغیرها قرار گیرد و اگر بخواهم مقیاس های مختلفی را در ماتریس کوواریانس وارد کنم چگونه می توانم یک ماتریس کوواریانس با یک عدد شرط معقول بدست بیاورم؟ هر گونه کمک یا بینش در این مورد بسیار قدردانی می شود.
شماره شرط ماتریس کوواریانس
67734
من تجزیه و تحلیل اکتشافی داده‌هایم را انجام دادم و مقادیر میانگین و انحراف استاندارد را از داده‌های اصلی دریافت کردم و داده‌ها را با استفاده از نمودارهای جعبه‌ای رسم کردم. من مدل‌های رگرسیون (GLM و GLMM) را روی داده‌ها انجام دادم (که امکان تخمین میانگین‌های حاشیه‌ای را فراهم می‌کند) و می‌خواهم بدانم چه چیزی باید گزارش کنم، اگر میانگین و SD خام یا مقادیر تخمین زده شده توسط مدل باشد. یا اگر باید هر دو را گزارش کنم، برای مثال خام در جدول و تخمین زده شده در یک جعبه یا برعکس. متشکرم!
نمایش گرافیکی داده ها
35165
من یک برنامه کامپیوتری دارم که سعی می کنم آن را بهینه کنم. فرض کنید می‌توانم موارد تست تصادفی را جمع‌آوری کنم که از آن برای اجرای هر دو نسخه اصلی و اصلاح شده استفاده می‌کنم تا ببینم آیا افزایش سرعت وجود دارد یا خیر. چگونه می توانم حجم نمونه (تعداد موارد آزمایشی) را محاسبه کنم که مطمئن شود میانگین سرعت بالا/کاهش قابل توجهی است؟ هر گونه ایده قدردانی می شود.
حجم نمونه که نتایج آماری قابل توجهی را به همراه خواهد داشت
115328
صبح بخیر علما لطفاً یک مدل Arima فصلی به این شکل نصب می کنم: (2،1،2)x(0،1،1) دوره 12، اما نمی دانم چگونه خواهد بود. آیا کسی می تواند به من در مورد مشخصات مدل کمک کند؟ با تشکر
مشخصات مدل برای سفارش SARIMA (2،1،2)x(0،1،1) دوره 12
83797
من سعی کردم برای این پاسخ جستجو کنم اما موفق نشدم پاسخ خوبی پیدا کنم. من می خواستم داده های دو روش را با هم مقایسه کنم (رفلکس EMG و خود ارزیابی). دریافتم که در ادبیات مطالعاتی وجود دارد که Rhudy et al., 2008 ECON. تنها چیزی که نتوانستم پاسخی برای آن پیدا کنم این است: آیا هیچ پیش نیازی برای تبدیل z وجود دارد؟ چگونه می توانم بررسی کنم که آیا می توانم این کار را انجام دهم یا نه؟
پیش نیازهای استانداردسازی z
67736
طبق مقاله هستی، توری کشسان دارای دو فرمول معادل است: $\hat{\beta} = \underset{\beta}{\operatorname{argmin}} \left\\{ \sum_{i=1}^N(y_i -\sum_{j=1}^p x_{ij} \beta_j)^2 + \lambda_2 \sum_{j=1}^p \beta_j^2 + \lambda_1 \sum_{j=1}^p |\beta_j| \right\\}$ and $\hat{\beta} = \underset{\beta}{\operatorname{argmin}} \left\\{ \sum_{i=1}^N(y_i - \sum_{j= 1}^p x_{ij} \beta_j)^2\right\\} \text{ s.t. } (1-\alpha)\sum_{j=1}^p |\beta_j| + \alpha\sum_{j=1}^p \beta_j^2$ که در آن $\alpha = \lambda_2/(\lambda_1 + \lambda_2)$ سوال من این است که چگونه می توان این معادل را به طور رسمی اثبات کرد. رگرسیون ریج و کمند نیز این دو فرمول ممکن را دارند، اما من نتوانستم مرجعی پیدا کنم که در آن این معادل بودن ثابت شده باشد. سوال مشابهی که در CrossValidated یافتم این آرامش لاگرانژی در زمینه رگرسیون خط الراس است، اما من قادر به درک توضیح تریستان نیستم. من درک درستی از نظریه بهینه‌سازی لاگرانژ دارم، و حدس می‌زنم که پاسخ در اطراف آن خطوط باشد، اما از آنجایی که تمام مقالات معادل‌سازی را بدیهی می‌دانند، می‌خواهم مرجع مناسبی پیدا کنم که در آن به صراحت نشان داده شود.
هم ارزی بین فرمولاسیون های Elastic Net
67739
من قصد دارم یک نمونه گیری تصادفی ساده برای جمعیتی از بیماران $N$ با شاخص $1,...N$ انجام دهم. من پول کافی برای مصاحبه با بیماران $n$ دارم (اندازه نمونه=$n$). برای تعیین بیماران نمونه، ابتدا اعداد صحیح تصادفی $n$ (با جایگزینی) تولید می کنم و از بیماران دارای چنین شاخصی می پرسم که آیا مایلند به مصاحبه بپیوندند یا خیر. اما به دلایلی چندین بیمار (بدون پاسخ) قادر به عضویت نبودند. سوال من این است: اگر در این مورد بیمارانی داشته باشم که نمی توانند ملحق شوند، اما می خواهم استفاده از نمونه $n$ را نیز به حداکثر برسانم، چه کاری باید انجام دهم؟ می توانم به این فکر کنم: اگر 3 بیمار نمی توانند ملحق شوند، 3 عدد صحیح تصادفی را دوباره تولید کنید و سه بیمار جدید را اختصاص دهید. این روند را تا زمانی که همه بیماران مایل به پیوستن باشند تکرار کنید. با این حال، من همچنان اطلاعات 3 نفری که پاسخگو نیستند را ثبت می کنم و حجم کل نمونه n+3$ است. اطلاعات فردی که پاسخگو نیست بعداً تجزیه و تحلیل خواهد شد تا ببینیم آیا سوگیری وجود دارد یا خیر. آیا این روش منطقی است؟
چگونه می توانم عدم پاسخ را در این نمونه گیری تصادفی ساده مدیریت کنم؟
92176
من یک طبقه بندی کننده ساده بیز را با یک مجموعه داده با یک نتیجه دوگانه و ویژگی های چند جمله ای (پیش بینی کننده) آموزش داده ام. من موفق شدم یک تخمین Maximum _a posteriori_ (MAP) بدست بیاورم که برای تعیین عضویت کلاس در یک نمونه مشخص از ویژگی ها به اندازه کافی خوب است. با این حال، برای محاسبه مواردی مانند فاصله بالاترین چگالی (HDI) به جای تخمین نقطه ای، باید توزیع پسینی را بدست آوریم. چگونه می توانم این کار را انجام دهم؟ و به طور خاص، چگونه می توانم از آن توزیع نمونه برداری کنم؟ (به عنوان مثال از طریق BUGS). هر کمکی قابل تقدیر است
به دست آوردن و نمونه برداری از پیش بینی پسین طبقه بندی کننده ساده بیز
59595
این سوال را اینجا پیدا کردم، و من نتوانستم به آن پاسخ دهم و فکر کردم که یک سوال فوق العاده برای این سایت خواهد بود. > در اینجا یک آزمایش فکری کوچک برای لذت آخر هفته شما وجود دارد. موارد زیر را در نظر بگیرید: > > جو دانشمند تصمیم می گیرد مطالعه ای انجام دهد (آن را مطالعه A می نامیم) تا این فرضیه را آزمایش کند که پارامتر D > 0 در مقابل فرضیه صفر که D = 0 است. او مطالعه ای را طراحی می کند، برخی داده ها را جمع آوری می کند. ، یک تجزیه و تحلیل آماری مناسب انجام می دهد و به این نتیجه می رسد که D> 0. این نتیجه در مجله > نتایج عالی به همراه تمام جزئیات نحوه مطالعه منتشر شده است. انجام شد. > > جین دانشمند مطالعه جو را بسیار جالب می داند و سعی می کند یافته های او را تکرار کند. او مطالعه ای را انجام می دهد (آن را مطالعه B می نامید) که شبیه مطالعه A> است اما کاملاً مستقل از آن است (و با جو ارتباط برقرار نمی کند). او در تجزیه و تحلیل خود شواهد محکمی مبنی بر D > 0 پیدا نمی کند و به این نتیجه می رسد که او > نمی تواند احتمال D = 0 را رد کند. او یافته های خود را در > Journal of Null Results به همراه تمام جزئیات منتشر می کند. > > از این دو مطالعه، کدام یک از نتایج زیر را می توانیم بگیریم؟ > > 1. مطالعه الف بدیهی است که یک تقلب است. اگر حقیقت این بود که D > 0، جین > باید به این نتیجه می رسید که D > 0 در تکرار مستقل خود. > > 1. مطالعه B آشکارا یک تقلب است. اگر مطالعه A به درستی انجام می شد، > جین باید به همین نتیجه می رسید. > > 2. نه مطالعه A و نه مطالعه B تقلب نبودند، اما نتیجه مطالعه A > یک خطای نوع I بود، یعنی مثبت کاذب. > > 2. نه مطالعه A و نه مطالعه B تقلب نبودند، اما نتیجه مطالعه B > خطای نوع II بود، یعنی منفی کاذب. > > > > متوجه شدم که تعدادی از جزئیات ظریف در مورد اینکه چرا ممکن است اتفاقات > رخ دهد وجود دارد، اما من عمدا آنها را کنار گذاشته ام. سوال من این است که بر اساس > اطلاعاتی که در مورد این دو مطالعه دارید، چه چیزی را محتمل ترین مورد می دانید؟ چه اطلاعات بیشتری را دوست دارید > فراتر از آنچه در اینجا داده شد بدانید؟
چه زمانی تکرار تقلب را آشکار می کند؟
24227
من می خواهم رگرسیون خطی چندگانه انجام دهم و سپس مقادیر جدید را با برون یابی کمی پیش بینی کنم. من متغیر پاسخ خود را در محدوده 2- تا 7+ و سه پیش بینی کننده (محدوده حدود 10-200+) دارم. توزیع تقریباً نرمال است. اما رابطه بین پاسخ و پیش‌بینی‌کننده‌ها خطی نیست، من منحنی‌ها را روی نمودارها می‌بینم. به عنوان مثال مانند این: http://cs10418.userapi.com/u17020874/153949434/x_9898cf38.jpg من می خواهم برای رسیدن به خطی بودن یک تبدیل اعمال کنم. من سعی کردم با بررسی توابع مختلف و مشاهده نمودارهای حاصل، متغیر پاسخ را تبدیل کنم تا یک رابطه خطی بین پاسخ و پیش بینی کننده ها ببینم. و متوجه شدم که توابع زیادی وجود دارند که می توانند رابطه خطی قابل مشاهده را به من بدهند. برای مثال، توابع $t_1=\log(y+2.5)$t_2=\frac{1}{\log(y+5)}$t_3=\frac{1}{y+5}$t_4= \frac{1}{(y+10)^3}$t_5=\frac{1}{(y+3)^\frac{1}{3}}$ و غیره نتایج مشابهی را نشان می‌دهد: http://cs10418.userapi.com/u17020874/153949434/x_06f13dbf.jpg بعد از اینکه می‌خواهم مقادیر پیش‌بینی‌شده را مجدداً تغییر دهم (برای $t=\frac{1}{(y+10)^3}$ به عنوان $ y'=\frac{1}{t^\frac{1}{3}}-10$ و غیره). توزیع ها کم و بیش شبیه به نرمال است. چگونه می توانم بهترین تبدیل را برای داده های خود انتخاب کنم؟ آیا روش کمی (و نه چندان پیچیده) برای ارزیابی خطی بودن وجود دارد؟ برای اثبات اینکه تبدیل انتخاب شده بهترین است یا در صورت امکان آن را به طور خودکار پیدا کنید. یا تنها راه انجام رگرسیون چندگانه غیرخطی است؟ با تشکر از شما برای هر گونه پیشنهاد!
چگونه بهترین تبدیل را برای رسیدن به خطی بودن انتخاب کنیم؟
59597
احتمال اینکه عدد تصادفی [0،1) در [0.5،0.6] قرار گیرد چقدر است؟ تا آنجا که من می دانم، 3 توزیع احتمال در فیزیک وجود دارد که ما معمولاً استفاده می کنیم، اما مطمئن نیستم که چه زمانی می توانیم از توزیع گاوسی، نمایی و یکنواخت استفاده کنیم. هر نمونه؟
توزیع های احتمال
28688
من «lm()» را روی داده‌هایم با مدل‌های انتخاب شده توسط «lm» منفرد هر مشخصه اجرا کردم و سپس $R^2$ برتر را بر اساس $p$-value ترکیب کردم. به عنوان مثال، چند ویژگی اول گرفته می شود، سپس بقیه اگر دارای $p<.005$ باشند، ارزیابی می شوند. ویژگی های من حاوی مقداری تکراری است: به عنوان مثال، من یک مشخصه و نوع نرمال شده آن را در تست P دارم. مقادیر $p$-مقادیر من همه بسیار کوچک هستند اما نمودارهای من برای R و T درست به نظر نمی رسند (اشاره به این پست وبلاگ: ارزیابی مدل رگرسیون خطی در R.) در آزمون P (و T) با توجه به فاصله کوک یک عدد پرت وجود دارد. چگونه آن نمونه را پیدا و حذف کنم؟ طبق این آموزش در مورد استفاده از R برای رگرسیون خطی، > نمودار در سمت چپ بالا، خطاهای باقیمانده رسم شده در مقابل مقادیر برازش آنها را نشان می دهد. باقیمانده ها باید به طور تصادفی در اطراف خط > افقی توزیع شوند که نشان دهنده یک خطای باقیمانده صفر است. یعنی نباید روند مشخصی در توزیع امتیازها وجود داشته باشد. تست P در خطای باقیمانده خوب به نظر می رسد، اما تست R و T یک گروه بندی دارند که به چه معناست و چگونه آن را حساب کنم؟ نمودار در سمت چپ پایین یک نمودار Q-Q استاندارد است که نشان می دهد > خطاهای باقیمانده معمولاً توزیع شده اند. نمودار مکان-مقیاس در > بالا سمت راست، جذر باقیمانده های استاندارد شده را نشان می دهد (نوعی یک > جذر خطای نسبی) به عنوان تابعی از مقادیر برازش شده. باز هم، > نباید روند آشکاری در این طرح وجود داشته باشد. دوباره تست P در نمودار استاندارد Q-Q خوب به نظر می رسد، اما تست R و T گروه بندی دارند که به چه معناست و چگونه آن را حساب کنم؟ همچنین ضرایب در خروجی چیست. متوجه شدم که ویژگی ها و مقدار p را لیست می کند اما معنی آن را نمی فهمم. و در نهایت چگونه می توانم با استفاده از مدلی که ایجاد کردم پیش بینی کنم؟ **تست P** F-statistic: 2.684 در 280 و 2221 DF، p-value: < 2.2e-16 ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/10A8r.png) **آمار F را تست کنید**: 3.691 در 258 و 2243 DF، p-value: < 2.2e-16 ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jy6IR.png) **تست T** F-statistic: 4.029 در 268 و 2233 DF، p-value: < 2.2e-16 ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bs69P.png) بعد از اجرا ویرایش کنید gls p من شبیه این است![](http://i.stack.imgur.com/cUBGB.png)
چگونه تشخیص مدل را هنگام انجام رگرسیون خطی در R تفسیر کنیم؟
91656
مشکل من به شرح زیر است: من یک مجموعه آموزشی متشکل از متون دریافت کردم، که در آن 10٪ مشاهدات 1 و 90٪ 0 هستند. برای ساده تر، بگذارید بگوییم که 1000 1 است و 9000 0 است. من Naive Bayes را پیاده سازی می کنم. و نتایج را مشاهده کنید. حتی قبل از اینکه نتایج Cross- Validation به شدت به اندازه مشاهدات استفاده شده بستگی دارد - اگر 1000 از 1 و حدود 3000 از 0 را بگیرم، نتایج بهترین هستند. اگر تمام مشاهداتی که دارم - 10000 را در نظر بگیرم، نتایج واقعا ضعیف هستند. حال سوال این است: چگونه با مقادیر مختلف 0 گرفته شده اعتبار متقاطع کنیم؟ اگر 1000 از 1 و 3000 از 0 را بگیرم، آیا باید آن را روی 900 از 1 و 2700 از 0 آموزش دهم و سپس روی بقیه 400 مشاهده آزمایش کنم یا بهتر بگوییم روی کل بقیه - 100 1 و 6300 0 تست کنم؟
چگونه با انتخاب اندازه نمونه بهینه اعتبارسنجی متقابل انجام دهیم؟
91659
هر زمان که از آزمون دقیق فیشر بر روی جداول بزرگتر از جداول احتمالی 2×2 استفاده کردم، SPSS یک آمار آزمایشی تهیه کرده است که می توانم در کار خود نقل قول کنم. با این حال، وقتی من همین کار را با جداول 2x2 انجام می دهم، هیچ آمار آزمایشی تولید نمی شود. من می‌خواهم روشی که در آن نتایج خود را گزارش می‌دهم در سرتاسر پایان‌نامه‌ام استاندارد به نظر برسد. بنابراین آیا من (الف) آمار آزمون ارائه شده برای جداول بزرگتر را حذف می کنم یا (ب) راهی برای محاسبه آمار آزمون پیدا می کنم؟ موضوع مشابهی در سوالی با عنوان مقدار دقیق تست فیشر ذکر شد، اما پاسخ ها به طور خاص به این موضوع نپرداخته اند.
Fisher's Exact: چرا آمار آزمون برای جداول 2x2 در SPSS وجود ندارد
28570
من سه معیار مختلف از اضطراب کودک (IVs) دارم. برای هر معیار، من یک خود رتبه‌بندی توسط کودک و یک رتبه‌بندی دیگر توسط والدین دارم. من می خواهم از این اقدامات برای پیش بینی یک تشخیص خاص (DV) استفاده کنم. * چگونه ماهیت دوتایی رابطه والدین و فرزند را در نظر بگیرم؟ من قصد دارم از رگرسیون سلسله مراتبی یا تحلیل مسیر برای تجزیه و تحلیل رابطه پیش بینی بین IV و DV استفاده کنم.
آیا داشتن خود و سایر معیارهای گزارش به عنوان پیش بینی کننده نیاز به تجزیه و تحلیل دوتایی دارد؟
51464
زمینه: برای یک پروژه، من یک مدل لاجیت شرطی را برازش می کنم که در آن 5 مورد کنترل برای هر مورد محقق شده دارم. برای انجام این کار، از تابع «clogit()» در بسته «بقا» استفاده می‌کنم. من می خواستم تعاملات را با بسته اثرات توسط جان فاکس و همکاران ترسیم کنم. به نظر می رسد که این بسته نمی تواند اشیاء «clogit» را مدیریت کند (خروجی «clogit()»). از آنجایی که فکر می‌کردم به یاد دارم که logit شرطی یک مورد خاص از GLM است، فکر می‌کردم راه هوشمندانه/تنبل برای بدست آوردن نمودارهای تعامل من این است که مدل را با استفاده از یک جلوه‌های ثابت glm تنظیم مجدد کنم و سپس از «effect()» استفاده کنم. به نظر می‌رسد که مستندات «clogit» شهود من را تأیید می‌کند: > به نظر می‌رسد که منطق منطقی برای یک رگرسیون لجستیک شرطی > مدل = loglik از یک مدل کاکس با ساختار داده‌ای خاص. [...] هنگامی که > روال مدل Cox به خوبی آزمایش شده در دسترس است، بسیاری از بسته ها از این «ترفند» استفاده می کنند > به جای نوشتن یک روال نرم افزاری جدید از ابتدا، و این همان کاری است که > روال clogit انجام می دهد. > > به طور جزئی، یک مدل کاکس طبقه بندی شده با هر گروه مورد/کنترل اختصاص داده شده به > قشر خاص خود، زمان تنظیم شده روی یک ثابت، وضعیت 1 = مورد 0 = شاهد، و > با استفاده از درستنمایی جزئی دقیق، فرمول درستنمایی مشابهی دارد. a > رگرسیون لجستیک مشروط. روتین clogit متغیر ساختگی > لازم از زمان ها (همه 1) و لایه ها را ایجاد می کند، سپس coxph را فراخوانی می کند. بر اساس این توصیف، به نظر می رسد که من باید بتوانم طبقه بندی به دست آمده از طریق «لایه()» را با استفاده از یک برش تصادفی برای هر گروه مورد/کنترل با «1|گروه» در «lmer()» بازتولید کنم. با این حال، وقتی تلاش می‌کنم، نتایج «کلوگیت» و «lmer» متفاوت است. یک چیز این است که من احتمالاً تابع احتمال اشتباهی دارم. من واقعاً نمی دانم چگونه این را در `lmer` مشخص کنم، اما مهمتر از آن، می دانم چه چیز دیگری را از دست داده ام. من نمی دانم که آیا کاملاً در اشتباه هستم یا تا حدودی در مسیر درست هستم اما برخی از قطعات را از دست داده ام؟ آنچه من می خواهم این است که بفهمم چه تفاوتی از نظر نحوه برازش مدل بین یک لاجیت مشروط و یک مدل معمولی وجود دارد (من می دانم که ممکن است پاسخ بسیار طولانی باشد، بنابراین یک مرجع کتاب شروعی عالی خواهد بود). مراجع معمول من برای رگرسیون (گلمن و هیل، 2007؛ میلز 2011) در مورد این موضوع تا حدودی ساکت هستند.
آیا لاجیت شرطی شکل خاصی از GLM است؟ و چه ویژگی هایی دارد؟
28681
هنگام خواندن کتاب درسی رگرسیون با پاراگراف زیر مواجه شدم: > برآورد حداقل مربعات بردار ضرایب رگرسیون خطی > ($\beta$) > > $$ \hat{\beta} = (X^{t}X) است. )^{-1}{X^t}y $$ > > که وقتی به عنوان تابعی از داده $y$ در نظر گرفته شود (با در نظر گرفتن پیش‌بینی‌کننده‌های $X$ > به عنوان ثابت)، ترکیبی خطی از داده ها با استفاده از حد مرکزی > قضیه، می توان نشان داد که اگر حجم نمونه بزرگ باشد، توزیع $\beta$ نرمال > تقریباً چند متغیره خواهد بود. من قطعاً چیزی را از متن گم کرده ام، اما نمی دانم چگونه یک مقدار $\beta$ می تواند توزیع داشته باشد؟ چگونه مقادیر متعدد $\beta$ برای بدست آوردن توزیع اشاره شده در متن ایجاد می شوند؟
توزیع نرمال چند متغیره ضریب رگرسیون؟
61775
من 10 مکان مستقل دارم (با حداقل 5 کیلومتر از هم جدا شده اند) که در آن اطلاعات فراوانی برای 17 گونه پرنده جمع آوری کرده ام. به طور خاص، من می خواهم به دنبال همبستگی بین یک گونه خاص و 16 گونه دیگر باشم. از هر سایت چندین بار نمونه برداری شد (2-8 هفته از هم جدا شدند)، برخی فقط 17 بار در حالی که بقیه 50 بار نمونه برداری شدند. من می دانم که می توانم همبستگی های اسپیرمن را برای هر مکان انجام دهم (بیشتر داده ها به طور معمول توزیع نمی شوند) و r را برای هر جفت محاسبه کنم. با این حال، همانطور که انتظار می رود، همه مکان ها روابط مهم یکسانی ندارند و برخی حتی متضاد هستند (بعضی + و برخی -). برخی از نتایج قابل توجه نسبتاً جعلی به نظر می رسند (که تنها بر اساس 2 مشاهده از یک گونه قابل توجه است). آیا راهی وجود دارد که بتوانم تمام این نتایج همبستگی مختلف را در یک آزمایش واحد جمع‌آوری کنم تا مشخص کنم که آیا یک روند کلی برای همبستگی یک گونه با گونه‌های دیگر وجود دارد؟ آیا من همه این کارها را اشتباه انجام می دهم؟ من دست و پا می زنم و از هر راهنمایی استقبال می کنم.
ارزیابی یا مقایسه همبستگی ها در مکان های مختلف
28576
من یک مجموعه داده عظیم با عناوین بالای ردیف دارم. تمام مقادیر موجود در مجموعه داده منهای حدود 50 عدد هستند که NA هستند. من باید میانه هر ستون را پیدا کنم در حالی که به نوعی عنوان ستون را انتخاب نمی کنم. سپس هنگامی که میانه آن سطر را داشتم، باید تمام 'NA'های بالقوه را با میانه ستون مربوطه جایگزین کنم! پیوند به تصویر مجموعه داده
پر کردن NA در یک مجموعه داده با میانه های ستون در R
23623
این اولین پست من در CV است. من سرم را دور برآورد حداکثر احتمال (MLE) می‌پیچم و از قضا، همه چیز را در مورد الگوریتم می‌فهمم، به جز نقطه شروع. چیزی که من را گیج می کند موارد زیر است: البته تمام مثال هایی که دیده ام، با برخی از بردارهای مشاهدات شروع می شوند، x1، x[2]، ... x[N]. مشاهدات iid هستند. هدف تخمین پارامترهای (تتا) PDF - ONE PDF - است که از آن چنین مشاهداتی گرفته شده است. این قسمت رو میگیرم ما مجاز هستیم **ONE PDF** را تخمین بزنیم زیرا X (X بزرگ) یک متغیر تصادفی است که همه آن xها (xهای کوچک) از آن گرفته شده اند. تا آنجا که من می دانم، X های بزرگ دارای PDF هستند. x کوچک نیست. به هر حال، بنابراین پی‌دی‌افی که می‌خواهیم تتا را تخمین بزنیم به این صورت نوشته می‌شود: p(x1, x[2], x[3]... x[n] | theta) = p(x1|theta) * p(x [2]|تتا) * ... p(x[N]|تتا). همانطور که گفتم اگر این را بپذیرم، بقیه الگوریتم را می دانم، اما این نقطه شروع جایی است که من نمی فهمم. در اینجا ناگهان من اکنون **N PDF ** دارم. این من را بسیار گیج می کند: همانطور که قبلاً گفتم، تا آنجا که من می دانم، مشاهدات (مانند x[5]) PDF ندارند. متغیرهای تصادفی انجام می دهند. بنابراین در این مورد مشاهدات 'x کوچک' هستند، که به عنوان یک متغیر تصادفی 'X بزرگ' است. ما سعی می کنیم pdf X بزرگ - X را تخمین بزنیم. چگونه است که من اکنون یک PDF جداگانه برای هر مشاهده x کوچک دارم؟ به نظر می‌رسد هر ویدیو/مقاله سخنرانی از اصطلاحات متناقض «متغیر تصادفی» و «مشاهده» استفاده می‌کند در حالی که همزمان تلاش می‌کند تا به این نکته اشاره کند که آنها یکسان نیستند و نباید اشتباه گرفته شوند - پس کدام یک است؟ پیشاپیش متشکرم **ویرایش برای whuber:** برای زمینه اضافی، وضعیت فعلی درک من در اینجا است: به هر حال، من از اینجا به بعد برای این مثال یک فرآیند گاوسی را برای X فرض می کنم. * یک متغیر تصادفی که معمولاً به چیزی بزرگ نشان داده می شود - X در این مورد، می تواند یک PDF داشته باشد. یک چیزی کوچک یک نتیجه است - یک مشاهده X بزرگ، ما آن را x کوچک می نامیم. * بنابراین، می توانیم بپرسیم احتمال X = 4 چقدر است؟. در اینجا x = 4 کوچک است، و این معنی دارد، و می توانیم بنویسیم P(X=4) = ?. پی دی اف Big X که با مقدار x کوچک انتخاب شده ارزیابی می شود، احتمال X را به عنوان x به ما می دهد. به عبارت دیگر P(X=x). * برای من این بدان معناست که فقط X می تواند PDF داشته باشد. (X نشان دهنده نامی برای فرآیندی است که می تواند مقادیر زیادی را تولید کند - او می تواند مقادیر زیادی را بگیرد)، در حالی که x، نمی تواند PDF داشته باشد. (پی دی اف عدد 7 چیست؟). من اینجوری میبینمش * اگر من یک مشاهده داشته باشم، (x = 7)، آنگاه می فهمم که جیست MLE این است که بگویم کدام گواسی، با چه مو و سیگما، احتمال تولید این یک عدد از آن را به حداکثر می رساند؟ اگر من تمام وقت در جهان را داشتم: 1) یک پی دی اف guassian با مقداری mu و مقداری سیگما می گرفتم و سپس 2) x = 7 را به آن وصل می کردم و احتمال 7 بودن آن را می گرفتم. در نهایت متوجه می شدم که بهترین مو برای x = 7 من در واقع زمانی است که mu = 7 باشد. ترکیب احتمالی mu و sigma آیا X من داشت، به طوری که می توانستم x1 = 7 و x2 = 9 را با بالاترین شانس بدست بیاورم؟ برای من این بدان معنی است که فرض اینکه x1 و x2 انحرافات و در انتهای دم یک گاوسی هستند بی معنی است. بنابراین بدون دانستن چیز دیگری، ما فرض می کنیم که خوب، اگر آنها اینجا هستند، محتمل ترین آنها بودند. بنابراین چه مقادیری از مو و سیگما به احتمال زیاد منجر به تولید آن‌ها شده است؟ * این الان یعنی خوب، احتمال x1=7 و x2=9 چقدر است؟ بنابراین P(x1 = 7 و x2 = 9) = P(x1=7) * P(x2=9). ما می توانیم این کار را انجام دهیم زیرا آنها IID هستند. **ویرایش 2** من تصویری از آنچه را که معتقدم تابع احتمال برای یک مشاهده است، پیوست کرده ام، (x = 3)، با فرض اینکه از یک X گاوسی آمده است، بر اساس درک جدید من از convos در اینجا. جالبه...مثل الگوی نور چراغ جلوی ماشین... ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WiA9Y.jpg)
سردرگمی در معادله راه اندازی حداکثر احتمال
91652
من LMM را اجرا می کنم و هیچ مقایسه ای بین مدل ها انجام نمی دهم. آیا می توانم بپرسم که بین REML و ML از کدام یک استفاده کنم؟
در صورت عدم مقایسه مدل، آیا باید از REML در مقابل ML استفاده کنم؟
27753
آیا با استفاده از تجزیه و تحلیل مؤلفه های اصلی (مثلاً برای کاهش ابعاد) مشکلی وجود دارد تا نمرات مؤلفه های اصلی را بتوان به عنوان پیش بینی در یک مدل ترکیبی استفاده کرد؟ برای مدل‌های غیر مختلط، این استراتژی اغلب اعمال می‌شود (رگرسیون مؤلفه اصلی) اما مطمئن نیستم که در زمینه مدل‌های مختلط قابل اجرا باشد یا خیر؟ لطفاً در زیر یک مثال ساختگی در R ببینید: library(lme4) USArrests$score <- prcomp(USArrests[,-1], scale = TRUE)$x[,1] USArrests$group[1:25)] <- A USArrests$group[26:50] <- B m1 <- lmer(Murder~1+score+(1|گروه)، data=USArrests) خلاصه (m1)
استفاده از نمرات مؤلفه اصلی به عنوان پیش بینی در مدل ترکیبی
92179
من در حال کار بر روی استفاده از درون یابی spline مکعبی در داده های سری زمانی هستم. من از الگوریتم های گالدولفو و پراچونی استفاده کردم. حال چگونه می توانم تخمینی از مدل های اسپلاین مکعبی بدست بیاورم؟
درون یابی داده های سری زمانی
59330
من سعی می کنم ساختار عاملی مجموعه 84 موردی را تعیین کنم. تحلیل عاملی اکتشافی با استفاده از چرخش واریماکس برای تخمین ساختار عاملی زیربنایی برای داده‌های نمونه انجام شد. دو دور تحلیل عاملی اکتشافی انجام شد. اقلام با بارگذاری کمتر از آستانه پذیرفته شده 0.60 و مواردی که بیش از یک فاکتور بارگذاری شده بودند رد شدند. با این حال، نتایج کلی تحلیل عاملی اکتشافی نشان می‌دهد که آیتم‌ها برای دو سازه مختلف روی یک عامل بارگذاری می‌شوند. ### سوالات * **چگونه باید این واقعیت را تفسیر کنم که آیتم های دو سازه روی یک عامل بار می شوند؟** * **آیا این یک مشکل است؟** * **اگر بله، چه کاری می توانم انجام دهم؟**
اقلام از دو سازه در تحلیل عاملی روی یک عامل بارگذاری می‌شوند
59333
من شروع به استفاده از روش GENLIN در SPSS بیش از هر یک از دیالوگ‌های خاص کرده‌ام، اما پارامتر Scale یا اینکه چرا اثراتی که روی نتایج رگرسیون می‌گذارد را نمی‌دانم. در اینجا یک مثال SPSS آورده شده است: _code block 1_ به طور معمول، اگر می خواستم ببینم آیا _set_ روی پارامترهای خطی $b_0$ و $b_1$ تاثیر دارد، می توانم رگرسیون خطی را با عبارت تعامل _set1X_ انجام دهم: _code block 2_ نتایج واضح هستند: _set_ بر شیب تأثیر می گذارد، اما بر رهگیری مدل من تأثیر نمی گذارد (همانطور که از زمانی که این داده های نمونه را تولید کردم انتظار داشتم. از این طریق). اما اگر از «GENLIN» به جای «REGRESSION» استفاده کنم، علامت من است. مقادیر و 95% CI برای پارامترها متفاوت است: _code block 3_ به نظر می رسد این پارامتر مقیاس (که توسط «GENLIN» به صورت 1.127 با SE 0.3563 پسرفت شده است، تفاوت را ایجاد می کند. اگر مقیاس را به PEARSON (برای مربع chi پیرسون)، DEVIANCE (؟) یا ثابتی مانند 1 تغییر دهم، همه پاسخ های متفاوتی دریافت می کنم. **خلاصه**: مقیاس در مدل های خطی تعمیم یافته («GENLIN» در SPSS) چیست و چگونه باید آن را مدیریت کنم؟ چرا رگرسیون خطی OLS از چنین پارامتری استفاده نمی کند؟ چگونه می توانم مقیاس را تعیین کنم؟ ## کد بلوک 1 لیست داده ها /X مجموعه Y. شروع داده ها. یک 2 20.1 5 2 20.8 6 2 26.5 7 2 30.9 8 2 35.8 9 2 38.0 10 2 43.7 داده های پایانی. نام مجموعه داده exampleData WINDOW=front. سطح متغیر X (مقیاس) Y (مقیاس) مجموعه (اسمی). محاسبه set1 = (مجموعه = 1). محاسبه set1X = set1*X. اجرا کنید. ## کد بلوک 2 رگرسیون /فقدان فهرست /ضریب آماری خروجی CI(95) R ANOVA CHANGE /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /وابسته به Y /METHOD=به جلو X مجموعه1 مجموعه1X. ## بلوک کد 3 * مدل های خطی تعمیم یافته. GENLIN Y BY مجموعه (ORDER=صعودی) WITH X /MODEL X مجموعه*X INTERCEPT=YES DISTRIBUTION=NORMAL LINK=IDENTITY /مقیاس معیار=MLE COVB=MODEL PCONVERGE=1E-006(ABSOLUTE) SINGULARTY=3ANALYS (والد) CILEVEL=95 CITYPE=WALD LIKELIHOOD=FULL /MISSING CLASSMISSING=EXCLUDE /PRINT CPS DSCRIPTIVES MODELINFO FIT SUMMARY SOLUTION.
پارامتر Scale در رگرسیون خطی به چه معناست؟
93782
لطفاً باید بدانم چگونه مدل زیر را با آمار تخمین بزنم: Log Xcit = α0 + α1 log PIBct + β0 Log liberalct + β1 log Liberalct×DepFini + β2 logLiberalct×Tangi + λc + λi + λt + εcit Liberalct یک متغیر باینری است. برابر با 1 در سال و همه سال‌های پس از یک رویداد آزادسازی بازار سهام و 0 با دانستن آن من 4 کشور دارم که در تاریخ های مختلف آزاد شده اند و 4 کشور نماینده گروه کنترل هستند.
نحوه تخمین تفاوت تعمیم یافته در مدل تفاوت در داده های تابلویی با آمار
93651
منظور من هر دلیلی است به غیر از راحتی امکان تکمیل تحلیل در یک روش واحد.
اگر علاقه ای به تعامل ندارم، آیا دلیلی وجود دارد که به جای دو ANOVA یک طرفه، یک آنالیز واریانس دوطرفه اجرا کنم؟
91657
من سعی می کنم بفهمم که چگونه betadisper {vegan, R}، و به طور خاص چگونه فاصله متوسط ​​تا میانه با تنوع بتا به معنای سنتی تر ارتباط دارد. betadisper واریانس موجود در جوامع/سایت‌ها را محاسبه می‌کند. من از ماتریس های فاصله از داده های دنباله استفاده می کنم که در آن فاصله با تفاوت جفت پایه خام مطابقت دارد. من تنوع beta را با استفاده از beta.multi (total=b.JAC یا b.SOR) {betapart, R} محاسبه کرده‌ام. برای محاسبه تنوع بتا سنتی، توالی‌ها را در واحدهای طبقه‌بندی عملیاتی OTU (جایگزین میکروبی برای گونه‌ها) خوشه‌بندی کرده‌ام و یک ماتریس حضور-غیاب عادی برای سایت‌ها-میزبان‌ها ساخته‌ام. بنابراین، اولین فکر من این بود که مقدار بالای تنوع بتا با میانگین‌های بسیار متفاوت از betadisper مطابقت دارد، اما لزوماً اینطور نیست. میانگین فاصله بین سایت‌ها برای یک میزبان می‌تواند مقادیر مشابه پایینی را نشان دهد، اگرچه تنوع بتا بالایی دارد و بالعکس. حدس می‌زنم، میانگین‌های مشابه سایت‌ها (برای یک میزبان) که از betadisper گزارش شده است به این معنی نیست که سایت‌ها باید از نظر ترکیبی مشابه باشند (زیرا betadisper به موقعیت centroid نگاه نمی‌کند). از آنجایی که فاصله جفت پایه که استفاده می‌کنم مستقیماً به توالی‌هایی که در کدام OTU خوشه می‌شوند مرتبط است، تصور می‌کنم این در «فاصله متوسط ​​تا میانه» از betadisper منعکس شود. همچنین، آیا می‌توان «متوسط ​​فاصله تا مدان» را برای سایت‌ها جمع‌آوری کرد تا در یک مقدار واحد (برای هر میزبان) که تنوع بتا «سنتی» را منعکس می‌کند به دست آید..؟ مطمئن نیستم که منطقی باشد، اما هر گونه فکری در این مورد قدردانی خواهد شد، با تشکر
چگونه تنوع بتا ژنتیکی تنوع بتا سنتی را منعکس می کند؟
59336
از ویکی‌پدیا > **با توجه به حجم نمونه به اندازه کافی بزرگ، مقایسه آماری همیشه تفاوت معنی‌داری را نشان می‌دهد مگر اینکه اندازه اثر جمعیت > دقیقاً صفر باشد.** > > برای مثال، ضریب همبستگی پیرسون نمونه 0.1 از نظر آماری به شدت > است. اگر حجم نمونه 1000 باشد، معنی دار است. اگر همبستگی > 0.1 بیش از حد باشد، گزارش فقط مقدار p-معنادار از این تحلیل می تواند گمراه کننده باشد. کوچک است تا در یک برنامه خاص مورد توجه قرار گیرد. من تعجب کردم که چرا با توجه به حجم نمونه به اندازه کافی بزرگ، یک مقایسه آماری همیشه تفاوت معنی داری را نشان می دهد مگر اینکه اندازه اثر جامعه دقیقاً صفر باشد؟ با تشکر و احترام!
چرا یک آمار با نمونه های به اندازه کافی بزرگ معنادار خواهد بود مگر اینکه اثر جمعیت دقیقاً صفر باشد؟
35000
اخیراً تعریف _p_-value را به صورت > مقدار _p_ مرتبط با یک آزمون، احتمال این است که مقدار مشاهده شده آماره آزمون یا مقداری که در جهت > ارائه شده توسط فرضیه جایگزین افراطی تر است را به دست آوریم. وقتی $H_0$ (فرضیه صفر) > درست است. برای یک جایگزین دو طرفه، _p_ -value =$P_{H_0}[|T|\geq|t_0|]$ که $T$ آمار تست و $t_0$ مقدار مشاهده‌شده آمار تست است. چرا مقادیر مطلق $T$ و $t_0$ را می گیریم؟
چرا در آزمون فرضیه قدر مطلق را می گیریم؟
78914
سوال من این است که آمار در متن کاوی اعمال می شود. من از تطابق زیر رشته ای برای تعیین مجموعه پیش بینی شده کلمات کلیدی استفاده کرده ام. سپس آن کلمات کلیدی را در گروه های وسیع تری طبقه بندی می کنم. با توجه به متن، می خواهم یک گروه واحد را بر اساس کلمات کلیدی ترسیم کنم. من برای انجام این کار از چندجمله‌ای دیریکله استفاده کردم، جایی که دیریکله بر اساس تعداد نوع خاصی از کلمه کلیدی به‌روزرسانی می‌شود. ابتدا بردار احتمال دیریکله را رسم می کنم و سپس از آن برای ترسیم چند جمله ای استفاده می کنم. با تکرار چندین هزار بار این جفت طراحی، میانگین نسبت یافت شده در هر دسته را بررسی می کنم. من همین کار را برای یافتن نسبت متوسط ​​برای مجموعه شناخته شده واقعی کلمات کلیدی انجام می دهم. برای مقایسه نتایج من، کدام آزمون آماری برای تجزیه و تحلیل دقت/خطا مناسب‌تر است؟
تست دقت مناسب اگر توزیع ها را بر روی مجموعه ای از مقادیر واقعی و مقادیر پیش بینی شده ترسیم کنیم؟
27750
من اخیراً در این سایت (@Aniko، @Dikran Marsupial، @Erik) و جاهای دیگر در مورد مشکل بیش از حد برازش که با اعتبارسنجی متقاطع رخ می‌دهد، مطالب زیادی می‌خوانم - (Smialowski و همکاران 2010 Bioinformatics، Hastie، Elements of Statistical Learning). پیشنهاد این است که انتخاب ویژگی نظارت شده _any_ (با استفاده از همبستگی با برچسب‌های کلاس) که خارج از تخمین عملکرد مدل با استفاده از اعتبارسنجی متقاطع (یا سایر روش‌های تخمین مدل مانند راه‌اندازی) انجام می‌شود، ممکن است منجر به برازش بیش از حد شود. این به نظر من غیرمعمول به نظر می رسد - مطمئناً اگر یک مجموعه ویژگی را انتخاب کنید و سپس مدل خود را با استفاده از _فقط_ ویژگی های انتخاب شده با استفاده از اعتبار سنجی متقاطع ارزیابی کنید، در این صورت یک تخمین بی طرفانه از عملکرد مدل تعمیم یافته بر روی آن ویژگی ها دریافت می کنید (این فرض را بر این می گذارد که نمونه مورد مطالعه نماینده است. از جمعیت)؟ البته با این روش نمی‌توان یک مجموعه ویژگی بهینه را ادعا کرد، اما آیا می‌توان عملکرد مجموعه ویژگی‌های انتخابی را روی داده‌های دیده نشده معتبر گزارش کرد؟ من می‌پذیرم که انتخاب ویژگی‌ها بر اساس کل مجموعه داده‌ها ممکن است باعث نشت برخی داده‌ها بین مجموعه‌های آزمایشی و قطار شود. اما اگر مجموعه ویژگی پس از انتخاب اولیه ثابت باشد و هیچ تنظیم دیگری انجام نشود، مطمئناً برای گزارش معیارهای عملکرد تأیید شده متقابل معتبر است؟ در مورد من 56 ویژگی و 259 مورد و به همین ترتیب #cases > #features دارم. ویژگی ها از داده های حسگر به دست می آیند. پوزش می طلبم اگر سوال من مشتق به نظر می رسد اما به نظر می رسد این نکته مهمی برای روشن شدن است. **ویرایش:** در اجرای انتخاب ویژگی در اعتبار سنجی متقاطع در مجموعه داده‌های شرح داده شده در بالا (به لطف پاسخ‌های زیر)، می‌توانم تأیید کنم که انتخاب ویژگی‌ها قبل از اعتبارسنجی متقابل در این مجموعه داده، یک سوگیری _قابل توجه_ را معرفی می‌کند. این تعصب/برازش بیش از حد در هنگام انجام این کار برای یک فرمول کلاس 3 در مقایسه با فرمولاسیون کلاس 2 بیشترین بود. من فکر می کنم این واقعیت که من از رگرسیون گام به گام برای انتخاب ویژگی استفاده کردم، این بیش از حد برازش را افزایش داد. برای مقاصد مقایسه، در یک مجموعه داده متفاوت اما مرتبط، یک روال انتخاب ویژگی رو به جلو متوالی انجام شده قبل از اعتبارسنجی متقاطع را با نتایجی که قبلاً با انتخاب ویژگی در CV به دست آورده بودم مقایسه کردم. نتایج بین هر دو روش تفاوت چشمگیری نداشت. این ممکن است به این معنی باشد که رگرسیون گام به گام بیشتر از FS متوالی مستعد بیش از حد برازش است یا ممکن است یک ویژگی عجیب این مجموعه داده باشد.
انتخاب ویژگی و اعتبارسنجی متقابل
67732
من دانشجوی ریاضی هستم، اما اطلاعاتم در مورد احتمالات و آمار محدود است. پس لطفا ببخشید اگر این سوال بدی است. آزمون تی روشی محبوب برای انجام استنتاج آماری است. با این حال، فرضیه صفر «بدون اثر» ناقص به نظر می رسد. هر دو متغیر را در نظر بگیرید: فرض کنید آنها میزان زمانی که فرد برای تایید متقاطع در سال 2012 صرف کرده است و میزان دوست داشتن بستنی در سال 2013 است و به احتمال زیاد تا زمانی که نمونه شما اثری را مشاهده خواهید کرد. اندازه بسیار زیاد است در بدترین حالت، شما می توانید کل جامعه را به عنوان یک نمونه واحد در نظر بگیرید، در این صورت هیچ ابهامی وجود ندارد:، بنابراین اگر یک رابطه مثبت دیدید، می توانید فرضیه بدون تاثیر را رد کنید و اگر یک رابطه منفی دیدید، می توانید آن را نیز رد کنید. فرضیه بدون اثر بنابراین در هر صورت، فرضیه صفر رد می شود. _بنابراین، می‌توانیم فرضیه صفر را بدون جمع‌آوری داده‌ای رد کنیم._ آیا مفهوم «بدون اثر» اساساً ناقص است یا من یک اشتباه منطقی مرتکب شده‌ام؟ البته ممکن است بگویید، «به همین دلیل است که ما اندازه‌های افکت را نیز گزارش می‌کنیم»، اما این به نوعی موضوع را از دست می‌دهد. اگر مفهوم «بدون اثر» اینقدر ناقص است، پس باید این تجارت «بدون اثر» را فراموش کنیم و از فرضیه‌های معقول‌تری استفاده کنیم.
آیا مفهوم «بدون اثر» ناقص است؟
91651
در حال حاضر، من در تلاش برای انجام یک رگرسیون پواسون هستم. من چندین سال (2004 تا 2012) با چهار فصل در هر سال دارم. مجموعه داده من شامل تعداد لاشه های یافت شده در هر 10 روز و کل لاشه ها برای هر فصل در هر سال است. هدف من این است که ببینم آیا تفاوتی در لاشه بین فصل ها و سال ها وجود دارد یا خیر. فصل‌ها بر حسب سال تو در تو می‌شوند و من شنیده‌ام که رگرسیون پواسون قادر است با مجموعه‌های داده تودرتو با گنجاندن اثرات تصادفی مقابله کند. سوال من این است که چگونه می توان سال را به عنوان یک اثر تصادفی در کد R گنجاند. من تاکنون از این کد برای رگرسیون پواسون استفاده کردم: mymodel = glm (شمارش ~ فصل + سال، شبه پواسون، mydataset) امیدوارم برخی بتوانند کمی در مورد این موضوع روشن کنند.
طراحی تودرتو رگرسیون پواسون
61779
من دو گروه آزمایشی دارم که یک کار آنلاین برای اندازه‌گیری زمان پاسخ (متوسط، میانگین (همخوان)، میانگین (ناهمخوان)) انجام دادند. من انتظار داشتم که یک گروه سریعتر از گروه دیگر باشد، اما دقیقاً برعکس شد (قابل توجه). بنابراین اکنون در حال تلاش برای یافتن یک یا چند عامل هستم که مسئول این نتیجه غیرمنتظره هستند. داده های آزمون من به این صورت است: شرکت کنندگان یک کار Simon را انجام دادند و من زمان پاسخ آنها را برای هر آزمایش اندازه گیری کردم. در SPSS I 3 متغیر دارم، یکی برای میانگین زمان پاسخ آنها در تمام آزمایش‌ها، یکی با میانگین زمان پاسخ آنها برای آزمایش‌هایی که همخوان بودند (مکان روی صفحه و مطابقت جهت)، دیگری با میانگین زمان پاسخ آنها برای آزمایش‌هایی که ناسازگار بودند. (مکان روی صفحه و جهت مطابقت ندارند). گروه های من تک زبانه و چند زبانه هستند. ادبیات نشان می‌دهد که افراد چندزبانه در مجموع میانگین‌های بالاتری را کسب می‌کنند یا فقط برای آزمایش‌های ناسازگار میانگین‌های بالاتری را کسب می‌کنند. نتایج من نشان می دهد که تک زبانه ها میانگین کلی بالاتری دارند و تفاوت بین کارآزمایی های همخوان و ناسازگار برای هر دو گروه یکسان است. برای هر گروه، متغیرهای زیر را می‌دانم: * سن * سطح تحصیلات * دقت% * جنس * متغیرهای پنهان (بله| خیر) * میانگین زمان پاسخ‌دهی (کل، آزمایش‌های همخوان، آزمایش‌های ناسازگار) * زبان اول هر متغیر به خودی خود به نظر می‌رسد معنی دار است، اما به نظر می رسد که هیچ یک از متغیرها در ترکیب با گروه های اصلی تأثیر معنی داری نداشته باشند. می‌خواهم مطمئن شوم که آزمون من اشتباه نبوده و اعتبار روش آزمون را تأیید کنم. شاید یکی دیگر از عواملی که در فرضیه‌ام لحاظ نکرده‌ام، باعث این نتایج شده است. این یا به من کمک می کند تا ثابت کنم که آزمون من درست است و نتایج معتبر هستند، یا زاویه جدیدی برای تحقیقات آینده ارائه می دهد. من مطمئن نیستم از چه آزمایشی استفاده کنم. برای اولین مقایسه هایم از همبستگی اسپیرمن استفاده کردم. یک بار به من گفته شد که ممکن است هنگام استفاده از همبستگی اسپیرمن از همبستگی جزئی استفاده نکنم. آیا کسی می تواند به من کمک کند که چگونه از اینجا ادامه دهم؟
آیا همبستگی جزئی بعد از همبستگی اسپیرمن امکان پذیر است؟
23993
سوال مشابه این است که چگونه دو سری زمانی را با شکاف ها و پایه های زمانی مختلف مرتبط کنیم؟ اما با فرکانس نمونه منظم و پایه زمانی یکسان بین دو سری زمانی. بگو من دو سری زمانی دارم، یکی قیمت سهام یک شرکت معین، دیگری نسبت نظرات مثبت درباره شرکت در شبکه های اجتماعی. چگونه می توانم از نظر آماری بررسی کنم که آنها همبستگی دارند؟ فرض کنید که هر دو به صورت هفتگی یا روزانه نمونه برداری می شوند. چالش در این واقعیت نهفته است که ممکن است تفاوت زمانی با یکدیگر وجود داشته باشد. در زمینه مثال بالا، ارزیابی مثبت مصرف کننده ممکن است بعداً بر قیمت سهام منعکس شود. دو مورد وجود دارد که می خواهم در این مشکل بررسی کنم: 1) آیا دو سری زمانی همبستگی دارند؟ 2) پنجره زمانی برای به حداکثر رساندن همبستگی آنها چیست؟
چگونه دو سری زمانی را با اختلاف زمانی احتمالی مرتبط کنیم
78856
در حال مبارزه با نحوه شروع این سوال: یک کارخانه جوجه هایی با وزن بین 1.5 تا 2.5 کیلوگرم را پردازش می کند. جوجه های طبیعی توده هایی به طور مساوی در این محدوده دارند. با این حال، جوجه های GM وزنی بین 2.3 تا 2.4 کیلوگرم دارند. اگر یک کارخانه 10 میلیون جوجه در سال تولید کند، برای تولید یک ناهنجاری 5 سیگما در طیف توده جوجه به چند مرغ GM نیاز است؟ من می‌دانم که توده‌های مرغ از توزیع طبیعی پیروی می‌کنند اما پس از آن کاملاً از دست می‌روند. کسی می خواهد کمی روشن کند؟
مشکل ناهنجاری 5 سیگما
61773
من چند تاپیک مشابه می بینم، اما هیچ پاسخی وجود ندارد که بدانم چگونه به این سوال اعمال کنم. مایلم یک ماتریس واریانس برای یک ماتریس (شبه)تصادفی $X$ با ابعاد $K \times N$ ایجاد کنم، که در آن هر ردیف $k$ نشان دهنده $N$ ترسیم یک متغیر تصادفی با میانگین $\mu_k$، $\ است. sigma^2_k=10$، و 10 خودسرانه انتخاب شد. هدف این است که $X$ ایجاد کنیم به طوری که $(X'X)/N$ از نظر محاسباتی معکوس باشد. من از R... استفاده می کنم تا مرزهای محاسباتی معکوس را مشخص کند. تا اینجا موارد زیر را انجام دادم که حدس می زدم کافی باشد. خط آخر به من اشاره می کند که من احتمالاً در مورد اینکه چقدر راحت می توان به وابستگی خطی دست یافت گیج شده ام. N<-50 K<-round(runif(1,1,10)) ex<-rnorm(1,0,10) x<-matrix(rnorm(N,ex,10)) #یک سطر قبلا ایجاد شده است. تیک<-0 #ترفند ارزان برای اطمینان از تکرار موفقیت آمیز حلقه شما. for(i در 2:K){ ex<-rnorm(1,0,10) #واسطه باید هر کدام متفاوت باشد، باید کمک کند؟ holding<-as.matrix(rnorm(N,ex,1)) #it's an Nx1, k=1 x<-cbind(x,holding) tick<-tick+1 } print(tick) x<-t(x ) #x در حال حاضر K است توسط N det(cov(x)) #از نظر محاسباتی 0 با ثبات عالی است. سوال اصلی: چگونه می توانم یک ماتریس تصادفی $X$ را طوری بسازم که دارای ماتریس واریانس معکوس باشد؟ کنار: آیا کسی می‌تواند توضیح دهد که چرا این اغلب مفرد است، زیرا من فکر می‌کردم با LLN هر ستون/ردیف باید به حالت نامرتبط استقلال خطی خود همگرا شود؟ آیا محدودیت مفرد «محاسباتی» اینقدر قدرتمند است؟ من متوجه شده ام که اگر $N$ را به طور دلخواه کوچک، مثلاً 5 تنظیم کنم، گاهی اوقات کار می کند.
چگونه می توانم یک ماتریس واریانس تصادفی (x'x)/N با اطمینان از وارونگی بودن آن ایجاد کنم؟
93653
در یک مطالعه، 3 متغیر مستقل (A، B، C) وجود دارد. من می خواهم فقط (A, B) را دستکاری کنم. ایده دستکاری نکردن متغیر C این است که با دو متغیر دستکاری شده دیگر A، B تداخل نداشته باشد. به این ترتیب، محقق مطمئن است که فقط A یا/و B بر متغیر وابسته اثر می‌گذارند. (i) من مطمئن نیستم که چگونه موارد فوق را به زبان آماری توصیف کنم. چگونه باید آن را به بهترین شکل قرار دهم؟ (ii) در این مورد، متغیر C به عنوان یک متغیر مشترک در نظر گرفته نمی شود، زیرا ثابت نگه داشته می شود. لطفا راهنمایی کنید. با تشکر
وجود متغیرهای مشترک
74708
من یک مجموعه داده با دو متغیر اسمی طبقه بندی دارم (هر دو با 5 دسته). می‌خواهم بدانم آیا (و چگونه) می‌توانم همبستگی‌های بالقوه را بین دسته‌ها در این متغیرها شناسایی کنم. به عبارت دیگر آیا برای مثال نتایج دسته 1 در متغیر 1 همبستگی قوی با یک دسته خاص در متغیر 2 نشان می دهد یا خیر. از آنجایی که من دو متغیر با 5 دسته دارم، تحلیل همبستگی کل برای همه دسته ها به 25 نتیجه کاهش می یابد. حداقل اگر آن طور که من امیدوارم/انتظار دارم کار کند). من سعی کردم مسئله را به صورت سؤالات مشخص فرموله کنم: سؤال 1: فرض کنید متغیر طبقه بندی را به 5 متغیر ساختگی مختلف در هر مقدار منتقل می کنم. همین رویه را برای متغیر دوم نیز اجرا می کنم. سپس می خواهم همبستگی بین ساختگی 1.1 و 2.1 را تعیین کنم (مثلا). آیا از نظر آماری درست است که من این روش را با استفاده از روش ضریب همبستگی معمولی اجرا کنم؟ آیا ضریب همبستگی حاصل از این روش بینش مناسبی در رابطه بین دو متغیر ساختگی ارائه می دهد؟ سوال 2: اگر رویه توضیح داده شده در سوال یک رویه معتبری باشد، آیا راهی برای اجرای این تحلیل برای همه دسته‌های 2 (یا شاید بیشتر) متغیرهای اسمی طبقه‌ای به یکباره وجود دارد؟ برنامه ای که من استفاده می کنم SPSS (20) است.
همبستگی بین دسته‌های متغیرهای اسمی طبقه‌ای
61772
من یک مدل انتخاب گسسته را تخمین می زنم که در آن افراد انتخاب می کنند در کدام مدارس شرکت کنند. من اطلاعات زیادی در مورد افراد و مدارس دارم. با این حال، هر مدرسه خاص فقط یک یا دو بار در مجموعه داده‌های من ظاهر می‌شود، زیرا افراد با مجموعه‌های متفاوتی از انتخاب‌های مدرسه بر اساس محل زندگی‌شان و غیره مواجه می‌شوند. برای مثال، فرد A ممکن است بین مدارس 1، 2 و 3 انتخاب کند در حالی که فرد B انتخاب می‌کند. بین 4، 5، و 6. این انتخاب ها باید اطلاعاتی در مورد اهمیت ویژگی های مدرسه ارائه دهند، اما من نمی توانم تعیین کنم که چگونه این مدل را به درستی مشخص کنم. من توصیه های این پست را دنبال کردم و اطمینان حاصل کردم که تمام ویژگی های خاص فردی بعد از | ظاهر می شوند. هیچ داده گمشده ای در نمونه من وجود ندارد. متأسفانه من نمی توانم داده های خود را مستقیماً با توجه به ماهیت تا حدودی حساس آن پست کنم. من از هر توصیه ای قدردانی می کنم!
مسائل تکینگی در مدل لاجیت چند جمله ای با مجموعه انتخاب های مختلف
93658
من مشکل زیر را دارم: با توجه به نسبت $p_1=\frac{X_1}{n}$، که در آن $X_1$ تعداد نتایج موفقیت‌آمیز در $n$ تلاش است ($X_1$ و $n$ هر دو > 100 هستند) ، من باید کوچکترین نسبت $p_2$ را پیدا کنم که در سطح اطمینان معین (مثلاً 95%) از $p_1$ بیشتر و از نظر آماری متفاوت است. یکی از کاربردهای این امر، یافتن نرخ موفقیت (یعنی X_2$ موفقیت در $n$ تلاش) است که تضمین می‌کند که یک پیشرفت معین در یک سیستم واقعاً سودمند است. من می‌توانم فاصله اطمینان را برای $p_1$ پیدا کنم، اما صرفاً داشتن $p_2$ در خارج از این فاصله برای اطمینان از متفاوت بودن این نسبت‌ها کافی نیست. دو برابر کردن فاصله نیز درست به نظر نمی رسید. من همچنین سعی کردم از فرمول های فاصله اطمینان برای تفاوت نسبت ها استفاده کنم. \sqrt{\frac{p_1(1-p_1)+p_2(1-p_2)}{n}}$ اما نتوانستم بفهمم چگونه می توانم $p_2$ از آنها. راهنمایی در مورد اینکه چگونه می توانم ادامه دهم؟ از آنجایی که ارزشش را دارد، این یک تکلیف خانه نیست، بلکه یک مسئله کمی بازنویسی شده از کتابی است که من برای مطالعه خود استفاده می کنم. ویرایش: پاسخ گلن مرا در مسیر درست قرار داد. همچنین به ذهنم خطور کرد که یک راه حل بی رحمانه، که در زیر پست شده است.
یافتن نسبت آماری متفاوت
95383
من گروهی از کارهای باینری دارم که توسط چندین موضوع انجام می شود. هر کار می تواند درست یا غلط انجام شود (یعنی 1/0). هدف من پیش بینی دقت کار آینده با توجه به عملکرد در وظایف قبلی است. از آنجایی که وظایف مستقلی در نظر گرفته می‌شوند، فکر می‌کردم که معدل‌سازی دقت با پیش‌بینی برای هر تکلیف با توجه به مابقی منطقی است. آیا می توانید به من راهنمایی کنید که یک رگرسیون مناسب یا هر مدل پیش بینی کننده ای برای این نوع داده ها چیست. من به دقت متوسط ​​پیش‌بینی علاقه دارم زمانی که 9 متغیر اول پیش‌بینی‌کننده هستند و آخرین متغیر متغیر پاسخ، سپس متغیرهای 1-8،10 پیش‌بینی‌کننده هستند و متغیر نهم متغیر پاسخ است، و به همین ترتیب به‌طوری‌که هر متغیر یک بار محاسبه شود. یک متغیر پاسخ از کمک شما متشکرم
روش پیش بینی که در آن پیش بینی کننده ها و متغیر پاسخ باینری هستند
23629
امیدوارم بتوانید به من در حل مشکلم کمک کنید نتایج من شمارش است. کاری که من انجام دادم این بود که در نمونه‌های 15 جنینی، تشخیص دادم که آیا جنین‌ها (بله = 1) ناهنجاری‌ها یا تأخیر در رشد خود دارند (بله = 1) یا نه (نه = 0). در یک نوع آزمایش، من این را 6 بار تکرار کردم (6 تکرار مستقل). در نوع دیگر، من این را 9 بار تکرار کردم (9 تکرار مستقل)، بنابراین n من بسیار کم است. من ویژگی های زیادی (بین 6 تا 12) را در هر جنین مشاهده کردم، هر 24 ساعت به مدت 5 روز (24 hpf، 48 hpf، 72 hpf و 96 hpf) بنابراین داده های زیادی دارم. اولین ایده من انجام یک آنووا با اندازه گیری های مکرر بود، اما متاسفانه، داده های من کاملاً عادی توزیع نمی شوند. زیرا آنها **تعداد دودویی** هستند (با حداقل مقدار 0 و حداکثر مقدار 15)، و من **تعداد زیادی** دارم. سعی کردم از تست فریدمن استفاده کنم ولی واقعا خیلی طول میکشه! (حداقل 30 دقیقه برای هر ویژگی). من راه‌های زیادی را برای عادی‌سازی داده‌ها امتحان کردم (حتی یکی که قبلاً نشنیده بودم: استفاده از آرکسین درصد ریشه مربع...!)، اما هیچ چیز جواب نمی‌دهد. سپس یکی از همکاران آزمایشگاه به من گفت که می‌توانم بازه اطمینان کنترل‌هایم را محاسبه کنم و هر مقداری را که خارج از CI است، از آن «متفاوت» بگیرم. من برنامه GraphPad Prism را دارم، و می گوید که برای محاسبه CI، مقادیر توزیع شده مستقل و گاوسی را فرض می کنید... بنابراین من دوباره در ابتدا گیر کردم. چگونه می توانم یک CI ناپارامتریک را با استفاده از Prism محاسبه کنم؟ از طرفی داشتم به استفاده از بوت استرپ فکر می کردم که تئوری آن را خیلی اصولی می فهمم اما تا به حال این کار را نکرده ام و نمی دانم می توانم با این برنامه انجامش دهم یا خیر. هر گونه کمکی بسیار قدردانی خواهد شد!
چگونه فاصله اطمینان داده های شمارش ناپارامتری را محاسبه کنم؟ (آیا در GraphPad Prism امکان پذیر است؟)
35169
Andrew Ng رگرسیون خطی و تابع هزینه را توضیح می دهد و اینکه چرا می خواهیم تتا (1) را به حداقل برسانیم. با این حال، او می گوید که وقتی تتا (1) = 1 است، شیب خط ما (x,y) = (1,1), (2,2,3,3) است. من نمی فهمم او این شیب را چگونه محاسبه می کند؟ من نمی فهمم چگونه این را بفهمم؟ از کجا می دانید که شیب خط این است؟ http://cl.ly/image/1J1n2E151k2n برای مثال، وقتی Theta(1) = 2 چه اتفاقی می‌افتد، چگونه شیب را بفهمم؟ ==== برای جزئیات بیشتر، می توانید ببینید: https://class.coursera.org/ml-2012-002/lecture/index، در ساعت 2:30 او ذکر می کند که اگر تتا(1) = 1 باشد، شیب از خط این است: (1،1)، (2،2)، (3،3)، یا http://cl.ly/image/1J1n2E151k2n
با ارائه Theta(1) (معروف به ø(1)) چگونه می توانم بفهمم شیب خط چقدر است؟ (تابع هزینه و رگرسیون خطی)
23992
من از 2 نوع رگرسیون لجستیک استفاده می کنم - یکی نوع ساده، برای طبقه بندی باینری، و دیگری رگرسیون لجستیک ترتیبی است. برای محاسبه دقت مورد اول، از اعتبارسنجی متقاطع استفاده کردم، جایی که AUC را برای هر برابر محاسبه کردم و سپس میانگین AUC را محاسبه کردم. چگونه می توانم آن را برای رگرسیون لجستیک ترتیبی انجام دهم؟ من در مورد ROC تعمیم یافته برای پیش بینی کننده های چند کلاسه شنیده ام، اما مطمئن نیستم که چگونه آن را محاسبه کنم. با تشکر
AUC در رگرسیون لجستیک ترتیبی
27281
من یک نمونه تصادفی ساده (SRS) $S$ به اندازه $n$ دارم که از یک جمعیت $D_1$ حاوی $N_1$ عضو گرفته شده است. مجموعه جدیدی $D_2$ با $N_2$ عضو به جمعیت اضافه شده است. من می خواهم یک مجموعه جدید $S'$ ایجاد کنم که یک SRS از $D_1 \cup D_2$ است. یک استراتژی که کار نمی کند این است که یک SRS با اندازه $nN_2/N_1$ (یا هر اندازه دیگری) از $D_2$ بکشید و به $S$ اضافه کنید. (نتیجه یک نمونه تصادفی طبقه بندی شده از $D1 \cup D2$ خواهد بود، اما نه یک SRS از آن.) یک استراتژی که کار خواهد کرد این است که ابتدا یک آزمایش روی یک متغیر تصادفی با توزیع فوق هندسی انجام شود (اندازه جمعیت $N_1+). N_2$، تعداد تساوی‌ها $n'$، و تعداد حالت‌های موفقیت در جمعیت $N_1$). مقدار حاصل $n'_{1}$ تعداد موارد موجود در $S'$ است که باید از $D_1$ گرفته شود. اگر $n'_{1} < n$، یک SRS به اندازه $n - n'_{1}$ را از $S$ دور می اندازیم تا $S'$ اولیه را تشکیل دهیم. اگر $n'_{1} > n$، یک SRS اضافی به اندازه $n'_{1} - n$ از $D_1 \setminus S$ انتخاب می کنیم و این موارد را به اضافه همه موارد از $S$ در آن قرار می دهیم. $S'$. ما همچنین یک SRS به اندازه $n'_{2} = n' \- n'_{1}$ از $D_2$ می‌کشیم و به $S'$ اضافه می‌کنیم. من علاقه مند به انتخاب $n'$ برای به حداقل رساندن $E[|S' \setminus S|]$، اندازه مورد انتظار $S' \setminus S$ هستم. به عبارت دیگر، مقدار مورد انتظار تعداد اقلام از $D_2$ به اضافه تعداد موارد جدید، در صورت وجود، از $D_1$. من سه سوال دارم: Q1. اگر محدودیت اضافی را داشته باشیم که $n' \ge j$ برای برخی از $j$، آیا یک استدلال ساده وجود دارد که بهینه $n'$ $j$ است؟ به نظر می رسد که باید باشد، اما من ترجیح می دهم فرمول ارزش مورد انتظار را تعیین نکنم و از طریق مشتقات استفاده نکنم. Q2. آیا کسی الگوریتم بهتری برای مشکل بالا می شناسد؟ Q3. مشکلی که من _واقعا_ دوست دارم حل کنم پیچیده تر است. هر مورد در $D_1$ و $D_2$ یک A یا یک B است. $S$ حداقل $k$ A دارد، و من می‌خواهم $E[|S' \setminus S|]$ را با توجه به محدودیت به حداقل برسانم. که $S'$ حداقل $k$ A دارد. الگوریتم بالا دیگر کار نمی کند، زیرا نمی توانیم $n'$ را از قبل انتخاب کنیم. (ما نمی دانیم که $D_2$ در A چقدر غنی است و به هر حال ممکن است بدشانس باشیم.) آیا الگوریتم ساده ای برای این مورد وجود دارد؟ من تامپسون، اس. ک. و سبر، جی.ای.گ. _نمونه گیری تطبیقی_ را مطالعه کرده ام. ویلی، نیویورک، 1996 اما نمی توان دقیقاً این مشکل را درمان کرد. اما دل من به من می گوید که هر دو مشکل فوق قبلاً بارها با آن روبرو شده و حل شده است.
چگونه می توان یک نمونه تصادفی ساده را پس از رشد جمعیت به طور موثر گسترش داد؟
95380
من باید گزارشی بنویسم که روش مونت کارلو برای چه کاری مناسب است و برای چه مواردی مناسب نیست، با این حال، من نمی توانم مطالب زیادی در مورد این اطلاعات پیدا کنم. برای یکپارچه سازی، فیزیک و مشکل فروشنده دوره گرد برای چه چیزی مناسب است؟ و برای چه چیزی نیست؟
روش مونت کارلو
27287
برای پاسخ به این سوال که آیا ژنوتیپ TASR238 پیش بینی کننده خوبی برای توانایی چشیدن PTC (فنوتیپ) است، باید یک آزمایش آماری را انتخاب کنم. T/T 10 4 2 T/t 30 26 12 t/t 5 4 18 (در اینجا نیز یافت می شود) فکر می‌کنم باید از $\chi^2$ استفاده کنم، اما آیا این یک آزمایش $\chi^2$ برای تفاوت‌ها خواهد بود؟ چگونه می توانم فنوتیپ مورد انتظار را بر اساس ژنوتیپ محاسبه کنم، آیا فقط تعداد کل ژنوتیپ خواهد بود؟
از کدام آزمون آماری برای آزمایش ارتباط بین فنوتیپ و ژنوتیپ استفاده کنم؟
74709
من یک ANOVA 3-عاملی (بین با بین بین درون) را با ساختار همبستگی که با استفاده از یک قطع تصادفی و همبستگی سریال گاوسی مدل‌سازی شده است، اجرا می‌کنم. من متغیرهای زیر را دارم: متغیر وابسته: وزن بدن مستقل: اندازه - اندازه سوژه (بین). 2 سطح: رژیم غذایی معمولی و بزرگ - رژیم غذایی داده شده (بین). 2 سطح: رژیم غذایی معمولی یا آزمایشی. زمان - اندازه گیری هفتگی وزن بدن (در داخل). 12 سطح: 1:12 من یک تعامل سه طرفه قابل توجه و همه تعاملات دو طرفه دارم (p<0.05)، و بنابراین من 3 عامل را طبقه بندی می کنم تا تمام تفاوت های جفتی بین اندازه معمولی و بزرگ را در هر رژیم غذایی آزمایش کنم. و در هر هفته من این مقایسه‌های خاص را انجام می‌دهم زیرا علاقه‌مندم که آیا سایز باعث افزایش بیشتر وزنی می‌شود که در رژیم آزمایشی رخ می‌دهد یا خیر. با استفاده از این رویکرد، من در مجموع 24 مقایسه بعد از اتفاق دارم. من می‌خواهم قدرت را با استفاده از رویه Hochberg به جای Holm برای تنظیم مقایسه‌های چندگانه بهبود بخشم، اما مشخص نیست که آیا داده‌های من با فرض آمار/p-مقدارهای تست مستقل یا مرتبط مثبت (طبق آزمون Simes و مستندات multicomp) مطابقت دارند یا خیر. در R). من از مدل ترکیبی به دلیل اندازه گیری های مکرر همبستگی مثبت استفاده می کنم، بنابراین وسوسه می شوم به این نتیجه برسم که آمارهای آزمون پس از تصادف/دو به دو در هر زمان نیز همبستگی مثبت دارند. اما من به خوبی ممکن است اشتباه کنم. سؤالات من در اینجاست: 1. آیا آمارهای آزمون زوجی / مقادیر p این داده های اندازه گیری های مکرر با فرض مستقل / مثبت رویه هوخبرگ مطابقت دارد؟ 2. آیا راهی برای آزمون یا حداقل محاسبه/استخراج همبستگی های آمار آزمون/ مقادیر p برای تایید تجربی فرضیه وجود دارد؟
فرض همبستگی روش هوخبرگ در طرح اندازه گیری های مکرر
73733
با توجه به درک من، در اینجا چیستی/چرا/وقتی فرضیه های زیر به معنای خام تست می شود: * **t-test**: هنگام مقایسه میانگین بین دو نمونه استفاده می شود * **ANOVA (یک طرفه)**: زمانی استفاده می شود شما یک متغیر وابسته و یک متغیر مستقل (یعنی طبقه‌بندی) دارید و می‌خواهید «میانگین» (یعنی تأثیرات) را در چندین گروه تجزیه و تحلیل کنید. به سادگی بیان شد، آزمون t چند راهه در اصل. * **ANOVA (دو طرفه)**: شبیه به یک طرفه است با این تفاوت که شما دو متغیر مستقل (یعنی طبقه بندی) دارید * **MANOVA** : ANOVA با چندین متغیر وابسته * **ANCOVA** : ?? * **MANCOVA**: ?? به طور شهودی، مفاهیم/شهود پشت (M)ANOVA منطقی است و من می‌دانم که چه زمانی و چگونه آن را اعمال کنم و چرا لازم است. من فقط درک خود را در مورد آنها در بالا بیش از حد ساده کردم. با این حال، من فاقد شهود مشابه در پشت (M)ANCOVA هستم.
شهود پشت (M)ANCOVA چیست و چه زمانی/چرا باید از آن استفاده کرد؟
34213
من یک سری زمانی اندازه گیری ساعتی برای مدت یک سال دارم: زمان <- 1:(365*24)/24 set.seed(1) x <- rnorm(طول(زمان)) اندازه گیری ها در فواصل ساعتی انجام می شود . تناوب اصلی برای سری های زمانی، یک سیکل روزانه است، یعنی دما از یک الگوی روزانه پیروی می کند. با این حال، من می خواهم نشان دهم که قدرت این فرکانس مورد انتظار در زمان متفاوت است، یعنی در برخی از روزها در مقایسه با روزهای دیگر بیشتر است. برای دستیابی به این هدف، من به اجرای پنجره ای روی سری های زمانی فکر می کردم، و یک پریودوگرام را برای هر روز (یعنی هر 24 ردیف) محاسبه می کنم که نشان می دهد تناوب 1/24 تغییرات کمتری در داده ها در زمان های خاصی از سال را توضیح می دهد. من با R جدید هستم، بنابراین دانش نسبتاً ابتدایی در مورد چگونگی تولید یک اسکریپت برای این کار دارم. هر توصیه ای قدردانی خواهد شد.
در مورد استفاده از پریودوگرام یک سری زمانی
95124
من فقط نمی دانم که آیا راهی برای محاسبه فواصل بین مرکزهای تولید شده توسط Primer 6 در نمودار MDS وجود دارد؟ من سعی می کنم پیدا کنم که آیا فواصل مرکز بین نمونه ها تغییر می کند یا خیر، اما نمی توانم راهی برای بدست آوردن مقادیر از برنامه پیدا کنم.
محاسبه فاصله بین سانتروئیدها در نمودار Primer 6 MDS
93900
مدل کاکس به خود زمان بستگی ندارد، در عوض فقط به ترتیب وقایع نیاز دارد. چطور ممکن است به زمان نیاز نداشته باشد، زیرا همه مدل‌هایی که تاکنون دیده‌ام به زمان دقیق و/یا بازه زمانی بستگی دارند؟
دقیقاً چگونه مدل Cox می تواند زمان های دقیق را نادیده بگیرد؟
95388
بنابراین من در حال تحقیق هستم که آیا عزت نفس بر رضایت بیماران از سمعک تأثیر دارد یا خیر. بیماران دو پرسشنامه را تکمیل کردند که اولی عزت نفس و دومی میزان رضایت آنها از سمعک بود. فرضیه من این است که نمره عزت نفس بالاتر با رضایت بالاتر از سمعک مرتبط است. پرسشنامه عزت نفس یک مقیاس لیکرت ده قسمتی است که از بیماران می خواهد زنگ بزنند که آیا کاملاً موافق، موافق، مخالف یا کاملاً مخالف هستند. پرسشنامه رضایت از سمعک مشابه است، اما از تیک باکس‌هایی برای بیماران استفاده می‌کند تا انتخاب کنند که کدام گزینه بهترین استفاده را توصیف می‌کند. بنابراین 20 نفر پرسشنامه ها را انجام داده اند و بنابراین من برای هر بیمار 20 امتیاز برای عزت نفس و رضایت از سمعک دارم. می‌خواهم ببینم این دو امتیاز با هم مرتبط هستند یا خیر. از چه آزمون آماری استفاده کنم؟ (من به معنای واقعی کلمه هیچ تجربه ای در مورد آمار ندارم)
تحلیل همبستگی دو مقیاس رتبه بندی شده
73736
ممنون می‌شوم اگر کسی بتواند در ترجمه دستور R زیر به یک معادله ریاضی به من کمک کند: lme(score ~ ​​factor(timeslot), random=~1|subjectid, data=a) برای هر موضوع مشاهداتی در 6 زمان مختلف وجود دارد ( Timeslots) در طول یک روز.
ترجمه دستور R lme به معادله ریاضی
95382
این اولین پست من است، بنابراین از شما خواهش می کنم هر گونه اشتباهی را ببخشید (من در آمار نیز فوق العاده تازه کار هستم). من این مجموعه داده را دارم که از مصاحبه‌های کاربران (غواصان) درباره درک آنها از روند جمعیت منابع (شش گونه کوسه) در چهار دهه به دست آمده است. از هر کاربر خواسته شد تا برداشت خود را از روند جمعیت برای هر کوسه بر اساس پنج دسته بیان کند: کاهش عمده، کاهش، ثابت، افزایش و افزایش عمده. از آنها خواسته شد که پاسخ های خود را در هر دهه محدود کنند: روند برای گونه X در دهه 80، روند برای گونه های مشابه در دهه 90، 00s، و غیره برای سایر گونه ها. شایان ذکر است که میزان پاسخ‌ها در هر دهه با توجه به سطح تجربه غواصان متفاوت بوده است، به این معنی که در دو دهه گذشته غواصان با تجربه بیشتری وجود داشته است و از دهه 80 تعداد کمی از آنها (در مجموع چهار غواص با تجربه از آن زمان به بعد دهه 80؛ 14 از دهه 90 و 25 از دهه 2000). من شکلی از پاسخ آن 25 غواص در یک گونه کوسه پیوست کرده ام. نمرات را از مصاحبه با غواصان در مورد روند جمعیت گونه های کوسه X در چهار دهه گذشته به دست آورد. پاسخ های به دست آمده از 25 غواص. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/z1Jfu.png) من به دنبال ساده ترین راه برای ارزیابی سطح توافق آنها در هر روند خاص در طول دهه ها بوده ام. دریابید که ANOVA ها تقریباً راه خوبی برای ارزیابی هر نوع داده طبقه بندی نیستند و ادبیات من را به مدل های ترکیبی منطقی هدایت کرد، اگرچه هنوز تصویر واضحی ندارم که چگونه آن ها به من اجازه می دهند سطح توافق و روند کلی گونه ها را ارزیابی کنم. زمان لطفاً کسی می تواند تحلیل من را روشن کند و به من بگوید که بهترین آزمون آماری برای ارزیابی سطح توافق و روند در طول زمان این مجموعه داده باید باشد؟ آیا مدل های ترکیبی منطقی برای این کار جواب می دهند؟ لطفاً، من از R استفاده می‌کنم، بنابراین می‌خواهم با مهربانی از شما کمک بخواهم و به من در هر روال/بسته R خاص اشاره کنید. همچنین، اگر چیزی وجود دارد که باید اضافه کنم تا سوالم واضح تر شود، لطفاً به من اطلاع دهید. خیلی ممنون!! سی.
چه آزمونی برای تجزیه و تحلیل سطح توافق ادراک کاربران در مورد روند جمعیت گونه ها از داده های طبقه بندی ترتیبی
27288
من می‌خواهم آزمایش‌های دو بعدی کولموگروف-اسمیرونوف را برای تعیین اینکه آیا توزیع دو بعدی با یک مرجع مطابقت دارد یا خیر، اجرا کنم. آیا بسته یا برنامه ای وجود دارد که بتوانم به روشی نسبتاً ساده از آن استفاده کنم؟ یا الگوریتم دیگری ارجحیت دارد؟ من فقط یک دانش اولیه آماری دارم.
کولموگروف-اسمیرنوف دو بعدی
23990
من با یک سری زمانی (گسسته) کار می کنم که در حالت ایده آل 1 مقدار در هر مهر زمانی دارد. در برخی موارد، مضرب هایی را می بینیم که دامنه وسیعی دارند که همگی با یک مهر زمانی ثبت شده اند. تا به حال، داده‌ها را میانگین می‌گرفتیم، اما نمونه‌های بسیار کمی از محدوده‌های بسیار بزرگ پیدا کرده‌ایم. آیا در عوض باید حالت ها را در نظر بگیریم (گاهی اوقات فقط 2 مقدار وجود دارد)، آیا باید روش دیگری را در نظر بگیریم؟ چه زمانی باید فقط به بیرون انداختن آنها فکر کنیم؟ مقادیر زیادی از دست رفته در این داده ها وجود دارد، بنابراین استفاده از مقادیر قبلی و بعدی در دنباله ایده آل نیست. من نمی توانم از آمارهای قبلی خود به یاد بیاورم که روش ترجیحی برای برخورد با این مقادیر چیست، زیرا مدتی است (شاید هرگز، در عمل) با این مورد مواجه نشده ام. هر گونه ایده در مورد نحوه رسیدگی به وضعیت بسیار قدردانی می شود. منابع برای جستجو نیز بسیار کمک خواهد کرد! اساساً داده ها گاهی اوقات به این شکل به نظر می رسند، جایی که مقادیر با ; از هم جدا می شوند. (اینها به ترتیب نیستند): 00:43:00 78;66;81 02:01:00 68;74 03:53:00 78;86;88;95;95;111;102; 97;94;95 15:48:00 81;120;97;58;84 ویرایش: در حالی که ایده آل این است که در هر مُهر زمانی 1 وجود داشته باشد، دلیل اینکه در برخی موارد بیش از یک عدد وجود دارد، برش در دقیقه توسط پایگاه داده است جزئیات
چندین مقدار در یک مهر زمانی
103146
من یک مشکل خاص دارم که از اینکه پاسخ های آنلاین پیدا نمی کنم تعجب می کنم و امیدوارم کسی اینجا پیشنهاد خوبی برای من داشته باشد. من با یک مجموعه داده بزرگ کار می کنم که با استفاده از تراکم خوشه های سفارشی در گروه های خاصی دسته بندی می کنم. بنابراین فضای اصلی کاملاً ناهمگن است و دارای تعداد زیادی ویژگی است. در طول و پس از بهینه‌سازی مدل، بردار مسئولیت هر نقطه داده، پیش‌بینی ویژگی‌های اصلی به ابعاد k (k = تعداد خوشه‌ها) است. هر یک از این بردارها نیز به یک مجموع می شود که آنها را به یک توزیع (گسسته) در فضای خوشه ها تبدیل می کند. با استفاده از این تکالیف نرم، من همیشه می‌توانم یک تجسم نقشه حرارتی از ماتریس سردرگمی مربوطه ایجاد کنم (زمانی که برچسب‌های دسته‌بندی داشته باشم). به طور معمول، این تخصیص ها کاملاً واضح هستند، به این معنی که بسیاری از بردارها به شکل (0،0،1،0،0...) هستند، اکنون، من می خواهم یک نمایش (2d) از نقاط گروه بندی شده توسط اطلاعات در ماتریس مسئولیت به این ترتیب، من می‌توانم هر مرحله از فرآیند بهینه‌سازی را بدون دانستن برچسب‌های واقعی، تجسم کنم. اولین افکار من PCA، MDS و الگوریتم های طرح بندی نمودار بود. با این حال، اگرچه نقشه حرارتی یک گروه بندی واضح را نشان می دهد، PCA با نقاطی که در خطوط تراز شده اند کاملاً متراکم به نظر می رسد. از آنجایی که MDS و نمودارها از فاصله ها استفاده می کنند، من به محاسبه فاصله های Hellinger یا Earth Mover به صورت زوجی بین بردارهای مسئولیت برای اعمال هر یک از الگوریتم های MDS یا طرح بندی نمودار فکر کردم. با این حال، MDS تا کنون موفق نبوده است. کسی قبلا همچین کاری انجام داده؟ در حالت ایده‌آل، من می‌خواهم انیمیشنی از روش خوشه‌بندی را ببینم که نقاط داده با هم گروه‌بندی شوند. با تشکر از ورودی شما.
تجسم خوب (2d) خوشه‌بندی مدل مخلوط