_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
40400
|
من در حال انجام پروژه ای هستم که در آن باید مقادیر فعال سازی fMRI را برای هر وکسل مغز پیش بینی کنم. وکسل ها تقریباً 20000 است و من 300 نمونه با 25 ویژگی در هر کدام دارم. بنابراین تعداد زیادی متغیر وابسته وجود دارد. بهترین روشها در این زمینه تحلیل چند متغیره کدامند؟ من در این زمینه تازه کار هستم و اگر مرا در مسیر درست راهنمایی کنید بسیار مفید خواهد بود.
|
تکنیک های تجزیه و تحلیل چند متغیره برای داده های fMRI
|
103429
|
من 2 متغیر دارم که هر کدام 500 نمونه دارند. و من می خواهم یک مقدار $p$ دریافت کنم که به من اهمیت ارتباط بین آن 2 متغیر را می دهد. راه دریافت این $p$-value در R چیست؟ من توابع «fisher.test» و «chisq.test» را بررسی کردم، اما فکر میکنم هر دوی آنها به متغیرهای با مقدار صحیح نیاز دارند در حالی که متغیرهای من هر دو دارای ارزش واقعی هستند. و وقتی تابع cor.test را امتحان می کنم، مقادیر p بسیار بزرگ هستند (حدود 0.05) حتی زمانی که همبستگی بین متغیرها بسیار زیاد است (حدود 0.99)، که برای من منطقی نیست.
| |
11385
|
من سعی می کنم آزمایش کنم که آیا رگرسیون من یک مسئله ناهمسانی دارد یا خیر. پس از اجرای یک رگرسیون، به وضوح می توانم ببینم که نمودار باقیمانده دارای یک الگو است. پس از گرفتن گزارش از متغیر وابسته، الگوی بسیار بسیار کاهش می یابد. آزمون White بر روی فرمول اصلی مقدار p 0.0004 را قبل از تبدیل (مدل با الگوی قوی در باقیمانده ها) و مقدار p 0.08 را پس از تبدیل log برمی گرداند. من می توانم ببینم که مدل دوم ناهمگنی کمتری در طرح دارد، اما چگونه می توانم نتایج آزمایش وایت را تفسیر کنم؟ آیا مقدار اول به این معنی است که میتوانیم وجود ناهمسانی را با اهمیت (100-0.0004)٪ رد کنیم، در حالی که در مدل دوم، مثلاً با اطمینان 95٪ میتوانیم آن را رد کنیم؟
|
رگرسیون خطی، ناهمسانی، تفسیر آزمون وایت؟
|
15474
|
بگویید من جدول احتمالی 2 * 2 دارم که در آن یکی از سلول ها به طور قابل توجهی از همه سلول های دیگر بزرگتر است، مانند این: P1 P2 C1 6 11 C2 81 12201 آیا استفاده از آزمون دقیق فیشر در اینجا مناسب است و می توانید به من اشاره کنید دفاع از آن انتخاب؟ اگر نه، چه آزمونی بهتر از اهمیت است؟
|
اگر یک سلول بسیار بزرگتر از بقیه باشد، آزمایش دقیق فیشر مناسب است؟
|
43276
|
من آزمایشی را با استفاده از دو روش مختلف انجام دادم. داده ها درصد هستند و درصدهای بالاتر نشان دهنده روش بهتر است. نتایج به شرح زیر بود: روش 1: 74.47،79.34،72.85،83.54،75.18،73.58،70.06، 73.35،74.41،78.35،73.14،81.55،76.21، روش 726. 83.25،85.14،81.61،77.59،79.38،80.24،79.94،82.54،78.22، 83.21،82.54،77.67،83.51،78.87، میانگین روش 1، 78.87، 70.51، 78.87 است و میانگین روش 1، 76 است. 2 به دلیل ارزش میانگین بهتر است. بازبینها از من خواستهاند شواهد آماری قویتری ارائه کنم که روش 2 عملکرد بهتری نسبت به روش 1 دارد. به طور خاص: > نظر 1: نتایج در چارچوب آماری قابل اعتماد میشوند > مقادیر p یا سایر معیارهای آماری تفاوت را ارائه میکنند. > > نظر 2: یک تجزیه و تحلیل آماری باید انجام شود تا شواهد قوی با توجه به بهترین عملکرد روش 2 نسبت به روش > 1 ارائه شود.
|
چگونه می توان شواهد آماری مبنی بر اینکه یک روش آزمایشی میانگین درصدهای بالاتری را ارائه می دهد ارائه کرد؟
|
19156
|
من سعی میکنم کمیت کنم که شرکتهای نظرسنجی مختلف در یک انتخابات اخیر در یک سیستم چند حزبی چقدر خوب (یا ضعیف) عمل کردند (بنابراین، به آسانی نمیتوان گفت که چقدر در یک مسابقه دو اسبی امتیاز اشتباه گرفتهاند). بنابراین، بگوییم که نتیجه انتخابات واقعی این بود: شرکت انتخاباتیA شرکتB حزب A 0.3 0.3 0.3 حزب B 0.6 0.5 0.4 حزب C 0.3 0.2 0.3 در ابتدا فکر می کردم با استفاده از اندازه نمونه هر نظرسنجی برای محاسبه مقادیر مورد انتظار، یک Chi Squared انجام دهم (و مشاهده شده به عنوان تعداد به جای نسبت). به این ترتیب، من میتوانم اندازهگیری مناسبی از تطابق دادههای هر شرکت با استاندارد خارجی داشته باشم - اما نمیدانم چگونه میتوانم بپرسم که آیا برآورد CompanyA تناسب قابل توجهی بدتر از شرکت B با نتیجه دارد یا خیر. من مطمئن هستم که چیز بی اهمیتی وجود دارد که نمی توانم آن را درک کنم، بنابراین خوشحالم که پاسخی دریافت می کنم که مرا در مسیر دیگری قرار می دهد. _**به روز رسانی** (از پیتر فلوم برای کمک به این موضوع تشکر می کنم)_ فقط برای روشن شدن. چیزی که من واقعاً میخواهم بدانم این است که چه کسی به تطبیق پیشبینیهای خود با نتیجه نهایی در همه طرفها نزدیکتر شده است. بنابراین، حدس میزنم بهترین متریک مجموع مجذور تفاوتها باشد
|
مقایسه دقت شرکت های نظرسنجی در سیستم چند حزبی
|
89175
|
من یک کلاس تابع $\mathcal{F}$ دارم. من $n$ نمونه بر اساس مدل $$y = f^*(x)+\epsilon$$ دریافت میکنم بهترین $\hat{f}$ را از این نمونههای آموزشی پیدا میکنم، یعنی $$\hat{f} = \ arg\min\limits_{f\in \mathcal{F}} \frac{1}{n}\sum\limits_{i=1}^n (y_i-f(x_i))^2$$ اجازه دهید $\bar{f} = E[\hat{f}]$، که در آن انتظار بیش از همه نمونههای آموزشی است. اکنون، میانگین خطای تست توسط \begin{align*} E[(y_0-\hat{f}(x_0))^2] &= E\left[\left((y_0-f^*(x_0)) داده میشود. ) + (f^*(x_0)-\bar{f}(x_0)) + (\bar{f}(x_0)-\hat{f}(x_0))\right)^2\right]\\\ &= E[(y_0-f^*(x_0))^2] + \color {red}{E\left[\left((f^*(x_0)-\bar{f}(x_0)) + (\bar{f}(x_0)-\hat{f}(x_0))\right)^2\right]}\\\ &\stackrel{\color{red}{?}} = E[(y_0- f^*(x_0))^2] + \color{red}{E\left[(f^*(x_0)-\bar{f}(x_0))^2\right] + E\left[(\bar{f}(x_0)-\hat{f}(x_0))^2\right]} \end{align*} مرحله دوم به این دلیل است که $y_0-f^*(x_0)= \epsilon_0$، که مستقل از $x_0$ است. با این حال، نمیدانم که چگونه $f^*(x_0)-\bar{f}(x_0)$ مستقل از $\bar{f}(x_0)-\hat{f}(x_0)$ برای سوم است گام $f^*(x_0)-\bar{f}(x_0)$ به میانگین تمام نمونهها مربوط میشود، در حالی که $\bar{f}(x_0)-\hat{f}(x_0)$ به نمونه فعلی بستگی دارد، و ما می دانیم که نمونه ها مستقل هستند، اما چگونه این نشان دهنده استقلال آنها است؟
|
متعامد بودن در مبادله واریانس سوگیری
|
21233
|
چرا روش استوفر اغلب بر روی z هایی انجام می شود که با مقادیر $p$- یک دنباله مطابقت دارند، در حالی که ریاضیات اجازه می دهد z هایی که با مقادیر $p$-دو دنباله مطابقت دارند؟
|
چرا روش استوفر اغلب با مقادیر $p$-یک دنباله به جای $p$-values دو طرفه استفاده می شود؟
|
19158
|
من 2 جلد دارم: * لیست 1 در کل شامل 1 میلیون کلمه است. این نشان دهنده استفاده کلی نوشتاری است. * فهرست 2 در مجموع شامل 5 میلیون کلمه است. این نشان دهنده یک زیر ژانر ادبیات است. من می خواهم کلماتی را که مخصوص آن ژانر هستند جدا کنم. با مقایسه این دو لیست با استفاده از نرم افزارهایی که نوشتم، می توانم داده هایی مانند این را دریافت کنم: * کلمه elephant 20 بار در لیست 1 ظاهر می شود. * کلمه elephant 100 بار در لیست 2 ظاهر می شود. * کلمه forest 20 بار در لیست ظاهر می شود. 1. * کلمه جنگل 300 بار در لیست 2 آمده است. در این مورد، به نظر من واضح است که فیل چندان خاص این ژانر نیست. (20/1000000 = 100/5000000)، با این حال، جنگل احتمالاً خاص است (20/1000000 < 300/5000000). با این حال، مواردی وجود دارد که تصمیم گیری دشوارتر به نظر می رسد: * کلمه پل 20 بار در لیست 1 ظاهر می شود. * کلمه پل 150 بار در لیست 2 ظاهر می شود. * کلمه راکون در لیست 1 ظاهر می شود. زمان در لیست 1. * کلمه راکون 10 بار در لیست 2 ظاهر می شود. در مثال اول، پل بیشتر در لیست 2 ظاهر می شود، اما آیا این تفاوت قابل توجه است؟ در مثال دوم، راکون 10 برابر بیشتر در لیست 2 ظاهر می شود، اما با توجه به اینکه تعداد کل موارد بسیار کم است، آیا این مهم است؟ * چگونه می توانم یک نقطه برش برای تصمیم گیری در مورد کلمات خاص برای ژانر به دست بیاورم؟
|
مقایسه کلمات در 2 مجموعه برای یافتن تفاوت های قابل توجه
|
89179
|
بسیار در امتداد خطوط «نمونههای واقعی توزیعهای رایج» برایم جالب است که آیا کسی نمونههای آموزشی دارد که برای آموزش چولگی منفی استفاده میشود؟ نمونههای متعارف فراوانی از توزیعهای متقارن یا عادی وجود دارد که در آموزش استفاده میشوند - حتی اگر نمونههایی مانند قد و وزن تحت بررسی دقیقتر بیولوژیکی قرار نگیرند! شاید فشار خون نزدیک به حد طبیعی باشد. من از مثال تاریخی خطاهای اندازه گیری نجومی خوشم می آید - شهودی است که احتمال اینکه آنها در یک جهت قرار بگیرند بیشتر از دیگری نیستند، و خطاهای کوچک بیشتر از بزرگ هستند. همچنین ده ها مثال آموزشی رایج برای چولگی مثبت وجود دارد. درآمد مردم؛ مسافت پیموده شده در اتومبیل های دست دوم برای فروش; زمان واکنش در یک آزمایش روانشناسی؛ هزینه های خانه؛ تعداد خسارت های ناشی از تصادف توسط مشتری بیمه؛ تعداد فرزندان یک خانواده معقول بودن فیزیکی چنین مثال هایی اغلب از توزیع هایی ناشی می شود که در زیر (معمولاً با صفر) محدود می شوند، با مقادیر پایین قابل قبول یا حتی معمول هستند، در حالی که مقادیر بسیار بزرگ (گاهی اوقات، مرتبه های بزرگی) نیز مشخص است که رخ می دهند. اما برای انحراف منفی، نمونههای واضح و واضح فراوان نیستند، شاید به دلیل عدم توزیع واقعی با کران بالایی واضح باشد. مثال بد ذوقی که در مدرسه به من آموختند «تعداد انگشتان» بود. اکثرا ده نفر دارند، اما از دست دادن یک یا چند مورد در یک تصادف غیرمعمول نیست. (نتیجه این بود که 99٪ افراد تعداد انگشتانشان بالاتر از حد متوسط است!) Polydactyly این موضوع را پیچیده تر می کند، بنابراین ده یک حد بالایی نیست. و از آنجایی که هر دو انگشت گم شده و اضافی رویدادهای نسبتاً نادری هستند، دانش آموزان ممکن است شهود روشنی نداشته باشند که کدام یک از تأثیرات غالب است. در عوض، من معمولاً از توزیع دو جمله ای با _p_ بالا استفاده می کنم. اما دانشآموزان اغلب «تعداد مؤلفههای رضایتبخش در یک دسته بهطور منفی منحرف است» نسبت به این واقعیت مکمل که «تعداد مؤلفههای معیوب در یک دسته دارای انحراف مثبت است» کمتر شهودی میدانند. (کتاب درسی موضوعی صنعتی دارد؛ من در واقع از تعدادی تخم مرغ شکسته و دست نخورده در یک بسته 12 تایی استفاده می کنم.) به نظر می رسد دانش آموزان احساس می کنند که موفقیت باید نادر باشد. در واقع برخی از جداول احتمال تجمعی دوجمله ای به $p \leq 0.5$ نیاز دارند، بنابراین این را اجرا کنید، و من اغلب متوجه شده ام که دانش آموزان با سوالاتی که نیاز به گرفتن $p > 0.5$ دارند، مشکل دارند تا با سوالاتی که به طور غیر شهودی از آنها خواسته می شود ابتلا به یک بیماری وحشتناک را به عنوان موفقیت! گزینه دیگر این است که به این نکته اشاره کنیم که اگر $X$ دارای یک توزیع دارای انحراف مثبت باشد، آنگاه $-X$ دارای انحراف منفی است، اما تلاش برای قرار دادن آن در یک زمینه عملی (قیمتهای خانه منفی منحرف شده است) محکوم به شکست آموزشی شاید مشکل انگشتان یا تخم مرغ های دست نخورده به عنوان مثال این باشد که (الف) بسیار مصنوعی هستند، (ب) دارای یک برش شدید در حالت هستند. نمونههای انحرافی مثبت خوب، مانند درآمد، اغلب توزیع آرامی دارند، که دانشآموزان برای آگاهی از شکل آن تجربه زندگی کافی دارند. آیا مجموعه داده های مشابهی، شناخته شده یا به راحتی قابل درک، وجود دارد که به طور موثر چولگی منفی را نشان می دهد؟
|
نمونه های واقعی از توزیع ها با چولگی منفی
|
72299
|
ویکیپدیا تعریف قابل قبولی از _متغییر_ دارد که دقیقاً با دیکشنری اپیدمیولوژی مطابقت دارد. طبق گفته وبستر، اولین استفاده شناخته شده در سال 1965 بود. اما نمایشگر گوگل n-gram آن را زودتر نشان می دهد، اگرچه من گمان می کنم بسیاری از اسناد اولیه به اشتباه تاریخ گذاری شده اند. با این حال، هیچ یک از اینها واقعاً به سؤال من پاسخ نمی دهد، که این است: این اصطلاح که اکنون همه جا حاضر است از کجا آمده است؟
| |
94200
|
من علیت را همانطور که در اقتصاد خرد استفاده می شود (به ویژه طراحی ناپیوستگی IV یا رگرسیون) و همچنین علیت گرنجر را همانطور که در اقتصاد سنجی سری زمانی استفاده می شود درک می کنم. چگونه یکی را با دیگری مرتبط کنم؟ به عنوان مثال، من هر دو روش را دیده ام که برای داده های پانل استفاده می شود (مثلا $N=30$، $T=20$). هر گونه ارجاع به مقالات در این زمینه قابل تقدیر خواهد بود.
|
علیت در اقتصاد سنجی خرد در مقابل علیت گرنجر در اقتصاد سنجی سری زمانی
|
19151
|
این یک رویکرد ساده است که مجموعهای از مختصات دارد (مثلاً در دوبعدی به عنوان «{x,y}») و حداقل یک متغیر مرتبط (مثلاً «v») برای محاسبه **واریوگرام** به عنوان توصیفکننده وابستگی فضایی متغیر v از طریق میدان مورد مطالعه.   سوال به نظر من این است: **چگونه می توان یک مجموعه داده با واریوگرام تولید کرد؟ (حرکت معکوس!)** یعنی حداقل یک واریوگرام موجود است اما نه مجموعه داده و نه توضیحات دیگری در دسترس است و هدف ایجاد یک مجموعه داده اصلی (ناشناخته) است که می تواند چنین واریوگرام را داشته باشد. احتمال چنین تحققی چقدر است؟ ** به روز رسانی ها / نظرات: ** از variogram در زمینه بالا منظور من از variogram تجربی است. من فکر می کنم که مناسب کردن یک مدل واریوگرام حداقل برای این سوال مشکلی نیست. همچنین واریوگرام به صورت جفت (h، گاما) در دسترس است.
|
تولید داده برای دنبال کردن واریوگرام داده شده
|
19150
|
من سعی می کنم دو ANOVA درون موضوعی (فقط) را اجرا کنم و پیام های خطای زیر را دریافت کنم: اولی یک ANOVA 3 طرفه با 11 موضوع و 48 مشاهده در هر موضوع است. من یک آموزش آنلاین را دنبال کردم تا سعی کنم از تابع Anova استفاده کنم و پیام خطای زیر را دریافت کنم: > خطا در linearHypothesis.mlm(mod, hyp.matrix, SSPE = SSPE, idata = idata, : > ماتریس خطای SSP ظاهراً ناقص است رتبه = 10 < 18 این کد R من برای اجرای ANOVA است: block_aov <- factor(rep(c(b0، b1، b2، b3)، c(12، 12، 12، 12))، level=c(b0، b1، b2 , b3)) set_aov <- factor(rep(rep(c(s0، s1، s2، s3)، c(3، 3، 3، 3))، c(4) سطوح = c(s0، s1، s2، s3)) quality_aov <- factor(rep(c(q0، q1، q2)، 16)، سطوح = c(q0 ، q1، q2)) idata <- data.frame(block_aov, set_aov, quality_aov) av.ok <- Anova(lm(formula = cbind(b0s0q0, b0s0q1, b0s0q2, b0s1q0, b0s1q1, b0s1q2, b0s2q0, b0s2q1, b0s2q2, b0s3q0, b0s3q1, b0s3q2, b1s0q1, b0s3q2, b1s0q1, b1, b1s0q1, b1 b1s1q1، b1s1q2، b1s2q0، b1s2q1، b1s2q2، b1s3q0، b1s3q1، b1s3q2، b2s0q0، b2s0q1، b2s0q2، b2s1q0، b2s1q1، b2s2، b2s1q2 b2s2q2، b2s3q0، b2s3q1، b2s3q2، b3s0q0، b3s0q1، b3s0q2، b3s1q0، b3s1q1، b3s1q2، b3s2q0، b3s2q1، b3s2q2، b3s3q1، b3s3q2، b3s3q1، b3s3q = space_zero)، idata = idata، idesign = ~ block_aov * set_aov * quality_aov، type = III) سپس آموزش استفاده از تابع `ezANOVA` را دنبال کردم و همان پیغام خطا را دریافت کردم و به دنبال آن چهار پیام خطا دریافت کردم. دومین ANOVA با اندازه گیری های مکرر که من سعی کردم اجرا کنم، 4 طرفه با 17 موضوع و 144 مشاهده برای هر موضوع بود. برای این کار، هنگام تلاش برای تطبیق یک مدل خطی با دادهها، پیام خطایی دریافت کردم: lm(cbind(b0s0p0q0, b0s0p0q1, b0s0p0q2, b0s0p1q0, b0s0p1q1, b0s0p1q2, b0s0p2q0, b0s0p2q0, b0s0, b0s0p0q0, b0s0, b0s1p0q0, b0s1p0q1, b0s1p0q2, b0s1p1q0, b0s1p1q1, b0s1p1q2, b0s1p2q0, b0s1p2q1, b0s1p2q2, b0s2p0q0, b0s1p2p0, b0s1p2p0, b0s1p2p0 b0s2p1q1, b0s2p1q2, b0s2p2q0, b0s2p2q1, b0s2p2q2, b0s3p0q0, b0s3p0q1, b0s3p0q2, b0s3p1q0, b0s3p1q1, b0s2q, b0s3p1q1, b0s3p2q1, b0s3p0q1 b0s3p2q2, b1s0p0q0, b1s0p0q1, b1s0p0q2, b1s0p1q0, b1s0p1q1, b1s0p1q2, b1s0p2q0, b1s0p2q1, b1s0p2q2, b1s0p1p1, b1s0p1p1, b1s0p1p0 b1s1p1q0, b1s1p1q1, b1s1p1q2, b1s1p2q0, b1s1p2q1, b1s1p2q2, b1s2p0q0, b1s2p0q1, b1s2p0q2, b1s2p1q0, b1s1p2p1, b1s2p2p1 b1s2p2q1، b1s2p2q2، b1s3p0q0، b1s3p0q1، b1s3p0q2، b1s3p1q0، b1s3p1q1، b1s3p1q2، b1s3p2q0، b1s3p2q1، b1s3p1q0، b1s3p2q1، b1s3p2p2، b1s3p1q0 b2s0p0q2، b2s0p1q0، b2s0p1q1، b2s0p1q2، b2s0p2q0، b2s0p2q1، b2s0p2q2، b2s1p0q0، b2s1p0q1، b2s1p0q2، b2s0p1p2، b2s1p2q1 b2s1p2q0, b2s1p2q1, b2s1p2q2, b2s2p0q0, b2s2p0q1, b2s2p0q2, b2s2p1q0, b2s2p1q1, b2s2p1q2, b2s2p2q0, b2s2p0q0, b2s2p2p2, b2s2p2p2 b2s3p0q1, b2s3p0q2, b2s3p1q0, b2s3p1q1, b2s3p1q2, b2s3p2q0, b2s3p2q1, b2s3p2q2, b3s0p0q0, b3s0p0q1, b2s3p1q1, b3s0p1q1, b3s0p1, b3s0p0 b3s0p1q2, b3s0p2q0, b3s0p2q1, b3s0p2q2, b3s1p0q0, b3s1p0q1, b3s1p0q2, b3s1p1q0, b3s1p1q1, b3s1p1q2, b3s1p2, b3s1p2, b3s1p2, b3s1p2, b3s1p2, b3s2p0q0, b3s2p0q1, b3s2p0q2, b3s2p1q0, b3s2p1q1, b3s2p1q2, b3s2p2q0, b3s2p2q1, b3s2p2q2, b3s3p0q0, b3s2p1q0, b3s2p3p0, b3s2p1q2 b3s3p1q1, b3s3p1q2, b3s3p2q0, b3s3p2q1, b3s3p2q2) ~ 1, data = spacing_no_out) > خطا در model.matrix.default(mt، mf، تضادها): قاب مدل و فرمول > عدم تطابق اطلاعات با مدل. من عرضه کردم (و با فرض من وقتی سعی میکنید از تابع «ezANOVA» برای مورد اول استفاده کنید، نحو درست است، اگر کسی بتواند به من بگوید چه کار اشتباهی انجام میدهم، یا برای تحلیلی که میخواهم انجام دهم، چه راه حلی میتواند داشته باشد، سپاسگزارم.
|
مشکلات با توابع Anova/ezANOVA/lm برای تجزیه و تحلیل اندازهگیریهای مکرر در مجموعه داده بزرگ
|
69959
|
من می خواهم یک رگرسیون لاجیت چند جمله ای ایجاد کنم و بنابراین باید چند خطی بودن و همبستگی خودکار را بررسی کنم. همه متغیرهای من مقیاس اسمی با چهار دسته هستند. من بسته perturb را در R برای آزمایش چند خطی پیدا کردم. من آن را امتحان کردم و خروجی زیر را برای یک مدل لاجیت چند جمله ای با یک متغیر مستقل a دریافت کردم. > a<-sample(4,100, TRUE) > c<-sample(4,100, TRUE) > مورد نیاز(اتومبیل) مورد نیاز(perturb) > a<-as.ordered(a) > c<-as.factor(c) > test<-multinom(c~a) pert.1<-perturb(test) $distribution [1] normal $coeff.table (Intercept) a2 a3 a4 [1،] 0.3629135 19.35080 14.24745 -9.612242 [2،] -2.7724858 22.16780 19.90884 -7.518942 [3،] -115.1831.1600. 26.503249 ... من خلاصه خروجی را خلاصه کردم (pert.1, dec.places = 3, full = TRUE) فرمول: Category ~ c13 formula2: Category ~ c13 Impact of perturbations on coefficients: mean s.d. حداقل حداکثر (رهگیری) -6.190 7.177 -16.160 0.363 a2 18.398 3.537 13.676 22.168 a3 21.979 7.319 14.247 31.782 31.782 31.782 a4 -41961. 26.503 آیا می دانید چگونه این خروجی را تفسیر کنید؟ آیا فرمولی برای تست همبستگی وجود دارد؟ تابع دیگری برای کنترل هم خطی وجود دارد، اما من یک خطای ماساژ دریافت کردم > colldiag(mod = multinom(c~a)، مقیاس = FALSE، مرکز = FALSE، add.intercept = TRUE) # وزن: 20 (12 متغیر) اولیه مقدار 241.215219 iter 10 مقدار 116.300246 iter 20 مقدار 113.703102 iter 30 مقدار 113.686744 iter 40 مقدار 113.685795 iter 50 مقدار 113.685662 مقدار نهایی 113.685659 همگرا Index Condition Variance Variance Decomposition پیام 11000. is.na(object): آیا.na() به غیر (لیست یا برداری) از نوع 'NULL' اعمال می شود آیا انجام این کار برای داده های ترتیبی امکان پذیر نیست؟ با تشکر
|
چند خطی بودن را برای رگرسیون لاجیت چند جمله ای آزمایش کنید
|
79248
|
این مثال از Casella و Berger صفحه دوم 146 است. شما $$f(x,y)=e^{-y}، 0<x<y< \infty $$ دارید و علاقه مند به پیدا کردن $$P( X+Y\ge1)$$ این مشکل را به روش زیر حل کردند $$P(X+Y\ge1)=1-P(X+Y<1)=1-\int_0^{1/2}{\int_x^{1-x}{e^{-y}dydx} }\\\= 1-\int_0^{1/2}{(e^{-x}-e^{-(1-x)}dx)}=2e^{-1/2}-e^{ -1}$$ سوال من این است که چرا آیا آنها آن را به این طریق حل کردند؟ 1) چرا نمی توانم فقط $P(X+Y\ge1)$ را به جای $1-P(X+Y<1)$ حل کنم؟ من گیج شدم زیرا مثال قبل از این به روش دیگری حل شد. آنجا $f(x,y)=6xy^2$ و برای حل $P(X+Y\ge1)$، $$P(X+Y\ge1)=\int_0^1\int_{1-y}^ 16xy^2dxdy=9/10$$ 2) چرا حد انتگرال برای x 0 تا 1/2 است؟ از کجا این مقدار را پیدا کنم؟ آنها این را با استفاده از نمودار حل می کنند، اما آیا راهی برای توجیه روش خود بدون استفاده از نمودار وجود دارد؟
| |
19155
|
چگونه باید تعداد عناصر منحصر به فرد را در فهرستی که به طور تصادفی در هم ریخته شده است تخمین بزنم؟ من در شرایطی هستم که حافظه ای که دارم بسیار کوچکتر از حافظه مورد نیاز برای ذخیره تمام عناصر منحصر به فرد است. چیزی کارآمد با فاصله اطمینان و/یا مرجعی برای چنین روشی عالی خواهد بود
|
شمارش عناصر متمایز زمانی که حافظه محدود است
|
52267
|
من از رگرسیون لجستیک برای طبقه بندی داده ها به دو کلاس استفاده می کنم. متغیری برای پیشبینی (Y) 0 یا 1 است. من با رگرسیون لجستیک تخمین نسبتاً خوبی از Y پیدا کردم و در نهایت از مجموعهای از متغیرها به عنوان متغیرهای پیشبین استفاده کردم (بقیه کاملاً همبسته بودند یا کاهشی نداشتند. هنگام اضافه شدن خطای زیادی دارد). مجموعه متغیرهای انتخابی من هنگام استفاده از AIC به عنوان معیار بهینهسازی، بهینه است. به هر حال، به این نکته: من قبلاً هرگز از توابع رگرسیون به عنوان طبقهبندی کننده استفاده نکردهام، و مطمئن نیستم که چگونه این طبقهبندی کننده را به خوبی آزمایش کنم. استاد من اعتبار متقاطع را پیشنهاد کرد، اما من متوجه نمی شوم که چرا اعتبار متقاطع انتخاب خوبی است در این مورد. من یک مجموعه داده نسبتاً بزرگ دارم (196). اگر تابع رگرسیون من به بهترین شکل ممکن نشان داده شود (با توجه به مقداری بهینه تعریف شده، من از AIC به عنوان معیار استفاده می کنم)، چرا باید حتی آن را آزمایش کنم؟ آیا ممکن است طبقهبندیکننده من بیش از حد برازش داشته باشد، و بنابراین آیا باید برخی از دادهها را کنار بگذارم تا در پایان فقط از آنها به عنوان آزمایش/ اعتبارسنجی استفاده کنم؟ من در این زمینه کمی تازه کار هستم. پیشاپیش از همه کمک ها متشکرم (من 196 بردار ویژگی و 22 ویژگی برای این مورد خاص دارم که از 12 مورد از آنها در پیش بینی Y استفاده می کنم).
|
رگرسیون لجستیک به عنوان طبقه بندی کننده و بیش از حد برازش
|
43182
|
این تکلیف است، اما من نسبتاً گیر کرده ام و TA برای کلاس هنوز راه حل های خود را ارائه نکرده است. هر گونه کمکی در جهت حرکت من در جهت مناسب بسیار قدردانی خواهد شد. من در تعیین کوچکترین اندازه نمونه مورد نیاز برای تشخیص با احتمال 90٪ اختلاف یک علامتی بین دو میانگین $\mu_1$ و $\mu_2$ مشکل دارم، زمانی که $\alpha = 0.05$ است. در مرحله دوم، اگر تفاوت بین $\mu_1$ و $\mu_2$ 2 باشد، مقدار $\beta$ برای آزمایش انجام شده از من پرسیده میشود. میانگین از دو متغیر تصادفی مستقل استخراج شده از توزیعهای نرمال میآید (به عنوان مثال، $X_1 \ sim \mathcal N(\mu_1، \sigma_1^2)$ و $X_2 \sim \mathcal N(\mu_2، \sigma_2^2)$، با $n_1 \neq n_2$ می دانم برای فرضیه جایگزین دو طرفه با سطح معنی داری $\alpha$ و $n_1 = n_2$ به منظور تشخیص تفاوت بین میانگین ها با توان $1-\. beta$ عبارت است از: $$n \approx \frac{(Z_{\alpha / 2} + Z_{\beta})^2(\sigma_1^2 + \sigma_2^2)}{(\delta - \delta_0)^2}$$ برای $n_1 \neq n_2$ آیا اندازه نمونه برای هر توزیع استاندارد می شود، یعنی $(\sigma_1^2 + \sigma_2^2 )$ به $(\frac{\sigma_1^2}{n_1} + تبدیل می شود \frac{\sigma_2^2}{n_2})$ یا آیا باید نگران این موضوع بود؟
|
تعیین حداقل حجم نمونه برای تفاوت دو جمعیت با توزیع نرمال
|
39058
|
من یک داده جفتی متشکل از $N$ = 421 نمونه دارم. من می خواهم بدانم که آیا بین نمونه های جفت شده معناداری آماری وجود دارد یا خیر. از آنجایی که من توزیع داده های اساسی را نمی دانم، آزمون رتبه امضا شده Wilcoxon را برای وظیفه خود انتخاب می کنم. من از ماژول آمار SciPy در پایتون برای انجام کار برای من استفاده می کنم [0]. این تابع آمار z$$ (تحت تقریب نمونه بزرگ که آمار رتبه علامت دار معمولاً توزیع می شود) و مقدار $p$ را برای آزمون دو طرفه برمی گرداند. من مقادیر زیر را به عنوان خروجی دریافت کردم > $z = 4788.5$ > > $p = 1.00530788183* 10^{-8}$ فرضیه صفر $H_o$ آزمون رتبه امضا شده Wilcoxon [1,2,3] بیان میکند که _تفاوتی وجود ندارد بین نمونه های جفت شده_. از آنجایی که، $p \leq 0.99$، **من $H_0$ را به عنوان فرضیه صفر خود در فاصله اطمینان 1% رد می کنم** و به این نتیجه می رسم که **تفاوت بین دو نمونه جفت شده از نظر آماری معنی دار است**. من دو سوال دارم - $Q1$ آیا انتخاب من از تست رتبه امضا شده Wilcoxon انتخاب درستی است؟ اگر نه، از چه چیزی استفاده کنم؟ $Q2$ آیا نتیجه گیری من از آزمون معناداری صحیح است؟ اگر نه، لطفاً توضیح دهید که چرا آنها صحیح نیستند؟ [0] http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.wilcoxon.html#scipy.stats.wilcoxon [1] http://blog.excelmasterseries.com/2010/10 /wilcoxon-signed-rank-test-in- excel-for_13.html [2] لطفاً در تفسیر اینها به من کمک کنید نتایج آزمون ویلکاکسون با رتبه امضا شده [3] http://en.wikipedia.org/wiki/Wilcoxon_signed-rank_test
|
آیا در دادههای نمونه زوجی من پس از انجام آزمون رتبهبندی علامتدار Wilcoxon معنیداری آماری وجود دارد؟
|
43189
|
من داشتم به نمونه گیبس نگاه می کردم که به طور تصادفی به مثال زیر برخوردم: فرض کنید $y = (y_{1}، y_{2}، \ldots، y_{n})$ مشاهدات iid از یک $N(\mu، \tau^{-1})$ علاوه بر این، فرض کنید اطلاعات قبلی در مورد $\mu$ و $\tau$ وجود دارد که نشان میدهد آنها مستقل هستند و $\mu$ به دنبال آن است. توزیع $N(\mu_{0}, \sigma_{0}^{2})$ در حالی که $\tau$ از توزیع $\text{Ga}(\alpha_{0}, \beta_{0})$ پیروی می کند . برای این مثال، $$ p(\mu، \tau|y_{1}، y_{2}، \ldots، y_{n}) \propto f(y|\mu، \tau)p(\mu، \ tau)$$ همچنین، $$ p(\mu|\tau, y) \sim N(\frac{n\bar{y}\tau+\mu_{0}\tau_{0}}{n\tau+\tau_{0}}، (n\tau+\tau_{0})^{-1} ) $$ جایی که $\tau_{0} = (\sigma_{0}^{2})^{-1}$ و $$ p(\tau|\mu, y) \sim \text{Ga}(\alpha_{0}+\frac{n}{2}، \beta_{0}+\frac{S_{n}}{2}) $$ که در آن $S_{n} = \sum_ {i=1}^{n}(y_{i}-\mu)^{2}$ از آنجایی که محاسبه مستقیم از این توزیع آسان نیست، نمونهگر گیبس را میتوان به شرط مشخص بودن توزیعهای شرطی مورد استفاده قرار داد. آیا کسی می تواند نشان دهد که چگونه (مشتقات را برای) توزیع های شرطی ($p(\mu|\tau، y)$ و $p(\tau|\mu، y)$) ارائه شده در بالا نشان دهد؟ **EDIT:** به عنوان مثال، برای دستیابی به $p(\mu|\tau، y)$، آیا موارد زیر معتبر هستند؟ $$ p(\mu|\tau, y) \propto p(\tau, y|\mu)p(\mu)$$ اگر چنین است، $p(\tau, y|\mu)$ چه شکلی خواهد داشت ?
|
آماده سازی توزیع های شرطی بیزی برای نمونه گیری گیبس
|
43186
|
چرا $T=X_1X_2$ آمار کافی نیست؟ فرض کنید میخواهم نشان دهم $T=x_1x_2$ کافی است و با این توزیع $$ x \sim \frac{\theta^xe^{-\theta}}{x!}$$ Chug and plug، شما $$ دریافت خواهید کرد. \frac{\theta^{x_1x_2}e^{-\theta}}{x_1x_2!}$$ چرا این قضیه فاکتورسازی را برآورده نمیکند، بنابراین کافی نیست آمار برای من کاملاً خوب است، من آنها را به 2 قسمت تقسیم کردم. یک قسمت این است: $\theta^{x_1x_2}e^{-\theta}$. دیگری این است: $\frac{1}{{x_1x_2!}}$. اینجا چه خبر است؟
|
چرا $T=X_1X_2$ آمار کافی نیست؟
|
43185
|
من یک سوال در مورد تکنیک راهاندازی مناسب برای استفاده با دادههایی که خوشهبندی قوی وجود دارد، دارم. من وظیفه ارزیابی یک مدل پیشبینی اثرات مختلط چند متغیره را بر روی دادههای خسارت بیمه با امتیاز دادن به مدل پایه فعلی بر روی دادههای خسارت اخیر، به منظور تعیین اینکه مدل چقدر خوب پیشبینی میکند که کدام قسمت از مراقبت دارای بالاترین دفعات جلسات هستند، انجام شده است. صدک 95). حساسیت، ویژگی و ارزش اخباری مثبت (PPV) برای ارزیابی اثربخشی مدل استفاده خواهد شد. به نظر می رسد بوت استرپینگ راه درستی برای ایجاد فواصل اطمینان برای حساسیت، ویژگی و درصد PPV است. متأسفانه، با توجه به اینکه دادههای ادعاها 1) توسط ارائهدهنده مراقبت همبستگی دارند، 2) در قسمتهای مراقبت با بازدیدهای مکرر در ماههای قبل از دوره مراقبت گروهبندی میشوند، یک راهانداز ساده مناسب نیست (بنابراین مقداری همبستگی خودکار وجود دارد). آیا تغییر در تکنیک بوت استرپ بلوک های متحرک در اینجا مناسب است؟ یا شاید یک روش بوت استرپ سه مرحله ای کار کند: 1) نمونه با جایگزینی از ارائه دهندگان متمایز در داده ها، سپس 2) نمونه با جایگزینی از قسمت های مراقبت مجزا توسط ارائه دهندگان منتخب، سپس 3) نمونه با جایگزینی از ادعاهای متمایز در هر یک. قسمت انتخاب شده با تشکر فراوان برای هر گونه پیشنهاد!
|
تکنیک بوت استرپینگ مناسب برای داده های خوشه ای؟
|
60355
|
$N_1(t)$ و $N_2(t)$ دو فرآیند پواسون مستقل به ترتیب با شدت $λ_1$ و $λ_2$ هستند. $v_1$ و $v_2$ دو متغیر تصادفی مثبت وابسته هستند و $p=P(v_1<c)=P(v_2<c)$ که $c$ یک ثابت است. وقتی یک رویداد تصادفی $N_1(t)$ و $v1<c$ رخ داد، به این معنی است که یک رویداد از فرآیند نقطه $N_3(t)$ رخ داده است. هنگامی که یک رویداد تصادفی در $N_2(t)$ و $v_2<c$ رخ داد، به این معنی است که یک رویداد از فرآیند نقطه $N_4(t)$ رخ داده است. سپس $N_3(t)$ و $N_4(t)$ دو فرآیند پواسون وابسته به ترتیب با شدت $p*λ_1$ و $p*λ_2$ هستند. سوالات من این است: 1. آیا برهم نهی $N_3(t)$ و $N_4(t)$ تقریبا یک فرآیند پواسون است؟ 2. اجازه دهید $N_5(t)$ یک فرآیند پواسون با شدت $p(λ_1+λ_2)$ باشد، آیا $P\\{N_3(t)+N_4(t)\le m\\} \le P\ وجود دارد \{N_5(t)\le m\\}$؟ (در اینجا $m$ یک عدد صحیح است.) همه پاسخ های شما مفید هستند. من واقعا از آنها قدردانی می کنم و از ویرایش گنگ تشکر می کنم. به ویژه، $v_1$ و $v_2$ به عنوان دو متغیر log-normal وابسته با همبستگی $\rho$ نشان داده می شوند. به عبارت دیگر، ما می توانیم $v_1$ و $v_2$ را به عنوان یک متغیر log-normal چند متغیره توصیف کنیم. در این زمان، چگونه به این دو سوال پاسخ دهیم؟ موافقم که ($v_1$, $v_2$) را می توان با جفت وابسته برنولی ($b_1$, $b_2$) جایگزین کرد. و اکنون $N_{3}(t)$ و $N_{4}(t)$ دو فرآیند پواسون وابسته هستند. آیا برهم نهی آنها تقریباً یک فرآیند سمی است؟ من واقعا از همه پاسخ شما سپاسگزارم. من چندین ادبیات خوانده ام و با استادی مشورت کرده ام. $N_{3}(t)$+$N_{4}(t)$ طبق پاسخ استاد یک فرآیند Cox است. و به یک فرآیند سم همگرا می شود. (Serfozo 1984, Chen & Xia 2011).
|
برهم نهی دو فرآیند پواسون وابسته
|
35319
|
چه رابطه ای بین تحلیل مؤلفه های مستقل و تحلیل عاملی وجود دارد؟
|
|
72892
|
چرا آزمون F برای اهمیت کلی (تحلیل رگرسیون OLS) زمانی که باقیمانده ها ناهمسان هستند، نامعتبر است؟ آیا راهی برای محاسبه آن به روشی ثابت تحت ناهمسانی وجود دارد؟ آیا تابعی در R برای انجام آن وجود دارد؟
|
آزمون F سازگار ناهمسانی
|
40607
|
به عنوان بخشی از پایان نامه کارشناسی ارشد خود، در حال حاضر در حال انجام تجزیه و تحلیل آماری از چرخش شرکت هستم. من یک مجموعه داده پانل متشکل از تقریباً 200 شرکت به مدت 6 سال دارم که هر کدام در یک بازه زمانی 15 ساله و با ابعاد مقطعی بزرگ (صنایع و کشورها مختلف) گردآوری شده اند. بر اساس مجموعهای از معیارها، من هر شرکتی را بهعنوان یک مورد چرخشی یا غیر گردشی توصیف کردهام، که در آن یک متغیر وابسته باینری دارم که در صورت موفقیت شرکت، مقدار 1 را دریافت میکند، در غیر این صورت 0. این نشان میدهد که متغیر مستقل من این کار را انجام میدهد. برای شرکت منفرد در 6 مشاهدات مرتبط با شرکت داده شده متفاوت نیست. با توجه به اثرات ثابت مشاهده نشده خاص برای شرکت منفرد، که در طول زمان تغییر نمی کند، من سعی کردم یک مدل لاجیت اثر ثابت را اعمال کنم (برای اطلاع شما، من قبلاً مدل های پانل اثر ثابت و پویا را برای نمونه جایگزین اعمال کرده ام. با یک متغیر وابسته پیوسته، که همچنین دلیلی است که من می خواهم از اثرات ثابت استفاده کنم). بر اساس چندین نمونه موجود آنلاین، من کد/رویکرد زیر را در SAS امتحان کرده ام: PROC LOGISTIC DATA=mydata; سال کلاس /PARAM=REF; چرخش مدل (رویداد = '1')= سال OC DOMI COSTR ASSETR SIZE; STRATA FIRMID; (که در آن همه متغیرها پیوسته هستند به جز DOMI که یک ساختگی است؛ و اتفاقاً من از SAS EG استفاده می کنم). با این حال، تخمین نمی تواند موفقیت آمیز باشد یا هیچ نتیجه ای به همراه داشته باشد (یعنی همگرایی به دست نمی آید و من خطای همه طبقات غیر اطلاعاتی هستند را دریافت می کنم)، که به نظر می رسد نتیجه مشکل پارامترهای اتفاقی باشد زیرا متغیر وابسته من مقدار یکسانی می گیرد. برای همه مشاهدات در هر شرکت از آنجایی که این اولین تجربه من با داده های پانل است، برای کسب اطلاعات به صورت آنلاین به اطراف نگاه کردم اما شانسی نداشتم. بنابراین، من به دنبال مشاوره / کمک در مورد چگونگی برآورد یک مدل لاجیت در حسابداری SAS برای ناهمگونی شرکت با توجه به مشخصات مدل خود یا یک رویکرد جایگزین برای یک مدل مشابه هستم.
|
داده های پانل: مدل اثر ثابت لجستیک با یک متغیر وابسته غیر متغیر / ثابت
|
97820
|
چرا روشهای max-t فقط از حداکثر مقادیر t تولید شده استفاده میکنند؟
|
|
65650
|
من در حال انجام آزمایش هاسمن بر روی دادههای پانل هستم تا تعیین کنم که آیا باید جلوههای تصادفی یا ثابت را برای تجزیه و تحلیل خود انتخاب کنم. پس از انجام آزمایش، این خطا را دریافت می کنم: chi2(2) = (b-B)'[(V_b-V_B)^(-1)](b-B) = -8.32 chi2<0 ==> مدل برازش شده روی این داده ها برآورده نمی شود مفروضات مجانبی آزمون هاسمن؛ برای آزمون تعمیم یافته به suest مراجعه کنید **این به چه معناست؟ آیا این نتیجه خوب است، و به سادگی به این معنی است که باید از جلوه های تصادفی استفاده کنم یا چیزی در اینجا به شدت اشتباه است؟** من نمی توانم از suest همانطور که نرم افزار پیشنهاد می کند استفاده کنم، زیرا این برای داده های پانل نیست. علاوه بر این، وقتی ترتیب تجزیه و تحلیل را تغییر میدهم، یعنی ابتدا re، و سپس fe را تخمین میزنم، و انجام میدهم: hausman random fixed، یک نتیجه «عادی» دریافت میکنم، مانند این: chi2(17) = (b-B)'[ (V_b-V_B)^(-1)](b-B) = 411.18 Prob>chi2 = 0.0000 با این حال، من در Statalist خواندم که اینطور نیست به سادگی تغییر ترتیب، زیرا آمار اشتباهی دریافت می کنید. بنابراین، سوال این است که **در این مورد چه باید کرد، آیا می توانم ترتیب تخمین را تغییر دهم؟** تقریباً مطمئن هستم که FE با داده های من خوب کار نمی کند، اما به راهی برای اثبات آن نیاز دارم. لطفاً در نظر بگیرید که من آمارگیر نیستم، بنابراین هر چه پاسخ ساده تر باشد، بهتر است.
|
تست هاسمن برای داده های تابلویی، fe و re. خطا در تخمین، چه باید کرد؟ Stata
|
60354
|
من متغیرهای خود را با استفاده از تابع 'ln' در Stata به منظور حل برخی مسائل مربوط به مفروضات مدل رگرسیون خطی تغییر دادهام. در حالی که اکثر مسائل به این روش حل شده اند (و این تغییر شکل به طور قابل توجهی در این امر کمک می کند)، به نظر می رسد داده ها دارای انحراف منفی هستند، که منجر به یک تست IM قابل توجه همانطور که در زیر نشان داده شده است. تجزیه IM-test توسط Cameron & Trivedi ------------------------------------------ --------- منبع | chi2 df p ----------------------------------------------- ---- ناهمگونی | 8.42 7 0.2968 چولگی | 17.92 3 0.0005 Kurtosis | 0.51 0.4735 ------------------------------------------------ ---- مجموع | 26.86 11 0.0048 من قبلاً سعی کرده ام از mboxcox برای یافتن تبدیل های مناسب استفاده کنم (داده های من حاوی صفر هستند و باید 1 را اضافه کنم) و هیچ تبدیل مناسبی به جز ریشه دوم و سوم برای متغیرها پیدا نکردم - که مطلوب نیست. به دلیل مشکلات در تفسیر و عوارضی که پیش می آید. آیا باید در مورد این مشکل چولگی اذیت شوم؟ چولگی تقریباً -0.7 است.
|
تبدیل خطی ورود به سیستم
|
46008
|
میخواهم از شما بپرسم که آیا میتوانم ANOVA اندازهگیریهای مکرر دو طرفه (GLM) را اجرا کنم تا تأثیر روش امتیازدهی بر میزان پاس را در زمانی که متغیرهای من طبقهبندی میکنند، ببینم و آیا متغیرهایم را به خوبی تعریف میکنم. از کمک شما متشکرم. دادههای من شامل یک متغیر وابسته طبقهبندی با دو دسته (موفقیت = 1 و شکست = 0) و چهار سطح است: تعداد قبولی/عدم قبولی برای آزمون A در دو نمره برش 44% و 65% و تعداد قبولی/عدم قبولی برای آزمون B و برش نمرات 44 درصد و 65 درصد. متغیر مستقل طبقه بندی دارای دو سطح (گروه X و Y) می باشد. هر آزمودنی در گروههای X و Y دو بار اندازهگیری شد: با یک آزمون (A یا B) که با روش قدیمی نمره داده شد و در نوبت دوم، با آزمون دیگری (B یا A) با روش جدید نمرهگذاری شد (جدول XXX). من فرض می کنم هیچ اثر دستور تست وجود ندارد و هر دو تست معادل هستند. مارتینا
|
ANOVA اندازه گیری های مکرر دو طرفه برای داده های طبقه بندی شده؟
|
69373
|
من یک کاربر جدید R هستم و در اعتبارسنجی/تکرار نتایج Stata (که یکی از همکاران استفاده می کند) در R مشکل دارم. ما در حال بررسی زمان (`TIME<-c(1:7)`) دوره نشانگرهای زیستی (`BIO< نشانگر زیستی (اندازهگیریهای مکرر در طی چند روز) در 2000 نفر («SUBJECT») در مدلهای چندسطحی خطی. ساختار «پایه» سادهترین مدل این است: lme(BIO~I(TIME^2)، داده=داده، ~TIME | موضوع) آنچه من میخواهم از این به دست بیاورم، میانگینهای تنظیم شده (یا میانگینهای حاشیهای) با فواصل اطمینان به دوره زمانی بیومارکرها را رسم کنید. مدل نهایی دارای متغیرهای کمکی و شرایط تعامل اضافی خواهد بود. در Stata، همکار من این کار را با استفاده از دستور 'margins' ('margins TIME#TIME') و به دنبال آن 'marginsplot, x(TIME)' انجام می دهد که نمودار مورد نظر را به دست می دهد. برآوردهایی که من با استفاده از «predict()» یا «lsmeans()» به دست میآورم (که دومی فواصل اطمینان را ارائه میکند) به طور قابلتوجهی با برآوردهای Stata متفاوت است، اگرچه تناسب اساسی هر دو مدل تفاوتی ندارد. هر گونه فکر یا اشاره در جهت درست قدردانی خواهد شد.
|
تعدیل شده/حاشیه ای به معنای برآورد در مدل اثر مختلط خطی در R/Stata است
|
99784
|
من سعی می کنم بهره وری فرآیند ورودی یک انبار را با استفاده از y-value = بهره وری بر حسب pcs/hr x-value = # pcs و نسبت pcs/SKU پیش بینی کنم. (که در آن SKU = واحد نگهداری سهام) فرضیه اصلی --> (1) هر چه تعداد کار بیشتر باشد (افراد شلوغ تر هستند)، عجله بیشتری دارند و بهره وری بهتری خواهد داشت. (2) علاوه بر این، از آنجایی که افراد تنها یک بار 1 SKU را مدیریت می کنند، هر چه تعداد pcs/SKU بیشتر باشد، به این معنی است که زمان کمتری برای هر قطعه صرف خواهید کرد (یعنی اگر 1 دقیقه طول می کشد تا اطلاعات را برای 1 SKU وارد کنید، می توانید 1 عدد را در آن انجام دهید. یک دقیقه در 1 عدد/SKU یا 100 عدد در یک دقیقه در 100 عدد/SKU). سؤالات --> (1) آیا متغیرهای y و هر دو متغیر x باید به طور عادی توزیع شوند؟ من می دانم که باقیمانده ها باید به طور عادی توزیع شوند، اما آیا خود ورودی و خروجی نیز باید به طور عادی توزیع شوند؟ (2) تعداد قطعات در هر دو x1 و x2 موجود است، آیا این مشکل ایجاد می کند. فکر می کنم این مشکل وابستگی ایجاد می کند؟ خیلی ممنون از کمک شما
| |
69371
|
من مجموعه ای از پیش بینی کننده ها در یک رگرسیون خطی و همچنین سه متغیر کنترلی دارم. مسئله اینجاست که یکی از متغیرهای مورد علاقه من تنها در صورتی از نظر آماری معنادار است که متغیرهای کنترلی در مدل نهایی گنجانده شوند. با این حال، خود متغیرهای کنترلی از نظر آماری معنادار نیستند. چند خطی بودن همه متغیرهای من به این صورت است (از جمله متغیرهای کنترل): > vif(lm(return ~ EQ + EFF + SIZE + MOM + MSCR + UMP، data = as.data.frame(port.df))) EQ EFF SIZE MOM MSCR UMP 3.687171 3.481672 2.781901 I MSCR** و متغیرهای کنترلی _EFF، SIZE و UMP_ هستند. EQ تنها در صورتی مهم است که سه متغیر کنترل گنجانده شود، و زمانی که آنها نباشند، بیاهمیت میشود: * در اینجا ضرایب (ردیف اول) و t-stats (ردیف دوم) وقتی متغیرهای کنترل گنجانده شدهاند (توجه داشته باشید که EQ از نظر آماری معنیدار است) intercept EQ EFF SIZE MOM MSCR UMP [1,] 0.005206246 -0.006310531 0.0001229055 0.004125551 0.007738259 0.00473377 5.838596e-06 [2،] 1.866628909 -1.746583234 0.00473377 0.038596e-06 2.145062820 2.08131100 1.994863e-01 * حال، در اینجا نتیجه رگرسیون زمانی است که متغیرهای کنترل حذف می شوند (توجه داشته باشید که EQ دیگر از نظر آماری معنی دار نیست) EQ MOM MSCR [1,] 0.00302111-0.00302073 را قطع کنید. 0.007128606 0.00668364 [2,] 2.652662996 -0.595391117 2.036985378 2.80177366 مشکل این است که وقتی متغیرهای کنترلی خود را وارد می کنم، همه متغیرهای مورد علاقه من قابل توجه نیستند، اما متغیرهای مورد علاقه من قابل توجه نیستند. کدام متغیرها را باید در مدل نهایی خود وارد کنم؟ با توجه به این واقعیت که مدل برای پیش بینی استفاده می شود، چگونه باید مدل نهایی خود را ساختار دهم؟ ممنون
|
اگر متغیرهای کنترلی از نظر آماری معنی دار نیستند، باید در مدل گنجانده شوند؟
|
80756
|
فقط فرضیه غیر خطی اندرو نگ در مورد شبکه های عصبی را پوشش دادیم، و ما یک سوال چند گزینه ای برای تعیین **تعداد ویژگی** برای تصویری با وضوح **100*100** با شدت **grescale** داشتیم. و پاسخ 50 میلیون دلار، 5 دلار x 10^7 دلار بود، با این حال، قبلاً برای یک تصویر 50×50 پیکسل، در مقیاس خاکستری. تعداد ویژگی ها 50x50 (2500) است. چرا به جای 10000 دلار باید 5$ x 10^7$ باشد؟ با این حال، او میگوید که شامل همه اصطلاحات درجه دوم ($x_ix_j$) به عنوان ویژگیها میشود > فرض کنید در حال یادگیری تشخیص خودروها از تصاویر 100×100 پیکسل هستید > (مقیاس خاکستری، نه RGB). اجازه دهید ویژگی ها مقادیر شدت پیکسل باشند. اگر رگرسیون لجستیک را شامل همه عبارت های درجه دوم ($x_ix_j$) به عنوان ویژگی > آموزش دهید، تقریباً چند ویژگی خواهید داشت؟ و در اسلاید قبلی در مورد 100x100، که ویژگی های درجه دوم ($x_i$ x $x_j$) = 3 میلیون ویژگی است، اما من هنوز نمی توانم انگشتی روی اتصال بگذارم.
|
چگونه تعداد ویژگی ها را بر اساس وضوح تصویر محاسبه کنیم؟
|
69375
|
من یک وضعیت کاملاً استاندارد از یک مطالعه دارم که در آن اندازهگیریهای مکرر از همان افراد انجام میشود. دو عامل وجود دارد: گروه (با 25 نفر در هر یک از دو گروه) و روز (در اینجا زمان به عنوان یک متغیر طبقه بندی شده در نظر گرفته می شود). برای ساده نگه داشتن چیزها، اجازه دهید تنها دو نقطه زمانی، روز 1 و روز 2 را در نظر بگیریم. هنگام کار در R، داده ها به صورت زیر به نظر می رسند (ID - شناسه های افراد، گروه - برچسب ها برای گروه ها، روز - عامل نشان دهنده روز نمونه برداری، با 2 سطح وزن بدن، کیلوگرم): dat ID گروه روز BW 1 ID1 روز 1 2333.231 2 ID2 در روز 1 2615.744 3 ID3 روز 1 2282.484 4 ID4 روز 1 2796.806 5 ID5 روز 1 2262.759 6 ID6 روز 1 2520.216 7 ID7 روز 1 2606.5198 روز 1 2606.5198 روز 1 2606.5198 روز 1 2606.5198 روز 1 2606.519 روز 1 2796.806 1 2439.651 10 ID10 روز 1 2515.900 11 ID11 B روز 1 2692.253 12 ID12 B روز 1 2208.707 13 ID13 B روز 1 2343.652 14 ID11 B روز 1 2692.253. 2411.044 16 ID16 B روز 1 2774.001 17 ID17 B روز 1 2634.651 18 ID18 B روز 1 2514.433 19 ID19 B روز 1 2198.449 20 ID20 B روز 1 20 ID20 B روز 1 21. 2314.214 22 ID2 A Day 2 2302.396 23 ID3 A Day 2 2319.029 24 ID4 A Day 2 2533.612 25 ID5 A Day 2 2290.300 26 ID6 A Day 2 21629 21629 ID. 28 ID8 روز 2 2223.379 29 ID9 روز 2 2441.762 30 ID10 روز 2 2288.917 31 ID11 B روز 2 1984.846 32 ID12 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.827 B روز 2 2702.821 B روز 2 2702.827 B روز 2 334 B روز 2 2563.337 35 ID15 B روز 2 2666.664 36 ID16 B روز 2 2399.159 37 ID17 B روز 2 2586.255 38 ID18 B روز 2 2193.912 35 ID16 B روز 2 2193.912 35 ID16 B روز 2 27 3043.074 در اینجا یک نمایش گرافیکی از این داده ها است (نقاط داده ای که از یک موضوع دریافت می شوند با خطوط چین دار به هم متصل می شوند تا درک ساختار این مجموعه داده آسان تر شود):  به منظور آزمایش اثرات گروه و روز، میتوانم یک مدل با جلوههای ترکیبی را با استفاده از مثلاً جاسازی کنم. بسته nlme برای R: # متناسب با مدل: M <- lme(BW ~ روز * گروه، تصادفی = ~ 1 | ID، داده = dat) # اهمیت افکت ها را بررسی کنید: anova(M) numDF denDF F-value p -value (Intercept) 1 18 5564.085 <.0001 روز 1 18 0.326 0.5753 گروه 1 18 2.849 0.1087 روز:گروه 1 18 3.631 0.0728 بنابراین، با توجه به مدل اثرات مختلط برازش شده (که برای این داده ها کافی بود - تشخیص ها اجرا شد اما در اینجا ارائه نشده است)، هیچ یک از فاکتورهای گروه مورد بررسی (D) ) بر متغیر پاسخ تأثیر می گذارند. همچنین هیچ گونه تعاملی بین این دو عامل وجود ندارد. این نوع تحلیلی است که اگر از من خواسته شود برای چنین مجموعه داده ای انجام می دهم. با این حال، در سازمان من بسیاری از مردم هیچ ایده ای در مورد مدل های اثرات مختلط ندارند. کاری که آنها معمولاً انجام میدهند این است که دستهای از آزمونهای t (یا آزمایشهای مشابه) را برای تشخیص تأثیر «گروه» بر هر یک از تاریخهای نمونهگیری اعمال میکنند. به عنوان مثال، برای داده های نشان داده شده در بالا، یک آزمون t برای روز 1 و آزمون t دیگری برای روز 2 انجام می شود و نتایج زیر را دریافت می کند: روز 1: P = 0.271 روز 2: P <0.001 بنابراین، آنها ادعا می کنند که یک اثر گروهی قابلتوجهی در روز 2 وجود داشت. من سعی کردم توضیح دهم که این نتیجه به دلیل وجود همبستگی در دادهها که از اندازهگیریهای مکرر انجام شده روی همان افراد نشات میگیرد، صحیح نخواهد بود. با این حال یکی از همکارانم سوالی پرسید که نتوانستم به راحتی به آن پاسخ دهم. او گفت: بسیار خوب، مشاهدات با هم مرتبط هستند، من متوجه شدم. اما فعلاً این واقعیت را فراموش کنید که ما داده های روز 1 را داریم و فرض کنید که داده هایی فقط از روز 2 وجود دارد. مشاهدات در گروه A و گروه B مستقل هستند. از یکدیگر، و بنابراین ما مجاز به استفاده از یک آزمون t یا چیزی مشابه هستیم. و این دقیقاً نقطه ای است که من گیر کردم. در واقع، اگر کسی فقط اطلاعات روز دوم را داشته باشد و یک آزمون t ساده انجام دهد، نتیجهگیری بسیار متفاوت (و اصولاً موجه) با نتیجهای که با مدل اثرات مختلط به دست میآید به دست میآورد. **پس به کدام روش تحلیل اعتماد کنیم؟ آیا اثر گروه واقعی است؟** احساس میکنم بخش مهمی را برای توجیه استفاده از مدل ترکیبی از دست دادهام. هر اشاره ای بسیار قدردانی می شود.
|
یک مدل اثرات مختلط برای اندازهگیریهای مکرر در مقابل مقایسههای چندگانه نقطهای زمانی با یک آزمون سادهتر
|
80751
|
من داشتم آموزش زیر را در مورد جنگلهای تصادفی تماشا میکردم و میگوید: «در هر گره، زیرمجموعهای تصادفی از ویژگیهای m را انتخاب کنید و فقط روی آن ویژگیها تقسیم کنید» من نمیدانم چرا m ویژگی را انتخاب میکنیم. چرا همه ویژگی ها را در نظر نمی گیریم؟ به عنوان مثال در جایی که ویژگی ها قد، وزن، سن و متر 2 بود، زیرفضای تصادفی می تواند قد و وزن باشد؟ این چگونه کار می کند؟ پیشاپیش از شما متشکرم
|
چرا جنگل های تصادفی بر اساس m ویژگی های تصادفی تقسیم می شوند؟
|
46000
|
من در حال مشاهده دو سری زمانی پیوسته هستم که در هر لحظه ممکن است یک رویداد یکسان را مشاهده کنم. یعنی برای هر دنباله، مثلاً $S_1$، من یک مجموعه داده متشکل از $S_1 = (t_0, t_1, ..., t_m)$ دارم که در آن $t_i \in (0, T) \subset \mathbb{R }$. بنابراین اگر من این رویداد را در یک زمان $t_i$ در طول جریان دادهام $1$ مشاهده کردم، سپس $t_i$ را به $S_1$ اضافه میکنم، میخواهم بگویم که رویدادها در یک دنباله بیشتر از دیگری با سطح اطمینان اتفاق میافتند. آیا می توانم میانگین را به صورت زیر محاسبه کنم؟ $$ \mu_1 = \int_0^T \delta(t \در S_1) dt = \frac{|S_1|}{T} $$ که در آن $|S_1|$ اصلی بودن $S_1$ را نشان میدهد. همچنین، آیا منطقی است که واریانس را به صورت زیر محاسبه کنیم: $$ \sigma_1^2 = \int_0^T (\delta(t \in S_1)-\mu_1)^2 dt = \frac{|S_1|}{T} - \left(\frac{|S_1|}{T}\right)^2 $$ بنابراین، اگر میخواهم نوارهای خطا ایجاد کنم، حدس میزنم که داشته باشم: $$ \mu \pm \frac{2\sigma_1}{\sqrt{T}} $$ من فرض میکنم این درست نیست زیرا بسته به واحدهای زمانی من مقدار تغییر میکند. اگر از ثانیهها، نانوثانیهها یا پیکوثانیهها استفاده کنم، میانگین و واریانس متفاوتی دریافت میکنم. امیدوارم با تماشای این سکانسها برای مدت طولانیتر و طولانیتر، عدم اطمینان من در مورد احتمال انتشار آنها به صفر برسد.
|
چگونه واریانس یک دنباله زمانی پیوسته را محاسبه کنیم؟
|
46006
|
در K به معنای خوشه بندی است، فرض کنید، اگر فاصله اقلیدسی برابر یک نقطه داده تا تمام مراکز خوشه k آن وجود داشته باشد، نقطه داده کدام خوشه را برای عضویت در آن انتخاب می کند؟ آیا مدرکی وجود دارد که آن را تأیید کند؟
|
مساوی فاصله اقلیدسی یک نقطه داده واحد تا تمام مراکز خوشه
|
99200
|
من نمیدانم که نماد _dG(y)_ درون یک انتگرال دقیقاً به چه معناست، نام آن چیست و کجا میتوانم بیشتر در مورد آن مطالعه کنم: $$E[B_1]=\int_0^{\infty}E[B_1 \vert Y_1 = y] dG(y)$$
|
dG(y) در انتگرال مقدار مورد انتظار
|
99202
|
در معادله فاصله کوک: $$D_i = \frac{\sum_{j=1}^{n}(\hat{y}_j - \hat{y}_{j(i)})^2}{ p MSE}$$ مقدار $p$ به عنوان تعداد پارامترهای متناسب در مدل تعریف می شود. این به چه معناست؟
|
$p$ در فاصله کوک چقدر است؟
|
80753
|
من در اینجا کاملاً تازه وارد هستم، لطفاً اگر این سؤال مناسب نیست، ببخشید. من در حال توسعه یک سایت برای دانش آموزان هستم که به آنها اجازه می دهم رونوشت های مجازی خود (گزارش نمره) را در سایت ما آپلود کنند و به ما اجازه می دهد تا دستکاری های مختلفی را انجام دهیم (افزودن تکلیف آینده، رها کردن یک تکلیف و غیره) بنابراین ما مقدار زیادی از اطلاعات دانش آموزان در سراسر مدرسه ما (گیگابایت داده). من متعجب بودم که چه نوع تجزیه و تحلیل آماری می توانم بر روی آن اطلاعات انجام دهم. آیا کاربرد محبوب تری از آمار برای چیزی شبیه به این وجود دارد که بتوانم به آن نگاه کنم؟ (سهام؟ و غیره...) در اینجا یک مرور کلی از نوع اطلاعاتی که در دست دارم آورده شده است: * امتیازهای کسب شده تکلیف/امتیازهای احتمالی تکلیف * دسته بندی هر تکلیف * وزن هر دسته. * نام تکالیف، کلاس، معلم * حرف جاری و نمره عددی در کلاس. سپس مجموع دستهها را محاسبه میکنیم و تاریخچه نمره را بر اساس تاریخچه تکلیف و تنظیمات وزن کلاس ایجاد میکنیم. امیدواریم کارهای ساده ای مانند گرفتن میانگین و انحراف معیار نمرات یک تکلیف انجام دهیم. سپس میانگین و صدک کاربر (محاسبه شده از میانگین/انحراف استاندارد، توزیع نرمال را فرض میکنیم، اما این یک فرض بد است...) از دادهها را نمایش میدهیم. (اما من فکر می کنم یک فاصله اطمینان به جای میانگین مناسب تر است، اما ما این پیاده سازی را در تاریخ بعدی تکمیل خواهیم کرد). ما در حال حاضر حداقل برش 5 را داریم تا اطمینان حاصل کنیم که کاربران نمی توانند فقط آنچه را که کاربر خاص دیگری دریافت می کند تخمین بزنند، بلکه اطمینان حاصل کنیم که داده ها تا حدودی از نظر آماری معتبر هستند. آیا راه بهتری برای تعیین یک بریدگی برای داده ها وجود دارد؟ چه کارهای منظم دیگری می توانیم با این داده ها انجام دهیم؟ من احساس میکنم که به سختی سطح را میتراشیم و امیدواریم چیزهایی وجود داشته باشد که نمیتوانیم به آنها فکر کنیم که برای دانشآموز مفید باشد. مشکل دیگر: دادهها همیشه تازه نیستند، ما فقط دادهها را هنگام آپلود آنها دریافت میکنیم و برخی از کاربران بیشتر از دیگران بهروزرسانی میشوند. با این حال، ما می خواهیم یک نمودار تاریخچه ایجاد کنیم که میانگین تاریخچه نمره کلاس را به تصویر بکشد. ما دادهها را هر بار که کاربر بهروزرسانی میکند در هر کلاس در زمان بهروزرسانی، دادهها را ذخیره میکنیم. اما، تعیین اینکه چه چیزی به عنوان میانگین کلاسی با دادههای قدیمی و ناقص تشکیل میشود، دشوار است. من به استفاده از میانگین وزنی فکر میکردم، جایی که آخرین نمرهای را که دانشآموز بهروزرسانی کرده تا یک نقطه X میگیریم، سپس آن امتیاز را بسته به تعداد امتیاز در آن نمره در میانگین وزن میکنیم. بنابراین اگر دانش آموزی که زمانی که کتاب نمره فقط 100 امتیاز داشته است به روز رسانی کرده است، به اندازه دانش آموزی که اخیراً با 1500 امتیاز در کتاب نمره به روز شده است مهم نخواهد بود. آیا رویکرد بهتری برای این وجود دارد؟ من یک آشنایی مقدماتی با آمار دارم (آمار AP که _باید_ معادل یک سال اول دوره آمار در کالج باشد). اما من بیشتر آن را فراموش کرده ام، بنابراین اگر شما بچه ها بتوانید کارها را برای من نیز کمی ساده کنید، کمک خواهد کرد. اوه و من این را از طریق PHP برنامه نویسی می کنم. من از توابع MySQL stddev() و avg() برای محاسبه انحراف استاندارد و میانگین استفاده می کنم. من یک لیست T-Score @ 90% اطمینان برای 1-200 df و یک تابع عادی معکوس دارم. من همچنین یک انحراف استاندارد 2 پاس و تابع میانگین نیز در PHP نوشته شده است. ویرایش 1: من این وب سایت را برای دانش آموزان دبیرستانی هدف قرار می دهم. ویرایش 2: این چیزی است که ما تاکنون داشته ایم: 
|
با داده هایم چه کنم؟
|
99207
|
اگر X دارای توزیع یکنواخت [0,1] باشد، و f(x) = e^X و g(x)=2^X. من 1000 مقدار برای X ایجاد کردم و برای هر دو تابع اعمال کردم. و واریانس را بعد از تبدیل محاسبه کردم. نتیجه نشان می دهد که 2^X واریانس کمتری دارد. چرا این اتفاق می افتد، آیا 2 بزرگتر از e نیست، واریانس از کجا می آید؟ کد این است: N <- 1000 X <- runif(N,0,1) phi <- 2^X var(phi) theta <- exp(X) var(theta)
|
واریانس با توجه به نمایی توزیع یکنواخت
|
64296
|
من سعی می کنم از یک مدل جنگل تصادفی در R RF استفاده کنم<- randomForest(as.factor(y)~., data=train, important=TRUE, proximity=FALSE, ntree=1000, keep.forest=TRUE) Y دودویی است . مدل بدون هیچ مشکلی اجرا می شود. با این حال من چند سوال دارم، من حدود 50000 ردیف داده و 300 متغیر دارم. طبق سایر برنامه های استفاده از proximity=TRUE احتمالاً بسیار کند اجرا می شود یا به حافظه زیادی نیاز دارد. 1. اگر حافظه مشکلی نداشته باشد، استفاده از proximity=TRUE نتایج متفاوتی به من می دهد؟ 2. من علاقه مند به احتمال پیش بینی 1s خود به عنوان نتیجه نهایی خود هستم. هنگامی که من پیش بینی می کنم = پیش بینی (RF).. من 1 و 0 را پیش بینی من دریافت می کنم. من احتمالات را ترجیح می دهم. 3. چگونه یک مدل جنگل تصادفی را پیاده سازی کنیم؟ من 1000 درخت دارم. اگر بخواهم این مدل را در زمان واقعی پیاده سازی کنم، چگونه این را کدنویسی کنیم؟ آیا برای پیش بینی هر مورد جدید، 1000 درخت تصمیم را کد می کنیم؟ متشکرم.
|
randomForest در R برای طبقه بندی
|
64293
|
من سعی کرده ام الگوریتم متروپلیس-هیستینگ را درک کنم تا کدی برای تخمین پارامترهای یک مدل بنویسم (یعنی $f(x)=a*x$). طبق کتابشناسی، الگوریتم Metropolis-Hastings مراحل زیر را دارد: * ایجاد $Y_t \sim q(y|x^t)$ * $X^{t+1}=\begin{cases} Y^t و \text {با احتمال} \quad \rho(x^t,Y_t), \\\ x^t, & \text{با احتمال} \quad 1-\rho(x^t,Y_t), \end{cases}$ where $\rho(x,y)=\min \left( \frac{f(y)}{f(x)}*\frac {q(x|y)}{q(y|x)},1 \right)$ چگونه میخواهم چند سؤال بپرسم: * کتابشناسی بیان میکند که اگر $q$ یک توزیع متقارن باشد، نسبت $q(x|y)/q(y|x)$ می شود 1 و الگوریتم متروپلیس نامیده می شود. آیا این درست است؟ تنها تفاوت متروپلیس و متروپلیس هاستینگ این است که اولی از توزیع متقارن استفاده می کند؟ در مورد Random Walk Metropolis (-Hastings) چطور؟ تفاوتش با دوتای دیگه چیه؟ * بیشتر کد مثالی که من به صورت آنلاین پیدا می کنم از توزیع پیشنهادی گاوسی $q$ و بنابراین $\rho(x,y)=\min(f(y)/f(x),1)$ استفاده می کند که در آن $f( y)/f(x)$ نسبت احتمال است. اگر توزیع پیشنهادی توزیع پواسون باشد چه؟ فکر میکنم به طور منطقی درک میکنم که چرا آن نسبت در هنگام استفاده از توزیع نامتقارن 1 نمیشود، اما کاملاً مطمئن نیستم که آیا آن را به صورت ریاضی درک میکنم یا اینکه چگونه آن را با کد پیادهسازی کنم. آیا کسی می تواند یک کد ساده (C، پایتون، R، شبه کد یا هر چیزی که ترجیح می دهید) مثالی از الگوریتم Metropolis-Hastings با استفاده از توزیع پیشنهادی غیر متقارن به من بدهد؟
|
درک متروپلیس-هیستینگ با توزیع نامتقارن پیشنهاد
|
99204
|
من سعی می کنم یک مدل رگرسیون لجستیک را در JAGS مشخص کنم. من با خطایی روبرو هستم که قبلاً ندیده بودم و راه حلی آنلاین پیدا نکرده ام. اگر کسی بداند چه اتفاقی دارد میافتد، ممنون میشوم. data<-read.csv(JAGSdata.csv,header=T) #read در فایل csv N <-length(data$study) #تعداد obs. M <-length(unique(data$study)) ls(data) #input the data Data <- list( N = N, synergy = data$ synergy, dapto = data$dapto, teic = data$teic, tela = data $tela، cph = data$cph، cpm = data$cpm، blfrac = data$blfrac، gpfrac = data$gpfrac، loglt6 = data$loglt6, mrsa = data$mrsa, vssa = data$vssa ) #مقادیر اولیه برای MCMC #MODEL model <- model{ #ضریب پیشین #----------------------------------------------- -----------# bcons ~ dunif(-10,10) bdapto ~ dunif(-10,10) bteic ~ dunif(-10,10) btela ~ dunif(-10,10) bcph ~ dunif(-10,10) bcpm ~ dunif(-10,10) blfrac ~ dunif(-10,10) bgpfrac ~ dunif(-10,10) bloglt6 ~ dunif(-10, 10) بمرسا ~ دونف(-10،10) بوسسا ~ dunif(-10،10) #تابع احتمال #-------------------------------------- --------------------# #N مشاهدات برای (i در 1:N) { synergy[i] ~ dbern(p[i]) logit(p[i]) <- bcons + bdapto*dapto[i] + bteic*teic[i] + btela*tela[i] + bcph*cph[i] + bcpm*cpm[i] + blfrac*blfrac[ i] + bgpfrac*gpfrac[i] + bloglt6*loglt6[i] + bmrsa*mrsa[i] + bvssa*vssa[i] } } writeLines(model, model.txt) model <- jags.model(model.txt, data=Data, n.chains=4, n.adapt=1000) پارامترها< - c('bcons', 'bdapto', 'bteic','btela','bcph', 'bcpm','blfrac','bgpfrac', 'bloglt6','bmrsa','bvssa') start<-Sys.time() update(model, 50000) # رایت در JAGS_samples <- coda.samples(model= model,variable.names=پارامترها,n.iter=50000) finish<-Sys.time() finish-start وقتی این مدل را اجرا می کنم با پیغام خطای زیر مواجه می شوم: Error in jags.model(model.txt, data = Data, n.chains = 4, n.adapt = 1000 ) : خطا در گره dunif((-10),10) عدم تطابق طول در Node::setValue
|
خطای JAGS عدم تطابق طول در Node
|
64290
|
در زیر یک نمونه نمودار پراکندگی بین متغیر «LWAGE» (Log of حقوق) و متغیر «EXPER» (تعداد سالهای تجربه) برای اندازه نمونه «n=3000» آمده است. در این نمودار پراکندگی خط مستقیم OLS (سبز) و خط منحنی (کمترین روش ناپارامتریک در قرمز) وجود دارد. در اینجا کدهای R آمده است: خطوط scatterplot(Dataset$LWAGE~Dataset$EXPER، reg.line=lm، smooth=FALSE، spread=FALSE، boxplots=FALSE، span=0.5، data=Dataset) خطوط (lowess(Dataset$EXPER، Dataset$LWAGE),col='red', lwd=2) از دانستن کدهای R برای معادله خط مستقیم OLS (به رنگ سبز) و معادله خط منحنی (کمترین در قرمز) را بدست آورید؟ نتیجه برای خط مستقیم OLS باید چیزی شبیه به این باشد: «LWAGE = 6.25 + 0.05*EXPER» 
|
چگونه معادله رگرسیون را از OLS و Lowess در R بدست آورید؟
|
67713
|
من سعی می کنم یک تحلیل عاملی در SPSS روی مجموعه ای از داده های آسیب پذیری اجتماعی برای پایان نامه خود اجرا کنم. من 5 انجمن دارم، با 26 متغیر آسیب پذیری اجتماعی برای هر جامعه. هدف کلی من تعیین تعداد مؤلفه ها و متغیرهای مربوط به آنها است که داده ها را می توان در آنها کاهش داد. وقتی تجزیه و تحلیل عاملی را اجرا میکنم، SPSS به من میگوید که ماتریس کوواریانس من «مشخص نیست». چند همبستگی بالا در ماتریس من وجود دارد (r > 0.900)، بنابراین متغیرهایی را که در این همبستگیهای بالا دخیل بودند حذف کردم، اما همچنان همان موضوع قطعی نه مثبت را دریافت کردم. من به طور مداوم سعی کردم متغیرهای بیشتری را حذف کنم که به شدت همبستگی داشتند و باید به r = 0.70 کاهش می یافتند، اما پیام حتی مثبت نیست همچنان ظاهر می شود. متغیرهای من برای حذف تمام می شود، زیرا مجموعه داده های من مدام کاهش می یابد، هر بار که یک متغیر را حذف می کنم! درک من این است که مشکل قطعی نه مثبت تنها زمانی باید ایجاد شود که شما همخطی تقریباً کاملی بین یک یا چند متغیر داشته باشید. اگر چنین است، آیا روشی گام به گام برای مقابله با مشکل وجود دارد، به جای حذف خودسرانه متغیرها تا زمانی که مشکل برطرف شود؟ (که سعی کردم انجام دهم اما بسیار بیهوده است) آیا مشکلی در داده های من وجود دارد؟ PS من سابقه آماری ندارم..من دارم ژئوانفورماتیک میخونم!
|
تحلیل عاملی ... کمک ماتریس کوواریانس
|
7860
|
آیا می توان خروجی تجزیه و تحلیل مؤلفه اصلی را به گونه ای تجسم کرد که بینش بیشتری نسبت به جداول خلاصه ارائه دهد؟ آیا زمانی که تعداد مشاهدات زیاد است، مثلاً ~1e4، می توان آن را انجام داد؟ و آیا انجام آن در R [محیط های دیگر خوش آمدید] امکان پذیر است؟
|
تجسم یک میلیون نسخه PCA
|
95550
|
> فرض کنید $X$ دارای توزیع نرمال با میانگین $0$ و واریانس $25$ است. فرض کنید > $Y$ یک متغیر تصادفی مستقل باشد که مقادیر $-1$ و $1$ را با احتمال > برابر می گیرد. $S = XY + \frac{X}Y $ و $T = XY - \frac{X}Y$ را تعریف کنید. توزیع احتمال $S$ و توزیع احتمال $(\frac{S+T}{10})^2$ را پیدا کنید. کاملاً واضح است که $S=2X$ یا $-2X$ هر کدام با احتمال $1/2$، و $S+T=X$ یا $-X$ هر کدام با احتمال $1/2$. من نمی توانم از این نقطه فراتر بروم. آیا من در مسیر درستی هستم؟
|
$X\sim\mathcal N(0, 25)$; $Y=1$ یا $-1$ با احتمال $1/2$ هر کدام. $S = XY + \frac{X}Y $ را تعریف کنید و توزیع آن را پیدا کنید
|
43149
|
من رفتار حیوانات را در چهار شرایط مختلف اما در یک محیط ثبت می کنم. بنابراین داده های من چندین مقدار هستند (تعداد آنها متفاوت است) که نشان دهنده بسامد یک رفتار واحد برای هر یک از چهار شرط است. قبلاً مردم از ANOVA یک طرفه برای تجزیه و تحلیل این داده ها استفاده می کردند، با این حال، من متوجه شدم که داده ها در واقع به طور معمول توزیع نمی شوند. بنابراین من به استفاده از آزمون Kruskall Wallis فکر کردم، اما داده ها نیز اندازه گیری های مکرر هستند. سپس به فکر استفاده از آزمون فریدمن افتادم اما گروههای داده (شرایط) دارای مقادیر نامساوی هستند... اگر کسی تستی را میشناسد که میتوانم برای این دادهها استفاده کنم، بسیار ممنون میشوم که کمک کند.
|
آزمون غیر پارامتری گروه های نابرابر و داده های اندازه گیری مکرر
|
16811
|
من از بسته locfit برای مقداری رگرسیون لجستیک محلی در R و تابع scb آن برای ترسیم نوارهای اطمینان همزمان استفاده می کنم. با این حال، من هیچ راهی برای درخواست باندهای اطمینان 90٪ به جای نوارهای استاندارد 95٪ نمی بینم. من خود توابع را بررسی کردم، اما نمیدانم کجا میتوان آنها را هک کرد. چرا این محدودیت وجود دارد؟ در این مورد چه کاری می توان انجام داد؟ کد من در امتداد این خطوط است: fit2<-scb(closed_rule ~ bl,deg=1,type=4, xlim=c(0,1),ev=lfgrid(100), family='binomial',data=data, alpha=cbind(0,0.3))
|
چگونه باندهای اطمینان 90% را با locfit در R رسم کنیم؟
|
16816
|
من می خواهم مقادیر را روی یک نمودار ستونی/ستونی ساده در اکسل قرار دهم. سوال مشابهی برای R پرسیده شد، و من می دانم چگونه داده های خود را به R وارد کنم، اما نه اینکه چگونه نمودارها را بسازم. کاری که من انجام می دهم بسیار ساده به نظر می رسد انجام آن در اکسل آسان تر از یادگیری نحوه انجام آن در R است.
|
چگونه می توان مقادیر را روی یک نمودار میله ای ساده در اکسل قرار داد؟
|
95554
|
من مجموعهای از دادههای سری زمانی $X^B = \begin{bmatrix} {X^B_1},{X^B_2},\dots, X^B_n \end{bmatrix}$ دارم که شامل مشاهدات ثبتشده در مکانهای مکانی مختلف است. بین سیگنال های زیرین $X$، که توسط نویز گاوسی افزایشی نیز خراب می شوند، تداخل وجود دارد: $$ X^B = M(X + \epsilon) ;\; \epsilon \sim \mathcal{N}(0, \sigma) $$ ماتریس اختلاط $M$ یک شکل عملکردی شناخته شده دارد: $$ M = I + \alpha e^{-(D / \lambda)^2} $$ که $D_{ij}$ فاصله اقلیدسی بین مکانهای $i$ و $j$ است، $\alpha$ دامنه تداخل و $\lambda$ است. ثابت طول میخواهم مقادیر پارامترهای ناشناخته $\hat{\alpha}$ و $\hat{\lambda}$ را تخمین بزنم، $\hat{M}$ را بسازم، سپس از آن برای حذف همبستگیها در $X^ استفاده کنم. B$ ناشی از تداخل است. فکر کردم شاید بتوانم از این هویت استفاده کنم: $$ cov(MX) = Mkov(X)M^T \\\ cov(X^B) = M(cov(X) + \sigma^2 I)M^ T $$ با این حال، ساختار $cov(X)$ ناشناخته و غیر پیش پا افتاده است. چیزی که می توانم از آن مطمئن باشم این است که $cov(X)$ تحت تاثیر $D$ نیست. با توجه به $X^B$، $D$، و شکل عملکردی شناخته شده $M$، آیا می توان $\hat{\alpha}$، $\hat{\lambda}$ و $\hat{X} را تخمین زد. دلار؟
|
حذف ساختار با فرم عملکردی شناخته شده از ماتریس کوواریانس
|
7869
|
**زمینه:** داده های زیر را دارم (یک مثال): headings = { :heading1 => { :weight => 25, :views => 0, :conversions => 0} :heading2 => { :weight = > 25, :views => 0, :conversions => 0} :heading3 => { :weight => 25, :views => 0, :conversions => 0} :heading4 => {:weight => 25, :views => 0, :conversions => 0} } total_views = 0 من باید این عناوین را بر اساس وزن آنها ارائه دهم. هر بار که عنوانی ارائه میشود، «نمایش» آن یک و «کل_نمایشها» نیز افزایش مییابد. و هر زمان که کاربر روی عنوان ارائه شده کلیک کند، «تبدیل» آن یک افزایش می یابد. من یک برنامه (در روبی) نوشته ام که این را به خوبی اجرا می کند. **سوال:** من باید **`Auto Optimize`** بهترین عنوان تبدیل را انجام دهم. نماها و تبدیلهای زیر را برای همه عنوانها در نظر بگیرید: heading1: views => 50, conversions => 30 heading2: views => 50, conversions => 10 heading3: views => 50, conversions => 15 heading4: views => 50, تبدیل => 5 من باید به طور خودکار وزن عنوان(ها) را افزایش دهم که بیشتر تبدیل می شود/ برعکس مجموع وزن ها همیشه 100 خواهد بود. آیا الگوریتم/فرمول/تکنیک استانداردی برای انجام این کار وجود دارد؟ ممکن است پارامترهای دیگری وجود داشته باشد که قبل از انجام این محاسبات باید از پیش تعریف شوند. اما من از آن عبور نمی کنم.
|
چه تکنیک آماری برای بهینه سازی وزن ها مناسب است؟
|
12120
|
تابع زیر $Y = \alpha\ln(x)$ دارم، $\alpha$ یک ثابت است. سوال: الف) مشتق Y نسبت به x چیست؟ (ب) کشش Y wrt چقدر است. x
|
استخراج یک کشش از یک تابع ساده $Y = \alpha\ln(x)$
|
112686
|
سری زمانی ثابتی را که $$ \gamma(h) =(-1)^{|h|}+\cos \left(\frac{\pi}{4}h\right)$$ ACVF است را شناسایی کنید. این یک مشکل تکلیف است. در سطح اول گیر کرده است. لطفا نکاتی را بیان کنید. پیشاپیش ممنون
|
سری زمانی ثابت را شناسایی کنید
|
16814
|
من حدس می زنم این یک سوال اساسی است اما من مدت زیادی است که به دنبال یک راه حل بدون نتیجه هستم. من از بسته lme4 استفاده می کنم و از این کد استفاده می کنم: library(lme4) plot(confint(lmList(Reaction ~ Days | Subject, sleepstudy), pooled = FALSE), order = 1) برای ترسیم فواصل اطمینان برای ضرایب فردی رهگیری و شیب:  من فقط می خواهم برای اضافه کردن یک خط عمودی (v=0) در هر دو پانل تا بتوان بهتر نشان داد کدام CI حاوی 0 است. من سعی کردم از panel.abline استفاده کنم اما موفق نشدم. plot(confint(lmList(واکنش ~ روز | موضوع، مطالعه خواب)، ادغام = FALSE)، سفارش = 1، panel=function(...){ panel.plot(...) panel.abline(v=0، col خاکستری) })
|
افزودن یک خط در نمودار محدود lmList
|
12124
|
من سعی می کنم یک تعامل سه جانبه مهم را تفسیر کنم. اساساً من از رگرسیون سلسله مراتبی برای تجزیه و تحلیل داده های خود استفاده کرده ام و به یک تعامل سه جانبه قابل توجه رسیده ام. DV من پیوسته است. 3 IV من پیوسته، طبقه بندی شده (2 سطح)، و دیگری طبقه بندی (3 سطح). حجم نمونه من 194 است. من می دانم که می توانم نمودارهایی را برای تعاملات کره چشم انجام دهم، اما برای اینکه بفهمم شیب قابل توجه است یا نه، به یک روش آماری نیاز دارم. من از الگوی جرمی داوسون برای کشف تفاوت های شیب قابل توجه مطلع هستم، اما آنها فقط برای 3 متغیر پیوسته کار می کنند. آیا روشی وجود دارد که بتوانم این کار را انجام دهم؟ من همچنین راهنمای SPSS UCLA برای تفسیر تعاملات سه طرفه را مطالعه کرده ام. آیا این راهی برای رفتن خواهد بود؟ پیشاپیش از هر کمکی که می توانید ارائه دهید متشکریم.
|
تشریح تعاملات سه جانبه
|
7864
|
هنگام کار با هیستوگرام های تصویری، اغلب فکر می کنم که در برابر فقدان کلمه دقیق برای نام عنصر شدت دست و پا می زند. هنگامی که شخصی به اصطلاح مشابه برای عنصر حوزه زمان نیاز دارد، از پیکسل یا نمونه استفاده می کند. با این حال، الگوریتمهایی که با هیستوگرام کار میکنند معمولاً بر روی مقادیر شدت خاصی عمل میکنند، مانند > شمارش همه مقادیر/عناصر دامنه شدت/THEWORD از همه پیکسلها در پنجره > کلمه چیست؟ آیا هرگز وجود دارد؟
|
چگونه عناصر دامنه شدت را فراخوانی کنیم؟
|
23181
|
چگونه می توان پی دی اف حاشیه، خلفی را تعیین کرد؟
|
|
83003
|
توزیع دوجمله ای منفی NB($m,r$), $$\Pr(X = k) = \left(\frac{r}{r+m}\right)^r \frac{\Gamma(r+) است. ک) {ک! \, \Gamma(r)} \left(\frac{m}{r+m}\right)^k \quad\text{برای }k = 0, 1, 2, \dots.$$ من علاقه دارم در یافتن جفری های قبلی برای $m$ و $r$. من نتوانستم این را در جایی پیدا کنم، اکثر نتایج فرض می کنند $m$ ثابت است. من سعی کردم عبارت را استخراج کنم اما گیر کردم، مطمئن نیستم چگونه بیان را ادامه دهم یا ساده کنم. $$\frac{\partial^2 ln P}{\جزئی m^2} = \frac{k+r}{(m+r)^2} - \frac{k}{m^2}$$ و $$\frac{\partial^2 ln P}{\جزئی r^2} = ...$$
|
جفری های دوجمله ای منفی قبل
|
57984
|
بنابراین، من همیشه فکر میکردم که ایده راهاندازی این است که شما نمونهای دارید که از آن یک تخمینگر برای برخی از تابعهای جمعیت (مانند قد متوسط) بدست میآورید. و سپس هنگامی که بوت استرپ را با نمونهگیری مجدد انجام میدهید، از توزیع تخمینگر (و در نتیجه واریانس) نتیجه میگیرید. من این را بدیهی می دانستم که میانگین نمونه های بوت استرپ شده با میانگین نمونه اصلی یکسان است. این قطعاً برای آمارهایی مانند هر میانگین در سراسر جمعیت صادق است. با این حال، برای هر تابع غیرخطی، مانند درصد «افراد ثروتمند» در نمونه، این دو میانگین متفاوت خواهند بود. بنابراین، راهاندازی در واقع به شما میگوید که تخمینگر اصلی شما در حال حاضر میانگین متفاوتی دارد (که در بیشتر موارد نیز حالت است). با توجه به این سوگیری، **آیا هنوز استفاده از bootstrapping برای اندازه گیری واریانس مناسب است (بدیهی است که از میانگین بوت استرپ به جای برآورد اولیه استفاده نمی کنید؟**
|
آیا استفاده از bootstrapping برای اندازه گیری واریانس مناسب است؟
|
90004
|
در بسیاری از بازی های آنلاین، زمانی که بازیکنان یک کار دشوار را انجام می دهند، گاهی اوقات یک جایزه ویژه داده می شود که هر فردی که این کار را انجام داده می تواند از آن استفاده کند. این معمولاً یک مانت (روش حمل و نقل) یا یکی دیگر از وسایل روشویی است (اقلامی که عملکرد شخصیت را بهبود نمی بخشند و عمدتاً برای سفارشی سازی ظاهر استفاده می شوند). هنگامی که چنین پاداشی داده می شود، رایج ترین راه برای تعیین اینکه چه کسی پاداش را دریافت می کند، از طریق اعداد تصادفی است. بازی معمولاً دارای فرمان خاصی است که یک عدد تصادفی (احتمالاً شبه تصادفی، نه تصادفی امن رمزنگاری) بین 1 تا 100 تولید می کند (گاهی اوقات بازیکن می تواند گسترش دیگری را انتخاب کند، اما 100 رایج ترین است). هر بازیکن از این دستور استفاده میکند، همه بازیکنان میتوانند ببینند چه کسی چه چیزی رول کرده است، و آیتم به شخصی که بالاترین رول را میزند تعلق میگیرد. اکثر بازی ها حتی یک سیستم داخلی دارند که در آن بازیکنان فقط یک دکمه را فشار می دهند و وقتی همه دکمه خود را فشار دادند، بازی بقیه کارها را به صورت خودکار انجام می دهد. گاهی اوقات، برخی از بازیکنان همان تعداد بالا را تولید می کنند و هیچ کس آنها را شکست نمی دهد. این مشکل معمولاً توسط بازیکنانی حل می شود که شماره خود را بازسازی می کنند، تا زمانی که بالاترین عدد منحصر به فرد وجود داشته باشد. سوال من این است: یک مولد اعداد تصادفی را فرض کنید که می تواند هر عددی بین 1 تا 100 را با همان احتمال ایجاد کند. فرض کنید شما یک گروه 25 بازیکنی دارید که هر کدام 1 عدد را با چنین مولد اعداد تصادفی تولید می کنند (هر کدام با دانه خاص خود). شما 25 عدد بین 1 تا 100 خواهید داشت، بدون هیچ محدودیتی در مورد تعداد بازیکنانی که یک عدد خاص را می زنند و هیچ ارتباطی بین اعداد وجود ندارد. احتمال اینکه بیشترین عدد تولید شده توسط بیش از 1 بازیکن ایجاد شود چقدر است؟ به عبارت دیگر، احتمال تساوی چقدر است؟
|
احتمال اینکه از 25 عدد تصادفی بین 1 تا 100، بالاترین بیش از یک بار ظاهر شود چقدر است؟
|
57981
|
من در حال حاضر سعی می کنم یک مدل پیش بینی بهتر برای فهرست بیسبال فانتزی خود بسازم. من در حال حاضر از آمارهای فصل پیشبینیشده معمولاً پذیرفتهشده (ZiPS از Fangraphs) برای تعیین میانگین امتیازات فانتزی که یک بازیکن انتظار میرود در هر بازی کمک کند، استفاده میکنم. با این حال، این مشکل ساز است، زیرا واریانس عملکرد بازیکن (از جمله موارد دیگر) را در نظر نمی گیرد. از آنجایی که بیسبال هم شامل شانس و هم مهارت است، فکر نمیکنم پیشبینی آمار خاصی از یک بازی (یعنی تعداد ضربههایی که شاهزاده فیلدر خواهد داشت) تمرین مفیدی باشد. در عوض، من میخواهم میانگین امتیازات را پیشبینی کنم، اما در حین انجام این کار، واریانس را در نظر بگیرم. اولین چیزی که به ذهن خطور می کند، تاثیر کوزه حریف است. فرضیه من این است که کیفیت پارچ بر عملکرد بازیکنان مقابل تأثیر می گذارد. با توجه به انتخاب دو بازیکنی که در میانگین امتیازات فانتزی پیش بینی شده نسبتاً برابر هستند، چگونه می توانم تأثیر پارچ حریف را تعیین کنم و چگونه می توانم فرضیه را آزمایش کنم؟ همچنین، چگونه می توانم واریانس را به روشی معقول در نظر بگیرم، حتی اگر نامشخص باشد؟ چگونه می توانم بفهمم که پروجکشن های من در حال اجرا هستند یا بیش از حد اجرا می شوند؟ (به نظر می رسد این شبیه به یک مشکل بهینه سازی سبد مالی است)
|
پیش بینی تکنیک های بهینه سازی در بیسبال فانتزی
|
90005
|
من یک مدل weibull را به صورت زیر نصب می کنم: s <- Surv(DFBR[Time],DFBR[Censor]) wei <- survreg(s~ Group+ UsefulLife, data = DFBR, dist=weibull) چگونه می توانم احتمال شکست را در 10 روز آینده برای یک داده جدید با گروه = 10 و مفید Life = 100 پیش بینی کنم
|
پیش بینی احتمال شکست در R با استفاده از survreg
|
57982
|
من یک رگرسیون خطی با چندین متغیر مستقل دارم. یکی از متغیرها باینری است. اگر تخمین پارامترها مثبت یا منفی باشد، آیا رابطه مثبت/منفی یکسانی با متغیر وابسته به عنوان یک متغیر پیوسته دارد؟ بنابراین اگر یک رابطه مثبت باشد، آیا متغیر باینری با مقدار 1 مقدار متغیر وابسته بالاتری نسبت به متغیرهای با مقدار 0 خواهد داشت؟
|
رابطه مثبت/منفی برای یک متغیر باینری در رگرسیون خطی
|
57988
|
من در حال نوشتن پایان نامه خود در مورد چگونگی تأثیر عوامل مختلف بر بازده اضافی سهام پس از اعلام M&A هستم. من در کلاس تحلیل چند متغیره شرکت نکرده ام و فقط یک ایده بسیار ابتدایی از اقتصاد سنجی دارم. من مطمئن نیستم که کدام یک از آن دو چیزی است که برای ساختن مدل خود باید یاد بگیرم. به طور کلی، من یک متغیر وابسته (بازده اضافی در بازه زمانی مشخص) و متغیرهای توضیحی زیادی مانند اندازه خریدار، مالکیت نهادی، جنبههای مختلف حاکمیت شرکتی و غیره خواهم داشت. هر یک از آن متغیرها دارای متغیر وابسته هستند. چه چیزی باید یاد بگیرم تا بتوانم مدل خود را بسازم؟
|
تفاوت بین تحلیل چند متغیره و اقتصادسنجی چیست؟
|
10419
|
من یک سوال در مورد رگرسیون دوجمله ای منفی دارم: فرض کنید دستورات زیر را دارید: require(MASS) attach(cars) mod.NB<-glm.nb(dist~speed) summary(mod.NB) detach(cars) ) (توجه داشته باشید که ماشینها مجموعه دادهای هستند که در R موجود است، و من واقعاً اهمیتی نمیدهم که این مدل منطقی باشد.) چیزی که میخواهم بدانم این است: چگونه میتوانم آن را تفسیر کنم. متغیر «تتا» (همانطور که در انتهای تماس به «خلاصه» برگردانده شده است. آیا این پارامتر شکل توزیع نگبین است و آیا می توان آن را به عنوان معیار چولگی تفسیر کرد؟ من از هر فکری قدردانی می کنم!
|
تتا در رگرسیون دوجمله ای منفی برازش R چیست؟
|
63117
|
من دو مجموعه داده بسیار راست انحرافی دارم که باید آنها را برای تفاوت در میانگین مطالعه کنم. با توجه به چولگی، با استفاده از مقیاس log 10 بعد از اضافه کردن 1 تغییر شکل دادم تا بتوانم لاگ را بگیرم. به عبارت دیگر: `xx = log10(x+1)`. 'xx' به خوبی توزیع شده است، که خوب است، اما من یک سنبله منظم در 0 دارم ('x' کاملاً پراکنده است). از آنجایی که تست $t$-تست در مورد نرمال بودن بسیار قوی است، آیا می توانم به هر حال یک تست استنتاج در برابر میانگین اعمال کنم؟ فکر نمیکنم بتوانم صفرها را بهعنوان حالت عادی حذف کنم، زیرا سنبله بسیار زیاد است (حدود 0.2 برابر مقدار مورد انتظار). آیا باید این مقادیر را به عنوان مقادیر پرت در نظر بگیرم؟
|
نرمال بودن یک متغیر لگ نرمال با یک سنبله در 0؟
|
9322
|
از _Econometrics_، توسط فومیو هیاشی (فصل اول): همسانی غیرشرطی: * لحظه دوم عبارات خطا E(εᵢ²) در سراسر مشاهدات ثابت است * شکل تابعی E(εᵢ²|xi) در سراسر مشاهدات ثابت است همسانی مشروط: * این محدودیت که لحظه دوم خطای E(εᵢ²) در سراسر آن ثابت است مشاهدات برداشته می شود * بنابراین لحظه دوم شرطی E(εᵢ²|xi) می تواند در بین مشاهدات از طریق وابستگی احتمالی به xᵢ متفاوت باشد. بنابراین، سوال من: **همسانی مشروط چه تفاوتی با ناهمسانی دارد؟** درک من این است که وقتی لحظه دوم در مشاهدات متفاوت است، ناهمگونی وجود دارد (xᵢ).
|
هموسکداستیتی مشروط در مقابل دگراندیشی
|
63113
|
فرض کنید یکی می خواهد آزمایش کند که چند بازیکن یک روز پس از دریافت بازی و دو روز پس از دریافت آن هنوز بازی می کنند. و اینکه نتایج به این صورت خواهد بود: بازی 1: * تعداد کل بازیکنان = 120 * بازیکنانی که روز بعد بازی می کنند = 21.7٪ * بازیکنانی که دو روز بعد بازی می کنند = 18.3% بازی 2: * تعداد کل بازیکنان = 62 * بازیکنانی که روز بعد بازی می کنند = 16.1٪ * بازیکنانی که دو روز بعد بازی می کنند = 8.1٪ آیا می توان میزان دقیق بودن نتیجه را محاسبه کرد، به خصوص در بازی 2. +- درصد؟ آیا در واقع بازی 2 می تواند بهتر از بازی 1 باشد؟
|
دو بازی با آمار جمع آوری شده، داده ها چقدر دقیق است؟
|
9327
|
ویرایش: از کمکی که تا الان کردید متشکرم. من سوال را بر اساس کار بیشتر به روز کردم. من علاقه مندم که تفاوتی در پاسخ تعداد دو گونه رقیب به خشکی و ارتفاع پیدا کنم. هر دو در یک نوع تله گرفتار شدهاند، اما قرار دادن تله (بوتهها در مقابل ساختمانها) احتمالاً نسبت به یک گونه یا دیگری تعصب دارد، بنابراین هر تله بر اساس فضای داخلی/خارجی در مقیاس 1-3 رتبهبندی میشود. یک تله با قرار دادن آن حرکت نمی کند. تلهها در سایتها تودرتو هستند، خشکی در هر ترکیب سایت/بازدید اندازهگیری میشود، و البته ارتفاع در هر مکان ثابت است. داده های من شامل تعداد هر گونه است که در 4-12 تله، در 8-12 سایت در طی 6-8 بازدید از هر سایت گرفتار شده است. بازدیدها و سایت ها به اندازه کافی فاصله دارند که به نظر من مستقل هستند. بیشتر داده ها صفر هستند، به خصوص برای Sp_A که نادر است. در زیر ساختار داده ها آمده است. R> str(mydata) 'data.frame': 300 obs. از 8 متغیر: تعداد $ : num 0 5 1 0 1 1 0 0 0 0 ...
$ گونه : فاکتور w/ 2 سطح a،b: 1 1 1 1 1 1 1 1 1 1 ... $ elevation: int 1 1 1 1 1 1 1 1 1 1 1 ...
خشکی $ : num 0.179 0.179 0.179 0.179 0.179 ... سایت $ : فاکتور w/ 5 سطح a،b،c،d،...: 1 1 1 1 1 1 1 1 1 1 . ..
تله $ : فاکتور w/ 50 سطح MT10a،MT10b،...: 6 11 16 21 26 31 36 41 46 1 ... $ بازدید : فاکتور w/ 3 سطح 1،2،3 : 1 1 1 1 1 1 1 1 1 1 1 ...
$ in_out : num 1 1 1 1 1 1 1 1 1 1 ... به عنوان یک تلاش اولیه، من هیچ مشکلی در استفاده از تابع R `lmer` برای مدل کردن Sp_A حضور/غیبت با Sp_B به عنوان متغیر کمکی نداشتم: `(SpA>0) ~ Sp_B + elevation + (1|سایت/تله) + (1|بازدید)` اما بنا به پیشنهاد لیست مدلهای ترکیبی R-sig و همچنین ils از این سایت، دادهها را همانطور که در بالا مشاهده میکنید تغییر شکل دادهام و سعی کردم تعداد گونهها را به عنوان عاملی در مدل مدل کنم. من از دو بسته مختلف (lme4 و glmmADMB) استفاده کرده ام. توابع داده ها را در مدل های ساده کنترل می کنند تا زمانی که فاکتور گونه ها را اضافه کنم. کد R و پیام های خطا در زیر آمده است. هنگامی که از دادههای ساختگی سادهتر استفاده میکنم، همین خطاها نیز اتفاق میافتد. آیا ایده ای در مورد نحو یا بسته های دیگر دارید؟ require(lme4) glmera1 <- glmer(count~elevation*species*in_out + (1|بازدید) + (1|site/trap), data=mydata, family=poisson) خطا در asMethod(object) : ماتریس است متقارن نیست [1،2] علاوه بر این: پیامهای اخطار: 1: در mer_finalize(ans): اخطار چالمود 'نه قطعی مثبت در فایل:../Cholesky/t_cholmod_rowfac.c، خط 432 2: در mer_finalize(ans) : چلمود اخطار «قطعی مثبت نیست» در فایل:../Cholesky/t_cholmod_rowfac.c، خط 432 3: در mer_final (انس) : همگرایی مفرد (7) require(glmmADMB) admba1 <- glmm.admb(count~elevation*species*in_out, random=~visit, group=site, data=mydata, family=nbinom) خطا در glmm.admb(count ~ elevation * species * in_out، تصادفی = ~visit، : حداکثر کننده تابع ناموفق بود علاوه بر این: پیام هشدار: دستور اجرای './nbmm -maxfn 500 دارای وضعیت 1 بود
|
شمارش داده ها با اثرات مختلط
|
54952
|
من با یک مشکل بسیار عجیب در STATA مواجه هستم. من یک مجموعه داده پانل با 8000 گروه و 4 میلیون مشاهده دارم. من می خواهم یک رگرسیون لجستیک باینری پانل اثرات ثابت (xtlogit) را اجرا کنم. همانطور که در سوال اصلی من می توانید بخوانید، الگوریتم حداکثر سازی STATA نمی تواند یک راه حل را هنگام استفاده از xtlogit محاسبه کند. من این مشکل را در هنگام تبدیل دادهها به دادههای پانل به وجود میآورم، زیرا: 1. اجرای «logit depvar indepvars» به خوبی کار میکند. 2. «logit depvar indepvars» در اولین اجرای «xtdata indepvars، fe clear» به حداکثر نمیرسد. بنابراین « xtdata` کاری را انجام می دهد که باعث از کار افتادن حداکثر ساز می شود. به نظر می رسد که وقتی «xtdata indepvars, fe clear nodouble» را اجرا می کنم، محاسبه می کند. این به این معنی است که تابع پانل stata باعث میشود که دادهها به فرمت «دوگانه» (از «float») دوباره فرستاده شوند، و این دقت افزایشیافته باعث میشود فرآیند حداکثرسازی با شکست مواجه شود. با این حال، من نمیتوانم از «logit» بعد از «xtdata ..، nodouble» استفاده کنم زیرا با اجرای «xtlogit» یکسان نیست («xtdata» برای OLS در نظر گرفته شده است). بنابراین باید «xtlogit» را اجرا کنم، اما به نظر نمیرسد گزینه «nodouble» داشته باشد، که باعث میشود STATA دادههای «پانل پسزمینه مخفی» را با دقت بالاتر به فرمت «دوگانه» مجدداً ارسال کند، و بنابراین تابع همگرا نمیشود. . بنابراین، آیا می توان به نحوی به STATA گفت که هنگام اجرای «xtlogit»، «float»های من را به «دبل» تغییر ندهد، به طوری که تابع همگرا شود؟ آیا راه حل دیگری برای این مشکل افزایش دقت وجود دارد که باعث عدم همگرا شدن تابع می شود؟
|
xtlogit: تبدیل دادههای پانل به دو برابر، مدل را غیرقابل محاسبه میکند (STATA)
|
54950
|
بیشتر یک سؤال سوادآموزی است که آماری دارد، اما من به دنبال اصطلاحات صحیح هستم و دستگاه Google چیزی را مطرح نکرده است. شما داده های توضیحی و داده های مشاهده شده برای سال های 2000-2010 دارید. شما فقط متغیرهای توضیحی برای 1990-2000 دارید. شما می خواهید X را برای سال های 1990-2000 تخمین بزنید، آیا پیش بینی می کنید؟ تخمین زدن؟ برگشت پیش بینی؟ اصطلاح صحیح چیست؟
|
پیش بینی گذشته؟
|
21722
|
امروز یک ایده را سرهم کرده ام، اما فقط یک ترم آمار گرفته ام، پس لطفاً این را در نظر داشته باشید. با تشکر ابتدا، این سوال: _چگونه تخمین های متعدد را قضاوت می کنید (با شامل خطاهای استاندارد)؟ منظور من تخمین میانگین یا توزیع آنها نیست، بلکه نشان دادن شباهت است. چیزی شبیه به R^2 (یا یک معیار خوب برازش متفاوت) در مدلهای رگرسیون خطی._ من در مورد متاآنالیز شنیدهام، اما تا آنجا که میدانم، با تخمین، دقت سروکار دارد و به دادههای بیشتری نیاز دارد. من، AFAIK، چیز زیادی در مورد شباهت نمی گویم. شاید اندازه CI برآورد به نوعی شباهت را منعکس کند. وقتی در مدرسه برای تشابه آزمایش میکردیم، خطاها را در نظر نمیگرفتیم، فقط تخمینها را در نظر میگرفتیم (آزمون کای اسکوئر، آزمون فیشر). افکار من: وقتی دو تخمین و خطاهای استاندارد آنها دارید، به فواصل اطمینان آنها علاقه مند می شوید. در حالی که میدانم قضاوت درباره شباهت آماری فقط بر اساس این فواصل به جای آزمونهای فرضیه، خطرناک است، اما بررسی اندازه همپوشانی چطور؟ دریافت نسبت چیزی شبیه $$ratio_{1,2} = \frac{l(overlap_{1,2})}{l(CI_1) + l(CI_2)}، $$ که $l$ فقط طول را برمیگرداند یک بازه هر چه به یکی نزدیکتر باشد، بهتر است (البته نیازی به نگه داشتن آن نیست). شروع کردم به فکر کردن در مورد آن، زیرا گاهی اوقات شما برای یک پدیده مشابه $n$ تخمین دارید و دوست دارید میزان شباهت آنها را بدانید. برای مثال، نسبت $$ \frac{\sum_{i,j,i<j} ratio_{i,j}}{n(n-1)/2}، $$ نشانگر شباهت زوجی خواهد بود. فقط یه فکر فقط یک تخلیه مغز از زمانی که داشتم سگم را پیاده می کردم. من کمی در گوگل جستجو کردم و دو مقاله در مورد این موضوع پیدا کردم، اما آنها برای من کمی فنی هستند، آنها همچنین با مشکلات متفاوتی سروکار دارند. متاسفم اگر این یک نوع موضوع بی اهمیت در آمار است. یا اگر شرح سوال مشخص نباشد. با تشکر
|
همپوشانی فاصله اطمینان - قضاوت در مورد شباهت برآوردها
|
21720
|
من اخیراً یک نظرسنجی برای مقایسه سال به سال دوباره انجام دادم. در نظرسنجی اخیر، من مقیاس لیکرت را با لنگر انداختن هر کادر به جای 1 و # 6، کمی تغییر دادم. به عبارت دیگر، مقیاس من از این قرار گرفت: 1 - کاملاً موافقم، 2، 3، 4، 5، 6 - کاملاً مخالفم. به این: 1 - کاملا موافق 2 - موافق 3 - تا حدودی موافق 4 - تا حدودی مخالف 5 - مخالف 6 - کاملا مخالف سال به سال مقایسه ها هنوز دقیق هستند؟ من به صورت آنلاین جستجو کردم اما هیچ بهترین روش استاندارد در این زمینه پیدا نکردم. با تشکر
|
مقایسه داده های مقیاس لیکرت لنگر و بدون لنگر
|
21727
|
اندازه نمونه را می توان به روش های مختلفی محاسبه کرد، به عنوان مثال، با استفاده از حاشیه خطا و سطح اطمینان یا انجام آنالیز توان و غیره. چه مواردی باید در انتخاب روش محاسبه نمونه در نظر گرفته شود؟
|
دستورالعمل برای محاسبه حجم نمونه
|
21725
|
فرض کنید من دو مدل $A$ و $B$ دارم که برچسبهای کلاس را پیشبینی میکنند. اگر این ها پیش بینی های دودویی ارائه دهند، این ها به صورت جفت (نرخ مثبت کاذب، نرخ مثبت واقعی) در فضای ROC ظاهر می شوند. ما باید بتوانیم مدلهای مختلفی را برای دستیابی به tpr و fpr در امتداد درونیابی خطی این منحنیها با نسبت دادن نقاط نامناسب به کلاس 1 یا 0 با توجه به برخی احتمالات (همانطور که در شکل دستی زیر نشان داده شده است) بسازیم.  اجازه دهید بگوییم که مدل $A$ به نرخ مثبت واقعی $t_A$ با نرخ مثبت کاذب $f_A$ دست می یابد. ، و $B$ به طور مشابه به $t_B$ در $f_B$ می رسد. اکنون سعی می کنم در بدنه محدب دو مدل بمانم و نرخ مثبت کاذب $f$ را پیش بینی کنم. من از فرمول زیر استفاده می کنم: 1. اگر $f \leq f_A$، $f/f_A$ نمونه های پیش بینی شده توسط $A$ را به عنوان $1$، و بقیه را $0$ پیش بینی کنید. 2. اگر $f_A \lt f \leq f_B$، $1$ را برای همه آنهایی که توسط $A$ پیشبینی شدهاند، و همچنین $1$ را برای $(f-f_A)/(f_B-f_A)$ از پیشبینیشده توسط $B$ پیشبینی کنید. اما نه $A$. 3. اگر $f_B \le f$، $1$ را برای همه آنهایی که توسط $A$ یا $B$ پیشبینی شدهاند، و همچنین $1$ را برای $(f-f_B)/(1-f_B)$ بقیه پیشبینی کنید. این چیزی است که من با استفاده از این دریافت می کنم.  به نظر می رسد که در این فرمول چیزی اشتباه است. همانطور که می بینیم، من به طور مداوم زیر خطوطی که $A$ و $B$ را به هم متصل می کنند، پیش بینی می کنم. این به دلیل تصادفی نیست زیرا من کار تقریباً عالی بین مبدا و $A$ انجام می دهم و همچنین از نمونه های زیادی برای تولید این نمودار استفاده کرده ام. برای یک، در محدوده $f>f_B$، ما در واقع بین $B$ و $(1,1)$ درون یابی می کنیم، بنابراین باید $A$ را نادیده بگیریم. من فقط برای حفظ تداوم بین منطقه 2 و 3 آن را به این صورت نوشتم. در واقع باید $1$ را برای کسانی که توسط $b$ و $(f-f_B)/(1-f_B)$ پیشبینی میشوند، پیشبینی کرد. سوال اصلی من این است که فرمول صحیح درون یابی بین $A$ و $B$ چیست؟ این کد من برای تولید این نمودار در R است: n <- 1e6 برچسب <- c(rep(0,n/2),rep(1,n/2)) fA <- .2; tA <- 0.6; fB <- 0.7; tB <-.95 A <- rep(0,n) A[نمونه(n/2,fA*n/2)] = 1; A[(n/2)+ نمونه (n/2,tA*n/2)]=1 B <- rep(0,n) B[نمونه(n/2,fB*n/2)] = 1; B[(n/2)+sample(n/2,tB*n/2)]=1 Ainds = Filter(function(x) {A[[x]]}, 1:n) Binds = Filter(function( x) {B[[x]]}، 1:n) BnotA = فیلتر(تابع(x) {B[[x]]&(! A[[x]])}، 1:n) AorB = Filter(function(x) {A[[x]]|B[[x]]}, 1:n) notAnotB = Filter(function(x) {! (A[[x]]|B[[x) ]])}، 1:n) کتابخانه (ROCR) pred.a <- پیش بینی (A, labels) pred.b <- prediction(B, labels) pdf(ROC_Interpolated.pdf) # نمودار a و b نمودار(عملکرد(pred.a,tpr,fpr),col=blue,lty=0,type='o',pch=2) plot(عملکرد(pred.b,tpr،fpr),col=blue,lty=0,type='o',pch=2,add=T) i <- 0 C = list() pred.c = list() p = list() f = list() for (fgoal in ((1:29)/30)) { i <- i+1 f[[i]] = fgoal C[[i ]] <- rep(0,n) if (fgoal<=fA) { p[[i]] = fgoal/fA C[[i]][sample(Ainds, p[[i]]*طول(Ainds))] = 1 # C[[i]] <- sapply(1:(2*n),function(x) {if (A[[x]]) rbinom( 1,1,p[[i]]) else 0}) } else if (fgoal<=fB) { p[[i]] = (fgoal-fA)/(fB-fA) C[[i]][Ainds] = 1 C[[i]][نمونه(BnotA,p[[i]]*طول(BnotA))] = 1 # C[[i]] <- sapply(1: (2*n)،تابع(x) {if (A[[x]]) 1 else if (B[[x]]) rbinom(1،1،p[[i]]) other 0})} else { p[[i]] = (fgoal-fB)/(1-fB) C[[i]][AorB] = 1 C[[i]][نمونه(notAnotB،p[[i]] * طول (notAnotB))] = 1 # C[[i]] <- sapply(1:(2*n),function(x) {if (A[[x]]|B[[x]]) 1 else rbinom(1،1، p[[i]]) }) } pred.c[[i]] = پیشبینی (C[[i]]، برچسبها) نمودار (عملکرد (pred.c[[i]] tpr,fpr),col=red,lty=0,type='o',pch=5,add=T) } خطوط (c(0,fA,fB,1),c(0,tA,tB,1),lty=2,col=black) legend(.4,0.4,legend=c(A, ب، درون یابی شده توسط نمونهبرداری، نظری)، lty=c(0،0،0،2)، pch=c(2،2،5، NaN)، col=c(آبی، آبی، قرمز، سیاه)) dev.off()
|
درون یابی بین مدل ها در فضای ROC
|
21724
|
من در حال بررسی مقاله کنفرانس هستم (نه یک کنفرانس آماری). نویسندگان با روش شناسی خود کارهای خنده داری انجام داده اند. مجموعه آزمایش دارای 4 درمان است که هر کدام برای همان 30 نفر اعمال می شود. این در 10 شرایط مختلف تکرار می شود. ANOVA برای تعیین اینکه آیا انتخاب درمان تأثیری دارد یا خیر، به طور جداگانه برای هر یک از 10 شرایط مختلف استفاده می شود. آنها دریافتند که تنها یک مورد تفاوت معنی داری داشت، در p=0.03. من دو سوال در مورد روش آنها دارم: 1. به نظر من باید از شرایط به عنوان یک عامل جداگانه در ANOVA استفاده کرد نه اینکه 10 ANOVAS جداگانه انجام داد و اگر کسی آزمایش را 10 بار انجام داد باید p- را ضرب کرد. مقادیر 10 (یعنی تصحیح بونفرونی). آیا این منطقی است؟ 2. علیرغم نتایج قبلی، نویسندگان سپس آزمونهای t زوجی را بین تمام گروههای درمانی مختلف در هر 10 شرایط انجام دادند. آنها اختلاف آماری معنیداری را در میانگینها بین بسیاری از گروهها در شرایطی گزارش کردند که ANOVA پیشنهاد کرد هیچ تفاوتی نداشت. من گمان می کنم که این بدان معنی است که آنها اصلاح بونفرونی را برای مقادیر p در تست های زوجی خود انجام نمی دهند. آیا این درست است؟ آیا روش دیگری وجود دارد که آنالیز واریانس نشان دهد که هیچ معناداری وجود ندارد، اما تفاوت معنی داری بین گروه ها وجود دارد؟
|
عادی سازی در آزمون فرضیه های زوجی
|
48367
|
ویرایش گسترده سوال اصلی در حالی که من توانسته ام افکارم را اصلاح کنم و کد بهتری بنویسم. دادههای دو فرآیند را در نظر بگیرید، که هر کدام میتوانند منحنیهای سری زمانی زیادی را تولید کنند که همپوشانی زیادی در نتایج خود دارند. یک تصویر نمونه در زیر آمده است، با استفاده از منحنی های نسبتاً کمی - برنامه واقعی هزاران مورد برای هر فرآیند دارد، در حالی که هر کدام فقط 250 عدد دارد (قرمز در مقابل آبی):  مقدار زیادی همپوشانی بین این دو وجود خواهد داشت، اما برای مثال فرآیند قرمز تنها فرآیندی است که میتواند در اوایل قلههای بسیار بالا و بسیار تیز ایجاد کند، در حالی که به نظر می رسد آبی قله های بالاتری در محدوده X = 3000 تا 4000ish و غیره ایجاد می کند. چیزی که من به دنبال آن هستم راهی برای کمیت کردن یا تجسم آماری آن فضای غیر همپوشانی است که در آن همپوشانی های زیادی وجود دارد. کسی ایده ای دارد؟ یکی از کارهایی که من به انجام آن فکر کردهام این است که نادیده بگیرم که اینها سریهای زمانی هستند، و چیزی شبیه چگالی هسته برای هرکدام تولید کنیم و یکی از دیگری کم کنیم - مناطق دور از صفر مکانهایی با همپوشانی کمتر خواهند بود، اما مطمئن نیستم. چقدر قابل دفاع است کاربرد واقعی این یک سری جستجوی پارامتر برای یک سیستم دینامیکی است - اساساً، هدف این است که نتایج عددی بسیار زیادی از یک سیستم معادلات دیفرانسیل را با استفاده از دو رویکرد مختلف تولید کند و سپس هر جایی از نتایج را پیدا کند، مثلاً «قرمز میتواند نتایجی را با این مقدار ایجاد کند، در حالی که آبی نمیتواند» زمانی که در اکثر موارد مقداری پارامتر برای قرمز همان نتایجی را ارائه میدهد که پارامترهای متفاوت برای آبی.
|
توصیف/تجسم آماری «عدم همپوشانی» در مجموعه بزرگی از دادههای سری زمانی
|
62862
|
به من مجموعه داده ای داده می شود که در آن پروفایل افراد و انواع آبجوی مورد علاقه هر فرد وجود دارد که در یک لیست آورده شده است. بهترین راه برای یافتن آبجوهای مرتبط با یک آبجو خاص بر اساس این داده ها چیست؟ ویرایش: درباره سوالم بیشتر تحقیق کردم و متوجه شدم که در حوزه فیلترینگ مشارکتی است. از تحقیقات من، نمونههایی که در حال حاضر ارائه میشوند شامل رتبهبندی یا سایر معیارها هستند، اما مجموعه دادههای من بسیار کم است. شامل آبجوهای خریداری شده توسط یک شخص می شود. بنابراین تنها داده ای که ما داریم آب و هوا است یا اینکه شخصی آبجو خاصی را خریداری نکرده است. قالب به این صورت است: Person | Beers 1 A,B,C,R,G,S 2 A,F,U,I,T 3 B,C 4 J,R خرید. سوال من این است که با توجه به یک آبجو بگویید A، بهترین توصیه را از 3 آبجو ارائه دهید. تلاش فعلی من 1 آبجو داده شده است، همه کاربرانی را که آن را خریده اند پیدا کنید، سپس به همه آبجوهایی که خریداری کرده اند نگاه کنید و 3 مورد رایج ترین آنها را پیدا کنید. من معتقدم که این خیلی ساده لوحانه است، بنابراین چه روش های دیگری ممکن است؟ من به داشتن یک تابع وزنی فکر می کنم اما مطمئن نیستم که چگونه آن را انجام دهم.
|
بهترین روش یادگیری ماشین برای موتور توصیه؟
|
26974
|
من دادههایی دارم که در تعدادی از سایتها جمعآوری شدهاند، و هر سایت در یکی از سه منطقه (دریاچه انتاریو، ایری و سنت لارنس) قرار داشت، بنابراین امیدوار بودم که ANOVAهای تودرتو برای مقایسه بین سایتها و مناطق انجام دهم. متأسفانه تعداد سایتهای نابرابر در هر منطقه (به ترتیب 3، 4 و 5) به دلیل جمعآوری دادههای کافی در چند سایت وجود ندارد. همچنین، واریانسها و اندازه نمونههای من بین سایتها برابر نیست (اندازه نمونه از 3 تا 43، میدانم، وحشتناک است!). تعداد کل مشاهدات برای همه سایت ها 182 بود. بیشتر سایت ها حدود 15 مشاهده داشتند سوال من این است که آیا امکان دارد من به نوعی تحلیل تودرتو انجام دهم؟ من نمی توانم اطلاعات زیادی در مورد تجزیه و تحلیل تودرتو با واریانس های نابرابر پیدا کنم. من سعی کردهام تبدیل کنم، نزدیکترین چیزی که میتوانم به homoscedasticity برسم با $x_{new}=\frac{1}{(x+2)}$ است، و این به من $p \تقریبا 0.02$ میدهد.
|
من می خواهم یک ANOVA تودرتو انجام دهم اما واریانس های من بسیار نابرابر است
|
49945
|
در یک نظرسنجی از 1070 نفر از ساکنان آن آربور، 59٪ از ممنوعیت دوچرخه در پیاده روهای مرکز شهر در مناطق خاصی با ترافیک زیاد عابران حمایت کردند. یک مدیر شهری می خواهد تعیین کند که آیا اکثریت ساکنان آن آربر از چنین ممنوعیتی حمایت می کنند یا خیر. او تصمیم می گیرد که فرضیه های $H_0:\; p = 0.50$ در مقابل $H_a:\; p > 0.50 دلار در سطح معنی داری 5 درصد. مقدار آماره آزمون مناسب برای آزمون فرضیه اکثریت را محاسبه کنید. آیا فقط $$z = \frac{0.59-0.50}{\sqrt{0.50(1-0.50)\big/1070}} = 5.89 است؟ $$ من گیج شدم، زیرا به نظر می رسد مقدار z بسیار بالا است . هر ایده ای؟
|
یافتن آمار آزمون برای یک فرضیه اکثریت
|
49944
|
هنگام بهینه سازی یک برنامه کامپیوتری، باید تعیین کنم که برنامه با آخرین بهینه سازی چقدر سریعتر اجرا می شود. برای این کار، برنامه را N بار **بدون ** بهینه سازی و N بار **با** بهینه سازی اجرا می کنم. بعد از هر بار اجرا، زمان سپری شده را ثبت می کنم. بنابراین من دو مجموعه از اندازهگیریهای N را دریافت میکنم که میخواهم آنها را برای تعیین سود حاصل از بهینهسازی مقایسه کنم. فرض کنید که A و B به ترتیب مجموعه ای از اندازه گیری ها با و بدون بهینه سازی هستند. بنابراین: A = [Ta1، Ta2، ...، TaN] <-- بدون بهینه سازی B = [Tb1، Tb2، ...، TbN] <-- با بهینه سازی به طور خاص می پرسم: 1. آیا اندازه گیری ها سازگار هستند؟ من میخواهم از مقادیر فقط در صورتی استفاده کنم که سازگار باشند، و مطمئن باشم که هیچ صدایی وجود نداشته است که نتایج را خراب کند. در حال حاضر، من stddev(A)/mean(A) < 0.03 را بررسی می کنم، و برای B یکسان است. 2. چند اندازه گیری لازم است تا اطمینان خوبی در مقایسه داشته باشیم؟ 3. بهترین روش برای مقایسه این دو سری چیست: «میانگین(A)/میانگین(B)»، «میانگین(A)/میانگین(B)»، یا «(میانگین(B)-میانگین(A)) /mean(A)`؟
|
چگونه بهبود حاصل از یک درمان را ارزیابی کنیم؟
|
49943
|
به نظر می رسد در میان متاآنالیزها، حذف مطالعاتی که تخمینی از انحراف استاندارد نمونه ارائه نمی کنند، رایج است. برای مثال، یک سوال قبلی روشهایی را برای تخمین $\sigma$ از آمارهای خلاصه مختلف مرور میکند. اما آیا عدم برآورد خطا به تنهایی توجیه کافی برای حذف یک مطالعه از یک متاآنالیز است؟ اگر چنین است، آیا مرجعی برای این موضوع وجود دارد و چگونه می توان به این منبع بالقوه سوگیری پرداخت؟
|
آیا حذف مطالعاتی که برآوردی از انحراف استاندارد نمونه از متاآنالیز ندارند، عملی استاندارد است؟
|
49940
|
$x_1، ...، x_n$ ثابت های شناخته شده هستند و $Y_1، ...، Y_n$ $Y_i = Bx_i + \epsilon_i$ را برآورده می کند که $\epsilon_i$ مستقل هستند، $N(0، \sigma^2)$ ، متغیرهای تصادفی گفتم تابع احتمال من $$\prod_{i = 1}^n\frac{1}{\sigma \sqrt{2\pi}} \exp\left({-\frac{(x - Bx_i)^2 است {2\sigma^2}}\right)$$ آیا این درست است؟
|
آیا تابع احتمال من درست است؟
|
28559
|
من در تلاش برای یافتن توزیع مناسب برای مدل کردن تعداد کل روزهای تعطیلات در یک سال هستم. من در ابتدا به این فکر کردم که با یک توزیع شمارش استاندارد مانند دوجمله ای منفی یا حتی از رگرسیون مانع برای ترکیب negbin با یک مدل لجستیک استفاده کنم. با این حال، ماهیت متغیر وابسته باعث میشود که انتخابهایم را در مرحله دوم حدس بزنم. مشکلی که من دارم این است که سعی می کنم تعداد کل روزها را پیش بینی کنم و اینها رویدادهای مستقلی نیستند. اگر من # تعطیلات را مدل می کردم و نه روزها، بیشتر مایل بودم از مدل شمارش استفاده کنم. من همه جا برای چیزهایی مانند مدل سازی مدت جستجو کرده ام اما هیچ چیز مفیدی پیدا نکردم. هر گونه پیشنهادی که من را در مسیر درست راهنمایی کند بسیار قدردانی می شود.
|
بهترین توزیع برای مدت زمان مدل
|
8942
|
چگونه می توانم ماتریس همبستگی نویز (تابع psi) را در رویکرد حالت افزوده فیلتر کالمن تخمین بزنم؟ آیا می توانم چیزی شبیه به این انجام دهم: $$\text{noise}_2 = \psi \cdot \text{noise}_1\text{;}\quad\text{noise}_3 = \psi \cdot \text{noise}_2 = \psi^2 \cdot \text{noise}_1\text{;}$$ بنابراین $$\text{noise}_n = \psi^{n-1} \cdot \text{noise}_1 \quad \text{and}\quad \psi = \sqrt[n]{\frac{\text{noise}_n}{\text{noise} _1}}.$$ لطفا کمک کنید!
|
تخمین همبستگی نویز در فیلتر کالمن بردار حالت افزوده
|
8947
|
فرض کنید من ماتریسی دارم که در آن داده های اساسی از کل جمعیت است. فرض کنید من همچنین ماتریسی دارم که در آن داده های اساسی از جمعیت نمونه برداری شده است. چگونه می توانم تجزیه و تحلیل کنم که نمونه چقدر جامعه را نشان می دهد؟ غریزه من این است که آن را به یک فهرست ردیف-col تبدیل کنم: row col popvalue samplevalue 1 1 34.5 33.2 [...] i j 54.4 51.2 و سپس ANOVA را بین این دو اجرا کنید. آیا این درست به نظر می رسد یا راه بهتری برای اندازه گیری آن وجود دارد؟
|
چگونه می توانم یک ماتریس از مقادیر جمعیت را با یک ماتریس از مقادیر نمونه مقایسه کنم؟
|
48366
|
این یک سوال بسیار ساده است: چگونه می توان خطای استاندارد را برای تخمین کوواریانس در R بدست آورد؟ من کوواریانس را با استفاده از تابع 'cov' تخمین می زنم، اما به نظر می رسد جایی برای بازگشت خطای استاندارد در برآورد وجود ندارد. من مشتق را ترجیح می دهم تا بتوانم خودم را پیاده کنم.
|
خطاهای استاندارد برای برآورد کوواریانس در R
|
58189
|
من با انجام بسیاری از نمونه ها یک توزیع نرمال 1 بعدی را تقریب می زنم. من می توانم میانگین آن را با میانگین گرفتن نمونه ها تقریب بزنم. با این حال، چگونه می توانم واریانس را بدست بیاورم؟ این خیلی ساده به نظر نمی رسد.
|
چگونه می توانم واریانس یک توزیع نرمال را تقریب بزنم؟
|
47957
|
من می خواهم بدانم بهترین روش برای تجزیه و تحلیل مجموعه داده ها چیست که متغیر پاسخ من داده های شمارش و متغیرهای توضیحی من متغیرهای پیوسته هستند. همه متغیرهای من به طور معمول توزیع نمی شوند. آیا GLM ها گزینه خوبی هستند؟
|
بهترین تجزیه و تحلیل برای داده های شمارش به عنوان متغیر پاسخ
|
48360
|
سوال من این است که آیا قبل از برازش رگرسیون لجستیک باید مجموعه داده را استاندارد کنیم تا مطمئن شویم همه متغیرها مقیاس یکسانی دارند، بین [0،1]. فرمول $\frac{x_i-min(x_i)}{max(x_i)-min(x_i)}$ است. مجموعه داده من 2 متغیر دارد، آنها یک چیز را برای دو کانال توصیف می کنند، اما حجم آن متفاوت است. بگویید تعداد بازدید مشتری در دو فروشگاه است، y در اینجا این است که آیا مشتری خرید می کند یا خیر. زیرا مشتری می تواند قبل از خرید از هر دو فروشگاه، یا دو بار فروشگاه اول، یک بار فروشگاه دوم بازدید کند. اما تعداد کل بازدید مشتری برای فروشگاه اول 10 برابر بیشتر از فروشگاه دوم است. وقتی این رگرسیون لجستیک را منطبق میکنم، بدون استانداردسازی، `coef(store1)=37, coef(store2)=13`; اگر داده ها را استاندارد کنم، «coef(store1)=133، coef(store2)=11». یه چیزی شبیه این کدام رویکرد منطقی تر است؟ اگر من یک مدل درخت تصمیم را برازش کنم چه؟ من می دانم که مدل های ساختار درختی نیازی به استانداردسازی ندارند زیرا خود مدل به نحوی آن را تنظیم می کند. اما با همه شما چک می کنم.
|
آیا استانداردسازی قبل از برازش رگرسیون لجستیک لازم است؟
|
26940
|
> **تکراری احتمالی:** > تکنیک های اعتبارسنجی برای مدل سلسله مراتبی من قبلاً این را در Math.SE پست کرده بودم، اما متوجه شدم که احتمالاً این مکان بهتری برای پست کردن خواهد بود. من یک مدل سلسله مراتبی دارم که باید آن را تایید کنم. مدل من به صورت زیر است: ما مجموعه ای از $λ_i$ داریم که از ${\rm Gamma}(α,β)$ می گیریم. سپس، نقطه داده yi خود را از ${\rm Poisson}(λ_i)$ ترسیم می کنیم. من توزیع مشترک $α,β,λ_i$ را از طریق نمونهبردار گیبس همراه با گام متروپلیس دریافت میکنم. این قسمت مشکلی ندارد و مشکلی در اجرا وجود ندارد. سوال من این است که چگونه چنین مدلی را تایید کنم؟ من مجموعه ای از داده های خود را دارم که هر کدام مربوط به یک $λ_i$ خاص است. من مطمئن نیستم که چه آزمایش های آماری/مراحل دیگری برای بررسی باید انجام دهم. با تشکر
|
اعتبار سنجی مدل سلسله مراتبی بیزی
|
26972
|
من سعی می کنم یک پارامتر را بر اساس تاریخچه گذشته آن تخمین بزنم. با این حال، من داده های مشاهده شده را در هر نقطه از زمان ندارم. برای نشان دادن این سناریو، گروهی از N نفر را در نظر بگیرید که در آن هر نفر تخمین میزند که افراد N-1 باقیمانده روز بعد چند ایمیل دریافت خواهند کرد. این افراد به ندرت ملاقات می کنند. وقتی X با Y ملاقات می کند، آنها فقط تعداد ایمیل های دریافتی دیروز را رد و بدل می کنند، یعنی هیچ داده تاریخی در دسترس نیست. آیا استفاده از میانگین متحرک موزون نمایی (EWMA) در این مورد درست است؟ $$ \hat{X}_t = a * X_t + (1 - a) * \hat{X}_{t-1} $$ به طور دقیق: من سعی می کنم یک مقدار را تخمین بزنم (یا بهتر بگویم، پیش بینی کنم) بر اساس ارزش های تاریخی که ممکن است برخی از مشاهدات وجود نداشته باشد. من میتوانم از EWMA فیلتر کالمن (یا هر چیز دیگری) استفاده کنم -- نکته این است که در صورت مشاهده چنین **مشاهدهای از دست رفته** کدام روش قوی خواهد بود؟
|
برآورد در حضور مشاهدات گمشده
|
68774
|
من میخواهم یک مدل چندسطحی (مدل شیب تصادفی قطع تصادفی) با مقایسه حداکثر احتمال و تخمین بیزی اعمال کنم. من به تخمین حداکثر احتمال عادت دارم، با این حال، بخش تخمین بیزی برای من کاملاً واضح نیست. 1) آیا وقتی می خواهم یک مدل چندسطحی را به روش بیزی اعمال کنم، لزوماً باید از تخمین بیز سلسله مراتبی استفاده کنم؟ 2) و به نوبه خود، آیا می توانم استنباط کنم که مقاله ای که از تخمین بیز سلسله مراتبی استفاده کرده است، لزوماً از یک مدل چند سطحی استفاده می کند؟ با تشکر از کمک شما!
|
مدل چند سطحی با بیز سلسله مراتبی
|
38419
|
> **تکراری احتمالی:** > تحت چه شرایطی باید از تحلیل چندسطحی/سلسله مراتبی استفاده کرد؟ من مقالات مختلفی را در مورد تجزیه و تحلیل چند سطحی مطالعه کرده ام، و صادقانه بگویم، هنوز در مورد انتخاب مدل های رگرسیون OLS ساده یا مدل های چند سطحی (تصادفی یا مختلط) زمانی که داده ها خوشه ای هستند، سردرگم هستم، اما تمرکز اصلی تحقیق بر روی فردی است. سطح (در حالی که اثرات در سطح گروه به عنوان یک مزاحم تلقی می شود)؟ در این مورد مناسب ترین راه برای ادامه چیست؟ خیلی ممنون
|
رگرسیون خطی ساده در مقابل مدل سازی چند سطحی زمانی که علاقه اصلی در سطح فردی است
|
68773
|
من تجزیه و تحلیل ANOVA را با استفاده از نرم افزار ژنتیکی جمعیت Arlequin انجام دادم. من از چند مجموعه داده، نتیجه عجیبی به دست آوردم: -------------------------------------- -------------------------------- منبع مجموع واریانس درصد تغییرات d.f. مربعات اجزای تغییرات ---------------------------------------------- ------------------------ در میان گروهها 1 2.253 0.04725 Va 21.07 در میان جمعیتهای درون گروههای 4 1.515 0.01703 Vb 7.60 درون جمعیت 73 11.675 0.15993 Vc 71.33 ---------------------------------------- ------------------------------ مجموع 78 15.443 0.22421 ------------------------------------------------ ---------------------- شاخص های ثابت FSC : 0.09623 FST : 0.28667 FCT : 0.21072 ------------------------------------------------- --------------------- تست های اهمیت (1023 جایگشت) ------------------ Va و FCT: P(Rand. value > obs. value) = 0.00000 P(Rand. value = obs. value) = 0.10753 P(rand. ارزش >= obs. ارزش) = 0.10753+-0.01354 چگونه ممکن است که مقدار p$ اول برابر با صفر باشد در حالی که دومی 0.10753$ است؟
|
مشکل مقدار p در تجزیه و تحلیل ANOVA
|
68777
|
من اخیراً به یادگیری ماشین پرداخته ام. تا اینجا متوجه شدم که در یادگیری نظارت شده، نتیجه رگرسیون اغلب یک عدد واقعی است، به عنوان مثال، در رگرسیون خطی، نتیجه y یک عدد واقعی است. سوال من این است که آیا ممکن است y بردار باشد؟
|
رگرسیون به یک فاصله به جای یک عدد واقعی
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.