_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
95195
من در حال خواندن یک مقاله تحقیقاتی بودم و این بیانیه را خواندم: یک سوگیری جزئی (اگرچه قابل توجه نیست) برای 50/30 microRNAها برای هدف قرار دادن ژن هایی با عملکردهای مرتبط با استفاده از miRanda (شکل 2B) با این حال، اگر سوگیری وجود داشته باشد: بیایید بگوییم یک معنی بزرگتر از دیگری است، اما اینکه قابل توجه نیست، می توانید بگویید که اصلاً سوگیری وجود دارد؟ آیا نمی توان (به همان اندازه؟) احتمال داشت که میانگین کمتر از دیگری باشد با توجه به اینکه این دو توزیع به طور قابل توجهی قابل تشخیص نیستند؟ می‌دانم که ممکن است استدلال کنید که اگر داده‌های بیشتری وجود داشته باشد، این میانگین ممکن است در نهایت قابل توجه باشد، اما مجموعه داده‌ها هزاران است و احتمالاً خیلی بزرگ‌تر نمی‌شود؟ آیا اصطلاح سوگیری جزئی معنای آماری دارد؟
آیا چیزی می تواند تعصب نشان دهد اما قابل توجه نباشد؟
77624
من در حال تخمین چند مدل تحلیل عاملی تاییدی (CFA) با استفاده از بسته Lavaan هستم و امیدوارم که fitMeasures را استخراج کنم تا از مدل به صفحه گسترده صادر شود. این به راحتی با استفاده از دستور fitMeasures انجام می شود، اما به طور خودکار به صورت پیش فرض برای صادر کردن معیارهای ML مناسب است، حتی اگر مدل با استفاده از MLR اجرا شده باشد. آیا راهی برای استخراج این «fitMeasures» از مدل قوی وجود دارد؟ این اسکریپت نمونه من است: ## مثال معروف Holzinger and Swineford (1939) HS.model <- 'visual =~ x1 + x2 + x3 textual =~ x4 + x5 + x6 speed =~ x7 + x8 + x9' fit <- - cfa(HS.model، data=HolzingerSwineford1939، برآوردگر=MLR، std.lv=TRUE) fitMeasures(fit, fit.measures = c(chisq، cfi، rmsea، aic)) اجرای خلاصه نشان می‌دهد که fitMeasures معیارهای مناسب ML را تولید می‌کند، نه معیارهای تناسب قوی: خلاصه (مناسب) , standardized=TRUE, fit.measures=TRUE, rsquare=TRUE) آیا راهی وجود دارد که بتوانم معیارهای تناسب قوی را بدست بیاورم؟ پیشاپیش از کمک شما متشکرم * * * **فکر می‌کنم راه‌حل این مورد را پیدا کردم (در زیر):** از موارد زیر در مثال بالا برای استخراج معیارهای تناسب قوی (مقیاس‌شده) استفاده کردم: fits<-inspect(fit, fitMeasures) fits[ ج(5:7،24،44،34)] امیدوارم به کسی کمک کند و لطفاً اگر راه بهتری برای انجام این کار وجود دارد به من اطلاع دهید!
نحوه استخراج معیارهای مناسب MLR تولید شده توسط بسته لاوان R
32644
من از آزمون فریدمن با تجزیه و تحلیل post hoc استفاده می کنم. من از تابع friedman.test.with.post.hoc موجود برای نرم افزار R استفاده می کنم. بیایید بگوییم که ما 6 شراب داریم و لیستی از شراب ها را مطابق با نرخ داوران می خواهیم (بهترین شراب، ...، بدترین شراب). بنابراین، ما تست فریدمن را انجام می دهیم. فرض کنید $p < \alpha$، فرضیه صفر را رد می کنیم. به عبارت دیگر، تفاوت معنی داری بین شراب ها با توجه به نرخ داوران وجود دارد. برای تشخیص اینکه کدام شراب ها متفاوت هستند، تجزیه و تحلیل post hoc را انجام می دهیم. با اجرای آزمون تعقیبی، می‌بینیم که فقط تفاوت معنی‌داری بین جفت‌ها وجود دارد: شراب A/Wine C و Wine A/Wine D. با توجه به آن، ترتیب شراب‌ها را چگونه نتیجه‌گیری می‌کنید؟ آیا باید از ابزار دیگری استفاده کنم؟ با تشکر
تجزیه و تحلیل تعقیبی در آزمون فریدمن
4539
وقتی از دیگری در مورد محاسبه میزان بروز از اپیدمیولوژی مدرن کنت روتمن شنیدم، کمی متحیر شدم، نرخ بروز به صورت «تعداد موارد در یک دوره زمانی ثابت» تقسیم بر «زمان فرد در معرض خطر در آن دوره» محاسبه می‌شود. از زمان، یعنی اگر بیمار در وسط ماه مبتلا به بیماری باشد، فقط نیمه اول روزهای بیمار در مخرج لحاظ می شود، اما برای دومی نه. نصف درست میگم؟ مشکل زمانی بوجود می آید که دیدم شخصی از فرمول زیر برای محاسبه استفاده می کند: «تعداد موارد در یک دوره زمانی ثابت»/«کل زمان فرد در بازه زمانی» اگر از این استفاده شود، نرخ بروز کمتر برآورد می شود، زیرا مخرج اکنون بزرگتر از آن چیزی است که باید باشد. اما به نظر می رسد که این فرمول اغلب استفاده می شود، من نمی دانم که این فرمول چه کار می کند. با تشکر
محاسبه میزان بروز برای مطالعه اپیدمیولوژیک در بیمارستان
70699
من یک متغیر مستقل به نام کیفیت دارم. این متغیر دارای 3 روش پاسخگویی است (کیفیت بد، کیفیت متوسط، کیفیت بالا). من می خواهم این متغیر مستقل را در رگرسیون خطی چندگانه خود معرفی کنم. وقتی یک متغیر مستقل باینری دارم (متغیر ساختگی، می‌توانم «0» / «1» را کد کنم)، به راحتی می‌توان آن را در یک مدل رگرسیون خطی چندگانه معرفی کرد. اما با 3 روش پاسخ، سعی کردم این متغیر را به این صورت کدنویسی کنم: کیفیت بد کیفیت متوسط ​​کیفیت بالا 0 1 0 1 0 0 0 0 1 0 1 0 اما وقتی سعی می کنم رگرسیون خطی چندگانه خود را انجام دهم مشکلی وجود دارد: حالت کیفیت متوسط به من NA می دهد: ضرایب: (1 به دلیل تکینگی ها تعریف نشده است) چگونه می توانم این متغیر کیفیت را با 3 روش؟ آیا باید متغیری را به عنوان یک عامل ایجاد کنم ('factor' در 'R') اما آیا می توانم این عامل را در یک رگرسیون خطی چندگانه معرفی کنم؟
کدگذاری متغیر کیفی در رگرسیون منجر به تکینگی می شود.
77622
من زمان صرف شده برای حل یک مسئله را با الگوریتم $X$ و با الگوریتم $Y$ اندازه گیری کرده ام. مدت زمان زیادی طول می کشد، بنابراین من فقط 10 داده برای هر الگوریتم دارم: $$ X : ( x_1, x_2, \dots , x_{10}) \\\ Y : ( y_1, y_2, \dots , y_{10 }) $$ **ویرایش:** مشکلی که آنها حل می کنند **تصادفی** است. من 10 نمونه از مشکل را با استفاده از 10 دانه تصادفی مختلف ایجاد کردم. 10 زمان محاسباتی با این 10 نمونه مشکل مطابقت دارد. از این نظر، **داده ها جفت می شوند**. تغییر یک دانه سختی مشکل را خیلی تغییر نمی دهد. **پایان ویرایش** من نسبت میانگین ها را محاسبه کرده ام: میانگین $$ = \frac{\sum_{k=1}^{10} x_k }{\sum_{k=1}^{10} y_k } $$ با این حال، هیچ اطلاعاتی در مورد میزان **دقیق** نسبت نمی دهد. یکی از راه های ممکن تخمین **انحراف استاندارد** است. با توجه به این پاسخ، میانگین متغیرهای تصادفی iid **به طور مجانبی نرمال** است و بنابراین این نسبت دارای **توزیع کوشی مجانبی** است که انحراف معیار آن _بی نهایت_ است. این من را راضی نمی کند، به خصوص که من فقط 10 داده دارم. سپس با توجه به این پاسخ باید انحراف معیار را با استفاده از **سری تیلور** تقریبی کنم. این پاسخ بهتر به نظر می رسد، اما هنوز درست به نظر نمی رسد. توزیع یک نسبت به طور شهودی بسیار **نامتقارن در حدود 1.** است (شما فقط بازه $(0; 1)$ برای درک این واقعیت دارید که الگوریتم $X$ سریعتر است، اما کل $(1 ; \infty) )$ برای درک این واقعیت که $Y$ سریعتر است). بنابراین حتی یک انحراف استاندارد به خوبی تخمین زده شده نیز می تواند فایده چندانی نداشته باشد. بهتر است نوعی **فاصله اطمینان** ارائه شود. برای مثال: نسبت 1,5 با فاصله اطمینان نامتقارن (1,3 ؛ 2,8) است. اما من نمی دانم چگونه می توانم این را تخمین بزنم زیرا توزیع داده های خود را نمی دانم. **ویرایش2:** داده های من در اینجا است: X Y 111536 160134 111165 164850 112494 165844 115959 166409 121296 161755 119948 116916 119941 116976 117330 169766 116661 166518 129311 169884 **ویرایش3:** برای پاسخ به سوال (در نظر) **D L Dahly** **چرا فقط گزارش ندهید که یک الگوریتم در همه موارد سریعتر است** برای مختصر بودن سوال من اشاره نکردم که من در واقع 84 مجموعه داده شرح داده شده در این سوال دارم. 2 مسئله x 6 بعد مسئله x 7 اندازه ممکن مسئله. در برخی موارد **X** سریعتر است، در برخی از **Y** سریعتر است و در برخی موارد نتایج غیرقطعی است. من لزوماً به فواصل اطمینان یا انحراف معیار نیاز ندارم. من فقط می‌خواهم **چیزی غنی‌تر از میانگین‌ها** در اختیار خواننده قرار دهم. خواننده باید درک کند که میانگین چقدر نتایج تجربی را نشان می دهد.
چگونه نسبت دو مجموعه از نتایج تجربی را گزارش کنیم؟
22702
$X_1, X_2, \ldots, X_n$ یک نمونه تصادفی از $\mathrm{Bernoulli}(\theta)$, $\epsilon_1, \epsilon_2, \ldots, \epsilon_n$ مستقل هستند $\mathcal N(0, \ sigma^2)$، مستقل از $X_i$. $Y_i = \theta X_i + \epsilon_i$ را برای $i = 1، 2، \ldots،n$ تعریف کنید. تابع تخمینی $$ \psi[\theta;(X,Y)] = \sum_{i =1}^n(Y_i - \theta X_i) \> را تعریف کنید. $$ a) نشان دهید که $\psi[\theta;(X,Y)]$ برآوردگر بی طرفانه $\theta$ است اگر $\mathbb E(\psi[\theta;(X,Y)])=0$ . ب) برآوردگر $\hat\theta$ را طوری پیدا کنید که $\psi[\hat\theta;(X,Y)] = 0$. آیا $\hat\theta$ بی طرف است؟
چگونه می توان برآوردگر بی طرفانه ترکیب متغیرهای برنولی و نرمال را نشان داد؟
70017
من در حال جستجوی اطلاعاتی در مورد فواصل اطمینان برای احتمالات شرطی هستم و فکر کردم آنها را به عنوان احتمالات عادی با فرمول $$P(Y=i|x=t) \pm z \left(\frac{ \mathrm{Var}( P(Y=i))}{n} \right)^{1/2}$$ با $n$ اندازه نمونه مشاهدات $t$. اما آیا این معتبر است؟
CI برای احتمالات مشروط
6142
من سعی کردم مجموعه ای از عناصر را گروه بندی کنم و برای محاسبه ردیف به این معنی است که اگر لیست من بیش از یک عنصر داشته باشد، خوب کار می کند: tapply(colnames(myMA)، c(1،1،1،2،2،2،3، 3,4,4), list) myMAmean <- sapply(myList, function(x) rowMeans(myMA[,x])) با این حال، در داده های من برخی از ردیف ها منحصر به فرد هستند: myList <- tapply(colnames(myMA)، c(1,1,1,2,2,2,3,3,4,5), list) myMAmean <- sapply(myList, function(x) rowMeans(myMA[,x] )) به 4 و 5 توجه کنید که آنها را منحصر به فرد می کند، بنابراین اگر این را اجرا کنم می گوید Error in rowMeans(myMA[, x]): x باید حداقل آرایه ای از دو باشد. ابعاد من نمی خواهم یک حلقه اجرا کنم. آیا راه حلی برای این وجود دارد؟
چگونه می توان rowMeans را با چند ردیف در داده ها محاسبه کرد؟
88094
من هنوز در حال یادگیری رگرسیون لجستیک هستم، بنابراین امیدوارم سوال من منطقی باشد. من 10 متغیر مستقل و یک متغیر وابسته دارم. متغیر وابسته و 3 تا از متغیرهای مستقل دوقطبی هستند (با no=0 و yes=1). سایر متغیرهای مستقل همگی دارای مقایسه 0 و 3 گزینه هستند. وقتی به تجزیه و تحلیل - رگرسیون - لجستیک باینری می روم، همه متغیرهایم را وارد می کنم و سپس روی تابع طبقه بندی در گوشه سمت راست بالا کلیک می کنم. من 7 متغیری که دوگانه نیستند را برجسته می کنم و مطمئن می شوم که برای مقایسه با دسته اول تنظیم شده اند. (اگر کمک کند از SPSS 21 استفاده می کنم) پس از اجرای مدل، همه چیز خوب است (همه متغیرها در مقایسه با 0 هستند)، اما متوجه شدم که صرف نظر از تعداد متغیرهای من در مدل یا ترتیب ظاهر شدن آنها در مدل، آخرین متغیر طبقه‌بندی همیشه یک دسته را از دست می‌دهد (اگرچه دسته‌های موجود را با 0 مقایسه می‌کند). هیچ ایده ای برای اینکه چرا این اتفاق می افتد؟ آیا باید به جای استفاده از تابع دسته بندی، فقط متغیرهای ساختگی برای اینها ایجاد کنم؟
رگرسیون لجستیک باینری - تابع طبقه بندی که یک دسته را حذف می کند؟
38420
پروفسور لری واسرمن در کتاب خود تمام آمار مثال زیر را ارائه می دهد (11.10، صفحه 188). فرض کنید که ما یک چگالی $f$ داریم به طوری که $f(x)=c\,g(x)$، که در آن $g$ یک تابع **شناخته** (غیر منفی، یکپارچه) و ثابت نرمال سازی $c است. >0$ **ناشناخته** است. ما علاقه مند به مواردی هستیم که نمی توانیم $c=1/\int g(x)\,dx$ را محاسبه کنیم. به عنوان مثال، ممکن است این مورد باشد که $f$ یک فایل pdf در فضای نمونه با ابعاد بسیار بالا باشد. به خوبی شناخته شده است که تکنیک های شبیه سازی وجود دارد که به ما امکان می دهد از $f$ نمونه برداری کنیم، حتی اگر $c$ ناشناخته باشد. از این رو، معما این است: چگونه می‌توانیم $c$ را از چنین نمونه‌ای تخمین بزنیم؟ پروفسور واسرمن راه حل بیزی زیر را شرح می دهد: اجازه دهید $\pi$ برای $c$ کمی قبل باشد. احتمال آن $$ است L_x(c) = \prod_{i=1}^n f(x_i) = \prod_{i=1}^n \left(c\,g(x_i)\right) = c^n \ prod_{i=1}^n g(x_i) \propto c^n \, . $$ بنابراین، پسین $$ \pi(c\mid x) \propto c^n \pi(c) $$ به مقادیر نمونه $x_1,\dots,x_n$ بستگی ندارد. بنابراین، یک بیزی نمی تواند از اطلاعات موجود در نمونه برای استنباط در مورد $c$ استفاده کند. پروفسور واسرمن خاطرنشان می کند که بیزی ها برده تابع احتمال هستند. وقتی احتمال به اشتباه می رود، استنتاج بیزی نیز به همین شکل است. سوال من از همکاران من این است: با توجه به این مثال خاص، چه مشکلی با روش بیزی (اگر وجود داشته باشد)؟ P.S. همانطور که پروفسور واسرمن با مهربانی در پاسخ خود توضیح داد، مثال به خاطر اد جورج است.
بیزی ها: بردگان تابع احتمال؟
77621
من یک آنالیز واریانس یک طرفه اندازه گیری های مکرر با یک تعامل قابل توجه دارم، اما اثرات اصلی قابل توجهی ندارد. من برای تجزیه و تحلیل بیشتر خود، یک آزمون t زوجی را انجام دادم و تفاوت معنی داری بین دو شرط در داده هایم پیدا کردم. آیا اشکالی ندارد که هم نتیجه آزمایش t- نمونه های جفت شده و هم نتیجه ANOVA را با هم در بخش نتایج گزارش کنیم یا فقط می توانم تعامل ANOVA را گزارش کنم؟ درک من این است که آزمون t نمونه های زوجی نسبت به تفاوت بین شرایط حساس تر از ANOVA است، درست است؟
اندازه‌گیری‌های مکرر آنالیز واریانس یک طرفه با نتیجه آزمون t زوجی ناسازگار است؟
38422
در رگرسیون معمول است که $R^2$ را به صورت زیر فرموله کنید: $$R^2\equiv 1 - {SS_{\rm err}\over SS_{\rm tot}}، $$ where $SS_\text{ err}=\sum_i (y_i - f_i)^2$ و $SS_\text{tot}=\sum_i (y_i-\bar{y})^2$. اگر هدف رگرسیون در واقع به حداقل رساندن مجموع باقیمانده مربع ها باشد، به نظر می رسد که این فرمول دقیق بسیار منطقی است. با این حال، گاهی اوقات دیگر توابع تلفات عجیب‌تر به دلایل مختلف مناسب‌تر هستند، و برخی از الگوریتم‌های مدل‌سازی پیش‌بینی‌کننده ممکن است برای به حداقل رساندن این تابع تلفات امتحان شوند. من می‌خواهم اندازه‌گیری شبیه $R^2$ خود را به روش زیر تعریف کنم: $$R^2= 1 - \frac{\sum_il(y_i, f_i)}{\sum_il(y_i, \bar{y}) },$$ که در آن $l(y_i، f_i)$ نشان دهنده از دست دادن است که در صورتی که $f_i$ پیش بینی شود اما پاسخ واقعی $y_i$ باشد، به نوعی از دست دادن رخ داده است. در مورد رگرسیون OLS، $l(y_i، f_i) = (y_i - f_i)^2$، اما این امکان را برای سایر مدل‌های پیش‌بینی بر اساس حداقل انحرافات مطلق یا حتی توابع عجیب‌تر بر اساس حوزه مشکل فراهم می‌کند. آیا انجام این کار معتبر است؟ آیا با این فرمول کلی تر $R^2$ چیزی به دست می آید؟ آیا هنوز معتبر است که آن را $R^2$ بنامیم؟ آیا این تفاسیر مفیدی اضافه می‌کند، یا احتمالاً فقط گیج کننده است؟ آیا R^2$ سنتی نیز باید گزارش شود؟
آیا می‌توانم هنگام پیش‌بینی توابع زیان عجیب، اندازه‌ای شبیه به $R^2$ را به این شکل تعریف کنم؟
33197
چندین موضوع در این سایت برای توصیه های کتاب در مورد آمار مقدماتی و یادگیری ماشین وجود دارد، اما من به دنبال متنی در مورد آمار پیشرفته از جمله به ترتیب اولویت هستم: _حداکثر احتمال، مدل های خطی تعمیم یافته، تجزیه و تحلیل مولفه های اصلی، مدل های غیر خطی_. من مدل‌های آماری A.C. Davison را امتحان کرده‌ام، اما صادقانه بگویم، مجبور شدم آن را پس از ۲ فصل کنار بگذارم. متن از نظر پوشش و توضیحات ریاضی دایره‌المعارفی است، اما من به‌عنوان یک تمرین‌کننده، دوست دارم ابتدا با درک شهود به موضوعات نزدیک شوم، و سپس در پس‌زمینه‌های ریاضی بپردازم. اینها متونی هستند که من آنها را به دلیل ارزش آموزشی برجسته می دانم. من می خواهم برای موضوعات پیشرفته تری که ذکر کردم معادلی پیدا کنم. * آمار، D. Freedman، R. Pisani، R. Purves. * پیش بینی: روش ها و کاربردها، R. Hyndman و همکاران. * رگرسیون چندگانه و فراتر از آن، تی زی کیث * بکارگیری تکنیک های آماری معاصر، رند آر.
توصیه کتاب های آمار پیشرفته
77627
اگر در یک سری زمانی یک نقطه پرت وجود داشته باشد، همبستگی آن چگونه عمل می کند؟ آیا با استفاده از همبستگی می توان مقادیر پرت را پیدا کرد؟ **ویرایش** من چنین سری زمانی دارم: ts <- c(1,2,3,1,2,2,30,40,3,2,4,1,3,2,3,1,1 ,2) همبستگی آن به این صورت است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wGJ4S.png) من در سری زمانی خود یک عدد پرت دارم، آیا می توان این موارد پرت را از همبستگی؟
تشخیص نقاط پرت با استفاده از همبستگی
70019
من با استفاده از الگوریتم‌های مختلف ML با محوریت داده‌های بزرگ کار می‌کنم و چند سؤال باز دارم که فکر کردن درباره آنها جالب است. یکی از اولین سخنرانی‌های مربوط به آمار با این جمله شروع می‌شود: «از آنجایی که کل داده‌های جمعیت در دسترس نیست، باید نمونه‌های نماینده‌ای بگیریم تا نتیجه‌گیری ما در مورد این نمونه به کل جامعه تعمیم یابد». و آمار همه چیز در مورد این است. با این حال، داده های بزرگ نه تنها به کل جمعیت دسترسی دارند، بلکه امکان پردازش آن اطلاعات را نیز فراهم می کند (چیزی که از ابتدا در آمار اشتباه فرض می شد). بنابراین سؤالات من اینجاست: * اگر بتوانیم همه داده‌ها (کل داده‌ها) را پردازش کنیم، امروزه اعتبارسنجی متقابل، نمونه‌برداری و مواردی از این دست چه فایده‌ای دارد؟ * اگر پاسخ به سؤال اخیر «بیش از حد» است، اگر الگوریتم من با میلیون‌ها و میلیون‌ها و میلیون‌ها داده «بیش از حد برازش» شود، چه؟ به نظر من، اگر الگوریتم من بتواند تا این حد تعمیم دهد، برایم مهم نیست که بیش از حد برازش شود. * آیا فکر می‌کنید محدودیت‌هایی در مورد تعمیم الگوریتم‌های ML (SVMs، درختان، شبکه‌های عصبی) زمانی که داده‌ها بسیار زیاد هستند وجود دارد؟
یادگیری ماشین روی داده های بزرگ: قابلیت تعمیم
77629
نویسنده یک دوره آنلاین معروف مشکلی را مطرح می کند که در آن 642 نفر از 1000 مرد نظرسنجی شده و 591 نفر از 1000 زن نظرسنجی شده پاسخ مثبت دادند. سوال این است که آیا مردان بیشتر موافق هستند یا نه، با استفاده از فاصله اطمینان 95٪. او با محاسبه تفاوت میانگین ها، $\bar p_1 - \bar p_2 = 0.642 - شروع می کند. 591 = 0.051$ و انحراف استاندارد آن (یعنی خطای استاندارد 0.051)، که مجموع واریانس‌های $\sigma = \sigma(\bar p_1) + \sigma(\bar p_2) = \sqrt{1/ است. 1000 (p_1(1-p_1) + p_2(1-p_2))} = 0.021715 دلار. این تفاوت میانگین ها به طور معمول توزیع شده است و طبق جدول z، 1.96 انحراف استاندارد شامل 95٪ از چنین تفاوت های میانگین است. بنابراین می توانیم بگوییم که تفاوت 0.051 ± 1.96 * 0.021715 = 0.051 ± 0.042562 است یا 95٪ اطمینان وجود دارد که $p_1-p_2$ بین 0.008 و 0.094 قرار دارد. از آنجایی که صفر از منطقه حذف شده است، فاصله اطمینان 95 درصد کاملاً مثبت است و ما مطمئن هستیم که مردان بیشتر از زنان می‌توانند بله بگویند. مشکل این است که بعد از این نتیجه‌گیری، نویسنده چیزی مشابه و در عین حال متفاوت انجام می‌دهد: او این فرضیه را آزمایش می‌کند که $\bar p_1 = \bar p_2$! به این معنا که او میانگین جمعیت را می گیرد، $p = (\bar p_1 + \bar p_2)/2$، خطای آن را با جمع واریانس برای مردان و زنان محاسبه می کند. BTW، من تعجب می کنم که چرا با ادعای اینکه به طور میانگین 2000 نفر وجود دارد، از فرمول $\sqrt{2p(1-p) \over 1000} = 0.0217$ به جای $\sqrt{p(1-p) \بیش از 2000}$ استفاده می کند؟ تفاوت 2 برابر است. به هر حال، او پس از آن انحرافات z-score = 0.051$/0.0217=2.35$ را می گیرد، که خارج از فاصله اطمینان 95% (از 1.96 انحراف) است و بنابراین، بعید است که به معنای $\bar p_1$ و $\bar باشد. p_2$، برابر هستند. من متوجه نشدم: تفاوت بین روش ها چیست و از کدام یک از تست ها باید استفاده کنم؟
مقایسه نسبت جمعیت در مقابل آزمون فرضیه
104121
من مطالعه ای دارم که در آن بیماران قبل از عمل (time_pre)، بعد از عمل (time_post) و پیگیری طولانی مدت (time_lt) اندازه گیری شدند. من 60 سوژه دارم. داده ها شامل: 5 متغیر مقیاس (100-1) 14 متغیر ترتیبی (1-5) و برخی از ویژگی های خاص بیمار (هیچکدام از آنها وجود ندارد) مانند سن، جنسیت، بیماری های همراه (بله / خیر) می خواهم بررسی کنم که آیا وجود دارد یا خیر. تفاوت معنی داری بین نمرات قبل از عمل و نمرات بعد از عمل (بلند مدت و کوتاه مدت) و بین پیگیری کوتاه مدت و بلند مدت. بنابراین من از ANOVA اندازه گیری های مکرر بر روی متغیرهای مقیاس و با تصحیح بونفرونی پس از آن و آزمون فریدمن برای متغیرهای ترتیبی با تصحیح بونفرونی پس از آن استفاده کردم. اکنون می‌خواهم این آزمایش‌ها را تکرار کنم، اما با پر کردن مقادیر از دست رفته. بنابراین منتقدم‌های متعددی را انجام دادم، اما نمی‌توانم بفهمم چگونه باید ANOVA اندازه‌گیری مکرر را از این نقطه انجام دهم. من از نرم افزار آماری SPSS v22 استفاده می کنم.
نحوه انجام: آزمون آنووا با اندازه گیری های مکرر و فریدمن با مقادیر متعدد برای داده های از دست رفته
20533
من مقاله ای را خوانده ام و نمی دانم که آیا این روش مناسبی برای ارائه آمار آزمون مک نمار است. در این مطالعه سعی می شود تغییر دانش قبل و بعد از درس اندازه گیری شود. آنها آزمایش مک نمار را برای محاسبه مقدار p و جدول بندی آن انجام دادند. هنگام خواندن جدول احساس راحتی نمی کنم زیرا: آزمایش مک نمار فقط نشان می دهد که آیا تفاوت در تعداد جفت های ناسازگار (Pre-T + Post-F) یا (Pre-F + Post-T) از نظر آماری معنی دار است یا خیر. هیچ سرنخی در مورد اینکه آیا این سوال دانش شرکت کنندگان را بهبود می بخشد یا بدتر نمی کند. اما به نظر می رسد جدول ادعا می کند که برنامه آموزشی باعث افزایش تعداد شرکت کنندگان شده است که دانش خود را بهبود می بخشند، با پشتیبانی از آزمون مک نمار، که من در مورد این بیانیه احساس راحتی نمی کنم. نمی‌دانم اگر تعداد جفت‌های ناسازگار در جدول گنجانده شود (تعداد Pre-T + Post-F و تعداد Pre-F + Post-T)، تصویر متفاوتی به دست می‌دهد. سوال من این است: با تجمیع شمارش های جدول 2×2 به تعداد پیش صحیح و پسا صحیح و سپس ارائه آن با آمار آزمون مک نمار، آیا مناسب است؟ من سعی کردم یک مقاله مشابه در Lancet یا NEMJ پیدا کنم اما نمی توانم. اگر مناسب نیست چگونه می توان آن را به شکل مناسب تری ارائه کرد؟ با تشکر
نحوه ارائه صحیح آمار آزمون مک نمار
38423
فرض کنید شما مدلی دارید که رشد تولید ناخالص داخلی سالانه را پیش بینی می کند. خطای استاندارد 2% دارد. شما مدل دومی دارید که بازده سالانه سهام را پیش بینی می کند. خطای استاندارد 6 درصد دارد. وقتی بازده سهام را بر اساس برآوردهای رشد تولید ناخالص داخلی برآورد می کنید، خطای استاندارد چیست؟
چگونه خطای استاندارد ترکیبی دو مدل را محاسبه کنیم؟
33190
اگر رگرسیون را در دو مرحله انجام دهم: > مرحله 1: $y\sim x_1 + 1$ > > مرحله 2: resid_1st_stage $\sim x_2 + 1$ آیا «resid_2nd_stage» متعامد به $x_1$ خواهد بود؟
رگرسیون خطی دو مرحله ای
104120
من سعی می‌کنم فرمول، روش یا مدلی را پیدا کنم تا از آن برای تحلیل این احتمال استفاده کنم که یک رویداد خاص بر برخی داده‌های طولی تأثیر گذاشته است. من به سختی می توانم بفهمم چه چیزی را در گوگل جستجو کنم. در اینجا یک سناریوی مثال آمده است: تصور کنید صاحب یک کسب و کار هستید که به طور متوسط ​​هر روز 100 مشتری حضوری دارد. یک روز، تصمیم می‌گیرید که می‌خواهید تعداد مشتریانی را که هر روز به فروشگاه شما می‌آیند افزایش دهید، بنابراین برای جلب توجه، یک شیرین کاری دیوانه‌وار بیرون از فروشگاه خود می‌کشید. در طول هفته بعد، شما به طور متوسط ​​125 مشتری در روز می بینید. در طی چند ماه آینده، دوباره تصمیم می‌گیرید که می‌خواهید کسب و کار بیشتری داشته باشید، و شاید مدتی طولانی‌تر آن را حفظ کنید، بنابراین چیزهای تصادفی دیگری را امتحان می‌کنید تا مشتریان بیشتری را در فروشگاه خود جذب کنید. متأسفانه، شما بهترین بازاریاب نیستید و برخی از تاکتیک های شما تأثیر کمی دارند یا هیچ تأثیری ندارند و برخی دیگر حتی تأثیر منفی دارند. از چه روشی می توانم برای تعیین احتمال تأثیر مثبت یا منفی هر رویداد فردی بر تعداد مشتریان حاضر استفاده کنم؟ من کاملاً می‌دانم که همبستگی لزوماً با علیت برابری نمی‌کند، اما از چه روش‌هایی می‌توانم برای تعیین افزایش یا کاهش احتمالی در پیاده‌روی روزانه کسب‌وکار شما در مشتری پس از یک رویداد خاص استفاده کنم؟ من علاقه ای به تجزیه و تحلیل اینکه آیا بین تلاش های شما برای افزایش تعداد مشتریان شرکت کننده همبستگی وجود دارد یا خیر، نیستم، بلکه علاقه ای به این ندارم که آیا یک رویداد مستقل، مستقل از بقیه، تأثیرگذار بوده است یا خیر. من متوجه هستم که این مثال تا حدی ساختگی و ساده است، بنابراین من همچنین توضیح مختصری از داده های واقعی که استفاده می کنم به شما ارائه خواهم کرد: من سعی می کنم تأثیری را که یک آژانس بازاریابی خاص بر وب سایت مشتری خود می گذارد، زمانی که آنها جدید منتشر می کنند، تعیین کنم. محتوا، انجام کمپین های رسانه های اجتماعی، و غیره. برای هر آژانس خاص، ممکن است بین 1 تا 500 مشتری داشته باشند. هر مشتری دارای وب سایت هایی از 5 صفحه تا بیش از 1 میلیون است. در طول 5 سال گذشته، هر آژانس تمام کارهای خود را برای هر مشتری شرح داده است، از جمله نوع کار انجام شده، تعداد صفحات وب در یک وب سایت که تحت تأثیر قرار گرفته اند، تعداد ساعات صرف شده و غیره. داده‌های بالا را که من در یک انبار داده جمع‌آوری کرده‌ام (در یک دسته از طرح‌واره‌های ستاره/دانه‌های برف قرار داده‌ام)، باید تعیین کنم که چقدر احتمال دارد که یک قطعه کار (هر رویدادی در زمان) بر ترافیکی که به هر/همه صفحات تحت تأثیر یک کار خاص تأثیر می گذارد تأثیر داشت. من مدل‌هایی را برای 40 نوع محتوای مختلف ایجاد کرده‌ام که در یک وب‌سایت یافت می‌شوند که الگوی ترافیکی معمولی را که یک صفحه با نوع محتوا ممکن است از تاریخ راه‌اندازی تا کنون تجربه کند، توصیف می‌کند. نرمال شده نسبت به مدل مناسب، باید بیشترین و کمترین تعداد بازدیدکنندگان افزایش یا کاهش یافته یک صفحه خاص را در نتیجه یک کار خاص دریافت کنم. در حالی که من تجربه تجزیه و تحلیل داده های پایه (رگرسیون خطی و چندگانه، همبستگی، و غیره) را دارم، در مورد چگونگی رویکرد به حل این مشکل دچار مشکل هستم. در حالی که در گذشته معمولاً داده‌ها را با اندازه‌گیری‌های چندگانه برای یک محور معین تجزیه و تحلیل می‌کردم (به عنوان مثال دما در مقابل تشنگی در مقابل حیوان و تأثیری را که افزایش معتدل در حیوانات می‌گذارد بر تشنگی تعیین می‌کردم)، احساس می‌کنم که در بالا، تلاش می‌کنم تأثیر آن را تجزیه و تحلیل کنم. یک رویداد واحد در نقطه‌ای از زمان برای یک مجموعه داده طولی غیرخطی، اما قابل پیش‌بینی (یا حداقل قابل مدل‌سازی). من گیج شدم:(هر گونه کمک، راهنمایی، اشاره، توصیه یا راهنمایی بسیار مفید خواهد بود و من برای همیشه از شما سپاسگزار خواهم بود!!!
از چه مدل آماری برای تجزیه و تحلیل این احتمال استفاده کنم که یک رویداد واحد بر داده های طولی تأثیر گذاشته است
95193
من سعی می‌کنم از lme4::glmer استفاده کنم تا مدل ترکیبی مانند این را بگنجانم: library(lme4) set.seed(123) df<-data.frame(id=sample(LETTERS[1:10], 50, T ) y=rbinom(50، 1، 0.3)، x1=rbinom(50، 1، 0.5)، x2=as.integer(rnorm(50، 40، 5))) df<-df[order(df$id)،] fitm<-glmer(y~x1+x2+(1|id)، data=df، دوجمله ای ) coef(fitm) $id (Intercept) x1 x2 A -1.009 1.239 -0.01631 B -1.009 1.239 -0.01631 C -1.009 1.239 -0.01631 D -1.009 1.239 -0.01631 E -1.009 1.239 -0.01631 F -1.009 1.239 -0.01631 -0.1209 1.239 -0.01631 G -0.01631 H -1.009 1.239 -0.01631 I -1.009 1.239 -0.01631 J -1.009 1.239 -0.01631 من تعجب می کنم که چرا افکت ها در شناسه ها یکسان هستند. چرا اثر تصادفی آنطور که انتظار می رود وجود ندارد؟ توجه داشته باشید، خروجی glmer دقیقاً مشابه استفاده از «glm» در اینجا است: fitg<-glm(y~x1+x2، data=df، دوجمله‌ای) coef(fitg) (Intercept) x1 x2 -1.00861 1.23882 -0.01631
چرا اثر تصادفی وجود ندارد؟
104122
من دو مدل رگرسیون دارم. 1. `lm(TEE ~ وزن + جنسیت)` 2. `lm(TEE ~ BMR)` چگونه این دو مدل را مقایسه کنم و بررسی کنم که کدام یک TEE را بهتر پیش بینی می کند؟
مقایسه دو مدل رگرسیون
33193
من فرض می‌کنم خوب است که تبدیل‌های داده‌های مختلف را در یک تحلیل یکسان ترکیب کنیم. من مجبور شدم برخی از متغیرها را به مربع و برخی را به مکعب تبدیل کنم تا نیازهای توزیع عادی را برآورده کنم. من فرض می کنم که اشکالی ندارد که از متغیرهای تبدیل شده با هم برای تحلیل رگرسیون استفاده کنیم؟
آیا می توانم تبدیل داده های مختلف را در یک مدل ترکیب کنم؟
38424
من به تفاوت بین دو متغیر تصادفی فکر می کنم، به عنوان مثال. اسپرد بین دو قیمت سهام
آیا می توان دو متغیر تصادفی، کاملاً همبسته، اما با واریانس های متفاوت (به عنوان درصد میانگین آنها) داشته باشد؟
85512
$$ \sum(X^2) - \frac{(\sum X)^2}{n} = \sum(X^2) - m\sum X $$ این به خوبی از مجموع مربع ها به دو صورت مشتق شده است. چگونه به هم متصل هستند؟ اما چرا اصطلاح دوم را «اصطلاح میانگین» می نامند؟ این برای من گم شده است. چه چیزی نیاز به اصلاح دارد و چرا؟
در مورد مجموع مربعات دو راه چگونه به هم متصل می شوند
78465
من سعی می کنم بازده و نوسانات داده های مالی مختلف مانند bmw (بسته evir در R)، SP500 (بسته MASS در R)، طلا و روغن را مدل کنم. آمار آنها حاکی از خروج از نرمال بودن است و آزمون Jarque Bera فرضیه نرمال بودن را رد می کند. من سعی کردم به جای آن از student t استفاده کنم و AIC پایین تری دریافت کردم که فکر می کنم انتظار می رود. با این حال، مقدار p برای باقیمانده های مربع استاندارد شده به طور قابل توجهی گاهی اوقات حتی زیر 0.05 کاهش می یابد. به‌علاوه، زمانی که من یک آزمایش خارج از نمونه را امتحان کردم، مدل نرمال از مدل student-t در همه موارد بهتر بود. MSE برای هر دو حدود 2 برای هر دو مدل بود که فکر می کنم بسیار بالا است زیرا من مطالعه ای را دیدم که MSE را حدود 0.08 دریافت کرد. من مطمئن نیستم که اینجا چه اشکالی دارد زیرا معتقدم دانشجوی t باید عملکرد بهتری داشته باشد و من با چنین MSE بالایی شوکه شده ام. من از ARMA(p,q)/GARCH(1,1) استفاده کردم که در آن p=0,1 و q=0,1 بود اما هیچ کدام نتایجی را که انتظارش را داشتم به من نداد.
کاهش مقدار p هنگام استفاده از student-t به جای توزیع نرمال برای GARCH؟
70013
من می خواهم آنالیز پنل VAR را در Eviews انجام دهم اما مطمئن نیستم که کدام گزینه صحیح است زیرا هیچ گزینه داخلی در نرم افزار وجود ندارد. لطفا راهنمایی کنید که مراحل دقیق اجرای پنل VAR در Eviews چیست؟
چگونه می توان آنالیز پنل VAR را در Eviews انجام داد؟
78469
فرض کنید می خواهید یک مدل جنگل تصادفی ایجاد کنید که پیش بینی کند آیا کاربر روی تبلیغ موتور جستجوی شما کلیک می کند یا خیر. بیایید بگوییم مجموعه داده‌های آموزشی متغیر مستقل (یعنی اینکه کاربر کلیک کرده است یا نه) را به‌عنوان 0 علامت‌گذاری می‌کند، اگر اشتباه باشد، و اگر ضربه زده باشد، 1 باشد. آیا این نوع مدل باید طبقه بندی کننده باشد یا مدل رگرسیونی؟ یا می تواند هر دو باشد؟ **زمینه** من این را به هر دو روش امتحان می کنم، و متوجه می شوم که در نسخه طبقه بندی کننده این مدل، مدل تقریباً هر بار خطا را پیش بینی می کند. من مطمئن نیستم که آیا در روشی که مدل را تعریف کرده‌ام مشکلی وجود دارد یا اینکه این مشکل از روی طراحی است، زیرا برای یک نقطه داده معین، اگر آن نقطه داده را 100 بار تکرار کنید، ممکن است فقط 10 درصد باشد. در آن زمان، حتی برای نقاط داده ای که به احتمال زیاد مورد ضربه قرار می گیرند. به عبارت دیگر، تقریباً هیچ نقطه واحدی وجود ندارد که کاربر واقعاً روی تبلیغ کلیک کند، بنابراین فکر می‌کنم با توجه به اینکه احتمال همیشه کمتر از 0.5 است، مدل به سادگی هر بار یک اشتباه را پیش‌بینی می‌کند.
طبقه بندی کننده یا رگرسیون برای سیستم باینری؟
10503
من مجموعه ای از داده ها (اعداد واقعی مثبت < 1) در پنج دسته دارم. هدف من نشان دادن این است که داده‌های دسته آخر برای طیف وسیعی از نمونه‌ها (مجموعه داده‌ها) از دسته‌های دیگر بزرگ‌تر است، اما دسته آخر لزوماً مهم‌تر از بقیه نیست. من فکر کردم بهترین کار این است که هر دسته را میانگین بگیریم و سپس نمودار آن را رسم کنیم که کار می کند. اما من احساس می کنم این خیلی ساده است و آیا خوب است اگر به انحراف معیار هر دسته نگاه کنم تا نشان دهم که تفاوت زیادی وجود ندارد و میانگین گرفتن معتبر است؟ همچنین من می خواستم از نمودار پراکندگی استفاده کنم، آیا این مشکلی ندارد؟ چه چیزی را توصیه می کنید؟
مجموعه ای از داده ها و میانگین / انحراف استاندارد
108517
من باید یک رگرسیون نرمال چند متغیره را در R انجام دهم. سوال این است: > اجازه دهید $Y_1$، $Y_2$، و $Y_3$ از توزیع نرمال چند متغیره پیروی کند. چیست > > > 1. شرطی $Y_3$ با توجه به $Y_1$ و $Y_2$ > 2. شرطی از $Y_2$ با توجه به $Y_1$ > > از این دو، استخراج کنید: > > 3. توزیع مشترک $Y_3$ و $Y_2$ با توجه به $Y_1$. > > حالا فرض کنید نمونه ای به اندازه $n$ از توزیع نرمال چند متغیره دارید. دو رگرسیون (1) و (2) را انجام دهید. **چگونه می توانم آنها را ترکیب کنم تا (3)، رگرسیون $Y_3$ و $Y_2$ در $Y_1$؟** library(mvtnorm) mu <- c(1,2,3) Sig <- matrix( c(4،2،1،2،4،-1،1،-1،4)، nrow=3، ncol=3) Y <- rmvnorm(20، mean=mu، sigma=Sig) #تولید توزیع نرمال چند متغیره y3 <- lm(Y[,3]~Y[,1] + Y[,2]) y2 <- lm(Y[,2]~Y[,1])
چگونه رگرسیون چند متغیره را در R انجام دهیم؟
36018
من فقط می خواهم در مورد MDS بپرسم. در زیر زیرمجموعه مبحث مقیاس بندی چند بعدی آورده شده است. **مقیاس‌گذاری چند بعدی** 1. مدل‌های متریک و غیر متریک 2. روش‌های مقیاس‌گذاری چند بعدی «دو طرفه» (MDS) من وظیفه داشتم دومین موضوع فرعی MDS را گزارش کنم که **روش‌های «دو-دو» است. راه مقیاس بندی چند بعدی**. من در واقع هیچ ایده ای در مورد این موضوع ندارم، اما وقتی سعی کردم در اینترنت گشت و گذار کنم، یک کتاب پیدا کردم که همه چیز در مورد **مقیاس بندی چند بعدی** است. مشکل اینه که نمیتونم تاپیک رو پیدا کنم. اما، مشاهده کردم که این بخش از فصل‌ها با عنوان **MDS و روش‌های مرتبط** وجود دارد که شامل فصل‌هایی با نام‌های _Procrustes Procedures_، _Three-Way Procrustean Models_، _Three-Way MDS Models_، _Modeling Asymmetric Related Mhodet_DS، و _مدل سازی نامتقارن به داده های_DS، می باشد. من می دانم که این نمی تواند **روش های مقیاس گذاری چند بعدی دو طرفه (MDS)** باشد. من مطمئن نیستم. من فقط در مورد توضیح **روش های مقیاس گذاری چند بعدی دو طرفه (MDS)** کمک می خواهم، یا در مورد چه چیزی صحبت می کند؟ یا در صورت وجود چه موضوعات فرعی ممکنی وجود دارد که باید به آنها پرداخت. کمک شما بسیار قدردانی خواهد شد.
روش های مقیاس بندی چند بعدی دو طرفه (MDS)؟
22709
من مشکلی دارم که می‌خواهم آن را در رابطه با داده‌های سری زمانی بررسی کنم، اما از آنجایی که در زمینه آمار بی‌تجربه هستم، از بهترین اصطلاحات برای توصیف مشکل خود مطمئن نیستم (بنابراین می‌توانم خودم سعی کنم بیشتر تحقیق کنم). _البته از هرگونه پیشنهادی در مورد رویکردها استقبال می شود!_ **مشکل را می توان اینطور خلاصه کرد:** ما چندین مجموعه تحویل را به صورت دوره ای دریافت می کنیم (اگرچه زمان بندی ممکن است ناقص باشد و تناوب بین مجموعه ها متفاوت است). برای یک مجموعه خاص از تحویل، گاهی اوقات یک تحویل از دست رفته است. فرض کنید که تحویل‌ها معمولاً سه ماهه هستند، سپس با نادیده گرفتن نادرستی جزئی در تاریخ‌های تحویل، چیزی شبیه به این دریافت خواهید کرد: * **X** = کالای تحویلی * **0** = تحویل مورد انتظار از دست رفته * N = بدون تحویل مورد انتظار * *X** N N **X** N N **0** N N **X** N N **0** N N **X** N N و غیره من علاقه مند هستم که چگونه می توان این را به طور خودکار تجزیه و تحلیل کرد، بنابراین با توجه به اینکه فرد از قبل دوره را نمی داند، می خواهم راهی برای **a)** تعیین دوره پیدا کنم، سپس **ب)** ببینم کدام تحویل مورد انتظار بر این اساس وجود ندارد. یک عارضه اضافه وجود دارد که در برخی موارد زایمان در چرخه ای انجام می شود که پیوسته نیست، به عنوان مثال. در یک دوره سه ماهه تکراری، تقریباً در ماه اول و دوم تحویل داده می شوند و سپس در ماه سوم تحویل نمی شوند. جایی که من فوراً دچار مشکل می‌شوم این است که اصطلاحات رسمی را که می‌توان در توصیف این نوع مشکل استفاده کرد، نمی‌دانم. آیا این به بهترین وجه یک مشکل تحلیل بقا با تکرار رویدادها توصیف می شود؟ یا فقط یک مشکل سری زمانی گسسته؟ آیا نام خاصی برای این نوع سری های زمانی از نوع رویداد باینری وجود دارد؟ (و همچنین جایی که اندازه‌گیری‌های زمانی (یعنی تحویل‌ها) همزمان اتفاق نمی‌افتند - درک من این است که معمولاً داده‌های سری زمانی در یک بازه زمانی جمع‌آوری می‌شوند. به هر حال، من مشتاق هستم که در صورت امکان به خودم کمک کنم. اگر پیشنهاداتی در مورد بهترین رویکرد وجود دارد (مثلاً رویکردهای تحلیل طیفی؟) برای آنها نیز سپاسگزار خواهم بود اگر چیزی مهم را از دست داده ام یا باید بیشتر توضیح دهم با تشکر فراوان، نیل
بهترین اصطلاح برای توصیف یک مسئله سری زمانی
16319
اگر آزمون دقیق فیشر یک طرفه که فرضیه صفر را آزمایش می کند مبنی بر اینکه A برتر از B نیست دارای p-value برابر 0.98 باشد، آیا این درست است که آزمون دقیق p-value فیشر برای فرضیه صفر که B برتر از A نیست. 1-0.98 = 0.02؟ این سوال از مقاله در nejm.org/doi/full/10.1056/NEJMoa1100403 ناشی می شود که در آن نتیجه اولیه دارای مقدار p یک طرفه 0.98 بود، اما وقتی مقدار P را با یک FET یک طرفه محاسبه کردم، یک مقدار دریافت کردم. p-value 0.09. بنابراین، تعجب می کنیم که چرا FET یک طرفه دیگر دارای p-value 1-0.09 = 0.91 (به جای 0.98) نیست. از کمک برای دانستن اینکه کجا اشتباه می کنم سپاسگزارم. دستور Stata که برای تولید p-value 0.09 استفاده شد عبارت بود از: csi 2 7 2850 2854 , exact | در معرض نوردهی نشده | مجموع ------------------------------------------------- ------ موارد | 2 7 | 9 غیر کیس | 2850 2854 | 5704 -----------------+------------------------------- ------ مجموع | 2852 2861 | 5713 | | ریسک | 0007013 .0024467 | .0015754 | | | برآورد نقطه ای | [95% Conf. فاصله] |----------------------------------------------- -- تفاوت ریسک | -.0017454 | -.0037999 .0003091 نسبت ریسک | .2866159 | 0.0595926 1.378504 قبلی فراکس سابق | .7133841 | -.3785042 .9404074 قبلی فراکس پاپ | .3561301 | +----------------------------------------------- P دقیق فیشر یک طرفه = 0.0904 P دقیق فیشر دو طرفه = 0.1793
تست دقیق فیشر یک طرفه و مکمل آن
38429
اجازه دهید $X$ با توزیع مشترک متغیرهای تصادفی $A$، $B$، $C$، و $D$. اجازه دهید $(A \perp B) \mid (C, D)$ و $(C \perp D) \mid (A, B)$. ![Four Node Markov Network](http://i.stack.imgur.com/yrGho.png) من می‌دانم که این توزیع باید بر روی چهار دسته زوجی فاکتور بگیرد. $\Pr(X) = \frac{1}{Z}\phi_1(A,D)\phi_2(A,C)\phi_3(C,B)\phi_4(D,B)$ با این حال، من می خواهم برای اینکه ببینیم چگونه، با شروع با $\Pr(X)$، می‌توانیم توزیع را در توابع مناسب فاکتور کنیم. من در بیشتر روزها سرم را به این موضوع می کوبندم، بنابراین هرگونه اشاره ای قابل تقدیر است.
فاکتورینگ شبکه مارکوف ساده
70010
من گروهی از نمونه‌ها دارم و مشاهدات در هر نمونه یک توزیع اریب درست را تشکیل می‌دهند. بنابراین این گروه از نمونه ها گروهی از توزیع های اریب را تشکیل می دهند. با این حال، این توزیع های اریب با منحنی توزیع مشابهی مطابقت ندارند، یا منحنی های توزیع نمونه های مختلف از یکدیگر منحرف می شوند. هدف من این است که این توزیع ها را از طریق تبدیل داده های اصلی به یکدیگر نزدیک کنم. من قصد دارم دو روش را برای انجام تحول امتحان کنم. روش اول روش مبتنی بر میانگین است که در آن هر مقدار اصلی بر مقدار میانگین توزیع تقسیم می شود. روش دوم z-score است. من این دو روش را روش‌های عادی‌سازی می‌نامم که هدف آن نزدیک‌تر کردن توزیع‌های مختلف به یکدیگر است. بعد از تبدیل می توانم اثر دو روش را با هم مقایسه کنم. قبل از انجام تبدیل، می‌خواهم برخی از متون مرتبط را در مورد اثر عادی‌سازی روش مبتنی بر میانگین و z-score برای توزیع‌های اریب بخوانم. اما بعد از جستجوی کامل من در گوگل، هیچ مقاله مرتبطی پیدا نکردم. سوال من این است که آیا کسی مقالات مرتبط با این موضوع را دیده است و می توانید راهنمایی هایی در مورد چگونگی پیدا کردن آنها به من بدهید؟ از هرگونه نظر در مورد این مشکل نیز استقبال کنید.
روش های تبدیل برای نزدیک کردن توزیع های اریب به یکدیگر
78461
من از تکنیک شبکه عصبی (آموزش معکوس) استفاده می کنم. به عنوان یک خروجی، به عنوان مثال، من مقدار 18 امتیاز جلو و به عنوان ورودی آخرین امتیاز 5 را برای آموزش می دهم. (من ترکیب های زیادی از داده های ورودی 5، 10، 20، 30... را امتحان کردم). به عنوان مثال، روشی که من داده های خود را آموزش دادم: t، t+1، t+2، t+3، t+4... => t+22(4+18) t+1، t+2، t+ 3, t+4, t+5... => t+23 ورودی های نمایی: t, t+1, t+2, t+4, t+8... => t+26(8+18) t+1، t+2، t+3، t+8, t+9... => t+27 بعد از آموزش، یادگیری رو به جلو را با مقادیر آموزش دیده ام انجام داده ام. من مشاهده کرده ام که شبکه عصبی قادر به گرفتن پیک های ناگهانی نیست. اکثر مواقع اگر قرار باشد 18 ثانیه جلوتر پیش بینی کنم، 17 ثانیه بعد نتیجه درست را پیش بینی می کند. * برای پیش‌بینی پیش‌بینی‌های بلندمدت برای مثال 1000 گره بعداً، بهترین راه برای انتخاب مقادیر ورودی چیست؟ * آیا توصیه ای برای من دارید که چگونه می توانم پیک های ناگهانی (که در ثانیه بعد اتفاق می افتد) را با شبکه عصبی پیش بینی کنم؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6dq9W.gif)
تشخیص زودهنگام پیک ها با شبکه عصبی
4530
دیروز، یک ANCOVA با اقدامات مکرر اجرا کردم. هدف تعیین قابلیت استفاده دو سیستم کامپیوتری بود که آنها را 1 و 2 نامید. (متغیر این بود که آیا آزمودنی تجربه قبلی با سیستم فعلی، سیستم 1 داشته است یا خیر). متغیر وابسته زمان صرف شده برای تکمیل هر کار بود. یک GLM در SPSS نتایج استاندارد و چند متغیره را چاپ می کند. نتایج استاندارد، درون آزمودنی، اثر اصلی سیستم و تعامل سیستم* وظیفه را نشان داد. حالا چرا باید از نتایج چند متغیره استفاده کنم؟ آنها نیز قابل توجه بودند، و من شنیده ام که تست های چند متغیره قدرت بیشتری دارند. اما به نظر می‌رسد که این امر فضای تکان‌دهنده زیادی را برای محققان فراهم می‌کند - اگر آزمون درون آزمودنی‌ها مهم نباشد، آنها فقط می‌توانند ببینند آیا نتایج چند متغیره قابل توجه هستند یا خیر. همچنین، از آنجایی که یک سیستم * وظیفه تعاملی وجود داشت، من افکت های اصلی ساده را روی هر کار اجرا کردم. مشخص شد که A و B در یک جهت معنی دار و C در جهت دیگر معنی دار است. به نظر می رسد این به من نشان می دهد که انجام MANOVA در اینجا ایده بدی است. اما اگر فقط به نتایج چند متغیره نگاه می‌کردم، چگونه می‌توانستم بدانم؟ به طور خلاصه، حدس می‌زنم که نمی‌دانم اگر بیش از یک DV داشته باشم، چه زمانی از MANOVA در مقابل ANOVA استفاده کنم.
هنگام انجام ANCOVA با اندازه گیری های مکرر چه زمانی باید تست های چند متغیره را تفسیر کرد؟
36015
من یک رگرسیون کاکس چند متغیره انجام می دهم، متغیرهای مستقل مهم و مقادیر بتا خود را دارم. مدل به خوبی با داده های من مطابقت دارد. اکنون، من می خواهم از مدل خود استفاده کنم و بقای یک مشاهده جدید را پیش بینی کنم. من نمی دانم چگونه این کار را با یک مدل کاکس انجام دهم. در یک رگرسیون خطی یا لجستیک، آسان است، فقط مقادیر مشاهده جدید را در رگرسیون قرار دهید و آنها را با بتا ضرب کنید و بنابراین من نتیجه خود را پیش بینی می کنم. چگونه می توانم خطر پایه خود را تعیین کنم؟ من علاوه بر محاسبه پیش بینی به آن نیاز دارم. این کار در مدل کاکس چگونه انجام می شود؟
پیش بینی در رگرسیون کاکس
83914
من یک مجموعه داده متشکل از مقادیر پیوسته دارم که حدود 30 تا 50 درصد صفر و محدوده بزرگی دارند (10^3 - 10^10). من معتقدم این صفرها نتیجه داده های از دست رفته نیستند و نتیجه حساسیت دستگاه اندازه گیری هستند. من می‌خواهم این داده‌ها را log10 تبدیل کنم تا بتوانم به توزیع نگاه کنم، اما مطمئن نیستم که چگونه صفرها را کنترل کنم. من خیلی جستجو کردم و 1 زیر را پیدا کردم. یک ثابت کوچک به داده‌ها اضافه کنید مانند 0.5 و سپس تبدیل log 2. چیزی به نام تبدیل boxcox من تبدیل boxcox را جستجو کردم و آن را فقط در رابطه با ساخت یک مدل رگرسیونی پیدا کردم. من فقط می خواهم توزیع را تجسم کنم و ببینم چگونه توزیع می شود. در حال حاضر وقتی یک هیستورگرام از داده‌ها را رسم می‌کنم، به این شکل است![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/OPraf.jpg) وقتی یک ثابت کوچک 0.5 و تبدیل log10 اضافه می‌کنم، به این شکل به نظر می‌رسد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8Nzu0.jpg) آیا راه بهتری برای تجسم توزیع این داده ها وجود دارد؟ من فقط سعی می کنم اطلاعاتی را در مورد ظاهر داده ها بدست بیاورم تا بفهمم چه نوع تست هایی برای آن مناسب هستند.
نحوه ثبت اطلاعات تبدیل با تعداد زیادی صفر
85515
در این ویدیوی یوتیوب درباره نمونه‌برداری مجدد بوت استرپ، سازنده بیان می‌کند که وقتی تعداد فرآیندهای بوت استرپ کم باشد، توزیع پارامتری که تخمین زده می‌شود دیگر نمی‌تواند توزیع نرمال داشته باشد (نگاه کنید به علامت 8:50). از آنجایی که توزیع پارامتر نرمال نیست، انحراف معیار را نمی توان از طریق فرمول استاندارد به دست آورد: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/63JGV.png) بنابراین نویسنده بیان می کند که باید از CDF برای محاسبه مقادیر فاصله اطمینان 68% استفاده کرد و از آنجا تخمینی از انحراف استاندارد بدست آورد. سوال من این است: وقتی تعداد دفعات تکرار بوت استرپ کم است، از کجا می توانم منبعی برای این راه حل برای به دست آوردن انحراف استاندارد دریافت کنم؟ * * * من به این علاقه دارم زیرا از بوت استرپ با جایگزینی برای تخمین عدم قطعیت یک پارامتر استفاده می کنم و احتمالاً نمی توانم آن را هزاران بار (حتی ده ها بار در واقع) تکرار کنم زیرا به طرز غیرممکنی زمان بر است.
بوت استرپ با جایگزینی با تعداد کم تکرار
61391
من اطلاعاتی در مورد نحوه خرابی برخی از مؤلفه ها دارم. آنها را می توان به طور کامل تعویض کرد یا برخی از اجزای فرعی خود را تعمیر کرد. می‌خواهم بدانم آیا راهی برای تطبیق مدل خرابی با توزیع خرابی اساسی و قابلیت اطمینان محاسباتی اجزای من وجود دارد یا خیر. من در مورد Survival Analysis خواندم و به آن بسیار علاقه مند بودم (زیرا مؤلفه هایی را نیز در نظر می گیرد که دوره پس از مشاهده بازمانده شده اند)، اما متأسفانه، خرابی کامل اجزا را فرض می کند (در حالی که وضعیت من با تعمیرات مولفه نیز سروکار دارد) . آیا حوزه مرتبطی وجود دارد که با وضعیت تعمیر سروکار داشته باشد؟ داده‌هایی که من دارم به شرح زیر است (خروجی «dput» در «R»): c(43044461L, 48043852L, 39290306L, 50335198L, 47604418L, 9875530L, 173814461, 17381414, 17381414L, 173813141, 17381414L, 17381414L, 173813851L 7372344L, 49950268L, 29007573L, 46118058L, 12292465L, 238234L, 9277711L, 34570342L, , 37371531,18,00,000 50931534L, 26694512L, 29961599L, 2457994L, 33987131L, 20175414L, 1577647L, 769861L, 1249152L, 1249158L, 1249158L, 1249158L, 1249158L, 1249158L, 1249158L, 50931534L. 34033673L, 32297668L, 27564068L, 2730862L, 19241848L, 18254820L, 39185109L, 33662797L, 1200338705L 26484711L, 15432679L, 32281540L, 34839587L, 385860L, 9973362L, 21839720L, 37642093L, 338861689, , 13913748L, 32304197L, 33636487L, 22603695L, 25718240L, 32181213L, 32264085L, 5881735L, 351205576L 23051956L, 23054083L, 22961394L, 22962199L, 4632371L, 2757599L, 9663000L, 29225898L, 292332148L, 292332148L, 292332148L, 292332148L, 1107666L, 26138387L, 26163543L, 26215242L, 7561251L, 26218513L, 26221383L, 30476747L, 262222109L, 2622221090 27607598L, 27610958L, 27684885L, 1782502L, 25654474L, 19616668L, 10155706L, 1736017L, 27025910L, 27025910L 20506415L, 11541948L, 27586115L, 26692258L, 16235808L, 14966802L, 15974788L, 2014068L, 72157223, 72157223 22524449L, 9940245L, 12431361L, 6723321L, 1337135L, 14011887L, 26516990L, 19894509L, 2358025,236L, 23580255990L 25260751L, 1014468L, 17600421L, 18969565L, 19501830L, 11816652L, 11832654L, 18962013L, 189681,494L 10660220L, 7152965L, 25676536L, 182572L, 14811759L, 18464712L, 12164906L, 19920052L, 1249157444L, 19920052L, 124911754L, 124911759L 9665000L, 284178L, 284213L, 284143L, 284178L, 284178L, 284178L, 2992895L, 9475072L, 4444603L, 4444603L, 4444603L, 4444603L, 284178L, 2992895L 8261921L, 3493839L, 8603179L, 563679L, 7788458L, 12934577L, 16212035L, 14764962L, 3274975L, 3274975L, 3274975L, 3274975L, 3274975L, 1826L 12233593L، 19688931L، 3176516L، 10347964L، 3176445L، 7326030L، 816261L، 17698452L، 8280151L، 8280151L، 8280151L، 8280151L، 8280151، 8280151، 8280151.8.1. 16362051L, 18559410L, 3016907L, 18821969L, 250538L, 18937854L, 20460554L, 11466655L, 198410365L, 198410354L, 198410354L, 198410354L 9351749L, 14202233L, 8395799L, 2469799L, 11120915L, 2007822L, 2251827L, 10425100L, 12864540L, 12864540L, 12864540L, 12864540L, 2007822L 14425083L، 7790951L، 7790951L، 18092421L، 249048L، 14389608L، 14389643L، 14389643L، 143033313L، 143033313L، 143033313L، 1430333083L، 14389643L، 143033313L، 314 184797L, 184972L, 13871348L, 13871243L, 13871383L, 13871278L, 99619L, 99514L, 98467L, 98467L, 98467L, 98467L, 698L 98432L, 98432L, 98432L, 98432L, 98432L, 11372596L, 9926436L, 204260L, 2492418L, 2492418L, 2492418L, 2986076L 8180564L، 53600L، 11428758L، 9942851L، 2648374L، 1899270L، 1812870L، 1812870L، 1812870L، 1812870L، 1810287L. 1812870L, 5811703L, 3334565L, 11639886L, 5776214L, 5386427L, 2057170L, 853094L, 4856466L, 728,880L, 4856466L, 728814L 71544L, 2208165L, 2035661L, 2121240L, 2121744L, 2122268L, 4393081L, 2481686L, 4767429L, , 26956190L, 4767429L, 26956190L 2737688L, 11709771L, 9311182L, 6952803L, 210747L, 8219827L, 508306L, 4713143L, 6456962L, 5298949L, 6456962L, 5298949 2290297L, 117516L, 2980892L, 2048608L, 7152852L, 396062L, 396062L, 3459981L, 3691834L, 3831,1950L 15124240L, 1292511L, 14712416L, 14629719L, 15120090L, 3284021L, 1485496L, 2420495L)
تخمین احتمال شکست بعدی؟
85519
در این مقاله، نویسندگان هسته لاپلاسی SVM را به صورت زیر می نویسند: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/pOJWO.png) من می خواهم همان را امتحان کنم و 3 پارامتر را تنظیم کنم (p، a، b). من از تابع R kernlab ksvm استفاده می کنم (راهنمای اینجا، صفحه 54-57)، اما نمی دانم چگونه پارامترها را با پارامترهای ذکر شده در فرمول بالا مطابقت دهم. آیا کسی می تواند راهنمایی کند که کدام پارامترهای ksvm با (p، a,b) بالا مطابقت دارند؟ یا شاید یک کتابخانه R دیگر برای SVM؟
پارامترهای هسته لاپلاسی SVM با R
41773
من پروژه ای دارم که برای آن باید اعتبارسنجی متقاطع 5 برابری انجام می دادم. مجموعه داده شامل 5 روز است، بنابراین ما یک روز را به عنوان مجموعه آموزشی خود در نظر می گیریم و روی 4 روز باقیمانده اعمال می کنیم، آبکشی می کنیم و تکرار می کنیم تا زمانی که پوشش کامل را به دست آوریم. چیزهای بسیار استاندارد حالا، سوال من اینجاست، وقتی اعتبار متقاطع را تمام کردم، برای هر دوی که اجرا می‌کنم، نرخ مثبت واقعی و مثبت کاذب باقی می‌ماند. آیا روش استانداردی برای نشان دادن این داده ها به صورت بصری وجود دارد که بتواند نتایج را خلاصه کند؟ به ویژه می‌خواهم نشان دهم که این تکنیک نسبتاً پایدار است و داده‌های یک روزه برای آموزش موفقیت‌آمیز آن کافی است.
خلاصه کردن نتایج اعتبار سنجی متقاطع k-fold
61393
پوزش می طلبم اگر قبلاً به این موضوع پرداخته شده است، با این حال تجربه من با آمار کمی محدود است، به خصوص در مورد تجزیه و تحلیل سری های زمانی. سوال فعلی من به تجزیه و تحلیل روند فروش ماهانه قبل و بعد از یک رویداد برای یک محصول واحد مربوط می شود. فرض کنید یک محصول جدید با افزایش فروش ماهانه وجود دارد، با این حال، شرکت تصمیم می‌گیرد 12 ماه پس از راه‌اندازی، تبلیغاتی را برای افزایش بیشتر فروش آغاز کند. یک سال بعد، شرکت می خواهد بررسی کند که آیا روند فروش پس از ترفیع به طور قابل توجهی با روند قبل از تبلیغات متفاوت است (در حالت ایده آل، فروش واحد پس از شروع تبلیغات با سرعت بیشتری افزایش می یابد). بنابراین اساساً، من می‌خواهم تعیین کنم که آیا 12 ماه آینده را دقیقاً قبل از تبلیغ پیش‌بینی کرده بودم، آیا فروش به طور قابل‌توجهی با آنچه واقعاً ظاهر شده بود متفاوت است یا خیر. برای تعیین اینکه آیا روند فروش ماهانه قبل و بعد از ترفیع به طور قابل توجهی متفاوت است یا خیر، از کدام آزمون آماری مناسب تر است؟ من فقط یک نقطه داده برای هر نقطه زمانی (فروش ماهانه) قبل و بعد از آن دارم، و از آنجایی که فروش در حال افزایش است، به دلیل نیاز به ایستایی برای بسیاری از تست ها و همچنین این واقعیت که فقط باید داشته باشم، با مشکلاتی مواجه شده ام. 12 نقطه داده تاریخی که بر اساس آن پیش بینی اولیه می شود. هر گونه کمکی بسیار قدردانی خواهد شد. با تشکر
آزمون آماری برای تغییر معنی دار در روند سری زمانی (فروش) پس از تغییر سیاست
70900
با توجه به یک سری مقادیر، 3.00،5.00،7.00،4.00،7.00،5.00،22.00،4.00،6.00،7.00،9.00،6.00،4.00، باید داده ها را مجددا مقیاس کنم تا مقادیر جدیدی با میانگین 0 و 0 داشته باشند. انحراف استاندارد 1. با دنبال کردن تعدادی مثال برای معادله زیر را دریافت می‌کنم، میانگین 6.85 StdDev 4.85 انحراف استاندارد که در طول مسیر از طریق گرفتن یک مقدار اصلی، تفریق میانگین، مجذور کردن نتیجه، جمع کردن تمام مربع‌ها، تقسیم آن مجموع بر شمارش -1 انجام دادم، قبل از اینکه در نهایت به دست بیاورم. جذر آن (3.00 - 6.85) = -3.85 > -3.85² = 14.79 (5.00 - 6.85) = -1.85 > -1.85² = 3.41 ... (4.00 - 6.85) = -2.85 > -2.85² > -2.85² = 8.10 وارسانس n -1) 23.47 انحراف استاندارد 4.85 من مطمئن هستم که درست است همانطور که آن را اینجا بررسی کردم http://www.mathsisfun.com/data/standard-deviation-calculator.html با استفاده از میانگین و انحراف استاندارد، مقادیر جدیدی از، -0.79،-0.38،0.03،-0.59،0.03،-0.38،3.13،-0.59،-0.17،0.03،0.44،-0.17،-0.59 این مقادیر به روش زیر محاسبه شدند ((3.00 - 6.85) = 0.79 ((5.00 - 6.85)/4.85) = -0.38 .... ((4.00 - 6.85)/4.85) = -0.59 بنابراین، به سوال من. این انحراف معیار است که بخش گیج کننده است. من می‌خواهم مقادیر جدیدم میانگین 0 و انحراف استاندارد 1 داشته باشند. وقتی SD را برای مقادیر اصلی خود تعیین می‌کنم، SD 4.85 دریافت می‌کنم. برای گرفتن SD 1 چه کاری باید انجام دهم؟ ممنون از اینکه وقت گذاشتید و سوال را خواندید. جان
چگونه داده های خود را طوری تبدیل کنم که میانگین صفر و انحراف معیار یک داشته باشد؟
21419
من دو جمعیت دارم که هر کدام شامل 1000 نمونه است. برای هر نمونه دو ویژگی A و B دارم. من از آزمون t به طور جداگانه برای A و B استفاده کردم: هر دو به طور قابل توجهی در دو گروه متفاوت بودند. A با P=0.008 و B با P=0.002. آیا درست است که ادعا کنیم ویژگی B بهتر از ویژگی A متمایز می شود (مهم تر)؟ یا اینکه آزمون t فقط یک معیار بله یا خیر (معنی دار یا غیر معنی دار) است؟ **به روز شده**: اندازه گیری دو ویژگی مختلف 1k، مردان و زنان، (A) معدل سال اول و (B) نمرات SAT. **updated2**: با توجه به نظرات اینجا و آنچه در p-value خوانده ام. من فکر می کنم که پاسخ باید این باشد: مقدار p بی معنی را رها کنید و اندازه اثر خود را گزارش دهید. هیچ ایده ای؟
مقایسه مقادیر p با یکدیگر چه معنایی دارد؟
62910
من در حال ایجاد یک مدل طبقه بندی برای تشخیص استرس هستم. من سعی می کنم بهترین ویژگی ها را از 56 کل انتخاب کنم. من یک ماتریس «1937x56» با داده‌های بدون تنش، و یک ماتریس «1763x56» برای داده‌های استرس دارم. «f_n -> ماتریس بدون استرس» و «f_s -> استرس یکی» من از «Matlab» استفاده می‌کنم و این کد من است. رتبه = صفر (1، اندازه (f_n، 2)); برای l = 1:size(f_n,2) rank(1,l) = ranksum(f_n(:,l), f_s(:,l)); در پایان فکر کنید من مقداری «p-value» برابر با صفر دریافت می کنم. در اینجا خروجی `رتبه` 3.23970807719953e-59 1.19012268294050e-32 1.24342293425171e-123 2.98338574026435e-227 است 1.94090447559927e-227 7.54664151060207e-250 8.99703327997911e-292 1.38826281436916e-298 4.73814047 2.15213684390080e-37 0.000196579371678330 4.25370029962320e-27 4.90973329410252e-166 9.8402520839 4.84716291687399e-277 3.52745590178140e-287 2.81025758599302e-297 7.01405396494596e-289 3.31025758599302e-297 7.01405396494596e-289 3.3104140e 1.73163324556308e-32 1.06353645618514e-116 6.74904729244135e-130 3.77342641391818e-173 4.64319249 1.60123198146693e-250 1.16096192265296e-259 1.31621596229152e-271 0.00115260954904737 5.11414560 5.11414569 0 0 5.53879714415676e-137 5.61283198666988e-67 2.53913294535256e-177 0 0 0 0 0 0 1.7086467693911 4.50477630440800e-73 1.34942550217303e-165 4.91843135947255e-180 8.45438406534899e-209 1.0206217e 1.26764781876251e-214 6.91325407956207e-247 2.35709504234097e-276 0 1.11140566121933e-36 فکر نمی‌کنم واقعاً باشد. هیچ کمکی؟
دریافت مقدار p صفر با تست Wilcoxon در Matlab
85518
من اکنون در حال مطالعه روی روش‌های هسته، تمام تئوری پشت آن هستم تا ماشین‌های بردار پشتیبان را درک کنم. البته بعضی ها را خیلی خوب فهمیدم اما چیزی هست که نمی توانستم به طور کامل درک کنم. نگاشت ضمنی/صریح فضای ورودی به فضای ویژگی برای تکنیک های یادگیری ماشینی مرتبط با هسته بسیار مهم است. با نگاشت صریح، به این معنی که تنها با استفاده از یک تابع نگاشت $\phi$، ممکن است ورودی ها را بتوان به یک فضای ویژگی بی نهایت نمایش داد یا گاهی اوقات، کار بر روی چند جمله ای های مرتبه بالا با ضرایب زیاد سخت است و ابعاد ویژگی را افزایش می دهد. فضا و تعداد پارامترهای آزاد بنابراین ما ترفند هسته داریم، این یک معیار تشابه بین دو بردار در یک فضای ورودی از محصول نقطه‌ای $k(x_i، x_j)=<\phi(x_i)، \phi(x_j)>$. به طوری که می توان بدون انجام محاسبات زیاد به طور ضمنی روی یک بعد بالا کار کرد. در حال حاضر همه چیز اوکی است. نکته ای که من متوجه نمی شوم در مورد نگاشت صریح است، یعنی فقط با استفاده از تابع $\phi$. من فقط به دنبال یک مثال آنلاین بودم، با نمونه زیر برخورد کردم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/SVYgd.jpg) به عنوان مثال، در اینجا مرز تصمیم گیری دایره ای داریم که در $\mathbf{R}^{2}:x_{1} داده شده است. ^{2}+x_{2}^{2}=1$. بنابراین، داده ها در فضای ویژگی $\mathbf{R}^{3}$ با استفاده از نقشه درجه دوم ترسیم می شوند. $\phi(x_{1}، x_{2})=(x_{1}^{2}، x_{2}^{2}، \sqrt{2}x_{1}x_{2})$ و سپس به صورت خطی قابل تفکیک است، بنابراین می توانیم با روش های خطی روی داده های تبدیل شده کار کنیم. این رویکرد پیش پردازش نامیده می شود و بیشتر از ابتدای یادگیری ماشین استفاده می شود. با انتخاب $ x_{1}^{2}$, $ x_{2}^{2}$, $ \sqrt{2}x_{1}x_{2}$ به عنوان ویژگی، فضای ویژگی جدید را می توان ساخت و برای جداسازی، تنها چیزی که نیاز داریم یک ابر صفحه خطی است. > اما، اگر نیاز داشته باشیم فضای ورودی را که دارای 70 x 70 > پیکسل به عنوان الگو است، به فضای ویژگی نگاشت کنیم، چه می‌شود. در این مثال، اگر همه تک‌جملات مرتبه 5 را به عنوان > غیرخطی انتخاب کنیم و از آنجایی که بردارهای بعد ما دارای 4900 سطر هستند، بعد فضای ویژگی را می‌توان به صورت زیر محاسبه کرد. > > $\left(\begin{array}{c} {5+4900-1} \\\ {5} \end{array}\right)\approx > 2.3\times 10^{17}$ > > به انجام چنین نقشه برداری تقریبا غیرممکن است. من نمی توانم این مثال را در نقل قول درک کنم. اول اینکه اطلاعات من با پیکسل های 70X70 چگونه است و چگونه ممکن است 4900 ردیف داشته باشد؟ نمی توانم مجموعه داده ها را در ذهنم تصور کنم. منظور او از غیرخطی بودن همه یکنواخت های مرتبه 5 چیست؟ من در طبقه بندی تصاویر خوب نیستم، بنابراین ممکن است این دلیل باشد. می دانم که کمی احمقانه به نظر می رسد، اما بسیار موظف خواهم بود اگر شما به جزئیات توضیح دهید. پیشاپیش ممنون
نگاشت صریح فضای ورودی به فضای ویژگی با ابعاد بالا
104409
من یک متغیر دارم که دارای 57 kurtosis است، بنابراین تصمیم گرفتم آن را به log تبدیل کنم. با این حال، من به دلیل تعامل با این متغیر و سایر متغیرها با متغیر دیگری، مشکل چندشرکتی دارم، بنابراین از امتیاز z برای کاهش مقدار VIF استفاده می کنم. بنابراین ... > > آیا تبدیل متغیر log به z score مشکلی ندارد خیلی ممنون
آیا تبدیل یک متغیر لگاریتمی به نمره z خوب است؟
18626
من به دنبال تابعی برای انجام آن در R هستم. من می دانم چگونه آن تابع را بنویسم. فقط نمی خواهید چیزی را دوباره اختراع کنید.
آیا اصطلاحی برای min + (حداکثر - حداقل) / 2 وجود دارد؟
65848
در رگرسیون خطی، به نظر می‌رسید که می‌دیدم (اما فراموش کرده بودم کجا) که اگر مجموع مجذور باقیمانده‌ها بر مجموع مجذور تغییرات کل برابر با مجذور همبستگی بین برخی از متغیرهای تصادفی باشد، و از این رو توضیح می‌دهد که چرا این نسبت «R» نامیده می‌شود. مربع. بنابراین من در تعجب بودم که همبستگی بین چیست و چرا نسبت مربع همبستگی است؟ چه مفروضاتی در مورد مدل رگرسیون خطی برای توضیح مربع R از نظر همبستگی مورد نیاز است؟ با تشکر
توضیح مربع R از نظر همبستگی؟
70902
من داده های سری زمانی دارم که می خواهم از آنها ناهنجاری ها را تشخیص دهم. من سری های زمانی را به ثمر رساندم، و دو نقطه وجود دارد که به وضوح از خط پایه منحرف می شود. امتیاز Z آنها به ترتیب 3 و 6 است. بنابراین، می توانم بگویم که آنها به طور قابل توجهی با خط پایه تفاوت دارند. آیا می توانم بگویم که خود این دو ناهنجاری با توجه به امتیازهای Z متفاوت آنها تفاوت قابل توجهی دارند؟ نیازی به گفتن نیست که من تازه وارد آمار هستم ...
درباره مقایسه نمرات استاندارد
37762
برای ایجاد توزیع‌های تهی (به‌عنوان مرجع) برای مقایسه یک نتیجه، به نوعی بررسی همه (یا بیشتر) روش‌های موجود نیاز دارم. برای مثال: اگر بخواهم یک شبکه را اعتبار سنجی کنم، می‌توانم مجموعه‌ای از 1000 شبکه تصادفی را با شروع از مجموعه داده اولیه، با 1000 برابر کردن داده‌هایم، ایجاد کنم. سپس یک توزیع تهی از 1000 شبکه به دست می‌آورم که می‌توانم شبکه خود (بوت استرپ) را با آن مقایسه کنم تا اهمیت را به‌دست بیاورم (اگر خالص من در انتهای توزیع‌های تهی باشد). از آنجایی که با توجه به داده‌هایی که من با آن شروع می‌کنم، این بهترین راه‌حل نیست، باید تمام روش‌های موجود برای ایجاد توزیع‌های تهی را برای استفاده به عنوان مرجع بدانم. آیا پیشنهادی در مورد مقالات، پیوندها و غیره برای من مفید است تا بهترین روش را انتخاب کنم؟ PS: من باید توزیع تهی را از یک مجموعه داده مصنوعی شروع کنم (یک مجموعه داده کاملاً در شرایط آزمایشگاهی ایجاد شده است) بنابراین باید ابتدا بدانم چگونه آن را بسازم. پیشاپیش ممنون E.
توزیع تهی بر روی داده های مصنوعی
70903
به عنوان مثال، اگر دو گزینه برای استفاده از طبقه‌بندی‌کننده غیرخطی مانند SVM با هسته داشته باشیم یا از طبقه‌بندی‌کننده خطی مانند SVM خطی با پیش پردازش داده‌ها مانند کاهش ابعاد غیر خطی استفاده کنیم، کدام یک بهتر است؟ به عبارت دیگر، اگر می‌توانیم پیش‌پردازش داده‌ها (یا «طرح‌نمایی» را اگر اشتباه نکنم یادگیری چندگانه نامیده می‌شود) برای جداسازی خطی داده‌ها انجام دهیم، چرا باید از یک طبقه‌بندی‌کننده پیچیده استفاده کنیم؟
طبقه بندی پیچیده تر در مقابل پیش پردازش داده ها
7069
آیا امکان تصحیح نقض فرض استقلال برای آزمون های ناپارامتریک وجود دارد؟ من یک متغیر مستقل مقوله ای و یک متغیر وابسته طبقه بندی و باینری دارم و هر آزمودنی در معرض چندین سطح درمان قرار گرفت. من برخی از تحلیل‌های اولیه را با رگرسیون لجستیک باینری و آزمون‌های مجذور کای پس‌هوک انجام داده‌ام، اما فکر می‌کنم این‌ها نامناسب هستند، مگر اینکه بتوانم داده‌های غیرمستقل خود را اصلاح کنم. یافتن اطلاعات در این مورد به طرز شگفت انگیزی دشوار بوده است و کمک بسیار قابل قدردانی است.
آیا امکان تصحیح نقض فرض استقلال برای آزمون های ناپارامتریک وجود دارد؟
65778
من می‌دانم که خوشه‌بندی فازی با استفاده از FCM یک ماتریس عضویت برای مجموعه نقاط داده‌ای که به آن تغذیه می‌کنیم تولید می‌کند. یک خوشه غیرعادی تولید شده در این روش چه ویژگی هایی خواهد داشت؟ (با توجه به اینکه من فقط داده های بدون برچسب دارم)
تشخیص ناهنجاری / پرت با استفاده از خوشه بندی فازی
83911
من به دنبال تقریبی برای منحنی توزیع لگ نرمال، برای استفاده در رگرسیون غیر خطی در برابر یک مجموعه داده هستم. به عنوان یک جایگزین، من علاقه مند به تقریبی CDF آن هستم. من چندین هدف دارم: 1. تعیین اینکه یک مجموعه داده نمونه که از فرآیند توزیع ناشناخته گرفته شده است چقدر با توزیع لگ نرمال مطابقت دارد. 2. با توجه به مجموعه‌ای از نمونه‌های گرفته‌شده از یک فرآیند تعیین شده یا شناخته شده به‌طور لگ نرمال توزیع شده، اما با ویژگی‌های ناشناخته، احتمال مشاهده یک نمونه آینده با مقدار معینی را که ممکن است خارج از محدوده مقادیر مشاهده‌شده تا کنون قرار داشته باشد، تعیین کنید. 3. با توجه به مجموعه‌ای از نمونه‌های فوق، و نمونه جدیدی که ممکن است خارج از محدوده مقادیر نمونه‌هایی باشد که قبلاً دیده شده‌اند، احتمال مشاهده آن نمونه را تعیین کنید. 4. در هنگام محاسبه موارد فوق، کارایی و سادگی اجرا بسیار مهم است. یک تقریب سریع با ویژگی‌های کاملاً درک شده مانند مرزهای خطا بهتر از یک الگوریتم دقیق است که پیاده‌سازی آن دشوار است یا از نظر محاسباتی فشرده است. برای این اهداف، من فکر می‌کنم بهتر است که تقریب شکل بسته داشته باشد تا بتوان با سربار محاسباتی کمتر رگرسیون غیرخطی انجام داد. در حالت ایده‌آل، اگر تقریبی به خود توزیع لگ نرمال باشد، خوب است که یک انتگرال ساده نیز داشته باشد تا CDF نیز تقریبی شود. این امکان وجود دارد که من سعی می کنم این راه را اشتباه طی کنم. در اینجا یک سوال خاص تر برای کمک به درک آن وجود دارد: فرض کنید من 1000 نمونه از فرآیند خود جمع آوری می کنم. مقادیر نمونه ها عمدتاً بین 1 تا 10 است و نمونه های گاه به گاه تا 20 یا بیشتر متغیر است. من می دانم (بر اساس تجربه) که در درازمدت می توان نمونه هایی را در محدوده 10 برابر بالاتر از آن مشاهده کرد، اما من هنوز هیچ یک از فرآیند _this را مشاهده نکرده ام. چگونه می توانم احتمال اینکه 1001 نمونه دارای مقداری بیشتر از 100 یا عدد دلخواه دیگری باشد را تعیین کنم؟ اگر مقدار نمونه 1001 180 باشد، چگونه می توانم بر اساس 1000 نمونه اول تعیین کنم که چقدر احتمال دارد؟
تقریب به توزیع Lognormal
33227
در مطالعه نابرابری درآمد، نگاه به میانگین های نمونه برای دهک ها یا پنجک های نمونه بسیار رایج است و فرض می شود که میانگین های نمونه برآوردگر خوبی برای میانگین های واقعی هستند. در این تنظیم، «دهک‌ها» و «پنجک‌ها» معمولاً نه به نقاط شکست، بلکه به مجموعه‌ای از مشاهدات تقسیم بر نقاط شکست اشاره دارند. فرض کنید که مقادیر درآمد با خطا مشاهده می شود و خطا یا به احتمال زیاد درصد خطا مستقل از مقدار واقعی است. * آیا میانگین چندک نمونه، به عنوان مثال، دهک بالا، یک برآوردگر بی طرفانه از میانگین جامعه است؟ من می‌دانم که با برخی توزیع‌های لپتوکورتیک (مثلاً پارتو)، میانگین نمونه، میانگین جمعیت را کمتر نشان می‌دهد. سوال من نه به این، بلکه به هرگونه سوگیری که ممکن است توسط فرآیند مرتب‌سازی ایجاد شود، اشاره دارد، زیرا فرد به جای مقادیر واقعی، مقادیر مشاهده‌شده شامل خطا را مرتب می‌کند. * شهود من این است که میانگین نمونه بالاترین دهک/پنجک به سمت بالا سوگیری می کند، زیرا خطاهای مثبت مرتب می شوند و بالعکس برای کمترین. به عنوان مثال، به نظر من اگر درآمدها غیرمنفی بود اما با یک خطای نرمال مشاهده می شد، یک نمونه بزرگ حاوی مقادیر منفی بود و یک کمیت به اندازه کافی خوب این مقادیر منفی را با هم در پایین ترین گروه با میانگین منفی جمع می کرد. نشان دادن سوگیری زیرا میانگین واقعی باید مثبت باشد. آیا این حقیقت دارد؟ * اگر وسیله مغرضانه باشد، آیا راه خوبی برای اصلاح این سوگیری وجود دارد؟ آیا من درست فکر می کنم که استقلال خطا از مقدار واقعی به استقلال خطا از مقدار _مشاهده_ که شامل خطا می شود منتقل نمی شود؟ اگر چنین است، آیا راه آسانی برای حداقل توصیف و تصحیح این وابستگی وجود دارد؟ * یک شاخص رایج نابرابری، نسبت میانگین درآمدها در بالاترین پنجک یا دهک به میانگین درآمدها در کمترین است. اگر این میانگین ها مغرضانه باشند، و تعصب تصحیح شود، آیا نسبت های به دست آمده تخمینگرهای بی طرفانه نسبت های واقعی خواهند بود؟
آیا میانگین های نمونه برای چندک داده های مرتب شده، برآوردگرهای بی طرفانه میانگین واقعی هستند؟
8859
من در حال حاضر در حال اجرای یک برنامه طبقه بندی متن با Naive Bayes هستم. من دو مدل چند نامی را در تابع آموزشی خود تولید می‌کنم: p(w|nonSPAM) و p(w|SPAM)) و همچنین یک احتمال قبلی P(S). در تابع آزمایشی، هر سند آزمایشی را مرور می‌کنم، و برای هر سند آزمایشی، تمام شرایط را مرور می‌کنم و logP(nonSPAM|D) و logP(SPAM|D) را محاسبه می‌کنم. سپس با مقایسه این دو مقدار (SPAM = 0 یا nonSPAM = 1) یک تصمیم طبقه بندی می کنم. مشکل من این است: من می‌خواهم یک امتیاز (به عنوان مثال 0.52121) به جای یک احتمال دقیق (0 یا 1) برگردانم، بنابراین می‌توانم از آستانه‌های مختلف در برنامه خود استفاده کنم. آیا محاسبه امتیاز فقط با استفاده از logP(nonSPAM|D) و logP(SPAM|D) و احتمال قبلی P(S) امکان پذیر است؟ من یک سوال مشابه را اینجا پرسیدم اما سوال فعلی من بیشتر به آمار مربوط می شود.
چگونه احتمالات ورود به سیستم را به امتیازات در Naive Bayes تبدیل کنیم؟
41770
چگونه برای کامپیوتر (یا نرم افزار) قابل درک است که یک روش نمونه گیری تصادفی است؟ در واقع در N مورد می توان به روش تصادفی از داده ها نمونه گیری کرد اما یکی از موارد N غیرتصادفی بود! این بدان معناست که داده های نمونه برداری شده به صورت تصادفی مانند غیرتصادفی است. حال، در این مورد، چگونه کامپیوتر متوجه می شود که انتخاب توزیع نمونه بر اساس انتخاب تصادفی است؟ و چرا نمونه گیری تصادفی بسیار مهم است؟ * * * ### ویرایش Ok. با تشکر از پاسخ شما، اما من یک سوال دارم: فرض کنید داده های نمونه شما تقریباً در یک مورد قرار دارند، به عنوان مثال. سن در قد جمعیت بنابراین، شما یک الگو در داده های جمع آوری شده دارید در حالی که من نمونه گیری تصادفی انجام دادم (این یکی از نمونه گیری های تصادفی است). حال، چه چیزی در نمونه‌گیری تصادفی از غیرتصادفی مهم است که داده‌های نمونه‌گیری شده در تحلیل بعدی پذیرفته شوند؟ چرا نمونه گیری تصادفی تا غیرتصادفی مهم است؟
نمونه گیری تصادفی (داده های واقعی) بسیار مهم است، چرا؟
30757
آیا برنامه آماری برای محاسبه توان داده های تولید شده با اختصاص یک امتیاز وجود دارد (الزاماً خطی نیست، یعنی امتیاز 2 ممکن است با دو برابر امتیاز 1 برابر نباشد)
رابطه بین ضخامت انتیما (بر اساس نمره ارزیابی شده) و سن یا وضعیت هورمونی
15454
به دلایل کاملاً شخصی، اخیراً سعی کردم یک اسکریپت روبی بنویسم که اطلاعاتی را در مورد فهرست مدارس مختلف جمع آوری می کرد، تعداد دانش آموزان سال اول تیم را می شمرد و از آن داده ها برای جمع آوری اطلاعات در مورد جوانان نسبی تیم ها بر اساس مقدار واجد شرایط بودن باقی مانده است. تا آنجا که به من مربوط می شود، سن واقعی در اینجا موضوعی نیست. انجمنی که من استفاده کردم چیز ساده ای بود: واجد شرایط بودن = (FR * 4) + (SO * 3) + (JR * 2) + میانگین SR = واجد شرایط بودن / (FR + SO + JR + SR) به هر حال، این بدیهی است که واقعاً ساده است. فرمول به هیچ عاملی اهمیت نمی دهد و تعداد کل واجد شرایط بودن واقعاً چیزی به من نمی گوید. می خواستم بدانم آیا کسی ایده بهتری برای تحقق بخشیدن به یک فرمول برای این موضوع دارد؟ من مطمئن نیستم که آیا این انجمن برای این نوع سؤالات است یا خیر، اما روز گذشته به راه حل علاقه مند شدم و فکر کردم که این ممکن است مکان خوبی برای جستجوی پاسخ باشد.
فرمول مقایسه جوانان گروه های مختلف؟
38963
قدرت شکستن در پوند پنج نمونه طناب 660، 460، 540، 580 و 550 بود.
چگونه می توان 5 درصد نقطه شکست یک نمونه طناب را تخمین زد؟
41778
من دو مجموعه داده با PDF تقریباً شبیه این دارم: $$ p(x) = \left\\{ \begin{array}{lr} 0.75 & x = 0\\\ \text{Lomax}(x) و x > 0 \end{array} \right. $$ یعنی پیوسته است، با این تفاوت که تعداد زیادی نقطه در $x=0$ وجود دارد. من می خواهم بگویم که آیا مقادیر در یک مجموعه کمتر از دیگری است یا خیر. با این حال، پیوندهای زیادی در داده های من وجود دارد، که آن را به نوعی سخت می کند. به من پیشنهاد شد که کاری انجام دهم: bootstrap a bunch و اگر فاصله اطمینان 95% x کمتر از y باشد (همانطور که Mann-Whitney U تعیین کرده است)، ما X<Y$ را اعلام می کنیم. از تعریف U واقعاً مشخص نیست که من در مورد کراوات چه می کنم. به نظر می‌رسد «wilcox.test» در R آنها را به طور یکنواخت می‌شکند، به عنوان مثال. هنگام مقایسه $(0,0)$ با $(0,0)$ می گوید $U=2$. (به نظر می رسد این رفتار با مستندات آن در تضاد است، هرچند که می گوید تعداد همه جفت ها (x[i], y[j]) را که y[j] بیشتر از x[i] نیست را برمی گرداند.) در حال شکستن آنهاست. به طور مساوی کار درستی برای انجام اینجا؟ من نگران هستم زیرا کسر عظیمی از پیوندها دارم که شهود من در مورد فاصله اطمینان 95٪ در واقع با 95٪ از نمونه های من مطابقت ندارد.
تست من ویتنی با کراوات
12955
مجموعه ای از اندازه گیری های روزانه وجود دارد. زمان و مقادیر اندازه گیری شده هر دو گسسته هستند. می‌خواهم بدانم آیا مقادیر اندازه‌گیری شده به روز اندازه‌گیری بستگی دارد یا اینکه آیا اندازه‌گیری‌ها کاملاً تصادفی هستند. به عبارت دیگر، می خواهم بدانم آیا می توان مقادیر اندازه گیری شده یک روز خاص را پیش بینی کرد یا خیر؟ * چه موضوعاتی از آمار را باید مطالعه کنم تا بتوانم این مشکل را حل کنم؟ لطفا چند کلمه کلیدی یا جهت به من بدهید. **ویرایش** برخی اطلاعات بیشتر. وضعیت زیر را تصور کنید. یک ماشین هر روز یک حرف (به سادگی یک بایت) انتخاب می کند و آن را روی صفحه نمایش می دهد. فرآیندی که برای انتخاب حرف روزانه استفاده می شود ناشناخته است، اما به وضوح الگوریتمی است (سرعت باد را اندازه گیری نکنید یا افراد در اتاق را بشمارید یا موارد مشابه). شخصی بخشی از نامه روزانه را در یک دوره زمانی جمع آوری کرد و اکنون می خواهد بفهمد آیا امکان تولید نامه روزانه بعدی (یا هر کدام) وجود دارد یا خیر. برخی از روش‌هایی که احتمالاً توسط ماشین استفاده می‌شوند، «سخت» (یا تصادفی) در نظر گرفته می‌شوند. به عنوان مثال از یک کلید مخفی برای رمزگذاری تاریخ جاری استفاده کنید (پیش بینی حرف بعدی در بیشتر موارد معادل ترمز کردن رمزگذاری خواهد بود). بقیه آسان در نظر گرفته می شوند، به عنوان مثال xor از تمام بایت ها در نمایش تاریخ. اگر روش تصادفی باشد، امیدی به تولید حرف روزانه بعدی نیست.
چگونه بفهمیم مجموعه ای از اندازه گیری های روزانه تصادفی هستند یا نه؟
37761
توزیع دوجمله ای منفی به یک مدل محبوب برای داده های شمارش (به ویژه تعداد مورد انتظار خواندن توالی در یک منطقه معین از ژنوم از یک آزمایش معین) در بیوانفورماتیک تبدیل شده است. توضیحات متفاوت است: * برخی آن را به عنوان چیزی توضیح می دهند که مانند توزیع پواسون عمل می کند، اما دارای یک پارامتر اضافی است که آزادی بیشتری را برای مدل سازی توزیع واقعی، با واریانسی که لزوماً برابر با میانگین نیست، می دهد * برخی آن را به عنوان مخلوط وزنی از توزیع های پواسون توضیح می دهند. (با توزیع اختلاط گاما بر روی پارامتر پواسون) آیا راهی برای مربع این منطق ها با تعریف سنتی توزیع دو جمله ای منفی به عنوان مدل سازی تعداد موفقیت های آزمایش برنولی قبل از دیدن تعداد معینی از شکست؟ یا باید این را به عنوان یک تصادف خوشحال کننده در نظر بگیرم که مخلوط وزنی از توزیع های پواسون با توزیع اختلاط گاما، تابع جرم احتمالی مشابه دو جمله ای منفی را دارد؟
قاب بندی توزیع دوجمله ای منفی برای توالی یابی DNA
12484
من یک نقطه (x,y) دارم که به یک رگرسیور خطی برای عبور از یک مجموعه داده (X,Y) نیاز دارم. چگونه این را در R پیاده سازی کنم؟
رگرسیون خطی محدود از طریق یک نقطه مشخص
6964
من فقط یک برنامه ارائه شده توسط فروشنده را اجرا کردم که داده ها را از فرمت باینری اختصاصی آنها به چیزی که آنها فرمت Matlab می نامند تبدیل می کند. دو فایل حاصل از تبدیل وجود دارد، یک filename.dat و یک filename.m. به نظر می رسد فایل filename.m اطلاعات سرفصل ستون را در خود دارد. فایل دوم filename.dat بیش از 13 گیگ حجم دارد و در حال حاضر نمی توانم آن را در چیزی بارگذاری کنم تا آن را بررسی کنم. چگونه می توانم این داده های فرمت Matlab را در R بارگیری کنم؟
چگونه داده های فرمت شده برای Matlab را به R بکشیم؟
7061
با توجه به دو بسکتبالیست. جان 38/50 پرتاب آزاد انجام داد. مایک 80/100 پرتاب آزاد انجام داد. احتمال اینکه مایک در پرتاب های آزاد بهتر از جان باشد چقدر است؟
سوال احتمال دو جمله ای
18621
در بحث پس از یک سوال اخیر در مورد اینکه آیا انحراف معیار می تواند از میانگین تجاوز کند، یک سوال به طور خلاصه مطرح شد اما هرگز به طور کامل پاسخ داده نشد. بنابراین من اینجا آن را می پرسم. مجموعه‌ای از $n$ اعداد غیرمنفی $x_i$ را در نظر بگیرید که $0 \leq x_i \leq c$ برای $1 \leq i \leq n$. لازم نیست که $x_i$ متمایز باشد، یعنی مجموعه می تواند چند مجموعه ای باشد. میانگین و واریانس مجموعه به صورت $$\bar{x} = \frac{1}{n}\sum_{i=1}^n x_i، ~~ \sigma_x^2 = \frac{1}{1}{101} تعریف می‌شود. n}\sum_{i=1}^n (x_i - \bar{x})^2 = \left(\frac{1}{n}\sum_{i=1}^n x_i^2\راست) - \bar{x}^2$$ و انحراف استاندارد $\sigma_x$ است. توجه داشته باشید که مجموعه اعداد _نه_ نمونه ای از یک جامعه است و ما میانگین جمعیت یا واریانس جامعه را تخمین نمی زنیم. سپس سؤال این است: > حداکثر مقدار $\dfrac{\sigma_x}{\bar{x}}$، ضریب > تغییرات، در تمام انتخاب‌های $x_i$ در بازه $[0 چقدر است. ,c]$ حداکثر مقداری که می توانم برای $\frac{\sigma_x}{\bar{x}}$ پیدا کنم $\sqrt{n-1}$ است که زمانی به دست می آید که $n-1$ از $x_i$ دارای مقدار $0 باشد. $ و باقیمانده (پرت) $x_i$ دارای ارزش $c$ است، که $$\bar{x} = \frac{c}{n}،~~ \frac{1}{n}\sum x_i^2 = \frac{c^2}{n} \Rightarrow \sigma_x = \sqrt{\frac{c^2}{n} - \frac{c^2}{n^2}} = \frac{c}{n }\sqrt{n-1}.$$ اما این به هیچ وجه به $c$ بستگی ندارد، و من نمی دانم که آیا مقادیر بزرگتر، احتمالاً وابسته به $n$ و $c$، می تواند باشد. به دست آورد. هر ایده ای؟ من مطمئن هستم که این سؤال قبلاً در ادبیات آماری مورد بررسی قرار گرفته است و بنابراین اگر نتایج واقعی نباشد، مراجعات بسیار قابل تقدیر خواهند بود.
حداکثر مقدار ضریب تغییرات برای مجموعه داده های محدود
12953
من در حال حاضر سعی در شبیه سازی مقادیر متغیر تصادفی $N$-بعدی $X$ دارم که دارای توزیع نرمال چند متغیره با میانگین بردار $\mu = (\mu_1,...,\mu_N)^T$ و ماتریس کوواریانس $ است. S$. من امیدوار هستم که از روشی مشابه روش CDF معکوس استفاده کنم، به این معنی که می خواهم ابتدا یک متغیر تصادفی یکنواخت $N$-بعدی $U$ ایجاد کنم و سپس آن را به CDF معکوس این توزیع وصل کنم تا مقدار $ تولید شود. X$. من با مشکلاتی روبرو هستم زیرا رویه به خوبی مستند نشده است و تفاوت های جزئی بین تابع mvnrnd در متلب و توضیحاتی که در ویکی پدیا پیدا کردم وجود دارد. در مورد من، من همچنین پارامترهای توزیع را به صورت تصادفی انتخاب می کنم. به طور خاص، من هر یک از میانگین ها، $\mu_i$، را از توزیع یکنواخت $U(20،40)$ تولید می کنم. سپس ماتریس کوواریانس $S$ را با استفاده از روش زیر می سازم: 1. یک ماتریس مثلثی پایین تر $L$ ایجاد کنید که در آن $L(i,i) = 1$ برای $i=1..N$ و $L(i، j) = U(-1,1)$ برای $i < j$ 2. اجازه دهید $S = LL^T$ که در آن $L^T$ نشان دهنده جابجایی $L$ است. این روش به من اجازه می دهد تا مطمئن شوم که $S$ متقارن و قطعی مثبت است. همچنین یک ماتریس مثلثی پایین‌تر $L$ ارائه می‌کند تا $S = LL^T$، که به اعتقاد من برای تولید مقادیر از توزیع لازم است. با استفاده از دستورالعمل‌های موجود در ویکی‌پدیا، من باید بتوانم مقادیر X$$ را با استفاده از یکنواختی $N$-بعدی به صورت زیر تولید کنم: * $X = \mu + L * \Phi^{-1}(U)$ مطابق با با این حال، تابع MATLAB معمولاً به صورت زیر انجام می شود: * $X = \mu + L^T * \Phi^{-1}(U)$ که در آن $\Phi^{-1}$ CDF معکوس است یک توزیع $N$-بعدی، قابل جداسازی و نرمال، و تنها تفاوت بین هر دو روش صرفاً استفاده از $L$ یا $L^T$ است. آیا متلب یا ویکی پدیا راه خوبی است؟ یا هر دو اشتباه هستند؟
تولید مقادیر از یک توزیع گاوسی چند متغیره
30754
من از کتاب درسی خواندم که _خودکواریانس می تواند به طور کامل سری زمانی _ توزیع مشترک را مشخص کند، من در اینجا ارتباط بین کوواریانس و توزیع مشترک را کاملاً درک نمی کنم. لطفا برای من توضیح دهید، کسی؟
چرا خودکوواریانس ها می توانند به طور کامل یک سری زمانی را مشخص کنند؟
33224
روش صحیح تفسیر نمودار تغییر نقطه چیست؟ این چیزی است که R برای تجزیه و تحلیل نقطه تغییر میانگین یک مجموعه داده نشان می دهد: ---------- نوع نقطه تغییر: تغییر در میانگین روش تجزیه و تحلیل: AMOC توزیع فرضی: عادی نوع جریمه: SIC با مقدار، 4.770685 حداکثر شماره از cpts : 1 مکان های تغییر نقطه : 15 118 پس تغییرات در t=15 و t = 118 رخ داده است؟
چگونه نمودار نقطه تغییر را تفسیر می کنید؟
40794
فرض کنید من 20 نفر در 10 جفت همسان هستند. فرض کنید دو پزشک به طور تصادفی برای تشخیص یک نفر در هر جفت تعیین شده اند، بنابراین در هر جفت هر فرد توسط پزشک دیگری تشخیص داده می شود. فرض کنید هر پزشک یک ناقل از علائم را برای هر بیمار گزارش می کند. یعنی پاسخ برای بیمار $i$ که توسط پزشک $j$ تشخیص داده شده است، گزارشی است $x_{ij}=(a,b,c,)^T$ که در آن هر عنصر تعداد موارد شرایط a,b را گزارش می‌کند. یا c در بیمار $i$ مانند $x_{ij}=(2,5,0)$. از آنجایی که پزشکان به طور تصادفی به بیماران اختصاص داده می شوند، انتظار داریم میانگین گزارش $x_{.j}=(\bar{a},\bar{b},\bar{c})^T$ در بین پزشکان یکسان باشد _if_ هر دو پزشک توانایی تشخیصی یکسانی دارند. چگونه می توانم تهی را آزمایش کنم که هر دو پزشک توانایی تشخیصی یکسانی در برابر جایگزینی دارند که از جهاتی با هم تفاوت دارند؟
آزمایش همگنی حاشیه ای با نتایج چند متغیره و جفت های همسان
70909
درک من این است که اگر شما (1) مجموعه داده آزمایشی به اندازه کافی بزرگ دارید، و (2) مدل های شما دارای احتمال یکسانی هستند (فرض نویز)، پس باید احتمال مدل (یا احتمال ورود به سیستم) را در داده های آزمایشی مقایسه/انتخاب کنید. ، توسط AIC/BIC/DIC/و غیره تنظیم نشده است. آیا توجیهی برای تنظیم احتمال شما برای مجموعه داده آزمایشی (یا اعتبارسنجی متقابل) برای انتخاب مدل وجود دارد؟ بهترین روش زمانی که چنین مجموعه داده آزمایشی در دسترس است چیست؟
مقایسه مدل ها بر روی داده های آزمون
40790
**داده** من یک نمونه 50 در گروه A و 50 در گروه B دارم که گروه A و B بی همتا هستند. هر نمونه در گروه A و گروه B دارای دو فرکانس مرتبط با آن است که من آنها را $x$ و $y$ می نامم. هیستوگرام $x_{A}$ نشان می دهد که به وضوح گوسی است و آزمایش شاپیرو این را تایید می کند. با این حال، توزیع $x_{B}$ - طبق آزمون شاپیرو - گاوسی نیست (p<0.01). برای $y$، توزیع‌های گروه A و گروه B به وضوح گاوسی نیستند، اما هر دو بیشتر دارای یک توزیع گاما یا وایبول هستند (مطمئن نیست که کدام یا مهم است). **هدف** من می خواهم بتوانم بگویم که آیا تفاوت در $x_{A}$ و $x_{B}$ (همانطور که توسط برخی از آمارهای آزمایشی تعیین می‌شود) مهم‌تر است (p-value کمتر) از تفاوت بین $y_{A}$ و $y_{B}$. **افکار** در حالت ایده‌آل، برای اینکه مقدار p را از تست با $x$ و مقدار p را از تست با $y$ قابل مقایسه کنیم، فکر می‌کنم که همان آزمون آماری مورد نیاز است. من می دانم که وقتی اسپردها/توزیع های $x_{A}$ و $x_{B}$ (و به طور مشابه برای $y$ یکسان هستند، می توانم از آزمون Mann Whitney استفاده کنم. با این حال، اسپردها (همانطور که در بالا توضیح داده شد بنابراین، آیا می توانم نوعی تبدیل داده ها را انجام دهم و یک آزمون t انجام دهم، یا باید از یک آزمون کولموگروف اسمیرنوف 2 نمونه استفاده کنم _k_ -مورد نمونه؟
آزمون آماری برای نمونه های دو عاملی توزیع ناهمگن
8152
من چند سوال در مورد انتساب چندگانه برای داده های تودرتو دارم. زمینه: من اندازه‌گیری‌ها را (4 بار) از یک نظرسنجی تکرار کرده‌ام و اینها در محل کار (205 محل کار) دسته‌بندی شده‌اند. حدود 180 مورد در این نظرسنجی وجود دارد. q1. آیا می توان هم اقدامات مکرر و هم خوشه بندی محل کار را در نظر گرفت یا باید برای یکی از این دو تصمیم گرفت؟ q2. اگر فقط بتوانم یکی از دو خوشه بندی را در نظر بگیرم (اقدامات مکرر در مقابل محل کار) کدام یک را توصیه می کنید q3. من حدود 10000 مشاهده دارم و حدود 400 مورد از آنها دارای مقادیر گمشده برای محل کار هستند. در این مورد چه کاری را توصیه می کنید؟ (همچنین باید اشاره کنم که 205 محل کار در 17 سازمان تودرتو هستند - در حال حاضر از دسته بندی های کلی بر اساس سازمان استفاده می کنم: به عنوان مثال سازمان 1- طبقه بندی نشده). آیا راه معناداری برای تلقی واقعی این دسته بندی ها وجود دارد؟ q4. آیا توصیه می کنید از تمام 180 مورد برای انتساب یا مواردی که من قصد استفاده از آنها را در هر یک از مدل های خود دارم استفاده کنید؟ من از R برای تجزیه و تحلیل استفاده می کنم و اگر بتوانید هر بسته ای را برای انتساب چندگانه برای داده های خوشه ای توصیه کنید بسیار قدردانی خواهد شد. پیشاپیش ممنون
انتساب چندگانه برای داده های خوشه ای
8157
من باید بردارهای تصادفی اعداد حقیقی a_i ایجاد کنم که محدودیت های زیر را برآورده کنند: abs(a_i) < c_i; sum(a_i)< A; # مجموع عناصر کوچکتر از A sum(b_i * a_i) < B; # مجموع وزنی کوچکتر از B aT*A*a <D # ضرب درجه دوم با A کوچکتر از D است که در آن c_i، b_i، A، B، D ثابت هستند. الگوریتم معمولی برای تولید موثر این نوع بردار چه خواهد بود؟
تولید بردارهای تصادفی با قیود
72686
می خواستم بدانم آیا می توان روش آزمون فرضیه را در زندگی واقعی اعمال کرد؟ برای مثال اگر کسی بتواند از آن برای تصمیم گیری استفاده کند. من همیشه از این روش برای مشکلات تکالیف استفاده کرده ام اما شاید بتوانیم از این روش به عنوان کمکی در تصمیم گیری استفاده کنیم. بنابراین می‌توانیم به نحوی به‌عنوان مثال، احتمال رد اشتباه یک تصمیم جایگزین را بدانیم. نظر شما در مورد آن چیست؟ و اگر کسی فکر می‌کند که می‌توان این کار را انجام داد، خوب خواهد بود.
آزمون فرضیه در زندگی واقعی اعمال می شود
70906
من قدردان هر گونه بینش یا ارجاع به تحقیق در مورد موارد زیر هستم: فرض کنید یک فضای متریک گسسته با توزیع احتمال روی آن دارید. همچنین، فرض کنید که به من یک عدد $k$ داده شده است. مشکل من پیدا کردن توپ با بیشترین احتمال است. **توپ** مجموعه تمام نقاطی است که فاصله آنها از یک نقطه معین کمتر یا مساوی $k$ باشد و احتمال توپ فقط مجموع احتمالات این مجموعه نقاط است. حالت پیوسته (در مورد من کمتر جالب است، اما به طور بالقوه مفید است) داشتن یک توزیع احتمال روی $R^n$، یافتن توپ n با بالاترین انتگرال هنگام ادغام تابع چگالی در $n$-ball است. . این مشکل انتزاعی از یک مسئله عملی است که من سعی می کنم آن را حل کنم. حل حالت خاص $k=0$ (مثلاً در این حالت یک توپ فقط یک نقطه است) فقط حالت توزیع است. حالت کلی برای مثال در مسئله پیش‌بینی زیر به وجود می‌آید: فرض کنید می‌خواهید رویدادهای دودویی مستقل $n$ را «پیش‌بینی کنید». بنابراین هر پیش‌بینی یک $n$-tuple باینری است (با توزیع احتمال تحمیل شده بر آن فضا، برای مثال، بر اساس فرضیات، داده‌های قبلی و غیره). حال فرض کنید اجازه دارید در پیش بینی خود چند اشتباه داشته باشید و سعی کنید پیش بینی ای بیابید که احتمال موفقیت را به حداکثر برساند (یعنی اشتباه نکردن زیاد). راه حل دقیقاً یک توپ n بعدی در فضای n تاپلی با متریک همینگ است. هر ایده، بینش، یا ارجاع به تحقیقات مرتبط بسیار قدردانی خواهد شد.
پیدا کردن توپ های با بیشترین احتمال
86730
از ویکی پدیا برای AR(p)، p آن را می توان از جایی تخمین زد که نمودار تابع خودهمبستگی جزئی نمونه (PACF) صفر می شود. برای MA(q)، q آن را می توان از جایی تخمین زد که نمودار تابع خودهمبستگی نمونه (ACF) صفر می شود. برای ARMA(p,q)، p > 0 و q > 0، ACF و PACF آن هر دو در حال فروپاشی هستند اما به صفر نمی رسند. آیا p و q آن را می توان از ACF و PACF آن تخمین زد؟ با تشکر
آیا p و q در ARMA(p,q) را می توان از ACF و PACF آن تخمین زد؟
86732
من مجموعه داده خود را به تست و اعتبار سنجی (تقسیم 50-50) تقسیم کردم. من تابع glm (link=دوجمله ای) را روی مجموعه داده تست اجرا کردم و تخمین پارامترها را دریافت کردم. چگونه می توانم مجموعه داده اعتبارسنجی را بر اساس این تخمین های پارامتر (بتا) که از مجموعه داده آزمایشی به دست آوردم، امتیاز دهم. می دانم که ربطی به application () دارد اما مطمئن نیستم. لطفا راهنمایی کنید
پایگاه داده اعتبارسنجی امتیازدهی بر اساس برآوردهای پایگاه داده آزمون در R
40799
برای متغیرهای تصادفی مستقل $ x_1,..,x_n$ و $y_1,...,y_n$ پس از توزیع نرمال $N(0,1)$، من به یک فرمول تخمینی ساده برای $P(| \sum_1^n x_iy_i نیاز دارم. |. \leq nt ) \leq e^{(?)}$ برای $t>1$. با تشکر
نابرابری دنباله روی مجموع حاصلضرب متغیرهای نرمال
12488
من یک کمپین تبلیغاتی در فیس بوک راه اندازی کردم و برداشت ها (بازدید از تبلیغات)، کلیک ها و ثبت نام ها بر اساس جنسیت و سن تقسیم شده است. برخی از جمعیت‌شناسی‌ها در مقایسه با درصد برداشت‌های مربوطه، نرخ کلیک و ثبت‌نام بیشتری دارند. بهترین راه برای تعیین اینکه آیا این تفاوت ها نتایج قابل توجهی را به جای نویز تصادفی نشان می دهند چیست؟ من سعی می کنم ببینم سن و جنسیت چگونه ثبت نام را پیش بینی می کند.
محاسبه احتمال اینکه روندهای جمعیتی به طور تصادفی اتفاق افتاده است
40795
من می دانم که تحلیل رگرسیون گام به گام دارای محدودیت های زیادی است، از جمله این فرض که پیش بینی کننده ها با یکدیگر همبستگی زیادی ندارند. در واقع، این محدودیت مهمترین دلیلی بود که من به الاستیک نت روی آوردم، زیرا در مدل خود 75 پیش بینی کننده داشتم که برخی از آنها همبستگی بالایی دارند. با استفاده از Elastic Net، می‌توانم پیش‌بینی‌کننده‌های خود را به ۲۱ کاهش دهم. من از این ۲۱ متغیر انتخاب شده در یک مدل رگرسیون چند خطی استفاده کردم و ضریب تعیین را محاسبه کردم ($R^2=0.58$). با این حال، زمانی که من از تجزیه و تحلیل Stepwise بر روی همان داده ها استفاده کردم، تنها 11 متغیر انتخاب شدند، در حالی که R-square ثابت ماند! آیا به این معنی است که نتایج من از تجزیه و تحلیل Stepwise می تواند نسبت بیشتری از نتیجه من را توضیح دهد؟ اگر چنین است، چگونه می توانم محدودیت های تجزیه و تحلیل Stepwise را بر روی Elastic Net توجیه کنم وقتی نتایج بهتری دریافت می کنم؟
رگرسیون گام به گام در مقابل توری الاستیک
12958
در حالی که داده های مزمن رشد جمعیت (کاربران ثبت نام شده یک سایت) را دارم، می خواهم تابعی را محاسبه کنم که رشد آینده را بر اساس داده های گذشته تقریبی کند. همچنین، توزیع آن تابع چگونه خواهد بود؟ توزیع بین ورودی ها بین ثبت نام های متوالی چگونه است.
پیش بینی توزیع داده های سری زمانی؟
40792
من 18 رگرسیون اکتشافی را اجرا می‌کنم و می‌خواهم بدانم که مقدار p دقیق بونفرونی چقدر خواهد بود. 9 رگرسیون رگرسیون دو جمله ای منفی با 4 متغیر پیش بینی هستند، 9 رگرسیون دیگر رگرسیون WLS با 6 متغیر پیش بینی هستند. این ارتباط ها هنوز کشف نشده اند (متغیرهای وابسته من به جای نمرات مجموع بالینی، آیتم های پرسشنامه بالینی هستند، ما به دنبال ناهمگونی هستیم). مطمئنم به اطلاعات بیشتری نیاز است، و خوشحال می‌شوم اگر بتوانید مستقیماً به من کمک کنید (من با کمال میل تمام اطلاعات لازم را ارائه می‌دهم) یا به من در ادبیاتی اشاره کنید که یک فرد غیرآمار را قادر می‌سازد خودش محاسبه را انجام دهد. من می دانم که Bonferroni بسیار سختگیر است و قصد ندارم واقعاً آن را در تجزیه و تحلیل های خود اعمال کنم - من قصد دارم از 0.01 به عنوان خطای نوع I برای تشخیص تأثیرات مهم استفاده کنم (و از بازخورد تشکر می کنم). متغیرهای وابسته من اساساً همبستگی دارند (بین 0.3 و 0.6)، اما من حداقل می‌خواهم مقدار p-value را در مقاله ارائه دهم و در مورد اینکه چرا این مقدار بیش از حد محافظه‌کار است بحث کنم.
Strict Bonferroni - به دنبال مقدار p
33225
من یک تازه کار آمار هستم و برای مشکل زبان طبیعی به کمک نیاز دارم. من در حال نوشتن یک الگوریتم پیش بینی کلمه برای یک برنامه تلفن همراه هستم. من از یک مدل زبان unigram از جفت‌های کلمه/شمار استفاده می‌کنم که در آن _count_ تعداد دفعاتی است که _word_ در یک پیکره ظاهر می‌شود. الگوریتم با مجموعه ای از کلمات و احتمالات از قبل بارگذاری شده است، _اما باید احتمالات را نیز به روز کند و کلمات جدید را همانطور که کاربر تایپ می کند یاد بگیرد. در اینجا نمونه ای از جدول از پیش بارگذاری شده است: تعداد کلمات ---------- ------- شما 1222421 من 1052546 823661 به 770161 a 563578 و 480214 ... spangles 5 moustached 5 The الگوریتم پیش‌بینی به اندازه کافی ساده است (پیش‌بینی‌ها را با نزول _count_ رتبه بندی کنید ). سوال من این است **چگونه این جدول را به روز کنیم تا الگوریتم با تایپ کاربر _به سرعت_ یاد بگیرد**. اگر من به سادگی کلمات جدید را با تعداد 1 اضافه کنم و با هر بار استفاده یک عدد افزایش دهم، الگوریتم خیلی کند یاد می گیرد. برای مثال، فرض کنید کاربر بیشتر از «the» «to» را تایپ می کند. قبل از اینکه به از the برتری داشته باشد، بیش از 50000 استفاده لازم است. این یادگیری کند است! به طور مشابه، فرض کنید نام کاربر اندی است و بنابراین او آن کلمه را بیشتر از هر چیز دیگری تایپ می کند. او باید نزدیک به نیم میلیون بار «اندی» را تایپ کند تا از «و» پیشی بگیرد! **چگونه احتمالات جدید را محاسبه کنم به طوری که صدها هزار استفاده از کلمه برای ایجاد تفاوت لازم نباشد؟** P.S. بهره وری محاسباتی بسیار مهم است زیرا این برای یک برنامه تلفن همراه است. ببخشید اگه زیاد میخوام! پیشاپیش متشکرم
چگونه یک مجموعه داده مدل زبان پویا را به روز کنیم؟
86731
ما اطلاعات فیشر یک تابع احتمال ورود به سیستم را برای یک پارامتر خاص در این فرآیند ارزیابی می کنیم. چگونه می توان انتظار مشتق دوم تابع log درستنمایی را با توجه به یک پارامتر خاص داشت؟ هنگام ارزیابی انتظارات از کدام تابع استفاده می شود؟
انتظار اطلاعات فیشر تابع احتمال ورود به سیستم
86735
قبل از تجزیه و تحلیل داده ها، با $\frac{(X-mean)}{std}$، بنابراین متغیرهای جدید دارای میانگین 0 و واریانس 1 هستند و سپس متغیرهای مختلف را از آن زمان در مقیاس اندازه گیری یکسانی مقایسه می کنند، سوال من این است: پس از استانداردسازی چه چیزی در مورد داده ها حفظ می شود؟ با تشکر
درباره استانداردسازی متغیرها
8151
آیا راهی برای ایجاد آسان فاکتورها بر اساس چندک متغیرهای انتخاب شده در یک دیتا فریم وجود دارد؟ بگویید، در یک مجموعه داده D، من متغیرهای V1 تا V10 را دارم که همگی عددی هستند. من می خواهم برای V7 تا V10 بر اساس کمیت های مربوطه آنها را ایجاد کنم.
تبدیل چندکی در R
14505
1. فرض کنید که من یک مجموعه داده را با استفاده از Symlet Wavelet با شش سطح تجزیه کرده ام. چگونه می توانم فاصله فرکانس تقریبی هر سطح را تخمین بزنم؟ اگر پاسخ خود را در محیط Mathematica در نظر بگیرید عالی خواهد بود. 2. اگر مجموعه داده بالا میدان سرعت آشفته را توصیف می کند، چگونه می توانم تصمیم بگیرم که سرعت توده تا کدام سطح باشد؟ باید نوسانات آشفته را از میانگین جدا کنم. فرکانس نمونه برداری 1 هرتز و مدت زمان مشاهده 25 ساعت می باشد.
فرکانس فیلتر موجک
69671
من یک سوال بسیار مبتدی در مورد ضرایب لاجیت دارم. من سعی می کنم پیش بینی کنم که تیم میزبان هر چند وقت یک بار در یک بازی بسکتبال پیروز می شود. من یک تحلیل رگرسیون بسیار شبیه به آنچه در این صفحه وجود دارد انجام دادم و در زیر متغیرها و ضرایب آنها وجود دارد. من یک رگرسیون لجستیک انجام نداده ام و مطمئن هستم که چگونه از ضرایب برای پیش بینی استفاده کنم. home_cumORTG 0.0766 away_cumORTG -0.0891 home_cumDRTG -0.1029 away_cumDRTG 0.0690 intercept 5.7061 فرض کنید تیم میزبان و میهمان هر دو امتیاز تهاجمی و دفاعی 105 دارند، احتمال برد تیم میزبان چقدر است؟ این بهترین حدس من در مورد نحوه انجام آن است اما امیدوارم درست نباشد زیرا اگر اینطور باشد داده های من خوب نیست. شانس = 105 * 0.0766 + 105 * -.0891 + 105 * -.1029 + 105* 0.0690 + 5.7061 شانس / (1+شانس) خروجی 0.45477345837195365 به دلیل اینکه تیم به طور مساوی بازی می‌کند اشتباه است. تیم پیروز خواهد شد کمتر از نیمی از مواقعی که در واقعیت تیم میزبان بیش از 60 درصد مواقع پیروز می شود. ویرایش فکر می‌کنم اینطوری باید باشد 1/(1+(1/ math.exp(5.7061 + 105 * 0.0766 + 105 * -.0891 + 105 * -.1029 + 105* 0.0690)))
پیش بینی با ضرایب لاجیت
43214
ایده اصلی که من سعی می کنم این است که داده ها را با تحلیل عاملی مدل کنم، **با فرض ساختار متغیر پنهان** که زیربنای مشاهدات است. برچسب‌هایی برای ناهنجاری‌های «واقعی» در دسترس هستند و برای اعتبارسنجی استفاده می‌شوند. نکته مهم دیگر این است که داده ها ماهیت بسیار گاوسی ندارند. سپس، نمایش مشاهدات بر روی زیرفضای جدید یافت شده، و **جستجوی نقاط پرت** \- یعنی یافتن مشاهداتی که از ساختار زیربنایی منحرف می‌شوند، با این فرض که ناهنجاری‌های مورد نظر من در آنجا شایع‌تر خواهند بود. با استفاده از _factanal_ در R، با چرخش های _varimax_ (یا _oblimin_)، با نتیجه زیر مواجه شدم که در مورد آن مطمئن نیستم: * هنگام نمایش داده های **نرمال شده** (نمره z) با استفاده از مدل FA یافت شده، طبقه بندی/ تشخیص ضعیف است. اما از آنجایی که فکتانال داده ها را از قبل مقیاس می کند، من معتقدم این راه درست است(؟) * هنگام نمایش داده های **اصلی** (غیر عادی) با استفاده از همان مدل FA، تشخیص بسیار بهبود می یابد. آیا این می تواند به دلیل نمایش مشاهدات در یک زیرفضا باشد که واریانس کم و توزیع عادی تر را فرض می کند و در نتیجه هر نقطه غیرعادی را تشدید می کند؟ از کمک / بینش در مورد آنچه که از دست داده ام سپاسگزارم! متشکرم. **به روز رسانی:** \- LX طبقه بندی بسیار بهتری نسبت به LX* ارائه می دهد، جایی که L ماتریس بارگذاری، X ماتریس داده و X* ماتریس داده استاندارد شده است. LX همچنین طبقه بندی بهتری نسبت به موارد زیر دارد. https://stat.ethz.ch/pipermail/r-help/2002-April/020278.html آیا تبدیل LX می تواند مربوط به LDA باشد؟
تشخیص ناهنجاری بدون نظارت با تحلیل عاملی (در R)
43213
همانطور که ممکن است برخی از شما در حال حاضر، آزمون های آماری مختلفی در کار یافتن همنشینی در متن داده شده (یا یک سند یا مجموعه متون) استفاده می شود. مجذور کای، آزمون t، نسبت درستنمایی (با توزیع دو جمله ای فرض شده). این تست‌ها برای بررسی اینکه آیا دو کلمه با هم به طور قابل‌توجهی بیشتر اتفاق می‌افتند استفاده می‌شود که جدای از یکدیگر، به این ترتیب قدرت هم‌سازی اندازه‌گیری می‌شود. A-a-به هر حال، یک کار خوب این است که دست خود را روی مجموعه بزرگی از متون قرار دهید و جداول احتمالی (یا فقط بسامدها، واقعاً) همه بیگرام ها (دو کلمه) و یونیگرام ها (یک کلمه، بدیهی است) را از این مجموعه ذخیره کنید. ما به این پس زمینه اطلاعات می گوییم. مقدمه‌ای کوچک برای شما، اکنون به قسمت اصلی: وقتی متنی را دریافت می‌کنید (آن را پیش‌زمینه می‌نامید)، همه بیگرام‌ها را از آن استخراج می‌کنید و باید تصمیم بگیرید که آیا این یک ترکیب است یا فقط چند جفت کلمه، مانند از یا «و بله» که در این متن خاص هیچ معنایی ندارند و اصلاً مهم نیستند. حال، به این سؤال: وقتی به یک بیگرام برخورد می کنید که در واقع در پس زمینه دیده شده است، به این معنی است که هر دو یونیگرام آن را می توان در پس زمینه پیدا کرد، همه فرکانس ها سر جای خود هستند، هر چیز دیگری یک تکه کیک است. اما اگر این بیگرام قبلا هرگز اتفاق نیفتاده باشد چه؟ تنها جایی که می‌توانیم آن را در پیش‌زمینه پیدا کنیم، اما اطلاعات کافی برای استنباط قدرت توزیع و ترکیب وجود ندارد. منظورم این است که شما می توانید هر یک از این تست های آماری را در جدول پیش زمینه احتمالی اعمال کنید، اما اینطور نخواهد بود، می دانید؟ فکر می کنم چندان قابل اعتماد نیست. بنابراین، در نهایت، به خود سوال، هر دو بخش آن: 1) با بیگرام هایی که هرگز در مجموعه پس زمینه رخ نداده اند، چه باید کرد (و هر دو یونیگرام نیز وجود ندارند، فقط دو کلمه که قبلاً ندیده ایم) 2 ) با بیگرام هایی که فقط یک قسمت از آنها در پیکره پس زمینه رخ داده است چه باید کرد؟ 3) با بیگرام هایی که هرگز در پیکره پس زمینه وجود نداشته اند، اما هر دو کلمه از آن در پیکره پس زمینه وجود دارند، چه باید کرد؟ چگونه می توان آن را صاف کرد، بنابراین می توان برای همه این موارد امتیازاتی از قدرت ترکیب ایجاد کرد و حداقل کمی قابل اعتماد بود. پیشاپیش از شما متشکرم، اگر هدف این بخش خاص از stackexchange را اشتباه متوجه شده ام، این سوال را به هر سایتی که مناسب است ارسال کنید. _**UPD_**: نهمین تلاش من برای ارسال آن با متن سوال بریده شده به پایان رسید، متاسفم، اکنون دست نخورده است.
ترکیب جداول احتمالی مشتق شده از مجموعه داده های پس زمینه و پیش زمینه
43210
آیا منابع خوبی (مقاله یا کتاب) برای استنتاج نظری در مدل رگرسیون دمینگ می شناسید؟ **ویرایش:** من در مورد نکته ای در تکنیک های رگرسیون مقاله ریپلی و تامپسون برای تشخیص سوگیری تحلیلی کمی نگران بودم. من این فرصت را برای به اشتراک گذاشتن توضیحاتم در نظر می گیرم (از @Procrastinator برای کمکش تشکر می کنم) مدل فرضی $x_i = u_i + \delta_i$ و $y_i = v_i + \epsilon_i$ است که در آن $u_i$ و $v_i=\alpha+\beta است. u_i$ اعداد ثابتی هستند و عبارات خطای $\delta_i$ و $\epsilon_i$ مستقل هستند. این معمولاً مدل رابطه عملکردی نامیده می شود. برای بررسی کامل مدل رابطه عملکردی، مقاله چنگ و نس مدل های ساختاری و عملکردی مورد بازبینی مجدد را ببینید. اما این نیز چیزی نیست جز مدل رگرسیون معروف دمینگ. پس از جایگزینی $x_i-\delta_i$ به جای $u_i$ در عبارت $y_i$، یک $y_i=\alpha+\beta x_i + (\epsilon_i - \beta \delta_i)$ دریافت می کند و ریپلی و تامپسون $y_i=\alpha+ را در نظر می گیرند. \beta x_i + (\epsilon_i - \beta \delta_i)$ به عنوان رگرسیون حداقل مربعات وزنی مدل با متغیر کمکی $x_i$ و عبارت خطای $\epsilon_i - \beta \delta_i$. جمله در صفحه 349 _... نشان دادن وابستگی $y_i$ به $x_i$_ کاملاً نگران کننده است: $x_i$ و $y_i$ در مدل فرضی اصلی مستقل هستند. در واقع نویسندگان در نظر نمی‌گیرند که $y_i=\alpha+\beta x_i + (\epsilon_i - \beta \delta_i)$ یک مدل حداقل مربعات وزنی _valid_ ارائه می‌کند، اما توضیح نمی‌دهند که چرا این مدل معتبر نیست. علت، که به وضوح در مقاله ذکر نشده است، این است که $x_i$ مستقل از عبارت خطای $\epsilon_i - \beta \delta_i$ نیست (من حدس می‌زنم جزئیات بیشتری در مقاله منتشر نشده ریپلی در منابع ذکر شده باشد). در واقع یکی از اهداف این مقاله بحث در مورد اعتبار مدل های تقریبا معتبر است. من همچنان به دنبال مرجعی با ارائه کامل مدل عملکردی و مدل های مرتبط (سازه ای و فراساختاری) هستم. مقاله Cheng & Ness مدل های ساختاری و عملکردی بازبینی شده یک بررسی دقیق خوب در مورد درمان نظری مدل است، اما به سوالات کاربردی تر نمی پردازد.
چه مراجع خوبی برای رگرسیون دمینگ وجود دارد؟
8156
من با نمودارهای میله ای زیادی کار می کنم. به ویژه، این نمودارهای میله ای از تماس های پایه در امتداد بخش هایی از ژنوم انسان هستند. هر نقطه در امتداد محور x یکی از چهار پایگاه نیتروژنی (A، C، T، G) است که DNA را تشکیل می‌دهند و محور y اساساً تعداد دفعاتی است که یک باز می‌تواند فراموش شود (یا توسط یک بازشناخته شود). ماشین توالی‌سنج، به‌منظور توالی‌بندی ژنوم، که به سادگی هویت هر پایه در طول ژنوم را تعیین می‌کند). بسیاری از این نمودارهای میله ای افت های تقریباً خطی (زمانی که دستگاه ها قادر به دریافت عمق خواندن کافی نیستند) را نشان می دهند که از مناطق فلات مانند به 0 یا (تقریباً 0) می رسد. آیا الگوریتم ساده‌ای برای تخصیص امتیاز به این نمودارها وجود دارد که منعکس کننده این تمایل باشد؟ آیا stdev مکان خوبی برای شروع است؟ من یک برنامه نویس هستم اما زیاد آمارگیر نیستم.
ارزیابی کیفیت توالی DNA
14509
من برخی از اندازه‌گیری‌های فیزیولوژیکی دارم که شامل 4 رویداد است که در شرایط در حین کار اندازه‌گیری می‌شوند و قبل و بعد از یک دوره استراحت اندازه‌گیری می‌شوند. من می خواهم آزمایش کنم که نقاط داده بلافاصله قبل از 4 رویداد با خط پایه استراحت، که به عنوان میانگین مقادیر در دوره های استراحت شروع و پایان محاسبه می شود، تفاوتی ندارند. مشکل من این است که از 13 موضوع اندازه گیری دارم، هر جلسه 3 جلسه، هر جلسه شامل 9 بلوک اندازه گیری است. برای اینکه همه داده ها قابل مقایسه باشند، من خط پایه را از مقادیر قبل از هر رویداد کم کردم، به طوری که اکنون آزمون برای همه آنها برابر صفر باشد. با توجه به اینکه توزیع مقادیر نرمال نیست، چگونه باید آزمایشی را در SPSS (PASW v. 18) انجام دهم تا ثابت کنم که در کل این نقاط داده تفاوت قابل توجهی با صفر ندارند و در نتیجه یک آمار گزارش می شود؟
چگونه با استفاده از SPSS تفاوت‌ها را از خط پایه که در آن متغیر وابسته غیرعادی توزیع می‌شود، آزمایش کنیم؟