_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
49676 | من می خواهم یک مدل رگرسیونی برای پیش بینی میزان جرم و جنایت در ایالت ایجاد کنم. دو متغیر در بین 10 (Vi=# جنایات خشونت آمیز به ازای هر 100000 جمعیت، Vi2 = تعداد جرایم خشن به ازای هر 10000 نفر جمعیت) وجود دارد که همبستگی بالایی دارند، زیرا Vi 10 برابر Vi2 است، بنابراین تصمیم گرفتم از همبستگی جزئی استفاده کنم. پس از کنترل Vi2، همبستگی Vi با متغیر وابسته به کمتر از 0.4 کاهش می یابد. آیا O باید Vi2 را از این طریق کنترل کند یا آن را به طور کلی حذف کند؟ آیا باید Vi را حذف کنم؟ همچنین، به طور کلی، اگر _r_ جزئی آنها کمتر از 0.4 باشد (نشان دهنده رابطه ضعیف با متغیر وابسته) یا نیاز به استفاده از روش انتخاب متغیر خودکار برای به دست آوردن مدل نهایی، می توانم آن ها را حذف کنم؟ | همبستگی جزئی |
63198 | من چندین متغیر دارم، برخی از 1 جولای تا 30 ژوئن و بقیه از 1 ژانویه تا 31 دسامبر محاسبه شده اند. حال چگونه می توانم یکی از آنها را به سال مالی یا تقویمی تغییر دهم؟ | چگونه داده های سال مالی را به داده های سال تقویم تبدیل کنیم |
63195 | اجازه دهید $T(y_i,\pmb x_i)$ یک تخمینگر رگرسیون باشد (از اسکالر $y_i$ تا $p$-بردار $\pmb x_i$). وقتی $T$ تخمینگر معمول LS و $\nu\in\mathbb{R}^p$ باشد، داریم که: $$T(y_i+\pmb x_i'\pmb\nu,\pmb x_i)=T(y_i ,\pmb x_i)+\pmb\nu$$ این ویژگی معادل رگرسیون نامیده می شود و تقریباً همان نقشی را در زمینه رگرسیون خطی به عنوان ترجمه ایفا می کند. معادل سازی در زمینه برآوردگرهای چند متغیره انجام می شود. من در این فکر بودم که آیا خاصیت مشابهی (برابر با شکلی از ترجمه) برای رگرسیون لجستیک وجود دارد؟ | معادل معادل رگرسیون در رگرسیون لجستیک؟ |
45578 | دو روش متداول برای آزمایش ثابت بودن یک سری زمانی، تستهای KPSS و ADF هستند. اگر درک من درست باشد، این تستها اساساً با اندازهگیری باقیماندههای برازش سریهای زمانی به یک مدل خودرگرسیون که خطی است، کار میکنند. بنابراین سوال من این است که اگر سری زمانی احتمالاً ماهیت غیرخطی داشته باشد آیا نتایج آزمون های فوق هنوز معتبر هستند؟ | آزمایشات ریشه واحد و ایستایی |
64169 | من M-spline را در R همانطور که در اینجا تعریف شده است پیاده سازی می کنم: http://www.fon.hum.uva.nl/praat/manual/spline.html و در اصل در Ramsay (1988). به طور خلاصه، ما لیستی از گرهها $t$ را تعریف میکنیم که: $0=t_1=...=t_k<t_{k+1}<...<t_{k+m}<t_{k+m+1 }=...=t_{k+m+k}=1$ بنابراین اولین گره های $k$ 0 و آخرین گره های $k$ 1 با گره های داخلی $m$ هستند. خط Mi از مرتبه k با گره t به صورت بازگشتی به صورت زیر تعریف می شود: $M_i(x|1,t) = 1 / (t_{i+1} – t_i)، t_i ≤ x < t_{i+1},$ 0 در غیر این صورت $M_i(x|k,t) = k [(x–t_i)M_i(x|k–1,t) + (t_{i+k}–x)M_{i+1}(x|k–1,t)] / ((k–1)(t_{i+k}–t_i))$ مشکل اینجاست که اگر من میخواهم M-splineهای مرتبه 3 (k=3)، spline $M_1$ و spline $M_{k+m}$ وجود نداشته باشند، زیرا وقتی $M_i(x|k–1,t)$ را محاسبه میکند. تقسیم بر $(t_{i+k}–t_i)$ اما از هم اکنون $k=3-1=2$ و $i=1$ (یا $m+k$)، $(t_{i+k}–t_i) $ $(t_{1+2}–t_1)=0$ است زیرا سه گره اول 0 هستند (همان مورد برای گره آخر). بنابراین به نظر می رسد تعریف مشکل دارد. در اینجا پیاده سازی من در R با مثالی از مشکل است. در اینجا k=3 و m=3. ts = c(0,0,0,0.3,0.5,0.6,1,1,1) Mk = تابع(i,k,x,ts){ if(k==1){ if(ts[i]< =x && x<ts[i+1]){1/(ts[i+1]-ts[i])} else{0} } else{ #print(paste(i,k)) #print((ts[i+k]-ts[i])) k*((x-ts[i])*Mk(i,k-1,x,ts)+(ts[i+k]- x)*Mk(i+1،k-1،x،ts))/((k-1)*(ts[i+k]-ts[i])) } } Mk(1،3،.4 ,ts) توجه داشته باشید که کد من و تعریف به نظر می رسد برای تمام خطوط داخلی کار کنید. با تشکر | پیاده سازی M-spline در R |
49672 | من سعی می کنم چندین مجموعه از داده های آزمایش را با مقایسه میانگین ها مقایسه کنم. من خواندم چندین تست مختلف مانند _Each Pair, Student's t_ و _All Pairs, Tukey HSD_ وجود دارد که دایره های مختلفی را با شعاع های مختلف نشان می دهد، مثالی که در زیر نشان داده شده است دایره ها چگونه تعریف می شوند؟ چگونه شعاع را محاسبه کنم؟ و آیا قانونی وجود دارد که برای چه نوع داده ای باید از چه تستی استفاده کرد؟ | مقایسه بسیاری از معنی ها در JMP |
62281 | احتمال 15 پرتاب آزاد در یک بازی و انجام 10 پرتاب متوالی با توجه به اینکه هر شوت 50 درصد احتمال ورود دارد چقدر است؟ من این مشکل را شبیه سازی کرده ام اما همچنین می خواهم نتایج را با رویکرد تحلیلی تأیید کنم. به نظر می رسد این مشکلی است که با توزیع دوجمله ای مطابقت دارد، اما رویکردی که من اتخاذ کرده ام با شبیه سازی مطابقت ندارد. در اینجا کاری است که من انجام دادم. هنگام گرفتن 15 عکس، فقط 6 راه ممکن وجود دارد که می توانید 10 عکس را ضربدر احتمال 10 از 15 ضرب کنید: \begin{equation} (15 - 10 + 1)*{{15 \choose 10} * 0.5^{10} * (1-0.5)^{5}} = 0.55 \end{معادله} A احتمال 50% بسیار زیاد به نظر می رسد و با شبیه سازی من مطابقت ندارد. شهود من به من می گوید که احتمال باید کسری از \begin(معادله) باشد {{15 \choose 10} * 0.5^{10} * (1-0.5)^{5}} \end{equation} زیرا مجموعه نتایجی که در آن 10 شوت پشت سر هم از 15 شوت زده می شود کمتر از هر 10 شوت از 15 است. کسری از کل نتایج ممکن که 10 نتیجه متمایز در یک ردیف ایجاد می کنند. \begin{equation} (15 - 10 + 1) / 2^{15} \end{equation} اما این نیز با شبیهسازی من مطابقت ندارد و به احتمالاتی غیر از 1/2 ترجمه نمیشود. پیشاپیش برای هر کمکی متشکرم! | احتمال 15 پرتاب آزاد در یک بازی و زدن 10 پرتاب متوالی چقدر است؟ |
57100 | من سعی می کنم روشی برای به روز رسانی یک زمان به توزیع رویداد با توجه به گذشت زمان بدون وقوع رویداد پیدا کنم. به عنوان مثال، اگر من منتظر اتوبوس هستم و زمان رسیدن را می توان با توزیع نمایی با نرخ 1/8 مدل کرد، پس از 2 دقیقه انتظار بدون ورود اتوبوس چگونه توزیع را به روز کنم؟ من می دانم که دو دقیقه اول اکنون دارای چگالی احتمال 0 هستند، اما بقیه توزیع چگونه اصلاح می شود؟ | به روز رسانی توزیع زمان تا رویداد با توجه به مقدار زمان سپری شده بدون وقوع رویداد |
19845 | در آمار احتمالات، ویژگیهای آزمون مجذور کای پیرسون به این صورت است که: \begin{aligned} \chi^2 = \sum_{i=1}^{r} \sum_{j=1}^{c} { (O_{i,j} - E_{i,j})^2 \روی E_{i,j}} \end{aligned} جایی که $\chi^2$ ما است آمار آزمون تجمعی (پیرسون)، $O_{i,j}$ یک بسامد مشاهده شده در یک جدول احتمالی معین است، $E_{i,j}$ فرکانس مورد انتظار (نظری) برای همان، و $r$ و $c$ به ترتیب تعداد سطرها و ستون های جدول است. با فرض اینکه این درست باشد، یک _آزمون کای دو پیرسون برای استقلال_ بیان می کند: \begin{aligned} E_{i,j}=\frac{\sum_{k=1}^c O_{i,k}\ \sum_{k =1}^r O_{k,j}}{N} \end{aligned} ... که یک روش ریاضی مختصر برای گفتن آن است، برای همه مشاهدات در $O_{i,j}$، انتظار داریم فرکانس حاصل از مقادیر سطر و ستون. من در حال حاضر به دنبال تعمیم این آزمون برای متغیرهای پیوسته قابل تخمین توسط PDF هستم. با عبارت متفاوت: با توجه به توزیع احتمال مشترک یک تابع متقاطع، میخواهم بتوانم یک آزمون کای دو برای استقلال انجام دهم. شهود من بیان میکند که، برای حالت پیوسته، اولین فرمول را میتوان به صورت زیر تعمیم داد: \begin{aligned} \chi^2 = \int_I \int_J {(\hat{O_{i,j}} - \hat{E_{ i,j}})^2 \over \hat{E_{i,j}}}\ di\ dj \end{aligned} جایی که $\chi^2$ آمار آزمایش تجمعی ما باقی می ماند، $\hat{O_{i,j}}$ یک فرکانس مشاهده شده از توزیع احتمال مشترک است، با توجه به $i \in I$ و $j \in J$، $\hat{E_{i,j}}$ باقی میماند. فرکانس مورد انتظار، و $r$ و $c$ به طور خلاصه ناپدید می شوند. سپس $\hat{E_{i,j}}$ را برای یک تابع قابل مقایسه تعریف میکنیم که چیزی شبیه به این است: \begin{aligned} \hat{E_{i,j}}=\frac{\int_c \hat{O_{ i,c}}\ dc\ \int_r \hat{O_{r,j}}\ dr}{2} \end{aligned} ... که $r$ و $c$ پارتیشنهای انتخاب شده در طول ادغام توسط، برای مثال، یک ربع تطبیقی. همچنین توجه داشته باشید که این رابطه برای مرزهای بی نهایت از بین می رود، زیرا $r$ یا $c$ به بی نهایت نزدیک می شود (یا برعکس، زیرا ارزش هر ارزیابی $\hat{E_{i,j}}$ به صفر نزدیک می شود). این فقط به این معنا است که این محاسبات توسط ابزارهایی مانند SciPy عملی میشوند و من جزئیات زیادی را کنار میگذارم تا خواننده را خسته یا گیج نکنم. اما، من کنجکاو هستم: آیا روش، همانطور که به اختصار ارائه شد، صحیح است؟ من نمی توانم هیچ راهنمایی مغایر با آن پیدا کنم. هدف از چنین چیزی این است که اصطلاحات را به صورت پی دی اف های پیوسته که توسط هسته گاوسی هموار می شوند، برای داده های ترتیبی و اسمی سازمان دهی نشده امکان پذیر کند. پیشاپیش از شما متشکرم. | آیا ویژگیهای آزمون کایدو پیرسون برای استقلال برای فایلهای PDF پیوسته صادق است؟ |
64167 | اگر $S$ فضای نمونه برخی از متغیرهای تصادفی گسسته $X$ باشد، معمولاً چه چیزی به عنوان ابر مجموعه آن داده می شود؟ $S \subset \mathbb{R}$ یا $S \in \mathbb{Q}$؟ X$هایی که من دارم، داده های زیست پزشکی دیجیتالی هستند. **ویرایش** من در حال نوشتن مقدمه ای برای تجزیه و تحلیل داده های زیست پزشکی هستم. به عنوان بخشی از آن، من باید مقدمه ای برای آمار ارائه کنم. دلیل اینکه اومدم این سوال رو بپرسم اینه که خودم آمار رو خیلی بلد نیستم. به هر حال، به من محول شد که این را بنویسم، بنابراین سعی می کنم آن را به روش درست انجام دهم، و خودم هم چیزی یاد بگیرم. بنابراین، همانطور که نوشتم، وضعیت این است که من برخی از داده های زیست پزشکی دیجیتالی دارم. مقداری سیگنال پیوسته وجود داشت که نمونه برداری شد (بنابراین از نظر زمان گسسته است) و سپس کوانتیزه شد (پس از آن سیگنال ممکن است فقط مقادیر گسسته خاصی داشته باشد). فضای نمونه من مجموعه مقادیری است که سیگنال ممکن است بگیرد. معمولاً یک نمونه با 16 بیت ارائه می شود، بنابراین 65536 مقدار ممکن وجود دارد. با این حال، مقادیر نمونه به صورت اعداد صحیح ارائه نمی شوند، بلکه مقادیر اعشاری مانند 0.101 یا 0.521 ارائه می شوند. سردرگمی از آنجا ناشی می شود که در اصل نقشه برداری یک به یک همانطور که شما نوشته اید وجود دارد اما به وضوح 0.101 یک عدد صحیح نیست. من پیشینه ریاضی / آماری خیلی قوی ندارم، بنابراین هنوز اصول اولیه را یاد میگیرم (برای دادههایی که دارم، من فقط «کاربر نهایی» هستم). | نحوه تعریف فضای نمونه برای متغیر تصادفی گسسته |
86371 | من چند مورد را دیده ام که یک یادگیرنده ضعیف به صورت تکراری با مجموعه داده های مختلف استفاده شده است. برای مثال، فرض کنید میخواهید طبقهبندی {1، -1} را بر اساس 3 ویژگی و یادگیرنده ضعیف بیز سادهلوح (روز قبل آفتابی، چندک دمای تاریخی روز قبل، آیا روز قبل باران میبارید را یاد بگیرید تا توضیح دهید که آیا بعد از آن روز آفتابی است). در مقالات تحقیقاتی، ویژگی ها اغلب در یک و تنها یادگیرنده ضعیف ترکیب می شوند و وزن ها در هر تکرار اصلاح می شوند. آنچه من به دنبال آن هستم مستنداتی است که در آن: \- در اولین تکرار شما 3 یادگیرنده ضعیف بیز ساده را آموزش می دهید (یکی برای هر ویژگی) سپس یادگیرنده ضعیف را انتخاب می کنید که خطا را به حداقل می رساند، این بار ممکن است ویژگی را انتخاب کنید (دیروز آفتابی بود). برای توضیح روز بعد آفتابی) \- در تکرار دوم شما یادگیرنده ضعیف را انتخاب می کنید که با وزن های جدید خطا را به حداقل می رساند (مقدار دمای تاریخی برای توضیح روز آفتابی روز بعد) \- و غیره من شروع به تعجب کردم اگر این راه برای ادامه درست است، زیرا من در تلاش برای یافتن هر سندی هستم. Thx | Adaboost: یادگیری ضعیف در مجموعه داده های مختلف برای هر تکرار |
69487 | من یک آمارگیر هستم که با یک مشکل عجیب روبرو می شوم، و به نظر می رسد در اینجا یک نکته کلیدی را از دست داده ام. من یک مدل واقعی (تولید شده توسط من تا حقیقت را بدانم) و یک مدل پیش بینی شده دارم که پارامترهای خاصی از مدل واقعی را تخمین می زند، و می خواهم اعتبار / دقت مدل پیش بینی شده را آزمایش کنم. من همان تمرین را با 2 اندازه نمونه -> 200 و 50 انجام می دهم. اگر از آزمون نسبت درستنمایی برای آزمایش خوب بودن مدل پیش بینی شده خود با استفاده از n=200 استفاده کنم، احتمال بسیار کمتری نسبت به زمانی که از n=50 استفاده می کنم، دریافت می کنم. بنابراین در این ساختار آزمایش، نشان می دهد که مدل 200=n (همانند مدل 50=n اما برای حجم نمونه) دقت کمتری دارد. نسبت به مدل n=50، صرفاً به دلیل احتمالاتی که تحت تأثیر اندازه نمونه قرار دارند. چه چیزی را از دست داده ام؟ احساس بسیار احمقانه - پیشاپیش متشکرم. | آزمون نسبت درستنمایی - مسئله حجم نمونه |
64168 | $C_{MAP}$: به احتمال زیاد کلاس (به عنوان مثال، حداکثر پیشین) $C_{NB}$: ساده لوح بیز `x`: سند `d` به عنوان $x_n$ ویژگی ها یا کلمات $c_j$ نشان داده می شود: I فکر کنید این یک کلاس «j» است منبع اینجا در صفحه 27 است: http://www.stanford.edu/class/cs124/lec/naivebayes.pdf * * * به هر حال، $$ \begin{تراز شده} C_{MAP} &= \mathop{\text{argmax}}_{c\in C} P(c|d) \\\&= \mathop{\text{argmax} }_{c \in C} \frac{P(d|c)P(c)}{P(d)} \qquad \text{(قانون بیز)} \\\&= \mathop{\text{argmax}}_{c\in C} P(d|c)P(c) \end{aligned}$$ اولاً، من فکر کردم قانون بیز فقط $\frac{P(d|c) است )}{P(d)}$، که فقط احتمال شرطی تعداد وقوع {c & d}/d است، پس چرا $P(c)$ در $P(d|c)$ ضرب میشود؟ و چرا $c|d$ به $d|c$ تبدیل شده است؟ همچنین، برای طبقهبندیکننده چندجملهای ساده، ما داریم: $$C_{NB} = \mathop{\text{argmax}}_{c \in C} P(c_j)\prod P(x | c). $$ من مطمئن نیستم که چگونه آن معادله را بخوانم... آیا می گوید Classifiers برای N = حداکثر احتمال کلاس j * PI از x در X * احتمال (x داده شده c)؟ اگر کسی بتونه کمک کنه تا این نماد رو از بین ببره خیلی خوبه. با تشکر | مشکل در خواندن نماد بیز ساده چند جمله ای |
45570 | یک متغیر عاملی به نام درمان در مجموعه داده های من وجود دارد. این عامل از دو سطح C و H تشکیل شده است. من می خواهم آزمایش کنم که آیا تفاوت معنی داری بین دو سطح وجود دارد یا خیر. من می توانم این مدل را از طریق `lme()` متناسب کنم. من نمی توانم درمان را به عنوان یک متغیر در مدل خود لحاظ کنم. استادم این پیشنهاد را به من داد: ابتدا پارامترهای بهینه را برای هر گروه درمانی (C و H) پیدا کنید و همچنین پارامترهای بهینه را برای مجموعه داده مشترک (با ترکیب C و H) بیابید. سپس می توانید از یک تست احتمال استفاده کنید. AIC نشان می دهد که برازش C یا H با استفاده از پارامترهای مشترک تخمین زده شده، نتیجه قابل توجهی بدتری نسبت به استفاده از پارامترهای بهینه شده برای گروه فردی خواهد داشت. جمله آخر رو نمیتونم بفهمم آیا لازم است که من AIC را برای C یا H از طریق مدلی که برای مجموعه داده های مشترک نصب شده است محاسبه کنم؟ اگر بله، چگونه این کار را انجام دهم؟ تابع «AIC()» فقط می تواند AIC را برای مجموعه داده های مورد استفاده برای تناسب مدل ارائه دهد. من $AIC = n \cdot \ln(\frac{RSS}{n})+2K$ و $AIC = n + n \cdot \log(2\pi) + n \cdot \log(\frac{RSS) را امتحان کردم }{n}) + 2k$، اما هیچ کدام از اینها مقدار «AIC(lme())» را به من نمی دهد. اگر نه، چگونه باید این را بفهمم؟ | آیا محاسبه AIC زیرمجموعه ای از مجموعه داده ای که برای برازش مدل استفاده شده است معقول است؟ |
63194 | اگر منظور او را درست متوجه شده باشم، در پاسخ به سوال قبلی @StéphaneLaurent این نکته را برجسته کرده است که مقدار واریانس جمعیت توضیح داده شده از یک رگرسیون خطی (یعنی $\rho^2$) بستگی به این دارد که آیا شما پیش بینی کننده ها را ثابت می بینید یا خیر. تصادفی از آنچه من می توانم بگویم، ادبیات به این تمایز با نام های مختلفی از جمله امتیاز ثابت در مقابل رگرسیون نمره تصادفی (به عنوان مثال، اسمیتسون، 2001) یا گاهی اوقات به عنوان فرض ثابت-x اشاره می کند (به عنوان مثال، آلدریچ، 2000). بنابراین، در یک رگرسیون نمره ثابت یک $\rho^2$ وجود دارد که ممکن است آن را $\rho^2_f$ نشان دهیم. در یک رگرسیون امتیاز تصادفی، دادههای پیشبینی کننده $n \times p$ $X$، که در آن $n$ اندازه نمونه و $p$ تعداد پیشبینیکنندهها است، فرض میشود که از یک توزیع $p$-بعدی گرفته میشود. بنابراین، در رگرسیون امتیاز تصادفی، $\rho^2$ داده شده $n$ و مقادیر پیش بینی نمونه وجود دارد، که می توانیم $\rho^2_i$ را نشان دهیم. در نهایت، واریانسی وجود دارد که توضیح داده شده است که تعداد نامحدودی از دادهها هم از متغیرهای پیشبینیکننده و هم از متغیر نتیجه نمونهبرداری شدهاند، که من آن را $\rho^2_a$ نشان میدهم. من فرض میکنم که با افزایش حجم نمونه در یک رگرسیون نمره تصادفی، مقادیر پیشبینیکننده نمونه با توزیع پیشبینیکننده زیربنای نزدیکتر مطابقت خواهند داشت. به این ترتیب واریانس $\rho^2_i$ در نمونه های مختلف باید کوچکتر شود. احتمالاً همچنین، ممکن است نقطه ای وجود داشته باشد که واریانس $\rho^2_i$ به اندازه کافی کوچک شود که برای اهداف عملی، تمایز بین رگرسیون نمره ثابت و رگرسیون امتیاز تصادفی بی اهمیت شود. من همچنین فرض میکنم که بازههای اطمینان در حدود $\rho^2_a$ گستردهتر از بازههای حدود $\rho^2_f$ خواهد بود، زیرا در مدلهای امتیاز تصادفی، یک منبع تغییرپذیری اضافی وجود دارد. بنابراین، من کنجکاو هستم که چگونه محققان علاقه مند به رگرسیون امتیاز تصادفی این منبع اضافی تنوع را تخمین می زنند. من همچنین علاقه مندم که قبل از اینکه تمایز دیگر از نظر عملی مهم نباشد، چه اندازه نمونه مورد نیاز است. ### سوالات * اندازه نمونه چگونه با اهمیت تمایز بین نمره ثابت و رگرسیون نمره تصادفی مرتبط است؟ * آیا اندازه نمونه ای وجود دارد که در آن واریانس در تخمین $\rho^2$ در نمره ثابت و رگرسیون امتیاز تصادفی حداقل تفاوت داشته باشد؟ * آیا روشی برای تخمین منبع واریانس اضافی مربوط به رگرسیون امتیاز تصادفی در تخمین $\rho^2$ وجود دارد؟ * آیا تحقیقی در این زمینه منتشر شده است؟ ### مراجع * Aldrich, J. (2000). ریشه های رگرسیون X ثابت. PDF * Smithson, M. (2001). فواصل اطمینان صحیح برای اندازهها و پارامترهای اثر رگرسیون مختلف: اهمیت توزیعهای غیرمرکزی در فواصل محاسباتی. سنجش تربیتی و روانی، 61(4)، 605-632. | تخمینهای رگرسیون نمره ثابت و تصادفی برای جمعیت r-square چقدر متفاوت است؟ |
90552 | **زمینه** من از مدل های خطی تعمیم یافته برای تجزیه و تحلیل برخی از داده های اکولوژیکی استفاده می کنم که به رابطه بین تراکم جمعیت لارو پروانه و شیوع (٪) مرگ و میر ویروسی در سال قبل (یعنی آزمایش برای مرگ و میر وابسته به تراکم تاخیری می پردازد. ). داده ها از تعدادی از سایت های مختلف، نمونه برداری در طول سال است. **مشکل** داده ها گاهی بسیار پراکنده هستند، و بنابراین در برخی از سایت ها در برخی سال ها تراکم افراد بسیار کم یا 0 است. بنابراین، برای این موارد، درصد مرگ و میر ناشی از بیماری یا ضعیف تخمین زده می شود (مثلاً با 2 فرد می توانید فقط 0، 50 یا 100 درصد مرگ و میر ناشی از بیماری را دارند، یا اگر 0 نفر وجود داشته باشد نمی توان تخمین زد. **سوالات** 1) هنگامی که تخمین درصد مرگ و میر بیماری بر اساس حجم نمونه بسیار کوچک است، اگرچه برآوردها همه چیزهایی هستند که برای کار با آنها در دسترس است، آیا تکنیک های آماری مفیدی برای کمک به کشف چگونگی تغییر در این مقادیر متغیر توضیحی وجود دارد. دقت ضعیف ممکن است بر نتایج مدل تأثیر بگذارد؟ به عنوان مثال من اخیراً برخی از روشهای بیزی را یاد میگیرم، و میدانم که ممکن است برخی از روشهای شبیهسازی وجود داشته باشد که ممکن است کمک کند، اگرچه تا کنون تنها در زمینه دادههای متغیر وابسته از دست رفته با آنها مواجه شدهام. من همچنین از وجود تجزیه و تحلیل های حساسیت و غیره بسیار ضعیف آگاه هستم. هر گونه اشاره ای مبنی بر اینکه کدام روش ممکن است مفید باشد بسیار قدردانی خواهد شد. 2) وقتی حجم نمونه 0 است، آیا استفاده از 0% به عنوان تخمین مرگ و میر بیماری معتبر است؟ بدیهی است که از نظر آماری، اگر دادهای وجود نداشته باشد، نمیتوانید چیزی را تخمین بزنید، اما آیا میتوان استدلال کرد که از آنجایی که تخمین معیاری برای شیوع بیماری است، اگر فردی در اطراف وجود نداشته باشد، نمیتواند بیماری وجود داشته باشد، و بنابراین 0٪ یک مقدار است. ارزش معتبر؟ یعنی از نقطه نظر بیولوژیکی آیا می توان استدلال کرد که برآورد تلاش می کند تا میزان بیماری در سال قبل را اندازه گیری کند، و اگر فردی وجود نداشته باشد، بنا به تعریف هیچ بیماری وجود ندارد، و 0٪ معتبر است؟ مشابه سوال 2، اگر هر گونه تکنیک آماری ممکن است به مقابله با این داده های از دست رفته کمک کند، لطفاً من را در جهت درست راهنمایی کنید. برای هر کمکی از شما بسیار متشکرم. | پرداختن به مقادیر ضعیف تخمینی/فقدان متغیر توضیحی در GLMها |
41855 | اول از همه، من می خواهم واضح بگویم که من با هوش مصنوعی تازه کار هستم، اگرچه کمی در مورد طبقه بندی یاد گرفته ام. فرض کنید من یک مجموعه سلسله مراتبی از کلمات دارم: حیوان -> 4 پا -> سیاه -> سگ حیوان -> 4 پا -> سفید -> گربه حیوان -> 8 پا-> سیاه -> عنکبوت و غیره... بهترین الگوریتمی است که می توانم برای دسته بندی حیواناتی که در متن آزاد به این شکل ظاهر می شوند استفاده کنم: من دو **سیاه** **حیوان** با **4 دارم. legs** من میخواهم موارد زیر را استخراج کنم: «سگ» آیا یک SVM است حتی اگر سلسله مراتبی باشد؟ | بهترین راه برای طبقه بندی داده های سلسله مراتبی |
53130 | من در کاهش داده ها مشکلاتی دارم و یکی از متخصصان به من توصیه کرد که نقاط پرت را حذف کنم و سپس به تحلیل عاملی بروم. من میخواهم نقاط پرت را با هم حذف کنم، زیرا 61 مورد دارم، و نمودارهای جعبه مفید نیستند زیرا موارد پرت را مورد به مورد نشان میدهند. چگونه می توانم نقاط پرت را در یک زمان تشخیص دهم؟ | حذف نقاط پرت چند بعدی؟ |
96866 | با توجه به توزیع شناخته شده ای که بر روی مجموعه محدودی از عناصر $n$ با احتمالات $p_1,…,p_n$ و دسترسی به توزیع ناشناخته $q$ پشتیبانی می شود، مشخص می شود که تعداد نمونه از $q$ لازم است و چقدر است و برای تخمین فاصله کل تغییرات $||p−q||_{TV}$ تا یک خطای $\epsilon$ با احتمال ثابت کافی است؟ | تخمین فاصله تغییرات کل از یک توزیع معین |
63621 | من در حال انجام تحقیقی هستم که به موجب آن چند متغیر مستقل (همه آنها ساختگی هستند)، تعدیل کننده (یکی ساختگی، دیگری پیوسته) و یک متغیر وابسته پیوسته دارم. به من گفته شد که از رگرسیون حداقل مربعات معمولی (OLS) استفاده کنم، اما تفاوت بین رگرسیون OLS و تحلیل رگرسیون خطی سلسله مراتبی چیست؟ | تفاوت بین رگرسیون خطی سلسله مراتبی و رگرسیون حداقل مربعات معمولی (OLS) چیست؟ |
81229 | من فارغ التحصیل رشته اقتصاد هستم و در حال تصمیم گیری در مورد اینکه آیا تحلیل واقعی انجام دهم یا نه. برنامه من در نهایت دریافت مدرک کارشناسی ارشد در تجزیه و تحلیل داده ها است، مشابه این برنامه:http://analytics.ncsu.edu/?page_id=1799. با توجه به بار دوره ام، ممکن است بتوانم آن را مناسب کنم، اما ممکن است نه. این آخرین باری است که می توانم آن را بگیرم. در توضیحات دوره آمده است: تداوم، همگرایی دنباله ها و سری ها، تمایز پذیری و یکپارچگی را مطالعه می کند. مفاهیم توپولوژیکی مناسب را معرفی می کند. این کلاس چقدر برای ادامه تحصیل در مقطع کارشناسی ارشد در تجزیه و تحلیل داده ها مفید خواهد بود؟ | تجزیه و تحلیل واقعی چقدر برای داده کاوی مهم است؟ |
49670 | من مجموعه ای از داده ها را دارم که در آن متغیر پاسخ پیوسته است و سایر متغیرهای مستقل دوگانه هستند (به طور طبیعی وجود ندارند). فکر می کنم باید همبستگی Biserial را انجام دهم (من از تفاوت بین همبستگی دو سریال و دو سریال آگاه هستم). چگونه می توانم این کار را در SPSS یا هر نرم افزار آماری دیگری انجام دهم؟ | انجام یک همبستگی دو سریال در SPSS v21 |
58109 | ما در حین آموزش یک طبقهبندی کننده در مجموعه دادههای نامتعادل با مشکل مواجه شدهایم. پاسخ باینری است و 0 نشان دهنده «غیر پیش فرض» و 1 نشان دهنده «پیشفرض» است (این یک کار امتیازدهی اعتباری است). افراد پیشفرض تنها 0.47 درصد (233 مشاهده از 47 هزار نفر) را تشکیل میدهند. ما از الگوریتم SMOTE برای نمونه برداری از کلاس اقلیت و در نتیجه متعادل کردن مجموعه داده ها استفاده کردیم. این یک روش شناخته شده است که در برنامه های امتیازدهی اعتباری یا در هر موقعیت طبقه بندی دیگری که در آن توزیع در پاسخ منحرف است، بسیار تشویق می شود. ما حجمهای مختلف نمونهبرداری بیشازحد SMOTE را آزمایش کردیم، اما در نهایت با مجموعهای از دادهها که در آن نسبت پیشفرضها حدود 40 درصد است، حل و فصل کردیم که به این معنی است که الگوریتم SMOTE حدود 26567 مشاهدات مصنوعی ایجاد کرده است. این مجموعه اکنون پیشفرضهای واقعی، غیرقابل پیشفرضها و مشاهدات مصنوعی ایجاد شده را در خود نگه میدارد که البته همه به عنوان پیشفرض برچسبگذاری شدهاند. پس از پارتیشن بندی داده ها، انواع مختلف طبقه بندی کننده ها را آموزش داده ایم و نتایج آنها را با استفاده از روش Holdout (EG با استفاده از یک مجموعه تست) مقایسه کرده ایم. موفقترین طبقهبندیکننده، یک شبکه عصبی با یک لایه پنهان (با داشتن 30 نورون)، ساختار پیشخور، وزن «بهینهساز» مورد استفاده، انتشار برگشتی بود و تابع فعالسازی روی هیپربولیک تنظیم شد. ما همچنین از یک انسامبلر استفاده کردیم زیرا متوجه شدیم که تقویت (10 حلقه) دقت پیشبینی را افزایش میدهد. این مدل به طور کلی نتایج بسیار خوبی تولید می کند. به عنوان مثال، نرخ مثبت واقعی حدود 93٪ است و نرخ منفی واقعی حتی بالاتر است. مساحت زیر منحنی ROC طبقهبندیکننده به خوبی بیش از 0.9 است. ما پس از ایجاد چنین مدل über مانند خروسهای جلالدار در حال چرخیدن بودیم - تا اینکه تصمیم گرفتیم 233 پیشفرض واقعی را برچسبگذاری کنیم و نحوه طبقهبندی آنها را پیگیری کنیم. در تاسف ما این مدل تنها حدود 60 درصد آنها را در کلاس پیش فرض طبقه بندی کرد. حدس ما این است که الگوریتم SMOTE ممکن است کمی دیوانه شده باشد و در هنگام ایجاد پیشفرضهای مصنوعی، کمی بیش از حد در گروه غیرپیشفرض همپوشانی داشته باشد. آیا راهی برای جلوگیری از این اتفاق وجود دارد؟ آیا کمنمونهگیری از اکثریت کلاسهای غیر پیشفرض و ترکیب آن با نمونهبرداری بیشازحد SMOTE مثلاً 20 درصد، رویکرد خوبی است؟ چرا و چرا نه؟ ما با چیزی به نام پیوندهای Tomek مواجه شدیم که به نظر می رسد اثرات مخاطره آمیز SMOTEing را کمی معکوس کند. ما از هر نوع کمکی در مورد این موضوع بسیار سپاسگزاریم. | مشکل با طبقه بندی کننده پس از استفاده از SMOTE برای تعادل داده ها |
41851 | من به تازگی با این تحلیل عالی روبرو شدم که هم از نظر بصری جالب و هم زیبا است: http://www.nytimes.com/interactive/2012/11/02/us/politics/paths-to-the-white-house.html من هستم کنجکاو است که چگونه می توان چنین درخت مسیر را با استفاده از R ساخت. برای ساختن چنین درخت مسیری به چه داده ها و الگوریتمی نیاز است؟ با تشکر | چگونه می توان مسیرهای کاخ سفید را با استفاده از R محاسبه کرد؟ |
41856 | من در اکسل تازه کار هستم و می خواستم بدانم آیا می توان مایکروسافت اکسل را برای تفسیر مجموعه داده های زیر ساخت: 2 18(o) 60(o) 5572(r) 4612(r) 6481(r) 7930 3 17(o) 59 (o) 4422 (r) 3435 (r) 4792 (r) 6716 4 16(o) 58(o) 2820(r) 1904(r) 3679(r) 5562 5 15(o) 57(o) 1706(r) 790(r) 2622(r) 3879 6 14(o) 56( o) 634 (r) 272 (r) 1718(r) 2722 به صورت زیر (همه کاراکترها به جز ارقام باید حذف شوند): 2 18 60 5572 4612 6481 7930 3 17 59 4422 3435 4792 6716 4 16 513 7930 2851 57 1706 790 2622 3879 6 14 56 634 272 1718 2722 برای ترسیم نمودار بیشتر از این داده ها. | استخراج اعداد از آیتم های جدول اکسل برای تجسم نمودار |
45572 | من از یک مدل DCC Garch برای تخمین حرکت مشترک بین 2 شاخص با استفاده از دستور زیر در Stata استفاده کرده ام: mgarch dcc (XY =، غیر ثابت)، arch(1) garch(1) محدودیت ها(1 2) پیش بینی H*، واریانس پس از پیشبینی واریانس، ستونی با واریانس در واحد زمان دریافت میکنم. سوال من این است که چگونه می توان واریانس ها را به همبستگی در واحد زمان تبدیل کرد؟ | تخمین همبستگی با DCC GARCH |
53131 | آیا با جمله زیر موافقید؟ چرا یا چرا نه؟ من با این بیانیه مخالفم اما هیچ دلیلی برای پشتیبان گیری ندارم. کسی می تواند کمک کند؟ | آمار باید احتمال خطای نوع یک را تا حد امکان پایین تنظیم کند |
45574 | من حدود 500 متغیر برای هر بیمار دارم، هر متغیر یک مقدار پیوسته دارد و در سه نقطه زمانی مختلف (پس از 2 ماه و بعد از 1 سال) اندازه گیری می شود. با رگرسیون می خواهم نتیجه درمان را برای بیماران جدید پیش بینی کنم. آیا می توان از رگرسیون SVM با چنین داده های طولی استفاده کرد؟ | رگرسیون SVM با داده های طولی |
62579 | من یک سری زمانی با چرخه های فصلی متعدد دارم که برای پرونده من 24 و 168 ساعت است. من می خواهم از روش هموارسازی نمایی دوگانه فصلی برای پیش بینی استفاده کنم که توسط جیمز دبلیو تیلور (http://users.ox.ac.uk/~mast0315/) منتشر شده است. پیوند مقاله او اینجاست وقتی مقاله تیلور و سایر مقالات موجود در ادبیات را بررسی میکنم، دیدم که تنظیم AR(1) برای باقیماندهها اعمال شده است. آیا انجام تصحیح AR(1) برای باقیمانده های تمام سری های زمانی، که در این مقالات استفاده شده است، تصادفی است؟ من از بسته پیش بینی در R توسط راب هیندمن استفاده می کنم، http://cran.r-project.org/web/packages/forecast/forecast.pdf اولا، من کد را بدون استفاده از مدل AR(1) برای خطاها داده <- scan(data.dat, skip=1) datatimeseries <- ts(data) library(forecast) dataforecasts <- dshw(datatimeseries, 24, 168, armethod=FALSE) res=dataforecasts$residuals acf(res) pacf(res) در زیر، می توانید نمودارهای ACF و PACF را مشاهده کنید باقی مانده ها   همانطور که شما می توانید ببینید که برخی از خودهمبستگی های جدی غیر صفر وجود دارد. من نمی توانم تصحیح AR(1) را همانطور که مقالات پیشنهاد می کنند انجام دهم زیرا PACF آن را نشان نمی دهد. نمی دانم چه کار کنم. متاسفم اگر سوال احمقانه ای است، اما من خیلی تازه وارد سریال های زمانی هستم. لطفاً توضیح دهید که گام به گام و به طور مفصل چه کاری را باید انجام دهید؟ پیشاپیش ممنون | باقیمانده ها در هموارسازی نمایی دوگانه فصلی |
54486 | من با مشکل ارزیابی کیفیت خوشه ها مواجه هستم. در مورد من، من داده ها را پس از تعیین کلاس های داده رسم کرده ام. برای هر کلاس (1، 2، 3) دو ابر وجود دارد که به طور جداگانه در **دو ** ناحیه متمایز نمودار ظاهر می شوند:  من می خواهم کیفیت خوشه ها را با بررسی نزدیکی نقاط درون / بین خوشه ها ارزیابی کنم. در ابتدا فکر میکردم که بهطور تصادفی کلاسهایی را به هر نقطه داده اختصاص میدهم (روند را چندین بار انجام میدهم) تا نشان دهم که نقاط درون کلاس بسیار نزدیکتر از آن چیزی است که اتفاقی رخ دهد. با این حال، از آنجایی که طرح به 2 ابر با اشکال کاملاً متفاوت تقسیم می شود، کار را بسیار دشوارتر می کند. چگونه باید این کار را انجام دهم؟ | ارزیابی کیفیت خوشه ها |
90554 | آیا یک رگرسیون Dual Ridge میتواند نتایج پیشبینی مشابهی با یک فرآیند گاوسی با هسته چند جملهای $K(x,x')=(x^Tx'+1)^2$ در پیچیدگی زمانی کمتر ایجاد کند (GP $O(n^ است 3)$) با استفاده از تجزیه Cholesky؟ اگر بله، پیچیدگی رگرسیون ریج با هسته ای که نتایج یکسانی را ایجاد می کند چقدر خواهد بود؟ اگر نه، آیا یک مدل SVM پیشنهاد می شود؟ من می خواهم به پیچیدگی زمانی ویژگی های خطی به عدد برسم. | رگرسیون هسته و ریج فرآیند گاوسی |
115361 | با توجه به نمرات تطابق بیومتریک، من باید نمودارهای تراکم تخمینی امتیازهای واقعی و فریبنده را رسم کنم. نمودارهایی که من به ترتیب برای نمرات واقعی و فریبنده دریافت کردم در زیر آمده است.   سوال من این است که چگونه می توانم 2 نمودار را ترکیب کنم و آنها را با تمام امتیازهای داده شده در مجموعه داده رسم کنم تا 2 را با هم مقایسه کنم. تراکم؟ آیا می توانم انجام دهم: plot(*data_set*,pdf_genuine) نگه دارید. plot(*data_set*,pdf_impostor) hold off; ابعاد کل مجموعه داده 517x516 است | ترسیم تخمین چگالی در متلب |
90084 | من در دو سال گذشته در حال مطالعه آمار هستم. تقریباً همه چیزهایی که آموخته ام در مورد آمار پارامتریک است. اکنون می خواهم در مورد آمار ناپارامتریک بیشتر بدانم. آیا کسی می تواند مقدمه ای مختصر (شاید خواندنی) در این زمینه پیشنهاد کند؟ | مقدمه ای بر آمار ناپارامتریک |
1915 | من علاقه مند به اجرای الگوریتم خوشه بندی مدولار نیومن بر روی یک نمودار بزرگ هستم. اگر بتوانید کتابخانه ای (یا بسته R و غیره) را به من معرفی کنید که آن را پیاده سازی می کند، بسیار سپاسگزار خواهم بود. بهترین ~ لارا | خوشه بندی مدولار نیومن برای نمودارها |
96860 | طرح Aloha یک طرح دسترسی تصادفی چندگانه تقسیم زمانی است که در شبکه مورد استفاده قرار می گیرد، که در دانشگاه هاوایی توسط Norm Abrahamson برای شبکه آنها، ALOHAnet برای مقابله با این واقعیت که دارای پردیس های پراکنده در چندین جزیره است، توسعه یافته است. در ژوئن 1971 عملیاتی شد. طرح اصلی مورد استفاده در آنجا اغلب پروتکل خالص آلوها نامیده می شود. در آن طرح، یک گره زمانی که داده ای برای ارسال دارد، به سادگی داده ها را ارسال می کند. اگر برخوردی وجود داشته باشد، قبل از ارسال مجدد مقداری زمان تصادفی منتظر می ماند. گره های انتقال $N$ در شبکه وجود دارد. هر گره دارای نرخ انتقال پواسون با میانگین $\lambda'$ است. زمانهای ارسال اولیه و ارسال مجدد به صورت نمایی با میانگین $1/\mu$ هستند. من $P(\text{بدون برخورد}) = e^{-(\lambda' N/\mu)}$ دریافت می کنم. سوالات عبارتند از: 1. **آیا این درست است؟** 2. **چگونه می توانم این را بدون $e$ بیان کنم؟** [نسخه مختصر این سوال قبلا ارسال شده بود، اما OP آنچه را که فکر می کردم یک سوال بود حذف کرد. سوال بالقوه مفید من اینجا بازنشر کردهام، اما چند جمله مقدماتی و برخی پیوندهای ویکیپدیا مربوط به آنچه در حال بحث است و قالببندی و طرحبندی بهبود یافته است. من مطمئن نیستم که چرا OP می خواست بدون استفاده از $e$ بیان شود، او علیرغم دو درخواست برای شفاف سازی به آن پاسخ نمی داد و سپس به جای اینکه سوال را واضح تر کند، سوال را حذف کرد. من به امید بهبود خود به حذف حذف رای دادم، اما در صورت عدم حذف (تاکنون) حذف آن، این را پست کردم به این امید که شاید بتوان به آن پاسخ داد یا بهتر شد. اگر نسخه اصلی حذف نشده است، احتمالاً باید ویرایش شود و این یکی حذف شود.] | P (بدون برخورد) با ورود پواسون و طول بسته نمایی |
1912 | گری کینگ بیانیه زیر را در توییتر بیان کرد: > عدم تغییر مقیاس به نظر جالب می رسد، اما معمولاً آماردانان از مسئولیت شانه خالی می کنند و با نادیده گرفتن اطلاعات موضوع، قدرت خود را از دست می دهند، نمونه ای از این پدیده چیست، که در آن عدم تغییر مقیاس باعث از دست دادن قدرت می شود؟ _ویرایش:_ گری پاسخ داد: > نه قدرت [آماری]، اما عدم تغییر مقیاس، قدرتی را که می توان از دانش ماده استخراج کرد، از دست می دهد. چگونه عدم تغییر مقیاس می تواند باعث از دست دادن قدرت توضیحی حاصل از تجزیه و تحلیل شود؟ | چرا عدم تغییر مقیاس می تواند باعث از دست دادن قدرت توضیحی شود؟ |
62574 | من به طور تصادفی این قطعه کد را پیدا کردم: v1 <- eigen(X.center %*% t(X.center))$vectors[,1] X.0 <- v1 %*% t(v1) %*% X. مرکز در حالی که v1 بردار ویژه مربوط به بالاترین مقدار ویژه است، v1%*%t(v1) حاصلضرب بیرونی v1 را نشان می دهد، X.0 نشان دهنده چیست و آن چیست اهمیت فیزیکی؟ و من حدس می زنم که این یک شکل درجه دوم نیست. لطفاً کسی می تواند به چند مثال مرتبط اشاره کند. پیشاپیش ممنون | اهمیت فیزیکی: ضرب ماتریس در حاصلضرب بیرونی بردار ویژه آن |
62573 | من نمی دانم که آیا کسی می داند چگونه دو نمودار شبکه هدایت شده را با شناسه گره یکسان مقایسه کند. به طور خاص، در نمودار A، هر گره یک فرد را نشان می دهد و هر یال نشان دهنده نوعی رابطه A بین دو فرد است. در نمودار B، همان جمعیت توسط گره ها نشان داده می شود و هر یال نشان دهنده رابطه B بین دو فرد است. چگونه باید تفاوت قابل توجه بین این دو نمودار را آزمایش کنم؟ هر دو نمودار جهت دار هستند. اگر نمودارها وزن شوند چه؟ من در حال حاضر از igraph در R استفاده می کنم، اما به دنبال پاسخ آماری بیشتری هستم. خیلی ممنون | تفاوت قابل توجه بین دو نمودار شبکه جهت دار با شناسه های راس یکسان |
58101 | من روی داده های دمای ماهانه برای 100 سال، از 1901 تا 2000 (یعنی 1200 نقطه داده) پیش بینی می کنم. میخواهم بدانم آیا روشی که دنبال میکنم درست است، زیرا در خروجیام، «تصادفی» لازم دما را در پیشبینی بازتولید نمیکنم. در اینجا پیوندی به طرح پیشبینی (به رنگ قرمز) وجود دارد https://docs.google.com/file/d/0B1Lm03a_91xiYks5TVJDYU05VUE/edit?usp=sharing EDIT: ACF و PACF زمان کاهش یافته و فصلی نشده را اضافه کرد سری: https://docs.google.com/file/d/0B1Lm03a_91xia2RTOHZrajJtZXM/edit?usp=sharing در زیر dput() داده های من آمده است: > dput(fr.monthly.temp.ts) structure(c(2.7, 0.4, 4.7، 10، 13، 16.9، 19.2، 18.3، 15.7، 10.6، 4.9، 3.5، 4.1، 3.2، 7.5، 10.3، 10، 15.1، 18.2، 17.4، 15، 10.2، 6.3، 3.5، 3.2، 3.2، 7.7. 14.9، 17.6، 17.3، 15.5، 12.1، 6.9، 2.7، 3، 4.6، 5.5، 10.3، 13.6، 16.3، 20.2، 18.5، 13.9، 14.2، 13.9، 14.2، 5. 9.3، 11.9، 16.5، 20، 17.6، 14.7، 8.4، 5.5، 3.8، 4.3، 3.1، 5.6، 8.5، 12.6، 16.1، 18.2، 18.9، 18.2، 18.9، 18.2، 18.9، 2.2، 16. 2.1، 6.3، 8.4، 12.7، 15.1، 16.5، 17.9، 16.2، 11.6، 7.6، 5.6، 1.7، 4.8، 5، 7.7، 14.2، 16.8، 17.8، 17.1، 17.1، 17.1. 6.5، 3.6، 2.2، 2، 4.7، 10.4، 12.8، 14.2، 16.3، 18، 14.2، 12.2، 5، 4.9، 4، 5.4، 6.6، 8.5، 11.9، 8.5، 11.9، 1.1. 14.2، 11.9، 5.9، 6، 1.6، 4.5، 6.4، 8.3، 13.6، 16.1، 20.8، 20.7، 17.5، 11.3، 7.3، 6.6، 4.6، 4.1، 6.8، 4.6، 6.1، 8.5 17.9، 15.5، 12.5، 10، 5.5، 5.8، 5.4، 4.7، 7.9، 9.1، 13، 15.8، 16.5، 17.6، 15.4، 12.3، 9.2، 7، 7، 4، 5. 12.2، 15.3، 17.3، 18.2، 15.3، 10.6، 6.3، 5.7، 3.5، 4.3، 5.7، 8.5، 14.2، 17، 17.2، 17.5، 14.7، 17.5، 14.7، 4.6.6. 5.9، 9.5، 13.8، 14، 17.4، 18.4، 14.5، 11.5، 7، 4.3، 1.1، 1.4، 4.4، 6.7، 15.1، 17.6، 18.3، 17.4، 18.3، 17.4، 18.3، 17.4، 1.1. 3.7، 5.4، 6.5، 8.4، 14.2، 15، 18، 18.1، 15.4، 9.7، 6.4، 6.9، 3.3، 3.7، 6.2، 7.8، 13.8، 16.3، 13.8، 16.3، 18.8، 18.8. 4.6، 5.5، 5، 6.4، 8.2، 9.9، 14.4، 16، 17.4، 16.5، 15.2، 11.5، 6، 4، 6.4، 4.2، 7.2، 8.9، 13.7، 13.7، 8.9، 13.7، 206 14.1، 4.7، 4.5، 3.4، 4.7، 6.6، 8، 14.8، 16.3، 16.7، 16.9، 13.7، 9.2، 5.4، 4.5، 3.7، 6.3، 7.6، 14.1، 2.19. 18.8، 15.1، 12.3، 5.3، 3.8، 3.8، 2.4، 6.4، 9.2، 14.1، 16.2، 18، 15.9، 15.2، 11.7، 7.1، 4.5، 7.1، 4.5، 4.9، 4.9، 4.5، 4.9. 17، 18، 17.6، 13.3، 11.8، 4.9، 3.9، 4.1، 8.3، 7.2، 10.3، 11.6، 14.5، 18.2، 18.7، 17.3، 11.5، 17.3، 11.5، 4.7، 8.3. 9.8، 13.7، 15.7، 18، 17.8، 15.2، 11.3، 6.7، 2.9، 5، 6.4، 7.1، 9.3، 11.8، 16.1، 20.5، 19.3، 12.3، 15.8، 15.8. -0.2، 6.7، 7.8، 13.2، 16.3، 19.1، 18.1، 18.4، 11.4، 7.3، 6.4، 5.8، 3.3، 7، 9.7، 12.1، 17.7، 17.2، 18.2، 17.3، 17.2 8.6، 4.5، 3.7، 3.3، 5.8، 8.8، 13.8، 17.5، 17.7، 17، 12.8، 10.6، 8.2، 3.2، 4.8، 1.4، 5.5، 8، 17.4، 12.1. 17.2، 11، 7.4، 5، 1.8، 4.3، 7.8، 10.1، 13.1، 15.4، 19.5، 20.1، 16.7، 12، 5.5، 0.3، 3.3، 3.1، 3.1، 3.3، 3.1، 3.2، 6.3. 20، 17.5، 17.1، 11.9، 5.8، 7.6، 2.6، 5.1، 6.2، 9.1، 11.6، 17.2، 19.5، 18.1، 16.1، 10.7، 7، 6، 3.9، 10.7، 7، 6، 3.9، 13.4، 16.1، 17.2، 18، 16، 9.1، 6.6، 4.2، 5.3، 6.9، 5.6، 9.9، 14.2، 16.6، 18.6، 19.1، 15.5، 19.1، 15.5، 6.3، 11.7. 8.8، 7.7، 11.7، 16.8، 17.5، 18.2، 15.6، 11.3، 9.3، 2.5، 5.3، 4.7، 5.4، 10.2، 11.5، 16.4، 18.2، 17.3، 16.4، 17.3، 1.1. 2.6، -0.9، 4.5، 7.1، 9.6، 13.5، 17.1، 17.1، 17.5، 15.6، 10.6، 7.6، 1.1، 0.7، 4.5، 7.3، 8.2، 16.3، 10.8 15.5، 10.8، 6.6، 3.7، 0.2-، 0.1-، 7.7، 10.6، 13.1، 16.7، 18.1، 18.7، 16.7، 13.2، 5.5، 4.8، 4.8، 4.8، 4.8، 1.5. 16.4، 19.2، 19.2، 16، 12.4، 5.9، 3.4، 5.1، 2.2، 5.1، 11.1، 13.4، 16، 18.6، 20.6، 15.2، 10.1، 15.2، 10.1، 15.2، 10.1، 7.4 - 7.1. 11.9، 14.8، 17.8، 20، 18.1، 16.7، 12.3، 6.5، 4.8، 1.7، 6.4، 6.7، 11.2، 13.1، 15.7، 18.9، 17.2، 18.9، 17.2، 1.1. 1، 1.3، 7.3، 11.3، 14.8، 17.9، 20.4، 20.9، 17.6، 12.1، 8.3، 3.8، 5.7، 4.5، 9.5، 10.4، 14، 17.1، 15.1، 14، 15.1، 7. 7.2، 4.6، 4.5، 5.4، 5.7، 11.7، 12.2، 16.8، 20.6، 19.8، 18.6، 13.4، 6.4، 5.1، 3، 6.4، 8، 8.2، 2، 18، 14. 15.2، 11.4، 7.4، 1.1، 4.6، 4.7، 5.8، 9.1، 11.8، 16.1، 18.7، 17.5، 16.5، 10.5، 8.7، 4.9، 2.1، 2.1، 4.9، 2.1، 2.1، 2.8. 17.9، 20.2، 18.9، 13.1، 10.9، 5.5، 3.5، 1.1، 3، 7.5، 10.1، 14.8، 15.4، 18، 18.8، 16.2، 12.1، 8.7، 7، 1. 8.6، 12.6، 16، 16.4، 16.9، 15.5، 12.4، 8، 6.2، 4.4، 3.6، 4.6، 10.3، 12.5، 16.4، 19.1، 19.2، 19.1، 19.2، 17.4، 10.7. 4.4، -1.8، 6.7، 8.1، 13.8، 14.4، 17.8، 16.4، 16.4، 10.6، 5.3، 5.2، 3.1، 6.9، 9.8، 9.6، 11.5، 9.6، 11.5، 15.1، 15.1. 11.8، 6.8، 3.6، 3.7، 6.2، 4.9، 7.9، 13.9، 15.6، 17.9، 18.4، 17.3، 11.4، 6.7، 5.1، 3.4، 4.5، 3.4، 4.5، 8.2، 8.6 20.3، 18.9، 17.2، 12.2، 6.8، 5.7، 3.5، 5، 8، 9.6، 14.5، 17.6، 16.8، 17.3، 14.5، 11.1، 8.4، 3.5، 3.5، 8.4، 3.5، 7.7. 12.5، 16.6، 17.7، 18، 18.5، 12.3، 6.4، 4.5، 4.8، 3.7، 3.9، 9.1، 11.5، 15.8، 17.6، 18.6، 15.9، 18.6، 15.9، 4.5، 1. -0.3، 6.5، 9.6، 12.2، 15.8، 18.5، 16.5، 15.2، | پیشبینی یک سری زمانی دمای ماهانه: اضافه کردن نویز به مقادیر پیشبینیشده |
41850 | لطفا، من به حمایت (نه راه حل) و ورودی نیاز دارم تا بدانم آیا راه درست است یا نه. ارتباط پیام های باینری را در یک رسانه انتقال در نظر بگیرید. هر پیامی که ارسال میشود از دو علامت ممکن، $0$ یا $1$ انتخاب میشود. هر نماد با احتمال مساوی رخ می دهد. همچنین مشخص است که هر مقدار عددی ارسال شده در آن کانال در معرض اعوجاج قرار می گیرد. اگر مقدار $x$ منتقل شود، مقدار $y$ در مقصد دریافت میشود که با $y = x + n$ توصیف میشود، که در آن n یک متغیر تصادفی را نشان میدهد که نویز افزودنی مستقل از $x$ است. نویز دارای توزیع نرمال با پارامترهای $σ^2 = 4$ و $\mu = 0$ است. 1. فرض کنید فرستنده نماد $0$ را با مقدار $x = -2$ و $1$ را با مقدار نماد $x = 2$ رمزگذاری می کند. در مقصد، پیام دریافتی طبق قوانین زیر رمزگشایی می شود: 2. هنوز .... * اگر $y ≥ 0$ باشد، نتیجه می گیریم که نماد $1$ ارسال شده است. * اگر $y <0$، نتیجه بگیرید که نماد $0$ ارسال شده است. ** س: احتمال خطا را برای این طرحواره رمزگذاری / رمزگشایی تعیین کنید. ** بنابراین، من می دانم که .... احتمال خطای بیت: $P(x=0|y=1) ~\&~ P(x= 1|y=0)$. احتمال انتقال هر سیگنال $(0,1)$ برابر است (یعنی $1/2$). $y_t = x_t + n_t$ که در آن $x_t$ یک سیگنال رایگان نویز است. با فرض اینکه نویز دارای توزیع گاوسی است. | خطای احتمالی - پیام باینری |
41852 | من یک پارامتر (مثلاً وزن) را به طور مکرر در مقاطع زمانی مختلف (مثلا ماهانه، برای 1 سال) برای دو گروه (مثلاً گروه آزمایش و کنترل) اندازه میگیرم. داده های من چیزی شبیه به داده های ارسال شده در این سوال است: تجزیه و تحلیل ANOVA اندازه گیری های مکرر با دو گروه. من می خواهم تغییر وزن در طول زمان را بین دو گروه مقایسه کنم. فکر می کنم برای این کار باید از ANOVA اندازه گیری های مکرر استفاده کنم. در SPSS، وقتی سعی میکنم این کار را انجام دهم، میتوانم در طول زمان پارامتر را در گروه مقایسه کنم، اما نه بین گروهها. کسی میتونه کمک کنه؟ | چگونه ANOVA اندازه گیری های مکرر را برای دو گروه در SPSS و 12 نقطه زمانی انجام دهیم؟ |
54487 | آیا stan (به ویژه rstan) دارای امکانات داخلی برای تولید توزیع های پیش بینی کننده پسین است؟ تولید توزیع از روی تناسب stan سخت نیست، اما من ترجیح میدهم چرخ را دوباره اختراع نکنم. | آیا stan کارهای پیش بینی کننده را انجام می دهد؟ |
1914 | من تجزیه و تحلیل داده های بیزی فضایی را انجام می دهم، یک کوواریانس نمایی بدون قطعه را فرض می کنم. من انواع مختلفی را برای پارامترهای آستانه و محدوده (گاما، گامای معکوس و غیره) امتحان کرده ام، متأسفانه قطرهای همگرایی معمولاً وحشتناک هستند. من در تعجب هستم که چگونه می توانم اختلاط ضعیفی را که مشاهده می کنم بفهمم، آیا کاری وجود دارد که بتوانم برای اینکه زنجیره MCMC رفتار بهتری انجام دهم؟ | انتخاب برای پیشین ها برای کوواریانس فضایی نمایی |
90080 | سوال بالقوه احمقانه: آیا اشکالی در مدلسازی دادههای غیرمنفی حاوی صفر با ضرب کردن آن در 10^ چیزی، سپس گرد کردن و سپس مدلسازی آن بهعنوان سم وجود دارد؟ یا معمولا این کار انجام می شود؟ در مورد من، من دادههایی در مورد بازده محصول دارم که شامل شکست کامل محصول میشود، و پاسخ در برابر نمودارهای برازش شده (از OLS) مقادیر زیادی را زیر صفر نشان میدهد. علاوه بر این، اندازهگیریها نویز دارند، بنابراین من واقعاً اطلاعات زیادی را با گرد کردن از دست نمیدهم. بنابراین ضرب، گرد کردن، و مدل سازی به عنوان poisson جذاب به نظر می رسد. در نهایت، این در یک زمینه با جلوههای ثابت (دادههای پانل) اتفاق میافتد، و من میخواهم خطاهای استاندارد خوشهای را، یا توسط واحد مقطعی، یا توسط یک واحد وسیعتر که CSU در آن قرار دارد، دریافت کنم. من با این مقاله توسط Paul Allison برخورد کردم که نشان میدهد FE Poisson تخمینهای تقریباً ثابتی از $\beta$ ارائه میدهد، اما SE بسیار کوچکی دارد. اما من همچنین می بینم که stata دستور xtpoisson را ارائه می دهد. آیا stata این مشکل را اصلاح می کند یا از آن رنج می برد؟ آلیسون نشان میدهد که رویکرد FE مشروط که stata استفاده میکند، تخمینهای یکسانی را برای مدلی ارائه میدهد که به سادگی دارای ساختگیهایی برای CSU است. اگر بخواهم رگرسیون متغیر ساختگی را در R اجرا کنم و از تابع خوشهبندی Arai استفاده کنم، آیا اساساً همان کاری را انجام میدهم که stata انجام میدهد؟ | صفرها در داده های غیرمنفی: آیا می توانید در 10^c ضرب کنید، گرد کنید و سپس به عنوان پواسون GLM مدل کنید؟ |
81047 | من می خواهم نمونه های تصادفی را از یک توزیع نرمال دو متغیره تحت یک شرط تولید کنم. اولین متغیر نرمال $\varepsilon_1$ و دومین متغیر نرمال $\varepsilon_2$ است. شرط $\varepsilon_1>T_1$ است که $T_1$ یک ثابت است، و $ a \varepsilon_1 + b\varepsilon_2 <T_2$ که $a$، $b$، و $T_1$ ثابت هستند. $\varepsilon_1$ و $\varepsilon_2$ مستقل هستند. بنابراین شرایط یک منطقه در فضای دوبعدی ایجاد می کند که توسط خط عمودی $T_1$ و یک خط کج محدود شده است. آیا راهی برای انجام این کار بدون تولید نمونه های تصادفی زیاد و پرتاب نمونه ها به خارج از منطقه شرط وجود دارد؟ دلیل آن این است که احتمال در منطقه شرایط می تواند بسیار کم باشد، بنابراین دور انداختن نمونه ها یک گزینه نیست. | نمونه گیری مشروط از نرمال های دو متغیره |
62577 | فکر می کنم دلم برای اینجا تنگ شده است. به نظر من روش تک عاملی در یک زمان و روش اسپلیت پلات هر دو مقادیر چند عامل را تغییر می دهند، یک عامل در یک زمان. پس چه تفاوت هایی بین آنها وجود دارد؟ با تشکر | چه تفاوت هایی بین روش تک عاملی در یک زمان و روش اسپلیت پلات وجود دارد؟ |
58100 | **سوال من:** کدام تبدیل داده مقادیر مثبت مقادیر منفی در مقیاس تبدیل شده ایجاد می کند؟ ** زمینه: ** من به مقاله ای که اخیراً منتشر شده است نگاه می کنم که در آن شکلی وجود دارد که گزارش می دهد محور x بر حسب متر در مقیاس تبدیل شده log-10 است. من بسیار علاقه مند هستم که محدوده واقعی داده های فاصله خام چقدر بود. مقادیر اصلی باید از 0 تا شاید 5000 متر متغیر باشد (اگرچه آنها فواصل واقعی را در مقاله نشان نمی دهند). با این حال، مقادیر موجود در مقیاس از 2.0- تا 0.5 متغیر است (شکل زیر را ببینید)، و نه log و نه تبدیل لاگ طبیعی نمی توانند مقادیر منفی ایجاد کنند. مقادیر لاگ باید از 0 تا ~3.5 و لاگ طبیعی از 0 تا ~8.5 متفاوت باشد. آنها از تبدیل آرکسین برای دادههای درصدی در جای دیگر مقاله استفاده کردند، اما این تبدیل نیز نمیتواند مقادیر منفی تولید کند (و نمیتواند با مقادیر بزرگتر از 1 مقابله کند، من معتقدم). بدیهی است که تبدیل ریشه مربع نیز نمی تواند مقادیر منفی ایجاد کند.  | مبارزه با دگرگونیهای دادهای که میتوانند مقادیر منفی تولید کنند |
108473 | فرض کنید من یک برآوردگر بی طرفانه $u(\underline x)$ برای تابع $v(\theta)$ دارم که در آن $\theta$ پارامتری از توزیع $x$ است و $T(\underline x)$ که یک آمار کافی برای $\theta$ است. برای استفاده از Rao- Blackwell برای کاهش واریانس برآوردگر، باید $E(u(\underline x)|T(\underline x))$ را پیدا کنم. برای این کار باید PDF مشترک $f_{u,T}(u(\underline x),T(\underline x))$ و PDF حاشیه $f_{T}(T(\underline x))$ را پیدا کنم. من می توانم ${f_{u,T}(u(\underline x),T(\underline x))}\over{f_{T}(T(\underline x))}$ محاسبه کنم. اگر من به اندازه کافی خوش شانس نیستم که توزیعی داشته باشم که در آن فایل های PDF با بازرسی یا دانش قبلی مشخص هستند، استراتژی ایمن برای یافتن فایل های PDF مشترک و حاشیه ای؟ غالباً $T(\underline x)$ یک آمار سفارش یا تابعی از $\underline x$ است که برای چگالی آن برای عبارت بسته قابل تراشی اتفاق میافتد، اما حتی در این موارد من در مورد چگونگی بازگرداندن آن ناامید هستم. در PDF اصلی $\underline x$ به منظور دریافت PDF مشترک داده ها و آمار کافی. | چگونه می توان توزیع شرطی را برای برآوردگر Rao-Blackwellizing پیدا کرد؟ |
96868 | (stackoverflow را امتحان کردم اما به من گفت که ممکن است در اینجا شانس بیشتری داشته باشم). من به دنبال کمکی برای تفسیر varImp با استفاده از مدل چند جمله ای GLMNET بر روی یک متغیر عامل 3 سطحی هستم. طرح و داده ها برای من معنی ندارند. Bin 1 var3 را مهمترین نشان میدهد، اگرچه به نظر میرسد که var1 و 2 عملکرد بهتری دارند. Bin 3 var3 را بیش از 50% نشان می دهد و این منطقی نیست زیرا var3 برای bin 3 کاملاً تصادفی است. همچنین آیا علامت 50 درصد را باید خنثی دانست؟ یا باید 0% باشه؟ من عاشق خروجی فاکتور varImp هستم، تا زمانی که بتوانم به طور قابل اعتماد تعیین کنم که کدام متغیر برای کدام bin مهمتر است. من اینجا چه چیزی را از دست داده ام؟  در اینجا دادههایی است که برای نشان دادن مثال خود ایجاد کردم (dput زیر): var1,var2,var3,response 1, 1,2,1 1,1,2,1 1,1,2,1 1,1,2,1 1,1,5,1 1,1,5,1 1,1,5,2 2,2,5,2 2,2,5,2 2,2,7,2 2,2,7,2 2,2,11,3 2,2,12,3 2 ,2,23,3 2,3,24,3 3,2,112,3 3,3,12,3 3,3,18,3 3,3,12,3 3,3,20,3 3,3,2,3 3,3,3,3 3,3,4,3 کد برای بازتولید نمودار varImp زیر: library(caret) data_file <- structure(list(var1 = c (1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، var2 = c(1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر ، 2 لیتر، 3 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، var3 = c(2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 7 لیتر، 7 لیتر، 11 لیتر، 12 لیتر، 23 لیتر، 24 لیتر، 112 لیتر، 18 لیتر 12 لیتر، 20 لیتر، 2 لیتر، 3L، 4L)، پاسخ = c(1L، 1L، 1L، 1L، 1L، 1L، 2L، 2L، 2L، 2L، 2L، 3L، 3L، 3L، 3L، 3L، 3L، 3L.، 3L. ، 3L، 3L))، .Names = c(var1، var2، var3، response)، class = data.frame، row.names = c(NA, -23L)) پیشبینیکننده <- c(var1،var2،var3) pretend_model <- train(x = data_file[,predictors], y= as.factor(data_file[['response']]), متد = glmnet، preProc = c(مرکز، مقیاس)) imp <- varImp(pretend_model, scale = T) plot(imp) | تفسیر varImp با استفاده از مدل GLMNET بر روی فاکتور 3 سطحی |
880 | سوال من در مورد اعتبار سنجی متقاطع است زمانی که متغیرهای بسیار بیشتر از مشاهدات وجود دارد. برای اصلاح ایدهها، من پیشنهاد میکنم به چارچوب طبقهبندی در ابعاد بسیار بالا (ویژگیهای بیشتر از مشاهده) محدود شود. **مشکل:** فرض کنید برای هر متغیر $i=1,\dots,p$ شما یک معیار اهمیت $T[i]$ دارید تا اینکه دقیقاً علاقه ویژگی $i$ را برای مشکل طبقه بندی اندازه بگیرید. سپس مشکل انتخاب زیرمجموعه ای از ویژگی برای کاهش بهینه خطای طبقه بندی به مشکل یافتن تعداد ویژگی ها کاهش می یابد. **سوال:** کارآمدترین راه برای اجرای اعتبارسنجی متقاطع در این مورد (طرح اعتبارسنجی متقاطع) چیست؟ سوال من در مورد نحوه نوشتن کد نیست، بلکه در مورد نسخه اعتبار سنجی متقاطع برای استفاده در هنگام تلاش برای یافتن تعداد ویژگی انتخاب شده (برای به حداقل رساندن خطای طبقه بندی) است، بلکه نحوه برخورد با بعد بالا هنگام انجام اعتبار سنجی متقاطع است (از این رو مشکل بالا ممکن است کمی شبیه یک مشکل اسباب بازی برای بحث در مورد CV در ابعاد بالا باشد). **نشانها:** $n$ اندازه مجموعه یادگیری، p تعداد ویژگیها (یعنی بعد فضای ویژگی) است. منظور من از ابعاد بسیار بالا p>>n است (برای مثال $p=10000$ و $n=100$). | اعتبار سنجی متقاطع در ابعاد بسیار بالا (برای انتخاب تعداد متغیرهای مورد استفاده در طبقه بندی ابعاد بسیار بالا) |
20019 | آیا کسی مستندات خوبی برای تجزیه و تحلیل تمایز دارد؟ من 9 متغیر (اندازه گیری)، 60 بیمار دارم و نتیجه من جراحی خوب، جراحی بد است. همچنین آیا حجم نمونه من خیلی کوچک است؟ متشکرم | حجم نمونه و مستندات برای تجزیه و تحلیل متمایز |
881 | در اینجا چیزی است که من مدتی در مورد آن متعجب بودم، اما نتوانستم اصطلاحات صحیح را کشف کنم. فرض کنید یک تابع چگالی نسبتاً پیچیده دارید که گمان میکنید ممکن است تقریبی نزدیک به عنوان مجموع توابع چگالی سادهتر (با وزن مناسب) داشته باشد. آیا چنین مواردی مطالعه شده است؟ من به خصوص علاقه مند به خواندن در مورد هر برنامه ای هستم. این یک مثال است که من پیدا کردم: بسط توابع چگالی احتمال به عنوان مجموع چگالی گاما با کاربرد در تئوری ریسک | بسط سری تابع چگالی |
10497 | من پس از خواندن مقالات زیر علاقه مند به انجام این کار در سی شارپ برای سرگرمی خودم شدم: http://www.cs.washington.edu/homes/brun/pubs/pubs/Kiddon11.pdf همچنین نگاهی به http:/ /www.cs.rpi.edu/academics/courses/fall03/ai/misc/naive-example.pdf به عنوان یک مثال عینی برای اجرای من. من اکنون یک پیاده سازی کار دارم، اما می خواستم مطمئن شوم که به درستی به آن نزدیک شده ام. من فقط می خواهم یک طبقه بندی کننده (unigram) جامد Naive Bayes داشته باشم. **بیان مشکل و تنظیم** من از دو مجموعه داده استفاده می کنم، لیستی از جملاتی که عبارتند از این چیزی است که او گفت و لیستی از جملاتی که با پسوند این چیزی است که او گفت معنی ندارند. در مرحله بعد، تمام کلمات موجود در تمام جملات را تجزیه میکنم و روی هر کلمه و تعداد دفعاتی که در هر یک از دو مجموعه پیدا شده است، حساب میکنم، بنابراین ممکن است به دادههایی به این شکل برسم: Word PositiveCount NegativeCount wet 23 4 سخت 30 5 هائیتی 0 20 تا 60 77 من روی همه کلمات تکرار می کنم و فردی را محاسبه می کنم $\Pr(\text{مثبت}|\text{<word>})$ و $\Pr(\text{منفی}|\text{<word>})$ با استفاده از فرمول زیر که در مثال بالا پیدا کردم کاغذ: P(مثبت| مرطوب) = (23 + p * m) / ((23 + 4) + m) P(منفی| مرطوب) = (4 + p * m) / ((23 + 4) + m) جایی که **m اندازه نمونه معادل** و **p تخمین پیشینی** است. سپس برای بررسی یک جمله مجهول برای اینکه ببینم آیا آن یک TWSS است، روی هر کلمه در جمله تکرار میکنم و [توزیعهای احتمال؟] مثبت آنها را در هم ضرب میکنم و همه آن را در p ضرب میکنم. و همین کار را برای منفی انجام دهید. سپس اگر عدد مثبت بزرگتر باشد، می گویم که جمله این چیزی است که او گفت است. **سوالات** 1. در حال حاضر من از $p = 0.5$ برای مثبت و منفی استفاده می کنم. احساس می کنم می توانم کار بهتری انجام دهم. آیا موضوع بیزی در مقابل مکرر گرا در مورد این است؟ چگونه می توانم اعداد بهتری را برای $p$ دریافت کنم؟ 2. همچنین، من از $m$-estimates برای $\Pr( \text{Yes/No} | \text{<word>} )$ استفاده میکنم. آیا باید این کار را به این صورت انجام دهم و $m$ باید چقدر باشد؟ چه اثراتی برای بزرگتر/کوچکتر کردن $m$ دارد؟ سوال فوق العاده جزئی: پیشنهادهایی در مورد اینکه داده های نمونه را از کجا دریافت کنید یک امتیاز است. | طبقه بندی ساده بیز برای مشکل این چیزی است که او گفت. |
49675 | فرض کنید تعداد n مجموعه هایی با تعداد عناصر متفاوت داریم که برخی از آنها در بیش از یک مجموعه ظاهر می شوند. هر عنصر می تواند صفر یا چند ویژگی داشته باشد. اگر به ما گفته شود که یک عنصر در همه مجموعه ها ظاهر می شود، احتمال اینکه یک ویژگی خاص 't' داشته باشد چقدر است؟ به عنوان یک مثال عینی، فرض کنید دو دسته کارت بازی استاندارد داریم، یکی که الماس ها را از دست داده است و دیگری کلوپ ها و بیل ها را از دست داده است. حال اگر کارتی که در هر دو عرشه ظاهر می شود انتخاب شود، احتمال اینکه آن یک قلب باشد چقدر است؟ | احتمال وجود یک عنصر خاص در مجموعههای مختلف دارای ارزش ویژگی یکسان |
14979 | من یک مشکل واقعی شبیه به دو زیرمسئله زیر دارم که در مورد _به حداکثر رساندن نماینده نمونه ها_ هستند (و شاید واریانس کمتری نسبت به نمونه گیری تصادفی ساده بدست می آورند، اما به دلیل حجم نمونه کوچک، نمی توان از سود طبقه بندی استفاده کرد): * * ## مثال 1: با توجه به جمعیت 1000 نفری، قد آنها مشخص است. **اندازه نمونه باید n=5`** باشد. میانگین وزن آنها باید تخمین زده شود. با در نظر گرفتن حجم نمونه کوچک و اطلاعات قبلی، روش معقولی برای رسم نمونه چیست؟ به طور شهودی، بهتر از نمونهگیری تصادفی ساده، ترسیم افراد به طور مساوی از کوچک به بزرگ (کوچک، نیمه کوچک، متوسط، نیمه بزرگ، بزرگ) است. ## مثال 2: با توجه به جمعیت 1000 نفری، حجم نمونه n=5 است. اکنون 45 درصد از جمعیت به گروه 1، 25 درصد به گروه 2، 15 درصد به گروه 3، 10 درصد به گروه 4 و 5 درصد به گروه 5 تعلق دارند. می توان فرض کرد که اعضای یک گروه وزن مشابهی دارند. حالا راه خوبی برای رسم نمونه ای از این جمعیت چیست؟ بطور شهودی حدود 45% از نمونه باید از گروه 1، 25% از گروه 2 باشد... (اما چگونه میانگین و واریانس را محاسبه کنیم؟) * * * روش های نمونه گیری باید شامل یک جزء تصادفی باشد و –- علاوه بر برآوردهای انتظار - برآوردهای واریانس برای _ساخت فواصل اطمینان_ برای وزن میانگین مجهول مورد نیاز است. | روش صحیح نمونه گیری با اطلاعات قبلی در مورد متغیر دیگری |
13213 | من از R برای محاسبه KPSS برای بررسی ثابت بودن استفاده می کنم. کتابخانه ای که من استفاده می کنم _tseries_ است و تابع آن **kpss.test** است. من یک آزمایش ساده با استفاده از _cars_ انجام داده ام (یک ماتریس پیش فرض در R). کد این است: > k <- kpss.test(cars$dist, null=Trend) پیام هشدار: در kpss.test(cars$dist, null = Trend) : p-value بیشتر از p-value چاپ شده است > k آزمون KPSS برای داده های ثابت روند: cars$dist KPSS Trend = 0.0859، پارامتر تاخیر کوتاهی = 1، p-value = 0.1 > k$statistic KPSS Trend 0.08585069 > k$parameter پارامتر تاخیر کوتاهی 1 > k$p.value [1] 0.1 > k$method [1] تست KPSS برای ثابت بودن روند > k$data.name [1] cars$dist اینها همه نتایجی هستند که kpss برمی گرداند. سوال من اینه: _چطوری تعبیرشون کنیم که بفهمیم ثابته؟_ پیشاپیش ممنون! | چگونه نتایج KPSS را تفسیر کنیم؟ |
13211 | من در واقع می دانم که پاسخ $N(k-1)$ است (که $k$ حداقل بین تعداد سطرها و تعداد ستون ها است). با این حال، به نظر نمیرسد که دلیل سادهای برای این که چرا آمار محدود به این است، پیدا کنم. هر گونه پیشنهاد (یا مرجع؟) | حداکثر آمار مربع کای پیرسون چقدر است؟ |
94707 | یک توضیح ساده از نحوه عملکرد الگوریتم GEE چیست؟ فرآیند GEE دقیقاً چگونه به تخمین نهایی پارامترها می رسد؟ | فرآیند تکرار GEE |
54483 | من اطلاعات سالانه واردات محصولات ماهی به پرتغال (سالهای 2000 تا 2011) در هر کشور را دارم. برخی از روندها وجود دارد که من می خواهم آنها را تجسم کنم، به عنوان مثال برخی از کشورها از تحصیل خارج شده و به عنوان صادرکننده وارد 5 کشور برتر می شوند. اکنون من واقعاً مطمئن نیستم که چگونه می توانم این کار را به روشی غیر گیج کننده انجام دهم که تغییرات را برجسته می کند اما آمار را به اشتباه منتقل نمی کند و تمیز است. تغییرات IMO در نمودار خطی (به غیر از محتوای بیش از حد) بیشتر از مثلاً در نمودارهای دایره ای (فقط دو مجموعه داده نشان داده شده است) مشهود است. اما آیا تجسم دادههای جمعآوریشده در نمودارهای خطی درست است (یا ممکن است به اشتباه بگویم که دادهها متصل هستند)؟ نمودار خطی  نمودارهای دایره ای  | ارائه / تجسم داده های جمع آوری شده برای سال ها |
21825 | من سعی می کنم احتمال درست شدن 8 آزمایش پشت سر هم در یک بلوک 25 آزمایشی را پیدا کنم، شما 8 بلوک کل (از 25 آزمایش) دارید تا 8 آزمایش پشت سر هم درست باشد. احتمال درستی هر آزمایشی بر اساس حدس زدن 1/3 است، پس از تصحیح 8 در یک ردیف، بلوک ها به پایان می رسد (بنابراین گرفتن بیش از 8 در یک ردیف صحیح از نظر فنی امکان پذیر نیست). چگونه می توانم احتمال وقوع این اتفاق را بیابم؟ من به این فکر کرده ام که از (1/3)^8 به عنوان احتمال درست گرفتن 8 پشت سر هم استفاده کنم، 17 شانس ممکن برای بدست آوردن 8 پشت سر هم در یک بلوک 25 آزمایشی وجود دارد، اگر 17 را ضرب کنم. احتمالات * 8 بلوک که من 136 دریافت می کنم، 1-(1-(1/3)^8)^136 به من احتمال می دهد که 8 در یک در این شرایط ردیف صحیح است یا من چیزی اساسی را در اینجا گم کرده ام؟ | احتمال بیش از بلوک های متعدد از رویدادها |
4013 | من این تاپیک را مطالعه کردم و به نظرم می رسد که می توان گفت: * آمار = استقرا؟ * احتمال = کسر؟ اما من نمی دانم که آیا ممکن است جزئیات بیشتری در مورد مقایسه وجود داشته باشد که من از دست داده ام. مثلاً آیا آمار مساوی استقرا است یا فقط یک مورد خاص از آن است؟ به نظر می رسد که احتمال یک مورد فرعی از کسر است (زیرا مورد فرعی تفکر ریاضی است). میدانم که این یک سؤال حساس است، اما به یک معنا به همین دلیل است که آن را میپرسم - زیرا میخواهم مطمئن شوم که چگونه میتوان این اصطلاحات را با دقت مقایسه کرد. | آیا می توانید بگویید که آمار و احتمال مانند استقراء و کسر است؟ |
90880 | من برخی از کارهای طبقه بندی را با استفاده از طبقه بندی کننده k-nearest-neighbour (kNN) انجام داده ام. و عملکرد طبقهبندی با استفاده از روش اعتبارسنجی متقاطع ارزیابی میشود. برخی از کدهای تست از Matlab Help عبارتند از load ionosphere. [N,D] = اندازه (X) resp = منحصر به فرد (Y) rng(8000،'twister') % برای تکرارپذیری K = round(logspace(0,log10(N),10)); % تعداد همسایگان cvloss = صفر (numel(K),1); برای k=1:numel(K) knn = ClassificationKNN.fit(X,Y,... 'NumNeighbors',K(k),'CrossVal','On'); cvloss(k) = kfoldLoss(knn); شکل پایانی؛ % دقت را در مقابل k semilogx (K,cvloss) رسم کنید. xlabel('تعداد نزدیکترین همسایگان'); ylabel('10 برابر خطای طبقه بندی'); عنوان ('طبقه بندی k-NN'); میتوانیم تعداد k را در kNN تنظیم کنیم و با توجه به خطای اعتبار متقاطع رسم کنیم. در این مورد، نمودار مانند زیر است  می بینیم که نمودار یک خطای کمی بزرگتر را با استفاده از بسیار کوچک نشان می دهد. مقدار، به عنوان مثال k=1. و با افزایش k، خطا پایین می آید و در k=2 به کمترین خطا می رسد. و خطا بالاتر و بالاتر می رود و بعد از k>100 به مقداری پایدار می رسد. سوال من این است که چگونه نتایج را تفسیر کنیم؟ 1. چرا k مانند k=1 بسیار کوچک است، خطای کمی بزرگتر داریم؟ 2. چرا k کوچک است ما می توانیم بهترین عملکرد را به دست آوریم؟ 3. چرا وقتی k بسیار بزرگ است، خطای بسیار بزرگی دریافت می کنیم؟ لطفاً اگر پیشینه ریاضی پشت این موارد وجود دارد، مرجعی ارائه دهید. خیلی ممنون الف | چگونه عدد k را در طبقهبندیکننده k-نزدیکترین همسایه تفسیر کنیم؟ |
14974 | مثالی از الگوریتمی چیست که وقتی توزیع مشخصی در بین گروههای گسسته دارم و نوعی امتیاز مدل دارم که یک نفر در هر گروه است، افراد را به گروههایی اختصاص میدهد که مجموع امتیازات گروه حداکثر شود، یا برخی معیارهای عینی دیگر برآورده شده است و ما توزیع کلاس شناخته شده را ارج می نهیم. من کدی دارم که واحدهای طبقه بندی شده را به گروه مرتبط با حداکثر امتیاز واحد یک به یک اختصاص می دهد تا زمانی که یک گروه پر شود. با بالاترین واحدهای امتیازی شروع میشود که باعث ایجاد مشکل میشود، زیرا گروههایی که احتمال کلاس بالاتری در پیشبینیها نسبت به شناختهشده دارند، در نهایت تحت سلطه واحدهای پیشبینیکننده قرار میگیرند که دادههای زیادی تولید میکنند (مثلاً اسناد طولانی). آیا شخص دیگری با این مشکل مواجه شده است یا قبلاً در مشکلات طبقه بندی به این موضوع فکر کرده است؟ | طبقه بندی چند کلاسه زمانی که توزیع کلاس مشخص باشد |
112822 | فرض کنید من $N$ مورد دارم $\\{x_n\\}_{n=1}^N$ (همچنین بردار ویژگی را به عنوان $x_n$ نشان دهید) و ترجیحات زوجی $M$ را مشاهده کرده ام $\\{x_{ i_m} \succ x_{j_m}\\}_{m=1}^M$ از یک کاربر. اکنون میخواهم ترجیح این کاربر را روی یک جفت نامشخص $x_i$ و $x_j$ پیشبینی کنم. من ابتدا یک تابع کاربردی $f\sim\mathcal{GP}(0,\Sigma)$ را فرض میکنم، به طوری که $f(x_i) > f(x_j) \Leftrightarrow x_i \succ x_j \Leftrightarrow y_{ij} = 1$ . سپس فرض میکنم که احتمال ترجیح توسط $$ \Pr(y_{ij}=1)=\frac{1}{1+\exp[f(x_j)-f(x_i)]} $$ دادهشده است. مدل به نظر من خوب است اما ماتریس $Y=(y_{ij})_{n\times n}$ را کجا باید در Stan قرار دهم؟ اگر آن را در بلوک «داده» قرار دهم، به نظر می رسد که باید همه ورودی ها را ارائه کنم. همچنین قرار دادن قسمت از دست رفته در بلوک «پارامترها» غیرواقعی است زیرا من به بسیاری از ترجیحات دیگر علاقه ای ندارم. پس راه صحیح انجام این کار در Stan چیست؟ به نوعی احساس میکنم که تابع «increment_log_prob» ممکن است کمک کند، اما مطمئن نیستم که چگونه. متشکرم. | چگونه با داده های گمشده (مشاهده نشده) بی علاقه رفتار کنیم؟ |
94703 | من سه سیگنال (زیر) دارم که هر کدام دارای انحراف استاندارد یکسانی هستند، اما به وضوح از نظر زمانی بسیار متفاوت هستند.  آیا چنین معیاری وجود دارد که بتوان برای هر یک از این سیگنال ها محاسبه کرد تا نشان دهد که چگونه آنها در طول زمان تغییر می کنند، مانند به عنوان معیاری برای پیوستگی یا تناوب در صورت وجود چنین متریک. در صورت امکان، من میخواهم این کار را با محاسبه یک عدد برای هر یک از این سیگنالها انجام دهم، نه اینکه پنجرهای را به قطعات کوچکتر تبدیل کنم. با تشکر | اندازه گیری متناوب/پیوستگی یک سیگنال |
14976 | فرض کنید من متغیری را در خواهر و برادرها اندازه گیری کرده ام که در خانواده ها تودرتو هستند. ساختار داده به این صورت است: مقدار خواهر و برادر خانواده ------ ------- ----- 1 1 y_11 1 2 y_12 2 1 y_21 2 2 y_22 2 3 y_23 ... ... . .. من می خواهم بدانم ارتباط بین اندازه گیری های انجام شده بر روی خواهر و برادر در یک خانواده وجود دارد. روش معمول برای انجام این کار، محاسبه ICC بر اساس یک مدل قطع تصادفی است: res <- lme(yij ~ 1، تصادفی = ~ 1 | خانواده، داده=dat) getVarCov(res)[[1]] / ( getVarCov(res)[[1]] + res$s^2) اگر من فقط جفت خواهر و برادر در خانواده داشتم، این معادل با: res <- gls (yij ~ 1، همبستگی = corCompSymm (شکل = ~ 1 | خانواده)، داده = داده) با این تفاوت که رویکرد دوم همچنین اجازه ICC منفی را می دهد. حالا فرض کنید من سه مورد را در خواهر و برادرهای تودرتو در خانواده ها اندازه گیری کرده ام. بنابراین، ساختار داده به این شکل است: مقدار آیتم خواهر و برادر خانواده ------ ------- ---- ----- 1 1 1 y_111 1 1 2 y_112 1 1 3 y_113 1 2 1 y_121 1 2 2 y_122 1 2 3 y_123 2 1 1 y_211 2 1 2 y_212 2 1 3 y_213 2 2 1 y_221 2 2 y_222 2 2 3 y_223 2 3 1 y_231 2 3 2 y_232 2_ ... 3 3 ... می خواهم به در مورد: 1. همبستگی بین اندازهگیریهای انجامشده بر روی خواهر و برادر در یک خانواده برای یک مورد 2. همبستگی بین اندازهگیریهای انجامشده بر روی خواهر و برادرهای داخل یک خانواده برای آیتمهای مختلف اگر فقط جفت خواهر و برادر در خانوادهها داشتم، فقط این کار را انجام میدادم: Res <- gls (yijk ~ آیتم، همبستگی = corSymm(شکل = ~ 1 | خانواده)، وزن = متغیر(شکل = ~ 1 | item)، data=dat) که به من یک ماتریس $6 \times 6$ var-cov روی باقیمانده های فرم می دهد: $\left[\begin{array}{cccc|ccc} \sigma^2_1 & \rho_{12 } \sigma_1 \sigma_2 & \rho_{13} \sigma_1 \sigma_3 & \phi_{11} \sigma^2_1 & \phi_{12} \sigma_1 \sigma_2 & \phi_{13} \sigma_1 \sigma_3 \\\ & \sigma^2_2 & \rho_{23} \sigma_2 \sigma_3 & \phi_{22} \ sigma^2_2 & \phi_{23} \sigma_2 \sigma_3 \\\ & & \sigma^2_3 & & & \phi_{33} \sigma^2_3 \\\ \hline & & & \sigma^2_1 & \rho_{12} \sigma_1 \sigma_2 & \rho_{13 } \sigma_1 \sigma_3 \\\ & & & & \sigma^2_2 & \rho_{23} \sigma_2 \sigma_3 \\\ & & & & & \sigma^2_3 \\\ \end{array}\right]$ که بر اساس آن میتوانم به راحتی آن همبستگیهای خواهر و برادری را تخمین بزنم ($\phi_ {jj}مقدارهای $ ICC برای یک مورد هستند. با این حال، همانطور که در بالا نشان داده شد، برای برخی از خانواده ها، من فقط دو خواهر و برادر دارم، اما برای خانواده های دیگر بیش از دو خواهر. بنابراین، این باعث میشود فکر کنم که باید به یک مدل واریانس-مولفهها برگردم. با این حال، همبستگی بین آیتم ها ممکن است منفی باشد، بنابراین من نمی خواهم از مدلی استفاده کنم که همبستگی ها را برای مثبت بودن محدود کند. هر گونه ایده/پیشنهاد در مورد اینکه چگونه می توانم به این موضوع نزدیک شوم؟ پیشاپیش برای هر کمکی متشکرم! | ضرایب همبستگی درون طبقاتی (ICC) با متغیرهای چندگانه |
94704 | اجازه دهید $x,y\in R^d$ و $d:R^d\times R^d \rightarrow R$ یک متریک در $R^d$ داده شود. هسته نمایی با: $k(x,x')=e^{−αd(x,x')}$ که $α>0$ تعریف میشود. ماتریس هسته به عنوان ماتریس گرم $k$ تعریف می شود: $K_{ij}=k(x_i,x_j), i,j∈[1…n]$. آیا می توان ثابت کرد که $K$ یک ماتریس معین مثبت (نیمه مثبت) است، یعنی $k$ یک هسته قطعی Mercer مثبت است؟ | ثابت کنید که این هسته نمایی مثبت قطعی است |
90885 | فرض کنید توزیع نمرات IQ در جمعیت عمومی را به عنوان یک متغیر تصادفی نرمال با میانگین 100 و انحراف معیار 15 مدل کنیم. احتمال این را پیدا کنید که نمره هوش فردی که به طور تصادفی انتخاب شده است بین 125 تا 130 باشد. من می دانم که نمره IQ 130 است. 2 انحراف استاندارد با میانگین فاصله دارد و 125 با 1.666 انحراف استاندارد فاصله دارد. من همچنین می دانم که اگر X توزیع نرمال استاندارد را داشته باشد، σ⋅X+μ دارای توزیع نرمال با میانگین μ و انحراف استاندارد σ، برای هر μ واقعی و هر σ>0 است. من برای هر کدام z-score را محاسبه کردم و آنها به ترتیب .9772 و .9515 هستند. با این حال، من باید مطمئن شوم که حداقل 6 رقم بعد از نقطه اعشار صحیح است، بنابراین پاسخ من 0.0257 کافی نیست. آیا فکر من درست است؟ و اگر چنین است، چگونه می توانم پاسخی با ارقام اعشاری بیشتر برای پاسخ خود دریافت کنم؟ | احتمال با Z-Score |
13218 | من یک متغیر وابسته، 3 پیش بینی و 1 متغیر گروه دارم. من می خواهم شیب های تصادفی را برای هر یک از سه پیش بینی کننده تخمین بزنم. آیا نماد زیر صحیح است؟ lmer(وابسته به پیش بینی 1 + پیش بینی 2 + پیش بینی 3 + (1+ پیش بینی کننده1|گروه)+ (1+ پیش بینی2|گروه) + (1+ پیش بینی 3 | گروه) ? | برآورد شیب تصادفی برای 3 متغیر در مدل چندسطحی |
13216 | من روی راهحلهایی برای اولین پرسشهای بیپاسخ خود کار میکردم و پیشنهاد شده بود تا نسبت تعداد کل مرگها را که تعداد مرگهای غیرطبیعی هستند، مدلسازی کنم. دلیل اینکه من می خواهم این کار را انجام دهم این است که می خواهم تعداد مرگ و میرهای طبیعی و غیرطبیعی را برای یک ماه خاص از یک منطقه برای یک جنسیت مشخص تعیین کنم. بگویید دادههای من به این شکل است: (دادهها تا سال 2009 افزایش مییابد، جایی که کل سال 2007 وجود ندارد و 3 ماه اول سال 2008 وجود ندارد - تعداد مرگها.) ناحیه جنسیت سال ماه گروه سنی غیرطبیعی طبیعی مجموع 961 Khayelitsha زن 2001 1 0 0 6 6 965 Khayelitsha زن 2001 2 0 2 9 11 969 Khayelitsha زن 2001 3 0 3 10 13 973 Khayelitsha زن 2001 4 0 0 14 14 977 Khayelitsha زن 2001 5 0 0 16 1601 Khayelitsha 13 13 985 Khayelitsha زن 2001 7 0 3 11 14 989 Khayelitsha مونث 2001 8 0 1 12 13 993 Khayelitsha زن 2001 9 0 0 6 6 997 12001 Khayelitsha 1 2001 1001 Khayelitsha زن 2001 11 0 0 7 7 1005 Khayelitsha Female 2001 12 0 2 8 10 1009 Khayelitsha Female 2002 1 0 0 13 13 1013 Khayelitsha 13 1013 2001 1017 Khayelitsha زن 2002 3 0 0 9 9 1021 Khayelitsha Female 2002 4 0 0 14 14 1025 Khayelitsha Female 2002 5 0 0 14 14 1029 Khayelitsha 1029 1029 Khayelitsha 1029 1033 Khayelitsha زن 2002 7 0 2 12 14 1037 Khayelitsha زن 2002 8 0 1 6 7 1041 Khayelitsha زن 2002 9 0 0 9 9 1045 Khayelitsha 1045 1045 زن 1045 1040 Khayelitsha Female 2002 11 0 0 9 9 1053 Khayelitsha Female 2002 12 0 0 6 6 بنابراین کاری که می خواهم انجام دهم این است: نسبت مجموع را که غیرطبیعی است مدل کنید تا بتوانم از این مدل ها برای نسبت دادن تعداد گمشده کل و غیرطبیعی استفاده کنم. دوره از دست رفته، و سپس از آنها برای یافتن طبیعی دوره از دست رفته استفاده کنید. سوال اصلی اکنون فقط مدل سازی است. من خیلی گیج شده ام که آیا باید از مدل های SARIMA/ARIMA/ARMA استفاده کنم (زیرا این تعداد بسیار کوچک هستند). من همچنین به نمونههایی نگاه کردهام که از مدلهای فضای حالت و بازگشتهای کالمن استفاده میکنند - اما خیلی گیج شدهام که از چه چیزی استفاده کنم؟ امیدوارم کسی بتواند در تمام سردرگمی هایم به من کمک کند. | نسبت زیرمجموعه ای از تعداد کل را مدل کنید تا تفاوت را تعیین کنید |
45399 | من نمیپرسم که آیا دو متغیر نرمال لاگ وابسته $X$ و $Y$ به طور مشترک log-normal هستند، آیا قطعات متقابل گاوسی مانند $\ln X$ و $\ln Y$ بطور مشترک نرمال خواهند بود؟ همچنین در مورد برعکس، اگر $\ln X$ و $\ln Y$ مشترکاً عادی باشند، $X$ و $Y$ مشترکاً log-normal یا عادی خواهند بود؟ من با نظریه احتمالات و به ویژه با مفهوم کوپولاس نسبتاً تازه کار هستم. آیا می توان از کوپولا در اینجا برای بدست آوردن فرمول استفاده کرد؟ هر گونه کمک یا راهنمایی بسیار قدردانی خواهد شد. :-) | روابط مشترک بین متغیرهای نرمال ورود به سیستم و قطعات متقابل گاوسی آنها |
45391 | من دادههای عادی چند متغیره تصادفی را با استفاده از تابع «rmultnorm()» در R ایجاد میکنم، که به کاربران اجازه میدهد تا بردار میانگین جمعیت $k و یک ماتریس واریانس کوواریانس $k \times k$ را مشخص کنند. با توجه به $\newcommand{\Var}{\mathrm{Var}}\Var(X)$ و $\Var(Y)$، مرزهای مقادیر $\newcommand{\Cov}{\mathrm{ چیست؟ Cov}}\Cov(X, Y)$ آیا می توانم برای ماتریس واریانس-کوواریانس انتخاب کنم؟ آیا استفاده از ویژگی: \begin{align}\Var(X) + \Var(Y) = \Var(X+Y) - 2\Cov(X,Y)\end{align} و پیرسون منطقی است معادله ضریب همبستگی: \begin{align}-1 \leq \frac{\Cov(X,Y)}{\sqrt{\Var(X)\Var(Y)}} \leq 1 \end{align} برای تنظیم مرزهای بالا/پایین در $\Cov(X,Y)$؟ | محدوده های Cov(X, Y) داده شده Var(X)، Var(Y)؟ |
13215 | من یک مجموعه داده با مشاهدات از جمعیتی دارم که به صورت گرافیکی به عنوان روند سالانه توصیف شده است. به عنوان مثال - میزان عفونت مردان در سال، نرخ عفونت زنان در سال. آلودگیها دادههای شمارش انبوه هستند و دادههای شمارنده مبتنی بر جمعیت در دسترس هستند. از کدام آزمایش آماری برای تعیین اینکه آیا روند زمانی عفونت مردانه با روند زمانی عفونت زنانه متفاوت است یا خیر، استفاده کنم. با تشکر | تفاوت بین روندهای زمانی |
112821 | من با آمار خلاصه ای از یک مطالعه مرتبط با ژنوم کار می کنم (مقدار p، نسبت شانس، خطای استاندارد). آمار آزمون در مجموعه داده باد شده بود، بنابراین من مجبور شدم این تورم را تصحیح کنم (با استفاده از اصلاح ژنومی). من اکنون مقادیر p را برای تورم تنظیم کردهام و میخواهم اندازه اثر تخمینی را از نظر نسبت شانس و خطای استاندارد ارائه دهم. آیا راهی برای تخمین نسبت شانس و خطای استاندارد مربوطه با توجه به مقدار p وجود دارد؟ | نسبت شانس و فاصله اطمینان را از p-value محاسبه کنید |
44622 | من در حال انجام یک تجزیه و تحلیل بر روی بخش بندی پیشینی هستم. به منظور بررسی تفاوتهای معنیدار بین دو بخش از زبانههای متقاطع و آزمون کای اسکوئر استفاده شد. نوع متغیرها: طبقه بندی حجم نمونه: 253 برنامه مورد استفاده: SPSS نسخه 21. مشکل: از چند جهت، فرض آزمون کای دو برآورده نمی شود. در زیر برخی جداول نوشته شده است (به عنوان مثال): 4 سلول (22.2%) تعداد مورد انتظار کمتر از 5 را دارند. حداقل تعداد مورد انتظار 1.85 است یا 7 سلول (50.0%) تعداد مورد انتظار کمتر از 5 است. حداقل تعداد مورد انتظار 0.26 است. . یا 10 سلول (62.5%) تعداد مورد انتظار کمتر از 5 را دارند. حداقل تعداد مورد انتظار 0.26 است. در این صورت چه باید کرد؟ آیا باید از تست کای دو اجتناب کرد؟ کدام آزمون را می توان به جای آن استفاده کرد؟ ادبیات می گوید که برای جداول احتمالی 2×2 می توان از آزمون دقیق فیشر استفاده کرد. با جداول احتمالی بزرگتر (متغیرهایی که شامل چندین دسته هستند) چه باید کرد؟ | وقتی فرضیات در آزمون مجذور کای برآورده نمی شوند چه باید کرد؟ |
29477 | آیا راه آسانی در R برای ایجاد رگرسیون خطی روی مدلی با 100 پارامتر در R وجود دارد؟ فرض کنید یک بردار Y با 10 مقدار و یک دیتافریم X با 10 ستون و 100 سطر داریم در نماد ریاضی مینویسم Y = X[[1] + X[[2]] + ... + X[[ 100]]`. چگونه می توانم چیزی مشابه در دستور R بنویسم؟ | چگونه یک فرمول مدل خطی با 100 متغیر در R بنویسیم |
79725 | چرا R-square و R-square تعدیل شده در بسیاری از موارد در جدول خلاصه رگرسیون در **تحلیل رگرسیون** به هم نزدیک نیستند؟ | خلاصه رگرسیون در تحلیل رگرسیون |
44623 | گزینه ای برای انتخاب هسته در بسته penalizedSVM R وجود ندارد. از چه هسته ای استفاده می کنند؟ آیا بسته R دیگری با روش های SVM جریمه شده وجود دارد که بتوانم هسته های مختلف را انتخاب کنم؟ | هسته در بسته PenalizedSVM R |
44628 | من از R با بسته های kernlab / caret استفاده می کنم و با SVM (`ksvm`) تجزیه و تحلیل می کنم. من از یک هسته مبتنی بر شعاعی برای طبقه بندی استفاده می کنم. من چند متغیر طبقه بندی دارم که به عنوان فاکتور در R تنظیم می شوند، بنابراین آنها به صورت داخلی به عنوان اعداد صحیح متمایز نشان داده می شوند. در مورد یک متغیر دسته بندی با 3 سطح، بگویید، آیا می توانم آن را به حال خود رها کنم و SVM به طور خودکار این کار را انجام می دهد: سطوح 1، 2، 3. یا باید آنها را در دو ستون مانند این کدنویسی کنم: x0 x1 0 0 = سطح 1 0 1 = سطح 2 1 0 = سطح 3 و غیره؟ من در اسناد نگاه کردم که به نظر می رسد اگر از رابط فرمول استفاده می کنید (که من این کار را انجام می دهم)، سپس این به طور خودکار مدیریت می شود: > اگر متغیرهای پیش بینی شامل فاکتورها هستند، رابط فرمول باید > استفاده شود تا یک ماتریس مدل صحیح به دست آید. آیا این به این معنی است که تا زمانی که از رابط فرمول استفاده می کنم، کدگذاری ساختگی برای من در پشت صحنه اتفاق می افتد؟ | آیا متغیرهای طبقه بندی باید به صورت ساختگی در SVM کدگذاری شوند؟ |
14977 | من وظیفه انجام یک بررسی سالانه ریسک و تقلب در محل کار را بر عهده دارم. من پیشینه آماری محدودی دارم و مطمئن نیستم بهترین راه برای نزدیک شدن به این موضوع چیست. هدف این نظرسنجی اندازه گیری نگرانی های مدیریت بالا در زمینه های مختلف است که نشان دهنده ریسک برای شرکت است و همچنین اندازه گیری سطح استرس و سایر عواملی که می تواند منجر به تقلب شود. آیا کسی پیشنهادی دارد که با توجه به اهداف نظرسنجی من، کدام روش نقشه برداری دقیق ترین پاسخ ها را ایجاد می کند؟ من در حال بررسی یک پرسشنامه مقیاس لیکرت هستم ... اندازه گروه 120 نفر با نرخ پاسخ پیش بینی شده 95٪ خواهد بود. نظرسنجی از طریق اشتراک گذاری در اینترانت ما انجام خواهد شد. | بهترین روش نظرسنجی برای انجام بررسی سالانه ریسک و تقلب چیست؟ |
1268 | من از تجزیه ارزش منفرد به عنوان تکنیک کاهش ابعاد استفاده می کنم. با توجه به بردارهای «N» بعد «D»، ایده این است که ویژگیها را در یک فضای تبدیلشده با ابعاد غیرهمبسته نشان دهیم، که بیشتر اطلاعات دادهها را در بردارهای ویژه این فضا به ترتیب اهمیت کاهش میدهد. اکنون سعی می کنم این روش را برای داده های سری زمانی اعمال کنم. مشکل این است که همه دنبالهها طول یکسانی ندارند، بنابراین من واقعاً نمیتوانم ماتریس «تعداد به کمرنگ» را بسازم و SVD را اعمال کنم. اولین فکر من این بود که با ساختن یک ماتریس «num-by-maxDim» و پر کردن فضاهای خالی با صفر، ماتریس را با صفر پر کنم، اما مطمئن نیستم که آیا این روش درست است. سوال من این است که چگونه رویکرد SVD کاهش ابعاد را به سری های زمانی با طول های مختلف انجام می دهید؟ روش دیگر، آیا روش های مشابه دیگری برای نمایش فضای ویژه معمولاً با سری های زمانی استفاده می شود؟ در زیر قطعه ای از کد متلب برای نشان دادن این ایده وجود دارد: X = randn(100,4); % ماتریس داده با اندازه N-by-Dim X0 = bsxfun(@minus, X, mean(X)); % استاندارد [U S V] = svd(X0,0); % واریانس SVD = diag(S).^2 / (اندازه(X,1)-1); درصد واریانس در امتداد بردارهای ویژه KEEP = 2; % تعداد ابعاد برای حفظ newX = U(:,1:KEEP)*S(1:KEEP,1:KEEP); درصد کاهش و تبدیل داده ها (من بیشتر در متلب کدنویسی می کنم، اما به اندازه کافی راحت هستم که R/Python/.. را نیز بخوانم) | کاهش ابعاد SVD برای سری های زمانی با طول های مختلف |
45393 | من در حال جستجوی شباهت یک درخواست HTTP نسبت به تعداد آخرین N روز درخواستی هستم که سیستم من با استفاده از هش حساس به محلی بر اساس «تکنیکهای تخمین شباهت از الگوریتمهای گرد کردن» موسی چاریکار جمعآوری کرده است. برای محاسبه هش، من قصد دارم هر مشخصه را به عنوان یک بردار بیت بر اساس جدول فرکانس نشان دهم - به عنوان مثال، نام فروشنده به عنوان هدر HTTP ارسال شده است - جدول فراوانی جمعیت فعلی به این صورت است: Google Inc. 54960 Apple Computer, Inc. 36415 Sony Computer Entertainment Inc. 142 Maxthon Asia Ltd. 65 Adobe Systems Incorporated 28 Research In Motion Limited 24 Ubuntu 21 undefined 11 Camino 11 Apple Inc. 10 Yandex 8 Fedora 5 Red Hat 3 Linux Mint 2 CentOS 2 UCWEB 1 Sabayon 1 Gentoo 1 درخواست جدیدی بگیرید که مقدار آن «Apple Computer, Inc» است. بردار بیت برای آن ویژگی خواهد بود: [0،1،0،0،...] بیت دوم 1 است زیرا Apple Computer, Inc. در جدول فرکانس بالا رتبه دوم را دارد. این امر مستلزم محاسبه مجدد این بردار بر اساس دورهای است زیرا فرکانسهای ارزش در طول زمان تغییر میکنند. مهمتر از آن، این امکان وجود دارد که مقداری در این جدول وجود نداشته باشد. برای مقادیری که وجود ندارند، آخرین بیت بردار ویژگی خود را برگردانم. به عنوان مثال، اگر مقدار Some Other Vendor بود، بردار ویژگی این بود: [0,0,0,0...1] بنابراین با فرض اینکه هیچ کس به نقص جدی دیگری در تفکر من اشاره نکند، به آنچه فکر می کنم about اگر **_آماری_** روش معتبری برای حذف مقادیر نادر وجود داشته باشد - به عنوان مثال. جنتو و سابایون - و فقط با هر دوی آنها به عنوان دیگری رفتار می کنیم. از آنجایی که این دادههای طبقهبندی هستند، به نظر من هیچ روش معنیداری برای محاسبه میانگین و انحراف معیار وجود ندارد: به طوری که بتوانم آن مقادیر را حذف کنم، مثلاً 3 انحراف از میانگین. | نسبت به یک جمعیت: روش آماری معتبر برای طبقه بندی چیزی به عنوان دیگر؟ |
20013 | من یک سوال در مورد انتخاب آزمون آماری مناسب دارم به شرح زیر: گروهی از افراد در یک دوره آموزشی شرکت می کنند تا بررسی کنم که آیا دوره آموزشی در افزایش دانش شرکت کنندگان موثر است یا خیر. ما کارهای زیر را انجام دادیم: 1. شرکت کنندگان یک پیش آزمون (فقط درست یا نادرست) را قبل از آموزش تکمیل می کنند. 2. شرکت کنندگانی که در آموزش شرکت می کنند 3. شرکت کنندگان یک پس آزمون (فقط درست یا نادرست) پس از آموزش هم قبل و هم پس از آموزش کامل می کنند. آزمون ها دقیقاً سؤالات مشابهی دارند، آزمون با بارکد برچسب گذاری شده است تا بتوانیم پیش و پس آزمون را جفتی ردیابی کنیم. با تفکیک بیشتر **سوال** تحقیق می توان آن را به دو بخش تقسیم کرد: **1\. آیا آموزش به طور کلی موثر است ** **2\. آیا آموزش می تواند پاسخگویی به یک سوال خاص (مورد) را بهبود بخشد** برای سوال 1، به نظر من آزمون t زوجی مناسب خواهد بود: تمام آزمون را علامت گذاری می کنیم، هر شرکت کننده یک نمره پیش آزمون و یک نمره پس آزمون خواهد داشت. ، به ترتیب میانگین نمره پیش آزمون و پس آزمون را می گیریم و سپس سراغ آزمون t زوجی می رویم. برای سوال 2، در ابتدا به فکر انجام یک آزمون مک نمار هستم: به عنوان پاسخ برای هر سوال در پیش آزمون و پس آزمون می توان مطابقت داد. من برای انجام چنین کاری برنامه ریزی کردم. اما سپس روش جایگزینی را دریافت کردم که مطمئن نیستم مناسب است یا خیر: 1. تعداد شرکت کنندگانی که در پیش آزمون به سؤال X به درستی پاسخ داده اند را بشمارید و آن را بر تعداد کل شرکت کنندگان به سؤال X تقسیم کنید. به درصد تبدیل می شود 2. همین کار را در پس آزمون انجام دهید، بنابراین ما در اینجا دو درصد داریم. زیرا داده های طبقه بندی شده قبلاً به داده های پیوسته تبدیل شده اند. شاید پیشنهاد دهنده به طور تصادفی کلمه جفت را اضافه کند و در واقع منظور او فقط تست باشد. اما من هنوز تعجب می کنم که چرا اطلاعات را بر اساس جفت شدن کنار می گذاریم. **چند سوال اینجا**: 1. برای سوال 1، آیا استفاده از آزمون t زوجی مناسب است؟ 2. برای سوال 2 آیا آزمون مک نمار مناسب است؟ 3. برای سوال 2، آیا آزمون t هنوز مناسب است؟ آیا دلیلی وجود دارد که «تست» ترجیح داده شود؟ با تشکر | آزمون مک نمار یا آزمون تی برای اندازهگیری معنیداری آماری نتایج تطبیقشده قبل از پس آزمون |
20011 | اخیراً دو مقاله خواندم. اولی درباره تاریخچه همبستگی و دومی در مورد روش جدیدی به نام ضریب اطلاعات حداکثر (MIC) است. برای درک روش MIC برای تخمین همبستگی های غیرخطی بین متغیرها به کمک شما نیاز دارم. علاوه بر این، دستورالعملهای استفاده از آن در R را میتوان در وبسایت نویسنده (در زیر دانلودها) یافت: امیدوارم این بستر خوبی برای بحث و درک این روش باشد. علاقه من به بحث در مورد شهودی که در پس این روش وجود دارد و اینکه چگونه می توان آن را گسترش داد همانطور که نویسنده گفت. _...ما به پسوندهای MIC(X,Y) به MIC(X,Y|Z) نیاز داریم. ما می خواهیم بدانیم چه مقدار داده برای بدست آوردن تخمین های پایدار MIC مورد نیاز است، چقدر نسبت به موارد دورافتاده حساس است، چه مقدار داده است. روابط سه بعدی یا بالاتر را از دست خواهد داد، و MIC یک گام عالی به جلو است، اما گام های بیشتری برای برداشتن وجود دارد. | آیا می توان الگوریتم MIC برای تشخیص همبستگی های غیر خطی را به طور مستقیم توضیح داد؟ |
55776 | من مشکل زیر را دارم من مجموعهای از دادهها دارم که سعی میکند پیشبینی کند که آیا یک رویداد خرید مشخص اتفاق میافتد یا نه (0/1) وقتی مشتری یک محصول خاص را میبیند، و من ویژگیهایی را هم برای مشتری و هم برای محصول ایجاد کردهام (من استثنا میکنم ماهیت مجموعه داده ها و موضوعات مرتبط برای ساده نگه داشتن کارها). من یک طبقه بندی کننده (جنگل تصادفی R) می سازم و موارد زیر را نتیجه می دهم. واقعی 0 1 پیشبینیشده 0 0.97 0.03 1 0.13 0.87 بهطور جداگانه، من پیشبینیهایی را برای احتمال فروش یک محصول معین دارم. یعنی تعداد مشتریانی که یک محصول خاص را می خرند تقسیم بر تعداد مشتریانی که آن محصول را مشاهده کرده اند. سوال من دو برابر است 1) وقتی مدل را برای یک مشتری و ترکیب محصول معین اجرا می کنم، تخمین احتمالی خرید را دریافت می کنم (که توسط تابع پیش بینی با type=prob ارائه می شود). چگونه می توانم این را با دانش قبلی در مورد نرخ فروش از طریق محصول ترکیب کنم؟ 2) آیا این حتی رویکرد درستی است؟ | استفاده از امتیازات احتمال از یک جنگل تصادفی |
887 | فرض کنید یک جمعیت بسیار بزرگ (بی نهایت؟) از مقادیر معمولی توزیع شده با میانگین و واریانس ناشناخته وجود دارد. همچنین فرض کنید که ما یک نمونه، _S_، از مقادیر _n_ از کل جامعه داریم. ما می توانیم میانگین و انحراف معیار را برای این نمونه محاسبه کنیم (برای محاسبه stdev از _n-1_ استفاده می کنیم). اولین و مهمترین سوال این است که stdev(S) چگونه با انحراف معیار کل جمعیت مرتبط است؟ مثالی برای این موضوع سوال دوم است: فرض کنید یک عدد اضافی داریم، _x_، و میخواهیم آزمایش کنیم که آیا این عدد نسبت به جمعیت عمومی است یا خیر. رویکرد شهودی من این است که Z را به صورت زیر محاسبه کنم: Z = (x - mean(S))/stdev(S) و سپس آن را در برابر توزیع استاندارد اگر _n>30_ یا در برابر توزیع t اگر _n <30_ آزمایش میکنیم. با این حال، این رویکرد برای _n_، اندازه نمونه به حساب نمی آید. راه درست برای حل این سوال به شرط اینکه فقط یک نمونه _S_ وجود داشته باشد چیست؟ | سوال اساسی در مورد واریانس و stdev یک نمونه |
55772 | من باید چند تست آماری را روی یک پرسشنامه انجام دهم و نمی دانم کدام تست را باید انجام دهم. پرسشنامه به عنوان درست یا غلط علامت گذاری شده است و من حدود 60 نفر نتیجه دارم. تست هایی که من نیاز دارم شامل؛ 1. اگر افراد مختلف از دانش بهتری برخوردار باشند (این افراد به دو گروه کوچکتر و بزرگتر تقسیم می شوند). 2. آیا دانش مردم پس از دریافت اطلاعات در مورد موضوع افزایش یافته است. سوالات در پرسشنامه قبل و بعد متفاوت است و اینکه کدام یک اول داده شده است به صورت تصادفی تخصیص داده شده است. من به این فکر کردم که تست t جفت نشده برای 1، تست t زوجی برای 2 انجام دهم، اما برای این نوع داده ها آیا باید تست نرمال بودن انجام دهم؟ آیا حتی باید تست های پارامتریک انجام دهم؟ من فکر میکنم اینها باید دو طرفه باشند، اما احتمالاً فرض میشود که اگر اطلاعاتی در مورد موضوعی به مردم بدهید دانش آنها بهبود مییابد؟ برای هر کمکی از شما متشکرم | از چه آزمون آماری برای پرسشنامه خود استفاده کنم |
58559 | من تازه شروع به یادگیری در مورد پیش بینی کرده ام. فکر میکردم ایجاد مدلهای پیشبینی برای سریهای زمانی روزانه آسان باشد، اما با تعدادی از مشکلات مواجه شدهام. اولاً اکثر نمونه ها و مجموعه داده های موجود یا در ماه یا سه ماهه هستند. به ندرت می توان نمونه هایی را برای هفته ها و روزها پیدا کرد. ثانیاً ایجاد یک شیء سری زمانی برای روزها (365) و هفته ها (52) نیز دشوار به نظر می رسد زیرا این موارد بین سال ها متفاوت است. این ممکن است روشی باشد که شی timeseries در R کار می کند. من مجبور شدم از Zoo استفاده کنم. من همچنین نگران این هستم که دادههای من برای استفاده در بستههایی مانند Forecast و HTS به درستی مدلسازی نشده باشند. من علاقه مندم که چگونه به بهترین شکل به این مشکل برخورد کنم. هر نمونه ای از پیش بینی رویدادهای روزانه که ممکن است در طول سال ها چرخه داشته باشند، بسیار قابل قدردانی خواهد بود. | رویکردهای پیشبینی با سریالهای زمانی روزانه |
23411 | > **تکراری احتمالی:** > چگونه می توانم اطمینان حاصل کنم که داده های آزمایشی به داده های آموزشی نشت نمی کنند؟ برازش بیش از حد آشکارا یک مشکل مهم در یادگیری ماشینی است...شاید مهم ترین مشکل. من معتقدم دلیل اصلی آن این است که اغلب آسان است که به طور تصادفی به روشهای ظریف، بهویژه در مورد انتخاب مدل، بیشازحد قرار دهیم. بنابراین فرض کنید شخصی داریم که یک مدل پیشبینی میسازد، اما او لزوماً در اصول صحیح آماری یا یادگیری ماشینی مهارت کافی ندارد. شاید ما در حال یادگیری به آن شخص کمک میکنیم، یا شاید آن شخص از نوعی بسته نرمافزاری استفاده میکند که به حداقل دانش برای استفاده نیاز دارد. اکنون این شخص ممکن است به خوبی تشخیص دهد که آزمون واقعی از دقت (یا هر معیار دیگر) در داده های خارج از نمونه حاصل می شود. با این حال، نگرانی من این است که نکات ظریف زیادی وجود دارد که باید در مورد آنها نگران بود: بیش از حد تناسب هنوز یک خطر است. در حالت ساده، آنها مدل خود را می سازند و آن را بر روی داده های آموزشی ارزیابی می کنند و آن را بر روی داده های آزمایشی نگه داشته شده ارزیابی می کنند. متأسفانه گاهی اوقات در آن نقطه بسیار آسان است که به عقب برگردید و برخی از پارامترهای مدل سازی را تغییر دهید و نتایج را روی همان داده های تست بررسی کنید. در این مرحله، دادهها دیگر دادههای خارج از نمونه واقعی نیستند، و تطبیق بیش از حد میتواند به یک مشکل تبدیل شود. یکی از راههای بالقوه برای حل این مشکل، پیشنهاد ایجاد مجموعههای داده خارج از نمونه است، به گونهای که هر مجموعه داده آزمایشی میتواند پس از استفاده دور ریخته شود و اصلاً مورد استفاده مجدد قرار نگیرد. اگرچه این نیاز به مدیریت داده های زیادی دارد، به خصوص اینکه تقسیم باید قبل از تجزیه و تحلیل انجام شود (بنابراین باید از قبل بدانید که چند تقسیم شده است). شاید یک رویکرد مرسوم تر، اعتبار سنجی متقابل k-fold باشد. با این حال، به نوعی تمایز بین مجموعه داده آموزش و آزمایش را که به نظر من می تواند مفید باشد، به ویژه برای کسانی که هنوز در حال یادگیری هستند، از دست می دهد. همچنین من متقاعد نیستم که این برای همه انواع مدل های پیش بینی منطقی باشد. آیا راهی وجود دارد که برای کمک به غلبه بر مشکل نصب بیش از حد و آزمایش نشتی در حالی که هنوز برای یک کاربر بی تجربه تا حدودی روشن است، نادیده گرفته ام؟ | چگونه می توانم اطمینان حاصل کنم که داده های آزمایشی به داده های آموزشی نشت نمی کنند؟ |
40810 | من در حال انجام تحقیقی بر اساس ترافیک بین ISP برنامه های کاربردی P2P هستم. من مقدار قابل توجهی از داده های آزمایشی دنیای واقعی را با بهینه سازی اعمال شده و بدون آن جمع آوری کرده ام. با این حال طول مجموعه داده متفاوت است (55000 در مقابل 65000). دو میانگین 5.0 و 8.55 و دو واریانس 7.996 و 42.85 هستند. (< 2.2e-16) آیا راه خوبی برای گفتن اینکه با بهینه سازی به خوبی کار می کند وجود دارد؟ (با مقایسه میانگین ها به خوبی کار می کند زیرا 5.0 هاپ پیشرفت خوبی در مقایسه با 8.55 است) | آزمون آماری برای دو مجموعه داده با واریانس و میانگین متفاوت |
91451 | من 10 نفر با هم کار می کنم. آنها به مدت 6 روز به صورت گروهی کار می کنند. سه روز در هفته 1، سه روز در هفته 2. در هر روز من مجموعه کامل افراد را ندارم، بلکه یک زیر مجموعه از آنها را دارم. در هر روز عملکردهای فردی را می سنجم. باید بگویم که آیا عملکرد کلی در هفته 1 یا 2 بالاتر بود. بنابراین من قصد داشتم یک آزمون t را روی دو گروه مانند این انجام دهم: **گروه 1 - هفته 1** - روز اجرای پل 1 - مری روز اجرا 1 - روز اجرای جان 1 - روز اجرای پل 2 - روز اجرای سارا 2 - روز اجرای جسیکا 3 - اجرای سارا روز سوم **گروه2 - هفته 2** -اجرای پل روز چهارم - روز چهارم اجرای ریتا - روز پنجم اجرای جان - روز پنجم اجرای پل - روز پنجم اجرای سارا - روز ششم اجرای جسیکا - روز ششم اجرای ریتا آیا می توانم دو گروه را مستقل در نظر بگیرم و یک تست تی مستقل انجام دهم؟ نگرانی من در مورد افراد مختلف در هر روز و اندازه های مختلف گروه های کاری برای هر روز است. من هم نگرانم چون در روزهای مختلف و در هر دو گروه افراد مشابهی دارم. بنابراین به نظر می رسد نمونه ها با هم همپوشانی دارند. آیا می توانید بهترین راه را به من پیشنهاد دهید که بگویم عملکرد عمومی در هفته 1 یا 2 بهتر بود؟ | آزمون t نمونه همپوشانی |
20014 | چیزی که من میخواهم ابزاری است که یک متغیر ترتیبی و گسسته را در برابر یک توزیع احتمال خاص آزمایش کند، مثلاً متغیر ممکن است 4 مقدار داشته باشد، 1، 2، 3، 4، و توزیع احتمال مورد انتظار من این است که 10٪ 1، 50 باشد. % 2، 30 % 3 و 10 % 4 خواهد بود. از چه برنامه یا برنامه ای برای بررسی اینکه آیا یک مجموعه داده تجربی از مقدار مورد انتظار می آید یا نه، باید استفاده کنم. توزیع، یا اگر به طور قابل توجهی از آن انحراف داشته باشد؟ چگونه آن را انجام دهم؟ | آزمایش در برابر توزیع احتمال سفارشی |
87739 | من یک رگرسیون لجستیک مرتب شده ساده را تخمین می زنم - در واقع، من این را به یک مدل چند سطحی گسترش می دهم، اما نمی توانم مدل ترتیبی ساده را همگرا کنم. داده ها داده های پانل سه موجی هستند، بنابراین 3 ردیف برای هر شرکت کننده در فایل داده من وجود دارد. متغیر وابسته می تواند در سراسر این امواج تغییر کند، همانطور که متغیر مستقل اولیه می تواند متفاوت باشد. با این حال، به دلایلی، پسین همه متغیرها در صفر گیر کرده است. شک ندارم دارم اشتباه احمقانه ای می کنم، اما نمی توانم بفهمم کجاست. این کد برای ایجاد داده است: data.jags\$y<-data.jags\$y[drop.x] data.jags\$x<-data.jags\$x[drop.x,] data.jags \$b0 <- rep(0,2) data.jags\$B0 <- diag(1E-8,2) inits.1 <- list(beta=rep(0,2), tau0=seq(-2,2,length=6)) و این مدل است: model{ for(i در 1:N){ mu[i] <- x[i,1]*بتا[1] +x[ i,2]*beta[2] logit(Q[i,1]) <- tau[1]-mu[i] p[i,1] <- Q[i,1] for(j در 2:6 ){ logit(Q[i,j]) <- tau[j]-mu[i] p[i,j] <- Q[i,j] - Q[i,j-1] } p[i,7] <- 1 - Q[i,6] y[i] ~ dcat(p[i,1:7]) } بتا[1:2] ~ dmnorm(b0[],B0[,]) برای (j در 1:6){ tau0[j] ~ dnorm(0,.01) } tau[1:6] <- sort(tau0) } اما این چیزی است که من همیشه مشاهده می کنم (در زیر نمونه با یک زنجیره کوتاه است): خروجی< -jags(data.jags، model.file=ologit.bug، parameters.to.save=c(بتا)، n.chains=1، n.iter=100، n.burnin=5، n.thin=5، DIC=TRUE، inits=list(inits.1)) استنتاج برای مدل Bugs در ologit.bug، متناسب با استفاده از جگ ها، 1 زنجیره، هر کدام با 100 تکرار (5 مورد اول حذف شده)، n.thin = 5 n.sims = 19 تکرار ذخیره شده mu.vect sd.vect 2.5% 25% 50% 75% 97.5% بتا[1] 0.0 0.000 0.00 0.00 0.00 0.00 0.00 beta[2] 0.0 0.000 0.00 0.000 0.00. 26883.8 28.354 26870.49 26872.34 26875.22 26877.95 26959.67 هر گونه کمکی بسیار قدردانی می شود! با تشکر فراوان. | رگرسیون لجستیک مرتب شده در JAGS |
40818 | از ویکیپدیا > حجم نمونه، میزان خطای نمونهگیری ذاتی در یک آزمون > را تعیین میکند. اگر سایر موارد برابر باشند، تشخیص اثرات در نمونه های کوچکتر سخت تر است. **افزایش حجم نمونه اغلب ساده ترین راه برای افزایش > قدرت آماری یک آزمون است.** تعجب می کنم که چرا اغلب گفته می شود که حجم نمونه بزرگتر می تواند قدرت (یعنی نرخ مثبت واقعی) یک آزمون را افزایش دهد **در عمومی **. آیا حجم نمونه بزرگتر **همیشه** قدرت تست را افزایش می دهد؟ **افزوده شد:** فرض کنید در هر اندازه نمونه $n$، اگر $T_n(X) \geq c_n$، null را رد کنید. اینکه چگونه توان با $n$ تغییر می کند بستگی به این دارد که $T_n$ و $c_n$ چگونه بر حسب $n$ تعریف شده اند، اینطور نیست؟ حتی اگر $c_n$ طوری انتخاب شود که اندازه قانون تست مقدار $\alpha \in [0,1]$ ثابت برای همه مقادیر $n$ باشد، آیا قدرت لزوما با $n$ افزایش مییابد؟ از توضیحات دقیق و شهودی هر دو استقبال می شود. با تشکر | چرا حجم نمونه بزرگتر می تواند قدرت تست را افزایش دهد؟ |
18379 | > اجازه دهید $X_1,X_2,X_3,\cdots,X_9$ یک نمونه تصادفی با اندازه $9$ از توزیع نرمال > $\mathcal{N}(\mu,\sigma^2)$ باشد. اگر $\sigma$ ناشناخته است، مقدار > مورد انتظار طول بازه اطمینان $95\%$ را برای $\mu$ > پیدا کنید، مشروط بر اینکه این فاصله بر اساس متغیر تصادفی > $3(\overline{X}-\mu باشد. )/S$. میشه لطفا در مورد این سوال کمکم کنید؟ من در حال مبارزه با نحوه انجام این کار هستم. من می دانم که وقتی $\sigma$ ناشناخته است از توزیع Student t استفاده می کنید، اما مطمئن نیستم که چگونه آن را در انتظار ادغام کنم. با تشکر از کمک. | انتظار طول یک بازه اطمینان |
8787 | من به دنبال هر مرجعی در مورد مدل پنهان و مختلط خطی تعمیم یافته (GLLAMM) برای عوامل متقاطع هستم که هم مدل اندازه گیری و هم مدل ساختار یافته GLLAMM را شامل می شود (مشکل زیر را ببینید). هر گونه کمک در این زمینه بسیار قدردانی خواهد شد. **مشکل:** یک محقق چهار پاسخ Y1، Y2، Y3، و Y4 را به همراه سه متغیر کمکی X1، X2 و X3 از آزمایشی که شامل ترکیبات تیمار ab از یک عامل ثابت A با سطوح و یک عامل تصادفی B با سطوح b. بر اساس تجربه گذشته، فرض بر این است که چهار پاسخ با هم مرتبط هستند و Y1 نیز تحت تأثیر سه پاسخ دیگر (Y2، Y3 و Y4) قرار دارد. این مجموعه داده را می توان توسط GLLAMM در Stata تجزیه و تحلیل کرد. | مدل خطی تعمیم یافته نهفته و مختلط (GLLAMM) برای عوامل متقاطع |
91453 | من یک سؤال نظرسنجی با پنج گزینه دارم و از پاسخ دهندگان می خواهم که گزینه برتر خود را انتخاب کنند. از چه آزمونی باید استفاده کنم تا بفهمم که پاسخی که رای داده شده برتر از نظر آماری محبوبتر از پاسخهای دیگر است؟ چگونه می توانم برای هر پاسخ یک فاصله اطمینان ایجاد کنم؟ آیا رویکرد بیزی متفاوتی برای این مشکل وجود دارد؟ | آزمون فرضیه سوال چند گزینه ای با تک پاسخ |
40812 | چگونه می توان ثابت کرد که برای متغیرهای تصادفی $A$ و $B$، و $C = A + B$، $$H(C\mid A) = H(B\mid A).$$ همچنین، آیا آیا می توان تعیین کرد که آیا $H(C)$ بزرگتر از $H(A)$ خواهد بود؟ | آنتروپی شرطی مجموع متغیرهای تصادفی |
29479 | چگونه می توانم فاصله اطمینان 95% را برای ضرایب سطح ANOVA بدست بیاورم؟ برای مقایسه با یک مقدار ثابت، نه مقایسه چندگانه (مانند MMC). من سعی کردم SE ضریب را از مدل بگیرم: > m1 = lm (فرمول = TrendAdd ~ 0 + Migrace) > c = coef(summary(m1)) > c Estimate Std. خطای t مقدار Pr(>|t|) MigraceB -0.0084214286 0.006555969 -1.28454367 0.2019195 MigraceD 0.0032250000 0.007510806 0.007510806 0.449 0.429 0.429 0.0006068966 0.007889737 0.07692228 0.9388391 > c_low = c[,1] - 1.96*c[,2] > c_high = c[,1] + 1.96*c[,2] B1grace[,2] BR21 -0 Miace -0.01149618 -0.01485699 > c_high MigraceB MigraceD MigraceR 0.004428271 0.017946180 0.016070782 اما من مطمئن نیستم که این درست باشد! نتایج متفاوتی نسبت به زمانی که من آزمون t را در هر سطح از «Migrace» اجرا میکنم (فاصلههای t.test بزرگتر است): > t.test(TrendAdd[Migrace == B]) یک نمونه از دادههای آزمون t: TrendAdd [Migrace == B] t = -1.206، df = 41، p-value = 0.2347 فرضیه جایگزین: میانگین درست نیست معادل 0 95 درصد فاصله اطمینان: -0.022523452 0.005680595 برآورد نمونه: میانگین x -0.008421429 چرا تفاوت وجود دارد و چگونه آن را به درستی انجام دهیم؟ | تفاوت بین CI ضرایب سطح ANOVA در مقابل آزمون t CI - کدام یک صحیح است؟ |
31989 | آیا روشی برای انجام یک ANOVA اندازه گیری های مکرر ناپارامتریک در یک طرح تکراری وجود دارد؟ من از یک رویکرد ناپارامتریک استفاده می کنم زیرا متغیر پاسخ از مفروضات پارامتریک عبور نمی کند و تبدیل Box-Cox کار نمی کند. من یک طرح با 4 تیمار (نوع زیستگاه) دارم که هر کدام 10 برابر تکرار شده است (قطعات حداقل 300 متر دورتر) و در سه بار متوالی (اقدامات مکرر) از هر تکرار اقداماتی (احتمال شکار) انجام دادم. من باید آزمایش کنم که آیا درمان ها بر شکار تأثیر دارند یا خیر. | ANOVA اندازه گیری های مکرر غیر پارامتری |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.