_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
92501
من با تکنیک تجزیه موجک جدید هستم و سعی می کنم از آن با مدل سری زمانی استفاده کنم. چیزی که من اکنون استفاده می کنم این است که 1. از تبدیل موجک گسسته استفاده کنید. من از Daubechies با 4 به عنوان موجک مادر با 3 سطح (4 موج به دست آمده) استفاده می کنم. 2. آن موجک ها را بازسازی کنید و سپس از مدل سری زمانی به عنوان مثال، ARIMA روی امواج 4 استفاده کنید. سوال من این است 1. آیا باید هر بار قبل از پیش بینی موجک ها را بازسازی کنیم؟ 2. از ضریب برای چه چیزی استفاده کنیم؟
موجک ها با مدل پیش بینی
99427
من به دنبال یک کتاب یا مجموعه‌ای از نمونه‌هایی هستم که در آن از یادگیری ماشین برای تشخیص عیب استفاده می‌شود. پیشنهادی دارید؟
منابعی برای یادگیری ماشینی که برای تشخیص عیب استفاده می شود
92147
من سعی می‌کنم رگرسیون Ridge را در Matlab اجرا کنم (`ridge`): $L$ یک ماتریس است، $x$ یک بردار تصادفی و $y=Lx+\alpha n$ یک بردار دیگر است. من انتظار دارم $\mbox{ridge}(y,L,\alpha) $ همان نتیجه را برگرداند: $(LL^T +\alpha^2 I)^{-1}L^T y$، اما دومی به طور قابل توجهی بهتر است. من نمی توانم مشکل را درک کنم زیرا فکر می کنم این دقیقاً همان کاری است که «ridge()» انجام می دهد. من حتی با $\alpha=1$ امتحان کردم. قدردان هر کمکی باشید
رگرسیون ریج در Matlab نتایج متفاوتی نسبت به محاسبه مستقیم ایجاد می کند
26614
با ادامه این سوال و این سوال مربوط به BIC و تقریب آن با عامل بیز با اطلاعات واحد قبلی (Kass & Wasserman, 1995)، من سعی می کنم این رابطه را به عنوان یک پله در آمار بیزی محاسبه کنم. تا کنون، محاسبه من از تقریب BIC فاکتور بیز (بر اساس برداشت من از Wagenmakers 2007) به طور خطی با ضریب Bayes من مرتبط است که از تفسیر من از اطلاعات واحد قبل از استفاده از بسته INLA در R محاسبه می شود. شروع خوب! با این حال، ضریب BIC Bayes من ~ 3 برابر کوچکتر از ضریب Bayes محاسبه شده با INLA است و من مطمئن نیستم که چرا. قبلی که من در تابع **inla** استفاده کرده ام N(0, 1/(واریانس * n)) است و به نظر من این مکان محتملی است که من بیرون هستم. من مطمئن نیستم که چگونه ضرب در n را در فرمول به دست آوردم، اما به نظر می رسد که کار می کند ... تقریبا. Kass و Wasserman N(0، واریانس / n) دارند که وقتی به دقت تبدیل می شود، N(0، n / واریانس می شود)، اما این رابطه کمتر خوبی به من می دهد. کمک بر اساس سایر بسته های بیزی نیز پذیرفته می شود. _EDIT_ *کد حذف شده، به جای پاسخ زیر را ببینید* _EDIT_ بنابراین من کاملا مطمئن هستم که یک مورد نمونه را کشف کرده ام. من همچنان از کمک برای دو مورد نمونه و مورد رگرسیون (که اکنون کار روی آن را شروع می کنم) سپاسگزارم.
نحوه تعیین اطلاعات واحد قبل
34506
در یک مدل رگرسیون سری زمانی که من روی آن کار می‌کنم، مداخله ما فقط چند ماه پس از یک رویداد خارجی تأثیرگذار بزرگ اتفاق افتاد. بنابراین، مدل سری تمام‌وقت، رویداد خارجی را دست‌کم می‌گیرد، اما وزن بیشتری بر اثر مداخله ما می‌گذارد. با این حال، می دانیم که این از نظر سایر تحقیقات و کارشناسان حوزه کاملاً صحیح نیست. بنابراین راه حل فعلی این است که یک اثر تخمینی به رویداد خارجی مرتبط با یک توزیع داده شود، مثلاً توزیع عادی. پس از شبیه سازی برای $N$ بار، این عدد شبیه سازی شده را به عنوان یک مقدار ثابت به مدل متصل می کنیم، بقیه ضرایب همچنان از نرم افزار R تخمین زده می شوند (با استفاده از تابع arima). بنابراین آنها به مدل‌های $N$ یا کمتر منجر می‌شوند. بر اساس این رویکرد، توزیع برخی از ضرایب به طور معمول توزیع نمی شود. سوال من این است: 1. آیا باز هم باید مدل را بر اساس معیارهای انتخاب مدل انتخاب کنم یا هر ضریب را به صورت توزیع خلاصه کنم؟ 2. پارامتری وجود دارد که در اصل از نظر آماری معنادار نیست، اما دارای علامت مورد انتظار است. من آن را به عنوان یک مزاحم نگه داشتم زیرا می تواند تخمین پارامتر مداخله را 10٪ تغییر دهد. اگر ضرایب را به صورت توزیع خلاصه کنیم، انحراف معیار این توزیع بسیار کمتر از خطای استاندارد ضریب در مدل کامل است. و محدوده اطمینان 95 درصد نیز حاوی صفر نیست. بنابراین چگونه باید با آن برای هدف گزارش گیری رفتار کنم، که به سوال 1 برمی گردد، چگونه باید مدل های ناشی از این روش را خلاصه کنم؟ اگر کسی بتواند پیشنهادی ارائه دهد واقعاً قدردانی خواهد شد.
ضرایب رگرسیون سری زمانی را پس از دادن عدد ثابت به 1 ضریب (از یک توزیع) خلاصه کنید.
92500
من پیش زمینه ای از علوم کامپیوتر ندارم، اما رشته ام ریاضی است. من به ماشین های بردار پشتیبانی علاقه مند هستم. من تئوری و چند مثال عملی را مرور کردم. مشکل من این است که همه مفاهیم مانند جداسازی هایپرپلن ها، هسته ها و اهمیت پارامترهای C و گاما را درک کردم. اما آنچه می خواهم بدانم این است که اگر این الگوریتم Support Vector Machines را در نرم افزار پیاده سازی کنیم، پس نرم افزار چه خروجی هایی به ما می دهد و چگونه آن خروجی ها را پیاده سازی می کنیم؟ نکات مهمی که باید یادداشت کنیم چیست؟
پیاده سازی نرم افزار ماشین های بردار پشتیبان
26619
سوال من ایجاد یک شاخص برای اندازه گیری توانایی پیش بینی درآمد یک مدیر است. من از دقت پیش‌بینی سود (تفاوت دلار) و افق پیش‌بینی سود (تفاوت روزها) برای ثبت توانایی استفاده می‌کنم. با این حال، این دو متغیر بر یکدیگر شرط می‌گذارند. چگونه باید آنها را وزن کنم و شاخص ایجاد کنم؟ تفاوت دلار کمتر و افق طولانی تر، توانایی پیش بینی بالاتر را نشان می دهد.
چگونه از متغیرهای همبسته شاخص ایجاد کنیم؟
25880
من 16 آرایه 1 بعدی با تقریباً 10-11 میلیون عنصر با دقت مضاعف دارم. من باید یک همبستگی متقابل بین آنها اجرا کنم، به عنوان مثال، 1 با 2، 1 با 3، ...، 1 با 16، 2 با 3، 2 با 4، ...، 2 با 16، و غیره. این کار را نمی توان به طور موثر در MacBook Intel Core 2 duo 2.4 GHz من با 4 گیگابایت رم انجام داد. سوال من این است که اگر نگوییم brute force (پردازنده سریعتر، رم بیشتر) روش معمولی که مردم برای غلبه بر این مشکل یا مشکلاتی مانند آن استفاده می کنند چیست؟ من این سوال را چند دقیقه پیش در Stack Overflow پرسیدم، اما متوجه شدم که ممکن است افراد بیشتری در اینجا باشند که با این مشکل خاص برخورد کرده باشند.
همبستگی متقابل آرایه های عظیم
79503
من اخیراً با یک برگه اکسل قدیمی مواجه شده ام که برای کمک به ارزیابی اینکه آیا فردی نمونه های کافی را هنگام انجام یک مطالعه زمان جمع آوری کرده است یا خیر (که اساساً تلاش می کند تا توزیع زمان مورد نیاز برای تکمیل یک کار را بفهمد) استفاده می شود. در ستون داده ها (با برچسب زمان)، فردی که مطالعه زمان را انجام می دهد، مدت زمانی را که برای تکمیل یک کار طول کشیده است، وارد می کند، که هر ردیف نشان دهنده یک آزمایش است. برگه حاوی فرمول زیر با برچسب درصد خطای فعلی است: \begin{equation}\frac{t \sigma}{\mu \sqrt{n-1}}\end{equation} که در آن $t$ یک t- است. امتیازی که بر اساس حجم نمونه متفاوت است، $\mu$ میانگین نمونه و $\sigma$ انحراف استاندارد نمونه است. سوال من این است **این چه الگوریتمی است**؟ من می دانم که می توانیم فواصل اطمینان را با استفاده از معادله مشابه $\mu \pm \frac{t \sigma}{\sqrt{n-1}}$ اندازه گیری کنیم، اما مطمئن نیستم که با تقسیم بر میانگین چه چیزی محاسبه می شود. . این به چه چیزی مربوط می شود؟ ![شکل](http://i.stack.imgur.com/tpk8V.png)
کمک به شناسایی یک تابع خطا
24284
من از یک مدل چندسطحی با جلوه ترکیبی برای طرح متقاطع در R استفاده می‌کنم. از نظر طراحی، یکی از شرایط من نصف تعداد مشاهدات را نسبت به شرط دیگر دارد (در اینجا در مورد مقادیر از دست رفته صحبت نمی‌کنم). مقایسه این دو مورد جالب توجه است. سؤالات اینجاست: * آیا باید تضادها را با در نظر گرفتن تعداد مشاهدات متفاوت ارزیابی کنم؟ * اگر بله، آیا باید وزن بیشتری به شرایط با تعداد مشاهدات بیشتر داده شود زیرا تأثیر بیشتری بر داده ها دارد یا باید برعکس عمل کنم تا تأثیر تعداد مشاهدات متعادل شود؟ ممنون، بانی
برای طراحی های نامتعادل، کنتراست وزنی متفاوت است
67793
من علاقه مند به مدل سازی فعالیت های انسانی با استفاده از داده های حسگر با HMM هستم و می خواهم دانش قبلی را در طول استنتاج ترکیب کنم. روال عادی مدل سازی K فعالیت های مختلف با K HMM مجزا است. برای آزمایش یک دنباله ناشناخته، احتمال آن را از هر یک از HMM ها محاسبه کنید و HMM با حداکثر مقدار به عنوان برچسب کلاس اختصاص داده می شود. این همه با این فرض انجام می شود که اولویت های HMM یکنواخت هستند. وقتی یکی از کلاس‌ها نادر یا غیرمعمول باشد و احتمال قبلی آن در مقایسه با کلاس‌های دیگر بسیار کم باشد، ممکن است مشکل ایجاد شود و بنابراین پیش‌فرض‌های یکنواخت ممکن است فرض خوبی نباشد. بنابراین، من علاقه مند به احتمال پسین هستم و نه فقط احتمال گرفتن اثر ترکیبی. مشاهدات من پیوسته هستند (ویژگی های استخراج شده از حسگر) و مقادیر گسسته نیستند. سؤالات من عبارتند از: 1. آیا می توان استنباط را با استفاده از رویکرد نوع شبکه بیزی انجام داد که شامل ضرب قبلی با احتمال باشد؟ 2. در مورد من، تعداد فعالیت‌های موجود در هر HMM، قبل خواهد بود. آیا می توان قبل از جلوگیری از مشکل شمارش صفر برای کلاس نادر، آن را با استفاده از دیریکله تخمین زد (با فرض اینکه من یک HMM را برای یک کلاس نادر تقریبی کنم). آیا این منطقی است؟ 3. داده های مشاهده چند متغیره با استفاده از گاوسی منفرد (و نه مخلوط) تقریبی می شود، در این صورت احتمال گاوسی خواهد بود؟، آیا می توان آن را با دیریکله قبل از محاسبه احتمال خلفی مخلوط کرد؟ یا این احتمال هنوز چند جمله ای است زیرا K نتایج متفاوت از K HMM های مختلف را نشان می دهد؟ با عرض پوزش اگر با برخی از مفاهیم اولیه مخلوط شده ام، من تازه کار هستم و برای حرکت بیشتر راهنمایی می خواهم.
چگونه از احتمال قبلی در استنباط از HMM برای تشخیص فعالیت استفاده کنیم؟
29286
من دارم این کتاب رو میخونم در اینجا او روشی برای محاسبه میانگین به من می دهد: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ipzQY.gif) در اینجا روش جدیدی را برای محاسبه میانگین از طریق هیستوگرام معرفی می کند: ! [توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/vSuRl.gif) او می گوید که اکنون نمونه ها را می شماریم و ایندکس می کنیم هیستوگرام، این لیست: > {7، 8، 0، 9، 2، 10، 4، 1، 6، 0، 8، 7، 6، 0، 0} شمارش می شود و به این نتیجه می رسد: > { {7، 2}، {8، 2}، {0، 4}، {9، 1}، {2، 1}، {10، 1}، {4، 1}، {1، 1}، {6، 2}} یعنی دو عدد 7 در لیست، دو عدد 8 در لیست و غیره وجود دارد. سپس میانگین این لیست را محاسبه کردم: > {4، 1، 1، 0، 1، 0، 2، 2، 2، 1، 1} که تقریباً به عنوان نسخه مرتب شده آخرین لیست است، چهار 0، یک 1 و غیره مشکل این است که میانگین لیست اول با دومی متفاوت است، در حالی که میانگین لیست اول 4.53333 است، لیست دوم 1.36364، آیا این ابزارها باید یکسان باشند؟
آیا معنی نمونه ها و میانگین هیستوگرام باید یکسان باشد؟
23091
> **موضوع تکراری:** > مراحلی برای تعیین توزیع پسین در زمانی که ممکن است به اندازه کافی ساده باشد > داشتن یک فرم تحلیلی؟ باید اعتراف کنم که این یک سوال شرم آور است. من برنامه‌نویسی زیادی برای کارهای آماری انجام می‌دهم، اما به ندرت با فرمول‌های تحلیلی برای چیزها سروکار دارم (معمولاً همه فقط بر اساس الگوریتم‌هایی برای پردازش داده‌ها هستند). در این مورد، من سعی می کنم یک تخمین بیزی از برخی ضرایب را برای یک خودرگرسیون، با 11 نمونه داده محاسبه کنم: $$ Y_{i} = \mu + \alpha\cdot{}Y_{i-1} + \epsilon_{ i} $$ که $\epsilon_{i}$ گاوسی است با میانگین 0 و واریانس $\sigma_{e}^{2}$ توزیع قبلی در بردار $(\mu, \alpha)^{t}$ گاوسی با میانگین $(0,0)$ و یک ماتریس کوواریانس مورب با ورودی های قطری برابر با $\sigma_{p}^{2}$ است. بر اساس فرمول رگرسیون خودکار، این بدان معناست که توزیع نقاط داده ($Y_{i}$) با میانگین $\mu + \alpha\cdot{}Y_{i-1}$ و واریانس $\sigma_ نرمال است. {e}^{2}$. بنابراین، چگالی همه نقاط داده $(Y)$ به طور مشترک (با فرض استقلال، که برای برنامه ای که من می نویسم خوب است)، این خواهد بود: $$ p(Y \quad | (\mu, \alpha)^ {t}) = \prod_{i=2}^{11}\frac{1}{\sqrt{2\pi\sigma_{e}^{2}}}\exp{\frac{-(Y_{i} - \mu - \alpha\cdot{}Y_{i-1})^{2}}{2\sigma_{e}^{2}}}.$$ با قضیه بیز، می‌توانیم حاصل ضرب مورد بالا را بگیریم چگالی با چگالی قبلی، و سپس ما فقط به ثابت نرمال کننده نیاز داریم. تصور من این است که این باید یک توزیع گاوسی باشد، بنابراین ما می‌توانیم نگران ثابت عادی‌سازی در انتها باشیم نه اینکه صریحاً آن را با انتگرال‌های بیش از $\mu$ و $\alpha$ محاسبه کنیم. این قسمتی است که من با آن مشکل دارم. چگونه ضرب چگالی قبلی (که چند متغیره است) و این حاصل ضرب چگالی داده های تک متغیره را محاسبه کنم؟ قسمت عقبی باید صرفاً دارای چگالی $\mu$ و $\alpha$ باشد، اما من نمی‌توانم ببینم چگونه می‌توان آن را از چنین محصولی بدست آورد. هر نشانگر واقعاً مفید است، حتی اگر شما فقط به من در جهت درست اشاره کنید و سپس من باید بروم و جبر آشفته را انجام دهم (که قبلاً چندین بار تلاش کرده ام). به عنوان نقطه شروع، در اینجا شکل صورت حساب از قانون بیز است: $$ \frac{1}{(2\pi\sigma_{e}^{2})^{5}\cdot{}2\pi \sigma_{p}^{2}} \exp{\biggl [ \frac{1}{2\sigma_{e}^{2}}\sum_{i=2}^{11}(Y_{i} - \mu - \alpha\cdot{}Y_{i-1}) ^{2} - \frac{\mu^{2}}{2\sigma_{p}^{2}} - \frac{\alpha^{2}}{2\sigma_{p}^{2}} \biggr ] }.$$ مسئله این است که چگونه می‌توان دید که به چگالی گاوسی $(\mu, \alpha)^{t}$ کاهش می‌یابد.
مراحلی برای تعیین توزیع پسین در زمانی که ممکن است به اندازه کافی ساده باشد تا یک فرم تحلیلی داشته باشیم؟
34500
من روی یک برنامه تشخیص ویژگی تصویر آنلاین (هیستوگرام های BOW) کار می کنم که اشیاء را در یک دوربین زنده دریافت می کند و ویژگی های SIFT را استخراج می کند. بعد از گرفتن یک دسته عکس، kmeans دسته را دریافت می کنم و یک خوشه جهانی ایجاد می کنم. در مرحله بعد، من این مرحله را تماماً تکرار می‌کنم و عکس‌های بیشتری می‌گیرم تا یک دسته جداگانه جدید از خوشه‌ها ایجاد کنم. اگرچه در حالت ایده‌آل، من می‌خواهم تعداد خوشه‌هایی را که دارم محدود کنم و همه تصاویر را به‌طور هم‌زمان خوشه‌بندی کنم، اما این غیرممکن است زیرا تعداد نامحدودی از داده‌های جدید وارد می‌شوند. من کاملاً مطمئن نیستم که چگونه به این موضوع نزدیک شوم. نحوه کار کد من در حال حاضر به این صورت است: > 1.تصویر از فید ویدیوی زنده گرفته می شود، پس از ذخیره تصاویر کافی، > کیلومتری از ویژگی های غربال کردن را دریافت کنید. (200 خوشه دریافت کنید) > > 2. مرحله 1 را تکرار کنید، یک دسته جدید از تصاویر فید زنده، دوباره kmeans را دریافت کنید. > بردارهای kmeans را با kmeans های قبلی ترکیب کنید، مانند:[A B]، (مجموع 400 > خوشه) می بینید که این بد است، زیرا من به سرعت خوشه های زیادی دریافت می کنم و هر دسته از خوشه ها قطعاً با دسته دیگری همپوشانی دارند. آنچه من می خواهم: > 1. تصویر گرفته شده از فید ویدیوی زنده، پس از ذخیره شدن عکس ها، kmeans (200 > خوشه ها) را دریافت کنید > > 2. مرحله 1 را تکرار کنید، دوباره kmeans را دریافت کنید، که خوشه های قبلی را به روز می کند. > (هنوز 200 خوشه، اما برخی از خوشه ها به روز شده یا تغییر کرده اند) هیچ چیزی که من دیده ام نمی تواند چنین باشد، مگر اینکه آنها را به درستی درک نکرده باشم. بسیاری از پیاده‌سازی‌ها، مانند جریان داده، ظاهراً فقط به شما اجازه می‌دهند که خوشه را در یک مرحله بسازید. پس از پخش همه داده ها، به روز رسانی خوشه موجود چندان آسان به نظر نمی رسد. من فرض می کنم که این باید امکان پذیر باشد، اما به نظر می رسد هیچ کدام از کدهایی که پیدا کردم از آن نسخه پشتیبان تهیه نمی کند. من از هر گونه کمکی برای پاکسازی این موضوع سپاسگزارم. با تشکر
برای روشن کردن روش من با استفاده از kmeans در چندین دسته از داده ها به کمک نیاز دارید
72266
من پست‌های زیر را خواندم که به سوالی که می‌خواستم بپرسم پاسخ داد: از مدل جنگل تصادفی برای پیش‌بینی از داده‌های حسگر استفاده کنید. درخت تصمیم برای پیش‌بینی خروجی در اینجا کاری است که من تاکنون انجام داده‌ام: من رگرسیون لجستیک را با جنگل‌های تصادفی مقایسه کردم و RF از لجستیک بهتر عمل کرد. اکنون محققان پزشکی که با آنها کار می کنم می خواهند نتایج RF من را به یک ابزار تشخیص پزشکی تبدیل کنند. به عنوان مثال: اگر یک مرد آسیایی بین 25 تا 35 سال هستید، ویتامین D کمتر از xx و فشار خون بالاتر از xx دارید، 76٪ احتمال ابتلا به بیماری xxx دارید. با این حال، RF خود را به معادلات ریاضی ساده نمی‌دهد (به پیوندهای بالا مراجعه کنید). بنابراین سوال من اینجاست: همه شما چه ایده هایی برای استفاده از RF برای توسعه یک ابزار تشخیصی (بدون نیاز به صادرات صدها درخت) دارید. در اینجا چند ایده وجود دارد: 1. از RF برای انتخاب متغیر استفاده کنید، سپس از Logistic (با استفاده از تمام تعاملات ممکن) برای ایجاد معادله تشخیصی استفاده کنید. 2. به نحوی جنگل RF را در یک مگا درخت جمع آوری کنید، که به نحوی میانگین تقسیم گره را در بین درختان محاسبه می کند. 3. مانند #2 و #1، از RF برای انتخاب متغیرها استفاده کنید (مثلا m متغیر کل)، سپس صدها درخت طبقه بندی بسازید که همه آنها از هر متغیر m استفاده می کنند، سپس بهترین درخت را انتخاب کنید. هر ایده دیگری؟ همچنین، انجام شماره 1 آسان است، اما آیا ایده ای در مورد نحوه اجرای شماره 2 و 3 دارید؟
ایده هایی برای خروجی یک معادله پیش بینی برای جنگل های تصادفی
66228
بگویید من دنباله ای از طول $ n $ $ $ $ عناصر مختلف ، S.T. $n > k، k > 2$. من می خواهم نشان دهم که این دنباله بر اساس تعداد اجراها تصادفی است. من این مقاله را توسط AM Mood پیدا کردم که توضیح می‌دهد چگونه مقادیر و واریانس‌های مورد انتظار تعداد اجراهای هر نوع را بیابم، اما مطمئن نیستم چگونه نشان دهم که یک دنباله از این داده‌ها تصادفی است. من به طور کلی در آزمایش فرضیه و آمار جدید هستم ، بنابراین از هر کمکی قدردانی می شود.
تست تصادفی بودن k عناصر را اجرا می کند
67790
من با یک طرح فاکتوریل تکرار نشده سر و کار دارم. من چند نمونه گویا دارم اما باید چند طرح فاکتوریل تکرار نشده را شبیه سازی کنم. من نمی دانم چگونه و از چه چیزی استفاده کنم. آیا $R$ می تواند این را مدیریت کند؟ برای مثال، من می‌خواهم یک طرح فاکتوریل $2^{4}$ (عوامل A، B، C و D) را تنها با یک اجرا و 15 کنتراست تجزیه و تحلیل کنم. من یک ستون برای پاسخ دارم. من می خواهم برخی از روش ها را در ادبیات مقایسه کنم تا ببینم کدام روش اثرات فعال را بهتر تشخیص می دهد. بنابراین، من افکت‌های فعال را به اندازه 1.5$\sigma$ تنظیم کردم و می‌خواهم بردارهای پاسخ 100$ را با استفاده از خطاهایی که i.i.d هستند ایجاد کنم. با $\mathcal N(0,1)$. مدل واقعی من چهار افکت فعال دارد و من می‌خواهم بردارهای پاسخ 100$ را با استفاده از این مدل واقعی $y=3+1.5A+1.5B+1.5C+1.5BC$ شبیه‌سازی کنم. اما من نمی دانم چگونه با استفاده از R. داده هایی مانند این تولید کنم![نمونه ای از Montgomery برای طراحی فاکتوریل تکرار نشده 2^4$](http://i.stack.imgur.com/e7F8i.png) * * * با تشکر تفنگ برای پاسخ شما من فقط قبل از اینکه جواب شما را اینجا ببینم یک کد ساده نوشتم. فکر می‌کنم، باید دانش R را کمی بیشتر کنم. به هر حال، اینجاست: برای تجزیه و تحلیل طرح‌های فاکتوریل تکرار نشده با فاکتورهای $k$ و اثرات فاکتوریل $p=2^{k}-1$ (اثرات و تعاملات اصلی)، مدل زیر به طور کلی از معادله \begin استفاده می‌شود. } y=\sum\limits_{i=0}^{p}x_{i}\beta_{i}+\varepsilon_{i} \end{equation} بنابراین، ابتدا من جدول علامت خود را برای ضرایب $2^{4}$ و $\beta$ از به اصطلاح افکت‌های فعال معرفی کردم. جدول علامت شامل ردیف (اجرا) و ستون (تضاد با میانگین کلی) است. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/e7F8i.png) و سپس، معادله رگرسیون خود را با بزرگی اثرات فعال و صفر اثرات غیرفعال باقی مانده ایجاد کردم. برای مثال مدل شبیه سازی شده من $y=3+1.5A+1.5B+1.5C+1.5BC$ بود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/9N4GA.png) و سپس، کد زیر x=read.csv(sign2.txt, header=TRUE) sign= را اجرا می کنم as.matrix(x) is.matrix(sign) y=read.csv(beta2.txt, header=TRUE) beta= as.matrix(y) is.matrix(بتا) signt=t(sign) bs=t(بت %*% signt) epsilon=matrix( rnorm(16*1,mean=0,sd=1), 16,1) response=bs+epsilon با این حال، متأسفانه، برای یک شبیه سازی است. من یک فرمان حلقه برای اجرای شبیه سازی n-time قرار می دهم.
چگونه یک طرح فاکتوریل تکرار نشده را شبیه سازی کنیم؟
24751
من قصد دارم جعبه ابزار مدل پنهان مارکوف کوین مورفی (HMM) را اعمال کنم. من مجموعه ای از قوانین تولید دارم (خودسرانه) $A_0 \to AB [p=1]$, $A\to aC [p=1]$, $B\to bbC [p=0.5]$, $B\to b [p=0.5]$ که در آن $A_0$ نماد شروع است، A، B، C غیر پایانه‌ها، و a و b پایانه‌ها هستند و احتمالات در پرانتز قرار می‌گیرند. مشاهده {aabc} است. من نمی دانم چگونه از الگوریتم تجزیه Viterbi استفاده کنم و نمی توانم بفهمم که تمام مقادیر پارامترها در جعبه ابزار از چه مقادیری استفاده کنم. آیا کسی می تواند با یک مثال ساده نحوه استفاده از برنامه را برای انتخاب یک تجزیه حداکثر احتمال و نحوه آموزش توضیح دهد؟ هدف طبقه بندی یک زبان یا یک رشته متن است. هر مثال دیگری غیر از زبان نیز کمک خواهد کرد. سوال اصلی این است که چگونه تمام این داده ها را در جعبه ابزار تغذیه کنیم تا HMM را آموزش دهیم و چگونه از آن برای کار استفاده کنیم زیرا همه چیز در آن از تابع rand استفاده می کند، چگونه آن را سفارشی کنم؟ 1. تعداد حالت ها Q=4 ? ($A_0$, A, B, C) 2. تعداد نمادهای مشاهده با طول T=4; تعداد دنباله ها = 1؟
مشکل در درک مدل مارکوف پنهان برای تجزیه نحو با استفاده از الگوریتم ویتربی
24280
من یک مجموعه داده بسیار بزرگ دارم که در آن اندازه‌گیری‌ها را در طول زمان برای مکان‌های جداگانه انجام داده‌ام. برخی از مکان‌ها ممکن است 10 نقطه داده و برخی مکان‌ها فقط 1 نقطه داده داشته باشند. من یک مدل ترکیبی را انتخاب می کنم و از مکان ها به عنوان جلوه های تصادفی استفاده می کنم. سوال من این است که آیا هنوز هم می توانم از مکانی استفاده کنم که فقط 1 نقطه داده دارد (چون نمی توان فقط با 1 داده خط رگرسیون ایجاد کرد) یا باید آن مکان ها را حذف کنم؟
آیا می توانم یک مدل ترکیبی را با موضوعاتی که فقط 1 مشاهده دارند جا بدهم؟
110995
من سعی می کنم برای داده هایی که در مورد دانلود برنامه ها دارم، رشد را مدل کنم. من می خواهم یک بیانیه بگویم، اگر شما به X مقدار دانلود در زمان T نرسید، شانس شما برای رسیدن به 15 میلیون کاربر تا 75٪ کاهش می یابد آیا نوعی تجزیه و تحلیل وجود دارد که بتوانیم برای قطع ها انجام دهیم؟ با تشکر
چه نوع تحلیلی به شما این جمله را می دهد که اگر در زمان T به مقدار X نرسید، شانس شما با درصد P کاهش می یابد؟
26613
من می خواهم داده های یک آزمایش را تجزیه و تحلیل کنم. شرکت کنندگان سیگنال های صوتی مختلفی دریافت می کنند و آنها را قضاوت می کنند. امتیاز یک عدد بالا است، اگر آنها با سیگنال احساس راحتی کنند در حالت دیگر عدد کمتری است. من 5 سیگنال مختلف و 15 شرکت کننده دارم. آزمایش 5 بار برای هر موضوع انجام شد، بنابراین من 65 مقدار دریافت کردم. من می خواهم از مدل ترکیبی استفاده کنم. من نتایج متفاوتی از SPSS و SAS دریافت می کنم و نمی توانم خطا را پیدا کنم. ممکن است من از PROC MIXED اشتباه استفاده کرده باشم. proc مخلوط داده=ein1; کلاس سیگنال ProNr; مدل se = سیگنال; تصادفی ProNr; تکراری /subject=ProNr; اجرا؛ ترک کردن نتیجه این است: تخمین پارامتر کوواریانس مخلوط Die Prozedur Kov.Parm Subjekt Schätzwert ProNr 0 ProNr باقیمانده 112855 Anpassungsstatistiken -2 Res Log-Likelihood 881.1 AIC (kleiner ist besser) 883.18AI (kleiner ist besser) 883.7 نوع 3 Tests der festen Effekte Zähler Nenner Effekt Freiheitsgrade Freiheitsgrade F-Statistik Pr > F سیگنال 4 48 1.00 0.4169 آیا پارامترهای درستی را انتخاب کردم؟ من فکر می کنم که نتیجه می گوید که سیگنال مهم نیست (0.4169 > 0.05). آیا این تفسیر درستی از نتایج است؟ من در SPSS از anova با اندازه گیری های مکرر استفاده کردم. SPSS نتایج را تصحیح کرد و نتیجه با تصحیح آبفشان گلخانه ای 013/0 است. چرا این نتایج اینقدر متفاوت است؟ **EDIT1:** داده ها به این صورت به نظر می رسند: سیگنال Pro_Nr 3.4799 1 1 3.3682 2 1 4.3217 3 1 2.9976 4 1 5.5861 5 1 6.7242 6 1 2.6318 1. 3 1 1 6.7242. از 1 تا 15، هر موضوع یک شماره ویژه دریافت می کند. سیگنال شامل اعداد از 1 تا 5 است. هر سیگنال شماره خود را می گیرد. **Edit2:** Proc glm روش مناسبی برای تجزیه و تحلیل این داده ها نیست، زیرا هیچ متغیر گروهی قابل تعریف نیست. برای این مشکل باید از proc mixed استفاده کنم. **ویرایش3:** آیا می توان نتایج مدل آنووا و ترکیبی را با هم مقایسه کرد؟ آیا با هر دو آنالیز نتایج یکسانی گرفتم؟ کد جدید: PROC MIXED DATA=ein1; CLASS Frequ ProNr; MODEL se = Frequ; REPEATED / موضوع=ProNr type=cs; اجرا؛ ترک؛ آیا من مدل (و بنابراین کد برنامه) را درست فرموله کردم تا به این سؤال پاسخ دهم که میزان گندم بستگی به فرکانس (تحت تأثیر تصادفی و مکرر سوژه ها) دارد؟ آیا ادبیات مورد علاقه ای برای مدل های ترکیبی دارید؟
مدل مختلط در SAS
109365
من یک متغیر با 150 مشاهده دارم و غیر عادی است. آیا CLT در این زمینه مفید نخواهد بود. واقعا n بزرگ در CLT به چه معناست؟
تقریب توزیع نرمال با استفاده از قضیه حد مرکزی
92502
من در حال ساخت مدلی هستم که احتمال وجود یک بیماری عفونی را در 10000 روستا پیش بینی می کند. بعد فضایی وجود دارد - هر روستا توسط به عنوان مثال احاطه شده است. 8 روستای دیگر و وجود بیماری در روستای مجاور احتمال بیماری را در روستای مورد نظر افزایش داد. من یک ویژگی ایجاد کردم که تعداد موارد در 8 روستای مجاور را جمع آوری می کند. با این حال - در ابتدا - من این مقدار را در کل مجموعه داده ایجاد کردم. با توجه به به عنوان مثال اعتبارسنجی متقاطع 10 برابری - آیا این اشتباه است؟ آیا من اطلاعاتی را از خارج وارد می کنم و در نتیجه عملکرد را سوگیری می کنم؟ آیا باید ایجاد ویژگی را در هر فولد اجرا کنم، حتی آنهایی که برخی از دهکده‌های مجاور خارج از فولد هستند؟ (همچنین - از نظر محاسباتی این ممکن است بسیار سنگین شود...) از افکار استقبال می شود - بسیار قدردانی می شود
اعتبار سنجی متقاطع - اطلاعات ویژگی در خارج از تاشو
24756
اگر تعداد کاربرانی که در یک تاپیک تالار گفتگو در چند روز پیوسته شرکت می کنند به من داده شود، چگونه می توانم این احتمال را پیدا کنم که تعدادی از کاربران در یک روز معین دیگر در آینده در یک تاپیک شرکت کنند؟
احتمال شرکت کاربر در یک موضوع
37998
من یک ویژگی 4 بعدی دارم و هر کدام از آنها توزیع های عادی مستقل هستند. من می خواهم خطای بیزی مربوط به این طبقه بندی کننده را محاسبه کنم. ماتریس کوواریانس و میانگین برای توزیع نرمال چند متغیره داده شده است. من می دانم که باید انتگرال خطا را برای فضای 4 بعدی محاسبه کنم. با این حال، وقتی سعی کردم انتگرال را در ریاضیات محاسبه کنم، یک خطا ایجاد می کند. می خواستم بدانم آیا تقریب یا راه حلی برای محاسبه انتگرال با توجه به تمام داده های بالا وجود دارد؟
چگونه می توانم خطای بیز یک طبقه بندی کننده معمولی بیزی چند متغیره را محاسبه کنم؟
67791
فرض کنید من یک مجموعه داده با یک نتیجه مشخص $Y$، متغیرهای کمکی $X$، و یک متغیر وضعیت خاص $Z$ دارم، که می تواند تعداد محدودی (کم) از مقادیر، مثلاً 1، 2 و 3 را بگیرد. ممکن است متغیرها در مجموعه داده وجود نداشته باشند، بنابراین می‌خواهم داده‌های خود را ضرب کنم. در بالای انباشته‌های مدل $Y|\\{X,Z\\}$، من می‌خواهم انتساب‌های نرمال‌شده $Y|\\{X,Z=1\\}$ را به دست بیاورم - یعنی یکی از متغیرهای پیش بینی من روی سطح خاصی تنظیم شوند. زمینه تا حدودی شبیه به تمرین BMI-liars در Sec. 7.3 در کتاب FIMD استف ون بورن. وضعیت $Z$ مربوط به منابع مختلف اندازه گیری در $Y$ است، و من گمان می کنم که وضعیت $Z=1$ دقیق ترین است، بنابراین می خواهم احساس کنم که اگر $Y$ چه نتایجی داشت. همه با استفاده از منبع $Z=1$ اندازه گیری شدند. با این حال، تفاوت این است که من هیچ معیار موازی، مانند BMI خود گزارش شده و ابزارسازی شده او ندارم. بنابراین آنچه من از نظر محاسباتی نیاز دارم این است که Bur-in را اجرا کنم، مدل(های) انتساب را کالیبره کنم، و در آخرین تکرار برای $Y$، به جای مقادیر واقعی یا پیش بینی شده، $Z=1$ را جایگزین کنم. ممکن است راهی برای ایجاد یک متغیر غیرفعال که ثابت $=1$ باشد، وجود داشته باشد، اما سپس از معادله انتساب به عنوان هم خط با عبارت intercept حذف می‌شود. اگر من فقط یک کپی از $Y$ ایجاد کنم و آن را برای $Z \neq 1$ از دست بدهم، و $Y$ و $Z$ را به عنوان پیش بینی کننده قرار دهم، آنگاه یک پیش بینی کامل با ماتریس های منفرد دریافت می کنم، بنابراین این کار ممنوع است. ، یا آیا ایده ای دارید که چگونه می توان آن را با استفاده از بسته های استاندارد معقول پیاده سازی کرد؟ من می خواهم از Stata یا R برای این کار استفاده کنم.
انتساب چندگانه شرطی/نرمال شده
26611
من یک سوال در مورد استفاده از متغیر گروه بندی در یک مدل غیر خطی دارم. از آنجایی که تابع nls () اجازه متغیرهای فاکتور را نمی دهد، من در تلاش بودم تا بفهمم آیا می توان تأثیر یک عامل را بر تناسب مدل آزمایش کرد یا خیر. من مثالی را در زیر آورده‌ام که در آن می‌خواهم یک مدل رشد فصلی فون برتالانفی را برای درمان‌های مختلف رشد (که معمولاً برای رشد ماهی استفاده می‌شود) تطبیق دهم. من می خواهم تأثیر دریاچه ای را که ماهی در آن رشد کرده و همچنین غذای داده شده را آزمایش کنم (فقط یک مثال مصنوعی). من با راه‌حلی برای این مشکل آشنا هستم - استفاده از آزمون F که مدل‌های متناسب با داده‌های تلفیقی را در مقابل برازش‌های جداگانه مقایسه می‌کند که توسط چن و همکارانش بیان شده است. (1992) (ARSS - تجزیه و تحلیل مجموع مربعات باقیمانده). به عبارت دیگر، برای مثال زیر، آیا برازش دو مدل به طور قابل توجهی مجموع مجذور باقیمانده را کاهش می دهد (در این مثال، بله): ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/ ho09y.png) تصور می‌کنم راه ساده‌تری برای انجام این کار در R با استفاده از nlme() وجود دارد، اما من با مشکلاتی روبرو هستم. اول از همه، با استفاده از یک متغیر گروه‌بندی، درجات آزادی بالاتر از آن است که من با برازش مدل‌های جداگانه به دست می‌آورم. دوم، من نمی‌توانم متغیرهای گروه‌بندی را تودرتو ایجاد کنم - نمی‌دانم مشکل من کجاست. هر گونه کمک با استفاده از nlme یا روش های دیگر بسیار قدردانی می شود. در زیر کدی برای مثال مصنوعی من آمده است: ###فصلی مدل رشد فون برتالانفی soVBGF <- تابع(S.inf, k, age, age.0, age.s, c){ S.inf * (1-exp(-k*((age-age.0)+(c*sin(2*pi*(age-age.s))/2*pi)-(c*sin(2*pi*( age.0-age.s))/2*pi)))) } ###غذای داده مصنوعی <- c(ذرت، ذرت، گندم، گندم) دریاچه <- c( شاه، ملکه، شاه، ملکه) #cornking، cornqueen، wheatking، wheatqueen S.inf <- c(140، 140، 130، 130) k <- c(0.5، 0.6، 0.8، 0.9) سن. 0 <- c(-0.1، -0.05، -0.12، -0.052) سن <- c(0.5، 0.5، 0.5، 0.5) cs <- c(0.05، 0.1، 0.05، 0.1) PARS <- data.frame(food=food, lake=lake, S.inf=S.inf, k=k, age.0= age.0, age.s=age.s, c=cs) #make data set.seed(3) db <- c() PCH <- NaN*seq(4) COL <- NaN*seq(4) for(i in seq(4)){ سن <- runif(min=0.2, max=5, 100) سن <- سن[order( سن)] اندازه <- soVBGF(PARS$S.inf[i]، PARS$k[i]، سن، PARS$age.0[i]، PARS$age.s[i]، PARS$c[i]) + rnorm(طول(سن)، sd=3) PCH[i] <- c(1،2)[which(سطوح(PARS$غذا) = = PARS$food[i])] COL[i] <- c(2،3)[which(سطوح(PARS$lake) == PARS$lake[i])] db <- rbind(db، data.frame(age=سن، اندازه=اندازه، food=PARS$food[i]، lake=PARS$lake[i]، pch=PCH[i ]، col=COL[i])) } نمودار داده #visualize (db$size ~ db$age, col=db$col, pch=db$pch) legend(پایین راست، legend=paste(PARS$food، PARS$lake)، col=COL، pch=PCH) ###fit growth model library(nlme) starting.values ​​<- c(S.inf=140, k=0.5، c=0.1، age.0=0، age.s=0) #fit به داده های تلفیقی (مدل کوچک) fit0 <- nls(size ~ soVBGF(S.inf, k, age, age.0, age.s, c), data=db, start=starting.values ​​) summary(fit0) #fit برای هر دریاچه به طور جداگانه (مدل بزرگ ) fit.king <- nls(size ~ soVBGF(S.inf, k, age, age.0, age.s, c), data=db, start=starting.values, subset=db$lake==king ) summary(fit.king) fit.queen <- nls(size ~ soVBGF(S.inf, k, age, age.0, age.s, c), data=db, start=starting.values, subset=db$lake==queen ) summary(fit.queen) #analysis of residual sum of مربع (F-test) resid.small <- resid(fit0) resid.big <- c(resid(fit.king),resid(fit.queen)) df.small <- summary(fit0)$df df.big <- summary(fit.king)$df+summary(fit.queen)$df F.value <- ((sum(resid.small^2)-sum(resid.big^2))/(df.big[1]-df.small[1])) / (sum(resid.big^2)/(df .big[2])) P.value <- pf(F.value , (df.big[1]-df.small[1]), df.big[2], low.tail = FALSE) F.value; P.value ###plot models plot(db$size ~ db$age, col=db$col, pch=db$pch) legend(bottomright, legend=paste(PARS$food, PARS$lake), col =COL، pch=PCH) legend(بالا، legend=c(soVGBF pooled، soVGBF king، soVGBF ملکه)، col=c(1،2،3)، lwd=2) #plot مدل small (داده های ادغام شده) tmp <- data.frame(age=seq(min(db$age), max (db$age),,100)) pred <- predict(fit0, tmp) خطوط (tmp$age, pred, col=1, lwd=2) #plot مدل بزرگ (مناسب جداگانه) tmp <- data.frame(age=seq(min(db$age), max(db$age),,100), lake=king) pred <- predict(fit. king، tmp) خطوط (tmp$age، pred، col=2، lwd=2) tmp <- data.frame(age=seq(min(db$age) max(db$age),,100), lake=queen) pred <- predict(fit.queen, tmp) lines(tmp$age, pred, col=3, lwd=2) ###آیا این ممکن است در یک مرحله با استفاده از متغیر گروه بندی انجام می شود؟ #با lake به عنوان متغیر گروه بندی starting.values ​​<- c(S.inf=140, k=0.5, c=0.1, age.0=0, age.s=0) fit1 <- nlme(model = size ~ soVBGF(S.inf، k، سن، سن. 0، سن، سن، ج)، داده=db، ثابت = S.inf + k + c
چگونه می توان اثر یک متغیر گروه بندی را با یک مدل غیر خطی آزمایش کرد؟
61794
من در حال بررسی تأثیر مکان تومور بر خلق و خوی (افسردگی / اضطراب) هستم و همچنین می بینم که آیا زمان در دو بازه ('t0' و 't1') تأثیر دارد یا خیر. من یک مجموعه داده با زمان به عنوان یک متغیر اندازه گیری مکرر، محل افقی تومور به عنوان یک متغیر مستقل (طبقه ای) و امتیاز خلق و خو به عنوان یک متغیر وابسته داشتم. در اولین تحلیل من، زمان بسیار مهم بود، بنابراین من عالی فکر کردم، ممکن است چیزی در اینجا داشته باشم. «موقعیت افقی» معنی‌دار نبود (یعنی بدون توجه به موقعیت افقی زمان تومور هنوز تأثیر داشت). سپس، یک متغیر دیگر بین موضوعی، یعنی محل عمودی تومور را به تجزیه و تحلیل اضافه کردم. با این حال، اگر من اکنون این طرح سه‌طرفه اندازه‌گیری مکرر فاکتوریل را اجرا کنم، «زمان» دیگر عامل مهمی در خلق و خو نیست! من احساس می کنم این عجیب است زیرا از دو جهت قابل توجه بود و اکنون از سه جهت نیست؟ (موقعیت افقی و مکان عمودی هر دو معنی دار نمی شوند.) **بنابراین سوال من به این خلاصه می شود: چگونه افزودن یک متغیر اضافی بین متغیر عامل باعث می شود که اثر اصلی زمان غیر قابل توجه باشد (مقدار p را افزایش می دهد) ?** آیا من اجازه دارم دو تعامل دو طرفه را با مکان «افقی» / «عمودی» که به جای یک سه طرفه بزرگ جدا شده است اجرا کنم یا این که نتایج را مخدوش می کند؟
اضافه کردن بین فاکتور موضوع، مقدار p اثر اصلی را کاهش می دهد؟
50684
آیا پیاده‌سازی (رایگان یا غیر رایگان) GSVM-RU (ماشین‌های بردار پشتیبان دانه‌ای - نمونه‌برداری کم تکراری) همانطور که توسط SVMs Modeling for Highly Imbalanced Classification توضیح داده شده است وجود دارد؟
پیاده سازی GSVM-RU
61796
من به رابطه بین افکار نوجوانان در مورد سیگار (مثلاً چند بار در روز گذشته به سیگار فکر کرده اید؟) و مصرف سیگار (مثلاً در ماه گذشته چند نخ سیگار کشیده اید؟) علاقه مند هستم. اقدامات مستمر است. با یک مطالعه طولی (به عنوان مثال، مطالعه سه موجی)، می توان بررسی کرد که آیا فکر سیگار مصرف سیگار را پیش بینی می کند، مصرف سیگار افکار سیگار را پیش بینی می کند یا هر دو (یعنی یک رابطه متقابل). با این حال، اگر من یک مطالعه مقطعی انجام دهم، که در آن دو متغیر بالا و برخی از متغیرهای جمعیت شناختی (به عنوان مثال، جنسیت، قومیت و غیره) را اندازه گیری کنم، آیا می توانم بیش از یک تحلیل همبستگی انجام دهم؟ برای مثال، آیا معقول است که دو تحلیل رگرسیون چندگانه با تفکر سیگار به عنوان DV، مصرف سیگار، جنسیت و قومیت به عنوان IV در یک مدل انجام دهیم و سپس DV و یکی از IV را تغییر دهیم (مثلاً، مصرف سیگار <-> افکار سیگار ) در مدل بعدی؟ من می دانم که وقتی فرضیه خاصی در مورد دو متغیر ندارید، باید به تحلیل همبستگی بسنده کنید. با این حال، من احساس می کنم که حتی در چارچوب یک مطالعه مقطعی، ممکن است انجام دو تحلیل رگرسیون چندگانه برای بررسی روابط قابل پیش بینی مختلف بین دو متغیر تا زمانی که در مورد یک رابطه علی صحبت نکنید، خوب باشد. آیا این استدلال اشتباه است؟ هر گونه ورودی بسیار قدردانی خواهد شد.
معکوس کردن IV و DV در رگرسیون چندگانه
50682
در حال خواندن کتاب سری زمانی هستم و در قسمت زیر شروع به خاراندن سرم کردم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/iLgJx.png) ![شرح تصویر را اینجا وارد کنید ](http://i.stack.imgur.com/IkKZF.png) کسی می تواند شهود را برای من توضیح دهد؟ از این متن نتونستم بفهمم چرا ما نیاز داریم که فرآیند معکوس باشد؟ تصویر بزرگ اینجا چیست؟ برای هر کمکی از شما متشکرم من در این مورد تازه کار هستم، بنابراین اگر لطف کنید از اصطلاحات سطح دانش آموز در هنگام توضیح این موضوع استفاده کنید :)
شهود فرآیند معکوس در سری های زمانی چیست؟
24753
من سعی می کنم خودم را در مورد علیت گرنجر آموزش دهم. من پست های این سایت و چندین مقاله خوب را به صورت آنلاین خوانده ام. من همچنین با یک ابزار بسیار مفید روبرو شدم، دو متغیره گرنجر Causality - Free Statistics Calculator، که به شما امکان می دهد سری زمانی خود را وارد کرده و آمار گرنجر را محاسبه کنید. در زیر، خروجی از داده های نمونه موجود در سایت است. من همچنین در تفسیر نتایج شکافی کرده ام. سؤالات من: * آیا تفسیر من از نظر جهت درست است؟ * چه بینش های کلیدی را نادیده گرفته ام؟ * همچنین مفهوم و تفسیر نمودارهای CCF چیست؟ (من فرض می‌کنم CCF همبستگی متقابل است.) در اینجا نتایج و نمودارهایی که تفسیر کرده‌ام هستند: خلاصه تراکنش محاسباتی مشاهده ورودی خام ورودی خام (کد R) خروجی خام مشاهده خروجی خام موتور R زمان محاسبه 2 ثانیه سرور R هرمان اوله آندریاس ولد @ wold.wessa.net آزمون علیت گرنجر: Y = f(X) مدل Res.DF Diff. DF F p-value مدل کامل 356 مدل کاهش یافته 357 -1 17.9144959720894 2.94360540545316e-05 آزمون علیت گرنجر: X = f(Y) مدل Res.DF Diff. DF F p-value مدل کامل 356 مدل کاهش یافته 357 -1 0.0929541667364279 0.760632773377753 ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/R6jem.png) ![تصویر را وارد کنید اینجا](http://i.stack.imgur.com/WpScL.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RUG3Z.png) تفسیر من: * تست بر اساس بر روی 357 نقطه داده و با مقدار تاخیر 1 انجام شد * مقدار p 0.0000294 به این معنی است که می توانم این فرضیه صفر را رد کنم که x باعث y برای Y نمی شود. = f(x). * مقدار p 0.76 به من اجازه می دهد که عدد صفر را برای X = f(Y) بپذیرم * این واقعیت که فرضیه اول رد شد و دوم پذیرفته شد چیز خوبی است * من در آزمون F خود کمی زنگ زده هستم بنابراین من در حال حاضر واقعاً چیزی برای گفتن در این مورد ندارم. * همچنین مطمئن نیستم که چگونه نمودار CCF را تفسیر کنم. اگر هر یک از شما که به خوبی با علیت گرنجر آشنا هستید، به من اطلاع دهید که آیا این موضوع را به درستی تعبیر می کنم و همچنین برخی از جاهای خالی را پر کنید، بسیار سپاسگزارم. با تشکر از کمک شما.
تفسیر نتایج آزمون علیت گرنجر
102691
اجازه دهید $Z_i,Z_2,\ldots$ متغیرهای تصادفی IID با چگالی $f$ باشند. فرض کنید $P(Z_i>0)=1$ و $\lambda=\lim_{x \to 0+} f(x)>0$. چگونه می توانم نشان دهم که $X_n=n \times \min\\{Z_i\\}$ دارای توزیع نمایی محدود کننده با میانگین $1/\lambda$ است؟ می دانم که CDF آمار مرتبه اول برای $t>0$ $$F_{min \\{ Z_i \\}} (t)= 1- \left[ 1-F(t) \right]^{ n}$$ همگرایی در توزیع مستلزم این است که $F_n (t) \ به F(t)$ برای برخی از تابع های توزیع $F$، اما من نمی توانم کاملاً حد موارد فوق را بگیرم، با $t$ جایگزین شده با $x/n$ ، چون توزیع مشخص نیست. حدس می‌زنم باید اطلاعات دوم را جایی وارد کنم اما نمی‌دانم کجاست. ممکن است لطفا یک یا دو نکته به من بدهید؟ متشکرم.
توزیع محدود کننده آمار مرتبه اول یک توزیع عمومی
23066
من با خودکار کردن برخی بازیابی داده ها کار می کنم، و اکنون باید برخی از نتایج را تأیید کنم. سیستم به طور خودکار 6٪ از رکوردها را علامت گذاری کرده است، و من می خواهم اندازه معقولی از رکوردهای باقی مانده را برای تأیید دستی تعیین کنم، که به من اطمینان می دهد که سایر خطاها، در صورت وجود، شناسایی می شوند. این اعداد سریع هستند: * 2502 کل رکورد * 152 (6%) خطای شناخته شده فرض کنید من 80% شانس پیدا کردن خطا در ~2350 رکورد باقی مانده را می خواهم. چه تعداد باید درخواست بررسی کنم؟ آیا فرمول آسانی برای محاسبه آن با آستانه های مختلف وجود دارد؟ * * * به روز رسانی: با تشکر از ورودی، همه. هدف من تعیین تعداد تقریبی از رکوردهای خوب است که باید به صورت دستی بررسی شوند تا مشخص شود آیا هنوز خطا وجود دارد یا خیر. اینها همه نتایجی هستند که توسط سیستم خودکار مورد استفاده ما به عنوان اعتماد بالا برچسب گذاری شده اند، بنابراین در تئوری ما انتظار داریم که آنها 100٪ دقیق باشند. من سعی می‌کنم در عدم اعتماد کامل به فرآیند خودکار کوشا باشم، بلکه نسبت به هزینه‌های بررسی این موارد نیز آگاه باشم. من تخمین می زنم که بررسی برای هر نتیجه تقریباً 1 دقیقه طول می کشد. بنابراین بررسی همه 2500 40 ساعت کار خواهد بود.
با توجه به اندازه و میزان وقوع شناخته شده جمعیت، چگونه می توانم یک حجم نمونه معقول را محاسبه کنم؟
28665
من یک پیکره سند دارم و می خواهم احتمال وقوع یک کلمه خاص $w$ را تخمین بزنم. صرفاً محاسبه فرکانس ها و استفاده از چنین عددی به عنوان تخمین انتخاب خوبی نیست. آیا کاری در مورد این موضوع وجود دارد که رویکرد بهتری را توصیف کند؟
یک روش خوب برای تخمین احتمال فراوانی کلمات چیست؟
61248
من در حال توسعه برنامه جاوا برای خوشه بندی اسناد متنی هستم و در حال تحقیق در مورد روش های ارزیابی هستم. من F-measure (http://en.wikipedia.org/wiki/F1_score) را پیاده سازی کردم، اما یک مشکل دارم - مقدار برگشتی NaN است. این اتفاق در جایی می افتد که یک خوشه حاوی هیچ داده ای از یک دسته خاص نیست - دقت و فراخوانی برابر با صفر است. چگونه باید با این وضعیت رفتار کنم - F-measure در آن صورت نیز باید صفر باشد؟ برای هر راهنمایی بسیار سپاسگزار خواهم بود.
اندازه گیری F برای ارزیابی خوشه بندی اسناد - NaN
24281
وضعیت به شرح زیر است. 400 نمونه در مجموعه آموزشی و 200 کلاس گسسته (هر کلاس دو نمونه دارد). چند هزار صفت وجود دارد. هنگامی که من کاهش ابعاد را به دو بعدی یا سه بعدی اجرا می کنم، می خواهم (به طور مطلوب) 200 خوشه از هر کدام 2 نقطه را ببینم - یک خوشه برای هر کلاس. اما در عمل اینطور نیست. سوال این است که چگونه مجموعه ای از ویژگی ها را انتخاب می کنید که نتایج بهینه را با خوشه بندی/طبقه بندی (چه با کاهش ابعاد یا بدون آن) به دست آورند.
انتخاب ویژگی ها برای خوشه بندی/طبقه بندی
24283
من اندازه‌گیری‌های تکراری یک پارامتر (فلورسانس) را انجام داده‌ام که انتظار می‌رود با گذشت زمان افزایش یابد، و درک نحوه آزمایش اهمیت شیب پارامتر در مقابل زمان (با استفاده از یک مدل حداقل مربعات خطی) مشکل دارم. ). به طور شهودی، برای من منطقی است که همه جفت‌های فلورسانس زمان را برای هر تکرار در یک مجموعه داده بزرگ ترکیب کنم و به اهمیت شیب آن تناسب نگاه کنم. با این حال، انتظار می رود که فاصله پارامتر بین تکرارها به دلیل یک مصنوع ابزاری متفاوت باشد. برای من روشن نیست که آیا ترکیب داده ها برای هر تکرار به دلیل تفاوت مورد انتظار در رهگیری، مشروع است یا خیر. با تشکر فراوان برای هر کمکی برای قرار دادن این در شرایط R: t1 <- 1:10 f1 <- rnorm(10) t2 <- 1:10 f2 <- rnorm(10) t3 <- 1:10 f3 <- rnorm(10) آیا قانونی است که به اهمیت شیب مدل نگاه کنید <- lm(c(f1, f2, f3) ~ c(t1, t2, t3)) یا باید کار دیگری انجام دهم؟
آزمایش اهمیت شیب ها با تکرار
101280
با استفاده از تابع npregbw در بسته np، مقادیر پهنای باند بسیار بزرگ را برای هموارسازی خطی محلی دریافت می کنم. پهنای باند library(np) <- npregbw(xdat = xdat, ydat = ydat, regtype=ll, bwmethod=cv.ls)$bw من 4 مجموعه داده دارم (2 شبیه سازی، 2 نمونه واقعی) و برای برخی از آنها من (به نظر می رسد) مقادیر پهنای باند مناسب (0.1 - 0.5) برای دیگران بسیار زیاد است. مقادیر (10^5 - 10^6). اندازه نمونه مجموعه داده ها یکسان است، ساختار بسیار مشابه است. من با همان مشکلی مواجه شدم که سایر کاربرانی که این سوال را ارسال کردند. پاسخی در دسترس نیست اینجا: http://thr3ads.net/r-help/2010/09/1036675-local-linear-and-local-constant- kernel-regression-with-np یا اینجا: https://stat.ethz.ch/ pipermail/r-help/2011-September/289538.html آیا تجربه مشابهی دارید؟ آیا فکری برای رفع آن دارید؟
R: پهنای باند بسیار زیاد، تابع npregbw در بسته np
24288
از ویکی‌پدیا، می‌دانیم که $n$، درجات آزادی، باید بزرگتر از $p-1$ باشد که در آن $p$ بعد ماتریس مقیاس است. همچنین، از قسمت پایین همان مقاله، تجزیه بارتلت را برای نمونه توزیع Wishart می بینیم که در آن عنصر مورب از $\chi^{2}(n - i + 1)$ تولید می شود. با این حال، اگر دستورات زیر را در Matlab 2011b تایپ کنید: Sigma = eye(2) nu = 1 wishrnd(Sigma,nu) چیزی را برمی گرداند! در اینجا، 'nu' (درجات آزادی) دیگر بزرگتر از بعد ماتریس مقیاس نیست، درست است؟ همچنین، اگر از نزدیک به اجرای «wishrnd» با صدور «type wishrnd» نگاه کنید، خط زیر را مشاهده می کنیم: a = diag(sqrt(chi2rnd(df-(0:n-1)))); واضح است که پیاده سازی به جای $\chi^{2}(n-i+1)$$\chi^{2}(n-i)$ تولید می کند. اینجا چیزی ناسازگار است؟
چگونه از توزیع Wishart نمونه برداری کنیم؟
28664
من یک مجموعه داده با ساختار سنتی دارم که در آن ردیف ها مشاهدات و ستون ها متغیر هستند. تنها چند مشاهدات وجود دارد اما متغیرهای نسبتاً بیشتری وجود دارد. مشاهدات مناطقی از یک کشور هستند و متغیرها ویژگی‌ها هستند (_یعنی_، اندازه جمعیت، میانگین درآمد، تعداد مردان، تعداد زنان و غیره). من باید بفهمم که کدام ویژگی می تواند یک منطقه را از بقیه متمایز کند. به عنوان مثال، من باید بفهمم که آیا اندازه جمعیت منطقه 1 را از مناطق 2، 3، 4 و غیره بیشتر متمایز می کند یا خیر. کدام روش های آماری برای انجام این نوع تجزیه و تحلیل موجود است؟ کمک شما قابل قدردانی است. فقط در صورتی که مشخص نباشد، اطلاعات من چیزی شبیه به زیر است. A، B، C، D R1 8، 9، 5، 4 R2 5، 8، 4، 5 R3 7، 9، 7، 4 که در آن R1 = منطقه 1، R2 = منطقه 2، R3 = منطقه 3، A = جمعیت ، B = درآمد متوسط، C = تعداد مرد، D = تعداد زن. سوالات من چیزی شبیه به این است: * تفاوت R1 با مجموعه {R2, R3} چیست؟ * R2 چه تفاوتی با مجموعه {R1, R3} دارد؟ * R3 چه تفاوتی با {R1, R2} دارد؟ پاسخ های مورد انتظار چیزی شبیه به این هستند: * آیا R1 با {R2, R3} متفاوت است؟ * {A, D} R2 را با {R1, R3} متفاوت می کند؟
چگونه می توان متغیرهای متمایز کننده یک نمونه را از بقیه نمونه ها تشخیص داد؟
23397
در ابتدا در stats.SE ارسال شده بود اما هرگز پاسخی دریافت نکردید بنابراین در اینجا مجدداً ارسال کنید. آیا تا به حال یک ایده _bad_ عادی سازی ماتریس هسته است؟ منظور من روشی است که در صفحه 113 کتاب Shawe-Taylor & Cristianini روش های هسته برای تجزیه و تحلیل الگو (نشان گذاری Matlab) توضیح داده شده است: ٪ ماتریس هسته اصلی ذخیره شده در متغیر K٪ خروجی از همان متغیر K٪ استفاده می کند D یک ماتریس مورب ذخیره می شود. معکوس هنجارها D = diag(1./sqrt(diag(K))); K = D * K * D; من به طور خاص به متن کاوی فکر می کنم، جایی که هسته از ماتریس $tf-idf$ $T$ (_i.e._ $K = T T'$) تشکیل می شود. دلیلی که می‌خواهم عادی‌سازی کنم این است که به ترکیب چندین هسته از این قبیل فکر می‌کنم (مثلاً از بیگرام‌ها، سه‌گرام‌ها و غیره) اما وقتی این کار را انجام می‌دهم نتایج واقعاً عجیبی می‌گیرم. جمع کردن هسته ها بدون عادی سازی منجر به تسلط یکی یا دیگری می شود. (من می توانم از یک جمع وزنی استفاده کنم - مانند استفاده از $1/||K||_F$ که در آن $||\cdot||_F$ هنجار Frobenius است، اما این کمی هک به نظر می رسد - این یادگیری بدون نظارت است).
نرمال سازی ماتریس هسته
24755
کتاب های معرفی خوب فیلتر کالمن کدامند؟ من مثال ها و تکنیک های عملی زیاد و کمتر تئوری را دوست دارم.
آشنایی با فیلترهای کالمن
79501
من مجموعه ای از داده های خام مشاهده شده دارم و از ODE مرتبه دوم برای جا دادن داده ها استفاده می کنم $$y''+b_1(t)y'+b_0(t)y = 0$$. t)$ وابسته به زمان هستند و من از آنالیز دیفرانسیل اصلی (PDA) (بسته R: **fda**، تابع: **pda.fd**) برای بدست آوردن تخمین استفاده می کنم. $\hat{b_1}(t)$ و $\hat{b_0}(t)$. برای بررسی اعتبار تخمین‌های $\hat{b_1}(t)$ و $\hat{b_0}(t)$، از روش collocation استفاده می‌کنم (بسته R **bvpSolve**، تابع: **bvpcol** ) برای به دست آوردن جواب عددی ODE $$y''+\hat{b_1}(t)y'+\hat{b_0}(t)y = 0$$ سپس مقایسه کنید راه حل از ODE بالا با برازش منحنی هموارسازی داده های خام. سوال من این است که راه حل عددی من از bvpcol می تواند شکل منحنی برازش را بگیرد اما نه برای مقدار تابع. از نظر چند مضرب ثابت متفاوت هستند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NwTy0.jpg) شکل خروجی من را ببینید. **نقطه خاکستری** داده خام من، **خط قرمز** بسط فوریه داده خام، **خط سبز** حل عددی تابع bvpcol و **خط آبی** سبز است. -line/1.62. می‌توانیم ببینیم که خط سبز می‌تواند شکل را بگیرد، اما با مقادیری که زمان‌های ثابت بسط فوریه هستند. من چندین داده دیگر را جا می دهم و وضعیت مشابهی دارم اما ثابت متفاوتی دارم. من تعجب می کنم که مشکل حل عددی ODE یا دلایل دیگری است و چگونه می توان این مشکل را حل کرد تا تطابق خوبی بین حل عددی (سبز) و بسط فوریه واقعی بدست آوریم؟ هر گونه کمک و ایده قدردانی می شود! در اینجا یک داده خام و کد وجود دارد: RData is here library(fda) library(bvpSolve) # load the data load('y.RData') tvec = 1:length(y) tvec = (tvec-min(tvec))/ (max(tvec)-min(tvec)) # ایجاد پایه fbasis = create.fourier.basis(c(0,1),nbasis=47) bbasis = create.bspline.basis(c(0,1),norder=8,nbasis=47) bfdPar = fdPar(bbasis) yfd = صاف. پایه (TVEC ، Y ، fbasis) $ fd yfdlist = لیست (yfd) bwtlist = rep(list(bfdPar),2) # PDA fit bwt = pda.fd(yfdlist,bwtlist)$bwtlist # خروجی ضرایب تخمینی beta0.fd<-bwt[[1]]$fd beta1.fd<-bwt[[ 2]] $ fd # عملکرد متفاوت از نظر t را تعریف کنید fbeta0 <-function (t) eval.fd (t ، beta0.fd) fbeta1 <-function (t) eval.fd (t ، beta1.fd) # تعریف Ode Fun2 <-عملکرد (t ، y ، پارس) {با (as.list (c (y ، pars)) ، {beta0 = pars [[1]] ؛ beta1 = pars [[2]] ؛ dy1 = y[2] dy2 = -beta1(t)*y[2]-beta0(t)*y[1] return(list(c(dy1,dy2))) }) } # BVP yinit<-c(p1[ 1],NA) yend<-c(p1[طول(p1)],NA) t<-seq(tvec[1],tvec[length(tvec)],0.005) col<-bvpcol(yini=yinit,yend=yend,x=t,func=fun2,parms=c(fbeta0,fbeta1) atol=1e-5،islin=T) # خروجی نمودار خطوط نمودار(col[,1],col[,2],col='green',type='l') points(tvec,p1,col='darkray') خطوط (yfd,col='red',lwd= 2) خطوط (col[,1],col[,2],col='green', type='l') خطوط (col[,1],col[,2]/1.62,col='blue',type='l',lwd=2,lty=4) legend('topleft',col=c('green', 'خاکستری تیره'، 'قرمز'، 'آبی')، legend=c('راه حل ODE'، 'داده خام'، 'مناسب منحنی پایه'، 'ODE solution/1.62'),lty=1) **یک سوال به روز شده: آیا $\hat{b_1}(t)$ و $\hat{b_0}(t)$ منحصر به فرد هستند؟** همانطور که پایه را تغییر می دهم (مثلا bspline) ,تک نامی) برای بسط $b_0(t)$ و $b_1(t)$، معمولا منحنی های تخمینی بسیار متفاوتی دارم، اما حل عددی ODE (خط سبز) بسیار نزدیک است. این باعث می‌شود باور کنم که فرم‌های عملکردی مختلف $\hat{b_1}(t)$ و $\hat{b_0}(t)$ می‌توانند راه‌حل یکسانی را ارائه دهند. من یک پست جدید را با جزئیات بسیار بیشتر در اینجا شروع کردم.
حل عددی ضرایب متغیر ODE
73023
من متعجب بودم که چرا لزوماً درست است که اگر یک آماره آزمایشی از مقدار بحرانی t بیشتر شود، آنگاه درست است که p-value از سطح معنی‌داری فراتر نخواهد رفت.
رابطه بین آمار آزمون و مقدار p در رابطه با آزمون t
61793
من دو نمونه مخزن (با جایگزینی) از یک توزیع دارم که به طور مستقل به دست می آیند. اگر فقط اتحاد این دو نمونه را تولید کنم، آیا نمونه به دست آمده نیز به عنوان نمونه تصادفی در نظر گرفته می شود؟
آیا اتحاد دو نمونه مخزن یک نمونه تصادفی است؟
24752
از شما به خاطر تلاش شما برای ایجاد چنین جامعه خوبی متشکرم و من با خواندن و پرسیدن چیزهای زیادی یاد گرفتم. پیشینه رگرسیون لجستیک من: 1. متغیر هدف: هدف باینری در مورد نوسانات بازار. 1 برای روزهای معاملاتی با روز نوسان صدک بالای 15% که نشان دهنده روز شدید در بازار است. 0 برای استراحت عادی و نوعی روز آرام برای بازار. 2. متغیر پیش بینی کننده: فراوانی 160 کلمه کلیدی مرتبط با تجارت از انجمن معروف تجارت آنلاین. به عنوان مثال، کلمه تاجر در 01-01-2008 ما متوجه شدیم که 50 بار رخ داده است و در 01-01-2008 متوجه شدیم که در مجموع 500 پست در آن انجمن داریم. بنابراین، با تقسیم 50 تاجر بر 500 «تعداد پست»، ظاهر «معامله‌گر» را به نوعی عادی می‌کنیم. ما در اینجا 0.1 برای 01-01-2008 دریافت کردیم. ما فرهنگ لغت 160 کلمه ای داریم و داده های آموزشی از 01-01-2008 تا 2011-12-31 است. هر سطر دارای 160 ستون با عددی است که تعداد کلمات خاص را نشان می دهد. این همه است. هیچ چیز متغیر از قیمت، نوسانات در اینجا. نوع داده احساسات خالص بر اساس شمارش فرکانس. 3. هدف مدل‌سازی: من فکر می‌کنم کاملاً بدیهی است که می‌خواهیم ببینیم آیا می‌توانیم کلمات احساسی را برای پیش‌بینی خوب در مورد اینکه آیا فردا یک روز بسیار فرار است یا خیر داشته باشیم؟ 4. نرم افزاری که من استفاده می کنم: SAS Enterprese Miner 3 در SAS 9.1.3. تعریف و جزئیات مدل‌سازی در اینجا آمده است: الف. من رگرسیون لجستیک را انتخاب می‌کنم ب. بدون پارتیشن داده‌ای چون فقط 1000 روز به عنوان داده آموزشی خود دارم، بنابراین استفاده از داده‌های کامل را انتخاب می‌کنم که به این معنی است که فرآیند نمونه‌گیری وجود ندارد و فقط داده‌های آموزشی استفاده می‌کنم. ج. من عقب را انتخاب می‌کنم زیرا می‌خواهیم ببینیم این پیش‌بینی‌کننده‌های مهم از 160 کدامند، در اینجا در صورت استفاده از جلو، مقداری کمبود وجود دارد. D. هیچ مجموعه داده اعتبارسنجی وجود ندارد، بنابراین من Crossvalidation-error را به عنوان معیار نهایی خود انتخاب کردم. سطح معنی داری برای متغیر ماندن 0.05 است. 5. نتیجه: متشکرم برای استفاده آسان sas، نمودار زیر را مستقیماً از مدیر نتیجه و مدلسازی دریافت کردم: اولی نتیجه است: همانطور که نشان می دهد چند متغیر باقی مانده است: ![http://i.stack.imgur .com/jGCsT.jpg](http://i.stack.imgur.com/Av8FL.jpg) وای، خیلی متغیرها... ترسناک. مورد دوم در مورد نمودار پاسخ که نشان می‌دهد چقدر پیش‌بینی را در مقایسه با انتخاب تصادفی یا حدس زدن در مورد فردا بهبود می‌بخشیم، در اینجا، در مورد من، احتمال اینکه شما آن را درست حدس بزنید در مورد اینکه آیا فردا یک روز بی‌ثبات است یا خیر، حدود 15 درصد است. نمودار پاسخ خوب و روان به نظر می رسد، درست است؟ ![http://i.stack.imgur.com/XoCes.jpg](http://i.stack.imgur.com/LE39t.jpg) نگران کننده: تعداد زیادی متغیر در اینجا باقی مانده است. نوعی ترساندن. چگونه می توانم مدل سازی را بهبود بخشم و نتیجه را تفسیر کنم؟
52 متغیر پس از انتخاب متغیر معکوس بر روی رگرسیون لجستیک روی 160 متغیر در ابتدا، چه توهم یا مدلسازی خوب باشد.
31690
اگر در رگرسیون خطی متغیر طبقه ای داشته باشم ... چگونه می توانم اهمیت آماری متغیر طبقه ای را بدانم؟ فرض کنید ضریب X_1$ دارای 10 سطح است... 10 مقدار t حاصل مختلف وجود خواهد داشت، زیر چتر یک متغیر عاملی $X_1$... به نظر من معنی‌داری آماری برای هر سطح آزمایش می‌شود. متغیر عامل؟ نه؟ @Macro: به دنبال پیشنهاد شما، مثال زیر را ساختم: به نظر می رسد x3 مفید است و باید در مدل گنجانده شود، از مقایسه مدل زیر. اما در واقع این اشتباه است... آیا نظری در این مورد دارید؟ متشکرم! n=100 x1=1:n x2=(1:n)^2 x3=rnorm(n) ee=rnorm(n) y=3*x1-2*x2+x3+3+ee lm1=lm(y~ x1+x2+x3) خلاصه (lm1) lm2=lm(y~x1+x2) خلاصه (lm2) anova (lm1, lm2) > anova(lm1, lm2) تجزیه و تحلیل جدول واریانس مدل 1: y ~ x1 + x2 + x3 مدل 2: y ~ x1 + x2 Res.Df RSS Df مجموع مربع F Pr(>F) 1 96 82.782 2 97 146.773 -1 -63.99 74.207 1.401e-13 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 1
چگونه می توان اهمیت آماری را برای متغیر طبقه ای در رگرسیون خطی آزمایش کرد؟
110999
* ریشه میانگین مربعات خطا * مجموع باقیمانده مربع ها * خطای استاندارد باقیمانده * میانگین مربعات خطا * خطای تست فکر می کردم قبلاً این اصطلاحات را می فهمیدم اما هر چه بیشتر مسائل آماری را انجام می دهم بیشتر در جایی که خودم را حدس می زنم گیج می شوم. من یک اطمینان مجدد و یک مثال ملموس می‌خواهم که بتوانم معادلات را به‌اندازه کافی آنلاین پیدا کنم، اما در یافتن توضیحی مثل من 5 ساله برای این اصطلاحات مشکل دارم تا بتوانم تفاوت‌ها و چگونگی یکی را در ذهنم متبلور کنم. منجر به دیگری می شود. اگر کسی بتواند این کد زیر را بگیرد و به نحوه محاسبه هر یک از این اصطلاحات اشاره کند، ممنون می شوم. کد R عالی خواهد بود.. با استفاده از مثال زیر: summary(lm(mpg~hp, data=mtcars)) در کد R به من نشان دهید چگونه پیدا کنم: rmse = ____ rss = ____ residual_standard_error = ______ # من می دانم وجود دارد اما نیاز دارم درک mean_squared_error = _______ test_error = ________ امتیاز جایزه برای توضیح مانند I'm 5 تفاوت / شباهت بین اینها. مثال: rmse = ریشه مربع (mss)
R - سردرگم در اصطلاحات باقیمانده
50683
پس از انجام یک تحلیل عاملی اکتشافی (SPSS)، دقیقاً چه چیزی را می توانم از جدول همبستگی عواملی که پس از استخراج/چرخش عوامل به دست می آید استنباط کنم؟ اگر دو عامل نسبتاً همبستگی بالایی دارند (مثلاً محدوده 0.4-.6 یا بالاتر)، آیا این بدان معناست که هنگام ساخت مدل خود به صورت گرافیکی، می‌توانم یک خط دو طرفه بین دو متغیر پنهان که فاکتورها را نشان می‌دهند قرار دهم؟ آیا این همان چیزی است که جدول همبستگی نشان می دهد؟ اگر نه، چه بخشی از خروجی/چه تحلیل دیگری را قرار است برای توجیه قرار دادن آن خطوط دوطرفه یا تک جهتی بین عوامل استفاده کنید؟ من یک تازه کار در یک ضرب الاجل هستم، بنابراین کمک قابل توجهی خواهد بود!
همبستگی عوامل و طراحی مدل
50686
من آیتم های لیکرت برای تعدادی از دانش آموزانی که به طور همزمان اسپانیایی و انگلیسی یاد می گیرند، دارم. من واقعاً باید میانگین هر متغیر (غیر عادی) را با هم مقایسه کنم تا ببینم کدام زبان برای متغیرهایی مانند من به این زبان تلویزیون تماشا می کنم رای بالاتری داده است. در حال حاضر، این شرکت کنندگان به وضوح جفت همسان نیستند، آنها همان افرادی هستند که تحت دو شرط (اسپانیایی یا انگلیسی) آزمایش می شوند. اندازه گیری های مکرر به تفاوت های زمانی اشاره دارد. آیا ایده زمان ضروری است یا می توانم شرکت کنندگانم را اقدامات تکراری صدا کنم؟ اگر نه، آنها چه هستند و چه نوع آزمونی برای مقایسه میانگین ها نشان داده شده است؟ از هر کسی که پاسخ می دهد، بسیار سپاسگزارم - من یک تازه کار هستم
آیا این شرکت کنندگان به طور مکرر اندازه گیری می شوند؟
74906
من یک مدل OLS با داده هایی ساخته ام که دو بار با هم تفاوت داشتند. همانطور که می‌دانم (و شاید اشتباه می‌کنم) ضرایب (بتا) را می‌توان روی داده‌های اصلی غیرمتمایز اعمال کرد تا Y در آن زمان ارائه شود. خیلی دور است و من گمان می کنم که این رهگیری یا چیز دیگری باشد
تفسیر یک رگرسیون بر اساس داده های دو برابر متفاوت مدل شده است
61247
من به دنبال مرزهای بالای نظری دقت طبقه بندی هستم. لطفا اگر با نتایجی مانند زیر آشنا هستید به من اطلاع دهید. **تنظیمات زیر کلی است، اما لطفاً نتایجی را که می دانید در تنظیمات خاص نیز اعمال می شود، به اشتراک بگذارید. با تشکر!** اجازه دهید $Y$ متغیر باینری برای طبقه بندی باشد و $X = (X_1,...,X_K)$ متغیرهای توضیحی $K$ باشد. ما توزیع مشترک (در جمعیت) $(y,X) \sim \mu$ را می دانیم و می خواهیم مدلی از $\hat{y} = f(X)$ بسازیم. سپس برای کلاس توابع XXX $f()$، یک کران بالای حداکثر دقت طبقه بندی وجود خواهد داشت: $P(\hat{y} = y) \le g(\mu(y,X))$؟
مرزهای بالای نظری دقت طبقه بندی؟
50681
در بررسی این سوال و بررسی برخی از پیشرفت‌های اخیر در اندازه‌گیری همبستگی، به آزمون HHG (هلر هلر گورفین) برخوردم. هلر و همکاران آن را به عنوان برتر از آزمایش اخیر MIC که در سال 2011 سر و صدا به پا کرد، تبلیغ کنید. من کد R و یک نوع آن را پیدا کرده ام اما نمی توانم ببینم چگونه می توانم اندازه گیری فاصله بین صفر و یک را بدست بیاورم. چگونه می توانم این فاصله را محاسبه کنم؟ این یک مثال قابل تکرار است: ## کد download.file(http://www.math.tau.ac.il/~ruheller/Software/HHG2x2_0.1-1.tar.gz، HHG2x2_0.1- را دریافت کنید. 1.tar.gz) install.packages(HHG2x2_0.1-1.tar.gz، repos = NULL، type=source) library(HHG2x2) writeChar(con=myHHG.R, getURL(https://raw.github.com/andrewdyates/HHG_R/master/R/myHHG.R، ssl.verifypeer = FALSE)) منبع( myHHG.R) ## مثال داخلی X = datagenCircle(50) Dx = as.matrix(dist((X[1,]),diag=TRUE,upper=TRUE)) Dy = as.matrix(dist((X[2,]),diag=TRUE,upper=TRUE)) myHHG( Dx، Dy)؛ pvHHG(Dx,Dy) که برمی‌گرداند: $sum_chisquared [1] 5515.762 $sum_lr [1] 3028.207 $max_chisquared [1] 20.02963 $max_lr [1] 11.30457 [0.9.9$ خروجی $5001 $1] 10001 $A_threshold [1] 2.985682 $B_threshold [1] -4.553877 چگونه می توانم متریک فاصله را از این بسته دریافت کنم؟ یا من اشتباه متوجه شده ام که HHG در مورد چیست؟ به نظر می رسد این منبع اصلی برای تست HHG باشد: Heller, R., Y. Heller, et al. (2012). آزمون چند متغیره سازگار بر اساس رتبه فاصله. بیومتریک. 99 (4) doi:10.1093/biomet/ass070 http://arxiv.org/abs/1201.3522
نحوه محاسبه فاصله HHG (Heller Heller Gorfine) در R
28661
من می خواهم برخی از روش های آماری را بر روی داده هایی که کیفیت/قدرت مؤسسات را برای کشورهای جهان توصیف می کند، انجام دهم. من به دنبال این داده ها در بانک جهانی، OECD، سازمان ملل و صندوق بین المللی پول بوده ام. من باید این فهرست را از دست داده باشم، زیرا در مورد افرادی که از آن استفاده می کنند از منبع معتبری مانند موارد ذکر شده در بالا شنیده ام. آیا کسی در مورد چنین شاخصی از منبع معتبر اطلاعی دارد؟
داده ها در مورد کیفیت/قدرت سازمانی؟
23399
اساساً، دو راه متداول برای یادگیری در برابر مجموعه داده‌های عظیم (زمانی که با محدودیت‌های زمانی/مکانی مواجه می‌شوید) وجود دارد: 1. تقلب :) - فقط از یک زیر مجموعه «قابل مدیریت» برای آموزش استفاده کنید. از دست دادن دقت ممکن است به دلیل قانون کاهش بازده ناچیز باشد - عملکرد پیش بینی مدل اغلب قبل از اینکه تمام داده های آموزشی در آن گنجانده شود، صاف می شود. 2. محاسبات موازی - مسئله را به بخش های کوچکتر تقسیم کنید و هر کدام را در یک ماشین/پردازنده جداگانه حل کنید. اگرچه شما به یک نسخه موازی از الگوریتم نیاز دارید، اما خبر خوب این است که بسیاری از الگوریتم های رایج به طور طبیعی موازی هستند: نزدیکترین همسایه، درختان تصمیم و غیره. آیا روش های دیگری وجود دارد؟ آیا قانون کلی برای استفاده از هر کدام وجود دارد؟ اشکالات هر رویکرد چیست؟
یادگیری بر روی مجموعه داده های عظیم
23064
این چیزی است که بیشتر در رابطه با پیش بینی آب و هوا در مورد آن تعجب کرده ام، اما می خواهم سؤال کلی را بپرسم زیرا هر از گاهی در زمینه های دیگر مطرح می شود. فرض کنید من یک فرآیند دارم که به $F$ نشان داده شده است، که با توجه به حالت اولیه $x$، یک نتیجه $y$ از میان مجموعه‌ای مجزا از نتایج ممکن ایجاد می‌کند: $F(x) \in\\{y_1،\ldots ,y_k\\}$. این فرآیند غیر قطعی است، به طوری که اجرای آن چندین بار با یک حالت اولیه $x$ همیشه یک نتیجه را ایجاد نمی کند. همچنین، فرض کنید من یک مدل نظری برای فرآیند دارم که با توجه به $x$، توزیع احتمال را بر روی نتایج مختلف $y_1، \ldots، y_k$ پیش‌بینی می‌کند. من می خواهم این فرضیه را آزمایش کنم که مدل درست است. یا به طور دقیق تر، با توجه به فرضیه زیر: > برای همه حالت های اولیه $x$، توزیع نتایج حاصل از فرآیند > به توزیع احتمال پیش بینی شده توسط مدل همگرا می شود زیرا > تعداد اجراهایی که از حالت $x$ شروع می شوند به بی نهایت نزدیک می شود. . می‌خواهم بدانم در چه سطحی می‌توانم این فرضیه را با توجه به مجموعه‌ای از نقاط داده، که هر کدام از یک حالت اولیه $X_i$ و نتیجه مربوطه $Y_i$ تشکیل شده‌اند، رد کنم. اگر همه حالت های اولیه $X_i$ یکسان باشند، ظاهراً می توانم این کار را با استفاده از تست $\chi^2$ پیرسون یا تست دقیق فیشر انجام دهم. (لطفا اگر این اشتباه است مرا تصحیح کند) اگر چندین حالت _متفاوت در بین $\\{X_i\\}$ وجود دارد، می توانم داده ها را بر اساس حالت اولیه گروه بندی کنم و تست Pearson یا Fisher را در گروهی که $X_i= است اجرا کنم. x_1$، و در گروهی که $X_i=x_2$ و غیره همه به طور جداگانه. به این ترتیب می‌توانم سطح معناداری را برای فرضیه مرتبط تعیین کنم > برای _یک حالت اولیه_خاص $x_j$، توزیع نتایج... _(مانند > بالا)_ به‌طور جداگانه برای هر $x_j$. اما من به دسته ای از سطوح اهمیت فردی برای حالت های اولیه مختلف علاقه ای ندارم. من مایلم آزمون آماری _one_ را داشته باشم که _تمام_ داده های من را ترکیب می کند و سطح معنی داری _one را برای کل مدل به من می دهد. این امر ضروری است زیرا، در حالت شدید، همه $X_i$ متمایز هستند، بنابراین اگر داده‌های خود را بر اساس حالت اولیه گروه‌بندی کنم، هر گروه فقط یک عنصر دارد - که مطمئناً تست پیرسون و تا حد زیادی فیشر نیز است. اساسا بی فایده بنابراین، به طور خلاصه: **آیا آزمون آماری وجود دارد که به من سطح معناداری بدهد که بتوانم فرضیه ذکر شده در بالای سوال را رد کنم؟** اگر نه به طور کلی، آیا فرضیاتی وجود دارد که آن را ممکن می کند؟ (مثلاً آیا اگر $x_j\in\mathbb{R}^n\forall x_j$ برای برخی از $n$های شناخته شده، ثابت و متناهی مهم است؟) یا اینکه این غیرممکن است، و در این صورت، دلیل آن چیست؟ ? در صورتی که واضح نبود، این مثال متعارفی است که در ذهن داشتم: $x$ وضعیت فعلی جو (دما، فشار، رطوبت، و غیره) جمع آوری شده در ایستگاه های هواشناسی در سراسر ایالات متحده، به علاوه داده های ماهواره ای است. به علاوه چیزهای دیگر؛ پیش بینی چیزی شبیه P(باران)=0.6، P(ابر)=0.3، P(آفتابی)=0.1 در مکان مشخص و زمان آینده خواهد بود. چند سوال قبلا پرسیده شده است که من پیدا کرده ام که پاسخ های مرتبطی دارند، به خصوص این یکی و این یکی. در بین آنها، چندین روش برای _مقایسه_ پیش بینی های احتمالی فهرست شده است: * امتیاز بریر * قوانین امتیازدهی * رگرسیون لجستیک * منحنی ROC اما تا آنجا که می توانم بگویم (و ممکن است اشتباه کنم)، همه اینها معیارهای مقایسه ای را ارائه می دهند، نه واقعی. اهمیت آماری - به عبارت دیگر، نتیجه یک آزمون داده شده (مانند نمره بریر) فقط برای مقایسه با نتایج یک آزمون مشابه در یک آزمون متفاوت مفید است. مدل نظری * * * من به خصوص در مورد آمار تجربه ندارم، بنابراین اگر مفاهیم پیشرفته ای در پاسخ به این موضوع دخیل هستند، بسیار خوب است که برخی از منابع برای مطالعه بیشتر داشته باشیم.
آیا راهی برای آزمایش یک پیش‌بینی احتمالی برای یک آزمایش غیرقابل کنترل وجود دارد؟
61240
من در حال تحقیق در مورد سطوح ویتامین D بازیکنان حرفه ای و آماتور فوتبال و ارتباط با عواملی مانند رنگ پوست، مصرف ویتامین D و غیره هستم. نمی دانم از کدام آزمایش استفاده کنم. من به شما ایده ای از وضعیت می دهم: * من یک متغیر پیوسته دارم: سطح ویتامین D اندازه گیری شده * یک متغیر طبقه بندی شده: رنگ پوست (چه سیاه یا سفید) من در مورد ANOVA یک طرفه خوانده ام، اما به سه گزینه برای متغیر مقوله ای نیاز دارد. من از آزمون ANOVA استفاده کردم، مقدار p 0.005 بود. آیا می توان از این آزمون فقط با دو گزینه برای متغیر طبقه بندی استفاده کرد؟ یا تست دیگری هست که بتوانم استفاده کنم؟ و اگر امکان استفاده از ANOVA وجود دارد، آیا مقدار F به معنای چیزی است یا فقط مقدار p؟
از کدام آزمایش برای مقایسه سطوح ویتامین D استفاده کنید
55300
من در آمار بسیار مبتدی هستم و مشکل من به شرح زیر است: من مجموعه ای از 20000 مشاهدات طبقه بندی شده دارم (این کل مجموعه داده من است، مثلاً DATA1) که نسبت مشخصی از بله و نه دارد. -1: بله، id-2: بله، id-3: خیر، id-4: نه، ... id-20000: بله). از کل مجموعه داده، من یک زیرمجموعه خاص از 3000 مشاهده مورد علاقه خود دارم (مثلاً DATA2) (مثلاً: id-1: بله، id-2: بله و غیره). من می خواهم آزمایش کنم که آیا نسبت بله/نه در این نمونه خاص به طور قابل توجهی بیشتر یا کمتر از کل مجموعه داده است. اولین رویکردی که قرار است انجام دهم، تست کای اسکوئر است، درست است؟ اگر چنین است، جدول چگونه باید باشد؟ روش دیگری که در نظر دارم (و فکر می‌کنم صحیح‌ترین است)، نمونه‌برداری تصادفی از کل مجموعه داده (DATA1) 3000 مشاهده برای N = 1000 دور است و برای هر دور تعداد «بله» و «خیر» حساب می‌شود. . من تصور می کنم که نمی توانم توزیع را رسم کنم و امتیاز z را بدست بیاورم زیرا متغیرها دسته بندی هستند. بنابراین، من در این نقطه گیر کرده ام زیرا نمی دانم چگونه داده های شبیه سازی شده را با داده های مشاهده شده (DATA2) مقایسه کنم و با اهمیت آماری یا مقادیر p محاسبه شده به پایان برسانم. کسی می تواند در این مشکل به من کمک کند؟ ساده ترین راه برای من یک راه حل در R است. خیلی ممنون!
چگونه می توان آزمون تصادفی سازی را برای داده های طبقه بندی شده و/یا خی دو انجام داد؟
55302
برای مجموعه داده های نامتعادل مختلف که نسبت کلاس کمیاب از 30٪ (نادر) تا 5٪ (نادر) متفاوت است، بهترین راه برای تعریف Perc.Over و Perc.Under در روش SMOTE چیست. DMwR؟ در حال حاضر من از این فرمول استفاده می کنم: بیش از = ( (0.6 * COMMON_NO) - RARE_NO ) / RARE_NO زیر = (0.4 * COMMON_NO) / (RARE_NO * بیش از) و در نهایت آن را به نسبت درصد تبدیل می کنم: Over_Perc = گرد (بیش از، 1) * 100 Under_Perc = گرد(زیر، 1) * 100 و سپس آن را به عنوان SMOTE تغذیه کنید زیر: newData <- SMOTE(Label ~., df, perc.over=Over_Perc, perc.under=Under_Perc) نکته این است که اگر 30٪ داده کمیاب در مجموعه آموزشی وجود داشته باشد، انجام طبقه بندی بدون 'SMOTE' می دهد. عملکرد بهتر از استفاده از SMOTE! در حالی که با داشتن 5 تا 20 درصد داده‌های کمیاب در مجموعه آموزشی، با استفاده از «SMOTE»، الگوریتم طبقه‌بندی عملکرد بسیار بهتری ارائه می‌دهد، p.s. من از همبستگی متیو و AUC برای اندازه گیری عملکرد استفاده می کنم.
چگونه پارامترهای SMOTE را در بسته R DMwR تنظیم کنیم؟
105188
من می خواهم نتایج عملکرد دو پیش بینی کننده مختلف را روی یک مجموعه داده نمایش دهم. من یک ماتریس سردرگمی برای هر یک از نتایج پیش بینی کننده ها در مورد تست دارم. من می خواهم این ماتریس های سردرگمی را در یک نشریه دانشگاهی ارائه کنم (با تمرکز بر تفاوت های مثبت کاذب بین این دو). این ماتریس ها 2x2 هستند. کدام گزینه برای ارائه دو اطلاعات ماتریس سردرگمی مناسب است؟ 1. به عنوان یک زیرشکل به همراه شکل مسیر داده؟ 2. در عنوان شکل مسیر داده ها؟ 3. دو ماتریس در محیط معادلات در بحث نتایج؟ 4. به عنوان فهرستی از اعداد درون یک جمله در بحث؟
راه های موثر برای نمایش ماتریس های سردرگمی از پیش بینی های مختلف در یک نشریه دانشگاهی؟
31954
چیزی که من فکر می کنم این است که ویژگی های PCA، ویژگی های LDA و ویژگی های LBP را با هم ترکیب کنم تا دقت بالاتری به دست آوریم، زیرا فکر می کنم این سه ویژگی همه نوعی بردار هیستوگرام هستند و وقتی برچسب یک تصویر آزمایشی را تعیین می کنیم، هیستوگرام را مقایسه می کنیم. از تصویر آزمایشی به هیستوگرام تصاویر موجود. بنابراین آیا امکان ترکیب بردارهای ویژگی با هم وجود دارد؟ با این حال من فکر می کنم هیستوگرام ویژگی LBP بسیار طولانی است. اگر از شبکه‌های 8 در 8 استفاده کنیم، هیستوگرام 8 دلار \ برابر 8 \ برابر 256 = 16384 دلار خواهد بود. و بردارهای وزن صورت ویژه به اندازه تعداد مؤلفه های صورت ویژه هستند که ما انتخاب می کنیم، مثلاً 80. بنابراین مطمئن نیستم که بتوانیم این کار را انجام دهیم یا خیر. من به این فکر خواهم کرد و از هرگونه کمکی استقبال می کنم.
چگونه ویژگی های استخراج شده توسط PCA، LDA و LBP را ترکیب کنیم؟
55301
من می خواهم یک عدد تصادفی از 1 تا 100 رسم کنم. اگر این عدد زوج باشد، می خواهم از اعداد فرد بین 1 تا 100 یک عدد تصادفی رسم کنم. اعداد زوج بین 1 و 100. آیا سه استراتژی زیر یکسان هستند؟ (1) یک عدد تصادفی از کوزه رسم کنید. همه اعداد فرد (یا زوج) را مرتب کنید و سپس یک عدد تصادفی از اعداد باقیمانده بکشید. (2) یک عدد تصادفی از کوزه رسم کنید. عدد دومی را از کوزه بکشید و آن را به عقب برگردانید تا عدد دوم فرد (یا زوج) نباشد. (3) دو عدد از کوزه بکشید و آنها را به عقب برگردانید تا زمانی که هر دو فرد (یا زوج) نباشند. به عنوان یک مثال در دنیای واقعی، تصور کنید که من می‌خواهم از مجموعه‌ای از پروباندها یک پروبند بکشم. سپس می‌خواهم این شخص را با یک همسر دوم از جنس مخالف جفت کنم. من می‌خواهم جنسیت اولین بند تصادفی باشد (مثلاً به دلیل جلوه‌های توالی)، بنابراین نمی‌توانم ابتدا یک مرد و سپس یک زن را ترسیم کنم، یا برعکس. من می توانم ابتدا یک مرد را قبل از یک زن بکشم، سپس یک زن را قبل از یک مرد، سپس دوباره یک مرد را قبل از یک زن و غیره. اما می خواهم از نظم قابل پیش بینی آن اجتناب کنم. برخلاف اعلانی که هنگام وارد کردن عنوان این سوال ظاهر می شود، این یک سوال ذهنی نیست که نظر یا حدس و گمان بخواهد. من مطمئن هستم که تصادفی نسبی رویدادها قابل محاسبه است: من حدس می زنم که شما باید احتمالات را برای رسم یک عدد خاص تحت هر سه شرط محاسبه کنید، و بهترین تصادفی نسبی به دست می آید، جایی که این عدد کمترین احتمال را دارد. متأسفانه من نمی دانم چگونه این را محاسبه کنم. بنابراین من اینجا می پرسم _من تگ های مناسب برای این سوال را نمی دانستم. لطفا آنها را تغییر دهید، اگر احساس می کنید دیگران بهتر هستند._
بهترین فرآیند برای رسم تصادفی یک عدد فرد و یک عدد زوج
51488
من مجموعه‌ای از مجموعه داده‌ها را دارم که از آزمودنی‌ها به هنگام انجام یک کار شناختی خاص ضبط شده است. داده ها از 16 کانال و تعدادی نقطه نمونه در هر کانال تشکیل شده است و من می خواهم این داده ها را بر اساس وظیفه شناختی در حال انجام طبقه بندی کنم (همه چیز دارای برچسب است). مسئله این است که من حجم زیادی از داده ها ندارم (تقریبا 60 آزمایش در هر جلسه، 30 آزمایش برای هر کار شناختی) و 2 جلسه دارم. من سعی می کنم یک طبقه بندی کننده تجزیه و تحلیل تشخیص خطی (LDA) برای طبقه بندی این داده ها آموزش دهم. طبقه‌بندی‌کننده بعداً در **زمان واقعی** مورد استفاده قرار می‌گیرد تا به هر تعداد نمونه، نوعی خروجی ارائه دهد. من از یک اعتبارسنجی متقاطع 5 برابری برای اندازه گیری خطای تعمیم طبقه بندی کننده خود استفاده کردم. مشکل این است که وقتی چندین بار این اعتبار سنجی متقاطع 5 برابری را اجرا می کنم، نتایجی که به دست می آورم اصلا ثابت نیستند. در عوض، تفاوت قابل توجهی در دقت کلی وجود دارد (به عنوان مثال، اعتبارسنجی متقاطع 5 برابری اول ممکن است دقت متوسط ​​80٪، 2 بازدهی دقت 65٪، بازده سوم به طور متوسط ​​72٪ و غیره را به دست آورد). آیا این طبیعی است؟ اگر نه، چه دلایلی می تواند باشد؟
ناهماهنگی در نتایج اعتبارسنجی متقابل
74902
من تازه وارد یادگیری ماشین هستم. برای مسئله مجموعه داده عنبیه ما می توانیم با رگرسیون لجستیک چند جمله ای و همچنین شبکه عصبی مشکل را حل کنیم. کدام یک از نظر هزینه و خطا عملکرد بهتری را ارائه می دهد؟
مجموعه داده عنبیه چگونه حل کنیم
23393
تجزیه و تحلیل همبستگی متعارف (CCA) _(و معادل هسته آن (KCCA))_ را می توان برای یافتن روابط خطی _(غیرخطی)_ بین دو مجموعه داده (یا نما) چند متغیره تراز شده استفاده کرد. آیا راهی برای گسترش بیش از دو نما وجود دارد؟ من تصور می کنم یکی از راه ها اعمال CCA/KCCA به صورت بازگشتی در یک ساختار درختی است، اما به نظر می رسد که این کار نسبتاً ناکارآمد باشد. آیا بهینه سازی واحدی وجود دارد که بتواند در یک مرحله به این هدف دست یابد؟ یا آیا روش های جایگزینی وجود دارد که همین کار را انجام دهد؟
CCA/KCCA برای بیش از دو نما
55308
من در حال تجزیه و تحلیل یک پرسشنامه با استفاده از SPSS هستم، اما نمی دانم چگونه سؤالات رتبه بندی یا سؤالاتی را که در آن از پاسخ یک سؤال برای پاسخ به سؤال بعدی استفاده می شود، تجزیه و تحلیل کنم. کسی میتونه کمک کنه لطفا؟
تحلیل آماری سوالات متوالی در SPSS
73022
من توزیع بعدی زیر را برای $v$ $$f(v)\propto v^{-p/2}\exp\left(-\frac{1}{v}\frac{s}{2}\right دارم )$$ و به وضوح $$v\sim\text{Inverse-Gamma}\left(\frac{p}{2}-1,\frac{s}{2}\right)$$ حالا می‌توانم بگویم که $$v^{-1}\sim\text{Gamma}\left(\frac{p}{2}-1,\frac{s}{2}\right)$$
رابطه بین گامای معکوس و توزیع گاما
51485
من در حال آزمایش علیت بین دو سری هستم. PACF و ACF تأخیرهایی را انتخاب می‌کنند که در صورت استفاده، در آزمون‌های علیت معنادار نیستند. با بازی کردن با تأخیر متوجه می‌شوم که برای تأخیرهای دیگر اهمیت علیت دریافت می‌کنم... مشکلات مربوط به عدم استفاده از تأخیر انتخاب شده توسط ACF/PACF چیست؟ برای ثبت، محدوده بین مقادیر ACF/PACF -3.07 تا -3.05 بود.
علیت گرنجر - با استفاده از تاخیر متفاوت از انتخابی که توسط ACF/PACF انتخاب شده است
32903
پس از مبارزه با مدل خودکار پواسون (معروف به شبکه تصادفی مارکوف با توزیع‌های پواسون شرطی) تلاش برای وادار کردن نمونه‌گر گیبس برای به دست آوردن نمونه گسسته از شبکه (از آنجایی که من توزیع‌های شرطی را می‌دانم) متوجه شدم که هرگز نسخه گسسته این نمونه‌گر را ندیده‌ام. من تعجب می کنم که در مورد نمونه برداری از توزیع گسسته (که به نمونه برداری بیزی پسین محدود نمی شود) چه وضعیتی وجود دارد؟ آیا چیزی مانند نمونه‌گر گیبس برای نمونه‌برداری از توزیع‌های گسسته شرطی وجود دارد؟
آخرین وضعیت در مورد نمونه برداری از توزیع گسسته چیست؟
73028
من با روش خاص مورد نیاز برای استفاده از روش معکوس در مسئله زیر گیج شده ام، مشکل اینجاست: > توزیع مخلوطی از دو توزیع نرمال را در نظر بگیرید، جایی که > PDF مورد نظر $f(x)$ توسط: > > $ داده می شود. f(x) = r\، f_a(x) + (1 − r)\، f_b(x)$، که در آن $f_a$ و $f_b$ PDF های معمولی هستند > با معنی $a$ و $b$، به ترتیب (انحراف استاندارد برای هر دو 1 است). > با استفاده از دو متغیر تصادفی یکنواخت $u_1$ و $u_2$، توضیح دهید که چگونه می توانیم از روش وارونگی برای نمونه برداری از $f(x)$ استفاده کنیم. توجه داشته باشید، دستور qnorm در R > ممکن است در اینجا مفید باشد. سردرگمی من از دو متغیر تصادفی یکنواخت $u_1$ و $u_2$ است. فکر من این است که cdf را پیدا کنیم، $F(x)$ (که از طریق pnorm() در R بدست می‌آید)، و سپس می‌توانیم از روش‌های عددی (مانند نیوتن-رافسون) برای تولید x استفاده کنیم. \sim f(x)$، بنابراین در اینجا فقط به یک توزیع یکنواخت نیاز دارد و به qnorm() نیازی ندارد. روش من چه اشکالی دارد؟ آیا مشکل روش بهتری را پیشنهاد می کند؟
نمونه برداری تبدیل معکوس برای توزیع مخلوط دو توزیع نرمال
31952
من هنوز نمی توانم مزیت پولیش میانه را نسبت به یک میانه معمولی برای خلاصه کردن کاوشگر برای ساختن کاوشگرها در تجزیه و تحلیل ریزآرایه بفهمم. همانطور که از اینجا فهمیدم، ایده استفاده از میانه آرایه های مختلف برای خلاصه کردن داده ها به همراه میانه کاوشگرهای مختلف است: استفاده از پولیش میانه برای انتخاب ویژگی من چند شبیه سازی انجام داده ام تا ببینم چه چیزی ممکن است اتفاق بیفتد اگر تصور کنیم که زیر یک مجموعه داده ریزآرایه شبیه‌سازی است، که در آن ستون‌ها پروب‌هایی هستند که می‌خواهیم خلاصه کنیم، و ردیف‌ها تراشه‌های مختلف ریزآرایه هستند: library(preprocessCore) > y <- matrix(10+rnorm(100)،20، 5) > y [,1] [,2] [,3] [,4] [,5] [1,] 9.334358 9.993648 8.551274 10.109988 10.243317 [2،] 11.448786 8.908376 11.536720 10.679236 10.831209 10.831209 [3،399981. 9.740086 10.103683 9.349783 [4،] 10.552108 12.772855 10.484486 9.362849 9.426693 [5،] 10.05658974749. 10.283063 9.909602 [6،] 12.187766 10.290644 8.770036 11.241425 12.856710 [7،] 11.071675 9.93200010 9.93200010 11.013961 [8،] 9.560737 9.234133 11.307681 8.672639 9.570637 [9،] 8.952978 8.549438 9.962865 8.521 8.521. 8.853584 10.117102 10.040929 9.551693 9.880730 [11،] 8.794862 11.276158 7.579099 9.167762 8.880730 8.880730 9.873338 9.081718 9.501927 11.956930 [13،] 10.150289 8.472951 9.367948 9.376648 9.963847 9.963847 [14،127] 838110. 11.253192 8.169423 10.286973 [15،] 10.424398 10.356835 10.004031 10.790331 9.922300 [16،] 10.4724393 9.597307 8.726760 [17،] 11.447273 10.366120 11.620400 9.698011 10.706059 [18،] 9.597951 11.16161659 11.16161659 10.945888 [19،] 8.796656 10.962160 10.204844 7.944251 9.332819 [20،] 9.462135 10.621933 9.691741019 ما می توانیم 9.69174130 ستون ها را با استفاده از میانه خلاصه کنید (که هر کاوشگر (یعنی ستون) را به طور جداگانه بررسی می کند، و همچنین با استفاده از پرداخت میانه (که ستون ها و ردیف ها را در نظر می گیرد، جزئیات بیشتر در http://www.stats.ox.ac). uk/pub/MASS4/VR4stat.pdf > colSummarizeMedian(y) $Estimates [1] 10.211050 10.055375 9.983448 9.574500 9.915951 $StdErrors [1] NA NA NA NA NA > colSummarizeMedianpolish(y) $Estimates [1] 9.975078 9.819878747 9.907471 $StdErrors [1] NA NA NA NA NA سپس با تغییر یکی از آرایه ها یک outlier اضافه می کنم و دوباره محاسبه می کنم. همانطور که انتظار داریم میانه ثابت می ماند، اما میانه پولیش اینطور نیست. با این حال، من نمی دانم که چرا پولیش میانه در اینجا بهتر از پاسخ میانه است؟ من نمی دانم که چرا ما اطلاعات را از ستون های دیگر قرض می گیریم و از این چه چیزی به دست می آوریم. به نظر می رسد که این امر به ویژه درست است زیرا اغلب برخی از ستون ها تراشه های حاصل از درمان های تفاضلی هستند. شاید من در اینجا چیزی نسبتاً اساسی را از دست داده باشم، اما هر کمکی قابل قدردانی است، من تا حدودی در یک بلوک ذهنی هستم. همچنین، اگر مردم فکر می‌کنند که این برای یک سایت بیوانفورماتیک‌تر q+a مناسب‌تر است، لطفاً به من اطلاع دهید! > y[20،] <- y[20،] + rnorm(5، sd=5) > colSummarizeMedian(y) $Estimates [1] 10.348104 9.990152 9.983448 9.526810 9.911 NAtE951 $NA. colSummarizeMedianpolish(y) $Estimates [1] 10.030423 9.879213 9.933043 9.713632 9.893364 $StdErrors [1] NA NA NA NA NA
مزیت پولیش میانه نسبت به میانه چیست؟
4619
من دو نظرسنجی از دو جمعیت مجزا دارم (نمی‌دانم که لزوماً متمایز هستند، اما از دو پایگاه داده متفاوت هستند) که مجموعه‌ای از سؤالات مشابه را می‌پرسند. برخی از سؤالات جمعیت شناختی اولیه هستند (مانند سن، درآمد)، در حالی که سؤالات دیگر کمی دقیق تر یا در مورد نظرات آنها هستند (مثلاً ترجیحات برند، عادات خرج کردن). چگونه از نظر آماری ثابت کنم که این دو جمعیت یکسان یا حداقل قابل مقایسه هستند؟ می‌دانم که می‌توانم برای سؤالات فردی آزمون t انجام دهم، اما آیا راهی برای ایجاد شباهت در بیش از یک بعد وجود دارد؟ هدف ترکیب نظرسنجی از این دو جمعیت در یک سری داده های نظرسنجی است. به عنوان مثال، ممکن است نظرسنجی A را هر شش ماه یکبار اجرا کنیم، اما نظرسنجی B را هر ماه اجرا می کنیم، به جز زمانی که نظرسنجی A را اجرا می کنیم. سپس می خواهم نتایج نظرسنجی A و نظرسنجی B را ترکیب کنم تا یک سری داده های نظرسنجی ماهانه داشته باشیم.
تعیین اینکه جامعه نمونه گیری شده از دو نظرسنجی جداگانه یکسان است
56651
من می خواهم تغییر یک سیاست را در یک جامعه اندازه گیری کنم، یعنی بررسی کنم که آیا بعد از اعمال سیاست جدید تغییری ایجاد شده است یا خیر. خط مشی قدیمی ایجاب می کرد که مردم برای شرکت در یک جامعه باید حقی را از دست می دادند (همانطور که مجلات دانشگاهی کار می کنند، جایی که معمولاً از نویسندگان خواسته می شود حق چاپ خود را واگذار کنند). سیاست جدید این الزام را کنار گذاشت. سیاست قدیمی می‌توانست برخی افراد را از مشارکت (یا مشارکت) در جامعه بازدارد. فرضیه این خواهد بود: * $H_0$: تغییر در خط مشی هیچ تاثیری در مشارکت (مشارکت) ایجاد نمی کند * $H_1$: تغییر در خط مشی تأثیری در مشارکت (مشارکت) ایجاد می کند. به نظر من باید از Chi-square (با ماتریس اقتضایی) استفاده کنید زیرا می خواهم تغییرات جمعیت (مشارکت یا شرکت کنندگان) را اندازه گیری کنم. جنبه های زیر مرا در مورد چگونگی برخورد با مشکل مردد می کند: * شرکت کنندگانی هستند که قبل و بعد از تغییر خط مشی مشارکت دارند. بنابراین گروه های قبل و بعد مستقل نیستند. (آیا این برای طرح تحقیق اهمیت دارد؟) * سطح مشارکت نه قبل و نه بعد از آن همگن نیست. از آنجایی که این مشارکت‌ها در یک دوره زمانی (سال‌ها) اتفاق می‌افتند، قبل از تغییر، شرکت‌کنندگانی بودند که برای مدت کوتاهی مشارکت داشتند، دیگران برای مدت طولانی‌تر و دیگرانی بودند که هنوز هم مشارکت داشتند. سؤالات: * آیا Chi-Square مناسب ترین رویکرد برای این مشکل است؟ اگر نه، چه رویکردی مناسب خواهد بود؟ * آیا منطقی است که نگران جنبه های قبلی ذکر شده باشیم؟ اگر چنین است، چگونه باید به آنها نزدیک شد؟ * آیا چیز دیگری وجود دارد که باید در نظر بگیرم؟ (چیزی که می تواند تجزیه و تحلیل من را باطل کند یا چیزی که می تواند آن را بهبود بخشد) پس از تجزیه و تحلیل یک جامعه و اگر فرضیه صفر ($H_0$) رد شد، سعی می کنم آن را تجزیه و تحلیل کنم که آیا تغییراتی در سطح وجود دارد یا خیر. مشارکت شرکت کنندگان فعال در هر دو دوره قبل و بعد. پس از آن، من جوامع دیگر با تغییرات سیاست مشابه را تجزیه و تحلیل می کنم و آنها را (در صورت وجود) مقایسه می کنم. در نهایت، این یک مطالعه _ex post facto_ است. من سؤالات دیگری را بررسی کرده ام، اما آنها متفاوت به نظر می رسند: * چگونه می توان تغییر قابل توجهی در داده های سری زمانی به دلیل تغییر سیاست تشخیص داد؟ این در مورد تغییر در رفتار یک فرد است، نه سطح مشارکت در یک جمعیت. * برای تعیین اینکه آیا تغییر خط مشی تأثیر آماری قابل توجهی بر ثبت وب سایت داشته است، از چه آزمایشی باید استفاده کنم؟ ممکن است اینطور باشد، اما معیار مشکل فقط ثبت نام است، نه مشارکت یا مشارکت واقعی.
اندازه گیری تغییر سطح مشارکت در یک جمعیت پس از تغییر سیاست
31951
من یک مجموعه داده بزرگ با چندین پاسخ در مورد هزینه های نیروی کار یک سازمان دارم. من می خواهم این داده ها را به صورت گرافیکی نشان دهم. معمولاً کاری که ما انجام می‌دهیم این است که یک نمودار میله‌ای پشته‌ای (با استفاده از R) از درصدها ارائه می‌کنیم. با این حال، برخی از نقاط پرت شدید در داده ها وجود دارد، و میانگین توسط این اعداد پرت کاملاً منحرف می شود. بدیهی است که میانه ترجیح داده می شود. با این حال، نمایش این در نمودار میله ای انباشته بسیار دشوارتر می شود. در اینجا نمونه ای از داده ها آورده شده است: میانگین هزینه A 51.39647 49.5389570 Cost B 15.07913 4.2676470 Cost C 5.98685 0.2238874 هزینه D 27.53755 16.954 -------------------------------- SUM 100.00000 70.9845144 همانطور که می بینید، میانگین نمایش خوبی از میانه نیست . کاری که من در ابتدا انجام داده بودم این بود که یک نمودار میله ای انباشته شده از میانگین تهیه کردم. با این حال، من از این راضی نیستم، زیرا فکر نمی‌کنم نمایش خوبی از داده‌ها باشد. من می خواهم نماینده متوسط ​​​​باشد. من به نرمال کردن داده‌های میانه فکر کرده‌ام، به‌طور مثال، کلاس A به 49.54/70.98 تبدیل شود، اما احتمالاً حتی کمتر از گزارش میانگین است. با استفاده از میانه، به راحتی می توان گفت: شرکت به طور متوسط ​​4٪ از هزینه های نیروی کار خود را صرف هزینه B می کند. این برای گزارش یک آمار خوب عمل می کند. با این حال، من می خواهم آمار را به عنوان _کسری از _همه_ هزینه های شرکت _متوسط_ گزارش کنم. پس دیگر نمی توانم آنچه را که در بالا گفتم، بگویم، زیرا میانگین ها به 100 نمی رسند. من به یک روش خوب برای گزارش نیاز دارم، معیار هزینه در هزینه A w است، در هزینه B x٪ است، در هزینه C است. y% است و در هزینه D z% است، به طوری که مجموع (w,x,y,z)=100 است و به خوبی نماینده جمعیت است. سوال من این است که آیا کسی روش خوبی برای گزارش این داده ها می داند، ترجیحاً در نمودار میله ای انباشته ای که نشان می دهد شرکت متوسط ​​چگونه هزینه های خود را بین این چهار هزینه تقسیم می کند؟ ایده بزرگ این است که درک درستی از نحوه تقسیم هزینه های شرکت «متوسط» بین این چهار هزینه داشته باشیم.
چگونه می توان نسبت های میانه را با استفاده از نمودارهای میله ای انباشته به بهترین شکل نشان داد؟
56657
هدف از تجزیه و تحلیل، یافتن همبستگی بین زمینه تولد و قد و در عین حال کنترل سن است. هر فرد دارای شماره شناسنامه، سن، قد و زمینه تولد است. این قسمت آخر چیزی است که من را به دردسر می اندازد. سه نوع زمینه تولد وجود دارد: خارجی، به این معنی که آنها در کشور دیگری متولد شده اند، مهاجر، به این معنی که آنها در عرض 9 سال پس از مهاجرت مادرشان به ایالات متحده متولد شده اند، و محل تولد، به این معنی که آنها پس از 10 سال به دنیا آمده اند. مادر در آمریکا من مطمئن نیستم که در این شرایط چگونه سن را کنترل کنم. آیا باید برای هر سنی، مانند سن 10 سالگی، در گروه تعیین شده، متغیرهای ساختگی جداگانه ایجاد کنم؟ هر چیزی که من را در مسیر درست راهنمایی کند، قدردانی می شود.
نحوه کنترل یک متغیر
61242
![http://postimg.org/image/vppji4o3r/](http://i.stack.imgur.com/WbjNG.png) من با تعیین تأثیر اندازه نمونه بر شکل احتمال قبلی مشکل دارم. توزیع مقادیر پارامتر در $x$ و prob در محور $y$ قرار دارند. منحنی سمت راست شامل افراد (حجم نمونه کوچکتر)، در حالی که سمت چپ شامل کلنی ها (با حجم نمونه بزرگتر) است. من فقط نمی دانم چرا موقعیت میانگین تغییر می کند. من انتظار داشتم که نمونه بزرگتر اوج بیشتری داشته باشد (حد مرکزی) اما نه اینکه میانگین تغییر کند. آیا کسی می تواند به من بگوید که آیا مکانیزمی وجود دارد که منجر به رفتار مشاهده شده در تصویر شود؟
جمعیت و نمونه با معنی بسیار متفاوت: چرا اینطور است؟
31955
من اخیرا مقاله ای را خوانده ام که از مدل های ترکیبی خطی تعمیم یافته برای تخمین مقادیر میانگین سالانه و ماهانه برای متغیر پاسخ در مدل استفاده کرده است. متغیر پاسخ یک متغیر پیوسته با توزیع نرمال بود و از سال و ماه به عنوان پیش بینی کننده در مدل استفاده شد. سپس میانگین سالانه و ماهانه برای متغیر پاسخ محاسبه شد. 1. میانگین سالانه و ماهانه برای متغیر پاسخ در یک مدل ترکیبی خطی تعمیم یافته چگونه برآورد می شود؟ 2. میانگین محاسبه شده توسط یک مدل خطی تعمیم یافته با میانگین محاسبه شده با دست چگونه متفاوت است؟
برآورد مدل ترکیبی خطی تعمیم یافته به چه معناست و چه تفاوتی با محاسبه میانگین دستی دارد؟
31959
من فهرستی از رای دهندگانی دارم که در انتخابات محلی من با سن، جنسیت و حوزه خود شرکت کردند. فهرستی هم از نتایج این انتخابات به تفکیک حوزه دارم. آیا راهی برای یافتن روابط بین دو مجموعه داده وجود دارد؟
رای دهندگان ثبت نام شده را با نتایج انتخابات محلی مرتبط کنید
93360
سلب مسئولیت: من یک مهندس مکانیک هستم، نه یک مرد آمار، بنابراین گاهی اوقات چیزهایی را از دست می دهم. **زمینه:** من یک نسخه از مدل های احتمال کاربردی با کاربردهای بهینه سازی نوشته شلدون ام. راس (پیوند) دارم و در حال کار بر روی محتوا هستم و مطمئن می شوم که آن را درک کرده ام. در صفحه 8 موارد زیر را به عنوان نمونه ای از احتمال مشروط آورده است: > یک زندانی در سلولی حاوی سه در قرار می گیرد. اولین درب بلافاصله به آزادی منتهی می شود. در دوم به تونلی منتهی می شود که پس از یک روز سفر او را به سلول باز می گرداند. در سوم به تونلی مشابه منتهی می شود > که او را پس از سه روز به سلول خود باز می گرداند. با فرض اینکه زندانی همیشه احتمال دارد یکی از درها را انتخاب کند، مدت زمان مورد انتظار تا رسیدن زندانی به آزادی چقدر است؟ سپس می گوید: $$ E\left[ Y | X =1 \راست ] = 0 $$ $$ E\ چپ[ Y | X =2 \راست ] = 1 + EY $$ $$ E\ چپ[ Y | X =3 \right ] = 3 + EY $$ از این نتیجه می‌شود: $$ EY = \frac {1}{3} \left[0+ \left(1+EY\right)+ \left(3+EY \right) \right ] $$ یا $$ EY = 4 $$ من این را گرفتم و در MatLab پیاده‌سازی کردم و میلیون‌ها بار آن را اجرا کردم. این کد است: function conditionalProbEx1 clc; همه را ببند y=myfun(1000000); cdfplot(y) [mean(y) median(y)] %my game function [t]=myfun(n) if nargin==0 n=1; پایان t=صفر(n,1); برای i=1:n %initialize t t(i)=1; حلقه = 1; maxloops=200; test=0; while (test==0)&(loops<=maxloops) %انتخاب عدد تصادفی ind=rand; %محاسبه طول زمان برای عدد if ind<=(1/3) t(i)=t(i); test=1; %break elseif (ind<=(2/3))&(ind>(1/3)) t(i)=t(i)+1; elseif (ind<=1)&(ind>(2/3)) t(i)=t(i)+3; حلقه های انتهایی = حلقه ها + 1; end %iterate end return مقادیر من همه اعداد صحیح هستند، اما یک میلیون نمونه در آنجا وجود دارد، بنابراین نباید زیاد خاموش باشد. وقتی آن را رسم می‌کنم، نتیجه زیر را دریافت می‌کنم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wmRWs.png) دامنه احتمالات تجمعی ماندن در سلول تنها به مدت چهار روز از 48.06٪ تا 60.42٪. میانه را در بر می گیرد. محدوده احتمال تجمعی باقی ماندن در سلول دقیقاً برای سه روز از 48.06٪ تا 44.38٪ یا 3.68٪ متغیر است. **سوال:** چرا تقریباً 4 برابر بیشتر احتمال دارد که 4 روز در سلول بمانید تا 3 روز در سلول بمانید؟ آیا به دلیل بخش 3 روزه حلقه است؟ در صورتی که منطقی باشد، به نظر فراکتال می رسد - تکرار عدم تقارن در اندازه گام. چگونه شهود مکانیکی خود را برای یافتن این معقول تربیت کنم؟
اختلاف در پاسخ ها را برای احتمال شرطی آشتی دهید
93365
چگونه مدل‌سازی بیزی سلسله مراتبی همبستگی موجود بین متغیرهای مشاهده‌شده را ترکیب می‌کند (y1,....,yn) متشکرم
مدلسازی بیزی سلسله مراتبی
80618
من می خواهم بین رضایت شغلی (با پرسشنامه نوع لیکرت) و جنسیت همبستگی پیدا کنم. آیا باید از آزمون کروسکال والیس برای یافتن همبستگی بین دو استفاده کنم؟
همبستگی بین متغیر ترتیبی و متغیر اسمی
23391
ماشین بردار پشتیبان (SVM) چگونه کار می‌کند و چه چیزی آن را از دیگر طبقه‌بندی‌کننده‌های خطی، مانند پرسپترون خطی، تحلیل تشخیصی خطی، یا رگرسیون لجستیک متمایز می‌کند؟ * (* _من به انگیزه های اساسی برای الگوریتم، استراتژی های بهینه سازی، قابلیت های تعمیم، و پیچیدگی زمان اجرا فکر می کنم.)
ماشین بردار پشتیبان (SVM) چگونه کار می کند؟
40647
در تعیین یک مدل اثرات مختلط متقاطع، سعی می‌کنم تعاملات را نیز لحاظ کنم. با این حال، پیام خطای زیر را دریافت می کنم: خطا در lme.formula (نرخ ~ نازل، تصادفی = ~ نازل | عملگر، داده = جریان) : مشکل nlminb، کد خطای همگرایی = 1 پیام = حد تکرار بدون همگرایی رسیده است (10) مدل دارای موارد زیر است: 1\. 3 نوع نازل (اثر ثابت) 2\. 5 اپراتور، هر کدام با 3 اندازه گیری تکرار در جریان سوخت از 3 نوع نازل. از من خواسته شد که تعامل بین نوع نازل و اپراتور را در مدل لحاظ کنم. این کد من برای مدل است: flow.lme <- lme(rate ~ nozzle, error= nozzle|operator, data=Flow) چرا باید این پیغام خطا را دریافت کنم؟
خطای LME() - به حد تکرار رسیده است
93369
من عملکرد دو الگوریتم $A$ و $B$ را بر اساس یک متریک مقایسه می‌کنم. برای هر الگوریتم، من نمونه های مستقل 31 دلاری دارم که عملکرد آن را نشان می دهد. این نمونه ها در دو مجموعه گروه بندی می شوند: $X$ و $Y$ (الگوریتم $A$ و الگوریتم $B$، به ترتیب). برای این کار، من از آزمون مجموع رتبه‌ای Wilcoxon با سطح معناداری $\alpha=0.05$ در R استفاده می‌کنم. این آزمون ناپارامتریک را انتخاب کرده‌ام زیرا هیچ فرضی در مورد توزیع داده‌ها ندارد. این روش من است: 1. **فرضیه** اجازه دهید $E(X)$ و $E(Y)$ به ترتیب میانگین $X$ و $Y$ باشند. سپس، تست یک دنباله به صورت زیر تعریف می شود: -$H_0$: $E(X) = E(Y)$ (عملکرد هر دو الگوریتم مشابه است) -$H_1$: $E(X) > E( Y)$ (عملکرد $A$ بهتر از $B$ است) 2. **به معنی** $E(X) = 36.87548$، $E(Y)=37.72585$ `> خلاصه (X) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.00 35.09 45.34 36.88 46.63 48.05` `> خلاصه (Y) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 9.332 34.860 41.120 37.730 42.510 48.110` 3. **$A$ در مقابل $B$** `p = wilcox.test(X, Y, alternativa=بزرگتر, conf.level=0.95)$p.value` مقایسه کنید $p=0.0170 < \alpha = 0.05$، سپس $E(X)$ باید بزرگتر از $E(Y)$ باشد (این چیزی است که من فکر می کنم، اما بزرگتر نیست!)، می توانیم $H_0$ را رد کنیم، بنابراین می توانیم نتیجه بگیریم که: _الگوریتم $A$ از الگوریتم $B$ با سطح معناداری $\alpha=0.05$_ بهتر عمل می کند. 4. **$B$ را در مقابل $A$** `p = wilcox.test(Y, X, alternative=greater, conf.level=0.95)$p.value` مقایسه کنید اگر $p=0.9835 > \alpha $، سپس $E(X)$ و $E(Y)$ مشابه هستند (باز هم، حدس من است). ما نمی توانیم $H_0$ را رد کنیم، بنابراین می توانیم نتیجه بگیریم که: _$A$ و $B$ عملکرد مشابهی دارند_. **داده** X = c( 45.51885768، 35.65081119، 44.60124311، 15.39979541، 48.05143243، 47.90604081، 7.58160.060، 7.581630. 40.94718019, 45.34194687, 28.55451125, 46.15113458, 48.03542321, 47.91413840, 45.38912357, 45.38912357, 47.123, 47.104 47.80316539، 34.51956662، 0.05853162، 45.29245167، 48.00199937، 45.28839538، 44.89017125، 424.431، 424.47، 424.47. 43.35755055، 45.52413737، 45.53528261، 45.45233121، 3.04515436) Y = c( 41.603296، 43.005620، 338.37، 38.34 41.342548, 44.344933, 34.030309, 42.012604, 35.718175, 45.203532, 40.482022, 45.345594, 41.1521, 41.1521. 48.111677, 41.117034, 34.713158, 44.972073, 35.091889, 34.206018, 9.332199, 39.776291, 28.213649, 28.213649 35.016681, 41.699073, 41.203090, 47.988765, 36.496740, 45.346652, 30.186485) ![توضیح تصویر را در اینجا وارد کنید](http://i.jpg)Q888765 آزمون مجموع رتبه ویلکاکسون بر اساس میانگین (همانطور که در مراحل 3 و 4 فکر می کنم) یا بر اساس میانه است؟ 2. آیا ممکن است که $A$ بتواند بهتر از $B$ و در عین حال $E(X) <E(Y)$ باشد؟ 3. آیا روش زیر صحیح است؟ برای x در (X, Y) برای y در (X, Y) اگر x == y: ادامه p = wilcox.test(x, y, alternative=greater, conf.level=0.95) اگر p < آلفا: x بهتر از y است اگر p > alpha: p = wilcox.test(x, y, alternative=less, conf.level=0.95) اگر p <alpha: x بدتر از y است x و y عملکرد مشابهی دارند.
روش آزمون مجموع رتبه ویلکاکسون
74905
من دو گروه دارم یکی درمان A و دیگری درمان B را دریافت کرد. امتیاز (متغیر وابسته) در 5 نقطه زمانی مختلف گرفته شد. آیا می توانم ANOVA اندازه گیری های مکرر را اجرا کنم؟ من فقط علاقه مندم که بدانم آیا درمان A متفاوت است (بهتر یا نه) با درمان B
من می خواهم دو درمانی را که در 5 نقطه زمانی انجام شده اند مقایسه کنم
56658
من یک مسابقه یادگیری ماشینی انجام داده ام که در آن از RMSLE (خطای لگاریتمی میانگین مربعات ریشه) برای ارزیابی عملکرد پیش بینی قیمت فروش دسته ای از تجهیزات استفاده می کنند. مشکل این است که مطمئن نیستم چگونه موفقیت نتیجه نهایی خود را تفسیر کنم. به عنوان مثال اگر من به RMSLE 1.052$ دست پیدا کنم، آیا می توانم آن را با توان نمایی $e$ افزایش دهم و آن را مانند rmse تفسیر کنم؟ (یعنی $e^{1.052}=2.863=RMSE$)؟ آیا می توانم بگویم که پیش بینی های من به طور میانگین از قیمت های واقعی $\pm \$2.863$ بود؟ یا راه بهتری برای تفسیر متریک وجود دارد؟ یا اصلاً می توان متریک را به استثنای مقایسه با سایر RMSLهای مدل های دیگر تفسیر کرد؟ با تشکر از همه کمک شما!
چگونه RMSLE (خطای لگاریتمی میانگین مربعات ریشه) را تفسیر می کنید؟
100908
من سری های زمانی را روی سری های زمانی پسرفت می کنم. من برای هم انباشتگی روی کل نمونه زمانی (3 سال) آزمایش کرده ام و سری ها هم انباشته شده اند. من باید یک پنجره متحرک از رگرسیون ایجاد کنم (برای دریافت یک سری زمانی از بتا) در کل این نمونه زمانی. پنجره نورد من احتمالا 50 یا 100 روزه خواهد بود. اگر سری های زمانی من در این دوره کوتاه با هم ادغام نشوند (حتی اگر بدانم در کل دوره ادغام شده است) چه می شود؟ آیا می توانم از یک برآوردگر خاص (GMM یا غیره) برای تخمین این رگرسیون استفاده کنم؟ اگر من با استفاده از OLS پسرفت کنم، سوگیری در بتا تخمینی من چیست؟
چه می شود اگر بدانم سری های زمانی من در یک دوره طولانی با هم ادغام شده اند اما در یک دوره کوتاه نه؟
55305
با توجه به یک نمونه تصادفی $x_1,...,x_n$ از $f(x|\theta)=\frac{\theta}{(x+1)^{\theta+1}}$, $x\ge0$ چگونه یک کمیت محوری دقیق برای $\theta$ تولید کنیم؟
یک کمیت محوری دقیق برای تتا ایجاد می کند
87526
Cramer's V کار بسیار خوبی برای ثبت میزان ارتباط بین دو متغیر اسمی انجام می دهد. چه معیاری برای گرفتن ارتباط مشابه بین سه متغیر اسمی مناسب‌تر است؟
اندازه گیری سه طرفه ارتباط، متغیرهای اسمی
23935
برخی از روش های آماری - به یاد نمی آورم که تجزیه و تحلیل مؤلفه های اصلی است یا چیزی شبیه به آن - گاهی اوقات تحلیل داده های فرانسوی نامیده می شوند. دقیقا چیه؟ و برخی می گویند این نام کنایه آمیز است، آیا درست است و چرا؟
تجزیه و تحلیل داده های فرانسوی چیست؟
36303
> **تکراری احتمالی:** > چگونه می توان اهمیت آماری را برای متغیر طبقه ای در رگرسیون > خطی آزمایش کرد؟ همانطور که می‌دانیم می‌توانیم از مدل‌های خطی برای مجموعه داده‌های عددی استفاده کنیم (متغیرهای مستقل فقط عددی هستند)، اما وقتی مجموعه داده‌های عددی + دسته‌ای دارم، چه مدلی در اینجا قابل استفاده است (متغیرهای مستقل ترکیبی از عددی و طبقه‌ای هستند). به عنوان مثال من دو مجموعه داده دارم 1. مجموعه داده های عددی 2. مجموعه داده های عددی + مجموعه داده های طبقه بندی شده 1. مجموعه داده های عددی (پیش بینی قیمت خانه) متغیرهای مستقل x1 = تعداد اتاق خواب ها x2 = اندازه خانه در فوت مربع متغیر وابسته x3 = قیمت home here متغیر وابسته متغیر مستقل عددی است با مقادیر عددی 2. مجموعه داده عددی + مجموعه داده طبقه بندی (پیش بینی از بازدیدهای وب) متغیرهای مستقل x1 = زمان جستجو x2 = پرس و جو جستجو x3 = مرورگر x4 = متغیر وابسته به کشور x3 = بازدید از اینجا متغیر وابسته عددی است متغیر مستقل با ترکیب مقادیر عددی و مقوله ای است که در اینجا فرض می کنم که برای مجموعه داده 1 مدل خطی با lm () قابل اجرا است، اما برای مجموعه داده دوم امکان پذیر نیست. آیا کسی می تواند بهترین تکنیک را برای مجموعه داده 2 با مدل برای پیش بینی پیاده سازی کند؟
مدل رگرسیون با مقادیر مقوله ای
104028
من می خواهم از تابع glht() از بسته multcomp استفاده کنم. در آرگومان linfct، من توابع خطی خود را برای آزمایش ارائه می کنم. من تضادهایی را در آنجا ارائه می کنم، مانند (به عنوان مثال) `c(Group1 - Group2 = 0، Group1 - Group3 = 0) برای مقایسه گروه شماره 1 با گروه های دیگر. من می خواهم تست توکی را به این روش انجام دهم. دیدم می‌توانم (مثلاً) «mcp(Group='Tukey')» برای این کار انجام دهم، اما این همه مقایسه‌های زوجی را انجام می‌دهد و من فقط تضادهای خاص را می‌خواهم. چگونه می توانم آن را انجام دهم؟
R multcomp: تضادها برای توکی
93362
من در حال حاضر روی برازش مدلی کار می کنم که در آن سطح برخی نشانگرهای زیستی را به عنوان تابعی از زمان پیش بینی می کنیم (تصویر پایین را ببینید). من دو مشکل دارم: 1. هر فرد 2-3 نقطه داده را ارائه می دهد، زیرا آنها به طور مکرر قبل از تشخیص اندازه گیری می شوند (زمان = 0). 2. خطاها به طور معمول توزیع نمی شوند. 3. رشد بیومکر به صورت غیر خطی اتفاق می افتد در یک دنیای ایده آل، من دوست دارم یک مدل ترکیبی با توزیع گاما انجام دهم و یک عبارت مربعی برای محاسبه غیرخطی بودن بگنجانم. به عنوان مثال: best.model = glmer(biomarker~time + I(time^2) + (time + I(time^2)|ID), data=data, family=Gamma) این به من پارس می کند زیرا اینطور نیست df کافی داشته باشید (از آنجایی که هر فرد سه نقطه داده را ارائه می دهد، یک چند جمله ای به طور کامل با هر فرد متناسب می شود. به مدل فردی برازش کامل در مدل ترکیبی مراجعه کنید). بنابراین سعی می‌کنم عبارت چند جمله‌ای را حذف کنم: second.best.model = glmer(biomarker~time + (time|ID), data=data, family=Gamma. (). بین نقاط داده)، یا متناسب با یک مدل ترکیبی و باقیمانده‌های توزیع شده عادی. به عنوان یک نکته، من این را با poisson مدل می کردم و هیچ مشکلی نداشتم تا اینکه به جدیدترین نسخه lme4 آپدیت کردم. بنابراین، من فهرستی از سؤالات دارم: 1. آیا مدل سازی داده ها با توزیع گاما این واقعیت را که داده ها دارای نرخ رشد غیر ثابتی هستند، تثبیت می کند؟ (اگر این یک سوال احمقانه است، مرا ببخشید. مدل‌های ترکیبی تعمیم‌یافته نقطه قوت من نیستند!) 3. آیا من فکر می کنم چگونه باید این داده ها را تجزیه و تحلیل کنم، خیلی دور هستم؟ آیا پیشنهاد دیگری در مورد نحوه برخورد بهتر با آن وجود دارد؟ پیشاپیش برای کمک متشکرم! ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EFg7K.jpg)
برازش داده های غیر عادی در lme4 با توزیع خانواده
70937
این مفاهیم همیشه من را سردرگم کرده است. از نظر DOE، من فکر می کنم مشکل زمانی ایجاد می شود که طراحی نامتعادل باشد. بنابراین، * تفاوت آنها چیست؟ * چرا یکی را بر دیگری/دلایل انتخاب می کنید؟ * در ANOVA یک طرفه آیا استفاده از (می توانید؟) LS معنی دارد یا LS فقط برای آنووا دو طرفه و به بعد است؟ برای مثال: در یک مطالعه ساده، مثلاً اگر تفاوتی وجود دارد، من مقایسه می‌کنم. در ارتفاع بین M و F. من یک طراحی نامتعادل دارم، مثلاً M بیشتر از F دارم (نمونه مساوی را انتخاب کردم، اما مقداری ppl مرد و این همان چیزی است که باید استفاده کنم) آیا داشتن LS در این سناریو معنی خاصی دارد؟ یا LS در این مورد یعنی = وزن نشده؟ لطفاً کسی می تواند به روشی ساده و شهودی توضیح دهد؟
تفاوت بین معنی های Unweighted، Weighted و Least Squares چیست؟
51489
فرض کنید من آزمایشی با سه عامل درون موضوعی، A، B، و C دارم. داده ها به این شکل هستند. s a b c 1 1 1 1 1 1 1 2 1 1 2 1 1 1 2 2 1 2 1 1 1 2 1 2 1 2 2 1 1 2 2 2 به اندازه کافی ساده است. من 49 موضوع دارم. اکنون، برای انجام این ANOVA در R، از m1 <- aov(امتیاز ~ a*b*c + خطا(موضوع/(a*b*c))، داده) خلاصه (m1، نوع = 3) استفاده می‌کنم. (بریده شده) ... خطا: s:b:c Df Sum Sq Mean Sq F مقدار Pr(>F) b:c 1 4.608 4.608 8.121 0.00643 ** Residuals 48 27.236 0.567 که خوب به نظر می رسد و با اندازه گیری های مکرر SPSS GLM مطابقت دارد. همه چیز خوب است. ما همچنین می‌توانیم یک مدل ترکیبی در R با استفاده از `lme4` انجام دهیم و دقیقاً همان نتایج را بدست آوریم، و همچنین یک مدل ترکیبی انجام شده در JMP. m2 <- lmer(score~a*b*c + (a*b*c|s), data) library(car); Anova(m2, type=3, test.statisticF) ... (بریده شده) ... F Df Df.res Pr(>F) b:c 8.1206 1 48.000 0.006430 ** من می توانم همین کار را در SAS و نتایج مشابهی دریافت کنید. proc مخلوط داده=mixedexample متد=reml covtest; کلاس a b c s; امتیاز مدل = a|b|c; قطع تصادفی a|b|c/sub=s; اجرا؛ من می توانم ANOVA را با دست در Stata انجام دهم: anova score a / s|a /// b / s#b /// c / s#c /// a#b / s#a#b /// a #c / s#a#c /// b#c / s#b#c /// a#b#c من عبارت خطای تعامل کامل را کنار می‌گذارم، بنابراین باقیمانده است. اگرچه، به دلایلی، «df» اثر اصلی «a» دو برابر اندازه دیگر است. اما سوال من این نیست. سوال من این است: چگونه می توانم نسخه lmer و proc mixed LMM کامل را در Stata انجام دهم؟ نسخه ساده امتیاز xtmixed a##b##c || است s:, reml اما چگونه می‌توانم عبارت‌های خطای کاملاً متقاطع شده را به «xtmixed» به همان روشی که در «lmer» با افزودن «+ (a*b*c|s)» انجام می‌دهم، اضافه کنم؟ داده‌ها بدون مقادیر از دست رفته متعادل هستند، بنابراین LMM باید همان ANOVA با اندازه‌گیری‌های مکرر باشد، درست است؟ چرا نمی توانم این کار را در Stata انجام دهم؟ من به سختی اصول LMM ها را می دانم، اما این یک سوال Stata است. من فقط سعی می کنم تمام روش های مختلف اجرای این دو مدل را کشف کنم. همچنین، آیا کسی راه ساده تری برای انجام ANOVA تک متغیره در Stata بدون مشخص کردن هر عبارت خطا با دست می داند؟ حتی ممکن است این روش درست برای انجام این روش نباشد، اما چون من در هر جای دیگری خروجی یکسانی دریافت می کنم، چگونه می توانم Stata را وادار کنم که همان کاری را که lmer R، proc mixed SAS و JMP انجام دهد، انجام دهد؟
چگونه عبارات خطا را در Stata's xtmixed تلاقی کنم؟
23939
من مجموعه‌ای از پاسخ‌ها برای تعدادی سؤال با مقیاس لیکرت ۷ نقطه‌ای دارم که از خیلی بد تا خیلی خوب متغیر بودند. من برای هر سوال حدود 200 پاسخ دارم. > Q1 (نوع 1): خیلی بد، ...، ...، ...، ...، خیلی خوب > > Q2(نوع 2): ... > > Q3(نوع 1): > > Q4(نوع 1) : > > Q5(type2): > > Q6(type1): > > ... کاری که اکنون می خواهم انجام دهم این است که بررسی کنم کدام سوال نوع 1 با کدام سوال نوع 2 مطابقت دارد به گونه ای که بدانم سوالی از نوع 1 به اندازه یک سوال بد یا خوب است از نوع 2. من سعی می کنم بفهمم از کدام تست استفاده کنم اما گیر کردم. ممکن نیست که مجبور باشم پیش آزمون های زیادی را اجرا کنم، اما تحلیل واریانس نیز درست به نظر نمی رسد. من فرض می‌کنم که پاسخ‌های من در مقیاس فاصله‌ای هستند.
تست برای مطابقت با متغیرهای مختلف مقیاس لیکرت
84243
من این مدل رگرسیون خطی را ساخته‌ام: mtcars_lm <- lm(mpg ~ drat + hp, mtcars) با استفاده از بسته افکت‌ها، می‌توانم مقادیر «mpg» را برای هر مقدار «hp» بین 70 تا 150 پیش‌بینی کنم، به علاوه اطمینان حاصل کنم. فاصله زمانی برای هر مقدار «mpg»: library(effects) as.data.frame(effect(hp, mtcars_lm, xlevels = list(hp=seq(70, 150, 10)))) hp fit se bottom upper 1 70 24.06201 0.9066002 22.20781 25.91622 2 80 153423.54. 21.83530 25.25300 3 90 23.02628 0.7691351 21.45322 24.59934 4 100 22.50841 0.7087300 21.0587300 21.05851350 21.05851350 21.05851351. 0.6559716 20.64894 23.33216 6 120 21.47268 0.6128381 20.21929 22.72608 7 130 20.95481 0.581472753 0.581472753 140 20.43695 0.5638509 19.28374 21.59015 9 150 19.91908 0.5612604 18.77118 21.06699 و من می توانم نتیجه را ترسیم کنم: plot_,(mtvel,mtvel,xxxxx) list(hp=seq(70, 150, 10)))) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KEmDi.jpg) سوال من این است: ریاضیات پشت محاسبه چیست خطای استاندارد و فاصله اطمینان برای هر مقدار mpg؟
فواصل اطمینان برای مقادیر پیش بینی شده در رگرسیون خطی
87522
سال‌هایی که در المپیک مدال طلا گرفتم 1. 1990/1991 2. 1995/1996 3. 1998/1999 می‌دانم که داده‌های کمی را می‌توان در مقیاس عددی استفاده کرد. شاید، این می تواند. همچنین من معتقدم که این یک داده نسبت است زیرا می تواند یک صفر طبیعی داشته باشد. درست میگم؟
سطح اندازه گیری برای سالها چقدر است؟
100907
یک بردار $X_i$ با $i \in [1,N]$ را در نظر بگیرید. بگذارید بگوییم که شما بردار را به دو $X_{i}'$ با $i \in [1,j]$ و $X_i''$ با $i \in [j+1, N]$ برای چند $ تقسیم می‌کنید. j$; سپس برای هر جفت بردار فرعی مرتبط با این $j$، آزمونی را اعمال می‌کنید که یک مقدار p ارائه می‌کند (مانند آزمون t-test دانشجویی یا آزمون Kolmogorov-Smirnov). همانطور که شاخص جداسازی $j$ خود را به طور سیستماتیک تغییر می دهید و آزمایش را تکرار می کنید، مجموعه داده هایی را با هم مقایسه می کنید که به شدت همپوشانی دارند. آیا راهی وجود دارد که بتوان به راحتی تعداد تست های مستقل را طبق اصلاحات سیداک یا بونفرونی محاسبه کرد تا بتوان یکی از آنها را اعمال کرد؟ می توان فرض کرد که شاخص $j$ مجموعه ای متوالی از شاخص های $j \in [lim_1, lim_2]$ را پوشش می دهد. خیلی ممنون.
تصحیح آزمون فرضیه های چندگانه بر روی داده های غیر مستقل