_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
92501 | من با تکنیک تجزیه موجک جدید هستم و سعی می کنم از آن با مدل سری زمانی استفاده کنم. چیزی که من اکنون استفاده می کنم این است که 1. از تبدیل موجک گسسته استفاده کنید. من از Daubechies با 4 به عنوان موجک مادر با 3 سطح (4 موج به دست آمده) استفاده می کنم. 2. آن موجک ها را بازسازی کنید و سپس از مدل سری زمانی به عنوان مثال، ARIMA روی امواج 4 استفاده کنید. سوال من این است 1. آیا باید هر بار قبل از پیش بینی موجک ها را بازسازی کنیم؟ 2. از ضریب برای چه چیزی استفاده کنیم؟ | موجک ها با مدل پیش بینی |
99427 | من به دنبال یک کتاب یا مجموعهای از نمونههایی هستم که در آن از یادگیری ماشین برای تشخیص عیب استفاده میشود. پیشنهادی دارید؟ | منابعی برای یادگیری ماشینی که برای تشخیص عیب استفاده می شود |
92147 | من سعی میکنم رگرسیون Ridge را در Matlab اجرا کنم (`ridge`): $L$ یک ماتریس است، $x$ یک بردار تصادفی و $y=Lx+\alpha n$ یک بردار دیگر است. من انتظار دارم $\mbox{ridge}(y,L,\alpha) $ همان نتیجه را برگرداند: $(LL^T +\alpha^2 I)^{-1}L^T y$، اما دومی به طور قابل توجهی بهتر است. من نمی توانم مشکل را درک کنم زیرا فکر می کنم این دقیقاً همان کاری است که «ridge()» انجام می دهد. من حتی با $\alpha=1$ امتحان کردم. قدردان هر کمکی باشید | رگرسیون ریج در Matlab نتایج متفاوتی نسبت به محاسبه مستقیم ایجاد می کند |
26614 | با ادامه این سوال و این سوال مربوط به BIC و تقریب آن با عامل بیز با اطلاعات واحد قبلی (Kass & Wasserman, 1995)، من سعی می کنم این رابطه را به عنوان یک پله در آمار بیزی محاسبه کنم. تا کنون، محاسبه من از تقریب BIC فاکتور بیز (بر اساس برداشت من از Wagenmakers 2007) به طور خطی با ضریب Bayes من مرتبط است که از تفسیر من از اطلاعات واحد قبل از استفاده از بسته INLA در R محاسبه می شود. شروع خوب! با این حال، ضریب BIC Bayes من ~ 3 برابر کوچکتر از ضریب Bayes محاسبه شده با INLA است و من مطمئن نیستم که چرا. قبلی که من در تابع **inla** استفاده کرده ام N(0, 1/(واریانس * n)) است و به نظر من این مکان محتملی است که من بیرون هستم. من مطمئن نیستم که چگونه ضرب در n را در فرمول به دست آوردم، اما به نظر می رسد که کار می کند ... تقریبا. Kass و Wasserman N(0، واریانس / n) دارند که وقتی به دقت تبدیل می شود، N(0، n / واریانس می شود)، اما این رابطه کمتر خوبی به من می دهد. کمک بر اساس سایر بسته های بیزی نیز پذیرفته می شود. _EDIT_ *کد حذف شده، به جای پاسخ زیر را ببینید* _EDIT_ بنابراین من کاملا مطمئن هستم که یک مورد نمونه را کشف کرده ام. من همچنان از کمک برای دو مورد نمونه و مورد رگرسیون (که اکنون کار روی آن را شروع می کنم) سپاسگزارم. | نحوه تعیین اطلاعات واحد قبل |
34506 | در یک مدل رگرسیون سری زمانی که من روی آن کار میکنم، مداخله ما فقط چند ماه پس از یک رویداد خارجی تأثیرگذار بزرگ اتفاق افتاد. بنابراین، مدل سری تماموقت، رویداد خارجی را دستکم میگیرد، اما وزن بیشتری بر اثر مداخله ما میگذارد. با این حال، می دانیم که این از نظر سایر تحقیقات و کارشناسان حوزه کاملاً صحیح نیست. بنابراین راه حل فعلی این است که یک اثر تخمینی به رویداد خارجی مرتبط با یک توزیع داده شود، مثلاً توزیع عادی. پس از شبیه سازی برای $N$ بار، این عدد شبیه سازی شده را به عنوان یک مقدار ثابت به مدل متصل می کنیم، بقیه ضرایب همچنان از نرم افزار R تخمین زده می شوند (با استفاده از تابع arima). بنابراین آنها به مدلهای $N$ یا کمتر منجر میشوند. بر اساس این رویکرد، توزیع برخی از ضرایب به طور معمول توزیع نمی شود. سوال من این است: 1. آیا باز هم باید مدل را بر اساس معیارهای انتخاب مدل انتخاب کنم یا هر ضریب را به صورت توزیع خلاصه کنم؟ 2. پارامتری وجود دارد که در اصل از نظر آماری معنادار نیست، اما دارای علامت مورد انتظار است. من آن را به عنوان یک مزاحم نگه داشتم زیرا می تواند تخمین پارامتر مداخله را 10٪ تغییر دهد. اگر ضرایب را به صورت توزیع خلاصه کنیم، انحراف معیار این توزیع بسیار کمتر از خطای استاندارد ضریب در مدل کامل است. و محدوده اطمینان 95 درصد نیز حاوی صفر نیست. بنابراین چگونه باید با آن برای هدف گزارش گیری رفتار کنم، که به سوال 1 برمی گردد، چگونه باید مدل های ناشی از این روش را خلاصه کنم؟ اگر کسی بتواند پیشنهادی ارائه دهد واقعاً قدردانی خواهد شد. | ضرایب رگرسیون سری زمانی را پس از دادن عدد ثابت به 1 ضریب (از یک توزیع) خلاصه کنید. |
92500 | من پیش زمینه ای از علوم کامپیوتر ندارم، اما رشته ام ریاضی است. من به ماشین های بردار پشتیبانی علاقه مند هستم. من تئوری و چند مثال عملی را مرور کردم. مشکل من این است که همه مفاهیم مانند جداسازی هایپرپلن ها، هسته ها و اهمیت پارامترهای C و گاما را درک کردم. اما آنچه می خواهم بدانم این است که اگر این الگوریتم Support Vector Machines را در نرم افزار پیاده سازی کنیم، پس نرم افزار چه خروجی هایی به ما می دهد و چگونه آن خروجی ها را پیاده سازی می کنیم؟ نکات مهمی که باید یادداشت کنیم چیست؟ | پیاده سازی نرم افزار ماشین های بردار پشتیبان |
26619 | سوال من ایجاد یک شاخص برای اندازه گیری توانایی پیش بینی درآمد یک مدیر است. من از دقت پیشبینی سود (تفاوت دلار) و افق پیشبینی سود (تفاوت روزها) برای ثبت توانایی استفاده میکنم. با این حال، این دو متغیر بر یکدیگر شرط میگذارند. چگونه باید آنها را وزن کنم و شاخص ایجاد کنم؟ تفاوت دلار کمتر و افق طولانی تر، توانایی پیش بینی بالاتر را نشان می دهد. | چگونه از متغیرهای همبسته شاخص ایجاد کنیم؟ |
25880 | من 16 آرایه 1 بعدی با تقریباً 10-11 میلیون عنصر با دقت مضاعف دارم. من باید یک همبستگی متقابل بین آنها اجرا کنم، به عنوان مثال، 1 با 2، 1 با 3، ...، 1 با 16، 2 با 3، 2 با 4، ...، 2 با 16، و غیره. این کار را نمی توان به طور موثر در MacBook Intel Core 2 duo 2.4 GHz من با 4 گیگابایت رم انجام داد. سوال من این است که اگر نگوییم brute force (پردازنده سریعتر، رم بیشتر) روش معمولی که مردم برای غلبه بر این مشکل یا مشکلاتی مانند آن استفاده می کنند چیست؟ من این سوال را چند دقیقه پیش در Stack Overflow پرسیدم، اما متوجه شدم که ممکن است افراد بیشتری در اینجا باشند که با این مشکل خاص برخورد کرده باشند. | همبستگی متقابل آرایه های عظیم |
79503 | من اخیراً با یک برگه اکسل قدیمی مواجه شده ام که برای کمک به ارزیابی اینکه آیا فردی نمونه های کافی را هنگام انجام یک مطالعه زمان جمع آوری کرده است یا خیر (که اساساً تلاش می کند تا توزیع زمان مورد نیاز برای تکمیل یک کار را بفهمد) استفاده می شود. در ستون داده ها (با برچسب زمان)، فردی که مطالعه زمان را انجام می دهد، مدت زمانی را که برای تکمیل یک کار طول کشیده است، وارد می کند، که هر ردیف نشان دهنده یک آزمایش است. برگه حاوی فرمول زیر با برچسب درصد خطای فعلی است: \begin{equation}\frac{t \sigma}{\mu \sqrt{n-1}}\end{equation} که در آن $t$ یک t- است. امتیازی که بر اساس حجم نمونه متفاوت است، $\mu$ میانگین نمونه و $\sigma$ انحراف استاندارد نمونه است. سوال من این است **این چه الگوریتمی است**؟ من می دانم که می توانیم فواصل اطمینان را با استفاده از معادله مشابه $\mu \pm \frac{t \sigma}{\sqrt{n-1}}$ اندازه گیری کنیم، اما مطمئن نیستم که با تقسیم بر میانگین چه چیزی محاسبه می شود. . این به چه چیزی مربوط می شود؟  | کمک به شناسایی یک تابع خطا |
24284 | من از یک مدل چندسطحی با جلوه ترکیبی برای طرح متقاطع در R استفاده میکنم. از نظر طراحی، یکی از شرایط من نصف تعداد مشاهدات را نسبت به شرط دیگر دارد (در اینجا در مورد مقادیر از دست رفته صحبت نمیکنم). مقایسه این دو مورد جالب توجه است. سؤالات اینجاست: * آیا باید تضادها را با در نظر گرفتن تعداد مشاهدات متفاوت ارزیابی کنم؟ * اگر بله، آیا باید وزن بیشتری به شرایط با تعداد مشاهدات بیشتر داده شود زیرا تأثیر بیشتری بر داده ها دارد یا باید برعکس عمل کنم تا تأثیر تعداد مشاهدات متعادل شود؟ ممنون، بانی | برای طراحی های نامتعادل، کنتراست وزنی متفاوت است |
67793 | من علاقه مند به مدل سازی فعالیت های انسانی با استفاده از داده های حسگر با HMM هستم و می خواهم دانش قبلی را در طول استنتاج ترکیب کنم. روال عادی مدل سازی K فعالیت های مختلف با K HMM مجزا است. برای آزمایش یک دنباله ناشناخته، احتمال آن را از هر یک از HMM ها محاسبه کنید و HMM با حداکثر مقدار به عنوان برچسب کلاس اختصاص داده می شود. این همه با این فرض انجام می شود که اولویت های HMM یکنواخت هستند. وقتی یکی از کلاسها نادر یا غیرمعمول باشد و احتمال قبلی آن در مقایسه با کلاسهای دیگر بسیار کم باشد، ممکن است مشکل ایجاد شود و بنابراین پیشفرضهای یکنواخت ممکن است فرض خوبی نباشد. بنابراین، من علاقه مند به احتمال پسین هستم و نه فقط احتمال گرفتن اثر ترکیبی. مشاهدات من پیوسته هستند (ویژگی های استخراج شده از حسگر) و مقادیر گسسته نیستند. سؤالات من عبارتند از: 1. آیا می توان استنباط را با استفاده از رویکرد نوع شبکه بیزی انجام داد که شامل ضرب قبلی با احتمال باشد؟ 2. در مورد من، تعداد فعالیتهای موجود در هر HMM، قبل خواهد بود. آیا می توان قبل از جلوگیری از مشکل شمارش صفر برای کلاس نادر، آن را با استفاده از دیریکله تخمین زد (با فرض اینکه من یک HMM را برای یک کلاس نادر تقریبی کنم). آیا این منطقی است؟ 3. داده های مشاهده چند متغیره با استفاده از گاوسی منفرد (و نه مخلوط) تقریبی می شود، در این صورت احتمال گاوسی خواهد بود؟، آیا می توان آن را با دیریکله قبل از محاسبه احتمال خلفی مخلوط کرد؟ یا این احتمال هنوز چند جمله ای است زیرا K نتایج متفاوت از K HMM های مختلف را نشان می دهد؟ با عرض پوزش اگر با برخی از مفاهیم اولیه مخلوط شده ام، من تازه کار هستم و برای حرکت بیشتر راهنمایی می خواهم. | چگونه از احتمال قبلی در استنباط از HMM برای تشخیص فعالیت استفاده کنیم؟ |
29286 | من دارم این کتاب رو میخونم در اینجا او روشی برای محاسبه میانگین به من می دهد:  در اینجا روش جدیدی را برای محاسبه میانگین از طریق هیستوگرام معرفی می کند: ! [توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/vSuRl.gif) او می گوید که اکنون نمونه ها را می شماریم و ایندکس می کنیم هیستوگرام، این لیست: > {7، 8، 0، 9، 2، 10، 4، 1، 6، 0، 8، 7، 6، 0، 0} شمارش می شود و به این نتیجه می رسد: > { {7، 2}، {8، 2}، {0، 4}، {9، 1}، {2، 1}، {10، 1}، {4، 1}، {1، 1}، {6، 2}} یعنی دو عدد 7 در لیست، دو عدد 8 در لیست و غیره وجود دارد. سپس میانگین این لیست را محاسبه کردم: > {4، 1، 1، 0، 1، 0، 2، 2، 2، 1، 1} که تقریباً به عنوان نسخه مرتب شده آخرین لیست است، چهار 0، یک 1 و غیره مشکل این است که میانگین لیست اول با دومی متفاوت است، در حالی که میانگین لیست اول 4.53333 است، لیست دوم 1.36364، آیا این ابزارها باید یکسان باشند؟ | آیا معنی نمونه ها و میانگین هیستوگرام باید یکسان باشد؟ |
23091 | > **موضوع تکراری:** > مراحلی برای تعیین توزیع پسین در زمانی که ممکن است به اندازه کافی ساده باشد > داشتن یک فرم تحلیلی؟ باید اعتراف کنم که این یک سوال شرم آور است. من برنامهنویسی زیادی برای کارهای آماری انجام میدهم، اما به ندرت با فرمولهای تحلیلی برای چیزها سروکار دارم (معمولاً همه فقط بر اساس الگوریتمهایی برای پردازش دادهها هستند). در این مورد، من سعی می کنم یک تخمین بیزی از برخی ضرایب را برای یک خودرگرسیون، با 11 نمونه داده محاسبه کنم: $$ Y_{i} = \mu + \alpha\cdot{}Y_{i-1} + \epsilon_{ i} $$ که $\epsilon_{i}$ گاوسی است با میانگین 0 و واریانس $\sigma_{e}^{2}$ توزیع قبلی در بردار $(\mu, \alpha)^{t}$ گاوسی با میانگین $(0,0)$ و یک ماتریس کوواریانس مورب با ورودی های قطری برابر با $\sigma_{p}^{2}$ است. بر اساس فرمول رگرسیون خودکار، این بدان معناست که توزیع نقاط داده ($Y_{i}$) با میانگین $\mu + \alpha\cdot{}Y_{i-1}$ و واریانس $\sigma_ نرمال است. {e}^{2}$. بنابراین، چگالی همه نقاط داده $(Y)$ به طور مشترک (با فرض استقلال، که برای برنامه ای که من می نویسم خوب است)، این خواهد بود: $$ p(Y \quad | (\mu, \alpha)^ {t}) = \prod_{i=2}^{11}\frac{1}{\sqrt{2\pi\sigma_{e}^{2}}}\exp{\frac{-(Y_{i} - \mu - \alpha\cdot{}Y_{i-1})^{2}}{2\sigma_{e}^{2}}}.$$ با قضیه بیز، میتوانیم حاصل ضرب مورد بالا را بگیریم چگالی با چگالی قبلی، و سپس ما فقط به ثابت نرمال کننده نیاز داریم. تصور من این است که این باید یک توزیع گاوسی باشد، بنابراین ما میتوانیم نگران ثابت عادیسازی در انتها باشیم نه اینکه صریحاً آن را با انتگرالهای بیش از $\mu$ و $\alpha$ محاسبه کنیم. این قسمتی است که من با آن مشکل دارم. چگونه ضرب چگالی قبلی (که چند متغیره است) و این حاصل ضرب چگالی داده های تک متغیره را محاسبه کنم؟ قسمت عقبی باید صرفاً دارای چگالی $\mu$ و $\alpha$ باشد، اما من نمیتوانم ببینم چگونه میتوان آن را از چنین محصولی بدست آورد. هر نشانگر واقعاً مفید است، حتی اگر شما فقط به من در جهت درست اشاره کنید و سپس من باید بروم و جبر آشفته را انجام دهم (که قبلاً چندین بار تلاش کرده ام). به عنوان نقطه شروع، در اینجا شکل صورت حساب از قانون بیز است: $$ \frac{1}{(2\pi\sigma_{e}^{2})^{5}\cdot{}2\pi \sigma_{p}^{2}} \exp{\biggl [ \frac{1}{2\sigma_{e}^{2}}\sum_{i=2}^{11}(Y_{i} - \mu - \alpha\cdot{}Y_{i-1}) ^{2} - \frac{\mu^{2}}{2\sigma_{p}^{2}} - \frac{\alpha^{2}}{2\sigma_{p}^{2}} \biggr ] }.$$ مسئله این است که چگونه میتوان دید که به چگالی گاوسی $(\mu, \alpha)^{t}$ کاهش مییابد. | مراحلی برای تعیین توزیع پسین در زمانی که ممکن است به اندازه کافی ساده باشد تا یک فرم تحلیلی داشته باشیم؟ |
34500 | من روی یک برنامه تشخیص ویژگی تصویر آنلاین (هیستوگرام های BOW) کار می کنم که اشیاء را در یک دوربین زنده دریافت می کند و ویژگی های SIFT را استخراج می کند. بعد از گرفتن یک دسته عکس، kmeans دسته را دریافت می کنم و یک خوشه جهانی ایجاد می کنم. در مرحله بعد، من این مرحله را تماماً تکرار میکنم و عکسهای بیشتری میگیرم تا یک دسته جداگانه جدید از خوشهها ایجاد کنم. اگرچه در حالت ایدهآل، من میخواهم تعداد خوشههایی را که دارم محدود کنم و همه تصاویر را بهطور همزمان خوشهبندی کنم، اما این غیرممکن است زیرا تعداد نامحدودی از دادههای جدید وارد میشوند. من کاملاً مطمئن نیستم که چگونه به این موضوع نزدیک شوم. نحوه کار کد من در حال حاضر به این صورت است: > 1.تصویر از فید ویدیوی زنده گرفته می شود، پس از ذخیره تصاویر کافی، > کیلومتری از ویژگی های غربال کردن را دریافت کنید. (200 خوشه دریافت کنید) > > 2. مرحله 1 را تکرار کنید، یک دسته جدید از تصاویر فید زنده، دوباره kmeans را دریافت کنید. > بردارهای kmeans را با kmeans های قبلی ترکیب کنید، مانند:[A B]، (مجموع 400 > خوشه) می بینید که این بد است، زیرا من به سرعت خوشه های زیادی دریافت می کنم و هر دسته از خوشه ها قطعاً با دسته دیگری همپوشانی دارند. آنچه من می خواهم: > 1. تصویر گرفته شده از فید ویدیوی زنده، پس از ذخیره شدن عکس ها، kmeans (200 > خوشه ها) را دریافت کنید > > 2. مرحله 1 را تکرار کنید، دوباره kmeans را دریافت کنید، که خوشه های قبلی را به روز می کند. > (هنوز 200 خوشه، اما برخی از خوشه ها به روز شده یا تغییر کرده اند) هیچ چیزی که من دیده ام نمی تواند چنین باشد، مگر اینکه آنها را به درستی درک نکرده باشم. بسیاری از پیادهسازیها، مانند جریان داده، ظاهراً فقط به شما اجازه میدهند که خوشه را در یک مرحله بسازید. پس از پخش همه داده ها، به روز رسانی خوشه موجود چندان آسان به نظر نمی رسد. من فرض می کنم که این باید امکان پذیر باشد، اما به نظر می رسد هیچ کدام از کدهایی که پیدا کردم از آن نسخه پشتیبان تهیه نمی کند. من از هر گونه کمکی برای پاکسازی این موضوع سپاسگزارم. با تشکر | برای روشن کردن روش من با استفاده از kmeans در چندین دسته از داده ها به کمک نیاز دارید |
72266 | من پستهای زیر را خواندم که به سوالی که میخواستم بپرسم پاسخ داد: از مدل جنگل تصادفی برای پیشبینی از دادههای حسگر استفاده کنید. درخت تصمیم برای پیشبینی خروجی در اینجا کاری است که من تاکنون انجام دادهام: من رگرسیون لجستیک را با جنگلهای تصادفی مقایسه کردم و RF از لجستیک بهتر عمل کرد. اکنون محققان پزشکی که با آنها کار می کنم می خواهند نتایج RF من را به یک ابزار تشخیص پزشکی تبدیل کنند. به عنوان مثال: اگر یک مرد آسیایی بین 25 تا 35 سال هستید، ویتامین D کمتر از xx و فشار خون بالاتر از xx دارید، 76٪ احتمال ابتلا به بیماری xxx دارید. با این حال، RF خود را به معادلات ریاضی ساده نمیدهد (به پیوندهای بالا مراجعه کنید). بنابراین سوال من اینجاست: همه شما چه ایده هایی برای استفاده از RF برای توسعه یک ابزار تشخیصی (بدون نیاز به صادرات صدها درخت) دارید. در اینجا چند ایده وجود دارد: 1. از RF برای انتخاب متغیر استفاده کنید، سپس از Logistic (با استفاده از تمام تعاملات ممکن) برای ایجاد معادله تشخیصی استفاده کنید. 2. به نحوی جنگل RF را در یک مگا درخت جمع آوری کنید، که به نحوی میانگین تقسیم گره را در بین درختان محاسبه می کند. 3. مانند #2 و #1، از RF برای انتخاب متغیرها استفاده کنید (مثلا m متغیر کل)، سپس صدها درخت طبقه بندی بسازید که همه آنها از هر متغیر m استفاده می کنند، سپس بهترین درخت را انتخاب کنید. هر ایده دیگری؟ همچنین، انجام شماره 1 آسان است، اما آیا ایده ای در مورد نحوه اجرای شماره 2 و 3 دارید؟ | ایده هایی برای خروجی یک معادله پیش بینی برای جنگل های تصادفی |
66228 | بگویید من دنباله ای از طول $ n $ $ $ $ عناصر مختلف ، S.T. $n > k، k > 2$. من می خواهم نشان دهم که این دنباله بر اساس تعداد اجراها تصادفی است. من این مقاله را توسط AM Mood پیدا کردم که توضیح میدهد چگونه مقادیر و واریانسهای مورد انتظار تعداد اجراهای هر نوع را بیابم، اما مطمئن نیستم چگونه نشان دهم که یک دنباله از این دادهها تصادفی است. من به طور کلی در آزمایش فرضیه و آمار جدید هستم ، بنابراین از هر کمکی قدردانی می شود. | تست تصادفی بودن k عناصر را اجرا می کند |
67790 | من با یک طرح فاکتوریل تکرار نشده سر و کار دارم. من چند نمونه گویا دارم اما باید چند طرح فاکتوریل تکرار نشده را شبیه سازی کنم. من نمی دانم چگونه و از چه چیزی استفاده کنم. آیا $R$ می تواند این را مدیریت کند؟ برای مثال، من میخواهم یک طرح فاکتوریل $2^{4}$ (عوامل A، B، C و D) را تنها با یک اجرا و 15 کنتراست تجزیه و تحلیل کنم. من یک ستون برای پاسخ دارم. من می خواهم برخی از روش ها را در ادبیات مقایسه کنم تا ببینم کدام روش اثرات فعال را بهتر تشخیص می دهد. بنابراین، من افکتهای فعال را به اندازه 1.5$\sigma$ تنظیم کردم و میخواهم بردارهای پاسخ 100$ را با استفاده از خطاهایی که i.i.d هستند ایجاد کنم. با $\mathcal N(0,1)$. مدل واقعی من چهار افکت فعال دارد و من میخواهم بردارهای پاسخ 100$ را با استفاده از این مدل واقعی $y=3+1.5A+1.5B+1.5C+1.5BC$ شبیهسازی کنم. اما من نمی دانم چگونه با استفاده از R. داده هایی مانند این تولید کنم * * * با تشکر تفنگ برای پاسخ شما من فقط قبل از اینکه جواب شما را اینجا ببینم یک کد ساده نوشتم. فکر میکنم، باید دانش R را کمی بیشتر کنم. به هر حال، اینجاست: برای تجزیه و تحلیل طرحهای فاکتوریل تکرار نشده با فاکتورهای $k$ و اثرات فاکتوریل $p=2^{k}-1$ (اثرات و تعاملات اصلی)، مدل زیر به طور کلی از معادله \begin استفاده میشود. } y=\sum\limits_{i=0}^{p}x_{i}\beta_{i}+\varepsilon_{i} \end{equation} بنابراین، ابتدا من جدول علامت خود را برای ضرایب $2^{4}$ و $\beta$ از به اصطلاح افکتهای فعال معرفی کردم. جدول علامت شامل ردیف (اجرا) و ستون (تضاد با میانگین کلی) است.  و سپس، معادله رگرسیون خود را با بزرگی اثرات فعال و صفر اثرات غیرفعال باقی مانده ایجاد کردم. برای مثال مدل شبیه سازی شده من $y=3+1.5A+1.5B+1.5C+1.5BC$ بود.  و سپس، کد زیر x=read.csv(sign2.txt, header=TRUE) sign= را اجرا می کنم as.matrix(x) is.matrix(sign) y=read.csv(beta2.txt, header=TRUE) beta= as.matrix(y) is.matrix(بتا) signt=t(sign) bs=t(بت %*% signt) epsilon=matrix( rnorm(16*1,mean=0,sd=1), 16,1) response=bs+epsilon با این حال، متأسفانه، برای یک شبیه سازی است. من یک فرمان حلقه برای اجرای شبیه سازی n-time قرار می دهم. | چگونه یک طرح فاکتوریل تکرار نشده را شبیه سازی کنیم؟ |
24751 | من قصد دارم جعبه ابزار مدل پنهان مارکوف کوین مورفی (HMM) را اعمال کنم. من مجموعه ای از قوانین تولید دارم (خودسرانه) $A_0 \to AB [p=1]$, $A\to aC [p=1]$, $B\to bbC [p=0.5]$, $B\to b [p=0.5]$ که در آن $A_0$ نماد شروع است، A، B، C غیر پایانهها، و a و b پایانهها هستند و احتمالات در پرانتز قرار میگیرند. مشاهده {aabc} است. من نمی دانم چگونه از الگوریتم تجزیه Viterbi استفاده کنم و نمی توانم بفهمم که تمام مقادیر پارامترها در جعبه ابزار از چه مقادیری استفاده کنم. آیا کسی می تواند با یک مثال ساده نحوه استفاده از برنامه را برای انتخاب یک تجزیه حداکثر احتمال و نحوه آموزش توضیح دهد؟ هدف طبقه بندی یک زبان یا یک رشته متن است. هر مثال دیگری غیر از زبان نیز کمک خواهد کرد. سوال اصلی این است که چگونه تمام این داده ها را در جعبه ابزار تغذیه کنیم تا HMM را آموزش دهیم و چگونه از آن برای کار استفاده کنیم زیرا همه چیز در آن از تابع rand استفاده می کند، چگونه آن را سفارشی کنم؟ 1. تعداد حالت ها Q=4 ? ($A_0$, A, B, C) 2. تعداد نمادهای مشاهده با طول T=4; تعداد دنباله ها = 1؟ | مشکل در درک مدل مارکوف پنهان برای تجزیه نحو با استفاده از الگوریتم ویتربی |
24280 | من یک مجموعه داده بسیار بزرگ دارم که در آن اندازهگیریها را در طول زمان برای مکانهای جداگانه انجام دادهام. برخی از مکانها ممکن است 10 نقطه داده و برخی مکانها فقط 1 نقطه داده داشته باشند. من یک مدل ترکیبی را انتخاب می کنم و از مکان ها به عنوان جلوه های تصادفی استفاده می کنم. سوال من این است که آیا هنوز هم می توانم از مکانی استفاده کنم که فقط 1 نقطه داده دارد (چون نمی توان فقط با 1 داده خط رگرسیون ایجاد کرد) یا باید آن مکان ها را حذف کنم؟ | آیا می توانم یک مدل ترکیبی را با موضوعاتی که فقط 1 مشاهده دارند جا بدهم؟ |
110995 | من سعی می کنم برای داده هایی که در مورد دانلود برنامه ها دارم، رشد را مدل کنم. من می خواهم یک بیانیه بگویم، اگر شما به X مقدار دانلود در زمان T نرسید، شانس شما برای رسیدن به 15 میلیون کاربر تا 75٪ کاهش می یابد آیا نوعی تجزیه و تحلیل وجود دارد که بتوانیم برای قطع ها انجام دهیم؟ با تشکر | چه نوع تحلیلی به شما این جمله را می دهد که اگر در زمان T به مقدار X نرسید، شانس شما با درصد P کاهش می یابد؟ |
26613 | من می خواهم داده های یک آزمایش را تجزیه و تحلیل کنم. شرکت کنندگان سیگنال های صوتی مختلفی دریافت می کنند و آنها را قضاوت می کنند. امتیاز یک عدد بالا است، اگر آنها با سیگنال احساس راحتی کنند در حالت دیگر عدد کمتری است. من 5 سیگنال مختلف و 15 شرکت کننده دارم. آزمایش 5 بار برای هر موضوع انجام شد، بنابراین من 65 مقدار دریافت کردم. من می خواهم از مدل ترکیبی استفاده کنم. من نتایج متفاوتی از SPSS و SAS دریافت می کنم و نمی توانم خطا را پیدا کنم. ممکن است من از PROC MIXED اشتباه استفاده کرده باشم. proc مخلوط داده=ein1; کلاس سیگنال ProNr; مدل se = سیگنال; تصادفی ProNr; تکراری /subject=ProNr; اجرا؛ ترک کردن نتیجه این است: تخمین پارامتر کوواریانس مخلوط Die Prozedur Kov.Parm Subjekt Schätzwert ProNr 0 ProNr باقیمانده 112855 Anpassungsstatistiken -2 Res Log-Likelihood 881.1 AIC (kleiner ist besser) 883.18AI (kleiner ist besser) 883.7 نوع 3 Tests der festen Effekte Zähler Nenner Effekt Freiheitsgrade Freiheitsgrade F-Statistik Pr > F سیگنال 4 48 1.00 0.4169 آیا پارامترهای درستی را انتخاب کردم؟ من فکر می کنم که نتیجه می گوید که سیگنال مهم نیست (0.4169 > 0.05). آیا این تفسیر درستی از نتایج است؟ من در SPSS از anova با اندازه گیری های مکرر استفاده کردم. SPSS نتایج را تصحیح کرد و نتیجه با تصحیح آبفشان گلخانه ای 013/0 است. چرا این نتایج اینقدر متفاوت است؟ **EDIT1:** داده ها به این صورت به نظر می رسند: سیگنال Pro_Nr 3.4799 1 1 3.3682 2 1 4.3217 3 1 2.9976 4 1 5.5861 5 1 6.7242 6 1 2.6318 1. 3 1 1 6.7242. از 1 تا 15، هر موضوع یک شماره ویژه دریافت می کند. سیگنال شامل اعداد از 1 تا 5 است. هر سیگنال شماره خود را می گیرد. **Edit2:** Proc glm روش مناسبی برای تجزیه و تحلیل این داده ها نیست، زیرا هیچ متغیر گروهی قابل تعریف نیست. برای این مشکل باید از proc mixed استفاده کنم. **ویرایش3:** آیا می توان نتایج مدل آنووا و ترکیبی را با هم مقایسه کرد؟ آیا با هر دو آنالیز نتایج یکسانی گرفتم؟ کد جدید: PROC MIXED DATA=ein1; CLASS Frequ ProNr; MODEL se = Frequ; REPEATED / موضوع=ProNr type=cs; اجرا؛ ترک؛ آیا من مدل (و بنابراین کد برنامه) را درست فرموله کردم تا به این سؤال پاسخ دهم که میزان گندم بستگی به فرکانس (تحت تأثیر تصادفی و مکرر سوژه ها) دارد؟ آیا ادبیات مورد علاقه ای برای مدل های ترکیبی دارید؟ | مدل مختلط در SAS |
109365 | من یک متغیر با 150 مشاهده دارم و غیر عادی است. آیا CLT در این زمینه مفید نخواهد بود. واقعا n بزرگ در CLT به چه معناست؟ | تقریب توزیع نرمال با استفاده از قضیه حد مرکزی |
92502 | من در حال ساخت مدلی هستم که احتمال وجود یک بیماری عفونی را در 10000 روستا پیش بینی می کند. بعد فضایی وجود دارد - هر روستا توسط به عنوان مثال احاطه شده است. 8 روستای دیگر و وجود بیماری در روستای مجاور احتمال بیماری را در روستای مورد نظر افزایش داد. من یک ویژگی ایجاد کردم که تعداد موارد در 8 روستای مجاور را جمع آوری می کند. با این حال - در ابتدا - من این مقدار را در کل مجموعه داده ایجاد کردم. با توجه به به عنوان مثال اعتبارسنجی متقاطع 10 برابری - آیا این اشتباه است؟ آیا من اطلاعاتی را از خارج وارد می کنم و در نتیجه عملکرد را سوگیری می کنم؟ آیا باید ایجاد ویژگی را در هر فولد اجرا کنم، حتی آنهایی که برخی از دهکدههای مجاور خارج از فولد هستند؟ (همچنین - از نظر محاسباتی این ممکن است بسیار سنگین شود...) از افکار استقبال می شود - بسیار قدردانی می شود | اعتبار سنجی متقاطع - اطلاعات ویژگی در خارج از تاشو |
24756 | اگر تعداد کاربرانی که در یک تاپیک تالار گفتگو در چند روز پیوسته شرکت می کنند به من داده شود، چگونه می توانم این احتمال را پیدا کنم که تعدادی از کاربران در یک روز معین دیگر در آینده در یک تاپیک شرکت کنند؟ | احتمال شرکت کاربر در یک موضوع |
37998 | من یک ویژگی 4 بعدی دارم و هر کدام از آنها توزیع های عادی مستقل هستند. من می خواهم خطای بیزی مربوط به این طبقه بندی کننده را محاسبه کنم. ماتریس کوواریانس و میانگین برای توزیع نرمال چند متغیره داده شده است. من می دانم که باید انتگرال خطا را برای فضای 4 بعدی محاسبه کنم. با این حال، وقتی سعی کردم انتگرال را در ریاضیات محاسبه کنم، یک خطا ایجاد می کند. می خواستم بدانم آیا تقریب یا راه حلی برای محاسبه انتگرال با توجه به تمام داده های بالا وجود دارد؟ | چگونه می توانم خطای بیز یک طبقه بندی کننده معمولی بیزی چند متغیره را محاسبه کنم؟ |
67791 | فرض کنید من یک مجموعه داده با یک نتیجه مشخص $Y$، متغیرهای کمکی $X$، و یک متغیر وضعیت خاص $Z$ دارم، که می تواند تعداد محدودی (کم) از مقادیر، مثلاً 1، 2 و 3 را بگیرد. ممکن است متغیرها در مجموعه داده وجود نداشته باشند، بنابراین میخواهم دادههای خود را ضرب کنم. در بالای انباشتههای مدل $Y|\\{X,Z\\}$، من میخواهم انتسابهای نرمالشده $Y|\\{X,Z=1\\}$ را به دست بیاورم - یعنی یکی از متغیرهای پیش بینی من روی سطح خاصی تنظیم شوند. زمینه تا حدودی شبیه به تمرین BMI-liars در Sec. 7.3 در کتاب FIMD استف ون بورن. وضعیت $Z$ مربوط به منابع مختلف اندازه گیری در $Y$ است، و من گمان می کنم که وضعیت $Z=1$ دقیق ترین است، بنابراین می خواهم احساس کنم که اگر $Y$ چه نتایجی داشت. همه با استفاده از منبع $Z=1$ اندازه گیری شدند. با این حال، تفاوت این است که من هیچ معیار موازی، مانند BMI خود گزارش شده و ابزارسازی شده او ندارم. بنابراین آنچه من از نظر محاسباتی نیاز دارم این است که Bur-in را اجرا کنم، مدل(های) انتساب را کالیبره کنم، و در آخرین تکرار برای $Y$، به جای مقادیر واقعی یا پیش بینی شده، $Z=1$ را جایگزین کنم. ممکن است راهی برای ایجاد یک متغیر غیرفعال که ثابت $=1$ باشد، وجود داشته باشد، اما سپس از معادله انتساب به عنوان هم خط با عبارت intercept حذف میشود. اگر من فقط یک کپی از $Y$ ایجاد کنم و آن را برای $Z \neq 1$ از دست بدهم، و $Y$ و $Z$ را به عنوان پیش بینی کننده قرار دهم، آنگاه یک پیش بینی کامل با ماتریس های منفرد دریافت می کنم، بنابراین این کار ممنوع است. ، یا آیا ایده ای دارید که چگونه می توان آن را با استفاده از بسته های استاندارد معقول پیاده سازی کرد؟ من می خواهم از Stata یا R برای این کار استفاده کنم. | انتساب چندگانه شرطی/نرمال شده |
26611 | من یک سوال در مورد استفاده از متغیر گروه بندی در یک مدل غیر خطی دارم. از آنجایی که تابع nls () اجازه متغیرهای فاکتور را نمی دهد، من در تلاش بودم تا بفهمم آیا می توان تأثیر یک عامل را بر تناسب مدل آزمایش کرد یا خیر. من مثالی را در زیر آوردهام که در آن میخواهم یک مدل رشد فصلی فون برتالانفی را برای درمانهای مختلف رشد (که معمولاً برای رشد ماهی استفاده میشود) تطبیق دهم. من می خواهم تأثیر دریاچه ای را که ماهی در آن رشد کرده و همچنین غذای داده شده را آزمایش کنم (فقط یک مثال مصنوعی). من با راهحلی برای این مشکل آشنا هستم - استفاده از آزمون F که مدلهای متناسب با دادههای تلفیقی را در مقابل برازشهای جداگانه مقایسه میکند که توسط چن و همکارانش بیان شده است. (1992) (ARSS - تجزیه و تحلیل مجموع مربعات باقیمانده). به عبارت دیگر، برای مثال زیر، آیا برازش دو مدل به طور قابل توجهی مجموع مجذور باقیمانده را کاهش می دهد (در این مثال، بله):  تصور میکنم راه سادهتری برای انجام این کار در R با استفاده از nlme() وجود دارد، اما من با مشکلاتی روبرو هستم. اول از همه، با استفاده از یک متغیر گروهبندی، درجات آزادی بالاتر از آن است که من با برازش مدلهای جداگانه به دست میآورم. دوم، من نمیتوانم متغیرهای گروهبندی را تودرتو ایجاد کنم - نمیدانم مشکل من کجاست. هر گونه کمک با استفاده از nlme یا روش های دیگر بسیار قدردانی می شود. در زیر کدی برای مثال مصنوعی من آمده است: ###فصلی مدل رشد فون برتالانفی soVBGF <- تابع(S.inf, k, age, age.0, age.s, c){ S.inf * (1-exp(-k*((age-age.0)+(c*sin(2*pi*(age-age.s))/2*pi)-(c*sin(2*pi*( age.0-age.s))/2*pi)))) } ###غذای داده مصنوعی <- c(ذرت، ذرت، گندم، گندم) دریاچه <- c( شاه، ملکه، شاه، ملکه) #cornking، cornqueen، wheatking، wheatqueen S.inf <- c(140، 140، 130، 130) k <- c(0.5، 0.6، 0.8، 0.9) سن. 0 <- c(-0.1، -0.05، -0.12، -0.052) سن <- c(0.5، 0.5، 0.5، 0.5) cs <- c(0.05، 0.1، 0.05، 0.1) PARS <- data.frame(food=food, lake=lake, S.inf=S.inf, k=k, age.0= age.0, age.s=age.s, c=cs) #make data set.seed(3) db <- c() PCH <- NaN*seq(4) COL <- NaN*seq(4) for(i in seq(4)){ سن <- runif(min=0.2, max=5, 100) سن <- سن[order( سن)] اندازه <- soVBGF(PARS$S.inf[i]، PARS$k[i]، سن، PARS$age.0[i]، PARS$age.s[i]، PARS$c[i]) + rnorm(طول(سن)، sd=3) PCH[i] <- c(1،2)[which(سطوح(PARS$غذا) = = PARS$food[i])] COL[i] <- c(2،3)[which(سطوح(PARS$lake) == PARS$lake[i])] db <- rbind(db، data.frame(age=سن، اندازه=اندازه، food=PARS$food[i]، lake=PARS$lake[i]، pch=PCH[i ]، col=COL[i])) } نمودار داده #visualize (db$size ~ db$age, col=db$col, pch=db$pch) legend(پایین راست، legend=paste(PARS$food، PARS$lake)، col=COL، pch=PCH) ###fit growth model library(nlme) starting.values <- c(S.inf=140, k=0.5، c=0.1، age.0=0، age.s=0) #fit به داده های تلفیقی (مدل کوچک) fit0 <- nls(size ~ soVBGF(S.inf, k, age, age.0, age.s, c), data=db, start=starting.values ) summary(fit0) #fit برای هر دریاچه به طور جداگانه (مدل بزرگ ) fit.king <- nls(size ~ soVBGF(S.inf, k, age, age.0, age.s, c), data=db, start=starting.values, subset=db$lake==king ) summary(fit.king) fit.queen <- nls(size ~ soVBGF(S.inf, k, age, age.0, age.s, c), data=db, start=starting.values, subset=db$lake==queen ) summary(fit.queen) #analysis of residual sum of مربع (F-test) resid.small <- resid(fit0) resid.big <- c(resid(fit.king),resid(fit.queen)) df.small <- summary(fit0)$df df.big <- summary(fit.king)$df+summary(fit.queen)$df F.value <- ((sum(resid.small^2)-sum(resid.big^2))/(df.big[1]-df.small[1])) / (sum(resid.big^2)/(df .big[2])) P.value <- pf(F.value , (df.big[1]-df.small[1]), df.big[2], low.tail = FALSE) F.value; P.value ###plot models plot(db$size ~ db$age, col=db$col, pch=db$pch) legend(bottomright, legend=paste(PARS$food, PARS$lake), col =COL، pch=PCH) legend(بالا، legend=c(soVGBF pooled، soVGBF king، soVGBF ملکه)، col=c(1،2،3)، lwd=2) #plot مدل small (داده های ادغام شده) tmp <- data.frame(age=seq(min(db$age), max (db$age),,100)) pred <- predict(fit0, tmp) خطوط (tmp$age, pred, col=1, lwd=2) #plot مدل بزرگ (مناسب جداگانه) tmp <- data.frame(age=seq(min(db$age), max(db$age),,100), lake=king) pred <- predict(fit. king، tmp) خطوط (tmp$age، pred، col=2، lwd=2) tmp <- data.frame(age=seq(min(db$age) max(db$age),,100), lake=queen) pred <- predict(fit.queen, tmp) lines(tmp$age, pred, col=3, lwd=2) ###آیا این ممکن است در یک مرحله با استفاده از متغیر گروه بندی انجام می شود؟ #با lake به عنوان متغیر گروه بندی starting.values <- c(S.inf=140, k=0.5, c=0.1, age.0=0, age.s=0) fit1 <- nlme(model = size ~ soVBGF(S.inf، k، سن، سن. 0، سن، سن، ج)، داده=db، ثابت = S.inf + k + c | چگونه می توان اثر یک متغیر گروه بندی را با یک مدل غیر خطی آزمایش کرد؟ |
61794 | من در حال بررسی تأثیر مکان تومور بر خلق و خوی (افسردگی / اضطراب) هستم و همچنین می بینم که آیا زمان در دو بازه ('t0' و 't1') تأثیر دارد یا خیر. من یک مجموعه داده با زمان به عنوان یک متغیر اندازه گیری مکرر، محل افقی تومور به عنوان یک متغیر مستقل (طبقه ای) و امتیاز خلق و خو به عنوان یک متغیر وابسته داشتم. در اولین تحلیل من، زمان بسیار مهم بود، بنابراین من عالی فکر کردم، ممکن است چیزی در اینجا داشته باشم. «موقعیت افقی» معنیدار نبود (یعنی بدون توجه به موقعیت افقی زمان تومور هنوز تأثیر داشت). سپس، یک متغیر دیگر بین موضوعی، یعنی محل عمودی تومور را به تجزیه و تحلیل اضافه کردم. با این حال، اگر من اکنون این طرح سهطرفه اندازهگیری مکرر فاکتوریل را اجرا کنم، «زمان» دیگر عامل مهمی در خلق و خو نیست! من احساس می کنم این عجیب است زیرا از دو جهت قابل توجه بود و اکنون از سه جهت نیست؟ (موقعیت افقی و مکان عمودی هر دو معنی دار نمی شوند.) **بنابراین سوال من به این خلاصه می شود: چگونه افزودن یک متغیر اضافی بین متغیر عامل باعث می شود که اثر اصلی زمان غیر قابل توجه باشد (مقدار p را افزایش می دهد) ?** آیا من اجازه دارم دو تعامل دو طرفه را با مکان «افقی» / «عمودی» که به جای یک سه طرفه بزرگ جدا شده است اجرا کنم یا این که نتایج را مخدوش می کند؟ | اضافه کردن بین فاکتور موضوع، مقدار p اثر اصلی را کاهش می دهد؟ |
50684 | آیا پیادهسازی (رایگان یا غیر رایگان) GSVM-RU (ماشینهای بردار پشتیبان دانهای - نمونهبرداری کم تکراری) همانطور که توسط SVMs Modeling for Highly Imbalanced Classification توضیح داده شده است وجود دارد؟ | پیاده سازی GSVM-RU |
61796 | من به رابطه بین افکار نوجوانان در مورد سیگار (مثلاً چند بار در روز گذشته به سیگار فکر کرده اید؟) و مصرف سیگار (مثلاً در ماه گذشته چند نخ سیگار کشیده اید؟) علاقه مند هستم. اقدامات مستمر است. با یک مطالعه طولی (به عنوان مثال، مطالعه سه موجی)، می توان بررسی کرد که آیا فکر سیگار مصرف سیگار را پیش بینی می کند، مصرف سیگار افکار سیگار را پیش بینی می کند یا هر دو (یعنی یک رابطه متقابل). با این حال، اگر من یک مطالعه مقطعی انجام دهم، که در آن دو متغیر بالا و برخی از متغیرهای جمعیت شناختی (به عنوان مثال، جنسیت، قومیت و غیره) را اندازه گیری کنم، آیا می توانم بیش از یک تحلیل همبستگی انجام دهم؟ برای مثال، آیا معقول است که دو تحلیل رگرسیون چندگانه با تفکر سیگار به عنوان DV، مصرف سیگار، جنسیت و قومیت به عنوان IV در یک مدل انجام دهیم و سپس DV و یکی از IV را تغییر دهیم (مثلاً، مصرف سیگار <-> افکار سیگار ) در مدل بعدی؟ من می دانم که وقتی فرضیه خاصی در مورد دو متغیر ندارید، باید به تحلیل همبستگی بسنده کنید. با این حال، من احساس می کنم که حتی در چارچوب یک مطالعه مقطعی، ممکن است انجام دو تحلیل رگرسیون چندگانه برای بررسی روابط قابل پیش بینی مختلف بین دو متغیر تا زمانی که در مورد یک رابطه علی صحبت نکنید، خوب باشد. آیا این استدلال اشتباه است؟ هر گونه ورودی بسیار قدردانی خواهد شد. | معکوس کردن IV و DV در رگرسیون چندگانه |
50682 | در حال خواندن کتاب سری زمانی هستم و در قسمت زیر شروع به خاراندن سرم کردم:   کسی می تواند شهود را برای من توضیح دهد؟ از این متن نتونستم بفهمم چرا ما نیاز داریم که فرآیند معکوس باشد؟ تصویر بزرگ اینجا چیست؟ برای هر کمکی از شما متشکرم من در این مورد تازه کار هستم، بنابراین اگر لطف کنید از اصطلاحات سطح دانش آموز در هنگام توضیح این موضوع استفاده کنید :) | شهود فرآیند معکوس در سری های زمانی چیست؟ |
24753 | من سعی می کنم خودم را در مورد علیت گرنجر آموزش دهم. من پست های این سایت و چندین مقاله خوب را به صورت آنلاین خوانده ام. من همچنین با یک ابزار بسیار مفید روبرو شدم، دو متغیره گرنجر Causality - Free Statistics Calculator، که به شما امکان می دهد سری زمانی خود را وارد کرده و آمار گرنجر را محاسبه کنید. در زیر، خروجی از داده های نمونه موجود در سایت است. من همچنین در تفسیر نتایج شکافی کرده ام. سؤالات من: * آیا تفسیر من از نظر جهت درست است؟ * چه بینش های کلیدی را نادیده گرفته ام؟ * همچنین مفهوم و تفسیر نمودارهای CCF چیست؟ (من فرض میکنم CCF همبستگی متقابل است.) در اینجا نتایج و نمودارهایی که تفسیر کردهام هستند: خلاصه تراکنش محاسباتی مشاهده ورودی خام ورودی خام (کد R) خروجی خام مشاهده خروجی خام موتور R زمان محاسبه 2 ثانیه سرور R هرمان اوله آندریاس ولد @ wold.wessa.net آزمون علیت گرنجر: Y = f(X) مدل Res.DF Diff. DF F p-value مدل کامل 356 مدل کاهش یافته 357 -1 17.9144959720894 2.94360540545316e-05 آزمون علیت گرنجر: X = f(Y) مدل Res.DF Diff. DF F p-value مدل کامل 356 مدل کاهش یافته 357 -1 0.0929541667364279 0.760632773377753    تفسیر من: * تست بر اساس بر روی 357 نقطه داده و با مقدار تاخیر 1 انجام شد * مقدار p 0.0000294 به این معنی است که می توانم این فرضیه صفر را رد کنم که x باعث y برای Y نمی شود. = f(x). * مقدار p 0.76 به من اجازه می دهد که عدد صفر را برای X = f(Y) بپذیرم * این واقعیت که فرضیه اول رد شد و دوم پذیرفته شد چیز خوبی است * من در آزمون F خود کمی زنگ زده هستم بنابراین من در حال حاضر واقعاً چیزی برای گفتن در این مورد ندارم. * همچنین مطمئن نیستم که چگونه نمودار CCF را تفسیر کنم. اگر هر یک از شما که به خوبی با علیت گرنجر آشنا هستید، به من اطلاع دهید که آیا این موضوع را به درستی تعبیر می کنم و همچنین برخی از جاهای خالی را پر کنید، بسیار سپاسگزارم. با تشکر از کمک شما. | تفسیر نتایج آزمون علیت گرنجر |
102691 | اجازه دهید $Z_i,Z_2,\ldots$ متغیرهای تصادفی IID با چگالی $f$ باشند. فرض کنید $P(Z_i>0)=1$ و $\lambda=\lim_{x \to 0+} f(x)>0$. چگونه می توانم نشان دهم که $X_n=n \times \min\\{Z_i\\}$ دارای توزیع نمایی محدود کننده با میانگین $1/\lambda$ است؟ می دانم که CDF آمار مرتبه اول برای $t>0$ $$F_{min \\{ Z_i \\}} (t)= 1- \left[ 1-F(t) \right]^{ n}$$ همگرایی در توزیع مستلزم این است که $F_n (t) \ به F(t)$ برای برخی از تابع های توزیع $F$، اما من نمی توانم کاملاً حد موارد فوق را بگیرم، با $t$ جایگزین شده با $x/n$ ، چون توزیع مشخص نیست. حدس میزنم باید اطلاعات دوم را جایی وارد کنم اما نمیدانم کجاست. ممکن است لطفا یک یا دو نکته به من بدهید؟ متشکرم. | توزیع محدود کننده آمار مرتبه اول یک توزیع عمومی |
23066 | من با خودکار کردن برخی بازیابی داده ها کار می کنم، و اکنون باید برخی از نتایج را تأیید کنم. سیستم به طور خودکار 6٪ از رکوردها را علامت گذاری کرده است، و من می خواهم اندازه معقولی از رکوردهای باقی مانده را برای تأیید دستی تعیین کنم، که به من اطمینان می دهد که سایر خطاها، در صورت وجود، شناسایی می شوند. این اعداد سریع هستند: * 2502 کل رکورد * 152 (6%) خطای شناخته شده فرض کنید من 80% شانس پیدا کردن خطا در ~2350 رکورد باقی مانده را می خواهم. چه تعداد باید درخواست بررسی کنم؟ آیا فرمول آسانی برای محاسبه آن با آستانه های مختلف وجود دارد؟ * * * به روز رسانی: با تشکر از ورودی، همه. هدف من تعیین تعداد تقریبی از رکوردهای خوب است که باید به صورت دستی بررسی شوند تا مشخص شود آیا هنوز خطا وجود دارد یا خیر. اینها همه نتایجی هستند که توسط سیستم خودکار مورد استفاده ما به عنوان اعتماد بالا برچسب گذاری شده اند، بنابراین در تئوری ما انتظار داریم که آنها 100٪ دقیق باشند. من سعی میکنم در عدم اعتماد کامل به فرآیند خودکار کوشا باشم، بلکه نسبت به هزینههای بررسی این موارد نیز آگاه باشم. من تخمین می زنم که بررسی برای هر نتیجه تقریباً 1 دقیقه طول می کشد. بنابراین بررسی همه 2500 40 ساعت کار خواهد بود. | با توجه به اندازه و میزان وقوع شناخته شده جمعیت، چگونه می توانم یک حجم نمونه معقول را محاسبه کنم؟ |
28665 | من یک پیکره سند دارم و می خواهم احتمال وقوع یک کلمه خاص $w$ را تخمین بزنم. صرفاً محاسبه فرکانس ها و استفاده از چنین عددی به عنوان تخمین انتخاب خوبی نیست. آیا کاری در مورد این موضوع وجود دارد که رویکرد بهتری را توصیف کند؟ | یک روش خوب برای تخمین احتمال فراوانی کلمات چیست؟ |
61248 | من در حال توسعه برنامه جاوا برای خوشه بندی اسناد متنی هستم و در حال تحقیق در مورد روش های ارزیابی هستم. من F-measure (http://en.wikipedia.org/wiki/F1_score) را پیاده سازی کردم، اما یک مشکل دارم - مقدار برگشتی NaN است. این اتفاق در جایی می افتد که یک خوشه حاوی هیچ داده ای از یک دسته خاص نیست - دقت و فراخوانی برابر با صفر است. چگونه باید با این وضعیت رفتار کنم - F-measure در آن صورت نیز باید صفر باشد؟ برای هر راهنمایی بسیار سپاسگزار خواهم بود. | اندازه گیری F برای ارزیابی خوشه بندی اسناد - NaN |
24281 | وضعیت به شرح زیر است. 400 نمونه در مجموعه آموزشی و 200 کلاس گسسته (هر کلاس دو نمونه دارد). چند هزار صفت وجود دارد. هنگامی که من کاهش ابعاد را به دو بعدی یا سه بعدی اجرا می کنم، می خواهم (به طور مطلوب) 200 خوشه از هر کدام 2 نقطه را ببینم - یک خوشه برای هر کلاس. اما در عمل اینطور نیست. سوال این است که چگونه مجموعه ای از ویژگی ها را انتخاب می کنید که نتایج بهینه را با خوشه بندی/طبقه بندی (چه با کاهش ابعاد یا بدون آن) به دست آورند. | انتخاب ویژگی ها برای خوشه بندی/طبقه بندی |
24283 | من اندازهگیریهای تکراری یک پارامتر (فلورسانس) را انجام دادهام که انتظار میرود با گذشت زمان افزایش یابد، و درک نحوه آزمایش اهمیت شیب پارامتر در مقابل زمان (با استفاده از یک مدل حداقل مربعات خطی) مشکل دارم. ). به طور شهودی، برای من منطقی است که همه جفتهای فلورسانس زمان را برای هر تکرار در یک مجموعه داده بزرگ ترکیب کنم و به اهمیت شیب آن تناسب نگاه کنم. با این حال، انتظار می رود که فاصله پارامتر بین تکرارها به دلیل یک مصنوع ابزاری متفاوت باشد. برای من روشن نیست که آیا ترکیب داده ها برای هر تکرار به دلیل تفاوت مورد انتظار در رهگیری، مشروع است یا خیر. با تشکر فراوان برای هر کمکی برای قرار دادن این در شرایط R: t1 <- 1:10 f1 <- rnorm(10) t2 <- 1:10 f2 <- rnorm(10) t3 <- 1:10 f3 <- rnorm(10) آیا قانونی است که به اهمیت شیب مدل نگاه کنید <- lm(c(f1, f2, f3) ~ c(t1, t2, t3)) یا باید کار دیگری انجام دهم؟ | آزمایش اهمیت شیب ها با تکرار |
101280 | با استفاده از تابع npregbw در بسته np، مقادیر پهنای باند بسیار بزرگ را برای هموارسازی خطی محلی دریافت می کنم. پهنای باند library(np) <- npregbw(xdat = xdat, ydat = ydat, regtype=ll, bwmethod=cv.ls)$bw من 4 مجموعه داده دارم (2 شبیه سازی، 2 نمونه واقعی) و برای برخی از آنها من (به نظر می رسد) مقادیر پهنای باند مناسب (0.1 - 0.5) برای دیگران بسیار زیاد است. مقادیر (10^5 - 10^6). اندازه نمونه مجموعه داده ها یکسان است، ساختار بسیار مشابه است. من با همان مشکلی مواجه شدم که سایر کاربرانی که این سوال را ارسال کردند. پاسخی در دسترس نیست اینجا: http://thr3ads.net/r-help/2010/09/1036675-local-linear-and-local-constant- kernel-regression-with-np یا اینجا: https://stat.ethz.ch/ pipermail/r-help/2011-September/289538.html آیا تجربه مشابهی دارید؟ آیا فکری برای رفع آن دارید؟ | R: پهنای باند بسیار زیاد، تابع npregbw در بسته np |
24288 | از ویکیپدیا، میدانیم که $n$، درجات آزادی، باید بزرگتر از $p-1$ باشد که در آن $p$ بعد ماتریس مقیاس است. همچنین، از قسمت پایین همان مقاله، تجزیه بارتلت را برای نمونه توزیع Wishart می بینیم که در آن عنصر مورب از $\chi^{2}(n - i + 1)$ تولید می شود. با این حال، اگر دستورات زیر را در Matlab 2011b تایپ کنید: Sigma = eye(2) nu = 1 wishrnd(Sigma,nu) چیزی را برمی گرداند! در اینجا، 'nu' (درجات آزادی) دیگر بزرگتر از بعد ماتریس مقیاس نیست، درست است؟ همچنین، اگر از نزدیک به اجرای «wishrnd» با صدور «type wishrnd» نگاه کنید، خط زیر را مشاهده می کنیم: a = diag(sqrt(chi2rnd(df-(0:n-1)))); واضح است که پیاده سازی به جای $\chi^{2}(n-i+1)$$\chi^{2}(n-i)$ تولید می کند. اینجا چیزی ناسازگار است؟ | چگونه از توزیع Wishart نمونه برداری کنیم؟ |
28664 | من یک مجموعه داده با ساختار سنتی دارم که در آن ردیف ها مشاهدات و ستون ها متغیر هستند. تنها چند مشاهدات وجود دارد اما متغیرهای نسبتاً بیشتری وجود دارد. مشاهدات مناطقی از یک کشور هستند و متغیرها ویژگیها هستند (_یعنی_، اندازه جمعیت، میانگین درآمد، تعداد مردان، تعداد زنان و غیره). من باید بفهمم که کدام ویژگی می تواند یک منطقه را از بقیه متمایز کند. به عنوان مثال، من باید بفهمم که آیا اندازه جمعیت منطقه 1 را از مناطق 2، 3، 4 و غیره بیشتر متمایز می کند یا خیر. کدام روش های آماری برای انجام این نوع تجزیه و تحلیل موجود است؟ کمک شما قابل قدردانی است. فقط در صورتی که مشخص نباشد، اطلاعات من چیزی شبیه به زیر است. A، B، C، D R1 8، 9، 5، 4 R2 5، 8، 4، 5 R3 7، 9، 7، 4 که در آن R1 = منطقه 1، R2 = منطقه 2، R3 = منطقه 3، A = جمعیت ، B = درآمد متوسط، C = تعداد مرد، D = تعداد زن. سوالات من چیزی شبیه به این است: * تفاوت R1 با مجموعه {R2, R3} چیست؟ * R2 چه تفاوتی با مجموعه {R1, R3} دارد؟ * R3 چه تفاوتی با {R1, R2} دارد؟ پاسخ های مورد انتظار چیزی شبیه به این هستند: * آیا R1 با {R2, R3} متفاوت است؟ * {A, D} R2 را با {R1, R3} متفاوت می کند؟ | چگونه می توان متغیرهای متمایز کننده یک نمونه را از بقیه نمونه ها تشخیص داد؟ |
23397 | در ابتدا در stats.SE ارسال شده بود اما هرگز پاسخی دریافت نکردید بنابراین در اینجا مجدداً ارسال کنید. آیا تا به حال یک ایده _bad_ عادی سازی ماتریس هسته است؟ منظور من روشی است که در صفحه 113 کتاب Shawe-Taylor & Cristianini روش های هسته برای تجزیه و تحلیل الگو (نشان گذاری Matlab) توضیح داده شده است: ٪ ماتریس هسته اصلی ذخیره شده در متغیر K٪ خروجی از همان متغیر K٪ استفاده می کند D یک ماتریس مورب ذخیره می شود. معکوس هنجارها D = diag(1./sqrt(diag(K))); K = D * K * D; من به طور خاص به متن کاوی فکر می کنم، جایی که هسته از ماتریس $tf-idf$ $T$ (_i.e._ $K = T T'$) تشکیل می شود. دلیلی که میخواهم عادیسازی کنم این است که به ترکیب چندین هسته از این قبیل فکر میکنم (مثلاً از بیگرامها، سهگرامها و غیره) اما وقتی این کار را انجام میدهم نتایج واقعاً عجیبی میگیرم. جمع کردن هسته ها بدون عادی سازی منجر به تسلط یکی یا دیگری می شود. (من می توانم از یک جمع وزنی استفاده کنم - مانند استفاده از $1/||K||_F$ که در آن $||\cdot||_F$ هنجار Frobenius است، اما این کمی هک به نظر می رسد - این یادگیری بدون نظارت است). | نرمال سازی ماتریس هسته |
24755 | کتاب های معرفی خوب فیلتر کالمن کدامند؟ من مثال ها و تکنیک های عملی زیاد و کمتر تئوری را دوست دارم. | آشنایی با فیلترهای کالمن |
79501 | من مجموعه ای از داده های خام مشاهده شده دارم و از ODE مرتبه دوم برای جا دادن داده ها استفاده می کنم $$y''+b_1(t)y'+b_0(t)y = 0$$. t)$ وابسته به زمان هستند و من از آنالیز دیفرانسیل اصلی (PDA) (بسته R: **fda**، تابع: **pda.fd**) برای بدست آوردن تخمین استفاده می کنم. $\hat{b_1}(t)$ و $\hat{b_0}(t)$. برای بررسی اعتبار تخمینهای $\hat{b_1}(t)$ و $\hat{b_0}(t)$، از روش collocation استفاده میکنم (بسته R **bvpSolve**، تابع: **bvpcol** ) برای به دست آوردن جواب عددی ODE $$y''+\hat{b_1}(t)y'+\hat{b_0}(t)y = 0$$ سپس مقایسه کنید راه حل از ODE بالا با برازش منحنی هموارسازی داده های خام. سوال من این است که راه حل عددی من از bvpcol می تواند شکل منحنی برازش را بگیرد اما نه برای مقدار تابع. از نظر چند مضرب ثابت متفاوت هستند.  شکل خروجی من را ببینید. **نقطه خاکستری** داده خام من، **خط قرمز** بسط فوریه داده خام، **خط سبز** حل عددی تابع bvpcol و **خط آبی** سبز است. -line/1.62. میتوانیم ببینیم که خط سبز میتواند شکل را بگیرد، اما با مقادیری که زمانهای ثابت بسط فوریه هستند. من چندین داده دیگر را جا می دهم و وضعیت مشابهی دارم اما ثابت متفاوتی دارم. من تعجب می کنم که مشکل حل عددی ODE یا دلایل دیگری است و چگونه می توان این مشکل را حل کرد تا تطابق خوبی بین حل عددی (سبز) و بسط فوریه واقعی بدست آوریم؟ هر گونه کمک و ایده قدردانی می شود! در اینجا یک داده خام و کد وجود دارد: RData is here library(fda) library(bvpSolve) # load the data load('y.RData') tvec = 1:length(y) tvec = (tvec-min(tvec))/ (max(tvec)-min(tvec)) # ایجاد پایه fbasis = create.fourier.basis(c(0,1),nbasis=47) bbasis = create.bspline.basis(c(0,1),norder=8,nbasis=47) bfdPar = fdPar(bbasis) yfd = صاف. پایه (TVEC ، Y ، fbasis) $ fd yfdlist = لیست (yfd) bwtlist = rep(list(bfdPar),2) # PDA fit bwt = pda.fd(yfdlist,bwtlist)$bwtlist # خروجی ضرایب تخمینی beta0.fd<-bwt[[1]]$fd beta1.fd<-bwt[[ 2]] $ fd # عملکرد متفاوت از نظر t را تعریف کنید fbeta0 <-function (t) eval.fd (t ، beta0.fd) fbeta1 <-function (t) eval.fd (t ، beta1.fd) # تعریف Ode Fun2 <-عملکرد (t ، y ، پارس) {با (as.list (c (y ، pars)) ، {beta0 = pars [[1]] ؛ beta1 = pars [[2]] ؛ dy1 = y[2] dy2 = -beta1(t)*y[2]-beta0(t)*y[1] return(list(c(dy1,dy2))) }) } # BVP yinit<-c(p1[ 1],NA) yend<-c(p1[طول(p1)],NA) t<-seq(tvec[1],tvec[length(tvec)],0.005) col<-bvpcol(yini=yinit,yend=yend,x=t,func=fun2,parms=c(fbeta0,fbeta1) atol=1e-5،islin=T) # خروجی نمودار خطوط نمودار(col[,1],col[,2],col='green',type='l') points(tvec,p1,col='darkray') خطوط (yfd,col='red',lwd= 2) خطوط (col[,1],col[,2],col='green', type='l') خطوط (col[,1],col[,2]/1.62,col='blue',type='l',lwd=2,lty=4) legend('topleft',col=c('green', 'خاکستری تیره'، 'قرمز'، 'آبی')، legend=c('راه حل ODE'، 'داده خام'، 'مناسب منحنی پایه'، 'ODE solution/1.62'),lty=1) **یک سوال به روز شده: آیا $\hat{b_1}(t)$ و $\hat{b_0}(t)$ منحصر به فرد هستند؟** همانطور که پایه را تغییر می دهم (مثلا bspline) ,تک نامی) برای بسط $b_0(t)$ و $b_1(t)$، معمولا منحنی های تخمینی بسیار متفاوتی دارم، اما حل عددی ODE (خط سبز) بسیار نزدیک است. این باعث میشود باور کنم که فرمهای عملکردی مختلف $\hat{b_1}(t)$ و $\hat{b_0}(t)$ میتوانند راهحل یکسانی را ارائه دهند. من یک پست جدید را با جزئیات بسیار بیشتر در اینجا شروع کردم. | حل عددی ضرایب متغیر ODE |
73023 | من متعجب بودم که چرا لزوماً درست است که اگر یک آماره آزمایشی از مقدار بحرانی t بیشتر شود، آنگاه درست است که p-value از سطح معنیداری فراتر نخواهد رفت. | رابطه بین آمار آزمون و مقدار p در رابطه با آزمون t |
61793 | من دو نمونه مخزن (با جایگزینی) از یک توزیع دارم که به طور مستقل به دست می آیند. اگر فقط اتحاد این دو نمونه را تولید کنم، آیا نمونه به دست آمده نیز به عنوان نمونه تصادفی در نظر گرفته می شود؟ | آیا اتحاد دو نمونه مخزن یک نمونه تصادفی است؟ |
24752 | از شما به خاطر تلاش شما برای ایجاد چنین جامعه خوبی متشکرم و من با خواندن و پرسیدن چیزهای زیادی یاد گرفتم. پیشینه رگرسیون لجستیک من: 1. متغیر هدف: هدف باینری در مورد نوسانات بازار. 1 برای روزهای معاملاتی با روز نوسان صدک بالای 15% که نشان دهنده روز شدید در بازار است. 0 برای استراحت عادی و نوعی روز آرام برای بازار. 2. متغیر پیش بینی کننده: فراوانی 160 کلمه کلیدی مرتبط با تجارت از انجمن معروف تجارت آنلاین. به عنوان مثال، کلمه تاجر در 01-01-2008 ما متوجه شدیم که 50 بار رخ داده است و در 01-01-2008 متوجه شدیم که در مجموع 500 پست در آن انجمن داریم. بنابراین، با تقسیم 50 تاجر بر 500 «تعداد پست»، ظاهر «معاملهگر» را به نوعی عادی میکنیم. ما در اینجا 0.1 برای 01-01-2008 دریافت کردیم. ما فرهنگ لغت 160 کلمه ای داریم و داده های آموزشی از 01-01-2008 تا 2011-12-31 است. هر سطر دارای 160 ستون با عددی است که تعداد کلمات خاص را نشان می دهد. این همه است. هیچ چیز متغیر از قیمت، نوسانات در اینجا. نوع داده احساسات خالص بر اساس شمارش فرکانس. 3. هدف مدلسازی: من فکر میکنم کاملاً بدیهی است که میخواهیم ببینیم آیا میتوانیم کلمات احساسی را برای پیشبینی خوب در مورد اینکه آیا فردا یک روز بسیار فرار است یا خیر داشته باشیم؟ 4. نرم افزاری که من استفاده می کنم: SAS Enterprese Miner 3 در SAS 9.1.3. تعریف و جزئیات مدلسازی در اینجا آمده است: الف. من رگرسیون لجستیک را انتخاب میکنم ب. بدون پارتیشن دادهای چون فقط 1000 روز به عنوان داده آموزشی خود دارم، بنابراین استفاده از دادههای کامل را انتخاب میکنم که به این معنی است که فرآیند نمونهگیری وجود ندارد و فقط دادههای آموزشی استفاده میکنم. ج. من عقب را انتخاب میکنم زیرا میخواهیم ببینیم این پیشبینیکنندههای مهم از 160 کدامند، در اینجا در صورت استفاده از جلو، مقداری کمبود وجود دارد. D. هیچ مجموعه داده اعتبارسنجی وجود ندارد، بنابراین من Crossvalidation-error را به عنوان معیار نهایی خود انتخاب کردم. سطح معنی داری برای متغیر ماندن 0.05 است. 5. نتیجه: متشکرم برای استفاده آسان sas، نمودار زیر را مستقیماً از مدیر نتیجه و مدلسازی دریافت کردم: اولی نتیجه است: همانطور که نشان می دهد چند متغیر باقی مانده است:  وای، خیلی متغیرها... ترسناک. مورد دوم در مورد نمودار پاسخ که نشان میدهد چقدر پیشبینی را در مقایسه با انتخاب تصادفی یا حدس زدن در مورد فردا بهبود میبخشیم، در اینجا، در مورد من، احتمال اینکه شما آن را درست حدس بزنید در مورد اینکه آیا فردا یک روز بیثبات است یا خیر، حدود 15 درصد است. نمودار پاسخ خوب و روان به نظر می رسد، درست است؟  نگران کننده: تعداد زیادی متغیر در اینجا باقی مانده است. نوعی ترساندن. چگونه می توانم مدل سازی را بهبود بخشم و نتیجه را تفسیر کنم؟ | 52 متغیر پس از انتخاب متغیر معکوس بر روی رگرسیون لجستیک روی 160 متغیر در ابتدا، چه توهم یا مدلسازی خوب باشد. |
31690 | اگر در رگرسیون خطی متغیر طبقه ای داشته باشم ... چگونه می توانم اهمیت آماری متغیر طبقه ای را بدانم؟ فرض کنید ضریب X_1$ دارای 10 سطح است... 10 مقدار t حاصل مختلف وجود خواهد داشت، زیر چتر یک متغیر عاملی $X_1$... به نظر من معنیداری آماری برای هر سطح آزمایش میشود. متغیر عامل؟ نه؟ @Macro: به دنبال پیشنهاد شما، مثال زیر را ساختم: به نظر می رسد x3 مفید است و باید در مدل گنجانده شود، از مقایسه مدل زیر. اما در واقع این اشتباه است... آیا نظری در این مورد دارید؟ متشکرم! n=100 x1=1:n x2=(1:n)^2 x3=rnorm(n) ee=rnorm(n) y=3*x1-2*x2+x3+3+ee lm1=lm(y~ x1+x2+x3) خلاصه (lm1) lm2=lm(y~x1+x2) خلاصه (lm2) anova (lm1, lm2) > anova(lm1, lm2) تجزیه و تحلیل جدول واریانس مدل 1: y ~ x1 + x2 + x3 مدل 2: y ~ x1 + x2 Res.Df RSS Df مجموع مربع F Pr(>F) 1 96 82.782 2 97 146.773 -1 -63.99 74.207 1.401e-13 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 1 | چگونه می توان اهمیت آماری را برای متغیر طبقه ای در رگرسیون خطی آزمایش کرد؟ |
110999 | * ریشه میانگین مربعات خطا * مجموع باقیمانده مربع ها * خطای استاندارد باقیمانده * میانگین مربعات خطا * خطای تست فکر می کردم قبلاً این اصطلاحات را می فهمیدم اما هر چه بیشتر مسائل آماری را انجام می دهم بیشتر در جایی که خودم را حدس می زنم گیج می شوم. من یک اطمینان مجدد و یک مثال ملموس میخواهم که بتوانم معادلات را بهاندازه کافی آنلاین پیدا کنم، اما در یافتن توضیحی مثل من 5 ساله برای این اصطلاحات مشکل دارم تا بتوانم تفاوتها و چگونگی یکی را در ذهنم متبلور کنم. منجر به دیگری می شود. اگر کسی بتواند این کد زیر را بگیرد و به نحوه محاسبه هر یک از این اصطلاحات اشاره کند، ممنون می شوم. کد R عالی خواهد بود.. با استفاده از مثال زیر: summary(lm(mpg~hp, data=mtcars)) در کد R به من نشان دهید چگونه پیدا کنم: rmse = ____ rss = ____ residual_standard_error = ______ # من می دانم وجود دارد اما نیاز دارم درک mean_squared_error = _______ test_error = ________ امتیاز جایزه برای توضیح مانند I'm 5 تفاوت / شباهت بین اینها. مثال: rmse = ریشه مربع (mss) | R - سردرگم در اصطلاحات باقیمانده |
50683 | پس از انجام یک تحلیل عاملی اکتشافی (SPSS)، دقیقاً چه چیزی را می توانم از جدول همبستگی عواملی که پس از استخراج/چرخش عوامل به دست می آید استنباط کنم؟ اگر دو عامل نسبتاً همبستگی بالایی دارند (مثلاً محدوده 0.4-.6 یا بالاتر)، آیا این بدان معناست که هنگام ساخت مدل خود به صورت گرافیکی، میتوانم یک خط دو طرفه بین دو متغیر پنهان که فاکتورها را نشان میدهند قرار دهم؟ آیا این همان چیزی است که جدول همبستگی نشان می دهد؟ اگر نه، چه بخشی از خروجی/چه تحلیل دیگری را قرار است برای توجیه قرار دادن آن خطوط دوطرفه یا تک جهتی بین عوامل استفاده کنید؟ من یک تازه کار در یک ضرب الاجل هستم، بنابراین کمک قابل توجهی خواهد بود! | همبستگی عوامل و طراحی مدل |
50686 | من آیتم های لیکرت برای تعدادی از دانش آموزانی که به طور همزمان اسپانیایی و انگلیسی یاد می گیرند، دارم. من واقعاً باید میانگین هر متغیر (غیر عادی) را با هم مقایسه کنم تا ببینم کدام زبان برای متغیرهایی مانند من به این زبان تلویزیون تماشا می کنم رای بالاتری داده است. در حال حاضر، این شرکت کنندگان به وضوح جفت همسان نیستند، آنها همان افرادی هستند که تحت دو شرط (اسپانیایی یا انگلیسی) آزمایش می شوند. اندازه گیری های مکرر به تفاوت های زمانی اشاره دارد. آیا ایده زمان ضروری است یا می توانم شرکت کنندگانم را اقدامات تکراری صدا کنم؟ اگر نه، آنها چه هستند و چه نوع آزمونی برای مقایسه میانگین ها نشان داده شده است؟ از هر کسی که پاسخ می دهد، بسیار سپاسگزارم - من یک تازه کار هستم | آیا این شرکت کنندگان به طور مکرر اندازه گیری می شوند؟ |
74906 | من یک مدل OLS با داده هایی ساخته ام که دو بار با هم تفاوت داشتند. همانطور که میدانم (و شاید اشتباه میکنم) ضرایب (بتا) را میتوان روی دادههای اصلی غیرمتمایز اعمال کرد تا Y در آن زمان ارائه شود. خیلی دور است و من گمان می کنم که این رهگیری یا چیز دیگری باشد | تفسیر یک رگرسیون بر اساس داده های دو برابر متفاوت مدل شده است |
61247 | من به دنبال مرزهای بالای نظری دقت طبقه بندی هستم. لطفا اگر با نتایجی مانند زیر آشنا هستید به من اطلاع دهید. **تنظیمات زیر کلی است، اما لطفاً نتایجی را که می دانید در تنظیمات خاص نیز اعمال می شود، به اشتراک بگذارید. با تشکر!** اجازه دهید $Y$ متغیر باینری برای طبقه بندی باشد و $X = (X_1,...,X_K)$ متغیرهای توضیحی $K$ باشد. ما توزیع مشترک (در جمعیت) $(y,X) \sim \mu$ را می دانیم و می خواهیم مدلی از $\hat{y} = f(X)$ بسازیم. سپس برای کلاس توابع XXX $f()$، یک کران بالای حداکثر دقت طبقه بندی وجود خواهد داشت: $P(\hat{y} = y) \le g(\mu(y,X))$؟ | مرزهای بالای نظری دقت طبقه بندی؟ |
50681 | در بررسی این سوال و بررسی برخی از پیشرفتهای اخیر در اندازهگیری همبستگی، به آزمون HHG (هلر هلر گورفین) برخوردم. هلر و همکاران آن را به عنوان برتر از آزمایش اخیر MIC که در سال 2011 سر و صدا به پا کرد، تبلیغ کنید. من کد R و یک نوع آن را پیدا کرده ام اما نمی توانم ببینم چگونه می توانم اندازه گیری فاصله بین صفر و یک را بدست بیاورم. چگونه می توانم این فاصله را محاسبه کنم؟ این یک مثال قابل تکرار است: ## کد download.file(http://www.math.tau.ac.il/~ruheller/Software/HHG2x2_0.1-1.tar.gz، HHG2x2_0.1- را دریافت کنید. 1.tar.gz) install.packages(HHG2x2_0.1-1.tar.gz، repos = NULL، type=source) library(HHG2x2) writeChar(con=myHHG.R, getURL(https://raw.github.com/andrewdyates/HHG_R/master/R/myHHG.R، ssl.verifypeer = FALSE)) منبع( myHHG.R) ## مثال داخلی X = datagenCircle(50) Dx = as.matrix(dist((X[1,]),diag=TRUE,upper=TRUE)) Dy = as.matrix(dist((X[2,]),diag=TRUE,upper=TRUE)) myHHG( Dx، Dy)؛ pvHHG(Dx,Dy) که برمیگرداند: $sum_chisquared [1] 5515.762 $sum_lr [1] 3028.207 $max_chisquared [1] 20.02963 $max_lr [1] 11.30457 [0.9.9$ خروجی $5001 $1] 10001 $A_threshold [1] 2.985682 $B_threshold [1] -4.553877 چگونه می توانم متریک فاصله را از این بسته دریافت کنم؟ یا من اشتباه متوجه شده ام که HHG در مورد چیست؟ به نظر می رسد این منبع اصلی برای تست HHG باشد: Heller, R., Y. Heller, et al. (2012). آزمون چند متغیره سازگار بر اساس رتبه فاصله. بیومتریک. 99 (4) doi:10.1093/biomet/ass070 http://arxiv.org/abs/1201.3522 | نحوه محاسبه فاصله HHG (Heller Heller Gorfine) در R |
28661 | من می خواهم برخی از روش های آماری را بر روی داده هایی که کیفیت/قدرت مؤسسات را برای کشورهای جهان توصیف می کند، انجام دهم. من به دنبال این داده ها در بانک جهانی، OECD، سازمان ملل و صندوق بین المللی پول بوده ام. من باید این فهرست را از دست داده باشم، زیرا در مورد افرادی که از آن استفاده می کنند از منبع معتبری مانند موارد ذکر شده در بالا شنیده ام. آیا کسی در مورد چنین شاخصی از منبع معتبر اطلاعی دارد؟ | داده ها در مورد کیفیت/قدرت سازمانی؟ |
23399 | اساساً، دو راه متداول برای یادگیری در برابر مجموعه دادههای عظیم (زمانی که با محدودیتهای زمانی/مکانی مواجه میشوید) وجود دارد: 1. تقلب :) - فقط از یک زیر مجموعه «قابل مدیریت» برای آموزش استفاده کنید. از دست دادن دقت ممکن است به دلیل قانون کاهش بازده ناچیز باشد - عملکرد پیش بینی مدل اغلب قبل از اینکه تمام داده های آموزشی در آن گنجانده شود، صاف می شود. 2. محاسبات موازی - مسئله را به بخش های کوچکتر تقسیم کنید و هر کدام را در یک ماشین/پردازنده جداگانه حل کنید. اگرچه شما به یک نسخه موازی از الگوریتم نیاز دارید، اما خبر خوب این است که بسیاری از الگوریتم های رایج به طور طبیعی موازی هستند: نزدیکترین همسایه، درختان تصمیم و غیره. آیا روش های دیگری وجود دارد؟ آیا قانون کلی برای استفاده از هر کدام وجود دارد؟ اشکالات هر رویکرد چیست؟ | یادگیری بر روی مجموعه داده های عظیم |
23064 | این چیزی است که بیشتر در رابطه با پیش بینی آب و هوا در مورد آن تعجب کرده ام، اما می خواهم سؤال کلی را بپرسم زیرا هر از گاهی در زمینه های دیگر مطرح می شود. فرض کنید من یک فرآیند دارم که به $F$ نشان داده شده است، که با توجه به حالت اولیه $x$، یک نتیجه $y$ از میان مجموعهای مجزا از نتایج ممکن ایجاد میکند: $F(x) \in\\{y_1،\ldots ,y_k\\}$. این فرآیند غیر قطعی است، به طوری که اجرای آن چندین بار با یک حالت اولیه $x$ همیشه یک نتیجه را ایجاد نمی کند. همچنین، فرض کنید من یک مدل نظری برای فرآیند دارم که با توجه به $x$، توزیع احتمال را بر روی نتایج مختلف $y_1، \ldots، y_k$ پیشبینی میکند. من می خواهم این فرضیه را آزمایش کنم که مدل درست است. یا به طور دقیق تر، با توجه به فرضیه زیر: > برای همه حالت های اولیه $x$، توزیع نتایج حاصل از فرآیند > به توزیع احتمال پیش بینی شده توسط مدل همگرا می شود زیرا > تعداد اجراهایی که از حالت $x$ شروع می شوند به بی نهایت نزدیک می شود. . میخواهم بدانم در چه سطحی میتوانم این فرضیه را با توجه به مجموعهای از نقاط داده، که هر کدام از یک حالت اولیه $X_i$ و نتیجه مربوطه $Y_i$ تشکیل شدهاند، رد کنم. اگر همه حالت های اولیه $X_i$ یکسان باشند، ظاهراً می توانم این کار را با استفاده از تست $\chi^2$ پیرسون یا تست دقیق فیشر انجام دهم. (لطفا اگر این اشتباه است مرا تصحیح کند) اگر چندین حالت _متفاوت در بین $\\{X_i\\}$ وجود دارد، می توانم داده ها را بر اساس حالت اولیه گروه بندی کنم و تست Pearson یا Fisher را در گروهی که $X_i= است اجرا کنم. x_1$، و در گروهی که $X_i=x_2$ و غیره همه به طور جداگانه. به این ترتیب میتوانم سطح معناداری را برای فرضیه مرتبط تعیین کنم > برای _یک حالت اولیه_خاص $x_j$، توزیع نتایج... _(مانند > بالا)_ بهطور جداگانه برای هر $x_j$. اما من به دسته ای از سطوح اهمیت فردی برای حالت های اولیه مختلف علاقه ای ندارم. من مایلم آزمون آماری _one_ را داشته باشم که _تمام_ داده های من را ترکیب می کند و سطح معنی داری _one را برای کل مدل به من می دهد. این امر ضروری است زیرا، در حالت شدید، همه $X_i$ متمایز هستند، بنابراین اگر دادههای خود را بر اساس حالت اولیه گروهبندی کنم، هر گروه فقط یک عنصر دارد - که مطمئناً تست پیرسون و تا حد زیادی فیشر نیز است. اساسا بی فایده بنابراین، به طور خلاصه: **آیا آزمون آماری وجود دارد که به من سطح معناداری بدهد که بتوانم فرضیه ذکر شده در بالای سوال را رد کنم؟** اگر نه به طور کلی، آیا فرضیاتی وجود دارد که آن را ممکن می کند؟ (مثلاً آیا اگر $x_j\in\mathbb{R}^n\forall x_j$ برای برخی از $n$های شناخته شده، ثابت و متناهی مهم است؟) یا اینکه این غیرممکن است، و در این صورت، دلیل آن چیست؟ ? در صورتی که واضح نبود، این مثال متعارفی است که در ذهن داشتم: $x$ وضعیت فعلی جو (دما، فشار، رطوبت، و غیره) جمع آوری شده در ایستگاه های هواشناسی در سراسر ایالات متحده، به علاوه داده های ماهواره ای است. به علاوه چیزهای دیگر؛ پیش بینی چیزی شبیه P(باران)=0.6، P(ابر)=0.3، P(آفتابی)=0.1 در مکان مشخص و زمان آینده خواهد بود. چند سوال قبلا پرسیده شده است که من پیدا کرده ام که پاسخ های مرتبطی دارند، به خصوص این یکی و این یکی. در بین آنها، چندین روش برای _مقایسه_ پیش بینی های احتمالی فهرست شده است: * امتیاز بریر * قوانین امتیازدهی * رگرسیون لجستیک * منحنی ROC اما تا آنجا که می توانم بگویم (و ممکن است اشتباه کنم)، همه اینها معیارهای مقایسه ای را ارائه می دهند، نه واقعی. اهمیت آماری - به عبارت دیگر، نتیجه یک آزمون داده شده (مانند نمره بریر) فقط برای مقایسه با نتایج یک آزمون مشابه در یک آزمون متفاوت مفید است. مدل نظری * * * من به خصوص در مورد آمار تجربه ندارم، بنابراین اگر مفاهیم پیشرفته ای در پاسخ به این موضوع دخیل هستند، بسیار خوب است که برخی از منابع برای مطالعه بیشتر داشته باشیم. | آیا راهی برای آزمایش یک پیشبینی احتمالی برای یک آزمایش غیرقابل کنترل وجود دارد؟ |
61240 | من در حال تحقیق در مورد سطوح ویتامین D بازیکنان حرفه ای و آماتور فوتبال و ارتباط با عواملی مانند رنگ پوست، مصرف ویتامین D و غیره هستم. نمی دانم از کدام آزمایش استفاده کنم. من به شما ایده ای از وضعیت می دهم: * من یک متغیر پیوسته دارم: سطح ویتامین D اندازه گیری شده * یک متغیر طبقه بندی شده: رنگ پوست (چه سیاه یا سفید) من در مورد ANOVA یک طرفه خوانده ام، اما به سه گزینه برای متغیر مقوله ای نیاز دارد. من از آزمون ANOVA استفاده کردم، مقدار p 0.005 بود. آیا می توان از این آزمون فقط با دو گزینه برای متغیر طبقه بندی استفاده کرد؟ یا تست دیگری هست که بتوانم استفاده کنم؟ و اگر امکان استفاده از ANOVA وجود دارد، آیا مقدار F به معنای چیزی است یا فقط مقدار p؟ | از کدام آزمایش برای مقایسه سطوح ویتامین D استفاده کنید |
55300 | من در آمار بسیار مبتدی هستم و مشکل من به شرح زیر است: من مجموعه ای از 20000 مشاهدات طبقه بندی شده دارم (این کل مجموعه داده من است، مثلاً DATA1) که نسبت مشخصی از بله و نه دارد. -1: بله، id-2: بله، id-3: خیر، id-4: نه، ... id-20000: بله). از کل مجموعه داده، من یک زیرمجموعه خاص از 3000 مشاهده مورد علاقه خود دارم (مثلاً DATA2) (مثلاً: id-1: بله، id-2: بله و غیره). من می خواهم آزمایش کنم که آیا نسبت بله/نه در این نمونه خاص به طور قابل توجهی بیشتر یا کمتر از کل مجموعه داده است. اولین رویکردی که قرار است انجام دهم، تست کای اسکوئر است، درست است؟ اگر چنین است، جدول چگونه باید باشد؟ روش دیگری که در نظر دارم (و فکر میکنم صحیحترین است)، نمونهبرداری تصادفی از کل مجموعه داده (DATA1) 3000 مشاهده برای N = 1000 دور است و برای هر دور تعداد «بله» و «خیر» حساب میشود. . من تصور می کنم که نمی توانم توزیع را رسم کنم و امتیاز z را بدست بیاورم زیرا متغیرها دسته بندی هستند. بنابراین، من در این نقطه گیر کرده ام زیرا نمی دانم چگونه داده های شبیه سازی شده را با داده های مشاهده شده (DATA2) مقایسه کنم و با اهمیت آماری یا مقادیر p محاسبه شده به پایان برسانم. کسی می تواند در این مشکل به من کمک کند؟ ساده ترین راه برای من یک راه حل در R است. خیلی ممنون! | چگونه می توان آزمون تصادفی سازی را برای داده های طبقه بندی شده و/یا خی دو انجام داد؟ |
55302 | برای مجموعه داده های نامتعادل مختلف که نسبت کلاس کمیاب از 30٪ (نادر) تا 5٪ (نادر) متفاوت است، بهترین راه برای تعریف Perc.Over و Perc.Under در روش SMOTE چیست. DMwR؟ در حال حاضر من از این فرمول استفاده می کنم: بیش از = ( (0.6 * COMMON_NO) - RARE_NO ) / RARE_NO زیر = (0.4 * COMMON_NO) / (RARE_NO * بیش از) و در نهایت آن را به نسبت درصد تبدیل می کنم: Over_Perc = گرد (بیش از، 1) * 100 Under_Perc = گرد(زیر، 1) * 100 و سپس آن را به عنوان SMOTE تغذیه کنید زیر: newData <- SMOTE(Label ~., df, perc.over=Over_Perc, perc.under=Under_Perc) نکته این است که اگر 30٪ داده کمیاب در مجموعه آموزشی وجود داشته باشد، انجام طبقه بندی بدون 'SMOTE' می دهد. عملکرد بهتر از استفاده از SMOTE! در حالی که با داشتن 5 تا 20 درصد دادههای کمیاب در مجموعه آموزشی، با استفاده از «SMOTE»، الگوریتم طبقهبندی عملکرد بسیار بهتری ارائه میدهد، p.s. من از همبستگی متیو و AUC برای اندازه گیری عملکرد استفاده می کنم. | چگونه پارامترهای SMOTE را در بسته R DMwR تنظیم کنیم؟ |
105188 | من می خواهم نتایج عملکرد دو پیش بینی کننده مختلف را روی یک مجموعه داده نمایش دهم. من یک ماتریس سردرگمی برای هر یک از نتایج پیش بینی کننده ها در مورد تست دارم. من می خواهم این ماتریس های سردرگمی را در یک نشریه دانشگاهی ارائه کنم (با تمرکز بر تفاوت های مثبت کاذب بین این دو). این ماتریس ها 2x2 هستند. کدام گزینه برای ارائه دو اطلاعات ماتریس سردرگمی مناسب است؟ 1. به عنوان یک زیرشکل به همراه شکل مسیر داده؟ 2. در عنوان شکل مسیر داده ها؟ 3. دو ماتریس در محیط معادلات در بحث نتایج؟ 4. به عنوان فهرستی از اعداد درون یک جمله در بحث؟ | راه های موثر برای نمایش ماتریس های سردرگمی از پیش بینی های مختلف در یک نشریه دانشگاهی؟ |
31954 | چیزی که من فکر می کنم این است که ویژگی های PCA، ویژگی های LDA و ویژگی های LBP را با هم ترکیب کنم تا دقت بالاتری به دست آوریم، زیرا فکر می کنم این سه ویژگی همه نوعی بردار هیستوگرام هستند و وقتی برچسب یک تصویر آزمایشی را تعیین می کنیم، هیستوگرام را مقایسه می کنیم. از تصویر آزمایشی به هیستوگرام تصاویر موجود. بنابراین آیا امکان ترکیب بردارهای ویژگی با هم وجود دارد؟ با این حال من فکر می کنم هیستوگرام ویژگی LBP بسیار طولانی است. اگر از شبکههای 8 در 8 استفاده کنیم، هیستوگرام 8 دلار \ برابر 8 \ برابر 256 = 16384 دلار خواهد بود. و بردارهای وزن صورت ویژه به اندازه تعداد مؤلفه های صورت ویژه هستند که ما انتخاب می کنیم، مثلاً 80. بنابراین مطمئن نیستم که بتوانیم این کار را انجام دهیم یا خیر. من به این فکر خواهم کرد و از هرگونه کمکی استقبال می کنم. | چگونه ویژگی های استخراج شده توسط PCA، LDA و LBP را ترکیب کنیم؟ |
55301 | من می خواهم یک عدد تصادفی از 1 تا 100 رسم کنم. اگر این عدد زوج باشد، می خواهم از اعداد فرد بین 1 تا 100 یک عدد تصادفی رسم کنم. اعداد زوج بین 1 و 100. آیا سه استراتژی زیر یکسان هستند؟ (1) یک عدد تصادفی از کوزه رسم کنید. همه اعداد فرد (یا زوج) را مرتب کنید و سپس یک عدد تصادفی از اعداد باقیمانده بکشید. (2) یک عدد تصادفی از کوزه رسم کنید. عدد دومی را از کوزه بکشید و آن را به عقب برگردانید تا عدد دوم فرد (یا زوج) نباشد. (3) دو عدد از کوزه بکشید و آنها را به عقب برگردانید تا زمانی که هر دو فرد (یا زوج) نباشند. به عنوان یک مثال در دنیای واقعی، تصور کنید که من میخواهم از مجموعهای از پروباندها یک پروبند بکشم. سپس میخواهم این شخص را با یک همسر دوم از جنس مخالف جفت کنم. من میخواهم جنسیت اولین بند تصادفی باشد (مثلاً به دلیل جلوههای توالی)، بنابراین نمیتوانم ابتدا یک مرد و سپس یک زن را ترسیم کنم، یا برعکس. من می توانم ابتدا یک مرد را قبل از یک زن بکشم، سپس یک زن را قبل از یک مرد، سپس دوباره یک مرد را قبل از یک زن و غیره. اما می خواهم از نظم قابل پیش بینی آن اجتناب کنم. برخلاف اعلانی که هنگام وارد کردن عنوان این سوال ظاهر می شود، این یک سوال ذهنی نیست که نظر یا حدس و گمان بخواهد. من مطمئن هستم که تصادفی نسبی رویدادها قابل محاسبه است: من حدس می زنم که شما باید احتمالات را برای رسم یک عدد خاص تحت هر سه شرط محاسبه کنید، و بهترین تصادفی نسبی به دست می آید، جایی که این عدد کمترین احتمال را دارد. متأسفانه من نمی دانم چگونه این را محاسبه کنم. بنابراین من اینجا می پرسم _من تگ های مناسب برای این سوال را نمی دانستم. لطفا آنها را تغییر دهید، اگر احساس می کنید دیگران بهتر هستند._ | بهترین فرآیند برای رسم تصادفی یک عدد فرد و یک عدد زوج |
51488 | من مجموعهای از مجموعه دادهها را دارم که از آزمودنیها به هنگام انجام یک کار شناختی خاص ضبط شده است. داده ها از 16 کانال و تعدادی نقطه نمونه در هر کانال تشکیل شده است و من می خواهم این داده ها را بر اساس وظیفه شناختی در حال انجام طبقه بندی کنم (همه چیز دارای برچسب است). مسئله این است که من حجم زیادی از داده ها ندارم (تقریبا 60 آزمایش در هر جلسه، 30 آزمایش برای هر کار شناختی) و 2 جلسه دارم. من سعی می کنم یک طبقه بندی کننده تجزیه و تحلیل تشخیص خطی (LDA) برای طبقه بندی این داده ها آموزش دهم. طبقهبندیکننده بعداً در **زمان واقعی** مورد استفاده قرار میگیرد تا به هر تعداد نمونه، نوعی خروجی ارائه دهد. من از یک اعتبارسنجی متقاطع 5 برابری برای اندازه گیری خطای تعمیم طبقه بندی کننده خود استفاده کردم. مشکل این است که وقتی چندین بار این اعتبار سنجی متقاطع 5 برابری را اجرا می کنم، نتایجی که به دست می آورم اصلا ثابت نیستند. در عوض، تفاوت قابل توجهی در دقت کلی وجود دارد (به عنوان مثال، اعتبارسنجی متقاطع 5 برابری اول ممکن است دقت متوسط 80٪، 2 بازدهی دقت 65٪، بازده سوم به طور متوسط 72٪ و غیره را به دست آورد). آیا این طبیعی است؟ اگر نه، چه دلایلی می تواند باشد؟ | ناهماهنگی در نتایج اعتبارسنجی متقابل |
74902 | من تازه وارد یادگیری ماشین هستم. برای مسئله مجموعه داده عنبیه ما می توانیم با رگرسیون لجستیک چند جمله ای و همچنین شبکه عصبی مشکل را حل کنیم. کدام یک از نظر هزینه و خطا عملکرد بهتری را ارائه می دهد؟ | مجموعه داده عنبیه چگونه حل کنیم |
23393 | تجزیه و تحلیل همبستگی متعارف (CCA) _(و معادل هسته آن (KCCA))_ را می توان برای یافتن روابط خطی _(غیرخطی)_ بین دو مجموعه داده (یا نما) چند متغیره تراز شده استفاده کرد. آیا راهی برای گسترش بیش از دو نما وجود دارد؟ من تصور می کنم یکی از راه ها اعمال CCA/KCCA به صورت بازگشتی در یک ساختار درختی است، اما به نظر می رسد که این کار نسبتاً ناکارآمد باشد. آیا بهینه سازی واحدی وجود دارد که بتواند در یک مرحله به این هدف دست یابد؟ یا آیا روش های جایگزینی وجود دارد که همین کار را انجام دهد؟ | CCA/KCCA برای بیش از دو نما |
55308 | من در حال تجزیه و تحلیل یک پرسشنامه با استفاده از SPSS هستم، اما نمی دانم چگونه سؤالات رتبه بندی یا سؤالاتی را که در آن از پاسخ یک سؤال برای پاسخ به سؤال بعدی استفاده می شود، تجزیه و تحلیل کنم. کسی میتونه کمک کنه لطفا؟ | تحلیل آماری سوالات متوالی در SPSS |
73022 | من توزیع بعدی زیر را برای $v$ $$f(v)\propto v^{-p/2}\exp\left(-\frac{1}{v}\frac{s}{2}\right دارم )$$ و به وضوح $$v\sim\text{Inverse-Gamma}\left(\frac{p}{2}-1,\frac{s}{2}\right)$$ حالا میتوانم بگویم که $$v^{-1}\sim\text{Gamma}\left(\frac{p}{2}-1,\frac{s}{2}\right)$$ | رابطه بین گامای معکوس و توزیع گاما |
51485 | من در حال آزمایش علیت بین دو سری هستم. PACF و ACF تأخیرهایی را انتخاب میکنند که در صورت استفاده، در آزمونهای علیت معنادار نیستند. با بازی کردن با تأخیر متوجه میشوم که برای تأخیرهای دیگر اهمیت علیت دریافت میکنم... مشکلات مربوط به عدم استفاده از تأخیر انتخاب شده توسط ACF/PACF چیست؟ برای ثبت، محدوده بین مقادیر ACF/PACF -3.07 تا -3.05 بود. | علیت گرنجر - با استفاده از تاخیر متفاوت از انتخابی که توسط ACF/PACF انتخاب شده است |
32903 | پس از مبارزه با مدل خودکار پواسون (معروف به شبکه تصادفی مارکوف با توزیعهای پواسون شرطی) تلاش برای وادار کردن نمونهگر گیبس برای به دست آوردن نمونه گسسته از شبکه (از آنجایی که من توزیعهای شرطی را میدانم) متوجه شدم که هرگز نسخه گسسته این نمونهگر را ندیدهام. من تعجب می کنم که در مورد نمونه برداری از توزیع گسسته (که به نمونه برداری بیزی پسین محدود نمی شود) چه وضعیتی وجود دارد؟ آیا چیزی مانند نمونهگر گیبس برای نمونهبرداری از توزیعهای گسسته شرطی وجود دارد؟ | آخرین وضعیت در مورد نمونه برداری از توزیع گسسته چیست؟ |
73028 | من با روش خاص مورد نیاز برای استفاده از روش معکوس در مسئله زیر گیج شده ام، مشکل اینجاست: > توزیع مخلوطی از دو توزیع نرمال را در نظر بگیرید، جایی که > PDF مورد نظر $f(x)$ توسط: > > $ داده می شود. f(x) = r\، f_a(x) + (1 − r)\، f_b(x)$، که در آن $f_a$ و $f_b$ PDF های معمولی هستند > با معنی $a$ و $b$، به ترتیب (انحراف استاندارد برای هر دو 1 است). > با استفاده از دو متغیر تصادفی یکنواخت $u_1$ و $u_2$، توضیح دهید که چگونه می توانیم از روش وارونگی برای نمونه برداری از $f(x)$ استفاده کنیم. توجه داشته باشید، دستور qnorm در R > ممکن است در اینجا مفید باشد. سردرگمی من از دو متغیر تصادفی یکنواخت $u_1$ و $u_2$ است. فکر من این است که cdf را پیدا کنیم، $F(x)$ (که از طریق pnorm() در R بدست میآید)، و سپس میتوانیم از روشهای عددی (مانند نیوتن-رافسون) برای تولید x استفاده کنیم. \sim f(x)$، بنابراین در اینجا فقط به یک توزیع یکنواخت نیاز دارد و به qnorm() نیازی ندارد. روش من چه اشکالی دارد؟ آیا مشکل روش بهتری را پیشنهاد می کند؟ | نمونه برداری تبدیل معکوس برای توزیع مخلوط دو توزیع نرمال |
31952 | من هنوز نمی توانم مزیت پولیش میانه را نسبت به یک میانه معمولی برای خلاصه کردن کاوشگر برای ساختن کاوشگرها در تجزیه و تحلیل ریزآرایه بفهمم. همانطور که از اینجا فهمیدم، ایده استفاده از میانه آرایه های مختلف برای خلاصه کردن داده ها به همراه میانه کاوشگرهای مختلف است: استفاده از پولیش میانه برای انتخاب ویژگی من چند شبیه سازی انجام داده ام تا ببینم چه چیزی ممکن است اتفاق بیفتد اگر تصور کنیم که زیر یک مجموعه داده ریزآرایه شبیهسازی است، که در آن ستونها پروبهایی هستند که میخواهیم خلاصه کنیم، و ردیفها تراشههای مختلف ریزآرایه هستند: library(preprocessCore) > y <- matrix(10+rnorm(100)،20، 5) > y [,1] [,2] [,3] [,4] [,5] [1,] 9.334358 9.993648 8.551274 10.109988 10.243317 [2،] 11.448786 8.908376 11.536720 10.679236 10.831209 10.831209 [3،399981. 9.740086 10.103683 9.349783 [4،] 10.552108 12.772855 10.484486 9.362849 9.426693 [5،] 10.05658974749. 10.283063 9.909602 [6،] 12.187766 10.290644 8.770036 11.241425 12.856710 [7،] 11.071675 9.93200010 9.93200010 11.013961 [8،] 9.560737 9.234133 11.307681 8.672639 9.570637 [9،] 8.952978 8.549438 9.962865 8.521 8.521. 8.853584 10.117102 10.040929 9.551693 9.880730 [11،] 8.794862 11.276158 7.579099 9.167762 8.880730 8.880730 9.873338 9.081718 9.501927 11.956930 [13،] 10.150289 8.472951 9.367948 9.376648 9.963847 9.963847 [14،127] 838110. 11.253192 8.169423 10.286973 [15،] 10.424398 10.356835 10.004031 10.790331 9.922300 [16،] 10.4724393 9.597307 8.726760 [17،] 11.447273 10.366120 11.620400 9.698011 10.706059 [18،] 9.597951 11.16161659 11.16161659 10.945888 [19،] 8.796656 10.962160 10.204844 7.944251 9.332819 [20،] 9.462135 10.621933 9.691741019 ما می توانیم 9.69174130 ستون ها را با استفاده از میانه خلاصه کنید (که هر کاوشگر (یعنی ستون) را به طور جداگانه بررسی می کند، و همچنین با استفاده از پرداخت میانه (که ستون ها و ردیف ها را در نظر می گیرد، جزئیات بیشتر در http://www.stats.ox.ac). uk/pub/MASS4/VR4stat.pdf > colSummarizeMedian(y) $Estimates [1] 10.211050 10.055375 9.983448 9.574500 9.915951 $StdErrors [1] NA NA NA NA NA > colSummarizeMedianpolish(y) $Estimates [1] 9.975078 9.819878747 9.907471 $StdErrors [1] NA NA NA NA NA سپس با تغییر یکی از آرایه ها یک outlier اضافه می کنم و دوباره محاسبه می کنم. همانطور که انتظار داریم میانه ثابت می ماند، اما میانه پولیش اینطور نیست. با این حال، من نمی دانم که چرا پولیش میانه در اینجا بهتر از پاسخ میانه است؟ من نمی دانم که چرا ما اطلاعات را از ستون های دیگر قرض می گیریم و از این چه چیزی به دست می آوریم. به نظر می رسد که این امر به ویژه درست است زیرا اغلب برخی از ستون ها تراشه های حاصل از درمان های تفاضلی هستند. شاید من در اینجا چیزی نسبتاً اساسی را از دست داده باشم، اما هر کمکی قابل قدردانی است، من تا حدودی در یک بلوک ذهنی هستم. همچنین، اگر مردم فکر میکنند که این برای یک سایت بیوانفورماتیکتر q+a مناسبتر است، لطفاً به من اطلاع دهید! > y[20،] <- y[20،] + rnorm(5، sd=5) > colSummarizeMedian(y) $Estimates [1] 10.348104 9.990152 9.983448 9.526810 9.911 NAtE951 $NA. colSummarizeMedianpolish(y) $Estimates [1] 10.030423 9.879213 9.933043 9.713632 9.893364 $StdErrors [1] NA NA NA NA NA | مزیت پولیش میانه نسبت به میانه چیست؟ |
4619 | من دو نظرسنجی از دو جمعیت مجزا دارم (نمیدانم که لزوماً متمایز هستند، اما از دو پایگاه داده متفاوت هستند) که مجموعهای از سؤالات مشابه را میپرسند. برخی از سؤالات جمعیت شناختی اولیه هستند (مانند سن، درآمد)، در حالی که سؤالات دیگر کمی دقیق تر یا در مورد نظرات آنها هستند (مثلاً ترجیحات برند، عادات خرج کردن). چگونه از نظر آماری ثابت کنم که این دو جمعیت یکسان یا حداقل قابل مقایسه هستند؟ میدانم که میتوانم برای سؤالات فردی آزمون t انجام دهم، اما آیا راهی برای ایجاد شباهت در بیش از یک بعد وجود دارد؟ هدف ترکیب نظرسنجی از این دو جمعیت در یک سری داده های نظرسنجی است. به عنوان مثال، ممکن است نظرسنجی A را هر شش ماه یکبار اجرا کنیم، اما نظرسنجی B را هر ماه اجرا می کنیم، به جز زمانی که نظرسنجی A را اجرا می کنیم. سپس می خواهم نتایج نظرسنجی A و نظرسنجی B را ترکیب کنم تا یک سری داده های نظرسنجی ماهانه داشته باشیم. | تعیین اینکه جامعه نمونه گیری شده از دو نظرسنجی جداگانه یکسان است |
56651 | من می خواهم تغییر یک سیاست را در یک جامعه اندازه گیری کنم، یعنی بررسی کنم که آیا بعد از اعمال سیاست جدید تغییری ایجاد شده است یا خیر. خط مشی قدیمی ایجاب می کرد که مردم برای شرکت در یک جامعه باید حقی را از دست می دادند (همانطور که مجلات دانشگاهی کار می کنند، جایی که معمولاً از نویسندگان خواسته می شود حق چاپ خود را واگذار کنند). سیاست جدید این الزام را کنار گذاشت. سیاست قدیمی میتوانست برخی افراد را از مشارکت (یا مشارکت) در جامعه بازدارد. فرضیه این خواهد بود: * $H_0$: تغییر در خط مشی هیچ تاثیری در مشارکت (مشارکت) ایجاد نمی کند * $H_1$: تغییر در خط مشی تأثیری در مشارکت (مشارکت) ایجاد می کند. به نظر من باید از Chi-square (با ماتریس اقتضایی) استفاده کنید زیرا می خواهم تغییرات جمعیت (مشارکت یا شرکت کنندگان) را اندازه گیری کنم. جنبه های زیر مرا در مورد چگونگی برخورد با مشکل مردد می کند: * شرکت کنندگانی هستند که قبل و بعد از تغییر خط مشی مشارکت دارند. بنابراین گروه های قبل و بعد مستقل نیستند. (آیا این برای طرح تحقیق اهمیت دارد؟) * سطح مشارکت نه قبل و نه بعد از آن همگن نیست. از آنجایی که این مشارکتها در یک دوره زمانی (سالها) اتفاق میافتند، قبل از تغییر، شرکتکنندگانی بودند که برای مدت کوتاهی مشارکت داشتند، دیگران برای مدت طولانیتر و دیگرانی بودند که هنوز هم مشارکت داشتند. سؤالات: * آیا Chi-Square مناسب ترین رویکرد برای این مشکل است؟ اگر نه، چه رویکردی مناسب خواهد بود؟ * آیا منطقی است که نگران جنبه های قبلی ذکر شده باشیم؟ اگر چنین است، چگونه باید به آنها نزدیک شد؟ * آیا چیز دیگری وجود دارد که باید در نظر بگیرم؟ (چیزی که می تواند تجزیه و تحلیل من را باطل کند یا چیزی که می تواند آن را بهبود بخشد) پس از تجزیه و تحلیل یک جامعه و اگر فرضیه صفر ($H_0$) رد شد، سعی می کنم آن را تجزیه و تحلیل کنم که آیا تغییراتی در سطح وجود دارد یا خیر. مشارکت شرکت کنندگان فعال در هر دو دوره قبل و بعد. پس از آن، من جوامع دیگر با تغییرات سیاست مشابه را تجزیه و تحلیل می کنم و آنها را (در صورت وجود) مقایسه می کنم. در نهایت، این یک مطالعه _ex post facto_ است. من سؤالات دیگری را بررسی کرده ام، اما آنها متفاوت به نظر می رسند: * چگونه می توان تغییر قابل توجهی در داده های سری زمانی به دلیل تغییر سیاست تشخیص داد؟ این در مورد تغییر در رفتار یک فرد است، نه سطح مشارکت در یک جمعیت. * برای تعیین اینکه آیا تغییر خط مشی تأثیر آماری قابل توجهی بر ثبت وب سایت داشته است، از چه آزمایشی باید استفاده کنم؟ ممکن است اینطور باشد، اما معیار مشکل فقط ثبت نام است، نه مشارکت یا مشارکت واقعی. | اندازه گیری تغییر سطح مشارکت در یک جمعیت پس از تغییر سیاست |
31951 | من یک مجموعه داده بزرگ با چندین پاسخ در مورد هزینه های نیروی کار یک سازمان دارم. من می خواهم این داده ها را به صورت گرافیکی نشان دهم. معمولاً کاری که ما انجام میدهیم این است که یک نمودار میلهای پشتهای (با استفاده از R) از درصدها ارائه میکنیم. با این حال، برخی از نقاط پرت شدید در داده ها وجود دارد، و میانگین توسط این اعداد پرت کاملاً منحرف می شود. بدیهی است که میانه ترجیح داده می شود. با این حال، نمایش این در نمودار میله ای انباشته بسیار دشوارتر می شود. در اینجا نمونه ای از داده ها آورده شده است: میانگین هزینه A 51.39647 49.5389570 Cost B 15.07913 4.2676470 Cost C 5.98685 0.2238874 هزینه D 27.53755 16.954 -------------------------------- SUM 100.00000 70.9845144 همانطور که می بینید، میانگین نمایش خوبی از میانه نیست . کاری که من در ابتدا انجام داده بودم این بود که یک نمودار میله ای انباشته شده از میانگین تهیه کردم. با این حال، من از این راضی نیستم، زیرا فکر نمیکنم نمایش خوبی از دادهها باشد. من می خواهم نماینده متوسط باشد. من به نرمال کردن دادههای میانه فکر کردهام، بهطور مثال، کلاس A به 49.54/70.98 تبدیل شود، اما احتمالاً حتی کمتر از گزارش میانگین است. با استفاده از میانه، به راحتی می توان گفت: شرکت به طور متوسط 4٪ از هزینه های نیروی کار خود را صرف هزینه B می کند. این برای گزارش یک آمار خوب عمل می کند. با این حال، من می خواهم آمار را به عنوان _کسری از _همه_ هزینه های شرکت _متوسط_ گزارش کنم. پس دیگر نمی توانم آنچه را که در بالا گفتم، بگویم، زیرا میانگین ها به 100 نمی رسند. من به یک روش خوب برای گزارش نیاز دارم، معیار هزینه در هزینه A w است، در هزینه B x٪ است، در هزینه C است. y% است و در هزینه D z% است، به طوری که مجموع (w,x,y,z)=100 است و به خوبی نماینده جمعیت است. سوال من این است که آیا کسی روش خوبی برای گزارش این داده ها می داند، ترجیحاً در نمودار میله ای انباشته ای که نشان می دهد شرکت متوسط چگونه هزینه های خود را بین این چهار هزینه تقسیم می کند؟ ایده بزرگ این است که درک درستی از نحوه تقسیم هزینه های شرکت «متوسط» بین این چهار هزینه داشته باشیم. | چگونه می توان نسبت های میانه را با استفاده از نمودارهای میله ای انباشته به بهترین شکل نشان داد؟ |
56657 | هدف از تجزیه و تحلیل، یافتن همبستگی بین زمینه تولد و قد و در عین حال کنترل سن است. هر فرد دارای شماره شناسنامه، سن، قد و زمینه تولد است. این قسمت آخر چیزی است که من را به دردسر می اندازد. سه نوع زمینه تولد وجود دارد: خارجی، به این معنی که آنها در کشور دیگری متولد شده اند، مهاجر، به این معنی که آنها در عرض 9 سال پس از مهاجرت مادرشان به ایالات متحده متولد شده اند، و محل تولد، به این معنی که آنها پس از 10 سال به دنیا آمده اند. مادر در آمریکا من مطمئن نیستم که در این شرایط چگونه سن را کنترل کنم. آیا باید برای هر سنی، مانند سن 10 سالگی، در گروه تعیین شده، متغیرهای ساختگی جداگانه ایجاد کنم؟ هر چیزی که من را در مسیر درست راهنمایی کند، قدردانی می شود. | نحوه کنترل یک متغیر |
61242 |  من با تعیین تأثیر اندازه نمونه بر شکل احتمال قبلی مشکل دارم. توزیع مقادیر پارامتر در $x$ و prob در محور $y$ قرار دارند. منحنی سمت راست شامل افراد (حجم نمونه کوچکتر)، در حالی که سمت چپ شامل کلنی ها (با حجم نمونه بزرگتر) است. من فقط نمی دانم چرا موقعیت میانگین تغییر می کند. من انتظار داشتم که نمونه بزرگتر اوج بیشتری داشته باشد (حد مرکزی) اما نه اینکه میانگین تغییر کند. آیا کسی می تواند به من بگوید که آیا مکانیزمی وجود دارد که منجر به رفتار مشاهده شده در تصویر شود؟ | جمعیت و نمونه با معنی بسیار متفاوت: چرا اینطور است؟ |
31955 | من اخیرا مقاله ای را خوانده ام که از مدل های ترکیبی خطی تعمیم یافته برای تخمین مقادیر میانگین سالانه و ماهانه برای متغیر پاسخ در مدل استفاده کرده است. متغیر پاسخ یک متغیر پیوسته با توزیع نرمال بود و از سال و ماه به عنوان پیش بینی کننده در مدل استفاده شد. سپس میانگین سالانه و ماهانه برای متغیر پاسخ محاسبه شد. 1. میانگین سالانه و ماهانه برای متغیر پاسخ در یک مدل ترکیبی خطی تعمیم یافته چگونه برآورد می شود؟ 2. میانگین محاسبه شده توسط یک مدل خطی تعمیم یافته با میانگین محاسبه شده با دست چگونه متفاوت است؟ | برآورد مدل ترکیبی خطی تعمیم یافته به چه معناست و چه تفاوتی با محاسبه میانگین دستی دارد؟ |
31959 | من فهرستی از رای دهندگانی دارم که در انتخابات محلی من با سن، جنسیت و حوزه خود شرکت کردند. فهرستی هم از نتایج این انتخابات به تفکیک حوزه دارم. آیا راهی برای یافتن روابط بین دو مجموعه داده وجود دارد؟ | رای دهندگان ثبت نام شده را با نتایج انتخابات محلی مرتبط کنید |
93360 | سلب مسئولیت: من یک مهندس مکانیک هستم، نه یک مرد آمار، بنابراین گاهی اوقات چیزهایی را از دست می دهم. **زمینه:** من یک نسخه از مدل های احتمال کاربردی با کاربردهای بهینه سازی نوشته شلدون ام. راس (پیوند) دارم و در حال کار بر روی محتوا هستم و مطمئن می شوم که آن را درک کرده ام. در صفحه 8 موارد زیر را به عنوان نمونه ای از احتمال مشروط آورده است: > یک زندانی در سلولی حاوی سه در قرار می گیرد. اولین درب بلافاصله به آزادی منتهی می شود. در دوم به تونلی منتهی می شود که پس از یک روز سفر او را به سلول باز می گرداند. در سوم به تونلی مشابه منتهی می شود > که او را پس از سه روز به سلول خود باز می گرداند. با فرض اینکه زندانی همیشه احتمال دارد یکی از درها را انتخاب کند، مدت زمان مورد انتظار تا رسیدن زندانی به آزادی چقدر است؟ سپس می گوید: $$ E\left[ Y | X =1 \راست ] = 0 $$ $$ E\ چپ[ Y | X =2 \راست ] = 1 + EY $$ $$ E\ چپ[ Y | X =3 \right ] = 3 + EY $$ از این نتیجه میشود: $$ EY = \frac {1}{3} \left[0+ \left(1+EY\right)+ \left(3+EY \right) \right ] $$ یا $$ EY = 4 $$ من این را گرفتم و در MatLab پیادهسازی کردم و میلیونها بار آن را اجرا کردم. این کد است: function conditionalProbEx1 clc; همه را ببند y=myfun(1000000); cdfplot(y) [mean(y) median(y)] %my game function [t]=myfun(n) if nargin==0 n=1; پایان t=صفر(n,1); برای i=1:n %initialize t t(i)=1; حلقه = 1; maxloops=200; test=0; while (test==0)&(loops<=maxloops) %انتخاب عدد تصادفی ind=rand; %محاسبه طول زمان برای عدد if ind<=(1/3) t(i)=t(i); test=1; %break elseif (ind<=(2/3))&(ind>(1/3)) t(i)=t(i)+1; elseif (ind<=1)&(ind>(2/3)) t(i)=t(i)+3; حلقه های انتهایی = حلقه ها + 1; end %iterate end return مقادیر من همه اعداد صحیح هستند، اما یک میلیون نمونه در آنجا وجود دارد، بنابراین نباید زیاد خاموش باشد. وقتی آن را رسم میکنم، نتیجه زیر را دریافت میکنم:  دامنه احتمالات تجمعی ماندن در سلول تنها به مدت چهار روز از 48.06٪ تا 60.42٪. میانه را در بر می گیرد. محدوده احتمال تجمعی باقی ماندن در سلول دقیقاً برای سه روز از 48.06٪ تا 44.38٪ یا 3.68٪ متغیر است. **سوال:** چرا تقریباً 4 برابر بیشتر احتمال دارد که 4 روز در سلول بمانید تا 3 روز در سلول بمانید؟ آیا به دلیل بخش 3 روزه حلقه است؟ در صورتی که منطقی باشد، به نظر فراکتال می رسد - تکرار عدم تقارن در اندازه گام. چگونه شهود مکانیکی خود را برای یافتن این معقول تربیت کنم؟ | اختلاف در پاسخ ها را برای احتمال شرطی آشتی دهید |
93365 | چگونه مدلسازی بیزی سلسله مراتبی همبستگی موجود بین متغیرهای مشاهدهشده را ترکیب میکند (y1,....,yn) متشکرم | مدلسازی بیزی سلسله مراتبی |
80618 | من می خواهم بین رضایت شغلی (با پرسشنامه نوع لیکرت) و جنسیت همبستگی پیدا کنم. آیا باید از آزمون کروسکال والیس برای یافتن همبستگی بین دو استفاده کنم؟ | همبستگی بین متغیر ترتیبی و متغیر اسمی |
23391 | ماشین بردار پشتیبان (SVM) چگونه کار میکند و چه چیزی آن را از دیگر طبقهبندیکنندههای خطی، مانند پرسپترون خطی، تحلیل تشخیصی خطی، یا رگرسیون لجستیک متمایز میکند؟ * (* _من به انگیزه های اساسی برای الگوریتم، استراتژی های بهینه سازی، قابلیت های تعمیم، و پیچیدگی زمان اجرا فکر می کنم.) | ماشین بردار پشتیبان (SVM) چگونه کار می کند؟ |
40647 | در تعیین یک مدل اثرات مختلط متقاطع، سعی میکنم تعاملات را نیز لحاظ کنم. با این حال، پیام خطای زیر را دریافت می کنم: خطا در lme.formula (نرخ ~ نازل، تصادفی = ~ نازل | عملگر، داده = جریان) : مشکل nlminb، کد خطای همگرایی = 1 پیام = حد تکرار بدون همگرایی رسیده است (10) مدل دارای موارد زیر است: 1\. 3 نوع نازل (اثر ثابت) 2\. 5 اپراتور، هر کدام با 3 اندازه گیری تکرار در جریان سوخت از 3 نوع نازل. از من خواسته شد که تعامل بین نوع نازل و اپراتور را در مدل لحاظ کنم. این کد من برای مدل است: flow.lme <- lme(rate ~ nozzle, error= nozzle|operator, data=Flow) چرا باید این پیغام خطا را دریافت کنم؟ | خطای LME() - به حد تکرار رسیده است |
93369 | من عملکرد دو الگوریتم $A$ و $B$ را بر اساس یک متریک مقایسه میکنم. برای هر الگوریتم، من نمونه های مستقل 31 دلاری دارم که عملکرد آن را نشان می دهد. این نمونه ها در دو مجموعه گروه بندی می شوند: $X$ و $Y$ (الگوریتم $A$ و الگوریتم $B$، به ترتیب). برای این کار، من از آزمون مجموع رتبهای Wilcoxon با سطح معناداری $\alpha=0.05$ در R استفاده میکنم. این آزمون ناپارامتریک را انتخاب کردهام زیرا هیچ فرضی در مورد توزیع دادهها ندارد. این روش من است: 1. **فرضیه** اجازه دهید $E(X)$ و $E(Y)$ به ترتیب میانگین $X$ و $Y$ باشند. سپس، تست یک دنباله به صورت زیر تعریف می شود: -$H_0$: $E(X) = E(Y)$ (عملکرد هر دو الگوریتم مشابه است) -$H_1$: $E(X) > E( Y)$ (عملکرد $A$ بهتر از $B$ است) 2. **به معنی** $E(X) = 36.87548$، $E(Y)=37.72585$ `> خلاصه (X) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.00 35.09 45.34 36.88 46.63 48.05` `> خلاصه (Y) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 9.332 34.860 41.120 37.730 42.510 48.110` 3. **$A$ در مقابل $B$** `p = wilcox.test(X, Y, alternativa=بزرگتر, conf.level=0.95)$p.value` مقایسه کنید $p=0.0170 < \alpha = 0.05$، سپس $E(X)$ باید بزرگتر از $E(Y)$ باشد (این چیزی است که من فکر می کنم، اما بزرگتر نیست!)، می توانیم $H_0$ را رد کنیم، بنابراین می توانیم نتیجه بگیریم که: _الگوریتم $A$ از الگوریتم $B$ با سطح معناداری $\alpha=0.05$_ بهتر عمل می کند. 4. **$B$ را در مقابل $A$** `p = wilcox.test(Y, X, alternative=greater, conf.level=0.95)$p.value` مقایسه کنید اگر $p=0.9835 > \alpha $، سپس $E(X)$ و $E(Y)$ مشابه هستند (باز هم، حدس من است). ما نمی توانیم $H_0$ را رد کنیم، بنابراین می توانیم نتیجه بگیریم که: _$A$ و $B$ عملکرد مشابهی دارند_. **داده** X = c( 45.51885768، 35.65081119، 44.60124311، 15.39979541، 48.05143243، 47.90604081، 7.58160.060، 7.581630. 40.94718019, 45.34194687, 28.55451125, 46.15113458, 48.03542321, 47.91413840, 45.38912357, 45.38912357, 47.123, 47.104 47.80316539، 34.51956662، 0.05853162، 45.29245167، 48.00199937، 45.28839538، 44.89017125، 424.431، 424.47، 424.47. 43.35755055، 45.52413737، 45.53528261، 45.45233121، 3.04515436) Y = c( 41.603296، 43.005620، 338.37، 38.34 41.342548, 44.344933, 34.030309, 42.012604, 35.718175, 45.203532, 40.482022, 45.345594, 41.1521, 41.1521. 48.111677, 41.117034, 34.713158, 44.972073, 35.091889, 34.206018, 9.332199, 39.776291, 28.213649, 28.213649 35.016681, 41.699073, 41.203090, 47.988765, 36.496740, 45.346652, 30.186485) Q888765 آزمون مجموع رتبه ویلکاکسون بر اساس میانگین (همانطور که در مراحل 3 و 4 فکر می کنم) یا بر اساس میانه است؟ 2. آیا ممکن است که $A$ بتواند بهتر از $B$ و در عین حال $E(X) <E(Y)$ باشد؟ 3. آیا روش زیر صحیح است؟ برای x در (X, Y) برای y در (X, Y) اگر x == y: ادامه p = wilcox.test(x, y, alternative=greater, conf.level=0.95) اگر p < آلفا: x بهتر از y است اگر p > alpha: p = wilcox.test(x, y, alternative=less, conf.level=0.95) اگر p <alpha: x بدتر از y است x و y عملکرد مشابهی دارند. | روش آزمون مجموع رتبه ویلکاکسون |
74905 | من دو گروه دارم یکی درمان A و دیگری درمان B را دریافت کرد. امتیاز (متغیر وابسته) در 5 نقطه زمانی مختلف گرفته شد. آیا می توانم ANOVA اندازه گیری های مکرر را اجرا کنم؟ من فقط علاقه مندم که بدانم آیا درمان A متفاوت است (بهتر یا نه) با درمان B | من می خواهم دو درمانی را که در 5 نقطه زمانی انجام شده اند مقایسه کنم |
56658 | من یک مسابقه یادگیری ماشینی انجام داده ام که در آن از RMSLE (خطای لگاریتمی میانگین مربعات ریشه) برای ارزیابی عملکرد پیش بینی قیمت فروش دسته ای از تجهیزات استفاده می کنند. مشکل این است که مطمئن نیستم چگونه موفقیت نتیجه نهایی خود را تفسیر کنم. به عنوان مثال اگر من به RMSLE 1.052$ دست پیدا کنم، آیا می توانم آن را با توان نمایی $e$ افزایش دهم و آن را مانند rmse تفسیر کنم؟ (یعنی $e^{1.052}=2.863=RMSE$)؟ آیا می توانم بگویم که پیش بینی های من به طور میانگین از قیمت های واقعی $\pm \$2.863$ بود؟ یا راه بهتری برای تفسیر متریک وجود دارد؟ یا اصلاً می توان متریک را به استثنای مقایسه با سایر RMSLهای مدل های دیگر تفسیر کرد؟ با تشکر از همه کمک شما! | چگونه RMSLE (خطای لگاریتمی میانگین مربعات ریشه) را تفسیر می کنید؟ |
100908 | من سری های زمانی را روی سری های زمانی پسرفت می کنم. من برای هم انباشتگی روی کل نمونه زمانی (3 سال) آزمایش کرده ام و سری ها هم انباشته شده اند. من باید یک پنجره متحرک از رگرسیون ایجاد کنم (برای دریافت یک سری زمانی از بتا) در کل این نمونه زمانی. پنجره نورد من احتمالا 50 یا 100 روزه خواهد بود. اگر سری های زمانی من در این دوره کوتاه با هم ادغام نشوند (حتی اگر بدانم در کل دوره ادغام شده است) چه می شود؟ آیا می توانم از یک برآوردگر خاص (GMM یا غیره) برای تخمین این رگرسیون استفاده کنم؟ اگر من با استفاده از OLS پسرفت کنم، سوگیری در بتا تخمینی من چیست؟ | چه می شود اگر بدانم سری های زمانی من در یک دوره طولانی با هم ادغام شده اند اما در یک دوره کوتاه نه؟ |
55305 | با توجه به یک نمونه تصادفی $x_1,...,x_n$ از $f(x|\theta)=\frac{\theta}{(x+1)^{\theta+1}}$, $x\ge0$ چگونه یک کمیت محوری دقیق برای $\theta$ تولید کنیم؟ | یک کمیت محوری دقیق برای تتا ایجاد می کند |
87526 | Cramer's V کار بسیار خوبی برای ثبت میزان ارتباط بین دو متغیر اسمی انجام می دهد. چه معیاری برای گرفتن ارتباط مشابه بین سه متغیر اسمی مناسبتر است؟ | اندازه گیری سه طرفه ارتباط، متغیرهای اسمی |
23935 | برخی از روش های آماری - به یاد نمی آورم که تجزیه و تحلیل مؤلفه های اصلی است یا چیزی شبیه به آن - گاهی اوقات تحلیل داده های فرانسوی نامیده می شوند. دقیقا چیه؟ و برخی می گویند این نام کنایه آمیز است، آیا درست است و چرا؟ | تجزیه و تحلیل داده های فرانسوی چیست؟ |
36303 | > **تکراری احتمالی:** > چگونه می توان اهمیت آماری را برای متغیر طبقه ای در رگرسیون > خطی آزمایش کرد؟ همانطور که میدانیم میتوانیم از مدلهای خطی برای مجموعه دادههای عددی استفاده کنیم (متغیرهای مستقل فقط عددی هستند)، اما وقتی مجموعه دادههای عددی + دستهای دارم، چه مدلی در اینجا قابل استفاده است (متغیرهای مستقل ترکیبی از عددی و طبقهای هستند). به عنوان مثال من دو مجموعه داده دارم 1. مجموعه داده های عددی 2. مجموعه داده های عددی + مجموعه داده های طبقه بندی شده 1. مجموعه داده های عددی (پیش بینی قیمت خانه) متغیرهای مستقل x1 = تعداد اتاق خواب ها x2 = اندازه خانه در فوت مربع متغیر وابسته x3 = قیمت home here متغیر وابسته متغیر مستقل عددی است با مقادیر عددی 2. مجموعه داده عددی + مجموعه داده طبقه بندی (پیش بینی از بازدیدهای وب) متغیرهای مستقل x1 = زمان جستجو x2 = پرس و جو جستجو x3 = مرورگر x4 = متغیر وابسته به کشور x3 = بازدید از اینجا متغیر وابسته عددی است متغیر مستقل با ترکیب مقادیر عددی و مقوله ای است که در اینجا فرض می کنم که برای مجموعه داده 1 مدل خطی با lm () قابل اجرا است، اما برای مجموعه داده دوم امکان پذیر نیست. آیا کسی می تواند بهترین تکنیک را برای مجموعه داده 2 با مدل برای پیش بینی پیاده سازی کند؟ | مدل رگرسیون با مقادیر مقوله ای |
104028 | من می خواهم از تابع glht() از بسته multcomp استفاده کنم. در آرگومان linfct، من توابع خطی خود را برای آزمایش ارائه می کنم. من تضادهایی را در آنجا ارائه می کنم، مانند (به عنوان مثال) `c(Group1 - Group2 = 0، Group1 - Group3 = 0) برای مقایسه گروه شماره 1 با گروه های دیگر. من می خواهم تست توکی را به این روش انجام دهم. دیدم میتوانم (مثلاً) «mcp(Group='Tukey')» برای این کار انجام دهم، اما این همه مقایسههای زوجی را انجام میدهد و من فقط تضادهای خاص را میخواهم. چگونه می توانم آن را انجام دهم؟ | R multcomp: تضادها برای توکی |
93362 | من در حال حاضر روی برازش مدلی کار می کنم که در آن سطح برخی نشانگرهای زیستی را به عنوان تابعی از زمان پیش بینی می کنیم (تصویر پایین را ببینید). من دو مشکل دارم: 1. هر فرد 2-3 نقطه داده را ارائه می دهد، زیرا آنها به طور مکرر قبل از تشخیص اندازه گیری می شوند (زمان = 0). 2. خطاها به طور معمول توزیع نمی شوند. 3. رشد بیومکر به صورت غیر خطی اتفاق می افتد در یک دنیای ایده آل، من دوست دارم یک مدل ترکیبی با توزیع گاما انجام دهم و یک عبارت مربعی برای محاسبه غیرخطی بودن بگنجانم. به عنوان مثال: best.model = glmer(biomarker~time + I(time^2) + (time + I(time^2)|ID), data=data, family=Gamma) این به من پارس می کند زیرا اینطور نیست df کافی داشته باشید (از آنجایی که هر فرد سه نقطه داده را ارائه می دهد، یک چند جمله ای به طور کامل با هر فرد متناسب می شود. به مدل فردی برازش کامل در مدل ترکیبی مراجعه کنید). بنابراین سعی میکنم عبارت چند جملهای را حذف کنم: second.best.model = glmer(biomarker~time + (time|ID), data=data, family=Gamma. (). بین نقاط داده)، یا متناسب با یک مدل ترکیبی و باقیماندههای توزیع شده عادی. به عنوان یک نکته، من این را با poisson مدل می کردم و هیچ مشکلی نداشتم تا اینکه به جدیدترین نسخه lme4 آپدیت کردم. بنابراین، من فهرستی از سؤالات دارم: 1. آیا مدل سازی داده ها با توزیع گاما این واقعیت را که داده ها دارای نرخ رشد غیر ثابتی هستند، تثبیت می کند؟ (اگر این یک سوال احمقانه است، مرا ببخشید. مدلهای ترکیبی تعمیمیافته نقطه قوت من نیستند!) 3. آیا من فکر می کنم چگونه باید این داده ها را تجزیه و تحلیل کنم، خیلی دور هستم؟ آیا پیشنهاد دیگری در مورد نحوه برخورد بهتر با آن وجود دارد؟ پیشاپیش برای کمک متشکرم!  | برازش داده های غیر عادی در lme4 با توزیع خانواده |
70937 | این مفاهیم همیشه من را سردرگم کرده است. از نظر DOE، من فکر می کنم مشکل زمانی ایجاد می شود که طراحی نامتعادل باشد. بنابراین، * تفاوت آنها چیست؟ * چرا یکی را بر دیگری/دلایل انتخاب می کنید؟ * در ANOVA یک طرفه آیا استفاده از (می توانید؟) LS معنی دارد یا LS فقط برای آنووا دو طرفه و به بعد است؟ برای مثال: در یک مطالعه ساده، مثلاً اگر تفاوتی وجود دارد، من مقایسه میکنم. در ارتفاع بین M و F. من یک طراحی نامتعادل دارم، مثلاً M بیشتر از F دارم (نمونه مساوی را انتخاب کردم، اما مقداری ppl مرد و این همان چیزی است که باید استفاده کنم) آیا داشتن LS در این سناریو معنی خاصی دارد؟ یا LS در این مورد یعنی = وزن نشده؟ لطفاً کسی می تواند به روشی ساده و شهودی توضیح دهد؟ | تفاوت بین معنی های Unweighted، Weighted و Least Squares چیست؟ |
51489 | فرض کنید من آزمایشی با سه عامل درون موضوعی، A، B، و C دارم. داده ها به این شکل هستند. s a b c 1 1 1 1 1 1 1 2 1 1 2 1 1 1 2 2 1 2 1 1 1 2 1 2 1 2 2 1 1 2 2 2 به اندازه کافی ساده است. من 49 موضوع دارم. اکنون، برای انجام این ANOVA در R، از m1 <- aov(امتیاز ~ a*b*c + خطا(موضوع/(a*b*c))، داده) خلاصه (m1، نوع = 3) استفاده میکنم. (بریده شده) ... خطا: s:b:c Df Sum Sq Mean Sq F مقدار Pr(>F) b:c 1 4.608 4.608 8.121 0.00643 ** Residuals 48 27.236 0.567 که خوب به نظر می رسد و با اندازه گیری های مکرر SPSS GLM مطابقت دارد. همه چیز خوب است. ما همچنین میتوانیم یک مدل ترکیبی در R با استفاده از `lme4` انجام دهیم و دقیقاً همان نتایج را بدست آوریم، و همچنین یک مدل ترکیبی انجام شده در JMP. m2 <- lmer(score~a*b*c + (a*b*c|s), data) library(car); Anova(m2, type=3, test.statisticF) ... (بریده شده) ... F Df Df.res Pr(>F) b:c 8.1206 1 48.000 0.006430 ** من می توانم همین کار را در SAS و نتایج مشابهی دریافت کنید. proc مخلوط داده=mixedexample متد=reml covtest; کلاس a b c s; امتیاز مدل = a|b|c; قطع تصادفی a|b|c/sub=s; اجرا؛ من می توانم ANOVA را با دست در Stata انجام دهم: anova score a / s|a /// b / s#b /// c / s#c /// a#b / s#a#b /// a #c / s#a#c /// b#c / s#b#c /// a#b#c من عبارت خطای تعامل کامل را کنار میگذارم، بنابراین باقیمانده است. اگرچه، به دلایلی، «df» اثر اصلی «a» دو برابر اندازه دیگر است. اما سوال من این نیست. سوال من این است: چگونه می توانم نسخه lmer و proc mixed LMM کامل را در Stata انجام دهم؟ نسخه ساده امتیاز xtmixed a##b##c || است s:, reml اما چگونه میتوانم عبارتهای خطای کاملاً متقاطع شده را به «xtmixed» به همان روشی که در «lmer» با افزودن «+ (a*b*c|s)» انجام میدهم، اضافه کنم؟ دادهها بدون مقادیر از دست رفته متعادل هستند، بنابراین LMM باید همان ANOVA با اندازهگیریهای مکرر باشد، درست است؟ چرا نمی توانم این کار را در Stata انجام دهم؟ من به سختی اصول LMM ها را می دانم، اما این یک سوال Stata است. من فقط سعی می کنم تمام روش های مختلف اجرای این دو مدل را کشف کنم. همچنین، آیا کسی راه ساده تری برای انجام ANOVA تک متغیره در Stata بدون مشخص کردن هر عبارت خطا با دست می داند؟ حتی ممکن است این روش درست برای انجام این روش نباشد، اما چون من در هر جای دیگری خروجی یکسانی دریافت می کنم، چگونه می توانم Stata را وادار کنم که همان کاری را که lmer R، proc mixed SAS و JMP انجام دهد، انجام دهد؟ | چگونه عبارات خطا را در Stata's xtmixed تلاقی کنم؟ |
23939 | من مجموعهای از پاسخها برای تعدادی سؤال با مقیاس لیکرت ۷ نقطهای دارم که از خیلی بد تا خیلی خوب متغیر بودند. من برای هر سوال حدود 200 پاسخ دارم. > Q1 (نوع 1): خیلی بد، ...، ...، ...، ...، خیلی خوب > > Q2(نوع 2): ... > > Q3(نوع 1): > > Q4(نوع 1) : > > Q5(type2): > > Q6(type1): > > ... کاری که اکنون می خواهم انجام دهم این است که بررسی کنم کدام سوال نوع 1 با کدام سوال نوع 2 مطابقت دارد به گونه ای که بدانم سوالی از نوع 1 به اندازه یک سوال بد یا خوب است از نوع 2. من سعی می کنم بفهمم از کدام تست استفاده کنم اما گیر کردم. ممکن نیست که مجبور باشم پیش آزمون های زیادی را اجرا کنم، اما تحلیل واریانس نیز درست به نظر نمی رسد. من فرض میکنم که پاسخهای من در مقیاس فاصلهای هستند. | تست برای مطابقت با متغیرهای مختلف مقیاس لیکرت |
84243 | من این مدل رگرسیون خطی را ساختهام: mtcars_lm <- lm(mpg ~ drat + hp, mtcars) با استفاده از بسته افکتها، میتوانم مقادیر «mpg» را برای هر مقدار «hp» بین 70 تا 150 پیشبینی کنم، به علاوه اطمینان حاصل کنم. فاصله زمانی برای هر مقدار «mpg»: library(effects) as.data.frame(effect(hp, mtcars_lm, xlevels = list(hp=seq(70, 150, 10)))) hp fit se bottom upper 1 70 24.06201 0.9066002 22.20781 25.91622 2 80 153423.54. 21.83530 25.25300 3 90 23.02628 0.7691351 21.45322 24.59934 4 100 22.50841 0.7087300 21.0587300 21.05851350 21.05851350 21.05851351. 0.6559716 20.64894 23.33216 6 120 21.47268 0.6128381 20.21929 22.72608 7 130 20.95481 0.581472753 0.581472753 140 20.43695 0.5638509 19.28374 21.59015 9 150 19.91908 0.5612604 18.77118 21.06699 و من می توانم نتیجه را ترسیم کنم: plot_,(mtvel,mtvel,xxxxx) list(hp=seq(70, 150, 10))))  سوال من این است: ریاضیات پشت محاسبه چیست خطای استاندارد و فاصله اطمینان برای هر مقدار mpg؟ | فواصل اطمینان برای مقادیر پیش بینی شده در رگرسیون خطی |
87522 | سالهایی که در المپیک مدال طلا گرفتم 1. 1990/1991 2. 1995/1996 3. 1998/1999 میدانم که دادههای کمی را میتوان در مقیاس عددی استفاده کرد. شاید، این می تواند. همچنین من معتقدم که این یک داده نسبت است زیرا می تواند یک صفر طبیعی داشته باشد. درست میگم؟ | سطح اندازه گیری برای سالها چقدر است؟ |
100907 | یک بردار $X_i$ با $i \in [1,N]$ را در نظر بگیرید. بگذارید بگوییم که شما بردار را به دو $X_{i}'$ با $i \in [1,j]$ و $X_i''$ با $i \in [j+1, N]$ برای چند $ تقسیم میکنید. j$; سپس برای هر جفت بردار فرعی مرتبط با این $j$، آزمونی را اعمال میکنید که یک مقدار p ارائه میکند (مانند آزمون t-test دانشجویی یا آزمون Kolmogorov-Smirnov). همانطور که شاخص جداسازی $j$ خود را به طور سیستماتیک تغییر می دهید و آزمایش را تکرار می کنید، مجموعه داده هایی را با هم مقایسه می کنید که به شدت همپوشانی دارند. آیا راهی وجود دارد که بتوان به راحتی تعداد تست های مستقل را طبق اصلاحات سیداک یا بونفرونی محاسبه کرد تا بتوان یکی از آنها را اعمال کرد؟ می توان فرض کرد که شاخص $j$ مجموعه ای متوالی از شاخص های $j \in [lim_1, lim_2]$ را پوشش می دهد. خیلی ممنون. | تصحیح آزمون فرضیه های چندگانه بر روی داده های غیر مستقل |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.