_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
60590 | من سعی می کنم یک مولد موزاییک ساده بسازم، جایی که عکس می گیرد، سپس از صدها عکس دیگر برای نمایش هر پیکسل استفاده می کند. برای انجام این کار، میخواهم رنگ غالب هر تصویری را که به عنوان کاشی استفاده میکنم تعیین کنم، تا بتوانم بدانم چه رنگهایی میتواند نشان دهد. من آرایهای دارم که حاوی مقادیر RGB هر پیکسل در تصویر است، بنابراین دستکاری دادهها برای من سخت نیست. مسئله این است که تصاویری که من استفاده خواهم کرد کاملاً تصادفی هستند، بنابراین من هیچ دانش قبلی در مورد توزیع رنگ ها ندارم (به این معنی که استفاده ساده از میانگین / حالت و غیره بسیار نادرست است). من به نوعی حالت تخصصی فکر می کنم، زیرا ممکن است رنگ های متمرکز را به خوبی ثبت کند، اما خیلی مطمئن نیستم. هر گونه کمکی قدردانی خواهد شد. با تشکر | تعیین رنگ مسلط در یک تصویر |
56872 | من می خواهم تجسم بصری پایگاه داده خود را برای خوانندگان و کاربران پایگاه داده ارائه دهم که به دانش فنی ساختار پایگاه داده نیاز ندارد. این شکل در یک مقاله ژورنالی گنجانده خواهد شد و مخاطبان در درجه اول دانشجویان و دانشمندان هستند که بسیاری از آنها مفاهیمی مانند بسیاری از بسیاری یا کلیدها را درک نمی کنند. هدف من این است که محتویات پایگاه داده را با کمی بینش نسبت به این روابط منتقل کنم، اما به جای درک فنی، یک درک مفهومی را منتقل کنم. توضیحات فنی و جامع پایگاه داده به عنوان پیوست در مستندات ارائه خواهد شد. من می بینم که انواع مختلفی از نمودار ER وجود دارد، اما مطمئن نیستم که کدام یک، در صورت وجود، برای توضیح یک مدل داده به مخاطبان من مناسب است. چگونه می توانم این را به روشی غیر فنی نشان دهم که از کلیدها اجتناب کند و درک شهودی تری از روابط بین جداول ارائه دهد؟ در اینجا یک مثال از نقطه شروع من است:  پایگاه داده واقعی 11 جدول خواهد داشت، از جمله 3 جدول که برای تعریف خیلی به- استفاده می شود. بسیاری از روابط، و بسیاری از زمینه ها را می توان حذف کرد. | تجسم غیر فنی از پایگاه داده من (نمودار ER غیرمتخصص؟) |
56926 | من سعی می کنم داده های تجربی را که با زمان اندازه گیری می شوند متمایز کنم. با این حال، افزایش زمان به یک اندازه فاصله ندارد. من ابتدا یک خط روند برای این داده ها به دست آوردم و سپس یک درون یابی خطی برای بدست آوردن نقاط با فاصله یکسان انجام دادم. سپس از تفاوت مرکزی برای بدست آوردن مشتق استفاده کردم. با این حال، این یک مشتق می دهد که صاف نیست و دارای مراحل است. چگونه می توانم این مشکل را حل کنم؟ | تمایز داده های تجربی |
87076 | من یک HMM دو حالته دارم که در آن اعتقاد من به احتمالات انتشار بستگی به مشاهده دارد. اساساً، علاوه بر دو بردار طیف انتشار (یکی برای هر حالت)، دو بردار پیشین نیز دارم که به پارامترهایی غیر از حالت تاریخچه بستگی دارند. به عبارت دیگر، آنها هیچ ارتباطی با احتمالات انتقال ندارند. من در تعجبم که بهترین راه برای ترکیب آنها در HMM چیست. استفاده از پیشین ها فقط برای تعریف حالت های اولیه به اندازه کافی آموزنده به نظر نمی رسد. از سوی دیگر، استفاده از p(State)*p(Obs|State) به جای احتمالات p(Obs|State) به عنوان طیف نشری من احتمالاً ایده خوبی نیست زیرا هر نوع سوگیری در HMM تقویت خواهد شد. آیا راه بهتری برای این کار وجود دارد؟ | نحوه ادغام پیشین های انتشار هر مشاهده در HMM |
46246 | من می خواهم از tslm با داده هایی استفاده کنم که دارای فصلی بودن درون روز و الگوی متفاوتی در روزهای کاری و در روزهای غیر اداری هستند. اگر data.ts سری زمانی من است، پس میخواهم از چیزی مانند tslm(data.ts~season|businesss.dummy) استفاده کنم. من tslm (data.ts~season + businesss.dummy) را نمیخواهم، زیرا این فقط یک تغییر موازی در روزهای کاری ایجاد میکند. من میدانم که میتوانم قبل از اعمال مدل، دادهها را زیرمجموعهبندی کنم و بنابراین فقط دادههای روز کاری و دادههای غیر کاری را دریافت کنم، اما آیا میتوانم با استفاده از فرمول مناسب در tslm به این هدف با زیبایی بیشتری دست پیدا کنم؟ با تشکر | مدل شرطی با استفاده از تابع tslm در پیشبینی بسته R |
45979 | من به دنبال نکاتی در مورد موضوعاتی هستم که باید به آنها توجه کنم تا دوره هایی (با طول غیر ثابت) را که از تصادفی بودن منحرف می شوند شناسایی کنم. من احساس می کنم آزمایش فرضیه ممکن است همان چیزی باشد که به دنبال آن هستم، اگرچه هنوز آن را پوشش نداده ام. دانش آماری من محدود است، بنابراین از هر کتاب / وب سایت پیشنهادی نیز قدردانی می شود. | شناسایی دوره های رفتار غیر تصادفی در سری های زمانی |
62995 | سوال بالا گویای همه چیز است. اساساً سؤال من مربوط به یک تابع برازش عمومی است (ممکن است به طور دلخواه پیچیده باشد) که در پارامترهایی که میخواهم تخمین بزنم غیرخطی خواهد بود، چگونه میتوان مقادیر اولیه را برای مقداردهی اولیه برازش انتخاب کرد؟ من سعی می کنم حداقل مربعات غیرخطی را انجام دهم. آیا استراتژی یا روشی وجود دارد؟ آیا این مورد مطالعه شده است؟ هر مرجعی؟ چیزی غیر از حدس زدن موقت؟ به طور خاص، در حال حاضر یکی از فرم های برازنده ای که من با آن کار می کنم، فرم خطی گاوسی بعلاوه با پنج پارامتر است که سعی می کنم تخمین بزنم، مانند $$y=A e^{-\left(\frac{x-B}{C}\ راست)^2}+Dx+E$$ که در آن $x = \log_{10}$(دادههای آبسیسا) و $y = \log_{10}$(دادههای ترتیبی) به این معناست که در فضای log-log دادههای من مانند یک خط مستقیم بهعلاوه یک برآمدگی است که من با یک گاوسی تقریب میزنم. من هیچ نظریه ای ندارم، هیچ چیز برای راهنمایی من در مورد چگونگی مقداردهی اولیه تناسب غیرخطی به جز شاید ترسیم نمودار و چشم انداز مانند شیب خط و اینکه مرکز/عرض برآمدگی چیست. اما من بیش از صد مورد از این موارد را برای انجام این کار به جای نمودار و حدس زدن دارم، روشی را ترجیح می دهم که بتواند خودکار باشد. من نمی توانم هیچ مرجعی را در کتابخانه یا آنلاین پیدا کنم. تنها چیزی که می توانم به آن فکر کنم انتخاب تصادفی مقادیر اولیه است. متلب پیشنهاد می کند مقادیر را به طور تصادفی از بین [0,1] توزیع یکنواخت انتخاب کنید. بنابراین با هر مجموعه داده، من هزار بار فیت اولیه را به طور تصادفی اجرا می کنم و سپس یکی را با بالاترین $r^2$ انتخاب می کنم؟ هیچ ایده (بهتر) دیگری؟ * * * ضمیمه شماره 1 ابتدا، در اینجا چند نمایش تصویری از مجموعه داده ها وجود دارد تا به شما بچه ها نشان دهم که در مورد چه نوع داده ای صحبت می کنم. من هم دادهها را به شکل اصلیشان بدون هیچ گونه تغییر و تحولی پست میکنم و هم نمایش بصری آنها را در فضای log-log پست میکنم زیرا برخی از ویژگیهای دادهها را روشن میکند و برخی دیگر را تحریف میکند. من نمونه ای از داده های خوب و بد را ارسال می کنم.     هر یک از شش پانل های موجود در هر شکل چهار مجموعه داده را نشان می دهند که با هم قرمز، سبز، آبی و فیروزه ای ترسیم شده اند و هر مجموعه داده دقیقاً 20 نقطه داده دارد. من سعی میکنم به دلیل برآمدگیهایی که در دادهها دیده میشود، هر یک از آنها را با یک خط مستقیم به اضافه یک گاوسی تنظیم کنم. شکل اول برخی از داده های خوب است. شکل دوم نمودار log-log همان داده های خوب از شکل یک است. شکل سوم برخی از داده های بد است. شکل چهارم نمودار log-log شکل سه است. داده های بسیار بیشتری وجود دارد، اینها فقط دو زیر مجموعه هستند. بیشتر داده ها (حدود 3/4) خوب است، مشابه داده های خوبی که در اینجا نشان دادم. در حال حاضر برخی از نظرات، لطفا با من تحمل کنید زیرا ممکن است طولانی شود اما فکر می کنم همه این جزئیات ضروری است. سعی می کنم تا حد امکان مختصر باشم. من در ابتدا انتظار قانون قدرت ساده (به معنای خط مستقیم در فضای ورود به سیستم) را داشتم. وقتی همه چیز را در فضای log-log ترسیم کردم، برآمدگی غیرمنتظره را در حدود 4.8 مگاهرتز دیدم. این دست انداز به طور کامل بررسی شد و در کارهای دیگر نیز کشف شد، بنابراین ما به هم نخوردیم. از نظر فیزیکی وجود دارد و سایر آثار منتشر شده نیز به این موضوع اشاره می کنند. بنابراین من فقط یک اصطلاح گاوسی را به شکل خطی خود اضافه کردم. توجه داشته باشید که این تناسب باید در فضای log-log انجام شود (از این رو دو سوال من از جمله این یکی). اکنون، پس از خواندن پاسخ Stumpy Joe Pete به سوال دیگرم (اصلاً به این داده ها مربوط نیست) و این و این و ارجاعات موجود در آن (موارد Clauset) را خواندم، متوجه شدم که نباید در log-log قرار بگیرم. فضا بنابراین اکنون می خواهم همه چیز را در فضای از پیش تبدیل شده انجام دهم. ~~ سوال 1: با نگاهی به داده های خوب، من هنوز فکر می کنم که یک خطی به علاوه یک گاوسی در فضای از پیش تبدیل شده هنوز هم شکل خوبی است. من دوست دارم از دیگرانی بشنوم که تجربیات بیشتری در مورد نظرشان دارند. آیا گاوسی+خطی معقول است؟ آیا فقط باید گاوسیان انجام دهم؟ یا یک فرم کاملاً متفاوت؟~~~~سوالات 2: پاسخ سوال 1 هرچه باشد، من همچنان به حداقل مربعات غیرخطی (به احتمال زیاد) نیاز دارم، بنابراین هنوز برای مقداردهی اولیه به کمک نیاز دارم.~~ داده هایی که در آن دو می بینیم. مجموعه، ما به شدت ترجیح می دهیم اولین ضربه را در حدود 4-5 مگاهرتز ثبت کنیم. بنابراین من نمی خواهم اصطلاحات گاوسی بیشتری اضافه کنم و اصطلاح گاوسی ما باید بر روی اولین برآمدگی متمرکز شود که تقریباً همیشه برآمدگی بزرگتر است. ما دقت بیشتر بین 0.8mHz و حدود 5mHz می خواهیم. ما زیاد به فرکانسهای بالاتر اهمیت نمیدهیم، اما نمیخواهیم آنها را کاملاً نادیده بگیریم. پس شاید نوعی وزن کردن؟ یا B را می توان همیشه در حدود 4.8mHz مقداردهی اولیه کرد؟ داده ابسیسا فرکانس در واحد میلی هرتز است، آن را با $f$ نشان دهید. داده ارتین ضریبی است که ما محاسبه می کنیم، آن را با $L$ نشان می دهیم. بنابراین هیچ تبدیل گزارشی وجود ندارد، و شکل $$L=A e^{-\left(\frac{f-B}{C}\right)^2}+Df+E.$$ *$f$ فرکانس است، همیشه مثبت *$L$ یک ضریب مثبت است. بنابراین ما در ربع اول کار می کنیم. * $A$، من فکر می کنم دامنه باید همیشه مثبت باشد زیرا ما فقط با برجستگی ها سر و کار داریم. | نحوه انتخاب مقادیر اولیه برای برازش حداقل مربعات غیرخطی |
52719 | احتمالا دنبال تعریفی هستم. تصور کنید ما 10 متغیر داریم، اما به نوعی رابطه خطی (و نه درجه دوم یا با هیچ منحنی به آن) علاقه نداریم. چیزی که من می خواهم راهی برای یافتن خوشه ها، الگوها یا ترکیبات (هر چه می خواهید آن را بنامید) است. به عنوان مثال، با توجه به 10 متغیر، فرض کنید دو نفر (یا بیشتر) نمرات بسیار مشابهی دارند، اگرچه هر دو لزوماً بالا و یا پایین نیستند. من تحت این تصور هستم که این اطلاعات برای ما گم شده است، در حالی که در واقع این می تواند یک یافته جالب باشد. آیا نامی برای تلاش برای تشخیص چنین الگوهای داده جالبی وجود دارد؟ از هر گونه پیشنهادی استقبال می شود (همچنین برای عنوان). | یافتن الگوها در داده ها |
60622 | فرض کنید من یک توزیع گاوسی چند متغیره $p$-بعدی دارم. و من مشاهدات $n$ (هر یک $p$-بردار) را از این توزیع میگیرم و ماتریس کوواریانس نمونه $S$ را محاسبه میکنم. در این مقاله، نویسندگان بیان میکنند که ماتریس کوواریانس نمونه محاسبهشده با $p > n$ منفرد است. * چگونه درست یا مشتق شده است؟ * توضیحی دارید؟ | چرا وقتی حجم نمونه کمتر از تعداد متغیرها است، ماتریس کوواریانس نمونه تکی است؟ |
91158 | آیا می توان مقدار $\lambda$ توزیع پواسون را طوری دستکاری کرد که تابع جرم احتمالی داشته باشد که مانند منحنی زیر با نقاط داده $(8,0)$,$(7,0.01)$,$(5) باشد، 0.1)$ و $(2،1)$. من در تلاش برای به دست آوردن $\lambda$ بودهام که این مقادیر را برآورده میکند، اما از آنجایی که معادله تابع جرم احتمال به راحتی شکسته نمیشود، با مشکل مواجه شدهام.  | به دست آوردن $\lambda$ برای توزیع پواسون |
94047 | فرض کنید $K$ افراد و iid وجود دارد. پارامترهای $a_1,\ldots,a_K$ با $a_i \sim U(0,1)$ مرتبط هستند. شخص $i$ $a_i$ ثابت خود را با مقداری نویز مشاهده میکند: \begin{equation} X^{(1)}_i= a_i+ e^{(1)}_i، \end{equation} که در آن $e_i$ است. یک عبارت خطا که به طور معمول با $N(0, v)$ توزیع می شود. او $X^{(1)}_i$ را یاد می گیرد. پس از مشاهده $X^{(1)}_i$، شخص $i$ میخواهد این احتمال را محاسبه کند که دفعه بعد افراد $1,\ldots,K$ سیگنال دریافت کنند (سیگنالهای جدید را با $X^{(2) نشان دهید. }_i$)، سیگنال او بزرگتر از سیگنال های دیگران خواهد بود، مشروط به مقدار $X^{(1)}_i$. سیگنال همه دارای یک عبارت خطا با توزیع یکسان است و اصطلاحات خطا مستقل هستند. به طور خلاصه، من می خواهم موارد زیر را محاسبه کنم: \begin{equation} \textrm{Prob}(X^{(2)}_i > X^{(2)}_{j}، \textrm{برای همه}j \neq i\mid X^{(1)}_i). \end{equation} اگر کسی بتواند به من کمک کند که چگونه به این مشکل برخورد کنم، واقعاً از آن متشکرم. | محاسبه احتمال بر اساس متغیرهای ترکیبی |
60591 | روشهای نویز زدایی مبتنی بر تبدیل موجک ثابت به دلیل تغییر ناپذیری ترجمهای، بهترین در نظر گرفته میشوند. از سوی دیگر، Matlab نویز زدایی مبتنی بر SWT را وعده میدهد، اما در تابع ddencmp برای حذف نویز سیگنال، در واقع از تبدیل موجک گسسته استفاده میکند در حالی که باید ضرایب SWT را در آستانه قرار دهد. آیا چیزی وجود دارد که من از دست بدهم؟ من کاملا سپاسگزار خواهم بود. | طبقه بندی سیگنال ها و نویز زدایی مبتنی بر تبدیل موجک |
49218 | من با تجزیه و تحلیل مسیر و ESM تازه کار هستم. من این روش را مطالعه کرده ام، اما هنوز هم بسیار سردرگم هستم. من یک مدل شکست تجربی ارزیابی شده دارم که دارای 45 متغیر در یک مدل علت و معلولی با یکدیگر مرتبط هستند. در مدل های من، در مجموع 40 مسیر شکست وجود دارد. طولانی ترین مسیرها 7 متغیر دارد. پس از ارزیابی مدل شکست، هر متغیر را از طریق پرسشنامه اندازهگیری کردم و در مجموع 50 پاسخ دریافت کردم. حال، میپرسم آیا این حجم نمونه برای انجام تحلیل مسیر برای ارزیابی «قویترین مسیرهای شکست» کافی است؟ یا اگر من 5 مورد تایید نهفته را به مدل خود متصل می کنم، SEM را انجام دهم؟ یکی از دوستانم پیشنهاد کرد که از تکنیک های PLS با استفاده از نرم افزار SmartPLS استفاده کنید زیرا به داده ها حساسیت کمتری دارد. | تحلیل مسیر مدل ارزیابی تجربی و حجم نمونه |
52713 | با توجه به یک سری مقادیر، من می دانم که 68٪ از مقادیر در یک انحراف استاندارد قرار می گیرند و 95٪ با 2 انحراف استاندارد قرار می گیرند، اما چگونه می توانم محدوده ای را محاسبه کنم که در آن 90٪ از مقادیر سقوط می کنند. اجازه دهید آن محدوده 90 درصد را محدوده معمولی بنامیم. | چگونه محدوده ای را محاسبه کنم که 90 درصد مقادیر در آن قرار می گیرند |
49211 | آیا مقاله یا کتابی وجود دارد که در مورد رابطه ریاضی بین مدل های مختلف یادگیری ماشین صحبت کند - اینکه چگونه آنها متفاوت هستند و چگونه می توانند (گاهی) معادل باشند؟ به عنوان مثال رگرسیون لجستیک را می توان به عنوان یک پرسپترون تک لایه مشاهده کرد. نمونه های دیگر در اینجا آمده است | ارتباط بین مدل های مختلف ML |
17708 | مجموعه آموزشی $\{(x_i; y_i)\}_{i=1}^N, x_i \in \mathbb{R}^n, y_i \in \mathbb{R}$ را در نظر بگیرید. هدف یافتن تابع رگرسیون است، مانند $f(x) = \sum_{i=1}^K a_i g_i(x) + a_0$. اگر توابع $g_i$ را بدانیم، راه حل حداقل مربعات به خوبی شناخته شده است. بیایید در نظر بگیریم که رگرسیون هسته با تابع پایه شعاعی داریم (از گاوسی استفاده کنیم)، بنابراین $g_i(x) = \exp \left( - \gamma_i ||x_i - c_i ||^2 \right)$. بهترین انتخاب برای پارامترهای تابع پایه $\{c_i\}_{i=1}^K$ و $ \{ \gamma_i \}_{i=1}^K $ چیست؟ | مبنای بهینه برای مسئله رگرسیون |
56923 | من به دنبال بررسی رابطه بین یک سری از متغیرها به صورت تکراری هستم. یک متغیر همیشه متغیر وابسته خواهد بود و سه مقدار ممکن را می گیرد: خوب، بد یا دیگر که به ترتیب به صورت 1، -1 و 0 کدگذاری کرده ام. من به طور کلی علاقه مندم که ببینم چگونه یک سری از متغیرهای مستقل اضافی با این متغیر اول تعامل دارند، که همه آنها به صورت خطی محدوده خواهند شد. برای مثال، یکی از این متغیرها ممکن است «دقیقه» نامیده شود و از صفر تا چند هزار متغیر باشد. اساساً، میخواهم ببینم که چگونه متغیرهایی مانند «دقیقه» ممکن است بر احتمال یک نتیجه «خوب» تأثیر بگذارد. به طور معمول، من یک رگرسیون را اجرا می کنم، اما این واقعیت که متغیر وابسته در اینجا به سه شکل ممکن است، آن را دشوار می کند. راه صحیح اجرای این نوع از تست ها چیست؟ | تلاش برای بررسی رابطه بین یک متغیر و متغیر دیگر که دارای سه مقدار ممکن است |
17701 | در سایت تجارت الکترونیک، مصرف کنندگان یک رتبه بندی کلی با رتبه بندی چند جنبه ارائه می دهند. برای مثال، اگر مصرفکنندهای یک دوربین بخرد، اطلاعات رتبهبندی را به شرح زیر ارائه میکند: اندازه محصول کاربر/وزن ظاهر باتری قیمت نمایش کلی دوربین A 1 4 2 3 5 5 4 B Camera 2 4 2 3 5 5 2 C Camera 3 2 4 5 1 2 4 D Camera 4 2 4 5 1 2 2 در عمل، در مجموعه داده ما، مصرف کننده فقط دوربین بخر بنابراین، چگونه می توانیم با استفاده از داده های ناهمگن ارائه شده، همبستگی بین جفت کاربر (A در مقابل B، یا A در مقابل C و غیره) را تعیین کنیم. | چگونه می توان همبستگی بین مصرف کنندگان را با توجه به چند جنبه و رتبه کلی آنها محاسبه کرد؟ |
56920 | فرض کنید که می خواهید توزیع مشترک خود را بر روی مجموعه ای از متغیرها از طریق تجزیه آن به چندین توزیع کوچکتر تقریبی کنید. فرض کنید هیچ دانش قبلی در مورد ارتباط آماری یا جبری بین متغیرها نمی دانید. تنها ورودی مجموعه ای از نمونه ها از متغیرها است. چگونه ادعا می کنید که آیا برخی از متغیرها تمایل به وابسته/مستقل بودن دارند؟ (توجه داشته باشید که این چیزی بیش از محاسبه همبستگی است که در واقع یک عملیات خطی است.) | نحوه پیدا کردن ارتباط بین متغیرها |
62990 | در بسته `R` `hdrcde` توسط Rob Hyndman برای محاسبه مناطق با بالاترین چگالی در یک و دو بعدی، تابع hdrbw پهنای باند بهینه را برای مناطق 1 بعدی با بالاترین چگالی تخمین می زند. در مثال داده شده، متغیر HDRlevelVal یک احتمال 0 HDRlevel: HDR-level است که در Hyndman (1996) تعریف شده است. تنظیم HDRlevel برابر با p (0 مقاله ارجاع شده را پیدا نکردم. کسی می تواند اطلاعاتی در مورد آن مقاله و تابع به من بدهد. آیا در R بسته هایی وجود دارد که این تابع را پیاده سازی می کند؟ HDRlevelVal <- 0.55 x <- وفادار $eruptions hHDR <- hdrbw(x,HDRlevelVal) HDRhat <- hdr.den(x,prob=100*(1-HDRlevelVal)،h=hHDR) Rhat <- hdr.den(x,prob=100*(1-HDRlevelVal)،h=hHDR) | نحوه محاسبه سطح احتمال HDR برای برآورد مناطق با بالاترین چگالی |
113756 | من می خواهم هسته _anova rbf_ موجود در بسته **kernlab** را در **caret** تست کنم. پس از آموزش عالی (https://topepo.github.io/caret/custom_models.html) من کد زیر را پیدا کردم: SVManova <- list(نوع = رگرسیون، کتابخانه = kernlab، حلقه = NULL ) prmanova <- data.frame(پارامتر = c(C، سیگما، درجه، eps)، class = rep(عددی، 4)، label = c(هزینه، سیگما، درجه، Eps)) SVManova$parameters <- prmanova svmGridanova <- function(x, y, len = NULL) { library(kernlab) sigmas <- sigest(as.matrix(x), na.action = na.omit, scaled = TRUE, frac = 1) expand.grid(sigma = mean(sigmas[-2])، epsilon = 0.000001، C = 2 ^(-5:len)، درجه = 1:2) # len = آهنگ طول در قطار } SVManova$grid < - svmGridanova svmFitanova <- تابع (x، y، wts، param، lev، آخرین، وزنها، classProbs، ...) { ksvm(x = as.matrix(x)، y = y، kernel = anovadot، kpar = list(sigma = param$sigma، درجه = param$degree)، C = param$C , epsilon = param$epsilon, prob.model = classProbs, ...) #default type = eps-svr } SVManova$fit <- svmFitanova svmPredanova <- تابع (modelFit، newdata، preProc = NULL، submodels = NULL) پیش بینی (modelFit، newdata) SVManova$پیش بینی <- svmPredanova svmProb <- تابع (modelFit، newProdel =NULL،NULL) predict(modelFit, newdata, type=probabilities) SVManova$prob <- svmProb svmSortanova <- function(x) x[order(x$C), ] SVManova$sort <- svmSortanova سپس از مدل درخواست کردم تا تعدادی را آموزش دهد مجموعه داده: set.seed(100) #از همان seed برای آموزش مدل های مختلف استفاده کنید svrFitanova <- train(R ~ .، داده = trainSet، روش = SVManova، preProc = c(مرکز، مقیاس)، trControl = ctrl، tuneLength = 20، allowParallel = TRUE) #به طور پیش فرض، RMSE و R2 محاسبه می شوند برای رگرسیون (در همه موارد، مدل تنظیم و متقاطع را با بهترین مقدار انتخاب میکند)، متریک = ROC #Print نتایج svrFitanova اما من خطای زیر را دریافت می کنم: خطا در train.default(x, y, weights = w, ...) : شبکه پارامتر تنظیم باید دارای ستون های C، سیگما، درجه، eps باشد. من نمی دانم چرا این خطا رخ می دهد ... شبکه تنظیم دارای چهار ستون به عنوان درخواست ... هر گونه ایده؟ با تشکر | واردات مدل کرنلاد به کارت |
60621 | در Manski - ساختار مدلهای سودمند تصادفی مثال زیر پیشنهاد شده است: فضای مجموعه جایگزین **_a_** = $(\alpha,\beta,\gamma)$ را با نمایش ویژگی: $X = \begin{bmatrix در نظر بگیرید. } & \alpha & \بتا & \گاما & \cr x_1 & 1 & 1 & 2 \cr x_2 & 0.5 & -0.5 & -1 \end{bmatrix}$. افراد/تصمیمگیرندگان $\sigma$ و $\tau$ با این ویژگیها مشخص میشوند: $S = \begin{bmatrix} \sigma & \tau \cr 1 و 0 \end{bmatrix}$. در نهایت تابع $w(x,s)$ که سودمندی عامل های به حداکثر رساندن ابزار $\sigma$ و $\tau$ را تعریف می کند توسط $w(x,s) = x_1 + x_2\cdot s$ داده می شود. **هدف محاسبه احتمالات است:** $P_t(a\in^c C)$ که احتمال این است که یک تصمیم گیرنده $t\in T$ جایگزین $a$ را از مجموعه انتخاب های ممکن انتخاب کند. $C$. با تعریف فضای جایگزین **_a_** می توان $C$ را به عنوان هر زیرمجموعه غیر خالی از هر ترتیب خاص از جایگزین های $\alpha، \beta$ و $\gamma$ در نظر گرفت. از این رو، مجموعههای انتخابی بسیار کمی وجود خواهد داشت که یک تصمیمگیرنده میتواند از بین آنها انتخاب کند. Manski فضای مجموعه انتخاب را نشان می دهد، مجموعه ای از همه زیر مجموعه های غیر خالی ممکن $C$، با $\Gamma$ و $T$ نشان دهنده جمعیت همه تصمیم گیرندگان ممکن است. برای محاسبه $P_t(a\in^c C)$ اطلاعات اضافی داده شده است. توزیع مشترک $M_{\Gamma T}((C,t))$ انتخاب ممکن $C$ را تنظیم می کند و تصمیم گیرندگان $t$ توسط: $M_{\Gamma T}((\alpha,\) داده می شود beta,\gamma),\sigma) = \frac{2}{36}$ برای هر یک از شش مجموعه انتخاب مرتب شده که عناصر آنها $\alpha،\beta$ و $\gamma$ هستند. $M_{\Gamma T}((\alpha,\beta),\sigma) = \frac{1}{12}$ برای هر یک از دو مجموعه انتخاب مرتب شده که عناصر آنها $\alpha$ و $\beta$ $ هستند M_{\Gamma T}((\alpha,\beta,\gamma),\tau) = \frac{1}{36}$ برای هر یک از شش مجموعه انتخاب مرتب شده که عناصر آن $\alpha,\beta$ هستند و $\gamma$ $M_{\Gamma T}((\alpha,\beta),\tau) = \frac{2}{12}$ برای هر یک از دو مجموعه انتخاب مرتب شده که عناصر آنها $\alpha$ و $\beta$ برای محاسبه احتمالات $P_t(a\in^c C)$ برای حالتی که اطلاعات x_2$ مشاهده نشده است، ابتدا باید بردار $W_{Ct}$ را محاسبه کنیم که شامل ابزارهای کمکی برای گزینه های موجود در $C$ برای یک تصمیم گیرنده $t$. در این مورد، این به دست میآید: $\bar W_{(\alpha,\beta,\gamma),\sigma} = \begin{pmatrix} 1.5\\ 0.5\\ 1\end{pmatrix}$ and $\bar W_ {(\alpha،\beta،\gamma)،\tau} = \begin{pmatrix} 1\\ 1\\ 2\end{pmatrix}$ برای محاسبه احتمال $P_t(a\in^c C)$ Manski دو فرمول زیر را به دست میدهد: $(1) \ P(\bar W_{Ct} | r_{Co}، s_{to}) = \frac{ \sum_{ (\tilde C, \tilde t):r_{\tilde Co} = r_{Co}, s_{\tilde to} = s_{to}، W_{\tilde C\tilde t} = \bar W_{Ct} } M_{\Gamma T}((\tilde C,\tilde t))}{\sum_{ (\tilde C, \ tilde t):r_{\tilde Co} = r_{Co}, s_{\tilde to} = s_{to}} M_{\Gamma T}((\tilde C,\tilde t))}$$(2) \ P_t(a\in^c C) = \sum_{\bar W_{Ct}:\bar w_{at}\ge \bar w_{\tilde at} , \tilde a\in C}P(\bar W_{Ct} | r_{Co},s_{to})$ بنابراین به وضوح برای محاسبه $P_t(a\in^c C)$ باید محاسبه کنیم (1) ابتدا این کار با جمع کردن $M_{\Gamma T}((\tilde C,\tilde t))$ برای همه مشکلات انتخابی ممکن $(\tilde C,\tilde t)$ برای مقادیر خاص $r_{\tilde انجام میشود. Co},s_{\tilde به}$ و $W_{\tilde C\tilde t}$ یعنی $r_{Co},s_{to}$ و $\bar W_{Ct}$. برای این کار باید تعریف $r_{Co}$ و $s_{to}$ را در نظر بگیریم. مانسکی پیشنهاد میکند که $X$ و $S$ به بخشهای قابل مشاهده و غیر قابل مشاهده مانند $X = [X_o,X_u]$ و $S = [S_o,S_u]$ تقسیم شوند که در آن o قابل مشاهده را اهدا میکند، و u بخش غیر قابل مشاهده. اکنون می توانیم $X_o$ را به صورت $X_0 = (x_{ao}, \forall \ a\in $ **_a_**) بنویسیم. تعریف $r_{Co}$ اکنون توسط $r_{Co} = (x_{ao}، \forall \ a\in C)$ ارائه میشود. بنابراین تنها تفاوت بین $X_o$ و $r_{co}$ مجموعهای است که $x_{ao}$ روی آن تعریف میشود، زیرا $r_{Co}$ همه مجموعههای انتخابی $C$، $X_o$ را در نظر میگیرد. فقط $x_{ao}$ را در فضای جایگزین **_a_** تعریف می کند. **حالا معضل من:** از آنجایی که برای محاسبه (2) باید (1) را محاسبه کنم، باید احتمالات مشترک $M_{\Gamma T}((\tilde C, \tilde t)) را جمع آوری کنم. $ بیش از مقادیر ممکن $r_{Co}، s_{to}$ و $\bar W_{Ct}$. از آنجایی که مقدار $s_{to}$ توسط اعداد صحیح $1$ یا $0$ داده میشود و $\bar W_{Ct}$ تنها یکی از بردارهای مفید ممکن است بسته به این که در حال حاضر به دنبال کدام مجموعه انتخاب هستیم. ، من فقط باید بفهمم که $r_{Co}$ واقعاً چیست. تعریف کاملاً واضح است اما برای این مثال کاملاً مطمئن نیستم. از آنجایی که $x_2$ مشاهده نمی شود، من $r_{Co}$ را به عنوان بردار نتایج مشاهده شده $x_1$، یعنی $r_{Co} = (1.5,0.5,1)$ برای $C = (\) در نظر گرفتم. آلفا، بتا، گاما)$. اما اگر $r_{Co}$ را به این صورت در نظر بگیرم، محاسبه کار نخواهد کرد زیرا (1) همیشه 1 خواهد بود و مجموع در (2) می تواند بزرگتر از 1 شود که البته ممکن نیست. من چند روز است که با این مشکل گیر کرده ام و هر کمکی بسیار قدردانی خواهد شد! | درک پارادایم انتخاب دو مرحله ای |
37934 | من سعی می کنم مقاله زیر را پیاده سازی کنم: آموزش ماتریس هسته با برنامه نویسی نیمه معین با استفاده از جعبه ابزار cvx برای متلب. سوال من این است که دقیقاً چگونه می توانم از این روش با اعتبارسنجی متقابل برای ایجاد مقداری از دقت متوسط یا تعمیم پذیری استفاده کنم. وضعیت من به شرح زیر است: من 100 آزمایش از یک شخص دارم. همه اینها برچسب گذاری شده اند، به این ترتیب که ما می دانیم چه نوع آزمایشی را به فرد داده ایم تا انجام دهد: A یا B. اکنون میخواهم یک طبقهبندی بسازم تا ببینم آیا میتوانیم آنها را بدون برچسبها از هم جدا کنیم، به این امید که در آینده به دادههای بدون برچسب تعمیم دهیم. بنابراین، من به دنبال اجرای معادله حاشیه نرم 2-هنجاری در مقاله (معادله 41) با استفاده از cvx برای یادگیری ماتریس هسته رفتم تا سعی کنم ماتریس هسته ایده آل را یاد بگیرم. من نمی دانم دقیقاً چگونه با اعتبارسنجی متقابل مطابقت دارد. آیا منطقی است که دادههایم را به قطار/آزمون تقسیم کنم، سپس ماتریس هسته را با استفاده از تکنیکی که توضیح داده شد، یاد بگیرم و روی دادههای آزمایشیام آزمایش کنم، و سپس دادههایم را دوباره در یک مجموعه قطار/آزمایش جدید به هم بزنم و هسته را دوباره یاد بگیرم؟ وقتی من اساساً هر بار هسته جدیدی یاد میگیرم، این چگونه به تعمیم این موضوع اشاره میکند؟ تصور کنید من یک اعتبار سنجی متقاطع 5 برابری انجام دهم و چیزی شبیه به: 50، 75، 85، 95، 100% دریافت کنم؟ از آن چه نتیجه ای می توانم بگیرم؟ اینکه طبقه بندی کننده من 81 درصد دقت دارد؟ در مورد آزمایشات 50% و 75% چطور؟ اگر مسیرهای من مقداری میانگین داشته باشند، اما واریانس عظیمی داشته باشند، چه؟ چگونه می توانم اعتماد به نفس داشته باشم؟ همچنین، از کدام یک از پنج ماتریس هسته ای که اکنون یاد گرفته ام، روی داده های نادیده تازه جمع آوری شده استفاده کنم؟ | اعتبار سنجی متقاطع به عنوان معیار تعمیم پذیری SVM |
9785 | راب تیبشیرانی در مقاله خود در سال 1997 روش کمند برای انتخاب متغیر در مدل کاکس که در Statistics In Medicine 16:385 منتشر شد، استفاده از کمند با رگرسیون کاکس را برای انتخاب متغیر پیشنهاد کرد. آیا کسی بسته / تابع یا نحو R در R می شناسد که با مدل Cox کمند کند؟ | مدل کاکس با LASSO |
9786 | من می خواهم فرضیه کاهش سطح ویتامین D را در افراد دیابتی آزمایش کنم. برای این منظور من سطح گلوکز و ویتامین D خون را در 40 مورد و 40 کنترل ثبت کردم. از چه نوع آزمون آماری می توانم برای فرضیه فوق استفاده کنم؟ | چگونه سطوح ویتامین D و گلوکز را بین بیماران و گروه شاهد مقایسه کنیم؟ |
60627 | چند وقت پیش، تحقیقات آموزشی انجام دادم و نمرات امتحانات را بین دو گروه مقایسه کردم. یادم می آید جایی خواندم که امتحانات آموزشی از این قبیل از توزیع نرمال پیروی می کنند. البته توزیع های نرمال الزاما باید بی نهایت باشد و نمرات امتحانات آموزشی اینطور نیست. آیا از نظر ریاضی درست است که بگوییم این نمرات به جای توزیع نرمال سنتی از «توزیع نرمال کوتاه شده» پیروی می کنند؟ آیا این برش مانع از استفاده از آزمون t برای مقایسه دو گروه می شود؟ | در مورد توزیع نمرات امتحانات و استفاده از آزمون t |
37939 | داده ها در یک کارآزمایی بالینی برای ارزیابی ترکیب جدیدی که برای بهبود بهبود زخم در بیماران طراحی شده است، جمع آوری می شود. ترکیب جدید با دارونما مقایسه می شود. پس از درمان به مدت 5 روز با ترکیب جدید یا دارونما، میزان بهبود زخم اندازه گیری شده و داده ها در جدول نشان داده شده است. فرض کنید پزشک احساس کند که اگر درصد کاهش اندازه زخم بیش از 50 درصد باشد، درمان موفقیت آمیز است. الف یک فاصله اطمینان 95% برای درصد موفقیت در بیماران دریافت کننده ترکیب جدید ایجاد کنید. ب برای تفاوت در درصد موفقیت بین ترکیب جدید و پلاسبو، یک فاصله اطمینان 95٪ ایجاد کنید. ج ایجاد فاصله اطمینان 95% برای خطر نسبی موفقیت درمان بین درمان ها d. یک فاصله اطمینان 95% برای نسبت شانس موفقیت درمان بین درمان ها ایجاد کنید. جدول: تعداد بیماران با درصد کاهش اندازه زخم ترکیب جدید n=125 هیچ=4 1-25=11 25-50=37 51-75=32 76-100=41 دارونما n=125 هیچ=12 1-25 =24 25-50=45 51-75=34 76-100=10 همچنین: الف یک فاصله اطمینان 95% برای میانگین سنی در میان شرکت کنندگانی که به دارونما اختصاص داده شده اند ایجاد کنید. ب یک فاصله زمانی اطمینان از تفاوت میانگین سنی در شرکتکنندگانی که به گروههای آزمایشی در مقابل گروه دارونما اختصاص داده شدهاند، ایجاد کنید. ج یک فاصله اطمینان 95% برای تفاوت میانگین BMI در شرکتکنندگانی که به گروههای آزمایشی نسبت به گروه دارونما اختصاص داده شدهاند، ایجاد کنید. | پرسش کارآزمایی بالینی فاصله اطمینان |
54716 | من از یک بوت استرپ وحشی برای ایجاد فواصل اطمینان حول مقادیر متناسب مدل زیر برای ترکیب خاصی از عوامل استفاده می کنم، زیرا x در محدوده آن متفاوت است. mod = gam(log(lhs)~ s(re,bs=re,by=dum) + as.factor(fac1) + as.factor(fac2) + as.factor(fac3) + s(x،by =as.factor(fac1)) + s(x,by=as.factor(fac2)) ,method=REML ,data = dat) من به سادگی انجام نمی دهم `predict.gam(mod, newdata=whatever,se.fit=TRUE)` زیرا متغیر وابسته یک گزارش است و SE*1.96 با صفر همپوشانی دارد. چیزی که من میخواهم توزیعی از $lhs^{-1}|x$ است که میتوانم از آن در شبیهسازی مونت کارلو استفاده کنم، جایی که x را مشخص میکنم و از توزیع شرطی $lhs$ ترسیم میکنم. بنابراین من از یک راهانداز وحشی استفاده میکنم - بردار باقیمانده را میگیرم، آن را در توزیع Mammen ضرب میکنم، آن را به مقادیر برازش اضافه میکنم، و مدل را دوباره به $lhs^*$ حاصل میدهم. به طور دقیق، من از بوت استرپ وحشی خوشه ای استفاده می کنم، زیرا داده های من خوشه ای هستند. وقتی این کار را انجام میدهم، این را دریافت میکنم:  این مقادیر 50 نفره بوتاستریپ است. من میخواهم هنگام انجام مونت کارلو از این نمونه برداری کنم -- با دادن یک $x$ و گرفتن مقدار احتمالی $lhs|x$. **سوال من: از آنجایی که تخمین مرکزی به وضوح در مرکز توزیع مقادیر برازش قرار ندارد، تخمین مرکزی شامل چه اطلاعات یا ارزشی است؟ یا، آیا باید این عدم تقارن را به عنوان نشانهای در نظر بگیرم که یا از ابزار اشتباهی استفاده میکنم یا از آن بهدرستی استفاده میکنم؟ (توجه: این نمودار $lhs^{-1}|x$ است. من همچنین به نمودارهای $log(lhs)|x$ نگاه کردهام، که مدل مشخص میکند. به طور مشابه غیر متقارن است. بنابراین به نظر نمی رسد مشکل من این باشد که CI تحت تبدیل به سادگی متقارن است.) (یک نکته دیگر: توزیع نشان داده شده - بالای تخمین مرکزی در سمت چپ و زیر آن در سمت راست - بسیار زیاد است مطابق با پیشینیان من). مشاوره بسیار قدردانی می شود. | وقتی فاصله اطمینان نامتقارن است، در مورد تخمین مرکزی چگونه فکر می کنید؟ |
60626 | (با عرض پوزش برای ارسال متقابل از math.stackexchange.com؛ من تا به حال از این سایت اطلاعی نداشتم). من می خواهم عملکرد دو الگوریتم را آزمایش کنم. دومی نوعی از اولی است. هیچ داده قبلی در مورد عملکرد هر یک در یک دامنه خاص وجود ندارد. عملکرد هر دو در هر نمونه معین بر اساس یک طبقه بندی باینری ساده از موفقیت یا شکست قضاوت می شود. فرضیه صفر من این است که هیچ تفاوتی در عملکرد دو الگوریتم وجود ندارد. فرضیه جایگزین من این است که دومی بهتر عمل می کند. من $n$ نمونه به دست آوردم و نتیجه هر دو الگوریتم در هر نمونه ارزیابی شد. من با نسبت موفقیت برای هر دو الگوریتم به پایان رسیدم. آیا این واقعیت که الگوریتمها به طور مستقل روی نمونهها عمل میکنند به این معنی است که من اکنون در استفاده از آزمون $z$ برای مقایسه دو نسبت توجیه شدهام؟ یا باید $n$ را تقسیم کنم و یک الگوریتم معین را در برابر بخشی از $n$ و الگوریتم دیگر را در قسمت دیگر اجرا کنم؟ به دلیل محدودیتهای عملیاتی، جمعآوری نمونهها دشوار بود/میشود، و تقسیم $n$ بسیار ناخوشایند است. همچنین میخواهم بتوانم نمونهها را مستقیماً با یکدیگر مقایسه کنم تا به محدودیتهای الگوریتم دوم دست پیدا کنم. گزینه های من چیست؟ آیا نوع دیگری از تست $z$ وجود دارد که در اینجا اعمال شود؟ از آنجایی که $n$ برای شروع کوچک بود، آیا باید دستانم را بالا بیاورم و این را به عنوان یک مطالعه آزمایشی اعلام کنم؟ اگر من واقعاً این کار را انجام دهم، آیا استفاده از آزمون $z$ برای دو نسبت توجیه می شود؟ هر ورودی بسیار قدردانی می شود. دارم به خودم لگد می زنم که از قبل به این موضوع فکر نکرده بودم. همانطور که می دانید من دقیقاً در این زمینه یک دانشگاهی نیستم. | استفاده مناسب از آزمون z در مقایسه دو نسبت |
112402 | من سعی می کنم یک تابع درستنمایی سفارشی ایجاد کنم که بسته به درونزا یا برون زا بودن یک مشاهده، از توابع احتمال متفاوتی استفاده کند. آیا می توان تابع من را با استفاده از متغیر پیوند در تابع 'glm' در بسته 'glm' کدگذاری کرد؟ یا باید همه کارها را با دست انجام دهم و سپس از یک روش بهینه سازی مانند 'optim' استفاده کنم؟ متشکرم! | آیا می توان یک تابع احتمال سفارشی را با استفاده از متغیر link در بسته glm تعیین کرد؟ |
91262 | من روی یک مشکل طبقه بندی نامتعادل کار می کنم که در آن نسبت هدف به غیر هدف حدود 1٪ تا 99٪ است. از آنجایی که این یک مشکل طبقه بندی نامتعادل است، من یک استراتژی را با استفاده از بسته SMOTE در R امتحان کردم. قبل از آن متغیرهای مشتق شده اضافی نیز به مجموعه داده SAS و همچنین برخی از قوانین تجاری پروکسی برای افزایش تعداد نمونه های هدف موجود اضافه شدند. دستکاریهای اولیه دادهها مانند، کفبندی/پوشش مقادیر برای تعداد کمی از متغیرها، تبدیل متغیرها و پیوند متغیرها با آماره جینی قبل از استفاده از تکنیک مدلسازی واقعی انجام شد از آنجایی که نسبتهای موجود tgt به غیر tgt منحرف بود، من یک الگوریتم SMOTE را اجرا کردم. (perc.over = 14250% و perc.under = 100%) از طریق R برای ایجاد یک مجموعه داده متعادل. پستی که احتمالات قبلی تنظیم شده به نسبت های اصلی تنظیم شده است، زیرا من به طور مصنوعی این نسبت ها را باد کرده ام. سپس یک درخت تصمیم روی خروجی SMOTE قرار گرفت تا نتایج را بدست آورد. با این حال، زمانی که من این نتایج را جمعآوری میکنم تا بررسی کنم که چند نمونه tgt = Y در ابتدا طبقهبندی شدهاند، این عدد ناامیدکنندهای بود که تنها حدود 15 مورد از کل tgt = Y = 1870 مورد بود. از این رو مایلم در مورد اینکه آیا تکنیک دیگری وجود دارد که بتوان از آن استفاده کرد نظر بدهم. PS: من سعی کردم از یک گره درخت تصمیم استفاده کنم، بین گروه های شروع و پایان جاسازی شده و تقویت را برای 5 تکرار انتخاب کردم. این نتایج یک نرخ مثبت واقعی خوب را ارائه می دهد، با این حال، مثبت های کاذب نیز هزاران نفر هستند که دوباره نگران کننده است. با تشکر، AJ. | چه مقدار نمونه برداری بیش از حد در الگوریتم SMOTE توجیه می شود؟ |
107847 | من از یک رگرسیون بردار پشتیبان استفاده میکنم تا تخمینی از یک متغیر y را بدست بیاورم. من می خواهم یک توزیع احتمال از تخمین هایم دریافت کنم و نه فقط تخمین های نقطه ای. من میخواهم توزیعهای گاوسی را برای هر نقطهای که میانگین باید نقطه من باشد، پیشبینی کنم و همچنین یک واریانس میدهم. آنچه من برای اجتناب از استفاده از روش هایی مانند فرآیندهای گاوسی یا SVM احتمالی فکر می کنم، استفاده از تاریخچه N پنجره و استفاده از خطا به عنوان واریانس برای تخمین های جدیدم است. به عنوان مثال std خطای آخرین N پنجره 0.5 است. سپس تخمین اگر پیشبینی من 5 باشد، N (5,0.5) است. آیا این رویکرد درست است؟ | رگرسیون تخمین گاوسی به جای امتیاز |
48160 | من مقاله هینتون آموزش محصولات متخصصان با به حداقل رساندن واگرایی متضاد را در مورد آموزش PoE می خوانم. توضیحی در مورد بیان PoE وجود دارد که می گوید: زیرا توزیع خلفی نمی تواند واضح تر از مدل های جداگانه در مخلوط باشد و مدل های جداگانه باید به طور گسترده تنظیم شوند تا بتوانند منیفولد 35 بعدی را پوشش دهند. من می توانم نیمه اول را درک کنم اما نیمه دوم را کاملاً درک نمی کنم: مدل های فردی باید به طور گسترده تنظیم شوند تا به آنها اجازه دهند منیفولد 35 بعدی را بپوشانند. آیا ممکن است که یک مدل منفرد در MoE در یک نقطه تیز باشد در حالی که مدل های دیگر در همان نقطه کوچک باشند؟ در صورت امکان، این باعث می شود که قسمت خلفی در آن نقطه بسیار تیز باشد. | قدرت بیانی PoE بر MoE |
48165 | من سعی می کنم یک حداقل مربعات ساده بر روی برخی داده ها انجام دهم. فرمول به سادگی این است: $Y = C_0X_1 + C_0X_2 + C_0X_3 + C_0X_4 + C_0X_5$ من 24 ردیف از $Y$ و $X$ دارم، و سعی میکنم با $C$ مطابقت کنم. با این حال، مشکل این است که باید محدودههای $C$ را بدون توجه به کیفیت تناسب، غیر صفر بودن محدود کنم. من اسناد lm را در R خوانده ام، اما نمی توانم گزینه ای را برای محدود کردن محدوده های متغیر پیدا کنم. هر ایده ای؟ | رگرسیون خطی چندگانه با محدوده محدود در R |
48163 | 1) آستانه یا معیاری برای گفتن اینکه تنوع داده ها زیاد است چیست؟ معمولاً با مقایسه با مجموعه داده دیگری می گوییم تنوع زیاد یا کم. اما تنها یک مجموعه داده وجود دارد. 2) میتوانیم از boxplot برای تجسم انحراف معیار، میانگین و غیره دادهها استفاده کنیم. با این حال، من کنجکاو هستم که بدانم آیا روش تجسم یا روش توزیع در R به _stress_ وجود دارد که تنوع در یک نمودار زیاد باشد. به عنوان مثال من یک مجموعه داده 64 امتیازی دارم و یک بعدی است. لطفا داده های زیر را ببینید. فرض کنید مقادیر همیشه مثبت هستند. میانگین آن 32.8، انحراف معیار (sd) 37.7 و ضریب تغییرات (cv) 1.2 است. شاید این سوالات احمقانه باشد. اما اگر توضیحی دریافت نکنم، خیالم راحت نخواهد شد. لطفا کمکم کنید. متشکرم. 0 19 0 83 88 97 0 50 0 82 89 0 0 0 0 0 0 17 33 34 0 0 0 50 59 84 0 67 83 89 0 17 0 66 1 59 86 0 0 0 0 1 59 89 08 01 4 85 89 25 50 83 34 0 0 0 0 0 0 0 96 0 89 19 | درک تنوع داده ها و تجسم |
48162 | من در حال مطالعه ماشین محدود بولتزمن (RBM) هستم و مشکلاتی در درک محاسبات احتمال ورود به سیستم W.r.t دارم. پارامترهای RBM حتی با وجود اینکه مقالات تحقیقاتی زیادی در مورد RBM منتشر شده است، هیچ مرحله دقیقی از مشتقات وجود ندارد. پس از جستجوی آنلاین توانستم سند زیر را پیدا کنم. http://image.diku.dk/igel/paper/AItRBM-proof.pdf با این حال، جزئیات این سند برای من بسیار پیشرفته است. آیا کسی می تواند به من یک یادداشت آموزشی/سخنرانی خوب در مورد RBM بدهد؟ ویرایش: @ David بخش های گیج کننده در زیر نشان داده شده است (معادله 29 در صفحه 26).  | آموزش خوب برای ماشین محدود بولتزمن (RBM) |
37935 | هنگام انجام ANCOVA، نرم افزار معمولاً هم میانگین های تنظیم نشده و هم ابزارهای تنظیم شده را ارائه می دهد. با این حال، آزمون های تعقیبی برای اکثر برنامه های آماری به میانگین های تنظیم نشده محدود می شود. با این حال، گاهی اوقات، اگر کسی در حال انجام یک ANCOVA باشد، مقایسات تعدیلشده مقایسات مورد نظر است، نه مقایسههای تعدیلنشده. یا اشتباه میکنم - آیا باید به دلایلی از آزمایشهای تعدیلشده اجتناب شود؟ آزمایشهای تعقیبی برای میانگینهای تنظیمشده برای مدتی طولانی وجود داشته است، مانند روش GT2 Hochberg (1974). نسخه اصلاح شده آزمایش GT2 در بیومتری سوکال و روهلف (ویرایش دوم 1981 و احتمالاً در نسخه های جدیدتر) به طور خاص برای ابزارهای تنظیم شده ظاهر می شود. همچنین روش T (Spjotvoll و Stoline 1973) نیز در Sokal and Rohlf (1981) برای مقایسه میانگین های تعدیل شده اصلاح شده است. پس چرا برنامه های آماری پس از حذف مقداری از واریانس متغیر کمکی، اگر بخواهیم بدانیم کدام درمان (A در مقابل B، A در مقابل C و غیره) متفاوت است، برنامه های آماری آزمون های تعدیل شده را انجام نمی دهند؟ Hochberg, Y. 1974. برخی از تعمیم های محافظه کارانه روش T در استنتاج همزمان. مجله تحلیل چند متغیره، 4:224 -234. Spjotvoll، E، Stoline، MR. 1973. گسترش روش T-مقایسه چندگانه برای شامل مواردی با حجم نمونه نابرابر. J Am Stat Assoc. 68:976-978. | تست تعقیبی میانگین های تنظیم شده (بعد از ANCOVA) |
62666 | این اساساً یک نسخه اصلاح شده از سؤالی است که قبلاً بدون پاسخ در اینجا مطرح کردم، زیرا در حال شروع به تفکر دوم در مورد روش شناسی خود هستم. به طور خلاصه، من چهار متغیر تصادفی دارم: Xideal، Xnonideal، Yideal، Ynonideal، که چندین بار نمونهبرداری کردهام (> 30). من می توانم تفاوت بین Xideal و Xnonideal (که با X مشخص می شود) و همچنین تفاوت بین Yideal و Ynonideal (با Y) که می توانم تفاوت میانگین و خطای استاندارد را نشان دهم: N_ideal N_nonideal میانگین تفاوت خطای استاندارد X 64 62 23.5 1.56 Y 71 67 27.1 1.67 من الان هستم به دنبال بدست آوردن p-value برای ارزیابی تفاوت بین X و Y هستیم. آمار t اگر اشتباه نکنم به سادگی $$ t_s = (27.1 - 23.5)/\sqrt{1.56^2 + 1.67^2} است. $$ حدس میزنم اکنون سؤال این است که چگونه میتوانم درجات آزادی (df) را محاسبه کنم؟ ویرایش: من خطای استاندارد را با فرمول زیر محاسبه کردم $$ ste_{X} = \sqrt{ \sigma^2_{X_{ideal}}/N_{X_{ideal}}+\sigma^2_{X_{nonideal}} /N_{X_{nonideal}}} $$ ویرایش 2: خوب، برای جمع بندی این، من چهار متغیر تصادفی مستقل دارم، به df از $$ Z = (X_{i}-X_{n}) - (Y_{i}-Y_{n}) $$ با نگاهی به معادله ولش-ساترویت، پاسخ من این خواهد بود: (اگر $$Nt_x = N_x - 1$$) $$ v_Z = \frac{(Var(X_{i})+Var(X_{n}) + Var(Y_{i})+ Var(Y_{n}))^2}{(Var(X_{i}))^2/Nt_{Xi}+(Var(X_{n}))^2/Nt_{Xn}+(Var(Y_ {i}))^2/Nt_{Yi}+(Var(Y_{n}))^2/Nt_{Yn}} = 236 $$ یا $$ v_Z = \frac{(Var(X_{i})-Var(X_{n}) - Var(Y_{i} )+ Var(Y_{n}))^2}{(Var(X_{i}))^2/Nt_{Xi}+(Var(X_{n}))^2/Nt_{Xn}+(Var(Y_ {i}))^2/Nt_{Yi}+(Var(Y_{n}))^2/Nt_{Yn}} = 16 دلار | درجات آزادی یک تابع خطی از چهار متغیر تصادفی مستقل |
113759 | من برخی از داده ها در محدوده [0، 1] دارم، و از هیستوگرام زیر، به نظر می رسد که آنها ممکن است از توزیعی با تابع چگالی احتمال خطی گرفته شوند (نام آن نوع توزیع چیست؟). چگونه پارامترهای آن توزیع را تخمین بزنم و چگونه می توانم آزمایش کنم که چقدر احتمال دارد داده ها از آن در R گرفته شده اند؟  به روز رسانی: اکنون می دانم (با تشکر از Glen_b) آیا می توانم PDF را تعریف کنم (مثلاً، $ P(x) = تبر + b$)، می توانم آن را با آزمون Kolmogorov-Smirnov آزمایش کنم، اما چگونه می توانم $a$ و $b$ را از نمونه تخمین بزنم؟ | چگونه آزمایش کنیم که آیا برخی از نقاط داده از یک توزیع با PDF خطی گرفته شده است؟ |
67019 | واریانس مجموعهای از $n$ متغیرهای باینری $D = <x_1, \ldots, x_n>$ $$ است {\rm var(D)} = \frac{k(n-k)}{n^2}, $ $ که $k$ نشان دهنده تعداد $1$s در $D$ است (به http://capone.mtsu.edu/dwalsh/VBOUND2.pdf مراجعه کنید). در Matlab واریانس $<1، 0، 0، 1، 0، 0>$ 0.2667 است، در حالی که با استفاده از فرمول بالا واریانس 0.22 است. دلیل آن چیست؟ علاوه بر این، نسخه ساده شده فرمول کوواریانس بین دو متغیر باینری چیست؟ | واریانس و کوواریانس داده های باینری |
91132 | اگر من نیاز به ساخت منحنی بازده داشته باشم، n حداقل تعداد نقاط داده لازم برای هر روش درون یابی چقدر است، به عنوان مثال. می گویند spline مکعبی یا Nelson–Siegel، و غیره. با تشکر | حداقل امتیاز مورد نیاز برای برازش منحنی |
27429 | فرانک هارل در پاسخ به سوالی در مورد انتخاب مدل در حضور چند خطی بودن پیشنهاد کرد: > همه متغیرها را در مدل قرار دهید اما اثر یک را آزمایش نکنید > متغیر تنظیم شده برای اثرات متغیرهای رقیب... تست های تکه ای > متغیرهای رقیب قدرتمند هستند زیرا متغیرهای خطی در > آزمون تداعی درجه آزادی چندگانه کلی نیروها را به هم می پیوندند، به جای > رقابت با یکدیگر مانند زمانی که متغیرها را به صورت جداگانه آزمایش می کنید. تست های _چانک_ چیست؟ آیا می توانید مثالی از کاربرد آنها در `r` بیاورید؟ | تست های تکه چیست؟ |
37930 | من سعی کرده ام در مورد تجزیه و تحلیل شبکه به خودم بیاموزم، و توانسته ام نمودارهای DAG را در R توسعه دهم. با این حال، سه یا چهار بسته R را بررسی کرده ام و چیز کمی در مسیر ایجاد یک تابع برای ایجاد اتصال دیده ام. احتمالات برای شبکه نمودار DAG به من در مورد متغیرها در رابطه با یکدیگر می گوید، اما من بیشتر در مورد احتمالات کنجکاو هستم و راهی برای انجام آن در R پیدا نکرده ام. توطئه ها یا تمرکز بر استنتاج، و می خواهم بدانم چگونه می توانم احتمالات شبکه ها را بدست بیاورم. library(bnlearn) library(Rgraphviz) dat=data.frame(won=c(1,0,0,1,0,0), sold=c(0,0,0,1,0,0 ), بیمه شده=c(0,0,1,0,0,1), اعتبار=c(فقیر،عادلانه،خوب،عادلانه،عادلانه،خوب)) dat$ برد = factor(dat$won) dat$sold = factor(dat$sold) dat$insured = factor(dat$insured) dat$credit = factor(dat$credit) highlight.opts <- list(nodes = c(win فروخته شده، بیمه شده، اعتبار)، col = قرمز، fill = خاکستری) bn.hc <- hc(dat، score = aic) graphviz.plot(bn.hc، highlight=highlight.opts) | پیش بینی با شبکه های بیزی در R |
48166 | من از یک مدل پروبیت و لاجیت برای به دست آوردن احتمالات انتخاب برخی از داده ها استفاده می کنم. چه نوع نمودارهایی می تواند برای انجام تجزیه و تحلیل داده های اکتشافی برای این داده ها مفید باشد؟ در اینجا داده های شبیه سازی شده است: set.seed(1) x. first <- rbinom(1000,1,0.5) x.second <- rbinom(1000,1,0.5) y <- rbinom(1000,1,0.5) delta .x <- x.first-x.second و مدل های من logit(p) <- delta.x بتا هستند phi^{-1}(p) <- delta.x بتا که در آن phi^{-1} معکوس توزیع نرمال استاندارد «cdf» و بتا ضرایب رگرسیون است. | تجزیه و تحلیل داده های اکتشافی برای داده های گسسته |
20437 | هنگام کار با زنجیره مارکوف مونت کارلو برای استنتاج، به زنجیره ای نیاز داریم که به سرعت مخلوط شود، یعنی تکیه گاه توزیع خلفی را به سرعت حرکت دهد. اما نمیفهمم چرا ما به این ویژگی نیاز داریم، زیرا از آنچه من میدانم، نامزد پذیرفتهشده باید در قسمت با چگالی بالا توزیع پسین متمرکز شود. اگر آنچه من میدانم درست باشد، آیا همچنان میخواهیم که زنجیره از طریق ساپورت (که شامل قسمت کم چگالی است) حرکت کند؟ علاوه بر این، اگر از MCMC برای انجام بهینهسازی استفاده میکنم، آیا هنوز باید به اختلاط سریع اهمیت بدهم و چرا؟ از شما برای به اشتراک گذاشتن افکار خود متشکرم! | چرا باید به اختلاط سریع در زنجیره های MCMC اهمیت دهیم؟ |
62992 | من سعی می کنم تفاوت دقیق بین طبقه بندی و طبقه بندی را با توجه به داده / متن کاوی درک کنم. ممنون میشم اگه با یه مثال ساده توضیح بدین. | تفاوت بین طبقه بندی و طبقه بندی با توجه به داده / متن کاوی |
20438 | من یک مدل GEE را با استفاده از تابع 'genZcor' با ماتریس همبستگی تعریف شده توسط کاربر نصب کردم. من می خواهم ماتریس var-cov ضرایب رگرسیون را بدست بیاورم. اما خروجی تنها اطلاعات محدودی را ارائه می دهد. خیلی ممنون می شوم اگر لطف کنید به من اطلاع دهید که چگونه آن را دریافت کنم، زیرا من برای دریافت آن با مشکل مواجه هستم. | دریافت ماتریس واریانس کوواریانس ضرایب رگرسیون در GEE |
113755 | اگر $ X_1، ...، X_n$ دو جمله ای IID با پارامترهای $ n$ و $p هستند، $ یک برآوردگر بی طرف برای $$G(p)=P(X_1=1)=np(1-p)^{ n-1}\, .$$ باید این برآوردگر را پیدا کنم تا بتوانم قضیه Lehmann-Scheffé را اعمال کنم. من فکر می کنم نمی تواند یک برآوردگر دیوانه باشد. اما چیزی پیدا نکردم. آیا می توانم راهنمایی داشته باشم؟ $$\mathrm{E}[X_1(1-X_2/n)] = n p (1-p) \, .$$ شاید راه خوبی برای دنبال کردن باشد. | برآوردگر بی طرفانه برای $P(X_1=1)$ |
99440 | من باید توزیع گامای چند متغیره را با ماتریس کوواریانس معین مثبت و معین ایجاد کنم. کسی میتونه روشی به من پیشنهاد کنه؟ با تشکر | ایجاد میدان تصادفی گاما با ماتریس کوواریانس داده شده |
91134 | داده های مثال زیر را در نظر بگیرید: df1 <- data.frame(customer=c(rep(customer1,5),rep(customer2,10),rep(customer3,7)), money_spent=sample(22 )) df2 <- data.frame(customer=c(customer1،customer2،customer3)، origin=c(ایالات متحده،ایالات متحده،بریتانیا)، industri_sector=c(IS1،IS2،IS3)، ارز=c(USD،USD،GBP) ) داده های واقعی من از حدود 200000 ردیف تشکیل شده است و من می خواهم آن را از نظر اینکه، به عنوان مثال، آیا مشتریان ایالات متحده در مقایسه با مشتریان سایر کشورها پول بیشتری خرج کرده اند، بررسی کنم. همچنین میخواهم ببینم آیا میزان هزینهای که صرف میشود به بخش صنعت و غیره بستگی دارد یا خیر. من به غیر از مبدا، بخش صنعت و ارز، متغیرهای توضیحی بیشتری دارم که میخواهم آنها را بررسی کنم. همچنین تعداد سوابق برای مشتریان متفاوت است به طوری که ممکن است میانگین پول خرج شده برای هر مشتری منطقی باشد. من مطمئن نیستم که چگونه این داده ها را به بهترین شکل تجزیه و تحلیل کنم. من ابتدا به تجزیه و تحلیل خوشهای، بهویژه، خوشهبندی سلسله مراتبی فکر کردم، اما مطمئن نیستم که آیا میتوان آن را برای چنین دادههایی اعمال کرد و بهویژه، چگونه دادههایی را که باید در تابع قرار داده شوند، ساختار داد. تابع R 'hclust' یک ماتریس را به عنوان ورودی می گیرد، اما چگونه می توانم چنین ماتریسی را از نظر داده های خود ساختار دهم؟ آیا خوشه بندی k-means می تواند جایگزین بهتری باشد؟ رویکرد دیگر احتمالاً تجزیه و تحلیل این دادهها با استفاده از نمودارهای جعبهای و یک رویکرد ANOVA یک طرفه است تا ببیند که آیا پول خرج شده بین کشورها یا بخشهای مختلف صنعت متفاوت است یا خیر. با این حال، این رویکرد وابستگی متغیرها به یکدیگر را آزمایش نمی کند. برای بررسی این موضوع، به من توصیه شده است که ابتدا یک درخت تصمیم را اعمال کنم و سپس تحلیل معناداری آماری را انجام دهم. با این حال، با توجه به آنچه تاکنون خواندهام، نمیتوانم ببینم چگونه درختهای تصمیم میتوانند به من در تشخیص وابستگیهای متغیر کمک کنند. بنابراین، من نمیپرسم آیا تکنیکها/کارکردهای دیگری/بهتر وجود دارد که برای چنین دادههایی مناسبتر باشد؟ شاید تحلیل سری زمانی مناسب تر باشد زیرا ما تاریخ هایی را که مشتریان پول خرج کرده اند نیز ثبت کرده ایم. | مشاوره در مورد چگونگی تجزیه و تحلیل داده های مشتری در R |
91138 | من با SPSS جدید هستم و سعی می کنم از SPSS برای ایجاد متغیری در مورد کیفیت خدمات بهداشتی در دسترس ساکنان یک منطقه استفاده کنم. در زیر متغیرهای طبقهبندی هستند که میتوانند کیفیت سلامت در دسترس آنها را به من نشان دهند. * عدم پوشش بیمه ای هزینه مراقبت های بهداشتی * عدم دسترسی به خدمات آمبولانس * توجه ضعیف پرسنل پزشکی * تجهیزات پزشکی ضعیف * تهیه دارو ضعیف * زمان صرف شده از محل اقامت تا مرکز درمانی بیش از 30 دقیقه * زمان انتظار ضعیف در مرکز درمانی * مرکز بهداشتی در دسترس نیست در داخل همسایگی چگونه می توانم یک مقدار عددی برای کیفیت سلامت این جمعیت از مقادیر تعداد این متغیرها ایجاد کنم، با در نظر گرفتن اینکه چندین پاسخ دهنده ممکن است هر متغیر را به عنوان تایید کنند. درست است. | چگونه می توان چندین متغیر طبقه بندی را در یک معیار کیفیت سلامت ترکیب کرد؟ |
27428 | من سعی می کنم با استفاده از Fotheringham and O'Kelly (1989) مقدار R^2$ را برای مدل تعامل فضایی محدود تولید محاسبه کنم. من مقادیر بسیار متفاوتی را برای R-Square دریافت می کنم، بسته به این که آیا آن را به عنوان r-square <\- 1 - SSe/SSt یا r-square <\- cor(x, y)^2 محاسبه می کنم. آیا این نتیجه قابل انتظار است؟ البته ممکن است من در این مسیر اشتباه محاسبه کنم. من میخواهم از r-square بهعنوان معیاری (ناقص اما مفید و کاملاً قابل درک) برای اندازهگیری خوب بودن استفاده کنم، همانطور که Fotheringham & Knudsen (1987) توصیه میکنند. یک مثال قابل تکرار در زیر آمده است. من خروجی مدل خود را در یک csv ذخیره کردهام تا در اینجا فضا ذخیره شود. predobs <- read.csv(http://dl.dropbox.com/u/66606821/pred_obs.csv) sst <- sum((predobs$obs - mean(predobs$obs))^2) sse <- sum((predobs$obs - predobs$pred)^2) (r.square.1 <- 1 - (sse/sst)) (r.square.2 <- cor(predobs$obs, predobs$pred)^2) | آیا محاسبات $1-SSe/SSt$ و $cor^2$ R^2$ همیشه معادل هستند؟ |
67014 | من در حال مطالعه رشد یک جمعیت (کاربران یک وب سایت) هستم. من تعداد کاربر برای هر بلوک زمانی (که 2 هفته است) دارم. اکنون، میخواهم بدانم که آیا این رشد از یک منحنی رشد شناخته شده پیروی میکند یا خیر. برای شروع، من این رگرسیون را روی R روی 30 مشاهده با «glm(tot_users ~ block_id,family=binomial(logit)، data =df)» اجرا کردم. این مشاهدات هستند: > > 25,83,111,164,251,370,557,815,1154,1513,2032,2605,3590,4904,5718,6602,7628,872 7,9471,10263,11047,11799,12441,13040,13634,14168,14582,15143,15649,16164,16472 این چیزی است که من دریافت میکنم: ضرایب: (برق) block_id10 block_id11 block_id12 block_id13 block_id14 block_id15 block_id16 block_id17 block_id18 block_id19 block_id2 block_id20 block_id21 block_id22 block_id23 block_id22 block_id22 block block_id29 block_id3 block_id30 block_id31 block_id4 block_id5 block_id6 block_id7 block_id8 -9.397e+00 6.331e+00 6.667e+00 7.148e+00 7.398e+00 7.714+00 7.714+. 8.151e+00 8.364e+00 8.623e+00 8.979e+00 1.958e-13 9.263e+00 9.430e+00 9.591e+00 9.817e+00 9.917e+00 9.9801+0. 1.048e+01 1.067e+01 1.098e+01 1.126e+01 6.932e-01 1.196e+01 3.196e+01 2.946e+00 3.468e+00 4.7505+50. 5.896e+00 block_id9 6.150e+00 درجه آزادی: 30 مجموع (یعنی پوچ)؛ 0 انحراف صفر باقیمانده: 17.57 انحراف باقیمانده: 3.167e-10 AIC: 74.87 اگر این مدل را رسم کنم، یک تقریب به طرز شگفت انگیزی نزدیک به دست میآورم. انحراف باقیمانده بسیار کم به نظر می رسد، که نشان می دهد مدل بسیار خوب است (آیا؟). سوالات من این است: 1) آیا می توانم فرض کنم که رشد متغیر من از یک منحنی لجستیک پیروی می کند؟ 2) به نظر شما چه منحنی های دیگری را باید انجام دهم؟ 3) فرآیند اعتبارسنجی معمول برای انتشار نتایج رگرسیون چیست؟ معمولا چه اقداماتی گزارش می شود؟ ممنون از هر راهنمایی مولون | مدل های رشد برای یک جمعیت |
68973 | کریپندورف مقاله ای (نسخه های رایگان و رسمی) دارد که انطباق اندازه گیری قابلیت اطمینان α را با داده های پیوسته، مانند متن، توصیف می کند. به طور خاص، قابلیت اطمینان هر دو واحد کردن (یعنی نحوه تقسیم متن به واحدهای کدگذاری شده و بدون کد) و کدگذاری (یعنی کدهایی که به چه واحدهایی اختصاص داده می شوند) را محاسبه می کند. کریپندورف در مقاله خود به این موضوع اشاره می کند که برنامه کامپیوتری برای محاسبه این [تطبیقات α] در حال حاضر در حال توسعه است. با این حال، نه در سایت کریپندورف و نه در جای دیگر، هیچ اشاره یا پیوندی به چنین نرم افزاری پیدا نکردم. مقاله به اندازهای دقیق است که به من اجازه میدهد خودم آن را اجرا کنم، اما اگر قبلاً انجام شده باشد، اختراع مجدد چرخ بی معنی است. پیشاپیش ممنون | پیاده سازی α کریپندورف برای یکسان سازی داده های پیوسته |
99442 | **آیا الگوریتمی وجود دارد که میانگین احتمال پاسخ را از یک ماتریس چند بعدی برمی گرداند؟** به عنوان مثال، اگر مجموعه ای از ویژگی ها را داشته باشم: * customerClass = فقیر / متوسط / غنی * دسته = «11» / «20» / «35» * پیشنهاد ارزش = «1 دلار» / «2 دلار» / «3 دلار» و یک پاسخ: * UseCoupon = FALSE / TRUE با فرض اینکه نمونههای کافی دارم، میخواهم احتمال یک نمونه جدید (customerClass = rich، دسته = 20، offerValue = $1) را به عنوان میانگین احتمال برای جمعیت با همان مقدار سه بعدی پیشبینی کنم. (ثروتمند، 20، 1 دلار)». | کدام الگوریتم از یک آرایه چند بعدی از احتمالات متوسط استفاده می کند |
29013 | من میپرسم تا بفهمم چرا بعد از تعریف طرح تودرتو، یک عامل ممکن است غیر قابل توجه شود. موارد زیر دو تجزیه و تحلیل aov در R. Obs (موضوع #) عامل درون موضوعی است و stim3 & label (1st و 2n دستکاری محرک) درون سوژه قرار گرفته اند. stim3 و label در obs تو در تو قرار دارند. تجزیه و تحلیل نشان می دهد که برچسب تنها زمانی مهم است که تجزیه و تحلیل بدون تعریف طرح تودرتو انجام شود. می خواستم بپرسم چرا اینطور است و چگونه صدا برای تعریف طرح تودرتو انتخاب می شود. > summary(aov(resp2 ~ stim3*label+Error(obs/(stim3*label)), tl) ) خطا: obs Df مجموع مربع میانگین مربع F مقدار Pr(>F) باقیمانده ها 11 5.25 0.478 خطا: obs:stim3 Df Sum Sq Mean Sq F مقدار Pr(>F) stim3 1 165.4 165.4 425 3.8e-10 *** Residuals 11 4.3 0.4 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 خطا: obs:label Df Sum Sq Mean Sq F value Pr(>F) label 1 6.77 6.77 4.77 0.051 . باقیمانده 11 15.61 1.42 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: obs:stim3:label Df Sum Sq Mean Sq F value Pr(>F) stim3:label 1 0.0255 0.15 0.71 باقیمانده 11 1.893 0.1721 خطا: درون Df Sum Sq Mean Sq F value Pr(>F) Residuals 1872 279 0.149 > summary(aov(resp2 ~ stim3*label+Error(obs), tl) ) خطا: obs Meanq Sum Sum Pr(>F) باقیمانده 11 5.25 0.478 خطا: درون Df Sum Sq Mean Sq F مقدار Pr(>F) stim3 1 165.4 165.4 1048.60 < 2e-16 *** label 1 6.8 6.8 42.95 7.2e-13.0.0 ***la 0.16 0.69 باقیمانده 1905 300.4 0.2 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 متشکرم که خواندید! | تعریف طرح تودرتو در ANOVA درون موضوعی چقدر مهم است؟ |
62663 | با توجه به دادههایی که به دنبال توزیع برنولی $Y_1,...Y_n \sim B(1,p)$ هستند، میخواهیم $\theta = \text{Var}(Y_1)$ را اندازهگیری کنیم. \frac{\sum{(y_i-\bar{y}})^2}{n-1}$ باید این برآوردگر را با استفاده از قضیه Rao-Blackwell بهبود دهم و تعیین کنم که آیا برآوردگر جدید UMVUE برای $\theta$ است. من با شناسایی آمار کافی برآوردگر بی طرف شروع کردم. $$T(y)= \frac{\sum{(y_i-\bar{y}})^2}{n-1}$$ $$w(y)= \sum{(y_i-\bar{y }})^2$$ بنابراین $$T_1=E(T/W)=E(y_1/\sum{(y_i-\bar{y}})^2)$$ در مورد آمار کافی مطمئن نیستم ($w(y)$). اشکالی ندارد یا قرار است فقط از $\sum{y_i}$ استفاده کنم بعد سعی کردم قضیه Rao-Blackwell را اعمال کنم، اما اصلاً در مورد آن مطمئن نیستم $$y_1/T(y)\sim B( 1,P(y_1=1,\sum{(y_i-\bar{y})}^2=t))$$ $$\frac{P(y_1=1,\sum{(y_i-\bar{y})}^2=t)}{P( \sum{(y_i-\bar{y}})^2=t )} = \frac{P(y_1=1)\cdot P(\sum{(y_i-\bar{y}})^2=t-1)}{\sigma^2 \cdot \chi^2_{n-1} }$$ من عذرخواهی میکنم اگر این موضوع مزخرف است، فقط به این دلیل است که من سعی میکنم دقیقاً از آنچه به ما آموختهایم (یا نه، در این مورد) بفهمم که دقیقاً چگونه به این موضوع برسم. | بهبود یک برآوردگر بی طرف با استفاده از قضیه Rao-Blackwell |
67015 | من مدتی است که به خودم درباره مدلسازی فرآیند گاوسی (GP) آموزش میدهم و اگرچه تخمین پارامتر دامنه (که گاهی اوقات مقیاس طول نامیده میشود) در GP «آسان» است، در واقع سعی میکنم به درک فیزیکی/شهودی دست یابم. برای آنچه که پارامتر محدوده در واقع نشان می دهد. فقط برای اینکه سوال من واضح باشد، اگر GP ما تابع همبستگی زیر را داشت: $$R(\phi) = \exp\left(-\frac{|x_i-x_j|}{\phi}\right)$$ پس $\phi$ پارامتر محدوده خواهد بود. من همچنین علاقه مند به کسب شهود هستم که بدانم آیا ارزش $\phi$ که من تخمین می زنم معقول است یا نه با توجه به داده ها و عملکرد واقعی من که سعی در مدل سازی آن دارم. | تفسیر پارامتر محدوده در یک فرآیند گاوسی |
111980 | من در تلاش برای جا دادن مسئله زیر در مدل فضای حالت خطی برای فیلتر کالمن (KF) بوده ام. من به سختی می بینم که چه کار اشتباهی انجام می دهم. من گمان می کنم که برخی از قوانین مدل سازی فضای ایالت KF را نقض می کنم. شاید چیزی غیر گاوسی، غیر خطی، غیر کوشر باشد؟ من اطلاعاتی از بازیکنانی دارم که هر روز در یک بازی امتیاز می گیرند. بازی شامل مهارت و شانس است. با در نظر گرفتن KF، من به مهارت به عنوان حالت مشاهده نشده و شانس به عنوان بخشی از سر و صدای مشاهده فکر می کنم. در اینجا چند داده (تخیلی) وجود دارد: امتیازهای کسب شده بازیکن روز 1 روز 2 روز 3 1 10 118 50 2 15 100 49 3 20 130 51 من همچنین فرض می کنم بازیکنان دارای سطح مهارتی (نسبت به سایر بازیکنان) هستند که چنین نیست. در طول زمان تغییر کند. علاوه بر این، امتیازات بهطور برونزا و تصادفی بهطور میانگین هر روز تغییر/مقیاس میشوند. همانطور که در داده های مثال بالا مشاهده می کنید، بازیکن 3 مهارت بیشتری دارد زیرا امتیاز بیشتری نسبت به سایر بازیکنان کسب می کند. همچنین، توزیع امتیازات حرکت و مقیاس -- یعنی میانگین و واریانس امتیازهای کسب شده روز به روز تغییر می کند. من بازیکنان $i=1،\dots،N$ و زمان $t=1،\dots،T$ را فهرست خواهم کرد. اجازه دهید $y_{it}$ امتیاز کسب شده توسط بازیکن $i$ در زمان $t$ باشد. اولین رویکرد من برآورد مهارت با استفاده از چیزی مانند z-score (یا t-stat) بود. برای هر بازیکن در هر مرحله زمانی محاسبه میکنم: $z_{it} = \frac{y_{it} - \bar{y_t}}{s_{y_t}}$ سپس میانگین زمانی را برای تخمین مهارت محاسبه میکنم: $\widehat{ skill_i} = \bar{z_i}$ تا آنجا که من می توانم بگویم، تا اینجا خیلی خوب است. اکنون میخواهم این چیز را کالمانیز کنم تا بتوانم با رسیدن اطلاعات جدید، تخمینهای مهارت را بهروزرسانی کنم. من شروع به فکر کردن در مورد وضعیت و رابطه آن با امتیازات قابل مشاهده می کنم. اما اینجاست که گیر می کنم. فرض کنید سطح مهارت واقعی و غیرقابل مشاهده برای یک بازیکن $i$ $\theta_i$ است و این از یک توزیع گاوسی با میانگین و واریانس $(\mu_\theta, \sigma_\theta^2)$ می آید. شانس با میانگین و واریانس $\epsilon_{it}$ است. که در آن هر دو از توزیع های گاوسی با میانگین و واریانس $(\mu_{\alpha}، \sigma_{\alpha}^2)$، و $(\mu_{\gamma}، \sigma_{\gamma}^2)$. من امتیازهای مشاهده شده توسط بازیکن $i$ را در زمان $t$ مدل می کنم: $y_{it} = \alpha_t + \gamma_t (\theta_i + \epsilon_{it})$ معادلات انتقال حالت آسان است: $\theta_ {it} = \theta_i$. فرض بر این است که مهارت هر بازیکن در طول زمان ثابت است. شانس بازیکن صدای مشاهده است. اگرچه به نظر می رسد که همه چیز را درست تعریف کرده ام، به نظر نمی رسد کاملاً بفهمم که چگونه $\alpha_t$ و $\gamma_t$ را در یک مدل KF قرار دهم - آیا آنها باید بخشی از حالت باشند؟ اگر چنین است، چگونه می توانم یک KF خطی برای ضرب حالت ها بدست بیاورم؟ اگر آنها بخشی از ایالت نیستند، اما ضرایب متغیر با زمان هستند، چگونه می توانم این کار را انجام دهم؟ و البته باید بپرسم: آیا فیلتر کالمن حتی یک استراتژی تخمین مناسب برای مهارت است؟ کمک کنید خیلی ممنون پیشاپیش! | فیلتر کالمن برای تخمین امتیاز z؟ |
112408 | من در مورد تأثیر بار ادراکی بر توجه انتخابی زیاد مطالعه کرده ام، اما تجزیه و تحلیل تا حدودی مرا گیج می کند. برخی از این مطالعات تفاوت 20 تا 40 میلیثانیه بین شرایط را بهعنوان معنیدار نشان میدهند، جایی که میانگین آن حدود 500 میلیثانیه است و رودهام به من میگوید چیزی ماهیگیر است. متأسفانه، تقریباً هیچکس هیچ اطلاعاتی در مورد نمونه، خطا، SD، CI و غیره گزارش نمیکند. با نگاه کردن به داده های نیمه خلبانی من، به طور جدی در اجرای ANOVA روی آن تردید دارم. به درستی دارای انحراف مثبت است (تغییرهای ورود به سیستم و معکوس وضعیت را تا حدودی کاهش می دهد، اما نه همیشه)، باقیمانده ها در برخی موارد بسیار غیرعادی هستند، پراکندگی زمان های واکنش بین شرکت کنندگان خاص کاملاً متفاوت است و من را به این فکر می کند که آیا من اینطور نیستم. هنگام اجرای مکرر -Measures ANOVA تعداد زیادی خطای نوع 1 را مرتکب می شود. من می توانم ببینم که چرا چیزی مانند مدل های جلوه های ثابت در این شرایط ترجیح داده می شود، اما تقریباً هیچ کس این کار را انجام نمی دهد. در اینجا یک مثال معمولی وجود دارد: > ANOVA 3x2 درون آزمودنیها بر روی میانگین صحیح RTs و نرخهای خطا، با شرایط حواسپرتی (رقت کم در مقابل رقت زیاد در مقابل زیاد > رقت / برجستگی زیاد) و سازگاری حواسپرنده (ناسازگار در مقابل) انجام شد. . > خنثی فرضیه و روش گلخانه ای > با توجه به میانگین RT ها، هیچ اثر اصلی > شرایط حواس پرت کننده وجود نداشت، اما یک اثر اصلی > سازگاری حواس پرت کننده وجود داشت. 10.06، p <.01، np2 = 0.35، نشان می دهد که > RT ها با حواس پرت کننده های خنثی (506 میلی ثانیه) سریع تر از ناسازگار > حواس پرت کننده ها (517 میلی ثانیه این اثر اصلی با یک شرایط حواس پرت کننده قابل توجه با تعامل سازگاری حواس پرت کننده، F(2, 38) = > 6.07، p <.01، np2 = 0.24 است. (بیگز و گیبسون، 2014). آیا قضیه حد مرکزی واقعاً اجرای ANOVA را بر روی دادههای 15 شرکتکننده که در آن توزیعها دارای انحراف مثبت هستند و تفاوتهایی در تغییرپذیری زمانهای واکنش بین شرکتکنندگان وجود دارد، قابل توجیه است؟ بدیهی است که وقتی این امتیازها را جمع میکنید تا میانگینی برای هر شرکتکننده در هر شرط ایجاد کنید، این تنوع بین شرکتکنندگان از پنجره خارج میشود. میدانم که هنوز یک نواب هستم، اما درک این موضوع برایم مشکل است، بنابراین هرگونه توصیه/توضیح بسیار قابل قدردانی است. | داده های ANOVA و زمان واکنش |
109550 | هنگام انجام مقادیر گمشده، آیا باید نگران تطبیق بیش از حد داده ها باشیم؟ چرا یا چرا نه؟ به عنوان مثال: اگر من یک متغیر را با استفاده از درخت رگرسیون CART منتسب کنم، آیا باید نگران این باشم که درخت من بیش از حد پیچیده است و آن داده خاص را بیش از حد برازش می دهد؟ وقتی زمان استفاده از داده های آزمایشی فرا می رسد، آیا باید از همان مدل درختی استفاده کنم؟ یا باید بر اساس مجموعه داده آزمایشی خود یک درخت جدید بسازم؟ | تطبیق بیش از حد در مقادیر گمشده |
109559 | با عرض پوزش، من متخصص نیستم و سوال من ممکن است اساساً اشتباه باشد. من این سؤال جالب را خوانده ام زیرا من همچنین تعجب کرده ام که آیا بعد از اعتبارسنجی متقاطع دوباره مدل را آموزش دهم. اکنون، پس از تقویت درختان رگرسیون با این کتابخانه بیش از 4/5 مجموعه آموزشی، من یک CV 5 برابری در برابر یک تابع هدف خاص انجام می دهم. پس از آموزش مجدد در کل مجموعه داده های آموزشی ، من از آن مدل نهایی برای پیش بینی طبقه بندی باینری مجموعه داده های آزمون استفاده می کنم. من کمی تعجب کردم که می بینم معیار ارزیابی برای مجموعه آزمون به طور قابل توجهی بدتر از آنچه از نتایج اعتبارسنجی انتظار می رود است. آیا پیشنهادی در مورد اینکه چه چیزی ممکن است اشتباه باشد دارید؟ سوال دوم من (شاید مرتبط) این است که چرا افزایش دورهای تقویت منجر به پیش بینی بدتر می شود؟ | چرا باید همه نتایج Cross-Validation بالاتر از نتایج موجود در مجموعه داده آزمایشی باشد؟ |
78516 | آیا این درست است که اگر می خواهید یک CI برای افراد ایجاد کنید: S(E)=S(x) و برای گروه ها S(E)=S(x)*sqrt(1-rtt)؟ پیشاپیش متشکرم | خطای استاندارد تئوری آزمون |
111986 | این یک سوال کاملا ساده است، اما من هیچ پاسخ خوب، واضح و دقیقی پیدا نمی کنم: من به دنبال راهی برای انجام تست _post hoc_ در تست chi$^2$ هستم. من 2 متغیر دارم: var1 : خوب/مناسب/ ضعیف و var2: a/b/c این جدول اقتضایی است: a b c خوب 120 70 13 مناسب 230 130 26 ضعیف 84 83 18 با R : حصیر <- matrix(c(120,230,84,70,130,83,13,26,18),3) dimnames(mat) <- list(c(خوب، عادلانه، ضعف)، c(a، b,c)) mat من انجام $\chi^2$ chisq.test(mat) من p = 0.022 به دست می آید، بنابراین یک رابطه بین var1 و var2... اما کدام یک؟ چگونه می توانم این را مدیریت کنم؟ (تجزیه و تحلیل مشارکت؟، تست سرپایی زوجی؟) | تست Post hoc $\chi^2$ با R |
111989 | من یک جدول احتمالی 2x2 دارم و می خواهم محاسبه کنم که آیا جفت داخل آن تفاوت قابل توجهی دارد یا خیر. من ماتریسی مانند زیر ساختم به نام raw_matrix CNS تصادفی Not_H3K4 343 28825 H3K4 11 2014 این ماتریس را ایجاد کنید، به این ترتیب: raw_matrix = structure(c(343, 11, 28825, 2014), .Dim, . = لیست( c(NotH3K، H3K)، c(CNS، Random))) همانطور که من جستجو کردم، تست دقیق بدون قید و شرط مانند تست های دقیق Barnard و Boschloo قوی ترین تست برای این منظور است. من بسته Exact را نصب کردم و سعی کردم با استفاده از این دستور تست را انجام دهم: exact.test(raw_matrix) بیش از نیم ساعت روی یک رم 64 گیگابایتی و CPU 3.5 GH طول کشید و در نهایت خطای زیر را داد: Error: nikare اختصاص بردار با اندازه 42.0 گیگابایت علاوه بر این: پیام های هشدار: 1: در ماتریس (A[xTbls + 1, ] * B[yTbls + 1، ]، ncol = طول (int)): تخصیص کل به 61417 مگابایت رسیده است: به help(memory.size) 2 مراجعه کنید: در ماتریس (A[xTbls + 1، ] * B[yTbls + 1، ]، ncol = طول (int)): به مجموع تخصیص 61417 مگابایت رسیده است: ببینید help(memory.size) 3: در ماتریس (A[xTbls + 1, ] * B[yTbls + 1, ], ncol = length(int)): به تخصیص کل 61417 مگابایت رسیده است: به help(memory.size) 4 مراجعه کنید: در ماتریس(A[xTbls + 1، ] * B[yTbls + 1، ]، ncol = length(int)): به تخصیص کل 61417 مگابایت رسید: به help(memory.size) مراجعه کنید، سپس بسته Exact2x2 را نصب کردم و آزمایش را با استفاده از این دستور انجام دادم: exact2x2 (raw_matrix) که نتایج زیر را به من داد: دو طرفه Fisher's داده های آزمون دقیق (روش معمول با استفاده از حداقل احتمال): raw_matrix p-value = 0.006433 فرضیه جایگزین: نسبت شانس واقعی برابر با 195 درصد فاصله اطمینان نیست: 1.2028 4.2424 تخمین نمونه: نسبت شانس 2.178631 اما همانطور که در آموزش بسته دقیق خواندم، آزمون دقیق فیشر که یک شرط نیست. قدرتمند در نهایت من تست مربع کای معمولی را با استفاده از دستور chisq.test (raw.matrix) انجام دادم که نتایج زیر را به دست آورد که با نتایج آزمون فیشر متفاوت است: آزمون کای دو پیرسون با داده های تصحیح تداوم یتس: test_1 X-squared = 6.2045 ، df = 1، p-value = 0.01274 من یک متخصص ژنتیک هستم و در آمار متخصص نیستم. هر کسی می تواند به من بگوید بهترین استراتژی در اینجا برای انجام این تست چیست | تست دقیق مشروط یا بدون قید و شرط در R |
109555 | آیا پروک یا روشی داریم که بتوانیم یک مدل ساخته شده بر روی مجموعه داده قطار را برای آزمایش مجموعه داده با استفاده از تابع پیش بینی مشابه R در SAS اعمال کنیم؟ | چگونه می توان عملکرد پیش بینی R را در SAS اعمال کرد؟ |
79641 | در اندازه گیری عملکرد یک مدل، داده های خود را به 2 مجموعه، مجموعه آموزشی و مجموعه تست، تقسیم می کنم، مدل خود را با مجموعه آموزشی متناسب می کنم و سپس سعی می کنم نتایج مجموعه تست را پیش بینی کنم. اگر به طبقه بندی باینری نگاه می کنم، انتظار دارم که نتایج خود را به 0 و 1 طبقه بندی کنم. با این حال، خروجی رگرسیون لجستیک احتمالات است. بنابراین اگر من یک احتمال 51% را پیشبینی کنم، اما این را بهعنوان 1 طبقهبندی کنم زیرا > 0.5 است، و در 49% مواقع اشتباه میکنم، آیا مدل من درست نیست در مقابل 49٪ اشتباه؟ آیا این معیار بهتری برای بررسی اینکه آیا میزان خطای من به میزان خطای مورد انتظار برای مدل نزدیک است یا خیر؟ | نحوه اندازه گیری خطای مجموعه تست با رگرسیون لجستیک |
79642 | من دو سری زمانی دارم، $y$ و $x$، که $y$ بصورت ماهانه و $x$ بصورت روزانه نمونه برداری می شود. من قصد دارم از یک رگرسیون فرکانس مختلط (MIDAS) استفاده کنم که در آن وزنهای سفارشی را به نقاط داده روزانه در x$ اختصاص میدهم و با انجام این کار میانگین آن را به فرکانس $y$ میدهم. مدل پیشنهادی من به شرح زیر است: $y = \beta_y L(y)+ \sum_{n=0}^k \beta_nL^n(x) + \epsilon $ که در آن $ \beta_n $ یک تابع چند جمله ای را تعریف می کند، g(n برای برخی از تابع g. و $L$ یک عملگر تاخیر است به طوری که $L(x_t) = L(x_{t-1})$, $L^2(x_t) = L(x_{t-2})$ یکی از سرپرستان من( یک استاد) برای پروژه من در مورد این پیشنهاد نظر داد و گفت که او _در مورد آنچه شما برای پسرفت من در ذهن دارید گیج شده است_ او در ادامه از من پرسید _مثلاً هیچ پارامتری در آن وجود ندارد، پس چه تخمین میزنی؟_ **آیا اگر به او بگویم که $\beta_y$ و $\beta_n$ پارامترهایی هستند که باید تخمین زده شوند، درست می گویم تا بفهمیم آیا می توانیم مدلی برای پیش بینی $y$ ماهانه به صورت روزانه $x$ بسازیم. .** یا تصور من از تخمین اشتباه است، یا سرپرست زحمت خواندن پیشنهاد من را به درستی نداده است. تاکنون فقط ایمیل بین ما تبادل شده است و من هنوز به این یکی پاسخ نداده ام. من گیج شدم، لطفا کمک کنید تا روشن شود. ویرایش: متاسفم که $\beta_1$ دو بار ظاهر شد، متوجه نشدم. من فقط به طور تصادفی با تمام این نمادها آمدم، لطفاً برای اینکه مدل رگرسیون MIDAS دقیقاً مورد استفاده قرار گیرد، به این پاسخ در اینجا مراجعه کنید. چند جمله ای نیز در آنجا توضیح داده شده است. (این سوال لینک شده را من ارسال کردم که مربوط به همان مدلی است که در این سوال در مورد آن صحبت شد) | آیا درک من از تخمین درست است؟ |
29019 | **من سعی می کنم الگوریتمی را ایجاد کنم که قیمت مناسب برای خرید کالا و قیمت فروش مجدد صحیح را بر اساس تاریخچه اقلام eBay به من بگوید. ** متغیرهای اصلی نوع حراج (خرید در حال حاضر یا مناقصه)، قیمت خواهند بود. ، اگر مورد فروخته شده باشد و نوعی حاشیه که باید در هر تراکنش ایجاد شود (به درصد یا ارزش دلار) این صفحه گسترده با داده های مثال است: برگه اکسل. چند ردیف اول در زیر ظاهر می شود. AUCTION_TYPE PRICE DATE_Soldsold_Y_N خرید-اکنون 300.00 دلار تا 10 می جدول **نوع_حراج** (یک متغیر کمکی باینری برابر با حراج یا اکنون بخرید)، **تاریخ_فروش** (به دقیقه)، **قیمت** (به طور ثابت به دلار آمریکا) - که یک نتیجه برای حراج ها اما برای فروش «اکنون بخر» از پیش تعیین شده است - و **فروخته شده**، یک نتیجه باینری که نشان می دهد آیا مورد فروخته شد **یکی از عوارض اصلی اینجاست:** قیمت، چیزی است که من می خواهم تخمین بزنم، بسته به نوع حراج، گاهی به عنوان یک متغیر مستقل و گاهی به عنوان متغیر وابسته عمل می کند. بنابراین به نظر نمی رسد که این وضعیت در یک تنظیم رگرسیون استاندارد قرار بگیرد. یک راه حل خوب ممکن است نیاز به تفکر آماری نوآورانه داشته باشد. خوب، من فکر می کنم که باید حداقل مقداری از اقلام فروخته شده/نفروشه را در هفته ایجاد کنیم. به عنوان مثال، اگر 5 رکورد وجود داشته باشد، پیش بینی چیزی دشوار است. اما اگر ما با 50 رکورد در هفته و با دوره چند هفته کار کنیم، میتوانیم احتمال را کاهش دهیم. علاوه بر این، اقلام حراج شده احتمال بیشتری برای فروش با ارزش کمتر نسبت به خرید آن دارند. اما، از سوی دیگر، برخی حراج های فروخته نشده می تواند یک علامت هشدار دهنده باشد که نشان می دهد ممکن است این کالا چندان ارزشمند نباشد. چیزی که من سعی می کنم بفهمم این است که آیا می توان راه حل معقولی ایجاد کرد که به خرید کالاها بر اساس تاریخچه فروش/عدم فروش کالا اجازه دهد و سپس بتوان همان کالا را با سود و با احتمال بسیار بالا به فروش رساند. موفقیت | تخمین قیمت خوب خرید و فروش در eBay با استفاده از تاریخچه فروش eBay |
109557 | من روی یک پروژه تحقیقاتی کار میکنم که در آن چندین سؤال از دادههای نظرسنجی دارم که همان کمیت زیربنایی (dv من) را اندازهگیری میکند، احتمالاً هر کدام با مقداری خطای اندازهگیری. من به استفاده از روش PCA برای استخراج مرتبط ترین مؤلفه فکر می کردم. تجزیه و تحلیل اولیه من به نظر می رسد آنچه را که می خواستم ارائه می دهد، اما مطمئن نیستم که آیا این یک روش عمومی پذیرفته شده در آمار است یا خیر. آیا کسی می تواند به من اطلاع دهد که آیا مشکلی در این مورد وجود دارد، و آیا انتشاراتی وجود دارد که رویکرد مشابهی را در پیش گرفته است؟ خیلی ممنون | آیا می توان از امتیازات PCA به عنوان متغیر وابسته استفاده کرد؟ |
29016 | $F$ تابع توزیع یک متغیر تصادفی مثبت است. چرا عبارت زیر برای هر $x \in (0,\infty)$ برقرار است: $F^{*2}(x) \leq F^2(x)$، جایی که $F^{*2}=F* F=\int\limits_0^x F(x-y)dF(y)$ | تابع توزیع پیچیدگی نابرابری |
111988 | من خوشهبندی k-means را روی مجموعه دادهام اجرا میکنم (در مجموع 100 نمونه) و دادهها را به k=5 خوشه تقسیم میکنم. سپس میخواهم آزمایش کنم که k-means چقدر میتواند قوی باشد. با این حال، من نمونه داده های جدید بیشتری دریافت نکرده ام. ایده من این است: * اولین نمونه را بردارید و k-means را روی بقیه 99 نمونه اجرا کنید. * روی مرحله توضیح داده شده در بالا برای هر نمونه حلقه بزنید (به عنوان مثال، نمونه دوم را در تکرار دوم بردارید)، و k-means را در مجموع 100 بار اجرا کنید. سوال من این است که چگونه می توان شباهت نتایج 100 k-means را اندازه گیری کرد؟ من به این فکر می کنم که آمار ضرایب سیلوئت را بدست بیاورم. آیا این منطقی است؟ با تشکر الف | چگونه می توان شباهت خوشه بندی k-means را با استفاده از مجموعه داده های مختلف اندازه گیری کرد؟ |
78510 | من نظرات مربوط به آمار استنباطی در مورد داده های سرشماری را خوانده ام. من دکتری می خوانم و با همین مشکل با کمی تفاوت روبرو هستم. من دادههای سرشماری را از جمعیت روسای، مدیران، روسای و روسای ادارات به دلیل عدم دسترسی آنها جمعآوری کردهام و میتوانم حدود 64 درصد نرخ پاسخ را دریافت کنم. آیا می توانم این پاسخ 64% را به عنوان نمونه خود در نظر بگیرم و با استفاده از آمار استنباطی به عنوان مثال آزمون t و ANOVA یک طرفه در مورد تفاوت میانگین بر اساس جنسیت، سن، تجربه، پست های اداری نتیجه گیری کنم و نتایج را در کل جامعه تعمیم دهم. اگر چنین است لطفا مرجع توجیه آن را برای من ارسال کنید تا بتوانم از این نکته مفهومی در پایان نامه دکتری خود دفاع کنم. من خیلی تلاش کردم اما مرجع پیدا نکردم. لطفاً کسی هست که بتواند به من کمک کند که در پایان نامه خود از آن تشکر و قدردانی کنم. | آمار استنباطی در مورد داده های سرشماری زمانی که نرخ پاسخ پایین است |
78519 | من میخواهم برنامهای بنویسم، که در آن کاربران باید بین «پیکربندیهای» مختلف یکی را انتخاب کنند، و به دنبال راهی برای تأیید آماری «تعادل» آن «پیکربندیها» هستم تا به همان اندازه «جذاب» را برای کاربران ایجاد کنم. در حالت ایدهآل، من میخواهم از یک Java API استفاده کنم، زیرا با اجرای شبیهسازی که دادهها را تولید میکند، «رفت و برگشت» را آسان میکند (برنامه اصلی به زبان جاوا نوشته میشود) و سپس تجزیه و تحلیل روی آن انجام میشود. سپس تنظیمات را تغییر دهید، و شبیه سازی را دوباره اجرا کنید تا ببینید اکنون چقدر به وضعیت مورد نظر نزدیک شده ایم. من پیشینه خوبی در ریاضیات/آمار داشته ام، اما این سال ها پیش بود. بنابراین من به دنبال چیزی هستم که بتوانم به سرعت شروع کنم، به جای یک سیستم کامل، اما پیچیده، که به من نیاز دارد تا زمان زیادی را صرف تجدید دانش ریاضی/آمار خود کنم. برای بیان مجدد، من در درجه اول به دنبال یک API هستم که به من امکان تجزیه و تحلیل آماری داده ها در جاوا را بدهد، به جای ایجاد تجسم (اگرچه، البته، ایجاد تجسم برای اعتبارسنجی سریع کد تجزیه و تحلیل مفید خواهد بود، اما تجسم می تواند تولید شده توسط برنامه دیگری). ویرایش: در واقع، من در پایتون نیز بسیار خوب هستم، اما این مسیر رفت و برگشت را کمی دشوارتر میکند. | تنظیم برنامه بر اساس آمار: API کمترین آموزش برای برنامه نویس جاوا؟ |
109554 | من در حال انجام برخی تجزیه و تحلیل بودم که در آن شک دارم که یک درمان $D$، اثرات متضادی روی دو متغیر $Y^A$ و $Y^B$ دارد. برای نشان دادن آن، من به دو استراتژی فکر می کردم: **1. تفاوت** اجرای رگرسیون با استفاده از تفاوت بین $Y^A$ و $Y^B$ به عنوان متغیر وابسته من، یعنی: $(Y^A_i-Y^B_i)=\delta^d D_i+\epsilon_i، $ Where $ \delta^d$ ضریب بهره است. **2. کنترل** در روش دیگر، ممکن است روی $Y^A$ عقب نشینی کنم در حالی که $Y^B$ و تعامل بین $D$ و $Y^B$ را کنترل کنم (و احتمالاً شرایط مرتبه بالاتر $Y^B$ برای غیرخطی بودن)، که چیزی شبیه به: $Y^A_i=\delta^cD_i+\beta_1Y^B_i+\beta_2(D_i\times Y^B_i)+\cdots(\textrm{تعاملات مرتبه بالاتر})\cdots+\epsilon_i$. در دادههای من، $Y^A$ و $Y^B$ همبستگی دارند ($\rho\simeq 0.2$). در هر دو مورد، مقداری که من سعی میکنم به آن برسم این است که چقدر تغییر اضافی در $Y^A$ وجود دارد. درمان را علاوه بر تأثیر درمان روی $Y^B$ (که به نوبه خود بر A تأثیر می گذارد) انجام می دهد. آیا کسی می تواند من را در مورد ویژگی های آماری هر رویکرد و همچنین اینکه کدام یک برای هدف من در اینجا مناسب است، روشن کند؟ یا باید از روش دیگری (سوم) استفاده کنم؟ پیشاپیش متشکرم | انتخاب متغیر وابسته: تفاوت یا کنترل؟ |
107815 | من از کتابخانه MathNet.Numerics در سی شارپ برای یافتن SVD استفاده میکنم، اما ماتریس سیگما هیچ نشانهای از این که کدام مقادیر با چه ویژگیهایی مطابقت دارند، نشان نمیدهد. به سادگی آنها را به مهم ترین ترتیب فهرست می کند. من شنیدهام که راهی برای انجام این کار در R وجود دارد، اما میپرسم آیا راهی با استفاده از C# وجود دارد که مشخص کند کدام ویژگی با کدام مقادیر سیگما مرتبط است؟ اگر تابع با استفاده از کتابخانه MathNet.Numerics در دسترس نباشد، آیا کتابخانه دیگری وجود دارد که بتواند این کار را انجام دهد؟ | پس از اعمال SVD، چگونه می توانم مشخص کنم که کدام ویژگی از مجموعه داده اصلی من بیشترین اهمیت را دارد؟ |
72611 | اگر $$P = [0,0.9,0,0.1]$$ $$Q = [0,1,0,0]$$ سپس $$KL(P||Q) = 0 + \ln(0.9/1 )\cdot0.9 + 0 + 0 = -0.094$$ این نباید از نابرابری گیبس امکان پذیر باشد. من چی رو اشتباه میفهمم | KL-واگرایی بین دو توزیع طبقه بندی/چند جمله ای مقادیر منفی می دهد؟ |
19912 | من باید بتوانم موارد پرت را در داده هایم پیدا کنم. من فکر کردم بهترین کار این است که با استفاده از آزمون Kolmogorov-Smirnov آزمایش کنم. من بیش از 800000 امتیاز دارم، بنابراین میخواستم راهی برای فیلتر کردن دادهها در ابتدا داشته باشم تا فقط آنهایی را که در لبه نمونه من هستند آزمایش کنم. با چشم می توانم یک فروپاشی نمایی (خط قرمز) را جابجا کنم، اما می خواستم بدانم آیا راهی آماری برای تعیین پارامترهای نمایی من وجود دارد یا خیر.  | برازش منحنی در لبه توزیع |
114808 | من از methylKit برای انجام تجزیه و تحلیل داده های MethylCAP-bisulfite خود استفاده می کنم. تابع prcomp() در PCASamples (فرمانی در methylKit) برای انجام آنالیز PCA روی داده ها استفاده شده است و من یک سوال در این مورد دارم: ماتریس بارگذاری متغیر در چرخش $ ذخیره شده است، اما وقتی «pca$rotation» را در یک فایل متنی ذخیره کردم، نتوانستم نام متغیرها را ببینم. وقتی از «pca$rotation[,1]» برای بررسی نتیجه استفاده میکنم و این چیزی است که دریافت کردم:  من فرض کردم 4,5,6,7,10 ... نام متغیرها هستند اما با چه چیزی مطابقت دارند؟ آیا مختصات ژنومی است؟ متشکرم. | مشکلات بارگذاری متغیر در prcomp() |
92445 | من مطمئن نیستم که چگونه به این سوال زمینه بدهم. ما باید از اکسل برای تجزیه و تحلیل داده ها استفاده کنیم و از پایه log 10 برای هر ستون داده ای که تجزیه و تحلیل می کنیم استفاده کنیم، که من مطمئن نیستم آنها در اینجا چه می خواهند. آیا آنها از ما می خواهند که از پایه log 10 برای داده های تجزیه و تحلیل شده استفاده کنیم یا برای داده های خام؟ سپس تخصیص از ما میخواهد که تعیین کنیم آیا دادهها به طور عادی توزیع شدهاند یا لگ نرمال. من نمی دانم چگونه این کار را انجام دهم و جستجوهای گوگل شبیه انگلیسی نیستند. | آیا داده ها به طور نرمال یا لگ نرمال توزیع شده اند؟ |
114806 | تعداد گرههایی در یک درخت تصمیم هرس نشده که با استفاده از n نمونه آموزش داده میشود و تا زمانی رشد میکند که در هر برگ فقط یک نمونه وجود داشته باشد چقدر است؟ میخواهم بدانم آیا فرمولی برای محاسبه آن وجود دارد یا حداقل راهی برای تعریف کران پایینتر وجود دارد. اگر هر گره تعداد نمونه ها را به نصف تقسیم کند، طول درخت تصمیم $log_2(n)$ و تعداد گره ها $\sum_{i=1}^{log_2(n)} 2^i$ است. اگر گره به نصف تعداد نمونه ها تقسیم نشود، این فرمول معتبرتر نیست. آیا این یک کران پایین است؟ | تعداد گره ها در درخت تصمیم هرس نشده |
19915 | در یک الگوریتم درختی متوالی (روی خط)، سعی می کنم چگالی برچسب کلاس را با استفاده از یک هیستوگرام تخمین بزنم. الگوریتم با تولید توابع آزمایشی در هر گره تصمیم گیری، که با ویژگی های مجموعه داده مطابقت دارد، درختی را رشد می دهد. به این معنی که هر ویژگی برای ایجاد آزمایشی به شکل $g(x) > 0$ استفاده میشود که برای تصمیمگیری در مورد انتشار چپ/راست نمونهها در هر گره درخت باینری استفاده میشود. اگر نتیجه آن آزمایش از مقداری از آستانه تتا فراتر رود، نمونهها در شاخه سمت راست تکثیر میشوند، در غیر این صورت در شاخه چپ منتشر میشوند. هنگام آموزش درخت، باید بهترین تست را برای استفاده در هر گره تصمیم انتخاب کنم، که با استفاده از اندازهگیری کیفیت به شکل  جایی که $R_{jls}$ و $R_{jrs}$ پارتیشنهای چپ و راست ساخته شده توسط تست s هستند که مربوط به دادههای بزرگتر یا کمتر از آستانه است. تتا، $(p_i^j)$ چگالی برچسب کلاس $i$ در گره $j$ (یا $jls/jrs$ برای چگالی برچسب کلاس $i$ در گره های فرزند چپ یا راست)، $K است. $ تعداد کل کلاس ها است و $|x|$ تعداد نمونه های یک پارتیشن را نشان می دهد. به عبارت دیگر، سود با توجه به آزمون $s = g(x)$ به آنتروپی برچسبهای کلاس در آن ویژگی بستگی دارد. این نیاز به دانستن چگالی برچسب کلاس در هر گره تصمیم دارد. بنابراین، عدم قطعیت من در این است که چگونه می توان این کار را با یک هیستوگرام انجام داد. یک هیستوگرام برای هر ویژگی دارای N محفظه با محدوده اندازه / N است، که در آن محدوده، تفاوت بین مقادیر حداکثر و حداقلی است که هر ویژگی می گیرد. اگر اطلاعات پیشینی از این محدوده نداشته باشیم، میتوانیم مقادیر حداکثر/دقیقه را با دریافت دادههای آموزشی بیشتر پیگیری کنیم. این هیستوگرام تعداد نمونه های موجود در هر محدوده را ردیابی می کند، اما چیزی در مورد برچسب های کلاس نمی گوید. گزینه دیگر داشتن یک هیستوگرام برای هر کلاس، برای هر ویژگی، برای هر گره است. بنابراین، شما باید تعداد نمونه هایی را که دارای یک برچسب کلاس خاص هستند با توجه به طیف وسیعی از مقادیر ویژگی (هر bin) پیگیری کنید. به نظر می رسد این راه حل بیشتر با معادله بالا مطابقت دارد، زیرا ما به تراکم برچسب برای هر کلاس و هر گره نیاز داریم، اما من فقط می خواهم تأیید کنم که در مسیر درستی هستم. برای مرجع، قسمت 2.1.2 این مقاله را ببینید. > صفاری و همکاران، 2009. جنگل های تصادفی آنلاین. _Computer Vision Workshops > (ICCV Workshops), 2009 IEEE دوازدهمین کنفرانس بین المللی_. DOI > 10.1109/ICCVW.2009.5457447 | استفاده از هیستوگرام برای تخمین چگالی برچسب کلاس در یادگیرنده درخت |
67017 | من از الگوریتم بوت استرپ برای محاسبه خطاهای استاندارد تخمین های خروجی normalmixEM خود استفاده می کنم. من واقعا مطمئن نیستم که آیا آنها قابل اعتماد هستند؟ کد من (داده در اینجا): # بارگذاری بسته install.packages(mixtools) library(mixtools) B = 1000 # تعداد نمونه های بوت استرپ mu1sample <- mu2sample <- sigma1sample <- sigma2sample <- lambdasample <- vector() # Bootstrap for(i in 1:B){ print(i) subsample = نمونه (mydatatest, rep=T) normalmix <- normalmixEM (زیر نمونه، mu=c(-0.002294،0.002866)، سیگما=c(0.00836،0.02196)، lambda=c(0.6746903، (1-0.674)، (1-0.674)k= ، سریع = نادرست، maxit=10000، epsilon = 1e-16، maxrestarts=1000) mu1sample[i] = normalmix$mu[1] # $ mu2sample[i] = normalmix$mu[2] # $ sigma1sample[i] = normalmix$sigma[1 ] # $ sigma2sample[i] = normalmix$sigma[2] # $ lambdasample[i] = normalmix$lambda[1] # $ } # خطاهای استاندارد sd(mu1sample) sd(mu2sample) sd(sigma1sample) sd(sigma2sample) sd(lambdasample) # نمایش توزیع نمونه های بوت استرپ hist(mu1sample) mu2sample) hist(sigma1sample) hist(sigma2sample) hist(lambdasample) این تصاویر زیر را نشان می دهد: mu1  mu2  sigma1  sigma2  lambda  ویرایش: اگر به متغیر my, mydatatest و از یک KD برای نشان دادن توزیع با کد زیر استفاده کنید plot(density(mydatatest),col=red,main=,lwd=2,cex.axis=1.2,cex.lab=1.2) به نظر می رسد  ویرایش دوم: اکنون mus و sigmas را برای رفع مشکل اضافه کردم. کد و تصاویر را آپدیت کردم. حالا دوباره سوال من، نظر شما در مورد آن چیست؟ | نتایج بوت استرپ قابل اعتماد است؟ |
79645 | می خواستم بدونم کسی می داند که آیا کد متلب داخلی برای مدل فوق وجود دارد؟ این مورد تک متغیره است: http://www.mathworks.com/help/nnet/ref/timedelaynet.html من سعی کردم داده های خود را در preparets(net,X_input,y_input) وارد کنم که در آن X_input من یک ماتریس $d \times n$ و y_input یک ماتریس $1\times n$ است که $d$ تعداد موارد وابسته به زمان است. متغیرها به من یک خطا داد: > شاخص از ابعاد ماتریس بیشتر است. این کد است: net = timedelaynet(1:2, 5); [Xs,Xi,Ai,Ts] = آماده میکند(net, X_input, {},y_input); بنابراین به نظر می رسد که فقط در حالت تک متغیری کار می کند. کسی تونسته کار کنه؟ یک سوال دیگر: اولین پارامتر timedelaynet فقط تعداد نقاط داده گذشته برای استفاده است، درست است؟ در این مورد، از 2 مجموعه امتیاز گذشته برای پیش بینی مقدار هدف روز بعد استفاده کنید. متشکرم! | شبکه عصبی تاخیر زمانی چند متغیره: کد متلب داخلی؟ |
91790 | روش طراحی مرکب مرکزی شامل ارزیابی آزمایش در نقطه مرکزی چندین بار (معمولاً 4 بار) است. اگر از این روش برای یک آزمایش محاسباتی قطعی استفاده می شد، آنگاه تمام نتایج نقطه مرکزی _یکسان خواهند بود._ در این مورد، بهتر است فقط تعداد نقاط مرکزی را به 1 کاهش دهیم، یا آن را در 4 نگه داریم تا نمایش هر کدام را بهبود ببخشیم. همبستگی ها؟ | اثرات کاهش تعداد نقاط مرکزی در طراحی کامپوزیت مرکزی؟ |
26771 | من این سوال را دارم: > گزارش شده است که 45 درصد مردم سیب و 55 درصد > پرتقال را ترجیح می دهند. روش انجام نظرسنجی را شرح دهید. مطمئن نیستم استدلالم درست باشد: با فرض اینکه جمعیت سیب یا پرتقال را ترجیح می دهد (نه هر دو و نه هیچ کدام) 1. نمونه ای از جامعه را انجام دهید، مقدار 1 را به سیب، 0 را به پرتقال ها اختصاص دهید (مثلا) 2. میانگین نمونه و واریانس نمونه را در نظر بگیرید 3. در برابر توزیع t رسم کنید 4. فاصله اطمینان را تعیین کنید 5. مقایسه کنید اگر میانگین نمونه در فاصله اطمینان قرار دارد مقدار t مربوط به 45٪ (سیب). 6. اگر چنین است، نتیجه بگیرید که عبارت برای فاصله اطمینان داده شده درست است. ببخشید کمی طولانی شد، اما ممنون از راهنماییتون | روش شناسی آمار کاربردی |
29017 | اول، من یک سوال دارم که آیا توزیع پواسون پایدار است یا خیر. خیلی ساده لوحانه (و من در مورد توزیع های پایدار خیلی مطمئن نیستم)، توزیع یک ترکیب خطی از R.V توزیع شده پواسون را با استفاده از محصول MGF انجام دادم. به نظر می رسد که من یک پواسون دیگر دریافت می کنم، با پارامتری برابر با ترکیب خطی پارامترهای یک R.V. بنابراین نتیجه میگیرم که پواسون «پایدار» است. چه چیزی را از دست داده ام؟ دوم، آیا فرمول های وارونگی برای MGF مانند تابع مشخصه وجود دارد؟ | آیا توزیع پواسون پایدار است و آیا فرمول های وارونگی برای MGF وجود دارد؟ |
113109 | من روی تجزیه و تحلیل مجموعه داده ای کار می کنم که شامل داده های اندازه گیری های مکرر است. داده ها قبلا توسط یکی از همکاران با استفاده از کد سفارشی نوشته شده در C++ تجزیه و تحلیل شده بود، اما من مجموعه داده را گسترش داده ام و سعی می کنم آن را در SPSS به روشی مشابه تجزیه و تحلیل کنم. مجموعه داده دارای یک متغیر موضوعی است که میخواهم آن را به عنوان یک متغیر اثرات تصادفی و دو متغیر درون موضوعی با دو سطح مشخص کنم. با توجه به آنچه تاکنون خوانده ام، به نظر می رسد دستور Mixed Model در SPSS مناسب ترین راه برای تجزیه و تحلیل این داده ها باشد. من با تجزیه و تحلیل داده ها به این روش آشنا نیستم، اما سعی کردم آن را مطالعه کنم و نحوی را که برای تکمیل سؤالاتم استفاده کردم، پست خواهم کرد. طرح آزمایشی به این صورت است: من یک متغیر دارم، موضوعاتی که میخواهم آن را به عنوان یک عامل تصادفی درج کنم. آزمودنی ها تصاویری را به دنبال رشته های حروف روی صفحه کامپیوتر می دیدند و باید تصمیم می گرفتند که آیا این رشته یک کلمه است یا غیر کلمه. من دو عامل درون موضوعی دارم: کلمه (چه رشته یک کلمه باشد یا غیر کلمه) و رابطه (این که رشته با تصویر مرتبط باشد یا غیرمرتبط). آزمودنیها آزمایشهای متعددی را انجام خواهند داد، بنابراین برای هر چهار ترکیب واژهسازی و مرتبط بودن پاسخهایی خواهند داشت: کلمه مرتبط، غیرکلمه مرتبط، کلمه نامرتبط و غیرواژه نامرتبط. من فکر می کنم که با هم، این یک طرح اندازه گیری مکرر تو در تو را تشکیل می دهد. متغیر وابسته زمان واکنش است. بزرگترین مشکل من این است که چگونه موضوع را به عنوان یک متغیر اثرات تصادفی مشخص کنم. من سعی کردم آن را به عنوان متغیر موضوعی از طریق رابط کاربری گرافیکی اضافه کنم (با نحو زیر): Rt2Adj MIXED BY Relatedness Wordness Subjects /CRITERIA=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.00000000) (0، مطلق) LCONVERGE(0، ABSOLUTE) PCONVERGE(0.000001، ABSOLUTE) /FIXED=Rrelatedness Wordness Relatedness*Wordness | SSTYPE(3) /METHOD=REML /PRINT=SOLUTION /REPEATED=ارتباط*Wordness | SUBJECT(موضوعات) COVTYPE(UN). این بدون خطا اجرا می شود، اما متوجه شدم که هیچ متغیر افکت تصادفی در جدول خروجی Model Dimension فهرست شده است. اگر سوژهها را بهعنوان متغیر جلوههای تصادفی اضافه کنم، علاوه بر اینکه آنها را بهعنوان متغیر موضوعات با نحو زیر مشخص کنم: MIXED Rt2Adj بر اساس ارتباط واژهبندی موضوعات /CRITERIA=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR( 0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0, ABSOLUTE) PCONVERGE(0.000001, ABSOLUTE) /FIXED=Rrelatedness Wordness Relatedness*Wordness | SSTYPE(3) /METHOD=REML /PRINT=DESCRIPTIVES /RANDOM=موضوعات | COVTYPE(VC) /REPEATED=ارتباط*واژه | SUBJECT(موضوعات) COVTYPE(UN). هنگامی که میخواهم تحلیل را اجرا کنم، با خطا مواجه میشوم (تکرار پایان یافت اما همگرایی حاصل نشد. روش MIXED با وجود این هشدار ادامه مییابد. نتایج بعدی تولید شده بر اساس آخرین تکرار است. اعتبار تناسب مدل نامشخص است. ) من فرض می کنم که این به این دلیل است که مدل بیش از حد مشخص شده است، زیرا موضوع هم به عنوان متغیر موضوع و هم به عنوان یک جلوه تصادفی اختصاص داده شده است. متغیر بنابراین سوال من این است: در رابط کاربری گرافیکی، SPSS می گوید موضوعات را برای مدل هایی با اثرات تصادفی همبسته مشخص کنید. اگر موضوعاتی را تحت این عنوان مشخص کنم، آیا مدل این متغیر را طوری تفسیر میکند که گویی یک متغیر اثر تصادفی است (حتی اگر «موضوعات» را بهعنوان جلوههای تصادفی در جدول ابعاد مدل فهرست نمیکند، همانطور که اگر دستی وارد کنم موضوعات به عنوان یک متغیر اثر تصادفی)؟ آیا راه دیگری برای اطمینان از اینکه سوژه ها به عنوان یک اثر تصادفی وارد مدل می شوند وجود دارد؟ من در یافتن پاسخ روشن برای این سوال مشکل دارم زیرا بسیاری از سؤالات دیگری که پست شده اند از یک متغیر متفاوت (نه موضوعات) به عنوان یک اثر تصادفی استفاده کرده اند. سوال دوم این است: من از اولین نحو چسبانده شده در بالا برای تجزیه و تحلیل یک مجموعه داده بسیار کوچک (4 موضوع) استفاده کردم. اگرچه تجزیه و تحلیل بدون خطا بر روی یک مجموعه داده بزرگتر انجام شد، وقتی تجزیه و تحلیل را بر روی این مجموعه داده کوچک اجرا کردم، با خطای زیر مواجه شدم: تکرار پایان یافت اما همگرایی به دست نیامد. روش MIXED علیرغم این هشدار ادامه دارد. نتایج بعدی تولید شده بر اساس آن است. در آخرین تکرار، اعتبار تناسب مدل نامشخص است. آیا حجم نمونه بسیار کوچک می تواند باعث این خطا شود؟ | مدل ترکیبی در SPSS با اثرات تصادفی و اندازه گیری های مکرر |
114807 | من با آمار بسیار تازه کار هستم و بدون شانس در نت و صرافی پشته برای پاسخ جستجو کرده ام. بنابراین این پست امیدوارم کسی بتواند کمک کند... من در حال انجام تجزیه و تحلیل اثرات زیست محیطی حدود 100 سازه دیوار خارجی هستم که به صورت پارامتریک تولید شده اند. برای هر نوع، نتایجی برای انرژی اولیه، گازهای گلخانه ای، اسیدی شدن و غیره دارم. 10 پارامتر مختلف در کل معماران در اعداد خیلی خوب نیستند، بنابراین ما به دنبال ایجاد یک روش راهنمایی هستیم که میزان داده هایی را که معماران باید در مراحل اولیه طراحی به آن نگاه کنند، کاهش می دهد. میخواهم ببینم آیا همبستگی کافی بین پارامترها وجود دارد، به طوری که معماران به جای اینکه به 10 پارامتر نگاه کنند تا ببینند کدام ساختار بهتر است، فقط باید به 2 یا 3 پارامتر نگاه کنند. در اینجا نمودار انرژی اولیه در رابطه با گازهای گلخانه ای آمده است:  چگونه می توانم استنباط کنم که آیا همبستگی در اکسل؟ جریان کار دقیق چیست؟ من کارهای زیر را انجام داده ام: 1: تست چولگی در هر دو مجموعه داده (SKEW); اگر نتیجه بزرگتر از 1.0 باشد، ثابت 1.0 به داده ها اضافه می شود و به Log10 تبدیل می شود. من متوجه نشده ام که اگر چولگی کمتر از -1.0 باشد چگونه با مجموعه داده رفتار کنم. 2: آزمون پیرسون r (CORREL) انجام می شود. اگر r>0.75 باشد، همبستگی وجود دارد. 3: تست R2 (RSQ) انجام می شود. اگر R2> 0.56 باشد، همبستگی وجود دارد. 4: تست LINEST برای محاسبه اینکه آیا F.DIST.RT کمتر از 5٪ است و آیا m/sem کمتر از TINV است انجام می شود. این برای محاسبه احتمال 5٪ است. من سوالات زیر را دارم: 1) آیا این درست است؟ آیا من چیزی را از دست داده ام؟ 2) آیا مقادیر r/R2 (0.7/0.56) من برای نشان دادن همبستگی درست هستند؟ 3) آیا رویکرد SKEW/log10 صحیح است و چگونه با چولگی منفی برخورد کنم؟ 4) آیا با تقسیم دو مجموعه داده به یکدیگر و بررسی نسبت، انحراف معیار، واریانس و غیره، راه آسان تری برای انجام آن وجود دارد. کمک بسیار قابل قدردانی است! راب | چگونه می توان تحلیل همبستگی/اهمیت را انجام داد؟ |
92442 | ما سال های 2001، 2002، 2003،... تا 2010 را داریم. مثلاً، یک سال به طور تصادفی از سال های ذکر شده انتخاب شده است. احتمال اینکه سال انتخابی 53 دوشنبه باشد چقدر است؟ | احتمال اینکه یک سال دارای 53 دوشنبه باشد |
92443 | من از R برای ایجاد فاصله پیشبینی 95 درصدی برای تعداد گونههای بومی در یک جزیره استفاده کردهام. کران پایین من منفی است - آیا این از نظر ریاضی درست است؟ در مدل خطی استفاده شده در بازه پیش بینی، داده های مورد استفاده عبارتند از: مساحت سطح جزیره، هکتار فاصله دیسک از سانتا کروز، کیلومتر ارتفاع ارتفاع نقطه بالاتر بر حسب متر و به این صورت کدگذاری می شود: Selected.model <- lm( ES ~ Area + Elevation + DistSC + I (Elevation^2) + (Elevation:DistSC) + (منطقه: ارتفاع)) و رگرسیون گام به گام برای یافتن این «بهترین» مدل انجام شد، دقیقاً مطمئن نیستم که یک بازه پیشبینی چگونه کار میکند. من فقط می خواهم مطمئن شوم که اوکی است. بدیهی است که تعداد منفی گونه ها نادرست است، اما می دانم که عدم قطعیت میانگین و همچنین پراکندگی داده ها را در نظر می گیرد. | آیا یک بازه پیش بینی صحیح ریاضی می تواند کران پایینی منفی داشته باشد؟ |
114801 | من 2 فایل متنی حاوی جملات خاصی دارم. من احتمالات فردی هر کلمه را در هر دو فایل محاسبه کردم. برای file1: $$p(\text{A})=\frac{(\text{تعداد کل کلمه در فایل 1})}{(\text{تعداد کل کلمات در فایل 1})}$$ برای file2: $$p(\text{B})=\frac{(\text{تعداد کل کلمه در فایل 2})}{(\text{تعداد کل کلمات در فایل 2})}$$ برای کلمات رایج در فایل 1 و فایل 2، از: $$p(\text{A}) + p(\text{B})$$ برخی جملات جدید به عنوان ورودی ارائه شده است. با توجه به اینکه کلمه در فایل 1 یا فایل 2 یا هر دو در فایل 1 و فایل 2 وجود دارد، چگونه می توانم احتمال کلمات ورودی را محاسبه کنم؟ | احتمال کلمه ورودی |
114805 | من روی یک تحلیل تجربی کار می کنم که در آن سعی می کنم بازده سهام را با استفاده از داده های هفتگی پیش بینی کنم. در حالت ایدهآل، من میخواهم از یک مدل داده پانل مانند زیر استفاده کنم: $$ Y_{it}=X_{it}'\beta+\varepsilon_{it} $$ (در اینجا در قالب بسیار ساده ارائه شده است - پیچیدهتر خواهد بود در تجزیه و تحلیل) در اینجا $Y_{it}$ بردار بازده هفتگی و $X_{it}$ بردار متغیرهای توضیحی (همچنین هفتگی) با ضرایب بردار $\beta$ است. با این حال، در بسیاری از ادبیات تجربی، این رویکرد استاندارد نیست. رویکرد استاندارد شامل مرتبسازی سهام در پرتفویهای مختلف و استفاده از استراتژیهای تشکیل سبد است. سوالات من این است: 1) چرا رویکرد پورتفولیو رویکرد استاندارد است؟ 2) اخطارهای استفاده از مدل داده های تابلویی چیست؟ 3) آیا متغیرهای توضیحی که معمولاً در ادبیات پیشبینی بازده سهام یافت میشوند (مانند اندازه، نسبت P/E، نسبت P/B و حرکت برای هر شرکت) نیز میتوانند در مدل دادههای تابلویی استفاده شوند؟ | پیش بینی بازده سهام - در مشخصات داده های تابلویی یا با استفاده از استراتژی های تشکیل سبد؟ |
79646 | **ویرایش شده:** من یک متغیر طبقه بندی دارم که شامل مقادیر 1 تا 7 با این احتمالات است: امتیاز 1 2 3 4 5 6 7 p 0.01 0.01 0.03 0.05 0.2 0.3 0.4 در دو نمونه متفاوت از دو جامعه مختلف، من پیدا کردم همان مقدار برای صدک 10 (یعنی 4) در مشاهده شده است داده ها من میخواهم احتمال وجود دقیقاً همان مقدار را برای صدک دهم پیدا کنم. FYI، نمرات پاسخهایی به یک مقیاس هستند و احتمالها نسبتهایی برای هر دسته در یک نمونه هنجاری هستند. من میخواهم بتوانم این کار را در R. P.S انجام دهم: هر پیشنهادی در مورد محاسبه توزیع تجمعی یک متغیر با ویژگیهای ذکر شده در بالا قدردانی میشود. با تشکر | احتمال مشاهده یک مقدار برای صدک 10 در دو نمونه متفاوت |
78517 | من میخواهم همبستگی بین: یک متغیر ترتیبی را تخمین بزنم: از آزمودنیها خواسته میشود اولویت خود را برای 6 نوع میوه در مقیاس 1 تا 5 ارزیابی کنند (از بسیار منزجرکننده تا بسیار خوشمزه) به طور متوسط آزمودنیها فقط از 3 امتیاز استفاده میکنند. مقیاس یک متغیر پیوسته: از افراد مشابه خواسته میشود تا به سرعت این میوهها را شناسایی کنند که منجر به دقت متوسط برای 6 میوه میشود. آیا Spearman rho بهترین روش برای تجزیه و تحلیل این داده ها است و/یا روش های خوب دیگری وجود دارد که می توانم در نظر بگیرم؟ | چگونه می توان همبستگی بین متغیر ترتیبی و پیوسته را به درستی ارزیابی کرد؟ |
91864 | من یک پرسش و پاسخ از اینجا خواندم که بسیار خوب است. در Q/Answer بالا، پارامتر تنظیم $λ$ یک اسکالر بود. اما در مشکل من یک بردار $\lambda$ برای یک حالت رگرسیون رج تعمیم یافته است. درجات آزادی یک عدد صحیح ثابت است (معلوم فرض می شود). من در تلاش برای راه اندازی یک جستجوی تکراری برای بردار $\lambda$ مانند آنچه در اینجا داده شده است. من قدردان هر پیشنهادی هستم | با توجه به درجات آزادی و ماتریس ورودی، چگونه می توان پارامتر منظم سازی را در رگرسیون خط الراس تعمیم یافته محاسبه کرد؟ |
111325 | من در حال حاضر در حال آزمایش با تشخیص نمادهای آنلاین برای ریاضیات برای پایان نامه کارشناسی خود هستم. من 369 نماد دارم که می خواهم آنها را متمایز کنم. روشها/ویژگیهای پیشپردازش زیادی وجود دارد که میتوانم فکر کنم مفید هستند، اما مطمئن نیستم که کدام یک خوب/بد یا کدام ترکیب را انتخاب کنم. از آنجایی که یک تمرین/آزمایش کامل حدود 6 ساعت طول میکشد (با یک شبکه عصبی 3 لایه)، من از امتحان و آزمایش هر ترکیب تردید دارم. چگونه می توانم ارزش یک ویژگی را ارزیابی کنم؟ ## چیزی که من امتحان کردم، در مورد محاسبه میانگین / واریانس ویژگی برای هر نماد و ویژگی فکر کردم. این نشان میدهد که کدام ویژگی میتواند کدام نمادها را تشخیص دهد و برای دو نماد اندازهگیری میکند (هر چه میانگینها از هم دورتر باشند و واریانسها کوچکتر باشند، ویژگی برای تشخیص دو نماد داده شده بهتر است). اما من این روش را زیاد دوست ندارم، زیرا ارزش های زیادی به من می دهد. به این ترتیب باید $\binom{369}{2} = 67896$ را مقایسه کنم. اگرچه می توانم این کار را به صورت خودکار انجام دهم، اما نمی توانم نتایج را در پایان نامه کارشناسی ارائه دهم. من ترجیح می دهم یک مقدار داشته باشم تا بتوانم ویژگی های مختلف را با مقایسه اعداد واحد مقایسه کنم. آیا مقاله / مقاله / کتابی در مورد ارزیابی ویژگی برای مشکلات طبقه بندی ابعادی بالا وجود دارد؟ | چگونه می توان کیفیت ویژگی ها را در کارهای طبقه بندی با ابعاد بالا ارزیابی کرد؟ |
114809 | این سوال بر اساس مقاله Honglak Lee شبکه های باور عمیق متقابل برای یادگیری بدون نظارت مقیاس پذیر نمایش های سلسله مراتبی است. من یک RBM کانولوشن با حداکثر ادغام احتمالی بر اساس معادلات بخش 3.3 پیاده سازی کرده ام. من اکنون میخواهم چندین مورد از آنها را به عنوان یک DBN کانولوشنال جمع کنم. من فکر میکردم که این کار سادهای است، فقط اتصال لایه جمعآوری به لایه قابل مشاهده بعدی به عنوان یک DBN معمولی. اما در مقاله فصل «3.6 استنتاج احتمالی سلسله مراتبی» وجود دارد. این فصل شامل فرمول های مختلف برای h^k و p^k است. من نمی دانم چه زمانی باید از این فرمول استفاده شود و این فصل در مورد چیست؟ آیا کسی می تواند این را روشن کند؟ | استنتاج احتمالی سلسله مراتبی در C-DBN هونگلاک لی چیست؟ |
34771 | اجازه دهید $R_{it}$ و $R_{mt}$ بازده روزانه سهام برخی از شرکتها $i$ و بازده شاخص روزانه بازار (به ترتیب) با $i \in \{1,...,N\} باشد. $ و $t \{1,...,200\}$. معمول است که $R_{it}$ به عنوان پاسخ و $R_{mt}$ به عنوان پیش بینی کننده باشد. بگذارید یک بحران مالی شدید در $t=150$ رخ دهد و این بحران تا $t=200$ ادامه داشته باشد. برای مدلسازی اینکه آیا سهام بیش از شاخص بازار سقوط کرده است یا خیر، ما با OLS $\forall i$ تخمین میزنیم: $R_{it} = \alpha_i + \beta_i R_{mt} + \gamma_i D_t + \epsilon_{it}$ که در آن $ D_t$ برابر است با 1 در بحران و 0 در غیر این صورت. آنچه من می خواهم بدانم، به طور کلی، این است که کدام سهام سریع ترین سقوط را داشتند؟. من ایده هایی برای تجزیه و تحلیل نمونه فرعی دارم که می تواند با این سوال مقابله کند، اما من یک رویکرد اقتصادسنجی را ترجیح می دهم. یکی از راههای انجام این کار این است که نمونه را به $t \in \{1,...,160\}$ کوتاه کنید و به دنبال منفیترین $\gamma_i$ بگردید. با این حال، من به دنبال یک نتیجه اقتصادسنجی هستم که سهامهایی را مشخص کند که (i) در کل دوره بحران سقوط کردند، اما (ii) نسبت بسیار زیادی از سقوط خود را در هفته اول بحران داشتند. من همچنین میخواهم این پارامتر را تغییر دهم تا بتوانم از آن به عنوان یک متغیر وابسته در تحلیل رگرسیون مقطعی برای توضیح این پدیده استفاده کنم. | تعیین اینکه کدام سهام برای اولین بار در سقوط بازار سهام سقوط می کند |
24438 | من مطالعه ای دارم که به اجتماعی شدن کلاس درس می پردازد. دانش آموزان دانش آموزان برتر دیگری را که می خواستند قبل و بعد از درمان با آنها کتاب بخوانند نام بردند. همچنین یک گروه کنترل بود که هیچ درمانی دریافت نکرد. قبل از درمان، چند کودک واقعاً محبوب دارید که همه رایها را میگیرند و تعداد زیادی از بچههای تیرهتر رای کم یا بدون رای میآورند. بنابراین شما یک توزیع منحنی منفی سنگین دارید که به نظر می رسد: **شکل 1** فرض بر این است که درمان باعث بچه های دورکیتر بیشتر انتخاب شوند و بچه های محبوب کمتر انتخاب شوند. به عبارت دیگر توزیع نرمال خواهد شد (شکل 2 را ببینید). و برای گروه کنترل، انحراف منفی ثابت می ماند یا بدتر می شود (شکل 3 را ببینید). **شکل 2**  **شکل 3**  آیا آزمون فرضیه ای برای نشان دادن این تغییر در گروه درمان وجود دارد؟ تقریباً مانند آزمون var اندازه گیری های مکرر یا آزمون توزیع اندازه گیری های مکرر. _توجه داشته باشید این یک پست متقابل ازtalkstats.com است. آنها می دانند که من اینجا پست می کنم و این پست را به آن یکی وصل می کنم._ | مقایسه توزیع قبل از پست |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.