_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
60590
من سعی می کنم یک مولد موزاییک ساده بسازم، جایی که عکس می گیرد، سپس از صدها عکس دیگر برای نمایش هر پیکسل استفاده می کند. برای انجام این کار، می‌خواهم رنگ غالب هر تصویری را که به عنوان کاشی استفاده می‌کنم تعیین کنم، تا بتوانم بدانم چه رنگ‌هایی می‌تواند نشان دهد. من آرایه‌ای دارم که حاوی مقادیر RGB هر پیکسل در تصویر است، بنابراین دستکاری داده‌ها برای من سخت نیست. مسئله این است که تصاویری که من استفاده خواهم کرد کاملاً تصادفی هستند، بنابراین من هیچ دانش قبلی در مورد توزیع رنگ ها ندارم (به این معنی که استفاده ساده از میانگین / حالت و غیره بسیار نادرست است). من به نوعی حالت تخصصی فکر می کنم، زیرا ممکن است رنگ های متمرکز را به خوبی ثبت کند، اما خیلی مطمئن نیستم. هر گونه کمکی قدردانی خواهد شد. با تشکر
تعیین رنگ مسلط در یک تصویر
56872
من می خواهم تجسم بصری پایگاه داده خود را برای خوانندگان و کاربران پایگاه داده ارائه دهم که به دانش فنی ساختار پایگاه داده نیاز ندارد. این شکل در یک مقاله ژورنالی گنجانده خواهد شد و مخاطبان در درجه اول دانشجویان و دانشمندان هستند که بسیاری از آنها مفاهیمی مانند بسیاری از بسیاری یا کلیدها را درک نمی کنند. هدف من این است که محتویات پایگاه داده را با کمی بینش نسبت به این روابط منتقل کنم، اما به جای درک فنی، یک درک مفهومی را منتقل کنم. توضیحات فنی و جامع پایگاه داده به عنوان پیوست در مستندات ارائه خواهد شد. من می بینم که انواع مختلفی از نمودار ER وجود دارد، اما مطمئن نیستم که کدام یک، در صورت وجود، برای توضیح یک مدل داده به مخاطبان من مناسب است. چگونه می توانم این را به روشی غیر فنی نشان دهم که از کلیدها اجتناب کند و درک شهودی تری از روابط بین جداول ارائه دهد؟ در اینجا یک مثال از نقطه شروع من است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RXsTU.png) پایگاه داده واقعی 11 جدول خواهد داشت، از جمله 3 جدول که برای تعریف خیلی به- استفاده می شود. بسیاری از روابط، و بسیاری از زمینه ها را می توان حذف کرد.
تجسم غیر فنی از پایگاه داده من (نمودار ER غیرمتخصص؟)
56926
من سعی می کنم داده های تجربی را که با زمان اندازه گیری می شوند متمایز کنم. با این حال، افزایش زمان به یک اندازه فاصله ندارد. من ابتدا یک خط روند برای این داده ها به دست آوردم و سپس یک درون یابی خطی برای بدست آوردن نقاط با فاصله یکسان انجام دادم. سپس از تفاوت مرکزی برای بدست آوردن مشتق استفاده کردم. با این حال، این یک مشتق می دهد که صاف نیست و دارای مراحل است. چگونه می توانم این مشکل را حل کنم؟
تمایز داده های تجربی
87076
من یک HMM دو حالته دارم که در آن اعتقاد من به احتمالات انتشار بستگی به مشاهده دارد. اساساً، علاوه بر دو بردار طیف انتشار (یکی برای هر حالت)، دو بردار پیشین نیز دارم که به پارامترهایی غیر از حالت تاریخچه بستگی دارند. به عبارت دیگر، آنها هیچ ارتباطی با احتمالات انتقال ندارند. من در تعجبم که بهترین راه برای ترکیب آنها در HMM چیست. استفاده از پیشین ها فقط برای تعریف حالت های اولیه به اندازه کافی آموزنده به نظر نمی رسد. از سوی دیگر، استفاده از p(State)*p(Obs|State) به جای احتمالات p(Obs|State) به عنوان طیف نشری من احتمالاً ایده خوبی نیست زیرا هر نوع سوگیری در HMM تقویت خواهد شد. آیا راه بهتری برای این کار وجود دارد؟
نحوه ادغام پیشین های انتشار هر مشاهده در HMM
46246
من می خواهم از tslm با داده هایی استفاده کنم که دارای فصلی بودن درون روز و الگوی متفاوتی در روزهای کاری و در روزهای غیر اداری هستند. اگر data.ts سری زمانی من است، پس می‌خواهم از چیزی مانند tslm(data.ts~season|businesss.dummy) استفاده کنم. من tslm (data.ts~season + businesss.dummy) را نمی‌خواهم، زیرا این فقط یک تغییر موازی در روزهای کاری ایجاد می‌کند. من می‌دانم که می‌توانم قبل از اعمال مدل، داده‌ها را زیرمجموعه‌بندی کنم و بنابراین فقط داده‌های روز کاری و داده‌های غیر کاری را دریافت کنم، اما آیا می‌توانم با استفاده از فرمول مناسب در tslm به این هدف با زیبایی بیشتری دست پیدا کنم؟ با تشکر
مدل شرطی با استفاده از تابع tslm در پیش‌بینی بسته R
45979
من به دنبال نکاتی در مورد موضوعاتی هستم که باید به آنها توجه کنم تا دوره هایی (با طول غیر ثابت) را که از تصادفی بودن منحرف می شوند شناسایی کنم. من احساس می کنم آزمایش فرضیه ممکن است همان چیزی باشد که به دنبال آن هستم، اگرچه هنوز آن را پوشش نداده ام. دانش آماری من محدود است، بنابراین از هر کتاب / وب سایت پیشنهادی نیز قدردانی می شود.
شناسایی دوره های رفتار غیر تصادفی در سری های زمانی
62995
سوال بالا گویای همه چیز است. اساساً سؤال من مربوط به یک تابع برازش عمومی است (ممکن است به طور دلخواه پیچیده باشد) که در پارامترهایی که می‌خواهم تخمین بزنم غیرخطی خواهد بود، چگونه می‌توان مقادیر اولیه را برای مقداردهی اولیه برازش انتخاب کرد؟ من سعی می کنم حداقل مربعات غیرخطی را انجام دهم. آیا استراتژی یا روشی وجود دارد؟ آیا این مورد مطالعه شده است؟ هر مرجعی؟ چیزی غیر از حدس زدن موقت؟ به طور خاص، در حال حاضر یکی از فرم های برازنده ای که من با آن کار می کنم، فرم خطی گاوسی بعلاوه با پنج پارامتر است که سعی می کنم تخمین بزنم، مانند $$y=A e^{-\left(\frac{x-B}{C}\ راست)^2}+Dx+E$$ که در آن $x = \log_{10}$(داده‌های آبسیسا) و $y = \log_{10}$(داده‌های ترتیبی) به این معناست که در فضای log-log داده‌های من مانند یک خط مستقیم به‌علاوه یک برآمدگی است که من با یک گاوسی تقریب می‌زنم. من هیچ نظریه ای ندارم، هیچ چیز برای راهنمایی من در مورد چگونگی مقداردهی اولیه تناسب غیرخطی به جز شاید ترسیم نمودار و چشم انداز مانند شیب خط و اینکه مرکز/عرض برآمدگی چیست. اما من بیش از صد مورد از این موارد را برای انجام این کار به جای نمودار و حدس زدن دارم، روشی را ترجیح می دهم که بتواند خودکار باشد. من نمی توانم هیچ مرجعی را در کتابخانه یا آنلاین پیدا کنم. تنها چیزی که می توانم به آن فکر کنم انتخاب تصادفی مقادیر اولیه است. متلب پیشنهاد می کند مقادیر را به طور تصادفی از بین [0,1] توزیع یکنواخت انتخاب کنید. بنابراین با هر مجموعه داده، من هزار بار فیت اولیه را به طور تصادفی اجرا می کنم و سپس یکی را با بالاترین $r^2$ انتخاب می کنم؟ هیچ ایده (بهتر) دیگری؟ * * * ضمیمه شماره 1 ابتدا، در اینجا چند نمایش تصویری از مجموعه داده ها وجود دارد تا به شما بچه ها نشان دهم که در مورد چه نوع داده ای صحبت می کنم. من هم داده‌ها را به شکل اصلی‌شان بدون هیچ گونه تغییر و تحولی پست می‌کنم و هم نمایش بصری آن‌ها را در فضای log-log پست می‌کنم زیرا برخی از ویژگی‌های داده‌ها را روشن می‌کند و برخی دیگر را تحریف می‌کند. من نمونه ای از داده های خوب و بد را ارسال می کنم. ![داده های خوب](http://i.stack.imgur.com/xNCmg.jpg) ![log-log-log good data](http://i.stack.imgur.com/9EAA6.jpg) ![بد data](http://i.stack.imgur.com/4vAXC.jpg) ![log-log-log-log bad data](http://i.stack.imgur.com/iDJ34.jpg) هر یک از شش پانل های موجود در هر شکل چهار مجموعه داده را نشان می دهند که با هم قرمز، سبز، آبی و فیروزه ای ترسیم شده اند و هر مجموعه داده دقیقاً 20 نقطه داده دارد. من سعی می‌کنم به دلیل برآمدگی‌هایی که در داده‌ها دیده می‌شود، هر یک از آنها را با یک خط مستقیم به اضافه یک گاوسی تنظیم کنم. شکل اول برخی از داده های خوب است. شکل دوم نمودار log-log همان داده های خوب از شکل یک است. شکل سوم برخی از داده های بد است. شکل چهارم نمودار log-log شکل سه است. داده های بسیار بیشتری وجود دارد، اینها فقط دو زیر مجموعه هستند. بیشتر داده ها (حدود 3/4) خوب است، مشابه داده های خوبی که در اینجا نشان دادم. در حال حاضر برخی از نظرات، لطفا با من تحمل کنید زیرا ممکن است طولانی شود اما فکر می کنم همه این جزئیات ضروری است. سعی می کنم تا حد امکان مختصر باشم. من در ابتدا انتظار قانون قدرت ساده (به معنای خط مستقیم در فضای ورود به سیستم) را داشتم. وقتی همه چیز را در فضای log-log ترسیم کردم، برآمدگی غیرمنتظره را در حدود 4.8 مگاهرتز دیدم. این دست انداز به طور کامل بررسی شد و در کارهای دیگر نیز کشف شد، بنابراین ما به هم نخوردیم. از نظر فیزیکی وجود دارد و سایر آثار منتشر شده نیز به این موضوع اشاره می کنند. بنابراین من فقط یک اصطلاح گاوسی را به شکل خطی خود اضافه کردم. توجه داشته باشید که این تناسب باید در فضای log-log انجام شود (از این رو دو سوال من از جمله این یکی). اکنون، پس از خواندن پاسخ Stumpy Joe Pete به سوال دیگرم (اصلاً به این داده ها مربوط نیست) و این و این و ارجاعات موجود در آن (موارد Clauset) را خواندم، متوجه شدم که نباید در log-log قرار بگیرم. فضا بنابراین اکنون می خواهم همه چیز را در فضای از پیش تبدیل شده انجام دهم. ~~ سوال 1: با نگاهی به داده های خوب، من هنوز فکر می کنم که یک خطی به علاوه یک گاوسی در فضای از پیش تبدیل شده هنوز هم شکل خوبی است. من دوست دارم از دیگرانی بشنوم که تجربیات بیشتری در مورد نظرشان دارند. آیا گاوسی+خطی معقول است؟ آیا فقط باید گاوسیان انجام دهم؟ یا یک فرم کاملاً متفاوت؟~~~~سوالات 2: پاسخ سوال 1 هرچه باشد، من همچنان به حداقل مربعات غیرخطی (به احتمال زیاد) نیاز دارم، بنابراین هنوز برای مقداردهی اولیه به کمک نیاز دارم.~~ داده هایی که در آن دو می بینیم. مجموعه، ما به شدت ترجیح می دهیم اولین ضربه را در حدود 4-5 مگاهرتز ثبت کنیم. بنابراین من نمی خواهم اصطلاحات گاوسی بیشتری اضافه کنم و اصطلاح گاوسی ما باید بر روی اولین برآمدگی متمرکز شود که تقریباً همیشه برآمدگی بزرگتر است. ما دقت بیشتر بین 0.8mHz و حدود 5mHz می خواهیم. ما زیاد به فرکانس‌های بالاتر اهمیت نمی‌دهیم، اما نمی‌خواهیم آنها را کاملاً نادیده بگیریم. پس شاید نوعی وزن کردن؟ یا B را می توان همیشه در حدود 4.8mHz مقداردهی اولیه کرد؟ داده ابسیسا فرکانس در واحد میلی هرتز است، آن را با $f$ نشان دهید. داده ارتین ضریبی است که ما محاسبه می کنیم، آن را با $L$ نشان می دهیم. بنابراین هیچ تبدیل گزارشی وجود ندارد، و شکل $$L=A e^{-\left(\frac{f-B}{C}\right)^2}+Df+E.$$ *$f$ فرکانس است، همیشه مثبت *$L$ یک ضریب مثبت است. بنابراین ما در ربع اول کار می کنیم. * $A$، من فکر می کنم دامنه باید همیشه مثبت باشد زیرا ما فقط با برجستگی ها سر و کار داریم.
نحوه انتخاب مقادیر اولیه برای برازش حداقل مربعات غیرخطی
52719
احتمالا دنبال تعریفی هستم. تصور کنید ما 10 متغیر داریم، اما به نوعی رابطه خطی (و نه درجه دوم یا با هیچ منحنی به آن) علاقه نداریم. چیزی که من می خواهم راهی برای یافتن خوشه ها، الگوها یا ترکیبات (هر چه می خواهید آن را بنامید) است. به عنوان مثال، با توجه به 10 متغیر، فرض کنید دو نفر (یا بیشتر) نمرات بسیار مشابهی دارند، اگرچه هر دو لزوماً بالا و یا پایین نیستند. من تحت این تصور هستم که این اطلاعات برای ما گم شده است، در حالی که در واقع این می تواند یک یافته جالب باشد. آیا نامی برای تلاش برای تشخیص چنین الگوهای داده جالبی وجود دارد؟ از هر گونه پیشنهادی استقبال می شود (همچنین برای عنوان).
یافتن الگوها در داده ها
60622
فرض کنید من یک توزیع گاوسی چند متغیره $p$-بعدی دارم. و من مشاهدات $n$ (هر یک $p$-بردار) را از این توزیع می‌گیرم و ماتریس کوواریانس نمونه $S$ را محاسبه می‌کنم. در این مقاله، نویسندگان بیان می‌کنند که ماتریس کوواریانس نمونه محاسبه‌شده با $p > n$ منفرد است. * چگونه درست یا مشتق شده است؟ * توضیحی دارید؟
چرا وقتی حجم نمونه کمتر از تعداد متغیرها است، ماتریس کوواریانس نمونه تکی است؟
91158
آیا می توان مقدار $\lambda$ توزیع پواسون را طوری دستکاری کرد که تابع جرم احتمالی داشته باشد که مانند منحنی زیر با نقاط داده $(8,0)$,$(7,0.01)$,$(5) باشد، 0.1)$ و $(2،1)$. من در تلاش برای به دست آوردن $\lambda$ بوده‌ام که این مقادیر را برآورده می‌کند، اما از آنجایی که معادله تابع جرم احتمال به راحتی شکسته نمی‌شود، با مشکل مواجه شده‌ام. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/z57Tj.jpg)
به دست آوردن $\lambda$ برای توزیع پواسون
94047
فرض کنید $K$ افراد و iid وجود دارد. پارامترهای $a_1,\ldots,a_K$ با $a_i \sim U(0,1)$ مرتبط هستند. شخص $i$ $a_i$ ثابت خود را با مقداری نویز مشاهده می‌کند: \begin{equation} X^{(1)}_i= a_i+ e^{(1)}_i، \end{equation} که در آن $e_i$ است. یک عبارت خطا که به طور معمول با $N(0, v)$ توزیع می شود. او $X^{(1)}_i$ را یاد می گیرد. پس از مشاهده $X^{(1)}_i$، شخص $i$ می‌خواهد این احتمال را محاسبه کند که دفعه بعد افراد $1,\ldots,K$ سیگنال دریافت کنند (سیگنال‌های جدید را با $X^{(2) نشان دهید. }_i$)، سیگنال او بزرگتر از سیگنال های دیگران خواهد بود، مشروط به مقدار $X^{(1)}_i$. سیگنال همه دارای یک عبارت خطا با توزیع یکسان است و اصطلاحات خطا مستقل هستند. به طور خلاصه، من می خواهم موارد زیر را محاسبه کنم: \begin{equation} \textrm{Prob}(X^{(2)}_i > X^{(2)}_{j}، \textrm{برای همه}j \neq i\mid X^{(1)}_i). \end{equation} اگر کسی بتواند به من کمک کند که چگونه به این مشکل برخورد کنم، واقعاً از آن متشکرم.
محاسبه احتمال بر اساس متغیرهای ترکیبی
60591
روش‌های نویز زدایی مبتنی بر تبدیل موجک ثابت به دلیل تغییر ناپذیری ترجمه‌ای، بهترین در نظر گرفته می‌شوند. از سوی دیگر، Matlab نویز زدایی مبتنی بر SWT را وعده می‌دهد، اما در تابع ddencmp برای حذف نویز سیگنال، در واقع از تبدیل موجک گسسته استفاده می‌کند در حالی که باید ضرایب SWT را در آستانه قرار دهد. آیا چیزی وجود دارد که من از دست بدهم؟ من کاملا سپاسگزار خواهم بود.
طبقه بندی سیگنال ها و نویز زدایی مبتنی بر تبدیل موجک
49218
من با تجزیه و تحلیل مسیر و ESM تازه کار هستم. من این روش را مطالعه کرده ام، اما هنوز هم بسیار سردرگم هستم. من یک مدل شکست تجربی ارزیابی شده دارم که دارای 45 متغیر در یک مدل علت و معلولی با یکدیگر مرتبط هستند. در مدل های من، در مجموع 40 مسیر شکست وجود دارد. طولانی ترین مسیرها 7 متغیر دارد. پس از ارزیابی مدل شکست، هر متغیر را از طریق پرسشنامه اندازه‌گیری کردم و در مجموع 50 پاسخ دریافت کردم. حال، می‌پرسم آیا این حجم نمونه برای انجام تحلیل مسیر برای ارزیابی «قوی‌ترین مسیرهای شکست» کافی است؟ یا اگر من 5 مورد تایید نهفته را به مدل خود متصل می کنم، SEM را انجام دهم؟ یکی از دوستانم پیشنهاد کرد که از تکنیک های PLS با استفاده از نرم افزار SmartPLS استفاده کنید زیرا به داده ها حساسیت کمتری دارد.
تحلیل مسیر مدل ارزیابی تجربی و حجم نمونه
52713
با توجه به یک سری مقادیر، من می دانم که 68٪ از مقادیر در یک انحراف استاندارد قرار می گیرند و 95٪ با 2 انحراف استاندارد قرار می گیرند، اما چگونه می توانم محدوده ای را محاسبه کنم که در آن 90٪ از مقادیر سقوط می کنند. اجازه دهید آن محدوده 90 درصد را محدوده معمولی بنامیم.
چگونه محدوده ای را محاسبه کنم که 90 درصد مقادیر در آن قرار می گیرند
49211
آیا مقاله یا کتابی وجود دارد که در مورد رابطه ریاضی بین مدل های مختلف یادگیری ماشین صحبت کند - اینکه چگونه آنها متفاوت هستند و چگونه می توانند (گاهی) معادل باشند؟ به عنوان مثال رگرسیون لجستیک را می توان به عنوان یک پرسپترون تک لایه مشاهده کرد. نمونه های دیگر در اینجا آمده است
ارتباط بین مدل های مختلف ML
17708
مجموعه آموزشی $\{(x_i; y_i)\}_{i=1}^N, x_i \in \mathbb{R}^n, y_i \in \mathbb{R}$ را در نظر بگیرید. هدف یافتن تابع رگرسیون است، مانند $f(x) = \sum_{i=1}^K a_i g_i(x) + a_0$. اگر توابع $g_i$ را بدانیم، راه حل حداقل مربعات به خوبی شناخته شده است. بیایید در نظر بگیریم که رگرسیون هسته با تابع پایه شعاعی داریم (از گاوسی استفاده کنیم)، بنابراین $g_i(x) = \exp \left( - \gamma_i ||x_i - c_i ||^2 \right)$. بهترین انتخاب برای پارامترهای تابع پایه $\{c_i\}_{i=1}^K$ و $ \{ \gamma_i \}_{i=1}^K $ چیست؟
مبنای بهینه برای مسئله رگرسیون
56923
من به دنبال بررسی رابطه بین یک سری از متغیرها به صورت تکراری هستم. یک متغیر همیشه متغیر وابسته خواهد بود و سه مقدار ممکن را می گیرد: خوب، بد یا دیگر که به ترتیب به صورت 1، -1 و 0 کدگذاری کرده ام. من به طور کلی علاقه مندم که ببینم چگونه یک سری از متغیرهای مستقل اضافی با این متغیر اول تعامل دارند، که همه آنها به صورت خطی محدوده خواهند شد. برای مثال، یکی از این متغیرها ممکن است «دقیقه» نامیده شود و از صفر تا چند هزار متغیر باشد. اساساً، می‌خواهم ببینم که چگونه متغیرهایی مانند «دقیقه» ممکن است بر احتمال یک نتیجه «خوب» تأثیر بگذارد. به طور معمول، من یک رگرسیون را اجرا می کنم، اما این واقعیت که متغیر وابسته در اینجا به سه شکل ممکن است، آن را دشوار می کند. راه صحیح اجرای این نوع از تست ها چیست؟
تلاش برای بررسی رابطه بین یک متغیر و متغیر دیگر که دارای سه مقدار ممکن است
17701
در سایت تجارت الکترونیک، مصرف کنندگان یک رتبه بندی کلی با رتبه بندی چند جنبه ارائه می دهند. برای مثال، اگر مصرف‌کننده‌ای یک دوربین بخرد، اطلاعات رتبه‌بندی را به شرح زیر ارائه می‌کند: اندازه محصول کاربر/وزن ظاهر باتری قیمت نمایش کلی دوربین A 1 4 2 3 5 5 4 B Camera 2 4 2 3 5 5 2 C Camera 3 2 4 5 1 2 4 D Camera 4 2 4 5 1 2 2 در عمل، در مجموعه داده ما، مصرف کننده فقط دوربین بخر بنابراین، چگونه می توانیم با استفاده از داده های ناهمگن ارائه شده، همبستگی بین جفت کاربر (A در مقابل B، یا A در مقابل C و غیره) را تعیین کنیم.
چگونه می توان همبستگی بین مصرف کنندگان را با توجه به چند جنبه و رتبه کلی آنها محاسبه کرد؟
56920
فرض کنید که می خواهید توزیع مشترک خود را بر روی مجموعه ای از متغیرها از طریق تجزیه آن به چندین توزیع کوچکتر تقریبی کنید. فرض کنید هیچ دانش قبلی در مورد ارتباط آماری یا جبری بین متغیرها نمی دانید. تنها ورودی مجموعه ای از نمونه ها از متغیرها است. چگونه ادعا می کنید که آیا برخی از متغیرها تمایل به وابسته/مستقل بودن دارند؟ (توجه داشته باشید که این چیزی بیش از محاسبه همبستگی است که در واقع یک عملیات خطی است.)
نحوه پیدا کردن ارتباط بین متغیرها
62990
در بسته `R` `hdrcde` توسط Rob Hyndman برای محاسبه مناطق با بالاترین چگالی در یک و دو بعدی، تابع hdrbw پهنای باند بهینه را برای مناطق 1 بعدی با بالاترین چگالی تخمین می زند. در مثال داده شده، متغیر HDRlevelVal یک احتمال 0 HDRlevel: HDR-level است که در Hyndman (1996) تعریف شده است. تنظیم HDRlevel برابر با p (0 مقاله ارجاع شده را پیدا نکردم. کسی می تواند اطلاعاتی در مورد آن مقاله و تابع به من بدهد. آیا در R بسته هایی وجود دارد که این تابع را پیاده سازی می کند؟ HDRlevelVal <- 0.55 x <- وفادار $eruptions hHDR <- hdrbw(x,HDRlevelVal) HDRhat <- hdr.den(x,prob=100*(1-HDRlevelVal)،h=hHDR) Rhat <- hdr.den(x,prob=100*(1-HDRlevelVal)،h=hHDR)
نحوه محاسبه سطح احتمال HDR برای برآورد مناطق با بالاترین چگالی
113756
من می خواهم هسته _anova rbf_ موجود در بسته **kernlab** را در **caret** تست کنم. پس از آموزش عالی (https://topepo.github.io/caret/custom_models.html) من کد زیر را پیدا کردم: SVManova <- list(نوع = رگرسیون، کتابخانه = kernlab، حلقه = NULL ) prmanova <- data.frame(پارامتر = c(C، سیگما، درجه، eps)، class = rep(عددی، 4)، label = c(هزینه، سیگما، درجه، Eps)) SVManova$parameters <- prmanova svmGridanova <- function(x, y, len = NULL) { library(kernlab) sigmas <- sigest(as.matrix(x), na.action = na.omit, scaled = TRUE, frac = 1) expand.grid(sigma = mean(sigmas[-2])، epsilon = 0.000001، C = 2 ^(-5:len)، درجه = 1:2) # len = آهنگ طول در قطار } SVManova$grid < - svmGridanova svmFitanova <- تابع (x، y، wts، param، lev، آخرین، وزن‌ها، classProbs، ...) { ksvm(x = as.matrix(x)، y = y، kernel = anovadot، kpar = list(sigma = param$sigma، درجه = param$degree)، C = param$C , epsilon = param$epsilon, prob.model = classProbs, ...) #default type = eps-svr } SVManova$fit <- svmFitanova svmPredanova <- تابع (modelFit، newdata، preProc = NULL، submodels = NULL) پیش بینی (modelFit، newdata) SVManova$پیش بینی <- svmPredanova svmProb <- تابع (modelFit، newProdel =NULL،NULL) predict(modelFit, newdata, type=probabilities) SVManova$prob <- svmProb svmSortanova <- function(x) x[order(x$C), ] SVManova$sort <- svmSortanova سپس از مدل درخواست کردم تا تعدادی را آموزش دهد مجموعه داده: set.seed(100) #از همان seed برای آموزش مدل های مختلف استفاده کنید svrFitanova <- train(R ~ .، داده = trainSet، روش = SVManova، preProc = c(مرکز، مقیاس)، trControl = ctrl، tuneLength = 20، allowParallel = TRUE) #به طور پیش فرض، RMSE و R2 محاسبه می شوند برای رگرسیون (در همه موارد، مدل تنظیم و متقاطع را با بهترین مقدار انتخاب می‌کند)، متریک = ROC #Print نتایج svrFitanova اما من خطای زیر را دریافت می کنم: خطا در train.default(x, y, weights = w, ...) : شبکه پارامتر تنظیم باید دارای ستون های C، سیگما، درجه، eps باشد. من نمی دانم چرا این خطا رخ می دهد ... شبکه تنظیم دارای چهار ستون به عنوان درخواست ... هر گونه ایده؟ با تشکر
واردات مدل کرنلاد به کارت
60621
در Manski - ساختار مدل‌های سودمند تصادفی مثال زیر پیشنهاد شده است: فضای مجموعه جایگزین **_a_** = $(\alpha,\beta,\gamma)$ را با نمایش ویژگی: $X = \begin{bmatrix در نظر بگیرید. } & \alpha & \بتا & \گاما & \cr x_1 & 1 & 1 & 2 \cr x_2 & 0.5 & -0.5 & -1 \end{bmatrix}$. افراد/تصمیم‌گیرندگان $\sigma$ و $\tau$ با این ویژگی‌ها مشخص می‌شوند: $S = \begin{bmatrix} \sigma & \tau \cr 1 و 0 \end{bmatrix}$. در نهایت تابع $w(x,s)$ که سودمندی عامل های به حداکثر رساندن ابزار $\sigma$ و $\tau$ را تعریف می کند توسط $w(x,s) = x_1 + x_2\cdot s$ داده می شود. **هدف محاسبه احتمالات است:** $P_t(a\in^c C)$ که احتمال این است که یک تصمیم گیرنده $t\in T$ جایگزین $a$ را از مجموعه انتخاب های ممکن انتخاب کند. $C$. با تعریف فضای جایگزین **_a_** می توان $C$ را به عنوان هر زیرمجموعه غیر خالی از هر ترتیب خاص از جایگزین های $\alpha، \beta$ و $\gamma$ در نظر گرفت. از این رو، مجموعه‌های انتخابی بسیار کمی وجود خواهد داشت که یک تصمیم‌گیرنده می‌تواند از بین آنها انتخاب کند. Manski فضای مجموعه انتخاب را نشان می دهد، مجموعه ای از همه زیر مجموعه های غیر خالی ممکن $C$، با $\Gamma$ و $T$ نشان دهنده جمعیت همه تصمیم گیرندگان ممکن است. برای محاسبه $P_t(a\in^c C)$ اطلاعات اضافی داده شده است. توزیع مشترک $M_{\Gamma T}((C,t))$ انتخاب ممکن $C$ را تنظیم می کند و تصمیم گیرندگان $t$ توسط: $M_{\Gamma T}((\alpha,\) داده می شود beta,\gamma),\sigma) = \frac{2}{36}$ برای هر یک از شش مجموعه انتخاب مرتب شده که عناصر آنها $\alpha،\beta$ و $\gamma$ هستند. $M_{\Gamma T}((\alpha,\beta),\sigma) = \frac{1}{12}$ برای هر یک از دو مجموعه انتخاب مرتب شده که عناصر آنها $\alpha$ و $\beta$ $ هستند M_{\Gamma T}((\alpha,\beta,\gamma),\tau) = \frac{1}{36}$ برای هر یک از شش مجموعه انتخاب مرتب شده که عناصر آن $\alpha,\beta$ هستند و $\gamma$ $M_{\Gamma T}((\alpha,\beta),\tau) = \frac{2}{12}$ برای هر یک از دو مجموعه انتخاب مرتب شده که عناصر آنها $\alpha$ و $\beta$ برای محاسبه احتمالات $P_t(a\in^c C)$ برای حالتی که اطلاعات x_2$ مشاهده نشده است، ابتدا باید بردار $W_{Ct}$ را محاسبه کنیم که شامل ابزارهای کمکی برای گزینه های موجود در $C$ برای یک تصمیم گیرنده $t$. در این مورد، این به دست می‌آید: $\bar W_{(\alpha,\beta,\gamma),\sigma} = \begin{pmatrix} 1.5\\ 0.5\\ 1\end{pmatrix}$ and $\bar W_ {(\alpha،\beta،\gamma)،\tau} = \begin{pmatrix} 1\\ 1\\ 2\end{pmatrix}$ برای محاسبه احتمال $P_t(a\in^c C)$ Manski دو فرمول زیر را به دست می‌دهد: $(1) \ P(\bar W_{Ct} | r_{Co}، s_{to}) = \frac{ \sum_{ (\tilde C, \tilde t):r_{\tilde Co} = r_{Co}, s_{\tilde to} = s_{to}، W_{\tilde C\tilde t} = \bar W_{Ct} } M_{\Gamma T}((\tilde C,\tilde t))}{\sum_{ (\tilde C, \ tilde t):r_{\tilde Co} = r_{Co}, s_{\tilde to} = s_{to}} M_{\Gamma T}((\tilde C,\tilde t))}$$(2) \ P_t(a\in^c C) = \sum_{\bar W_{Ct}:\bar w_{at}\ge \bar w_{\tilde at} , \tilde a\in C}P(\bar W_{Ct} | r_{Co},s_{to})$ بنابراین به وضوح برای محاسبه $P_t(a\in^c C)$ باید محاسبه کنیم (1) ابتدا این کار با جمع کردن $M_{\Gamma T}((\tilde C,\tilde t))$ برای همه مشکلات انتخابی ممکن $(\tilde C,\tilde t)$ برای مقادیر خاص $r_{\tilde انجام می‌شود. Co},s_{\tilde به}$ و $W_{\tilde C\tilde t}$ یعنی $r_{Co},s_{to}$ و $\bar W_{Ct}$. برای این کار باید تعریف $r_{Co}$ و $s_{to}$ را در نظر بگیریم. مانسکی پیشنهاد می‌کند که $X$ و $S$ به بخش‌های قابل مشاهده و غیر قابل مشاهده مانند $X = [X_o,X_u]$ و $S = [S_o,S_u]$ تقسیم شوند که در آن o قابل مشاهده را اهدا می‌کند، و u بخش غیر قابل مشاهده. اکنون می توانیم $X_o$ را به صورت $X_0 = (x_{ao}, \forall \ a\in $ **_a_**) بنویسیم. تعریف $r_{Co}$ اکنون توسط $r_{Co} = (x_{ao}، \forall \ a\in C)$ ارائه می‌شود. بنابراین تنها تفاوت بین $X_o$ و $r_{co}$ مجموعه‌ای است که $x_{ao}$ روی آن تعریف می‌شود، زیرا $r_{Co}$ همه مجموعه‌های انتخابی $C$، $X_o$ را در نظر می‌گیرد. فقط $x_{ao}$ را در فضای جایگزین **_a_** تعریف می کند. **حالا معضل من:** از آنجایی که برای محاسبه (2) باید (1) را محاسبه کنم، باید احتمالات مشترک $M_{\Gamma T}((\tilde C, \tilde t)) را جمع آوری کنم. $ بیش از مقادیر ممکن $r_{Co}، s_{to}$ و $\bar W_{Ct}$. از آنجایی که مقدار $s_{to}$ توسط اعداد صحیح $1$ یا $0$ داده می‌شود و $\bar W_{Ct}$ تنها یکی از بردارهای مفید ممکن است بسته به این که در حال حاضر به دنبال کدام مجموعه انتخاب هستیم. ، من فقط باید بفهمم که $r_{Co}$ واقعاً چیست. تعریف کاملاً واضح است اما برای این مثال کاملاً مطمئن نیستم. از آنجایی که $x_2$ مشاهده نمی شود، من $r_{Co}$ را به عنوان بردار نتایج مشاهده شده $x_1$، یعنی $r_{Co} = (1.5,0.5,1)$ برای $C = (\) در نظر گرفتم. آلفا، بتا، گاما)$. اما اگر $r_{Co}$ را به این صورت در نظر بگیرم، محاسبه کار نخواهد کرد زیرا (1) همیشه 1 خواهد بود و مجموع در (2) می تواند بزرگتر از 1 شود که البته ممکن نیست. من چند روز است که با این مشکل گیر کرده ام و هر کمکی بسیار قدردانی خواهد شد!
درک پارادایم انتخاب دو مرحله ای
37934
من سعی می کنم مقاله زیر را پیاده سازی کنم: آموزش ماتریس هسته با برنامه نویسی نیمه معین با استفاده از جعبه ابزار cvx برای متلب. سوال من این است که دقیقاً چگونه می توانم از این روش با اعتبارسنجی متقابل برای ایجاد مقداری از دقت متوسط ​​یا تعمیم پذیری استفاده کنم. وضعیت من به شرح زیر است: من 100 آزمایش از یک شخص دارم. همه اینها برچسب گذاری شده اند، به این ترتیب که ما می دانیم چه نوع آزمایشی را به فرد داده ایم تا انجام دهد: A یا B. اکنون می‌خواهم یک طبقه‌بندی بسازم تا ببینم آیا می‌توانیم آنها را بدون برچسب‌ها از هم جدا کنیم، به این امید که در آینده به داده‌های بدون برچسب تعمیم دهیم. بنابراین، من به دنبال اجرای معادله حاشیه نرم 2-هنجاری در مقاله (معادله 41) با استفاده از cvx برای یادگیری ماتریس هسته رفتم تا سعی کنم ماتریس هسته ایده آل را یاد بگیرم. من نمی دانم دقیقاً چگونه با اعتبارسنجی متقابل مطابقت دارد. آیا منطقی است که داده‌هایم را به قطار/آزمون تقسیم کنم، سپس ماتریس هسته را با استفاده از تکنیکی که توضیح داده شد، یاد بگیرم و روی داده‌های آزمایشی‌ام آزمایش کنم، و سپس داده‌هایم را دوباره در یک مجموعه قطار/آزمایش جدید به هم بزنم و هسته را دوباره یاد بگیرم؟ وقتی من اساساً هر بار هسته جدیدی یاد می‌گیرم، این چگونه به تعمیم این موضوع اشاره می‌کند؟ تصور کنید من یک اعتبار سنجی متقاطع 5 برابری انجام دهم و چیزی شبیه به: 50، 75، 85، 95، 100% دریافت کنم؟ از آن چه نتیجه ای می توانم بگیرم؟ اینکه طبقه بندی کننده من 81 درصد دقت دارد؟ در مورد آزمایشات 50% و 75% چطور؟ اگر مسیرهای من مقداری میانگین داشته باشند، اما واریانس عظیمی داشته باشند، چه؟ چگونه می توانم اعتماد به نفس داشته باشم؟ همچنین، از کدام یک از پنج ماتریس هسته ای که اکنون یاد گرفته ام، روی داده های نادیده تازه جمع آوری شده استفاده کنم؟
اعتبار سنجی متقاطع به عنوان معیار تعمیم پذیری SVM
9785
راب تیبشیرانی در مقاله خود در سال 1997 روش کمند برای انتخاب متغیر در مدل کاکس که در Statistics In Medicine 16:385 منتشر شد، استفاده از کمند با رگرسیون کاکس را برای انتخاب متغیر پیشنهاد کرد. آیا کسی بسته / تابع یا نحو R در R می شناسد که با مدل Cox کمند کند؟
مدل کاکس با LASSO
9786
من می خواهم فرضیه کاهش سطح ویتامین D را در افراد دیابتی آزمایش کنم. برای این منظور من سطح گلوکز و ویتامین D خون را در 40 مورد و 40 کنترل ثبت کردم. از چه نوع آزمون آماری می توانم برای فرضیه فوق استفاده کنم؟
چگونه سطوح ویتامین D و گلوکز را بین بیماران و گروه شاهد مقایسه کنیم؟
60627
چند وقت پیش، تحقیقات آموزشی انجام دادم و نمرات امتحانات را بین دو گروه مقایسه کردم. یادم می آید جایی خواندم که امتحانات آموزشی از این قبیل از توزیع نرمال پیروی می کنند. البته توزیع های نرمال الزاما باید بی نهایت باشد و نمرات امتحانات آموزشی اینطور نیست. آیا از نظر ریاضی درست است که بگوییم این نمرات به جای توزیع نرمال سنتی از «توزیع نرمال کوتاه شده» پیروی می کنند؟ آیا این برش مانع از استفاده از آزمون t برای مقایسه دو گروه می شود؟
در مورد توزیع نمرات امتحانات و استفاده از آزمون t
37939
داده ها در یک کارآزمایی بالینی برای ارزیابی ترکیب جدیدی که برای بهبود بهبود زخم در بیماران طراحی شده است، جمع آوری می شود. ترکیب جدید با دارونما مقایسه می شود. پس از درمان به مدت 5 روز با ترکیب جدید یا دارونما، میزان بهبود زخم اندازه گیری شده و داده ها در جدول نشان داده شده است. فرض کنید پزشک احساس کند که اگر درصد کاهش اندازه زخم بیش از 50 درصد باشد، درمان موفقیت آمیز است. الف یک فاصله اطمینان 95% برای درصد موفقیت در بیماران دریافت کننده ترکیب جدید ایجاد کنید. ب برای تفاوت در درصد موفقیت بین ترکیب جدید و پلاسبو، یک فاصله اطمینان 95٪ ایجاد کنید. ج ایجاد فاصله اطمینان 95% برای خطر نسبی موفقیت درمان بین درمان ها d. یک فاصله اطمینان 95% برای نسبت شانس موفقیت درمان بین درمان ها ایجاد کنید. جدول: تعداد بیماران با درصد کاهش اندازه زخم ترکیب جدید n=125 هیچ=4 1-25=11 25-50=37 51-75=32 76-100=41 دارونما n=125 هیچ=12 1-25 =24 25-50=45 51-75=34 76-100=10 همچنین: الف یک فاصله اطمینان 95% برای میانگین سنی در میان شرکت کنندگانی که به دارونما اختصاص داده شده اند ایجاد کنید. ب یک فاصله زمانی اطمینان از تفاوت میانگین سنی در شرکت‌کنندگانی که به گروه‌های آزمایشی در مقابل گروه دارونما اختصاص داده شده‌اند، ایجاد کنید. ج یک فاصله اطمینان 95% برای تفاوت میانگین BMI در شرکت‌کنندگانی که به گروه‌های آزمایشی نسبت به گروه دارونما اختصاص داده شده‌اند، ایجاد کنید.
پرسش کارآزمایی بالینی فاصله اطمینان
54716
من از یک بوت استرپ وحشی برای ایجاد فواصل اطمینان حول مقادیر متناسب مدل زیر برای ترکیب خاصی از عوامل استفاده می کنم، زیرا x در محدوده آن متفاوت است. mod = gam(log(lhs)~ s(re,bs=re,by=dum) + as.factor(fac1) + as.factor(fac2) + as.factor(fac3) + s(x،by =as.factor(fac1)) + s(x,by=as.factor(fac2)) ,method=REML ,data = dat) من به سادگی انجام نمی دهم `predict.gam(mod, newdata=whatever,se.fit=TRUE)` زیرا متغیر وابسته یک گزارش است و SE*1.96 با صفر همپوشانی دارد. چیزی که من می‌خواهم توزیعی از $lhs^{-1}|x$ است که می‌توانم از آن در شبیه‌سازی مونت کارلو استفاده کنم، جایی که x را مشخص می‌کنم و از توزیع شرطی $lhs$ ترسیم می‌کنم. بنابراین من از یک راه‌انداز وحشی استفاده می‌کنم - بردار باقیمانده را می‌گیرم، آن را در توزیع Mammen ضرب می‌کنم، آن را به مقادیر برازش اضافه می‌کنم، و مدل را دوباره به $lhs^*$ حاصل می‌دهم. به طور دقیق، من از بوت استرپ وحشی خوشه ای استفاده می کنم، زیرا داده های من خوشه ای هستند. وقتی این کار را انجام می‌دهم، این را دریافت می‌کنم: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/dBxlZ.png) این مقادیر 50 نفره بوت‌استریپ است. من می‌خواهم هنگام انجام مونت کارلو از این نمونه برداری کنم -- با دادن یک $x$ و گرفتن مقدار احتمالی $lhs|x$. **سوال من: از آنجایی که تخمین مرکزی به وضوح در مرکز توزیع مقادیر برازش قرار ندارد، تخمین مرکزی شامل چه اطلاعات یا ارزشی است؟ یا، آیا باید این عدم تقارن را به عنوان نشانه‌ای در نظر بگیرم که یا از ابزار اشتباهی استفاده می‌کنم یا از آن به‌درستی استفاده می‌کنم؟ (توجه: این نمودار $lhs^{-1}|x$ است. من همچنین به نمودارهای $log(lhs)|x$ نگاه کرده‌ام، که مدل مشخص می‌کند. به طور مشابه غیر متقارن است. بنابراین به نظر نمی رسد مشکل من این باشد که CI تحت تبدیل به سادگی متقارن است.) (یک نکته دیگر: توزیع نشان داده شده - بالای تخمین مرکزی در سمت چپ و زیر آن در سمت راست - بسیار زیاد است مطابق با پیشینیان من). مشاوره بسیار قدردانی می شود.
وقتی فاصله اطمینان نامتقارن است، در مورد تخمین مرکزی چگونه فکر می کنید؟
60626
(با عرض پوزش برای ارسال متقابل از math.stackexchange.com؛ من تا به حال از این سایت اطلاعی نداشتم). من می خواهم عملکرد دو الگوریتم را آزمایش کنم. دومی نوعی از اولی است. هیچ داده قبلی در مورد عملکرد هر یک در یک دامنه خاص وجود ندارد. عملکرد هر دو در هر نمونه معین بر اساس یک طبقه بندی باینری ساده از موفقیت یا شکست قضاوت می شود. فرضیه صفر من این است که هیچ تفاوتی در عملکرد دو الگوریتم وجود ندارد. فرضیه جایگزین من این است که دومی بهتر عمل می کند. من $n$ نمونه به دست آوردم و نتیجه هر دو الگوریتم در هر نمونه ارزیابی شد. من با نسبت موفقیت برای هر دو الگوریتم به پایان رسیدم. آیا این واقعیت که الگوریتم‌ها به طور مستقل روی نمونه‌ها عمل می‌کنند به این معنی است که من اکنون در استفاده از آزمون $z$ برای مقایسه دو نسبت توجیه شده‌ام؟ یا باید $n$ را تقسیم کنم و یک الگوریتم معین را در برابر بخشی از $n$ و الگوریتم دیگر را در قسمت دیگر اجرا کنم؟ به دلیل محدودیت‌های عملیاتی، جمع‌آوری نمونه‌ها دشوار بود/می‌شود، و تقسیم $n$ بسیار ناخوشایند است. همچنین می‌خواهم بتوانم نمونه‌ها را مستقیماً با یکدیگر مقایسه کنم تا به محدودیت‌های الگوریتم دوم دست پیدا کنم. گزینه های من چیست؟ آیا نوع دیگری از تست $z$ وجود دارد که در اینجا اعمال شود؟ از آنجایی که $n$ برای شروع کوچک بود، آیا باید دستانم را بالا بیاورم و این را به عنوان یک مطالعه آزمایشی اعلام کنم؟ اگر من واقعاً این کار را انجام دهم، آیا استفاده از آزمون $z$ برای دو نسبت توجیه می شود؟ هر ورودی بسیار قدردانی می شود. دارم به خودم لگد می زنم که از قبل به این موضوع فکر نکرده بودم. همانطور که می دانید من دقیقاً در این زمینه یک دانشگاهی نیستم.
استفاده مناسب از آزمون z در مقایسه دو نسبت
112402
من سعی می کنم یک تابع درستنمایی سفارشی ایجاد کنم که بسته به درونزا یا برون زا بودن یک مشاهده، از توابع احتمال متفاوتی استفاده کند. آیا می توان تابع من را با استفاده از متغیر پیوند در تابع 'glm' در بسته 'glm' کدگذاری کرد؟ یا باید همه کارها را با دست انجام دهم و سپس از یک روش بهینه سازی مانند 'optim' استفاده کنم؟ متشکرم!
آیا می توان یک تابع احتمال سفارشی را با استفاده از متغیر link در بسته glm تعیین کرد؟
91262
من روی یک مشکل طبقه بندی نامتعادل کار می کنم که در آن نسبت هدف به غیر هدف حدود 1٪ تا 99٪ است. از آنجایی که این یک مشکل طبقه بندی نامتعادل است، من یک استراتژی را با استفاده از بسته SMOTE در R امتحان کردم. قبل از آن متغیرهای مشتق شده اضافی نیز به مجموعه داده SAS و همچنین برخی از قوانین تجاری پروکسی برای افزایش تعداد نمونه های هدف موجود اضافه شدند. دستکاری‌های اولیه داده‌ها مانند، کف‌بندی/پوشش مقادیر برای تعداد کمی از متغیرها، تبدیل متغیرها و پیوند متغیرها با آماره جینی قبل از استفاده از تکنیک مدل‌سازی واقعی انجام شد از آنجایی که نسبت‌های موجود tgt به غیر tgt منحرف بود، من یک الگوریتم SMOTE را اجرا کردم. (perc.over = 14250% و perc.under = 100%) از طریق R برای ایجاد یک مجموعه داده متعادل. پستی که احتمالات قبلی تنظیم شده به نسبت های اصلی تنظیم شده است، زیرا من به طور مصنوعی این نسبت ها را باد کرده ام. سپس یک درخت تصمیم روی خروجی SMOTE قرار گرفت تا نتایج را بدست آورد. با این حال، زمانی که من این نتایج را جمع‌آوری می‌کنم تا بررسی کنم که چند نمونه tgt = Y در ابتدا طبقه‌بندی شده‌اند، این عدد ناامیدکننده‌ای بود که تنها حدود 15 مورد از کل tgt = Y = 1870 مورد بود. از این رو مایلم در مورد اینکه آیا تکنیک دیگری وجود دارد که بتوان از آن استفاده کرد نظر بدهم. PS: من سعی کردم از یک گره درخت تصمیم استفاده کنم، بین گروه های شروع و پایان جاسازی شده و تقویت را برای 5 تکرار انتخاب کردم. این نتایج یک نرخ مثبت واقعی خوب را ارائه می دهد، با این حال، مثبت های کاذب نیز هزاران نفر هستند که دوباره نگران کننده است. با تشکر، AJ.
چه مقدار نمونه برداری بیش از حد در الگوریتم SMOTE توجیه می شود؟
107847
من از یک رگرسیون بردار پشتیبان استفاده می‌کنم تا تخمینی از یک متغیر y را بدست بیاورم. من می خواهم یک توزیع احتمال از تخمین هایم دریافت کنم و نه فقط تخمین های نقطه ای. من می‌خواهم توزیع‌های گاوسی را برای هر نقطه‌ای که میانگین باید نقطه من باشد، پیش‌بینی کنم و همچنین یک واریانس می‌دهم. آنچه من برای اجتناب از استفاده از روش هایی مانند فرآیندهای گاوسی یا SVM احتمالی فکر می کنم، استفاده از تاریخچه N پنجره و استفاده از خطا به عنوان واریانس برای تخمین های جدیدم است. به عنوان مثال std خطای آخرین N پنجره 0.5 است. سپس تخمین اگر پیش‌بینی من 5 باشد، N (5,0.5) است. آیا این رویکرد درست است؟
رگرسیون تخمین گاوسی به جای امتیاز
48160
من مقاله هینتون آموزش محصولات متخصصان با به حداقل رساندن واگرایی متضاد را در مورد آموزش PoE می خوانم. توضیحی در مورد بیان PoE وجود دارد که می گوید: زیرا توزیع خلفی نمی تواند واضح تر از مدل های جداگانه در مخلوط باشد و مدل های جداگانه باید به طور گسترده تنظیم شوند تا بتوانند منیفولد 35 بعدی را پوشش دهند. من می توانم نیمه اول را درک کنم اما نیمه دوم را کاملاً درک نمی کنم: مدل های فردی باید به طور گسترده تنظیم شوند تا به آنها اجازه دهند منیفولد 35 بعدی را بپوشانند. آیا ممکن است که یک مدل منفرد در MoE در یک نقطه تیز باشد در حالی که مدل های دیگر در همان نقطه کوچک باشند؟ در صورت امکان، این باعث می شود که قسمت خلفی در آن نقطه بسیار تیز باشد.
قدرت بیانی PoE بر MoE
48165
من سعی می کنم یک حداقل مربعات ساده بر روی برخی داده ها انجام دهم. فرمول به سادگی این است: $Y = C_0X_1 + C_0X_2 + C_0X_3 + C_0X_4 + C_0X_5$ من 24 ردیف از $Y$ و $X$ دارم، و سعی می‌کنم با $C$ مطابقت کنم. با این حال، مشکل این است که باید محدوده‌های $C$ را بدون توجه به کیفیت تناسب، غیر صفر بودن محدود کنم. من اسناد lm را در R خوانده ام، اما نمی توانم گزینه ای را برای محدود کردن محدوده های متغیر پیدا کنم. هر ایده ای؟
رگرسیون خطی چندگانه با محدوده محدود در R
48163
1) آستانه یا معیاری برای گفتن اینکه تنوع داده ها زیاد است چیست؟ معمولاً با مقایسه با مجموعه داده دیگری می گوییم تنوع زیاد یا کم. اما تنها یک مجموعه داده وجود دارد. 2) می‌توانیم از boxplot برای تجسم انحراف معیار، میانگین و غیره داده‌ها استفاده کنیم. با این حال، من کنجکاو هستم که بدانم آیا روش تجسم یا روش توزیع در R به _stress_ وجود دارد که تنوع در یک نمودار زیاد باشد. به عنوان مثال من یک مجموعه داده 64 امتیازی دارم و یک بعدی است. لطفا داده های زیر را ببینید. فرض کنید مقادیر همیشه مثبت هستند. میانگین آن 32.8، انحراف معیار (sd) 37.7 و ضریب تغییرات (cv) 1.2 است. شاید این سوالات احمقانه باشد. اما اگر توضیحی دریافت نکنم، خیالم راحت نخواهد شد. لطفا کمکم کنید. متشکرم. 0 19 0 83 88 97 0 50 0 82 89 0 0 0 0 0 0 17 33 34 0 0 0 50 59 84 0 67 83 89 0 17 0 66 1 59 86 0 0 0 0 1 59 89 08 01 4 85 89 25 50 83 34 0 0 0 0 0 0 0 96 0 89 19
درک تنوع داده ها و تجسم
48162
من در حال مطالعه ماشین محدود بولتزمن (RBM) هستم و مشکلاتی در درک محاسبات احتمال ورود به سیستم W.r.t دارم. پارامترهای RBM حتی با وجود اینکه مقالات تحقیقاتی زیادی در مورد RBM منتشر شده است، هیچ مرحله دقیقی از مشتقات وجود ندارد. پس از جستجوی آنلاین توانستم سند زیر را پیدا کنم. http://image.diku.dk/igel/paper/AItRBM-proof.pdf با این حال، جزئیات این سند برای من بسیار پیشرفته است. آیا کسی می تواند به من یک یادداشت آموزشی/سخنرانی خوب در مورد RBM بدهد؟ ویرایش: @ David بخش های گیج کننده در زیر نشان داده شده است (معادله 29 در صفحه 26). ![log محاسبات احتمالات](http://i.stack.imgur.com/xaIcq.png)
آموزش خوب برای ماشین محدود بولتزمن (RBM)
37935
هنگام انجام ANCOVA، نرم افزار معمولاً هم میانگین های تنظیم نشده و هم ابزارهای تنظیم شده را ارائه می دهد. با این حال، آزمون های تعقیبی برای اکثر برنامه های آماری به میانگین های تنظیم نشده محدود می شود. با این حال، گاهی اوقات، اگر کسی در حال انجام یک ANCOVA باشد، مقایسات تعدیل‌شده مقایسات مورد نظر است، نه مقایسه‌های تعدیل‌نشده. یا اشتباه می‌کنم - آیا باید به دلایلی از آزمایش‌های تعدیل‌شده اجتناب شود؟ آزمایش‌های تعقیبی برای میانگین‌های تنظیم‌شده برای مدتی طولانی وجود داشته است، مانند روش GT2 Hochberg (1974). نسخه اصلاح شده آزمایش GT2 در بیومتری سوکال و روهلف (ویرایش دوم 1981 و احتمالاً در نسخه های جدیدتر) به طور خاص برای ابزارهای تنظیم شده ظاهر می شود. همچنین روش T (Spjotvoll و Stoline 1973) نیز در Sokal and Rohlf (1981) برای مقایسه میانگین های تعدیل شده اصلاح شده است. پس چرا برنامه های آماری پس از حذف مقداری از واریانس متغیر کمکی، اگر بخواهیم بدانیم کدام درمان (A در مقابل B، A در مقابل C و غیره) متفاوت است، برنامه های آماری آزمون های تعدیل شده را انجام نمی دهند؟ Hochberg, Y. 1974. برخی از تعمیم های محافظه کارانه روش T در استنتاج همزمان. مجله تحلیل چند متغیره، 4:224 -234. Spjotvoll، E، Stoline، MR. 1973. گسترش روش T-مقایسه چندگانه برای شامل مواردی با حجم نمونه نابرابر. J Am Stat Assoc. 68:976-978.
تست تعقیبی میانگین های تنظیم شده (بعد از ANCOVA)
62666
این اساساً یک نسخه اصلاح شده از سؤالی است که قبلاً بدون پاسخ در اینجا مطرح کردم، زیرا در حال شروع به تفکر دوم در مورد روش شناسی خود هستم. به طور خلاصه، من چهار متغیر تصادفی دارم: Xideal، Xnonideal، Yideal، Ynonideal، که چندین بار نمونه‌برداری کرده‌ام (> 30). من می توانم تفاوت بین Xideal و Xnonideal (که با X مشخص می شود) و همچنین تفاوت بین Yideal و Ynonideal (با Y) که می توانم تفاوت میانگین و خطای استاندارد را نشان دهم: N_ideal N_nonideal میانگین تفاوت خطای استاندارد X 64 62 23.5 1.56 Y 71 67 27.1 1.67 من الان هستم به دنبال بدست آوردن p-value برای ارزیابی تفاوت بین X و Y هستیم. آمار t اگر اشتباه نکنم به سادگی $$ t_s = (27.1 - 23.5)/\sqrt{1.56^2 + 1.67^2} است. $$ حدس می‌زنم اکنون سؤال این است که چگونه می‌توانم درجات آزادی (df) را محاسبه کنم؟ ویرایش: من خطای استاندارد را با فرمول زیر محاسبه کردم $$ ste_{X} = \sqrt{ \sigma^2_{X_{ideal}}/N_{X_{ideal}}+\sigma^2_{X_{nonideal}} /N_{X_{nonideal}}} $$ ویرایش 2: خوب، برای جمع بندی این، من چهار متغیر تصادفی مستقل دارم، به df از $$ Z = (X_{i}-X_{n}) - (Y_{i}-Y_{n}) $$ با نگاهی به معادله ولش-ساترویت، پاسخ من این خواهد بود: (اگر $$Nt_x = N_x - 1$$) $$ v_Z = \frac{(Var(X_{i})+Var(X_{n}) + Var(Y_{i})+ Var(Y_{n}))^2}{(Var(X_{i}))^2/Nt_{Xi}+(Var(X_{n}))^2/Nt_{Xn}+(Var(Y_ {i}))^2/Nt_{Yi}+(Var(Y_{n}))^2/Nt_{Yn}} = 236 $$ یا $$ v_Z = \frac{(Var(X_{i})-Var(X_{n}) - Var(Y_{i} )+ Var(Y_{n}))^2}{(Var(X_{i}))^2/Nt_{Xi}+(Var(X_{n}))^2/Nt_{Xn}+(Var(Y_ {i}))^2/Nt_{Yi}+(Var(Y_{n}))^2/Nt_{Yn}} = 16 دلار
درجات آزادی یک تابع خطی از چهار متغیر تصادفی مستقل
113759
من برخی از داده ها در محدوده [0، 1] دارم، و از هیستوگرام زیر، به نظر می رسد که آنها ممکن است از توزیعی با تابع چگالی احتمال خطی گرفته شوند (نام آن نوع توزیع چیست؟). چگونه پارامترهای آن توزیع را تخمین بزنم و چگونه می توانم آزمایش کنم که چقدر احتمال دارد داده ها از آن در R گرفته شده اند؟ ![هیستوگرام داده ها](http://i.stack.imgur.com/sdUfx.png) به روز رسانی: اکنون می دانم (با تشکر از Glen_b) آیا می توانم PDF را تعریف کنم (مثلاً، $ P(x) = تبر + b$)، می توانم آن را با آزمون Kolmogorov-Smirnov آزمایش کنم، اما چگونه می توانم $a$ و $b$ را از نمونه تخمین بزنم؟
چگونه آزمایش کنیم که آیا برخی از نقاط داده از یک توزیع با PDF خطی گرفته شده است؟
67019
واریانس مجموعه‌ای از $n$ متغیرهای باینری $D = <x_1, \ldots, x_n>$ $$ است {\rm var(D)} = \frac{k(n-k)}{n^2}, $ $ که $k$ نشان دهنده تعداد $1$s در $D$ است (به http://capone.mtsu.edu/dwalsh/VBOUND2.pdf مراجعه کنید). در Matlab واریانس $<1، 0، 0، 1، 0، 0>$ 0.2667 است، در حالی که با استفاده از فرمول بالا واریانس 0.22 است. دلیل آن چیست؟ علاوه بر این، نسخه ساده شده فرمول کوواریانس بین دو متغیر باینری چیست؟
واریانس و کوواریانس داده های باینری
91132
اگر من نیاز به ساخت منحنی بازده داشته باشم، n حداقل تعداد نقاط داده لازم برای هر روش درون یابی چقدر است، به عنوان مثال. می گویند spline مکعبی یا Nelson–Siegel، و غیره. با تشکر
حداقل امتیاز مورد نیاز برای برازش منحنی
27429
فرانک هارل در پاسخ به سوالی در مورد انتخاب مدل در حضور چند خطی بودن پیشنهاد کرد: > همه متغیرها را در مدل قرار دهید اما اثر یک را آزمایش نکنید > متغیر تنظیم شده برای اثرات متغیرهای رقیب... تست های تکه ای > متغیرهای رقیب قدرتمند هستند زیرا متغیرهای خطی در > آزمون تداعی درجه آزادی چندگانه کلی نیروها را به هم می پیوندند، به جای > رقابت با یکدیگر مانند زمانی که متغیرها را به صورت جداگانه آزمایش می کنید. تست های _چانک_ چیست؟ آیا می توانید مثالی از کاربرد آنها در `r` بیاورید؟
تست های تکه چیست؟
37930
من سعی کرده ام در مورد تجزیه و تحلیل شبکه به خودم بیاموزم، و توانسته ام نمودارهای DAG را در R توسعه دهم. با این حال، سه یا چهار بسته R را بررسی کرده ام و چیز کمی در مسیر ایجاد یک تابع برای ایجاد اتصال دیده ام. احتمالات برای شبکه نمودار DAG به من در مورد متغیرها در رابطه با یکدیگر می گوید، اما من بیشتر در مورد احتمالات کنجکاو هستم و راهی برای انجام آن در R پیدا نکرده ام. توطئه ها یا تمرکز بر استنتاج، و می خواهم بدانم چگونه می توانم احتمالات شبکه ها را بدست بیاورم. library(bnlearn) library(Rgraphviz) dat=data.frame(won=c(1,0,0,1,0,0), sold=c(0,0,0,1,0,0 ), بیمه شده=c(0,0,1,0,0,1), اعتبار=c(فقیر،عادلانه،خوب،عادلانه،عادلانه،خوب)) dat$ برد = factor(dat$won) dat$sold = factor(dat$sold) dat$insured = factor(dat$insured) dat$credit = factor(dat$credit) highlight.opts <- list(nodes = c(win فروخته شده، بیمه شده، اعتبار)، col = قرمز، fill = خاکستری) bn.hc <- hc(dat، score = aic) graphviz.plot(bn.hc، highlight=highlight.opts)
پیش بینی با شبکه های بیزی در R
48166
من از یک مدل پروبیت و لاجیت برای به دست آوردن احتمالات انتخاب برخی از داده ها استفاده می کنم. چه نوع نمودارهایی می تواند برای انجام تجزیه و تحلیل داده های اکتشافی برای این داده ها مفید باشد؟ در اینجا داده های شبیه سازی شده است: set.seed(1) x. first <- rbinom(1000,1,0.5) x.second <- rbinom(1000,1,0.5) y <- rbinom(1000,1,0.5) delta .x <- x.first-x.second و مدل های من logit(p) <- delta.x بتا هستند phi^{-1}(p) <- delta.x بتا که در آن phi^{-1} معکوس توزیع نرمال استاندارد «cdf» و بتا ضرایب رگرسیون است.
تجزیه و تحلیل داده های اکتشافی برای داده های گسسته
20437
هنگام کار با زنجیره مارکوف مونت کارلو برای استنتاج، به زنجیره ای نیاز داریم که به سرعت مخلوط شود، یعنی تکیه گاه توزیع خلفی را به سرعت حرکت دهد. اما نمی‌فهمم چرا ما به این ویژگی نیاز داریم، زیرا از آن‌چه من می‌دانم، نامزد پذیرفته‌شده باید در قسمت با چگالی بالا توزیع پسین متمرکز شود. اگر آنچه من می‌دانم درست باشد، آیا همچنان می‌خواهیم که زنجیره از طریق ساپورت (که شامل قسمت کم چگالی است) حرکت کند؟ علاوه بر این، اگر از MCMC برای انجام بهینه‌سازی استفاده می‌کنم، آیا هنوز باید به اختلاط سریع اهمیت بدهم و چرا؟ از شما برای به اشتراک گذاشتن افکار خود متشکرم!
چرا باید به اختلاط سریع در زنجیره های MCMC اهمیت دهیم؟
62992
من سعی می کنم تفاوت دقیق بین طبقه بندی و طبقه بندی را با توجه به داده / متن کاوی درک کنم. ممنون میشم اگه با یه مثال ساده توضیح بدین.
تفاوت بین طبقه بندی و طبقه بندی با توجه به داده / متن کاوی
20438
من یک مدل GEE را با استفاده از تابع 'genZcor' با ماتریس همبستگی تعریف شده توسط کاربر نصب کردم. من می خواهم ماتریس var-cov ضرایب رگرسیون را بدست بیاورم. اما خروجی تنها اطلاعات محدودی را ارائه می دهد. خیلی ممنون می شوم اگر لطف کنید به من اطلاع دهید که چگونه آن را دریافت کنم، زیرا من برای دریافت آن با مشکل مواجه هستم.
دریافت ماتریس واریانس کوواریانس ضرایب رگرسیون در GEE
113755
اگر $ X_1، ...، X_n$ دو جمله ای IID با پارامترهای $ n$ و $p هستند، $ یک برآوردگر بی طرف برای $$G(p)=P(X_1=1)=np(1-p)^{ n-1}\, .$$ باید این برآوردگر را پیدا کنم تا بتوانم قضیه Lehmann-Scheffé را اعمال کنم. من فکر می کنم نمی تواند یک برآوردگر دیوانه باشد. اما چیزی پیدا نکردم. آیا می توانم راهنمایی داشته باشم؟ $$\mathrm{E}[X_1(1-X_2/n)] = n p (1-p) \, .$$ شاید راه خوبی برای دنبال کردن باشد.
برآوردگر بی طرفانه برای $P(X_1=1)$
99440
من باید توزیع گامای چند متغیره را با ماتریس کوواریانس معین مثبت و معین ایجاد کنم. کسی میتونه روشی به من پیشنهاد کنه؟ با تشکر
ایجاد میدان تصادفی گاما با ماتریس کوواریانس داده شده
91134
داده های مثال زیر را در نظر بگیرید: df1 <- data.frame(customer=c(rep(customer1,5),rep(customer2,10),rep(customer3,7)), money_spent=sample(22 )) df2 <- data.frame(customer=c(customer1،customer2،customer3)، origin=c(ایالات متحده،ایالات متحده،بریتانیا)، industri_sector=c(IS1،IS2،IS3)، ارز=c(USD،USD،GBP) ) داده های واقعی من از حدود 200000 ردیف تشکیل شده است و من می خواهم آن را از نظر اینکه، به عنوان مثال، آیا مشتریان ایالات متحده در مقایسه با مشتریان سایر کشورها پول بیشتری خرج کرده اند، بررسی کنم. همچنین می‌خواهم ببینم آیا میزان هزینه‌ای که صرف می‌شود به بخش صنعت و غیره بستگی دارد یا خیر. من به غیر از مبدا، بخش صنعت و ارز، متغیرهای توضیحی بیشتری دارم که می‌خواهم آنها را بررسی کنم. همچنین تعداد سوابق برای مشتریان متفاوت است به طوری که ممکن است میانگین پول خرج شده برای هر مشتری منطقی باشد. من مطمئن نیستم که چگونه این داده ها را به بهترین شکل تجزیه و تحلیل کنم. من ابتدا به تجزیه و تحلیل خوشه‌ای، به‌ویژه، خوشه‌بندی سلسله مراتبی فکر کردم، اما مطمئن نیستم که آیا می‌توان آن را برای چنین داده‌هایی اعمال کرد و به‌ویژه، چگونه داده‌هایی را که باید در تابع قرار داده شوند، ساختار داد. تابع R 'hclust' یک ماتریس را به عنوان ورودی می گیرد، اما چگونه می توانم چنین ماتریسی را از نظر داده های خود ساختار دهم؟ آیا خوشه بندی k-means می تواند جایگزین بهتری باشد؟ رویکرد دیگر احتمالاً تجزیه و تحلیل این داده‌ها با استفاده از نمودارهای جعبه‌ای و یک رویکرد ANOVA یک طرفه است تا ببیند که آیا پول خرج شده بین کشورها یا بخش‌های مختلف صنعت متفاوت است یا خیر. با این حال، این رویکرد وابستگی متغیرها به یکدیگر را آزمایش نمی کند. برای بررسی این موضوع، به من توصیه شده است که ابتدا یک درخت تصمیم را اعمال کنم و سپس تحلیل معناداری آماری را انجام دهم. با این حال، با توجه به آنچه تاکنون خوانده‌ام، نمی‌توانم ببینم چگونه درخت‌های تصمیم می‌توانند به من در تشخیص وابستگی‌های متغیر کمک کنند. بنابراین، من نمی‌پرسم آیا تکنیک‌ها/کارکردهای دیگری/بهتر وجود دارد که برای چنین داده‌هایی مناسب‌تر باشد؟ شاید تحلیل سری زمانی مناسب تر باشد زیرا ما تاریخ هایی را که مشتریان پول خرج کرده اند نیز ثبت کرده ایم.
مشاوره در مورد چگونگی تجزیه و تحلیل داده های مشتری در R
91138
من با SPSS جدید هستم و سعی می کنم از SPSS برای ایجاد متغیری در مورد کیفیت خدمات بهداشتی در دسترس ساکنان یک منطقه استفاده کنم. در زیر متغیرهای طبقه‌بندی هستند که می‌توانند کیفیت سلامت در دسترس آنها را به من نشان دهند. * عدم پوشش بیمه ای هزینه مراقبت های بهداشتی * عدم دسترسی به خدمات آمبولانس * توجه ضعیف پرسنل پزشکی * تجهیزات پزشکی ضعیف * تهیه دارو ضعیف * زمان صرف شده از محل اقامت تا مرکز درمانی بیش از 30 دقیقه * زمان انتظار ضعیف در مرکز درمانی * مرکز بهداشتی در دسترس نیست در داخل همسایگی چگونه می توانم یک مقدار عددی برای کیفیت سلامت این جمعیت از مقادیر تعداد این متغیرها ایجاد کنم، با در نظر گرفتن اینکه چندین پاسخ دهنده ممکن است هر متغیر را به عنوان تایید کنند. درست است.
چگونه می توان چندین متغیر طبقه بندی را در یک معیار کیفیت سلامت ترکیب کرد؟
27428
من سعی می کنم با استفاده از Fotheringham and O'Kelly (1989) مقدار R^2$ را برای مدل تعامل فضایی محدود تولید محاسبه کنم. من مقادیر بسیار متفاوتی را برای R-Square دریافت می کنم، بسته به این که آیا آن را به عنوان r-square <\- 1 - SSe/SSt یا r-square <\- cor(x, y)^2 محاسبه می کنم. آیا این نتیجه قابل انتظار است؟ البته ممکن است من در این مسیر اشتباه محاسبه کنم. من می‌خواهم از r-square به‌عنوان معیاری (ناقص اما مفید و کاملاً قابل درک) برای اندازه‌گیری خوب بودن استفاده کنم، همانطور که Fotheringham & Knudsen (1987) توصیه می‌کنند. یک مثال قابل تکرار در زیر آمده است. من خروجی مدل خود را در یک csv ذخیره کرده‌ام تا در اینجا فضا ذخیره شود. predobs <- read.csv(http://dl.dropbox.com/u/66606821/pred_obs.csv) sst <- sum((predobs$obs - mean(predobs$obs))^2) sse <- sum((predobs$obs - predobs$pred)^2) (r.square.1 <- 1 - (sse/sst)) (r.square.2 <- cor(predobs$obs, predobs$pred)^2)
آیا محاسبات $1-SSe/SSt$ و $cor^2$ R^2$ همیشه معادل هستند؟
67014
من در حال مطالعه رشد یک جمعیت (کاربران یک وب سایت) هستم. من تعداد کاربر برای هر بلوک زمانی (که 2 هفته است) دارم. اکنون، می‌خواهم بدانم که آیا این رشد از یک منحنی رشد شناخته شده پیروی می‌کند یا خیر. برای شروع، من این رگرسیون را روی R روی 30 مشاهده با «glm(tot_users ~ block_id,family=binomial(logit)، data =df)» اجرا کردم. این مشاهدات هستند: > > 25,83,111,164,251,370,557,815,1154,1513,2032,2605,3590,4904,5718,6602,7628,872 7,9471,10263,11047,11799,12441,13040,13634,14168,14582,15143,15649,16164,16472 این چیزی است که من دریافت می‌کنم: ضرایب: (برق) block_id10 block_id11 block_id12 block_id13 block_id14 block_id15 block_id16 block_id17 block_id18 block_id19 block_id2 block_id20 block_id21 block_id22 block_id23 block_id22 block_id22 block block_id29 block_id3 block_id30 block_id31 block_id4 block_id5 block_id6 block_id7 block_id8 -9.397e+00 6.331e+00 6.667e+00 7.148e+00 7.398e+00 7.714+00 7.714+. 8.151e+00 8.364e+00 8.623e+00 8.979e+00 1.958e-13 9.263e+00 9.430e+00 9.591e+00 9.817e+00 9.917e+00 9.9801+0. 1.048e+01 1.067e+01 1.098e+01 1.126e+01 6.932e-01 1.196e+01 3.196e+01 2.946e+00 3.468e+00 4.7505+50. 5.896e+00 block_id9 6.150e+00 درجه آزادی: 30 مجموع (یعنی پوچ)؛ 0 انحراف صفر باقیمانده: 17.57 انحراف باقیمانده: 3.167e-10 AIC: 74.87 اگر این مدل را رسم کنم، یک تقریب به طرز شگفت انگیزی نزدیک به دست می‌آورم. انحراف باقیمانده بسیار کم به نظر می رسد، که نشان می دهد مدل بسیار خوب است (آیا؟). سوالات من این است: 1) آیا می توانم فرض کنم که رشد متغیر من از یک منحنی لجستیک پیروی می کند؟ 2) به نظر شما چه منحنی های دیگری را باید انجام دهم؟ 3) فرآیند اعتبارسنجی معمول برای انتشار نتایج رگرسیون چیست؟ معمولا چه اقداماتی گزارش می شود؟ ممنون از هر راهنمایی مولون
مدل های رشد برای یک جمعیت
68973
کریپندورف مقاله ای (نسخه های رایگان و رسمی) دارد که انطباق اندازه گیری قابلیت اطمینان α را با داده های پیوسته، مانند متن، توصیف می کند. به طور خاص، قابلیت اطمینان هر دو واحد کردن (یعنی نحوه تقسیم متن به واحدهای کدگذاری شده و بدون کد) و کدگذاری (یعنی کدهایی که به چه واحدهایی اختصاص داده می شوند) را محاسبه می کند. کریپندورف در مقاله خود به این موضوع اشاره می کند که برنامه کامپیوتری برای محاسبه این [تطبیقات α] در حال حاضر در حال توسعه است. با این حال، نه در سایت کریپندورف و نه در جای دیگر، هیچ اشاره یا پیوندی به چنین نرم افزاری پیدا نکردم. مقاله به اندازه‌ای دقیق است که به من اجازه می‌دهد خودم آن را اجرا کنم، اما اگر قبلاً انجام شده باشد، اختراع مجدد چرخ بی معنی است. پیشاپیش ممنون
پیاده سازی α کریپندورف برای یکسان سازی داده های پیوسته
99442
**آیا الگوریتمی وجود دارد که میانگین احتمال پاسخ را از یک ماتریس چند بعدی برمی گرداند؟** به عنوان مثال، اگر مجموعه ای از ویژگی ها را داشته باشم: * customerClass = فقیر / متوسط / غنی * دسته = «11» / «20» / «35» * پیشنهاد ارزش = «1 دلار» / «2 دلار» / «3 دلار» و یک پاسخ: * UseCoupon = FALSE / TRUE با فرض اینکه نمونه‌های کافی دارم، می‌خواهم احتمال یک نمونه جدید (customerClass = rich، دسته = 20، offerValue = $1) را به عنوان میانگین احتمال برای جمعیت با همان مقدار سه بعدی پیش‌بینی کنم. (ثروتمند، 20، 1 دلار)».
کدام الگوریتم از یک آرایه چند بعدی از احتمالات متوسط ​​استفاده می کند
29013
من می‌پرسم تا بفهمم چرا بعد از تعریف طرح تودرتو، یک عامل ممکن است غیر قابل توجه شود. موارد زیر دو تجزیه و تحلیل aov در R. Obs (موضوع #) عامل درون موضوعی است و stim3 & label (1st و 2n دستکاری محرک) درون سوژه قرار گرفته اند. stim3 و label در obs تو در تو قرار دارند. تجزیه و تحلیل نشان می دهد که برچسب تنها زمانی مهم است که تجزیه و تحلیل بدون تعریف طرح تودرتو انجام شود. می خواستم بپرسم چرا اینطور است و چگونه صدا برای تعریف طرح تودرتو انتخاب می شود. > summary(aov(resp2 ~ stim3*label+Error(obs/(stim3*label)), tl) ) خطا: obs Df مجموع مربع میانگین مربع F مقدار Pr(>F) باقیمانده ها 11 5.25 0.478 خطا: obs:stim3 Df Sum Sq Mean Sq F مقدار Pr(>F) stim3 1 165.4 165.4 425 3.8e-10 *** Residuals 11 4.3 0.4 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 خطا: obs:label Df Sum Sq Mean Sq F value Pr(>F) label 1 6.77 6.77 4.77 0.051 . باقیمانده 11 15.61 1.42 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: obs:stim3:label Df Sum Sq Mean Sq F value Pr(>F) stim3:label 1 0.0255 0.15 0.71 باقیمانده 11 1.893 0.1721 خطا: درون Df Sum Sq Mean Sq F value Pr(>F) Residuals 1872 279 0.149 > summary(aov(resp2 ~ stim3*label+Error(obs), tl) ) خطا: obs Meanq Sum Sum Pr(>F) باقیمانده 11 5.25 0.478 خطا: درون Df Sum Sq Mean Sq F مقدار Pr(>F) stim3 1 165.4 165.4 1048.60 < 2e-16 *** label 1 6.8 6.8 42.95 7.2e-13.0.0 ***la 0.16 0.69 باقیمانده 1905 300.4 0.2 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 متشکرم که خواندید!
تعریف طرح تودرتو در ANOVA درون موضوعی چقدر مهم است؟
62663
با توجه به داده‌هایی که به دنبال توزیع برنولی $Y_1,...Y_n \sim B(1,p)$ هستند، می‌خواهیم $\theta = \text{Var}(Y_1)$ را اندازه‌گیری کنیم. \frac{\sum{(y_i-\bar{y}})^2}{n-1}$ باید این برآوردگر را با استفاده از قضیه Rao-Blackwell بهبود دهم و تعیین کنم که آیا برآوردگر جدید UMVUE برای $\theta$ است. من با شناسایی آمار کافی برآوردگر بی طرف شروع کردم. $$T(y)= \frac{\sum{(y_i-\bar{y}})^2}{n-1}$$ $$w(y)= \sum{(y_i-\bar{y }})^2$$ بنابراین $$T_1=E(T/W)=E(y_1/\sum{(y_i-\bar{y}})^2)$$ در مورد آمار کافی مطمئن نیستم ($w(y)$). اشکالی ندارد یا قرار است فقط از $\sum{y_i}$ استفاده کنم بعد سعی کردم قضیه Rao-Blackwell را اعمال کنم، اما اصلاً در مورد آن مطمئن نیستم $$y_1/T(y)\sim B( 1,P(y_1=1,\sum{(y_i-\bar{y})}^2=t))$$ $$\frac{P(y_1=1,\sum{(y_i-\bar{y})}^2=t)}{P( \sum{(y_i-\bar{y}})^2=t )} = \frac{P(y_1=1)\cdot P(\sum{(y_i-\bar{y}})^2=t-1)}{\sigma^2 \cdot \chi^2_{n-1} }$$ من عذرخواهی می‌کنم اگر این موضوع مزخرف است، فقط به این دلیل است که من سعی می‌کنم دقیقاً از آنچه به ما آموخته‌ایم (یا نه، در این مورد) بفهمم که دقیقاً چگونه به این موضوع برسم.
بهبود یک برآوردگر بی طرف با استفاده از قضیه Rao-Blackwell
67015
من مدتی است که به خودم درباره مدل‌سازی فرآیند گاوسی (GP) آموزش می‌دهم و اگرچه تخمین پارامتر دامنه (که گاهی اوقات مقیاس طول نامیده می‌شود) در GP «آسان» است، در واقع سعی می‌کنم به درک فیزیکی/شهودی دست یابم. برای آنچه که پارامتر محدوده در واقع نشان می دهد. فقط برای اینکه سوال من واضح باشد، اگر GP ما تابع همبستگی زیر را داشت: $$R(\phi) = \exp\left(-\frac{|x_i-x_j|}{\phi}\right)$$ پس $\phi$ پارامتر محدوده خواهد بود. من همچنین علاقه مند به کسب شهود هستم که بدانم آیا ارزش $\phi$ که من تخمین می زنم معقول است یا نه با توجه به داده ها و عملکرد واقعی من که سعی در مدل سازی آن دارم.
تفسیر پارامتر محدوده در یک فرآیند گاوسی
111980
من در تلاش برای جا دادن مسئله زیر در مدل فضای حالت خطی برای فیلتر کالمن (KF) بوده ام. من به سختی می بینم که چه کار اشتباهی انجام می دهم. من گمان می کنم که برخی از قوانین مدل سازی فضای ایالت KF را نقض می کنم. شاید چیزی غیر گاوسی، غیر خطی، غیر کوشر باشد؟ من اطلاعاتی از بازیکنانی دارم که هر روز در یک بازی امتیاز می گیرند. بازی شامل مهارت و شانس است. با در نظر گرفتن KF، من به مهارت به عنوان حالت مشاهده نشده و شانس به عنوان بخشی از سر و صدای مشاهده فکر می کنم. در اینجا چند داده (تخیلی) وجود دارد: امتیازهای کسب شده بازیکن روز 1 روز 2 روز 3 1 10 118 50 2 15 100 49 3 20 130 51 من همچنین فرض می کنم بازیکنان دارای سطح مهارتی (نسبت به سایر بازیکنان) هستند که چنین نیست. در طول زمان تغییر کند. علاوه بر این، امتیازات به‌طور برون‌زا و تصادفی به‌طور میانگین هر روز تغییر/مقیاس می‌شوند. همانطور که در داده های مثال بالا مشاهده می کنید، بازیکن 3 مهارت بیشتری دارد زیرا امتیاز بیشتری نسبت به سایر بازیکنان کسب می کند. همچنین، توزیع امتیازات حرکت و مقیاس -- یعنی میانگین و واریانس امتیازهای کسب شده روز به روز تغییر می کند. من بازیکنان $i=1،\dots،N$ و زمان $t=1،\dots،T$ را فهرست خواهم کرد. اجازه دهید $y_{it}$ امتیاز کسب شده توسط بازیکن $i$ در زمان $t$ باشد. اولین رویکرد من برآورد مهارت با استفاده از چیزی مانند z-score (یا t-stat) بود. برای هر بازیکن در هر مرحله زمانی محاسبه می‌کنم: $z_{it} = \frac{y_{it} - \bar{y_t}}{s_{y_t}}$ سپس میانگین زمانی را برای تخمین مهارت محاسبه می‌کنم: $\widehat{ skill_i} = \bar{z_i}$ تا آنجا که من می توانم بگویم، تا اینجا خیلی خوب است. اکنون می‌خواهم این چیز را کالمانیز کنم تا بتوانم با رسیدن اطلاعات جدید، تخمین‌های مهارت را به‌روزرسانی کنم. من شروع به فکر کردن در مورد وضعیت و رابطه آن با امتیازات قابل مشاهده می کنم. اما اینجاست که گیر می کنم. فرض کنید سطح مهارت واقعی و غیرقابل مشاهده برای یک بازیکن $i$ $\theta_i$ است و این از یک توزیع گاوسی با میانگین و واریانس $(\mu_\theta, \sigma_\theta^2)$ می آید. شانس با میانگین و واریانس $\epsilon_{it}$ است. که در آن هر دو از توزیع های گاوسی با میانگین و واریانس $(\mu_{\alpha}، \sigma_{\alpha}^2)$، و $(\mu_{\gamma}، \sigma_{\gamma}^2)$. من امتیازهای مشاهده شده توسط بازیکن $i$ را در زمان $t$ مدل می کنم: $y_{it} = \alpha_t + \gamma_t (\theta_i + \epsilon_{it})$ معادلات انتقال حالت آسان است: $\theta_ {it} = \theta_i$. فرض بر این است که مهارت هر بازیکن در طول زمان ثابت است. شانس بازیکن صدای مشاهده است. اگرچه به نظر می رسد که همه چیز را درست تعریف کرده ام، به نظر نمی رسد کاملاً بفهمم که چگونه $\alpha_t$ و $\gamma_t$ را در یک مدل KF قرار دهم - آیا آنها باید بخشی از حالت باشند؟ اگر چنین است، چگونه می توانم یک KF خطی برای ضرب حالت ها بدست بیاورم؟ اگر آنها بخشی از ایالت نیستند، اما ضرایب متغیر با زمان هستند، چگونه می توانم این کار را انجام دهم؟ و البته باید بپرسم: آیا فیلتر کالمن حتی یک استراتژی تخمین مناسب برای مهارت است؟ کمک کنید خیلی ممنون پیشاپیش!
فیلتر کالمن برای تخمین امتیاز z؟
112408
من در مورد تأثیر بار ادراکی بر توجه انتخابی زیاد مطالعه کرده ام، اما تجزیه و تحلیل تا حدودی مرا گیج می کند. برخی از این مطالعات تفاوت 20 تا 40 میلی‌ثانیه بین شرایط را به‌عنوان معنی‌دار نشان می‌دهند، جایی که میانگین آن حدود 500 میلی‌ثانیه است و روده‌ام به من می‌گوید چیزی ماهی‌گیر است. متأسفانه، تقریباً هیچ‌کس هیچ اطلاعاتی در مورد نمونه، خطا، SD، CI و غیره گزارش نمی‌کند. با نگاه کردن به داده های نیمه خلبانی من، به طور جدی در اجرای ANOVA روی آن تردید دارم. به درستی دارای انحراف مثبت است (تغییرهای ورود به سیستم و معکوس وضعیت را تا حدودی کاهش می دهد، اما نه همیشه)، باقیمانده ها در برخی موارد بسیار غیرعادی هستند، پراکندگی زمان های واکنش بین شرکت کنندگان خاص کاملاً متفاوت است و من را به این فکر می کند که آیا من اینطور نیستم. هنگام اجرای مکرر -Measures ANOVA تعداد زیادی خطای نوع 1 را مرتکب می شود. من می توانم ببینم که چرا چیزی مانند مدل های جلوه های ثابت در این شرایط ترجیح داده می شود، اما تقریباً هیچ کس این کار را انجام نمی دهد. در اینجا یک مثال معمولی وجود دارد: > ANOVA 3x2 درون آزمودنی‌ها بر روی میانگین صحیح RTs و نرخ‌های خطا، با شرایط حواس‌پرتی (رقت کم در مقابل رقت زیاد در مقابل زیاد > رقت / برجستگی زیاد) و سازگاری حواس‌پرنده (ناسازگار در مقابل) انجام شد. . > خنثی فرضیه و روش گلخانه ای > با توجه به میانگین RT ها، هیچ اثر اصلی > شرایط حواس پرت کننده وجود نداشت، اما یک اثر اصلی > سازگاری حواس پرت کننده وجود داشت. 10.06، p <.01، np2 = 0.35، نشان می دهد که > RT ها با حواس پرت کننده های خنثی (506 میلی ثانیه) سریع تر از ناسازگار > حواس پرت کننده ها (517 میلی ثانیه این اثر اصلی با یک شرایط حواس پرت کننده قابل توجه با تعامل سازگاری حواس پرت کننده، F(2, 38) = > 6.07، p <.01، np2 = 0.24 است. (بیگز و گیبسون، 2014). آیا قضیه حد مرکزی واقعاً اجرای ANOVA را بر روی داده‌های 15 شرکت‌کننده که در آن توزیع‌ها دارای انحراف مثبت هستند و تفاوت‌هایی در تغییرپذیری زمان‌های واکنش بین شرکت‌کنندگان وجود دارد، قابل توجیه است؟ بدیهی است که وقتی این امتیازها را جمع می‌کنید تا میانگینی برای هر شرکت‌کننده در هر شرط ایجاد کنید، این تنوع بین شرکت‌کنندگان از پنجره خارج می‌شود. می‌دانم که هنوز یک نواب هستم، اما درک این موضوع برایم مشکل است، بنابراین هرگونه توصیه/توضیح بسیار قابل قدردانی است.
داده های ANOVA و زمان واکنش
109550
هنگام انجام مقادیر گمشده، آیا باید نگران تطبیق بیش از حد داده ها باشیم؟ چرا یا چرا نه؟ به عنوان مثال: اگر من یک متغیر را با استفاده از درخت رگرسیون CART منتسب کنم، آیا باید نگران این باشم که درخت من بیش از حد پیچیده است و آن داده خاص را بیش از حد برازش می دهد؟ وقتی زمان استفاده از داده های آزمایشی فرا می رسد، آیا باید از همان مدل درختی استفاده کنم؟ یا باید بر اساس مجموعه داده آزمایشی خود یک درخت جدید بسازم؟
تطبیق بیش از حد در مقادیر گمشده
109559
با عرض پوزش، من متخصص نیستم و سوال من ممکن است اساساً اشتباه باشد. من این سؤال جالب را خوانده ام زیرا من همچنین تعجب کرده ام که آیا بعد از اعتبارسنجی متقاطع دوباره مدل را آموزش دهم. اکنون، پس از تقویت درختان رگرسیون با این کتابخانه بیش از 4/5 مجموعه آموزشی، من یک CV 5 برابری در برابر یک تابع هدف خاص انجام می دهم. پس از آموزش مجدد در کل مجموعه داده های آموزشی ، من از آن مدل نهایی برای پیش بینی طبقه بندی باینری مجموعه داده های آزمون استفاده می کنم. من کمی تعجب کردم که می بینم معیار ارزیابی برای مجموعه آزمون به طور قابل توجهی بدتر از آنچه از نتایج اعتبارسنجی انتظار می رود است. آیا پیشنهادی در مورد اینکه چه چیزی ممکن است اشتباه باشد دارید؟ سوال دوم من (شاید مرتبط) این است که چرا افزایش دورهای تقویت منجر به پیش بینی بدتر می شود؟
چرا باید همه نتایج Cross-Validation بالاتر از نتایج موجود در مجموعه داده آزمایشی باشد؟
78516
آیا این درست است که اگر می خواهید یک CI برای افراد ایجاد کنید: S(E)=S(x) و برای گروه ها S(E)=S(x)*sqrt(1-rtt)؟ پیشاپیش متشکرم
خطای استاندارد تئوری آزمون
111986
این یک سوال کاملا ساده است، اما من هیچ پاسخ خوب، واضح و دقیقی پیدا نمی کنم: من به دنبال راهی برای انجام تست _post hoc_ در تست chi$^2$ هستم. من 2 متغیر دارم: var1 : خوب/مناسب/ ضعیف و var2: a/b/c این جدول اقتضایی است: a b c خوب 120 70 13 مناسب 230 130 26 ضعیف 84 83 18 با R : حصیر <- matrix(c(120,230,84,70,130,83,13,26,18),3) dimnames(mat) <- list(c(خوب، عادلانه، ضعف)، c(a، b,c)) mat من انجام $\chi^2$ chisq.test(mat) من p = 0.022 به دست می آید، بنابراین یک رابطه بین var1 و var2... اما کدام یک؟ چگونه می توانم این را مدیریت کنم؟ (تجزیه و تحلیل مشارکت؟، تست سرپایی زوجی؟)
تست Post hoc $\chi^2$ با R
111989
من یک جدول احتمالی 2x2 دارم و می خواهم محاسبه کنم که آیا جفت داخل آن تفاوت قابل توجهی دارد یا خیر. من ماتریسی مانند زیر ساختم به نام raw_matrix CNS تصادفی Not_H3K4 343 28825 H3K4 11 2014 این ماتریس را ایجاد کنید، به این ترتیب: raw_matrix = structure(c(343, 11, 28825, 2014), .Dim, . = لیست( c(NotH3K، H3K)، c(CNS، Random))) همانطور که من جستجو کردم، تست دقیق بدون قید و شرط مانند تست های دقیق Barnard و Boschloo قوی ترین تست برای این منظور است. من بسته Exact را نصب کردم و سعی کردم با استفاده از این دستور تست را انجام دهم: exact.test(raw_matrix) بیش از نیم ساعت روی یک رم 64 گیگابایتی و CPU 3.5 GH طول کشید و در نهایت خطای زیر را داد: Error: nikare اختصاص بردار با اندازه 42.0 گیگابایت علاوه بر این: پیام های هشدار: 1: در ماتریس (A[xTbls + 1, ] * B[yTbls + 1، ]، ncol = طول (int)): تخصیص کل به 61417 مگابایت رسیده است: به help(memory.size) 2 مراجعه کنید: در ماتریس (A[xTbls + 1، ] * B[yTbls + 1، ]، ncol = طول (int)): به مجموع تخصیص 61417 مگابایت رسیده است: ببینید help(memory.size) 3: در ماتریس (A[xTbls + 1, ] * B[yTbls + 1, ], ncol = length(int)): به تخصیص کل 61417 مگابایت رسیده است: به help(memory.size) 4 مراجعه کنید: در ماتریس(A[xTbls + 1، ] * B[yTbls + 1، ]، ncol = length(int)): به تخصیص کل 61417 مگابایت رسید: به help(memory.size) مراجعه کنید، سپس بسته Exact2x2 را نصب کردم و آزمایش را با استفاده از این دستور انجام دادم: exact2x2 (raw_matrix) که نتایج زیر را به من داد: دو طرفه Fisher's داده های آزمون دقیق (روش معمول با استفاده از حداقل احتمال): raw_matrix p-value = 0.006433 فرضیه جایگزین: نسبت شانس واقعی برابر با 195 درصد فاصله اطمینان نیست: 1.2028 4.2424 تخمین نمونه: نسبت شانس 2.178631 اما همانطور که در آموزش بسته دقیق خواندم، آزمون دقیق فیشر که یک شرط نیست. قدرتمند در نهایت من تست مربع کای معمولی را با استفاده از دستور chisq.test (raw.matrix) انجام دادم که نتایج زیر را به دست آورد که با نتایج آزمون فیشر متفاوت است: آزمون کای دو پیرسون با داده های تصحیح تداوم یتس: test_1 X-squared = 6.2045 ، df = 1، p-value = 0.01274 من یک متخصص ژنتیک هستم و در آمار متخصص نیستم. هر کسی می تواند به من بگوید بهترین استراتژی در اینجا برای انجام این تست چیست
تست دقیق مشروط یا بدون قید و شرط در R
109555
آیا پروک یا روشی داریم که بتوانیم یک مدل ساخته شده بر روی مجموعه داده قطار را برای آزمایش مجموعه داده با استفاده از تابع پیش بینی مشابه R در SAS اعمال کنیم؟
چگونه می توان عملکرد پیش بینی R را در SAS اعمال کرد؟
79641
در اندازه گیری عملکرد یک مدل، داده های خود را به 2 مجموعه، مجموعه آموزشی و مجموعه تست، تقسیم می کنم، مدل خود را با مجموعه آموزشی متناسب می کنم و سپس سعی می کنم نتایج مجموعه تست را پیش بینی کنم. اگر به طبقه بندی باینری نگاه می کنم، انتظار دارم که نتایج خود را به 0 و 1 طبقه بندی کنم. با این حال، خروجی رگرسیون لجستیک احتمالات است. بنابراین اگر من یک احتمال 51% را پیش‌بینی کنم، اما این را به‌عنوان 1 طبقه‌بندی کنم زیرا > 0.5 است، و در 49% مواقع اشتباه می‌کنم، آیا مدل من درست نیست در مقابل 49٪ اشتباه؟ آیا این معیار بهتری برای بررسی اینکه آیا میزان خطای من به میزان خطای مورد انتظار برای مدل نزدیک است یا خیر؟
نحوه اندازه گیری خطای مجموعه تست با رگرسیون لجستیک
79642
من دو سری زمانی دارم، $y$ و $x$، که $y$ بصورت ماهانه و $x$ بصورت روزانه نمونه برداری می شود. من قصد دارم از یک رگرسیون فرکانس مختلط (MIDAS) استفاده کنم که در آن وزن‌های سفارشی را به نقاط داده روزانه در x$ اختصاص می‌دهم و با انجام این کار میانگین آن را به فرکانس $y$ می‌دهم. مدل پیشنهادی من به شرح زیر است: $y = \beta_y L(y)+ \sum_{n=0}^k \beta_nL^n(x) + \epsilon $ که در آن $ \beta_n $ یک تابع چند جمله ای را تعریف می کند، g(n برای برخی از تابع g. و $L$ یک عملگر تاخیر است به طوری که $L(x_t) = L(x_{t-1})$, $L^2(x_t) = L(x_{t-2})$ یکی از سرپرستان من( یک استاد) برای پروژه من در مورد این پیشنهاد نظر داد و گفت که او _در مورد آنچه شما برای پسرفت من در ذهن دارید گیج شده است_ او در ادامه از من پرسید _مثلاً هیچ پارامتری در آن وجود ندارد، پس چه تخمین میزنی؟_ **آیا اگر به او بگویم که $\beta_y$ و $\beta_n$ پارامترهایی هستند که باید تخمین زده شوند، درست می گویم تا بفهمیم آیا می توانیم مدلی برای پیش بینی $y$ ماهانه به صورت روزانه $x$ بسازیم. .** یا تصور من از تخمین اشتباه است، یا سرپرست زحمت خواندن پیشنهاد من را به درستی نداده است. تاکنون فقط ایمیل بین ما تبادل شده است و من هنوز به این یکی پاسخ نداده ام. من گیج شدم، لطفا کمک کنید تا روشن شود. ویرایش: متاسفم که $\beta_1$ دو بار ظاهر شد، متوجه نشدم. من فقط به طور تصادفی با تمام این نمادها آمدم، لطفاً برای اینکه مدل رگرسیون MIDAS دقیقاً مورد استفاده قرار گیرد، به این پاسخ در اینجا مراجعه کنید. چند جمله ای نیز در آنجا توضیح داده شده است. (این سوال لینک شده را من ارسال کردم که مربوط به همان مدلی است که در این سوال در مورد آن صحبت شد)
آیا درک من از تخمین درست است؟
29019
**من سعی می کنم الگوریتمی را ایجاد کنم که قیمت مناسب برای خرید کالا و قیمت فروش مجدد صحیح را بر اساس تاریخچه اقلام eBay به من بگوید. ** متغیرهای اصلی نوع حراج (خرید در حال حاضر یا مناقصه)، قیمت خواهند بود. ، اگر مورد فروخته شده باشد و نوعی حاشیه که باید در هر تراکنش ایجاد شود (به درصد یا ارزش دلار) این صفحه گسترده با داده های مثال است: برگه اکسل. چند ردیف اول در زیر ظاهر می شود. AUCTION_TYPE PRICE DATE_Soldsold_Y_N خرید-اکنون 300.00 دلار تا 10 می جدول **نوع_حراج** (یک متغیر کمکی باینری برابر با حراج یا اکنون بخرید)، **تاریخ_فروش** (به دقیقه)، **قیمت** (به طور ثابت به دلار آمریکا) - که یک نتیجه برای حراج ها اما برای فروش «اکنون بخر» از پیش تعیین شده است - و **فروخته شده**، یک نتیجه باینری که نشان می دهد آیا مورد فروخته شد **یکی از عوارض اصلی اینجاست:** قیمت، چیزی است که من می خواهم تخمین بزنم، بسته به نوع حراج، گاهی به عنوان یک متغیر مستقل و گاهی به عنوان متغیر وابسته عمل می کند. بنابراین به نظر نمی رسد که این وضعیت در یک تنظیم رگرسیون استاندارد قرار بگیرد. یک راه حل خوب ممکن است نیاز به تفکر آماری نوآورانه داشته باشد. خوب، من فکر می کنم که باید حداقل مقداری از اقلام فروخته شده/نفروشه را در هفته ایجاد کنیم. به عنوان مثال، اگر 5 رکورد وجود داشته باشد، پیش بینی چیزی دشوار است. اما اگر ما با 50 رکورد در هفته و با دوره چند هفته کار کنیم، می‌توانیم احتمال را کاهش دهیم. علاوه بر این، اقلام حراج شده احتمال بیشتری برای فروش با ارزش کمتر نسبت به خرید آن دارند. اما، از سوی دیگر، برخی حراج های فروخته نشده می تواند یک علامت هشدار دهنده باشد که نشان می دهد ممکن است این کالا چندان ارزشمند نباشد. چیزی که من سعی می کنم بفهمم این است که آیا می توان راه حل معقولی ایجاد کرد که به خرید کالاها بر اساس تاریخچه فروش/عدم فروش کالا اجازه دهد و سپس بتوان همان کالا را با سود و با احتمال بسیار بالا به فروش رساند. موفقیت
تخمین قیمت خوب خرید و فروش در eBay با استفاده از تاریخچه فروش eBay
109557
من روی یک پروژه تحقیقاتی کار می‌کنم که در آن چندین سؤال از داده‌های نظرسنجی دارم که همان کمیت زیربنایی (dv من) را اندازه‌گیری می‌کند، احتمالاً هر کدام با مقداری خطای اندازه‌گیری. من به استفاده از روش PCA برای استخراج مرتبط ترین مؤلفه فکر می کردم. تجزیه و تحلیل اولیه من به نظر می رسد آنچه را که می خواستم ارائه می دهد، اما مطمئن نیستم که آیا این یک روش عمومی پذیرفته شده در آمار است یا خیر. آیا کسی می تواند به من اطلاع دهد که آیا مشکلی در این مورد وجود دارد، و آیا انتشاراتی وجود دارد که رویکرد مشابهی را در پیش گرفته است؟ خیلی ممنون
آیا می توان از امتیازات PCA به عنوان متغیر وابسته استفاده کرد؟
29016
$F$ تابع توزیع یک متغیر تصادفی مثبت است. چرا عبارت زیر برای هر $x \in (0,\infty)$ برقرار است: $F^{*2}(x) \leq F^2(x)$، جایی که $F^{*2}=F* F=\int\limits_0^x F(x-y)dF(y)$
تابع توزیع پیچیدگی نابرابری
111988
من خوشه‌بندی k-means را روی مجموعه داده‌ام اجرا می‌کنم (در مجموع 100 نمونه) و داده‌ها را به k=5 خوشه تقسیم می‌کنم. سپس می‌خواهم آزمایش کنم که k-means چقدر می‌تواند قوی باشد. با این حال، من نمونه داده های جدید بیشتری دریافت نکرده ام. ایده من این است: * اولین نمونه را بردارید و k-means را روی بقیه 99 نمونه اجرا کنید. * روی مرحله توضیح داده شده در بالا برای هر نمونه حلقه بزنید (به عنوان مثال، نمونه دوم را در تکرار دوم بردارید)، و k-means را در مجموع 100 بار اجرا کنید. سوال من این است که چگونه می توان شباهت نتایج 100 k-means را اندازه گیری کرد؟ من به این فکر می کنم که آمار ضرایب سیلوئت را بدست بیاورم. آیا این منطقی است؟ با تشکر الف
چگونه می توان شباهت خوشه بندی k-means را با استفاده از مجموعه داده های مختلف اندازه گیری کرد؟
78510
من نظرات مربوط به آمار استنباطی در مورد داده های سرشماری را خوانده ام. من دکتری می خوانم و با همین مشکل با کمی تفاوت روبرو هستم. من داده‌های سرشماری را از جمعیت روسای، مدیران، روسای و روسای ادارات به دلیل عدم دسترسی آنها جمع‌آوری کرده‌ام و می‌توانم حدود 64 درصد نرخ پاسخ را دریافت کنم. آیا می توانم این پاسخ 64% را به عنوان نمونه خود در نظر بگیرم و با استفاده از آمار استنباطی به عنوان مثال آزمون t و ANOVA یک طرفه در مورد تفاوت میانگین بر اساس جنسیت، سن، تجربه، پست های اداری نتیجه گیری کنم و نتایج را در کل جامعه تعمیم دهم. اگر چنین است لطفا مرجع توجیه آن را برای من ارسال کنید تا بتوانم از این نکته مفهومی در پایان نامه دکتری خود دفاع کنم. من خیلی تلاش کردم اما مرجع پیدا نکردم. لطفاً کسی هست که بتواند به من کمک کند که در پایان نامه خود از آن تشکر و قدردانی کنم.
آمار استنباطی در مورد داده های سرشماری زمانی که نرخ پاسخ پایین است
78519
من می‌خواهم برنامه‌ای بنویسم، که در آن کاربران باید بین «پیکربندی‌های» مختلف یکی را انتخاب کنند، و به دنبال راهی برای تأیید آماری «تعادل» آن «پیکربندی‌ها» هستم تا به همان اندازه «جذاب» را برای کاربران ایجاد کنم. در حالت ایده‌آل، من می‌خواهم از یک Java API استفاده کنم، زیرا با اجرای شبیه‌سازی که داده‌ها را تولید می‌کند، «رفت و برگشت» را آسان می‌کند (برنامه اصلی به زبان جاوا نوشته می‌شود) و سپس تجزیه و تحلیل روی آن انجام می‌شود. سپس تنظیمات را تغییر دهید، و شبیه سازی را دوباره اجرا کنید تا ببینید اکنون چقدر به وضعیت مورد نظر نزدیک شده ایم. من پیشینه خوبی در ریاضیات/آمار داشته ام، اما این سال ها پیش بود. بنابراین من به دنبال چیزی هستم که بتوانم به سرعت شروع کنم، به جای یک سیستم کامل، اما پیچیده، که به من نیاز دارد تا زمان زیادی را صرف تجدید دانش ریاضی/آمار خود کنم. برای بیان مجدد، من در درجه اول به دنبال یک API هستم که به من امکان تجزیه و تحلیل آماری داده ها در جاوا را بدهد، به جای ایجاد تجسم (اگرچه، البته، ایجاد تجسم برای اعتبارسنجی سریع کد تجزیه و تحلیل مفید خواهد بود، اما تجسم می تواند تولید شده توسط برنامه دیگری). ویرایش: در واقع، من در پایتون نیز بسیار خوب هستم، اما این مسیر رفت و برگشت را کمی دشوارتر می‌کند.
تنظیم برنامه بر اساس آمار: API کمترین آموزش برای برنامه نویس جاوا؟
109554
من در حال انجام برخی تجزیه و تحلیل بودم که در آن شک دارم که یک درمان $D$، اثرات متضادی روی دو متغیر $Y^A$ و $Y^B$ دارد. برای نشان دادن آن، من به دو استراتژی فکر می کردم: **1. تفاوت** اجرای رگرسیون با استفاده از تفاوت بین $Y^A$ و $Y^B$ به عنوان متغیر وابسته من، یعنی: $(Y^A_i-Y^B_i)=\delta^d D_i+\epsilon_i، $ Where $ \delta^d$ ضریب بهره است. **2. کنترل** در روش دیگر، ممکن است روی $Y^A$ عقب نشینی کنم در حالی که $Y^B$ و تعامل بین $D$ و $Y^B$ را کنترل کنم (و احتمالاً شرایط مرتبه بالاتر $Y^B$ برای غیرخطی بودن)، که چیزی شبیه به: $Y^A_i=\delta^cD_i+\beta_1Y^B_i+\beta_2(D_i\times Y^B_i)+\cdots(\textrm{تعاملات مرتبه بالاتر})\cdots+\epsilon_i$. در داده‌های من، $Y^A$ و $Y^B$ همبستگی دارند ($\rho\simeq 0.2$). در هر دو مورد، مقداری که من سعی می‌کنم به آن برسم این است که چقدر تغییر اضافی در $Y^A$ وجود دارد. درمان را علاوه بر تأثیر درمان روی $Y^B$ (که به نوبه خود بر A تأثیر می گذارد) انجام می دهد. آیا کسی می تواند من را در مورد ویژگی های آماری هر رویکرد و همچنین اینکه کدام یک برای هدف من در اینجا مناسب است، روشن کند؟ یا باید از روش دیگری (سوم) استفاده کنم؟ پیشاپیش متشکرم
انتخاب متغیر وابسته: تفاوت یا کنترل؟
107815
من از کتابخانه MathNet.Numerics در سی شارپ برای یافتن SVD استفاده می‌کنم، اما ماتریس سیگما هیچ نشانه‌ای از این که کدام مقادیر با چه ویژگی‌هایی مطابقت دارند، نشان نمی‌دهد. به سادگی آنها را به مهم ترین ترتیب فهرست می کند. من شنیده‌ام که راهی برای انجام این کار در R وجود دارد، اما می‌پرسم آیا راهی با استفاده از C# وجود دارد که مشخص کند کدام ویژگی با کدام مقادیر سیگما مرتبط است؟ اگر تابع با استفاده از کتابخانه MathNet.Numerics در دسترس نباشد، آیا کتابخانه دیگری وجود دارد که بتواند این کار را انجام دهد؟
پس از اعمال SVD، چگونه می توانم مشخص کنم که کدام ویژگی از مجموعه داده اصلی من بیشترین اهمیت را دارد؟
72611
اگر $$P = [0,0.9,0,0.1]$$ $$Q = [0,1,0,0]$$ سپس $$KL(P||Q) = 0 + \ln(0.9/1 )\cdot0.9 + 0 + 0 = -0.094$$ این نباید از نابرابری گیبس امکان پذیر باشد. من چی رو اشتباه میفهمم
KL-واگرایی بین دو توزیع طبقه بندی/چند جمله ای مقادیر منفی می دهد؟
19912
من باید بتوانم موارد پرت را در داده هایم پیدا کنم. من فکر کردم بهترین کار این است که با استفاده از آزمون Kolmogorov-Smirnov آزمایش کنم. من بیش از 800000 امتیاز دارم، بنابراین می‌خواستم راهی برای فیلتر کردن داده‌ها در ابتدا داشته باشم تا فقط آنهایی را که در لبه نمونه من هستند آزمایش کنم. با چشم می توانم یک فروپاشی نمایی (خط قرمز) را جابجا کنم، اما می خواستم بدانم آیا راهی آماری برای تعیین پارامترهای نمایی من وجود دارد یا خیر. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/k9BQs.png)
برازش منحنی در لبه توزیع
114808
من از methylKit برای انجام تجزیه و تحلیل داده های MethylCAP-bisulfite خود استفاده می کنم. تابع prcomp() در PCASamples (فرمانی در methylKit) برای انجام آنالیز PCA روی داده ها استفاده شده است و من یک سوال در این مورد دارم: ماتریس بارگذاری متغیر در چرخش $ ذخیره شده است، اما وقتی «pca$rotation» را در یک فایل متنی ذخیره کردم، نتوانستم نام متغیرها را ببینم. وقتی از «pca$rotation[,1]» برای بررسی نتیجه استفاده می‌کنم و این چیزی است که دریافت کردم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VlLcI.jpg) من فرض کردم 4,5,6,7,10 ... نام متغیرها هستند اما با چه چیزی مطابقت دارند؟ آیا مختصات ژنومی است؟ متشکرم.
مشکلات بارگذاری متغیر در prcomp()
92445
من مطمئن نیستم که چگونه به این سوال زمینه بدهم. ما باید از اکسل برای تجزیه و تحلیل داده ها استفاده کنیم و از پایه log 10 برای هر ستون داده ای که تجزیه و تحلیل می کنیم استفاده کنیم، که من مطمئن نیستم آنها در اینجا چه می خواهند. آیا آنها از ما می خواهند که از پایه log 10 برای داده های تجزیه و تحلیل شده استفاده کنیم یا برای داده های خام؟ سپس تخصیص از ما می‌خواهد که تعیین کنیم آیا داده‌ها به طور عادی توزیع شده‌اند یا لگ نرمال. من نمی دانم چگونه این کار را انجام دهم و جستجوهای گوگل شبیه انگلیسی نیستند.
آیا داده ها به طور نرمال یا لگ نرمال توزیع شده اند؟
114806
تعداد گره‌هایی در یک درخت تصمیم هرس نشده که با استفاده از n نمونه آموزش داده می‌شود و تا زمانی رشد می‌کند که در هر برگ فقط یک نمونه وجود داشته باشد چقدر است؟ می‌خواهم بدانم آیا فرمولی برای محاسبه آن وجود دارد یا حداقل راهی برای تعریف کران پایین‌تر وجود دارد. اگر هر گره تعداد نمونه ها را به نصف تقسیم کند، طول درخت تصمیم $log_2(n)$ و تعداد گره ها $\sum_{i=1}^{log_2(n)} 2^i$ است. اگر گره به نصف تعداد نمونه ها تقسیم نشود، این فرمول معتبرتر نیست. آیا این یک کران پایین است؟
تعداد گره ها در درخت تصمیم هرس نشده
19915
در یک الگوریتم درختی متوالی (روی خط)، سعی می کنم چگالی برچسب کلاس را با استفاده از یک هیستوگرام تخمین بزنم. الگوریتم با تولید توابع آزمایشی در هر گره تصمیم گیری، که با ویژگی های مجموعه داده مطابقت دارد، درختی را رشد می دهد. به این معنی که هر ویژگی برای ایجاد آزمایشی به شکل $g(x) > 0$ استفاده می‌شود که برای تصمیم‌گیری در مورد انتشار چپ/راست نمونه‌ها در هر گره درخت باینری استفاده می‌شود. اگر نتیجه آن آزمایش از مقداری از آستانه تتا فراتر رود، نمونه‌ها در شاخه سمت راست تکثیر می‌شوند، در غیر این صورت در شاخه چپ منتشر می‌شوند. هنگام آموزش درخت، باید بهترین تست را برای استفاده در هر گره تصمیم انتخاب کنم، که با استفاده از اندازه‌گیری کیفیت به شکل ![gain with a test s](http://i.stack.imgur. com/IqiZG.png) جایی که $R_{jls}$ و $R_{jrs}$ پارتیشن‌های چپ و راست ساخته شده توسط تست s هستند که مربوط به داده‌های بزرگتر یا کمتر از آستانه است. تتا، $(p_i^j)$ چگالی برچسب کلاس $i$ در گره $j$ (یا $jls/jrs$ برای چگالی برچسب کلاس $i$ در گره های فرزند چپ یا راست)، $K است. $ تعداد کل کلاس ها است و $|x|$ تعداد نمونه های یک پارتیشن را نشان می دهد. به عبارت دیگر، سود با توجه به آزمون $s = g(x)$ به آنتروپی برچسب‌های کلاس در آن ویژگی بستگی دارد. این نیاز به دانستن چگالی برچسب کلاس در هر گره تصمیم دارد. بنابراین، عدم قطعیت من در این است که چگونه می توان این کار را با یک هیستوگرام انجام داد. یک هیستوگرام برای هر ویژگی دارای N محفظه با محدوده اندازه / N است، که در آن محدوده، تفاوت بین مقادیر حداکثر و حداقلی است که هر ویژگی می گیرد. اگر اطلاعات پیشینی از این محدوده نداشته باشیم، می‌توانیم مقادیر حداکثر/دقیقه را با دریافت داده‌های آموزشی بیشتر پیگیری کنیم. این هیستوگرام تعداد نمونه های موجود در هر محدوده را ردیابی می کند، اما چیزی در مورد برچسب های کلاس نمی گوید. گزینه دیگر داشتن یک هیستوگرام برای هر کلاس، برای هر ویژگی، برای هر گره است. بنابراین، شما باید تعداد نمونه هایی را که دارای یک برچسب کلاس خاص هستند با توجه به طیف وسیعی از مقادیر ویژگی (هر bin) پیگیری کنید. به نظر می رسد این راه حل بیشتر با معادله بالا مطابقت دارد، زیرا ما به تراکم برچسب برای هر کلاس و هر گره نیاز داریم، اما من فقط می خواهم تأیید کنم که در مسیر درستی هستم. برای مرجع، قسمت 2.1.2 این مقاله را ببینید. > صفاری و همکاران، 2009. جنگل های تصادفی آنلاین. _Computer Vision Workshops > (ICCV Workshops), 2009 IEEE دوازدهمین کنفرانس بین المللی_. DOI > 10.1109/ICCVW.2009.5457447
استفاده از هیستوگرام برای تخمین چگالی برچسب کلاس در یادگیرنده درخت
67017
من از الگوریتم بوت استرپ برای محاسبه خطاهای استاندارد تخمین های خروجی normalmixEM خود استفاده می کنم. من واقعا مطمئن نیستم که آیا آنها قابل اعتماد هستند؟ کد من (داده در اینجا): # بارگذاری بسته install.packages(mixtools) library(mixtools) B = 1000 # تعداد نمونه های بوت استرپ mu1sample <- mu2sample <- sigma1sample <- sigma2sample <- lambdasample <- vector() # Bootstrap for(i in 1:B){ print(i) subsample = نمونه (mydatatest, rep=T) normalmix <- normalmixEM (زیر نمونه، mu=c(-0.002294،0.002866)، سیگما=c(0.00836،0.02196)، lambda=c(0.6746903، (1-0.674)، (1-0.674)k= ، سریع = نادرست، maxit=10000، epsilon = 1e-16، maxrestarts=1000) mu1sample[i] = normalmix$mu[1] # $ mu2sample[i] = normalmix$mu[2] # $ sigma1sample[i] = normalmix$sigma[1 ] # $ sigma2sample[i] = normalmix$sigma[2] # $ lambdasample[i] = normalmix$lambda[1] # $ } # خطاهای استاندارد sd(mu1sample) sd(mu2sample) sd(sigma1sample) sd(sigma2sample) sd(lambdasample) # نمایش توزیع نمونه های بوت استرپ hist(mu1sample) mu2sample) hist(sigma1sample) hist(sigma2sample) hist(lambdasample) این تصاویر زیر را نشان می دهد: mu1 ![m1](http://i.stack.imgur.com/L0n8F.png) mu2 ![m2](http://i.stack. imgur.com/RG2OA.png) sigma1 ![s1](http://i.stack.imgur.com/UnUcm.png) sigma2 ![s2](http://i.stack.imgur.com/iipWM.png) lambda ![la](http://i.stack.imgur.com/kHYnM.png) ویرایش: اگر به متغیر my, mydatatest و از یک KD برای نشان دادن توزیع با کد زیر استفاده کنید plot(density(mydatatest),col=red,main=,lwd=2,cex.axis=1.2,cex.lab=1.2) به نظر می رسد ![tt](http://i.stack. imgur.com/kaAYE.png) ویرایش دوم: اکنون mus و sigmas را برای رفع مشکل اضافه کردم. کد و تصاویر را آپدیت کردم. حالا دوباره سوال من، نظر شما در مورد آن چیست؟
نتایج بوت استرپ قابل اعتماد است؟
79645
می خواستم بدونم کسی می داند که آیا کد متلب داخلی برای مدل فوق وجود دارد؟ این مورد تک متغیره است: http://www.mathworks.com/help/nnet/ref/timedelaynet.html من سعی کردم داده های خود را در preparets(net,X_input,y_input) وارد کنم که در آن X_input من یک ماتریس $d \times n$ و y_input یک ماتریس $1\times n$ است که $d$ تعداد موارد وابسته به زمان است. متغیرها به من یک خطا داد: > شاخص از ابعاد ماتریس بیشتر است. این کد است: net = timedelaynet(1:2, 5); [Xs,Xi,Ai,Ts] = آماده می‌کند(net, X_input, {},y_input); بنابراین به نظر می رسد که فقط در حالت تک متغیری کار می کند. کسی تونسته کار کنه؟ یک سوال دیگر: اولین پارامتر timedelaynet فقط تعداد نقاط داده گذشته برای استفاده است، درست است؟ در این مورد، از 2 مجموعه امتیاز گذشته برای پیش بینی مقدار هدف روز بعد استفاده کنید. متشکرم!
شبکه عصبی تاخیر زمانی چند متغیره: کد متلب داخلی؟
91790
روش طراحی مرکب مرکزی شامل ارزیابی آزمایش در نقطه مرکزی چندین بار (معمولاً 4 بار) است. اگر از این روش برای یک آزمایش محاسباتی قطعی استفاده می شد، آنگاه تمام نتایج نقطه مرکزی _یکسان خواهند بود._ در این مورد، بهتر است فقط تعداد نقاط مرکزی را به 1 کاهش دهیم، یا آن را در 4 نگه داریم تا نمایش هر کدام را بهبود ببخشیم. همبستگی ها؟
اثرات کاهش تعداد نقاط مرکزی در طراحی کامپوزیت مرکزی؟
26771
من این سوال را دارم: > گزارش شده است که 45 درصد مردم سیب و 55 درصد > پرتقال را ترجیح می دهند. روش انجام نظرسنجی را شرح دهید. مطمئن نیستم استدلالم درست باشد: با فرض اینکه جمعیت سیب یا پرتقال را ترجیح می دهد (نه هر دو و نه هیچ کدام) 1. نمونه ای از جامعه را انجام دهید، مقدار 1 را به سیب، 0 را به پرتقال ها اختصاص دهید (مثلا) 2. میانگین نمونه و واریانس نمونه را در نظر بگیرید 3. در برابر توزیع t رسم کنید 4. فاصله اطمینان را تعیین کنید 5. مقایسه کنید اگر میانگین نمونه در فاصله اطمینان قرار دارد مقدار t مربوط به 45٪ (سیب). 6. اگر چنین است، نتیجه بگیرید که عبارت برای فاصله اطمینان داده شده درست است. ببخشید کمی طولانی شد، اما ممنون از راهنماییتون
روش شناسی آمار کاربردی
29017
اول، من یک سوال دارم که آیا توزیع پواسون پایدار است یا خیر. خیلی ساده لوحانه (و من در مورد توزیع های پایدار خیلی مطمئن نیستم)، توزیع یک ترکیب خطی از R.V توزیع شده پواسون را با استفاده از محصول MGF انجام دادم. به نظر می رسد که من یک پواسون دیگر دریافت می کنم، با پارامتری برابر با ترکیب خطی پارامترهای یک R.V. بنابراین نتیجه می‌گیرم که پواسون «پایدار» است. چه چیزی را از دست داده ام؟ دوم، آیا فرمول های وارونگی برای MGF مانند تابع مشخصه وجود دارد؟
آیا توزیع پواسون پایدار است و آیا فرمول های وارونگی برای MGF وجود دارد؟
113109
من روی تجزیه و تحلیل مجموعه داده ای کار می کنم که شامل داده های اندازه گیری های مکرر است. داده ها قبلا توسط یکی از همکاران با استفاده از کد سفارشی نوشته شده در C++ تجزیه و تحلیل شده بود، اما من مجموعه داده را گسترش داده ام و سعی می کنم آن را در SPSS به روشی مشابه تجزیه و تحلیل کنم. مجموعه داده دارای یک متغیر موضوعی است که می‌خواهم آن را به عنوان یک متغیر اثرات تصادفی و دو متغیر درون موضوعی با دو سطح مشخص کنم. با توجه به آنچه تاکنون خوانده ام، به نظر می رسد دستور Mixed Model در SPSS مناسب ترین راه برای تجزیه و تحلیل این داده ها باشد. من با تجزیه و تحلیل داده ها به این روش آشنا نیستم، اما سعی کردم آن را مطالعه کنم و نحوی را که برای تکمیل سؤالاتم استفاده کردم، پست خواهم کرد. طرح آزمایشی به این صورت است: من یک متغیر دارم، موضوعاتی که می‌خواهم آن را به عنوان یک عامل تصادفی درج کنم. آزمودنی ها تصاویری را به دنبال رشته های حروف روی صفحه کامپیوتر می دیدند و باید تصمیم می گرفتند که آیا این رشته یک کلمه است یا غیر کلمه. من دو عامل درون موضوعی دارم: کلمه (چه رشته یک کلمه باشد یا غیر کلمه) و رابطه (این که رشته با تصویر مرتبط باشد یا غیرمرتبط). آزمودنی‌ها آزمایش‌های متعددی را انجام خواهند داد، بنابراین برای هر چهار ترکیب واژه‌سازی و مرتبط بودن پاسخ‌هایی خواهند داشت: کلمه مرتبط، غیرکلمه مرتبط، کلمه نامرتبط و غیرواژه نامرتبط. من فکر می کنم که با هم، این یک طرح اندازه گیری مکرر تو در تو را تشکیل می دهد. متغیر وابسته زمان واکنش است. بزرگترین مشکل من این است که چگونه موضوع را به عنوان یک متغیر اثرات تصادفی مشخص کنم. من سعی کردم آن را به عنوان متغیر موضوعی از طریق رابط کاربری گرافیکی اضافه کنم (با نحو زیر): Rt2Adj MIXED BY Relatedness Wordness Subjects /CRITERIA=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.00000000) (0، مطلق) LCONVERGE(0، ABSOLUTE) PCONVERGE(0.000001، ABSOLUTE) /FIXED=Rrelatedness Wordness Relatedness*Wordness | SSTYPE(3) /METHOD=REML /PRINT=SOLUTION /REPEATED=ارتباط*Wordness | SUBJECT(موضوعات) COVTYPE(UN). این بدون خطا اجرا می شود، اما متوجه شدم که هیچ متغیر افکت تصادفی در جدول خروجی Model Dimension فهرست شده است. اگر سوژه‌ها را به‌عنوان متغیر جلوه‌های تصادفی اضافه کنم، علاوه بر اینکه آن‌ها را به‌عنوان متغیر موضوعات با نحو زیر مشخص کنم: MIXED Rt2Adj بر اساس ارتباط واژه‌بندی موضوعات /CRITERIA=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR( 0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0, ABSOLUTE) PCONVERGE(0.000001, ABSOLUTE) /FIXED=Rrelatedness Wordness Relatedness*Wordness | SSTYPE(3) /METHOD=REML /PRINT=DESCRIPTIVES /RANDOM=موضوعات | COVTYPE(VC) /REPEATED=ارتباط*واژه | SUBJECT(موضوعات) COVTYPE(UN). هنگامی که می‌خواهم تحلیل را اجرا کنم، با خطا مواجه می‌شوم (تکرار پایان یافت اما همگرایی حاصل نشد. روش MIXED با وجود این هشدار ادامه می‌یابد. نتایج بعدی تولید شده بر اساس آخرین تکرار است. اعتبار تناسب مدل نامشخص است. ) من فرض می کنم که این به این دلیل است که مدل بیش از حد مشخص شده است، زیرا موضوع هم به عنوان متغیر موضوع و هم به عنوان یک جلوه تصادفی اختصاص داده شده است. متغیر بنابراین سوال من این است: در رابط کاربری گرافیکی، SPSS می گوید موضوعات را برای مدل هایی با اثرات تصادفی همبسته مشخص کنید. اگر موضوعاتی را تحت این عنوان مشخص کنم، آیا مدل این متغیر را طوری تفسیر می‌کند که گویی یک متغیر اثر تصادفی است (حتی اگر «موضوعات» را به‌عنوان جلوه‌های تصادفی در جدول ابعاد مدل فهرست نمی‌کند، همانطور که اگر دستی وارد کنم موضوعات به عنوان یک متغیر اثر تصادفی)؟ آیا راه دیگری برای اطمینان از اینکه سوژه ها به عنوان یک اثر تصادفی وارد مدل می شوند وجود دارد؟ من در یافتن پاسخ روشن برای این سوال مشکل دارم زیرا بسیاری از سؤالات دیگری که پست شده اند از یک متغیر متفاوت (نه موضوعات) به عنوان یک اثر تصادفی استفاده کرده اند. سوال دوم این است: من از اولین نحو چسبانده شده در بالا برای تجزیه و تحلیل یک مجموعه داده بسیار کوچک (4 موضوع) استفاده کردم. اگرچه تجزیه و تحلیل بدون خطا بر روی یک مجموعه داده بزرگتر انجام شد، وقتی تجزیه و تحلیل را بر روی این مجموعه داده کوچک اجرا کردم، با خطای زیر مواجه شدم: تکرار پایان یافت اما همگرایی به دست نیامد. روش MIXED علیرغم این هشدار ادامه دارد. نتایج بعدی تولید شده بر اساس آن است. در آخرین تکرار، اعتبار تناسب مدل نامشخص است. آیا حجم نمونه بسیار کوچک می تواند باعث این خطا شود؟
مدل ترکیبی در SPSS با اثرات تصادفی و اندازه گیری های مکرر
114807
من با آمار بسیار تازه کار هستم و بدون شانس در نت و صرافی پشته برای پاسخ جستجو کرده ام. بنابراین این پست امیدوارم کسی بتواند کمک کند... من در حال انجام تجزیه و تحلیل اثرات زیست محیطی حدود 100 سازه دیوار خارجی هستم که به صورت پارامتریک تولید شده اند. برای هر نوع، نتایجی برای انرژی اولیه، گازهای گلخانه ای، اسیدی شدن و غیره دارم. 10 پارامتر مختلف در کل معماران در اعداد خیلی خوب نیستند، بنابراین ما به دنبال ایجاد یک روش راهنمایی هستیم که میزان داده هایی را که معماران باید در مراحل اولیه طراحی به آن نگاه کنند، کاهش می دهد. می‌خواهم ببینم آیا همبستگی کافی بین پارامترها وجود دارد، به طوری که معماران به جای اینکه به 10 پارامتر نگاه کنند تا ببینند کدام ساختار بهتر است، فقط باید به 2 یا 3 پارامتر نگاه کنند. در اینجا نمودار انرژی اولیه در رابطه با گازهای گلخانه ای آمده است: ![انرژی اولیه در رابطه با گازهای گلخانه ای](http://i.stack.imgur.com/IJXpd.png) چگونه می توانم استنباط کنم که آیا همبستگی در اکسل؟ جریان کار دقیق چیست؟ من کارهای زیر را انجام داده ام: 1: تست چولگی در هر دو مجموعه داده (SKEW); اگر نتیجه بزرگتر از 1.0 باشد، ثابت 1.0 به داده ها اضافه می شود و به Log10 تبدیل می شود. من متوجه نشده ام که اگر چولگی کمتر از -1.0 باشد چگونه با مجموعه داده رفتار کنم. 2: آزمون پیرسون r (CORREL) انجام می شود. اگر r>0.75 باشد، همبستگی وجود دارد. 3: تست R2 (RSQ) انجام می شود. اگر R2> 0.56 باشد، همبستگی وجود دارد. 4: تست LINEST برای محاسبه اینکه آیا F.DIST.RT کمتر از 5٪ است و آیا m/sem کمتر از TINV است انجام می شود. این برای محاسبه احتمال 5٪ است. من سوالات زیر را دارم: 1) آیا این درست است؟ آیا من چیزی را از دست داده ام؟ 2) آیا مقادیر r/R2 (0.7/0.56) من برای نشان دادن همبستگی درست هستند؟ 3) آیا رویکرد SKEW/log10 صحیح است و چگونه با چولگی منفی برخورد کنم؟ 4) آیا با تقسیم دو مجموعه داده به یکدیگر و بررسی نسبت، انحراف معیار، واریانس و غیره، راه آسان تری برای انجام آن وجود دارد. کمک بسیار قابل قدردانی است! راب
چگونه می توان تحلیل همبستگی/اهمیت را انجام داد؟
92442
ما سال های 2001، 2002، 2003،... تا 2010 را داریم. مثلاً، یک سال به طور تصادفی از سال های ذکر شده انتخاب شده است. احتمال اینکه سال انتخابی 53 دوشنبه باشد چقدر است؟
احتمال اینکه یک سال دارای 53 دوشنبه باشد
92443
من از R برای ایجاد فاصله پیش‌بینی 95 درصدی برای تعداد گونه‌های بومی در یک جزیره استفاده کرده‌ام. کران پایین من منفی است - آیا این از نظر ریاضی درست است؟ در مدل خطی استفاده شده در بازه پیش بینی، داده های مورد استفاده عبارتند از: مساحت سطح جزیره، هکتار فاصله دیسک از سانتا کروز، کیلومتر ارتفاع ارتفاع نقطه بالاتر بر حسب متر و به این صورت کدگذاری می شود: Selected.model <- lm( ES ~ Area + Elevation + DistSC + I (Elevation^2) + (Elevation:DistSC) + (منطقه: ارتفاع)) و رگرسیون گام به گام برای یافتن این «بهترین» مدل انجام شد، دقیقاً مطمئن نیستم که یک بازه پیش‌بینی چگونه کار می‌کند. من فقط می خواهم مطمئن شوم که اوکی است. بدیهی است که تعداد منفی گونه ها نادرست است، اما می دانم که عدم قطعیت میانگین و همچنین پراکندگی داده ها را در نظر می گیرد.
آیا یک بازه پیش بینی صحیح ریاضی می تواند کران پایینی منفی داشته باشد؟
114801
من 2 فایل متنی حاوی جملات خاصی دارم. من احتمالات فردی هر کلمه را در هر دو فایل محاسبه کردم. برای file1: $$p(\text{A})=\frac{(\text{تعداد کل کلمه در فایل 1})}{(\text{تعداد کل کلمات در فایل 1})}$$ برای file2: $$p(\text{B})=\frac{(\text{تعداد کل کلمه در فایل 2})}{(\text{تعداد کل کلمات در فایل 2})}$$ برای کلمات رایج در فایل 1 و فایل 2، از: $$p(\text{A}) + p(\text{B})$$ برخی جملات جدید به عنوان ورودی ارائه شده است. با توجه به اینکه کلمه در فایل 1 یا فایل 2 یا هر دو در فایل 1 و فایل 2 وجود دارد، چگونه می توانم احتمال کلمات ورودی را محاسبه کنم؟
احتمال کلمه ورودی
114805
من روی یک تحلیل تجربی کار می کنم که در آن سعی می کنم بازده سهام را با استفاده از داده های هفتگی پیش بینی کنم. در حالت ایده‌آل، من می‌خواهم از یک مدل داده پانل مانند زیر استفاده کنم: $$ Y_{it}=X_{it}'\beta+\varepsilon_{it} $$ (در اینجا در قالب بسیار ساده ارائه شده است - پیچیده‌تر خواهد بود در تجزیه و تحلیل) در اینجا $Y_{it}$ بردار بازده هفتگی و $X_{it}$ بردار متغیرهای توضیحی (همچنین هفتگی) با ضرایب بردار $\beta$ است. با این حال، در بسیاری از ادبیات تجربی، این رویکرد استاندارد نیست. رویکرد استاندارد شامل مرتب‌سازی سهام در پرتفوی‌های مختلف و استفاده از استراتژی‌های تشکیل سبد است. سوالات من این است: 1) چرا رویکرد پورتفولیو رویکرد استاندارد است؟ 2) اخطارهای استفاده از مدل داده های تابلویی چیست؟ 3) آیا متغیرهای توضیحی که معمولاً در ادبیات پیش‌بینی بازده سهام یافت می‌شوند (مانند اندازه، نسبت P/E، نسبت P/B و حرکت برای هر شرکت) نیز می‌توانند در مدل داده‌های تابلویی استفاده شوند؟
پیش بینی بازده سهام - در مشخصات داده های تابلویی یا با استفاده از استراتژی های تشکیل سبد؟
79646
**ویرایش شده:** من یک متغیر طبقه بندی دارم که شامل مقادیر 1 تا 7 با این احتمالات است: امتیاز 1 2 3 4 5 6 7 p 0.01 0.01 0.03 0.05 0.2 0.3 0.4 در دو نمونه متفاوت از دو جامعه مختلف، من پیدا کردم همان مقدار برای صدک 10 (یعنی 4) در مشاهده شده است داده ها من می‌خواهم احتمال وجود دقیقاً همان مقدار را برای صدک دهم پیدا کنم. FYI، نمرات پاسخ‌هایی به یک مقیاس هستند و احتمال‌ها نسبت‌هایی برای هر دسته در یک نمونه هنجاری هستند. من می‌خواهم بتوانم این کار را در R. P.S انجام دهم: هر پیشنهادی در مورد محاسبه توزیع تجمعی یک متغیر با ویژگی‌های ذکر شده در بالا قدردانی می‌شود. با تشکر
احتمال مشاهده یک مقدار برای صدک 10 در دو نمونه متفاوت
78517
من می‌خواهم همبستگی بین: یک متغیر ترتیبی را تخمین بزنم: از آزمودنی‌ها خواسته می‌شود اولویت خود را برای 6 نوع میوه در مقیاس 1 تا 5 ارزیابی کنند (از بسیار منزجرکننده تا بسیار خوشمزه) به طور متوسط ​​آزمودنی‌ها فقط از 3 امتیاز استفاده می‌کنند. مقیاس یک متغیر پیوسته: از افراد مشابه خواسته می‌شود تا به سرعت این میوه‌ها را شناسایی کنند که منجر به دقت متوسط ​​برای 6 میوه می‌شود. آیا Spearman rho بهترین روش برای تجزیه و تحلیل این داده ها است و/یا روش های خوب دیگری وجود دارد که می توانم در نظر بگیرم؟
چگونه می توان همبستگی بین متغیر ترتیبی و پیوسته را به درستی ارزیابی کرد؟
91864
من یک پرسش و پاسخ از اینجا خواندم که بسیار خوب است. در Q/Answer بالا، پارامتر تنظیم $λ$ یک اسکالر بود. اما در مشکل من یک بردار $\lambda$ برای یک حالت رگرسیون رج تعمیم یافته است. درجات آزادی یک عدد صحیح ثابت است (معلوم فرض می شود). من در تلاش برای راه اندازی یک جستجوی تکراری برای بردار $\lambda$ مانند آنچه در اینجا داده شده است. من قدردان هر پیشنهادی هستم
با توجه به درجات آزادی و ماتریس ورودی، چگونه می توان پارامتر منظم سازی را در رگرسیون خط الراس تعمیم یافته محاسبه کرد؟
111325
من در حال حاضر در حال آزمایش با تشخیص نمادهای آنلاین برای ریاضیات برای پایان نامه کارشناسی خود هستم. من 369 نماد دارم که می خواهم آنها را متمایز کنم. روش‌ها/ویژگی‌های پیش‌پردازش زیادی وجود دارد که می‌توانم فکر کنم مفید هستند، اما مطمئن نیستم که کدام یک خوب/بد یا کدام ترکیب را انتخاب کنم. از آنجایی که یک تمرین/آزمایش کامل حدود 6 ساعت طول می‌کشد (با یک شبکه عصبی 3 لایه)، من از امتحان و آزمایش هر ترکیب تردید دارم. چگونه می توانم ارزش یک ویژگی را ارزیابی کنم؟ ## چیزی که من امتحان کردم، در مورد محاسبه میانگین / واریانس ویژگی برای هر نماد و ویژگی فکر کردم. این نشان می‌دهد که کدام ویژگی می‌تواند کدام نمادها را تشخیص دهد و برای دو نماد اندازه‌گیری می‌کند (هر چه میانگین‌ها از هم دورتر باشند و واریانس‌ها کوچک‌تر باشند، ویژگی برای تشخیص دو نماد داده شده بهتر است). اما من این روش را زیاد دوست ندارم، زیرا ارزش های زیادی به من می دهد. به این ترتیب باید $\binom{369}{2} = 67896$ را مقایسه کنم. اگرچه می توانم این کار را به صورت خودکار انجام دهم، اما نمی توانم نتایج را در پایان نامه کارشناسی ارائه دهم. من ترجیح می دهم یک مقدار داشته باشم تا بتوانم ویژگی های مختلف را با مقایسه اعداد واحد مقایسه کنم. آیا مقاله / مقاله / کتابی در مورد ارزیابی ویژگی برای مشکلات طبقه بندی ابعادی بالا وجود دارد؟
چگونه می توان کیفیت ویژگی ها را در کارهای طبقه بندی با ابعاد بالا ارزیابی کرد؟
114809
این سوال بر اساس مقاله Honglak Lee شبکه های باور عمیق متقابل برای یادگیری بدون نظارت مقیاس پذیر نمایش های سلسله مراتبی است. من یک RBM کانولوشن با حداکثر ادغام احتمالی بر اساس معادلات بخش 3.3 پیاده سازی کرده ام. من اکنون می‌خواهم چندین مورد از آنها را به عنوان یک DBN کانولوشنال جمع کنم. من فکر می‌کردم که این کار ساده‌ای است، فقط اتصال لایه جمع‌آوری به لایه قابل مشاهده بعدی به عنوان یک DBN معمولی. اما در مقاله فصل «3.6 استنتاج احتمالی سلسله مراتبی» وجود دارد. این فصل شامل فرمول های مختلف برای h^k و p^k است. من نمی دانم چه زمانی باید از این فرمول استفاده شود و این فصل در مورد چیست؟ آیا کسی می تواند این را روشن کند؟
استنتاج احتمالی سلسله مراتبی در C-DBN هونگلاک لی چیست؟
34771
اجازه دهید $R_{it}$ و $R_{mt}$ بازده روزانه سهام برخی از شرکت‌ها $i$ و بازده شاخص روزانه بازار (به ترتیب) با $i \in \{1,...,N\} باشد. $ و $t \{1,...,200\}$. معمول است که $R_{it}$ به عنوان پاسخ و $R_{mt}$ به عنوان پیش بینی کننده باشد. بگذارید یک بحران مالی شدید در $t=150$ رخ دهد و این بحران تا $t=200$ ادامه داشته باشد. برای مدل‌سازی اینکه آیا سهام بیش از شاخص بازار سقوط کرده است یا خیر، ما با OLS $\forall i$ تخمین می‌زنیم: $R_{it} = \alpha_i + \beta_i R_{mt} + \gamma_i D_t + \epsilon_{it}$ که در آن $ D_t$ برابر است با 1 در بحران و 0 در غیر این صورت. آنچه من می خواهم بدانم، به طور کلی، این است که کدام سهام سریع ترین سقوط را داشتند؟. من ایده هایی برای تجزیه و تحلیل نمونه فرعی دارم که می تواند با این سوال مقابله کند، اما من یک رویکرد اقتصادسنجی را ترجیح می دهم. یکی از راه‌های انجام این کار این است که نمونه را به $t \in \{1,...,160\}$ کوتاه کنید و به دنبال منفی‌ترین $\gamma_i$ بگردید. با این حال، من به دنبال یک نتیجه اقتصادسنجی هستم که سهام‌هایی را مشخص کند که (i) در کل دوره بحران سقوط کردند، اما (ii) نسبت بسیار زیادی از سقوط خود را در هفته اول بحران داشتند. من همچنین می‌خواهم این پارامتر را تغییر دهم تا بتوانم از آن به عنوان یک متغیر وابسته در تحلیل رگرسیون مقطعی برای توضیح این پدیده استفاده کنم.
تعیین اینکه کدام سهام برای اولین بار در سقوط بازار سهام سقوط می کند
24438
من مطالعه ای دارم که به اجتماعی شدن کلاس درس می پردازد. دانش آموزان دانش آموزان برتر دیگری را که می خواستند قبل و بعد از درمان با آنها کتاب بخوانند نام بردند. همچنین یک گروه کنترل بود که هیچ درمانی دریافت نکرد. قبل از درمان، چند کودک واقعاً محبوب دارید که همه رای‌ها را می‌گیرند و تعداد زیادی از بچه‌های تیره‌تر رای کم یا بدون رای می‌آورند. بنابراین شما یک توزیع منحنی منفی سنگین دارید که به نظر می رسد: **شکل 1**![شکل 1](http://i.stack.imgur.com/nHdIQ.png) فرض بر این است که درمان باعث بچه های دورکیتر بیشتر انتخاب شوند و بچه های محبوب کمتر انتخاب شوند. به عبارت دیگر توزیع نرمال خواهد شد (شکل 2 را ببینید). و برای گروه کنترل، انحراف منفی ثابت می ماند یا بدتر می شود (شکل 3 را ببینید). **شکل 2** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WKSZ3.png) **شکل 3** ![توضیح تصویر را اینجا وارد کنید](http://i. stack.imgur.com/TFxTD.png) آیا آزمون فرضیه ای برای نشان دادن این تغییر در گروه درمان وجود دارد؟ تقریباً مانند آزمون var اندازه گیری های مکرر یا آزمون توزیع اندازه گیری های مکرر. _توجه داشته باشید این یک پست متقابل ازtalkstats.com است. آنها می دانند که من اینجا پست می کنم و این پست را به آن یکی وصل می کنم._
مقایسه توزیع قبل از پست