_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
79288
من روی یک کار طبقه بندی متن با حدود 4.5 میلیون سند کوتاه (با 100 تا 150 کلمه در هر سند) کار می کنم. پس از انجام مراحل پیش‌پردازش استاندارد (پایه‌بندی، حذف علائم نقطه‌گذاری و اعداد، حروف کوچک و غیره)، یک ماتریس اصطلاح سند با تقریباً ایجاد کردم. 500000 ابعاد. هنگام ایجاد ماتریس اصطلاح doc، من از عباراتی با فراوانی ترم کمتر از 5 و عباراتی که در بیش از 50٪ اسناد ظاهر می شوند، چشم پوشی می کنم. من احساس می‌کنم تعداد ابعادی که دارم خیلی زیاد است و دارم کار اشتباهی انجام می‌دهم - آیا کسی با تجربه در زمینه طبقه‌بندی متن می‌تواند به من بگوید که آیا تعداد ابعاد من معقول است؟ (توجه: در مرحله بعدی تجزیه و تحلیل، من از LSA برای فشرده کردن موارد استفاده می کنم، اما می خواهم مطمئن شوم که هر مرحله به درستی انجام شده است).
ابعاد معمولی یک ماتریس اصطلاح Doc
108908
من سعی می کنم رابطه بین تعداد بزرگسالان شمارش شده و درصد پوشش هدر را در 3 منطقه آزمایش کنم. داده ها به این شکل است: تعداد پوشش ناحیه فیلد1 53.7 216 فیلد2 19.5 2 فیلد3 39.8 6106 با توجه به اینکه داده های شمارش درگیر هستند، من قصد داشتم رگرسیون پواسون را انجام دهم. من می‌دانم با توجه به این داده‌ها رابطه بعید است، اما سوال من این است که آیا 3 نقطه داده برای تحلیل رگرسیون کافی است؟ این مهم است زیرا من همچنین می خواهم رابطه بین تعداد بزرگسالان و تعداد لانه، تعداد بزرگسالان و ارتفاع پوشش گیاهی و غیره را آزمایش کنم، اما همه آنها فقط 3 نقطه داده دارند زیرا من فقط 3 منطقه را در یک سایت مطالعه می کردم. با این نوع داده‌ها، نمی‌دانم با توجه به اینکه داده‌های شمارش است، می‌توان از آزمون دیگری استفاده کرد یا خیر. من هنوز در مورد آمار مبتدی هستم، بنابراین هر کمکی قابل قدردانی است. من از R برای انجام تمام تحلیل هایم استفاده می کنم.
آیا رگرسیون پواسون باید تنها با 3 نقطه داده انجام شود؟
93745
فرض کنید من یک قاب داده دارم به این صورت که: set.seed(2014) df<-data.frame(y=rbinom(100,1,0.3),futime=as.integer(rnorm(100,100,10)), age=rnorm (100،50،5)، جنسیت = rbinom(100،1،0.5)) df[df>100]<-100 سال آینده جنسیت 1 0 100 49.72 1 2 0 100 53.63 0 3 0 91 55.03 1 4 0 100 50.58 1 5 0 928 105 1. 'y' نتایج است و _futime < 100_ به درستی از زمان پیگیری سانسور شده است. تفاوت در تجزیه و تحلیل بقا در جایی که ما زمان بقا را با توجه به وضعیت سانسور آنها مدل می کنیم، در اینجا من علاقه مند هستم که آیا یک سوژه ممکن است یک رویداد را تجربه کرده باشد یا وضعیت سانسور یا زمان پیگیری آن را نداشته باشد. من متعجبم که بهترین مدل برای این نوع شرایط کدام است. یا، آیا فقط استفاده از futime به عنوان یک پیش بینی منظم در یک مدل لجستیک عادی کافی است؟ من فکر می کنم یک موقعیت خاص باید در اینجا در نظر گرفته شود. آیا کسی پیشنهاداتی دارد؟
چگونه می توان یک مدل را برای نتایج باینری سانسور شده مناسب کرد؟
92291
هدف من طبقه بندی 3 کلاس از داده های EEG است. وقتی داده‌هایم را روی فضای ویژگی ترسیم کردم تا بتوانم تجسم کنم، متوجه شدم که آنها روی چنین صفحه خطی قرار دارند (لطفاً به شکل‌های من نگاه کنید). قبل از رسم، چندین روش برای استخراج ویژگی اعمال کرده بودم (مثلاً: الگوی فضایی مشترک، ...) در اینجا به طور مختصر رویه های خود را توضیح خواهم داد. من از Common Spatial Pattern استفاده کردم. داده های من سیگنال های EEG هستند که از 2 کانال تشکیل شده است. من فیلتر عبور باند را برای استخراج 8 باند فرعی دیگر برای هر کانال اصلی اعمال می کنم. نرخ نمونه 128 هرتز است، و من اندازه ویندوز را 1 ثانیه انتخاب کردم، بنابراین داده های من در 1 ثانیه را می توان به عنوان $\\{E_n\\}_{i=1}^M \in R^{\rm{کانال نشان داد } \times 128}$ که در آن $M$ تعدادی آزمایش است. هر آزمایشی با یک کلاس خاص مرتبط خواهد بود. من سعی می کنم $W$ را پیدا کنم که $W^\intercal E = S$ و $S_n \در R^{d \times 128}$ ($d<\rm{کانال}$). ویژگی هر آزمایشی $(x_1 ... x_d)$ است که در آن $x_i = \log \bigl(\frac{var(s_i)}{\sum{s_i}}\bigr)$ است. من $d=2$ را برای شکل 1 و $d=3$ را برای شکل 2 انتخاب کردم و $S$ را رسم کردم. سوال من این است: پدیده چیست؟ آیا مشکل در استخراج داده یا ویژگی من است؟ ![من روی صفحه دوبعدی پروجکت کردم](http://i.stack.imgur.com/Q1yFz.jpg) ![بر روی صفحه سه بعدی پرتاب کردم، هر رنگ با یک کلاس مطابقت دارد](http://i.stack.imgur .com/3KMxJ.jpg)
داده های من در یک صفحه خطی قرار دارند
94590
فرض کنید من یک رگرسیون خطی $y = \beta x + \rm error$ را برازش می کنم. در این وضعیت، $x > 0$، $\alpha > 0$، و بنابراین $y > 0$. علاوه بر این، خطای $\rm$ معمولاً با میانگین $0$ و انحراف استاندارد $\sigma$ توزیع می‌شود. حال، اگر معیار خطای دیگری را محاسبه کنم، درصد خطا، که 100$*\rm پیش بینی شده / واقعی$ است، آنگاه خطا با مقدار $y$ کاهش می یابد. یعنی مدل با افزایش مقادیر $y$ بهتر به نظر می رسد. این متناقض به نظر می رسد. هر فکری؟ یک مثال این است که فرض کنید ما فروش را به عنوان تابعی از میزان تخفیف پیش‌بینی می‌کنیم. فروش با مقدار تخفیف افزایش می یابد. به نظر می رسد این مدل، بر اساس درصد خطا، برای مقدار بیشتر تخفیف (فروش بیشتر) عملکرد خوبی دارد. هر گونه بینش قدردانی می شود.
درصد خطا برای مدل رگرسیون خطی
35472
من متوجه شدم که در حین بررسی مدل رگرسیون چند متغیره، یک اثر چند خطی کوچک اما قابل توجه وجود دارد، همانطور که با عوامل تورم واریانس اندازه‌گیری می‌شود، _در_ دسته‌های یک متغیر طبقه‌بندی (البته پس از حذف دسته مرجع). به عنوان مثال، فرض کنید یک مجموعه داده با متغیر پیوسته y و یک متغیر طبقه بندی اسمی x داریم که دارای k مقادیر متقابل انحصاری ممکن است. ما آن مقادیر احتمالی $k$ را به عنوان متغیرهای ساختگی 0/1 $x_1، x_2،\dots، x_k$ کدگذاری می کنیم. سپس یک مدل رگرسیونی $y = b_0 + b_1x_1 + b_2x_2 + \dots + b_{k-1}x_{k-1}$ را اجرا می کنیم. امتیاز VIF برای متغیرهای ساختگی $k-1$ غیر صفر است. در واقع با افزایش تعداد دسته ها، VIF ها افزایش می یابد. قرار دادن متغیرهای ساختگی در مرکز به نظر نمی رسد که VIF ها را تغییر دهد. به نظر می رسد توضیح شهودی این است که شرایط انحصاری متقابل دسته ها در متغیر طبقه بندی باعث این چند خطی خفیف می شود. آیا این یک یافته بی اهمیت است یا موضوعی است که باید در ساخت مدل های رگرسیون با متغیرهای طبقه بندی در نظر گرفت؟
آیا چند خطی بودن در متغیرهای طبقه بندی ضمنی است؟
1053
من به دنبال یک کتاب/آموزش خوب برای یادگیری تجزیه و تحلیل بقا هستم. من همچنین به منابعی در مورد انجام تجزیه و تحلیل بقا در R علاقه مند هستم
منابع برای تجزیه و تحلیل بقا
32870
من در حال آماده شدن برای تجزیه و تحلیل برخی از داده ها هستم و یک سوال در مورد چگونگی انجام آن دارم. این یک نظرسنجی 39 سوالی با پاسخ های 5 سوالی در مقیاس لیکرت است. من از پاسخ‌ها برای تفکیک شرکت‌کنندگان به دسته‌ای که در آن بالاترین امتیاز را کسب کرده‌اند، برای تجزیه و تحلیل بیشتر استفاده خواهم کرد. مشکل این است که رده A با 14 سوال، رده B دارای 11 سوال و رده C دارای 14 سوال است. بهترین راه برای تعیین اینکه شرکت‌کننده در کدام یک بالاترین امتیاز را دارد، زیرا تعداد سؤالات برابر نیست، چیست؟ آیا گرفتن کل امتیازات ممکن آنها در هر دسته و تقسیم آن بر تعداد امتیازات ممکن کار می کند، سپس درصد آنها را در سه دسته مقایسه کنید تا ببینید کدام بالاترین است؟
محاسبه گروه های اولیه
73112
من یک ANOVA را برای مقایسه نتایج دو آزمایش انجام می دهم. افراد باید با چشم بسته به سمت سطل راه می رفتند و انحراف آنها از هدف ثبت می شد. می‌خواهم ببینم آیا افراد با تمرین بهتر می‌شوند (آیا انحرافات trial-2 کمتر از آزمایشی-1 هستند) و آیا رابطه‌ای بین کارآزمایی‌ها در رابطه با جنسیت و دست‌دستی (چپ دست/راست دست) وجود دارد. **آیا ANOVA مناسب است؟** همچنین من در R مشکل دارم زیرا جنسیت را M و F و Handedness را L یا R قرار داده ام. آیا باید اینها را عددی کنم یا خیر؟
ANOVA با استفاده از R - مطمئن نیستید که آیا آنالیز مناسب است و آیا متغیرها باید عددی باشند
67199
من داده های فروش هفتگی سال گذشته غذاهای کوتاه مدت را دارم. من می خواهم فروش را برای 30 روز آینده پیش بینی کنم. من می توانم رقم فروش را برای یک هفته پیش بینی کنم. اما مشکلی که من با آن روبرو هستم این است که چگونه می توانم یک پیش بینی روزانه ایجاد کنم؟ آیا روشی برای انجام این کار وجود دارد یا باید یک پیش بینی هفتگی برای تمام هفت روز توزیع کنم؟
پیش بینی فروش
55011
من سردرگمی در رابطه با تست Kruskal wallis دارم. من یک مثال دارم، مثلاً X=[2 2 35 10 9 8 11 12]; Y=[1 1 1 2 2 2 2 2]; Y متغیر گروه است حالا وقتی تست kruskalwallis را اجرا کردم p = kruskalwallis(X,Y,'off') مقادیر p حدود 0.4 را دریافت کردم. من فرض می‌کردم که آزمون Kruskal wallis میانگین را می‌گیرد. بنابراین زمانی که من یک عدد پرت با مقدار 35 را در موقعیت سوم اضافه کردم، باید قوی بود. چرا آن را به آن قوی نیست. آیا به این دلیل است که من نمونه های بسیار کمی دارم. کسی میتونه توضیح بده؟
سردرگمی مربوط به تست کروسکال والیس
73114
من می خواهم سبک نوشتن آنها را یاد بگیرم. آیا می توانید یک آماردان نویسنده خوب را معرفی کنید؟
بهترین نویسنده در بین آماردانان کیست؟
107829
اگر من یک مقدار شناور تصادفی بین 0…1 ایجاد کنم، مثلا تا 40 رقم، یا _n_ رقم، **آیا شانس بدست آوردن یک صفر واقعی (0) یا یک واقعی (1) فوق العاده کم نیست؟** در شرط صفر، هر رقم 0 تا 9 باید صفر باشد و در شرط یک، عدد صحیح اول باید یک باشد و بقیه باید به طور پیش فرض صفر باشد. آیا منطق نحوه نمایش یک عدد در نحوه تولید اعداد تصادفی تأثیر می‌گذارد یا در غیر این صورت بر میزان بعید بودن آن نتیجه تأثیر می‌گذارد؟ _من بینش خوبی در مورد نحوه تولید اعداد تصادفی ندارم. اگر بپرسید تعریف شما از عدد تصادفی چیست؟ فرض کنید یک رقم تولید شده می تواند تصادفی آماری را نشان دهد. * * * قسمت 2 اگر من اعدادی را در یک محدوده تولید کنم، مثلاً 5…8، آیا همه نتایج با مقدار صحیح [5،6،7،8] نیز بسیار بعید نیستند؟ _توجه: کل این سوال کاربردی ندارد. من فقط کنجکاو هستم. این سوال تا حدی تحت تأثیر شرح‌های ریاضی ViHart در یوتیوب بود، به‌ویژه اثبات اینکه برخی بی‌نهایت‌ها بزرگ‌تر از سایر بی‌نهایت‌ها هستند، و به‌طور خاص استدلال مورب کانتور. _P.S. اگر هر ناظری بخواهد این سوال را به جای دیگری منتقل کند، برای من اشکالی ندارد!_
آیا نتایج اعداد صحیح از مولدهای اعداد تصادفی بعید است؟
100830
این مربوط به مقاله یواخیمز در سال 1998 در مورد آموزش SVMها (پیوند به مقاله) است. در 11.3، می‌دانم که چگونه عبارت $V(\mathbf d)$ در نتیجه تقریب مرتبه اول به وجود می‌آید، و چرا باید آن را به حداقل رساند. > ![ارجاع به مقاله](https://i.imgur.com/W6SPMQD.png) من متوجه نمی شوم که چگونه روش موجود در 11.3.2 از توضیحات 11.3 ناشی می شود. > ![ارجاع به مقاله](https://i.imgur.com/WtnyiwT.png) مقدار $\omega_i$ چگونه $V(\mathbf d)$ را نشان می دهد؟ و چگونه انتخاب شرایط بالا و پایین $q/2$ به حداقل رساندن $V(\mathbf d)$ دلالت دارد؟
آموزش SVM: انتخاب مجموعه کاری
100832
چند مقاله (* در مورد پیش‌بینی حفظ کاربر در StumbledUpon) خواندم و دیدم نویسندگان فهرستی از ویژگی‌ها را با دقت هر ویژگی با توضیح زیر ارائه می‌کنند: > ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/PLwYO.png) از آنجایی که درخت‌های تصمیم از کسب اطلاعات برای یافتن بهترین ویژگی استفاده می‌کنند، ما در عوض از درخت‌های تصمیم با ویژگی‌های واحد استفاده می‌کنیم و دقت آن‌ها را در طبقه‌بندی درخت تصمیم برای حفظ و گزارش می‌کنیم. URL های حفظ نشده جدول 2 رتبه بندی را بر اساس اندازه گیری مجذور کای و صحت درخت تصمیم > بر اساس ویژگی های فردی نشان می دهد. من در مورد اینکه چگونه می توانند این کار را انجام دهند سردرگم هستم. من فقط می توانم تصور کنم که از chi-squared برای ایجاد رتبه و دانستن مهم ترین ویژگی ها (ارزیابی ویژگی ها) استفاده کنم، اما در این مورد نمی دانم چگونه دقت هر ویژگی را محاسبه کنم. متشکرم.
نحوه محاسبه دقت هر ویژگی
110421
مجموعه داده من اساساً یک سری زمانی است - هر مورد یک روز است و چندین رویداد برای هر مورد مشاهده می شود. من در تجزیه و تحلیل سری های زمانی تجربه ندارم، اما هنوز هم دوست دارم حداقل اطلاعاتی از آن داده ها به دست بیاورم. همانطور که می‌دانم، همه متغیرها شمارش‌هایی هستند که بیان می‌کنند چند بار در آن روز خاص رخ داده است. علاوه بر آن، هیچ یک از متغیرها به طور معمول توزیع نمی شود، بلکه پواسون توزیع شده است و اکثریت قریب به اتفاق مقادیر 0 هستند، بنابراین من نمی توانم یک رگرسیون خطی ساده را اجرا کنم. من سعی کردم از مدل خطی تعمیم یافته در SPSS استفاده کنم، اما متأسفانه نمی دانم برای تفسیر خروجی :(. می خواهم حداقل بدانم که آیا رابطه ای بین این دو متغیر وجود دارد یا خیر، بنابراین همبستگی پیرسون را اجرا کردم، آیا آن است. خوب، یا برخی از مفروضات را نقض کرده ام، اگر یکی از متغیرها را 1 روز عقب بیاندازم و سپس همبستگی را اجرا کنم، آیا خروجی به معنای وقوع رویداد 1 است؟ (متغیر الف) بر وقوع رویداد در متغیر 2 در روز بعد تأثیر دارد؟
شمارش همبستگی داده ها
72645
من در یک مشکل گیر کرده ام و نمی دانم که آیا کسی می تواند به من پیشنهاد دهد. $X_1، X_2، X_3$ همگی از توزیع $\text{Uniform}[0,1]$ پیروی می‌کنند و مشمول محدودیت $X_1+X_2+X_3\leq 1$ هستند. توزیع مشترک برای $(X_1، X_2، X_3)$ چیست، یعنی، $p(X_1، X_2، X_3)$ چیست، و ماتریس واریانس-کوواریانس برای آن چیست؟ من توزیع مشترک را به روش هندسی دریافت می کنم که pdf باید $1/6$ باشد. با این حال، من نمی توانم ماتریس واریانس-کوواریانس را برای آن محاسبه کنم. من تعجب می کنم چگونه آن را دریافت کنم؟
پی دی اف و کوواریانس این توزیع چیست؟
35479
من این مثال را دریافت کردم و در مورد یک عبارت خاص تعجب کردم: $$ \begin{aligned} y_1 &= \alpha_{12}y_2 + \alpha_{13}y_3 + \beta_{11}z_1 + u_1 \\\ y_2 & = \alpha_{21}y_1 + \beta_{21}z_1 + \beta_{22}z_2 + \beta_{23}z_3 u_2 \\\ y_3 &= \alpha_{32}y_2 + \beta_{31}z_1 + \beta_{32}z_2 + \beta_{33}z_3 + \beta_{34}z_4 + u_3 \ end{aligned} $$ نوشته شده است که در اولین معادله مدل می‌توانیم از همه متغیرهای برون‌زای حذف شده استفاده کنیم. یعنی $z_2، z_3، z_4$ به عنوان ابزاری برای دو رگرسیور درون زا $y_2،y_3$. اما همانطور که به یاد آوردم نمی توانم از $z_2$ و نه $z_3$ برای $y_2$ استفاده کنم زیرا این متغیرها قبلاً در معادله 2 ظاهر می شوند. در درک من می توانم از $z_2، z_3، z_4$ برای $y_1$ استفاده کنم اما نه برای $y_2، y_3$ درست است؟
درباره شناسایی در یک SEM 3 معادله
94599
اگر یک مدل رگرسیون اعمال می شود و باقیمانده هایی وجود دارد که بسیار زیاد یا بسیار کم هستند (به معنی نقاط پرت در مقایسه با سایرین)، آیا عمل خوبی است که از شر آن مشاهدات خلاص شوید و سپس دوباره رگرسیون را انجام دهید، به خصوص اگر شما یک مقدار بسیار بزرگ دارید. نمونه داده؟
مشاهدات با باقیمانده بسیار زیاد یا بسیار کم در رگرسیون
73113
پیشینه سوال: سلام، من سعی کردم یک مدل GARCH(1,1) را با واریانس بازده log یک سری و ARMA(0,0) را برای میانگین بسازم. من از پکیج fGarch در R برای انجام این کار استفاده می کردم. هدف از مدل‌سازی، تولید یک عدد نوسان پیش‌بینی‌شده برای وارد کردن به مدل بلک شولز برای ایجاد قیمت اختیار و در نتیجه دلتاهای اختیار است. من قصد دارم دلتا را از نوسانات GARCH برای محافظت از موقعیت های اختیارم (برخلاف دلتاهای مشتق شده از قیمت های حجمی ضمنی) آزمایش کنم. سوالات: الف) من از تابع پیش بینی در بسته برای ایجاد پیش بینی نوسانات n-day ahead استفاده کردم. همانطور که من GARCH را درک می کنم، این اعداد اعداد انحراف استاندارد سالانه هستند. برای پوشش گزینه 1 ماهه، می خواهم نوسانات 30 روزه را پیش بینی کنم. برای بدست آوردن اعداد به سادگی می توانم 'n-days ahead = 30' را قرار دهم، اما ** چگونه می توانم این 30 عدد را برای به دست آوردن یک عدد سالیانه ترکیب کنم؟** B) لطفاً کسی می تواند نحوه استفاده از آرگومان nroll را توضیح دهد. در بسته؟ اساساً من می خواهم تخمین های GARCH از نوسانات را ارائه کنم. به عنوان مثال، در روز 10، من می خواهم از داده های 10 روز گذشته برای دریافت پیش بینی حجم برای روز 11 استفاده کنم، در روز 50 می خواهم از 50 روز داده برای پیش بینی حجم روز 51 و غیره استفاده کنم. هر کمکی می تواند بسیار مفید باشد. قدردانی کرد.
سوال اساسی GARCH (1،1).
107826
من مقالات زیادی خوانده ام، اما درک آنها سخت است. لطفاً تعدیل رگرسیون برای نمرات تمایل را به روش ریاضی توضیح دهید. درک من از تعدیل رگرسیون این است که امتیاز گرایش را به عنوان یک متغیر مستقل در مدل لحاظ کنم (که در آن _Y_ متغیر نتیجه است): _Y_ = intercept + coefficent$_a\cdot$propensity + coefficient$_b\cdot$treatment وقتی مدل را برازش می کنیم، اگر ضریب$_a$ (که عبارت امتیاز ضریب تمایل در معادله است) مقداری بیشتر از 0.05، پس می توان گفت اثر درمان معنی دار نیست. درست میگم؟ با این حال، برخی از مقاله‌ها می‌گویند اثر درمان = $Y_t-Y_c-B(X_t-X_c)$. این به چه معناست؟ من فکر کردم اثر درمان برابر با $Y_t-Y_c$ است، $B(X_t-X_c)$ در اینجا چه می کند؟ آیا X_t$ تمام کوواریانس ها و مدت درمان را شامل می شود یا فقط شرایط کوواریانس را شامل می شود؟
امتیاز تمایل به تعدیل رگرسیون
79619
من یک دانشمند احمق هستم و فرآیندی دارم که به آن علاقه مندم. این داده های سری زمانی زیادی به من می دهد. من یک مدل صریح و تحلیلی دارم که کاملاً در واقعیت ریشه دارد و اساساً به نمایی های مناسب خلاصه می شود. متأسفانه، با آزمایشاتی که من می توانم انجام دهم، مدل کمتر تعیین شده است. دو پارامتر اغلب با هم مرتبط هستند. مثل همیشه، این پارامترهایی است که من واقعاً به آنها اهمیت می دهم. در حال حاضر، من از «lsqcurvefit» متلب برای تطبیق مدل خود با داده ها استفاده می کنم. من مقادیر شروع مناسب را از سایر ابزارها تخمین می زنم و بخش هایی از داده های خود را با مدل های مختلف تطبیق می دهم، سپس از آن مقادیر استخراج شده روی داده های دیگر (بعد) برای بدست آوردن پارامترهای دیگر استفاده می کنم. این یک کار شکستگی را انجام می دهد و معمولاً به سرعت روی مقادیر معقول همگرا می شود. من می‌توانم تخمین‌های _a priori_ مناسب برای توزیع احتمالی همه این پارامترها بسازم - همه اینها فقط سینتیک شیمیایی است، و می‌توانم برخی از این پارامترها را در محیط‌های مشابه _in vitro_ اندازه‌گیری کنم. من واقعاً دوست دارم کاری هوشمندانه تر از استفاده از «lsqcurvefit» مانند ماپت انجام دهم. آیا من درست فکر می کنم که روش های بیسی برای مقابله با این مهره وجود دارد؟ چه کار کنم؟ آیا این یک مشکل حل شده در استنتاج بیسی است؟ اگر امکان دارد یک مقدمه مناسب به من معرفی کنید، واقعاً دوست دارم آن را بخوانم. من یک فیزیکدان هستم که در یک موقعیت بیولوژیکی کار می کنم، اگر این به شما کمک می کند به هر متنی فکر کنید.
استنتاج بیزی و برازش منحنی
35470
این بیشتر یک سوال تئوری است. اندازه‌های نمونه بسیار بزرگ تقریباً همیشه وقتی یک آزمایش $\chi^2$ انجام می‌شود، اهمیت نشان می‌دهند. آیا آزمون آماری معناداری دیگری (جایگزینی برای $\chi^2$) وجود دارد که برای آزمایش استقلال زمانی که حجم نمونه بسیار بزرگ است خوب باشد؟ این زمینه مشکل من است: من 2 مجموعه داده بزرگ از عبارات دارم. Set1 مربوط به مجموعه n-grams Google است و set2 مجموعه کوچکتری مربوط به عبارات موجود در یک وب سایت است. اکنون یک عبارت را در نظر بگیرید: بگویید (تکنولوژی) موجود در Set2. میخوام تست کنم ببینم این عبارت مخصوص این وبسایت هست (ممکنه سایت تکنولوژی باشه) یا کلی هست. بنابراین من یک آزمایش $\chi^2$ بین فرکانس عبارات در دو مجموعه به شرح زیر انجام می دهم: Set1 Set2 Not_Technology (set1) 2,674,797,869,255 (set2) 46,168,477.00 فناوری (set1) 1710231 ممکن است این را درک نکنم (set12) بهترین روش برای آزمایش اینکه آیا یک عبارت است یک عبارت کلی است یا نه، بنابراین اگر پیشنهاد یا انتقادی دارید خوشحال می شوم به آنها گوش دهم.
آزمون اهمیت برای حجم نمونه بزرگ
100837
من می دانم که می توان از توابع هسته (یعنی هسته شعاعی) برای ایجاد مرز تصمیم گیری غیر خطی استفاده کرد. با این حال، چیزی در منطق من وجود دارد و من مطمئن هستم که چیزی وجود دارد که من به وضوح متوجه اشتباه آن شده ام: می دانم که توابع هسته در یک فضای مشخصه با ابعاد بالا و ضمنی بدون محاسبه مختصات داده ها در آن فضا عمل می کنند، بلکه توسط به سادگی محصولات داخلی را بین تصاویر تمام جفت داده ها در فضای ویژگی محاسبه می کند. این عملیات اغلب از نظر محاسباتی ارزانتر از محاسبه صریح مختصات است. اینجاست که منطق من اشتباه کرد: بنابراین، من معتقدم $K: \mathbb{R}^N \rightarrow \mathbb{R}$، یعنی ورودی را از فضای بابعد به فضای یک بعدی نگاشت می‌کند. (درست نیستم. \mathbb{R}^N$. این به یک تناقض تبدیل می شود و بسیار گیج کننده است. لطفا سوء تفاهم من را اصلاح کنید. با تشکر
دلایل استفاده از روش کرنل در SVM را بشناسید
50195
چند سوال در رابطه با تحلیل عاملی که من انجام می دهم. تجزیه و تحلیل موازی 5 عامل (یا احتمالاً 6) را برای مدل من پیشنهاد می کند و هر دو مفهوم بالینی دارند. با این حال، عامل هفتم فقط 2 مورد دارد - جالب است که آنها با هم ظاهر شدند زیرا آنها کمی افراطی تر هستند و با هم بودن آنها منطقی است. آنها در مدل 5 عاملی بارگذاری متقاطع می کنند. تفاوت بسیار کمی بین مدل های 5 و 6 عاملی در آمار برازش وجود دارد (TLI,CFI RMSEA). با این حال، تفاوت در مجذور کای بسیار قابل توجه است (90 در 30 درجه آزادی). من تمایل دارم به مدل 5 عاملی پایبند باشم و دو مورد را حذف کنم (اما آنها را در گزارش ذکر کنم) اما به دلیل خی دو قابل توجه نمی دانم چگونه این را توجیه کنم. در حالی که آزمون کای اسکوئر برای مدل به شدت به حجم نمونه بستگی دارد، آیا تفاوت در کای اسکوئر وجود دارد؟ اگر نه، چگونه می توان نادیده گرفتن آن را توجیه کرد؟ به نظر شما تحلیل موازی برای انتخاب تعداد فاکتورها بر تفاوت کای اسکوئر اولویت دارد؟ *ویرایش ابلهانه
تفاوت در مجذور کای برای تحلیل عاملی
74697
من سعی می کنم مثالی را که در کتاب تام میچل _Machine Learning_ (1997) یافتم، با استفاده از R تکرار کنم. این نمونه ای از فصل 6 است. 14 مثال آموزشی (در زیر نشان داده شده است) از مفهوم هدف PlayTennis وجود دارد که در آن هر روز با ویژگی های Outlook، Temperature، Humidity و Windy توصیف شده است. نمونه های آموزشی: چشم انداز، دما، رطوبت، باد، پخش ابری، خنک، معمولی، درست، بله ابری، گرم، زیاد، اشتباه، بله ابری، گرم، معمولی، غلط، بله ابری، ملایم، زیاد، درست، بله بارانی، خنک، معمولی، کاذب، بله بارانی، ملایم، زیاد، کاذب، بله بارانی، ملایم، معمولی، غلط، بله آفتابی، خنک، معمولی، اشتباه، بله آفتابی، ملایم، معمولی، درست، بله بارانی، خنک، معمولی، درست، بدون باران، ملایم، بالا، واقعی، بدون آفتابی، گرم، بالا ,نادرست,بدون آفتابی,گرم,بالا,درست,بدون آفتابی,معتدل,بالا,کاذب,نه اینجا من هستم کد: library(klaR) library(caret) data = read.csv(example.csv) x = data[,-5] y = data$Play model = train(x,y,'nb' ,trControl=trainControl(method='cv',number=10)) چشم انداز <- آفتابی دما <- خنک رطوبت <- بالا باد <- true instance <- data.frame (Outlook, Temperature, Humidity, Windy) predict(model$finalModel,instance) مثال سعی می کند نتیجه Outlook=sunny, Temperature=cool, Humidity=high و Wind را پیش بینی کند. =strong مشکل این است که من یک پیش بینی متفاوت از پیش بینی کتاب دریافت می کنم. اینها احتمالاتی است که من از کد خود دریافت کرده ام: نه بله 0.001078835 0.9989212 در اینجا احتمالات کتاب آمده است: نه بله 0.0206 0.0053 کد من داده های دیده نشده را به صورت بله و طبقه بندی کننده کتاب هر دو را به عنوان نه طبقه بندی می کند. پاسخ دهید زیرا ما از همان بیز ساده لوح استفاده می کنیم طبقه بندی کننده؟ ویرایش: من مثال را با استفاده از طبقه‌بندی‌کننده MultinomialNB scikit-learn تکرار کردم و احتمالات زیر را دارم نه بله 0.769 0.231 که مشابه احتمالات **نرمال شده** کتاب است. احتمالات عادی کتاب خیر بله 0.795 0.205
پیش‌بینی با استفاده از Naive Bayes بسته klaR با شکست مواجه می‌شود
93748
من باید آزمایش ریشه واحد را روی یک سری زمانی معین انجام دهم. خروجی به دست آمده در Stata تا حدودی من را گیج می کند. تا آنجا که من می دانم دو نتیجه متناقض به دست می آورم، Stata که نشان می دهد سری زمانی با یک فرآیند ریشه واحد مطابقت دارد، در حالی که ظاهراً می گوید ضریب به طور قابل توجهی با صفر متفاوت است، بنابراین با این ایده که سری زمانی واقعاً از یک ریشه واحد پیروی می کند در تضاد است. فرآیند این خروجی به دست آمده در Stata است: . سری dfuller3، تاخیرهای رگرسیون غیر ثابت(0) تست دیکی-فولر برای ریشه واحد تعداد obs = 48 ----------- درون یابی دیکی-فولر ---------- تست 1% بحرانی 5% بحرانی 10% ارزش آماری بحرانی ارزش ارزش ------------------------------------------------ ---------------------------- Z(t) 8.943 -2.623 -1.950 -1.609 ------------------------------------------------ ---------------------------- D.series3 | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ سری3 | L1. | .1314633 .0147005 8.94 0.000 .1018897 .1610369 ------------------------------------------------ --------------------------- واضح است که آمار آزمون نشان می دهد که فرضیه صفر پذیرفته شده است و بنابراین سری زمانی با فرآیند ریشه واحد مطابقت دارد. با این حال، مقدار p به دست آمده برای L1 0.000 است که نشان می دهد که تفاوت قابل توجهی با صفر دارد (0.1314633 را نمی توان به عنوان 0 در نظر گرفت). من در جایی خواندم که این ممکن است مربوط به خود تست دیکی فولر تقویت شده باشد. با این حال، به نظر نمی رسد که دوباره این پیوند را پیدا کنم. من همچنین تست دیکی فولر تقویت شده را با استفاده از تاخیر و همچنین تست فیلیپس-پرون اجرا کردم و نتایج مشابهی به دست آوردم. آیا کسی می داند که چرا ADF چنین نتایجی را ارائه می دهد و علت این ناهنجاری چیست؟
تضاد خروجی دیکی فولر افزوده شده در Stata
27138
من علاقه مند به تعیین این هستم که آیا تصمیم گیری یک نهاد دولتی خاص پاسخگوی سیاست ها و تغییرات قانونی است که در مقاطع زمانی مشخص رخ داده است یا خیر. من می توانم تصمیمات این نهاد را به عنوان 1) پیشنهاد رد شده طبقه بندی کنم. 2) پیشنهاد اصلاح شده پذیرفته شده؛ 3) پیشنهاد پذیرفته شده (بدون تغییر). من می‌توانم سیاست یا تغییرات قانونی را به‌صورت دوگانه طبقه‌بندی کنم - برای مثال، «با مقررات‌زدایی» و «بدون مقررات‌زدایی». مدل مداخله ای که در این سوال قبلی مورد بحث قرار گرفت - اثر کمی یک متغیر طبقه بندی شده در تحلیل سری های زمانی \- بسیار مرتبط به نظر می رسد، اما فکر می کنم تفاوت های مهمی بین مجموعه داده من و مجموعه داده توضیح داده شده در آنجا وجود دارد: 1. در سوال مرتبط، OP یک متغیر پاسخ پیوسته داشت. در مورد من، می‌توانم متغیر مقوله‌ای «تصمیم» را انتخاب کنم و آن را به یک متغیر پیوسته «نرخ پذیرش» یا «نرخ رد شده» تبدیل کنم، اما 2. زمان‌بندی متغیر پاسخ ممکن است به راحتی کدگذاری نشود. بین زمان درخواست تصمیم از ارگان دولتی و زمانی که این نهاد این تصمیم را گرفته است، فاصله وجود دارد و این تأخیر از مشاهده ای به مشاهده دیگر متفاوت است. علاوه بر این، تصمیم‌گیری‌ها عموماً به صورت دسته‌ای اتفاق می‌افتند (پدیده‌ای که من نمی‌توانم به راحتی توضیح دهم) - یعنی طرحی از فواصل مورد استفاده برای اندازه‌گیری «نرخ پذیرفته‌شده» تغییرات قابل‌توجهی در N از بازه‌ای به بازه دیگر دارد. به طور کلی، من علاقه مندم که آیا اصلاحی در مدل مداخله شرح داده شده در لینک بالا وجود دارد که باید آن را بررسی کنم یا هر مدل دیگری که ممکن است مرتبط باشد؟ یکی از همکاران ARIMAX را پیشنهاد کرد که من چیزی در مورد آن نمی دانم. پیشاپیش از هرگونه کمکی که ممکن است بتوانید ارائه دهید متشکریم.
مدلی که باید در ارزیابی پاسخگویی یک متغیر طبقه بندی به تغییرات سیاست در طول زمان استفاده شود؟
27136
درصد زنان آمریکایی 25 ساله و بالاتر که 4 سال یا بیشتر از کالج را به پایان رسانده اند 26.1 است. در یک نمونه تصادفی متشکل از 200 زن آمریکایی که حداقل 25 سال دارند، احتمال اینکه حداکثر 50 نفر 4 سال یا بیشتر از دانشگاه را به پایان برسانند چقدر است؟
چگونه یک احتمال دو جمله ای را محاسبه کنیم؟
32876
من در حال حاضر یک مجموعه داده دارم، کلاس 1 با حدود 8000 فایل متنی کوتاه و کلاس 2 با حدود 3000 فایل متنی کوتاه. من LibSVM را اعمال کردم و چند ترکیب پارامتر را در آزمایش اعتبارسنجی متقابل امتحان کردم. به طور کلی دقت کلاس 1 در محدوده (85٪، 90٪) قرار می گیرد. دقت کلاس 2 در محدوده (70٪، 75٪) قرار می گیرد. فراخوانی کلاس 1 و کلاس 2 در محدوده (80٪، 85٪) قرار می گیرد. برای مقاصد طبقه بندی متن، فضای ویژگی متن را با پیروی از رویکردهای رایج ساختم، نشانه گذاری سند، فیلتر کردن کلمات توقف و ساخت کلمه برداری با استفاده از tf-idf یا فرکانس باینری و غیره. همچنین مدل n-gram را برای ساخت فضای ویژگی امتحان کردم. . اما این رویکردها عملکرد را چندان بهبود ندادند. می‌خواهم بدانم آیا راه‌های دیگری وجود دارد که می‌تواند به تنظیم LibSVM برای بهبود عملکرد کمک کند. LibSVM جستجوی شبکه ای را برای تنظیم پارامتر فراهم می کند، اما بسیار کند اجرا می شود.
ماشین بردار پشتیبانی برای طبقه بندی متن
25409
**ویرایش** من با تکنیک‌های تشخیص الگو بازی می‌کنم و صرفاً برای درک ساده‌تر آن، سعی کردم طبقه‌بندی‌کننده‌ای ایجاد کنم که رشته‌ها را بر اساس تعداد فرکانس احتمالی در برچسب‌های A,B,C به 3 کلاس دسته‌بندی می‌کند. هر برچسب نشان دهنده تسلط حروف است، به این معنی که اگر یک رشته با طول ثابت L=8 حاوی حداکثر A باشد، آن را در زیر A و غیره طبقه بندی می کنیم. بنابراین، این نتایج عددی ویژگی ها را تشکیل می دهند. آیا کدی وجود دارد که هنگام استفاده از همان نمونه و مجموعه آموزشی که نقاط داده هستند، میزان موفقیت طبقه‌بندی‌کننده‌ها را رسم کرده و نشان دهد. نقاط داده ویژگی هایی هستند که تعداد فرکانس حروف در یک رشته را نشان می دهند. من علاقه مند به استفاده از k-NN، Classifier Bayes و تجزیه و تحلیل اجزای تکه ای (PCA) هستم. من از تابع اعتبار متقاطع آگاه هستم اما نمی توانم از آن برای این منظور استفاده کنم. 3 کلاس وجود دارد که هر کدام شامل 100 ردیف داده تک ستونی و یک نمونه ناشناخته با اندازه یکسان است. 1. مسئله فقط تأیید این است که آیا همه کلاس های عمومی دیگر نیز همین اعداد احتمالی را به عنوان ویژگی های خود دارند؟ اگر چنین است، پس چگونه با k-NN کار کنیم زیرا فاصله بین رشته ها را محاسبه می کند (در حالت htis حدس می زنم که به سادگی مقادیر asscii یا اقلیدسی باشد) و طبقه بندی کننده من تعداد فرکانس را محاسبه می کند. 2. ویژگی های k-NN، Bayes، و PCA چه خواهد بود؟ 3. برای k-NN آیا k=تعداد کلاس ها -1 است؟ 4. من ROC را برای طبقه‌بندی‌کننده‌ام رسم کرده‌ام و همانطور که طراحی پیش می‌رود، یک رشته قطعاً تحت یکی از کلاس‌ها طبقه‌بندی می‌شود. بنابراین، هر منحنی ROC یک کلاس را نشان می‌دهد، بنابراین 3 منحنی از این قبیل وجود دارد. آیا این رویکرد درست است. ? 5. چگونه می توان با ROC مقایسه ای برای هر 4 طبقه بندی کننده اقدام کرد؟
چگونه می توان عملکرد موفقیت طبقه بندی کننده را پیدا کرد؟
69889
به‌عنوان یک غیرآمار، برای تفسیر الزامات قابلیت اطمینان دو بخشی مشخص شده توسط مشتری که فکر می‌کنم KS را شامل می‌شود، به کمک نیاز دارم. بخش الزامی 1 R [4 سال] باید بزرگتر یا مساوی 0.95 باشد و R[8 سال] باید بزرگتر یا مساوی 0.85 باشد. مورد نیاز در قطعه A زیر. پارامتر شکل 1.664 و عمر مشخصه 23.844 برای این توزیع است. ![Plot A\]!\[توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bY5JN.png) الزامات قسمت 2 سطح اطمینان باید 90٪ در هنگام نشان دادن نیاز قسمت 1 از طریق عمر محصول باشد. تست کردن این قسمت 2 است که من کمی در آن متزلزل هستم. در صفحه 8-54 MIL-HDBK-338B (http://www.sre.org/pubs/Mil-Hdbk-338B.pdf) جدولی وجود دارد که مقادیر «d» بحرانی KS را به عنوان اندازه نمونه تابع، N نشان می دهد. و سطح معنی داری، آلفا (به نمودار صفحه 8-57 نیز توجه کنید). از این جدول من مقدار d 0.264 را بر اساس مقدار معنی داری 0.10 و اندازه نمونه 20 گرفتم. نمودار B زیر نتیجه من را نشان می دهد. تفسیر من از پلات B این است که پس از اجرای آزمایش عمر بر روی 20 نمونه که اگر نمودار قابلیت اطمینان حاصل از مرز پایین نشان داده شده در نمودار B قرار نگیرد، ما الزامات را برآورده کرده ایم. ![Plot B\]!\[توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ilZqf.png) من دو سوال دارم: 1. آیا هنگام استفاده از یک مورد نیاز قسمت 2 را به درستی ترجمه کردم آلفای 0.10 برای به دست آوردن مقدار بحرانی KS 0.264؟ به عبارت دیگر، آیا اطمینان 90٪ با اهمیت 0.10 در زمینه KS برابر است؟ اگه نه کسی میتونه راهنمایی کنه؟ 2. _you_ نمودار B را چگونه تفسیر می کنید؟ با تشکر فراوان. * * * پاسخ به پاسخ owensmartin از پاسخ شما متشکرم. من جمله شما استدلال شما نادرست نیست را به عنوان یک رای اعتماد بزرگ در نظر خواهم گرفت. من فقط چند مورد در زیر دارم که از نظرات هر کسی در مورد آنها سپاسگزارم. الف حق با شماست که توابع قابلیت اطمینان من نیز توابع بقا هستند. من معتقدم که منحنی اسمی صرفاً تعریف CDF اسمی است. ب اگرچه من قدرت آماری را محاسبه نکرده ام، اما وقتی می گویید در این حجم نمونه بسیار کم است تعجب نمی کنم. با این حال مشتری ما با اندازه نمونه 20 و در نتیجه قدرت کم حاصله راحت است. ج مشتری ما همچنین با استفاده از راهنمای نظامی ارجاع شده و مقادیر مهم KS مرتبط که در آن نشان داده شده است، راحت است، حتی اگر آنها تقریبی باشند. همانطور که زمان اجازه می دهد، امیدوارم یاد بگیرم که چگونه این مقادیر حیاتی را دقیقا محاسبه کنم تا مجبور نباشم به مقادیر کتاب راهنما تکیه کنم. د برای پاسخ به سؤال شما که آیا واقعاً به فیت Weibull نیاز دارم؟ پاسخ کوتاه منفی است زیرا هیچ چیز «جادویی» خاصی در مورد توزیع Weibull وجود ندارد. پاسخ کمی طولانی تر این است که من مطمئن نیستم که چگونه می توان منحنی بقای اسمی را تولید کرد که بتوانم مقدار d 0.264 را روی آن اعمال کنم. منحنی اسمی نشان داده شده در نمودار B با حل دو معادله همزمان برای پارامتر شکل و عمر مشخصه با دانستن اینکه R[4] = 0.95 و R[8] = 0.85 نیازها را برآورده می کنند، ساخته شد. این در نمودار A نشان داده شده است. من گمان می کنم که سایر انواع توزیع رایج ممکن است نتوانند هر دوی این الزامات را به طور همزمان برآورده کنند. اما به دلیل انعطاف ذاتی Weibull، قادر است. ه. برای اطمینان از اطمینان 90 درصد، من فکر می کنم تا زمانی که توزیع برازش حاصل از آزمایش عمر 20 نمونه از مرز پایین نشان داده شده در نمودار B پایین نیاید، آیا شما موافقت می کنید که می توانیم بگوییم که 90 درصد مطمئن هستیم که به آن رسیده ایم. الزامات اعلام شده؟ تنها استثنایی که می‌توانم در این مورد ببینم این است که هنگام برازش داده‌های آزمون به یک توزیع، اگر درجه برازش آنقدر ضعیف باشد که اعتبار آن را زیر سوال ببرد. اما در حل مسائل مهندسی، این همیشه به عنوان یک دغدغه وجود دارد که باید با آن برخورد کرد. f. با توجه به نتایج تست ناموفق و عدم موفقیت، ما معمولاً تلاش می‌کنیم تا هر یک از 20 نمونه با شکست مواجه شوند تا بتوانیم با عدم قطعیت اضافه مرتبط با نقاط داده سانسور شده یا معلق جلوگیری کنیم. ما این را از طریق روش‌های آزمایش عمر تسریع‌شده به دست می‌آوریم که اساساً با افزایش چرخه کار و/یا مقدار (های) تنش، زمان را فشرده می‌کند. با تشکر از هر گونه بینش بیشتر در این مورد.
تفسیر توزیع‌های تولید شده با ارزش بحرانی Kolmogorov-Smirnov
23800
یک مقدار در مقایسه با فهرستی از مقادیر چقدر مهم است؟ در بیشتر موارد، آزمون آماری شامل مقایسه یک مجموعه نمونه با یک جامعه است. در مورد من نمونه با یک مقدار ساخته شده است و ما آن را با جامعه مقایسه می کنیم. من در آزمون فرضیه‌های آماری سخت‌گیر هستم و شاید با اساسی‌ترین مشکل روبرو هستم. این فقط یک تست نیست بلکه صدها تست است. من یک فضای پارامتر دارم و باید برای هر نقطه یک تست معناداری انجام دهم. هم مقدار و هم لیست پس زمینه (جمعیت) برای هر ترکیب پارامتر ایجاد می شود. سپس من این را با p-value سفارش می دهم و ترکیب پارامترهای جالبی را پیدا می کنم. در واقع، یافتن ترکیبات پارامترهایی که این p-val زیاد است (بی اهمیت) نیز مهم است. بنابراین بیایید یک تست واحد انجام دهیم: من یک مقدار محاسبه شده از یک مجموعه انتخاب شده و یک مجموعه پس زمینه از مقادیر که با انتخاب یک مجموعه آموزشی تصادفی محاسبه می شود، دارم. مقدار محاسبه شده 0.35 است و مجموعه پس زمینه (احتمالا؟) به طور معمول با میانگین 0.25 و std بسیار باریک (e-7) توزیع می شود. من در واقع دانشی در مورد توزیع ندارم، زیرا نمونه ها از چیز دیگری محاسبه می شوند، آنها نمونه های اعداد تصادفی از برخی توزیع ها نیستند، بنابراین پس زمینه کلمه درستی برای آن است. فرضیه صفر این خواهد بود که میانگین آزمون نمونه برابر است با مقدار محاسبه شده من، 0.35. چه زمانی باید این را یک تست Z یا یک تست T در نظر بگیرم؟ من می خواهم مقدار به طور قابل توجهی بالاتر از میانگین جمعیت باشد، بنابراین این یک آزمون تک دنباله است. من در مورد اینکه چه چیزی را به عنوان نمونه در نظر بگیرم کمی سردرگم هستم: من یا یک نمونه از یک (مشاهده) و فهرست پیشینه به عنوان جامعه دارم یا نمونه من لیست پس زمینه است و من آن را با کل (بدون نمونه) مقایسه می کنم. جمعیتی که طبق فرض صفر باید میانگین یکسانی داشته باشند. پس از تصمیم گیری، آزمون به جهات مختلف می رود. اگر آزمون T است، چگونه p-value آن را محاسبه کنم؟ من می خواهم به جای استفاده از تابع R/Python/Excel آن را خودم محاسبه کنم (من قبلاً می دانم چگونه این کار را انجام دهم) بنابراین ابتدا باید فرمول صحیح را ایجاد کنم. برای شروع، من گمان می‌کنم که آزمون T کمی بیش از حد کلی باشد، زیرا در مورد من، آزمون T به حجم نمونه مرتبط می‌شود و این شکل را دارد: $$T=Z/s، $$ که در آن $$ Z=\frac{\bar{X}}{\frac{\sigma}{\sqrt{n}}}$$ و s $$s=\hat{\sigma}/\sigma$$ است، std نمونه در مقابل جمعیت std. بنابراین من دو حالت دارم: یا حجم نمونه من اندازه جامعه است، که حدس می زنم به این معنی است که با یک آزمون Z سر و کار دارم، یا آمار جامعه (n و std) ناشناخته است اما توزیع می تواند در تا حدودی تقریبی است و من واقعاً با یک آزمون تی سروکار دارم. در هر صورت سوالات زیر عبارتند از: 1. چگونه یک مقدار p را محاسبه کنم؟ (یعنی از تابع R/Python/Excel یا جستجوی جدول p-value استفاده نمی‌کنم، اما در واقع آن را بر اساس یک فرمول محاسبه می‌کنم، زیرا می‌خواهم بدانم چه کاری انجام می‌دهم) اندازه نمونه (یک فرمول خوب خواهد بود)
آزمون آماری برای مقداری که به طور قابل توجهی دورتر از جامعه است، به این معناست: آیا این یک آزمون Z است یا یک آزمون T؟
23803
1. من از libsvm و اعتبارسنجی متقاطع 3 برابری برای انتخاب بهترین C و گاما استفاده می‌کنم، اما مطمئن نیستم که محدوده مورد نظر در جستجوی شبکه استفاده شود. آیا روش استانداردی برای انتخاب این محدوده وجود دارد؟ من از log2c =(-10:3:4) و log2g=exp(-10:3:4) استفاده کردم. نقطه برای من؟ متشکرم
جستجوی شبکه و تحمل در libsvm
110966
من از PBmodcomp از pbkrtest برای مقایسه مدل بوت استرپ پارامتریک استفاده می کنم. با این حال، برای برخی از مقایسه‌ها، پیام هشداری مبنی بر عدم تلاقی مدل‌ها ظاهر می‌شود. نمونه‌ای از اسکریپت R برای مدل‌های lemr من را می‌توانید در اینجا پیدا کنید: http://stackoverflow.com/questions/25111939/error-runnning-parametric-bootstrap-pbmodcomp-on-lmer-objects modelfit.04b[[1] <- PBmodcomp(output.04b[[1]], output.04a[[1]]) پیام های هشدار: 1: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل همگرا نشد: Hessian degenerate با 1 مقدار ویژه منفی 2: در checkConv(attr(opt، مشتقات )، opt$par، ctrl = control$checkConv، : مدل همگرا نشد: Hessian منحط با 1 مقدار ویژه مدلfit.04b[[1]] تست بوت استرپ پارامتریک: 611.59 sec: 1000 extreme : y ~ age_c + gender_R2 + ibphdtdep + apoeduce + age_c * ABCA7_carrier + ABCA7_carrier * apoegeno + age_c * ABCA7_carrier * apoegeno + (age_c | pathid) کوچک : y ~ age_c + gender_R2 + ibphdtdep + iyeareducc + apoegeno + age_c + AB_car ABCA7_carrier + (سن_ج | pathid) stat df p.value LRT 6.5422 4 0.1621 PBtest 6.5422 0.1568 مدل های من هیچ مشکلی با همگرایی خارج از بوت استرپ ندارند. بنابراین سؤال من این است که آیا این روی p.value که من از تابع PBmodcomp دریافت می کنم تأثیر می گذارد؟ آیا هنوز معتبر است؟ با تشکر
خطاهای همگرایی در بوت استرپ های پارامتریک (PBmodcomp) مدل های lmer
93740
من روی پروژه‌ای کار می‌کنم که در آن حضور/غیاب تعدادی از پرندگان و گونه‌های هرپتیل را بین تالاب‌هایی که سه درمان مختلف دریافت کرده‌اند، مقایسه می‌کنم. جمعیت ها در دو سال مختلف بررسی شدند. بنابراین متغیر پاسخ یک متغیر دسته‌بندی باینری است و متغیرهای پیش‌بینی‌کننده (تصفیه تالاب و سال نمونه‌برداری) نیز دسته‌بندی هستند. وضعیت کمی پیچیده‌تر می‌شود، زیرا برنامه‌های نمونه‌گیری متفاوتی بین دو سال استفاده می‌شد، که در نتیجه حجم نمونه‌های متفاوتی بین دو سال به وجود آمد. من به دنبال مدل‌سازی حضور/غیبت حیوانات با استفاده از تابع glm() در R هستم، اما مطمئن نیستم که آیا ممکن است رویکرد مناسب‌تری وجود داشته باشد؟
استفاده از مدل های لاگ خطی برای داده های حضور/غیاب در حیات وحش
74691
من اطلاعاتی از شرکت خود دارم که در حال بررسی آنها هستم. من معاملاتی را که باخته کرده ایم با معاملاتی که برنده شده ایم مقایسه می کنم. من میانگین‌های محصول و انحراف استاندارد را مقایسه کرده‌ام و دریافته‌ام که میانگین و انحراف استاندارد (برای برخی صنایع) برای معاملات از دست رفته کمتر است. ما هر محصول را با قیمت‌های تعیین‌شده می‌فروشیم، اما محصولات در صورت درخواست می‌توانند تخفیف‌های ویژه‌ای داشته باشند که باعث قیمت‌های تصادفی می‌شود. برخی از محصولات بسته به مشتری بالاتر یا کمتر فروخته می شوند. وقتی به داده‌ها نگاه می‌کنم، قیمت‌ها کمی منحرف شده‌اند، اما به نظر می‌رسد که به طور معمول توزیع می‌شوند. آیا این بدان معناست که می توانم قیمت را تصادفی در نظر بگیرم و قضیه حد مرکزی را اعمال کنم؟ همچنین، اگر بتوانم محدوده را به طور معمول توزیع کنم، قیمت پایین تر تهاجمی تر را پیشنهاد خواهم کرد. آیا این منطقی است؟
آیا می توان قیمت فروش را به عنوان یک متغیر تصادفی در نظر گرفت؟
92299
من مجموعه نسبتاً تمیزی از داده ها (5410 سند) را برای آموزش یک طبقه بندی کننده متن جمع آوری کرده ام. اکنون در حال تلاش برای بهبود موفقیت در طبقه بندی خود هستم. (توجه: وقتی طبقه‌بندی‌کننده را از روی داده‌های درون نمونه آموزش دادم/آزمایش کردم، امتیاز بسیار خوبی کسب کردم. اکنون که از داده‌های خارج از نمونه استفاده می‌کنم، موفقیت من حدود 25 درصد کاهش یافته است. خبر بد، اما غیرمنتظره نیست. مجموع ML newb.) آیا داشتن توزیع مساوی (یا مساوی) اسناد آموزشی موفقیت طبقه بندی را بهبود می بخشد؟ به عنوان مثال، اگرچه من فقط شش دسته دارم - برچسب های A، B، C، D، E، F - تعداد اسناد آموزشی من برای هر برچسب بسیار متفاوت است، به عنوان برچسب A = 328. برچسب B = 1,973; برچسب C = 148; برچسب D = 822; برچسب E = 40; و برچسب F = 1242. نظری هست؟؟ (توجه: من در واقع نمی دانم که آیا این توزیع نماینده چیزی است که من احتمالاً خارج از نمونه می بینم یا خیر. آیا الگوریتم ایده آلی برای کمک به این عدم قطعیت وجود دارد؟) در حال حاضر من از Scikit`svm.LinearSVC( )` طبقه بندی کردن. از شما برای هر بینش متشکرم!
تفاوت در تعداد اسناد (نقاط داده های آموزشی) چگونه بر طبقه بندی متن تأثیر می گذارد؟
27137
این پاورقی توسط افرون در فصل کنترل نرخ کشف نادرست ظاهر می‌شود: > من سعی می‌کنم از عبارت «مهم» برای موارد رد شده به عنوان اصطلاحات مشکوک حتی در آزمایش‌های تک موردی، و بدتر از آن در زمینه نرخ کشف نادرست اجتناب کنم. ترجیح دادن به جای جالب. \--Bradley Efron > Large Scale Inference 2010, p.47 دلایل موافق و مخالف پذیرش این تغییر در نامگذاری چیست؟ آیا مهم است که چنین آماردان برجسته ای از اهمیت اجتناب می کند؟ به‌ویژه زیست‌پزشکی و مراقبت‌های بهداشتی حوزه‌هایی هستند که شواهد کمی عمدتاً بر اساس مطالعات ارتباطی، اعم از RCT یا مشاهده‌ای، استوار است. پیوندها بین درمان ها و پیامدها، یا نشانگرهای زیستی و وضعیت بیماری، به چارچوب آزمون فرضیه بستگی دارد. آیا استفاده از جالب در مقیاس بزرگ می تواند باعث تجدید نظر در قدرت شواهد مرتبط با چنین پیوندهایی شود، حتی اگر P-value یا z-scores هنوز هم نتایج را کمی کنند؟
در یک صفت چیست؟ مهم افرون --> جالب
55018
**سناریوی فرضی**: چند متغیر پیوسته که هر کدام به طور مکرر در مثلاً 12 نقطه زمانی اندازه گیری می شوند که هر کدام مثلاً 150 مشاهده دارند. نوسانات کوچکی از یک نقطه زمانی به نقطه دیگر وجود دارد (یعنی تغییر چندان هموار نیست)، اما متغیرها تغییرات کلی مربوط به زمان را نشان می‌دهند. **سوال**: گزینه های مختلف و مزایا و معایب آنها در ترسیم و ارائه تغییر در چنین داده هایی چیست؟ اگر بتوان نمودارها/کدهای نمونه را ضمیمه کرد بسیار عالی خواهد بود. این احتمالاً یک سؤال بسیار مبهم و کلی است، و من می‌دانم که بسیار به آنچه که می‌خواهد برجسته کند، نوع تحلیل‌های انجام شده، تعداد نقاط زمانی، تعداد مشاهدات و غیره بستگی دارد. اما بسیار مفید خواهد بود. برای داشتن ایده ای که مردم معمولاً چگونه داده های طولی خود را ترسیم می کنند و چه گزینه های (خوب) در دسترس هستند. من به ویژه علاقه مند به شنیدن گزینه هایی برای برجسته کردن تغییرات مربوط به زمان با تفاوت های فردی (مانند تغییرپذیری در هر نقطه زمانی و تغییر در مسیر منحنی رشد) در این تغییرات هستم. برای علاقه مندان، در اینجا 100 مشاهده به طور تصادفی از یک بخش از 12 نقطه زمانی برای بازی انتخاب شده است. موارد مفقود به عنوان NA کدگذاری شدند و داده ها به طور گسترده ساختار یافته بودند.
ترسیم و ارائه داده های طولی، گزینه ها؟
55019
من در تحلیل رگرسیون تازه کار هستم. بنابراین، اگر لطف کنید به من کمک کنید تا یک مدل برای مجموعه داده‌ام تنظیم کنم، سپاسگزار خواهم بود. به طور خلاصه، من تصاویری از چشم های بیمار (10) و تصاویر چشم کنترل (25) دارم. من 167 ویژگی آماری از همه این چشم ها را ایجاد کردم تا متمایزترین ویژگی ها یا درجاتی را که بتوانم همه ویژگی ها را از هم متمایز کنم، بیابم. من همچنین لایه ضخیم را دارم که در آن این فرض وجود دارد که با کاهش ضخامت، بیماری رخ می دهد. من متوجه شدم که باید یک تحلیل رگرسیون چندگانه انجام دهم: با استفاده از مقادیر ضخامت چشم به عنوان متغیر وابسته و 167 ویژگی به عنوان متغیر مستقل. من همه مقادیر را بین 0 تا 1 مقیاس کردم. نمی دانم چگونه در Matlab شروع کنم. من از دستور 'regress' استفاده کردم اما پاسخ کاملاً برای من درست نبود. لطفاً راهنماییم کنید که آیا مدل درست است و در مرحله بعد چه کار کنم، چگونه نتایج را ارائه دهم.
رگرسیون خطی چندگانه
28651
در یک مدل رگرسیون خطی منظم (به عنوان مثال، رگرسیون پشته، کمند، و غیره)، بهترین راه برای به دست آوردن خطاهای استاندارد برای تخمین پارامترها چیست؟ اگر از اعتبارسنجی متقاطع استفاده شود، آیا تخمین خطای استاندارد برای هر پارامتر به عنوان انحراف استاندارد در بین چین‌ها از نظر آماری صحیح است؟
خطای استاندارد تخمین پارامترها در رگرسیون منظم
32295
آیا تابعی در R وجود دارد که با همه توزیع‌های آماری مطابقت داشته باشد و بهترین برازش را بر اساس log-relihood و آماره Kolmogorov-Smirnov D (KSD) انتخاب کند؟ مانند نرم افزاری به نام EasyFit
برازش تمام توزیع های آماری در R و انتخاب بهترین تناسب
100836
من در حال حاضر در حال انجام مطالعه ای در مورد وام مسکن معکوس برای پایان نامه کارشناسی ارشد خود هستم و می خواهم یک متغیر بازه ای را به ترتیبی تبدیل کنم تا تحلیل رگرسیون پروبیت ترتیبی را اجرا کنم. متغیر فاصله من این است: وام مسکن معکوس به طور کلی معامله خوبی است --> مقیاس لیکرت 1-7 (که در آن 1 = کاملاً مخالف، 4 = خنثی، 7 = کاملاً موافقم). چگونه می توانم این متغیر را تبدیل کنم؟
یک متغیر بازه ای را در SPSS به ترتیبی تبدیل کنید
32290
بیشتر یک سوال زیبایی شناسی مربوط به ارائه داده های آماری است، فرض کنید که 2 مجموعه داده دارید، وزن سرعت a 2.2 500 b 4.7 222 c 7.3 999 d 3.1 1000 بنابراین اگر سرعت ها و وزن ها را بر روی نمودار میله ای مشابه رسم کنید، خواهید دید میله های ریز و موزون را برای همه مقادیر سرعت دریافت کنید (که آنها را ناخوانا می کند). با این حال، داده ها باید با هم مشاهده شوند، زیرا رابطه ای بین سرعت و وزن وجود دارد که می خواهید نشان دهید. چیزی که من به آن رسیدم نمودارهای میله ای مجاور بود: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/5wiME.png) اما به نوعی اضافی به نظر می رسد، با محورهای مکرر آنجا.
چگونه می توان دو نمودار میله ای را با مقیاس های بسیار متفاوت تجسم کرد بدون اینکه زائد به نظر برسد
32297
تفاوت بین Superpopulation و Infinite جمعیت چیست؟ لطفا این را با مثال توضیح دهید. با تشکر
تفاوت بین ابرجمعیت و جمعیت بی نهایت
25404
برای توزیع برنولی با پارامتر p، تعداد آزمایش‌هایی با احتمال 50 درصد حداقل یک موفقیت در حدود (1/p) * ln(2) است. اما مقدار مورد انتظار توزیع هندسی مربوطه 1/p است. به طور شهودی انتظار دارم که آنها یکسان باشند (1/p). چه چیزی را از دست داده ام؟
چرا مقدار مورد انتظار تعداد آزمایشات قبل از اولین موفقیت بزرگتر از تعداد آزمایشات با احتمال موفقیت 50 درصد است؟
32128
آیا نمونه ای وجود دارد که چگونه می توانم از توزیع پیش بینی قبلی (بدون داده) در جاگ ها نمونه برداری کنم؟ من می‌خواهم درک بهتری از سهم قبلی در یک مدل چندسطحی با استفاده از jags داشته باشم. من احتمالاً می‌توانم یک شبیه‌سازی را به‌صورت دستی با استفاده از R تنظیم کنم، اما از آنجایی که من قبلاً روابط توزیعی را به صورت jags تنظیم کرده‌ام، اگر بتوانم آن را بدون تنظیم کد شبیه‌سازی تکراری در R انجام دهم، ترجیح داده می‌شود.
چگونه از توزیع پیش بینی قبلی در جاگ ها نمونه برداری کنیم؟
74692
من در یک کلاس آمار مقدماتی هستم که در آن تابع چگالی احتمال برای متغیرهای تصادفی پیوسته به صورت $P\left\\{X\in B\right\\}=\int_B f\left(x\right)dx تعریف شده است. $. من می‌دانم که انتگرال $\int\limits_a^af(x)dx=0$ است، اما نمی‌توانم آن را با شهود خود از یک متغیر تصادفی پیوسته اصلاح کنم. می گوییم X متغیر تصادفی برابر با تعداد دقیقه از زمان t است که قطار می رسد. چگونه می توانم احتمال رسیدن قطار را دقیقاً 5 دقیقه دیگر محاسبه کنم؟ چگونه این احتمال می تواند صفر باشد؟ امکانش نیست؟ اگر قطار دقیقاً 5 دقیقه دیگر برسد، اگر احتمال 0 داشته باشد چگونه ممکن است اتفاق بیفتد؟ با تشکر
احتمال اینکه یک متغیر تصادفی پیوسته یک نقطه ثابت را فرض کند
65832
من از نظر ریاضی می‌دانم که چگونه می‌توان ضرایب را در حداقل مربعات معمولی به دست آورد. چیزی که من با آن دست و پنجه نرم می کنم این است که یک توضیح مفهومی و هندسی برای بخش همبستگی ضریب رگرسیون خطی ساده ارائه دهم. فرض کنید معادله زیر را داریم: $$ y = \hat\beta_1x + \hat\beta_0 $$ که در آن $$ \hat\beta_1 = \frac{S_{xy}}{S^2_x} = r_{xy}\frac {S_y}{S_x} $$ and $$ \hat\beta_0 = \overline{y} - \hat\beta_1\overline{x} $$ اگر درست متوجه شده باشم، ما اساساً فقط تخمین‌هایی از اسپرد ($\hat\beta_1$) و تغییرات موقعیت ($\hat\beta_0$) دریافت می‌کنند که می‌تواند $x$ را به بهترین شکل ممکن به $y$ تبدیل کند (حداقل مربع). بنابراین از آنچه من می‌دانم، نسبت انحرافات استاندارد ($\frac{S_y}{S_x}$) باعث می‌شود که $x$ همان اسپرد $y$ را داشته باشد، و سپس تخمین $\beta_0$ $x را تغییر می‌دهد. $ به همان موقعیت $y$. چیزی که من از دست می دهم این است که همبستگی $r_{xy}$ در این تبدیل خطی انجام می دهد. اگر اسپرد و موقعیت $x$ را مانند بالا تغییر دهیم، $r_{xy}$ نشان دهنده چیست؟
تبیین مفهومی ضریب رگرسیون؟
23808
من از یک مدل رگرسیون خطی برای انجام استنتاج بر روی برخی از داده های مشاهده ای استفاده می کنم. نمونه ها از یک مطالعه مشاهده ای هستند و به شدت در امتداد برخی از متغیرهای ساختگی در رگرسیون منحرف شده اند. درک من این است که تا زمانی که خطاها نامرتبط باشند و واریانس نابرابر داشته باشند، مشکلی ندارد. پیش‌بینی‌های مربوط به مناطق ضعیف نمونه‌گیری شده متغیر مستقل ممکن است خیلی دقیق نباشد، اما نباید بر اعتبار استنتاج تأثیر بگذارد. آیا این درست است؟
آیا مشکلاتی در استنتاج با استفاده از رگرسیون خطی روی داده‌های مشاهده‌ای با توزیع بسیار اریب مقادیر پیش‌بینی‌کننده وجود دارد؟
57325
من از بسته «scatter.smooth» در R استفاده می‌کنم، و می‌خواهم یک متن شکلی داشته باشم که خط در نمودار پراکندگی را برای گزارش من توصیف کند. آیا درست است که بگوییم خط یک منحنی صاف است که توسط LOESS تعبیه شده است (_ارجاع به بسته_) یا نیاز به توضیح بیشتر دارم؟ (این یک پایان نامه کارشناسی ارشد مهندسی نرم افزار است) وگرنه چگونه می توانم خط را در یک جمله کوتاه توصیف کنم؟
آیا گفتن منحنی صاف متناسب با LOESS صحیح است؟
56091
من یک متغیر تکی دارم که مقادیر جمعیت من را نشان می دهد (نمونه داده): [1] 94.51 59.81 63.84 94.51 94.51 94.51 94.51 94.51 94.51 94.51 [11] 59.81 94.51 94.51 29.16 50.36 23.51 44.41 33.14 [21] 47.90 29.16 47.90 29.16 47.90 29.16 47.90 29.16 47.90 29.14 29.16 29.16 ... 29.12 24.52 12.37 29.12 24.52 12.37 29.12 [341] 24.52 12.37 29.12 24.52 12.37 29.12 24.52 24.52 12.374 [341] 12.37. 29.12 24.52 12.37 45.25 25.78 49.84 29.12 24.52 12.37 [361] 29.12 24.52 12.37 29.12 24.52 12.37 29.12 $ خلاصه 1 ق. میانگین میانه 3rd Qu. حداکثر 6.11 35.94 59.13 62.31 86.10 111.50 > mean(group$V1) [1] 62.30546 > sd(group$V1) [1] 29.55491 هیستوگرام مربوطه این است: ![BitScore Histogram of the جمعیت](http://i.stack.imgur.com/Cp6dW.png) و تست نرمال بودن Shapiro: داده های تست نرمال بودن Shapiro-Wilk: group$V1 W = 0.9466، p-value = 3.161e-10 با آخرین اطلاعات نتیجه گیری من این است که جمعیت به طور معمول توزیع نشده است. هدف استخراج نمونه از این جامعه است، اما من برای استفاده از روشی برای تعیین حجم نمونه مشکل دارم، زیرا در برخی از روش ها این فرض بر اساس نرمال بودن جامعه است. (با توجه به این مرجع) نمونه لازم است این گروه را با یک گروه تصادفی با اندازه نمونه مشابه مقایسه کند و تک متغیری که باید ارزیابی شود بیت‌اسکور است. برخی از مراجع، پیشنهادات، رویکردها؟ پیشاپیش ممنون
اندازه نمونه برای توزیع غیر عادی اعمال شد
32291
طبق ویکی پدیا: $\mathrm{بتا}(\alpha,\beta) = \mathrm{گاما}(\alpha,\theta) / (\mathrm{گاما}(\alpha,\theta) + \mathrm{گاما} (\beta,\theta))$ با این حال، وقتی سعی می کنم این را در R شبیه سازی کنم: > m <- 2^11 > a <- گاما(m,1,1) / (رگاما(m,1,1) + گاما(m,1,1)) > quantile(a,1:9/10) 0.05576023 0.12110211 0.19886341 0.2908818185610.290881814510. 0.80151216 1.20748646 2.13406961 > qbeta(1:9/10,1,1) 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 این دو توزیع به نظر می رسند که در درصد کمتر و پایین تر یکسان به نظر نمی رسند. شاخص m. هر چند شبیه سازی برای $\alpha$ و $\beta$ بالاتر کار می کند. من متوجه شدم که از آنجایی که $\mathrm{Gamma}(1,1)$ با $\mathrm{نمایی}(1)$ یکسان است، تقسیم یک عدد نمایی بر مجموع دو عدد نمایی می تواند نتیجه ای بزرگتر از 1 ایجاد کند، در حالی که توزیع بتا فقط از اعداد واقعی در $(0,1)$ پشتیبانی می کند، بنابراین من نمی دانم چگونه فرمول بالا برای هر $\alpha$ و هر $\beta$ درست است. (حتی کوچک)؟ آیا من بین تابع گاما و توزیع گاما اشتباه گرفتم یا چیز دیگری است؟
اگر $X \sim \mathrm{Gamma}(\alpha,1)$ و $Y \sim \mathrm{Gamma}(\beta,1)$، $X/(X+Y) \sim \mathrm{بتا است }(\alpha,\beta)$?
32122
آیا منابعی وجود دارد که بتوانم عملکرد مدل‌های مختلف ML را که روی داده‌های مشابه اعمال می‌شوند، ببینم؟ در حال حاضر می‌خواهم تفاوت درک عملکرد/یادآوری بین رگرسیون لجستیک آنلاین mahout در مقابل Mallet MaxEnt، LibLINIEAR را درک کنم.
مقایسه بسته داده کاوی منبع باز
5354
من اطلاعاتی درباره پروازهای خطوط هوایی دارم (در چارچوب داده ای به نام «پروازها») و می خواهم ببینم آیا زمان پرواز تأثیری بر احتمال تأخیر قابل توجهی در رسیدن (به معنی 10 دقیقه یا بیشتر) دارد یا خیر. به این نتیجه رسیدم که از رگرسیون لجستیک استفاده می‌کنم، با زمان پرواز به عنوان پیش‌بینی‌کننده و اینکه آیا هر پرواز به طور قابل‌توجهی تأخیر داشته است یا نه (تعدادی از برنولی) به عنوان پاسخ. من از کد زیر استفاده کردم... flights$BigDelay <- flights$ArrDelay >= 10 delay.model <- glm(BigDelay ~ ArrDelay, data=flights, family=binomial(link=logit)) summary(delay.model ) ... اما خروجی زیر را دریافت کرد. > flights$BigDelay <- flights$ArrDelay >= 10 > delay.model <- glm(BigDelay ~ ArrDelay, data=flights, family=binomial(link=logit)) پیام های هشدار: 1: در glm.fit(x = X، y = Y، وزن ها = وزن، شروع = شروع، etastart = استارت، : الگوریتم انجام نشد همگرا 2: در glm.fit(x = X، y = Y، وزن = وزن، شروع = شروع، etastart = etastart، : احتمالات برازش عددی 0 یا 1 رخ داده است > خلاصه (delay.model) تماس: glm(فرمول = BigDelay ~ ArrDelay، خانواده = دو جمله ای (پیوند = logit)، داده = پرواز) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -3.843e-04 -2.107e-08 -2.107e-08 2.107e-08 3.814e-04 ضرایب: تخمین مقدار خطای z Pr(>|z|) (فاصله) -310.314. 0.0668. ArrDelay 32.86 1.833 0.0668 . 2.8375e+06 در 2291292 درجه آزادی انحراف باقیمانده: 9.1675e-03 در 2291291 درجه آزادی AIC: 4.0092 تعداد تکرارهای امتیاز دهی فیشر: 25 به چه معناست که الگوریتم همگرا نشد؟ من فکر می‌کردم به این دلیل است که مقادیر «BigDelay» به جای «0» و «1» «TRUE» و «FALSE» بودند، اما پس از تبدیل همه چیز، همان خطا را دریافت کردم. هر ایده ای؟
مدل رگرسیون لجستیک همگرا نیست
65838
من در حال خواندن ویکی‌پدیا و برخی یادداشت‌هایی هستم که در اینترنت پیدا کردم، و هنوز در مورد تعاریف آن‌ها خیلی روشن نیستم. هر دو مدل خطی عمومی و مدل رگرسیون خطی چند متغیره $$ Y = X\beta + e $$ را فرض می‌کنند که در آن $Y$ $n \بار q$ است، $X$ $n \times p$، $\beta$ است. $p \times q$ است و $e$ $n \times q$ است. $n$ اندازه نمونه، $p$ تعداد متغیرهای ورودی و $q$ تعداد متغیرهای خروجی است. مدل خطی کلی بیشتر چه چیزی را فرض می کند؟ مدل رگرسیون خطی چند متغیره بیشتر چه چیزی را فرض می کند؟ به عنوان مثال، در زیر چند فرض وجود دارد که می توانم در مورد مدل، به طور خاص، در ماتریس خطا $e$ به آن فکر کنم. * میانگین هر ورودی $e$ صفر است * هر دو ورودی $e$ در یک ستون اما سطرهای مختلف نامرتبط هستند * هر دو ورودی $e$ در ستون های مختلف و سطرهای مختلف نامرتبط هستند * همه ورودی های $ e$ در همان ستون اما سطرهای مختلف واریانس یکسانی دارند. اگر همه مفروضات بالا برقرار باشد، آیا می توان تخمین را برای هر متغیر خروجی جداگانه انجام داد؟ اگر همه مفروضات بالا صادق نیستند، آیا خوب است که برای هر متغیر خروجی به طور جداگانه تخمین زده شود؟ با تشکر
مفروضات در مدل خطی عمومی و در مدل رگرسیون خطی چند متغیره؟
37516
فرض کنید که من یک سیستم خطی دارم (مثلاً یک مدار الکتریکی) و سعی می کنم مقادیر پارامترهای موجود در سیستم (مانند مقاومت، اندوکتانس ها و خازن ها) را تخمین بزنم. من این کار را با اندازه‌گیری پاسخ سیستم به برخی سیگنال‌های ورودی (مثلاً یک تابع مرحله) انجام می‌دهم. اگر نویز در اندازه‌گیری نامرتبط و گاوسی بود، یک رویکرد واضح برای تخمین پارامتر استفاده از تخمین‌گر حداکثر درستنمایی است که به برازش حداقل مربعات (غیر خطی) کاهش می‌یابد. به اندازه کافی ساده با این حال، اگر اندازه گیری بسیار حساس باشد، به طوری که منبع اصلی نویز از اجزای داخلی سیستم (به عنوان مثال نویز جانسون در یک مقاومت) می آید، نویز در خروجی همبستگی خواهد داشت. این بدان معنی است که برآوردگر حداکثر درستنمایی برای پارامترها به یک روش حداقل مربعات ساده کاهش نمی یابد. من مطمئن هستم که مجموعه ای از شیوه های آماری و ادبیات به تخمین پارامتر برای سیستم هایی مانند این اختصاص داده شده است، اما مطمئن نیستم که از کجا شروع کنم. آیا کسی می تواند من را در جهت درست راهنمایی کند؟ **به روز رسانی** فقط می خواهم روشن کنم که اگرچه سیستم خطی است به این معنا که برهم نهی خطی دو سیگنال نیز یک سیگنال معتبر است، خروجی سیستم به عنوان تابعی از زمان مطمئناً خطی نیست. به طور کلی مقداری از نمایی است که در آن ضرایب جلوی هر نمایی تابعی از ثابت های زمانی مختلف است.
تخمین پارامتر برای سیستم خطی با نویز همبسته
25403
تصوری که من بر اساس چندین مقاله، کتاب و مقاله ای که خوانده ام این است که روش توصیه شده برای برازش توزیع احتمال بر روی مجموعه ای از داده ها با استفاده از تخمین حداکثر درستنمایی (MLE) است. با این حال، به عنوان یک فیزیکدان، یک راه بصری تر این است که فقط pdf مدل را با استفاده از حداقل مربعات به pdf تجربی داده ها تطبیق دهیم. پس چرا MLE در برازش توزیع های احتمال بهتر از حداقل مربعات است؟ آیا کسی می تواند به من یک مقاله/کتاب علمی که به این سوال پاسخ می دهد اشاره کند؟ تصور من به این دلیل است که MLE مدل نویز را در نظر نمی گیرد و نویز در pdf تجربی ناهمسان است و عادی نیست.
MLE در مقابل حداقل مربعات در برازش توزیع های احتمال
25400
من یک مدل بیزی اینجا در R/WinBUGS دارم. این داده پمپ دارای دو ستون زمان و خرابی است. هر مشاهده یک پمپ است و خرابی[1] نشان می دهد که در زمان چند خرابی وجود داشته است[1]. من می خواهم بدانم چگونه می توانم همین مدل را در SAS با استفاده از Proc MCMC بنویسم. متشکرم! پمپ <- تابع() { for(i در 1:10){ شکست[i] ~ dpois(lam[i]) تتا[i] ~ dgamma(a,b) lam[i] <- theta[i]* time[i] } a ~ dgamma(1.5،.25) b ~ dgamma(1.5،.25) } نام فایل <- file.path(tempdir(),'pump.bug') write.model(pump,filename) time <- pumps[,1] fail <- pumps[,2] data <- c('time','fail' ) پارامترها <- c('fail','lam','tta','a','b') pump.sim <- اشکالات(داده، inits=NULL، پارامترها، model.file='pump.bug'، n.iter=20000، n.burnin=1000، n.chains=1، n.thin=1، debug=T)
تجزیه و تحلیل بیزی در R/WinBUGS و SAS (Proc MCMC)
113199
آیا نوعی مدل آماری وجود دارد که بتوانم برای تعیین اینکه آیا زمان بر همبستگی بین دو مجموعه داده تأثیر دارد یا خیر استفاده کنم؟ به عنوان مثال بگویید من یک ستون $X$ و یک ستون $Y$ دارم، هر دو فقط ستون هایی از اعداد، و سپس یک ستون زمان. بنابراین هر ردیف دارای زمان، $X$ و $Y$ است. آیا نوعی تحلیل آماری وجود دارد که بتوانم انجام دهم که به من بگوید آیا زمان بر رابطه بین $X$ و $Y$ تاثیر دارد؟ برای اندازه گیری همبستگی بین دو متغیر، ضریب همبستگی پیرسون را اجرا کردم. من در اینجا کاملا حدس می زنم، اما برای مثال آیا می توانم بارها و بارها از همبستگی پیرسون برای بخش های مختلف زمان استفاده کنم و سپس به سادگی تعیین کنم که آیا تغییری در ضرایب همبستگی پیرسون وجود دارد یا خیر؟ آیا راه بهتری وجود دارد؟
تعیین اینکه آیا زمان بر همبستگی بین x و y تأثیر دارد یا خیر
32292
**زمینه**: اسرائیل (و به طور کلی خاورمیانه) مملو از اعتراضات است. من کنجکاو هستم، وقتی عکسی به من داده می شود، تخمین بزنم که چند نفر در آن عکس هستند (اغلب تصویری از جمعیت زیادی). چه مدل سازی می تواند راه حلی برای این مشکل ارائه دهد؟ (و البته، آیا می توان آن را با هر بسته منبع باز انجام داد. مثلاً، R؟)
چگونه تعداد افراد را در یک عکس از جمعیت اندازه گیری کنیم؟
37519
من سعی می کنم یک سری زمانی برای داده های نمونه برداری سه ماهه (زیست توده حیوانات) در یک دوره 10 ساله با 3 تکرار در هر سه ماهه اعمال کنم. بنابراین 40 تاریخ اما 120 مشاهده کل. من تا SARIMA'a را در تجزیه و تحلیل سری های زمانی Shumway و Stoffer و برنامه های آن و همچنین Woodward و غیره را مطالعه کرده ام. تجزیه و تحلیل سری های زمانی کاربردی al.، و درک من این است که هر مدل بر اساس یک مشاهده واحد در هر نقطه از سری زمانی است. پرسش: چگونه می توانم تغییر در هر مشاهده را در مدل خود لحاظ کنم؟ من می‌توانم مجموعه‌ای را بر اساس میانگین بسازم، اما در هر مشاهده تنوع را از دست می‌دهم و فکر می‌کنم این برای درک من از آنچه اتفاق می‌افتد بسیار مهم است.
ساخت یک سری زمانی که شامل مشاهدات متعدد برای هر تاریخ است
27132
من داده‌های شبکه اجتماعی دارم که در آن یک «خود» نام دوستی را «تغییر» می‌دهد. من یک رگرسیون در R اجرا می کنم که در آن ویژگی های تغییر پیش بینی کننده نتایج برای ego هستند. بنابراین هر مشاهده ای دوتایی با معیارهای متغیر هم برای خود و هم برای تغییر است. مشاهدات متعددی برای هر ایگو وجود دارد که با استفاده از یک مدل gee، خوشه‌بندی بر روی ego به حساب می‌آیند. مشکل این است که از من خواسته شده است که مشاهدات متعدد تغییر را نیز توضیح دهم، یا حداقل نشان دهم که وابستگی متقابل بین تغییرات متعدد بر نتایج نهایی تأثیر نمی گذارد. چندین تغییر یکسان در مجموعه داده و همچنین مضربی از همان ایگو وجود دارد. به نظر می رسد این دو گزینه نوعی خوشه بندی متقابل هستند و من مطمئن نیستم که در R امکان پذیر است یا خیر. گزینه دیگری که پیشنهاد شد اجرای یک همبستگی درون گروهی به نوعی بر روی باقیمانده های پیرسون بود که گروه ها تغییر دهنده هستند. برای هر مشاهده من نوعی ICC را در نظر گرفته بودم، اما تعداد دفعاتی که هر تغییر فردی در مجموعه داده نشان داده می شود از 1 تا 7 متغیر است. تا آنجا که من می توانم بگویم، ICC ها انتظار دارند که تعداد اقدامات برای هر گروه در مجموعه داده یکسان باشد. آیا کسی می داند که چگونه می توان یک همبستگی درون گروهی را انجام داد که بتواند گروه هایی را که در آنها تعداد اندازه گیری های متفاوتی وجود دارد مدیریت کند؟ من به صورت آنلاین نگاه کردم و به چیزی که به نظر می رسد به این موضوع رسیدگی کند ندیدم. پیشاپیش برای هر پیشنهادی متشکریم!
همبستگی درون گروهی باقیمانده های پیرسون
32294
من می دانم که برای رگرسیون خطی ساده، ضریب همبستگی نمونه جذر R^2$ است. اما این فقط برای یک رگرسیون ساده (یعنی تک متغیره) $Y=\beta_0+\beta_1X+\varepsilon$ است. رگرسیون چندگانه، به عنوان مثال، $Y=\beta_0+\beta_1X_1 + \beta_2X_2+\varepsilon$ چطور؟ آیا رابطه ای بین همبستگی های $corr(Y, X_1)$, $corr(Y, X_2)$ و رگرسیون $R^2$ وجود دارد؟ با تشکر
رگرسیون $R^2$ و همبستگی
37511
برای یادگیری ماشین نظارت شده برای پیش بینی، اگر چند متغیر ویژگی واقعی داشته باشم، و همچنین برخی از ویژگی های دسته بندی شده - که با استفاده از متغیرهای ساختگی (010، 001 و غیره) کدگذاری شده اند - متغیرهای واقعی را عادی کرده ام به طوری که هر کدام از آنها به یک می رسد. من نمی‌دانم قبل از اجرای روتین‌های اعتبارسنجی متقابل و روش‌های رگرسیون، چه نوع پیش‌پردازشی را برای بقیه ویژگی‌های طبقه‌بندی انجام دهم.
عادی سازی متغیرهای عامل طبقه بندی شده
9003
من حدود 10 متغیر در مورد محصولات دارم. من باید سفارش محصولات را بر اساس کیفیت رتبه بندی کنم. در حال حاضر، کیفیت چیز بسیار ذهنی است، بنابراین من تمام 300 محصول را توسط کارشناسان دامنه رتبه بندی کردم. اکنون 10 متغیر دارم و رتبه بندی توسط یک متخصص تعیین شده است. حدود 1 درصد محصولات باید عالی باشند، حدود 10 درصد باید بسیار خوب، 30 درصد باید خوب، 30 درصد باید متوسط ​​و بقیه زیر حد متوسط ​​هستند. از چه نوع تکنیک مدلسازی برای شکایت از این داده ها و ایجاد سیستمی استفاده می کنید که به طور خودکار قادر به طبقه بندی محصول در آن دسته ها و تقلید قضاوت متخصص باشد. با تشکر
مشکل ترتیب رتبه و/یا طبقه بندی
57321
می‌پرسیدم، وقتی فرض می‌کنم همه خطاها از نظر تصادفی مستقل هستند، چه اتفاقی برای ماتریس کوواریانس خطاها می‌افتد؟ آیا ماتریس کوواریانس ثابت است: $$\sigma^2I = \begin{bmatrix}\sigma^2 & ... & 0\\\\. & . &.\\\ 0 & ... & \sigma^2\end{bmatrix}$$ واقعاً از پاسخ شما سپاسگزارم!!!
وقتی خطاها مستقل باشند چه اتفاقی برای ماتریس کوواریانس می افتد؟
68218
اگر بخواهم از یک توزیع یکنواخت پیوسته با بازه $(a,b]$ نمونه برداری کنم، چگونه می توانم آن را در R انجام دهم؟ یا این دقیقاً مانند نمونه برداری از $(a,b)$ در R است. با استفاده از runif(1,min = a, max = b) ?
نمونه از توزیع یکنواخت پیوسته با بازه باز
57320
من در حال انجام تجزیه و تحلیل سری های زمانی هستم و می خواهم فاصله پیش بینی را محاسبه کنم. من 24 مقدار بعدی را برای سری زمانی خود پیش بینی کرده ام، اما اکنون می خواهم بازه پیش بینی آنها را نیز محاسبه کنم (مثلاً بازه 95٪). چگونه این کار را انجام دهیم؟ آیا کسی می تواند مراحل را به من نشان دهد؟ من یک پی دی اف در مورد این موضوع پیدا کردم، اما فقط نحوه ایجاد فاصله پیش بینی برای یک پیش بینی مرحله ای را نشان داد... اگر می خواهید ببینید این پی دی اف است... http://www.learningace.com/doc/ 2087382/d6c17c68ca3c0a03278d4a97276a0223/forecast- conf-int-11 ممنون از هر کمکی =) به روز رسانی به سوال: وقتی به سوال من پاسخ می دهید، لطفاً توضیح دهید که چه کاری باید انجام دهم و من را به یک بسته R یا چیز دیگری هدایت نکنید. میخوام بدونم دارم چیکار میکنم =) ممنون
چگونه فاصله پیش بینی برای پیش بینی 24 ساعته خود را محاسبه کنم؟
32123
برای یک شبیه سازی مبتنی بر عامل، باید تغییر درآمد یک فرد را در طول زمان مدل کنم. من به تازگی پاسخی در مورد توزیع احتمال درآمد دریافت کردم، بنابراین می توانم درآمد افراد را با t=0 تعیین کنم، اما درآمد آنها در طول زمان چگونه تغییر می کند؟ آیا این یک سری مارکوف است و اگر چنین است، چه پارامترهای معقولی برای آن مدل خواهد بود؟
مدل احتمالی برای تغییر درآمد فردی
23802
اجازه دهید $A$ و $B$ دو الگوریتم برای حل یک مسئله و $f(.)$ معیار ارزیابی راه حل ها باشد. من از $\frac{f(A(I))}{f(B(I))}$ برای یافتن عملکرد نسبی دو الگوریتم استفاده می کنم. هر دو $A$ و $B$ لیستی از اعداد مثبت را به عنوان ورودی می گیرند. من می خواهم نشان دهم که الگوریتم $A$ بسیار بهتر عمل می کند (در مقایسه با $B$) اگر ورودی $I$ دارای ضریب تغییرات بالاتر باشد. فرض کنید $X$ بردار ضریب تغییرات ورودی ها باشد و $Y$ عملکرد نسبی الگوریتم ها همانطور که در بالا توضیح داده شد. در اینجا نموداری از ضریب تغییرات در مقابل نسبت عملکرد ​​برای 2000 ورودی تصادفی تولید شده است: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/Wod3W.png) همبستگی ضریب تنوع و نسبت عملکرد ​​برای داده های نمونه حدود 0.87 دلار است. حالا دو سوال دارم: 1. با توجه به داده های بالا، آیا می توانم بگویم متغیرها به شدت همبستگی دارند؟ 2. اگر آنها به وضوح همبستگی را نشان دهند، از چه نوع تحلیل/نقشه دیگری می توانم استفاده کنم؟ ویرایش: من یک سوال کاملا مشابه را در Mathematica.SE پرسیدم و پاسخ گرفتم. پاسخ را در زیر می گذارم.
همبستگی نتیجه یک الگوریتم با ضریب تغییرات ورودی
3793
آیا اصطلاحی وجود دارد که آنچه را که در زیر می‌خواهم انجام دهم را توصیف کند؟ همچنین، چگونه این کار را با استفاده از چیزی مانند JMP یا Excel انجام می دهید؟ (یا باید این را در چیزی مانند perl کدنویسی کنم؟) با توجه به این نوع داده ها: ID| باز شد | بسته | مقدار -------------------------------------- 1 | 01/01/2010 | 03/01/2010 | 1 2 | 02/01/2010 | | 2 3 | 02/01/2010 | 05/10/2010 | 3 من می خواهم این داده ها را دریافت کنم و سپس نموداری را با x یک خط زمانی و Y که مقدار کل باز است: در تاریخ | تعداد کل باز --------------------------------- 2010-01-01 | 1 2010-01-02 | 6 2010-01-03 | 5 2010-01-04 | 5 2010-01-05 | 2
آیا اصطلاحی برای تولید داده های مبتنی بر خط زمانی از نقاط منفرد وجود دارد؟ همچنین چگونه این کار را انجام دهم؟
56095
تصور کنید که مخلوطی از دو توزیع عادی با پارامتر مخلوط داریم: $$p(y_i|\theta) = \theta\phi(y_i;\mu_1, \sigma_1^2) + (1 - \theta)\ phi(y_i; \mu_2، \sigma_2^2)$$ فرض کنید که تنها پارامتر ناشناخته $\theta$ است. من می خواهم برآورد MLE $\theta$ را بدست بیاورم. کاری که من انجام می دهم این است: $$L(\theta | data, \mu_1, \sigma_1^2, \mu_2, \sigma_2^2) = \prod_{i = 1}^{n} p(y_i|\theta) = \prod_{i = 1}^{n} \Big(\theta\phi(y_i;\mu_1, \sigma_1^2) + (1 - \theta)\phi(y_i; \mu_2، \sigma_2^2)\Big) \Rightarrow$$$L(\theta | data، \mu_1، \sigma_1^2، \mu_2، \sigma_2^2) \propto \prod_{i = 1}^{n}\Big[ \theta \Big(\phi_{i1} - \phi_{i2}\Big)\Big] = \theta^n \prod_{i = 1}^{n}\Big(\phi_{i1} - \phi_{i2}\Big) = \theta^nG( Y، param)$$ که در آن $\phi_{i1}$ به اولین چگالی معمولی با $y_i$ متصل و $\phi_{i2}$ اشاره دارد. به دومین چگالی نرمال اشاره دارد. توجه داشته باشید که هیچ $\theta$ در G(Y، param) وجود ندارد. حالا برای بدست آوردن MLE، log و سپس مشتق می‌گیرم: $$l(\theta | data, \mu_1, \sigma_1^2, \mu_2, \sigma_2^2) = log(L(\theta | data ، \mu_1، \sigma_1^2، \mu_2، \sigma_2^2)) \propto n log(\theta) + log(G) \Rightarrow $$ $$l'(\theta | data, \mu_1, \sigma_1^2, \mu_2, \sigma_2^2) = \frac{n}{\theta}$$ اگر محاسبات من در بالا درست باشد، پس این یک مشتق بسیار عجیب است و من نمی دانم چگونه می توانم تخمین MLE را بدست بیاورم. ممنون میشم اگه منو در این مورد راهنمایی کنید
MLE پارامتر مخلوط در اختلاط دو چگالی معمولی
26261
در احتمالات و آمار، مفهوم تصادفی و تصادفی به کرات استفاده می شود. اغلب از مفهوم متغیر تصادفی برای مدل‌سازی رویدادهایی استفاده می‌شود که به دلیل شانس اتفاق می‌افتند. سوال من در مورد اصطلاح تصادفی است. تصادفی چیست؟ آیا تصادفی بودن واقعا وجود دارد؟ من کنجکاو هستم که افرادی که تجربه زیادی در کار با رویدادهای تصادفی دارند در مورد تصادفی بودن چه فکر و چه اعتقادی دارند.
تصادفی بودن چیست؟
4983
من از SVM-light با Matlab برای SVM خطی استفاده می کنم. من می خواهم مدل خروجی را بفهمم، اما نمی توانم هیچ مدرک یا کمکی در مورد آن پیدا کنم. این خروجی است: sv_num: 639 upper_bound: 547 b: 1.4023 totwords: 576 totdoc: 2000 loo_error: -1 loo_recall: -1 loo_precision: -1 xa_error: 14.9500 xa2_0. 86.8559 maxdiff: 9.9611e-004 r_delta_sq: 575.0052 r_delta_avg: 23.9792 model_length: 0.4847 افت: 357.5542 vcdim: 136.107 دو برابر شده: 136.107 index: [2000x1 double] supvec: [639x576 double] kernel_parm: [1x1 struct] example_length: 23.9792 a: [2000x1 double] تا کنون، من متوجه شده ام که بردارهای پشتیبانی `sv_num=639` وجود دارد. با این حال، 638 شاخص مثبت در بردار «شاخص» وجود دارد. همینطور برای مقادیر مثبت بردار «آلفا». اولین مقدار بردار «آلفا» صفر است و مقادیر غیر صفر بین 2 و 639 هستند. همین نکته در مورد بردار «supvec». بنابراین به نظر می رسد در واقع 638 بردار پشتیبانی وجود دارد. در واقع، من می‌خواهم خودم ابرصفحه «W» و پارامتر «b» را دریافت کنم تا ببینم آیا می‌توانم مدل خروجی را به درستی درک کنم. از آنجایی که هسته خطی است، من به جمعی از ضرایب در برخی از بردارهای پشتیبانی فکر کردم. برای اطلاعات، «a(i)» «باید» مقادیر «alpha_i» ضربدر «y_i» را برای نمونه‌های آموزشی «x_i» ذخیره کند. و 638 مقدار غیر صفر وجود دارد. کسی قبلا از svmlight استفاده کرده؟ آیا می توانید مدل خروجی را درک کنید؟ یا جایی مستند هست؟ * * * من موفق شدم یک چیز را به درستی دریافت کنم: MyCoeff = model.a ./ y; MyIndex = 1+max(model.index,0); % بین 1 و 639 بردار پشتیبانی مربوط به هر «MyCoeff(i)» غیر صفر است: * `x(i,:)` * `model.supvec(MyIndex(i),:)` و MyIndex: 1 اگر «MyCoeff» صفر باشد. و `supvec(1,:)` بردار صفر است. * * * در اینجا چهار قطعه کد ساخته شده است: MyCoeff = model.a ./ y; W1 = صفر (1، h*w); برای i=1:length(MyCoeff) W1 = W1 + MyCoeff(i)*x(i,:); پایان؛ W2 = صفر (1، h*w); برای i=1:model.sv_num W2 = W2 + model.alpha(i)*model.supvec(i,:); پایان؛ eq((MyCoeff~=0),(model.index>0)) MesIndices = 1+max(model.index,0); % entre 1 et 639 W3 = zeros(1, h*w); برای i=1:length(MyCoeff) W3 = W3 + MyCoeff(i)*model.supvec(MesIndices(i),:); پایان؛ W4 = صفر (1، h*w)؛ برای i=1:length(MyCoeff) W4 = W4 + model.alpha(MesIndices(i))*x(i,:); پایان؛ در اینجا خروجی ها وجود دارد: ![http://imgur.com/FErWW.png](http://i.stack.imgur.com/A51VP.png) من پیوند index بین بردارهای پشتیبانی `supvec را درک کرده ام و ماتریس x. اما من پیوندی بین «آلفا» و «الف» پیدا نکردم. * * * فهمیدم: جدا از تفاوت شاخص ها، «model.a» و «model.alpha» یکسان هستند. برای i=1:length(MesIndices) W1 = W1 + model.a(i)*x(i,:);%*y(i); W2 = W2 + model.alpha(MesIndices(i))*model.supvec(MesIndices(i),:);%*y(i); W3 = W3 + model.a(i)*model.supvec(MesIndices(i),:);%*y(i); W4 = W4 + model.alpha(MesIndices(i))*x(i,:);%*y(i); پایان؛ اکنون سؤال این است که آیا باید در «y(i)» ضرب کنم؟ من معتقدم نباید از آنجایی که «model.a» قبلاً «y» برابر وزن بردار پشتیبانی مربوطه است و $y\in\\{-1,1\\}$ است. بنابراین نتیجه خوب باید صورت نارنجی باشد که می توانید با استفاده از یکی از چهار خط بالا به آن دست پیدا کنید. حیف که هیچ سندی پیدا نکردم. :')
خروجی مدل SVM خطی در Matlab با استفاده از SVM-light
83731
در تجزیه و تحلیل داده های بیزی، پارامترها به عنوان متغیرهای تصادفی در نظر گرفته می شوند. این از مفهوم سازی ذهنی بیزی از احتمال ناشی می شود. اما آیا بیزی ها از نظر تئوری تصدیق می کنند که یک مقدار پارامتر ثابت واقعی در «دنیای واقعی» وجود دارد؟ به نظر می رسد که پاسخ واضح «بله» است، زیرا در این صورت تلاش برای تخمین پارامتر تقریباً بی معنی خواهد بود. استناد دانشگاهی برای این پاسخ بسیار قدردانی خواهد شد.
آیا یک بیزی می پذیرد که یک مقدار پارامتر ثابت وجود دارد؟
84015
من 3 سری زمانی (10 ساله) داده های اقتصادی برای 3 کشور دارم. برای تحلیل دیگری که انجام می دهم، باید سعی کنم اینها را به ترجیحاً 1 سری زمانی کاهش دهم. برای این تحلیل، من چندان به مقادیر مطلق اهمیت نمی‌دهم، بلکه به تغییرات اهمیت می‌دهم. سه سری زمانی برای یک چیز هستند، اما بزرگی ها بین کشورها متفاوت است، بنابراین بدیهی است که من باید عادی سازی کنم. اما باید هر سه سری زمانی را نرمال کنم و میانگین بگیرم یا میانگین بگیرم و این را نرمال کنم؟ من به سمت گزینه اول متمایل هستم (اول 3 سری زمانی را نرمال کنید و سپس میانگین را بگیرید) اما مطمئن نیستم که از نظر آماری درست باشد یا خوب ...؟
آیا گرفتن میانگین چند سری زمانی نرمال شده اشکالی ندارد؟
56096
من مجموعه ای از مدل ها را دارم که نتیجه یک رگرسیون خطی چندگانه هستند. من می خواهم قدرت هر یک از این مدل ها را محاسبه کنم. من این آموزش را در مورد محاسبه توان با استفاده از G*Power پیدا کردم. از آنجایی که داده‌ها قبلاً جمع‌آوری شده‌اند، من از نوع Post Hoc آنالیز توان استفاده می‌کنم و امیدوار بودم از دکمه «تعیین» برای محاسبه خودکار اندازه افکت استفاده کنم. با این حال، من می بینم که باید یک **جزئی** R2 ارائه کرد، اما من فکر می کنم که برای یک رگرسیون خطی چندگانه (که فکر می کنم چندین مقدار R2 جزئی داشته باشد)، ارائه R2 برای مدل حاصل آیا من تفاوت بین R2 و R2 جزئی را اشتباه متوجه شده ام؟ اگر چنین است، چگونه R2 جزئی را برای استفاده در G*Power بدست بیاورم؟
توان یک رگرسیون خطی چندگانه
4987
من باید حداقل 5 نمودار Q-Q را تا کنون هنگام تلاش برای جا دادن داده های خود در یک توزیع شناخته شده ایجاد کرده باشم، اما فقط متوجه چیزی شدم که نمی توانستم آن را درک کنم. در شکل زیر، با توجه به مطالبی که من از ویکی خواندم، محور X قرار است «چکک‌های نظری دوجمله‌ای منفی» و محور Y «چکک‌های داده» را بخواند. موافقم که این کاملا منطقی است. اما وقتی به شکل نگاه کردم، محور X و Y از 100 فراتر می رود، اما چگونه می توان چندک هایی فراتر از 100 وجود داشت؟ اگر وجود داشته باشند به چه معنا هستند؟ یا اینکه این نمودار توسط qqplot R کاملاً متفاوت است؟ آیا کسی می تواند به من کمک کند تا این را بفهمم؟ روشی که من این داده ها را تولید می کردم با استفاده از اسکریپت زیر بود: library(MASS) # داده های داده را تعریف کنید <- c(67, 81, 93, 65, 18, 44, 31, 103, 64, 19, 27, 57, 63، 25، 22، 150، 31، 58، 93، 6، 86، 43، 17، 9، 78، 23، 75، 28، 37، 23، 108، 14، 137، 69، 58، 81، 62، 25، 54، 57، 65، 72، 17، 22، 17، 38، 33، 34، 68، 38، 117، 28، 17، 19، 25، 24، 15، 103، 31، 33، 77، 38، 8، 48، 32، 48، 26، 63، 16، 70، 87، 31، 36، 38، 91، 117، 16، 40، 7، 26، 15، 89، 67، 7، 39، 33، 58) # داده ها را به یک مدل برازش کنید پارامترها = fitdistr(داده، دوجمله ای منفی) #با استفاده از پاسخ پارامترها مجموعه ای از مقادیر نظری ایجاد کنید plot(qnbinom(ppoints(data), size=2.3539444, mu=50.7752809)، مرتب‌سازی(داده)) abline(0،1) ![متن جایگزین](http://i.stack.imgur.com/QeB2Y.png)
درک طرح کوانتیل-کوانتیل
24769
من در گرفتن NM Simplex برای یافتن حداقل خوبی برای انتخاب هایپرپارامترهای یک rbf SVC مشکل دارم. من نه تنها 2 پارامتر SVC (C و گاما) را تنظیم می کنم، بلکه پنج وزن کلاس نیز دارم که سعی می کنم آنها را تنظیم کنم. جستجوهای شبکه ای در این مورد تقریبا غیرممکن به نظر می رسند. NM Simplex ورودی های آزمایشی به اندازه کافی دور از حدس اولیه نیست. من ورودی ها را تغییر می دهم (به عنوان مثال NM Simplex در محدوده i جستجو می کند در حالی که 2^i به عنوان پارامتر C برای SVC وارد می شود). با این حال، NM Simplex همیشه به حدس اولیه ختم می شود. هر گونه پیشنهاد یا هر الگوریتم کوچک سازی دیگری که ممکن است ارزشمند باشد؟ با تشکر
انتخاب پارامتر SVM با NM simplex (یا الگوریتم های دیگر)
86529
من داده های دوجمله ای را برای چندین آزمودنی در چندین جلسه آزمایشی اندازه گیری کرده ام. من علاقه مند به آزمایش این هستم که آیا در تمام جلسات آزمایشی نسبت گروه با 0.5 متفاوت است یا خیر. آیا منطقی است که یک GEE glm را با تابع پیوند لجستیک تطبیق دهیم و یک مدل فقط رهگیری را اجرا کنیم و آزمایش کنیم که آیا این رهگیری با 0 متفاوت است؟ برای مثال، کد R که من اجرا کردم gee.logit.0 <- geeglm(cs ~ 1, id = interaction(session,subject),std.err='fij',family = binomial (link = logit) است. داده=داده) که منجر به ضرایب شد: برآورد Std.err Wald Pr(>|W|) (Intercept) 0.4212 0.0557 57.3 3.8e-14 *** بنابراین می توانم ادعا کنم که نسبت مورد علاقه من به طور قابل توجهی با 0.5 متفاوت است (از آنجایی که exp(0.4212)/(1+exp(0.4212)) = 0.604) با توجهی که اصلاح کردم برای همبستگی درون موضوعی؟ با تشکر از شما برای کمک شما!
رهگیری فقط مدل GEE لجستیک
113191
توجه داشته باشید که آیا یک مفهوم آماری موجود برای این کار وجود دارد یا خیر، اما من یک مجموعه داده دارم که عمدتاً از نقاط داده کوچک با چند نقطه بزرگ تشکیل شده است. به عنوان مثال 1 2 1 3 1 2 87 3 2 1 1 1 1 3 1 2 1 1 1 99 چگونه می توانم این مجموعه داده را فیلتر کنم تا فقط مقادیری را که به طور نامتناسبی بخش عمده ای از اطلاعات را تشکیل می دهند، دریافت کنم؟ من در حال حاضر بر اساس نقاط داده ای که دارای چند انحراف استاندارد هستند فیلتر می کنم، اما این به من نمی گوید چه درصدی از کل دریافت می کنم. (مثلاً اگر 2 انحراف استاندارد را خارج کنم آیا 70 درصد اطلاعات را دریافت می کنم؟ اگر 5 بروم 95 درصد است؟ من فقط می دانم چند درصد از تعداد نقاط داده نشان دهنده درصد داده ها نیست) ویرایش: من می خواهید تا جایی که ممکن است نقاط داده را بدون حذف نقاط داده مهم حذف کنید. بنابراین اگر میانگین 5 و انحراف std 20 داشته باشم، نقاط داده ای را که کمتر از 45 هستند (20 + 20 + 5) فیلتر می کنم. این کار مثلاً 95 درصد از نقاط داده را حذف می‌کند، اما سپس مجموعه داده می‌تواند به این صورت باشد: 50 46 90 80 44 99999 57 87 88. اصل پارتو در اینجا به صورت بازگشتی با این 99999 اعمال می‌شود. در این سناریو من می‌خواهم فقط 99999 را نگه دارم. از آنجایی که 99٪ از داده ها را تشکیل می دهد، اما من این را فقط از استفاده نمی دانم یک قانون سرانگشتی انحراف std. به عنوان مثال، بسیاری از مردم موافق هستند که 1٪ از مردم می توانند 99٪ از ثروت را در اختیار داشته باشند. اگر به این داده ها بیشتر بپردازید، متوجه می شوید که 1% از آن 1% دارای 99% از آن ثروت است. به این معنی که 0.01٪ از مردم 98٪ از ثروت را در اختیار دارند. این اطلاعات دوم شگفت‌انگیز است زیرا بزرگ‌ها از بزرگ‌ها را نشان می‌دهد. این حتی ممکن است در مورد بچه های بزرگ از بچه های بزرگ از بچه های بزرگ (big-guys^3) فراتر رود، شاید 1 نفر 95٪ از کل ثروت را در اختیار داشته باشد. چگونه می توانم داده های خود را برای این مورد تجزیه و تحلیل کنم؟ با توجه به یک دایره یا نمودار میله ای، به وضوح در یک نگاه مشخص می شود.
در یک مجموعه داده شکسته، چگونه مقادیر مهمی را که بخش عمده ای از اطلاعات را تشکیل می دهند، فیلتر می کنید؟
84018
من داشتم کتاب _مسئله شناسایی در اقتصادسنجی_ اثر فرانکلین ام. فیشر را می خواندم و از بخشی که او شناسایی را با تجسم تابع درستنمایی نشان می دهد، گیج شدم. مشکل را می توان به صورت زیر ساده کرد: > برای یک رگرسیون $Y=a+Xb+u$، که در آن $u \sim i.i.d. N(0،\sigma^2I)$، $a$ و > $b$ پارامترها هستند. فرض کنید $Y$ دارای یک ضریب $c$ است که برابر با > وحدت است. سپس تابع درستنمایی در فضای $c, a,b$ دارای **a > برآمدگی در امتداد پرتو متناظر با بردار پارامترهای واقعی و > مضربهای اسکالر آن** خواهد بود. هنگامی که فقط مکان داده شده توسط $c=1$ را در نظر می گیریم، تابع احتمال یک حداکثر منحصر به فرد در نقطه ای که پرتو > آن صفحه را قطع می کند، خواهد داشت. سوالات من این است: 1. چگونه باید در مورد یال و اشعه ذکر شده در تظاهرات فهمید و استدلال کرد؟ 2. از آنجایی که پرتو پارامترها و اسکالرهای واقعی هستند، چرا پرتو در صفحه با $c=1$ داده نمی شود زیرا مقدار واقعی پارامتر $c$ 1 است.
تفسیر هندسی تخمین حداکثر احتمال
3799
من مشکل زیر را دارم: \- ما مجموعه ای از N نفر داریم \- ما مجموعه ای از K تصاویر داریم \- هر نفر تعدادی از تصاویر را رتبه بندی می کند. ممکن است شخصی از یک تصویر خوشش بیاید یا نپسندد (اینها تنها دو امکان هستند). \- مشکل این است که چگونه می توان احتمال اینکه یک فرد یک تصویر خاص را دوست دارد محاسبه کرد. برای ارائه شهودم مثالی می زنم. N = 4 K = 5 \+ به این معنی است که شخص تصویر را دوست دارد \- به این معنی است که شخص تصویر 0 را دوست ندارد به این معنی است که از آن شخص در مورد تصویر سؤال نشده است و این مقدار باید x 1 2 3 4 5 1 + پیش بینی شود. - 0 0 + 2 + - + 0 + 3 - - + + 0 4 - 0 - - - شخص 1 احتمالاً تصویر 3 را دوست خواهد داشت زیرا فرد 2 ترجیحات و شخص 2 مشابهی دارد. تصویر 3 را دوست دارد. شخص 4 احتمالاً تصویر 2 را دوست ندارد زیرا هیچ کس دیگری آن را دوست ندارد و علاوه بر این شخص 4 بیشتر تصاویر را دوست ندارد. آیا روش شناخته شده ای وجود دارد که بتوان از آن برای محاسبه چنین احتمالی استفاده کرد؟
احتمال اینکه کسی تصویر را دوست داشته باشد
113545
یک مدل رگرسیون پواسون - GLM - ساده را در نظر بگیرید. در آنجا $\exp\left(\beta\right)$s به‌عنوان نسبت نرخ بروز (IRR) استفاده می‌شود، اما محاسبه آن‌ها گاهی اوقات کاملاً ساده نیست، برای مثال، اگر فعل و انفعالاتی داشته باشیم (زمانی که باید حاصل ضرب چنین مواردی را در نظر بگیریم. شرایط). به ویژه اگر به یک فاصله اطمینان برای یک IRR نیاز داشته باشیم: به راحتی می‌توان یک CI برای $\beta$ به دست آورد، اما در آن صورت ما به یک CI برای _نمای_جمع_ چنین پارامترهایی نیاز داریم. با انگیزه این موضوع، ایده ای داشتم که ممکن است کاملاً اشتباه باشد، اما فکر کردم ارزش پرسیدن دارد. اگر IRR ها و فواصل اطمینان آنها را با استفاده از پیش بینی ها محاسبه کنم چه می شود؟ اجازه دهید یک مثال (در R) نشان دهم. مجموعه داده معروف warpbreaks را در نظر بگیرید: head( warpbreaks ) mod <- glm( breaks ~ wool * tension, warpbreaks, family = poisson ) برای به دست آوردن IRR: exp( ضرایب( mod ) ) (Intercept) woolB tensionM tensionH woolB: tensionM woolB:tensionH 44.5555556 0.6334165 0.5386534 0.5511222 1.8930264 1.2072719 می توان فهمید که منظور من از غیر ساده چیست: برای به دست آوردن IRR برای هر ترکیب متغیر کمکی ما به irrmod نیاز داریم <- c( 1: 3, exp]( coef ( coef( mod )[ 2 ] + coef( mod )[ 3 ] + coef( mod )[ 5 ] , exp( coef( mod )[ 4 ] , exp( coef( mod )[ 2 ] + coef( mod )[ 4 ] + coef( mod )[ 6 ] ) ) cbind( irrmod ) irrmod 1.0000000 woolB 0.6334165 tensionM 0.5386534 woolB 0.6458853 tensionH 0.5511222 woolB 0.4214464 و ما حتی در مورد CI برای اینها صحبت نکرده‌ایم... بنابراین، ایده اینجاست: ابتدا پیش‌بینی‌های توضیحی برای هر ترکیب ممکن از متغیرها را به دست می‌آوریم. preddata <- expand.grid( wool = level( warpbreaks$wool ), tension = level( warpbreaks$tension ) ) preds <- predict( mod, newdata = preddata, type = response, se.fit = TRUE ) irrpred < - preds$fit 1 2 3 4 5 6 44.55556 28.22222 24.00000 28.77778 24.55556 18.77778 مشکل این است که اینها در مقیاس پاسخ اندازه گیری می شوند و راه حل (ممکن است؟): همه آنها را با اولی تقسیم کنید! از آنجایی که اینها همه متغیرهای طبقه بندی هستند _ من فکر می کنم_ این منجر به IRR می شود. در واقع، در مثال عینی: expbeta0 <- irrpred[ 1 ] irrpred <- irrpred / expbeta0 cbind( preddata، irrpred، irrmod ) کشش پشم irrpred irrmod 1 A L 1.0000000 1.00000000 1.00000000 1.00000000 1.00000000 1.0000000 1.00000000 1.00000000 1.00000000 1.00000000 2 B34. 3 A M 0.5386534 0.5386534 4 B M 0.6458853 0.6458853 5 A H 0.5511222 0.5511222 6 B H 0.4214464 0.4214464 اینها برابر هستند. **اولین سوال** من: آیا این روش از نظر تئوری صحیح است، یعنی از نظر ریاضی تضمین شده است که این دو رویکرد در هر موقعیتی معادل هستند؟ من کاملا مطمئن هستم که آنها هستند، فقط برای امن بودن. اما اکنون بخشی می آید که من کاملاً در آن مطمئن نیستم: CI ها چطور؟ با در نظر گرفتن این رویکرد، منطقی است که موارد زیر را محاسبه کنیم: upr <- preds$fit + ( qnorm( 0.975 ) * preds$se.fit ) lwr <- preds$fit - ( qnorm( 0.975 ) * preds$se.fit ) upr <- upr / expbeta0 lwr <- lwr / expbeta0 باید اعتراف کنم که من خیلی با این روش آشنا نیستم «predict.glm» خطاهای استاندارد را محاسبه می کند، بنابراین ممکن است کاملاً اشتباه کنم، اما آیا می توان از این روش برای به دست آوردن CI برای IRR ها استفاده کرد؟ یک مشکل واضح این است که از این طریق حتی برای دسته مرجع (که البته نباید CI داشته باشد، به $1 دلار ثابت می شود) CI واقعی می گیریم. مشکل دیگر این است که نتایج با نتایج «confint» حتی در دسته‌هایی که قابل مقایسه هستند برابر نیستند: cbind(preddata, lwr, exp(confint( mod ) )[ , 1 ], upr, exp(confint( mod )[ , 2 ] ) ) در حال انتظار برای انجام پروفیل ... منتظر انجام پروفیل ... کشش پشم lwr exp(confint(mod))[, 1] upr exp(confint(mod)[, 2]) 1 A L 0.9021242 40.3356421 1.0978758 49.0597741 2 B L 0.5555195 0.5555195 0.5555195 0.5314 0.54 0.7405983 3 A M 0.4668193 0.4558586 0.6104874 0.6347433 4 B M 0.5672254 0.4670131 0.7245452 0.64868 0.64866 1.4908755 0.6237828 2.4069226 6 B H 0.3579064 0.9356292 0.4849864 1.5571553 توجه داشته باشید که اکنون فقط خط دوم و سوم جالب است، زیرا فقط آنها به همان ترکیب مربوط می شوند. (و ردیف پنجم از «بالا/پایین» در مقابل ردیف چهارم «محدوده».) در حالی که آنها _کاملا نزدیک_ هستند، دقیقا مطابقت ندارند... بنابراین **سوال دوم** من این است: در مورد CI ها چطور؟ برای IRR ها؟ آیا می توان از این روش با «پیش بینی» برای محاسبه آنها استفاده کرد؟
فاصله اطمینان برای یک پارامتر رگرسیون از طریق پیش بینی
4988
فرض کنید توزیعی برای $\mathbf{x}\in \\{-1,1\\}^n$ داریم و مایلیم $p(\mathbf{x})$ را به عنوان یک خانواده نمایی خطی با آمار کافی نشان دهیم. به شکل $1,x_1,x_2,\ldots,x_1 x_2,\ldots,x_1 x_2 \cdots x_n$ فرض کنید می دانیم که ~~ آنتروپی~~ برخی از معیارهای پیچیدگی توزیع هدف محدود است. ما می توانیم بردار پارامتر را به عنوان توزیع احتمال $D$ مشاهده کنیم. آیا می‌توانیم در مورد نحوه توزیع جرم در $D$ بین شرایط سفارشات مختلف برای اندازه‌گیری پیچیدگی جالب چیزی بگوییم؟ آیا معیارهای پیچیدگی وجود دارد که جرم را به شرایط درجه پایین وادار می کند؟ محدود کردن توجه به مدل‌های گرافیکی به معنای کنار گذاشتن عبارت‌های مرتبه سوم و بالاتر است. من علاقه مند به توضیحی هستم که چرا این خیلی خوب کار می کند. این انگیزه با یک سوال مشابه در CSTheory است **ویرایش 11/29** در زیر احتمال ساده توزیع های بیش از $\\{-1,1\\}$ آمده است. به ارزش x_1،x_2$، در مختصات احتمال و در مختصات log-linear. در تصویر دوم، محورهای x,y مربوط به ضرایب جلوی $x_1$ و $x_2$ است، محور z ضریب ترم x_1$ x_2$ است. می توانید ببینید که ابعاد مرتبه اول و دوم متقارن هستند، بنابراین آنتروپی مرزی (یا هر تابع متقارن دیگر توزیع) برای وادار کردن جرم به ضرایب مرتبه پایین کافی نیست...![](http://yaroslavvb.com/ upload/save/stats.SE.simplex.png) منبع Mathematica
عدم تقارن بین شرایط تعامل مرتبه بالا و مرتبه پایین
2154
(من می دانم که نقل قول به عنوان قسمت 2 چندان مناسب نیست، اما از آنجایی که این سوال مدت زیادی است که خوابیده است، امیدوارم با انجام این کار دوباره توجه مردم جلب شود، ممکن است قسمت اول را در اینجا ببینید. .) من به مقاله ای آنلاین برخورد کرده ام که در مورد موردی مشابه مورد من صحبت می کند، که اکثر اوقات تعداد موارد صفر است، گاهی اوقات که تعداد کیس به یک افزایش می یابد، از قبل از سطح کنترل شلیک می کند و مورد را به عنوان مورد در نظر بگیرید. خارج از کنترل. از آنجایی که خواندن و تفسیر C-chart برای روسای من آسان‌تر خواهد بود، نمی‌دانم که آیا این روش صحیح است یا کسی مرجع رسمی تری در مورد این روش دارد؟ (من مدت زیادی در گوگل جستجو کردم اما چیزی پیدا نکردم) مقاله را می توانید در اینجا پیدا کنید. در ادامه سؤالم، می‌خواهم یک چیز دیگر بپرسم: برای فرض نمودار c که تعداد موارد باید از توزیع پواسون پیروی کند، آیا برای همه لامبدا (یعنی میانگین تعداد موارد) قابل اعمال است؟ بازم ممنون
چگونه یک نمودار کنترلی حاوی اکثریت مقادیر صفر را تفسیر کنیم؟ (قسمت 2)
14066
(من فکر می کنم این سوال به عنوان یک ویکی انجمن مناسب است؟ اگر نه، لطفاً آن را ببندید، بدون احساسات سخت.) آیا کسی پیوندهایی به صفحات وب/فایل های پی دی اف مشاوره برای دانش آموزان مقطع کارشناسی ارشد در تئوری آمار (یا حتی بهتر است اگر نظریه اقتصاد سنجی) دارد، دارد. برای رسیدن به سوالات تحقیقاتی خوب؟ من توانسته ام چنین توصیه هایی را برای محققان پزشکی، دانشمندان کامپیوتر، اقتصاددانان کاربردی و غیره بیابم، اما نه برای آماردانان نظری (یا اقتصاد سنجی). (به غیر از درخواست حضوری از اساتید در بخش من.) یک CW مربوطه در MathOverflow وجود دارد.
چگونه می توان به سوالات تحقیق در تئوری آمار رسید؟
32125
آیا روشی وجود دارد که بتوان از آن برای تفسیرپذیرتر کردن Random Forest استفاده کرد؟ Random Forest بسیار بهتر از CART عمل می کند، اما بسیار کمتر قابل تفسیر است.
چگونه جنگل های تصادفی را قابل تفسیرتر کنیم؟
57323
من تست میانگین لوین و تست میانه لوین (براون-فورسایت) را انجام می دهم. من می خواهم مقادیر p این دو تست را با هم مقایسه کنم تا ببینم کدام بهتر است. من مقادیر p بزرگی را برای هر دو آزمون دریافت می کنم که 0.562 (میانگین لون) و 0.611 (میانگین لون) برای توزیع نرمال است. * کدام آزمون میزان خطای نوع اول را بهتر نشان می دهد؟ * آیا آزمون میانگین لوین زمانی که داده ها از توزیع نرمال پیروی می کنند بهترین عملکرد را دارد؟
مقایسه مقادیر p برای آزمون میانگین لوین و آزمون میانه لوین؟
71700
من یک مثال اسباب بازی دارم که در زیر بازتولید شده است که در آن متغیر پاسخ دارای سه کلاس ممکن است. من در حال تلاش برای ایجاد یک ROC هستم اما مطمئن نیستم که چگونه با آن برخورد کنم وقتی سه کلاس وجود دارد. هر گونه کمکی قدردانی خواهد شد. با تشکر کتابخانه(ipred) control = rpart.control(maxdepth = 20, minsplit = 20, cp = 0.01, maxsurrogate=2, surrogatestyle = 0, xval=25) n <- 500; p <- 10 f <- تابع(x,a,b,d) return(a*(x-b)^2+d ) x1 <- runif(n/2,0,4) y1 <- f(x1,- 1،2،1.7)+runif(n/2،-1،1) x2 <- runif(n/2،2،6) y2 <- f(x2،1،4،-1.7)+runif(n/2،-1،1) y <- c(rep(-1، طبقه(n/3))، rep(0، سقف(n/3 ))، rep(1، سقف (n/3))) dat <- data.frame(y=factor(y)،x1=c(x1,x2)،x2=c(y1,y2), ماتریس(rnorm(n*(p-2))،ncol=(p-2))) names(dat)<-c(y,paste(x,1:p,sep=)) نمودار داده (dat$x1,dat$x2,pch=c(1:2)[y], col=c(1,8)[y], xlab=names(dat)[2],ylab=names(dat)[3]) indtrain<-sample(1:n,300,replace=FALSE) train<-dat[indtrain,]; dim(train) test<-dat[setdiff(1:n,indtrain),]; dim(test) mod test <- bagging(y~., data=train, control=control, coob=TRUE, nbagg=25, keepX = TRUE) mod pred<-predict(mod, newdata=test[,-1] ,type=prob, aggregation= average); pred برای دو کلاس موردی، من برای انجام موارد زیر استفاده می کنم اما دیگر برای سه کلاس معتبر نیست. yhat <- pred[,2] y = test[, -1] plot.roc(y, yhat)
چگونه منحنی ROC را با سه متغیر پاسخ رسم کنیم؟
66782
من واریوگرام گاوسی خود را اینگونه تعریف کرده ام $r(h) = \text{nugget} + \text{partial_sill}\cdot(1 - \exp(-\frac{3h^2}{\text{range}^2} ))$ من nugget را تنظیم کردم = 0.1343 partial_sill = 0.3125 range = 19.8642 من سعی کردم یک واریوگرام برای یک شبکه فضایی با اندازه 5x5، به این معنی که برای هر مکان در شبکه 5x5، من مقدار واریوگرام را با فاصله برابر با فاصله آن تا مکان های دیگر در شبکه محاسبه کردم. بنابراین من یک ماتریس به اندازه 25x25 داشتم. اما این ماتریس قطعی مثبت نیست و مفرد است. چگونه می توانم با واریوگرام گاوسی این مشکل را برطرف کنم؟
مسائل تکینگی ماتریس با واریوگرام گاوسی
56092
من در R بسیار جدید هستم. در حال حاضر در حال یادگیری ماشین یادگیری هستم. خیلی متاسفم، اگر این سوال خیلی ابتدایی به نظر می رسد. من سعی می کنم یک بسته انتخاب ویژگی خوب در R پیدا کنم. من از طریق بسته Boruta رفتم. پکیج خوبیه ولی خوندم فقط برای دسته بندی مفیده. من می خواهم انتخاب ویژگی را در R برای وظایف رگرسیون پیاده سازی کنم. من مدارک بسته caret را مرور کردم، اما برای سطح من، درک آن بسیار دشوار است. لطفاً کسی می تواند به من یک آموزش خوب را راهنمایی کند یا بسته های خوب یا بسته های پر استفاده در R را برای انتخاب ویژگی لیست کند. هر گونه کمکی قدردانی خواهد شد. پیشاپیش ممنون
بسته های انتخاب ویژگی در R
3242
من برخی از داده ها را دارم که سعی می کنم یک خط روند را با آنها تطبیق دهم. من معتقدم که داده‌ها از قانون قدرت پیروی می‌کنند و بنابراین داده‌ها را بر روی محورهای log-log ترسیم کرده‌اند که به دنبال یک خط مستقیم هستند. این منجر به یک خط (تقریبا) مستقیم شده است و بنابراین در اکسل من یک خط روند برای قانون قدرت اضافه کرده ام. از آنجایی که یک تازه‌کار آماری هستم، سوال من این است که اکنون بهترین راه برای من برای رفتن از «خوب خط _به نظر می‌رسد که خیلی خوب است» به «ویژگی عددی $x$ _اثبات می‌کند که این نمودار به‌طور مناسبی با قانون توان برازش می‌کند» چیست؟ ? در اکسل می‌توانم مقدار r-squared را دریافت کنم، اگرچه با توجه به دانش محدودم از آمار، حتی نمی‌دانم که آیا واقعاً در شرایط خاص من مناسب است یا خیر. من تصویری را در زیر آورده ام که نمودار داده هایی را که در اکسل با آنها کار می کنم نشان می دهد. من تجربه کمی با R دارم، بنابراین اگر تجزیه و تحلیل من توسط ابزارهای من محدود شده است، آماده ارائه پیشنهاداتی در مورد چگونگی بهبود آن با استفاده از R. ![alt text](http://i.stack. imgur.com/NhPf2.jpg)
چگونه می توان میزان تناسب یک خط روند با قانون قدرت را اندازه گیری/استدلال کرد؟
113540
می‌خواهم بدانم آیا تفاوتی در مقادیر گرفته‌شده از اندازه‌گیری‌های یک مشخصه داده‌شده در «forest=1» اولیه و ثانویه «forest=0» وجود دارد. من از دو بردار استفاده می‌کنم، یکی با خود داده ('DATA $Measurements`) و دیگری با دسته نقطه نمونه برداری (`DATA$Point`). چگونه باید تابع Wilcox.test را انجام دهم؟ من این روش را انجام می دهم: wilcox.test(DATA$Measurements~DATA$Point) اما متوجه شدم که اشکال دیگری از انجام این تست وجود دارد: wilcox.test(DATA$Measurements,DATA$Point) wilcox.test(DATA$Measurements ,DATA$Point,paired=TRUE) کدام یک برای آزمایش سوال مورد علاقه من مناسب تر است و تفاوت بین این گزینه ها چیست؟ (آیا برای این ویژگی داده شده تفاوتی بین نقاط وجود دارد)؟
استفاده از wilcox.test در R
94744
من برخی از داده های کینکت از شخصی دارم که (به طور منطقی) ثابت ایستاده و مجموعه ای از مشت ها را انجام می دهد. من آن را در قالب یک مختصات x، y، z برای هر مفصل که آنها 20 هستند، داده شده است، بنابراین من 60 نقطه داده در هر فریم دارم. من سعی می کنم یک کار طبقه بندی را روی پانچ ها انجام دهم، اما در عادی سازی داده هایم با مشکلاتی روبرو هستم. همانطور که از نمودار می بینید، بخش هایی با دامنه بسیار بالاتر از بقیه وجود دارد، اعتقاد من این است که این به دلیل نزدیکی آن شخص به سنسور کینکت در هنگام خواندن است. (گراف در واقع اولین ضریب اصلی است که توسط PCA برای هر فریم به دست می‌آید، توالی‌های متعددی از پانچ یکسان در این نمودار به هم متصل شده‌اند.) با نگاه کردن به فایل‌های داده به نظر می‌رسد فایل‌هایی که خارج هستند دارای مختصات z هستند. (عمق از حسگر) ~ 2.7 متری که بقیه چادرها را در حدود 3.3-3.6 متر شناور می کنند. **چگونه می توانم یک نرمال سازی با مقادیر عمق انجام دهم تا آنها را برای هر دنباله به یکدیگر نزدیکتر کنم؟** قبلاً تمایز را برای بدست آوردن سرعت امتحان کرده ام، اگرچه به عادی سازی کمک می کند خروجی در واقع خیلی شبیه به هم می شود و باعث می شود طبقه بندی خیلی سخته ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/85mgV.jpg) ویرایش: باید اشاره کنم که در حال حاضر از یک روش عادی سازی استفاده می کنم که با کم کردن موقعیت لگن از هر مفصل در تلاش برای ایجاد نسبی را هماهنگ می کند.
عادی سازی داده های عمق
76305
سعی می کنم با توجه به شرایط، موضوع را تا حد امکان روشن کنم. رئیسم از من خواست به گزارشی قدیمی که یکی از کارمندان سابق چند ماه پیش نوشته بود نگاه کنم. ظاهراً این گزارش حاوی اطلاعات بسیار مفیدی است اما متأسفانه هیچ کس قادر به درک آن نیست زیرا در ریاضیات نوشته شده است. گره اصلی گزارش یک فرمول رگرسیون خطی برای پیش‌بینی داده‌های آینده برای تابع غیرخطی است. موارد زیر را در نظر بگیرید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hISMx.png) محور Y درصدی را گزارش می کند (1 برابر با 100%). حالا تصور کنید که فقط بخشی از داده ها قبل از خط قرمز باشد. همکار سابق من متوجه شد که فرمول تخمین بخش دوم داده ها این است: $$R(t) = 1 - d t^{1/\alpha}$$ در حالی که من بیشتر فرمول را درک کردم، نمی توانم بفهمم که $ چیست d$ و $\alpha$ نشان دهنده. به هر حال، آیا آنها نشانه مشترک چیزی هستند که من از دست می دهم؟ لطفا اگر چیزی مشخص نیست بپرسید.
فرمول عجیب رگرسیون خطی
14069
فرض کنید اخیراً یک نظرسنجی روی یک جمعیت شناخته شده انجام داده اید (N=1000). شما زیرمجموعه ای از آن جمعیت را به طور تصادفی بررسی کردید (n=250). حال، فرض کنید که تعدادی متغیر دارید که شناخته شده اند. مانند جغرافیا، مخارج، تعداد فروش. آیا آزمون‌های آماری وجود دارد که متغیرهای شناخته شده جامعه را برای شناسایی صحت یا دقت نمونه شما در نظر می‌گیرد. به عبارت دیگر، آیا راهی وجود دارد، فراتر از MOE، برای نشان دادن دقت تست خود بر اساس این پارامترهای شناخته شده؟
مقایسه نمونه با یک جامعه شناخته شده
61250
برای یک تکلیف از من خواسته می شود تا آزمایش کنم که آیا آیتم های مختلف (همه دوگانه) واقعاً می توانند یک مفهوم را اندازه گیری کنند یا خیر. موارد: _لطفاً به من بگویید که آیا فکر می کنید امکان سقط قانونی برای یک زن باردار وجود دارد یا خیر؟ . . الف. اگر سلامتی خود زن در اثر بارداری به طور جدی به خطر بیفتد؟ ب. اگر احتمال نقص جدی در نوزاد وجود دارد؟ ج. اگر او در اثر تجاوز جنسی باردار شد؟ د. اگر خانواده از درآمد بسیار پایینی برخوردار است و توانایی خرید فرزند دیگر را ندارد؟ ه-اگر متاهل نیست و نمی خواهد با آن مرد ازدواج کند؟_ نتایج **تحلیل کلاس نهفته** من این است که: * مدل دو و سه کلاسه تناسب مدل قابل قبولی ندارد: > > 2-کلاس: X² = 492.485; L² = 337.1439; df = 20; p = 0.000; AIC = 297.1439; > BIC = 195.7409 > 3-class: X² = 170.096; L² = 26.4617; df = 14; p = 0.0226; AIC = -1.5383; > BIC = -72.5204 > * یک الگوی واضح در طبقات برآورد شده وجود دارد. یک گروه موافق همه موارد X1، یک گروه تنها بر سر دلایل پزشکی/اخلاقی (سلامت، نقص و تجاوز جنسی) توافق دارند، یکی هرگز موافق X3 _(به استثنای موارد بهداشتی، فکر می‌کنم چون این تعادل بین کشتن نوزاد یا کشتن مادر، بنابراین هر دو پاسخ طرفدار زندگی نیستند)._ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3s6WK.png) X. هستند سه کلاس، اولین خط افقی اعداد، نسبت نمونه در هر کلاس، و سپس احتمالات آن کلاس ها برای بله (=1) یا نه (=2) به آیتم مختلف است. می‌خواستم بدانم که آیا پاسخ ساده این است: آیتم‌ها نمی‌توانند یک ساختار را اندازه‌گیری کنند، زیرا مدل تناسب قابل قبولی ندارد. یا ساختار کلاس های نهفته برای پاسخ به این سوال آموزنده تر است؟ من می دانم که اعمال محدودیت بر روی مدل می تواند منجر به تناسب مدل قابل قبولی شود، بنابراین معیار من برای استناد به بیانیه ام ناقص به نظر می رسد. (چیزی مانند: آنها نمی توانند یک ساختار را اندازه گیری کنند، اما زمانی که ما محدودیتی را روی مدل قرار می دهیم، می توانند)
آیا آیتم ها می توانند یک ساختار زیربنایی را اندازه گیری کنند؟