_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
79288 | من روی یک کار طبقه بندی متن با حدود 4.5 میلیون سند کوتاه (با 100 تا 150 کلمه در هر سند) کار می کنم. پس از انجام مراحل پیشپردازش استاندارد (پایهبندی، حذف علائم نقطهگذاری و اعداد، حروف کوچک و غیره)، یک ماتریس اصطلاح سند با تقریباً ایجاد کردم. 500000 ابعاد. هنگام ایجاد ماتریس اصطلاح doc، من از عباراتی با فراوانی ترم کمتر از 5 و عباراتی که در بیش از 50٪ اسناد ظاهر می شوند، چشم پوشی می کنم. من احساس میکنم تعداد ابعادی که دارم خیلی زیاد است و دارم کار اشتباهی انجام میدهم - آیا کسی با تجربه در زمینه طبقهبندی متن میتواند به من بگوید که آیا تعداد ابعاد من معقول است؟ (توجه: در مرحله بعدی تجزیه و تحلیل، من از LSA برای فشرده کردن موارد استفاده می کنم، اما می خواهم مطمئن شوم که هر مرحله به درستی انجام شده است). | ابعاد معمولی یک ماتریس اصطلاح Doc |
108908 | من سعی می کنم رابطه بین تعداد بزرگسالان شمارش شده و درصد پوشش هدر را در 3 منطقه آزمایش کنم. داده ها به این شکل است: تعداد پوشش ناحیه فیلد1 53.7 216 فیلد2 19.5 2 فیلد3 39.8 6106 با توجه به اینکه داده های شمارش درگیر هستند، من قصد داشتم رگرسیون پواسون را انجام دهم. من میدانم با توجه به این دادهها رابطه بعید است، اما سوال من این است که آیا 3 نقطه داده برای تحلیل رگرسیون کافی است؟ این مهم است زیرا من همچنین می خواهم رابطه بین تعداد بزرگسالان و تعداد لانه، تعداد بزرگسالان و ارتفاع پوشش گیاهی و غیره را آزمایش کنم، اما همه آنها فقط 3 نقطه داده دارند زیرا من فقط 3 منطقه را در یک سایت مطالعه می کردم. با این نوع دادهها، نمیدانم با توجه به اینکه دادههای شمارش است، میتوان از آزمون دیگری استفاده کرد یا خیر. من هنوز در مورد آمار مبتدی هستم، بنابراین هر کمکی قابل قدردانی است. من از R برای انجام تمام تحلیل هایم استفاده می کنم. | آیا رگرسیون پواسون باید تنها با 3 نقطه داده انجام شود؟ |
93745 | فرض کنید من یک قاب داده دارم به این صورت که: set.seed(2014) df<-data.frame(y=rbinom(100,1,0.3),futime=as.integer(rnorm(100,100,10)), age=rnorm (100،50،5)، جنسیت = rbinom(100،1،0.5)) df[df>100]<-100 سال آینده جنسیت 1 0 100 49.72 1 2 0 100 53.63 0 3 0 91 55.03 1 4 0 100 50.58 1 5 0 928 105 1. 'y' نتایج است و _futime < 100_ به درستی از زمان پیگیری سانسور شده است. تفاوت در تجزیه و تحلیل بقا در جایی که ما زمان بقا را با توجه به وضعیت سانسور آنها مدل می کنیم، در اینجا من علاقه مند هستم که آیا یک سوژه ممکن است یک رویداد را تجربه کرده باشد یا وضعیت سانسور یا زمان پیگیری آن را نداشته باشد. من متعجبم که بهترین مدل برای این نوع شرایط کدام است. یا، آیا فقط استفاده از futime به عنوان یک پیش بینی منظم در یک مدل لجستیک عادی کافی است؟ من فکر می کنم یک موقعیت خاص باید در اینجا در نظر گرفته شود. آیا کسی پیشنهاداتی دارد؟ | چگونه می توان یک مدل را برای نتایج باینری سانسور شده مناسب کرد؟ |
92291 | هدف من طبقه بندی 3 کلاس از داده های EEG است. وقتی دادههایم را روی فضای ویژگی ترسیم کردم تا بتوانم تجسم کنم، متوجه شدم که آنها روی چنین صفحه خطی قرار دارند (لطفاً به شکلهای من نگاه کنید). قبل از رسم، چندین روش برای استخراج ویژگی اعمال کرده بودم (مثلاً: الگوی فضایی مشترک، ...) در اینجا به طور مختصر رویه های خود را توضیح خواهم داد. من از Common Spatial Pattern استفاده کردم. داده های من سیگنال های EEG هستند که از 2 کانال تشکیل شده است. من فیلتر عبور باند را برای استخراج 8 باند فرعی دیگر برای هر کانال اصلی اعمال می کنم. نرخ نمونه 128 هرتز است، و من اندازه ویندوز را 1 ثانیه انتخاب کردم، بنابراین داده های من در 1 ثانیه را می توان به عنوان $\\{E_n\\}_{i=1}^M \in R^{\rm{کانال نشان داد } \times 128}$ که در آن $M$ تعدادی آزمایش است. هر آزمایشی با یک کلاس خاص مرتبط خواهد بود. من سعی می کنم $W$ را پیدا کنم که $W^\intercal E = S$ و $S_n \در R^{d \times 128}$ ($d<\rm{کانال}$). ویژگی هر آزمایشی $(x_1 ... x_d)$ است که در آن $x_i = \log \bigl(\frac{var(s_i)}{\sum{s_i}}\bigr)$ است. من $d=2$ را برای شکل 1 و $d=3$ را برای شکل 2 انتخاب کردم و $S$ را رسم کردم. سوال من این است: پدیده چیست؟ آیا مشکل در استخراج داده یا ویژگی من است؟   | داده های من در یک صفحه خطی قرار دارند |
94590 | فرض کنید من یک رگرسیون خطی $y = \beta x + \rm error$ را برازش می کنم. در این وضعیت، $x > 0$، $\alpha > 0$، و بنابراین $y > 0$. علاوه بر این، خطای $\rm$ معمولاً با میانگین $0$ و انحراف استاندارد $\sigma$ توزیع میشود. حال، اگر معیار خطای دیگری را محاسبه کنم، درصد خطا، که 100$*\rm پیش بینی شده / واقعی$ است، آنگاه خطا با مقدار $y$ کاهش می یابد. یعنی مدل با افزایش مقادیر $y$ بهتر به نظر می رسد. این متناقض به نظر می رسد. هر فکری؟ یک مثال این است که فرض کنید ما فروش را به عنوان تابعی از میزان تخفیف پیشبینی میکنیم. فروش با مقدار تخفیف افزایش می یابد. به نظر می رسد این مدل، بر اساس درصد خطا، برای مقدار بیشتر تخفیف (فروش بیشتر) عملکرد خوبی دارد. هر گونه بینش قدردانی می شود. | درصد خطا برای مدل رگرسیون خطی |
35472 | من متوجه شدم که در حین بررسی مدل رگرسیون چند متغیره، یک اثر چند خطی کوچک اما قابل توجه وجود دارد، همانطور که با عوامل تورم واریانس اندازهگیری میشود، _در_ دستههای یک متغیر طبقهبندی (البته پس از حذف دسته مرجع). به عنوان مثال، فرض کنید یک مجموعه داده با متغیر پیوسته y و یک متغیر طبقه بندی اسمی x داریم که دارای k مقادیر متقابل انحصاری ممکن است. ما آن مقادیر احتمالی $k$ را به عنوان متغیرهای ساختگی 0/1 $x_1، x_2،\dots، x_k$ کدگذاری می کنیم. سپس یک مدل رگرسیونی $y = b_0 + b_1x_1 + b_2x_2 + \dots + b_{k-1}x_{k-1}$ را اجرا می کنیم. امتیاز VIF برای متغیرهای ساختگی $k-1$ غیر صفر است. در واقع با افزایش تعداد دسته ها، VIF ها افزایش می یابد. قرار دادن متغیرهای ساختگی در مرکز به نظر نمی رسد که VIF ها را تغییر دهد. به نظر می رسد توضیح شهودی این است که شرایط انحصاری متقابل دسته ها در متغیر طبقه بندی باعث این چند خطی خفیف می شود. آیا این یک یافته بی اهمیت است یا موضوعی است که باید در ساخت مدل های رگرسیون با متغیرهای طبقه بندی در نظر گرفت؟ | آیا چند خطی بودن در متغیرهای طبقه بندی ضمنی است؟ |
1053 | من به دنبال یک کتاب/آموزش خوب برای یادگیری تجزیه و تحلیل بقا هستم. من همچنین به منابعی در مورد انجام تجزیه و تحلیل بقا در R علاقه مند هستم | منابع برای تجزیه و تحلیل بقا |
32870 | من در حال آماده شدن برای تجزیه و تحلیل برخی از داده ها هستم و یک سوال در مورد چگونگی انجام آن دارم. این یک نظرسنجی 39 سوالی با پاسخ های 5 سوالی در مقیاس لیکرت است. من از پاسخها برای تفکیک شرکتکنندگان به دستهای که در آن بالاترین امتیاز را کسب کردهاند، برای تجزیه و تحلیل بیشتر استفاده خواهم کرد. مشکل این است که رده A با 14 سوال، رده B دارای 11 سوال و رده C دارای 14 سوال است. بهترین راه برای تعیین اینکه شرکتکننده در کدام یک بالاترین امتیاز را دارد، زیرا تعداد سؤالات برابر نیست، چیست؟ آیا گرفتن کل امتیازات ممکن آنها در هر دسته و تقسیم آن بر تعداد امتیازات ممکن کار می کند، سپس درصد آنها را در سه دسته مقایسه کنید تا ببینید کدام بالاترین است؟ | محاسبه گروه های اولیه |
73112 | من یک ANOVA را برای مقایسه نتایج دو آزمایش انجام می دهم. افراد باید با چشم بسته به سمت سطل راه می رفتند و انحراف آنها از هدف ثبت می شد. میخواهم ببینم آیا افراد با تمرین بهتر میشوند (آیا انحرافات trial-2 کمتر از آزمایشی-1 هستند) و آیا رابطهای بین کارآزماییها در رابطه با جنسیت و دستدستی (چپ دست/راست دست) وجود دارد. **آیا ANOVA مناسب است؟** همچنین من در R مشکل دارم زیرا جنسیت را M و F و Handedness را L یا R قرار داده ام. آیا باید اینها را عددی کنم یا خیر؟ | ANOVA با استفاده از R - مطمئن نیستید که آیا آنالیز مناسب است و آیا متغیرها باید عددی باشند |
67199 | من داده های فروش هفتگی سال گذشته غذاهای کوتاه مدت را دارم. من می خواهم فروش را برای 30 روز آینده پیش بینی کنم. من می توانم رقم فروش را برای یک هفته پیش بینی کنم. اما مشکلی که من با آن روبرو هستم این است که چگونه می توانم یک پیش بینی روزانه ایجاد کنم؟ آیا روشی برای انجام این کار وجود دارد یا باید یک پیش بینی هفتگی برای تمام هفت روز توزیع کنم؟ | پیش بینی فروش |
55011 | من سردرگمی در رابطه با تست Kruskal wallis دارم. من یک مثال دارم، مثلاً X=[2 2 35 10 9 8 11 12]; Y=[1 1 1 2 2 2 2 2]; Y متغیر گروه است حالا وقتی تست kruskalwallis را اجرا کردم p = kruskalwallis(X,Y,'off') مقادیر p حدود 0.4 را دریافت کردم. من فرض میکردم که آزمون Kruskal wallis میانگین را میگیرد. بنابراین زمانی که من یک عدد پرت با مقدار 35 را در موقعیت سوم اضافه کردم، باید قوی بود. چرا آن را به آن قوی نیست. آیا به این دلیل است که من نمونه های بسیار کمی دارم. کسی میتونه توضیح بده؟ | سردرگمی مربوط به تست کروسکال والیس |
73114 | من می خواهم سبک نوشتن آنها را یاد بگیرم. آیا می توانید یک آماردان نویسنده خوب را معرفی کنید؟ | بهترین نویسنده در بین آماردانان کیست؟ |
107829 | اگر من یک مقدار شناور تصادفی بین 0…1 ایجاد کنم، مثلا تا 40 رقم، یا _n_ رقم، **آیا شانس بدست آوردن یک صفر واقعی (0) یا یک واقعی (1) فوق العاده کم نیست؟** در شرط صفر، هر رقم 0 تا 9 باید صفر باشد و در شرط یک، عدد صحیح اول باید یک باشد و بقیه باید به طور پیش فرض صفر باشد. آیا منطق نحوه نمایش یک عدد در نحوه تولید اعداد تصادفی تأثیر میگذارد یا در غیر این صورت بر میزان بعید بودن آن نتیجه تأثیر میگذارد؟ _من بینش خوبی در مورد نحوه تولید اعداد تصادفی ندارم. اگر بپرسید تعریف شما از عدد تصادفی چیست؟ فرض کنید یک رقم تولید شده می تواند تصادفی آماری را نشان دهد. * * * قسمت 2 اگر من اعدادی را در یک محدوده تولید کنم، مثلاً 5…8، آیا همه نتایج با مقدار صحیح [5،6،7،8] نیز بسیار بعید نیستند؟ _توجه: کل این سوال کاربردی ندارد. من فقط کنجکاو هستم. این سوال تا حدی تحت تأثیر شرحهای ریاضی ViHart در یوتیوب بود، بهویژه اثبات اینکه برخی بینهایتها بزرگتر از سایر بینهایتها هستند، و بهطور خاص استدلال مورب کانتور. _P.S. اگر هر ناظری بخواهد این سوال را به جای دیگری منتقل کند، برای من اشکالی ندارد!_ | آیا نتایج اعداد صحیح از مولدهای اعداد تصادفی بعید است؟ |
100830 | این مربوط به مقاله یواخیمز در سال 1998 در مورد آموزش SVMها (پیوند به مقاله) است. در 11.3، میدانم که چگونه عبارت $V(\mathbf d)$ در نتیجه تقریب مرتبه اول به وجود میآید، و چرا باید آن را به حداقل رساند. >  من متوجه نمی شوم که چگونه روش موجود در 11.3.2 از توضیحات 11.3 ناشی می شود. >  مقدار $\omega_i$ چگونه $V(\mathbf d)$ را نشان می دهد؟ و چگونه انتخاب شرایط بالا و پایین $q/2$ به حداقل رساندن $V(\mathbf d)$ دلالت دارد؟ | آموزش SVM: انتخاب مجموعه کاری |
100832 | چند مقاله (* در مورد پیشبینی حفظ کاربر در StumbledUpon) خواندم و دیدم نویسندگان فهرستی از ویژگیها را با دقت هر ویژگی با توضیح زیر ارائه میکنند: >  از آنجایی که درختهای تصمیم از کسب اطلاعات برای یافتن بهترین ویژگی استفاده میکنند، ما در عوض از درختهای تصمیم با ویژگیهای واحد استفاده میکنیم و دقت آنها را در طبقهبندی درخت تصمیم برای حفظ و گزارش میکنیم. URL های حفظ نشده جدول 2 رتبه بندی را بر اساس اندازه گیری مجذور کای و صحت درخت تصمیم > بر اساس ویژگی های فردی نشان می دهد. من در مورد اینکه چگونه می توانند این کار را انجام دهند سردرگم هستم. من فقط می توانم تصور کنم که از chi-squared برای ایجاد رتبه و دانستن مهم ترین ویژگی ها (ارزیابی ویژگی ها) استفاده کنم، اما در این مورد نمی دانم چگونه دقت هر ویژگی را محاسبه کنم. متشکرم. | نحوه محاسبه دقت هر ویژگی |
110421 | مجموعه داده من اساساً یک سری زمانی است - هر مورد یک روز است و چندین رویداد برای هر مورد مشاهده می شود. من در تجزیه و تحلیل سری های زمانی تجربه ندارم، اما هنوز هم دوست دارم حداقل اطلاعاتی از آن داده ها به دست بیاورم. همانطور که میدانم، همه متغیرها شمارشهایی هستند که بیان میکنند چند بار در آن روز خاص رخ داده است. علاوه بر آن، هیچ یک از متغیرها به طور معمول توزیع نمی شود، بلکه پواسون توزیع شده است و اکثریت قریب به اتفاق مقادیر 0 هستند، بنابراین من نمی توانم یک رگرسیون خطی ساده را اجرا کنم. من سعی کردم از مدل خطی تعمیم یافته در SPSS استفاده کنم، اما متأسفانه نمی دانم برای تفسیر خروجی :(. می خواهم حداقل بدانم که آیا رابطه ای بین این دو متغیر وجود دارد یا خیر، بنابراین همبستگی پیرسون را اجرا کردم، آیا آن است. خوب، یا برخی از مفروضات را نقض کرده ام، اگر یکی از متغیرها را 1 روز عقب بیاندازم و سپس همبستگی را اجرا کنم، آیا خروجی به معنای وقوع رویداد 1 است؟ (متغیر الف) بر وقوع رویداد در متغیر 2 در روز بعد تأثیر دارد؟ | شمارش همبستگی داده ها |
72645 | من در یک مشکل گیر کرده ام و نمی دانم که آیا کسی می تواند به من پیشنهاد دهد. $X_1، X_2، X_3$ همگی از توزیع $\text{Uniform}[0,1]$ پیروی میکنند و مشمول محدودیت $X_1+X_2+X_3\leq 1$ هستند. توزیع مشترک برای $(X_1، X_2، X_3)$ چیست، یعنی، $p(X_1، X_2، X_3)$ چیست، و ماتریس واریانس-کوواریانس برای آن چیست؟ من توزیع مشترک را به روش هندسی دریافت می کنم که pdf باید $1/6$ باشد. با این حال، من نمی توانم ماتریس واریانس-کوواریانس را برای آن محاسبه کنم. من تعجب می کنم چگونه آن را دریافت کنم؟ | پی دی اف و کوواریانس این توزیع چیست؟ |
35479 | من این مثال را دریافت کردم و در مورد یک عبارت خاص تعجب کردم: $$ \begin{aligned} y_1 &= \alpha_{12}y_2 + \alpha_{13}y_3 + \beta_{11}z_1 + u_1 \\\ y_2 & = \alpha_{21}y_1 + \beta_{21}z_1 + \beta_{22}z_2 + \beta_{23}z_3 u_2 \\\ y_3 &= \alpha_{32}y_2 + \beta_{31}z_1 + \beta_{32}z_2 + \beta_{33}z_3 + \beta_{34}z_4 + u_3 \ end{aligned} $$ نوشته شده است که در اولین معادله مدل میتوانیم از همه متغیرهای برونزای حذف شده استفاده کنیم. یعنی $z_2، z_3، z_4$ به عنوان ابزاری برای دو رگرسیور درون زا $y_2،y_3$. اما همانطور که به یاد آوردم نمی توانم از $z_2$ و نه $z_3$ برای $y_2$ استفاده کنم زیرا این متغیرها قبلاً در معادله 2 ظاهر می شوند. در درک من می توانم از $z_2، z_3، z_4$ برای $y_1$ استفاده کنم اما نه برای $y_2، y_3$ درست است؟ | درباره شناسایی در یک SEM 3 معادله |
94599 | اگر یک مدل رگرسیون اعمال می شود و باقیمانده هایی وجود دارد که بسیار زیاد یا بسیار کم هستند (به معنی نقاط پرت در مقایسه با سایرین)، آیا عمل خوبی است که از شر آن مشاهدات خلاص شوید و سپس دوباره رگرسیون را انجام دهید، به خصوص اگر شما یک مقدار بسیار بزرگ دارید. نمونه داده؟ | مشاهدات با باقیمانده بسیار زیاد یا بسیار کم در رگرسیون |
73113 | پیشینه سوال: سلام، من سعی کردم یک مدل GARCH(1,1) را با واریانس بازده log یک سری و ARMA(0,0) را برای میانگین بسازم. من از پکیج fGarch در R برای انجام این کار استفاده می کردم. هدف از مدلسازی، تولید یک عدد نوسان پیشبینیشده برای وارد کردن به مدل بلک شولز برای ایجاد قیمت اختیار و در نتیجه دلتاهای اختیار است. من قصد دارم دلتا را از نوسانات GARCH برای محافظت از موقعیت های اختیارم (برخلاف دلتاهای مشتق شده از قیمت های حجمی ضمنی) آزمایش کنم. سوالات: الف) من از تابع پیش بینی در بسته برای ایجاد پیش بینی نوسانات n-day ahead استفاده کردم. همانطور که من GARCH را درک می کنم، این اعداد اعداد انحراف استاندارد سالانه هستند. برای پوشش گزینه 1 ماهه، می خواهم نوسانات 30 روزه را پیش بینی کنم. برای بدست آوردن اعداد به سادگی می توانم 'n-days ahead = 30' را قرار دهم، اما ** چگونه می توانم این 30 عدد را برای به دست آوردن یک عدد سالیانه ترکیب کنم؟** B) لطفاً کسی می تواند نحوه استفاده از آرگومان nroll را توضیح دهد. در بسته؟ اساساً من می خواهم تخمین های GARCH از نوسانات را ارائه کنم. به عنوان مثال، در روز 10، من می خواهم از داده های 10 روز گذشته برای دریافت پیش بینی حجم برای روز 11 استفاده کنم، در روز 50 می خواهم از 50 روز داده برای پیش بینی حجم روز 51 و غیره استفاده کنم. هر کمکی می تواند بسیار مفید باشد. قدردانی کرد. | سوال اساسی GARCH (1،1). |
107826 | من مقالات زیادی خوانده ام، اما درک آنها سخت است. لطفاً تعدیل رگرسیون برای نمرات تمایل را به روش ریاضی توضیح دهید. درک من از تعدیل رگرسیون این است که امتیاز گرایش را به عنوان یک متغیر مستقل در مدل لحاظ کنم (که در آن _Y_ متغیر نتیجه است): _Y_ = intercept + coefficent$_a\cdot$propensity + coefficient$_b\cdot$treatment وقتی مدل را برازش می کنیم، اگر ضریب$_a$ (که عبارت امتیاز ضریب تمایل در معادله است) مقداری بیشتر از 0.05، پس می توان گفت اثر درمان معنی دار نیست. درست میگم؟ با این حال، برخی از مقالهها میگویند اثر درمان = $Y_t-Y_c-B(X_t-X_c)$. این به چه معناست؟ من فکر کردم اثر درمان برابر با $Y_t-Y_c$ است، $B(X_t-X_c)$ در اینجا چه می کند؟ آیا X_t$ تمام کوواریانس ها و مدت درمان را شامل می شود یا فقط شرایط کوواریانس را شامل می شود؟ | امتیاز تمایل به تعدیل رگرسیون |
79619 | من یک دانشمند احمق هستم و فرآیندی دارم که به آن علاقه مندم. این داده های سری زمانی زیادی به من می دهد. من یک مدل صریح و تحلیلی دارم که کاملاً در واقعیت ریشه دارد و اساساً به نمایی های مناسب خلاصه می شود. متأسفانه، با آزمایشاتی که من می توانم انجام دهم، مدل کمتر تعیین شده است. دو پارامتر اغلب با هم مرتبط هستند. مثل همیشه، این پارامترهایی است که من واقعاً به آنها اهمیت می دهم. در حال حاضر، من از «lsqcurvefit» متلب برای تطبیق مدل خود با داده ها استفاده می کنم. من مقادیر شروع مناسب را از سایر ابزارها تخمین می زنم و بخش هایی از داده های خود را با مدل های مختلف تطبیق می دهم، سپس از آن مقادیر استخراج شده روی داده های دیگر (بعد) برای بدست آوردن پارامترهای دیگر استفاده می کنم. این یک کار شکستگی را انجام می دهد و معمولاً به سرعت روی مقادیر معقول همگرا می شود. من میتوانم تخمینهای _a priori_ مناسب برای توزیع احتمالی همه این پارامترها بسازم - همه اینها فقط سینتیک شیمیایی است، و میتوانم برخی از این پارامترها را در محیطهای مشابه _in vitro_ اندازهگیری کنم. من واقعاً دوست دارم کاری هوشمندانه تر از استفاده از «lsqcurvefit» مانند ماپت انجام دهم. آیا من درست فکر می کنم که روش های بیسی برای مقابله با این مهره وجود دارد؟ چه کار کنم؟ آیا این یک مشکل حل شده در استنتاج بیسی است؟ اگر امکان دارد یک مقدمه مناسب به من معرفی کنید، واقعاً دوست دارم آن را بخوانم. من یک فیزیکدان هستم که در یک موقعیت بیولوژیکی کار می کنم، اگر این به شما کمک می کند به هر متنی فکر کنید. | استنتاج بیزی و برازش منحنی |
35470 | این بیشتر یک سوال تئوری است. اندازههای نمونه بسیار بزرگ تقریباً همیشه وقتی یک آزمایش $\chi^2$ انجام میشود، اهمیت نشان میدهند. آیا آزمون آماری معناداری دیگری (جایگزینی برای $\chi^2$) وجود دارد که برای آزمایش استقلال زمانی که حجم نمونه بسیار بزرگ است خوب باشد؟ این زمینه مشکل من است: من 2 مجموعه داده بزرگ از عبارات دارم. Set1 مربوط به مجموعه n-grams Google است و set2 مجموعه کوچکتری مربوط به عبارات موجود در یک وب سایت است. اکنون یک عبارت را در نظر بگیرید: بگویید (تکنولوژی) موجود در Set2. میخوام تست کنم ببینم این عبارت مخصوص این وبسایت هست (ممکنه سایت تکنولوژی باشه) یا کلی هست. بنابراین من یک آزمایش $\chi^2$ بین فرکانس عبارات در دو مجموعه به شرح زیر انجام می دهم: Set1 Set2 Not_Technology (set1) 2,674,797,869,255 (set2) 46,168,477.00 فناوری (set1) 1710231 ممکن است این را درک نکنم (set12) بهترین روش برای آزمایش اینکه آیا یک عبارت است یک عبارت کلی است یا نه، بنابراین اگر پیشنهاد یا انتقادی دارید خوشحال می شوم به آنها گوش دهم. | آزمون اهمیت برای حجم نمونه بزرگ |
100837 | من می دانم که می توان از توابع هسته (یعنی هسته شعاعی) برای ایجاد مرز تصمیم گیری غیر خطی استفاده کرد. با این حال، چیزی در منطق من وجود دارد و من مطمئن هستم که چیزی وجود دارد که من به وضوح متوجه اشتباه آن شده ام: می دانم که توابع هسته در یک فضای مشخصه با ابعاد بالا و ضمنی بدون محاسبه مختصات داده ها در آن فضا عمل می کنند، بلکه توسط به سادگی محصولات داخلی را بین تصاویر تمام جفت داده ها در فضای ویژگی محاسبه می کند. این عملیات اغلب از نظر محاسباتی ارزانتر از محاسبه صریح مختصات است. اینجاست که منطق من اشتباه کرد: بنابراین، من معتقدم $K: \mathbb{R}^N \rightarrow \mathbb{R}$، یعنی ورودی را از فضای بابعد به فضای یک بعدی نگاشت میکند. (درست نیستم. \mathbb{R}^N$. این به یک تناقض تبدیل می شود و بسیار گیج کننده است. لطفا سوء تفاهم من را اصلاح کنید. با تشکر | دلایل استفاده از روش کرنل در SVM را بشناسید |
50195 | چند سوال در رابطه با تحلیل عاملی که من انجام می دهم. تجزیه و تحلیل موازی 5 عامل (یا احتمالاً 6) را برای مدل من پیشنهاد می کند و هر دو مفهوم بالینی دارند. با این حال، عامل هفتم فقط 2 مورد دارد - جالب است که آنها با هم ظاهر شدند زیرا آنها کمی افراطی تر هستند و با هم بودن آنها منطقی است. آنها در مدل 5 عاملی بارگذاری متقاطع می کنند. تفاوت بسیار کمی بین مدل های 5 و 6 عاملی در آمار برازش وجود دارد (TLI,CFI RMSEA). با این حال، تفاوت در مجذور کای بسیار قابل توجه است (90 در 30 درجه آزادی). من تمایل دارم به مدل 5 عاملی پایبند باشم و دو مورد را حذف کنم (اما آنها را در گزارش ذکر کنم) اما به دلیل خی دو قابل توجه نمی دانم چگونه این را توجیه کنم. در حالی که آزمون کای اسکوئر برای مدل به شدت به حجم نمونه بستگی دارد، آیا تفاوت در کای اسکوئر وجود دارد؟ اگر نه، چگونه می توان نادیده گرفتن آن را توجیه کرد؟ به نظر شما تحلیل موازی برای انتخاب تعداد فاکتورها بر تفاوت کای اسکوئر اولویت دارد؟ *ویرایش ابلهانه | تفاوت در مجذور کای برای تحلیل عاملی |
74697 | من سعی می کنم مثالی را که در کتاب تام میچل _Machine Learning_ (1997) یافتم، با استفاده از R تکرار کنم. این نمونه ای از فصل 6 است. 14 مثال آموزشی (در زیر نشان داده شده است) از مفهوم هدف PlayTennis وجود دارد که در آن هر روز با ویژگی های Outlook، Temperature، Humidity و Windy توصیف شده است. نمونه های آموزشی: چشم انداز، دما، رطوبت، باد، پخش ابری، خنک، معمولی، درست، بله ابری، گرم، زیاد، اشتباه، بله ابری، گرم، معمولی، غلط، بله ابری، ملایم، زیاد، درست، بله بارانی، خنک، معمولی، کاذب، بله بارانی، ملایم، زیاد، کاذب، بله بارانی، ملایم، معمولی، غلط، بله آفتابی، خنک، معمولی، اشتباه، بله آفتابی، ملایم، معمولی، درست، بله بارانی، خنک، معمولی، درست، بدون باران، ملایم، بالا، واقعی، بدون آفتابی، گرم، بالا ,نادرست,بدون آفتابی,گرم,بالا,درست,بدون آفتابی,معتدل,بالا,کاذب,نه اینجا من هستم کد: library(klaR) library(caret) data = read.csv(example.csv) x = data[,-5] y = data$Play model = train(x,y,'nb' ,trControl=trainControl(method='cv',number=10)) چشم انداز <- آفتابی دما <- خنک رطوبت <- بالا باد <- true instance <- data.frame (Outlook, Temperature, Humidity, Windy) predict(model$finalModel,instance) مثال سعی می کند نتیجه Outlook=sunny, Temperature=cool, Humidity=high و Wind را پیش بینی کند. =strong مشکل این است که من یک پیش بینی متفاوت از پیش بینی کتاب دریافت می کنم. اینها احتمالاتی است که من از کد خود دریافت کرده ام: نه بله 0.001078835 0.9989212 در اینجا احتمالات کتاب آمده است: نه بله 0.0206 0.0053 کد من داده های دیده نشده را به صورت بله و طبقه بندی کننده کتاب هر دو را به عنوان نه طبقه بندی می کند. پاسخ دهید زیرا ما از همان بیز ساده لوح استفاده می کنیم طبقه بندی کننده؟ ویرایش: من مثال را با استفاده از طبقهبندیکننده MultinomialNB scikit-learn تکرار کردم و احتمالات زیر را دارم نه بله 0.769 0.231 که مشابه احتمالات **نرمال شده** کتاب است. احتمالات عادی کتاب خیر بله 0.795 0.205 | پیشبینی با استفاده از Naive Bayes بسته klaR با شکست مواجه میشود |
93748 | من باید آزمایش ریشه واحد را روی یک سری زمانی معین انجام دهم. خروجی به دست آمده در Stata تا حدودی من را گیج می کند. تا آنجا که من می دانم دو نتیجه متناقض به دست می آورم، Stata که نشان می دهد سری زمانی با یک فرآیند ریشه واحد مطابقت دارد، در حالی که ظاهراً می گوید ضریب به طور قابل توجهی با صفر متفاوت است، بنابراین با این ایده که سری زمانی واقعاً از یک ریشه واحد پیروی می کند در تضاد است. فرآیند این خروجی به دست آمده در Stata است: . سری dfuller3، تاخیرهای رگرسیون غیر ثابت(0) تست دیکی-فولر برای ریشه واحد تعداد obs = 48 ----------- درون یابی دیکی-فولر ---------- تست 1% بحرانی 5% بحرانی 10% ارزش آماری بحرانی ارزش ارزش ------------------------------------------------ ---------------------------- Z(t) 8.943 -2.623 -1.950 -1.609 ------------------------------------------------ ---------------------------- D.series3 | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ سری3 | L1. | .1314633 .0147005 8.94 0.000 .1018897 .1610369 ------------------------------------------------ --------------------------- واضح است که آمار آزمون نشان می دهد که فرضیه صفر پذیرفته شده است و بنابراین سری زمانی با فرآیند ریشه واحد مطابقت دارد. با این حال، مقدار p به دست آمده برای L1 0.000 است که نشان می دهد که تفاوت قابل توجهی با صفر دارد (0.1314633 را نمی توان به عنوان 0 در نظر گرفت). من در جایی خواندم که این ممکن است مربوط به خود تست دیکی فولر تقویت شده باشد. با این حال، به نظر نمی رسد که دوباره این پیوند را پیدا کنم. من همچنین تست دیکی فولر تقویت شده را با استفاده از تاخیر و همچنین تست فیلیپس-پرون اجرا کردم و نتایج مشابهی به دست آوردم. آیا کسی می داند که چرا ADF چنین نتایجی را ارائه می دهد و علت این ناهنجاری چیست؟ | تضاد خروجی دیکی فولر افزوده شده در Stata |
27138 | من علاقه مند به تعیین این هستم که آیا تصمیم گیری یک نهاد دولتی خاص پاسخگوی سیاست ها و تغییرات قانونی است که در مقاطع زمانی مشخص رخ داده است یا خیر. من می توانم تصمیمات این نهاد را به عنوان 1) پیشنهاد رد شده طبقه بندی کنم. 2) پیشنهاد اصلاح شده پذیرفته شده؛ 3) پیشنهاد پذیرفته شده (بدون تغییر). من میتوانم سیاست یا تغییرات قانونی را بهصورت دوگانه طبقهبندی کنم - برای مثال، «با مقرراتزدایی» و «بدون مقرراتزدایی». مدل مداخله ای که در این سوال قبلی مورد بحث قرار گرفت - اثر کمی یک متغیر طبقه بندی شده در تحلیل سری های زمانی \- بسیار مرتبط به نظر می رسد، اما فکر می کنم تفاوت های مهمی بین مجموعه داده من و مجموعه داده توضیح داده شده در آنجا وجود دارد: 1. در سوال مرتبط، OP یک متغیر پاسخ پیوسته داشت. در مورد من، میتوانم متغیر مقولهای «تصمیم» را انتخاب کنم و آن را به یک متغیر پیوسته «نرخ پذیرش» یا «نرخ رد شده» تبدیل کنم، اما 2. زمانبندی متغیر پاسخ ممکن است به راحتی کدگذاری نشود. بین زمان درخواست تصمیم از ارگان دولتی و زمانی که این نهاد این تصمیم را گرفته است، فاصله وجود دارد و این تأخیر از مشاهده ای به مشاهده دیگر متفاوت است. علاوه بر این، تصمیمگیریها عموماً به صورت دستهای اتفاق میافتند (پدیدهای که من نمیتوانم به راحتی توضیح دهم) - یعنی طرحی از فواصل مورد استفاده برای اندازهگیری «نرخ پذیرفتهشده» تغییرات قابلتوجهی در N از بازهای به بازه دیگر دارد. به طور کلی، من علاقه مندم که آیا اصلاحی در مدل مداخله شرح داده شده در لینک بالا وجود دارد که باید آن را بررسی کنم یا هر مدل دیگری که ممکن است مرتبط باشد؟ یکی از همکاران ARIMAX را پیشنهاد کرد که من چیزی در مورد آن نمی دانم. پیشاپیش از هرگونه کمکی که ممکن است بتوانید ارائه دهید متشکریم. | مدلی که باید در ارزیابی پاسخگویی یک متغیر طبقه بندی به تغییرات سیاست در طول زمان استفاده شود؟ |
27136 | درصد زنان آمریکایی 25 ساله و بالاتر که 4 سال یا بیشتر از کالج را به پایان رسانده اند 26.1 است. در یک نمونه تصادفی متشکل از 200 زن آمریکایی که حداقل 25 سال دارند، احتمال اینکه حداکثر 50 نفر 4 سال یا بیشتر از دانشگاه را به پایان برسانند چقدر است؟ | چگونه یک احتمال دو جمله ای را محاسبه کنیم؟ |
32876 | من در حال حاضر یک مجموعه داده دارم، کلاس 1 با حدود 8000 فایل متنی کوتاه و کلاس 2 با حدود 3000 فایل متنی کوتاه. من LibSVM را اعمال کردم و چند ترکیب پارامتر را در آزمایش اعتبارسنجی متقابل امتحان کردم. به طور کلی دقت کلاس 1 در محدوده (85٪، 90٪) قرار می گیرد. دقت کلاس 2 در محدوده (70٪، 75٪) قرار می گیرد. فراخوانی کلاس 1 و کلاس 2 در محدوده (80٪، 85٪) قرار می گیرد. برای مقاصد طبقه بندی متن، فضای ویژگی متن را با پیروی از رویکردهای رایج ساختم، نشانه گذاری سند، فیلتر کردن کلمات توقف و ساخت کلمه برداری با استفاده از tf-idf یا فرکانس باینری و غیره. همچنین مدل n-gram را برای ساخت فضای ویژگی امتحان کردم. . اما این رویکردها عملکرد را چندان بهبود ندادند. میخواهم بدانم آیا راههای دیگری وجود دارد که میتواند به تنظیم LibSVM برای بهبود عملکرد کمک کند. LibSVM جستجوی شبکه ای را برای تنظیم پارامتر فراهم می کند، اما بسیار کند اجرا می شود. | ماشین بردار پشتیبانی برای طبقه بندی متن |
25409 | **ویرایش** من با تکنیکهای تشخیص الگو بازی میکنم و صرفاً برای درک سادهتر آن، سعی کردم طبقهبندیکنندهای ایجاد کنم که رشتهها را بر اساس تعداد فرکانس احتمالی در برچسبهای A,B,C به 3 کلاس دستهبندی میکند. هر برچسب نشان دهنده تسلط حروف است، به این معنی که اگر یک رشته با طول ثابت L=8 حاوی حداکثر A باشد، آن را در زیر A و غیره طبقه بندی می کنیم. بنابراین، این نتایج عددی ویژگی ها را تشکیل می دهند. آیا کدی وجود دارد که هنگام استفاده از همان نمونه و مجموعه آموزشی که نقاط داده هستند، میزان موفقیت طبقهبندیکنندهها را رسم کرده و نشان دهد. نقاط داده ویژگی هایی هستند که تعداد فرکانس حروف در یک رشته را نشان می دهند. من علاقه مند به استفاده از k-NN، Classifier Bayes و تجزیه و تحلیل اجزای تکه ای (PCA) هستم. من از تابع اعتبار متقاطع آگاه هستم اما نمی توانم از آن برای این منظور استفاده کنم. 3 کلاس وجود دارد که هر کدام شامل 100 ردیف داده تک ستونی و یک نمونه ناشناخته با اندازه یکسان است. 1. مسئله فقط تأیید این است که آیا همه کلاس های عمومی دیگر نیز همین اعداد احتمالی را به عنوان ویژگی های خود دارند؟ اگر چنین است، پس چگونه با k-NN کار کنیم زیرا فاصله بین رشته ها را محاسبه می کند (در حالت htis حدس می زنم که به سادگی مقادیر asscii یا اقلیدسی باشد) و طبقه بندی کننده من تعداد فرکانس را محاسبه می کند. 2. ویژگی های k-NN، Bayes، و PCA چه خواهد بود؟ 3. برای k-NN آیا k=تعداد کلاس ها -1 است؟ 4. من ROC را برای طبقهبندیکنندهام رسم کردهام و همانطور که طراحی پیش میرود، یک رشته قطعاً تحت یکی از کلاسها طبقهبندی میشود. بنابراین، هر منحنی ROC یک کلاس را نشان میدهد، بنابراین 3 منحنی از این قبیل وجود دارد. آیا این رویکرد درست است. ? 5. چگونه می توان با ROC مقایسه ای برای هر 4 طبقه بندی کننده اقدام کرد؟ | چگونه می توان عملکرد موفقیت طبقه بندی کننده را پیدا کرد؟ |
69889 | بهعنوان یک غیرآمار، برای تفسیر الزامات قابلیت اطمینان دو بخشی مشخص شده توسط مشتری که فکر میکنم KS را شامل میشود، به کمک نیاز دارم. بخش الزامی 1 R [4 سال] باید بزرگتر یا مساوی 0.95 باشد و R[8 سال] باید بزرگتر یا مساوی 0.85 باشد. مورد نیاز در قطعه A زیر. پارامتر شکل 1.664 و عمر مشخصه 23.844 برای این توزیع است. ![Plot A\]!\[توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bY5JN.png) الزامات قسمت 2 سطح اطمینان باید 90٪ در هنگام نشان دادن نیاز قسمت 1 از طریق عمر محصول باشد. تست کردن این قسمت 2 است که من کمی در آن متزلزل هستم. در صفحه 8-54 MIL-HDBK-338B (http://www.sre.org/pubs/Mil-Hdbk-338B.pdf) جدولی وجود دارد که مقادیر «d» بحرانی KS را به عنوان اندازه نمونه تابع، N نشان می دهد. و سطح معنی داری، آلفا (به نمودار صفحه 8-57 نیز توجه کنید). از این جدول من مقدار d 0.264 را بر اساس مقدار معنی داری 0.10 و اندازه نمونه 20 گرفتم. نمودار B زیر نتیجه من را نشان می دهد. تفسیر من از پلات B این است که پس از اجرای آزمایش عمر بر روی 20 نمونه که اگر نمودار قابلیت اطمینان حاصل از مرز پایین نشان داده شده در نمودار B قرار نگیرد، ما الزامات را برآورده کرده ایم. ![Plot B\]!\[توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ilZqf.png) من دو سوال دارم: 1. آیا هنگام استفاده از یک مورد نیاز قسمت 2 را به درستی ترجمه کردم آلفای 0.10 برای به دست آوردن مقدار بحرانی KS 0.264؟ به عبارت دیگر، آیا اطمینان 90٪ با اهمیت 0.10 در زمینه KS برابر است؟ اگه نه کسی میتونه راهنمایی کنه؟ 2. _you_ نمودار B را چگونه تفسیر می کنید؟ با تشکر فراوان. * * * پاسخ به پاسخ owensmartin از پاسخ شما متشکرم. من جمله شما استدلال شما نادرست نیست را به عنوان یک رای اعتماد بزرگ در نظر خواهم گرفت. من فقط چند مورد در زیر دارم که از نظرات هر کسی در مورد آنها سپاسگزارم. الف حق با شماست که توابع قابلیت اطمینان من نیز توابع بقا هستند. من معتقدم که منحنی اسمی صرفاً تعریف CDF اسمی است. ب اگرچه من قدرت آماری را محاسبه نکرده ام، اما وقتی می گویید در این حجم نمونه بسیار کم است تعجب نمی کنم. با این حال مشتری ما با اندازه نمونه 20 و در نتیجه قدرت کم حاصله راحت است. ج مشتری ما همچنین با استفاده از راهنمای نظامی ارجاع شده و مقادیر مهم KS مرتبط که در آن نشان داده شده است، راحت است، حتی اگر آنها تقریبی باشند. همانطور که زمان اجازه می دهد، امیدوارم یاد بگیرم که چگونه این مقادیر حیاتی را دقیقا محاسبه کنم تا مجبور نباشم به مقادیر کتاب راهنما تکیه کنم. د برای پاسخ به سؤال شما که آیا واقعاً به فیت Weibull نیاز دارم؟ پاسخ کوتاه منفی است زیرا هیچ چیز «جادویی» خاصی در مورد توزیع Weibull وجود ندارد. پاسخ کمی طولانی تر این است که من مطمئن نیستم که چگونه می توان منحنی بقای اسمی را تولید کرد که بتوانم مقدار d 0.264 را روی آن اعمال کنم. منحنی اسمی نشان داده شده در نمودار B با حل دو معادله همزمان برای پارامتر شکل و عمر مشخصه با دانستن اینکه R[4] = 0.95 و R[8] = 0.85 نیازها را برآورده می کنند، ساخته شد. این در نمودار A نشان داده شده است. من گمان می کنم که سایر انواع توزیع رایج ممکن است نتوانند هر دوی این الزامات را به طور همزمان برآورده کنند. اما به دلیل انعطاف ذاتی Weibull، قادر است. ه. برای اطمینان از اطمینان 90 درصد، من فکر می کنم تا زمانی که توزیع برازش حاصل از آزمایش عمر 20 نمونه از مرز پایین نشان داده شده در نمودار B پایین نیاید، آیا شما موافقت می کنید که می توانیم بگوییم که 90 درصد مطمئن هستیم که به آن رسیده ایم. الزامات اعلام شده؟ تنها استثنایی که میتوانم در این مورد ببینم این است که هنگام برازش دادههای آزمون به یک توزیع، اگر درجه برازش آنقدر ضعیف باشد که اعتبار آن را زیر سوال ببرد. اما در حل مسائل مهندسی، این همیشه به عنوان یک دغدغه وجود دارد که باید با آن برخورد کرد. f. با توجه به نتایج تست ناموفق و عدم موفقیت، ما معمولاً تلاش میکنیم تا هر یک از 20 نمونه با شکست مواجه شوند تا بتوانیم با عدم قطعیت اضافه مرتبط با نقاط داده سانسور شده یا معلق جلوگیری کنیم. ما این را از طریق روشهای آزمایش عمر تسریعشده به دست میآوریم که اساساً با افزایش چرخه کار و/یا مقدار (های) تنش، زمان را فشرده میکند. با تشکر از هر گونه بینش بیشتر در این مورد. | تفسیر توزیعهای تولید شده با ارزش بحرانی Kolmogorov-Smirnov |
23800 | یک مقدار در مقایسه با فهرستی از مقادیر چقدر مهم است؟ در بیشتر موارد، آزمون آماری شامل مقایسه یک مجموعه نمونه با یک جامعه است. در مورد من نمونه با یک مقدار ساخته شده است و ما آن را با جامعه مقایسه می کنیم. من در آزمون فرضیههای آماری سختگیر هستم و شاید با اساسیترین مشکل روبرو هستم. این فقط یک تست نیست بلکه صدها تست است. من یک فضای پارامتر دارم و باید برای هر نقطه یک تست معناداری انجام دهم. هم مقدار و هم لیست پس زمینه (جمعیت) برای هر ترکیب پارامتر ایجاد می شود. سپس من این را با p-value سفارش می دهم و ترکیب پارامترهای جالبی را پیدا می کنم. در واقع، یافتن ترکیبات پارامترهایی که این p-val زیاد است (بی اهمیت) نیز مهم است. بنابراین بیایید یک تست واحد انجام دهیم: من یک مقدار محاسبه شده از یک مجموعه انتخاب شده و یک مجموعه پس زمینه از مقادیر که با انتخاب یک مجموعه آموزشی تصادفی محاسبه می شود، دارم. مقدار محاسبه شده 0.35 است و مجموعه پس زمینه (احتمالا؟) به طور معمول با میانگین 0.25 و std بسیار باریک (e-7) توزیع می شود. من در واقع دانشی در مورد توزیع ندارم، زیرا نمونه ها از چیز دیگری محاسبه می شوند، آنها نمونه های اعداد تصادفی از برخی توزیع ها نیستند، بنابراین پس زمینه کلمه درستی برای آن است. فرضیه صفر این خواهد بود که میانگین آزمون نمونه برابر است با مقدار محاسبه شده من، 0.35. چه زمانی باید این را یک تست Z یا یک تست T در نظر بگیرم؟ من می خواهم مقدار به طور قابل توجهی بالاتر از میانگین جمعیت باشد، بنابراین این یک آزمون تک دنباله است. من در مورد اینکه چه چیزی را به عنوان نمونه در نظر بگیرم کمی سردرگم هستم: من یا یک نمونه از یک (مشاهده) و فهرست پیشینه به عنوان جامعه دارم یا نمونه من لیست پس زمینه است و من آن را با کل (بدون نمونه) مقایسه می کنم. جمعیتی که طبق فرض صفر باید میانگین یکسانی داشته باشند. پس از تصمیم گیری، آزمون به جهات مختلف می رود. اگر آزمون T است، چگونه p-value آن را محاسبه کنم؟ من می خواهم به جای استفاده از تابع R/Python/Excel آن را خودم محاسبه کنم (من قبلاً می دانم چگونه این کار را انجام دهم) بنابراین ابتدا باید فرمول صحیح را ایجاد کنم. برای شروع، من گمان میکنم که آزمون T کمی بیش از حد کلی باشد، زیرا در مورد من، آزمون T به حجم نمونه مرتبط میشود و این شکل را دارد: $$T=Z/s، $$ که در آن $$ Z=\frac{\bar{X}}{\frac{\sigma}{\sqrt{n}}}$$ و s $$s=\hat{\sigma}/\sigma$$ است، std نمونه در مقابل جمعیت std. بنابراین من دو حالت دارم: یا حجم نمونه من اندازه جامعه است، که حدس می زنم به این معنی است که با یک آزمون Z سر و کار دارم، یا آمار جامعه (n و std) ناشناخته است اما توزیع می تواند در تا حدودی تقریبی است و من واقعاً با یک آزمون تی سروکار دارم. در هر صورت سوالات زیر عبارتند از: 1. چگونه یک مقدار p را محاسبه کنم؟ (یعنی از تابع R/Python/Excel یا جستجوی جدول p-value استفاده نمیکنم، اما در واقع آن را بر اساس یک فرمول محاسبه میکنم، زیرا میخواهم بدانم چه کاری انجام میدهم) اندازه نمونه (یک فرمول خوب خواهد بود) | آزمون آماری برای مقداری که به طور قابل توجهی دورتر از جامعه است، به این معناست: آیا این یک آزمون Z است یا یک آزمون T؟ |
23803 | 1. من از libsvm و اعتبارسنجی متقاطع 3 برابری برای انتخاب بهترین C و گاما استفاده میکنم، اما مطمئن نیستم که محدوده مورد نظر در جستجوی شبکه استفاده شود. آیا روش استانداردی برای انتخاب این محدوده وجود دارد؟ من از log2c =(-10:3:4) و log2g=exp(-10:3:4) استفاده کردم. نقطه برای من؟ متشکرم | جستجوی شبکه و تحمل در libsvm |
110966 | من از PBmodcomp از pbkrtest برای مقایسه مدل بوت استرپ پارامتریک استفاده می کنم. با این حال، برای برخی از مقایسهها، پیام هشداری مبنی بر عدم تلاقی مدلها ظاهر میشود. نمونهای از اسکریپت R برای مدلهای lemr من را میتوانید در اینجا پیدا کنید: http://stackoverflow.com/questions/25111939/error-runnning-parametric-bootstrap-pbmodcomp-on-lmer-objects modelfit.04b[[1] <- PBmodcomp(output.04b[[1]], output.04a[[1]]) پیام های هشدار: 1: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل همگرا نشد: Hessian degenerate با 1 مقدار ویژه منفی 2: در checkConv(attr(opt، مشتقات )، opt$par، ctrl = control$checkConv، : مدل همگرا نشد: Hessian منحط با 1 مقدار ویژه مدلfit.04b[[1]] تست بوت استرپ پارامتریک: 611.59 sec: 1000 extreme : y ~ age_c + gender_R2 + ibphdtdep + apoeduce + age_c * ABCA7_carrier + ABCA7_carrier * apoegeno + age_c * ABCA7_carrier * apoegeno + (age_c | pathid) کوچک : y ~ age_c + gender_R2 + ibphdtdep + iyeareducc + apoegeno + age_c + AB_car ABCA7_carrier + (سن_ج | pathid) stat df p.value LRT 6.5422 4 0.1621 PBtest 6.5422 0.1568 مدل های من هیچ مشکلی با همگرایی خارج از بوت استرپ ندارند. بنابراین سؤال من این است که آیا این روی p.value که من از تابع PBmodcomp دریافت می کنم تأثیر می گذارد؟ آیا هنوز معتبر است؟ با تشکر | خطاهای همگرایی در بوت استرپ های پارامتریک (PBmodcomp) مدل های lmer |
93740 | من روی پروژهای کار میکنم که در آن حضور/غیاب تعدادی از پرندگان و گونههای هرپتیل را بین تالابهایی که سه درمان مختلف دریافت کردهاند، مقایسه میکنم. جمعیت ها در دو سال مختلف بررسی شدند. بنابراین متغیر پاسخ یک متغیر دستهبندی باینری است و متغیرهای پیشبینیکننده (تصفیه تالاب و سال نمونهبرداری) نیز دستهبندی هستند. وضعیت کمی پیچیدهتر میشود، زیرا برنامههای نمونهگیری متفاوتی بین دو سال استفاده میشد، که در نتیجه حجم نمونههای متفاوتی بین دو سال به وجود آمد. من به دنبال مدلسازی حضور/غیبت حیوانات با استفاده از تابع glm() در R هستم، اما مطمئن نیستم که آیا ممکن است رویکرد مناسبتری وجود داشته باشد؟ | استفاده از مدل های لاگ خطی برای داده های حضور/غیاب در حیات وحش |
74691 | من اطلاعاتی از شرکت خود دارم که در حال بررسی آنها هستم. من معاملاتی را که باخته کرده ایم با معاملاتی که برنده شده ایم مقایسه می کنم. من میانگینهای محصول و انحراف استاندارد را مقایسه کردهام و دریافتهام که میانگین و انحراف استاندارد (برای برخی صنایع) برای معاملات از دست رفته کمتر است. ما هر محصول را با قیمتهای تعیینشده میفروشیم، اما محصولات در صورت درخواست میتوانند تخفیفهای ویژهای داشته باشند که باعث قیمتهای تصادفی میشود. برخی از محصولات بسته به مشتری بالاتر یا کمتر فروخته می شوند. وقتی به دادهها نگاه میکنم، قیمتها کمی منحرف شدهاند، اما به نظر میرسد که به طور معمول توزیع میشوند. آیا این بدان معناست که می توانم قیمت را تصادفی در نظر بگیرم و قضیه حد مرکزی را اعمال کنم؟ همچنین، اگر بتوانم محدوده را به طور معمول توزیع کنم، قیمت پایین تر تهاجمی تر را پیشنهاد خواهم کرد. آیا این منطقی است؟ | آیا می توان قیمت فروش را به عنوان یک متغیر تصادفی در نظر گرفت؟ |
92299 | من مجموعه نسبتاً تمیزی از داده ها (5410 سند) را برای آموزش یک طبقه بندی کننده متن جمع آوری کرده ام. اکنون در حال تلاش برای بهبود موفقیت در طبقه بندی خود هستم. (توجه: وقتی طبقهبندیکننده را از روی دادههای درون نمونه آموزش دادم/آزمایش کردم، امتیاز بسیار خوبی کسب کردم. اکنون که از دادههای خارج از نمونه استفاده میکنم، موفقیت من حدود 25 درصد کاهش یافته است. خبر بد، اما غیرمنتظره نیست. مجموع ML newb.) آیا داشتن توزیع مساوی (یا مساوی) اسناد آموزشی موفقیت طبقه بندی را بهبود می بخشد؟ به عنوان مثال، اگرچه من فقط شش دسته دارم - برچسب های A، B، C، D، E، F - تعداد اسناد آموزشی من برای هر برچسب بسیار متفاوت است، به عنوان برچسب A = 328. برچسب B = 1,973; برچسب C = 148; برچسب D = 822; برچسب E = 40; و برچسب F = 1242. نظری هست؟؟ (توجه: من در واقع نمی دانم که آیا این توزیع نماینده چیزی است که من احتمالاً خارج از نمونه می بینم یا خیر. آیا الگوریتم ایده آلی برای کمک به این عدم قطعیت وجود دارد؟) در حال حاضر من از Scikit`svm.LinearSVC( )` طبقه بندی کردن. از شما برای هر بینش متشکرم! | تفاوت در تعداد اسناد (نقاط داده های آموزشی) چگونه بر طبقه بندی متن تأثیر می گذارد؟ |
27137 | این پاورقی توسط افرون در فصل کنترل نرخ کشف نادرست ظاهر میشود: > من سعی میکنم از عبارت «مهم» برای موارد رد شده به عنوان اصطلاحات مشکوک حتی در آزمایشهای تک موردی، و بدتر از آن در زمینه نرخ کشف نادرست اجتناب کنم. ترجیح دادن به جای جالب. \--Bradley Efron > Large Scale Inference 2010, p.47 دلایل موافق و مخالف پذیرش این تغییر در نامگذاری چیست؟ آیا مهم است که چنین آماردان برجسته ای از اهمیت اجتناب می کند؟ بهویژه زیستپزشکی و مراقبتهای بهداشتی حوزههایی هستند که شواهد کمی عمدتاً بر اساس مطالعات ارتباطی، اعم از RCT یا مشاهدهای، استوار است. پیوندها بین درمان ها و پیامدها، یا نشانگرهای زیستی و وضعیت بیماری، به چارچوب آزمون فرضیه بستگی دارد. آیا استفاده از جالب در مقیاس بزرگ می تواند باعث تجدید نظر در قدرت شواهد مرتبط با چنین پیوندهایی شود، حتی اگر P-value یا z-scores هنوز هم نتایج را کمی کنند؟ | در یک صفت چیست؟ مهم افرون --> جالب |
55018 | **سناریوی فرضی**: چند متغیر پیوسته که هر کدام به طور مکرر در مثلاً 12 نقطه زمانی اندازه گیری می شوند که هر کدام مثلاً 150 مشاهده دارند. نوسانات کوچکی از یک نقطه زمانی به نقطه دیگر وجود دارد (یعنی تغییر چندان هموار نیست)، اما متغیرها تغییرات کلی مربوط به زمان را نشان میدهند. **سوال**: گزینه های مختلف و مزایا و معایب آنها در ترسیم و ارائه تغییر در چنین داده هایی چیست؟ اگر بتوان نمودارها/کدهای نمونه را ضمیمه کرد بسیار عالی خواهد بود. این احتمالاً یک سؤال بسیار مبهم و کلی است، و من میدانم که بسیار به آنچه که میخواهد برجسته کند، نوع تحلیلهای انجام شده، تعداد نقاط زمانی، تعداد مشاهدات و غیره بستگی دارد. اما بسیار مفید خواهد بود. برای داشتن ایده ای که مردم معمولاً چگونه داده های طولی خود را ترسیم می کنند و چه گزینه های (خوب) در دسترس هستند. من به ویژه علاقه مند به شنیدن گزینه هایی برای برجسته کردن تغییرات مربوط به زمان با تفاوت های فردی (مانند تغییرپذیری در هر نقطه زمانی و تغییر در مسیر منحنی رشد) در این تغییرات هستم. برای علاقه مندان، در اینجا 100 مشاهده به طور تصادفی از یک بخش از 12 نقطه زمانی برای بازی انتخاب شده است. موارد مفقود به عنوان NA کدگذاری شدند و داده ها به طور گسترده ساختار یافته بودند. | ترسیم و ارائه داده های طولی، گزینه ها؟ |
55019 | من در تحلیل رگرسیون تازه کار هستم. بنابراین، اگر لطف کنید به من کمک کنید تا یک مدل برای مجموعه دادهام تنظیم کنم، سپاسگزار خواهم بود. به طور خلاصه، من تصاویری از چشم های بیمار (10) و تصاویر چشم کنترل (25) دارم. من 167 ویژگی آماری از همه این چشم ها را ایجاد کردم تا متمایزترین ویژگی ها یا درجاتی را که بتوانم همه ویژگی ها را از هم متمایز کنم، بیابم. من همچنین لایه ضخیم را دارم که در آن این فرض وجود دارد که با کاهش ضخامت، بیماری رخ می دهد. من متوجه شدم که باید یک تحلیل رگرسیون چندگانه انجام دهم: با استفاده از مقادیر ضخامت چشم به عنوان متغیر وابسته و 167 ویژگی به عنوان متغیر مستقل. من همه مقادیر را بین 0 تا 1 مقیاس کردم. نمی دانم چگونه در Matlab شروع کنم. من از دستور 'regress' استفاده کردم اما پاسخ کاملاً برای من درست نبود. لطفاً راهنماییم کنید که آیا مدل درست است و در مرحله بعد چه کار کنم، چگونه نتایج را ارائه دهم. | رگرسیون خطی چندگانه |
28651 | در یک مدل رگرسیون خطی منظم (به عنوان مثال، رگرسیون پشته، کمند، و غیره)، بهترین راه برای به دست آوردن خطاهای استاندارد برای تخمین پارامترها چیست؟ اگر از اعتبارسنجی متقاطع استفاده شود، آیا تخمین خطای استاندارد برای هر پارامتر به عنوان انحراف استاندارد در بین چینها از نظر آماری صحیح است؟ | خطای استاندارد تخمین پارامترها در رگرسیون منظم |
32295 | آیا تابعی در R وجود دارد که با همه توزیعهای آماری مطابقت داشته باشد و بهترین برازش را بر اساس log-relihood و آماره Kolmogorov-Smirnov D (KSD) انتخاب کند؟ مانند نرم افزاری به نام EasyFit | برازش تمام توزیع های آماری در R و انتخاب بهترین تناسب |
100836 | من در حال حاضر در حال انجام مطالعه ای در مورد وام مسکن معکوس برای پایان نامه کارشناسی ارشد خود هستم و می خواهم یک متغیر بازه ای را به ترتیبی تبدیل کنم تا تحلیل رگرسیون پروبیت ترتیبی را اجرا کنم. متغیر فاصله من این است: وام مسکن معکوس به طور کلی معامله خوبی است --> مقیاس لیکرت 1-7 (که در آن 1 = کاملاً مخالف، 4 = خنثی، 7 = کاملاً موافقم). چگونه می توانم این متغیر را تبدیل کنم؟ | یک متغیر بازه ای را در SPSS به ترتیبی تبدیل کنید |
32290 | بیشتر یک سوال زیبایی شناسی مربوط به ارائه داده های آماری است، فرض کنید که 2 مجموعه داده دارید، وزن سرعت a 2.2 500 b 4.7 222 c 7.3 999 d 3.1 1000 بنابراین اگر سرعت ها و وزن ها را بر روی نمودار میله ای مشابه رسم کنید، خواهید دید میله های ریز و موزون را برای همه مقادیر سرعت دریافت کنید (که آنها را ناخوانا می کند). با این حال، داده ها باید با هم مشاهده شوند، زیرا رابطه ای بین سرعت و وزن وجود دارد که می خواهید نشان دهید. چیزی که من به آن رسیدم نمودارهای میله ای مجاور بود:  اما به نوعی اضافی به نظر می رسد، با محورهای مکرر آنجا. | چگونه می توان دو نمودار میله ای را با مقیاس های بسیار متفاوت تجسم کرد بدون اینکه زائد به نظر برسد |
32297 | تفاوت بین Superpopulation و Infinite جمعیت چیست؟ لطفا این را با مثال توضیح دهید. با تشکر | تفاوت بین ابرجمعیت و جمعیت بی نهایت |
25404 | برای توزیع برنولی با پارامتر p، تعداد آزمایشهایی با احتمال 50 درصد حداقل یک موفقیت در حدود (1/p) * ln(2) است. اما مقدار مورد انتظار توزیع هندسی مربوطه 1/p است. به طور شهودی انتظار دارم که آنها یکسان باشند (1/p). چه چیزی را از دست داده ام؟ | چرا مقدار مورد انتظار تعداد آزمایشات قبل از اولین موفقیت بزرگتر از تعداد آزمایشات با احتمال موفقیت 50 درصد است؟ |
32128 | آیا نمونه ای وجود دارد که چگونه می توانم از توزیع پیش بینی قبلی (بدون داده) در جاگ ها نمونه برداری کنم؟ من میخواهم درک بهتری از سهم قبلی در یک مدل چندسطحی با استفاده از jags داشته باشم. من احتمالاً میتوانم یک شبیهسازی را بهصورت دستی با استفاده از R تنظیم کنم، اما از آنجایی که من قبلاً روابط توزیعی را به صورت jags تنظیم کردهام، اگر بتوانم آن را بدون تنظیم کد شبیهسازی تکراری در R انجام دهم، ترجیح داده میشود. | چگونه از توزیع پیش بینی قبلی در جاگ ها نمونه برداری کنیم؟ |
74692 | من در یک کلاس آمار مقدماتی هستم که در آن تابع چگالی احتمال برای متغیرهای تصادفی پیوسته به صورت $P\left\\{X\in B\right\\}=\int_B f\left(x\right)dx تعریف شده است. $. من میدانم که انتگرال $\int\limits_a^af(x)dx=0$ است، اما نمیتوانم آن را با شهود خود از یک متغیر تصادفی پیوسته اصلاح کنم. می گوییم X متغیر تصادفی برابر با تعداد دقیقه از زمان t است که قطار می رسد. چگونه می توانم احتمال رسیدن قطار را دقیقاً 5 دقیقه دیگر محاسبه کنم؟ چگونه این احتمال می تواند صفر باشد؟ امکانش نیست؟ اگر قطار دقیقاً 5 دقیقه دیگر برسد، اگر احتمال 0 داشته باشد چگونه ممکن است اتفاق بیفتد؟ با تشکر | احتمال اینکه یک متغیر تصادفی پیوسته یک نقطه ثابت را فرض کند |
65832 | من از نظر ریاضی میدانم که چگونه میتوان ضرایب را در حداقل مربعات معمولی به دست آورد. چیزی که من با آن دست و پنجه نرم می کنم این است که یک توضیح مفهومی و هندسی برای بخش همبستگی ضریب رگرسیون خطی ساده ارائه دهم. فرض کنید معادله زیر را داریم: $$ y = \hat\beta_1x + \hat\beta_0 $$ که در آن $$ \hat\beta_1 = \frac{S_{xy}}{S^2_x} = r_{xy}\frac {S_y}{S_x} $$ and $$ \hat\beta_0 = \overline{y} - \hat\beta_1\overline{x} $$ اگر درست متوجه شده باشم، ما اساساً فقط تخمینهایی از اسپرد ($\hat\beta_1$) و تغییرات موقعیت ($\hat\beta_0$) دریافت میکنند که میتواند $x$ را به بهترین شکل ممکن به $y$ تبدیل کند (حداقل مربع). بنابراین از آنچه من میدانم، نسبت انحرافات استاندارد ($\frac{S_y}{S_x}$) باعث میشود که $x$ همان اسپرد $y$ را داشته باشد، و سپس تخمین $\beta_0$ $x را تغییر میدهد. $ به همان موقعیت $y$. چیزی که من از دست می دهم این است که همبستگی $r_{xy}$ در این تبدیل خطی انجام می دهد. اگر اسپرد و موقعیت $x$ را مانند بالا تغییر دهیم، $r_{xy}$ نشان دهنده چیست؟ | تبیین مفهومی ضریب رگرسیون؟ |
23808 | من از یک مدل رگرسیون خطی برای انجام استنتاج بر روی برخی از داده های مشاهده ای استفاده می کنم. نمونه ها از یک مطالعه مشاهده ای هستند و به شدت در امتداد برخی از متغیرهای ساختگی در رگرسیون منحرف شده اند. درک من این است که تا زمانی که خطاها نامرتبط باشند و واریانس نابرابر داشته باشند، مشکلی ندارد. پیشبینیهای مربوط به مناطق ضعیف نمونهگیری شده متغیر مستقل ممکن است خیلی دقیق نباشد، اما نباید بر اعتبار استنتاج تأثیر بگذارد. آیا این درست است؟ | آیا مشکلاتی در استنتاج با استفاده از رگرسیون خطی روی دادههای مشاهدهای با توزیع بسیار اریب مقادیر پیشبینیکننده وجود دارد؟ |
57325 | من از بسته «scatter.smooth» در R استفاده میکنم، و میخواهم یک متن شکلی داشته باشم که خط در نمودار پراکندگی را برای گزارش من توصیف کند. آیا درست است که بگوییم خط یک منحنی صاف است که توسط LOESS تعبیه شده است (_ارجاع به بسته_) یا نیاز به توضیح بیشتر دارم؟ (این یک پایان نامه کارشناسی ارشد مهندسی نرم افزار است) وگرنه چگونه می توانم خط را در یک جمله کوتاه توصیف کنم؟ | آیا گفتن منحنی صاف متناسب با LOESS صحیح است؟ |
56091 | من یک متغیر تکی دارم که مقادیر جمعیت من را نشان می دهد (نمونه داده): [1] 94.51 59.81 63.84 94.51 94.51 94.51 94.51 94.51 94.51 94.51 [11] 59.81 94.51 94.51 29.16 50.36 23.51 44.41 33.14 [21] 47.90 29.16 47.90 29.16 47.90 29.16 47.90 29.16 47.90 29.14 29.16 29.16 ... 29.12 24.52 12.37 29.12 24.52 12.37 29.12 [341] 24.52 12.37 29.12 24.52 12.37 29.12 24.52 24.52 12.374 [341] 12.37. 29.12 24.52 12.37 45.25 25.78 49.84 29.12 24.52 12.37 [361] 29.12 24.52 12.37 29.12 24.52 12.37 29.12 $ خلاصه 1 ق. میانگین میانه 3rd Qu. حداکثر 6.11 35.94 59.13 62.31 86.10 111.50 > mean(group$V1) [1] 62.30546 > sd(group$V1) [1] 29.55491 هیستوگرام مربوطه این است:  و تست نرمال بودن Shapiro: داده های تست نرمال بودن Shapiro-Wilk: group$V1 W = 0.9466، p-value = 3.161e-10 با آخرین اطلاعات نتیجه گیری من این است که جمعیت به طور معمول توزیع نشده است. هدف استخراج نمونه از این جامعه است، اما من برای استفاده از روشی برای تعیین حجم نمونه مشکل دارم، زیرا در برخی از روش ها این فرض بر اساس نرمال بودن جامعه است. (با توجه به این مرجع) نمونه لازم است این گروه را با یک گروه تصادفی با اندازه نمونه مشابه مقایسه کند و تک متغیری که باید ارزیابی شود بیتاسکور است. برخی از مراجع، پیشنهادات، رویکردها؟ پیشاپیش ممنون | اندازه نمونه برای توزیع غیر عادی اعمال شد |
32291 | طبق ویکی پدیا: $\mathrm{بتا}(\alpha,\beta) = \mathrm{گاما}(\alpha,\theta) / (\mathrm{گاما}(\alpha,\theta) + \mathrm{گاما} (\beta,\theta))$ با این حال، وقتی سعی می کنم این را در R شبیه سازی کنم: > m <- 2^11 > a <- گاما(m,1,1) / (رگاما(m,1,1) + گاما(m,1,1)) > quantile(a,1:9/10) 0.05576023 0.12110211 0.19886341 0.2908818185610.290881814510. 0.80151216 1.20748646 2.13406961 > qbeta(1:9/10,1,1) 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 این دو توزیع به نظر می رسند که در درصد کمتر و پایین تر یکسان به نظر نمی رسند. شاخص m. هر چند شبیه سازی برای $\alpha$ و $\beta$ بالاتر کار می کند. من متوجه شدم که از آنجایی که $\mathrm{Gamma}(1,1)$ با $\mathrm{نمایی}(1)$ یکسان است، تقسیم یک عدد نمایی بر مجموع دو عدد نمایی می تواند نتیجه ای بزرگتر از 1 ایجاد کند، در حالی که توزیع بتا فقط از اعداد واقعی در $(0,1)$ پشتیبانی می کند، بنابراین من نمی دانم چگونه فرمول بالا برای هر $\alpha$ و هر $\beta$ درست است. (حتی کوچک)؟ آیا من بین تابع گاما و توزیع گاما اشتباه گرفتم یا چیز دیگری است؟ | اگر $X \sim \mathrm{Gamma}(\alpha,1)$ و $Y \sim \mathrm{Gamma}(\beta,1)$، $X/(X+Y) \sim \mathrm{بتا است }(\alpha,\beta)$? |
32122 | آیا منابعی وجود دارد که بتوانم عملکرد مدلهای مختلف ML را که روی دادههای مشابه اعمال میشوند، ببینم؟ در حال حاضر میخواهم تفاوت درک عملکرد/یادآوری بین رگرسیون لجستیک آنلاین mahout در مقابل Mallet MaxEnt، LibLINIEAR را درک کنم. | مقایسه بسته داده کاوی منبع باز |
5354 | من اطلاعاتی درباره پروازهای خطوط هوایی دارم (در چارچوب داده ای به نام «پروازها») و می خواهم ببینم آیا زمان پرواز تأثیری بر احتمال تأخیر قابل توجهی در رسیدن (به معنی 10 دقیقه یا بیشتر) دارد یا خیر. به این نتیجه رسیدم که از رگرسیون لجستیک استفاده میکنم، با زمان پرواز به عنوان پیشبینیکننده و اینکه آیا هر پرواز به طور قابلتوجهی تأخیر داشته است یا نه (تعدادی از برنولی) به عنوان پاسخ. من از کد زیر استفاده کردم... flights$BigDelay <- flights$ArrDelay >= 10 delay.model <- glm(BigDelay ~ ArrDelay, data=flights, family=binomial(link=logit)) summary(delay.model ) ... اما خروجی زیر را دریافت کرد. > flights$BigDelay <- flights$ArrDelay >= 10 > delay.model <- glm(BigDelay ~ ArrDelay, data=flights, family=binomial(link=logit)) پیام های هشدار: 1: در glm.fit(x = X، y = Y، وزن ها = وزن، شروع = شروع، etastart = استارت، : الگوریتم انجام نشد همگرا 2: در glm.fit(x = X، y = Y، وزن = وزن، شروع = شروع، etastart = etastart، : احتمالات برازش عددی 0 یا 1 رخ داده است > خلاصه (delay.model) تماس: glm(فرمول = BigDelay ~ ArrDelay، خانواده = دو جمله ای (پیوند = logit)، داده = پرواز) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -3.843e-04 -2.107e-08 -2.107e-08 2.107e-08 3.814e-04 ضرایب: تخمین مقدار خطای z Pr(>|z|) (فاصله) -310.314. 0.0668. ArrDelay 32.86 1.833 0.0668 . 2.8375e+06 در 2291292 درجه آزادی انحراف باقیمانده: 9.1675e-03 در 2291291 درجه آزادی AIC: 4.0092 تعداد تکرارهای امتیاز دهی فیشر: 25 به چه معناست که الگوریتم همگرا نشد؟ من فکر میکردم به این دلیل است که مقادیر «BigDelay» به جای «0» و «1» «TRUE» و «FALSE» بودند، اما پس از تبدیل همه چیز، همان خطا را دریافت کردم. هر ایده ای؟ | مدل رگرسیون لجستیک همگرا نیست |
65838 | من در حال خواندن ویکیپدیا و برخی یادداشتهایی هستم که در اینترنت پیدا کردم، و هنوز در مورد تعاریف آنها خیلی روشن نیستم. هر دو مدل خطی عمومی و مدل رگرسیون خطی چند متغیره $$ Y = X\beta + e $$ را فرض میکنند که در آن $Y$ $n \بار q$ است، $X$ $n \times p$، $\beta$ است. $p \times q$ است و $e$ $n \times q$ است. $n$ اندازه نمونه، $p$ تعداد متغیرهای ورودی و $q$ تعداد متغیرهای خروجی است. مدل خطی کلی بیشتر چه چیزی را فرض می کند؟ مدل رگرسیون خطی چند متغیره بیشتر چه چیزی را فرض می کند؟ به عنوان مثال، در زیر چند فرض وجود دارد که می توانم در مورد مدل، به طور خاص، در ماتریس خطا $e$ به آن فکر کنم. * میانگین هر ورودی $e$ صفر است * هر دو ورودی $e$ در یک ستون اما سطرهای مختلف نامرتبط هستند * هر دو ورودی $e$ در ستون های مختلف و سطرهای مختلف نامرتبط هستند * همه ورودی های $ e$ در همان ستون اما سطرهای مختلف واریانس یکسانی دارند. اگر همه مفروضات بالا برقرار باشد، آیا می توان تخمین را برای هر متغیر خروجی جداگانه انجام داد؟ اگر همه مفروضات بالا صادق نیستند، آیا خوب است که برای هر متغیر خروجی به طور جداگانه تخمین زده شود؟ با تشکر | مفروضات در مدل خطی عمومی و در مدل رگرسیون خطی چند متغیره؟ |
37516 | فرض کنید که من یک سیستم خطی دارم (مثلاً یک مدار الکتریکی) و سعی می کنم مقادیر پارامترهای موجود در سیستم (مانند مقاومت، اندوکتانس ها و خازن ها) را تخمین بزنم. من این کار را با اندازهگیری پاسخ سیستم به برخی سیگنالهای ورودی (مثلاً یک تابع مرحله) انجام میدهم. اگر نویز در اندازهگیری نامرتبط و گاوسی بود، یک رویکرد واضح برای تخمین پارامتر استفاده از تخمینگر حداکثر درستنمایی است که به برازش حداقل مربعات (غیر خطی) کاهش مییابد. به اندازه کافی ساده با این حال، اگر اندازه گیری بسیار حساس باشد، به طوری که منبع اصلی نویز از اجزای داخلی سیستم (به عنوان مثال نویز جانسون در یک مقاومت) می آید، نویز در خروجی همبستگی خواهد داشت. این بدان معنی است که برآوردگر حداکثر درستنمایی برای پارامترها به یک روش حداقل مربعات ساده کاهش نمی یابد. من مطمئن هستم که مجموعه ای از شیوه های آماری و ادبیات به تخمین پارامتر برای سیستم هایی مانند این اختصاص داده شده است، اما مطمئن نیستم که از کجا شروع کنم. آیا کسی می تواند من را در جهت درست راهنمایی کند؟ **به روز رسانی** فقط می خواهم روشن کنم که اگرچه سیستم خطی است به این معنا که برهم نهی خطی دو سیگنال نیز یک سیگنال معتبر است، خروجی سیستم به عنوان تابعی از زمان مطمئناً خطی نیست. به طور کلی مقداری از نمایی است که در آن ضرایب جلوی هر نمایی تابعی از ثابت های زمانی مختلف است. | تخمین پارامتر برای سیستم خطی با نویز همبسته |
25403 | تصوری که من بر اساس چندین مقاله، کتاب و مقاله ای که خوانده ام این است که روش توصیه شده برای برازش توزیع احتمال بر روی مجموعه ای از داده ها با استفاده از تخمین حداکثر درستنمایی (MLE) است. با این حال، به عنوان یک فیزیکدان، یک راه بصری تر این است که فقط pdf مدل را با استفاده از حداقل مربعات به pdf تجربی داده ها تطبیق دهیم. پس چرا MLE در برازش توزیع های احتمال بهتر از حداقل مربعات است؟ آیا کسی می تواند به من یک مقاله/کتاب علمی که به این سوال پاسخ می دهد اشاره کند؟ تصور من به این دلیل است که MLE مدل نویز را در نظر نمی گیرد و نویز در pdf تجربی ناهمسان است و عادی نیست. | MLE در مقابل حداقل مربعات در برازش توزیع های احتمال |
25400 | من یک مدل بیزی اینجا در R/WinBUGS دارم. این داده پمپ دارای دو ستون زمان و خرابی است. هر مشاهده یک پمپ است و خرابی[1] نشان می دهد که در زمان چند خرابی وجود داشته است[1]. من می خواهم بدانم چگونه می توانم همین مدل را در SAS با استفاده از Proc MCMC بنویسم. متشکرم! پمپ <- تابع() { for(i در 1:10){ شکست[i] ~ dpois(lam[i]) تتا[i] ~ dgamma(a,b) lam[i] <- theta[i]* time[i] } a ~ dgamma(1.5،.25) b ~ dgamma(1.5،.25) } نام فایل <- file.path(tempdir(),'pump.bug') write.model(pump,filename) time <- pumps[,1] fail <- pumps[,2] data <- c('time','fail' ) پارامترها <- c('fail','lam','tta','a','b') pump.sim <- اشکالات(داده، inits=NULL، پارامترها، model.file='pump.bug'، n.iter=20000، n.burnin=1000، n.chains=1، n.thin=1، debug=T) | تجزیه و تحلیل بیزی در R/WinBUGS و SAS (Proc MCMC) |
113199 | آیا نوعی مدل آماری وجود دارد که بتوانم برای تعیین اینکه آیا زمان بر همبستگی بین دو مجموعه داده تأثیر دارد یا خیر استفاده کنم؟ به عنوان مثال بگویید من یک ستون $X$ و یک ستون $Y$ دارم، هر دو فقط ستون هایی از اعداد، و سپس یک ستون زمان. بنابراین هر ردیف دارای زمان، $X$ و $Y$ است. آیا نوعی تحلیل آماری وجود دارد که بتوانم انجام دهم که به من بگوید آیا زمان بر رابطه بین $X$ و $Y$ تاثیر دارد؟ برای اندازه گیری همبستگی بین دو متغیر، ضریب همبستگی پیرسون را اجرا کردم. من در اینجا کاملا حدس می زنم، اما برای مثال آیا می توانم بارها و بارها از همبستگی پیرسون برای بخش های مختلف زمان استفاده کنم و سپس به سادگی تعیین کنم که آیا تغییری در ضرایب همبستگی پیرسون وجود دارد یا خیر؟ آیا راه بهتری وجود دارد؟ | تعیین اینکه آیا زمان بر همبستگی بین x و y تأثیر دارد یا خیر |
32292 | **زمینه**: اسرائیل (و به طور کلی خاورمیانه) مملو از اعتراضات است. من کنجکاو هستم، وقتی عکسی به من داده می شود، تخمین بزنم که چند نفر در آن عکس هستند (اغلب تصویری از جمعیت زیادی). چه مدل سازی می تواند راه حلی برای این مشکل ارائه دهد؟ (و البته، آیا می توان آن را با هر بسته منبع باز انجام داد. مثلاً، R؟) | چگونه تعداد افراد را در یک عکس از جمعیت اندازه گیری کنیم؟ |
37519 | من سعی می کنم یک سری زمانی برای داده های نمونه برداری سه ماهه (زیست توده حیوانات) در یک دوره 10 ساله با 3 تکرار در هر سه ماهه اعمال کنم. بنابراین 40 تاریخ اما 120 مشاهده کل. من تا SARIMA'a را در تجزیه و تحلیل سری های زمانی Shumway و Stoffer و برنامه های آن و همچنین Woodward و غیره را مطالعه کرده ام. تجزیه و تحلیل سری های زمانی کاربردی al.، و درک من این است که هر مدل بر اساس یک مشاهده واحد در هر نقطه از سری زمانی است. پرسش: چگونه می توانم تغییر در هر مشاهده را در مدل خود لحاظ کنم؟ من میتوانم مجموعهای را بر اساس میانگین بسازم، اما در هر مشاهده تنوع را از دست میدهم و فکر میکنم این برای درک من از آنچه اتفاق میافتد بسیار مهم است. | ساخت یک سری زمانی که شامل مشاهدات متعدد برای هر تاریخ است |
27132 | من دادههای شبکه اجتماعی دارم که در آن یک «خود» نام دوستی را «تغییر» میدهد. من یک رگرسیون در R اجرا می کنم که در آن ویژگی های تغییر پیش بینی کننده نتایج برای ego هستند. بنابراین هر مشاهده ای دوتایی با معیارهای متغیر هم برای خود و هم برای تغییر است. مشاهدات متعددی برای هر ایگو وجود دارد که با استفاده از یک مدل gee، خوشهبندی بر روی ego به حساب میآیند. مشکل این است که از من خواسته شده است که مشاهدات متعدد تغییر را نیز توضیح دهم، یا حداقل نشان دهم که وابستگی متقابل بین تغییرات متعدد بر نتایج نهایی تأثیر نمی گذارد. چندین تغییر یکسان در مجموعه داده و همچنین مضربی از همان ایگو وجود دارد. به نظر می رسد این دو گزینه نوعی خوشه بندی متقابل هستند و من مطمئن نیستم که در R امکان پذیر است یا خیر. گزینه دیگری که پیشنهاد شد اجرای یک همبستگی درون گروهی به نوعی بر روی باقیمانده های پیرسون بود که گروه ها تغییر دهنده هستند. برای هر مشاهده من نوعی ICC را در نظر گرفته بودم، اما تعداد دفعاتی که هر تغییر فردی در مجموعه داده نشان داده می شود از 1 تا 7 متغیر است. تا آنجا که من می توانم بگویم، ICC ها انتظار دارند که تعداد اقدامات برای هر گروه در مجموعه داده یکسان باشد. آیا کسی می داند که چگونه می توان یک همبستگی درون گروهی را انجام داد که بتواند گروه هایی را که در آنها تعداد اندازه گیری های متفاوتی وجود دارد مدیریت کند؟ من به صورت آنلاین نگاه کردم و به چیزی که به نظر می رسد به این موضوع رسیدگی کند ندیدم. پیشاپیش برای هر پیشنهادی متشکریم! | همبستگی درون گروهی باقیمانده های پیرسون |
32294 | من می دانم که برای رگرسیون خطی ساده، ضریب همبستگی نمونه جذر R^2$ است. اما این فقط برای یک رگرسیون ساده (یعنی تک متغیره) $Y=\beta_0+\beta_1X+\varepsilon$ است. رگرسیون چندگانه، به عنوان مثال، $Y=\beta_0+\beta_1X_1 + \beta_2X_2+\varepsilon$ چطور؟ آیا رابطه ای بین همبستگی های $corr(Y, X_1)$, $corr(Y, X_2)$ و رگرسیون $R^2$ وجود دارد؟ با تشکر | رگرسیون $R^2$ و همبستگی |
37511 | برای یادگیری ماشین نظارت شده برای پیش بینی، اگر چند متغیر ویژگی واقعی داشته باشم، و همچنین برخی از ویژگی های دسته بندی شده - که با استفاده از متغیرهای ساختگی (010، 001 و غیره) کدگذاری شده اند - متغیرهای واقعی را عادی کرده ام به طوری که هر کدام از آنها به یک می رسد. من نمیدانم قبل از اجرای روتینهای اعتبارسنجی متقابل و روشهای رگرسیون، چه نوع پیشپردازشی را برای بقیه ویژگیهای طبقهبندی انجام دهم. | عادی سازی متغیرهای عامل طبقه بندی شده |
9003 | من حدود 10 متغیر در مورد محصولات دارم. من باید سفارش محصولات را بر اساس کیفیت رتبه بندی کنم. در حال حاضر، کیفیت چیز بسیار ذهنی است، بنابراین من تمام 300 محصول را توسط کارشناسان دامنه رتبه بندی کردم. اکنون 10 متغیر دارم و رتبه بندی توسط یک متخصص تعیین شده است. حدود 1 درصد محصولات باید عالی باشند، حدود 10 درصد باید بسیار خوب، 30 درصد باید خوب، 30 درصد باید متوسط و بقیه زیر حد متوسط هستند. از چه نوع تکنیک مدلسازی برای شکایت از این داده ها و ایجاد سیستمی استفاده می کنید که به طور خودکار قادر به طبقه بندی محصول در آن دسته ها و تقلید قضاوت متخصص باشد. با تشکر | مشکل ترتیب رتبه و/یا طبقه بندی |
57321 | میپرسیدم، وقتی فرض میکنم همه خطاها از نظر تصادفی مستقل هستند، چه اتفاقی برای ماتریس کوواریانس خطاها میافتد؟ آیا ماتریس کوواریانس ثابت است: $$\sigma^2I = \begin{bmatrix}\sigma^2 & ... & 0\\\\. & . &.\\\ 0 & ... & \sigma^2\end{bmatrix}$$ واقعاً از پاسخ شما سپاسگزارم!!! | وقتی خطاها مستقل باشند چه اتفاقی برای ماتریس کوواریانس می افتد؟ |
68218 | اگر بخواهم از یک توزیع یکنواخت پیوسته با بازه $(a,b]$ نمونه برداری کنم، چگونه می توانم آن را در R انجام دهم؟ یا این دقیقاً مانند نمونه برداری از $(a,b)$ در R است. با استفاده از runif(1,min = a, max = b) ? | نمونه از توزیع یکنواخت پیوسته با بازه باز |
57320 | من در حال انجام تجزیه و تحلیل سری های زمانی هستم و می خواهم فاصله پیش بینی را محاسبه کنم. من 24 مقدار بعدی را برای سری زمانی خود پیش بینی کرده ام، اما اکنون می خواهم بازه پیش بینی آنها را نیز محاسبه کنم (مثلاً بازه 95٪). چگونه این کار را انجام دهیم؟ آیا کسی می تواند مراحل را به من نشان دهد؟ من یک پی دی اف در مورد این موضوع پیدا کردم، اما فقط نحوه ایجاد فاصله پیش بینی برای یک پیش بینی مرحله ای را نشان داد... اگر می خواهید ببینید این پی دی اف است... http://www.learningace.com/doc/ 2087382/d6c17c68ca3c0a03278d4a97276a0223/forecast- conf-int-11 ممنون از هر کمکی =) به روز رسانی به سوال: وقتی به سوال من پاسخ می دهید، لطفاً توضیح دهید که چه کاری باید انجام دهم و من را به یک بسته R یا چیز دیگری هدایت نکنید. میخوام بدونم دارم چیکار میکنم =) ممنون | چگونه فاصله پیش بینی برای پیش بینی 24 ساعته خود را محاسبه کنم؟ |
32123 | برای یک شبیه سازی مبتنی بر عامل، باید تغییر درآمد یک فرد را در طول زمان مدل کنم. من به تازگی پاسخی در مورد توزیع احتمال درآمد دریافت کردم، بنابراین می توانم درآمد افراد را با t=0 تعیین کنم، اما درآمد آنها در طول زمان چگونه تغییر می کند؟ آیا این یک سری مارکوف است و اگر چنین است، چه پارامترهای معقولی برای آن مدل خواهد بود؟ | مدل احتمالی برای تغییر درآمد فردی |
23802 | اجازه دهید $A$ و $B$ دو الگوریتم برای حل یک مسئله و $f(.)$ معیار ارزیابی راه حل ها باشد. من از $\frac{f(A(I))}{f(B(I))}$ برای یافتن عملکرد نسبی دو الگوریتم استفاده می کنم. هر دو $A$ و $B$ لیستی از اعداد مثبت را به عنوان ورودی می گیرند. من می خواهم نشان دهم که الگوریتم $A$ بسیار بهتر عمل می کند (در مقایسه با $B$) اگر ورودی $I$ دارای ضریب تغییرات بالاتر باشد. فرض کنید $X$ بردار ضریب تغییرات ورودی ها باشد و $Y$ عملکرد نسبی الگوریتم ها همانطور که در بالا توضیح داده شد. در اینجا نموداری از ضریب تغییرات در مقابل نسبت عملکرد برای 2000 ورودی تصادفی تولید شده است:  همبستگی ضریب تنوع و نسبت عملکرد برای داده های نمونه حدود 0.87 دلار است. حالا دو سوال دارم: 1. با توجه به داده های بالا، آیا می توانم بگویم متغیرها به شدت همبستگی دارند؟ 2. اگر آنها به وضوح همبستگی را نشان دهند، از چه نوع تحلیل/نقشه دیگری می توانم استفاده کنم؟ ویرایش: من یک سوال کاملا مشابه را در Mathematica.SE پرسیدم و پاسخ گرفتم. پاسخ را در زیر می گذارم. | همبستگی نتیجه یک الگوریتم با ضریب تغییرات ورودی |
3793 | آیا اصطلاحی وجود دارد که آنچه را که در زیر میخواهم انجام دهم را توصیف کند؟ همچنین، چگونه این کار را با استفاده از چیزی مانند JMP یا Excel انجام می دهید؟ (یا باید این را در چیزی مانند perl کدنویسی کنم؟) با توجه به این نوع داده ها: ID| باز شد | بسته | مقدار -------------------------------------- 1 | 01/01/2010 | 03/01/2010 | 1 2 | 02/01/2010 | | 2 3 | 02/01/2010 | 05/10/2010 | 3 من می خواهم این داده ها را دریافت کنم و سپس نموداری را با x یک خط زمانی و Y که مقدار کل باز است: در تاریخ | تعداد کل باز --------------------------------- 2010-01-01 | 1 2010-01-02 | 6 2010-01-03 | 5 2010-01-04 | 5 2010-01-05 | 2 | آیا اصطلاحی برای تولید داده های مبتنی بر خط زمانی از نقاط منفرد وجود دارد؟ همچنین چگونه این کار را انجام دهم؟ |
56095 | تصور کنید که مخلوطی از دو توزیع عادی با پارامتر مخلوط داریم: $$p(y_i|\theta) = \theta\phi(y_i;\mu_1, \sigma_1^2) + (1 - \theta)\ phi(y_i; \mu_2، \sigma_2^2)$$ فرض کنید که تنها پارامتر ناشناخته $\theta$ است. من می خواهم برآورد MLE $\theta$ را بدست بیاورم. کاری که من انجام می دهم این است: $$L(\theta | data, \mu_1, \sigma_1^2, \mu_2, \sigma_2^2) = \prod_{i = 1}^{n} p(y_i|\theta) = \prod_{i = 1}^{n} \Big(\theta\phi(y_i;\mu_1, \sigma_1^2) + (1 - \theta)\phi(y_i; \mu_2، \sigma_2^2)\Big) \Rightarrow$$$L(\theta | data، \mu_1، \sigma_1^2، \mu_2، \sigma_2^2) \propto \prod_{i = 1}^{n}\Big[ \theta \Big(\phi_{i1} - \phi_{i2}\Big)\Big] = \theta^n \prod_{i = 1}^{n}\Big(\phi_{i1} - \phi_{i2}\Big) = \theta^nG( Y، param)$$ که در آن $\phi_{i1}$ به اولین چگالی معمولی با $y_i$ متصل و $\phi_{i2}$ اشاره دارد. به دومین چگالی نرمال اشاره دارد. توجه داشته باشید که هیچ $\theta$ در G(Y، param) وجود ندارد. حالا برای بدست آوردن MLE، log و سپس مشتق میگیرم: $$l(\theta | data, \mu_1, \sigma_1^2, \mu_2, \sigma_2^2) = log(L(\theta | data ، \mu_1، \sigma_1^2، \mu_2، \sigma_2^2)) \propto n log(\theta) + log(G) \Rightarrow $$ $$l'(\theta | data, \mu_1, \sigma_1^2, \mu_2, \sigma_2^2) = \frac{n}{\theta}$$ اگر محاسبات من در بالا درست باشد، پس این یک مشتق بسیار عجیب است و من نمی دانم چگونه می توانم تخمین MLE را بدست بیاورم. ممنون میشم اگه منو در این مورد راهنمایی کنید | MLE پارامتر مخلوط در اختلاط دو چگالی معمولی |
26261 | در احتمالات و آمار، مفهوم تصادفی و تصادفی به کرات استفاده می شود. اغلب از مفهوم متغیر تصادفی برای مدلسازی رویدادهایی استفاده میشود که به دلیل شانس اتفاق میافتند. سوال من در مورد اصطلاح تصادفی است. تصادفی چیست؟ آیا تصادفی بودن واقعا وجود دارد؟ من کنجکاو هستم که افرادی که تجربه زیادی در کار با رویدادهای تصادفی دارند در مورد تصادفی بودن چه فکر و چه اعتقادی دارند. | تصادفی بودن چیست؟ |
4983 | من از SVM-light با Matlab برای SVM خطی استفاده می کنم. من می خواهم مدل خروجی را بفهمم، اما نمی توانم هیچ مدرک یا کمکی در مورد آن پیدا کنم. این خروجی است: sv_num: 639 upper_bound: 547 b: 1.4023 totwords: 576 totdoc: 2000 loo_error: -1 loo_recall: -1 loo_precision: -1 xa_error: 14.9500 xa2_0. 86.8559 maxdiff: 9.9611e-004 r_delta_sq: 575.0052 r_delta_avg: 23.9792 model_length: 0.4847 افت: 357.5542 vcdim: 136.107 دو برابر شده: 136.107 index: [2000x1 double] supvec: [639x576 double] kernel_parm: [1x1 struct] example_length: 23.9792 a: [2000x1 double] تا کنون، من متوجه شده ام که بردارهای پشتیبانی `sv_num=639` وجود دارد. با این حال، 638 شاخص مثبت در بردار «شاخص» وجود دارد. همینطور برای مقادیر مثبت بردار «آلفا». اولین مقدار بردار «آلفا» صفر است و مقادیر غیر صفر بین 2 و 639 هستند. همین نکته در مورد بردار «supvec». بنابراین به نظر می رسد در واقع 638 بردار پشتیبانی وجود دارد. در واقع، من میخواهم خودم ابرصفحه «W» و پارامتر «b» را دریافت کنم تا ببینم آیا میتوانم مدل خروجی را به درستی درک کنم. از آنجایی که هسته خطی است، من به جمعی از ضرایب در برخی از بردارهای پشتیبانی فکر کردم. برای اطلاعات، «a(i)» «باید» مقادیر «alpha_i» ضربدر «y_i» را برای نمونههای آموزشی «x_i» ذخیره کند. و 638 مقدار غیر صفر وجود دارد. کسی قبلا از svmlight استفاده کرده؟ آیا می توانید مدل خروجی را درک کنید؟ یا جایی مستند هست؟ * * * من موفق شدم یک چیز را به درستی دریافت کنم: MyCoeff = model.a ./ y; MyIndex = 1+max(model.index,0); % بین 1 و 639 بردار پشتیبانی مربوط به هر «MyCoeff(i)» غیر صفر است: * `x(i,:)` * `model.supvec(MyIndex(i),:)` و MyIndex: 1 اگر «MyCoeff» صفر باشد. و `supvec(1,:)` بردار صفر است. * * * در اینجا چهار قطعه کد ساخته شده است: MyCoeff = model.a ./ y; W1 = صفر (1، h*w); برای i=1:length(MyCoeff) W1 = W1 + MyCoeff(i)*x(i,:); پایان؛ W2 = صفر (1، h*w); برای i=1:model.sv_num W2 = W2 + model.alpha(i)*model.supvec(i,:); پایان؛ eq((MyCoeff~=0),(model.index>0)) MesIndices = 1+max(model.index,0); % entre 1 et 639 W3 = zeros(1, h*w); برای i=1:length(MyCoeff) W3 = W3 + MyCoeff(i)*model.supvec(MesIndices(i),:); پایان؛ W4 = صفر (1، h*w)؛ برای i=1:length(MyCoeff) W4 = W4 + model.alpha(MesIndices(i))*x(i,:); پایان؛ در اینجا خروجی ها وجود دارد:  من پیوند index بین بردارهای پشتیبانی `supvec را درک کرده ام و ماتریس x. اما من پیوندی بین «آلفا» و «الف» پیدا نکردم. * * * فهمیدم: جدا از تفاوت شاخص ها، «model.a» و «model.alpha» یکسان هستند. برای i=1:length(MesIndices) W1 = W1 + model.a(i)*x(i,:);%*y(i); W2 = W2 + model.alpha(MesIndices(i))*model.supvec(MesIndices(i),:);%*y(i); W3 = W3 + model.a(i)*model.supvec(MesIndices(i),:);%*y(i); W4 = W4 + model.alpha(MesIndices(i))*x(i,:);%*y(i); پایان؛ اکنون سؤال این است که آیا باید در «y(i)» ضرب کنم؟ من معتقدم نباید از آنجایی که «model.a» قبلاً «y» برابر وزن بردار پشتیبانی مربوطه است و $y\in\\{-1,1\\}$ است. بنابراین نتیجه خوب باید صورت نارنجی باشد که می توانید با استفاده از یکی از چهار خط بالا به آن دست پیدا کنید. حیف که هیچ سندی پیدا نکردم. :') | خروجی مدل SVM خطی در Matlab با استفاده از SVM-light |
83731 | در تجزیه و تحلیل داده های بیزی، پارامترها به عنوان متغیرهای تصادفی در نظر گرفته می شوند. این از مفهوم سازی ذهنی بیزی از احتمال ناشی می شود. اما آیا بیزی ها از نظر تئوری تصدیق می کنند که یک مقدار پارامتر ثابت واقعی در «دنیای واقعی» وجود دارد؟ به نظر می رسد که پاسخ واضح «بله» است، زیرا در این صورت تلاش برای تخمین پارامتر تقریباً بی معنی خواهد بود. استناد دانشگاهی برای این پاسخ بسیار قدردانی خواهد شد. | آیا یک بیزی می پذیرد که یک مقدار پارامتر ثابت وجود دارد؟ |
84015 | من 3 سری زمانی (10 ساله) داده های اقتصادی برای 3 کشور دارم. برای تحلیل دیگری که انجام می دهم، باید سعی کنم اینها را به ترجیحاً 1 سری زمانی کاهش دهم. برای این تحلیل، من چندان به مقادیر مطلق اهمیت نمیدهم، بلکه به تغییرات اهمیت میدهم. سه سری زمانی برای یک چیز هستند، اما بزرگی ها بین کشورها متفاوت است، بنابراین بدیهی است که من باید عادی سازی کنم. اما باید هر سه سری زمانی را نرمال کنم و میانگین بگیرم یا میانگین بگیرم و این را نرمال کنم؟ من به سمت گزینه اول متمایل هستم (اول 3 سری زمانی را نرمال کنید و سپس میانگین را بگیرید) اما مطمئن نیستم که از نظر آماری درست باشد یا خوب ...؟ | آیا گرفتن میانگین چند سری زمانی نرمال شده اشکالی ندارد؟ |
56096 | من مجموعه ای از مدل ها را دارم که نتیجه یک رگرسیون خطی چندگانه هستند. من می خواهم قدرت هر یک از این مدل ها را محاسبه کنم. من این آموزش را در مورد محاسبه توان با استفاده از G*Power پیدا کردم. از آنجایی که دادهها قبلاً جمعآوری شدهاند، من از نوع Post Hoc آنالیز توان استفاده میکنم و امیدوار بودم از دکمه «تعیین» برای محاسبه خودکار اندازه افکت استفاده کنم. با این حال، من می بینم که باید یک **جزئی** R2 ارائه کرد، اما من فکر می کنم که برای یک رگرسیون خطی چندگانه (که فکر می کنم چندین مقدار R2 جزئی داشته باشد)، ارائه R2 برای مدل حاصل آیا من تفاوت بین R2 و R2 جزئی را اشتباه متوجه شده ام؟ اگر چنین است، چگونه R2 جزئی را برای استفاده در G*Power بدست بیاورم؟ | توان یک رگرسیون خطی چندگانه |
4987 | من باید حداقل 5 نمودار Q-Q را تا کنون هنگام تلاش برای جا دادن داده های خود در یک توزیع شناخته شده ایجاد کرده باشم، اما فقط متوجه چیزی شدم که نمی توانستم آن را درک کنم. در شکل زیر، با توجه به مطالبی که من از ویکی خواندم، محور X قرار است «چککهای نظری دوجملهای منفی» و محور Y «چککهای داده» را بخواند. موافقم که این کاملا منطقی است. اما وقتی به شکل نگاه کردم، محور X و Y از 100 فراتر می رود، اما چگونه می توان چندک هایی فراتر از 100 وجود داشت؟ اگر وجود داشته باشند به چه معنا هستند؟ یا اینکه این نمودار توسط qqplot R کاملاً متفاوت است؟ آیا کسی می تواند به من کمک کند تا این را بفهمم؟ روشی که من این داده ها را تولید می کردم با استفاده از اسکریپت زیر بود: library(MASS) # داده های داده را تعریف کنید <- c(67, 81, 93, 65, 18, 44, 31, 103, 64, 19, 27, 57, 63، 25، 22، 150، 31، 58، 93، 6، 86، 43، 17، 9، 78، 23، 75، 28، 37، 23، 108، 14، 137، 69، 58، 81، 62، 25، 54، 57، 65، 72، 17، 22، 17، 38، 33، 34، 68، 38، 117، 28، 17، 19، 25، 24، 15، 103، 31، 33، 77، 38، 8، 48، 32، 48، 26، 63، 16، 70، 87، 31، 36، 38، 91، 117، 16، 40، 7، 26، 15، 89، 67، 7، 39، 33، 58) # داده ها را به یک مدل برازش کنید پارامترها = fitdistr(داده، دوجمله ای منفی) #با استفاده از پاسخ پارامترها مجموعه ای از مقادیر نظری ایجاد کنید plot(qnbinom(ppoints(data), size=2.3539444, mu=50.7752809)، مرتبسازی(داده)) abline(0،1)  | درک طرح کوانتیل-کوانتیل |
24769 | من در گرفتن NM Simplex برای یافتن حداقل خوبی برای انتخاب هایپرپارامترهای یک rbf SVC مشکل دارم. من نه تنها 2 پارامتر SVC (C و گاما) را تنظیم می کنم، بلکه پنج وزن کلاس نیز دارم که سعی می کنم آنها را تنظیم کنم. جستجوهای شبکه ای در این مورد تقریبا غیرممکن به نظر می رسند. NM Simplex ورودی های آزمایشی به اندازه کافی دور از حدس اولیه نیست. من ورودی ها را تغییر می دهم (به عنوان مثال NM Simplex در محدوده i جستجو می کند در حالی که 2^i به عنوان پارامتر C برای SVC وارد می شود). با این حال، NM Simplex همیشه به حدس اولیه ختم می شود. هر گونه پیشنهاد یا هر الگوریتم کوچک سازی دیگری که ممکن است ارزشمند باشد؟ با تشکر | انتخاب پارامتر SVM با NM simplex (یا الگوریتم های دیگر) |
86529 | من داده های دوجمله ای را برای چندین آزمودنی در چندین جلسه آزمایشی اندازه گیری کرده ام. من علاقه مند به آزمایش این هستم که آیا در تمام جلسات آزمایشی نسبت گروه با 0.5 متفاوت است یا خیر. آیا منطقی است که یک GEE glm را با تابع پیوند لجستیک تطبیق دهیم و یک مدل فقط رهگیری را اجرا کنیم و آزمایش کنیم که آیا این رهگیری با 0 متفاوت است؟ برای مثال، کد R که من اجرا کردم gee.logit.0 <- geeglm(cs ~ 1, id = interaction(session,subject),std.err='fij',family = binomial (link = logit) است. داده=داده) که منجر به ضرایب شد: برآورد Std.err Wald Pr(>|W|) (Intercept) 0.4212 0.0557 57.3 3.8e-14 *** بنابراین می توانم ادعا کنم که نسبت مورد علاقه من به طور قابل توجهی با 0.5 متفاوت است (از آنجایی که exp(0.4212)/(1+exp(0.4212)) = 0.604) با توجهی که اصلاح کردم برای همبستگی درون موضوعی؟ با تشکر از شما برای کمک شما! | رهگیری فقط مدل GEE لجستیک |
113191 | توجه داشته باشید که آیا یک مفهوم آماری موجود برای این کار وجود دارد یا خیر، اما من یک مجموعه داده دارم که عمدتاً از نقاط داده کوچک با چند نقطه بزرگ تشکیل شده است. به عنوان مثال 1 2 1 3 1 2 87 3 2 1 1 1 1 3 1 2 1 1 1 99 چگونه می توانم این مجموعه داده را فیلتر کنم تا فقط مقادیری را که به طور نامتناسبی بخش عمده ای از اطلاعات را تشکیل می دهند، دریافت کنم؟ من در حال حاضر بر اساس نقاط داده ای که دارای چند انحراف استاندارد هستند فیلتر می کنم، اما این به من نمی گوید چه درصدی از کل دریافت می کنم. (مثلاً اگر 2 انحراف استاندارد را خارج کنم آیا 70 درصد اطلاعات را دریافت می کنم؟ اگر 5 بروم 95 درصد است؟ من فقط می دانم چند درصد از تعداد نقاط داده نشان دهنده درصد داده ها نیست) ویرایش: من می خواهید تا جایی که ممکن است نقاط داده را بدون حذف نقاط داده مهم حذف کنید. بنابراین اگر میانگین 5 و انحراف std 20 داشته باشم، نقاط داده ای را که کمتر از 45 هستند (20 + 20 + 5) فیلتر می کنم. این کار مثلاً 95 درصد از نقاط داده را حذف میکند، اما سپس مجموعه داده میتواند به این صورت باشد: 50 46 90 80 44 99999 57 87 88. اصل پارتو در اینجا به صورت بازگشتی با این 99999 اعمال میشود. در این سناریو من میخواهم فقط 99999 را نگه دارم. از آنجایی که 99٪ از داده ها را تشکیل می دهد، اما من این را فقط از استفاده نمی دانم یک قانون سرانگشتی انحراف std. به عنوان مثال، بسیاری از مردم موافق هستند که 1٪ از مردم می توانند 99٪ از ثروت را در اختیار داشته باشند. اگر به این داده ها بیشتر بپردازید، متوجه می شوید که 1% از آن 1% دارای 99% از آن ثروت است. به این معنی که 0.01٪ از مردم 98٪ از ثروت را در اختیار دارند. این اطلاعات دوم شگفتانگیز است زیرا بزرگها از بزرگها را نشان میدهد. این حتی ممکن است در مورد بچه های بزرگ از بچه های بزرگ از بچه های بزرگ (big-guys^3) فراتر رود، شاید 1 نفر 95٪ از کل ثروت را در اختیار داشته باشد. چگونه می توانم داده های خود را برای این مورد تجزیه و تحلیل کنم؟ با توجه به یک دایره یا نمودار میله ای، به وضوح در یک نگاه مشخص می شود. | در یک مجموعه داده شکسته، چگونه مقادیر مهمی را که بخش عمده ای از اطلاعات را تشکیل می دهند، فیلتر می کنید؟ |
84018 | من داشتم کتاب _مسئله شناسایی در اقتصادسنجی_ اثر فرانکلین ام. فیشر را می خواندم و از بخشی که او شناسایی را با تجسم تابع درستنمایی نشان می دهد، گیج شدم. مشکل را می توان به صورت زیر ساده کرد: > برای یک رگرسیون $Y=a+Xb+u$، که در آن $u \sim i.i.d. N(0،\sigma^2I)$، $a$ و > $b$ پارامترها هستند. فرض کنید $Y$ دارای یک ضریب $c$ است که برابر با > وحدت است. سپس تابع درستنمایی در فضای $c, a,b$ دارای **a > برآمدگی در امتداد پرتو متناظر با بردار پارامترهای واقعی و > مضربهای اسکالر آن** خواهد بود. هنگامی که فقط مکان داده شده توسط $c=1$ را در نظر می گیریم، تابع احتمال یک حداکثر منحصر به فرد در نقطه ای که پرتو > آن صفحه را قطع می کند، خواهد داشت. سوالات من این است: 1. چگونه باید در مورد یال و اشعه ذکر شده در تظاهرات فهمید و استدلال کرد؟ 2. از آنجایی که پرتو پارامترها و اسکالرهای واقعی هستند، چرا پرتو در صفحه با $c=1$ داده نمی شود زیرا مقدار واقعی پارامتر $c$ 1 است. | تفسیر هندسی تخمین حداکثر احتمال |
3799 | من مشکل زیر را دارم: \- ما مجموعه ای از N نفر داریم \- ما مجموعه ای از K تصاویر داریم \- هر نفر تعدادی از تصاویر را رتبه بندی می کند. ممکن است شخصی از یک تصویر خوشش بیاید یا نپسندد (اینها تنها دو امکان هستند). \- مشکل این است که چگونه می توان احتمال اینکه یک فرد یک تصویر خاص را دوست دارد محاسبه کرد. برای ارائه شهودم مثالی می زنم. N = 4 K = 5 \+ به این معنی است که شخص تصویر را دوست دارد \- به این معنی است که شخص تصویر 0 را دوست ندارد به این معنی است که از آن شخص در مورد تصویر سؤال نشده است و این مقدار باید x 1 2 3 4 5 1 + پیش بینی شود. - 0 0 + 2 + - + 0 + 3 - - + + 0 4 - 0 - - - شخص 1 احتمالاً تصویر 3 را دوست خواهد داشت زیرا فرد 2 ترجیحات و شخص 2 مشابهی دارد. تصویر 3 را دوست دارد. شخص 4 احتمالاً تصویر 2 را دوست ندارد زیرا هیچ کس دیگری آن را دوست ندارد و علاوه بر این شخص 4 بیشتر تصاویر را دوست ندارد. آیا روش شناخته شده ای وجود دارد که بتوان از آن برای محاسبه چنین احتمالی استفاده کرد؟ | احتمال اینکه کسی تصویر را دوست داشته باشد |
113545 | یک مدل رگرسیون پواسون - GLM - ساده را در نظر بگیرید. در آنجا $\exp\left(\beta\right)$s بهعنوان نسبت نرخ بروز (IRR) استفاده میشود، اما محاسبه آنها گاهی اوقات کاملاً ساده نیست، برای مثال، اگر فعل و انفعالاتی داشته باشیم (زمانی که باید حاصل ضرب چنین مواردی را در نظر بگیریم. شرایط). به ویژه اگر به یک فاصله اطمینان برای یک IRR نیاز داشته باشیم: به راحتی میتوان یک CI برای $\beta$ به دست آورد، اما در آن صورت ما به یک CI برای _نمای_جمع_ چنین پارامترهایی نیاز داریم. با انگیزه این موضوع، ایده ای داشتم که ممکن است کاملاً اشتباه باشد، اما فکر کردم ارزش پرسیدن دارد. اگر IRR ها و فواصل اطمینان آنها را با استفاده از پیش بینی ها محاسبه کنم چه می شود؟ اجازه دهید یک مثال (در R) نشان دهم. مجموعه داده معروف warpbreaks را در نظر بگیرید: head( warpbreaks ) mod <- glm( breaks ~ wool * tension, warpbreaks, family = poisson ) برای به دست آوردن IRR: exp( ضرایب( mod ) ) (Intercept) woolB tensionM tensionH woolB: tensionM woolB:tensionH 44.5555556 0.6334165 0.5386534 0.5511222 1.8930264 1.2072719 می توان فهمید که منظور من از غیر ساده چیست: برای به دست آوردن IRR برای هر ترکیب متغیر کمکی ما به irrmod نیاز داریم <- c( 1: 3, exp]( coef ( coef( mod )[ 2 ] + coef( mod )[ 3 ] + coef( mod )[ 5 ] , exp( coef( mod )[ 4 ] , exp( coef( mod )[ 2 ] + coef( mod )[ 4 ] + coef( mod )[ 6 ] ) ) cbind( irrmod ) irrmod 1.0000000 woolB 0.6334165 tensionM 0.5386534 woolB 0.6458853 tensionH 0.5511222 woolB 0.4214464 و ما حتی در مورد CI برای اینها صحبت نکردهایم... بنابراین، ایده اینجاست: ابتدا پیشبینیهای توضیحی برای هر ترکیب ممکن از متغیرها را به دست میآوریم. preddata <- expand.grid( wool = level( warpbreaks$wool ), tension = level( warpbreaks$tension ) ) preds <- predict( mod, newdata = preddata, type = response, se.fit = TRUE ) irrpred < - preds$fit 1 2 3 4 5 6 44.55556 28.22222 24.00000 28.77778 24.55556 18.77778 مشکل این است که اینها در مقیاس پاسخ اندازه گیری می شوند و راه حل (ممکن است؟): همه آنها را با اولی تقسیم کنید! از آنجایی که اینها همه متغیرهای طبقه بندی هستند _ من فکر می کنم_ این منجر به IRR می شود. در واقع، در مثال عینی: expbeta0 <- irrpred[ 1 ] irrpred <- irrpred / expbeta0 cbind( preddata، irrpred، irrmod ) کشش پشم irrpred irrmod 1 A L 1.0000000 1.00000000 1.00000000 1.00000000 1.00000000 1.0000000 1.00000000 1.00000000 1.00000000 1.00000000 2 B34. 3 A M 0.5386534 0.5386534 4 B M 0.6458853 0.6458853 5 A H 0.5511222 0.5511222 6 B H 0.4214464 0.4214464 اینها برابر هستند. **اولین سوال** من: آیا این روش از نظر تئوری صحیح است، یعنی از نظر ریاضی تضمین شده است که این دو رویکرد در هر موقعیتی معادل هستند؟ من کاملا مطمئن هستم که آنها هستند، فقط برای امن بودن. اما اکنون بخشی می آید که من کاملاً در آن مطمئن نیستم: CI ها چطور؟ با در نظر گرفتن این رویکرد، منطقی است که موارد زیر را محاسبه کنیم: upr <- preds$fit + ( qnorm( 0.975 ) * preds$se.fit ) lwr <- preds$fit - ( qnorm( 0.975 ) * preds$se.fit ) upr <- upr / expbeta0 lwr <- lwr / expbeta0 باید اعتراف کنم که من خیلی با این روش آشنا نیستم «predict.glm» خطاهای استاندارد را محاسبه می کند، بنابراین ممکن است کاملاً اشتباه کنم، اما آیا می توان از این روش برای به دست آوردن CI برای IRR ها استفاده کرد؟ یک مشکل واضح این است که از این طریق حتی برای دسته مرجع (که البته نباید CI داشته باشد، به $1 دلار ثابت می شود) CI واقعی می گیریم. مشکل دیگر این است که نتایج با نتایج «confint» حتی در دستههایی که قابل مقایسه هستند برابر نیستند: cbind(preddata, lwr, exp(confint( mod ) )[ , 1 ], upr, exp(confint( mod )[ , 2 ] ) ) در حال انتظار برای انجام پروفیل ... منتظر انجام پروفیل ... کشش پشم lwr exp(confint(mod))[, 1] upr exp(confint(mod)[, 2]) 1 A L 0.9021242 40.3356421 1.0978758 49.0597741 2 B L 0.5555195 0.5555195 0.5555195 0.5314 0.54 0.7405983 3 A M 0.4668193 0.4558586 0.6104874 0.6347433 4 B M 0.5672254 0.4670131 0.7245452 0.64868 0.64866 1.4908755 0.6237828 2.4069226 6 B H 0.3579064 0.9356292 0.4849864 1.5571553 توجه داشته باشید که اکنون فقط خط دوم و سوم جالب است، زیرا فقط آنها به همان ترکیب مربوط می شوند. (و ردیف پنجم از «بالا/پایین» در مقابل ردیف چهارم «محدوده».) در حالی که آنها _کاملا نزدیک_ هستند، دقیقا مطابقت ندارند... بنابراین **سوال دوم** من این است: در مورد CI ها چطور؟ برای IRR ها؟ آیا می توان از این روش با «پیش بینی» برای محاسبه آنها استفاده کرد؟ | فاصله اطمینان برای یک پارامتر رگرسیون از طریق پیش بینی |
4988 | فرض کنید توزیعی برای $\mathbf{x}\in \\{-1,1\\}^n$ داریم و مایلیم $p(\mathbf{x})$ را به عنوان یک خانواده نمایی خطی با آمار کافی نشان دهیم. به شکل $1,x_1,x_2,\ldots,x_1 x_2,\ldots,x_1 x_2 \cdots x_n$ فرض کنید می دانیم که ~~ آنتروپی~~ برخی از معیارهای پیچیدگی توزیع هدف محدود است. ما می توانیم بردار پارامتر را به عنوان توزیع احتمال $D$ مشاهده کنیم. آیا میتوانیم در مورد نحوه توزیع جرم در $D$ بین شرایط سفارشات مختلف برای اندازهگیری پیچیدگی جالب چیزی بگوییم؟ آیا معیارهای پیچیدگی وجود دارد که جرم را به شرایط درجه پایین وادار می کند؟ محدود کردن توجه به مدلهای گرافیکی به معنای کنار گذاشتن عبارتهای مرتبه سوم و بالاتر است. من علاقه مند به توضیحی هستم که چرا این خیلی خوب کار می کند. این انگیزه با یک سوال مشابه در CSTheory است **ویرایش 11/29** در زیر احتمال ساده توزیع های بیش از $\\{-1,1\\}$ آمده است. به ارزش x_1،x_2$، در مختصات احتمال و در مختصات log-linear. در تصویر دوم، محورهای x,y مربوط به ضرایب جلوی $x_1$ و $x_2$ است، محور z ضریب ترم x_1$ x_2$ است. می توانید ببینید که ابعاد مرتبه اول و دوم متقارن هستند، بنابراین آنتروپی مرزی (یا هر تابع متقارن دیگر توزیع) برای وادار کردن جرم به ضرایب مرتبه پایین کافی نیست... منبع Mathematica | عدم تقارن بین شرایط تعامل مرتبه بالا و مرتبه پایین |
2154 | (من می دانم که نقل قول به عنوان قسمت 2 چندان مناسب نیست، اما از آنجایی که این سوال مدت زیادی است که خوابیده است، امیدوارم با انجام این کار دوباره توجه مردم جلب شود، ممکن است قسمت اول را در اینجا ببینید. .) من به مقاله ای آنلاین برخورد کرده ام که در مورد موردی مشابه مورد من صحبت می کند، که اکثر اوقات تعداد موارد صفر است، گاهی اوقات که تعداد کیس به یک افزایش می یابد، از قبل از سطح کنترل شلیک می کند و مورد را به عنوان مورد در نظر بگیرید. خارج از کنترل. از آنجایی که خواندن و تفسیر C-chart برای روسای من آسانتر خواهد بود، نمیدانم که آیا این روش صحیح است یا کسی مرجع رسمی تری در مورد این روش دارد؟ (من مدت زیادی در گوگل جستجو کردم اما چیزی پیدا نکردم) مقاله را می توانید در اینجا پیدا کنید. در ادامه سؤالم، میخواهم یک چیز دیگر بپرسم: برای فرض نمودار c که تعداد موارد باید از توزیع پواسون پیروی کند، آیا برای همه لامبدا (یعنی میانگین تعداد موارد) قابل اعمال است؟ بازم ممنون | چگونه یک نمودار کنترلی حاوی اکثریت مقادیر صفر را تفسیر کنیم؟ (قسمت 2) |
14066 | (من فکر می کنم این سوال به عنوان یک ویکی انجمن مناسب است؟ اگر نه، لطفاً آن را ببندید، بدون احساسات سخت.) آیا کسی پیوندهایی به صفحات وب/فایل های پی دی اف مشاوره برای دانش آموزان مقطع کارشناسی ارشد در تئوری آمار (یا حتی بهتر است اگر نظریه اقتصاد سنجی) دارد، دارد. برای رسیدن به سوالات تحقیقاتی خوب؟ من توانسته ام چنین توصیه هایی را برای محققان پزشکی، دانشمندان کامپیوتر، اقتصاددانان کاربردی و غیره بیابم، اما نه برای آماردانان نظری (یا اقتصاد سنجی). (به غیر از درخواست حضوری از اساتید در بخش من.) یک CW مربوطه در MathOverflow وجود دارد. | چگونه می توان به سوالات تحقیق در تئوری آمار رسید؟ |
32125 | آیا روشی وجود دارد که بتوان از آن برای تفسیرپذیرتر کردن Random Forest استفاده کرد؟ Random Forest بسیار بهتر از CART عمل می کند، اما بسیار کمتر قابل تفسیر است. | چگونه جنگل های تصادفی را قابل تفسیرتر کنیم؟ |
57323 | من تست میانگین لوین و تست میانه لوین (براون-فورسایت) را انجام می دهم. من می خواهم مقادیر p این دو تست را با هم مقایسه کنم تا ببینم کدام بهتر است. من مقادیر p بزرگی را برای هر دو آزمون دریافت می کنم که 0.562 (میانگین لون) و 0.611 (میانگین لون) برای توزیع نرمال است. * کدام آزمون میزان خطای نوع اول را بهتر نشان می دهد؟ * آیا آزمون میانگین لوین زمانی که داده ها از توزیع نرمال پیروی می کنند بهترین عملکرد را دارد؟ | مقایسه مقادیر p برای آزمون میانگین لوین و آزمون میانه لوین؟ |
71700 | من یک مثال اسباب بازی دارم که در زیر بازتولید شده است که در آن متغیر پاسخ دارای سه کلاس ممکن است. من در حال تلاش برای ایجاد یک ROC هستم اما مطمئن نیستم که چگونه با آن برخورد کنم وقتی سه کلاس وجود دارد. هر گونه کمکی قدردانی خواهد شد. با تشکر کتابخانه(ipred) control = rpart.control(maxdepth = 20, minsplit = 20, cp = 0.01, maxsurrogate=2, surrogatestyle = 0, xval=25) n <- 500; p <- 10 f <- تابع(x,a,b,d) return(a*(x-b)^2+d ) x1 <- runif(n/2,0,4) y1 <- f(x1,- 1،2،1.7)+runif(n/2،-1،1) x2 <- runif(n/2،2،6) y2 <- f(x2،1،4،-1.7)+runif(n/2،-1،1) y <- c(rep(-1، طبقه(n/3))، rep(0، سقف(n/3 ))، rep(1، سقف (n/3))) dat <- data.frame(y=factor(y)،x1=c(x1,x2)،x2=c(y1,y2), ماتریس(rnorm(n*(p-2))،ncol=(p-2))) names(dat)<-c(y,paste(x,1:p,sep=)) نمودار داده (dat$x1,dat$x2,pch=c(1:2)[y], col=c(1,8)[y], xlab=names(dat)[2],ylab=names(dat)[3]) indtrain<-sample(1:n,300,replace=FALSE) train<-dat[indtrain,]; dim(train) test<-dat[setdiff(1:n,indtrain),]; dim(test) mod test <- bagging(y~., data=train, control=control, coob=TRUE, nbagg=25, keepX = TRUE) mod pred<-predict(mod, newdata=test[,-1] ,type=prob, aggregation= average); pred برای دو کلاس موردی، من برای انجام موارد زیر استفاده می کنم اما دیگر برای سه کلاس معتبر نیست. yhat <- pred[,2] y = test[, -1] plot.roc(y, yhat) | چگونه منحنی ROC را با سه متغیر پاسخ رسم کنیم؟ |
66782 | من واریوگرام گاوسی خود را اینگونه تعریف کرده ام $r(h) = \text{nugget} + \text{partial_sill}\cdot(1 - \exp(-\frac{3h^2}{\text{range}^2} ))$ من nugget را تنظیم کردم = 0.1343 partial_sill = 0.3125 range = 19.8642 من سعی کردم یک واریوگرام برای یک شبکه فضایی با اندازه 5x5، به این معنی که برای هر مکان در شبکه 5x5، من مقدار واریوگرام را با فاصله برابر با فاصله آن تا مکان های دیگر در شبکه محاسبه کردم. بنابراین من یک ماتریس به اندازه 25x25 داشتم. اما این ماتریس قطعی مثبت نیست و مفرد است. چگونه می توانم با واریوگرام گاوسی این مشکل را برطرف کنم؟ | مسائل تکینگی ماتریس با واریوگرام گاوسی |
56092 | من در R بسیار جدید هستم. در حال حاضر در حال یادگیری ماشین یادگیری هستم. خیلی متاسفم، اگر این سوال خیلی ابتدایی به نظر می رسد. من سعی می کنم یک بسته انتخاب ویژگی خوب در R پیدا کنم. من از طریق بسته Boruta رفتم. پکیج خوبیه ولی خوندم فقط برای دسته بندی مفیده. من می خواهم انتخاب ویژگی را در R برای وظایف رگرسیون پیاده سازی کنم. من مدارک بسته caret را مرور کردم، اما برای سطح من، درک آن بسیار دشوار است. لطفاً کسی می تواند به من یک آموزش خوب را راهنمایی کند یا بسته های خوب یا بسته های پر استفاده در R را برای انتخاب ویژگی لیست کند. هر گونه کمکی قدردانی خواهد شد. پیشاپیش ممنون | بسته های انتخاب ویژگی در R |
3242 | من برخی از داده ها را دارم که سعی می کنم یک خط روند را با آنها تطبیق دهم. من معتقدم که دادهها از قانون قدرت پیروی میکنند و بنابراین دادهها را بر روی محورهای log-log ترسیم کردهاند که به دنبال یک خط مستقیم هستند. این منجر به یک خط (تقریبا) مستقیم شده است و بنابراین در اکسل من یک خط روند برای قانون قدرت اضافه کرده ام. از آنجایی که یک تازهکار آماری هستم، سوال من این است که اکنون بهترین راه برای من برای رفتن از «خوب خط _به نظر میرسد که خیلی خوب است» به «ویژگی عددی $x$ _اثبات میکند که این نمودار بهطور مناسبی با قانون توان برازش میکند» چیست؟ ? در اکسل میتوانم مقدار r-squared را دریافت کنم، اگرچه با توجه به دانش محدودم از آمار، حتی نمیدانم که آیا واقعاً در شرایط خاص من مناسب است یا خیر. من تصویری را در زیر آورده ام که نمودار داده هایی را که در اکسل با آنها کار می کنم نشان می دهد. من تجربه کمی با R دارم، بنابراین اگر تجزیه و تحلیل من توسط ابزارهای من محدود شده است، آماده ارائه پیشنهاداتی در مورد چگونگی بهبود آن با استفاده از R.  | چگونه می توان میزان تناسب یک خط روند با قانون قدرت را اندازه گیری/استدلال کرد؟ |
113540 | میخواهم بدانم آیا تفاوتی در مقادیر گرفتهشده از اندازهگیریهای یک مشخصه دادهشده در «forest=1» اولیه و ثانویه «forest=0» وجود دارد. من از دو بردار استفاده میکنم، یکی با خود داده ('DATA $Measurements`) و دیگری با دسته نقطه نمونه برداری (`DATA$Point`). چگونه باید تابع Wilcox.test را انجام دهم؟ من این روش را انجام می دهم: wilcox.test(DATA$Measurements~DATA$Point) اما متوجه شدم که اشکال دیگری از انجام این تست وجود دارد: wilcox.test(DATA$Measurements,DATA$Point) wilcox.test(DATA$Measurements ,DATA$Point,paired=TRUE) کدام یک برای آزمایش سوال مورد علاقه من مناسب تر است و تفاوت بین این گزینه ها چیست؟ (آیا برای این ویژگی داده شده تفاوتی بین نقاط وجود دارد)؟ | استفاده از wilcox.test در R |
94744 | من برخی از داده های کینکت از شخصی دارم که (به طور منطقی) ثابت ایستاده و مجموعه ای از مشت ها را انجام می دهد. من آن را در قالب یک مختصات x، y، z برای هر مفصل که آنها 20 هستند، داده شده است، بنابراین من 60 نقطه داده در هر فریم دارم. من سعی می کنم یک کار طبقه بندی را روی پانچ ها انجام دهم، اما در عادی سازی داده هایم با مشکلاتی روبرو هستم. همانطور که از نمودار می بینید، بخش هایی با دامنه بسیار بالاتر از بقیه وجود دارد، اعتقاد من این است که این به دلیل نزدیکی آن شخص به سنسور کینکت در هنگام خواندن است. (گراف در واقع اولین ضریب اصلی است که توسط PCA برای هر فریم به دست میآید، توالیهای متعددی از پانچ یکسان در این نمودار به هم متصل شدهاند.) با نگاه کردن به فایلهای داده به نظر میرسد فایلهایی که خارج هستند دارای مختصات z هستند. (عمق از حسگر) ~ 2.7 متری که بقیه چادرها را در حدود 3.3-3.6 متر شناور می کنند. **چگونه می توانم یک نرمال سازی با مقادیر عمق انجام دهم تا آنها را برای هر دنباله به یکدیگر نزدیکتر کنم؟** قبلاً تمایز را برای بدست آوردن سرعت امتحان کرده ام، اگرچه به عادی سازی کمک می کند خروجی در واقع خیلی شبیه به هم می شود و باعث می شود طبقه بندی خیلی سخته  ویرایش: باید اشاره کنم که در حال حاضر از یک روش عادی سازی استفاده می کنم که با کم کردن موقعیت لگن از هر مفصل در تلاش برای ایجاد نسبی را هماهنگ می کند. | عادی سازی داده های عمق |
76305 | سعی می کنم با توجه به شرایط، موضوع را تا حد امکان روشن کنم. رئیسم از من خواست به گزارشی قدیمی که یکی از کارمندان سابق چند ماه پیش نوشته بود نگاه کنم. ظاهراً این گزارش حاوی اطلاعات بسیار مفیدی است اما متأسفانه هیچ کس قادر به درک آن نیست زیرا در ریاضیات نوشته شده است. گره اصلی گزارش یک فرمول رگرسیون خطی برای پیشبینی دادههای آینده برای تابع غیرخطی است. موارد زیر را در نظر بگیرید:  محور Y درصدی را گزارش می کند (1 برابر با 100%). حالا تصور کنید که فقط بخشی از داده ها قبل از خط قرمز باشد. همکار سابق من متوجه شد که فرمول تخمین بخش دوم داده ها این است: $$R(t) = 1 - d t^{1/\alpha}$$ در حالی که من بیشتر فرمول را درک کردم، نمی توانم بفهمم که $ چیست d$ و $\alpha$ نشان دهنده. به هر حال، آیا آنها نشانه مشترک چیزی هستند که من از دست می دهم؟ لطفا اگر چیزی مشخص نیست بپرسید. | فرمول عجیب رگرسیون خطی |
14069 | فرض کنید اخیراً یک نظرسنجی روی یک جمعیت شناخته شده انجام داده اید (N=1000). شما زیرمجموعه ای از آن جمعیت را به طور تصادفی بررسی کردید (n=250). حال، فرض کنید که تعدادی متغیر دارید که شناخته شده اند. مانند جغرافیا، مخارج، تعداد فروش. آیا آزمونهای آماری وجود دارد که متغیرهای شناخته شده جامعه را برای شناسایی صحت یا دقت نمونه شما در نظر میگیرد. به عبارت دیگر، آیا راهی وجود دارد، فراتر از MOE، برای نشان دادن دقت تست خود بر اساس این پارامترهای شناخته شده؟ | مقایسه نمونه با یک جامعه شناخته شده |
61250 | برای یک تکلیف از من خواسته می شود تا آزمایش کنم که آیا آیتم های مختلف (همه دوگانه) واقعاً می توانند یک مفهوم را اندازه گیری کنند یا خیر. موارد: _لطفاً به من بگویید که آیا فکر می کنید امکان سقط قانونی برای یک زن باردار وجود دارد یا خیر؟ . . الف. اگر سلامتی خود زن در اثر بارداری به طور جدی به خطر بیفتد؟ ب. اگر احتمال نقص جدی در نوزاد وجود دارد؟ ج. اگر او در اثر تجاوز جنسی باردار شد؟ د. اگر خانواده از درآمد بسیار پایینی برخوردار است و توانایی خرید فرزند دیگر را ندارد؟ ه-اگر متاهل نیست و نمی خواهد با آن مرد ازدواج کند؟_ نتایج **تحلیل کلاس نهفته** من این است که: * مدل دو و سه کلاسه تناسب مدل قابل قبولی ندارد: > > 2-کلاس: X² = 492.485; L² = 337.1439; df = 20; p = 0.000; AIC = 297.1439; > BIC = 195.7409 > 3-class: X² = 170.096; L² = 26.4617; df = 14; p = 0.0226; AIC = -1.5383; > BIC = -72.5204 > * یک الگوی واضح در طبقات برآورد شده وجود دارد. یک گروه موافق همه موارد X1، یک گروه تنها بر سر دلایل پزشکی/اخلاقی (سلامت، نقص و تجاوز جنسی) توافق دارند، یکی هرگز موافق X3 _(به استثنای موارد بهداشتی، فکر میکنم چون این تعادل بین کشتن نوزاد یا کشتن مادر، بنابراین هر دو پاسخ طرفدار زندگی نیستند)._  X. هستند سه کلاس، اولین خط افقی اعداد، نسبت نمونه در هر کلاس، و سپس احتمالات آن کلاس ها برای بله (=1) یا نه (=2) به آیتم مختلف است. میخواستم بدانم که آیا پاسخ ساده این است: آیتمها نمیتوانند یک ساختار را اندازهگیری کنند، زیرا مدل تناسب قابل قبولی ندارد. یا ساختار کلاس های نهفته برای پاسخ به این سوال آموزنده تر است؟ من می دانم که اعمال محدودیت بر روی مدل می تواند منجر به تناسب مدل قابل قبولی شود، بنابراین معیار من برای استناد به بیانیه ام ناقص به نظر می رسد. (چیزی مانند: آنها نمی توانند یک ساختار را اندازه گیری کنند، اما زمانی که ما محدودیتی را روی مدل قرار می دهیم، می توانند) | آیا آیتم ها می توانند یک ساختار زیربنایی را اندازه گیری کنند؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.