_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
41141
فرض کنید ما دو بازه اطمینان 95$ \%$ برای X_1$ و $X_2$ داده ایم. آنها به طور معمول توزیع می شوند. چگونه می‌توانیم یک بازه اطمینان $95 \%$ برای $X_{1}/X_{2}$ بدست آوریم؟
با توجه به دو فاصله اطمینان 95٪
5278
چه راهی (راه هایی؟) برای توضیح بصری چیستی ANOVA وجود دارد؟ از هرگونه مرجع، پیوند(های) (بسته های R؟) استقبال می شود. با تشکر
چگونه می توان آنچه را ANOVA انجام می دهد تجسم کرد؟
94963
من می خواهم Apache Shark را با R داده استخراج کنم اما مطمئن نیستم که آیا بسته هایی برای R وجود دارد یا خیر. با تشکر
آیا بسته هایی در R برای استفاده از Apache Shark وجود دارد؟
11107
من باید یک رگرسیون لجستیک با استفاده از R در داده های خود انجام دهم. متغیر پاسخ من ('y') بقا در هنگام از شیر گرفتن است ('surv=0'؛ surv=1 نیست) و من چندین متغیر مستقل دارم که ماهیتی باینری و دسته بندی دارند. من چند نمونه در این وب سایت http://www.ats.ucla.edu/stat/r/dae/logit.htm دنبال می کنم و سعی می کنم چند مدل را اجرا کنم. اجرای مدل: > mysurv2 <- glm(surv~as.factor(PTEM) + as.factor(pshiv) + as.factor(presp) + as.factor(pmtone)، family=binomial(link=logit) , data=ap) > summary(mysurv2) Call: glm(formula = surv ~ as.factor(PTEM) + as.factor(pshiv) + as.factor(presp) + as.factor (pmtone)، خانواده = دو جمله ای (لینک = logit)، داده = ap) انحراف باقیمانده: حداقل 1Q میانه 3Q حداکثر -2.2837 -0.5121 -0.5121 -0.5058 2.0590 ضرایب: برآورد . خطای z مقدار Pr(>|z|) (فاصله) -0.01135 0.23613 -0.048 0.96166 as.factor(PTEM)2 -0.74642 0.24482 -3.049 0.00230 ** as.factor(PTEM)30.029 -8.401 < 2e-16 *** as.factor(pshiv)2 -0.02638 0.06784 -0.389 0.69738 as.factor(presp)2 0.74549 0.10532 7.079 1.46e-factor(pshiv)2 -0.02638 0.06784 -0.389 0.66540 1.004 0.31547 as.factor(pmtone)2 0.54699 0.09678 5.652 1.58e-08 *** as.factor(pmtone)3 1.82337 0.75409 0.75409 * 0.415-0. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 7892.6 در 8791 درجه آزادی انحراف باقیمانده: 7252. 8784 درجه آزادی (341 مشاهده حذف شده به دلیل عدم وجود) AIC: 7268.8 تعداد تکرارهای امتیازدهی فیشر: 4 افزودن 'na.action=na.pass' در انتهای مدل به من پیام خطا داد. فکر می‌کردم که این NA در متغیرهای مستقل من مراقبت می‌کند. > mysurv <- glm(surv~as.factor(PTEM) + as.factor(pshiv) + as.factor(presp) + as.factor(pmtone), family=binomial(link=logit)، data=ap , na.action=na.pass) خطا: NA/NaN/Inf در فراخوانی تابع خارجی (arg 1) از آنجایی که این اولین بار است که وارد رگرسیون لجستیک می شوم، من من نمی دانم که آیا بسته ای در R وجود دارد که مناسب تر باشد؟ من همچنین سعی در درک ضرایب رگرسیون دارم. متغیرهای مستقل مورد استفاده در مدل عبارتند از: 1. دمای رکتوم: * `(PTEM)1` = نوزادان با دمای رکتوم. زیر 35.4 0C * `(PTEM)2` = نوزادان با دمای رکتوم. بین 35.4 تا 36.9 0C * `(PTEM)3` = نوزادان با دمای مقعدی. بالاتر از 37.0 0C 2. لرز: * `(pshiv)1` = نوزادانی که نمی لرزیدند * `(pshiv)2` = نوزادانی که می لرزیدند 3. تنفس: * `(presp)1` = نوزادان با تنفس طبیعی *` (presp)2` = نوزادان با مشکل تنفسی خفیف * `(presp)3` = نوزادان با تنفس ضعیف 4. تون عضلانی: * `(pmtone)1` = نوزادان با تون عضلانی طبیعی * `(pmtone)2` = نوزادان با تون عضلانی متوسط ​​*`(pmtone)1` = نوزادانی با تون عضلانی ضعیف با نگاهی به ضرایب، من موارد زیر را دریافت کرد: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.01135 0.23613 -0.048 0.96166 as.factor(PTEM)2 -0.74642 0.24482 -3.049 0.00230 ** as.factor(PTEM)30.029 -8.401 < 2e-16 *** as.factor(pshiv)2 -0.02638 0.06784 -0.389 0.69738 as.factor(presp)2 0.74549 0.10532 7.079 1.46e-factor(pshiv)2 -0.02638 0.06784 -0.389 0.66540 1.004 0.31547 as.factor(pmtone)2 0.54699 0.09678 5.652 1.58e-08 *** as.factor(pmtone)3 1.82337 0.75409 0.75409 * 0.415-0. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 در تجزیه و تحلیل دیگرم، متوجه شدم که نوزادان: الف) با دمای مقعدی بالاتر ب) لرز ندارند ج) تنفس خوب و د) تون عضلانی خوب در بدو تولد احتمال بیشتری برای زنده ماندن داشتند. من با ضرایبی که در بالا می گیرم کمی گیج شده ام. می‌پرسم آیا من نتایج را درست تفسیر نمی‌کنم یا چیز دیگری است؟
انجام رگرسیون لجستیک با استفاده از R
8704
عنوان سوال را مشخص می کند. ممکن است این مفهوم انجام دهد ... دوست دارد چگونه در مورد آن پیش رود؟ با تشکر
با توجه به pdf $I$ و $R$ (هر دو $I$ و $R$ RVهای مستقل هستند)، چگونه می توان pdf $W =I^2\cdot R$ را پیدا کرد؟
11108
به این عکس نگاهی بیندازید: ![data](http://i.stack.imgur.com/J93c2.png) یک نمودار جعبه ای از سری اجراهای یکسان برای مقادیر پی در پی **i** را نشان می دهد. (AFAIK استاندارد Min/Max و 1، 2، 3 چهارم است.) بنابراین محور x 1 نشان دهنده 1000 اجرا است که در آن i=1. و نمودار دوم 1000 اجرا را نشان می دهد که در آن i=2; و غیره به راحتی می توان دید که بین i=1,2 و i=3-19 شکافی وجود دارد. مقادیر i=2 به طور متوسط ​​کمی بزرگتر هستند. هدف من این است که با دادن ورودی ای که این نمودار را ایجاد کرده است، به صورت برنامه ریزی شده آن تقسیم (بین 2 و 3) را پیدا کنم که در آن تغییر مداوم ناگهانی وجود دارد. (مرحله 1) همچنین بسیار عالی بود اگر نوعی امتیاز اطمینان همراه با آن وجود داشت - فقط برای بازخورد کاربر. این تغییر ممکن است بالا یا پایین باشد، اما می دانم که در هر دو طرف تقسیم، مقادیر ثابت خواهند بود (دقیقاً مانند i > 2، نمودارهای کادر کاملاً یکنواخت می مانند و به مقادیر i<2 بر نمی گردند). سپس، پس از آن، می‌خواهم برای یک i مجهول اندازه‌گیری کنم و تصمیم بگیرم که در کدام «سمت» تقسیم قرار می‌گیرد. اکنون می دانم که هرگز نمی توانم آن پاسخ را به طور قطعی از یک اندازه گیری بدانم، بنابراین قصد دارم چندین اندازه گیری (5؟ 50؟ 100؟) برای این مقدار i ناشناخته-اما غیرقابل تغییر انجام دهم. سپس با استفاده از این اندازه‌گیری‌ها متوجه شوید که i در کدام سمت شکاف قرار می‌گیرد (مرحله 2). باز هم، بسیار عالی خواهد بود اگر یک ارزش اطمینان مرتبط با این تصمیم وجود داشته باشد. من در پایتون کار می کنم، بنابراین اگر یک کتابخانه عالی وجود دارد، اما خودم با پیاده سازی یک الگوریتم/معادله خوب هستم. تکنیک ها/معادلات/مقالاتی که باید برای یادگیری نحوه انجام این کار مطالعه کنم چیست؟
تشخیص خودکار تغییر ناگهانی میانگین
111038
فرض کنید می‌خواهیم یک طبقه‌بندی کننده برای یک مسئله طبقه‌بندی باینری با استفاده از یک روش متمایز (مثلا SVM) بسازیم و بتوانیم یک پیشین را به کلاس‌ها تحمیل کنیم. برای مثال، فرض کنید می‌خواهیم از $\text{Beta}(10,20)$ قبلی در کلاس مثبت استفاده کنیم. به این صورت است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/T3bio.png) چگونه می توانم احتمال **پسین** طبقه بندی حاصل از ترکیب خروجی من را تخمین بزنم پیش بینی افتراقی با قبل از بالا؟ برای محاسبه این احتمال پسین چه مراحلی باید انجام دهم؟
مقدماتی برای روش های تبعیض آمیز؟
17991
تفاوت بین VAR (رگرسیون خودکار برداری) و MANOVA چیست؟
آیا VAR یک MANOVA با رگرسیون خودکار است؟
17999
اگر می‌خواهید آزمایش کنید که آیا 5 گروه ریسک یکسان یا خطرات متفاوتی برای برخی از متغیرهای نتیجه دوتایی دارند، آیا آزمایشی وجود دارد که بتوانید انجام دهید؟ چیزی شبیه تست F یا تست کای اسکوئر؟
آیا راهی برای آزمایش اینکه آیا خطر برای چندین گروه یکسان است یا خیر وجود دارد؟
114148
اجازه دهید $r_t^{log} = \ln{\frac{Y_t}{Y_{t-1}}}$ بازگشت گزارش باشد که در آن $Y_t$ مقدار پورتفولیو در زمان t است. اگر مقدار در معرض خطر (VaR) به صورت منهای 0.05 چندک توزیع log-returns تعریف شود، به راحتی می توان VaR را بر حسب ارز به صورت $\$VaR = Y_t(1-\exp(-VaR))$ بدست آورد. به نظر می رسد اوضاع برای کمبود مورد انتظار پیچیده تر باشد. در اینجا به نظر می رسد تقریبی از بازده خالص با استفاده از بازده گزارش ضروری است. یا نکته مهمی را از دست دادم؟ ES را در شرایط log-returns به صورت $ES=: -E(r^{log} | r^{log} < -VaR)$ و ES را در شرایط ارزی $\$ES =: -E(Y_{) تعریف کنید. T+1}|Y_{T+1}<-\$VaR) $ موارد زیر را امتحان کردم: $\$ES = -E(Y_T\exp(r^{log})|Y_{T+1}<-\$VaR) $$= -Y_TE(\exp(r^{log})| \exp(r^{log} ) < \exp(-VaR)-1 ) = ... ???$ با توجه به تابع e، به نظر نمی رسد که $\$ES$ بسته به $ES$ به این شکل خوب بیان شود. برای VaR امکان پذیر بود. هر ایده ای بسیار قدردانی می شود.
کسری مورد انتظار (ES) را بر حسب ارزش از یک ES اعلام شده در بازده ثبت دریافت کنید
28348
من مطالعه ای با 35 نفر انجام دادم که در 4 زمان مختلف (قبل از جراحی، بعد از عمل، در 1 هفته و در 1 ماه) آزمایش انعقاد بیش از حد را دریافت کردند. هر آزمودنی دارای 9 تست مختلف انعقاد بیش از حد در 4 نقطه زمانی است. من می خواهم هر یک از این 9 آزمایش را در طول زمان مقایسه کنم (یعنی: Clot time_preop در مقابل Clot time_postop در مقابل Clot time_1wk در مقابل Clot time_1mo) تا ببینم آیا تغییر می کنند یا خیر. یکی از مشکلاتی که من دارم این است که چگونه تصمیم بگیرم که آیا داده های من عادی هستند یا خیر. چگونه نرمال بودن داده ها را ارزیابی کنم؟ من داده ها را در SPSS کاوش کرده ام و می بینم که اگرچه اکثر آنها عادی هستند، اما برخی از آنها اینطور نیستند. اگر یکی از اندازه‌گیری‌ها در یک متغیر (یعنی: زمان لخته_1 هفته) نرمال نیست (kurtosis=10 و Shapiro-Wilk <0.01) اما بقیه اندازه‌گیری‌ها هستند، آیا باید به جای آن از ناپارامتریک فریدمن استفاده کنم؟ یا باید عادی بودن را به روش دیگری ارزیابی کنم؟
اندازه گیری های مکرر ANOVA یا تست فریدمن؟
17992
چگونه x زیر را به بردار مانند y تبدیل کنیم؟ x <- [a، b، b، c، ...] y <- [1، 2، 2، 3، ...] **به روز رسانی:** در پایان با : سطوح(x) <- 1:length(سطوح(x))
چگونه یک بردار رشته های قابل شمارش را به بردار اعداد تبدیل کنیم؟
55663
لطفاً توضیح دهم که آیا موارد زیر به همین معنی است؟ $$P(AB) = P(A \cap B)$$ به سلامتی.
نشان دادن نمادهای احتمال
76584
واحدهای مقیاس موجک a چیست؟ من همیشه فکر می کردم که به دلیل کمک موجک ریاضیات، غیربعدی است: (کپی/پیست) اگر بپذیریم که فرکانس Fc را به تابع موجک مرتبط کنیم، آنگاه، وقتی موجک با ضریب a گشاد می شود، این فرکانس مرکزی تبدیل می شود. Fc/a با این حال (دوباره در سایت matworks: در نهایت، اگر دوره نمونه برداری زیربنایی دلتا باشد، طبیعی است که به مقیاس a مرتبط شود. فرکانس Fa=Fc/(a*delta) اکنون در حالت دلتا، دوره نمونه برداری (بنابراین در ثانیه)، برای اینکه فا در مقیاس هرتز a باشد، باید در 1/sec باشد آیا این درست است؟ شما
واحدهای مقیاس موجک چیست- a
28349
**ویرایش سوال برای دقیق تر بودن:** من با آمار نسبتاً تازه کار هستم و امیدوارم بتوانم کمکی دریافت کنم. درخشندگی که Stack Exchange است در گذشته بسیار مفید بوده است. در مورد من، من یک سری داده برای واژگان والدین و فرزندانشان دارم. من می خواهم همبستگی بین اندازه واژگان کودکان را با اندازه واژگان والدین آنها آزمایش کنم. روش‌های مختلفی برای محاسبه «اندازه vocab» وجود دارد، و من می‌خواهم تعیین کنم که کدام روش بیشترین ارتباط بین واژگان کودک را با واژگان والدین دارد. در اینجا نمونه ای از داده های من وجود دارد: روش کودک Vocab 1 روش Vocab والدین 1 روش Vocab والدین 2 0.160626116 0.118348938 0.693759899 0.7421512507 0.7421512507 0.118333458 0.694389147 0.7404324 0.115148036 0.103091141 0.636671881 0.750822137 0.098036123814141. 0.757787103 0.182142187 0.116444253 0.684319515 0.723742968 0.165819982 0.155696351 0.6994730576 0.699473067 0.108361775 0.164021164 0.649796093 0.767774552 0.122965306 0.163835682 0.672889844 0.793612656 0.793612656 0.148130042 0.666237275 0.758969757 بسیار متشکرم
چگونه می توان همبستگی بین ویژگی دو جمعیت را با توجه به چندین الگوریتم تخمین زد
1773
دقت به این صورت تعریف می‌شود: p = مثبت واقعی / (مثبت واقعی + مثبت کاذب) آیا درست است که با نزدیک شدن به مثبت های واقعی و مثبت های کاذب 0، دقت به 1 نزدیک شود؟ همان سوال برای یادآوری: r = مثبت واقعی / (مثبت واقعی + منفی کاذب) من در حال حاضر در حال اجرای یک آزمایش آماری هستم که باید این مقادیر را محاسبه کنم و گاهی اوقات این اتفاق می افتد که مخرج آن 0 است و من در تعجب هستم که کدام مقدار را برگردانم. برای این مورد P.S.: ببخشید برچسب نامناسب، من می‌خواستم از «یادآوری»، «دقت» و «محدودیت» استفاده کنم، اما هنوز نمی‌توانم برچسب‌های جدیدی ایجاد کنم.
مقادیر صحیحی برای دقت و فراخوانی در موارد لبه چیست؟
11102
من در انجام تحلیل عاملی در مجموعه داده خود با مشکل مواجه هستم. وقتی تجزیه و تحلیل عاملی را در SPSS (تنظیمات پیش فرض) انجام می دهم، خوب کار می کند. مشکل این است که باید آن را به صورت برنامه نویسی (در پایتون) انجام دهم. وقتی سعی می‌کنم از Python (کتابخانه MDP) برای انجام تحلیل عاملی روی همان مجموعه داده استفاده کنم، این خطا را دریافت می‌کنم: ماتریس کوواریانس داده‌ها منفرد است. ابعاد اضافی باید حذف شوند. پس از بررسی اسناد MDP، می‌گوید: ... حداکثر تخمین پسینی متغیرهای پنهان را برمی گرداند. من که یک مبتدی در تجزیه و تحلیل عاملی بودم، خیلی روشن نبودم که این به چه معناست، اما سعی کردم روش استخراج پیش‌فرض در SPSS را از مولفه‌های اصلی به حداکثر احتمال تغییر دهم. سپس در SPSS با این خطا مواجه می شوم: این ماتریس قطعی مثبت نیست. آیا این دو خطا یکی هستند؟ صرف نظر از این، چه کاری می توانم انجام دهم تا مجموعه داده خود را اصلاح کنم تا ماتریس کوواریانس تکی نباشد؟ با تشکر **ویرایش:** خوب، بنابراین سعی می کردم همه چیز را ساده نگه دارم، اما شاید بهتر باشد همه چیز را از ابتدا توضیح دهم. من یک سری مدارک دارم. بله، من فقط از 9 سند به عنوان یک مورد آزمایشی ساده استفاده می کنم، اما هدف نهایی من استفاده از آن در یک مجموعه بسیار بزرگتر خواهد بود. من یک ماتریس سند اصطلاحی ساخته‌ام، tf-idf انجام داده‌ام و SVD را انجام داده‌ام-- بیشتر با کمک blog.josephwilk.net/.../latent-semantic-analysis-in-python.html اکنون من یک ماتریس بازسازی شده، و من می خواهم اسناد را به دسته ها مرتب کنم. بنابراین، سعی کردم از تحلیل عاملی استفاده کنم. در واقع، به نظر می رسد که کار می کند-- وقتی آن را در SPSS قرار دادم، بارگذاری های فاکتور نشان می دهد که اسناد به گونه ای که من فکر می کردم گروه بندی می شوند، و بارگذاری بالاتر از زمانی است که من SVD را انجام نمی دادم. (اگرچه من فکر می کنم از نظر فنی، SPSS در حال انجام PCA است، حتی اگر تحت عنوان تحلیل عاملی باشد). من سعی کردم از PCANode MDP استفاده کنم، اما به نظر نمی رسد که چیزی نزدیک به آنچه می خواهم به من بدهد. عجیب است، اگر ماتریس خود را جابه‌جا کنم، تحلیل عاملی کار می‌کند (به جای اسناد، اصطلاحات را گروه بندی می‌کند). امیدوارم همه اینها کمی منطقی تر باشد ...
مسئله تحلیل عاملی -- ماتریس کوواریانس منفرد؟
94967
مدل $y_i = \beta_0 + \beta_1x_i + \epsilon_i$ 1 است. ${\rm cov}(e_i، \hat y_i)$ چیست؟ 2. ${\rm cov}(\epsilon_i, \hat \beta_1)$ چیست؟ 3. ${\rm cov}(e_i، \epsilon_i)$ چیست؟ برای 1، من ${\rm cov}(e_i، \hat y_i)$ را به عنوان \begin{align} {\rm cov}(e_i، \hat \beta_0+\hat\beta_1x_i) &= {\rm cov} می‌نویسم (e_i، \hat\beta_0) + x_i {\rm var}(e_i، \hat\beta_1) \\\ &= {\rm cov}(\bar y - \hat \beta_1 \bar x, y_i-\bar y - \hat \beta_1(x_i-\bar x)) \\\ &= {\rm cov}(\bar y, y_i) - {\rm var}(\bar y) - \bar x {\rm cov}(\hat \beta_1, y_i) + (x_i -\bar x)\bar x{\rm var}(\hat \beta_1) \\\ &= \frac{\sigma^2}{n}-\frac{\sigma^2}{n}-\frac{(x_i - \bar x)\bar x }{\sum (x_i - \bar x)^2}\sigma^2 + \frac{(x_i - \bar x)\bar x}{\sum (x_i - \bar x)^2}\sigma^2 \\\ &= 0 \end{align} برای 2, ${\rm cov}(\epsilon_i, \hat \beta_1) = {\rm cov}(\epsilon_i, \frac{\sum (x_i - \bar x )y_i}{\sum (x_i - \bar x)^2} = \frac{(x_i - \bar x)}{\sum (x_i - \bar x)^2}\sigma^2$ برای 3، \begin{align}{\rm cov}(e_i، \epsilon_i) &= {\rm cov}(\epsilon_i، y_i-\bar y - \hat \beta_1 (x_i-\bar x) ) \\\ &= {\rm cov}(\epsilon_i، y_i) - {\rm cov}(\epsilon_i، \bar y) - {\rm cov}(\epsilon_i، \hat \beta_1(x_i - \bar x)) \\\ &= \sigma^2 - \frac{\sigma^2} {n} - \frac{(x_i - \bar x)^2}{\sum (x_i - \bar x)^2}\sigma^2 \end{align} آیا کسی می‌تواند نگاه کند در اشتقاق من و به من بگویید اگر اشتباهی وجود دارد؟
${\rm cov}(e_i، \hat y_i)$ در رگرسیون خطی ساده چیست؟
109290
طبق گفته MaxEnt، هنگام ایجاد مدل باید تمام عدم قطعیت را حفظ کنیم که آنتروپی را با توجه به داده‌های موجود فعلی به حداکثر می‌رساند. این واقعاً من را گیج می‌کند، زیرا هنگام ساخت یک مدل (مانند رگرسیون لجستیک)، تمایل داریم آنتروپی متقاطع را به حداقل برسانیم، که به نظر می‌رسد برخلاف MaxEnt است، آیا من چیزی را در اینجا از دست می‌دهم؟
حداکثر آنتروپی و حداقل آنتروپی متقاطع
17729
من مجموعه ای از نقاط داده در سه بعدی x,y,z دارم. من می خواهم بتوانم داده ها را به عنوان یک سطح صاف تجسم کنم. به روش دیگری بیان شد: با توجه به آن نقاط، من می‌خواهم بتوانم z را برای هر x و y دلخواه تعیین کنم به طوری که سطح صاف و پیوسته باشد. ابزارهای موجود هر چیزی است که بتوانم به صورت رایگان در اختیارم قرار دهم. Bias برای پردازش، پایتون یا php است.
چگونه از جمع آوری نقاط داده سطح پیوسته بدست آوریم؟
83897
من در ابتدا در Stack Overflow پست گذاشتم و به من گفته شد که آن را به اینجا منتقل کنم. اگر می‌خواهم از بین دو مجموعه مختلف ویژگی برای یک ماشین تقویت گرادیان انتخاب کنم، اما نمی‌خواهم یک مدل کامل را در هر مجموعه آموزش دهم، آیا می‌توانم عملکرد را با تعداد درخت‌های کمتر متمایز کنم؟ فرض کنید بر اساس سایر پارامترها، من به حدود 1000 درخت برای بهترین تناسب در نهایت نیاز دارم. اگر فقط بخواهم ببینم آیا یک مجموعه از ویژگی‌ها احتمالاً بهتر از دیگری عمل می‌کنند، آیا می‌توانم تعداد درخت‌ها را به 50 برش دهم و سپس اعتبارسنجی کنم؟ یا حتی 5 تا؟ آیا پیاده‌سازی به‌گونه‌ای کار می‌کند که بهترین درخت‌ها در اوایل انتخاب شوند، و من می‌توانم فرض کنم تعداد درخت‌های کمتر ممکن است نشان‌دهنده عملکرد نهایی باشد یا در اعتبارسنجی مشکلاتی وجود داشته باشد؟ من از scikit-learn استفاده می کنم، و کمی جدید هستم، بنابراین فقط می خواستم در مورد نحوه عملکرد آن مطمئن باشم. به طور خلاصه، آیا تناسب درختان اولیه تا حدودی نشان دهنده اهمیت ویژگی است؟ با تشکر
انتخاب ویژگی اکتشافی برای تقویت گرادیان
55660
من سعی می کنم با استفاده از مقداری داده آموزشی SVM Classifier را یاد بگیرم. و سپس من برای یک مجموعه دیگر (مستقل از داده های آموزشی) پیش بینی می کنم، مقادیر تصادفی C را از 0.000001 تا 50000000 امتحان کردم و دقت همچنان ثابت است. من سعی کردم مجموعه های آموزشی و تست را تغییر دهم، هنوز هم همان خطا را می دهد، لطفاً کد را اینجا ببینید (نمی دانم آیا منطقی است)، اما هر بار که مقدار C را تغییر می دهم و آن را اجرا می کنم، هیچ اتفاقی نمی افتد ورودی = svminput (600:1900) ,:); ورودی = دو برابر (ورودی)؛ تست شده = svminput(1:500,:); تست شده = دو برابر (تست شده); hot2 = داغ (600:1900); برچسب تست = داغ(1:500); svmModel = trainSVM(input,hot2,5000000);// مقدار C در این مورد 5000000 است. پیش بینی = classifySVM(svmModel,testd); sum(abs(prediction -testlabel'))/500
افزایش مقدار C در SVM (LibSVM) اصلاً دقت را تغییر نمی دهد.
110784
من دو مجموعه از مشاهدات چند متغیره پیوسته $X=\\{x_1، x_2، ...، x_d\\}$ و $Y=\\{y_1، y_2، ...، y_d\\}$ دارم. چگونه می توانم مستقل بودن یا نبودن آنها از نظر آماری را توجیه کنم؟ برای سادگی، متغیر دیگری $Z=\\{x_1, x_2, ..., x_d, y_1, y_2, ..., y_d\\}$ را با الحاق $X$ و $Y$ فرض می کنم. علاوه بر این، من توزیع نرمال چند متغیره را برای همه متغیرهای تصادفی $X$، $Y$ و $Z$ فرض می‌کنم. حال، برای اثبات استقلال آماری، آیا تأیید کردن: $p(Z) = p(X)p(Y)$ کافی است، که در آن $p(Z) = p(X,Y)$ با توجه به مفهوم چند متغیره توزیع و توزیع مشترک در اینجا مورد بحث قرار گرفته است.
چگونگی توجیه استقلال آماری در بین دو مجموعه مشاهدات چند متغیره پیوسته
94965
من دو گروه آزمایشی دارم. سپس نرمال بودن آنها را به ترتیب تست می کنم. نتایج نشان می دهد که یکی دارای انحراف مثبت و دیگری دارای انحراف منفی است. در این صورت، چگونه باید تبدیل داده ها را انجام دهم؟ آیا می توانم یک گروه را تبدیل کنم و گروه دیگر را با ورود به سیستم معکوس تبدیل کنم؟
چگونه داده های دو گروه آزمایشی را تبدیل کنیم؟ یکی دارای انحراف مثبت و یکی منفی..
8702
من در حال بررسی تفاوت بین یک ویژگی فیزیکی گونه های مختلف حیوانات هستم. با توجه به ماهیت آزمایش‌هایم، از یک مدل ترکیبی غیرخطی با تنظیمات زیر استفاده می‌کنم: lme(log10(ویژگی) ~ log10(Body.mass) + ضریب (Trial.Number)، تصادفی = ~1 | IndividualID، data= حیوانات، زیرمجموعه=Frfactor==کم، na.action=na.omit ) که در آن subset=Frfactor==low به محدوده سرعت خاصی اشاره دارد که به آن علاقه مندم. من نتایج فوق العاده ای دریافت می کنم که از آن خوشحالم. اما اکنون می‌خواهم ببینم گونه‌ها چگونه بر ویژگی من تأثیر می‌گذارند. از آنجایی که شرایط یکسان اعمال می شود (تلفن ها اثرات مکرر) من lme را نگه داشته و ساختار را به: lme(log10(ویژگی) ~ specfactor + factor(Trial.Number)، تصادفی = ~1 | IndividualID، data=animals، subset=Frfactor==low, na.action=na.omit ) که در آن specfactor نام گونه ها را فهرست می کند. با نگاه کردن به مقادیر p به نظر می رسد که این گونه ها تفاوت قابل توجهی با رهگیری (که specfactorserval است) ندارند. با این حال، وقتی من یک باکس پلات ایجاد می کنم، مطمئناً به نظر می رسد که تفاوت های بین گونه ای بزرگی وجود دارد! حدس می‌زنم چون lme تستی برای رگرسیون است، استفاده از آن هنگام مقایسه ویژگی با متغیرهای طبقه‌بندی واقعاً منطقی نیست. اما هنوز باید اثرات مکرر را در نظر بگیرم. سوال من این است که آیا راه بهتری برای آزمایش اهمیت بین گونه ها با استفاده از نمودار جعبه وجود دارد؟ من به مقادیر p-معمول، فواصل اطمینان نیاز دارم. به نظر می رسد دستور list از چنین مقایسه هایی کوتاهی می کند. من نمی دانم که آیا آزمون t آن را قطع می کند یا خیر. با تشکر PS من در ابتدا تصویری از نتایج آزمایش خود و باکس پلات ارسال کردم، اما من آنقدر تازه وارد هستم که اجازه ندارم ...
باکس پلات با glme
110787
مدل AR(1) را با نوآوری های iid با میانگین و واریانس محدود در نظر بگیرید. همچنین، اجازه دهید X_0 $ = 0 $. \begin{align} X_t = \phi X_{t-1} + \epsilon_t \end{align} هدف بدست آوردن توزیع مجانبی میانگین نمونه است، زمانی که $|\phi| < 1$ و همچنین زمانی که $\phi = 1$ یا $-1$. با توجه به آنچه من می دانم، برای به دست آوردن چنین نتیجه ای، باید قضایایی را از یک دوره سری زمانی دانست. با این حال، این یک سوال تمرینی برای کلاس آمار ریاضی من است، بنابراین ظاهراً یک راه ساده برای انجام این کار وجود دارد که من از دست می‌دهم. هر بینشی قابل تقدیر است. Btw من از قبل جواب نهایی را می دانم، فقط مراحل را نمی دانم. اگر کمک کند، پاسخ نهایی برای مورد اول این است که $\sqrt{n}(\bar{X}-\frac{\mu}{1-\phi})$ به طور مجانبی نرمال است با میانگین 0 و واریانس $\ frac{\sigma^2}{(1-\phi)^2}$.
میانگین نمونه مدل AR(1).
110781
من یک GLM با 5 متغیر مستقل دارم (Gen-Score (GS) (متغیر مستقل مورد علاقه)، جنسیت، سن، خواهر و سال تولد) و می خواهم نشان دهم که GS اندازه گیری توده بدون چربی و توده چربی را پیش بینی می کند. GS به طور قابل توجهی با توده چربی و توده بدون چربی ارتباط مثبت دارد (هر دو در یک مقیاس (گرم) بیان می شوند. تخمین بتا برای توده چربی (FM) بیشتر از توده بدون چربی (LM) است (800 گرم توده چربی / نقطه خطر در مقابل 400 گرم از آنجایی که این تفاوت از نظر بالینی مرتبط است، مایلم نشان دهم که دو تخمین بتا نیز از نظر آماری با یکدیگر متفاوت هستند و GS دارای یک مقدار است. تأثیر بیشتر بر انباشت توده چربی اینها دو رویکرد من بودند که فکر می‌کنم واقعاً در اینجا مناسب نیستند: اجرای دو همبستگی جداگانه (FM در مقابل GRS و LM در مقابل GRS با متغیرهای کمکی) و سپس مقایسه مقادیر r با استفاده از متغیرهای جزئی. با استفاده از تبدیل فیشر r به z، اما این همان نمونه است و نه دو نمونه مستقل خطا کنید و تخمین های بتا را با استفاده از یک آزمون t ساده مقایسه کنید. (BTW من از راهنمای الکترونیکی SAS برای تجزیه و تحلیل خود استفاده می کنم) متشکرم
مقایسه تخمین های بتا در یک نمونه مشابه، همان متغیرهای وابسته اما مستقل
28343
فرض کنید که من یک بردار X از 50 عدد بین 1 تا 10 دارم. سپس واریانس X را محاسبه می‌کنم. بگذارید بگوییم که 8 می‌شود، یعنی VAR(X) برابر 8 است. آیا پرسیدن معنادار است. اهمیت آماری این نتیجه؟ اگر بله، چگونه می توانم آن را محاسبه کنم؟ نکته: اگرچه Matlab معنی‌داری آماری ضریب همبستگی را محاسبه می‌کند، اما معنی‌داری واریانس آماری را محاسبه نمی‌کند. این باعث شد من فکر کنم که شاید پرسیدن معنی‌داری آماری واریانس معنی‌دار نباشد. با این حال، به نظر من این یک سوال معنادار به نظر می رسد زیرا برای لیستی از اعداد تصادفی توزیع شده یکنواخت با محدوده معین، برخی واریانس ها کاملاً بعید است. با تشکر احمد
اهمیت آماری واریانس نمونه
60500
من می خواهم فرض کنم که دمای سطح دریای دریای بالتیک سال به سال یکسان است و سپس آن را با یک مدل تابع / خطی توصیف کنم. ایده ای که داشتم این بود که سال را به عنوان یک عدد اعشاری (یا num_months/12) وارد کنم و بفهمم که دما در آن زمان چقدر باید باشد. با پرتاب آن به تابع lm() در R، داده های سینوسی را نمی شناسد، بنابراین فقط یک خط مستقیم تولید می کند. بنابراین من تابع sin() را در یک براکت I() قرار دادم و چند مقدار را امتحان کردم تا به صورت دستی تابع را جا بزنم، و این به چیزی که می‌خواهم نزدیک می‌شود. اما دریا در تابستان سریعتر گرم می شود و سپس در پاییز کندتر خنک می شود ... بنابراین مدل سال اول اشتباه است ، بعد از یکی دو سال درست تر می شود و بعد در آینده حدس می زنم بیشتر شود. و دوباره اشتباه تر چگونه می توانم R را به دست بیاورم تا مدل را برای من تخمین بزند، بنابراین مجبور نیستم خودم اعداد را حدس بزنم؟ نکته کلیدی در اینجا این است که من می خواهم سال به سال همان مقادیر را تولید کند، نه اینکه فقط برای یک سال درست باشد. اگر در مورد ریاضی بیشتر می دانستم، شاید می توانستم آن را به عنوان چیزی شبیه پواسون یا گاوسی به جای sin() حدس بزنم، اما من نیز نمی دانم چگونه این کار را انجام دهم. هر کمکی برای نزدیک شدن به یک پاسخ خوب بسیار قدردانی خواهد شد. در اینجا داده‌هایی که من استفاده می‌کنم و کدی برای نمایش نتایج تا کنون آمده است: # SST از Bradtke و همکاران 2010 ToY <- c(1/12,2/12,3/12,4/12,5/12,6/12,7/12,8/12,9/12,10/12,11/12,12/12, 13/12 ,14/12,15/12,16/12,17/12,18/12,19/12,20/12,21/12,22/12,23/12,24/12,25/ 12،26/12،27/12،28/12،29/12،30/12،31/12،32/12،33/12،34/12،35/12،36/12،3 7/12,38/12,39/12,40/12,41/12,42/12,43/12,44/12,45/12,46/12,47/12,48/12) مدارک <- c(3,2,2.2,4,7.6,13,16,16.1,14,10.1,7,4.5,3,2,2,2,4,7.6,13,16,16,1,14,10.1,7,4.5 ,3,2,2.2,4,7.6,13,16,16.1,14,10,1,7,4,5,3,2,2,2,4,7.6,13,16,16,1,14,10,1,7,4.5) SST <- data.frame(ToY، درجه) SSTlm <- lm(SST$Degrees ~ I(sin(pi*2.07*SST$ToY))) خلاصه (SSTlm) نمودار(SST,xlim=c(0,4) ,ylim=c(0,17)) par(new=T) plot(data.frame(ToY=SST$ToY,Degrees=8.4418-6.9431*sin(2.07*pi*SST$ToY)),type=l,xlim=c(0,4),ylim=c(0 17))
چگونه یک تناسب خوب برای مدل نیمه سینوسی در R پیدا کنیم؟
111780
چگونه فاصله اقلیدسی (عدم شباهت) بین دو سند، به عنوان مثال، D1 و D2 را با استفاده از _ بسامد نسبی_ محاسبه کنیم؟ در اینجا مثالی از فاصله کسینوس و اقلیدسی بین دو سند با استفاده از _ بسامد مطلق_ آورده شده است. \begin{آرایه}l} D1 ({\rm فرکانس‌ها}) &= 4,9,7,0,0,3 &= \\{16+81+49+9\\} &= \sqrt{155 } &= 12.45 \\\ D2 ({\rm فرکانس‌ها}) &= 4,5,0,7,5,0 &= \\{16+25+49+25\\} &= \sqrt{115} &= 10.72 \end{آرایه} _کسینوس D1,D2 = (4x4+9x5) / 12.45x10.72 = 0.4569 (فرکانس مطلق و نسبی فرکانس) برای فرکانس مطلق کسینوس همان فرکانس نسبی است_ همچنین اقلیدسی D1, D2: \begin{align} &= \sqrt{(4-4)^2 + (9-5)^2 + 7^2 + 7^2 + 5^2 + 3^2} \\\ &=\sqrt{ 0+16+49+49+25+9} \\\ &= \sqrt{148} \\\ &= 12.17 \end{align} (فرکانس مطلق). فرکانس نسبی برای این 0.2532 دلار است. من سعی می کنم فرکانس نسبی (اقلیدسی) را برای این مشکل بدست بیاورم، هیچ آموزشی پیدا نکردم که کمک کند. تنها چیزی که توانستم پیدا کنم پاسخ 0.2532$ بدون فرمول یا توضیح بود.
استفاده از فرکانس نسبی برای فاصله اقلیدسی و کسینوس (عدم تشابه)
111785
من یک بردار ناشناخته از اعداد صحیح I، یک ثابت مجهول c دارم و داده های من cI + نویز هستند. نویز میانگین 0 است. مشکل تخمین I است. من می دانم که این امکان پذیر است، زیرا اگر شما تعداد بی نهایت داده داشته باشید و یک هیستوگرام بسازید، قله هایی با فاصله c از هم خواهد داشت. از آن می توانید c را استنتاج کنید و سپس I را با تقسیم داده های خود بر c تخمین بزنید. اما ای کاش می توانستم به دنبال راه حل های استاندارد برای مشکل باشم. مشکل من، اساسا، این است که من نمی دانم نام این وضعیت چیست یا کجا در مورد آن بخوانم. جزئیات دیگری برای مشکل من وجود دارد - به عنوان مثال، نوع خاصی از ناهمسانی در نویز که در نظرات توضیح دادم. با این حال، به من کمک می کند تا منابعی را در مورد هر مشکلی پیدا کنم که در آن نویز cI+ تخمین زده می شود، حتی اگر تمام جزئیات مشکل من را بازتولید نکند.
برای مسئله ای که مجهول بردار اعداد صحیح است و نقاط داده متناسب با آن هستند نام ببرید؟
111786
من سعی می‌کنم چیزی را که «ویژگی‌های اختیاری» می‌نامم، بررسی کنم، اما از آنجایی که نام مناسب آنها را در آمار نمی‌دانم، نمی‌توانم اطلاعاتی در مورد آنها پیدا کنم. اساساً من به مشکلی نگاه می کنم که گاهی اوقات برخی از ویژگی ها حتی معنی ندارند. به عنوان مثال، اگر برای هر فردی یک ویژگی سن پسر بزرگتر داشته باشم، اگر یک فرد خاص هیچ پسری نداشته باشد چه اتفاقی می افتد؟ چگونه می توان از این ویژگی برای تخمین رگرسیون یا چگالی استفاده کرد؟ با عرض پوزش بابت سوال ساده لوحانه دانستن اینکه این نوع ویژگی ها در آمار یا یادگیری ماشینی چه نامیده می شوند بسیار مفید خواهد بود.
ویژگی های اختیاری
111789
من در حال حاضر در میانه تجزیه و تحلیل داده ها برای پایان نامه کارشناسی ارشد هستم و در درک تحلیل عاملی با مشکل زیادی مواجه هستم. من داده ها را با استفاده از یک پرسشنامه جمع آوری کردم که در آن سوالات را به 3 دسته تقسیم کردم، در مجموع 9 مورد در پرسشنامه وجود دارد - 3 سوال برای هر دسته. سرپرست من به من گفته است که تحلیل عاملی راهی برای تجزیه و تحلیل مجموعه داده‌های من است، با این حال، من در تلاش برای درک این موضوع هستم که چرا سوال تحقیق من بر میزان رضایت یک جمعیت شناختی خاص از این سه دسته متمرکز است. آیا کسی می تواند به من توضیح دهد که چرا تحلیل عاملی باید با این مجموعه داده ها اجرا شود و چگونه به پاسخ به سؤال تحقیق من کمک می کند؟ و اگر تحلیل عاملی اکتشافی راهی برای رفتن به اینجاست؟ (من AMOS یا هیچ نرم افزار دیگری که بتواند CFA را انجام دهد ندارم...) تا کنون با استفاده از چرخش varimax روی SPSS آنالیز عاملی اجرا کرده ام (به نظر می رسد فاکتورها با توجه به ماتریس ضد تصویر با هم ارتباط ندارند) و به پایان رسیده اند. با 3 مؤلفه که تقریباً منعکس کننده دسته بندی هایی است که من برای بررسی انتخاب کردم. کامپوننت 2 بیشترین بارگذاری را دارد، به دنبال آن جزء 1 و سپس 3 قرار می گیرند و من به هر جزء یک برچسب داده ام. آیا کسی می تواند به من بگوید که چگونه می توانم با استفاده از این یافته ها به سؤال تحقیق خود پاسخ دهم؟ وزن گیری واقعاً به چه معناست؟ آیا می توانم از این داده ها استفاده کنم تا بفهمم کدام مؤلفه برای جمعیت من مهم است و کدام کمتر؟ با عرض پوزش بابت حجم زیاد سوالات، من واقعا در درک آمار ضعیف هستم! [ویرایش] بنابراین من امروز توانستم AMOS را در دست بگیرم و CFA را برای آزمایش مدل 3 عاملی که از اجرای EFA پیدا شد، اجرا کردم. پس از مطالعه نحوه تفسیر خروجی CFA، هنوز کاملاً نمی دانم که چگونه می تواند به سؤال تحقیق من پاسخ دهد. هدف تحقیق من این است که ببیند مادران در بخش آموزش چگونه خود را راضی در زمینه های سیاست زایمان، ترتیبات کاری انعطاف پذیر و فرصت هایی برای توسعه شغلی می دانند. با استفاده از 3 عاملی که با اجرای EFA پیدا شد، مدل 3 عاملی را روی AMOS ترسیم کردم و تخمین ها را برای من محاسبه کرد. مدل تناسب خوبی را نشان می‌دهد، اما من در درک وزن‌های رگرسیون با مشکل مواجه هستم. 2. آیا فقط مقادیر معنی دار (p < 0.05) برای گزارش مهم هستند؟ از 9 متغیر مشاهده شده، تنها سه متغیر از متغیر نهفته 1 (توسعه شغلی) و یک متغیر از متغیر نهفته 2 (کار انعطاف پذیر) معنی دار بودند. 3. آیا این مقادیر معنی دار به این معنی است که بیشترین اهمیت را در توضیح متغیرهای نهفته دارند؟ 4. آیا می توانم از این وزن های رگرسیونی برای پاسخ به سؤال تحقیقم با فرض اینکه متغیرهای مشاهده شده قابل توجه برای جمعیت شناختی من رضایت بخش هستند استفاده کنم؟
تحلیل عاملی در SPSS و CFA در AMOS
48847
من در حال آزمایش با انتخاب ویژگی $\chi^2$ برای برخی از وظایف طبقه بندی متن هستم. من می‌دانم که تست $\chi^2$ وابستگی‌های B/T دو متغیر طبقه‌بندی را بررسی می‌کند، بنابراین اگر انتخاب ویژگی $\chi^2$ را برای یک مشکل طبقه‌بندی متن باینری با نمایش بردار BOW باینری انجام دهیم، هر کدام $\chi^2 تست $ روی هر جفت (ویژگی، کلاس) یک تست $\chi^2$ بسیار ساده با 1 درجه آزادی خواهد بود. به نقل از مستندات: http://scikit- learn.org/stable/modules/generated/sklearn.feature_selection.chi2.html#sklearn.feature_selection.chi2، > از این امتیاز می توان برای انتخاب ویژگی های n_features با بالاترین > استفاده کرد. مقادیر آماره χ² (chi-square) از X، که باید حاوی بولی > یا فرکانس باشد (به عنوان مثال، تعداد ترم ها در طبقه بندی اسناد)، نسبت به کلاس ها. به نظر من می‌توانیم انتخاب ویژگی $\chi^2$ را نیز در نمایش برداری DF (تعداد کلمات) انجام دهیم. ** سوال اول من این است: ** چگونه sklearn ویژگی با مقدار صحیح را به دسته بندی تفکیک می کند؟ سوال دوم من شبیه سوال اول است. از کدهای نمایشی در اینجا: http://scikit- Learn.sourceforge.net/dev/auto_examples/document_classification_20newsgroups.html به نظر من می‌توانیم انتخاب ویژگی $\chi^2$ را روی یک نمایش برداری TF*IDF نیز انجام دهیم. **سوال دوم من این است:** sklearn چگونه انتخاب ویژگی $\chi^2$ را روی ویژگی های با ارزش واقعی انجام می دهد؟
چگونه scikit-learn انتخاب ویژگی $\chi^2$ را روی ویژگی‌های غیر طبقه‌بندی انجام می‌دهد؟
110789
آیا اجرای R برای تست سه گانه برای تقارن وجود دارد؟ به طور مشخص تست رندلز-فلیگنر-پلیسلو-ولف؟ من جستجو کردم و نتوانستم یکی را پیدا کنم، اما این به این معنی نیست که وجود ندارد. -کرک
تست سه گانه در R؟
66968
من فکر کردم Revolution Analytics یک ارائه در مورد نحوه استفاده از RHadoop برای انجام KNN توزیع شده دارد. آیا واقعاً کسی قبلاً این کار را انجام داده است، با هر وبلاگ یا مرجع دیگری در مورد نحوه انجام آن آشنا است؟ من از هر راهنمایی قدردانی می کنم!
K نزدیکترین همسایه را با استفاده از RHadoop توزیع کرد
48848
من یک مدل GLM نصب شده دارم: `m1=glm(y~x,family=poisson,data=data)`. من می‌خواهم از این مدل برازش شده برای شبیه‌سازی داده‌های جدید استفاده کنم، اما «شبیه‌سازی(m1,nsim=1)» فقط برای مقادیر x اصلی که برای برازش مدل استفاده می‌شوند، نتیجه می‌دهد. آیا می توان از تابع شبیه سازی برای تولید y از مقادیر x جدید استفاده کرد؟
استفاده از مدل GLM برازش برای شبیه سازی y از مقادیر x جدید
111034
گیماراس و همکاران (Rev Econ Stat, 2003, 85/1) شرایطی را توصیف می کند که تحت آن نتایج حاصل از مدل های رگرسیون پواسون و مدل های لاجیت شرطی معادل هستند. من سعی می‌کنم بفهمم که آیا این نتیجه برای داده‌های پانل جلوه‌های ثابت نیز صادق است یا خیر. ii) برای مدل های دو جمله ای منفی. و iii) (به خاطر کامل بودن) مدل های دوجمله ای منفی با اثر ثابت. اگر بتوانید برخی از ادبیات مرتبط را به من معرفی کنید، بسیار مفید خواهد بود.
آیا هم ارزی مدل های پواسون و لاجیت شرطی برای داده های تابلویی اثر ثابت و مدل های دوجمله ای منفی برقرار است؟
48845
مزایای بدست آوردن یک مجموعه داده جدید که در آن تمام ابعاد آنها مستقل از یک مجموعه داده اصلی است (استفاده از PCA) چیست؟ می‌دانیم که می‌توانیم فضای ذخیره‌سازی مورد نیاز را کاهش دهیم، محاسبات را تسریع کنیم یا ویژگی‌های اضافی را پس از انجام PCA حذف کنیم. اما چه محاسباتی در یک دیدگاه آماری یا احتمالی، زمانی که همه ابعاد متعامد هستند، تسریع یا سودمند می شوند؟
در بدست آوردن ابعاد متعامد از یک مجموعه داده سود ببرید
48849
هنگام انجام چندین انتساب با بسته MICE در R، منابعی (http://www.statisticalhorizons.com/more-imputations) پیدا کردم که حدود 10 انتساب را توصیه می کنند. می‌خواستم بدونم که آیا اشکالی به عنوان مثال وجود دارد. انجام 1000 یا 10000 انتساب همانطور که باید به نتایج دقیق تری منجر شود و آیا از نظر محاسباتی به راحتی امکان پذیر است؟
انتساب چندگانه از طریق بسته MICE: آیا حد بالایی برای تعداد انتساب وجود دارد؟
50875
یکی از دوستان اخیراً این مشکل را برای من مطرح کرد: آیا می توان یک Chi-square در نتایج آزمون برای گروهی از شرکت کنندگان انجام داد تا مشخص شود که خطاهای نوع A بیشتری داشته اند یا نوع B؟ من می دانم که آمار خاصی برای طراحی جداول درون موضوعی در نظر گرفته شده است. با این حال، می‌خواستم ببینم آیا می‌توانم پاسخی را در زمینه Chi-square بیاندیشم یا خیر. دوستم اشاره کرد که نگرانی بزرگ آنها این بود که انجام این کار در چارچوب Chi-square به منزله نقض فرض استقلال باشد. ماهیت فرض استقلال در طرح های سلسله مراتبی تصور من این است که راهی وجود دارد که در آن فرض استقلال به سلسله مراتب طرحی که می‌خواهیم به آن تعمیم دهیم بستگی دارد. به عنوان مثال، در مسئله فوق، اگر فقط بخواهم به میزان خطای نوع A/B آن موضوعات خاص تعمیم دهم، آیا استفاده از Chi-square را توجیه می کنم؟
آیا فرض استقلال با تعمیم پذیری نتایج در طرح های سلسله مراتبی تعامل دارد؟
110783
من یک مطالعه بسیار ضعیف طراحی کرده ام، و باید راهی برای تجزیه و تحلیل داده هایی که جمع آوری کرده ام پیدا کنم. در اینجا شرحی از طراحی آمده است: دو متغیر درون موضوعی وجود دارد، یکی با چهار سطح و دیگری با دو سطح (یعنی یک ماتریس 2×4 از انواع محرک های ممکن وجود دارد). اگرچه هشت سلول وجود دارد، اما هر شرکت کننده در مجموع 12 مورد را می بیند (هر کدام به عنوان 0 یا 1 رتبه بندی می شوند). بنابراین، شرکت کنندگان یک یا دو مورد از هر سلول را رتبه بندی می کنند. این در بین شرکت کنندگان متعادل است (به طور خاص، دو مجموعه محرک ممکن وجود دارد که در هر سلول سه مورد وجود دارد). جلوه های اصلی به اندازه کافی آسان هستند، اما فهمیدن اینکه چگونه به دنبال اثر تعاملی بگردید بسیار دشوار می شود. برای تحلیل این موضوع، باید این واقعیت را در نظر بگیرم که برای هر شرکت‌کننده، تعداد نابرابر مشاهدات در بین هشت نوع محرک مختلف وجود دارد. همانطور که می بینم، می توانم به طور تصادفی چهار مورد از موارد غیرمستقل را از هر شرکت کننده حذف کنم (فقط یک مورد در هر سلول باقی می ماند)، اما در صورت امکان می خواهم از این موضوع دوری کنم. از طرف دیگر، می‌توانم رتبه‌بندی متوسطی را در هر سلول به دست بیاورم (که می‌تواند 0، 0.5 یا 1 باشد)، اما این باعث می‌شود که برخی از آیتم‌ها بیشتر از بقیه وزن شوند. از آنجایی که هیچکدام از این گزینه ها به ایده آل نزدیک نمی شوند، از هرکسی که برای چیز بهتری راهنمایی داشته باشد، بسیار سپاسگزار خواهم بود!! خوشحال می شوم توضیح دهم که آیا این توصیف نامشخص است.
چگونه داده ها را با مشاهدات نابرابر در هر سلول تجزیه و تحلیل کنیم؟
111784
اجازه دهید $X_{i} \sim U(0, \theta) $ و $X=(X_1,\dots,X_n)$. نشان دهید که $$ \frac{X_{(1)}}{X_{(n)}}$$ کمکی برای تتا است، من نمی‌توانم راهی برای انجام آن پیدا کنم که راحت به نظر برسد. هر ایده ای؟ P.s: $X_{(i)} $ آمار ترتیب بردار است
نشان دهید که یک آمار فرعی است
110426
من یک ماتریس همبستگی $A$ دارم که با استفاده از ضریب همبستگی خطی پیرسون از طریق ()corrcoef Matlab به دست آوردم. ماتریس همبستگی با ابعاد 100x100، یعنی ماتریس همبستگی را روی 100 متغیر تصادفی محاسبه کردم. در میان این 100 متغیر تصادفی، من می‌خواهم 10 متغیر تصادفی را پیدا کنم که ماتریس همبستگی آنها تا حد ممکن همبستگی کمی دارد (به کمیت کردن میزان همبستگی بیشتر یک ماتریس همبستگی A در مقایسه با ماتریس همبستگی B در رابطه با معیارهای اندازه‌گیری مراجعه کنید. همبستگی کلی در یک ماتریس همبستگی). من فقط به همبستگی زوجی اهمیت می دهم. آیا روش های خوبی برای یافتن آن 10 متغیر تصادفی در مدت زمان معقول وجود دارد (مثلاً نمی خواهم ترکیبات $\binom{100}{10}$ را امتحان کنم)؟ الگوریتم های تقریب درست هستند.
کمترین همبستگی زیرمجموعه متغیرهای تصادفی از یک ماتریس همبستگی
79998
می دانم که این را می توان ساده لوحانه در نظر گرفت. اما واقعیت این است که من یک دانشجوی علوم کامپیوتر هستم که دوره مقدماتی تجزیه و تحلیل داده ها (Coursera) و دوره اقتصاد سنجی I را در دانشگاه خود گذرانده ام. در حالی که من مفهوم CI را درک کردم، هنوز احساس می کنم که عناصر گمشده زیادی در تفسیر من وجود دارد. بنابراین من آنچه را که همه باید در مورد CI بدانند جستجو کردم و نتوانستم آن را پیدا کنم. من احساس می کنم که باید یکی به خاطر مردم اینترنت وجود داشته باشد. شاید این انجمن بتواند به این امر کمک کند! به روز رسانی: برای نظر NickCox@: من مطمئن نیستم که چرا نمی توانیم بگوییم که مقدار واقعی در CI وجود دارد؟ بلکه به این واقعیت متوسل می شویم که اگر آزمایش را 100 بار انجام دهیم، مقدار واقعی را 95٪ برابر خواهیم کرد (اگر pvalue را 0.05 در نظر بگیریم).
همه باید در مورد فاصله اطمینان بدانند؟
114977
من دو نمونه با چندین متغیر دارم. من ضرایب همبستگی پیرسون را بین هر جفت متغیر در هر نمونه محاسبه می کنم. چگونه می توانم ضرایب پیرسون متناظر کارآمد دو نمونه را (برای یک جفت متغیر خاص) مقایسه کنم؟ آیا باید هر جفت ضریب پیرسون متناظر را به طور مستقل با هم مقایسه کنم یا اینکه می توان هر جفت همبستگی را در یک معیار واحد از سر گرفت؟ هدف این است که ببینیم آیا ساختار همبستگی در هر نمونه یکسان است یا خیر. با تشکر از همه برای کمک! آرنو
تست همبستگی چند نمونه
56113
مثال مضحک زیر را در نظر بگیرید. در اینجا یک سوال تحقیقی واقعی و غیر مسخره وجود دارد، قول می‌دهم -- فقط کمی ناراحتم که چیزی را که دارم روی اینترنت با جزئیات زیاد روی آن کار می‌کنم پست کنم. (و امیدوارم کمی سرگرم کننده تر باشد): نژادی از میمون های فضایی هوشمند به زمین آمده اند، میمون های زمینی معمولی را از باغ وحش ها آزاد کرده و جای آنها را گرفته اند. این میمون‌های فضایی هوشمند در واقع دانشجویان فارغ‌التحصیل دانشگاه میمون‌های فضایی هستند و آزمایشی را از طرف یک استاد میمون فضایی انجام می‌دهند: آن‌ها می‌خواهند تخمین بزنند که چگونه خوشحالی باغ‌وحش‌بازان انسانی با پرتاب فضولات به سمت آنها تغییر می‌کند. (این یک مشکل مهم و حل نشده در روانشناسی فراسیاره ای است، و پروفسور Spacemonkey به دنبال یک میخانه در معتبر _Ann. Improb. Res._ است) آنها همچنین علاقه مند هستند که چه چیزی این تغییرات مشاهده شده را تعدیل می کند، به نفع اعتبار خارجی و امیدوارم پیش بینی خارج از نمونه بهتر باشد. نکته مهم این است که این میمون‌های فضایی می‌توانند چنگال‌هایی را در فضا-زمان ایجاد کنند، که به موجب آن ممکن است هم درمان (فضولات پرتاب‌شده) را برای تماشاگران نمونه خود اعمال کنند و هم از آن استفاده نکنند. علاوه بر این، هر گروه از مونکی‌های فضایی باغ‌وحش، جهان‌های موازی $m \geq 2$ را ایجاد می‌کنند، که یکی از آنها همیشه صفر مدفوع دارد، و بقیه فضولات با شدت‌های مختلف پرتاب می‌شوند. **بنابراین، مجموعه داده شامل آزمایش‌ها می‌شود -- درمان‌ها را در شدت‌های مختلف با کنترل‌های درمان‌نشده مشابه مقایسه می‌کند. با توجه به شدت $t \in T > 0$، و سطح متوسط ​​شادی $H^{\text{بدون مدفوع}}$ از همان جمعیت در جهان کنترل، که در آن $T = 0 $. علاوه بر این، او ویژگی های مخاطب و همچنین آمار خلاصه مخاطبان را مشاهده می کند $\mathbf{X}$. او که قبل از ورود به روانشناسی فراسیاره ای به عنوان یک بوم شناس آموزش دیده است، با نمایش این نوع داده ها در قالب نسبت های پاسخ آشنا است: $RR \equiv log\left(\frac{H^{\text{Excrement}} {H^{\text{بدون مدفوع}}} \right)$. با جمع‌آوری داده‌ها، او بلافاصله یک مدل متارگرسیون را مشخص می‌کند: $$ RR_{iz} = \alpha + \tau_z + f\left[T_{iz}, \mathbf{X}_z \right] +\epsilon_{iz} $$ که در آن $\alpha$ یک رهگیری است، $\tau$ یک اثر تصادفی در سطح باغ وحش است، $i$ یک مقایسه کنترل درمان خاص را نمایه می‌کند، و $z$ باغ وحش ها را فهرست می کند. پروفسور Space Monkey از mgcv استفاده می کند، بنابراین کتابخانه(mgcv) mod = gam(RR~ s(zoo, bs = re) + s(T) + s(x1) + s(x2) + te(T) را کدگذاری می کند. ,x1,x2) ) برخی از داده ها را برای پروفسور Space Monkey شبیه سازی می کنیم: zoo = سقف (runif(1000)*10) T = runif(1000)*10 x1 = rnorm(1000) x2 = rnorm(1000) RR = -.4*T + 0.0005*T^2 + 0.69*sin(x1) + 0.042*exp(x2) + T *x1*x2*.314 + zoo*.5 +rnorm(1000)*5 پس از نصب مدل، پروفسور Space Monkey وقتی متوجه می‌شود که انتظار $RR$ صفر نیست وقتی $T=0$ است! vis.gam(mod,view=c(T,x2), plot.type=contour) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/SckBH.gif ) این هیچ معنایی ندارد! با ساخت، متغیر وابسته باید صفر باشد زمانی که دفع مدفوع وجود ندارد! پروفسور Spacemonkey مضطرب است. او نمی تواند فقط رهگیری را در رگرسیون حذف کند -- این امر باعث سوگیری چیزها می شود و حتی مشکل را حل نمی کند، زیرا x1 و x2 همچنان باعث می شود که $\hat {RR}$ حتی در T=0 نیز غیر صفر باشد. قهرمان ما یک شب در تخت فضایی خود می چرخد ​​و یک ایده دارد! او به سادگی درمان (پرتاب مدفوع) را با کل سمت راست مدل انجام می دهد: $$ RR_{iz} = f(T_{iz}) + f(T_{iz}) \times \tau_z + f\left[T_{iz} \times\mathbf{X}_z \right] +T_{iz} \times \epsilon_{iz} $$ زیرا ثابت = 1. عالیه شهود مدل در حال حاضر کمی متفاوت است: نسبت پاسخ تابعی از شدت مدفوع است، که اثر آن توسط ویژگی‌های فردی تجربه‌کنندگان باغ وحش انجام می‌شود. این ویژگی های سطح باغ وحش به دلیل ماهیت متغیر وابسته به عنوان یک نسبت، اثرات اصلی ندارند. برخی از این ویژگی‌های آزمایش باغ‌وحش قابل مشاهده و مدل‌سازی به‌عنوان جلوه‌های ثابت هستند، در حالی که برخی نیستند، و به‌عنوان جلوه‌های تصادفی وارد می‌شوند. نکته مهم این است که انتظار $RR$ اکنون صفر است زمانی که $T$ صفر باشد. این مدل نیز اکنون هتروسکدااستیک است، بنابراین شاید برای فواصل اطمینان به یک راه‌انداز وحشی نیاز باشد. (؟). اما او چهار نگرانی دارد: * چگونه این را در R کد می کند؟ اثر تصادفی اکنون سطحی از شدت دارد که توسط شدت مدفوع پرتاب شده دیکته می شود. * مدل‌های افزودنی تعمیم‌یافته، عبارت‌های صاف را به مجموع صفر \-- محدود می‌کنند، اما این با محدودیتی که $E[RR]\rightarrow 0$ به عنوان $T\rightarrow 0$ سازگار است، ناسازگار است. چه باید کرد؟ * آیا واقعاً راه‌اندازی وحشی راهی برای به تصویر کشیدن ماهیت ناهمگون مدل است؟ * همانطور که این ایده هوشمندانه به نظر می رسد، پروفسور Space Monkey واقعاً نگران است که ممکن است در جایی مرتکب خطا شود. مجهولات ناشناخته و اینها. پیشنهادات خیلی
روش های اصولی برای محدود کردن $E[Y]=0$ هنگامی که یکی از واپسگراهای شما $\rightarrow$ 0
91768
آیا می توانیم در مورد توزیع مجموع متغیرهای تصادفی not iid چیزی بگوییم؟
آیا قضیه حد مرکزی فقط برای متغیرهای تصادفی iid کار می کند؟
111783
من خواندم که الگوریتم MCMC برای رسم نمونه از یک توزیع استفاده می شود. مثال ذکر شده در کتاب درسی در مورد یک ماتریس 6x6 است که پس از 1000 تکرار به یک ماتریس حالت پایدار 1x6 مطابق شکل زیر همگرا می شود. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7IhwX.png) بسیار خوب، می‌دانم چگونه به بخش حالت حالت می‌رسد، [0.1، 0.2، 0.2، 0.2، 0.2، 0.1] آیا نمونه هایی از این ماتریس تولید می کنم؟ اینجاست که من گیج شدم.
الگوریتم MCMC برای تولید نمونه
66964
در رگرسیون چندگانه، نمودارهای باقیمانده یک رابطه منفی بین مقدار باقیمانده و مقدار پیش‌بینی شده را نشان می‌دهند. به چه معناست؟ چگونه باید به این موضوع رسیدگی کنم؟ در اینجا یک تصویر برای کمک به توضیح وضعیت است. باز هم برای کمک متشکرم! ![همبستگی منفی بین مقدار باقیمانده رگرسیون و مقدار پیش بینی شده](http://i.stack.imgur.com/lswPi.png)
همبستگی منفی بین مقدار باقیمانده رگرسیون و مقدار پیش بینی شده
111788
فرض کنید من 10 گروه مختلف دارم و هر گروه دنباله رشته خود را دارد. پس باید اینگونه باشد: G1 -> CHFAIEBD G2 -> HCFJIGBD G3 -> HCFAIJBD G4 -> HFCIJEBD G5 -> ..... سوال این است: **آیا آزمون آماری وجود دارد که بگوییم ترتیب در آن 10 گروه ها شبیه هستند؟** می دانم که به نظر شبیه است، اما نمی دانم چگونه از نظر آماری آن را ثابت کنم. من واقعاً از نظر شما در این مورد سپاسگزارم.
اندازه گیری ترتیب و تشابه
96612
من سعی می‌کنم توزیع‌های آماری مختلف (گاما، پواسون، نرمال، گاوسی معکوس) را با یک glm به داده‌های خود برازانم. یک مثال می تواند مانند این باشد: data <- rexp(500, 3) model <- glm(data~1, family=Gamma()) shape <- 1 / gamma.dispersion(model) rate <- shape*model$coef [1] model2 <- glm(data~1, family=poisson()) lambda <- unique(model2$fitted.values) بنابراین، در اینجا سؤالات وجود دارد: 1. اگر بخواهم بین همه آنها بهترین توزیع مناسب با glm را انتخاب کنم، آیا می توانم از مدل های AIC استفاده کنم؟ یا باید از روش دیگری مثل MSE استفاده کنم؟ به این دلیل است که من نتایج واقعاً متفاوتی از توزیعی به توزیع دیگر دارم. 2. قبلاً می‌دانم که بسته‌های «fitdistrplus» یا «MASS» شامل توابع خاصی برای انجام این کار هستند، اما برای داده‌های من بسیار کند است. اگر از آن توابع برای تناسب داده ها استفاده کنم، بیشتر اوقات در نتیجه یک توزیع نمایی دریافت می کنم. آیا راهی برای تطبیق آن با خانواده های glm وجود دارد؟ **به‌روزرسانی:** داده‌ها از سفارش‌های فروش می‌آیند، اما همیشه بیشتر از 0 است، به همین دلیل است که می‌توانم از توزیع نمایی یا گاما استفاده کنم. (فقط برای مواردی که تعداد سفارشات آنقدر زیاد است که قسمت منفی زیر منحنی تقریباً 0 باشد، نرمال را درج کنید). همچنین، من نیاز به توزیع برای شبیه سازی از آن، یک سری جدید. با نتایجی که توسط AIC نشان داده شد، نمی توانم آنها را برای به دست آوردن بهترین تناسب رقابت کنند. من یک آزمون رسمی می‌خواهم، اما به آن هم نیاز دارم که خیلی سریع باشد، بنابراین به یک تقریبی یا چیزی اکتشافی بسنده می‌کنم.
توزیع مناسب با glm
50878
من فقط می خواهم تأیید کنم که آیا امکان معکوس کردن علامت (+/-) روی بارهای عاملی یک عامل وجود دارد یا خیر. من یک PAF را با چرخش Oblimin اجرا می کنم. من 6 عامل را به دست آوردم اما در یکی از آنها مواردی که در فاکتور بارگذاری می شوند دارای مقادیر منفی هستند. خوانده‌ام که این از نظر تفسیر درون یک عامل مرتبط نیست، بنابراین می‌توان همه نشانه‌های عامل را برای تسهیل تفسیر، به عنوان مثال، در ماتریس همبستگی تغییر داد. من از SPSS استفاده می کنم. شاید یک تصویر به من کمک کند تا بهتر توضیح دهم. سوال من در رابطه با فاکتور 4 است![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/n4IOp.png)
عامل معکوس بارگذاری منفی به مثبت؟
66963
من سعی می‌کنم با استفاده از کتابخانه nlme در R، یک مدل ترکیبی را با داده‌هایم تطبیق دهم. این چیزی است که دارم: df <- data.frame(phen = phen.info.box[,2]، hap = as.factor(موس. haps)، strain = as.factor(mouse.strains)) fit <- nlme(model = phen ~ hap + (1|strain)، داده = df، ثابت = hap ~ 1، تصادفی = فشار ~ 1، start = rep(1، 832)، همبستگی = K) و خطایی که دریافت می کنم این است: خطا در getGroups.data.frame(dataMix, eval(parse(text = paste(~1 , deparse(groups[[2]]), : فرمول نامعتبر برای گروه‌ها من می‌خواهم کارهای پیچیده‌تری انجام دهم، اما مشکل دارم من فقط در حال اجرا شدن این مدل هستم اسنادی که به سادگی قرار دادن fixed = var ~ 1 یک اثر ثابت واحد را نشان می دهد، چیزی که من می خواهم. من باید به جای lme4 از nlme استفاده کنم زیرا تا آنجا که من متوجه شدم lme4 به من اجازه نمی دهد ماتریس واریانس کوواریانس را روی اثرات تصادفی مشخص کنم و این برای من مهم است (خط همبستگی = K را ببینید.) خوب، من من برای این رای منفی دارم و مطمئن نیستم چرا. من فرض می‌کنم افرادی هستند که فکر می‌کنند «این سؤال حتی برای پرسیدن آن آسان‌تر است -- سؤال‌کننده باید اصلاً سعی نکرده آن را حل کند!». من اسناد و نمونه‌ها را به صورت آنلاین جستجو کرده‌ام و نمی‌توانم، تا آخر عمر تفاوت بین نحوه انجام آن و این مثالی را که آنلاین پیدا کردم، ببینم: nlme.fit <- nlme(lgcopy ~ logexp2(p1,b1, p2،b2، روز)، ثابت = p1+b1+p2+b2 ~1، تصادفی = p1+b1+p2+b2 ~1، داده =aids.dat,start=c(start)) که ظاهرا کار می کند.
سوال مبتدی nlme
113779
(من یک سوال مشابه را در math.se پست کردم.) در هندسه اطلاعات، تعیین کننده ماتریس اطلاعات فیشر یک فرم حجم طبیعی در یک منیفولد آماری است، بنابراین تفسیر هندسی خوبی دارد. برای مثال، این واقعیت که در تعریف یک جفریز قبلی ظاهر می‌شود، به تغییر ناپذیری آن در پارامترهای مجدد مرتبط است، که (imho) یک ویژگی هندسی است. اما آن عامل تعیین کننده در _آمار_ چیست؟ آیا چیزی معنادار را می سنجد؟ (به عنوان مثال، من می گویم که اگر صفر باشد، پس پارامترها مستقل نیستند. آیا این جلوتر می رود؟) همچنین، آیا حداقل در برخی موارد آسان هیچ فرم بسته ای برای محاسبه آن وجود دارد؟ با تشکر
تعیین کننده اطلاعات فیشر
114201
من سعی می کنم یک رگرسیون چندک (شرطی) اجرا کنم، نتیجه من $(Y)$ درآمد است، و رگرسیون $(X)$ همگی گسسته هستند. سوال من این است که چه تفاوت‌هایی وجود دارد، اگر وقتی روی یک زیرمجموعه جزئی $(X=x)$ تمرکز می‌کنم، بین * $\beta_{\tau}$ که با استفاده از کل توزیع به دست می‌آورم * چیزی که برای محدود کردن خود به دست می‌آورم چه تفاوت‌هایی وجود دارد. نمونه به افرادی که به گونه ای هستند که $X=x$ هستند. Thx
تفسیر رگرسیون چندکی با متغیرهای گسسته، کل نمونه در مقابل نمونه فرعی
110236
من یک داده نظرسنجی دارم که دارای یک متغیر وابسته (تجربه کلی) و چندین متغیر مستقل (کیفیت غذا، خلاقیت منو و غیره) است. کارت امتیازی پاسخ برای متغیرهای وابسته و مستقل به شرح زیر است: عالی 5 خیلی خوب 4 خوب 3 خوب 2 ضعیف 1 با توجه به درک من و آنچه خوانده ام، نمی توانم یک رگرسیون خطی ساده را اجرا کنم و بنابراین رگرسیون لجستیک را انتخاب کرده ام. . آیا کسی می تواند مرا در جهت درست در رابطه با رگرسیون لجستیک با استفاده از R راهنمایی کند.
اجرای رگرسیون لجستیک بر روی داده های نظرسنجی
114204
من از LIBSVM برای انجام برخی آموزش ها استفاده می کنم همانطور که توسط Andrew Ng توصیه شده است و در SciKit Learn از آن در زیر هود استفاده می شود. LIBSVM کاری متفاوت از آنچه من انتظار دارم انجام می دهد: باورهای من به شرح زیر است: * وقتی LIBSVM برای استفاده از یک هسته خطی تنظیم می شود، یک پیاده سازی معقول از یک SVM خطی است * یک مدل SVM خطی باید فقط یک سطح فوق العاده و یک حاشیه باشد. * یک فوق صفحه بعدی n-1 را می توان با یک بردار n بعدی و ثابت نشان داد. * پیش بینی انجام شده در برابر یک هایپر صفحه منفرد باید با توجه به تعداد نمونه های آموزشی مورد استفاده برای آموزش مدل ثابت باشد. * SVMهای هسته خطی تقریباً معادل رگرسیون لجستیک هستند. هر چند درک من به چالش کشیده شده است. مدل‌های LIBSVM که با یک هسته خطی آموزش داده شده‌اند، بسته به نحوه آموزش مدل، زمان‌های پیش‌بینی متفاوتی را نشان می‌دهند. وقتی به فایل مدل نگاه می کنم، به جای یک بردار، تعداد زیادی وکتور در فایل وجود دارد. آیا کسی می تواند آنچه را که من از دست داده ام روشن کند؟
زمان پیش‌بینی خطی SVM به روشی غیرمنتظره بر اساس داده‌های آموزشی مقیاس‌بندی می‌شود.
57242
چگونه می توانم این تعامل 4x4 را گزارش کنم (این بخشی از ANOVA 4x4x2 است)؟ این یک تعامل بین گروه بندی عوامل (اکتشافی گشتالت برای گروه بندی بصری شکل های ترکیبی) و اندازه مجموعه (تعداد تصاویر ارائه شده) در یک کار جستجوی بصری است. یکی از فرضیه ها این است که «بین شرط گروه بندی و اندازه مجموعه تعامل وجود دارد». آیا من SD یا SE را گزارش کنم؟ آیا چیزی شبیه به این است: اثر متقابل قابل توجهی بین گروه بندی و اندازه تنظیم وجود دارد، F(3.23، 42.04) = 3.107، p = 0.033، ηp2 = 0.193. مقایسه پس از انجام آزمایش نشان داد که زمان واکنش به طور قابل توجهی با افزایش اندازه مجموعه در هر یک از شرایط گروه بندی افزایش می یابد، همانطور که در شکل 1 مشاهده می شود. ایجاد جدولی از میانگین های 4x4 نیز کمی اضافی به نظر می رسد، زیرا من قبلاً داشتم یکی برای توضیحات 4x4x2. همچنین برای قرار دادن آن به عنوان متن، تعداد زیادی از کلمات من را به خود اختصاص می دهد، نه اینکه خواندن آن چقدر وحشتناک است. من همچنین اثرات و تعاملات اصلی دیگری برای گزارش دارم، بنابراین ایجاد یک بخش نتایج پر از جداول و نمودارها ایده بدی به نظر می رسد. وسایل و SD ها را کجا ذکر کنم؟ آیا باید SD یا SE را گزارش کنم؟ آیا می توانم فقط وارد کنم (برای اطلاعات بیشتر به پیوست A مراجعه کنید)؟ ![4x4 تعامل](http://s10.postimg.org/c1xi3bznt/4x4.png) شکل 1. این برای گزارشی است که من به عنوان یک دانش آموز دارم می نویسم و ​​احساس راحتی نمی کنم که یک دسته از الکترونیک را ارسال کنم. -ایمیل هایی که از استادم در مورد همه چیز می پرسند. هر گونه کمکی بسیار قدردانی خواهد شد.
چگونه می توانم یک تعامل 4x4 ANOVA را گزارش کنم
79990
من باید یک تکلیف را حل کنم که در آن از من خواسته می شود این کد را تغییر دهم تا MLE ها را برای توزیع عادی اریب پیدا کنم. (این در واقع مسئله 7 از فصل 5 کتاب آمار و تجزیه و تحلیل داده ها برای مهندسی مالی نوشته راپرت است.) loglik_std = function(x) { f = -sum(log(dstd(Y, x[1], x [2]، x[3])) f} start=c(mean(Y)، sd(Y)،4) fit_std = optim(start,loglik_std,method=L-BFGS-B, lower=c(-.1,.001,2.1), upper=c(.1,1,20)) print(c(MLE = ,round(fit_std$par,digits=5))) m_logL_std = fit_std$value # منهای log-likelihood AIC_std = 2*m_logL_std+2*length(fit_std$par) من در کل ضرر دارم، کسی اینجا میتونه کمک کنه؟ پیشاپیش از شما متشکرم
MLE را برای توزیع نرمال اریب محاسبه کنید
96611
بگویید من x نمونه با اندازه های مختلف را از یک جمعیت بسیار بزرگ می گیرم (بگذارید اینها را S1، S2، S3، ... و غیره با اندازه n1، n2، n3 و غیره بنامیم). می‌خواهم بدانم برای نمونه S1، بزرگترین زیر مجموعه ممکن از S1 که در تعداد معینی از نمونه‌های دیگر نیز ظاهر می‌شود، چیست. برای مثال اگر من فقط دو نمونه S1 و S2 داشته باشم، حداکثر تعداد اعضای S1 که می تواند در S2 نیز باشد، حداقل اندازه S1 و S2 است. اگر من سه نمونه S1، S2 و S3 داشته باشم، حداکثر تعداد اعضای S1 که حداقل در یکی از S2 و S3 هستند حداقل n1 و n2+n3 است، در حالی که حداکثر تعداد اعضای S1 که هستند. در هر دو S2 و S3 حداقل n1،n2،n3 است. اگر من چهار نمونه داشته باشم، حداکثر تعداد اعضای S1 که حداقل در یکی از نمونه‌های دیگر هستند min(n1, n2+n3+n4) و حداکثر تعداد اعضای S1 که در همه نمونه‌ها هستند، است. min(n1,n2,n3,n4)، اما حداکثر تعداد اعضای S1 که حداقل در 2 نمونه از سه نمونه دیگر ظاهر می شود چقدر است؟ چگونه این مقیاس n نمونه از پنج، شش یا بیشتر نمونه را افزایش می دهد؟ زمینه: من در حال انجام کنترل کیفیت بر روی یک مجموعه داده ژنومی هستم (داده های iCLIP برای کسانی که علاقه مند هستند). برای هر آزمایش تعداد معینی تکرار دارم و می‌خواهم بدانم تکرار چقدر «تکرارپذیر» است. معیار استاندارد این است که بپرسیم چه تعداد از مکان های ژنومی شناسایی شده در یک تکرار مشخص در بخش خاصی از تکرارهای باقی مانده شناسایی شده اند. با این حال، این به نظر من رضایت‌بخش نیست، زیرا تکرارهایی که مکان‌های بیشتری دارند، همیشه پایه‌های تکراری خواهند داشت، فقط به این دلیل که مکان‌های آنها به اندازه کافی در تکرارهای دیگر بازگردانده نشده است، بنابراین می‌خواهم بپرسم حداکثر تعداد مکان‌هایی که احتمالاً می‌توانند برگردانده شوند چقدر است.
حداکثر تقاطع ممکن زیر مجموعه ها
17720
فرض کنید من مقداری داده دارم، یعنی مجموعه ای از اعداد واقعی. آیا روش های کلی خوبی برای تعیین اینکه آیا این داده ها با توزیع احتمال معین مطابقت دارند یا خیر وجود دارد، به عنوان مثال. توزیع نرمال، توزیع log-normal یا هر توزیع دیگری؟ اگر چنین است، برخی از بهترین روش‌های موجود کدامند؟
تعیین میزان تناسب داده های واقعی با توزیع احتمال معین
85504
وقتی اخبار در مورد چیزهایی از نظر آماری ثابت شده هستند، آیا آنها از یک مفهوم کاملاً تعریف شده از آمار به درستی استفاده می کنند، از آن اشتباه استفاده می کنند یا فقط از یک oxymoron استفاده می کنند؟ من تصور می‌کنم که اثبات آماری در واقع چیزی نیست که برای اثبات یک فرضیه انجام شود، و نه یک اثبات ریاضی، بلکه بیشتر یک آزمون آماری است.
مفهوم آماری اثبات شده
110235
آیا فهرست جامعی از توزیع ها وجود دارد، به عنوان مثال. گاما، پواسون، گاوسی، و چه زمانی باید از هر کدام در جایی استفاده کنید؟ جستجوی من در اینترنت بی نتیجه بوده است.
لیست جامع توزیع ها؟
48841
من دو شبکه عصبی را برای اهداف پیش بینی ایجاد کرده ام، اولی یک شبکه با یک لایه پنهان و دومی دو لایه پنهان است، من از تکنیک های اعتبارسنجی متقاطع استفاده می کنم، خطای آموزش برای هر دو شبکه حدود 2E-4 است اما در مرحله آزمایش، برای دو توپولوژی، مقادیر پیش‌بینی در طول زمان تغییر نمی‌کنند (فقط یک تغییر کوچک در کسری از 5). من توابع مختلفی را برای لایه های پنهان (بین tangh و sigmoid) و یک sigmoid برای لایه خروجی امتحان کرده ام. خب مشکل کجاست؟ با تشکر
چرا پیش بینی شبکه عصبی تغییر نمی کند؟
50873
من داده‌های طیفی دارم که به من می‌گوید برای یک طول موج خاص نور چقدر پاسخ در مقادیر RGB برای برخی از فضای رنگی قوی است. به طور معمول، اگر من نور سفید ساده را بخواهم، باید همه مقادیر را در مقادیر مساوی جمع کنم و باید به رنگ سفید RGB #FFFFFF منجر شود. با این حال، داده های من اینطور عادی نشده است. من مقدار زیادی از رنگ سفید خالص فراتر رفتم. و بدتر از آن، این بیش از حد برای سه کانال من به یک اندازه اتفاق نمی افتد، و به چیزی ختم می شود که ظاهرا سفید خالص نیست. اکنون تعجب می کنم: آیا درست است که فقط با یک فاکتور در هر کانال رنگ عادی شود تا به سادگی کار کند؟ یا باید همبستگی بین کانال های رنگ و مجموعه داده های طیفی را با دقت بیشتری در نظر بگیرم؟ اگر چنین است، دقیقاً چگونه در مورد آن اقدام کنم؟ اگر مجموعه داده واقعی من کمک کند، این همان چیزی است که WolframAlpha زمانی که طول موج ها را در طیف مرئی قرار می دهید، منتشر می کند. برای مثال، 500 نانومتر در RGB نتیجه می‌شود: {0.، 0.671، 0.492} \- دقت آن تا 1 نانومتر است و از 380 نانومتر به 750 نانومتر می‌رسد. * * * اکنون، مطمئن نیستم که آیا اینجا جای مناسبی برای پرسیدن این سوال است یا خیر. من می‌توانم به چندین سایت SE فکر کنم که ممکن است این موضوع را در ابعاد مختلف لمس کنند. با این حال، من معتقدم که این احتمالاً می‌تواند برای مشکلات عمومی‌تری که در آمار به وجود می‌آیند اعمال شود و تناسب به آن نزدیک‌تر است، بنابراین من اینجا می‌پرسم. اگر فکر می‌کنید، این موضوع ربطی به آن ندارد، لطفاً برای من توضیح دهید که چگونه سؤال را مرتبط‌تر کنم یا کجا باید آن را بپرسم. به طور مشابه، مطمئن نیستم که از بهترین برچسب ها استفاده می کنم یا خیر.
تبدیل داده های طیفی به RGB و نرمال سازی مناسب
96613
مثال: اگر از نظر آماری تفاوت معنی داری بین قد مردان و زنان پیدا کنم، آیا این چیزی در مورد توانایی پیش بینی زن یا مرد بودن یک فرد بر اساس قد نشان می دهد؟ به نظر من در هر موردی که تفاوت آماری معنی داری وجود دارد، باید بتوانیم بر اساس دانستن متغیر وابسته، یک پیش بینی (طبقه بندی و ارزیابی آن با استفاده از اعتبارسنجی متقاطع) از متغیر مستقل انجام دهیم. پس از مدت ها فکر کردن به آن، نتوانستم به مثال متقابلی فکر کنم. مثال دیگر: یک همبستگی خطی بین $A$ و $B$ وجود دارد. با توجه به $B$، من می توانم $A$ را با اطمینان بالا پیش بینی کنم.
آیا تفاوت معنی دار آماری لزوماً به این معناست که پیش بینی (از طریق اعتبارسنجی متقابل) امکان پذیر است؟
107782
من اغلب در مورد مبادله بایاس واریانس برای ارزیابی طبقه بندی کننده ها می شنوم. حالا می خواهم آنها را محاسبه کنم. من اغلب AUC یک طبقه‌بندی‌کننده باینری را محاسبه می‌کنم تا عملکرد آن را ارزیابی کنم و یک اعتبارسنجی متقاطع 10 برابری انجام دهم. مشاور من به من گفت که واریانس AUCهای اعتبارسنجی متقاطع 10 برابری را محاسبه کنم. او گفت که این واریانس، واریانس واقعی مدل نیست، اما می‌تواند به شما ایده دهد که مدل چقدر قوی است و واریانس واقعی آن. سؤالات من: * آیا این رویکرد برای ارائه یک تخمین تقریبی برای واریانس مدل درست است؟ * آیا می توان واریانس واقعی مدل را محاسبه کرد؟ اگر چنین است، چگونه؟
محاسبه واریانس یک مدل؟
96617
من یک برنامه کوچک در مورد پیش بینی کریکت با استفاده از یادگیری ماشین ساختم. من رکوردهای 10 ساله (2001-2011) مسابقات ODI را گرفتم و یک مجموعه تمرینی آماده کردم. حالا برای پیش بینی برد یا باخت یک تیم خاص، عوامل مختلفی را در نظر گرفتم. به عنوان مثال، مسابقه هند و استرالیا در استادیوم وانخده هند است. رکورد هند در 10 سال گذشته رکورد هند در 2 سال گذشته (شکل اخیر) رکورد هند در هند در 10 سال گذشته. رکورد هند در هند در 2 سال گذشته. (شکل اخیر) رکورد هند در Wankhede، 10 سال گذشته. رکورد هند در Wankhede، 2 سال گذشته. (فرم اخیر) رکورد استرالیا در 10 سال گذشته. رکورد استرالیا در دو سال گذشته رکورد استرالیا مقابل هند در 10 سال گذشته. رکورد استرالیا مقابل هند در 2 سال گذشته. رکورد استرالیا در برابر هند در 10 سال گذشته در هند. رکورد استرالیا مقابل هند در 2 سال گذشته در هند. بنابراین ما احتمالات همه را در نظر گرفتیم، به عنوان مثال، هند 322 مسابقه در 10 سال انجام داد و 140 بازی را برد، بنابراین احتمال برد 140/322 است و به همین ترتیب برای همه عوامل دیگر. حالا همه احتمالات را در پایان اضافه کردیم و درصد باخت برای هر دو کشور به دست آوردیم. میخواستم بدونم این چه نوع قضیه ایه؟ این کار با Naïve Bayes شروع شد، اما در Naïve Bayes، برخلاف اینجا، احتمالات را ضرب می کنیم. می توانید پیاده سازی را در اینجا بررسی کنید، http://www.manzarict.org/cricket ما از PHP اولیه استفاده کردیم تا بتوانیم با استفاده از پرس و جوهای SQL احتمالات را سریعتر پیدا کنیم. اکنون این ممکن است یک رویکرد اشتباه برای پرداختن به این مبلغ باشد، روش‌های جایگزین استقبال می‌شود.
سردرگمی الگوریتم یادگیری ماشین
57244
اخیراً با کلمه یادگیری تقویتی مکرر برخورد کردم. من می‌دانم «شبکه عصبی مکرر» چیست و «یادگیری تقویتی» چیست، اما نمی‌توانم اطلاعات زیادی درباره «یادگیری تقویتی مکرر» پیدا کنم. آیا کسی می تواند به من توضیح دهد که یادگیری تقویتی مکرر چیست و چه تفاوتی بین یادگیری تقویتی مکرر و یادگیری تقویتی معمولی مانند الگوریتم Q-Learning وجود دارد.
یادگیری تقویتی مکرر چیست؟
65680
من داده‌های دایره‌ای دارم -- مشاهداتی که هر کدام بین -180 درجه و +180 درجه قرار می‌گیرند - به یک هیستوگرام 15 bin تقسیم شده است. می‌خواهم ببینم یک پی‌دی‌اف پیوسته - به‌ویژه مخلوطی از توزیع فون میزس و توزیع یکنواخت، با پارامترهای خاص - چقدر با هیستوگرام مشاهده‌شده مطابقت دارد. و برای تعیین این تناسب، می خواهم از آماره r-squared استفاده کنم. من می خواهم این سوال را کنار بگذارم که آیا باید از r-squared استفاده کنم یا چیز دیگری. انتخاب من از r-squared بر اساس Zhang & Luck, _Nature_, 2008 و Zhang & Luck, _Psychological Science_, 2009 است. (این مقالات دقیقاً همان کاری را انجام دادند که من توضیح می‌دهم که می‌خواهم انجام دهم - مجذور r بین یک هیستوگرام 15 بنایی از داده‌های دایره‌ای و مدل مخلوط را محاسبه کنید.) اما اگر می‌خواهید روش بهتری را پیشنهاد کنید، و می‌توانید آن را به وضوح توصیف کنید، خوشحال می شوم آن را امتحان کنم. سوال من این است که چگونه باید r-squared را محاسبه کنم؟ آیا باید تابع پیوسته را وارد کنم و سپس ارتفاع bin PDF را با ارتفاع بن مشاهده شده مقایسه کنم؟ آیا باید میانگین پی‌دی‌اف را در محدوده‌ای که در هر بن از داده‌های مشاهده‌شده در بر می‌گیرد، بگیرم؟ آیا باید مراکز bin را با نقاط مربوطه در تابع پیوسته مقایسه کنم؟ با تشکر فراوان دن
روش مناسب برای محاسبه r-squared بین توزیع دوگانه مقادیر مشاهده شده و تابع چگالی احتمال پیوسته چیست؟
65687
40 فایل صوتی (موسیقی کلاسیک) وجود دارد و انتخاب پاسخ از بین 9 احساس وجود دارد. از بین این 40 فایل صوتی من 8 متغیر را محاسبه می کنم و این متغیرها به 9 احساس متصل می شوند. من 3 گروه فرهنگی مختلف شرکت کننده دارم. من خلاصه‌های موردی را اجرا می‌کنم، اما به سختی توافقی بین احساسات انتخاب‌شده، در میان گروه‌ها وجود دارد. من باید بدانم که چه نوع آزمون‌هایی (یا مدلی) باید اجرا کنم تا بفهمم آیا این فایل‌های صوتی پاسخ‌هایی را برمی‌انگیزد یا نه که شباهت بین فرهنگی دارند یا خیر. فایل های صوتی قرار است احساسات خاصی (ثابت) را برانگیزند. من از SPSS استفاده می کنم. > گروه فرهنگی x نسبت به گروه y احتمال بیشتری دارد که متغیر a خاص (برگرفته از فایل های صوتی) را با احساس e مرتبط کند. (رابرت)
چگونه می توان شباهت بین فرهنگی را در گروه هایی با پاسخ های بسیار متفاوت تجزیه و تحلیل کرد؟
16222
_**زمینه:_** در مهندسی معدن از نمونه برداری برای بدست آوردن میزان غلظت کانی ها در سنگ ها استفاده می شود. روش نمونه برداری به صورت میدانی در منطقه مورد کاوش در مختصات از پیش تعریف شده (x,y) طبق نقشه های طراحی شده انجام می شود. بنابراین نمونه‌های زیادی از مواد سطحی وجود دارد، مانند سنگ‌ها/خاک‌ها/آب‌ها و غیره. توجه داشته باشید که آنها تصادفی نیستند! آیا می‌توانیم هر مشخصه استخراج‌شده از هر نمونه (مانند غلظت، رطوبت، اندازه، بافت و غیره) را به عنوان علامت اختصاص دهیم؟ آیا این رویکرد یک **روند نقطه مشخص** خواهد بود؟
چگونه فرآیندهای نقطه مشخص شده را تعریف کنیم؟
50871
من می خواهم از جعبه ابزار مدل گرافیکی احتمالی برای تحقیق خود استفاده کنم. (ترجیحا مبتنی بر متلب). به نظر می‌رسد تعداد زیادی ابزار مختلف به صورت آنلاین موجود است (UGM، جعبه ابزار شبکه بیز برای Matlab، PMTK: جعبه ابزار مدل‌سازی احتمالی برای Matlab/Octave، جعبه ابزار مدل گرافیکی احتمالی Mens X Machina (PGM Toolbox)). آیا می‌توانید 1) محبوب‌ترین و پرکاربردترین جعبه ابزار برای PGM و 2) ساده‌ترین جعبه ابزار با نمایش‌های نمایشی را که می‌توانم به صورت عملی در معرض آن قرار بگیرم را توصیه کنید؟ با تشکر
بهترین جعبه ابزار مدل گرافیکی احتمالی برای متلب چیست؟
12453
@RyanB از پاسخ سریع و کمک شما متشکرم! من آزمایشی انجام دادم که نشان می داد مردان توسط زنان قرمزپوش جذب می شوند. من 30 مرد و 25 زن را استخدام کردم که دقیقاً همین رویه را دنبال کردند: آنها باید به 4 دیالوگ بین زن و مرد گوش می دادند که یکی از آنها 30-40 ثانیه طول می کشد. اولین دیالوگ را می شنوند و بعد از آنها می پرسم که آیا معتقدند مرد جذب زن شده است، پاسخ آنها بله/خیر است. سپس عکس‌هایی را به آن‌ها نشان می‌دهم، یک زن با پیراهن سبز و یک زن با پیراهن قرمز و از آن‌ها می‌خواهم عکسی را انتخاب کنند که فکر می‌کنند زن دیالوگی را که تازه شنیده‌اند به تصویر می‌کشد. سپس دیالوگ دوم را گوش می دهند و دقیقاً همین کار را می کنند تا تمام شود. (دیالوگ اول - جذب / جذب نشده - قرمز / سبز). دلیل اینکه من همین آزمایش را با زنان انجام می دهم (آنها باید به جای مردان جذابیت زنان دیگر را ارزیابی کنند) نشان دادن تفاوت بین ترجیحات رنگی بین زن و مرد و تکرار بخشی از آزمایش قبلی است که دقیقاً نشان داد همان من از سه دختر مختلف استفاده کردم و داده هایم (دیالوگ ها، رنگ ها، دختران) را در اکسل تصادفی کردم. بنابراین، اگر A قرمز و B سبز باشد، من A1، A2 و A3 و B1، B2 و B3 دارم. و ترکیبات من ممکن است A1-B2، B3-A2، A3-B2، B1-A2 و غیره باشند.
برای تجزیه و تحلیل آزمایش اندازه گیری مکرر درون شرکت کنندگان از چه آزمونی استفاده کنم؟
65682
بنابراین، من داده‌های پانل را دارم که شبیه این هستند: ![داده‌های پانل با مقادیر گمشده](http://i.stack.imgur.com/vAGN6.png) داده‌هایی که گم شده‌اند، به این دلیل است که ما نتوانستیم آن را پیدا کنیم. داده های کامل در گزارش های سالانه بانک های فهرست شده در مجموعه داده ها. هیچ الگوی واقعی برای مقادیر از دست رفته وجود ندارد، به غیر از برخی دوره‌ها مانند آنچه در تصویر نشان داده شده است، مقادیر گمشده عمدتا تصادفی هستند. به عنوان مثال، یک مقدار از دست رفته در سال 2000، مقدار دیگر در سال 2002، و غیره. این بانک ها در مجموع پنج بانک هستند و ما داده های فصلی را برای دوره 1998 Q1 تا 2013 Q1 لحاظ می کنیم. ما یک سری کامل برای یکی از متغیرها، بتا داریم. چهار مورد دیگر همه مقادیری را از دست داده اند. متغیر | Obs -------------+-------------- بتا | اهرم 305 | 290 roa | 283 r_rwa | 277 rwa_assets | 277 من جستجو کرده ام، اما نتوانسته ام به سؤالات زیر پاسخی دریافت کنم: 1) آیا مهم است که مجموعه داده من در برخی از متغیرها مقادیر گم شده باشد؟ 2) روش مناسب برای پر کردن مقادیر از دست رفته چیست؟ اگر ممکن است، می توانید آن را با استفاده از Stata توضیح دهید؟
چگونه مقادیر از دست رفته در داده های پانل را به درستی پر کنیم؟
80571
رگرسیون خطی را به عنوان مثال در نظر بگیرید، با توجه به یک مجموعه داده خاص $D_1=\\{(x_1,y_1),...(x_n,y_n)\\}$، می‌توانیم مدلی را با یک تخمین پارامتر خاص آموزش دهیم. \theta_1$، اگر آموزش را روی یک مجموعه داده جدید $D_2$ انجام دهیم، تخمین جدیدی خواهیم داشت $\hat\theta_2$ و غیره. برای داده های ورودی $x$، می توانم مقدار هدف $\hat y$ را پیش بینی کنم. مشکلات من این است: 1. من فکر می‌کنم که اصطلاح **بایاس** و **واریانس** فقط زمانی استفاده می‌شود که در مورد تخمین پارامتر $\hat\theta$ مدل صحبت می‌شود، نه برای توصیف متغیر تصادفی داده‌های پیش‌بینی‌شده استفاده می‌شود. ، که $\hat y$ هستند، درست است؟ بنابراین $bias(\hat\theta),var(\hat\theta)$ داریم، اما $bias(\hat y)$ یا $var(\hat y)$ نداریم. اگر اشتباه می کنم، پس سوگیری و واریانس در اینجا چیست؟ 2. برای قضاوت در مورد کیفیت یک مدل خاص با تخمین پارامتر $\hat\theta_1$، میانگین مربعات خطا را روی تمام نقاط داده آموزشی $D_1$، $$MSE_1=\frac{1}{n} بررسی می‌کنم. \sum_i(y_i-\hat y_i)^2$$، اما برای مجموعه داده های آموزشی مختلف $D_i$، $\hat\theta_i$ متفاوت داریم، سپس متفاوت $MSE_i$، پس چگونه تعیین کنم که $\hat\theta$ باید چقدر باشد؟ یکی با کوچکترین $MSE$؟ 3. همانطور که من مبادله بایاس واریانس را خواندم، گفته می شود که _انتظار $MSE$ مورد توجه ویژه است_، چرا باید به $E[MSE]$ توجه ویژه ای داشته باشیم؟ منظورم این است که می‌توانم برای هر نقطه داده به $E[\hat y_i]$ نیز توجه کنم. علاوه بر این، $MSE$ بر روی مقدار هدف مشاهده شده $y_i$ و پیش‌بینی آن $\hat y_i$ محاسبه می‌شود، بنابراین من فکر کردم که باید با $bias(\hat y_i)$ و $var(\hat y_i)$ باشد. اما نه تعصب یا واریانس $\hat\theta$؟ وقتی می‌خواستم بفهمم منظور از عبارات _ تعصب_ و _ واریانس_ چیست، کاملا گم شدم. امیدوارم کسی از شما بتواند به من کمک کند.
کیفیت یک مدل و مبادله سوگیری-واریانس
78365
سلام من در حال تلاش برای یافتن معادل ناپارامتری یک ANOVA دو طرفه (طراحی 3x4) هستم که قادر به شامل تعاملات باشد. از خواندن من در زار 1984 تجزیه و تحلیل آماری زیستی این امکان با استفاده از روشی که در Scheirer, Ray, and Hare (1976) ارائه شده است، امکان پذیر است، اما با توجه به سایر پست های آنلاین استنباط شد که این روش دیگر مناسب نیست (اگر همیشه باشد). بود). آیا کسی می داند چه روشی برای انجام این کار مناسب است و اگر چنین است توابع مربوطه در R یا Stata مناسب است؟
معادل ناپارامتری یک ANOVA دو طرفه که می تواند شامل تعاملات باشد چیست؟
51892
اگر یک پرسشنامه سرشماری را برای کل گروه مورد علاقه (جمعیت) اجرا کردید و نرخ پاسخ 68٪ را دریافت کردید. آیا محاسبه فواصل اطمینان برای میانه های زیر مجموعه داده ها اشتباه است؟ زیرمجموعه‌های داده حاوی مقادیر پرت و میانه محاسبه شدند. Tx!
پرسشنامه سرشماری
105977
در تحلیل چندسطحی زیر در R (برگرفته از اینجا، صفحه 57): > Model.1<-lme(WBEING~HRS+G.HRS,random=~1|GRP,data=bh1996, control=list(opt= Optim)) > summary (Model.1) مدل خطی با جلوه های ترکیبی متناسب با داده های REML: bh1996 AIC BIC logLik 19222.28 19256.81 -9606.14 جلوه های تصادفی: فرمول: ~1 | GRP (Intercept) Residual StdDev: 0.1163900 0.8832353 اثرات ثابت: WBEING ~ HRS + G.HRS Value Std.Error DF t-value p-value (Intercept) 4.740829 0.21368852020.201 <8RS -0.046461 0.00488798 7282 -9.505056 <.0001 G.HRS -0.126926 0.01940357 97 -6.541368 <.0001 <.0001 همبستگی: (Intr) HRS -00 HRS.2H5 آیا می توان جدول اخیر (همبستگی) را تفسیر کرد؟ این همبستگی ها به چه معناست؟
تفسیر همبستگی ها در تحلیل چندسطحی
78849
من یک مشکل طبقه بندی (دودویی) دارم که در آن پس از ادغام نقاط داده آموزشی واحد (که می توان آنها را به همان منبع ردیابی کرد) در مجموع، دقت تست (دوباره در نقاط داده واحد) به طور قابل توجهی افزایش می یابد. منظور من از ادغام افزودن و میانگین گیری بردارهای ویژگی است. از یک طبقه‌بندی کننده/هسته خطی SVM استفاده می‌شود. (داده های آموزشی دارای نویز هستند زیرا به صورت نیمه خودکار تولید می شوند). بنابراین وضعیت عجیبی وجود دارد که «ناهمسان‌تر کردن» داده‌های آموزشی و آزمایشی (مجموعه‌ها در مقابل نقاط داده واحد) عملکرد را افزایش می‌دهد. (علاوه بر این، برای رگرسیون خطی ساده، حدس می‌زنم که جمع کردن بردارهای ویژگی نباید تفاوتی ایجاد کند). من سعی می کنم بفهمم دلیل آن چه می تواند باشد. یک فرضیه این است که برای طبقه‌بندی‌کننده‌های حاشیه بزرگ مانند قابلیت تفکیک SVM بسیار مهم است و با تجمیع، همپوشانی کمتری بین کلاس‌های ناشی از نویز وجود دارد. خوب است که معیاری داشته باشیم که میزان همپوشانی یا تفکیک پذیری را نشان دهد. معیارهای استاندارد در اینجا چیست؟ من قصد دارم چند طرح از دو بعد PCA اول را انجام دهم و ببینم اوضاع چگونه به نظر می رسد، اما برخی از اعداد معتبر علاوه بر این خوب خواهد بود.
اندازه گیری برای تفکیک پذیری
65683
در حین کار روی یک تکلیف خاص، که هدف آن پیش‌بینی کلاس نتیجه بود، چندین مدل (شبکه‌های عصبی، رگرسیون لجستیک و مدل پیش‌بینی سفارشی خود) را با چندین ترکیب از 3 متغیر ورودی موجود امتحان کردم. چیزی که برای من جالب بود این است که مدل‌های دارای دو متغیر عملکرد بهتری نسبت به مدل‌های با 3 متغیر ورودی داشتند و خوشحال می‌شوم که توضیحی نظری برای چنین نتیجه‌ای پیدا کنم. آیا کسی می داند که آیا رویکردهای سیستماتیک برای انتخاب مجموعه بهینه متغیرهای ورودی وجود دارد؟ اگر متغیرهای ورودی بین خود همبستگی داشته باشند، آیا این دقت مدل پیش‌بینی را کاهش می‌دهد؟ متشکرم.
چگونه ترکیب بهینه متغیرهای ورودی را برای مدل یادگیری نظارت شده انتخاب کنیم؟
16229
من هیچ ایده ای برای محاسبه این ندارم، اما نقاط داده را در دسترس دارم. من یک سیستم کامپیوتری دارم که تنظیمی برای چیزی دارد -- جمع آوری زباله (gc) -- که با احتمال p در هر زمان مشخصی که یک فرآیند اجرا می شود اتفاق بیفتد (من آن فرآیند را فرآیند می نامم). من فرکانس اجرای خود فرآیند را دارم. می‌خواهم بدانم به‌طور متوسط ​​چند وقت یک‌بار gc بر اساس تنظیمات احتمال اجرا می‌شود، و با افزایش آن تنظیم چگونه تغییر می‌کند؟ به احتمال 1% هر زمان که فرآیند اجرا شود، gc اجرا شود. اگر من بدانم که فرآیند 1000 بار در ساعت اجرا می شود، میانگین فرکانس gc چقدر است؟ همچنین، من دوست دارم یک معادله ساده برای آن ببینم تا بتوانم مقادیر مختلفی را برای X وصل کنم. بنابراین، به طور خلاصه: * فرکانس، f، از فرآیند = 1000 بار در ساعت * احتمال، p ، که gc برای هر فرآیند معین = 1% اجرا می شود * به طور متوسط ​​چند بار در ساعت، gc اجرا می شود؟ * یا، به طور متوسط، چند دقیقه بین اجراهای gc؟ * آیا فرمول ساده ای وجود دارد که بتوانم از آن برای تغییر مقادیر f و p استفاده کنم تا بتوانم مقدار p را با داده های دنیای واقعی تنظیم کنم؟
میانگین فرکانس یک رویداد را بر اساس احتمال و تعداد شانس در ساعت محاسبه کنید
105031
من یک نتیجه با سانسور درست مانند این دارم: y<-c(rep(2.83،3)، rep(3.17،4)، rep(3.83،4)، rep(4.17،5)، rep(4.83،8)، تکرار(5.5،3)، تکرار(7.17،5)، تکرار(8.17،7)، تکرار(8.83،12)، تکرار(9.5، 12)، rep(9.83،17)، rep(10.17،30)، rep(10.50،100)) که در آن «y=10.5» مقادیر سانسورکننده درست هستند. سپس، سعی می‌کنم از «quantreg::crq» برای برازش مدل رگرسیون چندک سانسور شده استفاده کنم و با یک متغیر مداخله دودویی شروع کنم: set.seed(123) require(quantreg) yc<-rep(10.5, length(y)) treat<-rbinom(طول(y)، 1، 0.5) سن<-as.integer(rnorm(طول(y)، 50، 2)) # model1 fit1<-crq(Curv(y, yc, right)~treat, taus=(1:4)/5, , method=Powell) خطا در solve.default(x[h, ]) : dgesv روتین Lapack: سیستم دقیقاً مفرد است: U[2,2] = 0 خطا در crq.fit.pow(X, y, cen, tau = taus[i]، وزن‌ها، چپ = چپ، ...) : راه‌حل پایه منفرد ایجاد شده توسط 'start' # model2 fit2<-crq(Curv(y, yc, right)~treat+age, taus=(1 :4)/5) خطا در solve.default(x[h, ]): dgesv روتین Lapack: سیستم دقیقاً مفرد است: U[2,2] = 0 خطا در crq.fit.pow(X، y، cen، tau = taus[i]، وزن‌ها، چپ = چپ، ...) : راه‌حل پایه منفرد ایجاد شده توسط شروع ممکن است کسی اینجا بداند اشکال مدل‌ها چیست؟ آیا به دلیل پیوندهای موجود در y است؟ آیا راه حلی وجود دارد؟
خطاها در برازش مدل رگرسیون کمی سانسور شده
49084
من دو سری زمانی کوتاه دارم (x و y)، و می‌خواهم بفهمم که آیا x اثرات (با همبستگی با) y وجود دارد یا خیر. بدیهی است که از آنجایی که این دو سری زمانی هستند، استفاده از یک همبستگی ساده راه اشتباهی است. من از تست گرنگر استفاده می‌کردم، اما هنگام بررسی به نظر می‌رسد که سریال ثابت نیست (و نه وقتی تفاوت‌هایشان را می‌گیرم). **پیشنهادی در مورد نحوه برخورد با چنین موردی دارید؟** در اینجا یک کد نمونه با داده های من وجود دارد: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NxRHG.png) # خواندن داده DATA <- ساختار(فهرست(سال = c(1980، 1981، 1982، 1983، 1984، 1985، 1986، 1987، 1988، 1989، 1990، 1991، 1992، 1993، 1994)، y = c(-801.87، -489.87، -333.87، -258.87، 475.13. -172.87، 318.13، 252.13، 105.13، 70.13، 57.13، 147.13)، x = c(-248.53، -143.53، -69.53، -41.53، -3.54، 3.57، 3.3، 27. 60.47، 56.47، 57.47، 60.47، 53.47، 53.47، 68.47))، .Names = c(year، y، x)، row.names = c(NA، 15L)، class = c( cast_df، data.frame )) با (DATA، cor(y، x)) # plot's سری است: with(DATA, plot.ts(data.frame(y, x))) # grangertest signif: need(lmtest) with(DATA, grangertest(x,y)) # stationary? with(DATA, PP.test(x)) # no with(DATA, PP.test(y)) # maybe with(DATA, PP.test(diff(x))) # maybe with(DATA, PP.test( diff(y))) # no
زمانی که سری های زمانی (کوتاه) ساکن نیستند، جایگزینی برای آزمون علیت گرنجر است؟
105034
اجازه دهید $x$ یک متغیر تصادفی با توزیع دو جمله ای باشد ($x \sim B(n,p)$). من می دانم که مقدار مورد انتظار یک دو جمله ای $E(x) = n \cdot p $ است اما معکوس یک دو جمله ای است؟ * $E\big(\frac{1}{x}\big)$ = ??? ### EDIT $Y \simknown$ and $X \sim B(n,p)$ $E\big(\frac{Y}{X}\big) = E(Y) \cdot E\big(\ فراکس{1}{X}\big)$
مقدار مورد انتظار دو جمله ای معکوس
65686
من سعی می کنم از SMOTE برای اصلاح عدم تعادل در مشکل طبقه بندی چند کلاسه خود استفاده کنم. اگرچه SMOTE طبق سند راهنمای SMOTE روی مجموعه داده عنبیه کاملاً کار می کند، اما روی مجموعه داده مشابهی کار نمی کند. در اینجا داده های من به نظر می رسد. توجه داشته باشید که دارای سه کلاس با مقادیر 1، 2، 3 است. > داده ها به دنبال ریسک در هر وضعیت 1 0 1 0 1 2 0 0 0 1 3 0 0 0 2 4 0 0 0 1 5 0 0 0 1 6 3 0 0 1 7 0 0 0 1 8 0 0 0 1 9 0 1 0 1 10 0 0 0 1 11 0 0 0 3 12 0 0 0 1 13 0 0 0 1 14 0 0 0 1 15 0 0 0 2 به شکل دیتافریم است، مانند عنبیه: > class(data) [1] data.frame در اینجا کد من با استفاده از SMOTE و خطای آن است: > newData <- SMOTE(وضعیت ~ .، داده، perc.over = 600، perc.under=100) خطا در scale.default(T, T[i, ]، محدوده ها): زیرنویس خارج از محدوده علاوه بر این: پیام های هشدار: 1: در FUN(newX[, i], ...): هیچ آرگومان غیر گمشده تا حداکثر. بازگشت -Inf 2: در FUN(newX[, i], ...) : هیچ آرگومان گمشده ای تا حداکثر وجود ندارد. بازگشت -Inf 3: در FUN(newX[, i], ...): هیچ آرگومان گمشده ای تا حداکثر وجود ندارد. بازگشت -Inf 4: در FUN(newX[، i]، ...): هیچ آرگومان گمشده ای برای min وجود ندارد. بازگشت Inf 5: در FUN(newX[, i], ...): هیچ آرگومان گمشده ای به min وجود ندارد. بازگشت Inf 6: در FUN(newX[, i], ...) : هیچ آرگومان گمشده به min; Inf بازگشتی
SMOTE برای مشکل عدم تعادل چند کلاسه خطا می دهد
43157
تنظیمات زیر را در نظر بگیرید: دو سویه موش (KO و WT) در سه آزمایش مستقل (E1، E2 و E3) مقایسه شده اند. در هر آزمایش، دو گروه مربوط به دو سویه موش مقایسه شدند و هر گروه شامل چهار موش مختلف بود. همه در هر آزمایش 8 موش و سه آزمایش (مجموع 4 × 2 × 3 = 24 موش) وجود داشت. البته سوال این است که آیا سویه ها با هم تفاوت دارند یا خیر. در R، با توجه به متغیرهای strain و experiment این کار را به صورت زیر انجام می دهم: a <- data.frame(response= c(100, 110, 120, 130, 200, 210, 220, 230, 105, 115، 125، 135، 205، 215، 225، 235، 105، 115، 125، 135، 215، 225، 235، 245)، آزمایش= rep( c( E1، E2، E3)، هر = 8)، کرنش = تکرار( rep(c (WT، KO)، هر= 4)، 3)) myaov <- aov( پاسخ ~ strain + Error( experience ), data= a ) summary( myaov ) با این حال، افرادی که به طور منظم با GraphPad Prism کار می کنند، این سوال را از من پرسیده اند. این ویژگی ANOVA اندازه گیری های مکرر را دارد که (در فایل راهنما) معادل طراحی بلوک تصادفی است، اما من توضیحات را تا حدی گیج کننده می دانم: > آزمایش های «اقدامات تکراری» در مقابل آزمایش های «بلوک تصادفی» > > عبارت تکرار شده اندازه گیری زمانی مناسب است که شما اندازه گیری های مکرر را از هر موضوع انجام دهید. > > برخی از آزمایش‌ها شامل اندازه‌گیری‌های تطبیقی ​​اما نه تکراری هستند. اصطلاح > بلوک تصادفی این نوع آزمایش ها را توصیف می کند. به عنوان مثال، تصور کنید > که سه ردیف سه خط سلولی متفاوت هستند. همه داده‌های Y1 > از یک آزمایش، و همه داده‌های Y2 از آزمایش دیگری > یک ماه بعد انجام شد. مقدار ردیف 1، ستون A، Y1 (23) و مقدار > در ردیف 1، ستون B، Y1 (28) از همان آزمایش بدست آمد (همان سلول > پاساژ، همان معرفها). تطبیق با ردیف است. > > داده های بلوک تصادفی به طور یکسان با داده های اندازه گیری مکرر تجزیه و تحلیل می شوند. > Prism همیشه از اصطلاح اندازه گیری های مکرر استفاده می کند، بنابراین زمانی که آزمایش شما از طرح بلوک های تصادفی پیروی می کند، باید تجزیه و تحلیل های تکراری > اندازه گیری ها را انتخاب کنید. **سوال من: چگونه می توانم این داده ها را با استفاده از GraphPad Prism تجزیه و تحلیل کنم؟** یا به جای آن: آیا توضیحات نقل شده با مورد من مطابقت دارد؟
مخلوط (نوع III) مدل ANOVA در R و GraphPad Prism
93723
با توجه به یک مبنا با ابعاد $D$ که یک نمونه iid از یک توزیع گوسی کروی است، و نسخه خراب شده با نویز آن داده که با اضافه کردن نویز گوسی کروی ایجاد می‌شود، آیا روش مفیدی برای بیان توزیع شباهت **کسینوسی وجود دارد. ** بین سیگنال و نسخه نویز آن؟ این چیزی است که من امتحان کردم: از آنجایی که شباهت کسینوس فقط به زاویه بین این دو بردار $D$-بعدی بستگی دارد، و نه به بزرگی یا زاویه مطلق آنها، بدون از دست دادن کلیت، می‌توانیم مسئله را مجدداً مقیاس بندی کنیم تا سیگنال دارای هنجار اقلیدسی باشد. 1، و همچنین مشکل را بچرخانید تا سیگنال با محور اول تراز شود. سپس مشکل به صورت زیر بیان می‌شود: با توجه به داده‌های $D$-بعدی $X=(1,0,0,...)'$ و نسخه خراب شده با نویز آن $Y = X + \mathcal{N}^D( 0، \sigma)$ (که $\sigma$ انحراف معیار است)، توزیع شباهت کسینوس $\frac{X \cdot Y}{||X|| ||Y||}$؟ محدودیت‌های روی $X$ به این معنی است که عبارت را می‌توان به $\frac{y_1}{||Y||}$ ساده کرد که $y_1$ اولین عنصر $Y$ است، و به وضوح $y_1$ به صورت $\ توزیع می‌شود. mathcal{N}(1، \sigma)$. عبارت کلی، $\frac{y_1}{||Y||}$، خوب ما می‌توانیم آن را گسترش دهیم، اما هیچ راهی برای بازنویسی آن نمی‌دانم تا بتوانم (مثلا) **عبارات را دریافت کنم. برای میانگین و واریانس آن **. > _(برخی نتایج ساده برای افراطی ها: وقتی $\sigma=0$، کسینوس > شباهت 1 است. به عنوان $\sigma\to\infty$، شباهت کسینوس به توزیع محصولات نقطه ای بین دو بردار واحد تصادفی تبدیل می شود. )_
شباهت کسینوس بین سیگنال تمیز و نسخه نویزدار آن
64484
من با استفاده از بسته spdep با برخی از تحلیل های فضایی اکتشافی در R کار می کنم. من با گزینه ای برای تنظیم _p_ -مقادیر شاخص های محلی ارتباط فضایی (LISA) که با استفاده از تابع localmoran محاسبه می شود مواجه شدم. با توجه به اسناد، هدف آن عبارت است از: > ... تنظیم مقدار احتمال برای تست های متعدد. بیشتر در اسناد `p.adjustSP` خواندم که گزینه‌های موجود عبارتند از: > روش‌های تنظیم شامل تصحیح Bonferroni ('bonferroni') است که در آن p-values ​​در تعداد مقایسه‌ها ضرب می‌شوند. چهار تصحیح کمتر > محافظه کارانه نیز توسط هولم (1979) (هولم)، > هوچبرگ (1988) (هوچبرگ)، هومل (1988) (هومل) و بنجامینی و > هوچبرگ گنجانده شده است. (1995) ('fdr')، به ترتیب. یک گزینه عبور از طریق (هیچکدام) نیز گنجانده شده است. چهار روش اول برای کنترل قوی نرخ خطای عاقلانه خانوادگی طراحی شده اند. به نظر می رسد دلیلی برای استفاده از اصلاح اصلاح نشده Bonferroni > وجود ندارد زیرا روش هولم بر آن غالب است، که تحت فرضیات دلخواه نیز معتبر است. روش‌های هوچبرگ و هومل زمانی معتبر هستند که آزمون‌های فرضیه مستقل باشند یا زمانی که ارتباط منفی نداشته باشند (سرکار، 1998؛ سرکار > و چانگ، 1997). روش هومل قدرتمندتر از روش هوچبرگ است، اما تفاوت > معمولاً کم است و مقادیر p هوچبرگ سریع‌تر محاسبه می‌شوند. > > روش BH (با نام مستعار fdr) و BY بنجامینی، هوچبرگ، و یکوتیلی نرخ کشف نادرست، نسبت مورد انتظار اکتشافات نادرست را در میان فرضیه‌های رد شده کنترل می‌کنند. نرخ کشف کاذب یک شرایط > کمتر سختگیرانه تر از میزان خطای خانوادگی است، بنابراین این روش ها > قوی تر از روش های دیگر هستند. چند سوال که ظاهر شد: 1. به زبان ساده - هدف از این تنظیم چیست؟ 2. آیا استفاده از این گونه اصلاحات ضروری است؟ 3. اگر بله - چگونه از بین گزینه های موجود انتخاب کنیم؟
تنظیم p-value برای آمار Local Moran's I (LISA)
16224
### زمینه: * من در حال انجام یک نظرسنجی بزرگ هستم و سعی می کنم بفهمم چه تحلیل های آماری را انجام دهم. * این نظرسنجی سوالاتی را در هر قالبی که برای انسان شناخته شده است (مثلاً مقیاس لیکرت، چند گزینه ای، دوگانه) می پرسد و در مورد سلامت روانی اجتماعی و استرس کاری است. * من قصد دارم یک تحلیل عاملی انجام دهم تا ببینم چه سوالات جمعیت شناختی با هم برای تأثیرگذاری بر کیفیت زندگی تأثیر دارند و سرپرستم پیشنهاد کرده است که همبستگی های پیرسون را روی عواملی که مطرح می شوند انجام دهم. سپس اجرای n-way MANOVA برای تعیین درصد واریانس توضیح داده شد. علیرغم داشتن آمار ace تا به امروز، متوجه می شوم که مغز قدیمی من با همه اینها گیج شده است و به نوعی ترتیب به عقب به نظر می رسد. ### سوال: * اگر مجموعه داده های بزرگی داشتید و انتظار داشتید تعداد زیادی از سوالات با هم جمع شوند تا عوامل تاثیرگذار بر یک متغیر وابسته (کیفیت زندگی در این مورد) باشند، چه کاری و به چه ترتیبی انجام می دهید؟
چگونه می توان یک مدل برای پیش بینی کیفیت زندگی از طیف گسترده ای از معیارهای جمعیت شناختی، استرس و سلامت ایجاد کرد؟
65681
برنامه آماری من خطوط عمودی را ترسیم می‌کند که نشان‌دهنده نسبت t در سطح معنی‌داری 5% به همراه تخمین‌های پارامتر مرتب شده آن هنگام برازش یک مدل خطی است. من نمی فهمم این خط چگونه محاسبه می شود. احتمالاً اگر آنها می توانستند آن را با اهمیت 5٪ محاسبه کنند، من می توانستم یک مقدار نسبت t را با اهمیت 10٪ محاسبه کنم. چگونه این کار را انجام دهم؟ ![t-ratio graphic](http://i.stack.imgur.com/EP0Pi.png) من t Ratio = تخمین / خطای Std را می دانم، اما نمی دانم چگونه تخمین یا استاندارد را به هم مرتبط کنم خطا تا سطح معناداری با این حال، من فکر می کنم خطای استاندارد برآورد به عنوان انحراف استاندارد برای توزیع t مرتبط استفاده می شود که سپس برای تعیین مقدار p استفاده می شود.
چگونه نسبت t را در سطح معناداری 0.05 محاسبه کنیم؟
105033
من در حال انجام یک تحلیل VAR بر روی اثرات اخبار و بازده S&P500 هستم. اکنون، تعداد تأخیرها (5) را بر اساس معیار اطلاعات بیزی شوارتز (SBIC) مشخص کردم و چند آزمایش پس از تخمین را انجام دادم. من از STATA برای محاسبه علیت گرنجر و تابع varlmar برای تست همبستگی خودکار (آزمون LM) استفاده می کنم. اکنون برای من مشخص نیست که خروجی چه معنایی برای تحلیل من دارد. آیا این به این معنی است که من در باقیمانده ها تا تاخیر 5، به جز تاخیر 3، خودهمبستگی دارم؟ آیا این برای استنباط مشکل دارد؟ هر گونه کمک بسیار قدردانی! ![آزمون ضریب لاگرانژ](http://i.stack.imgur.com/maZrE.png)
نتایج پس از تخمین پس از تجزیه و تحلیل VAR نشان دهنده همبستگی خودکار در باقیمانده ها است
112429
من از رگرسیون چندگانه با روش حذف به عقب استفاده می کنم. من یک متغیر کنترلی (پاسخ دهی مطلوب اجتماعی) و چهار متغیر پیش بینی کننده (جنسیت و سه سازه عزت نفس) دارم. متغیر وابسته من رفتار جنسی پرخطر است. من در بلوک اول پاسخ مطلوب اجتماعی را وارد کردم و به عقب را به عنوان روش انتخاب کردم. من چهار متغیر پیش بینی کننده را در بلوک دوم وارد کردم و backward را به عنوان روش انتخاب کردم. سؤالات من این است: آیا قرار است نتایج را فقط با تأثیرات اصلی بررسی کنم، IV هایی را که مهم هستند تعیین کنم، و یک تحلیل جداگانه با عبارات تعاملی که فقط حاوی IV های مهم است اجرا کنم؟ اگر چنین است، آیا باید آنالیز را دوباره با تمام اثرات اصلی در یک بلوک و شرایط تعامل با IV های مهم در بلوک دیگر اجرا کنم؟ یا نباید تجزیه و تحلیل های جداگانه ای را برای افکت ها و تعاملات اصلی اجرا کنم و در عوض همه آنها را در یک زمان اما در بلوک های جداگانه اجرا کنم؟ خیلی ممنون
چگونه اثرات و تعاملات اصلی را در یک رگرسیون گام به گام اجرا کنیم؟
96615
من چندین طبقه‌بندی کننده f_i (i=1..N) و معیارهای عملکرد محاسبه‌شده در چندین دامنه (D) برای هر کدام دارم. بنابراین، مقادیر NxD وجود دارد. من می خواهم بدانم (افزایش پیچیدگی): 1. آیا یک طبقه بندی خاص با توجه به همه دامنه ها به طور قابل توجهی بهتر از خط پایه است؟ 2. آیا طبقه بندی کننده خاصی وجود دارد که با توجه به همه دامنه ها بهتر از سایرین باشد؟ 3. آیا رتبه بندی طبقه بندی کننده ها f_i > f_k > f_l > وجود دارد، که در آن >=به طور قابل توجهی بهتر است، با توجه به همه دامنه ها؟ من نمی توانم فرض کنم که آنها بر اساس یک نرمال توزیع شوند، بنابراین من به دنبال تست های ناپارامتریک هستم. از (JAPKOWICZ/SHAH, 2001)، من روش زیر را استنباط کردم: 1. آزمایش فریدمن را برای تعیین اینکه آیا حداقل یک طبقه‌بندی کننده به طور قابل توجهی بهتر از بقیه برای همه دامنه‌ها عمل می‌کند یا خیر، انجام دهید. روابط دوتایی به طور قابل توجهی بهتر از را شناسایی کنید. سؤالات: 1. آیا هیچ قاعده ای برای در نظر گرفتن حداقل دامنه های مورد نیاز برای دادن قدرت کافی به آزمون فریدمن / نمنی وجود دارد؟ آیا تست های دیگری برای تعداد کم دامنه (<5) مناسب تر هستند؟ 2. اگر نتایج جفتی f_i>f_k، f_k>f_j یا f_k = f_j با ==میزان بهتر نیست وجود داشته باشد، می‌توان گفت که طبقه‌بندی کننده f_i به طور قابل توجهی بهتر از هر طبقه‌بندی دیگری است؟ 3. آیا می توان چنین رتبه بندی را با استفاده از تست های Nemenyi زوجی استنباط کرد؟ آیا نیازی به انجام تست فریدمن در زیر مجموعه ها وجود دارد؟ لطفاً توجه داشته باشید که این سؤال مربوط به سؤال دیگری است که پاسخی ندارد. هر گونه کمکی بسیار قدردانی می شود. با تشکر
آزمون فریدمن برای شناسایی بهترین طبقه‌بندی‌کننده‌های چندگانه در حوزه‌های مختلف
96614
من یک توزیع داده ناپارامتریک (منظورم غیر عادی) است. من چندین تغییر را امتحان کردم، اما هیچ کدام مفید نبودند. اکنون، من می‌خواهم مدلی پیدا کنم که بتوانم جلوه‌های تصادفی را با داده‌های توزیع‌شده غیرعادی اضافه کنم. من تست Kruskal-Wallis را می‌دانم، اما اگر بتوانم افکت‌های تصادفی را اضافه کنم، نتوانستم راهنمایی پیدا کنم. کسی مدل مناسبی سراغ داره؟ من چهار گروه مختلف با N کل 328 دارم. متغیر وابسته بین 1 تا 9 است. من یک آزمون Shapiro-Wilks را با این متغیر وابسته برای چهار گروه انجام دادم و همه آزمون ها بسیار معنی دار بودند. من برخی از اعتبارسنجی مدل را با استفاده از مدل lme انجام داده ام که شامل چهار گروه مختلف به عنوان یک اثر ثابت و عامل دیگر به عنوان اثر تصادفی است. نمودار Q-Q این مدل در ابتدا یک برآمدگی بزرگ را نشان می دهد بنابراین من فرض کردم که نمی توانم از مدل استفاده کنم. طرح های دیگر تا حدی خوب به نظر می رسند. لطفاً به من بگویید چه چیز دیگری باید بیان کنم زیرا من واقعاً با وبلاگ ها آشنا نیستم! هیستوگرام های متغیر وابسته log-transformed مرتب شده بر اساس چهار گروه که می خواهم به عنوان یک جلوه ثابت برای مدل خود استفاده کنم: برای مدل من](http://i.stack.imgur.com/GnrTK.png) این اعتبار مدل مدلی است که من اعمال کردم. من از یک خطی استفاده کرده ام مدل اثرات مختلط با گروه ها به عنوان جلوه های ثابت و یک اثر تصادفی اضافی. ![این اعتبار مدل مدلی است که من اعمال کردم.](http://i.stack.imgur.com/U0d76.png) و اینجا کدی است که SGroup1 اعمال کردم <- lme(Schoollog~Group1, data=T4 , random=~1|ID, method='ML') par(mfrow=c(2,2)) plot(fitted(SGroup1),resid(SGroup1)) abline(h=0, lty=2) qqnorm(resid(SGroup1)) qqline(resid(SGroup1)) scatter.smooth(fitted(SGroup1), sqrt(abs(resid (SGroup1))) qqnorm(unlist(ranef(SGroup1))) qqline(unlist(ranef(SGroup1)))
آیا مدلی وجود دارد که شامل اثرات تصادفی با توزیع داده های ناپارامتریک باشد؟
43154
من می خواهم انحراف استاندارد را برای مجموعه ای از اندازه گیری های یک پروفیل کابل تعیین کنم. با این حال، کابل زمین را دنبال می کند، و بنابراین استفاده از یک مقدار متوسط ​​برای کل طول کابل هیچ معنایی ندارد. فکر فعلی من این است که میانگین و انحراف معیار را در هر نقطه بر اساس خود نقطه و دو نقطه قبلی و دو نقطه بعدی محاسبه کنم. سپس می توانم یک فاصله اطمینان برای انحراف معیار، از طریق توزیع کای دو، در هر یک از این نقاط ایجاد کنم. چگونه می توانم یک انحراف استاندارد کلی معنی دار و یک فاصله اطمینان برای آن برای کل کابل بدست بیاورم؟
انحراف استاندارد کلی
65537
من در مرحله اجرای طرح فاکتوریل 2×2 هستم. مشاور من می گوید که انجام آزمایشی بر اساس چنین طراحی ساده فایده ای ندارد مگر اینکه انتظار داشته باشید همه چیز مهم باشد. 2 جلوه اصلی و 1 اثر متقابل. من فکر می کنم که حتی زمانی که انتظار هیچ اثر قابل توجهی را ندارید، هنوز هم دانستن آنها جالب است. آیا نیازی به دانستن اینکه آیا چیزی واقعاً تأثیری ندارد به جای اینکه فقط روی تأثیر چیزی آزمایش شود، وجود ندارد؟ علاوه بر این، او پیشنهاد کرد که اثرات متقابل در طراحی فاکتوریل بیشترین اهمیت را دارد. بنابراین شما باید انتظار داشته باشید که چه چیزی مهم باشد. او پیشنهاد کرد که یک عامل دیگر را برای ایجاد یک طرح 2x2x2 در نظر بگیرید تا اثرات متقابل بیشتری داشته باشد. برای من نظرات او عجیب به نظر می رسد. من دلایلی دارم که چرا انتظار دارم چیزی مهم نباشد. اگر با استدلال او پیش بروم، هرگز نباید تأثیرات غیر قابل توجهی را آزمایش کرد؟ همانطور که قبلاً گفتم، من فکر می کنم انتظار اثرات غیر قابل توجه به همان اندازه جالب است که آزمایش برای اثرات قابل توجه. از آنجایی که او استاد است و من نیستم، نظر دومی در این مورد دارید؟
طراحی فاکتوریل 2×2 حداقل عوامل قابل توجه مورد انتظار
49333
من یک رگرسیون خطی چندگانه از عوامل مرتبط با فقر انجام می‌دهم و می‌خواهم برخی از داده‌های مکانی-آماری را در آن لحاظ کنم. من به داده‌های ارزش I (خوشه‌ای/ پرت) Anselin Local Moran برای مناطق سرشماری در یک منطقه شهری رسیده‌ام که می‌خواهم آن‌ها را در رگرسیون لحاظ کنم. با این حال، مقادیر I Anselin Local Moran با مقادیر مثبت یا منفی نمایه می شوند. یک مقدار مثبت برای I نشان می دهد که یک ویژگی دارای ویژگی های همسایه با مقادیر مشخصه بالا یا پایین مشابه است. این ویژگی بخشی از یک خوشه است. یک مقدار منفی برای I نشان می دهد که یک ویژگی دارای ویژگی های همسایه با مقادیر متفاوت است. این ویژگی یک امر پرت است. با این حال، این مقادیر تنها در صورتی معنی دار در نظر گرفته می شوند که با نمرات z یا p متناظر آنها نشان داده شود. آیا می توان از یک شاخص منفی/مثبت مانند این به عنوان یک متغیر مستقل در رگرسیون استفاده کرد؟ اگر چنین است، چگونه می توان با توجه به برخی از مشاهدات (مقدار I موران برای سرشماری) به این مشکل نزدیک شد؟ جزئیات بیشتر درباره Anselin Local Moran's I را می توانید در اینجا پیدا کنید: http://help.arcgis.com/en/arcgisdesktop/10.0/help/index.html#//005p00000012000000
استفاده از ارزش های I مورن محلی Anselin در رگرسیون
49082
من خروجی زیر را دارم: مدل ترکیبی خطی متناسب با فرمول REML: مقدار ~ گروه + (1 | Koralle) داده: dat AIC BIC logLik انحراف REMLdev 5988 6008 -2990 5985 5980 اثرات تصادفی: نام گروه ها واریانس Std.Dev. Koralle (Intercept) 4.1737 2.0430 Residual 15.4811 3.9346 تعداد obs: 1070، گروه‌ها: Koralle، 5 جلوه‌های ثابت: Estimate Std. خطای t مقدار (Intercept) 10.463 1.468 7.127 GroupTreatment -1.071 1.895 -0.565 همبستگی جلوه های ثابت: (Intr) GroupTrtmnt -0.775 من مطمئن نیستم که چگونه افکت -0.775 از Fixrexre را تفسیر کنم من حتی نمی دانم این چه ارتباطی است؟ کسی میتونه کمکم کنه؟ پیشاپیش ممنون
تفسیر lmer از همبستگی