_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
41141 | فرض کنید ما دو بازه اطمینان 95$ \%$ برای X_1$ و $X_2$ داده ایم. آنها به طور معمول توزیع می شوند. چگونه میتوانیم یک بازه اطمینان $95 \%$ برای $X_{1}/X_{2}$ بدست آوریم؟ | با توجه به دو فاصله اطمینان 95٪ |
5278 | چه راهی (راه هایی؟) برای توضیح بصری چیستی ANOVA وجود دارد؟ از هرگونه مرجع، پیوند(های) (بسته های R؟) استقبال می شود. با تشکر | چگونه می توان آنچه را ANOVA انجام می دهد تجسم کرد؟ |
94963 | من می خواهم Apache Shark را با R داده استخراج کنم اما مطمئن نیستم که آیا بسته هایی برای R وجود دارد یا خیر. با تشکر | آیا بسته هایی در R برای استفاده از Apache Shark وجود دارد؟ |
11107 | من باید یک رگرسیون لجستیک با استفاده از R در داده های خود انجام دهم. متغیر پاسخ من ('y') بقا در هنگام از شیر گرفتن است ('surv=0'؛ surv=1 نیست) و من چندین متغیر مستقل دارم که ماهیتی باینری و دسته بندی دارند. من چند نمونه در این وب سایت http://www.ats.ucla.edu/stat/r/dae/logit.htm دنبال می کنم و سعی می کنم چند مدل را اجرا کنم. اجرای مدل: > mysurv2 <- glm(surv~as.factor(PTEM) + as.factor(pshiv) + as.factor(presp) + as.factor(pmtone)، family=binomial(link=logit) , data=ap) > summary(mysurv2) Call: glm(formula = surv ~ as.factor(PTEM) + as.factor(pshiv) + as.factor(presp) + as.factor (pmtone)، خانواده = دو جمله ای (لینک = logit)، داده = ap) انحراف باقیمانده: حداقل 1Q میانه 3Q حداکثر -2.2837 -0.5121 -0.5121 -0.5058 2.0590 ضرایب: برآورد . خطای z مقدار Pr(>|z|) (فاصله) -0.01135 0.23613 -0.048 0.96166 as.factor(PTEM)2 -0.74642 0.24482 -3.049 0.00230 ** as.factor(PTEM)30.029 -8.401 < 2e-16 *** as.factor(pshiv)2 -0.02638 0.06784 -0.389 0.69738 as.factor(presp)2 0.74549 0.10532 7.079 1.46e-factor(pshiv)2 -0.02638 0.06784 -0.389 0.66540 1.004 0.31547 as.factor(pmtone)2 0.54699 0.09678 5.652 1.58e-08 *** as.factor(pmtone)3 1.82337 0.75409 0.75409 * 0.415-0. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 7892.6 در 8791 درجه آزادی انحراف باقیمانده: 7252. 8784 درجه آزادی (341 مشاهده حذف شده به دلیل عدم وجود) AIC: 7268.8 تعداد تکرارهای امتیازدهی فیشر: 4 افزودن 'na.action=na.pass' در انتهای مدل به من پیام خطا داد. فکر میکردم که این NA در متغیرهای مستقل من مراقبت میکند. > mysurv <- glm(surv~as.factor(PTEM) + as.factor(pshiv) + as.factor(presp) + as.factor(pmtone), family=binomial(link=logit)، data=ap , na.action=na.pass) خطا: NA/NaN/Inf در فراخوانی تابع خارجی (arg 1) از آنجایی که این اولین بار است که وارد رگرسیون لجستیک می شوم، من من نمی دانم که آیا بسته ای در R وجود دارد که مناسب تر باشد؟ من همچنین سعی در درک ضرایب رگرسیون دارم. متغیرهای مستقل مورد استفاده در مدل عبارتند از: 1. دمای رکتوم: * `(PTEM)1` = نوزادان با دمای رکتوم. زیر 35.4 0C * `(PTEM)2` = نوزادان با دمای رکتوم. بین 35.4 تا 36.9 0C * `(PTEM)3` = نوزادان با دمای مقعدی. بالاتر از 37.0 0C 2. لرز: * `(pshiv)1` = نوزادانی که نمی لرزیدند * `(pshiv)2` = نوزادانی که می لرزیدند 3. تنفس: * `(presp)1` = نوزادان با تنفس طبیعی *` (presp)2` = نوزادان با مشکل تنفسی خفیف * `(presp)3` = نوزادان با تنفس ضعیف 4. تون عضلانی: * `(pmtone)1` = نوزادان با تون عضلانی طبیعی * `(pmtone)2` = نوزادان با تون عضلانی متوسط *`(pmtone)1` = نوزادانی با تون عضلانی ضعیف با نگاهی به ضرایب، من موارد زیر را دریافت کرد: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.01135 0.23613 -0.048 0.96166 as.factor(PTEM)2 -0.74642 0.24482 -3.049 0.00230 ** as.factor(PTEM)30.029 -8.401 < 2e-16 *** as.factor(pshiv)2 -0.02638 0.06784 -0.389 0.69738 as.factor(presp)2 0.74549 0.10532 7.079 1.46e-factor(pshiv)2 -0.02638 0.06784 -0.389 0.66540 1.004 0.31547 as.factor(pmtone)2 0.54699 0.09678 5.652 1.58e-08 *** as.factor(pmtone)3 1.82337 0.75409 0.75409 * 0.415-0. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 در تجزیه و تحلیل دیگرم، متوجه شدم که نوزادان: الف) با دمای مقعدی بالاتر ب) لرز ندارند ج) تنفس خوب و د) تون عضلانی خوب در بدو تولد احتمال بیشتری برای زنده ماندن داشتند. من با ضرایبی که در بالا می گیرم کمی گیج شده ام. میپرسم آیا من نتایج را درست تفسیر نمیکنم یا چیز دیگری است؟ | انجام رگرسیون لجستیک با استفاده از R |
8704 | عنوان سوال را مشخص می کند. ممکن است این مفهوم انجام دهد ... دوست دارد چگونه در مورد آن پیش رود؟ با تشکر | با توجه به pdf $I$ و $R$ (هر دو $I$ و $R$ RVهای مستقل هستند)، چگونه می توان pdf $W =I^2\cdot R$ را پیدا کرد؟ |
11108 | به این عکس نگاهی بیندازید:  یک نمودار جعبه ای از سری اجراهای یکسان برای مقادیر پی در پی **i** را نشان می دهد. (AFAIK استاندارد Min/Max و 1، 2، 3 چهارم است.) بنابراین محور x 1 نشان دهنده 1000 اجرا است که در آن i=1. و نمودار دوم 1000 اجرا را نشان می دهد که در آن i=2; و غیره به راحتی می توان دید که بین i=1,2 و i=3-19 شکافی وجود دارد. مقادیر i=2 به طور متوسط کمی بزرگتر هستند. هدف من این است که با دادن ورودی ای که این نمودار را ایجاد کرده است، به صورت برنامه ریزی شده آن تقسیم (بین 2 و 3) را پیدا کنم که در آن تغییر مداوم ناگهانی وجود دارد. (مرحله 1) همچنین بسیار عالی بود اگر نوعی امتیاز اطمینان همراه با آن وجود داشت - فقط برای بازخورد کاربر. این تغییر ممکن است بالا یا پایین باشد، اما می دانم که در هر دو طرف تقسیم، مقادیر ثابت خواهند بود (دقیقاً مانند i > 2، نمودارهای کادر کاملاً یکنواخت می مانند و به مقادیر i<2 بر نمی گردند). سپس، پس از آن، میخواهم برای یک i مجهول اندازهگیری کنم و تصمیم بگیرم که در کدام «سمت» تقسیم قرار میگیرد. اکنون می دانم که هرگز نمی توانم آن پاسخ را به طور قطعی از یک اندازه گیری بدانم، بنابراین قصد دارم چندین اندازه گیری (5؟ 50؟ 100؟) برای این مقدار i ناشناخته-اما غیرقابل تغییر انجام دهم. سپس با استفاده از این اندازهگیریها متوجه شوید که i در کدام سمت شکاف قرار میگیرد (مرحله 2). باز هم، بسیار عالی خواهد بود اگر یک ارزش اطمینان مرتبط با این تصمیم وجود داشته باشد. من در پایتون کار می کنم، بنابراین اگر یک کتابخانه عالی وجود دارد، اما خودم با پیاده سازی یک الگوریتم/معادله خوب هستم. تکنیک ها/معادلات/مقالاتی که باید برای یادگیری نحوه انجام این کار مطالعه کنم چیست؟ | تشخیص خودکار تغییر ناگهانی میانگین |
111038 | فرض کنید میخواهیم یک طبقهبندی کننده برای یک مسئله طبقهبندی باینری با استفاده از یک روش متمایز (مثلا SVM) بسازیم و بتوانیم یک پیشین را به کلاسها تحمیل کنیم. برای مثال، فرض کنید میخواهیم از $\text{Beta}(10,20)$ قبلی در کلاس مثبت استفاده کنیم. به این صورت است:  چگونه می توانم احتمال **پسین** طبقه بندی حاصل از ترکیب خروجی من را تخمین بزنم پیش بینی افتراقی با قبل از بالا؟ برای محاسبه این احتمال پسین چه مراحلی باید انجام دهم؟ | مقدماتی برای روش های تبعیض آمیز؟ |
17991 | تفاوت بین VAR (رگرسیون خودکار برداری) و MANOVA چیست؟ | آیا VAR یک MANOVA با رگرسیون خودکار است؟ |
17999 | اگر میخواهید آزمایش کنید که آیا 5 گروه ریسک یکسان یا خطرات متفاوتی برای برخی از متغیرهای نتیجه دوتایی دارند، آیا آزمایشی وجود دارد که بتوانید انجام دهید؟ چیزی شبیه تست F یا تست کای اسکوئر؟ | آیا راهی برای آزمایش اینکه آیا خطر برای چندین گروه یکسان است یا خیر وجود دارد؟ |
114148 | اجازه دهید $r_t^{log} = \ln{\frac{Y_t}{Y_{t-1}}}$ بازگشت گزارش باشد که در آن $Y_t$ مقدار پورتفولیو در زمان t است. اگر مقدار در معرض خطر (VaR) به صورت منهای 0.05 چندک توزیع log-returns تعریف شود، به راحتی می توان VaR را بر حسب ارز به صورت $\$VaR = Y_t(1-\exp(-VaR))$ بدست آورد. به نظر می رسد اوضاع برای کمبود مورد انتظار پیچیده تر باشد. در اینجا به نظر می رسد تقریبی از بازده خالص با استفاده از بازده گزارش ضروری است. یا نکته مهمی را از دست دادم؟ ES را در شرایط log-returns به صورت $ES=: -E(r^{log} | r^{log} < -VaR)$ و ES را در شرایط ارزی $\$ES =: -E(Y_{) تعریف کنید. T+1}|Y_{T+1}<-\$VaR) $ موارد زیر را امتحان کردم: $\$ES = -E(Y_T\exp(r^{log})|Y_{T+1}<-\$VaR) $$= -Y_TE(\exp(r^{log})| \exp(r^{log} ) < \exp(-VaR)-1 ) = ... ???$ با توجه به تابع e، به نظر نمی رسد که $\$ES$ بسته به $ES$ به این شکل خوب بیان شود. برای VaR امکان پذیر بود. هر ایده ای بسیار قدردانی می شود. | کسری مورد انتظار (ES) را بر حسب ارزش از یک ES اعلام شده در بازده ثبت دریافت کنید |
28348 | من مطالعه ای با 35 نفر انجام دادم که در 4 زمان مختلف (قبل از جراحی، بعد از عمل، در 1 هفته و در 1 ماه) آزمایش انعقاد بیش از حد را دریافت کردند. هر آزمودنی دارای 9 تست مختلف انعقاد بیش از حد در 4 نقطه زمانی است. من می خواهم هر یک از این 9 آزمایش را در طول زمان مقایسه کنم (یعنی: Clot time_preop در مقابل Clot time_postop در مقابل Clot time_1wk در مقابل Clot time_1mo) تا ببینم آیا تغییر می کنند یا خیر. یکی از مشکلاتی که من دارم این است که چگونه تصمیم بگیرم که آیا داده های من عادی هستند یا خیر. چگونه نرمال بودن داده ها را ارزیابی کنم؟ من داده ها را در SPSS کاوش کرده ام و می بینم که اگرچه اکثر آنها عادی هستند، اما برخی از آنها اینطور نیستند. اگر یکی از اندازهگیریها در یک متغیر (یعنی: زمان لخته_1 هفته) نرمال نیست (kurtosis=10 و Shapiro-Wilk <0.01) اما بقیه اندازهگیریها هستند، آیا باید به جای آن از ناپارامتریک فریدمن استفاده کنم؟ یا باید عادی بودن را به روش دیگری ارزیابی کنم؟ | اندازه گیری های مکرر ANOVA یا تست فریدمن؟ |
17992 | چگونه x زیر را به بردار مانند y تبدیل کنیم؟ x <- [a، b، b، c، ...] y <- [1، 2، 2، 3، ...] **به روز رسانی:** در پایان با : سطوح(x) <- 1:length(سطوح(x)) | چگونه یک بردار رشته های قابل شمارش را به بردار اعداد تبدیل کنیم؟ |
55663 | لطفاً توضیح دهم که آیا موارد زیر به همین معنی است؟ $$P(AB) = P(A \cap B)$$ به سلامتی. | نشان دادن نمادهای احتمال |
76584 | واحدهای مقیاس موجک a چیست؟ من همیشه فکر می کردم که به دلیل کمک موجک ریاضیات، غیربعدی است: (کپی/پیست) اگر بپذیریم که فرکانس Fc را به تابع موجک مرتبط کنیم، آنگاه، وقتی موجک با ضریب a گشاد می شود، این فرکانس مرکزی تبدیل می شود. Fc/a با این حال (دوباره در سایت matworks: در نهایت، اگر دوره نمونه برداری زیربنایی دلتا باشد، طبیعی است که به مقیاس a مرتبط شود. فرکانس Fa=Fc/(a*delta) اکنون در حالت دلتا، دوره نمونه برداری (بنابراین در ثانیه)، برای اینکه فا در مقیاس هرتز a باشد، باید در 1/sec باشد آیا این درست است؟ شما | واحدهای مقیاس موجک چیست- a |
28349 | **ویرایش سوال برای دقیق تر بودن:** من با آمار نسبتاً تازه کار هستم و امیدوارم بتوانم کمکی دریافت کنم. درخشندگی که Stack Exchange است در گذشته بسیار مفید بوده است. در مورد من، من یک سری داده برای واژگان والدین و فرزندانشان دارم. من می خواهم همبستگی بین اندازه واژگان کودکان را با اندازه واژگان والدین آنها آزمایش کنم. روشهای مختلفی برای محاسبه «اندازه vocab» وجود دارد، و من میخواهم تعیین کنم که کدام روش بیشترین ارتباط بین واژگان کودک را با واژگان والدین دارد. در اینجا نمونه ای از داده های من وجود دارد: روش کودک Vocab 1 روش Vocab والدین 1 روش Vocab والدین 2 0.160626116 0.118348938 0.693759899 0.7421512507 0.7421512507 0.118333458 0.694389147 0.7404324 0.115148036 0.103091141 0.636671881 0.750822137 0.098036123814141. 0.757787103 0.182142187 0.116444253 0.684319515 0.723742968 0.165819982 0.155696351 0.6994730576 0.699473067 0.108361775 0.164021164 0.649796093 0.767774552 0.122965306 0.163835682 0.672889844 0.793612656 0.793612656 0.148130042 0.666237275 0.758969757 بسیار متشکرم | چگونه می توان همبستگی بین ویژگی دو جمعیت را با توجه به چندین الگوریتم تخمین زد |
1773 | دقت به این صورت تعریف میشود: p = مثبت واقعی / (مثبت واقعی + مثبت کاذب) آیا درست است که با نزدیک شدن به مثبت های واقعی و مثبت های کاذب 0، دقت به 1 نزدیک شود؟ همان سوال برای یادآوری: r = مثبت واقعی / (مثبت واقعی + منفی کاذب) من در حال حاضر در حال اجرای یک آزمایش آماری هستم که باید این مقادیر را محاسبه کنم و گاهی اوقات این اتفاق می افتد که مخرج آن 0 است و من در تعجب هستم که کدام مقدار را برگردانم. برای این مورد P.S.: ببخشید برچسب نامناسب، من میخواستم از «یادآوری»، «دقت» و «محدودیت» استفاده کنم، اما هنوز نمیتوانم برچسبهای جدیدی ایجاد کنم. | مقادیر صحیحی برای دقت و فراخوانی در موارد لبه چیست؟ |
11102 | من در انجام تحلیل عاملی در مجموعه داده خود با مشکل مواجه هستم. وقتی تجزیه و تحلیل عاملی را در SPSS (تنظیمات پیش فرض) انجام می دهم، خوب کار می کند. مشکل این است که باید آن را به صورت برنامه نویسی (در پایتون) انجام دهم. وقتی سعی میکنم از Python (کتابخانه MDP) برای انجام تحلیل عاملی روی همان مجموعه داده استفاده کنم، این خطا را دریافت میکنم: ماتریس کوواریانس دادهها منفرد است. ابعاد اضافی باید حذف شوند. پس از بررسی اسناد MDP، میگوید: ... حداکثر تخمین پسینی متغیرهای پنهان را برمی گرداند. من که یک مبتدی در تجزیه و تحلیل عاملی بودم، خیلی روشن نبودم که این به چه معناست، اما سعی کردم روش استخراج پیشفرض در SPSS را از مولفههای اصلی به حداکثر احتمال تغییر دهم. سپس در SPSS با این خطا مواجه می شوم: این ماتریس قطعی مثبت نیست. آیا این دو خطا یکی هستند؟ صرف نظر از این، چه کاری می توانم انجام دهم تا مجموعه داده خود را اصلاح کنم تا ماتریس کوواریانس تکی نباشد؟ با تشکر **ویرایش:** خوب، بنابراین سعی می کردم همه چیز را ساده نگه دارم، اما شاید بهتر باشد همه چیز را از ابتدا توضیح دهم. من یک سری مدارک دارم. بله، من فقط از 9 سند به عنوان یک مورد آزمایشی ساده استفاده می کنم، اما هدف نهایی من استفاده از آن در یک مجموعه بسیار بزرگتر خواهد بود. من یک ماتریس سند اصطلاحی ساختهام، tf-idf انجام دادهام و SVD را انجام دادهام-- بیشتر با کمک blog.josephwilk.net/.../latent-semantic-analysis-in-python.html اکنون من یک ماتریس بازسازی شده، و من می خواهم اسناد را به دسته ها مرتب کنم. بنابراین، سعی کردم از تحلیل عاملی استفاده کنم. در واقع، به نظر می رسد که کار می کند-- وقتی آن را در SPSS قرار دادم، بارگذاری های فاکتور نشان می دهد که اسناد به گونه ای که من فکر می کردم گروه بندی می شوند، و بارگذاری بالاتر از زمانی است که من SVD را انجام نمی دادم. (اگرچه من فکر می کنم از نظر فنی، SPSS در حال انجام PCA است، حتی اگر تحت عنوان تحلیل عاملی باشد). من سعی کردم از PCANode MDP استفاده کنم، اما به نظر نمی رسد که چیزی نزدیک به آنچه می خواهم به من بدهد. عجیب است، اگر ماتریس خود را جابهجا کنم، تحلیل عاملی کار میکند (به جای اسناد، اصطلاحات را گروه بندی میکند). امیدوارم همه اینها کمی منطقی تر باشد ... | مسئله تحلیل عاملی -- ماتریس کوواریانس منفرد؟ |
94967 | مدل $y_i = \beta_0 + \beta_1x_i + \epsilon_i$ 1 است. ${\rm cov}(e_i، \hat y_i)$ چیست؟ 2. ${\rm cov}(\epsilon_i, \hat \beta_1)$ چیست؟ 3. ${\rm cov}(e_i، \epsilon_i)$ چیست؟ برای 1، من ${\rm cov}(e_i، \hat y_i)$ را به عنوان \begin{align} {\rm cov}(e_i، \hat \beta_0+\hat\beta_1x_i) &= {\rm cov} مینویسم (e_i، \hat\beta_0) + x_i {\rm var}(e_i، \hat\beta_1) \\\ &= {\rm cov}(\bar y - \hat \beta_1 \bar x, y_i-\bar y - \hat \beta_1(x_i-\bar x)) \\\ &= {\rm cov}(\bar y, y_i) - {\rm var}(\bar y) - \bar x {\rm cov}(\hat \beta_1, y_i) + (x_i -\bar x)\bar x{\rm var}(\hat \beta_1) \\\ &= \frac{\sigma^2}{n}-\frac{\sigma^2}{n}-\frac{(x_i - \bar x)\bar x }{\sum (x_i - \bar x)^2}\sigma^2 + \frac{(x_i - \bar x)\bar x}{\sum (x_i - \bar x)^2}\sigma^2 \\\ &= 0 \end{align} برای 2, ${\rm cov}(\epsilon_i, \hat \beta_1) = {\rm cov}(\epsilon_i, \frac{\sum (x_i - \bar x )y_i}{\sum (x_i - \bar x)^2} = \frac{(x_i - \bar x)}{\sum (x_i - \bar x)^2}\sigma^2$ برای 3، \begin{align}{\rm cov}(e_i، \epsilon_i) &= {\rm cov}(\epsilon_i، y_i-\bar y - \hat \beta_1 (x_i-\bar x) ) \\\ &= {\rm cov}(\epsilon_i، y_i) - {\rm cov}(\epsilon_i، \bar y) - {\rm cov}(\epsilon_i، \hat \beta_1(x_i - \bar x)) \\\ &= \sigma^2 - \frac{\sigma^2} {n} - \frac{(x_i - \bar x)^2}{\sum (x_i - \bar x)^2}\sigma^2 \end{align} آیا کسی میتواند نگاه کند در اشتقاق من و به من بگویید اگر اشتباهی وجود دارد؟ | ${\rm cov}(e_i، \hat y_i)$ در رگرسیون خطی ساده چیست؟ |
109290 | طبق گفته MaxEnt، هنگام ایجاد مدل باید تمام عدم قطعیت را حفظ کنیم که آنتروپی را با توجه به دادههای موجود فعلی به حداکثر میرساند. این واقعاً من را گیج میکند، زیرا هنگام ساخت یک مدل (مانند رگرسیون لجستیک)، تمایل داریم آنتروپی متقاطع را به حداقل برسانیم، که به نظر میرسد برخلاف MaxEnt است، آیا من چیزی را در اینجا از دست میدهم؟ | حداکثر آنتروپی و حداقل آنتروپی متقاطع |
17729 | من مجموعه ای از نقاط داده در سه بعدی x,y,z دارم. من می خواهم بتوانم داده ها را به عنوان یک سطح صاف تجسم کنم. به روش دیگری بیان شد: با توجه به آن نقاط، من میخواهم بتوانم z را برای هر x و y دلخواه تعیین کنم به طوری که سطح صاف و پیوسته باشد. ابزارهای موجود هر چیزی است که بتوانم به صورت رایگان در اختیارم قرار دهم. Bias برای پردازش، پایتون یا php است. | چگونه از جمع آوری نقاط داده سطح پیوسته بدست آوریم؟ |
83897 | من در ابتدا در Stack Overflow پست گذاشتم و به من گفته شد که آن را به اینجا منتقل کنم. اگر میخواهم از بین دو مجموعه مختلف ویژگی برای یک ماشین تقویت گرادیان انتخاب کنم، اما نمیخواهم یک مدل کامل را در هر مجموعه آموزش دهم، آیا میتوانم عملکرد را با تعداد درختهای کمتر متمایز کنم؟ فرض کنید بر اساس سایر پارامترها، من به حدود 1000 درخت برای بهترین تناسب در نهایت نیاز دارم. اگر فقط بخواهم ببینم آیا یک مجموعه از ویژگیها احتمالاً بهتر از دیگری عمل میکنند، آیا میتوانم تعداد درختها را به 50 برش دهم و سپس اعتبارسنجی کنم؟ یا حتی 5 تا؟ آیا پیادهسازی بهگونهای کار میکند که بهترین درختها در اوایل انتخاب شوند، و من میتوانم فرض کنم تعداد درختهای کمتر ممکن است نشاندهنده عملکرد نهایی باشد یا در اعتبارسنجی مشکلاتی وجود داشته باشد؟ من از scikit-learn استفاده می کنم، و کمی جدید هستم، بنابراین فقط می خواستم در مورد نحوه عملکرد آن مطمئن باشم. به طور خلاصه، آیا تناسب درختان اولیه تا حدودی نشان دهنده اهمیت ویژگی است؟ با تشکر | انتخاب ویژگی اکتشافی برای تقویت گرادیان |
55660 | من سعی می کنم با استفاده از مقداری داده آموزشی SVM Classifier را یاد بگیرم. و سپس من برای یک مجموعه دیگر (مستقل از داده های آموزشی) پیش بینی می کنم، مقادیر تصادفی C را از 0.000001 تا 50000000 امتحان کردم و دقت همچنان ثابت است. من سعی کردم مجموعه های آموزشی و تست را تغییر دهم، هنوز هم همان خطا را می دهد، لطفاً کد را اینجا ببینید (نمی دانم آیا منطقی است)، اما هر بار که مقدار C را تغییر می دهم و آن را اجرا می کنم، هیچ اتفاقی نمی افتد ورودی = svminput (600:1900) ,:); ورودی = دو برابر (ورودی)؛ تست شده = svminput(1:500,:); تست شده = دو برابر (تست شده); hot2 = داغ (600:1900); برچسب تست = داغ(1:500); svmModel = trainSVM(input,hot2,5000000);// مقدار C در این مورد 5000000 است. پیش بینی = classifySVM(svmModel,testd); sum(abs(prediction -testlabel'))/500 | افزایش مقدار C در SVM (LibSVM) اصلاً دقت را تغییر نمی دهد. |
110784 | من دو مجموعه از مشاهدات چند متغیره پیوسته $X=\\{x_1، x_2، ...، x_d\\}$ و $Y=\\{y_1، y_2، ...، y_d\\}$ دارم. چگونه می توانم مستقل بودن یا نبودن آنها از نظر آماری را توجیه کنم؟ برای سادگی، متغیر دیگری $Z=\\{x_1, x_2, ..., x_d, y_1, y_2, ..., y_d\\}$ را با الحاق $X$ و $Y$ فرض می کنم. علاوه بر این، من توزیع نرمال چند متغیره را برای همه متغیرهای تصادفی $X$، $Y$ و $Z$ فرض میکنم. حال، برای اثبات استقلال آماری، آیا تأیید کردن: $p(Z) = p(X)p(Y)$ کافی است، که در آن $p(Z) = p(X,Y)$ با توجه به مفهوم چند متغیره توزیع و توزیع مشترک در اینجا مورد بحث قرار گرفته است. | چگونگی توجیه استقلال آماری در بین دو مجموعه مشاهدات چند متغیره پیوسته |
94965 | من دو گروه آزمایشی دارم. سپس نرمال بودن آنها را به ترتیب تست می کنم. نتایج نشان می دهد که یکی دارای انحراف مثبت و دیگری دارای انحراف منفی است. در این صورت، چگونه باید تبدیل داده ها را انجام دهم؟ آیا می توانم یک گروه را تبدیل کنم و گروه دیگر را با ورود به سیستم معکوس تبدیل کنم؟ | چگونه داده های دو گروه آزمایشی را تبدیل کنیم؟ یکی دارای انحراف مثبت و یکی منفی.. |
8702 | من در حال بررسی تفاوت بین یک ویژگی فیزیکی گونه های مختلف حیوانات هستم. با توجه به ماهیت آزمایشهایم، از یک مدل ترکیبی غیرخطی با تنظیمات زیر استفاده میکنم: lme(log10(ویژگی) ~ log10(Body.mass) + ضریب (Trial.Number)، تصادفی = ~1 | IndividualID، data= حیوانات، زیرمجموعه=Frfactor==کم، na.action=na.omit ) که در آن subset=Frfactor==low به محدوده سرعت خاصی اشاره دارد که به آن علاقه مندم. من نتایج فوق العاده ای دریافت می کنم که از آن خوشحالم. اما اکنون میخواهم ببینم گونهها چگونه بر ویژگی من تأثیر میگذارند. از آنجایی که شرایط یکسان اعمال می شود (تلفن ها اثرات مکرر) من lme را نگه داشته و ساختار را به: lme(log10(ویژگی) ~ specfactor + factor(Trial.Number)، تصادفی = ~1 | IndividualID، data=animals، subset=Frfactor==low, na.action=na.omit ) که در آن specfactor نام گونه ها را فهرست می کند. با نگاه کردن به مقادیر p به نظر می رسد که این گونه ها تفاوت قابل توجهی با رهگیری (که specfactorserval است) ندارند. با این حال، وقتی من یک باکس پلات ایجاد می کنم، مطمئناً به نظر می رسد که تفاوت های بین گونه ای بزرگی وجود دارد! حدس میزنم چون lme تستی برای رگرسیون است، استفاده از آن هنگام مقایسه ویژگی با متغیرهای طبقهبندی واقعاً منطقی نیست. اما هنوز باید اثرات مکرر را در نظر بگیرم. سوال من این است که آیا راه بهتری برای آزمایش اهمیت بین گونه ها با استفاده از نمودار جعبه وجود دارد؟ من به مقادیر p-معمول، فواصل اطمینان نیاز دارم. به نظر می رسد دستور list از چنین مقایسه هایی کوتاهی می کند. من نمی دانم که آیا آزمون t آن را قطع می کند یا خیر. با تشکر PS من در ابتدا تصویری از نتایج آزمایش خود و باکس پلات ارسال کردم، اما من آنقدر تازه وارد هستم که اجازه ندارم ... | باکس پلات با glme |
110787 | مدل AR(1) را با نوآوری های iid با میانگین و واریانس محدود در نظر بگیرید. همچنین، اجازه دهید X_0 $ = 0 $. \begin{align} X_t = \phi X_{t-1} + \epsilon_t \end{align} هدف بدست آوردن توزیع مجانبی میانگین نمونه است، زمانی که $|\phi| < 1$ و همچنین زمانی که $\phi = 1$ یا $-1$. با توجه به آنچه من می دانم، برای به دست آوردن چنین نتیجه ای، باید قضایایی را از یک دوره سری زمانی دانست. با این حال، این یک سوال تمرینی برای کلاس آمار ریاضی من است، بنابراین ظاهراً یک راه ساده برای انجام این کار وجود دارد که من از دست میدهم. هر بینشی قابل تقدیر است. Btw من از قبل جواب نهایی را می دانم، فقط مراحل را نمی دانم. اگر کمک کند، پاسخ نهایی برای مورد اول این است که $\sqrt{n}(\bar{X}-\frac{\mu}{1-\phi})$ به طور مجانبی نرمال است با میانگین 0 و واریانس $\ frac{\sigma^2}{(1-\phi)^2}$. | میانگین نمونه مدل AR(1). |
110781 | من یک GLM با 5 متغیر مستقل دارم (Gen-Score (GS) (متغیر مستقل مورد علاقه)، جنسیت، سن، خواهر و سال تولد) و می خواهم نشان دهم که GS اندازه گیری توده بدون چربی و توده چربی را پیش بینی می کند. GS به طور قابل توجهی با توده چربی و توده بدون چربی ارتباط مثبت دارد (هر دو در یک مقیاس (گرم) بیان می شوند. تخمین بتا برای توده چربی (FM) بیشتر از توده بدون چربی (LM) است (800 گرم توده چربی / نقطه خطر در مقابل 400 گرم از آنجایی که این تفاوت از نظر بالینی مرتبط است، مایلم نشان دهم که دو تخمین بتا نیز از نظر آماری با یکدیگر متفاوت هستند و GS دارای یک مقدار است. تأثیر بیشتر بر انباشت توده چربی اینها دو رویکرد من بودند که فکر میکنم واقعاً در اینجا مناسب نیستند: اجرای دو همبستگی جداگانه (FM در مقابل GRS و LM در مقابل GRS با متغیرهای کمکی) و سپس مقایسه مقادیر r با استفاده از متغیرهای جزئی. با استفاده از تبدیل فیشر r به z، اما این همان نمونه است و نه دو نمونه مستقل خطا کنید و تخمین های بتا را با استفاده از یک آزمون t ساده مقایسه کنید. (BTW من از راهنمای الکترونیکی SAS برای تجزیه و تحلیل خود استفاده می کنم) متشکرم | مقایسه تخمین های بتا در یک نمونه مشابه، همان متغیرهای وابسته اما مستقل |
28343 | فرض کنید که من یک بردار X از 50 عدد بین 1 تا 10 دارم. سپس واریانس X را محاسبه میکنم. بگذارید بگوییم که 8 میشود، یعنی VAR(X) برابر 8 است. آیا پرسیدن معنادار است. اهمیت آماری این نتیجه؟ اگر بله، چگونه می توانم آن را محاسبه کنم؟ نکته: اگرچه Matlab معنیداری آماری ضریب همبستگی را محاسبه میکند، اما معنیداری واریانس آماری را محاسبه نمیکند. این باعث شد من فکر کنم که شاید پرسیدن معنیداری آماری واریانس معنیدار نباشد. با این حال، به نظر من این یک سوال معنادار به نظر می رسد زیرا برای لیستی از اعداد تصادفی توزیع شده یکنواخت با محدوده معین، برخی واریانس ها کاملاً بعید است. با تشکر احمد | اهمیت آماری واریانس نمونه |
60500 | من می خواهم فرض کنم که دمای سطح دریای دریای بالتیک سال به سال یکسان است و سپس آن را با یک مدل تابع / خطی توصیف کنم. ایده ای که داشتم این بود که سال را به عنوان یک عدد اعشاری (یا num_months/12) وارد کنم و بفهمم که دما در آن زمان چقدر باید باشد. با پرتاب آن به تابع lm() در R، داده های سینوسی را نمی شناسد، بنابراین فقط یک خط مستقیم تولید می کند. بنابراین من تابع sin() را در یک براکت I() قرار دادم و چند مقدار را امتحان کردم تا به صورت دستی تابع را جا بزنم، و این به چیزی که میخواهم نزدیک میشود. اما دریا در تابستان سریعتر گرم می شود و سپس در پاییز کندتر خنک می شود ... بنابراین مدل سال اول اشتباه است ، بعد از یکی دو سال درست تر می شود و بعد در آینده حدس می زنم بیشتر شود. و دوباره اشتباه تر چگونه می توانم R را به دست بیاورم تا مدل را برای من تخمین بزند، بنابراین مجبور نیستم خودم اعداد را حدس بزنم؟ نکته کلیدی در اینجا این است که من می خواهم سال به سال همان مقادیر را تولید کند، نه اینکه فقط برای یک سال درست باشد. اگر در مورد ریاضی بیشتر می دانستم، شاید می توانستم آن را به عنوان چیزی شبیه پواسون یا گاوسی به جای sin() حدس بزنم، اما من نیز نمی دانم چگونه این کار را انجام دهم. هر کمکی برای نزدیک شدن به یک پاسخ خوب بسیار قدردانی خواهد شد. در اینجا دادههایی که من استفاده میکنم و کدی برای نمایش نتایج تا کنون آمده است: # SST از Bradtke و همکاران 2010 ToY <- c(1/12,2/12,3/12,4/12,5/12,6/12,7/12,8/12,9/12,10/12,11/12,12/12, 13/12 ,14/12,15/12,16/12,17/12,18/12,19/12,20/12,21/12,22/12,23/12,24/12,25/ 12،26/12،27/12،28/12،29/12،30/12،31/12،32/12،33/12،34/12،35/12،36/12،3 7/12,38/12,39/12,40/12,41/12,42/12,43/12,44/12,45/12,46/12,47/12,48/12) مدارک <- c(3,2,2.2,4,7.6,13,16,16.1,14,10.1,7,4.5,3,2,2,2,4,7.6,13,16,16,1,14,10.1,7,4.5 ,3,2,2.2,4,7.6,13,16,16.1,14,10,1,7,4,5,3,2,2,2,4,7.6,13,16,16,1,14,10,1,7,4.5) SST <- data.frame(ToY، درجه) SSTlm <- lm(SST$Degrees ~ I(sin(pi*2.07*SST$ToY))) خلاصه (SSTlm) نمودار(SST,xlim=c(0,4) ,ylim=c(0,17)) par(new=T) plot(data.frame(ToY=SST$ToY,Degrees=8.4418-6.9431*sin(2.07*pi*SST$ToY)),type=l,xlim=c(0,4),ylim=c(0 17)) | چگونه یک تناسب خوب برای مدل نیمه سینوسی در R پیدا کنیم؟ |
111780 | چگونه فاصله اقلیدسی (عدم شباهت) بین دو سند، به عنوان مثال، D1 و D2 را با استفاده از _ بسامد نسبی_ محاسبه کنیم؟ در اینجا مثالی از فاصله کسینوس و اقلیدسی بین دو سند با استفاده از _ بسامد مطلق_ آورده شده است. \begin{آرایه}l} D1 ({\rm فرکانسها}) &= 4,9,7,0,0,3 &= \\{16+81+49+9\\} &= \sqrt{155 } &= 12.45 \\\ D2 ({\rm فرکانسها}) &= 4,5,0,7,5,0 &= \\{16+25+49+25\\} &= \sqrt{115} &= 10.72 \end{آرایه} _کسینوس D1,D2 = (4x4+9x5) / 12.45x10.72 = 0.4569 (فرکانس مطلق و نسبی فرکانس) برای فرکانس مطلق کسینوس همان فرکانس نسبی است_ همچنین اقلیدسی D1, D2: \begin{align} &= \sqrt{(4-4)^2 + (9-5)^2 + 7^2 + 7^2 + 5^2 + 3^2} \\\ &=\sqrt{ 0+16+49+49+25+9} \\\ &= \sqrt{148} \\\ &= 12.17 \end{align} (فرکانس مطلق). فرکانس نسبی برای این 0.2532 دلار است. من سعی می کنم فرکانس نسبی (اقلیدسی) را برای این مشکل بدست بیاورم، هیچ آموزشی پیدا نکردم که کمک کند. تنها چیزی که توانستم پیدا کنم پاسخ 0.2532$ بدون فرمول یا توضیح بود. | استفاده از فرکانس نسبی برای فاصله اقلیدسی و کسینوس (عدم تشابه) |
111785 | من یک بردار ناشناخته از اعداد صحیح I، یک ثابت مجهول c دارم و داده های من cI + نویز هستند. نویز میانگین 0 است. مشکل تخمین I است. من می دانم که این امکان پذیر است، زیرا اگر شما تعداد بی نهایت داده داشته باشید و یک هیستوگرام بسازید، قله هایی با فاصله c از هم خواهد داشت. از آن می توانید c را استنتاج کنید و سپس I را با تقسیم داده های خود بر c تخمین بزنید. اما ای کاش می توانستم به دنبال راه حل های استاندارد برای مشکل باشم. مشکل من، اساسا، این است که من نمی دانم نام این وضعیت چیست یا کجا در مورد آن بخوانم. جزئیات دیگری برای مشکل من وجود دارد - به عنوان مثال، نوع خاصی از ناهمسانی در نویز که در نظرات توضیح دادم. با این حال، به من کمک می کند تا منابعی را در مورد هر مشکلی پیدا کنم که در آن نویز cI+ تخمین زده می شود، حتی اگر تمام جزئیات مشکل من را بازتولید نکند. | برای مسئله ای که مجهول بردار اعداد صحیح است و نقاط داده متناسب با آن هستند نام ببرید؟ |
111786 | من سعی میکنم چیزی را که «ویژگیهای اختیاری» مینامم، بررسی کنم، اما از آنجایی که نام مناسب آنها را در آمار نمیدانم، نمیتوانم اطلاعاتی در مورد آنها پیدا کنم. اساساً من به مشکلی نگاه می کنم که گاهی اوقات برخی از ویژگی ها حتی معنی ندارند. به عنوان مثال، اگر برای هر فردی یک ویژگی سن پسر بزرگتر داشته باشم، اگر یک فرد خاص هیچ پسری نداشته باشد چه اتفاقی می افتد؟ چگونه می توان از این ویژگی برای تخمین رگرسیون یا چگالی استفاده کرد؟ با عرض پوزش بابت سوال ساده لوحانه دانستن اینکه این نوع ویژگی ها در آمار یا یادگیری ماشینی چه نامیده می شوند بسیار مفید خواهد بود. | ویژگی های اختیاری |
111789 | من در حال حاضر در میانه تجزیه و تحلیل داده ها برای پایان نامه کارشناسی ارشد هستم و در درک تحلیل عاملی با مشکل زیادی مواجه هستم. من داده ها را با استفاده از یک پرسشنامه جمع آوری کردم که در آن سوالات را به 3 دسته تقسیم کردم، در مجموع 9 مورد در پرسشنامه وجود دارد - 3 سوال برای هر دسته. سرپرست من به من گفته است که تحلیل عاملی راهی برای تجزیه و تحلیل مجموعه دادههای من است، با این حال، من در تلاش برای درک این موضوع هستم که چرا سوال تحقیق من بر میزان رضایت یک جمعیت شناختی خاص از این سه دسته متمرکز است. آیا کسی می تواند به من توضیح دهد که چرا تحلیل عاملی باید با این مجموعه داده ها اجرا شود و چگونه به پاسخ به سؤال تحقیق من کمک می کند؟ و اگر تحلیل عاملی اکتشافی راهی برای رفتن به اینجاست؟ (من AMOS یا هیچ نرم افزار دیگری که بتواند CFA را انجام دهد ندارم...) تا کنون با استفاده از چرخش varimax روی SPSS آنالیز عاملی اجرا کرده ام (به نظر می رسد فاکتورها با توجه به ماتریس ضد تصویر با هم ارتباط ندارند) و به پایان رسیده اند. با 3 مؤلفه که تقریباً منعکس کننده دسته بندی هایی است که من برای بررسی انتخاب کردم. کامپوننت 2 بیشترین بارگذاری را دارد، به دنبال آن جزء 1 و سپس 3 قرار می گیرند و من به هر جزء یک برچسب داده ام. آیا کسی می تواند به من بگوید که چگونه می توانم با استفاده از این یافته ها به سؤال تحقیق خود پاسخ دهم؟ وزن گیری واقعاً به چه معناست؟ آیا می توانم از این داده ها استفاده کنم تا بفهمم کدام مؤلفه برای جمعیت من مهم است و کدام کمتر؟ با عرض پوزش بابت حجم زیاد سوالات، من واقعا در درک آمار ضعیف هستم! [ویرایش] بنابراین من امروز توانستم AMOS را در دست بگیرم و CFA را برای آزمایش مدل 3 عاملی که از اجرای EFA پیدا شد، اجرا کردم. پس از مطالعه نحوه تفسیر خروجی CFA، هنوز کاملاً نمی دانم که چگونه می تواند به سؤال تحقیق من پاسخ دهد. هدف تحقیق من این است که ببیند مادران در بخش آموزش چگونه خود را راضی در زمینه های سیاست زایمان، ترتیبات کاری انعطاف پذیر و فرصت هایی برای توسعه شغلی می دانند. با استفاده از 3 عاملی که با اجرای EFA پیدا شد، مدل 3 عاملی را روی AMOS ترسیم کردم و تخمین ها را برای من محاسبه کرد. مدل تناسب خوبی را نشان میدهد، اما من در درک وزنهای رگرسیون با مشکل مواجه هستم. 2. آیا فقط مقادیر معنی دار (p < 0.05) برای گزارش مهم هستند؟ از 9 متغیر مشاهده شده، تنها سه متغیر از متغیر نهفته 1 (توسعه شغلی) و یک متغیر از متغیر نهفته 2 (کار انعطاف پذیر) معنی دار بودند. 3. آیا این مقادیر معنی دار به این معنی است که بیشترین اهمیت را در توضیح متغیرهای نهفته دارند؟ 4. آیا می توانم از این وزن های رگرسیونی برای پاسخ به سؤال تحقیقم با فرض اینکه متغیرهای مشاهده شده قابل توجه برای جمعیت شناختی من رضایت بخش هستند استفاده کنم؟ | تحلیل عاملی در SPSS و CFA در AMOS |
48847 | من در حال آزمایش با انتخاب ویژگی $\chi^2$ برای برخی از وظایف طبقه بندی متن هستم. من میدانم که تست $\chi^2$ وابستگیهای B/T دو متغیر طبقهبندی را بررسی میکند، بنابراین اگر انتخاب ویژگی $\chi^2$ را برای یک مشکل طبقهبندی متن باینری با نمایش بردار BOW باینری انجام دهیم، هر کدام $\chi^2 تست $ روی هر جفت (ویژگی، کلاس) یک تست $\chi^2$ بسیار ساده با 1 درجه آزادی خواهد بود. به نقل از مستندات: http://scikit- learn.org/stable/modules/generated/sklearn.feature_selection.chi2.html#sklearn.feature_selection.chi2، > از این امتیاز می توان برای انتخاب ویژگی های n_features با بالاترین > استفاده کرد. مقادیر آماره χ² (chi-square) از X، که باید حاوی بولی > یا فرکانس باشد (به عنوان مثال، تعداد ترم ها در طبقه بندی اسناد)، نسبت به کلاس ها. به نظر من میتوانیم انتخاب ویژگی $\chi^2$ را نیز در نمایش برداری DF (تعداد کلمات) انجام دهیم. ** سوال اول من این است: ** چگونه sklearn ویژگی با مقدار صحیح را به دسته بندی تفکیک می کند؟ سوال دوم من شبیه سوال اول است. از کدهای نمایشی در اینجا: http://scikit- Learn.sourceforge.net/dev/auto_examples/document_classification_20newsgroups.html به نظر من میتوانیم انتخاب ویژگی $\chi^2$ را روی یک نمایش برداری TF*IDF نیز انجام دهیم. **سوال دوم من این است:** sklearn چگونه انتخاب ویژگی $\chi^2$ را روی ویژگی های با ارزش واقعی انجام می دهد؟ | چگونه scikit-learn انتخاب ویژگی $\chi^2$ را روی ویژگیهای غیر طبقهبندی انجام میدهد؟ |
110789 | آیا اجرای R برای تست سه گانه برای تقارن وجود دارد؟ به طور مشخص تست رندلز-فلیگنر-پلیسلو-ولف؟ من جستجو کردم و نتوانستم یکی را پیدا کنم، اما این به این معنی نیست که وجود ندارد. -کرک | تست سه گانه در R؟ |
66968 | من فکر کردم Revolution Analytics یک ارائه در مورد نحوه استفاده از RHadoop برای انجام KNN توزیع شده دارد. آیا واقعاً کسی قبلاً این کار را انجام داده است، با هر وبلاگ یا مرجع دیگری در مورد نحوه انجام آن آشنا است؟ من از هر راهنمایی قدردانی می کنم! | K نزدیکترین همسایه را با استفاده از RHadoop توزیع کرد |
48848 | من یک مدل GLM نصب شده دارم: `m1=glm(y~x,family=poisson,data=data)`. من میخواهم از این مدل برازش شده برای شبیهسازی دادههای جدید استفاده کنم، اما «شبیهسازی(m1,nsim=1)» فقط برای مقادیر x اصلی که برای برازش مدل استفاده میشوند، نتیجه میدهد. آیا می توان از تابع شبیه سازی برای تولید y از مقادیر x جدید استفاده کرد؟ | استفاده از مدل GLM برازش برای شبیه سازی y از مقادیر x جدید |
111034 | گیماراس و همکاران (Rev Econ Stat, 2003, 85/1) شرایطی را توصیف می کند که تحت آن نتایج حاصل از مدل های رگرسیون پواسون و مدل های لاجیت شرطی معادل هستند. من سعی میکنم بفهمم که آیا این نتیجه برای دادههای پانل جلوههای ثابت نیز صادق است یا خیر. ii) برای مدل های دو جمله ای منفی. و iii) (به خاطر کامل بودن) مدل های دوجمله ای منفی با اثر ثابت. اگر بتوانید برخی از ادبیات مرتبط را به من معرفی کنید، بسیار مفید خواهد بود. | آیا هم ارزی مدل های پواسون و لاجیت شرطی برای داده های تابلویی اثر ثابت و مدل های دوجمله ای منفی برقرار است؟ |
48845 | مزایای بدست آوردن یک مجموعه داده جدید که در آن تمام ابعاد آنها مستقل از یک مجموعه داده اصلی است (استفاده از PCA) چیست؟ میدانیم که میتوانیم فضای ذخیرهسازی مورد نیاز را کاهش دهیم، محاسبات را تسریع کنیم یا ویژگیهای اضافی را پس از انجام PCA حذف کنیم. اما چه محاسباتی در یک دیدگاه آماری یا احتمالی، زمانی که همه ابعاد متعامد هستند، تسریع یا سودمند می شوند؟ | در بدست آوردن ابعاد متعامد از یک مجموعه داده سود ببرید |
48849 | هنگام انجام چندین انتساب با بسته MICE در R، منابعی (http://www.statisticalhorizons.com/more-imputations) پیدا کردم که حدود 10 انتساب را توصیه می کنند. میخواستم بدونم که آیا اشکالی به عنوان مثال وجود دارد. انجام 1000 یا 10000 انتساب همانطور که باید به نتایج دقیق تری منجر شود و آیا از نظر محاسباتی به راحتی امکان پذیر است؟ | انتساب چندگانه از طریق بسته MICE: آیا حد بالایی برای تعداد انتساب وجود دارد؟ |
50875 | یکی از دوستان اخیراً این مشکل را برای من مطرح کرد: آیا می توان یک Chi-square در نتایج آزمون برای گروهی از شرکت کنندگان انجام داد تا مشخص شود که خطاهای نوع A بیشتری داشته اند یا نوع B؟ من می دانم که آمار خاصی برای طراحی جداول درون موضوعی در نظر گرفته شده است. با این حال، میخواستم ببینم آیا میتوانم پاسخی را در زمینه Chi-square بیاندیشم یا خیر. دوستم اشاره کرد که نگرانی بزرگ آنها این بود که انجام این کار در چارچوب Chi-square به منزله نقض فرض استقلال باشد. ماهیت فرض استقلال در طرح های سلسله مراتبی تصور من این است که راهی وجود دارد که در آن فرض استقلال به سلسله مراتب طرحی که میخواهیم به آن تعمیم دهیم بستگی دارد. به عنوان مثال، در مسئله فوق، اگر فقط بخواهم به میزان خطای نوع A/B آن موضوعات خاص تعمیم دهم، آیا استفاده از Chi-square را توجیه می کنم؟ | آیا فرض استقلال با تعمیم پذیری نتایج در طرح های سلسله مراتبی تعامل دارد؟ |
110783 | من یک مطالعه بسیار ضعیف طراحی کرده ام، و باید راهی برای تجزیه و تحلیل داده هایی که جمع آوری کرده ام پیدا کنم. در اینجا شرحی از طراحی آمده است: دو متغیر درون موضوعی وجود دارد، یکی با چهار سطح و دیگری با دو سطح (یعنی یک ماتریس 2×4 از انواع محرک های ممکن وجود دارد). اگرچه هشت سلول وجود دارد، اما هر شرکت کننده در مجموع 12 مورد را می بیند (هر کدام به عنوان 0 یا 1 رتبه بندی می شوند). بنابراین، شرکت کنندگان یک یا دو مورد از هر سلول را رتبه بندی می کنند. این در بین شرکت کنندگان متعادل است (به طور خاص، دو مجموعه محرک ممکن وجود دارد که در هر سلول سه مورد وجود دارد). جلوه های اصلی به اندازه کافی آسان هستند، اما فهمیدن اینکه چگونه به دنبال اثر تعاملی بگردید بسیار دشوار می شود. برای تحلیل این موضوع، باید این واقعیت را در نظر بگیرم که برای هر شرکتکننده، تعداد نابرابر مشاهدات در بین هشت نوع محرک مختلف وجود دارد. همانطور که می بینم، می توانم به طور تصادفی چهار مورد از موارد غیرمستقل را از هر شرکت کننده حذف کنم (فقط یک مورد در هر سلول باقی می ماند)، اما در صورت امکان می خواهم از این موضوع دوری کنم. از طرف دیگر، میتوانم رتبهبندی متوسطی را در هر سلول به دست بیاورم (که میتواند 0، 0.5 یا 1 باشد)، اما این باعث میشود که برخی از آیتمها بیشتر از بقیه وزن شوند. از آنجایی که هیچکدام از این گزینه ها به ایده آل نزدیک نمی شوند، از هرکسی که برای چیز بهتری راهنمایی داشته باشد، بسیار سپاسگزار خواهم بود!! خوشحال می شوم توضیح دهم که آیا این توصیف نامشخص است. | چگونه داده ها را با مشاهدات نابرابر در هر سلول تجزیه و تحلیل کنیم؟ |
111784 | اجازه دهید $X_{i} \sim U(0, \theta) $ و $X=(X_1,\dots,X_n)$. نشان دهید که $$ \frac{X_{(1)}}{X_{(n)}}$$ کمکی برای تتا است، من نمیتوانم راهی برای انجام آن پیدا کنم که راحت به نظر برسد. هر ایده ای؟ P.s: $X_{(i)} $ آمار ترتیب بردار است | نشان دهید که یک آمار فرعی است |
110426 | من یک ماتریس همبستگی $A$ دارم که با استفاده از ضریب همبستگی خطی پیرسون از طریق ()corrcoef Matlab به دست آوردم. ماتریس همبستگی با ابعاد 100x100، یعنی ماتریس همبستگی را روی 100 متغیر تصادفی محاسبه کردم. در میان این 100 متغیر تصادفی، من میخواهم 10 متغیر تصادفی را پیدا کنم که ماتریس همبستگی آنها تا حد ممکن همبستگی کمی دارد (به کمیت کردن میزان همبستگی بیشتر یک ماتریس همبستگی A در مقایسه با ماتریس همبستگی B در رابطه با معیارهای اندازهگیری مراجعه کنید. همبستگی کلی در یک ماتریس همبستگی). من فقط به همبستگی زوجی اهمیت می دهم. آیا روش های خوبی برای یافتن آن 10 متغیر تصادفی در مدت زمان معقول وجود دارد (مثلاً نمی خواهم ترکیبات $\binom{100}{10}$ را امتحان کنم)؟ الگوریتم های تقریب درست هستند. | کمترین همبستگی زیرمجموعه متغیرهای تصادفی از یک ماتریس همبستگی |
79998 | می دانم که این را می توان ساده لوحانه در نظر گرفت. اما واقعیت این است که من یک دانشجوی علوم کامپیوتر هستم که دوره مقدماتی تجزیه و تحلیل داده ها (Coursera) و دوره اقتصاد سنجی I را در دانشگاه خود گذرانده ام. در حالی که من مفهوم CI را درک کردم، هنوز احساس می کنم که عناصر گمشده زیادی در تفسیر من وجود دارد. بنابراین من آنچه را که همه باید در مورد CI بدانند جستجو کردم و نتوانستم آن را پیدا کنم. من احساس می کنم که باید یکی به خاطر مردم اینترنت وجود داشته باشد. شاید این انجمن بتواند به این امر کمک کند! به روز رسانی: برای نظر NickCox@: من مطمئن نیستم که چرا نمی توانیم بگوییم که مقدار واقعی در CI وجود دارد؟ بلکه به این واقعیت متوسل می شویم که اگر آزمایش را 100 بار انجام دهیم، مقدار واقعی را 95٪ برابر خواهیم کرد (اگر pvalue را 0.05 در نظر بگیریم). | همه باید در مورد فاصله اطمینان بدانند؟ |
114977 | من دو نمونه با چندین متغیر دارم. من ضرایب همبستگی پیرسون را بین هر جفت متغیر در هر نمونه محاسبه می کنم. چگونه می توانم ضرایب پیرسون متناظر کارآمد دو نمونه را (برای یک جفت متغیر خاص) مقایسه کنم؟ آیا باید هر جفت ضریب پیرسون متناظر را به طور مستقل با هم مقایسه کنم یا اینکه می توان هر جفت همبستگی را در یک معیار واحد از سر گرفت؟ هدف این است که ببینیم آیا ساختار همبستگی در هر نمونه یکسان است یا خیر. با تشکر از همه برای کمک! آرنو | تست همبستگی چند نمونه |
56113 | مثال مضحک زیر را در نظر بگیرید. در اینجا یک سوال تحقیقی واقعی و غیر مسخره وجود دارد، قول میدهم -- فقط کمی ناراحتم که چیزی را که دارم روی اینترنت با جزئیات زیاد روی آن کار میکنم پست کنم. (و امیدوارم کمی سرگرم کننده تر باشد): نژادی از میمون های فضایی هوشمند به زمین آمده اند، میمون های زمینی معمولی را از باغ وحش ها آزاد کرده و جای آنها را گرفته اند. این میمونهای فضایی هوشمند در واقع دانشجویان فارغالتحصیل دانشگاه میمونهای فضایی هستند و آزمایشی را از طرف یک استاد میمون فضایی انجام میدهند: آنها میخواهند تخمین بزنند که چگونه خوشحالی باغوحشبازان انسانی با پرتاب فضولات به سمت آنها تغییر میکند. (این یک مشکل مهم و حل نشده در روانشناسی فراسیاره ای است، و پروفسور Spacemonkey به دنبال یک میخانه در معتبر _Ann. Improb. Res._ است) آنها همچنین علاقه مند هستند که چه چیزی این تغییرات مشاهده شده را تعدیل می کند، به نفع اعتبار خارجی و امیدوارم پیش بینی خارج از نمونه بهتر باشد. نکته مهم این است که این میمونهای فضایی میتوانند چنگالهایی را در فضا-زمان ایجاد کنند، که به موجب آن ممکن است هم درمان (فضولات پرتابشده) را برای تماشاگران نمونه خود اعمال کنند و هم از آن استفاده نکنند. علاوه بر این، هر گروه از مونکیهای فضایی باغوحش، جهانهای موازی $m \geq 2$ را ایجاد میکنند، که یکی از آنها همیشه صفر مدفوع دارد، و بقیه فضولات با شدتهای مختلف پرتاب میشوند. **بنابراین، مجموعه داده شامل آزمایشها میشود -- درمانها را در شدتهای مختلف با کنترلهای درماننشده مشابه مقایسه میکند. با توجه به شدت $t \in T > 0$، و سطح متوسط شادی $H^{\text{بدون مدفوع}}$ از همان جمعیت در جهان کنترل، که در آن $T = 0 $. علاوه بر این، او ویژگی های مخاطب و همچنین آمار خلاصه مخاطبان را مشاهده می کند $\mathbf{X}$. او که قبل از ورود به روانشناسی فراسیاره ای به عنوان یک بوم شناس آموزش دیده است، با نمایش این نوع داده ها در قالب نسبت های پاسخ آشنا است: $RR \equiv log\left(\frac{H^{\text{Excrement}} {H^{\text{بدون مدفوع}}} \right)$. با جمعآوری دادهها، او بلافاصله یک مدل متارگرسیون را مشخص میکند: $$ RR_{iz} = \alpha + \tau_z + f\left[T_{iz}, \mathbf{X}_z \right] +\epsilon_{iz} $$ که در آن $\alpha$ یک رهگیری است، $\tau$ یک اثر تصادفی در سطح باغ وحش است، $i$ یک مقایسه کنترل درمان خاص را نمایه میکند، و $z$ باغ وحش ها را فهرست می کند. پروفسور Space Monkey از mgcv استفاده می کند، بنابراین کتابخانه(mgcv) mod = gam(RR~ s(zoo, bs = re) + s(T) + s(x1) + s(x2) + te(T) را کدگذاری می کند. ,x1,x2) ) برخی از داده ها را برای پروفسور Space Monkey شبیه سازی می کنیم: zoo = سقف (runif(1000)*10) T = runif(1000)*10 x1 = rnorm(1000) x2 = rnorm(1000) RR = -.4*T + 0.0005*T^2 + 0.69*sin(x1) + 0.042*exp(x2) + T *x1*x2*.314 + zoo*.5 +rnorm(1000)*5 پس از نصب مدل، پروفسور Space Monkey وقتی متوجه میشود که انتظار $RR$ صفر نیست وقتی $T=0$ است! vis.gam(mod,view=c(T,x2), plot.type=contour)  این هیچ معنایی ندارد! با ساخت، متغیر وابسته باید صفر باشد زمانی که دفع مدفوع وجود ندارد! پروفسور Spacemonkey مضطرب است. او نمی تواند فقط رهگیری را در رگرسیون حذف کند -- این امر باعث سوگیری چیزها می شود و حتی مشکل را حل نمی کند، زیرا x1 و x2 همچنان باعث می شود که $\hat {RR}$ حتی در T=0 نیز غیر صفر باشد. قهرمان ما یک شب در تخت فضایی خود می چرخد و یک ایده دارد! او به سادگی درمان (پرتاب مدفوع) را با کل سمت راست مدل انجام می دهد: $$ RR_{iz} = f(T_{iz}) + f(T_{iz}) \times \tau_z + f\left[T_{iz} \times\mathbf{X}_z \right] +T_{iz} \times \epsilon_{iz} $$ زیرا ثابت = 1. عالیه شهود مدل در حال حاضر کمی متفاوت است: نسبت پاسخ تابعی از شدت مدفوع است، که اثر آن توسط ویژگیهای فردی تجربهکنندگان باغ وحش انجام میشود. این ویژگی های سطح باغ وحش به دلیل ماهیت متغیر وابسته به عنوان یک نسبت، اثرات اصلی ندارند. برخی از این ویژگیهای آزمایش باغوحش قابل مشاهده و مدلسازی بهعنوان جلوههای ثابت هستند، در حالی که برخی نیستند، و بهعنوان جلوههای تصادفی وارد میشوند. نکته مهم این است که انتظار $RR$ اکنون صفر است زمانی که $T$ صفر باشد. این مدل نیز اکنون هتروسکدااستیک است، بنابراین شاید برای فواصل اطمینان به یک راهانداز وحشی نیاز باشد. (؟). اما او چهار نگرانی دارد: * چگونه این را در R کد می کند؟ اثر تصادفی اکنون سطحی از شدت دارد که توسط شدت مدفوع پرتاب شده دیکته می شود. * مدلهای افزودنی تعمیمیافته، عبارتهای صاف را به مجموع صفر \-- محدود میکنند، اما این با محدودیتی که $E[RR]\rightarrow 0$ به عنوان $T\rightarrow 0$ سازگار است، ناسازگار است. چه باید کرد؟ * آیا واقعاً راهاندازی وحشی راهی برای به تصویر کشیدن ماهیت ناهمگون مدل است؟ * همانطور که این ایده هوشمندانه به نظر می رسد، پروفسور Space Monkey واقعاً نگران است که ممکن است در جایی مرتکب خطا شود. مجهولات ناشناخته و اینها. پیشنهادات خیلی | روش های اصولی برای محدود کردن $E[Y]=0$ هنگامی که یکی از واپسگراهای شما $\rightarrow$ 0 |
91768 | آیا می توانیم در مورد توزیع مجموع متغیرهای تصادفی not iid چیزی بگوییم؟ | آیا قضیه حد مرکزی فقط برای متغیرهای تصادفی iid کار می کند؟ |
111783 | من خواندم که الگوریتم MCMC برای رسم نمونه از یک توزیع استفاده می شود. مثال ذکر شده در کتاب درسی در مورد یک ماتریس 6x6 است که پس از 1000 تکرار به یک ماتریس حالت پایدار 1x6 مطابق شکل زیر همگرا می شود.  بسیار خوب، میدانم چگونه به بخش حالت حالت میرسد، [0.1، 0.2، 0.2، 0.2، 0.2، 0.1] آیا نمونه هایی از این ماتریس تولید می کنم؟ اینجاست که من گیج شدم. | الگوریتم MCMC برای تولید نمونه |
66964 | در رگرسیون چندگانه، نمودارهای باقیمانده یک رابطه منفی بین مقدار باقیمانده و مقدار پیشبینی شده را نشان میدهند. به چه معناست؟ چگونه باید به این موضوع رسیدگی کنم؟ در اینجا یک تصویر برای کمک به توضیح وضعیت است. باز هم برای کمک متشکرم!  | همبستگی منفی بین مقدار باقیمانده رگرسیون و مقدار پیش بینی شده |
111788 | فرض کنید من 10 گروه مختلف دارم و هر گروه دنباله رشته خود را دارد. پس باید اینگونه باشد: G1 -> CHFAIEBD G2 -> HCFJIGBD G3 -> HCFAIJBD G4 -> HFCIJEBD G5 -> ..... سوال این است: **آیا آزمون آماری وجود دارد که بگوییم ترتیب در آن 10 گروه ها شبیه هستند؟** می دانم که به نظر شبیه است، اما نمی دانم چگونه از نظر آماری آن را ثابت کنم. من واقعاً از نظر شما در این مورد سپاسگزارم. | اندازه گیری ترتیب و تشابه |
96612 | من سعی میکنم توزیعهای آماری مختلف (گاما، پواسون، نرمال، گاوسی معکوس) را با یک glm به دادههای خود برازانم. یک مثال می تواند مانند این باشد: data <- rexp(500, 3) model <- glm(data~1, family=Gamma()) shape <- 1 / gamma.dispersion(model) rate <- shape*model$coef [1] model2 <- glm(data~1, family=poisson()) lambda <- unique(model2$fitted.values) بنابراین، در اینجا سؤالات وجود دارد: 1. اگر بخواهم بین همه آنها بهترین توزیع مناسب با glm را انتخاب کنم، آیا می توانم از مدل های AIC استفاده کنم؟ یا باید از روش دیگری مثل MSE استفاده کنم؟ به این دلیل است که من نتایج واقعاً متفاوتی از توزیعی به توزیع دیگر دارم. 2. قبلاً میدانم که بستههای «fitdistrplus» یا «MASS» شامل توابع خاصی برای انجام این کار هستند، اما برای دادههای من بسیار کند است. اگر از آن توابع برای تناسب داده ها استفاده کنم، بیشتر اوقات در نتیجه یک توزیع نمایی دریافت می کنم. آیا راهی برای تطبیق آن با خانواده های glm وجود دارد؟ **بهروزرسانی:** دادهها از سفارشهای فروش میآیند، اما همیشه بیشتر از 0 است، به همین دلیل است که میتوانم از توزیع نمایی یا گاما استفاده کنم. (فقط برای مواردی که تعداد سفارشات آنقدر زیاد است که قسمت منفی زیر منحنی تقریباً 0 باشد، نرمال را درج کنید). همچنین، من نیاز به توزیع برای شبیه سازی از آن، یک سری جدید. با نتایجی که توسط AIC نشان داده شد، نمی توانم آنها را برای به دست آوردن بهترین تناسب رقابت کنند. من یک آزمون رسمی میخواهم، اما به آن هم نیاز دارم که خیلی سریع باشد، بنابراین به یک تقریبی یا چیزی اکتشافی بسنده میکنم. | توزیع مناسب با glm |
50878 | من فقط می خواهم تأیید کنم که آیا امکان معکوس کردن علامت (+/-) روی بارهای عاملی یک عامل وجود دارد یا خیر. من یک PAF را با چرخش Oblimin اجرا می کنم. من 6 عامل را به دست آوردم اما در یکی از آنها مواردی که در فاکتور بارگذاری می شوند دارای مقادیر منفی هستند. خواندهام که این از نظر تفسیر درون یک عامل مرتبط نیست، بنابراین میتوان همه نشانههای عامل را برای تسهیل تفسیر، به عنوان مثال، در ماتریس همبستگی تغییر داد. من از SPSS استفاده می کنم. شاید یک تصویر به من کمک کند تا بهتر توضیح دهم. سوال من در رابطه با فاکتور 4 است | عامل معکوس بارگذاری منفی به مثبت؟ |
66963 | من سعی میکنم با استفاده از کتابخانه nlme در R، یک مدل ترکیبی را با دادههایم تطبیق دهم. این چیزی است که دارم: df <- data.frame(phen = phen.info.box[,2]، hap = as.factor(موس. haps)، strain = as.factor(mouse.strains)) fit <- nlme(model = phen ~ hap + (1|strain)، داده = df، ثابت = hap ~ 1، تصادفی = فشار ~ 1، start = rep(1، 832)، همبستگی = K) و خطایی که دریافت می کنم این است: خطا در getGroups.data.frame(dataMix, eval(parse(text = paste(~1 , deparse(groups[[2]]), : فرمول نامعتبر برای گروهها من میخواهم کارهای پیچیدهتری انجام دهم، اما مشکل دارم من فقط در حال اجرا شدن این مدل هستم اسنادی که به سادگی قرار دادن fixed = var ~ 1 یک اثر ثابت واحد را نشان می دهد، چیزی که من می خواهم. من باید به جای lme4 از nlme استفاده کنم زیرا تا آنجا که من متوجه شدم lme4 به من اجازه نمی دهد ماتریس واریانس کوواریانس را روی اثرات تصادفی مشخص کنم و این برای من مهم است (خط همبستگی = K را ببینید.) خوب، من من برای این رای منفی دارم و مطمئن نیستم چرا. من فرض میکنم افرادی هستند که فکر میکنند «این سؤال حتی برای پرسیدن آن آسانتر است -- سؤالکننده باید اصلاً سعی نکرده آن را حل کند!». من اسناد و نمونهها را به صورت آنلاین جستجو کردهام و نمیتوانم، تا آخر عمر تفاوت بین نحوه انجام آن و این مثالی را که آنلاین پیدا کردم، ببینم: nlme.fit <- nlme(lgcopy ~ logexp2(p1,b1, p2،b2، روز)، ثابت = p1+b1+p2+b2 ~1، تصادفی = p1+b1+p2+b2 ~1، داده =aids.dat,start=c(start)) که ظاهرا کار می کند. | سوال مبتدی nlme |
113779 | (من یک سوال مشابه را در math.se پست کردم.) در هندسه اطلاعات، تعیین کننده ماتریس اطلاعات فیشر یک فرم حجم طبیعی در یک منیفولد آماری است، بنابراین تفسیر هندسی خوبی دارد. برای مثال، این واقعیت که در تعریف یک جفریز قبلی ظاهر میشود، به تغییر ناپذیری آن در پارامترهای مجدد مرتبط است، که (imho) یک ویژگی هندسی است. اما آن عامل تعیین کننده در _آمار_ چیست؟ آیا چیزی معنادار را می سنجد؟ (به عنوان مثال، من می گویم که اگر صفر باشد، پس پارامترها مستقل نیستند. آیا این جلوتر می رود؟) همچنین، آیا حداقل در برخی موارد آسان هیچ فرم بسته ای برای محاسبه آن وجود دارد؟ با تشکر | تعیین کننده اطلاعات فیشر |
114201 | من سعی می کنم یک رگرسیون چندک (شرطی) اجرا کنم، نتیجه من $(Y)$ درآمد است، و رگرسیون $(X)$ همگی گسسته هستند. سوال من این است که چه تفاوتهایی وجود دارد، اگر وقتی روی یک زیرمجموعه جزئی $(X=x)$ تمرکز میکنم، بین * $\beta_{\tau}$ که با استفاده از کل توزیع به دست میآورم * چیزی که برای محدود کردن خود به دست میآورم چه تفاوتهایی وجود دارد. نمونه به افرادی که به گونه ای هستند که $X=x$ هستند. Thx | تفسیر رگرسیون چندکی با متغیرهای گسسته، کل نمونه در مقابل نمونه فرعی |
110236 | من یک داده نظرسنجی دارم که دارای یک متغیر وابسته (تجربه کلی) و چندین متغیر مستقل (کیفیت غذا، خلاقیت منو و غیره) است. کارت امتیازی پاسخ برای متغیرهای وابسته و مستقل به شرح زیر است: عالی 5 خیلی خوب 4 خوب 3 خوب 2 ضعیف 1 با توجه به درک من و آنچه خوانده ام، نمی توانم یک رگرسیون خطی ساده را اجرا کنم و بنابراین رگرسیون لجستیک را انتخاب کرده ام. . آیا کسی می تواند مرا در جهت درست در رابطه با رگرسیون لجستیک با استفاده از R راهنمایی کند. | اجرای رگرسیون لجستیک بر روی داده های نظرسنجی |
114204 | من از LIBSVM برای انجام برخی آموزش ها استفاده می کنم همانطور که توسط Andrew Ng توصیه شده است و در SciKit Learn از آن در زیر هود استفاده می شود. LIBSVM کاری متفاوت از آنچه من انتظار دارم انجام می دهد: باورهای من به شرح زیر است: * وقتی LIBSVM برای استفاده از یک هسته خطی تنظیم می شود، یک پیاده سازی معقول از یک SVM خطی است * یک مدل SVM خطی باید فقط یک سطح فوق العاده و یک حاشیه باشد. * یک فوق صفحه بعدی n-1 را می توان با یک بردار n بعدی و ثابت نشان داد. * پیش بینی انجام شده در برابر یک هایپر صفحه منفرد باید با توجه به تعداد نمونه های آموزشی مورد استفاده برای آموزش مدل ثابت باشد. * SVMهای هسته خطی تقریباً معادل رگرسیون لجستیک هستند. هر چند درک من به چالش کشیده شده است. مدلهای LIBSVM که با یک هسته خطی آموزش داده شدهاند، بسته به نحوه آموزش مدل، زمانهای پیشبینی متفاوتی را نشان میدهند. وقتی به فایل مدل نگاه می کنم، به جای یک بردار، تعداد زیادی وکتور در فایل وجود دارد. آیا کسی می تواند آنچه را که من از دست داده ام روشن کند؟ | زمان پیشبینی خطی SVM به روشی غیرمنتظره بر اساس دادههای آموزشی مقیاسبندی میشود. |
57242 | چگونه می توانم این تعامل 4x4 را گزارش کنم (این بخشی از ANOVA 4x4x2 است)؟ این یک تعامل بین گروه بندی عوامل (اکتشافی گشتالت برای گروه بندی بصری شکل های ترکیبی) و اندازه مجموعه (تعداد تصاویر ارائه شده) در یک کار جستجوی بصری است. یکی از فرضیه ها این است که «بین شرط گروه بندی و اندازه مجموعه تعامل وجود دارد». آیا من SD یا SE را گزارش کنم؟ آیا چیزی شبیه به این است: اثر متقابل قابل توجهی بین گروه بندی و اندازه تنظیم وجود دارد، F(3.23، 42.04) = 3.107، p = 0.033، ηp2 = 0.193. مقایسه پس از انجام آزمایش نشان داد که زمان واکنش به طور قابل توجهی با افزایش اندازه مجموعه در هر یک از شرایط گروه بندی افزایش می یابد، همانطور که در شکل 1 مشاهده می شود. ایجاد جدولی از میانگین های 4x4 نیز کمی اضافی به نظر می رسد، زیرا من قبلاً داشتم یکی برای توضیحات 4x4x2. همچنین برای قرار دادن آن به عنوان متن، تعداد زیادی از کلمات من را به خود اختصاص می دهد، نه اینکه خواندن آن چقدر وحشتناک است. من همچنین اثرات و تعاملات اصلی دیگری برای گزارش دارم، بنابراین ایجاد یک بخش نتایج پر از جداول و نمودارها ایده بدی به نظر می رسد. وسایل و SD ها را کجا ذکر کنم؟ آیا باید SD یا SE را گزارش کنم؟ آیا می توانم فقط وارد کنم (برای اطلاعات بیشتر به پیوست A مراجعه کنید)؟  شکل 1. این برای گزارشی است که من به عنوان یک دانش آموز دارم می نویسم و احساس راحتی نمی کنم که یک دسته از الکترونیک را ارسال کنم. -ایمیل هایی که از استادم در مورد همه چیز می پرسند. هر گونه کمکی بسیار قدردانی خواهد شد. | چگونه می توانم یک تعامل 4x4 ANOVA را گزارش کنم |
79990 | من باید یک تکلیف را حل کنم که در آن از من خواسته می شود این کد را تغییر دهم تا MLE ها را برای توزیع عادی اریب پیدا کنم. (این در واقع مسئله 7 از فصل 5 کتاب آمار و تجزیه و تحلیل داده ها برای مهندسی مالی نوشته راپرت است.) loglik_std = function(x) { f = -sum(log(dstd(Y, x[1], x [2]، x[3])) f} start=c(mean(Y)، sd(Y)،4) fit_std = optim(start,loglik_std,method=L-BFGS-B, lower=c(-.1,.001,2.1), upper=c(.1,1,20)) print(c(MLE = ,round(fit_std$par,digits=5))) m_logL_std = fit_std$value # منهای log-likelihood AIC_std = 2*m_logL_std+2*length(fit_std$par) من در کل ضرر دارم، کسی اینجا میتونه کمک کنه؟ پیشاپیش از شما متشکرم | MLE را برای توزیع نرمال اریب محاسبه کنید |
96611 | بگویید من x نمونه با اندازه های مختلف را از یک جمعیت بسیار بزرگ می گیرم (بگذارید اینها را S1، S2، S3، ... و غیره با اندازه n1، n2، n3 و غیره بنامیم). میخواهم بدانم برای نمونه S1، بزرگترین زیر مجموعه ممکن از S1 که در تعداد معینی از نمونههای دیگر نیز ظاهر میشود، چیست. برای مثال اگر من فقط دو نمونه S1 و S2 داشته باشم، حداکثر تعداد اعضای S1 که می تواند در S2 نیز باشد، حداقل اندازه S1 و S2 است. اگر من سه نمونه S1، S2 و S3 داشته باشم، حداکثر تعداد اعضای S1 که حداقل در یکی از S2 و S3 هستند حداقل n1 و n2+n3 است، در حالی که حداکثر تعداد اعضای S1 که هستند. در هر دو S2 و S3 حداقل n1،n2،n3 است. اگر من چهار نمونه داشته باشم، حداکثر تعداد اعضای S1 که حداقل در یکی از نمونههای دیگر هستند min(n1, n2+n3+n4) و حداکثر تعداد اعضای S1 که در همه نمونهها هستند، است. min(n1,n2,n3,n4)، اما حداکثر تعداد اعضای S1 که حداقل در 2 نمونه از سه نمونه دیگر ظاهر می شود چقدر است؟ چگونه این مقیاس n نمونه از پنج، شش یا بیشتر نمونه را افزایش می دهد؟ زمینه: من در حال انجام کنترل کیفیت بر روی یک مجموعه داده ژنومی هستم (داده های iCLIP برای کسانی که علاقه مند هستند). برای هر آزمایش تعداد معینی تکرار دارم و میخواهم بدانم تکرار چقدر «تکرارپذیر» است. معیار استاندارد این است که بپرسیم چه تعداد از مکان های ژنومی شناسایی شده در یک تکرار مشخص در بخش خاصی از تکرارهای باقی مانده شناسایی شده اند. با این حال، این به نظر من رضایتبخش نیست، زیرا تکرارهایی که مکانهای بیشتری دارند، همیشه پایههای تکراری خواهند داشت، فقط به این دلیل که مکانهای آنها به اندازه کافی در تکرارهای دیگر بازگردانده نشده است، بنابراین میخواهم بپرسم حداکثر تعداد مکانهایی که احتمالاً میتوانند برگردانده شوند چقدر است. | حداکثر تقاطع ممکن زیر مجموعه ها |
17720 | فرض کنید من مقداری داده دارم، یعنی مجموعه ای از اعداد واقعی. آیا روش های کلی خوبی برای تعیین اینکه آیا این داده ها با توزیع احتمال معین مطابقت دارند یا خیر وجود دارد، به عنوان مثال. توزیع نرمال، توزیع log-normal یا هر توزیع دیگری؟ اگر چنین است، برخی از بهترین روشهای موجود کدامند؟ | تعیین میزان تناسب داده های واقعی با توزیع احتمال معین |
85504 | وقتی اخبار در مورد چیزهایی از نظر آماری ثابت شده هستند، آیا آنها از یک مفهوم کاملاً تعریف شده از آمار به درستی استفاده می کنند، از آن اشتباه استفاده می کنند یا فقط از یک oxymoron استفاده می کنند؟ من تصور میکنم که اثبات آماری در واقع چیزی نیست که برای اثبات یک فرضیه انجام شود، و نه یک اثبات ریاضی، بلکه بیشتر یک آزمون آماری است. | مفهوم آماری اثبات شده |
110235 | آیا فهرست جامعی از توزیع ها وجود دارد، به عنوان مثال. گاما، پواسون، گاوسی، و چه زمانی باید از هر کدام در جایی استفاده کنید؟ جستجوی من در اینترنت بی نتیجه بوده است. | لیست جامع توزیع ها؟ |
48841 | من دو شبکه عصبی را برای اهداف پیش بینی ایجاد کرده ام، اولی یک شبکه با یک لایه پنهان و دومی دو لایه پنهان است، من از تکنیک های اعتبارسنجی متقاطع استفاده می کنم، خطای آموزش برای هر دو شبکه حدود 2E-4 است اما در مرحله آزمایش، برای دو توپولوژی، مقادیر پیشبینی در طول زمان تغییر نمیکنند (فقط یک تغییر کوچک در کسری از 5). من توابع مختلفی را برای لایه های پنهان (بین tangh و sigmoid) و یک sigmoid برای لایه خروجی امتحان کرده ام. خب مشکل کجاست؟ با تشکر | چرا پیش بینی شبکه عصبی تغییر نمی کند؟ |
50873 | من دادههای طیفی دارم که به من میگوید برای یک طول موج خاص نور چقدر پاسخ در مقادیر RGB برای برخی از فضای رنگی قوی است. به طور معمول، اگر من نور سفید ساده را بخواهم، باید همه مقادیر را در مقادیر مساوی جمع کنم و باید به رنگ سفید RGB #FFFFFF منجر شود. با این حال، داده های من اینطور عادی نشده است. من مقدار زیادی از رنگ سفید خالص فراتر رفتم. و بدتر از آن، این بیش از حد برای سه کانال من به یک اندازه اتفاق نمی افتد، و به چیزی ختم می شود که ظاهرا سفید خالص نیست. اکنون تعجب می کنم: آیا درست است که فقط با یک فاکتور در هر کانال رنگ عادی شود تا به سادگی کار کند؟ یا باید همبستگی بین کانال های رنگ و مجموعه داده های طیفی را با دقت بیشتری در نظر بگیرم؟ اگر چنین است، دقیقاً چگونه در مورد آن اقدام کنم؟ اگر مجموعه داده واقعی من کمک کند، این همان چیزی است که WolframAlpha زمانی که طول موج ها را در طیف مرئی قرار می دهید، منتشر می کند. برای مثال، 500 نانومتر در RGB نتیجه میشود: {0.، 0.671، 0.492} \- دقت آن تا 1 نانومتر است و از 380 نانومتر به 750 نانومتر میرسد. * * * اکنون، مطمئن نیستم که آیا اینجا جای مناسبی برای پرسیدن این سوال است یا خیر. من میتوانم به چندین سایت SE فکر کنم که ممکن است این موضوع را در ابعاد مختلف لمس کنند. با این حال، من معتقدم که این احتمالاً میتواند برای مشکلات عمومیتری که در آمار به وجود میآیند اعمال شود و تناسب به آن نزدیکتر است، بنابراین من اینجا میپرسم. اگر فکر میکنید، این موضوع ربطی به آن ندارد، لطفاً برای من توضیح دهید که چگونه سؤال را مرتبطتر کنم یا کجا باید آن را بپرسم. به طور مشابه، مطمئن نیستم که از بهترین برچسب ها استفاده می کنم یا خیر. | تبدیل داده های طیفی به RGB و نرمال سازی مناسب |
96613 | مثال: اگر از نظر آماری تفاوت معنی داری بین قد مردان و زنان پیدا کنم، آیا این چیزی در مورد توانایی پیش بینی زن یا مرد بودن یک فرد بر اساس قد نشان می دهد؟ به نظر من در هر موردی که تفاوت آماری معنی داری وجود دارد، باید بتوانیم بر اساس دانستن متغیر وابسته، یک پیش بینی (طبقه بندی و ارزیابی آن با استفاده از اعتبارسنجی متقاطع) از متغیر مستقل انجام دهیم. پس از مدت ها فکر کردن به آن، نتوانستم به مثال متقابلی فکر کنم. مثال دیگر: یک همبستگی خطی بین $A$ و $B$ وجود دارد. با توجه به $B$، من می توانم $A$ را با اطمینان بالا پیش بینی کنم. | آیا تفاوت معنی دار آماری لزوماً به این معناست که پیش بینی (از طریق اعتبارسنجی متقابل) امکان پذیر است؟ |
107782 | من اغلب در مورد مبادله بایاس واریانس برای ارزیابی طبقه بندی کننده ها می شنوم. حالا می خواهم آنها را محاسبه کنم. من اغلب AUC یک طبقهبندیکننده باینری را محاسبه میکنم تا عملکرد آن را ارزیابی کنم و یک اعتبارسنجی متقاطع 10 برابری انجام دهم. مشاور من به من گفت که واریانس AUCهای اعتبارسنجی متقاطع 10 برابری را محاسبه کنم. او گفت که این واریانس، واریانس واقعی مدل نیست، اما میتواند به شما ایده دهد که مدل چقدر قوی است و واریانس واقعی آن. سؤالات من: * آیا این رویکرد برای ارائه یک تخمین تقریبی برای واریانس مدل درست است؟ * آیا می توان واریانس واقعی مدل را محاسبه کرد؟ اگر چنین است، چگونه؟ | محاسبه واریانس یک مدل؟ |
96617 | من یک برنامه کوچک در مورد پیش بینی کریکت با استفاده از یادگیری ماشین ساختم. من رکوردهای 10 ساله (2001-2011) مسابقات ODI را گرفتم و یک مجموعه تمرینی آماده کردم. حالا برای پیش بینی برد یا باخت یک تیم خاص، عوامل مختلفی را در نظر گرفتم. به عنوان مثال، مسابقه هند و استرالیا در استادیوم وانخده هند است. رکورد هند در 10 سال گذشته رکورد هند در 2 سال گذشته (شکل اخیر) رکورد هند در هند در 10 سال گذشته. رکورد هند در هند در 2 سال گذشته. (شکل اخیر) رکورد هند در Wankhede، 10 سال گذشته. رکورد هند در Wankhede، 2 سال گذشته. (فرم اخیر) رکورد استرالیا در 10 سال گذشته. رکورد استرالیا در دو سال گذشته رکورد استرالیا مقابل هند در 10 سال گذشته. رکورد استرالیا مقابل هند در 2 سال گذشته. رکورد استرالیا در برابر هند در 10 سال گذشته در هند. رکورد استرالیا مقابل هند در 2 سال گذشته در هند. بنابراین ما احتمالات همه را در نظر گرفتیم، به عنوان مثال، هند 322 مسابقه در 10 سال انجام داد و 140 بازی را برد، بنابراین احتمال برد 140/322 است و به همین ترتیب برای همه عوامل دیگر. حالا همه احتمالات را در پایان اضافه کردیم و درصد باخت برای هر دو کشور به دست آوردیم. میخواستم بدونم این چه نوع قضیه ایه؟ این کار با Naïve Bayes شروع شد، اما در Naïve Bayes، برخلاف اینجا، احتمالات را ضرب می کنیم. می توانید پیاده سازی را در اینجا بررسی کنید، http://www.manzarict.org/cricket ما از PHP اولیه استفاده کردیم تا بتوانیم با استفاده از پرس و جوهای SQL احتمالات را سریعتر پیدا کنیم. اکنون این ممکن است یک رویکرد اشتباه برای پرداختن به این مبلغ باشد، روشهای جایگزین استقبال میشود. | سردرگمی الگوریتم یادگیری ماشین |
57244 | اخیراً با کلمه یادگیری تقویتی مکرر برخورد کردم. من میدانم «شبکه عصبی مکرر» چیست و «یادگیری تقویتی» چیست، اما نمیتوانم اطلاعات زیادی درباره «یادگیری تقویتی مکرر» پیدا کنم. آیا کسی می تواند به من توضیح دهد که یادگیری تقویتی مکرر چیست و چه تفاوتی بین یادگیری تقویتی مکرر و یادگیری تقویتی معمولی مانند الگوریتم Q-Learning وجود دارد. | یادگیری تقویتی مکرر چیست؟ |
65680 | من دادههای دایرهای دارم -- مشاهداتی که هر کدام بین -180 درجه و +180 درجه قرار میگیرند - به یک هیستوگرام 15 bin تقسیم شده است. میخواهم ببینم یک پیدیاف پیوسته - بهویژه مخلوطی از توزیع فون میزس و توزیع یکنواخت، با پارامترهای خاص - چقدر با هیستوگرام مشاهدهشده مطابقت دارد. و برای تعیین این تناسب، می خواهم از آماره r-squared استفاده کنم. من می خواهم این سوال را کنار بگذارم که آیا باید از r-squared استفاده کنم یا چیز دیگری. انتخاب من از r-squared بر اساس Zhang & Luck, _Nature_, 2008 و Zhang & Luck, _Psychological Science_, 2009 است. (این مقالات دقیقاً همان کاری را انجام دادند که من توضیح میدهم که میخواهم انجام دهم - مجذور r بین یک هیستوگرام 15 بنایی از دادههای دایرهای و مدل مخلوط را محاسبه کنید.) اما اگر میخواهید روش بهتری را پیشنهاد کنید، و میتوانید آن را به وضوح توصیف کنید، خوشحال می شوم آن را امتحان کنم. سوال من این است که چگونه باید r-squared را محاسبه کنم؟ آیا باید تابع پیوسته را وارد کنم و سپس ارتفاع bin PDF را با ارتفاع بن مشاهده شده مقایسه کنم؟ آیا باید میانگین پیدیاف را در محدودهای که در هر بن از دادههای مشاهدهشده در بر میگیرد، بگیرم؟ آیا باید مراکز bin را با نقاط مربوطه در تابع پیوسته مقایسه کنم؟ با تشکر فراوان دن | روش مناسب برای محاسبه r-squared بین توزیع دوگانه مقادیر مشاهده شده و تابع چگالی احتمال پیوسته چیست؟ |
65687 | 40 فایل صوتی (موسیقی کلاسیک) وجود دارد و انتخاب پاسخ از بین 9 احساس وجود دارد. از بین این 40 فایل صوتی من 8 متغیر را محاسبه می کنم و این متغیرها به 9 احساس متصل می شوند. من 3 گروه فرهنگی مختلف شرکت کننده دارم. من خلاصههای موردی را اجرا میکنم، اما به سختی توافقی بین احساسات انتخابشده، در میان گروهها وجود دارد. من باید بدانم که چه نوع آزمونهایی (یا مدلی) باید اجرا کنم تا بفهمم آیا این فایلهای صوتی پاسخهایی را برمیانگیزد یا نه که شباهت بین فرهنگی دارند یا خیر. فایل های صوتی قرار است احساسات خاصی (ثابت) را برانگیزند. من از SPSS استفاده می کنم. > گروه فرهنگی x نسبت به گروه y احتمال بیشتری دارد که متغیر a خاص (برگرفته از فایل های صوتی) را با احساس e مرتبط کند. (رابرت) | چگونه می توان شباهت بین فرهنگی را در گروه هایی با پاسخ های بسیار متفاوت تجزیه و تحلیل کرد؟ |
16222 | _**زمینه:_** در مهندسی معدن از نمونه برداری برای بدست آوردن میزان غلظت کانی ها در سنگ ها استفاده می شود. روش نمونه برداری به صورت میدانی در منطقه مورد کاوش در مختصات از پیش تعریف شده (x,y) طبق نقشه های طراحی شده انجام می شود. بنابراین نمونههای زیادی از مواد سطحی وجود دارد، مانند سنگها/خاکها/آبها و غیره. توجه داشته باشید که آنها تصادفی نیستند! آیا میتوانیم هر مشخصه استخراجشده از هر نمونه (مانند غلظت، رطوبت، اندازه، بافت و غیره) را به عنوان علامت اختصاص دهیم؟ آیا این رویکرد یک **روند نقطه مشخص** خواهد بود؟ | چگونه فرآیندهای نقطه مشخص شده را تعریف کنیم؟ |
50871 | من می خواهم از جعبه ابزار مدل گرافیکی احتمالی برای تحقیق خود استفاده کنم. (ترجیحا مبتنی بر متلب). به نظر میرسد تعداد زیادی ابزار مختلف به صورت آنلاین موجود است (UGM، جعبه ابزار شبکه بیز برای Matlab، PMTK: جعبه ابزار مدلسازی احتمالی برای Matlab/Octave، جعبه ابزار مدل گرافیکی احتمالی Mens X Machina (PGM Toolbox)). آیا میتوانید 1) محبوبترین و پرکاربردترین جعبه ابزار برای PGM و 2) سادهترین جعبه ابزار با نمایشهای نمایشی را که میتوانم به صورت عملی در معرض آن قرار بگیرم را توصیه کنید؟ با تشکر | بهترین جعبه ابزار مدل گرافیکی احتمالی برای متلب چیست؟ |
12453 | @RyanB از پاسخ سریع و کمک شما متشکرم! من آزمایشی انجام دادم که نشان می داد مردان توسط زنان قرمزپوش جذب می شوند. من 30 مرد و 25 زن را استخدام کردم که دقیقاً همین رویه را دنبال کردند: آنها باید به 4 دیالوگ بین زن و مرد گوش می دادند که یکی از آنها 30-40 ثانیه طول می کشد. اولین دیالوگ را می شنوند و بعد از آنها می پرسم که آیا معتقدند مرد جذب زن شده است، پاسخ آنها بله/خیر است. سپس عکسهایی را به آنها نشان میدهم، یک زن با پیراهن سبز و یک زن با پیراهن قرمز و از آنها میخواهم عکسی را انتخاب کنند که فکر میکنند زن دیالوگی را که تازه شنیدهاند به تصویر میکشد. سپس دیالوگ دوم را گوش می دهند و دقیقاً همین کار را می کنند تا تمام شود. (دیالوگ اول - جذب / جذب نشده - قرمز / سبز). دلیل اینکه من همین آزمایش را با زنان انجام می دهم (آنها باید به جای مردان جذابیت زنان دیگر را ارزیابی کنند) نشان دادن تفاوت بین ترجیحات رنگی بین زن و مرد و تکرار بخشی از آزمایش قبلی است که دقیقاً نشان داد همان من از سه دختر مختلف استفاده کردم و داده هایم (دیالوگ ها، رنگ ها، دختران) را در اکسل تصادفی کردم. بنابراین، اگر A قرمز و B سبز باشد، من A1، A2 و A3 و B1، B2 و B3 دارم. و ترکیبات من ممکن است A1-B2، B3-A2، A3-B2، B1-A2 و غیره باشند. | برای تجزیه و تحلیل آزمایش اندازه گیری مکرر درون شرکت کنندگان از چه آزمونی استفاده کنم؟ |
65682 | بنابراین، من دادههای پانل را دارم که شبیه این هستند:  دادههایی که گم شدهاند، به این دلیل است که ما نتوانستیم آن را پیدا کنیم. داده های کامل در گزارش های سالانه بانک های فهرست شده در مجموعه داده ها. هیچ الگوی واقعی برای مقادیر از دست رفته وجود ندارد، به غیر از برخی دورهها مانند آنچه در تصویر نشان داده شده است، مقادیر گمشده عمدتا تصادفی هستند. به عنوان مثال، یک مقدار از دست رفته در سال 2000، مقدار دیگر در سال 2002، و غیره. این بانک ها در مجموع پنج بانک هستند و ما داده های فصلی را برای دوره 1998 Q1 تا 2013 Q1 لحاظ می کنیم. ما یک سری کامل برای یکی از متغیرها، بتا داریم. چهار مورد دیگر همه مقادیری را از دست داده اند. متغیر | Obs -------------+-------------- بتا | اهرم 305 | 290 roa | 283 r_rwa | 277 rwa_assets | 277 من جستجو کرده ام، اما نتوانسته ام به سؤالات زیر پاسخی دریافت کنم: 1) آیا مهم است که مجموعه داده من در برخی از متغیرها مقادیر گم شده باشد؟ 2) روش مناسب برای پر کردن مقادیر از دست رفته چیست؟ اگر ممکن است، می توانید آن را با استفاده از Stata توضیح دهید؟ | چگونه مقادیر از دست رفته در داده های پانل را به درستی پر کنیم؟ |
80571 | رگرسیون خطی را به عنوان مثال در نظر بگیرید، با توجه به یک مجموعه داده خاص $D_1=\\{(x_1,y_1),...(x_n,y_n)\\}$، میتوانیم مدلی را با یک تخمین پارامتر خاص آموزش دهیم. \theta_1$، اگر آموزش را روی یک مجموعه داده جدید $D_2$ انجام دهیم، تخمین جدیدی خواهیم داشت $\hat\theta_2$ و غیره. برای داده های ورودی $x$، می توانم مقدار هدف $\hat y$ را پیش بینی کنم. مشکلات من این است: 1. من فکر میکنم که اصطلاح **بایاس** و **واریانس** فقط زمانی استفاده میشود که در مورد تخمین پارامتر $\hat\theta$ مدل صحبت میشود، نه برای توصیف متغیر تصادفی دادههای پیشبینیشده استفاده میشود. ، که $\hat y$ هستند، درست است؟ بنابراین $bias(\hat\theta),var(\hat\theta)$ داریم، اما $bias(\hat y)$ یا $var(\hat y)$ نداریم. اگر اشتباه می کنم، پس سوگیری و واریانس در اینجا چیست؟ 2. برای قضاوت در مورد کیفیت یک مدل خاص با تخمین پارامتر $\hat\theta_1$، میانگین مربعات خطا را روی تمام نقاط داده آموزشی $D_1$، $$MSE_1=\frac{1}{n} بررسی میکنم. \sum_i(y_i-\hat y_i)^2$$، اما برای مجموعه داده های آموزشی مختلف $D_i$، $\hat\theta_i$ متفاوت داریم، سپس متفاوت $MSE_i$، پس چگونه تعیین کنم که $\hat\theta$ باید چقدر باشد؟ یکی با کوچکترین $MSE$؟ 3. همانطور که من مبادله بایاس واریانس را خواندم، گفته می شود که _انتظار $MSE$ مورد توجه ویژه است_، چرا باید به $E[MSE]$ توجه ویژه ای داشته باشیم؟ منظورم این است که میتوانم برای هر نقطه داده به $E[\hat y_i]$ نیز توجه کنم. علاوه بر این، $MSE$ بر روی مقدار هدف مشاهده شده $y_i$ و پیشبینی آن $\hat y_i$ محاسبه میشود، بنابراین من فکر کردم که باید با $bias(\hat y_i)$ و $var(\hat y_i)$ باشد. اما نه تعصب یا واریانس $\hat\theta$؟ وقتی میخواستم بفهمم منظور از عبارات _ تعصب_ و _ واریانس_ چیست، کاملا گم شدم. امیدوارم کسی از شما بتواند به من کمک کند. | کیفیت یک مدل و مبادله سوگیری-واریانس |
78365 | سلام من در حال تلاش برای یافتن معادل ناپارامتری یک ANOVA دو طرفه (طراحی 3x4) هستم که قادر به شامل تعاملات باشد. از خواندن من در زار 1984 تجزیه و تحلیل آماری زیستی این امکان با استفاده از روشی که در Scheirer, Ray, and Hare (1976) ارائه شده است، امکان پذیر است، اما با توجه به سایر پست های آنلاین استنباط شد که این روش دیگر مناسب نیست (اگر همیشه باشد). بود). آیا کسی می داند چه روشی برای انجام این کار مناسب است و اگر چنین است توابع مربوطه در R یا Stata مناسب است؟ | معادل ناپارامتری یک ANOVA دو طرفه که می تواند شامل تعاملات باشد چیست؟ |
51892 | اگر یک پرسشنامه سرشماری را برای کل گروه مورد علاقه (جمعیت) اجرا کردید و نرخ پاسخ 68٪ را دریافت کردید. آیا محاسبه فواصل اطمینان برای میانه های زیر مجموعه داده ها اشتباه است؟ زیرمجموعههای داده حاوی مقادیر پرت و میانه محاسبه شدند. Tx! | پرسشنامه سرشماری |
105977 | در تحلیل چندسطحی زیر در R (برگرفته از اینجا، صفحه 57): > Model.1<-lme(WBEING~HRS+G.HRS,random=~1|GRP,data=bh1996, control=list(opt= Optim)) > summary (Model.1) مدل خطی با جلوه های ترکیبی متناسب با داده های REML: bh1996 AIC BIC logLik 19222.28 19256.81 -9606.14 جلوه های تصادفی: فرمول: ~1 | GRP (Intercept) Residual StdDev: 0.1163900 0.8832353 اثرات ثابت: WBEING ~ HRS + G.HRS Value Std.Error DF t-value p-value (Intercept) 4.740829 0.21368852020.201 <8RS -0.046461 0.00488798 7282 -9.505056 <.0001 G.HRS -0.126926 0.01940357 97 -6.541368 <.0001 <.0001 همبستگی: (Intr) HRS -00 HRS.2H5 آیا می توان جدول اخیر (همبستگی) را تفسیر کرد؟ این همبستگی ها به چه معناست؟ | تفسیر همبستگی ها در تحلیل چندسطحی |
78849 | من یک مشکل طبقه بندی (دودویی) دارم که در آن پس از ادغام نقاط داده آموزشی واحد (که می توان آنها را به همان منبع ردیابی کرد) در مجموع، دقت تست (دوباره در نقاط داده واحد) به طور قابل توجهی افزایش می یابد. منظور من از ادغام افزودن و میانگین گیری بردارهای ویژگی است. از یک طبقهبندی کننده/هسته خطی SVM استفاده میشود. (داده های آموزشی دارای نویز هستند زیرا به صورت نیمه خودکار تولید می شوند). بنابراین وضعیت عجیبی وجود دارد که «ناهمسانتر کردن» دادههای آموزشی و آزمایشی (مجموعهها در مقابل نقاط داده واحد) عملکرد را افزایش میدهد. (علاوه بر این، برای رگرسیون خطی ساده، حدس میزنم که جمع کردن بردارهای ویژگی نباید تفاوتی ایجاد کند). من سعی می کنم بفهمم دلیل آن چه می تواند باشد. یک فرضیه این است که برای طبقهبندیکنندههای حاشیه بزرگ مانند قابلیت تفکیک SVM بسیار مهم است و با تجمیع، همپوشانی کمتری بین کلاسهای ناشی از نویز وجود دارد. خوب است که معیاری داشته باشیم که میزان همپوشانی یا تفکیک پذیری را نشان دهد. معیارهای استاندارد در اینجا چیست؟ من قصد دارم چند طرح از دو بعد PCA اول را انجام دهم و ببینم اوضاع چگونه به نظر می رسد، اما برخی از اعداد معتبر علاوه بر این خوب خواهد بود. | اندازه گیری برای تفکیک پذیری |
65683 | در حین کار روی یک تکلیف خاص، که هدف آن پیشبینی کلاس نتیجه بود، چندین مدل (شبکههای عصبی، رگرسیون لجستیک و مدل پیشبینی سفارشی خود) را با چندین ترکیب از 3 متغیر ورودی موجود امتحان کردم. چیزی که برای من جالب بود این است که مدلهای دارای دو متغیر عملکرد بهتری نسبت به مدلهای با 3 متغیر ورودی داشتند و خوشحال میشوم که توضیحی نظری برای چنین نتیجهای پیدا کنم. آیا کسی می داند که آیا رویکردهای سیستماتیک برای انتخاب مجموعه بهینه متغیرهای ورودی وجود دارد؟ اگر متغیرهای ورودی بین خود همبستگی داشته باشند، آیا این دقت مدل پیشبینی را کاهش میدهد؟ متشکرم. | چگونه ترکیب بهینه متغیرهای ورودی را برای مدل یادگیری نظارت شده انتخاب کنیم؟ |
16229 | من هیچ ایده ای برای محاسبه این ندارم، اما نقاط داده را در دسترس دارم. من یک سیستم کامپیوتری دارم که تنظیمی برای چیزی دارد -- جمع آوری زباله (gc) -- که با احتمال p در هر زمان مشخصی که یک فرآیند اجرا می شود اتفاق بیفتد (من آن فرآیند را فرآیند می نامم). من فرکانس اجرای خود فرآیند را دارم. میخواهم بدانم بهطور متوسط چند وقت یکبار gc بر اساس تنظیمات احتمال اجرا میشود، و با افزایش آن تنظیم چگونه تغییر میکند؟ به احتمال 1% هر زمان که فرآیند اجرا شود، gc اجرا شود. اگر من بدانم که فرآیند 1000 بار در ساعت اجرا می شود، میانگین فرکانس gc چقدر است؟ همچنین، من دوست دارم یک معادله ساده برای آن ببینم تا بتوانم مقادیر مختلفی را برای X وصل کنم. بنابراین، به طور خلاصه: * فرکانس، f، از فرآیند = 1000 بار در ساعت * احتمال، p ، که gc برای هر فرآیند معین = 1% اجرا می شود * به طور متوسط چند بار در ساعت، gc اجرا می شود؟ * یا، به طور متوسط، چند دقیقه بین اجراهای gc؟ * آیا فرمول ساده ای وجود دارد که بتوانم از آن برای تغییر مقادیر f و p استفاده کنم تا بتوانم مقدار p را با داده های دنیای واقعی تنظیم کنم؟ | میانگین فرکانس یک رویداد را بر اساس احتمال و تعداد شانس در ساعت محاسبه کنید |
105031 | من یک نتیجه با سانسور درست مانند این دارم: y<-c(rep(2.83،3)، rep(3.17،4)، rep(3.83،4)، rep(4.17،5)، rep(4.83،8)، تکرار(5.5،3)، تکرار(7.17،5)، تکرار(8.17،7)، تکرار(8.83،12)، تکرار(9.5، 12)، rep(9.83،17)، rep(10.17،30)، rep(10.50،100)) که در آن «y=10.5» مقادیر سانسورکننده درست هستند. سپس، سعی میکنم از «quantreg::crq» برای برازش مدل رگرسیون چندک سانسور شده استفاده کنم و با یک متغیر مداخله دودویی شروع کنم: set.seed(123) require(quantreg) yc<-rep(10.5, length(y)) treat<-rbinom(طول(y)، 1، 0.5) سن<-as.integer(rnorm(طول(y)، 50، 2)) # model1 fit1<-crq(Curv(y, yc, right)~treat, taus=(1:4)/5, , method=Powell) خطا در solve.default(x[h, ]) : dgesv روتین Lapack: سیستم دقیقاً مفرد است: U[2,2] = 0 خطا در crq.fit.pow(X, y, cen, tau = taus[i]، وزنها، چپ = چپ، ...) : راهحل پایه منفرد ایجاد شده توسط 'start' # model2 fit2<-crq(Curv(y, yc, right)~treat+age, taus=(1 :4)/5) خطا در solve.default(x[h, ]): dgesv روتین Lapack: سیستم دقیقاً مفرد است: U[2,2] = 0 خطا در crq.fit.pow(X، y، cen، tau = taus[i]، وزنها، چپ = چپ، ...) : راهحل پایه منفرد ایجاد شده توسط شروع ممکن است کسی اینجا بداند اشکال مدلها چیست؟ آیا به دلیل پیوندهای موجود در y است؟ آیا راه حلی وجود دارد؟ | خطاها در برازش مدل رگرسیون کمی سانسور شده |
49084 | من دو سری زمانی کوتاه دارم (x و y)، و میخواهم بفهمم که آیا x اثرات (با همبستگی با) y وجود دارد یا خیر. بدیهی است که از آنجایی که این دو سری زمانی هستند، استفاده از یک همبستگی ساده راه اشتباهی است. من از تست گرنگر استفاده میکردم، اما هنگام بررسی به نظر میرسد که سریال ثابت نیست (و نه وقتی تفاوتهایشان را میگیرم). **پیشنهادی در مورد نحوه برخورد با چنین موردی دارید؟** در اینجا یک کد نمونه با داده های من وجود دارد:  # خواندن داده DATA <- ساختار(فهرست(سال = c(1980، 1981، 1982، 1983، 1984، 1985، 1986، 1987، 1988، 1989، 1990، 1991، 1992، 1993، 1994)، y = c(-801.87، -489.87، -333.87، -258.87، 475.13. -172.87، 318.13، 252.13، 105.13، 70.13، 57.13، 147.13)، x = c(-248.53، -143.53، -69.53، -41.53، -3.54، 3.57، 3.3، 27. 60.47، 56.47، 57.47، 60.47، 53.47، 53.47، 68.47))، .Names = c(year، y، x)، row.names = c(NA، 15L)، class = c( cast_df، data.frame )) با (DATA، cor(y، x)) # plot's سری است: with(DATA, plot.ts(data.frame(y, x))) # grangertest signif: need(lmtest) with(DATA, grangertest(x,y)) # stationary? with(DATA, PP.test(x)) # no with(DATA, PP.test(y)) # maybe with(DATA, PP.test(diff(x))) # maybe with(DATA, PP.test( diff(y))) # no | زمانی که سری های زمانی (کوتاه) ساکن نیستند، جایگزینی برای آزمون علیت گرنجر است؟ |
105034 | اجازه دهید $x$ یک متغیر تصادفی با توزیع دو جمله ای باشد ($x \sim B(n,p)$). من می دانم که مقدار مورد انتظار یک دو جمله ای $E(x) = n \cdot p $ است اما معکوس یک دو جمله ای است؟ * $E\big(\frac{1}{x}\big)$ = ??? ### EDIT $Y \simknown$ and $X \sim B(n,p)$ $E\big(\frac{Y}{X}\big) = E(Y) \cdot E\big(\ فراکس{1}{X}\big)$ | مقدار مورد انتظار دو جمله ای معکوس |
65686 | من سعی می کنم از SMOTE برای اصلاح عدم تعادل در مشکل طبقه بندی چند کلاسه خود استفاده کنم. اگرچه SMOTE طبق سند راهنمای SMOTE روی مجموعه داده عنبیه کاملاً کار می کند، اما روی مجموعه داده مشابهی کار نمی کند. در اینجا داده های من به نظر می رسد. توجه داشته باشید که دارای سه کلاس با مقادیر 1، 2، 3 است. > داده ها به دنبال ریسک در هر وضعیت 1 0 1 0 1 2 0 0 0 1 3 0 0 0 2 4 0 0 0 1 5 0 0 0 1 6 3 0 0 1 7 0 0 0 1 8 0 0 0 1 9 0 1 0 1 10 0 0 0 1 11 0 0 0 3 12 0 0 0 1 13 0 0 0 1 14 0 0 0 1 15 0 0 0 2 به شکل دیتافریم است، مانند عنبیه: > class(data) [1] data.frame در اینجا کد من با استفاده از SMOTE و خطای آن است: > newData <- SMOTE(وضعیت ~ .، داده، perc.over = 600، perc.under=100) خطا در scale.default(T, T[i, ]، محدوده ها): زیرنویس خارج از محدوده علاوه بر این: پیام های هشدار: 1: در FUN(newX[, i], ...): هیچ آرگومان غیر گمشده تا حداکثر. بازگشت -Inf 2: در FUN(newX[, i], ...) : هیچ آرگومان گمشده ای تا حداکثر وجود ندارد. بازگشت -Inf 3: در FUN(newX[, i], ...): هیچ آرگومان گمشده ای تا حداکثر وجود ندارد. بازگشت -Inf 4: در FUN(newX[، i]، ...): هیچ آرگومان گمشده ای برای min وجود ندارد. بازگشت Inf 5: در FUN(newX[, i], ...): هیچ آرگومان گمشده ای به min وجود ندارد. بازگشت Inf 6: در FUN(newX[, i], ...) : هیچ آرگومان گمشده به min; Inf بازگشتی | SMOTE برای مشکل عدم تعادل چند کلاسه خطا می دهد |
43157 | تنظیمات زیر را در نظر بگیرید: دو سویه موش (KO و WT) در سه آزمایش مستقل (E1، E2 و E3) مقایسه شده اند. در هر آزمایش، دو گروه مربوط به دو سویه موش مقایسه شدند و هر گروه شامل چهار موش مختلف بود. همه در هر آزمایش 8 موش و سه آزمایش (مجموع 4 × 2 × 3 = 24 موش) وجود داشت. البته سوال این است که آیا سویه ها با هم تفاوت دارند یا خیر. در R، با توجه به متغیرهای strain و experiment این کار را به صورت زیر انجام می دهم: a <- data.frame(response= c(100, 110, 120, 130, 200, 210, 220, 230, 105, 115، 125، 135، 205، 215، 225، 235، 105، 115، 125، 135، 215، 225، 235، 245)، آزمایش= rep( c( E1، E2، E3)، هر = 8)، کرنش = تکرار( rep(c (WT، KO)، هر= 4)، 3)) myaov <- aov( پاسخ ~ strain + Error( experience ), data= a ) summary( myaov ) با این حال، افرادی که به طور منظم با GraphPad Prism کار می کنند، این سوال را از من پرسیده اند. این ویژگی ANOVA اندازه گیری های مکرر را دارد که (در فایل راهنما) معادل طراحی بلوک تصادفی است، اما من توضیحات را تا حدی گیج کننده می دانم: > آزمایش های «اقدامات تکراری» در مقابل آزمایش های «بلوک تصادفی» > > عبارت تکرار شده اندازه گیری زمانی مناسب است که شما اندازه گیری های مکرر را از هر موضوع انجام دهید. > > برخی از آزمایشها شامل اندازهگیریهای تطبیقی اما نه تکراری هستند. اصطلاح > بلوک تصادفی این نوع آزمایش ها را توصیف می کند. به عنوان مثال، تصور کنید > که سه ردیف سه خط سلولی متفاوت هستند. همه دادههای Y1 > از یک آزمایش، و همه دادههای Y2 از آزمایش دیگری > یک ماه بعد انجام شد. مقدار ردیف 1، ستون A، Y1 (23) و مقدار > در ردیف 1، ستون B، Y1 (28) از همان آزمایش بدست آمد (همان سلول > پاساژ، همان معرفها). تطبیق با ردیف است. > > داده های بلوک تصادفی به طور یکسان با داده های اندازه گیری مکرر تجزیه و تحلیل می شوند. > Prism همیشه از اصطلاح اندازه گیری های مکرر استفاده می کند، بنابراین زمانی که آزمایش شما از طرح بلوک های تصادفی پیروی می کند، باید تجزیه و تحلیل های تکراری > اندازه گیری ها را انتخاب کنید. **سوال من: چگونه می توانم این داده ها را با استفاده از GraphPad Prism تجزیه و تحلیل کنم؟** یا به جای آن: آیا توضیحات نقل شده با مورد من مطابقت دارد؟ | مخلوط (نوع III) مدل ANOVA در R و GraphPad Prism |
93723 | با توجه به یک مبنا با ابعاد $D$ که یک نمونه iid از یک توزیع گوسی کروی است، و نسخه خراب شده با نویز آن داده که با اضافه کردن نویز گوسی کروی ایجاد میشود، آیا روش مفیدی برای بیان توزیع شباهت **کسینوسی وجود دارد. ** بین سیگنال و نسخه نویز آن؟ این چیزی است که من امتحان کردم: از آنجایی که شباهت کسینوس فقط به زاویه بین این دو بردار $D$-بعدی بستگی دارد، و نه به بزرگی یا زاویه مطلق آنها، بدون از دست دادن کلیت، میتوانیم مسئله را مجدداً مقیاس بندی کنیم تا سیگنال دارای هنجار اقلیدسی باشد. 1، و همچنین مشکل را بچرخانید تا سیگنال با محور اول تراز شود. سپس مشکل به صورت زیر بیان میشود: با توجه به دادههای $D$-بعدی $X=(1,0,0,...)'$ و نسخه خراب شده با نویز آن $Y = X + \mathcal{N}^D( 0، \sigma)$ (که $\sigma$ انحراف معیار است)، توزیع شباهت کسینوس $\frac{X \cdot Y}{||X|| ||Y||}$؟ محدودیتهای روی $X$ به این معنی است که عبارت را میتوان به $\frac{y_1}{||Y||}$ ساده کرد که $y_1$ اولین عنصر $Y$ است، و به وضوح $y_1$ به صورت $\ توزیع میشود. mathcal{N}(1، \sigma)$. عبارت کلی، $\frac{y_1}{||Y||}$، خوب ما میتوانیم آن را گسترش دهیم، اما هیچ راهی برای بازنویسی آن نمیدانم تا بتوانم (مثلا) **عبارات را دریافت کنم. برای میانگین و واریانس آن **. > _(برخی نتایج ساده برای افراطی ها: وقتی $\sigma=0$، کسینوس > شباهت 1 است. به عنوان $\sigma\to\infty$، شباهت کسینوس به توزیع محصولات نقطه ای بین دو بردار واحد تصادفی تبدیل می شود. )_ | شباهت کسینوس بین سیگنال تمیز و نسخه نویزدار آن |
64484 | من با استفاده از بسته spdep با برخی از تحلیل های فضایی اکتشافی در R کار می کنم. من با گزینه ای برای تنظیم _p_ -مقادیر شاخص های محلی ارتباط فضایی (LISA) که با استفاده از تابع localmoran محاسبه می شود مواجه شدم. با توجه به اسناد، هدف آن عبارت است از: > ... تنظیم مقدار احتمال برای تست های متعدد. بیشتر در اسناد `p.adjustSP` خواندم که گزینههای موجود عبارتند از: > روشهای تنظیم شامل تصحیح Bonferroni ('bonferroni') است که در آن p-values در تعداد مقایسهها ضرب میشوند. چهار تصحیح کمتر > محافظه کارانه نیز توسط هولم (1979) (هولم)، > هوچبرگ (1988) (هوچبرگ)، هومل (1988) (هومل) و بنجامینی و > هوچبرگ گنجانده شده است. (1995) ('fdr')، به ترتیب. یک گزینه عبور از طریق (هیچکدام) نیز گنجانده شده است. چهار روش اول برای کنترل قوی نرخ خطای عاقلانه خانوادگی طراحی شده اند. به نظر می رسد دلیلی برای استفاده از اصلاح اصلاح نشده Bonferroni > وجود ندارد زیرا روش هولم بر آن غالب است، که تحت فرضیات دلخواه نیز معتبر است. روشهای هوچبرگ و هومل زمانی معتبر هستند که آزمونهای فرضیه مستقل باشند یا زمانی که ارتباط منفی نداشته باشند (سرکار، 1998؛ سرکار > و چانگ، 1997). روش هومل قدرتمندتر از روش هوچبرگ است، اما تفاوت > معمولاً کم است و مقادیر p هوچبرگ سریعتر محاسبه میشوند. > > روش BH (با نام مستعار fdr) و BY بنجامینی، هوچبرگ، و یکوتیلی نرخ کشف نادرست، نسبت مورد انتظار اکتشافات نادرست را در میان فرضیههای رد شده کنترل میکنند. نرخ کشف کاذب یک شرایط > کمتر سختگیرانه تر از میزان خطای خانوادگی است، بنابراین این روش ها > قوی تر از روش های دیگر هستند. چند سوال که ظاهر شد: 1. به زبان ساده - هدف از این تنظیم چیست؟ 2. آیا استفاده از این گونه اصلاحات ضروری است؟ 3. اگر بله - چگونه از بین گزینه های موجود انتخاب کنیم؟ | تنظیم p-value برای آمار Local Moran's I (LISA) |
16224 | ### زمینه: * من در حال انجام یک نظرسنجی بزرگ هستم و سعی می کنم بفهمم چه تحلیل های آماری را انجام دهم. * این نظرسنجی سوالاتی را در هر قالبی که برای انسان شناخته شده است (مثلاً مقیاس لیکرت، چند گزینه ای، دوگانه) می پرسد و در مورد سلامت روانی اجتماعی و استرس کاری است. * من قصد دارم یک تحلیل عاملی انجام دهم تا ببینم چه سوالات جمعیت شناختی با هم برای تأثیرگذاری بر کیفیت زندگی تأثیر دارند و سرپرستم پیشنهاد کرده است که همبستگی های پیرسون را روی عواملی که مطرح می شوند انجام دهم. سپس اجرای n-way MANOVA برای تعیین درصد واریانس توضیح داده شد. علیرغم داشتن آمار ace تا به امروز، متوجه می شوم که مغز قدیمی من با همه اینها گیج شده است و به نوعی ترتیب به عقب به نظر می رسد. ### سوال: * اگر مجموعه داده های بزرگی داشتید و انتظار داشتید تعداد زیادی از سوالات با هم جمع شوند تا عوامل تاثیرگذار بر یک متغیر وابسته (کیفیت زندگی در این مورد) باشند، چه کاری و به چه ترتیبی انجام می دهید؟ | چگونه می توان یک مدل برای پیش بینی کیفیت زندگی از طیف گسترده ای از معیارهای جمعیت شناختی، استرس و سلامت ایجاد کرد؟ |
65681 | برنامه آماری من خطوط عمودی را ترسیم میکند که نشاندهنده نسبت t در سطح معنیداری 5% به همراه تخمینهای پارامتر مرتب شده آن هنگام برازش یک مدل خطی است. من نمی فهمم این خط چگونه محاسبه می شود. احتمالاً اگر آنها می توانستند آن را با اهمیت 5٪ محاسبه کنند، من می توانستم یک مقدار نسبت t را با اهمیت 10٪ محاسبه کنم. چگونه این کار را انجام دهم؟  من t Ratio = تخمین / خطای Std را می دانم، اما نمی دانم چگونه تخمین یا استاندارد را به هم مرتبط کنم خطا تا سطح معناداری با این حال، من فکر می کنم خطای استاندارد برآورد به عنوان انحراف استاندارد برای توزیع t مرتبط استفاده می شود که سپس برای تعیین مقدار p استفاده می شود. | چگونه نسبت t را در سطح معناداری 0.05 محاسبه کنیم؟ |
105033 | من در حال انجام یک تحلیل VAR بر روی اثرات اخبار و بازده S&P500 هستم. اکنون، تعداد تأخیرها (5) را بر اساس معیار اطلاعات بیزی شوارتز (SBIC) مشخص کردم و چند آزمایش پس از تخمین را انجام دادم. من از STATA برای محاسبه علیت گرنجر و تابع varlmar برای تست همبستگی خودکار (آزمون LM) استفاده می کنم. اکنون برای من مشخص نیست که خروجی چه معنایی برای تحلیل من دارد. آیا این به این معنی است که من در باقیمانده ها تا تاخیر 5، به جز تاخیر 3، خودهمبستگی دارم؟ آیا این برای استنباط مشکل دارد؟ هر گونه کمک بسیار قدردانی!  | نتایج پس از تخمین پس از تجزیه و تحلیل VAR نشان دهنده همبستگی خودکار در باقیمانده ها است |
112429 | من از رگرسیون چندگانه با روش حذف به عقب استفاده می کنم. من یک متغیر کنترلی (پاسخ دهی مطلوب اجتماعی) و چهار متغیر پیش بینی کننده (جنسیت و سه سازه عزت نفس) دارم. متغیر وابسته من رفتار جنسی پرخطر است. من در بلوک اول پاسخ مطلوب اجتماعی را وارد کردم و به عقب را به عنوان روش انتخاب کردم. من چهار متغیر پیش بینی کننده را در بلوک دوم وارد کردم و backward را به عنوان روش انتخاب کردم. سؤالات من این است: آیا قرار است نتایج را فقط با تأثیرات اصلی بررسی کنم، IV هایی را که مهم هستند تعیین کنم، و یک تحلیل جداگانه با عبارات تعاملی که فقط حاوی IV های مهم است اجرا کنم؟ اگر چنین است، آیا باید آنالیز را دوباره با تمام اثرات اصلی در یک بلوک و شرایط تعامل با IV های مهم در بلوک دیگر اجرا کنم؟ یا نباید تجزیه و تحلیل های جداگانه ای را برای افکت ها و تعاملات اصلی اجرا کنم و در عوض همه آنها را در یک زمان اما در بلوک های جداگانه اجرا کنم؟ خیلی ممنون | چگونه اثرات و تعاملات اصلی را در یک رگرسیون گام به گام اجرا کنیم؟ |
96615 | من چندین طبقهبندی کننده f_i (i=1..N) و معیارهای عملکرد محاسبهشده در چندین دامنه (D) برای هر کدام دارم. بنابراین، مقادیر NxD وجود دارد. من می خواهم بدانم (افزایش پیچیدگی): 1. آیا یک طبقه بندی خاص با توجه به همه دامنه ها به طور قابل توجهی بهتر از خط پایه است؟ 2. آیا طبقه بندی کننده خاصی وجود دارد که با توجه به همه دامنه ها بهتر از سایرین باشد؟ 3. آیا رتبه بندی طبقه بندی کننده ها f_i > f_k > f_l > وجود دارد، که در آن >=به طور قابل توجهی بهتر است، با توجه به همه دامنه ها؟ من نمی توانم فرض کنم که آنها بر اساس یک نرمال توزیع شوند، بنابراین من به دنبال تست های ناپارامتریک هستم. از (JAPKOWICZ/SHAH, 2001)، من روش زیر را استنباط کردم: 1. آزمایش فریدمن را برای تعیین اینکه آیا حداقل یک طبقهبندی کننده به طور قابل توجهی بهتر از بقیه برای همه دامنهها عمل میکند یا خیر، انجام دهید. روابط دوتایی به طور قابل توجهی بهتر از را شناسایی کنید. سؤالات: 1. آیا هیچ قاعده ای برای در نظر گرفتن حداقل دامنه های مورد نیاز برای دادن قدرت کافی به آزمون فریدمن / نمنی وجود دارد؟ آیا تست های دیگری برای تعداد کم دامنه (<5) مناسب تر هستند؟ 2. اگر نتایج جفتی f_i>f_k، f_k>f_j یا f_k = f_j با ==میزان بهتر نیست وجود داشته باشد، میتوان گفت که طبقهبندی کننده f_i به طور قابل توجهی بهتر از هر طبقهبندی دیگری است؟ 3. آیا می توان چنین رتبه بندی را با استفاده از تست های Nemenyi زوجی استنباط کرد؟ آیا نیازی به انجام تست فریدمن در زیر مجموعه ها وجود دارد؟ لطفاً توجه داشته باشید که این سؤال مربوط به سؤال دیگری است که پاسخی ندارد. هر گونه کمکی بسیار قدردانی می شود. با تشکر | آزمون فریدمن برای شناسایی بهترین طبقهبندیکنندههای چندگانه در حوزههای مختلف |
96614 | من یک توزیع داده ناپارامتریک (منظورم غیر عادی) است. من چندین تغییر را امتحان کردم، اما هیچ کدام مفید نبودند. اکنون، من میخواهم مدلی پیدا کنم که بتوانم جلوههای تصادفی را با دادههای توزیعشده غیرعادی اضافه کنم. من تست Kruskal-Wallis را میدانم، اما اگر بتوانم افکتهای تصادفی را اضافه کنم، نتوانستم راهنمایی پیدا کنم. کسی مدل مناسبی سراغ داره؟ من چهار گروه مختلف با N کل 328 دارم. متغیر وابسته بین 1 تا 9 است. من یک آزمون Shapiro-Wilks را با این متغیر وابسته برای چهار گروه انجام دادم و همه آزمون ها بسیار معنی دار بودند. من برخی از اعتبارسنجی مدل را با استفاده از مدل lme انجام داده ام که شامل چهار گروه مختلف به عنوان یک اثر ثابت و عامل دیگر به عنوان اثر تصادفی است. نمودار Q-Q این مدل در ابتدا یک برآمدگی بزرگ را نشان می دهد بنابراین من فرض کردم که نمی توانم از مدل استفاده کنم. طرح های دیگر تا حدی خوب به نظر می رسند. لطفاً به من بگویید چه چیز دیگری باید بیان کنم زیرا من واقعاً با وبلاگ ها آشنا نیستم! هیستوگرام های متغیر وابسته log-transformed مرتب شده بر اساس چهار گروه که می خواهم به عنوان یک جلوه ثابت برای مدل خود استفاده کنم: برای مدل من](http://i.stack.imgur.com/GnrTK.png) این اعتبار مدل مدلی است که من اعمال کردم. من از یک خطی استفاده کرده ام مدل اثرات مختلط با گروه ها به عنوان جلوه های ثابت و یک اثر تصادفی اضافی.  و اینجا کدی است که SGroup1 اعمال کردم <- lme(Schoollog~Group1, data=T4 , random=~1|ID, method='ML') par(mfrow=c(2,2)) plot(fitted(SGroup1),resid(SGroup1)) abline(h=0, lty=2) qqnorm(resid(SGroup1)) qqline(resid(SGroup1)) scatter.smooth(fitted(SGroup1), sqrt(abs(resid (SGroup1))) qqnorm(unlist(ranef(SGroup1))) qqline(unlist(ranef(SGroup1))) | آیا مدلی وجود دارد که شامل اثرات تصادفی با توزیع داده های ناپارامتریک باشد؟ |
43154 | من می خواهم انحراف استاندارد را برای مجموعه ای از اندازه گیری های یک پروفیل کابل تعیین کنم. با این حال، کابل زمین را دنبال می کند، و بنابراین استفاده از یک مقدار متوسط برای کل طول کابل هیچ معنایی ندارد. فکر فعلی من این است که میانگین و انحراف معیار را در هر نقطه بر اساس خود نقطه و دو نقطه قبلی و دو نقطه بعدی محاسبه کنم. سپس می توانم یک فاصله اطمینان برای انحراف معیار، از طریق توزیع کای دو، در هر یک از این نقاط ایجاد کنم. چگونه می توانم یک انحراف استاندارد کلی معنی دار و یک فاصله اطمینان برای آن برای کل کابل بدست بیاورم؟ | انحراف استاندارد کلی |
65537 | من در مرحله اجرای طرح فاکتوریل 2×2 هستم. مشاور من می گوید که انجام آزمایشی بر اساس چنین طراحی ساده فایده ای ندارد مگر اینکه انتظار داشته باشید همه چیز مهم باشد. 2 جلوه اصلی و 1 اثر متقابل. من فکر می کنم که حتی زمانی که انتظار هیچ اثر قابل توجهی را ندارید، هنوز هم دانستن آنها جالب است. آیا نیازی به دانستن اینکه آیا چیزی واقعاً تأثیری ندارد به جای اینکه فقط روی تأثیر چیزی آزمایش شود، وجود ندارد؟ علاوه بر این، او پیشنهاد کرد که اثرات متقابل در طراحی فاکتوریل بیشترین اهمیت را دارد. بنابراین شما باید انتظار داشته باشید که چه چیزی مهم باشد. او پیشنهاد کرد که یک عامل دیگر را برای ایجاد یک طرح 2x2x2 در نظر بگیرید تا اثرات متقابل بیشتری داشته باشد. برای من نظرات او عجیب به نظر می رسد. من دلایلی دارم که چرا انتظار دارم چیزی مهم نباشد. اگر با استدلال او پیش بروم، هرگز نباید تأثیرات غیر قابل توجهی را آزمایش کرد؟ همانطور که قبلاً گفتم، من فکر می کنم انتظار اثرات غیر قابل توجه به همان اندازه جالب است که آزمایش برای اثرات قابل توجه. از آنجایی که او استاد است و من نیستم، نظر دومی در این مورد دارید؟ | طراحی فاکتوریل 2×2 حداقل عوامل قابل توجه مورد انتظار |
49333 | من یک رگرسیون خطی چندگانه از عوامل مرتبط با فقر انجام میدهم و میخواهم برخی از دادههای مکانی-آماری را در آن لحاظ کنم. من به دادههای ارزش I (خوشهای/ پرت) Anselin Local Moran برای مناطق سرشماری در یک منطقه شهری رسیدهام که میخواهم آنها را در رگرسیون لحاظ کنم. با این حال، مقادیر I Anselin Local Moran با مقادیر مثبت یا منفی نمایه می شوند. یک مقدار مثبت برای I نشان می دهد که یک ویژگی دارای ویژگی های همسایه با مقادیر مشخصه بالا یا پایین مشابه است. این ویژگی بخشی از یک خوشه است. یک مقدار منفی برای I نشان می دهد که یک ویژگی دارای ویژگی های همسایه با مقادیر متفاوت است. این ویژگی یک امر پرت است. با این حال، این مقادیر تنها در صورتی معنی دار در نظر گرفته می شوند که با نمرات z یا p متناظر آنها نشان داده شود. آیا می توان از یک شاخص منفی/مثبت مانند این به عنوان یک متغیر مستقل در رگرسیون استفاده کرد؟ اگر چنین است، چگونه می توان با توجه به برخی از مشاهدات (مقدار I موران برای سرشماری) به این مشکل نزدیک شد؟ جزئیات بیشتر درباره Anselin Local Moran's I را می توانید در اینجا پیدا کنید: http://help.arcgis.com/en/arcgisdesktop/10.0/help/index.html#//005p00000012000000 | استفاده از ارزش های I مورن محلی Anselin در رگرسیون |
49082 | من خروجی زیر را دارم: مدل ترکیبی خطی متناسب با فرمول REML: مقدار ~ گروه + (1 | Koralle) داده: dat AIC BIC logLik انحراف REMLdev 5988 6008 -2990 5985 5980 اثرات تصادفی: نام گروه ها واریانس Std.Dev. Koralle (Intercept) 4.1737 2.0430 Residual 15.4811 3.9346 تعداد obs: 1070، گروهها: Koralle، 5 جلوههای ثابت: Estimate Std. خطای t مقدار (Intercept) 10.463 1.468 7.127 GroupTreatment -1.071 1.895 -0.565 همبستگی جلوه های ثابت: (Intr) GroupTrtmnt -0.775 من مطمئن نیستم که چگونه افکت -0.775 از Fixrexre را تفسیر کنم من حتی نمی دانم این چه ارتباطی است؟ کسی میتونه کمکم کنه؟ پیشاپیش ممنون | تفسیر lmer از همبستگی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.