_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
78179
من اخیراً شروع به بررسی آمار خود کرده‌ام و این کار را با دو مورد از پرکاربردترین ابزارهای آماری در رشته خود آغاز کرده‌ام: آزمون t و ANOVA. با مطالعه منابع اطلاعاتی معروف مانند ویکی‌پدیا (که هیچ کدام از آنها منابع قابل استنادی برای عبارات زیر ارائه نکردند - متأسفانه) به این نتیجه رسیدم که فرضیه‌های صفر که توسط این ابزار مورد آزمایش قرار می‌گیرند عبارتند از: * **t-test**: _ آزمون t روشی که برای آزمون فرضیه صفر استفاده می شود که میانگین دو گروه مقایسه شده برابر است. فرضیه صفر مبنی بر اینکه میانگین چند گروه تعریف شده برابر است. مشاور من به من گفت که هر دوی این گزاره ها بسیار اشتباه است و اینکه _روش های آماری استنتاجی برابری میانگین ها را آزمایش نمی کند_. اما توضیح بیشتری ارائه نکرد. من نمی دانم که آیا اطلاعاتی را که خوانده ام اشتباه ارائه می کنم. بنابراین، می توانید به من بگویید که فرضیه های صفر این آزمون ها چیست؟ همچنین، آیا می دانید چه منابعی را می توانم برای این مورد استناد کنم (چون واضح است که نتیجه گیری مستقل خودم را بیان نمی کنم)؟
فرضیه صفر آزمون t و ANOVA
31702
من می خواهم آزمایشی انجام دهم تا (با اطمینان 95٪) تعیین کنم که آیا حداقل 70٪ از جمعیت می توانند برخی از وظایف را انجام دهند یا خیر. این آزمون شامل نشستن یک فرد به طور تصادفی انتخاب شده و انجام کاری است که یا موفق می شود یا شکست می خورد. به همین ترتیب، یک سکه وزنی را برمی گردانم. آزمایش ها گران هستند، بنابراین ما فقط ده ها مورد از آنها را انجام خواهیم داد. مشکل این است که جفت‌هایی را محاسبه کنیم (اندازه نمونه، تعداد پاس‌ها) که اهمیت لازم را بدهد. من می خواهم بتوانم چیزی به شکل > از 10 نفر بپرسید. اگر 8 نفر یا بیشتر قبول کردند، می توانید با اطمینان 95 بگویید که > نسبت واقعی در جمعیت بیشتر از 70٪ است.
اندازه نمونه برای تشخیص اینکه آیا بیش از X٪ از جمعیت می توانند <thing> را انجام دهند یا خیر
31701
من داشتم این مقاله مربوط به فیلدهای تصادفی شرطی را می خواندم http://www.inference.phy.cam.ac.uk/hmw26/papers/crf_intro.pdf. با این حال، من سردرگمی در رابطه با بخش احتمال CRF به عنوان محاسبه ماتریسی دارم. من واقعاً نتوانستم درک کنم که چگونه همه چیز در آن جا می شود.
سردرگمی در مورد CRF
31703
من سعی می‌کنم رگرسیون خطی را با R ** خودکار کنم، اگرچه واقعاً پیشینه مشخصی در آمار ندارم. می‌پرسیدم: آیا تکنیک‌های عددی برای تعیین اینکه آیا مقادیر پیش‌بینی‌کننده حتی ارزش تلاش برای تناسب با مقدار پاسخ را قبل از تلاش برای انجام این کار در R وجود دارد یا خیر: lmfit <- lm(x ~ y) حدس اولیه من کوواریانس و همبستگی بود، اما دوباره ارزش های پذیرفته شده چیست؟ همچنین، چه می شود اگر رابطه بین پاسخ و پیش بینی خطی نباشد. در اکثر سناریوها (همانطور که قبلاً توسط نظر دهندگان ذکر شد) پیش بینی ها بر اساس یک فرضیه پیشینی است. با این حال؛ در کشف دانش، مواقعی وجود دارد که شما **_نمی دانید_ فرضیه چیست**، از این رو انگیزه من برای فرمول بندی مجموعه ای از قوانین است که به موجب آن یک پارامتر عددی سریع به من اجازه می دهد تصمیم بگیرم که آیا یک متغیر پیش بینی کننده خاص باید اضافه شود یا خیر. در مدل رگرسیون خطی حذف شد. توجه داشته باشید که بحث بالا وابسته به داده نیست، باید با هر داده کلی که ممکن است روابط خطی بین متغیرها داشته باشد یا نداشته باشد کار کند.
چگونه می دانید از کدام مقدار پیش بینی استفاده کنید؟
88507
من این را کاملا نمی فهمم یک سوال این بود، وانمود کنید که 4 پیش بینی داریم و همه آنها باینری هستند - برای روش ساده بیز، چند پارامتر برای تخمین در مرحله آموزش وجود دارد؟ جواب 2*4 بود. سپس یک سوال دیگر این بود که اگر برای ایجاد یک مدل گرافیکی بین پیش بینی کننده های 1 و 2 لبه ای بکشیم، در مرحله آموزش چند پارامتر را باید تخمین بزنیم؟ پاسخ 1+1(2)+(2*7)=11 بود. در نهایت اگر همه پیش‌بینی‌کننده‌ها دارای لبه‌هایی در بین باشند، چطور؟ پاسخ 1+2(15)=31 بود. من نمی دانم چگونه این معادلات ساخته می شوند. کسی میتونه توضیح بده لطفا
چگونه مقدار پارامترهای مورد نیاز برای برآورد را محاسبه می کنید؟
15154
من به دنبال الگوریتم‌های جنگل تصادفی برای طبقه‌بندی متن و ارجاع به توضیحات درخت تصمیم‌گیری تصادفی جنگل ماهوت بودم. در آن به دو نوع متغیر، صفات اسمی و صفات با ارزش واقعی اشاره شده است. با این حال، من به خصوص مطمئن نیستم که یک ویژگی اسمی چیست. به نظر می رسد ویژگی های با ارزش واقعی فقط ویژگی های عددی هستند، چیزهایی که می توانید با یک مقدار عددی واقعی اندازه گیری کنید. با نگاهی به اطراف، مدخل سطح اندازه گیری را در ویکی پدیا پیدا کردم، به ویژه بخش مقیاس اسمی. بیان می کند: > در مقیاس اسمی، به عنوان مثال، برای یک دسته اسمی، از برچسب ها استفاده می شود. به عنوان مثال، سنگ ها را می توان به طور کلی به عنوان آذرین، رسوبی و > دگرگونی طبقه بندی کرد. برای این مقیاس، برخی از عملیات معتبر معادل و مجموعه > عضویت هستند. اندازه‌گیری‌های اسمی نام یا برچسب‌هایی را برای ویژگی‌های خاص ارائه می‌دهند. > > متغیرهایی که در مقیاس اسمی ارزیابی می شوند، متغیرهای طبقه ای نامیده می شوند. رجوع کنید به > همچنین داده های طبقه بندی شده. بعداً بیان می‌کند (و من فکر می‌کنم این مهم‌ترین بخش است): > گرایش مرکزی یک صفت اسمی با حالت آن مشخص می‌شود. نه > میانگین و نه میانه را نمی توان تعریف کرد. این به نظر من بسیار شبیه شمارش در زبان های برنامه نویسی است (یا هر جفت کلید-مقدار که در آن کلید یک مقدار عددی مجزا است و مقادیر دسته ها/برچسب ها هستند). من به ندرت میانگین، میانه یا هر عملیات حسابی دیگری را روی مقادیر عددی انجام می‌دهم، اما مطمئناً می‌توانم حالت را تعیین کنم (چند چیز این طبقه‌بندی برای یک مجموعه خاص اعمال می‌شود). آیا این درست به نظر می رسد؟
آیا ویژگی های اسمی طبقه بندی های دقیق و معادل شمارش در زبان های برنامه نویسی هستند؟
31708
من در تکنیک های کاهش ابعاد تازه کار هستم، باید بدانم مزایا و معایب * حفظ الگوی اصلی داده ها پس از کاهش داده ها * کاهش و تأثیرگذاری بر الگوی اصلی داده ها چیست و لطفاً این روش ها را برای من نام ببرید. . آیا می توان مواردی را در اختیار من قرار داد که حفظ یا عدم حفظ الگوی داده های اصلی ترجیح داده شود.
کاهش ابعاد: حفظ ویژگی های اصلی داده ها یا خیر؟
88502
من یک مدل طبقه‌بندی‌کننده را با استفاده از Vowpal Wabbit آموزش داده‌ام تا تصمیم بگیرم که آیا یک فرد فقط بر اساس نام مرد است یا زن. من برچسب های Male=0 و Female=1 را اختصاص دادم. وقتی Vowpal Wabbit را در حالت پیش بینی اجرا کردم، خروجی مقادیری بین 0.0 و 1.0 داشت. من این را به صورت p <= 0.5 ==> مرد و p > 0.5 ==> زن تفسیر کردم. با این کار دقت پیش‌بینی 85 درصد بود. من اکنون سعی می کنم یک مدل طبقه بندی کننده را برای مشکل دیگری آموزش دهم که در آن 200 برچسب به جای دو مورد مانند بالا وجود دارد. برچسب ها از 0 تا 199 می روند. خروجی پیش بینی دارای مقادیری بین 0.0 و 199.0 است. وقتی مقداری مانند 99.56 (به عنوان مثال) دریافت می کنم، چگونه این را تفسیر کنم؟ آیا آن را به برچسب 100؟
Vowpal Wabbit: درک خروجی پیش بینی
95598
این اولین پست من در CrossValidated است :) من متغیرهای وابسته را دارم: 1\. سرفه هنگام تغذیه با مایع (بله/خیر) 2\. سرفه هنگام تغذیه جامد (بله/خیر) و یک متغیر مستقل: 1\. گروه سنی برای پاسخ به سوال «آیا سرفه با سن مرتبط است؟» از روش رگرسیون لجستیک استفاده کنم. با این حال، من مطمئن نیستم که چگونه هر دو متغیر وابسته را در مدل تطبیق دهم. من در اینجا به بحث در مورد تجزیه و تحلیل پیامدهای مرتبط چندگانه اشاره می کنم، اما اگر با تحلیل من مرتبط است، از شما راهنمایی بخواهم. پیشاپیش ممنون
تحلیل رگرسیون برای چندین پیامد مرتبط
71557
ما آزمایشی را انجام داده‌ایم که تعداد مراجع لازم را در یک گروه برای یافتن متخصص‌ترین فرد در آن گروه در یک موضوع خاص (DV) اندازه‌گیری می‌کند. ما 7 مبحث داریم (4 تای آن مرئی و 3 تای آن نامرئی در نظر گرفته شده است). تمایز مرئی / نامرئی درمان ما است. ما 42 گروه (کلاس های مدرسه) داریم. ما آزمایش را با هر 7 موضوع در هر گروه انجام دادیم تا گروه ها و موضوعات متقاطع شوند. ما معتقدیم که تعداد مراجع مورد نیاز برای یافتن متخصص ترین فرد در یک کلاس به قابل مشاهده بودن/ناپیدا بودن موضوع جستجو بستگی دارد. من در تلاش برای رسیدن به طرح مناسب هستم. من معتقدم که موضوعات جستجو در درمان (مرئی/نامرئی) تودرتو هستند. من می خواهم این واقعیت را در نظر بگیرم که برای هر کلاس 7 معیار دارم. من علاقه ای به ارزیابی تأثیر مستقیم کلاس ندارم، اما فقط می خواهم این واقعیت را کنترل کنم که 7 معیار در یک طبقه ممکن است مستقل از یکدیگر نباشند. آیا هنوز هم می توان این کار را با ANOVA انجام داد (و اگر بله چه نوع؟) یا بهتر است از GLM استفاده کنم؟
سوال در مورد طراحی صحیح ANOVA
88504
در randomForestSRC در R، داده‌های نمونه (کهنه سرباز، بسته = randomSurvivalForest) pt.train <- نمونه (1:nrow(کهنه سرباز)، دور(nrow(کهنه سرباز)*0.80)) جانباز داریم. خارج <- rsf (Surv(زمان، وضعیت) ~ .، داده = جانباز[pt.train، ]) veteran.pred <- predict(veteran.out, veteran[-pt.train, ]) چگونه می توانم با استفاده از نتایج veteran.pred بفهمم که پیش بینی های مدل من خوب هستند؟
ارزیابی دقت ForestSRC تصادفی در یک داده بقا
88506
در مدل خود من از تجزیه Cholesky برای تولید ساختار کوواریانس خاصی از بردار متغیرهای نرمال استفاده می کنم: $\Omega=LL'$ که در آن L ضریب Cholesky مثلثی پایینی است و $\Omega$ یک ماتریس کوواریانس است. در حال حاضر $\Omega$ نامحدود است، اما من می خواهم $\Omega$ را محدود کنم تا ساختار خاصی داشته باشد. برای مثال فرض کنید $\Omega$ $2 \times 2$ است و من می‌خواهم واریانس اولین متغیر را روی یک تنظیم کنم: $\Omega=\left(\begin{array}{cc} 1 & \sigma_{21 } \\\ \sigma_{21} & \sigma_{22} \end{array} \right)$ محدود کردن کوواریانس آسان است خود ماتریس، اما مشکل در برنامه R من است، من از عامل Cholesky برای تولید ماتریس کوواریانس استفاده می کنم (این به این دلیل است که عامل Cholesky یک ماتریس کوواریانس قطعی مثبت را تضمین می کند)، بنابراین باید بفهمم که چگونه می توانم برای تولید ماتریس کوواریانس محدود صحیح، عامل Cholesky را محدود کنید. در مورد بسیار آسان بالا، من می‌توانم با قرار دادن اولین عنصر ضریب Cholesky برابر با صفر، محدودیت ماتریس کوواریانس را ایجاد کنم: $\Omega=\left(\begin{array}{cc} 1 & \sigma_{21 } \\\ \sigma_{21} & \sigma_{22} \end{آرایه} \right)=LL'=\left(\begin{array}{cc} 1 & 0 \\\ l_{21} & l_{22} \end{array} \right)\left(\begin{array} cc} 1 & l_{21} \\\ 0 & l_{22} \end{array} \right) =\left(\begin{array}{cc} 1 & l_{21} \\\ l_{21} & l_{21}^2+l_{22}^2 \end{array} \right)$ بنابراین سؤال من اساساً این است: آیا رویکرد کلی برای محدود کردن عامل Cholesky وجود دارد برای به دست آوردن ماتریس کوواریانس صحیح؟
محدودیت در تجزیه Cholesky
34069
من باید چند مقایسه میانگین ساده بین گروه‌ها (تست‌های ANOVA F پایه) روی داده‌های دارای مقادیر گمشده انجام دهم. من از بسته موش در R برای انتساب چندگانه استفاده می‌کنم، اما فقط می‌توانم نتایج را برای ضرایب مدل خطی یا R^2$ جمع‌آوری کنم. آیا کسی می داند چگونه می توان چندین آمار F را از هر مدل خطی ترکیب کرد؟ یا چگونه می توانم خطاهای استاندارد را برای آزمون F محاسبه کنم؟
مقایسه میانگین ها پس از انتساب چندگانه
78177
من سعی می کنم یک توزیع قبلی مزدوج نرمال- معکوس-Wishart را برای یک نرمال چند متغیره با میانگین ناشناخته و کوواریانس در numpy/scipy پیاده سازی کنم به طوری که بتواند یک بردار داده را بگیرد و یک پسین بسازد. من از معادلات به‌روزرسانی مشخص‌شده توسط ویکی‌پدیا برای یک NIW استفاده می‌کنم: http://en.wikipedia.org/wiki/Conjugate_prior کلاس توزیع من به شرح زیر است: import numpy به عنوان np از scipy.stats import chi2 class NormalInverseWishartDistribution(object): def __init__(خود، مو، لمبدا، نو، psi): self.mu = mu self.lmbda = float(lmbda) self.nu = nu self.psi = psi self.inv_psi = np.linalg.inv(psi) def sample(self): سیگما = np.linalg.inv(self.wishartrand()) بازگشت (np.random.multivariate_normal(self.mu، sigma / self.lmbda)، sigma) def wishartrand(self): dim = self.inv_psi.shape[0] chol = np.linalg.cholesky(self.inv_psi) foo = np.zeros((کدر، کم نور)) برای i در محدوده(کم): برای j در محدوده (i+1): اگر i == j: foo[i,j] = np.sqrt(chi2.rvs(self.nu-(i+1)+1)) else: foo[i,j] = np.random.normal(0,1) بازگشت np.dot(chol، np.dot (foo, np.dot(foo.T, chol.T))) def posterior(self, data): n = len(داده) mean_data = np.mean(data, axis=0) sum_squares = np.sum([np.array(np.matrix(x - mean_data).T * np.matrix(x - mean_data)) برای x در داده], axis= 0) mu_n = (self.lmbda * self.mu + n * mean_data) / (self.lmbda + n) lmbda_n = خودش .mu).T * np.matrix(mean_data - self.mu)) بازگشت NormalInverseWishartDistribution(mu_n، lmbda_n، nu_n، psi_n) من یک بررسی سالم ساده انجام می دهم تا ببینم آیا قسمت پسین به توزیع واقعی همگرا می شود: x = NormalInverseWishartDistribution(np.array([0,0])-3,1,3,np .eye(2)) samples = [x.sample() برای _ in range(100)] data = [np.random.multivariate_normal(mu,cov) برای mu,cov در نمونه‌ها] y = NormalInverseWishartDistribution(np.array([0,0]),1,3,np.eye(2) ) z = y.posterior(data) print 'mu_n: {0}'.format(z.mu) print 'psi_n: {0}'.format(z.psi) میانگین به طور مناسبی همگرا است، اما به نظر می رسد که ماتریس مقیاس به مقادیر نادرست بزرگ در امتداد قطر، به جای مقدار واقعی 1 همگرا می شود. تا آنجا که من می توانم بگویم، من. m دقیقاً قانون به روز رسانی را کپی می کنم. آیا من در اینجا چیزی را نامناسب اجرا می کنم؟ **ویرایش**: به نظر می‌رسد که در واقع _is_ خلفی همگرا می‌شود، اما روال نمونه نمونه‌های مغرضانه را برمی‌گرداند. آیا در روش نمونه گیری کار اشتباهی انجام می دهم؟ **ویرایش2**: تایید کرده ام که همین پدیده در تابع MCMCpack riwish در R: > library(MCMCpack) > نمونه ها <- replicate(100000, riwish(3, matrix(c(1,0,0, 1),2,2))) > mean(samples[1,1,]) [1] 4.889211 این باعث می شود باور کنم که باید باشم سوء تفاهم چیزی از صفحه ویکی‌پدیا (http://en.wikipedia.org/wiki/Inverse-Wishart_distribution)، ما داریم: $\newcommand{\E}{\mathrm{E}}$ $\E[{\Sigma}] = \frac{\Psi}{\nu - p - 1}$ با این حال، در مورد آزمایشی من، $\nu = p + 1$، بنابراین $\E[{\Sigma}] = \Psi$. بنابراین، اگر چندین بار از $\Sigma$ نمونه برداری کنم، آیا نباید به طور متوسط ​​$\Psi$ را بازیابی کنم؟ **ویرایش 3**: متوجه شدم که مشکل من یک نظارت جبری ساده است: باید $\nu = p+2$ را تنظیم کنم. مشکل حل شد
کوواریانس خلفی نرمال-معکوس-ویشارت به درستی همگرا نیست
89842
در همه جا پیشنهادهای شفاهی در مورد اینکه چه زمانی باید از میانگین هندسی استفاده کرد یا زمانی که میانگین حسابی باید ترجیح داده شود، وجود دارد، اما من نمی توانم هیچ درمان آماری رسمی برای این سوال پیدا کنم. آیا می توان به طور رسمی آزمایش کرد که کدام یک از این میانگین ها باید برای یک نمونه خاص استفاده شود؟
حسابی در مقابل میانگین هندسی
78173
من با Omnet++ 4.3 جدید هستم، یک شبکه WMN دارم و می خواهم ترافیک را از طریق دو کوتاه ترین مسیر، از یکی از گره های مشتری خود به دو ONU (wgRouter) ارسال کنم. 1. اول میخوام بدونم چطوری میتونم 2تا کوتاه ترین مسیر رو پیدا کنم، آیا میشه شبکه رو اجرا کرد و از طریق یکی از wgRouter اولین کوتاه ترین مسیر رو پیدا کرد و جدول مسیریابی رو ذخیره کرد و بعد اون wgrouter رو خاموش کرد و بعد مدل رو اجرا کرد. دوباره و دومین کوتاه ترین مسیر را از طریق wgrouter دیگر پیدا کنید و دوباره جدول مسیریابی را ذخیره کنید، سپس wgRouter را خاموش کنید، از هر دو جدول مسیریابی در قسمت مقداردهی اولیه استفاده کنید (نمی دانم چگونه آیا می توانم هر دو را در یک زمان استفاده کنم، لطفاً اگر می دانید به من اطلاع دهید) و مدل را اجرا کنید؟ 2. در نظر بگیرید که ما دو کوتاه ترین مسیر را از طریق دو wgRouter پیدا کردیم، حال چگونه می توانم ترافیک را به طور مساوی بین هر دو تقسیم کنم؟ هر اطلاعاتی برای من بسیار مفید خواهد بود. با تشکر
جدول مسیریابی و تقسیم ترافیک در omnet++
112024
من سعی می کنم تفاوت بین 1. آزمایش فرضیه صفر (یعنی آزمایش اینکه احتمال یک هدف در 2 جمعیت مختلف یکسان است، مشابه با prop.test در R) 2. آزمون A/B با استفاده از یکسان است را درک کنم. یک فرمول بیزی که در اینجا توضیح داده شده است: http://www.evanmiller.org/bayesian-ab-testing.html آیا تفاوتی وجود دارد؟ آیا یکی ارجح است؟ مشکلی که من با آن روبرو هستم چیزی شبیه به این است: گروه کنترل دارای 100000 برداشت و گروه آزمایش 100 واکنش دارای 50000 برداشت و 55 واکنش است.
آزمون AB در مقابل آزمایش فرضیه صفر
39283
برای کار مدل‌سازی Churn من در نظر داشتم: 1. محاسبه k خوشه برای داده‌ها. 2. ساخت k مدل برای هر خوشه به صورت جداگانه. دلیل آن این است که چیزی برای اثبات وجود ندارد، که جمعیت مشترکین همگن است، بنابراین منطقی است که فرض کنیم فرآیند تولید داده ممکن است برای «گروه‌های» متفاوت متفاوت باشد سؤال من این است که آیا روش مناسبی است؟ آیا چیزی را نقض می کند یا به دلایلی بد تلقی می شود؟ اگر چنین است، چرا؟ اگر نه، آیا بهترین روش ها را در مورد آن موضوع به اشتراک می گذارید؟ و نکته دوم - آیا انجام پیش خوشه‌بندی به طور کلی بهتر است یا بدتر از درخت مدل (همانطور که در Witten, Frank - درخت طبقه‌بندی/رگرسیون با مدل‌هایی در برگ‌ها تعریف شده است. به طور شهودی به نظر می‌رسد که مرحله درخت تصمیم فقط شکل دیگری از خوشه‌بندی است، اما idk اگر مزیتی نسبت به خوشه‌بندی «عادی» داشته باشد.).
آیا پیش خوشه بندی به ساخت یک مدل پیش بینی بهتر کمک می کند؟
90028
من یک طرح آزمایشی 2×2، بین آزمودنی ها (2 متغیر مستقل (IVs) با 2 سطح هر کدام) و یک متغیر وابسته (DV) دارم. داده های من نامتعادل هستند و تعامل بین IV ها محتمل به نظر می رسد، بنابراین من قصد دارم از ANOVA با مجموع مربع های نوع III استفاده کنم تا آزمایش کنم آیا DV من در یکی از IV هایم متفاوت است و در عین حال هرگونه تأثیر IV دیگر (یا تعامل) را کنترل می کنم. ، در صورت وجود). سوال من این است: حداقل تعداد نقاط داده ای که من در هر یک از 4 سلول خود نیاز دارم، چقدر است تا مطمئن شوم که ANOVA احتمالاً نتایج جعلی به دست نمی دهد؟ من از توصیه Simmons و همکاران (2011) مبنی بر داشتن حداقل 20 نقطه داده در هر سلول آگاه هستم، اما این توصیه فقط برای کنترل میزان منفی کاذب تست است. چیزی که من بیشتر نگران آن هستم این است که با اندازه سلول به اندازه کافی کوچک، آماری که ANOVA بر اساس آن است احتمالاً چندان قابل اعتماد نخواهد بود و بنابراین نتایج آزمایش نیز غیرقابل اعتماد خواهد بود (از نظر منفی کاذب). _یا_ مثبت کاذب). آیا مقاله یا متنی وجود دارد که در مورد این نگرانی مطالعه و توصیه کرده باشد؟
حداقل اندازه سلول زنده برای ANOVA 2x2 چقدر است؟
47272
من نمی‌پرسم آیا روش‌هایی مشابه روش مورد استفاده در الگوریتم جنگل تصادفی وجود دارد - منظورم این است که نمونه بوت استرپ و زیرمجموعه تصادفی ویژگی‌ها را به طور همزمان انتخاب کنیم، سپس مدل آماری بسازیم. آیا کسی این رویکرد را برای ساخت مجموعه ای از مدل های رگرسیون اتخاذ کرده است؟ آیا این رویکرد (نمونه فرعی تصادفی به علاوه زیرمجموعه تصادفی ویژگی ها) به نوعی جهانی است؟ نسخه: سوال همه در مورد امکان قرار دادن مدل دیگری در محل درخت طبقه بندی در جنگل تصادفی است، چیزی که باقی می ماند نوعی متاالگوریتم است (چون کیسه بندی را می توان به عنوان متاالگوریتم مشاهده کرد) = بسته بندی + زیر مجموعه های تصادفی از متغیرها
رویه جنگل تصادفی برای رگرسیون یا سایر مدل های آماری
39243
من سعی می کنم وزن های متغیر را با برازش SVM خطی تفسیر کنم. (من از scikit-learn استفاده می کنم): from sklearn import svm svm = svm.SVC(kernel='linear') svm.fit(ویژگی ها، برچسب ها) svm.coef_ من نمی توانم چیزی در مستندات پیدا کنم که به طور خاص نحوه این وزن ها را بیان کند. محاسبه یا تفسیر می شوند. آیا علامت وزن ربطی به کلاس دارد؟
چگونه می توان وزن ویژگی های SVM را تفسیر کرد؟
39280
برای ترسیم طرح در 3 بعدی، می توانم بگویم که دو رویکرد سطح بالا وجود دارد. 1. قطعه با 3 محور: یک بعد در هر محور. 2. طرح با 2 محور با بعد 3 نشان داده شده در رنگ. برخی از قوانین یا دستورالعمل های کلی در مورد انتخاب بین این دو رویکرد چیست؟
برخی از قوانین یا دستورالعمل های کلی در مورد انتخاب بین رنگ و 3 محور برای ترسیم سه بعدی چیست؟
110217
فرض کنید یک متغیر پیش‌بینی‌کننده $x$ اسمی/مقوله‌ای با سه سطح است: $1,2,3$. بنابراین ما دو متغیر ساختگی $x_2$ و $x_3$ با سطح $1$ به عنوان متغیر مرجع ایجاد می کنیم. اجازه دهید $y$ یک متغیر پاسخ باینری باشد. سپس یک مدل رگرسیون لجستیک می تواند این باشد: $$ \text{logit}(p) = \beta_0 +\beta_1 x_{2} + \beta_{2}x_{3}$$ در SVM ها و درخت های تصمیم، آیا لازم است متغیرهای ساختگی $x_2,x_3$ را برای $x$ ایجاد کنید؟ یا می توانیم آن را همانطور که هست نگه داریم؟
متغیرهای ساختگی و الگوریتم های یادگیری
80421
من سعی می کنم یک شبیه سازی از غلظت دارو بر اساس دوز داروی داده شده ایجاد کنم. من برخی از داده های اولیه دارم و از یک مدل اثرات تصادفی برای تجزیه و تحلیل رابطه بین log (دوز)، پیش بینی log (غلظت دارو)، مدل سازی موضوع به عنوان یک اثر تصادفی استفاده کردم. نتایج آن تحلیل در زیر آمده است. من می‌خواهم این نتایج را بگیرم و داده‌های مشابه را در SAS شبیه‌سازی کنم، بنابراین می‌توانم به تأثیر تغییر دوز روی غلظت حاصل از دارو در بدن نگاه کنم. من می‌دانم که وقتی داده‌ها را شبیه‌سازی می‌کنم، باید اطمینان حاصل کنم که شیب تصادفی با رهگیری تصادفی مرتبط است، اما من دقیقاً مطمئن نیستم که چگونه این کار را انجام دهم. اثرات تصادفی: فرمول: ~LDOS | ساختار RANDID: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intercept) 0.15915378 (Intr) LDOS 0.01783609 0.735 باقی مانده 0.05790635 اثرات ثابت: LCMX Value St-value ~ LDOS (Intercept) 3.340712 0.04319325 16 77.34339 0 LDOS 1.000386 0.01034409 11 96.71090 0 همبستگی: (Intr) LDOS -0.047
کمک به شبیه سازی افکت های تصادفی در SAS
112021
فرض کنید یک مدل رگرسیونی دارم: $y=a+b*x+error$ فرض کنید $x$ درآمد و $y$ مصرف باشد. فرضیه این است که درآمد بالاتر منجر به مصرف بیشتر می شود و بنابراین، ضریب روی $x$ باید مثبت باشد، بقیه چیزها ثابت می مانند. بیایید همچنین بگوییم ضریب تخمینی 0.60 است. این مدل به وضوح از تعصب متغیر حذف شده رنج می برد. لطفا این موضوع را نادیده بگیرید. سوال من: الف) آیا این مدل از علیت معکوس رنج می برد؟ به عبارت دیگر، آیا این رابطه به این دلیل است که مصرف بیشتر باعث کاهش درآمد می شود؟ اولین حدس من این است که اینطور نیست زیرا ضریب مثبت است، یعنی همبستگی بین درآمد و مصرف مثبت است. اینجا را ببینید. ب) با توجه به (الف)، آیا می توانم از این به عنوان یک قاعده سرانگشتی برای رد علیت معکوس در این مورد استفاده کنم؟ آیا این قابل تعمیم به موارد دیگر با دو متغیر است؟ با تشکر P.S. همچنین می توان از همبستگی به جای اجرای یک رگرسیون ساده همانطور که قبلا ذکر شد استفاده کرد.
قاعده کلی برای رد علیت معکوس در مدل OLS
108086
زمینه: چند سال پیش نزد استادی متخصص اقتصاد کلان کار می کردم. به عنوان یک دستیار پژوهشی دانشجویی، وظیفه من این بود که مقالات دیگر را تکرار کنم و با داده ها بازی کنم. من به سرعت متوجه شدم که بسیاری از نتایج منتشر شده حتی در برابر تغییرات کوچک در تنظیمات مدل‌سازی مقاوم نیستند (مثلاً اگر یک متغیر را حذف کنید، محدوده داده‌ها را تغییر دهید، تاخیرهای بیشتری اضافه کنید). در تئوری، محقق فرضیه می‌دهد، یک رگرسیون انجام می‌دهد و نتایج را گزارش می‌کند. اما در عمل به نظر می رسد که تخمین صدها رگرسیون و انتشار یک قانون نانوشته است. سوال من: قوانین نانوشته و ترفندهای کثیف برای تأثیرگذاری بر نتیجه تحلیل رگرسیون چیست؟ آیا مرجعی (آکادمیک/نیمه آکادمیک) می شناسید که نویسنده چنین رویه ای غیررسمی را برای به دست آوردن نتایج مطلوب شرح دهد؟
قوانین نانوشته و ترفندهای کثیف برای تأثیرگذاری بر نتیجه تحلیل رگرسیون
108089
من علاقه مند به ساختن نمودارهای کنترل کیفیت برای داده های سری زمانی هستم که در آن هر نقطه داده دارای درجه بندی متفاوتی در محدوده 0 تا 1 است. برای مثال نقطه داده اول **_X1_** ممکن است 0.1، 0.2،..، و داده دوم باشد. نقطه **_X2_** ممکن است 0، 1/3، 2/3، 1 باشد. داده های سوم ممکن است فاصله دیگری داشته باشند. داده ها فصلی نیستند و هیچ الگوی در نحوه ظاهر فواصل وجود ندارد (به عنوان مثال، 0.1 ( ** _X1_**)، 1/3 ( ** _X2_**) و غیره). به عبارت دیگر، من نمی دانم درجه بندی نقاط داده های آینده چقدر است، اما می دانم که محدوده بین 0 و 1 است. سؤالات من این است: 1) آیا محدودیت هایی که بر اساس برخی داده های آموزشی ایجاد خواهم کرد (UCL، LCL) خواهد بود. در نتیجه داشتن درجه بندی متفاوت ایجاد می شود - از آنجایی که داده ها پیوسته نیستند، واریانس بیشتر خواهد بود؟ 2) آیا با توجه به این واقعیت که این نشان دهنده ماهیت داده های آینده است و من مجموعه آموزشی 30 نمونه دارم، مشکلی است؟ 3) نقاط داده نشان دهنده عملکرد دانش آموز در آزمون های مختلف در زمان متوالی است و بین 0 تا 1 نرمال شده است (10 سوال در آزمون به فاصله 0.1، 3 سوال به فاصله 1/3 منجر می شود). شاید راه‌هایی برای عادی‌سازی داده‌ها وجود داشته باشد تا از مشکل افزایش واریانس جلوگیری شود؟ با تشکر فراوان از صبر و کمک شما!
نمودار کنترل کیفیت برای داده های توزیع شده غیر عادی
37993
در حال حاضر روی یک مقاله تحقیقاتی شبه تجربی کار می کنم. من فقط حجم نمونه 15 نفری دارم به دلیل جمعیت کم در منطقه انتخابی و اینکه فقط 15 مورد با معیارهای من مطابقت دارند. آیا 15 حداقل حجم نمونه برای محاسبه آزمون t و آزمون F است؟ اگر چنین است، از کجا می توانم مقاله یا کتابی برای پشتیبانی از این حجم نمونه کوچک تهیه کنم؟ این مقاله قبلاً دوشنبه گذشته دفاع شده بود و یکی از پانل درخواست کرد که یک مرجع پشتیبانی داشته باشد زیرا حجم نمونه من خیلی کم است. او گفت که باید حداقل 40 پاسخ دهنده می بود.
آیا حداقل حجم نمونه لازم است تا آزمون t معتبر باشد؟
79919
من می‌خواهم یک داده پیوسته چند متغیره تولید کنم که **کروبی** ابری باشد، مانند داده‌های معمولی استاندارد چند متغیره، اما **پلاتیکورتیک**تر از داده‌های معمولی باشد. راه‌های زیادی برای دریافت داده‌های پلاتیکورتیک (مثلاً از توزیع بتا) وجود دارد، اما هرچه پلاتیکورتیک‌تر باشند، در فضای چند متغیره بیشتر مستطیل هستند. اما من داده های تصادفی کروی و ابرکره ای می خواهم. داده های تک وجهی در صورت امکان ترجیحاً از توزیع بدون کران. و با گزینه ای برای تغییر میزان کشیدگی مسطح. ** آیا می توانید ** توزیع یا ترفندی برای تولید پیشنهاد دهید؟ P.S. گفتن فوق کروی منظورم هر ابعادی است (نه بعدی بالا). یعنی، منظور من از حالت دو بعدی فقط مورد خاص است. من هم به آن علاقه دارم.
ابر تصادفی پلاتیکورتیک کروی
34065
من می‌خواهم یک مدل دوجمله‌ای منفی را برای داده‌های تعدادم برازش کنم. من تعجب می کنم که چه تفاوت هایی برای محاسبه این سه PROC در SAS وجود دارد.
تفاوت‌های PROC GENMOD، COUNTREG و FMM برای مدل داده‌های شمارش
47270
اگر $Q$ یک ماتریس مولد یک زنجیره مارکوف زمان پیوسته (CTMC) باشد، و من باید از این ماتریس برای حل معادله رو به جلو کولموگروف استفاده کنم، باید با ادغام آن شروع کنم. اما من سرنخی ندارم چطور این کار را انجام دهم. کسی می تواند به من نشان دهد لطفا؟ من چیزی شبیه این را می دانم، فرض کنیم $i$ نمایانگر وضعیت فعلی یک CTMC است. سپس، معادله رو به جلو اساساً به ما می گوید که می توانیم با انجام $$X(i + 1) = X(i) \cdot (Id_2 + Q)$$ برای بررسی تفاوت، $X(i + 1)$ را محاسبه کنیم. با گذشت زمان، می‌توانیم $X(i)$ را از هر دو طرف کم کنیم و $X(i + 1) - X(i) = X(i) Q$$ بدست آوریم. ماتریس‌ها، می‌توان گفت که این را می‌توان به صورت $$ P'(t) = X(i) Q dt$$ نوشت، اما من نمی‌دانم چگونه به این بیت می‌رسید و چگونه می‌توانید از اینجا ادغام کنید. من واقعا از هر کمکی قدردانی می کنم. متشکرم.
چگونه ادغام معادله رو به جلو کولموگروف $P = \exp (Qt)$ را به دست می دهد؟
112028
من یک سوال در مورد تجزیه و تحلیل آماری یک آزمایش بیولوژیکی دارم. در این آزمایش من داده های تصویربرداری در مورد مدت زمان تماس بین سلول های ایمنی را جمع آوری کردم. ما دو نوع متمایز از سلول های ایمنی و زمان تماس آنها را با نوع سلول سوم مقایسه کرده ایم. مدت زمان تماس ها بر حسب دقیقه اندازه گیری شد. اکنون می‌خواهم تعیین کنم که آیا تعداد تماس‌هایی که بیش از 30 دقیقه طول کشیده‌اند، تفاوت‌های چشمگیری دارند یا خیر. این تعداد میت را برای دو نوع سلول می دهد. مثال: سلول نوع 1: 23 از 140 مخاطب اندازه گیری شده است. سلول نوع 2: 34 از 126 مخاطب اندازه گیری شده است. در این مورد باید از کدام آزمون آماری استفاده کنم؟
آزمون آماری بر روی داده های شمارش
108088
من در درک پیامدهای استفاده/افزودن یک متغیر وابسته تاخیری در مدل پیش‌بینی خود، مشکلات ابتدایی دارم. من سعی می کنم مقادیر $Y_{i,t+\tau}$ را برای $\tau=1-3$ پیش بینی کنم با: $Y_{i,t+1}=a+bY_{i,t}+cX_{i ,t}+e_{i,t+1}$Y_{i,t+2}=a+bY_{i,t}+cX_{i,t}+e_{i,t+2}$ $Y_{i,t+3}=a+bY_{i,t}+cX_{i,t}+e_{i,t+3}$ من قبلاً یک رگرسیون ترکیبی انجام دادم که در آن شما اساساً اثرات شرکت و زمان را نادیده می‌گیرید. -بر هر موضوعی به طور مساوی تأثیر می گذارد و رفتار می کند. از آنجایی که سعی می‌کنم سطوح مختلف (به دلار آمریکا) را پیش‌بینی کنم و به نظر می‌رسد که داده‌های من بسیار دنباله‌دار هستند، زیرا چند موضوع بسیار بزرگ (با مقادیر بسیار بالا) را پوشش می‌دهد، اما همچنین بسیاری از موضوعات کوچک را پوشش می‌دهد، پیش‌بینی‌های مدل به عنوان رهگیری ضعیف عمل می‌کنند. $a$ که برای همه موضوعات برابر است به نظر می رسد تا حد زیادی مسئول این امر باشد. یک مدل ثابت اما با رهگیری های فردی با متغیرهای وابسته Lagged معتبر نیست زیرا LDV با خطاهای درون همبستگی دارد. برای توضیح خطاهای دم سنگین، من قبلاً مدل تلفیقی را با بسته rlm (lm قوی) تخمین زدم که نتایج کمی بهتر داشت، اما در مجموع آنها هنوز بسیار رضایت بخش به نظر می رسند. من بیشتر خواندم که افزودن نتایج LDV در برآوردگرهای مغرضانه و ناسازگار، زیرا همبستگی شدیدی بین متغیرهای پیش‌بینی‌کننده و خطاهای مدل وجود دارد و روش‌های منظم برای همبستگی خودکار دیگر معتبر نیستند. یکی از راه‌حل‌هایی که من با آن برخورد کردم استفاده از متغیرهای ابزاری با تخمین‌گر اندرسون-هسیائو (یعنی استفاده از یک تاخیر -2 که با عبارت خطا مرتبط نیست (با فرض عدم همبستگی خودکار است، اما چگونه می‌توانید فرض کنید که هیچ همبستگی خودکار وجود ندارد اگر یک تاخیر را وارد کنید. ?) یکی دیگر برآوردگر آرلانو باند GMM است، اما با استفاده از GMM باید شرایط لحظه ای را تنظیم کنید و من این کار را انجام داده ام. هیچ ایده ای برای انجام این کار ندارم و نمی دانم دقیقاً چگونه این روش ها کار می کنند، چیزی که من به آن اهمیت می دهم این است که یک برآوردگر بی طرف با ضرایب معتبر بدست آوریم و نه در مورد خطاهای استاندارد با LDV هایی که من در حال حاضر از آنها بی اطلاع هستم کنار بیایید و بهترین/ایده آل ترین/ساده ترین راه برای مقابله با چنین مسائلی چیست؟ همبستگی خودکار) من در اینجا کمی گم شده ام.
پیامدهای تاخیر متغیرهای وابسته در داده های تابلویی و نحوه برخورد با آن؟
95597
داده های من این است: Q1: 8.5 Q2: 13 Q3: 17.5 IQR: 9. مسئله ریاضی می گوید محدوده بین چارکی را تفسیر کنید. من نمی دانم این به چه معناست یا چگونه آن را انجام دهم.
محدوده بین چارکی را چگونه تفسیر می کنید؟
88508
من فقط یک رگرسیون خطی را روی کل مجموعه داده اجرا کردم، اما اکنون باید رگرسیون را با داده‌هایی که فقط از زنان درون داده‌ها هستند اجرا کنم. زنان در زیر ستون «زن» مجموعه داده‌ها با «1» نشان داده می‌شوند. نرها با 0 در زیر همان ستون نشان داده می شوند. من نمی دانم چگونه داده های مرد را حذف کنم تا بتوانم رگرسیون را فقط روی داده های زن اجرا کنم.
کد رگرسیون خطی مشروط
108332
من به دنبال مرجع کتابشناختی برای مقایسه دو ماتریس واریانس با معیار زیر هستم: $\text{Var}[X] \geq \text{Var}[Y] \quad \text{if} \quad \text{Var}[ X]-\text{Var}[Y] \succeq 0$ این بدان معناست که اگر اختلاف ماتریس‌های واریانس آنها نیمه باشد، $X$ دارای واریانس رنده‌تری نسبت به $Y$ است. مثبت قطعی هر ارجاع قابل استنادی به کتاب ها یا آثاری که توضیح دهد چرا این یک معیار معتبر و رایج برای مقایسه تنوع بردارهای تصادفی است، قدردانی می شود. اگر این امکان پذیر نیست، هیچ کمکی در مورد نحوه جستجوی آن وجود ندارد. با تشکر
مقایسه دو ماتریس واریانس
100687
در یادگیری ماشینی، به نظر قابل قبول است که داده های از دست رفته بر دقت پیش بینی و زمان یادگیری تأثیر می گذارد. آیا کسی ادبیاتی را می شناسد که این را تحلیل کند؟ من ادبیات زیادی پیدا کرده ام که در مورد تکنیک های مقابله با داده های از دست رفته بحث می کند، اما هیچ ادبیاتی که تأثیر آن را تجزیه و تحلیل کند، به عنوان مثال. با 25٪ از ویژگی های اصلی از دست رفته، سپس دقت پیش بینی 50٪ کاهش می یابد، و غیره.
برخی از مقالات که تأثیر داده های از دست رفته در یادگیری ماشین را تجزیه و تحلیل می کنند چیست؟
96768
آیا هنگام ایجاد یک شبکه عصبی، وزن‌ها را پس از هر بار اجرا به جلو و سپس به عقب به‌روزرسانی می‌کنم؟ یا فقط وزن های تصادفی را نگه دارم و متغیرهای دلتا را به روز کنم؟ من به اسلاید 8 در این یادداشت ها نگاه می کنم:https://d396qusza40orc.cloudfront.net/ml/docs/slides/Lecture9.pdf می گوید: برای i = m a(1) = x(i) را به جلو انجام دهید محاسبه دلتا محاسبه DELTA QUESTION: آیا وزن هایی را که در Forward-propogation استفاده می کنم به روز می کنم یا استفاده می کنم وزن های تصادفی و فقط به روز رسانی ذخیره کننده 'DELTA' ادامه دهید؟ و اگه وزن ها رو آپدیت کنم روی DELTA قرار بدم؟
سوال فرآیند شبکه عصبی - به روز رسانی وزن ها بعد از هر مجموعه آموزشی
100688
نتیجه ای که من در مورد آن صحبت می کنم، میانگین اعتبارسنجی متقاطع از تابع sklearn است. من سعی کردم داده های آموزشی خود را به هم بزنم و سپس تابع CV را اعمال کردم (شافل و سپس CV). من چندین بار این کار را انجام دادم و هر نتیجه متفاوت بود، برخی از بقیه بالاتر هستند. آیا ترتیب داده ها از داده های آموزشی مرتبط است؟ اگر چنین است، پس چگونه؟ **اضافه ها:** ببخشید مشکلم را خوب تعریف نکردم. من در حال انجام یک طبقه بندی باینری نظارت شده هستم. متغیر قطار من شامل ویژگی و طبقه بندی است. در اینجا بخشی از کد من است: وارد کردن numpy به عنوان np از sklearn import_validation cross_validation از sklearn.linear_model import LogisticRegression np.random.shuffle(train) clf = LogisticRegression() clf = clf.fit(train[0::,1::] ,train[0::,0]) mean = cross_validation.cross_val_score(clf, train[0::,1::],train[0::,0], cv=cross_validation.StratifiedKFold(train[:,0],5)).mean() print mean #sample برای قطار: #قطار = [[1,0.5,0.3,0.6],[0,0.3,0.2,0.1],[0,0.1,0.9,0.7]] در اینجا من n_fold=5 دارم. اگر من np.random.shuffle (train) را حذف کنم، نتیجه من برای میانگین تقریباً 66٪ است و حتی پس از چند بار اجرای برنامه ثابت می ماند. با این حال، اگر قسمت shuffle را وارد کنم، میانگین من تغییر می کند (گاهی افزایش می یابد و گاهی کاهش می یابد). و سوال من این است که چرا به هم زدن داده های آموزشی من باعث تغییر میانگین من می شود؟ اگر ترتیب داده ها در قطار من نامربوط است، پس چرا میانگین من پس از زدن تغییر می کند؟ این فقط بخشی از کد من است، بنابراین فرض کنید که متغیر train در جایی تعریف شده است. متغیر قطار من مشابه نمونه است، اما از ویژگی های بسیار بیشتری تشکیل شده است.
چرا هر زمان که داده های آموزشی خود را به هم می زنم، نتایج در اعتبارسنجی متقابل تغییر می کند؟
68510
من سعی می کنم خودم را در مورد تجزیه و تحلیل پیش بینی آموزش دهم و از «R» برای تولید یک مدل خطی با داده های زیر استفاده می کنم. سن <- c(23، 19، 25، 10،9، 12، 11، 8، 13) استروئید <- c(27.1، 22.1، 21.9، 10.7، 7.4، 18.8، 14.7، 5.7) gpa <- c(2. ، 2.9، 2.8، 3.5، 3.2، 3.9، 2.8، 2.6) نمونه <- data.frame (سن، استروئید، gpa) fit2 <- lm (استروئید ~ سن + gpa) خلاصه (fit2) newdata <- data.frame (سن=15، gpa=3.2 ) predict(fit2, newdata, interval=predict) # من مقدار برازش / پیش بینی شده را از خلاصه برای خطی می خواهم مدل، من اطلاعاتی در مورد ضرایب مرتبط با هر پیش بینی دارم. با این حال، من می خواهم بیشتر بروم و احتمال پیش بینی اطلاعات را از این داده ها پیدا کنم. بنابراین برای کسی که 13 سال دارد و معدل 3.3 دارد، احتمال پیش بینی شده که در مقیاس استروئیدی رتبه بالایی داشته باشد چقدر است؟ برای کسی که 10 سال دارد چطور؟ و غیره. من مدل‌سازی توضیحی را درک می‌کنم و در پیاده‌سازی آن در «R» مشکلی ندارم، فقط با استفاده از «R» برای ساختن تحلیل‌های پیش‌بینی معنادار مشکل دارم. اگر نظری در این مورد دارید، در صورت تمایل به اشتراک بگذارید.
یافتن پیش بینی ها از یک مدل خطی
30397
تفاوت بین مدل اثرات ثابت و مدل اثرات تصادفی برای متاآنالیز همبستگی های نمونه چیست؟
تفاوت بین مدل اثرات ثابت و مدل اثرات تصادفی برای متاآنالیز همبستگی های نمونه چیست؟
108330
من قبلاً این سؤال را پرسیده ام اما در ابتدا همه جزئیات سؤال را بیان نکردم، مانند سؤال چند گزینه ای. شما یک میله آهنی که رسانایی الکتریکی آن 10.1 است را تولید و می فروشید. شما قصد دارید 6 اندازه گیری از رسانایی میله ای که قصد فروش آن را دارید انجام دهید. می دانید که انحراف معیار اندازه گیری های شما σ=0.1 است. اگر محصول دارای مشخصات باشد، میانگین بسیاری از اندازه گیری ها 10.1 خواهد بود. بنابراین شما H0:μ=10.1 Ha:μ≠10.1 را آزمایش خواهید کرد: توضیح دهید که چرا آزمایشی که برنامه ریزی می کنید به اندازه کافی از شما در برابر فروش میله ای با رسانایی 10.15 محافظت نمی کند. پاسخ های ممکن عبارتند از: الف. زیرا احتمال اینکه به اشتباه به این نتیجه برسیم که μ = 10.15 زمانی که محصول نامناسب است بسیار زیاد است. ب- چون احتمال اشتباه به این نتیجه می رسد که μ = 10.15 زمانی که محصول مناسب است بسیار زیاد است. ج. زیرا احتمال به اشتباه این نتیجه گیری که μ = 10.15 زمانی که در واقع μ ≠ 10.15 بسیار زیاد است. د) زیرا قدرت یک آزمون در برابر جایگزین μ = 10.15 تنها یک احتمال است، نه قطعیت. من معتقدم که پاسخ این است زیرا احتمال اینکه به اشتباه 10.15 μ= در زمانی که محصول مناسب است، خیلی زیاد است، زیرا توان آن 0.24 است و این بدان معناست که احتمال بسیار بیشتری وجود دارد که میله فرضیه صفر را حذف نکند (0.76). ). همچنین اگر حجم نمونه را به بیش از شش افزایش دهم چه تفاوتی دارد. آیا من درست هستم یا اشتباه؟ یا یکی از موارد دیگر است. با تشکر از همه
آمار: به روز رسانی Power Question
100686
چرا $\mbox{SST} = \mbox{SSR} + \mbox{SSE}$ نگه می‌دارد؟ قابل درک است که $\sqrt{\mbox{SST}} = \sqrt{\mbox{SSR}} + \sqrt{\mbox{SSE}}$، اما چگونه می‌تواند $\mbox{SST} = \mbox{SSR} + \mbox{SSE}$ نگه دارید؟ این مقادیر مربع هستند.
مجموع مجذور خطاها
108337
فرض کنید من یک سری زمانی دارم که روند قابل توجهی را نشان می دهد و می خواهم فرضیه ای را آزمایش کنم که متغیر دوم با آن روند مرتبط است. من یک مدل رگرسیون خطی را با آن متغیر دوم به‌عنوان پیش‌بینی‌کننده برازش می‌دهم، و مقدار قابل توجهی از واریانس را به خود اختصاص می‌دهد. با این حال، بخشی از روند وجود دارد که آن را به حساب نمی آورد. سپس می‌خواهم عبارت‌های AR یا MA را به مدل اضافه کنم تا بقایای همبسته خودکار را محاسبه کنیم، اما مدل‌های ARIMA یک سری ثابت را فرض می‌کنند، و بازرسی بصری سری و آزمایش ADF نشان می‌دهد که سری خطای باقیمانده در میانگین ثابت نیست ( به عنوان مثال، روندی وجود دارد که توسط مدل رگرسیون محاسبه نشده است). آیا تفاوت _after_ مدل رگرسیون مناسب برای حذف این منبع غیرایستایی است، یا باید همیشه سعی کرد یک مدل رگرسیونی پیدا کرد که _همه_ روند را در داده ها توضیح دهد؟ پیشاپیش متشکرم
آیا می توانم پس از برازش مدل رگرسیون سری زمانی تفاوت داشته باشم؟
89845
با فرض اینکه من یک فروشگاه تجارت الکترونیک آنلاین دارم. اخیراً برای یکی از محصولات می خواهم برای مدتی کمپین فروش محصول را اجرا کنم. اثربخشی صرفاً بر حسب افزایش فروش تعریف می شود. اما مشکل این است که من نمی دانم چگونه این را اندازه گیری کنم. بر اساس تجربه من، حجم فروش از ماه به ماه در نوسان است، و ممکن است عوامل دیگری (ناشناخته) وجود داشته باشد که رکورد فروش من را تضعیف یا هیجان زده کند. متغیرهای بسیار زیادی وجود دارند، ناشناخته و شناخته شده درگیر هستند و تفکیک آنها بسیار دشوار است. انجام آزمایش کنترل شده مانند آزمایش A/B صفحات وب (نمایش دو نسخه از صفحات وب به بازدیدکنندگان مختلف، یکی با تبلیغات، دیگری بدون تبلیغات) به سادگی عملی نیست، زیرا بازدیدکنندگان ممکن است فوراً خرید نکنند. آنها ممکن است پس از مدتی خرید کنند، بنابراین با تعجب بی ادبانه متوجه می شوند که قیمت آنقدر ناگهانی تغییر کرده است. حتی اگر عملی باشد، منابع لازم برای سرمایه گذاری در تست A/B را ندارم، سرمایه من بسیار محدود است. چگونه تعیین کنم و چه آزمایش‌های معتبر آماری را می‌توانم انجام دهم تا بررسی کنم که آیا کمپین فروش من مؤثر است یا خیر؟
چگونه تعیین کنیم که یک کمپین فروش موثر است؟
90489
اگر حجم نمونه یکی از آن گروه ها 2 باشد، می توانید بین 2 یا 3 گروه آزمون t یا ANOVA انجام دهید؟ آیا نتایج به روشی مشابه با حجم نمونه بزرگتر قابل تفسیر هستند (n=4،5،6؟). اگر می توانید هر مرجعی برای مطالعه بیشتر در مورد آمار حجم نمونه بسیار کوچک ارائه دهید، مفید خواهد بود.
حداقل حجم نمونه برای آزمون t
6525
من با برنامه نویسی R خیلی تازه کار هستم. پس لطفا برای چنین شک ساده ای عذر خواهی کنید. ![چگونه این نمودار را در R رسم کنیم؟](http://i.stack.imgur.com/pcmle.png) من می خواهم نمودار بالا را رسم کنم. مقادیر x & y دنباله ای از 0 تا 2560 هستند. من می خواهم یک منحنی را روی نقاطی که x*y=10^6 در آن ترسیم کنم. خط مورد نیاز در زبان برنامه نویسی R چیست؟
چگونه می توانم این نمودار ساده (Refer Image) را در R رسم کنم؟
103480
من سعی می‌کنم منحنی رشد Weibull را با داده‌های خود منطبق کنم، اما یک تکینگی در `backsolve` در سطح 0 بلوک 1 خطا دریافت می‌کنم: DATA head(trian) AY DEV CUM 1 1991 6 357848 2 1991 18 1124788 3 1997333 1991 42 2182708 5 1991 54 2745596 6 1991 66 3319994 و فرمول این است: w1 = nlme(CUM~ult*(1-exp(-(DEV/theta)^omega)), fixed=list(ult~1,omega~1, theta~1)، random=ult~1|AY، وزن=varPower(ثابت=0.5)، داده=تریان، شروع=c(ult=5000، امگا=1.4، تتا=45))
مدل های سلسله مراتبی برای ذخیره ضرر
4783
من برخی از داده های فرکانس تجمعی دارم. یک خط $y=ax+b$ به نظر می‌رسد که به خوبی با داده‌ها مطابقت دارد، اما حرکت چرخه‌ای/دوره‌ای در خط وجود دارد. من می خواهم تخمین بزنم که فرکانس تجمعی چه زمانی به مقدار مشخصی $c$ می رسد. وقتی باقیمانده ها را در مقابل مقادیر برازش رسم می کنم، یک رفتار سینوسی زیبا دریافت می کنم. اکنون، برای اضافه کردن یک پیچیدگی دیگر، توجه داشته باشید که در نمودارهای باقیمانده ![alt text](http://i.stack.imgur.com/3GIg5.png) دو چرخه وجود دارد که مقادیر کمتری نسبت به بقیه دارند، که نشان دهنده یک اثر آخر هفته که باید در نظر گرفته شود. خب از اینجا کجا برم؟ چگونه می توانم برخی از اصطلاحات کسینوس، سینوس یا چرخه ای را در یک مدل رگرسیونی با تقریبی ترکیب کنم. تخمین بزنید که فرکانس تجمعی چه زمانی برابر با $c$ خواهد بود؟
چگونه مولفه تناوبی را به مدل رگرسیون خطی اضافه کنیم؟
108334
در مدل ورشکستگی، شما می خواهید با نزدیک شدن به تاریخ رویداد بزرگ (مانند تاریخ اعلام سود سه ماهه یک شرکت) وزن بیشتری را به یک متغیر اختصاص دهید و با دور شدن از آخرین تاریخ، این وزن را معکوس کنید. همانطور که انتظار می رفت، یک وزن مثبت بیشتر به پیش بینی ورشکستگی کمک می کند. از چه تکنیک هایی می توان برای تصمیم گیری در مورد چنین طرح وزنی استفاده کرد؟ من تعداد کمی را می شناسم اما می خواستم ببینم کارشناسان چه می توانند بگویند.
وزن کردن یک متغیر بر اساس فاصله تا تاریخ مشخص
79220
برای مقایسه الگوریتم‌های هوش محاسباتی بر روی چندین تابع، من از آزمون فریدمن مانند زیر استفاده کرده‌ام [1]: الگوریتم 1 الگوریتم 2 ... تابع الگوریتم 1 میانگین (A1F1) میانگین (A2F1) ... میانگین (AkF1) میانگین تابع 2 میانگین (A2F2) ... mean(AkF2) ... Functionn mean(A1Fn) mean(A2Fn) ... mean(AkFn) که در آن mean(x) میانگین نتیجه در تعدادی از اجراها است (مثلا M). با این حال، صفحه ویکی‌پدیا می‌گوید که باید «یک مشاهده واحد در تقاطع هر بلوک و درمان» وجود داشته باشد. بنابراین من به چیزی مانند: Algorithm1 Algorithm2 فکر می کردم ... AlgorithmK Function1_run1 A1F1_run1 A2F1_run1 ... AKF1_run1 Function1_run2 A1F1_run2 A2F1_run2 ... AKF1_run2 ... A1F1_run1 A2F1_run1 AkF1_runM Function2_run1 A1F2_run1 A2F2_run1 ... AKF2_run1 Function2_run2 A1F2_run2 A2F2_run2 ... AKF2_run2 ... Function2_runM A1F2_runM A2MF2_runM Function2_run2 A1FN_run1 A2FN_run1 ... AKFN_run1 FunctionN_run2 A1FN_run2 A2FN_run2 ... AKFN_run2 ... FunctionN_runM A1FN_runM A2FN_runM ... AkFN_runM هر اجرا کاملا مستقل است. سوال من این است: آیا روش دوم برای آزمون فریدمن معتبر است؟ اگر چنین است، آیا ترتیب اجراها را می توان برای یک تابع معین تغییر داد، زیرا آنها مستقل هستند؟ [1] S. García، D. Molina، M. Lozano، F. Herrera، مطالعه ای در مورد استفاده از آزمون های غیر پارامتری برای تجزیه و تحلیل رفتار الگوریتم های تکاملی: مطالعه موردی در CEC در 2005 جلسه ویژه در مورد پارامتر واقعی بهینه سازی. مجله اکتشافی، 15 (2009) 617-644. [2] http://en.wikipedia.org/wiki/Friedman_test
محتویات بلوک تست فریدمن
108339
من یک داده در قالب زیر دارم: $$ \begin{array}{rr} \textbf{colm_1} & \textbf{colm_2}\\\ 3 & 1\\\ 10 & 0\\\ 3 & 0\\ \ 100 و 1 \\\ . & .\\\ . & . \end{array} $$ _colm_1_ اساساً اعداد کامل هستند و _colm_2_ نشان‌دهنده مقادیر باینری است که می‌گویند موفقیت یا شکست. آنچه من انتظار دارم این است که برای مقادیر پایین‌تر از ویژگی‌ها در _column_1_ احتمال موفقیت کمتر باشد، در حالی که با افزایش مقادیر _column_1_، احتمال موفقیت افزایش می‌یابد. حال چگونه می توانم CDF (یا ECDF) داده های بالا را رسم کنم؟ از دیدگاه من اساساً باید بگوید _P(موفقیت | colm_1 = **ارزش**) <= مقداری بین 0-1_. جایی که **Value** هر عدد کامل در _colm_1_ است. امیدوارم در توضیحاتم واضح بوده باشم، اگر نه لطفا اصلاح کنید. در نهایت، من عمدتا از numpy و scipy پایتون استفاده می کنم. چگونه می توانم داده های خود را تبدیل کنم تا بتوانم ecdf را رسم کنم؟
نمودار CDF/ECDF برای داده ها با دو ویژگی
72230
چگونه می توانم آمار توصیفی را برای یک متغیر ساختگی (جنسیت کارگر در یک مغازه) توصیف کنم؟ فرض کنید این اطلاعاتی است که من دارم: میانگین : 0.47 میانه : 0 حداکثر : 1 دقیقه : 0 std. dev : 0.4998 چولگی : 0.101 کشیدگی : 1.01 jarque bera : 85.67 احتمال : 0 می دانم که برخی از اطلاعات بی فایده هستند زیرا یک متغیر ساختگی است. پس چگونه آن را در کلمات تفسیر کنم؟
تفسیر آمار توصیفی برای متغیر ساختگی
100682
در رگرسیون حداقل مربعات معمولی (OLS)، اگر نمودار باقیمانده ها در برابر مقادیر برازش یک خط افقی در اطراف 0 تشکیل دهد، می توان گفت که متغیر وابسته به صورت خطی با متغیر مستقل مرتبط است. من فکر می کردم که این درست است زیرا $E(y_i - \hat{y}_I)=0$ وقتی متغیر وابسته به صورت خطی با متغیر مستقل مرتبط است، اینجا را ببینید. با این حال، فرض کنید: $y_i = \alpha + \sin(x_i) + \epsilon_i$. سپس $E(y_i - \hat{y}_i)$ هنوز 0 است، اینجا را ببینید اما پس از آن نمودار باقیمانده آن در برابر مقدار برازش آن دیگر یک خط افقی در اطراف 0 نیست، همانطور که این کد R نشان می دهد: n <- 10 ^3 df <- data.frame(x=runif(n, 1, 10)) df$mean.y.given.x <- sin(df$x) df$y <- df$mean.y.given.x + rnorm(n) مدل <- lm(y ~ x, data=df) plot(predict(model, newdata=df), residuals(model)) abline(a=0 ,b=0,col='blue') ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kyBwt.png) بنابراین سوال من این است که فرض(های) OLS که باعث می شود نمودار باقیمانده ها و مقدار برازش یک خط افقی در اطراف 0 باشد و چرا/چگونه درست است؟
چرا وقتی که متغیر وابسته به صورت خطی با متغیر مستقل مرتبط است، نمودار باقیمانده ها در برابر مقادیر برازش، یک خط افقی است؟
72237
اگر من 6 محصول ($x$) و 11 سازنده ($y$) داشته باشم، برخی از محصولات تولید شده توسط برخی از این تولیدکنندگان؛ ($x,y$) ممکن است برابر با هیچ یا هر مقدار دیگری باشد. برای هر ترکیبی از $x$ و $y$ مقادیر و مقادیر مورد انتظار برای هزینه، زمان و بنزین حمل و نقل با توجه به فاصله بین سازنده و محل کار وجود دارد. من دو مشکل برای استفاده از الگوریتم ژنتیک باینری (GA) برای یافتن مجموعه های پارتو این ترکیب ها دارم: 1. ژن نشان دهنده محصول فقط شامل 3 رقم است ($6<7$) و برای ژنی که برای نشان دادن سازنده استفاده می شود، 4 رقم است. ($8<11<16$) بنابراین کروموزوم 7 رقمی است. مشکل این است که در تمام نمونه هایی که من بررسی کردم طول ژن ها برابر است. بنابراین این مشکل برای حل این موضوع خواهد بود. 2. فرض کنید محصول $x_1$ و $x_5$ توسط $y_3$ و $y_7$ تولید نشده اند، به این معنی که تابع تناسب $(x_1,y_3)$ و $(x_5,y_7) = 0$ است و از آنجایی که مشکل به حداقل رساندن راه حل ممکن است در این دو نقطه به دام افتاده باشد. سوال این است که چگونه می توان چنین مواردی را حل کرد؟ با تشکر از کمک ارزشمند مورد انتظار شما.
چگونه در الگوریتم ژنتیک با کروموزوم های ژن های با طول های مختلف برخورد کنیم؟
103485
یک سوال احمقانه اما من را گیج کرده است. دیتافریم من به این صورت است: روز جولیان سال 153 1951 161 1952 167 1953. . . . 161 2007، من برای هر سالی که رویدادی رخ می دهد، روز جولیان دارم و سعی می کنم تعیین کنم که آیا روز جولیانی آن رویداد با گذشت زمان تغییر می کند یا خیر. آیا روز جولیان را به‌عنوان داده‌های پیوسته یا شمارشی در نظر می‌گیرم؟ حدس می‌زنم اگر آن را به‌عنوان داده‌های پیوسته در نظر بگیرم، یک رگرسیون خطی روز جولیان در برابر زمان انجام می‌دهم و اگر یک داده شمارش باشد، یک رگرسیون پواسون در برابر زمان انجام خواهم داد.
روز جولیان یک داده شمارش یا یک داده پیوسته است
79228
من در حال مطالعه مقاله ای در مورد نمونه گیری هستم (نمونه گیری خوشه ای تطبیقی ​​از استیون کی تامپسون) و در مورد دو مفهوم گیج شده ام. در برخی موارد، او می‌گوید **احتمال انتخاب** واحد $i$ در هر یک از $n_1$ (نمونه اولیه) $p_i = (m_i + a_i)/N$ است. او همچنین می‌گوید **احتمال اینکه وحدت $i$ در نمونه گنجانده شده باشد، $$ \alpha_i = 1 - \binom{N - m_i -a_i}{n_1}/\binom{N}{n_1} $ است. $ تفاوت بین **احتمال انتخاب** و **احتمال گنجاندن** چیست؟ در ابتدا فکر می‌کردم که احتمال انتخاب، احتمال این است که واحد $i$ برای نمونه اولیه انتخاب شده باشد و احتمال گنجاندن، احتمال گنجاندن احتمالی است که واحد $i$ بعد از انتخاب متوالی در نمونه گنجانده شود. اما از آنجایی که از نمونه‌گیری تصادفی ساده برای انتخاب اولیه استفاده می‌شود، فرمول نباید $m_i$ یا $a_i$ را که اندازه شبکه و لبه‌ای هستند که وحدت $i$ بخشی از آن است، در نظر بگیرد. فقط باید تعداد کل واحدها و اندازه نمونه اولیه را در نظر بگیرد. بنابراین، برای من روشن نیست که هر یک از آن احتمالات چیست.
احتمال انتخاب در مقابل احتمال ورود
73542
من سعی می کنم یک آزمون جایگشت دو طرفه بنویسم تا فرضیه جایگزین وجود تفاوت در میانه های 2 نمونه مستقل را آزمایش کنم. سوال من این است: آیا من مقدار p را به درستی محاسبه می کنم؟ خیلی ممنون نمونه1 <- آبهای زیرزمینی$غرب[!is.na(آبهای زیرزمینی$غربی)] نمونه2 <- آبهای زیرزمینی$East ts <- میانه(نمونه1) - میانه(نمونه2) > ts [1] 0.105 R <- 9999 همه <- c( نمونه1، نمونه2) k <- 1: طول (همه) تکرارها <- عددی (R) برای (i در 1:R) { m <- نمونه(k، اندازه=طول(نمونه1)، جایگزین=FALSE) permsample1 <- همه[m] permsample2 <- همه[-m] تکرار[i] <- میانه(permsample1) - میانه(permsample2) } pvalue <- sum(c(ts، تکرارها) <= ts)/9999 > pvalue [1] 0.9223922
تست جایگشت دو طرفه
73544
در حال حاضر روی مشکلی کار می کنم که در آن باید پارامترهای آب و هوا را در یک مکان زمینی با استفاده از داده های ماهواره ای موجود (1979-2012) روی نقاط شبکه مستطیلی و داده های رصدخانه سطحی برای یک مکان (1980-2000) کالیبره کنم. من دو مدل ساخته ام - یکی برای ماه های ژانویه در دوره 1980-2000 و دیگری از نوامبر تا آوریل در طول سال های 1980-2000. اکنون مشکل زمانی ایجاد می شود که من مربع R تنظیم شده را برای هر دو مدل مقایسه می کنم. مدل Nov-Apr به من R-squared بالاتری می دهد (0.7 در مقابل 0.2) در حالی که خطاهای باقیمانده داستان مخالف را به من می گوید و در مورد مدل Nov-Apr نتایج ضعیفی ارائه می دهد. یکی از گزینه ها این است که اجزای مختلف R-squared را محاسبه کنید و ببینید که آیا می تواند تفاوت ها را توضیح دهد. پس چگونه می توانم این مولفه ها را در R محاسبه و توضیح دهم؟ یا راه بهتر و کارآمدتری وجود دارد؟ پیشاپیش ممنون
مقایسه مدل های رگرسیون خطی چندگانه بر اساس خطاهای مربعی R و باقیمانده
73540
با نگاهی به تعاریف ویکی‌پدیا از موارد زیر (f_i -y_i)^2$ که $N$ تعداد نمونه ها و $f_i$ تخمین ما از $y_i$ است. با این حال، در هیچ یک از مقالات ویکی پدیا به این رابطه اشاره نشده است. چرا؟ آیا من چیزی را از دست داده ام؟
میانگین مربعات خطا و مجموع باقیمانده مربع ها
4786
من به دنبال استفاده از روش داخلی نقطه برای بهینه سازی یک تابع محدب هستم. تابع محدب اساساً لاگ احتمال یک مدل رگرسیون لجستیک باینری است. آیا می توانم از این تکنیک استفاده کنم؟ به طور کلی، آیا چیزی وجود دارد که از اعمال یک تکنیک بهینه سازی محدود برای یک مسئله غیرمحدود جلوگیری کند؟ از آن‌چه من فکر می‌کنم، یک مسئله بدون محدودیت فقط یک مشکل محدود بدون محدودیت است و بنابراین باید با استفاده از این تکنیک‌ها قابل حل باشد.
آیا می توان تکنیک های بهینه سازی محدود را برای مسائل غیرمحدود به کار برد؟
87886
در حین مطالعه، به این جمله گیج کننده برخوردم که میانگین و واریانس نمونه _فقط در توزیع های متقارن همبستگی ندارند_ و اگر توزیع به شدت دارای انحراف باشد، همبستگی قوی وجود دارد. اول از همه، آیا درست است؟ من قبلاً می‌دانم که این برای مورد یک جمعیت _عادی_ صادق است، اما آیا می‌توان آن را برای _هر_ توزیع متقارن ثابت کرد؟ اگر چه من فکر می کنم نتیجه خلاف شهود است، من از استدلال های ساده قدردانی می کنم. متشکرم
چرا یک توزیع متقارن برای عدم همبستگی میانگین و واریانس نمونه کافی است؟
97818
من در حال حاضر روی پروژه ای برای یک شرکت بزرگ کشاورزی کار می کنم. ما در حال حاضر یک سیاست اعتباری داریم که امتیاز می دهد و بدهکاران شرکت را به 5 بخش طبقه بندی می کند - VLR (خطر بسیار کم)، LR، MR، HR، VHR. مشتریان عمدتاً مالکان انحصاری هستند که جزئیات مالی حسابرسی شده ندارند. از این رو اکثر آنها در دسته های HR و VHR طبقه بندی می شوند. به عنوان مثال 97 درصد از مشتریان اطلاعات مالی ندارند و 98 درصد از کل مشتریان رتبه بندی HR/VHR را دریافت می کنند. ما در حال کار بر روی شناسایی متغیرهای جدیدی هستیم که می تواند به تقسیم بندی بیشتر مشتریان HR/VHR کمک کند. به عنوان یک شاخص پیش فرض، ما از هزینه افزایشی شرکت به دلیل پیش فرض/تأخیر استفاده خواهیم کرد. سوال من این است که آیا می توانم از یک الگوریتم یادگیری نظارت شده مانند K Nearest Neighbor برای طبقه بندی استفاده کنم؟ از آنجایی که داده های طبقه بندی فعلی این است که 98٪ HR/VHR دارند، به دلیل از دست دادن داده های مالی صحیح نیست. من نمونه هایی از رگرسیون لجستیک، تجزیه و تحلیل متمایز، k به معنای خوشه بندی و غیره را دیده ام. پس چگونه تصمیم بگیریم که از کدام استفاده کنیم؟ علاوه بر این، قبل از اجرای هر یک از این تست‌ها، فکر می‌کنم داده‌ها باید پاک شوند. آیا نکات و دستورالعمل های واضحی برای پاکسازی داده ها وجود دارد؟ من دانشجوی مدیریت هستم، بنابراین با تکنیک های آماری آشنا شدم اما فقط دانش اولیه اولیه از تکنیک های پیشرفته ای که در بالا ذکر کردم دارم. بنابراین هر راهنمایی قابل قدردانی خواهد بود.
رویکرد امتیازدهی اعتبار برای یک شرکت محصولات کشاورزی/شیمیایی
72231
در بسیاری از الگوریتم‌های یادگیری ماشین، مقیاس‌بندی ویژگی (معروف به مقیاس‌بندی متغیر، نرمال‌سازی) یک مرحله پیش‌فرض رایج است ویکی‌پدیا - مقیاس‌گذاری ویژگی \-- این سؤال نزدیک بود. من دو سوال به طور خاص در رابطه با درخت تصمیم دارم: 1. آیا اجرای درخت تصمیمی وجود دارد که به مقیاس بندی ویژگی نیاز داشته باشد؟ من این تصور را دارم که معیارهای تقسیم اکثر الگوریتم ها نسبت به مقیاس بی تفاوت هستند. 2. این متغیرها را در نظر بگیرید: (1) واحدها، (2) ساعتها، (3) واحدها در ساعت -- آیا بهتر است این سه متغیر را همانطور که هستند رها کنیم وقتی به درخت تصمیم وارد می شوند یا به نوعی برخورد می کنیم. از تعارض از آنجایی که متغیر نرمال شده (3) با (1) و (2) مرتبط است؟ یعنی، آیا با پرتاب هر سه متغیر به ترکیب به این وضعیت حمله می‌کنید، یا معمولاً ترکیبی از این سه متغیر را انتخاب می‌کنید یا به سادگی از ویژگی «نرمال‌شده/استاندارد شده» (3) استفاده می‌کنید؟
مقیاس‌بندی متغیر درخت‌های تصمیم (ویژگی) و نرمال‌سازی (تنظیم) متغیر (ویژگی) در کدام پیاده‌سازی مورد نیاز است؟
79229
من سعی می کنم تکلیف زیر را به صورت تحلیلی حل کنم، اما فقط می توانم به راه حل اکتشافی برای موارد خاص بر اساس شبیه سازی مونت کارلو برسم: با توجه به یک مدل مارکوف پنهان با دو حالت و دو گاوس که در آن همه پارامترها شناخته شده هستند (یعنی ماتریس انتقال و میانگین و انحراف استاندارد گاوسی ها): علاوه بر این، با توجه به یک نمونه دلخواه از داده ها با دوره های زیاد که توسط این مدل تولید می شود، وظیفه من این است که تعیین کنم در چه حالتی من در حال حاضر هستم و تنها اطلاعاتی که دارم انحراف معیار یک پنجره متحرک با دوره‌های $n$ است: چگونه می‌توانم دوره بازگشت بهینه (حداقل) $n$ و بهترین سطح جداسازی (انحراف استاندارد) را به صورت تحلیلی تعیین کنم. $s$ برای تعیین اینکه در حال حاضر در کدام وضعیت هستم؟ به عبارت دیگر آنچه من می‌پرسم به این مدل داده می‌شود که با تمام پارامترهایش چگونه می‌توان به صورت تحلیلی در $n$ و $s$ استخراج کرد تا وضعیت را در زمان واقعی تعیین کند، یعنی اکنون.
دوره نگاه بهینه و سطح انحراف معیار برای تعیین وضعیت مدل مارکوف پنهان با گاوسیان
72238
من قبلاً یک لامبدا تخمین زده سم و نتیجه واقعی 'y' دریافت کرده ام و می خواهم ببینم آیا مدل خوب است یا خیر. برای شروع، بررسی می کنم که آیا پراکندگی خوب است یا خیر. glm(y ~ 0، offset=log(lambda)، data=data، family=quasipoisson) و سپس می‌خواهم با استفاده از بسته «pscl» ببینم آیا ضریب تورم صفر وجود دارد یا خیر. zeroinfl(y ~ 1, offset=log(lambda), data=data ,dist=poisson) با این حال، من قادر به انجام این کار نیستم: zeroinfl(y ~ 0, offset=log(lambda), data=data, dist=poisson) با معرفی یک رهگیری، احتمالاً با تخمینگر صفر تداخل پیدا می کند، بنابراین مشخص نیست که آیا صفر وجود دارد (و چقدر بزرگ) تورم در مدل اصلی. آیا می توان 0 پارامتر تخمینی (به جز صفر) داشت؟
چگونه می توانم یک مدل پواسون باد شده صفر را فقط با افست (بدون ضرایب) قرار دهم؟
95082
از آنجایی که من می دانم رگرسیون PLS زمانی استفاده می شود که متغیرهای بیشتری نسبت به مشاهدات وجود داشته باشد و زمانی که چند خطی بین متغیرهای مستقل وجود دارد. من داده هایی برای یک مدل رگرسیونی دارم که نشانه هایی از چند خطی بودن بین متغیرهای مستقل را نشان نمی دهد، اما رابطه بین متغیرهای مستقل و وابسته خیلی قوی نیست اگرچه یک رابطه مثبت واضح با مقادیر همبستگی 0.1 تا 0.5 برای متغیرهای مستقل مختلف در مقایسه با متغیرهای مستقل وجود دارد. متغیر وابسته می‌خواهم بدانم که آیا مفهوم رگرسیون PLS می‌تواند به طور کلی به هم خطی گسترش یابد، یعنی اگر رابطه بین متغیرهای مستقل و متغیرهای وابسته قوی نباشد، رگرسیون PLS یک مدل رگرسیونی پیشنهادی است یا مدل‌های دیگری مناسب‌تر هستند؟
PLS رگرسیون و هم خطی
10450
می‌خواهم بدانم آیا کسی می‌تواند روشی برای تولید ماتریس همبستگی تصادفی با 90٪ ورودی‌ها (به جز 1) بین $[-0.3، 0.3]$ پیشنهاد کند. 10% دیگر باید بزرگتر از 0.3 یا کوچکتر از -0.3 باشد. با تشکر
چگونه یک ماتریس همبستگی تصادفی محدود تولید کنیم؟
6275
من در حال حاضر در حال جمع آوری داده ها برای آزمایشی در مورد ویژگی های روانی اجتماعی مرتبط با تجربه درد هستم. به عنوان بخشی از این، من در حال جمع‌آوری اندازه‌گیری‌های GSR و BP به‌صورت الکترونیکی از شرکت‌کنندگانم، همراه با گزارش‌های مختلف شخصی و اقدامات ضمنی هستم. من زمینه روانشناسی دارم و با تحلیل عاملی، مدل های خطی و تحلیل تجربی راحت هستم. سوال من این است که چه منابع خوب (ترجیحا رایگان) برای یادگیری در مورد تجزیه و تحلیل سری های زمانی موجود است. من در این زمینه کاملاً تازه کار هستم، بنابراین هر کمکی بسیار قدردانی می شود. من برخی از داده‌های آزمایشی برای تمرین دارم، اما می‌خواهم قبل از اینکه داده‌های جمع‌آوری شده را به پایان برسانم، طرح تجزیه و تحلیل من با جزئیات کار شود. اگر مراجع ارائه شده نیز مرتبط با R باشد، فوق العاده خواهد بود. ویرایش شده: برای تغییر دستور زبان و اضافه کردن گزارش خود و اقدامات ضمنی
معرفی خوب سری های زمانی (با R)
59359
من سعی می‌کنم یک تابع کوچک برای پیش‌بینی‌های سطح جمعیت از مدلی ایجاد کنم که شامل اثرات تصادفی است، که به نوبه خود با استفاده از بسته‌ای که از «interval=prediction پشتیبانی نمی‌کند، مناسب بود. (تا آنجا که من می توانم بگویم، دلیل این که بسته این کار را انجام نمی دهد این است که هنگام تلاش برای پیش بینی در یکی از سطوح مدل-- اما من فقط پیش بینی های سطح جمعیت را می خواهم، پیش بینی پر از مشکلات است). بنابراین به هر حال، با آزمایش کد من و مقایسه با کد داخلی در «predict.lm»، فواصل زمانی من کمی بسیار باریک است. کسی می تواند به من کمک کند تا بفهمم چرا؟ set.seed(13) n=100 x1 = runif(n) x2 = runif(n) X = cbind(x1,x2) y = x1 + x2 + rnorm(n) m = lm(y~x1+x2) خلاصه (m) d = پیش بینی (m,interval = پیش بینی) خودکار = d[,3]-d[,1] getpred = function(vals){ qt(.975,n-(2+1))*sqrt(var(m$resid)* (1+ t(vals) %*% solve(t(X)%*%X) % *%vals)) } man = اعمال (X,1,getpred) نمودار (تراکم(خودکار),xlim=c(2.1,2.3),ylim = c(0,30)) lines(density(man),col=red) پیشاپیش متشکرم!
چرا فواصل پیش بینی من کمی بسیار باریک است؟
77040
مدل‌های بیزی ظاهراً برای مقابله با مشکلات ابعاد بالا مجهز هستند و می‌توانند داده‌های پراکنده را نیز به خوبی مدیریت کنند. اما فرض کنید من مدلی ایجاد کرده ام که پارامترهای بیشتری از نقاط داده را تخمین می زند. آیا ترفندهایی برای مقابله با این موضوع وجود دارد؟
مقابله با عدم تعیین در مدل های بیزی
87881
من روی یک تحلیل پاسخ تبلیغاتی کار می کنم. من یک مجموعه داده واقعی **واقعا کوچک** با 25 مشاهده و 15 متغیر دارم. متغیرها **درجه بالایی از چند خطی** و برخی دارای **پرت** هستند. همچنین نمی توانم از روش های یادگیری ماشینی استفاده کنم زیرا به ضرایب قابل تفسیر نیاز دارم. این چیزی است که من تاکنون امتحان کرده ام: 1. من از GLM استفاده کردم، اما همه متغیرها ناچیز به نظر می رسیدند. من به درستی می دانم که متغیر وابسته به بسیاری از متغیرهای مستقل پاسخگو است. 2. من از رگرسیون قوی استفاده کردم، اما اساسا برنامه با شکست مواجه می شود زیرا نرم افزار خطایی را نشان می دهد که می گوید: تعداد مشاهدات باید حداقل دو برابر تعداد ضرایب باشد. اگر بتوانید روش ها/تکنیک ها یا استراتژی هایی را برای حل این مشکل پیشنهاد کنید واقعا ممنون می شوم. با تشکر و احترام.
رگرسیون برای داده های واقعا کوچک با درجه بالایی از چند خطی بودن و پرت
70092
قرار دادن متغیرهای کنترل با هم در دسته باقیمانده به چه معناست؟ آیا این بدان معناست که آنها را از مدل خارج کنیم؟
قرار دادن متغیرها در دسته باقیمانده
45029
من یک جدول غنی سازی تاشو برای روزهای مختلف به شرح زیر دارم. من باید اهمیت هر غنی سازی را پیدا کنم. fold_enrichment <- matrix(c(0.3,0.43,0.5,0, 0.23,1.3,0.5,1, 1,0,0,6, 0.3,0.5,0.2,2), 4, 4, dimnames = list(Day = c(Day1، Day7، Day14، Day28)، گروه = c(A، B، C، D))) در R، من سعی کردم از fisher.test(fold_enrichment) استفاده کنم و یک p-value به من می دهد > Warning in fisher.test(fold_enrichment): 'x' به عدد صحیح گرد شده است: > میانگین اختلاف نسبی: 0.7652582 > > آزمون دقیق فیشر برای داده های شمارش > > داده: fold_enrichment p-value = 0.6182 فرضیه جایگزین: دو طرفه من همچنین گزینه دیگری را مشاهده کرده ام pairwise.fisher.test (Day,Group, p.adjust.method=bonferroni) راه حل مناسب برای مشکل من؟
تست فیشر در مقابل تست فیشر زوجی
74533
من نویز گاوسی را به داده های ورودی خود اضافه کردم و سپس آن را دو بار ادغام کردم (از قانون ذوزنقه ای استفاده کردم). می خواستم بدانم که آیا خود ادغام نویز گاوسی را به چیز دیگری تبدیل می کند. من به تابع چگالی احتمال نگاه کردم که $$f(x)= \frac {1} {\sigma \sqrt{2 \pi}} e^{- \frac{1}{2}(\frac{x است - \mu}{\sigma})^2}$$ وقتی تابع چگالی احتمال را ادغام می کنیم برابر با 1 است (ویژگی توزیع گاوسی). $$\int f(x)=1$$ بنابراین توزیع نویز گاوسی است. وقتی دوباره ادغام کردیم (ادغام مضاعف) تابع چگالی احتمال دیگر برابر با 1 نیست و بستگی به دامنه ای دارد که آن را ادغام می کنیم. می‌خواستم بدانم که آیا می‌توانیم نتیجه بگیریم که بعد از ادغام دوم، نویز گاوسی دیگر گاوسی نیست، از این واقعیت که ادغام دوگانه تابع چگالی احتمال 1 نیست.
ادغام دوگانه به دلیل نویز غیر گاوسی واگرا می شود
86828
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0qA0m.png) سلام.. چه توضیحی برای این طرح می تواند قابل قبول باشد، که در آن محورهای x و y اول و دوم هستند. اجزای اصلی به ترتیب؟
تفسیر قابل قبول نمودارهای PCA
74538
من اطلاعات زمان انتظار برای یک کافی شاپ به مدت 4 هفته دارم. از آنجایی که داده‌ها جمع‌سپاری می‌شوند، در طول زمان پراکنده و غیریکنواخت هستند. بنابراین سوال من این است: چگونه باید با این داده های غیر یکنواخت برخورد کنم؟ چند روش در پیش‌بینی سری‌های زمانی وجود دارد که می‌تواند داده‌های غیریکنواخت را مدیریت کند؟ یا راهی برای یکنواخت کردن داده ها وجود دارد؟
تجزیه و تحلیل سری زمانی برای داده های غیر یکنواخت
57944
من در آستانه ارائه مقاله ای در مورد روش های تحقیق هستم و به راهنمایی در مورد چگونگی تجزیه و تحلیل آماری داده های خود نیاز دارم. این مقاله در مورد یک مطالعه هیپنوتیزم شده است که در آن شرکت کنندگان یک پرسشنامه نگرش نوع لیکرت را در مورد انواع خاصی از رفتار (همکاری، ارتباط، رهبری و غیره) پر می کنند. سپس شرکت‌کنندگان یک تکلیف تیمی را حل می‌کنند، در حالی که توسط یک ناظر در مورد همان نوع رفتار مشاهده شده و امتیاز می‌دهند. من می خواهم با ارتباط بین نگرش ها و رفتار از این وضعیت بیرون بیایم، اما مطمئن نیستم که چگونه این کار را انجام دهم. آیا می توانم آن را مستقیماً به پیرسون r وصل کنم؟ یا باید از ترتیب رتبه اسپیرمن استفاده کنم؟ اگر نتایج اجازه تست پارامتریک را ندهند چه؟ همچنین هر گونه توصیه در مورد چگونگی تجزیه و تحلیل اعتبار بین ارزیاب عالی خواهد بود! آیا آلفای کرونباخ خوب است؟ لطفاً در پیشنهادات خود ملایم باشید، زیرا من در مورد آمار کاملاً تازه کار هستم:-) با تشکر! با تشکر از پاسخ ها! کارما خوب برای شما! برای سادگی، فرض می‌کنم هیچ چیز پرت وجود ندارد. مقیاس لیکرت هم برای نمرات نگرش و هم برای نمرات رفتاری 1-5 خواهد بود. چندین سؤال نگرش و دسته بندی رفتاری وجود خواهد داشت. آیا این بدان معناست که داده ها در سطح بازه ای هستند؟ اگر چنین است، آیا من را به ترتیب رتبه اسپیرمن محدود می کند؟
چگونه می توان نگرش ها و رفتار را به هم مرتبط کرد؟
73545
موارد زیر در یک تکلیف من ظاهر شد (از قبل تحویل داده شده است). من ادعا می کنم که اطلاعات کافی برای ارائه پاسخ داده نشده است ... به نظر من بسیار واضح و واضح است. با این حال، مربی اصرار داشت که در minitab قابل حل است. آیا می توانید به من کمک کنید بفهمم چه چیزی را نمی فهمم؟ چگونه این مسئله را بدون مدل توزیع تقاضای هفتگی یا حداقل یک مقدار متوسط ​​برای استفاده به عنوان تقریب ثابت حل می کنید. من باید یک چیز ساده را از دست بدهم. مشکل: یک شرکت خدماتی را در نظر بگیرید. 10٪ از تقاضای هفتگی مربوط به یک دسته خدمات به نام X است [فرض کنید دسته های خدمات متقابلاً منحصر به فرد هستند]. اگر سفارشات مشتری بسیار کم (کمتر از یک هفته) یا سفارشات مشتری بیش از حد (بیش از پنج در هفته) در دسته خدمات X وجود داشته باشد، شرکت باید برنامه منابع خود را تجدید نظر کند. برای 12 هفته آینده، چقدر احتمال دارد که شرکت **نیازی به تجدید نظر در طرح منابع نداشته باشد؟ با تشکر
سوال دو جمله ای اساسی
57940
فرض کنید من $n$ مشاهدات $(\pmb{x}_i,y_i)$ و دو زیر مجموعه از نمایه های $\\{1:n\\}$، $S_1$ و $S_2$ دارم، با $S_1\neq S_2$، $\\#\\{S_1\\}\neq\\#\\{S_2\\}$، و $\\{S_1\cap S_2\\}\neq\emptyset$. فرض کنید $\hat{\beta}_1$ را بردار ضرایب تخمینی OLS رگرسیون $y_i\tilde{}\pmb{x}_i|i\ در S_1$ و به همین ترتیب برای $\hat{\beta} نام ببرم. _2 دلار سوال من این است که تست مناسب/بهترین تست برای $$H_0 چیست:\beta_1-\beta_2=0$$ برخی از نظرات: * اولین تمایل من برای تست والد بود، اما چگونه دو ماتریس کوواریانس را از دو رگرسیون ترکیب کنیم. ? شاید با جمع کردن آنها؟ * ایده دیگری که به آن فکر کردم این بود که از فاصله Bhattacharyya با $\beta_1$ در برابر $\beta_2$ (همراه با ماتریس های کوواریانس مربوطه آنها) استفاده کنم. * یک امکان سوم می تواند ادغام دو نمونه و افزودن یک اثر متقابل _روی هر ضریب_ با یک مقدار ساختگی 1 برای همه مشاهداتی که مثلاً فقط اعضای $S_2$ هستند، اما به دلیل همپوشانی بین، $S_1$ و $S_2$ من مطمئن نیستم که این واقعاً چیزی است که من می خواهم. هر فکری؟ # EDIT1: در اینجا یک کد «R» ساده برای پیاده سازی راه حل پیشنهادی بیل در زیر آمده است: library(MASS) n<-200 p<-5 b<-rnorm(p) x<-mvrnorm(n,rep( 0,p-1),diag(p-1)) y<-cbind(1,x)%*%b+rnorm(n) L<-نمونه(1:200،100، جایگزین=درست) L<-list(mod1=L[1:60]، mod2=L[61:100]) M1<-lm(y[L[[1]]] ~x[L[[1]]،]) M2<-lm(y[L[[2]]~x[L[[2]]،]) fx01<-function(M1,M2){ X1<-cbind(1,M1$model[,-1]) X2<-cbind(1,M2$model[,-1]) nt<-nrow(X1)+ nrow(X2) D1<-diag(nt)[1:nrow(X1)،] D2<-diag(nt)[1:nrow(X2)،] st<-crossprod(c(M1$resid,M2$resid))/(nt-2*ncol(X1)) P1<-solve(crossprod(X1))%*%crossprod(X1,D1)-solve(crossprod (X2))%*% crossprod(X2,D2) P1<-tcrossprod(P1)*drop(st) mahalanobis(M1$coef,M2$coef,P1)}
آزمایش تفاوت بین پارامترهای مدل های تخمین زده شده از نمونه هایی با همپوشانی جزئی
95084
من این مجموعه داده را برای مدل کردن دارم، اما مطمئن نیستم که چگونه آن را انجام دهم. من می‌خواهم **احتمال زنده ماندن** جمعیتهای مختلف دو **گونه** را بسته به **درمان** اعمال شده مدل کنم. جمعیت ها باید **در داخل گونه** قرار گیرند، زیرا به گونه 1 یا گونه 2 تعلق دارند. و از آنجایی که من معیارهایی را برای هر جمعیت x ترکیب تیمار تکرار کرده ام، باید این را نیز به عنوان یک اثر تصادفی در نظر بگیرم. از چه تابع R می توانم برای این کار استفاده کنم؟ یکی هست؟ با تشکر
آیا تابع R برای انجام تجزیه و تحلیل بقا با سانسور درست + عوامل تو در تو + متقاطع وجود دارد؟
70099
اگر همبستگی $Y_t$ واپاشی کند را نشان دهد (یعنی غیر ثابت بودن)، آیا این نشان دهنده یک ریشه واحد است؟ من استدلال کردم که برای مدل $Y_t = Y_{t-1} + u_t$، ACF برای همه تاخیرها برابر با 1 است و بنابراین، پاسخ سوال من مثبت است. اما من فقط می خواهم مطمئن باشم.
ACF یک فرآیند ریشه واحد
77048
فرض کنید $\ell\left(\theta\right)$ احتمال ورود به سیستم بردار پارامتر $\theta$ است و $\widehat{\theta}$ حداکثر تخمین‌گر احتمال $\theta$ است سپس سری تیلور $. \ell\left(\theta\right)$ about $\widehat{\theta}$ \begin{align*} \ell\left(\theta\right) است & \approxeq\ell\left(\widehat{\theta}\right)+\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr|_{\theta=\widehat{ \theta}}\left(\theta-\widehat{\theta}\right)+\frac{1}{2}\left(\the ta-\widehat{\theta}\right)^{\prime}\frac{\partial^{2}\ell\left(\theta\right)}{\partial\theta\partial\theta^{\prime} }\Bigr|_{\theta=\widehat{\theta}}\left(\theta-\widehat{\theta}\right)\\\ \frac{\ell\left(\theta\right)}{\partial\theta} و \approxeq\mathbf{0}+\left(\mathbf{1}-\mathbf{0}\right)\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr| _{\theta=\widehat{\theta}}+\frac{\partial^{2}\ell\left( \theta\right)}{\partial\theta\partial\theta^{\prime}}\Bigr|_{\theta=\widehat{\theta}}\left(\theta-\widehat{\theta}\right )\quad\overset{\textrm{set}}{=}\quad\mathbf{0}\\\ \\\ \theta-\widehat{\theta} & =-\left[\frac{\partial^{2}\ell\left(\theta\right)}{\partial\theta\partial\theta^{\prime}}\Bigr|_{\theta=\widehat {\ the ta}}\right]^{-}\left[\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr|_{\theta=\widehat{\theta}} \راست]\\\ \widehat{\theta}-\تتا و =\left[\frac{\partial^{2}\ell\left(\theta\right)}{\partial\theta\partial\theta^{\prime}}\Bigr|_{\theta=\widehat{ \ ta}}\right]^{-}\left[\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr|_{\theta=\widehat{\theta}} \راست]\\\ \widehat{\theta}-\theta & =\left[\mathbb{H}\left(\theta\right)\Bigr|_{\theta=\widehat{\theta}}\right]^{-}\ left[\mathbb{S}\left(\theta\right)\Bigr|_{\theta=\widehat{\theta}}\right] \end{align*} به عنوان $ \theta=\widehat{\theta}-\left[\mathbb{H}\left(\theta\right)\Bigr|_{\theta=\widehat{\theta}}\right]^{-}\left [\mathbb{S}\left(\theta\right)\Bigr|_{\theta=\widehat{\theta}}\right] $ بنابراین \begin{align*} \theta^{\left(m+1\راست)} و =\theta^{\left(m\right)}-\left[\mathbb{H}\left(\theta^{\left(m\right)}\right)\right]^{-}\mathbb{ S}\left(\theta^{\left(m\right)}\right)\quad\quad\left({\textrm{Newton- Raphson}}\right)\\\ \\\ \\\ \theta^{\left(m+1\right)} & =\theta^{\left(m\right)}-\left[\mathbb{E}\left\\{ \mathbb{H} \left(\theta^{\left(m\right)}\right)\right\\} \right]^{-}\mathbb{S}\left(\theta^{\left(m\right)}\right)\\\ \theta^{\left(m+1\right)} و =\theta^{\left(m\right)}+\left[\mathbb{I}\left(\theta^{\left(m\right)}\right)\right]^{-}\mathbb{ S}\left(\theta^{\left(m\right)}\right)\quad\quad\left(\textrm{Fisher Scoring}\right) \end{align*} **سوالات** 1. مطمئن نیستم که اشتقاق من درست باشد یا نه. من حداقل دو نسخه متفاوت از اشتقاق را دیده ام. 2. میانگین، واریانس و توزیع $\widehat{\theta}$ (روش Might by Delta) چیست؟
بسط سری تیلور برآوردگر حداکثر درستنمایی، نیوتن رافسون، امتیازدهی فیشر و توزیع MLE به روش دلتا
99799
من یک مجموعه داده حاوی رفتارهای کاربران دارم. فرض کنید 1000 کاربر و 40 کار مشابه داریم. وظایف مشابه هستند اما سطح دشواری آن متفاوت است. برای انجام یک کار، افراد می توانند از 10 الگو پیروی کنند. از آنجایی که 40 کار مشابه هستند، 10 الگو برای همه آنها اعمال می شود. هر کاربر حداقل 5 کار از 40 کار را با پیروی از یکی از 10 الگو انجام می دهد. هدف من این است که ببینم آیا کاربران تمایل دارند همیشه از یک الگوی مشابه در هنگام انجام این وظایف پیروی کنند یا خیر. ما: 1. P1, P2 .... P10 را به عنوان 10 الگوی ممکن برای وظایف تعریف می کنیم. 2. U1، U2، ..... U1000 به عنوان 1000 کاربر 3. T1، T2، ..... T40 به عنوان 40 کار از آنجایی که فعلاً به تفاوت های Task اهمیتی نمی دهیم، بنابراین داده های من را می توان با نشان دادن فقط P و U: کاربر، الگوهای U1، P1 P1 P1 P2 P2 U2، P2 P3 P5 P4 P5 U3، P1 P1 P1 P1 P1 P1 P1 P1 P1 P1 P1 P1 U4, P2 P2 P2 P2 P2 P2 P2 P1 P1 P1 P1 P1 P1 .... U1000, P3 P2 P3 P2 P3 P2 بیایید به سوال من برگردیم: _ آیا کاربران معمولاً تمایل دارند به همان الگو؟_ من می خواهم بدانم چگونه این نوع ثبات را اندازه گیری کنم. اکنون کاری که من انجام می دهم این است: برای هر کاربر، تعداد تکرارهای یک الگوی خاص را محاسبه می کنم، سپس بیشترین تکرار را انتخاب می کنم. نسبت این تکرارها را با توجه به تعداد الگوهای این کاربر محاسبه کنید. سپس چیزی شبیه به این دریافت می‌کنم: user, propritionOfMostFrequentPattern U1, 0.9 U2, 1 U3, 0.4 .... با رویکرد فوق، می‌توانم میزان زمانی را که یک کاربر از همان الگوی رایج پیروی می‌کند، ثبت کنم. با این حال، اگر نگاهی به U4 بیندازیم. الگوهای او دارای 7 P1 و 6 P2 هستند. اگر از روش بالا استفاده کنم، نسبت 7/13 است. این تکرار P2 را در نظر نمی گیرد. آیا معیار استانداردی وجود دارد که بتواند پایداری الگوها را محاسبه کند؟ علاوه بر این، آیا آزمون معناداری برای این نوع موضوع وجود دارد؟
برای تست پایداری الگوها چه اندازه گیری ها یا آزمایش هایی را باید انجام دهم؟
74532
من باید یک Anova چند راهه را اجرا کنم و می خواهم فرض همسویی بودن را آزمایش کنم. چگونه می توانم یک Fligner.test را با چندین متغیر مستقل (متغیرهایی که گروه بندی را نشان می دهند) با R اجرا کنم؟ آیا انجام چنین کاری منطقی است؟
تست فلینر در R، با چندین متغیر که گروه بندی را نشان می دهد
103296
سوال من تقریباً مشابه این سوال است. من به دنبال توزیع احتمالی برای داده های کج می گردم که اجازه صفرها را می دهد. هدف برازش مدل GLM است. داده‌های من در مورد پراکنش‌های گونه‌ها در ناحیه‌های مختلف دارای انحراف به راست هستند. متغیرهای اضافی بر اساس عرض جغرافیایی منطقه تقسیم شده هستند - بنابراین منطقه در مناطق گرمسیری و معتدل، بنابراین داده ها اکنون شامل صفر هستند. بنابراین سوال من این است؛ آیا توزیع احتمال وجود دارد، به عنوان مثال. مشابه log-normal است، اما کدام صفر اجازه می دهد؟ هر گونه اشاره می شود بسیار قدردانی می شود، با تشکر! **به روز رسانی** هیستوگرام داده های منطقه من ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/eNLv0.jpg)
توزیع احتمال برای داده های انحراف راست و صفر سنگین
16249
در OLS، آیا این امکان وجود دارد که $R^2$ یک رگرسیون روی دو متغیر بیشتر از مجموع $R^2$ برای دو رگرسیون روی متغیرهای فردی باشد. $R^2(Y \sim A + B) > R^2(Y \sim A) + R^2(Y \sim B) $ ویرایش: اوه، این بی اهمیت است. این چیزی است که من برای تلاش برای مشکلاتی که در ورزشگاه به آنها فکر می کردم، دریافت می کنم. بازم بابت اتلاف وقت ببخشید پاسخ به وضوح بله است. $ Y \sim N(0,1)$ $ A \sim N(0,1)$ $ B = Y - A $R^2(Y \sim A + B) = 1$، به وضوح. اما $R^2(Y \sim A)$ باید در حد 0 باشد و $R^2 (Y \sim B)$ باید 0.5 در حد باشد.
آیا ممکن است $R^2$ یک رگرسیون روی دو متغیر بیشتر از مجموع $R^2$ برای دو رگرسیون روی هر متغیر باشد؟
81830
من فرکانس هایی برای متغیر با پاسخ های بله و خیر برای دو نقطه زمانی (در ابتدا و بعد از درمان) دارم. فرکانس ها برای دو درمان ثبت می شوند. من می خواهم تغییر را از پایه بین این دو درمان مقایسه کنم. چگونه می توانم حجم نمونه را محاسبه کنم؟ من فرکانس های زیر را برای بله دارم: درمان 1: 28٪ در درمان پایه 1: 41٪ پس از درمان، و درمان 2: 21٪ در درمان پایه 2: 39٪ پس از درمان.
اندازه نمونه برای مقایسه نسبت های تغییر از خط پایه بین دو گروه؟
81835
داده ها با استفاده از مقیاس لگاریتمی جمع آوری شد: نمرات (متغیر توضیحی) با مقادیر 0-5 جمع آوری شده است. نمره 3 10 برابر ارزش نمره 2 است. مطمئن نبودم که از مقیاس گزارش (0-5) یا مقیاس خطی (0-100000) در هنگام انجام corr استفاده کنم. یا ANOVA، درست بود، بنابراین هر دو را امتحان کردم. جای تعجب نیست که مقیاسی که من انتخاب می‌کنم بر پیدا شدن یا نبودن همبستگی‌ها و یافتن واریانس‌ها تأثیر می‌گذارد. از کدام مقیاس در تحلیل خود استفاده کنم؟ یا برای اینکه تصمیم بگیرم از کدام مقیاس در تحلیل خود استفاده کنم باید به چه سوالاتی پاسخ دهم؟ خیلی ممنون
هنگام انجام همبستگی و ANOVA از مقادیر لگاریتمی یا خطی استفاده کنید؟
6279
من خیلی مبتدی در آمار هستم. اخیراً یک پروژه از من خواسته است که داده ها را با استفاده از رگرسیون لجستیک و SPSS در یک چارچوب زمانی خاص تجزیه و تحلیل کنم. اگرچه من کتاب های کمی خوانده ام، اما هنوز در مورد چگونگی شروع بسیار مبهم است. کسی میتونه منو راهنمایی کنه؟ ste 1 چیست و بعد چیست؟ به هر حال من شروع کرده ام. پس از وارد کردن داده ها در SPSS، من به صورت crosstab (طبقه IV)، توصیفی (IV پیوسته) و همبستگی اسپیرمن انجام دادم. سپس، با تبدیل به Ln که مشکلاتی را برای من ایجاد می کند، آزمایش غیرخطی بودن را انجام می دهم. من همه سلول‌های صفر را دوباره به مقدار کوچکی (0.0001) کدگذاری کرده‌ام تا تبدیل Ln را فعال کنم. سپس، غیرخطی بودن را دوباره آزمایش می کنم. سوال: 1) تنها راه حل نقض تبدیل متغیر از پیوسته به طبقه بندی است؟ من یک تخلف کردم 2) One Exp(B) بسیار بزرگ است (15203.835). این به چه معناست؟ چرا؟ 3) یک تعامل وجود دارد که Exp(B) = 0.00 دارد. چرا؟ با تشکر فراوان.
مراحل تجزیه و تحلیل داده ها با استفاده از رگرسیون لجستیک
10331
من روی برخی از مسائل تست تمرینی کار می‌کنم، و یکی از آنها می‌گوید که یک الگوریتم نمونه‌برداری رد طراحی کنم تا با استفاده از ترسیم‌هایی از گاما (2،1) ترسیم‌هایی از واحد نمایی تولید کند. من نمی دانم چگونه این امکان پذیر است، زیرا من تحت این تصور هستم که تابع پاکت g(x) باید به گونه ای مقیاس پذیر باشد که برای مقداری ثابت $M$، $Mg(x)\geq f (x)\; برای همه x$. من هیچ راهی برای انجام این کار نمی بینم، زیرا گاما (2،1) جرم کمی در حدود 0 خواهد داشت، در حالی که تابع نمایی بیشتر جرم خود را در حدود 0 دارد. چه نوع تبدیلی باید انجام دهم تا تابع گاما به آن اجازه می دهد تا به عنوان یک پاکت عمل کند؟ با استفاده از R، سعی کردم آن را برگردانم تا آن را به یک گامای معکوس تبدیل کنم، اما این به اندازه کافی جرم احتمال نزدیک به 0 را نمی گیرد و یک آزمون K-S تأیید کرد که نقاطی که من ایجاد کردم از یک واحد نمایی ناشی نمی شوند. ویرایش: من کدم را اضافه می کنم که در آن سعی کردم از یک گاما معکوس (2،1) به عنوان یک پاکت استفاده کنم: x <- c() for(i در 1:100000) { g <- runif(1، 0، 1) h <- ریگاما(1، 2، 1) M <- densigamma(h، 2، 1) crit <- dexp(h، 1)/M if(g <crit) x[i] = h }
نحوه استفاده از نمونه‌گیری رد برای ایجاد قرعه‌کشی از واحد نمایی
81834
من مقداری پردازش داده های اصلی خود را انجام داده ام. قبل از پردازش، من یک هیستوگرام زیبا با شکل زنگ داشتم. حالا اگر نیمه اول را برش بزنم و تا انتها بچسبانم، هنوز برای من شبیه به شکل زنگ است. اما من کاملاً مطمئن نیستم که اینجا چه اتفاقی افتاده است. آیا این هنوز یک توزیع عادی است؟ یا اینکه چه نوع توزیعی است؟ برای وظیفه خود (تشخیص حرکت) قرار است از داده های توزیع شده معمولی استفاده کنم و مطمئن نیستم که اگر توزیع به این شکل باشد می توانم از داده ها استفاده کنم. همچنین، فکر می‌کنم اگر در ابتدا توزیع نرمال داشته باشم، پس از انجام مراحل پردازش، داده‌ها همچنان باید به طور عادی توزیع شوند (زیرا اینها فقط شامل نرمال‌سازی و کم کردن میانگین از هر نقطه داده و سپس عادی‌سازی مجدد می‌شوند). ![](http://i.stack.imgur.com/34CUK.jpg) من چیز زیادی در مورد توزیع ها نمی دانم، بنابراین اگر راهنمایی هایی برای من دارید که بتوانم در مورد آن مطالعه کنم، بسیار خوشحال خواهم شد، من هیچ اطلاعاتی در جای دیگری پیدا نکردم.
آیا این توزیع نرمال است؟
57949
من یک روش محاسباتی فشرده را اجرا می کنم که در آن باید میلیون ها بار تفاوت در CDF های معمولی را محاسبه کنم، مانند pnorm(y)-pnorm(x) من به جزئیات نحوه محاسبه CDF در R نگاه نکرده ام، اما من فکر می کردم ممکن است راهی برای سرعت بخشیدن به این امر وجود داشته باشد، شاید در یک تماس pnorm. یا شاید یک ساده سازی ریاضی وجود داشته باشد که بتوانم از آن استفاده کنم. پیشنهادی دارید (شاید امکان پذیر نباشد)؟
روشی سریع برای محاسبه تفاوت در CDFهای معمولی
78421
من روی داده‌های خروجی صنعتی کار می‌کنم و آزمایش‌های زیادی برای آن انجام می‌دهم، قبل از اینکه یک مدل ARIMA برای آن بسازم. قبل از انجام این کار، باید تصمیم بگیرم که آیا داده ها را ورود کنم یا نه. من در تشخیص اینکه آیا داده ها به صورت تصاعدی در حال رشد هستند یا نه مشکل دارم. و حتی اگر اینطور نباشد - منطقی است که فرض کنیم رشد صنعتی رشد ثابتی دارد و واریانس آن با گذشت زمان افزایش می یابد. ![Original Data](http://imgur.com/QyTgcnH.jpg) خط پایین - آیا توصیه می‌کنید وقتی کارهایی مانند تنظیم فصلی و صاف کردن آن و غیره را انجام می‌دهم، داده‌ها را به طور کلی ثبت کنید (نه فقط برای ARIMA).
ورود به سیستم یا عدم ورود؟
78836
من داده‌هایی با ردیف‌های مربوط به جفت‌های زن و مرد، با 8 تا 10 فاکتور پیوسته (که متأسفانه ناشناس شده‌اند) دارم که هم برای مرد و هم برای زن، و اینکه آیا آنها در یک هفته یا بیشتر با هم دوست شدند، صدق می‌کند. یک ردیف مثال به این صورت است: m_factor1 m_factor2 f_factor1 f_factor2 تبدیل به_دوستان شد؟ .5 .9 -.4 1 1 (آیا این چیزی است که داده دیادیک در نظر گرفته می شود؟) من به دنبال ساخت یک مدل لجستیک بر اساس این عوامل با استفاده از روش استاندارد اجرای رگرسیون و یافتن عوامل مهم، حفظ آنها و سپس ترکیب و تطبیق عوامل، اجرای مجدد آن، و غیره. من متوجه می‌شوم که هنگام انجام اعتبارسنجی متقاطع، مدل من نتایج را به خوبی پیش‌بینی می‌کند و در حدود 60 درصد مواقع با نتیجه واقعی موافق است. با این حال، با توجه به زمینه مشکل، احساس می‌کنم باید تعامل قابل توجهی بین عوامل خاصی وجود داشته باشد، به‌ویژه بین همان عواملی ('m_factor1' در مقابل 'f_factor1') که من در مدل خود لحاظ نکرده‌ام. از چه تکنیک هایی می توانم برای گنجاندن\پیدا کردن این اثرات متقابل استفاده کنم؟ من چیز زیادی در مورد تکنیک های یادگیری ماشینی فراتر از تحلیل رگرسیون کلاسیک نمی دانم.
تکنیک های یادگیری ماشین برای طبقه بندی پاسخ از چندین عامل پیوسته
70096
من از طریق Think Bayes (رایگان در اینجا: http://www.greenteapress.com/thinkbayes/) کار می کنم و در تمرین 3.1 هستم. در اینجا خلاصه ای از مشکل آمده است: یک راه آهن لکوموتیوهای خود را به ترتیب 1..N شماره گذاری می کند. یک روز شما یک لوکوموتیو با شماره 60 را می بینید. تخمین بزنید که راه آهن چند لکوموتیو دارد. این راه حل با تابع درستنمایی و نمایی پیش از این پیدا می شود: کلاس Train(Suite): def __init__(self, hypos, alpha=1.0): # یک Pmf قبلی نمایی ایجاد کنید.__init__(self) برای hypo در hypos: self. Set(hypo, hypo**(-alpha)) self.Normalize() def Likelihood(self, data, hypo): if hypo < data: return 0 else: return (1.0/hypo) از نظر مفهومی این به این معناست که اگر عدد قطاری بزرگتر از یکی از فرضیه‌های خود (1...1000) ببینیم، هر فرضیه‌ای که کوچکتر است، شانس درستی صفر دارد. بقیه فرضیه ها شانس 1/تعداد_قطارها را دارند که قطاری با این عدد را به ما نشان دهند. در تمرینی که روی نویسنده کار می‌کنم، کمی بیشتر اضافه می‌کند. این فرض می کند که فقط یک شرکت وجود دارد. اما در زندگی واقعی شما ترکیبی از شرکت‌های بزرگ و کوچک و شرکت‌های بزرگ‌تر (هر دو به یک اندازه به احتمال زیاد) خواهید داشت. با این حال، این بدان معناست که شما به احتمال زیاد قطاری از یک شرکت بزرگتر خواهید دید، زیرا آنها قطارهای بیشتری دارند. حال سوال این است که چگونه این را در تابع احتمال منعکس کنیم؟ این Stack Overflow نیست، بنابراین من واقعاً برای کدنویسی کمک نمی‌خواهم، اما در عوض شاید فقط در مورد اینکه چگونه ممکن است در مورد این مشکل از نظر تابع احتمال فکر کنم، کمک می‌کنم.
مشکل لوکوموتیو با شرکت های اندازه های مختلف
13784
من سعی می کنم از «lme» از بسته «nlme» برای تکرار نتایج «aov» برای ANOVA اندازه گیری های مکرر استفاده کنم. من این کار را برای آزمایش اندازه گیری های مکرر تک عاملی و برای آزمایش دو عاملی با یک عامل بین آزمودنی ها و یک عامل درون آزمودنی انجام داده ام، اما در انجام آن برای یک آزمایش دو عاملی با دو در درون مشکل دارم. -عوامل موضوعی یک مثال در زیر نشان داده شده است. A و B عوامل اثر ثابت و موضوع یک عامل اثر تصادفی است. set.seed(1) d <- data.frame(Y = rnorm(48)، موضوع = فاکتور(rep(1:12، 4))، A = factor(rep(1:2، هر = 24))، B = فاکتور(تکرار(1:2، هر=12)، 2))) خلاصه (aov(Y ~ A*B + خطا(موضوع/(A*B))، داده=d)) # استاندارد تکرار شده اندازه‌گیری کتابخانه ANOVA(nlme) # تلاش: anova(lme(Y ~ A*B، داده=d، تصادفی = ~ 1 | موضوع)) # مشابه با بالا نیست anova(lme(Y ~ A*B، data=d، تصادفی = ~ 1 موضوع/(A+B))) # خطا می دهد من نتوانستم توضیحی درباره این موضوع در کتاب Pinheiro و Bates ببینم، اما ممکن است نادیده گرفته باشم. آن را کسی می تواند به من بگوید چگونه این کار را انجام دهم؟ متشکرم.
ANOVA اندازه گیری های مکرر با lme در R برای دو عامل درون موضوعی
70097
من در یک آزمایشگاه آنالیز روغن کار می‌کنم و می‌خواهم یک آزمایش آماری طراحی کنم تا مشخص کنم کدام یک از مشتریان ما آزمایش‌های نمونه روغن بیشتری می‌خرند و کدام مشتریان کمتر از حد معمول خرید می‌کنند. اطلاعاتی که من دارم فهرستی از تعداد خریدهای یک روز معین است. یک آزمون آماری خوب برای تعیین افزایش یا کاهش تعداد نمونه های خریداری شده چیست؟
پیدا کردن مشتریانی که دارم از دست می‌دهم و به دست می‌آورم
10338
من می خواهم برای محاسبه امتیاز کارایی از تحلیل پوششی داده ها (DEA) بوت استرپینگ را با استفاده از R انجام دهم. * آیا منابع آنلاین یا منابع دیگری وجود دارد که به کار من کمک کند؟
امتیاز کارایی تحلیل پوششی داده بوت استرپینگ با استفاده از R
35105
من سعی می‌کنم منیفولد Regularization را در ماشین‌های بردار پشتیبانی (SVM) در Matlab پیاده‌سازی کنم. من دستورالعمل‌های مقاله بلکین و همکاران (2006) را دنبال می‌کنم، معادله در آن وجود دارد: $f^{*} = argmin_{f \in H_k}\sum_{i=1}^{l}V (x_i,y_i,f)+\gamma_{A}\parallel f \parallel_{A}^{2}+\gamma_{I}\parallel f \parallel_{I}^{2}$ که در آن V مقداری تابع از دست دادن است و $\gamma_A$ وزن هنجار تابع در RHKS (یا هنجار محیطی) است، شرط یکنواختی را روی راه‌حل‌های ممکن اعمال می‌کند، و $\gamma_I$ وزن هنجار تابع در منیفولد با ابعاد پایین (یا هنجار ذاتی) است که بدون صافی در امتداد M نمونه‌برداری شده اعمال می‌شود. تنظیم‌کننده محیط مشکل را ایجاد می‌کند. به خوبی ارائه شده است، و حضور آن می تواند از نقطه نظر عملی واقعا مفید باشد، زمانی که فرض چندگانه در درجه کمتری وجود داشته باشد. در بلکین و همکاران نشان داده شده است. (2006) که $f^*$ یک بسط را بر حسب $n$ نقاط S، $f^*(x)=\sum_{i=1}^{n}\alpha_i^*k(x_i,x می‌پذیرد )$ تابع تصمیمی که بین کلاس +1 و -1 تمایز قائل می شود $y(x)=sign(f^*(x))$ است. مشکل اینجاست که من سعی می کنم SVM را با استفاده از LIBSVM در MATLAB آموزش دهم اما نمی خواهم کد اصلی را تغییر دهم، بنابراین نسخه از پیش محاسبه شده LIBSVM را پیدا کردم که به جای گرفتن داده های ورودی و گروه های خروجی به عنوان پارامتر ، ماتریس Kernal را محاسبه می کند و خروجی را گروه بندی می کند و مدل SVM را آموزش می دهد. من سعی می کنم آن را با ماتریس هسته منظم (ماتریس گرم) تغذیه کنم و اجازه می دهم بقیه کار را انجام دهد. من سعی کردم فرمولی را پیدا کنم که Kernal را منظم می کند و به این نتیجه رسیدم: تعریف $I$ به عنوان ماتریس هویت با همان ابعاد ماتریس هسته، $K$ $G=\frac{2\gamma_AI + 2\gamma_ILK}{ I}$ $Gram = KG$ که در آن $L$ ماتریس نمودار لاپلاسی است، $K$ ماتریس هسته و $I$ هویت است. ماتریس و $Gram$ با استفاده از ضرب درونی دو ماتریس $K$ و $G$ محاسبه می شود. آیا کسی هست که بتواند به من کمک کند تا بفهمم این چگونه محاسبه می شود؟
تنظیم منیفولد با استفاده از نمودار لاپلاسین در SVM