_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
78179 | من اخیراً شروع به بررسی آمار خود کردهام و این کار را با دو مورد از پرکاربردترین ابزارهای آماری در رشته خود آغاز کردهام: آزمون t و ANOVA. با مطالعه منابع اطلاعاتی معروف مانند ویکیپدیا (که هیچ کدام از آنها منابع قابل استنادی برای عبارات زیر ارائه نکردند - متأسفانه) به این نتیجه رسیدم که فرضیههای صفر که توسط این ابزار مورد آزمایش قرار میگیرند عبارتند از: * **t-test**: _ آزمون t روشی که برای آزمون فرضیه صفر استفاده می شود که میانگین دو گروه مقایسه شده برابر است. فرضیه صفر مبنی بر اینکه میانگین چند گروه تعریف شده برابر است. مشاور من به من گفت که هر دوی این گزاره ها بسیار اشتباه است و اینکه _روش های آماری استنتاجی برابری میانگین ها را آزمایش نمی کند_. اما توضیح بیشتری ارائه نکرد. من نمی دانم که آیا اطلاعاتی را که خوانده ام اشتباه ارائه می کنم. بنابراین، می توانید به من بگویید که فرضیه های صفر این آزمون ها چیست؟ همچنین، آیا می دانید چه منابعی را می توانم برای این مورد استناد کنم (چون واضح است که نتیجه گیری مستقل خودم را بیان نمی کنم)؟ | فرضیه صفر آزمون t و ANOVA |
31702 | من می خواهم آزمایشی انجام دهم تا (با اطمینان 95٪) تعیین کنم که آیا حداقل 70٪ از جمعیت می توانند برخی از وظایف را انجام دهند یا خیر. این آزمون شامل نشستن یک فرد به طور تصادفی انتخاب شده و انجام کاری است که یا موفق می شود یا شکست می خورد. به همین ترتیب، یک سکه وزنی را برمی گردانم. آزمایش ها گران هستند، بنابراین ما فقط ده ها مورد از آنها را انجام خواهیم داد. مشکل این است که جفتهایی را محاسبه کنیم (اندازه نمونه، تعداد پاسها) که اهمیت لازم را بدهد. من می خواهم بتوانم چیزی به شکل > از 10 نفر بپرسید. اگر 8 نفر یا بیشتر قبول کردند، می توانید با اطمینان 95 بگویید که > نسبت واقعی در جمعیت بیشتر از 70٪ است. | اندازه نمونه برای تشخیص اینکه آیا بیش از X٪ از جمعیت می توانند <thing> را انجام دهند یا خیر |
31701 | من داشتم این مقاله مربوط به فیلدهای تصادفی شرطی را می خواندم http://www.inference.phy.cam.ac.uk/hmw26/papers/crf_intro.pdf. با این حال، من سردرگمی در رابطه با بخش احتمال CRF به عنوان محاسبه ماتریسی دارم. من واقعاً نتوانستم درک کنم که چگونه همه چیز در آن جا می شود. | سردرگمی در مورد CRF |
31703 | من سعی میکنم رگرسیون خطی را با R ** خودکار کنم، اگرچه واقعاً پیشینه مشخصی در آمار ندارم. میپرسیدم: آیا تکنیکهای عددی برای تعیین اینکه آیا مقادیر پیشبینیکننده حتی ارزش تلاش برای تناسب با مقدار پاسخ را قبل از تلاش برای انجام این کار در R وجود دارد یا خیر: lmfit <- lm(x ~ y) حدس اولیه من کوواریانس و همبستگی بود، اما دوباره ارزش های پذیرفته شده چیست؟ همچنین، چه می شود اگر رابطه بین پاسخ و پیش بینی خطی نباشد. در اکثر سناریوها (همانطور که قبلاً توسط نظر دهندگان ذکر شد) پیش بینی ها بر اساس یک فرضیه پیشینی است. با این حال؛ در کشف دانش، مواقعی وجود دارد که شما **_نمی دانید_ فرضیه چیست**، از این رو انگیزه من برای فرمول بندی مجموعه ای از قوانین است که به موجب آن یک پارامتر عددی سریع به من اجازه می دهد تصمیم بگیرم که آیا یک متغیر پیش بینی کننده خاص باید اضافه شود یا خیر. در مدل رگرسیون خطی حذف شد. توجه داشته باشید که بحث بالا وابسته به داده نیست، باید با هر داده کلی که ممکن است روابط خطی بین متغیرها داشته باشد یا نداشته باشد کار کند. | چگونه می دانید از کدام مقدار پیش بینی استفاده کنید؟ |
88507 | من این را کاملا نمی فهمم یک سوال این بود، وانمود کنید که 4 پیش بینی داریم و همه آنها باینری هستند - برای روش ساده بیز، چند پارامتر برای تخمین در مرحله آموزش وجود دارد؟ جواب 2*4 بود. سپس یک سوال دیگر این بود که اگر برای ایجاد یک مدل گرافیکی بین پیش بینی کننده های 1 و 2 لبه ای بکشیم، در مرحله آموزش چند پارامتر را باید تخمین بزنیم؟ پاسخ 1+1(2)+(2*7)=11 بود. در نهایت اگر همه پیشبینیکنندهها دارای لبههایی در بین باشند، چطور؟ پاسخ 1+2(15)=31 بود. من نمی دانم چگونه این معادلات ساخته می شوند. کسی میتونه توضیح بده لطفا | چگونه مقدار پارامترهای مورد نیاز برای برآورد را محاسبه می کنید؟ |
15154 | من به دنبال الگوریتمهای جنگل تصادفی برای طبقهبندی متن و ارجاع به توضیحات درخت تصمیمگیری تصادفی جنگل ماهوت بودم. در آن به دو نوع متغیر، صفات اسمی و صفات با ارزش واقعی اشاره شده است. با این حال، من به خصوص مطمئن نیستم که یک ویژگی اسمی چیست. به نظر می رسد ویژگی های با ارزش واقعی فقط ویژگی های عددی هستند، چیزهایی که می توانید با یک مقدار عددی واقعی اندازه گیری کنید. با نگاهی به اطراف، مدخل سطح اندازه گیری را در ویکی پدیا پیدا کردم، به ویژه بخش مقیاس اسمی. بیان می کند: > در مقیاس اسمی، به عنوان مثال، برای یک دسته اسمی، از برچسب ها استفاده می شود. به عنوان مثال، سنگ ها را می توان به طور کلی به عنوان آذرین، رسوبی و > دگرگونی طبقه بندی کرد. برای این مقیاس، برخی از عملیات معتبر معادل و مجموعه > عضویت هستند. اندازهگیریهای اسمی نام یا برچسبهایی را برای ویژگیهای خاص ارائه میدهند. > > متغیرهایی که در مقیاس اسمی ارزیابی می شوند، متغیرهای طبقه ای نامیده می شوند. رجوع کنید به > همچنین داده های طبقه بندی شده. بعداً بیان میکند (و من فکر میکنم این مهمترین بخش است): > گرایش مرکزی یک صفت اسمی با حالت آن مشخص میشود. نه > میانگین و نه میانه را نمی توان تعریف کرد. این به نظر من بسیار شبیه شمارش در زبان های برنامه نویسی است (یا هر جفت کلید-مقدار که در آن کلید یک مقدار عددی مجزا است و مقادیر دسته ها/برچسب ها هستند). من به ندرت میانگین، میانه یا هر عملیات حسابی دیگری را روی مقادیر عددی انجام میدهم، اما مطمئناً میتوانم حالت را تعیین کنم (چند چیز این طبقهبندی برای یک مجموعه خاص اعمال میشود). آیا این درست به نظر می رسد؟ | آیا ویژگی های اسمی طبقه بندی های دقیق و معادل شمارش در زبان های برنامه نویسی هستند؟ |
31708 | من در تکنیک های کاهش ابعاد تازه کار هستم، باید بدانم مزایا و معایب * حفظ الگوی اصلی داده ها پس از کاهش داده ها * کاهش و تأثیرگذاری بر الگوی اصلی داده ها چیست و لطفاً این روش ها را برای من نام ببرید. . آیا می توان مواردی را در اختیار من قرار داد که حفظ یا عدم حفظ الگوی داده های اصلی ترجیح داده شود. | کاهش ابعاد: حفظ ویژگی های اصلی داده ها یا خیر؟ |
88502 | من یک مدل طبقهبندیکننده را با استفاده از Vowpal Wabbit آموزش دادهام تا تصمیم بگیرم که آیا یک فرد فقط بر اساس نام مرد است یا زن. من برچسب های Male=0 و Female=1 را اختصاص دادم. وقتی Vowpal Wabbit را در حالت پیش بینی اجرا کردم، خروجی مقادیری بین 0.0 و 1.0 داشت. من این را به صورت p <= 0.5 ==> مرد و p > 0.5 ==> زن تفسیر کردم. با این کار دقت پیشبینی 85 درصد بود. من اکنون سعی می کنم یک مدل طبقه بندی کننده را برای مشکل دیگری آموزش دهم که در آن 200 برچسب به جای دو مورد مانند بالا وجود دارد. برچسب ها از 0 تا 199 می روند. خروجی پیش بینی دارای مقادیری بین 0.0 و 199.0 است. وقتی مقداری مانند 99.56 (به عنوان مثال) دریافت می کنم، چگونه این را تفسیر کنم؟ آیا آن را به برچسب 100؟ | Vowpal Wabbit: درک خروجی پیش بینی |
95598 | این اولین پست من در CrossValidated است :) من متغیرهای وابسته را دارم: 1\. سرفه هنگام تغذیه با مایع (بله/خیر) 2\. سرفه هنگام تغذیه جامد (بله/خیر) و یک متغیر مستقل: 1\. گروه سنی برای پاسخ به سوال «آیا سرفه با سن مرتبط است؟» از روش رگرسیون لجستیک استفاده کنم. با این حال، من مطمئن نیستم که چگونه هر دو متغیر وابسته را در مدل تطبیق دهم. من در اینجا به بحث در مورد تجزیه و تحلیل پیامدهای مرتبط چندگانه اشاره می کنم، اما اگر با تحلیل من مرتبط است، از شما راهنمایی بخواهم. پیشاپیش ممنون | تحلیل رگرسیون برای چندین پیامد مرتبط |
71557 | ما آزمایشی را انجام دادهایم که تعداد مراجع لازم را در یک گروه برای یافتن متخصصترین فرد در آن گروه در یک موضوع خاص (DV) اندازهگیری میکند. ما 7 مبحث داریم (4 تای آن مرئی و 3 تای آن نامرئی در نظر گرفته شده است). تمایز مرئی / نامرئی درمان ما است. ما 42 گروه (کلاس های مدرسه) داریم. ما آزمایش را با هر 7 موضوع در هر گروه انجام دادیم تا گروه ها و موضوعات متقاطع شوند. ما معتقدیم که تعداد مراجع مورد نیاز برای یافتن متخصص ترین فرد در یک کلاس به قابل مشاهده بودن/ناپیدا بودن موضوع جستجو بستگی دارد. من در تلاش برای رسیدن به طرح مناسب هستم. من معتقدم که موضوعات جستجو در درمان (مرئی/نامرئی) تودرتو هستند. من می خواهم این واقعیت را در نظر بگیرم که برای هر کلاس 7 معیار دارم. من علاقه ای به ارزیابی تأثیر مستقیم کلاس ندارم، اما فقط می خواهم این واقعیت را کنترل کنم که 7 معیار در یک طبقه ممکن است مستقل از یکدیگر نباشند. آیا هنوز هم می توان این کار را با ANOVA انجام داد (و اگر بله چه نوع؟) یا بهتر است از GLM استفاده کنم؟ | سوال در مورد طراحی صحیح ANOVA |
88504 | در randomForestSRC در R، دادههای نمونه (کهنه سرباز، بسته = randomSurvivalForest) pt.train <- نمونه (1:nrow(کهنه سرباز)، دور(nrow(کهنه سرباز)*0.80)) جانباز داریم. خارج <- rsf (Surv(زمان، وضعیت) ~ .، داده = جانباز[pt.train، ]) veteran.pred <- predict(veteran.out, veteran[-pt.train, ]) چگونه می توانم با استفاده از نتایج veteran.pred بفهمم که پیش بینی های مدل من خوب هستند؟ | ارزیابی دقت ForestSRC تصادفی در یک داده بقا |
88506 | در مدل خود من از تجزیه Cholesky برای تولید ساختار کوواریانس خاصی از بردار متغیرهای نرمال استفاده می کنم: $\Omega=LL'$ که در آن L ضریب Cholesky مثلثی پایینی است و $\Omega$ یک ماتریس کوواریانس است. در حال حاضر $\Omega$ نامحدود است، اما من می خواهم $\Omega$ را محدود کنم تا ساختار خاصی داشته باشد. برای مثال فرض کنید $\Omega$ $2 \times 2$ است و من میخواهم واریانس اولین متغیر را روی یک تنظیم کنم: $\Omega=\left(\begin{array}{cc} 1 & \sigma_{21 } \\\ \sigma_{21} & \sigma_{22} \end{array} \right)$ محدود کردن کوواریانس آسان است خود ماتریس، اما مشکل در برنامه R من است، من از عامل Cholesky برای تولید ماتریس کوواریانس استفاده می کنم (این به این دلیل است که عامل Cholesky یک ماتریس کوواریانس قطعی مثبت را تضمین می کند)، بنابراین باید بفهمم که چگونه می توانم برای تولید ماتریس کوواریانس محدود صحیح، عامل Cholesky را محدود کنید. در مورد بسیار آسان بالا، من میتوانم با قرار دادن اولین عنصر ضریب Cholesky برابر با صفر، محدودیت ماتریس کوواریانس را ایجاد کنم: $\Omega=\left(\begin{array}{cc} 1 & \sigma_{21 } \\\ \sigma_{21} & \sigma_{22} \end{آرایه} \right)=LL'=\left(\begin{array}{cc} 1 & 0 \\\ l_{21} & l_{22} \end{array} \right)\left(\begin{array} cc} 1 & l_{21} \\\ 0 & l_{22} \end{array} \right) =\left(\begin{array}{cc} 1 & l_{21} \\\ l_{21} & l_{21}^2+l_{22}^2 \end{array} \right)$ بنابراین سؤال من اساساً این است: آیا رویکرد کلی برای محدود کردن عامل Cholesky وجود دارد برای به دست آوردن ماتریس کوواریانس صحیح؟ | محدودیت در تجزیه Cholesky |
34069 | من باید چند مقایسه میانگین ساده بین گروهها (تستهای ANOVA F پایه) روی دادههای دارای مقادیر گمشده انجام دهم. من از بسته موش در R برای انتساب چندگانه استفاده میکنم، اما فقط میتوانم نتایج را برای ضرایب مدل خطی یا R^2$ جمعآوری کنم. آیا کسی می داند چگونه می توان چندین آمار F را از هر مدل خطی ترکیب کرد؟ یا چگونه می توانم خطاهای استاندارد را برای آزمون F محاسبه کنم؟ | مقایسه میانگین ها پس از انتساب چندگانه |
78177 | من سعی می کنم یک توزیع قبلی مزدوج نرمال- معکوس-Wishart را برای یک نرمال چند متغیره با میانگین ناشناخته و کوواریانس در numpy/scipy پیاده سازی کنم به طوری که بتواند یک بردار داده را بگیرد و یک پسین بسازد. من از معادلات بهروزرسانی مشخصشده توسط ویکیپدیا برای یک NIW استفاده میکنم: http://en.wikipedia.org/wiki/Conjugate_prior کلاس توزیع من به شرح زیر است: import numpy به عنوان np از scipy.stats import chi2 class NormalInverseWishartDistribution(object): def __init__(خود، مو، لمبدا، نو، psi): self.mu = mu self.lmbda = float(lmbda) self.nu = nu self.psi = psi self.inv_psi = np.linalg.inv(psi) def sample(self): سیگما = np.linalg.inv(self.wishartrand()) بازگشت (np.random.multivariate_normal(self.mu، sigma / self.lmbda)، sigma) def wishartrand(self): dim = self.inv_psi.shape[0] chol = np.linalg.cholesky(self.inv_psi) foo = np.zeros((کدر، کم نور)) برای i در محدوده(کم): برای j در محدوده (i+1): اگر i == j: foo[i,j] = np.sqrt(chi2.rvs(self.nu-(i+1)+1)) else: foo[i,j] = np.random.normal(0,1) بازگشت np.dot(chol، np.dot (foo, np.dot(foo.T, chol.T))) def posterior(self, data): n = len(داده) mean_data = np.mean(data, axis=0) sum_squares = np.sum([np.array(np.matrix(x - mean_data).T * np.matrix(x - mean_data)) برای x در داده], axis= 0) mu_n = (self.lmbda * self.mu + n * mean_data) / (self.lmbda + n) lmbda_n = خودش .mu).T * np.matrix(mean_data - self.mu)) بازگشت NormalInverseWishartDistribution(mu_n، lmbda_n، nu_n، psi_n) من یک بررسی سالم ساده انجام می دهم تا ببینم آیا قسمت پسین به توزیع واقعی همگرا می شود: x = NormalInverseWishartDistribution(np.array([0,0])-3,1,3,np .eye(2)) samples = [x.sample() برای _ in range(100)] data = [np.random.multivariate_normal(mu,cov) برای mu,cov در نمونهها] y = NormalInverseWishartDistribution(np.array([0,0]),1,3,np.eye(2) ) z = y.posterior(data) print 'mu_n: {0}'.format(z.mu) print 'psi_n: {0}'.format(z.psi) میانگین به طور مناسبی همگرا است، اما به نظر می رسد که ماتریس مقیاس به مقادیر نادرست بزرگ در امتداد قطر، به جای مقدار واقعی 1 همگرا می شود. تا آنجا که من می توانم بگویم، من. m دقیقاً قانون به روز رسانی را کپی می کنم. آیا من در اینجا چیزی را نامناسب اجرا می کنم؟ **ویرایش**: به نظر میرسد که در واقع _is_ خلفی همگرا میشود، اما روال نمونه نمونههای مغرضانه را برمیگرداند. آیا در روش نمونه گیری کار اشتباهی انجام می دهم؟ **ویرایش2**: تایید کرده ام که همین پدیده در تابع MCMCpack riwish در R: > library(MCMCpack) > نمونه ها <- replicate(100000, riwish(3, matrix(c(1,0,0, 1),2,2))) > mean(samples[1,1,]) [1] 4.889211 این باعث می شود باور کنم که باید باشم سوء تفاهم چیزی از صفحه ویکیپدیا (http://en.wikipedia.org/wiki/Inverse-Wishart_distribution)، ما داریم: $\newcommand{\E}{\mathrm{E}}$ $\E[{\Sigma}] = \frac{\Psi}{\nu - p - 1}$ با این حال، در مورد آزمایشی من، $\nu = p + 1$، بنابراین $\E[{\Sigma}] = \Psi$. بنابراین، اگر چندین بار از $\Sigma$ نمونه برداری کنم، آیا نباید به طور متوسط $\Psi$ را بازیابی کنم؟ **ویرایش 3**: متوجه شدم که مشکل من یک نظارت جبری ساده است: باید $\nu = p+2$ را تنظیم کنم. مشکل حل شد | کوواریانس خلفی نرمال-معکوس-ویشارت به درستی همگرا نیست |
89842 | در همه جا پیشنهادهای شفاهی در مورد اینکه چه زمانی باید از میانگین هندسی استفاده کرد یا زمانی که میانگین حسابی باید ترجیح داده شود، وجود دارد، اما من نمی توانم هیچ درمان آماری رسمی برای این سوال پیدا کنم. آیا می توان به طور رسمی آزمایش کرد که کدام یک از این میانگین ها باید برای یک نمونه خاص استفاده شود؟ | حسابی در مقابل میانگین هندسی |
78173 | من با Omnet++ 4.3 جدید هستم، یک شبکه WMN دارم و می خواهم ترافیک را از طریق دو کوتاه ترین مسیر، از یکی از گره های مشتری خود به دو ONU (wgRouter) ارسال کنم. 1. اول میخوام بدونم چطوری میتونم 2تا کوتاه ترین مسیر رو پیدا کنم، آیا میشه شبکه رو اجرا کرد و از طریق یکی از wgRouter اولین کوتاه ترین مسیر رو پیدا کرد و جدول مسیریابی رو ذخیره کرد و بعد اون wgrouter رو خاموش کرد و بعد مدل رو اجرا کرد. دوباره و دومین کوتاه ترین مسیر را از طریق wgrouter دیگر پیدا کنید و دوباره جدول مسیریابی را ذخیره کنید، سپس wgRouter را خاموش کنید، از هر دو جدول مسیریابی در قسمت مقداردهی اولیه استفاده کنید (نمی دانم چگونه آیا می توانم هر دو را در یک زمان استفاده کنم، لطفاً اگر می دانید به من اطلاع دهید) و مدل را اجرا کنید؟ 2. در نظر بگیرید که ما دو کوتاه ترین مسیر را از طریق دو wgRouter پیدا کردیم، حال چگونه می توانم ترافیک را به طور مساوی بین هر دو تقسیم کنم؟ هر اطلاعاتی برای من بسیار مفید خواهد بود. با تشکر | جدول مسیریابی و تقسیم ترافیک در omnet++ |
112024 | من سعی می کنم تفاوت بین 1. آزمایش فرضیه صفر (یعنی آزمایش اینکه احتمال یک هدف در 2 جمعیت مختلف یکسان است، مشابه با prop.test در R) 2. آزمون A/B با استفاده از یکسان است را درک کنم. یک فرمول بیزی که در اینجا توضیح داده شده است: http://www.evanmiller.org/bayesian-ab-testing.html آیا تفاوتی وجود دارد؟ آیا یکی ارجح است؟ مشکلی که من با آن روبرو هستم چیزی شبیه به این است: گروه کنترل دارای 100000 برداشت و گروه آزمایش 100 واکنش دارای 50000 برداشت و 55 واکنش است. | آزمون AB در مقابل آزمایش فرضیه صفر |
39283 | برای کار مدلسازی Churn من در نظر داشتم: 1. محاسبه k خوشه برای دادهها. 2. ساخت k مدل برای هر خوشه به صورت جداگانه. دلیل آن این است که چیزی برای اثبات وجود ندارد، که جمعیت مشترکین همگن است، بنابراین منطقی است که فرض کنیم فرآیند تولید داده ممکن است برای «گروههای» متفاوت متفاوت باشد سؤال من این است که آیا روش مناسبی است؟ آیا چیزی را نقض می کند یا به دلایلی بد تلقی می شود؟ اگر چنین است، چرا؟ اگر نه، آیا بهترین روش ها را در مورد آن موضوع به اشتراک می گذارید؟ و نکته دوم - آیا انجام پیش خوشهبندی به طور کلی بهتر است یا بدتر از درخت مدل (همانطور که در Witten, Frank - درخت طبقهبندی/رگرسیون با مدلهایی در برگها تعریف شده است. به طور شهودی به نظر میرسد که مرحله درخت تصمیم فقط شکل دیگری از خوشهبندی است، اما idk اگر مزیتی نسبت به خوشهبندی «عادی» داشته باشد.). | آیا پیش خوشه بندی به ساخت یک مدل پیش بینی بهتر کمک می کند؟ |
90028 | من یک طرح آزمایشی 2×2، بین آزمودنی ها (2 متغیر مستقل (IVs) با 2 سطح هر کدام) و یک متغیر وابسته (DV) دارم. داده های من نامتعادل هستند و تعامل بین IV ها محتمل به نظر می رسد، بنابراین من قصد دارم از ANOVA با مجموع مربع های نوع III استفاده کنم تا آزمایش کنم آیا DV من در یکی از IV هایم متفاوت است و در عین حال هرگونه تأثیر IV دیگر (یا تعامل) را کنترل می کنم. ، در صورت وجود). سوال من این است: حداقل تعداد نقاط داده ای که من در هر یک از 4 سلول خود نیاز دارم، چقدر است تا مطمئن شوم که ANOVA احتمالاً نتایج جعلی به دست نمی دهد؟ من از توصیه Simmons و همکاران (2011) مبنی بر داشتن حداقل 20 نقطه داده در هر سلول آگاه هستم، اما این توصیه فقط برای کنترل میزان منفی کاذب تست است. چیزی که من بیشتر نگران آن هستم این است که با اندازه سلول به اندازه کافی کوچک، آماری که ANOVA بر اساس آن است احتمالاً چندان قابل اعتماد نخواهد بود و بنابراین نتایج آزمایش نیز غیرقابل اعتماد خواهد بود (از نظر منفی کاذب). _یا_ مثبت کاذب). آیا مقاله یا متنی وجود دارد که در مورد این نگرانی مطالعه و توصیه کرده باشد؟ | حداقل اندازه سلول زنده برای ANOVA 2x2 چقدر است؟ |
47272 | من نمیپرسم آیا روشهایی مشابه روش مورد استفاده در الگوریتم جنگل تصادفی وجود دارد - منظورم این است که نمونه بوت استرپ و زیرمجموعه تصادفی ویژگیها را به طور همزمان انتخاب کنیم، سپس مدل آماری بسازیم. آیا کسی این رویکرد را برای ساخت مجموعه ای از مدل های رگرسیون اتخاذ کرده است؟ آیا این رویکرد (نمونه فرعی تصادفی به علاوه زیرمجموعه تصادفی ویژگی ها) به نوعی جهانی است؟ نسخه: سوال همه در مورد امکان قرار دادن مدل دیگری در محل درخت طبقه بندی در جنگل تصادفی است، چیزی که باقی می ماند نوعی متاالگوریتم است (چون کیسه بندی را می توان به عنوان متاالگوریتم مشاهده کرد) = بسته بندی + زیر مجموعه های تصادفی از متغیرها | رویه جنگل تصادفی برای رگرسیون یا سایر مدل های آماری |
39243 | من سعی می کنم وزن های متغیر را با برازش SVM خطی تفسیر کنم. (من از scikit-learn استفاده می کنم): from sklearn import svm svm = svm.SVC(kernel='linear') svm.fit(ویژگی ها، برچسب ها) svm.coef_ من نمی توانم چیزی در مستندات پیدا کنم که به طور خاص نحوه این وزن ها را بیان کند. محاسبه یا تفسیر می شوند. آیا علامت وزن ربطی به کلاس دارد؟ | چگونه می توان وزن ویژگی های SVM را تفسیر کرد؟ |
39280 | برای ترسیم طرح در 3 بعدی، می توانم بگویم که دو رویکرد سطح بالا وجود دارد. 1. قطعه با 3 محور: یک بعد در هر محور. 2. طرح با 2 محور با بعد 3 نشان داده شده در رنگ. برخی از قوانین یا دستورالعمل های کلی در مورد انتخاب بین این دو رویکرد چیست؟ | برخی از قوانین یا دستورالعمل های کلی در مورد انتخاب بین رنگ و 3 محور برای ترسیم سه بعدی چیست؟ |
110217 | فرض کنید یک متغیر پیشبینیکننده $x$ اسمی/مقولهای با سه سطح است: $1,2,3$. بنابراین ما دو متغیر ساختگی $x_2$ و $x_3$ با سطح $1$ به عنوان متغیر مرجع ایجاد می کنیم. اجازه دهید $y$ یک متغیر پاسخ باینری باشد. سپس یک مدل رگرسیون لجستیک می تواند این باشد: $$ \text{logit}(p) = \beta_0 +\beta_1 x_{2} + \beta_{2}x_{3}$$ در SVM ها و درخت های تصمیم، آیا لازم است متغیرهای ساختگی $x_2,x_3$ را برای $x$ ایجاد کنید؟ یا می توانیم آن را همانطور که هست نگه داریم؟ | متغیرهای ساختگی و الگوریتم های یادگیری |
80421 | من سعی می کنم یک شبیه سازی از غلظت دارو بر اساس دوز داروی داده شده ایجاد کنم. من برخی از داده های اولیه دارم و از یک مدل اثرات تصادفی برای تجزیه و تحلیل رابطه بین log (دوز)، پیش بینی log (غلظت دارو)، مدل سازی موضوع به عنوان یک اثر تصادفی استفاده کردم. نتایج آن تحلیل در زیر آمده است. من میخواهم این نتایج را بگیرم و دادههای مشابه را در SAS شبیهسازی کنم، بنابراین میتوانم به تأثیر تغییر دوز روی غلظت حاصل از دارو در بدن نگاه کنم. من میدانم که وقتی دادهها را شبیهسازی میکنم، باید اطمینان حاصل کنم که شیب تصادفی با رهگیری تصادفی مرتبط است، اما من دقیقاً مطمئن نیستم که چگونه این کار را انجام دهم. اثرات تصادفی: فرمول: ~LDOS | ساختار RANDID: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intercept) 0.15915378 (Intr) LDOS 0.01783609 0.735 باقی مانده 0.05790635 اثرات ثابت: LCMX Value St-value ~ LDOS (Intercept) 3.340712 0.04319325 16 77.34339 0 LDOS 1.000386 0.01034409 11 96.71090 0 همبستگی: (Intr) LDOS -0.047 | کمک به شبیه سازی افکت های تصادفی در SAS |
112021 | فرض کنید یک مدل رگرسیونی دارم: $y=a+b*x+error$ فرض کنید $x$ درآمد و $y$ مصرف باشد. فرضیه این است که درآمد بالاتر منجر به مصرف بیشتر می شود و بنابراین، ضریب روی $x$ باید مثبت باشد، بقیه چیزها ثابت می مانند. بیایید همچنین بگوییم ضریب تخمینی 0.60 است. این مدل به وضوح از تعصب متغیر حذف شده رنج می برد. لطفا این موضوع را نادیده بگیرید. سوال من: الف) آیا این مدل از علیت معکوس رنج می برد؟ به عبارت دیگر، آیا این رابطه به این دلیل است که مصرف بیشتر باعث کاهش درآمد می شود؟ اولین حدس من این است که اینطور نیست زیرا ضریب مثبت است، یعنی همبستگی بین درآمد و مصرف مثبت است. اینجا را ببینید. ب) با توجه به (الف)، آیا می توانم از این به عنوان یک قاعده سرانگشتی برای رد علیت معکوس در این مورد استفاده کنم؟ آیا این قابل تعمیم به موارد دیگر با دو متغیر است؟ با تشکر P.S. همچنین می توان از همبستگی به جای اجرای یک رگرسیون ساده همانطور که قبلا ذکر شد استفاده کرد. | قاعده کلی برای رد علیت معکوس در مدل OLS |
108086 | زمینه: چند سال پیش نزد استادی متخصص اقتصاد کلان کار می کردم. به عنوان یک دستیار پژوهشی دانشجویی، وظیفه من این بود که مقالات دیگر را تکرار کنم و با داده ها بازی کنم. من به سرعت متوجه شدم که بسیاری از نتایج منتشر شده حتی در برابر تغییرات کوچک در تنظیمات مدلسازی مقاوم نیستند (مثلاً اگر یک متغیر را حذف کنید، محدوده دادهها را تغییر دهید، تاخیرهای بیشتری اضافه کنید). در تئوری، محقق فرضیه میدهد، یک رگرسیون انجام میدهد و نتایج را گزارش میکند. اما در عمل به نظر می رسد که تخمین صدها رگرسیون و انتشار یک قانون نانوشته است. سوال من: قوانین نانوشته و ترفندهای کثیف برای تأثیرگذاری بر نتیجه تحلیل رگرسیون چیست؟ آیا مرجعی (آکادمیک/نیمه آکادمیک) می شناسید که نویسنده چنین رویه ای غیررسمی را برای به دست آوردن نتایج مطلوب شرح دهد؟ | قوانین نانوشته و ترفندهای کثیف برای تأثیرگذاری بر نتیجه تحلیل رگرسیون |
108089 | من علاقه مند به ساختن نمودارهای کنترل کیفیت برای داده های سری زمانی هستم که در آن هر نقطه داده دارای درجه بندی متفاوتی در محدوده 0 تا 1 است. برای مثال نقطه داده اول **_X1_** ممکن است 0.1، 0.2،..، و داده دوم باشد. نقطه **_X2_** ممکن است 0، 1/3، 2/3، 1 باشد. داده های سوم ممکن است فاصله دیگری داشته باشند. داده ها فصلی نیستند و هیچ الگوی در نحوه ظاهر فواصل وجود ندارد (به عنوان مثال، 0.1 ( ** _X1_**)، 1/3 ( ** _X2_**) و غیره). به عبارت دیگر، من نمی دانم درجه بندی نقاط داده های آینده چقدر است، اما می دانم که محدوده بین 0 و 1 است. سؤالات من این است: 1) آیا محدودیت هایی که بر اساس برخی داده های آموزشی ایجاد خواهم کرد (UCL، LCL) خواهد بود. در نتیجه داشتن درجه بندی متفاوت ایجاد می شود - از آنجایی که داده ها پیوسته نیستند، واریانس بیشتر خواهد بود؟ 2) آیا با توجه به این واقعیت که این نشان دهنده ماهیت داده های آینده است و من مجموعه آموزشی 30 نمونه دارم، مشکلی است؟ 3) نقاط داده نشان دهنده عملکرد دانش آموز در آزمون های مختلف در زمان متوالی است و بین 0 تا 1 نرمال شده است (10 سوال در آزمون به فاصله 0.1، 3 سوال به فاصله 1/3 منجر می شود). شاید راههایی برای عادیسازی دادهها وجود داشته باشد تا از مشکل افزایش واریانس جلوگیری شود؟ با تشکر فراوان از صبر و کمک شما! | نمودار کنترل کیفیت برای داده های توزیع شده غیر عادی |
37993 | در حال حاضر روی یک مقاله تحقیقاتی شبه تجربی کار می کنم. من فقط حجم نمونه 15 نفری دارم به دلیل جمعیت کم در منطقه انتخابی و اینکه فقط 15 مورد با معیارهای من مطابقت دارند. آیا 15 حداقل حجم نمونه برای محاسبه آزمون t و آزمون F است؟ اگر چنین است، از کجا می توانم مقاله یا کتابی برای پشتیبانی از این حجم نمونه کوچک تهیه کنم؟ این مقاله قبلاً دوشنبه گذشته دفاع شده بود و یکی از پانل درخواست کرد که یک مرجع پشتیبانی داشته باشد زیرا حجم نمونه من خیلی کم است. او گفت که باید حداقل 40 پاسخ دهنده می بود. | آیا حداقل حجم نمونه لازم است تا آزمون t معتبر باشد؟ |
79919 | من میخواهم یک داده پیوسته چند متغیره تولید کنم که **کروبی** ابری باشد، مانند دادههای معمولی استاندارد چند متغیره، اما **پلاتیکورتیک**تر از دادههای معمولی باشد. راههای زیادی برای دریافت دادههای پلاتیکورتیک (مثلاً از توزیع بتا) وجود دارد، اما هرچه پلاتیکورتیکتر باشند، در فضای چند متغیره بیشتر مستطیل هستند. اما من داده های تصادفی کروی و ابرکره ای می خواهم. داده های تک وجهی در صورت امکان ترجیحاً از توزیع بدون کران. و با گزینه ای برای تغییر میزان کشیدگی مسطح. ** آیا می توانید ** توزیع یا ترفندی برای تولید پیشنهاد دهید؟ P.S. گفتن فوق کروی منظورم هر ابعادی است (نه بعدی بالا). یعنی، منظور من از حالت دو بعدی فقط مورد خاص است. من هم به آن علاقه دارم. | ابر تصادفی پلاتیکورتیک کروی |
34065 | من میخواهم یک مدل دوجملهای منفی را برای دادههای تعدادم برازش کنم. من تعجب می کنم که چه تفاوت هایی برای محاسبه این سه PROC در SAS وجود دارد. | تفاوتهای PROC GENMOD، COUNTREG و FMM برای مدل دادههای شمارش |
47270 | اگر $Q$ یک ماتریس مولد یک زنجیره مارکوف زمان پیوسته (CTMC) باشد، و من باید از این ماتریس برای حل معادله رو به جلو کولموگروف استفاده کنم، باید با ادغام آن شروع کنم. اما من سرنخی ندارم چطور این کار را انجام دهم. کسی می تواند به من نشان دهد لطفا؟ من چیزی شبیه این را می دانم، فرض کنیم $i$ نمایانگر وضعیت فعلی یک CTMC است. سپس، معادله رو به جلو اساساً به ما می گوید که می توانیم با انجام $$X(i + 1) = X(i) \cdot (Id_2 + Q)$$ برای بررسی تفاوت، $X(i + 1)$ را محاسبه کنیم. با گذشت زمان، میتوانیم $X(i)$ را از هر دو طرف کم کنیم و $X(i + 1) - X(i) = X(i) Q$$ بدست آوریم. ماتریسها، میتوان گفت که این را میتوان به صورت $$ P'(t) = X(i) Q dt$$ نوشت، اما من نمیدانم چگونه به این بیت میرسید و چگونه میتوانید از اینجا ادغام کنید. من واقعا از هر کمکی قدردانی می کنم. متشکرم. | چگونه ادغام معادله رو به جلو کولموگروف $P = \exp (Qt)$ را به دست می دهد؟ |
112028 | من یک سوال در مورد تجزیه و تحلیل آماری یک آزمایش بیولوژیکی دارم. در این آزمایش من داده های تصویربرداری در مورد مدت زمان تماس بین سلول های ایمنی را جمع آوری کردم. ما دو نوع متمایز از سلول های ایمنی و زمان تماس آنها را با نوع سلول سوم مقایسه کرده ایم. مدت زمان تماس ها بر حسب دقیقه اندازه گیری شد. اکنون میخواهم تعیین کنم که آیا تعداد تماسهایی که بیش از 30 دقیقه طول کشیدهاند، تفاوتهای چشمگیری دارند یا خیر. این تعداد میت را برای دو نوع سلول می دهد. مثال: سلول نوع 1: 23 از 140 مخاطب اندازه گیری شده است. سلول نوع 2: 34 از 126 مخاطب اندازه گیری شده است. در این مورد باید از کدام آزمون آماری استفاده کنم؟ | آزمون آماری بر روی داده های شمارش |
108088 | من در درک پیامدهای استفاده/افزودن یک متغیر وابسته تاخیری در مدل پیشبینی خود، مشکلات ابتدایی دارم. من سعی می کنم مقادیر $Y_{i,t+\tau}$ را برای $\tau=1-3$ پیش بینی کنم با: $Y_{i,t+1}=a+bY_{i,t}+cX_{i ,t}+e_{i,t+1}$Y_{i,t+2}=a+bY_{i,t}+cX_{i,t}+e_{i,t+2}$ $Y_{i,t+3}=a+bY_{i,t}+cX_{i,t}+e_{i,t+3}$ من قبلاً یک رگرسیون ترکیبی انجام دادم که در آن شما اساساً اثرات شرکت و زمان را نادیده میگیرید. -بر هر موضوعی به طور مساوی تأثیر می گذارد و رفتار می کند. از آنجایی که سعی میکنم سطوح مختلف (به دلار آمریکا) را پیشبینی کنم و به نظر میرسد که دادههای من بسیار دنبالهدار هستند، زیرا چند موضوع بسیار بزرگ (با مقادیر بسیار بالا) را پوشش میدهد، اما همچنین بسیاری از موضوعات کوچک را پوشش میدهد، پیشبینیهای مدل به عنوان رهگیری ضعیف عمل میکنند. $a$ که برای همه موضوعات برابر است به نظر می رسد تا حد زیادی مسئول این امر باشد. یک مدل ثابت اما با رهگیری های فردی با متغیرهای وابسته Lagged معتبر نیست زیرا LDV با خطاهای درون همبستگی دارد. برای توضیح خطاهای دم سنگین، من قبلاً مدل تلفیقی را با بسته rlm (lm قوی) تخمین زدم که نتایج کمی بهتر داشت، اما در مجموع آنها هنوز بسیار رضایت بخش به نظر می رسند. من بیشتر خواندم که افزودن نتایج LDV در برآوردگرهای مغرضانه و ناسازگار، زیرا همبستگی شدیدی بین متغیرهای پیشبینیکننده و خطاهای مدل وجود دارد و روشهای منظم برای همبستگی خودکار دیگر معتبر نیستند. یکی از راهحلهایی که من با آن برخورد کردم استفاده از متغیرهای ابزاری با تخمینگر اندرسون-هسیائو (یعنی استفاده از یک تاخیر -2 که با عبارت خطا مرتبط نیست (با فرض عدم همبستگی خودکار است، اما چگونه میتوانید فرض کنید که هیچ همبستگی خودکار وجود ندارد اگر یک تاخیر را وارد کنید. ?) یکی دیگر برآوردگر آرلانو باند GMM است، اما با استفاده از GMM باید شرایط لحظه ای را تنظیم کنید و من این کار را انجام داده ام. هیچ ایده ای برای انجام این کار ندارم و نمی دانم دقیقاً چگونه این روش ها کار می کنند، چیزی که من به آن اهمیت می دهم این است که یک برآوردگر بی طرف با ضرایب معتبر بدست آوریم و نه در مورد خطاهای استاندارد با LDV هایی که من در حال حاضر از آنها بی اطلاع هستم کنار بیایید و بهترین/ایده آل ترین/ساده ترین راه برای مقابله با چنین مسائلی چیست؟ همبستگی خودکار) من در اینجا کمی گم شده ام. | پیامدهای تاخیر متغیرهای وابسته در داده های تابلویی و نحوه برخورد با آن؟ |
95597 | داده های من این است: Q1: 8.5 Q2: 13 Q3: 17.5 IQR: 9. مسئله ریاضی می گوید محدوده بین چارکی را تفسیر کنید. من نمی دانم این به چه معناست یا چگونه آن را انجام دهم. | محدوده بین چارکی را چگونه تفسیر می کنید؟ |
88508 | من فقط یک رگرسیون خطی را روی کل مجموعه داده اجرا کردم، اما اکنون باید رگرسیون را با دادههایی که فقط از زنان درون دادهها هستند اجرا کنم. زنان در زیر ستون «زن» مجموعه دادهها با «1» نشان داده میشوند. نرها با 0 در زیر همان ستون نشان داده می شوند. من نمی دانم چگونه داده های مرد را حذف کنم تا بتوانم رگرسیون را فقط روی داده های زن اجرا کنم. | کد رگرسیون خطی مشروط |
108332 | من به دنبال مرجع کتابشناختی برای مقایسه دو ماتریس واریانس با معیار زیر هستم: $\text{Var}[X] \geq \text{Var}[Y] \quad \text{if} \quad \text{Var}[ X]-\text{Var}[Y] \succeq 0$ این بدان معناست که اگر اختلاف ماتریسهای واریانس آنها نیمه باشد، $X$ دارای واریانس رندهتری نسبت به $Y$ است. مثبت قطعی هر ارجاع قابل استنادی به کتاب ها یا آثاری که توضیح دهد چرا این یک معیار معتبر و رایج برای مقایسه تنوع بردارهای تصادفی است، قدردانی می شود. اگر این امکان پذیر نیست، هیچ کمکی در مورد نحوه جستجوی آن وجود ندارد. با تشکر | مقایسه دو ماتریس واریانس |
100687 | در یادگیری ماشینی، به نظر قابل قبول است که داده های از دست رفته بر دقت پیش بینی و زمان یادگیری تأثیر می گذارد. آیا کسی ادبیاتی را می شناسد که این را تحلیل کند؟ من ادبیات زیادی پیدا کرده ام که در مورد تکنیک های مقابله با داده های از دست رفته بحث می کند، اما هیچ ادبیاتی که تأثیر آن را تجزیه و تحلیل کند، به عنوان مثال. با 25٪ از ویژگی های اصلی از دست رفته، سپس دقت پیش بینی 50٪ کاهش می یابد، و غیره. | برخی از مقالات که تأثیر داده های از دست رفته در یادگیری ماشین را تجزیه و تحلیل می کنند چیست؟ |
96768 | آیا هنگام ایجاد یک شبکه عصبی، وزنها را پس از هر بار اجرا به جلو و سپس به عقب بهروزرسانی میکنم؟ یا فقط وزن های تصادفی را نگه دارم و متغیرهای دلتا را به روز کنم؟ من به اسلاید 8 در این یادداشت ها نگاه می کنم:https://d396qusza40orc.cloudfront.net/ml/docs/slides/Lecture9.pdf می گوید: برای i = m a(1) = x(i) را به جلو انجام دهید محاسبه دلتا محاسبه DELTA QUESTION: آیا وزن هایی را که در Forward-propogation استفاده می کنم به روز می کنم یا استفاده می کنم وزن های تصادفی و فقط به روز رسانی ذخیره کننده 'DELTA' ادامه دهید؟ و اگه وزن ها رو آپدیت کنم روی DELTA قرار بدم؟ | سوال فرآیند شبکه عصبی - به روز رسانی وزن ها بعد از هر مجموعه آموزشی |
100688 | نتیجه ای که من در مورد آن صحبت می کنم، میانگین اعتبارسنجی متقاطع از تابع sklearn است. من سعی کردم داده های آموزشی خود را به هم بزنم و سپس تابع CV را اعمال کردم (شافل و سپس CV). من چندین بار این کار را انجام دادم و هر نتیجه متفاوت بود، برخی از بقیه بالاتر هستند. آیا ترتیب داده ها از داده های آموزشی مرتبط است؟ اگر چنین است، پس چگونه؟ **اضافه ها:** ببخشید مشکلم را خوب تعریف نکردم. من در حال انجام یک طبقه بندی باینری نظارت شده هستم. متغیر قطار من شامل ویژگی و طبقه بندی است. در اینجا بخشی از کد من است: وارد کردن numpy به عنوان np از sklearn import_validation cross_validation از sklearn.linear_model import LogisticRegression np.random.shuffle(train) clf = LogisticRegression() clf = clf.fit(train[0::,1::] ,train[0::,0]) mean = cross_validation.cross_val_score(clf, train[0::,1::],train[0::,0], cv=cross_validation.StratifiedKFold(train[:,0],5)).mean() print mean #sample برای قطار: #قطار = [[1,0.5,0.3,0.6],[0,0.3,0.2,0.1],[0,0.1,0.9,0.7]] در اینجا من n_fold=5 دارم. اگر من np.random.shuffle (train) را حذف کنم، نتیجه من برای میانگین تقریباً 66٪ است و حتی پس از چند بار اجرای برنامه ثابت می ماند. با این حال، اگر قسمت shuffle را وارد کنم، میانگین من تغییر می کند (گاهی افزایش می یابد و گاهی کاهش می یابد). و سوال من این است که چرا به هم زدن داده های آموزشی من باعث تغییر میانگین من می شود؟ اگر ترتیب داده ها در قطار من نامربوط است، پس چرا میانگین من پس از زدن تغییر می کند؟ این فقط بخشی از کد من است، بنابراین فرض کنید که متغیر train در جایی تعریف شده است. متغیر قطار من مشابه نمونه است، اما از ویژگی های بسیار بیشتری تشکیل شده است. | چرا هر زمان که داده های آموزشی خود را به هم می زنم، نتایج در اعتبارسنجی متقابل تغییر می کند؟ |
68510 | من سعی می کنم خودم را در مورد تجزیه و تحلیل پیش بینی آموزش دهم و از «R» برای تولید یک مدل خطی با داده های زیر استفاده می کنم. سن <- c(23، 19، 25، 10،9، 12، 11، 8، 13) استروئید <- c(27.1، 22.1، 21.9، 10.7، 7.4، 18.8، 14.7، 5.7) gpa <- c(2. ، 2.9، 2.8، 3.5، 3.2، 3.9، 2.8، 2.6) نمونه <- data.frame (سن، استروئید، gpa) fit2 <- lm (استروئید ~ سن + gpa) خلاصه (fit2) newdata <- data.frame (سن=15، gpa=3.2 ) predict(fit2, newdata, interval=predict) # من مقدار برازش / پیش بینی شده را از خلاصه برای خطی می خواهم مدل، من اطلاعاتی در مورد ضرایب مرتبط با هر پیش بینی دارم. با این حال، من می خواهم بیشتر بروم و احتمال پیش بینی اطلاعات را از این داده ها پیدا کنم. بنابراین برای کسی که 13 سال دارد و معدل 3.3 دارد، احتمال پیش بینی شده که در مقیاس استروئیدی رتبه بالایی داشته باشد چقدر است؟ برای کسی که 10 سال دارد چطور؟ و غیره. من مدلسازی توضیحی را درک میکنم و در پیادهسازی آن در «R» مشکلی ندارم، فقط با استفاده از «R» برای ساختن تحلیلهای پیشبینی معنادار مشکل دارم. اگر نظری در این مورد دارید، در صورت تمایل به اشتراک بگذارید. | یافتن پیش بینی ها از یک مدل خطی |
30397 | تفاوت بین مدل اثرات ثابت و مدل اثرات تصادفی برای متاآنالیز همبستگی های نمونه چیست؟ | تفاوت بین مدل اثرات ثابت و مدل اثرات تصادفی برای متاآنالیز همبستگی های نمونه چیست؟ |
108330 | من قبلاً این سؤال را پرسیده ام اما در ابتدا همه جزئیات سؤال را بیان نکردم، مانند سؤال چند گزینه ای. شما یک میله آهنی که رسانایی الکتریکی آن 10.1 است را تولید و می فروشید. شما قصد دارید 6 اندازه گیری از رسانایی میله ای که قصد فروش آن را دارید انجام دهید. می دانید که انحراف معیار اندازه گیری های شما σ=0.1 است. اگر محصول دارای مشخصات باشد، میانگین بسیاری از اندازه گیری ها 10.1 خواهد بود. بنابراین شما H0:μ=10.1 Ha:μ≠10.1 را آزمایش خواهید کرد: توضیح دهید که چرا آزمایشی که برنامه ریزی می کنید به اندازه کافی از شما در برابر فروش میله ای با رسانایی 10.15 محافظت نمی کند. پاسخ های ممکن عبارتند از: الف. زیرا احتمال اینکه به اشتباه به این نتیجه برسیم که μ = 10.15 زمانی که محصول نامناسب است بسیار زیاد است. ب- چون احتمال اشتباه به این نتیجه می رسد که μ = 10.15 زمانی که محصول مناسب است بسیار زیاد است. ج. زیرا احتمال به اشتباه این نتیجه گیری که μ = 10.15 زمانی که در واقع μ ≠ 10.15 بسیار زیاد است. د) زیرا قدرت یک آزمون در برابر جایگزین μ = 10.15 تنها یک احتمال است، نه قطعیت. من معتقدم که پاسخ این است زیرا احتمال اینکه به اشتباه 10.15 μ= در زمانی که محصول مناسب است، خیلی زیاد است، زیرا توان آن 0.24 است و این بدان معناست که احتمال بسیار بیشتری وجود دارد که میله فرضیه صفر را حذف نکند (0.76). ). همچنین اگر حجم نمونه را به بیش از شش افزایش دهم چه تفاوتی دارد. آیا من درست هستم یا اشتباه؟ یا یکی از موارد دیگر است. با تشکر از همه | آمار: به روز رسانی Power Question |
100686 | چرا $\mbox{SST} = \mbox{SSR} + \mbox{SSE}$ نگه میدارد؟ قابل درک است که $\sqrt{\mbox{SST}} = \sqrt{\mbox{SSR}} + \sqrt{\mbox{SSE}}$، اما چگونه میتواند $\mbox{SST} = \mbox{SSR} + \mbox{SSE}$ نگه دارید؟ این مقادیر مربع هستند. | مجموع مجذور خطاها |
108337 | فرض کنید من یک سری زمانی دارم که روند قابل توجهی را نشان می دهد و می خواهم فرضیه ای را آزمایش کنم که متغیر دوم با آن روند مرتبط است. من یک مدل رگرسیون خطی را با آن متغیر دوم بهعنوان پیشبینیکننده برازش میدهم، و مقدار قابل توجهی از واریانس را به خود اختصاص میدهد. با این حال، بخشی از روند وجود دارد که آن را به حساب نمی آورد. سپس میخواهم عبارتهای AR یا MA را به مدل اضافه کنم تا بقایای همبسته خودکار را محاسبه کنیم، اما مدلهای ARIMA یک سری ثابت را فرض میکنند، و بازرسی بصری سری و آزمایش ADF نشان میدهد که سری خطای باقیمانده در میانگین ثابت نیست ( به عنوان مثال، روندی وجود دارد که توسط مدل رگرسیون محاسبه نشده است). آیا تفاوت _after_ مدل رگرسیون مناسب برای حذف این منبع غیرایستایی است، یا باید همیشه سعی کرد یک مدل رگرسیونی پیدا کرد که _همه_ روند را در داده ها توضیح دهد؟ پیشاپیش متشکرم | آیا می توانم پس از برازش مدل رگرسیون سری زمانی تفاوت داشته باشم؟ |
89845 | با فرض اینکه من یک فروشگاه تجارت الکترونیک آنلاین دارم. اخیراً برای یکی از محصولات می خواهم برای مدتی کمپین فروش محصول را اجرا کنم. اثربخشی صرفاً بر حسب افزایش فروش تعریف می شود. اما مشکل این است که من نمی دانم چگونه این را اندازه گیری کنم. بر اساس تجربه من، حجم فروش از ماه به ماه در نوسان است، و ممکن است عوامل دیگری (ناشناخته) وجود داشته باشد که رکورد فروش من را تضعیف یا هیجان زده کند. متغیرهای بسیار زیادی وجود دارند، ناشناخته و شناخته شده درگیر هستند و تفکیک آنها بسیار دشوار است. انجام آزمایش کنترل شده مانند آزمایش A/B صفحات وب (نمایش دو نسخه از صفحات وب به بازدیدکنندگان مختلف، یکی با تبلیغات، دیگری بدون تبلیغات) به سادگی عملی نیست، زیرا بازدیدکنندگان ممکن است فوراً خرید نکنند. آنها ممکن است پس از مدتی خرید کنند، بنابراین با تعجب بی ادبانه متوجه می شوند که قیمت آنقدر ناگهانی تغییر کرده است. حتی اگر عملی باشد، منابع لازم برای سرمایه گذاری در تست A/B را ندارم، سرمایه من بسیار محدود است. چگونه تعیین کنم و چه آزمایشهای معتبر آماری را میتوانم انجام دهم تا بررسی کنم که آیا کمپین فروش من مؤثر است یا خیر؟ | چگونه تعیین کنیم که یک کمپین فروش موثر است؟ |
90489 | اگر حجم نمونه یکی از آن گروه ها 2 باشد، می توانید بین 2 یا 3 گروه آزمون t یا ANOVA انجام دهید؟ آیا نتایج به روشی مشابه با حجم نمونه بزرگتر قابل تفسیر هستند (n=4،5،6؟). اگر می توانید هر مرجعی برای مطالعه بیشتر در مورد آمار حجم نمونه بسیار کوچک ارائه دهید، مفید خواهد بود. | حداقل حجم نمونه برای آزمون t |
6525 | من با برنامه نویسی R خیلی تازه کار هستم. پس لطفا برای چنین شک ساده ای عذر خواهی کنید.  من می خواهم نمودار بالا را رسم کنم. مقادیر x & y دنباله ای از 0 تا 2560 هستند. من می خواهم یک منحنی را روی نقاطی که x*y=10^6 در آن ترسیم کنم. خط مورد نیاز در زبان برنامه نویسی R چیست؟ | چگونه می توانم این نمودار ساده (Refer Image) را در R رسم کنم؟ |
103480 | من سعی میکنم منحنی رشد Weibull را با دادههای خود منطبق کنم، اما یک تکینگی در `backsolve` در سطح 0 بلوک 1 خطا دریافت میکنم: DATA head(trian) AY DEV CUM 1 1991 6 357848 2 1991 18 1124788 3 1997333 1991 42 2182708 5 1991 54 2745596 6 1991 66 3319994 و فرمول این است: w1 = nlme(CUM~ult*(1-exp(-(DEV/theta)^omega)), fixed=list(ult~1,omega~1, theta~1)، random=ult~1|AY، وزن=varPower(ثابت=0.5)، داده=تریان، شروع=c(ult=5000، امگا=1.4، تتا=45)) | مدل های سلسله مراتبی برای ذخیره ضرر |
4783 | من برخی از داده های فرکانس تجمعی دارم. یک خط $y=ax+b$ به نظر میرسد که به خوبی با دادهها مطابقت دارد، اما حرکت چرخهای/دورهای در خط وجود دارد. من می خواهم تخمین بزنم که فرکانس تجمعی چه زمانی به مقدار مشخصی $c$ می رسد. وقتی باقیمانده ها را در مقابل مقادیر برازش رسم می کنم، یک رفتار سینوسی زیبا دریافت می کنم. اکنون، برای اضافه کردن یک پیچیدگی دیگر، توجه داشته باشید که در نمودارهای باقیمانده  دو چرخه وجود دارد که مقادیر کمتری نسبت به بقیه دارند، که نشان دهنده یک اثر آخر هفته که باید در نظر گرفته شود. خب از اینجا کجا برم؟ چگونه می توانم برخی از اصطلاحات کسینوس، سینوس یا چرخه ای را در یک مدل رگرسیونی با تقریبی ترکیب کنم. تخمین بزنید که فرکانس تجمعی چه زمانی برابر با $c$ خواهد بود؟ | چگونه مولفه تناوبی را به مدل رگرسیون خطی اضافه کنیم؟ |
108334 | در مدل ورشکستگی، شما می خواهید با نزدیک شدن به تاریخ رویداد بزرگ (مانند تاریخ اعلام سود سه ماهه یک شرکت) وزن بیشتری را به یک متغیر اختصاص دهید و با دور شدن از آخرین تاریخ، این وزن را معکوس کنید. همانطور که انتظار می رفت، یک وزن مثبت بیشتر به پیش بینی ورشکستگی کمک می کند. از چه تکنیک هایی می توان برای تصمیم گیری در مورد چنین طرح وزنی استفاده کرد؟ من تعداد کمی را می شناسم اما می خواستم ببینم کارشناسان چه می توانند بگویند. | وزن کردن یک متغیر بر اساس فاصله تا تاریخ مشخص |
79220 | برای مقایسه الگوریتمهای هوش محاسباتی بر روی چندین تابع، من از آزمون فریدمن مانند زیر استفاده کردهام [1]: الگوریتم 1 الگوریتم 2 ... تابع الگوریتم 1 میانگین (A1F1) میانگین (A2F1) ... میانگین (AkF1) میانگین تابع 2 میانگین (A2F2) ... mean(AkF2) ... Functionn mean(A1Fn) mean(A2Fn) ... mean(AkFn) که در آن mean(x) میانگین نتیجه در تعدادی از اجراها است (مثلا M). با این حال، صفحه ویکیپدیا میگوید که باید «یک مشاهده واحد در تقاطع هر بلوک و درمان» وجود داشته باشد. بنابراین من به چیزی مانند: Algorithm1 Algorithm2 فکر می کردم ... AlgorithmK Function1_run1 A1F1_run1 A2F1_run1 ... AKF1_run1 Function1_run2 A1F1_run2 A2F1_run2 ... AKF1_run2 ... A1F1_run1 A2F1_run1 AkF1_runM Function2_run1 A1F2_run1 A2F2_run1 ... AKF2_run1 Function2_run2 A1F2_run2 A2F2_run2 ... AKF2_run2 ... Function2_runM A1F2_runM A2MF2_runM Function2_run2 A1FN_run1 A2FN_run1 ... AKFN_run1 FunctionN_run2 A1FN_run2 A2FN_run2 ... AKFN_run2 ... FunctionN_runM A1FN_runM A2FN_runM ... AkFN_runM هر اجرا کاملا مستقل است. سوال من این است: آیا روش دوم برای آزمون فریدمن معتبر است؟ اگر چنین است، آیا ترتیب اجراها را می توان برای یک تابع معین تغییر داد، زیرا آنها مستقل هستند؟ [1] S. García، D. Molina، M. Lozano، F. Herrera، مطالعه ای در مورد استفاده از آزمون های غیر پارامتری برای تجزیه و تحلیل رفتار الگوریتم های تکاملی: مطالعه موردی در CEC در 2005 جلسه ویژه در مورد پارامتر واقعی بهینه سازی. مجله اکتشافی، 15 (2009) 617-644. [2] http://en.wikipedia.org/wiki/Friedman_test | محتویات بلوک تست فریدمن |
108339 | من یک داده در قالب زیر دارم: $$ \begin{array}{rr} \textbf{colm_1} & \textbf{colm_2}\\\ 3 & 1\\\ 10 & 0\\\ 3 & 0\\ \ 100 و 1 \\\ . & .\\\ . & . \end{array} $$ _colm_1_ اساساً اعداد کامل هستند و _colm_2_ نشاندهنده مقادیر باینری است که میگویند موفقیت یا شکست. آنچه من انتظار دارم این است که برای مقادیر پایینتر از ویژگیها در _column_1_ احتمال موفقیت کمتر باشد، در حالی که با افزایش مقادیر _column_1_، احتمال موفقیت افزایش مییابد. حال چگونه می توانم CDF (یا ECDF) داده های بالا را رسم کنم؟ از دیدگاه من اساساً باید بگوید _P(موفقیت | colm_1 = **ارزش**) <= مقداری بین 0-1_. جایی که **Value** هر عدد کامل در _colm_1_ است. امیدوارم در توضیحاتم واضح بوده باشم، اگر نه لطفا اصلاح کنید. در نهایت، من عمدتا از numpy و scipy پایتون استفاده می کنم. چگونه می توانم داده های خود را تبدیل کنم تا بتوانم ecdf را رسم کنم؟ | نمودار CDF/ECDF برای داده ها با دو ویژگی |
72230 | چگونه می توانم آمار توصیفی را برای یک متغیر ساختگی (جنسیت کارگر در یک مغازه) توصیف کنم؟ فرض کنید این اطلاعاتی است که من دارم: میانگین : 0.47 میانه : 0 حداکثر : 1 دقیقه : 0 std. dev : 0.4998 چولگی : 0.101 کشیدگی : 1.01 jarque bera : 85.67 احتمال : 0 می دانم که برخی از اطلاعات بی فایده هستند زیرا یک متغیر ساختگی است. پس چگونه آن را در کلمات تفسیر کنم؟ | تفسیر آمار توصیفی برای متغیر ساختگی |
100682 | در رگرسیون حداقل مربعات معمولی (OLS)، اگر نمودار باقیمانده ها در برابر مقادیر برازش یک خط افقی در اطراف 0 تشکیل دهد، می توان گفت که متغیر وابسته به صورت خطی با متغیر مستقل مرتبط است. من فکر می کردم که این درست است زیرا $E(y_i - \hat{y}_I)=0$ وقتی متغیر وابسته به صورت خطی با متغیر مستقل مرتبط است، اینجا را ببینید. با این حال، فرض کنید: $y_i = \alpha + \sin(x_i) + \epsilon_i$. سپس $E(y_i - \hat{y}_i)$ هنوز 0 است، اینجا را ببینید اما پس از آن نمودار باقیمانده آن در برابر مقدار برازش آن دیگر یک خط افقی در اطراف 0 نیست، همانطور که این کد R نشان می دهد: n <- 10 ^3 df <- data.frame(x=runif(n, 1, 10)) df$mean.y.given.x <- sin(df$x) df$y <- df$mean.y.given.x + rnorm(n) مدل <- lm(y ~ x, data=df) plot(predict(model, newdata=df), residuals(model)) abline(a=0 ,b=0,col='blue')  بنابراین سوال من این است که فرض(های) OLS که باعث می شود نمودار باقیمانده ها و مقدار برازش یک خط افقی در اطراف 0 باشد و چرا/چگونه درست است؟ | چرا وقتی که متغیر وابسته به صورت خطی با متغیر مستقل مرتبط است، نمودار باقیمانده ها در برابر مقادیر برازش، یک خط افقی است؟ |
72237 | اگر من 6 محصول ($x$) و 11 سازنده ($y$) داشته باشم، برخی از محصولات تولید شده توسط برخی از این تولیدکنندگان؛ ($x,y$) ممکن است برابر با هیچ یا هر مقدار دیگری باشد. برای هر ترکیبی از $x$ و $y$ مقادیر و مقادیر مورد انتظار برای هزینه، زمان و بنزین حمل و نقل با توجه به فاصله بین سازنده و محل کار وجود دارد. من دو مشکل برای استفاده از الگوریتم ژنتیک باینری (GA) برای یافتن مجموعه های پارتو این ترکیب ها دارم: 1. ژن نشان دهنده محصول فقط شامل 3 رقم است ($6<7$) و برای ژنی که برای نشان دادن سازنده استفاده می شود، 4 رقم است. ($8<11<16$) بنابراین کروموزوم 7 رقمی است. مشکل این است که در تمام نمونه هایی که من بررسی کردم طول ژن ها برابر است. بنابراین این مشکل برای حل این موضوع خواهد بود. 2. فرض کنید محصول $x_1$ و $x_5$ توسط $y_3$ و $y_7$ تولید نشده اند، به این معنی که تابع تناسب $(x_1,y_3)$ و $(x_5,y_7) = 0$ است و از آنجایی که مشکل به حداقل رساندن راه حل ممکن است در این دو نقطه به دام افتاده باشد. سوال این است که چگونه می توان چنین مواردی را حل کرد؟ با تشکر از کمک ارزشمند مورد انتظار شما. | چگونه در الگوریتم ژنتیک با کروموزوم های ژن های با طول های مختلف برخورد کنیم؟ |
103485 | یک سوال احمقانه اما من را گیج کرده است. دیتافریم من به این صورت است: روز جولیان سال 153 1951 161 1952 167 1953. . . . 161 2007، من برای هر سالی که رویدادی رخ می دهد، روز جولیان دارم و سعی می کنم تعیین کنم که آیا روز جولیانی آن رویداد با گذشت زمان تغییر می کند یا خیر. آیا روز جولیان را بهعنوان دادههای پیوسته یا شمارشی در نظر میگیرم؟ حدس میزنم اگر آن را بهعنوان دادههای پیوسته در نظر بگیرم، یک رگرسیون خطی روز جولیان در برابر زمان انجام میدهم و اگر یک داده شمارش باشد، یک رگرسیون پواسون در برابر زمان انجام خواهم داد. | روز جولیان یک داده شمارش یا یک داده پیوسته است |
79228 | من در حال مطالعه مقاله ای در مورد نمونه گیری هستم (نمونه گیری خوشه ای تطبیقی از استیون کی تامپسون) و در مورد دو مفهوم گیج شده ام. در برخی موارد، او میگوید **احتمال انتخاب** واحد $i$ در هر یک از $n_1$ (نمونه اولیه) $p_i = (m_i + a_i)/N$ است. او همچنین میگوید **احتمال اینکه وحدت $i$ در نمونه گنجانده شده باشد، $$ \alpha_i = 1 - \binom{N - m_i -a_i}{n_1}/\binom{N}{n_1} $ است. $ تفاوت بین **احتمال انتخاب** و **احتمال گنجاندن** چیست؟ در ابتدا فکر میکردم که احتمال انتخاب، احتمال این است که واحد $i$ برای نمونه اولیه انتخاب شده باشد و احتمال گنجاندن، احتمال گنجاندن احتمالی است که واحد $i$ بعد از انتخاب متوالی در نمونه گنجانده شود. اما از آنجایی که از نمونهگیری تصادفی ساده برای انتخاب اولیه استفاده میشود، فرمول نباید $m_i$ یا $a_i$ را که اندازه شبکه و لبهای هستند که وحدت $i$ بخشی از آن است، در نظر بگیرد. فقط باید تعداد کل واحدها و اندازه نمونه اولیه را در نظر بگیرد. بنابراین، برای من روشن نیست که هر یک از آن احتمالات چیست. | احتمال انتخاب در مقابل احتمال ورود |
73542 | من سعی می کنم یک آزمون جایگشت دو طرفه بنویسم تا فرضیه جایگزین وجود تفاوت در میانه های 2 نمونه مستقل را آزمایش کنم. سوال من این است: آیا من مقدار p را به درستی محاسبه می کنم؟ خیلی ممنون نمونه1 <- آبهای زیرزمینی$غرب[!is.na(آبهای زیرزمینی$غربی)] نمونه2 <- آبهای زیرزمینی$East ts <- میانه(نمونه1) - میانه(نمونه2) > ts [1] 0.105 R <- 9999 همه <- c( نمونه1، نمونه2) k <- 1: طول (همه) تکرارها <- عددی (R) برای (i در 1:R) { m <- نمونه(k، اندازه=طول(نمونه1)، جایگزین=FALSE) permsample1 <- همه[m] permsample2 <- همه[-m] تکرار[i] <- میانه(permsample1) - میانه(permsample2) } pvalue <- sum(c(ts، تکرارها) <= ts)/9999 > pvalue [1] 0.9223922 | تست جایگشت دو طرفه |
73544 | در حال حاضر روی مشکلی کار می کنم که در آن باید پارامترهای آب و هوا را در یک مکان زمینی با استفاده از داده های ماهواره ای موجود (1979-2012) روی نقاط شبکه مستطیلی و داده های رصدخانه سطحی برای یک مکان (1980-2000) کالیبره کنم. من دو مدل ساخته ام - یکی برای ماه های ژانویه در دوره 1980-2000 و دیگری از نوامبر تا آوریل در طول سال های 1980-2000. اکنون مشکل زمانی ایجاد می شود که من مربع R تنظیم شده را برای هر دو مدل مقایسه می کنم. مدل Nov-Apr به من R-squared بالاتری می دهد (0.7 در مقابل 0.2) در حالی که خطاهای باقیمانده داستان مخالف را به من می گوید و در مورد مدل Nov-Apr نتایج ضعیفی ارائه می دهد. یکی از گزینه ها این است که اجزای مختلف R-squared را محاسبه کنید و ببینید که آیا می تواند تفاوت ها را توضیح دهد. پس چگونه می توانم این مولفه ها را در R محاسبه و توضیح دهم؟ یا راه بهتر و کارآمدتری وجود دارد؟ پیشاپیش ممنون | مقایسه مدل های رگرسیون خطی چندگانه بر اساس خطاهای مربعی R و باقیمانده |
73540 | با نگاهی به تعاریف ویکیپدیا از موارد زیر (f_i -y_i)^2$ که $N$ تعداد نمونه ها و $f_i$ تخمین ما از $y_i$ است. با این حال، در هیچ یک از مقالات ویکی پدیا به این رابطه اشاره نشده است. چرا؟ آیا من چیزی را از دست داده ام؟ | میانگین مربعات خطا و مجموع باقیمانده مربع ها |
4786 | من به دنبال استفاده از روش داخلی نقطه برای بهینه سازی یک تابع محدب هستم. تابع محدب اساساً لاگ احتمال یک مدل رگرسیون لجستیک باینری است. آیا می توانم از این تکنیک استفاده کنم؟ به طور کلی، آیا چیزی وجود دارد که از اعمال یک تکنیک بهینه سازی محدود برای یک مسئله غیرمحدود جلوگیری کند؟ از آنچه من فکر میکنم، یک مسئله بدون محدودیت فقط یک مشکل محدود بدون محدودیت است و بنابراین باید با استفاده از این تکنیکها قابل حل باشد. | آیا می توان تکنیک های بهینه سازی محدود را برای مسائل غیرمحدود به کار برد؟ |
87886 | در حین مطالعه، به این جمله گیج کننده برخوردم که میانگین و واریانس نمونه _فقط در توزیع های متقارن همبستگی ندارند_ و اگر توزیع به شدت دارای انحراف باشد، همبستگی قوی وجود دارد. اول از همه، آیا درست است؟ من قبلاً میدانم که این برای مورد یک جمعیت _عادی_ صادق است، اما آیا میتوان آن را برای _هر_ توزیع متقارن ثابت کرد؟ اگر چه من فکر می کنم نتیجه خلاف شهود است، من از استدلال های ساده قدردانی می کنم. متشکرم | چرا یک توزیع متقارن برای عدم همبستگی میانگین و واریانس نمونه کافی است؟ |
97818 | من در حال حاضر روی پروژه ای برای یک شرکت بزرگ کشاورزی کار می کنم. ما در حال حاضر یک سیاست اعتباری داریم که امتیاز می دهد و بدهکاران شرکت را به 5 بخش طبقه بندی می کند - VLR (خطر بسیار کم)، LR، MR، HR، VHR. مشتریان عمدتاً مالکان انحصاری هستند که جزئیات مالی حسابرسی شده ندارند. از این رو اکثر آنها در دسته های HR و VHR طبقه بندی می شوند. به عنوان مثال 97 درصد از مشتریان اطلاعات مالی ندارند و 98 درصد از کل مشتریان رتبه بندی HR/VHR را دریافت می کنند. ما در حال کار بر روی شناسایی متغیرهای جدیدی هستیم که می تواند به تقسیم بندی بیشتر مشتریان HR/VHR کمک کند. به عنوان یک شاخص پیش فرض، ما از هزینه افزایشی شرکت به دلیل پیش فرض/تأخیر استفاده خواهیم کرد. سوال من این است که آیا می توانم از یک الگوریتم یادگیری نظارت شده مانند K Nearest Neighbor برای طبقه بندی استفاده کنم؟ از آنجایی که داده های طبقه بندی فعلی این است که 98٪ HR/VHR دارند، به دلیل از دست دادن داده های مالی صحیح نیست. من نمونه هایی از رگرسیون لجستیک، تجزیه و تحلیل متمایز، k به معنای خوشه بندی و غیره را دیده ام. پس چگونه تصمیم بگیریم که از کدام استفاده کنیم؟ علاوه بر این، قبل از اجرای هر یک از این تستها، فکر میکنم دادهها باید پاک شوند. آیا نکات و دستورالعمل های واضحی برای پاکسازی داده ها وجود دارد؟ من دانشجوی مدیریت هستم، بنابراین با تکنیک های آماری آشنا شدم اما فقط دانش اولیه اولیه از تکنیک های پیشرفته ای که در بالا ذکر کردم دارم. بنابراین هر راهنمایی قابل قدردانی خواهد بود. | رویکرد امتیازدهی اعتبار برای یک شرکت محصولات کشاورزی/شیمیایی |
72231 | در بسیاری از الگوریتمهای یادگیری ماشین، مقیاسبندی ویژگی (معروف به مقیاسبندی متغیر، نرمالسازی) یک مرحله پیشفرض رایج است ویکیپدیا - مقیاسگذاری ویژگی \-- این سؤال نزدیک بود. من دو سوال به طور خاص در رابطه با درخت تصمیم دارم: 1. آیا اجرای درخت تصمیمی وجود دارد که به مقیاس بندی ویژگی نیاز داشته باشد؟ من این تصور را دارم که معیارهای تقسیم اکثر الگوریتم ها نسبت به مقیاس بی تفاوت هستند. 2. این متغیرها را در نظر بگیرید: (1) واحدها، (2) ساعتها، (3) واحدها در ساعت -- آیا بهتر است این سه متغیر را همانطور که هستند رها کنیم وقتی به درخت تصمیم وارد می شوند یا به نوعی برخورد می کنیم. از تعارض از آنجایی که متغیر نرمال شده (3) با (1) و (2) مرتبط است؟ یعنی، آیا با پرتاب هر سه متغیر به ترکیب به این وضعیت حمله میکنید، یا معمولاً ترکیبی از این سه متغیر را انتخاب میکنید یا به سادگی از ویژگی «نرمالشده/استاندارد شده» (3) استفاده میکنید؟ | مقیاسبندی متغیر درختهای تصمیم (ویژگی) و نرمالسازی (تنظیم) متغیر (ویژگی) در کدام پیادهسازی مورد نیاز است؟ |
79229 | من سعی می کنم تکلیف زیر را به صورت تحلیلی حل کنم، اما فقط می توانم به راه حل اکتشافی برای موارد خاص بر اساس شبیه سازی مونت کارلو برسم: با توجه به یک مدل مارکوف پنهان با دو حالت و دو گاوس که در آن همه پارامترها شناخته شده هستند (یعنی ماتریس انتقال و میانگین و انحراف استاندارد گاوسی ها): علاوه بر این، با توجه به یک نمونه دلخواه از داده ها با دوره های زیاد که توسط این مدل تولید می شود، وظیفه من این است که تعیین کنم در چه حالتی من در حال حاضر هستم و تنها اطلاعاتی که دارم انحراف معیار یک پنجره متحرک با دورههای $n$ است: چگونه میتوانم دوره بازگشت بهینه (حداقل) $n$ و بهترین سطح جداسازی (انحراف استاندارد) را به صورت تحلیلی تعیین کنم. $s$ برای تعیین اینکه در حال حاضر در کدام وضعیت هستم؟ به عبارت دیگر آنچه من میپرسم به این مدل داده میشود که با تمام پارامترهایش چگونه میتوان به صورت تحلیلی در $n$ و $s$ استخراج کرد تا وضعیت را در زمان واقعی تعیین کند، یعنی اکنون. | دوره نگاه بهینه و سطح انحراف معیار برای تعیین وضعیت مدل مارکوف پنهان با گاوسیان |
72238 | من قبلاً یک لامبدا تخمین زده سم و نتیجه واقعی 'y' دریافت کرده ام و می خواهم ببینم آیا مدل خوب است یا خیر. برای شروع، بررسی می کنم که آیا پراکندگی خوب است یا خیر. glm(y ~ 0، offset=log(lambda)، data=data، family=quasipoisson) و سپس میخواهم با استفاده از بسته «pscl» ببینم آیا ضریب تورم صفر وجود دارد یا خیر. zeroinfl(y ~ 1, offset=log(lambda), data=data ,dist=poisson) با این حال، من قادر به انجام این کار نیستم: zeroinfl(y ~ 0, offset=log(lambda), data=data, dist=poisson) با معرفی یک رهگیری، احتمالاً با تخمینگر صفر تداخل پیدا می کند، بنابراین مشخص نیست که آیا صفر وجود دارد (و چقدر بزرگ) تورم در مدل اصلی. آیا می توان 0 پارامتر تخمینی (به جز صفر) داشت؟ | چگونه می توانم یک مدل پواسون باد شده صفر را فقط با افست (بدون ضرایب) قرار دهم؟ |
95082 | از آنجایی که من می دانم رگرسیون PLS زمانی استفاده می شود که متغیرهای بیشتری نسبت به مشاهدات وجود داشته باشد و زمانی که چند خطی بین متغیرهای مستقل وجود دارد. من داده هایی برای یک مدل رگرسیونی دارم که نشانه هایی از چند خطی بودن بین متغیرهای مستقل را نشان نمی دهد، اما رابطه بین متغیرهای مستقل و وابسته خیلی قوی نیست اگرچه یک رابطه مثبت واضح با مقادیر همبستگی 0.1 تا 0.5 برای متغیرهای مستقل مختلف در مقایسه با متغیرهای مستقل وجود دارد. متغیر وابسته میخواهم بدانم که آیا مفهوم رگرسیون PLS میتواند به طور کلی به هم خطی گسترش یابد، یعنی اگر رابطه بین متغیرهای مستقل و متغیرهای وابسته قوی نباشد، رگرسیون PLS یک مدل رگرسیونی پیشنهادی است یا مدلهای دیگری مناسبتر هستند؟ | PLS رگرسیون و هم خطی |
10450 | میخواهم بدانم آیا کسی میتواند روشی برای تولید ماتریس همبستگی تصادفی با 90٪ ورودیها (به جز 1) بین $[-0.3، 0.3]$ پیشنهاد کند. 10% دیگر باید بزرگتر از 0.3 یا کوچکتر از -0.3 باشد. با تشکر | چگونه یک ماتریس همبستگی تصادفی محدود تولید کنیم؟ |
6275 | من در حال حاضر در حال جمع آوری داده ها برای آزمایشی در مورد ویژگی های روانی اجتماعی مرتبط با تجربه درد هستم. به عنوان بخشی از این، من در حال جمعآوری اندازهگیریهای GSR و BP بهصورت الکترونیکی از شرکتکنندگانم، همراه با گزارشهای مختلف شخصی و اقدامات ضمنی هستم. من زمینه روانشناسی دارم و با تحلیل عاملی، مدل های خطی و تحلیل تجربی راحت هستم. سوال من این است که چه منابع خوب (ترجیحا رایگان) برای یادگیری در مورد تجزیه و تحلیل سری های زمانی موجود است. من در این زمینه کاملاً تازه کار هستم، بنابراین هر کمکی بسیار قدردانی می شود. من برخی از دادههای آزمایشی برای تمرین دارم، اما میخواهم قبل از اینکه دادههای جمعآوری شده را به پایان برسانم، طرح تجزیه و تحلیل من با جزئیات کار شود. اگر مراجع ارائه شده نیز مرتبط با R باشد، فوق العاده خواهد بود. ویرایش شده: برای تغییر دستور زبان و اضافه کردن گزارش خود و اقدامات ضمنی | معرفی خوب سری های زمانی (با R) |
59359 | من سعی میکنم یک تابع کوچک برای پیشبینیهای سطح جمعیت از مدلی ایجاد کنم که شامل اثرات تصادفی است، که به نوبه خود با استفاده از بستهای که از «interval=prediction پشتیبانی نمیکند، مناسب بود. (تا آنجا که من می توانم بگویم، دلیل این که بسته این کار را انجام نمی دهد این است که هنگام تلاش برای پیش بینی در یکی از سطوح مدل-- اما من فقط پیش بینی های سطح جمعیت را می خواهم، پیش بینی پر از مشکلات است). بنابراین به هر حال، با آزمایش کد من و مقایسه با کد داخلی در «predict.lm»، فواصل زمانی من کمی بسیار باریک است. کسی می تواند به من کمک کند تا بفهمم چرا؟ set.seed(13) n=100 x1 = runif(n) x2 = runif(n) X = cbind(x1,x2) y = x1 + x2 + rnorm(n) m = lm(y~x1+x2) خلاصه (m) d = پیش بینی (m,interval = پیش بینی) خودکار = d[,3]-d[,1] getpred = function(vals){ qt(.975,n-(2+1))*sqrt(var(m$resid)* (1+ t(vals) %*% solve(t(X)%*%X) % *%vals)) } man = اعمال (X,1,getpred) نمودار (تراکم(خودکار),xlim=c(2.1,2.3),ylim = c(0,30)) lines(density(man),col=red) پیشاپیش متشکرم! | چرا فواصل پیش بینی من کمی بسیار باریک است؟ |
77040 | مدلهای بیزی ظاهراً برای مقابله با مشکلات ابعاد بالا مجهز هستند و میتوانند دادههای پراکنده را نیز به خوبی مدیریت کنند. اما فرض کنید من مدلی ایجاد کرده ام که پارامترهای بیشتری از نقاط داده را تخمین می زند. آیا ترفندهایی برای مقابله با این موضوع وجود دارد؟ | مقابله با عدم تعیین در مدل های بیزی |
87881 | من روی یک تحلیل پاسخ تبلیغاتی کار می کنم. من یک مجموعه داده واقعی **واقعا کوچک** با 25 مشاهده و 15 متغیر دارم. متغیرها **درجه بالایی از چند خطی** و برخی دارای **پرت** هستند. همچنین نمی توانم از روش های یادگیری ماشینی استفاده کنم زیرا به ضرایب قابل تفسیر نیاز دارم. این چیزی است که من تاکنون امتحان کرده ام: 1. من از GLM استفاده کردم، اما همه متغیرها ناچیز به نظر می رسیدند. من به درستی می دانم که متغیر وابسته به بسیاری از متغیرهای مستقل پاسخگو است. 2. من از رگرسیون قوی استفاده کردم، اما اساسا برنامه با شکست مواجه می شود زیرا نرم افزار خطایی را نشان می دهد که می گوید: تعداد مشاهدات باید حداقل دو برابر تعداد ضرایب باشد. اگر بتوانید روش ها/تکنیک ها یا استراتژی هایی را برای حل این مشکل پیشنهاد کنید واقعا ممنون می شوم. با تشکر و احترام. | رگرسیون برای داده های واقعا کوچک با درجه بالایی از چند خطی بودن و پرت |
70092 | قرار دادن متغیرهای کنترل با هم در دسته باقیمانده به چه معناست؟ آیا این بدان معناست که آنها را از مدل خارج کنیم؟ | قرار دادن متغیرها در دسته باقیمانده |
45029 | من یک جدول غنی سازی تاشو برای روزهای مختلف به شرح زیر دارم. من باید اهمیت هر غنی سازی را پیدا کنم. fold_enrichment <- matrix(c(0.3,0.43,0.5,0, 0.23,1.3,0.5,1, 1,0,0,6, 0.3,0.5,0.2,2), 4, 4, dimnames = list(Day = c(Day1، Day7، Day14، Day28)، گروه = c(A، B، C، D))) در R، من سعی کردم از fisher.test(fold_enrichment) استفاده کنم و یک p-value به من می دهد > Warning in fisher.test(fold_enrichment): 'x' به عدد صحیح گرد شده است: > میانگین اختلاف نسبی: 0.7652582 > > آزمون دقیق فیشر برای داده های شمارش > > داده: fold_enrichment p-value = 0.6182 فرضیه جایگزین: دو طرفه من همچنین گزینه دیگری را مشاهده کرده ام pairwise.fisher.test (Day,Group, p.adjust.method=bonferroni) راه حل مناسب برای مشکل من؟ | تست فیشر در مقابل تست فیشر زوجی |
74533 | من نویز گاوسی را به داده های ورودی خود اضافه کردم و سپس آن را دو بار ادغام کردم (از قانون ذوزنقه ای استفاده کردم). می خواستم بدانم که آیا خود ادغام نویز گاوسی را به چیز دیگری تبدیل می کند. من به تابع چگالی احتمال نگاه کردم که $$f(x)= \frac {1} {\sigma \sqrt{2 \pi}} e^{- \frac{1}{2}(\frac{x است - \mu}{\sigma})^2}$$ وقتی تابع چگالی احتمال را ادغام می کنیم برابر با 1 است (ویژگی توزیع گاوسی). $$\int f(x)=1$$ بنابراین توزیع نویز گاوسی است. وقتی دوباره ادغام کردیم (ادغام مضاعف) تابع چگالی احتمال دیگر برابر با 1 نیست و بستگی به دامنه ای دارد که آن را ادغام می کنیم. میخواستم بدانم که آیا میتوانیم نتیجه بگیریم که بعد از ادغام دوم، نویز گاوسی دیگر گاوسی نیست، از این واقعیت که ادغام دوگانه تابع چگالی احتمال 1 نیست. | ادغام دوگانه به دلیل نویز غیر گاوسی واگرا می شود |
86828 |  سلام.. چه توضیحی برای این طرح می تواند قابل قبول باشد، که در آن محورهای x و y اول و دوم هستند. اجزای اصلی به ترتیب؟ | تفسیر قابل قبول نمودارهای PCA |
74538 | من اطلاعات زمان انتظار برای یک کافی شاپ به مدت 4 هفته دارم. از آنجایی که دادهها جمعسپاری میشوند، در طول زمان پراکنده و غیریکنواخت هستند. بنابراین سوال من این است: چگونه باید با این داده های غیر یکنواخت برخورد کنم؟ چند روش در پیشبینی سریهای زمانی وجود دارد که میتواند دادههای غیریکنواخت را مدیریت کند؟ یا راهی برای یکنواخت کردن داده ها وجود دارد؟ | تجزیه و تحلیل سری زمانی برای داده های غیر یکنواخت |
57944 | من در آستانه ارائه مقاله ای در مورد روش های تحقیق هستم و به راهنمایی در مورد چگونگی تجزیه و تحلیل آماری داده های خود نیاز دارم. این مقاله در مورد یک مطالعه هیپنوتیزم شده است که در آن شرکت کنندگان یک پرسشنامه نگرش نوع لیکرت را در مورد انواع خاصی از رفتار (همکاری، ارتباط، رهبری و غیره) پر می کنند. سپس شرکتکنندگان یک تکلیف تیمی را حل میکنند، در حالی که توسط یک ناظر در مورد همان نوع رفتار مشاهده شده و امتیاز میدهند. من می خواهم با ارتباط بین نگرش ها و رفتار از این وضعیت بیرون بیایم، اما مطمئن نیستم که چگونه این کار را انجام دهم. آیا می توانم آن را مستقیماً به پیرسون r وصل کنم؟ یا باید از ترتیب رتبه اسپیرمن استفاده کنم؟ اگر نتایج اجازه تست پارامتریک را ندهند چه؟ همچنین هر گونه توصیه در مورد چگونگی تجزیه و تحلیل اعتبار بین ارزیاب عالی خواهد بود! آیا آلفای کرونباخ خوب است؟ لطفاً در پیشنهادات خود ملایم باشید، زیرا من در مورد آمار کاملاً تازه کار هستم:-) با تشکر! با تشکر از پاسخ ها! کارما خوب برای شما! برای سادگی، فرض میکنم هیچ چیز پرت وجود ندارد. مقیاس لیکرت هم برای نمرات نگرش و هم برای نمرات رفتاری 1-5 خواهد بود. چندین سؤال نگرش و دسته بندی رفتاری وجود خواهد داشت. آیا این بدان معناست که داده ها در سطح بازه ای هستند؟ اگر چنین است، آیا من را به ترتیب رتبه اسپیرمن محدود می کند؟ | چگونه می توان نگرش ها و رفتار را به هم مرتبط کرد؟ |
73545 | موارد زیر در یک تکلیف من ظاهر شد (از قبل تحویل داده شده است). من ادعا می کنم که اطلاعات کافی برای ارائه پاسخ داده نشده است ... به نظر من بسیار واضح و واضح است. با این حال، مربی اصرار داشت که در minitab قابل حل است. آیا می توانید به من کمک کنید بفهمم چه چیزی را نمی فهمم؟ چگونه این مسئله را بدون مدل توزیع تقاضای هفتگی یا حداقل یک مقدار متوسط برای استفاده به عنوان تقریب ثابت حل می کنید. من باید یک چیز ساده را از دست بدهم. مشکل: یک شرکت خدماتی را در نظر بگیرید. 10٪ از تقاضای هفتگی مربوط به یک دسته خدمات به نام X است [فرض کنید دسته های خدمات متقابلاً منحصر به فرد هستند]. اگر سفارشات مشتری بسیار کم (کمتر از یک هفته) یا سفارشات مشتری بیش از حد (بیش از پنج در هفته) در دسته خدمات X وجود داشته باشد، شرکت باید برنامه منابع خود را تجدید نظر کند. برای 12 هفته آینده، چقدر احتمال دارد که شرکت **نیازی به تجدید نظر در طرح منابع نداشته باشد؟ با تشکر | سوال دو جمله ای اساسی |
57940 | فرض کنید من $n$ مشاهدات $(\pmb{x}_i,y_i)$ و دو زیر مجموعه از نمایه های $\\{1:n\\}$، $S_1$ و $S_2$ دارم، با $S_1\neq S_2$، $\\#\\{S_1\\}\neq\\#\\{S_2\\}$، و $\\{S_1\cap S_2\\}\neq\emptyset$. فرض کنید $\hat{\beta}_1$ را بردار ضرایب تخمینی OLS رگرسیون $y_i\tilde{}\pmb{x}_i|i\ در S_1$ و به همین ترتیب برای $\hat{\beta} نام ببرم. _2 دلار سوال من این است که تست مناسب/بهترین تست برای $$H_0 چیست:\beta_1-\beta_2=0$$ برخی از نظرات: * اولین تمایل من برای تست والد بود، اما چگونه دو ماتریس کوواریانس را از دو رگرسیون ترکیب کنیم. ? شاید با جمع کردن آنها؟ * ایده دیگری که به آن فکر کردم این بود که از فاصله Bhattacharyya با $\beta_1$ در برابر $\beta_2$ (همراه با ماتریس های کوواریانس مربوطه آنها) استفاده کنم. * یک امکان سوم می تواند ادغام دو نمونه و افزودن یک اثر متقابل _روی هر ضریب_ با یک مقدار ساختگی 1 برای همه مشاهداتی که مثلاً فقط اعضای $S_2$ هستند، اما به دلیل همپوشانی بین، $S_1$ و $S_2$ من مطمئن نیستم که این واقعاً چیزی است که من می خواهم. هر فکری؟ # EDIT1: در اینجا یک کد «R» ساده برای پیاده سازی راه حل پیشنهادی بیل در زیر آمده است: library(MASS) n<-200 p<-5 b<-rnorm(p) x<-mvrnorm(n,rep( 0,p-1),diag(p-1)) y<-cbind(1,x)%*%b+rnorm(n) L<-نمونه(1:200،100، جایگزین=درست) L<-list(mod1=L[1:60]، mod2=L[61:100]) M1<-lm(y[L[[1]]] ~x[L[[1]]،]) M2<-lm(y[L[[2]]~x[L[[2]]،]) fx01<-function(M1,M2){ X1<-cbind(1,M1$model[,-1]) X2<-cbind(1,M2$model[,-1]) nt<-nrow(X1)+ nrow(X2) D1<-diag(nt)[1:nrow(X1)،] D2<-diag(nt)[1:nrow(X2)،] st<-crossprod(c(M1$resid,M2$resid))/(nt-2*ncol(X1)) P1<-solve(crossprod(X1))%*%crossprod(X1,D1)-solve(crossprod (X2))%*% crossprod(X2,D2) P1<-tcrossprod(P1)*drop(st) mahalanobis(M1$coef,M2$coef,P1)} | آزمایش تفاوت بین پارامترهای مدل های تخمین زده شده از نمونه هایی با همپوشانی جزئی |
95084 | من این مجموعه داده را برای مدل کردن دارم، اما مطمئن نیستم که چگونه آن را انجام دهم. من میخواهم **احتمال زنده ماندن** جمعیتهای مختلف دو **گونه** را بسته به **درمان** اعمال شده مدل کنم. جمعیت ها باید **در داخل گونه** قرار گیرند، زیرا به گونه 1 یا گونه 2 تعلق دارند. و از آنجایی که من معیارهایی را برای هر جمعیت x ترکیب تیمار تکرار کرده ام، باید این را نیز به عنوان یک اثر تصادفی در نظر بگیرم. از چه تابع R می توانم برای این کار استفاده کنم؟ یکی هست؟ با تشکر | آیا تابع R برای انجام تجزیه و تحلیل بقا با سانسور درست + عوامل تو در تو + متقاطع وجود دارد؟ |
70099 | اگر همبستگی $Y_t$ واپاشی کند را نشان دهد (یعنی غیر ثابت بودن)، آیا این نشان دهنده یک ریشه واحد است؟ من استدلال کردم که برای مدل $Y_t = Y_{t-1} + u_t$، ACF برای همه تاخیرها برابر با 1 است و بنابراین، پاسخ سوال من مثبت است. اما من فقط می خواهم مطمئن باشم. | ACF یک فرآیند ریشه واحد |
77048 | فرض کنید $\ell\left(\theta\right)$ احتمال ورود به سیستم بردار پارامتر $\theta$ است و $\widehat{\theta}$ حداکثر تخمینگر احتمال $\theta$ است سپس سری تیلور $. \ell\left(\theta\right)$ about $\widehat{\theta}$ \begin{align*} \ell\left(\theta\right) است & \approxeq\ell\left(\widehat{\theta}\right)+\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr|_{\theta=\widehat{ \theta}}\left(\theta-\widehat{\theta}\right)+\frac{1}{2}\left(\the ta-\widehat{\theta}\right)^{\prime}\frac{\partial^{2}\ell\left(\theta\right)}{\partial\theta\partial\theta^{\prime} }\Bigr|_{\theta=\widehat{\theta}}\left(\theta-\widehat{\theta}\right)\\\ \frac{\ell\left(\theta\right)}{\partial\theta} و \approxeq\mathbf{0}+\left(\mathbf{1}-\mathbf{0}\right)\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr| _{\theta=\widehat{\theta}}+\frac{\partial^{2}\ell\left( \theta\right)}{\partial\theta\partial\theta^{\prime}}\Bigr|_{\theta=\widehat{\theta}}\left(\theta-\widehat{\theta}\right )\quad\overset{\textrm{set}}{=}\quad\mathbf{0}\\\ \\\ \theta-\widehat{\theta} & =-\left[\frac{\partial^{2}\ell\left(\theta\right)}{\partial\theta\partial\theta^{\prime}}\Bigr|_{\theta=\widehat {\ the ta}}\right]^{-}\left[\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr|_{\theta=\widehat{\theta}} \راست]\\\ \widehat{\theta}-\تتا و =\left[\frac{\partial^{2}\ell\left(\theta\right)}{\partial\theta\partial\theta^{\prime}}\Bigr|_{\theta=\widehat{ \ ta}}\right]^{-}\left[\frac{\partial\ell\left(\theta\right)}{\partial\theta}\Bigr|_{\theta=\widehat{\theta}} \راست]\\\ \widehat{\theta}-\theta & =\left[\mathbb{H}\left(\theta\right)\Bigr|_{\theta=\widehat{\theta}}\right]^{-}\ left[\mathbb{S}\left(\theta\right)\Bigr|_{\theta=\widehat{\theta}}\right] \end{align*} به عنوان $ \theta=\widehat{\theta}-\left[\mathbb{H}\left(\theta\right)\Bigr|_{\theta=\widehat{\theta}}\right]^{-}\left [\mathbb{S}\left(\theta\right)\Bigr|_{\theta=\widehat{\theta}}\right] $ بنابراین \begin{align*} \theta^{\left(m+1\راست)} و =\theta^{\left(m\right)}-\left[\mathbb{H}\left(\theta^{\left(m\right)}\right)\right]^{-}\mathbb{ S}\left(\theta^{\left(m\right)}\right)\quad\quad\left({\textrm{Newton- Raphson}}\right)\\\ \\\ \\\ \theta^{\left(m+1\right)} & =\theta^{\left(m\right)}-\left[\mathbb{E}\left\\{ \mathbb{H} \left(\theta^{\left(m\right)}\right)\right\\} \right]^{-}\mathbb{S}\left(\theta^{\left(m\right)}\right)\\\ \theta^{\left(m+1\right)} و =\theta^{\left(m\right)}+\left[\mathbb{I}\left(\theta^{\left(m\right)}\right)\right]^{-}\mathbb{ S}\left(\theta^{\left(m\right)}\right)\quad\quad\left(\textrm{Fisher Scoring}\right) \end{align*} **سوالات** 1. مطمئن نیستم که اشتقاق من درست باشد یا نه. من حداقل دو نسخه متفاوت از اشتقاق را دیده ام. 2. میانگین، واریانس و توزیع $\widehat{\theta}$ (روش Might by Delta) چیست؟ | بسط سری تیلور برآوردگر حداکثر درستنمایی، نیوتن رافسون، امتیازدهی فیشر و توزیع MLE به روش دلتا |
99799 | من یک مجموعه داده حاوی رفتارهای کاربران دارم. فرض کنید 1000 کاربر و 40 کار مشابه داریم. وظایف مشابه هستند اما سطح دشواری آن متفاوت است. برای انجام یک کار، افراد می توانند از 10 الگو پیروی کنند. از آنجایی که 40 کار مشابه هستند، 10 الگو برای همه آنها اعمال می شود. هر کاربر حداقل 5 کار از 40 کار را با پیروی از یکی از 10 الگو انجام می دهد. هدف من این است که ببینم آیا کاربران تمایل دارند همیشه از یک الگوی مشابه در هنگام انجام این وظایف پیروی کنند یا خیر. ما: 1. P1, P2 .... P10 را به عنوان 10 الگوی ممکن برای وظایف تعریف می کنیم. 2. U1، U2، ..... U1000 به عنوان 1000 کاربر 3. T1، T2، ..... T40 به عنوان 40 کار از آنجایی که فعلاً به تفاوت های Task اهمیتی نمی دهیم، بنابراین داده های من را می توان با نشان دادن فقط P و U: کاربر، الگوهای U1، P1 P1 P1 P2 P2 U2، P2 P3 P5 P4 P5 U3، P1 P1 P1 P1 P1 P1 P1 P1 P1 P1 P1 P1 U4, P2 P2 P2 P2 P2 P2 P2 P1 P1 P1 P1 P1 P1 .... U1000, P3 P2 P3 P2 P3 P2 بیایید به سوال من برگردیم: _ آیا کاربران معمولاً تمایل دارند به همان الگو؟_ من می خواهم بدانم چگونه این نوع ثبات را اندازه گیری کنم. اکنون کاری که من انجام می دهم این است: برای هر کاربر، تعداد تکرارهای یک الگوی خاص را محاسبه می کنم، سپس بیشترین تکرار را انتخاب می کنم. نسبت این تکرارها را با توجه به تعداد الگوهای این کاربر محاسبه کنید. سپس چیزی شبیه به این دریافت میکنم: user, propritionOfMostFrequentPattern U1, 0.9 U2, 1 U3, 0.4 .... با رویکرد فوق، میتوانم میزان زمانی را که یک کاربر از همان الگوی رایج پیروی میکند، ثبت کنم. با این حال، اگر نگاهی به U4 بیندازیم. الگوهای او دارای 7 P1 و 6 P2 هستند. اگر از روش بالا استفاده کنم، نسبت 7/13 است. این تکرار P2 را در نظر نمی گیرد. آیا معیار استانداردی وجود دارد که بتواند پایداری الگوها را محاسبه کند؟ علاوه بر این، آیا آزمون معناداری برای این نوع موضوع وجود دارد؟ | برای تست پایداری الگوها چه اندازه گیری ها یا آزمایش هایی را باید انجام دهم؟ |
74532 | من باید یک Anova چند راهه را اجرا کنم و می خواهم فرض همسویی بودن را آزمایش کنم. چگونه می توانم یک Fligner.test را با چندین متغیر مستقل (متغیرهایی که گروه بندی را نشان می دهند) با R اجرا کنم؟ آیا انجام چنین کاری منطقی است؟ | تست فلینر در R، با چندین متغیر که گروه بندی را نشان می دهد |
103296 | سوال من تقریباً مشابه این سوال است. من به دنبال توزیع احتمالی برای داده های کج می گردم که اجازه صفرها را می دهد. هدف برازش مدل GLM است. دادههای من در مورد پراکنشهای گونهها در ناحیههای مختلف دارای انحراف به راست هستند. متغیرهای اضافی بر اساس عرض جغرافیایی منطقه تقسیم شده هستند - بنابراین منطقه در مناطق گرمسیری و معتدل، بنابراین داده ها اکنون شامل صفر هستند. بنابراین سوال من این است؛ آیا توزیع احتمال وجود دارد، به عنوان مثال. مشابه log-normal است، اما کدام صفر اجازه می دهد؟ هر گونه اشاره می شود بسیار قدردانی می شود، با تشکر! **به روز رسانی** هیستوگرام داده های منطقه من  | توزیع احتمال برای داده های انحراف راست و صفر سنگین |
16249 | در OLS، آیا این امکان وجود دارد که $R^2$ یک رگرسیون روی دو متغیر بیشتر از مجموع $R^2$ برای دو رگرسیون روی متغیرهای فردی باشد. $R^2(Y \sim A + B) > R^2(Y \sim A) + R^2(Y \sim B) $ ویرایش: اوه، این بی اهمیت است. این چیزی است که من برای تلاش برای مشکلاتی که در ورزشگاه به آنها فکر می کردم، دریافت می کنم. بازم بابت اتلاف وقت ببخشید پاسخ به وضوح بله است. $ Y \sim N(0,1)$ $ A \sim N(0,1)$ $ B = Y - A $R^2(Y \sim A + B) = 1$، به وضوح. اما $R^2(Y \sim A)$ باید در حد 0 باشد و $R^2 (Y \sim B)$ باید 0.5 در حد باشد. | آیا ممکن است $R^2$ یک رگرسیون روی دو متغیر بیشتر از مجموع $R^2$ برای دو رگرسیون روی هر متغیر باشد؟ |
81830 | من فرکانس هایی برای متغیر با پاسخ های بله و خیر برای دو نقطه زمانی (در ابتدا و بعد از درمان) دارم. فرکانس ها برای دو درمان ثبت می شوند. من می خواهم تغییر را از پایه بین این دو درمان مقایسه کنم. چگونه می توانم حجم نمونه را محاسبه کنم؟ من فرکانس های زیر را برای بله دارم: درمان 1: 28٪ در درمان پایه 1: 41٪ پس از درمان، و درمان 2: 21٪ در درمان پایه 2: 39٪ پس از درمان. | اندازه نمونه برای مقایسه نسبت های تغییر از خط پایه بین دو گروه؟ |
81835 | داده ها با استفاده از مقیاس لگاریتمی جمع آوری شد: نمرات (متغیر توضیحی) با مقادیر 0-5 جمع آوری شده است. نمره 3 10 برابر ارزش نمره 2 است. مطمئن نبودم که از مقیاس گزارش (0-5) یا مقیاس خطی (0-100000) در هنگام انجام corr استفاده کنم. یا ANOVA، درست بود، بنابراین هر دو را امتحان کردم. جای تعجب نیست که مقیاسی که من انتخاب میکنم بر پیدا شدن یا نبودن همبستگیها و یافتن واریانسها تأثیر میگذارد. از کدام مقیاس در تحلیل خود استفاده کنم؟ یا برای اینکه تصمیم بگیرم از کدام مقیاس در تحلیل خود استفاده کنم باید به چه سوالاتی پاسخ دهم؟ خیلی ممنون | هنگام انجام همبستگی و ANOVA از مقادیر لگاریتمی یا خطی استفاده کنید؟ |
6279 | من خیلی مبتدی در آمار هستم. اخیراً یک پروژه از من خواسته است که داده ها را با استفاده از رگرسیون لجستیک و SPSS در یک چارچوب زمانی خاص تجزیه و تحلیل کنم. اگرچه من کتاب های کمی خوانده ام، اما هنوز در مورد چگونگی شروع بسیار مبهم است. کسی میتونه منو راهنمایی کنه؟ ste 1 چیست و بعد چیست؟ به هر حال من شروع کرده ام. پس از وارد کردن داده ها در SPSS، من به صورت crosstab (طبقه IV)، توصیفی (IV پیوسته) و همبستگی اسپیرمن انجام دادم. سپس، با تبدیل به Ln که مشکلاتی را برای من ایجاد می کند، آزمایش غیرخطی بودن را انجام می دهم. من همه سلولهای صفر را دوباره به مقدار کوچکی (0.0001) کدگذاری کردهام تا تبدیل Ln را فعال کنم. سپس، غیرخطی بودن را دوباره آزمایش می کنم. سوال: 1) تنها راه حل نقض تبدیل متغیر از پیوسته به طبقه بندی است؟ من یک تخلف کردم 2) One Exp(B) بسیار بزرگ است (15203.835). این به چه معناست؟ چرا؟ 3) یک تعامل وجود دارد که Exp(B) = 0.00 دارد. چرا؟ با تشکر فراوان. | مراحل تجزیه و تحلیل داده ها با استفاده از رگرسیون لجستیک |
10331 | من روی برخی از مسائل تست تمرینی کار میکنم، و یکی از آنها میگوید که یک الگوریتم نمونهبرداری رد طراحی کنم تا با استفاده از ترسیمهایی از گاما (2،1) ترسیمهایی از واحد نمایی تولید کند. من نمی دانم چگونه این امکان پذیر است، زیرا من تحت این تصور هستم که تابع پاکت g(x) باید به گونه ای مقیاس پذیر باشد که برای مقداری ثابت $M$، $Mg(x)\geq f (x)\; برای همه x$. من هیچ راهی برای انجام این کار نمی بینم، زیرا گاما (2،1) جرم کمی در حدود 0 خواهد داشت، در حالی که تابع نمایی بیشتر جرم خود را در حدود 0 دارد. چه نوع تبدیلی باید انجام دهم تا تابع گاما به آن اجازه می دهد تا به عنوان یک پاکت عمل کند؟ با استفاده از R، سعی کردم آن را برگردانم تا آن را به یک گامای معکوس تبدیل کنم، اما این به اندازه کافی جرم احتمال نزدیک به 0 را نمی گیرد و یک آزمون K-S تأیید کرد که نقاطی که من ایجاد کردم از یک واحد نمایی ناشی نمی شوند. ویرایش: من کدم را اضافه می کنم که در آن سعی کردم از یک گاما معکوس (2،1) به عنوان یک پاکت استفاده کنم: x <- c() for(i در 1:100000) { g <- runif(1، 0، 1) h <- ریگاما(1، 2، 1) M <- densigamma(h، 2، 1) crit <- dexp(h، 1)/M if(g <crit) x[i] = h } | نحوه استفاده از نمونهگیری رد برای ایجاد قرعهکشی از واحد نمایی |
81834 | من مقداری پردازش داده های اصلی خود را انجام داده ام. قبل از پردازش، من یک هیستوگرام زیبا با شکل زنگ داشتم. حالا اگر نیمه اول را برش بزنم و تا انتها بچسبانم، هنوز برای من شبیه به شکل زنگ است. اما من کاملاً مطمئن نیستم که اینجا چه اتفاقی افتاده است. آیا این هنوز یک توزیع عادی است؟ یا اینکه چه نوع توزیعی است؟ برای وظیفه خود (تشخیص حرکت) قرار است از داده های توزیع شده معمولی استفاده کنم و مطمئن نیستم که اگر توزیع به این شکل باشد می توانم از داده ها استفاده کنم. همچنین، فکر میکنم اگر در ابتدا توزیع نرمال داشته باشم، پس از انجام مراحل پردازش، دادهها همچنان باید به طور عادی توزیع شوند (زیرا اینها فقط شامل نرمالسازی و کم کردن میانگین از هر نقطه داده و سپس عادیسازی مجدد میشوند).  من چیز زیادی در مورد توزیع ها نمی دانم، بنابراین اگر راهنمایی هایی برای من دارید که بتوانم در مورد آن مطالعه کنم، بسیار خوشحال خواهم شد، من هیچ اطلاعاتی در جای دیگری پیدا نکردم. | آیا این توزیع نرمال است؟ |
57949 | من یک روش محاسباتی فشرده را اجرا می کنم که در آن باید میلیون ها بار تفاوت در CDF های معمولی را محاسبه کنم، مانند pnorm(y)-pnorm(x) من به جزئیات نحوه محاسبه CDF در R نگاه نکرده ام، اما من فکر می کردم ممکن است راهی برای سرعت بخشیدن به این امر وجود داشته باشد، شاید در یک تماس pnorm. یا شاید یک ساده سازی ریاضی وجود داشته باشد که بتوانم از آن استفاده کنم. پیشنهادی دارید (شاید امکان پذیر نباشد)؟ | روشی سریع برای محاسبه تفاوت در CDFهای معمولی |
78421 | من روی دادههای خروجی صنعتی کار میکنم و آزمایشهای زیادی برای آن انجام میدهم، قبل از اینکه یک مدل ARIMA برای آن بسازم. قبل از انجام این کار، باید تصمیم بگیرم که آیا داده ها را ورود کنم یا نه. من در تشخیص اینکه آیا داده ها به صورت تصاعدی در حال رشد هستند یا نه مشکل دارم. و حتی اگر اینطور نباشد - منطقی است که فرض کنیم رشد صنعتی رشد ثابتی دارد و واریانس آن با گذشت زمان افزایش می یابد.  خط پایین - آیا توصیه میکنید وقتی کارهایی مانند تنظیم فصلی و صاف کردن آن و غیره را انجام میدهم، دادهها را به طور کلی ثبت کنید (نه فقط برای ARIMA). | ورود به سیستم یا عدم ورود؟ |
78836 | من دادههایی با ردیفهای مربوط به جفتهای زن و مرد، با 8 تا 10 فاکتور پیوسته (که متأسفانه ناشناس شدهاند) دارم که هم برای مرد و هم برای زن، و اینکه آیا آنها در یک هفته یا بیشتر با هم دوست شدند، صدق میکند. یک ردیف مثال به این صورت است: m_factor1 m_factor2 f_factor1 f_factor2 تبدیل به_دوستان شد؟ .5 .9 -.4 1 1 (آیا این چیزی است که داده دیادیک در نظر گرفته می شود؟) من به دنبال ساخت یک مدل لجستیک بر اساس این عوامل با استفاده از روش استاندارد اجرای رگرسیون و یافتن عوامل مهم، حفظ آنها و سپس ترکیب و تطبیق عوامل، اجرای مجدد آن، و غیره. من متوجه میشوم که هنگام انجام اعتبارسنجی متقاطع، مدل من نتایج را به خوبی پیشبینی میکند و در حدود 60 درصد مواقع با نتیجه واقعی موافق است. با این حال، با توجه به زمینه مشکل، احساس میکنم باید تعامل قابل توجهی بین عوامل خاصی وجود داشته باشد، بهویژه بین همان عواملی ('m_factor1' در مقابل 'f_factor1') که من در مدل خود لحاظ نکردهام. از چه تکنیک هایی می توانم برای گنجاندن\پیدا کردن این اثرات متقابل استفاده کنم؟ من چیز زیادی در مورد تکنیک های یادگیری ماشینی فراتر از تحلیل رگرسیون کلاسیک نمی دانم. | تکنیک های یادگیری ماشین برای طبقه بندی پاسخ از چندین عامل پیوسته |
70096 | من از طریق Think Bayes (رایگان در اینجا: http://www.greenteapress.com/thinkbayes/) کار می کنم و در تمرین 3.1 هستم. در اینجا خلاصه ای از مشکل آمده است: یک راه آهن لکوموتیوهای خود را به ترتیب 1..N شماره گذاری می کند. یک روز شما یک لوکوموتیو با شماره 60 را می بینید. تخمین بزنید که راه آهن چند لکوموتیو دارد. این راه حل با تابع درستنمایی و نمایی پیش از این پیدا می شود: کلاس Train(Suite): def __init__(self, hypos, alpha=1.0): # یک Pmf قبلی نمایی ایجاد کنید.__init__(self) برای hypo در hypos: self. Set(hypo, hypo**(-alpha)) self.Normalize() def Likelihood(self, data, hypo): if hypo < data: return 0 else: return (1.0/hypo) از نظر مفهومی این به این معناست که اگر عدد قطاری بزرگتر از یکی از فرضیههای خود (1...1000) ببینیم، هر فرضیهای که کوچکتر است، شانس درستی صفر دارد. بقیه فرضیه ها شانس 1/تعداد_قطارها را دارند که قطاری با این عدد را به ما نشان دهند. در تمرینی که روی نویسنده کار میکنم، کمی بیشتر اضافه میکند. این فرض می کند که فقط یک شرکت وجود دارد. اما در زندگی واقعی شما ترکیبی از شرکتهای بزرگ و کوچک و شرکتهای بزرگتر (هر دو به یک اندازه به احتمال زیاد) خواهید داشت. با این حال، این بدان معناست که شما به احتمال زیاد قطاری از یک شرکت بزرگتر خواهید دید، زیرا آنها قطارهای بیشتری دارند. حال سوال این است که چگونه این را در تابع احتمال منعکس کنیم؟ این Stack Overflow نیست، بنابراین من واقعاً برای کدنویسی کمک نمیخواهم، اما در عوض شاید فقط در مورد اینکه چگونه ممکن است در مورد این مشکل از نظر تابع احتمال فکر کنم، کمک میکنم. | مشکل لوکوموتیو با شرکت های اندازه های مختلف |
13784 | من سعی می کنم از «lme» از بسته «nlme» برای تکرار نتایج «aov» برای ANOVA اندازه گیری های مکرر استفاده کنم. من این کار را برای آزمایش اندازه گیری های مکرر تک عاملی و برای آزمایش دو عاملی با یک عامل بین آزمودنی ها و یک عامل درون آزمودنی انجام داده ام، اما در انجام آن برای یک آزمایش دو عاملی با دو در درون مشکل دارم. -عوامل موضوعی یک مثال در زیر نشان داده شده است. A و B عوامل اثر ثابت و موضوع یک عامل اثر تصادفی است. set.seed(1) d <- data.frame(Y = rnorm(48)، موضوع = فاکتور(rep(1:12، 4))، A = factor(rep(1:2، هر = 24))، B = فاکتور(تکرار(1:2، هر=12)، 2))) خلاصه (aov(Y ~ A*B + خطا(موضوع/(A*B))، داده=d)) # استاندارد تکرار شده اندازهگیری کتابخانه ANOVA(nlme) # تلاش: anova(lme(Y ~ A*B، داده=d، تصادفی = ~ 1 | موضوع)) # مشابه با بالا نیست anova(lme(Y ~ A*B، data=d، تصادفی = ~ 1 موضوع/(A+B))) # خطا می دهد من نتوانستم توضیحی درباره این موضوع در کتاب Pinheiro و Bates ببینم، اما ممکن است نادیده گرفته باشم. آن را کسی می تواند به من بگوید چگونه این کار را انجام دهم؟ متشکرم. | ANOVA اندازه گیری های مکرر با lme در R برای دو عامل درون موضوعی |
70097 | من در یک آزمایشگاه آنالیز روغن کار میکنم و میخواهم یک آزمایش آماری طراحی کنم تا مشخص کنم کدام یک از مشتریان ما آزمایشهای نمونه روغن بیشتری میخرند و کدام مشتریان کمتر از حد معمول خرید میکنند. اطلاعاتی که من دارم فهرستی از تعداد خریدهای یک روز معین است. یک آزمون آماری خوب برای تعیین افزایش یا کاهش تعداد نمونه های خریداری شده چیست؟ | پیدا کردن مشتریانی که دارم از دست میدهم و به دست میآورم |
10338 | من می خواهم برای محاسبه امتیاز کارایی از تحلیل پوششی داده ها (DEA) بوت استرپینگ را با استفاده از R انجام دهم. * آیا منابع آنلاین یا منابع دیگری وجود دارد که به کار من کمک کند؟ | امتیاز کارایی تحلیل پوششی داده بوت استرپینگ با استفاده از R |
35105 | من سعی میکنم منیفولد Regularization را در ماشینهای بردار پشتیبانی (SVM) در Matlab پیادهسازی کنم. من دستورالعملهای مقاله بلکین و همکاران (2006) را دنبال میکنم، معادله در آن وجود دارد: $f^{*} = argmin_{f \in H_k}\sum_{i=1}^{l}V (x_i,y_i,f)+\gamma_{A}\parallel f \parallel_{A}^{2}+\gamma_{I}\parallel f \parallel_{I}^{2}$ که در آن V مقداری تابع از دست دادن است و $\gamma_A$ وزن هنجار تابع در RHKS (یا هنجار محیطی) است، شرط یکنواختی را روی راهحلهای ممکن اعمال میکند، و $\gamma_I$ وزن هنجار تابع در منیفولد با ابعاد پایین (یا هنجار ذاتی) است که بدون صافی در امتداد M نمونهبرداری شده اعمال میشود. تنظیمکننده محیط مشکل را ایجاد میکند. به خوبی ارائه شده است، و حضور آن می تواند از نقطه نظر عملی واقعا مفید باشد، زمانی که فرض چندگانه در درجه کمتری وجود داشته باشد. در بلکین و همکاران نشان داده شده است. (2006) که $f^*$ یک بسط را بر حسب $n$ نقاط S، $f^*(x)=\sum_{i=1}^{n}\alpha_i^*k(x_i,x میپذیرد )$ تابع تصمیمی که بین کلاس +1 و -1 تمایز قائل می شود $y(x)=sign(f^*(x))$ است. مشکل اینجاست که من سعی می کنم SVM را با استفاده از LIBSVM در MATLAB آموزش دهم اما نمی خواهم کد اصلی را تغییر دهم، بنابراین نسخه از پیش محاسبه شده LIBSVM را پیدا کردم که به جای گرفتن داده های ورودی و گروه های خروجی به عنوان پارامتر ، ماتریس Kernal را محاسبه می کند و خروجی را گروه بندی می کند و مدل SVM را آموزش می دهد. من سعی می کنم آن را با ماتریس هسته منظم (ماتریس گرم) تغذیه کنم و اجازه می دهم بقیه کار را انجام دهد. من سعی کردم فرمولی را پیدا کنم که Kernal را منظم می کند و به این نتیجه رسیدم: تعریف $I$ به عنوان ماتریس هویت با همان ابعاد ماتریس هسته، $K$ $G=\frac{2\gamma_AI + 2\gamma_ILK}{ I}$ $Gram = KG$ که در آن $L$ ماتریس نمودار لاپلاسی است، $K$ ماتریس هسته و $I$ هویت است. ماتریس و $Gram$ با استفاده از ضرب درونی دو ماتریس $K$ و $G$ محاسبه می شود. آیا کسی هست که بتواند به من کمک کند تا بفهمم این چگونه محاسبه می شود؟ | تنظیم منیفولد با استفاده از نمودار لاپلاسین در SVM |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.