_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
113633 | من میخواهم فرضیه توزیع نمایی را با «MATLAB» آزمایش کنم. آیا آزمایش یا روشی برای آن وجود دارد؟ | آزمون فرضیه توزیع نمایی |
53365 | من پاسخهای پرسشهای باز را بر اساس آیتم (مخصوصاً بخشهایی از یک پاسخ کامل) تجزیه و تحلیل میکنم. از من خواسته شد که ویژگی ها یا اقداماتی را درباره یک موضوع ذکر کنم. من بخش هایی دارم که به آنها می رسم تا دسته بندی کنم. اما من مطمئن نیستم که چگونه باید با پاسخهایی کار کنم که میتوانم کنشها یا ویژگیهایی را پیدا کنم، اما جمله با «و غیره»، «و سایر ویژگیها»، «و بیشتر» و غیره به پایان رسید. من این «بخش» را ثبت کردم. در برخی از پاسخ ها مستقل از موضوع مورد بحث. چگونه می توان با چنین شرایطی کنار آمد؟ آیا میتوانیم آن «بخش» از پاسخ را نادیده بگیریم یا باید دستهبندی جدیدی مانند «تعمیمها» برای آنها ایجاد کنیم؟ | چگونه می توان با جملاتی از جمله و غیره در هنگام تجزیه و تحلیل پاسخ های پایان باز رفتار کرد؟ |
63415 | هنگام محاسبه 2(A)$\times$2(B)$\times$3(C) ANOVA، مشاهده میکنم که تنها عامل A اثر اصلی مهمی دارد. فاکتورهای B و C معنیدار نبودند، اما اندازه اثر متوسط و توان کم را نشان میدهند. با این حال، عوامل B و C به طور قابل توجهی با A و با یکدیگر تعامل دارند (A$\times$B، A$\times$C و B$\times$C). **سؤال:** وقتی نوبت به نوشتن نتایج می رسد، مهم است که نشان دهیم عوامل B و C ممکن است خطر خطای نوع II را پنهان کنند (یعنی به دلیل قدرت کم و در عین حال اندازه اثر متوسط آنها)؟ من احساس می کنم که این مناسب نیست زیرا این عوامل به طور قابل توجهی با A تعامل دارند. | اگر خطر خطای نوع II مرتبط با n.s. اگر این عامل به طور قابل توجهی با عامل دیگری تعامل داشته باشد، مورد بحث قرار می گیرد؟ |
113988 | چگونه پیشبینی تقاضای دستهای در خردهفروشی انجام میشود، مانند Walmart که در آن تعداد محصولات برای پیشبینی تعداد بسیار زیاد است و محصولات کوتاهمدت هستند، یعنی کمتر از ۳۶ ماه دادههای تاریخی دارند؟ من روش های آماری مانند ARIMA، صاف کردن نمایی را می شناسم، اما در خرده فروشی (به عنوان مثال والمارت) بیش از 100000 محصول در دسته های مختلف مانند مواد شوینده، مواد غذایی و غیره وجود دارد که هر کدام فصلی، سلسله مراتب جغرافیایی، سلسله مراتب محصول خود را دارند. همچنین برخی از آنها تقاضای بسیار نامنظم دارند، یعنی در اکثر ماه ها صفر و در برخی از ماه ها بسیار بالا برای مثال قطعات یدکی. | پیش بینی آماری تقاضا |
66972 | من می خواهم بدانم چگونه می توانم PCA را برای کسی که با آمار آشنا نیست توضیح دهم. من دادههای دستهبندی/دودویی دارم و وقتی PCA را اعمال میکنم، نمایش واقعاً منطقی است. بنابراین، اگر PCA را در زمینه قرار دهم، شهود پشت آن چیست؟ مثلاً شما متغیرهای x,y,z و ردیف 1= 0 0 1 row 2 = 0 1 0 دارید (یعنی برای اولین مشاهده x=0 y=0 z=1 و غیره). فرض کنید 1 نشان می دهد که یک تابع از یک سرور روشن است و 0 خاموش است. x تابع A، y تابع B و تابع z است. فرض کنید من وضعیت توابع را n بار بررسی کرده ام. بنابراین، چه ماتریس کوواریانس به من می دهد؟ منظور از بردارهای ویژه و مقادیر ویژه در این زمینه چیست؟ | چگونه می توان PCA را به زبان ساده توضیح داد |
26875 | فرض کنید $X_1,X_2,\ldots,X_{2n}$ نمونه تصادفی $N(0,1)$ است. اگر $D_n=\displaystyle\sum_{i=1}^n X_{i}^2$ و $R_n=\displaystyle\sum_{i=1}^n \frac{X_{2i-1}}{X_{ 2i}}$ و $T_n=\displaystyle\frac{R_n}{D_n}$، توزیع حد $T_n$ چقدر است؟ | یافتن توزیع حد $T_n$ |
53360 | من از هرگونه بینشی در مورد این متاآنالیز قدردانی می کنم. این یک متاآنالیز در مورد اثربخشی و ایمنی آلوگیپتین است. در پاراگراف دوم بحث که این بیانیه را بیان می کند: > اگرچه آزمایش ناهمگنی تفاوت معنی داری > آماری را در نتایج مطالعات وارد شده نشان داد، تحلیل حساسیت > پایداری نسبت های شانس کلی را با حذف > هر یک از موارد نشان داده است. مطالعه از تجزیه و تحلیل بدون بهبود قابل توجهی از ناهمگنی. بنابراین، اعتبار نتایج این متاآنالیز به نظر نمی رسد به خطر بیفتد. این به این دلیل است که؛ هنگامی که تعداد مطالعات شامل > کوچک و ناهمگنی زیاد است، استحکام نتایج > با تجزیه و تحلیل حساسیت به بهترین وجه ارزیابی می شود. از هر یک از مطالعات از تجزیه و تحلیل بدون بهبود قابل توجهی در ناهمگونی آیا منظور آنها زمانی است که یک مطالعه پرت حذف شود، ORها تغییر نمی کنند؟ آنها سعی می کنند با چه چیزی ارتباط برقرار کنند؟ لطفا کمک کنید! استناد: اثربخشی آلوگلیپتین در درمان دیابت نوع 2: یک متاآنالیز از مطالعات تصادفی دوسوکور کنترل شده (PDF) - اختلالات غدد درون ریز _BMC **2013**، 13:9 | متاآنالیز و همگنی -- این افراد چه کردند؟ |
64869 | اول از همه، می خواهم توجه داشته باشم که موضوعات مشابه را در CrossValidated خوانده ام اما کاملا راضی نیستم. من یک مجموعه داده دارم که از یک ماتریس باینری $N\times M$ تشکیل شده است. 1 به این معنی است که یک عمل انجام می شود و 0 که انجام نمی شود. من PCA را روی مجموعه داده اعمال می کنم و به طور شگفت انگیزی نتایج بسیار خوبی دریافت می کنم، به خصوص زمانی که آن را تنها به دو بعد کاهش می دهم. من به دنبال شهودی هستم که در پس انجام PCA در چنین مجموعه داده ای وجود دارد (یعنی جایی که هر ویژگی حاوی داده های طبقه بندی است؛ شما می توانید هر مثالی را که فکر می کنید قابل درک تر است ارائه دهید) و اینکه آیا می توان تکنیک مناسب تری را اعمال کرد. من با متلب کار می کنم و به داده ها به شکل خوشه ای نیاز دارم. | تجزیه و تحلیل اجزای اصلی (PCA) برای داده های باینری |
2691 | در کلاس تشخیص الگوی امروز، استاد من در مورد PCA، بردارهای ویژه و مقادیر ویژه صحبت کرد. من ریاضیاتش رو گرفتم اگر از من خواسته شود که مقادیر ویژه و غیره را پیدا کنم. من این کار را به درستی مانند یک ماشین انجام خواهم داد. اما من **نفهمیدم**. من هدفش را متوجه نشدم حسش را نگرفتم من شدیداً معتقدم که شما واقعاً چیزی را نمیفهمید مگر اینکه بتوانید آن را برای مادربزرگ خود توضیح دهید - آلبرت انیشتین خوب، من نمیتوانم این مفاهیم را برای یک فرد عادی یا مادربزرگ توضیح دهم. 1. چرا PCA، بردارهای ویژه و مقادیر ویژه؟ چه نیازی به این مفاهیم بود؟ 2. چگونه اینها را برای یک فرد غیر عادی توضیح می دهید؟ | درک تحلیل مؤلفه های اصلی، بردارهای ویژه و مقادیر ویژه |
97278 | من باید فرمول های محاسبه تفاوت گروه ها را با اصلاحات بونفرونی و اندازه اثر d کوهن در مقاله زیر شناسایی کنم (نمودار بالای صفحه 6): مقاله پژوهشی برای انجام مقایسه های گروهی از چه فرمولی استفاده شده است؟ همچنین درجات آزادی چقدر بود؟ | شناسایی فرمول ها از MANOVA در یک مقاله تحقیقاتی |
108889 | بر اساس: J. P. Carvalho، On the Semantics and Use of Fuzzy Cognitive Maps in Social Sciences (WCCI، 2010 -- PDF) و صفحه وب ریچارد داگان Cognitive Mapping. یک نقشه شناختی شامل گره هایی است که مفاهیم و پیوندهایی را نشان می دهد که ارتباط بین مفاهیم را نشان می دهد. در بخش IV Carvalho از معناشناسی در منظر مدل ارائه شده استفاده شده است. تعریف داگان از نقشه معنایی این است که ساختاری درختی است که از یک مفهوم اصلی منشعب می شود. همچنین، پاسخ http://cs.stackexchange.com/questions/9800/are-semantic- networks-ontologies?rq=1 بیشتر به سردرگمی من می افزاید که تفاوت مهم بین نقشه شناختی که در آن گره ها مفاهیم هستند و معنایی چیست. نقشه که در آن گره ها نیز مفاهیم هستند. من نمی توانم تفاوت معنی داری بین نقشه مفهومی و نقشه معنایی پیدا کنم. میشه لطفا یکی به زبان ساده توضیح بده؟ متشکرم | نقشه معنایی چیست |
68037 | من سعی می کنم تقاضا را برای خدمات خود پیش بینی کنم، هم کمیت، اما شاید مهم تر، مکان (نقاط داغ). من به هیچ وجه یک آماردان باتجربه نیستم، بنابراین به کمک نیاز دارم :) من تمام داده های تاریخی خدمات، تاریخ، طول و عرض جغرافیایی خود را دارم. تا آنجا که من متوجه شدم، اولین کاری که باید انجام داد این است که با طول و عرض جغرافیایی سروکار نداشته باشیم: به نحوی آنها باید به یک بعد تبدیل شوند درست است؟ پس از آن چه نوع تحلیلی باید روی داده ها انجام شود؟ من فکر می کنم برخورد مستقیم با تاریخ نیز ممکن است راه اشتباهی باشد. ایده من در اینجا این است که فقط به روزهای هفته بپردازم، بنابراین می توانم تقاضا برای یک نوع روز (هر سه شنبه) را به جای سه شنبه خاص پیش بینی کنم. من به دنبال راهنمایی برای رسیدن به این هدف هستم. من یک برنامه نویس خوبی هستم، اما برای یافتن راه درست به کمک نیاز دارم. | چگونه می توان تقاضا را از داده های رویداد پیوسته تاریخی (تاریخ، lat، lon) پیش بینی کرد؟ |
90727 | من مجموعه ای از داده ها را دارم که شامل gpa ترم اول، معدل نهایی، سن، نژاد، وضعیت و غیره دانش آموزان است، باید معدل نهایی دانش آموز را بر اساس بقیه پیش بینی کنم، مشکل من این است که چگونه نژاد و حالت را به اعداد تبدیل کنم. من نمی توانم از متغیرهای ساختگی استفاده کنم زیرا 8 نژاد و 20 حالت وجود دارد | نحوه انجام رگرسیون دسته بندی |
81012 | فرض کنید موردی دارید که میخواهید تجزیه و تحلیل بقا را روی مجموعهای از افراد با یک متغیر کمکی با ارزش دودویی انجام دهید. فرض کنید که فرض PH برآورده شده است. بگوییم که هدف تجزیه و تحلیل تفاوت بین دو گروه (مرتبط با 2 مقدار متغیر کمکی) است. در این صورت، تفاوت بین استفاده از مدل کاپلان مایر و کاکس PH چیست؟ همچنین، به طور شهودی، چرا آنها متفاوت هستند؟ من میدانم که کاکس مقدار متغیر کمکی را در نظر میگیرد، اما در این مورد، از آنجایی که باینری است، کاپلان مایر نیز این کار را به یک معنا انجام میدهد. | تفاوت بین مدل Kaplan-Meier و Cox PH در این مورد چیست |
107471 | فرض کنید من متغیر y و x پیوسته دارم و یک رگرسیون خطی اجرا می کنم: mdl1<-lm(y ~ x) یک مدل خطی تعمیم یافته نیز باید همان مقدار پارامتر را به من بدهد اگر ساختار خطا را مشخص نکنم (یعنی به طور پیش فرض آن را مشخص نکنم. فرض می کند که ساختار خطا گاوسی است) mdl2<-glm(y ~ x) هر دو مدل بالا باید نتایج یکسانی به من بدهد (زیرا در «mdl2»، به طور پیشفرض ساختار خطا گاوسی است) سؤال من این است که آیا باقیماندهها به طور معمول در «mdl1» توزیع نمیشوند (یعنی آزمایش shapiro.wilk روی باقیماندههای «mdl1» انجام میدهم که به من مقدار p-مقدار میدهد. 0.02)، shapiro.test(rstandard(mdl1) سپس در glm چه خانواده خطایی را مشخص کنم با توجه به اینکه y و x پیوسته هستند، می توانم «family=poisson» یا «family=binomial» را مشخص کنم، اگر متغیر پاسخ من mdl3<-glm بود. ) # وقتی y داده های شمارش است mdl4<-glm(y ~ x,family=binomial) # وقتی y داده نسبت است اما در صورت متغیر پاسخ پیوسته است و خطاها به طور معمول توزیع نمی شوند چه ساختار خطایی باید بدهم؟ mdl5<-glm(y ~ x, family=?????) # y داده پیوسته است | ساختار خطا در مدل های خطی تعمیم یافته زمانی که y داده های پیوسته است و خطاها به طور معمول توزیع نمی شوند |
81019 | تابع همبستگی نظری برای دو پیاده روی تصادفی نامرتبط چگونه به نظر می رسد؟ من می دانم که برای دو پیاده روی تصادفی، آنها به طور جعلی همبستگی خواهند داشت. اما در مورد خود همبستگی ها چطور؟ | تابع همبستگی نظری برای دو پیاده روی تصادفی نامرتبط چگونه به نظر می رسد؟ |
113982 | من یک متغیر وابسته دارم که مقدار آن 0، 1، 2 یا 3 است. من از شرکت کنندگان خواستم که سه مورد را انتخاب کنند و اگر در یک دسته بندی خاص است، 1 و در غیر این صورت 0 را کد کردم. من سه متغیر باینری را به عنوان متغیر وابسته من اضافه می کنم. بنابراین 3 حداکثر مقدار متغیر است. من می دانم که رگرسیون پواسون برای متغیر وابسته تعداد و مدل سانسور شده برای متغیر وابسته با حد بالا بسیار استفاده می شود. اما بررسی نمونه های موجود در اینترنت، تحلیل داده های من مناسب به نظر نمی رسد. | نحوه مدل سازی یک متغیر وابسته به تعداد با محدودیت بالا |
35647 | > **تکراری احتمالی:** > درک تحلیل مولفه های اصلی، بردارهای ویژه و مقادیر ویژه من در حال حاضر در حال گذراندن یک آموزش PCA هستم. با این حال، من کمی گیج هستم. برای PCA، ماتریس کوواریانس را محاسبه می کنیم و سپس بردارهای ویژه و مقادیر ویژه ماتریس کوواریانس را پیدا می کنیم. این بردارها اجزای اصلی هستند. * بردارهای ویژه و اجزای اصلی چگونه به هم مرتبط هستند؟ * چرا یافتن ماتریس کوواریانس از داده ها و بردارهای ویژه آن جزء اصلی است؟ | بردارهای ویژه و اجزای اصلی چگونه به هم مرتبط هستند؟ |
21245 | من در حال مقایسه استفاده از گونه های درختی در مقابل در دسترس بودن در قلمرو پرندگان هستم. من از تابع R `compana()` استفاده می کنم که از Aebischer و همکاران استفاده می کند. (1993) روش (Package adehabitatHS) برای تعیین اینکه آیا تفاوت های قابل توجهی در در دسترس بودن متناسب و استفاده متناسب از گونه های مختلف درخت وجود دارد یا خیر. من سعی می کنم تعیین کنم که آیا ورودی برنامه باید نسبت (هم استفاده و هم در دسترس بودن) باشد یا نسبت استفاده و در دسترس بودن. علاوه بر این، من همچنین سعی می کنم بفهمم که آیا کد compana برای تجزیه و تحلیل ترکیبی به طور خودکار مقادیر از دست رفته در ماتریس موجود را با استفاده از میانگین وزنی $\lambda$ هنگامی که test=randomization را تعیین می کنید جایگزین می کند یا خیر، که به این معنی است. که آزمایشهای تصادفیسازی هم برای رتبهبندی زیستگاه و هم برای آزمایش انتخاب زیستگاه انجام میشود (برای اطلاعات بیشتر به وبسایت CRAN مراجعه کنید). من فقط نمی توانم بفهمم که compana به طور خودکار صفرها را در ماتریس موجود جایگزین می کند یا اینکه باید کار دیگری با کد انجام دهید. | نوع داده های ورودی (نسبت ها یا نسبت های ثبتی) برای تجزیه و تحلیل ترکیبی |
3333 | من قبلا اینجا یه سوال پرسیدم اساساً، من سعی میکنم یک سیستم هشدار را ارزیابی کنم که شامل یک لامپ (با رنگ خاص) است که روشن میشود تا سطح تهدید هشدار پیشبینیشده را نشان دهد. Srikant راه حل ساده ای ارائه کرد که شامل محاسبه احتمالات عقبی سیستم هشدار با استفاده از قضیه بیز بود. من اکنون در حال فکر اجرای این کار در R هستم. با این حال، من کاملاً مطمئن نیستم که چگونه ادامه دهم، زیرا من یک مبتدی R هستم. داده ها به این شکل هستند: چراغ هشدار، سطح رویداد رخ داده است؟ قرمز، بله هیچ، بله سبز، نه و غیره ... من می خواهم یک اسکریپت R ساده بنویسم که به من کمک کند محاسبه کنم: الف). احتمال وقوع یک رویداد، برای یک حالت معین از لامپ b). یک C.I برای پیوست کردن به احتمال پسین به دست آمده در (a) بالا از آنجایی که من در R جدید هستم، از مراحل (و دستورات) مورد نیاز برای انجام موارد فوق سپاسگزار خواهم بود. دادههای من در یک فایل CSV ساده با فرمت توضیح داده شده خواهد بود، بنابراین من به سادگی میتوانم آن را در R اسکن کنم. نحوه ادامه کار از آنجا، چیزی است که به کمک نیاز دارم. | محاسبه احتمالات پسین در R؟ |
113987 | من نسبتاً با R جدید هستم، اما در زبان های دیگر و همچنین در تجزیه و تحلیل داده ها در علوم فیزیکی تجربه دارم. من یک مشکل دارم و با استفاده از «lm()» آن را با یک برازش خط مستقیم نشان خواهم داد، در علوم فیزیکی، اگر متغیر وابسته (y) دارای عدم قطعیت های صریح باشد (که خطا نیز نامیده می شود) و آن عدم قطعیت ها همه یک مقدار داشته باشند، اگر ما در یک خط مستقیم قرار می گیرد، سپس مقادیر شیب و قطع تغییر نمی کند، اما عدم قطعیت در شیب و قطع متفاوت خواهد بود با اگر داده ها نداشته باشند. عدم قطعیت های صریح من نمی توانم یک روال مناسب R پیدا کنم که کار را درست انجام دهد. من فیترهایی نوشته ام که در C، Mathematica، Maple و LabView کار درست را انجام می دهند، اما امیدوارم از انجام این کار با R اجتناب کنم. مثالی در اینجا آمده است: d.f = data.frame(x = c(1, 2, 3, 4 , y = c(2، 3.9، 6.1، 7.9)، u = c(.1، 0.1، 0.1، 0.1)) متغیر `u` عدم قطعیت در مقادیر «y» است. با نادیده گرفتن عدم قطعیتها، تناسب خط مستقیم را انجام دهید: fit1 <- lm(y ~ x، داده = d.f) این دقیقاً همان چیزی است که من فکر میکنم تناسب صحیح را نشان میدهد، از جمله خطای Std. در شیب و قطع. وزنها معمولاً $1 / (\text{uncertainty}^2)$ هستند، بنابراین من آن را به `lm()` fit2 <- lm(y ~ x، داده = d.f، وزن = 1/u^2) میدهم خطای استاندارد برای این 2 تناسب متفاوت است، همانطور که باید باشد، اما Std. خطا در پارامترهای نصب شده نیست. به عنوان مثال، رهگیری برای هر دو تناسب 1.99$ است که درست است و Std. خطا در رهگیری برای fit1 0.05196 دلار است که این نیز صحیح است. با این حال، این مقادیر برای fit2 دقیقاً یکسان است. مقدار صحیح عدم قطعیت در قطع برای fit2 در واقع 0.04472 دلار است. من مقدار مناسبی را جستوجو کردهام و نتوانستم یک برازنده رگرسیون حداقل مربعی را در R پیدا کنم که این کار را به درستی انجام دهد. در واقع، چنین برازنده ایدهآلی عدم قطعیتها را در مختصات «x» و «y» میپذیرد و با استفاده از تکنیک «واریانس مؤثر» برازش میکند. یا شاید من نمیدانم چگونه از «lm()» استفاده کنم یا نتایج آن را تفسیر کنم. | وزن های lm و خطای استاندارد |
26876 | من یک مجموعه داده دارم که توزیع دووجهی را نشان می دهد. این با ترسیم هیستوگرام فرکانس در مقابل عدد مشخص شد. اکنون باید دو جمعیت اصلی را از هم جدا کنم و بنابراین یک نقطه تلاقی پیدا کنم. از طرح به نظر می رسد که نقطه ممکن است تقریباً باشد. -1.0 تا -0.8. آیا محاسبه یا تابع مستقیمی وجود دارد که بتوانم از آن برای تعیین مکان دقیق تر این نقطه استفاده کنم؟  | جداسازی جمعیت ها در یک توزیع دووجهی |
113986 | من یک متغیر اندازه گیری شده دارم، که مشخص می شود تحت تأثیر یک متغیر مستقل (یعنی شرایط تجربی) است. من این را در قسمت اول بخش نتیجه گزارش خواهم کرد. همچنین، به عنوان یک تحلیل اضافی، می خواهم از متغیر اندازه گیری شده به عنوان تعدیل کننده استفاده کنم، که فرض می کنم بر یک رابطه علی بین متغیر مستقل و متغیر وابسته دیگر تأثیر می گذارد. حدس میزنم این مدل مهربان چندان رایج نیست، اما برای من مشکلساز به نظر نمیرسد. من ممکن است مشکل چند خطی را داشته باشم (دو متغیر مستقل مستقل از یکدیگر نیستند) اما این مشکل جدی نخواهد بود مگر اینکه IV و تعدیل کننده ارتباط نزدیکی با هم داشته باشند. درست میگم؟ | تعدیل کننده اندازه گیری شده، که تحت تأثیر یک متغیر مستقل است |
9604 | آیا ممکن است یک SES داشته باشیم که معادلات مؤلفه احتمالی باشد، مثلاً لاجیت یا پروبیت؟ من در حال ارزیابی تعدادی از معیارهای کیفیت خدمات ارائه شده توسط تعدادی از ارائه دهندگان هستم. معیارها باینری هستند (گواهینامه کیفیت پاس/ شکست). به نظر می رسد که رویکرد آشکار تخمین معادلات logit/probit، مشروط به ویژگی های ارائه دهنده، به طور مشترک در چیزی مانند یک SUR باشد، اما من نمی توانم چیزی شبیه به آن را در ادبیات انتخاب گسسته پیدا کنم. | سیستم معادله همزمان برای logit/probit؟ |
68030 | **توجه:** _این سوال در اصل در MSE ارسال شده است، اما هیچ علاقه ای ایجاد نکرده است. برای اولین بار در آنجا پست شد، زیرا خود سؤال یک سؤال ماتریس-جبر خالص است. با این وجود، از آنجایی که انگیزه مربوط به آمار و اقتصاد سنجی است، من این سوال را در Cross Validated نیز ارسال می کنم، به این امید که برخی مغز متبحر جبر آماری/ماتریسی چیزی برای کمک داشته باشند._ چارچوب به شرح زیر است: ما یک i.i.d. مقطعی نمونه $\\{\mathbf y، \mathbf X\\}$، که $\mathbf y$ یک بردار ستون $N \times 1$ است، و $\mathbf X$ یک ماتریس $N\times K$ است. ما یک رابطه خطی بین $\mathbf y$ و $\mathbf X$، $$\mathbf y = \mathbf X \beta + \mathbf u $$ فرض می کنیم که در آن $\mathbf u$ نویز سفید با واریانس $\sigma است. ^2$، و برونزا برای رگرسیورها در ماتریس $\mathbf X$، و $\beta$ یک $K\times است. بردار ستون 1$ از ضرایب ثابت ناشناخته. بر اساس این فرض، برآوردگر OLS بی طرف و سازگار است. حالا فرض کنید $N$ بزرگ است، مثلاً 10000 دلار یا بیشتر (نمونه هایی با حجم زیاد در زمینه اقتصاد سنجی نیز ظاهر می شوند). سپس محقق میتواند دو گزینه زیر را بهطور تصوری انتخاب کند: $A$) رگرسیون _one_ OLS را با استفاده از کل نمونه اجرا کند. این تاکتیک را می توان به عنوان جذاب برای ویژگی سازگاری برآوردگر OLS در نظر گرفت. این برآوردگر را $\hat \beta$ صدا کنید. $B$) نمونه را به نمونه های فرعی $m$ _disjoint_ تقسیم کنید (برای سادگی، طول مساوی در نظر گرفته شود، و توجه داشته باشید که اتحاد آنها برابر با کل نمونه است)، رگرسیون $m$ را اجرا کنید و میانگین $m$ را محاسبه کنید. تخمین ضرایبی که او بدین ترتیب به دست خواهد آورد. این تاکتیک را می توان به عنوان جذاب برای ویژگی بی طرفی برآوردگر OLS در نظر گرفت. این برآوردگر میانگین را $\bar b_m$ صدا کنید. _(توجه داشته باشید که تاکتیک $B$ در هیچ رویکرد نمونه گیری مجدد، مانند بوت استرپ، نمونه برداری فرعی، یا جک نایف قرار نمی گیرد - به طور دقیق، به عنوان یک مورد حاشیه ای در استفاده از جک نایف در سری های زمانی در نظر گرفته شده است، اما واقعاً اینطور نیست. یک روش jackknife)._ من یک نتیجه زیبا (از نظر من) بدست آورده ام که نشان می دهد واریانس تخمینگر کل نمونه همیشه کوچکتر از واریانس برآوردگر میانگین است: $$\text{Var}\left(\bar b_m\right) > \text{Var}\left(\hat \beta\right) $$ میگویم خوب است به نظر می رسد زیرا نتیجه از نابرابری میانگین حسابی- هارمونیک برای ماتریس های PD استفاده می کند که در اینجا ثابت شده است: به طور خاص، نوشتن $Z_l= \left(X_l'X_l\right)^{-1}$ برای ماتریس گشتاور معکوس رگرسیورها از _l_ -امین نمونه، _l_ =$1،...،m$، که با $A_m$ نشان دهنده میانگین حسابی و با $H_m$ میانگین هارمونیک این ماتریس های $Z$، رسیدن به موارد زیر دشوار نیست: $$\text{Var}\left(\bar b_m\right) = \frac1m\sigma^2A_m > \frac1m\sigma^2H_m =\text{Var}\left(\hat \beta\right) $$ ... نابرابری در معنای ماتریسی نگه داشته میشود. توجه داشته باشید که $H_m$ میانگین هارمونیک $\left(X_1'X_1\right)^{-1},...,\left(X_m'X_m\right)^{-1} $ به معنای واقعی ماتریس است ، ماتریسی نیست که حاوی میانگین هارمونیک عناصر متناظر ماتریس هایی باشد که میانگین می دهد. بنابراین برآوردگر میانگین $\bar b_m$ همیشه کمتر از کل برآوردگر نمونه $\hat \beta$ است. **سوال من: آیا مرزهای شناخته شده ای برای تفاوت بین میانگین های حسابی-هارمونیک برای ماتریس ها وجود دارد؟** برای اعداد واقعی آنها وجود دارند (مقاله ویکی و منابع اصلی را اینجا و اینجا ببینید). چرا؟ زیرا برای رفتن به مرحله بعدی و مقایسه برآوردگرهایی که ممکن است نه بی طرفانه و نه سازگار باشند، مفید خواهد بود و بنابراین معیاری مانند حداقل مربعات خطا برای مقایسه آنها باقی می ماند. هر گونه پیشنهاد، لینک یا مرجع واقعا قدردانی خواهد شد. | محدود به حسابی نابرابری میانگین هارمونیک برای ماتریس ها؟ |
108057 | من یک فارغ التحصیل علوم کامپیوتر با رشته ریاضی جزئی هستم، اما مدت زیادی از گذراندن دوره های آماری می گذرد. من به دنبال محاسبه میانگین درصد خطا و میانگین درصد مطلق خطا بین نمرات مورد انتظار و امتیازات واقعی هستم. اجازه دهید از تنظیمات مدرسه برای یک قیاس آشنا استفاده کنیم. اگر من MPE و MAPE را برای هر مدرسه به عنوان یک کل بر اساس نمرات آزمون های مختلف در مقابل نمرات آزمون مورد انتظار محاسبه کنم، آیا می توانم از آن نتایج MPE و MAPE (مجموع و میانگین) برای بدست آوردن MPE و MAPE برای زیر مجموعه های بزرگتر مانند ترکیب چندگانه استفاده کنم. MPE/MAPE مدرسه منجر به MPE/MAPE در سطح ناحیه میشود، یا این امر نتایج حاصل از کاهش وزن مناسب دادهها را منحرف میکند؟ آیا داده دیگری وجود دارد که بتوانم در کنار MPE/MAPE مدرسه برای ترکیب آنها در زیرمجموعه های بزرگتر، مانند تعداد دانش آموزان، یا تعداد آزمون هایی که برای حفظ وزن مناسب انجام می شود، نگهداری کنم؟ | میانگین های MPE و MAPE |
99145 | > شکل آزمون نسبت درستنمایی $H_0 را پیدا کنید: \lambda = \lambda_0$ > در برابر $\lambda\neq\lambda_0$ وقتی $X_1,X_2,...,X_n$ یک نمونه تصادفی است > از $Ex( \lambda)$. آن را تا حد امکان ساده کنید. من به صورت زیر شروع کردم، جایی که $\lambda_1$ یک پارامتر جایگزین است $$ \frac{L_0}{L_1}=\frac{\prod f(x;\lambda_0)}{\prod f(x;\lambda_1) } $$ من فکر می کنم p.d.f. برای یک نمایی $\lambda e^{-\lambda x}$ است بنابراین $$ \frac{L_0}{L_1}=\frac{\prod \lambda_0 e^{-\lambda_0 x_i}}{\prod \lambda_1 e ^{-\lambda_1 x_i}} $$ $$ =(\frac{\lambda_0}{\lambda_1})^n\frac{\prod e^{-\lambda_0 x_i}}{\prod e^{-\lambda_1 x_i}} $$ که فکر میکنم میتوان آن را ساده کرد این با گرفتن گزارش $$ =n log(\frac{\lambda_0}{\lambda_1})\frac{e^{-\sum\lambda_0 x_i}}{e^{-\sum\lambda_1 x_i}} $$ در مورد این مطمئن نیستم، اما، من فکر می کنم که می شود $$ =n log(\frac{\lambda_0}{\lambda_1}) e^{-\sum x_i ({\lambda_0}-{\lambda_1})} $$ آیا تا به حال درست می گویم؟ مطمئن نیستم از اینجا به کجا بروم. من فکر می کنم منطقه بحرانی جایی است که موارد فوق کمتر از مقداری ثابت است. | چگونه یک آزمون نسبت درستنمایی برای توزیع نمایی فرموله کنیم؟ |
90723 | من سعی می کنم حاشیه خطا را برای سؤالات نظرسنجی خاص محاسبه کنم. من می دانم که اگر داده ها دوگانه باشند (یعنی تقسیم 75-25 یا 60-40) چگونه این را محاسبه کنم. اما چگونه با سوالاتی که بیش از یک پاسخ دارند برخورد می کنید؟ به عنوان مثال: > کدام یک از محدوده های سنی زیر شما را بهتر توصیف می کند؟ > () کمتر از 18 > () 18 تا 30 > () 30 تا 50 > () 50 تا 70 > () بیش از 70 * آیا با در نظر گرفتن هر پاسخ به عنوان یک سؤال جداگانه، حاشیه خطا برای این سؤال محاسبه می شود؟ (یعنی اگر 20 پاسخ دهنده از 200 پاسخ دهنده بیش از 70 را انتخاب کنند، آیا من بیش از 70 را به عنوان یک سوال جداگانه که دارای تقسیم 90-10 است در نظر بگیرم؟) * اگر نه، حاشیه یا خطا چگونه محاسبه می شود؟ | حاشیه خطا برای داده های غیر دوگانه |
99094 | من سعی داشتم کوواریانس دو متغیر تصادفی را بهتر درک کنم و بفهمم چگونه اولین کسی که به آن فکر کرد، به تعریفی رسید که به طور معمول در آمار استفاده می شود. برای درک بهتر به ویکی پدیا رفتم. از مقاله، به نظر میرسد که معیار یا کمیت کاندید خوب برای $Cov(X,Y)$ باید دارای ویژگیهای زیر باشد: 1. زمانی که دو متغیر تصادفی مشابه یکدیگر باشند (یعنی زمانی که یکی افزایش میدهد، دیگری دارای علامت مثبت میشود. به و هنگامی که یکی کاهش می یابد، دیگری نیز کاهش می یابد). 2. همچنین میخواهیم زمانی که دو متغیر تصادفی متضاد مشابه یکدیگر هستند، علامت منفی داشته باشد (یعنی وقتی یکی افزایش میدهد، متغیر تصادفی دیگر تمایل به کاهش دارد) 3. در نهایت، میخواهیم این کمیت کوواریانس صفر باشد (یا احتمالاً بسیار کوچک؟ ) زمانی که دو متغیر مستقل از یکدیگر باشند (یعنی نسبت به یکدیگر متفاوت نیستند). از ویژگی های بالا می خواهیم $Cov(X,Y)$ را تعریف کنیم. اولین سوال من این است که برای من کاملاً واضح نیست که چرا $Cov(X,Y) = E[(X-E[X])(Y-E[Y])]$ این ویژگی ها را برآورده می کند. با توجه به ویژگیهایی که داریم، انتظار میرفتم که معادلهای شبیه به «مشتق» کاندیدای ایدهآل باشد. به عنوان مثال، چیزی بیشتر شبیه، اگر تغییر در X مثبت باشد، تغییر در Y نیز باید مثبت باشد. همچنین، چرا گرفتن تفاوت از میانگین، کار «درست» است؟ یک سوال مماسی تر، اما همچنان جالب، آیا تعریف متفاوتی وجود دارد که بتواند آن ویژگی ها را برآورده کند و همچنان معنادار و مفید باشد؟ من این را میپرسم زیرا به نظر میرسد هیچکس در وهله اول نمیپرسد که چرا ما از این تعریف استفاده میکنیم (به نوعی احساس میشود که همیشه اینطور بوده است که به نظر من دلیل وحشتناکی است و مانع علمی و کنجکاوی ریاضی و تفکر). آیا تعریف پذیرفته شده «بهترین» تعریفی است که می توانیم داشته باشیم؟ * * * اینها نظرات من در مورد اینکه چرا تعریف پذیرفته شده منطقی است (تنها یک استدلال شهودی خواهد بود): اجازه دهید $\Delta_X$ مقداری از تفاوت برای متغیر X باشد (یعنی از مقداری به مقدار دیگری در مقداری تغییر کند. زمان). به طور مشابه برای تعریف $\Delta_Y$. برای یک نمونه در زمان، میتوانیم محاسبه کنیم که آیا آنها به هم مرتبط هستند یا خیر. برای یک مثال در زمان، خواص مورد نظر ما را برآورده می کند. اگر هر دو با هم افزایش پیدا کنند، در اکثر مواقع، کمیت بالا باید مثبت باشد (و به طور مشابه وقتی که برعکس مشابه باشند، منفی خواهد بود، زیرا دلتا $ دارای علائم مخالف خواهد بود). اما این فقط مقداری را که می خواهیم برای یک نمونه در زمان به ما می دهد، و از آنجایی که آنها r.v هستند. اگر تصمیم بگیریم رابطه دو متغیر را تنها بر اساس 1 مشاهده قرار دهیم، ممکن است بیش از حد برازش کنیم. پس چرا انتظار این را برای دیدن محصول «متوسط» تفاوت ها نمی گیریم. $$sign(E[\Delta_X \cdot \Delta_Y])$$ که باید به طور متوسط نشان دهد که رابطه متوسط همانطور که در بالا تعریف شده است! اما تنها مشکلی که این توضیح دارد این است که این تفاوت را با چه چیزی اندازه گیری می کنیم؟ که به نظر می رسد با اندازه گیری این تفاوت از میانگین (که بنا به دلایلی کار صحیحی است) برطرف شود. ** حدس میزنم مشکل اصلی من با تعریف، گرفتن تفاوت از میانگین است**. به نظر می رسد هنوز نمی توانم آن را برای خودم توجیه کنم. * * * تعبیر علامت را می توان برای سؤال دیگری گذاشت، زیرا به نظر می رسد موضوع پیچیده تری باشد. | شهود در تعریف کوواریانس |
112328 | من تست های ناپارامتریک مبتنی بر رتبه های مختلف (فریدمن و نمنی) را پس از پایان انجام دادم و متوجه شدم که ارقام اعشاری نمونه ها تأثیر زیادی بر قدرت آنها دارد. لطفاً مثال اسباببازی زیر را در نظر بگیرید: نمونههای 1: 0.12،0.23،0.22،0.17 نمونههای 2: 0.15،0.17،0.18،0.1 نمونههای 3: 0.19،0.29،0.27،0.19 استفاده از همه ارقام اعشاری ممکن است نشان دهد که نمونهها تفاوت معنیداری ندارند. اما نمونه های 1و3 و 2و3 هستند. با این وجود، حذف آخرین رقم اعشار، نمونههای 1 را با نمونههای 3 برابر میکند. بنابراین، حذف اعشار بیش از حد ممکن است نمونهها را بیش از حد شبیه به هم کند (آنها یک رتبه مشترک خواهند داشت). برعکس، حذف نکردن آنها آنها را مستعد بینظمیهای کوچک در محاسبات نمونه یا مدیریت شناورها میکند (هر نمونه رتبه متفاوتی دارد، اگرچه بسیار نزدیک به یکدیگر است). سوالات: 1. بهترین راه برای مقابله با این موضوع، به خصوص در یک نشریه چیست؟ 2. آیا تفاوت بین هر نمونه به عنوان اندازه اثر توصیف شده است؟ در این مورد، گرد کردن به مقدار مشخصی از اعشار به عنوان یک محدودیت برای حداقل اندازه اثر مورد بررسی عمل می کند. با تشکر | تأثیر اعشار نمونه بر توان در آزمونهای مبتنی بر رتبه |
49426 | چگونه می توان ورودی های مدل را محاسبه کرد که هم الف) همبستگی خودکار و هم ب) در طول زمان کالیبره می شوند؟ من علاقه مند به پیش بینی نتایج رویدادهای ورزشی هستم. بیایید بگوییم که هر تیم یک امتیاز دارد که در هر هفته از فصل تعیین می شود که نشان می دهد آن تیم چقدر خوب یا بد است. این امتیاز هر هفته بر اساس عملکرد تیم در بازی آن هفته به روز می شود. امتیاز هر تیم در ابتدای فصل بر اساس سال قبل و برنامه آینده آنها بهترین حدس است. من به راحتی می توانم یک مدل تاریخی از تمام نمرات هفتگی قبلی بسازم، اما چیزی در این مورد به نظر می رسد. امتیازهایی که در اوایل هر فصل اختصاص مییابند نسبت به امتیازاتی که بعداً در فصل تعیین میشوند، عدم قطعیت بیشتری در مورد آنها دارند. بدیهی است که امتیازات هر هفته با (حداقل) امتیازهای هفته قبل مرتبط است، اما با پیشرفت فصل، نمرات دقیقتر میشوند. در نظر گرفتن هر امتیاز به عنوان ورودی برابر در مدل پیش بینی اشتباه به نظر می رسد. بهترین رویکرد مدلسازی برای مقابله با این موضوع چیست؟ یا من بیش از حد به آن فکر می کنم؟ | ورودیهای مدل را پیشبینی میکنید که هم همبستگی خودکار دارند و هم در طول زمان کالیبره میشوند؟ |
90729 | من یکسری سوال در مورد استفاده از بسته کوپولا در R دارم. هدف کلی من تولید مقادیر مصنوعی با استفاده از کوپولاست. من در حال تجزیه و تحلیل یک داده هیدرولوژیکی هستم: دبی اوج سالانه [m³/s] و حجم متناظر [m³]. من موفق شدم تست هایی را در مورد استقلال و وابستگی سریال اعمال کنم. علاوه بر این، من پیوندها را شناسایی و حذف کردم و مشاهدات شبه ایجاد کردم (تبدیل مقادیر کوپولا بین [0،1]). از آنجایی که نمیدانم کدام کوپول بهترین است، ابتدا پارامتر copula را برازش کردم: fg <- fitCopula(copula=gumbelCopula(), data=u) # u دادههای من است، این کار را برای همه کوپولهای موجود در R انجام خواهم داد. سپس خوب بودن تناسب را با تابع زیر آزمایش می کنم: gofCopula(copula=gumbelCopula(fg@estimate) x=data[,2:3], N=1000, method=Sn, estim.method=mpl, simulation=mult) با استفاده از best copula، سپس می خواهم مقادیر مصنوعی ایجاد کنم. من یک تابع برای ایجاد نمونه های تصادفی پیدا کردم، اما مطمئن نیستم که آیا آن چیزی که من نیاز دارم را انجام می دهد یا خیر. random_samples <- rCopula(copula=gumbelCopula(fg@estimate)، n=10000) به نظر من این تابع فقط مقادیر تصادفی ایجاد می کند، اما آیا ساختار وابستگی مجموعه داده های من در نظر گرفته می شود؟ همچنین تابع دیگری در بسته copula `mvdc` برای ساخت توزیع های چند متغیره از کوپولا وجود دارد. در واقع تفاوت mvdc و rCopula چیست، هر دو مقادیر مصنوعی تولید می کنند، اینطور نیست؟ آخرین سوال این است: وقتی بتوانم مقادیر مصنوعی خود را تولید کنم، چگونه می توانم آنها را به واحدهای واقعی خود تبدیل کنم؟ از خواندن مستندات متوجه شدم که باید مقادیر (u,v) را با معکوس cdf خاص آنها ضرب کنم، آیا این درست است؟ | تولید مقادیر از copula با استفاده از بسته copula در R |
108054 | درک من این است که «prcomp» و «princomp» از خود مجموعه داده (ردیف مشاهدات، در میان متغیرهای ستونها) کار میکنند. آیا تابعی وجود دارد که تحلیل مؤلفه اصلی را مستقیماً از ماتریس همبستگی یا کوواریانس، بدون داشتن مجموعه داده «خام» اجرا کند؟ | مولفه های اصلی با استفاده از ماتریس همبستگی در R |
99091 | من نمی توانم راهی برای انجام رگرسیون log-log در SPSS پیدا کنم؟ آیا کسی می تواند به من کمک کند تا این کار را مرحله به مرحله انجام دهم؟ با تشکر | چگونه می توانم یک رگرسیون log-log در SPSS انجام دهم؟ |
104926 | من روشی میخواهم برای مقایسه رتبهبندیها از چندین منبع و یافتن یک معیار واحد که همه رتبهبندیها را به بهترین شکل منعکس کند. برای ارائه یک مثال خاص، اجازه دهید آن را مشکل کمیته بررسی بورسیه ها بنامیم (اما لطفا از من متنفر نباشید، من بخشی از کمیته بررسی بورسیه نیستم، این فقط یک مثال است): یک کمیته بررسی بورسیه دانشگاهی سعی می کند تصمیم بگیرد. کدام یک از دانش آموزان آنها سزاوار کمک هزینه تحصیلی هستند. 1000 درخواست دانشجو را بررسی میکند و میخواهد بر نمرات هر دانشآموز در حداکثر 5 دوره خاص تمرکز کند (مثلاً دورهها A، B، C، D، E هستند). همه دانش آموزان ملزم به گذراندن تمام 5 درس نیستند، برخی 3، برخی 4 و برخی 5 دروس را گذرانده اند (اما همه متقاضیان حداقل 3 از A، B، C، D، E را گذرانده اند). بهترین عدد واحدی که اندازه می گیرد کدام دانش آموز بهتر است کدام است؟ ایده اولیه من برای حل این مشکل استفاده از تجزیه و تحلیل اجزای اصلی (PCA) بود. اگر همه متقاضیان هر 5 دوره را گذرانده بودند، خوب کار می کرد. اکنون، در این پست می بینم که PCA با داده های از دست رفته به خوبی کار نمی کند. من دو سوال دارم: 1. اگر هیچ داده ای وجود نداشته باشد (همه دانش آموزان همه دروس را گذرانده اند)، آیا راهی بهتر از PCA برای یافتن یک معیار وجود دارد؟ 2. اگر داده های گم شده ای داشته باشم، آیا راه حلی بهتر از روش به اصطلاح DINEOF که در لینکی که در بالا ارسال کردم وجود دارد؟ | روشی برای مقایسه رتبهبندیها از چندین منبع مختلف با دادههای گمشده |
94614 | من می دانم که توابع چگالی هسته تک متغیره به طور یکنواخت a.s همگرا می شوند. به توزیع واقعی آیا این برای kdf چند متغیره نیز صادق است؟ آیا قضیه ای وجود دارد که میزان همگرایی را در حالت چند متغیره نشان دهد؟ در مورد حالت تک متغیره چطور؟ پیشاپیش از شما متشکرم. | نرخ همگرایی برای برآوردگرهای چگالی هسته چند متغیره |
112325 | من دوست دارم SEM را با lavaan انجام دهم. اما من دوست ندارم آنها را گزارش کنم زیرا راه خوبی برای طرح آنها به سبک APA پیدا نکرده ام. من معمولا مدل را در پاورپوینت بازسازی می کنم و پارامترها را با دست اضافه می کنم. چه دردی! برای مشاهده نتایج SEM معمولاً از semPaths از بسته semPlot استفاده میکنم که عالی است، اما خروجی آن به سبک APA (یا هر چیزی نزدیک به آن) نیست. هنگام ارائه SEM چگونه با آن مشکل برخورد می کنید؟ کسی راه حل خوبی برای این موضوع پیدا کرده است؟ | پلاتین گدازه SEM/CFA به سبک APA |
49422 | من سعی می کنم مشکل را روشن کنم و سپس سؤالات را بپرسم. * * * **مشکل** (نام متغیرها به دلیل محرمانه بودن پوشانده شده است): من یک رگرسیون لجستیک باینری اجرا کردم که در آن 5 متغیر مستقل (IVs) وجود داشت: A، B، C، D، و E. A و ب دغدغه من هستند. C نیز دغدغه من است و بعداً در مورد آن صحبت خواهم کرد. آنها هر کدام دو عامل دارند (A1 و A2، B1 و B2). هنگامی که من تخمین را انجام دادم، برخی از یافته های مهم ظاهر شد. با این وجود، جهت ضرایب (مقادیر بتا) برای A و B برعکس چیزی بود که من انتظار داشتم! با توجه به بیشتر ادبیات (نه همه آنها)، انتظار داشتم A و B بتای مثبت داشته باشند، در حالی که هر دو دارای ضریب منفی بودند. ابتدا مدل ها را برای حدود سه روز کامل چک کردم. هیچ اشتباهی در آنها وجود نداشت، و هر تغییری که من در مدل ها ایجاد کردم، جهت ها تغییر نکرد (به جز اینکه در هیچ یک از آن تغییرات، سعی نکردم تعاملات را حذف کنم). احتمال ورود به سیستم نیز نشان داد که من در مسیر خوبی هستم. سپس تصمیم گرفتم دیدگاه ذهنی خود را در برابر نتایج عجیب کنار بگذارم و به نتایج تحلیل رگرسیون اعتماد کنم. سپس برای بحث در مورد آن نتایج عجیب و غریب گذشتم و سعی کردم یافته های بحث برانگیز را توجیه کنم. در حین بحث، به این نکته رسیدم که این دو متغیر به شدت به هم مرتبط هستند. اولاً آنها یک تعامل معنی دار داشتند. ثانیاً توزیع پیش بینی کننده A به شدت بر روی B تأثیر گذاشته است و طبق ادبیات، A و B می توانند در نمونه من می تواند اثرات متضادی داشته باشد. این عدم تعادل می تواند اثر A را نیز مختل کند از آنجایی که C نیز عجیب بود، فکر کردم که شاید کل مدل به شکل بدی تحت تأثیر مشکلاتی مانند چند خطی قرار گرفته باشد، از خودم پرسیدم اگر فقط A و B را در مدل جدا کنم، چه اتفاقی خواهد افتاد؟ ، B و C برخی از منابع سوگیری هستند، آیا کاهش تعداد IV ها می تواند به نتایج متفاوتی منجر شود: وقتی همه IV های دیگر را از مدل حذف کردم و فقط A، B و را ترک کردم؟ A*B، یکی از ضرایب مطلوب و منطبق بر ادبیات و عقل سلیم است، بنابراین ممکن است بگویم برخی از خطاها در مدل من وجود دارد که مدل اصلی را مختل می کند (مانند چند خطی بودن). تصمیم گرفتم هر پیشبینیکننده عجیبی را بهصورت جداگانه بررسی کنم. وقتی تعاملات را حذف کردم و فقط پنج IV را ترک کردم، نتایج بسیار سازگارتر به نظر می رسید. ظاهراً مشکل زمانی شروع می شود که برخی از تعاملات خاص (اما نه همه آنها) به مدل اضافه شود. پس از اضافه کردن آنها، جهت بتای A و C برعکس می شود. کمی آزاردهنده است زیرا با افزودن آن فعل و انفعالات خاص، احتمال ورود به سیستم به طور قابل توجهی کاهش می یابد (از حدود -75 به -48)، بنابراین من نمی توانم به راحتی آن تعاملات را نادیده بگیرم. * * * **سوالات** ( **اصلها 3 و 4 هستند**، اما پاسخ به بقیه نیز بسیار قابل تقدیر است): 1. وقتی مدل به طرز عجیبی عمل می کند، اما LRT و log احتمال می گوید که آن خوب است، کدام را انتخاب کنیم؟ عقل سلیم ذهنی، یا معیارهای عینی آماری؟ 2. به نظر شما آیا در وهله اول مشکلی در مورد من وجود دارد؟ شاید همه چیز خوب باشد. در صورت تمایل می توانم داده های خام را نیز ارائه دهم. 3. در مورد من چه می کنید؟ حداقل سه انتخاب را می توان انجام داد: الف. کنار گذاشتن تعاملات. ب- رها نکردن آنها و گزارش مدل عجیب. ج. گزارش هر دو مدل با و بدون تعامل، و همچنین مدل های تعداد محدود IV (مثلاً فقط A و B)، و سپس سعی کنید به طور ذهنی بحث کنید که این تعاملات است که باعث عجیب شدن مدل بزرگ اصلی می شود. 4. من قصد دارم دومی را انجام دهم (3.C). اما آنقدر کثیف خواهد بود و ظاهر چندان خوبی ندارد. نمیدانم آیا روشی ظریف و عینی برای یافتن منبع خطا در مدل اصلی وجود دارد (البته اگر اشتباهی وجود داشته باشد)، بنابراین به جای بحثهای ذهنی، میتوانم ادعاهای خود را بر روی برخی معیارهای آماری عینی ثابت کنم. به عنوان مثال، آیا روشی برای برجسته کردن تعاملات مشکل ساز طبق برخی آمار وجود دارد؟ 5. آیا پیشنهاد یا ایده ارزشمند دیگری دارید؟ | وقتی پیشبینیکنندهها با عقل سلیم/ادبیات مطابقت ندارند، اما مدل مطابق با احتمال ورود و LRT خوب/بهترین است، چه باید کرد؟ |
94615 | گیلونکو-کانتلی به یونیفرم a.s. همگرایی ECDF تک متغیره سوالات من این است: 1. آیا تضمین های مشابهی برای ECDF چند متغیره وجود دارد؟ 2. میزان همگرایی چگونه به ابعاد r.v بستگی دارد؟ پیشاپیش از شما متشکرم. | همگرایی ECDF چند متغیره |
97796 | من در حال پردازش سیگنال هستم و یک هیستوگرام دارم که زمانی که فقط نویز در سیگنال وجود دارد، شکل زنگی دارد. (به من توصیه شده است که با توجه به قضیه حد مرکزی این مورد انتظار است)! شکل هیستوگرام به ![With Signal] (http://i.stack.imgur.com/AIm6l.png) تغییر می کند، توجه داشته باشید که من نوارهای وسط را حذف کرده ام، زیرا آنها بسیار زیاد هستند. بالا، دیدن جزئیات در پایه منحنی را دشوار می کند. من می خواهم یک آزمایش برای تمایز بین این دو مورد. من میدانم که آزمایشهایی برای طبیعی بودن وجود دارد، اما مطمئن نیستم که در این مورد چقدر مناسب هستند همانطور که در اینجا توضیح داده شد. یکی از رویکردهایی که در نظر گرفته ام، آزمایش صافی است > $\int_{-\infty}^{\infty}{[f''(x)]^2 dx}$ که در آن f توزیع نرمال است **EDIT** همانطور که Glen_b پیشنهاد داد، من تست Anderson Darling Float[] sortedYs را امتحان کردم. sortedYs = Hist.OrderBy(a => a).ToArray<float>(); float[] cdf = new float[sortedYs.Length]; MathNet.Numerics.Distributions.LaplaceDistribution ld = جدید MathNet.Numerics.Distributions.LaplaceDistribution(U, (b)); for (int i = 0; i < sortedYs.Length; i++) { cdf[i] = (float) ld.CumulativeDistribution(sortedYs[i]); } float AD = 0; برای (int i = 0; i < cdf.Length; i++) { AD -= (float)((2 * (i + 1) - 1) * (Math.Log(cdf[i]) + Math.Log( 1 - cdf[cdf.طول - 1 - i]))); } AD /= cdf.Length; AD -= cdf.Length; AD *= (float)(1 + (0.75 + 2.25 / cdf.Length) / cdf.Length); (من از سی شارپ و Math.Net استفاده می کنم) هنوز کاملاً مطمئن نیستم که آیا اندرسون عزیزم اینگونه کار می کند. (حدود 8000 - 14000 برای حبابی، حدود 4000-12000 برای غیر حبابی). همچنین احتمالاً شایان ذکر است که من مجموعه داده بسیار بزرگی دارم، زیرا تصاویر من 1920*1080 پیکسل دارند. مقدار AD محاسبه شده برای فریم های ویدئویی متحرک بسیار بالاتر است. محاسبه هموار با تخمین $\int_{-\infty}^{\infty}{[f''(x)]^2 dx}$ با استفاده از دادههای خام برای f و سپس با انجام همان تخمین اما با استفاده از توزیع لاپلاس (با استفاده از میانگین نمونه و b) برای f تفاوت این دو تخمین را پیدا می کنم. من برای بدون حرکت 0.01 و کمتر و برای تصاویر متحرک بالاتر می گیرم. با این حال در این دسته بندی ها همپوشانی وجود دارد، بنابراین هنوز آنطور که من می خواهم قابل اعتماد نیست. **ویرایش** من قصد دارم تعدادی هیستوگرام دیگر بدون حرکت ارسال کنم  Motion Present  در تمام این مدت به نویز در دم نگاه می کردم، اما اگر به عقب برگردم و به کل هیستوگرام نگاه کنم، می توان دید که تصاویر با حرکت در مقایسه با تصاویر بدون حرکت، واریانس کمتری در هیستوگرام خود دارند. من فکر می کنم این ممکن است تا حدی به دلیل طبقه بندی پیکسل ها به bin ها در یک هیستوگرام باشد. (من از opencv و emgu استفاده می کنم، بنابراین برای سرنخ های بیشتر در اینجا باید به کد منبع نگاه کنم). تصاویر با حرکت در واقع نسبت به تصاویر بدون حرکت دارای گستره وسیع تری از مقادیر مقیاس خاکستری هستند. با این حال، هنگام محاسبه هیستوگرام، پیکسلها باید در سطلهایی از 0 تا 255 قرار گیرند. بنابراین، یک تصویر با مقادیر بسیار متغیر در مقیاس خاکستری دارای سطلهایی با وضوح پایینتر است. و بنابراین، پیکسل های بیشتری در یک سطل قرار می گیرند، حتی اگر کمی متفاوت باشند. این به نوعی داده های من را خراب می کند، اما در عین حال، این اثری است که من هم می توانم از آن بهره ببرم. | تست مناسب برای تشخیص سیگنال در نویز توزیع شده عادی |
68035 | من چند گفتگو توسط افراد غیرآمار دیدهام که در آنها به نظر میرسد که آنها معیارهای همبستگی را با استفاده از اطلاعات متقابل به جای رگرسیون (یا آزمونهای آماری معادل/مرتبط نزدیک) دوباره ابداع میکنند. من فکر می کنم دلیل خوبی وجود دارد که آماردانان از این رویکرد استفاده نمی کنند. درک غیرمتخصص من این است که برآوردگرهای آنتروپی/اطلاعات متقابل مشکل ساز و ناپایدار هستند. من فرض میکنم قدرت نیز در نتیجه مشکلساز است: آنها سعی میکنند با این ادعا که از چارچوب تست پارامتریک استفاده نمیکنند، این مشکل را برطرف کنند. معمولاً این نوع کارها با محاسبات قدرت یا حتی فواصل اطمینان/اعتماد به دردسر نمی خورد. اما برای اتخاذ موضع طرفدار شیطان، آیا همگرایی آهسته در زمانی که مجموعه داده ها بسیار بزرگ هستند، کار بزرگی است؟ همچنین، گاهی اوقات به نظر می رسد که این روش ها کار می کنند به این معنا که ارتباط ها توسط مطالعات بعدی تایید می شوند. بهترین انتقاد در برابر استفاده از اطلاعات متقابل به عنوان معیاری برای ارتباط چیست و چرا از آن به طور گسترده در عمل آماری استفاده نمی شود؟ ویرایش: همچنین آیا مقالات خوبی وجود دارد که این موضوعات را پوشش دهد؟ | چرا آماردانان از اطلاعات متقابل به عنوان معیار ارتباط استفاده نمی کنند؟ |
108050 | من روی یک پروژه طبقه بندی کار می کنم و می خواهم از SVM و/یا Clustering Algs استفاده کنم. چیزی که من با آن مشکل دارم تصمیم گیری در مورد نحوه تنظیم بردارهای ویژگی است. من قبلاً تصمیم گرفته ام که چه ویژگی هایی داشته باشم و قبلاً مواردی مانند همبستگی و اضافه کردن را در نظر گرفته ام. برخی از ویژگیهای من طبقهبندی هستند (منطقه، جنسیت، شغل...) و برخی عددی هستند (سن، درآمد،...) من میخواهم از برخی از آنها استفاده کنم. اما من مطمئن نیستم که چگونه ویژگی ها را به گونه ای تعیین کنم که دقیق باشد و نویز ایجاد نکند. (یک کاری که فکر کردم انجام دهم این بود که برای هر متغیر طبقهای، مثلاً جنسیت، چیزی مربوط به متغیر را محاسبه کنم (مثلاً احتمال پیشفرض را با توجه به اینکه شما از جنس خاصی هستید) محاسبه کنید. ایده این است که چیزی بسیار مرتبط با متغیر دسته بندی و به جای آن از آن مقدار استفاده کنید. با تشکر | تنظیم بردارهای ویژگی |
104929 | بگو من استخوان های ساق پا از اسکلت های مختلف _N_ جمع آوری کردم. همه آنها حدود 30 سانتی متر طول دارند، و من ویژگی های مختلف P1، P2، P3، P4 و P5 را در هر 3 میلی متر در امتداد این استخوان ها اندازه گرفتم (بنابراین من 100 نقطه داده برای هر P دارم) تا ببینم آنها چقدر تراکم استخوان را اندازه می گیرند. من همچنین مقدار _F_ قارچ را در امتداد این استخوان ها اندازه گرفتم (هر 3 میلی متر نیز). من به خصوص به P5 علاقه مند هستم، که به نظر می رسد نشانگر بسیار خوبی برای تراکم استخوان است، و می خواهم ببینم که P1، P2، P3 و P4 چقدر با P5 ارتباط دارند. من می خواهم 1) یک اندازه گیری جهانی از همبستگی بین هر P و P5 با در نظر گرفتن اقدامات در امتداد کل استخوان (با آزمون معنی داری) داشته باشم. از آنجایی که تراکم استخوان به شکل خاصی متفاوت است (غیر خطی، غیر حلقوی، ...)، و مقدار قارچ می تواند P دیگر را تحت تأثیر قرار دهد، من نیز علاقه زیادی به محاسبه 2) همبستگی محلی (مثلاً در امتداد 3 سانتی متر) دارم. بخش) بین هر P و P5 در امتداد استخوان. مشکل 1) این است که همه سریها همبستگی خودکار دارند (زیرا همه ویژگیها در فضا به کندی تغییر میکنند). من یک همبستگی متقاطع ساده انجام می دادم، اما پس از آن، مقدار p برای این واقعیت که سری ها همبستگی خودکار دارند، نیاز به اصلاح دارد. بعد من چیکار کنم؟ و آیا قبل از محاسبه همبستگی باید مقادیر تمام اسکلت ها را در هر نقطه در امتداد استخوان میانگین کنم؟ برای 2) من به محاسبه یک همبستگی در حال حرکت/حرکت روی یک پنجره، مثلاً 10 نقطه (3 سانتیمتر) فکر میکردم تا اندازهگیری همبستگی را در هر نقطه داشته باشم. سپس من نه تنها باید همبستگی خودکار را در نظر بگیرم. من همچنین باید آزمایش چندگانه ناشی از همبستگی دویدن/حرکت را تصحیح کنم. آیا ایده ای در مورد اینکه چگونه می توانم این کار را انجام دهم (اصلاحات بونفرونی بیش از حد محافظه کارانه خواهد بود) دارید؟ یکی از چیزهایی که میخواهم برای همبستگی دویدن/حرکت نشان دهم (اما نه تنها) این است که مقادیر کم همبستگی بین P1، P2، ...، P4 و P5 زمانی به دست میآید که اندازه قارچ _F_ بالا باشد (فقط گفتن ). من از R استفاده می کنم، اما در آمار مبتدی هستم، پس ممنون می شوم اگر بتوانید این را در پاسخ خود در نظر بگیرید :) با تشکر. P.S. من استخوان ها را مطالعه نمی کنم، اما این داستان ساده تر به نظر می رسد. | آزمون اهمیت همبستگی بین دو سری خودهمبسته |
78748 | ما در حال حاضر در حال بررسی برخی از نتایج و انجام برخی از تستهای ANOVA بر روی عملکرد جستجوی انسانی در محیطهای مجازی با استفاده از سیستمهای صوتی مختلف برای رندر صوتی هستیم. زمانی که صدا از طریق سیستمهای مختلف پخش میشود، مدت زمانی را که یک شرکتکننده برای یافتن صدا در یک محیط مجازی نیاز دارد، اندازهگیری میکنیم. متغیر مستقل ما «سیستم صوتی» و متغیر وابسته ما «زمان» است. همه سوژه ها با استفاده از انواع سیستم های موجود (Within) صدا را جستجو کرده اند. آزمون یک آزمون کامل است. مشکل این است که وقتی یک ANOVA یک طرفه را انجام میدهیم، برای اینکه ببینیم آیا تفاوت معنیداری بین زمان صرف شده برای جستجوی یک صدا با استفاده از یک سیستم صوتی خاص وجود دارد یا خیر، P-Value حاصل 0.064 است. اما با استفاده از Anova دو طرفه، P-value به 0.0217 تبدیل می شود. **The One-Way Anova:**  **The Two-Way Anova:**  موردی که باید به آن نگاه کنید (asfactor(soundSystem)) است. ما انتظار داشتیم که این دو مقدار یکسان باشند، اگرچه اینطور نیست. ما اینجا چه چیزی را از دست می دهیم؟ آزمایش ها در R انجام شده است. | تفسیر مقدار p برای ANOVA یک طرفه و ANOVA دو طرفه |
68032 | این یک سوال در مورد لفاظی توصیف تجزیه و تحلیل انجام شده با استفاده از یک مجموعه داده عمومی یا هر مجموعه داده از قبل موجود دیگری است. **وضعیت فرضی این است:** محققی گزارش می دهد که آنها فرضیه ای دارند. برای آزمایش این، آنها یک نمونه، n، از افرادی که معیارهای مطالعه را برآورده می کنند، از پایگاه داده N شرکت کننده می گیرند. آنها یک آزمون منفرد و پیشینی این فرضیه را روی نمونه اجرا می کنند و گزارش می دهند که تفاوت گروه فرضی، یا همبستگی، یا هر چیز دیگری، بزرگتر از 0، p<0.05 است. _آیا این اکتشافی است یا نمونه خوبی از آزمون فرضیه است؟_ از آنجایی که هر تحلیل گزارش شده از مجموعه داده های موجود ممکن است یکی از بازجویی های متعدد باشد، هر گزارشی باید به جای آزمون فرضیه به عنوان اکتشافی در نظر گرفته شود. به عبارت دیگر، ارائه تحلیلی از مجموعه دادههای موجود با استفاده از بلاغت آزمون فرضیههای نمونه، خواننده را برای تفسیر بیش از حد نتایج گمراه میکند. با این حال، من همچنین میتوانم ببینم که استدلالی برای بهرهمند شدن محقق از شک وجود دارد، همانطور که در همه مطالعات از پیش ثبتنشده وجود دارد. به عبارت دیگر، آیا می توانیم فرض کنیم که محقق فقط این فرضیه را بر روی این زیر مجموعه واحد از پایگاه داده موجود آزمایش کرده است؟ | آیا تجزیه و تحلیل داده های موجود همیشه اکتشافی است یا می توان از آن برای آزمون فرضیه استفاده کرد؟ |
78744 | من هرگز ندیده ام که یک پارامتر تنظیم (معمولاً لامبدا یا آلفا) برای هر پارامتر متفاوت باشد. مردم پارامترهای تنظیم متفاوتی را در نظر می گیرند، اما من معتقدم که آنها همه پارامترها را با قدرت برابر جریمه می کنند. یک رگرسیون خطی با وقفه و 2 پیش بینی را در نظر بگیرید. یک پیشنهاد برای تنظیم: به جای $\lambda \sum B_i^2$ $\sum(\lambda_i * B_i^2)$ را در نظر بگیرید، از 1 تا n، جایی که i پارامتر i-ام است. در حالی که به طور کلی یک $\lambda$ روی همه ضرایب اعمال می شود، ممکن است یک بردار لامبدا داشته باشیم، یک بردار برای هر ضریب (به جز ضریب). برای $B_1$، $\lambda$ ممکن است 5 باشد، در حالی که $\lambda$ برای $B_2$ می تواند 10 باشد. آیا افراد از پارامترهای تنظیم متفاوت برای پارامترهای مختلف استفاده کرده اند، و آیا دلایلی برای این کار وجود دارد؟ چه زمانی چنین موردی خواهد بود؟ می توان تصور کرد که از نظر تئوری ترجیح می دهیم یک پارامتر را بیشتر از پارامتر دیگر کوچک کنیم. | پارامتر تنظیم متفاوت در هر پارامتر |
78741 | در R (2.15.2) من یک بار یک ARIMA (3،1،3) را در یک سری زمانی و یک بار یک ARMA (3،3) را در سری های زمانی متفاوت نصب کردم. پارامترهای برازش متفاوت است، که من به روش برازش در ARIMA نسبت دادم. همچنین، برازش یک ARIMA(3،0،3) روی همان دادههای ARMA(3،3) بدون توجه به روش برازشی که استفاده میکنم، به پارامترهای یکسان منجر نمیشود. من علاقه مند به شناسایی این تفاوت هستم که از کجا ناشی می شود و با چه پارامترهایی می توانم (اگر اصلاً) ARIMA را متناسب کنم تا ضرایب تناسب مشابه با ARMA را بدست بیاورم. کد نمونه برای نشان دادن: library(tseries) set.seed(2) #دریافت یک سری زمانی به صورت دستی x<-c(1,2,1) e<-c(0,0.3,-0.2) n<-45 AR< -c(0.5,-0.4,-0.1) MA<-c(0.4,0.3,-0.2) for(i در 4:n){ tt<-rnorm(1) t<-x[طول(x)]+tt+x[i-1]*AR[1]+x[i-2]*AR[2]+x[i-3] *AR[3]+e[i-1]*MA[1]+e[i-2]*MA[2]+e[i-3]*MA[3] x<-c(x,t) e<-c(e,tt)} par(mfrow=c(2,1)) plot(x) plot(diff(x,1)) #fitting نسخه های مختلف. آنچه من می خواهم به دست بیاورم fit1 با ARIMA() fit1<-arma(diff(x,1,lag=1),c(3,3),include.intercept=F) fit2<-arima(x,c( 3,1,3),include.mean=F) fit3<-arima(diff(x,1),c(3,0,3),include.mean=F) fit4<-arima(x,c(3,1,3),method=CSS,include.mean=F) fit5<-arima(diff(x,1),c(3,0,3),method =CSS,include.mean=F) cbind(fit1$coe,fit2$coe,fit3$coe,fit4$coe,fit5$coe) ویرایش: استفاده از مجموع شرطی مربع ها بسیار نزدیک است، اما کاملا وجود ندارد با تشکر از راهنمایی برای fit1! ویرایش 2: من فکر نمی کنم این تکراری باشد. نقاط 2 و 3 به مشکلات متفاوتی نسبت به مشکلات من می پردازند، و حتی اگر مقدار اولیه ذکر شده در نقطه 1 را با fit4<-arima(x,c(3,1,3),method=CSS,include.mean=F, نادیده بگیرم. init=fit1$coe) من هنوز ضرایب مختلفی دریافت می کنم | ARIMA vs ARMA در سریال های متفاوت |
78745 | من یک مشکل طبقه بندی دارم که در آن می خواهم یک مشاهده $X$ را در جمعیتی که با یک pdf برابر با $f_1$ یا $f_2$ توصیف شده است قرار دهم. با توجه به $P_{f_i}(\frac{f_1(X)}{f_2(X)}=j)=0$ برای همه $j\in [0,\infty]$, $i\in\\{1، 2\\}$، میخواهم نشان دهم که هر قانون طبقهبندی قابل قبول، یک قانون طبقهبندی بیز برای برخی از $\pi$ قبلی است. هر گونه کمکی برای انجام این کار بسیار قدردانی خواهد شد. | مشکل طبقه بندی: قانون مجاز یک قانون بیز برای برخی از $\pi$ قبلی است |
104928 | من در تلاش برای طراحی مطالعه ای هستم که در آن تأثیر یک متغیر بر تصمیم گیری بیمار با تعدیل سایر متغیرهای بالینی ارزیابی شود. برای ارائه جزئیات بیشتر، یک متغیر پیوسته بالینی (به نام X) که با عود بیماری مرتبط است، در کنار برخی از متغیرهای بالینی دیگر استفاده می شود. فرض کنید من 100 بیمار دارم و در طول مطالعه، بیماران به گونه ای تصادفی می شوند که نیمی از آنها متغیر X را در کنار سایر متغیرها دریافت می کنند و انتخاب می کنند که تحت درمان قرار گیرند یا خیر. در حالی که نیمی دیگر اطلاعات مربوط به متغیر X را دریافت نمی کنند و بر اساس متغیرهای دیگری که به آنها نشان داده می شود تصمیم می گیرند تحت درمان قرار گیرند یا خیر. در حال حاضر، من علاقه مند به ارزیابی تاثیر X بر تصمیم هستم (درمان در مقابل عدم درمان)، اما به عنوان یک متغیر پیوسته و مشکل این است که نیمی از بیماران متغیر X را دریافت نکرده اند. بنابراین، رویکرد مناسب در اینجا چیست؟ آیا می توانم از یک مدل رگرسیون لجستیک استفاده کنم که در آن 1) متغیرهای بالینی دیگر، 2) اینکه آیا کسی X را دریافت کرده است یا نه (دودویی)، و سپس 3) X را به عنوان متغیر پیوسته تنظیم کنم (برای کسانی که X دریافت نکرده اند، این مقدار خواهد بود. 0 باشد). از نظرات شما در این مورد قدردانی می کنم. با تشکر | مدلسازی متغیری که هم مقوله ای و هم پیوسته است |
78747 | من روی شبکههای عصبی برای مشکل رگرسیون در R با استفاده از بستههایی مانند «nnet»، «caret» و غیره کار میکنم. دادههایم را به قطار، اعتبارسنجی و آزمایش تقسیم کردهام. شک من این است که آیا تابع train() در بسته caret برای R به مجموعه اعتبارسنجی نیز اهمیت می دهد. از آنجایی که من متوجه شدم، پس از آموزش مدل «nnet»، باید به بررسی مجموعه داده های اعتبارسنجی ادامه دهید تا از برازش یا یادگیری بیش از حد یعنی محدود کردن تعداد تکرارها جلوگیری کنید. سپس باید پارامترهای واپاشی و اندازه لایههای پنهان را تنظیم کنیم و در نهایت آن را روی مجموعه دادههای تست اعمال کنیم. آیا درک اشتباهی دارد؟ FYI. این کدی است که من در حال پیاده سازی Y=read.csv(file=./dolcan.csv,header=T) ratio=as.integer(0.5*nrow(Y)) ratio1=as.integer(0.75*nrow هستم (Y)) traindata=Y[(1:نسبت)،c(2:ncol(Y))] valdata=Y[(ratio:ratio1),c(2:ncol(Y))] testdata=Y[((ratio1+1):nrow(Y)),c(2:ncol(Y))] ## Train شبکه و تنظیم تعداد گره ها و decay maxout= max(traindata[,1]) # برای مقیاس کردن mygrid خروجی <- expand.grid(.decay=c(0.5, 0.1), .size=c(3,4,5)) nnetfit <- train(dolcan/maxout ~ ., data=traindata, method=nnet, maxit=1000 , tuneGrid=mygrid, trace=F) nnetfit | شبکه عصبی برای پیش بینی |
108055 | من یک نوع سوال مبهم در مورد استفاده از الگوریتم رگرسیون حداقل زاویه (LARS) برای انتخاب متغیر دارم. اگر من درست متوجه شده باشم، استاد من LARS را چنین فرموله می کند: $$\mathbb{min}\ \hat{y}^T\hat{y}\ \mathbb{such}\ \mathbb{that}\ |t_j | \le t\ \forall\ j$$ که در آن $t_j\ = (x_j^Tx_j)^{-1/2}x_j^T(y-\hat{y})/\sigma$. مجموعه داده ای که من با آن کار می کنم با نمرات یک کلاس کوچک سروکار دارد ($\mathbb{n = 22}$ دانش آموزان، $\mathbb{p = 16}$ تکالیف درجه بندی شده) و پاسخ نمره دانش آموزان در امتحان نهایی است. . من به طور تصادفی به نتیجه ای برخورد کردم که یا کمی جالب بود یا تصادفی، و می خواستم بدانم آیا کسی چیزی در مورد چیزی شبیه به این که از نظر ریاضی مربوط به انتخاب متغیر است می داند؟ من پیشبینیکنندهها را استاندارد کردم و پاسخ را در مرکز قرار دادم و برای هر یک از مراحل $\mathbb{p}$ در الگوریتم LARS، یک اعتبارسنجی متقاطع ترک یک خروجی اجرا کردم. می خواستم راهی پیدا کنم که بگویم در کدام مرحله باید توقف کنم. چیزی که به آن فکر کردم این بود که یک بردار $\hat{y_i}^T\hat{y_i}$ با عناصر $\mathbb{n}$ ایجاد کنم که در آن $\hat{y_i}$ مدل پیشبینیشده با $\mathbb باشد. {i^{th}}$ مشاهده وجود ندارد. $\hat{y}^T\hat{y}$ مقدار مدل کامل پیشبینیشده در هر مرحله است. از آنجا من $\mathbb{p}$ z-scores را محاسبه کردم که: $$z_j= \dfrac{\hat{y}^T\hat{y}-mean(\hat{y_i}^T\ hat{y_i})} {sd(\hat{y_i}^T\hat{y_i})}$$ چیزی که من پیدا کردم این بود که $\mathbb{z_j}$ کاهش یافت تا زمانی که به حداقل رسید در $\mathbb{z_8}$ و سپس افزایش یافت. این اتفاق افتاد که مدل با 8 متغیر دقیقاً همان مدلی بود که وقتی تصمیم گرفتیم فقط $\mathbb{\beta_j} \mathbb{'s}$ ($\beta_9$ منفی بود) مثبت را در نظر بگیریم، به آن رسیدیم زیرا این امر منطقی بود. . من همچنین این داده ها را از طریق رگرسیون گام به گام معمولی اجرا کردم و چیزی شبیه حداقل AIC در 3 متغیر و حداقل BIC در 13 متغیر به دست آوردم. من سعی میکنم کدم را از نظر فنی درست کنم و این را با دادههای مختلف اجرا کنم، اما سوال طولانی من اساساً این است که آیا کسی فکر میکند که این چیزی از نظر ریاضی به ایدهای از رگرسیون/انتخاب متغیر یا صرفاً تصادفی عجیب و غریب مرتبط است؟ | استفاده از Leave-One-Out Cross Validation با LARS |
100967 | من مدلی برای پیش بینی احتمال برنده شدن هر اسب در یک مسابقه ایجاد کرده ام. خروجی مدل احتمال برنده شدن هر اسب پیشبینیشده است، مجموع همه احتمالات 1 خواهد بود. اگر بخواهم به قیمتهای بنگاهها برای مسابقه اسبسواری نگاه کنم، آنها چیزی شبیه به این خواهند بود: `3.9، 5.4، 3.95 , 6.7, 9, 14` اگر مجموع احتمالات برنده شدن هر اسب را در نظر بگیریم، چیزی شبیه به این بدست می آوریم: `1/3.9 + 1/5.4 + 1/3.95 + 1/6.7 + 1/9 + 1/14 = 1.027` به دلیل دور زدن شرطبندی، شانس بیش از 1 است. این برای من مشکلساز است، زیرا باید شانسهای ارائهشده در شرطبندی و احتمال مدل خود را با هم مقایسه کنم تا تعیین کنم آیا شرطبندی ارزشی دارد یا خیر. برای مقایسه دقیق آنها باید یکی از این موارد را انجام دهم: 1. حذف اضافه از قیمت های بنگاه ها (احتمال ها را کاهش دهید) 2. خروجی مدل من را به گونه ای افزایش دهم که از نظر تئوریک این کار را به طور دقیق انجام دهم. از دید؟ من معتقدم که انجام این کار به صورت خطی - اعمال یک فاکتور برای هر اسب - نادرست است. من معتقدم که هر اسب باید درصدی از دور راند را بر اساس شانس برنده شدن خود انجام دهد، اسب هایی که احتمال بیشتری برای برنده شدن دارند باید نسبت بیشتری از دور راند را بگیرند. این درست تر به نظر می رسد؟ با تشکر از کمک شما. | چگونه می توان شانس واقعی را از قیمت های شرط بندی بدست آورد؟ حذف overround |
99090 | مدل رگرسیون پانل دو دوره ای: * $Y_{it}=\beta_0\delta_{t2} + \beta_1X_{it} +\alpha_i + \epsilon_{it}$ Where * $t=1, 2$ * $i= 1,...,n$ واحدهای مقطعی ترسیم شده از طریق نمونه گیری تصادفی را نمایه می کند. * $\alpha_i$ یک اثر مشاهده نشده خاص برای فرد است. * $\delta_i=1$ اگر $t=2$; $0$ if $t=1$ به عبارت دیگر: * $Y_{i1}=\beta_1X_{i1} +\alpha_i + \epsilon_{i1}$ * $Y_{i2}=\beta_0 + \beta_1X_{i2} + \alpha_i + \epsilon_{i2}$ اکنون برای تخمینگر تفاضل اول $\hat{\beta_1}^{FD}$ برای سازگاری، باید برون زایی دقیق را فرض کرد: * $E[\epsilon_{it}|X_{i2}، X_{i1}]=0$ برای $t=1، 2$ برای برآوردگر OLS ادغام شده $\hat{ \beta_1}^{POLS}$ برای سازگاری، باید برون زایی ضعیف را فرض کرد: * $E[u_{it}|X_{it}]=0$ که در آن $u_{it}=\alpha_i + \epsilon_{it}$ میدانم که $\hat{\beta_1}^{POLS}$ کمتر از $\hat{\beta_1}^{FD}$ خواهد بود زیرا $u_ {it}=\alpha_i + \epsilon_{it}$ بهصورت سریالی همبستگی دارد، اما **آیا لزوماً چنین است که تخمینگرهای تفاضل اول همیشه برتر از برآوردگرهای OLS ادغام شده؟** مطمئناً فرض برونزایی دقیق در مورد اولین تفاوتها این احتمال را که X$$ ممکن است بر $Y$ تأثیر دائمی داشته باشد و در نتیجه باعث سوگیری $\hat{\beta_1}^{FD}$ باشد را رد میکند؟ به عبارت دیگر، اگرچه فرض برونزایی ضعیف باعث میشود $\hat{\beta_1}^{POLS}$ ناکارآمد باشد، آیا ممکن است فرض برونزایی دقیق $\hat{\beta_1}^{FD}$ را سوگیری کند؟ **معادل بین برون زایی شدید و ضعیف وجود دارد.** | تفاوت های اول در مقابل OLS ادغام شده |
3337 | پس از خواندن یکی از «نکات پژوهشی» R.J. Hyndman در مورد اعتبار متقاطع و سری های زمانی، من به یک سوال قدیمی خود برگشتم که سعی می کنم در اینجا فرموله کنم. ایده این است که در مسائل طبقه بندی یا رگرسیون، ترتیب داده ها مهم نیست، و از این رو می توان از اعتبار سنجی متقاطع _k_-fold استفاده کرد. از سوی دیگر، در سری های زمانی، ترتیب داده ها بدیهی است که اهمیت زیادی دارد. با این حال، هنگام استفاده از یک مدل یادگیری ماشینی برای پیشبینی سریهای زمانی، یک استراتژی رایج این است که سری {y_1، ...، y_T} را به مجموعهای از «بردارهای ورودی-خروجی» تغییر شکل دهیم که برای مدت زمان t دارای شکل هستند. (y_{t-n+1}، ...، y_{t-1}، y_{t}؛ y_{t+1})، با عرض پوزش برای نماد latex-sy. حال، هنگامی که این تغییر شکل انجام شد، آیا میتوانیم در نظر بگیریم که مجموعه «بردارهای ورودی-خروجی» بهدستآمده نیازی به ترتیب ندارد؟ برای مثال، اگر از یک شبکه عصبی پیشخور با n ورودی برای «یادگیری» این دادهها استفاده کنیم، بدون توجه به ترتیبی که بردارها را به مدل نشان میدهیم، به نتایج یکسانی میرسیم. و بنابراین، آیا میتوانیم از اعتبارسنجی متقاطع k-fold به روش استاندارد استفاده کنیم، بدون اینکه نیازی به جاسازی مجدد مدل در هر بار باشد؟ ببخشید اگر این سوال احمقانه به نظر می رسد یا قبلاً در سایت پاسخ داده شده است (من نتوانستم آن را پیدا کنم). با تشکر | ترتیب سری های زمانی برای یادگیری ماشین |
114980 | چگونه می توان معنی داری را با 3 گروه از نمونه های ناهموار محاسبه کرد؟ | چگونه می توان معنی داری را با 3 گروه از نمونه های ناهموار محاسبه کرد؟ |
90722 | من چهار مجموعه نسبتاً کوچک داده تحت پنج شرایط مختلف دارم. برای هر مجموعه ای از داده ها می خواهم ببینم که آیا تفاوت بین شرایط از نظر آماری معنی دار است یا خیر. دو مجموعه اول با بازرسی بصری (هیستوگرام) کمترین توزیع نرمال را دارند، در حالی که دو مجموعه دوم تقریباً به طور معمول توزیع شده اند، با چند قله خارج از تابع گاوسی. همه مجموعه داده ها در آزمون کولموگروف-اسمیرنوف و آزمون t شکست می خورند، اما در آزمون نیکویی برازش مجذور کای موفق می شوند. نمودار چندک برای اولین و آخرین مجموعه در زیر رسم شده است، که همچنین توزیع تقریباً نرمال را برای مجموعه های بهتر پیشنهاد می کند (به اندازه کافی خطی است یا باید 45 درجه باشد؟): set1:  مجموعه 4:  مقادیر p برای یک ANOVA و Kruskal-Wallis برای چهار مجموعه داده عبارتند از: ANOVA Kruskal Wallis set 1 3.21e-07 5.31- 05 مجموعه 2 1.23e-06 1.04e-04 مجموعه 3 3.39e-11 1.18e-16 مجموعه 4 1.31e-23 7.20e-17 نتیجه آن تست ها نشان می دهد که من با بازرسی بصری متوجه شدم که مجموعه ها به طور معمول از مجموعه 1 تا 4 بیشتر و بیشتر توزیع می شوند. اما در تحقیقات و نمونه های دیگر من به طور کلی مقادیر p را در مثلاً می بینم. ~ 0.00X. این مقادیر ناچیز هستند! با توجه به اینکه مجموعه دادهها در تستهای نرمال بودن شکست خوردهاند، غیرقابل درک به نظر میرسد. آیا این دلیلی برای نگرانی است؟ با توجه به این نتایج، آیا من برای اجرای ANOVA و ترسیم فواصل اطمینان، صرف نظر از اینکه آزمون t و آزمون کولموگروف- اسمیرنوف ناموفق بودهام، موجه است؟ من می دانم که ANOVA نسبت به توزیع های غیر عادی نسبتا قوی است، اما آیا اطلاعات من خیلی دور است؟ ویرایش: نتایج آزمونهای t برای اولین و آخرین مجموعه طبق درخواست: t-test: مجموعه 1 شرط 1 2 3 4 5 H 1 1 1 1 1 P (1e-09 *) 0.0000 0.0007 0.5115 0.0000 0.0007 مجموعه 4 شرط 3 4 5 H 1 1 1 1 1 P (1e-11 *) 0.0000 0.0000 0.0000 0.1729 0.0000 | آیا ANOVA بسیار پایین و مقادیر p Kruskal Wallis دلیلی برای شک به نتایج هستند؟ |
104923 | من به دنبال یک نمونه کار از یک مدل بیزی MCMC (برای JAGS و غیره) هستم که تغییرات تصادفی، از یک توزیع معین با پارامترهای ناشناخته، تنها از طریق مقادیر CDF آنها مشاهده میشود. به عنوان مثال، با توجه به x ~ گاما (شکل، مقیاس)، ما فقط جفت های {x, CDF(x)} را مشاهده می کنیم. آیا کسی می تواند به من به مثالی از این با کد شبه اشاره کند؟ من تا به امروز چیزی به جز برخی ارجاعات به رگرسیون کمی پیدا نکرده ام که مدلی که من دنبال آن هستم نیست. من به دنبال راهی معتبر برای استفاده از CDF به احتمال زیاد به جای PDF هستم. توضیح: این موردی نیست که، به عنوان مثال، دو مقدار CDF مشاهده شده به طور کامل دو پارامتر ناشناخته را تعیین کنند. فرض بر این است که مقادیر CDF مشاهده شده نامشخص و پارامترهای مدل ناشناخته هستند. در صورت امکان، من میخواهم مجموعه مقادیر CDF مشاهدهشده، پسین پارامترهای مدل را به همان شکلی که مجموعهای از تغییرات تصادفی آن را پیدا میکند، زمانی که احتمال حاصلضرب مقادیر PDF است، پیدا کند. من فکر کردم که ممکن است راهی برای استفاده از CDF در ضریب احتمال به جای PDF وجود داشته باشد. | مدل MCMC از مقادیر CDF؟ |
106405 | همه متغیرهای کنترل وجود داشتند زیرا آنها بر متغیرهای وابسته در مطالعات قبلی تأثیر داشتند. با این حال، در مجموعه داده من، همه ناچیز هستند و تأثیرات اصلی را تحت تأثیر قرار نمی دهند. آیا باید همه آنها را حذف کنم؟ مطمئن نیستم این یعنی چی..... p.s. من PLS و رگرسیون استاندارد را امتحان کردم و نتایج مشابه هستند. به سلامتی | اگر همه متغیرهای کنترلی ناچیز باشند و هیچکدام بر اثرات اصلی تأثیر نگذارند چه باید کرد؟ |
108059 | من سعی میکنم مدلهای فاکتورسازی ماتریسی را برای سیستمهای توصیهگر بفهمم و همیشه «ویژگیهای پنهان» را میخوانم، اما این به چه معناست؟ من می دانم که یک ویژگی برای مجموعه داده آموزشی به چه معناست، اما نمی توانم ایده ویژگی های پنهان را درک کنم. هر مقاله ای در مورد موضوعی که می توانم پیدا کنم خیلی کم عمق است. ویرایش: اگر حداقل می توانید به من برخی از مقالاتی که این ایده را توضیح می دهند اشاره کنید. | معنی ویژگی های نهفته؟ |
106403 | من یک جنگل بقا تصادفی با استفاده از بسته R randomForestSRC ساختهام. میزان خطای OOB حدود 10 درصد است. میپرسیدم آیا کسی تجربهای در استفاده از خروجیهای این مدل برای تولید «زمان بقای آینده پیشبینیشده» دارد؟ با تشکر | بهترین راه برای محاسبه زمان بقا با استفاده از خروجی های جنگل بقا تصادفی چیست |
3331 | من داده های فروش یک سری از فروشگاه ها را دارم و می خواهم آنها را بر اساس شکل منحنی هایشان در طول زمان دسته بندی کنم. دادهها تقریباً به این شکل به نظر میرسند (اما بدیهی است که تصادفی نیستند، و دادههای کمی دارند): n.quarters <- 100 n.stores <- 20 if (exists(test.data)){ rm(test.data ) } برای (i در 1:n.stores){ فاصله <- runif(1, 1, 200) new.df <- data.frame( var0 = فاصله + c(0، cumsum(runif(49، -5، 5)))، date = seq.Date(as.Date(1990-03-30)، by=3 month، طول. out=n.quarters), store = rep(paste(Store, i, sep=), n.quarters)) if (exists(test.data)){ test.data <- rbind(test.data, new.df) } else { test.data <- new.df } } test.data$store <- factor(test.data$store) میخواهم بدانم چگونه میتوانم بر اساس _شکل_ منحنی ها در R. من روش زیر را در نظر گرفته بودم: 1. با تبدیل خطی var0 هر فروشگاه به مقداری بین 0.0 و 1.0 برای کل سری زمانی 2. این منحنی های تبدیل شده را با استفاده از بسته 'kml' در R خوشه بندی کنید. من دو سوال دارم: 1. آیا این یک رویکرد اکتشافی معقول است؟ 2. چگونه می توانم داده های خود را به قالب داده های طولی که `kml` درک می کند تبدیل کنم؟ هر قطعه R بسیار قدردانی می شود! | آیا می توان خوشه بندی سری های زمانی را بر اساس شکل منحنی انجام داد؟ |
90726 | کدام نوع مفهوم / مدل یادگیری ماشین در 20 سوال استفاده می شود؟ آیا این نوع چیزها به بهترین وجه توسط یک شبکه عصبی حل می شود؟ کجا می توانم چیزی در مورد آن بخوانم؟ | 20 سوال از چه مدلی استفاده می کند؟ |
3338 | من از یک الگوریتم ژنتیک برای تولید رشتهای استفاده میکنم که نتایج خاصی را تولید میکند و من در نمودار خطی/میلهای ترسیم میکنم. من سعی میکنم نتایج حاصل از رشته ژنتیکی را با نموداری که به صورت دستی تولید کردهام مقایسه کنم. در حال حاضر من نمودارها را با هم مقایسه میکنم تا مساحت تفاوت بین این دو را پیدا کنم و درصدی را دریافت کنم که نشاندهنده جایی است که بین 0 اختلاف قرار دارد و در بدترین حالت تفاوت در جایی که اصلاً همپوشانی ندارند. اگرچه من احساس نمیکنم این رتبهبندی واقعاً نشاندهنده این است که چقدر شکل با دیگری مطابقت دارد. از آنجایی که این چیزی است که من را بیشتر نگران می کند، زیرا دو نتیجه متفاوت می توانند از نظر مساحت تفاوت یکسانی داشته باشند، اما ممکن است یکی شکل نزدیکتر از دیگری باشد، و من دوست دارم که شکل نزدیکتر امتیاز بالاتری داشته باشد! سوال من این است که آیا روش استانداردی برای رتبه بندی نمودارها وجود دارد که بتوانم درصدی از تطابق یکی از آنها با دیگری را بدست بیاورم و آیا می توانید روش انجام این کار را ارائه دهید؟ | رتبه بندی اینکه یک نمودار چقدر نزدیک به نمودار دیگر مدل می کند |
79294 | یک دانشگاه مدارک تحصیلی را در زمینه های زیر ارائه می دهد: مهندسی هنر/علوم بازرگانی علوم کامپیوتر دانشجویان سال اول ورودی برای رشته های هنر، علوم، مهندسی، بازرگانی و علوم کامپیوتر به نسبت تقریبی درخواست می دهند. 5:6:6:8. اما بسیاری از دانشجویان در طول دوره تحصیل تغییر رشته می دهند. مسئولان دانشگاه علاقه مندند تا مشخص کنند که آیا توزیع رشته ها در بین دانشجویان فارغ التحصیل با دانشجویان ورودی متفاوت است یا خیر. آنها یک نمونه تصادفی از 200 دانشجوی فارغ التحصیل را انتخاب کردند و آنها را بر اساس رشته خود طبقه بندی کردند. توزیع دانشجویان مقطع کارشناسی ارشد در این نمونه در جدول آورده شده است: رشته مهندسی علوم/رشته علوم کامپیوتر بازرگانی تعداد دانشجویان: 60 30 60 50 آیا توزیع رشته ها در بین دانشجویان مقطع کارشناسی ارشد با دانشجویان ورودی متفاوت است؟ | چگونه می توان آزمایش کرد که آیا توزیع رشته ها در بین دانش آموزان مقطع کارشناسی ارشد با دانشجویان ورودی متفاوت است؟ |
114986 | من یک مجموعه داده کوچک (n=74) با +/- 50 متغیر دارم، بهترین داده نیست، اما باید با آن کار کنم. از متغیرها برای انتخاب محصول استفاده می شود. من میخواهم تعیین کنم که کدام متغیر یا متغیرها برای پیشبینی نتیجه کارآمدترین هستند. وابسته (Y) دارای دو مقدار است (انتخاب نشده = 0؛ انتخاب شده = 1)، داده ها از چند خطی بودن رنج می برند (رگرسیون Ridge log. گزینه ای نیست، برای بسیاری از متغیرها، مجموعه داده کوچک). تا آنجا که من می دانم ابزارها/تکنیک های آماری _no_ وجود دارد که می تواند با این موضوع مقابله کند، بنابراین فکر کردم احتمال شرطی را برای ترکیب های مختلف متغیرها پیش بینی کنم. به عنوان مثال: $$ P(Y=1|X_1=1 \cap X_2=1 \cap X_3=0) $$ Q1) آیا با توجه به مشکلات مجموعه داده، راه بهتری برای انتخاب متغیرهای کارآمد وجود دارد؟ و Q2) آیا بسته R وجود دارد که بتواند مثال P(y=1|و غیره)) را انجام دهد؟ متشکرم. | تعیین کنید که کدام متغیر یا متغیرها برای پیش بینی نتیجه کارآمدتر هستند |
58310 | سوال من این است که آیا می توانم از یک اندازه افکت $X$ به عنوان متغیر وابسته و دیگری با اندازه افکت $Y$ به عنوان متغیر مستقل در یک متارگرسیون استفاده کنم؟ به عنوان مثال، من یک متاآنالیز برای اثرات ورزش در مشکلات نوشیدن انجام دادم و به نتایج قابل توجه و ناهمگنی بالایی رسیدم. من می خواهم یک متارگرسیون انجام دهم و از اندازه تأثیر آن مداخلات در اضطراب به عنوان یک متغیر مستقل و اندازه تأثیر مشکلات نوشیدن به عنوان متغیر وابسته استفاده کنم (با فرض اینکه هر مطالعه هم اضطراب و هم مشکلات نوشیدن را ارزیابی کرده باشد و من تأثیر آن را محاسبه کنم. اندازه ها به عنوان $g$ هجز). آیا این برای شما منطقی است؟ | آیا می توانم اندازه اثر را به عنوان یک متغیر مستقل در یک متارگرسیون در نظر بگیرم؟ |
90164 | من موارد زیر را در یادگیری ماشین خواندم: یک دیدگاه احتمالی:  حرکت قبلی یکنواخت چگونه می تواند به معنای عقب باشد؟ آیا قرار نیست توزیع یکنواخت نتیجه را تعصب نداشته باشد؟ آیا نمونه دیگری وجود دارد که در آن این اتفاق می افتد؟ **توجه:** در سوال اصلی من پاراگراف را اشتباه خوانده بودم. بر این اساس سوال را رفع کردم. | چگونه یک لباس قبلی می تواند معنای خلفی را با MLE متفاوت کند؟ |
58319 | آیا توسعهای از مدل خطی تعمیم یافته وجود دارد که بتواند بیش از یک پارامتر از یک توزیع را به طور همزمان تخمین بزند (با استفاده از حداکثر احتمال). به عنوان مثال، من می دانم که برای یک توزیع گاما با پارامتر شکل $k$ و پارامتر مقیاس $\theta$، یک GLM می تواند ماتریس ضریب $\beta$ را برای پیش بینی $\theta$ از متغیرهای کمکی، پاسخ ها، و $k تخمین بزند. $. آیا راهی برای تخمین هر دو پارامتر به عنوان یک ترکیب خطی از متغیرهای پیش بینی وجود دارد؟ در فصل 10 مدلهای خطی تعمیمیافته (McCullagh & Nelder، 1989)، فصل 10 به مدلسازی مشترک میانگین و پراکندگی از متغیرهای کمکی میپردازد. با این حال، آنها در مورد یک الگوریتم کلی برای انجام این کار به جزئیات نمی پردازند. | مدل خطی تعمیم یافته که چندین پارامتر را به طور همزمان تخمین می زند |
58312 | من تعدادی سریال دارم که معمولاً به عنوان کج معمولی یا توزیع گاما توصیف می شوند. به عنوان مثال، بگویید من گروهی از مشتریان دارم و هزینه های آنها را در مدت زمان مشخصی محاسبه کرده ام. سپس یک هیستوگرام ایجاد میکنم تا توزیع هزینهها را ببینم و یک دنباله بسیار بلند را برای گروه کوچکی از افراد پرمصرف پیدا کنم. سوال من این است که از آنجایی که من میخواهم این هزینهکنندگان بالا را شناسایی کنم، آیا روشهایی برای بررسی تجربی توزیع مقادیر و تقریبی نقطهای که در آن توزیع به دم دراز تبدیل میشود برای ایجاد برش در دادهها وجود دارد؟ من به دنبال بررسی هیستوگرام برای یافتن دم بلند نیستم. فقط به دنبال یک روش ثابت برای برش سیستماتیک داده ها هستید. | چگونه می توانم بخش دم بلند توزیع خود را شناسایی کنم؟ |
213 | فرض کنید من مجموعه بزرگی از داده های چند متغیره با حداقل سه متغیر دارم. چگونه می توانم نقاط پرت را پیدا کنم؟ نمودارهای پراکنده زوجی کار نمی کنند زیرا ممکن است یک نقطه پرت در 3 بعد وجود داشته باشد که در هیچ یک از زیرفضاهای دو بعدی پرت نباشد. من به مشکل رگرسیون فکر نمی کنم، بلکه به داده های چند متغیره واقعی فکر می کنم. بنابراین پاسخ هایی که شامل رگرسیون قوی یا اهرم محاسباتی است مفید نیستند. یکی از امکانها این است که نمرات مؤلفه اصلی را محاسبه کنیم و در نمودار پراکندگی دو متغیره دو امتیاز اول به دنبال یک نقطه پرت بگردیم. آیا تضمین می شود که کار کند؟ آیا رویکردهای بهتری وجود دارد؟ | بهترین راه برای شناسایی نقاط پرت در داده های چند متغیره چیست؟ |
79295 | من روی یک مجموعه داده پیشگیری از تقلب کار می کنم.. و در حال ساخت یک طبقه بندی کننده باینری هستم. مشکل این است که مجموعه داده بسیار کج است (همانطور که انتظار می رود) ... فقط 5٪ از نمونه ها به عنوان تقلب برچسب گذاری شده اند. گوگل کمی کمک کرد.. به نظر می رسد که جنگل تصادفی کار می کند، اما من پارامترها را درک نمی کنم (sampsize و classwt (حدس می زنم))... فرض کنید من دو فریم داده دارم.. آموزش و آزمایش.. کسی می تواند به من بگوید چگونه می توانم برای شروع ارزیابی این چارچوب، تابع randomForest را فراخوانی کنیم؟ همچنین، در مورد سایر الگوریتمهای طبقهبندی چطور؟ با تشکر | آموزش مقابله با طبقه بندی باینری نامتعادل در R? |
59404 | در مورد جملاتی در کتاب معادلات ساختاری با متغیرهای پنهان (بولن) در صفحه 132 (پایین) و صفحه 133 (بالا) در رابطه با pdf توزیع نرمال چند متغیره سوالی دارم. می گوید: در استخراج $F_{ml}$، مجموعه N مشاهدات مستقل از متغیرهای تصادفی چند نرمال y و x هستند. اگر y و x را در یک بردار واحد (p+q) x 1 z ترکیب کنیم که z از امتیازهای انحراف تشکیل شده است، تابع چگالی احتمال آن است ... در فرمول pdf ماتریس $\Sigma$ و معکوس آن را پیدا می کنید. $\Sigma^{-1}$. برای اینکه بتوانید z را با $\Sigma$ ($\Sigma^{-1}$) ضرب کنید، $\Sigma$ باید ماتریس درجه دوم p+q باشد. عناصر $\Sigma$ (واریانس ها و کوواریانس ها) به کدام متغیرهای تصادفی تعلق دارند؟ پیشاپیش از شما متشکرم | pdf توزیع نرمال چند متغیره |
100963 | همچنین تا حدی علاقه مند به استفاده از حداقل مربعات بدون وزن و سایر روش های کمتر رایج هستم. به من ML به عنوان پیش فرض آموزش داده شده است اما به تازگی CFA را انجام داده ام و تناسب مدل در GLS بهتر از ML بوده است. آیا این برای نشان دادن اینکه باید از GLS استفاده کنم کافی است؟ اگر نه، چه چیزی برای نشان دادن اینکه باید از GLS استفاده کنم کافی است؟ من مشکل خاصی با نرمال بودن تک متغیره یا چند متغیره ندارم. | در CFA، چه زمانی باید تخمین ML ارجح باشد و چه زمانی GLS ارجح است؟ |
91612 | من اساس آماری خیلی رسمی ندارم، پس ببخشید اگر این خیلی منطقی نیست. اما: تفاوت بین استفاده از توزیع t برای ایجاد فواصل اطمینان برای نمونه های کوچک در مقابل استفاده از فواصل اطمینان امتیاز ویلسون چیست؟ آیا حتی می توان از هر دوی آنها برای این منظور استفاده کرد یا من یکی (یا هر دو) را اشتباه متوجه شده ام؟ آیا فواصل t در موقعیت های خاص و فواصل ویلسون در موقعیت های دیگر مناسب تر هستند؟ * * * صرفاً برای تأیید درک من، با توجه به $$\bar{x} = \frac{x_1 + \cdots + x_n}{n}$$، اگر باور داشته باشیم $x_i \sim\mathcal{ از فاصله t-score استفاده میکنیم. N}(\mu,\sigma^2)$، و اگر باور کنیم $x_i \sim \mathcal{B}(1,p)$ از بازه Wilson استفاده می کنیم؟ | فاصله اطمینان آماره t در مقابل فاصله اطمینان نمره ویلسون |
108051 | من سعی می کنم یک رگرسیون پروبیت را با استفاده از داده های پانل در R اجرا کنم، ابتدا احتمال log را محاسبه کرده و سپس از تابع 'optim' برای بهینه سازی استفاده می کنم. 1. مقیاس متغیرهای پیش بینی کننده: متغیرهای پیش بینی کننده ای که من دارم در مقیاس قابل توجهی متفاوت هستند. برخی از متغیرها در ده و برخی در 000 هستند. وقتی میخواهم تابع «optim» را اجرا کنم، اغلب این پیام خطا را میدهد: «vmmin محدود نیست». بنابراین در انتخاب مقادیر اولیه باید نهایت دقت را به خرج دهم. و برخی از این مقادیر اولیه به کوچکی 0.0001 هستند. آیا این استاندارد در پروبیت است؟ یا اینکه قبل از استفاده از پروبیت باید متغیرهای پیش بینی کننده را نرمال سازی کنیم؟ 2. من چند متغیر دارم که در کد تخمین محاسبه می شوند، به عنوان مثال، برخی از پارامترهایی که تخمین زده می شوند برای محاسبه این متغیرهای کمکی داخلی استفاده می شوند. وقتی من مدل کامل را با تمام پارامترهای داخلی اجرا میکنم، تابع 'optim' یک ماتریس Hessian منفرد را به من میدهد. باز هم، من مطمئن نیستم که تکینگی هسی دلالت بر چه چیزی دارد. وقتی متغیرهای کمکی داخلی را یکی یکی اضافه می کنم، هسی مفرد نیست. آیا کسی قبلا با چنین مشکلاتی مواجه شده است؟ لطفا راهنمایی کنید. | رگرسیون پروبیت در R که ماتریس هسین منفرد را می دهد |
60288 | من میخواهم تخمینهای MLE میانگین و واریانس یک فرض توزیعی Weibull را از یک نمونه معین محاسبه کنم. در حال حاضر، دو پارامتر و سه پارامتر توزیع ویبول وجود دارد. چگونه می توانم بدانم که کدام یک انتخاب بهتر است؟ من می توانم ببینم که توزیع دو پارامتری به طور کلی می تواند بیشتر برای پراکندگی باشد. | MLE: دو پارامتر یا سه پارامتر Weibull؟ |
29627 | من در جایی دیده ام که فاصله های کلاسیک (مانند فاصله اقلیدسی) زمانی که داده های چند بعدی و پراکنده داشته باشیم، ضعیف می شوند. چرا؟ آیا نمونه ای از دو بردار داده پراکنده دارید که در آن فاصله اقلیدسی عملکرد خوبی ندارد؟ در این صورت از کدام شباهت استفاده کنیم؟ | فاصله اقلیدسی معمولا برای داده های پراکنده خوب نیست؟ |
104921 | من یک شتابسنج سهمحوره روی انگشت اشارهام نصب کردهام و میخواهم در زمان واقعی تشخیص دهم که روی صفحه لمسی ضربه میزند و ضربهی انگشت وسط. برای این کار من دادههای شتابسنج را در یک پنجره زمانی که ضربه روی صفحه لمسی تشخیص داده میشود، میگیرم. مشکل این است که داده ها به وضوح این دو مورد را از هم متمایز نمی کنند، زیرا حتی زمانی که انگشت وسط ضربه نمی زند، هنگامی که انگشت اشاره به ضربه زدن می رود، حرکت رو به پایین را دنبال می کند. همچنین وابستگی هایی به این وجود دارد که آیا انگشت اول و دوم به طور متناوب یا همان انگشت دوباره و دوباره حرکت می کنند. من در این زمینه تازه کار هستم و نمی توانم بفهمم چگونه می توانم در مورد تجزیه و تحلیل اقدام کنم. اول از همه، دقیقاً چگونه باید شتاب سنج را نصب کنم تا واضح ترین اطلاعات را به من بدهد؟ - به عنوان مثال، اگر من آن را شل نصب کنم، ممکن است هنگام ضربه زدن بیشتر تکان بخورد، اما ممکن است نویز بیشتری نیز ایجاد کند. ثانیا، آیا باید سعی کنم داده ها را با مقادیر فاصله یکپارچه کنم یا آن را در تبدیل فوریه قرار دهم؟ ثالثاً، اگر من نیاز به استفاده از یادگیری ماشین (decision tree/svm و غیره) داشته باشم، کدام ویژگی بیشتر به من کمک می کند؟ فقط چیزهای زیادی برای امتحان کردن وجود دارد و من نمی توانم هر احتمالی را به موقع کدنویسی کنم - برخی راهنمایی ها کمک خواهد کرد. | چگونه می توان داده های شتاب سنج سه محوری را برای ضربه های انگشتی در زمان واقعی پردازش کرد؟ |
31171 | آنچه من می خواهم بدانم استفاده دقیق از هر دو آمار است -- میانگین نمونه و میانگین نمونه های مختلف. من با علامت گذاری در کتاب درسی ام کمی گیج می شوم و گاهی اوقات نمی توانم تمایز واضحی بین هر دو آمار قائل شوم. به عنوان مثال، هنگامی که ما در مورد متغیرهای Xi (i=1،2...) از یک جمعیت که به توزیع نرمال نزدیک می شود صحبت می کنیم، می توانم فرض کنم که در مورد نمونه های مختلفی از یک جامعه صحبت می کنیم که به توزیع نرمال نزدیک می شود؟ خوشحال می شوم اگر کسی بتواند تفاوت واضحی در استفاده از هر دو آمار به من بدهد (تمایز واریانس در هر دو رویکرد نیز خوب است) و ویژگی های آن. با تشکر o/ | درباره میانگین نمونه و میانگین نمونه های مختلف |
58315 | من میخواهم مهمترین پیشبینیکنندههای یک متغیر وابسته دو جملهای را از میان مجموعهای از بیش از 43000 متغیر مستقل پیدا کنم (اینها ستونهای مجموعه داده ورودی من را تشکیل میدهند). تعداد مشاهدات بیش از 45000 است (اینها ردیف های مجموعه داده ورودی من را تشکیل می دهند). بیشتر متغیرهای مستقل تکگرم، بیگرام و سهگرام کلمات هستند، بنابراین میزان همخطی بالایی در بین آنها وجود دارد. در مجموعه داده من نیز پراکندگی زیادی وجود دارد. من از رگرسیون لجستیک بسته glmnet استفاده می کنم که برای نوع مجموعه داده ای که دارم کار می کند. در اینجا تعدادی کد وجود دارد: داده های library('glmnet') <- read.csv('datafile.csv', header=T) mat = as.matrix(data) X = mat[,1:ncol(mat)-1] y = mat[,ncol(mat)] fit <- cv.glmnet(X,y, family=binomial, type.measure = class) betacoeff = as.matrix(fit$glmnet.fit$beta[,ncol(fit$glmnet.fit$beta)]) betacoeff بتای همه متغیرهای مستقل را برمیگرداند. من به این فکر می کنم که پیش بینی کننده های مربوط به 50 نسخه بتای برتر را به عنوان مهم ترین پیش بینی کننده ها نشان دهم. سوالات من عبارتند از: 1. glmnet یک پیش بینی کننده خوب را از میان تعدادی پیش بینی کننده خوب با همبستگی بالا انتخاب می کند. بنابراین مطمئن نیستم که چقدر میتوانم به نسخههای بتای بازگردانده شده توسط اجرای مدل بالا اعتماد کنم. 2. آیا باید به صورت دستی از داده ها نمونه برداری کنم (مثلاً 10 بار) و هر بار که مدل فوق را اجرا کنم، لیستی از پیش بینی کننده ها را با بتای برتر دریافت کنم و سپس آنهایی را که در هر 10 تکرار وجود دارند پیدا کنم؟ آیا روش استانداردی برای انجام این کار وجود دارد؟ روش استاندارد نمونه گیری در این مورد چگونه است؟ 3. سوال دیگر من در مورد cvm (خطای اعتبار متقاطع) است که توسط مدل بالا برگردانده شده است. از آنجایی که من از type.measure = class استفاده می کنم، cvm خطای طبقه بندی اشتباه را برای مقادیر مختلف لامبدا می دهد. چگونه خطای طبقه بندی اشتباه را برای کل مدل گزارش کنم؟ آیا cvm مربوط به lambda.min است؟ | چگونه مهمترین پیش بینی کننده ها را با استفاده از glmnet گزارش کنیم؟ |
114982 | شبه درستنمایی راهی عالی برای استفاده از حداقل مربعات دارای وزن تکراری برای تطبیق مدل های خطی خطی با یک کلاس احتمالات بسیار کلی به نظر می رسد. اما آن کلاس چیست؟ بدیهی است که توزیع باید دارای یک میانگین محدود و یک واریانس باشد که بتوان آن را تابعی از آن میانگین بیان کرد. آیا مواردی وجود دارد که چنین تابع واریانسی وجود نداشته باشد؟ برای معتبر بودن این روش، احتمال چه محدودیتهای دیگری را باید رعایت کند؟ | چه ویژگی های تابع درستنمایی برای تخمین شبه درستنمایی مورد نیاز است؟ |
79291 | مشکل هموارسازی spline $$ RSS(\theta,\lambda)=(y-N\theta)^T(y-N\theta)+\lambda\theta^T\Omega_N\theta $$ که در آن $\\{N\\} است. _{ij}=N_j(x_i)$، $N_j(x)$ مجموعهای $N$-بعدی از توابع پایه هستند. ${\Omega}_{jk}=\int N_j^{''}(t)N_k^{''}(t)dt$ راه حل $$ \hat{\theta}=(N^TN+\lambda است \Omega_N)^{-1}N^Ty $$ اجازه دهید $S_\lambda=N(N^TN+\lambda\Omega_N)^{-1}N^T$. بنابراین، $\hat{f}=N\theta=S_{\lambda}y$. **میخواهم بدانم فرمول زیر LOOCV (یکی از اعتبارسنجی متقاطع را کنار بگذارید) برای هموارسازی اسپلاین از کجا آمده است.** $$ CV(\hat{f}_{\lambda})=\frac{1}{N }\sum_{i=1}^{N}(y_i-\hat{f}_{\lambda}^{(-i)}(x_i))^2 =\frac{1}{N}\sum_{i=1}^{N}\left(\frac{y_i-\hat{f}_{\lambda}(x_i)}{1-S_{\lambda} (i,i)}\right)^2 $$ که در آن $\hat{f}_{\lambda}^{(-i)}$ تابع منطبق با I'th نمونه داده حذف شده است، $S_\lambda(i,i)$ من عنصر مورب ith از $S_\lambda$ است. جزئیات بیشتر، لطفاً به Element of Statistical Learning II، فصل 5.4-5.5 مراجعه کنید. http://statweb.stanford.edu/~tibs/ElemStatLearn/ متشکرم. | LOOCV برای صاف کردن اسپلاین |
73845 | برای نشان دادن مواردی که $Cov(X_1, X_2) = 0$ به یک مثال عددی نیاز دارم. آیا می توانید مثال هایی را در مورد توابع یا ماتریس ها در نظر بگیرید؟ | مثال عددی $Var(X_1 + X_2) = Var(X_1) + Var(X_2)$ چیست؟ |
70891 | من مجموعهای از دادههای جفتی دارم که میخواهم آزمایش t را انجام دهم تا ببینم آیا میانگین تفاوتها برابر با 0 است. باشد؟: AM = c(1,5,4,2,6,6, 7, 11,5,3,4,5,8,3,4,5,7,7,4,5) PM = c(4,5,5,8,9,10,12,15,4,8,6,6,9,5,9,8,7,8,7,6) data.frame(AM,PM, row.names=paste(Student,1:20)) چه تفاوتی بین: d = PM-AM و d=AM-PM t.test(d, mu=0, alternative=greater) I' هر دو را انجام دادم و آنها به من مقادیر p مختلف بدهید. کسی می تواند به من توضیح دهد که چه تفاوت هایی دارند؟ و کدام یک برای استفاده صحیح است؟ خروجی من از این دو به ترتیب این است: داده های آزمون t یک نمونه: d t = 5.5917، df = 19، p-value = 1.079e-05 فرضیه جایگزین: میانگین واقعی بیشتر از 0 95 درصد فاصله اطمینان: 1.692384 Inf نمونه برآوردها: میانگین x 2.45 و داده های آزمون t یک نمونه: d t = -5.5917، df = 19، p-value = 1 فرضیه جایگزین: میانگین واقعی بیشتر از 0 95 درصد فاصله اطمینان است: -3.207616 برآورد نمونه Inf: میانگین x -2.45 | تفاوت AM-PM یا PM-AM برای یک آزمون T زوجی - برای آزمایش اینکه آیا میانگین تفاوت ها = 0 است؟ |
111809 | من با یک مثال خاص از چیزی که سعی در حل آن دارم شروع می کنم: من هشت توپ دارم که به طور تصادفی در چهار سطل قرار می گیرند. سطل های شماره 1-3 به ترتیب دارای ظرفیت 2، 2، 3 هستند، در حالی که سطل شماره 4 دارای ظرفیت بی نهایت است. یک سطل را نمی توان بیش از ظرفیتش پر کرد. توپ به سطلی که از قبل پر شده است پرتاب نمی شود. من می خواهم احتمال اینکه هشت توپ من سطل های شماره 1-3 را به طور کامل پر کنند محاسبه کنم. آخرین باری که ریاضی/آمار را به طور رسمی خواندم در دانشگاه بود، 7-10 سال پیش. حافظه محدود / درک ترکیبیات + احتمال من را از کار می اندازد. من یک نرم افزار هستم، بنابراین یک شبیه ساز اولیه برای مشکل نوشتم، که به نظر می رسد به من می گوید که هشت توپ من سطل های شماره 1-3 را در 18٪ مواقع پر می کند. من می خواهم بفهمم که چگونه به صورت ریاضی به مسئله نزدیک شویم. | احتمال تخصیص توپ ها به سطل هایی که هر سطل ظرفیت مشخصی دارد |
34616 | من در حال حاضر در مورد تحلیل رگرسیون و تحلیل واریانس یاد میگیرم. در تجزیه و تحلیل رگرسیون شما یک متغیر ثابت دارید و می خواهید بدانید که چگونه متغیر با متغیر دیگر حرکت می کند. در تجزیه و تحلیل واریانس شما می خواهید بدانید که به عنوان مثال: اگر این غذای حیوانی خاص بر وزن حیوانات تأثیر می گذارد ... بنابراین یکی از متغیرهای ثابت و تأثیر آنها بر روی دیگران ... درست است یا اشتباه، لطفاً به من کمک کنید ... | تفاوت بین تحلیل رگرسیون و تحلیل واریانس؟ |
108434 | من یک مدل پیشبینی برای $Y_{i,t+\tau}$ برای $\tau=1 تا 3$ با استفاده از دادههای پانل با مشاهدات شرکتی و سالی ساختم: $Y_{i,t+\tau}=a+bX_{i, t}+e_{i,t+\tau}$ و من سعی میکنم دقت مدل خود را با مقایسه آن با یک مدل پیادهروی تصادفی ساده اندازهگیری کنم: $Y_{i,t+\tau}=Y_{i,t}+e$ بهترین راه برای به دست آوردن چنین مدلی چیست و چگونه عبارت خطا را مدل کنید؟ آیا بسته ای در R موجود است؟ چگونه می توانید چنین معیاری را تنظیم کنید. همانطور که می فهمم یک مدل ساده به هیچ پارامتری متکی نیست. بنابراین آیا می توانید فقط 3 رگرسیون تلفیقی ساده را با افق های مختلف در تمام شرکت ها و سال ها انجام دهید و بر اساس ضرایبی که به دست می آورید پیش بینی ها را پیش بینی کنید؟ و آیا مدلی که رهگیری ندارد را حذف کنید یا پسرفت کنید؟ | مدل پیاده روی تصادفی ساده به عنوان معیاری برای مدل پیش بینی |
90163 | من از یک مدل خطی ترکیبی برای تجزیه و تحلیل اثر دو نوع درمان بر علائم استفاده میکنم. این دو درمان در گروههای کوچکتر (خوشهها)، و توسط چندین پزشک انجام شد، بنابراین باید خوشهبندی را در نظر بگیرم (ICC قابل توجه است). من از تفاوت در نمرات علائم از پایه به عنوان معیار نتیجه، نوع درمان و علائم پایه (برای کنترل آنها) به عنوان اثرات ثابت، و خوشه گروهی و پزشک، که در سطح 1 به عنوان موضوعات به عنوان اثرات تصادفی (برق) مشخص شده اند استفاده می کنم. . مدل من به شرح زیر است: نتیجه مخلوط شده توسط درمان با پایه_sx /معیارها=CIN(95) MXITER(500) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE(ABSOLUTE) LCONVERGE0 PCONVERGE(0.000001، ABSOLUTE) /FIXED=درمان پایه_sx | SSTYPE(3) /METHOD=REML /PRINT=G SOLUTION TESTCOV /RANDOM=INTERCEPT | SUBJECT(doctor*cluster_gr) COVTYPE(VC). به دلایلی، مدل خفه میشود (به من هشدار میدهد که ماتریس هسین مثبت نیست) و هیچ تخمینی برای اثرات تصادفی من ایجاد نمیکند. این کار برای داده های بسیار خوب از یک نقطه نتیجه متفاوت انجام می شود - تنها تفاوت این است که برخی از مشاهدات برای یک نقطه نتیجه در دسترس هستند و نه برای نقطه دیگر، اما به طور کلی تعداد مشاهدات تقریباً یکسان است. فکر نمیکنم ربطی به ساختار کوواریانس داشته باشد - انواع مختلف امتحان شده، به نظر نمیرسد مشکل را حل کند. من تقریباً آن را به نوعی مشکل در یکی از گروهها محدود کردم که احتمالاً مربوط به واریانس خوشهای است... آیا کسی با چیزی مشابه مواجه شده است یا پیشنهادی برای غلبه بر این مشکل دارد؟ | اثر تصادفی در مدل خطی مختلط SPSS |
34611 | ### TLDR: مجموعه داده من بسیار کوچک (120) نمونه است. در حین انجام اعتبارسنجی متقاطع 10 برابری، آیا باید: 1. خروجی ها را از هر فولد آزمایشی جمع آوری کنم، آنها را به یک بردار متصل کنم و سپس خطا را در این بردار کامل پیش بینی ها (120 نمونه) محاسبه کنم؟ 2. یا باید **به جای** خطای خروجی هایی را که **در هر فولد** دریافت می کنم (با 12 نمونه در هر بار) محاسبه کنم و سپس تخمین خطای نهایی خود را به عنوان میانگین تخمین های خطای 10 برابری دریافت کنم؟ آیا مقالات علمی وجود دارد که تفاوت های بین این تکنیک ها را اثبات کند؟ * * * ### زمینه: ارتباط بالقوه با امتیازات کلان/میکرو در طبقهبندی چند برچسبی: فکر میکنم این سوال ممکن است به تفاوت بین میانگینهای **میکرو** و **ماکرو** که اغلب در یک کار طبقه بندی چند برچسبی (مثلاً 5 برچسب). در تنظیمات چند برچسبی، **نمرات میانگین خرد** با ایجاد یک جدول احتمالی **تجمیع** مثبت واقعی، مثبت کاذب، منفی درست، منفی نادرست برای هر 5 پیش بینی طبقه بندی کننده در 120 نمونه محاسبه می شود. سپس از این جدول احتمالی برای محاسبه دقت میکرو، فراخوان میکرو و اندازه گیری میکرو f استفاده می شود. بنابراین وقتی 120 نمونه و پنج طبقهبندی داریم، اندازهگیریهای خرد بر روی 600 پیشبینی (120 نمونه * 5 برچسب) محاسبه میشوند. هنگام استفاده از نوع **Macro**، اندازه گیری ها (دقت، فراخوانی و غیره) **مستقل** روی هر برچسب محاسبه می شود و در نهایت، این معیارها میانگین می شوند. ایده پشت تفاوت بین تخمینهای **میکرو** و **ماکرو** ممکن است به آنچه میتوان در یک تنظیم K-fold در یک مسئله طبقهبندی باینری انجام داد تعمیم داد. برای 10 برابر، میتوانیم **میانگین** بیش از 10 مقدار (میزان اندازهگیری **ماکرو**) یا 10 آزمایش را به هم متصل کنیم و اندازههای **میکرو** را محاسبه کنیم. ### پیش زمینه - مثال گسترده: مثال زیر سوال را نشان می دهد. فرض کنید 12 نمونه آزمایشی داریم و 10 تا داریم: * **فولد 1** : **TP** = 4، **FP** = 0، **TN** = 8 **دقت** = 1.0 * **تا کردن 2**: **TP** = 4، **FP** = 0، **TN** = 8 **دقت** = 1.0 * **تا کردن 3**: **TP** = 4، **FP** = 0، **TN** = 8 **دقت** = 1.0 * **تا کردن 4**: **TP** = 0، **FP** = 12، **دقت** = 0 * **Fold 5** .. **Fold 10**: همه دارای **TP** = 0 هستند، **FP** = 12 و **دقت** = 0 که در آن از نماد زیر استفاده کردم: **TP** = # عدد مثبت واقعی، **FP** = # مثبت نادرست، **TN** = # از منفی های واقعی نتایج عبارتند از: * دقت متوسط در 10 برابر = 3/10 = ** 0.3 ** * دقت در الحاق پیش بینی های 10 برابر = TP/TP+FP = 12/12+84 = **0.125** **توجه داشته باشید که مقادیر 0.3 و 0.125 بسیار متفاوت هستند**! | میانگین (نمرات) در مقابل امتیاز (الحاق) در اعتبارسنجی متقابل |
111803 | بنابراین می دانیم که می توانیم دو جمله ای را به عنوان مجموع iid برنولی در نظر بگیریم. آیا میتوانیم به طور مشابه چند جملهای را به صورت مجموع برداری از برنولیهای وابسته بیان کنیم و توزیع مجانبی را از این طریق بدست آوریم؟ من می دانم که در اینجا یک سوال در مورد چند جمله ای مجانبی وجود دارد، اما به سادگی به یک پی دی اف پیوند می دهد که نتیجه عادی مجانبی را بدون هیچ دلیل یا توضیحی ارائه می دهد. این مفید است که بدانیم چرا نرمال مجانبی را داریم. | بیان چند جمله ای به عنوان مجموع برداری آزمایشات برنولی؟ |
111808 | من به دنبال چیزی هستم که الگوریتمی را مطابق با درختان مدل لجستیک 2003 Landwehr و همکاران پیاده سازی کند. من پیدا کردم که LMT() در بسته RWeka الگوریتم را در R پیاده سازی می کند، اما به دنبال یک کتابخانه معادل در پایتون هستم. | کدام کتابخانه در پایتون یک درخت مدل لجستیک را پیاده سازی می کند؟ |
31177 | آیا این (همیشه) درست است که $$\mathrm{Var}\left(\sum\limits_{i=1}^m{X_i}\right) = \sum\limits_{i=1}^m{\mathrm{ Var}(X_i)} \>?$$ | آیا واریانس یک مجموع با مجموع واریانس ها برابر است؟ |
43678 | من یک فرآیند تصادفی زمان گسسته دارم، که در هر بار وضعیت سیستم $X_t$ به صورت زیر داده می شود: $$ X_t = f_\theta(X_{t-1},\epsilon_t), \; \; \text{for} \; t = 1،\dots،T $$ و، برای مثال، اغتشاشات $\epsilon_t$ i.i.d هستند. $N(0,\sigma_e)$. بنابراین وضعیت سیستم در هر زمان تابعی است (پارامتری شده با $\theta$) از وضعیت در مرحله زمانی قبلی $X_{t-1}$ و نویز $\epsilon_t$. فرض کنید که من $X^o_{1:T}$ را مشاهده کردهام و میخواهم در مورد $\theta$ استنتاج کنم (با $X^o_{1:T}$ به طور میانگین $X^o_1,\dots,X ^o_T$). به ویژه اگر به جای مشاهده مستقیم $X^o_{1:T}$، $Y_{1:T}$ را مشاهده می کردم که توسط: $$ Y_{t} = X^o_t + Z_t\; \; \text{for} \; t = 1، \ نقطه، T. $$ که در آن نویز رصدی $z_t$ i.i.d است. از مقداری چگالی هسته $K_{\sigma_o}$ (به عنوان مثال $Z_t \sim N(0,\sigma_o)$)، سپس من با یک مدل فضای حالت با مشاهدات $Y_{1:T}$ و مخفی سر و کار دارم $X^o_{1:T}$ را نشان می دهد. این به این معنی است که من میتوانم از تمام روشهایی که برای استنتاج مدلهای فضای حالت (مانند فیلترهای ذرات) ایجاد شدهاند، استفاده کنم. اما نویز مشاهدهای $Z_{1:T}$ به سادگی در مورد من وجود ندارد، بنابراین دو راه وجود دارد: 1) دادهها را طوری تنظیم کنید که گویی نویز مشاهدهای $Z_{1:T}$ وجود دارد (که مثل این است که من $Y_{1:T}$ را مشاهده می کنم، در حالی که واقعاً $X^o_{1:T}$ را مشاهده می کنم. 2) $X^o_{1:T}$ نویز به طور تصادفی ایجاد شده $Z_{1:T}$ را به حالات اضافه کنید تا مشاهدات $Y_{1:T}$ را بدست آورید. سپس $Y_{1:T}$ واقعاً طبق یک مدل فضای حالت (مصنوعی) ایجاد شده است. بیایید رویکرد اول را در نظر بگیریم. در این مورد، من مدل اشتباهی را برازش میکنم، زیرا مدلی را انتخاب میکنم که شامل نویز مشاهدهای $Z_{1:T} \sim K_{\sigma_o}$ است که در واقعیت وجود ندارد. به طور خاص، با در نظر گرفتن مدل به عنوان یک مدل فضای حالت، این احتمال را به دست میآوریم: $$ \hat{p}_1(X^o_{1:T}|\theta) = \int p(X^o_{1: T},X_{1:T}|\تتا) d X_{1:T} = \int K_{\sigma_o}(X^o_{1:T}-X_{1:T})p(X_{1:T}|\theta) d X_{1:T} $$ بنابراین $\hat{p} _1(X^o_{1:T}|\theta) = (K_{\sigma_o} \star p(\cdot |\theta))(X^o_{1:T}) \neq p(X^o_{1:T}|\theta)$. احتمالی که به دست می آوریم، پیچیدگی هسته $K_{\sigma_o}()$ با $ p(\cdot |\theta)$ است و با احتمال واقعی $p(X^o_{1:T}) متفاوت است. تتا)$. بنابراین تخمینهای ML حاصل برای $\theta$ احتمالاً مغرضانه است. رویکرد دوم امیدوارکننده تر به نظر می رسد. اگر مقداری نویز $Z_{1:T}$، توزیع شده بر اساس $K_{\sigma_o}$، به دادهها اضافه کنم، میتوانم مدل فضای حالت را متناسب کنم. این به این دلیل است که اگر $Y_{1:T} = X^o_{1:T} + Z_{1:T}$ را تعریف کنم، آنگاه $X^o_{1:T}$ واقعاً یک حالت پنهان است. بنابراین من انتظار دارم که تخمینهای حاصل برای $\theta$ بیطرفانه باشد، حتی اگر مقداری کارایی از بین برود زیرا من نویز اضافه میکنم (و در نتیجه اطلاعات را از دست میدهم). اجازه دهید $\hat{p}_2(X^o_{1:T}|\theta)$ احتمال داده شده توسط این روش را فراخوانی کنیم. من علاقه مندم که بدانم مقدار مورد انتظار آن چیست، مشروط به $X^o_{1:T}$ مشاهده شده. احتمال مورد انتظار روی همه بردارهای شبیهسازی شده ممکن است $Z_{1:T}$، با: $$ E(\hat{p}_2(X^o_{1:T}|\theta)|X^o_{ 1:T}) = \int \int K_{\sigma_o}(Y_{1:T}-X_{1:T})p(X_{1:T}|\تتا) d X_{1:T} K_{\sigma_o}(Z_{1:T}) dZ_{1:T} $$ $$ = \int \bigg ( \int K_{\sigma_o}(Z_{1:T} + X^o_{1:T}-X_{1:T})\، K_{\sigma_o}(Z_{1:T})\، dZ_{1:T} \bigg ) \, p(X_{1:T}|\theta)\, d X_{1:T} $$ $$ = \int K_{\sigma_o} \star K_{\sigma_o}(X^o_{ 1:T}-X_{1:T}) p(X_{1:T}|\تتا)\، d X_{1:T}. $$ $$ = (K_{\sigma_o} \star K_{\sigma_o}) \star \, p(X_{1:T}|\theta)(X^o_{1:T}). $$ بنابراین ما مشکل مشابه با رویکرد اول داریم! بنابراین، اگر نویز (تولید شده بر اساس $K_{\sigma_o}$) را به دادههای $X^o_{1:T}$ اضافه کنیم و $Y_{1:T}$ را بهعنوان مدل حالت فضایی مناسب کنیم، احتمال مورد انتظار که ما خارج میشویم همان چیزی است که میگیریم. دادهها را بدون اضافه کردن نویز با استفاده از هسته $K_{\sigma_o} \star K_{\sigma_o}$ برازش میکنیم. این نتیجه باید اشتباه باشد زیرا اگر نویز $Z_{1:T}$ را اضافه کنیم، مدل مناسب را برازش میکنیم! | ساخت مدل فضای حالت مصنوعی از داده های بدون نویز |
103489 | عدد تاو از آزمون من کندال چگونه باید تفسیر شود؟ من خوانده ام که برای اینکه روندها با آزمایش تشخیص داده شوند، باید یکنواخت باشند. اگر دادههایی در طول سالها دارم، آنها را بر اساس ماه تقویم گروهبندی میکنم و سپس آزمون Mann-Kendall را اجرا میکنم و مقدار 0.3 را برای Jan دریافت میکنم، آیا این به این معنی است که همه جانهای قبلی میانگین سالانه کمتری داشتند؟ و آیا 0.3 از نظر مقدارش میانگین واقعی دارد، منظورم این است که آیا می توانم استنباط کنم که هر سال میانگین آن ماه 3 درصد افزایش می یابد؟ | نحوه تفسیر آمار تاو در آزمون من کندال |
31179 | یک سوال رگرسیونی جالب به من ارائه شده است: فرض کنید من یک جعبه سیاه دارم که مجموع مربع های باقیمانده را محاسبه می کند: $RSS=(Y-X\hat{\beta})'(Y-X\hat{\beta})$ برای **هر** مدل خطی استاندارد به شکل $Y=X\beta+e$ که می خواهم در آن قرار دهم. علاوه بر این فرض کنید که n=60 مشاهده، دو متغیر پیشبینیکننده، $\alpha_1،\alpha_2$ وجود دارد و من در حال آزمایش این فرضیه هستم: $H_0: \gamma_1=\gamma_2$ با استفاده از مدل: $Y_j=\gamma_0+\alpha_{j,1}\gamma_1+\alpha_{j,2}\gamma_2+\epsilon_j, j=1,...,60$. ترفند این نیست که سعی کنید و فقط ماتریس H مناسب را پیدا کنید و بر اساس آن تست کنید، بلکه تنها ابزاری که در اختیار داریم این جعبه سیاه است که به من $RSS$ می دهد و هیچ چیز دیگری. آیا فکری در مورد چگونگی حل پازل دارید؟ | آزمون فرضیه فقط با استفاده از RSS |
25971 | برای کدام توزیع $F$ $X_1 + \dots + X_N$ تقریباً نمایی است، $X_i$ i.i.d. ~ $F$، برای $N$ = 2، 4، 8، 16؟ چگونه می توان مسائلی از این دست را به صورت عددی حل کرد؟ («بیشتر نزدیک» به معنای معیاری در توزیعها است که به نظر میرسد تعداد زیادی از آنها وجود دارد؛ $\mathbb{E}( X - Y )^2$ ?) | کدام تابع توزیع $F$ طوری است که اگر $\{ X_i \}_{i=1}^{N} \sim F$، آنگاه $X_1 + ... + X_N$ تقریباً نمایی است؟ |
73841 | من میخواهم احتمال دادههای آزمایشی دادههای قطار را در مدل خود محاسبه کنم: $$ p(x_{test} | x) = \int p(x_{test}, \theta | x) d\theta = \int p( =تتا فاکتورسازی میانگین میدان $q(\theta) \تقریبا p(\theta | x)$. اکنون می توانم بنویسم $$ ... = \mathbb{E}_q p(x_{test} | x, \theta) = \mathbb{E}_q \frac{ p(x_{test}, x, \theta) }{ p(x, \theta) } $$ مشکل این است که من نمی توانم انتظار توزیع مشترک را محاسبه کنم، فقط انتظار لگاریتم آن است. آیا راهی برای غلبه بر این مشکل بدون تقریب های بیشتر مانند نمونه برداری از $q(\theta)$ وجود دارد؟ من مطمئن هستم که در بسیاری از مدل ها همین مشکل وجود دارد، اما هنوز راه حل مناسبی پیدا نشده است. مطمئن نیستم که این مهم است، اما در مدل من $$ p(x, x_{test}, \theta) = p(\theta) p(x, x_{test} | \theta) \neq p(\theta) p(x | \theta) p(x_{test} | \theta) $$ | آزمون احتمال داده ها از طریق پیش بینی پسین |
25975 | دادههای من «mydata» شامل ستونهای x1,x2,..,x100,y در R است. اما من به یک مدل خطی با عبارتهای مرتبه دوم مانند y ~ x1^2 + x2^2 + x1*x2 + فکر میکنم. .. چگونه می توانم در فرمول یا هر روش دیگری در R به آن برسم؟ وقتی در بالا امتحان کردم، مدل من «pls» همه شرایط مرتبه دوم را نادیده گرفت. آیا باید آن ستون ها را به صورت دستی ایجاد کنم؟ | چگونه عبارت های مرتبه دوم را به مدل در R اضافه کنیم؟ |
25972 | یک جدول چندجمله ای $2\times 2$ $\begin{pmatrix} x_{11} & x_{12} \\\ x_{21} & x_{22} \end{pmatrix}$ را با احتمالات نظری در نظر بگیرید: $$\begin {pmatrix} \theta_{11} & \theta_{12} \\\ \theta_{21} و \theta_{22} \end{pmatrix}.$$ توزیع شرطی $x_{11}$ با توجه به $x_{11}+x_{12}=n$ دو جمله ای با اندازه $n$ و نسبت $p=\ است dfrac{\theta_{11}}{\theta_{11}+\theta_{12}}$. بنابراین ما یک راه ساده برای انجام استنتاج آماری روی $p$ با شرطی کردن $x_{11}+x_{12}$ داریم. آیا امکان استنتاج بدون قید و شرط روی $p$ وجود دارد؟ پرانتز: اشاره کردهام که اتخاذ رویکرد بیزی با جفریز (دیریکله) قبل از مدل چندجملهای بدون قید و شرط، معادل اتخاذ رویکرد بیزی با جفریز (بتا) قبل از مدل دوجملهای شرطی است. | استنتاج بدون قید و شرط در مدل چندجمله ای |
92616 | اینجا چه خبر است؟ data.2 subj phon f.amp 1 1 V 100 2 2 V 60 3 3 V 124 4 4 V 42 5 5 V 210 6 6 V 104 7 7 V 150 8 1 ʔ 92 9 2 ʔ 31ʔ 10 3 ʔ 32 12 5 ʔ 90 13 6 ʔ 65 14 7 ʔ 105 15 1 h 142 16 2 h 72 17 3 h 141 18 4 h 60 19 5 h 268 20 6 h 1 h 134 h 134 h 19 PHONh با اجرای ANOVA در زیر مجموعه داده مربوطه: library(lme4) anova(lmer(f.amp~phon+(1|subj),data.2[which(data.2[,2]!=ʔ)، ])) تجزیه و تحلیل جدول واریانس Df Sum Sq Mean Sq F مقدار phon 1 2113.1 2113.1 9.8144 مقایسه زوجی سطوح مشابه با تعریف مستقیم ضرایب کنتراست. نسبت -F_ حاصل متفاوت: کنتراست (داده.2[,2],1)=ماتریس(c(-1,0,1),nrow=3) تضادها(داده.2[,2]) [,1] V -1 ʔ 0 h 1 anova(lmer(f.amp~phon+(1|subj),data.2)) تجزیه و تحلیل جدول واریانس Df Sum Sq Mean Sq F مقدار phon 1 2113.1 2113.1 1.2566 از آنجایی که _df_ PHON، _SS_ PHON و _MS_ PHON برای هر دو تحلیل یکسان هستند. و از آنجایی که _F_ PHON = _MS_ PHON / _MS_ PHON x _S_، استنباط می کنم که تحلیل ها در مورد مدیریت _S_ متفاوت است. هیچ ایده ای در مورد چگونگی و چرا دقیقا؟ | مقایسههای زوجی با زیرمجموعه یا با تضادهای سفارشی و رفتار متفاوت *S* |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.