_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
113633
من می‌خواهم فرضیه توزیع نمایی را با «MATLAB» آزمایش کنم. آیا آزمایش یا روشی برای آن وجود دارد؟
آزمون فرضیه توزیع نمایی
53365
من پاسخ‌های پرسش‌های باز را بر اساس آیتم (مخصوصاً بخش‌هایی از یک پاسخ کامل) تجزیه و تحلیل می‌کنم. از من خواسته شد که ویژگی ها یا اقداماتی را درباره یک موضوع ذکر کنم. من بخش هایی دارم که به آنها می رسم تا دسته بندی کنم. اما من مطمئن نیستم که چگونه باید با پاسخ‌هایی کار کنم که می‌توانم کنش‌ها یا ویژگی‌هایی را پیدا کنم، اما جمله با «و غیره»، «و سایر ویژگی‌ها»، «و بیشتر» و غیره به پایان رسید. من این «بخش» را ثبت کردم. در برخی از پاسخ ها مستقل از موضوع مورد بحث. چگونه می توان با چنین شرایطی کنار آمد؟ آیا می‌توانیم آن «بخش» از پاسخ را نادیده بگیریم یا باید دسته‌بندی جدیدی مانند «تعمیم‌ها» برای آنها ایجاد کنیم؟
چگونه می توان با جملاتی از جمله و غیره در هنگام تجزیه و تحلیل پاسخ های پایان باز رفتار کرد؟
63415
هنگام محاسبه 2(A)$\times$2(B)$\times$3(C) ANOVA، مشاهده می‌کنم که تنها عامل A اثر اصلی مهمی دارد. فاکتورهای B و C معنی‌دار نبودند، اما اندازه اثر متوسط ​​و توان کم را نشان می‌دهند. با این حال، عوامل B و C به طور قابل توجهی با A و با یکدیگر تعامل دارند (A$\times$B، A$\times$C و B$\times$C). **سؤال:** وقتی نوبت به نوشتن نتایج می رسد، مهم است که نشان دهیم عوامل B و C ممکن است خطر خطای نوع II را پنهان کنند (یعنی به دلیل قدرت کم و در عین حال اندازه اثر متوسط ​​آنها)؟ من احساس می کنم که این مناسب نیست زیرا این عوامل به طور قابل توجهی با A تعامل دارند.
اگر خطر خطای نوع II مرتبط با n.s. اگر این عامل به طور قابل توجهی با عامل دیگری تعامل داشته باشد، مورد بحث قرار می گیرد؟
113988
چگونه پیش‌بینی تقاضای دسته‌ای در خرده‌فروشی انجام می‌شود، مانند Walmart که در آن تعداد محصولات برای پیش‌بینی تعداد بسیار زیاد است و محصولات کوتاه‌مدت هستند، یعنی کمتر از ۳۶ ماه داده‌های تاریخی دارند؟ من روش های آماری مانند ARIMA، صاف کردن نمایی را می شناسم، اما در خرده فروشی (به عنوان مثال والمارت) بیش از 100000 محصول در دسته های مختلف مانند مواد شوینده، مواد غذایی و غیره وجود دارد که هر کدام فصلی، سلسله مراتب جغرافیایی، سلسله مراتب محصول خود را دارند. همچنین برخی از آنها تقاضای بسیار نامنظم دارند، یعنی در اکثر ماه ها صفر و در برخی از ماه ها بسیار بالا برای مثال قطعات یدکی.
پیش بینی آماری تقاضا
66972
من می خواهم بدانم چگونه می توانم PCA را برای کسی که با آمار آشنا نیست توضیح دهم. من داده‌های دسته‌بندی/دودویی دارم و وقتی PCA را اعمال می‌کنم، نمایش واقعاً منطقی است. بنابراین، اگر PCA را در زمینه قرار دهم، شهود پشت آن چیست؟ مثلاً شما متغیرهای x,y,z و ردیف 1= 0 0 1 row 2 = 0 1 0 دارید (یعنی برای اولین مشاهده x=0 y=0 z=1 و غیره). فرض کنید 1 نشان می دهد که یک تابع از یک سرور روشن است و 0 خاموش است. x تابع A، y تابع B و تابع z است. فرض کنید من وضعیت توابع را n بار بررسی کرده ام. بنابراین، چه ماتریس کوواریانس به من می دهد؟ منظور از بردارهای ویژه و مقادیر ویژه در این زمینه چیست؟
چگونه می توان PCA را به زبان ساده توضیح داد
26875
فرض کنید $X_1,X_2,\ldots,X_{2n}$ نمونه تصادفی $N(0,1)$ است. اگر $D_n=\displaystyle\sum_{i=1}^n X_{i}^2$ و $R_n=\displaystyle\sum_{i=1}^n \frac{X_{2i-1}}{X_{ 2i}}$ و $T_n=\displaystyle\frac{R_n}{D_n}$، توزیع حد $T_n$ چقدر است؟
یافتن توزیع حد $T_n$
53360
من از هرگونه بینشی در مورد این متاآنالیز قدردانی می کنم. این یک متاآنالیز در مورد اثربخشی و ایمنی آلوگیپتین است. در پاراگراف دوم بحث که این بیانیه را بیان می کند: > اگرچه آزمایش ناهمگنی تفاوت معنی داری > آماری را در نتایج مطالعات وارد شده نشان داد، تحلیل حساسیت > پایداری نسبت های شانس کلی را با حذف > هر یک از موارد نشان داده است. مطالعه از تجزیه و تحلیل بدون بهبود قابل توجهی از ناهمگنی. بنابراین، اعتبار نتایج این متاآنالیز به نظر نمی رسد به خطر بیفتد. این به این دلیل است که؛ هنگامی که تعداد مطالعات شامل > کوچک و ناهمگنی زیاد است، استحکام نتایج > با تجزیه و تحلیل حساسیت به بهترین وجه ارزیابی می شود. از هر یک از مطالعات از تجزیه و تحلیل بدون بهبود قابل توجهی در ناهمگونی آیا منظور آنها زمانی است که یک مطالعه پرت حذف شود، ORها تغییر نمی کنند؟ آنها سعی می کنند با چه چیزی ارتباط برقرار کنند؟ لطفا کمک کنید! استناد: اثربخشی آلوگلیپتین در درمان دیابت نوع 2: یک متاآنالیز از مطالعات تصادفی دوسوکور کنترل شده (PDF) - اختلالات غدد درون ریز _BMC **2013**، 13:9
متاآنالیز و همگنی -- این افراد چه کردند؟
64869
اول از همه، می خواهم توجه داشته باشم که موضوعات مشابه را در CrossValidated خوانده ام اما کاملا راضی نیستم. من یک مجموعه داده دارم که از یک ماتریس باینری $N\times M$ تشکیل شده است. 1 به این معنی است که یک عمل انجام می شود و 0 که انجام نمی شود. من PCA را روی مجموعه داده اعمال می کنم و به طور شگفت انگیزی نتایج بسیار خوبی دریافت می کنم، به خصوص زمانی که آن را تنها به دو بعد کاهش می دهم. من به دنبال شهودی هستم که در پس انجام PCA در چنین مجموعه داده ای وجود دارد (یعنی جایی که هر ویژگی حاوی داده های طبقه بندی است؛ شما می توانید هر مثالی را که فکر می کنید قابل درک تر است ارائه دهید) و اینکه آیا می توان تکنیک مناسب تری را اعمال کرد. من با متلب کار می کنم و به داده ها به شکل خوشه ای نیاز دارم.
تجزیه و تحلیل اجزای اصلی (PCA) برای داده های باینری
2691
در کلاس تشخیص الگوی امروز، استاد من در مورد PCA، بردارهای ویژه و مقادیر ویژه صحبت کرد. من ریاضیاتش رو گرفتم اگر از من خواسته شود که مقادیر ویژه و غیره را پیدا کنم. من این کار را به درستی مانند یک ماشین انجام خواهم داد. اما من **نفهمیدم**. من هدفش را متوجه نشدم حسش را نگرفتم من شدیداً معتقدم که شما واقعاً چیزی را نمی‌فهمید مگر اینکه بتوانید آن را برای مادربزرگ خود توضیح دهید - آلبرت انیشتین خوب، من نمی‌توانم این مفاهیم را برای یک فرد عادی یا مادربزرگ توضیح دهم. 1. چرا PCA، بردارهای ویژه و مقادیر ویژه؟ چه نیازی به این مفاهیم بود؟ 2. چگونه اینها را برای یک فرد غیر عادی توضیح می دهید؟
درک تحلیل مؤلفه های اصلی، بردارهای ویژه و مقادیر ویژه
97278
من باید فرمول های محاسبه تفاوت گروه ها را با اصلاحات بونفرونی و اندازه اثر d کوهن در مقاله زیر شناسایی کنم (نمودار بالای صفحه 6): مقاله پژوهشی برای انجام مقایسه های گروهی از چه فرمولی استفاده شده است؟ همچنین درجات آزادی چقدر بود؟
شناسایی فرمول ها از MANOVA در یک مقاله تحقیقاتی
108889
بر اساس: J. P. Carvalho، On the Semantics and Use of Fuzzy Cognitive Maps in Social Sciences (WCCI، 2010 -- PDF) و صفحه وب ریچارد داگان Cognitive Mapping. یک نقشه شناختی شامل گره هایی است که مفاهیم و پیوندهایی را نشان می دهد که ارتباط بین مفاهیم را نشان می دهد. در بخش IV Carvalho از معناشناسی در منظر مدل ارائه شده استفاده شده است. تعریف داگان از نقشه معنایی این است که ساختاری درختی است که از یک مفهوم اصلی منشعب می شود. همچنین، پاسخ http://cs.stackexchange.com/questions/9800/are-semantic- networks-ontologies?rq=1 بیشتر به سردرگمی من می افزاید که تفاوت مهم بین نقشه شناختی که در آن گره ها مفاهیم هستند و معنایی چیست. نقشه که در آن گره ها نیز مفاهیم هستند. من نمی توانم تفاوت معنی داری بین نقشه مفهومی و نقشه معنایی پیدا کنم. میشه لطفا یکی به زبان ساده توضیح بده؟ متشکرم
نقشه معنایی چیست
68037
من سعی می کنم تقاضا را برای خدمات خود پیش بینی کنم، هم کمیت، اما شاید مهم تر، مکان (نقاط داغ). من به هیچ وجه یک آماردان باتجربه نیستم، بنابراین به کمک نیاز دارم :) من تمام داده های تاریخی خدمات، تاریخ، طول و عرض جغرافیایی خود را دارم. تا آنجا که من متوجه شدم، اولین کاری که باید انجام داد این است که با طول و عرض جغرافیایی سروکار نداشته باشیم: به نحوی آنها باید به یک بعد تبدیل شوند درست است؟ پس از آن چه نوع تحلیلی باید روی داده ها انجام شود؟ من فکر می کنم برخورد مستقیم با تاریخ نیز ممکن است راه اشتباهی باشد. ایده من در اینجا این است که فقط به روزهای هفته بپردازم، بنابراین می توانم تقاضا برای یک نوع روز (هر سه شنبه) را به جای سه شنبه خاص پیش بینی کنم. من به دنبال راهنمایی برای رسیدن به این هدف هستم. من یک برنامه نویس خوبی هستم، اما برای یافتن راه درست به کمک نیاز دارم.
چگونه می توان تقاضا را از داده های رویداد پیوسته تاریخی (تاریخ، lat، lon) پیش بینی کرد؟
90727
من مجموعه ای از داده ها را دارم که شامل gpa ترم اول، معدل نهایی، سن، نژاد، وضعیت و غیره دانش آموزان است، باید معدل نهایی دانش آموز را بر اساس بقیه پیش بینی کنم، مشکل من این است که چگونه نژاد و حالت را به اعداد تبدیل کنم. من نمی توانم از متغیرهای ساختگی استفاده کنم زیرا 8 نژاد و 20 حالت وجود دارد
نحوه انجام رگرسیون دسته بندی
81012
فرض کنید موردی دارید که می‌خواهید تجزیه و تحلیل بقا را روی مجموعه‌ای از افراد با یک متغیر کمکی با ارزش دودویی انجام دهید. فرض کنید که فرض PH برآورده شده است. بگوییم که هدف تجزیه و تحلیل تفاوت بین دو گروه (مرتبط با 2 مقدار متغیر کمکی) است. در این صورت، تفاوت بین استفاده از مدل کاپلان مایر و کاکس PH چیست؟ همچنین، به طور شهودی، چرا آنها متفاوت هستند؟ من می‌دانم که کاکس مقدار متغیر کمکی را در نظر می‌گیرد، اما در این مورد، از آنجایی که باینری است، کاپلان مایر نیز این کار را به یک معنا انجام می‌دهد.
تفاوت بین مدل Kaplan-Meier و Cox PH در این مورد چیست
107471
فرض کنید من متغیر y و x پیوسته دارم و یک رگرسیون خطی اجرا می کنم: mdl1<-lm(y ~ x) یک مدل خطی تعمیم یافته نیز باید همان مقدار پارامتر را به من بدهد اگر ساختار خطا را مشخص نکنم (یعنی به طور پیش فرض آن را مشخص نکنم. فرض می کند که ساختار خطا گاوسی است) mdl2<-glm(y ~ x) هر دو مدل بالا باید نتایج یکسانی به من بدهد (زیرا در «mdl2»، به طور پیش‌فرض ساختار خطا گاوسی است) سؤال من این است که آیا باقیمانده‌ها به طور معمول در «mdl1» توزیع نمی‌شوند (یعنی آزمایش shapiro.wilk روی باقیمانده‌های «mdl1» انجام می‌دهم که به من مقدار p-مقدار می‌دهد. 0.02)، shapiro.test(rstandard(mdl1) سپس در glm چه خانواده خطایی را مشخص کنم با توجه به اینکه y و x پیوسته هستند، می توانم «family=poisson» یا «family=binomial» را مشخص کنم، اگر متغیر پاسخ من mdl3<-glm بود. ) # وقتی y داده های شمارش است mdl4<-glm(y ~ x,family=binomial) # وقتی y داده نسبت است اما در صورت متغیر پاسخ پیوسته است و خطاها به طور معمول توزیع نمی شوند چه ساختار خطایی باید بدهم؟ mdl5<-glm(y ~ x, family=?????) # y داده پیوسته است
ساختار خطا در مدل های خطی تعمیم یافته زمانی که y داده های پیوسته است و خطاها به طور معمول توزیع نمی شوند
81019
تابع همبستگی نظری برای دو پیاده روی تصادفی نامرتبط چگونه به نظر می رسد؟ من می دانم که برای دو پیاده روی تصادفی، آنها به طور جعلی همبستگی خواهند داشت. اما در مورد خود همبستگی ها چطور؟
تابع همبستگی نظری برای دو پیاده روی تصادفی نامرتبط چگونه به نظر می رسد؟
113982
من یک متغیر وابسته دارم که مقدار آن 0، 1، 2 یا 3 است. من از شرکت کنندگان خواستم که سه مورد را انتخاب کنند و اگر در یک دسته بندی خاص است، 1 و در غیر این صورت 0 را کد کردم. من سه متغیر باینری را به عنوان متغیر وابسته من اضافه می کنم. بنابراین 3 حداکثر مقدار متغیر است. من می دانم که رگرسیون پواسون برای متغیر وابسته تعداد و مدل سانسور شده برای متغیر وابسته با حد بالا بسیار استفاده می شود. اما بررسی نمونه های موجود در اینترنت، تحلیل داده های من مناسب به نظر نمی رسد.
نحوه مدل سازی یک متغیر وابسته به تعداد با محدودیت بالا
35647
> **تکراری احتمالی:** > درک تحلیل مولفه های اصلی، بردارهای ویژه و مقادیر ویژه من در حال حاضر در حال گذراندن یک آموزش PCA هستم. با این حال، من کمی گیج هستم. برای PCA، ماتریس کوواریانس را محاسبه می کنیم و سپس بردارهای ویژه و مقادیر ویژه ماتریس کوواریانس را پیدا می کنیم. این بردارها اجزای اصلی هستند. * بردارهای ویژه و اجزای اصلی چگونه به هم مرتبط هستند؟ * چرا یافتن ماتریس کوواریانس از داده ها و بردارهای ویژه آن جزء اصلی است؟
بردارهای ویژه و اجزای اصلی چگونه به هم مرتبط هستند؟
21245
من در حال مقایسه استفاده از گونه های درختی در مقابل در دسترس بودن در قلمرو پرندگان هستم. من از تابع R `compana()` استفاده می کنم که از Aebischer و همکاران استفاده می کند. (1993) روش (Package adehabitatHS) برای تعیین اینکه آیا تفاوت های قابل توجهی در در دسترس بودن متناسب و استفاده متناسب از گونه های مختلف درخت وجود دارد یا خیر. من سعی می کنم تعیین کنم که آیا ورودی برنامه باید نسبت (هم استفاده و هم در دسترس بودن) باشد یا نسبت استفاده و در دسترس بودن. علاوه بر این، من همچنین سعی می کنم بفهمم که آیا کد compana برای تجزیه و تحلیل ترکیبی به طور خودکار مقادیر از دست رفته در ماتریس موجود را با استفاده از میانگین وزنی $\lambda$ هنگامی که test=randomization را تعیین می کنید جایگزین می کند یا خیر، که به این معنی است. که آزمایش‌های تصادفی‌سازی هم برای رتبه‌بندی زیستگاه و هم برای آزمایش انتخاب زیستگاه انجام می‌شود (برای اطلاعات بیشتر به وب‌سایت CRAN مراجعه کنید). من فقط نمی توانم بفهمم که compana به طور خودکار صفرها را در ماتریس موجود جایگزین می کند یا اینکه باید کار دیگری با کد انجام دهید.
نوع داده های ورودی (نسبت ها یا نسبت های ثبتی) برای تجزیه و تحلیل ترکیبی
3333
من قبلا اینجا یه سوال پرسیدم اساساً، من سعی می‌کنم یک سیستم هشدار را ارزیابی کنم که شامل یک لامپ (با رنگ خاص) است که روشن می‌شود تا سطح تهدید هشدار پیش‌بینی‌شده را نشان دهد. Srikant راه حل ساده ای ارائه کرد که شامل محاسبه احتمالات عقبی سیستم هشدار با استفاده از قضیه بیز بود. من اکنون در حال فکر اجرای این کار در R هستم. با این حال، من کاملاً مطمئن نیستم که چگونه ادامه دهم، زیرا من یک مبتدی R هستم. داده ها به این شکل هستند: چراغ هشدار، سطح رویداد رخ داده است؟ قرمز، بله هیچ، بله سبز، نه و غیره ... من می خواهم یک اسکریپت R ساده بنویسم که به من کمک کند محاسبه کنم: الف). احتمال وقوع یک رویداد، برای یک حالت معین از لامپ b). یک C.I برای پیوست کردن به احتمال پسین به دست آمده در (a) بالا از آنجایی که من در R جدید هستم، از مراحل (و دستورات) مورد نیاز برای انجام موارد فوق سپاسگزار خواهم بود. داده‌های من در یک فایل CSV ساده با فرمت توضیح داده شده خواهد بود، بنابراین من به سادگی می‌توانم آن را در R اسکن کنم. نحوه ادامه کار از آنجا، چیزی است که به کمک نیاز دارم.
محاسبه احتمالات پسین در R؟
113987
من نسبتاً با R جدید هستم، اما در زبان های دیگر و همچنین در تجزیه و تحلیل داده ها در علوم فیزیکی تجربه دارم. من یک مشکل دارم و با استفاده از «lm()» آن را با یک برازش خط مستقیم نشان خواهم داد، در علوم فیزیکی، اگر متغیر وابسته (y) دارای عدم قطعیت های صریح باشد (که خطا نیز نامیده می شود) و آن عدم قطعیت ها همه یک مقدار داشته باشند، اگر ما در یک خط مستقیم قرار می گیرد، سپس مقادیر شیب و قطع تغییر نمی کند، اما عدم قطعیت در شیب و قطع متفاوت خواهد بود با اگر داده ها نداشته باشند. عدم قطعیت های صریح من نمی توانم یک روال مناسب R پیدا کنم که کار را درست انجام دهد. من فیترهایی نوشته ام که در C، Mathematica، Maple و LabView کار درست را انجام می دهند، اما امیدوارم از انجام این کار با R اجتناب کنم. مثالی در اینجا آمده است: d.f = data.frame(x = c(1, 2, 3, 4 , y = c(2، 3.9، 6.1، 7.9)، u = c(.1، 0.1، 0.1، 0.1)) متغیر `u` عدم قطعیت در مقادیر «y» است. با نادیده گرفتن عدم قطعیت‌ها، تناسب خط مستقیم را انجام دهید: fit1 <- lm(y ~ x، داده = d.f) این دقیقاً همان چیزی است که من فکر می‌کنم تناسب صحیح را نشان می‌دهد، از جمله خطای Std. در شیب و قطع. وزن‌ها معمولاً $1 / (\text{uncertainty}^2)$ هستند، بنابراین من آن را به `lm()` fit2 <- lm(y ~ x، داده = d.f، وزن = 1/u^2) می‌دهم خطای استاندارد برای این 2 تناسب متفاوت است، همانطور که باید باشد، اما Std. خطا در پارامترهای نصب شده نیست. به عنوان مثال، رهگیری برای هر دو تناسب 1.99$ است که درست است و Std. خطا در رهگیری برای fit1 0.05196 دلار است که این نیز صحیح است. با این حال، این مقادیر برای fit2 دقیقاً یکسان است. مقدار صحیح عدم قطعیت در قطع برای fit2 در واقع 0.04472 دلار است. من مقدار مناسبی را جست‌وجو کرده‌ام و نتوانستم یک برازنده رگرسیون حداقل مربعی را در R پیدا کنم که این کار را به درستی انجام دهد. در واقع، چنین برازنده ایده‌آلی عدم قطعیت‌ها را در مختصات «x» و «y» می‌پذیرد و با استفاده از تکنیک «واریانس مؤثر» برازش می‌کند. یا شاید من نمی‌دانم چگونه از «lm()» استفاده کنم یا نتایج آن را تفسیر کنم.
وزن های lm و خطای استاندارد
26876
من یک مجموعه داده دارم که توزیع دووجهی را نشان می دهد. این با ترسیم هیستوگرام فرکانس در مقابل عدد مشخص شد. اکنون باید دو جمعیت اصلی را از هم جدا کنم و بنابراین یک نقطه تلاقی پیدا کنم. از طرح به نظر می رسد که نقطه ممکن است تقریباً باشد. -1.0 تا -0.8. آیا محاسبه یا تابع مستقیمی وجود دارد که بتوانم از آن برای تعیین مکان دقیق تر این نقطه استفاده کنم؟ ![هیستوگرام](http://i.stack.imgur.com/2TNd2.jpg)
جداسازی جمعیت ها در یک توزیع دووجهی
113986
من یک متغیر اندازه گیری شده دارم، که مشخص می شود تحت تأثیر یک متغیر مستقل (یعنی شرایط تجربی) است. من این را در قسمت اول بخش نتیجه گزارش خواهم کرد. همچنین، به عنوان یک تحلیل اضافی، می خواهم از متغیر اندازه گیری شده به عنوان تعدیل کننده استفاده کنم، که فرض می کنم بر یک رابطه علی بین متغیر مستقل و متغیر وابسته دیگر تأثیر می گذارد. حدس می‌زنم این مدل مهربان چندان رایج نیست، اما برای من مشکل‌ساز به نظر نمی‌رسد. من ممکن است مشکل چند خطی را داشته باشم (دو متغیر مستقل مستقل از یکدیگر نیستند) اما این مشکل جدی نخواهد بود مگر اینکه IV و تعدیل کننده ارتباط نزدیکی با هم داشته باشند. درست میگم؟
تعدیل کننده اندازه گیری شده، که تحت تأثیر یک متغیر مستقل است
9604
آیا ممکن است یک SES داشته باشیم که معادلات مؤلفه احتمالی باشد، مثلاً لاجیت یا پروبیت؟ من در حال ارزیابی تعدادی از معیارهای کیفیت خدمات ارائه شده توسط تعدادی از ارائه دهندگان هستم. معیارها باینری هستند (گواهینامه کیفیت پاس/ شکست). به نظر می رسد که رویکرد آشکار تخمین معادلات logit/probit، مشروط به ویژگی های ارائه دهنده، به طور مشترک در چیزی مانند یک SUR باشد، اما من نمی توانم چیزی شبیه به آن را در ادبیات انتخاب گسسته پیدا کنم.
سیستم معادله همزمان برای logit/probit؟
68030
**توجه:** _این سوال در اصل در MSE ارسال شده است، اما هیچ علاقه ای ایجاد نکرده است. برای اولین بار در آنجا پست شد، زیرا خود سؤال یک سؤال ماتریس-جبر خالص است. با این وجود، از آنجایی که انگیزه مربوط به آمار و اقتصاد سنجی است، من این سوال را در Cross Validated نیز ارسال می کنم، به این امید که برخی مغز متبحر جبر آماری/ماتریسی چیزی برای کمک داشته باشند._ چارچوب به شرح زیر است: ما یک i.i.d. مقطعی نمونه $\\{\mathbf y، \mathbf X\\}$، که $\mathbf y$ یک بردار ستون $N \times 1$ است، و $\mathbf X$ یک ماتریس $N\times K$ است. ما یک رابطه خطی بین $\mathbf y$ و $\mathbf X$، $$\mathbf y = \mathbf X \beta + \mathbf u $$ فرض می کنیم که در آن $\mathbf u$ نویز سفید با واریانس $\sigma است. ^2$، و برونزا برای رگرسیورها در ماتریس $\mathbf X$، و $\beta$ یک $K\times است. بردار ستون 1$ از ضرایب ثابت ناشناخته. بر اساس این فرض، برآوردگر OLS بی طرف و سازگار است. حالا فرض کنید $N$ بزرگ است، مثلاً 10000 دلار یا بیشتر (نمونه هایی با حجم زیاد در زمینه اقتصاد سنجی نیز ظاهر می شوند). سپس محقق می‌تواند دو گزینه زیر را به‌طور تصوری انتخاب کند: $A$) رگرسیون _one_ OLS را با استفاده از کل نمونه اجرا کند. این تاکتیک را می توان به عنوان جذاب برای ویژگی سازگاری برآوردگر OLS در نظر گرفت. این برآوردگر را $\hat \beta$ صدا کنید. $B$) نمونه را به نمونه های فرعی $m$ _disjoint_ تقسیم کنید (برای سادگی، طول مساوی در نظر گرفته شود، و توجه داشته باشید که اتحاد آنها برابر با کل نمونه است)، رگرسیون $m$ را اجرا کنید و میانگین $m$ را محاسبه کنید. تخمین ضرایبی که او بدین ترتیب به دست خواهد آورد. این تاکتیک را می توان به عنوان جذاب برای ویژگی بی طرفی برآوردگر OLS در نظر گرفت. این برآوردگر میانگین را $\bar b_m$ صدا کنید. _(توجه داشته باشید که تاکتیک $B$ در هیچ رویکرد نمونه گیری مجدد، مانند بوت استرپ، نمونه برداری فرعی، یا جک نایف قرار نمی گیرد - به طور دقیق، به عنوان یک مورد حاشیه ای در استفاده از جک نایف در سری های زمانی در نظر گرفته شده است، اما واقعاً اینطور نیست. یک روش jackknife)._ من یک نتیجه زیبا (از نظر من) بدست آورده ام که نشان می دهد واریانس تخمینگر کل نمونه همیشه کوچکتر از واریانس برآوردگر میانگین است: $$\text{Var}\left(\bar b_m\right) > \text{Var}\left(\hat \beta\right) $$ می‌گویم خوب است به نظر می رسد زیرا نتیجه از نابرابری میانگین حسابی- هارمونیک برای ماتریس های PD استفاده می کند که در اینجا ثابت شده است: به طور خاص، نوشتن $Z_l= \left(X_l'X_l\right)^{-1}$ برای ماتریس گشتاور معکوس رگرسیورها از _l_ -امین نمونه، _l_ =$1،...،m$، که با $A_m$ نشان دهنده میانگین حسابی و با $H_m$ میانگین هارمونیک این ماتریس های $Z$، رسیدن به موارد زیر دشوار نیست: $$\text{Var}\left(\bar b_m\right) = \frac1m\sigma^2A_m > \frac1m\sigma^2H_m =\text{Var}\left(\hat \beta\right) $$ ... نابرابری در معنای ماتریسی نگه داشته می‌شود. توجه داشته باشید که $H_m$ میانگین هارمونیک $\left(X_1'X_1\right)^{-1},...,\left(X_m'X_m\right)^{-1} $ به معنای واقعی ماتریس است ، ماتریسی نیست که حاوی میانگین هارمونیک عناصر متناظر ماتریس هایی باشد که میانگین می دهد. بنابراین برآوردگر میانگین $\bar b_m$ همیشه کمتر از کل برآوردگر نمونه $\hat \beta$ است. **سوال من: آیا مرزهای شناخته شده ای برای تفاوت بین میانگین های حسابی-هارمونیک برای ماتریس ها وجود دارد؟** برای اعداد واقعی آنها وجود دارند (مقاله ویکی و منابع اصلی را اینجا و اینجا ببینید). چرا؟ زیرا برای رفتن به مرحله بعدی و مقایسه برآوردگرهایی که ممکن است نه بی طرفانه و نه سازگار باشند، مفید خواهد بود و بنابراین معیاری مانند حداقل مربعات خطا برای مقایسه آنها باقی می ماند. هر گونه پیشنهاد، لینک یا مرجع واقعا قدردانی خواهد شد.
محدود به حسابی نابرابری میانگین هارمونیک برای ماتریس ها؟
108057
من یک فارغ التحصیل علوم کامپیوتر با رشته ریاضی جزئی هستم، اما مدت زیادی از گذراندن دوره های آماری می گذرد. من به دنبال محاسبه میانگین درصد خطا و میانگین درصد مطلق خطا بین نمرات مورد انتظار و امتیازات واقعی هستم. اجازه دهید از تنظیمات مدرسه برای یک قیاس آشنا استفاده کنیم. اگر من MPE و MAPE را برای هر مدرسه به عنوان یک کل بر اساس نمرات آزمون های مختلف در مقابل نمرات آزمون مورد انتظار محاسبه کنم، آیا می توانم از آن نتایج MPE و MAPE (مجموع و میانگین) برای بدست آوردن MPE و MAPE برای زیر مجموعه های بزرگتر مانند ترکیب چندگانه استفاده کنم. MPE/MAPE مدرسه منجر به MPE/MAPE در سطح ناحیه می‌شود، یا این امر نتایج حاصل از کاهش وزن مناسب داده‌ها را منحرف می‌کند؟ آیا داده دیگری وجود دارد که بتوانم در کنار MPE/MAPE مدرسه برای ترکیب آنها در زیرمجموعه های بزرگتر، مانند تعداد دانش آموزان، یا تعداد آزمون هایی که برای حفظ وزن مناسب انجام می شود، نگهداری کنم؟
میانگین های MPE و MAPE
99145
> شکل آزمون نسبت درستنمایی $H_0 را پیدا کنید: \lambda = \lambda_0$ > در برابر $\lambda\neq\lambda_0$ وقتی $X_1,X_2,...,X_n$ یک نمونه تصادفی است > از $Ex( \lambda)$. آن را تا حد امکان ساده کنید. من به صورت زیر شروع کردم، جایی که $\lambda_1$ یک پارامتر جایگزین است $$ \frac{L_0}{L_1}=\frac{\prod f(x;\lambda_0)}{\prod f(x;\lambda_1) } $$ من فکر می کنم p.d.f. برای یک نمایی $\lambda e^{-\lambda x}$ است بنابراین $$ \frac{L_0}{L_1}=\frac{\prod \lambda_0 e^{-\lambda_0 x_i}}{\prod \lambda_1 e ^{-\lambda_1 x_i}} $$ $$ =(\frac{\lambda_0}{\lambda_1})^n\frac{\prod e^{-\lambda_0 x_i}}{\prod e^{-\lambda_1 x_i}} $$ که فکر می‌کنم می‌توان آن را ساده کرد این با گرفتن گزارش $$ =n log(\frac{\lambda_0}{\lambda_1})\frac{e^{-\sum\lambda_0 x_i}}{e^{-\sum\lambda_1 x_i}} $$ در مورد این مطمئن نیستم، اما، من فکر می کنم که می شود $$ =n log(\frac{\lambda_0}{\lambda_1}) e^{-\sum x_i ({\lambda_0}-{\lambda_1})} $$ آیا تا به حال درست می گویم؟ مطمئن نیستم از اینجا به کجا بروم. من فکر می کنم منطقه بحرانی جایی است که موارد فوق کمتر از مقداری ثابت است.
چگونه یک آزمون نسبت درستنمایی برای توزیع نمایی فرموله کنیم؟
90723
من سعی می کنم حاشیه خطا را برای سؤالات نظرسنجی خاص محاسبه کنم. من می دانم که اگر داده ها دوگانه باشند (یعنی تقسیم 75-25 یا 60-40) چگونه این را محاسبه کنم. اما چگونه با سوالاتی که بیش از یک پاسخ دارند برخورد می کنید؟ به عنوان مثال: > کدام یک از محدوده های سنی زیر شما را بهتر توصیف می کند؟ > () کمتر از 18 > () 18 تا 30 > () 30 تا 50 > () 50 تا 70 > () بیش از 70 * آیا با در نظر گرفتن هر پاسخ به عنوان یک سؤال جداگانه، حاشیه خطا برای این سؤال محاسبه می شود؟ (یعنی اگر 20 پاسخ دهنده از 200 پاسخ دهنده بیش از 70 را انتخاب کنند، آیا من بیش از 70 را به عنوان یک سوال جداگانه که دارای تقسیم 90-10 است در نظر بگیرم؟) * اگر نه، حاشیه یا خطا چگونه محاسبه می شود؟
حاشیه خطا برای داده های غیر دوگانه
99094
من سعی داشتم کوواریانس دو متغیر تصادفی را بهتر درک کنم و بفهمم چگونه اولین کسی که به آن فکر کرد، به تعریفی رسید که به طور معمول در آمار استفاده می شود. برای درک بهتر به ویکی پدیا رفتم. از مقاله، به نظر می‌رسد که معیار یا کمیت کاندید خوب برای $Cov(X,Y)$ باید دارای ویژگی‌های زیر باشد: 1. زمانی که دو متغیر تصادفی مشابه یکدیگر باشند (یعنی زمانی که یکی افزایش می‌دهد، دیگری دارای علامت مثبت می‌شود. به و هنگامی که یکی کاهش می یابد، دیگری نیز کاهش می یابد). 2. همچنین می‌خواهیم زمانی که دو متغیر تصادفی متضاد مشابه یکدیگر هستند، علامت منفی داشته باشد (یعنی وقتی یکی افزایش می‌دهد، متغیر تصادفی دیگر تمایل به کاهش دارد) 3. در نهایت، می‌خواهیم این کمیت کوواریانس صفر باشد (یا احتمالاً بسیار کوچک؟ ) زمانی که دو متغیر مستقل از یکدیگر باشند (یعنی نسبت به یکدیگر متفاوت نیستند). از ویژگی های بالا می خواهیم $Cov(X,Y)$ را تعریف کنیم. اولین سوال من این است که برای من کاملاً واضح نیست که چرا $Cov(X,Y) = E[(X-E[X])(Y-E[Y])]$ این ویژگی ها را برآورده می کند. با توجه به ویژگی‌هایی که داریم، انتظار می‌رفتم که معادله‌ای شبیه به «مشتق» کاندیدای ایده‌آل باشد. به عنوان مثال، چیزی بیشتر شبیه، اگر تغییر در X مثبت باشد، تغییر در Y نیز باید مثبت باشد. همچنین، چرا گرفتن تفاوت از میانگین، کار «درست» است؟ یک سوال مماسی تر، اما همچنان جالب، آیا تعریف متفاوتی وجود دارد که بتواند آن ویژگی ها را برآورده کند و همچنان معنادار و مفید باشد؟ من این را می‌پرسم زیرا به نظر می‌رسد هیچ‌کس در وهله اول نمی‌پرسد که چرا ما از این تعریف استفاده می‌کنیم (به نوعی احساس می‌شود که همیشه اینطور بوده است که به نظر من دلیل وحشتناکی است و مانع علمی و کنجکاوی ریاضی و تفکر). آیا تعریف پذیرفته شده «بهترین» تعریفی است که می توانیم داشته باشیم؟ * * * اینها نظرات من در مورد اینکه چرا تعریف پذیرفته شده منطقی است (تنها یک استدلال شهودی خواهد بود): اجازه دهید $\Delta_X$ مقداری از تفاوت برای متغیر X باشد (یعنی از مقداری به مقدار دیگری در مقداری تغییر کند. زمان). به طور مشابه برای تعریف $\Delta_Y$. برای یک نمونه در زمان، می‌توانیم محاسبه کنیم که آیا آنها به هم مرتبط هستند یا خیر. برای یک مثال در زمان، خواص مورد نظر ما را برآورده می کند. اگر هر دو با هم افزایش پیدا کنند، در اکثر مواقع، کمیت بالا باید مثبت باشد (و به طور مشابه وقتی که برعکس مشابه باشند، منفی خواهد بود، زیرا دلتا $ دارای علائم مخالف خواهد بود). اما این فقط مقداری را که می خواهیم برای یک نمونه در زمان به ما می دهد، و از آنجایی که آنها r.v هستند. اگر تصمیم بگیریم رابطه دو متغیر را تنها بر اساس 1 مشاهده قرار دهیم، ممکن است بیش از حد برازش کنیم. پس چرا انتظار این را برای دیدن محصول «متوسط» تفاوت ها نمی گیریم. $$sign(E[\Delta_X \cdot \Delta_Y])$$ که باید به طور متوسط ​​نشان دهد که رابطه متوسط ​​همانطور که در بالا تعریف شده است! اما تنها مشکلی که این توضیح دارد این است که این تفاوت را با چه چیزی اندازه گیری می کنیم؟ که به نظر می رسد با اندازه گیری این تفاوت از میانگین (که بنا به دلایلی کار صحیحی است) برطرف شود. ** حدس می‌زنم مشکل اصلی من با تعریف، گرفتن تفاوت از میانگین است**. به نظر می رسد هنوز نمی توانم آن را برای خودم توجیه کنم. * * * تعبیر علامت را می توان برای سؤال دیگری گذاشت، زیرا به نظر می رسد موضوع پیچیده تری باشد.
شهود در تعریف کوواریانس
112328
من تست های ناپارامتریک مبتنی بر رتبه های مختلف (فریدمن و نمنی) را پس از پایان انجام دادم و متوجه شدم که ارقام اعشاری نمونه ها تأثیر زیادی بر قدرت آنها دارد. لطفاً مثال اسباب‌بازی زیر را در نظر بگیرید: نمونه‌های 1: 0.12،0.23،0.22،0.17 نمونه‌های 2: 0.15،0.17،0.18،0.1 نمونه‌های 3: 0.19،0.29،0.27،0.19 استفاده از همه ارقام اعشاری ممکن است نشان دهد که نمونه‌ها تفاوت معنی‌داری ندارند. اما نمونه های 1و3 و 2و3 هستند. با این وجود، حذف آخرین رقم اعشار، نمونه‌های 1 را با نمونه‌های 3 برابر می‌کند. بنابراین، حذف اعشار بیش از حد ممکن است نمونه‌ها را بیش از حد شبیه به هم کند (آنها یک رتبه مشترک خواهند داشت). برعکس، حذف نکردن آنها آنها را مستعد بی‌نظمی‌های کوچک در محاسبات نمونه یا مدیریت شناورها می‌کند (هر نمونه رتبه متفاوتی دارد، اگرچه بسیار نزدیک به یکدیگر است). سوالات: 1. بهترین راه برای مقابله با این موضوع، به خصوص در یک نشریه چیست؟ 2. آیا تفاوت بین هر نمونه به عنوان اندازه اثر توصیف شده است؟ در این مورد، گرد کردن به مقدار مشخصی از اعشار به عنوان یک محدودیت برای حداقل اندازه اثر مورد بررسی عمل می کند. با تشکر
تأثیر اعشار نمونه بر توان در آزمون‌های مبتنی بر رتبه
49426
چگونه می توان ورودی های مدل را محاسبه کرد که هم الف) همبستگی خودکار و هم ب) در طول زمان کالیبره می شوند؟ من علاقه مند به پیش بینی نتایج رویدادهای ورزشی هستم. بیایید بگوییم که هر تیم یک امتیاز دارد که در هر هفته از فصل تعیین می شود که نشان می دهد آن تیم چقدر خوب یا بد است. این امتیاز هر هفته بر اساس عملکرد تیم در بازی آن هفته به روز می شود. امتیاز هر تیم در ابتدای فصل بر اساس سال قبل و برنامه آینده آنها بهترین حدس است. من به راحتی می توانم یک مدل تاریخی از تمام نمرات هفتگی قبلی بسازم، اما چیزی در این مورد به نظر می رسد. امتیازهایی که در اوایل هر فصل اختصاص می‌یابند نسبت به امتیازاتی که بعداً در فصل تعیین می‌شوند، عدم قطعیت بیشتری در مورد آنها دارند. بدیهی است که امتیازات هر هفته با (حداقل) امتیازهای هفته قبل مرتبط است، اما با پیشرفت فصل، نمرات دقیق‌تر می‌شوند. در نظر گرفتن هر امتیاز به عنوان ورودی برابر در مدل پیش بینی اشتباه به نظر می رسد. بهترین رویکرد مدلسازی برای مقابله با این موضوع چیست؟ یا من بیش از حد به آن فکر می کنم؟
ورودی‌های مدل را پیش‌بینی می‌کنید که هم همبستگی خودکار دارند و هم در طول زمان کالیبره می‌شوند؟
90729
من یکسری سوال در مورد استفاده از بسته کوپولا در R دارم. هدف کلی من تولید مقادیر مصنوعی با استفاده از کوپولاست. من در حال تجزیه و تحلیل یک داده هیدرولوژیکی هستم: دبی اوج سالانه [m³/s] و حجم متناظر [m³]. من موفق شدم تست هایی را در مورد استقلال و وابستگی سریال اعمال کنم. علاوه بر این، من پیوندها را شناسایی و حذف کردم و مشاهدات شبه ایجاد کردم (تبدیل مقادیر کوپولا بین [0،1]). از آنجایی که نمی‌دانم کدام کوپول بهترین است، ابتدا پارامتر copula را برازش کردم: fg <- fitCopula(copula=gumbelCopula(), data=u) # u داده‌های من است، این کار را برای همه کوپول‌های موجود در R انجام خواهم داد. سپس خوب بودن تناسب را با تابع زیر آزمایش می کنم: gofCopula(copula=gumbelCopula(fg@estimate) x=data[,2:3], N=1000, method=Sn, estim.method=mpl, simulation=mult) با استفاده از best copula، سپس می خواهم مقادیر مصنوعی ایجاد کنم. من یک تابع برای ایجاد نمونه های تصادفی پیدا کردم، اما مطمئن نیستم که آیا آن چیزی که من نیاز دارم را انجام می دهد یا خیر. random_samples <- rCopula(copula=gumbelCopula(fg@estimate)، n=10000) به نظر من این تابع فقط مقادیر تصادفی ایجاد می کند، اما آیا ساختار وابستگی مجموعه داده های من در نظر گرفته می شود؟ همچنین تابع دیگری در بسته copula `mvdc` برای ساخت توزیع های چند متغیره از کوپولا وجود دارد. در واقع تفاوت mvdc و rCopula چیست، هر دو مقادیر مصنوعی تولید می کنند، اینطور نیست؟ آخرین سوال این است: وقتی بتوانم مقادیر مصنوعی خود را تولید کنم، چگونه می توانم آنها را به واحدهای واقعی خود تبدیل کنم؟ از خواندن مستندات متوجه شدم که باید مقادیر (u,v) را با معکوس cdf خاص آنها ضرب کنم، آیا این درست است؟
تولید مقادیر از copula با استفاده از بسته copula در R
108054
درک من این است که «prcomp» و «princomp» از خود مجموعه داده (ردیف مشاهدات، در میان متغیرهای ستون‌ها) کار می‌کنند. آیا تابعی وجود دارد که تحلیل مؤلفه اصلی را مستقیماً از ماتریس همبستگی یا کوواریانس، بدون داشتن مجموعه داده «خام» اجرا کند؟
مولفه های اصلی با استفاده از ماتریس همبستگی در R
99091
من نمی توانم راهی برای انجام رگرسیون log-log در SPSS پیدا کنم؟ آیا کسی می تواند به من کمک کند تا این کار را مرحله به مرحله انجام دهم؟ با تشکر
چگونه می توانم یک رگرسیون log-log در SPSS انجام دهم؟
104926
من روشی می‌خواهم برای مقایسه رتبه‌بندی‌ها از چندین منبع و یافتن یک معیار واحد که همه رتبه‌بندی‌ها را به بهترین شکل منعکس کند. برای ارائه یک مثال خاص، اجازه دهید آن را مشکل کمیته بررسی بورسیه ها بنامیم (اما لطفا از من متنفر نباشید، من بخشی از کمیته بررسی بورسیه نیستم، این فقط یک مثال است): یک کمیته بررسی بورسیه دانشگاهی سعی می کند تصمیم بگیرد. کدام یک از دانش آموزان آنها سزاوار کمک هزینه تحصیلی هستند. 1000 درخواست دانشجو را بررسی می‌کند و می‌خواهد بر نمرات هر دانش‌آموز در حداکثر 5 دوره خاص تمرکز کند (مثلاً دوره‌ها A، B، C، D، E هستند). همه دانش آموزان ملزم به گذراندن تمام 5 درس نیستند، برخی 3، برخی 4 و برخی 5 دروس را گذرانده اند (اما همه متقاضیان حداقل 3 از A، B، C، D، E را گذرانده اند). بهترین عدد واحدی که اندازه می گیرد کدام دانش آموز بهتر است کدام است؟ ایده اولیه من برای حل این مشکل استفاده از تجزیه و تحلیل اجزای اصلی (PCA) بود. اگر همه متقاضیان هر 5 دوره را گذرانده بودند، خوب کار می کرد. اکنون، در این پست می بینم که PCA با داده های از دست رفته به خوبی کار نمی کند. من دو سوال دارم: 1. اگر هیچ داده ای وجود نداشته باشد (همه دانش آموزان همه دروس را گذرانده اند)، آیا راهی بهتر از PCA برای یافتن یک معیار وجود دارد؟ 2. اگر داده های گم شده ای داشته باشم، آیا راه حلی بهتر از روش به اصطلاح DINEOF که در لینکی که در بالا ارسال کردم وجود دارد؟
روشی برای مقایسه رتبه‌بندی‌ها از چندین منبع مختلف با داده‌های گمشده
94614
من می دانم که توابع چگالی هسته تک متغیره به طور یکنواخت a.s همگرا می شوند. به توزیع واقعی آیا این برای kdf چند متغیره نیز صادق است؟ آیا قضیه ای وجود دارد که میزان همگرایی را در حالت چند متغیره نشان دهد؟ در مورد حالت تک متغیره چطور؟ پیشاپیش از شما متشکرم.
نرخ همگرایی برای برآوردگرهای چگالی هسته چند متغیره
112325
من دوست دارم SEM را با lavaan انجام دهم. اما من دوست ندارم آنها را گزارش کنم زیرا راه خوبی برای طرح آنها به سبک APA پیدا نکرده ام. من معمولا مدل را در پاورپوینت بازسازی می کنم و پارامترها را با دست اضافه می کنم. چه دردی! برای مشاهده نتایج SEM معمولاً از semPaths از بسته semPlot استفاده می‌کنم که عالی است، اما خروجی آن به سبک APA (یا هر چیزی نزدیک به آن) نیست. هنگام ارائه SEM چگونه با آن مشکل برخورد می کنید؟ کسی راه حل خوبی برای این موضوع پیدا کرده است؟
پلاتین گدازه SEM/CFA به سبک APA
49422
من سعی می کنم مشکل را روشن کنم و سپس سؤالات را بپرسم. * * * **مشکل** (نام متغیرها به دلیل محرمانه بودن پوشانده شده است): من یک رگرسیون لجستیک باینری اجرا کردم که در آن 5 متغیر مستقل (IVs) وجود داشت: A، B، C، D، و E. A و ب دغدغه من هستند. C نیز دغدغه من است و بعداً در مورد آن صحبت خواهم کرد. آنها هر کدام دو عامل دارند (A1 و A2، B1 و B2). هنگامی که من تخمین را انجام دادم، برخی از یافته های مهم ظاهر شد. با این وجود، جهت ضرایب (مقادیر بتا) برای A و B برعکس چیزی بود که من انتظار داشتم! با توجه به بیشتر ادبیات (نه همه آنها)، انتظار داشتم A و B بتای مثبت داشته باشند، در حالی که هر دو دارای ضریب منفی بودند. ابتدا مدل ها را برای حدود سه روز کامل چک کردم. هیچ اشتباهی در آنها وجود نداشت، و هر تغییری که من در مدل ها ایجاد کردم، جهت ها تغییر نکرد (به جز اینکه در هیچ یک از آن تغییرات، سعی نکردم تعاملات را حذف کنم). احتمال ورود به سیستم نیز نشان داد که من در مسیر خوبی هستم. سپس تصمیم گرفتم دیدگاه ذهنی خود را در برابر نتایج عجیب کنار بگذارم و به نتایج تحلیل رگرسیون اعتماد کنم. سپس برای بحث در مورد آن نتایج عجیب و غریب گذشتم و سعی کردم یافته های بحث برانگیز را توجیه کنم. در حین بحث، به این نکته رسیدم که این دو متغیر به شدت به هم مرتبط هستند. اولاً آنها یک تعامل معنی دار داشتند. ثانیاً توزیع پیش بینی کننده A به شدت بر روی B تأثیر گذاشته است و طبق ادبیات، A و B می توانند در نمونه من می تواند اثرات متضادی داشته باشد. این عدم تعادل می تواند اثر A را نیز مختل کند از آنجایی که C نیز عجیب بود، فکر کردم که شاید کل مدل به شکل بدی تحت تأثیر مشکلاتی مانند چند خطی قرار گرفته باشد، از خودم پرسیدم اگر فقط A و B را در مدل جدا کنم، چه اتفاقی خواهد افتاد؟ ، B و C برخی از منابع سوگیری هستند، آیا کاهش تعداد IV ها می تواند به نتایج متفاوتی منجر شود: وقتی همه IV های دیگر را از مدل حذف کردم و فقط A، B و را ترک کردم؟ A*B، یکی از ضرایب مطلوب و منطبق بر ادبیات و عقل سلیم است، بنابراین ممکن است بگویم برخی از خطاها در مدل من وجود دارد که مدل اصلی را مختل می کند (مانند چند خطی بودن). تصمیم گرفتم هر پیش‌بینی‌کننده عجیبی را به‌صورت جداگانه بررسی کنم. وقتی تعاملات را حذف کردم و فقط پنج IV را ترک کردم، نتایج بسیار سازگارتر به نظر می رسید. ظاهراً مشکل زمانی شروع می شود که برخی از تعاملات خاص (اما نه همه آنها) به مدل اضافه شود. پس از اضافه کردن آنها، جهت بتای A و C برعکس می شود. کمی آزاردهنده است زیرا با افزودن آن فعل و انفعالات خاص، احتمال ورود به سیستم به طور قابل توجهی کاهش می یابد (از حدود -75 به -48)، بنابراین من نمی توانم به راحتی آن تعاملات را نادیده بگیرم. * * * **سوالات** ( **اصلها 3 و 4 هستند**، اما پاسخ به بقیه نیز بسیار قابل تقدیر است): 1. وقتی مدل به طرز عجیبی عمل می کند، اما LRT و log احتمال می گوید که آن خوب است، کدام را انتخاب کنیم؟ عقل سلیم ذهنی، یا معیارهای عینی آماری؟ 2. به نظر شما آیا در وهله اول مشکلی در مورد من وجود دارد؟ شاید همه چیز خوب باشد. در صورت تمایل می توانم داده های خام را نیز ارائه دهم. 3. در مورد من چه می کنید؟ حداقل سه انتخاب را می توان انجام داد: الف. کنار گذاشتن تعاملات. ب- رها نکردن آنها و گزارش مدل عجیب. ج. گزارش هر دو مدل با و بدون تعامل، و همچنین مدل های تعداد محدود IV (مثلاً فقط A و B)، و سپس سعی کنید به طور ذهنی بحث کنید که این تعاملات است که باعث عجیب شدن مدل بزرگ اصلی می شود. 4. من قصد دارم دومی را انجام دهم (3.C). اما آنقدر کثیف خواهد بود و ظاهر چندان خوبی ندارد. نمی‌دانم آیا روشی ظریف و عینی برای یافتن منبع خطا در مدل اصلی وجود دارد (البته اگر اشتباهی وجود داشته باشد)، بنابراین به جای بحث‌های ذهنی، می‌توانم ادعاهای خود را بر روی برخی معیارهای آماری عینی ثابت کنم. به عنوان مثال، آیا روشی برای برجسته کردن تعاملات مشکل ساز طبق برخی آمار وجود دارد؟ 5. آیا پیشنهاد یا ایده ارزشمند دیگری دارید؟
وقتی پیش‌بینی‌کننده‌ها با عقل سلیم/ادبیات مطابقت ندارند، اما مدل مطابق با احتمال ورود و LRT خوب/بهترین است، چه باید کرد؟
94615
گیلونکو-کانتلی به یونیفرم a.s. همگرایی ECDF تک متغیره سوالات من این است: 1. آیا تضمین های مشابهی برای ECDF چند متغیره وجود دارد؟ 2. میزان همگرایی چگونه به ابعاد r.v بستگی دارد؟ پیشاپیش از شما متشکرم.
همگرایی ECDF چند متغیره
97796
من در حال پردازش سیگنال هستم و یک هیستوگرام دارم که زمانی که فقط نویز در سیگنال وجود دارد، شکل زنگی دارد. (به من توصیه شده است که با توجه به قضیه حد مرکزی این مورد انتظار است)! شکل هیستوگرام به ![With Signal] (http://i.stack.imgur.com/AIm6l.png) تغییر می کند، توجه داشته باشید که من نوارهای وسط را حذف کرده ام، زیرا آنها بسیار زیاد هستند. بالا، دیدن جزئیات در پایه منحنی را دشوار می کند. من می خواهم یک آزمایش برای تمایز بین این دو مورد. من می‌دانم که آزمایش‌هایی برای طبیعی بودن وجود دارد، اما مطمئن نیستم که در این مورد چقدر مناسب هستند همانطور که در اینجا توضیح داده شد. یکی از رویکردهایی که در نظر گرفته ام، آزمایش صافی است > $\int_{-\infty}^{\infty}{[f''(x)]^2 dx}$ که در آن f توزیع نرمال است **EDIT** همانطور که Glen_b پیشنهاد داد، من تست Anderson Darling Float[] sortedYs را امتحان کردم. sortedYs = Hist.OrderBy(a => a).ToArray<float>(); float[] cdf = new float[sortedYs.Length]; MathNet.Numerics.Distributions.LaplaceDistribution ld = جدید MathNet.Numerics.Distributions.LaplaceDistribution(U, (b)); for (int i = 0; i < sortedYs.Length; i++) { cdf[i] = (float) ld.CumulativeDistribution(sortedYs[i]); } float AD = 0; برای (int i = 0; i < cdf.Length; i++) { AD -= (float)((2 * (i + 1) - 1) * (Math.Log(cdf[i]) + Math.Log( 1 - cdf[cdf.طول - 1 - i]))); } AD /= cdf.Length; AD -= cdf.Length; AD *= (float)(1 + (0.75 + 2.25 / cdf.Length) / cdf.Length); (من از سی شارپ و Math.Net استفاده می کنم) هنوز کاملاً مطمئن نیستم که آیا اندرسون عزیزم اینگونه کار می کند. (حدود 8000 - 14000 برای حبابی، حدود 4000-12000 برای غیر حبابی). همچنین احتمالاً شایان ذکر است که من مجموعه داده بسیار بزرگی دارم، زیرا تصاویر من 1920*1080 پیکسل دارند. مقدار AD محاسبه شده برای فریم های ویدئویی متحرک بسیار بالاتر است. محاسبه هموار با تخمین $\int_{-\infty}^{\infty}{[f''(x)]^2 dx}$ با استفاده از داده‌های خام برای f و سپس با انجام همان تخمین اما با استفاده از توزیع لاپلاس (با استفاده از میانگین نمونه و b) برای f تفاوت این دو تخمین را پیدا می کنم. من برای بدون حرکت 0.01 و کمتر و برای تصاویر متحرک بالاتر می گیرم. با این حال در این دسته بندی ها همپوشانی وجود دارد، بنابراین هنوز آنطور که من می خواهم قابل اعتماد نیست. **ویرایش** من قصد دارم تعدادی هیستوگرام دیگر بدون حرکت ارسال کنم ![بدون حرکت](http://i.stack.imgur.com/s1oZZ.png) Motion Present ![motion](http://i .stack.imgur.com/LZ2fS.png) در تمام این مدت به نویز در دم نگاه می کردم، اما اگر به عقب برگردم و به کل هیستوگرام نگاه کنم، می توان دید که تصاویر با حرکت در مقایسه با تصاویر بدون حرکت، واریانس کمتری در هیستوگرام خود دارند. من فکر می کنم این ممکن است تا حدی به دلیل طبقه بندی پیکسل ها به bin ها در یک هیستوگرام باشد. (من از opencv و emgu استفاده می کنم، بنابراین برای سرنخ های بیشتر در اینجا باید به کد منبع نگاه کنم). تصاویر با حرکت در واقع نسبت به تصاویر بدون حرکت دارای گستره وسیع تری از مقادیر مقیاس خاکستری هستند. با این حال، هنگام محاسبه هیستوگرام، پیکسل‌ها باید در سطل‌هایی از 0 تا 255 قرار گیرند. بنابراین، یک تصویر با مقادیر بسیار متغیر در مقیاس خاکستری دارای سطل‌هایی با وضوح پایین‌تر است. و بنابراین، پیکسل های بیشتری در یک سطل قرار می گیرند، حتی اگر کمی متفاوت باشند. این به نوعی داده های من را خراب می کند، اما در عین حال، این اثری است که من هم می توانم از آن بهره ببرم.
تست مناسب برای تشخیص سیگنال در نویز توزیع شده عادی
68035
من چند گفتگو توسط افراد غیرآمار دیده‌ام که در آنها به نظر می‌رسد که آنها معیارهای همبستگی را با استفاده از اطلاعات متقابل به جای رگرسیون (یا آزمون‌های آماری معادل/مرتبط نزدیک) دوباره ابداع می‌کنند. من فکر می کنم دلیل خوبی وجود دارد که آماردانان از این رویکرد استفاده نمی کنند. درک غیرمتخصص من این است که برآوردگرهای آنتروپی/اطلاعات متقابل مشکل ساز و ناپایدار هستند. من فرض می‌کنم قدرت نیز در نتیجه مشکل‌ساز است: آن‌ها سعی می‌کنند با این ادعا که از چارچوب تست پارامتریک استفاده نمی‌کنند، این مشکل را برطرف کنند. معمولاً این نوع کارها با محاسبات قدرت یا حتی فواصل اطمینان/اعتماد به دردسر نمی خورد. اما برای اتخاذ موضع طرفدار شیطان، آیا همگرایی آهسته در زمانی که مجموعه داده ها بسیار بزرگ هستند، کار بزرگی است؟ همچنین، گاهی اوقات به نظر می رسد که این روش ها کار می کنند به این معنا که ارتباط ها توسط مطالعات بعدی تایید می شوند. بهترین انتقاد در برابر استفاده از اطلاعات متقابل به عنوان معیاری برای ارتباط چیست و چرا از آن به طور گسترده در عمل آماری استفاده نمی شود؟ ویرایش: همچنین آیا مقالات خوبی وجود دارد که این موضوعات را پوشش دهد؟
چرا آماردانان از اطلاعات متقابل به عنوان معیار ارتباط استفاده نمی کنند؟
108050
من روی یک پروژه طبقه بندی کار می کنم و می خواهم از SVM و/یا Clustering Algs استفاده کنم. چیزی که من با آن مشکل دارم تصمیم گیری در مورد نحوه تنظیم بردارهای ویژگی است. من قبلاً تصمیم گرفته ام که چه ویژگی هایی داشته باشم و قبلاً مواردی مانند همبستگی و اضافه کردن را در نظر گرفته ام. برخی از ویژگی‌های من طبقه‌بندی هستند (منطقه، جنسیت، شغل...) و برخی عددی هستند (سن، درآمد،...) من می‌خواهم از برخی از آنها استفاده کنم. اما من مطمئن نیستم که چگونه ویژگی ها را به گونه ای تعیین کنم که دقیق باشد و نویز ایجاد نکند. (یک کاری که فکر کردم انجام دهم این بود که برای هر متغیر طبقه‌ای، مثلاً جنسیت، چیزی مربوط به متغیر را محاسبه کنم (مثلاً احتمال پیش‌فرض را با توجه به اینکه شما از جنس خاصی هستید) محاسبه کنید. ایده این است که چیزی بسیار مرتبط با متغیر دسته بندی و به جای آن از آن مقدار استفاده کنید. با تشکر
تنظیم بردارهای ویژگی
104929
بگو من استخوان های ساق پا از اسکلت های مختلف _N_ جمع آوری کردم. همه آنها حدود 30 سانتی متر طول دارند، و من ویژگی های مختلف P1، P2، P3، P4 و P5 را در هر 3 میلی متر در امتداد این استخوان ها اندازه گرفتم (بنابراین من 100 نقطه داده برای هر P دارم) تا ببینم آنها چقدر تراکم استخوان را اندازه می گیرند. من همچنین مقدار _F_ قارچ را در امتداد این استخوان ها اندازه گرفتم (هر 3 میلی متر نیز). من به خصوص به P5 علاقه مند هستم، که به نظر می رسد نشانگر بسیار خوبی برای تراکم استخوان است، و می خواهم ببینم که P1، P2، P3 و P4 چقدر با P5 ارتباط دارند. من می خواهم 1) یک اندازه گیری جهانی از همبستگی بین هر P و P5 با در نظر گرفتن اقدامات در امتداد کل استخوان (با آزمون معنی داری) داشته باشم. از آنجایی که تراکم استخوان به شکل خاصی متفاوت است (غیر خطی، غیر حلقوی، ...)، و مقدار قارچ می تواند P دیگر را تحت تأثیر قرار دهد، من نیز علاقه زیادی به محاسبه 2) همبستگی محلی (مثلاً در امتداد 3 سانتی متر) دارم. بخش) بین هر P و P5 در امتداد استخوان. مشکل 1) این است که همه سری‌ها همبستگی خودکار دارند (زیرا همه ویژگی‌ها در فضا به کندی تغییر می‌کنند). من یک همبستگی متقاطع ساده انجام می دادم، اما پس از آن، مقدار p برای این واقعیت که سری ها همبستگی خودکار دارند، نیاز به اصلاح دارد. بعد من چیکار کنم؟ و آیا قبل از محاسبه همبستگی باید مقادیر تمام اسکلت ها را در هر نقطه در امتداد استخوان میانگین کنم؟ برای 2) من به محاسبه یک همبستگی در حال حرکت/حرکت روی یک پنجره، مثلاً 10 نقطه (3 سانتی‌متر) فکر می‌کردم تا اندازه‌گیری همبستگی را در هر نقطه داشته باشم. سپس من نه تنها باید همبستگی خودکار را در نظر بگیرم. من همچنین باید آزمایش چندگانه ناشی از همبستگی دویدن/حرکت را تصحیح کنم. آیا ایده ای در مورد اینکه چگونه می توانم این کار را انجام دهم (اصلاحات بونفرونی بیش از حد محافظه کارانه خواهد بود) دارید؟ یکی از چیزهایی که می‌خواهم برای همبستگی دویدن/حرکت نشان دهم (اما نه تنها) این است که مقادیر کم همبستگی بین P1، P2، ...، P4 و P5 زمانی به دست می‌آید که اندازه قارچ _F_ بالا باشد (فقط گفتن ). من از R استفاده می کنم، اما در آمار مبتدی هستم، پس ممنون می شوم اگر بتوانید این را در پاسخ خود در نظر بگیرید :) با تشکر. P.S. من استخوان ها را مطالعه نمی کنم، اما این داستان ساده تر به نظر می رسد.
آزمون اهمیت همبستگی بین دو سری خودهمبسته
78748
ما در حال حاضر در حال بررسی برخی از نتایج و انجام برخی از تست‌های ANOVA بر روی عملکرد جستجوی انسانی در محیط‌های مجازی با استفاده از سیستم‌های صوتی مختلف برای رندر صوتی هستیم. زمانی که صدا از طریق سیستم‌های مختلف پخش می‌شود، مدت زمانی را که یک شرکت‌کننده برای یافتن صدا در یک محیط مجازی نیاز دارد، اندازه‌گیری می‌کنیم. متغیر مستقل ما «سیستم صوتی» و متغیر وابسته ما «زمان» است. همه سوژه ها با استفاده از انواع سیستم های موجود (Within) صدا را جستجو کرده اند. آزمون یک آزمون کامل است. مشکل این است که وقتی یک ANOVA یک طرفه را انجام می‌دهیم، برای اینکه ببینیم آیا تفاوت معنی‌داری بین زمان صرف شده برای جستجوی یک صدا با استفاده از یک سیستم صوتی خاص وجود دارد یا خیر، P-Value حاصل 0.064 است. اما با استفاده از Anova دو طرفه، P-value به 0.0217 تبدیل می شود. **The One-Way Anova:** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mizqg.png) **The Two-Way Anova:** ![شرح تصویر را اینجا وارد کنید ](http://i.stack.imgur.com/hiRTY.png) موردی که باید به آن نگاه کنید (asfactor(soundSystem)) است. ما انتظار داشتیم که این دو مقدار یکسان باشند، اگرچه اینطور نیست. ما اینجا چه چیزی را از دست می دهیم؟ آزمایش ها در R انجام شده است.
تفسیر مقدار p برای ANOVA یک طرفه و ANOVA دو طرفه
68032
این یک سوال در مورد لفاظی توصیف تجزیه و تحلیل انجام شده با استفاده از یک مجموعه داده عمومی یا هر مجموعه داده از قبل موجود دیگری است. **وضعیت فرضی این است:** محققی گزارش می دهد که آنها فرضیه ای دارند. برای آزمایش این، آنها یک نمونه، n، از افرادی که معیارهای مطالعه را برآورده می کنند، از پایگاه داده N شرکت کننده می گیرند. آنها یک آزمون منفرد و پیشینی این فرضیه را روی نمونه اجرا می کنند و گزارش می دهند که تفاوت گروه فرضی، یا همبستگی، یا هر چیز دیگری، بزرگتر از 0، p<0.05 است. _آیا این اکتشافی است یا نمونه خوبی از آزمون فرضیه است؟_ از آنجایی که هر تحلیل گزارش شده از مجموعه داده های موجود ممکن است یکی از بازجویی های متعدد باشد، هر گزارشی باید به جای آزمون فرضیه به عنوان اکتشافی در نظر گرفته شود. به عبارت دیگر، ارائه تحلیلی از مجموعه داده‌های موجود با استفاده از بلاغت آزمون فرضیه‌های نمونه، خواننده را برای تفسیر بیش از حد نتایج گمراه می‌کند. با این حال، من همچنین می‌توانم ببینم که استدلالی برای بهره‌مند شدن محقق از شک وجود دارد، همانطور که در همه مطالعات از پیش ثبت‌نشده وجود دارد. به عبارت دیگر، آیا می توانیم فرض کنیم که محقق فقط این فرضیه را بر روی این زیر مجموعه واحد از پایگاه داده موجود آزمایش کرده است؟
آیا تجزیه و تحلیل داده های موجود همیشه اکتشافی است یا می توان از آن برای آزمون فرضیه استفاده کرد؟
78744
من هرگز ندیده ام که یک پارامتر تنظیم (معمولاً لامبدا یا آلفا) برای هر پارامتر متفاوت باشد. مردم پارامترهای تنظیم متفاوتی را در نظر می گیرند، اما من معتقدم که آنها همه پارامترها را با قدرت برابر جریمه می کنند. یک رگرسیون خطی با وقفه و 2 پیش بینی را در نظر بگیرید. یک پیشنهاد برای تنظیم: به جای $\lambda \sum B_i^2$ $\sum(\lambda_i * B_i^2)$ را در نظر بگیرید، از 1 تا n، جایی که i پارامتر i-ام است. در حالی که به طور کلی یک $\lambda$ روی همه ضرایب اعمال می شود، ممکن است یک بردار لامبدا داشته باشیم، یک بردار برای هر ضریب (به جز ضریب). برای $B_1$، $\lambda$ ممکن است 5 باشد، در حالی که $\lambda$ برای $B_2$ می تواند 10 باشد. آیا افراد از پارامترهای تنظیم متفاوت برای پارامترهای مختلف استفاده کرده اند، و آیا دلایلی برای این کار وجود دارد؟ چه زمانی چنین موردی خواهد بود؟ می توان تصور کرد که از نظر تئوری ترجیح می دهیم یک پارامتر را بیشتر از پارامتر دیگر کوچک کنیم.
پارامتر تنظیم متفاوت در هر پارامتر
78741
در R (2.15.2) من یک بار یک ARIMA (3،1،3) را در یک سری زمانی و یک بار یک ARMA (3،3) را در سری های زمانی متفاوت نصب کردم. پارامترهای برازش متفاوت است، که من به روش برازش در ARIMA نسبت دادم. همچنین، برازش یک ARIMA(3،0،3) روی همان داده‌های ARMA(3،3) بدون توجه به روش برازشی که استفاده می‌کنم، به پارامترهای یکسان منجر نمی‌شود. من علاقه مند به شناسایی این تفاوت هستم که از کجا ناشی می شود و با چه پارامترهایی می توانم (اگر اصلاً) ARIMA را متناسب کنم تا ضرایب تناسب مشابه با ARMA را بدست بیاورم. کد نمونه برای نشان دادن: library(tseries) set.seed(2) #دریافت یک سری زمانی به صورت دستی x<-c(1,2,1) e<-c(0,0.3,-0.2) n<-45 AR< -c(0.5,-0.4,-0.1) MA<-c(0.4,0.3,-0.2) for(i در 4:n){ tt<-rnorm(1) t<-x[طول(x)]+tt+x[i-1]*AR[1]+x[i-2]*AR[2]+x[i-3] *AR[3]+e[i-1]*MA[1]+e[i-2]*MA[2]+e[i-3]*MA[3] x<-c(x,t) e<-c(e,tt)} par(mfrow=c(2,1)) plot(x) plot(diff(x,1)) #fitting نسخه های مختلف. آنچه من می خواهم به دست بیاورم fit1 با ARIMA() fit1<-arma(diff(x,1,lag=1),c(3,3),include.intercept=F) fit2<-arima(x,c( 3,1,3),include.mean=F) fit3<-arima(diff(x,1),c(3,0,3),include.mean=F) fit4<-arima(x,c(3,1,3),method=CSS,include.mean=F) fit5<-arima(diff(x,1),c(3,0,3),method =CSS,include.mean=F) cbind(fit1$coe,fit2$coe,fit3$coe,fit4$coe,fit5$coe) ویرایش: استفاده از مجموع شرطی مربع ها بسیار نزدیک است، اما کاملا وجود ندارد با تشکر از راهنمایی برای fit1! ویرایش 2: من فکر نمی کنم این تکراری باشد. نقاط 2 و 3 به مشکلات متفاوتی نسبت به مشکلات من می پردازند، و حتی اگر مقدار اولیه ذکر شده در نقطه 1 را با fit4<-arima(x,c(3,1,3),method=CSS,include.mean=F, نادیده بگیرم. init=fit1$coe) من هنوز ضرایب مختلفی دریافت می کنم
ARIMA vs ARMA در سریال های متفاوت
78745
من یک مشکل طبقه بندی دارم که در آن می خواهم یک مشاهده $X$ را در جمعیتی که با یک pdf برابر با $f_1$ یا $f_2$ توصیف شده است قرار دهم. با توجه به $P_{f_i}(\frac{f_1(X)}{f_2(X)}=j)=0$ برای همه $j\in [0,\infty]$, $i\in\\{1، 2\\}$، می‌خواهم نشان دهم که هر قانون طبقه‌بندی قابل قبول، یک قانون طبقه‌بندی بیز برای برخی از $\pi$ قبلی است. هر گونه کمکی برای انجام این کار بسیار قدردانی خواهد شد.
مشکل طبقه بندی: قانون مجاز یک قانون بیز برای برخی از $\pi$ قبلی است
104928
من در تلاش برای طراحی مطالعه ای هستم که در آن تأثیر یک متغیر بر تصمیم گیری بیمار با تعدیل سایر متغیرهای بالینی ارزیابی شود. برای ارائه جزئیات بیشتر، یک متغیر پیوسته بالینی (به نام X) که با عود بیماری مرتبط است، در کنار برخی از متغیرهای بالینی دیگر استفاده می شود. فرض کنید من 100 بیمار دارم و در طول مطالعه، بیماران به گونه ای تصادفی می شوند که نیمی از آنها متغیر X را در کنار سایر متغیرها دریافت می کنند و انتخاب می کنند که تحت درمان قرار گیرند یا خیر. در حالی که نیمی دیگر اطلاعات مربوط به متغیر X را دریافت نمی کنند و بر اساس متغیرهای دیگری که به آنها نشان داده می شود تصمیم می گیرند تحت درمان قرار گیرند یا خیر. در حال حاضر، من علاقه مند به ارزیابی تاثیر X بر تصمیم هستم (درمان در مقابل عدم درمان)، اما به عنوان یک متغیر پیوسته و مشکل این است که نیمی از بیماران متغیر X را دریافت نکرده اند. بنابراین، رویکرد مناسب در اینجا چیست؟ آیا می توانم از یک مدل رگرسیون لجستیک استفاده کنم که در آن 1) متغیرهای بالینی دیگر، 2) اینکه آیا کسی X را دریافت کرده است یا نه (دودویی)، و سپس 3) X را به عنوان متغیر پیوسته تنظیم کنم (برای کسانی که X دریافت نکرده اند، این مقدار خواهد بود. 0 باشد). از نظرات شما در این مورد قدردانی می کنم. با تشکر
مدلسازی متغیری که هم مقوله ای و هم پیوسته است
78747
من روی شبکه‌های عصبی برای مشکل رگرسیون در R با استفاده از بسته‌هایی مانند «nnet»، «caret» و غیره کار می‌کنم. داده‌هایم را به قطار، اعتبارسنجی و آزمایش تقسیم کرده‌ام. شک من این است که آیا تابع train() در بسته caret برای R به مجموعه اعتبارسنجی نیز اهمیت می دهد. از آنجایی که من متوجه شدم، پس از آموزش مدل «nnet»، باید به بررسی مجموعه داده های اعتبارسنجی ادامه دهید تا از برازش یا یادگیری بیش از حد یعنی محدود کردن تعداد تکرارها جلوگیری کنید. سپس باید پارامترهای واپاشی و اندازه لایه‌های پنهان را تنظیم کنیم و در نهایت آن را روی مجموعه داده‌های تست اعمال کنیم. آیا درک اشتباهی دارد؟ FYI. این کدی است که من در حال پیاده سازی Y=read.csv(file=./dolcan.csv,header=T) ratio=as.integer(0.5*nrow(Y)) ratio1=as.integer(0.75*nrow هستم (Y)) traindata=Y[(1:نسبت)،c(2:ncol(Y))] valdata=Y[(ratio:ratio1),c(2:ncol(Y))] testdata=Y[((ratio1+1):nrow(Y)),c(2:ncol(Y))] ## Train شبکه و تنظیم تعداد گره ها و decay maxout= max(traindata[,1]) # برای مقیاس کردن mygrid خروجی <- expand.grid(.decay=c(0.5, 0.1), .size=c(3,4,5)) nnetfit <- train(dolcan/maxout ~ ., data=traindata, method=nnet, maxit=1000 , tuneGrid=mygrid, trace=F) nnetfit
شبکه عصبی برای پیش بینی
108055
من یک نوع سوال مبهم در مورد استفاده از الگوریتم رگرسیون حداقل زاویه (LARS) برای انتخاب متغیر دارم. اگر من درست متوجه شده باشم، استاد من LARS را چنین فرموله می کند: $$\mathbb{min}\ \hat{y}^T\hat{y}\ \mathbb{such}\ \mathbb{that}\ |t_j | \le t\ \forall\ j$$ که در آن $t_j\ = (x_j^Tx_j)^{-1/2}x_j^T(y-\hat{y})/\sigma$. مجموعه داده ای که من با آن کار می کنم با نمرات یک کلاس کوچک سروکار دارد ($\mathbb{n = 22}$ دانش آموزان، $\mathbb{p = 16}$ تکالیف درجه بندی شده) و پاسخ نمره دانش آموزان در امتحان نهایی است. . من به طور تصادفی به نتیجه ای برخورد کردم که یا کمی جالب بود یا تصادفی، و می خواستم بدانم آیا کسی چیزی در مورد چیزی شبیه به این که از نظر ریاضی مربوط به انتخاب متغیر است می داند؟ من پیش‌بینی‌کننده‌ها را استاندارد کردم و پاسخ را در مرکز قرار دادم و برای هر یک از مراحل $\mathbb{p}$ در الگوریتم LARS، یک اعتبارسنجی متقاطع ترک یک خروجی اجرا کردم. می خواستم راهی پیدا کنم که بگویم در کدام مرحله باید توقف کنم. چیزی که به آن فکر کردم این بود که یک بردار $\hat{y_i}^T\hat{y_i}$ با عناصر $\mathbb{n}$ ایجاد کنم که در آن $\hat{y_i}$ مدل پیش‌بینی‌شده با $\mathbb باشد. {i^{th}}$ مشاهده وجود ندارد. $\hat{y}^T\hat{y}$ مقدار مدل کامل پیش‌بینی‌شده در هر مرحله است. از آنجا من $\mathbb{p}$ z-scores را محاسبه کردم که: $$z_j= \dfrac{\hat{y}^T\hat{y}-mean(\hat{y_i}^T\ hat{y_i})} {sd(\hat{y_i}^T\hat{y_i})}$$ چیزی که من پیدا کردم این بود که $\mathbb{z_j}$ کاهش یافت تا زمانی که به حداقل رسید در $\mathbb{z_8}$ و سپس افزایش یافت. این اتفاق افتاد که مدل با 8 متغیر دقیقاً همان مدلی بود که وقتی تصمیم گرفتیم فقط $\mathbb{\beta_j} \mathbb{'s}$ ($\beta_9$ منفی بود) مثبت را در نظر بگیریم، به آن رسیدیم زیرا این امر منطقی بود. . من همچنین این داده ها را از طریق رگرسیون گام به گام معمولی اجرا کردم و چیزی شبیه حداقل AIC در 3 متغیر و حداقل BIC در 13 متغیر به دست آوردم. من سعی می‌کنم کدم را از نظر فنی درست کنم و این را با داده‌های مختلف اجرا کنم، اما سوال طولانی من اساساً این است که آیا کسی فکر می‌کند که این چیزی از نظر ریاضی به ایده‌ای از رگرسیون/انتخاب متغیر یا صرفاً تصادفی عجیب و غریب مرتبط است؟
استفاده از Leave-One-Out Cross Validation با LARS
100967
من مدلی برای پیش بینی احتمال برنده شدن هر اسب در یک مسابقه ایجاد کرده ام. خروجی مدل احتمال برنده شدن هر اسب پیش‌بینی‌شده است، مجموع همه احتمالات 1 خواهد بود. اگر بخواهم به قیمت‌های بنگاه‌ها برای مسابقه اسب‌سواری نگاه کنم، آنها چیزی شبیه به این خواهند بود: `3.9، 5.4، 3.95 , 6.7, 9, 14` اگر مجموع احتمالات برنده شدن هر اسب را در نظر بگیریم، چیزی شبیه به این بدست می آوریم: `1/3.9 + 1/5.4 + 1/3.95 + 1/6.7 + 1/9 + 1/14 = 1.027` به دلیل دور زدن شرط‌بندی، شانس بیش از 1 است. این برای من مشکل‌ساز است، زیرا باید شانس‌های ارائه‌شده در شرط‌بندی و احتمال مدل خود را با هم مقایسه کنم تا تعیین کنم آیا شرط‌بندی ارزشی دارد یا خیر. برای مقایسه دقیق آنها باید یکی از این موارد را انجام دهم: 1. حذف اضافه از قیمت های بنگاه ها (احتمال ها را کاهش دهید) 2. خروجی مدل من را به گونه ای افزایش دهم که از نظر تئوریک این کار را به طور دقیق انجام دهم. از دید؟ من معتقدم که انجام این کار به صورت خطی - اعمال یک فاکتور برای هر اسب - نادرست است. من معتقدم که هر اسب باید درصدی از دور راند را بر اساس شانس برنده شدن خود انجام دهد، اسب هایی که احتمال بیشتری برای برنده شدن دارند باید نسبت بیشتری از دور راند را بگیرند. این درست تر به نظر می رسد؟ با تشکر از کمک شما.
چگونه می توان شانس واقعی را از قیمت های شرط بندی بدست آورد؟ حذف overround
99090
مدل رگرسیون پانل دو دوره ای: * $Y_{it}=\beta_0\delta_{t2} + \beta_1X_{it} +\alpha_i + \epsilon_{it}$ Where * $t=1, 2$ * $i= 1,...,n$ واحدهای مقطعی ترسیم شده از طریق نمونه گیری تصادفی را نمایه می کند. * $\alpha_i$ یک اثر مشاهده نشده خاص برای فرد است. * $\delta_i=1$ اگر $t=2$; $0$ if $t=1$ به عبارت دیگر: * $Y_{i1}=\beta_1X_{i1} +\alpha_i + \epsilon_{i1}$ * $Y_{i2}=\beta_0 + \beta_1X_{i2} + \alpha_i + \epsilon_{i2}$ اکنون برای تخمین‌گر تفاضل اول $\hat{\beta_1}^{FD}$ برای سازگاری، باید برون زایی دقیق را فرض کرد: * $E[\epsilon_{it}|X_{i2}، X_{i1}]=0$ برای $t=1، 2$ برای برآوردگر OLS ادغام شده $\hat{ \beta_1}^{POLS}$ برای سازگاری، باید برون زایی ضعیف را فرض کرد: * $E[u_{it}|X_{it}]=0$ که در آن $u_{it}=\alpha_i + \epsilon_{it}$ می‌دانم که $\hat{\beta_1}^{POLS}$ کمتر از $\hat{\beta_1}^{FD}$ خواهد بود زیرا $u_ {it}=\alpha_i + \epsilon_{it}$ به‌صورت سریالی همبستگی دارد، اما **آیا لزوماً چنین است که تخمین‌گرهای تفاضل اول همیشه برتر از برآوردگرهای OLS ادغام شده؟** مطمئناً فرض برون‌زایی دقیق در مورد اولین تفاوت‌ها این احتمال را که X$$ ممکن است بر $Y$ تأثیر دائمی داشته باشد و در نتیجه باعث سوگیری $\hat{\beta_1}^{FD}$ باشد را رد می‌کند؟ به عبارت دیگر، اگرچه فرض برون‌زایی ضعیف باعث می‌شود $\hat{\beta_1}^{POLS}$ ناکارآمد باشد، آیا ممکن است فرض برون‌زایی دقیق $\hat{\beta_1}^{FD}$ را سوگیری کند؟ **معادل بین برون زایی شدید و ضعیف وجود دارد.**
تفاوت های اول در مقابل OLS ادغام شده
3337
پس از خواندن یکی از «نکات پژوهشی» R.J. Hyndman در مورد اعتبار متقاطع و سری های زمانی، من به یک سوال قدیمی خود برگشتم که سعی می کنم در اینجا فرموله کنم. ایده این است که در مسائل طبقه بندی یا رگرسیون، ترتیب داده ها مهم نیست، و از این رو می توان از اعتبار سنجی متقاطع _k_-fold استفاده کرد. از سوی دیگر، در سری های زمانی، ترتیب داده ها بدیهی است که اهمیت زیادی دارد. با این حال، هنگام استفاده از یک مدل یادگیری ماشینی برای پیش‌بینی سری‌های زمانی، یک استراتژی رایج این است که سری {y_1، ...، y_T} را به مجموعه‌ای از «بردارهای ورودی-خروجی» تغییر شکل دهیم که برای مدت زمان t دارای شکل هستند. (y_{t-n+1}، ...، y_{t-1}، y_{t}؛ y_{t+1})، با عرض پوزش برای نماد latex-sy. حال، هنگامی که این تغییر شکل انجام شد، آیا می‌توانیم در نظر بگیریم که مجموعه «بردارهای ورودی-خروجی» به‌دست‌آمده نیازی به ترتیب ندارد؟ برای مثال، اگر از یک شبکه عصبی پیش‌خور با n ورودی برای «یادگیری» این داده‌ها استفاده کنیم، بدون توجه به ترتیبی که بردارها را به مدل نشان می‌دهیم، به نتایج یکسانی می‌رسیم. و بنابراین، آیا می‌توانیم از اعتبارسنجی متقاطع k-fold به روش استاندارد استفاده کنیم، بدون اینکه نیازی به جاسازی مجدد مدل در هر بار باشد؟ ببخشید اگر این سوال احمقانه به نظر می رسد یا قبلاً در سایت پاسخ داده شده است (من نتوانستم آن را پیدا کنم). با تشکر
ترتیب سری های زمانی برای یادگیری ماشین
114980
چگونه می توان معنی داری را با 3 گروه از نمونه های ناهموار محاسبه کرد؟
چگونه می توان معنی داری را با 3 گروه از نمونه های ناهموار محاسبه کرد؟
90722
من چهار مجموعه نسبتاً کوچک داده تحت پنج شرایط مختلف دارم. برای هر مجموعه ای از داده ها می خواهم ببینم که آیا تفاوت بین شرایط از نظر آماری معنی دار است یا خیر. دو مجموعه اول با بازرسی بصری (هیستوگرام) کمترین توزیع نرمال را دارند، در حالی که دو مجموعه دوم تقریباً به طور معمول توزیع شده اند، با چند قله خارج از تابع گاوسی. همه مجموعه داده ها در آزمون کولموگروف-اسمیرنوف و آزمون t شکست می خورند، اما در آزمون نیکویی برازش مجذور کای موفق می شوند. نمودار چندک برای اولین و آخرین مجموعه در زیر رسم شده است، که همچنین توزیع تقریباً نرمال را برای مجموعه های بهتر پیشنهاد می کند (به اندازه کافی خطی است یا باید 45 درجه باشد؟): set1: ![qqplot1](http:// i.stack.imgur.com/lm4Xi.png) مجموعه 4: ![qqplot2](http://i.stack.imgur.com/3wjD8.png) مقادیر p برای یک ANOVA و Kruskal-Wallis برای چهار مجموعه داده عبارتند از: ANOVA Kruskal Wallis set 1 3.21e-07 5.31- 05 مجموعه 2 1.23e-06 1.04e-04 مجموعه 3 3.39e-11 1.18e-16 مجموعه 4 1.31e-23 7.20e-17 نتیجه آن تست ها نشان می دهد که من با بازرسی بصری متوجه شدم که مجموعه ها به طور معمول از مجموعه 1 تا 4 بیشتر و بیشتر توزیع می شوند. اما در تحقیقات و نمونه های دیگر من به طور کلی مقادیر p را در مثلاً می بینم. ~ 0.00X. این مقادیر ناچیز هستند! با توجه به اینکه مجموعه داده‌ها در تست‌های نرمال بودن شکست خورده‌اند، غیرقابل درک به نظر می‌رسد. آیا این دلیلی برای نگرانی است؟ با توجه به این نتایج، آیا من برای اجرای ANOVA و ترسیم فواصل اطمینان، صرف نظر از اینکه آزمون t و آزمون کولموگروف- اسمیرنوف ناموفق بوده‌ام، موجه است؟ من می دانم که ANOVA نسبت به توزیع های غیر عادی نسبتا قوی است، اما آیا اطلاعات من خیلی دور است؟ ویرایش: نتایج آزمون‌های t برای اولین و آخرین مجموعه طبق درخواست: t-test: مجموعه 1 شرط 1 2 3 4 5 H 1 1 1 1 1 P (1e-09 *) 0.0000 0.0007 0.5115 0.0000 0.0007 مجموعه 4 شرط 3 4 5 H 1 1 1 1 1 P (1e-11 *) 0.0000 0.0000 0.0000 0.1729 0.0000
آیا ANOVA بسیار پایین و مقادیر p Kruskal Wallis دلیلی برای شک به نتایج هستند؟
104923
من به دنبال یک نمونه کار از یک مدل بیزی MCMC (برای JAGS و غیره) هستم که تغییرات تصادفی، از یک توزیع معین با پارامترهای ناشناخته، تنها از طریق مقادیر CDF آنها مشاهده می‌شود. به عنوان مثال، با توجه به x ~ گاما (شکل، مقیاس)، ما فقط جفت های {x, CDF(x)} را مشاهده می کنیم. آیا کسی می تواند به من به مثالی از این با کد شبه اشاره کند؟ من تا به امروز چیزی به جز برخی ارجاعات به رگرسیون کمی پیدا نکرده ام که مدلی که من دنبال آن هستم نیست. من به دنبال راهی معتبر برای استفاده از CDF به احتمال زیاد به جای PDF هستم. توضیح: این موردی نیست که، به عنوان مثال، دو مقدار CDF مشاهده شده به طور کامل دو پارامتر ناشناخته را تعیین کنند. فرض بر این است که مقادیر CDF مشاهده شده نامشخص و پارامترهای مدل ناشناخته هستند. در صورت امکان، من می‌خواهم مجموعه مقادیر CDF مشاهده‌شده، پسین پارامترهای مدل را به همان شکلی که مجموعه‌ای از تغییرات تصادفی آن را پیدا می‌کند، زمانی که احتمال حاصلضرب مقادیر PDF است، پیدا کند. من فکر کردم که ممکن است راهی برای استفاده از CDF در ضریب احتمال به جای PDF وجود داشته باشد.
مدل MCMC از مقادیر CDF؟
106405
همه متغیرهای کنترل وجود داشتند زیرا آنها بر متغیرهای وابسته در مطالعات قبلی تأثیر داشتند. با این حال، در مجموعه داده من، همه ناچیز هستند و تأثیرات اصلی را تحت تأثیر قرار نمی دهند. آیا باید همه آنها را حذف کنم؟ مطمئن نیستم این یعنی چی..... p.s. من PLS و رگرسیون استاندارد را امتحان کردم و نتایج مشابه هستند. به سلامتی
اگر همه متغیرهای کنترلی ناچیز باشند و هیچکدام بر اثرات اصلی تأثیر نگذارند چه باید کرد؟
108059
من سعی می‌کنم مدل‌های فاکتورسازی ماتریسی را برای سیستم‌های توصیه‌گر بفهمم و همیشه «ویژگی‌های پنهان» را می‌خوانم، اما این به چه معناست؟ من می دانم که یک ویژگی برای مجموعه داده آموزشی به چه معناست، اما نمی توانم ایده ویژگی های پنهان را درک کنم. هر مقاله ای در مورد موضوعی که می توانم پیدا کنم خیلی کم عمق است. ویرایش: اگر حداقل می توانید به من برخی از مقالاتی که این ایده را توضیح می دهند اشاره کنید.
معنی ویژگی های نهفته؟
106403
من یک جنگل بقا تصادفی با استفاده از بسته R randomForestSRC ساخته‌ام. میزان خطای OOB حدود 10 درصد است. می‌پرسیدم آیا کسی تجربه‌ای در استفاده از خروجی‌های این مدل برای تولید «زمان بقای آینده پیش‌بینی‌شده» دارد؟ با تشکر
بهترین راه برای محاسبه زمان بقا با استفاده از خروجی های جنگل بقا تصادفی چیست
3331
من داده های فروش یک سری از فروشگاه ها را دارم و می خواهم آنها را بر اساس شکل منحنی هایشان در طول زمان دسته بندی کنم. داده‌ها تقریباً به این شکل به نظر می‌رسند (اما بدیهی است که تصادفی نیستند، و داده‌های کمی دارند): n.quarters <- 100 n.stores <- 20 if (exists(test.data)){ rm(test.data ) } برای (i در 1:n.stores){ فاصله <- runif(1, 1, 200) new.df <- data.frame( var0 = فاصله + c(0، cumsum(runif(49، -5، 5)))، date = seq.Date(as.Date(1990-03-30)، by=3 month، طول. out=n.quarters), store = rep(paste(Store, i, sep=), n.quarters)) if (exists(test.data)){ test.data <- rbind(test.data, new.df) } else { test.data <- new.df } } test.data$store <- factor(test.data$store) می‌خواهم بدانم چگونه می‌توانم بر اساس _شکل_ منحنی ها در R. من روش زیر را در نظر گرفته بودم: 1. با تبدیل خطی var0 هر فروشگاه به مقداری بین 0.0 و 1.0 برای کل سری زمانی 2. این منحنی های تبدیل شده را با استفاده از بسته 'kml' در R خوشه بندی کنید. من دو سوال دارم: 1. آیا این یک رویکرد اکتشافی معقول است؟ 2. چگونه می توانم داده های خود را به قالب داده های طولی که `kml` درک می کند تبدیل کنم؟ هر قطعه R بسیار قدردانی می شود!
آیا می توان خوشه بندی سری های زمانی را بر اساس شکل منحنی انجام داد؟
90726
کدام نوع مفهوم / مدل یادگیری ماشین در 20 سوال استفاده می شود؟ آیا این نوع چیزها به بهترین وجه توسط یک شبکه عصبی حل می شود؟ کجا می توانم چیزی در مورد آن بخوانم؟
20 سوال از چه مدلی استفاده می کند؟
3338
من از یک الگوریتم ژنتیک برای تولید رشته‌ای استفاده می‌کنم که نتایج خاصی را تولید می‌کند و من در نمودار خطی/میله‌ای ترسیم می‌کنم. من سعی می‌کنم نتایج حاصل از رشته ژنتیکی را با نموداری که به صورت دستی تولید کرده‌ام مقایسه کنم. در حال حاضر من نمودارها را با هم مقایسه می‌کنم تا مساحت تفاوت بین این دو را پیدا کنم و درصدی را دریافت کنم که نشان‌دهنده جایی است که بین 0 اختلاف قرار دارد و در بدترین حالت تفاوت در جایی که اصلاً همپوشانی ندارند. اگرچه من احساس نمی‌کنم این رتبه‌بندی واقعاً نشان‌دهنده این است که چقدر شکل با دیگری مطابقت دارد. از آنجایی که این چیزی است که من را بیشتر نگران می کند، زیرا دو نتیجه متفاوت می توانند از نظر مساحت تفاوت یکسانی داشته باشند، اما ممکن است یکی شکل نزدیکتر از دیگری باشد، و من دوست دارم که شکل نزدیکتر امتیاز بالاتری داشته باشد! سوال من این است که آیا روش استانداردی برای رتبه بندی نمودارها وجود دارد که بتوانم درصدی از تطابق یکی از آنها با دیگری را بدست بیاورم و آیا می توانید روش انجام این کار را ارائه دهید؟
رتبه بندی اینکه یک نمودار چقدر نزدیک به نمودار دیگر مدل می کند
79294
یک دانشگاه مدارک تحصیلی را در زمینه های زیر ارائه می دهد: مهندسی هنر/علوم بازرگانی علوم کامپیوتر دانشجویان سال اول ورودی برای رشته های هنر، علوم، مهندسی، بازرگانی و علوم کامپیوتر به نسبت تقریبی درخواست می دهند. 5:6:6:8. اما بسیاری از دانشجویان در طول دوره تحصیل تغییر رشته می دهند. مسئولان دانشگاه علاقه مندند تا مشخص کنند که آیا توزیع رشته ها در بین دانشجویان فارغ التحصیل با دانشجویان ورودی متفاوت است یا خیر. آنها یک نمونه تصادفی از 200 دانشجوی فارغ التحصیل را انتخاب کردند و آنها را بر اساس رشته خود طبقه بندی کردند. توزیع دانشجویان مقطع کارشناسی ارشد در این نمونه در جدول آورده شده است: رشته مهندسی علوم/رشته علوم کامپیوتر بازرگانی تعداد دانشجویان: 60 30 60 50 آیا توزیع رشته ها در بین دانشجویان مقطع کارشناسی ارشد با دانشجویان ورودی متفاوت است؟
چگونه می توان آزمایش کرد که آیا توزیع رشته ها در بین دانش آموزان مقطع کارشناسی ارشد با دانشجویان ورودی متفاوت است؟
114986
من یک مجموعه داده کوچک (n=74) با +/- 50 متغیر دارم، بهترین داده نیست، اما باید با آن کار کنم. از متغیرها برای انتخاب محصول استفاده می شود. من می‌خواهم تعیین کنم که کدام متغیر یا متغیرها برای پیش‌بینی نتیجه کارآمدترین هستند. وابسته (Y) دارای دو مقدار است (انتخاب نشده = 0؛ انتخاب شده = 1)، داده ها از چند خطی بودن رنج می برند (رگرسیون Ridge log. گزینه ای نیست، برای بسیاری از متغیرها، مجموعه داده کوچک). تا آنجا که من می دانم ابزارها/تکنیک های آماری _no_ وجود دارد که می تواند با این موضوع مقابله کند، بنابراین فکر کردم احتمال شرطی را برای ترکیب های مختلف متغیرها پیش بینی کنم. به عنوان مثال: $$ P(Y=1|X_1=1 \cap X_2=1 \cap X_3=0) $$ Q1) آیا با توجه به مشکلات مجموعه داده، راه بهتری برای انتخاب متغیرهای کارآمد وجود دارد؟ و Q2) آیا بسته R وجود دارد که بتواند مثال P(y=1|و غیره)) را انجام دهد؟ متشکرم.
تعیین کنید که کدام متغیر یا متغیرها برای پیش بینی نتیجه کارآمدتر هستند
58310
سوال من این است که آیا می توانم از یک اندازه افکت $X$ به عنوان متغیر وابسته و دیگری با اندازه افکت $Y$ به عنوان متغیر مستقل در یک متارگرسیون استفاده کنم؟ به عنوان مثال، من یک متاآنالیز برای اثرات ورزش در مشکلات نوشیدن انجام دادم و به نتایج قابل توجه و ناهمگنی بالایی رسیدم. من می خواهم یک متارگرسیون انجام دهم و از اندازه تأثیر آن مداخلات در اضطراب به عنوان یک متغیر مستقل و اندازه تأثیر مشکلات نوشیدن به عنوان متغیر وابسته استفاده کنم (با فرض اینکه هر مطالعه هم اضطراب و هم مشکلات نوشیدن را ارزیابی کرده باشد و من تأثیر آن را محاسبه کنم. اندازه ها به عنوان $g$ هجز). آیا این برای شما منطقی است؟
آیا می توانم اندازه اثر را به عنوان یک متغیر مستقل در یک متارگرسیون در نظر بگیرم؟
90164
من موارد زیر را در یادگیری ماشین خواندم: یک دیدگاه احتمالی: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/PLoAF.png) حرکت قبلی یکنواخت چگونه می تواند به معنای عقب باشد؟ آیا قرار نیست توزیع یکنواخت نتیجه را تعصب نداشته باشد؟ آیا نمونه دیگری وجود دارد که در آن این اتفاق می افتد؟ **توجه:** در سوال اصلی من پاراگراف را اشتباه خوانده بودم. بر این اساس سوال را رفع کردم.
چگونه یک لباس قبلی می تواند معنای خلفی را با MLE متفاوت کند؟
58319
آیا توسعه‌ای از مدل خطی تعمیم یافته وجود دارد که بتواند بیش از یک پارامتر از یک توزیع را به طور همزمان تخمین بزند (با استفاده از حداکثر احتمال). به عنوان مثال، من می دانم که برای یک توزیع گاما با پارامتر شکل $k$ و پارامتر مقیاس $\theta$، یک GLM می تواند ماتریس ضریب $\beta$ را برای پیش بینی $\theta$ از متغیرهای کمکی، پاسخ ها، و $k تخمین بزند. $. آیا راهی برای تخمین هر دو پارامتر به عنوان یک ترکیب خطی از متغیرهای پیش بینی وجود دارد؟ در فصل 10 مدل‌های خطی تعمیم‌یافته (McCullagh & Nelder، 1989)، فصل 10 به مدل‌سازی مشترک میانگین و پراکندگی از متغیرهای کمکی می‌پردازد. با این حال، آنها در مورد یک الگوریتم کلی برای انجام این کار به جزئیات نمی پردازند.
مدل خطی تعمیم یافته که چندین پارامتر را به طور همزمان تخمین می زند
58312
من تعدادی سریال دارم که معمولاً به عنوان کج معمولی یا توزیع گاما توصیف می شوند. به عنوان مثال، بگویید من گروهی از مشتریان دارم و هزینه های آنها را در مدت زمان مشخصی محاسبه کرده ام. سپس یک هیستوگرام ایجاد می‌کنم تا توزیع هزینه‌ها را ببینم و یک دنباله بسیار بلند را برای گروه کوچکی از افراد پرمصرف پیدا کنم. سوال من این است که از آنجایی که من می‌خواهم این هزینه‌کنندگان بالا را شناسایی کنم، آیا روش‌هایی برای بررسی تجربی توزیع مقادیر و تقریبی نقطه‌ای که در آن توزیع به دم دراز تبدیل می‌شود برای ایجاد برش در داده‌ها وجود دارد؟ من به دنبال بررسی هیستوگرام برای یافتن دم بلند نیستم. فقط به دنبال یک روش ثابت برای برش سیستماتیک داده ها هستید.
چگونه می توانم بخش دم بلند توزیع خود را شناسایی کنم؟
213
فرض کنید من مجموعه بزرگی از داده های چند متغیره با حداقل سه متغیر دارم. چگونه می توانم نقاط پرت را پیدا کنم؟ نمودارهای پراکنده زوجی کار نمی کنند زیرا ممکن است یک نقطه پرت در 3 بعد وجود داشته باشد که در هیچ یک از زیرفضاهای دو بعدی پرت نباشد. من به مشکل رگرسیون فکر نمی کنم، بلکه به داده های چند متغیره واقعی فکر می کنم. بنابراین پاسخ هایی که شامل رگرسیون قوی یا اهرم محاسباتی است مفید نیستند. یکی از امکان‌ها این است که نمرات مؤلفه اصلی را محاسبه کنیم و در نمودار پراکندگی دو متغیره دو امتیاز اول به دنبال یک نقطه پرت بگردیم. آیا تضمین می شود که کار کند؟ آیا رویکردهای بهتری وجود دارد؟
بهترین راه برای شناسایی نقاط پرت در داده های چند متغیره چیست؟
79295
من روی یک مجموعه داده پیشگیری از تقلب کار می کنم.. و در حال ساخت یک طبقه بندی کننده باینری هستم. مشکل این است که مجموعه داده بسیار کج است (همانطور که انتظار می رود) ... فقط 5٪ از نمونه ها به عنوان تقلب برچسب گذاری شده اند. گوگل کمی کمک کرد.. به نظر می رسد که جنگل تصادفی کار می کند، اما من پارامترها را درک نمی کنم (sampsize و classwt (حدس می زنم))... فرض کنید من دو فریم داده دارم.. آموزش و آزمایش.. کسی می تواند به من بگوید چگونه می توانم برای شروع ارزیابی این چارچوب، تابع randomForest را فراخوانی کنیم؟ همچنین، در مورد سایر الگوریتم‌های طبقه‌بندی چطور؟ با تشکر
آموزش مقابله با طبقه بندی باینری نامتعادل در R?
59404
در مورد جملاتی در کتاب معادلات ساختاری با متغیرهای پنهان (بولن) در صفحه 132 (پایین) و صفحه 133 (بالا) در رابطه با pdf توزیع نرمال چند متغیره سوالی دارم. می گوید: در استخراج $F_{ml}$، مجموعه N مشاهدات مستقل از متغیرهای تصادفی چند نرمال y و x هستند. اگر y و x را در یک بردار واحد (p+q) x 1 z ترکیب کنیم که z از امتیازهای انحراف تشکیل شده است، تابع چگالی احتمال آن است ... در فرمول pdf ماتریس $\Sigma$ و معکوس آن را پیدا می کنید. $\Sigma^{-1}$. برای اینکه بتوانید z را با $\Sigma$ ($\Sigma^{-1}$) ضرب کنید، $\Sigma$ باید ماتریس درجه دوم p+q باشد. عناصر $\Sigma$ (واریانس ها و کوواریانس ها) به کدام متغیرهای تصادفی تعلق دارند؟ پیشاپیش از شما متشکرم
pdf توزیع نرمال چند متغیره
100963
همچنین تا حدی علاقه مند به استفاده از حداقل مربعات بدون وزن و سایر روش های کمتر رایج هستم. به من ML به عنوان پیش فرض آموزش داده شده است اما به تازگی CFA را انجام داده ام و تناسب مدل در GLS بهتر از ML بوده است. آیا این برای نشان دادن اینکه باید از GLS استفاده کنم کافی است؟ اگر نه، چه چیزی برای نشان دادن اینکه باید از GLS استفاده کنم کافی است؟ من مشکل خاصی با نرمال بودن تک متغیره یا چند متغیره ندارم.
در CFA، چه زمانی باید تخمین ML ارجح باشد و چه زمانی GLS ارجح است؟
91612
من اساس آماری خیلی رسمی ندارم، پس ببخشید اگر این خیلی منطقی نیست. اما: تفاوت بین استفاده از توزیع t برای ایجاد فواصل اطمینان برای نمونه های کوچک در مقابل استفاده از فواصل اطمینان امتیاز ویلسون چیست؟ آیا حتی می توان از هر دوی آنها برای این منظور استفاده کرد یا من یکی (یا هر دو) را اشتباه متوجه شده ام؟ آیا فواصل t در موقعیت های خاص و فواصل ویلسون در موقعیت های دیگر مناسب تر هستند؟ * * * صرفاً برای تأیید درک من، با توجه به $$\bar{x} = \frac{x_1 + \cdots + x_n}{n}$$، اگر باور داشته باشیم $x_i \sim\mathcal{ از فاصله t-score استفاده می‌کنیم. N}(\mu,\sigma^2)$، و اگر باور کنیم $x_i \sim \mathcal{B}(1,p)$ از بازه Wilson استفاده می کنیم؟
فاصله اطمینان آماره t در مقابل فاصله اطمینان نمره ویلسون
108051
من سعی می کنم یک رگرسیون پروبیت را با استفاده از داده های پانل در R اجرا کنم، ابتدا احتمال log را محاسبه کرده و سپس از تابع 'optim' برای بهینه سازی استفاده می کنم. 1. مقیاس متغیرهای پیش بینی کننده: متغیرهای پیش بینی کننده ای که من دارم در مقیاس قابل توجهی متفاوت هستند. برخی از متغیرها در ده و برخی در 000 هستند. وقتی می‌خواهم تابع «optim» را اجرا کنم، اغلب این پیام خطا را می‌دهد: «vmmin محدود نیست». بنابراین در انتخاب مقادیر اولیه باید نهایت دقت را به خرج دهم. و برخی از این مقادیر اولیه به کوچکی 0.0001 هستند. آیا این استاندارد در پروبیت است؟ یا اینکه قبل از استفاده از پروبیت باید متغیرهای پیش بینی کننده را نرمال سازی کنیم؟ 2. من چند متغیر دارم که در کد تخمین محاسبه می شوند، به عنوان مثال، برخی از پارامترهایی که تخمین زده می شوند برای محاسبه این متغیرهای کمکی داخلی استفاده می شوند. وقتی من مدل کامل را با تمام پارامترهای داخلی اجرا می‌کنم، تابع 'optim' یک ماتریس Hessian منفرد را به من می‌دهد. باز هم، من مطمئن نیستم که تکینگی هسی دلالت بر چه چیزی دارد. وقتی متغیرهای کمکی داخلی را یکی یکی اضافه می کنم، هسی مفرد نیست. آیا کسی قبلا با چنین مشکلاتی مواجه شده است؟ لطفا راهنمایی کنید.
رگرسیون پروبیت در R که ماتریس هسین منفرد را می دهد
60288
من می‌خواهم تخمین‌های MLE میانگین و واریانس یک فرض توزیعی Weibull را از یک نمونه معین محاسبه کنم. در حال حاضر، دو پارامتر و سه پارامتر توزیع ویبول وجود دارد. چگونه می توانم بدانم که کدام یک انتخاب بهتر است؟ من می توانم ببینم که توزیع دو پارامتری به طور کلی می تواند بیشتر برای پراکندگی باشد.
MLE: دو پارامتر یا سه پارامتر Weibull؟
29627
من در جایی دیده ام که فاصله های کلاسیک (مانند فاصله اقلیدسی) زمانی که داده های چند بعدی و پراکنده داشته باشیم، ضعیف می شوند. چرا؟ آیا نمونه ای از دو بردار داده پراکنده دارید که در آن فاصله اقلیدسی عملکرد خوبی ندارد؟ در این صورت از کدام شباهت استفاده کنیم؟
فاصله اقلیدسی معمولا برای داده های پراکنده خوب نیست؟
104921
من یک شتاب‌سنج سه‌محوره روی انگشت اشاره‌ام نصب کرده‌ام و می‌خواهم در زمان واقعی تشخیص دهم که روی صفحه لمسی ضربه می‌زند و ضربه‌ی انگشت وسط. برای این کار من داده‌های شتاب‌سنج را در یک پنجره زمانی که ضربه روی صفحه لمسی تشخیص داده می‌شود، می‌گیرم. مشکل این است که داده ها به وضوح این دو مورد را از هم متمایز نمی کنند، زیرا حتی زمانی که انگشت وسط ضربه نمی زند، هنگامی که انگشت اشاره به ضربه زدن می رود، حرکت رو به پایین را دنبال می کند. همچنین وابستگی هایی به این وجود دارد که آیا انگشت اول و دوم به طور متناوب یا همان انگشت دوباره و دوباره حرکت می کنند. من در این زمینه تازه کار هستم و نمی توانم بفهمم چگونه می توانم در مورد تجزیه و تحلیل اقدام کنم. اول از همه، دقیقاً چگونه باید شتاب سنج را نصب کنم تا واضح ترین اطلاعات را به من بدهد؟ - به عنوان مثال، اگر من آن را شل نصب کنم، ممکن است هنگام ضربه زدن بیشتر تکان بخورد، اما ممکن است نویز بیشتری نیز ایجاد کند. ثانیا، آیا باید سعی کنم داده ها را با مقادیر فاصله یکپارچه کنم یا آن را در تبدیل فوریه قرار دهم؟ ثالثاً، اگر من نیاز به استفاده از یادگیری ماشین (decision tree/svm و غیره) داشته باشم، کدام ویژگی بیشتر به من کمک می کند؟ فقط چیزهای زیادی برای امتحان کردن وجود دارد و من نمی توانم هر احتمالی را به موقع کدنویسی کنم - برخی راهنمایی ها کمک خواهد کرد.
چگونه می توان داده های شتاب سنج سه محوری را برای ضربه های انگشتی در زمان واقعی پردازش کرد؟
31171
آنچه من می خواهم بدانم استفاده دقیق از هر دو آمار است -- میانگین نمونه و میانگین نمونه های مختلف. من با علامت گذاری در کتاب درسی ام کمی گیج می شوم و گاهی اوقات نمی توانم تمایز واضحی بین هر دو آمار قائل شوم. به عنوان مثال، هنگامی که ما در مورد متغیرهای Xi (i=1،2...) از یک جمعیت که به توزیع نرمال نزدیک می شود صحبت می کنیم، می توانم فرض کنم که در مورد نمونه های مختلفی از یک جامعه صحبت می کنیم که به توزیع نرمال نزدیک می شود؟ خوشحال می شوم اگر کسی بتواند تفاوت واضحی در استفاده از هر دو آمار به من بدهد (تمایز واریانس در هر دو رویکرد نیز خوب است) و ویژگی های آن. با تشکر o/
درباره میانگین نمونه و میانگین نمونه های مختلف
58315
من می‌خواهم مهم‌ترین پیش‌بینی‌کننده‌های یک متغیر وابسته دو جمله‌ای را از میان مجموعه‌ای از بیش از 43000 متغیر مستقل پیدا کنم (اینها ستون‌های مجموعه داده ورودی من را تشکیل می‌دهند). تعداد مشاهدات بیش از 45000 است (اینها ردیف های مجموعه داده ورودی من را تشکیل می دهند). بیشتر متغیرهای مستقل تک‌گرم، بیگرام و سه‌گرام کلمات هستند، بنابراین میزان همخطی بالایی در بین آنها وجود دارد. در مجموعه داده من نیز پراکندگی زیادی وجود دارد. من از رگرسیون لجستیک بسته glmnet استفاده می کنم که برای نوع مجموعه داده ای که دارم کار می کند. در اینجا تعدادی کد وجود دارد: داده های library('glmnet') <- read.csv('datafile.csv', header=T) mat = as.matrix(data) X = mat[,1:ncol(mat)-1] y = mat[,ncol(mat)] fit <- cv.glmnet(X,y, family=binomial, type.measure = class) betacoeff = as.matrix(fit$glmnet.fit$beta[,ncol(fit$glmnet.fit$beta)]) betacoeff بتای همه متغیرهای مستقل را برمی‌گرداند. من به این فکر می کنم که پیش بینی کننده های مربوط به 50 نسخه بتای برتر را به عنوان مهم ترین پیش بینی کننده ها نشان دهم. سوالات من عبارتند از: 1. glmnet یک پیش بینی کننده خوب را از میان تعدادی پیش بینی کننده خوب با همبستگی بالا انتخاب می کند. بنابراین مطمئن نیستم که چقدر می‌توانم به نسخه‌های بتای بازگردانده شده توسط اجرای مدل بالا اعتماد کنم. 2. آیا باید به صورت دستی از داده ها نمونه برداری کنم (مثلاً 10 بار) و هر بار که مدل فوق را اجرا کنم، لیستی از پیش بینی کننده ها را با بتای برتر دریافت کنم و سپس آنهایی را که در هر 10 تکرار وجود دارند پیدا کنم؟ آیا روش استانداردی برای انجام این کار وجود دارد؟ روش استاندارد نمونه گیری در این مورد چگونه است؟ 3. سوال دیگر من در مورد cvm (خطای اعتبار متقاطع) است که توسط مدل بالا برگردانده شده است. از آنجایی که من از type.measure = class استفاده می کنم، cvm خطای طبقه بندی اشتباه را برای مقادیر مختلف لامبدا می دهد. چگونه خطای طبقه بندی اشتباه را برای کل مدل گزارش کنم؟ آیا cvm مربوط به lambda.min است؟
چگونه مهمترین پیش بینی کننده ها را با استفاده از glmnet گزارش کنیم؟
114982
شبه درستنمایی راهی عالی برای استفاده از حداقل مربعات دارای وزن تکراری برای تطبیق مدل های خطی خطی با یک کلاس احتمالات بسیار کلی به نظر می رسد. اما آن کلاس چیست؟ بدیهی است که توزیع باید دارای یک میانگین محدود و یک واریانس باشد که بتوان آن را تابعی از آن میانگین بیان کرد. آیا مواردی وجود دارد که چنین تابع واریانسی وجود نداشته باشد؟ برای معتبر بودن این روش، احتمال چه محدودیت‌های دیگری را باید رعایت کند؟
چه ویژگی های تابع درستنمایی برای تخمین شبه درستنمایی مورد نیاز است؟
79291
مشکل هموارسازی spline $$ RSS(\theta,\lambda)=(y-N\theta)^T(y-N\theta)+\lambda\theta^T\Omega_N\theta $$ که در آن $\\{N\\} است. _{ij}=N_j(x_i)$، $N_j(x)$ مجموعه‌ای $N$-بعدی از توابع پایه هستند. ${\Omega}_{jk}=\int N_j^{''}(t)N_k^{''}(t)dt$ راه حل $$ \hat{\theta}=(N^TN+\lambda است \Omega_N)^{-1}N^Ty $$ اجازه دهید $S_\lambda=N(N^TN+\lambda\Omega_N)^{-1}N^T$. بنابراین، $\hat{f}=N\theta=S_{\lambda}y$. **می‌خواهم بدانم فرمول زیر LOOCV (یکی از اعتبارسنجی متقاطع را کنار بگذارید) برای هموارسازی اسپلاین از کجا آمده است.** $$ CV(\hat{f}_{\lambda})=\frac{1}{N }\sum_{i=1}^{N}(y_i-\hat{f}_{\lambda}^{(-i)}(x_i))^2 =\frac{1}{N}\sum_{i=1}^{N}\left(\frac{y_i-\hat{f}_{\lambda}(x_i)}{1-S_{\lambda} (i,i)}\right)^2 $$ که در آن $\hat{f}_{\lambda}^{(-i)}$ تابع منطبق با I'th نمونه داده حذف شده است، $S_\lambda(i,i)$ من عنصر مورب ith از $S_\lambda$ است. جزئیات بیشتر، لطفاً به Element of Statistical Learning II، فصل 5.4-5.5 مراجعه کنید. http://statweb.stanford.edu/~tibs/ElemStatLearn/ متشکرم.
LOOCV برای صاف کردن اسپلاین
73845
برای نشان دادن مواردی که $Cov(X_1, X_2) = 0$ به یک مثال عددی نیاز دارم. آیا می توانید مثال هایی را در مورد توابع یا ماتریس ها در نظر بگیرید؟
مثال عددی $Var(X_1 + X_2) = Var(X_1) + Var(X_2)$ چیست؟
70891
من مجموعه‌ای از داده‌های جفتی دارم که می‌خواهم آزمایش t را انجام دهم تا ببینم آیا میانگین تفاوت‌ها برابر با 0 است. باشد؟: AM = c(1,5,4,2,6,6, 7, 11,5,3,4,5,8,3,4,5,7,7,4,5) PM = c(4,5,5,8,9,10,12,15,4,8,6,6,9,5,9,8,7,8,7,6) data.frame(AM,PM, row.names=paste(Student,1:20)) چه تفاوتی بین: d = PM-AM و d=AM-PM t.test(d, mu=0, alternative=greater) I' هر دو را انجام دادم و آنها به من مقادیر p مختلف بدهید. کسی می تواند به من توضیح دهد که چه تفاوت هایی دارند؟ و کدام یک برای استفاده صحیح است؟ خروجی من از این دو به ترتیب این است: داده های آزمون t یک نمونه: d t = 5.5917، df = 19، p-value = 1.079e-05 فرضیه جایگزین: میانگین واقعی بیشتر از 0 95 درصد فاصله اطمینان: 1.692384 Inf نمونه برآوردها: میانگین x 2.45 و داده های آزمون t یک نمونه: d t = -5.5917، df = 19، p-value = 1 فرضیه جایگزین: میانگین واقعی بیشتر از 0 95 درصد فاصله اطمینان است: -3.207616 برآورد نمونه Inf: میانگین x -2.45
تفاوت AM-PM یا PM-AM برای یک آزمون T زوجی - برای آزمایش اینکه آیا میانگین تفاوت ها = 0 است؟
111809
من با یک مثال خاص از چیزی که سعی در حل آن دارم شروع می کنم: من هشت توپ دارم که به طور تصادفی در چهار سطل قرار می گیرند. سطل های شماره 1-3 به ترتیب دارای ظرفیت 2، 2، 3 هستند، در حالی که سطل شماره 4 دارای ظرفیت بی نهایت است. یک سطل را نمی توان بیش از ظرفیتش پر کرد. توپ به سطلی که از قبل پر شده است پرتاب نمی شود. من می خواهم احتمال اینکه هشت توپ من سطل های شماره 1-3 را به طور کامل پر کنند محاسبه کنم. آخرین باری که ریاضی/آمار را به طور رسمی خواندم در دانشگاه بود، 7-10 سال پیش. حافظه محدود / درک ترکیبیات + احتمال من را از کار می اندازد. من یک نرم افزار هستم، بنابراین یک شبیه ساز اولیه برای مشکل نوشتم، که به نظر می رسد به من می گوید که هشت توپ من سطل های شماره 1-3 را در 18٪ مواقع پر می کند. من می خواهم بفهمم که چگونه به صورت ریاضی به مسئله نزدیک شویم.
احتمال تخصیص توپ ها به سطل هایی که هر سطل ظرفیت مشخصی دارد
34616
من در حال حاضر در مورد تحلیل رگرسیون و تحلیل واریانس یاد می‌گیرم. در تجزیه و تحلیل رگرسیون شما یک متغیر ثابت دارید و می خواهید بدانید که چگونه متغیر با متغیر دیگر حرکت می کند. در تجزیه و تحلیل واریانس شما می خواهید بدانید که به عنوان مثال: اگر این غذای حیوانی خاص بر وزن حیوانات تأثیر می گذارد ... بنابراین یکی از متغیرهای ثابت و تأثیر آنها بر روی دیگران ... درست است یا اشتباه، لطفاً به من کمک کنید ...
تفاوت بین تحلیل رگرسیون و تحلیل واریانس؟
108434
من یک مدل پیش‌بینی برای $Y_{i,t+\tau}$ برای $\tau=1 تا 3$ با استفاده از داده‌های پانل با مشاهدات شرکتی و سالی ساختم: $Y_{i,t+\tau}=a+bX_{i, t}+e_{i,t+\tau}$ و من سعی می‌کنم دقت مدل خود را با مقایسه آن با یک مدل پیاده‌روی تصادفی ساده اندازه‌گیری کنم: $Y_{i,t+\tau}=Y_{i,t}+e$ بهترین راه برای به دست آوردن چنین مدلی چیست و چگونه عبارت خطا را مدل کنید؟ آیا بسته ای در R موجود است؟ چگونه می توانید چنین معیاری را تنظیم کنید. همانطور که می فهمم یک مدل ساده به هیچ پارامتری متکی نیست. بنابراین آیا می توانید فقط 3 رگرسیون تلفیقی ساده را با افق های مختلف در تمام شرکت ها و سال ها انجام دهید و بر اساس ضرایبی که به دست می آورید پیش بینی ها را پیش بینی کنید؟ و آیا مدلی که رهگیری ندارد را حذف کنید یا پسرفت کنید؟
مدل پیاده روی تصادفی ساده به عنوان معیاری برای مدل پیش بینی
90163
من از یک مدل خطی ترکیبی برای تجزیه و تحلیل اثر دو نوع درمان بر علائم استفاده می‌کنم. این دو درمان در گروه‌های کوچک‌تر (خوشه‌ها)، و توسط چندین پزشک انجام شد، بنابراین باید خوشه‌بندی را در نظر بگیرم (ICC قابل توجه است). من از تفاوت در نمرات علائم از پایه به عنوان معیار نتیجه، نوع درمان و علائم پایه (برای کنترل آنها) به عنوان اثرات ثابت، و خوشه گروهی و پزشک، که در سطح 1 به عنوان موضوعات به عنوان اثرات تصادفی (برق) مشخص شده اند استفاده می کنم. . مدل من به شرح زیر است: نتیجه مخلوط شده توسط درمان با پایه_sx /معیارها=CIN(95) MXITER(500) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE(ABSOLUTE) LCONVERGE0 PCONVERGE(0.000001، ABSOLUTE) /FIXED=درمان پایه_sx | SSTYPE(3) /METHOD=REML /PRINT=G SOLUTION TESTCOV /RANDOM=INTERCEPT | SUBJECT(doctor*cluster_gr) COVTYPE(VC). به دلایلی، مدل خفه می‌شود (به من هشدار می‌دهد که ماتریس هسین مثبت نیست) و هیچ تخمینی برای اثرات تصادفی من ایجاد نمی‌کند. این کار برای داده های بسیار خوب از یک نقطه نتیجه متفاوت انجام می شود - تنها تفاوت این است که برخی از مشاهدات برای یک نقطه نتیجه در دسترس هستند و نه برای نقطه دیگر، اما به طور کلی تعداد مشاهدات تقریباً یکسان است. فکر نمی‌کنم ربطی به ساختار کوواریانس داشته باشد - انواع مختلف امتحان شده، به نظر نمی‌رسد مشکل را حل کند. من تقریباً آن را به نوعی مشکل در یکی از گروه‌ها محدود کردم که احتمالاً مربوط به واریانس خوشه‌ای است... آیا کسی با چیزی مشابه مواجه شده است یا پیشنهادی برای غلبه بر این مشکل دارد؟
اثر تصادفی در مدل خطی مختلط SPSS
34611
### TLDR: مجموعه داده من بسیار کوچک (120) نمونه است. در حین انجام اعتبارسنجی متقاطع 10 برابری، آیا باید: 1. خروجی ها را از هر فولد آزمایشی جمع آوری کنم، آنها را به یک بردار متصل کنم و سپس خطا را در این بردار کامل پیش بینی ها (120 نمونه) محاسبه کنم؟ 2. یا باید **به جای** خطای خروجی هایی را که **در هر فولد** دریافت می کنم (با 12 نمونه در هر بار) محاسبه کنم و سپس تخمین خطای نهایی خود را به عنوان میانگین تخمین های خطای 10 برابری دریافت کنم؟ آیا مقالات علمی وجود دارد که تفاوت های بین این تکنیک ها را اثبات کند؟ * * * ### زمینه: ارتباط بالقوه با امتیازات کلان/میکرو در طبقه‌بندی چند برچسبی: فکر می‌کنم این سوال ممکن است به تفاوت بین میانگین‌های **میکرو** و **ماکرو** که اغلب در یک کار طبقه بندی چند برچسبی (مثلاً 5 برچسب). در تنظیمات چند برچسبی، **نمرات میانگین خرد** با ایجاد یک جدول احتمالی **تجمیع** مثبت واقعی، مثبت کاذب، منفی درست، منفی نادرست برای هر 5 پیش بینی طبقه بندی کننده در 120 نمونه محاسبه می شود. سپس از این جدول احتمالی برای محاسبه دقت میکرو، فراخوان میکرو و اندازه گیری میکرو f استفاده می شود. بنابراین وقتی 120 نمونه و پنج طبقه‌بندی داریم، اندازه‌گیری‌های خرد بر روی 600 پیش‌بینی (120 نمونه * 5 برچسب) محاسبه می‌شوند. هنگام استفاده از نوع **Macro**، اندازه گیری ها (دقت، فراخوانی و غیره) **مستقل** روی هر برچسب محاسبه می شود و در نهایت، این معیارها میانگین می شوند. ایده پشت تفاوت بین تخمین‌های **میکرو** و **ماکرو** ممکن است به آنچه می‌توان در یک تنظیم K-fold در یک مسئله طبقه‌بندی باینری انجام داد تعمیم داد. برای 10 برابر، می‌توانیم **میانگین** بیش از 10 مقدار (میزان اندازه‌گیری **ماکرو**) یا 10 آزمایش را به هم متصل کنیم و اندازه‌های **میکرو** را محاسبه کنیم. ### پیش زمینه - مثال گسترده: مثال زیر سوال را نشان می دهد. فرض کنید 12 نمونه آزمایشی داریم و 10 تا داریم: * **فولد 1** : **TP** = 4، **FP** = 0، **TN** = 8 **دقت** = 1.0 * **تا کردن 2**: **TP** = 4، **FP** = 0، **TN** = 8 **دقت** = 1.0 * **تا کردن 3**: **TP** = 4، **FP** = 0، **TN** = 8 **دقت** = 1.0 * **تا کردن 4**: **TP** = 0، **FP** = 12، **دقت** = 0 * **Fold 5** .. **Fold 10**: همه دارای **TP** = 0 هستند، **FP** = 12 و **دقت** = 0 که در آن از نماد زیر استفاده کردم: **TP** = # عدد مثبت واقعی، **FP** = # مثبت نادرست، **TN** = # از منفی های واقعی نتایج عبارتند از: * دقت متوسط ​​در 10 برابر = 3/10 = ** 0.3 ** * دقت در الحاق پیش بینی های 10 برابر = TP/TP+FP = 12/12+84 = **0.125** **توجه داشته باشید که مقادیر 0.3 و 0.125 بسیار متفاوت هستند**!
میانگین (نمرات) در مقابل امتیاز (الحاق) در اعتبارسنجی متقابل
111803
بنابراین می دانیم که می توانیم دو جمله ای را به عنوان مجموع iid برنولی در نظر بگیریم. آیا می‌توانیم به طور مشابه چند جمله‌ای را به صورت مجموع برداری از برنولی‌های وابسته بیان کنیم و توزیع مجانبی را از این طریق بدست آوریم؟ من می دانم که در اینجا یک سوال در مورد چند جمله ای مجانبی وجود دارد، اما به سادگی به یک پی دی اف پیوند می دهد که نتیجه عادی مجانبی را بدون هیچ دلیل یا توضیحی ارائه می دهد. این مفید است که بدانیم چرا نرمال مجانبی را داریم.
بیان چند جمله ای به عنوان مجموع برداری آزمایشات برنولی؟
111808
من به دنبال چیزی هستم که الگوریتمی را مطابق با درختان مدل لجستیک 2003 Landwehr و همکاران پیاده سازی کند. من پیدا کردم که LMT() در بسته RWeka الگوریتم را در R پیاده سازی می کند، اما به دنبال یک کتابخانه معادل در پایتون هستم.
کدام کتابخانه در پایتون یک درخت مدل لجستیک را پیاده سازی می کند؟
31177
آیا این (همیشه) درست است که $$\mathrm{Var}\left(\sum\limits_{i=1}^m{X_i}\right) = \sum\limits_{i=1}^m{\mathrm{ Var}(X_i)} \>?$$
آیا واریانس یک مجموع با مجموع واریانس ها برابر است؟
43678
من یک فرآیند تصادفی زمان گسسته دارم، که در هر بار وضعیت سیستم $X_t$ به صورت زیر داده می شود: $$ X_t = f_\theta(X_{t-1},\epsilon_t), \; \; \text{for} \; t = 1،\dots،T $$ و، برای مثال، اغتشاشات $\epsilon_t$ i.i.d هستند. $N(0,\sigma_e)$. بنابراین وضعیت سیستم در هر زمان تابعی است (پارامتری شده با $\theta$) از وضعیت در مرحله زمانی قبلی $X_{t-1}$ و نویز $\epsilon_t$. فرض کنید که من $X^o_{1:T}$ را مشاهده کرده‌ام و می‌خواهم در مورد $\theta$ استنتاج کنم (با $X^o_{1:T}$ به طور میانگین $X^o_1,\dots,X ^o_T$). به ویژه اگر به جای مشاهده مستقیم $X^o_{1:T}$، $Y_{1:T}$ را مشاهده می کردم که توسط: $$ Y_{t} = X^o_t + Z_t\; \; \text{for} \; t = 1، \ نقطه، T. $$ که در آن نویز رصدی $z_t$ i.i.d است. از مقداری چگالی هسته $K_{\sigma_o}$ (به عنوان مثال $Z_t \sim N(0,\sigma_o)$)، سپس من با یک مدل فضای حالت با مشاهدات $Y_{1:T}$ و مخفی سر و کار دارم $X^o_{1:T}$ را نشان می دهد. این به این معنی است که من می‌توانم از تمام روش‌هایی که برای استنتاج مدل‌های فضای حالت (مانند فیلترهای ذرات) ایجاد شده‌اند، استفاده کنم. اما نویز مشاهده‌ای $Z_{1:T}$ به سادگی در مورد من وجود ندارد، بنابراین دو راه وجود دارد: 1) داده‌ها را طوری تنظیم کنید که گویی نویز مشاهده‌ای $Z_{1:T}$ وجود دارد (که مثل این است که من $Y_{1:T}$ را مشاهده می کنم، در حالی که واقعاً $X^o_{1:T}$ را مشاهده می کنم. 2) $X^o_{1:T}$ نویز به طور تصادفی ایجاد شده $Z_{1:T}$ را به حالات اضافه کنید تا مشاهدات $Y_{1:T}$ را بدست آورید. سپس $Y_{1:T}$ واقعاً طبق یک مدل فضای حالت (مصنوعی) ایجاد شده است. بیایید رویکرد اول را در نظر بگیریم. در این مورد، من مدل اشتباهی را برازش می‌کنم، زیرا مدلی را انتخاب می‌کنم که شامل نویز مشاهده‌ای $Z_{1:T} \sim K_{\sigma_o}$ است که در واقعیت وجود ندارد. به طور خاص، با در نظر گرفتن مدل به عنوان یک مدل فضای حالت، این احتمال را به دست می‌آوریم: $$ \hat{p}_1(X^o_{1:T}|\theta) = \int p(X^o_{1: T},X_{1:T}|\تتا) d X_{1:T} = \int K_{\sigma_o}(X^o_{1:T}-X_{1:T})p(X_{1:T}|\theta) d X_{1:T} $$ بنابراین $\hat{p} _1(X^o_{1:T}|\theta) = (K_{\sigma_o} \star p(\cdot |\theta))(X^o_{1:T}) \neq p(X^o_{1:T}|\theta)$. احتمالی که به دست می آوریم، پیچیدگی هسته $K_{\sigma_o}()$ با $ p(\cdot |\theta)$ است و با احتمال واقعی $p(X^o_{1:T}) متفاوت است. تتا)$. بنابراین تخمین‌های ML حاصل برای $\theta$ احتمالاً مغرضانه است. رویکرد دوم امیدوارکننده تر به نظر می رسد. اگر مقداری نویز $Z_{1:T}$، توزیع شده بر اساس $K_{\sigma_o}$، به داده‌ها اضافه کنم، می‌توانم مدل فضای حالت را متناسب کنم. این به این دلیل است که اگر $Y_{1:T} = X^o_{1:T} + Z_{1:T}$ را تعریف کنم، آنگاه $X^o_{1:T}$ واقعاً یک حالت پنهان است. بنابراین من انتظار دارم که تخمین‌های حاصل برای $\theta$ بی‌طرفانه باشد، حتی اگر مقداری کارایی از بین برود زیرا من نویز اضافه می‌کنم (و در نتیجه اطلاعات را از دست می‌دهم). اجازه دهید $\hat{p}_2(X^o_{1:T}|\theta)$ احتمال داده شده توسط این روش را فراخوانی کنیم. من علاقه مندم که بدانم مقدار مورد انتظار آن چیست، مشروط به $X^o_{1:T}$ مشاهده شده. احتمال مورد انتظار روی همه بردارهای شبیه‌سازی شده ممکن است $Z_{1:T}$، با: $$ E(\hat{p}_2(X^o_{1:T}|\theta)|X^o_{ 1:T}) = \int \int K_{\sigma_o}(Y_{1:T}-X_{1:T})p(X_{1:T}|\تتا) d X_{1:T} K_{\sigma_o}(Z_{1:T}) dZ_{1:T} $$ $$ = \int \bigg ( \int K_{\sigma_o}(Z_{1:T} + X^o_{1:T}-X_{1:T})\، K_{\sigma_o}(Z_{1:T})\، dZ_{1:T} \bigg ) \, p(X_{1:T}|\theta)\, d X_{1:T} $$ $$ = \int K_{\sigma_o} \star K_{\sigma_o}(X^o_{ 1:T}-X_{1:T}) p(X_{1:T}|\تتا)\، d X_{1:T}. $$ $$ = (K_{\sigma_o} \star K_{\sigma_o}) \star \, p(X_{1:T}|\theta)(X^o_{1:T}). $$ بنابراین ما مشکل مشابه با رویکرد اول داریم! بنابراین، اگر نویز (تولید شده بر اساس $K_{\sigma_o}$) را به داده‌های $X^o_{1:T}$ اضافه کنیم و $Y_{1:T}$ را به‌عنوان مدل حالت فضایی مناسب کنیم، احتمال مورد انتظار که ما خارج می‌شویم همان چیزی است که می‌گیریم. داده‌ها را بدون اضافه کردن نویز با استفاده از هسته $K_{\sigma_o} \star K_{\sigma_o}$ برازش می‌کنیم. این نتیجه باید اشتباه باشد زیرا اگر نویز $Z_{1:T}$ را اضافه کنیم، مدل مناسب را برازش می‌کنیم!
ساخت مدل فضای حالت مصنوعی از داده های بدون نویز
103489
عدد تاو از آزمون من کندال چگونه باید تفسیر شود؟ من خوانده ام که برای اینکه روندها با آزمایش تشخیص داده شوند، باید یکنواخت باشند. اگر داده‌هایی در طول سال‌ها دارم، آنها را بر اساس ماه تقویم گروه‌بندی می‌کنم و سپس آزمون Mann-Kendall را اجرا می‌کنم و مقدار 0.3 را برای Jan دریافت می‌کنم، آیا این به این معنی است که همه جان‌های قبلی میانگین سالانه کمتری داشتند؟ و آیا 0.3 از نظر مقدارش میانگین واقعی دارد، منظورم این است که آیا می توانم استنباط کنم که هر سال میانگین آن ماه 3 درصد افزایش می یابد؟
نحوه تفسیر آمار تاو در آزمون من کندال
31179
یک سوال رگرسیونی جالب به من ارائه شده است: فرض کنید من یک جعبه سیاه دارم که مجموع مربع های باقیمانده را محاسبه می کند: $RSS=(Y-X\hat{\beta})'(Y-X\hat{\beta})$ برای **هر** مدل خطی استاندارد به شکل $Y=X\beta+e$ که می خواهم در آن قرار دهم. علاوه بر این فرض کنید که n=60 مشاهده، دو متغیر پیش‌بینی‌کننده، $\alpha_1،\alpha_2$ وجود دارد و من در حال آزمایش این فرضیه هستم: $H_0: \gamma_1=\gamma_2$ با استفاده از مدل: $Y_j=\gamma_0+\alpha_{j,1}\gamma_1+\alpha_{j,2}\gamma_2+\epsilon_j, j=1,...,60$. ترفند این نیست که سعی کنید و فقط ماتریس H مناسب را پیدا کنید و بر اساس آن تست کنید، بلکه تنها ابزاری که در اختیار داریم این جعبه سیاه است که به من $RSS$ می دهد و هیچ چیز دیگری. آیا فکری در مورد چگونگی حل پازل دارید؟
آزمون فرضیه فقط با استفاده از RSS
25971
برای کدام توزیع $F$ $X_1 + \dots + X_N$ تقریباً نمایی است، $X_i$ i.i.d. ~ $F$، برای $N$ = 2، 4، 8، 16؟ چگونه می توان مسائلی از این دست را به صورت عددی حل کرد؟ («بیشتر نزدیک» به معنای معیاری در توزیع‌ها است که به نظر می‌رسد تعداد زیادی از آنها وجود دارد؛ $\mathbb{E}( ​​X - Y )^2$ ?)
کدام تابع توزیع $F$ طوری است که اگر $\{ X_i \}_{i=1}^{N} \sim F$، آنگاه $X_1 + ... + X_N$ تقریباً نمایی است؟
73841
من می‌خواهم احتمال داده‌های آزمایشی داده‌های قطار را در مدل خود محاسبه کنم: $$ p(x_{test} | x) = \int p(x_{test}, \theta | x) d\theta = \int p( =تتا فاکتورسازی میانگین میدان $q(\theta) \تقریبا p(\theta | x)$. اکنون می توانم بنویسم $$ ... = \mathbb{E}_q p(x_{test} | x, \theta) = \mathbb{E}_q \frac{ p(x_{test}, x, \theta) }{ p(x, \theta) } $$ مشکل این است که من نمی توانم انتظار توزیع مشترک را محاسبه کنم، فقط انتظار لگاریتم آن است. آیا راهی برای غلبه بر این مشکل بدون تقریب های بیشتر مانند نمونه برداری از $q(\theta)$ وجود دارد؟ من مطمئن هستم که در بسیاری از مدل ها همین مشکل وجود دارد، اما هنوز راه حل مناسبی پیدا نشده است. مطمئن نیستم که این مهم است، اما در مدل من $$ p(x, x_{test}, \theta) = p(\theta) p(x, x_{test} | \theta) \neq p(\theta) p(x | \theta) p(x_{test} | \theta) $$
آزمون احتمال داده ها از طریق پیش بینی پسین
25975
داده‌های من «mydata» شامل ستون‌های x1,x2,..,x100,y در R است. اما من به یک مدل خطی با عبارت‌های مرتبه دوم مانند y ~ x1^2 + x2^2 + x1*x2 + فکر می‌کنم. .. چگونه می توانم در فرمول یا هر روش دیگری در R به آن برسم؟ وقتی در بالا امتحان کردم، مدل من «pls» همه شرایط مرتبه دوم را نادیده گرفت. آیا باید آن ستون ها را به صورت دستی ایجاد کنم؟
چگونه عبارت های مرتبه دوم را به مدل در R اضافه کنیم؟
25972
یک جدول چندجمله ای $2\times 2$ $\begin{pmatrix} x_{11} & x_{12} \\\ x_{21} & x_{22} \end{pmatrix}$ را با احتمالات نظری در نظر بگیرید: $$\begin {pmatrix} \theta_{11} & \theta_{12} \\\ \theta_{21} و \theta_{22} \end{pmatrix}.$$ توزیع شرطی $x_{11}$ با توجه به $x_{11}+x_{12}=n$ دو جمله ای با اندازه $n$ و نسبت $p=\ است dfrac{\theta_{11}}{\theta_{11}+\theta_{12}}$. بنابراین ما یک راه ساده برای انجام استنتاج آماری روی $p$ با شرطی کردن $x_{11}+x_{12}$ داریم. آیا امکان استنتاج بدون قید و شرط روی $p$ وجود دارد؟ پرانتز: اشاره کرده‌ام که اتخاذ رویکرد بیزی با جفریز (دیریکله) قبل از مدل چندجمله‌ای بدون قید و شرط، معادل اتخاذ رویکرد بیزی با جفریز (بتا) قبل از مدل دوجمله‌ای شرطی است.
استنتاج بدون قید و شرط در مدل چندجمله ای
92616
اینجا چه خبر است؟ data.2 subj phon f.amp 1 1 V 100 2 2 V 60 3 3 V 124 4 4 V 42 5 5 V 210 6 6 V 104 7 7 V 150 8 1 ʔ 92 9 2 ʔ 31ʔ 10 3 ʔ 32 12 5 ʔ 90 13 6 ʔ 65 14 7 ʔ 105 15 1 h 142 16 2 h 72 17 3 h 141 18 4 h 60 19 5 h 268 20 6 h 1 h 134 h 134 h 19 PHONh با اجرای ANOVA در زیر مجموعه داده مربوطه: library(lme4) anova(lmer(f.amp~phon+(1|subj),data.2[which(data.2[,2]!=ʔ)، ])) تجزیه و تحلیل جدول واریانس Df Sum Sq Mean Sq F مقدار phon 1 2113.1 2113.1 9.8144 مقایسه زوجی سطوح مشابه با تعریف مستقیم ضرایب کنتراست. نسبت -F_ حاصل متفاوت: کنتراست (داده.2[,2],1)=ماتریس(c(-1,0,1),nrow=3) تضادها(داده.2[,2]) [,1] V -1 ʔ 0 h 1 anova(lmer(f.amp~phon+(1|subj),data.2)) تجزیه و تحلیل جدول واریانس Df Sum Sq Mean Sq F مقدار phon 1 2113.1 2113.1 1.2566 از آنجایی که _df_ PHON، _SS_ PHON و _MS_ PHON برای هر دو تحلیل یکسان هستند. و از آنجایی که _F_ PHON = _MS_ PHON / _MS_ PHON x _S_، استنباط می کنم که تحلیل ها در مورد مدیریت _S_ متفاوت است. هیچ ایده ای در مورد چگونگی و چرا دقیقا؟
مقایسه‌های زوجی با زیرمجموعه یا با تضادهای سفارشی و رفتار متفاوت *S*