_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
41203 | سوال من در مورد محاسبه فاصله اطمینان (CI) برای نسبت شانس (OR) از یک خروجی SAS از یک مدل رگرسیون لجستیک برای یک دسته مرجع متفاوت بدون اجرای مجدد برنامه SAS است. من مدلسازی لجستیک SAS را سطح درآمد دوگانه (کد 1 در مقابل کد بالا با 0) با 4 متغیر نژاد کدگذاری شده ساختگی بهعنوان متغیرهای کمکی - سفید، چینی، سیاه و فیلیپینی با سفید به عنوان دسته مرجع اجرا کردهام. در حالی که به OR و CI برای سطح درآمد فیلیپینی ها در برابر White از یک خروجی SAS که فقط رهگیری، بتا، SE، OR و 95٪ Wald CI برای OR را ارائه می کند، نگاه می کنم، علاقه مند شدم در مورد OR و 95٪ CI بدانم. برای فیلیپینی ها در برابر چینی ها (به جای سفید). من می دانم که چگونه بتا و OR جدید را با محاسبه مقادیر پیش بینی شده برای چینی ها و فیلیپینی ها و سپس گرفتن تفاوت پای ثبت نام برای چینی ها و فیلیپینی ها برای دریافت بتا و OR جدید محاسبه کنم، اما من کاملاً در محاسبه دچار مشکل هستم. از CI جدید. کسی میتونه کمک کنه لطفا؟ | چگونه می توان 95% CI را برای OR برای یک دسته مرجع دیگر بدون اجرای مجدد لجستیک SAS محاسبه کرد؟ |
57338 | چه رابطه ای بین برآورد حداقل کنتراست و برآورد حداقل فاصله وجود دارد؟ اگر درست متوجه شده باشم این دو روش متفاوت هستند؟ یا معادل هستند؟ با تشکر و احترام! * * * برآورد حداقل فاصله از ویکی پدیا > اجازه دهید $\displaystyle X_1,\ldots,X_n$ یک نمونه تصادفی مستقل و به طور یکسان > توزیع شده (iid) از یک جمعیت با توزیع > $F(x;\theta)\colon \theta باشد. \in\Theta$ و $\Theta\subseteq\mathbb{R}^k (k\geq > 1)$. > > اجازه دهید $\displaystyle F_n(x)$ تابع توزیع تجربی بر اساس > نمونه باشد. > > اجازه دهید $\hat{\theta}$ یک برآورد کننده برای $\displaystyle \theta$ باشد. سپس > $F(x;\hat{\theta})$ یک برآوردگر برای $\displaystyle F(x;\theta)$ است. > > اجازه دهید $d[\cdot,\cdot]$ تابعی باشد که مقداری فاصله بین دو آرگومان را برمی گرداند. تابعی $\displaystyle d$ نیز > تابع معیار نامیده می شود. > > اگر $\hat{\theta}\in\Theta$ وجود داشته باشد به طوری که > $d[F(x;\hat{\theta}),F_n(x)]=\inf\\{d[F (x;\theta),F_n(x)]; > \theta\in\Theta\\}، $ سپس $\hat{\theta}$ حداقل فاصله نامیده میشود > تخمین $\displaystyle \theta$. * * * برآورد حداقل کنتراست از Bickel and Doksum's Mathematical Statistics Vol1  | رابطه بین برآورد حداقل کنتراست و برآورد حداقل فاصله؟ |
57337 | من در حال ساخت نمونه اولیه مدل Naive Bayes bag o word خود هستم و یک سوال در مورد محاسبه احتمالات ویژگی داشتم. فرض کنید من دو کلاس دارم، فقط از spam و not-spam استفاده می کنم زیرا همه از آن استفاده می کنند. و بیایید کلمه ویاگرا را به عنوان مثال در نظر بگیریم. من 10 ایمیل در مجموعه آموزشی دارم، 5 ایمیل هرزنامه و 5 ایمیل غیر اسپم. viagra در تمام 5 سند هرزنامه ظاهر می شود. در یکی از اسناد آموزشی 3 بار ظاهر می شود (این همان چیزی است که سوال من در مورد آن است)، بنابراین در مجموع 7 ظاهر در هرزنامه است. در مجموعه آموزش بدون هرزنامه، 1 بار ظاهر می شود. اگر بخواهم p(viagra | هرزنامه) را به سادگی تخمین بزنم: **p(viagra | هرزنامه) = 5 سند هرزنامه حاوی ویاگرا / 5 سند هرزنامه کل = 1 ** به عبارت دیگر، **این واقعیت را انجام می دهد که یک سند به جای یک بار، 3 بار به ویاگرا اشاره کردم واقعاً مهم نیست؟ http://ebiquity.umbc.edu/blogger/2010/12/07/naive-bayes-classifier- in-50-lines/ و در اینجا یک پست وبلاگ وجود دارد که نویسنده می گوید: p(viagra | spam) = 7 spam viagra منشن ها / 8 منشن ها http://www.nils-haldenwang.de/computer- علم/آموزش-ماشین/نحوه اعمال-طبقهبندیهای ساده-بی-بیز-به-مشکلات- طبقهبندی- اسناد و سپس یکی از پاسخهای زیر میگوید که باید این باشد: p(viagra | spam) = 7 ذکر ویاگرا در هرزنامه / تعداد کل مدت در هرزنامه ها آیا کسی می تواند به منبعی که در این مورد نظر می دهد پیوند دهد؟ | ویژگی های احتمالات ساده بیز (آیا کلمات را دوبرابر بشمارم؟) |
113186 | من با داده هایم که در حال حاضر با آنها بازی می کنم گیج شده ام. من یک مجموعه داده دارم که دارای 58 ویژگی در 10000 نمونه است. مشخصه ها 56 مقدار شناور هستند که معمولاً بین 0 تا 1 هستند. سپس ویژگی اسمی وجود دارد که کلاس داده را نشان می دهد. آخرین مورد نتیجه داده است که ویژگی اسمی با 3 مقدار متفاوت است. هنگام بازی با Weka با این مجموعه داده و اگر اعتبار متقاطع را با 1000 برابر انجام دهم و سعی کنم آن داده ها را با جنگل تصادفی طبقه بندی کنم، نتایج بسیار خوبی دریافت می کنم، تا حدودی 85٪ موارد به درستی طبقه بندی می شوند. همین امر در مورد پرسپترون چندلایه نیز صدق میکند (اما من این کار را با این تعداد تاها انجام ندادهام، زیرا یک تا کردن حدود 5 دقیقه زمان میبرد). مشکل زمانی پیش میآید که من این دادهها را با مجموعه آزمایشی خود آزمایش میکنم، به عنوان مثال 10 نمونه از مدل را آخرین نمونه، و یک مدل جدید با 9990 نمونه میسازم (در واقع من دادههای بسیار بیشتری دارم، بنابراین مدل هنوز 10000 نمونه گسترده است، و هیچ داده آزمایشی وجود ندارد. وجود دارد). اکنون نتیجه من بسیار بدتر شده است. 40٪ از نمونه ها اکنون به درستی طبقه بندی شده اند. چگونه می تواند این باشد؟ در اینجا چه چیزی را نمی فهمم و چگونه می توانم این نتایج را با داده های آزمایشی خودم بهبود بخشم؟ | نتایج داده های آزمون با نتایج اعتبارسنجی متقابل مطابقت ندارد |
106074 | من در حال تجزیه و تحلیل عملکرد دانشآموز در یک آزمون پیش و پس از آن هستم که برای ارزیابی دستاوردهای یک هفته برنامه درسی زیستشناسی دبیرستان در مورد انتخاب طبیعی طراحی شده است. پس از مقایسه عملکرد قبل و بعد با استفاده از انواع معیارهای مختلف (نمره آزمون، اندازه گیری راش، مجذور کای در هر مورد) بین نمونه های زوجی، من یک ANOVA برای سنجش اینکه آیا تفاوت هایی بین معلمان وجود دارد انجام دادم. دو نفر از (هفت) معلمان به طور قابل توجهی با بقیه متفاوت هستند (دانش آموزان آنها میانگین راش را به شدت پایین تری داشتند و در کل عملکرد بدتری داشتند)، بنابراین من می خواهم این تفاوت ها را در تجزیه و تحلیل توضیح دهم. آیا مدل ANOVA تو در تو در اینجا مناسب است؟ من می دانم که مدل های تو در تو در گفتگوهای SPSS نیستند، اما من زیاد یک برنامه نویس نیستم و بنابراین نمی دانم چه نحوی باید تولید کنم. علاوه بر این، هر معلم تعداد شاگردان متفاوتی دارد. آیا یک نمونه تصادفی (با حصول اطمینان از مقدار یکسان از هر معلم) برای مقایسه زوجی میانگین ها (مانند قبل در مقابل پست) مفید خواهد بود یا اینکه به هر حال این مقایسه میانگین ها بین گروه ها است، مهم نیست؟ پوزش برای هر گونه سوال واضح. آموزش رشته اصلی من نیست (من یک انسان شناس زیستی هستم) و از زمانی که در مقطع کارشناسی ارشد آمارهای چند متغیره را انجام دادم کمی می گذرد. | ANOVA تودرتو در SPSS / آموزش علوم |
99893 | آیا آمار چند متغیره و یادگیری ماشین همان مشکلات را حل می کنند؟ من دیدم که کتاب هایشان در مورد همین موضوعات است، بنابراین این تصور را دارم که آنها همان مشکلات را حل می کنند و احتمالاً از همان روش ها استفاده می کنند. روابط و تفاوت های آنها چیست؟ آیا یادگیری ماشین می تواند همان مسائل را در آمار تک متغیره حل کند؟ با تشکر | آمار چند متغیره در مقابل یادگیری ماشینی؟ |
106076 | بنابراین مطمئن نیستم که 100% فواصل اطمینان را درک کنم یا خیر. بگویید من مجموعه داده عظیمی از قیمت اوراق قرضه از سال 1996 تا ارائه در MINUTES دارم. فرض کنید من هر داده را بر اساس روز جدا می کنم. اگر بخواهم از آزمون دیکی فولر (یا هر آزمون t دیگری) در یک روز خاص استفاده کنم (بنابراین نمونه ای بر اساس همه نقاط در یک روز گرفته می شود) و مقداری که به دست آوردم فرضیه صفر را رد می کند، آیا از نظر مفهومی خواهد بود. درست است که من نتیجه بگیرم که چون بر اساس نمونه خود توانستم null را رد کنم، می توانم در مورد کل مجموعه داده (جمعیت) نتیجه گیری کنم؟ به عبارت دیگر، آیا انتخاب یک روز و عدم انتخاب تصادفی نقاط داده در سراسر ماده؟ | کاربرد فاصله اطمینان در یک سری زمانی |
84000 | سعی می کنم کشش قیمت برخی کالاها را ارزیابی کنم. من نگران گوسیانی بودن نویز در قیمت ها هستم. با غیر گاوسیانیتی به عدم وجود لحظه اول/دوم برای توزیع خطا اشاره می کنم. آیا راهی برای برازش مدل خطی بدون فرض گاوسی بودن خطا وجود دارد؟ | برازش یک مدل خطی با نویز غیر گاوسی |
37694 | من از مدل های مخلوط محدود استفاده می کنم. برای دو مجموعه $A$ و $B$ از مقادیر شروع (حدس اولیه) مقادیر زیر تابع $Q(\bf{\hat{\Theta}})$ و $\log L(\bf{\) را دریافت می کنم. کلاه{\Theta}})$: تنظیم $A$: $Q(\bf{\hat{\Theta}_A})=110$ و $\log L(\bf{\hat{\Theta}_A})=7$ تنظیم $b$: $Q({\bf{\hat\Theta}_B})=78$ و $\log L(\bf{\ hat{\Theta}_B})=20$ چیزی که من را گیج میکند این است که برای این حداکثرهای احتمال محلی باید $\bf{\hat{\Theta}_A}$ را هنگام اشاره به تابع $Q$ انتخاب کنم و اگر تصمیم گرفتم به $\log L$ تکیه کنم، برعکس، $\bf{\hat{\Theta}_B}$ را انتخاب کنید. مک لاکلان در صفحه 78 (الگوریتم و برنامه های افزودنی EM - McLachlan, Krishnan 2ed. (2008)) به من این امکان را می دهد که استنتاج کنم که اگر $\bf{\hat{\Theta}_B}$ به صورت سراسری تابع احتمال را به حداکثر نرساند، $ وجود دارد. \bf{\hat{\Theta}_A}$ که باید برآورده شود: $Q(\bf{\hat{\Theta}_B}) <Q(\bf{\hat{\Theta}_A})$ (که برای مورد من صادق است) به این معنی که $\log L(\bf{\ کلاه{\Theta}_B}) < \log L(\bf{\hat{\Theta}_A})$. آخرین نابرابری برای مقادیر بالا برقرار نیست. این بدان معناست که بر اساس مبانی نظری، چیزی در الگوریتم پیادهسازی شده من اشتباه است. آیا به نظر شما مشتقات فوق مناسب هستند؟ | الگوریتم EM - مقادیر احتمال و احتمال کامل برای مقادیر شروع مختلف |
3781 | من یک مجموعه داده دارم که در آن شخصی پرندگان را در فصل تولید مثل بیش از 10 سال شمارش کرده است. برای هر سال (سایت x)، میخواهیم ببینیم که چگونه کاهش نمونهگیری ممکن است بر توانایی ما در تشخیص روند تأثیر بگذارد. بنابراین برای این منظور، من مجموعه دادههای مختلفی را از نمونه اصلی شبیهسازی کردهام که در آن نمونهگیری را به یک بار در هر 45 روز کاهش دادیم (و 60، 90،120). من همان مدل دوجمله ای منفی را به مجموعه داده های اصلی و شبیه سازی شده (5oo مجموعه داده برای هر یک از فواصل مختلف نمونه برداری) برازش می کنم. بنابراین اکنون من 500 رگرسیون (و ضریب) برای هر مجموعه داده x مکان دارم. آیا راهی برای ایجاد یک گروه اعتماد در اطراف اینها وجود دارد؟ آیا چیزی بسیار پیش پا افتاده است، مانند محاسبه CI حول یک میانگین؟ | آیا راهی برای محاسبه فواصل اطمینان برای تخمین رگرسیون داده های شبیه سازی شده وجود دارد؟ |
3259 | این سوال در مورد تخمین نمرات برش در یک پرسشنامه غربالگری چند بعدی برای پیشبینی نقطه پایانی باینری، در حضور مقیاسهای همبسته است. از من در مورد علاقه کنترل امتیازهای فرعی مرتبط هنگام طراحی نمرات برش در هر بعد از مقیاس اندازه گیری (ویژگی های شخصیتی) که ممکن است برای غربالگری اعتیاد به الکل استفاده شود، پرسیده شد. یعنی در این مورد خاص، فرد علاقهای به تنظیم متغیرهای کمکی خارجی (پیشبینیکنندهها) نداشت - که منجر به ناحیه (جزئی) زیر منحنی ROC تنظیمشده با متغیرهای کمکی میشود، به عنوان مثال. (1-2) - اما اساساً در سایر نمرات از همان پرسشنامه، زیرا آنها یکی را با یکدیگر مرتبط می کنند (مثلاً تکانشگری با احساس طلبی). این به معنای ساختن یک GLM است که در سمت چپ امتیاز مورد علاقه (که ما به دنبال یک برش برای آن هستیم) و امتیاز دیگری محاسبه شده از همان پرسشنامه است، در حالی که در سمت راست نتیجه ممکن است وضعیت نوشیدن باشد. برای روشن شدن موضوع (به ازای درخواست @robin)، فرض کنید که امتیازهای $j=4$ داریم، مثلاً $x_j$ (به عنوان مثال، اضطراب، تکانشگری، روان رنجوری، جستجوی احساسات)، و میخواهیم یک مقدار برش $t_j$ پیدا کنیم. یعنی مورد مثبت اگر $x_j>t_j$، مورد منفی در غیر این صورت) برای هر یک از آنها. ما معمولاً هنگام طراحی چنین برشهایی (با استفاده از تحلیل منحنی ROC) برای سایر عوامل خطر مانند جنسیت یا سن تنظیم میکنیم. حال، در مورد تنظیم تکانشگری (IMP) بر روی جنسیت، سن، و جستجوی احساسات (SS) چه میتوان گفت، زیرا SS با IMP ارتباط دارد؟ به عبارت دیگر، در جایی که اثر سن، جنسیت و سطح اضطراب حذف شود، یک مقدار قطعی برای IMP خواهیم داشت. جدا از اینکه میگویم یک برش باید تا حد امکان ساده باقی بماند، پاسخ من این بود > درباره متغیرهای کمکی، من تخمین AUC را با و بدون تنظیم توصیه میکنم، فقط برای اینکه ببینیم آیا عملکرد پیشبینی افزایش مییابد. در اینجا، متغیرهای کمکی شما صرفاً سایر امتیازات فرعی هستند که از همان ابزار اندازهگیری تعریف شدهاند و من هرگز با چنین موقعیتی مواجه نشدهام (معمولاً من بر اساس عوامل خطر شناخته شده مانند سن یا جنسیت تنظیم میکنم). همچنین، از آنجایی که شما به مسائل پیش آگهی (یعنی اثربخشی غربالگری پرسشنامه) علاقه مند هستید، ممکن است به تخمین ارزش اخباری مثبت (PPV، > احتمال ابتلا به بیمارانی با نتایج آزمایش مثبت که به درستی انجام می شود علاقه مند باشید. > طبقه بندی شده) به شرطی که بتوانید موضوعات را به عنوان مثبت یا > منفی طبقه بندی کنید، بسته به نمره فرعی آنها در پرسشنامه. توجه داشته باشید، > با این حال، دانستن شیوع این اختلال برای > تفسیر صحیح PPV به نوبه خود ضروری است... آیا شما درک کامل تری از این وضعیت خاص، با پیوند به مقالات مرتبط در صورت امکان دارید؟ ** مراجع** 1. Janes, H and Pepe, MS (2008). تنظیم برای متغیرهای کمکی در مطالعات نشانگرهای تشخیصی، غربالگری یا پیش آگهی: یک مفهوم قدیمی در یک محیط جدید. _مجله اپیدمیولوژی آمریکایی_، 168(1): 89-97. 2. جینز، اچ و پپه، ام اس (2008). سازگاری متغیرهای کمکی در تجزیه و تحلیل ROC. _UW Biostatistics Working Paper Series_ , Paper 322. | تنظیم برای متغیرهای کمکی در تجزیه و تحلیل منحنی ROC |
41205 | اولین بار است که اینجا سوال میپرسم، بنابراین امیدوارم مشکلی ایجاد نکنم. من در حال محاسبه حجم نمونه برای مطالعهای هستم که از طراحی آزمون _t_ مستقل استفاده میکند: مقایسه برخی از نتایج قبل و بعد از یک خط مشی خاص، موضوعات در دورههای قبل و بعد به هم مرتبط نیستند. به بیان ساده، این مطالعه در مورد غذای شیر گرفتن نوزادان توزیع شده در کشورهای در حال توسعه است. نتیجه، درصد وزن مواد پخت و پز است که روغن است، که با مواد مغذی غنی شده است. توصیه فعلی این است که 9 درصد وزن غذای کودک باید روغن غنی شده باشد (حدود 1 قسمت روغن تا 10 قسمت غلات تغذیه شده). این سازمان در تلاش است تا مقدار جدیدی از روغن 16 درصد را تبلیغ کند که نشان داده شد با نتایج آنتروپومتریک بهتری همراه است. من میتوانم از فرمول اندازه نمونه آزمون _t_ معمولی استفاده کنم، اما نگرانم که انحراف معیار از میانگین 9٪ معنیدار نباشد، زیرا نتیجه بین 0٪ تا 100٪ محدود است، توزیع نقطه درصد در افراط (مانند 9٪) به احتمال زیاد غیر عادی است، و علاوه بر این، همه مراقبان دستورالعمل پخت و پز را رعایت نمی کنند، بنابراین SD احتمالاً بزرگ است. بنابراین سوال من این است: آیا میدانید هیچ فرمولی برای این وضعیت مقایسه میانگین زمانی که دادههای سطح **فردی** (نه گروهی) نسبت هستند، قابل اجرا باشد؟ با تشکر فراوان برای خواندن. من قدردان هر توصیه یا مرجعی هستم. | اندازه نمونه برای آزمون t زمانی که نتیجه نقطه درصد باشد |
106070 | من مجموعه داده هایی از حضور نمایندگان کنگره و وضعیت آب و هوا در واشنگتن دی سی دارم. من می خواهم بررسی کنم که آیا بارندگی و تا چه حد با احتمال حضور یا غیبت اعضای کنگره ارتباط دارد. به عنوان مثال، کنگره 111 در 298 روز از 388 روز بین 1388/01/06 و 2010/01/29 برگزار شد. بارش در 187 روز از 388 روز ثبت شد. (من همچنین مقدار بارندگی، دما، فشار، اندازه گیری های آب و هوای زیادی را دارم) نماینده کنگره A 52 بار غایب بود. از این 52 مورد، 39 بار بارندگی وجود داشته است. و غیره برای هر کنگره. فرضیه صفر این خواهد بود که هیچ رابطه ای بین بارش و حضور وجود ندارد. من می خواهم نوعی تجسم ایجاد کنم. شاید هیستوگرام تعداد نمایندگان کنگره در محور y و... چیزی بیزی؟ با توجه به اینکه باران می بارد، احتمال غیبت آنها وجود دارد؟ | یک استراتژی موثر برای ارتباط بین حضور در کنگره و میزان بارش چیست؟ |
4997 | من از AIC (معیار اطلاعات Akaike) برای مقایسه مدلهای غیرخطی در R استفاده میکنم. آیا مقایسه AIC در انواع مختلف مدل معتبر است؟ به طور خاص، من یک مدل برازش شده توسط glm را با یک مدل با یک اصطلاح اثر تصادفی برازش شده توسط glmer (lme4) مقایسه میکنم. اگر نه، آیا راهی برای چنین مقایسه ای وجود دارد؟ یا این ایده کاملاً بی اعتبار است؟ | آیا AIC می تواند انواع مختلف مدل را مقایسه کند؟ |
3252 | تجزیه و تحلیل داده های اکتشافی (EDA) اغلب منجر به کاوش در مسیرهای دیگری می شود که لزوماً به مجموعه اولیه فرضیه ها تعلق ندارند. من با چنین وضعیتی در مورد مطالعاتی با حجم نمونه محدود و داده های زیادی که از طریق پرسشنامه های مختلف جمع آوری شده اند (داده های جمعیت شناختی-اجتماعی، مقیاس های عصب روانشناختی یا پزشکی - به عنوان مثال، عملکرد ذهنی یا فیزیکی، سطح افسردگی/اضطراب، چک لیست علائم) مواجه هستم. ). این اتفاق می افتد که EDA به برجسته کردن برخی از روابط غیرمنتظره (غیرمنتظره به این معنی که در طرح تحلیل اولیه گنجانده نشده اند) کمک می کند که به سوالات/فرضیه اضافی تبدیل می شود. همانطور که در مورد بیش از حد برازش وجود دارد، لایروبی داده یا ردیابی منجر به نتایجی می شود که تعمیم نمی یابند. با این حال، زمانی که داده های زیادی در دسترس باشد، فرض کردن مجموعه محدودی از فرضیه ها (برای محقق یا پزشک) بسیار دشوار است. میخواهم بدانم که آیا روشها، توصیهها یا قوانین سرانگشتی شناخته شدهای وجود دارد که ممکن است به تعیین EDA در مورد مطالعات نمونه کوچک کمک کند. | چگونه می توان با تجزیه و تحلیل داده های اکتشافی و لایروبی داده ها در مطالعات نمونه کوچک کنار آمد؟ |
4991 | من می خواهم (در R) مدل خطی دینامیکی بسیار ساده زیر را پیاده سازی کنم که برای آن 2 **پارامتر متغیر زمان ناشناخته ** دارم (واریانس خطای مشاهده $\epsilon^1_t$ و واریانس خطای حالت $\ epsilon^2_t$). $ \begin{matrix} Y_t & = & \theta_t + \epsilon^1_t\\\ \theta_{t+1} & = & \theta_{t}+\epsilon^2_t \end{matrix} $ میخواهم تخمین بزنم این پارامترها برای هر بار، **بدون هیچ گونه سوگیری از آینده**. با توجه به آنچه من درک می کنم، می توانم از یک MCMC (روی یک پنجره چرخان برای جلوگیری از تعصب به جلو) یا یک فیلتر ذرات (یا Sequencial Monte Carlo - SMC) استفاده کنم. **از کدام روش استفاده می کنید** و **مزایا و معایب این دو روش چیست؟** سوال جایزه: در این روش ها سرعت تغییر پارامترها را چگونه انتخاب می کنید؟ حدس میزنم که باید اطلاعاتی را در اینجا وارد کنیم، زیرا بین استفاده از دادههای زیاد برای تخمین پارامترها و استفاده از دادههای کمتر برای واکنش سریعتر به تغییر پارامتر اختلاف وجود دارد؟ | برآورد پارامترهای یک مدل خطی پویا |
41200 | فرض کنید $X \sim N(\mu, \sigma^2)$. بعد از $n$ قرعه کشی های مستقل $\bar{X} \sim N(\mu, \frac{\sigma^{2}}{n})$. من فرض می کنم که هر قرعه کشی حاوی اعداد $n$ است؟ زیرا اگر هر قرعه کشی فقط یک عدد داشت، ما فقط یک میانگین خواهیم داشت. | توزیع نمونه گیری |
70743 | من می دانم که R ابزار بسیار قدرتمندی برای داده کاوی و ساخت مدل پیش بینی است. با این حال، استخراج معادله از هر نوع مدل سازی که انجام می دهم برایم دشوار است. به عنوان مثال، با استفاده از چیزی مانند: model <- lm(y~var1+var2+var3) برای داده کاوی، می توانم از چیزی شبیه به: analysis <- rpart(y~var1+var2+var3) برای درک داده های خود استفاده کنم. با این حال، خوب است اگر R قابلیت نمایش مدلی را که استفاده میکند، خطی یا چیز بسیار پیچیدهتری را داشته باشد. برنامه ای به نام Eureka از Nutonian وجود دارد که می تواند داده ها را بگیرد و سعی کند معادله ای را در آن قرار دهد. آیا R قادر به انجام این کار است؟ | تشخیص معادله از داده ها |
106071 | من از Matlab برای پیش بینی داده های سری زمانی با استفاده از الگوریتم ARIMA استفاده می کنم. من قادر به دریافت مقادیر پیش بینی شده هستم، اما نمی توانم مقادیر برازش را بدست بیاورم. منظور من این است. در R: مدل <- auto.arima(data)؛ پیش بینی شده <- forecast.Arima(model, h=36) forecasted$fitted «forecasted$fitted» داده هایی را می دهد که توسط داده های اصلی برازش شده است. الگوریتم ARIMA اما من نمی توانم چنین چیزی را در Matlab ببینم: مدل = arima (1,1,0). logL, info] = تخمین (مدل، داده) = پیش بینی (est, 10) به من 10 مقادیری را می دهد که Arima پیش بینی کرده است هر گونه کمکی قدردانی می شود. | مقادیر برازش برآورد شده در ARIMA را در Matlab دریافت کنید |
86533 | فرض کنید باید از یک pdf $\pi(x) = 3x^3+\frac{3}{4}x^2, 0 \le x \le 1$ نمونه برداری کنم. من می دانم که باید مقداری pdf $g(x)$ را انتخاب کنیم به طوری که $cg(x) \ge \pi(x)$ برای همه x. تنها چیزی که به ذهنم رسید استفاده از $g(x) = 1$ با $c = 3.75$ بود. بنابراین $cg(x) = 3.75$. هیچ توزیع بهتری به ذهن نمی رسد که نمونه برداری از آن آسان باشد. آیا این گزینه خوبی است؟ همچنین دو چیز مفهومی - چه چیزی یک توزیع را آسان می کند تا از آن نمونه برداری کنید؟ چرا می خواهیم c را تا حد امکان کوچک انتخاب کنیم. چرا از $c = 50$ استفاده نمی کنید؟ آیا این برای کارایی الگوریتم است؟ یعنی تعداد بیشتری از نمونههای بهطور تصادفی از $cg(x)$ زیر منحنی $\pi(x)$ قرار میگیرند؟ | نمونه گیری رد - انتخاب توزیع g(x). |
41208 | ### وضعیت برخی از محققان دوست دارند شما را بخوابانند. بسته به پرتاب مخفی یک سکه منصفانه، آنها به طور خلاصه یا یک بار (سرها) یا دو بار (دم) شما را بیدار می کنند. بعد از هر بیدار شدن، دوباره شما را با دارویی می خوابانند که باعث می شود آن بیداری را فراموش کنید. وقتی بیدار می شوید، تا چه حد باید باور کنید که نتیجه پرتاب سکه هدز بوده است؟ _(خوب، شاید شما نمی خواهید سوژه این آزمایش باشید! در عوض، فرض کنید Sleeping Beauty (SB) با آن موافقت کرده است (البته با تایید کامل هیئت بررسی نهادی پادشاهی جادویی). او در شرف رفتن است. صد سال بخوابم، پس یک یا دو روز دیگر چیست؟)_  _[جزئیات تصویر مکسفیلد پریش.]_ ### آیا شما یک هالفر هستید یا یک سوم؟ ** موقعیت Halfer. ** ساده! سکه منصفانه است - و SB آن را می داند - بنابراین او باید باور داشته باشد که یک دوم شانس وجود دارد. **موقعیت سوم.** اگر این آزمایش بارها تکرار میشد، سکه تنها یک سوم دفعاتی که SB بیدار میشود سر خواهد داشت. احتمال او برای سر یک سوم خواهد بود. ### ثالث ها یک مشکل دارند اکثر، اما نه همه، افرادی که در این مورد نوشته اند، سومین هستند. اما: * یکشنبه غروب، درست قبل از اینکه اس بی به خواب برود، باید باور کند که شانس سرها نصف است: معنای سکه عادلانه این است. * هرگاه SB بیدار می شود، _ او مطلقاً چیزی را که نمی دانسته است، یاد نگرفته است. پس چه استدلال عقلانی می تواند ارائه دهد که بگوید اعتقاد او به سرها اکنون یک سوم است و نه یک دوم؟ ### برخی از توضیحات * اگر SB بخواهد روی هد با هر شانسی غیر از 1/3 شرط بندی کند، لزوماً ضرر می کند. (Vineberg, _inter alios_) * یک دوم واقعاً درست است: فقط از تفسیر اورتی «چند جهانها» از مکانیک کوانتومی استفاده کنید! (لوئیس). * SB اعتقاد خود را بر اساس درک خود از موقعیت زمانی خود در جهان به روز می کند. (الگا، _i.a._) * SB گیج شده است: «[این] معقول تر به نظر می رسد که بگوییم وضعیت معرفتی او پس از بیدار شدن نباید شامل درجه مشخصی از اعتقاد به سرها باشد. ... مسئله واقعی این است که چگونه با نقص شناخته شده، اجتناب ناپذیر و شناختی برخورد می کنیم.» [Arntzenius] * * * ### سؤال حسابداری برای آنچه قبلاً در مورد این موضوع نوشته شده است (به منابع و همچنین پست قبلی مراجعه کنید)، چگونه می توان این تناقض را به روشی دقیق از نظر آماری حل کرد؟ آیا این حتی ممکن است؟ * * * ### مراجع Arntzenius, Frank (2002). _تأملاتی در مورد زیبای خفته_ تحلیل 62.1 ص 53-62. بردلی، دی جی (2010). _تأیید در جهان شاخه ای: تفسیر اورت و زیبای خفته_. بریتانیایی جی فیل. علمی 0 (2010)، 1-21. الگا، آدام (2000). باور خود مکان یابی و مشکل زیبای خفته تحلیل 60 ص 143-7. فرانچسکی، پل (2005). _زیبای خفته و مشکل کاهش جهان_. پیش چاپ. گرویسمن، بری (2007). _پایان کابوس زیبای خفته_. پیش چاپ. لوئیس، دی (2001). _زیبای خفته: پاسخ به الگا_. تحلیل 61.3 صص 171-6. پاپینو، دیوید و ویکتور دورا ویلا (2008). _یک سوم و یک اورتین: پاسخی به زیبای خفته کوانتومی لوئیس. پاست، جوئل (2008). _هورگان در مورد زیبای خفته_. Synthese 160 pp 97-101. واینبرگ، سوزان (بدون تاریخ، شاید 2003). _قصه هشدار دهنده زیبایی_. | پارادوکس زیبای خفته |
3788 | **1-** چگونه می توانم بررسی کنم که آیا مجموعه ای از داده ها را می توان به عنوان داده های IID در نظر گرفت؟ من چندان با آمار آشنا نیستم، اما حدس میزنم برای توزیع مستقل باید به اولین تاخیر خودهمبستگی نگاه کنم. هیچ ایده ای در مورد شرایط توزیع یکسان ندارید! **2-** گویا به اندازه کافی واضح نبودم! من در تلاش برای تشخیص نقاط پرت در یک سری از رکوردها هستم (سرعت جریان آشفته در یک رودخانه). من دادهها را به فضای موجک تبدیل میکنم و سپس موجکها را روی یک آستانه خاص کوچک میکنم. از آنجایی که انحراف معیار بدترین گزینه به عنوان تخمینگر مقیاس است، من به دنبال برآوردگر جدیدی گشتم. Rousseeuw و Croux برآوردگرهای قوی جدیدی را برای اندازه گیری پراکندگی در متغیرهای تصادفی iid، Sn و Qn توسعه دادند. من نمیدانم که آیا ویژگیهای خرابی بالایی که آنها از آن لذت میبرند به پرونده سری زمانی نیز منتقل میشود یا خیر. از پاسخ داده شده توسط kwak، می توانم استنباط کنم که موجک ها از ویژگی توزیع مستقل پیروی نمی کنند. از آنجایی که پس از انقباض، مکان عناصر غیر صفر نشان دهنده مکان سنبله در سری زمانی اصلی است. آیا من حقیقت دارم؟ (در هم ریختن شاخصها منجر به از دست دادن مکان سنبلهها میشود) اگر چنین است، برآوردگرهای مقیاس دیگر مانند انحراف مطلق میانه (MAD) در مورد سریهای زمانی معتبر نیستند زیرا ما میانه را محاسبه میکنیم. در مورد الزامات فرضی توزیع یکسان چطور؟ **3-** خوب، اجازه دهید سوالم را به روشی ساده بپرسم: من میخواهم از برآوردگرهای مقیاس قوی Sn و Qn برای کوچک کردن یک سری موجک استفاده کنم. موجک ها از مشاهدات تجزیه بردارهای سرعت میدان جریان آشفته جمع آوری شده در نرخ نمونه برداری 1 هرتز به دست می آیند. اگر بتوان داده ها را به عنوان iid فرض کرد، به عنوان مثال. Qn دارای نقطه شکست 50% و بازده 82% است (توزیع گاوسی). سوال من این است که **خواص شکست بالایی که آنها از آن لذت می برند به مورد سری زمانی منتقل می شود یا خیر.** یا چگونه می توانم تایید کنم که موجک ها از ویژگی های iid پیروی می کنند. | چگونه می توان فرض IID را در یک مجموعه داده مشخص بررسی کرد؟ |
37566 | اگر من برخی از داده ها را در تابع یک متغیر طبقه بندی در R رسم کنم، نمودار جعبه استاندارد را دریافت می کنم. با این حال، نمودار جعبه آمار ناپارامتریک (چندک) را نشان می دهد که برای داده های توزیع شده معمولی مناسب به نظر نمی رسد. معادل باکس پلات برای داده های توزیع شده معمولی چیست (در حالت ایده آل، چیزی بر اساس فواصل اطمینان؟)؟ چگونه می توانم این نمودارها را با R بدست بیاورم؟ | معادل باکس پلات برای داده های توزیع شده عادی؟ |
86530 | اگر مشکلی مانند زیر به من داده شود، چگونه می توانم بفهمم که آیا باید تست تی تست یا کای دو انجام دهم؟ تست $H_0: \sigma^2_X = \sigma^2_Y$ در برابر $H_1 را در نظر بگیرید: \sigma^2_X ≠ \sigma^2_Y$ از دو نمونه مستقل از جمعیت های عادی با میانگین های ناشناخته $\mu_X$ و $\mu_Y$ و استاندارد انحرافات $\sigma_X$ و $\sigma_Y$. دلارهای X$ عبارتند از 11.4، 9.7، 11.4، 13.3، 7.4، 8.5، 13.4، 17.4، 12.7. $Y$ها 3.2، 2.7، 5.5، -0.9، -1.8 هستند. مقدار آمار آزمون را بیابید. P.S.: من می دانم که چگونه chisq.test و t.test را زمانی که فقط یک فرضیه ($H_0$) دارم انجام دهم! وقتی بیش از یک فرضیه دارم چگونه باید اسکریپت R بنویسم تا مشکل فوق را انجام دهم؟ چند اسکریپت خوب خارجی مرتبط با R برای این سوال که می توانم برای دیدن نمونه مشابه پوشش دهم چیست؟ > X = c( 11.4، 9.7، 11.4، 13.3، 7.4، 8.5، 13.4، 17.4، 12.7) > Y = c(3.2، 2.7، 5.5، -0.9، -1.8) > ?t.test > t.test( X، Y) داده های آزمون t نمونه Welch Two: X و Y t = 5.9114، df = 8.306، p-value = 0.0003089 فرضیه جایگزین: تفاوت واقعی در میانگین برابر با 0 95 درصد فاصله اطمینان نیست: 6.092637 13.805141 برآورد نمونه: میانگین x میانگین از y 180.68 > 11.68. Y) خطا در chisq.test (X, Y): 'x' و 'y' باید طول یکسانی داشته باشند | آیا از آزمون کای دو یا آزمون t برای برابری واریانس ها استفاده می کنید؟ |
106075 | من سعی کرده ام مجموعه ای از داده ها را به یکی از چهار کلاس طبقه بندی کنم. داده ها قبلاً تولید شده است و من 10000 برای آموزش و 2000 برای آزمایش کنار گذاشته ام. من همچنین برچسب هایی را برای هر یک از داده ها ایجاد کرده ام. بیایید کلاس ها را - 0،1،2 و 3 بنامیم. حالا وقتی طبقه بندی را مشاهده می کنم، متوجه می شوم که 0های زیادی در داده های آموزشی وجود دارد و از این رو در بیشتر موارد، طبقه بندی کننده فقط در حال یادگیری پیش بینی 0 بدون توجه به هر چیزی است. ویژگی ها هستند. (من از جنگل های تصادفی برای طبقه بندی استفاده می کنم) تولید مجدد داده ها برای اطمینان از یکنواختی، زمان زیادی می برد و ترجیح می دهم از آن اجتناب کنم. آیا هنوز هم می توانم از داده هایی که دارم استفاده کنم؟ پیشاپیش ممنون | چگونه از تعصب در داده ها خلاص شویم؟ |
86221 | یک ورودی کوتاه در وب سایت نیویورک تایمز حقایق و ارقام مصرف پیتزا در ایالات متحده را ارائه می دهد. من به نحوه استفاده (یا سوءاستفاده) از آمار برای ارائه اطلاعات به مخاطبان عمومی علاقه دارم و چند سوال بر اساس آمار ارائه شده مطرح شده است: * اگر از هر 8 آمریکایی 1 نفر امروز پیتزا بخورد، آیا این بدان معناست که به طور متوسط آمریکایی ها هر 8 روز یک بار پیتزا می خورند؟ در اینجا یک فرض وجود دارد که هر آمریکایی پیتزا می خورد، که اینطور نیست. با این حال، این سؤال را مطرح می کند که چگونه می توان یک فرض معتبر در مورد اینکه چه تعداد آمریکایی پیتزا می خورند، ایجاد کرد. * گزارش شده است که 25 درصد از کالری دریافتی کودک را پیتزا تشکیل می دهد. من کودکی را به عنوان یک کودک 9 ساله تعریف می کنم که فعالیت متوسطی دارد و بنابراین نیاز به دریافت روزانه 2000 کالری دارد. اگر به تخمین گوگل اعتماد کنیم که تعداد کالری در یک تکه پیتزا 285 است، آیا این نشان میدهد که یک کودک به طور متوسط در هفته 12 برش پیتزا مصرف میکند؟ (2000 * 7 * 0.25 / 285) گمان می کنم تفسیر من از آمار ناقص است. به نظر من نمیتوان گفت که یک کودک میتواند بخشی از 1 از 8 آمریکایی باشد که امروز پیتزا میخورند در حالی که تقریباً 1.7 برش در روز میخورند تا به عدد کالری دریافتی 25 درصد برسند. | آمار پیتزا برای توده ها |
106079 | من یک برش تصادفی و یک مدل شیب تصادفی را با استفاده از کد R زیر تخمین می زنم. متغیر وابسته و مستقل من هر دو پیوسته هستند. randominterceptfixedslope<-lmer(y ~ x + (1|state),data=data,method=ML) # مدل با شیب ثابت اما رهگیری تصادفی randominterceptrandomslope<-lmer(y ~ x + (1+x|state), data=data,method=ML) # مدل با شیب تصادفی و قطع تصادفی anova (تصادفی ثابت، شیب تصادفی تصادفی) Anova به من می گوید که مدل شیب تصادفی تصادفی من با داده ها سازگاری بهتری دارد. تا اینجا خوبه لطفا اگر اشتباه میکنم اصلاح کنید سوال من این است: اگر متغیر مستقل دیگری $x_1$ داشته باشم، آیا می توانم دو متغیر مستقل را در مدل بالا قرار دهم، یعنی آیا می توانم یک مدل تصادفی و تصادفی تصادفی با دو متغیر مستقل داشته باشم. اگر بله، چگونه این کار را انجام دهم؟ در مورد اینکه کد باید چگونه باشد؟ با تشکر از پاسخ شما. من یک سوال دوم دریافت کردم. بیایید بگوییم مدل کامل من این است: randominterceptrandomslope<-lmer(y ~ x1 + x2 + x3 + x4 (1+x1+x2+x3+x4|state),data=data,method=ML) اگر برخی از من متغیرهای مستقل همبسته هستند، روند کاهش مسئله همخطی در یک مدل اثر مختلط خطی چگونه است؟ من میتوانم با استفاده از VIF همسویی را تشخیص دهم و مهمترین متغیرهای مستقل را حفظ کنم، اما میتوانم این کار را برای هر سطح عامل (سطوح حالت) به صورت جداگانه انجام دهم. اما آیا منجر به حفظ برخی متغیرهای مستقل در یک سطح عامل و حذف همان متغیر در سطح عامل دیگر نمی شود؟ حدس میزنم سوال اصلی این است که چگونه میتوان همخطی را در یک مدل جلوه ترکیبی تشخیص داد و وقتی 5 یا 6 متغیر مستقل دارید با آن چه باید کرد؟ | مدلهای اثر مختلط خطی با دو متغیر مستقل |
37698 | ما تعجب می کنیم که برای چه چیزی در قضیه لمان شفه به کفایت نیاز است؟ استدلال ما این بود: 1. اگر یک برآوردگر بی طرف با همه برآوردگرهای بی طرف 0 همبستگی نداشته باشد، UMVUE 2 است. اگر برآوردگر از یک خانواده کامل باشد، با همه برآوردگرهای بی طرف 0 3 همبستگی ندارد. بنابراین یک برآوردگر بی طرف از یک خانواده کامل UMVUE 4 است. UMVUE منحصر به فرد است بنابراین دقیقاً به چه چیزی نیاز است برای چرا کامل بودن کافی نیست؟ اگر کسی بتواند به اشکالات استدلال ما اشاره کند و توضیح دهد خوب است! | کفایت در Lehmann Scheffe |
86535 | من یک مجموعه داده اسباببازی دارم و میخواهم AUC - ROC را با bootstrap set.seed(117) تست کنم <- c(rnorm(70, 40, 10), rnorm(30, 55, 10)) dx <- c(rep (0, 65), rep(1,35) ) df <- data.frame(cbind(test, dx)) r <- 1000 boot.f <- function(d, i){ data <- d[i,] p <- unlist(subset(data, data$dx==1)[test]) n <- unlist( زیرمجموعه (داده، داده$dx=0)[تست]) mean(نمونه(p، r، جایگزین=T) > نمونه (n، r، جایگزین=T)) } roc.boot<-boot(df, boot.f, r) roc.boot boot.ci(roc.boot, type=bca) به نظر می رسد که bootstrapping نیاز به دو نمونه برداری دارد (در `mean` و در `boot`) . آیا راه کارآمدتری وجود دارد؟ من می خواهم یک شی «بوت» به دست بیاورم، بنابراین ترجیح می دهم از تابع استفاده کنم. | بوت استرپ برای ارزیابی واریانس AUC ROC |
99315 | من می خواهم از caret برای مقایسه دو الگوریتم طبقه بندی مختلف استفاده کنم. به عنوان مثال SVM و شبکه الاستیک. من میخواهم چند نمونه را برای مجموعه آزمایشی کنار بگذارم و سپس از بقیه نمونهها برای آموزش مدل استفاده کنم، که شامل تنظیم برخی پارامترها (مانند آلفا و لامبدا برای شبکه الاستیک) است که برای آن از اعتبارسنجی متقاطع نیز استفاده میکنم. اما زمانی که مدل را درست کردم، میخواهم عملکرد آن را در مجموعه آزمایشی محاسبه کنم (که برای تنظیم پارامتر استفاده نشده است). من می خواهم اعتبار سنجی متقاطع 10 برابری را برای محاسبه عملکرد هر روش انجام دهم (SVM در مقابل Enet). توجه داشته باشید که این اعتبارسنجی متقاطع باید در یک حلقه بیرونی از اعتبار متقاطع استفاده شده برای تنظیم پارامتر برای هر روش باشد. می خواستم بدانم آیا می توانم از Caret برای این کار استفاده کنم. در کد شبه داده شده توسط Caret (http://caret.r-forge.r-project.org/training.html) اولین حلقه (خط 2) برای هر مجموعه پارامتر است و حلقه بعدی (خط 3) برای هر تکرار نمونه برداری مجدد آیا می توان حلقه بیرونی دیگری مانند (خط 0: برای هر تکرار نمونه برداری مجدد) به این طرح اضافه کرد؟ * * * ویرایش: @topepo: بله، دادههای محدودی داریم، بنابراین میخواهیم چندین مجموعه آزمایشی داشته باشیم. از 90 درصد داده ها برای آموزش استفاده کنید (از جمله تنظیم پارامترها) و سپس عملکرد را بر روی 10 درصد داده های باقی مانده محاسبه کنید. سپس این کار را 10 بار با پارتیشن بندی های مختلف داده ها تکرار کنید. | آموزش / اعتبارسنجی / مجموعه های تست در Caret |
14079 | مشکل من این است که داده های هفتگی سال های 2008، 2009 و 2010 را دارم اما تعداد هفته ها در هر یک از این سال ها یکسان نیست زیرا در ما (در دانمارک) هفته آخر سال 2009 را 53 کد می کنیم. این به این معنی است که من 52 هفته دارم. هفتهها در سالهای 2008 و 2010، اما 53 هفته در سال 2009. آیا راهی وجود دارد که R این موضوع را درک کند و سریهای زمانی را بر اساس آن رفتار کند. معمولاً میخواهم آن را به خوبی با ts، stl، و غیره ادغام کند. هر گونه راهنمایی یا اشارهای در مورد این موضوع بسیار قدردانی خواهد شد. | مدلسازی سریهای زمانی در R به صورت هفتگی طی چندین سال با تعداد هفتههای متفاوت در هر سال |
70746 | آیا میانگین انحراف در مورد میانگین می تواند از انحراف استاندارد برای توزیع پارتو بیشتر شود؟ من فقط چند کتاب را مرور کردم و متوجه شدم که آنها ادعا می کنند که نمی تواند. چگونه می توانم این را ثابت کنم؟ منطق زیربنایی که این نتیجه را تایید می کند چیست؟ | آیا میانگین انحراف در مورد میانگین می تواند از انحراف استاندارد برای توزیع پارتو بیشتر شود؟ |
14072 | آیا کسی نمونه هایی از بسته بندی یک نرم افزار یادگیری تحت نظارت موجود برای خروجی مدل ها در قالب PMML می داند؟ یادگیرندگانی که فقط بردارهای برچسبگذاری شده اعداد را به عنوان دادههای آموزشی میگیرند و مدلهایی را که تقریباً فقط بردارهای ضریب هستند (liblinear، SVMlight، BXRtrain، BOW و غیره) ارائه میکنند، مورد توجه خاص هستند. یعنی آنها هیچ هوشمندی در مورد انواع داده ها، محدوده مقادیر قانونی ویژگی ها و غیره ندارند: چیز دیگری برای مقابله با آن و ارائه بردارهای عددی مناسب به یادگیرنده فرض می شود. برای چنین نرمافزاری، اگر قرار است در مدل PMML که خروجی است نشان داده شود، باید همه چیزهای جالب فرهنگ لغت داده در کنار دادههای ورودی ارائه شود. هیچ چیز از نظر مفهومی در این مورد دشوار نیست: چیزی که من کنجکاو هستم ببینم این است که آیا قراردادها، الگوهای طراحی و غیره وجود دارد که در جامعه PMML برای انجام این کار رشد کرده باشند. فهرست وبسایت PMML از نرمافزارهایی که در PMML مدلهایی را مصرف یا تولید میکنند، اما این بیشتر نرمافزار منبع بسته تجاری است. برنامه هایی با نسخه های منبع باز لیست شده در آنجا (Rapidminer و WEKA که می توانم آنها را ببینم) مجموعه های داده کاوی نسبتاً پیچیده ای هستند. چیزی که من می خواهم نمونه ای از آن را ببینم، یک بسته بندی مینیمالیستی از یک نوع یادگیرنده ساده پونی است. | نمونه هایی از بسته بندی نرم افزار یادگیری ماشین منبع باز در PMML؟ |
113458 | با توجه به یک مدل یادگیری ماشینی که بر روی Sikit-Learn ساخته شده است، چگونه میتوانم نمونههای جدید را طبقهبندی کنم اما سپس فقط مواردی را انتخاب کنم که بالاترین اطمینان را دارند؟ چگونه اعتماد را در یادگیری ماشین تعریف کنیم و چگونه آن را ایجاد کنیم (اگر به طور خودکار توسط scikit-learn ایجاد نشود)؟ اگر بیش از 2 کلاس بالقوه داشتم در این رویکرد چه چیزی را باید تغییر دهم؟ این کاری است که من تاکنون انجام دادهام: # بارگذاری کتابخانهها از همسایههای import sklearn # مقداردهی اولیه طبقهبندیکننده NearestNeighbor knn = nears.KNeighborsClassifier(n_neighbors=3) # train model knn.fit([[1],[2],[3], [4]، [5]، [6]]، [0،0،0،1،1،1]) # پیش بینی ::: دریافت احتمالات کلاس print(knn.predict_proba(1.5)) print(knn.predict_proba(37)) print(knn.predict_proba(3.5)) | الگوریتم های طبقه بندی که اطمینان را برمی گرداند؟ |
113459 | آیا این قابل قبول است که تعاملات با مرتبه بالا (3 طرفه به بالا) در مدل زمانی که مورد علاقه نیستند و جزء فرضیه در حال آزمایش نیستند، در مدل گنجانده شوند؟ NB. من در مورد کاهش مدل صحبت نمی کنم زمانی که یک مدل کامل نصب شد و بعداً تعاملات بالاتر حذف شد. من از درج نکردن آنها در ابتدا سؤال می کنم، زیرا تأثیرات آنها جالب نیست و اغلب غیرقابل تفسیر است. به عنوان مثال، در شرایطی که پاسخ به عنوان تابعی از یک عامل تجربی و چندین متغیر کمکی مدلسازی میشود و دادهها فقط با توجه به عامل تجربی متعادل میشوند. من شنیدم که کسی استدلال می کند که قابل قبول است، و اگر چنین است، آیا به منبع معتبری اشاره می شود؟ تا آنجا که من متوجه شدم، این تا حدودی شبیه به ANCOVA است، که در آن متغیر کمکی به عنوان یک اصطلاح اثر اصلی گنجانده شده است، اما بخشی از یک تعامل نیست. | آیا این قابل قبول است که تعاملات با مرتبه بالا (3 طرفه به بالا) در مدل درج نشود، زمانی که آنها به خودی خود مورد علاقه نیستند؟ |
14076 | من خوانده ام که ریشه واحد PP اغلب در اقتصاد استفاده می شود. آیا انجام هر دو تست (PP & ADF) معقول است یا تست PP کافی است؟ | آزمایش ریشه واحد فیلیپس-پرون به جای آزمایش ADF؟ |
30511 | من در حال تولید چند تست علیت گرنجر برای سری های زمانی مختلف هستم. من متوجه چیزی شده ام که عجیب به نظر می رسد. من سری های زمانی $A$ و $B$ دارم. حجم نمونه حدود 1500 عنصر در هر کدام است. $A$ و $B$ حدود 70% همبستگی بالایی دارند. وقتی آزمایش گرنجر 1، 2، یا 3 تاخیر را انجام میدهم، مقادیر p مانند 0.0000000000034 را دریافت میکنم. این خیلی کم به نظر می رسد - خوشحال می شوم اگر حدود 0.01 باشد. آیا چیز دیگری وجود دارد که باید در نظر بگیرم؟ | چه چیزی باعث مقادیر بسیار کوچک p در آزمون علیت گرنجر می شود؟ |
99312 | من باید از روش Lohr (2d Ed) برای محاسبه یک خطای استاندارد برای تخمین تولید شده از یک تخمینگر نسبت بر اساس یک نمونه طبقهبندی شده استفاده کنم. در بررسی مثال او در صفحه 145-146، متوجه شدم که کسر در مثال او بر خلاف نحوه نشان دادن آن در معادلات MSE خود در صفحه 144 محاسبه می شود. به طور خاص، در صفحه 144، کسر تخمین زده شده $x$ را به عنوان عدد دارد. ، و جمعیت $x$ در مخرج. اما در مثال خود او آنها را برعکس می کند. هیچ کدام از روش ها نتیجه مثال او را تولید نمی کنند. من سعی می کنم بفهمم کدام نسخه صحیح است. قدردان کمک هستم. (روش کوکران از کسر نمونه برداری به جای کسر pop و نمونه $x$ استفاده می کند). | محاسبه خطای استاندارد برای برآوردگر نسبت در یک نمونه طبقه بندی شده |
373 | از ویکیپدیا: > فرض کنید در یک نمایش بازی هستید و سه در به شما داده میشود: > پشت یک در یک ماشین است. پشت بقیه، بزها. شما یک در را انتخاب می کنید، بگویید No. > 1، و میزبان، که می داند پشت درها چه خبر است، در دیگری را باز می کند، می گوید > شماره 3، که یک بز دارد. سپس به شما می گوید: آیا می خواهید درب شماره > 2 را انتخاب کنید؟ آیا تغییر انتخاب به نفع شماست؟ پاسخ، البته، بله است - اما این فوق العاده غیر شهودی است. اکثر مردم چه سوء تفاهمی در مورد احتمال دارند که منجر به خاراندن سرمان می شود -- یا به عبارت بهتر. چه قانون کلی را می توانیم از این معما حذف کنیم تا شهود خود را در آینده بهتر تربیت کنیم؟ | مشکل مونتی هال - کجای شهود ما ما را ناکام می کند؟ |
106073 | من به عنوان بخشی از یک پروژه تحقیقاتی جدی و بیولوژیکی به حل مشکل زیر محول شده ام. فکر میکنم یک راهحل آزمایشی دارم، اما به این فکر میکنم که آیا رویکردی که انتخاب کردهام بهترین است یا خیر. کمک / ورودی شما قدردانی خواهد شد. ما علائم حیاتی (V) ده آزمودنی را در حالی که از کوهی بالا و پایین می رفتند نظارت کردیم. از هر موضوع، تقریباً 100 نمونه برداشتیم، یک نمونه در هر دقیقه --- پنجاه نمونه زمانی که در بالای کوه بودند و پنجاه نمونه در پایین کوه. یک نمونه شامل اندازه گیری پنج علامت حیاتی آزمودنی (ضربان تنفس، ضربان قلب و غیره) بود. همراه با هر نمونه از علائم حیاتی، ما همچنین ثبت کردیم که آیا بیمار در بالای (T) یا در پایین (B) کوه قرار دارد. برای هر نمونه، ما استرس (S) را محاسبه کردیم، که در آن S تابعی از علائم حیاتی است، بنابراین S = f(V). (جزئیات محاسباتی f مرتبط نیستند.) 1000 نمونه از 10 موضوع گرفته شد که به موجب آن ما 1000 مقدار برای استرس داشتیم که هر کدام به یک قطعه اطلاعات دودویی (B یا T) جفت شده بودند. هدف از جمعآوری اطلاعات باینری، آزمایش طبقهبندیکننده باینری (که قبلا نوشته شده بود) است: براساس یک مقدار استرس، طبقهبندی کننده تصمیم میگیرد که آیا موضوع در بالای کوه باشد یا نه. با مقایسه این مقدار با مقدار باینری واقعی (بالا/پایین)، میتوانیم یک ماتریس سردرگمی را پر کنیم. سپس به طور مکرر آستانه تمایز طبقهبندیکننده باینری را تغییر میدهیم تا در نهایت یک منحنی ROC بسازیم. این به ما ناحیه زیر منحنی (AUC) می دهد که برای ارزیابی کیفیت طبقه بندی کننده خود از آن استفاده می کنیم. این همان نتیجه نهایی است که ما به آن علاقه مندیم. سؤال مهم از همان ابتدا آشکار بود: با توجه به اینکه ما واقعاً فقط از 10 موضوع نمونه برداری می کنیم، قدرت آماری نتیجه نهایی ما (AUC) چقدر است؟ به طور دقیق تر، نمونه های ما به وضوح IID نیستند. ما از خود می پرسیم: تقریباً 1000 نمونه ما معادل چند نمونه IID است؟ ما به قدرت تست خود با 1000 نمونه غیر IID معادل تستی با نمونه IID $n$ و همان قدرت فکر کرده ایم. آیا روش آماری وجود دارد که به ما اجازه دهد $n$ را پیدا کنیم؟ این جهت کلی سوالی است که من سعی دارم به آن پاسخ دهم. راه حل آزمایشی من شامل استفاده از معادلات تخمین عمومی است. به نظر می رسد رویکرد مشابهی توسط نویسندگان مطالعه CLEPSYDRA اتخاذ شده است (در اینجا موجود است). استدلال من این است که ساختار کوواریانس نمونه ها اساسا ناشناخته است، که مشکلی است که GEE ها به من اجازه می دهند بر آن غلبه کنم. اما من مطمئن نیستم که آیا عوارض بیشتری وجود نخواهد داشت، به عنوان مثال آیا این واقعا ابزار مناسبی برای کار است یا اگر رویکرد سادهتری وجود ندارد. آیا روش ساده تری وجود دارد؟ آیا مسائل دیگری وجود دارد که استفاده از GEE آنها را حل نمی کند؟ | قدرت آماری آزمون ROC/AUC با نمونه های غیر IID :: معادل چند نمونه IID نمونه های غیر IID من است؟ |
30513 | من مقادیر بیان (log2) برای 200 ژن در دو شرایط تیمار شده و تیمار نشده و برای هر شرایط 20 تکرار دارم. مجموعه داده به این صورت است: Gene UT1 UT2 T1 T2 DDR1 8.111795978 7.7606511867 7.9362235824 7.5974674936 RFC2 10.2418824097 9.77485851111867 9.5723427524 HSPA6 6.5850239731 6.7916563534 6.6883401632 7.3659252344 PAX8 9.2965160827 9.203119629 9.20311729 8.667772504 GUCA1A 5.4828021059 5.3797749957 5.4312885508 5.1297319374 من فقط دو تکرار برای هر نمونه در داده های نمونه نشان داده ام. **چگونه می توانم شباهت بیان ژن را برای هر ژن در دو شرایط محاسبه کنم و آنها را از بالاترین به پایین ترین (از نظر شباهت) رتبه بندی کنم؟** دنبال راه حلی در R یا python هستم. تابع cor در R آنچه را که می خواهم به من نمی دهد. | چگونه می توان شباهت بیان ژن را برای هر ژن در دو شرایط محاسبه کرد و آنها را رتبه بندی کرد؟ |
97315 | اخیرا در یک کارگاه احتمال شرکت کردم، سوال زیر از من پرسیده شد اما راهی برای حل آن پیدا نکردم. بحث در مورد این سوال می تواند به یادگیری چیز جدیدی کمک کند. به ما گفته شد که ما در یک نمایش بازی میهمان هستیم و نزدیک به کسب ثروت بزرگ هستیم. استاد مسابقه از ما می خواهد که یکی از سه در (بسته) را انتخاب کنیم. او توضیح می دهد که پشت یکی از آنها یک میلیون یورو در انتظار شماست. هنگامی که انتخاب خود را ثابت کردید، استاد مسابقه یکی از درهای دیگر را باز می کند و به شما نشان می دهد که این فقط یک بز بود. او آخرین فرصت را به شما می دهد: یا می توانید در را نگه دارید یا به در بسته باقی مانده تغییر دهید. > (i) بگویید در 3 باز است. چگونه می توانیم احتمال شرطی را محاسبه کنیم که درب ما برنده است با توجه به اینکه درب 3 شکست خورده است و مکمل آن است. > > (ii) نحوه محاسبه احتمال بدون قید و شرط که درب ما برنده > است و مکمل آن. پیشاپیش از شما متشکرم. | چگونه می توانم احتمال شرطی مورد زیر را محاسبه کنم؟ |
89713 | من داده های زیر را دارم (فقط یک مثال کوچک در اینجا). من می خواهم تاثیر زمان و اکوتیپ بر ارتفاع را بدانم. `subdata <- id time اکوتیپ ارتفاع 1 17 a 73.692 1 22 a 213.010 1 25 a 343.700 1 28 a 663.030 109 32 a 1267.300 109 14 a 213.010 b 54 148.050 109 25 b 280.570 109 28 b 509.000 109 32 b 954.050 121 17 c 33.972 121 22 c 71.235 121 25 c 109.000 c 121. 121 32 c 452.740 133 17 d 38.365 133 22 d 84.068 133 25 d 137.560 133 28 d 255.390 133 32 d 7` d 426 (مدل 133 32 d <1 d 426 من مناسب است ~ ecotype*time + (time | id))` و اکنون می خواهم قدرت این تحلیل را بدانم تا این کار را انجام دهم از شبیه سازی 'time <- (subdata$time) ecotype <- as.factor(subdata$ecotype ) id <- subdata$id height=subdata$height` `m2 <- lmer(ارتفاع ~ اکوتیپ * زمان + (زمان| شناسه)، زیرداده) s2 <- simulate(m2) beta.hat=fixef(m2) se=sqrt(diag(vcov(m2)))` `k <- c() B=1000 tstar=rep(0,B) مجموعه. seed(781) for(b در 1:B) { ystar=drop(شبیه سازی(m2)) ostar=lmer(ystar$sim_1~ecotype +(time|id)) for(i در 2:19) { k <- append(k, ((fixef(ostar)[i]-beta.hat[i])/ sqrt(vcov(ostar)`[i,i]))) }}` مشکلی که دارم این است که نمی دانم چگونه یک مقدار p کلی را محاسبه کنم تا بگویم توان این مدل کم است یا بالا به طور معمول، نمونه های موجود در وب همیشه دارای متغیرهایی هستند (به عنوان مثال ecotype) با دو کلاس، بنابراین نتایج شبیه سازی همیشه یک مقدار تولید می کند. با این حال، در مورد من n تعداد اکوتیپ دارم، بنابراین بیش از یک خروجی دارم: fixef(ostar) (Intercept) ecotypea ecotypeb ecotypec ecotypec 78.98846 -22.39385 -37.27676 -38.66168 تنها چیزی که می توانم فکر کنم این است که همه اثرات را تخمین بزنم. رزومه را با هم مقایسه کنید و یک میانگین بدست آورید و آن را با یک آستانه (به عنوان مثال 0.05) مقایسه کنید. با این حال، من نمی دانم که آیا این درست است یا خیر. لطفاً می توانید این کار را به من بدهید لطفاً می توانید راهنمایی کنید که چگونه می توانم این کار را انجام دهم؟ با تشکر | مقایسه برازش ها در شبیه سازی برای تحلیل توان |
38765 | من یک نمودار پراکندگی با Hgb A1C به عنوان متغیر توضیحی (محور 'x') و FPG (محور 'y') به عنوان متغیر نتیجه دارم. یک رابطه خطی مثبت وجود دارد اما ضعیف است. 1 نقطه پرت در جهت y وجود دارد. 1 نقطه پرت در جهت x وجود دارد. هنگامی که هر یک از این نقاط حذف می شوند، r در جهت مخالف تغییر می کند. من سعی می کنم به زبان ساده توضیح دهم که چرا این اتفاق می افتد. آیا منطقی است که بگوییم: وقتی نقطه پرت در جهت y حذف شود، r افزایش می یابد زیرا نقطه پرت که معمولاً با فاصله ای دور از خط رگرسیون قرار می گیرد، اندازه ضریب همبستگی را کاهش می دهد. هنگامی که نقطه پرت در جهت x حذف می شود، r کاهش می یابد زیرا نقطه پرت که معمولاً نزدیک خط رگرسیون قرار می گیرد، اندازه ضریب همبستگی را افزایش می دهد. آیا این منطقی است؟ | پرت علامت رابطه خطی را تغییر می دهد |
38762 | من در شناسایی یک مدل معادله ساختاری شکلدهنده با استفاده از AMOS مشکل دارم. آیا کسی پیشنهادی برای مقابله با مشکل شناسایی در مدلهای اندازهگیری تکوینی دارد؟ | مشکل شناسایی مدل تکوینی با استفاده از SEM |
70744 | مدل مورد انتظار این است: $$ Y = X1*X2*X3 $$ با گرفتن گزارشها باید ضریب $1$ را در هر سه زمانی که پسرفت میکنیم بدست آوریم. یعنی: $$ \ln (Y) = b + b1 \ln(X1) + b2 \ln(X2) + b3 \ln(X3)، \\\ \text{میدهد: }b1 = b2 = b3 = 1 وقتی دادهها را برای همه متغیرها جمعآوری میکنیم و رگرسیون را اجرا میکنیم، اما ضرایبی برابر با 1$ دریافت میکنیم، چه دلایلی میتواند داشته باشد؟ تنها اطلاعاتی که بیش از آنچه قبلا ذکر شد این است که اندازه گیری Y از یک مجموعه داده جداگانه نسبت به سایر متغیرها می آید. هیچ خطای اندازه گیری وجود ندارد و این داده های مشاهده ای است. من حدس می زنم این بیشتر یک سوال تئوری باشد. | ضریب رگرسیون ضربی |
76743 | فرض کنید $\tau(\theta)=\theta e^{-\theta}$ را از $X_1,...,X_n \sim \mathrm{G}(\theta,r)$ تخمین می زنیم (G گاما است توزیع) سپس به راحتی نشان داده می شود که $T=\sum_{i=1}^n \ln(X_i)$ کافی است یا $\exp(T)$ نیز کافی است. من تعجب می کنم، آیا یک تابع پیوسته از یک آمار کافی نیز کافی است و اگر $T$ برای $\theta$ کافی است آیا برای $\tau(\theta)$ نیز کافی است؟ | آمار کافی برای تابع پارامتر |
70747 | من یک مشکل مفهومی در مورد یک متغیر نرمال استاندارد (SNV)، X$ دارم. اگر $X \sim N(0, 1^2)$، تابع چگالی احتمال (pdf) به صورت $f(x) = \frac{1}{\sqrt{2\pi}} \exp(-) داده میشود. \frac{1}{2} x^2);\quad -\infty<x<\infty$ _**مشکل من :_** فهمیدم $f(x)$ همانطور که در بالا تعریف شد این احتمال را می دهد که SNV مقدار $X = x$ را می گیرد. بنابراین، $P(X=0)=f(0)$، و $f(0)= 0.398942$ که من میدانم بسیار زیاد است و فقط باید زیاد باشد زیرا اکثر مقادیر فرض شده توسط $X$ در حدود $0 خوشه میشوند. $. به طور مشابه، $f(-1) = f(1) = 0.241971$ و $f(-3) = f(3) = 0.004432$، اما، همانطور که من متوجه شدم، از آنجایی که $X$ یک متغیر پیوسته است، $P( X = 0)$ باید $1 / \infty = 0$ باشد. من در حال حاضر در مورد درک خود از مفهوم پی دی اف بسیار سردرگم هستم. آیا منحنی زنگوله ای به من نموداری از مقادیر فرض شده توسط متغیر تصادفی $X$ را در برابر احتمال مربوطه که $(X =x)$ می دهد، می دهد. من قادر به درک درست یا غلط بودن روند تفکر من نیستم. | PDF از توزیع نرمال و مقادیر احتمال |
30512 | من دو گروه شرکت کننده دارم. هر گروه شامل 30 کودک (15 دختر و 15 پسر) است. گروه اول از جمعیت کودکانی که تحت نوعی مراقبت قانون اساسی بزرگ شده اند، نمونه برداری شده است، در حالی که گروه دوم کودکانی را که در خانواده خود زندگی می کنند، نشان می دهد. من می خواهم مهارت های اجتماعی آنها را بسنجیم و نتایج دو گروه را با هم مقایسه کنم. اندازه گیری به این صورت انجام می شود: به هر کودک یک سری 12 تصویر ارائه می شود. از آنچه در مورد یک تصویر می گوید، من 5 مقدار درست/نادرست دریافت می کنم - هر مقدار نشان دهنده یک مهارت اجتماعی است. درست به این معنی است که کودک در مواجهه با آن تصویر مهارت اجتماعی خاص خود را ثابت کرده است و نادرست به این معنی است که این کار را نکرده است. به این ترتیب، من برای هر فرزند 12 $\times $ 5 = 60 مقدار true/false دریافت می کنم. بنابراین برای تجسم دادههایم، چیزی شبیه این $$ \begin{array} & & \mbox{Ch}_1 & \mbox{Ch}_2 & ... & \mbox{Ch}_{30} & \mbox دارم. {Ch}_{31} & ... & \mbox{Ch}_{60} \\\ \mbox{Skill}_1 & 12 & 11 & ... & 10 & 11 & ... & 11 \\\ \mbox{مهارت}_2 و 9 و 10 و ... و 8 و 10 و ... و 12 \\\ \mbox{مهارت}_3 و 10 و 10 و ... و 9 و 11 و . .. & 10 \\\ \mbox{مهارت}_4 و 7 و 7 و ... و 8 و 7 و ... و 7 \\\ \mbox{مهارت}_5 و 5 & 6 & ... & 5 & 5 & ... & 6 \\\ \end{آرایه} $$ جایی که ورودی $[i,j]$ نشان دهنده تعدادی از مقادیر $true$ در لیست نتایج است. برای $i$-th مهارت اجتماعی و $j$-th فرزند. کودکان 1 تا 30 سال از گروه اول و کودکان 31 تا 60 سال از گروه دوم هستند. حال میخواهم برای هر یک از 5 مهارت اجتماعی، ارزیابی کنم که آیا این دو گروه از کودکان امتیاز مساوی گرفتند یا از نظر آماری تفاوت معنیداری وجود داشت. از آنچه از منابع مختلف گردآوری کردم (مثلاً این)، به نظر می رسد که دو آزمون قابل استفاده برای من، آزمون فیشر یا آزمون من ویتنی باشد. بنابراین سوال من اساسا این است: ** چه نوع آزمونی برای داده ها و هدف داده شده مناسب است؟** | چگونه دو گروه را در مقیاس مهارت های اجتماعی که شامل 5 خرده مقیاس است که هر خرده مقیاس عددی از 12 صحیح است، مقایسه کنیم؟ |
89710 | من باید بدانم چگونه از ماشین حساب استرالیایی برای بدست آوردن اندازه نمونه خود استفاده کنم. به من دستور داده شد که تحقیقاتم را با استفاده از ماشین حساب استرالیایی انجام دهم، اما معنی آن را نمی دانم. | ماشین حساب استرالیایی چیست؟ |
99313 | من داده های پانل دارم و علاقه مند به تغییرات در کل هزینه ها هستم. من می خواهم یک رویکرد متغیر ابزاری را برای مقابله با یک رگرسیون درون زا در نظر بگیرم - کشش کوتاه مدت درآمد، با 3 سال تاخیر. دو راه برای انجام این کار وجود دارد: 1. می توانم کشش را با استفاده از تمام سال ها محاسبه کنم و سپس یک تحلیل مقطعی انجام دهم. 2. من می توانم کشش را با استفاده از میانگین متحرک پنج سال گذشته محاسبه کنم و سپس آن را با هزینه های زمان _t_ \+ 3 مقایسه کنم. با این حال، این باعث می شود که ابزار در طول زمان همبستگی داشته باشد. من فکر نمیکنم این محدودیتهای حذف را در مورد من نقض کند، اما نمیدانم که آیا این فرضیات دیگر، مانند تصادفی بودن را نقض میکند. | آیا می توانید از میانگین متحرک به عنوان یک متغیر ابزاری استفاده کنید؟ |
113451 | من سعی میکنم مدلی را با تابع «glmer» (بسته «lmer4» 1.1-7) در R با استفاده از REML تطبیق دهم، اما فقط یک خطا دریافت میکنم که میگوید «آگومان(های) اضافی «REML» نادیده گرفته شد» (به زیر مراجعه کنید). چگونه می توانم آن را با REML تطبیق دهم تا ساختار افکت های تصادفی را با این بسته بهینه کنم؟ a1<-glmer(Infected~(1|River),family=binomial,data=covertfrag,REML=FALSE) پیام هشدار: آرگومان(های) اضافی REML نادیده گرفته شد | R lme4 1.1-7: REML=FALSE خطای آگومان(های) اضافی REML نادیده گرفته شد |
102982 | من منطقه ای دارم که به شبکه ها تقسیم شده است. من به دنبال روشی هستم تا از نظر آماری تعیین کنم که آیا وقوع حوادث مجرمانه برای دو دوره زمانی برابر است یا خیر. من دو مجموعه داده با دوره های مساوی و مکان های شبکه دارم. مقادیر هدف فقط به یک دوره زمانی خاص اختصاص داده می شود. TARGET = 0 -> بدون حادثه، TARGET = 1 -> حادثه **دوره زمانی 08:00-16:00** روز، XCOR، YCOR، TARGET 1، 1، 1، 0 1، 1، 2، 0 2، 1، 1، 0 2، 1، 2، 0 **دوره زمانی 16:00-24:00** روز، XCOR، YCOR, TARGET 1, 1, 1, 1 1, 1, 2, 0 2, 1, 1, 0 2, 1, 2, 1 من به دنبال روشی آماری برای تایید/آزمایش در صورت وقوع حادثه هستم هر دو دوره زمانی مکانی متفاوت است؟ اما، چگونه می توانم این کار را انجام دهم؟ هر گونه راهنمایی، پیوند یا توصیه بسیار قدردانی می شود | آزمون آماری تفاوت فضایی حوادث |
44498 | من این کار را به روش واضح انجام دادم و دوستم با ایده بهتری برگشت. آیا می توانید در مورد هر دو قضاوت یا بهبود ببخشید؟ روش من: > سینسیناتی بنگالز و کلیولند براونز هر دو روز یکشنبه برای > اولین بار در 46 هفته پیروز شدند (ESPN می گوید). خیلی غیرممکن به نظر می رسید... > > 46 خیلی زیاد است. اگر هفته های خداحافظی، شب های MNF، بازی های رودررو > و غیره را در نظر بگیریم، 31 هفته به دست می آوریم که هر کدام شانس برنده شدن داشتند. > > اکنون می توانیم رکوردهای مربوطه آنها را از سال 2009 (CLE: 11-31، CIN: 18-24) > برای محاسبه احتمال برد برای هر هفته معین برداریم. این یک احتمال > 11% می دهد که هر دو در یک هفته برنده شوند (فرض استقلال). > > پس...احتمال این خشکسالی 31 هفته ای؟ 2.5% ... از نظر آماری > معنی دار اما زمین لرزان نیست. به عنوان مرجع، اگر این تیم ها شانس برنده شدن در هر هفته معین را داشتند، احتمال آن به 0.01٪ کاهش می یافت! پاسخ دوست من: > مرد این تامل برانگیزترین پستی است که تا به حال خوانده ام... اکنون 30 > دقیقه را صرف فکر کردن در مورد آن کرده ام. به هر حال… من احتمالاً در حال حاضر خودم را یک احمق جلوه می دهم، اما مطمئن نیستم که فرض استقلال درست باشد. من فکر می کنم یک راه دقیق تر برای فکر کردن در مورد این مشکل، مشکل jar > و توپ کلاسیک است. بنابراین اگر از بازیهای سر به سر و بازیهای mnf و همه اینها صرف نظر کنیم، بنگالها و قهوهایها 42 بازی انجام دادهاند. حالا بیایید ابتدا > 11 برد قهوه ای ها را در شیشه های جداگانه قرار دهیم. بنابراین اگر اکنون 18 برد > توسط بنگال ها را یکی یکی در کوزه ها قرار دهیم، احتمال 31/42 وجود دارد که > اولین برد به شیشه ای با برد قهوه ای ختم نشود... دومی دارای > است. احتمال 30/41 (از آنجایی که گزینه ای برای پایان دادن به همان > jar با برد قبلی بنگال ندارد) ... سومی شانس 29/40 دارد که تمام نشود بالا > در یک کوزه با یک بنگال برنده ... و غیره. اگر اینطور فکر کنیم، احتمال اینکه یک بنگال برنده شود و براون ها برنده شوند، بعد از اینکه 18 برد بنگال و 11 برد قهوه ای همه در شیشه ها قرار گرفتند، به همان شیشه ختم نمی شود ~.058٪ است. > > به هر حال...فقط متوجه شدم که ممکن است روش کمی دقیق تر برای فکر کردن در مورد آن باشد، زیرا احتمال اینکه دو تیم با درصد برنده ای بالاتر از 0.500 برنده باشند، در یک آخر هفته در مدت زمانی که هر دو بالاتر از > 0.5 بودند، برنده شوند. 0٪ است ... فکر می کنم. همه اینها منطقی است به جز این احساس شهودی که بازی ها رویدادهای مستقلی بودند (با فرض اینکه هیچ یک از تیم ها به دیگری فکر نمی کردند). حق با کیست؟ با تشکر | این احتمال وجود دارد که 2 تیم OH NFL 31 هفته بدون برد در همان روز بگذرند |
38764 | فرض کنید $X_1$ و $X_2$ نرمال دو متغیره هستند و اجازه دهید $|X|_{(1)}$ و $|X|_{(2)}$ نسخه مرتب شده قدر مطلق آنها باشد. من در یافتن احتمالات زیر یا برخی از مرزهای آن جالب هستم. \begin{align*} Pr(|X|_{(1)} <c_1, |X|_{(2)} <c_2) \end{align*} and \begin{align*} Pr(|X_1| < c_1, |X|_{(1)} <c_2) \end{align*} آیا هر کسی که با این آشنا باشد میتواند راهنمایی یا برخی ارجاع دهد؟ خیلی ممنون. هانا | آمار ترتیب قدر مطلق توزیع نرمال دو متغیره |
73879 | مجموعه ای از نمرات امتحان نهایی در یک درس به طور معمول با میانگین 73 و انحراف معیار 8 توزیع می شود. 1. احتمال گرفتن نمره زیر 91 در آزمون چقدر است؟ 2. احتمال اینکه دانش آموزی بین 65 تا 89 نمره بگیرد چقدر است؟ 3. اگر استاد در یک منحنی نمره می دهد (به 10 درصد برتر کلاس، بدون توجه به نمره، نمره A می دهد)، بهتر است در این امتحان نمره 81 داشته باشید یا در یک امتحان دیگر نمره 68 را کسب کنید. میانگین 62 و انحراف معیار 3 است؟ توضیح دهید چرا. | سوالات احتمالی برای آمار |
89711 | در آزمایشم، من این فرضیه را مطرح کردم که افراد در یک شرایط درمانی مقادیر بالاتری را در مقیاس لیکرت نسبت به افراد در شرایط درمانی دیگر ارائه می دهند. این یک فرضیه یک طرفه بود. هیستوگرام ها و نمودارهای Q نشان می دهند که داده های من در جهتی که برای اولین شرایط درمانی تصور می کنم، منحرف شده است - یعنی همه در اطراف مقادیر بالاتر در مقیاس لیکرت جمع می شوند. این مورد، دوباره همانطور که انتظار می رود، در شرایط درمانی دوم وجود ندارد. با وجود اینکه من این را پیش بینی کردم، آیا این کج هنوز بد است؟ آیا در این شرایط باید همیشه از آزمون های غیر پارامتری استفاده کنم (نتایج آزمون های پارامتریک و ناپارامتریک یکسان است - فقط می خواهم مطمئن شوم که از تست های درست استفاده می کنم!). هر گونه کمکی واقعاً با سپاس دریافت می شود! با تشکر | آیا کج بودن همیشه بد است؟ |
102987 | با توجه به یک نمونه X به اندازه n از توزیع نرمال $N(\mu,\sigma)$ می توان $\sigma$ را با $\hat{\sigma}$ از X تخمین زد. سپس می دانیم که: $p(\sigma |\hat{\sigma},n)\propto\hat{\sigma}\sqrt{\frac{n-1}{\chi^2(\nu=n-1)}}$ اکنون من به دنبال تابع درستنمایی: $p(\hat{\sigma}|\sigma,n)$. آیا راه حل تحلیلی برای این موضوع وجود دارد یا لازم است تابع احتمال از شبیه سازی مورد به مورد استخراج شود؟ آیا کسی می تواند به من در این رابطه کمک کند؟ یا بهتر است به مرجعی اشاره کنید که قبلاً از این رابطه استفاده شده است؟ | با توجه به توزیع نرمال شناخته شده، احتمال انحراف معیار مشاهده شده چقدر است؟ |
70741 | من در حال خواندن مقاله ای هستم که نسبت های خطر را برای متغیرهای پیوسته نشان می دهد، اما مطمئن نیستم که چگونه مقادیر داده شده را تفسیر کنم. درک فعلی من از نسبت های خطر این است که این عدد نشان دهنده احتمال نسبی [رویداد] با توجه به برخی شرایط است. به عنوان مثال: اگر نسبت خطر مرگ ناشی از سرطان ریه در اثر سیگار کشیدن (یک رویداد دوتایی) 2 باشد، احتمال مرگ افراد سیگاری در دوره زمانی تحت نظارت دو برابر بیشتر از افراد غیر سیگاری است. با نگاهی به ویکیپدیا، تفسیر متغیرهای پیوسته این است که نسبت خطر برای یک واحد تفاوت اعمال میشود. این برای من برای متغیرهای ترتیبی منطقی است (مثلاً تعداد سیگارهای مصرف شده در روز)، اما نمی دانم چگونه این مفهوم را برای متغیرهای پیوسته به کار ببرم (مثلاً گرم نیکوتین مصرف شده در روز؟) | چگونه یک نسبت خطر را از یک متغیر پیوسته - واحد تفاوت تفسیر کنیم؟ |
103163 | من در تحلیل سری های زمانی تازه کار هستم. من حتی مطمئن نیستم که آیا این حتی یک مشکل TS است یا خیر. من به پستهای TS دیگر نگاه کردهام، اما برای ترجمه پاسخها به نیازهایم مشکل دارم. در حال حاضر من برای تعریف روشی که چگونه مشکل خود را حل کنم، به کمک کمک می خواهم. برای آینده امیدوارم بتوانم به تنهایی ماهیگیری کنم. بنابراین، کمک گرفتن با نمونهای از کدهای R، نکاتی در مورد کتابهای درسی برای بررسی، و ایدههایی در مورد چگونگی تفسیر نتایج حاصل از تجزیه و تحلیل پیشنهادی، عالی خواهد بود. مشکل اینجاست که من هنوز اطلاعاتی ندارم. بنابراین این چیزی است که من انتظار دارم. امیدوارم که این منطقی باشد. من سعی میکنم این را انتزاعیتر نگه دارم، زیرا تمایل دارم بیش از حد کاربردی باشم و دوست دارم نظریه را بهتر درک کنم. من انتظار دارم دو سری زمانی A و B داشته باشیم. A و B مرتبط هستند. A باعث B می شود، اما در یک ارتباط ناشناخته و با کمی تاخیر. از نظر بصری، من انتظار دارم یک نمایه برای A و B ببینم که به نظر شبیه هستند، اما به طور قابل توجهی از یکدیگر فاصله دارند. امیدوارم تعداد قله ها مشابه باشد. با این حال، جدای از تاخیر، من انتظار دارم تفاوت های زیادی بین ارتفاع قله، عرض قله، سطح زیر قله (با فرض نرمال شدن) و غیره وجود داشته باشد. من انتظار دارم که تفاوت ها ترکیبی از اثرات سیستماتیک و تصادفی باشد. من باید A را فقط از پروفایل های B پیش بینی کنم. برای چندین مکان من یک راه اندازی آزمایشی با حداقل 10 جفت پروفایل A خواهم داشت. من تقریباً 5 گروه از 5 پروفایل B برای یک پروفایل A خواهم داشت. من انتظار دارم از اطلاعاتی که از این تحلیل به دست میآورم برای اعمال مجموعهای از پروفایلهای B و پیشبینی گذشتهنگر پروفایلهای A استفاده کنم. یک رویکرد خوب برای پیشبینی نمایههای A از نمایه B چیست؟ آیا ادبیات کاربردی که به فرآیندهای طبیعی یعنی زمین شناسی می پردازد تا به این مشکل کمک کند؟ هر فکر دیگری؟ متشکرم، بوریس | پیش بینی یک سری زمانی از سری دیگر در صورت مرتبط بودن - الگوریتم در R |
18511 | من در حال مقایسه سه GLM نسبتا ساده با توزیع گاما با AIC و BIC هستم. هدف شناسایی اثرات کودها (fdung)، سال و محل بر روی زیست توده یک گونه علف خاص است. از این رو، هدف پیشبینی مقادیر جدید نیست، بلکه صرفاً شناسایی تأثیرات سه عامل است. مدلهای مورد استفاده در اینجا آمده است: res1 <- glm((Biomass..g.m².) ~ fdung * fyear * fblock, family=Gamma(link=identity)) res2 <- glm((Biomass..g.m² .) ~ fdung * fyear + fblock, family=Gamma(link=identity)) res3 <- glm((Biomass..g.m².) ~ fdung + fyear + fblock, family=Gamma(link=identity)) من انتظار دارم مدل سوم سادهترین مدل باشد و میخواهم این را با یک معیار اطلاعات تأیید کنم. با این حال، وقتی به AIC و BIC نگاه می کنم، این خروجی را دریافت می کنم. AIC(res1,res2,res3) BIC(result1,res2,res3) df AIC df BIC res1 49 5271.617 res1 49 5465.198 res2 16 5334.234 res2 16 5397.41033353 5370.760 برای AIC، پیچیده ترین مدل بهترین و برای BIC مدلی با کمترین df بهترین است. من به این فکر می کنم که با توجه به هدفم (تشخیص اثرات روی زیست توده) باید به BIC اعتماد کنم. آیا من در اینجا با نتیجه گیری اشتباه می کنم؟ من قبلاً مدلهای جلوههای ترکیبی را با fblock به عنوان فاکتور تصادفی امتحان کردم، اما سپس مدل با توزیع گاما دیگر کار نکرد و همچنین نمیتوانم دیگر از fblock به عنوان جلوه ثابت استفاده کنم (منتهی به NA برای fblock)، اما این بخشی نیست. از سوال من | چرا AIC و BIC خروجی های معکوس را نشان می دهند؟ |
68793 | من سعی می کنم یک برنامه درسی ریاضی خودراهبر را برای آماده شدن برای یادگیری داده کاوی و یادگیری ماشین جمع آوری کنم. این انگیزه با شروع کلاس یادگیری ماشین Andrew Ng در Coursera و احساس این است که قبل از ادامه کار باید مهارت های ریاضی خود را بهبود بخشم. من مدتی پیش از کالج فارغ التحصیل شدم، بنابراین جبر و آمارم (مخصوصاً از کلاس های علوم سیاسی/روانشناسی) زنگ زده است. پاسخ های موجود در تاپیک آیا پیشینه قوی در ریاضیات برای ML لازم است؟ فقط کتابها یا کلاسهایی را پیشنهاد دهید که مستقیماً با یادگیری ماشین مرتبط هستند. من قبلاً به برخی از آن کلاسها و کتابها نگاه کردهام و نمیدانم دقیقاً چه موضوعی را باید مطالعه کنم (به عنوان مثال: چه رشتهای از آدرس ریاضی معادله ای را برای به حداقل رساندن تابع هزینه استخراج می کند؟). موضوع دیگر پیشنهاد شده (مهارت ها و دوره های آموزشی مورد نیاز برای تحلیلگر داده ها) تنها به دسته های گسترده ای از مهارت های مورد نیاز برای تجزیه و تحلیل داده ها اشاره می کند. موضوع مقدمه آمار برای ریاضیدانان کاربرد ندارد زیرا من قبلاً مدرک ریاضی ندارم. رشته مشابهی ریاضیدان دانشی معادل مدرک آماری با کیفیت میخواهد، فهرستی باورنکردنی از کتابهای آماری دارد، اما دوباره، من به دنبال شروع ریاضی از یک خاطره زنگزده از جبر و حرکت از آنجا هستم. بنابراین، برای کسانی که در یادگیری ماشین و داده کاوی کار می کنند، _ چه رشته هایی از ریاضی را برای انجام کار خود ضروری می دانید؟ _ چه دروس ریاضی را برای آماده شدن برای داده کاوی و یادگیری ماشین پیشنهاد می کنید و به چه ترتیبی؟ این لیست و ترتیبی است که تا کنون دارم: * جبر * پیش حساب * حساب دیفرانسیل و انتگرال * جبر خطی * احتمال * آمار (زیر فیلدهای مختلف در اینجا وجود دارد، اما نمی دانم چگونه آنها را جدا کنم) در مورد داده کاوی و یادگیری ماشینی، از طریق شغل فعلیام به سوابق مربوط به فعالیت وبسایت/برنامه، تراکنشهای مشتری/اشتراک، و دادههای املاک و مستغلات (اعم از استاتیک و سری زمانی) دسترسی دارم. من امیدوارم که داده کاوی و یادگیری ماشین را در این مجموعه داده ها اعمال کنم. متشکرم ویرایش: به خاطر آیندگان، میخواستم یک خودارزیابی ریاضی مفید برای کلاس مقدماتی یادگیری ماشین جفری گوردون/الکس اسمولا در CMU به اشتراک بگذارم. | چه دروس ریاضی را برای آماده شدن برای داده کاوی و یادگیری ماشین پیشنهاد می کنید؟ |
70748 | این یک سوال تمرین امتحانی برای کلاس آمار سال اول من است و من فقط می خواهم ببینم آیا به درستی به این مشکل برخورد کرده ام و درک خود را روشن کنم. سوال کامل اینجاست: یک استاد در حال تصمیم گیری است که آیا امتحان آمار پایان ترم را در صبح (9 صبح) یا بعد از ظهر (2 بعد از ظهر) برنامه ریزی کند. او مطمئن نیست که سطح توجه در بعد از ظهر کمتر یا بیشتر از صبح است. برای آزمایش این موضوع، او گروهی از 20 دانش آموز را انتخاب می کند و آنها را در معرض یک کار روانی قرار می دهد. در این کار به طور تصادفی در مدت 20 دقیقه خاکستر می شود و سوژه باید یک دکمه را در مدت زمان مشخصی از خاکستر شدن نور فشار دهد. عدم واکنش به نور چشمک زن را «لپس» می گویند. هر چه وقفه بیشتر باشد توجه دانش آموز ضعیف تر است. به دانشآموزان در ساعت 9 صبح (صبح) و دوباره در ساعت 2 بعد از ظهر (بعد از ظهر) تکلیف داده شد و تعداد لغزشهای هر دانشآموز در R به شرح زیر ثبت میشود: AM = c(1،5،4،2،6،6، 7 , 11,5,3,4,5,8,3,4,5,7,7,4,5) بعد از ظهر = c(4,5,5,8,9,10,12,15,4,8,6,6,9,5,9,8,7,8,7,6) (الف) یک عدد تهی مناسب و فرضیه جایگزین، بیان هر پارامتر استفاده شده. (ب) یک آمار آزمون مناسب برای آزمون این فرضیه و توزیع صفر این آمار آزمون، بیان و بررسی هر گونه فرضیات مورد نیاز بیان کنید. (ج) آمار آزمون انتخاب شده در (ب)، p-value مربوطه را محاسبه کرده و نتیجه گیری مناسب را تشکیل دهید. (د) یک فاصله اطمینان مناسب را محاسبه کنید و یک تفسیر رسمی ارائه دهید. * * * **پاسخ من به این سوال اینجاست: ** (الف) فرضیه صفر من این است که هیچ تفاوتی در میانگین تعداد لغزش برای صبح و بعد از ظهر وجود ندارد. یعنی $H_{0}: U_{d} = 0 $ فرضیه جایگزین این است که تفاوت بزرگتر از 0 است. یعنی $H_{1}: U_{d} > 0 $ پارامتر مورد علاقه، تفاوت میانگین جمعیت است (در واقع من کاملاً متوجه نمیشوم که سؤال اینجا چیست - وقتی میگوید پارامترهای استفاده شده را بیان کنید؟) (ب) فرض من این است که تفاوتها مستقل هستند و به طور یکسان توزیع شدهاند و نرمال هستند متغیرهای تصادفی به عنوان مثال: $D_{i} \sim \mathcal{N}(U_{d}، \sigma^2)،\mathrm{iid} $ پس از بررسی توزیع در R - طبیعی به نظر میرسد. آمار آزمون استفاده شده این است: $ t = \frac{\bar{D}-U_{d}}{S_{d}\sqrt(n)} $ که $n$ تعداد جفتها است، $\bar{D }$ میانگین تفاوتهای نمونه، $S_{d}$ انحراف معیار تفاوتها، و $U_{d}$ میانگین تفاوتهای جمعیت است. همچنین فرض بر این است که توزیع صفر آماره آزمون نرمال است. (ج) با محاسبه داده ها در R، من $\bar{D} = -2.45$، $S_{d} = 1.959$، $n=20$ دارم. بنابراین آمار آزمون مشاهده شده عبارت است از: t_{obs} = \frac{-2.45-0}{1.959\sqrt(20)} \approx -5.5917 $ با استفاده از سطح معناداری 5٪، مقدار بحرانی $t^* است. = $ `qt(0.95,19)` $\حدود 1.729133$ از -5.5917 $ < -1.729133$، فرضیه صفر را رد می کنیم و نتیجه می گیریم که شواهدی وجود دارد که نشان می دهد وقفه های کمتری (توجه بهتر) در دانش آموزان در AM وجود دارد. (آیا درست است که مقدار بحرانی را در اینجا منفی بگیرم؟) مقدار p مربوطه $\تقریباً 1.079061\times 10^{-5}$ (`pt(-5.5917,19) در R) است. بسیار کوچکتر از 0.05 دلار است، ما فرضیه صفر را رد می کنیم. (د) در نهایت، به دنبال یک فاصله اطمینان 95٪ - مشاهده می کنم که فرضیه جایگزین $(H_{1}: U_{d} > 0)$ یک طرفه است، بنابراین یک فاصله اطمینان یک طرفه استفاده می شود. کران پایینی CI یک طرفه است: $\bar{D}-t^{*}\frac{S_{d}}{\sqrt{n}} = -2.45 - 1.729133\frac{1.959457}{\sqrt {20}} \approx -3.207616002$ بنابراین 95% CI برابر است با $(-3.207616002، \infty)$ زیرا -5.5917$ خارج از این بازه است - بنابراین نتیجه میگیرم که تفاوت قابل توجهی در سطح توجه دانشآموز بین AM و PM وجود دارد (به ویژه اینکه در AM بهتر است). آیا من در اینجا در منطق خود خطایی کرده ام و آیا محاسبات منطقی است؟ با تشکر فراوان فقط می خواهم مطمئن شوم که در مسیر درست هستم! | آیا استفاده از آزمون t زوجی برای این سوال صحیح است؟ |
103162 | آزمون مکنمار نمونهای خاص از آزمون علامت دوجملهای است، اما آزمون علامت (وانیل) به دلیل نادیده گرفتن تفاوتهای برابر با صفر، از سوگیری رنج میبرد. آمار آزمون مکنمار به صورت زیر ارائه میشود: $\chi^{2} = \frac{\left(|r-s|-1\right)^{2}}{r+s}$، که در آن $r$ و $s$ هستند تعداد جفتهای ناسازگار (0،1) در مقابل (1،0)، $\chi^{2}$ را با 1 درجه آزادی تحت فرضیه صفر توزیع کردند. من در تجزیه و تحلیل Sribney در آزمون نشانه مشکل دارم: > آمار آزمون برای آزمون نشانه، عدد $n_{+}$ مشاهدات > بزرگتر از صفر است. با فرض اینکه احتمال اینکه یک مشاهده > برابر با صفر باشد دقیقاً صفر است، در این صورت، تحت فرض صفر، $n_{+} \sim > \text{دوجملهای}(n, p=\frac{1}{2}) $، که $n$ تعداد کل > مشاهدات است. اما اگر تعدادی مشاهدات صفر داشته باشیم چه کار می کنیم؟ > > **اصل تصادفی سازی فیشر** > > اگر آزمون را از منظر اصل تصادفی سازی فیشر ببینیم، پاسخی آماده برای این سؤال داریم (فیشر 1935). ایده فیشر (به روشی مدرن بیان شد) این بود که به خانواده ای از تبدیل داده های مشاهده شده نگاه کند به طوری که احتمال پیشینی (تحت فرضیه صفر) داده های تبدیل شده با احتمال مشاهده شده یکسان باشد. داده ها سپس توزیع آمار آزمون با محاسبه مقدار آن برای هر یک از مجموعههای داده «تصادفیسازی» تبدیلشده، > با در نظر گرفتن هر مجموعه دادهای به یک اندازه محتمل، تولید میشود. > > برای آزمون نشانه، داده ها به سادگی مجموعه ای از نشانه های مشاهدات هستند. تحت فرض صفر آزمون علامت، $P(X_{i}>0)= > P(X_{i}<0)$، بنابراین میتوانیم علائم مشاهدهشده را با برگرداندن هر عدد > از آنها و مجموعه نشانه ها نیز همین احتمال را خواهند داشت. تغییرات علامت احتمالی $2^{n}$ > خانواده مجموعه دادههای تصادفیسازی را تشکیل میدهند. اگر > هیچ صفر نداشته باشیم، این روش دوباره به $n_{+} \sim \text{Binomial}(n, > p=\frac{1}{2})$ میرسد. > > اگر صفر داشته باشیم، تغییر علائم آنها آنها را صفر می کند. بنابراین اگر $n_{0}$ صفرها را مشاهده کنیم، هر یک از مجموعه دادههای تغییر علامت $2^{n}$ نیز > $n_{0}$ صفر خواهد داشت. بنابراین، مقادیر $n_{+}$ محاسبهشده روی مجموعه دادههای sign- > تغییر از 0 تا $n-n_{0}$ متغیر است، و توزیع «تصادفی» > $n_{+}$، $n_ است. {+} \sim \text{دو جملهای}(n-n_{0}، > p=\frac{1}{2})$. زیرا به نظر می رسد این می گوید ادامه دهید و صفرها را نادیده بگیرید. اما بعداً در مقاله، Sribney تنظیمی را برای آزمون علامت-رتبه ارائه می دهد که صفرها را دقیقاً در امتداد خطوطی که من در مورد آنها تعجب می کنم، محاسبه می کند: > تعدیل برای صفرها تغییر در واریانس زمانی است که رتبه های > صفرها امضا می شوند. برای ایجاد $r_{j}=0$; به عنوان مثال، واریانس با > $\frac{1}{4}\sum_{i=1}^{n-{0}}{i^{2}}=n_{0}\frac{\left( n_{0}+1\right)\left(2n_{0}+1\right)}{24}$. آیا در عوض باید بپرسم که آیا آزمون رتبه امضا شده را برای دادههای کنترل موردی که بهصورت جداگانه تطبیق دادهاند اعمال کنم یا خیر؟ یک مثال ساده ساخته شده نشان می دهد که چرا نادیده گرفتن صفرها مشکل ایجاد می کند. تصور کنید دادهها را بدون هیچ تفاوتی برابر با صفر جفت کردهاید (این با دادههای آزمایش مکنمار که فقط جفتهای ناسازگار وجود دارد مطابقت دارد). با حجم نمونه مثلاً 20، 15 علامت مثبت تفاوت و 5 علامت منفی تفاوت را پیدا می کنید و تفاوت معنادار را نتیجه می گیرید. حالا تصور کنید که 1000 تفاوت مشاهده شده برابر با صفر علاوه بر آن 15 علامت مثبت و 5 علامت منفی تفاوت ها دارید: حالا نتیجه می گیرید که تفاوت معنی دار نیست. اگر آزمون مک نمار روی 1020 جفت که 1000 جفت آنها صفر هستند و با جفت های 15 و 5 ناسازگار انجام شود، نباید فرضیه صفر را رد کنیم (مثلاً در $\alpha = 0.05 $). برای تصحیح تفاوتهای صفر مشاهدهشده بر اساس «اصل تصادفیسازی» فیشر (سریبنی، 1995)، تنظیمی برای آزمون علامت وجود دارد. آیا راهی برای بهبود آزمون مک نمار وجود دارد که به تأثیر تفاوتهای صفر مشاهدهشده (یعنی با محاسبه تعداد جفتهای همخوان نسبت به تعداد جفتهای ناسازگار) بپردازد؟ چگونه؟ در مورد تقریب _z_ مجانبی برای آزمون علامت چطور؟ **مراجع** Sribney WM. (1995) تصحیح پیوندها و صفرها در آزمون های علامت و رتبه. _بولتن فنی Stata_. 26:2-4. | آیا می توان آزمون مک نمار را با تنظیم صفرهایی مانند تست علامت بهبود بخشید؟ |
105243 | من در حال ادامه تحصیل در مقطع دکتری هستم. من با آخرین هدف تحقیق گیر کرده ام. در مورد کاوش در ارتباط هویت برند و تصویر برند صحبت می کند. حجم نمونه برای اندازه گیری تصویر برند (پاسخ دهندگان مشتری): 1200 (3 بخش با 4 برند؛ کل برندها 12؛ حجم نمونه هر برند 100) حجم نمونه برای اندازه گیری هویت برند (مدیران برند پاسخ دهندگان): 48 (3 بخش با هر کدام 4 مارک; آیا ابزار آماری را برای اندازهگیری ارتباط هویت برند و تصویر برند اعمال میکنم (اندازه نمونه برای هر دو نهاد نابرابر است؛ پاسخهای تصویر برند سابق (پاسخهای مشتری) برای برند لوکس=100 و پاسخهای هویت برند (پاسخهای مدیران برند) برای برند لوکس = 4)؟ | از کدام ابزار آماری برای اندازه گیری ارتباط هویت برند و تصویر برند استفاده کنم؟ |
103168 | من میخواهم عملکرد الگوریتمی را ارزیابی کنم که یاد میگیرد با توجه به ورودیهای پر سر و صدا، یک PDF مجزا را برای یک متغیر پنهان تقریبی کند. حال آیا آزمون استانداردی برای ارزیابی خوب بودن آن تقریب وجود دارد؟ من میخواهم الگوریتم را با دادههای مصنوعی آموزش دهم و سپس ببینم این تقریب به PDF چقدر نزدیک است و میتوانم با دانستن نحوه تولید دادهها محاسبه کنم. من به محاسبه واگرایی Kullback-Leibler فکر کردم، اما * نمی دانم چه مقدار خوبی است. واگرایی KL به دست آوردن اطلاعات است، بنابراین می توانم استدلال کنم که به عنوان مثال. از دست دادن فقط <= 5٪ از کل اطلاعات هنگام استفاده از تقریب خوب است؟ * چگونه می توانم واگرایی های KL از آزمایش های متعدد را با ورودی های مختلف ترکیب کنم؟ آیا می توانم میانگین بگیرم؟ با توجه به اینکه همه PDF های محاسبه شده را می توان به عنوان یک پی دی اف روی یک متغیر پنهان چند بعدی مشاهده کرد، فکر می کنم ممکن است. | حسن تناسب تقریبی یک PDF |
103165 | رگرسیون چند متغیره را با پیشبینیکنندههای تصادفی در نظر بگیرید که در تکنیکهای آماری چند متغیره مدرن Izenman توضیح داده شده است، یعنی $X: r \times 1$ و $Y: s \times 1$ به طور مشترک با بردارهای میانگین مربوطه $\mu_X$ و $ توزیع میشوند. \mu_Y$ و ماتریس کوواریانس مشترک دارند $$\left( \begin{array}{cc} \Sigma_{XX} & \Sigma{XY} \\\ \Sigma_{YX} & \Sigma_{YY} \end{array} \right)$$ در مشکل رگرسیون عمومی، ما با ماتریس کوواریانس $(Y|X=x)$ نگران هستیم که $\Sigma_{YY} است - \Sigma_{XY}^T \Sigma_{XX}^{-1}\Sigma_{XY}$. با این حال، سوال من این است: در یک تنظیم داده واقعی، آیا ما انتظار داریم که پاسخ $Y$ ما تا حدودی نامرتبط باشد؟ یعنی، آیا ما انتظار داریم که $\Sigma_{YY}$ ماتریس هویت باشد یا آیا همبستگی حاشیه ای بین پاسخ ها وجود دارد؟ من نظر خودم را در این مورد دارم اما علاقه مند به یک دیدگاه جدید هستم. مثالها یا حکایتهای ساده در مورد تجربه خودتان با این دادهها بسیار قدردانی میشود. | پاسخ های حاشیه ای ناهمبسته در رگرسیون چند متغیره |
47310 | من ممکن است چیزی اساسی را از دست بدهم - اما به نظر می رسد که قانون قوی اعداد بزرگ قانون ضعیف را پوشش می دهد. اگر چنین است، چرا قانون ضعیف مورد نیاز است؟ با تشکر لیران | قانون ضعیف اعداد بزرگ - زائد؟ |
89717 | فرض کنید من یک مجموعه داده ترکیبی و چند متغیره دارم که غلظت عناصر مختلف را به تصویر می کشد. با این حال، داده ها در یک مقیاس در دسترس نیستند. به عنوان مثال، برخی به شکل 0.00x هستند در حالی که برخی دیگر اعداد صحیح هستند. آیا باید قبل از اعمال هر نوع تکنیک نرمال سازی/استانداردسازی را اعمال کنم، یا باید قبل از اعمال تبدیل ها (نسبت لاگ ایزومتریک [ilr]، نسبت ثبت مرکزی [clr] و غیره) کاری با داده ها انجام دهم و داده ها را شروع کنم. تجزیه و تحلیل، تعیین مقدار از دست رفته با استفاده از روش های قوی، PCA قوی و خوشه بندی داده ها؟ برخی از نکات برای درک تجزیه و تحلیل داده های ترکیبی نیز مورد استقبال قرار می گیرند. [به روز رسانی] برای مثال: دو بردار را در نظر بگیرید: [ 0.016، 71.2، 0.123، 1.74، 14.0، 0.002، 2310، 0.064، 0.29، 0.32،5.63، 96.5، 1.4، 96.5، 1.4، 0.0. 0.052، 62.9، 4.45، 1110، 1.50، 15.10، 783، 0.015، 78.9، 5.61، 0.007، 0.022، 0.007، 0.53، 29.3، 0.53، 29.3، 3. 2.77، 17.4، 0.039، 2460، 0.145، 0.85، 0.99، 20.40، 359.0 0.062، 4040، 1530، 148، 0.113، 218.11، 218.0، 0.110، 1. 4.56، 880، 0.069، 230.0، 12.20، 0.028، 0.025، 0.013، 9.92، 34.1] این دو نشان دهنده غلظت عناصر مختلف در نمونه های خاک جمع آوری شده از دو موقعیت مختلف هستند. اگر بخواهم آنها را با استفاده از روشهای قوی تجزیه و تحلیل کنم، آیا باید آنها را به هر شکلی استاندارد / نرمالسازی از قبل پردازش کنم، یا باید آنها را به سادگی به هندسه آیچیسون تبدیل کنم و تحلیل خود را شروع کنم؟ | تجزیه و تحلیل داده های چند متغیره داده های ترکیبی |
74382 | من سعی می کنم فرآیند آزمایش آماری برای تجزیه و تحلیل مؤلفه های اصلی یا حداقل مربعات جزئی را درک کنم. **مرحله 1. PCA:** من احساس میکنم که درک بدی از PCA دارم: شما بیضی توصیف شده توسط ماتریس کوواریانس دادهها را پیدا میکنید، و سپس بهطور متوالی بزرگترین محور تغییرات را میگیرید (مولفه 1). سپس دومین بزرگ (جزء اصلی 2) و غیره. اگر بیضی بلند و کشیده باشد، آنگاه تغییرات بیشتر در امتداد اولین جزء اصلی (بردار ویژه مربوط به بزرگترین مقدار ویژه بیضی) است. اگر بیضی یک دیسک مسطح باشد، آنگاه تغییرات در داده ها با دو جزء اصلی و غیره به خوبی توضیح داده می شود. من همچنین می فهمم که پس از انتخاب استفاده از (مثلا) فقط دو جزء اصلی اول، سپس همه داده ها امتیازها را می توان بر روی یک نمودار امتیازها ترسیم کرد که برای هر نقطه داده $D^{(i)}$، پیش بینی $D^{(i)}$ را در صفحه ای که توسط دو نقطه اول پخش می شود نشان می دهد. اجزای اصلی به همین ترتیب، برای نمودار بارگذاری (فکر می کنم) شما مولفه های اصلی اول و دوم را به صورت ترکیب خطی متغیرهای ورودی می نویسید و سپس برای هر متغیر ضرایبی را که به مؤلفه های اصلی اول و دوم کمک می کند رسم کنید. **مرحله 2. PLS یا PLS-DA:** اگر برچسب هایی روی داده ها وجود دارد (مثلاً کلاس های دودویی)، سپس یک مدل رگرسیون خطی بسازید تا از مؤلفه های اصلی اول و دوم برای تمایز کلاس 0 (برای نقطه داده $) استفاده کنید. i$، یعنی $Y^{(i)}=0$) از کلاس 1 (برای نقطه داده $i$، این به معنای $Y^{(i)}=1$) است که ابتدا همه را نشان می دهد دادهها فقط در صفحهای قرار میگیرند که توسط مؤلفههای اصلی اول و دوم در بر میگیرد و سپس دادههای ورودی پیشبینیشده X_1'، X_2'$ به $Y$ را رگرسیون میکند. این رگرسیون را می توان به عنوان (گام اول) تبدیل افین (یعنی تبدیل خطی + بایاس) که در امتداد $PC_1، PC_2$ (مولفه های اصلی اول و دوم) پروژه می کند و سپس (مرحله دوم) تبدیل افین دوم که $ را پیش بینی می کند، نوشت. Y$ از $PC_1، PC_2$. این تبدیلها با هم $Y \approx Affine(Affine(X))$ را میتوان به صورت یک تبدیل آفین منفرد $Y \حدود C (A X + B) + D = E X + F$ نوشت. **مرحله 3. آزمایش متغیرها از $X$ برای اهمیت در پیشبینی کلاس $Y$:** اینجاست که میتوانم از کمک استفاده کنم (مگر اینکه از قبل دور شده باشم، در این صورت به من بگویید!). چگونه میتوانید آزمایش کنید که آیا یک متغیر ورودی (یعنی مشخصهای که هنوز روی اجزای اصلی (فوقالعاده) نمایش داده نشده است یا خیر)، و تصمیم میگیرید که آیا ضریب آماری معنیداری در رگرسیون $Y \تقریبا E X + F$ دارد یا خیر؟ از نظر کیفی، ضریبی در $E$ که از صفر دورتر است (یعنی مقادیر مثبت و منفی با بزرگی زیاد) سهم بزرگتری از آن متغیر را نشان میدهد. به یاد دارم که برای دادههای توزیع شده نرمال (برای آزمایش اینکه آیا ضرایب صفر هستند) آزمونهای t رگرسیون خطی را دیدم. آیا این رویکرد استاندارد است؟ در آن صورت، حدس میزنم که متغیری از $X$ به یک توزیع تقریباً نرمال در مرحله 0 (یعنی قبل از انجام هر یک از این مراحل دیگر) تبدیل شده است. در غیر این صورت، میتوانستم انجام آزمایش جایگشت را ببینم (با اجرای کل این روش هزاران بار و هر بار جایگشت $Y$ برای به هم زدن برچسبها، و سپس مقایسه هر ضریب منفرد در $E$ از تجزیه و تحلیل غیرآشفته به توزیع ضرایب از تجزیه و تحلیل های مخلوط شده). آیا می توانید به من کمک کنید تا ببینم کجای شهودم از کار می افتد؟ من سعی کردهام با استفاده از رویههای مشابه، مقالاتی را بررسی کنم تا ببینم چه کار کردهاند، و همانطور که اغلب اتفاق میافتد، آنها مانند گل و لای شفاف هستند. من در حال آماده کردن یک آموزش برای برخی از محققان دیگر هستم و می خواهم یک کار خوب انجام دهم. | PCA و PLS: متغیرهای آزمایش برای اهمیت |
103167 | برای هر سال، به مدت هشت سال، مجموعه ای از پروژه ها (n=332) دارم. تعداد پروژه هایی که در هر سال وجود دارد متفاوت است (مثلاً برخی از سال ها 10 پروژه وجود دارد و برخی دیگر 60 پروژه هستند). در هر سال پروژه ها بر اساس امتیاز یا تایید می شوند یا تایید نمی شوند. من میخواهم میانگین پروژههای تایید شده و تایید نشده را برای هر سال مقایسه کنم و همچنین امتیاز پروژههای تایید شده و تایید نشده را در طول زمان مقایسه کنم. ANOVA اندازه گیری های مکرر با کنتراست به من اجازه می دهد این کار را انجام دهم، اما چون پروژه ها هر سال یکسان نیستند، معتقدم این آزمون درستی نیست. افکار؟ همچنین نمرات مورد استفاده برای تایید یا عدم تایید یک پروژه، مجموع چندین امتیاز فرعی است. من می خواهم انحرافات استاندارد را در مورد امتیاز پروژه برای هر دو پروژه تایید شده و تایید نشده و در طول زمان مقایسه کنم. PS یک مدل ترکیبی است، پروژهها در سالهای آینده در STATA همگرا نمیشوند | ANOVA اندازه گیری های مکرر - داده های غیر تجربی |
109897 | من با یک مجموعه داده ریزآرایه کار می کنم که در آن دسته ها زمان درمان کاملاً مخدوش هستند، یعنی زمان t1 همه در دسته های b1 و b2 است، و زمان t2 همه در دسته های b3، b4 و b5 است. می دانم که این بدان معناست که نمی توانم در طول زمان به دنبال بیان تفاضلی باشم. با این حال، ما نمونههای بافت اصلی و گزینهای برای استخراج مجدد/فرآوری مجدد برخی از نمونهها در یک دسته جدید داریم. با توجه به حجم مطالعه، اجرای مجدد تمامی نمونه ها با طرح تصادفی مناسب خارج از بحث است. آیا مطالعهای وجود دارد که نحوه اجرای مجدد یک زیرمجموعه کوچک از نمونهها را برای امکان مقایسه آماری معتبر بین نقاط زمانی توضیح دهد؟ یا کسی راهنمایی داره؟ به عنوان مثال، آیا می توانم 10 نمونه را از هر نقطه زمانی در یک دسته جدید دوباره پردازش کنم - آیا این کافی است؟ در اینجا تفکیک نمونه با درمانها/متغیرهای کمکی مربوطه است - میتوانید ببینید که نقاط زمانی t1 و t2 کاملاً با دستهای اشتباه گرفته میشوند، در حالی که نقاط زمانی t2 و t3 اینطور نیستند. من همچنین متغیر کمکی دیگری را که میخواهیم در نظر بگیریم، قومیت، و تعداد نمونهها در هر گروه اضافه کردم: نقطه زمانی دستهای قومیت Num_Samples b1 t1 A 21 b1 t1 B 54 b2 t1 A 20 b2 t1 b 56 b3 t2 a 10 b3 t2 b 35 b4 t2 B 49 b5 t2 A 28 b5 t2 B 4 اگر ما آیا نمونهها را مجدداً پردازش میکنم، آیا باید از حضور یکسان دو قومیت در دسته جدید اطمینان حاصل کنم؟ | اثرات دستهای بیپایه در مجموعه داده ریزآرایه - آیا میتوانم طراحی مجدد آزمایش جزئی انجام دهم؟ |
103292 | من مجموعه داده های بزرگی دارم (بیش از 1000 obs) و در حال انجام تست های رگرسیون، خطی و لجستیک، روی یک سری از نتایج بالینی هستم. در این تست، من تأثیر برهمکنش بین دو متغیر گربه را با ایجاد یک متغیر تعامل ساختگی با دو متغیر متصل به یک بررسی میکنم (که R با استفاده از تابع ()interaction انجام میشود). در معادله متغیرهای دیگری نیز برای تنظیم وجود دارد. پس از هر آزمون، من یک پسهک انجام میدهم تا بررسی کنم که آیا بین هر سطح از این متغیر تعاملی تفاوت وجود دارد یا خیر. آزمایش از طریق glht() بسته multcomp در R انجام میشود. من معتقدم، (100٪ مطمئن نیستم) که post hoc با استفاده از روش Tukey انجام میشود. البته استفاده از رویه پس از آن، اهمیت خود را از دست می دهم. اغلب به نظر می رسد که نتایجی که در آزمون رگرسیون معنی دار بودند، معنی دار نمی شوند. خوب است من همیشه فکر می کنم که p<0.05 آستانه بسیار کم عمقی است، به خصوص زمانی که اعداد زیادی مانند من دارید. حتی گاهی اوقات این اتفاق می افتد که برخی از اثرات مرتبط بین سطوح که در رگرسیون نشان داده نشده اند، در حالت post hoc قابل مشاهده می شوند و این چیز خوبی است. بنابراین سوال من این است که وقتی یک تحلیل رگرسیون را با استفاده از Tukey انجام میدهید و با این اعداد زیاد، همچنان راحتتر میتوانید خطای نوع 1 ایجاد کنید و هیچ نتیجه واقعی یا خطای نوع 2 را قبول نکنید، زیرا خیلی سخت است. داده ها و از دست دادن نتایج جالب؟ یا دانستن آن غیرممکن است؟ (احتمالا این پاسخ صحیح است) با تشکر! | آزمون تعقیبی پس از رگرسیون لجستیک با تعامل. خطر بالاتر برای خطای نوع 1 یا نوع 2؟ |
74384 | آیا کسی معیاری را می شناسد که **_مرکزیت_موضوع_** یا چسبندگی موضوع را اندازه گیری کند (من دیده ام که شخصی از این اصطلاح نیز استفاده کرده است). برای مثال _خوشه 1_ $d_1$ = {a, b, c }, $d_2$ = {b, c, d } و _Cluster 2_ $d_3$ = {a, b, c }, $d_4$ = {d, e , f } چگونه می توانیم یک مقدار عددی را محاسبه کنیم که به ما می گوید خوشه 1 بهتر از خوشه 2 است. در این مورد حدس می زنم بتوانیم اندازه گیری کنیم ** خلوص خوشه** با محاسبه شباهت زوجی اسناد در خوشه. با این حال، اگر خوشه ها بزرگ باشند (شامل اسناد زیادی باشند) از نظر محاسباتی گران می شود. آیا معیار دیگری برای این مورد استفاده می شود؟ | مرکزیت موضوع را اندازه گیری کنید |
103295 | من در حال توسعه یک مدل نیمه مارکوف پنهان چپ-راست هستم. در مدل چپ-راست، دنباله ای از حالت های $M$ در حالت 1 شروع می شود و در حالت M به پایان می رسد، بدون تکرار حالت ها. از آنجایی که مدل نیمه مارکوفی است، انتقال خود $a_{ii}=0$ مجاز نیست. من فکر می کنم آخرین ردیف ماتریس باید 0 باشد، اما قانون $\sum_{j}a_{ij}=1$ است. چگونه می توانم این مشکل را حل کنم؟ | ماتریس انتقال در مدل نیمه مارکوف پنهان چپ به راست |
71542 | من روی مدل درخت تصمیم کار می کنم و یک مقدار در متغیر وابسته (Churn) بسیار کمتر است. ما 1.5 رکورد lac داریم و فقط 1700 رکورد Churn = 1 دارند. در حالی که از مدل درخت تصمیم استفاده می کنیم، درخت ایجاد نمی شود، کیفیت مدل خوب است اما نمی تواند پیش بینی کند که انحراف کجا باید 1 باشد. لطفاً اگر مورد دیگری است به ما اطلاع دهید. مدل می تواند برای مقابله با مشکل استفاده شود. من از رگرسیون لجستیک استفاده کردم اما نتایج مشابهی گرفتم. مدل قادر به پیشبینی ریزش =1 در حین اعتبارسنجی نیست. | استفاده از درختان تصمیم با نتایج بسیار نادر |
103298 | من در حال حاضر در حال بررسی مقاله ای هستم که در آن نویسندگان آمار توزیع را ارائه کردند که به نظر من اشتباه است. اما من نمی توانم راهی برای تشخیص آن پیدا کنم. این مقاله نتایج را با میانگین 95% و انحراف معیار 25% ارائه کرد. حداکثر مقدار نمی تواند بیش از 100٪ و مقدار حداقل نمی تواند کمتر از 0٪ باشد. من شماره نمونه را ندارم من سعی کردم اعداد تصادفی lognormal را با این آمار بدون موفقیت تولید کنم: # R Code require(Runuran) d1 <- urlnorm(n = 1000, meanlog = log(95), sdlog = log(25), lb = 0, ub = 100) چگونه می توانم این نتیجه را با هر توزیعی تعمیم دهم؟ | آمار توزیع غیر ممکن است؟ |
85840 | من یک مقاله رایگان جذاب در مورد اینکه چرا اکثر یافته های تحقیقات منتشر شده ممکن است نادرست باشند، خواندم. من می توانم تقریباً به طور کامل دنبال کنم، به جز یک قسمت کوچک. در آن، نویسنده، Ioannidis، می نویسد اجازه دهید R نسبت تعداد «روابط واقعی» به «بدون رابطه» در میان آنهایی باشد که در این زمینه مورد آزمایش قرار گرفتند. ... احتمال صحت یک رابطه قبل از مطالعه R⁄(R + 1) است. چرا «P(T)=R/(1+R)» است؟ او در همان پاراگراف می نویسد: اجازه دهید برای سادگی محاسباتی، زمینه های محدود شده را نیز در نظر بگیریم که در آنها یا فقط یک رابطه درست وجود دارد (در میان بسیاری که می توان فرضیه کرد) یا قدرت مشابه یافتن هر یک از چندین رابطه واقعی موجود است. شاید این بتواند به توضیح آن کمک کند، اما من نمی دانم چگونه. | محاسبه احتمال صحت یک یافته پیش از مطالعه |
87720 | R در مدل رگرسیون خطی من متغیرهای ساختگی برای متغیر رنگ ایجاد می کند (رنگ سفید یا قرمز است). برای مثال، color:pH عبارت تعامل colorred:pH را برمیگرداند. برخی از سؤالات: چرا R فقط برای برخی از اصطلاحات تعاملی «سفید رنگی» و با سایر عبارتها «رنگی» است؟ چرا «رنگی» و «رنگی» برای هر عبارتی که با رنگ در تعامل است را انجام نمی دهد؟ در مرحله بعد، اگر بخواهم مدلی را با استفاده از برخی از متغیرهای ساختگی R تولید شده دوباره بسازم، چگونه می توانم آنها را در یک مدل خطی ارجاع دهم؟ اگر دوباره مدل را به صورت دستی تایپ کنم و عبارت colorwhite:pH را وارد کنم، R خطایی را نشان می دهد که شی colorwhite یافت نمی شود.  | نحوه ارجاع به متغیرهای ساختگی خودکار تولید شده توسط R در یک مدل خطی |
89718 | من موقعیتی دارم که در آن باید آیتم ها را به گروه ها طبقه بندی کنم (مثلاً 6). هنگامی که من k- را اجرا کردم، 90٪ از داده های من در 1 گروه قرار می گیرند و 10٪ در گروه های دیگر قرار می گیرند. مرحله بعدی چیست؟ برای گروه بندی بیشتر داده ها، گروه داده 90% را انتخاب کردم و یک بار دیگر k-means را اجرا کردم. این بار 15 گروه جدید در این مجموعه داده جدید دارم. اما در حال حاضر دوباره 76 درصد در یک گروه باقی مانده در 14 گروه سقوط کرد؟ در چنین شرایطی چگونه باید برخورد کرد؟ | در تحلیل خوشه ای گیر کرده اید، راه رو به جلو؟ |
47314 | من سعی می کنم با استفاده از رگرسیون لجستیک برای هر متغیر بیماری و سپس وارد کردن متغیرهای معنی دار در یک مدل رگرسیون لجستیک چندگانه، متغیرهای پیش بینی کننده بیماری را پیدا کنم. با این حال، یکی از متغیرهای مدل چند متغیره، نمره بالینی است که شامل برخی از متغیرهای تنظیم شده برای (از جمله bmi<18) است. سوال من این است: آیا داشتن هر دو در مدل چند متغیره منطقی است؟ و اگر بله، تعبیر نمره بالینی ناچیز در مدل چند متغیره چیست؟ آیا به دلیل کنترل برخی از متغیرهای آن ناچیز است؟ | متغیر وارد شده در مدل رگرسیون لجستیک بخشی از متغیر دیگری است که در همان مدل وارد شده است |
47319 | من داده هایی از پرسشنامه از مدرسه دارم. 35 سوال سوالات مختلف است (تأثیر دوستان و غیره) پاسخ های احتمالی برای 35 سوال قطعاً بله ، بیشتر بله ، بیشتر خیر و قطعاً خیر است. من خوشهبندی سلسله مراتبی را با استفاده از «hclust» در R انجام دادم. سپس از «cutree» برای برش دندروگرام استفاده کردم. چگونه دادههای مربوط به خوشهها را از «cutree» تجسم کنیم؟ من تابعی را برای صادرات اطلاعات در مورد خوشه ها به CSV نوشتم، اما می خواهم اطلاعات گرافیکی را نمایش دهم. با تشکر | تجسم داده ها از خوشه بندی سلسله مراتبی |
18176 | من یک سوال در مورد تابع 'ppois' در R دارم: * 'ppois(x,lambda,lower.tail=TRUE)' $P[X>x]$ را می دهد * `ppois(x,lambda,lower.tail=FALSE )` $P[X\le x]$ می دهد چگونه می توانم $P[X=n]$ را محاسبه کنم؟ منظورم این است که آیا تابعی در R برای این کار وجود دارد؟ | محاسبه احتمال از توزیع پواسون |
77833 | اجازه دهید $\varepsilon$ یک متغیر تصادفی توزیع شده گاوسی با میانگین $\mu_0$ و انحراف استاندارد $\sigma_0$ باشد. آیا می توان مقدار مورد انتظار $$ \begin{eqnarray} و &\mathbb{E}\left[\Phi\left(\frac{\varepsilon-\mu_1}{\sigma_1}\right)\mid را محاسبه/تقریبی کرد \varepsilon<c\right]=...\\\ & &... =\int_{-\infty}^{c}d\varepsilon \frac{1}{\sqrt{2\,\pi\,\sigma_0^2}}\,\exp\left(-\frac{\left(\varepsilon-\mu_0\right)^2}{2\ ,\sigma_0^2}\right)\, \int_{-\infty}^{\frac{\varepsilon-\mu_1}{\sigma_1}}dt\,\frac{1}{\sqrt{2\,\pi}}\,\exp\left(- \frac{t^2}{2}\right) ? \end{eqnarray} $$ توجه داشته باشید که در حالی که انتگرال $$\int \exp\left(-x^2\right)\,\textrm{erf}\left(x\right)\,dx$$ وجود دارد (بررسی کنید در http://integrals.wolfram.com/index.jsp)، هر انتگرال از نوع $$ \int \exp\left(-(x-a)^2/b\right)\,\textrm{erf}\left((x-c)/d\right)\,dx $$ وجود ندارد (حداقل طبق انتگرالهای Wolfram) . | مقدار مورد انتظار تابع توزیع تجمعی |
15039 | من در این ترم مقدماتی کلاس بازاریابی می گذرانم و این دوره از ما می خواهد که نرم افزاری بخریم که چیزی بیش از یک دسته ماکرو اکسل نیست. از صفحه نرم افزار > مهندسی بازاریابی برای اکسل ابزارهایی را برای کمک به رفع رایج ترین مشکلات بازاریابی ارائه می دهد. Segmentation, Targeting and Positioning (STP). جدید > تصمیم گیری محصول. پیش بینی فروش؛ تبلیغات و ارتباطات > تصمیمات; تصمیمات نیروی فروش و کانال؛ قیمت گذاری؛ و ارتقاء فروش > تصمیمات. کاربران می توانند از قدرت تجزیه و تحلیل در سطح جهانی استفاده کنند > برای اجرای تجزیه و تحلیل های سریع و ساده... همه از داخل اکسل. من لایسنس نرم افزار رو میخرم (40 دلار به مدت 6 ماه)... اما کسی میتونه به من بگه آیا پکیج های R هست که کارهای مشابهی انجام بده؟ | بسته R برای بازاریابی |
524 | اشکال زدایی برنامه های MCMC بسیار دشوار است. مشکل به دلیل مسائل متعددی است که برخی از آنها عبارتند از: (الف) ماهیت چرخه ای الگوریتم ما به طور مکرر پارامترها را مشروط به سایر پارامترها ترسیم می کنیم. بنابراین، اگر یک پیاده سازی به درستی کار نمی کند، جداسازی باگ دشوار است، زیرا این مشکل می تواند در هر نقطه از نمونه تکرار شونده باشد. ب) پاسخ صحیح لزوماً معلوم نیست. ما راهی نداریم که بگوییم آیا به همگرایی رسیده ایم یا خیر. تا حدودی می توان با آزمایش کد روی داده های شبیه سازی شده، این موضوع را کاهش داد. با توجه به مسائل فوق، می خواستم بدانم آیا تکنیک استانداردی وجود دارد که بتوان از آن برای اشکال زدایی برنامه های MCMC استفاده کرد. **ویرایش** میخواستم روشی را که برای اشکالزدایی برنامههایم استفاده میکنم به اشتراک بگذارم. من، البته، تمام کارهایی را که PeterR ذکر کرد، انجام می دهم. جدای از آنها، من آزمایشهای زیر را با استفاده از دادههای شبیهسازی شده انجام میدهم: 1. همه پارامترها را از مقادیر واقعی شروع کنید و ببینید که آیا نمونهگر از مقادیر واقعی فاصله زیادی دارد یا خیر. 2. من برای هر پارامتر در نمونهگر تکراری خود پرچمهایی دارم که تعیین میکند آیا آن پارامتر را در نمونهگر تکراری ترسیم میکنم یا خیر. به عنوان مثال، اگر یک پرچم 'gen_param1' روی true تنظیم شود، من 'param1' را از شرطی کامل آن در نمونه تکرار شونده ترسیم می کنم. اگر این مقدار روی false تنظیم شود، 'param1' روی مقدار واقعی آن تنظیم می شود. هنگامی که نگارش نمونهگر را تمام کردم، برنامه را با استفاده از دستور زیر آزمایش میکنم: * پرچم تولید یک پارامتر را روی true و بقیه موارد را روی false تنظیم کنید و همگرایی را با توجه به مقدار واقعی ارزیابی کنید. * پرچم تولید را برای پارامتر دیگری در ارتباط با پارامتر اول تنظیم کنید و دوباره همگرایی را ارزیابی کنید. مراحل فوق برای من بسیار مفید بوده است. | آیا تکنیک استانداردی برای اشکال زدایی برنامه های MCMC وجود دارد؟ |
89716 | آیا می توان آزمون معناداری را صرفاً بر اساس نمرات دقت / فراخوان / F1 انجام داد؟ به عنوان مثال، اگر در یک مقاله با 2 سیستم مواجه شدید که فقط P/R/F1 برای آنها گزارش شده است (در همان مجموعه داده و غیره)، آیا می توانید یک آزمون معناداری آماری انجام دهید؟ اگر بله، چگونه انجام می شود؟ | آزمون اهمیت بر اساس دقت / فراخوان / F1 |
109899 | من سعی می کنم برای اجرای برآوردگر در تخمین رگرسیون خودکار برداری با داده های پانل Econometrica 56-6 (1988) مقداری کد R بنویسم. من در معادله (3.12) گیر کردهام. احساس میکنم که $Z_{ir}$ و $Z_{is}$ باید طولهای متفاوتی داشته باشند، و بنابراین حاصلضرب نقطهای $Z'_{ir}Z_{is}$ نیست. یک عملیات معتبر اگر کسی بتواند نگاهی به مقاله بیندازد و توضیح دهد که من چه چیزی را از دست داده ام، واقعاً عالی خواهد بود. | Holtz-eakin، Whitney، Rosen Panel VAR |
85844 | من با رگرسیون لجستیک بازی می کنم (با استفاده از scikit-learn که از liblinear استفاده می کند) چند مجموعه داده نمونه ایجاد کردم و اغلب به خوبی کار می کند. از آنجایی که مجموعه دادهها را ایجاد کردم، از قبل مرزهای بهینه را میدانم، و یک طبقهبندی خطی 100٪ صحیح امکانپذیر است. نسبتاً اغلب (~1 در 10) حد پیش بینی شده خاموش است (شکل را ببینید). به نظر من بدیهی است که حرکت کران یک کسری بالاتر بهتر است. چه اشتباهی ممکن است رخ داده باشد؟ آیا پارامترهایی وجود دارد که باید آنها را تغییر دهم یا الگوریتم های بهتری برای استفاده از آنها وجود دارد؟  با تشکر! | رگرسیون لجستیک کاملاً کار نمی کند |
87727 | من فقط یک مجموعه داده کوچک دارم. من میخواهم 1. پیشبینیکنندهترین ویژگیها را از یک مجموعه بزرگ نامزد انتخاب کنم و 2. برآوردی از عملکرد پیشبینی مورد انتظار آنها به دست بیاورم. در _عناصر یادگیری آماری (صفحه 245ff)_، نویسندگان بر اهمیت گنجاندن انتخاب متغیر در حلقه اعتبارسنجی متقابل برای به دست آوردن تخمین های بی طرفانه از عملکرد مورد انتظار خارج از نمونه تاکید می کنند. با این حال، تخمینهای عملکرد مدل بهدستآمده در این روش برای یک مجموعه مشخص از ویژگیها نخواهد بود، زیرا هر بار اعتبارسنجی متقابل یا تکرار ممکن است به انتخاب ویژگیهای مختلف منجر شود. با این حال، من علاقه ای به میانگین عملکرد مدل در مجموعه های مختلف ویژگی ها ندارم. من میخواهم مجموعهای از «بهترین» ویژگیها و عملکردی را که میتوانم به شرط آنها در مجموعه دادههای مستقل انتظار داشته باشم، به دست بیاورم. آیا گزینه ای برای دریافت همزمان 1. و 2. دارم؟ سوال مرتبط | انتخاب ویژگی ها و برآورد عملکرد خارج از نمونه آنها با اعتبارسنجی متقابل |
15032 | من از یک فیلتر ذرات برای تخمین پارامترهای ($\Phi_{n\times1}$) یک مدل غیر خطی استفاده می کنم. فرض کنید ورودی (مشاهدات) من $t=1:k$ است، من برای هر یک از برآوردهای پارامتر یک بردار به طول $k$ خواهم داشت. بنابراین، در پایان فیلتر ذرات، من با یک ماتریس تخمین پارامتر ($\Theta$) با اندازه $k\times n$ مواجه میشویم، که در آن ردیفهای $k$ تخمینهایی هستند که در هر مشاهده جدید انجام میشود. با مشاهده $k^{th}$ به عنوان برآورد نهایی من انجام شد. _سوال من_: آیا یافتن ماتریس ضریب همبستگی ($C_{n \times n}$) این ماتریس تخمین پارامتر $\Theta$ منطقی است؟ اگر چنین است، این چه چیزی را نشان خواهد داد؟ \--AM _edit_ : 1. مدل غیر خطی یک مدل سیگنال فیزیولوژیکی با 4 حالت و 7 پارامتر ناشناخته است. این 7 پارامتر به عنوان متغیرهای حالت در نظر گرفته می شوند، بنابراین یک بردار 11 حالتی به دست می آید که باید تخمین زده شود. این کار در چارچوب فیلتر ذرات انجام می شود. 2. بله، برآوردهای نهایی تنها موارد مورد علاقه هستند، اما من به گزارشی برخوردم که در آن همبستگی تخمین ذرات در جدول زمانی فیلترینگ (همانطور که در بالا ذکر کردم) اندازه گیری شد. مشاهده چگونگی تکامل تخمین ها اطلاعات زیادی در مورد فرآیند فیلتر کردن می گوید. بنابراین برای من جالب است که بدانم (در صورت وجود) ماتریس همبستگی این تکامل چه چیزی را نشان می دهد. | حس ماتریس ضریب همبستگی پارامترهای فیلتر ذرات |
77830 | هر آزمون پارامتریک این فرض را دارد که میانگین نمونه از توزیع نرمال پیروی می کند. این در صورتی است که خود نمونه توزیع نرمال باشد یا اگر اندازه نمونه به اندازه کافی بزرگ باشد تقریباً. اما چرا آنها این فرض را دارند؟ من فکر کردم از آمار آزمون برای تصمیم گیری استفاده می شود و آنها توزیع خود را دارند (F، t و غیره). | چرا آزمون های پارامتریک به توزیع نرمال میانگین نمونه نیاز دارند؟ |
109087 | من مجموعه بزرگی از داده ها شامل سه نقطه (t، y1، y2) دارم. در هر t توزیعی از نقاط y1 و y2 دارم که هر کدام تقریباً نرمال هستند. من می خواهم نمودار y1 در مقابل y2 (مقادیر میانگین) ایجاد کنم و یک پاکت بازه اطمینان 90٪ یا 95٪ اضافه کنم. من از هر توصیه ای در مورد نحوه محاسبه فواصل اطمینان در این مورد به گونه ای که بتوانم بعداً یک نمودار بسازم قدردانی می کنم. متشکرم. **به روز رسانی و شفاف سازی:** در فیلد من، اگر y1 تابعی از x و y2 تابعی از x باشد، نمودار y1 در مقابل y2 بر روی دامنه x را کراس متقاطع می نامند. اطلاعات اضافی: * در برنامه من، t متغیر مستقل و y1 و y2 متغیرهای وابسته هستند. * یک مدل پیش بینی پیچیده (مبتنی بر معادلات دیفرانسیل) وجود دارد که مقادیر زیادی از y1 و y2 را برای هر مقدار t تولید می کند. * هیچ مدل صریحی در رابطه با y1 و y2 وجود ندارد. * من قبلاً می توانم نمودارهای فاصله اطمینان جداگانه ایجاد کنم (t در مقابل y1، t در مقابل y2). * برای هر مقدار t می توانم میانگین و انحراف معیار y1 و y2 را تخمین بزنم. هدف من: برای هر مقدار t، مثلا ti، میخواهم میانگین (y1i) در مقابل میانگین (y2i) را به عنوان نقطهای در نمودار y1 در مقابل y2 رسم کنم و سپس پوشش فاصله اطمینان را لحاظ کنم. | فواصل اطمینان در نقاط متقاطع |
77835 | من از توزیع دو جمله ای پواسون برای آزمایش همزمانی استفاده می کنم. من 2 متغیر دارم: $X \sim Bin(p_x,n)$ و $Y \sim Bin(p_y,n)$، که $p_x$ و $p_y$ احتمالات هستند و هر دو متغیر دارای تعداد یکسانی هستند. داده $n$. سپس، اجازه دهید $Z_{\rm th} = X+Y \sim PoisBin(p_x,p_y,n)$. از این متغیر نظری من 3 احتمال برای مقادیر 0، 1 و 2 دارم. همچنین احتمال مقادیر مطابق با متغیر مشاهده $Z_{\rm obs} = \sum x_i + y_i$ را دارم. چگونه می توانم مقدار احتمال 2 را در $Z_{\rm obs}$ و در $Z_{\rm th}$ مقایسه کنم؟ | توزیع دوجمله ای پواسون همزمان |
88444 | من مجموعه داده ای از 30 میلیون مصرف کننده خدمات برق دارم. \- مصرف \- صورتحساب \- قرائتهای کنتور هوشمند هر 5 ثانیه نمونهبرداری میشود \- از نظر منطقه داده سهم بازار آیا پیشنهادی در مورد نحوه محاسبه وزن برای عوامل اساسی که میتواند رضایت مشتری را پیشبینی کند؟ این یک طرح اولیه است که من دارم، اما برای درک محاسن و محدودیت های آن به کمک نیاز دارم. 1. مجموعه ای از «مشتریان راضی» را بر اساس قوانین تجاری شناسایی کنید. شخصی که به مدت 2 سال از خدمات استفاده می کند و روند مصرف رو به افزایشی دارد. 2. مجموعه ای از مشتریان ناراضی را شناسایی کنید، مشتریانی که رابطه خود را زودتر از موعد پایان دادند و ممکن است هزینه ها را دیر پرداخت کرده باشند. 3. اضافه کردن متغیرهای مقطعی برای محاسبه تفاوت در مشتریان از رگرسیون لجستیک برای شناسایی عوامل مهم استفاده کنید. چگونه می توانم این را بهتر کنم یا نقص های جدی در این رویکرد وجود دارد؟ | پیشنهادات روش تحقیق در مورد خدمات برق |
88443 | چند راه اضافی برای نوشتن فرضیه های صفر و جایگزین زیر (یعنی معادل ریاضی) چیست؟ فرضیه صفر: H0: µ1 = µ2 میانگین دو جمعیت برابر هستند فرضیه جایگزین: H1: µ1 ≠ µ2 دو میانگین جمعیت برابر نیستند یا فرضیه صفر: H0: µ1 - µ2 = 0 تفاوت بین میانگین دو جمعیت 0 جایگزین است. فرضیه: H1: µ1 - µ2 ≠ 0 تفاوت بین دو میانگین جمعیت 0 نیست یا ...؟ | روشهای معادل برای نوشتن فرضیه |
47313 | من دادههای سری زمانی دارم که میتوان آنها را با یک تابع غیرخطی محدود (غیرخطی در پارامترهایی که باید تخمین زد) برازش داد. من می خواهم از روش ضریب لاگرانژ (پیوند) استفاده کنم، به ویژه بسته Rsolnp (پیوند) R's، زیرا خود ضریب لاگرانژ معنای اقتصادی دارد. من خواص آماری (مقدار p یا فواصل اطمینان) پارامترهای تخمین زده شده توسط solnp در Rsolnp را می خواهم. اگر مشکل من شامل محدودیت نبود، میتوانم از کلاس «nls» R (پیوند) و روش «summary.nls» (پیوند) برای بازیابی ویژگیهای آماری پارامترهای برازش شده استفاده کنم. سؤالات: * آیا معادل «summary.nls» برای «solnp» وجود دارد؟ * اگر نه، چگونه می توانم خصوصیات آماری پارامترهای تخمین زده شده با روش ضریب لاگرانژ را بدست بیاورم؟ مراجعه به مقاله یا کتاب درسی در اینجا کافی خواهد بود. در اینجا برخی از جزئیات عملکرد من (یک تابع تولید CES از اقتصاد) و محدودیت ها آمده است: تابع: iGDP ~ ((1-zeta) * (exp(lambda_L*iYear) * iCapStk^(alpha) * iLabor^beta)^phi + zeta*(exp(lambda_E*iYear) * iQ)^phi)^(1/phi) محدودیت ها: آلفا + بتا = 1 (توجه داشته باشید که من نمی خواهم 1-بتا را جایگزین آلفا کنم، زیرا مقدار عددی ضریب لاگرانژ تفسیر اقتصادی ارزشمندی دارد. من می خواهم از معادله محدودیت و روش ضرایب لاگرانژ استفاده کنم. .) داده های شناخته شده (به صورت سالانه): پارامترهای iGDP، iYear، iLabor، iCapStk، iQ که باید تخمین زده شوند (اینها عبارتند از پارامترهایی که من ویژگی های آماری را برای آنها می خواهم: مقادیر p، فواصل اطمینان و غیره: زتا، لامبدا_E، lambda_L، آلفا، بتا، فی | خواص آماری پارامترها با استفاده از ضربکنندههای لاگرانژ در R |
47318 | چگونه می توانم رگرسیون را با تکرارهای زیاد روی متغیر وابسته در هر سطح از متغیر مستقل انجام دهم؟ نادانی من را در این مورد ببخشید زیرا اولین بار است که اینجا پست می کنم. سعی می کنم تا جایی که می توانم دقیق باشم. من داده هایی دارم که به شرح زیر است: X، y1، y2، y3، y4 0، 54.241، 127.728، 127.73802، 127.73802 31، 65.132، 127.729، 127.727، 127.729، 127.729 65.364، 127.729، 127.73782، 127.73789 که در آن X متغیر مستقل است و y1-y41 تکرارهایی هستند که در سطح خاصی از X اندازه گیری شده اند. این به وضوح با حالت معمول رگرسیون متفاوت است که در آن یک ستون X و ستون دیگری برای y! من این ایده را داشتم که فقط باید مقادیر y1-y41 را میانگین بگیرم و رگرسیون خود را بر روی میانگین آن مقادیر انجام دهم، اما دوست دارم تحلیل من بهینه باشد. بنابراین، من سعی کردم مدل اثرات تصادفی را با تکرار به صورت تصادفی در بسته `lmer` در R برازم. , y1, 65.132 59, y1, 65.364 90, y1, 66.465 120 y1، 68.439 مدل زیر را برازش کردم: «lmer(value~X+(1|replicate),data=long_form)» برآوردهای اجزای واریانس اثرات تصادفی زیر را به دست آوردم: اثرات تصادفی: نام گروه ها Variance Std.Dev. replicate(Intercept) 16.292 4.0364 Residual 100.557 10.0278 در حال حاضر، من سوالات زیر را دارم: 1) آیا مدل من درست است؟ یا مدل بهتری برای چنین داده هایی وجود دارد؟ 2) آیا واریانس برای تکرار نشان دهنده تغییرات تصادفی بین تکرارها در یک سطح برای کل آزمایش است، یعنی واریانس 16.292 در اینجا به من چه می گوید؟ 3) با نگاه کردن به توزیع میانگینهای مقادیر y، به نظر میرسد که دادهها به شدت به سمت چپ منحرف شدهاند و تابع box-cox تبدیل توان 2 یعنی y^2 را پیشنهاد میکند. من دادههایم را تغییر داده و با استفاده از تابع shapiro.test برای نرمال بودن آزمایش کردهام، اما دادهها پس از تبدیل هنوز عادی نیستند. آیا هنوز می توانم از یک مدل جلوه های تصادفی استفاده کنم (که فکر می کنم عادی بودن را در نظر می گیرد) یا راه دیگری برای دور زدن آن بدون نیاز به تغییر داده ها وجود دارد؟ سعی کردم تا جایی که میتوانم کامل باشم، پس لطفاً از ناآگاهیام ببخشید و اگر چیزی وجود دارد که نیاز به توضیح بیشتر دارد، به من اطلاع دهید. من واقعاً از کمک و پیشنهادات شما در این زمینه قدردانی می کنم. | چگونه می توان رگرسیون را با تکرارهای زیاد روی متغیر وابسته در هر سطح از متغیر مستقل انجام داد؟ |
23497 | موقعیتهای زیادی وجود دارد که میتوانید چندین طبقهبندیکننده مختلف را آموزش دهید، یا از چندین روش مختلف استخراج ویژگی استفاده کنید. در ادبیات، نویسندگان اغلب میانگین خطای طبقهبندی را بر روی مجموعهای از تقسیمهای تصادفی دادهها (یعنی پس از یک اعتبارسنجی متقابل تودرتوی دوگانه) میدهند، و گاهی اوقات واریانسهایی را در مورد خطا بر روی تقسیمها نیز میدهند. با این حال این به خودی خود کافی نیست که بگوییم یک طبقه بندی کننده به طور قابل توجهی بهتر از دیگری است. من روشهای مختلفی را برای این کار دیدهام - استفاده از آزمونهای مجذور کای، آزمون t، ANOVA با آزمون پسهک و غیره. چه روشی باید برای تعیین معنیداری آماری استفاده شود؟ زیربنای این سؤال این است: چه فرضیاتی باید در مورد توزیع امتیازات طبقه بندی داشته باشیم؟ | روش صحیح برای آزمایش اهمیت نتایج طبقه بندی چیست؟ |
15030 | اگر من از رگرسیون خطی OLS استفاده میکنم و میخواهم عدم قطعیت پیشبینیهایم را بدانم، میتوانم آن را با استفاده از باقیماندهها (MSE، انحراف مطلق میانه، و غیره) کمی کنم. اما اگر از رگرسیون خطی قوی استفاده میکنم که برخی از مشاهدات را بهعنوان مقادیر پرت کاهش میدهد و به آن وزنها دسترسی ندارم، چگونه میتوانم عدم قطعیت پیشبینی را به دقت کمیت کنم؟ | چگونه می توان به طور دقیق عدم قطعیت پیش بینی را در یک مورد خاص از رگرسیون خطی قوی محاسبه کرد؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.