_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
41203
سوال من در مورد محاسبه فاصله اطمینان (CI) برای نسبت شانس (OR) از یک خروجی SAS از یک مدل رگرسیون لجستیک برای یک دسته مرجع متفاوت بدون اجرای مجدد برنامه SAS است. من مدل‌سازی لجستیک SAS را سطح درآمد دوگانه (کد 1 در مقابل کد بالا با 0) با 4 متغیر نژاد کدگذاری شده ساختگی به‌عنوان متغیرهای کمکی - سفید، چینی، سیاه و فیلیپینی با سفید به عنوان دسته مرجع اجرا کرده‌ام. در حالی که به OR و CI برای سطح درآمد فیلیپینی ها در برابر White از یک خروجی SAS که فقط رهگیری، بتا، SE، OR و 95٪ Wald CI برای OR را ارائه می کند، نگاه می کنم، علاقه مند شدم در مورد OR و 95٪ CI بدانم. برای فیلیپینی ها در برابر چینی ها (به جای سفید). من می دانم که چگونه بتا و OR جدید را با محاسبه مقادیر پیش بینی شده برای چینی ها و فیلیپینی ها و سپس گرفتن تفاوت پای ثبت نام برای چینی ها و فیلیپینی ها برای دریافت بتا و OR جدید محاسبه کنم، اما من کاملاً در محاسبه دچار مشکل هستم. از CI جدید. کسی میتونه کمک کنه لطفا؟
چگونه می توان 95% CI را برای OR برای یک دسته مرجع دیگر بدون اجرای مجدد لجستیک SAS محاسبه کرد؟
57338
چه رابطه ای بین برآورد حداقل کنتراست و برآورد حداقل فاصله وجود دارد؟ اگر درست متوجه شده باشم این دو روش متفاوت هستند؟ یا معادل هستند؟ با تشکر و احترام! * * * برآورد حداقل فاصله از ویکی پدیا > اجازه دهید $\displaystyle X_1,\ldots,X_n$ یک نمونه تصادفی مستقل و به طور یکسان > توزیع شده (iid) از یک جمعیت با توزیع > $F(x;\theta)\colon \theta باشد. \in\Theta$ و $\Theta\subseteq\mathbb{R}^k (k\geq > 1)$. > > اجازه دهید $\displaystyle F_n(x)$ تابع توزیع تجربی بر اساس > نمونه باشد. > > اجازه دهید $\hat{\theta}$ یک برآورد کننده برای $\displaystyle \theta$ باشد. سپس > $F(x;\hat{\theta})$ یک برآوردگر برای $\displaystyle F(x;\theta)$ است. > > اجازه دهید $d[\cdot,\cdot]$ تابعی باشد که مقداری فاصله بین دو آرگومان را برمی گرداند. تابعی $\displaystyle d$ نیز > تابع معیار نامیده می شود. > > اگر $\hat{\theta}\in\Theta$ وجود داشته باشد به طوری که > $d[F(x;\hat{\theta}),F_n(x)]=\inf\\{d[F (x;\theta),F_n(x)]; > \theta\in\Theta\\}، $ سپس $\hat{\theta}$ حداقل فاصله نامیده می‌شود > تخمین $\displaystyle \theta$. * * * برآورد حداقل کنتراست از Bickel and Doksum's Mathematical Statistics Vol1 ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/GDin4.png)
رابطه بین برآورد حداقل کنتراست و برآورد حداقل فاصله؟
57337
من در حال ساخت نمونه اولیه مدل Naive Bayes bag o word خود هستم و یک سوال در مورد محاسبه احتمالات ویژگی داشتم. فرض کنید من دو کلاس دارم، فقط از spam و not-spam استفاده می کنم زیرا همه از آن استفاده می کنند. و بیایید کلمه ویاگرا را به عنوان مثال در نظر بگیریم. من 10 ایمیل در مجموعه آموزشی دارم، 5 ایمیل هرزنامه و 5 ایمیل غیر اسپم. viagra در تمام 5 سند هرزنامه ظاهر می شود. در یکی از اسناد آموزشی 3 بار ظاهر می شود (این همان چیزی است که سوال من در مورد آن است)، بنابراین در مجموع 7 ظاهر در هرزنامه است. در مجموعه آموزش بدون هرزنامه، 1 بار ظاهر می شود. اگر بخواهم p(viagra | هرزنامه) را به سادگی تخمین بزنم: **p(viagra | هرزنامه) = 5 سند هرزنامه حاوی ویاگرا / 5 سند هرزنامه کل = 1 ** به عبارت دیگر، **این واقعیت را انجام می دهد که یک سند به جای یک بار، 3 بار به ویاگرا اشاره کردم واقعاً مهم نیست؟ http://ebiquity.umbc.edu/blogger/2010/12/07/naive-bayes-classifier- in-50-lines/ و در اینجا یک پست وبلاگ وجود دارد که نویسنده می گوید: p(viagra | spam) = 7 spam viagra منشن ها / 8 منشن ها http://www.nils-haldenwang.de/computer- علم/آموزش-ماشین/نحوه اعمال-طبقه‌بندی‌های ساده-بی-بیز-به-مشکلات- طبقه‌بندی- اسناد و سپس یکی از پاسخ‌های زیر می‌گوید که باید این باشد: p(viagra | spam) = 7 ذکر ویاگرا در هرزنامه / تعداد کل مدت در هرزنامه ها آیا کسی می تواند به منبعی که در این مورد نظر می دهد پیوند دهد؟
ویژگی های احتمالات ساده بیز (آیا کلمات را دوبرابر بشمارم؟)
113186
من با داده هایم که در حال حاضر با آنها بازی می کنم گیج شده ام. من یک مجموعه داده دارم که دارای 58 ویژگی در 10000 نمونه است. مشخصه ها 56 مقدار شناور هستند که معمولاً بین 0 تا 1 هستند. سپس ویژگی اسمی وجود دارد که کلاس داده را نشان می دهد. آخرین مورد نتیجه داده است که ویژگی اسمی با 3 مقدار متفاوت است. هنگام بازی با Weka با این مجموعه داده و اگر اعتبار متقاطع را با 1000 برابر انجام دهم و سعی کنم آن داده ها را با جنگل تصادفی طبقه بندی کنم، نتایج بسیار خوبی دریافت می کنم، تا حدودی 85٪ موارد به درستی طبقه بندی می شوند. همین امر در مورد پرسپترون چندلایه نیز صدق می‌کند (اما من این کار را با این تعداد تاها انجام نداده‌ام، زیرا یک تا کردن حدود 5 دقیقه زمان می‌برد). مشکل زمانی پیش می‌آید که من این داده‌ها را با مجموعه آزمایشی خود آزمایش می‌کنم، به عنوان مثال 10 نمونه از مدل را آخرین نمونه، و یک مدل جدید با 9990 نمونه می‌سازم (در واقع من داده‌های بسیار بیشتری دارم، بنابراین مدل هنوز 10000 نمونه گسترده است، و هیچ داده آزمایشی وجود ندارد. وجود دارد). اکنون نتیجه من بسیار بدتر شده است. 40٪ از نمونه ها اکنون به درستی طبقه بندی شده اند. چگونه می تواند این باشد؟ در اینجا چه چیزی را نمی فهمم و چگونه می توانم این نتایج را با داده های آزمایشی خودم بهبود بخشم؟
نتایج داده های آزمون با نتایج اعتبارسنجی متقابل مطابقت ندارد
106074
من در حال تجزیه و تحلیل عملکرد دانش‌آموز در یک آزمون پیش و پس از آن هستم که برای ارزیابی دستاوردهای یک هفته برنامه درسی زیست‌شناسی دبیرستان در مورد انتخاب طبیعی طراحی شده است. پس از مقایسه عملکرد قبل و بعد با استفاده از انواع معیارهای مختلف (نمره آزمون، اندازه گیری راش، مجذور کای در هر مورد) بین نمونه های زوجی، من یک ANOVA برای سنجش اینکه آیا تفاوت هایی بین معلمان وجود دارد انجام دادم. دو نفر از (هفت) معلمان به طور قابل توجهی با بقیه متفاوت هستند (دانش آموزان آنها میانگین راش را به شدت پایین تری داشتند و در کل عملکرد بدتری داشتند)، بنابراین من می خواهم این تفاوت ها را در تجزیه و تحلیل توضیح دهم. آیا مدل ANOVA تو در تو در اینجا مناسب است؟ من می دانم که مدل های تو در تو در گفتگوهای SPSS نیستند، اما من زیاد یک برنامه نویس نیستم و بنابراین نمی دانم چه نحوی باید تولید کنم. علاوه بر این، هر معلم تعداد شاگردان متفاوتی دارد. آیا یک نمونه تصادفی (با حصول اطمینان از مقدار یکسان از هر معلم) برای مقایسه زوجی میانگین ها (مانند قبل در مقابل پست) مفید خواهد بود یا اینکه به هر حال این مقایسه میانگین ها بین گروه ها است، مهم نیست؟ پوزش برای هر گونه سوال واضح. آموزش رشته اصلی من نیست (من یک انسان شناس زیستی هستم) و از زمانی که در مقطع کارشناسی ارشد آمارهای چند متغیره را انجام دادم کمی می گذرد.
ANOVA تودرتو در SPSS / آموزش علوم
99893
آیا آمار چند متغیره و یادگیری ماشین همان مشکلات را حل می کنند؟ من دیدم که کتاب هایشان در مورد همین موضوعات است، بنابراین این تصور را دارم که آنها همان مشکلات را حل می کنند و احتمالاً از همان روش ها استفاده می کنند. روابط و تفاوت های آنها چیست؟ آیا یادگیری ماشین می تواند همان مسائل را در آمار تک متغیره حل کند؟ با تشکر
آمار چند متغیره در مقابل یادگیری ماشینی؟
106076
بنابراین مطمئن نیستم که 100% فواصل اطمینان را درک کنم یا خیر. بگویید من مجموعه داده عظیمی از قیمت اوراق قرضه از سال 1996 تا ارائه در MINUTES دارم. فرض کنید من هر داده را بر اساس روز جدا می کنم. اگر بخواهم از آزمون دیکی فولر (یا هر آزمون t دیگری) در یک روز خاص استفاده کنم (بنابراین نمونه ای بر اساس همه نقاط در یک روز گرفته می شود) و مقداری که به دست آوردم فرضیه صفر را رد می کند، آیا از نظر مفهومی خواهد بود. درست است که من نتیجه بگیرم که چون بر اساس نمونه خود توانستم null را رد کنم، می توانم در مورد کل مجموعه داده (جمعیت) نتیجه گیری کنم؟ به عبارت دیگر، آیا انتخاب یک روز و عدم انتخاب تصادفی نقاط داده در سراسر ماده؟
کاربرد فاصله اطمینان در یک سری زمانی
84000
سعی می کنم کشش قیمت برخی کالاها را ارزیابی کنم. من نگران گوسیانی بودن نویز در قیمت ها هستم. با غیر گاوسیانیتی به عدم وجود لحظه اول/دوم برای توزیع خطا اشاره می کنم. آیا راهی برای برازش مدل خطی بدون فرض گاوسی بودن خطا وجود دارد؟
برازش یک مدل خطی با نویز غیر گاوسی
37694
من از مدل های مخلوط محدود استفاده می کنم. برای دو مجموعه $A$ و $B$ از مقادیر شروع (حدس اولیه) مقادیر زیر تابع $Q(\bf{\hat{\Theta}})$ و $\log L(\bf{\) را دریافت می کنم. کلاه{\Theta}})$: تنظیم $A$: $Q(\bf{\hat{\Theta}_A})=110$ و $\log L(\bf{\hat{\Theta}_A})=7$ تنظیم $b$: $Q({\bf{\hat\Theta}_B})=78$ و $\log L(\bf{\ hat{\Theta}_B})=20$ چیزی که من را گیج می‌کند این است که برای این حداکثرهای احتمال محلی باید $\bf{\hat{\Theta}_A}$ را هنگام اشاره به تابع $Q$ انتخاب کنم و اگر تصمیم گرفتم به $\log L$ تکیه کنم، برعکس، $\bf{\hat{\Theta}_B}$ را انتخاب کنید. مک لاکلان در صفحه 78 (الگوریتم و برنامه های افزودنی EM - McLachlan, Krishnan 2ed. (2008)) به من این امکان را می دهد که استنتاج کنم که اگر $\bf{\hat{\Theta}_B}$ به صورت سراسری تابع احتمال را به حداکثر نرساند، $ وجود دارد. \bf{\hat{\Theta}_A}$ که باید برآورده شود: $Q(\bf{\hat{\Theta}_B}) <Q(\bf{\hat{\Theta}_A})$ (که برای مورد من صادق است) به این معنی که $\log L(\bf{\ کلاه{\Theta}_B}) < \log L(\bf{\hat{\Theta}_A})$. آخرین نابرابری برای مقادیر بالا برقرار نیست. این بدان معناست که بر اساس مبانی نظری، چیزی در الگوریتم پیاده‌سازی شده من اشتباه است. آیا به نظر شما مشتقات فوق مناسب هستند؟
الگوریتم EM - مقادیر احتمال و احتمال کامل برای مقادیر شروع مختلف
3781
من یک مجموعه داده دارم که در آن شخصی پرندگان را در فصل تولید مثل بیش از 10 سال شمارش کرده است. برای هر سال (سایت x)، می‌خواهیم ببینیم که چگونه کاهش نمونه‌گیری ممکن است بر توانایی ما در تشخیص روند تأثیر بگذارد. بنابراین برای این منظور، من مجموعه داده‌های مختلفی را از نمونه اصلی شبیه‌سازی کرده‌ام که در آن نمونه‌گیری را به یک بار در هر 45 روز کاهش دادیم (و 60، 90،120). من همان مدل دوجمله ای منفی را به مجموعه داده های اصلی و شبیه سازی شده (5oo مجموعه داده برای هر یک از فواصل مختلف نمونه برداری) برازش می کنم. بنابراین اکنون من 500 رگرسیون (و ضریب) برای هر مجموعه داده x مکان دارم. آیا راهی برای ایجاد یک گروه اعتماد در اطراف اینها وجود دارد؟ آیا چیزی بسیار پیش پا افتاده است، مانند محاسبه CI حول یک میانگین؟
آیا راهی برای محاسبه فواصل اطمینان برای تخمین رگرسیون داده های شبیه سازی شده وجود دارد؟
3259
این سوال در مورد تخمین نمرات برش در یک پرسشنامه غربالگری چند بعدی برای پیش‌بینی نقطه پایانی باینری، در حضور مقیاس‌های همبسته است. از من در مورد علاقه کنترل امتیازهای فرعی مرتبط هنگام طراحی نمرات برش در هر بعد از مقیاس اندازه گیری (ویژگی های شخصیتی) که ممکن است برای غربالگری اعتیاد به الکل استفاده شود، پرسیده شد. یعنی در این مورد خاص، فرد علاقه‌ای به تنظیم متغیرهای کمکی خارجی (پیش‌بینی‌کننده‌ها) نداشت - که منجر به ناحیه (جزئی) زیر منحنی ROC تنظیم‌شده با متغیرهای کمکی می‌شود، به عنوان مثال. (1-2) - اما اساساً در سایر نمرات از همان پرسشنامه، زیرا آنها یکی را با یکدیگر مرتبط می کنند (مثلاً تکانشگری با احساس طلبی). این به معنای ساختن یک GLM است که در سمت چپ امتیاز مورد علاقه (که ما به دنبال یک برش برای آن هستیم) و امتیاز دیگری محاسبه شده از همان پرسشنامه است، در حالی که در سمت راست نتیجه ممکن است وضعیت نوشیدن باشد. برای روشن شدن موضوع (به ازای درخواست @robin)، فرض کنید که امتیازهای $j=4$ داریم، مثلاً $x_j$ (به عنوان مثال، اضطراب، تکانشگری، روان رنجوری، جستجوی احساسات)، و می‌خواهیم یک مقدار برش $t_j$ پیدا کنیم. یعنی مورد مثبت اگر $x_j>t_j$، مورد منفی در غیر این صورت) برای هر یک از آنها. ما معمولاً هنگام طراحی چنین برش‌هایی (با استفاده از تحلیل منحنی ROC) برای سایر عوامل خطر مانند جنسیت یا سن تنظیم می‌کنیم. حال، در مورد تنظیم تکانشگری (IMP) بر روی جنسیت، سن، و جستجوی احساسات (SS) چه می‌توان گفت، زیرا SS با IMP ارتباط دارد؟ به عبارت دیگر، در جایی که اثر سن، جنسیت و سطح اضطراب حذف شود، یک مقدار قطعی برای IMP خواهیم داشت. جدا از اینکه می‌گویم یک برش باید تا حد امکان ساده باقی بماند، پاسخ من این بود > درباره متغیرهای کمکی، من تخمین AUC را با و بدون تنظیم توصیه می‌کنم، فقط برای اینکه ببینیم آیا عملکرد پیش‌بینی افزایش می‌یابد. در اینجا، متغیرهای کمکی شما صرفاً سایر امتیازات فرعی هستند که از همان ابزار اندازه‌گیری تعریف شده‌اند و من هرگز با چنین موقعیتی مواجه نشده‌ام (معمولاً من بر اساس عوامل خطر شناخته شده مانند سن یا جنسیت تنظیم می‌کنم). همچنین، از آنجایی که شما به مسائل پیش آگهی (یعنی اثربخشی غربالگری پرسشنامه) علاقه مند هستید، ممکن است به تخمین ارزش اخباری مثبت (PPV، > احتمال ابتلا به بیمارانی با نتایج آزمایش مثبت که به درستی انجام می شود علاقه مند باشید. > طبقه بندی شده) به شرطی که بتوانید موضوعات را به عنوان مثبت یا > منفی طبقه بندی کنید، بسته به نمره فرعی آنها در پرسشنامه. توجه داشته باشید، > با این حال، دانستن شیوع این اختلال برای > تفسیر صحیح PPV به نوبه خود ضروری است... آیا شما درک کامل تری از این وضعیت خاص، با پیوند به مقالات مرتبط در صورت امکان دارید؟ ** مراجع** 1. Janes, H and Pepe, MS (2008). تنظیم برای متغیرهای کمکی در مطالعات نشانگرهای تشخیصی، غربالگری یا پیش آگهی: یک مفهوم قدیمی در یک محیط جدید. _مجله اپیدمیولوژی آمریکایی_، 168(1): 89-97. 2. جینز، اچ و پپه، ام اس (2008). سازگاری متغیرهای کمکی در تجزیه و تحلیل ROC. _UW Biostatistics Working Paper Series_ , Paper 322.
تنظیم برای متغیرهای کمکی در تجزیه و تحلیل منحنی ROC
41205
اولین بار است که اینجا سوال میپرسم، بنابراین امیدوارم مشکلی ایجاد نکنم. من در حال محاسبه حجم نمونه برای مطالعه‌ای هستم که از طراحی آزمون _t_ مستقل استفاده می‌کند: مقایسه برخی از نتایج قبل و بعد از یک خط مشی خاص، موضوعات در دوره‌های قبل و بعد به هم مرتبط نیستند. به بیان ساده، این مطالعه در مورد غذای شیر گرفتن نوزادان توزیع شده در کشورهای در حال توسعه است. نتیجه، درصد وزن مواد پخت و پز است که روغن است، که با مواد مغذی غنی شده است. توصیه فعلی این است که 9 درصد وزن غذای کودک باید روغن غنی شده باشد (حدود 1 قسمت روغن تا 10 قسمت غلات تغذیه شده). این سازمان در تلاش است تا مقدار جدیدی از روغن 16 درصد را تبلیغ کند که نشان داده شد با نتایج آنتروپومتریک بهتری همراه است. من می‌توانم از فرمول اندازه نمونه آزمون _t_ معمولی استفاده کنم، اما نگرانم که انحراف معیار از میانگین 9٪ معنی‌دار نباشد، زیرا نتیجه بین 0٪ تا 100٪ محدود است، توزیع نقطه درصد در افراط (مانند 9٪) به احتمال زیاد غیر عادی است، و علاوه بر این، همه مراقبان دستورالعمل پخت و پز را رعایت نمی کنند، بنابراین SD احتمالاً بزرگ است. بنابراین سوال من این است: آیا می‌دانید هیچ فرمولی برای این وضعیت مقایسه میانگین زمانی که داده‌های سطح **فردی** (نه گروهی) نسبت هستند، قابل اجرا باشد؟ با تشکر فراوان برای خواندن. من قدردان هر توصیه یا مرجعی هستم.
اندازه نمونه برای آزمون t زمانی که نتیجه نقطه درصد باشد
106070
من مجموعه داده هایی از حضور نمایندگان کنگره و وضعیت آب و هوا در واشنگتن دی سی دارم. من می خواهم بررسی کنم که آیا بارندگی و تا چه حد با احتمال حضور یا غیبت اعضای کنگره ارتباط دارد. به عنوان مثال، کنگره 111 در 298 روز از 388 روز بین 1388/01/06 و 2010/01/29 برگزار شد. بارش در 187 روز از 388 روز ثبت شد. (من همچنین مقدار بارندگی، دما، فشار، اندازه گیری های آب و هوای زیادی را دارم) نماینده کنگره A 52 بار غایب بود. از این 52 مورد، 39 بار بارندگی وجود داشته است. و غیره برای هر کنگره. فرضیه صفر این خواهد بود که هیچ رابطه ای بین بارش و حضور وجود ندارد. من می خواهم نوعی تجسم ایجاد کنم. شاید هیستوگرام تعداد نمایندگان کنگره در محور y و... چیزی بیزی؟ با توجه به اینکه باران می بارد، احتمال غیبت آنها وجود دارد؟
یک استراتژی موثر برای ارتباط بین حضور در کنگره و میزان بارش چیست؟
4997
من از AIC (معیار اطلاعات Akaike) برای مقایسه مدل‌های غیرخطی در R استفاده می‌کنم. آیا مقایسه AIC در انواع مختلف مدل معتبر است؟ به طور خاص، من یک مدل برازش شده توسط glm را با یک مدل با یک اصطلاح اثر تصادفی برازش شده توسط glmer (lme4) مقایسه می‌کنم. اگر نه، آیا راهی برای چنین مقایسه ای وجود دارد؟ یا این ایده کاملاً بی اعتبار است؟
آیا AIC می تواند انواع مختلف مدل را مقایسه کند؟
3252
تجزیه و تحلیل داده های اکتشافی (EDA) اغلب منجر به کاوش در مسیرهای دیگری می شود که لزوماً به مجموعه اولیه فرضیه ها تعلق ندارند. من با چنین وضعیتی در مورد مطالعاتی با حجم نمونه محدود و داده های زیادی که از طریق پرسشنامه های مختلف جمع آوری شده اند (داده های جمعیت شناختی-اجتماعی، مقیاس های عصب روانشناختی یا پزشکی - به عنوان مثال، عملکرد ذهنی یا فیزیکی، سطح افسردگی/اضطراب، چک لیست علائم) مواجه هستم. ). این اتفاق می افتد که EDA به برجسته کردن برخی از روابط غیرمنتظره (غیرمنتظره به این معنی که در طرح تحلیل اولیه گنجانده نشده اند) کمک می کند که به سوالات/فرضیه اضافی تبدیل می شود. همانطور که در مورد بیش از حد برازش وجود دارد، لایروبی داده یا ردیابی منجر به نتایجی می شود که تعمیم نمی یابند. با این حال، زمانی که داده های زیادی در دسترس باشد، فرض کردن مجموعه محدودی از فرضیه ها (برای محقق یا پزشک) بسیار دشوار است. می‌خواهم بدانم که آیا روش‌ها، توصیه‌ها یا قوانین سرانگشتی شناخته شده‌ای وجود دارد که ممکن است به تعیین EDA در مورد مطالعات نمونه کوچک کمک کند.
چگونه می توان با تجزیه و تحلیل داده های اکتشافی و لایروبی داده ها در مطالعات نمونه کوچک کنار آمد؟
4991
من می خواهم (در R) مدل خطی دینامیکی بسیار ساده زیر را پیاده سازی کنم که برای آن 2 **پارامتر متغیر زمان ناشناخته ** دارم (واریانس خطای مشاهده $\epsilon^1_t$ و واریانس خطای حالت $\ epsilon^2_t$). $ \begin{matrix} Y_t & = & \theta_t + \epsilon^1_t\\\ \theta_{t+1} & = & \theta_{t}+\epsilon^2_t \end{matrix} $ می‌خواهم تخمین بزنم این پارامترها برای هر بار، **بدون هیچ گونه سوگیری از آینده**. با توجه به آنچه من درک می کنم، می توانم از یک MCMC (روی یک پنجره چرخان برای جلوگیری از تعصب به جلو) یا یک فیلتر ذرات (یا Sequencial Monte Carlo - SMC) استفاده کنم. **از کدام روش استفاده می کنید** و **مزایا و معایب این دو روش چیست؟** سوال جایزه: در این روش ها سرعت تغییر پارامترها را چگونه انتخاب می کنید؟ حدس می‌زنم که باید اطلاعاتی را در اینجا وارد کنیم، زیرا بین استفاده از داده‌های زیاد برای تخمین پارامترها و استفاده از داده‌های کمتر برای واکنش سریع‌تر به تغییر پارامتر اختلاف وجود دارد؟
برآورد پارامترهای یک مدل خطی پویا
41200
فرض کنید $X \sim N(\mu, \sigma^2)$. بعد از $n$ قرعه کشی های مستقل $\bar{X} \sim N(\mu, \frac{\sigma^{2}}{n})$. من فرض می کنم که هر قرعه کشی حاوی اعداد $n$ است؟ زیرا اگر هر قرعه کشی فقط یک عدد داشت، ما فقط یک میانگین خواهیم داشت.
توزیع نمونه گیری
70743
من می دانم که R ابزار بسیار قدرتمندی برای داده کاوی و ساخت مدل پیش بینی است. با این حال، استخراج معادله از هر نوع مدل سازی که انجام می دهم برایم دشوار است. به عنوان مثال، با استفاده از چیزی مانند: model <- lm(y~var1+var2+var3) برای داده کاوی، می توانم از چیزی شبیه به: analysis <- rpart(y~var1+var2+var3) برای درک داده های خود استفاده کنم. با این حال، خوب است اگر R قابلیت نمایش مدلی را که استفاده می‌کند، خطی یا چیز بسیار پیچیده‌تری را داشته باشد. برنامه ای به نام Eureka از Nutonian وجود دارد که می تواند داده ها را بگیرد و سعی کند معادله ای را در آن قرار دهد. آیا R قادر به انجام این کار است؟
تشخیص معادله از داده ها
106071
من از Matlab برای پیش بینی داده های سری زمانی با استفاده از الگوریتم ARIMA استفاده می کنم. من قادر به دریافت مقادیر پیش بینی شده هستم، اما نمی توانم مقادیر برازش را بدست بیاورم. منظور من این است. در R: مدل <- auto.arima(data)؛ پیش بینی شده <- forecast.Arima(model, h=36) forecasted$fitted «forecasted$fitted» داده هایی را می دهد که توسط داده های اصلی برازش شده است. الگوریتم ARIMA اما من نمی توانم چنین چیزی را در Matlab ببینم: مدل = arima (1,1,0). logL, info] = تخمین (مدل، داده) = پیش بینی (est, 10) به من 10 مقادیری را می دهد که Arima پیش بینی کرده است هر گونه کمکی قدردانی می شود.
مقادیر برازش برآورد شده در ARIMA را در Matlab دریافت کنید
86533
فرض کنید باید از یک pdf $\pi(x) = 3x^3+\frac{3}{4}x^2, 0 \le x \le 1$ نمونه برداری کنم. من می دانم که باید مقداری pdf $g(x)$ را انتخاب کنیم به طوری که $cg(x) \ge \pi(x)$ برای همه x. تنها چیزی که به ذهنم رسید استفاده از $g(x) = 1$ با $c = 3.75$ بود. بنابراین $cg(x) = 3.75$. هیچ توزیع بهتری به ذهن نمی رسد که نمونه برداری از آن آسان باشد. آیا این گزینه خوبی است؟ همچنین دو چیز مفهومی - چه چیزی یک توزیع را آسان می کند تا از آن نمونه برداری کنید؟ چرا می خواهیم c را تا حد امکان کوچک انتخاب کنیم. چرا از $c = 50$ استفاده نمی کنید؟ آیا این برای کارایی الگوریتم است؟ یعنی تعداد بیشتری از نمونه‌های به‌طور تصادفی از $cg(x)$ زیر منحنی $\pi(x)$ قرار می‌گیرند؟
نمونه گیری رد - انتخاب توزیع g(x).
41208
### وضعیت برخی از محققان دوست دارند شما را بخوابانند. بسته به پرتاب مخفی یک سکه منصفانه، آنها به طور خلاصه یا یک بار (سرها) یا دو بار (دم) شما را بیدار می کنند. بعد از هر بیدار شدن، دوباره شما را با دارویی می خوابانند که باعث می شود آن بیداری را فراموش کنید. وقتی بیدار می شوید، تا چه حد باید باور کنید که نتیجه پرتاب سکه هدز بوده است؟ _(خوب، شاید شما نمی خواهید سوژه این آزمایش باشید! در عوض، فرض کنید Sleeping Beauty (SB) با آن موافقت کرده است (البته با تایید کامل هیئت بررسی نهادی پادشاهی جادویی). او در شرف رفتن است. صد سال بخوابم، پس یک یا دو روز دیگر چیست؟)_ ![مکسفیلد پریش تصویر](http://i.stack.imgur.com/zLmrR.png) _[جزئیات تصویر مکسفیلد پریش.]_ ### آیا شما یک هالفر هستید یا یک سوم؟ ** موقعیت Halfer. ** ساده! سکه منصفانه است - و SB آن را می داند - بنابراین او باید باور داشته باشد که یک دوم شانس وجود دارد. **موقعیت سوم.** اگر این آزمایش بارها تکرار می‌شد، سکه تنها یک سوم دفعاتی که SB بیدار می‌شود سر خواهد داشت. احتمال او برای سر یک سوم خواهد بود. ### ثالث ها یک مشکل دارند اکثر، اما نه همه، افرادی که در این مورد نوشته اند، سومین هستند. اما: * یکشنبه غروب، درست قبل از اینکه اس بی به خواب برود، باید باور کند که شانس سرها نصف است: معنای سکه عادلانه این است. * هرگاه SB بیدار می شود، _ او مطلقاً چیزی را که نمی دانسته است، یاد نگرفته است. پس چه استدلال عقلانی می تواند ارائه دهد که بگوید اعتقاد او به سرها اکنون یک سوم است و نه یک دوم؟ ### برخی از توضیحات * اگر SB بخواهد روی هد با هر شانسی غیر از 1/3 شرط بندی کند، لزوماً ضرر می کند. (Vineberg, _inter alios_) * یک دوم واقعاً درست است: فقط از تفسیر اورتی «چند جهان‌ها» از مکانیک کوانتومی استفاده کنید! (لوئیس). * SB اعتقاد خود را بر اساس درک خود از موقعیت زمانی خود در جهان به روز می کند. (الگا، _i.a._) * SB گیج شده است: «[این] معقول تر به نظر می رسد که بگوییم وضعیت معرفتی او پس از بیدار شدن نباید شامل درجه مشخصی از اعتقاد به سرها باشد. ... مسئله واقعی این است که چگونه با نقص شناخته شده، اجتناب ناپذیر و شناختی برخورد می کنیم.» [Arntzenius] * * * ### سؤال حسابداری برای آنچه قبلاً در مورد این موضوع نوشته شده است (به منابع و همچنین پست قبلی مراجعه کنید)، چگونه می توان این تناقض را به روشی دقیق از نظر آماری حل کرد؟ آیا این حتی ممکن است؟ * * * ### مراجع Arntzenius, Frank (2002). _تأملاتی در مورد زیبای خفته_ تحلیل 62.1 ص 53-62. بردلی، دی جی (2010). _تأیید در جهان شاخه ای: تفسیر اورت و زیبای خفته_. بریتانیایی جی فیل. علمی 0 (2010)، 1-21. الگا، آدام (2000). باور خود مکان یابی و مشکل زیبای خفته تحلیل 60 ص 143-7. فرانچسکی، پل (2005). _زیبای خفته و مشکل کاهش جهان_. پیش چاپ. گرویسمن، بری (2007). _پایان کابوس زیبای خفته_. پیش چاپ. لوئیس، دی (2001). _زیبای خفته: پاسخ به الگا_. تحلیل 61.3 صص 171-6. پاپینو، دیوید و ویکتور دورا ویلا (2008). _یک سوم و یک اورتین: پاسخی به زیبای خفته کوانتومی لوئیس. پاست، جوئل (2008). _هورگان در مورد زیبای خفته_. Synthese 160 pp 97-101. واینبرگ، سوزان (بدون تاریخ، شاید 2003). _قصه هشدار دهنده زیبایی_.
پارادوکس زیبای خفته
3788
**1-** چگونه می توانم بررسی کنم که آیا مجموعه ای از داده ها را می توان به عنوان داده های IID در نظر گرفت؟ من چندان با آمار آشنا نیستم، اما حدس می‌زنم برای توزیع مستقل باید به اولین تاخیر خودهمبستگی نگاه کنم. هیچ ایده ای در مورد شرایط توزیع یکسان ندارید! **2-** گویا به اندازه کافی واضح نبودم! من در تلاش برای تشخیص نقاط پرت در یک سری از رکوردها هستم (سرعت جریان آشفته در یک رودخانه). من داده‌ها را به فضای موجک تبدیل می‌کنم و سپس موجک‌ها را روی یک آستانه خاص کوچک می‌کنم. از آنجایی که انحراف معیار بدترین گزینه به عنوان تخمینگر مقیاس است، من به دنبال برآوردگر جدیدی گشتم. Rousseeuw و Croux برآوردگرهای قوی جدیدی را برای اندازه گیری پراکندگی در متغیرهای تصادفی iid، Sn و Qn توسعه دادند. من نمی‌دانم که آیا ویژگی‌های خرابی بالایی که آنها از آن لذت می‌برند به پرونده سری زمانی نیز منتقل می‌شود یا خیر. از پاسخ داده شده توسط kwak، می توانم استنباط کنم که موجک ها از ویژگی توزیع مستقل پیروی نمی کنند. از آنجایی که پس از انقباض، مکان عناصر غیر صفر نشان دهنده مکان سنبله در سری زمانی اصلی است. آیا من حقیقت دارم؟ (در هم ریختن شاخص‌ها منجر به از دست دادن مکان سنبله‌ها می‌شود) اگر چنین است، برآوردگرهای مقیاس دیگر مانند انحراف مطلق میانه (MAD) در مورد سری‌های زمانی معتبر نیستند زیرا ما میانه را محاسبه می‌کنیم. در مورد الزامات فرضی توزیع یکسان چطور؟ **3-** خوب، اجازه دهید سوالم را به روشی ساده بپرسم: من می‌خواهم از برآوردگرهای مقیاس قوی Sn و Qn برای کوچک کردن یک سری موجک استفاده کنم. موجک ها از مشاهدات تجزیه بردارهای سرعت میدان جریان آشفته جمع آوری شده در نرخ نمونه برداری 1 هرتز به دست می آیند. اگر بتوان داده ها را به عنوان iid فرض کرد، به عنوان مثال. Qn دارای نقطه شکست 50% و بازده 82% است (توزیع گاوسی). سوال من این است که **خواص شکست بالایی که آنها از آن لذت می برند به مورد سری زمانی منتقل می شود یا خیر.** یا چگونه می توانم تایید کنم که موجک ها از ویژگی های iid پیروی می کنند.
چگونه می توان فرض IID را در یک مجموعه داده مشخص بررسی کرد؟
37566
اگر من برخی از داده ها را در تابع یک متغیر طبقه بندی در R رسم کنم، نمودار جعبه استاندارد را دریافت می کنم. با این حال، نمودار جعبه آمار ناپارامتریک (چندک) را نشان می دهد که برای داده های توزیع شده معمولی مناسب به نظر نمی رسد. معادل باکس پلات برای داده های توزیع شده معمولی چیست (در حالت ایده آل، چیزی بر اساس فواصل اطمینان؟)؟ چگونه می توانم این نمودارها را با R بدست بیاورم؟
معادل باکس پلات برای داده های توزیع شده عادی؟
86530
اگر مشکلی مانند زیر به من داده شود، چگونه می توانم بفهمم که آیا باید تست تی تست یا کای دو انجام دهم؟ تست $H_0: \sigma^2_X = \sigma^2_Y$ در برابر $H_1 را در نظر بگیرید: \sigma^2_X ≠ \sigma^2_Y$ از دو نمونه مستقل از جمعیت های عادی با میانگین های ناشناخته $\mu_X$ و $\mu_Y$ و استاندارد انحرافات $\sigma_X$ و $\sigma_Y$. دلارهای X$ عبارتند از 11.4، 9.7، 11.4، 13.3، 7.4، 8.5، 13.4، 17.4، 12.7. $Y$ها 3.2، 2.7، 5.5، -0.9، -1.8 هستند. مقدار آمار آزمون را بیابید. P.S.: من می دانم که چگونه chisq.test و t.test را زمانی که فقط یک فرضیه ($H_0$) دارم انجام دهم! وقتی بیش از یک فرضیه دارم چگونه باید اسکریپت R بنویسم تا مشکل فوق را انجام دهم؟ چند اسکریپت خوب خارجی مرتبط با R برای این سوال که می توانم برای دیدن نمونه مشابه پوشش دهم چیست؟ > X = c( 11.4، 9.7، 11.4، 13.3، 7.4، 8.5، 13.4، 17.4، 12.7) > Y = c(3.2، 2.7، 5.5، -0.9، -1.8) > ?t.test > t.test( X، Y) داده های آزمون t نمونه Welch Two: X و Y t = 5.9114، df = 8.306، p-value = 0.0003089 فرضیه جایگزین: تفاوت واقعی در میانگین برابر با 0 95 درصد فاصله اطمینان نیست: 6.092637 13.805141 برآورد نمونه: میانگین x میانگین از y 180.68 > 11.68. Y) خطا در chisq.test (X, Y): 'x' و 'y' باید طول یکسانی داشته باشند
آیا از آزمون کای دو یا آزمون t برای برابری واریانس ها استفاده می کنید؟
106075
من سعی کرده ام مجموعه ای از داده ها را به یکی از چهار کلاس طبقه بندی کنم. داده ها قبلاً تولید شده است و من 10000 برای آموزش و 2000 برای آزمایش کنار گذاشته ام. من همچنین برچسب هایی را برای هر یک از داده ها ایجاد کرده ام. بیایید کلاس ها را - 0،1،2 و 3 بنامیم. حالا وقتی طبقه بندی را مشاهده می کنم، متوجه می شوم که 0های زیادی در داده های آموزشی وجود دارد و از این رو در بیشتر موارد، طبقه بندی کننده فقط در حال یادگیری پیش بینی 0 بدون توجه به هر چیزی است. ویژگی ها هستند. (من از جنگل های تصادفی برای طبقه بندی استفاده می کنم) تولید مجدد داده ها برای اطمینان از یکنواختی، زمان زیادی می برد و ترجیح می دهم از آن اجتناب کنم. آیا هنوز هم می توانم از داده هایی که دارم استفاده کنم؟ پیشاپیش ممنون
چگونه از تعصب در داده ها خلاص شویم؟
86221
یک ورودی کوتاه در وب سایت نیویورک تایمز حقایق و ارقام مصرف پیتزا در ایالات متحده را ارائه می دهد. من به نحوه استفاده (یا سوءاستفاده) از آمار برای ارائه اطلاعات به مخاطبان عمومی علاقه دارم و چند سوال بر اساس آمار ارائه شده مطرح شده است: * اگر از هر 8 آمریکایی 1 نفر امروز پیتزا بخورد، آیا این بدان معناست که به طور متوسط ​​آمریکایی ها هر 8 روز یک بار پیتزا می خورند؟ در اینجا یک فرض وجود دارد که هر آمریکایی پیتزا می خورد، که اینطور نیست. با این حال، این سؤال را مطرح می کند که چگونه می توان یک فرض معتبر در مورد اینکه چه تعداد آمریکایی پیتزا می خورند، ایجاد کرد. * گزارش شده است که 25 درصد از کالری دریافتی کودک را پیتزا تشکیل می دهد. من کودکی را به عنوان یک کودک 9 ساله تعریف می کنم که فعالیت متوسطی دارد و بنابراین نیاز به دریافت روزانه 2000 کالری دارد. اگر به تخمین گوگل اعتماد کنیم که تعداد کالری در یک تکه پیتزا 285 است، آیا این نشان می‌دهد که یک کودک به طور متوسط ​​در هفته 12 برش پیتزا مصرف می‌کند؟ (2000 * 7 * 0.25 / 285) گمان می کنم تفسیر من از آمار ناقص است. به نظر من نمی‌توان گفت که یک کودک می‌تواند بخشی از 1 از 8 آمریکایی باشد که امروز پیتزا می‌خورند در حالی که تقریباً 1.7 برش در روز می‌خورند تا به عدد کالری دریافتی 25 درصد برسند.
آمار پیتزا برای توده ها
106079
من یک برش تصادفی و یک مدل شیب تصادفی را با استفاده از کد R زیر تخمین می زنم. متغیر وابسته و مستقل من هر دو پیوسته هستند. randominterceptfixedslope<-lmer(y ~ x + (1|state),data=data,method=ML) # مدل با شیب ثابت اما رهگیری تصادفی randominterceptrandomslope<-lmer(y ~ x + (1+x|state), data=data,method=ML) # مدل با شیب تصادفی و قطع تصادفی anova (تصادفی ثابت، شیب تصادفی تصادفی) Anova به من می گوید که مدل شیب تصادفی تصادفی من با داده ها سازگاری بهتری دارد. تا اینجا خوبه لطفا اگر اشتباه میکنم اصلاح کنید سوال من این است: اگر متغیر مستقل دیگری $x_1$ داشته باشم، آیا می توانم دو متغیر مستقل را در مدل بالا قرار دهم، یعنی آیا می توانم یک مدل تصادفی و تصادفی تصادفی با دو متغیر مستقل داشته باشم. اگر بله، چگونه این کار را انجام دهم؟ در مورد اینکه کد باید چگونه باشد؟ با تشکر از پاسخ شما. من یک سوال دوم دریافت کردم. بیایید بگوییم مدل کامل من این است: randominterceptrandomslope<-lmer(y ~ x1 + x2 + x3 + x4 (1+x1+x2+x3+x4|state),data=data,method=ML) اگر برخی از من متغیرهای مستقل همبسته هستند، روند کاهش مسئله همخطی در یک مدل اثر مختلط خطی چگونه است؟ من می‌توانم با استفاده از VIF هم‌سویی را تشخیص دهم و مهم‌ترین متغیرهای مستقل را حفظ کنم، اما می‌توانم این کار را برای هر سطح عامل (سطوح حالت) به صورت جداگانه انجام دهم. اما آیا منجر به حفظ برخی متغیرهای مستقل در یک سطح عامل و حذف همان متغیر در سطح عامل دیگر نمی شود؟ حدس می‌زنم سوال اصلی این است که چگونه می‌توان همخطی را در یک مدل جلوه ترکیبی تشخیص داد و وقتی 5 یا 6 متغیر مستقل دارید با آن چه باید کرد؟
مدل‌های اثر مختلط خطی با دو متغیر مستقل
37698
ما تعجب می کنیم که برای چه چیزی در قضیه لمان شفه به کفایت نیاز است؟ استدلال ما این بود: 1. اگر یک برآوردگر بی طرف با همه برآوردگرهای بی طرف 0 همبستگی نداشته باشد، UMVUE 2 است. اگر برآوردگر از یک خانواده کامل باشد، با همه برآوردگرهای بی طرف 0 3 همبستگی ندارد. بنابراین یک برآوردگر بی طرف از یک خانواده کامل UMVUE 4 است. UMVUE منحصر به فرد است بنابراین دقیقاً به چه چیزی نیاز است برای چرا کامل بودن کافی نیست؟ اگر کسی بتواند به اشکالات استدلال ما اشاره کند و توضیح دهد خوب است!
کفایت در Lehmann Scheffe
86535
من یک مجموعه داده اسباب‌بازی دارم و می‌خواهم AUC - ROC را با bootstrap set.seed(117) تست کنم <- c(rnorm(70, 40, 10), rnorm(30, 55, 10)) dx <- c(rep (0, 65), rep(1,35) ) df <- data.frame(cbind(test, dx)) r <- 1000 boot.f <- function(d, i){ data <- d[i,] p <- unlist(subset(data, data$dx==1)[test]) n <- unlist( زیرمجموعه (داده، داده$dx=0)[تست]) mean(نمونه(p، r، جایگزین=T) > نمونه (n، r، جایگزین=T)) } roc.boot<-boot(df, boot.f, r) roc.boot boot.ci(roc.boot, type=bca) به نظر می رسد که bootstrapping نیاز به دو نمونه برداری دارد (در `mean` و در `boot`) . آیا راه کارآمدتری وجود دارد؟ من می خواهم یک شی «بوت» به دست بیاورم، بنابراین ترجیح می دهم از تابع استفاده کنم.
بوت استرپ برای ارزیابی واریانس AUC ROC
99315
من می خواهم از caret برای مقایسه دو الگوریتم طبقه بندی مختلف استفاده کنم. به عنوان مثال SVM و شبکه الاستیک. من می‌خواهم چند نمونه را برای مجموعه آزمایشی کنار بگذارم و سپس از بقیه نمونه‌ها برای آموزش مدل استفاده کنم، که شامل تنظیم برخی پارامترها (مانند آلفا و لامبدا برای شبکه الاستیک) است که برای آن از اعتبارسنجی متقاطع نیز استفاده می‌کنم. اما زمانی که مدل را درست کردم، می‌خواهم عملکرد آن را در مجموعه آزمایشی محاسبه کنم (که برای تنظیم پارامتر استفاده نشده است). من می خواهم اعتبار سنجی متقاطع 10 برابری را برای محاسبه عملکرد هر روش انجام دهم (SVM در مقابل Enet). توجه داشته باشید که این اعتبارسنجی متقاطع باید در یک حلقه بیرونی از اعتبار متقاطع استفاده شده برای تنظیم پارامتر برای هر روش باشد. می خواستم بدانم آیا می توانم از Caret برای این کار استفاده کنم. در کد شبه داده شده توسط Caret (http://caret.r-forge.r-project.org/training.html) اولین حلقه (خط 2) برای هر مجموعه پارامتر است و حلقه بعدی (خط 3) برای هر تکرار نمونه برداری مجدد آیا می توان حلقه بیرونی دیگری مانند (خط 0: برای هر تکرار نمونه برداری مجدد) به این طرح اضافه کرد؟ * * * ویرایش: @topepo: بله، داده‌های محدودی داریم، بنابراین می‌خواهیم چندین مجموعه آزمایشی داشته باشیم. از 90 درصد داده ها برای آموزش استفاده کنید (از جمله تنظیم پارامترها) و سپس عملکرد را بر روی 10 درصد داده های باقی مانده محاسبه کنید. سپس این کار را 10 بار با پارتیشن بندی های مختلف داده ها تکرار کنید.
آموزش / اعتبارسنجی / مجموعه های تست در Caret
14079
مشکل من این است که داده های هفتگی سال های 2008، 2009 و 2010 را دارم اما تعداد هفته ها در هر یک از این سال ها یکسان نیست زیرا در ما (در دانمارک) هفته آخر سال 2009 را 53 کد می کنیم. این به این معنی است که من 52 هفته دارم. هفته‌ها در سال‌های 2008 و 2010، اما 53 هفته در سال 2009. آیا راهی وجود دارد که R این موضوع را درک کند و سری‌های زمانی را بر اساس آن رفتار کند. معمولاً می‌خواهم آن را به خوبی با ts، stl، و غیره ادغام کند. هر گونه راهنمایی یا اشاره‌ای در مورد این موضوع بسیار قدردانی خواهد شد.
مدل‌سازی سری‌های زمانی در R به صورت هفتگی طی چندین سال با تعداد هفته‌های متفاوت در هر سال
70746
آیا میانگین انحراف در مورد میانگین می تواند از انحراف استاندارد برای توزیع پارتو بیشتر شود؟ من فقط چند کتاب را مرور کردم و متوجه شدم که آنها ادعا می کنند که نمی تواند. چگونه می توانم این را ثابت کنم؟ منطق زیربنایی که این نتیجه را تایید می کند چیست؟
آیا میانگین انحراف در مورد میانگین می تواند از انحراف استاندارد برای توزیع پارتو بیشتر شود؟
14072
آیا کسی نمونه هایی از بسته بندی یک نرم افزار یادگیری تحت نظارت موجود برای خروجی مدل ها در قالب PMML می داند؟ یادگیرندگانی که فقط بردارهای برچسب‌گذاری شده اعداد را به عنوان داده‌های آموزشی می‌گیرند و مدل‌هایی را که تقریباً فقط بردارهای ضریب هستند (liblinear، SVMlight، BXRtrain، BOW و غیره) ارائه می‌کنند، مورد توجه خاص هستند. یعنی آنها هیچ هوشمندی در مورد انواع داده ها، محدوده مقادیر قانونی ویژگی ها و غیره ندارند: چیز دیگری برای مقابله با آن و ارائه بردارهای عددی مناسب به یادگیرنده فرض می شود. برای چنین نرم‌افزاری، اگر قرار است در مدل PMML که خروجی است نشان داده شود، باید همه چیزهای جالب فرهنگ لغت داده در کنار داده‌های ورودی ارائه شود. هیچ چیز از نظر مفهومی در این مورد دشوار نیست: چیزی که من کنجکاو هستم ببینم این است که آیا قراردادها، الگوهای طراحی و غیره وجود دارد که در جامعه PMML برای انجام این کار رشد کرده باشند. فهرست وب‌سایت PMML از نرم‌افزارهایی که در PMML مدل‌هایی را مصرف یا تولید می‌کنند، اما این بیشتر نرم‌افزار منبع بسته تجاری است. برنامه هایی با نسخه های منبع باز لیست شده در آنجا (Rapidminer و WEKA که می توانم آنها را ببینم) مجموعه های داده کاوی نسبتاً پیچیده ای هستند. چیزی که من می خواهم نمونه ای از آن را ببینم، یک بسته بندی مینیمالیستی از یک نوع یادگیرنده ساده پونی است.
نمونه هایی از بسته بندی نرم افزار یادگیری ماشین منبع باز در PMML؟
113458
با توجه به یک مدل یادگیری ماشینی که بر روی Sikit-Learn ساخته شده است، چگونه می‌توانم نمونه‌های جدید را طبقه‌بندی کنم اما سپس فقط مواردی را انتخاب کنم که بالاترین اطمینان را دارند؟ چگونه اعتماد را در یادگیری ماشین تعریف کنیم و چگونه آن را ایجاد کنیم (اگر به طور خودکار توسط scikit-learn ایجاد نشود)؟ اگر بیش از 2 کلاس بالقوه داشتم در این رویکرد چه چیزی را باید تغییر دهم؟ این کاری است که من تاکنون انجام داده‌ام: # بارگذاری کتابخانه‌ها از همسایه‌های import sklearn # مقداردهی اولیه طبقه‌بندی‌کننده NearestNeighbor knn = nears.KNeighborsClassifier(n_neighbors=3) # train model knn.fit([[1],[2],[3], [4]، [5]، [6]]، [0،0،0،1،1،1]) # پیش بینی ::: دریافت احتمالات کلاس print(knn.predict_proba(1.5)) print(knn.predict_proba(37)) print(knn.predict_proba(3.5))
الگوریتم های طبقه بندی که اطمینان را برمی گرداند؟
113459
آیا این قابل قبول است که تعاملات با مرتبه بالا (3 طرفه به بالا) در مدل زمانی که مورد علاقه نیستند و جزء فرضیه در حال آزمایش نیستند، در مدل گنجانده شوند؟ NB. من در مورد کاهش مدل صحبت نمی کنم زمانی که یک مدل کامل نصب شد و بعداً تعاملات بالاتر حذف شد. من از درج نکردن آنها در ابتدا سؤال می کنم، زیرا تأثیرات آنها جالب نیست و اغلب غیرقابل تفسیر است. به عنوان مثال، در شرایطی که پاسخ به عنوان تابعی از یک عامل تجربی و چندین متغیر کمکی مدل‌سازی می‌شود و داده‌ها فقط با توجه به عامل تجربی متعادل می‌شوند. من شنیدم که کسی استدلال می کند که قابل قبول است، و اگر چنین است، آیا به منبع معتبری اشاره می شود؟ تا آنجا که من متوجه شدم، این تا حدودی شبیه به ANCOVA است، که در آن متغیر کمکی به عنوان یک اصطلاح اثر اصلی گنجانده شده است، اما بخشی از یک تعامل نیست.
آیا این قابل قبول است که تعاملات با مرتبه بالا (3 طرفه به بالا) در مدل درج نشود، زمانی که آنها به خودی خود مورد علاقه نیستند؟
14076
من خوانده ام که ریشه واحد PP اغلب در اقتصاد استفاده می شود. آیا انجام هر دو تست (PP & ADF) معقول است یا تست PP کافی است؟
آزمایش ریشه واحد فیلیپس-پرون به جای آزمایش ADF؟
30511
من در حال تولید چند تست علیت گرنجر برای سری های زمانی مختلف هستم. من متوجه چیزی شده ام که عجیب به نظر می رسد. من سری های زمانی $A$ و $B$ دارم. حجم نمونه حدود 1500 عنصر در هر کدام است. $A$ و $B$ حدود 70% همبستگی بالایی دارند. وقتی آزمایش گرنجر 1، 2، یا 3 تاخیر را انجام می‌دهم، مقادیر p مانند 0.0000000000034 را دریافت می‌کنم. این خیلی کم به نظر می رسد - خوشحال می شوم اگر حدود 0.01 باشد. آیا چیز دیگری وجود دارد که باید در نظر بگیرم؟
چه چیزی باعث مقادیر بسیار کوچک p در آزمون علیت گرنجر می شود؟
99312
من باید از روش Lohr (2d Ed) برای محاسبه یک خطای استاندارد برای تخمین تولید شده از یک تخمین‌گر نسبت بر اساس یک نمونه طبقه‌بندی شده استفاده کنم. در بررسی مثال او در صفحه 145-146، متوجه شدم که کسر در مثال او بر خلاف نحوه نشان دادن آن در معادلات MSE خود در صفحه 144 محاسبه می شود. به طور خاص، در صفحه 144، کسر تخمین زده شده $x$ را به عنوان عدد دارد. ، و جمعیت $x$ در مخرج. اما در مثال خود او آنها را برعکس می کند. هیچ کدام از روش ها نتیجه مثال او را تولید نمی کنند. من سعی می کنم بفهمم کدام نسخه صحیح است. قدردان کمک هستم. (روش کوکران از کسر نمونه برداری به جای کسر pop و نمونه $x$ استفاده می کند).
محاسبه خطای استاندارد برای برآوردگر نسبت در یک نمونه طبقه بندی شده
373
از ویکی‌پدیا: > فرض کنید در یک نمایش بازی هستید و سه در به شما داده می‌شود: > پشت یک در یک ماشین است. پشت بقیه، بزها. شما یک در را انتخاب می کنید، بگویید No. > 1، و میزبان، که می داند پشت درها چه خبر است، در دیگری را باز می کند، می گوید > شماره 3، که یک بز دارد. سپس به شما می گوید: آیا می خواهید درب شماره > 2 را انتخاب کنید؟ آیا تغییر انتخاب به نفع شماست؟ پاسخ، البته، بله است - اما این فوق العاده غیر شهودی است. اکثر مردم چه سوء تفاهمی در مورد احتمال دارند که منجر به خاراندن سرمان می شود -- یا به عبارت بهتر. چه قانون کلی را می توانیم از این معما حذف کنیم تا شهود خود را در آینده بهتر تربیت کنیم؟
مشکل مونتی هال - کجای شهود ما ما را ناکام می کند؟
106073
من به عنوان بخشی از یک پروژه تحقیقاتی جدی و بیولوژیکی به حل مشکل زیر محول شده ام. فکر می‌کنم یک راه‌حل آزمایشی دارم، اما به این فکر می‌کنم که آیا رویکردی که انتخاب کرده‌ام بهترین است یا خیر. کمک / ورودی شما قدردانی خواهد شد. ما علائم حیاتی (V) ده آزمودنی را در حالی که از کوهی بالا و پایین می رفتند نظارت کردیم. از هر موضوع، تقریباً 100 نمونه برداشتیم، یک نمونه در هر دقیقه --- پنجاه نمونه زمانی که در بالای کوه بودند و پنجاه نمونه در پایین کوه. یک نمونه شامل اندازه گیری پنج علامت حیاتی آزمودنی (ضربان تنفس، ضربان قلب و غیره) بود. همراه با هر نمونه از علائم حیاتی، ما همچنین ثبت کردیم که آیا بیمار در بالای (T) یا در پایین (B) کوه قرار دارد. برای هر نمونه، ما استرس (S) را محاسبه کردیم، که در آن S تابعی از علائم حیاتی است، بنابراین S = f(V). (جزئیات محاسباتی f مرتبط نیستند.) 1000 نمونه از 10 موضوع گرفته شد که به موجب آن ما 1000 مقدار برای استرس داشتیم که هر کدام به یک قطعه اطلاعات دودویی (B یا T) جفت شده بودند. هدف از جمع‌آوری اطلاعات باینری، آزمایش طبقه‌بندی‌کننده باینری (که قبلا نوشته شده بود) است: براساس یک مقدار استرس، طبقه‌بندی کننده تصمیم می‌گیرد که آیا موضوع در بالای کوه باشد یا نه. با مقایسه این مقدار با مقدار باینری واقعی (بالا/پایین)، می‌توانیم یک ماتریس سردرگمی را پر کنیم. سپس به طور مکرر آستانه تمایز طبقه‌بندی‌کننده باینری را تغییر می‌دهیم تا در نهایت یک منحنی ROC بسازیم. این به ما ناحیه زیر منحنی (AUC) می دهد که برای ارزیابی کیفیت طبقه بندی کننده خود از آن استفاده می کنیم. این همان نتیجه نهایی است که ما به آن علاقه مندیم. سؤال مهم از همان ابتدا آشکار بود: با توجه به اینکه ما واقعاً فقط از 10 موضوع نمونه برداری می کنیم، قدرت آماری نتیجه نهایی ما (AUC) چقدر است؟ به طور دقیق تر، نمونه های ما به وضوح IID نیستند. ما از خود می پرسیم: تقریباً 1000 نمونه ما معادل چند نمونه IID است؟ ما به قدرت تست خود با 1000 نمونه غیر IID معادل تستی با نمونه IID $n$ و همان قدرت فکر کرده ایم. آیا روش آماری وجود دارد که به ما اجازه دهد $n$ را پیدا کنیم؟ این جهت کلی سوالی است که من سعی دارم به آن پاسخ دهم. راه حل آزمایشی من شامل استفاده از معادلات تخمین عمومی است. به نظر می رسد رویکرد مشابهی توسط نویسندگان مطالعه CLEPSYDRA اتخاذ شده است (در اینجا موجود است). استدلال من این است که ساختار کوواریانس نمونه ها اساسا ناشناخته است، که مشکلی است که GEE ها به من اجازه می دهند بر آن غلبه کنم. اما من مطمئن نیستم که آیا عوارض بیشتری وجود نخواهد داشت، به عنوان مثال آیا این واقعا ابزار مناسبی برای کار است یا اگر رویکرد ساده‌تری وجود ندارد. آیا روش ساده تری وجود دارد؟ آیا مسائل دیگری وجود دارد که استفاده از GEE آنها را حل نمی کند؟
قدرت آماری آزمون ROC/AUC با نمونه های غیر IID :: معادل چند نمونه IID نمونه های غیر IID من است؟
30513
من مقادیر بیان (log2) برای 200 ژن در دو شرایط تیمار شده و تیمار نشده و برای هر شرایط 20 تکرار دارم. مجموعه داده به این صورت است: Gene UT1 UT2 T1 T2 DDR1 8.111795978 7.7606511867 7.9362235824 7.5974674936 RFC2 10.2418824097 9.77485851111867 9.5723427524 HSPA6 6.5850239731 6.7916563534 6.6883401632 7.3659252344 PAX8 9.2965160827 9.203119629 9.20311729 8.667772504 GUCA1A 5.4828021059 5.3797749957 5.4312885508 5.1297319374 من فقط دو تکرار برای هر نمونه در داده های نمونه نشان داده ام. **چگونه می توانم شباهت بیان ژن را برای هر ژن در دو شرایط محاسبه کنم و آنها را از بالاترین به پایین ترین (از نظر شباهت) رتبه بندی کنم؟** دنبال راه حلی در R یا python هستم. تابع cor در R آنچه را که می خواهم به من نمی دهد.
چگونه می توان شباهت بیان ژن را برای هر ژن در دو شرایط محاسبه کرد و آنها را رتبه بندی کرد؟
97315
اخیرا در یک کارگاه احتمال شرکت کردم، سوال زیر از من پرسیده شد اما راهی برای حل آن پیدا نکردم. بحث در مورد این سوال می تواند به یادگیری چیز جدیدی کمک کند. به ما گفته شد که ما در یک نمایش بازی میهمان هستیم و نزدیک به کسب ثروت بزرگ هستیم. استاد مسابقه از ما می خواهد که یکی از سه در (بسته) را انتخاب کنیم. او توضیح می دهد که پشت یکی از آنها یک میلیون یورو در انتظار شماست. هنگامی که انتخاب خود را ثابت کردید، استاد مسابقه یکی از درهای دیگر را باز می کند و به شما نشان می دهد که این فقط یک بز بود. او آخرین فرصت را به شما می دهد: یا می توانید در را نگه دارید یا به در بسته باقی مانده تغییر دهید. > (i) بگویید در 3 باز است. چگونه می توانیم احتمال شرطی را محاسبه کنیم که درب ما برنده است با توجه به اینکه درب 3 شکست خورده است و مکمل آن است. > > (ii) نحوه محاسبه احتمال بدون قید و شرط که درب ما برنده > است و مکمل آن. پیشاپیش از شما متشکرم.
چگونه می توانم احتمال شرطی مورد زیر را محاسبه کنم؟
89713
من داده های زیر را دارم (فقط یک مثال کوچک در اینجا). من می خواهم تاثیر زمان و اکوتیپ بر ارتفاع را بدانم. `subdata <- id time اکوتیپ ارتفاع 1 17 a 73.692 1 22 a 213.010 1 25 a 343.700 1 28 a 663.030 109 32 a 1267.300 109 14 a 213.010 b 54 148.050 109 25 b 280.570 109 28 b 509.000 109 32 b 954.050 121 17 c 33.972 121 22 c 71.235 121 25 c 109.000 c 121. 121 32 c 452.740 133 17 d 38.365 133 22 d 84.068 133 25 d 137.560 133 28 d 255.390 133 32 d 7` d 426 (مدل 133 32 d <1 d 426 من مناسب است ~ ecotype*time + (time | id))` و اکنون می خواهم قدرت این تحلیل را بدانم تا این کار را انجام دهم از شبیه سازی 'time <- (subdata$time) ecotype <- as.factor(subdata$ecotype ) id <- subdata$id height=subdata$height` `m2 <- lmer(ارتفاع ~ اکوتیپ * زمان + (زمان| شناسه)، زیرداده) s2 <- simulate(m2) beta.hat=fixef(m2) se=sqrt(diag(vcov(m2)))` `k <- c() B=1000 tstar=rep(0,B) مجموعه. seed(781) for(b در 1:B) { ystar=drop(شبیه سازی(m2)) ostar=lmer(ystar$sim_1~ecotype +(time|id)) for(i در 2:19) { k <- append(k, ((fixef(ostar)[i]-beta.hat[i])/ sqrt(vcov(ostar)`[i,i]))) }}` مشکلی که دارم این است که نمی دانم چگونه یک مقدار p کلی را محاسبه کنم تا بگویم توان این مدل کم است یا بالا به طور معمول، نمونه های موجود در وب همیشه دارای متغیرهایی هستند (به عنوان مثال ecotype) با دو کلاس، بنابراین نتایج شبیه سازی همیشه یک مقدار تولید می کند. با این حال، در مورد من n تعداد اکوتیپ دارم، بنابراین بیش از یک خروجی دارم: fixef(ostar) (Intercept) ecotypea ecotypeb ecotypec ecotypec 78.98846 -22.39385 -37.27676 -38.66168 تنها چیزی که می توانم فکر کنم این است که همه اثرات را تخمین بزنم. رزومه را با هم مقایسه کنید و یک میانگین بدست آورید و آن را با یک آستانه (به عنوان مثال 0.05) مقایسه کنید. با این حال، من نمی دانم که آیا این درست است یا خیر. لطفاً می توانید این کار را به من بدهید لطفاً می توانید راهنمایی کنید که چگونه می توانم این کار را انجام دهم؟ با تشکر
مقایسه برازش ها در شبیه سازی برای تحلیل توان
38765
من یک نمودار پراکندگی با Hgb A1C به عنوان متغیر توضیحی (محور 'x') و FPG (محور 'y') به عنوان متغیر نتیجه دارم. یک رابطه خطی مثبت وجود دارد اما ضعیف است. 1 نقطه پرت در جهت y وجود دارد. 1 نقطه پرت در جهت x وجود دارد. هنگامی که هر یک از این نقاط حذف می شوند، r در جهت مخالف تغییر می کند. من سعی می کنم به زبان ساده توضیح دهم که چرا این اتفاق می افتد. آیا منطقی است که بگوییم: وقتی نقطه پرت در جهت y حذف شود، r افزایش می یابد زیرا نقطه پرت که معمولاً با فاصله ای دور از خط رگرسیون قرار می گیرد، اندازه ضریب همبستگی را کاهش می دهد. هنگامی که نقطه پرت در جهت x حذف می شود، r کاهش می یابد زیرا نقطه پرت که معمولاً نزدیک خط رگرسیون قرار می گیرد، اندازه ضریب همبستگی را افزایش می دهد. آیا این منطقی است؟
پرت علامت رابطه خطی را تغییر می دهد
38762
من در شناسایی یک مدل معادله ساختاری شکل‌دهنده با استفاده از AMOS مشکل دارم. آیا کسی پیشنهادی برای مقابله با مشکل شناسایی در مدل‌های اندازه‌گیری تکوینی دارد؟
مشکل شناسایی مدل تکوینی با استفاده از SEM
70744
مدل مورد انتظار این است: $$ Y = X1*X2*X3 $$ با گرفتن گزارش‌ها باید ضریب $1$ را در هر سه زمانی که پسرفت می‌کنیم بدست آوریم. یعنی: $$ \ln (Y) = b + b1 \ln(X1) + b2 \ln(X2) + b3 \ln(X3)، \\\ \text{می‌دهد: }b1 = b2 = b3 = 1 وقتی داده‌ها را برای همه متغیرها جمع‌آوری می‌کنیم و رگرسیون را اجرا می‌کنیم، اما ضرایبی برابر با 1$ دریافت می‌کنیم، چه دلایلی می‌تواند داشته باشد؟ تنها اطلاعاتی که بیش از آنچه قبلا ذکر شد این است که اندازه گیری Y از یک مجموعه داده جداگانه نسبت به سایر متغیرها می آید. هیچ خطای اندازه گیری وجود ندارد و این داده های مشاهده ای است. من حدس می زنم این بیشتر یک سوال تئوری باشد.
ضریب رگرسیون ضربی
76743
فرض کنید $\tau(\theta)=\theta e^{-\theta}$ را از $X_1,...,X_n \sim \mathrm{G}(\theta,r)$ تخمین می زنیم (G گاما است توزیع) سپس به راحتی نشان داده می شود که $T=\sum_{i=1}^n \ln(X_i)$ کافی است یا $\exp(T)$ نیز کافی است. من تعجب می کنم، آیا یک تابع پیوسته از یک آمار کافی نیز کافی است و اگر $T$ برای $\theta$ کافی است آیا برای $\tau(\theta)$ نیز کافی است؟
آمار کافی برای تابع پارامتر
70747
من یک مشکل مفهومی در مورد یک متغیر نرمال استاندارد (SNV)، X$ دارم. اگر $X \sim N(0, 1^2)$، تابع چگالی احتمال (pdf) به صورت $f(x) = \frac{1}{\sqrt{2\pi}} \exp(-) داده می‌شود. \frac{1}{2} x^2);\quad -\infty<x<\infty$ _**مشکل من :_** فهمیدم $f(x)$ همانطور که در بالا تعریف شد این احتمال را می دهد که SNV مقدار $X = x$ را می گیرد. بنابراین، $P(X=0)=f(0)$، و $f(0)= 0.398942$ که من می‌دانم بسیار زیاد است و فقط باید زیاد باشد زیرا اکثر مقادیر فرض شده توسط $X$ در حدود $0 خوشه می‌شوند. $. به طور مشابه، $f(-1) = f(1) = 0.241971$ و $f(-3) = f(3) = 0.004432$، اما، همانطور که من متوجه شدم، از آنجایی که $X$ یک متغیر پیوسته است، $P( X = 0)$ باید $1 / \infty = 0$ باشد. من در حال حاضر در مورد درک خود از مفهوم پی دی اف بسیار سردرگم هستم. آیا منحنی زنگوله ای به من نموداری از مقادیر فرض شده توسط متغیر تصادفی $X$ را در برابر احتمال مربوطه که $(X =x)$ می دهد، می دهد. من قادر به درک درست یا غلط بودن روند تفکر من نیستم.
PDF از توزیع نرمال و مقادیر احتمال
30512
من دو گروه شرکت کننده دارم. هر گروه شامل 30 کودک (15 دختر و 15 پسر) است. گروه اول از جمعیت کودکانی که تحت نوعی مراقبت قانون اساسی بزرگ شده اند، نمونه برداری شده است، در حالی که گروه دوم کودکانی را که در خانواده خود زندگی می کنند، نشان می دهد. من می خواهم مهارت های اجتماعی آنها را بسنجیم و نتایج دو گروه را با هم مقایسه کنم. اندازه گیری به این صورت انجام می شود: به هر کودک یک سری 12 تصویر ارائه می شود. از آنچه در مورد یک تصویر می گوید، من 5 مقدار درست/نادرست دریافت می کنم - هر مقدار نشان دهنده یک مهارت اجتماعی است. درست به این معنی است که کودک در مواجهه با آن تصویر مهارت اجتماعی خاص خود را ثابت کرده است و نادرست به این معنی است که این کار را نکرده است. به این ترتیب، من برای هر فرزند 12 $\times $ 5 = 60 مقدار true/false دریافت می کنم. بنابراین برای تجسم داده‌هایم، چیزی شبیه این $$ \begin{array} & & \mbox{Ch}_1 & \mbox{Ch}_2 & ... & \mbox{Ch}_{30} & \mbox دارم. {Ch}_{31} & ... & \mbox{Ch}_{60} \\\ \mbox{Skill}_1 & 12 & 11 & ... & 10 & 11 & ... & 11 \\\ \mbox{مهارت}_2 و 9 و 10 و ... و 8 و 10 و ... و 12 \\\ \mbox{مهارت}_3 و 10 و 10 و ... و 9 و 11 و . .. & 10 \\\ \mbox{مهارت}_4 و 7 و 7 و ... و 8 و 7 و ... و 7 \\\ \mbox{مهارت}_5 و 5 & ​​6 & ... & 5 & 5 & ... & 6 \\\ \end{آرایه} $$ جایی که ورودی $[i,j]$ نشان دهنده تعدادی از مقادیر $true$ در لیست نتایج است. برای $i$-th مهارت اجتماعی و $j$-th فرزند. کودکان 1 تا 30 سال از گروه اول و کودکان 31 تا 60 سال از گروه دوم هستند. حال می‌خواهم برای هر یک از 5 مهارت اجتماعی، ارزیابی کنم که آیا این دو گروه از کودکان امتیاز مساوی گرفتند یا از نظر آماری تفاوت معنی‌داری وجود داشت. از آنچه از منابع مختلف گردآوری کردم (مثلاً این)، به نظر می رسد که دو آزمون قابل استفاده برای من، آزمون فیشر یا آزمون من ویتنی باشد. بنابراین سوال من اساسا این است: ** چه نوع آزمونی برای داده ها و هدف داده شده مناسب است؟**
چگونه دو گروه را در مقیاس مهارت های اجتماعی که شامل 5 خرده مقیاس است که هر خرده مقیاس عددی از 12 صحیح است، مقایسه کنیم؟
89710
من باید بدانم چگونه از ماشین حساب استرالیایی برای بدست آوردن اندازه نمونه خود استفاده کنم. به من دستور داده شد که تحقیقاتم را با استفاده از ماشین حساب استرالیایی انجام دهم، اما معنی آن را نمی دانم.
ماشین حساب استرالیایی چیست؟
99313
من داده های پانل دارم و علاقه مند به تغییرات در کل هزینه ها هستم. من می خواهم یک رویکرد متغیر ابزاری را برای مقابله با یک رگرسیون درون زا در نظر بگیرم - کشش کوتاه مدت درآمد، با 3 سال تاخیر. دو راه برای انجام این کار وجود دارد: 1. می توانم کشش را با استفاده از تمام سال ها محاسبه کنم و سپس یک تحلیل مقطعی انجام دهم. 2. من می توانم کشش را با استفاده از میانگین متحرک پنج سال گذشته محاسبه کنم و سپس آن را با هزینه های زمان _t_ \+ 3 مقایسه کنم. با این حال، این باعث می شود که ابزار در طول زمان همبستگی داشته باشد. من فکر نمی‌کنم این محدودیت‌های حذف را در مورد من نقض کند، اما نمی‌دانم که آیا این فرضیات دیگر، مانند تصادفی بودن را نقض می‌کند.
آیا می توانید از میانگین متحرک به عنوان یک متغیر ابزاری استفاده کنید؟
113451
من سعی می‌کنم مدلی را با تابع «glmer» (بسته «lmer4» 1.1-7) در R با استفاده از REML تطبیق دهم، اما فقط یک خطا دریافت می‌کنم که می‌گوید «آگومان(های) اضافی «REML» نادیده گرفته شد» (به زیر مراجعه کنید). چگونه می توانم آن را با REML تطبیق دهم تا ساختار افکت های تصادفی را با این بسته بهینه کنم؟ a1<-glmer(Infected~(1|River),family=binomial,data=covertfrag,REML=FALSE) پیام هشدار: آرگومان(های) اضافی REML نادیده گرفته شد
R lme4 1.1-7: REML=FALSE خطای آگومان(های) اضافی REML نادیده گرفته شد
102982
من منطقه ای دارم که به شبکه ها تقسیم شده است. من به دنبال روشی هستم تا از نظر آماری تعیین کنم که آیا وقوع حوادث مجرمانه برای دو دوره زمانی برابر است یا خیر. من دو مجموعه داده با دوره های مساوی و مکان های شبکه دارم. مقادیر هدف فقط به یک دوره زمانی خاص اختصاص داده می شود. TARGET = 0 -> بدون حادثه، TARGET = 1 -> حادثه **دوره زمانی 08:00-16:00** روز، XCOR، YCOR، TARGET 1، 1، 1، 0 1، 1، 2، 0 2، 1، 1، 0 2، 1، 2، 0 **دوره زمانی 16:00-24:00** روز، XCOR، YCOR, TARGET 1, 1, 1, 1 1, 1, 2, 0 2, 1, 1, 0 2, 1, 2, 1 من به دنبال روشی آماری برای تایید/آزمایش در صورت وقوع حادثه هستم هر دو دوره زمانی مکانی متفاوت است؟ اما، چگونه می توانم این کار را انجام دهم؟ هر گونه راهنمایی، پیوند یا توصیه بسیار قدردانی می شود
آزمون آماری تفاوت فضایی حوادث
44498
من این کار را به روش واضح انجام دادم و دوستم با ایده بهتری برگشت. آیا می توانید در مورد هر دو قضاوت یا بهبود ببخشید؟ روش من: > سینسیناتی بنگالز و کلیولند براونز هر دو روز یکشنبه برای > اولین بار در 46 هفته پیروز شدند (ESPN می گوید). خیلی غیرممکن به نظر می رسید... > > 46 خیلی زیاد است. اگر هفته های خداحافظی، شب های MNF، بازی های رودررو > و غیره را در نظر بگیریم، 31 هفته به دست می آوریم که هر کدام شانس برنده شدن داشتند. > > اکنون می توانیم رکوردهای مربوطه آنها را از سال 2009 (CLE: 11-31، CIN: 18-24) > برای محاسبه احتمال برد برای هر هفته معین برداریم. این یک احتمال > 11% می دهد که هر دو در یک هفته برنده شوند (فرض استقلال). > > پس...احتمال این خشکسالی 31 هفته ای؟ 2.5% ... از نظر آماری > معنی دار اما زمین لرزان نیست. به عنوان مرجع، اگر این تیم ها شانس برنده شدن در هر هفته معین را داشتند، احتمال آن به 0.01٪ کاهش می یافت! پاسخ دوست من: > مرد این تامل برانگیزترین پستی است که تا به حال خوانده ام... اکنون 30 > دقیقه را صرف فکر کردن در مورد آن کرده ام. به هر حال… من احتمالاً در حال حاضر خودم را یک احمق جلوه می دهم، اما مطمئن نیستم که فرض استقلال درست باشد. من فکر می کنم یک راه دقیق تر برای فکر کردن در مورد این مشکل، مشکل jar > و توپ کلاسیک است. بنابراین اگر از بازی‌های سر به سر و بازی‌های mnf و همه اینها صرف نظر کنیم، بنگال‌ها و قهوه‌ای‌ها 42 بازی انجام داده‌اند. حالا بیایید ابتدا > 11 برد قهوه ای ها را در شیشه های جداگانه قرار دهیم. بنابراین اگر اکنون 18 برد > توسط بنگال ها را یکی یکی در کوزه ها قرار دهیم، احتمال 31/42 وجود دارد که > اولین برد به شیشه ای با برد قهوه ای ختم نشود... دومی دارای > است. احتمال 30/41 (از آنجایی که گزینه ای برای پایان دادن به همان > jar با برد قبلی بنگال ندارد) ... سومی شانس 29/40 دارد که تمام نشود بالا > در یک کوزه با یک بنگال برنده ... و غیره. اگر اینطور فکر کنیم، احتمال اینکه یک بنگال برنده شود و براون ها برنده شوند، بعد از اینکه 18 برد بنگال و 11 برد قهوه ای همه در شیشه ها قرار گرفتند، به همان شیشه ختم نمی شود ~.058٪ است. > > به هر حال...فقط متوجه شدم که ممکن است روش کمی دقیق تر برای فکر کردن در مورد آن باشد، زیرا احتمال اینکه دو تیم با درصد برنده ای بالاتر از 0.500 برنده باشند، در یک آخر هفته در مدت زمانی که هر دو بالاتر از > 0.5 بودند، برنده شوند. 0٪ است ... فکر می کنم. همه اینها منطقی است به جز این احساس شهودی که بازی ها رویدادهای مستقلی بودند (با فرض اینکه هیچ یک از تیم ها به دیگری فکر نمی کردند). حق با کیست؟ با تشکر
این احتمال وجود دارد که 2 تیم OH NFL 31 هفته بدون برد در همان روز بگذرند
38764
فرض کنید $X_1$ و $X_2$ نرمال دو متغیره هستند و اجازه دهید $|X|_{(1)}$ و $|X|_{(2)}$ نسخه مرتب شده قدر مطلق آنها باشد. من در یافتن احتمالات زیر یا برخی از مرزهای آن جالب هستم. \begin{align*} Pr(|X|_{(1)} <c_1, |X|_{(2)} <c_2) \end{align*} and \begin{align*} Pr(|X_1| < c_1, |X|_{(1)} <c_2) \end{align*} آیا هر کسی که با این آشنا باشد می‌تواند راهنمایی یا برخی ارجاع دهد؟ خیلی ممنون. هانا
آمار ترتیب قدر مطلق توزیع نرمال دو متغیره
73879
مجموعه ای از نمرات امتحان نهایی در یک درس به طور معمول با میانگین 73 و انحراف معیار 8 توزیع می شود. 1. احتمال گرفتن نمره زیر 91 در آزمون چقدر است؟ 2. احتمال اینکه دانش آموزی بین 65 تا 89 نمره بگیرد چقدر است؟ 3. اگر استاد در یک منحنی نمره می دهد (به 10 درصد برتر کلاس، بدون توجه به نمره، نمره A می دهد)، بهتر است در این امتحان نمره 81 داشته باشید یا در یک امتحان دیگر نمره 68 را کسب کنید. میانگین 62 و انحراف معیار 3 است؟ توضیح دهید چرا.
سوالات احتمالی برای آمار
89711
در آزمایشم، من این فرضیه را مطرح کردم که افراد در یک شرایط درمانی مقادیر بالاتری را در مقیاس لیکرت نسبت به افراد در شرایط درمانی دیگر ارائه می دهند. این یک فرضیه یک طرفه بود. هیستوگرام ها و نمودارهای Q نشان می دهند که داده های من در جهتی که برای اولین شرایط درمانی تصور می کنم، منحرف شده است - یعنی همه در اطراف مقادیر بالاتر در مقیاس لیکرت جمع می شوند. این مورد، دوباره همانطور که انتظار می رود، در شرایط درمانی دوم وجود ندارد. با وجود اینکه من این را پیش بینی کردم، آیا این کج هنوز بد است؟ آیا در این شرایط باید همیشه از آزمون های غیر پارامتری استفاده کنم (نتایج آزمون های پارامتریک و ناپارامتریک یکسان است - فقط می خواهم مطمئن شوم که از تست های درست استفاده می کنم!). هر گونه کمکی واقعاً با سپاس دریافت می شود! با تشکر
آیا کج بودن همیشه بد است؟
102987
با توجه به یک نمونه X به اندازه n از توزیع نرمال $N(\mu,\sigma)$ می توان $\sigma$ را با $\hat{\sigma}$ از X تخمین زد. سپس می دانیم که: $p(\sigma |\hat{\sigma},n)\propto\hat{\sigma}\sqrt{\frac{n-1}{\chi^2(\nu=n-1)}}$ اکنون من به دنبال تابع درستنمایی: $p(\hat{\sigma}|\sigma,n)$. آیا راه حل تحلیلی برای این موضوع وجود دارد یا لازم است تابع احتمال از شبیه سازی مورد به مورد استخراج شود؟ آیا کسی می تواند به من در این رابطه کمک کند؟ یا بهتر است به مرجعی اشاره کنید که قبلاً از این رابطه استفاده شده است؟
با توجه به توزیع نرمال شناخته شده، احتمال انحراف معیار مشاهده شده چقدر است؟
70741
من در حال خواندن مقاله ای هستم که نسبت های خطر را برای متغیرهای پیوسته نشان می دهد، اما مطمئن نیستم که چگونه مقادیر داده شده را تفسیر کنم. درک فعلی من از نسبت های خطر این است که این عدد نشان دهنده احتمال نسبی [رویداد] با توجه به برخی شرایط است. به عنوان مثال: اگر نسبت خطر مرگ ناشی از سرطان ریه در اثر سیگار کشیدن (یک رویداد دوتایی) 2 باشد، احتمال مرگ افراد سیگاری در دوره زمانی تحت نظارت دو برابر بیشتر از افراد غیر سیگاری است. با نگاهی به ویکی‌پدیا، تفسیر متغیرهای پیوسته این است که نسبت خطر برای یک واحد تفاوت اعمال می‌شود. این برای من برای متغیرهای ترتیبی منطقی است (مثلاً تعداد سیگارهای مصرف شده در روز)، اما نمی دانم چگونه این مفهوم را برای متغیرهای پیوسته به کار ببرم (مثلاً گرم نیکوتین مصرف شده در روز؟)
چگونه یک نسبت خطر را از یک متغیر پیوسته - واحد تفاوت تفسیر کنیم؟
103163
من در تحلیل سری های زمانی تازه کار هستم. من حتی مطمئن نیستم که آیا این حتی یک مشکل TS است یا خیر. من به پست‌های TS دیگر نگاه کرده‌ام، اما برای ترجمه پاسخ‌ها به نیازهایم مشکل دارم. در حال حاضر من برای تعریف روشی که چگونه مشکل خود را حل کنم، به کمک کمک می خواهم. برای آینده امیدوارم بتوانم به تنهایی ماهیگیری کنم. بنابراین، کمک گرفتن با نمونه‌ای از کدهای R، نکاتی در مورد کتاب‌های درسی برای بررسی، و ایده‌هایی در مورد چگونگی تفسیر نتایج حاصل از تجزیه و تحلیل پیشنهادی، عالی خواهد بود. مشکل اینجاست که من هنوز اطلاعاتی ندارم. بنابراین این چیزی است که من انتظار دارم. امیدوارم که این منطقی باشد. من سعی می‌کنم این را انتزاعی‌تر نگه دارم، زیرا تمایل دارم بیش از حد کاربردی باشم و دوست دارم نظریه را بهتر درک کنم. من انتظار دارم دو سری زمانی A و B داشته باشیم. A و B مرتبط هستند. A باعث B می شود، اما در یک ارتباط ناشناخته و با کمی تاخیر. از نظر بصری، من انتظار دارم یک نمایه برای A و B ببینم که به نظر شبیه هستند، اما به طور قابل توجهی از یکدیگر فاصله دارند. امیدوارم تعداد قله ها مشابه باشد. با این حال، جدای از تاخیر، من انتظار دارم تفاوت های زیادی بین ارتفاع قله، عرض قله، سطح زیر قله (با فرض نرمال شدن) و غیره وجود داشته باشد. من انتظار دارم که تفاوت ها ترکیبی از اثرات سیستماتیک و تصادفی باشد. من باید A را فقط از پروفایل های B پیش بینی کنم. برای چندین مکان من یک راه اندازی آزمایشی با حداقل 10 جفت پروفایل A خواهم داشت. من تقریباً 5 گروه از 5 پروفایل B برای یک پروفایل A خواهم داشت. من انتظار دارم از اطلاعاتی که از این تحلیل به دست می‌آورم برای اعمال مجموعه‌ای از پروفایل‌های B و پیش‌بینی گذشته‌نگر پروفایل‌های A استفاده کنم. یک رویکرد خوب برای پیش‌بینی نمایه‌های A از نمایه B چیست؟ آیا ادبیات کاربردی که به فرآیندهای طبیعی یعنی زمین شناسی می پردازد تا به این مشکل کمک کند؟ هر فکر دیگری؟ متشکرم، بوریس
پیش بینی یک سری زمانی از سری دیگر در صورت مرتبط بودن - الگوریتم در R
18511
من در حال مقایسه سه GLM نسبتا ساده با توزیع گاما با AIC و BIC هستم. هدف شناسایی اثرات کودها (fdung)، سال و محل بر روی زیست توده یک گونه علف خاص است. از این رو، هدف پیش‌بینی مقادیر جدید نیست، بلکه صرفاً شناسایی تأثیرات سه عامل است. مدل‌های مورد استفاده در اینجا آمده است: res1 <- glm((Biomass..g.m².) ~ fdung * fyear * fblock, family=Gamma(link=identity)) res2 <- glm((Biomass..g.m² .) ~ fdung * fyear + fblock, family=Gamma(link=identity)) res3 <- glm((Biomass..g.m².) ~ fdung + fyear + fblock, family=Gamma(link=identity)) من انتظار دارم مدل سوم ساده‌ترین مدل باشد و می‌خواهم این را با یک معیار اطلاعات تأیید کنم. با این حال، وقتی به AIC و BIC نگاه می کنم، این خروجی را دریافت می کنم. AIC(res1,res2,res3) BIC(result1,res2,res3) df AIC df BIC res1 49 5271.617 res1 49 5465.198 res2 16 5334.234 res2 16 5397.41033353 5370.760 برای AIC، پیچیده ترین مدل بهترین و برای BIC مدلی با کمترین df بهترین است. من به این فکر می کنم که با توجه به هدفم (تشخیص اثرات روی زیست توده) باید به BIC اعتماد کنم. آیا من در اینجا با نتیجه گیری اشتباه می کنم؟ من قبلاً مدل‌های جلوه‌های ترکیبی را با fblock به عنوان فاکتور تصادفی امتحان کردم، اما سپس مدل با توزیع گاما دیگر کار نکرد و همچنین نمی‌توانم دیگر از fblock به عنوان جلوه ثابت استفاده کنم (منتهی به NA برای fblock)، اما این بخشی نیست. از سوال من
چرا AIC و BIC خروجی های معکوس را نشان می دهند؟
68793
من سعی می کنم یک برنامه درسی ریاضی خودراهبر را برای آماده شدن برای یادگیری داده کاوی و یادگیری ماشین جمع آوری کنم. این انگیزه با شروع کلاس یادگیری ماشین Andrew Ng در Coursera و احساس این است که قبل از ادامه کار باید مهارت های ریاضی خود را بهبود بخشم. من مدتی پیش از کالج فارغ التحصیل شدم، بنابراین جبر و آمارم (مخصوصاً از کلاس های علوم سیاسی/روانشناسی) زنگ زده است. پاسخ های موجود در تاپیک آیا پیشینه قوی در ریاضیات برای ML لازم است؟ فقط کتاب‌ها یا کلاس‌هایی را پیشنهاد دهید که مستقیماً با یادگیری ماشین مرتبط هستند. من قبلاً به برخی از آن کلاس‌ها و کتاب‌ها نگاه کرده‌ام و نمی‌دانم دقیقاً چه موضوعی را باید مطالعه کنم (به عنوان مثال: چه رشته‌ای از آدرس ریاضی معادله ای را برای به حداقل رساندن تابع هزینه استخراج می کند؟). موضوع دیگر پیشنهاد شده (مهارت ها و دوره های آموزشی مورد نیاز برای تحلیلگر داده ها) تنها به دسته های گسترده ای از مهارت های مورد نیاز برای تجزیه و تحلیل داده ها اشاره می کند. موضوع مقدمه آمار برای ریاضیدانان کاربرد ندارد زیرا من قبلاً مدرک ریاضی ندارم. رشته مشابهی ریاضیدان دانشی معادل مدرک آماری با کیفیت می‌خواهد، فهرستی باورنکردنی از کتاب‌های آماری دارد، اما دوباره، من به دنبال شروع ریاضی از یک خاطره زنگ‌زده از جبر و حرکت از آنجا هستم. بنابراین، برای کسانی که در یادگیری ماشین و داده کاوی کار می کنند، _ چه رشته هایی از ریاضی را برای انجام کار خود ضروری می دانید؟ _ چه دروس ریاضی را برای آماده شدن برای داده کاوی و یادگیری ماشین پیشنهاد می کنید و به چه ترتیبی؟ این لیست و ترتیبی است که تا کنون دارم: * جبر * پیش حساب * حساب دیفرانسیل و انتگرال * جبر خطی * احتمال * آمار (زیر فیلدهای مختلف در اینجا وجود دارد، اما نمی دانم چگونه آنها را جدا کنم) در مورد داده کاوی و یادگیری ماشینی، از طریق شغل فعلی‌ام به سوابق مربوط به فعالیت وب‌سایت/برنامه، تراکنش‌های مشتری/اشتراک، و داده‌های املاک و مستغلات (اعم از استاتیک و سری زمانی) دسترسی دارم. من امیدوارم که داده کاوی و یادگیری ماشین را در این مجموعه داده ها اعمال کنم. متشکرم ویرایش: به خاطر آیندگان، می‌خواستم یک خودارزیابی ریاضی مفید برای کلاس مقدماتی یادگیری ماشین جفری گوردون/الکس اسمولا در CMU به اشتراک بگذارم.
چه دروس ریاضی را برای آماده شدن برای داده کاوی و یادگیری ماشین پیشنهاد می کنید؟
70748
این یک سوال تمرین امتحانی برای کلاس آمار سال اول من است و من فقط می خواهم ببینم آیا به درستی به این مشکل برخورد کرده ام و درک خود را روشن کنم. سوال کامل اینجاست: یک استاد در حال تصمیم گیری است که آیا امتحان آمار پایان ترم را در صبح (9 صبح) یا بعد از ظهر (2 بعد از ظهر) برنامه ریزی کند. او مطمئن نیست که سطح توجه در بعد از ظهر کمتر یا بیشتر از صبح است. برای آزمایش این موضوع، او گروهی از 20 دانش آموز را انتخاب می کند و آنها را در معرض یک کار روانی قرار می دهد. در این کار به طور تصادفی در مدت 20 دقیقه خاکستر می شود و سوژه باید یک دکمه را در مدت زمان مشخصی از خاکستر شدن نور فشار دهد. عدم واکنش به نور چشمک زن را «لپس» می گویند. هر چه وقفه بیشتر باشد توجه دانش آموز ضعیف تر است. به دانش‌آموزان در ساعت 9 صبح (صبح) و دوباره در ساعت 2 بعد از ظهر (بعد از ظهر) تکلیف داده شد و تعداد لغزش‌های هر دانش‌آموز در R به شرح زیر ثبت می‌شود: AM = c(1،5،4،2،6،6، 7 , 11,5,3,4,5,8,3,4,5,7,7,4,5) بعد از ظهر = c(4,5,5,8,9,10,12,15,4,8,6,6,9,5,9,8,7,8,7,6) (الف) یک عدد تهی مناسب و فرضیه جایگزین، بیان هر پارامتر استفاده شده. (ب) یک آمار آزمون مناسب برای آزمون این فرضیه و توزیع صفر این آمار آزمون، بیان و بررسی هر گونه فرضیات مورد نیاز بیان کنید. (ج) آمار آزمون انتخاب شده در (ب)، p-value مربوطه را محاسبه کرده و نتیجه گیری مناسب را تشکیل دهید. (د) یک فاصله اطمینان مناسب را محاسبه کنید و یک تفسیر رسمی ارائه دهید. * * * **پاسخ من به این سوال اینجاست: ** (الف) فرضیه صفر من این است که هیچ تفاوتی در میانگین تعداد لغزش برای صبح و بعد از ظهر وجود ندارد. یعنی $H_{0}: U_{d} = 0 $ فرضیه جایگزین این است که تفاوت بزرگتر از 0 است. یعنی $H_{1}: U_{d} > 0 $ پارامتر مورد علاقه، تفاوت میانگین جمعیت است (در واقع من کاملاً متوجه نمی‌شوم که سؤال اینجا چیست - وقتی می‌گوید پارامترهای استفاده شده را بیان کنید؟) (ب) فرض من این است که تفاوت‌ها مستقل هستند و به طور یکسان توزیع شده‌اند و نرمال هستند متغیرهای تصادفی به عنوان مثال: $D_{i} \sim \mathcal{N}(U_{d}، \sigma^2)،\mathrm{iid} $ پس از بررسی توزیع در R - طبیعی به نظر می‌رسد. آمار آزمون استفاده شده این است: $ t = \frac{\bar{D}-U_{d}}{S_{d}\sqrt(n)} $ که $n$ تعداد جفت‌ها است، $\bar{D }$ میانگین تفاوت‌های نمونه، $S_{d}$ انحراف معیار تفاوت‌ها، و $U_{d}$ میانگین تفاوت‌های جمعیت است. همچنین فرض بر این است که توزیع صفر آماره آزمون نرمال است. (ج) با محاسبه داده ها در R، من $\bar{D} = -2.45$، $S_{d} = 1.959$، $n=20$ دارم. بنابراین آمار آزمون مشاهده شده عبارت است از: t_{obs} = \frac{-2.45-0}{1.959\sqrt(20)} \approx -5.5917 $ با استفاده از سطح معناداری 5٪، مقدار بحرانی $t^* است. = $ `qt(0.95,19)` $\حدود 1.729133$ از -5.5917 $ < -1.729133$، فرضیه صفر را رد می کنیم و نتیجه می گیریم که شواهدی وجود دارد که نشان می دهد وقفه های کمتری (توجه بهتر) در دانش آموزان در AM وجود دارد. (آیا درست است که مقدار بحرانی را در اینجا منفی بگیرم؟) مقدار p مربوطه $\تقریباً 1.079061\times 10^{-5}$ (`pt(-5.5917,19) در R) است. بسیار کوچکتر از 0.05 دلار است، ما فرضیه صفر را رد می کنیم. (د) در نهایت، به دنبال یک فاصله اطمینان 95٪ - مشاهده می کنم که فرضیه جایگزین $(H_{1}: U_{d} > 0)$ یک طرفه است، بنابراین یک فاصله اطمینان یک طرفه استفاده می شود. کران پایینی CI یک طرفه است: $\bar{D}-t^{*}\frac{S_{d}}{\sqrt{n}} = -2.45 - 1.729133\frac{1.959457}{\sqrt {20}} \approx -3.207616002$ بنابراین 95% CI برابر است با $(-3.207616002، \infty)$ زیرا -5.5917$ خارج از این بازه است - بنابراین نتیجه می‌گیرم که تفاوت قابل توجهی در سطح توجه دانش‌آموز بین AM و PM وجود دارد (به ویژه اینکه در AM بهتر است). آیا من در اینجا در منطق خود خطایی کرده ام و آیا محاسبات منطقی است؟ با تشکر فراوان فقط می خواهم مطمئن شوم که در مسیر درست هستم!
آیا استفاده از آزمون t زوجی برای این سوال صحیح است؟
103162
آزمون مک‌نمار نمونه‌ای خاص از آزمون علامت دوجمله‌ای است، اما آزمون علامت (وانیل) به دلیل نادیده گرفتن تفاوت‌های برابر با صفر، از سوگیری رنج می‌برد. آمار آزمون مک‌نمار به صورت زیر ارائه می‌شود: $\chi^{2} = \frac{\left(|r-s|-1\right)^{2}}{r+s}$، که در آن $r$ و $s$ هستند تعداد جفت‌های ناسازگار (0،1) در مقابل (1،0)، $\chi^{2}$ را با 1 درجه آزادی تحت فرضیه صفر توزیع کردند. من در تجزیه و تحلیل Sribney در آزمون نشانه مشکل دارم: > آمار آزمون برای آزمون نشانه، عدد $n_{+}$ مشاهدات > بزرگتر از صفر است. با فرض اینکه احتمال اینکه یک مشاهده > برابر با صفر باشد دقیقاً صفر است، در این صورت، تحت فرض صفر، $n_{+} \sim > \text{دوجمله‌ای}(n, p=\frac{1}{2}) $، که $n$ تعداد کل > مشاهدات است. اما اگر تعدادی مشاهدات صفر داشته باشیم چه کار می کنیم؟ > > **اصل تصادفی سازی فیشر** > > اگر آزمون را از منظر اصل تصادفی سازی فیشر ببینیم، پاسخی آماده برای این سؤال داریم (فیشر 1935). ایده فیشر (به روشی مدرن بیان شد) این بود که به خانواده ای از تبدیل داده های مشاهده شده نگاه کند به طوری که احتمال پیشینی (تحت فرضیه صفر) داده های تبدیل شده با احتمال مشاهده شده یکسان باشد. داده ها سپس توزیع آمار آزمون با محاسبه مقدار آن برای هر یک از مجموعه‌های داده «تصادفی‌سازی» تبدیل‌شده، > با در نظر گرفتن هر مجموعه داده‌ای به یک اندازه محتمل، تولید می‌شود. > > برای آزمون نشانه، داده ها به سادگی مجموعه ای از نشانه های مشاهدات هستند. تحت فرض صفر آزمون علامت، $P(X_{i}>0)= > P(X_{i}<0)$، بنابراین می‌توانیم علائم مشاهده‌شده را با برگرداندن هر عدد > از آنها و مجموعه نشانه ها نیز همین احتمال را خواهند داشت. تغییرات علامت احتمالی $2^{n}$ > خانواده مجموعه داده‌های تصادفی‌سازی را تشکیل می‌دهند. اگر > هیچ صفر نداشته باشیم، این روش دوباره به $n_{+} \sim \text{Binomial}(n, > p=\frac{1}{2})$ می‌رسد. > > اگر صفر داشته باشیم، تغییر علائم آنها آنها را صفر می کند. بنابراین اگر $n_{0}$ صفرها را مشاهده کنیم، هر یک از مجموعه داده‌های تغییر علامت $2^{n}$ نیز > $n_{0}$ صفر خواهد داشت. بنابراین، مقادیر $n_{+}$ محاسبه‌شده روی مجموعه داده‌های sign- > تغییر از 0 تا $n-n_{0}$ متغیر است، و توزیع «تصادفی» > $n_{+}$، $n_ است. {+} \sim \text{دو جمله‌ای}(n-n_{0}، > p=\frac{1}{2})$. زیرا به نظر می رسد این می گوید ادامه دهید و صفرها را نادیده بگیرید. اما بعداً در مقاله، Sribney تنظیمی را برای آزمون علامت-رتبه ارائه می دهد که صفرها را دقیقاً در امتداد خطوطی که من در مورد آنها تعجب می کنم، محاسبه می کند: > تعدیل برای صفرها تغییر در واریانس زمانی است که رتبه های > صفرها امضا می شوند. برای ایجاد $r_{j}=0$; به عنوان مثال، واریانس با > $\frac{1}{4}\sum_{i=1}^{n-{0}}{i^{2}}=n_{0}\frac{\left( n_{0}+1\right)\left(2n_{0}+1\right)}{24}$. آیا در عوض باید بپرسم که آیا آزمون رتبه امضا شده را برای داده‌های کنترل موردی که به‌صورت جداگانه تطبیق داده‌اند اعمال کنم یا خیر؟ یک مثال ساده ساخته شده نشان می دهد که چرا نادیده گرفتن صفرها مشکل ایجاد می کند. تصور کنید داده‌ها را بدون هیچ تفاوتی برابر با صفر جفت کرده‌اید (این با داده‌های آزمایش مک‌نمار که فقط جفت‌های ناسازگار وجود دارد مطابقت دارد). با حجم نمونه مثلاً 20، 15 علامت مثبت تفاوت و 5 علامت منفی تفاوت را پیدا می کنید و تفاوت معنادار را نتیجه می گیرید. حالا تصور کنید که 1000 تفاوت مشاهده شده برابر با صفر علاوه بر آن 15 علامت مثبت و 5 علامت منفی تفاوت ها دارید: حالا نتیجه می گیرید که تفاوت معنی دار نیست. اگر آزمون مک نمار روی 1020 جفت که 1000 جفت آنها صفر هستند و با جفت های 15 و 5 ناسازگار انجام شود، نباید فرضیه صفر را رد کنیم (مثلاً در $\alpha = 0.05 $). برای تصحیح تفاوت‌های صفر مشاهده‌شده بر اساس «اصل تصادفی‌سازی» فیشر (سریبنی، 1995)، تنظیمی برای آزمون علامت وجود دارد. آیا راهی برای بهبود آزمون مک نمار وجود دارد که به تأثیر تفاوت‌های صفر مشاهده‌شده (یعنی با محاسبه تعداد جفت‌های همخوان نسبت به تعداد جفت‌های ناسازگار) بپردازد؟ چگونه؟ در مورد تقریب _z_ مجانبی برای آزمون علامت چطور؟ **مراجع** Sribney WM. (1995) تصحیح پیوندها و صفرها در آزمون های علامت و رتبه. _بولتن فنی Stata_. 26:2-4.
آیا می توان آزمون مک نمار را با تنظیم صفرهایی مانند تست علامت بهبود بخشید؟
105243
من در حال ادامه تحصیل در مقطع دکتری هستم. من با آخرین هدف تحقیق گیر کرده ام. در مورد کاوش در ارتباط هویت برند و تصویر برند صحبت می کند. حجم نمونه برای اندازه گیری تصویر برند (پاسخ دهندگان مشتری): 1200 (3 بخش با 4 برند؛ کل برندها 12؛ حجم نمونه هر برند 100) حجم نمونه برای اندازه گیری هویت برند (مدیران برند پاسخ دهندگان): 48 (3 بخش با هر کدام 4 مارک; آیا ابزار آماری را برای اندازه‌گیری ارتباط هویت برند و تصویر برند اعمال می‌کنم (اندازه نمونه برای هر دو نهاد نابرابر است؛ پاسخ‌های تصویر برند سابق (پاسخ‌های مشتری) برای برند لوکس=100 و پاسخ‌های هویت برند (پاسخ‌های مدیران برند) برای برند لوکس = 4)؟
از کدام ابزار آماری برای اندازه گیری ارتباط هویت برند و تصویر برند استفاده کنم؟
103168
من می‌خواهم عملکرد الگوریتمی را ارزیابی کنم که یاد می‌گیرد با توجه به ورودی‌های پر سر و صدا، یک PDF مجزا را برای یک متغیر پنهان تقریبی کند. حال آیا آزمون استانداردی برای ارزیابی خوب بودن آن تقریب وجود دارد؟ من می‌خواهم الگوریتم را با داده‌های مصنوعی آموزش دهم و سپس ببینم این تقریب به PDF چقدر نزدیک است و می‌توانم با دانستن نحوه تولید داده‌ها محاسبه کنم. من به محاسبه واگرایی Kullback-Leibler فکر کردم، اما * نمی دانم چه مقدار خوبی است. واگرایی KL به دست آوردن اطلاعات است، بنابراین می توانم استدلال کنم که به عنوان مثال. از دست دادن فقط <= 5٪ از کل اطلاعات هنگام استفاده از تقریب خوب است؟ * چگونه می توانم واگرایی های KL از آزمایش های متعدد را با ورودی های مختلف ترکیب کنم؟ آیا می توانم میانگین بگیرم؟ با توجه به اینکه همه PDF های محاسبه شده را می توان به عنوان یک پی دی اف روی یک متغیر پنهان چند بعدی مشاهده کرد، فکر می کنم ممکن است.
حسن تناسب تقریبی یک PDF
103165
رگرسیون چند متغیره را با پیش‌بینی‌کننده‌های تصادفی در نظر بگیرید که در تکنیک‌های آماری چند متغیره مدرن Izenman توضیح داده شده است، یعنی $X: r \times 1$ و $Y: s \times 1$ به طور مشترک با بردارهای میانگین مربوطه $\mu_X$ و $ توزیع می‌شوند. \mu_Y$ و ماتریس کوواریانس مشترک دارند $$\left( \begin{array}{cc} \Sigma_{XX} & \Sigma{XY} \\\ \Sigma_{YX} & \Sigma_{YY} \end{array} \right)$$ در مشکل رگرسیون عمومی، ما با ماتریس کوواریانس $(Y|X=x)$ نگران هستیم که $\Sigma_{YY} است - \Sigma_{XY}^T \Sigma_{XX}^{-1}\Sigma_{XY}$. با این حال، سوال من این است: در یک تنظیم داده واقعی، آیا ما انتظار داریم که پاسخ $Y$ ما تا حدودی نامرتبط باشد؟ یعنی، آیا ما انتظار داریم که $\Sigma_{YY}$ ماتریس هویت باشد یا آیا همبستگی حاشیه ای بین پاسخ ها وجود دارد؟ من نظر خودم را در این مورد دارم اما علاقه مند به یک دیدگاه جدید هستم. مثال‌ها یا حکایت‌های ساده در مورد تجربه خودتان با این داده‌ها بسیار قدردانی می‌شود.
پاسخ های حاشیه ای ناهمبسته در رگرسیون چند متغیره
47310
من ممکن است چیزی اساسی را از دست بدهم - اما به نظر می رسد که قانون قوی اعداد بزرگ قانون ضعیف را پوشش می دهد. اگر چنین است، چرا قانون ضعیف مورد نیاز است؟ با تشکر لیران
قانون ضعیف اعداد بزرگ - زائد؟
89717
فرض کنید من یک مجموعه داده ترکیبی و چند متغیره دارم که غلظت عناصر مختلف را به تصویر می کشد. با این حال، داده ها در یک مقیاس در دسترس نیستند. به عنوان مثال، برخی به شکل 0.00x هستند در حالی که برخی دیگر اعداد صحیح هستند. آیا باید قبل از اعمال هر نوع تکنیک نرمال سازی/استانداردسازی را اعمال کنم، یا باید قبل از اعمال تبدیل ها (نسبت لاگ ایزومتریک [ilr]، نسبت ثبت مرکزی [clr] و غیره) کاری با داده ها انجام دهم و داده ها را شروع کنم. تجزیه و تحلیل، تعیین مقدار از دست رفته با استفاده از روش های قوی، PCA قوی و خوشه بندی داده ها؟ برخی از نکات برای درک تجزیه و تحلیل داده های ترکیبی نیز مورد استقبال قرار می گیرند. [به روز رسانی] برای مثال: دو بردار را در نظر بگیرید: [ 0.016، 71.2، 0.123، 1.74، 14.0، 0.002، 2310، 0.064، 0.29، 0.32،5.63، 96.5، 1.4، 96.5، 1.4، 0.0. 0.052، 62.9، 4.45، 1110، 1.50، 15.10، 783، 0.015، 78.9، 5.61، 0.007، 0.022، 0.007، 0.53، 29.3، 0.53، 29.3، 3. 2.77، 17.4، 0.039، 2460، 0.145، 0.85، 0.99، 20.40، 359.0 0.062، 4040، 1530، 148، 0.113، 218.11، 218.0، 0.110، 1. 4.56، 880، 0.069، 230.0، 12.20، 0.028، 0.025، 0.013، 9.92، 34.1] این دو نشان دهنده غلظت عناصر مختلف در نمونه های خاک جمع آوری شده از دو موقعیت مختلف هستند. اگر بخواهم آنها را با استفاده از روش‌های قوی تجزیه و تحلیل کنم، آیا باید آنها را به هر شکلی استاندارد / نرمال‌سازی از قبل پردازش کنم، یا باید آنها را به سادگی به هندسه آیچیسون تبدیل کنم و تحلیل خود را شروع کنم؟
تجزیه و تحلیل داده های چند متغیره داده های ترکیبی
74382
من سعی می کنم فرآیند آزمایش آماری برای تجزیه و تحلیل مؤلفه های اصلی یا حداقل مربعات جزئی را درک کنم. **مرحله 1. PCA:** من احساس می‌کنم که درک بدی از PCA دارم: شما بیضی توصیف شده توسط ماتریس کوواریانس داده‌ها را پیدا می‌کنید، و سپس به‌طور متوالی بزرگ‌ترین محور تغییرات را می‌گیرید (مولفه 1). سپس دومین بزرگ (جزء اصلی 2) و غیره. اگر بیضی بلند و کشیده باشد، آنگاه تغییرات بیشتر در امتداد اولین جزء اصلی (بردار ویژه مربوط به بزرگترین مقدار ویژه بیضی) است. اگر بیضی یک دیسک مسطح باشد، آنگاه تغییرات در داده ها با دو جزء اصلی و غیره به خوبی توضیح داده می شود. من همچنین می فهمم که پس از انتخاب استفاده از (مثلا) فقط دو جزء اصلی اول، سپس همه داده ها امتیازها را می توان بر روی یک نمودار امتیازها ترسیم کرد که برای هر نقطه داده $D^{(i)}$، پیش بینی $D^{(i)}$ را در صفحه ای که توسط دو نقطه اول پخش می شود نشان می دهد. اجزای اصلی به همین ترتیب، برای نمودار بارگذاری (فکر می کنم) شما مولفه های اصلی اول و دوم را به صورت ترکیب خطی متغیرهای ورودی می نویسید و سپس برای هر متغیر ضرایبی را که به مؤلفه های اصلی اول و دوم کمک می کند رسم کنید. **مرحله 2. PLS یا PLS-DA:** اگر برچسب هایی روی داده ها وجود دارد (مثلاً کلاس های دودویی)، سپس یک مدل رگرسیون خطی بسازید تا از مؤلفه های اصلی اول و دوم برای تمایز کلاس 0 (برای نقطه داده $) استفاده کنید. i$، یعنی $Y^{(i)}=0$) از کلاس 1 (برای نقطه داده $i$، این به معنای $Y^{(i)}=1$) است که ابتدا همه را نشان می دهد داده‌ها فقط در صفحه‌ای قرار می‌گیرند که توسط مؤلفه‌های اصلی اول و دوم در بر می‌گیرد و سپس داده‌های ورودی پیش‌بینی‌شده X_1'، X_2'$ به $Y$ را رگرسیون می‌کند. این رگرسیون را می توان به عنوان (گام اول) تبدیل افین (یعنی تبدیل خطی + بایاس) که در امتداد $PC_1، PC_2$ (مولفه های اصلی اول و دوم) پروژه می کند و سپس (مرحله دوم) تبدیل افین دوم که $ را پیش بینی می کند، نوشت. Y$ از $PC_1، PC_2$. این تبدیل‌ها با هم $Y \approx Affine(Affine(X))$ را می‌توان به صورت یک تبدیل آفین منفرد $Y \حدود C (A X + B) + D = E X + F$ نوشت. **مرحله 3. آزمایش متغیرها از $X$ برای اهمیت در پیش‌بینی کلاس $Y$:** اینجاست که می‌توانم از کمک استفاده کنم (مگر اینکه از قبل دور شده باشم، در این صورت به من بگویید!). چگونه می‌توانید آزمایش کنید که آیا یک متغیر ورودی (یعنی مشخصه‌ای که هنوز روی اجزای اصلی (فوق‌العاده) نمایش داده نشده است یا خیر)، و تصمیم می‌گیرید که آیا ضریب آماری معنی‌داری در رگرسیون $Y \تقریبا E X + F$ دارد یا خیر؟ از نظر کیفی، ضریبی در $E$ که از صفر دورتر است (یعنی مقادیر مثبت و منفی با بزرگی زیاد) سهم بزرگتری از آن متغیر را نشان می‌دهد. به یاد دارم که برای داده‌های توزیع شده نرمال (برای آزمایش اینکه آیا ضرایب صفر هستند) آزمون‌های t رگرسیون خطی را دیدم. آیا این رویکرد استاندارد است؟ در آن صورت، حدس می‌زنم که متغیری از $X$ به یک توزیع تقریباً نرمال در مرحله 0 (یعنی قبل از انجام هر یک از این مراحل دیگر) تبدیل شده است. در غیر این صورت، می‌توانستم انجام آزمایش جایگشت را ببینم (با اجرای کل این روش هزاران بار و هر بار جایگشت $Y$ برای به هم زدن برچسب‌ها، و سپس مقایسه هر ضریب منفرد در $E$ از تجزیه و تحلیل غیرآشفته به توزیع ضرایب از تجزیه و تحلیل های مخلوط شده). آیا می توانید به من کمک کنید تا ببینم کجای شهودم از کار می افتد؟ من سعی کرده‌ام با استفاده از رویه‌های مشابه، مقالاتی را بررسی کنم تا ببینم چه کار کرده‌اند، و همانطور که اغلب اتفاق می‌افتد، آنها مانند گل و لای شفاف هستند. من در حال آماده کردن یک آموزش برای برخی از محققان دیگر هستم و می خواهم یک کار خوب انجام دهم.
PCA و PLS: متغیرهای آزمایش برای اهمیت
103167
برای هر سال، به مدت هشت سال، مجموعه ای از پروژه ها (n=332) دارم. تعداد پروژه هایی که در هر سال وجود دارد متفاوت است (مثلاً برخی از سال ها 10 پروژه وجود دارد و برخی دیگر 60 پروژه هستند). در هر سال پروژه ها بر اساس امتیاز یا تایید می شوند یا تایید نمی شوند. من می‌خواهم میانگین پروژه‌های تایید شده و تایید نشده را برای هر سال مقایسه کنم و همچنین امتیاز پروژه‌های تایید شده و تایید نشده را در طول زمان مقایسه کنم. ANOVA اندازه گیری های مکرر با کنتراست به من اجازه می دهد این کار را انجام دهم، اما چون پروژه ها هر سال یکسان نیستند، معتقدم این آزمون درستی نیست. افکار؟ همچنین نمرات مورد استفاده برای تایید یا عدم تایید یک پروژه، مجموع چندین امتیاز فرعی است. من می خواهم انحرافات استاندارد را در مورد امتیاز پروژه برای هر دو پروژه تایید شده و تایید نشده و در طول زمان مقایسه کنم. PS یک مدل ترکیبی است، پروژه‌ها در سال‌های آینده در STATA همگرا نمی‌شوند
ANOVA اندازه گیری های مکرر - داده های غیر تجربی
109897
من با یک مجموعه داده ریزآرایه کار می کنم که در آن دسته ها زمان درمان کاملاً مخدوش هستند، یعنی زمان t1 همه در دسته های b1 و b2 است، و زمان t2 همه در دسته های b3، b4 و b5 است. می دانم که این بدان معناست که نمی توانم در طول زمان به دنبال بیان تفاضلی باشم. با این حال، ما نمونه‌های بافت اصلی و گزینه‌ای برای استخراج مجدد/فرآوری مجدد برخی از نمونه‌ها در یک دسته جدید داریم. با توجه به حجم مطالعه، اجرای مجدد تمامی نمونه ها با طرح تصادفی مناسب خارج از بحث است. آیا مطالعه‌ای وجود دارد که نحوه اجرای مجدد یک زیرمجموعه کوچک از نمونه‌ها را برای امکان مقایسه آماری معتبر بین نقاط زمانی توضیح دهد؟ یا کسی راهنمایی داره؟ به عنوان مثال، آیا می توانم 10 نمونه را از هر نقطه زمانی در یک دسته جدید دوباره پردازش کنم - آیا این کافی است؟ در اینجا تفکیک نمونه با درمان‌ها/متغیرهای کمکی مربوطه است - می‌توانید ببینید که نقاط زمانی t1 و t2 کاملاً با دسته‌ای اشتباه گرفته می‌شوند، در حالی که نقاط زمانی t2 و t3 اینطور نیستند. من همچنین متغیر کمکی دیگری را که می‌خواهیم در نظر بگیریم، قومیت، و تعداد نمونه‌ها در هر گروه اضافه کردم: نقطه زمانی دسته‌ای قومیت Num_Samples b1 t1 A 21 b1 t1 B 54 b2 t1 A 20 b2 t1 b 56 b3 t2 a 10 b3 t2 b 35 b4 t2 B 49 b5 t2 A 28 b5 t2 B 4 اگر ما آیا نمونه‌ها را مجدداً پردازش می‌کنم، آیا باید از حضور یکسان دو قومیت در دسته جدید اطمینان حاصل کنم؟
اثرات دسته‌ای بی‌پایه در مجموعه داده ریزآرایه - آیا می‌توانم طراحی مجدد آزمایش جزئی انجام دهم؟
103292
من مجموعه داده های بزرگی دارم (بیش از 1000 obs) و در حال انجام تست های رگرسیون، خطی و لجستیک، روی یک سری از نتایج بالینی هستم. در این تست، من تأثیر برهمکنش بین دو متغیر گربه را با ایجاد یک متغیر تعامل ساختگی با دو متغیر متصل به یک بررسی می‌کنم (که R با استفاده از تابع ()interaction انجام می‌شود). در معادله متغیرهای دیگری نیز برای تنظیم وجود دارد. پس از هر آزمون، من یک پس‌هک انجام می‌دهم تا بررسی کنم که آیا بین هر سطح از این متغیر تعاملی تفاوت وجود دارد یا خیر. آزمایش از طریق glht() بسته multcomp در R انجام می‌شود. من معتقدم، (100٪ مطمئن نیستم) که post hoc با استفاده از روش Tukey انجام می‌شود. البته استفاده از رویه پس از آن، اهمیت خود را از دست می دهم. اغلب به نظر می رسد که نتایجی که در آزمون رگرسیون معنی دار بودند، معنی دار نمی شوند. خوب است من همیشه فکر می کنم که p<0.05 آستانه بسیار کم عمقی است، به خصوص زمانی که اعداد زیادی مانند من دارید. حتی گاهی اوقات این اتفاق می افتد که برخی از اثرات مرتبط بین سطوح که در رگرسیون نشان داده نشده اند، در حالت post hoc قابل مشاهده می شوند و این چیز خوبی است. بنابراین سوال من این است که وقتی یک تحلیل رگرسیون را با استفاده از Tukey انجام می‌دهید و با این اعداد زیاد، همچنان راحت‌تر می‌توانید خطای نوع 1 ایجاد کنید و هیچ نتیجه واقعی یا خطای نوع 2 را قبول نکنید، زیرا خیلی سخت است. داده ها و از دست دادن نتایج جالب؟ یا دانستن آن غیرممکن است؟ (احتمالا این پاسخ صحیح است) با تشکر!
آزمون تعقیبی پس از رگرسیون لجستیک با تعامل. خطر بالاتر برای خطای نوع 1 یا نوع 2؟
74384
آیا کسی معیاری را می شناسد که **_مرکزیت_موضوع_** یا چسبندگی موضوع را اندازه گیری کند (من دیده ام که شخصی از این اصطلاح نیز استفاده کرده است). برای مثال _خوشه 1_ $d_1$ = {a, b, c }, $d_2$ = {b, c, d } و _Cluster 2_ $d_3$ = {a, b, c }, $d_4$ = {d, e , f } چگونه می توانیم یک مقدار عددی را محاسبه کنیم که به ما می گوید خوشه 1 بهتر از خوشه 2 است. در این مورد حدس می زنم بتوانیم اندازه گیری کنیم ** خلوص خوشه** با محاسبه شباهت زوجی اسناد در خوشه. با این حال، اگر خوشه ها بزرگ باشند (شامل اسناد زیادی باشند) از نظر محاسباتی گران می شود. آیا معیار دیگری برای این مورد استفاده می شود؟
مرکزیت موضوع را اندازه گیری کنید
103295
من در حال توسعه یک مدل نیمه مارکوف پنهان چپ-راست هستم. در مدل چپ-راست، دنباله ای از حالت های $M$ در حالت 1 شروع می شود و در حالت M به پایان می رسد، بدون تکرار حالت ها. از آنجایی که مدل نیمه مارکوفی است، انتقال خود $a_{ii}=0$ مجاز نیست. من فکر می کنم آخرین ردیف ماتریس باید 0 باشد، اما قانون $\sum_{j}a_{ij}=1$ است. چگونه می توانم این مشکل را حل کنم؟
ماتریس انتقال در مدل نیمه مارکوف پنهان چپ به راست
71542
من روی مدل درخت تصمیم کار می کنم و یک مقدار در متغیر وابسته (Churn) بسیار کمتر است. ما 1.5 رکورد lac داریم و فقط 1700 رکورد Churn = 1 دارند. در حالی که از مدل درخت تصمیم استفاده می کنیم، درخت ایجاد نمی شود، کیفیت مدل خوب است اما نمی تواند پیش بینی کند که انحراف کجا باید 1 باشد. لطفاً اگر مورد دیگری است به ما اطلاع دهید. مدل می تواند برای مقابله با مشکل استفاده شود. من از رگرسیون لجستیک استفاده کردم اما نتایج مشابهی گرفتم. مدل قادر به پیش‌بینی ریزش =1 در حین اعتبارسنجی نیست.
استفاده از درختان تصمیم با نتایج بسیار نادر
103298
من در حال حاضر در حال بررسی مقاله ای هستم که در آن نویسندگان آمار توزیع را ارائه کردند که به نظر من اشتباه است. اما من نمی توانم راهی برای تشخیص آن پیدا کنم. این مقاله نتایج را با میانگین 95% و انحراف معیار 25% ارائه کرد. حداکثر مقدار نمی تواند بیش از 100٪ و مقدار حداقل نمی تواند کمتر از 0٪ باشد. من شماره نمونه را ندارم من سعی کردم اعداد تصادفی lognormal را با این آمار بدون موفقیت تولید کنم: # R Code require(Runuran) d1 <- urlnorm(n = 1000, meanlog = log(95), sdlog = log(25), lb = 0, ub = 100) چگونه می توانم این نتیجه را با هر توزیعی تعمیم دهم؟
آمار توزیع غیر ممکن است؟
85840
من یک مقاله رایگان جذاب در مورد اینکه چرا اکثر یافته های تحقیقات منتشر شده ممکن است نادرست باشند، خواندم. من می توانم تقریباً به طور کامل دنبال کنم، به جز یک قسمت کوچک. در آن، نویسنده، Ioannidis، می نویسد اجازه دهید R نسبت تعداد «روابط واقعی» به «بدون رابطه» در میان آنهایی باشد که در این زمینه مورد آزمایش قرار گرفتند. ... احتمال صحت یک رابطه قبل از مطالعه R⁄(R + 1) است. چرا «P(T)=R/(1+R)» است؟ او در همان پاراگراف می نویسد: اجازه دهید برای سادگی محاسباتی، زمینه های محدود شده را نیز در نظر بگیریم که در آنها یا فقط یک رابطه درست وجود دارد (در میان بسیاری که می توان فرضیه کرد) یا قدرت مشابه یافتن هر یک از چندین رابطه واقعی موجود است. شاید این بتواند به توضیح آن کمک کند، اما من نمی دانم چگونه.
محاسبه احتمال صحت یک یافته پیش از مطالعه
87720
R در مدل رگرسیون خطی من متغیرهای ساختگی برای متغیر رنگ ایجاد می کند (رنگ سفید یا قرمز است). برای مثال، color:pH عبارت تعامل colorred:pH را برمی‌گرداند. برخی از سؤالات: چرا R فقط برای برخی از اصطلاحات تعاملی «سفید رنگی» و با سایر عبارت‌ها «رنگی» است؟ چرا «رنگی» و «رنگی» برای هر عبارتی که با رنگ در تعامل است را انجام نمی دهد؟ در مرحله بعد، اگر بخواهم مدلی را با استفاده از برخی از متغیرهای ساختگی R تولید شده دوباره بسازم، چگونه می توانم آنها را در یک مدل خطی ارجاع دهم؟ اگر دوباره مدل را به صورت دستی تایپ کنم و عبارت colorwhite:pH را وارد کنم، R خطایی را نشان می دهد که شی colorwhite یافت نمی شود. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/dVR9H.png)
نحوه ارجاع به متغیرهای ساختگی خودکار تولید شده توسط R در یک مدل خطی
89718
من موقعیتی دارم که در آن باید آیتم ها را به گروه ها طبقه بندی کنم (مثلاً 6). هنگامی که من k- را اجرا کردم، 90٪ از داده های من در 1 گروه قرار می گیرند و 10٪ در گروه های دیگر قرار می گیرند. مرحله بعدی چیست؟ برای گروه بندی بیشتر داده ها، گروه داده 90% را انتخاب کردم و یک بار دیگر k-means را اجرا کردم. این بار 15 گروه جدید در این مجموعه داده جدید دارم. اما در حال حاضر دوباره 76 درصد در یک گروه باقی مانده در 14 گروه سقوط کرد؟ در چنین شرایطی چگونه باید برخورد کرد؟
در تحلیل خوشه ای گیر کرده اید، راه رو به جلو؟
47314
من سعی می کنم با استفاده از رگرسیون لجستیک برای هر متغیر بیماری و سپس وارد کردن متغیرهای معنی دار در یک مدل رگرسیون لجستیک چندگانه، متغیرهای پیش بینی کننده بیماری را پیدا کنم. با این حال، یکی از متغیرهای مدل چند متغیره، نمره بالینی است که شامل برخی از متغیرهای تنظیم شده برای (از جمله bmi<18) است. سوال من این است: آیا داشتن هر دو در مدل چند متغیره منطقی است؟ و اگر بله، تعبیر نمره بالینی ناچیز در مدل چند متغیره چیست؟ آیا به دلیل کنترل برخی از متغیرهای آن ناچیز است؟
متغیر وارد شده در مدل رگرسیون لجستیک بخشی از متغیر دیگری است که در همان مدل وارد شده است
47319
من داده هایی از پرسشنامه از مدرسه دارم. 35 سوال سوالات مختلف است (تأثیر دوستان و غیره) پاسخ های احتمالی برای 35 سوال قطعاً بله ، بیشتر بله ، بیشتر خیر و قطعاً خیر است. من خوشه‌بندی سلسله مراتبی را با استفاده از «hclust» در R انجام دادم. سپس از «cutree» برای برش دندروگرام استفاده کردم. چگونه داده‌های مربوط به خوشه‌ها را از «cutree» تجسم کنیم؟ من تابعی را برای صادرات اطلاعات در مورد خوشه ها به CSV نوشتم، اما می خواهم اطلاعات گرافیکی را نمایش دهم. با تشکر
تجسم داده ها از خوشه بندی سلسله مراتبی
18176
من یک سوال در مورد تابع 'ppois' در R دارم: * 'ppois(x,lambda,lower.tail=TRUE)' $P[X>x]$ را می دهد * `ppois(x,lambda,lower.tail=FALSE )` $P[X\le x]$ می دهد چگونه می توانم $P[X=n]$ را محاسبه کنم؟ منظورم این است که آیا تابعی در R برای این کار وجود دارد؟
محاسبه احتمال از توزیع پواسون
77833
اجازه دهید $\varepsilon$ یک متغیر تصادفی توزیع شده گاوسی با میانگین $\mu_0$ و انحراف استاندارد $\sigma_0$ باشد. آیا می توان مقدار مورد انتظار $$ \begin{eqnarray} و &\mathbb{E}\left[\Phi\left(\frac{\varepsilon-\mu_1}{\sigma_1}\right)\mid را محاسبه/تقریبی کرد \varepsilon<c\right]=...\\\ & &... =\int_{-\infty}^{c}d\varepsilon \frac{1}{\sqrt{2\,\pi\,\sigma_0^2}}\,\exp\left(-\frac{\left(\varepsilon-\mu_0\right)^2}{2\ ,\sigma_0^2}\right)\, \int_{-\infty}^{\frac{\varepsilon-\mu_1}{\sigma_1}}dt\,\frac{1}{\sqrt{2\,\pi}}\,\exp\left(- \frac{t^2}{2}\right) ? \end{eqnarray} $$ توجه داشته باشید که در حالی که انتگرال $$\int \exp\left(-x^2\right)\,\textrm{erf}\left(x\right)\,dx$$ وجود دارد (بررسی کنید در http://integrals.wolfram.com/index.jsp)، هر انتگرال از نوع $$ \int \exp\left(-(x-a)^2/b\right)\,\textrm{erf}\left((x-c)/d\right)\,dx $$ وجود ندارد (حداقل طبق انتگرال‌های Wolfram) .
مقدار مورد انتظار تابع توزیع تجمعی
15039
من در این ترم مقدماتی کلاس بازاریابی می گذرانم و این دوره از ما می خواهد که نرم افزاری بخریم که چیزی بیش از یک دسته ماکرو اکسل نیست. از صفحه نرم افزار > مهندسی بازاریابی برای اکسل ابزارهایی را برای کمک به رفع رایج ترین مشکلات بازاریابی ارائه می دهد. Segmentation, Targeting and Positioning (STP). جدید > تصمیم گیری محصول. پیش بینی فروش؛ تبلیغات و ارتباطات > تصمیمات; تصمیمات نیروی فروش و کانال؛ قیمت گذاری؛ و ارتقاء فروش > تصمیمات. کاربران می توانند از قدرت تجزیه و تحلیل در سطح جهانی استفاده کنند > برای اجرای تجزیه و تحلیل های سریع و ساده... همه از داخل اکسل. من لایسنس نرم افزار رو میخرم (40 دلار به مدت 6 ماه)... اما کسی میتونه به من بگه آیا پکیج های R هست که کارهای مشابهی انجام بده؟
بسته R برای بازاریابی
524
اشکال زدایی برنامه های MCMC بسیار دشوار است. مشکل به دلیل مسائل متعددی است که برخی از آنها عبارتند از: (الف) ماهیت چرخه ای الگوریتم ما به طور مکرر پارامترها را مشروط به سایر پارامترها ترسیم می کنیم. بنابراین، اگر یک پیاده سازی به درستی کار نمی کند، جداسازی باگ دشوار است، زیرا این مشکل می تواند در هر نقطه از نمونه تکرار شونده باشد. ب) پاسخ صحیح لزوماً معلوم نیست. ما راهی نداریم که بگوییم آیا به همگرایی رسیده ایم یا خیر. تا حدودی می توان با آزمایش کد روی داده های شبیه سازی شده، این موضوع را کاهش داد. با توجه به مسائل فوق، می خواستم بدانم آیا تکنیک استانداردی وجود دارد که بتوان از آن برای اشکال زدایی برنامه های MCMC استفاده کرد. **ویرایش** می‌خواستم روشی را که برای اشکال‌زدایی برنامه‌هایم استفاده می‌کنم به اشتراک بگذارم. من، البته، تمام کارهایی را که PeterR ذکر کرد، انجام می دهم. جدای از آنها، من آزمایش‌های زیر را با استفاده از داده‌های شبیه‌سازی شده انجام می‌دهم: 1. همه پارامترها را از مقادیر واقعی شروع کنید و ببینید که آیا نمونه‌گر از مقادیر واقعی فاصله زیادی دارد یا خیر. 2. من برای هر پارامتر در نمونه‌گر تکراری خود پرچم‌هایی دارم که تعیین می‌کند آیا آن پارامتر را در نمونه‌گر تکراری ترسیم می‌کنم یا خیر. به عنوان مثال، اگر یک پرچم 'gen_param1' روی true تنظیم شود، من 'param1' را از شرطی کامل آن در نمونه تکرار شونده ترسیم می کنم. اگر این مقدار روی false تنظیم شود، 'param1' روی مقدار واقعی آن تنظیم می شود. هنگامی که نگارش نمونه‌گر را تمام کردم، برنامه را با استفاده از دستور زیر آزمایش می‌کنم: * پرچم تولید یک پارامتر را روی true و بقیه موارد را روی false تنظیم کنید و همگرایی را با توجه به مقدار واقعی ارزیابی کنید. * پرچم تولید را برای پارامتر دیگری در ارتباط با پارامتر اول تنظیم کنید و دوباره همگرایی را ارزیابی کنید. مراحل فوق برای من بسیار مفید بوده است.
آیا تکنیک استانداردی برای اشکال زدایی برنامه های MCMC وجود دارد؟
89716
آیا می توان آزمون معناداری را صرفاً بر اساس نمرات دقت / فراخوان / F1 انجام داد؟ به عنوان مثال، اگر در یک مقاله با 2 سیستم مواجه شدید که فقط P/R/F1 برای آنها گزارش شده است (در همان مجموعه داده و غیره)، آیا می توانید یک آزمون معناداری آماری انجام دهید؟ اگر بله، چگونه انجام می شود؟
آزمون اهمیت بر اساس دقت / فراخوان / F1
109899
من سعی می کنم برای اجرای برآوردگر در تخمین رگرسیون خودکار برداری با داده های پانل Econometrica 56-6 (1988) مقداری کد R بنویسم. من در معادله (3.12) گیر کرده‌ام. احساس می‌کنم که $Z_{ir}$ و $Z_{is}$ باید طول‌های متفاوتی داشته باشند، و بنابراین حاصلضرب نقطه‌ای $Z'_{ir}Z_{is}$ نیست. یک عملیات معتبر اگر کسی بتواند نگاهی به مقاله بیندازد و توضیح دهد که من چه چیزی را از دست داده ام، واقعاً عالی خواهد بود.
Holtz-eakin، Whitney، Rosen Panel VAR
85844
من با رگرسیون لجستیک بازی می کنم (با استفاده از scikit-learn که از liblinear استفاده می کند) چند مجموعه داده نمونه ایجاد کردم و اغلب به خوبی کار می کند. از آنجایی که مجموعه داده‌ها را ایجاد کردم، از قبل مرزهای بهینه را می‌دانم، و یک طبقه‌بندی خطی 100٪ صحیح امکان‌پذیر است. نسبتاً اغلب (~1 در 10) حد پیش بینی شده خاموش است (شکل را ببینید). به نظر من بدیهی است که حرکت کران یک کسری بالاتر بهتر است. چه اشتباهی ممکن است رخ داده باشد؟ آیا پارامترهایی وجود دارد که باید آنها را تغییر دهم یا الگوریتم های بهتری برای استفاده از آنها وجود دارد؟ ![مثال شکست](http://i.stack.imgur.com/Yfw0p.png) با تشکر!
رگرسیون لجستیک کاملاً کار نمی کند
87727
من فقط یک مجموعه داده کوچک دارم. من می‌خواهم 1. پیش‌بینی‌کننده‌ترین ویژگی‌ها را از یک مجموعه بزرگ نامزد انتخاب کنم و 2. برآوردی از عملکرد پیش‌بینی مورد انتظار آن‌ها به دست بیاورم. در _عناصر یادگیری آماری (صفحه 245ff)_، نویسندگان بر اهمیت گنجاندن انتخاب متغیر در حلقه اعتبارسنجی متقابل برای به دست آوردن تخمین های بی طرفانه از عملکرد مورد انتظار خارج از نمونه تاکید می کنند. با این حال، تخمین‌های عملکرد مدل به‌دست‌آمده در این روش برای یک مجموعه مشخص از ویژگی‌ها نخواهد بود، زیرا هر بار اعتبارسنجی متقابل یا تکرار ممکن است به انتخاب ویژگی‌های مختلف منجر شود. با این حال، من علاقه ای به میانگین عملکرد مدل در مجموعه های مختلف ویژگی ها ندارم. من می‌خواهم مجموعه‌ای از «بهترین» ویژگی‌ها و عملکردی را که می‌توانم به شرط آن‌ها در مجموعه داده‌های مستقل انتظار داشته باشم، به دست بیاورم. آیا گزینه ای برای دریافت همزمان 1. و 2. دارم؟ سوال مرتبط
انتخاب ویژگی ها و برآورد عملکرد خارج از نمونه آنها با اعتبارسنجی متقابل
15032
من از یک فیلتر ذرات برای تخمین پارامترهای ($\Phi_{n\times1}$) یک مدل غیر خطی استفاده می کنم. فرض کنید ورودی (مشاهدات) من $t=1:k$ است، من برای هر یک از برآوردهای پارامتر یک بردار به طول $k$ خواهم داشت. بنابراین، در پایان فیلتر ذرات، من با یک ماتریس تخمین پارامتر ($\Theta$) با اندازه $k\times n$ مواجه می‌شویم، که در آن ردیف‌های $k$ تخمین‌هایی هستند که در هر مشاهده جدید انجام می‌شود. با مشاهده $k^{th}$ به عنوان برآورد نهایی من انجام شد. _سوال من_: آیا یافتن ماتریس ضریب همبستگی ($C_{n \times n}$) این ماتریس تخمین پارامتر $\Theta$ منطقی است؟ اگر چنین است، این چه چیزی را نشان خواهد داد؟ \--AM _edit_ : 1. مدل غیر خطی یک مدل سیگنال فیزیولوژیکی با 4 حالت و 7 پارامتر ناشناخته است. این 7 پارامتر به عنوان متغیرهای حالت در نظر گرفته می شوند، بنابراین یک بردار 11 حالتی به دست می آید که باید تخمین زده شود. این کار در چارچوب فیلتر ذرات انجام می شود. 2. بله، برآوردهای نهایی تنها موارد مورد علاقه هستند، اما من به گزارشی برخوردم که در آن همبستگی تخمین ذرات در جدول زمانی فیلترینگ (همانطور که در بالا ذکر کردم) اندازه گیری شد. مشاهده چگونگی تکامل تخمین ها اطلاعات زیادی در مورد فرآیند فیلتر کردن می گوید. بنابراین برای من جالب است که بدانم (در صورت وجود) ماتریس همبستگی این تکامل چه چیزی را نشان می دهد.
حس ماتریس ضریب همبستگی پارامترهای فیلتر ذرات
77830
هر آزمون پارامتریک این فرض را دارد که میانگین نمونه از توزیع نرمال پیروی می کند. این در صورتی است که خود نمونه توزیع نرمال باشد یا اگر اندازه نمونه به اندازه کافی بزرگ باشد تقریباً. اما چرا آنها این فرض را دارند؟ من فکر کردم از آمار آزمون برای تصمیم گیری استفاده می شود و آنها توزیع خود را دارند (F، t و غیره).
چرا آزمون های پارامتریک به توزیع نرمال میانگین نمونه نیاز دارند؟
109087
من مجموعه بزرگی از داده ها شامل سه نقطه (t، y1، y2) دارم. در هر t توزیعی از نقاط y1 و y2 دارم که هر کدام تقریباً نرمال هستند. من می خواهم نمودار y1 در مقابل y2 (مقادیر میانگین) ایجاد کنم و یک پاکت بازه اطمینان 90٪ یا 95٪ اضافه کنم. من از هر توصیه ای در مورد نحوه محاسبه فواصل اطمینان در این مورد به گونه ای که بتوانم بعداً یک نمودار بسازم قدردانی می کنم. متشکرم. **به روز رسانی و شفاف سازی:** در فیلد من، اگر y1 تابعی از x و y2 تابعی از x باشد، نمودار y1 در مقابل y2 بر روی دامنه x را کراس متقاطع می نامند. اطلاعات اضافی: * در برنامه من، t متغیر مستقل و y1 و y2 متغیرهای وابسته هستند. * یک مدل پیش بینی پیچیده (مبتنی بر معادلات دیفرانسیل) وجود دارد که مقادیر زیادی از y1 و y2 را برای هر مقدار t تولید می کند. * هیچ مدل صریحی در رابطه با y1 و y2 وجود ندارد. * من قبلاً می توانم نمودارهای فاصله اطمینان جداگانه ایجاد کنم (t در مقابل y1، t در مقابل y2). * برای هر مقدار t می توانم میانگین و انحراف معیار y1 و y2 را تخمین بزنم. هدف من: برای هر مقدار t، مثلا ti، می‌خواهم میانگین (y1i) در مقابل میانگین (y2i) را به عنوان نقطه‌ای در نمودار y1 در مقابل y2 رسم کنم و سپس پوشش فاصله اطمینان را لحاظ کنم.
فواصل اطمینان در نقاط متقاطع
77835
من از توزیع دو جمله ای پواسون برای آزمایش همزمانی استفاده می کنم. من 2 متغیر دارم: $X \sim Bin(p_x,n)$ و $Y \sim Bin(p_y,n)$، که $p_x$ و $p_y$ احتمالات هستند و هر دو متغیر دارای تعداد یکسانی هستند. داده $n$. سپس، اجازه دهید $Z_{\rm th} = X+Y \sim PoisBin(p_x,p_y,n)$. از این متغیر نظری من 3 احتمال برای مقادیر 0، 1 و 2 دارم. همچنین احتمال مقادیر مطابق با متغیر مشاهده $Z_{\rm obs} = \sum x_i + y_i$ را دارم. چگونه می توانم مقدار احتمال 2 را در $Z_{\rm obs}$ و در $Z_{\rm th}$ مقایسه کنم؟
توزیع دوجمله ای پواسون همزمان
88444
من مجموعه داده ای از 30 میلیون مصرف کننده خدمات برق دارم. \- مصرف \- صورت‌حساب \- قرائت‌های کنتور هوشمند هر 5 ثانیه نمونه‌برداری می‌شود \- از نظر منطقه داده سهم بازار آیا پیشنهادی در مورد نحوه محاسبه وزن برای عوامل اساسی که می‌تواند رضایت مشتری را پیش‌بینی کند؟ این یک طرح اولیه است که من دارم، اما برای درک محاسن و محدودیت های آن به کمک نیاز دارم. 1. مجموعه ای از «مشتریان راضی» را بر اساس قوانین تجاری شناسایی کنید. شخصی که به مدت 2 سال از خدمات استفاده می کند و روند مصرف رو به افزایشی دارد. 2. مجموعه ای از مشتریان ناراضی را شناسایی کنید، مشتریانی که رابطه خود را زودتر از موعد پایان دادند و ممکن است هزینه ها را دیر پرداخت کرده باشند. 3. اضافه کردن متغیرهای مقطعی برای محاسبه تفاوت در مشتریان از رگرسیون لجستیک برای شناسایی عوامل مهم استفاده کنید. چگونه می توانم این را بهتر کنم یا نقص های جدی در این رویکرد وجود دارد؟
پیشنهادات روش تحقیق در مورد خدمات برق
88443
چند راه اضافی برای نوشتن فرضیه های صفر و جایگزین زیر (یعنی معادل ریاضی) چیست؟ فرضیه صفر: H0: µ1 = µ2 میانگین دو جمعیت برابر هستند فرضیه جایگزین: H1: µ1 ≠ µ2 دو میانگین جمعیت برابر نیستند یا فرضیه صفر: H0: µ1 - µ2 = 0 تفاوت بین میانگین دو جمعیت 0 جایگزین است. فرضیه: H1: µ1 - µ2 ≠ 0 تفاوت بین دو میانگین جمعیت 0 نیست یا ...؟
روشهای معادل برای نوشتن فرضیه
47313
من داده‌های سری زمانی دارم که می‌توان آن‌ها را با یک تابع غیرخطی محدود (غیرخطی در پارامترهایی که باید تخمین زد) برازش داد. من می خواهم از روش ضریب لاگرانژ (پیوند) استفاده کنم، به ویژه بسته Rsolnp (پیوند) R's، زیرا خود ضریب لاگرانژ معنای اقتصادی دارد. من خواص آماری (مقدار p یا فواصل اطمینان) پارامترهای تخمین زده شده توسط solnp در Rsolnp را می خواهم. اگر مشکل من شامل محدودیت نبود، می‌توانم از کلاس «nls» R (پیوند) و روش «summary.nls» (پیوند) برای بازیابی ویژگی‌های آماری پارامترهای برازش شده استفاده کنم. سؤالات: * آیا معادل «summary.nls» برای «solnp» وجود دارد؟ * اگر نه، چگونه می توانم خصوصیات آماری پارامترهای تخمین زده شده با روش ضریب لاگرانژ را بدست بیاورم؟ مراجعه به مقاله یا کتاب درسی در اینجا کافی خواهد بود. در اینجا برخی از جزئیات عملکرد من (یک تابع تولید CES از اقتصاد) و محدودیت ها آمده است: تابع: iGDP ~ ((1-zeta) * (exp(lambda_L*iYear) * iCapStk^(alpha) * iLabor^beta)^phi + zeta*(exp(lambda_E*iYear) * iQ)^phi)^(1/phi) محدودیت ها: آلفا + بتا = 1 (توجه داشته باشید که من نمی خواهم 1-بتا را جایگزین آلفا کنم، زیرا مقدار عددی ضریب لاگرانژ تفسیر اقتصادی ارزشمندی دارد. من می خواهم از معادله محدودیت و روش ضرایب لاگرانژ استفاده کنم. .) داده های شناخته شده (به صورت سالانه): پارامترهای iGDP، iYear، iLabor، iCapStk، iQ که باید تخمین زده شوند (اینها عبارتند از پارامترهایی که من ویژگی های آماری را برای آنها می خواهم: مقادیر p، فواصل اطمینان و غیره: زتا، لامبدا_E، lambda_L، آلفا، بتا، فی
خواص آماری پارامترها با استفاده از ضرب‌کننده‌های لاگرانژ در R
47318
چگونه می توانم رگرسیون را با تکرارهای زیاد روی متغیر وابسته در هر سطح از متغیر مستقل انجام دهم؟ نادانی من را در این مورد ببخشید زیرا اولین بار است که اینجا پست می کنم. سعی می کنم تا جایی که می توانم دقیق باشم. من داده هایی دارم که به شرح زیر است: X، y1، y2، y3، y4 0، 54.241، 127.728، 127.73802، 127.73802 31، 65.132، 127.729، 127.727، 127.729، 127.729 65.364، 127.729، 127.73782، 127.73789 که در آن X متغیر مستقل است و y1-y41 تکرارهایی هستند که در سطح خاصی از X اندازه گیری شده اند. این به وضوح با حالت معمول رگرسیون متفاوت است که در آن یک ستون X و ستون دیگری برای y! من این ایده را داشتم که فقط باید مقادیر y1-y41 را میانگین بگیرم و رگرسیون خود را بر روی میانگین آن مقادیر انجام دهم، اما دوست دارم تحلیل من بهینه باشد. بنابراین، من سعی کردم مدل اثرات تصادفی را با تکرار به صورت تصادفی در بسته `lmer` در R برازم. , y1, 65.132 59, y1, 65.364 90, y1, 66.465 120 y1، 68.439 مدل زیر را برازش کردم: «lmer(value~X+(1|replicate),data=long_form)» برآوردهای اجزای واریانس اثرات تصادفی زیر را به دست آوردم: اثرات تصادفی: نام گروه ها Variance Std.Dev. replicate(Intercept) 16.292 4.0364 Residual 100.557 10.0278 در حال حاضر، من سوالات زیر را دارم: 1) آیا مدل من درست است؟ یا مدل بهتری برای چنین داده هایی وجود دارد؟ 2) آیا واریانس برای تکرار نشان دهنده تغییرات تصادفی بین تکرارها در یک سطح برای کل آزمایش است، یعنی واریانس 16.292 در اینجا به من چه می گوید؟ 3) با نگاه کردن به توزیع میانگین‌های مقادیر y، به نظر می‌رسد که داده‌ها به شدت به سمت چپ منحرف شده‌اند و تابع box-cox تبدیل توان 2 یعنی y^2 را پیشنهاد می‌کند. من داده‌هایم را تغییر داده و با استفاده از تابع shapiro.test برای نرمال بودن آزمایش کرده‌ام، اما داده‌ها پس از تبدیل هنوز عادی نیستند. آیا هنوز می توانم از یک مدل جلوه های تصادفی استفاده کنم (که فکر می کنم عادی بودن را در نظر می گیرد) یا راه دیگری برای دور زدن آن بدون نیاز به تغییر داده ها وجود دارد؟ سعی کردم تا جایی که می‌توانم کامل باشم، پس لطفاً از ناآگاهی‌ام ببخشید و اگر چیزی وجود دارد که نیاز به توضیح بیشتر دارد، به من اطلاع دهید. من واقعاً از کمک و پیشنهادات شما در این زمینه قدردانی می کنم.
چگونه می توان رگرسیون را با تکرارهای زیاد روی متغیر وابسته در هر سطح از متغیر مستقل انجام داد؟
23497
موقعیت‌های زیادی وجود دارد که می‌توانید چندین طبقه‌بندی‌کننده مختلف را آموزش دهید، یا از چندین روش مختلف استخراج ویژگی استفاده کنید. در ادبیات، نویسندگان اغلب میانگین خطای طبقه‌بندی را بر روی مجموعه‌ای از تقسیم‌های تصادفی داده‌ها (یعنی پس از یک اعتبارسنجی متقابل تودرتوی دوگانه) می‌دهند، و گاهی اوقات واریانس‌هایی را در مورد خطا بر روی تقسیم‌ها نیز می‌دهند. با این حال این به خودی خود کافی نیست که بگوییم یک طبقه بندی کننده به طور قابل توجهی بهتر از دیگری است. من روش‌های مختلفی را برای این کار دیده‌ام - استفاده از آزمون‌های مجذور کای، آزمون t، ANOVA با آزمون پس‌هک و غیره. چه روشی باید برای تعیین معنی‌داری آماری استفاده شود؟ زیربنای این سؤال این است: چه فرضیاتی باید در مورد توزیع امتیازات طبقه بندی داشته باشیم؟
روش صحیح برای آزمایش اهمیت نتایج طبقه بندی چیست؟
15030
اگر من از رگرسیون خطی OLS استفاده می‌کنم و می‌خواهم عدم قطعیت پیش‌بینی‌هایم را بدانم، می‌توانم آن را با استفاده از باقیمانده‌ها (MSE، انحراف مطلق میانه، و غیره) کمی کنم. اما اگر از رگرسیون خطی قوی استفاده می‌کنم که برخی از مشاهدات را به‌عنوان مقادیر پرت کاهش می‌دهد و به آن وزن‌ها دسترسی ندارم، چگونه می‌توانم عدم قطعیت پیش‌بینی را به دقت کمیت کنم؟
چگونه می توان به طور دقیق عدم قطعیت پیش بینی را در یک مورد خاص از رگرسیون خطی قوی محاسبه کرد؟