_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
45366
من باید تجزیه و تحلیل خوشه ای را روی مجموعه داده های خود انجام دهم که شامل متغیرهای مستمر و طبقه ای است. با مطالعه اطراف، فکر می کنم K-Means تکنیک مناسبی برای داده های ترکیبی نیست. آیا می توانم از خوشه بندی دو مرحله ای برای تجزیه و تحلیل استفاده کنم؟ اگر بله، از نظر فنی با متغیرهای طبقه بندی و پیوسته چگونه برخورد می شود؟ خیلی ممنون برای کمک!
استفاده از متغیرهای ترکیبی در تحلیل خوشه‌ای دو مرحله‌ای
78317
فرض کنید یک r.v گسسته به ما داده شده است. $X$، بر اساس برخی _ناشناخته_، تابع جرم احتمال محدود $p(x)$ توزیع شده است. ما می توانیم فرض کنیم که $p(x)>0$ برای هر $x$ در دامنه آن. می توانیم X$ i.i.d را نمونه برداری کنیم. و یک نمونه $S= (X_1,...,X_m)$ ​​بدست آورید. مشکل: چگونه می‌توانیم به‌طور رسمی_$p_*=\min_x p(x)$، با اطمینان خاصی، کران پایین‌تری داشته باشیم؟ برای دقیق تر بودن، من یک برآوردگر $\hat p_*(S)$ می خواهم که برای هر $1\geq \lambda\geq 0$: $\Pr(|p_*) می توان چیزی شبیه به این را اثبات کرد. - \hat p_*(S)|>\lambda)\leq f(\lambda,m)$ برای یک تابع به سرعت در حال کاهش $f$ از $\lambda$ و $m$. برای مثال، $f(\lambda,m)=\exp(-c\lambda^2m)$، برای مقداری ثابت $c>0$. هر گونه ارجاع به ادبیات مربوطه بسیار قابل قدردانی خواهد بود.
تخمین حداقل تابع جرم احتمال محدود
856
آیا کسی از نوع تست دقیق فیشر می‌داند که وزن‌ها را در نظر بگیرد؟ به عنوان مثال وزن نمونه. بنابراین به جای جدول متقاطع 2x2 معمولی، هر نقطه داده دارای یک مقدار جرم یا اندازه است که نقطه را وزن می کند. داده های مثال: A B وزن N N 1 N N 3 Y N 1 Y N 2 N Y 6 N Y 7 Y Y 1 Y Y 2 Y Y 3 Y Y 4 آزمون دقیق فیشر سپس از این جدول متقاطع 2x2 استفاده می کند: A\B N Y همه N 2 2 4 Y 2 4 6 همه 4 6 10 اگر وزن را به عنوان تعداد واقعی از نقاط داده در نظر بگیریم، نتیجه می شود: A\B N Y همه N 4 13 17 Y 3 10 13 همه 7 23 30 اما این باعث اعتماد بسیار زیاد می شود. تغییر یک نقطه داده از N/Y به N/N تفاوت بسیار زیادی در آمار ایجاد می کند. به علاوه، اگر وزنی حاوی کسری باشد، کار نمی کند.
تست دقیق فیشر با وزنه؟
80873
فرض کنید دارویی دارید که می‌خواهید آن را آزمایش کنید، آیا این دارو باعث افزایش تعداد سلول‌های ایمنی در خون شما می‌شود. شما نمونه خود را به دو گروه تقسیم می کنید که یک گروه درمان را دریافت می کند و گروه دیگر درمان نمی کند. در هر گروه، شما اثر را هم قبل از شروع درمان و هم بعد از 2 ماه از درمان اندازه گیری می کنید. اکنون می توان اثر دارو را به دو روش آزمایش کرد: 1. تعداد سلول های ایمنی را در دو ماه در هر دو گروه آزمایش کنید. 2. آزمایش افزایش سلول های ایمنی (=اثر پس از 2 ماه منهای پایه) در هر گروه. اگر هیچ اثری از دارو وجود نداشته باشد، اما هر دو آزمایش را در سطح 5٪ انجام دهید و کوچکترین مقدار p را انتخاب کنید، در این صورت نرخ خطای خانوادگی (FWE) چقدر خواهد بود؟ همانطور که می بینید، هر دو تست مستقل نیستند، با این حال، آنها مقادیر p متفاوتی تولید می کنند، بنابراین من قبلاً استدلال کردم که FWE باید چیزی بین 5 تا 9.75٪ باشد. خیلی ممنون
خطای خانوادگی تست های وابسته؟
70095
من به 10000 نظر برای یک اپلیکیشن موبایل دسترسی دارم و می‌خواهم تحلیل‌های آماری جالبی روی آنها انجام دهم. کاری که من تا به حال انجام داده ام: به فراوانی هر کلمه در تمام نظرات نگاه کنید. سپس به زیرمجموعه ای از این کلمات که مربوط به بازخورد عملکرد هستند (مثلاً خراش، تجمیع، کند) نگاه کنید و بسادگی فراوانی ظاهر را یادداشت کنید. دوستان آیا روش دیگری برای استخراج اطلاعات مرتبط از این نظرات پیشنهاد می کنید؟ من به اکسل و SQL دسترسی دارم.
تجزیه و تحلیل آماری در مورد نظرات و بازخورد
10337
$\mathrm{Var}(X^2)$، اگر $\mathrm{Var}(X)=\sigma^2$ چیست؟
$\mathrm{Var}(X^2)$، اگر $\mathrm{Var}(X)=\sigma^2$
45364
در پایان هر روز «i»، وزن خود را «w[i]»، و تعداد کالری‌هایی را که در آن روز مصرف کرده‌ام «c[i]» ثبت می‌کنم. من معتقدم تغییر وزن من w[i]-w[i-1] متناسب با کالری دریافتی من است: w[i]-w[i-1] = k1*(کالری خالص دریافتی). تعداد کالری هایی که می سوزانم تابعی خطی از وزن روز قبل من است: k2*w[i-1]+k3 بنابراین کالری دریافتی خالص من c[i]-(k2*w[i-1]+ است. k3). تغییر وزن من به این صورت است: w[i]-w[i-1] = k1*(c[i]-(k2*w[i-1]+k3)) با توجه به اینکه می دانم w[i] و c[i] برای هر i، چگونه بهترین مقادیر مناسب k1، k2 و k3 را پیدا کنم؟ توجه: من سعی می کنم این مشکل را به عنوان یک مشکل مربوط به داده ها حل کنم. من متوجه شدم که واقعیت را کاملاً ترسیم نمی کند.
بهترین تناسب k1,k2,k3 برای w[i]-w[i-1]=k1*(c[i]-(k2*w[i-1]+k3)) با c[i]، w[i ] شناخته شده است
80874
من در به کار بردن انتظار در مخرج سردرگم هستم. E(1/X)=؟ آیا می تواند 1/E(X) باشد؟
انتظار متقابل یک متغیر
86823
یک مثال ساده از توزیع یکنواخت $X_{i}$ be i.i.d در بازه $[\theta,\theta+1]$ را در نظر بگیرید. با استفاده از اعداد کم بزرگ، ممکن است نتیجه بگیرم که $$\overline{X}\rightarrow_{P} \theta+\frac{1}{2} $$ \overline{X}$ برای اینکه cdf را به صورت $F_{\overline{X}}(t)=P(\sum) بگیرم، باید یک انتگرال $n$-dimensional انجام دهم X_{i}<nt,\theta\le X_{i}<\theta+1)$. با این وجود، به نظر شهودی است که $\overline{X}$ باید آمار خوبی باشد. اما تمرین به زودی می‌آموزد که آمار کافی واقعی $(X_{(1)},X_{(n)})$ است و اثبات آن از طریق قضیه فاکتورسازی کار دشواری نیست. تصمیم گرفتم بعد از کلاس در این مورد از استاد بپرسم. او به من گفت که $\overline{X}$ آمار خوبی نیست زیرا به اندازه کافی به $\theta$ نزدیک نیست و به عنوان آمارگیر باید برنامه های واقعی را در نظر گرفت. اما این توضیح قانع‌کننده نیست، زیرا می‌توانم از $\overline{X}-\frac{1}{2}$ برای همان هدف استفاده کنم. می‌خواهم بپرسم که آیا $\overline{X}$ واقعاً آمار بدی برای این مثال است، و اگر بله به چه دلیلی. همچنین می خواهم بدانم که آیا $\overline{X}$ یک آمار کافی است یا خیر.
چرا میانگین نمونه آمار خوبی (کافی) نیست؟
852
ضریب روی یک متغیر توضیحی ثبت‌شده زمانی که متغیر وابسته نیز به شکل گزارش باشد، کشش است (یا درصد تغییر در متغیر وابسته اگر متغیر توضیحی یک درصد تغییر کند). فرض کنید من یک رگرسیون را بدون ثبت متغیر وابسته تخمین می زنم، اما از یک پیوند ورود به سیستم در یک مدل خطی عمومی (و خانواده گاوسی) استفاده می کنم در حالی که متغیر توضیحی به صورت log باقی می ماند. آیا ضریب آن متغیر توضیحی همچنان کشش است؟
قابلیت ارتجاعی با استفاده از GLM
45363
من سعی می کنم c-hat، پارامتر overdispersion را برای مجموعه مدل QAIC محاسبه کنم. طبق گفته برنهام و اندرسون، شما قرار است c-hat را بر اساس مدل جهانی محاسبه کنید. آیا مدل سراسری مدلی از مجموعه پیشینی است که بیشترین پارامترها را دارد یا یک مدل جداگانه است که در مجموعه کاندید نیست که ترکیبی از تمام پارامترهای استفاده شده در مجموعه کاندید را شامل می شود؟ برای مثال، با این مجموعه مدل‌های کاندید: 1 علف+درخت 2 علف*درخت 3 علف*درخت^2 4 درختچه 5 رودخانه آیا مدل جهانی به سادگی مدل #3 است یا i: علف*درخت^2+درخت+رودخانه ?
مدل جهانی چیست؟
44016
من به دنبال راه حلی برای دوره اول پیتر هاف در روش های آماری بیزی هستم. من نمی توانم آن را آنلاین پیدا کنم، آیا کسی می داند که آیا کتابچه راهنمای آن موجود است یا خیر؟ یا کسی می‌داند کجا می‌توانم تمرین‌ها و راه‌حل‌های خوبی برای دانش‌آموز ریاضی که سعی در درک آمار بیزی دارد پیدا کنم؟ به ویژه * باور، احتمال و مبادله * همگرایی در مدل های خانواده نمایی * تقریب مونت کارلو * نمونه گیری گیبس و کلانشهر * رگرسیون خطی بیزی
من به دنبال راه حل اولین دوره در روش های آماری بیزی هستم
45360
پس از اجرای ctree(model) نتیجه من به شکل زیر است: 1) iv == (a,b,c) ; معیار = 1، آمار = 200 2) iv2 == (x,y) ; معیار = 0.99، آمار = 32 3) iv3 <30; معیار = 0.91، آمار = 35 4) وزن = 100 من تازه کار هستم، اما کسی می تواند به من توضیح دهد که حجم کل من 500 است، من می دانم که آن گره (4) به من حجم 100 داده است، اما دقیقاً معیار چیست؟ = 1 و آمار = 200 یعنی ? متشکرم
چگونه می توان نتیجه درخت تصمیم خواندن را از ctree() در r تفسیر کرد؟
44019
من می‌خواهم جستجوی k-نزدیک‌ترین همسایه را در فضای چندبعدی انجام دهم، اما برای مثال از فاصله L2 استفاده نمی‌کنم، اما می‌خواهم کاربر برخی از جفت‌های «مشابه» را مشخص کند و سپس با استفاده از این اطلاعات جستجو را انجام دهد. برای این کار از چه الگوریتمی می توانم استفاده کنم؟
جستجوی kNN با استفاده از فاصله متناسب با مجموعه آموزشی از جفت‌های مشابه
45361
من می خواهم مجموعه داده های ریزآرایه مصنوعی را برای اهداف شبیه سازی تولید کنم. جستجوی وب و ادبیات تا کنون موارد زیر را نشان داده است: 1. Microarray Simulator \- اسکریپت های Matlab را برای شبیه سازی تمام خط لوله قبل از مقادیر واقعی فراهم می کند. برای نیازهای من بیش از حد توانمند است - و همچنین می‌خواهم روش‌هایی در R. 2 داشته باشم. داده‌های ریزآرایه دو نمونه شبیه‌سازی‌شده از OCplus \- در واقع دقیقاً همان چیزی است که من به دنبال آن هستم. روش هایی را برای تولید داده های مصنوعی دو کلاس ارائه می دهد و در R است! اما من به روش‌های بیشتر برای ایجاد داده‌های ریزآرایه مصنوعی/شبیه‌سازی‌شده علاقه‌مندم. به خصوص برای بیش از دو کلاس. و شاید پیچ ​​و مهره های بیشتری برای سرهم بندی کردن. سعی کردم روش هایی را در «لیما» پیدا کنم، اما موفق نشدم. آیا کسی می‌داند یا می‌تواند یک بسته/کتابخانه R را برای ایجاد مجموعه داده‌های ریزآرایه شبیه‌سازی شده/مصنوعی توصیه کند؟ خیلی ممنون
داده های ریزآرایه شبیه سازی شده
44018
در مورد تخمین میانگین ناشناخته یک توزیع نرمال با واریانس شناخته شده، اگر اشتباه نکنم، بازه اطمینان شامل $\theta$ با احتمال $1 - \alpha$، بدون توجه به مقدار واقعی $\theta$ است. در موارد دیگر (مثلاً زمانی که واریانس لزوماً ثابت نیست)، آیا باز هم چنین است که بازه اطمینان حاوی مقدار واقعی با احتمال $1 - \alpha$ باشد؟ یا اینکه فقط برای هر مقدار $\theta$، فاصله اطمینان حاوی مقدار واقعی با احتمال **حداقل** $1 - \alpha$ است؟ (که اگر اشتباه نکنم فواصل اطمینان چگونه تعریف می شود). با تشکر
فواصل اطمینان مکرر = احتمال به دام افتادن ثابت؟
105014
فرض کنید که من یک متغیر پویا X دارم که با گذشت زمان تغییر می‌کند، و فرض کنید که می‌دانم توزیع آماری آن در یک دوره 10 ساله گذشته است، و این تغییر است. به من گفتن که محتمل ترین مقدار برای X برای مثال 90 است. حالا فرض کنید که من دیس آماری دیگری دارم. از همان متغیر، اما فقط برای سال گذشته (یعنی شامل دیس قبلی است.)، و به من می گوید که محتمل ترین مقدار برای X 100 است. بدیهی است که داشتن دو توزیع به این معنی است که من اطلاعات بیشتری دارم، و به وضوح Dis . سال گذشته نشان می دهد که به نوعی روند صعودی وجود دارد، به همین دلیل است که 100 است نه 90، بلکه اول دیس است. همچنین به ما می گوید که کمی با محتمل ترین مقدار فاصله دارد، بنابراین عقل سلیم به من می گوید که محتمل ترین مقدار باید بین 100 تا 90 باشد، و سوال من این است که چگونه آن را محاسبه کنم؟ P.S من به دیس پیوسته علاقه مند هستم. به عنوان یک کل، نه فقط محتمل ترین مقدار. اگر پاسخ طولانی است، لطفاً فقط به پیوند یا کتابی مراجعه کنید یا به این مفهوم پیوستن در آمار مراجعه کنید.
چگونه دو توزیع از داده های یکسان اما با بازه های زمانی متفاوت را می توان به هم مرتبط کرد؟
859
با عرض پوزش برای پیشینه پرمخاطب این سوال: گهگاه در تحقیقات رفتار حیوانات، یک آزمایشگر به مدت زمانی که یک آزمودنی در مناطق مختلف و از پیش تعریف شده در یک دستگاه آزمایش می گذراند، علاقه مند است. من اغلب دیده ام که این نوع داده ها با استفاده از ANOVA تجزیه و تحلیل شده اند. با این حال، با توجه به اینکه ANOVA مشاهدات را مستقل فرض می‌کند و هرگز در این تحلیل‌ها مستقل نیستند، هرگز به اعتبار چنین تحلیل‌هایی کاملاً متقاعد نشده‌ام (زیرا زمان بیشتری که در یک منطقه صرف می‌شود به این معنی است که کمتر در مناطق دیگر صرف می‌شود! ). برای مثال، > D. R. Smith، C. D. Striplin، A. M. Geller، R. B. Mailman، J. Drago، C. P. > Lawler، M. Gallagher، ارزیابی رفتاری موش‌های فاقد دوپامین > گیرنده‌های D1A، علوم اعصاب، جلد 86، شماره 1992، مه 1. صفحات 135-146 در در ماده فوق درجه آزادی را 1 کاهش می دهند تا عدم استقلال را جبران کنند. با این حال، من مطمئن نیستم که چگونه چنین دستکاری می تواند این نقض مفروضات ANOVA را بهبود بخشد. شاید یک روش مجذور کای مناسب تر باشد؟ برای تجزیه و تحلیل داده‌هایی مانند این (ترجیح مناطق، بر اساس زمان صرف شده در مناطق) چه کاری انجام می‌دهید؟ با تشکر
ANOVA با مشاهدات غیر مستقل
54914
من 37 ویژگی در مجموعه داده خود دارم. من از پکیج Boruta در R استفاده کردم و با توجه به تحلیل آن، همه ویژگی ها مهم هستند و باید حفظ شوند. من این نتیجه Boruta را بررسی کردم و متوجه شدم که اگر هر ویژگی را از مجموعه داده خود حذف کنم، دقت طبقه‌بندی جنگل تصادفی خود را از دست می‌دهم. با این حال، زمانی که من نمودار اسکری مجموعه داده خود را در R رسم می‌کنم، پس از اولین مؤلفه، «ارنج» را دریافت می‌کنم. یعنی فقط جزء اول کافیه؟ من یک تازه کار در تجزیه و تحلیل داده ها و آمار هستم. بنابراین، من واقعاً ممنون می شوم اگر کسی بتواند توضیح دهد که اینجا چه خبر است.
تفسیر نمودارهای Scree و نتایج Boruta
44010
من در حال انجام مطالعه ای در مورد لزوم اونتکتومی روتین در بیماران مبتلا به سرطان تخمدان هستم. برنامه این است که ابتدا میزان بروز متاستازهای مخفی امنتوم را در بیماران مبتلا به سرطان تخمدان بیابم و سپس می خواهم میزان بروز مطالعه خود را با سایر موارد منتشر شده مقایسه کنم... به عبارت دیگر، می خواهم بدانم آیا از نظر آماری متفاوت است یا نه. نه به سایر موارد منتشر شده. از چه روشی برای محاسبه آن استفاده کنم؟ خیلی ممنونم
چگونه تفاوت بین بروز را محاسبه کنم؟
44015
من سه گروه آزمایشی دارم. هر کدام یک خط پایه 15 دقیقه ای را قبل از افزودن داروی A، داروی B یا کنترل سالین ارائه می دهند. هر گروه دارای N برابر با 8 حداکثر است، اما اگر داده ها به دلیل نویز حذف شوند، احتمالاً به 6 می رسد. تا جایی که من متوجه شدم، یک آنووا دو طرفه بهترین خواهد بود. احتمالاً اندازه گیری را تکرار کنید زیرا هر نقطه زمانی 8 تکرار خواهد داشت. با این حال به نظر من تست آنووا دو طرفه برای بررسی اینکه آیا زمان تعامل قابل توجهی دارد که من قبلاً می دانم انجام می دهد یا خیر. همانطور که در طول دوره پایه من انتظار کاهش تا زمانی که ثابت است. من فقط علاقه مند به آزمایش یک تغییر وابسته به دارو هستم و تغییر بزرگی را می بینم. لطفا راهنمایی کنید که آیا من از بهترین تست برای استفاده در این سناریو استفاده می کنم یا خیر.
3 گروه 8 تایی با درمان متفاوت هر کدام، بیش از 45 دقیقه - در مورد آزمایش آماری مورد نیاز
44013
سلام متخصص زنجیره مارکوف، امیدوارم بتوانید در مورد این نمودار پرده ای که در یک کتاب دیدم به من پاسخ دهید. چرا در این تصویر از یک **عمومی** زنجیره مارکوف مرتبه اول متشکل از 2 حالت، ما باید مشکل را بدانیم. هر ایالت در هر زمان؟ یک زنجیره مارکوف مرتبه اول عمومی، می تواند وابسته به زمان (غیر ثابت) باشد، بنابراین پروب انتقال. می تواند با زمان تغییر کند به همین دلیل است که ما در هر زمان E(time) را در این تصویر داریم. اما با داشتن *ابتدای** Prob. از هر حالت (P(t=1))، و **Transition** prob. من می توانم مشکل را محاسبه کنم از هر **حالت** در هر زمان معین، بنابراین احتمالات حالت در هر زمان (P(t=2,t=3,...)) اطلاعات **اضافی** هستند. درست میگم یا چیزی رو نادیده میگیرم؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/SUHMH.png) pic.Statistics in Volcanology (google books) page 167 MArkov chain
زنجیره مارکوف مرتبه اول، احتمالات انتقال حالت در هر زمان برای مدل کافی است
44017
من سعی می کنم از CART ها (درخت طبقه بندی و رگرسیون) برای AdaBoost به عنوان یادگیرنده ضعیف استفاده کنم. سوال من مربوط به به روز رسانی وزنه ها پس از قرار دادن بهترین زبان آموز ضعیف است. یک گره CART از یک آستانه ساده (و البته توصیفگر ویژگی انتخاب شده) تشکیل شده است که مجموعه داده ها را برای گره جانشین چپ و/یا گره جانشین راست جدا می کند. فرض کنید می خواهم وزن یک نقطه داده را با استفاده از یک سبد خرید با عمق 3 به روز کنم. root / \ n1(-1) p1(+1) / \ / \ n2(-1) p2 (+1) n3(-1) p3(+1) آیا باید از تمام گره های پیمایش شده برای به روز رسانی وزن استفاده کنم یا فقط به خروجی نهایی درخت برای به روز رسانی نیاز دارم؟ من اولین رویکرد را در جعبه ابزار GML AdaBoost MATLAB دیدم. امیدوارم بتوانم مشکلم را به اندازه کافی شرح دهم.
چگونه از CART برای AdaBoost استفاده کنیم؟
54917
من سعی می‌کنم یک رگرسیون لجستیک (مورد-کنترلی) اجرا کنم و متغیر مورد علاقه مقوله‌ای است و مقادیر 0 تا 6 را می‌گیرد. برای زیر مجموعه‌ای از افراد، مقدار دقیق (0، 1.. یا 6) را ندارم. ) اما یک توزیع احتمال: P(V=0)=0.03 P(V=1)=0.2 .. P(V=6) = 0.3 من به تخمین بی طرفانه OR و فاصله اطمینان، چه زمانی که این متغیر را به عنوان یک متغیر ترتیبی آزمایش می کنم و هم زمانی که تمام سطوح را به عنوان متغیرهای ساختگی آزمایش می کنم (ORهای سطوح 1، 2، 3، 4، 5 و 6 در مقابل سطح 0). به نظر می رسد که من باید احتمالات را در بیشینه سازی احتمال معرفی کنم و فکر می کردم که آیا این قبلاً در یک اسکریپت R یا هر برنامه دیگری پیاده سازی شده است.
انجام رگرسیون لجستیک با متغیرهای منتسب
44011
شاید سوال من خیلی ساده باشد اما من تازه شروع به تجزیه و تحلیل آماری کردم و از R استفاده کردم و همیشه ساده نیست! من داده های عملکردی برای 5 آزمودنی با سطح تجربه متفاوت دارم که یک کار را 6 بار تکرار می کنم. من می خواهم زمان انجام کار را با مدل های اثر ترکیبی پیش بینی کنم. من در حال ساخت مدلی هستم که شامل زمان به عنوان پاسخ، شماره آزمایش، تجربه قبلی و تعامل آنها به عنوان اثرات ثابت و موضوعات به عنوان اثرات تصادفی است. آیا این درست خواهد بود؟ سپس الگوی یادگیری را نشان می‌دهم که داده‌هایم را رسم کرده و یک خط صاف (کم) اضافه می‌کنم. این اولین مدل است > ma <- lme(prod.time~Trial+Previous.experience+Trial*Previous.experience, data= Data27_04, random=~1|Student, method=ML) > summary(ma) خطی مدل اثرات مختلط متناسب با حداکثر احتمال داده ها: Data27_04 AIC BIC logLik 1517.445 1541.259 -750.7226 جلوه های تصادفی: فرمول: ~1 | Student (Intercept) Residual StdDev: 7.337648 42.42332 جلوه های ثابت: prod.time ~ Trial + Previous.experience + Trial * Previous.experience Value Std.Error DF t-value p-value (Intercept) 102.4516179 102.4516173 10.713435 0.0000 آزمایشی -6.48494 2.252271 137 -2.879291 0.0046 Previous.experience1 -37.36173 14.786033 2 -2.526827272424242424.526.2726. 12.451072 2 3.792948 0.0630 آزمایشی: Previous.experience1 6.55351 3.496401 137 1.874360 0.0630 آزمایشی: قبلی. تجربه2 -7.55140378 -7.55140378 0.0113 همبستگی: (Intr) Trial Prvs.1 Prvs.2 Tr:P.1 Trial -0.841 Previous.experience1 0.253 -0.208 Previous.experience2 -0.234 0.199 -0.540 -0.540 Trial:Previous1.00.25 -Previous. 0.447 Trial: Previous.experience2 0.199 -0.226 0.447 -0.836 -0.550 استاندارد شده درون گروهی باقیمانده: حداقل Q1 Med Q3 حداکثر -2.3519731 -0.6903211 -0.1031696760. تعداد مشاهدات: 145 تعداد گروه ها: 5 > آیا فکر می کنید این به اندازه کافی برای نشان دادن اثر یادگیری خوب است؟ منحنی های یادگیری نمایی هستند. من سعی کرده‌ام متغیر پاسخ را تبدیل کنم، اما p-values ​​می‌گویند که تجربه قبلی هیچ اهمیتی ندارد. > mb<-lme(log.prodtime~Trial+Previous.experience+Trial*Previous.experience, data= Data27_04, random=~1|Student, method=ML) > summary(mb) برازش مدل با اثرات مختلط خطی براساس حداکثر احتمال داده ها: Data27_04 AIC BIC logLik 225.1042 248.9181 -104.5521 جلوه های تصادفی: فرمول: ~1 | Student (Intercept) Residual StdDev: 0.04484554 0.495812 اثرات ثابت: log.prodtime ~ Trial + Previous.experience + Trial * Previous.experience Value Std.Error DF t-value p-value (Intercept) 4.437201 41.99165 0.0000 آزمایشی -0.060150 0.02629765 137 -2.28726 0.0237 Previous.experience1 -0.333664 0.16351518 2 -2.0178570 previous. 0.368358 0.13776525 2 2.67381 0.1160 آزمایشی: قبلی. تجربه1 0.051714 0.04084708 137 1.26604 0.2076 آزمایشی: قبلی 137 -1.25282 0.2124 همبستگی: (Intr) Trial Prvs.1 Prvs.2 Tr:P.1 Trial -0.886 Previous.experience1 0.248 -0.221 Previous.experience2 -0.237 0.250Prvs.2 -0.250 Trial. 0.266 -0.881 0.473 Trial: Previous.experience2 0.208 -0.225 0.474 -0.883 -0.551 استاندارد شده درون گروهی: حداقل Q1 Med Q3 حداکثر -2.7119095 -0.80013327.80010 0.8621127 2.1988560 تعداد مشاهدات: 145 تعداد گروه ها: 5 > مدل مطمئناً بهتر است (AIC، BIC) همچنین باقیمانده ها بهتر به نظر می رسند، اما آیا باید مدل را کاهش دهم و فقط شماره آزمایشی را باقی بگذارم؟
منحنی های یادگیری ترکیبی و افکت
91153
من سعی می کنم این کد Matlab را به R تبدیل کنم. هدف من تولید یک متغیر تصادفی دو متغیره با یک همبستگی از پیش تعیین شده است. کد از ایده t-copula استفاده می کند. من نمی توانم بفهمم چگونه این را در R بنویسم. از هر کمکی قدردانی خواهم کرد. کد این است: n = 1000; rho = 0.7; nu = 1; T = mvtrnd([1 rho; rho 1], nu, n); U = tcdf (T,nu); X = [gaminv(U(:،1)،2،1) tinv(U(:،2)،5)];
متغیر تصادفی دو متغیره با R
71050
من از بسته glmnet برای ایجاد یک رگرسیون خطی با $\alpha$ = 0.5 استفاده می کنم تا بهترین $\lambda$ را پیدا کنم. `xMatrix` [44x15000] ($p>>N$)، `y` = عددی[44] به نظر می‌رسد همه چیز خوب اجرا می‌شود، اما $\lambda$ وقتی دستور را دوباره اجرا می‌کنم مقدار خود را بسیار تغییر می‌دهد. آیا رویکرد من نادرست است؟ cvGlmnet <- cv.glmnet(xMatrix، y، آلفا=0.5، nfolds=10) cvGlmnet$lambda.min [1] 10.24038 cvGlmnet$lambda.1se [1] 17.08198 cvGlmnet$lambda.1se [1] 17.08198 cvGlmnet$lambda.1. alpha=0.5، nfolds=10) cvGlmnet$lambda.min [1] 14.85703 cvGlmnet$lambda.1se [1] 17.08198 cvGlmnet <- cv.glmnet(xMatrix، y، alpha=0.5netfolds. [1] 4.865008 cvGlmnet <- cv.glmnet(xMatrix، y، آلفا=0.5، nfolds=10) cvGlmnet$lambda.min [1] 16.30557 cvGlmnet <- cv.glmnet <- cv.glmnet... من همچنین پکیج caret را برای تنظیم $\alpha$ و $\lambda$ امتحان کرده‌ام. اگر این کار را درست انجام دادم، «obj$bestTune» $\alpha$ = 1 و $\lambda$ = 3 را داد. وقتی «glmnet» را مانند بالا امتحان می‌کنم، اما در عوض از $\alpha$ = 1 استفاده می‌کنم، مقادیر $\lambda$ بین 5-8 حرکت کنید (حداقل چیزی که من امتحان کردم، بین دویدن نیز متفاوت است). آیا این نباید چیزی ~3 بدهد؟ من با این مثال سعی کردم # یک مجموعه داده ساختگی با 30 پیش بینی کننده (10 پیش بینی کننده مفید و 20 غیر مفید) y=rnorm(100) x1=matrix(rnorm(100*20),100,20) x2=matrix(y+rnorm) ایجاد کنم (100*10),100,10) x=cbind(x1,x2) # از اعتبارسنجی متقاطع برای یافتن بهترین استفاده کنید کتابخانه lambda(glmnet) cv <- cv.glmnet(x,y,alpha=1,nfolds=10) l <- cv$lambda.min و همچنین کمی تغییر می کند، اما نه به اندازه داده های من. آیا به دلیل ساختار/ماهیت داده من است؟ با استفاده از caret، مقدار آلفا نیز بسیار تغییر کرده است (با توجه به اینکه فقط می تواند بین 0 و 1 باشد و هر انتهای یک رویکرد کاملاً متفاوت است). هیچ سرنخی؟
مقدار lambda در اعتبارسنجی متقاطع تنظیم glmnet هنگام تکرار آزمایش تغییر می کند
70327
ما $N$ افراد داریم که به طور مکرر در زمان اندازه گیری شده اند. برای هر فرد، در هر اندازه گیری، مقادیر دو متغیر را اندازه گیری می کنیم: $A$ و $B$. ممکن است تعداد اندازه‌گیری‌ها برای هر فرد یکسان نباشد. اندازه‌گیری $i^{th}$ فرد $n^{th}$ ممکن است در زمانی متفاوت از اندازه‌گیری $i^{th}$ فرد $m^{th}$ گرفته شود. چگونه می توانیم همبستگی بین $A$ و $B$ را محاسبه کنیم و اهمیت همبستگی را اندازه گیری کنیم؟ از چه آزمون آماری می توانیم استفاده کنیم؟ آیا بسته ای در `R` وجود دارد که این کار را انجام دهد؟
چه آزمون آماری برای همبستگی در اندازه گیری های مکرر مناسب است؟
41194
من می خواستم این سوال را در stackoverflow بپرسم اما فکر می کنم اینجا مناسب تر است. اگر اشتباه می کنم لطفا به من بگویید. سوال من مربوط به استفاده در آمار برای تجزیه و تحلیل داده های فیزیکی/مهندسی است. از آنجایی که ابزارهای آماری مورد استفاده به زمینه بستگی دارد و به ندرت جهانی هستند، لازم است مشکل خود را که نسبتا طولانی است شرح دهم. ## سوال من در مورد من، چگونه باید باقیمانده را ارزیابی کنم تا در نظر بگیرم که تست های من چقدر خوب هستند؟ آیا باید به سادگی میانگین مربعات باقیمانده آنها (RMS) را مقایسه کنم؟ یا باید جذر RMS ها را مقایسه کنم؟ یا باید جذر ریشه مجموع مجذور باقیمانده تقسیم بر درجات آزادی باقیمانده را مقایسه کنم؟ یا هر چیز دیگری؟ خلاصه: $$ \frac{\sum_i(Y_i-\widehat{Y})^2}{n-2} یا \sqrt{\frac{\sum_i(Y_i-\widehat{Y})^2}{n- 2}} یا \frac{\sqrt{\sum_i(Y_i-\widehat{Y})^2}}{n-2} یا \; دیگر \;? $$ با توجه به زمینه، متوجه خواهید شد که چرا من نمی‌خواهم از ابزارهای آماری با استفاده از میانگین $\overline{Y}$ و فقط باقیمانده‌ها استفاده کنم. ## تنظیمات مشکل واقعی من نسبتاً پیچیده است و به تجزیه و تحلیل برخی از داده‌های تست مربوط به فیزیک مربوط می‌شود. بنابراین برای مثال و برای جلوگیری از ورود به فیزیک (که موضوع ما در اینجا نیست): فرض کنید من یک مهندس کیفیت هستم و می خواهم کیفیت مجموعه ای از نمونه های _M_ را با تست کشش بررسی کنم. (من تست کششی را انتخاب کردم زیرا در اوایل دبیرستان تدریس می شود و آزمون نسبتاً ساده) آزمون من ساده است: من هر یک از نمونه های خود را فقط و به شدت در رژیم کشسانی می کشم که **به طور معمول** یک همبستگی خطی بین استرس (بار) دارد. _L_، نیوتن) و کرنش تا _m_ (جابجایی _D_، متر). _m_ ضریب توان جابجایی است و ناشناخته است. بنابراین من قانون زیر را دارم (1): $L=a*D^m $ (1) $1\leq m \leq 2$ توجه داشته باشید: برای _m=1_، a سفتی فنر k است که مربوط به یانگ آن است. مدول E، و من یک آزمایش کششی معمولی با یک نمونه معمولی دارم. مهم نیست که در اینجا چنین باشد اما ممکن است اتفاق بیفتد. _m_ باید برای همه نمونه‌های من تقریباً یکسان باشد، اما هرگز کاملاً یکسان نیست (می‌دانید، آزمایش‌ها...) و ناشناخته است. ابزار من نقاط داده جابجایی و بارگذاری را در یک ماتریس $2*n$ ذخیره می کند که _n_ تعداد نقاط داده است. من مجموعاً _M_ نمونه دارم، از این رو تست های _M_. ## هدف هدف من این است که بررسی کنم آیا هر آزمون به درستی از قانون من پیروی می کند (1). اگر بله، نمونه من خوب است. اگر نه، نمونه من بد است و می توانم آن را زباله کنم (البته در سطل بازیافت). هنگام ترسیم، آزمایش‌های روی نمونه‌های بد مراحل یا چندین رژیم را نشان می‌دهند که $L$ در مقابل $D^m$ برای $\forall m$ (به وضوح برای هر دو مورد قابل مشاهده است). نمونه های بد به سادگی به این معنی است که پیش فرض های ساختاری وجود دارد. برای نمونه های خوب، $L$ در مقابل $D^m$ (با بهترین $m$) یک خط ساده است (منهای خطاهای ناشی از ابزار اندازه گیری). ## الگوریتم برای یافتن _m_، از یک فرآیند تکرار ساده با روش حداقل مربعات خطی با Matlab استفاده می کنم. البته برای $L=0$، $D=0$ (بدون نیرو، بدون فشار). در اینجا الگوریتم ساده (نه به زبان متلب کامل برای وضوح!) برای یک تست است: [RMS,m,a] = تابع(D,L) %ورودی ها: جابجایی D و بار L %خروجی ها: RMS، m و a Vm =1*101 بردار %m دارای دقت 0.01 خواهد بود. Vr=1*101 بردار Va=1*101 بردار برای 1<Vm<2 X_m = D.^Vm Va=X_m\L %تقسیم ماتریس چپ تابع داخلی matlab: %راه حل با روش حداقل مربع استفاده شده است. Vr=sum((L-a*X_m).^2)./(length(L)-2) %محاسبه میانگین مربع باقیمانده %Note: length(L)=n: پایان تعداد نقاط داده برای [RMS, RMSPos]= min(Vr) %RMS = Residual Mean Square = min(r): حداقل باقیمانده. %RMSPos: موقعیت در بردار کمترین باقیمانده m=Vm(RMSPos) %m را با کمترین باقیمانده ذخیره می کند a=Va(RMSPos) %a را با کمترین تابع انتهای باقیمانده ذخیره می کند و من این کار را برای هر یک از _M_ خود انجام می دهم. تست ها ## مسئله حالا می‌خواهم روشی تعریف کنم که بگوییم «این نمونه‌ها خوب هستند» یا «این نمونه‌ها بد هستند». من RMS $M$ را که از تست‌های $M$ بدست آوردم مقایسه می‌کنم: آنهایی که نزدیک به 0 هستند در مورد تست‌های خوب به من می‌گویند، آنهایی که بزرگتر از 0 هستند در مورد تست‌های بد به من می‌گویند. من می‌توانم در مورد محدودیت RMS $RMS_{lim}$ تصمیم بگیرم که $RMS\leq RMS_{lim}$ نمونه‌های خوب را به من بدهد و $RMS > RMS_{lim}$ نمونه‌های بد را به من بدهد. از برخی جهات، می‌توانم «خوبی» همه نمونه‌های $M$ خود را با مرتب‌سازی از کوچک‌ترین باقی‌مانده‌ها به بزرگ‌ترین آنها مرتب کنم. به این ترتیب، من نیازی به بررسی طرح تمام تست های $M$ خود به صورت دستی ندارم و ببینم آیا یک خط زیبا دارم یا یک چیز تصادفی زشت. در حالی که من قطعاً می توانم RMS ها را در یک آزمون برای '$m$'های مختلف مقایسه کنم، نمی دانم که آیا مقایسه RMS ها بین آزمون های مختلف هم از نظر فیزیکی و هم از نظر ریاضی قابل قبول است. چرا؟ زیرا از یک طرف راه حل های آزمایشی مختلف من حداکثر $L$ (یا $L_n$)، حداکثر $D$ (یا $D_n$)، '$m$'s، '$a$'s مشابه اما کاملاً برابر نیستند. و '$n$'s ($n$: تعداد نقاط داده در یک آزمایش). در بالای آن RMS یک مقدار مربع است، بنابراین من باید حرفه ای باشم
حداقل مربعات باقیمانده، خطی و مهندسی کیفیت
5220
من یک متاآنالیز انجام داده ام و ناهمگنی خیلی زیاد است. من با (زوج/کل) برای گروه‌های آزمایشی و کنترل کار می‌کنم تا نسبت شانس را محاسبه کنم. من مدل سازی با اثر ثابت و تصادفی انجام داده ام. اکنون باید از متارگرسیون از طریق SPSS استفاده کنم. آیا کسی می تواند مرا به مجموعه ای از مواد راهنمایی کند تا یاد بگیرم چگونه این کار را انجام دهم؟ من چند لینک را خوانده ام اما هیچ کدام واقعا این سوال را حل نکرده اند. با تشکر
چگونه با SPSS تحلیل متارگرسیون انجام دهیم؟
18814
من یک مدل لاجیت سنتی با یک متغیر وابسته دوگانه و چندین متغیر مستقل دارم. یکی از IV ها طبقه بندی شده است و در کد R من به عنوان یک فاکتور با آن برخورد می کنم. در گذشته، من اثرات حاشیه ای را با ایجاد یک مجموعه داده شبیه سازی شده ارائه کرده ام که در آن همه متغیرها را در میانگین یا میانه نگه می دارم و سپس متغیر مورد نظر را در محدوده آن افزایش می دهم. سپس از مدل تخمین زده شده برای بدست آوردن احتمال پیش بینی شده یک نتیجه معین در محدوده متغیر مورد نظر استفاده می کنم. سپس به راحتی ترسیم می شود تا یک تفسیر گرافیکی خوب از تأثیر تخمینی تغییرات در متغیر مورد نظر ایجاد شود. اما در مورد اثر ثابت، جایی که یک متغیر در مدل یک عامل است، چگونه یک نمودار مشابه تولید می‌شود؟ آیا من به یک نمودار اثر تخمینی جداگانه برای هر مقدار متغیر عامل نیاز دارم یا راهی وجود دارد که بتوان میانگین اثر تغییرات متغیر مورد علاقه را بر روی همه دسته ها در متغیر عامل تخمین زد در حالی که همه متغیرهای دیگر در میانگین خود نگهداری می شوند؟
ارائه اثرات حاشیه ای لاجیت با جلوه های ثابت
5226
اگر $X=[x_1,x_2,...,x_n]^T$ یک متغیر تصادفی $n$-بعدی باشد و $E\left\\{X\right\\} = M = \left[m_1 داریم ,m_2,...,m_n\right]^T$ $Cov\left\\{X\right\\} = \Sigma = diag\left(\lambda_1,\lambda_2,...,\lambda_n\right)$ چگونه می توانم انتظارات زیر را برحسب $M$, $\Sigma$, و $n$ (و شاید $m_i$ خام) بیان کنم 's و $\lambda_i$'s)؟ $E\left\\{ \left(X-M\right)^T\left(X-M\right)\left(X-M\right)^T\left(X-M\right)\right\\}$ فرض کنید $x_i$' s i.i.d هستند و توزیع نرمال دارند، قابل قبول است، اما آیا این مفروضات ضروری هستند؟ **به روز رسانی:** 1. من می دانم که $E\left\\{ \left(X-M\right)^T\left(X-M\right)\right\\} = \sum_{i=1}^n \ left(\lambda_i\right)$ اما فکر نکنید که در این مورد کمکی نمی کند. 2. در بخش ~~_6.2.3 Forms Cubic_~~ _8.2.4 Quartic Forms_ کتاب آشپزی Matrix فرمولی برای انتظارات درجه دوم محاسبه شده وجود دارد، اما من فقط یک فرمول برای حل آن نمی خواهم. من فکر می کنم باید یک سوال ساده برای این مشکل وجود داشته باشد زیرا ماتریس کوواریانس مورب است.
انتظار $\left(X-M\right)^T\left(X-M\right)\left(X-M\right)^T\left(X-M\right)$
70322
آیا می توان نمودار پراکندگی همبستگی جزئی را برای 2 زیر گروه در یک نمودار نشان داد؟ به عنوان مثال من می‌خواهم نمودارهای پراکنده‌ای از داده‌های کنترل‌شده برای سن ایجاد کنم، که توسط مردان یا زنان متمایز می‌شوند. من سعی کردم نمودارهای رگرسیون جزئی ایجاد شده توسط تحلیل رگرسیون خطی را انجام دهم، اما نمی توانم آن را بر اساس گروه ها تقسیم کنم. گزینه هایی برای انجام آن در اکسل یا R نیز خوب است. با تشکر
نمودار همبستگی جزئی، تقسیم بر گروه های SPSS
71054
من در چندین جا خوانده و شنیده ام که آموزش شبکه های یادگیری عمیق به طور قابل توجهی بیشتر از مثلاً ماشین های برداری/هسته، جنگل های تصادفی یا روش های تقویتی پشتیبانی می کند، اما می توانند عملکرد بهتری داشته باشند. سوال من این است که تفاوت اساسی در مورد شبکه های یادگیری عمیق در رابطه با سایر روش های یادگیری که این تفاوت را توضیح می دهد چیست؟ در مورد پیچیدگی آموزشی آنها چه چیزی شناخته شده است؟ به عنوان مثال، آیا DNN (بر خلاف روش های دیگر) تبعیض آمیز است؟ به نظر می‌رسد که می‌توان آن‌ها را مولد در نظر گرفت زیرا ویکی‌پدیا ذکر می‌کند: وقتی لایه‌های زیادی آموخته شد، معماری عمیق می‌تواند با بازتولید داده‌ها هنگام نمونه‌برداری از مدل (یک «گذرنامه اجدادی») به عنوان یک مدل مولد استفاده شود. فعال سازی ویژگی های سطح بالا من همچنین در ویکی‌پدیا خوانده‌ام که DNN‌ها را می‌توان به صورت **بدون نظارت** از قبل آموزش داد. آیا این تفاوت قابل توجهی در رابطه با روش های دیگر است. آیا این مرحله قبل از تمرین آنقدر رایج است؟ اما مهم‌تر از همه، **چرا آموزش DNN در مقایسه با روش‌های دیگر طول می‌کشد**؟
شبکه های یادگیری عمیق: تفاوت های اساسی
71053
من در یادگیری ماشینی تازه کار هستم و سوالات کمی در مورد نحوه انجام طبقه بندی با استفاده از شبکه عصبی دارم. من جعبه ابزار Matlab را برای آن دارم. من مسیرهای حرکتی دارم که برخی از کنش ها را نشان می دهد. اینها اطلاعات چند بعدی حاوی مرکز پیکسل هستند که پس از ردیابی نتیجه در فریم های متوالی به دست می آیند. \- باید آن را به عنوان یک مشکل کلاس 2 طبقه بندی کنم: فرض کنید مجموعه داده های آموزشی زیر را برای فعالیت A -0.9 0.2 0.89 0.3 دارم و به همین ترتیب مجموعه داده $D_A$ حاوی 10 نمونه از این فعالیت را دارم. بنابراین، چگونه می توانم یک برچسب روی آن بگذارم و به یک شبکه عصبی تغذیه کنم. من سعی کردم 1 را در بعد سوم داده A برای کل طول داده قرار دهم. چگونه می توانم با 10 نمونه تمرین کنم و بر اساس اعتبارسنجی متقاطع k fold طبقه بندی کنم؟ یک قطعه کد عالی خواهد بود.
تردید در طبقه بندی باینری
5228
من به کشش نمونه یک متغیر تصادفی نسبتاً اریب نگاه می‌کنم، و نتایج ناسازگار به نظر می‌رسند. برای نشان دادن ساده مشکل، من به نمونه کشش یک RV log-normal نگاه کردم. در R (که کم کم دارم یاد میگیرم): library(moments); samp_size = 2048; n_trial = 4096; kvals <- rep(NA,1,n_trial); #preallocate for (iii در 1:n_trial) { kvals[iii] <- kurtosis(exp(rnorm(samp_size))); } print(summary(kvals)); خلاصه ای که من دریافت می کنم حداقل است. 1 ق. میانگین میانه 3rd Qu. حداکثر 11.87 28.66 39.32 59.17 61.70 1302.00 طبق ویکی پدیا، کشیدگی برای این RV log-normal باید حدود 114 باشد. واضح است که کشیدگی نمونه بایاس است. با انجام برخی تحقیقات متوجه شدم که کشش نمونه برای اندازه‌های نمونه کوچک سوگیری دارد. من از برآوردگر 'G2' همانطور که توسط بسته 'e1071' در CRAN ارائه شده است استفاده کردم و نتایج بسیار مشابهی برای این اندازه نمونه گرفتم. **سوال**: کدام یک از موارد زیر مشخص می کند که چه اتفاقی می افتد: 1. خطای استاندارد کشیدگی نمونه برای این RV بسیار بزرگ است (حتی اگر تخمین معمول موج دستی خطای استاندارد در حد $1 باشد. /\sqrt{n}$). متناوبا، من از نمونه های بسیار کمی (2048) در این مطالعه استفاده کردم. 2. این پیاده‌سازی‌های کشش نمونه از مشکلات عددی رنج می‌برند که ممکن است با روش _مثلا_ Terriberry تصحیح شوند (به همان روشی که روش ولفورد نتایج بهتری نسبت به روش ساده‌لوح برای واریانس نمونه می‌دهد). 3. من کشش جمعیت را اشتباه محاسبه کردم. (اوه) 4. کشیدگی نمونه ذاتاً مغرضانه است و شما هرگز نمی توانید آن را برای چنین اندازه های نمونه کوچکی برطرف کنید.
آیا کشیدگی نمونه به طرز ناامیدکننده ای مغرضانه است؟
70325
تابع تقاضا برای سفر هوایی بین ایالات متحده و اروپا تخمین زده شده است $$\ln Q = 2.737 - 1.247 \ln P +1.905 \ln I$$ که $Q$ نشان دهنده تعداد مسافران (به هزاران) در سال است. $P$ قیمت بلیط (متوسط) و $I$ درآمد ملی ایالات متحده. کشش قیمتی و کشش درآمدی تقاضا را تعیین کنید.
محاسبه کشش قیمتی و کشش درآمدی تقاضا
41198
من یک مجموعه داده با توزیع غیر یکنواخت دارم. من می خواهم از آن نمونه برداری کنم تا نتیجه به طور یکنواخت توزیع شود. اگر کلاس مثال را بدانم، با چه احتمالی باید آن را انتخاب کنم تا توزیع یکنواختی از هر کلاس در نمونه حاصل به دست آید؟ مثال: قبل: بعد: کلاس 1: 40% 20% کلاس 2: 30% 20% کلاس 3: 15% 20% کلاس 4: 10% 20% کلاس 5: 5% 20% احتمالاً به مقداری تابع توزیع معکوس نیاز دارد، اما یادم نمی آید هر مشخصات.../
مقادیر غیریکنواخت توزیع شده را نمونه/فیلتر کنید تا نتیجه از توزیع یکنواخت پیروی کند
17947
چگونه می توانم مجموعه داده های متعلق به _R companion به Experimental Design_ را دریافت کنم (Vikneswaran، 2006)؟ لینک وب سایت و ایمیلی که در این کتاب درسی به آنها اشاره شده است دیگر فعال نیستند.
همراه R Vikneswaran برای مجموعه داده های طراحی تجربی
71059
من سعی می کنم یک تجزیه و تحلیل خوشه ای را روی یک مجموعه داده بزرگ (70k+ مشاهدات تا خوشه) با متغیرهای ترکیبی (عددی، ترتیبی، باینری و اسمی) اجرا کنم. من فکر نمی کنم بتوانم ماتریس فاصله را با استفاده از SAS در کل مجموعه داده ایجاد کنم. بنابراین، من سعی کرده‌ام یک خوشه‌بندی سلسله مراتبی را با استفاده از فاصله Gower روی یک _subsample_ از داده‌هایم اجرا کنم. من چند سوال دارم 1. اگر روش فوق (خوشه بندی سلسله مراتبی یک نمونه فرعی) مناسب باشد، چگونه می توانم بقیه مشاهدات را نمره گذاری کنم و آنها را به خوشه های به دست آمده اختصاص دهم (طبقه بندی کنم؟) 2. اگر روش فوق خوب نیست، چه روش های دیگری برای خوشه بندی یک مجموعه داده بزرگ با متغیرهای مختلط توصیه می شود؟ (در صورت امکان در SAS موجود است.) 3. چگونه می توانم همبستگی/چند خطی بودن بین متغیرهای مختلط را بررسی کنم؟ نمی‌دانم اجرای چیزی مانند PCA یا تحلیل عاملی با داده‌های طبقه‌بندی منطقی است یا خیر.
هزاران مشاهده (انواع متغیر مختلط) را خوشه بندی کنید. نمونه فرعی را خوشه بندی کنید و سپس بقیه مشاهدات را طبقه بندی کنید؟
14368
من سعی می کنم تابع _f_ را به حداقل برسانم، اولاً از **fminsearch** استفاده می کردم اما مدت زیادی کار می کند، به همین دلیل اکنون از **fminunc** استفاده می کنم، اما یک مشکل وجود دارد: برای شتاب دادن به گرادیان تابع نیاز دارم. f = @(w) sum(log(1 + exp(-t .* (phis * w'))))/size(phis, 1) + coef * w*w'; options = optimset('Display', 'Notify', 'MaxFunEvals', 2e+6, 'MaxIter', 2e+6); w = fminunc(f, ones(1, size(phis, 2)), option); * اندازه **phis** NxN+1 است * **t** اندازه Nx1 است * **ضریب** const است. برای الگوریتم منطقه اعتماد ارائه شود. به جای آن از الگوریتم جستجوی خطی استفاده کنید.
چگونه گرادیان رگرسیون لجستیک را در Matlab محاسبه کنیم؟
71058
من با تفسیر خروجی R برای ANOVA اندازه گیری های مکرر دو طرفه مشکل دارم. من از «m1.emax.aov <- aov(mean_emax_norm ~ (cond5*stride) + Error(dog_id/(cond5*stride))، df3.emg.m1» استفاده کردم و جداول خلاصه من را پرت می کند. من عادت دارم فقط یک جدول خلاصه با اثرات اصلی و تعامل لیست شده یک بار ببینم. هر کدام با عبارت خطای خاص خود من نمی دانم چگونه خروجی زیر را تفسیر کنم. من انتظار نداشتم که cond5 را برای Error:dog_id، stride برای Error:dog_id:cond5، یا cond5:stride را برای Error:dog_id:stride ببینم. چگونه تفسیر می کنید، برای مثال، گام برای Error:dog_id:cond5 مهم است اما برای Error:dog_id:stride مهم نیست؟ هر گونه راهنمایی بسیار قدردانی خواهد شد. summary(m1.emax.aov) خطا: dog_id Df Sum Sq Mean Sq F مقدار Pr(>F) cond5 2 706.5 353.3 12.69 0.011 * Residuals 5 139.1 27.8 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: dog_id:cond5 Df Sum Sq Mean Sq F مقدار Pr(>F) cond5 4 48.30 12.07 3.4216 *0. 1 36.07 36.07 10.316 0.0035 ** باقیمانده 26 90.91 3.50 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: dog_id:stride Df Sum Sq Mean Sq F value Pr(>F) stride 2 7.42 3.709 0.347d 0.71 گام 3 9.99 3.331 0.308 0.819 Residuals 11 119.02 10.820 خطا: dog_id:cond5:stride Df Sum Sq Mean Sq F مقدار Pr(>F) cond5:stride 8 103.8 12.975 2.498 *2.494 *0.029 0.029 * 0.029 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1
تفسیر ANOVA اندازه گیری های مکرر با خطای مشخص شده () در R
17942
با توجه به اینکه $X$ متغیر تصادفی است که مقادیری را می گیرد: $0,\dots,H-1$ PMF $X$ ناشناخته است، اما می توانم بگویم که مقدار مورد انتظار چیست که $\bar{X}$ وجود دارد. رویداد $Y$ وقتی محاسبه می‌شود این مقدار را می‌دهد: $P(Y)=E[\frac{1}{X+1}]$ آیا راهی برای یافتن مقدار مورد انتظار $\bar{Y}$ وجود دارد؟
مقدار مورد انتظار متقابل یک متغیر تصادفی
94937
**قسمت الف**: فرض کنید من 2 گروه دارم (پیش درمان، بعد از درمان) و برای هر موضوع 3 متغیر ثبت می کنم. بنابراین ردیف‌های من به نظر می‌رسند: pre post var1 var2 var3 | var1 var2 var3 من می خواهم بررسی کنم که آیا درمان بر var1، var2 و var3 تأثیر می گذارد یا خیر. آیا می توانم به سادگی 3 تست t زوجی انجام دهم؟ مانند: paired-t-test(var1-pre, var1-post)، paired-t-test(var2-pre, var2-post) و غیره. یا تست مناسب تری وجود دارد؟ **قسمت B** : فرض کنید من یک متغیر دسته بندی هم دارم مانند: pre post cat var1 var2 var3 | cat var1 var2 var3 (البته چون موضوع در هر ردیف یکسان است، «cat» در دو ستون مقدار یکسانی دارد). مناسب ترین تست در این مورد چه خواهد بود؟ سوال مربوطه: چند نمونه زوجی آزمون t؟
آیا تست های t زوجی متعدد در بین 2 گروه ایمن و موثر هستند؟
71057
من روی یک کار طبقه بندی باینری کار می کنم که در آن یکی از متغیرهای ورودی مقادیر {A, B, C} را می گیرد. بسیاری از طبقه‌بندی‌کننده‌ها فقط ویژگی‌های عددی را به عنوان ورودی می‌گیرند، بنابراین من فکر می‌کردم بهترین راه برای انجام این کار چیست. اگر آنها را به اعداد صحیحی مانند A:1، B:2، C:3 نگاشت کنم، نگرانم که این بدان معنا باشد که A بیشتر شبیه B و کمتر شبیه به C است (زیرا |1-2|=1 و | 1-3|=2) اما این لزوما درست نیست. بنابراین آیا این روش نوعی سوگیری ایجاد نمی کند؟
تبدیل متغیرهای طبقه ای به عددی
111756
بنجامینی و هوچبرگ اولین (و فکر می‌کنم هنوز پرکاربردترین روش) را برای کنترل نرخ کشف نادرست (FDR) توسعه دادند. من می‌خواهم با دسته‌ای از مقادیر P شروع کنم، هر کدام برای مقایسه متفاوت، و تصمیم بگیرم که کدام یک به اندازه کافی پایین هستند که بتوان آن را کشف نامید، و FDR را تا یک مقدار مشخص (مثلاً 10٪) کنترل می‌کنم. یکی از مفروضات روش معمول این است که مجموعه مقایسه‌ها یا مستقل هستند یا وابستگی مثبت دارند، اما من نمی‌توانم دقیقاً بفهمم که این عبارت در زمینه تحلیل مجموعه‌ای از مقادیر P به چه معناست.
معنای وابستگی مثبت به عنوان شرط استفاده از روش معمول برای کنترل FDR
5224
من به مقالات یا کتاب های اخیر در مورد فشرده سازی تصویر با استفاده از تکنیک های مبتنی بر یادگیری ماشین علاقه مند هستم. من از نظرسنجی جیانگ در مورد فشرده سازی تصویر با استفاده از شبکه های عصبی اطلاع دارم، اما این مقاله کمی قدیمی به نظر می رسد (1999). آیا منابع جدیدتری (مقالات، کتابها) را می شناسید که به این موضوع می پردازند؟ ممنون، لوسیان
فشرده سازی تصویر با تکنیک های ML
87061
من سعی می کنم یاد بگیرم که چگونه از فیلدهای تصادفی مارکوف برای تقسیم بندی مناطق در یک تصویر استفاده کنم. من برخی از پارامترهای موجود در MRF را درک نمی‌کنم یا اینکه چرا حداکثر کردن انتظاری که انجام می‌دهم گاهی اوقات به یک راه‌حل همگرا نمی‌شود. با شروع از قضیه بیز، من p(x|y) = p(y|x) * p(x) / p(y) دارم، که در آن y مقدار مقیاس خاکستری پیکسل و x یک برچسب کلاس است. من انتخاب کردم که از توزیع گاوسی برای p(y|x) استفاده کنم، در حالی که p(x) با استفاده از MRF مدل‌سازی می‌شود. من از یک تابع پتانسیل برای MRF استفاده می‌کنم که هم پتانسیل‌های دسته جفتی و هم یک مقدار بالقوه برای برچسب کلاس پیکسل طبقه‌بندی شده دارد. مقدار پتانسیل تک پیکسل مقداری آلفای ثابت است که به برچسب کلاس x بستگی دارد. توابع پتانسیل زوجی برای همسایه های 4-متصل ارزیابی می شوند و اگر همسایه برچسب کلاسی مشابه این پیکسل داشته باشد و اگر برچسب ها متفاوت باشد بتای مثبت را برمی گرداند. در نقطه‌ای از بیشینه‌سازی انتظار که باید مقادیر آلفا(x) و بتا را پیدا کنم که مقدار مورد انتظار لگاریتم احتمال را به حداکثر می‌رساند، از روش بهینه‌سازی عددی استفاده کردم ( گرادیان مزدوج امتحان شده، BFGS، روش پاول) اما همیشه این کار را انجام می‌دادم. متوجه شوید که مقدار بتا منفی می شود، آلفاها به طور چشمگیری افزایش می یابد و یک یا دو تکرار بعد، کل تصویر فقط به یک برچسب اختصاص داده می شود. (پس زمینه: تخصیص برچسب های کلاس با توجه به پارامترهای MRF با استفاده از ICM انجام شد). اگر من آلفاها را حذف کنم، یعنی فقط با استفاده از پتانسیل های دسته جفتی، حداکثر کردن انتظار به خوبی کار می کند. لطفا توضیح دهید که منظور از آلفا برای هر کلاس چیست؟ من فکر می کردم که آنها به مقدار آن کلاسی که در تصویر وجود دارد مربوط می شوند، اما به نظر نمی رسد. هنگامی که MRF را فقط با پتانسیل های جفتی کار کردم، آن را با یک مدل مخلوط گاوسی مستقیم مقایسه کردم و متوجه شدم که آنها نتایج تقریباً یکسانی دارند. انتظار داشتم پتانسیل های زوجی کلاس ها را کمی صاف کند، اما این اتفاق نیفتاد. لطفا راهنمایی کنید کجا اشتباه کردم
آموزش یک فیلد تصادفی اولیه مارکوف برای طبقه بندی پیکسل ها در یک تصویر
45947
من برخی از تجزیه و تحلیل داده‌ها و تجسم‌سازی‌ها را روی مجموعه داده‌ام انجام دادم و متوجه شدم که احتمالاً خوشه‌های $k$ وجود دارند. چگونه می توانم از این در تنظیمات رگرسیون پیش بینی استفاده کنم؟ اولین فکر من ایجاد یک مدل رگرسیون در هر خوشه است. بنابراین با توجه به آزمایش $x$، تصمیم بگیرید که به چه خوشه ای تعلق دارد و رگرسیون پیش بینی را در آن خوشه انجام دهید. توجه داشته باشید که رگرسیون **کاملاً** مستقل از داده های سایر خوشه ها است. اما به نظر می رسد ناکارآمدی داده وجود دارد، به خصوص اگر اندازه خوشه خیلی بزرگ نباشد، بدتر است. از سوی دیگر، عملکرد یک مدل رگرسیون جهانی لزوماً تحت تأثیر حضور خوشه‌ها نیست، بنابراین می‌توانم خوشه‌ها را نادیده بگیرم. اما این به نظر هدر دادن دانش است. **TLDR: چگونه می توانم از خوشه ها در رگرسیون استفاده کنم؟**
چگونه از خروجی تجزیه و تحلیل داده ها (به عنوان مثال خوشه بندی) در رگرسیون پیش بینی استفاده کنیم؟
41190
من از libSVM برای طبقه بندی باینری استفاده می کنم و داده های آموزشی من بسیار نامتعادل است (-1:90٪، +1:10٪). با توجه به مستندات libSVM، بهتر است برای کلاس های مثبت و منفی، مجازات های متفاوتی در نظر گرفته شود. برای مثال، مشکل SVM این است: $\min\limits_{w,b,\xi} \frac{1}{2}{\bf w^Tw} + C^+\sum\limits_{y_i=1} \ xi_i + C^-\sum\limits_{y_i=-1} \xi_i$ سوال من این است که کدام پنالتی باید بزرگتر باشد و چرا. با تشکر
libSVM برای داده های نامتعادل
45942
من در حال حاضر در حال ساخت مدل خود هستم و انتخاب کرده ام که از روش حذف گام به گام به عقب استفاده کنم. من متغیرهای دسته بندی زیادی دارم و از عبارت CLASS در SAS در مدل رگرسیونی خود استفاده می کنم. چگونه تعیین کنم که آیا یک متغیر دسته بندی باید در آن باقی بماند؟ آیا بر اساس TYPE III Analysis of Effects P-value است؟ یا بر اساس P برای ارزش روند است؟ متشکرم
چگونه می توان تعیین کرد که آیا متغیر طبقه بندی در مدل آماری ساختمان باقی می ماند؟
14369
خط انتظار: M/M/3 با $\lambda = 24/u$ و $\mu = 10/u$ در مقابل M/M/1 با $\lambda = 24/u$ و $\mu = 30/u$ من در حال انجام چند تمرین در مورد تئوری خط انتظار هستم، اکنون یک سوال دارم که در طول کلاس پاسخی برای آن یادداشت نکردم. آیا صف انتظار افزایش می یابد؟ سوال این است: یک شرکت می‌تواند 24 کار در ساعت را با میانگین زمان انتظار 6 دقیقه انجام دهد. اکنون ما یک cpu B جدید داریم که می‌تواند کار را سه برابر سریع‌تر از یک cpu نوع A انجام دهد. حالا آنها می خواهند اگر 3 cpu خود را به یک تغییر دهند، آیا قرار است در صف انتظار افزایش پیدا کند؟ فکر می‌کنم تغییر تأثیر منفی خواهد داشت: من یک اجرا در ORSTAT انجام دادم که میانگین زمان انتظار 1.30 را با $u = 30$ به من داد. با این حال من نمی دانم چگونه با MM3 در اورستات شبیه سازی کنم... فکر می کنم میانگین انتظار کمتر از 1.30 باشد، چون 3 واحد کاری وجود دارد، تأثیر کمتری در تغییر شغل نسبت به زمانی که وجود دارد خواهید داشت. فقط یک سی پی یو کسی میتونه اینو تایید کنه؟
سوال تئوری صف
14364
من درگیر گرفتن علامت بزرگتر از (>=) در یک جنگل هستم. عبارت باید در نوعی ماتریس جاسازی شود. این باید ساده و مستقیم باشد، اما من نمی‌توانم فرمول مناسب را پیدا کنم، کد اشکال‌زدایی من اینجاست: library(rmeta) row_names <- matrix(list(متغیر a، عبارت(test >= 2))) test_data < - data.frame(coef=c(1.59، 1.24)، low=c(1.3، 0.99)، high=c(1.94، 1.55)) forestplot (row_names, test_data$coef, test_data$low, test_data$high, صفر = 1)
چگونه Forestplot را برای پذیرش یک عبارت در برچسب ردیف دریافت کنیم؟
66914
من یک مجموعه داده با **کیفیت**های زیر دارم: * ویژگی ها: 500 * نمونه ها: 1500 * نسبت کلاس: 1:15 * مقادیر گمشده: بله ~ 5% چگونه باید «طبقه بندی» را روی این داده ها انجام دهم که می تواند به من بدهد بهترین نتایج موارد زیر را تاکنون امتحان کرده‌ام: 1. مقادیر گمشده را با میانگین جایگزین کرد (در حال حاضر، انتساب NA با استفاده از روش‌های پیچیده انجام می‌شود) 2. «PCA» (کاهش ابعاد، کاهش تعداد ستون‌ها از 500 به 30). با تقریباً 90 درصد کیفیت داده) 3. «نمونه برداری بیش از حد» از اقلیت ها 4. الگوریتم «Ada boost» برای طبقه بندی آیا در من درست است؟ تحلیل؟ اگرچه در کل و برای هر دو کلاس نیز **100٪ دقت ** را دریافت می کنم. **آیا به هر حال می‌توانم بدون انجام «PCA» از این داده‌ها نمونه‌برداری کنم؟ ** من «SMOTE» را امتحان کرده‌ام اما این خطای colnames() را ایجاد می‌کند که من هیچ سرنخی از آن ندارم. ** آیا بسته ای در R برای هر الگوریتمی مانند «ada boost»، «جنگل تصادفی»، «ipred» وجود دارد که بتواند حساسیت هزینه را برای چنین تحلیلی برطرف کند؟ یا ممکن است یک «پارامترهای تنظیم» برای این الگوریتم‌ها باشد که توسط آن می‌توانم پارامتر هزینه را برای کلاس اقلیت تنظیم کنم؟**
طبقه بندی باینری در داده های عدم تعادل با مقادیر گمشده و ابعاد تقریباً برابر؟
45946
من در نمونه گیری کاملاً تازه کار هستم. من نمونه برداری گیبس را برای یک شبکه بیزی انجام می دهم. من از الگوریتم نمونه گیری گیبس آگاه هستم اما یک چیز را نمی توانم درک کنم. به عنوان مثال، فرض کنید شما 3 متغیر $x_1، x_2، x_3$ دارید، یعنی باید نمونه ای از فرم $(x_1,x_2,x_3)$ تولید کنید. و فرض کنید که هر سه پارامتر می توانند 3 مقدار 0،1 یا 2 را بگیرند. حال، بیایید مقدار اولیه نمونه را به صورت (2،1،1) در نظر بگیریم و $\mathbb P(x_1=0 | x_2=1,x_3) را محاسبه کنیم. =1)$، $\mathbb P(x_1=1 |x_2=1،x_3=1)$ و $\mathbb P(x_1=2 |x_2=1,x_3=1)$. اکنون، من بزرگترین احتمال را از بین این 3 مورد انتخاب می کنم و آن مقدار را به x1 اختصاص می دهم و از آن برای نمونه بعدی استفاده می کنم. می خواهم بپرسم آیا این روش برای تولید مدل صحیح است یا من کار اشتباهی انجام می دهم؟
تولید نمونه از نمونه برداری گیبس
83998
## مشکل کلی داشتن دنباله ای از مقادیر $v_0، v_\Delta، v_{2\Delta}، \ldots، v_{N\Delta}$، که در هر $\Delta$ واحد زمان اندازه گیری می شوند، معمولا ما علاقه مند هستیم در پیش بینی نتیجه آینده این دنباله در زمان $(N+1)\Delta$. اما در برخی از موارد دنیای واقعی، ما می خواهیم بدانیم، نه آینده، بلکه حقیقت را در مورد زمان حال: _اگر ماریا در واحد زمان مشاهدات بیشتری نسبت به ماکسیمیلین انجام دهد، چگونه می تواند نتایج ماریا را از خود تخمین بزند؟_ ## مثال اسباب بازی: فرآیند پواسونی یک شی را در نظر بگیرید. شی ممکن است در لحظه ای تغییر کند. شی هرگز به عقب تغییر نمی کند. تغییرات به دلیل برخی از پارامترهای فرآیند پواسون با λ رخ می دهد. ما نمی توانیم تغییرات جسم را مستقیماً مشاهده کنیم، باید اندازه گیری هایی را انجام دهیم. هر $\Delta$ واحد زمان، ما شی را مشاهده می کنیم. اگر دو اندازه گیری متوالی را با هم مقایسه کنیم، تنها دو احتمال وجود دارد: (بدون تغییر) $\bullet \to \bullet$; (یک تغییر) $\bullet \به \bullet'$. در مورد $\bullet \to \bullet$، مطمئناً می دانیم که شی بین این دو مشاهده تغییر نکرده است. اما در مورد $\bullet \to \bullet'$ فقط می دانیم که شی حداقل یک بار تغییر کرده است، اما تعداد دقیق تغییرات را نمی دانیم. ![](http://www-complexnetworks.lip6.fr/~kirgizov/notes/1-point-poisson- figure.png) دنباله ای از مشاهدات را در نظر بگیرید: $\bullet_0، \bullet_\Delta، \bullet_{2 \Delta}، \ldots، \bullet_{N\Delta}$. اندازه‌گیری‌های $N+1$ وجود دارد. بین هر جفت مشاهدات متوالی فاصله زمانی $\Delta$ وجود دارد. بنابراین، ما دنباله ای از بازه های $N$ داریم. تعداد بازه‌های بدون تغییر را با $W$ نشان دهید ($\bullet \به \bullet$). در یادداشت کوچک خود ما یک برآوردگر مجانبی و بی طرفانه $\hat\lambda$ پیشنهاد می کنیم: $$ \newcommand{\E}{\mathbb{E}} \hat\lambda = - \Delta^{-1} \log \frac{ W}{N} $$ $$ \begin{aligned} \Delta & \text{ -- اندازه فاصله زمانی بین مشاهدات} \\\ W & \text{ -- تعداد بازه‌های بدون تغییر} \\\ N & \text{ -- تعداد کل بازه‌ها} \end{aligned} $$ همچنین بایاس آن را محاسبه کردیم: $$ \E \left[ \hat\lambda - \lambda \right] \approx \frac{1}{2N\Delta} \left(e^{\lambda\Delta} - 1\right) $$ اکنون دوست ما، Maximilien می تواند از $\hat\lambda$ برای تخمین مقدار واقعی $\lambda$ استفاده کند. با استفاده از این $\lambda$ او در واقع تمام اطلاعات لازم در مورد فرآیند را می داند. بنابراین، ماکسیمیلین می‌تواند نتایج ماریا را (در برخی موارد) پیش‌بینی کند. علاوه بر این، صرف نظر از تاخیر بین اندازه‌گیری‌ها، اما با تعداد مشاهدات کافی، می‌توانیم $\lambda$ را بسیار دقیق تخمین بزنیم (به دلیل $\lim_{N \to \infty} \left[ \hat\lambda \right] = \ لامبدا دلار). ## سوالات * آیا می دانید کدام زیر دامنه آمار با مشکلات مشابه سروکار دارد؟ * هنگامی که Pcoess زمینه ای غیر پواسونی است، چه کار می کنیم؟
اگر ماریا در واحد زمان مشاهدات بیشتری نسبت به ماکسیمیلین انجام دهد، چگونه می‌تواند نتایج ماریا را از خود تخمین بزند؟
87065
من داده‌هایی دارم که از طریق رگرسیون چندگانه استاندارد مدل‌سازی می‌کنم به جز: 1. سانسور وجود دارد (نقاط سانسور چپ سانسور شده، ثابت اما متغیر که مشخص هستند) 2. خطاها نرمال مستقل اما واریانس غیر ثابت فرض می‌شوند. وزنه ها موجود است. اگر واریانس ثابت بود، من از مدل Tobit و تابع ()survreg در R استفاده می‌کردم. با تشکر
رگرسیون خطاهای عادی وزنی با سانسور
14360
روش متداول تخمین ماتریس انتقال MC با توجه به سری های زمانی چیست؟ آیا تابع R برای انجام این کار وجود دارد؟
تخمین احتمالات زنجیره مارکوف
111750
من امیدوار بودم که اگر کسی بتواند من را در جهت درست راهنمایی کند، می‌خواهم یک شبکه عصبی را پیاده‌سازی کنم که بتواند یک ماشین خودران را هدایت کند، من قبل از استفاده از پرسپترون‌های تک لایه، مسائل طبقه‌بندی اولیه را پیاده‌سازی کرده‌ام. و همچنین سابقه ای در پردازش تصویر دارم. 1. در مورد پروژه می توانم از پرسپترون تک لایه استفاده کنم، اگر نه چه الگوریتمی می تواند بهتر به من کمک کند؟ 2. لطفاً به طور شهودی توضیح دهید، چه چیزی برای طبقه‌بندی وجود دارد (ورودی طبقه‌بندی کننده چیست، وقتی صحبت از تصویری می‌شود که می‌تواند به ربات در تصمیم‌گیری فرمان کمک کند؟ [مثلاً هیچ شیئی وجود ندارد که فقط پیاده‌روها و نشانگرهای جاده مرکزی در نظر گرفته شوند. 3. اگر ادبیاتی در مورد فرمان خودکار وجود دارد لطفاً به اشتراک بگذارید.
فرمان خودکار با استفاده از شبکه های عصبی
92364
من روی ابزارهای طبقه بندی SVM و ANN کار می کنم. به منظور بهبود دقت طبقه‌بندی، می‌خواهم بهترین یا پیش‌پردازش داده‌های توصیه‌شده را بدانم، آیا مقیاس‌بندی/نرمال‌سازی است یا استانداردسازی؟ و چرا با تشکر فراوان
مقیاس‌بندی/نرمال‌سازی یا استانداردسازی
83991
من باید ثابت کنم که متغیر تصادفی پارتو مخلوطی از توزیع گاما و نمایی است اما برای یک قسمت از اثبات به کمک نیاز دارم. $X$ را نمایی با پارامتر $\lambda$ و $\Lambda$ را گاما با پارامترهای $\alpha$ و $\beta$ در نظر بگیرید. بنابراین می توان گفت توزیع مخلوط $X$ $$ \begin{align} f_{X|\alpha, \beta} &= \int_0^\infty \lambda e^{-\lambda x} \cdot \frac است {1}{\Gamma (\alpha) \beta ^ \alpha} \lambda^{\alpha - 1} e^{-\frac \lambda \beta} d\lambda\\\ &=\frac {1} {\Gamma (\alpha) \beta ^ \alpha} \int_0^\infty \lambda ^\alpha e^{-\lambda x - \lambda \frac 1 \ بتا} d\lambda\\\ &=\frac{\Gamma (\alpha +1)}{\Gamma (\alpha) \beta^\alpha} \int_0^\infty \frac{\lambda ^\alpha e^{-\lambda x - \lambda \frac 1 \beta}}{e^{-\lambda}\lambda^\alpha} d\lambda\\\ &= \frac{\alpha}{\beta^\alpha}\int_0^\infty e^{\lambda \frac{\beta - x -1}{\beta}} d\lambda\\\ &=\frac{\alpha}{\beta^\alpha}\begin{bmatrix} \frac{\beta}{\beta - x -1}e^ {\lambda\frac{\beta - x - 1}{\beta}} d\lambda\end{bmatrix}^\infty _0\\\&=?\\\ &=\frac{\alpha}{\beta^\alpha}\begin{bmatrix}\frac{\beta}{\beta x+1}\end{bmatrix}^{\alpha +1} \end{align} $$
اثبات اینکه پارتو مخلوطی از نمایی و گاما است
94931
در مدل خطی SVM، می‌توان معادله زیر را برای توصیف چگونگی دستیابی به حاشیه حداکثر در حالی که داده‌ها را در دو گروه طبقه‌بندی کرد: \begin{equation} L(w, \epsilon) = w\cdot w + \lambda\ sum\limits_{i=1}^R \epsilon_i \end{equation} در بالا، $w$ بردار وزن است و $\epsilon_i$ فاصله‌های خطا برای طبقه‌بندی اشتباه $x_i$ است. در مجموع طبقه بندی های اشتباه $R$ وجود دارد. کتاب درسی من به من می گوید که اگر $\lambda$ کوچک باشد، ما یک حاشیه بزرگ را به چند خطا ترجیح می دهیم و بالعکس. من اصلا این استدلال را نمی فهمم. من نمی‌دانم که تغییر $\lambda$ چگونه بر کمینه‌سازی $L$ تأثیر می‌گذارد. لطفاً کسی می تواند برای من توضیح دهد که چگونه تغییر $\lambda$، آنچه را که در $L$ به حداقل می رسد تغییر می دهد؟
درک مبادله با منظم سازی در SVM ها
87068
من آزمایشی را برای مقایسه عملکرد دو الگوریتم اجرا کردم. طراحی آزمایش من مقایسه های زوجی است. من نتایج خود را به این صورت گزارش می‌کنم: > هیچ گونه پرت در داده‌های تفاوت میانگین که با بازرسی > boxplot ارزیابی شد، وجود نداشت. فرض نرمال بودن آنطور که توسط > چولگی 0.2276 (SE = 0.4405) و کشیدگی 0.2766- (SE = 0.8583) ارزیابی شد، نقض نشد. عملکرد > در الگوریتم A (M = 0.3876، SD = 0.3138) بالاتر از > الگوریتم B (M = 0.2241، SD = 0.3476) بود، که میانگین آماری معنی‌دار > 0.1635، 95% فاصله اطمینان (CI) [0.0287، 7]0. t(27) = 2.7007، p = 0.0118، d = > 0.4938، 95% فاصله اطمینان (CI) برای d [-0.0501، 1.0378]. توجه داشته باشید که **فاصله اطمینان 95% برای تفاوت میانگین شامل صفر نمی شود اما فاصله اطمینان 95% برای کوهند شامل صفر است**. می خواستم به این نتیجه برسم که الگوریتم A عملکرد بهتری نسبت به الگوریتم B با اهمیت آماری و اندازه اثر متوسط ​​دارد، اما در مورد چگونگی تفسیر فاصله اطمینان برای d کوهن گیج شدم. در مورد اندازه اثر با این داده ها چه می توانم بگویم؟ در زیر اطلاعات من و نحوه محاسبه مقادیر با استفاده از R آمده است. از توجه شما متشکرم. a = c(0.40000000، 0.44011976، 0.72727273، 0.50000000، 0.00000000، 0.07692308، 0.000000000، 0.00000000، 0.0000000، 0.0000000 1.00000000، 0.50000000، 0.91666667، 0.19354839، 0.74883721، 0.50000000، 0.50000000، 0.5500000000، 0.55000000000، 0.55000000000، 0.5500000000، . 0.00000000) b = c(0.00000000، 0.54491018، 0.72727273، 0.00000000، 0.00000000، 0.000000000، 0.000000000، 0.00000000، 0.0000000 0.00000000، 1.00000000، 0.00000000، 0.00000000، 0.00000000، 0.00000000، 0.33953488، 0.00000000، 0.000000000، 0.000000000، 0.48571429، 0.00000000، 0.83783784، 0.80000000، 0.57142857، 0.00000000، 0.00000000، 0.06393890000، 0.06393862، 0.06393890000 0.00000000، 0.00000000) mean(a) sd(a) mean(b) sd(b) t.test(a, b, paired=TRUE) library(compute.es) mes(mean(a)، mean(b)، sd(a)، sd(b)، طول (a)، طول (b)، dig=4)
تضاد در فواصل اطمینان برای تفاوت میانگین و فاصله اطمینان برای اندازه اثر کوهن
83995
در حال حاضر در حال تحقیق در مورد خوشه بندی تک کلمات هستم. ورودی این تحقیق فهرست کلمات (یونیگرم) می باشد. در طول تحقیق می خواهم الگوریتم های مختلف خوشه بندی را با هم مقایسه کنم تا ببینم مزایا و معایب آنها چگونه بر نتایج تأثیر می گذارد. در حال حاضر من دو مرحله را در تحقیق شناسایی کرده ام که ابهام زدایی و خوشه بندی است. در مرحله اول (ابهام زدایی) معنای واقعی کلمات مشخص خواهد شد. من پیشنهاد می کنم که یک زمینه پنهان بین کلمات وجود داشته باشد که می تواند به یافتن معنای واقعی کلمات کمک کند. این با استفاده از الگوریتم‌ها و آثار ابهام‌زدایی حس کلمه آزمایش شده است. با این الگوریتم (یا الگوریتم دیگر در صورت نیاز) می توانم شباهت یا فاصله کلمات را محاسبه کنم. بنابراین، خروجی مرحله اول می تواند یک ماتریس شباهت باشد. این ماتریس شباهت ورودی مرحله خوشه خواهد بود. الگوریتم‌های خوشه‌بندی سلسله مراتبی هیچ مشکلی ایجاد نمی‌کنند، الگوریتم‌هایی مانند خوشه‌بندی تجمعی را می‌توان به راحتی بر اساس ماتریس اعمال کرد، اما من همچنین می‌خواهم ببینم چگونه الگوریتم‌های خوشه‌ای غیر سلسله مراتبی مانند: K-means یا نسخه نرم الگوریتم Expectation-Maximization (EM). اگرچه من نمی توانم پیدا کنم که چگونه یک شباهت یا ماتریس فاصله می تواند به عنوان مجموعه داده در یک الگوریتم k-means استفاده شود. وقتی به این الگوریتم‌ها نگاه می‌کنم (به عنوان مثال http://phpir.com/clustering) می‌بینم که حداقل به X و Y نیاز دارید، همچنین برای رسم آن‌ها در یک صفحه دو بعدی، اما من نمی‌دانم این متغیرها را کجا پیدا کنم. در ماتریس من من سعی کردم ماتریس را با استفاده از مقیاس بندی چند بعدی تبدیل کنم، اگرچه نتایج قطعی نبود. برخی از خوشه ها قابل مشاهده هستند، اما من این احساس را دارم که چیزی را از دست داده ام. سوال من این است: چگونه می توانم ماتریس شباهت یا فاصله را برای الگوریتم هایی مانند k-means، EM یا حتی الگوریتم های دیگر اعمال کنم.
خوشه بندی کلمات با استفاده از الگوریتم های مختلف
17946
من قبلاً از روش MCMC برای تخمین مدل‌های خطی با استنتاج کاملاً بیزی استفاده کردم و مشکلی از ضرایب تخمینی نداشتم. اخیراً من از همین روش در یک مدل نیمه پارامتریک Cox PH استفاده می‌کنم و توزیع‌های خلفی منحرف زیادی را دریافت می‌کنم که میانگین‌های خلفی پارامترها را تقریباً به 2.5 یا 97.5 نزدیک می‌کند. من سعی می کنم تعداد تکرار (30000 -> 50000) و مرحله (20 -> 40) را با برینین = 10000 افزایش دهم تا احتمال خلفی متقارن تر شود. گاهی اوقات متقارن می شود، اما گاهی اوقات همچنان در نهایت کج می شود. من همچنین از پیشنهادهای قبلی مشروط و حداقل مربعات وزنی تکراری بر اساس حالت های پسین برای افزایش نرخ پذیرش استفاده می کنم، اما همچنان بی فایده است. این داده ها شامل بیش از 8000 بیمار سرطانی است که داده های بسیار کمی از دست داده اند. متغیرهای مستقل یا باینری یا مقیاس هستند. تا کنون بهترین راه را برای متقارن کردن توزیع پسین پیدا نکرده ام. کاری که من می توانم انجام دهم این است که مکرراً مدل را برازش کنم تا ببینم آیا احتمال پسین تصادفی منحرف نشده است یا خیر. دلیل اینکه من احساس بیماری می کنم این است که تناسب مدل بسیار وقت گیر است. هر مدل 45 دقیقه تا 75 دقیقه را با ترکیب های مختلف متغیرها صرف کرده است، و من 8 مدل در سه علت خاص دارم. هر مدل شکست خورده یعنی 1 ساعت اتلاف عمر من. امیدوارم برخی از افراد بتوانند تجربیات شما را در مواجهه با این مشکل به اشتراک بگذارند. نرم افزار مربوطه BayesX است. من از هر توصیه ای قدردانی می کنم! * * * **ویرایش** Xi'an، از آنجایی که من همیشه توزیع متقارن خلفی پارامترهای تخمین زده شده را در مدل مختلط خطی توسط MCMC دریافت می کنم، فرض می کنم که مدل Cox PH باید همان سناریو را داشته باشد. در اینجا دو نتیجه از یک مدل PH کاکس با داده‌های من آمده است: مدل 1: h(t,z)=ho(t)exp{ intercept + sex + white + agedx + history} میانگین متغیر Std. توسعه دهنده مقدار 2.5٪ میانه 97.5٪ کمیت. const -4.2486 0.29328 -4.70006 0.249887 0.068665 جنسیت 0.0123228 0.0514687 -4.52946 0.0175766 0.0982832 0.0982839 0.0982839 0.0982839 0.0982839 0.0982839 0.0982839 0.0982839 0.0123228 0.52946 -0.0. -4.51786 -0.195356 0.0779398 agedx 0.00786072 0.00370628 -4.53803 0.00139 0.0734418 تاریخ 0.627554 0.151424 - 0.151414 0.800568 مدل 2: h(t,z)=ho(t)exp{ intercept + جنسیت + white + agedx + test} میانگین متغیر Std. توسعه دهنده مقدار 2.5٪ میانه 97.5٪ کمیت. const -4.12811 0.305912 -4.74401 -4.08631 0.134946 جنسیت 0.0138823 0.0532634 -0.219711 0.0135219 0.148527 0.148527 0.148527 0.148527 0.148527 0.148527 0.134949 -0. -0.372975 -0.223358 0.111341 oldx 0.00737788 0.0037846 -0.214211 0.00705715 0.101075 تست -0.151933 -0.151933 - 0.00737788 - 0.00705715 0.101187 متغیرهای جنسیت، white و agedx یکسان هستند. فقط آخرین متغیر یکسان نیست. میانگین های بعدی جنسیت، سفید و پیریx مشابه هستند، اما کمیت 2.5٪ و کمیت 97.5٪ بسیار متفاوت هستند. اگر توزیع خلفی نمی تواند متقارن باشد، کدام نتیجه قابل اعتماد است؟
توزیع نمونه بر اساس استنتاج کاملاً بیزی از MCMC در مدل‌های PH کاکس ناهنجار است.
9810
من می خواهم مقایسه کنم که آیا سه گروه با یک آزمون ناپارامتریک متفاوت هستند یا خیر. حال... مشکل این است که دو گروه جفت هستند (قبل از درمان و یک سال بعد از درمان) و گروه (مرجع) افراد سالم دیگر هستند. آیا راه حل ساده ای وجود دارد؟ من از R استفاده می کنم،
کدام آزمون ناپارامتریک برای تفاوت بین سه گروه که دو گروه جفت هستند؟
47736
مثال زیر طولانی data.frame را با دو معیار وابسته، امتیاز و مغییر جدید، 1 متغیر بین آزمودنی ها آماده سازی (3 سطح)، 2 متغیر درون آزمودنی ها روز (3 سطح) و آزمایش (2) در نظر بگیرید. سطوح)، و یک شناسه موضوعی SID. مثال <- ساختار(لیست(SID = ساختار(c(1L, 8L, 12L, 13L, 5L, 6L, 1L, 8L, 12L, 13L, 5L, 6L, 1L, 8L, 12L, 13L, 5L, 6L, 1L ، 8 لیتر، 12 لیتر، 13 لیتر، 5 لیتر، 6 لیتر، 1L، 8L، 12L، 13L، 5L، 6L، 1L، 8L، 12L، 13L، 5L، 6L)، .Label = c(S1، S10، S11، S12، S13، «S14»، «S15»، «S2»، «S3»، «S4»، «S5»، «S6»، «S7»، S8، S9)، کلاس = عامل)، آماده سازی = ساختار (c(2L، 2L، 1L، 1L، 3L، 3L، 2L، 2L، 1L، 1L، 3L، 3L، 2L، 2L، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۲ لیتر، ۲ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، 2L، 2L، 1L، 1L، 3L، 3L، 2L، 2L، 1L، 1L، 3L، 3L)، .Label = c(فقط کار گروهی، فقط سخنرانی، بدون دستورالعمل)، کلاس = ضریب)، روز = ساختار (c(1L، 1L، 1L، 1L، 1L، 1L، 2L، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، .Label = c(Day1، Day2، Day3)، class = factor)، امتیاز = c(14، 14، 16، 18، 11، 12، 13، 15، 17، 15، 12 ، 11، 18، 17، 18، 17، 10، 12، 15، 15، 17، 19، 12، 13، 14، 16، 18، 16، 13، 12، 19، 18، 19، 18، 11، 13)، NewVariable = c(-0.887056411864653، -0.48034302، -0.48034302 -0.490415963314823، 1.3654758915317، -1.90913204292831، 0.0300532242614742، -1.84822348735201، -0.84822348735201، -0.57206، -0.5729 -1.70572162896999، 1.00321046322335، -0.758813794873949، -0.966033445643038، 0.11876111343571، -1.3271، -1.2323 -0.836123526615442، 0.137868615951057، -1.05143917652043، -0.556162009526374، 0.112943588135318، 0.112943588135318، 0.112943588135318، 0.112943588135347، 35369، 0.112943588135347، 0.112943588135347، 0.836123526615442. 0.509584036685177, 2.3654758915317, -0.909132042928306, 1.03005322426147, -0.848223487352064, 0.848223487352068, 0.6491,0. -0.705721628969986، 2.00321046322335، 0.241186205126052، 0.0339665543569619، 1.11876111343571، 1.11876111343571، -0. 0.163876473384558، 1.13786861595106، -0.0514391765204339، 0.443837990473626)، آزمایش = c(1، 1، 1، 1،1،1،1،1،1،1، 1، 1، 1، 1، 1، 1، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2))، .Names = c(SID، Prep، Day، Score، NewVariable، Experiment)، row.names = c(1، 2، 6، 7، 13، 14، 16، 17، 21، 22, 28، 29، «31»، «32»، «36»، «37»، «43»، «44»، «11»، «23»، «61»، «71»، «131»، «141»، «161» ، 171، 211، 221، «281»، «291»، «311»، «321»، «361»، «371»، «431»، «441»)، class = «data.frame») بهترین تلاش من تاکنون شامل ایجاد دو مجموعه داده گسترده متناظر، به عنوان مثال. library(reshape2) dcast(example,SID+Prep~Day+Experiment,value.var=Score) dcast(example,SID+Prep~Day+Experiment,value.var=NewVariable) ... سپس به صورت دستی چسباندن آنها دوباره با هم آیا راه بهتری وجود دارد؟
چگونه می توان چندین DV را از طولانی به گسترده تبدیل کرد؟
87066
من در R lib(e1071) کار می کنم و می خواهم بدانم با توجه به تخصص شما، کدام نوع طبقه بندی با SVM برای داده های مالی مناسب تر است؟ من می دانم که انواع زیادی وجود دارد: 1. طبقه بندی C (من این را امتحان کرده ام. مطمئن نیستم که بهترین است) 2. طبقه بندی nu 3. یک طبقه بندی (برای تشخیص تازگی) 4. رگرسیون eps 5. nu- رگرسیون برای (1) من متوجه شده ام که برای مدت طولانی تمایل به انتشار یک نتیجه دارد: مثال: دادن بردارهای ورودی مختلف (اما همچنان مشابه): بودن B برای خرید یا S برای فروش. a) Output: B-B-B-B-B-B-B-B-B-B-B-B-B-B-B-S-S-S- S-S-S-S-S-S-S-S-S Instead of b) Output: B-B-S-B-S-S-B-S-B-S-B-B-S-S I believe b) is more realistic than a). من از هسته Radial استفاده می کنم. با تشکر
نوع طبقه بندی SVM در R
47731
فرض کنید می خواهم به سوال زیر پاسخ دهم: متغیرهای توضیحی را از مهم ترین به کم اهمیت ترین رتبه بندی کنید. من می خواهم کارهای زیر را انجام دهم: لامبدا را از بزرگ به کوچک انتخاب کنید و در جدولی گزارش دهید: وقتی لامبدا 100، 80، 60، 40، 20، 10 است، متغیرهای توضیحی چنین و چنان هستند و بارگذاری آنها چنین و چنان است. 1. آیا انجام این کار قانونی است؟ هر لامبدا نشان دهنده یک قبلی لاپلاس است، گزارش مقادیر لامبدای متعدد معادل داشتن چندین پیشین خواهد بود. عجیب به نظر می رسد که می توانیم چندین پیشین داشته باشیم. 2-اگر قانونی نیست از چه روشی برای پاسخ به سوال اصلی خود استفاده کنم.
استفاده از LASSO برای رتبه بندی ویژگی ها
83990
من با مقدار انحراف بازگردانده شده توسط انحراف (glm.model) کمی گیج شده ام. من مقادیر کاملاً متفاوتی را برای داده‌های یکسانی که به GLM‌های مختلف نصب شده است، با استفاده از خانواده=گاما (پیوند=هویت) (مدل‌های 1/2) و گاوسیان (پیوند=هویت) (مدل‌های 3/4) دریافت می‌کنم. > print(r) انحراف AIC Model1 44.96093 2530.558 Model2 45.13543 2528.683 Model3 3028.56880 2487.124 Model2 3299.93121 2739.563 نوع از آن را محاسبه کردم مشاهده با استفاده از: > deviance(mod1) [1] 44.96093 > deviance(mod1,type=resp) [1] 44.96093 > deviance(mod1,type=dev) [1] 44.96093 که همه به من نشان می دهند 'type=' روش صحیحی برای انتخاب آنها نیست. آیا کسی می تواند به من بگوید که چگونه می توان مقادیر انحراف قابل مقایسه را از glm() برای خانواده های مختلف دریافت کرد؟ ممنون کریس
انحراف در مدل های خطی تعمیم یافته برای خانواده های مختلف
82111
فرض کنید من یک مدل رگرسیون لجستیک را بر روی برخی از داده‌ها با 1 متغیر طبقه‌بندی برازش می‌کنم، فرض کنید این متغیر می‌تواند 5 مقدار مختلف داشته باشد، به عنوان مثال: کشور‌ها، یا شهرها به عنوان مثال: NY، NJ، لندن، ..... حالا، اگر این مدل و تبدیل به نسبت شانس و در نهایت به احتمالات. آیا احتمالات دقیقاً مشابه خواهند بود که من فقط نسبت‌ها را انجام دادم یا تفاوت بین احتمالات لجستیک و نسبت‌های واقعی به خوبی تناسب بستگی دارد؟ با تشکر فراوان،
رگرسیون لجستیک با 1 متغیر مقوله ای مستقل، خوبی برازش
83997
این یک مسئله تکلیف از تجزیه و تحلیل داده های طبقه بندی شده توسط آلن آگرستی (1.33) برای آزمایش $H_0:\pi_j=\pi_{j0}$, $j=1,\ldots,c$ است، با استفاده از نسبت های چند جمله ای نمونه $\\{\ hat{\pi}_j\\}$، آمار نسبت احتمال $$G^2=-2n\sum_{j=1}^c است \hat{\pi}_j\log{(\pi_{j0}/\hat{\pi}_j)}$$ نشان دهید که $G^2\geq 0$، با برابری اگر و فقط اگر $\hat{\ pi}_j=\pi_{j0}$ برای همه $j$. [نکته: نابرابری جنسن را روی $\text{E}[-2n\log{X}]$ اعمال کنید، جایی که $X$ برابر است با $\pi_{j0}/\hat{\pi}_j$ با احتمال $\hat{ \pi}_j$.] **اولین تلاش من برای این راه حل بر اساس این نکته:** اجازه دهید $X$ یک متغیر تصادفی باشد به طوری که $\text{Pr}(X=\pi_{j0}/\hat{\pi}_j)=\hat{\pi}_j$. از آنجایی که $\phi(x)=-2n\log{x}$ یک تابع محدب است، با نابرابری جنسن \begin{align*} -2n\log{\text{E}[X]} &\leq \ text{E}[-2n\log{X}]\\\ -2n\log{\left(\sum_{j=1}^c \dfrac{\pi_{j0}}{\hat{\pi}_j}\text{Pr}(X=\pi_{j0}/\hat{\pi}_j)\right)} &\leq -2n\ sum_{j=1}^c \log{(\pi_{j0}/\hat{\pi}_j)}\text{Pr}(X=\pi_{j0}/\hat{\pi}_j)\\\ -2n\log{\ چپ(\sum_{j=1}^c \pi_{j0}\right)} &\leq -2n\sum_{j=1}^c \hat{\pi}_j\log{(\pi_{j0}/\hat{\pi}_j)}\\\ -2n\log{1} &\leq G^2\\\ 0 &\leq G ^2 \end{align*} با برابری دقیق زمانی که $X$ یک توزیع منحط است (یعنی ثابت است) که زمانی اتفاق می‌افتد که $\hat{\pi}_j=\pi_{j0}$ برای همه $j$. **نگرانی ها/سوال:** پس از نوشتن این راه حل، متوجه شدم که شاید $X$ لزوماً یک متغیر تصادفی خوب تعریف نشده باشد. به عنوان مثال، اگر نسبت $\pi_{j0}/\hat{\pi}_j$ برای چندین $j$ یکسان باشد، در این صورت می‌توانیم چندین تخصیص احتمال متفاوت داشته باشیم. بچه ها نظرتون چیه؟ به نظر شما راه حل من منطقی است؟ آیا من چیزی را از دست داده ام؟ ویرایش: راه حل من با آنچه Agresti برای راه حل در وب سایت خود (http://www.stat.ufl.edu/~aa/cda/solutions-part.pdf) دارد مطابقت دارد، اما من می خواهم کسی نگرانی های من را کاهش دهد. در مورد اینکه آیا این راه حل معتبر است یا خیر.
نمایش آماره LRT برای آزمون فرضیه چند جمله ای غیر منفی است
94933
من می خواهم فاصله اطمینان 95٪ را برای ترکیبی از داده های باینری و داده های پیوسته محاسبه کنم. فرض کنید من می خواهم تولید یک کالای خاص را از تمام کارخانه های یک کشور مشخص تخمین بزنم. من اندازه جمعیت (1000) را می دانم و برای مثال یک نمونه با اندازه 50 انتخاب می کنم. از 50، مثلاً 10 مورد A را تولید می کند. 95% CI آن نسبت 20% +- 8.3% خواهد بود، یعنی 11.7% - 28.3% اگر مقادیر مورد A عبارتند از: 100، 80، 120، 200، 150، 90، 110، 190، 180، 120 میانگین می شود باشد: 134 SEM: 13.7 و 95٪ CI از 103 - 164 می رسد سؤال من اکنون این است: بهترین حدس برای تولید جمعیت مورد A 20٪ * 134 است بنابراین برای همه 1000 کارخانه 134 * 200 (20٪ از 1000) اما CI 95% چطور؟ آیا حداقل هر دو محاسبه یعنی 11.7% * 1000 * 103 و حداکثر هر دو را می‌گیرم یعنی: 28.3% * 1000 * 164 به نظر می‌رسد که حداکثر عدم قطعیت را لحاظ کنم و 95% CI را به عریض تبدیل کنم. اما اگر فقط از نسبت میانگین برای هر دو استفاده کنم، یعنی 20% * 1000 * 103 برای دقیقه و 20% * 1000 * 164 برای حداکثر، احساس می کنم منبع دوم واریانس را از دست می دهم. انجام 11.7% * 134 (میانگین تولید A) * 1000 تا 28.3% * 134 * 1000 درست به نظر نمی رسد. هر فکری؟
نحوه محاسبه فاصله اطمینان برای ترکیبی از نسبت و داده های پیوسته
45945
من می خواهم ناهنجاری ها یا بدرفتاری های کاربر را در یک وب سایت شناسایی کنم. برای هر کاربری که مرورگر وب مورد استفاده، IP (و در نتیجه ISP و موقعیت جغرافیایی) کاربر و همچنین فعالیت های کاربران در سایت را کنترل می کنم (حدود 10 نوع فعالیت وجود دارد). من فکر کردم که یک مدل مارکوف پنهان برای این نوع بسازم، اما تمام نمونه هایی که در شبکه می بینم فقط از یک پیش بینی استفاده می کنند، در حالی که در اینجا حداقل سه خانواده داریم: (1) اطلاعات مرورگر وب. (2) اطلاعات به دست آمده از IP کاربر و (3) فعالیت کاربر در سایت. چگونه این پیش بینی ها در یک مدل مارکوف واحد ترکیب می شوند؟ همچنین، آیا داده های مجموعه آموزشی باید از قبل به عنوان عادی/سوءاستفاده کننده برچسب گذاری شوند؟ PS: چرا اصرار دارم از مدل های مارکوف به جای سایر روش های طبقه بندی استفاده کنم؟ حقیقت این است که من یک طبقه بندی کننده شبکه عصبی بسیار موفق دارم که کار می کند. من مدل‌های مارکوف (یا HMM) را عمدتاً به‌عنوان تمرین، اما همچنین به‌عنوان روشی بالقوه برای مقابله با مشکل برچسب‌گذاری بررسی می‌کنم: تأیید رفتار غیرعادی سخت است، همه فعالیت‌های کاربر که معتقدم «غیر معمول» هستند، واقعاً چنین نیستند. و علاوه بر این، ممکن است فعالیت‌های سوءاستفاده‌کننده‌ای وجود داشته باشد که ممکن است از آنها بی‌اطلاع باشد.
تشخیص ناهنجاری در رفتار کاربر با استفاده از مدل‌های پنهان مارکوف
66911
**خلاصه:** من یک مدل مفهومی با عوامل کمی ساختم که بر 1 DV تأثیر می گذارد. همه عوامل و تأثیرات مبتنی بر نظریه است. با این حال، بسیاری از آنها به طور مبهم تعریف شده اند و به نظر می رسد کمی آنها دشوار است. در تلاشم برای تعیین کمیت عوامل، از متغیرها یا معیارهای مشاهده شده استفاده می کنم. برخی از عوامل تنها با 1 متغیر مشاهده شده اندازه گیری می شوند، در حالی که برخی دیگر با 2 یا 3 متغیر اندازه گیری می شوند. **سوالات** هنگام تلاش برای اثبات/رد فرضیه هایم چگونه باید با عوامل پیش رفت؟ به عنوان مثال فرضیه های من عبارتند از: * عامل 1 (اندازه گیری شده با var.1 و var.2) به طور مثبت بر DV تأثیر می گذارد. * عامل 2 (اندازه گیری شده با var.3) به طور مثبت بر DV تأثیر می گذارد. آیا باید به سراغ تحلیل عاملی تاییدی (SEM) بروم و سپس از نمرات عاملی برای آزمایش فرضیه هایم استفاده کنم؟ اگر بله، آیا درست است که در SEM عوامل ساخته شده توسط تنها 1 متغیر مشاهده شده لحاظ شود؟ با تشکر از حمایت
آزمایش فرضیه عوامل نهفته - CFA یا چیز دیگری؟
48811
برای داده های شمارشی که جمع آوری کرده ام، از رگرسیون پواسون برای ساخت مدل ها استفاده می کنم. من این کار را با استفاده از تابع glm در R انجام می دهم، جایی که از family = poisson استفاده می کنم. برای ارزیابی مدل های ممکن (من چندین پیش بینی دارم) از AIC استفاده می کنم. تا اینجای کار خیلی خوبه. اکنون می خواهم اعتبارسنجی متقاطع را انجام دهم. من قبلاً با استفاده از تابع 'cv.glm' از بسته 'boot' موفق به انجام این کار شده ام. از مستندات cv.glm می بینم که به عنوان مثال. برای داده های دوجمله ای باید از یک تابع هزینه خاص استفاده کنید تا یک خطای پیش بینی معنی دار دریافت کنید. با این حال، من هنوز نمی‌دانم که کدام تابع هزینه برای «family = poisson» مناسب است، و جستجوی گسترده گوگل هیچ نتیجه خاصی را به همراه نداشت. سوال من این است که هر کسی می تواند روشن کند که کدام تابع هزینه برای cv.glm در مورد poisson glm مناسب است.
تابع هزینه برای اعتبارسنجی مدل های رگرسیون پواسون
48813
من یک نمونه 300 شرکتی دارم که بر اساس فعالیت های مختلف اقتصادی طبقه بندی شده اند. به عنوان مثال قطعات کامپیوتر 20 درصد نمونه، خدمات پزشکی 5 درصد، فرآوری چوب 15 درصد و غیره را شامل می شود. در صورت انجام یک تحلیل کلی، نتایج به دلیل تفاوت در نسبت‌های بین بخش‌ها، مغرضانه خواهد بود. از این منظر، کدام توصیه برای تحلیل و ارائه نتایج است؟
تجزیه و تحلیل داده ها برای داده های طبقه بندی شده
47730
می‌خواهم تست کولموگروف-اسمیرنوف را روی داده‌هایم اجرا کنم تا مشخص کنم که چقدر با یک تابع توزیع پیوسته خاص که در ذهن دارم مطابقت دارد. اگر درک من درست باشد، آزمون کولموگروف-اسمیرنوف را می توان در R با چیزی در امتداد خطوط انجام داد: ks.test (my_data، pweibull, shape=2، scale=1) که در مورد بالا pweibull نشان دهنده آزمایشی در برابر تابع _Weibull_ است. مشکلی که من دارم این است که تابعی که می‌خواهم با آن آزمایش کنم (تابع BiPareto که در اینجا برای ارزش آن تعریف شده است) بخش استاندارد R نیست. آیا می‌توان تابع خود را با پارامترهایی در R تعریف کرد که بتوان آن را به `ks.test()` منتقل کرد؟ یعنی بنابراین می توانم تماسی مانند: ks.test (my_data، bipareto، alpha=a_param، beta=b_param، c=c_param، k=k_param) داشته باشم.
R: تعریف تابع توزیع پیوسته جدید برای استفاده با آزمون کولموگروف-اسمیرنوف
47738
من مطمئن نیستم که این را در سایت Mathematics of Physics Stack Exchange بپرسم یا نه. من برای یک برنامه تحقیقاتی فیزیک داده می گیرم و در مورد استفاده از میانگین در مقابل میانگین سوال دارم. من نگران مقداری هستم که برای به دست آوردن هر نقطه داده (مکان) لازم است. برای هر نقطه در حال حاضر چندین اندازه گیری می کنم، آنها را میانگین می زنم و از انحراف استاندارد میانگین به عنوان محاسبه خطای خود برای نقطه استفاده می کنم. مشکل من این است که برای من معقول است که برای هر نقطه داده تعداد نسبتاً کمی اندازه گیری کنم (زیر 10). به نظرم می رسد؛ اگر هر یک از اندازه گیری ها به شدت از مقدار واقعی متفاوت باشد، میانه اندازه گیری ها در نقاط داده کمتری نسبت به میانگین به مقداری نزدیک به مقدار واقعی همگرا می شود. نظر شما در مورد این فرض چیست؟ اگر از میانه اندازه گیری های خود استفاده کنم، روش صحیح محاسبه خطا برای هر نقطه داده چیست؟
میانگین گیری میانه و تجزیه و تحلیل خطا
92367
می خواستم بدانم آیا کسی در مورد تحلیلی که من انجام می دهم توصیه ای دارد یا فقط یک مرجع توصیه شده ارائه می دهد؟ من از یک رویکرد مدل‌سازی اثرات تصادفی برای محاسبه خوشه‌بندی بیماران در مطب پزشکان استفاده می‌کنم. من می خواهم آزمایش کنم که آیا نتیجه درمان (دودویی) با یک متغیر سطح 2 (سطح بالینی) مرتبط است، به عنوان مثال، یک متغیر باینری که نشان دهنده تجربه یا عدم تجربه پزشک است، با برآورد ضریب حاصل که نشان دهنده تفاوت میانگین جمعیت در متغیر نتیجه درمان بین پزشکان باتجربه در مقابل پزشکان بی تجربه زمانی که همه چیزهای دیگر در مدل ثابت هستند. متغیر سطح 2 با عوامل بالینی مشاهده نشده مرتبط است، همانطور که در مورد متغیرهای سطح 2 معمولی که در مدل‌های اثرات تصادفی آزمایش می‌شوند، به عنوان مثال، آزمایش مدارس خصوصی در مقابل مدارس دولتی هنگام مدل‌سازی نمرات امتحانات دانش‌آموزان خوشه‌بندی شده در مدارس، مرتبط است. من خوانده ام که رویکرد اثرات تصادفی بر این فرض تکیه دارد که متغیرهای مشاهده نشده در سطح پزشک با متغیرهای کمکی سطح 1 همبستگی ندارند، به عنوان مثال، اگر هر یک از ویژگی های مشاهده نشده پزشکان هر دو با یک سطح همبستگی داشته باشند، برآوردگر اثرات تصادفی مغرضانه است. 1 متغیر کمکی و متغیر نتیجه درمان، زیرا این باعث ایجاد همبستگی بین متغیر کمکی و متغیر نتیجه درمان. سوال من این است که چگونه این مشکل بر متغیرهای سطح 2 تأثیر می گذارد. بیشتر منابعی که در مورد فرض اثرات تصادفی با آنها برخورد کرده‌ام به این واقعیت اشاره دارند که نباید با متغیرهای سطح 1 موجود در مدل همبستگی وجود داشته باشد، اما آنها در مورد پیامدهای متغیرهای سطح 2 در حال آزمایش بیشتر توضیح نمی‌دهند. در مدل من با این دو نقل قول برخورد کردم، اما نمی‌دانستم که آیا کسی می‌تواند آنها را گسترش دهد؟ * تمایز تصادفی در مقابل ثابت برای متغیرها و اثرات در رگرسیون چند سطحی مهم است. در مدل های رگرسیون چندسطحی، هر دو پیش بینی کننده سطح 1 و سطح 2 ثابت فرض می شوند. با این حال، رهگیری ها و شیب های سطح 1 معمولاً به طور تصادفی در گروه ها متفاوت هستند. با تشکر
متغیرهای پیش بینی کننده اثرات تصادفی و آزمون سطح 2
83999
من در حال خواندن «مدل‌های افزودنی عمومی یک مقدمه با R» نوشته سایمون وود بودم و با بخشی مواجه شدم که با آن مشکل دارم. در صفحه 13 بیان شده است که مدل یا ماتریس طراحی > $X$ همیشه می تواند به $$X = Q \left[ > \begin{matrix}{R}\\\\{0}\end{matrix} تجزیه شود. \right] = Q_fR$$ > > که در آن $R$ یک $p \times p$ ماتریس مثلثی بالایی است و $Q$ یک $ n \times > n $ متعامد است. ماتریسی که اولین ستون های p آن $Q_f$ را تشکیل می دهند. به یاد بیاورید که > ماتریس های متعامد بردارها را می چرخانند، اما طول آنها را تغییر نمی دهند. > متعامد بودن نیز به این معنی است که $QQ^t = Q^tQ=I_n$. اعمال $Q^t$ در > $y-X\beta$ به این معنی است که > $$\left\|y-X\beta\|^2=\right\|Q^ty-Q^tX\beta\|^2=\left \|Q^ty-\left[\begin{matrix}R\\\0\end{matrix}\right]\beta\right\|^2 > $$ > > نوشتن $Q^ty=\left[\begin{matrix}f\\\r\end{matrix}\right]$، که $f$ > بردار بعد $p$ است، و از این رو $r$ بردار بعد $n − p$، > بازده > > $$ \|y-X\beta\|^2=\left\|\left[\begin{matrix}f\\\r\end{matrix}\right] - > \left[\begin{matrix}R\\\0 \end{matrix}\right]\beta > \right\|^2=\|f-R\beta\|^2+\|r\|^2 $$ > > طول $r$ به $\beta$، در حالی که $\|f - R\beta\|^2$ را می‌توان با انتخاب $\beta$ به صفر رساند تا $R$ برابر با $f$ شود. بنابراین $$ > \hat\beta=R^{-1}f $$ برآوردگر حداقل مربعات $\beta$ است. توجه داشته باشید که > $\|r\|^2=\|y-X\hat\beta\|^2$، مجموع باقیمانده مربعات مدل مناسب است. من به چند دلیل این موضوع را کمی گیج کننده می دانم. اول، به نظر من $Q$ فقط $n\times n$ خواهد بود اگر X $n\times n$ باشد. با این حال به طور کلی $Q$ $n\ بار p$ خواهد بود که در آن تعداد پارامترهای $p$ کمتر از تعداد موضوعات/موارد $n$ باشد. همچنین بیان شده است که اولین ستون های $p$ از $Q$ $Q_f$ را تشکیل می دهند. برای ضرب $Q$ و $R$، $Q$ باید دارای ستون‌های $p$ باشد. دوم، اگر یک ماتریس طراحی ساده با ابعاد 2x4 داشته باشیم (یعنی یک پارامتر قطع و شیب و 4 موضوع داریم) y 4x1 و $Q^t$ 2x4 خواهد بود. $Q^ty$ 2x1 خواهد بود. بنابراین برای من روشن نیست که چگونه $Q^ty =\left[\begin{matrix}f\\\r\end{matrix}\right]$ که در آن $f$ بردار بعد $p$ است، و از این رو $ r$ بردار بعد $n - p$ است. در این مورد $f = 2$ و $n-p=2$ که به $Q^ty$ بعد 4x1 می دهد. من اشتباهات کتاب ها را بررسی کرده ام و هیچ اشتباهی برای این بخش لیست نشده است، بنابراین نباید به درستی به این موضوع فکر کنم. اگر کسی می تواند روشن کند که چه تکه ای از این پازل را از دست داده ام، بسیار ممنون می شوم که روشنگری کند.
فاکتورسازی QR و رگرسیون خطی
76693
من به دنبال طبقه‌بندی‌کننده‌هایی هستم که احتمالاتی را که نمونه‌ها به یکی از دو کلاس تعلق دارند، خروجی می‌دهند. من رگرسیون لجستیک و بیز ساده لوح را می شناسم، اما آیا می توانید موارد دیگری را به من بگویید که به روشی مشابه کار می کنند؟ یعنی طبقه‌بندی‌کننده‌هایی که نه کلاس‌هایی را که مثال‌ها به آن‌ها تعلق دارند، بلکه احتمال تناسب مثال‌ها با یک کلاس خاص را پیش‌بینی می‌کنند؟ برای هر نظری که می توانید در مورد مزایا و معایب این طبقه بندی کننده های مختلف (از جمله رگرسیون لجستیک و بیز ساده لوح) به اشتراک بگذارید، امتیاز جایزه. به عنوان مثال، آیا برخی برای طبقه بندی چند کلاسه بهتر هستند؟ متشکرم
یادگیری ماشینی برای پیش بینی احتمالات کلاس
28916
من نمی دانم که آیا می توانم از نتایج EOF برای پیش بینی بارگذاری EOF مجموعه دوم داده استفاده کنم؟ من یک مجموعه داده $X$ دارم که از طیف های نور نمونه برداری شده تشکیل شده است (هر ستون نشان دهنده یک نمونه و هر ردیف دامنه طیف در یک طول موج معین است). بنابراین من ابتدا یک ماتریس کوواریانس از داده‌هایم می‌سازم: $C=XX^T$، سپس این ماتریس با استفاده از یک تجزیه ویژه تجزیه می‌شود: $C=E \lambda E^T$ که $E$ بارگذاری‌های EOF است. سپس داده‌های خود را $X$ روی بارگذاری‌ها پیش‌بینی می‌کنم تا مؤلفه‌های اصلی را دریافت کنم. بارگیری EOF $E_{\mathrm{pred}}$ با استفاده از مؤلفه‌های اصلی $Z$: $ZY^{-1} = E_{\mathrm{pred}}$ I من با استفاده از EOF به این شکل برخورد نکرده‌ام (مثلاً به عنوان یک مدل پیش‌بینی‌کننده)، اما، با توجه به حجم ادبیات پیرامون EOF و PCA، احتمالاً چیزی را از دست داده‌ام. آیا این رویکرد مشکلی دارد؟ آیا کسی از نمونه هایی با استفاده از چنین EOF به عنوان یک مدل پیش بینی می داند؟ با تشکر فراوان برای هر راهنمایی
آیا تحلیل تابع متعامد تجربی (EOF) می تواند به عنوان یک مدل پیش بینی استفاده شود؟
48810
در باستان‌شناسی، آثار باستانی معمولاً بر اساس معیارهای خاصی در دسته‌هایی طبقه‌بندی می‌شوند (که ممکن است شامل تکنیک ساخت، تزئینات، عملکرد، گاه‌شماری و غیره باشد). من سعی می‌کنم احتمال اینکه اشیایی از یک دسته‌بندی خاص $C$ **غایب** از سایت باشند، حتی پس از جمع‌آوری گروه $G$ و یافتن هیچ دسته $C$، برآورد می‌شود. گروه $G$ یک نمونه از گروه تمام اشیایی است که در یک لحظه خاص در سایت مورد استفاده قرار گرفته اند (نمونه های واقعی زباله های یک خانه و ابزارهای خانگی یخ زده در زیر یک ساختمان فروریخته است). باستان شناسان تمام آثار باستانی را از خاک بازیابی خواهند کرد، اما این یک واقعیت ثابت است که همه اشیاء زنده نمی مانند و ما هرگز همه آنها را بازیابی نمی کنیم. اطلاعاتی که من دارم شامل دانش قبلی در مورد فراوانی (نسبی و مطلق) $C$ است: مقدار و نسبت $C$ در همه گروه‌ها **جایی که وجود دارد**، و مقدار کل مصنوعات در همه گروه‌ها ، از جمله مواردی که $C$ در آنها یافت نمی شود (من داده های مرتبط دیگری دارم اما این متغیرها به نظر مرتبط هستند). گروه ها معمولاً خیلی بزرگ نیستند، حدود 300-500. اشیاء از دسته $C$ 1-3٪ از مصنوعات زمانی که پیدا می شوند را تشکیل می دهند. من انتظار دارم که هر چه نمونه بزرگتر باشد، احتمال غیبت بیشتر خواهد بود. یک استاد آمار به من پیشنهاد کرد که روش‌هایی که بوم‌شناسان استفاده می‌کنند ممکن است مناسب باشد، به عنوان مثال. کار مک براید و جانستون در اینجا یافت می شود: http://www.nzes.org.nz/nzje/contents.php?volume_issue=j35_2 (مقدار بازه معتبر). آیا اعمال این روش ها برای مشکل فوق با استفاده از R امکان پذیر است و چگونه؟ اگر نه، چه روش های دیگری مناسب است؟
با توجه به دانش قبلی در مورد فراوانی آن، چگونه می توان احتمال عدم وجود یک دسته خاص از مصنوعات را از یک نمونه محاسبه کرد؟
83993
فقط می‌پرسم تفاوت **جنگل‌های تصادفی** و **MART** (درخت رگرسیون افزایشی چندگانه) چیست؟ من چند مقاله خوانده ام، به عنوان مثال: > [1] L. Breiman. جنگل های تصادفی یادگیری ماشینی 45 (1): 5-32، 2001. > [2] J.H. فریدمن تقریب تابع حریص: افزایش گرادیان > ماشین. گزارش فنی، سخنرانی IMS Reitz، استانفورد، 1999; همچنین نگاه کنید به > Annals of Statistics، 2001. ... و چند مورد دیگر. و اصول اولیه را فهمیدم. > Random Forest و MART می توانند هر دو برای رگرسیون یا > طبقه بندی استفاده شوند. Random Forest بر اساس کیسه‌بندی، تصادفی‌سازی و رای‌گیری است. > در حالی که خروجی MART یک مجموع وزنی از مجموعه درختان رگرسیون تقویت شده است. بنابراین، من یک ایده اساسی دارم که تفاوت چیست. با این حال، خیلی به من کمک خواهد کرد، **اگر کسی باتجربه تر بتواند آن را جمع بندی کند**. _و یک سوال خاص دیگر:_ اگر با استفاده از جنگل تصادفی رگرسیون انجام دهم، چه نوع درختی استفاده می شود؟ آیا این مجموعه ای از درختان رگرسیون است؟ یا اگر به من بستگی دارد، کدام درخت را انتخاب کنم؟ یا این یک نوع درخت خاص است که مخصوص جنگل های تصادفی است؟
تفاوت بین Random Forest و MART
66910
من یک مطالعه تجربی را به عنوان بخشی از پایان نامه کارشناسی ارشد خود انجام داده ام. هر آزمودنی پرسشنامه ای را پر کرد که در آن چند سوال در مورد قابلیت استفاده از ویژگی های مختلف بود. بهترین/صحیح ترین روش برای محاسبه اگر یک ویژگی امتیاز قابلیت استفاده **_significant_** بهتری نسبت به ویژگی دیگر داشته باشد چیست؟ (من از مقیاس لیکرت 10 درجه ای استفاده کردم). من 14 موضوع آزمایشی داشتم و می‌خواهم امتیاز قابلیت استفاده ویژگی‌ای به نام «حباب» و ویژگی‌ای به نام «بدنه» را با هم مقایسه کنم. این امتیازات است: حباب: 6، 3، 7، 9، 7، 8، 7، 9، 8، 8، 6، 10، 3، 7 هال: 9، 10، 10، 8.6154، 9، 6، 8، 10، 8، 8، 6، 10، 9، 9 _(یک آزمودنی به هال امتیاز نداد، من بنابراین میانگین (8.6154) را در جای خود درج کرده‌ام.) من یک آزمون t زوجی انجام داده‌ام که نشان می‌دهد تفاوت معنی‌داری در نمرات قابلیت استفاده برای حباب (M=7.0, SD=2.04) و بدنه (M) وجود دارد. = 8.62، SD = 1.33)؛ t(13)=2.43، p=0.0305. آیا این روش درستی است؟ دانش آماری من کاملاً محدود است، اما فکر می‌کنم باید بگویم که آیا تفاوت _معنی‌داری وجود داشت یا نه.
آزمون t زوجی برای نمرات قابلیت استفاده
47739
من داده‌هایی دارم که در آن یک ارزیاب کیفیت را در مقیاس پیوسته پیش‌بینی می‌کند، و سپس کیفیت در سطل اعتبارسنجی می‌شود. به عنوان مثال، یک ارزیاب ممکن است برای مواردی با نتایج LOW، MEDIUM، HIGH، LOW (به ترتیب) نمرات 0.2، 0.4، 0.7 و 0.6 بدهد. این می تواند به طور کلی یک ارزیابی مناسب باشد، جدای از این واقعیت که مورد چهارم امتیاز بالاتری نسبت به مورد دوم دریافت کرد، اما نتیجه بدتری را تجربه کرد. من به دنبال راهی برای محاسبه یک متریک دقیق برای این نوع مشکل رتبه بندی هستم. اندازه گیری AUC چند نتیجه ای Hand & Till (بسته R) زمینه مفیدی است، اما کافی نیست زیرا ارزیاب ها هر یک از نتایج را پیش بینی نمی کنند. در عوض، من به دنبال استفاده از ماهیت ترتیبی داده‌ها هستم.
محاسبه دقت طبقه‌بندی‌کننده پیوسته با نتیجه ترتیبی
12401
من می خواهم یک تحلیل فرکانس زمانی سیگنال EEG را انجام دهم. من تابع موجک GSL را برای محاسبه ضرایب موجک پیدا کردم. چگونه می توانم باندهای فرکانسی واقعی (به عنوان مثال 8 تا 12 هرتز) را از آن ضرایب استخراج کنم؟ کتابچه راهنمای GSL می گوید: > برای تبدیل رو به جلو، عناصر آرایه اصلی جایگزین می شوند > با تبدیل موجک گسسته $f_i \rightarrow w_{j,k}$ در یک چیدمان ذخیره سازی مثلثی > بسته بندی شده، که $j$ همان شاخص سطح $j = 0، > \ldots، J-1$ و $K$ شاخص ضریب هر سطح است، $k = > 0 ... (2^j)-1$. تعداد کل سطوح $J = \log_2(n)$ است. خروجی > داده به شکل زیر است، $(s_{-1,0}، d_{0,0}، d_{1,0}، d_{1,1}، d_{2,0}، > \ldots , d_{j,k}, \ldots, d_{J-1,2^{J-1}-1})$ اگر درست متوجه شده باشم که یک داده آرایه خروجی[] در موقعیت 1 وجود دارد (به عنوان مثال داده[1]) دامنه باند فرکانس 2^0 = 1 هرتز، و داده[2] = 2^1 هرتز داده[3] = 2^1 هرتز داده[4] = 2^2 هرتز تا داده [7] = داده 2^2 هرتز[8] = 2^3 هرتز و غیره ... یعنی من فقط دامنه فرکانس های 1 هرتز، 2 هرتز را دارم، 4 هرتز، 8 هرتز، 16 هرتز، ... چگونه می توانم به عنوان مثال دامنه یک جزء فرکانس نوسان در 5.3 هرتز را دریافت کنم؟ چگونه می توانم دامنه یک محدوده فرکانس کامل را بدست بیاورم، به عنوان مثال. دامنه 8 - 13 هرتز؟
تجزیه و تحلیل موجک EEG
7754
## پیشینه من دو تخمین از واریانس و خطاهای استاندارد مرتبط با آنها را دارم که از اندازه‌های نمونه $n=500$ و $n=10,000$ محاسبه شده‌اند. نتایج $\hat{\sigma^2} (sd_{\hat{\sigma است ^2}})$: $$\hat{\sigma^2}_{n=500}=69 (6.4)$$ $$\hat{\sigma^2}_{n=10,000}=72 (1.5)$$ ## سوال اگر بگویم که واریانس 3 افزایش یافته است، انحراف معیار در اطراف این تخمین چقدر است؟ ## یادداشت 1. $SD$ از var محاسبه شده با استفاده از $SD_{\hat{\sigma^2}}=\sqrt{s^4(2/(n-1) + k/n)}$ 2. من مشکوک هستم این واقعیت که من sd یک واریانس را تخمین می زنم به محاسبه مربوط نیست، اما ممکن است در تفسیر کاری که انجام می دهم کمک کند.
چگونه اختلاف دو انحراف معیار را محاسبه کنیم؟
12404
من فکر می‌کردم که «تجمیع داده‌ها» صرفاً به معنای ترکیب داده‌هایی است که قبلاً به دسته‌هایی تقسیم شده‌اند... اساساً، نادیده گرفتن دسته‌ها و تبدیل مجموعه داده‌ها به یک «استخر» غول‌پیکر از داده‌ها. من حدس می زنم این یک سوال بیشتر در مورد اصطلاحات است تا کاربرد آمار. به عنوان مثال: من می خواهم 2 سایت را با هم مقایسه کنم و در هر سایت دو نوع سال (خوب و ضعیف) دارم. اگر بخواهم 2 سایت را به طور کلی مقایسه کنم (یعنی نادیده گرفتن انواع سال)، آیا درست است که بگویم داده ها را در هر سایت جمع می کنم؟ علاوه بر این، از آنجایی که چندین سال داده شامل انواع سال خوب و ضعیف است، آیا درست است که بگوییم من داده ها را بین سال ها جمع می کنم تا به مجموعه داده های سال خوب و سال ضعیف در هر سایت برسم؟ با تشکر از کمک شما! ماگ
تجمیع داده ها دقیقاً به چه معناست؟
7757
من سعی می کنم نتیجه یک سیستم پیچیده را با استفاده از شبکه های عصبی (ANN) پیش بینی کنم. مقادیر نتیجه (وابسته) بین 0 تا 10000 است. متغیرهای ورودی مختلف دارای محدوده های متفاوتی هستند. همه متغیرها دارای توزیع تقریباً نرمال هستند. من گزینه های مختلفی را برای مقیاس بندی داده ها قبل از آموزش در نظر می گیرم. یکی از گزینه ها این است که متغیرهای ورودی (مستقل) و خروجی (وابسته) را با محاسبه تابع توزیع تجمعی با استفاده از مقادیر میانگین و انحراف استاندارد هر متغیر به طور مستقل به [0، 1] مقیاس کنید. مشکل این روش این است که اگر از تابع فعال‌سازی سیگموئید در خروجی استفاده کنم، به احتمال زیاد داده‌های شدید را از دست خواهم داد، به خصوص آن‌هایی که در مجموعه آموزشی دیده نمی‌شوند گزینه دیگر استفاده از z-score است. در آن صورت من مشکل داده های شدید را ندارم. با این حال، من به یک تابع فعال سازی خطی در خروجی محدود شده ام. سایر تکنیک‌های عادی‌سازی پذیرفته‌شده که در شبکه‌های عصبی مصنوعی مورد استفاده قرار می‌گیرند، چیست؟ من سعی کردم به دنبال بررسی در مورد این موضوع باشم، اما نتوانستم چیز مفیدی پیدا کنم.
نرمال سازی و استانداردسازی داده ها در شبکه های عصبی
28918
من می خواهم بدانم که آیا خروجی الگوریتمی که من توسعه داده ام با رتبه بندی ناظران خارجی مطابقت دارد یا خیر. تعداد ناظران 10 نفر است و هر یک از آنها بر اساس 2 مورد 3 امتیازی لیکرت 10 محرک رتبه بندی کردند. الگوریتم برای هر محرک یک اندازه گیری (یک عدد واقعی) ارائه می کند. من به استفاده از همبستگی درون کلاسی بین ناظران و سپس استفاده از این توافق احتمالی فکر می کنم (اما نمی دانم آیا این خوب به نظر می رسد و چگونه می توان این کار را انجام داد) برای اعتبار سنجی خروجی الگوریتم. با تشکر
همبستگی درون طبقاتی برای اعتبارسنجی یک اندازه گیری
50822
من نمی دانم که آیا راه آسانی برای محاسبه آماره F / مقدار p برای زیر مجموعه ای از ضرایب مدل وجود دارد. به خصوص در R؟ من مطمئن نیستم که برای محاسبه این به چه آزمایشی نیاز است. به عنوان مثال، summary(lm(a~w+x+y+z)) آماره F و p-value را برای کل مدل به من می دهد، اما آیا می توان آماره F و p-value را برای فقط استخراج کرد. شرایط y و z؟ یک راه سریعتر برای انجام چیزی شبیه به این: matrixOfResponses <- cbind(c(1,2,3,4,5), c(4,3,2,4,5), c(5,3,2,23, 4, c(1,2,4,3,1,)) pValsOut <- numeric() for(i in 1:ncol(matrixOfResponses)) { pValsOut[i] <- anova(lm(matrixOfResponses[,i]~mMat), lm(matrixOfResponses[,i]~mMatReduced))$'Pr(>F)'[2] } بنابراین اساساً چیزی شبیه به موارد بالا بسیار می شود زمانی که matrixOfRespones دارای تعداد زیادی متغیر باشد، به عنوان مثال تعداد زیادی از سطوح بیان ژن، کند است.
آماره F / مقدار p را برای زیر مجموعه ضرایب در R محاسبه کنید
48817
من برخی از داده‌ها را از مخلوطی از دو گاوس نمونه‌برداری کرده‌ام که یکی از آنها شناخته شده است، و تابع چگالی به شرح زیر است: $f(x, \mu, \sigma) = \frac{1}{2}\frac{1 }{\sqrt{2\pi}\sigma} exp(-\frac{(x-\mu)^2}{2\sigma^2})+ \frac{1}{2}\frac{1}{\sqrt{2\pi}} exp(-\frac{x^2}{2})$ اکنون، برای مقادیر cetain $\mu$، احتمال وجود دارد برای داده های داده شده $x_1, ... , x_n$ به $\infty$ رشد می کند زیرا $\sigma$ به صفر میل می کند. آیا می توانیم در $\sigma$، $\sigma > \sigma(n)$، s.t کران پایینی داشته باشیم. ما یک تقریب خوب برای $\mu، \sigma$ خواهیم داشت؟ با تشکر
محدودیت‌های ML برای مخلوط گاوسی‌ها
12405
من در حال جستجوی راه حل این سوال در SO بودم و این باعث شد که در مورد محاسبات احتمالات برای یک مدل مخلوط گاوسی فکر کنم. بیایید فرض کنیم مدل مخلوط گاوسی را به گونه‌ای برازش داده‌اید که به ترکیبی از سه حالت عادی منجر شود: \begin{equation} X_1 \sim \mathcal{N}(\mu_1,\sigma_{1}^{2}), \ quad X_2 \sim \mathcal{N}(\mu_2,\sigma_{2}^{2}), \quad X_3 \sim \mathcal{N}(\mu_3،\sigma_3^2) \end{equation} با وزن‌های مربوطه $\lambda_1، \lambda_2$، و $\lambda_3$. از اینجا به بعد، $\mathbf{X}=[X_1,X_2,X_3]$ و $\mathbf{\lambda}=[\lambda_1,\lambda_2,\lambda_3]$ را بگیرید. به طور معمول، برای یافتن احتمال کمتر بودن این مدل از مقداری $x$، \begin{equation} \mathbf{P}(\mathbf{\lambda}\mathbf{X}^T\leq x) = \ sum_{i=1}^{3} \lambda_i \mathbf{P}(X_i\leq x) \end{equation} این امکان وجود دارد که من یک خطای کدنویسی ایجاد کرده است، اما به نظر می‌رسد که احتمال به‌دست‌آمده از فرمول بالا با احتمال به‌دست‌آمده متفاوت است اگر احتمال را به روش دیگری محاسبه کنیم: \begin{equation} \mathbf{P}(\mathbf{\lambda}\ mathbf{X}^T\leq x)=\mathbf{P}(Y\leq x) \end{معادله} که در آن $Y\sim\mathcal{N}(\mathbf{\lambda}\mathbf{\mu}^T,\sum_{i=1}^{3} \lambda_{i}^{2}\sigma_{i} ^{2})$ با $\mathbf{\mu}=[\mu_1،\mu_2،\mu_3]$. اگر خطای کدنویسی است، لطفاً فقط یک نظر بگذارید و من این سؤال را حذف خواهم کرد.
محاسبه احتمالات مدل مخلوط گاوسی
50825
من سعی می کنم بفهمم تفاوت بین HMM استاندارد و HMM بیزی چیست. ویکی‌پدیا فقط به طور خلاصه به ظاهر مدل اشاره می‌کند، اما من به یک آموزش دقیق‌تر نیاز دارم. آیا کسی مقاله یا پیاده سازی را می شناسد که بتوانم به آن نگاه کنم؟ همچنین من با اصطلاحات استفاده شده مشکل دارم. اگر دریکله را در توزیع قبل قرار دهید/قرار دهید عملاً به چه معناست؟
از HMM استاندارد تا HMM بیزی
82119
من داده هایی با اندازه گیری های مکرر و یک نتیجه باینری دارم (بله/خیر). من می‌خواهم از GEE برای مدل‌سازی داده‌ها با تابع پیوند لاجیت استفاده کنم. اجازه دهید $\pi=P(yes)$، سپس من می‌خواهم پنج مدل زیر را در نظر بگیرم: \begin{align} \text{Model 1:}\quad log(\frac{\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3X_3\\\ \text{Model 2:}\quad log(\frac{\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 \log(X_3) \\\ \text{Model 4:}\quad log(\frac {\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 X_4 + \beta_5X_5 \\\ \text{Model 5:}\quad log(\frac{\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 X_4 + \beta_4log(X_5) \\\ \text{Model 5:}\quad log(\frac{\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 X_4 + \beta_4X_5 + \beta_5 X_4X_5 \\\ \end{align} می‌خواهم از بین این مدل‌ها با استفاده از QIC انتخاب کنم. علاوه بر این، من می خواهم از QIC برای انتخاب ساختار همبستگی کاری (استقلال، بدون ساختار، مبادله، AR(1)) استفاده کنم. سوال من: ابتدا باید چه کار کنم، بهترین مدل را پیدا کنم یا بهترین ساختار همبستگی را پیدا کنم. آیا این مهم است؟ اگر ابتدا سعی کنم از بین 5 مدل بهترین را پیدا کنم، چه ساختار همبستگی را باید انتخاب کنم؟ از طرف دیگر، اگر ابتدا سعی کنم ساختار همبستگی را انتخاب کنم، بر اساس چه مدلی باید این کار را انجام دهم؟ اولین شهود من این بود که ابتدا ساختار همبستگی را با استفاده از مدل زیر با همه متغیرهای کمکی انتخاب کنم: $$log(\frac{\pi}{1-\pi}) = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 X_3 + \beta_4 X_4 + \beta_5X_5$$ با این حال، مطمئن نبودم که باید تبدیل‌های log- و تعاملات را نیز لحاظ کنم. از سوی دیگر، از آنجایی که GEE ها حتی اگر ساختار کوواریانس به درستی مشخص نشده باشد و برآوردگر ساندویچ واریانس نیز در برابر تعیین نادرست قوی باشد، تخمین های ثابتی ارائه می دهند، به نظر می رسد ابتدا انتخاب از بین پنج مدل آسان تر باشد، به عنوان مثال. با استفاده از ساختار قابل تعویض من سعی کردم در این مورد به دنبال ادبیاتی بگردم، اما نتوانستم آن را پیدا کنم، بنابراین اگر کسی چیزی می داند، من هم از آن تشکر می کنم.
ابتدا ساختار کوواریانس یا مدل را برای GEE انتخاب کنید؟
82115
من روی مشکلی کار می‌کردم که در نهایت به یک میدان بالقوه رسیدم که بر حسب انتگرال زیر بیان می‌شود: $$I(u)=\int_1^u \frac{e^{-x} (2 x-1) }{\sqrt{x~(A~e^{-x}+1)-B \sqrt{x}}}dx \,,$$ که در آن $A,B\in \mathbb{R}$ ثابت هایی هستند مانند که integrand هیچ تکینگی ندارد. متأسفانه انتگرال را نمی توان به صورت تحلیلی حل کرد، بنابراین من می خواستم رفتار پتانسیل را در یک طرح نشان دهم. مشکل من ثابت های $A$ و $B$ هستند که نشان دهنده برخی از پارامترهای سیستمی است که من در حال مطالعه آن هستم. چگونه می توانم تابع $I$ را رسم کنم؟ آیا باید نمودارهای مختلفی برای مقادیر مختلف ثابت ها ایجاد کنم؟ آیا باید یک نمودار برای مقادیر مختلف $A$ و $B$ ثابت و بالعکس ارائه کنم؟ اگر کسی بتواند تجربیات خود را در مورد نحوه ارائه بهترین چنین اطلاعاتی به اشتراک بگذارد، واقعاً سپاسگزار خواهم بود.
ارائه نتایج عددی با پارامترهای متغیر سیستم
113542
من مجموعه ای از نمونه های تصویر دارم که می خواهم OCR کنم. من همچنین حقیقت زمینی متن روی این تصاویر را دارم. در حال حاضر آنها را OCR و به عنوان مثال. 10 نمونه از 100 نمونه اشتباه است. بنابراین من به دقت 90٪ رسیدم. به طور طبیعی دقت کاهش می یابد، زمانی که من اندازه مجموعه نمونه را افزایش می دهم. بنابراین اگر آن را به 100 نمونه برسانم، دقت آن تنها 70 درصد است. مجموعه دیگری از تصاویر شاید فقط 2 نمونه تصویر داشته باشد. حتی با تنظیمات OCR بسیار بد و خاص، دقت می تواند 100٪ باشد (تقریباً تصادفی)، در حالی که افزایش حجم نمونه این می تواند دقت را به 2٪ کاهش دهد (اگر این 2 نمونه تنها نمونه صحیح باشند). من می‌خواهم این مقادیر را با هم مقایسه کنم، به طوری که دقت بالاتر در یک مجموعه نمونه کوچک، به همان اندازه کم و دقت پایین در یک مجموعه نمونه بزرگ‌تر، نتیجه می‌دهد، زیرا این یک دقت بی‌فایده‌تر است. 1. **بنابراین دقت اندازه گیری شده وقتی روی یک مجموعه نمونه بزرگتر اندازه گیری می شود مقدار بیشتری دارد؟** 2. **آیا وقتی مجموعه نمونه بزرگتر است دقت بیشتری دارم؟** 3. **آیا می توانم من این دقت دقت را با یک مقدار مشترک برابر می‌کنم؟** سعی کردم پاسخ را در اینجا پیدا کنم: http://en.wikipedia.org/wiki/Accuracy_and_precision اما، من نمی توانم این را اعمال کنم زیرا من طبقه بندی باینری ندارم (بیشتر یکنواخت است). من برای محاسبه دقیق، مثبت کاذب ندارم. امیدوارم کسی بتواند مرا در مسیر درست راهنمایی کند.
چگونه می توان دقت کمتر را در مجموعه های نمونه بزرگتر برابر کرد؟
104487
فرض کنید یک مدل رگرسیون خطی را بر روی برخی داده ها با 10 متغیر برازش می دهید. آماره _F_ نشان می دهد که 3 مورد از آنها معنی دار هستند (_p_ < 0.05)، 2 مورد در داخل روند هستند (0.05 < _p_ <0.10)، و 5 مورد دیگر _p_ > 0.10 هستند. آیا درست است که 5 مورد دیگر را بیرون بیاندازیم (_p_ > 0.10) و مدل دیگری را دوباره آموزش دهیم؟ شاید این بار روند 2 درون قابل توجه باشد.
حذف متغیرهای ناچیز؟