_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
45366 | من باید تجزیه و تحلیل خوشه ای را روی مجموعه داده های خود انجام دهم که شامل متغیرهای مستمر و طبقه ای است. با مطالعه اطراف، فکر می کنم K-Means تکنیک مناسبی برای داده های ترکیبی نیست. آیا می توانم از خوشه بندی دو مرحله ای برای تجزیه و تحلیل استفاده کنم؟ اگر بله، از نظر فنی با متغیرهای طبقه بندی و پیوسته چگونه برخورد می شود؟ خیلی ممنون برای کمک! | استفاده از متغیرهای ترکیبی در تحلیل خوشهای دو مرحلهای |
78317 | فرض کنید یک r.v گسسته به ما داده شده است. $X$، بر اساس برخی _ناشناخته_، تابع جرم احتمال محدود $p(x)$ توزیع شده است. ما می توانیم فرض کنیم که $p(x)>0$ برای هر $x$ در دامنه آن. می توانیم X$ i.i.d را نمونه برداری کنیم. و یک نمونه $S= (X_1,...,X_m)$ بدست آورید. مشکل: چگونه میتوانیم بهطور رسمی_$p_*=\min_x p(x)$، با اطمینان خاصی، کران پایینتری داشته باشیم؟ برای دقیق تر بودن، من یک برآوردگر $\hat p_*(S)$ می خواهم که برای هر $1\geq \lambda\geq 0$: $\Pr(|p_*) می توان چیزی شبیه به این را اثبات کرد. - \hat p_*(S)|>\lambda)\leq f(\lambda,m)$ برای یک تابع به سرعت در حال کاهش $f$ از $\lambda$ و $m$. برای مثال، $f(\lambda,m)=\exp(-c\lambda^2m)$، برای مقداری ثابت $c>0$. هر گونه ارجاع به ادبیات مربوطه بسیار قابل قدردانی خواهد بود. | تخمین حداقل تابع جرم احتمال محدود |
856 | آیا کسی از نوع تست دقیق فیشر میداند که وزنها را در نظر بگیرد؟ به عنوان مثال وزن نمونه. بنابراین به جای جدول متقاطع 2x2 معمولی، هر نقطه داده دارای یک مقدار جرم یا اندازه است که نقطه را وزن می کند. داده های مثال: A B وزن N N 1 N N 3 Y N 1 Y N 2 N Y 6 N Y 7 Y Y 1 Y Y 2 Y Y 3 Y Y 4 آزمون دقیق فیشر سپس از این جدول متقاطع 2x2 استفاده می کند: A\B N Y همه N 2 2 4 Y 2 4 6 همه 4 6 10 اگر وزن را به عنوان تعداد واقعی از نقاط داده در نظر بگیریم، نتیجه می شود: A\B N Y همه N 4 13 17 Y 3 10 13 همه 7 23 30 اما این باعث اعتماد بسیار زیاد می شود. تغییر یک نقطه داده از N/Y به N/N تفاوت بسیار زیادی در آمار ایجاد می کند. به علاوه، اگر وزنی حاوی کسری باشد، کار نمی کند. | تست دقیق فیشر با وزنه؟ |
80873 | فرض کنید دارویی دارید که میخواهید آن را آزمایش کنید، آیا این دارو باعث افزایش تعداد سلولهای ایمنی در خون شما میشود. شما نمونه خود را به دو گروه تقسیم می کنید که یک گروه درمان را دریافت می کند و گروه دیگر درمان نمی کند. در هر گروه، شما اثر را هم قبل از شروع درمان و هم بعد از 2 ماه از درمان اندازه گیری می کنید. اکنون می توان اثر دارو را به دو روش آزمایش کرد: 1. تعداد سلول های ایمنی را در دو ماه در هر دو گروه آزمایش کنید. 2. آزمایش افزایش سلول های ایمنی (=اثر پس از 2 ماه منهای پایه) در هر گروه. اگر هیچ اثری از دارو وجود نداشته باشد، اما هر دو آزمایش را در سطح 5٪ انجام دهید و کوچکترین مقدار p را انتخاب کنید، در این صورت نرخ خطای خانوادگی (FWE) چقدر خواهد بود؟ همانطور که می بینید، هر دو تست مستقل نیستند، با این حال، آنها مقادیر p متفاوتی تولید می کنند، بنابراین من قبلاً استدلال کردم که FWE باید چیزی بین 5 تا 9.75٪ باشد. خیلی ممنون | خطای خانوادگی تست های وابسته؟ |
70095 | من به 10000 نظر برای یک اپلیکیشن موبایل دسترسی دارم و میخواهم تحلیلهای آماری جالبی روی آنها انجام دهم. کاری که من تا به حال انجام داده ام: به فراوانی هر کلمه در تمام نظرات نگاه کنید. سپس به زیرمجموعه ای از این کلمات که مربوط به بازخورد عملکرد هستند (مثلاً خراش، تجمیع، کند) نگاه کنید و بسادگی فراوانی ظاهر را یادداشت کنید. دوستان آیا روش دیگری برای استخراج اطلاعات مرتبط از این نظرات پیشنهاد می کنید؟ من به اکسل و SQL دسترسی دارم. | تجزیه و تحلیل آماری در مورد نظرات و بازخورد |
10337 | $\mathrm{Var}(X^2)$، اگر $\mathrm{Var}(X)=\sigma^2$ چیست؟ | $\mathrm{Var}(X^2)$، اگر $\mathrm{Var}(X)=\sigma^2$ |
45364 | در پایان هر روز «i»، وزن خود را «w[i]»، و تعداد کالریهایی را که در آن روز مصرف کردهام «c[i]» ثبت میکنم. من معتقدم تغییر وزن من w[i]-w[i-1] متناسب با کالری دریافتی من است: w[i]-w[i-1] = k1*(کالری خالص دریافتی). تعداد کالری هایی که می سوزانم تابعی خطی از وزن روز قبل من است: k2*w[i-1]+k3 بنابراین کالری دریافتی خالص من c[i]-(k2*w[i-1]+ است. k3). تغییر وزن من به این صورت است: w[i]-w[i-1] = k1*(c[i]-(k2*w[i-1]+k3)) با توجه به اینکه می دانم w[i] و c[i] برای هر i، چگونه بهترین مقادیر مناسب k1، k2 و k3 را پیدا کنم؟ توجه: من سعی می کنم این مشکل را به عنوان یک مشکل مربوط به داده ها حل کنم. من متوجه شدم که واقعیت را کاملاً ترسیم نمی کند. | بهترین تناسب k1,k2,k3 برای w[i]-w[i-1]=k1*(c[i]-(k2*w[i-1]+k3)) با c[i]، w[i ] شناخته شده است |
80874 | من در به کار بردن انتظار در مخرج سردرگم هستم. E(1/X)=؟ آیا می تواند 1/E(X) باشد؟ | انتظار متقابل یک متغیر |
86823 | یک مثال ساده از توزیع یکنواخت $X_{i}$ be i.i.d در بازه $[\theta,\theta+1]$ را در نظر بگیرید. با استفاده از اعداد کم بزرگ، ممکن است نتیجه بگیرم که $$\overline{X}\rightarrow_{P} \theta+\frac{1}{2} $$ \overline{X}$ برای اینکه cdf را به صورت $F_{\overline{X}}(t)=P(\sum) بگیرم، باید یک انتگرال $n$-dimensional انجام دهم X_{i}<nt,\theta\le X_{i}<\theta+1)$. با این وجود، به نظر شهودی است که $\overline{X}$ باید آمار خوبی باشد. اما تمرین به زودی میآموزد که آمار کافی واقعی $(X_{(1)},X_{(n)})$ است و اثبات آن از طریق قضیه فاکتورسازی کار دشواری نیست. تصمیم گرفتم بعد از کلاس در این مورد از استاد بپرسم. او به من گفت که $\overline{X}$ آمار خوبی نیست زیرا به اندازه کافی به $\theta$ نزدیک نیست و به عنوان آمارگیر باید برنامه های واقعی را در نظر گرفت. اما این توضیح قانعکننده نیست، زیرا میتوانم از $\overline{X}-\frac{1}{2}$ برای همان هدف استفاده کنم. میخواهم بپرسم که آیا $\overline{X}$ واقعاً آمار بدی برای این مثال است، و اگر بله به چه دلیلی. همچنین می خواهم بدانم که آیا $\overline{X}$ یک آمار کافی است یا خیر. | چرا میانگین نمونه آمار خوبی (کافی) نیست؟ |
852 | ضریب روی یک متغیر توضیحی ثبتشده زمانی که متغیر وابسته نیز به شکل گزارش باشد، کشش است (یا درصد تغییر در متغیر وابسته اگر متغیر توضیحی یک درصد تغییر کند). فرض کنید من یک رگرسیون را بدون ثبت متغیر وابسته تخمین می زنم، اما از یک پیوند ورود به سیستم در یک مدل خطی عمومی (و خانواده گاوسی) استفاده می کنم در حالی که متغیر توضیحی به صورت log باقی می ماند. آیا ضریب آن متغیر توضیحی همچنان کشش است؟ | قابلیت ارتجاعی با استفاده از GLM |
45363 | من سعی می کنم c-hat، پارامتر overdispersion را برای مجموعه مدل QAIC محاسبه کنم. طبق گفته برنهام و اندرسون، شما قرار است c-hat را بر اساس مدل جهانی محاسبه کنید. آیا مدل سراسری مدلی از مجموعه پیشینی است که بیشترین پارامترها را دارد یا یک مدل جداگانه است که در مجموعه کاندید نیست که ترکیبی از تمام پارامترهای استفاده شده در مجموعه کاندید را شامل می شود؟ برای مثال، با این مجموعه مدلهای کاندید: 1 علف+درخت 2 علف*درخت 3 علف*درخت^2 4 درختچه 5 رودخانه آیا مدل جهانی به سادگی مدل #3 است یا i: علف*درخت^2+درخت+رودخانه ? | مدل جهانی چیست؟ |
44016 | من به دنبال راه حلی برای دوره اول پیتر هاف در روش های آماری بیزی هستم. من نمی توانم آن را آنلاین پیدا کنم، آیا کسی می داند که آیا کتابچه راهنمای آن موجود است یا خیر؟ یا کسی میداند کجا میتوانم تمرینها و راهحلهای خوبی برای دانشآموز ریاضی که سعی در درک آمار بیزی دارد پیدا کنم؟ به ویژه * باور، احتمال و مبادله * همگرایی در مدل های خانواده نمایی * تقریب مونت کارلو * نمونه گیری گیبس و کلانشهر * رگرسیون خطی بیزی | من به دنبال راه حل اولین دوره در روش های آماری بیزی هستم |
45360 | پس از اجرای ctree(model) نتیجه من به شکل زیر است: 1) iv == (a,b,c) ; معیار = 1، آمار = 200 2) iv2 == (x,y) ; معیار = 0.99، آمار = 32 3) iv3 <30; معیار = 0.91، آمار = 35 4) وزن = 100 من تازه کار هستم، اما کسی می تواند به من توضیح دهد که حجم کل من 500 است، من می دانم که آن گره (4) به من حجم 100 داده است، اما دقیقاً معیار چیست؟ = 1 و آمار = 200 یعنی ? متشکرم | چگونه می توان نتیجه درخت تصمیم خواندن را از ctree() در r تفسیر کرد؟ |
44019 | من میخواهم جستجوی k-نزدیکترین همسایه را در فضای چندبعدی انجام دهم، اما برای مثال از فاصله L2 استفاده نمیکنم، اما میخواهم کاربر برخی از جفتهای «مشابه» را مشخص کند و سپس با استفاده از این اطلاعات جستجو را انجام دهد. برای این کار از چه الگوریتمی می توانم استفاده کنم؟ | جستجوی kNN با استفاده از فاصله متناسب با مجموعه آموزشی از جفتهای مشابه |
45361 | من می خواهم مجموعه داده های ریزآرایه مصنوعی را برای اهداف شبیه سازی تولید کنم. جستجوی وب و ادبیات تا کنون موارد زیر را نشان داده است: 1. Microarray Simulator \- اسکریپت های Matlab را برای شبیه سازی تمام خط لوله قبل از مقادیر واقعی فراهم می کند. برای نیازهای من بیش از حد توانمند است - و همچنین میخواهم روشهایی در R. 2 داشته باشم. دادههای ریزآرایه دو نمونه شبیهسازیشده از OCplus \- در واقع دقیقاً همان چیزی است که من به دنبال آن هستم. روش هایی را برای تولید داده های مصنوعی دو کلاس ارائه می دهد و در R است! اما من به روشهای بیشتر برای ایجاد دادههای ریزآرایه مصنوعی/شبیهسازیشده علاقهمندم. به خصوص برای بیش از دو کلاس. و شاید پیچ و مهره های بیشتری برای سرهم بندی کردن. سعی کردم روش هایی را در «لیما» پیدا کنم، اما موفق نشدم. آیا کسی میداند یا میتواند یک بسته/کتابخانه R را برای ایجاد مجموعه دادههای ریزآرایه شبیهسازی شده/مصنوعی توصیه کند؟ خیلی ممنون | داده های ریزآرایه شبیه سازی شده |
44018 | در مورد تخمین میانگین ناشناخته یک توزیع نرمال با واریانس شناخته شده، اگر اشتباه نکنم، بازه اطمینان شامل $\theta$ با احتمال $1 - \alpha$، بدون توجه به مقدار واقعی $\theta$ است. در موارد دیگر (مثلاً زمانی که واریانس لزوماً ثابت نیست)، آیا باز هم چنین است که بازه اطمینان حاوی مقدار واقعی با احتمال $1 - \alpha$ باشد؟ یا اینکه فقط برای هر مقدار $\theta$، فاصله اطمینان حاوی مقدار واقعی با احتمال **حداقل** $1 - \alpha$ است؟ (که اگر اشتباه نکنم فواصل اطمینان چگونه تعریف می شود). با تشکر | فواصل اطمینان مکرر = احتمال به دام افتادن ثابت؟ |
105014 | فرض کنید که من یک متغیر پویا X دارم که با گذشت زمان تغییر میکند، و فرض کنید که میدانم توزیع آماری آن در یک دوره 10 ساله گذشته است، و این تغییر است. به من گفتن که محتمل ترین مقدار برای X برای مثال 90 است. حالا فرض کنید که من دیس آماری دیگری دارم. از همان متغیر، اما فقط برای سال گذشته (یعنی شامل دیس قبلی است.)، و به من می گوید که محتمل ترین مقدار برای X 100 است. بدیهی است که داشتن دو توزیع به این معنی است که من اطلاعات بیشتری دارم، و به وضوح Dis . سال گذشته نشان می دهد که به نوعی روند صعودی وجود دارد، به همین دلیل است که 100 است نه 90، بلکه اول دیس است. همچنین به ما می گوید که کمی با محتمل ترین مقدار فاصله دارد، بنابراین عقل سلیم به من می گوید که محتمل ترین مقدار باید بین 100 تا 90 باشد، و سوال من این است که چگونه آن را محاسبه کنم؟ P.S من به دیس پیوسته علاقه مند هستم. به عنوان یک کل، نه فقط محتمل ترین مقدار. اگر پاسخ طولانی است، لطفاً فقط به پیوند یا کتابی مراجعه کنید یا به این مفهوم پیوستن در آمار مراجعه کنید. | چگونه دو توزیع از داده های یکسان اما با بازه های زمانی متفاوت را می توان به هم مرتبط کرد؟ |
859 | با عرض پوزش برای پیشینه پرمخاطب این سوال: گهگاه در تحقیقات رفتار حیوانات، یک آزمایشگر به مدت زمانی که یک آزمودنی در مناطق مختلف و از پیش تعریف شده در یک دستگاه آزمایش می گذراند، علاقه مند است. من اغلب دیده ام که این نوع داده ها با استفاده از ANOVA تجزیه و تحلیل شده اند. با این حال، با توجه به اینکه ANOVA مشاهدات را مستقل فرض میکند و هرگز در این تحلیلها مستقل نیستند، هرگز به اعتبار چنین تحلیلهایی کاملاً متقاعد نشدهام (زیرا زمان بیشتری که در یک منطقه صرف میشود به این معنی است که کمتر در مناطق دیگر صرف میشود! ). برای مثال، > D. R. Smith، C. D. Striplin، A. M. Geller، R. B. Mailman، J. Drago، C. P. > Lawler، M. Gallagher، ارزیابی رفتاری موشهای فاقد دوپامین > گیرندههای D1A، علوم اعصاب، جلد 86، شماره 1992، مه 1. صفحات 135-146 در در ماده فوق درجه آزادی را 1 کاهش می دهند تا عدم استقلال را جبران کنند. با این حال، من مطمئن نیستم که چگونه چنین دستکاری می تواند این نقض مفروضات ANOVA را بهبود بخشد. شاید یک روش مجذور کای مناسب تر باشد؟ برای تجزیه و تحلیل دادههایی مانند این (ترجیح مناطق، بر اساس زمان صرف شده در مناطق) چه کاری انجام میدهید؟ با تشکر | ANOVA با مشاهدات غیر مستقل |
54914 | من 37 ویژگی در مجموعه داده خود دارم. من از پکیج Boruta در R استفاده کردم و با توجه به تحلیل آن، همه ویژگی ها مهم هستند و باید حفظ شوند. من این نتیجه Boruta را بررسی کردم و متوجه شدم که اگر هر ویژگی را از مجموعه داده خود حذف کنم، دقت طبقهبندی جنگل تصادفی خود را از دست میدهم. با این حال، زمانی که من نمودار اسکری مجموعه داده خود را در R رسم میکنم، پس از اولین مؤلفه، «ارنج» را دریافت میکنم. یعنی فقط جزء اول کافیه؟ من یک تازه کار در تجزیه و تحلیل داده ها و آمار هستم. بنابراین، من واقعاً ممنون می شوم اگر کسی بتواند توضیح دهد که اینجا چه خبر است. | تفسیر نمودارهای Scree و نتایج Boruta |
44010 | من در حال انجام مطالعه ای در مورد لزوم اونتکتومی روتین در بیماران مبتلا به سرطان تخمدان هستم. برنامه این است که ابتدا میزان بروز متاستازهای مخفی امنتوم را در بیماران مبتلا به سرطان تخمدان بیابم و سپس می خواهم میزان بروز مطالعه خود را با سایر موارد منتشر شده مقایسه کنم... به عبارت دیگر، می خواهم بدانم آیا از نظر آماری متفاوت است یا نه. نه به سایر موارد منتشر شده. از چه روشی برای محاسبه آن استفاده کنم؟ خیلی ممنونم | چگونه تفاوت بین بروز را محاسبه کنم؟ |
44015 | من سه گروه آزمایشی دارم. هر کدام یک خط پایه 15 دقیقه ای را قبل از افزودن داروی A، داروی B یا کنترل سالین ارائه می دهند. هر گروه دارای N برابر با 8 حداکثر است، اما اگر داده ها به دلیل نویز حذف شوند، احتمالاً به 6 می رسد. تا جایی که من متوجه شدم، یک آنووا دو طرفه بهترین خواهد بود. احتمالاً اندازه گیری را تکرار کنید زیرا هر نقطه زمانی 8 تکرار خواهد داشت. با این حال به نظر من تست آنووا دو طرفه برای بررسی اینکه آیا زمان تعامل قابل توجهی دارد که من قبلاً می دانم انجام می دهد یا خیر. همانطور که در طول دوره پایه من انتظار کاهش تا زمانی که ثابت است. من فقط علاقه مند به آزمایش یک تغییر وابسته به دارو هستم و تغییر بزرگی را می بینم. لطفا راهنمایی کنید که آیا من از بهترین تست برای استفاده در این سناریو استفاده می کنم یا خیر. | 3 گروه 8 تایی با درمان متفاوت هر کدام، بیش از 45 دقیقه - در مورد آزمایش آماری مورد نیاز |
44013 | سلام متخصص زنجیره مارکوف، امیدوارم بتوانید در مورد این نمودار پرده ای که در یک کتاب دیدم به من پاسخ دهید. چرا در این تصویر از یک **عمومی** زنجیره مارکوف مرتبه اول متشکل از 2 حالت، ما باید مشکل را بدانیم. هر ایالت در هر زمان؟ یک زنجیره مارکوف مرتبه اول عمومی، می تواند وابسته به زمان (غیر ثابت) باشد، بنابراین پروب انتقال. می تواند با زمان تغییر کند به همین دلیل است که ما در هر زمان E(time) را در این تصویر داریم. اما با داشتن *ابتدای** Prob. از هر حالت (P(t=1))، و **Transition** prob. من می توانم مشکل را محاسبه کنم از هر **حالت** در هر زمان معین، بنابراین احتمالات حالت در هر زمان (P(t=2,t=3,...)) اطلاعات **اضافی** هستند. درست میگم یا چیزی رو نادیده میگیرم؟  pic.Statistics in Volcanology (google books) page 167 MArkov chain | زنجیره مارکوف مرتبه اول، احتمالات انتقال حالت در هر زمان برای مدل کافی است |
44017 | من سعی می کنم از CART ها (درخت طبقه بندی و رگرسیون) برای AdaBoost به عنوان یادگیرنده ضعیف استفاده کنم. سوال من مربوط به به روز رسانی وزنه ها پس از قرار دادن بهترین زبان آموز ضعیف است. یک گره CART از یک آستانه ساده (و البته توصیفگر ویژگی انتخاب شده) تشکیل شده است که مجموعه داده ها را برای گره جانشین چپ و/یا گره جانشین راست جدا می کند. فرض کنید می خواهم وزن یک نقطه داده را با استفاده از یک سبد خرید با عمق 3 به روز کنم. root / \ n1(-1) p1(+1) / \ / \ n2(-1) p2 (+1) n3(-1) p3(+1) آیا باید از تمام گره های پیمایش شده برای به روز رسانی وزن استفاده کنم یا فقط به خروجی نهایی درخت برای به روز رسانی نیاز دارم؟ من اولین رویکرد را در جعبه ابزار GML AdaBoost MATLAB دیدم. امیدوارم بتوانم مشکلم را به اندازه کافی شرح دهم. | چگونه از CART برای AdaBoost استفاده کنیم؟ |
54917 | من سعی میکنم یک رگرسیون لجستیک (مورد-کنترلی) اجرا کنم و متغیر مورد علاقه مقولهای است و مقادیر 0 تا 6 را میگیرد. برای زیر مجموعهای از افراد، مقدار دقیق (0، 1.. یا 6) را ندارم. ) اما یک توزیع احتمال: P(V=0)=0.03 P(V=1)=0.2 .. P(V=6) = 0.3 من به تخمین بی طرفانه OR و فاصله اطمینان، چه زمانی که این متغیر را به عنوان یک متغیر ترتیبی آزمایش می کنم و هم زمانی که تمام سطوح را به عنوان متغیرهای ساختگی آزمایش می کنم (ORهای سطوح 1، 2، 3، 4، 5 و 6 در مقابل سطح 0). به نظر می رسد که من باید احتمالات را در بیشینه سازی احتمال معرفی کنم و فکر می کردم که آیا این قبلاً در یک اسکریپت R یا هر برنامه دیگری پیاده سازی شده است. | انجام رگرسیون لجستیک با متغیرهای منتسب |
44011 | شاید سوال من خیلی ساده باشد اما من تازه شروع به تجزیه و تحلیل آماری کردم و از R استفاده کردم و همیشه ساده نیست! من داده های عملکردی برای 5 آزمودنی با سطح تجربه متفاوت دارم که یک کار را 6 بار تکرار می کنم. من می خواهم زمان انجام کار را با مدل های اثر ترکیبی پیش بینی کنم. من در حال ساخت مدلی هستم که شامل زمان به عنوان پاسخ، شماره آزمایش، تجربه قبلی و تعامل آنها به عنوان اثرات ثابت و موضوعات به عنوان اثرات تصادفی است. آیا این درست خواهد بود؟ سپس الگوی یادگیری را نشان میدهم که دادههایم را رسم کرده و یک خط صاف (کم) اضافه میکنم. این اولین مدل است > ma <- lme(prod.time~Trial+Previous.experience+Trial*Previous.experience, data= Data27_04, random=~1|Student, method=ML) > summary(ma) خطی مدل اثرات مختلط متناسب با حداکثر احتمال داده ها: Data27_04 AIC BIC logLik 1517.445 1541.259 -750.7226 جلوه های تصادفی: فرمول: ~1 | Student (Intercept) Residual StdDev: 7.337648 42.42332 جلوه های ثابت: prod.time ~ Trial + Previous.experience + Trial * Previous.experience Value Std.Error DF t-value p-value (Intercept) 102.4516179 102.4516173 10.713435 0.0000 آزمایشی -6.48494 2.252271 137 -2.879291 0.0046 Previous.experience1 -37.36173 14.786033 2 -2.526827272424242424.526.2726. 12.451072 2 3.792948 0.0630 آزمایشی: Previous.experience1 6.55351 3.496401 137 1.874360 0.0630 آزمایشی: قبلی. تجربه2 -7.55140378 -7.55140378 0.0113 همبستگی: (Intr) Trial Prvs.1 Prvs.2 Tr:P.1 Trial -0.841 Previous.experience1 0.253 -0.208 Previous.experience2 -0.234 0.199 -0.540 -0.540 Trial:Previous1.00.25 -Previous. 0.447 Trial: Previous.experience2 0.199 -0.226 0.447 -0.836 -0.550 استاندارد شده درون گروهی باقیمانده: حداقل Q1 Med Q3 حداکثر -2.3519731 -0.6903211 -0.1031696760. تعداد مشاهدات: 145 تعداد گروه ها: 5 > آیا فکر می کنید این به اندازه کافی برای نشان دادن اثر یادگیری خوب است؟ منحنی های یادگیری نمایی هستند. من سعی کردهام متغیر پاسخ را تبدیل کنم، اما p-values میگویند که تجربه قبلی هیچ اهمیتی ندارد. > mb<-lme(log.prodtime~Trial+Previous.experience+Trial*Previous.experience, data= Data27_04, random=~1|Student, method=ML) > summary(mb) برازش مدل با اثرات مختلط خطی براساس حداکثر احتمال داده ها: Data27_04 AIC BIC logLik 225.1042 248.9181 -104.5521 جلوه های تصادفی: فرمول: ~1 | Student (Intercept) Residual StdDev: 0.04484554 0.495812 اثرات ثابت: log.prodtime ~ Trial + Previous.experience + Trial * Previous.experience Value Std.Error DF t-value p-value (Intercept) 4.437201 41.99165 0.0000 آزمایشی -0.060150 0.02629765 137 -2.28726 0.0237 Previous.experience1 -0.333664 0.16351518 2 -2.0178570 previous. 0.368358 0.13776525 2 2.67381 0.1160 آزمایشی: قبلی. تجربه1 0.051714 0.04084708 137 1.26604 0.2076 آزمایشی: قبلی 137 -1.25282 0.2124 همبستگی: (Intr) Trial Prvs.1 Prvs.2 Tr:P.1 Trial -0.886 Previous.experience1 0.248 -0.221 Previous.experience2 -0.237 0.250Prvs.2 -0.250 Trial. 0.266 -0.881 0.473 Trial: Previous.experience2 0.208 -0.225 0.474 -0.883 -0.551 استاندارد شده درون گروهی: حداقل Q1 Med Q3 حداکثر -2.7119095 -0.80013327.80010 0.8621127 2.1988560 تعداد مشاهدات: 145 تعداد گروه ها: 5 > مدل مطمئناً بهتر است (AIC، BIC) همچنین باقیمانده ها بهتر به نظر می رسند، اما آیا باید مدل را کاهش دهم و فقط شماره آزمایشی را باقی بگذارم؟ | منحنی های یادگیری ترکیبی و افکت |
91153 | من سعی می کنم این کد Matlab را به R تبدیل کنم. هدف من تولید یک متغیر تصادفی دو متغیره با یک همبستگی از پیش تعیین شده است. کد از ایده t-copula استفاده می کند. من نمی توانم بفهمم چگونه این را در R بنویسم. از هر کمکی قدردانی خواهم کرد. کد این است: n = 1000; rho = 0.7; nu = 1; T = mvtrnd([1 rho; rho 1], nu, n); U = tcdf (T,nu); X = [gaminv(U(:،1)،2،1) tinv(U(:،2)،5)]; | متغیر تصادفی دو متغیره با R |
71050 | من از بسته glmnet برای ایجاد یک رگرسیون خطی با $\alpha$ = 0.5 استفاده می کنم تا بهترین $\lambda$ را پیدا کنم. `xMatrix` [44x15000] ($p>>N$)، `y` = عددی[44] به نظر میرسد همه چیز خوب اجرا میشود، اما $\lambda$ وقتی دستور را دوباره اجرا میکنم مقدار خود را بسیار تغییر میدهد. آیا رویکرد من نادرست است؟ cvGlmnet <- cv.glmnet(xMatrix، y، آلفا=0.5، nfolds=10) cvGlmnet$lambda.min [1] 10.24038 cvGlmnet$lambda.1se [1] 17.08198 cvGlmnet$lambda.1se [1] 17.08198 cvGlmnet$lambda.1. alpha=0.5، nfolds=10) cvGlmnet$lambda.min [1] 14.85703 cvGlmnet$lambda.1se [1] 17.08198 cvGlmnet <- cv.glmnet(xMatrix، y، alpha=0.5netfolds. [1] 4.865008 cvGlmnet <- cv.glmnet(xMatrix، y، آلفا=0.5، nfolds=10) cvGlmnet$lambda.min [1] 16.30557 cvGlmnet <- cv.glmnet <- cv.glmnet... من همچنین پکیج caret را برای تنظیم $\alpha$ و $\lambda$ امتحان کردهام. اگر این کار را درست انجام دادم، «obj$bestTune» $\alpha$ = 1 و $\lambda$ = 3 را داد. وقتی «glmnet» را مانند بالا امتحان میکنم، اما در عوض از $\alpha$ = 1 استفاده میکنم، مقادیر $\lambda$ بین 5-8 حرکت کنید (حداقل چیزی که من امتحان کردم، بین دویدن نیز متفاوت است). آیا این نباید چیزی ~3 بدهد؟ من با این مثال سعی کردم # یک مجموعه داده ساختگی با 30 پیش بینی کننده (10 پیش بینی کننده مفید و 20 غیر مفید) y=rnorm(100) x1=matrix(rnorm(100*20),100,20) x2=matrix(y+rnorm) ایجاد کنم (100*10),100,10) x=cbind(x1,x2) # از اعتبارسنجی متقاطع برای یافتن بهترین استفاده کنید کتابخانه lambda(glmnet) cv <- cv.glmnet(x,y,alpha=1,nfolds=10) l <- cv$lambda.min و همچنین کمی تغییر می کند، اما نه به اندازه داده های من. آیا به دلیل ساختار/ماهیت داده من است؟ با استفاده از caret، مقدار آلفا نیز بسیار تغییر کرده است (با توجه به اینکه فقط می تواند بین 0 و 1 باشد و هر انتهای یک رویکرد کاملاً متفاوت است). هیچ سرنخی؟ | مقدار lambda در اعتبارسنجی متقاطع تنظیم glmnet هنگام تکرار آزمایش تغییر می کند |
70327 | ما $N$ افراد داریم که به طور مکرر در زمان اندازه گیری شده اند. برای هر فرد، در هر اندازه گیری، مقادیر دو متغیر را اندازه گیری می کنیم: $A$ و $B$. ممکن است تعداد اندازهگیریها برای هر فرد یکسان نباشد. اندازهگیری $i^{th}$ فرد $n^{th}$ ممکن است در زمانی متفاوت از اندازهگیری $i^{th}$ فرد $m^{th}$ گرفته شود. چگونه می توانیم همبستگی بین $A$ و $B$ را محاسبه کنیم و اهمیت همبستگی را اندازه گیری کنیم؟ از چه آزمون آماری می توانیم استفاده کنیم؟ آیا بسته ای در `R` وجود دارد که این کار را انجام دهد؟ | چه آزمون آماری برای همبستگی در اندازه گیری های مکرر مناسب است؟ |
41194 | من می خواستم این سوال را در stackoverflow بپرسم اما فکر می کنم اینجا مناسب تر است. اگر اشتباه می کنم لطفا به من بگویید. سوال من مربوط به استفاده در آمار برای تجزیه و تحلیل داده های فیزیکی/مهندسی است. از آنجایی که ابزارهای آماری مورد استفاده به زمینه بستگی دارد و به ندرت جهانی هستند، لازم است مشکل خود را که نسبتا طولانی است شرح دهم. ## سوال من در مورد من، چگونه باید باقیمانده را ارزیابی کنم تا در نظر بگیرم که تست های من چقدر خوب هستند؟ آیا باید به سادگی میانگین مربعات باقیمانده آنها (RMS) را مقایسه کنم؟ یا باید جذر RMS ها را مقایسه کنم؟ یا باید جذر ریشه مجموع مجذور باقیمانده تقسیم بر درجات آزادی باقیمانده را مقایسه کنم؟ یا هر چیز دیگری؟ خلاصه: $$ \frac{\sum_i(Y_i-\widehat{Y})^2}{n-2} یا \sqrt{\frac{\sum_i(Y_i-\widehat{Y})^2}{n- 2}} یا \frac{\sqrt{\sum_i(Y_i-\widehat{Y})^2}}{n-2} یا \; دیگر \;? $$ با توجه به زمینه، متوجه خواهید شد که چرا من نمیخواهم از ابزارهای آماری با استفاده از میانگین $\overline{Y}$ و فقط باقیماندهها استفاده کنم. ## تنظیمات مشکل واقعی من نسبتاً پیچیده است و به تجزیه و تحلیل برخی از دادههای تست مربوط به فیزیک مربوط میشود. بنابراین برای مثال و برای جلوگیری از ورود به فیزیک (که موضوع ما در اینجا نیست): فرض کنید من یک مهندس کیفیت هستم و می خواهم کیفیت مجموعه ای از نمونه های _M_ را با تست کشش بررسی کنم. (من تست کششی را انتخاب کردم زیرا در اوایل دبیرستان تدریس می شود و آزمون نسبتاً ساده) آزمون من ساده است: من هر یک از نمونه های خود را فقط و به شدت در رژیم کشسانی می کشم که **به طور معمول** یک همبستگی خطی بین استرس (بار) دارد. _L_، نیوتن) و کرنش تا _m_ (جابجایی _D_، متر). _m_ ضریب توان جابجایی است و ناشناخته است. بنابراین من قانون زیر را دارم (1): $L=a*D^m $ (1) $1\leq m \leq 2$ توجه داشته باشید: برای _m=1_، a سفتی فنر k است که مربوط به یانگ آن است. مدول E، و من یک آزمایش کششی معمولی با یک نمونه معمولی دارم. مهم نیست که در اینجا چنین باشد اما ممکن است اتفاق بیفتد. _m_ باید برای همه نمونههای من تقریباً یکسان باشد، اما هرگز کاملاً یکسان نیست (میدانید، آزمایشها...) و ناشناخته است. ابزار من نقاط داده جابجایی و بارگذاری را در یک ماتریس $2*n$ ذخیره می کند که _n_ تعداد نقاط داده است. من مجموعاً _M_ نمونه دارم، از این رو تست های _M_. ## هدف هدف من این است که بررسی کنم آیا هر آزمون به درستی از قانون من پیروی می کند (1). اگر بله، نمونه من خوب است. اگر نه، نمونه من بد است و می توانم آن را زباله کنم (البته در سطل بازیافت). هنگام ترسیم، آزمایشهای روی نمونههای بد مراحل یا چندین رژیم را نشان میدهند که $L$ در مقابل $D^m$ برای $\forall m$ (به وضوح برای هر دو مورد قابل مشاهده است). نمونه های بد به سادگی به این معنی است که پیش فرض های ساختاری وجود دارد. برای نمونه های خوب، $L$ در مقابل $D^m$ (با بهترین $m$) یک خط ساده است (منهای خطاهای ناشی از ابزار اندازه گیری). ## الگوریتم برای یافتن _m_، از یک فرآیند تکرار ساده با روش حداقل مربعات خطی با Matlab استفاده می کنم. البته برای $L=0$، $D=0$ (بدون نیرو، بدون فشار). در اینجا الگوریتم ساده (نه به زبان متلب کامل برای وضوح!) برای یک تست است: [RMS,m,a] = تابع(D,L) %ورودی ها: جابجایی D و بار L %خروجی ها: RMS، m و a Vm =1*101 بردار %m دارای دقت 0.01 خواهد بود. Vr=1*101 بردار Va=1*101 بردار برای 1<Vm<2 X_m = D.^Vm Va=X_m\L %تقسیم ماتریس چپ تابع داخلی matlab: %راه حل با روش حداقل مربع استفاده شده است. Vr=sum((L-a*X_m).^2)./(length(L)-2) %محاسبه میانگین مربع باقیمانده %Note: length(L)=n: پایان تعداد نقاط داده برای [RMS, RMSPos]= min(Vr) %RMS = Residual Mean Square = min(r): حداقل باقیمانده. %RMSPos: موقعیت در بردار کمترین باقیمانده m=Vm(RMSPos) %m را با کمترین باقیمانده ذخیره می کند a=Va(RMSPos) %a را با کمترین تابع انتهای باقیمانده ذخیره می کند و من این کار را برای هر یک از _M_ خود انجام می دهم. تست ها ## مسئله حالا میخواهم روشی تعریف کنم که بگوییم «این نمونهها خوب هستند» یا «این نمونهها بد هستند». من RMS $M$ را که از تستهای $M$ بدست آوردم مقایسه میکنم: آنهایی که نزدیک به 0 هستند در مورد تستهای خوب به من میگویند، آنهایی که بزرگتر از 0 هستند در مورد تستهای بد به من میگویند. من میتوانم در مورد محدودیت RMS $RMS_{lim}$ تصمیم بگیرم که $RMS\leq RMS_{lim}$ نمونههای خوب را به من بدهد و $RMS > RMS_{lim}$ نمونههای بد را به من بدهد. از برخی جهات، میتوانم «خوبی» همه نمونههای $M$ خود را با مرتبسازی از کوچکترین باقیماندهها به بزرگترین آنها مرتب کنم. به این ترتیب، من نیازی به بررسی طرح تمام تست های $M$ خود به صورت دستی ندارم و ببینم آیا یک خط زیبا دارم یا یک چیز تصادفی زشت. در حالی که من قطعاً می توانم RMS ها را در یک آزمون برای '$m$'های مختلف مقایسه کنم، نمی دانم که آیا مقایسه RMS ها بین آزمون های مختلف هم از نظر فیزیکی و هم از نظر ریاضی قابل قبول است. چرا؟ زیرا از یک طرف راه حل های آزمایشی مختلف من حداکثر $L$ (یا $L_n$)، حداکثر $D$ (یا $D_n$)، '$m$'s، '$a$'s مشابه اما کاملاً برابر نیستند. و '$n$'s ($n$: تعداد نقاط داده در یک آزمایش). در بالای آن RMS یک مقدار مربع است، بنابراین من باید حرفه ای باشم | حداقل مربعات باقیمانده، خطی و مهندسی کیفیت |
5220 | من یک متاآنالیز انجام داده ام و ناهمگنی خیلی زیاد است. من با (زوج/کل) برای گروههای آزمایشی و کنترل کار میکنم تا نسبت شانس را محاسبه کنم. من مدل سازی با اثر ثابت و تصادفی انجام داده ام. اکنون باید از متارگرسیون از طریق SPSS استفاده کنم. آیا کسی می تواند مرا به مجموعه ای از مواد راهنمایی کند تا یاد بگیرم چگونه این کار را انجام دهم؟ من چند لینک را خوانده ام اما هیچ کدام واقعا این سوال را حل نکرده اند. با تشکر | چگونه با SPSS تحلیل متارگرسیون انجام دهیم؟ |
18814 | من یک مدل لاجیت سنتی با یک متغیر وابسته دوگانه و چندین متغیر مستقل دارم. یکی از IV ها طبقه بندی شده است و در کد R من به عنوان یک فاکتور با آن برخورد می کنم. در گذشته، من اثرات حاشیه ای را با ایجاد یک مجموعه داده شبیه سازی شده ارائه کرده ام که در آن همه متغیرها را در میانگین یا میانه نگه می دارم و سپس متغیر مورد نظر را در محدوده آن افزایش می دهم. سپس از مدل تخمین زده شده برای بدست آوردن احتمال پیش بینی شده یک نتیجه معین در محدوده متغیر مورد نظر استفاده می کنم. سپس به راحتی ترسیم می شود تا یک تفسیر گرافیکی خوب از تأثیر تخمینی تغییرات در متغیر مورد نظر ایجاد شود. اما در مورد اثر ثابت، جایی که یک متغیر در مدل یک عامل است، چگونه یک نمودار مشابه تولید میشود؟ آیا من به یک نمودار اثر تخمینی جداگانه برای هر مقدار متغیر عامل نیاز دارم یا راهی وجود دارد که بتوان میانگین اثر تغییرات متغیر مورد علاقه را بر روی همه دسته ها در متغیر عامل تخمین زد در حالی که همه متغیرهای دیگر در میانگین خود نگهداری می شوند؟ | ارائه اثرات حاشیه ای لاجیت با جلوه های ثابت |
5226 | اگر $X=[x_1,x_2,...,x_n]^T$ یک متغیر تصادفی $n$-بعدی باشد و $E\left\\{X\right\\} = M = \left[m_1 داریم ,m_2,...,m_n\right]^T$ $Cov\left\\{X\right\\} = \Sigma = diag\left(\lambda_1,\lambda_2,...,\lambda_n\right)$ چگونه می توانم انتظارات زیر را برحسب $M$, $\Sigma$, و $n$ (و شاید $m_i$ خام) بیان کنم 's و $\lambda_i$'s)؟ $E\left\\{ \left(X-M\right)^T\left(X-M\right)\left(X-M\right)^T\left(X-M\right)\right\\}$ فرض کنید $x_i$' s i.i.d هستند و توزیع نرمال دارند، قابل قبول است، اما آیا این مفروضات ضروری هستند؟ **به روز رسانی:** 1. من می دانم که $E\left\\{ \left(X-M\right)^T\left(X-M\right)\right\\} = \sum_{i=1}^n \ left(\lambda_i\right)$ اما فکر نکنید که در این مورد کمکی نمی کند. 2. در بخش ~~_6.2.3 Forms Cubic_~~ _8.2.4 Quartic Forms_ کتاب آشپزی Matrix فرمولی برای انتظارات درجه دوم محاسبه شده وجود دارد، اما من فقط یک فرمول برای حل آن نمی خواهم. من فکر می کنم باید یک سوال ساده برای این مشکل وجود داشته باشد زیرا ماتریس کوواریانس مورب است. | انتظار $\left(X-M\right)^T\left(X-M\right)\left(X-M\right)^T\left(X-M\right)$ |
70322 | آیا می توان نمودار پراکندگی همبستگی جزئی را برای 2 زیر گروه در یک نمودار نشان داد؟ به عنوان مثال من میخواهم نمودارهای پراکندهای از دادههای کنترلشده برای سن ایجاد کنم، که توسط مردان یا زنان متمایز میشوند. من سعی کردم نمودارهای رگرسیون جزئی ایجاد شده توسط تحلیل رگرسیون خطی را انجام دهم، اما نمی توانم آن را بر اساس گروه ها تقسیم کنم. گزینه هایی برای انجام آن در اکسل یا R نیز خوب است. با تشکر | نمودار همبستگی جزئی، تقسیم بر گروه های SPSS |
71054 | من در چندین جا خوانده و شنیده ام که آموزش شبکه های یادگیری عمیق به طور قابل توجهی بیشتر از مثلاً ماشین های برداری/هسته، جنگل های تصادفی یا روش های تقویتی پشتیبانی می کند، اما می توانند عملکرد بهتری داشته باشند. سوال من این است که تفاوت اساسی در مورد شبکه های یادگیری عمیق در رابطه با سایر روش های یادگیری که این تفاوت را توضیح می دهد چیست؟ در مورد پیچیدگی آموزشی آنها چه چیزی شناخته شده است؟ به عنوان مثال، آیا DNN (بر خلاف روش های دیگر) تبعیض آمیز است؟ به نظر میرسد که میتوان آنها را مولد در نظر گرفت زیرا ویکیپدیا ذکر میکند: وقتی لایههای زیادی آموخته شد، معماری عمیق میتواند با بازتولید دادهها هنگام نمونهبرداری از مدل (یک «گذرنامه اجدادی») به عنوان یک مدل مولد استفاده شود. فعال سازی ویژگی های سطح بالا من همچنین در ویکیپدیا خواندهام که DNNها را میتوان به صورت **بدون نظارت** از قبل آموزش داد. آیا این تفاوت قابل توجهی در رابطه با روش های دیگر است. آیا این مرحله قبل از تمرین آنقدر رایج است؟ اما مهمتر از همه، **چرا آموزش DNN در مقایسه با روشهای دیگر طول میکشد**؟ | شبکه های یادگیری عمیق: تفاوت های اساسی |
71053 | من در یادگیری ماشینی تازه کار هستم و سوالات کمی در مورد نحوه انجام طبقه بندی با استفاده از شبکه عصبی دارم. من جعبه ابزار Matlab را برای آن دارم. من مسیرهای حرکتی دارم که برخی از کنش ها را نشان می دهد. اینها اطلاعات چند بعدی حاوی مرکز پیکسل هستند که پس از ردیابی نتیجه در فریم های متوالی به دست می آیند. \- باید آن را به عنوان یک مشکل کلاس 2 طبقه بندی کنم: فرض کنید مجموعه داده های آموزشی زیر را برای فعالیت A -0.9 0.2 0.89 0.3 دارم و به همین ترتیب مجموعه داده $D_A$ حاوی 10 نمونه از این فعالیت را دارم. بنابراین، چگونه می توانم یک برچسب روی آن بگذارم و به یک شبکه عصبی تغذیه کنم. من سعی کردم 1 را در بعد سوم داده A برای کل طول داده قرار دهم. چگونه می توانم با 10 نمونه تمرین کنم و بر اساس اعتبارسنجی متقاطع k fold طبقه بندی کنم؟ یک قطعه کد عالی خواهد بود. | تردید در طبقه بندی باینری |
5228 | من به کشش نمونه یک متغیر تصادفی نسبتاً اریب نگاه میکنم، و نتایج ناسازگار به نظر میرسند. برای نشان دادن ساده مشکل، من به نمونه کشش یک RV log-normal نگاه کردم. در R (که کم کم دارم یاد میگیرم): library(moments); samp_size = 2048; n_trial = 4096; kvals <- rep(NA,1,n_trial); #preallocate for (iii در 1:n_trial) { kvals[iii] <- kurtosis(exp(rnorm(samp_size))); } print(summary(kvals)); خلاصه ای که من دریافت می کنم حداقل است. 1 ق. میانگین میانه 3rd Qu. حداکثر 11.87 28.66 39.32 59.17 61.70 1302.00 طبق ویکی پدیا، کشیدگی برای این RV log-normal باید حدود 114 باشد. واضح است که کشیدگی نمونه بایاس است. با انجام برخی تحقیقات متوجه شدم که کشش نمونه برای اندازههای نمونه کوچک سوگیری دارد. من از برآوردگر 'G2' همانطور که توسط بسته 'e1071' در CRAN ارائه شده است استفاده کردم و نتایج بسیار مشابهی برای این اندازه نمونه گرفتم. **سوال**: کدام یک از موارد زیر مشخص می کند که چه اتفاقی می افتد: 1. خطای استاندارد کشیدگی نمونه برای این RV بسیار بزرگ است (حتی اگر تخمین معمول موج دستی خطای استاندارد در حد $1 باشد. /\sqrt{n}$). متناوبا، من از نمونه های بسیار کمی (2048) در این مطالعه استفاده کردم. 2. این پیادهسازیهای کشش نمونه از مشکلات عددی رنج میبرند که ممکن است با روش _مثلا_ Terriberry تصحیح شوند (به همان روشی که روش ولفورد نتایج بهتری نسبت به روش سادهلوح برای واریانس نمونه میدهد). 3. من کشش جمعیت را اشتباه محاسبه کردم. (اوه) 4. کشیدگی نمونه ذاتاً مغرضانه است و شما هرگز نمی توانید آن را برای چنین اندازه های نمونه کوچکی برطرف کنید. | آیا کشیدگی نمونه به طرز ناامیدکننده ای مغرضانه است؟ |
70325 | تابع تقاضا برای سفر هوایی بین ایالات متحده و اروپا تخمین زده شده است $$\ln Q = 2.737 - 1.247 \ln P +1.905 \ln I$$ که $Q$ نشان دهنده تعداد مسافران (به هزاران) در سال است. $P$ قیمت بلیط (متوسط) و $I$ درآمد ملی ایالات متحده. کشش قیمتی و کشش درآمدی تقاضا را تعیین کنید. | محاسبه کشش قیمتی و کشش درآمدی تقاضا |
41198 | من یک مجموعه داده با توزیع غیر یکنواخت دارم. من می خواهم از آن نمونه برداری کنم تا نتیجه به طور یکنواخت توزیع شود. اگر کلاس مثال را بدانم، با چه احتمالی باید آن را انتخاب کنم تا توزیع یکنواختی از هر کلاس در نمونه حاصل به دست آید؟ مثال: قبل: بعد: کلاس 1: 40% 20% کلاس 2: 30% 20% کلاس 3: 15% 20% کلاس 4: 10% 20% کلاس 5: 5% 20% احتمالاً به مقداری تابع توزیع معکوس نیاز دارد، اما یادم نمی آید هر مشخصات.../ | مقادیر غیریکنواخت توزیع شده را نمونه/فیلتر کنید تا نتیجه از توزیع یکنواخت پیروی کند |
17947 | چگونه می توانم مجموعه داده های متعلق به _R companion به Experimental Design_ را دریافت کنم (Vikneswaran، 2006)؟ لینک وب سایت و ایمیلی که در این کتاب درسی به آنها اشاره شده است دیگر فعال نیستند. | همراه R Vikneswaran برای مجموعه داده های طراحی تجربی |
71059 | من سعی می کنم یک تجزیه و تحلیل خوشه ای را روی یک مجموعه داده بزرگ (70k+ مشاهدات تا خوشه) با متغیرهای ترکیبی (عددی، ترتیبی، باینری و اسمی) اجرا کنم. من فکر نمی کنم بتوانم ماتریس فاصله را با استفاده از SAS در کل مجموعه داده ایجاد کنم. بنابراین، من سعی کردهام یک خوشهبندی سلسله مراتبی را با استفاده از فاصله Gower روی یک _subsample_ از دادههایم اجرا کنم. من چند سوال دارم 1. اگر روش فوق (خوشه بندی سلسله مراتبی یک نمونه فرعی) مناسب باشد، چگونه می توانم بقیه مشاهدات را نمره گذاری کنم و آنها را به خوشه های به دست آمده اختصاص دهم (طبقه بندی کنم؟) 2. اگر روش فوق خوب نیست، چه روش های دیگری برای خوشه بندی یک مجموعه داده بزرگ با متغیرهای مختلط توصیه می شود؟ (در صورت امکان در SAS موجود است.) 3. چگونه می توانم همبستگی/چند خطی بودن بین متغیرهای مختلط را بررسی کنم؟ نمیدانم اجرای چیزی مانند PCA یا تحلیل عاملی با دادههای طبقهبندی منطقی است یا خیر. | هزاران مشاهده (انواع متغیر مختلط) را خوشه بندی کنید. نمونه فرعی را خوشه بندی کنید و سپس بقیه مشاهدات را طبقه بندی کنید؟ |
14368 | من سعی می کنم تابع _f_ را به حداقل برسانم، اولاً از **fminsearch** استفاده می کردم اما مدت زیادی کار می کند، به همین دلیل اکنون از **fminunc** استفاده می کنم، اما یک مشکل وجود دارد: برای شتاب دادن به گرادیان تابع نیاز دارم. f = @(w) sum(log(1 + exp(-t .* (phis * w'))))/size(phis, 1) + coef * w*w'; options = optimset('Display', 'Notify', 'MaxFunEvals', 2e+6, 'MaxIter', 2e+6); w = fminunc(f, ones(1, size(phis, 2)), option); * اندازه **phis** NxN+1 است * **t** اندازه Nx1 است * **ضریب** const است. برای الگوریتم منطقه اعتماد ارائه شود. به جای آن از الگوریتم جستجوی خطی استفاده کنید. | چگونه گرادیان رگرسیون لجستیک را در Matlab محاسبه کنیم؟ |
71058 | من با تفسیر خروجی R برای ANOVA اندازه گیری های مکرر دو طرفه مشکل دارم. من از «m1.emax.aov <- aov(mean_emax_norm ~ (cond5*stride) + Error(dog_id/(cond5*stride))، df3.emg.m1» استفاده کردم و جداول خلاصه من را پرت می کند. من عادت دارم فقط یک جدول خلاصه با اثرات اصلی و تعامل لیست شده یک بار ببینم. هر کدام با عبارت خطای خاص خود من نمی دانم چگونه خروجی زیر را تفسیر کنم. من انتظار نداشتم که cond5 را برای Error:dog_id، stride برای Error:dog_id:cond5، یا cond5:stride را برای Error:dog_id:stride ببینم. چگونه تفسیر می کنید، برای مثال، گام برای Error:dog_id:cond5 مهم است اما برای Error:dog_id:stride مهم نیست؟ هر گونه راهنمایی بسیار قدردانی خواهد شد. summary(m1.emax.aov) خطا: dog_id Df Sum Sq Mean Sq F مقدار Pr(>F) cond5 2 706.5 353.3 12.69 0.011 * Residuals 5 139.1 27.8 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: dog_id:cond5 Df Sum Sq Mean Sq F مقدار Pr(>F) cond5 4 48.30 12.07 3.4216 *0. 1 36.07 36.07 10.316 0.0035 ** باقیمانده 26 90.91 3.50 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: dog_id:stride Df Sum Sq Mean Sq F value Pr(>F) stride 2 7.42 3.709 0.347d 0.71 گام 3 9.99 3.331 0.308 0.819 Residuals 11 119.02 10.820 خطا: dog_id:cond5:stride Df Sum Sq Mean Sq F مقدار Pr(>F) cond5:stride 8 103.8 12.975 2.498 *2.494 *0.029 0.029 * 0.029 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 | تفسیر ANOVA اندازه گیری های مکرر با خطای مشخص شده () در R |
17942 | با توجه به اینکه $X$ متغیر تصادفی است که مقادیری را می گیرد: $0,\dots,H-1$ PMF $X$ ناشناخته است، اما می توانم بگویم که مقدار مورد انتظار چیست که $\bar{X}$ وجود دارد. رویداد $Y$ وقتی محاسبه میشود این مقدار را میدهد: $P(Y)=E[\frac{1}{X+1}]$ آیا راهی برای یافتن مقدار مورد انتظار $\bar{Y}$ وجود دارد؟ | مقدار مورد انتظار متقابل یک متغیر تصادفی |
94937 | **قسمت الف**: فرض کنید من 2 گروه دارم (پیش درمان، بعد از درمان) و برای هر موضوع 3 متغیر ثبت می کنم. بنابراین ردیفهای من به نظر میرسند: pre post var1 var2 var3 | var1 var2 var3 من می خواهم بررسی کنم که آیا درمان بر var1، var2 و var3 تأثیر می گذارد یا خیر. آیا می توانم به سادگی 3 تست t زوجی انجام دهم؟ مانند: paired-t-test(var1-pre, var1-post)، paired-t-test(var2-pre, var2-post) و غیره. یا تست مناسب تری وجود دارد؟ **قسمت B** : فرض کنید من یک متغیر دسته بندی هم دارم مانند: pre post cat var1 var2 var3 | cat var1 var2 var3 (البته چون موضوع در هر ردیف یکسان است، «cat» در دو ستون مقدار یکسانی دارد). مناسب ترین تست در این مورد چه خواهد بود؟ سوال مربوطه: چند نمونه زوجی آزمون t؟ | آیا تست های t زوجی متعدد در بین 2 گروه ایمن و موثر هستند؟ |
71057 | من روی یک کار طبقه بندی باینری کار می کنم که در آن یکی از متغیرهای ورودی مقادیر {A, B, C} را می گیرد. بسیاری از طبقهبندیکنندهها فقط ویژگیهای عددی را به عنوان ورودی میگیرند، بنابراین من فکر میکردم بهترین راه برای انجام این کار چیست. اگر آنها را به اعداد صحیحی مانند A:1، B:2، C:3 نگاشت کنم، نگرانم که این بدان معنا باشد که A بیشتر شبیه B و کمتر شبیه به C است (زیرا |1-2|=1 و | 1-3|=2) اما این لزوما درست نیست. بنابراین آیا این روش نوعی سوگیری ایجاد نمی کند؟ | تبدیل متغیرهای طبقه ای به عددی |
111756 | بنجامینی و هوچبرگ اولین (و فکر میکنم هنوز پرکاربردترین روش) را برای کنترل نرخ کشف نادرست (FDR) توسعه دادند. من میخواهم با دستهای از مقادیر P شروع کنم، هر کدام برای مقایسه متفاوت، و تصمیم بگیرم که کدام یک به اندازه کافی پایین هستند که بتوان آن را کشف نامید، و FDR را تا یک مقدار مشخص (مثلاً 10٪) کنترل میکنم. یکی از مفروضات روش معمول این است که مجموعه مقایسهها یا مستقل هستند یا وابستگی مثبت دارند، اما من نمیتوانم دقیقاً بفهمم که این عبارت در زمینه تحلیل مجموعهای از مقادیر P به چه معناست. | معنای وابستگی مثبت به عنوان شرط استفاده از روش معمول برای کنترل FDR |
5224 | من به مقالات یا کتاب های اخیر در مورد فشرده سازی تصویر با استفاده از تکنیک های مبتنی بر یادگیری ماشین علاقه مند هستم. من از نظرسنجی جیانگ در مورد فشرده سازی تصویر با استفاده از شبکه های عصبی اطلاع دارم، اما این مقاله کمی قدیمی به نظر می رسد (1999). آیا منابع جدیدتری (مقالات، کتابها) را می شناسید که به این موضوع می پردازند؟ ممنون، لوسیان | فشرده سازی تصویر با تکنیک های ML |
87061 | من سعی می کنم یاد بگیرم که چگونه از فیلدهای تصادفی مارکوف برای تقسیم بندی مناطق در یک تصویر استفاده کنم. من برخی از پارامترهای موجود در MRF را درک نمیکنم یا اینکه چرا حداکثر کردن انتظاری که انجام میدهم گاهی اوقات به یک راهحل همگرا نمیشود. با شروع از قضیه بیز، من p(x|y) = p(y|x) * p(x) / p(y) دارم، که در آن y مقدار مقیاس خاکستری پیکسل و x یک برچسب کلاس است. من انتخاب کردم که از توزیع گاوسی برای p(y|x) استفاده کنم، در حالی که p(x) با استفاده از MRF مدلسازی میشود. من از یک تابع پتانسیل برای MRF استفاده میکنم که هم پتانسیلهای دسته جفتی و هم یک مقدار بالقوه برای برچسب کلاس پیکسل طبقهبندی شده دارد. مقدار پتانسیل تک پیکسل مقداری آلفای ثابت است که به برچسب کلاس x بستگی دارد. توابع پتانسیل زوجی برای همسایه های 4-متصل ارزیابی می شوند و اگر همسایه برچسب کلاسی مشابه این پیکسل داشته باشد و اگر برچسب ها متفاوت باشد بتای مثبت را برمی گرداند. در نقطهای از بیشینهسازی انتظار که باید مقادیر آلفا(x) و بتا را پیدا کنم که مقدار مورد انتظار لگاریتم احتمال را به حداکثر میرساند، از روش بهینهسازی عددی استفاده کردم ( گرادیان مزدوج امتحان شده، BFGS، روش پاول) اما همیشه این کار را انجام میدادم. متوجه شوید که مقدار بتا منفی می شود، آلفاها به طور چشمگیری افزایش می یابد و یک یا دو تکرار بعد، کل تصویر فقط به یک برچسب اختصاص داده می شود. (پس زمینه: تخصیص برچسب های کلاس با توجه به پارامترهای MRF با استفاده از ICM انجام شد). اگر من آلفاها را حذف کنم، یعنی فقط با استفاده از پتانسیل های دسته جفتی، حداکثر کردن انتظار به خوبی کار می کند. لطفا توضیح دهید که منظور از آلفا برای هر کلاس چیست؟ من فکر می کردم که آنها به مقدار آن کلاسی که در تصویر وجود دارد مربوط می شوند، اما به نظر نمی رسد. هنگامی که MRF را فقط با پتانسیل های جفتی کار کردم، آن را با یک مدل مخلوط گاوسی مستقیم مقایسه کردم و متوجه شدم که آنها نتایج تقریباً یکسانی دارند. انتظار داشتم پتانسیل های زوجی کلاس ها را کمی صاف کند، اما این اتفاق نیفتاد. لطفا راهنمایی کنید کجا اشتباه کردم | آموزش یک فیلد تصادفی اولیه مارکوف برای طبقه بندی پیکسل ها در یک تصویر |
45947 | من برخی از تجزیه و تحلیل دادهها و تجسمسازیها را روی مجموعه دادهام انجام دادم و متوجه شدم که احتمالاً خوشههای $k$ وجود دارند. چگونه می توانم از این در تنظیمات رگرسیون پیش بینی استفاده کنم؟ اولین فکر من ایجاد یک مدل رگرسیون در هر خوشه است. بنابراین با توجه به آزمایش $x$، تصمیم بگیرید که به چه خوشه ای تعلق دارد و رگرسیون پیش بینی را در آن خوشه انجام دهید. توجه داشته باشید که رگرسیون **کاملاً** مستقل از داده های سایر خوشه ها است. اما به نظر می رسد ناکارآمدی داده وجود دارد، به خصوص اگر اندازه خوشه خیلی بزرگ نباشد، بدتر است. از سوی دیگر، عملکرد یک مدل رگرسیون جهانی لزوماً تحت تأثیر حضور خوشهها نیست، بنابراین میتوانم خوشهها را نادیده بگیرم. اما این به نظر هدر دادن دانش است. **TLDR: چگونه می توانم از خوشه ها در رگرسیون استفاده کنم؟** | چگونه از خروجی تجزیه و تحلیل داده ها (به عنوان مثال خوشه بندی) در رگرسیون پیش بینی استفاده کنیم؟ |
41190 | من از libSVM برای طبقه بندی باینری استفاده می کنم و داده های آموزشی من بسیار نامتعادل است (-1:90٪، +1:10٪). با توجه به مستندات libSVM، بهتر است برای کلاس های مثبت و منفی، مجازات های متفاوتی در نظر گرفته شود. برای مثال، مشکل SVM این است: $\min\limits_{w,b,\xi} \frac{1}{2}{\bf w^Tw} + C^+\sum\limits_{y_i=1} \ xi_i + C^-\sum\limits_{y_i=-1} \xi_i$ سوال من این است که کدام پنالتی باید بزرگتر باشد و چرا. با تشکر | libSVM برای داده های نامتعادل |
45942 | من در حال حاضر در حال ساخت مدل خود هستم و انتخاب کرده ام که از روش حذف گام به گام به عقب استفاده کنم. من متغیرهای دسته بندی زیادی دارم و از عبارت CLASS در SAS در مدل رگرسیونی خود استفاده می کنم. چگونه تعیین کنم که آیا یک متغیر دسته بندی باید در آن باقی بماند؟ آیا بر اساس TYPE III Analysis of Effects P-value است؟ یا بر اساس P برای ارزش روند است؟ متشکرم | چگونه می توان تعیین کرد که آیا متغیر طبقه بندی در مدل آماری ساختمان باقی می ماند؟ |
14369 | خط انتظار: M/M/3 با $\lambda = 24/u$ و $\mu = 10/u$ در مقابل M/M/1 با $\lambda = 24/u$ و $\mu = 30/u$ من در حال انجام چند تمرین در مورد تئوری خط انتظار هستم، اکنون یک سوال دارم که در طول کلاس پاسخی برای آن یادداشت نکردم. آیا صف انتظار افزایش می یابد؟ سوال این است: یک شرکت میتواند 24 کار در ساعت را با میانگین زمان انتظار 6 دقیقه انجام دهد. اکنون ما یک cpu B جدید داریم که میتواند کار را سه برابر سریعتر از یک cpu نوع A انجام دهد. حالا آنها می خواهند اگر 3 cpu خود را به یک تغییر دهند، آیا قرار است در صف انتظار افزایش پیدا کند؟ فکر میکنم تغییر تأثیر منفی خواهد داشت: من یک اجرا در ORSTAT انجام دادم که میانگین زمان انتظار 1.30 را با $u = 30$ به من داد. با این حال من نمی دانم چگونه با MM3 در اورستات شبیه سازی کنم... فکر می کنم میانگین انتظار کمتر از 1.30 باشد، چون 3 واحد کاری وجود دارد، تأثیر کمتری در تغییر شغل نسبت به زمانی که وجود دارد خواهید داشت. فقط یک سی پی یو کسی میتونه اینو تایید کنه؟ | سوال تئوری صف |
14364 | من درگیر گرفتن علامت بزرگتر از (>=) در یک جنگل هستم. عبارت باید در نوعی ماتریس جاسازی شود. این باید ساده و مستقیم باشد، اما من نمیتوانم فرمول مناسب را پیدا کنم، کد اشکالزدایی من اینجاست: library(rmeta) row_names <- matrix(list(متغیر a، عبارت(test >= 2))) test_data < - data.frame(coef=c(1.59، 1.24)، low=c(1.3، 0.99)، high=c(1.94، 1.55)) forestplot (row_names, test_data$coef, test_data$low, test_data$high, صفر = 1) | چگونه Forestplot را برای پذیرش یک عبارت در برچسب ردیف دریافت کنیم؟ |
66914 | من یک مجموعه داده با **کیفیت**های زیر دارم: * ویژگی ها: 500 * نمونه ها: 1500 * نسبت کلاس: 1:15 * مقادیر گمشده: بله ~ 5% چگونه باید «طبقه بندی» را روی این داده ها انجام دهم که می تواند به من بدهد بهترین نتایج موارد زیر را تاکنون امتحان کردهام: 1. مقادیر گمشده را با میانگین جایگزین کرد (در حال حاضر، انتساب NA با استفاده از روشهای پیچیده انجام میشود) 2. «PCA» (کاهش ابعاد، کاهش تعداد ستونها از 500 به 30). با تقریباً 90 درصد کیفیت داده) 3. «نمونه برداری بیش از حد» از اقلیت ها 4. الگوریتم «Ada boost» برای طبقه بندی آیا در من درست است؟ تحلیل؟ اگرچه در کل و برای هر دو کلاس نیز **100٪ دقت ** را دریافت می کنم. **آیا به هر حال میتوانم بدون انجام «PCA» از این دادهها نمونهبرداری کنم؟ ** من «SMOTE» را امتحان کردهام اما این خطای colnames() را ایجاد میکند که من هیچ سرنخی از آن ندارم. ** آیا بسته ای در R برای هر الگوریتمی مانند «ada boost»، «جنگل تصادفی»، «ipred» وجود دارد که بتواند حساسیت هزینه را برای چنین تحلیلی برطرف کند؟ یا ممکن است یک «پارامترهای تنظیم» برای این الگوریتمها باشد که توسط آن میتوانم پارامتر هزینه را برای کلاس اقلیت تنظیم کنم؟** | طبقه بندی باینری در داده های عدم تعادل با مقادیر گمشده و ابعاد تقریباً برابر؟ |
45946 | من در نمونه گیری کاملاً تازه کار هستم. من نمونه برداری گیبس را برای یک شبکه بیزی انجام می دهم. من از الگوریتم نمونه گیری گیبس آگاه هستم اما یک چیز را نمی توانم درک کنم. به عنوان مثال، فرض کنید شما 3 متغیر $x_1، x_2، x_3$ دارید، یعنی باید نمونه ای از فرم $(x_1,x_2,x_3)$ تولید کنید. و فرض کنید که هر سه پارامتر می توانند 3 مقدار 0،1 یا 2 را بگیرند. حال، بیایید مقدار اولیه نمونه را به صورت (2،1،1) در نظر بگیریم و $\mathbb P(x_1=0 | x_2=1,x_3) را محاسبه کنیم. =1)$، $\mathbb P(x_1=1 |x_2=1،x_3=1)$ و $\mathbb P(x_1=2 |x_2=1,x_3=1)$. اکنون، من بزرگترین احتمال را از بین این 3 مورد انتخاب می کنم و آن مقدار را به x1 اختصاص می دهم و از آن برای نمونه بعدی استفاده می کنم. می خواهم بپرسم آیا این روش برای تولید مدل صحیح است یا من کار اشتباهی انجام می دهم؟ | تولید نمونه از نمونه برداری گیبس |
83998 | ## مشکل کلی داشتن دنباله ای از مقادیر $v_0، v_\Delta، v_{2\Delta}، \ldots، v_{N\Delta}$، که در هر $\Delta$ واحد زمان اندازه گیری می شوند، معمولا ما علاقه مند هستیم در پیش بینی نتیجه آینده این دنباله در زمان $(N+1)\Delta$. اما در برخی از موارد دنیای واقعی، ما می خواهیم بدانیم، نه آینده، بلکه حقیقت را در مورد زمان حال: _اگر ماریا در واحد زمان مشاهدات بیشتری نسبت به ماکسیمیلین انجام دهد، چگونه می تواند نتایج ماریا را از خود تخمین بزند؟_ ## مثال اسباب بازی: فرآیند پواسونی یک شی را در نظر بگیرید. شی ممکن است در لحظه ای تغییر کند. شی هرگز به عقب تغییر نمی کند. تغییرات به دلیل برخی از پارامترهای فرآیند پواسون با λ رخ می دهد. ما نمی توانیم تغییرات جسم را مستقیماً مشاهده کنیم، باید اندازه گیری هایی را انجام دهیم. هر $\Delta$ واحد زمان، ما شی را مشاهده می کنیم. اگر دو اندازه گیری متوالی را با هم مقایسه کنیم، تنها دو احتمال وجود دارد: (بدون تغییر) $\bullet \to \bullet$; (یک تغییر) $\bullet \به \bullet'$. در مورد $\bullet \to \bullet$، مطمئناً می دانیم که شی بین این دو مشاهده تغییر نکرده است. اما در مورد $\bullet \to \bullet'$ فقط می دانیم که شی حداقل یک بار تغییر کرده است، اما تعداد دقیق تغییرات را نمی دانیم.  دنباله ای از مشاهدات را در نظر بگیرید: $\bullet_0، \bullet_\Delta، \bullet_{2 \Delta}، \ldots، \bullet_{N\Delta}$. اندازهگیریهای $N+1$ وجود دارد. بین هر جفت مشاهدات متوالی فاصله زمانی $\Delta$ وجود دارد. بنابراین، ما دنباله ای از بازه های $N$ داریم. تعداد بازههای بدون تغییر را با $W$ نشان دهید ($\bullet \به \bullet$). در یادداشت کوچک خود ما یک برآوردگر مجانبی و بی طرفانه $\hat\lambda$ پیشنهاد می کنیم: $$ \newcommand{\E}{\mathbb{E}} \hat\lambda = - \Delta^{-1} \log \frac{ W}{N} $$ $$ \begin{aligned} \Delta & \text{ -- اندازه فاصله زمانی بین مشاهدات} \\\ W & \text{ -- تعداد بازههای بدون تغییر} \\\ N & \text{ -- تعداد کل بازهها} \end{aligned} $$ همچنین بایاس آن را محاسبه کردیم: $$ \E \left[ \hat\lambda - \lambda \right] \approx \frac{1}{2N\Delta} \left(e^{\lambda\Delta} - 1\right) $$ اکنون دوست ما، Maximilien می تواند از $\hat\lambda$ برای تخمین مقدار واقعی $\lambda$ استفاده کند. با استفاده از این $\lambda$ او در واقع تمام اطلاعات لازم در مورد فرآیند را می داند. بنابراین، ماکسیمیلین میتواند نتایج ماریا را (در برخی موارد) پیشبینی کند. علاوه بر این، صرف نظر از تاخیر بین اندازهگیریها، اما با تعداد مشاهدات کافی، میتوانیم $\lambda$ را بسیار دقیق تخمین بزنیم (به دلیل $\lim_{N \to \infty} \left[ \hat\lambda \right] = \ لامبدا دلار). ## سوالات * آیا می دانید کدام زیر دامنه آمار با مشکلات مشابه سروکار دارد؟ * هنگامی که Pcoess زمینه ای غیر پواسونی است، چه کار می کنیم؟ | اگر ماریا در واحد زمان مشاهدات بیشتری نسبت به ماکسیمیلین انجام دهد، چگونه میتواند نتایج ماریا را از خود تخمین بزند؟ |
87065 | من دادههایی دارم که از طریق رگرسیون چندگانه استاندارد مدلسازی میکنم به جز: 1. سانسور وجود دارد (نقاط سانسور چپ سانسور شده، ثابت اما متغیر که مشخص هستند) 2. خطاها نرمال مستقل اما واریانس غیر ثابت فرض میشوند. وزنه ها موجود است. اگر واریانس ثابت بود، من از مدل Tobit و تابع ()survreg در R استفاده میکردم. با تشکر | رگرسیون خطاهای عادی وزنی با سانسور |
14360 | روش متداول تخمین ماتریس انتقال MC با توجه به سری های زمانی چیست؟ آیا تابع R برای انجام این کار وجود دارد؟ | تخمین احتمالات زنجیره مارکوف |
111750 | من امیدوار بودم که اگر کسی بتواند من را در جهت درست راهنمایی کند، میخواهم یک شبکه عصبی را پیادهسازی کنم که بتواند یک ماشین خودران را هدایت کند، من قبل از استفاده از پرسپترونهای تک لایه، مسائل طبقهبندی اولیه را پیادهسازی کردهام. و همچنین سابقه ای در پردازش تصویر دارم. 1. در مورد پروژه می توانم از پرسپترون تک لایه استفاده کنم، اگر نه چه الگوریتمی می تواند بهتر به من کمک کند؟ 2. لطفاً به طور شهودی توضیح دهید، چه چیزی برای طبقهبندی وجود دارد (ورودی طبقهبندی کننده چیست، وقتی صحبت از تصویری میشود که میتواند به ربات در تصمیمگیری فرمان کمک کند؟ [مثلاً هیچ شیئی وجود ندارد که فقط پیادهروها و نشانگرهای جاده مرکزی در نظر گرفته شوند. 3. اگر ادبیاتی در مورد فرمان خودکار وجود دارد لطفاً به اشتراک بگذارید. | فرمان خودکار با استفاده از شبکه های عصبی |
92364 | من روی ابزارهای طبقه بندی SVM و ANN کار می کنم. به منظور بهبود دقت طبقهبندی، میخواهم بهترین یا پیشپردازش دادههای توصیهشده را بدانم، آیا مقیاسبندی/نرمالسازی است یا استانداردسازی؟ و چرا با تشکر فراوان | مقیاسبندی/نرمالسازی یا استانداردسازی |
83991 | من باید ثابت کنم که متغیر تصادفی پارتو مخلوطی از توزیع گاما و نمایی است اما برای یک قسمت از اثبات به کمک نیاز دارم. $X$ را نمایی با پارامتر $\lambda$ و $\Lambda$ را گاما با پارامترهای $\alpha$ و $\beta$ در نظر بگیرید. بنابراین می توان گفت توزیع مخلوط $X$ $$ \begin{align} f_{X|\alpha, \beta} &= \int_0^\infty \lambda e^{-\lambda x} \cdot \frac است {1}{\Gamma (\alpha) \beta ^ \alpha} \lambda^{\alpha - 1} e^{-\frac \lambda \beta} d\lambda\\\ &=\frac {1} {\Gamma (\alpha) \beta ^ \alpha} \int_0^\infty \lambda ^\alpha e^{-\lambda x - \lambda \frac 1 \ بتا} d\lambda\\\ &=\frac{\Gamma (\alpha +1)}{\Gamma (\alpha) \beta^\alpha} \int_0^\infty \frac{\lambda ^\alpha e^{-\lambda x - \lambda \frac 1 \beta}}{e^{-\lambda}\lambda^\alpha} d\lambda\\\ &= \frac{\alpha}{\beta^\alpha}\int_0^\infty e^{\lambda \frac{\beta - x -1}{\beta}} d\lambda\\\ &=\frac{\alpha}{\beta^\alpha}\begin{bmatrix} \frac{\beta}{\beta - x -1}e^ {\lambda\frac{\beta - x - 1}{\beta}} d\lambda\end{bmatrix}^\infty _0\\\&=?\\\ &=\frac{\alpha}{\beta^\alpha}\begin{bmatrix}\frac{\beta}{\beta x+1}\end{bmatrix}^{\alpha +1} \end{align} $$ | اثبات اینکه پارتو مخلوطی از نمایی و گاما است |
94931 | در مدل خطی SVM، میتوان معادله زیر را برای توصیف چگونگی دستیابی به حاشیه حداکثر در حالی که دادهها را در دو گروه طبقهبندی کرد: \begin{equation} L(w, \epsilon) = w\cdot w + \lambda\ sum\limits_{i=1}^R \epsilon_i \end{equation} در بالا، $w$ بردار وزن است و $\epsilon_i$ فاصلههای خطا برای طبقهبندی اشتباه $x_i$ است. در مجموع طبقه بندی های اشتباه $R$ وجود دارد. کتاب درسی من به من می گوید که اگر $\lambda$ کوچک باشد، ما یک حاشیه بزرگ را به چند خطا ترجیح می دهیم و بالعکس. من اصلا این استدلال را نمی فهمم. من نمیدانم که تغییر $\lambda$ چگونه بر کمینهسازی $L$ تأثیر میگذارد. لطفاً کسی می تواند برای من توضیح دهد که چگونه تغییر $\lambda$، آنچه را که در $L$ به حداقل می رسد تغییر می دهد؟ | درک مبادله با منظم سازی در SVM ها |
87068 | من آزمایشی را برای مقایسه عملکرد دو الگوریتم اجرا کردم. طراحی آزمایش من مقایسه های زوجی است. من نتایج خود را به این صورت گزارش میکنم: > هیچ گونه پرت در دادههای تفاوت میانگین که با بازرسی > boxplot ارزیابی شد، وجود نداشت. فرض نرمال بودن آنطور که توسط > چولگی 0.2276 (SE = 0.4405) و کشیدگی 0.2766- (SE = 0.8583) ارزیابی شد، نقض نشد. عملکرد > در الگوریتم A (M = 0.3876، SD = 0.3138) بالاتر از > الگوریتم B (M = 0.2241، SD = 0.3476) بود، که میانگین آماری معنیدار > 0.1635، 95% فاصله اطمینان (CI) [0.0287، 7]0. t(27) = 2.7007، p = 0.0118، d = > 0.4938، 95% فاصله اطمینان (CI) برای d [-0.0501، 1.0378]. توجه داشته باشید که **فاصله اطمینان 95% برای تفاوت میانگین شامل صفر نمی شود اما فاصله اطمینان 95% برای کوهند شامل صفر است**. می خواستم به این نتیجه برسم که الگوریتم A عملکرد بهتری نسبت به الگوریتم B با اهمیت آماری و اندازه اثر متوسط دارد، اما در مورد چگونگی تفسیر فاصله اطمینان برای d کوهن گیج شدم. در مورد اندازه اثر با این داده ها چه می توانم بگویم؟ در زیر اطلاعات من و نحوه محاسبه مقادیر با استفاده از R آمده است. از توجه شما متشکرم. a = c(0.40000000، 0.44011976، 0.72727273، 0.50000000، 0.00000000، 0.07692308، 0.000000000، 0.00000000، 0.0000000، 0.0000000 1.00000000، 0.50000000، 0.91666667، 0.19354839، 0.74883721، 0.50000000، 0.50000000، 0.5500000000، 0.55000000000، 0.55000000000، 0.5500000000، . 0.00000000) b = c(0.00000000، 0.54491018، 0.72727273، 0.00000000، 0.00000000، 0.000000000، 0.000000000، 0.00000000، 0.0000000 0.00000000، 1.00000000، 0.00000000، 0.00000000، 0.00000000، 0.00000000، 0.33953488، 0.00000000، 0.000000000، 0.000000000، 0.48571429، 0.00000000، 0.83783784، 0.80000000، 0.57142857، 0.00000000، 0.00000000، 0.06393890000، 0.06393862، 0.06393890000 0.00000000، 0.00000000) mean(a) sd(a) mean(b) sd(b) t.test(a, b, paired=TRUE) library(compute.es) mes(mean(a)، mean(b)، sd(a)، sd(b)، طول (a)، طول (b)، dig=4) | تضاد در فواصل اطمینان برای تفاوت میانگین و فاصله اطمینان برای اندازه اثر کوهن |
83995 | در حال حاضر در حال تحقیق در مورد خوشه بندی تک کلمات هستم. ورودی این تحقیق فهرست کلمات (یونیگرم) می باشد. در طول تحقیق می خواهم الگوریتم های مختلف خوشه بندی را با هم مقایسه کنم تا ببینم مزایا و معایب آنها چگونه بر نتایج تأثیر می گذارد. در حال حاضر من دو مرحله را در تحقیق شناسایی کرده ام که ابهام زدایی و خوشه بندی است. در مرحله اول (ابهام زدایی) معنای واقعی کلمات مشخص خواهد شد. من پیشنهاد می کنم که یک زمینه پنهان بین کلمات وجود داشته باشد که می تواند به یافتن معنای واقعی کلمات کمک کند. این با استفاده از الگوریتمها و آثار ابهامزدایی حس کلمه آزمایش شده است. با این الگوریتم (یا الگوریتم دیگر در صورت نیاز) می توانم شباهت یا فاصله کلمات را محاسبه کنم. بنابراین، خروجی مرحله اول می تواند یک ماتریس شباهت باشد. این ماتریس شباهت ورودی مرحله خوشه خواهد بود. الگوریتمهای خوشهبندی سلسله مراتبی هیچ مشکلی ایجاد نمیکنند، الگوریتمهایی مانند خوشهبندی تجمعی را میتوان به راحتی بر اساس ماتریس اعمال کرد، اما من همچنین میخواهم ببینم چگونه الگوریتمهای خوشهای غیر سلسله مراتبی مانند: K-means یا نسخه نرم الگوریتم Expectation-Maximization (EM). اگرچه من نمی توانم پیدا کنم که چگونه یک شباهت یا ماتریس فاصله می تواند به عنوان مجموعه داده در یک الگوریتم k-means استفاده شود. وقتی به این الگوریتمها نگاه میکنم (به عنوان مثال http://phpir.com/clustering) میبینم که حداقل به X و Y نیاز دارید، همچنین برای رسم آنها در یک صفحه دو بعدی، اما من نمیدانم این متغیرها را کجا پیدا کنم. در ماتریس من من سعی کردم ماتریس را با استفاده از مقیاس بندی چند بعدی تبدیل کنم، اگرچه نتایج قطعی نبود. برخی از خوشه ها قابل مشاهده هستند، اما من این احساس را دارم که چیزی را از دست داده ام. سوال من این است: چگونه می توانم ماتریس شباهت یا فاصله را برای الگوریتم هایی مانند k-means، EM یا حتی الگوریتم های دیگر اعمال کنم. | خوشه بندی کلمات با استفاده از الگوریتم های مختلف |
17946 | من قبلاً از روش MCMC برای تخمین مدلهای خطی با استنتاج کاملاً بیزی استفاده کردم و مشکلی از ضرایب تخمینی نداشتم. اخیراً من از همین روش در یک مدل نیمه پارامتریک Cox PH استفاده میکنم و توزیعهای خلفی منحرف زیادی را دریافت میکنم که میانگینهای خلفی پارامترها را تقریباً به 2.5 یا 97.5 نزدیک میکند. من سعی می کنم تعداد تکرار (30000 -> 50000) و مرحله (20 -> 40) را با برینین = 10000 افزایش دهم تا احتمال خلفی متقارن تر شود. گاهی اوقات متقارن می شود، اما گاهی اوقات همچنان در نهایت کج می شود. من همچنین از پیشنهادهای قبلی مشروط و حداقل مربعات وزنی تکراری بر اساس حالت های پسین برای افزایش نرخ پذیرش استفاده می کنم، اما همچنان بی فایده است. این داده ها شامل بیش از 8000 بیمار سرطانی است که داده های بسیار کمی از دست داده اند. متغیرهای مستقل یا باینری یا مقیاس هستند. تا کنون بهترین راه را برای متقارن کردن توزیع پسین پیدا نکرده ام. کاری که من می توانم انجام دهم این است که مکرراً مدل را برازش کنم تا ببینم آیا احتمال پسین تصادفی منحرف نشده است یا خیر. دلیل اینکه من احساس بیماری می کنم این است که تناسب مدل بسیار وقت گیر است. هر مدل 45 دقیقه تا 75 دقیقه را با ترکیب های مختلف متغیرها صرف کرده است، و من 8 مدل در سه علت خاص دارم. هر مدل شکست خورده یعنی 1 ساعت اتلاف عمر من. امیدوارم برخی از افراد بتوانند تجربیات شما را در مواجهه با این مشکل به اشتراک بگذارند. نرم افزار مربوطه BayesX است. من از هر توصیه ای قدردانی می کنم! * * * **ویرایش** Xi'an، از آنجایی که من همیشه توزیع متقارن خلفی پارامترهای تخمین زده شده را در مدل مختلط خطی توسط MCMC دریافت می کنم، فرض می کنم که مدل Cox PH باید همان سناریو را داشته باشد. در اینجا دو نتیجه از یک مدل PH کاکس با دادههای من آمده است: مدل 1: h(t,z)=ho(t)exp{ intercept + sex + white + agedx + history} میانگین متغیر Std. توسعه دهنده مقدار 2.5٪ میانه 97.5٪ کمیت. const -4.2486 0.29328 -4.70006 0.249887 0.068665 جنسیت 0.0123228 0.0514687 -4.52946 0.0175766 0.0982832 0.0982839 0.0982839 0.0982839 0.0982839 0.0982839 0.0982839 0.0982839 0.0123228 0.52946 -0.0. -4.51786 -0.195356 0.0779398 agedx 0.00786072 0.00370628 -4.53803 0.00139 0.0734418 تاریخ 0.627554 0.151424 - 0.151414 0.800568 مدل 2: h(t,z)=ho(t)exp{ intercept + جنسیت + white + agedx + test} میانگین متغیر Std. توسعه دهنده مقدار 2.5٪ میانه 97.5٪ کمیت. const -4.12811 0.305912 -4.74401 -4.08631 0.134946 جنسیت 0.0138823 0.0532634 -0.219711 0.0135219 0.148527 0.148527 0.148527 0.148527 0.148527 0.148527 0.134949 -0. -0.372975 -0.223358 0.111341 oldx 0.00737788 0.0037846 -0.214211 0.00705715 0.101075 تست -0.151933 -0.151933 - 0.00737788 - 0.00705715 0.101187 متغیرهای جنسیت، white و agedx یکسان هستند. فقط آخرین متغیر یکسان نیست. میانگین های بعدی جنسیت، سفید و پیریx مشابه هستند، اما کمیت 2.5٪ و کمیت 97.5٪ بسیار متفاوت هستند. اگر توزیع خلفی نمی تواند متقارن باشد، کدام نتیجه قابل اعتماد است؟ | توزیع نمونه بر اساس استنتاج کاملاً بیزی از MCMC در مدلهای PH کاکس ناهنجار است. |
9810 | من می خواهم مقایسه کنم که آیا سه گروه با یک آزمون ناپارامتریک متفاوت هستند یا خیر. حال... مشکل این است که دو گروه جفت هستند (قبل از درمان و یک سال بعد از درمان) و گروه (مرجع) افراد سالم دیگر هستند. آیا راه حل ساده ای وجود دارد؟ من از R استفاده می کنم، | کدام آزمون ناپارامتریک برای تفاوت بین سه گروه که دو گروه جفت هستند؟ |
47736 | مثال زیر طولانی data.frame را با دو معیار وابسته، امتیاز و مغییر جدید، 1 متغیر بین آزمودنی ها آماده سازی (3 سطح)، 2 متغیر درون آزمودنی ها روز (3 سطح) و آزمایش (2) در نظر بگیرید. سطوح)، و یک شناسه موضوعی SID. مثال <- ساختار(لیست(SID = ساختار(c(1L, 8L, 12L, 13L, 5L, 6L, 1L, 8L, 12L, 13L, 5L, 6L, 1L, 8L, 12L, 13L, 5L, 6L, 1L ، 8 لیتر، 12 لیتر، 13 لیتر، 5 لیتر، 6 لیتر، 1L، 8L، 12L، 13L، 5L، 6L، 1L، 8L، 12L، 13L، 5L، 6L)، .Label = c(S1، S10، S11، S12، S13، «S14»، «S15»، «S2»، «S3»، «S4»، «S5»، «S6»، «S7»، S8، S9)، کلاس = عامل)، آماده سازی = ساختار (c(2L، 2L، 1L، 1L، 3L، 3L، 2L، 2L، 1L، 1L، 3L، 3L، 2L، 2L، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، ۲ لیتر، ۲ لیتر، ۱ لیتر، ۱ لیتر، ۳ لیتر، ۳ لیتر، 2L، 2L، 1L، 1L، 3L، 3L، 2L، 2L، 1L، 1L، 3L، 3L)، .Label = c(فقط کار گروهی، فقط سخنرانی، بدون دستورالعمل)، کلاس = ضریب)، روز = ساختار (c(1L، 1L، 1L، 1L، 1L، 1L، 2L، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر)، .Label = c(Day1، Day2، Day3)، class = factor)، امتیاز = c(14، 14، 16، 18، 11، 12، 13، 15، 17، 15، 12 ، 11، 18، 17، 18، 17، 10، 12، 15، 15، 17، 19، 12، 13، 14، 16، 18، 16، 13، 12، 19، 18، 19، 18، 11، 13)، NewVariable = c(-0.887056411864653، -0.48034302، -0.48034302 -0.490415963314823، 1.3654758915317، -1.90913204292831، 0.0300532242614742، -1.84822348735201، -0.84822348735201، -0.57206، -0.5729 -1.70572162896999، 1.00321046322335، -0.758813794873949، -0.966033445643038، 0.11876111343571، -1.3271، -1.2323 -0.836123526615442، 0.137868615951057، -1.05143917652043، -0.556162009526374، 0.112943588135318، 0.112943588135318، 0.112943588135318، 0.112943588135347، 35369، 0.112943588135347، 0.112943588135347، 0.836123526615442. 0.509584036685177, 2.3654758915317, -0.909132042928306, 1.03005322426147, -0.848223487352064, 0.848223487352068, 0.6491,0. -0.705721628969986، 2.00321046322335، 0.241186205126052، 0.0339665543569619، 1.11876111343571، 1.11876111343571، -0. 0.163876473384558، 1.13786861595106، -0.0514391765204339، 0.443837990473626)، آزمایش = c(1، 1، 1، 1،1،1،1،1،1،1، 1، 1، 1، 1، 1، 1، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2))، .Names = c(SID، Prep، Day، Score، NewVariable، Experiment)، row.names = c(1، 2، 6، 7، 13، 14، 16، 17، 21، 22, 28، 29، «31»، «32»، «36»، «37»، «43»، «44»، «11»، «23»، «61»، «71»، «131»، «141»، «161» ، 171، 211، 221، «281»، «291»، «311»، «321»، «361»، «371»، «431»، «441»)، class = «data.frame») بهترین تلاش من تاکنون شامل ایجاد دو مجموعه داده گسترده متناظر، به عنوان مثال. library(reshape2) dcast(example,SID+Prep~Day+Experiment,value.var=Score) dcast(example,SID+Prep~Day+Experiment,value.var=NewVariable) ... سپس به صورت دستی چسباندن آنها دوباره با هم آیا راه بهتری وجود دارد؟ | چگونه می توان چندین DV را از طولانی به گسترده تبدیل کرد؟ |
87066 | من در R lib(e1071) کار می کنم و می خواهم بدانم با توجه به تخصص شما، کدام نوع طبقه بندی با SVM برای داده های مالی مناسب تر است؟ من می دانم که انواع زیادی وجود دارد: 1. طبقه بندی C (من این را امتحان کرده ام. مطمئن نیستم که بهترین است) 2. طبقه بندی nu 3. یک طبقه بندی (برای تشخیص تازگی) 4. رگرسیون eps 5. nu- رگرسیون برای (1) من متوجه شده ام که برای مدت طولانی تمایل به انتشار یک نتیجه دارد: مثال: دادن بردارهای ورودی مختلف (اما همچنان مشابه): بودن B برای خرید یا S برای فروش. a) Output: B-B-B-B-B-B-B-B-B-B-B-B-B-B-B-S-S-S- S-S-S-S-S-S-S-S-S Instead of b) Output: B-B-S-B-S-S-B-S-B-S-B-B-S-S I believe b) is more realistic than a). من از هسته Radial استفاده می کنم. با تشکر | نوع طبقه بندی SVM در R |
47731 | فرض کنید می خواهم به سوال زیر پاسخ دهم: متغیرهای توضیحی را از مهم ترین به کم اهمیت ترین رتبه بندی کنید. من می خواهم کارهای زیر را انجام دهم: لامبدا را از بزرگ به کوچک انتخاب کنید و در جدولی گزارش دهید: وقتی لامبدا 100، 80، 60، 40، 20، 10 است، متغیرهای توضیحی چنین و چنان هستند و بارگذاری آنها چنین و چنان است. 1. آیا انجام این کار قانونی است؟ هر لامبدا نشان دهنده یک قبلی لاپلاس است، گزارش مقادیر لامبدای متعدد معادل داشتن چندین پیشین خواهد بود. عجیب به نظر می رسد که می توانیم چندین پیشین داشته باشیم. 2-اگر قانونی نیست از چه روشی برای پاسخ به سوال اصلی خود استفاده کنم. | استفاده از LASSO برای رتبه بندی ویژگی ها |
83990 | من با مقدار انحراف بازگردانده شده توسط انحراف (glm.model) کمی گیج شده ام. من مقادیر کاملاً متفاوتی را برای دادههای یکسانی که به GLMهای مختلف نصب شده است، با استفاده از خانواده=گاما (پیوند=هویت) (مدلهای 1/2) و گاوسیان (پیوند=هویت) (مدلهای 3/4) دریافت میکنم. > print(r) انحراف AIC Model1 44.96093 2530.558 Model2 45.13543 2528.683 Model3 3028.56880 2487.124 Model2 3299.93121 2739.563 نوع از آن را محاسبه کردم مشاهده با استفاده از: > deviance(mod1) [1] 44.96093 > deviance(mod1,type=resp) [1] 44.96093 > deviance(mod1,type=dev) [1] 44.96093 که همه به من نشان می دهند 'type=' روش صحیحی برای انتخاب آنها نیست. آیا کسی می تواند به من بگوید که چگونه می توان مقادیر انحراف قابل مقایسه را از glm() برای خانواده های مختلف دریافت کرد؟ ممنون کریس | انحراف در مدل های خطی تعمیم یافته برای خانواده های مختلف |
82111 | فرض کنید من یک مدل رگرسیون لجستیک را بر روی برخی از دادهها با 1 متغیر طبقهبندی برازش میکنم، فرض کنید این متغیر میتواند 5 مقدار مختلف داشته باشد، به عنوان مثال: کشورها، یا شهرها به عنوان مثال: NY، NJ، لندن، ..... حالا، اگر این مدل و تبدیل به نسبت شانس و در نهایت به احتمالات. آیا احتمالات دقیقاً مشابه خواهند بود که من فقط نسبتها را انجام دادم یا تفاوت بین احتمالات لجستیک و نسبتهای واقعی به خوبی تناسب بستگی دارد؟ با تشکر فراوان، | رگرسیون لجستیک با 1 متغیر مقوله ای مستقل، خوبی برازش |
83997 | این یک مسئله تکلیف از تجزیه و تحلیل داده های طبقه بندی شده توسط آلن آگرستی (1.33) برای آزمایش $H_0:\pi_j=\pi_{j0}$, $j=1,\ldots,c$ است، با استفاده از نسبت های چند جمله ای نمونه $\\{\ hat{\pi}_j\\}$، آمار نسبت احتمال $$G^2=-2n\sum_{j=1}^c است \hat{\pi}_j\log{(\pi_{j0}/\hat{\pi}_j)}$$ نشان دهید که $G^2\geq 0$، با برابری اگر و فقط اگر $\hat{\ pi}_j=\pi_{j0}$ برای همه $j$. [نکته: نابرابری جنسن را روی $\text{E}[-2n\log{X}]$ اعمال کنید، جایی که $X$ برابر است با $\pi_{j0}/\hat{\pi}_j$ با احتمال $\hat{ \pi}_j$.] **اولین تلاش من برای این راه حل بر اساس این نکته:** اجازه دهید $X$ یک متغیر تصادفی باشد به طوری که $\text{Pr}(X=\pi_{j0}/\hat{\pi}_j)=\hat{\pi}_j$. از آنجایی که $\phi(x)=-2n\log{x}$ یک تابع محدب است، با نابرابری جنسن \begin{align*} -2n\log{\text{E}[X]} &\leq \ text{E}[-2n\log{X}]\\\ -2n\log{\left(\sum_{j=1}^c \dfrac{\pi_{j0}}{\hat{\pi}_j}\text{Pr}(X=\pi_{j0}/\hat{\pi}_j)\right)} &\leq -2n\ sum_{j=1}^c \log{(\pi_{j0}/\hat{\pi}_j)}\text{Pr}(X=\pi_{j0}/\hat{\pi}_j)\\\ -2n\log{\ چپ(\sum_{j=1}^c \pi_{j0}\right)} &\leq -2n\sum_{j=1}^c \hat{\pi}_j\log{(\pi_{j0}/\hat{\pi}_j)}\\\ -2n\log{1} &\leq G^2\\\ 0 &\leq G ^2 \end{align*} با برابری دقیق زمانی که $X$ یک توزیع منحط است (یعنی ثابت است) که زمانی اتفاق میافتد که $\hat{\pi}_j=\pi_{j0}$ برای همه $j$. **نگرانی ها/سوال:** پس از نوشتن این راه حل، متوجه شدم که شاید $X$ لزوماً یک متغیر تصادفی خوب تعریف نشده باشد. به عنوان مثال، اگر نسبت $\pi_{j0}/\hat{\pi}_j$ برای چندین $j$ یکسان باشد، در این صورت میتوانیم چندین تخصیص احتمال متفاوت داشته باشیم. بچه ها نظرتون چیه؟ به نظر شما راه حل من منطقی است؟ آیا من چیزی را از دست داده ام؟ ویرایش: راه حل من با آنچه Agresti برای راه حل در وب سایت خود (http://www.stat.ufl.edu/~aa/cda/solutions-part.pdf) دارد مطابقت دارد، اما من می خواهم کسی نگرانی های من را کاهش دهد. در مورد اینکه آیا این راه حل معتبر است یا خیر. | نمایش آماره LRT برای آزمون فرضیه چند جمله ای غیر منفی است |
94933 | من می خواهم فاصله اطمینان 95٪ را برای ترکیبی از داده های باینری و داده های پیوسته محاسبه کنم. فرض کنید من می خواهم تولید یک کالای خاص را از تمام کارخانه های یک کشور مشخص تخمین بزنم. من اندازه جمعیت (1000) را می دانم و برای مثال یک نمونه با اندازه 50 انتخاب می کنم. از 50، مثلاً 10 مورد A را تولید می کند. 95% CI آن نسبت 20% +- 8.3% خواهد بود، یعنی 11.7% - 28.3% اگر مقادیر مورد A عبارتند از: 100، 80، 120، 200، 150، 90، 110، 190، 180، 120 میانگین می شود باشد: 134 SEM: 13.7 و 95٪ CI از 103 - 164 می رسد سؤال من اکنون این است: بهترین حدس برای تولید جمعیت مورد A 20٪ * 134 است بنابراین برای همه 1000 کارخانه 134 * 200 (20٪ از 1000) اما CI 95% چطور؟ آیا حداقل هر دو محاسبه یعنی 11.7% * 1000 * 103 و حداکثر هر دو را میگیرم یعنی: 28.3% * 1000 * 164 به نظر میرسد که حداکثر عدم قطعیت را لحاظ کنم و 95% CI را به عریض تبدیل کنم. اما اگر فقط از نسبت میانگین برای هر دو استفاده کنم، یعنی 20% * 1000 * 103 برای دقیقه و 20% * 1000 * 164 برای حداکثر، احساس می کنم منبع دوم واریانس را از دست می دهم. انجام 11.7% * 134 (میانگین تولید A) * 1000 تا 28.3% * 134 * 1000 درست به نظر نمی رسد. هر فکری؟ | نحوه محاسبه فاصله اطمینان برای ترکیبی از نسبت و داده های پیوسته |
45945 | من می خواهم ناهنجاری ها یا بدرفتاری های کاربر را در یک وب سایت شناسایی کنم. برای هر کاربری که مرورگر وب مورد استفاده، IP (و در نتیجه ISP و موقعیت جغرافیایی) کاربر و همچنین فعالیت های کاربران در سایت را کنترل می کنم (حدود 10 نوع فعالیت وجود دارد). من فکر کردم که یک مدل مارکوف پنهان برای این نوع بسازم، اما تمام نمونه هایی که در شبکه می بینم فقط از یک پیش بینی استفاده می کنند، در حالی که در اینجا حداقل سه خانواده داریم: (1) اطلاعات مرورگر وب. (2) اطلاعات به دست آمده از IP کاربر و (3) فعالیت کاربر در سایت. چگونه این پیش بینی ها در یک مدل مارکوف واحد ترکیب می شوند؟ همچنین، آیا داده های مجموعه آموزشی باید از قبل به عنوان عادی/سوءاستفاده کننده برچسب گذاری شوند؟ PS: چرا اصرار دارم از مدل های مارکوف به جای سایر روش های طبقه بندی استفاده کنم؟ حقیقت این است که من یک طبقه بندی کننده شبکه عصبی بسیار موفق دارم که کار می کند. من مدلهای مارکوف (یا HMM) را عمدتاً بهعنوان تمرین، اما همچنین بهعنوان روشی بالقوه برای مقابله با مشکل برچسبگذاری بررسی میکنم: تأیید رفتار غیرعادی سخت است، همه فعالیتهای کاربر که معتقدم «غیر معمول» هستند، واقعاً چنین نیستند. و علاوه بر این، ممکن است فعالیتهای سوءاستفادهکنندهای وجود داشته باشد که ممکن است از آنها بیاطلاع باشد. | تشخیص ناهنجاری در رفتار کاربر با استفاده از مدلهای پنهان مارکوف |
66911 | **خلاصه:** من یک مدل مفهومی با عوامل کمی ساختم که بر 1 DV تأثیر می گذارد. همه عوامل و تأثیرات مبتنی بر نظریه است. با این حال، بسیاری از آنها به طور مبهم تعریف شده اند و به نظر می رسد کمی آنها دشوار است. در تلاشم برای تعیین کمیت عوامل، از متغیرها یا معیارهای مشاهده شده استفاده می کنم. برخی از عوامل تنها با 1 متغیر مشاهده شده اندازه گیری می شوند، در حالی که برخی دیگر با 2 یا 3 متغیر اندازه گیری می شوند. **سوالات** هنگام تلاش برای اثبات/رد فرضیه هایم چگونه باید با عوامل پیش رفت؟ به عنوان مثال فرضیه های من عبارتند از: * عامل 1 (اندازه گیری شده با var.1 و var.2) به طور مثبت بر DV تأثیر می گذارد. * عامل 2 (اندازه گیری شده با var.3) به طور مثبت بر DV تأثیر می گذارد. آیا باید به سراغ تحلیل عاملی تاییدی (SEM) بروم و سپس از نمرات عاملی برای آزمایش فرضیه هایم استفاده کنم؟ اگر بله، آیا درست است که در SEM عوامل ساخته شده توسط تنها 1 متغیر مشاهده شده لحاظ شود؟ با تشکر از حمایت | آزمایش فرضیه عوامل نهفته - CFA یا چیز دیگری؟ |
48811 | برای داده های شمارشی که جمع آوری کرده ام، از رگرسیون پواسون برای ساخت مدل ها استفاده می کنم. من این کار را با استفاده از تابع glm در R انجام می دهم، جایی که از family = poisson استفاده می کنم. برای ارزیابی مدل های ممکن (من چندین پیش بینی دارم) از AIC استفاده می کنم. تا اینجای کار خیلی خوبه. اکنون می خواهم اعتبارسنجی متقاطع را انجام دهم. من قبلاً با استفاده از تابع 'cv.glm' از بسته 'boot' موفق به انجام این کار شده ام. از مستندات cv.glm می بینم که به عنوان مثال. برای داده های دوجمله ای باید از یک تابع هزینه خاص استفاده کنید تا یک خطای پیش بینی معنی دار دریافت کنید. با این حال، من هنوز نمیدانم که کدام تابع هزینه برای «family = poisson» مناسب است، و جستجوی گسترده گوگل هیچ نتیجه خاصی را به همراه نداشت. سوال من این است که هر کسی می تواند روشن کند که کدام تابع هزینه برای cv.glm در مورد poisson glm مناسب است. | تابع هزینه برای اعتبارسنجی مدل های رگرسیون پواسون |
48813 | من یک نمونه 300 شرکتی دارم که بر اساس فعالیت های مختلف اقتصادی طبقه بندی شده اند. به عنوان مثال قطعات کامپیوتر 20 درصد نمونه، خدمات پزشکی 5 درصد، فرآوری چوب 15 درصد و غیره را شامل می شود. در صورت انجام یک تحلیل کلی، نتایج به دلیل تفاوت در نسبتهای بین بخشها، مغرضانه خواهد بود. از این منظر، کدام توصیه برای تحلیل و ارائه نتایج است؟ | تجزیه و تحلیل داده ها برای داده های طبقه بندی شده |
47730 | میخواهم تست کولموگروف-اسمیرنوف را روی دادههایم اجرا کنم تا مشخص کنم که چقدر با یک تابع توزیع پیوسته خاص که در ذهن دارم مطابقت دارد. اگر درک من درست باشد، آزمون کولموگروف-اسمیرنوف را می توان در R با چیزی در امتداد خطوط انجام داد: ks.test (my_data، pweibull, shape=2، scale=1) که در مورد بالا pweibull نشان دهنده آزمایشی در برابر تابع _Weibull_ است. مشکلی که من دارم این است که تابعی که میخواهم با آن آزمایش کنم (تابع BiPareto که در اینجا برای ارزش آن تعریف شده است) بخش استاندارد R نیست. آیا میتوان تابع خود را با پارامترهایی در R تعریف کرد که بتوان آن را به `ks.test()` منتقل کرد؟ یعنی بنابراین می توانم تماسی مانند: ks.test (my_data، bipareto، alpha=a_param، beta=b_param، c=c_param، k=k_param) داشته باشم. | R: تعریف تابع توزیع پیوسته جدید برای استفاده با آزمون کولموگروف-اسمیرنوف |
47738 | من مطمئن نیستم که این را در سایت Mathematics of Physics Stack Exchange بپرسم یا نه. من برای یک برنامه تحقیقاتی فیزیک داده می گیرم و در مورد استفاده از میانگین در مقابل میانگین سوال دارم. من نگران مقداری هستم که برای به دست آوردن هر نقطه داده (مکان) لازم است. برای هر نقطه در حال حاضر چندین اندازه گیری می کنم، آنها را میانگین می زنم و از انحراف استاندارد میانگین به عنوان محاسبه خطای خود برای نقطه استفاده می کنم. مشکل من این است که برای من معقول است که برای هر نقطه داده تعداد نسبتاً کمی اندازه گیری کنم (زیر 10). به نظرم می رسد؛ اگر هر یک از اندازه گیری ها به شدت از مقدار واقعی متفاوت باشد، میانه اندازه گیری ها در نقاط داده کمتری نسبت به میانگین به مقداری نزدیک به مقدار واقعی همگرا می شود. نظر شما در مورد این فرض چیست؟ اگر از میانه اندازه گیری های خود استفاده کنم، روش صحیح محاسبه خطا برای هر نقطه داده چیست؟ | میانگین گیری میانه و تجزیه و تحلیل خطا |
92367 | می خواستم بدانم آیا کسی در مورد تحلیلی که من انجام می دهم توصیه ای دارد یا فقط یک مرجع توصیه شده ارائه می دهد؟ من از یک رویکرد مدلسازی اثرات تصادفی برای محاسبه خوشهبندی بیماران در مطب پزشکان استفاده میکنم. من می خواهم آزمایش کنم که آیا نتیجه درمان (دودویی) با یک متغیر سطح 2 (سطح بالینی) مرتبط است، به عنوان مثال، یک متغیر باینری که نشان دهنده تجربه یا عدم تجربه پزشک است، با برآورد ضریب حاصل که نشان دهنده تفاوت میانگین جمعیت در متغیر نتیجه درمان بین پزشکان باتجربه در مقابل پزشکان بی تجربه زمانی که همه چیزهای دیگر در مدل ثابت هستند. متغیر سطح 2 با عوامل بالینی مشاهده نشده مرتبط است، همانطور که در مورد متغیرهای سطح 2 معمولی که در مدلهای اثرات تصادفی آزمایش میشوند، به عنوان مثال، آزمایش مدارس خصوصی در مقابل مدارس دولتی هنگام مدلسازی نمرات امتحانات دانشآموزان خوشهبندی شده در مدارس، مرتبط است. من خوانده ام که رویکرد اثرات تصادفی بر این فرض تکیه دارد که متغیرهای مشاهده نشده در سطح پزشک با متغیرهای کمکی سطح 1 همبستگی ندارند، به عنوان مثال، اگر هر یک از ویژگی های مشاهده نشده پزشکان هر دو با یک سطح همبستگی داشته باشند، برآوردگر اثرات تصادفی مغرضانه است. 1 متغیر کمکی و متغیر نتیجه درمان، زیرا این باعث ایجاد همبستگی بین متغیر کمکی و متغیر نتیجه درمان. سوال من این است که چگونه این مشکل بر متغیرهای سطح 2 تأثیر می گذارد. بیشتر منابعی که در مورد فرض اثرات تصادفی با آنها برخورد کردهام به این واقعیت اشاره دارند که نباید با متغیرهای سطح 1 موجود در مدل همبستگی وجود داشته باشد، اما آنها در مورد پیامدهای متغیرهای سطح 2 در حال آزمایش بیشتر توضیح نمیدهند. در مدل من با این دو نقل قول برخورد کردم، اما نمیدانستم که آیا کسی میتواند آنها را گسترش دهد؟ * تمایز تصادفی در مقابل ثابت برای متغیرها و اثرات در رگرسیون چند سطحی مهم است. در مدل های رگرسیون چندسطحی، هر دو پیش بینی کننده سطح 1 و سطح 2 ثابت فرض می شوند. با این حال، رهگیری ها و شیب های سطح 1 معمولاً به طور تصادفی در گروه ها متفاوت هستند. با تشکر | متغیرهای پیش بینی کننده اثرات تصادفی و آزمون سطح 2 |
83999 | من در حال خواندن «مدلهای افزودنی عمومی یک مقدمه با R» نوشته سایمون وود بودم و با بخشی مواجه شدم که با آن مشکل دارم. در صفحه 13 بیان شده است که مدل یا ماتریس طراحی > $X$ همیشه می تواند به $$X = Q \left[ > \begin{matrix}{R}\\\\{0}\end{matrix} تجزیه شود. \right] = Q_fR$$ > > که در آن $R$ یک $p \times p$ ماتریس مثلثی بالایی است و $Q$ یک $ n \times > n $ متعامد است. ماتریسی که اولین ستون های p آن $Q_f$ را تشکیل می دهند. به یاد بیاورید که > ماتریس های متعامد بردارها را می چرخانند، اما طول آنها را تغییر نمی دهند. > متعامد بودن نیز به این معنی است که $QQ^t = Q^tQ=I_n$. اعمال $Q^t$ در > $y-X\beta$ به این معنی است که > $$\left\|y-X\beta\|^2=\right\|Q^ty-Q^tX\beta\|^2=\left \|Q^ty-\left[\begin{matrix}R\\\0\end{matrix}\right]\beta\right\|^2 > $$ > > نوشتن $Q^ty=\left[\begin{matrix}f\\\r\end{matrix}\right]$، که $f$ > بردار بعد $p$ است، و از این رو $r$ بردار بعد $n − p$، > بازده > > $$ \|y-X\beta\|^2=\left\|\left[\begin{matrix}f\\\r\end{matrix}\right] - > \left[\begin{matrix}R\\\0 \end{matrix}\right]\beta > \right\|^2=\|f-R\beta\|^2+\|r\|^2 $$ > > طول $r$ به $\beta$، در حالی که $\|f - R\beta\|^2$ را میتوان با انتخاب $\beta$ به صفر رساند تا $R$ برابر با $f$ شود. بنابراین $$ > \hat\beta=R^{-1}f $$ برآوردگر حداقل مربعات $\beta$ است. توجه داشته باشید که > $\|r\|^2=\|y-X\hat\beta\|^2$، مجموع باقیمانده مربعات مدل مناسب است. من به چند دلیل این موضوع را کمی گیج کننده می دانم. اول، به نظر من $Q$ فقط $n\times n$ خواهد بود اگر X $n\times n$ باشد. با این حال به طور کلی $Q$ $n\ بار p$ خواهد بود که در آن تعداد پارامترهای $p$ کمتر از تعداد موضوعات/موارد $n$ باشد. همچنین بیان شده است که اولین ستون های $p$ از $Q$ $Q_f$ را تشکیل می دهند. برای ضرب $Q$ و $R$، $Q$ باید دارای ستونهای $p$ باشد. دوم، اگر یک ماتریس طراحی ساده با ابعاد 2x4 داشته باشیم (یعنی یک پارامتر قطع و شیب و 4 موضوع داریم) y 4x1 و $Q^t$ 2x4 خواهد بود. $Q^ty$ 2x1 خواهد بود. بنابراین برای من روشن نیست که چگونه $Q^ty =\left[\begin{matrix}f\\\r\end{matrix}\right]$ که در آن $f$ بردار بعد $p$ است، و از این رو $ r$ بردار بعد $n - p$ است. در این مورد $f = 2$ و $n-p=2$ که به $Q^ty$ بعد 4x1 می دهد. من اشتباهات کتاب ها را بررسی کرده ام و هیچ اشتباهی برای این بخش لیست نشده است، بنابراین نباید به درستی به این موضوع فکر کنم. اگر کسی می تواند روشن کند که چه تکه ای از این پازل را از دست داده ام، بسیار ممنون می شوم که روشنگری کند. | فاکتورسازی QR و رگرسیون خطی |
76693 | من به دنبال طبقهبندیکنندههایی هستم که احتمالاتی را که نمونهها به یکی از دو کلاس تعلق دارند، خروجی میدهند. من رگرسیون لجستیک و بیز ساده لوح را می شناسم، اما آیا می توانید موارد دیگری را به من بگویید که به روشی مشابه کار می کنند؟ یعنی طبقهبندیکنندههایی که نه کلاسهایی را که مثالها به آنها تعلق دارند، بلکه احتمال تناسب مثالها با یک کلاس خاص را پیشبینی میکنند؟ برای هر نظری که می توانید در مورد مزایا و معایب این طبقه بندی کننده های مختلف (از جمله رگرسیون لجستیک و بیز ساده لوح) به اشتراک بگذارید، امتیاز جایزه. به عنوان مثال، آیا برخی برای طبقه بندی چند کلاسه بهتر هستند؟ متشکرم | یادگیری ماشینی برای پیش بینی احتمالات کلاس |
28916 | من نمی دانم که آیا می توانم از نتایج EOF برای پیش بینی بارگذاری EOF مجموعه دوم داده استفاده کنم؟ من یک مجموعه داده $X$ دارم که از طیف های نور نمونه برداری شده تشکیل شده است (هر ستون نشان دهنده یک نمونه و هر ردیف دامنه طیف در یک طول موج معین است). بنابراین من ابتدا یک ماتریس کوواریانس از دادههایم میسازم: $C=XX^T$، سپس این ماتریس با استفاده از یک تجزیه ویژه تجزیه میشود: $C=E \lambda E^T$ که $E$ بارگذاریهای EOF است. سپس دادههای خود را $X$ روی بارگذاریها پیشبینی میکنم تا مؤلفههای اصلی را دریافت کنم. بارگیری EOF $E_{\mathrm{pred}}$ با استفاده از مؤلفههای اصلی $Z$: $ZY^{-1} = E_{\mathrm{pred}}$ I من با استفاده از EOF به این شکل برخورد نکردهام (مثلاً به عنوان یک مدل پیشبینیکننده)، اما، با توجه به حجم ادبیات پیرامون EOF و PCA، احتمالاً چیزی را از دست دادهام. آیا این رویکرد مشکلی دارد؟ آیا کسی از نمونه هایی با استفاده از چنین EOF به عنوان یک مدل پیش بینی می داند؟ با تشکر فراوان برای هر راهنمایی | آیا تحلیل تابع متعامد تجربی (EOF) می تواند به عنوان یک مدل پیش بینی استفاده شود؟ |
48810 | در باستانشناسی، آثار باستانی معمولاً بر اساس معیارهای خاصی در دستههایی طبقهبندی میشوند (که ممکن است شامل تکنیک ساخت، تزئینات، عملکرد، گاهشماری و غیره باشد). من سعی میکنم احتمال اینکه اشیایی از یک دستهبندی خاص $C$ **غایب** از سایت باشند، حتی پس از جمعآوری گروه $G$ و یافتن هیچ دسته $C$، برآورد میشود. گروه $G$ یک نمونه از گروه تمام اشیایی است که در یک لحظه خاص در سایت مورد استفاده قرار گرفته اند (نمونه های واقعی زباله های یک خانه و ابزارهای خانگی یخ زده در زیر یک ساختمان فروریخته است). باستان شناسان تمام آثار باستانی را از خاک بازیابی خواهند کرد، اما این یک واقعیت ثابت است که همه اشیاء زنده نمی مانند و ما هرگز همه آنها را بازیابی نمی کنیم. اطلاعاتی که من دارم شامل دانش قبلی در مورد فراوانی (نسبی و مطلق) $C$ است: مقدار و نسبت $C$ در همه گروهها **جایی که وجود دارد**، و مقدار کل مصنوعات در همه گروهها ، از جمله مواردی که $C$ در آنها یافت نمی شود (من داده های مرتبط دیگری دارم اما این متغیرها به نظر مرتبط هستند). گروه ها معمولاً خیلی بزرگ نیستند، حدود 300-500. اشیاء از دسته $C$ 1-3٪ از مصنوعات زمانی که پیدا می شوند را تشکیل می دهند. من انتظار دارم که هر چه نمونه بزرگتر باشد، احتمال غیبت بیشتر خواهد بود. یک استاد آمار به من پیشنهاد کرد که روشهایی که بومشناسان استفاده میکنند ممکن است مناسب باشد، به عنوان مثال. کار مک براید و جانستون در اینجا یافت می شود: http://www.nzes.org.nz/nzje/contents.php?volume_issue=j35_2 (مقدار بازه معتبر). آیا اعمال این روش ها برای مشکل فوق با استفاده از R امکان پذیر است و چگونه؟ اگر نه، چه روش های دیگری مناسب است؟ | با توجه به دانش قبلی در مورد فراوانی آن، چگونه می توان احتمال عدم وجود یک دسته خاص از مصنوعات را از یک نمونه محاسبه کرد؟ |
83993 | فقط میپرسم تفاوت **جنگلهای تصادفی** و **MART** (درخت رگرسیون افزایشی چندگانه) چیست؟ من چند مقاله خوانده ام، به عنوان مثال: > [1] L. Breiman. جنگل های تصادفی یادگیری ماشینی 45 (1): 5-32، 2001. > [2] J.H. فریدمن تقریب تابع حریص: افزایش گرادیان > ماشین. گزارش فنی، سخنرانی IMS Reitz، استانفورد، 1999; همچنین نگاه کنید به > Annals of Statistics، 2001. ... و چند مورد دیگر. و اصول اولیه را فهمیدم. > Random Forest و MART می توانند هر دو برای رگرسیون یا > طبقه بندی استفاده شوند. Random Forest بر اساس کیسهبندی، تصادفیسازی و رایگیری است. > در حالی که خروجی MART یک مجموع وزنی از مجموعه درختان رگرسیون تقویت شده است. بنابراین، من یک ایده اساسی دارم که تفاوت چیست. با این حال، خیلی به من کمک خواهد کرد، **اگر کسی باتجربه تر بتواند آن را جمع بندی کند**. _و یک سوال خاص دیگر:_ اگر با استفاده از جنگل تصادفی رگرسیون انجام دهم، چه نوع درختی استفاده می شود؟ آیا این مجموعه ای از درختان رگرسیون است؟ یا اگر به من بستگی دارد، کدام درخت را انتخاب کنم؟ یا این یک نوع درخت خاص است که مخصوص جنگل های تصادفی است؟ | تفاوت بین Random Forest و MART |
66910 | من یک مطالعه تجربی را به عنوان بخشی از پایان نامه کارشناسی ارشد خود انجام داده ام. هر آزمودنی پرسشنامه ای را پر کرد که در آن چند سوال در مورد قابلیت استفاده از ویژگی های مختلف بود. بهترین/صحیح ترین روش برای محاسبه اگر یک ویژگی امتیاز قابلیت استفاده **_significant_** بهتری نسبت به ویژگی دیگر داشته باشد چیست؟ (من از مقیاس لیکرت 10 درجه ای استفاده کردم). من 14 موضوع آزمایشی داشتم و میخواهم امتیاز قابلیت استفاده ویژگیای به نام «حباب» و ویژگیای به نام «بدنه» را با هم مقایسه کنم. این امتیازات است: حباب: 6، 3، 7، 9، 7، 8، 7، 9، 8، 8، 6، 10، 3، 7 هال: 9، 10، 10، 8.6154، 9، 6، 8، 10، 8، 8، 6، 10، 9، 9 _(یک آزمودنی به هال امتیاز نداد، من بنابراین میانگین (8.6154) را در جای خود درج کردهام.) من یک آزمون t زوجی انجام دادهام که نشان میدهد تفاوت معنیداری در نمرات قابلیت استفاده برای حباب (M=7.0, SD=2.04) و بدنه (M) وجود دارد. = 8.62، SD = 1.33)؛ t(13)=2.43، p=0.0305. آیا این روش درستی است؟ دانش آماری من کاملاً محدود است، اما فکر میکنم باید بگویم که آیا تفاوت _معنیداری وجود داشت یا نه. | آزمون t زوجی برای نمرات قابلیت استفاده |
47739 | من دادههایی دارم که در آن یک ارزیاب کیفیت را در مقیاس پیوسته پیشبینی میکند، و سپس کیفیت در سطل اعتبارسنجی میشود. به عنوان مثال، یک ارزیاب ممکن است برای مواردی با نتایج LOW، MEDIUM، HIGH، LOW (به ترتیب) نمرات 0.2، 0.4، 0.7 و 0.6 بدهد. این می تواند به طور کلی یک ارزیابی مناسب باشد، جدای از این واقعیت که مورد چهارم امتیاز بالاتری نسبت به مورد دوم دریافت کرد، اما نتیجه بدتری را تجربه کرد. من به دنبال راهی برای محاسبه یک متریک دقیق برای این نوع مشکل رتبه بندی هستم. اندازه گیری AUC چند نتیجه ای Hand & Till (بسته R) زمینه مفیدی است، اما کافی نیست زیرا ارزیاب ها هر یک از نتایج را پیش بینی نمی کنند. در عوض، من به دنبال استفاده از ماهیت ترتیبی دادهها هستم. | محاسبه دقت طبقهبندیکننده پیوسته با نتیجه ترتیبی |
12401 | من می خواهم یک تحلیل فرکانس زمانی سیگنال EEG را انجام دهم. من تابع موجک GSL را برای محاسبه ضرایب موجک پیدا کردم. چگونه می توانم باندهای فرکانسی واقعی (به عنوان مثال 8 تا 12 هرتز) را از آن ضرایب استخراج کنم؟ کتابچه راهنمای GSL می گوید: > برای تبدیل رو به جلو، عناصر آرایه اصلی جایگزین می شوند > با تبدیل موجک گسسته $f_i \rightarrow w_{j,k}$ در یک چیدمان ذخیره سازی مثلثی > بسته بندی شده، که $j$ همان شاخص سطح $j = 0، > \ldots، J-1$ و $K$ شاخص ضریب هر سطح است، $k = > 0 ... (2^j)-1$. تعداد کل سطوح $J = \log_2(n)$ است. خروجی > داده به شکل زیر است، $(s_{-1,0}، d_{0,0}، d_{1,0}، d_{1,1}، d_{2,0}، > \ldots , d_{j,k}, \ldots, d_{J-1,2^{J-1}-1})$ اگر درست متوجه شده باشم که یک داده آرایه خروجی[] در موقعیت 1 وجود دارد (به عنوان مثال داده[1]) دامنه باند فرکانس 2^0 = 1 هرتز، و داده[2] = 2^1 هرتز داده[3] = 2^1 هرتز داده[4] = 2^2 هرتز تا داده [7] = داده 2^2 هرتز[8] = 2^3 هرتز و غیره ... یعنی من فقط دامنه فرکانس های 1 هرتز، 2 هرتز را دارم، 4 هرتز، 8 هرتز، 16 هرتز، ... چگونه می توانم به عنوان مثال دامنه یک جزء فرکانس نوسان در 5.3 هرتز را دریافت کنم؟ چگونه می توانم دامنه یک محدوده فرکانس کامل را بدست بیاورم، به عنوان مثال. دامنه 8 - 13 هرتز؟ | تجزیه و تحلیل موجک EEG |
7754 | ## پیشینه من دو تخمین از واریانس و خطاهای استاندارد مرتبط با آنها را دارم که از اندازههای نمونه $n=500$ و $n=10,000$ محاسبه شدهاند. نتایج $\hat{\sigma^2} (sd_{\hat{\sigma است ^2}})$: $$\hat{\sigma^2}_{n=500}=69 (6.4)$$ $$\hat{\sigma^2}_{n=10,000}=72 (1.5)$$ ## سوال اگر بگویم که واریانس 3 افزایش یافته است، انحراف معیار در اطراف این تخمین چقدر است؟ ## یادداشت 1. $SD$ از var محاسبه شده با استفاده از $SD_{\hat{\sigma^2}}=\sqrt{s^4(2/(n-1) + k/n)}$ 2. من مشکوک هستم این واقعیت که من sd یک واریانس را تخمین می زنم به محاسبه مربوط نیست، اما ممکن است در تفسیر کاری که انجام می دهم کمک کند. | چگونه اختلاف دو انحراف معیار را محاسبه کنیم؟ |
12404 | من فکر میکردم که «تجمیع دادهها» صرفاً به معنای ترکیب دادههایی است که قبلاً به دستههایی تقسیم شدهاند... اساساً، نادیده گرفتن دستهها و تبدیل مجموعه دادهها به یک «استخر» غولپیکر از دادهها. من حدس می زنم این یک سوال بیشتر در مورد اصطلاحات است تا کاربرد آمار. به عنوان مثال: من می خواهم 2 سایت را با هم مقایسه کنم و در هر سایت دو نوع سال (خوب و ضعیف) دارم. اگر بخواهم 2 سایت را به طور کلی مقایسه کنم (یعنی نادیده گرفتن انواع سال)، آیا درست است که بگویم داده ها را در هر سایت جمع می کنم؟ علاوه بر این، از آنجایی که چندین سال داده شامل انواع سال خوب و ضعیف است، آیا درست است که بگوییم من داده ها را بین سال ها جمع می کنم تا به مجموعه داده های سال خوب و سال ضعیف در هر سایت برسم؟ با تشکر از کمک شما! ماگ | تجمیع داده ها دقیقاً به چه معناست؟ |
7757 | من سعی می کنم نتیجه یک سیستم پیچیده را با استفاده از شبکه های عصبی (ANN) پیش بینی کنم. مقادیر نتیجه (وابسته) بین 0 تا 10000 است. متغیرهای ورودی مختلف دارای محدوده های متفاوتی هستند. همه متغیرها دارای توزیع تقریباً نرمال هستند. من گزینه های مختلفی را برای مقیاس بندی داده ها قبل از آموزش در نظر می گیرم. یکی از گزینه ها این است که متغیرهای ورودی (مستقل) و خروجی (وابسته) را با محاسبه تابع توزیع تجمعی با استفاده از مقادیر میانگین و انحراف استاندارد هر متغیر به طور مستقل به [0، 1] مقیاس کنید. مشکل این روش این است که اگر از تابع فعالسازی سیگموئید در خروجی استفاده کنم، به احتمال زیاد دادههای شدید را از دست خواهم داد، به خصوص آنهایی که در مجموعه آموزشی دیده نمیشوند گزینه دیگر استفاده از z-score است. در آن صورت من مشکل داده های شدید را ندارم. با این حال، من به یک تابع فعال سازی خطی در خروجی محدود شده ام. سایر تکنیکهای عادیسازی پذیرفتهشده که در شبکههای عصبی مصنوعی مورد استفاده قرار میگیرند، چیست؟ من سعی کردم به دنبال بررسی در مورد این موضوع باشم، اما نتوانستم چیز مفیدی پیدا کنم. | نرمال سازی و استانداردسازی داده ها در شبکه های عصبی |
28918 | من می خواهم بدانم که آیا خروجی الگوریتمی که من توسعه داده ام با رتبه بندی ناظران خارجی مطابقت دارد یا خیر. تعداد ناظران 10 نفر است و هر یک از آنها بر اساس 2 مورد 3 امتیازی لیکرت 10 محرک رتبه بندی کردند. الگوریتم برای هر محرک یک اندازه گیری (یک عدد واقعی) ارائه می کند. من به استفاده از همبستگی درون کلاسی بین ناظران و سپس استفاده از این توافق احتمالی فکر می کنم (اما نمی دانم آیا این خوب به نظر می رسد و چگونه می توان این کار را انجام داد) برای اعتبار سنجی خروجی الگوریتم. با تشکر | همبستگی درون طبقاتی برای اعتبارسنجی یک اندازه گیری |
50822 | من نمی دانم که آیا راه آسانی برای محاسبه آماره F / مقدار p برای زیر مجموعه ای از ضرایب مدل وجود دارد. به خصوص در R؟ من مطمئن نیستم که برای محاسبه این به چه آزمایشی نیاز است. به عنوان مثال، summary(lm(a~w+x+y+z)) آماره F و p-value را برای کل مدل به من می دهد، اما آیا می توان آماره F و p-value را برای فقط استخراج کرد. شرایط y و z؟ یک راه سریعتر برای انجام چیزی شبیه به این: matrixOfResponses <- cbind(c(1,2,3,4,5), c(4,3,2,4,5), c(5,3,2,23, 4, c(1,2,4,3,1,)) pValsOut <- numeric() for(i in 1:ncol(matrixOfResponses)) { pValsOut[i] <- anova(lm(matrixOfResponses[,i]~mMat), lm(matrixOfResponses[,i]~mMatReduced))$'Pr(>F)'[2] } بنابراین اساساً چیزی شبیه به موارد بالا بسیار می شود زمانی که matrixOfRespones دارای تعداد زیادی متغیر باشد، به عنوان مثال تعداد زیادی از سطوح بیان ژن، کند است. | آماره F / مقدار p را برای زیر مجموعه ضرایب در R محاسبه کنید |
48817 | من برخی از دادهها را از مخلوطی از دو گاوس نمونهبرداری کردهام که یکی از آنها شناخته شده است، و تابع چگالی به شرح زیر است: $f(x, \mu, \sigma) = \frac{1}{2}\frac{1 }{\sqrt{2\pi}\sigma} exp(-\frac{(x-\mu)^2}{2\sigma^2})+ \frac{1}{2}\frac{1}{\sqrt{2\pi}} exp(-\frac{x^2}{2})$ اکنون، برای مقادیر cetain $\mu$، احتمال وجود دارد برای داده های داده شده $x_1, ... , x_n$ به $\infty$ رشد می کند زیرا $\sigma$ به صفر میل می کند. آیا می توانیم در $\sigma$، $\sigma > \sigma(n)$، s.t کران پایینی داشته باشیم. ما یک تقریب خوب برای $\mu، \sigma$ خواهیم داشت؟ با تشکر | محدودیتهای ML برای مخلوط گاوسیها |
12405 | من در حال جستجوی راه حل این سوال در SO بودم و این باعث شد که در مورد محاسبات احتمالات برای یک مدل مخلوط گاوسی فکر کنم. بیایید فرض کنیم مدل مخلوط گاوسی را به گونهای برازش دادهاید که به ترکیبی از سه حالت عادی منجر شود: \begin{equation} X_1 \sim \mathcal{N}(\mu_1,\sigma_{1}^{2}), \ quad X_2 \sim \mathcal{N}(\mu_2,\sigma_{2}^{2}), \quad X_3 \sim \mathcal{N}(\mu_3،\sigma_3^2) \end{equation} با وزنهای مربوطه $\lambda_1، \lambda_2$، و $\lambda_3$. از اینجا به بعد، $\mathbf{X}=[X_1,X_2,X_3]$ و $\mathbf{\lambda}=[\lambda_1,\lambda_2,\lambda_3]$ را بگیرید. به طور معمول، برای یافتن احتمال کمتر بودن این مدل از مقداری $x$، \begin{equation} \mathbf{P}(\mathbf{\lambda}\mathbf{X}^T\leq x) = \ sum_{i=1}^{3} \lambda_i \mathbf{P}(X_i\leq x) \end{equation} این امکان وجود دارد که من یک خطای کدنویسی ایجاد کرده است، اما به نظر میرسد که احتمال بهدستآمده از فرمول بالا با احتمال بهدستآمده متفاوت است اگر احتمال را به روش دیگری محاسبه کنیم: \begin{equation} \mathbf{P}(\mathbf{\lambda}\ mathbf{X}^T\leq x)=\mathbf{P}(Y\leq x) \end{معادله} که در آن $Y\sim\mathcal{N}(\mathbf{\lambda}\mathbf{\mu}^T,\sum_{i=1}^{3} \lambda_{i}^{2}\sigma_{i} ^{2})$ با $\mathbf{\mu}=[\mu_1،\mu_2،\mu_3]$. اگر خطای کدنویسی است، لطفاً فقط یک نظر بگذارید و من این سؤال را حذف خواهم کرد. | محاسبه احتمالات مدل مخلوط گاوسی |
50825 | من سعی می کنم بفهمم تفاوت بین HMM استاندارد و HMM بیزی چیست. ویکیپدیا فقط به طور خلاصه به ظاهر مدل اشاره میکند، اما من به یک آموزش دقیقتر نیاز دارم. آیا کسی مقاله یا پیاده سازی را می شناسد که بتوانم به آن نگاه کنم؟ همچنین من با اصطلاحات استفاده شده مشکل دارم. اگر دریکله را در توزیع قبل قرار دهید/قرار دهید عملاً به چه معناست؟ | از HMM استاندارد تا HMM بیزی |
82119 | من داده هایی با اندازه گیری های مکرر و یک نتیجه باینری دارم (بله/خیر). من میخواهم از GEE برای مدلسازی دادهها با تابع پیوند لاجیت استفاده کنم. اجازه دهید $\pi=P(yes)$، سپس من میخواهم پنج مدل زیر را در نظر بگیرم: \begin{align} \text{Model 1:}\quad log(\frac{\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3X_3\\\ \text{Model 2:}\quad log(\frac{\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 \log(X_3) \\\ \text{Model 4:}\quad log(\frac {\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 X_4 + \beta_5X_5 \\\ \text{Model 5:}\quad log(\frac{\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 X_4 + \beta_4log(X_5) \\\ \text{Model 5:}\quad log(\frac{\pi}{1-\pi}) & = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 X_4 + \beta_4X_5 + \beta_5 X_4X_5 \\\ \end{align} میخواهم از بین این مدلها با استفاده از QIC انتخاب کنم. علاوه بر این، من می خواهم از QIC برای انتخاب ساختار همبستگی کاری (استقلال، بدون ساختار، مبادله، AR(1)) استفاده کنم. سوال من: ابتدا باید چه کار کنم، بهترین مدل را پیدا کنم یا بهترین ساختار همبستگی را پیدا کنم. آیا این مهم است؟ اگر ابتدا سعی کنم از بین 5 مدل بهترین را پیدا کنم، چه ساختار همبستگی را باید انتخاب کنم؟ از طرف دیگر، اگر ابتدا سعی کنم ساختار همبستگی را انتخاب کنم، بر اساس چه مدلی باید این کار را انجام دهم؟ اولین شهود من این بود که ابتدا ساختار همبستگی را با استفاده از مدل زیر با همه متغیرهای کمکی انتخاب کنم: $$log(\frac{\pi}{1-\pi}) = \beta_0 + \beta_1 X_1 + \beta_2X_2 + \beta_3 X_3 + \beta_4 X_4 + \beta_5X_5$$ با این حال، مطمئن نبودم که باید تبدیلهای log- و تعاملات را نیز لحاظ کنم. از سوی دیگر، از آنجایی که GEE ها حتی اگر ساختار کوواریانس به درستی مشخص نشده باشد و برآوردگر ساندویچ واریانس نیز در برابر تعیین نادرست قوی باشد، تخمین های ثابتی ارائه می دهند، به نظر می رسد ابتدا انتخاب از بین پنج مدل آسان تر باشد، به عنوان مثال. با استفاده از ساختار قابل تعویض من سعی کردم در این مورد به دنبال ادبیاتی بگردم، اما نتوانستم آن را پیدا کنم، بنابراین اگر کسی چیزی می داند، من هم از آن تشکر می کنم. | ابتدا ساختار کوواریانس یا مدل را برای GEE انتخاب کنید؟ |
82115 | من روی مشکلی کار میکردم که در نهایت به یک میدان بالقوه رسیدم که بر حسب انتگرال زیر بیان میشود: $$I(u)=\int_1^u \frac{e^{-x} (2 x-1) }{\sqrt{x~(A~e^{-x}+1)-B \sqrt{x}}}dx \,,$$ که در آن $A,B\in \mathbb{R}$ ثابت هایی هستند مانند که integrand هیچ تکینگی ندارد. متأسفانه انتگرال را نمی توان به صورت تحلیلی حل کرد، بنابراین من می خواستم رفتار پتانسیل را در یک طرح نشان دهم. مشکل من ثابت های $A$ و $B$ هستند که نشان دهنده برخی از پارامترهای سیستمی است که من در حال مطالعه آن هستم. چگونه می توانم تابع $I$ را رسم کنم؟ آیا باید نمودارهای مختلفی برای مقادیر مختلف ثابت ها ایجاد کنم؟ آیا باید یک نمودار برای مقادیر مختلف $A$ و $B$ ثابت و بالعکس ارائه کنم؟ اگر کسی بتواند تجربیات خود را در مورد نحوه ارائه بهترین چنین اطلاعاتی به اشتراک بگذارد، واقعاً سپاسگزار خواهم بود. | ارائه نتایج عددی با پارامترهای متغیر سیستم |
113542 | من مجموعه ای از نمونه های تصویر دارم که می خواهم OCR کنم. من همچنین حقیقت زمینی متن روی این تصاویر را دارم. در حال حاضر آنها را OCR و به عنوان مثال. 10 نمونه از 100 نمونه اشتباه است. بنابراین من به دقت 90٪ رسیدم. به طور طبیعی دقت کاهش می یابد، زمانی که من اندازه مجموعه نمونه را افزایش می دهم. بنابراین اگر آن را به 100 نمونه برسانم، دقت آن تنها 70 درصد است. مجموعه دیگری از تصاویر شاید فقط 2 نمونه تصویر داشته باشد. حتی با تنظیمات OCR بسیار بد و خاص، دقت می تواند 100٪ باشد (تقریباً تصادفی)، در حالی که افزایش حجم نمونه این می تواند دقت را به 2٪ کاهش دهد (اگر این 2 نمونه تنها نمونه صحیح باشند). من میخواهم این مقادیر را با هم مقایسه کنم، به طوری که دقت بالاتر در یک مجموعه نمونه کوچک، به همان اندازه کم و دقت پایین در یک مجموعه نمونه بزرگتر، نتیجه میدهد، زیرا این یک دقت بیفایدهتر است. 1. **بنابراین دقت اندازه گیری شده وقتی روی یک مجموعه نمونه بزرگتر اندازه گیری می شود مقدار بیشتری دارد؟** 2. **آیا وقتی مجموعه نمونه بزرگتر است دقت بیشتری دارم؟** 3. **آیا می توانم من این دقت دقت را با یک مقدار مشترک برابر میکنم؟** سعی کردم پاسخ را در اینجا پیدا کنم: http://en.wikipedia.org/wiki/Accuracy_and_precision اما، من نمی توانم این را اعمال کنم زیرا من طبقه بندی باینری ندارم (بیشتر یکنواخت است). من برای محاسبه دقیق، مثبت کاذب ندارم. امیدوارم کسی بتواند مرا در مسیر درست راهنمایی کند. | چگونه می توان دقت کمتر را در مجموعه های نمونه بزرگتر برابر کرد؟ |
104487 | فرض کنید یک مدل رگرسیون خطی را بر روی برخی داده ها با 10 متغیر برازش می دهید. آماره _F_ نشان می دهد که 3 مورد از آنها معنی دار هستند (_p_ < 0.05)، 2 مورد در داخل روند هستند (0.05 < _p_ <0.10)، و 5 مورد دیگر _p_ > 0.10 هستند. آیا درست است که 5 مورد دیگر را بیرون بیاندازیم (_p_ > 0.10) و مدل دیگری را دوباره آموزش دهیم؟ شاید این بار روند 2 درون قابل توجه باشد. | حذف متغیرهای ناچیز؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.