_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
21549 | می دانم، نمی توانم از کانولوشن استفاده کنم. من دو متغیر تصادفی A و B دارم و آنها وابسته هستند. من به تابع توزیعی A+B نیاز دارم | چگونه دو متغیر تصادفی وابسته اضافه کنیم؟ |
71327 | به شرطی که من مقدار آمار مربع کای فریدمن را داشته باشم، آیا راهی برای به دست آوردن مقدار P مربوطه بدون کپی کردن کل جدول مقادیر بحرانی در برنامه پایتون من وجود دارد؟ | چگونه مقدار P را از مقدار مجذور کای فریدمن بدست آوریم |
25257 | من چندین سوال در مورد برازش مدل های جلوه های ترکیبی پرسیده ام. با تشکر از تعدادی از آماردانان فوقالعاده که در اینجا حضور دارند، خیلی پیشرفت کردهام، و از شما به خاطر صبر و شکیبایی شما سپاسگزارم. من قصد داشتم این سوال را به صورت زنده در چت بپرسم اما وقتی نام کاربری خود را به طور رسمی ثبت کردم شهرت خود را از دست دادم و از 23 به 1 برگشته است، بنابراین برای یک سوال دیگر عذرخواهی می کنم. اکنون میدانم که چگونه یک مدل با جلوههای ترکیبی ساده فرموله کنم، با استفاده از lme4 وارد بسته R شوید و چگونه به AICc و غیره نگاه کنم تا مدلها را مقایسه کنم. با این حال، یک متغیر پاسخ ممکن است به طراحی پیچیده تری نیاز داشته باشد که در صورت امکان از کمک آن سپاسگزارم. میخواهم ببینم که آیا انتخاب زیستگاه جوجهها در یک سایت با دیگری متفاوت است یا خیر. هر مشاهده ممکن است چندین زیستگاه مورد استفاده داشته باشد، بنابراین من نسبتی از استفاده برای هر نوع زیستگاه برای هر مشاهده دارم. من شش بچه دارم، سه تا در هر سایت. شاید یک آزمایش جایگزین بهتر باشد، اما از آنجایی که من فقط شش نوزاد دارم که میخواهم آنها را با هم مقایسه کنم (سه تا در هر ساحل)، بنابراین استفاده از ابزار، نمونه را بسیار کوچک میکند، و من نمیتوانم از chi-sq استفاده کنم زیرا دادههای متناسبی دارد. بنابراین، من مطمئن نیستم که آیا فرمولی در یک مدل موجود است که به من اجازه دهد آن را با یک مدل تهی مقایسه کنم تا ببینم آیا سایت بر متغیر پاسخ 'habitat' تأثیر دارد یا خیر. با این حال، من 7 زیستگاه دارم، بنابراین یک متغیر (نسبت استفاده) برای هر زیستگاه در هر مشاهده داشته باشید. مهمتر از آن، من میخواهم ببینم که چگونه استفاده از هر زیستگاه بر متغیر پاسخ مانند میانگین نرخ علوفه تأثیر میگذارد. مطالعه دیگری این کار را انجام داد، اما مدل آنها حاوی یک متغیر زیستگاه بود که باعث شد فکر کنم آنها در هر مشاهده فقط یک زیستگاه دارند. با این حال، آنها در نهایت با محاسبه میانگین دو مدل برتر، تخمین هر زیستگاه را محاسبه کردند (AIC delta<2)، بنابراین به نظر می رسد که ممکن است به نوعی حاوی فرمولی باشد که استفاده از هر زیستگاه را در داخل نشان می دهد؟) راه آسان فقط اضافه کردن یک برای هر زیستگاه متغیر است، اما احساس می کنید که باید به نحوی «مرتبط» باشند. با این حال من هنوز هم می خواهم برای هر زیستگاه تخمینی دریافت کنم. امیدوارم منظورم بوده باشه از همه شما به خاطر صبر همیشگی شما سپاسگزاریم. راشل | یک سوال در مورد فرمول lmer |
84170 | من یک سری زمانی صوتی دارم که سعی میکنم مهمترین قسمتهای سیگنال، یعنی قسمتهای صوتی را شناسایی کنم و قسمتهای بدون صدا را فراموش کنم. $$ T = [0, 0, 1, 1, .....n] $$ سپس نتیجه طیفی سری زمانی را محاسبه میکنم که یک نمایش فرکانس بعدی سیگنال ورودی را به من میدهد. از این رو، من می خواهم مهم ترین عناصر آن را تعیین کنم، بنابراین تنها بخش های صوتی را برای من باقی می گذارند. من می دانم که این با استفاده از تجزیه و تحلیل مؤلفه های اصلی و تجزیه و تحلیل مؤلفه های مستقل امکان پذیر است، با این حال، سعی می کنم موارد زیر را با استفاده از SVD محاسبه کنم. برای امتحان و درک نظریه و کاربرد، یک ماتریس ساده ساختم: $$ S = \begin{bmatrix} 1&0 \\\ 0&1 \\\ 1&1 \\\ 0&2 \\\ 1&1 \end{bmatrix} $$ در پایتون من موارد زیر را دارم: u, s, v = linalg.svd(S); بنابراین، این سه ماتریس به من می دهد، که، من درک می کنم که زیر: s -> این ماتریس یک ماتریس مورب است که از مقدار منفرد به کمترین مرتب شده است. به منظور ساخت مجدد ماتریس، بزرگترین مقادیر را انتخاب کنید. s و ستون های مربوط به آنها در u و v بنابراین به این معنی که s مربوط به بزرگی است که به ستون های u و v مربوط می شود. اما، من نمی دانم چگونه می توان چنین چیزی را بازسازی کرد (با استفاده از پایتون) و چگونه عمل می کند..؟ سوال من عمدتاً مربوط به گرفتن یک بردار 2 بعدی و تبدیل آن به بردار 2 بعدی دیگر است که فقط حاوی مهمترین مقادیر است. هر گونه کمکی بسیار قدردانی خواهد شد | چگونه یک ماتریس را از SVD دوباره بسازیم |
105216 | من یک سوال در مورد انتخاب مدل هنگام استفاده از AIC/BIC دارم. بنابراین، اگر دو ساختار مدل کاملاً متفاوت باشند، آیا هنوز می توانم مستقیماً AIC و BIC را اعمال کنم؟ همچنین برای یک مدل سلسله مراتبی، چگونه می توان تعداد کل پارامترها را هنگام محاسبه AIC و BIC محاسبه کرد؟ با تشکر | پیش نیازهای مقایسه مدل AIC/BIC |
70981 | من وضعیتی دارم که در آن 4 مورد با شرایط به ازای هر 1000 نفر بررسی شده (باینری) وجود دارد. من علاقه مند به انجام یک رگرسیون لجستیک برای تعیین عوامل خطر (دودویی) هستم. آیا می توان چنین تحلیلی را با SPSS انجام داد؟ | رگرسیون لجستیک رویداد نادر |
70989 | چگونه می توانم مدلی را تخمین بزنم که در آن Y ~ X1 + X2 + X3 X1 ~ Z1 + Z2 X2 ~ Z1 + Z2 X3 ~ Z1 + Z2 که در آن Y ممکن است یا ممکن است با Z1 و Z2 مرتبط نباشد. آیا روش R وجود دارد که بتوانم از آن برای تخمین مدل استفاده کنم؟ خیلی ممنون از کمک شما | تخمین مدل |
105215 | تابع 'ranef' راهی برای استخراج ضرایب اثرات تصادفی از یک مدل 'lme' فراهم می کند. **عملکرد استخراج افکتهای تصادفی برای مدل «plm» چیست؟** کد R را از مقاله JSS (http://www.jstatsoft.org/v27/i02/) که در مورد اقتصادسنجی دادههای پانل با «اقتصادسنجی دادههای پانل» بحث میکند، در زیر بیابید. plm` بسته. همین مدل با استفاده از «lme» و «plm» تخمین زده می شود. با این حال، تابعی برای استخراج اثرات تصادفی برای دومی ذکر نشده است. نیاز(plm) نیازمند(nlme) data(Grunfeld, package=plm) # همان مدل را با plm و lme reGLS برآورد کنید <- plm(inv~value+capital, data=Grunfeld, model=random) reML <- lme(inv~value+capital, random=~1|شرکت, data=Grunfeld) # بررسی کنید آیا ضرایب یکسان هستند خلاصه coef(reGLS)(reML)$coef$fixed # استخراج جلوه های تصادفی برای مدل lme ranef(reML) | استخراج افکت های تصادفی از مدل plm |
70988 | آیا کسی می تواند به سوال پاسخ دهد یا مرا به منابع مناسب راهنمایی کند - به خصوص برای تأثیر خطای نمونه بر روی ضرایب؟ اگر متغیرهای مستقل از یک مجموعه داده می آیند در حالی که متغیر وابسته از یک مجموعه داده متفاوت آمده است، ضرایب چگونه تحت تأثیر قرار می گیرند؟ | چگونه خطای نمونه گیری، خطای اندازه گیری و خطای مشخصات بر ضرایب رگرسیون تأثیر می گذارد |
70985 | اگر هیچ چارچوب نمونه گیری قابل قبولی برای بررسی وجود نداشته باشد، چگونه می توان نمونه ای نماینده با اندازه n بدست آورد. در کتابهای درسی از SRS، طبقهبندی، خوشهای و سیستماتیک استفاده میکنند، اما همه اینها نشان میدهد که یک قاب نمونهبرداری مانند دفترچه تلفن و غیره در دسترس است. مثلاً بگویید، یک وبسایت وجود دارد که ماشینهای قدیمی را میفروشد، اما به شما اجازه نمیدهند فهرست کنید. همه آنها را، اما می توانید بر اساس مدل یا مدل جستجو کنید. در این مورد چگونه نمونه ای با اندازه n به دست می آورید؟ یا اگر میخواهیم نمونهای نماینده به اندازه n برای بررسی تعداد کتابهای کتابخانهای که به امانت گرفته شدهاند اما به کل فهرست دسترسی نداریم، به دست آوریم؟ اما نمونه نماینده به این معنا که می توانیم از آن برای استنباط در مورد جمعیت استفاده کنیم. | گرفتن نمونه معرف در مواقعی که قاب نمونه گیری وجود ندارد؟ |
70984 | اکنون من از متلب استفاده می کنم و یکی از تابع های آن به نام «crossvalin» را پیدا کردم که روش های زیادی را برای اعتبارسنجی متقاطع ارائه می دهد، از جمله برخی که نتوانستم در این سایت پیدا کنم. [TRAIN,TEST] = crossvalin('LeaveMOut',N,M)، که در آن M یک عدد صحیح است، بردارهای شاخص منطقی را برای اعتبارسنجی متقاطع N مشاهدات با انتخاب تصادفی M از مشاهدات برای حفظ مجموعه ارزیابی برمی گرداند. در صورت حذف M روی 1 پیش فرض می شود. استفاده از اعتبارسنجی متقاطع LeaveMOut در یک حلقه، مجموعه های ارزیابی از هم گسسته را تضمین نمی کند. به جای آن از K-fold استفاده کنید. به نظر می رسد که این نوع اعتبارسنجی متقاطع را می توان در یک حلقه استفاده کرد، اما نمی تواند ارزیابی ناپیوسته را تضمین کند. من فکر می کنم که این نوع اعتبار سنجی متقاطع این مزیت را دارد که پارتیشن آن می تواند در هر حلقه به روز شود، به جای اینکه قبل از حلقه ثابت شود مانند اعتبار سنجی متقاطع k-fold. این بدان معنی است که پویایی بیشتری را می توان با این نوع اعتبارسنجی متقابل آزمایش کرد. اما در مورد این اعتبار متقاطع ترک-m-out مطمئن نیستم: آیا کسی می تواند تفاوت بین اعتبار سنجی متقاطع ترک-m-out و اعتبارسنجی k-fold را بیان کند، مزایا یا معایب آنها چیست و چه زمانی باید یکی را به جای انتخاب کنیم. دیگری؟ * * * **To@a.desantos** در اعتبار سنجی متقاطع k-fold، از مجموعه حلقه ها، یک نمونه می تواند تنها برای یک بار در مجموعه آزمایشی باشد، اما در اعتبارسنجی متقاطع ترک M-out یک نمونه می تواند در بیش از یک مجموعه تست ظاهر شود. **ویرایش 1** چند شماره جدید با الهام از @a.desantos. چه m و n را باید در نظر بگیرم؟ با در نظر گرفتن (طبق قرارداد) که اعتبارسنجی متقاطع 10 برابر خوب است، من باید m را به عنوان 4 انتخاب کنم در حالی که n 40 باشد. ترکیب C(40,4) 91,390 است. آیا باید همه 91390 ترکیب مختلف را تولید کنم، سپس 91390 تست را اجرا کنم و عملکرد الگوریتم یادگیری خاص را میانگین کنم؟ **To@Frank Harrell** **ویرایش 2** منظور شما این است که روال آزمون قطار 10 بار اجرا می شود زیرا هر بار که داده ها به ده قسمت مجزا در یک اعتبارسنجی متقاطع 10 برابری تقسیم می شوند، یک میانگین ایجاد می کند. خطای تست E1، و این خطا قابل اعتماد نیست، پس باید این روال تست 10 حلقه ای را حدود 5 تا 10 بار اجرا کنم و میانگین تمام E1 ها را انجام دهم تا آزمایش دیگری انجام دهم. خطایی به نام E2، این E2 مخفف خطای میانگین نهایی است و از E1 قابل اعتمادتر است، درست است؟ | تفاوت بین انواع مختلف روش های اعتبارسنجی متقاطع چیست؟ |
84178 | من 10 میلیون نام فایل دارم و باید تعیین کنم که آیا نام فایل با فیلم یا بازی ویدیویی مطابقت دارد یا خیر. برای این کار ابتدا فکر کردم نام فایلها را با استفاده از فاصله Levenshtein با فهرست imdb مقایسه کنم ftp://ftp.funet.fi/pub/mirrors/ftp.imdb.com/pub/ اما معلوم شد که دلسوزی مستقیم به $O(nm)$ نیاز دارد. که در آن n تعداد نام فایل ها و m تعداد آیتم های پایگاه داده imdb است که هر دو در محدوده میلیون ها قرار دارند. من فکر می کنم باید راهی برای سازماندهی لیست imdb در ساختار درختی مانند پسوند وجود داشته باشد تا سرعت مقایسه با چیزی شبیه $O(n \log m)$ را افزایش دهد. هر گونه توصیه و ایده دیگری نیز بسیار قدردانی می شود. | تطبیق نام فایل ها با فیلم های imdb |
31488 | بابت احمقانه بودن این سوال پوزش می طلبم. من یک آزمایش یادگیری الکترونیکی را با استفاده از کلاسی از دانشجویان کارشناسی انجام دادم. شرکت داوطلبانه بود، بنابراین فقط نیمی از کلاس شرکت کردند. می دانم که نمونه من افرادی هستند که شرکت کردند. آیا جمعیت همه دانشآموزان آن کلاس است، یا این جمعیت همه دانشآموزان دوره مشابه هستند (یا هر چیزی که میخواهم مطالعه را به آن تعمیم دهم)؟ اگر دومی است، پس من به دانشآموزان کلاس چه میگویم؟ گروه؟ | شناسایی جامعه و نمونه ها در یک مطالعه |
105214 | من نگرانی هایی در مورد تحلیل عاملی و به ویژه در مورد ترکیب تحلیل عاملی برای مقیاس ترتیبی (داده های طبقه بندی) - CATPCA با PCA معمولی دارم. اساساً، من باید مجموعه متغیرهای خود را در CATPCA وارد کنم، متغیرهای تبدیل شده را از CATPCA بگیرم و آنها را در PCA معمولی معرفی کنم (چون، برای مثال، برای به دست آوردن یک راه حل معقول باید فاکتور را بچرخانم). نگرانی من این است: 1. آیا پس از معرفی متغیرهای تبدیل شده در PCA معمولی، آیا صرفاً مراحل PCA معمولی را دنبال کنیم و در نظر نگیریم که متغیرهای اولیه در CATPCA تغییر شکل داده اند (استاندارد شده، از آنچه من مشاهده کرده ام)؟ منظورم این است که آیا می توانم مانند یک مورد معمولی، ارزیابی MSA، اشتراکات، بارگذاری عامل و غیره را انجام دهم؟ 2. پس از به دست آوردن فاکتورها، اگر بخواهم قابلیت اطمینان را ارزیابی کنم، آیا اشکالی ندارد که متغیرهای اولیه (نه متغیرهای تبدیل شده در CATPCA که در PCA معمولی نیز استفاده میکنم) را در نظر بگیرم، با این فرض که میخواهم مجموع را ایجاد کنم. مقیاس (برای هر عامل) بر اساس متغیرهای اولیه و در ادامه از مقیاس جمع بندی شده برای سازه های مختلف برای همبستگی و رگرسیون استفاده کنید؟ 3. اگر من در حال انجام یک مطالعه اکتشافی هستم و برخی از عواملی که به دست میآیند تا حدودی با آنچه که در ادبیات یافتهام متفاوت است، محاسبه مقیاسهای جمعبندی شده اشکالی ندارد؟ (من خوانده ام که اگر راه حل به دست آمده از PCA توسط ادبیات پشتیبانی نشود، مقیاس های جمع شده چندان کاربرد ندارند، به عنوان مثال اگر من یک یا دو عامل داشته باشم که برخی از متغیرها را به شکلی متفاوت از آنچه در ادبیات پیدا کرده ام ترکیب می کند. 4. آیا در PCA معمولی اهمیت دارد که کدام یک از معیارها: مشکلات اشتراکی و بارگذاری برای حذف متغیرها در PCA معمولی در نظر گرفته شود؟ (آیا ابتدا باید متغیرهایی را حذف کنم که اشتراک کم دارند یا متغیرهایی که بارگذاری متقاطع دارند؟) 5. اگر نمونه ای با بیش از 350 پاسخ دهنده داشته باشم، آیا قابل قبول است که بارگذاری های بالای 0.50 را عملاً معنی دار در نظر بگیرم یا باید در نظر بگیرم. بارهای بیش از 0.30 به عنوان معنی دار هستند (که به عنوان مثال در مورد متغیری که با 0.60 بر روی یک عامل بارگذاری می شود منجر می شود. به ترتیب 0.30 در فاکتور دیگری که باید بارگذاری متقاطع در نظر گرفته شود)؟ 6. اگر تعداد معینی سازه داشته باشم و بخواهم از روش یکسانی برای هر سازه استفاده کنم، آیا استفاده از CATPCA + PCA معمولی حتی برای سازه هایی که نیازی به چرخاندن راه حل هایی که برای آنها نیازی نیست، اشکالی ندارد. تک بعدی هستند؟ (من میخواهم ترکیبی از CATPCA+PCA را به دلایل متعددی استفاده کنم، از جمله برای چرخاندن راهحل، اما برخی از ساختارهایی که تجزیه و تحلیل میکنم یکبعدی هستند یا حتی اگر چند بعدی هستند، ممکن است راهحل بدون چرخش درست باشد) 7 آیا جایگزینی مقادیر از دست رفته با حالت در CATPCA در حالی که مقادیر از دست رفته با میانگین جایگزین می شوند (برای متغیرهای اولیه، نه) پذیرفته شده است. تبدیل شده) برای مقیاس های جمع شده، همبستگی و رگرسیون؟ (این همچنین نشان می دهد که من از متغیرهای اولیه و نه متغیرهای تبدیل شده برای محاسبه مقیاس های جمع شده، برای همبستگی و برای رگرسیون استفاده می کنم) فقط از متغیرهای با بارگذاری بالا (مثلاً بیش از 0.70) استفاده کنید؟ 9. آیا می توانم یک متغیر پنهان (ساختار) را پس از فرمول محاسبه کنم: مجموع (مقیاس مجموع برای عامل i * واریانس توضیح داده شده با عامل i)، i مقادیر را از 1 تا n در نظر بگیرم (n تعداد عوامل است)؟ متشکرم | تحلیل عاملی - CATPCA همراه با PCA معمولی |
72834 | فاصله اطمینان 95 درصد برای کسری از 5 موفقیت از 12 آزمایش چقدر است؟ آیا می توان فواصل اطمینان را برای نمونه ای با این اندازه محاسبه کرد؟ | فواصل اطمینان کسری برای حجم نمونه کوچک |
41442 | اثرات جایگزینی هورمون رشد (GH) با GH نوترکیب انسانی بر متابولیسم استخوان و مواد معدنی در 36 کودک دارای کمبود GH مورد مطالعه قرار گرفت. چندین پیامد، از جمله سطوح کلسیم یونیزه سرم، در پیش درمانی (ماه صفر) و 1، 3، 6، 9 و 12 ماه پس از شروع درمان ارزیابی شد. از رگرسیون خطی ساده برای تعیین اینکه آیا می توان تغییرات در سطوح کلسیم یونیزه را از روی طول درمان پیش بینی کرد یا خیر، استفاده شد. سطح کلسیم یونیزه هر بیمار در آنالیز مورد استفاده قرار گرفت. **آیا استفاده از رگرسیون خطی ساده مناسب است؟** **a.** بله **b.** خیر **c.** محققین باید به جای آن از رگرسیون لجستیک استفاده می کردند. | از رگرسیون خطی استفاده کنیم یا نه |
40715 | من دو مطالعه کاربری انجام داده ام و در مطالعاتم کنترلی بر اندازه گروه نداشتم. در هر مطالعه کاربران در گروههایی قرار گرفتند و از آنها خواسته شد تا فعالیتهای گروهی را انجام دهند. نحوه چیدمان گروه ها به شرح زیر است: * **مطالعه 1 (گروه های کنترل):** در این مطالعه 20 نفر شرکت کردند. شرکت کنندگان در 2 گروه 4 نفره و 4 گروه 3 نفره بودند. * **مطالعه 2 (گروه های اصلاح شده):** در این مطالعه 25 نفر شرکت کردند. شرکت کنندگان در 5 گروه 4 نفره و 3 گروه 3 نفره بودند. من در طول مطالعه خود دو نوع داده جمع آوری کرده ام: * داده های فردی. به عنوان مثال تعداد ایده هایی که هر فرد مطرح می کند. * داده های مربوط به گروه به عنوان مثال گروه زمانی که برای انجام کاری صرف شده است. من به دنبال روشی هستم که به من کمک کند نتایج را برای هر مطالعه ترکیب کنم و سپس نتایج را با هم مقایسه کنم. میخواستم بدونم کسی میتونه در این مورد به من کمک کنه؟ اطلاعات بیشتر در مورد کار و داده ها: وظیفه ایده های طوفان فکری در مورد یک موضوع خاص است. موضوع بین همه گروه ها یکسان است. کاربران در نرم افزاری که من نوشتم کار می کنند. گروه های آزمایشی نسخه متفاوتی از نرم افزار را مشاهده می کنند. من مدت زمانی که گروه برای تولید 10 ایده صرف کرده است را اندازه گیری می کنم و می خواهم ببینم آیا نسخه نرم افزار تأثیری روی آن داشته است یا خیر. اما مشکل اصلی داشتن گروه های 3 تایی و گروه های 4 تایی کاربر است. | مقایسه نتایج یک مطالعه که دارای اندازه گروه نابرابر است |
83338 | من با R و به طور کلی آمار تازه کار هستم. سوابق من در توسعه نرم افزار است و به خودم وظیفه داده ام که مشکلی را در یک برنامه شخص ثالث حل کنم. این برنامه یک بازی است و من می خواهم وجود مشکل عملکرد را اندازه گیری کنم. من عملکرد را در فریم در ثانیه (FPS) اندازهگیری میکنم، و به دلایلی تحت بار زیاد، سیستم افت دورهای (تردید) در عملکرد را نشان میدهد. من می خواهم فراوانی، شدت این افت عملکرد را اندازه گیری کنم. ایده این است که اندازه گیری شود که آیا تغییرات در پایگاه کد/شرایط تست، عملکرد پایه و تردید را تغییر داده است یا خیر. من تصدیق می کنم که این شبیه به تجزیه و تحلیل سری زمانی داده ها مانند ذخایر، دما، و غیره است. بنابراین من به دنبال پاسخ های مجموعه ای هستم که بتوانم آن ها را مرور کنم و امیدوارم به خودم بیاموزم. من توانسته ام داده ها را در R Studio بارگذاری کنم و نمودارها را ایجاد کنم. من چند پاسخ دیگر را برای ایجاد خطوط هموار دنبال کردم، اما برای مجموعه داده من کاملاً کار نکرد. http://imgur.com/a/wnLQs \- آلبومی از نمودارهای داده. هر گونه کمکی قدردانی خواهد شد. | تجزیه و تحلیل نقطه تغییر در R برای داده های سری زمانی |
769 | چه زمانی تجزیه و تحلیل داده ها دیگر آمار نیست؟ آیا مثالهای زیر همه کاربردهای آمار هستند؟: بینایی رایانه، تشخیص چهره، سنجش فشرده، فشردهسازی دادههای با اتلاف، پردازش سیگنال. | چه نوع تجزیه و تحلیل داده ها به عنوان آمار به حساب نمی آیند؟ |
41441 | من سعی می کنم نتایج نظرسنجی در سطح ایالتی برای انتخابات ریاست جمهوری 2012 ایالات متحده را به احتمالات در سطح ایالتی برای برنده شدن هر نامزد تبدیل کنم. برای دستیابی به آن، من از تابع لجستیک استفاده میکنم، که به راحتی به 0 یا 1 میرود، زیرا نتایج نظرسنجی از 50% منحرف میشود و همچنین احتمال برنده شدن هر نامزد در یک ایالت را برابر با احتمال از دست دادن نامزد دیگر میکند. به عنوان یادآوری، تابع لجستیک این است: $ P(x) = \frac{1}{e^{-x} + 1} $ (توجه: برای مطابقت با دامنههای نتایج نظرسنجی ($p \in [0, 1) ]$) و تابع لجستیک ($x \in [-\infty, \infty]$)، من از تابع مماس استفاده میکنم: $x = tan(10*p/\pi - \pi/2)$، که همچنین به راحتی $p=50\%$ را به $x=0$ می فرستد، من شوخی ندارم، مگر اینکه پیشنهاد بهتری داشته باشید. سوال من این است که چگونه می توان اندازه نمونه را در تابع لجستیک، $P(x)$ گنجاند، به طوری که وضوح آن در اطراف مرکز نشان دهد که چند درصد از کل جمعیت (یا رای دهندگان احتمالی) مورد نظرسنجی قرار گرفته اند. من فکر می کنم که اگر بتوانم فاصله اطمینان را به عنوان تابعی از حجم نمونه بنویسم، می توانم $x$ را بر طول آن بازه تقسیم کنم و بنابراین وضوح تابع لجستیک را تنظیم کنم. | چگونه فاصله اطمینان با حجم نمونه متفاوت است؟ |
84173 | اجازه دهید $D_n$ تقاضا برای یک کالا در فروشگاه در روز $n$ باشد. فرض کنید $D_n$ دنباله ای از متغیرهای تصادفی مستقل و توزیع شده یکسان (i.i.d.) با تابع جرم احتمال است: $p_k = P(D_n = k)$ فرض کنید فروشگاه از سیاست مدیریت موجودی زیر پیروی می کند. اگر موجودی در پایان $n$مین روز (یعنی پس از ارضای خواسته ها در طول روز) بالاتر از $s$ باشد، فروشگاه هیچ کاری انجام نمی دهد. اگر کمتر از $s$ باشد، فروشگاه مقدار کافی را سفارش میدهد تا موجودی را در ابتدای روز بعد به $S$ برساند. فرض کنید تحویل موجودی آنی است. اجازه دهید $X_n$ مقدار موجودی موجودی در فروشگاه در ابتدای $n$مین روز باشد. مدل X_n$ به عنوان DTMC. مطمئن نیستم چگونه با تابع جرم احتمال برخورد کنیم. من حدس میزنم این به معنای برابری است، اما مطمئن نیستم که چگونه به جای $p_k$، آن را به روش دیگری بیان کنم. همچنین نمی دانم چگونه با S. | زمان گسسته مارکوف زنجیره - موجودی |
71588 | آیا توزیع پیوسته ای وجود دارد که سطح بالایی 1 و سطح پایینی 0 داشته باشد؟ دلیلی که من این را میپرسم این است که میخواهم توزیع دادههایم را بدانم که نشان میدهد نسبت بازگرداندن سپرده مشتری که ممکن است فقط بین 0 باشد (یعنی تمام وجوه برداشت شده است) و 1 (یعنی تمام وجوه برگشتی است. ). | توزیع با مرزهای بالا و پایین |
105218 | هنگامی که از GLM استفاده می کنم، می توانم از گزینه family=Gamma برای تجزیه و تحلیل داده های متشکل از اعداد واقعی مثبت استفاده کنم. همچنین بسته «gbm» تعداد زیادی توزیع را برای انتخاب فراهم می کند، اما هیچ کدام با توزیع گاما مطابقت ندارد. کدام توزیع را انتخاب کنم؟ | س: از کدام توزیع با gbm برای داده های توزیع شده گاما استفاده کنیم؟ |
101557 | من در حال خواندن مقاله موجود در این پیوند هستم: https://drive.google.com/file/d/0B2_rKFnvrjMARnU1QjB4anR3RDA/edit?usp=sharing من در درک بخش 5.1 مشکل دارم (صفحه 2741). اساساً موارد زیر را می گوید: $\theta_{ABi} \sim \mathrm{N}(\mu_{AB}, \tau^2)$ $\theta_{ACi} \sim \mathrm{N}(\mu_{AC }, \tau^2)$ $\theta_{BCi} \sim \mathrm{N}(\mu_{BC}, \tau^2)$\mu_{BC} = \mu_{AC}-\mu_{AB}$ به معنای $ \begin{pmatrix}\theta_{ABi} \\\ \theta_{ACi}\end{pmatrix} \sim \mathrm{N} \left(\begin{ pmatrix}\mu_{ABi} \\\ \mu_{ACi}\end{pmatrix}، \begin{pmatrix}\tau^2 و \tau^2/2 \\\ \tau^2 /2 & \tau^2\end{pmatrix} \right)$ نمیفهمم چگونه $\mathrm{Cov} \left[ \theta_{ABi}، \ theta_{ACi} \right] = \tau^2 /2$ ? کسی می تواند این را توضیح دهد؟ | نرمال تک متغیره تبدیل به نرمال چند متغیره: مشتق کوواریانس |
58066 | من علاقه مندم بدانم که آیا می توان (و به چه معناست) یک مدل رگرسیون خطی معنی دار (p value=0.008) با ضرایب برازش معنی دار نیست (p>0.05) بدست آورد؟ | مدل خطی معنیدار (مقدار p) اما بدون پارامترهای معنیدار |
33117 | در واقع، من در تلاش برای یادگیری یک مدل با استفاده از شیب نزولی تصادفی هستم. من فقط از یک زیر مجموعه کوچک از کل داده های خود در یک زمان برای انجام هر تکرار استفاده می کنم. تا آنجا که من می دانم، نزول گرادیان تصادفی می تواند نوسان داشته باشد اما همچنان به سمت حداکثر نقطه حرکت می کند. من مقدار تابع هدف را خروجی میدهم و میتوانستم ببینم که بین 10 تا 43 در نوسان است و از آن بالاتر نمیرود. فرض من این است که حتی اگر نوسان داشته باشد، به آرامی به سمت حداکثر مقدار نزدیک می شود. تضمین نمی شود که به حد مطلوب جهانی برسد و سپس خاتمه یابد. می تواند بیش از حد و سپس کمتر از حد معمول باشد و سپس به نوسان خود ادامه دهد. اما در مورد من روند افزایشی را نشان نمی دهد. در یک زمان مقدار تابع هدف 43 است. دفعه بعد 11 و سپس 35،27 است. از 40 بالاتر نرفته است. پیشنهادی دارید؟ چه اشتباهی ممکن است رخ داده باشد؟ | مسائل مربوط به اجرای نزول گرادیان تصادفی |
38690 | من اطلاعات زیادی در مورد آمار ندارم، پس با من صبر کنید. فرض کنید من یک مجموعه 1000 کارگری دارم. من میخواهم بفهمم سختکوشترین کار کیست، اما فقط میتوانم مقدار کار انجام شده را در گروههای 100 تا 100 نفری در طول یک ساعت کار اندازهگیری کنم. با فرض اینکه هر کارگر همیشه تقریباً همان مقدار کار را انجام می دهد، طی تعداد زیادی آزمایش و ترکیب می توانم کارگرانم را بر اساس اینکه چه کسی سخت تر کار می کند رتبه بندی کنم؟ توجه داشته باشید: این فقط یک استعاره است، بنابراین نگران اجرای آزمایشات نباشید، فقط فرض کنید من مجموعه بزرگی از داده ها را دارم. **ویرایش:** وقتی می گویم با فرض اینکه هر کارگر همیشه تقریباً همان مقدار کار را انجام می دهد منظورم این است که هر فرد تقریباً همان مقدار کار را در روز انجام می دهد. بنابراین جوی حدود 100 واحد کار در روز و گرگ حدود 50 واحد کار انجام خواهد داد. مشکل این است که من فقط می توانم تعداد واحدهای کار انجام شده توسط گروه را مشاهده کنم. **ویرایش های بیشتر:** با توجه به تعداد کارگرانی که در یک زمان کار می کنند و تعداد دفعات کار آنها. ممکن است هر تعداد کارگر همزمان کار کنند. برخی از کارگران احتمالاً بسیار بیشتر از سایرین کار خواهند کرد، یعنی میتوانیم فرض کنیم که برخی از کارگران تقریباً 90 درصد مواقع کار خواهند کرد و برخی دیگر تقریباً هرگز. می دانم که این کار را دشوار می کند، اما من یک مجموعه داده بسیار بزرگ خواهم داشت، بنابراین امیدوارم که کمی آن را آسان تر کند. ** برای هر ساعت می دانیم چه کارگرانی کار می کنند و چه مقدار کار انجام شده است. از این اطلاعات میخواهم بفهمم چه کسی بیشترین کار را انجام میدهد.** اگر دادهها با فرمت JSON بودند، چیزی شبیه این بود... [ { work_done: 12345، Workers: [ andy, باب، کامرون، دیوید ] }، { work_done: 432، Workers: [ استیو، جو، اندی] }، { work_done: 59042، Workers: [ باب، آرون، میشل، اسکات، هنری ] }، ... ] | تعیین بزرگترین مشارکت کننده در یک گروه |
113341 | من سعی می کنم یک پیامد دوتایی (بیماری قلبی عروقی) را با یک پیش بینی کننده طبقه بندی توضیح دهم (سطح ژن، کدگذاری شده به صورت 0، 1 یا 2 بسته به تعداد آلل های خطر موجود). من سعی می کنم تعیین کنم که آیا تأثیر ژن بر بیماری قلبی عروقی به دلیل تأثیر شناخته شده آن بر یک متغیر کمکی پیوسته اضافی (سطح گلوکز خون) است یا اینکه مکانیسم عمل جداگانه ای بر بیماری های قلبی عروقی دارد. من سعی نمی کنم آن روش دیگر عمل را پیدا کنم، فقط برای اینکه ببینم آیا تأثیر ژن بر بیماری قلبی عروقی به دلیل تأثیر شناخته شده آن بر قند خون است یا مستقل از این است. به نظر شما، چگونه می توان در این مورد اقدام کرد؟ من سعی می کنم چند آزمایش جدید پیدا کنم که قبلاً در مورد آنها نشنیده بودم. این چیزی است که من انجام دادهام/به آن فکر کردهام: 1. من یک اصطلاح تعاملی را در مدل گنجاندهام تا آزمایش کنم که آیا بیان ژن توسط متغیر کمکی اصلاح میشود یا خیر. من یک P قابل توجه برای عبارت تعامل دریافت کردم، بنابراین می دانم که اثر ژن بر پاسخ توسط متغیر کمکی اصلاح می شود. 2. من شبه R2 Nagelkerke را برای مدلی با تنها ژن، فقط متغیر کمکی، و هر دوی آنها با هم بررسی کردم. من متوجه شده ام که R2 مدل های ترکیبی کمتر از مجموع مدل های جداگانه است (فقط حدود 0.9٪). از این رو من فکر کردم که از آنجایی که ژن به تنهایی 2% از تغییرات را توضیح می دهد، اما تنها 1.1% از تغییرات را در مدل تنها متغیر کمکی اضافه می کند، این بخشی از واریانس توضیح داده شده ژن در واقع به دلیل تاثیر آن بر روی است. متغیر کمکی یعنی فقط R2Gene = ~0.02; فقط R2Covariate = ~0.2; R2Gene و coariate = ~0.211. بنابراین به تنهایی 2% تغییرات را توضیح داد، اما زمانی که متغیر کمکی در مدل گنجانده شد، تنها 1.1٪ از تغییرات را اضافه کرد. آیا مشروع است که بگوییم بخشی از تغییرات توضیح داده شده توسط ژن در واقع به دلیل تنوع در متغیرهای کمکی است؟ بنابراین سؤال من این است: الف) آیا این مواردی هستند که من کوشر انجام دادهام، و ب) چگونه میتوانم پیدا کنم که آیا تنوع توضیحدادهشده توسط ژن واقعاً با تأثیر ژن بر یک متغیر کمکی توضیح داده میشود یا خیر. ممنون از وقتی که گذاشتید، همه نظرات ارزشمند و مفید هستند. | مقدار تغییرات ناشی از متغیر کمکی دیگر را بیابید |
83337 | من در حال آزمایش یک الگوریتم یادگیری ماشین هستم که تاکنون از ضریب تغییرات برای اندازهگیری نسبی پراکندگی بین ویژگیهای مختلف در یک مجموعه داده معین استفاده میکرد. اکنون که باید آن را به طور کامل روی مجموعه داده بزرگتر آزمایش کنم، بسیار مهم است که کاری در مورد امکان میانگین صفر انجام دهیم، که بلافاصله ضریب تغییرات (cv) و در نتیجه الگوریتم را از بین می برد. لطفاً توجه داشته باشید که توزیعها اساساً گاوسی نیستند و اغلب زمانی که هستند کج میشوند. همچنین، اندازه گیری پراکندگی باید بدون بعد باشد. من کمی در وب جستجو کردم تا راههایی برای «نرمالسازی» cv یا حتی جایگزینی برای cv پیدا کنم. من محدوده بین چارکی (iqr) را امتحان کردم، اما زمانی که از cv به iqr مهاجرت کردم، عملکرد افت قابل توجهی داشت. آیا معیار پراکندگی دیگری وجود دارد که مقادیر مشابهی را با مقدار cv برمی گرداند؟ اگر نه، آیا هیچ راه اصولی برای نرمال سازی ضریب واریانس وجود دارد؟ | اندازه گیری پراکندگی برای مجموعه داده با میانگین صفر |
41446 | من یک دوره کارشناسی در مورد سری های زمانی را با استفاده از OxMetrics دنبال می کنم و می خواهم برخی از نتایج را در R تخمین مدل ARMA(3,3) بازتولید کنم: arima(temp,c(3,0,3)) با استفاده از بسته آمار و همچنین نتایج بسته TSA در خطای زیر: خطا در arima(temp, c(3, 0, 3)) : بخش AR غیر ثابت از CSS سعی شد از آن استفاده شود روش ML: arima(temp,c(3,0,3),method=ML) هیچ خطایی ندارد بنابراین تخمینها را دریافت میکنم، اما تخمینهایی که در OxMetrics یافت نمیشوند. سپس من سعی کردم بسته FitARMA را نصب کنم و استفاده کردم: FitARMA(temp,c(3,0,3), TRUE, FALSE) که به همان تخمین هایی برای ضرایب منجر می شود که در OxMetrics با استفاده از MaxLikelyhood دقیق به جز برای ثابت ترم تخمین زده می شود. سپس من سعی کردم آرگومان چهارم FitARMA را از FALSE به TRUE تغییر دهم: FitARMA(temp,c(3,0,3),TRUE,TRUE) تخمین میانگین بر اساس max.likelyhood و سپس بدست آوردن همان تخمین برای ثابت ترم اما اکنون تخمین ها برای ضرایب تقریباً به همان چیزی است که هنگام استفاده از arima در R. من قبلاً با چهار کتاب در مورد R مشورت کردهام و واقعاً نمیتوانم بفهمم چرا این اتفاق میافتد. هر دو OxMetrics و R از BFGS برای یک استفاده می کنند. من که در سریال های زمانی کاملاً جدید هستم، کاملاً گم شده ام... | رگرسیون سری زمانی |
71583 | من سعی می کنم این مفهوم را توسعه دهم تا توضیحی بصری از نحوه عملکرد الگوریتم پیش بینی خود ارائه دهم. الگوریتم پیشبینی از دادههای تاریخی و برخی از دادههای روز جاری برای پیشبینی کار باقیمانده برای روز استفاده میکند، زیرا یک الگوریتم برنامهریزی نیروی کار است. این شامل هیچ مجموعه داده بزرگی نیست و فقط چند پارامتر ورودی مانند تعداد اسناد ورودی، تعداد کارگران و غیره را شامل می شود. پیش بینی فقط برای یک روز است. من مطمئن نیستم که در چنین سناریویی از چه تکنیک تجسمی استفاده کنم. من سعی کردم از نمودار خطی با ماوس استفاده کنم اما کاربران قادر به درک شکل نمودار نیستند. آنها می خواهند بفهمند که چگونه قوانین الگوریتم پیش بینی بر شکل نمودار تأثیر می گذارد. سوال من این است: از چه تکنیک تجسمی می توانم استفاده کنم تا آن را شهودی تر کنم تا بتوانم توضیح دهم که چگونه قوانین مختلف بر شکل نمودار تأثیر می گذارد و همچنین آنها را با تکنیک تعامل می کند؟ | توضیح تصویری الگوریتم پیش بینی |
77980 | من سعی دارم نتایج یک پرسشنامه را با SPSS تجزیه و تحلیل کنم. من تعدادی سوال با مقیاس لیکرت دارم و میخواهم ببینم آیا ارتباطی بین سن و جنسیت نسبت به پاسخهای داده شده وجود دارد که آیا آنها کاملاً موافق هستند/موافقند/…. من مربع Chi را امتحان کردم (نمی دانم چگونه نتیجه را تجزیه و تحلیل کنم) اما به من گفتند که مربع chi با داده های اسمی کار نمی کند. آیا این درست است؟ بهترین روش چه خواهد بود؟ | چگونه می توان آن را تجزیه و تحلیل کرد که آیا بین پاسخ های مقیاس لیکرت و جنسیت/سن ارتباط وجود دارد؟ |
41443 | هر کسی پیشنهادهای کتابخانه یا کدی در مورد چگونگی **نمودار چند درخت نمونه** از: getTree (rfobj, k, labelVar=TRUE) دریافت کرد (بله می دانم که قرار نیست این کار را به صورت عملیاتی انجام دهید، RF یک جعبه سیاه است و غیره. بهینه سازی/ترکیب/گسسته سازی/تبدیل، بررسی کنید که فاکتورهای رمزگذاری شده من چقدر خوب کار می کنند، و غیره) (سوال قبلی بدون پاسخ مناسب: چگونه جنگل های تصادفی را قابل تفسیرتر کنیم؟ همچنین به دست آوردن دانش از یک جنگل تصادفی من واقعاً می خواهم برای **نمونه درختی** پس در مورد آن با من بحث نکنید Importance Plot) یا partialPlot یا MDSPlot یا این نمودارهای دیگر، من قبلاً آنها را دارم، اما آنها جایگزینی برای دیدن یک درخت نمونه نیستند. `) (من حدس میزنم که مشارکت «plot.rf.tree()» به خوبی دریافت شود.) | چگونه یک درخت نمونه از randomForest::getTree() رسم کنیم؟ |
41448 | من می خواهم آزمایش کنم که آیا دو ضریب رگرسیون از دو رگرسیون جداگانه تفاوت معنی داری با یکدیگر دارند یا خیر. به طور خاص میخواهم از مدل $$ \begin{aligned} x1_{(t)} &= \mu1 + a*x1_{(t-1)} + b*x2_{(t-1)} + e1 آزمایش کنم. \\\ x2_{(t)} &= \mu2 + c*x1_{(t-1)} + d*x2_{(t-1)} + e2 \end{تراز شده} $$ اگر $H0: b=c$ در مقابل $H1: b>c$. آیا می توانم این کار را با یک آزمون t ساده انجام دهم یا به آمار تست دیگری نیاز دارم؟ * * * فقط می خواستم به روزرسانی مختصری ارائه دهم. در مقاله مرجع من، آنها ادعا می کنند که می توانند H0:b=c را در برابر H1:b>c در مدل ذکر شده در بالا با یک آزمون Z ساده آزمایش کنند. آیا این بدان معناست که آمار آزمون من به سادگی (b-c)/se(b) است؟ | مقایسه ضرایب رگرسیون |
3542 | من روش های نظری مختلفی از گرافیک را دیده ام، مانند گرامر گرافیک. اما من چیزی معادل در مورد جداول ندیدم. در طول این مدت یک مدل غیررسمی از تمرین خوب در طراحی میز ایجاد کرده ام. با این حال، من می خواهم بتوانم یک مرجع خوب برای دانش آموزان ارائه دهم. راهنمای سبک APA چند نکته در مورد طراحی میز دارد، اما این تنها یک نقطه شروع است. سوال: منبع خوبی که در مورد ارائه نتایج عددی در جداول توصیه های نظری و عملی ارائه می دهد چیست؟ **به روز رسانی:** داشتن یک منبع آنلاین رایگان به ویژه مفید خواهد بود. توجه: من مطمئن نیستم که آیا این باید ویکی جامعه باشد. احساس می کنم ممکن است پاسخ درستی وجود داشته باشد. | یک منبع خوب در طراحی میز چیست؟ |
76678 | همانطور که در این مقاله نشان داده شده است، سعی می کنم پارامترهای یک توزیع هندسی بتا را به مدل ریزش کاربر تخمین بزنم. تابع log-likelihood در آنجا توضیح داده شده و از طریق اکسل حل شده است، و من سعی می کنم تخمین پارامتر را در R انجام دهم. تابع زیر است. $$ LL(\alpha,\beta \space|\space data)=\Sigma \space n_t \ln[\frac{B(\alpha+1,\beta+t-1)}{B(\alpha,\ بتا)}]+(n-\Sigma \space n_t)\ln[\frac{B(\alpha,\beta+t)}{B(\alpha,\beta)}] $$ جایی که $n_t$ تعداد افرادی است که در یک دوره گم شده اند و $n$ تعداد افراد در گروه اصلی است. من $n_t$ را در بردار lost دارم و $ n -\Sigma n_t$ را در active[tmax] از قبل محاسبه می کنم، تلاش من برای انجام این کار در R به شرح زیر است: sbg.lik<-function(params,t,n ,active,lost,tmax) { a<-params[1] b<-params[2] logl<-sum(lost*log(beta(a+1,b+t-1)/بتا(a,b)))+active[tmax]*log(beta(a,b+t)/بتا(a ,ب)) return(-logl) } optim(c(1,1),sbg.lik,t=1:7,n=1000,active=active,lost=lost,tmax=7) متاسفانه این کار نمی کند، با خطای `خطا در optim(c(1, 1), sbg.lik, t = 1:7, n = 1000, active = فعال, گم شده = گم شده, : تابع هدف در Optim به طول 7 ارزیابی نمی شود 1` آیا ایده ای دارید که به حداکثر احتمال ورود به سیستم نزدیک می شوم؟ | چگونه log-likelihood را برای بتا هندسی با optim() در R بنویسیم؟ |
83336 | من در آستانه شروع یک مطالعه طولانی برای یک پروژه کاری هستم. هسته اصلی آن نیاز به یک ابزار آماری برای کمک به تعیین کمیت «حساسیت» است. من توسعهدهنده نرمافزار پیشرو در این کار هستم، اما سابقه بسیار قوی در آمار دارم (حداقل در مقایسه با بسیاری از توسعهدهندگان نرمافزار دیگر). با این حال، پیشینه آماری من هرگز این ایده حساسیت را لمس نکرد، به خصوص نه خارج از رویکرد OLS. من امروز مقاله ویکیپدیا در مورد تجزیه و تحلیل حساسیت را میخوانم و معتقدم بخش تحلیل رگرسیون به مشکلی که من دارم نزدیک میشود. بگذارید توضیح بدهم: رویکردی که مدیریت میخواهد اتخاذ کند، کم و بیش دقیقاً رویکرد «سطل زباله» از مقاله آخن است: «بیایید رگرسیونهای سطل زباله و پروبیتهای سطل زباله را در جایی که تعلق دارند قرار دهیم». هدف این است که یک نرمافزار جلویی خوب بسازیم که به محققان ما یک رابط ساده برای انتخاب عناصر داده از دستهای از جداول پایگاه داده، اعمال تاخیرهای سری زمانی و/یا پیشدرمانهای ساده و پاکسازی دادهها، و سپس پاکسازی آنها را میدهد. در یک رگرسیون، با تمام ضرایب و آمار خلاصه به طور مشابه در یک جدول بزرگ ضرایب o در پایان ریخته شده است. من در ساختن این ابزار کوشا بوده ام و به آسانی استفاده از آن بسیار افتخار می کنم. اسکریپت های پارامتر ما نیاز به نوشتن بسیار کمی فراتر از یک رشته ساده مانند DepVar ~ alpha + beta_1*Var1 + beta_2*Var2 + ... و برخی از تعاریف ساده درباره معنای DepVar یا Var1 و غیره دارند. در رشته اما همچنین نمی توانم احساس بدی نداشته باشم که تولید این نوع چیزها _فوق العاده_ گمراه کننده است. این سیستم به طور کامل بر روی حداقل مربعات معمولی ساخته شده است، بدون توانایی تغییر مفروضات مربوط به ناهمگونی، توزیع خطا، و غیره. همه چیز OLS است، همیشه، و این یک انتخاب آگاهانه توسط مدیریت بود. خروجی سیستم مجموعه بسیار بزرگی از ضرایب سری زمانی بر اساس فردی به فرد خواهد بود. بنابراین، در بخشهای پاییندستی خط لوله تحلیل ما، برنامههای دیگر میتوانند یک سری زمانی بزرگ از حساسیتهای گذشته Individual X را به برخی از متغیرها بارگذاری کنند. اینها برای مدلسازی ریسک و درمانهای پرت از جمله موارد دیگر استفاده میشوند. من نمی توانم احساس کنم که این روش بسیار بدی برای تعیین کمیت حساسیت ها است. هر زمان نقض مفروضات OLS وجود داشته باشد، و به خصوص زمانی که این روابط غیر خطی هستند، ضرایب می توانند بسیار گمراه کننده باشند، حتی اگر دارای آمار خلاصه فرکانسیست خوش ظاهر باشند. من بارها این موضوع را با تیمم مطرح کردهام، اما مدیران مسئول به نظر میرسند که آمارهای سادهای برای دستکاری داشته باشند. همچنین به نظر میرسد که آنها بیش از حد نگران «تفسیرپذیری» هستند - به این معنا که معتقدند این ضرایب از OLS میتوانند مستقیماً بهعنوان بارهای عادی یک متغیر بر روی متغیر دیگر خوانده شوند. موافقم که گاهی اوقات می تواند درست باشد، اما فقط در صورتی که واقعاً مطمئن باشید که مدل خطی بد تعریف نشده است. و با نگاهی به دادهها، من معتقدم که مدل خطی اغلب بهطور بدی مشخص میشود. من آن را کمیت کرده ام و بارها این واقعیت مستند را همراه با مقاله آخن به مدیرانم نشان داده ام، اما آنها تکان نخواهند خورد. اخیراً من فکر می کنم: چگونه روش های دیگر با این مشکل مقابله می کنند؟ در زمینه یادگیری ماشین، مانند برازش یک مدل SVM یا درخت تصمیم، پزشکان چگونه حساسیت بین متغیرهای مختلف را کمیت میکنند؟ این در شرایطی که ممکن است غیرخطیها وجود داشته باشد چگونه کار میکند؟ | به غیر از ضرایب رگرسیون، چه رویکردهایی برای اندازه گیری حساسیت یک متغیر به متغیر دیگر مورد استفاده قرار می گیرد؟ |
47840 | در این مقاله با عنوان انتخاب در بین مدل های خطی تعمیم یافته اعمال شده در داده های پزشکی، نویسندگان می نویسند: > در یک مدل خطی تعمیم یافته، میانگین به جای تبدیل خود پاسخ، توسط تابع پیوند تبدیل می شود. دو روش تبدیل می توانند به نتایج کاملاً متفاوتی منجر شوند. به عنوان مثال، **میانگین > پاسخهای تغییر شکل یافته با لگاریتم میانگین > پاسخ** یکسان نیست. به طور کلی، اولی را نمی توان به راحتی به یک پاسخ میانگین تبدیل کرد. بنابراین، تبدیل میانگین اغلب به نتایج این امکان را می دهد که به راحتی تفسیر شوند، به ویژه در این که پارامترهای میانگین در همان مقیاس > پاسخ های اندازه گیری شده باقی می مانند. به نظر میرسد که آنها برازش یک مدل خطی تعمیمیافته (GLM) با پیوند ورود به سیستم را به جای یک مدل خطی (LM) با پاسخ log-transformed توصیه میکنند. من مزایای این روش را درک نمی کنم و برای من کاملاً غیرعادی به نظر می رسد. به نظر می رسد متغیر پاسخ من به طور معمول توزیع شده است. من نتایج مشابهی از نظر ضرایب و خطاهای استاندارد آنها با هر دو روش دریافت می کنم. هنوز نمیدانم: اگر متغیری دارای توزیع log-normal است، آیا **میانگین متغیر log-تغییر شده** بر **log متغیر میانگین تبدیل نشده** ترجیح داده نمیشود، زیرا میانگین خلاصه طبیعی است. از یک توزیع نرمال، و متغیر log-transformed به طور معمول توزیع شده است، در حالی که خود متغیر اینطور نیست؟ | مدل خطی با پاسخ log-transformed در مقابل مدل خطی تعمیم یافته با پیوند log |
65405 | من از آزمون M-W U برای تجزیه و تحلیل برخی از نتایج مقیاس لیکرت که دارم استفاده می کنم، زیرا داده های من ترتیبی است. یکی از مفروضاتی که همچنان در مراجع ظاهر می شود این است: هر دو توزیع باید یک شکل باشند (یعنی توزیع امتیازات برای هر دو دسته از متغیر مستقل باید شکل یکسانی داشته باشد). بنابراین نمی توانم از M-W U استفاده کنم، به جای آن از چه چیزی می توانم استفاده کنم: من نمی توانم تصاویر را اضافه کنم، اما سعی می کنم توضیح دهم که بر اساس IV خود، دو گروه دارم (بله و خیر)، نمودار باکسی با محور y از 1 - 5. برای بله، من یک جعبه گسترش یافته از 4 تا 5، بدون واریانس برای نه، جعبه از 3.5 تا 4.5، با واریانس از 2.0 تا 3.5، و از 4.5 تا 5.0، فرض میکنم این به این معنی است که شکلهای من این کار را متفاوت میکند یعنی من نمی توانم از MWU استفاده کنم، آیا می توانم در مورد آنچه می توانم به جای آن استفاده کنم (SPSS): داده های نمونه: بله: 5 5 5 5 5 4 4 4 5 5 4 4 ؟ خیر: 4 5 5 5 3 2 4 3 4 4 4 4 من از MWU برای تشخیص هر گونه تفاوت مهم استفاده می کردم (ظاهرا، بله) - اما اکنون مطمئن نیستم که آیا این راه درستی برای انجام آن است یا خیر. | هنگامی که یک فرض من ویتنی U نقض می شود چه باید کرد؟ |
76672 | من یک پزشک بالینی هستم که در تلاش برای ایجاد مدلی هستم که خطر مطلق ابتلای افراد به حوادث قلبی عروقی را در پایان دوره پیگیری پیش بینی کند. من با مدلهای زمانی شکستخوردهای مواجه شدم که باید من را قادر به رسیدن به هدف فوق کنند. اما من نمی دانم چگونه خروجی مدل را در R تفسیر کنم. کسی می تواند کمک کند؟ چگونه خروجی تولید کنم که خطر مطلق پیش بینی شده افراد را به من بگوید؟ surfit <- survreg(Surv(زمان، دلتا) ~ as.factor(stage) + age, dist='Weibull') summary(surfit) Value Std.Error z p (Intercept) 3.5288 0.9041 3.903 9.50e-05 as.factor( مرحله)2 -0.1477 0.4076 -0.362 7.17e-01 as.factor(stage)3 -0.5866 0.3199 -1.833 6.68e-02 as.factor(stage)4 -1.5441 0.3633 -4.251 2.13e-05 سن -0.0175 -0.0175 -0.0175 -0.0175 -1016-1010. گزارش (مقیاس) -0.1223 0.1225 -0.999 3.18e-01 | مدلسازی پارامتریک با مدلهای زمان شکست شتابدار |
71585 | به نظر می رسد برخی از معیارها بسته به نوع جملاتی که معنادار هستند، از نوع دیگری با سایرین متفاوت باشند. انواع مقیاس های مختلف سعی می کنند این تفاوت را به تصویر بکشند. انواع مقیاس فاصله ای شناخته شده عبارتند از: 1. اسمی 2. ترتیبی 3. فاصله 4. نسبت نکته مهم این است که هر نوع مقیاس بر روی مقیاس قبلی ساخته می شود و ویژگی های اضافی را اضافه می کند. من با یک نوع مقیاس پنجم مواجه شدم که بعد از نوع مقیاس نسبت می آید. مشکل این است که من آن را فقط در کتاب _Software Metrics: A Rigorous & Practical Approach_ پیدا کردم. در این اسلایدها نیز توضیح داده شده است. > اندازه گیری مقیاس مطلق فقط در حال شمارش است > > * ویژگی همیشه باید به شکل 'تعداد رخدادهای x > در موجودیت' > * تعداد شکست های مشاهده شده در طول آزمون ادغام > * تعداد دانش آموزان در این کلاس > * فقط یک نگاشت اندازه گیری ممکن (شمار واقعی) > * تمام محاسبات معنی دار است > تعریف قبلی این بود که مقیاس مطلق به سادگی در محدوده ثابتی از مقادیر است، اما هر چه بیشتر به دنبال آن باشید من با این تعریف ساده تر مواجه شدم: این به شمارش محدود می شود. نظری در این مورد دارید؟ من اینجا کمی احساس ناامنی می کنم. | آیا چیزی شبیه به مقیاس مطلق وجود دارد؟ |
71587 | من در حال ساختن یک مدل مختلط هستم که در آن همان 4 گروه به طور مکرر به مدت 5 هفته روی اندازه گیری M آزمایش می شوند. (M ~ زمان + گروه + (1|گروه)، داده = mydata) که در آن گروه همزمان یک اثر ثابت و تصادفی است؟ تحمیل دو اثر یک گروه از نظر مفهومی متناقض به نظر می رسد. اما اگر بخواهم اثر گروه را آزمایش کنم چه می شود؟ | آیا یک متغیر می تواند همزمان یک اثر ثابت و متغیر اثر تصادفی باشد؟ |
77987 | سوال تکلیف یکی از دوستان این است که آیا حضور در کلاس روی معدل تاثیر دارد؟ او 3 سوال نظرسنجی دارد: * چند دوره در هفته دارید؟ * هفته ای چند کلاس را از دست دادید؟ * معدل شما چقدر است؟ اکنون به او گفته می شود که داده های خود را تجزیه و تحلیل کند: سؤال تکلیف او به او گفته بود که با ترکیب دو سؤال تجزیه و تحلیل کند، اما در مورد او، من به او گفتم که باید از هر سه سؤال استفاده کند. داشتم فکر می کردم (درصد از دست دادن کلاس، (کلاس از دست رفته/کلاس با معدل) در مقایسه با معدل. او فکر می کند فقط می تواند کلاس های از دست رفته را در مقایسه با معدل انجام دهد. به او گفتم این کار نمی کند زیرا کسی می تواند در 3 شرکت کند. 3 از کلاس های آنها، در حالی که شخص دیگری می تواند در 3/5 از کلاس های آنها شرکت کند، و نمی تواند به خوبی نشان داده شود نمودار؟ | روش صحیح جمع بندی حضور و غیاب کلاس و معدل چیست؟ |
108569 | من در حال آمادهسازی دادهها با پایتون با استفاده از پاندا هستم و با مجموعه دادهای کار میکنم که حدود 80 متغیر با مقادیر از دست رفته دارد و میخواهم هر الگوی گمشدهای را ثبت کنم تا مقدار شاخصهای ارزش گمشده را کاهش دهم، اما دارم در یافتن هر گونه استراتژی خوب برای انجام این کار مشکل دارید. در اینجا نمونهای از چیزی است که من در آن به دست میآورم: MISS_1 MISS_2 MISS_3 MISS_4 MVP1 MVP2 MVP3 MISS_STR 0 0 1 0 0 0 1 0010 1 0 1 0 1 0 0 1010 1 1 1 1 110 1 0 1110 1 0 1 0 1 0 0 1010 0 0 1 0 0 0 1 0010 0 0 1 0 0 0 1 0010 0 0 0 1 0 0 0 1 0010 1 0 1 0 0 0 0 0 0 0 1 0010 0 0 0 1 0 0 0 1 0010 1 0 1 0 0 0 0 1 0 1 0 ایجاد کردم یک متغیر رشته ای که همه متغیرهای نشانگر مقدار گمشده مانند 'MISS_STR' را به هم پیوست، متأسفانه تعداد مقادیر منحصر به فرد در این متغیر حدود 2000 بود. همچنین، میدانم که الگوهایی را گم کردهام که ممکن است مفید باشند، زیرا اگر الگوی بین Variable_1 و Variable_2 و Variable_3 وجود داشته باشد و Variable_4 به طور تصادفی از دست رفته است، سپس الحاق آنها به عنوان رشته الگوی بین Variable_1 را نشان نخواهد داد. و متغیر_2. آیا راه بهتری برای این کار وجود دارد؟ شاید یک الگوریتم خوشه بندی خوب؟ هر کاری که انجام می دهم، باید بتوانم همان کار را با داده های امتیازدهی خود انجام دهم. | الگوهای ارزش گم شده |
76671 | من یک مدل جلوه ترکیبی را برای یک مجموعه از دادهها قرار میدهم و اکنون میخواهم عملکرد آن را هنگام اعمال بر مجموعه داده دیگری بررسی کنم. من میخواهم شکلی از «مقدار پیشبینیشده» و «مقدار مشاهدهشده» را رسم کنم و R^2$ را برای ارزیابی عملکرد مدل محاسبه کنم. آیا کد یا دستوری برای این کار در نرم افزار R وجود دارد؟ | اعتبار سنجی مدل اثر ترکیبی |
75005 | من باید یک ANOVA دو طرفه روی داده های خود انجام دهم. داده های من از یک جمعیت غیر عادی است. ظاهراً آزمایش دو یا سه عاملی برای جمعیت های غیر طبیعی وجود ندارد. متوجه شدم که باید دادههایم را تغییر دهم، اما مطمئن نیستم که کدام تبدیل را روی دادههایم انجام دهم، نمیدانم کدام تبدیل مناسبتر است. من نمی دانم معیار انتخاب یکی از لیست احتمالات چیست؟ | داده های غیر عادی برای ANOVA دو طرفه، کدام تبدیل را انتخاب کنیم؟ |
71584 | من به دنبال چند نکته برای اثبات برابری زیر هستم: $$ y^{\top}y - y^{\top}X(X^{\top}X)^{-1}X^{\top}y = \dfrac{\det(L^{\top}L)}{\det(X^{\top}X)}، $$ که $y$ یک بردار $n\times 1$ است، $X$ است یک $n\ برابر m$ ماتریس و $L=(X,y)$ (الحاق با $y$ به عنوان آخرین ستون $X$). **به روز رسانی:** از همه شما متشکرم، من این سوال را در math stackexchange پست کردم، جایی که توجه بیشتری به آن جلب شد (حداقل توجهی که لازم داشتم). با خیال راحت این سوال را ببندید. | برابری در رگرسیون خطی |
14585 | من در حال حاضر روی پایان نامه خود کار می کنم، به طور خاص در حال تجزیه و تحلیل برخی از داده های جمع آوری شده از محققان در مورد پروژه هایی هستم که روی آنها کار می کنند. در پایان، من یک رگرسیون خطی چندگانه انجام دادهام تا بررسی کنم که کدام عوامل تعیینکننده (بودجه، اندازه تیم،...) به طور قابلتوجهی بر تأثیر خارجی یک پروژه تحقیقاتی تأثیر میگذارند. در حالی که متغیر وابسته (تاثیر پروژه) از یک نظرسنجی (که در بین محققان موسسه انجام شده) ارزیابی شده است، متغیرهای مستقل بر اساس معیارهای عینی هستند. **در چنین سناریویی، درصد r-square قابل قبول چقدر خواهد بود؟** آیا درصد پایین را می توان با ذهنی بودن متغیر وابسته توجیه کرد؟ من شنیده ام که حوزه علمی مهم است... یعنی در فیزیک شما ترجیح می دهید که r-square > 95% داشته باشید در حالی که در جامعه شناسی > 5% ممکن است قبلاً جالب باشد... آیا مرجعی در این مورد دارید؟ | مقدار r-square قابل قبول برای مدل رگرسیون خطی چندگانه |
47848 | هر دو متغیر من برای همبستگی (Spearmans به n کوچک از 17 داده است) به زمان (ثانیه برای x، و دقیقه و ثانیه برای y) مربوط می شود. آیا باید قبل از ورود به تجزیه و تحلیل، واحدها را استاندارد کنم؟ اگر هر دو راه را امتحان کنم، پاسخ های متفاوتی دریافت می کنم، کدام درست است؟ | اسپیرمن ها و واحدهای متغیر |
18008 | من یک سوال سریع دارم: چگونه در SAS یک جدول 10$ \ برابر 2$ $\chi^2$ بسازید؟ | چگونه می توانید یک جدول 10 دلاری \ برابر 2 $ $\chi^2 $ در SAS بسازید؟ |
18006 | من باید تضادهای متعامد را با مدل زیر مطابقت دهم. دادههای مثال زیر را ببینید: rep <- c(rep( 1, 15), rep(2, 15)) parent1 <- c(1, 2, 3, 4, 5, 1, 1, 1, 1, 2, 2، 2، 3، 3، 4، 1، 2، 3، 4، 5، 1، 1، 1، 1، 2، 2، 2، 3، 3، 4) والد2 <- c(1، 2، 3، 4، 5، 2، 3، 4، 5، 3، 4، 5، 4، 5، 5،1، 2، 3، 4 , 5, 2, 3, 4, 5, 3, 4, 5, 4, 5, 5) yld <- c(10, 12، 13، 14، 15، 12، 13، 14، 15، 13، 14، 15، 14، 15، 15،11، 13، 12، 13، 15، 14، 12، 13، 15، 12، 1 15، 13، 15، 16) mydf <- data.frame(rep، parent1، parent2، yld) mydf$parent1 <- as.factor(mydf$parent1) mydf$parent2 <- as.factor(mydf$parent2) Parent1 و Parent2 فاکتورهایی هستند. mode11 <- lm(yld ~ rep + parent1:parent2، data = mydf) anova(mode11) من باید تضادها را برازش کنم، فرض میکنم ترتیب درمانها برای ضرایب تعامل این است: Parent1 1، 2، 3، 4 , 5, 1, 1, 1, 1, 2, 2, 2, 3, 3, 4 Parent2 1, 2, 3, 4, 5, 2, 3, 4, 5, 3, 4, 5, 4, 5, 5 # تضاد برای مایکنتراست تعامل Parent1:Parent2 <- c(-4, -4, -4 ، -4، 4، 2، 2، 2، 2، 2، 2، 2، 2، 2،2) می خواهم در بالا درخواست کنم تضادهای متعامد (مایکنتراست). من به SAS به این تحلیل کوتاه عادت دارم اما نه در R. دو سوال دارم: (الف) چگونه می توانم به درستی کنتراست را در مدل بالا اعمال کنم؟ (ب) در هنگام نوشتن ضرایب نگران ترتیب درمان ها هستم. سفارشات فرضی من را ببینید: آیا آنها صحیح هستند؟ من فرض میکنم این باید یا بر اساس حروف الفبا باشد یا در فایل مرتب شده باشد. ویرایشها: پیشرفت خودم برای پاسخ به این سوال > mode11$ضریب # برای دیدن همه ضرایب > mode11$coefficients[1:5] # فقط پنج اول برای صرفهجویی در فضا در اینجا (Intercept) rep parent11:parent21 parent1**2** :parent2**1** parent1**3**:parent2**1** 1.500000e+01 1.087998e-15 -4.500000e+00 NA NA باید کنتراست متعامد به روشی که مقایسهها در اینجا مرتب شدهاند - 1-2، 2-1، 3-1 و غیره مرتب شوند. از آنجایی که طراحی نامتعادل است، میتوانید مشاهده کنید که برخی از ترکیبها گم شدهاند، بنابراین باید مقداری مانند 0 برای آنها ارائه کنیم. کنتراست (parent1:parent2) <- cbind(c(-4، -4، -4، -4، 4، 2، 2، 2، 2، 2، 2، 2، 2، 2،2،-4، - 4، -4، -4، 4، 2، 2، 2، 2، 2، 2، 2، 2، 2،2)) خطا در `contrasts<-`(`*tmp*`, value = c(-4, -4, -4, -4, 4, 2, 2, 2, : تضادها فقط برای عوامل اعمال می شود علاوه بر این: پیام های هشدار: 1: در `*tmp*`:parent2 : عبارت عددی دارای 30 عنصر است: فقط اولین مورد استفاده شده 2: در `*tmp*`:parent2 : عبارت عددی دارای 30 عنصر است: فقط برای اولین بار استفاده شد | تضاد با ANOVA در R |
38696 | من 2 عامل A و B (5×3) و یک متغیر کمکی X در طرح موضوعی دارم. مدل کلی خود را به این صورت مشخص میکنم: lme.out = lme(y~ A*B*X، تصادفی=~1|موضوع، داده=mydata) تفسیر من این است که من به نمودار «y~x» نگاه میکنم، جایی که شیب به دلیل متغیر کمکی تغییر میکند و خط بر اساس سطوح مختلف «A» و «B» به بالا یا پایین جابهجا میشود (تغییر در فاصلهها). چیزی که میخواهم بدانم این است: اگر بخواهم فاکتور A را ثابت کنم (هر یک از سطوح را بگیرم)، سپس به خطوط (y~x) نگاه کنم، تأثیر «B» چیست؟ آیا سطوح «B» خط را به بالا یا پایین تغییر میدهد (قطع میکند) یا شیب خط را تغییر میدهد («X»). آیا باید نوعی تحلیل تضادها را اجرا کنم؟ اما من مطمئن نیستم که چگونه تضادها بین عوامل و متغیرهای کمکی کار می کنند. یکی از راه هایی که می توانم به آن فکر کنم این است که زیر مجموعه های داده مربوط به سطوح مختلف A را بگیرم و مدل هایی مانند: `lme(y~ B+X, random=~1|Subject, data=mydata[which(mydata$A = A1،]» به این ترتیب من می توانم رهگیری ها و شیب های به دست آمده را در این مدل ها با هم مقایسه کنم بسیار قدردانی می شود! | چگونه می توان تعاملات بین عامل و متغیرهای کمکی را در یک مدل اثرات مختلط بررسی کرد؟ |
83331 | **سوال:** در یک شمارش که یک سال پیش در یک ذخیره گاه انجام شد، 15 ببر شمارش شد. 7 ماده و 8 نر که با اعداد 1 تا 15 مشخص شده بودند. بر اساس گزارش های اخیر، بیم آن می رفت که تعداد ببرهای ذخیره گاه به کمتر از 15 قلاده رسیده باشد. برای بررسی این موضوع، تصمیم گرفته شد که به بیرون رفته و تعداد 4 ببر در ذخیره گاه ثبت شود که به صورت تصادفی ظاهر می شوند. اگر حداکثر تعداد این 4 رکورد k یا کمتر باشد، نتیجه این است که تعداد ببرها واقعاً کاهش یافته است. 1. اگر شمارش با بازگشت انجام شد. اگر مقدار p مورد نیاز 0.1 باشد، مقدار K چقدر است؟ 2. اگر شمارش بدون بازگشت انجام شد، مقدار p آزمون را در زمانی که k=9 محاسبه کنید. ب در یک نمونه تصادفی از 4 ببر، بدون بازگشت، 1 نر و 3 ماده یافت شد. اکنون باید بررسی کنیم که آیا اولین شمارش (یک سال پیش) اشتباه داشته است یا خیر، و در واقع 15 ببر در ذخیرهگاه وجود دارد، اما در میان آنها 8 ماده و تنها 7 نر وجود دارد. 1\. تست حداکثر توان را بر اساس X - تعداد ماده ها در یک نمونه ببر 4 پیدا کنید. 2\. مقدار p آن آزمون را پیدا کنید و برای a=0.1 3\ نتیجه گیری کنید. احتمال خطای نوع II و قدرت آزمون را پیدا کنید. ** افکار من ** قسمت a را انجام دادم و در مورد آن مطمئن نبودم. در مورد قسمت ب- واقعاً نمی دانستم چگونه آن را انجام دهم- آیا انجام نسبت توابع احتمال راه خوبی برای شروع است؟ من نمی دانم پارامتر آن چیست ... در A.1. گفتم که $X_i\sim U(1,15)، S(X)=max(X_i)$. $P(S(x)\le k)=0.1$ بنابراین $0.1=\frac {k-1+1}{15-1+1}=\frac k{15}$ بنابراین $k=1.5$ -> $ k=1 $(k باید یک عدد کامل باشد) A.2. $P(S(x)\le9)=P(X_1\le9)P(X_2\le8)P(X_3\le7)P(X_4\le6)=\frac 6{65}$ | تست حداکثر توان |
47844 | یک شرکت 4000 کارمند دارد. Employee1 3 ساعت در دوشنبه، 1 ساعت در سه شنبه، 0 ساعت در چهارشنبه و پنجشنبه، 5 ساعت در جمعه و 6 ساعت در شنبه کار می کند. به نظر می رسد او شنبه ساعت های بیشتری کار می کرد. اما یک کارمند تصادفی 0 ساعت در روز دوشنبه تا پنجشنبه و 5 ساعت در جمعه و 6 ساعت در شنبه کار می کند. بنابراین، کارکنان 1 در واقع ساعات بیشتری را در روز دوشنبه در مقایسه با یک کارمند تصادفی معین کار میکردند. آیا راهی برای تخصیص آماری به کارمندی که در روز دوشنبه در مقایسه با روزهای دیگر بیشتر کار کرده است وجود دارد؟ | تعیین وزن |
22627 | من تعداد زیادی نمونه تک متغیره دارم ($x_i \in \mathbb{R}^+$). من یک روش خودکار برای بررسی نقاط پرت و شناسایی نقاط پرت، در صورت وجود، میخواهم. یک مدل معقول برای توزیع غیر پرت، مخلوطی از گاوسیان است. تعداد گاوسیان در مخلوط و پارامترهای آنها از قبل مشخص نیست. آیا می توانید یک روش ساده برای شناسایی نقاط پرت پیشنهاد دهید؟ آیا توصیه ای دارید؟ اگر کدنویسی در پایتون ساده بود، خوب بود. چیزی سریع و کثیف - مثلاً درک آسان، پیادهسازی آسان و بسیار مؤثر - چیزی پیچیده اما بهینه را شکست میدهد. به عنوان مثال، من کمی تمایلی به وارد شدن به چیزی فانتزی بر اساس حداکثر کردن انتظارات ندارم. پارامترهای مثال: من ممکن است 10000 نمونه یا بیشتر داشته باشم. توزیع غیر پرت ممکن است مخلوطی از 2 گاوسی باشد. یا ممکن است مخلوطی از چند صد گاوسی داشته باشم. **به روز رسانی:** مردم پرسیده اند که با توجه به این مفروضات، چگونه ممکن است هر چیزی دور از ذهن باشد. (احتمالاً، نگرانی اعلام نشده این است که این مشکل ممکن است غیرقابل حل باشد: اگر هر مجموعه داده همیشه با یک مدل ترکیبی قابل توضیح باشد، آنگاه هیچ مبنایی برای شناسایی چیزی به عنوان دور از ذهن وجود ندارد.) این یک سؤال منصفانه است، بنابراین اجازه دهید سعی کنم به آن پاسخ دهم. . در دامنه برنامه من، من به طور منطقی می توانم فرض کنم که ده ها نمونه از هر جزء گاوسی وجود خواهد داشت. به عنوان مثال، من ممکن است 40000 نمونه از مخلوطی از 100 گاوس داشته باشم، که در آن هر جزء گاوسی احتمال کمتری از 0.001 ندارد (بنابراین تقریباً تضمین شده است که حداقل 10 نمونه از هر گاوسی داشته باشم). من متوجه شدم که این فرض را قبلاً بیان نکردم و از این بابت عذرخواهی می کنم. با این حال، با این فرض اضافی، من معتقدم که مشکل قابل حل است. نمونههایی از مجموعه دادهها وجود دارد که یک یا چند نقطه را میتوان نقاط پرت در نظر گرفت (آنها را نمیتوان به طور منطقی با هیچ مدل مخلوطی توضیح داد). به عنوان مثال، مجموعه داده ای را در نظر بگیرید که دارای یک نقطه منفرد است که بسیار دور از نقاط دیگر است: اگر به اندازه کافی دور باشد، نمی توان آن را با مدل مخلوط گاوسی توضیح داد و بنابراین می تواند به عنوان نقطه پرت تشخیص داده شود. در پایان، من معتقدم که مشکل به خوبی تعریف شده است و قابل حل است (با توجه به فرض اضافی که در اینجا بیان شد): موقعیت های مثالی وجود دارد که برخی از نقاط را می توان به طور منطقی به عنوان نقاط پرت شناسایی کرد. توجه داشته باشید که من در تلاش برای ارائه یک تعریف خاص یا غیرعادی از outlier نیستم. من خوشحالم که از مفهوم استاندارد دورافتاده استفاده می کنم (به عنوان مثال، نقطه ای که نمی توان به طور منطقی توضیح داد که توسط فرآیند فرضی ایجاد شده است، زیرا بسیار بعید است که توسط آن فرآیند ایجاد شده باشد). | نقاط پرت را در مخلوطی از گاوسیان تشخیص دهید |
72805 | فرض کنید من یک رگرسیون چندمتغیره $Q_Y(\tau | X) = \alpha(\tau) + \beta(\tau)X + \epsilon(\tau)$ را تخمین می زنم. توجه داشته باشید که $X$ بردار متغیرهای مستقل است. فرض کنید پس از آن مقادیر X$ خود را که مشاهده میکنم وصل کنم و پیدا کنم که $\hat{Q}_Y(0.6|X) < \hat{Q}_Y(0.4|X)$. * چگونه QR را در این مورد تفسیر کنم؟ پیامدهای این امر بر اعتبار برآوردها چیست؟ * آیا کل مدل را برای هر مشاهده $X$ در آینده دور می اندازم یا فقط برای آن مشاهده خاص آن را دور می اندازم. توجیه کرد که این یک تحقق بعید از چگالی مشترک X$ است که منعکس کننده فرآیند تولید اساسی نیست. | تفسیر رگرسیون چندک زمانی که برآوردهای کمیت بالا کمتر است |
76581 | روز همگی بخیر، من سعی می کنم حساسیت و ویژگی یک آزمون جدید را در مواجهه با استاندارد طلایی ناقص اندازه گیری کنم. به نظر می رسد که ادبیات حساسیت و ویژگی استاندارد طلایی ناقص من را شناخته است و همانطور که من آن را درک می کنم، می توان حساسیت و ویژگی را بر اساس آن تنظیم کرد. من این وب سایت را یافتم که فرمول ها (تصحیح Sen/Spec) را نشان می دهد، اما نگران دو چیز هستم: 1. آیا مجموعه فرمول های مناسبی برای تصحیح Sen/Spec وجود دارد؟ 2. سعی کردم با استفاده از داده های جدول 1 مثال را بررسی کنم و چیزی متوجه نشدم. اگر از همان مقادیر در جدول 1 استفاده کنم a=760 b=190 c=40 و d=1010) و حساسیت استاندارد طلایی = 60% و ویژگی استاندارد طلایی = 1 باشد، مقادیر تصحیح شده برای Sensitivity= 95% و Specificity Adjusted=148%! من میتوانم بیشتر با حساسیت/ویژگی استاندارد طلایی بازی کنم و میتوانم کاری کنم که همان ماتریس با تغییر حساسیت استاندارد طلایی به 20 درصد، ویژگی تنظیمشده **منفی** داشته باشد. آیا من در اینجا کار اشتباهی انجام میدهم؟ | تنظیم حساسیت و ویژگی |
47841 | من تخمین OLS را با یک متغیر مستقل با تاخیر t-1، t-2، t-3 و t-4 (چهار ضریب بتا) انجام میدهم. من میخواهم مجموع این ضرایب را برای تفسیر تأثیر خالص این متغیرها بر درونزا داشته باشم (به عنوان مثال تأثیر خالص رشد تولید ناخالص داخلی ایالات متحده در t-1، t-2، t-3 و t- عقب مانده است. 4 در رشد تولید ناخالص داخلی تایلند). چگونه می توانم انحراف معیار این ضریب جدید را برای محاسبه آزمون t محاسبه کنم؟ من این فرمول را پیدا کردم اما مطمئن نیستم... $$ SE_{b_{جدید}} = \sqrt{SE_1^2 + SE_2^2+2Cov(b_1,b_2)} $$ (به این پیوند مراجعه کنید افزودن ضرایب برای به دست آوردن اثرات متقابل - با SE ها چه باید کرد؟) اما چگونه کوواریانس دو (چهار در مورد من) ضریب را محاسبه کنم؟ آیا این معنی دارد؟ خیلی ممنون. * * * خوب، برای بازیابی cov(b1,b2) cov(b1,b3) به ماتریس کوواریانس ضریب نیاز دارم... پس از این، من باید بتوانم خطاهای استاندارد مجموع ضرایب را با فرمول محاسبه کنم. بالا... | انحراف معیار مجموع ضرایب رگرسیون |
76673 | _زمینه:_اقتصاد ایالات متحده_پیشینه:_ به طور کلی پذیرفته شده است که رشد تجارت الکترونیک اثرات محدودکننده خاصی بر تورم CPI دارد. از آنجایی که هزینههای جستجوی آنلاین بسیار پایینتر است، مردم همیشه به دنبال پایینترین قیمتها هستند و این باعث میشود که خردهفروشان آنلاین برای قیمت پایینتر از بقیه محصولات خود مبارزه کنند. به علاوه، هزینه های ثابت زیادی در خرده فروشی آنلاین وجود ندارد که به کاهش قیمت کلی کمک می کند. اکنون با افزایش ارتباط و سهولت استفاده تجارت الکترونیک، مردم برای خرید مواد غذایی و خرید لوازم الکترونیکی و غیره به آن روی می آورند و بنابراین به نظر می رسد که این امر با کاهش قیمت ها، اثر مهارکننده ای بر CPI تورم دارد. _دو فرآیند را در نظر بگیرید:_ بگذارید یک فرآیند تورم CPI باشد، بگذارید فرآیند دیگر رشد تجارت الکترونیک در ایالات متحده باشد (شاید بر حسب درصد تولید ناخالص داخلی یا برخی معیارهای دیگر) آیا راهی برای انجام تجزیه و تحلیل سری زمانی وجود دارد (یا هر کدام). نوع دیگری از تجزیه و تحلیل اگر احساس می کنید سری زمانی راه حلی نیست) برای آزمایش اینکه آیا این اثر مهار تورم تجارت الکترونیک وجود دارد یا خیر؟ آیا این تست معنادار خواهد بود؟ این برای یک پروژه است، بنابراین من میخواهم اطلاعاتی در مورد اینکه آیا نتایج جالبی به من میدهد یا اینکه این تجزیه و تحلیل خیلی کلی است و نمیتواند مفید باشد، اطلاعاتی داشته باشم. متشکرم | آیا این را می توان مدل کرد؟ |
77984 | اجازه دهید یک توزیع چند متغیره با $P(Y,S_1,S_2)$ داده شود، که در آن هر سه متغیر گسسته هستند، $Y$ چند ارزشی است، $S_1=(0,1)$ و $S_2=(0,1)$ ، به ترتیب، و همه ممکن است وابسته باشند. مقدار $X$ را برای تفاوت در میانگین در دسته $j$ از $Y$ به صورت $$X=E(Y=j|S_1=1)-E(Y=j|S_2=1) تعریف کنید.$$ برای دادن پیشینه ای برای این آمار، فرض کنید $S_1$ و $S_2$ نشانگرهای پاسخی هستند که نشان می دهند آیا $Y$ مشاهده شده است یا نه، به عنوان مثال. در دو نظرسنجی مستقل $S_1$ و $S_2$ ممکن است وابسته باشند، زیرا احتمال پاسخ در دو نظرسنجی مختلف باید در یک فرد مشابه فرض شود. سپس $X$ تفاوت جمعیت را در $Y$ بین گروههای پاسخ به هر دو نظرسنجی ارائه میکند. من X$$ را با $$\bar{x_1}=\frac{1}{\sum _{i=1}^{n}S_{1i}}\sum _{i=1}^{n} تخمین می زنم (Y_i=j)S_{1i}-\frac{1}{\sum _{i=1}^{n}S_{2i}}\sum _{i=1}^{n} I(Y_i=j)S_{2i}،$$ که در آن $I$ تابع نشانگر است و مجموع آن بر روی نمونه ای با اندازه $n$، جایی که $i=1،..،n$ گرفته می شود. این تفاوت در نسبتهای حاشیهای (نمونه) در دسته $j$ یک جدول احتمالی سه طرفه است که توسط $P(Y,S_1,S_2)$ تشکیل شده است، فرض کنید $p_{1j}$ و $p_{2j} $. هدف استخراج خطای استاندارد برای تفاوت بین هر دو کمیت است. ما داریم: $$\text{Var}(p_{1j}-p_{2j})=\text{Var}(p_{1j})+\text{Var}(p_{2j})-2\text{ Cov}(p_{1j},p_{2j})$$ من می دانم چگونه قسمت های واریانس فرمول را تخمین بزنم (یعنی، $p_{1j}(1-p_{1j}/n_1$))، اما من در مورد کوواریانس بیاطلاع هستم. کوواریانس یک متغیر چند جمله ای $-n\pi_k\pi_l$ است که $\pi$ نسبت جمعیت و $k$ و $l$ دو دسته است. اما من فکر نمی کنم این فرمول در اینجا صدق کند. از راهنمایی شما در مورد اینکه از اینجا به کجا نقل مکان کنید متشکرم. | واریانس تفاوت در نسبت های حاشیه ای در جدول سه طرفه احتیاطی |
47846 | سلام این اولین باری است که در مورد HMM مطالعه میکنم، با این حال مقالات زیادی را در وب خواندهام، اما دو چیز که در آن گیج شدهام عبارتند از: 1. نحوه تعیین تعداد حالتهای پنهان (اگرچه HMM میگوید ما نیازی به دانستن آن نداریم. ، ما فقط باید حدس بزنیم، حتی برای حدس زدن اینکه چه چیزی باید بهترین معیار باشد. حالت و احتمالات انتقالی بین هم... ممنون میشم اگه کسی بتونه برام مثال بزنه...ولی لطفا از سیستم هواشناسی مثال نزنید. | چگونه احتمالات اولیه را برای HMM تعریف کنیم؟ |
47847 | در مقاله اصلی فیلتر ذرات رائو سیاه برای شبکه های بیزی پویا توسط A. Doucet et. al. یک فیلتر مونت کارلو متوالی (فیلتر ذرات) پیشنهاد شده است که از یک زیرساخت خطی $x^L_k$ در فرآیند مارکوف $x_k = (x^L_k، x^N_k)$ استفاده می کند. با حاشیهسازی این ساختار خطی، فیلتر را میتوان به دو بخش تقسیم کرد: یک قسمت غیر خطی که از فیلتر ذرات استفاده میکند و یک قسمت خطی که میتواند توسط فیلتر کالمن مدیریت شود (مشروط به قسمت غیر خطی $x^ N_k$). من قسمت حاشیهسازی را میدانم (و گاهی اوقات فیلتر توصیفشده را فیلتر حاشیه نیز میگویند). شهود من برای اینکه چرا آن را فیلتر ذرات رائو- بلکولیز شده (RBPF) می نامند این است که پارامترهای گاوسی آمار کافی برای فرآیند خطی زیربنایی هستند و به تبعیت از قضیه رائو-بلکول، تخمینگر مشروط بر این پارامترها حداقل به همان اندازه خوب عمل میکند. به عنوان برآوردگر نمونه گیری برآوردگر Rao-Blackwell به صورت $E(\delta(X)|T(X)) = \delta_1(X)$ تعریف می شود. در این زمینه من حدس میزنم که $\delta(X)$ برآوردگر مونت کارلو، $\delta_1(X)$ RBPF، و $T(X)$ پارامترسازی گاوسی است. مشکل من این است که نمیدانم این در واقع کجا در مقاله اعمال میشود. پس چرا به این فیلتر ذرات Rao-Blackwellized گفته می شود، و واقعاً کجای رائو-بلکولیزاسیون رخ می دهد؟ | Rao-Blackwellization فیلترهای مونت کارلو متوالی |
72807 | ما به عنوان آماردان با توزیعهای زیادی تحت عنوانهای «گسسته»، «پیوسته» و «تک متغیره»، «چند متغیره» مواجه میشویم. چگونه آنها را بدست آوریم؟ و یک فرد غیر عادی چه چیزی می تواند از آن بفهمد؟ منطق پشت وجود توزیع ها چیست؟ | انگیزه برای توزیع های آماری |
18001 | من نسبتاً با R جدید هستم و تمام موضوعات مرتبط را خوانده ام اما هنوز موفق به حل مشکل نسبتاً ساده خود نمی شوم. من یک مجموعه داده با 5 حالت برای دو متغیر (X,Y) دارم، به عنوان مثال: X | Y -------- 100 | 12 112 | 14 140 | 21 190 | 20 89 | 7 اکنون می خواهم این مجموعه داده را با تمام ترکیبات منحصر به فرد ممکن از هر دو متغیر تکرار کنم. اگر اشتباه نکنم !5 = 120 مجموعه مختلف وجود دارد. در حال حاضر، من سعی کرده ام این کار را با دستور نمونه انجام دهم. با ثابت نگه داشتن E و سپس نمونه برداری از F، می توانم یک مجموعه داده جدید با ترکیب های مختلف E و F دریافت کنم. البته مشکل این است که این همه ترکیب های ممکن را بر نمی گرداند. اگر این کار را 120 بار انجام دهم، مجموعه داده های منحصر به فردی را دریافت نمی کنم. پیشاپیش از کمک شما سپاسگزارم با احترام، P | تولید تمام ترکیبات منحصر به فرد ممکن از مجموعه داده با دو متغیر |
72809 | تفاوت اساسی بین: 1. رگرسیون خطی 2. رگرسیون غیر خطی 3. رگرسیون پارامتریک و 4. رگرسیون ناپارامتریک چیست؟ چه زمانی باید از هر نوع استفاده کنیم؟ چگونه می دانیم چه چیزی را انتخاب کنیم؟ چه نوع داده ای لازم است؟ فرضیات منحصر به فرد برای هر کدام چیست؟ گاهی اوقات، اگر مقالات را مرور کنید، ترکیبی از نام های بالا را می بینید. خوب، ایده های ارائه شده در بالا من را به نتایج زیر هدایت کرده است: 1) رگرسیون خطی: روش های رگرسیون مرتبط با یک مدل خطی، خطی با توجه به پارامترهای مورد علاقه 2) رگرسیون غیر خطی: روش های رگرسیون مرتبط با یک مدل خطی مدل غیر خطی، غیر خطی با توجه به پارامترهای مورد نظر. 3) رگرسیون پارامتری: روشهای رگرسیون مرتبط با مدل خطی/مدل غیرخطی (بر این اساس به عنوان پارامتری خطی / پارامتری غیرخطی نامیده میشود)، اما مفروضات اساسی رگرسیون از جمله موارد مرتبط با خطاها باید صادق باشند. 4) رگرسیون غیرپارامتری: روشهای رگرسیون مرتبط با مدل خطی/مدل غیرخطی (که بهعنوان خطی غیرپارامتری/غیر خطی نامیده میشود)، اما مفروضات اساسی رگرسیون از جمله موارد مرتبط با خطا درست نیستند. . راست میگم؟ آیا در اینجا یک اشتباه یا ایده گمراه کننده وجود دارد؟ لطفا پاسخ دهید. | روش های رگرسیون |
77989 | در اینجا سوال بالقوه ساده است، اما من نمی توانم پاسخ آن را پیدا کنم، بنابراین... من یک پرسشنامه تک سوالی با پنج پاسخ بله/خیر ممکن ایجاد کرده ام و سپس درصدهای هر پاسخ (N=34) را با توزیع نرمال محاسبه کرده ام. طبق آزمون کولموگروف-اسمیرنوف. سپس این نمونه را با هدف مقایسه این داده ها با جامعه به دو زیر نمونه مرد و زن تقسیم کردم، اما در حالی که داده های زنانه هنوز به طور معمول توزیع می شوند، برای یکی از پنج پاسخ برای مردان، آمار K-S اکنون معنی دار است (003/0 ). آیا من هنوز میانگین (پارامتری) را برای مردان و زنان محاسبه می کنم و اینها را با میانگین مقادیر جمعیت مقایسه می کنم یا آیا میانه را برای جمعیت (در غیر این صورت توزیع شده) محاسبه می کنم و آنها را با میانه برای مردان و زنان مقایسه می کنم؟ یا رویکرد کاملا متفاوتی وجود دارد؟ همه توصیه ها بسیار قدردانی می شود! | نمونه فرعی غیر عادی در نمونه عادی: پارامتری یا ناپارامتریک؟ |
89669 | من سعی کردهام اطلاعاتی در مورد توزیع نمونهگیری انحراف استاندارد برای توزیعهای یکنواخت پیدا کنم و زمان زیادی را برای تعیین مقدار مورد انتظار برای انحراف استاندارد یک نمونه سپری کردهام. امیدوارم کسی بتونه کمک کنه اساسا، من سعی می کنم انحراف استاندارد مورد انتظار را با توجه به اندازه نمونه n پیدا کنم. با توجه به توزیع یکنواخت و پیوسته با محدوده جمعیت (b-a)، می دانم که انحراف استاندارد جمعیت (b-a)/sqrt(12) خواهد بود. با این حال، انحراف استاندارد مورد انتظار برای اندازه نمونه n که از آن توزیع یکنواخت پیوسته گرفته شده است، چقدر خواهد بود؟ امید من این است که با توجه به توزیع یکنواخت با محدوده W (یا PopRange در مثال زیر)، من مایلم انحراف استاندارد مورد انتظار را برای اندازه نمونه معین محاسبه کنم. از آنجایی که میانگین انحراف استاندارد نمونه به عنوان تابعی از حجم نمونه تغییر میکند، امیدوارم بتوانم آن را کمیت کنم. در اینجا برخی از کدهای متلب وجود دارد که نشان می دهد من امیدوار هستم به چه چیزی برسم. ٪ تعداد نمونه برای تخمین brute-force totalSamples = 10000; % محدوده جمعیت (b-a) PopRange = 30; برای n = 2:100 % نمونه هایی با اندازه نمونه بکشید n theSamples = rand(n,totalSamples)*PopRange; ٪ میانگین انحرافات و محدوده های استاندارد را محاسبه کنید. این % باید معادل میانگین توزیعهای نمونهبرداری % انحراف استاندارد و محدوده یکنواختSampleSD(n) = mean(std(theSamples,[],1)) باشد. uniformSampleRange(n) = mean(max(theSamples,[],1)-min(theSamples,[],1)); % انحراف استاندارد مورد انتظار را محاسبه کنید، توجه داشته باشید که این فقط % انحراف استاندارد جمعیت در حال حاضر است و % اندازه نمونه uniformSampleESD(n) = PopRange/sqrt(12) را شامل نمی شود. % SEE: https://en.wikipedia.org/wiki/Prediction_interval#Non-parametric_methods % محاسبه محدوده نمونه مورد انتظار uniformSampleERange(n) = (n-1)/(n+1)*PopRange; پایان ٪ توجه داشته باشید منحنی قرمز که از انحراف استاندارد جمعیت برای اندازه نمونه کوچکتر استفاده می کند؟ این خوب است ، اما من می خواهم یک برآورد ٪ عددی را برای طرح شکل آن (Uniformsamplesd ، 'r') پیدا کنم که در نقشه (یکنواخت نمونه ، ب) هرگونه کمک یا نشانگر بسیار مورد استقبال قرار می گیرد! * * * ویرایش: شاید من آنچه را که به دنبالش هستم اشتباه کردم؟ من به دنبال میانگین توزیع نمونه انحراف معیار برای توزیع پیوسته هستم. اگر من 100000 مجموعه از توزیع یکنواخت [0.1] از اندازه نمونه N را ترسیم کنم ، توزیع انحرافات استاندارد میانگین SQRT ((1-0)^2 /12) = 0.289 نخواهد داشت. از نظر تجربی، میانگین توزیع نمونه sd خواهد بود: n = 2، sd_mean = 0.235 n = 3، sd_mean = 0.263 n = 4، sd_mean = 0.273 n = 5، sd_mean = 0.26 = 0.28 mean n = 7، sd_mean = 0.282 n = 8، sd_mean = 0.283 n = 9، sd_mean = 0.284 n = 10، sd_mean = 0.285 توجه داشته باشید که به طور مجانبی به sqrt نزدیک می شود (2 / 1 - a) نادرست برای n کوچک. این نمونههایی از توزیعهای نمونهگیری برای آن nهای کوچک را ببینید: http://imgur.com/a/Asgkz (توجه داشته باشید: برچسبهای خط جمعیت و مشاهده sd به طور تصادفی تعویض شدند) اینها با استفاده از این کد ایجاد شدهاند: totalSamples = 100000; برای n = 2:10 theSamples = rand(n,totalSamples); setSDs = std(theSamples,[],1); popSD = sqrt((1-0)^2/12); nelements = hist(setSDs,50); شکل تاریخ (setSDs,50) در نمودار نگه دارید([popSD popSD],[0,max(nelements)],'r') plot([mean(setSDs) mean(setSDs)],[0,max(nelements)] ,'g') xlabel('Count') ylabel('Sample Standard Deviation') title({'Sampling Distribution of the Standard Deviation with 100000 sets';sprintf('از توزیع یکنواخت [0,1] با اندازه نمونه %u',n)}) legend('Observations',sprintf('Pop SD = %f',popSD),sprintf(' میانگین مشاهده شده نمونه SD = %f',mean(setSDs))) پایان | انحراف استاندارد مورد انتظار برای نمونه از توزیع یکنواخت؟ |
76676 | من از scikit-learn استفاده می کنم و می خواهم SVR را با هسته RBF اجرا کنم. مجموعه داده من بسیار بزرگ بود، بنابراین از خواندن پست های دیگر، به من توصیه شد که از رگرسیون SGD و تقریب RBF استفاده کنم. جالب است که من نتایج بدتری از استفاده از SGD با RBF در مقایسه با SGD به تنهایی دریافت می کنم. من تصور می کنم این به دلیل مقادیر پارامتر اشتباه باشد. من سعی کردم از طریق گاما و n_components برای نمونه RBF حلقه بزنم و تعدادی از پارامترها را برای SGD regessor امتحان کردم بی فایده بود. من همچنین خطای آموزش و اعتبارسنجی متقاطع را خروجی میدهم، و هر دو تقریباً یکسان هستند، بنابراین معتقدم که این یک مشکل سوگیری است. | SciKit SGD Regressor RBF Kernel Approximation |
14583 | چگونه می توان ثابت کرد که یک ابر صفحه جداکننده که می تواند به عنوان یک ترکیب خطی از نمونه های آموزشی نمایش داده شود، برای یک الگوی قابل جداسازی خطی وجود دارد؟ اگرچه از نظر فیزیکی کاملاً واضح به نظر می رسد، من علاقه مند بودم بدانم که آیا می توان آن را از نظر ریاضی ثابت کرد یا خیر. | چگونه می توان ثابت کرد که یک ابر صفحه جداکننده برای یک الگوی خطی قابل تفکیک وجود دارد؟ |
77986 | من چند نتیجه از یک مطالعه ارتباط گسترده ژنوم دارم، که اساساً با مدلهای خطی $n$ برای یک صفت $y$ و $n$ ژنوتیپهای $x_1, x_2, \cdots, x_n$: \begin{align*} y &\ مطابقت دارد. sim b_{10} + b_{11} x_1 \\\ y &\sim b_{20} + b_{21} x_2 \\\ &\vdots \\\ y &\sim b_{n0} + b_{n1} x_n \\\ \end{align*} پس از آن مقادیر $n$ p را دریافت میکنیم: $p_1، p_2، \cdots، p_n$. به طور معمول $n$ به ترتیب $10^6$ است، و سطح $\alpha$ معمولاً در ادبیات، تقریباً به دنبال تصحیح بونفرونی، روی $5 \ برابر 10^{-8}$ تنظیم شده است. اکنون بر اساس این مقادیر p، منطقه جالبی را مشاهده کردهایم که برای آن یک سری مدلهای مختلف ساختهایم و حدود 10000 آزمایش دیگر انجام دادهایم، مشکل این است که این بار نقطه برش اهمیت را چگونه تعیین کنیم؟ شخصی پیشنهاد کرده است که آن را روی 5 $ \times 10^{-8} / 10^4 = 5 \times 10^{-12}$ تنظیم کنید، اما ظاهراً این کاملاً معقول نیست، 10000 آزمایش فقط تعداد کمی هستند در مقایسه با میلیون ها آزمایشی که قبلا انجام شده است. | نقطه برش مهم برای آزمایش های متعدد |
764 | من معمولا شنیده ام که مدل های LME در تجزیه و تحلیل داده های دقت (به عنوان مثال، در آزمایش های روانشناسی) قوی تر هستند، زیرا می توانند با توزیع های دوجمله ای و سایر توزیع های غیر عادی که رویکردهای سنتی (مانند ANOVA) نمی توانند کار کنند. مبنای ریاضی مدلهای LME چیست که به آنها اجازه میدهد تا این توزیعهای دیگر را ترکیب کنند، و برخی از مقالات غیر فنی که این را توصیف میکنند چیست؟ | مدل های جلوه های ترکیبی خطی |
31408 | من سعی میکنم یک سیستم توصیه بسازم، و دستهای از سهقلوهای (اقلام، ویژگیهای_آیتم، پسندیدهشده) داشته باشم، که در آن موارد لایک باینری است. اکثر موارد مورد پسند نیستند. بنابراین من یک رگرسیون لجستیک را با glmnet به شکل «like ~ item_features» اجرا میکنم که AUC حدود 0.75 را به دست میدهد (با پارامتر منظمسازی تفاوت چندانی ندارد). با این حال، میزان خطا (همچنین تفاوت زیادی ندارد) فقط کمی بهتر از آن چیزی است که اگر همیشه دوست ندارم را پیش بینی می کردید. بهترین راه (یا هر راهی، واقعاً!) برای فکر کردن در مورد ارزش یا عدم وجود این توصیه کننده چیست؟ | AUC در مقابل نرخ خطا برای طبقه بندی |
108568 | من یک مجموعه داده برای تعدادی از افرادی دارم که 2 تصمیم می گیرند - کجا زندگی کنند. و چند ساعت کار برای هر مشاهده با مقدار کار غیر صفر، دستمزد مشاهده شده وجود دارد. من به هر فرد یک انتخاب منحصر به فرد اختصاص داده ام که نشان دهنده نتایج مشاهده شده ترکیبی است. 8 نتیجه کار (0 ساعت، 8 ساعت ... 56 ساعت) و 5 نتیجه مکان (منطقه A، B، C، D، E) وجود دارد که در مجموع 5x8 (40) انتخاب ممکن است. من میخواهم هم عملکرد سودمندی را که تصمیمگیری میکند و هم دستمزد افرادی را که در حال حاضر کار نمیکنند، تخمین بزنم. بنابراین از 40 گزینه ممکن، 5 مورد بدون دستمزد مشاهده شده هستند. میتوانم ببینم که اگر همه دستمزدها را بدانم، میتوانم از یک مدل لاجیت چندجملهای (یا مدل لاجیت پارامترهای تصادفی) برای تخمین تابع مطلوبیت (با استفاده از بسته mlogit) استفاده کنم. همچنین میدانم که اگر فقط سعی میکردم سوگیری انتخاب را در برآورد دستمزد تصحیح کنم، میتوانم از روش هکمن استفاده کنم، عرضه نیروی کار لاجیت را تخمین بزنم و سپس معادله دستمزد بیطرفانه را دریافت کنم (با استفاده از نمونه انتخاب). من علاقه مند به ترکیب هر دو هستم و می خواستم بدانم آیا بسته ای موجود است که ترکیب این دو را فعال کند؟ | تصحیح سوگیری انتخاب و لوجیت چندجمله ای |
33808 | با توجه به اینکه تخمین قبلی $\sigma'^{2}$از یک احتمال عادی و یک گامای معکوس قبل از $\sigma^2$ این است: $$\sigma'^{2}\sim\textrm{IG}\ چپ(\alpha + \frac{n}{2}، \بتا +\frac{\sum_{i=1}^n{(y_i-\mu)^2}}{2}\right)$$ که معادل $$\sigma'^{2}\sim\textrm{ IG}\left( \frac{n}{2}, \frac{n\sigma^2}{2}\right)$$ زیرا $\textrm{IG}(\alpha, \beta)$ ضعیف قبل از آن $\sigma^2$ $\alpha$ و $\beta$ را از معادله 1 حذف میکند: $$\sigma'^{2}\sim\textrm{IG}\left( \frac{n}{2}, \frac {\sum_{i=1}^n{(y_i-\mu)^2}}{2}\right)$$ آشکار است که تخمین قبلی $\sigma^2$ تابعی از حجم نمونه و مجموع مجذورهای احتمال. اما این به چه معناست؟ اشتقاقی در ویکی پدیا وجود دارد که من کاملاً آن را دنبال نمی کنم. من سوالات زیر را دارم 1. آیا می توانم بدون احضار قانون بیز به این معادله دوم برسم؟ من کنجکاو هستم که آیا چیزی ذاتی در پارامترهای یک IG وجود دارد که با میانگین و واریانس مستقل از احتمال نرمال مرتبط باشد. 2. آیا می توانم از حجم نمونه و انحراف معیار از مطالعه قبلی برای تخمین یک قبلی آگاه در $\sigma^2$ استفاده کنم و سپس با داده های جدید قبلی را به روز کنم؟ این ساده به نظر میرسد، اما من نمیتوانم هیچ نمونهای برای انجام این کار بیابم، یا دلیلی برای این که چرا این یک رویکرد مشروع باشد - غیر از آنچه در پسین دیده میشود، بیابم. 3. آیا کتاب احتمالی یا آمار رایجی هست که برای توضیح بیشتر به آن مراجعه کنم؟ | توزیع گامای معکوس چگونه با $n$ و $\sigma$ مرتبط است؟ |
77600 | مدل ترکیبی خطی که میخواهم با دادههایم تطبیق دهم، برخی همبستگیهای عمده را نشان میدهد. Z.transformation قبلاً همبستگی ها را کاهش داد، اما نه به اندازه ای که من امیدوار بودم. من فاکتورهای تورم واریانس را محاسبه کردم و آنها کمی بالا به نظر می رسند اما از نمودارها خارج نیستند (بین 1.3 و 3) در اینجا ساختار همبستگی یکی از مدل های من است که توسط summary(lme) چاپ شده است: (Intr) orgns_ exp.ty systmm organism_typeheterotroph -0.832 exp.typelab -0.853 0.552 systemmarine -0.172 0.281 -0.078 log (exact.duration) -0.895 0.768 0.639 -0.019 فاکتور تصادفی (برق تصادفی) برای مدل های من studyID است که شاید ممکن است همبستگی های بالایی را برای Intercepts توضیح دهد (یا من قبلاً در آنجا اشتباه می کنم؟) اما بقیه موارد از همبستگی ها نیز بسیار بالا است. من می خواستم یک تابع همبستگی را در مدل پیاده سازی کنم اما مطمئن نیستم که چگونه این کار را انجام دهم و کدام یک را انتخاب کنم. طبق گفته Pinheiro و Bates «مدلهای اثرات مختلط در S-و S-Plus» چندین ساختار همبستگی وجود دارد، اما فکر میکنم فقط تابع «corSymm» برای من کار میکند، زیرا هیچ ساختار زمانی یا مکانی در دادههایم ندارم. با این حال، من مطمئن نیستم که چگونه آن را اجرا کنم. آرگومان «ارزش» من باید چه باشد؟ آیا صرفاً ماتریس همبستگی است که من از طریق summary(lme) دریافت می کنم (به بالا مراجعه کنید)؟ امیدوارم اینجا در مسیر کاملا اشتباهی نروم! لطفا به من کمک کنید! | ساختارهای همبستگی در مدل های ترکیبی خطی |
72804 | فرض کنید که من دادههای روزانه در مورد جمعیت یک روستای کوچک، دادهشده توسط $Y(t)$، و همچنین دادههای روزانه در مورد عوامل مختلفی که به اندازه جمعیت در آینده مرتبط هستند، با بردار $X( t) $. این متغیرهای توضیحی شامل متغیرهای تغییر نیافته و همچنین ویژگیهایی هستند که به گونهای مهندسی شدهاند که در افقهای طولانی آموزنده باشند (مثلاً یکی از متغیرها تعداد مرگها را در 30 روز گذشته نشان میدهد). من این داده ها را برای 8 سال جمع آوری کرده ام. هدف من این است که $Y(t)$ را تا 1،2،3،...،365 روز پیش بینی کنم. من انتظار دارم پیش بینی های بلند مدت با پیش بینی های کوتاه مدت متفاوت باشد. اگر یک فصل تعطیلات در راه است، من ممکن است انتظار یک جهش نزولی را در چند ماه آینده داشته باشم (افرادی که از شهر بازدید می کنند)، اما اگر کسی در بستر مرگ باشد، من انتظار یک جهش نزولی را در چند روز خواهم داشت. از آنجایی که جمعیت به اندازه کافی کوچک است که $\Delta Y(t+k)$ معمولاً به $\\{-2,-1,0,1,2\\}$ برای افق پیش بینی مورد سوال است، من از یک مدل طبقهبندی متغیر پاسخ طبقهای چندگانه که احتمالات را به برچسبهای کلاس مختلف در حال مشاهده اختصاص میدهد. سؤال من بر ملاحظات خاصی متمرکز است که باید هنگام ایجاد پیشبینی تغییر از $Y(t)$ به $Y(t+k)$ که $k$ بزرگ است (مثلاً 100 روز) انجام دهم. اساساً وحشتناک ترین ساختار خودهمبستگی در $\Delta Y(t+k)$ در این مقیاس های زمانی وجود خواهد داشت. اگر کسی در روز $2$ بمیرد، در روز $3، 4، ...، k$ نیز مرده است، به این معنی که یک رشته $k$ یا بیشتر $\Delta Y(t+k)$ حاوی همین اطلاعات خواهد بود. این پرسشها نتیجه میدهند: * راههایی برای مقابله با این ساختار خودهمبستگی عظیم در پاسخ من چیست؟ آیا حتی یک مشکل است؟ * آیا روشهای جایگزینی برای آنهایی که من برای پیشبینی این افقها پیشنهاد کردهام وجود دارد (به غیر از روشهای یادگیری ماشینی معمولی مانند جنگلهای تصادفی که در حال حاضر با آنها کار میکنم). * هر توصیه مفید دیگری. | پیشبینی سریهای زمانی پیشرو بر اساس افقهای زمانی متعدد |
31401 | من در حال ساخت اجزای نرم افزاری هستم که قرار است توسط چندین کاربر به طور همزمان استفاده شود. در مقطع کنونی، این مؤلفه ها **بد شناخته شده** هستند. یعنی، اگر چندین کاربر را به طور همزمان با هر مؤلفه در تعامل با یکدیگر **به اندازه کافی طولانی** شبیه سازی کنم، می دانم که مؤلفه ** خراب می شود**. من تا پایان شبیه سازی نمی توانم تشخیص دهم که یک شکست اتفاق افتاده است. نتیجه شبیه سازی دو چیز را به من می دهد: 1. نشانگر موفقیت یا شکست، و 2. تعداد واقعی دفعاتی که یک خطا رخ داده است (اگرچه نمی دانم چه زمانی در شبیه سازی خطا واقعاً رخ داده است) همچنین هیچ ایده ای ندارم. خطاها چه نوع توزیعی دارند زیرا تغییر برنامه برای ثبت خرابی ها در زمان وقوع آنها احتمالاً خود توزیع را تغییر می دهد. هدف من تعیین کوچکترین اندازه نمونه ای است که می توانم برای دستیابی به سطح اطمینان هدف CL در فاصله اطمینان هدف CI استفاده کنم تا بتوانم به طور خودکار این مؤلفه ها را با تعداد تکرارهای لازم آزمایش کنم. سپس قطعات را تعمیر میکنم، اما تستهای مولفه خودکار را رها میکنم تا اطمینان حاصل کنم که قطعات در آینده خراب نمیشوند. چگونه می توانم کمترین تعداد تکرار (نمونه) را که شبیه ساز برای بازتولید شکست در سطح اطمینان CL٪ با فاصله اطمینان CI٪ باید اجرا کند، تعیین کنم؟ یا اگر نتوانم تعداد تکرارها را با نمونه ها برابر کنم، برای رسیدن به هدف فوق چه رویکردی را می توانم در پیش بگیرم؟ اگر کمک می کند، می توانم شبیه ساز را هر تعداد بار در هر تعداد تکرار اجرا کنم تا حجم نمونه کافی داشته باشم. از آنجایی که من آمار کافی برای دانستن اینکه دقیقاً چه سؤالاتی بپرسم یا چه تحقیقی انجام دهم نمی دانم، اجازه دهید برنامه فعلی خود را توضیح دهم: 1. شبیه ساز را برای تکرارهای X اجرا کنید. 2. اگر شبیه ساز خراب نشد، مرحله 1 را با یک بزرگتر تکرار کنید. X تا زمانی که شبیه سازی با شکست مواجه شود. 3. (از آنجایی که شبیه سازی در تکرارهای X شکست خورد) شبیه ساز را 1000 بار با تکرار X اجرا کنید تا مشخص شود که چه چیزی شبیه به سطح اطمینان است. (به عنوان مثال، اگر 950 بار از 1000 بار شکست خورد، سطح اطمینان 95 درصد را در نظر میگیرم.) 4. اگر سطح اطمینان به اندازه کافی بالا نیست، از مرحله 1 یک با X بزرگتر شروع کنید (با فرض اینکه یک عدد دریافت کنم). سطح اطمینان بهتر). من شک دارم که موارد بالا از نظر ریاضی درست باشد و می خواهم آن را برطرف کنم. به نظر می رسد توزیع ناشناخته تعیین احتمال شکست در هر تعداد تکرار را غیرممکن می کند. همچنین به نظر می رسد که می توانم از تعداد واقعی دفعاتی که یک خطا در یک شبیه سازی رخ داده است به نفع خود استفاده کنم - شاید با محاسبه واریانس بر روی شبیه سازی های مکرر. دادهها: # تکرار # شبیهسازی ناموفق / 1000 شبیهسازی 2^n (0 <= n <= 6) 0 128 662 256 837 512 916 1024 974 2048 734 4096 779 8192 8192 891 65536 991 131072 999 2^n (n>= 18) 1000 همانطور که می بینید، در 2048 تکرار، شبیه سازی به طور قابل توجهی کمتر از 1024 تکرار شکست خورد، که به نظر من واریانس بزرگی را نشان می دهد. من در ریاضیات عمومی نسبتاً توانا هستم، اما در زمینه آمار کاملاً ناآگاه هستم، بنابراین ارائه پاسخ ها در آن جهت کمک خواهد کرد. | حداقل حجم نمونه برای دستیابی به سطح اطمینان و فاصله زمانی خاص |
14581 | من نتایجی دارم که در اینجا ترسیم شدهاند:  من میخواهم مقایسههای فردی انجام دهم. آیا خط سبز در بالا به طور قابل توجهی از 2 به 3 و از 3 به 4 کاهش می یابد؟ من پیشبینیکنندههای کد کنتراست ایجاد کردهام تا این تفاوتها را جداگانه آزمایش کنم. میخواهم بدانم آیا انجام رگرسیونهای لجستیک جداگانه برای بررسی هر اثر مشکلی ندارد؟ | مقایسه فردی با رگرسیون لجستیک |
72806 | هر توزیع آماری از نظر شکل، مقیاس و پارامترهای مکان توصیف می شود. اما این پارامترها از نظر هندسی، آماری و برای یک فرد عادی با حداقل دانش آماری چه معنایی دارند؟ من ویکیپدیا را بررسی کردهام و هنوز، این شک همچنان وجود دارد. | پارامترهای یک توزیع آماری |
14588 | لطفاً من در حال خوشهبندی برخی از دادهها هستم که دارای حدود 15 ستون مختلف هستند که همگی اعداد هستند (برخی مقولهای و برخی اندازهگیری میشوند) همچنین برخی از مقادیر من در برخی از ستونها گم شدهاند. لطفاً می توانید راهنمایی کنید که چگونه آن را انجام دهم. من قبلاً خوشهبندی را با weka کاوش کردهام، اما در مورد نحوه پیادهسازی weka مطمئن نیستم، بنابراین مسیر R را میروم. آنچه من می دانم: من قبلاً در مورد تجزیه و تحلیل مؤلفه های اصلی حداقل در تئوری می دانم. اما آیا این در همه خوشه بندی ستون های متعدد ضروری است؟ اگر کسی بتواند پیوندی به آموزش در این مورد به من بدهد راه طولانی خواهد بود زیرا Quick-R فقط 2 متغیر دارد. نمونه ای از مجموعه داده من در زیر 1،64،9،30،33،2،3،1،6،1،5،-3.62،-3.71،-2.73،1 2،61،4،30،33، فهرست شده است. 2،3،2،7،4،4،-3.62،-3.71،-2.00،1 3،49،4،18،21،2،3،2،8،17،18،-3.68،-3.88،-2.00،1 4،40،4،10،12،2،2،2،24، 20،23،-3.32،-3.42،-2.00،1 5،43،9،10،12،2،2،1،2،1،29،-3.12،-3.19،-2.73،1 6،52،9،16،19،2،3،2،35، 34،35،-3.33،-3.26،-2.95،1 7،46،4،15،18،2،3،2،8،40،42،-3.59،-3.50،-2.00،1 8،40،4،10،12،2،2،2،24، 20،46،-2.45،-2.69،-2.00،1 | خوشه بندی داده های چند متغیره |
110801 | من نمونههایی از مجموعه دادههای بسیار منحرف (به نظر توزیع نمایی) درباره مشارکت کاربران (به عنوان مثال: تعداد پستها) دارم که اندازههای متفاوتی دارند (اما نه کمتر از 200) و میخواهم میانگین آنها را با هم مقایسه کنم. برای آن، من از آزمونهای t زوجنشده دو نمونهای استفاده میکنم (و آزمونهای t با ضریب Welch، زمانی که نمونهها واریانسهای متفاوتی داشتند). همانطور که شنیده ام، برای نمونه های واقعا بزرگ، مهم نیست که نمونه توزیع شده عادی نباشد. شخصی با مرور کارهایی که انجام دادهام، گفت که آزمایشهایی که استفاده میکنم برای دادههای من مناسب نیستند. آنها پیشنهاد کردند که نمونههایم را قبل از استفاده از آزمونهای t، تبدیل به log-transform کنند. من یک مبتدی هستم، بنابراین برای من واقعا گیج کننده به نظر می رسد که به سؤالات تحقیقاتی خود با میزان ثبت مشارکت پاسخ دهم. آیا آنها اشتباه می کنند؟ آیا من اشتباه می کنم؟ اگر اشتباه می کنند، آیا کتاب یا مقاله علمی وجود دارد که بتوانم به آنها استناد کنم/نشان دهم؟ اگر اشتباه می کنم از کدام تست استفاده کنم؟ | آیا باید از آزمون t برای داده های بسیار کج استفاده کنم؟ دلیل علمی لطفا؟ |
76589 | فرض کنید یک متغیر مستقل پیوسته $X$ و یک متغیر ترتیبی وابسته $Y$ داریم. آیا می توان یک تحلیل تفکیک خطی روی داده ها انجام داد؟ یا اینکه هر دو متغیر باید پیوسته باشند؟ به عبارت دیگر آیا باید متغیر ترتیبی را به عدد واقعی تبدیل کنیم؟ | تجزیه و تحلیل متمایز و نتایج ترتیبی |
67618 | مادر یکی از دوستانم از من درخواست کرد که داده های او را از درمان گذشته اش تجزیه و تحلیل کنم. از دو سال پیش که به سرطان خون مبتلا شد، دورههای مختلفی تحت آموزش قرار گرفت و تحت درمانهای مختلفی قرار گرفت. بنابراین من میتوانم نمودار دادهای را با نقاط زمانی و اندازهگیری بعد از داروی A، B، C، D، E و غیره دانلود کنم. اما اندازهگیریها در سطحی نبودند که بتوانم آنها را از طریق یک نمودار ساده با یکدیگر مقایسه کنم، اما بیشتر شبیه ضربان قلب و فشار خون که باید تا حدودی مرتبط باشند، اما میانگین و انحراف معیار متفاوتی دارند. با 5-6 پزشکی در دسترس و داده های 2 ساله در دسترس من، من واقعاً نمی توانستم داده ها را به درستی تجزیه و تحلیل کنم زیرا یک ریاضیدان هستم بدون آموزش مناسب در آمار. اما اکنون می خواهم در این مورد به طور کلی بپرسم، زیرا آن دوست بر اثر سرطان خون مرده بود، و ای کاش می توانستم تفاوتی ایجاد کنم، علیرغم این واقعیت که مطلقاً هیچ درمانی برای نوع او وجود ندارد. سوالی که می خواهم از این تجربه شخصی بپرسم این است: تا چه حد می توانیم از طریق روش های آماری به بیماران (واقعی) کمک کنیم؟ چگونه میتوانیم رابطه پنهان پشت مجموعهای از دادههای گسسته نه چندان بزرگ (مثلاً 300-600 نقطه داده) را استخراج کنیم و اطمینان معقولی داشته باشیم که ممکن است معنایی داشته باشد؟ فرض کنید ما تمام قدرت برنامه نویسی در دسترس را داشتیم و مسئله پول واقعاً نگران کننده نیست، آیا امید واقعی وجود دارد که بتوانیم اطلاعات شخصی برای کمک به بیمار در سطح فردی جمع آوری کنیم؟ من آمارگیر نبودم و رگرسیون خطی بین متغیرها را امتحان کردم که به طرز بدی شکست خورد زیرا به نظر میرسید هیچ رابطه آشکاری بین آنها وجود نداشت. بنابراین می خواهم نظر یک متخصص را در این مورد بپرسم. (من حداقل بیش از 100 مقاله سرطان خون خوانده بودم تا سعی کنم چیزی را پیدا کنم که ممکن است از نظر بیولوژیکی یا از طریق زیست شناسی ریاضی مانند پویایی جمعیت کمک کند، اما شکست خوردم) به روز رسانی: فراموش کردم بنویسم که متامد (یک شرکت نوپا پزشکی) به افراد پیشنهاد می کند. تجزیه و تحلیل پزشکی متناسب، به نظر می رسد بیشتر بر اساس داده های ژنتیکی بیماران است. آنها قیمت بسیار بالایی را دریافت می کنند. با این حال من نمی دانم که آیا خدمات آنها قابل اعتماد است یا خیر. در مورد شخصی من، خانواده دوستانم تصمیم گرفتند که از آنها کمک نخواهند. من واقعاً نمی دانم که آیا این تفاوتی ایجاد می کند یا خیر، زیرا در مورد او تمام روش های درمانی (تجربی یا به خوبی تثبیت شده) تمام شده است. از آنجایی که این موضوع ممکن است برای دیگران جالب باشد، تصمیم گرفتم این 25c را در اینجا قرار دهم. | آمار تا چه اندازه می تواند درمان بیمار را بهبود بخشد؟ |
47842 | اگر من یک راه رفتن تصادفی بدون رانش داشته باشم، تفاوت ها یک فرآیند نویز سفید را تشکیل می دهند. اما اگر دریفت $d$ را وارد کنم چه اتفاقی میافتد؟ آیا این هنوز هم صادق است؟ مطمئن نیستم زیرا با عبارت دریفت d: $$ y_{t} = d + y_{t-1} + \epsilon_{t} $$ $$ y_{t} - y_{t-1} = d + \epsilon_{t} $$ سمت راست معادله 2 نمی تواند یک فرآیند نویز سفید باشد (مثلاً مقدار مورد انتظار آن $d \neq 0$ خواهد بود. کمک خواهد بود قدردانی می شود! | راه رفتن تصادفی با رانش تفاوت های نویز سفید است؟ |
89667 | من روی تجزیه و تحلیل یک مجموعه داده کار میکنم و به این فکر میکردم که معتبرترین روش آماری برای نشان دادن اینکه یک همبستگی فضایی قوی بین تصاویر وجود دارد، چیست. من یک مجموعه داده با حدود 50 جفت تصویر از نمونه های بافت سرطانی دارم. تصویر اول در هر جفت مکان نانوذرات طلا را نشان می دهد و تصویر دوم مکان رگ های خونی را در همان نمونه بافت نشان می دهد. با مشاهده تصاویر به راحتی می توان متوجه شد که محل قرارگیری نانوذرات با رگ های خونی مطابقت دارد، اما من می خواهم این را از نظر آماری در مقاله ثابت کنم. این نکته مهمی است زیرا نشان میدهد که نانوذرات بهجای بافت طبیعی بهطور خاص به نواحی سرطانی متصل میشوند. من در حال بررسی آمارهای مختلف از جمله یک همبستگی خطی ساده یا چیزی شبیه به پاسخ به این سوال بوده ام: روش معتبر برای تجزیه و تحلیل همبستگی های فضایی در تصاویر؟ با این حال، من چیزی پیدا نکردم که برای همبستگی بین تصاویر به خوبی کار کند. * * * **ویرایش از لادیسلاو نادو:** من دو عکس از وب ساختم ... اندازه و وضوح برابر است.   | روش آماری همبستگی فضایی بین تصاویر |
76583 | اگر بخواهم یک نمونه با اندازه 20 را از یک جمعیت عادی جمع آوری کنم، ادعا می کنم که نمونه به طور معمول توزیع شده است چقدر توجیه می شود؟ من کمی گیج می شوم زیرا با قضیه حد مرکزی، حجم نمونه باید به اندازه کافی بزرگ باشد و 20 عدد نسبتا کمی است. از سوی دیگر، اگر جامعه را نرمال فرض کرده باشیم، مطمئناً حق داریم که هر نمونه از این جامعه را با وجود اندازه آن، نرمال فرض کنیم. جمعیت مورد نظر شامل زمانهای مختلفی برای حرکت یک ذره از A به B است. من 20 نمونه را به صورت هیستوگرام در R رسم کردهام و به نظر نمیرسد که خیلی نرمال باشند. با این حال، مقادیری منفی در نمونه وجود دارد و هنگامی که این مقادیر حذف شوند، نمودار بیشتر شبیه یک توزیع نرمال می شود. آیا اگر با توجه به توزیع نرمال جمعیت، نمودار را نرمال تر می کند، درست است که مقادیر منفی را حذف کنم؟ | توزیع یک نمونه از یک جمعیت عادی |
15182 | من سری زمانی کوتاه روزانه (کمتر از 4 سال) دارم که فروش را نشان می دهد و دو فصلی (هفتگی و سالانه) را نشان می دهد و به دنبال شناسایی موارد پرت هستم (نه تنها خطاهای گزارش داده ها، بلکه رویدادهای خاصی که بر فروش تأثیر می گذارد). به دلیل وجود یک روند و فصلی بودن، فکر میکنم پیش از آن، دادهها را کاهش داده و فصلزدایی کنیم. بنابراین من به این فکر می کردم که از مدل های تجزیه بر اساس میانگین متحرک برای بدست آوردن مولفه نامنظم استفاده کنم و سپس از آزمون های آماری (روش های نمره Z، استفاده از محدوده بین چارکی ...) یا الگوریتم های مبتنی بر فاصله / چگالی استفاده کنم، اما نتایج با کیفیت تجزیه (این خود به تعداد نقاط پرت بستگی دارد) و من حتی مطمئن نیستم که کار کند. یا من به استفاده از روشی که توسط Tsay در معرض دید قرار گرفته بود برای تشخیص انواع مختلف نقاط پرت (افزودنی، نوآورانه، تغییر سطح...) با استفاده از مدلهای regARIMA با متغیرهای ساختگی برای جشنوارهها، روندها و فصلها فکر میکردم (امیدوارم دادههای کافی برای که). من فقط نرم افزار رایگان (R) در اختیار دارم. بهترین رویکرد برای اتخاذ کدام خواهد بود؟ برای هر کمکی بسیار سپاسگزار خواهم بود. | تشخیص پرت در سری های زمانی کوتاه با دو فصلی |
26531 | من سعی می کنم یک رگرسیون لجستیک انجام دهم تا به رابطه بین تعداد سیگارهای مصرف شده توسط آزمودنی ها در یک نمونه (0-60 در روز) و نتیجه بله/خیر نگاه کنم. از آنجایی که بسیاری از افراد در نمونه غیر سیگاری هستند، صفرهای زیادی برای متغیر کمکی پیوسته وجود دارد. من چند سوال در این مورد دارم: * آیا این به درستی به عنوان یک متغیر کمکی پیوسته با تورم صفر توصیف شده است؟ * آیا این باعث مشکلات در رگرسیون لجستیک می شود، به عنوان مثال. بر اعتبار ضرایب و غیره تاثیر می گذارد. با تشکر | آیا متغیرهای کمکی پیوسته تورم صفر باعث ایجاد مشکلات در رگرسیون لجستیک باینری می شود؟ |
67614 | من سعی میکنم پیشبینیهایی از توالی رویدادها انجام دهم. مشکل من این است: **جمع آوری داده ها:** فرض کنید می توانید به طور مداوم فردی را که در یک کتابخانه نشسته است مشاهده کنید. هر بار که شخص گوشی هوشمند خود را چک می کند، به دستشویی می رود یا در حال مطالعه است، یادداشت می کنید. در نقطه ای پس از چند ساعت، فرد از جای خود بلند می شود و می رود. فرض کنید می توانید این کار را برای چند روز انجام دهید تا داده های زیادی به دست آورید. **مشکلاتی که باید حل شوند:** حالا، فرض کنید میتوانم مشاهدات را فقط در نقاط گسسته پراکنده در زمان انجام دهم (مثلاً هر 10 یا 20 دقیقه یک بار). من میخواهم دو محاسبات زیر را به صورت آنلاین (در زمان واقعی، با یک پنجره کوتاه) انجام دهم: با توجه به دنبالهای از مشاهدات آنلاین پراکنده (الف) با استفاده از تلفن هوشمند، (ب) رفتن به دستشویی، یا (ج) خواندن، من می خواهم بدانم احتمال اینکه کاربر در مرحله بعدی بیش از t دقیقه مطالعه کند. به عنوان مثال، اگر کاربر عادت داشته باشد تلفن هوشمند خود را چک کند و سپس شروع به خواندن بدون وقفه به مدت 20 دقیقه کند، اگر من مشاهده کنم که او واقعاً گوشی هوشمند خود را بررسی می کند، می توانم بگویم که احتمال خواندن بیش از 10 دقیقه مثلاً 0.90 است. من تا آنجا که ممکن است کمتر مشاهدات لازم را انجام می دهم. اگر من بخواهم تعیین کنم که کاربر چه زمانی از جای خود بلند می شود و در t دقیقه بعدی با احتمال آستانه ای می رود، چگونه می توانم حداقل تعداد مشاهدات مورد نیاز را برنامه ریزی کنم؟ من در حال مطالعه زنجیرههای مارکوف، HMM و پیادهرویهای تصادفی بودم، اما به نظر میرسد مشکل من کمی با آنچه خواندهام متفاوت است. هر گونه کمکی قدردانی خواهد شد. | استفاده از مشاهدات متوالی برای انجام پیش بینی آنلاین |
15187 | من اغلب از کارشناسان آماری (از جمله در این سایت) می شنوم که شبیه سازی روش ارجح برای محاسبه توان برای یک کارآزمایی بالینی است (به جای استفاده از فرمول های سنتی محاسبه اندازه نمونه). من از Stata استفاده می کنم و می خواستم بدانم آیا کسی می تواند به من نشان دهد چگونه این کار را **با جزئیات** انجام دهم؟ به عنوان مثال، دو سناریو: 1) **متغیر پیوسته:** فرضیه یک داروی جدید که در حین عمل تجویز می شود منجر به کاهش میانگین آزادسازی تروپونین از 2.2 به 1.8 (SD از هر دو 2.0) پس از جراحی قلب در مقایسه با دارونما می شود. 2) **نسبت ها:** فرضیه یک مداخله آموزشی جنسی منجر به کاهش شیوع HIV در بین نوجوانان از 20٪ به 15٪ می شود. با فرض توان 80% و آلفای 5% در Stata، معمولاً موارد زیر را تایپ می کنم: **1)** sampsi 2.2 1.8، sd(2) power(0.8) اندازه نمونه تخمینی برای مقایسه دو نمونه ای به معنای تست Ho: m1 = m2، که در آن m1 میانگین در جمعیت 1 و m2 میانگین در جمعیت 2 است. مفروضات: آلفا = توان 0.0500 (دو طرفه) = 0.8000 m1 = 2.2 m2 = 1.8 sd1 = 2 sd2 = 2 n2/n1 = 1.00 حجم نمونه مورد نیاز تخمینی: n1 = 393 n2 = 393 **و برای 2) sampsi تایپ می کنم: 0.2 0.15، توان (0.8) حجم نمونه تخمینی برای مقایسه دو نمونه نسبت ها تست Ho: p1 = p2، که p1 نسبت در جمعیت 1 و p2 نسبت در جمعیت 2 است. = 0.1500 n2/n1 = 1.00 حجم نمونه مورد نیاز تخمینی: n1 = 945 n2 = 945 لطفاً کسی می تواند به من نشان دهد که چگونه تکنیک شبیه سازی در Stata برای این دو مثال ممکن است به نظر برسد؟ با تشکر فراوان | نحوه انجام تحلیل توان با استفاده از شبیه سازی در Stata |
5768 | من مدت زیادی است که با این مشکل گیج شده ام، و امیدوارم کسی در اینجا بتواند به من کمک کند. من آزمایشی را در طراحی اسپلیت پلات نصب کرده ام، با 3 گروه دمایی به عنوان بلوک، و 2 عامل (هر کدام دارای 3 سطح ثابت هستند. ) ترکیب در هر بلوک، و من 4 تکرار در هر درمان دارم. من مدل را به این صورت می ساختم: model<-aov(Var~Block+A*B+Error(Block/A/B)،داده) که در آن A و B عوامل ثابت تمرکز من هستند. به نظر می رسد که R Block را به عنوان یک عبارت خطا محاسبه می کند، جایی که فقط DF، SS و MS گزارش شده است، اما نه نسبت F و مقدار p. سوال من این است: آیا منطقی است که اثر بلوک (یعنی دوره زمانی مختلف) را در R تخمین بزنم؟ در واقع، از 4 تکرار در چهار روز مداوم نمونه برداری شد تا یک توالی زمانی برای تجزیه و تحلیل دیگری ایجاد شود. میخواهم بدانم چگونه میتوانم اثر نمونهگیری را آزمایش کنم، آیا این یک بلوک دیگر است یا میتوان آن را بهعنوان یک عامل ثابت در داخل درمان در نظر گرفت؟ پیشاپیش ممنون ~~ مارکو | آیا می توانم اثر Block را در طرح اسپلیت پلات در R آزمایش کنم؟ |
16524 | من در حال سنجش مفهومی هستم (مانند دوستی) که ماهیت چند بعدی دارد. برای دریافت ماهیت چند بعدی مفهوم، من مفهوم را از طریق چندین جنبه اندازهگیری کردهام که هر یک بر یک بخش (یا بعد) مفهوم تمرکز دارند. هر جنبه دارای چندین آیتم مقیاس لیکرت است که من آنها را با هم جمع کرده ام تا به نمرات فرعی برای این جنبه برسم. سپس تمام نمرات فرعی را اضافه کردم تا به نمره کلی مفهوم برسم. به عنوان مثال، اگر مجموع آیتم های مقیاس لیکرت برای جنبه A 6، وجه B 3 و جنبه C 4 باشد، نمره کلی مفهوم (که از A، B و C تشکیل شده است) 13 است. به این ترتیب، نمره کلی یک عدد واحد است که یک شاخص تک بعدی است. تمرکز مورد علاقه من نمره کلی است (نه امتیازات فرعی برای هر جنبه). چگونه قابلیت اطمینان ایندکس خود را آزمایش کنم؟ آیا آلفای کرونباخ در این مورد مناسب است؟ | چگونه می توان قابلیت اطمینان یک شاخص را هنگامی که شاخص از جنبه های متمایز تشکیل شده است آزمایش کرد؟ |
43061 | با شروع یک توزیع دو جمله ای با پارامترهای $n=1000، p=0.5$ و موفقیت های اندازه گیری شده 300، می خواهم آزمایش کنم که آیا تفاوت معناداری بین موفقیت و شکست وجود دارد یا خیر. راه حل واضح (با استفاده از R): n1 <- 300 n2 <- 700 p <- 0.5 binom.test(n1, n1+n2, p, alternative='two.sided') من همچنین می خواهم از شباهت دوجمله ای استفاده کنم و توزیع عادی برای تعداد زیاد مشاهدات. یک راه حل بی اهمیت ممکن است این باشد: t.test(c(rep(0, n1), rep(1, n2)), mu=p, alternative='two.sided') ویژگی های یک توزیع عادی بر اساس توزیع دو جمله ای می توان مستقیماً محاسبه کرد: mu <- (n1+n2)*p sig2 <- p*(1-p)*(n1+n2) بنابراین باید به سادگی بتوان یک آزمون تی تک نمونه ای پس از مدتی آزمون و خطا، این راه حل را دریافت کردم: t <- (n2-mu)/sqrt(sig2) p.value <- 2*abs(1-pt(abs(t)، n1+n2-1)) خوشبختانه نتایج تقریبا مشابه است. من متوجه نمی شوم که چرا آزمون t که برای مثال در ویکی پدیا بیان شده است، جایی که از $\sqrt{n_1+n_2}$ اضافی استفاده می شود، نتیجه درستی ایجاد نمی کند: t.wrong <- sqrt(n1+n2)*( n2-mu)/sqrt(sig2) چرا باید این قسمت از فرمول تست ها را حذف کنم؟ | توزیع دو جمله ای و آزمون t |
5762 | پروژه من در مورد این است که آیا نمرات اولیه زبان (در یک کار خواندن) می تواند نمرات بعدی را در یک کار اسناد اجتماعی پیش بینی کند یا خیر. من باید یک رگرسیون لجستیک برای پروژه خود انجام دهم، اما در مورد اینکه کدام یک مناسب است گیر کرده ام. این به این دلیل است که من یک رگرسیون لجستیکی باینری و چند جمله ای انجام داده ام اما همیشه هشدارهایی دریافت می کنم و نمی دانم چه کار کنم. هر کمکی بسیار قدردانی خواهد شد. فقط این است که سرپرستم به طور خاص به من دستور داده است که از یک رگرسیون لجستیک استفاده کنم، متأسفم فراموش کردم اضافه کنم که سه گروه درگیر اوتیسم، کودکان دارای اختلال زبان و معمولاً در حال رشد هستند و باید بررسی کنم که آیا نمرات زبانی کودکان اوتیستیک و کودکان دارای اختلال زبانی وجود دارد یا خیر. همچنین پیش بینی کننده مهمی برای کسب امتیاز پایین در یک وظیفه اسناد اجتماعی در زندگی بعدی هستند. لطفا در این مورد کمک کنید؟؟ | کدام رگرسیون لجستیک برای استفاده بهتر است؟ |
31400 | راهنما برای تابع pnorm بیان می کند: می گوید که pnorm تابع توزیع را می دهد، اما به نظر می رسد که کمیت را می دهد، به عنوان مثال، `pnorm(q = 0, 0, 1)`` 0.5` را برمی گرداند که نشان می دهد. که q=0 به پنجاهمین یک N(0,1) اشاره دارد. من میدانم که «تابع چگالی احتمال عادی» چیست، اما نمیدانم که چرا «pnorm» «تابع توزیع» نامیده میشود. کمک R می گوید که آرگومان «q» یک «بردار چندک» است، اما در عمل به نظر می رسد که «q» یک مقدار مشاهده شده را نشان می دهد. آنچه من می خواهم بدانم این است که اگر 2 را مشاهده کنم، pnorm(2) در مورد فرض من که از توزیع N(0,1) آمده است، چه می گوید؟ | چگونه نتایج R pnorm و توابع مشابه را تفسیر کنیم؟ |
71597 | اگر جدول من $(KV)^2$ باشد که $K$ تعداد حالت ها و $V$ تعداد متغیرها است. بنابراین، من برای هر 2 متغیر احتمال شرطی را دارم. آیا امکان یافتن توزیع مشترک برای هر یک از متغیرها وجود دارد؟ | اگر جدولی از مقادیر احتمال شرطی داشته باشم آیا می توانم مقدار توزیع مشترک را پیدا کنم؟ |
47153 | من از «caret» و «repeatedcv» با تکرار برای انتخاب ویژگی استفاده میکنم. یعنی rfeControl(functions = svmFuncs، روش = repeatedcv، عدد = 10، تکرار = 5، rerank = TRUE، returnResamp = همه، saveDetails = FALSE، verbose = TRUE) من در مورد روش `rfeControl کاملا گیج هستم ` داده های ورودی را با استفاده از تکرار تقسیم می کند. به طور کلی، اگر اشتباه نکنم، بی طرفانه ترین راه برای ارزیابی عملکرد مدل این است که: 1. ایجاد مکرر 2 زیرمجموعه (مجموعه تست و آموزش) 2. اعتبار سنجی مجموعه آموزشی (یعنی اعتبار سنجی متقابل) و مهم ترین پیش بینی کننده ها را انتخاب کنید 3. ارزیابی عملکرد با مجموعه تست مجهول در مورد rfeControl با تکرار cv و تکرار، تکرار از (1) یا اعمال می شود. در طول فرآیند اعتبار سنجی (2)؟ | انتخاب ویژگی با استفاده از caret + repeatedcv |
88203 | من داده هایی دارم که اساساً با فواصل اقلیدسی در برخی فضا مطابقت دارند. به طور خاص، من دادههای کاربر با ابعاد کاهشیافته (که با رفتار آنها اندازهگیری میشود)، و یک ماتریس فاصله در این فضای کاهش ابعاد از کاربر به کاربر دیگر دارم. من میخواهم یک «درصد شباهت» بیابم تا مشخص کنم که مثلاً کاربر A 85٪ شبیه کاربر B است. سپس میخواهم توزیع «درصد تشابه» را برای یک کاربر خاص تجزیه و تحلیل کنم. اگر من این فواصل اقلیدسی را از طریق نوعی تابع له کردن مانند سیگموئید عبور دهم، آیا می توانم این فواصل له شده را به عنوان توزیعی روی [0,1] مدل کنم؟ اساساً آنچه من میپرسم این است که با تبدیل دادههایم از طریق تابع sigmoid چه اطلاعاتی را از دست خواهم داد (در صورت وجود)؟ | استفاده از توابع له کردن برای تحمیل مرزهای محدود به داده ها |
47159 | من به دنبال راه هایی برای تجسم سری های زمانی بزرگ غیر از نمودارهای خطی دو محوره سنتی هستم. به طور خاص، من امیدوارم که راهی پیدا کنم که به طور شهودی الگوهایی را در داده ها نشان دهد، مانند رویکرد مارپیچی موجود در http://ieg.ifs.tuwien.ac.at/~aigner/teaching/ws06/infovis_ue/papers/spiralgraph_weber01visualizing. pdf در مورد من، از آنجایی که من با داده های حسگر کار می کنم تا حرکات آن ها را ردیابی کنم، روزها فاصله مناسبی هستند. یکی دیگر از مزایای استفاده از مارپیچ این است که نیازی به افزایش خطی در فضای پیکسل ندارد. ایدههای دیگر: همپوشانی دادههای چند روزه در یک محور x ۲۴ ساعته یا نمایش روزها به صورت جداگانه، شبیه به یک تقویم. آیا راه بهتری وجود دارد؟ هر راهنمایی؟ | آیا جایگزینی برای ترسیم سری های زمانی (طولانی) وجود دارد؟ |
31406 | من می خواهم تعیین کنم که آیا بین حرکت و دمای سه گروه تفاوت قابل توجهی وجود دارد یا خیر. من چهار خط رگرسیون دارم و می خواهم بدانم که آیا تفاوت قابل توجهی در شیب ها وجود دارد یا خیر. از چه تستی برای این کار استفاده می کنید؟ من در مورد ANCOVA خوانده بودم، اما اخیراً شخصی پیشنهاد کرده است که از آن استفاده نکنم. | برای مقایسه چندین خط رگرسیون از چه آزمونی باید استفاده کرد؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.