_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
1776
هدف از اجرای مجدد رگرسیون برای غنای پروانه ای 5 متغیر محیطی، نشان دادن رتبه اهمیت متغیرهای مستقل عمدتاً توسط AIC است. در مدل‌های غیر کامل، آن‌ها نشان می‌دهند که متغیر A با دلتا AIC بیشتر از بقیه تأثیرگذار است. با این حال، در مدل کامل، ضریب رگرسیون متغیر A کمی در رتبه دوم نسبت به متغیر B قرار دارد. تا اطمینان حاصل شود که متغیر A متغیری است که بیشتر وزن دارد. لطفاً پیشنهاد دهید که برای هدف مشخص شده باید به کدام معیار اعتماد کرد یا هر آزمایش دیگری باید انجام شود. متشکرم.
آیا باید به AIC (مدل غیر کامل) یا شیب (مدل کامل) اعتماد کنم؟
102902
من داده هایی دارم که شامل کلیک ها، هزینه ها، ثبت نام ها و تاریخ است. به مدت 1 هفته، هزینه تبلیغات را خاموش می کنم تا ببینم کلیک ها و ثبت نام ها چیست. هفته بعد، تبلیغات را دوباره روشن می کنم تا ببینم کلیک ها یا ثبت نام های جدید چیست. با توجه به این 2 مجموعه داده، چگونه می توانم تحلیل رگرسیون را اجرا کنم تا ببینم تبلیغات چقدر تاثیرگذار است؟ آیا باید یک تحلیل رگرسیون روی y=(signups_week2-signups_week1) و x=(spend_week2-spend_week1) اجرا کنم؟ با تشکر، جی
چگونه تجزیه و تحلیل رگرسیون را بر روی تأثیر تبلیغات انجام می دهید؟
104500
به نظر می رسد که داده کاوی و یادگیری ماشین آنقدر محبوب شده اند که در حال حاضر تقریباً هر دانش آموز CS در مورد طبقه بندی کننده ها، خوشه بندی، NLP آماری ... و غیره می داند. بنابراین به نظر می رسد که امروزه یافتن داده کاوی کار سختی نیست. سوال من این است: مهارت هایی که یک داده کاوی می تواند بیاموزد که او را از دیگران متمایز می کند چیست؟ تا او را تبدیل به فردی نه چندان آسان برای یافتن شخصی شبیه او کنیم.
یافتن مهارت‌هایی در زبان‌آموزان ماشینی سخت است؟
105678
من نیمی از حداکثر غلظت موثر (EC50) سه ساختار مختلف RNA را اندازه‌گیری کردم و می‌خواهم آزمایش کنم که آیا آنها از نظر آماری معنی‌دار هستند یا خیر. از کدام تست استفاده کنم؟
برای آزمایش تفاوت بین 3 vaule
57627
> از یک آزمایشگاه خواسته شده است تا این ادعا را ارزیابی کند که آب آشامیدنی در رستوران محلی دارای غلظت سرب 6 قسمت در میلیارد (ppb) است. اندازه گیری های مکرر از توزیع نرمال پیروی می کنند و استاندارد جمعیت > انحراف 0.25 ppb در نظر گرفته می شود. α = 0.01. > > • نمونه ای از سه اندازه گیری گرفته شده و به دست می آید: 6.79; 6.13; 7.17 > > 1. آیا شواهدی وجود دارد که نشان دهد غلظت سرب > با ppb 6 متفاوت است؟ > این یک سوال تکلیف است که من واقعاً درگیر آن هستم، بنابراین اگر کسی بتواند من را در مسیر درست راهنمایی کند، عالی خواهد بود. من متوجه شدم که این یک سوال آزمون فرضیه است و فرضیه صفر این است که μ = 6 ppb است در حالی که جایگزین این است که µ برابر با ppb 6 نیست. با این حال، من واقعاً نمی دانم با سه اندازه گیری نمونه چه کنم. ** آیا میانگین سه رقم را به دست می‌آورم یا از هر کدام در یک آزمون فرضیه جداگانه استفاده می‌کنم؟**
آزمون فرضیه
102907
من می خواهم وجود یک عبارت تعاملی را در یک رگرسیون لجستیک با glm() آزمایش کنم. فرمول این است: Gest.hypertension ~ ART.conc + Parity + Age + Smoke + Nulliparity + Syst.disease.type با سن تنها متغیر پیوسته و بقیه طبقه بندی می شوند. اصطلاح تعامل ART.conc (2 سطح) x برابری (3 سطح) است که متغیرهای مورد علاقه نیز هستند. من دو راه برای نمایش تعامل در glm(); * با تعریف صریح ART.conc * برابری، که هر دو اثر ساده و تعامل ایجاد می کند. * با ایجاد یک متغیر مصنوعی جدید با تعامل (ART.conc، Parity) و اضافه کردن اصطلاحات ساده. این نتایج، با حذف سایر متغیرهای کنترل (OR و مقدار p ارائه شده): model1: Gest.hypertension ~ ART.conc * Parity + ... ART.conc->yes 3.35 0.073 . Parity->2 7.15 0.001 ** Parity->3 38 <0.001 *** ART.conc->yes:Parity->2 0.262 0.054 . ART.conc->yes:Parity->3 0.0532 0.009 ** * * * model2: Gest.hypertension ~ interaction(ART.conc، Parity) + ART.conc + Parity + ... تعامل (ART.conc، Parity) -> بله. 1 3.35 0.072590 . تعامل (ART.conc، برابری)-> no.2 7.15 0.001206 ** تعامل (ART.conc، Parity)->yes.2 6.26 0.002698 ** تعامل (ART.conc، Parity)-> no.3 38.05 0.00020 ** تعامل (ART.conc، برابری) -> بله. 3 6.78 0.011071 * ART.concyes NA NA Parity2 NA NA Parity3 NA NA بنابراین این دو مدل کم و بیش نتایج یکسانی را ارائه می دهند که یکی از دو عبارت صفر است و اشکالی ندارد. من در درک اینکه چه اتفاقی افتاد وقتی این دو عبارت با صفر متفاوت هستند مشکل دارم. به عنوان مثال در مدل دوم که برابری == 2 را حفظ کرده و ART.conc را از no به yes منتقل می کنیم، از OR 7.15 به 6.26 عبور می کنیم. در عوض، با اعمال آنچه از رگرسیون ها و تعاملات لجستیک فهمیدم، ضریب مورد (ART.conc، Parity)->yes.2 باید $OR_{parity.2}*OR_{art.yes:parity.2} باشد. = 1.87$$ بسیار متفاوت از 6.26... بنابراین، من می خواهم بدانم چه چیزی را از دست داده ام و از کدام یک از مدل ها استفاده کنم. با تشکر به روز رسانی!!! با تشکر از @gavin simpson پاسخ من فکر کردم که مشکل را حل کردم و ترفند ()interaction را کنار گذاشتم. اما بعد متوجه یک خطای خیلی احمقانه از خودم شدم. گفتیم که برای تفسیر تعامل، شما $$OR_{simple.eff}*OR_{interaction.eff}$$ را انجام دهید، مثلاً مورد ART.yes/Parity.2 را در نظر بگیرید. من گفتم که برای محاسبه اثر متقابل ART بر برابری با روش کلاسیک باید $$OR_{art.yes}*OR_{art.yes:parity.2} ≈ 3.35*0.262 ≈ 0.87$$ را انجام دهید، اما اگر شما انجام $$OR_{parity.2}*OR_{art.yes:parity.2} ≈ 7.15*0.262 ≈ 1.87$$ من از این نابرابری ناراحت شدم. من به عددی نیاز دارم که بتواند خطر کلی آسیب شناسی را در مورد فوق توضیح دهد، و در عوض دو عدد دریافت کردم که نمی دانستم چگونه توصیف کنم. در تلاش برای حل این مشکل متوجه خطای خود شدم. برای محاسبه افکت کلی، ضرب یک افکت ساده برای افکت تعامل کافی نیست، بلکه باید افکت ساده دیگر را نیز اضافه کنید! $$OR_{simple.eff.1}*OR_{simple.eff.2}*OR_{interaction.eff}$$ یا $$OR_{art.yes}*OR_{parity.2}*OR_{art.yes :parity.2} ≈ 3.35*7.15*0.262 ≈ 6.26$ 6.26$ یکسان است یا برای «تعامل(ART.conc، Parity)->yes.2» که با استفاده از ترفند تعامل تولید می‌شود. بنابراین، با استفاده از interaction()، با گزینه «drop=T» و قرار ندادن افکت‌های ساده به خودی خود (برای جلوگیری از NA)، می‌بینید که مدل 1 و مدل 2 نتایج یکسانی دارند، با مدل دو شامل موارد قبلی. اثر محاسبه شده از تعامل
تعامل در مدل های لجستیک با R. استفاده از عملگر * یا ایجاد یک متغیر تعاملی؟
30903
من با مفهوم همگرایی آشنا هستم. اما گاهی اوقات می‌شنوم که مردم در مورد هم خطی (یا هم خطی) برای سری‌های زمانی صحبت می‌کنند. مجموعه ای از نقاط اگر در یک خط باشند، خطی هستند. اما این برای سری های زمانی چه معنایی دارد؟ آیا دقیقاً مشابه هم انباشتگی مرتبه 1 است؟ یا چیزی قوی تر/متفاوت در مفهوم هم خطی وجود دارد؟
این به چه معناست که دو سری زمانی خطی هستند؟
15428
من در حال ایجاد برنامه ای هستم که داده های روزانه کاربران من را ثبت می کند. داده ها شامل: * دور کمر، وزن (داده های کمی) * شرایط خاصی مانند پسوریازیس، میگرن، خستگی (داده های کیفی رتبه بندی شده از 1 تا 5). نمایش نمودارها برای هر نهاد نسبتاً آسان است. * چگونه می توانم هر دو داده را بگیرم و نمودار/نمودار بهبود کلی را بر اساس هر روز نشان دهم؟ * کدام نوع نمودار/نمودار در این شرایط کار می کند؟ من از نمودارهای گوگل برای تجسم داده هایم استفاده خواهم کرد (یعنی این گالری نمودارهای گوگل را ببینید).
چگونه می توان بهبود کمی و کیفی را در معیارهای مرتبط با سلامت انسان نمودار کرد؟
4914
در یک مجموعه داده با هزاران نقطه داده، من خروجی های داده های کوتاه مدت و بلندمدت مختلف را بر اساس 5 نقطه داده چرخشی تا 100 نقطه داده چرخشی (که هر مقدار یک ستون جداگانه در اکسل است: 5، 6) آزمایش می کنم. ،...، 100). آزمایشی که من ایجاد کردم (با دانش ابتدایی از کل چیز) این است که بررسی کنم که کدام یک از این خروجی های داده های چرخشی (مثل میانگین های متحرک، اما نه کاملاً) بهتر هستند، به عبارت دیگر، اگر ستون 5، 17 یا 98 باشد. در تئوری، برازش بهتر باید انحراف استاندارد کمتری را در محاسبات مرسوم ایجاد کند. یک قیاس برای درک بهتر چیزی شبیه به این است: اگر میانگین متحرک 5 نقطه ای را روی موج گناه پنج دوره ای انجام دهم، خروجی باید صفر یا مسطح باشد، برای میانگین متحرک 6 نقطه ای روی موج گناه دوره 6 یکسان است، و به همین ترتیب. در تمام مسیر تا 100. این همان است که می گویند انحراف معیار در هر مورد باید صفر باشد. بنابراین آزمون واقعاً انتخاب کمترین انحراف استاندارد در هر ستون از 5 تا 100 است، که سپس باید بهترین تناسب را ارائه دهد (برای بازگشت به قیاس، متناسب با موج گناه). با این حال، همانطور که افراد متمایل به آمار به سرعت متوجه می شوند (می ترسم که مطمئناً یکی از آنها نباشم)، این روش دو مشکل عمده دارد: 1. مجموعه داده های طولانی تر، یعنی نزدیک تر به 100 نقطه داده چرخشی، انحرافات مطلق بزرگتری دارند، بنابراین تولید می کنند. انحرافات استاندارد بالاتر بنابراین انحراف استاندارد کمتر در سری داده‌های کوتاه‌تر ممکن است نشان‌دهنده «برازش بهتر» نباشد، فقط انحراف مطلق کمتر. 2. هر ستون دارای تعداد متفاوتی از نقاط داده های چرخشی است، بنابراین یک بار دیگر اعداد و تناسب آماری ممکن است بین ستون ها قابل مقایسه نباشد. بنابراین سوال من این است: آیا معیار آماری بهتر از انحراف معیاری که در بالا استفاده کردم وجود دارد، به طوری که به انحرافات مطلق و تعداد نقاط داده حساس نباشد؟ با تشکر
ایجاد یک آزمون آماری برای تعیین برازش بهتر
102906
رگرسیون چندکی از طریق رویکرد بهینه‌سازی تعریف می‌شود. اما من نمی دانم عملکرد $\rho_{\tau}(u)$ چگونه با کمیت $\tau$-ام مرتبط است. یا به عبارت دیگر، چگونه معادله $\tau$-امین چندک نمونه $=argmin \sum\rho_{\tau}$ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur. com/DuRiO.jpg)
با توجه به رگرسیون چندکی از طریق رویکرد بهینه سازی
113108
فرض کنید من دو متغیر عادی مستقل $X$ و $Y$ با میانگین و واریانس شناخته شده دارم. با تعریف $Z = X+Y$، ساده ترین راه برای محاسبه $\mathbb{E}\left[X|Z\right]$ چیست؟ من در حال نوشتن \begin{align} \mathbb{E}\left[X|Z\right] & = \int_x x f_{X}(x|Z=z) \mathrm{d}x \\\ & = \ هستم int_x x \frac{f_{XZ}(x,z)}{f_Z(z)} \mathrm{d}x \\\ & = \int_x x \frac{f_{Y}(z-x)f_X(x)}{f_Z(z)} \mathrm{d}x, \\\ \end{align} اما مطمئن نیستم بهترین (و تنها؟) راه است یا نه این است که این عبارت را با استفاده از دانش ما در مورد pdf محاسبه کنیم. با تشکر
انتظار مشروط $X$ با توجه به $Z = X + Y$
34839
من آزمودنی هایی دارم که به سوالات پاسخ می دهند، داده ها کمی خواهد بود. سوالات را می توان با دو عامل که دو سطح دارند به چهار دسته تقسیم کرد. برای هر سوال یک عامل A، B، A و B یا هیچ کدام فعال هستند. بنابراین هر آزمودنی به یکی از این چهار سوال پاسخ می دهد. من علاقه مندم که عوامل A و B چگونه روی پاسخ تاثیر می گذارند. بنابراین، این شبیه آزمایش فاکتوریل 2x2 است، اما داده ها جفت هستند، به این معنا که هر آزمودنی به هر چهار سوال پاسخ داده است. آیا پیشنهادی برای تست های آماری دارید که بتوانم از آنها استفاده کنم؟ آیا می دانید قبلاً با چنین موقعیت هایی چگونه برخورد شده است؟ ویرایش: متوجه شدم که طراحی اقدامات تکراری ممکن است مرتبط باشد.
داده های جفت شده / اندازه گیری های مکرر در آزمایش 2x2
113102
من یک مدل پیش‌بینی دارم که در حال توسعه آن هستم که از برخی داده‌های ورودی بسیار غیرقابل اعتماد استفاده می‌کند، داده‌های از دست رفته (به دلیل نقص سنسورها یا comms) یک قانون است، نه یک استثنا. کمیت پیش‌بینی‌شده میانگین روزانه در یک منطقه است، بنابراین میانگین تمام اندازه‌گیری‌های ساعتی از همه حسگرها. این پیش‌بینی درست قبل از هر روز مرز توسط یک پیش‌بینی‌کننده انسانی، با کمک یک مدل انجام می‌شود (من در حال کار بر روی بهبود مدل موجود خود هستم). اکنون، بخش اصلی مدل تاریخچه اخیر میانگین‌های روزانه را در نظر می‌گیرد و از تکنیک‌های پیش‌بینی سری زمانی نسبتاً استاندارد برای پیش‌بینی روز بعد استفاده می‌کند. این به خوبی کار می کند، اما به خوبی شناخته شده است که چند ساعت آخر هر روز به ویژه پیش بینی کننده های قوی ارزش روزهای بعدی هستند و پیش بینی کنندگان انسان مدتی است که از این دانش استفاده می کنند. به منظور ادغام آن تکنیک در مدل، پیش‌بینی سری‌های زمانی ارزش روزانه را می‌گیرم و آن را با چند ساعت آخر داده‌ها برای روزی که تازه به پایان می‌رسد ترکیب می‌کنم، سپس وزن‌های هر یک از اینها را برای پیش‌بینی میانگین وزنی مجموعه آموزش می‌دهم (I بهینه سازی بیش از RMSE). با ثابت بودن وزن مدل روزانه در واحد، مجموع وزن مدل ساعتی معمولاً به حدود 0.5-0.8 یا بیشتر می رسد. من وزن‌ها را هر روز با استفاده از داده‌های 100 روز اخیر مجدداً آموزش می‌دهم زیرا در هر سنسور سوگیری‌هایی وجود دارد (به دلیل فیزیک اساسی سیستم و همچنین مشکلات حسگر) که در طول زمان تغییر می‌کنند. دلیل اینکه من از یک میانگین وزنی استفاده کردم و نه از تکنیک های قوی تر دیگر به دلیل داده های از دست رفته است. در بیشتر روزها حدود 5 تا 10 درصد از داده‌های حسگر هنگام انجام پیش‌بینی از دست رفته است (اما نه همان 5 تا 10 درصد در هر روز). من متوجه شدم که یک میانگین وزنی باید در این مورد قوی باشد، با وزن‌ها (امیدوارم) با قدرت پیش‌بینی نسبی هر مدل مطابقت داشته باشد. حالا، این خیلی خوب کار کرد، با این حال فکر می‌کردم می‌توانم بهتر انجام دهم. با دانستن اینکه داده‌های ساعتی دارای سوگیری‌های منحصربه‌فرد (اما پیشینی ناشناخته) هستند، فکر کردم می‌توانم یک مدل خطی ساده برای هر ساعت برای هر ایستگاه با استفاده از داده‌های 100 روز گذشته برای آن ایستگاه و ساعت به‌عنوان متغیر مستقل و روزانه استفاده کنم. میانگین روز بعد به عنوان متغیر وابسته. سپس پیش‌بینی‌ها را از هر یک از این مدل‌های بسیار ساده می‌گیرم، پیش‌بینی‌های مبتنی بر مدل روزانه را درج می‌کنم و میانگین وزنی آن‌ها را می‌گیرم. به عبارت دیگر به جای استفاده از داده های خام ساعتی، از مدلی استفاده می کنم که با استفاده از آن داده ها آموزش دیده است. این مطمئناً نتیجه بهتری خواهد داشت. اما نه، پیش‌بینی میانگین وزنی در این مورد ضعیف‌تر عمل می‌کند. من به سادگی نمی توانم بفهمم چرا. من بررسی کردم و برای میانگین وزنی نشده، با استفاده از پیش‌بینی‌های مدل‌های خطی، نتیجه بهتری به دست می‌آید (همانطور که انتظار دارید) اما وقتی وزن‌ها را آموزش دادم، مدلی که فقط از داده‌های خام استفاده می‌کند بهتر عمل می‌کند. جالب است که متوجه شدم در مورد پیش‌بینی‌کننده‌های مدل خطی، بیشتر وزن‌ها (معمولاً حدود 60 تا 70 درصد آنها) در بهینه‌سازی روی صفر ثابت می‌شوند، در حالی که برای رویکرد داده‌های خام کمتر از 50 درصد روی صفر ثابت می‌شوند (I من از کمینه سازی L-BFGS-B استفاده می کنم [در هر کسی که علاقه مند است]). در واقع این واقعیت بود که تعداد زیادی در مورد داده های خام به صفر ثابت شدند که باعث شد من رویکرد تناسب خطی را امتحان کنم. من متوجه شدم که سنسورهای با سوگیری بد نادیده گرفته می شوند و اگر تعصب را برطرف کنم، شاید بتوانم به طور معناداری کمک کند. مطمئن نیستم که کار کمی احمقانه انجام می دهم یا اینکه مفهومی اساسی وجود دارد که ممکن است این را توضیح دهد. چه زمانی ممکن است انتظار داشته باشید که یک پیش‌بینی گروه با مدل‌های ورودی بدتر عملکرد بهتری داشته باشد؟
مدل گروه عملکرد بهتری با مدل های تشکیل دهنده بدتر دارد؟
6835
بهترین مدل های کمی برای تشخیص روند کدامند؟ یعنی روند بازار
مدل‌های کمی تشخیص روند
113106
من سعی می کنم ریسک، واریانس و انحراف معیار را در یک بازه زمانی $T$ اندازه گیری و کمی کنم. به دو زیر دوره $t_1$ و $t_2$ تقسیم می شود. $X_1$ سری زمانی برای $t_1$ است و $X_2$ سری زمانی برای $t_2$ است که $t_1+t_2=T$ است. می‌توان فرض کرد که $X_1$ و $X_2$ سری‌های زمانی فرعی یک سری زمانی طولانی‌تر هستند. تنها چیزی که می دانم این است که واریانس ها در دو دوره زمانی فرعی عبارتند از: $S_1$ برای $t_1$ و $S_2$ برای $t_2$. ما نمی دانیم که $X_1$ و $X_2$ چیست. من می‌خواهم واریانس را در کل دوره زمانی $T$ پیدا کنم اگر $S_1$ واریانس دوره زمانی $t_1$ باشد، و $S_2$ واریانس برای دوره زمانی $t_2$، و $t_1 + t_2 =T$ باشد. . منطق من تاکنون: اگر $S_1=S_2=S$، واریانس بیش از $t_1$ و $t_2$ به ترتیب $S_1t_1$ و $S_2t_2$ است. از آنجایی که $S_1=S_2$، به سادگی $S_1T$ به صورت $t_1+t_2=T$ می شود. انحراف استاندارد در طول دوره زمانی $S\sqrt{T}$ است (هر دو عبارت را مربع می‌کنیم و اضافه می‌کنیم، سپس دوباره جذر را می‌گیریم). اگر $S_1$ و $S_2$ یکسان نیستند، فرمول انحراف معیار است: $$ s_T=\sqrt{S_1t_1 + S_2t_2 + 2\sqrt{t_1t_2}{\rm Cov}(X_1, X_2)} $ $ یا اضافه کنم که انگار یک نمونه کار است، که نتیجه آن این است: $$ s_T=\sqrt{\frac{S_1t_1^2}{T^2} + \frac{S_2t_2^2}{T^2} + \frac{2t_1t_2}{T^2}{\rm Cov}(X_1, X_2 )} $$ که در آن $s$ انحراف معیار است؟ به من گفته شده است که از جذر زمان برای تغییر دوره های زمانی برای انحراف معیار استفاده کنم. با این حال، اگر سری زمانی را به عنوان یک نمونه کار با وزن‌های $t_1/T$ و $t_2/T$ در نظر بگیریم، آنگاه وزن‌ها از نظر واریانس جذر زمان نیستند، بلکه فقط وزن‌های زمانی مستقیم هستند که در نمونه کارها وجود دارد. فرمول ریسک: $$ s_p=\sqrt{\frac{S_1h_1^2}{H^2} + \frac{S_2h_2^2}{H^2} + \frac{2h_1h_2}{H^2}{\rm Cov}(X_1, X_2)} $$ where $\frac{h_1}{H}+\frac{h_2}{H}=1$ امیدوارم این موضوع روشن شود من می پرسم. آیا کسی می تواند به من توضیح دهد که چگونه در این مورد فکر کنم؟ آیا با مجذور زمان واریانس اضافه کنم یا فقط زمان؟
آیا واریانس های سری زمانی افزودنی هستند؟
113105
من در تلاش برای درک بهتر معیار Gelman/Rubin برای همگرایی MCMCها هستم. این روش با تعریف دو کمیت شروع می شود: $B$ و $W$. گفته می شود که $B$ واریانس بین زنجیره است (به طور معمول زنجیره های $m$ به صورت موازی اجرا می شوند) و $W$ میانگین واریانس درون زنجیره ای است. من $W$ را درک می کنم - این صرفاً میانگین تمام واریانس ها در هر یک از زنجیره های جداگانه است. به نظر می رسد که $B$، در نگاه اول، میانگین انحراف را در تمام زنجیره های میانگین آنها از میانگین کلی اندازه گیری می کند. با این حال، $B$ در $n$ ضرب می شود - حجم نمونه - که من کاملاً متوجه نمی شوم. متون می گویند که این به این دلیل است که در هر زنجیره $n$ امتیاز وجود دارد، با این حال، من امیدوار بودم که کسی بتواند شهود کمی در اینجا ارائه دهد؟ علاوه بر این، $W$ با $B$ در یک میانگین وزنی ترکیب می شود، به طوری که وزن $W$ $(n-1)/n$ است، و وزن $B$ به سادگی $(1/n)$ است. . سپس این مقدار معمولاً به $W$ تقسیم می‌شود و جذر آن گرفته می‌شود. اگر $B$ برابر $W$ باشد، می توانم ببینم که این نسبت 1$ است. با این حال، نمی‌دانم که چگونه این نسبت برای اندازه‌های نمونه نسبتاً بزرگ از 1 دلار دور می‌شود. باید اینطور باشد که $B>>W$، بخشی از آن را می توانم درک کنم که آیا زنجیره ها در ابتدا بیش از حد پراکنده شده اند. با این حال، این واقعیت که $B$ در $(1/n)$ ضرب می‌شود، به نظر می‌رسد که این بخش از میانگین وزنی باید با سرعتی سریع ناپدید شود، حتی اگر $B$ بزرگ باشد. اساساً، فکر می‌کنم سؤال من می‌تواند به صورت زیر خلاصه شود: «چرا این اندازه‌گیری همگرایی معقول است؟ با توجه به اینکه با بزرگ شدن $n$، ceteris paribus، نقشی که واریانس بین زنجیره ای بازی می کند کوچکتر به نظر می رسد.
درک اندازه گیری همگرایی شبیه سازی های MCMC
83531
من یک سوال در مورد انتساب چندگانه دارم که در آن یک متغیر مجموع چندین زیر گروه است. من تقریباً 5 متغیر با سطح گم شدن قابل توجهی دارم. با این حال من یک متغیر ششم دارم که مجموع 5 زیر گروه است و مشاهدات بسیار کمتری را از دست داده است. برای ارائه ایده ای از ساختار داده: sg1 sg2 sg3 sg4 sg5 مجموع NA NA NA NA NA 30000 5000 20000 10000 4000 6000 45000 آیا روش خاصی برای انتساب اقشار مانند این وجود دارد؟ من از R استفاده می کنم، بنابراین اگر توصیه خاصی برای R دارید، از آن نیز سپاسگزار خواهم بود. با تشکر
Imputation چندگانه و داده های دو سطحی
57628
من گاهی اوقات می بینم که تابع هزینه به همراه تنظیم کننده بر 1/2 متر تقسیم می شود که m تعداد نمونه ها است. وقتی می‌خواهیم حداقل هزینه را پیدا کنیم، چرا مقیاس‌گذاری با این مقدار اهمیت دارد؟ در جایی که حداقل است تأثیری ندارد. مثال: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/V54zN.png)
چرا تابع هزینه رگرسیون لجستیک با تعداد نمونه ها مقیاس بندی می شود؟
41114
من یک مجموعه داده دارم که حاوی حدودی است. 11 میلیون نمونه، که همه آنها را می توان به عنوان کلاس A یا B برچسب گذاری کرد. من به طور پیشینی می دانم که تقریباً. 1000 مورد از این نمونه ها متعلق به کلاس A هستند و بقیه کلاس B هستند. اما هیچ یک از نمونه ها در واقع برچسب گذاری نشده اند. بنابراین، من می‌خواهم بتوانم از این 11 میلیون نمونه نمونه‌برداری کنم و احتمال اینکه نمونه‌ام حاوی نمونه‌ای از کلاس A باشد را بدانم. برای مثال: اگر 30000 نمونه تصادفی بدون جایگزینی از 11 میلیون نمونه (که i.i.d هستند) بگیرم. ، احتمال اینکه نمونه من دارای نمونه ای از کلاس A باشد (اندازه 1000 نمونه) چقدر است؟ آیا این حتی قابل محاسبه است؟ همچنین آیا این امکان برای من وجود دارد که تقریباً چند نمونه از کلاس A در این نمونه (برای اندازه های مختلف نمونه) وجود داشته باشد؟ آیا فرمولی وجود دارد که بتوانم مقادیر خود را به سادگی به آن وصل کنم؟ پوزش می طلبم اگر این مشکل ساده به نظر می رسد، اما آمار هرگز نقطه قوت من نبوده است. این یک تکلیف نیست، بلکه یک مشکل کاری است. من سعی می کنم یک مجموعه آموزشی از دامنه ای خارج از دامنه خودم بسازم که به موجب آن باید شیوع کلاس A را در مجموعه آموزشی خود به حداقل برسانم. کلاس A نمونه‌های مثبتی هستند که باید حذف شوند - متأسفانه زمانی که داده‌ها برای اولین بار پردازش شدند، برچسب‌های داده کنار گذاشته شدند:-/. سال ها طول می کشد تا آنها را به صورت دستی برچسب گذاری کنید و حتی این فرآیند مستعد خطای انسانی است! با تشکر به‌روزرسانی: برای کسانی که مشکل مشابهی دارند، روش‌هایی را در کتابخانه ریاضیات Apache Commons برای محاسبه دوجمله‌ای و مهم‌تر از آن توزیع Hypergeometic یافتم که مفید است. دستور hyper() موجود در R (پیشنهاد شده توسط @whuber) نیز بسیار مفید بود. مطمئنا توصیه می شود. به عنوان مثال برای تولید یک نمودار می توانید از این موارد استفاده کنید: plot(dhyper(0:10,1000,11000000-1000,30000),type=b,xlab=x label,ylab=y label, main= عنوان) جایی که 0:10 محدوده است. 1000 تعداد تیله های مثبت در کوزه است. 11000000-1000 تعداد تیله های منفی در کوزه است. 30000 تعداد تساوی است. با این کار یک نمودار با خطوط و نقاط که نوع b است تولید می شود. انواع دیگر به صورت آنلاین توضیح داده شده اند (من پیوندهای بیشتری را پست می کنم، اما با چنین شهرت پایینی نمی توانم). بازم ممنون از کمک همه
نحوه محاسبه احتمال برای n رویداد وابسته
113107
من این تصور را داشتم که هموارهای متناسب با «mgcv» از طریق یک محدودیت مجموع به صفر قابل شناسایی هستند - یعنی اگر قرار باشد یکنواخت را بر روی مقادیر متغیرهای کمکی آن جمع کنیم، برابر با صفر خواهد شد. این سوال با پاسخی عالی از @Gavin Simpson، پیشینه ای را ارائه می دهد. به نظر می‌رسد که با Single smooths چنین است: set.seed(1234); dat <- gamSim(4); mod1<-gam(y ~ s(x1)+s(x2), data=dat) p<-predict(mod1,dat,type=terms) sum(p[,1]) #[1] -8.729996 e-16 sum(p[,2]) #[1] -4.956868e-12 اما زمانی که یک هموار با یک عامل تعامل داشته باشد، این دیگر مورد آیا این یک اشتباه در درک من است یا چیز دیگری در حال وقوع است؟ mod2<-gam(y ~ s(x2، by=fac)، data=dat) p<-predict(mod2,dat,type=terms) head(p) sum(p[,1]) #[1 ] 1.923649 sum(p[,2]) #[1] 6.496321 sum(p[,3]) #[1] 45.36179
تعامل فاکتور GAM با محدودیت جمع تا صفر
105672
من می خواهم یک آنالیز توان برای آزمون t-test 2 نمونه ای برای تفاوت میانگین ها انجام دهم. با این حال، به جای محاسبه حجم نمونه مورد نیاز، می خواهم تفاوت مورد نیاز را در میانگین با توجه به حجم نمونه محاسبه کنم. حجم نمونه در $n=34$ (یعنی 17 در هر گروه) ثابت شده است. به دلایل مختلف امکان افزایش حجم نمونه وجود ندارد. بنابراین، از من خواسته شد تا یک تحلیل توانی برای تعیین اختلاف میانگین مورد نیاز انجام دهم. محقق می خواهد تعیین کند که آیا حتی انجام مطالعه ارزش دارد یا اینکه تفاوت مورد نیاز برای دستیابی به آن خیلی بزرگ و غیر واقعی است. برای یک خطای نوع اول و قدرت، می توانم اندازه اثر مورد نیاز را محاسبه کنم. اگر انحراف معیار را در هر دو گروه (از مطالعات قبلی) بیشتر فرض کنم، به راحتی می توانم تفاوت مورد نیاز را محاسبه کنم. با این حال، من نمی دانم که آیا این معقول است یا آیا مشکلاتی وجود دارد که من با این رویکرد از دست داده ام.
محاسبه توان؛ تعیین تفاوت مورد نیاز در میانگین
6912
من با پست Post-hoc Pairwise Comparisons of Two-way ANOVA (در پاسخ به این پست) آمدم که موارد زیر را نشان می دهد: dataTwoWayComparisons <- read.csv(http://www.dailyi.org/blogFiles/RTutorialSeries /dataset_ANOVA_TwoWayComparisons.csv) model1 <- aov(StressReduction~Treatment+Age, data =dataTwoWayComparisons) summary(model1) # درمان signif pairwise.t.test(dataTwoWayComparisons$Stress Reduction, dataTwoWayComparisons$Treatment, p.adj = none pairwiseTwoWay#key درمان) # روان-پزشکی جفت نشانه است. (خروجی در زیر پیوست شده است) لطفاً کسی می تواند توضیح دهد که چرا Tukey HSD می تواند یک جفت قابل توجه پیدا کند در حالی که آزمون t-paired (pvalue تنظیم نشده) در انجام این کار شکست می خورد؟ با تشکر * * * در اینجا خروجی کد است > model1 <- aov(کاهش استرس~درمان+سن، داده =dataTwoWayComparisons) > خلاصه(model1) # درمان معنادار است 0.0004883 *** سن 2 162 81.000 99 1e-11 *** باقیمانده 22 18 0.818 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 > > pairwise.t.test(dataTwoWayComparisons$StressReduction, dataTwoWayComparisons$Treatment, p.adj = none) مقایسه با استفاده از آزمون t با داده های SD ادغام شده: dataTwoWayComparisons$Stress Reduction و dataTwoWayComparisons$Treatment روانپزشکی روانی 0.13 - فیزیکی 0.45 0.45 P روش تنظیم مقدار: هیچکدام > # بدون جفت علامت > > TukeyHSD(model1، درمان) مقایسه چندگانه توکی از میانگین 95% سطح اطمینان خانواده-Family-wise aov(فرمول = کاهش استرس ~ درمان + سن، داده = dataTwoWayComparisons) $Treatment diff lwr upr p adj mental-medical 2 0.92885267 3.07114733 0.0003172 فیزیکی-پزشکی 1 -0.07114733 فیزیکی-پزشکی 1 -0.07114733 2.03230-2.03230-2.0710. -2.07114733 0.07114733 0.0702309 > # mental-medical جفت نشانه است.
چگونه یک آزمون Tukey HSD می تواند از مقدار P تصحیح نشده t.test مهم تر باشد؟
15729
20 نفر هستند که برای یک کار خاص در 3 روز متوالی آزمایش می شوند. iid محسوب می شوند. این نتایج در یک بردار 60 عنصری ذخیره می شوند. آزمایش مشابهی در 3 روز متوالی برای یک کار متفاوت وجود دارد که شامل همان 20 نفر است که یک بردار 60 عنصری را تولید می کنند. من می خواهم انتخاب کنم که کدام بردارها جالب تر هستند. هر ویژگی جالبی مفید خواهد بود. کاری که من انجام دادم تولید و تجمیع (مجموع کل) هر بردار و رتبه بندی آنهاست. به طور موثر 3 نقطه داده وجود دارد که چندین آزمایش وجود دارد. هر بردار دارای مقادیر قابل مقایسه است و نیازی به نرمال‌سازی و غیره ندارد. من نمی خواهم یک تحلیل آماری بسیار گسترده انجام دهم، چیزی نسبتاً اساسی برای استخراج اطلاعات در حال حاضر.
متریک برای مقایسه متقابل بردارهای چند مقدار برای چند برچسب کلاس
102903
یکی از ویژگی های PCA بیان می کند که مجموع واریانس های اجزای اصلی برابر با مجموع واریانس های متغیرهای توضیحی است. من نمی دانم که چگونه این را تفسیر کنم، زیرا من همیشه فکر می کردم که $X$ را به عنوان متغیرهای تصادفی در نظر نمی گیریم. من با نظریه احتمالات کاملاً تازه کار هستم و باید آن را مستقیم بیان کنم: ** آیا متغیرهای توضیحی متغیرهای تصادفی هستند (یا آنها را ثابت در نظر می گیریم)؟** و اگر آنها را تصادفی در نظر نگیریم، چگونه می توان آنها را اعمال کرد. عملگر واریانس به متغیری که تصادفی نیست؟
آیا متغیرهای توضیحی در PCA تصادفی در نظر گرفته می شوند؟
34832
من سعی می کنم مقدار صحیح واریانس توضیح داده شده توسط هر حالت تحلیل تابع متعامد تجربی (EOF) (شبیه به PCA) را همانطور که در مجموعه داده های گپی اعمال می شود، تعیین کنم. (یعنی حاوی NaNs). سؤال زیر بر اساس سؤال قبلی است که من در مورد نتایج متفاوت به‌دست‌آمده از تجزیه ماتریس کوواریانس مجموعه داده با استفاده از «ویژن» یا «svd» داشتم. در اصل، مشکل این است که من خوانده ام که هر دو تجزیه را می توان به جای یکدیگر برای به دست آوردن EOF از یک ماتریس کوواریانس مربع استفاده کرد. به نظر می‌رسد که این مورد زمانی است که مجموعه داده‌ها شکاف نداشته باشند (همانطور که در زیر نشان داده شده است): ### مجموعه داده‌های کامل و گپی را بسازید.seed(1) x <- 1:100 y <- 1:100 گرم <- expand.grid(x=x، y=y) #داده کامل z <- ماتریس(rnorm(dim(grd)[1])، طول(x)، طول(y)) تصویر(x،y،z، col=رنگین کمان(100)) #گاپی داده zg <- جایگزین(z، نمونه(seq(z)، طول(z)*0.5)، NaN) تصویر(x،y،zg، col=rainbow(100)) ###تجزیه ماتریس کوواریانس #داده کامل C <- cov(scale(z), use=pair) E <- eigen(C) S <- svd(C) #جمع لامبدا مجموع(E$values) sum(S$d) sum(Diag(C)) مجموع لامبدا در ویجن و svd برابر است با مجموع قطر ماتریس کوواریانس تا اینجا خیلی خوب - هر دو روش مقدار صحیح واریانس را توضیح می دهند. مثال بعدی همان روال را برای یک نسخه gappy از مجموعه داده (50% `NaN`s) انجام می دهد: #gappy data (50%) Cg <- cov(scale(zg), use=pair) Eg <- eigen(Cg) Sg <- svd(Cg) #جمع جمع لامبدا(Eg$values) sum(Sg$d) sum(diag(Cg)) و در اینجا می بینیم که مقادیر لامبدا محاسبه شده توسط svd بزرگتر از مجموع قطر ماتریس کوواریانس است. آنهایی که با «ویجن» محاسبه می شوند برابر هستند. با این حال، از آنجایی که ماتریس کوواریانس دیگر قطعی مثبت نیست، برخی از مقادیر لامبدا منفی وجود دارد. در سوال قبلی خود نشان دادم که این تمایل با افزایش شکاف بیشتر می شود. بنابراین، من می‌توانم در صورت لزوم با آن زندگی کنم، اما اکنون نگران این هستم که چگونه به درستی تعیین کنم که چه مقدار از واریانس مجموعه داده توسط هر EOF توضیح داده شده است. این باید lambda/sum (lambda) باشد. وقتی من واریانس توضیح داده شده تجمعی EOF ها را رسم می کنم، مشکل را خواهید دید - چون تجزیه «ویژن» حاوی مقادیر ویژه منفی است، شیب واریانس توضیح داده شده تجمعی تندتر و به شکل زنگ است: واریانس توضیح داده شده تجمعی #EOFs E. cumexplvar <- cumsum(E$values/sum(E$values)) S.cumexplvar <- cumsum(S$d/sum(S$d)) Eg.cumexplvar <- cumsum(Eg$values/sum(Eg$values)) Sg.cumexplvar <- cumsum(Sg$d/sum(Sg$d) ) ### واریانس توضیح داده شده تجمعی png را رسم کنید (cumexplvar.png, width=8, height=4, units=in, res=200) par(mfcol=c(1,2)) YLIM <- محدوده (c(E.cumexplvar, S.cumexplvar, Eg.cumexplvar, Sg.cumexplvar)) plot(E.cumexplvar, t=o, col=1 , ylim=YLIM، xlab=EOF, ylab=cum. expl. var., main=non-gappy) نقاط (S.cumexplvar, t=o، pch=2، col=2) abline(h=1، col=8، lty=2) legend(پایین راست، legend=c(Eigen، SVD)، col=c (1,2), pch=c(1,2), lty=1) plot(Eg.cumexplvar, t=o, col=1, ylim=YLIM, xlab=EOF, ylab=cum. توضیح دهید var., main=gappy) points(Sg.cumexplvar, t=o, pch=2, col=2) abline(h=1, col=8, lty=2) legend(پایین راست، legend=c(Eigen، SVD)، col=c(1،2)، pch=c(1،2)، lty=1) dev.off()![تجمیع توضیح داده شد واریانس](http://i.stack.imgur.com/SXNL1.png) مشکل ممکن است این باشد که من باید از مجموع مقادیر ویژه مطلق برای اختصاص واریانس توضیح داده شده آنها استفاده کنم، اما این نیز مرا به تعجب وا می دارد که چگونه تفسیر کنم. واریانس توضیح داده شده مقادیر ویژه منفی برای هر بینشی بسیار سپاسگزار خواهم بود، زیرا این موضوعی نیست که در هیچ مرجعی در مورد EOF به عنوان به کار رفته در gappy برخورد کرده باشم. داده ها
روش صحیح محاسبه واریانس توضیح داده شده هر EOF که از مجموعه داده های گپی محاسبه می شود چیست؟
12438
چگونه می توانم واریانس تخمینی یک مدل خطی را هنگام استفاده از R، یعنی \begin{equation} \widehat{var(y)} بدست بیاورم. \پایان{معادله}
چگونه می توان واریانس متغیر وابسته خود را در رگرسیون خطی با R بدست آورد؟
34833
من این سوال را برای کسی پست می کنم. او مدل را دارد: (1) $Y_{it} = a + b X_{1,it} + c X_{2,it} + d X_{3,it} + e_{it}$i = 1, 2,...,N;\phantom{...} t = 1,2,3,4,5,6,7$ متغیرها تقریباً عادی هستند و ما مشکوک به عدم نقض مفروضات OLS هستیم. تخمین های ضرایب با $i$ همراه نیستند زیرا هدف این است که تخمین های پانل مانند را بدست آوریم. $t$ نشان دهنده یک سال و $i$ نشان دهنده یک شرکت است. به جای استفاده از OLS ادغام شده، او می خواهد داده ها را جمع آوری کند. بنابراین، اگر ماتریس $\bf{Y}$ را با تعداد ردیف $N$ و تعداد ستون $7$ در نظر بگیریم که در آن $Y_{it}$ عنصری در $\bf{Y}$ $\forall i \ است. wedge \forall t$، او می‌خواهد این را طوری روی هم بگذارد که یک ردیف $7*N$، بردار ستون $1$ به‌عنوان متغیر پاسخی باشد که در OLS مقطعی معمولی تخمین زده می‌شود (بعد از البته همین کار را برای ماتریس طراحی انجام دهید). این بد است؟ (به دنبال پاسخ های کلی در مورد نقاط ضعف آن، یا اینکه آیا خوب است).
جمع کردن داده‌های پانل برای استفاده از OLS روی آن
6855
من از cforest و randomForest برای یک مجموعه داده 300 ردیفی و 9 ستونی استفاده کردم و نتایج خوبی (تقریباً بیش از حد برازش - خطای برابر با صفر) برای randomForest و خطاهای پیش‌بینی بزرگ برای طبقه‌بندی‌کننده‌های cforest دریافت کردم. تفاوت اصلی بین این دو روش چیست؟ اعتراف می کنم که برای cforest از هر ترکیب پارامترهای ورودی ممکن استفاده کردم، به عنوان مثال. بهترین مورد، اما همچنان با خطاهای طبقه‌بندی بزرگ، «cforest_control (savesplitstats = TRUE، ntree=100، mtry=8، mincriterion=0، maxdepth=400، maxsurrogate = 1)» بود. برای مجموعه داده های بسیار بزرگ (حدود 10000 سطر و 192 ستون) randomForest و cforest تقریباً خطاهای یکسانی دارند (اولی کمی در همان سطح svms هسته شعاعی بهتر است)، اما برای مورد کوچک ذکر شده برای تعجب من هیچ راهی برای بهبود وجود ندارد. دقت پیش بینی جنگل ...
خطای پیش‌بینی طبقه‌بندی cforest و randomForest
113783
من تازه کار R هستم، من از آن برای پایان نامه خود در مورد الگوریتم های طبقه بندی تجارت استفاده می کنم. من با پکیج «فرکانس بالا» مشکل دارم. من داده های txt خود را در قالب 'xts' با استفاده از کد تبدیل کرده ام: library(highfrequency) library(timeDate) from=1990-11-01; to=1990-11-02; منبع داده = ~/raw_data; datadestination = ~/xts_data; تبدیل(از، به، منبع داده، مقصد داده، معاملات=TRUE، نقل قول=FALSE، ticker=c(ALO)، dir=TRUE، extension=txt,header=FALSE،tradecolnames=NULL، quotecolnames=NULL، قالب =%Y%m%d %H:%M:%S); xts_data = TAQLoad(tickers=ALO, from=1990-11-01, to=1990-11-02,trades=T, quotes=F,datasource=datadestination) head(xts_data) آنها را روی کنسول بارگذاری کنید آنها به این شکل ظاهر می شوند بدون اینکه SYMBOL EX PRICE SIZE COND CORR G127 <NA> 1970-01-01 01:00:01 1970-01-01 01:00:00 1970-01-01 01:00:00 1970-01-01 01:00:01 هیچی! فکر می‌کنم این مشکلی است زیرا قدم بعدی که می‌خواهم انجام دهم پاک کردن داده‌ها است، من با این کد امتحان کردم: data(sample_tdataraw); dim(sample_tdataraw); tdata_afterfirstcleaning = tradesCleanup(tdataraw=sample_tdataraw,exchanges=N); tdata_afterfirstcleaning$report; اما چیزی که من باید data(xts_data)، data(AC_trades) قرار دهم؟ زیرا sample_tdatarw عمومی است، درست است؟ من از داده های بسیار قدیمی استفاده می کنم (144 سهام NYSE TORQ از نوامبر 90 تا ژانویه 91)، آنها تنها داده های TAQ رایگانی هستند که می توانم پیدا کنم، آنها از یک فایل زیپ شده در اینترنت گرفته شده اند، آنها در ابتدا با فرمت ASC بودند. من نتونستم بخونم پس با txt بازش کردم و با این فرمت ذخیره کردم شاید مشکل از فرمت دیتا باشه؟ آنها اینگونه هستند (تاریخ، زمان، تبادل، و غیره) اما من حتی با (تیک، تاریخ، زمان، غیره، و غیره) امتحان کردم با فرکانس بالا این پیام را دریافت می کنم: اشیاء زیر از 'package:base' پوشانده شده اند: as.Date, as.Date.numeric ممنون از راهنمایی!!
پکیج فرکانس بالا R
83535
هنگام مدل‌سازی رویدادهای نادر با رگرسیون لجستیک، نمونه‌برداری بیش از حد یک روش رایج برای کاهش پیچیدگی محاسبات است (یعنی حفظ همه موارد مثبت نادر اما فقط یک نمونه فرعی از موارد منفی). پس از برازش مدل، افزودن یک افست به عبارت رهگیری یک روش متداول برای تصحیح احتمال رویداد برای منعکس کردن نسبت نمونه اصلی است. افست برابر است با log(r1*(1-p1) / (1-r1)*p1)، که در آن r1 نسبت رویدادهای نادر در داده های نمونه برداری شده و p1 نسبت در داده های اصلی است. فرمول معادل با رگرسیون لجستیک چند جمله ای، که در آن 1 یا چند کلاس بیش از حد نمونه برداری می شود، چیست؟
تصحیح بیش نمونه برداری برای رگرسیون لجستیک چند جمله ای
102904
من در مورد Cross Validation برای تخمین خطای پیش‌بینی زیاد خوانده‌ام، مخصوصاً برای انتخاب تعداد مؤلفه‌ها در یک مدل PCA (من SVD/PCA انجام نمی‌دهم، اما بسیار شبیه است)، اما نمی‌توانم ادبیات زیادی در مورد آن پیدا کنم. استفاده از CV برای داده‌های پراکنده واقعاً بسیار بزرگ. آیا کسی می تواند با پیوندهای کاغذی، تجربه شخصی یا سایر تکنیک های تخمین خطای پیش بینی به من کمک کند؟ همچنین، آیا نگرانی خاصی برای انجام CV روی داده های نوع پواسون وجود دارد؟
ادبیاتی برای اعتبارسنجی متقاطع در داده های پراکنده؟
15745
من در حال انجام یک سیستم برای طبقه بندی اسناد هستم. پروژه نیاز به استفاده از خروجی مبتنی بر احتمال دارد. بنابراین یک نمونه احتمال تعلق به هر کلاس را خواهد داشت. در حال حاضر من از رگرسیون لجستیک استفاده می کنم، اما ممکن است تغییر کند. بنابراین من نمی خواهم یک تقریب R^2 انجام دهم. من همچنین نمی خواهم از معیارهای استاندارد برای طبقه بندی مانند F-measure استفاده کنم زیرا با احتمالات کار نمی کند. من نمی دانم معیار سفارشی در این شرایط چیست. هر ایده ای؟
متریک برای طبقه بندی بر اساس احتمال
77845
برای یک CDF که به شدت افزایش نمی یابد، یعنی معکوس آن تعریف نشده است، تابع کمیت $$F^{-1} (u) =\inf \\{x: F(x) \geq u \\} را تعریف کنید، \quad 0<u<1\. $$ جایی که U توزیع یکنواخت $(0,1)$ دارد. ثابت کنید که متغیر تصادفی $F^{-1} (u)$ دارای cdf $F(x)$ است. در صورت افزایش شدید CDF، اثبات بسیار آسان است زیرا معکوس تعریف شده است. $X=F^{-1} (u)$ $$ P\left[X<x \right]= P \left [F^{-1} (U) \leq x \right]= P \چپ را تعریف کنید [U \leq F(x) \right] =F(x) $$ اما چگونه می توانم CDF غیر کاهشی را که معکوس آن توسط تابع کمیت داده می شود، کنار بگذارم؟ من یک مبتدی هستم بنابراین هر گونه کمکی پذیرفته می شود. متشکرم.
تابع معکوس برای CDF غیر کاهشی
6853
با توجه به متغیرهای تصادفی عادی $X_1$ و $X_2$ با ضریب همبستگی $\rho$، چگونه می توانم همبستگی بین متغیرهای تصادفی lognormal زیر $Y_1$ و $Y_2$ را پیدا کنم؟ $Y_1 = a_1 \exp(\mu_1 T + \sqrt{T}X_1)$Y_2 = a_2 \exp(\mu_2 T + \sqrt{T}X_2)$ حالا، اگر $X_1 = \sigma_1 Z_1$ و $ X_2 = \sigma_1 Z_2$، که در آن $Z_1$ و $Z_2$ نرمال های استاندارد هستند، از خطی ویژگی تبدیل، دریافت می کنیم: $Y_1 = a_1 \exp(\mu_1 T + \sqrt{T}\sigma_1 Z_1)$Y_2 = a_2 \exp(\mu_2 T + \sqrt{T}\sigma_2 (\rho Z_1 + \sqrt{1-\rho^2}Z_2)$ حالا، چگونه از اینجا برویم تا همبستگی بین را محاسبه کنیم $Y_1$ و $Y_2$؟
همبستگی متغیرهای تصادفی لگ نرمال
15749
اگر $r$ اندازه اثر برای همبستگی بین $A$ و $B$ باشد، پس $r^2$ مقدار واریانس $B$ است که می تواند به متغیر $A$ نسبت داده شود. 1. آیا گزارش هر دو شاخص در یک گزارش مهم است یا فقط یکی یا دیگری؟ 2. چگونه آنها را به زبان انگلیسی ساده (برای مخاطبان غیرآماری) توضیح می دهید؟
چگونه می توان اندازه افکت ها را به صورت r و r-squared گزارش داد و توضیح غیر فنی آنها چیست؟
97060
من به دنبال نوع خاصی از جهش هستم (پایه DNA A که با C دنبال می شود به پایگاه DNA B می رود) در مجموعه داده ای از 24 نمونه. من متوجه شده ام که این اتفاق 3 بار از 4 باری که یک ژن در مجموعه داده جهش یافته است (1 جهش در هر نمونه) اتفاق افتاده است. من همچنین تعداد دفعاتی که این نوع جهش در تمام ژن‌های ژنوم جهش پیدا می‌کند، دریافت کرده‌ام. آیا استفاده از آزمون دوجمله‌ای در مقایسه 3/4 با احتمال پس‌زمینه که با تعداد تغییرات A>B تعریف می‌شود، زمانی که با C در کل مجموعه داده‌ها دنبال می‌شود/ چهار نمونه که آن تغییر در آنها مشاهده شده است، یک روش معتبر برای استنباط کنید که آیا فراوانی جهش های A>B که من دیده ام بیشتر از حد انتظار است؟ در R کدی که من به دنبال استفاده از آن هستم binom.test (c(3,1),p=(پس‌زمینه)) است که در آن پس‌زمینه = تعداد A>B تغییرات در CX/ تعداد دنباله‌های CX که جهش‌هایی برای آن‌ها داشته‌اند. چهار نمونه با آرزوی بهترین ها، انکور.
آزمایش دو جمله ای برای الگوهای جهش
83532
چگونه می توانم نقشه های همبستگی را به طور مستقل با تعداد خوشه ها از نظر اندازه گیری کیفیت خوشه های جداکننده (غیر همبسته) مقایسه کنم، یعنی معیاری برای به حداکثر رساندن توافق درون خوشه ای و اختلاف بین خوشه ای؟
اعتبار سنجی نتایج خوشه بندی از طریق نقشه های همبستگی
93881
ابزار word2vec از یادگیری عمیق برای محاسبه نمایش برداری کلمات استفاده می کند. آنها اشاره کرده اند که - کلمه بردارها را می توان برای استخراج کلاس های کلمه از مجموعه داده های عظیم نیز استفاده کرد. این با انجام خوشه بندی K-means در بالای بردارهای کلمه به دست می آید. وقتی کد را اجرا می کنم، به نظر می رسد که ابزار بردارهای کلمه را از یک مجموعه داده محاسبه می کند و آن را به 200 کلاس خوشه بندی می کند. اگر بخواهم از روش دیگری برای خوشه بندی استفاده کنم چه؟ چگونه می توانم اندازه گیری کنم که این کلاس ها چقدر خوب هستند یا الگوریتم خوشه بندی چقدر خوب کار می کند؟ همچنین، به نظر من، کلمه نمایش برداری یک فضای برداری بسیار پراکنده خواهد بود. آیا نمی توان خوشه بندی را با PCA یا روشی برای کاهش ابعاد بهبود بخشید؟ باز هم، چگونه می توانم تست کنم که خوشه بندی چقدر خوب عمل می کند؟ اگر بتوانم راهی برای ارزیابی پیدا کنم، می‌توانم کد را تغییر دهم و PCA را اضافه کنم و ببینم آیا بهتر است یا خیر. ویرایش - مقالاتی پیدا کردم که در آنها ذکر شده است که خوشه بندی کلمات را می توان در طبقه بندی اسناد استفاده کرد. ایده این است که از خوشه‌های کلمات به جای کیسه کلمات به عنوان ویژگی‌هایی برای طبقه‌بندی استفاده شود، و این باعث کاهش فضای ویژگی در عین حفظ ویژگی‌های «زائد» می‌شود. من بیشتر به این موضوع نگاه می‌کنم، اما به نظر می‌رسد که می‌توانم از کلمه خوشه‌ها در کار طبقه‌بندی اسناد استفاده کنم و ببینم اگر الگوریتم خوشه‌بندی را تغییر دهم، عملکرد بهتری دارد یا خیر. آیا این کار می کند؟ یک سوال بعدی - چگونه می توانم این رویکرد استفاده از خوشه های کلمات را به عنوان ویژگی اجرا کنم؟
چگونه می توانم عملکرد سیستمی را که خوشه های کلمات تولید می کند ارزیابی کنم؟
83534
هدف از کار بر روی مقیاس لاجیت در نمودارهای وابستگی جزئی (در طبقه بندی باینری) چیست؟ به سادگی می‌توان به صورت زیر عمل کرد: 1. یک جنگل رشد کنید. 2. فرض کنید «x» دارای مقادیر متمایز «v» در مجموعه داده‌های آموزشی است. مجموعه داده های `v` را به صورت زیر بسازید. برای هر یک از مقادیر v از x یک داده جدید se ایجاد می کند که در آن x فقط آن مقدار را می گیرد و همه مقادیر دیگر را دست نخورده می گذارد. 3. برای هر یک از مجموعه داده های `v` که بدین ترتیب به دست آمده است، پاسخ را با استفاده از جنگل تصادفی پیش بینی کنید. 4. برای هر یک از مجموعه‌های داده «v»، میانگین این پیش‌بینی‌ها را نشان دهید. 5. «v» و پیش‌بینی‌های میانگین مربوطه را ترسیم کنید. بسته تصادفی جنگل): مرحله 4. محاسبه میانگین (log (پیش‌بینی‌ها) - 0.5 (log (پیش‌بینی‌ها) + log(1-predictions)))=average(0.5 logit(predictions))` مرحله 5. v و 1/2 logit(predictions) محاسبه شده مربوطه را ترسیم کنید چرا؟
هدف از کار بر روی مقیاس لاجیت در نمودارهای وابستگی جزئی چیست؟
11659
در نقش شغلی‌ام اغلب با مجموعه داده‌های افراد دیگر کار می‌کنم، افراد غیرمتخصص داده‌های بالینی را برای من می‌آورند و من به آنها کمک می‌کنم تا آن‌ها را خلاصه کنند و آزمایش‌های آماری را انجام دهند. مشکلی که من دارم این است که مجموعه داده‌هایی که من آورده‌ام تقریباً همیشه مملو از اشتباهات تایپی، ناسازگاری‌ها و انواع مشکلات دیگر هستند. من علاقه مندم بدانم که آیا افراد دیگر تست های استانداردی دارند که برای بررسی مجموعه داده هایی که وارد می شوند انجام می دهند یا خیر. من قبلاً هیستوگرام های هر متغیر را فقط برای اینکه نگاه کنم ترسیم می کردم اما اکنون متوجه شده ام که خطاهای وحشتناک زیادی وجود دارد که می توانند زنده بمانند. این تست به عنوان مثال، من یک روز دیگر یک مجموعه داده اندازه گیری های مکرر داشتم که در آن، برای برخی افراد، اندازه گیری مکرر در زمان 2 یکسان بود، همانطور که در زمان 1 بود. متعاقباً ثابت شد که این نادرست است، همانطور که انتظار دارید. یکی دیگر از مجموعه داده ها فردی بود که از اختلال بسیار شدید (که با نمره بالا نشان داده می شد) به بی مشکلی تبدیل شد که با 0 در کل نشان داده شد. این غیرممکن است، اگرچه من نتوانستم آن را به طور قطعی ثابت کنم. بنابراین چه آزمایش‌های اساسی را می‌توانم بر روی هر مجموعه داده اجرا کنم تا مطمئن شوم که اشتباه تایپی ندارند و حاوی مقادیر غیرممکن نیستند؟ پیشاپیش متشکرم
تست های بررسی داده های ضروری
93885
من یک مجموعه داده بزرگ دارم، مثلاً 500 خط داده. به‌عنوان راه‌حلی سریع برای رگرسیون مرتبه بالاتر، حدس‌های دقیقی در مورد اینکه چه شرایط مرتبه بالاتری را در معادله رگرسیون خود انتظار دارم، انجام داده‌ام. سپس اینها را به عنوان متغیرهای جداگانه در رگرسیون خطی خود گنجانده ام. برای مثال: x(1) = x(1) x(2) = x(2) x(3) = x(3) x(4) = x(1)^2 x(5) = x(1) *x(2) و غیره. سوال من این است که از آنجایی که می توانم یک آمار t و بنابراین یک P-value برای هر یک از این x(1) - x(5) بدست بیاورم چگونه می توانم اهمیت x(1) را از x(1) قضاوت کنم. ) جزء x(4) و است x(5). یا می توانم آنها را جدا از هم در نظر بگیرم؟
هنگام استفاده از اصطلاحات مرتبه بالاتر در رگرسیون چند متغیره چه تأثیری بر P-value دارد
83530
من به دنبال یک بسته R هستم که بتواند به یک شکل بر روی 2 مجموعه از داده‌ها چندین انتساب انجام دهد. یعنی من می خواهم مجموعه آموزشی را ضرب کنم و سپس مجموعه تست را به همان روشی که مجموعه آموزشی انجام شد، منتسب کنم. من به آملیا و موش و دیگران نگاه کرده ام اما نمی توانم بفهمم که چگونه این فرآیند را انجام دهم. بسته caret دارای انتساب است که در آن هر دو مجموعه آموزشی و آزمایشی به یک شکل درج می شوند. من به دنبال این هستم که این کار را به همان روش با انتساب چندگانه انجام دهم. ممنون از هر راهنمایی
انتساب چندگانه بر روی داده های جدید در R
18247
من یک سری زمانی با قیمت (حدود 800 قیمت) دارم. باید تست کنم که آیا میانگین در تمام سری ها ثابت است یا خیر. فکر می کنم باید سری ها را به گروه تقسیم کنم، اما اگر توزیع نرمال نیست، از چه روشی برای بررسی ثابت بودن میانگین استفاده کنم؟
اگر میانگین ثابت است چه روشی را باید آزمایش کرد؟
95512
من می‌خواهم از تجزیه و تحلیل همبستگی متعارف (CCA) برای شناسایی روابط بین دو مجموعه از متغیرهای X و Y استفاده کنم. CCA باید بین دو نمونه X و Y امتیاز (بالاترین همبستگی) بدهد. من سعی کردم آن را از طریق scikit-learn اجرا کنم. که: X = [[1، 0، 0]، [1، 1، 0]، [1، 1، 1]، [2، 0، 0]] Y = [[0، 0، 1]، [1، 0، 0]، [2، 2، 2]، [3، 5، 4]] cca = CCA(n_components=2) cca.fit(X, Y ) برای x در X: چاپ ---------- چاپ x برای y در Y: چاپ str(y) + : + str(cca.score(x,y)) خروجی اولین عنصر در X: [1, 0, 0] [0, 0, 1] : 0.35461498401 [1, 0, 0] : -0.0502507710089 [2، 2] ، 2] : 0.0 [3، 5، 4]: -22.2417510911 اما نتیجه آنطور که انتظار می رود نیست، بالاترین همبستگی بین [1، 0، 0] در X و Y وجود ندارد. اما امتیاز چیز دیگری را برمی گرداند: ضریب تعیین R^2 از پیش بینی را برمی گرداند. چگونه می توان از طریق CCA بیشترین همبستگی جفت تطبیق (X#n، Y#m) را پیدا کرد؟ آیا از طریق scikit-learn امکان پذیر است یا باید از کتابخانه دیگری استفاده کنم؟ پیشاپیش ممنون
یافتن نمونه های منطبق از طریق تجزیه و تحلیل همبستگی متعارف (CCA)
59913
من از امانت بین کتابخانه ای برای دریافت کتاب فرآیندهای فضایی کلیف و اورد استفاده می کنم، اما ترم به تازگی تمام شده و الان کند است. در صفحه 18 این کتاب، Cliff and Ord نشان می دهد که چگونه واریانس برای آماره شمارش پیوسته محاسبه می شود و همچنین چگونه این واریانس به دست آمده است. من معادله واریانس را دارم، اما باید مشتق را ببینم زیرا باید واریانس تعداد پیوستگی را در حالی که اثرات لبه را در نظر می‌گیرم محاسبه کنم. بنابراین، من باید واریانس را اصلاح کنم، اما تنها در صورتی می توانم این کار را انجام دهم که مراحل اشتقاق آن را به خوبی درک کنم (که انجام آن هنگام نگاه کردن به معادله شکل کاهش یافته دشوار است). زمان بسیار مهم است، آیا کسی مرجع آنلاینی را دیده است که این اشتقاق را نشان دهد و بتواند به من اشاره کند؟ با توجه به شرایط ممکن است مدت زیادی طول بکشد تا این کتاب در دست باشد. همچنین با توجه به هزینه کتاب هایی از این دست، خرید چند صفحه ای از این دست کمی گزاف است. با تشکر من شک دارم که کسی بتواند کمک کند، احتمالاً این سؤال بسیار عجیب است.
نیاز به اشتقاق واریانس تعداد پیوست (آمار همبستگی فضایی)، می دانید کجاست؟
34831
فرض کنید باید بهترین مدل را برای پیش بینی یک متغیر انتخاب کنم اما حجم نمونه من کوچک است. من می‌خواهم داده‌هایم را با استفاده از بوت استرپ دوباره نمونه‌برداری کنم، هر مدل را اجرا کنم و خطای پیش‌بینی آن را با اعتبارسنجی متقاطع در هر نمونه بوت استرپ ارزیابی کنم. در پایان مدلی را با کمترین میانگین خطای پیش‌بینی انتخاب خواهم کرد. آیا این رویه قابل قبولی است؟ اگر بله، هنگام استفاده از این روش، چیزی وجود دارد که باید از آن آگاه باشم؟
آیا اعتبار سنجی متقاطع را روی نمونه های بوت استرپ انجام می دهید؟
71478
من یک نتیجه دوتایی طولی (صحت تشخیص، 0: نادرست، 1: صحیح) را با توجه به 5 شرایط آزمایشی مختلف (1 خط پایه و 4 درمان) اندازه‌گیری می‌کنم. نتیجه همیشه در همان 10 نقطه زمانی اندازه گیری می شود. هر یک از 9 آزمودنی در هر 5 شرایط شرکت کردند. علاوه بر این، برای هر موضوع و شرایط، آزمایش 12 بار تکرار شد. بنابراین من با 9*5*12=540 سری طولی باینری (= آزمایش های 10 امتیازی هر کدام) به پایان می رسم. هدف من ارزیابی تأثیر شرایط تجربی بر نتیجه باینری من است. من باید مدلی بسازم که همبستگی در طول زمان را برای یک کارآزمایی معین و همبستگی بین کارآزمایی ها را برای یک موضوع معین در نظر بگیرد. من یک مدل لجستیک 3 سطحی را در نظر می‌گیرم که در آن 10 اندازه‌گیری باینری متوالی (سطح 1) روی تکرارها (سطح 2) که در موضوعات (سطح 3) خوشه‌بندی می‌شوند، به دست می‌آیند. تنها متغیر کمکی سطح 1 من زمان اندازه‌گیری خواهد بود و به عنوان متغیر کمکی سطح 2، شرایط تجربی را در نظر می‌گیرم. من به خودی خود هیچ متغیر کمکی سطح 3 ندارم، اما همچنان می‌خواهم مدل تنوع بین موضوع را در نظر بگیرد. از آنجایی که راه‌های زیادی برای بررسی آن داده‌ها وجود دارد، خوشحال می‌شوم که برخی از ورودی‌ها را دریافت کنم تا بدانم آیا در مسیر درستی هستم یا خیر و بینشی در مورد اینکه کدام بسته R برای تحلیلی که می‌خواهم انجام دهم مناسب‌تر است یا خیر.
چگونه می توان تحلیل عاملی را برای داده های باینری طولی خوشه ای انجام داد؟
15747
من یک مجموعه داده برای فروش خودروهای دست دوم با 2 متغیر قیمت و کیلومترهای تحت پوشش دارم. اگر این داده ها را در یک صفحه دو بعدی رسم کنیم، نقاط نمودار پراکنده ای را تشکیل می دهند. من می خواهم k نمونه (k - تعداد نمونه های ارائه شده توسط کاربر در زمان اجرا) را از کل داده ها، شاید حدود 5000 رکورد انتخاب کنم. نمونه های انتخاب شده باید اطمینان حاصل کنند که آنها نماینده واقعی 5000 رکورد هستند و نمونه های انتخاب شده باید با سایر داده های اساسی مرتبط باشند. بنابراین وقتی نمونه خاصی را انتخاب می کنیم، باید بتوان داده هایی را که نمونه به عنوان نماینده برای آن عمل می کند، بدست آورد. این ممکن است در بیش از یک سطح انجام شود، همچنین همانطور که در خوشه بندی زیرفضا انجام می شود. نمونه‌گیری تصادفی، نمونه‌گیری با سوگیری چگالی یا مرتب‌سازی بر اساس ویژگی‌ها کمکی نخواهد کرد. زیرا وسیله نقلیه ای که کیلومترهای بیشتری کار می کند ممکن است قیمت بالایی داشته باشد زیرا در شرایط خوبی قرار دارد. و وسیله نقلیه ای با کیلومتر کمتر طی شده ممکن است قیمت پایین تری داشته باشد زیرا ممکن است خودرو مشکلی داشته باشد. بنابراین، اگر روش آماری برای حل این مشکل وجود دارد، لطفاً به من کمک کنید.
یافتن k-نمایندگان از یک مجموعه داده دو بعدی
15741
برای الگوریتم SVM من باید یک بهینه سازی در فرم استاندارد QP انجام دهم. در Matlab من از quadprog با الگوریتم interior-point-convex از جعبه ابزار Optimization استفاده می کنم. یک کتابخانه معادل (ترجیحاً برای استفاده آکادمیک رایگان) برای پایتون چیست؟
معادل چهار پروگ متلب در پایتون؟
34830
من در تلاش هستم تا تأثیر کوددهی و آبیاری بر تنوع زیستی را در یک طرح بلوک‌های کامل تصادفی ارزیابی کنم. من دو درمان دارم، یکی کنترل و دو بلوک. درمان به مدت سه سال ادامه داشت، بنابراین من سه اقدام تکراری دارم. من می خواهم بدانم که آیا تنوع زیستی برای درمان ها تفاوت قابل توجهی دارد یا خیر. شماره 1 در سالهای مجردی و شماره 2 در تمام سه سال. من فکر می کنم که اندازه گیری های مکرر anova باید کار را انجام دهد، با این حال، من در مورد نحوه گنجاندن بلوک ها در محاسبه مشکل دارم. آیا محاسبه میانگین روی بلوک ها قبل از انجام آنووا مناسب است؟ آیا راه دیگری برای این کار وجود دارد؟
اندازه گیری های مکرر مخلوط Anova
33649
در یک تنظیمات ML، که در آن $a_1،...، a_n$ مجموعه ای از نکات آموزشی هستند. یک تابع هسته یک تابع $κ$ است که حاصل ضرب درونی بین دو بردار در فضای ویژگی است: $κ(a_i, a_j ) = ψ(a_i) · ψ(a_j )$ که در آن $ψ$ یک تابع غیر خطی است. . ما می توانیم یک ماتریس $n × n$ $K$ تشکیل دهیم که ماتریس هسته نامیده می شود که ورودی $(i,j)$ مربوط به $κ(a_i , a_j )$ است. در اینجا، $K$ متقارن و مثبت نیمه معین است و می تواند به عنوان $K=XX^T$ که در آن $X=U\lambda^{1/2}$ با توجه به $K=U \lambda U^T$ فاکتور شود تجزیه طیفی ماتریس هسته است. سوال: - اکنون با توجه به دو ماتریس هسته $K_1$ و $K_2$، آیا $K_p=K_1K_2$ یک ماتریس هسته است؟
آیا حاصل ضرب دو ماتریس هسته p.s.d یک ماتریس کرنل ایجاد می کند؟
18249
معمولاً وقتی یک شاخص ایجاد می‌کنم، اساساً فقط میانگین یا میانگین متغیرهای فردی را که شاخص را تشکیل می‌دهند، می‌گیرم. اما من در تعجب هستم که آیا کسی باید / نمی تواند محصول را بگیرد؟ به عنوان مثال، مقیاس دوستی از متغیرهای 1) مفرح بودن با آنها و 2) خوب صحبت کردن با آنها در هنگام ناراحتی تشکیل شده است. (فقط یک مثال فرضی). فرض کنید که متغیر 1 در مقیاس 1-5 و متغیر 2 در مقیاس 1-10 پاسخ داده می شود. بیایید بگوییم که این دو متغیر به خوبی با ضریب پیرسون 0.6 همبستگی دارند. در حال حاضر، با هر دو متغیر مقیاس بندی شده از مثال. 0 به 1، بهترین معیار دوستی چیست؟ میانگین دو متغیر یا محصول؟ اگر از معیار محصول استفاده کنم، دوستی واریانس بسیار بیشتری نسبت به استفاده از معیار میانگین استاندارد دارد. آیا دلیل ریاضی ساده ای وجود دارد که چرا نباید محصول را مصرف کنم؟ یا به فرضیات نظری در مورد «دوستی» بستگی دارد؟
قوانین سرانگشتی برای ایجاد مقیاس های مرکب
18248
این سوال از سردرگمی واقعی من در مورد چگونگی تصمیم گیری در مورد خوب بودن یک مدل لجستیک ناشی می شود. من مدل هایی دارم که از حالت جفت فرد-پروژه دو سال پس از تشکیل آنها به عنوان متغیر وابسته استفاده می کنند. نتیجه موفقیت آمیز است (1) یا خیر (0). من متغیرهای مستقلی دارم که در زمان تشکیل جفت ها اندازه گیری شده اند. هدف من این است که آزمایش کنم آیا متغیری که فرض می‌کردم بر موفقیت جفت‌ها تأثیر می‌گذارد، بر آن موفقیت تأثیر می‌گذارد و سایر تأثیرات بالقوه را کنترل می‌کند. در مدل ها، متغیر مورد علاقه معنادار است. مدل‌ها با استفاده از تابع «glm()» در «R» برآورد شدند. برای ارزیابی کیفیت مدل‌ها، چند کار انجام داده‌ام: «glm()» به‌طور پیش‌فرض «انحراف باقی‌مانده»، «AIC» و «BIC» را به شما می‌دهد. علاوه بر این، من میزان خطای مدل را محاسبه کرده و باقیمانده های binned را رسم کرده ام. * مدل کامل دارای انحراف باقیمانده، AIC و BIC کمتری نسبت به مدل‌های دیگری است که من تخمین زده‌ام (و در مدل کامل تودرتو هستند)، که من را به این فکر می‌کند که این مدل «بهتر» از بقیه است. * نرخ خطای مدل نسبتاً پایین است، IMHO (مانند گلمن و هیل، 2007، صفحات 99): «نرخ خطا <- mean((پیش‌بینی شده>0.5 و y==0) | (پیش‌بینی شده<0.5 و y==1)، تا اینجای کار خوب است، اما زمانی که من باقی مانده را رسم می کنم (دوباره به دنبال گلمن و هیل توصیه)، بخش بزرگی از سطل‌ها خارج از 95% CI قرار می‌گیرند: ![Binned Residuals](https://lh5.googleusercontent.com/-DhQ3a9hTVoE/Tr1H-Csj_JI/AAAAAAAAC0/eYXlUlkc6ic/s550/ jpeg) این طرح باعث می شود فکر کنم چیزی وجود دارد در مورد مدل کاملاً اشتباه است تغییر شکل، بدون اینکه واقعاً نمودار باقیمانده‌ها را بهبود ببخشد. این جفت ها «نسبتا» مستقل از یکدیگر هستند به این معنا که همه آنها در یک دوره زمانی کوتاه تشکیل شده اند (اما نه به طور دقیق، همه به طور همزمان) و تعداد زیادی پروژه (13k) و افراد زیادی (19k) وجود دارد. ) ، بنابراین نسبت مناسبی از پروژه ها فقط توسط یک فرد ملحق می شود (حدود 20000 جفت وجود دارد).
ارزیابی مدل های رگرسیون لجستیک
7429
اگر مقدار مورد انتظار در تست خوب بودن تناسب Chi-square صفر باشد، چه کاری باید انجام دهم؟ من می دانم که آزمون فیشر وجود دارد، اما من یک میز بسیار بزرگ دارم!
محاسبه مجذور کای برای جداول بزرگ با تعدادی سلول مورد انتظار برابر با صفر
6852
من یک پوشه با صد فایل جدا شده با کاما (CSV) دارم که نام فایل برابر با بورس سهام شرکت و به دنبال آن نماد آن است که با علامت _ مشخص شده است، به عنوان مثال: NASDAQ_MSFT.csv هر فایل حاوی اطلاعات تاریخی سهام روزانه است، به عنوان مثال. یک فایل csv به این صورت است: تاریخ، باز، زیاد، کم، بسته، حجم 29-دسامبر-00،21.97،22.91،21.31،21.69،93999000 28-دسامبر-00،22.56،23.14،2025. 27-Dec-00,23.06,23.41,22.50,23.22,66881000 ... 5-Jan-00,55.56,58.19,54.69,56.91,62712600 4-Jan-00,56.78,58.56,55.94,56.31,52866600 3-Jan-00,58.69,59.31,56.00,58.34,51680600 اکنون، می خواهم این اطلاعات را تجزیه و تحلیل کنم (اگر نام شرکت ها را به عنوان ستونی تجزیه و تحلیل کنید) فیلد به جای یک لیست جدید از فیلدها). اما چند مسئله وجود دارد: 1. هر شرکت فایل خود را با نماد و مبادله به عنوان نام فایل 2 دارد. برخی از شرکت ها در تاریخ های متفاوتی نسبت به سایرین شروع به کار می کنند. به عنوان مثال برخی ممکن است محدوده 30 روز داشته باشند در حالی که برخی دیگر 30 ماه دارند (هر چند هر مرحله هنوز 1 روز تفاوت دارد). من از SPSS به عنوان ابزار تجزیه و تحلیل خود استفاده می کنم. سوال من این است که چگونه می توانم این فایل ها را وارد کنم تا عملیات تحلیلی منطقی روی آنها انجام دهم؟ مثلاً من آرزو دارم شیب متوسط ​​قیمت باز همه شرکت ها را با هم ببینم و غیره.
استراتژی برای تجزیه و تحلیل داده های تاریخچه سهام از چندین فایل با SPSS
33645
سوال اینجاست: پس از اجرای دو رگرسیون OLS جداگانه، یکی برای هر گروه (مرد در مقابل زن)، ضریب b1 برای یک IV خاص در رگرسیون مرد و ضریب b2 برای همان IV در رگرسیون مونث به دست می‌آید. مناسب ترین راه برای آزمایش این فرضیه چیست: Ho: b1>b2؟ تا جایی که من می دانم Wald یک تست پرکاربرد است، اما فقط بررسی می کند که آیا تفاوت اثر با صفر متفاوت است (Ho: b1-b2=0) با تشکر!
مناسب ترین راه برای آزمایش اهمیت تفاوت اثر در دو گروه چیست؟
33643
من یک IV ($A$) و دو DV ($B$,$C$) دارم. $A$ یک متغیر باینری با دستکاری تجربی است. هر آزمودنی دارای دو امتیاز در $B$ و دو امتیاز در $C$ است که مربوط به دستکاری های تجربی $A$ و ~$A$ می باشد. من می خواهم بگویم که $A$ باعث افزایش $B$ می شود و افزایش $B$ منجر به افزایش $C$ می شود. $A$ باید منجر به افزایش $C$ شود، اگر و فقط اگر منجر به افزایش $B$ شود (میانجیگری کامل). آزمون‌های t زوجی تأیید می‌کنند که $B$ برای $A$ در مقابل ~$A$ بالاتر است، و $C$ برای $A$ در مقابل ~$A$ بالاتر است. $\Delta B$ با $\Delta C$ ارتباط زیادی دارد. من با این فرض که $B$ و $C$ لزوماً به دلیل تفاوت‌های فردی در خط پایه $B$ همبستگی ندارند، بر امتیازهای تفاوت تکیه می‌کنم. چگونه می توانم برای میانجیگری در اینجا تست کنم؟ از آنجایی که $A$ دودویی است، هیچ $\Delta A$ برای اجرای تحلیل رگرسیون وجود ندارد. من مطمئن نیستم که کجا بروم. هر کمکی قدردانی می شود!
تجزیه و تحلیل میانجیگری با استفاده از امتیازهای باینری IV و تفاوت
71476
من یک مدل پویا ساده بیز دارم که بر روی چند متغیر زمانی آموزش دیده است. خروجی مدل، پیش‌بینی «P(رویداد) @ t+1» است که در هر «t» تخمین زده می‌شود. نمودار «P(رویداد)» در مقابل «زمان» مطابق شکل زیر است. در این شکل، خط _سیاه_ نشان دهنده P(رویداد) است که توسط مدل من پیش بینی شده است. خط قرمز افقی احتمال وقوع رویداد را نشان می دهد. و خطوط عمودی_نقطه دار نشان دهنده (پنج) رخداد در سری زمانی است. در حالت ایده‌آل، مایلم قبل از مشاهده هر رویداد، اوج «P(رویداد)» پیش‌بینی‌شده را ببینم و زمانی که هیچ چشم‌اندازی برای یک رویداد وجود ندارد نزدیک به صفر باقی بماند. ![P\(رویداد\) در مقابل نمودار زمان](http://i.stack.imgur.com/ldhhT.png) من می‌خواهم بتوانم عملکرد مدل من (خط سیاه) را در پیش‌بینی رویداد گزارش کنم. وقوع یک کاندید واضح برای مقایسه مدل من با احتمال قبلی رویداد (خط قرمز) است که -اگر به عنوان پیش بینی استفاده شود- مقدار احتمال یکسانی را برای همه t پیش بینی می کند. **بهترین روش رسمی** برای رسیدن به این مقایسه چیست؟ ** P.S: ** من در حال حاضر از امتیاز دهی (شهودی) طبق کد زیر استفاده می کنم، که در آن نمره کلی کمتر نشان دهنده عملکرد بهتر پیش بینی است. من متوجه شدم که شکست دادن قبلی با این امتیاز در واقع بسیار دشوار است: # دریافت پیش‌بینی عملکرد مدل_نمره = 0; prior_score=0; برای t در محدوده(len(timeSeries)): if(timeSeries[t]== رویداد): # رویداد اتفاق افتاده cur_model_score = 1- prob_prediction[t]; cur_prior_score = 1 - pre other: # no event cur_model_score = prob_prediction[t] - 0; cur_prior_score = قبل - 0; model_score = model_score + abs(cur_model_score); پیشین_نمره = امتیاز_پیشین + abs(cur_prior_score);
ارزیابی عملکرد پیش‌بینی سری زمانی
109875
مجموعه ای شناخته شده از جفت های $(y_i, \sigma_i)$ وجود دارد به طوری که $y_i = x_i + \sigma_i N_i$ $N_i \sim \mathbf{N}(0,1) $ برای همه $i$ $x_i \sim \rho$ برای همه $i$ که در آن $y$ مقدار مشاهده شده است، $x$ مقدار واقعی است. چگونه توزیع $\rho$ را بازیابی کنیم؟ لزوما طبیعی نیست.
بازیابی توزیع اصلی از مشاهدات پر سر و صدا
91124
انحراف > تعمیم ایده استفاده از مجموع مربعات باقیمانده در حداقل مربعات معمولی به مواردی است که برازش مدل با حداکثر > احتمال به دست می‌آید. همانطور که من درک می کنم، انحراف آماری است که بر اساس آن می توانیم خوب یا بهتر بودن یک مدل را قضاوت کنیم. با این حال، IMHO، ما قبلاً RSS (برای رگرسیون) و میزان خطای طبقه‌بندی (برای طبقه‌بندی) داشته‌ایم، و با این 2 آمار، فکر می‌کنم ما توانسته‌ایم کیفیت مدل را قضاوت کنیم. پس چرا باید انحراف را محاسبه کنم؟
چرا به انحراف نیاز داریم
71475
من به مطالعه‌ای فکر می‌کنم که در آن شرکت‌کنندگان به‌طور تصادفی به انجام وظیفه A و سپس B یا برعکس اختصاص داده می‌شوند. من فکر کردم اگر انجام وظیفه A واقعا تمرین خوبی برای کار B باشد مشکلی وجود خواهد داشت، اما انجام وظیفه B تمرین خوبی برای کار A نیست. مانند اثر تمرینی کار B بر روی کار A باشد. یا چیز دیگری هست که باید نگرانش باشم؟
چه زمانی دستور مشارکت در کار متوازن به تأثیرات تمرین می‌پردازد؟
59914
من در مورد بیانیه آماری که بر اساس سناریوی زیر می‌گویم سردرگم هستم: **سناریو:** عضویت در یک سازمان حرفه‌ای فقط برای 10 درصد دانش‌آموزان برتر یک منطقه آزاد است. 400 عضو وجود دارد که از (مثلاً) 45 مدرسه می آیند. **بیانیه**: این سازمان نماینده 10 درصد دانش آموزان برتر منطقه است. سردرگمی من این است که مدرسه A ممکن است دانش‌آموزان با کیفیت پایین‌تری داشته باشد که 10 درصد برتر از مدرسه B باشد. * مدرسه A دارای دانش آموزانی است که امتیازات 41، 42، 43، 44 و 45 از 50 را کسب کرده اند (10%) * مدرسه B دارای دانش آموزانی است که امتیازات 46، 47، 48، 49 و 50 از 50 را کسب کرده اند (10%). در این صورت، آیا می‌توانند ۱۰ درصد برتر دانش‌آموزان باشند (مخصوصاً زمانی که مدرسه B دانش‌آموزانی داشته باشد که امتیازهای ۴۱، ۴۲، ۴۳، 44 و 45)؟ من فقط از 2 مدرسه برای سادگی استفاده می کنم.
سردرگمی در یک بیانیه آماری
109819
من نمونه‌هایی را از فرآیند زیر تکرار کرده‌ام: بیشتر نمونه‌ها فقط حاوی نقاطی هستند که به طور تصادفی در یک صفحه دو بعدی توزیع شده‌اند. با این حال، گاهی اوقات، نمونه نه تنها شامل نقاطی است که به طور تصادفی توزیع شده اند، بلکه دارای نقاطی است که تقریباً روی یک خط مرتب می شوند. تقریباً می گویم زیرا نقاطی که مشاهده می کنم ممکن است همه دقیقاً روی خط نباشند اما به طور تصادفی تا حدودی جابجا شده باشند. در اینجا کد R برای مثال کوچک اسباب بازی آمده است تا منظور من را نشان دهد: line_active <- TRUE line_n <- 50 noise_n <- 100 perturbation.sd <- 0.01 # noise background noise_x <- runif(noise_n) noise_y <- runif(noise_n) # مختصات خط شروع <- list(x=0.2,y=0.1) پایان <- list(x=0.8,y=0.9) if(line_active) {line_pos <- runif(line_n) line_x <- start$x+line_pos*(end$x - start$x) line_y <- start$y+line_pos*( end$y - start$y) line_x_perturbed <- line_x+rnorm(length(line_x),0,perturbation.sd) line_y_perturbed <- line_y+rnorm(length(line_y),0,perturbation.sd) } else { line_x_perturbed <- c() line_y_perturbed <- c() } points <- data.frame(x=c(noise_x,line_x_perturbed) y=c(noise_y,line_y_perturbed)) # نمودار! plot(points$x,points$y) points(line_x_perturbed,line_y_perturbed,col='red') سوالات من این است: 1. چگونه می توانم تشخیص دهم که آیا در هر نمونه ای که به آن نگاه می کنم آیا خطی وجود دارد یا خیر؟ 2. چگونه می توانم شیب و رهگیری خط را در صورت وجود آن تشخیص دهم؟ 3. اگر نویز از توزیع شناخته شده ای نباشد اما باید تخمین زده شود، این مشکل چقدر پیچیده تر می شود؟
تشخیص خط در پراکندگی
107740
برنامه در اینجا ضریب همبستگی $r$ را بر حسب توانایی $X$ برای پیش بینی $Y$ برای مقادیر شدید $X$ تفسیر می کند. به عنوان مثال، اگر $r = 0.8$، پس $p(Y < 0 | X < -2)$ چیست؟
اگر $X، Y$ به طور مشترک نرمال استاندارد با همبستگی $r$، و $a، b$ ثابت هستند، $p(Y <b | X <a)$ چیست؟
33648
من یک نتیجه آزمایش NaN را با استفاده از بسته R adehabitatHS و تابع compana دریافت می کنم. تست Compana در دسترس بودن زیستگاه را با استفاده از زیستگاه توسط حیوانات مقایسه می کند. این آزمون تجزیه و تحلیل ترکیبی را انجام می دهد (Aebischer et al. 1993)، که یک مقدار برای لامبدای Wilk و یک مقدار p به دست می دهد. من آزمایش را روی داده های تجربی برای مارهای زنگی (16 حیوان، 8 دسته زیستگاه) انجام می دهم. به دلایلی تست compana برمی‌گرداند: lambda = NaN، p-value = 1.0. من داده های خود را برای علل استاندارد NaN ها بررسی کرده ام و هیچ مشکلی مانند مقادیر از دست رفته (NAs)، نسبت های منفی یا مجموع ردیف های > 100 درصد نمی بینم. علاوه بر این، این خطا زمانی رخ می دهد که من از مجموعه داده کامل (16 ردیف، 8 ستون) استفاده می کنم، اما نه زمانی که از یک زیرمجموعه استفاده می کنم (یک ستون را از دست داده است). به نظر می رسد مهم نیست که کدام ستون (ستون ها) حذف شوند، تا زمانی که فقط 7 یا کمتر گنجانده شود. جزئیات اطلاعات من در زیر آمده است. هر گونه کمک و یا پیشنهاد بسیار قدردانی خواهد شد. پلتفرم: OSX 10.7.4 (شیر) نسخه R: R 2.15.1 رابط کاربری گرافیکی 1.52 ساخت پلنگ 64 بیتی (6188) R CODE: نسبت ها برای زیستگاه مورد استفاده (ماتریس): استفاده شده.m Atr Cre DW Dist Gra Mar Mes Opn 1 2.76 19.31 4.14 17.24 0.00 28.28 0.00 0.00 2 15.12 1.16 3.49 5.81 2.33 32.56 25.58 3.49 3 57.35 13.24 1.47 0.00 6.62 0.00 8.09 8.09 4.09 8.09 4.09 0.00 3.92 0.00 29.41 18.63 5 9.52 17.01 23.13 0.00 0.00 37.41 3.40 0.00 6 2.54 67.01 0.00 0.01 0.00 0.00 0.00 10.45 15.67 5.22 5.97 0.00 0.00 33.58 10.45 8 6.34 0.00 0.00 4.23 0.00 0.00 0.00 21.83 9 0.34 0.00 0.00 0.00 0.00 21.83 9 0.646 0.00 18. 8.61 2.65 0.66 10 20.75 0.00 0.00 0.00 0.00 0.00 0.00 49.06 11 20.14 18.06 12.50 8.33 0.00 0.00 0.00 0.00 0.00 49.06 11 20.14 18.06 12.50 8.33 0.00 5.520 0.00 0.00 58.04 0.00 0.00 13.99 0.00 13 44.23 4.81 0.00 0.00 0.00 0.00 28.85 19.23 14 13.01 14 13.01 2.61 2.401. 6.09 25.22 15 35.96 3.51 0.00 2.63 0.00 1.75 25.44 0.88 16 0.00 0.00 0.00 35.14 0.00 7.21 0.00 0.00 Credit. DW Dist Gra Mar Mes Opn 1 1.11 39.18 15.50 0.29 0.00 30.18 4.15 3.43 2 18.96 1.02 0.87 7.40 4.36 37.80 6.15 37.80 6.16 37.80 6.17 30.18 10. 0.00 12.36 0.00 9.97 3.43 4 20.52 5.44 2.01 0.00 0.08 0.00 10.99 44.22 5 11.16 43.55 10.34 0.08 0.01 0.01 6 25.24 9.88 2.77 2.44 4.95 12.90 11.44 2.19 7 5.47 21.13 6.67 0.57 0.00 0.10 30.73 9.59 8 6.040.230. 0.00 0.00 5.72 9 0.85 1.97 0.09 33.52 0.00 5.58 1.73 0.84 10 18.97 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 19.16 3.53 0.00 1.28 21.65 4.13 12 6.67 3.89 0.31 13.63 0.00 0.00 20.56 0.00 13 21.40 2.38 2.01.40 2.30 2.60 2.30 46.96 14 42.62 9.36 1.49 3.89 0.43 3.61 20.79 5.80 15 33.32 12.90 4.17 4.09 0.15 3.96 12.350 4.50 4.50 1.36 0.00 0.59 0.00 9.71 بارگیری کتابخانه adehabitatHS (adehabitatHS) تست compana را روی مجموعه داده کامل (همه 8 ستون) fulldata.comp <- compana(used.m, avail.m) بررسی نتیجه fulldata.comp$test Lambda NaN 1 اکنون compana را روی داده های جزئی (ستون ها) اجرا می کند 1-7) partdata.comp <- compana(used.m[, 1:7], avail.m[, 1:7]) نتیجه را بررسی کنید partdata.comp$test Lambda P 0.3319731 0.6280000
R: آزمون adehabitatHS compana - دریافت NaN برای لامبدای Wilk
47420
داشتم در مورد رگرسیون می خواندم. من یکی از نحوه توزیع واریانس هر $x_i$ را می‌دانم که باید عادی باشد، اما چرا این به $s_b$ مربوط نمی‌شود؟ به نظر می رسد که باید. داشتم مقاله هیئت کالج AP را در مورد استنتاج می خواندم. > دو فرض دیگر این است که خطاها به طور معمول توزیع شده اند و > آنها انحراف معیار یکسانی برای همه مقادیر x دارند. اگرچه اصلاً واضح نیست، اما این به این معنا نیست که بگوییم باقیمانده ها به طور عادی > توزیع شده اند و همه دارای انحراف معیار یکسانی هستند. تفاوت این است که خطاها انحرافات بین متغیرهای پاسخ و پدیده خطی واقعی زیربنایی (نامرئی) هستند، در حالی که > باقیمانده ها انحرافات بین متغیرهای پاسخ و خط رگرسیون حداقل مربعات هستند. ، که فقط تخمینی از خط > واقعی است. من می‌دانم (فکر می‌کنم) که فقط به این دلیل که خطای رگرسیون طبیعی است به این معنی نیست که واریانس $x_i$ طبیعی است زیرا نمونه می‌تواند به طور تصادفی از نرمال بودن پیروی کند. (نمی دانم که از نظر آماری درست است یا خیر)، اما اگر همه $x_i$ نرمال و واریانس برابر است، پس چرا آن واریانس با واریانسی که برای $\beta$ من بدست می آید برابر نیست. در اینجا چند پاسخ عالی دریافت کردم که بسیار واضح است و امیدوارم بتوانم پاسخ دیگری برای رفع سردرگمی خود دریافت کنم. هسته سوال من این است ** دقیقاً چه رابطه ای بین واریانس باقیمانده ها و $x_i$ وجود دارد و آیا ارتباطی با _error, variance_ $\beta$**![گراف](http:/ /i.stack.imgur.com/i1Qzy.jpg)
سوال در مورد رابطه بین واریانس باقیمانده و واریانس نقاط داده
59916
مقادیر پاسخ در مجموعه داده من (100 نقطه داده) همه اعداد صحیح مثبت هستند (نباید مقادیر منفی یا صفر باشند). من دو مدل آماری را توسعه داده‌ام: رگرسیون خطی (LR) و K نزدیکترین همسایه (KNN، 2 همسایه) با استفاده از مجموعه داده‌ها در R. روش‌های R که من استفاده کرده‌ام lm() و knn.reg() هستند. برای انتخاب بین این دو مدل، من آزمایش اعتبار متقاطع 10 برابری انجام دادم و ابتدا میانگین مربعات ریشه (RMSE) را محاسبه کردم. اگرچه مدل LR مقادیر پیش‌بینی منفی برای چندین نقطه داده آزمایشی می‌دهد، RMSE آن در مقایسه با KNN پایین است. وقتی مقادیر پیش‌بینی KNN را می‌بینم، مثبت هستند و برای من منطقی است که از KNN روی LR استفاده کنم اگرچه RMSE آن بالاتر است. علاوه بر این، وقتی از RMSE نرمال شده (http://en.wikipedia.org/wiki/Root-mean-square_deviation) استفاده کردم، KNN در مقایسه با LR NRMSE پایینی دارد. علاوه بر این، من می خواهم دقت پیش بینی مدل ها را به عنوان (100 - NRMSE) تعریف کنم زیرا به نظر می رسد می توانیم NRMSE را به عنوان درصد خطا در نظر بگیریم. لطفاً به من اطلاع دهید که روش فوق که دنبال می کنم خوب است یا خیر. متشکرم.
ریشه عادی شده میانگین مربع خطا (NRMSE) در مقابل ریشه میانگین مربع خطا (RMSE)
109817
در این مقاله، من یک رویکرد کاملاً جالب در مورد اندازه‌گیری سازگاری در داده‌های نظرسنجی پیدا کردم (به شرطی که هر خط=مورد یک شرکت‌کننده را نشان دهد). با این حال، نمی توانم دقیقاً بفهمم که منظور از همبستگی درون فردی چیست. کسی میتونه کمک کنه لطفا؟ > شاخص های سازگاری را می توان با بررسی تفاوت در دو مورد > که از نظر محتوایی بسیار مشابه هستند، تشکیل داد. گلدبرگ، 2000 (به نقل از جانسون و همکاران، > 2005) روشی به نام متضادهای روان‌سنجی را پیشنهاد کرد که در آن همبستگی‌ها در بین تمام موارد نظرسنجی پس از گذر محاسبه می‌شوند و 30 جفت آیتم با بیشترین همبستگی منفی شناسایی می‌شوند. شاخص متضادهای روان‌سنجی > سپس **به عنوان همبستگی درون فردی در بین این سی > جفت مورد** محاسبه می‌شود. تفسیر من به شرح زیر است: اول، من مشخص می کنم که کدام متغیرها در یک نمونه دارای همبستگی شدید (منفی) هستند (بر اساس داده های همه شرکت کنندگان). دوم، برای هر شرکت‌کننده منفرد (n): مقادیر خاص این جفت‌ها را از آن شرکت‌کننده منفرد می‌گیرم، آن‌ها را در یک جدول جداگانه یادداشت می‌کنم (دو به دو) و سپس یک همبستگی را روی این دو ستون محاسبه می‌کنم. این بدان معنی است که من n جدول جدید و n همبستگی جدید ایجاد می کنم. درسته یا دارم اشتباه میکنم؟ خیلی ممنون برای کمک.
همبستگی خط داخلی (ثبات)
7721
با سلام. من باید تجزیه و تحلیل داده های بیولوژیکی با ابعاد بالا را انجام دهم، جایی که داده های من به راحتی می توانند در صدها هزار بعد وجود داشته باشند. من به دنبال پیاده سازی رگرسیون لجستیک چند جمله ای هستم که به خوبی به داده هایی با این اندازه مقیاس شود. در حالت ایده آل، باید به من اجازه دهد که رگرسیون های Ridge و Lasso را نیز انجام دهم. از کدام نرم افزار باید استفاده کنم؟ با تشکر اندی
پیاده سازی رگرسیون چند جمله ای مقیاس پذیر
76124
یافتن تابع چگالی احتمال شرطی (pdf) $Z$ با توجه به $X=x$ که در آن $Z=X+Y$ و $X$ و $Y$ متغیرهای تصادفی عادی مستقل هستند. به طور ساده $Z$ عادی است. اما $Z$ و $X$ مستقل نیستند. وقتی میانگین ها و واریانس های $X$ و $Y$ داده می شوند، چگونه می توانم پی دی اف مشروط $Z$ را با توجه به $X=x$ دریافت کنم؟ من سعی کردم با استفاده از تعریف pdf متغیر تصادفی معمولی محاسبه کنم، اما خیلی درهم بود. هیچ اشاره ای برای آن وجود دارد؟
یافتن pdf شرطی $Z$ با توجه به $X=x$ که در آن $Z=X+Y$
31648
من به این کتاب اشاره می کردم که در آن آمده است که اگر گره های $i$ را با فاصله مساوی برای $i=1,...,n$ فرض کنیم. اولین مرتبه پیاده روی تصادفی با استفاده از افزایش مستقل $$ \Delta{x_i} \sim N(0,k^{-1}), \ \ \ \ \ \ i=1,...,n-1 $$ ساخته شده است چگالی $${\bf{x}}=(x_1,x_2...x_n)'$$ از افزایش $n-1$ به عنوان $$ مشتق شده است \pi({\bf{x}}|k) = k^{(n-1)/2} \cdot \exp \left(-k/2 \cdot \sum_{i=1}^{n-1 }\Delta{(x_i)^2}\right) $$ من متوجه نشدم که چگالی $x$ چگونه به صورت افزایش نشان داده شده است. منظورم این است که چگونه می‌توانیم از افزایش‌ها برای نشان دادن چگالی استفاده کنیم که چگونه با هم مرتبط هستند یا می‌توان در چگالی x$ استفاده کرد.
سردرگمی در مورد مدل پیاده روی تصادفی
76123
من یک سری زمانی انتظار برای 10 روز هفته (2 هفته) با فواصل 10 دقیقه دارم. من برای تفسیر این موضوع مشکل دارم؟ آیا این ثابت است؟ من همچنین از تست ریشه واحد فیلیپس پرون استفاده کردم و مقادیر زیر را دریافت کردم. هر کمکی قابل تقدیر است. Dickey-Fuller = -8.4726، پارامتر تاخیر کوتاهی = 5، p-value = 0.01 ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mTuNi.png)
آیا این یک سری زمانی ثابت است؟
7720
من با R، رگرسیون لجستیک مرتب شده و «polr» تازه کار هستم. بخش «نمونه‌ها» در پایین صفحه راهنما برای polr (که با یک مدل رگرسیون لجستیک یا پروبیت متناسب با یک پاسخ عامل مرتب شده است) گزینه‌ها را نشان می‌دهد (contrasts = c(contr.treatment, contr.poly)) خانه .plr <- polr(Sat ~ Infl + Type + Cont، وزن = فرکانس، داده = مسکن) pr <- profile(house.plr) plot(pr) pairs(pr) * pr حاوی چه اطلاعاتی است؟ صفحه راهنما در نمایه عمومی است و هیچ راهنمایی برای polr ارائه نمی دهد. * Plot(pr) چه چیزی را نشان می دهد؟ من شش نمودار را می بینم. هر یک دارای یک محور X است که عددی است، اگرچه برچسب یک متغیر شاخص است (به نظر می رسد یک متغیر ورودی است که نشانگر یک مقدار ترتیبی است). سپس محور Y tau است که کاملاً غیرقابل توضیح است. * جفت (pr) چه چیزی را نشان می دهد؟ به نظر می رسد یک نمودار برای هر جفت متغیر ورودی باشد، اما باز هم هیچ توضیحی در مورد محورهای X یا Y نمی بینم. * چگونه می توان فهمید که آیا مدل تناسب خوبی داشته است؟ `summary(house.plr)` انحراف باقیمانده 3479.149 و AIC (معیار اطلاعات Akaike؟) 3495.149 را نشان می دهد. آیا این خوب است؟ در صورتی که این معیارها فقط به عنوان معیارهای نسبی مفید هستند (یعنی برای مقایسه با تناسب مدل دیگر)، یک معیار مطلق خوب چیست؟ آیا انحراف باقیمانده تقریباً مجذور کای توزیع شده است؟ آیا می توان از % به درستی پیش بینی شده در داده های اصلی یا برخی از اعتبارسنجی متقابل استفاده کرد؟ ساده ترین راه برای انجام آن چیست؟ * چگونه می توان «anova» را در این مدل اعمال و تفسیر کرد؟ اسناد می گویند روش هایی برای توابع استاندارد برازش مدل، از جمله پیش بینی، خلاصه، vcov، anova وجود دارد. با این حال، اجرای «anova(house.plr)» به این نتیجه می‌رسد که «anova برای یک شی «polr» اجرا نمی‌شود.» * چگونه می‌توان مقادیر t را برای هر ضریب تفسیر کرد؟ برخلاف برخی از مدل‌ها، هیچ مقدار P در اینجا وجود ندارد. من متوجه شدم که این سؤالات زیادی است، اما منطقی است که به جای 7 سؤال مختلف، در یک بسته بپرسم (چگونه از این چیز استفاده کنم؟ هر گونه اطلاعات قدردانی می شود.
چگونه خروجی تابع polr R (رگرسیون لجستیک مرتب شده) را درک کنیم؟
59910
ویکی‌پدیا می‌گوید > روش‌هایی که بر **آزمایش همه‌جانبه** قبل از اقدام به **مقایسه‌های چندگانه** متکی هستند. معمولاً این روش‌ها قبل از انجام مقایسه‌های چندگانه نیاز به یک آزمون ANOVA/Tukey's > محدوده دارند. این روش ها دارای > کنترل ضعیف خطای نوع I هستند. همچنین > آزمون F در ANOVA نمونه ای از آزمون همه گیر است که اهمیت > کلی مدل را آزمایش می کند. آزمون F معنی‌دار به این معنی است که در میان میانگین‌های > مورد آزمایش، حداقل دو مورد از میانگین‌ها به طور معنی‌داری متفاوت هستند، اما > این نتیجه دقیقاً مشخص نمی‌کند که چه میانگین‌هایی با > دیگری متفاوت است. در واقع، تفاوت میانگین‌های آزمایش با آماره F درجه دوم > منطقی (F=MSB/MSW) ایجاد شده است. به منظور تعیین اینکه کدام میانگین با میانگین دیگر متفاوت است یا کدام تضاد میانگین ها به طور قابل توجهی متفاوت است، > آزمون های تعقیبی (آزمون های مقایسه چندگانه) یا آزمون های برنامه ریزی شده باید > پس از به دست آوردن یک آزمون omnibus F قابل توجه انجام شوند. ممکن است استفاده از اصلاح ساده بونفرونی یا سایر اصلاحات مناسب در نظر گرفته شود. بنابراین از یک آزمون همه‌گیر برای آزمایش اهمیت کلی استفاده می‌شود، در حالی که مقایسه چندگانه برای یافتن تفاوت‌ها معنادار است. اما اگر به درستی متوجه شده باشم، هدف اصلی از مقایسه چندگانه، آزمایش اهمیت کلی است و همچنین می‌تواند متوجه شود که کدام تفاوت‌ها قابل توجه هستند. به عبارت دیگر، مقایسه چندگانه می تواند کاری را انجام دهد که یک omnibus می تواند انجام دهد. پس چرا ما به یک تست omnibus نیاز داریم؟ با تشکر و احترام!
رابطه بین تست همه‌گیر و مقایسه چندگانه؟
109814
من با شما تماس می گیرم زیرا مورد من خاص است و چیز زیادی در مورد GLMM نمی دانم. من داده‌های شبکه‌های اجتماعی (متریک‌های شبکه) یک گونه نخستی‌های غیرانسانی را دارم. این داده ها طبیعتاً مستقل نیستند (رفتار بین A و B می تواند بر رفتار C تأثیر بگذارد). من همچنین دارای ویژگی های فردی (جنسیت، سن، خویشاوندی و رتبه سلسله مراتبی) هستم. من می خواهم تأثیر ویژگی های فردی را بر معیارهای شبکه آزمایش کنم. برای این منظور باید عدم استقلال داده ها را در نظر بگیرم (من می توانم فیلتر کردن پیوند یا آزمایش جایگشت را انجام دهم اما در حال تلاش برای چیز جدیدی هستم). من به انجام یک مدل مختلط خطی عمومی (GLMM) فکر می کردم که شامل افراد به عنوان عوامل تصادفی می شود. من می بینم که این تجزیه و تحلیل می تواند عدم استقلال داده ها را در نظر بگیرد، اما من این آزمون را فقط برای معیارهای چندگانه روی افراد یکسان می بینم (که نوع دیگری از عدم استقلال است) و نه برای یک معیار روی افراد. آیا فکر می کنید حتی اگر این همان نوع داده های غیر استقلالی نباشد GLMM می تواند نوع داده های من را حساب کند؟ با احترام
GLMM برای داده های SNA و غیر استقلالی
112763
من مقاله کمند گروهی انتخاب مدل و تخمین در رگرسیون با متغیرهای گروه بندی شده را مطالعه کرده ام. http://www.stat.washington.edu/courses/stat527/s13/readings/yuanlin07.pdf در صفحه 53 مقاله فوق، من نمی دانم چگونه Eqn 2.3 را بدست بیاورم و Eqn را استخراج کنم. 2.4` از `Eqn. 2.2`: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/id5CW.jpg) موارد زیر مشتق من است، از «Eqn. 2.2`: $$ -X_j^TY+X_j^TX_j\beta_j+\sum_{i\neq j}X_j^TX_i\beta_i + \frac{\lambda \beta_j \sqrt{p_j}}{\|\beta_j\|} =0 $$ سپس، $$ \left (X_j^TX_j+\frac{\lambda) داریم \sqrt{p_j}}{\|\beta_j\|} \right)\beta_j=X_j^T(Y-\sum_{i\neq j}X_i^T\beta_i)=S_j $$ بنابراین، $$ \beta_j ={\left( X_j^TX_j+\frac{\lambda\sqrt{p_j}}{\|\beta_j\|} \right)}^{-1}S_j $$ نتیجه بالا کمی تفاوت با `Eqn دارد. 2.4` در مقاله. لطفاً بفرمایید اشتقاق من چه اشکالی دارد؟ علاوه بر این، در سند دیگری http://statweb.stanford.edu/~tibs/ftp/sparse-grlasso.pdf، نتیجه زیر نیز متفاوت است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/T604B.jpg) **به روز شد:** بله! مشکل اول حل شد. $$ S_j=X_j^T(Y-X\beta_{-j})=X_j^Tr_j $$ سپس، $$ \|\beta_j\|=\|S_j\|{\left( 1+\frac{\lambda\ sqrt{p_j}}{\|\beta_j\|} \right)}^{-1} $$ سپس، می‌توانیم $$ دریافت کنیم \|\beta_j\|=\|S_j\|-\lambda\sqrt{p_j} $$ سپس دوباره در فرمول بالا جایگزین کنید، سپس $$ \beta_j={\left( 1-\frac{\ را دریافت می کنیم lambda\sqrt{p_j}}{\|S_j\|} \right)}S_j $$ اما، $+$ در فرمول بالا کجاست؟
درباره اشتقاق گروه Lasso
59912
بنابراین من اغلب خودآزمایی های کمی انجام می دهم که در آن چیزها را کور و تصادفی می کنم. اینها را می‌توان به‌عنوان آزمون‌های _t_ معمولی شما فرمول‌بندی کرد، اما گاهی اوقات معیارهای اندازه‌گیری شده دارای خطوط پایه گسترده‌ای هستند که به نظر می‌رسد می‌توان از آنها برای پاسخ‌های دقیق‌تر استفاده کرد. مجموعه ای از مطالعه بر روی طرح های _n_-of-1 و تک موضوعی نشان می دهد که افراد برای تجزیه و تحلیل چنین تنظیماتی به سمت مدل های ترکیبی/سلسله مراتبی/چندسطحی حرکت کرده اند (مثلا نلسون 2012 مدل سازی خطی سلسله مراتبی در مقابل تجزیه و تحلیل بصری داده های طرح موضوع واحد یا تجمیع نتایج تک موردی با استفاده از مدل های خطی سلسله مراتبی). همانطور که من درک می کنم، ایده این است که داده های آزمودنی را به آزمایش در مقایسه با پایه تقسیم کنیم و آنها را به عنوان گروه ها در نظر بگیریم. من سعی می‌کنم بفهمم که این با آزمایش اخیر چقدر معقول است، بنابراین امیدوارم کسی بتواند به این نکته اشاره کند که آیا در استفاده از «lmer» در اینجا اشتباه می‌کنم. * * * ما با یک مدل خطی منظم شروع می کنیم که داده های تجربی را بررسی می کند (تغییر پاسخ در مقابل متغیرهای مداخله عددی) و فاز خط پایه گسترده قبل، حین و بعد از آزمایش را نادیده می گیرد: R> آزمایش <- read.csv(http://dl.dropboxusercontent.com/u/85192141/data.csv) R> summary(lm(Response ~ Intervention, data=experiment)) ... باقیمانده ها: Min 1Q Median 3Q Max -1.0156 -0.8889 -0.0156 0.1111 1.1111 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 3.0156 0.0889 33.9 <2e-16 مداخله -0.1267 0.1262 -1.0 0.32 خطای استاندارد باقیمانده: 0.711 در 125 درجه آزادی: 145 فقدان چندگانه R) 0.008، R-squared تعدیل شده: 6.73e-05 F-آمار: 1.01 در 1 و 125 DF، p-value: 0.317 R> confint(lm(پاسخ ~ مداخله، داده = آزمایش)) 2.5 % 939.5 % (در 97.5 %) 3.192 مداخله -0.3765 0.123 ضریب برآورد شده از نظر آماری معنی دار نیست: -0.38-0.12. اما قطعاً به سمت منفی بودن متمایل است. بنابراین این مورد محافظه کارانه است، که در آن ما خط پایه را به طور کامل نادیده می گیریم. حالت خوشبینانه چیست؟ خوب، به نظر من حالت خوش بینانه زمانی است که کل خط پایه را در نظر بگیریم و فرض کنیم که دقیقاً مشابه مداخله 'off'/0 در آزمایش است، در این صورت ما یک CI باریک تر به دست می آوریم (زیرا برآورد ما از intercept خطای استاندارد خود را نصف کرده است: R> experience$Intervention[is.na(experiment$Intervention)] <- 0 R> summary(lm(Response ~ Intervention, data=experiment)) ... باقیمانده ها: Min 1Q Median 3Q Max -1.9924 -0.8889 0.0076 1.0076 1.1111 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 2.9924 0.0375 79.88 <2e-16 مداخله -0.1036 0.1012 -1.02 0.31 خطای استاندارد باقیمانده: 0.746 در 458 درجه آزادی: Ad20 چندگانه R. R-squared: 0.000101 F-آمار: 1.05 در 1 و 458 DF، p-value: 0.307 R> confint(lm(پاسخ ~ مداخله، داده=آزمایش)) 2.5 % 97.5 % (Intervention) 2.305608 - 2.307 0.09538 به -0.30-0.10 کاهش یافته است. هنوز از نظر آماری معنادار نیست، اما نزدیکتر است. به نظر من یک مدل سلسله مراتبی باید یک واسط CI بین موارد بدبینانه و خوش بینانه ایجاد کند: این مدل مقداری قدرت را از دست می دهد زیرا قبل از انجام هر ترکیبی تخمین می زند که دو فاز چقدر متفاوت هستند. این مدل چند سطحی من است که بین فازهای پایه و آزمایشی تقسیم شده است: آزمایش کتابخانه (lme4) <- read.csv(http://dl.dropboxusercontent.com/u/85192141/data.csv) آزمایش$Phase <- ifelse (is.na(experiment$Intervention), TRUE, FALSE) مدل <- lmer(Response ~ مداخله + (1|فاز), داده=آزمایش); خلاصه (مدل) ... AIC BIC logLik انحراف REMLdev 286 297 -139 273 278 اثرات تصادفی: نام گروه ها Variance Std.Dev. Phase (Intercept) 0.0106 0.103 Residual 0.5057 0.711 تعداد obs: 127، گروه ها: Phase، 1 اثرات ثابت: Estimate Std. مقدار خطای t (Intercept) 3.016 0.136 22.2 مداخله -0.127 0.126 -1.0 همبستگی اثرات ثابت: (Intr) Interventin -0.461 m <- mcmcsamp((lmer(پاسخ ~ مداخله)، (1=Pervention) n = 100000) HPDinterval(m, prob=0.95)$ fixef low upper (Intercept) -45.3107 56.6558 مداخله -0.3742 0.1191 CI تخمینی دقیقاً در وسط ظاهر می شود، همانطور که انتظار می رود: 1. بدبینانه -0.38 0.12 - 0.12 -10.7 hier -0.30 0.10 بنابراین، سوال اساسی من این است: آیا این یک رویکرد عاقلانه است؟ این پاسخ هایی است که به طور شهودی درست به نظر می رسند، اما ممکن است این فقط یک تصادف باشد. * * * اتفاقاً یک مایل
مدل ترکیبی/سلسله مراتبی/چندسطحی برای طراحی n-از-1/تک موضوع: شامل داده های پایه؟
31645
من با اجرای یک CFA چند گروهی در Mplus برای پایان نامه خود بر اساس مدل 4 عاملی مقیاس افسردگی همیلتون (21 مورد) با مشکل مواجه هستم. مجموعه داده من شامل 4 متغیر سانسور شده سمت چپ است که فکر می کنم ممکن است مشکل باشد. پس از اینکه CFA اصلی به طور معمول خروجی نداشت، من آنالیز را دوباره اجرا کردم که تعداد تکرارها را افزایش داد، همانطور که توسط Mplus توصیه شده است، اما در Miterations = 2000 خروجی بیان می کند. احتمال منطقی در آخرین تکرار EM کاهش یافته است. مدل، مقادیر شروع و/یا تعداد نقاط ادغام خود را تغییر دهید. تخمین مدل به دلیل یک خطا در محاسبات به طور معمول خاتمه نمی یابد. مدل و/یا مقادیر شروع خود را تغییر دهید. من نمی دانم در آینده چه کاری می توانم انجام دهم، هر توصیه ای با سپاس پذیرفته می شود.
مشکل با CFA چند گروهی با متغیرهای سانسور شده با استفاده از Mplus
76127
من داده هایی از Google Trends و مرکز کنترل بیماری دارم که می خواهم آنها را با هم مقایسه کنم. من از تجزیه و تحلیل رگرسیون از اکسل برای یافتن منحنی بهترین تناسب استفاده کردم. داده های اصلی به این شکل است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xEX7p.jpg) مدل سازی کامل آن با استفاده از اکسل غیرممکن بود، بنابراین آن را به دو قسمت تقسیم کردم و منحنی بهترین تناسب را برای آن دو پیدا کرد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8m2v4.jpg) هدف این است که این داده ها را با نمودار دیگری که با Google Trends ساخته ام مقایسه کنید (همان فرآیند، تجزیه آن و رگرسیون) و ارزیابی کنید که استفاده از پرسش‌های موتورهای جستجو برای پیش‌بینی فصل آنفولانزا تا چه حد دقیق است. اگر بخواهم نمودار مشتق داده های اصلی را پیدا کنم تا به نرخ های تغییر نگاه کنم، آیا می توانم مشتقات دو تابع کوچکتر را بگیرم و آنها را با هم کامپایل کنم؟
برای مقایسه نمودارها به کمک نیاز دارید
100432
معمولاً از روش مونت کارلو برای محاسبه ادغام استفاده می شود. برای مثال، اجازه دهید $g(x,\theta)$ یک تابع پیوسته در مورد $x$ و $\theta$ باشد، $f(x \mid \theta)$ یک pdf پیوسته با پارامتر $\theta$ است. اگر انتگرال $E[g(x,\theta)]=\int g(x,\theta)f(x\mid \theta)dx$ شکل بسته نداشته باشد. سپس می توانیم از تقریب مونت کارلو $E[g(x,\theta)] \approx \frac{1}{m}\sum_{l=1}^m g(X_i,\theta)$ استفاده کنیم که در آن $X_1,\ نقطه، X_m$ یک نمونه تصادفی از توزیع $f(x \mid \theta)$ است. طبق قانون اعداد بزرگ، $\frac{1}{m}\sum_{l=1}^m g(X_i,\theta)$ به احتمال $E[g(x,\theta)]$ برای هر $ همگرا می شود \theta \در \Theta$. آیا قضیه ای در مورد همگرایی یکنواخت تقریب مونت کارلو داریم؟ منظورم این است که تحت چه شرایطی، $\sup\limits_{\theta\in\Theta} \left\| داریم. \frac1n\sum_{i=1}^n g(X_i،\theta) - \operatorname{E}[g(X,\theta)] \right\| \xrightarrow \ 0$ a.s. یا به احتمال زیاد فضای پارامتر $\Theta$ را فشرده فرض کنید
همگرایی یکنواخت تقریب مونت کارلو
112766
من یک نمودار در D3 ایجاد می کنم که حالت را از یک مجموعه داده بزرگ (1mil +) نشان می دهد. و آن را با توجه به انحراف استاندارد مجموعه داده رنگ می کند. اما مسئله این است که من باید محدوده (رنگ قرمز به رنگ سبز) را به یک دامنه ثابت نگاشت کنم. آیا معیاری وجود دارد که به نمایش اطلاعات در مورد انحراف داده ها در مقیاس ثابت (0-1؛ -1-to1؛ 0-100 و غیره) کمک کند؟
نمایش انحراف داده ها در مقیاس ثابت
47425
ویکی‌پدیا می‌گوید > در آمار، آزمون کولموگروف-اسمیرنوف (آزمون K-S) یک آزمون ناپارامتریک برای برابری توزیع‌های احتمال پیوسته و یک بعدی است که می‌تواند برای مقایسه یک نمونه با یک مرجع > توزیع احتمال (یک) استفاده شود. -آزمون K-S نمونه)، یا برای مقایسه دو نمونه > (آزمون K-S دو نمونه). آماره کولموگروف-اسمیرنوف یک > فاصله بین تابع توزیع تجربی نمونه و > تابع توزیع تجمعی توزیع مرجع، یا بین > > توابع توزیع تجربی دو نمونه را کمیت می‌کند. توزیع صفر > این آمار با این فرضیه صفر محاسبه می شود که نمونه ها > از یک توزیع (در حالت دو نمونه ای) گرفته شده اند یا > نمونه از توزیع مرجع (در مورد یک نمونه) گرفته شده است. . در > هر مورد، توزیع های در نظر گرفته شده تحت فرض صفر > توزیع های پیوسته هستند اما در غیر این صورت نامحدود هستند. آیا نسخه‌ای از KS وجود دارد که بتوان آن را برای داده‌های تابلویی به کار برد، یعنی جایی که مشخص است مشاهدات مستقل نیستند - همان افراد در طول زمان اندازه‌گیری می‌شوند. PS. من به دنبال مقایسه توزیع دو گروه از افراد (بقا و مرگ) هستم، اگرچه چندین اندازه گیری برای افراد فردی در طول زمان دارم... با تشکر ویرایش: صفحه مفید بالقوه http://www.itl.nist.gov/div898 /handbook/eda/section3/eda35g.htm
آیا تست KS برای داده های تابلویی وجود دارد؟
47423
من می‌خواهم داده‌های پیوسته b/w (سن) و داده‌های دوگانه (عوارض: بله/خیر) را با تصحیح برای یک متغیر ترتیبی (ضایعات عصب حین عمل) مطالعه کنم. من یک پایگاه داده از 427 بیمار دارم که 50 نفر از آنها دچار عارضه بعد از عمل (تغییر حس) شده اند. هدف از این پژوهش، تحلیل تأثیر «سن در حین عمل» بر احتمال عارضه «احساس تغییر یافته» پس از عمل است. ضایعات عصب حین عمل نمره گذاری شد (0/1/2/3/4/5) و یک عامل وارداتی موثر بر احساس تغییر یافته است. پس این باید در تحلیل لحاظ شود. امیدوارم کسی بتواند در این تحلیل در SPSS به من کمک کند.
داده های پیوسته را با داده های دوگانه، با تصحیح برای یک متغیر ترتیبی مرتبط می کنیم؟
31641
من می خواهم با استفاده از شبکه های عصبی یک پیش بینی آب و هوا ایجاد کنم. تمام نمونه هایی که دیدم فقط از مقادیر [-1,1] به عنوان ورودی استفاده می کردند. آیا می توان از مقادیر بزرگتر (مثل فشار هوا، درجه کلسیم چند روز اخیر و...) به عنوان ورودی استفاده کرد و یک عدد را به عنوان خروجی گرفت؟ متشکرم
آیا ورودی های یک شبکه عصبی باید در [-1،1] باشد؟
59918
من باید یک نمودار مانند تصویر زیر ایجاد کنم. ایده این است که من سه گروه داده با 5 تکرار در دو گروه اول و 3 تکرار در گروه آخر دارم. من باید برای هر گروه یک منحنی رگرسیون بدست بیاورم و مانند تصویر زیر آن را به میانگین و SD برای هر گروه پیوند دهم. من تصمیم گرفتم تجزیه و تحلیل را در R انجام دهم. من می‌توانم مدل‌ها را دریافت کنم، اما درباره نحوه پیوند دادن آن به میانگین و SD در هر گروه، اطلاعی ندارم. اگر هر یک از شما آموزش، مثال یا کدی دارد که می تواند کمک کند، واقعاً متشکریم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zFicp.jpg) پیشاپیش متشکرم.
رگرسیون غیر خطی، میانگین نمودار، SE در R
47426
من در مورد این که از کدام بسته R برای ایجاد یک مدل کلاس/مخلوط پنهان با متغیرهای شاخص طبقه بندی و پیوسته استفاده کنم، سوال دارم. من هنوز نمونه خوبی از این با استفاده از R پیدا نکرده ام، حتی اگر بسته های تجزیه و تحلیل کلاس های مخفی و مخلوط زیادی در R وجود دارد. بسته نرم افزاری Mplus این قابلیت را دارد و در وب سایت UCLA نمونه ای از نحوه ایجاد چنین مواردی وجود دارد. یک مدل با Mplus (http://www.ats.ucla.edu/stat/mplus/seminars/introMplus_part2/lca.htm/ مثال دوم). تنها راهی که من توانستم این مثال را در R تکرار کنم استفاده از بسته depmixS4 است. با استفاده از کد زیر: library(depmixS4) lca<-read.table(http://www.ats.ucla.edu/stat/mplus/seminars/introMplus_part2/lca.dat, sep=,) names( lca)<-c( hm، he، voc، nocol، ach9، ach10، ach11، ach12) mod <- mix(list(hm~1,he~1,voc~1,nocol~1,ach9~1,ach10~1,ach11~1,ach12~1, data=lca, nstates=2, family=list (چند جمله ای ()،چند جمله ای()،چند جمله ای()،چند جمله ای()،گاوسی()،گاوسی()،گاوسی()،گاوسی())، respstart=runif(32)) fmod<-fit(mod) summary(fmod) به نظر می رسد این کد کار تکرار مثال را با برخی تفاوت های جزئی بین خروجی در نوع depmixS4 و Mplus انجام می دهد. **اول**، آیا این کد برای بازتولید مثال Mplus صحیح است؟ **دوم**، آیا کسی بسته دیگری دارد که هنگام ایجاد این نوع مدل در R توصیه کند؟
مدل کلاس نهفته با هر دو شاخص پیوسته و طبقه بندی شده در R
76125
فرض کنید من یک سری زمانی با نقاط داده $2\times 10^8$ دارم. یک نوع رویداد نادر در هر نقطه زمانی با احتمال برابر و بسیار کم $1\ برابر 10^{-8}$ اتفاق می‌افتد. آیا کسی می تواند به من بگوید چگونه می توانم این کار را انجام دهم؟
نحوه شبیه سازی وقایع نادر با احتمال بسیار کم
115232
فرض کنید $Y$ یک متغیر تصادفی مخلوط باشد که $\text{Normal}(\mu_1, \sigma_1^2)$ با احتمال $p$ و $\text{Normal}(\mu_2, \sigma_2^2)$ توزیع می‌شود. با احتمال $1-p$. آیا می توانم $p$ و همچنین $\mu_1، \mu_2، \sigma_1^2، \sigma_2^2$ را از یک نمونه تصادفی تخمین بزنم؟ چگونه؟
برنولی و متغیر تصادفی نرمال
115236
من یک طبقه‌بندی‌کننده مبتنی بر قانون دارم و مطمئناً می‌دانم که می‌توانم داده‌هایم را در تعدادی N کلاس طبقه‌بندی کنم. و همچنین یک فرهنگ لغت کوچک دارم که در آن قوانین من (در طول فرآیند طبقه بندی) برای هر مشاهده تکرار شده بررسی می شود. آیا این یک طبقه بندی نیمه نظارتی است؟ اگر فرهنگ لغت به صورت دستی و از یک فرآیند تنظیم شده ساخته شده باشد، آیا این فرهنگ لغت یک مجموعه آموزشی محسوب می شود؟
آیا این یک مورد طبقه بندی نیمه نظارتی است؟
34169
من یک مبتدی در آمار هستم و می خواهم یکی از الزامات آزمون کای اسکوئر را درک کنم. این است که متغیر تصادفی اندازه گیری شده باید از توزیع نرمال پیروی کند. سوال من این است که اگر متغیرهای تصادفی که اندازه می‌گیرم از توزیع نرمال پیروی نکنند، از چه مدل‌های دیگری باید استفاده کنم؟ این مشابه نحوه استفاده از آزمون Student-t به جای Standard Normal برای یک نمونه کوچک است، آیا معادلی برای آزمون chi-square برای یک نمونه کوچک وجود دارد؟
آزمون مجذور کای بر روی توزیع های غیر نرمال
34165
اجازه دهید $\Lambda \sim \mathcal W_D(\nu، \Psi)$، یعنی بر اساس توزیع بعدی Wishart $D \times D$ با میانگین $\nu \Psi$ و درجه آزادی $\nu$ توزیع شود. من یک عبارت برای $E(\log |\Lambda|)$ می خواهم که در آن $|\Lambda|$ تعیین کننده است. من کمی برای پاسخ به این در گوگل جستجو کردم و اطلاعات متناقضی به دست آوردم. این مقاله به صراحت بیان می کند که $$ E(\log|\Lambda|) = D \log 2 + \log |\Psi| + \sum_{i = 1} ^ D \psi\left(\frac{\nu - i + 1} 2\right) $$ که در آن $\psi(\cdot)$ نشان دهنده تابع دوگام $\frac d {dx است. } \log \Gamma(x)$; تا آنجا که من می توانم بگویم این مقاله منبعی برای این واقعیت ارائه نمی دهد. این همچنین فرمولی است که در صفحه ویکی‌پدیا برای Wishart استفاده می‌شود، که متن تشخیص الگوی Bishop را سایت می‌کند. از سوی دیگر، گوگل این بحث را با یک مقاله پیوندی نشان داد که نشان می‌دهد $$ \nu^D \frac{|\Lambda|}{|\Psi|} \sim \chi^2_\nu \chi^2_{ \nu - 1} \cdots\chi^2_{\nu - D + 1}. \qquad (\ خنجر) $$ آنها با بیان اینکه $$ E(\log | \Lambda|) = D \log 2 - D \log \nu + \log |\Psi| + \sum_{i = 1} ^ D \psi\left(\frac{\nu - i + 1} 2\right) $$ که با استفاده از این واقعیت مشتق شده است که $E(\log \chi^2_\nu) = \log(2) + \psi(\nu /2)$. من این محاسبه را با شروع از $(\dagger)$ بررسی کردم و به نظر خوب است، اما ما یک $-D\log\nu$ اضافی داریم.
مقدار مورد انتظار log-determinant یک ماتریس Wishart
78328
من نسبتاً تازه وارد این سایت هستم. من در حال حاضر مشغول انجام برخی کارهای تحقیقاتی هستم که شامل استفاده از مدل اثر مختلط غیرخطی بر روی داده های طولی (R) می شود. من در حال حاضر از کتاب Pinheiro و Bates، _Mixed-Effects Models در S و S-PLUS_، با بسته nlme استفاده می کنم. منظور من از غیر خطی، توابع غیر خطی متغیرهای مستقل با پاسخ های نرمال است. من هنوز با آمار مبتدی هستم و درک تئوریک موضوع در کتاب فوق را بسیار دلهره آور می دانم. می‌خواستم بدانم که آیا منابع دیگری (از جمله کتاب‌ها) «آسان‌تر برای هضم» وجود دارد تا سعی کنم با این نظریه کنار بیایم. من می دانم که چگونه از آن در R استفاده کنم، اما هنوز متوجه می شوم که برخی از مفاهیم اساسی و شکاف در دانش من وجود دارد.
تئوری پشت مدل‌های اثر مختلط غیرخطی
34163
من می دانم چگونه شباهت ژنتیکی بین ژنوتیپ ها را محاسبه کنم، اما نمی دانم چگونه شباهت ژنتیکی بین گروه ها را محاسبه کنم. از تجزیه و تحلیل خوشه ای، هفت گروه را پیدا کردم. اکنون باید شباهت ژنتیکی این گروه ها را محاسبه کنم. چگونه باید این کار را انجام دهم؟
چگونه می توانم شباهت های ژنتیکی بین گروه ها را محاسبه کنم؟
72565
متغیرهای وابسته (ترتیبی): رتبه اعتباری 1970 (cr70) و رتبه اعتباری 1980 (cr80). این چیزی است که می خواهم انجام دهم: رگرسیون cr80-cr70 = vars مستقل. چگونه می توان این کار را انجام داد و چگونه می توانید آن را تفسیر کنید!؟ اگر متغیر وابسته پیوسته باشد ساده خواهد بود. اما آیا می توانید یک var جدید از تفاوت دو متغیر ترتیبی بسازید و آیا آن var وابسته است؟
تغییر در متغیر دسته
32120
فرض کنید فهرستی از اعداد مربوطه (به عنوان مثال حداکثر درآمد برای سال های مختلف) داریم. اگر ارقام پیشرو 1 دلار برای همه سال‌ها باشد، آیا می‌توانیم بگوییم که به طور پیش پاافتاده حداکثر درآمد مطابق قانون بنفورد است؟
اگر رایج ترین رقم اول یک باشد، آیا قانون بنفورد راضی است؟
115239
چگونه می توانم (1) دو مدل خطی را بین سال ها مقایسه کنم و (2) آیا می توانم 2 مدل را با متغیرهای پاسخ متفاوت مقایسه کنم؟ داده های من دارای 4 متغیر است: y_meas، x، year، y_calc. y_meas یک متغیر پاسخ اندازه گیری شده در آزمایشگاه است و y_calc تخمینی از همان متغیر با استفاده از یک محاسبه استاندارد است. x یک دوز، مشابه (ish) بین دو سال است: #create database set.seed(100) dat <- inside(data.frame(x = rep(1:10, times=2)), { year < - rep(1990:1991، هر = 10) y_meas <- 0.5 * x* (1:20) + rnorm(20) y_calc <- 0.3 * x* (1:20) + rnorm(20) سال <- factor(year) # تبدیل به ضریب } ) من دو سوال مرتبط دارم: (1) آیا تفاوتی بین شیب/برق مدل ها برای سال 1990 و 1991؟ m.1990<-lm(y_meas~x, data=subset(dat, year==1990)) m.1991<-lm(y_meas~x, data=subset(dat, year==1991)) anova(m. 1990) anova (m.1991) # هر دو مدل قابل توجه هستند من نمی توانم اجرا کنم 'anova(m.1990,m.1991)' زیرا مدل ها تو در تو نیستند؟ آیا باید از سال به عنوان یک متغیر ساختگی استفاده کنم و ANCOVA را اجرا کنم؟ این چه شکلی است (تقریباً)؟ (2) با فرض اینکه بتوانم 1990 و 1991 را ترکیب کنم، آیا می توانم شیب/برق 'y_meas~x' و 'y_calc~x' را مقایسه کنم؟ بله، دو متغیر پاسخ متفاوت، اما در یک مقیاس هستند.
مقایسه مدل های رگرسیون خطی (متغیر پاسخ یکسان و متفاوت)
108143
من در حال حاضر با مدل تغییر نهفته ای که سعی می کنم در R با بسته lavaan محقق کنم، دست و پنجه نرم می کنم. R نمی تواند تمام خطاهای استاندارد را تخمین بزند، که باعث می شود باور کنم که مدل به طور کامل شناسایی نشده است. من با مدل حالت پنهان مشکل شناسایی نداشتم، بنابراین حدس می‌زنم بخش مهم ممکن است به دلیل پارامتر تغییر باشد. Latent_change_prepost <- ' # تعریف متغیر نهفته مرتبه اول T1_43_1 =~ 1*A43_1_1 + 1*A43_1_2 + 1*A43_1_3 + 1*A43_1_4 + 1*A43_1_5 T1_43_2 +2*2* 1*A43_2_3 + 1*A43_2_4 + 1*A43_2_5 T1_43_7 =~ 1*A43_7_1 + 1*A43_7_2 + 1*A43_7_3 + 1*A43_7_4 + 1*A43_43_3 + 1*A43_7_3 + 1*A43_7_1 1*A43_3_2 + 1*A43_3_3 + 1*A43_3_4 T1_43_4 =~ 1*A43_4_1 + 1*A43_4_2 + 1*A43_4_3 + 1*A43_4_4 T1_43_5 = 1__2 + 1*1 1*A43_5_3 # تعریف متغیر نهفته مرتبه دوم T1 =~ 1*T1_43_1 + 1*T1_43_2 + 1*T1_43_7 T2 =~ 1*T1_43_3 + 1*T1_43_4 + 1*T1_43_5 # رگرسیون بدون رگرسیون، تغییر 1*T نیاز به معرفی تغییر) T2 ~ 1*T1 # (هم)واریانس تغییر ~~ T1 T2 ~~ 0*T2 # رهگیری T1 ~ NA*1 T2 ~ NA*1 تغییر ~ NA*1 T1_43_1 ~ NA*1 T1_43_2 ~ NA* 1 T1_43_7 ~ NA*1 T1_43_3 ~ NA*1 T1_43_5 ~ NA*1 ' fit2_latent_change <- sem( model = Latent_change_prepost , data = diss_prepost_w_interv_kovar , missing = fiml , meanstructure = TRUE ) من تخمینی از اکثر پارامترها دریافت می کنم، اما هیچ std. خطاها همچنین اگر مدل را کمی جایگزین کنم ممکن است std بگیرم. خطاها اما از نظر نجومی زیاد هستند. هر گونه ایده و کمک بسیار قدردانی خواهد شد!
R، بسته لاوان، مدل تغییر پنهان: تعریف پارامتر تغییر؟
72561
من یک مدل معادلات ساختاری (SEM) را در Amos 18 اجرا می کنم و می خواهم تأثیر وضعیت تاهل را بر چندین متغیر پنهان آزمایش کنم. وضعیت تاهل اسمی است، بنابراین من سه متغیر ساختگی ایجاد کردم: 1. Mar_Single: 1 = بله، 0 = نه 2. Mar_Married: 1 = بله، 0 = نه 3. Mar_Other: 1 = بله، 0 = no Mar_Single و Mar_Married را وارد کردم. در SEM، بنابراین ضرایب آنها در برابر گروه حذف شده (مرجع) تفسیر می شود، Mar_Other. شاخص‌های اصلاحی نشان می‌دهند که اگر من Mar_Single و Mar_Married را در نظر بگیرم، تناسب می‌تواند به طور قابل‌توجهی بهبود یابد. آیا باید این کار را انجام دهم؟ به نوعی، این منطقی است زیرا آنها کاملاً همبسته هستند: اگر Mar_Single = 1، Mar_Married همیشه = 0 خواهد بود. لری
دو متغیر ساختگی را در SEM کوواری کنید؟
100439
در مورد آزمون رتبه امضا شده ویلکاکسون سوال دارم. من 2 پروفایل سرعت مختلف (سرعت از زمان 0 تا 100 ثانیه شروع می شود) از یک شرکت کننده دارم که 2 درمان مختلف برایش داده شد. می‌خواهم بپرسم آیا می‌توانم از تست رتبه‌بندی علامت‌دار wilcoxon برای مقایسه اینکه آیا هر دو پروفایل سرعت با یکدیگر متفاوت هستند استفاده کنم؟ من کمی گیج هستم که چگونه فرضیه صفر این آزمون (تفاوت میانه) را با پرونده خود تطبیق دهم. همچنین فکر می‌کنم هنگامی که از تست رتبه‌بندی علامت‌دار wilcoxon برای داده‌های سری زمانی خود استفاده می‌کنم، ممکن است معنای توالی داده‌ها را از نمایه سرعت خود از دست بدهم. هر گونه کمک از هر کسی قدردانی خواهد شد. ممنون آیلا
آیا می توانم برای داده های سری زمانی از آزمون رتبه امضا شده ویلکاکسون استفاده کنم؟
91822
من فکر می کنم این یک سوال ساده است، اما من نتایج بسیار متفاوتی گرفتم و اکنون مطمئن نیستم که از کدام تست استفاده کنم. من یک گروه و 2 نمره متفاوت دارم (نمرات بالاتر به معنای ارتباط مثبت یا منفی بالاتر است). می خواهم بدانم که آیا بین این متغیرها تفاوت هایی وجود دارد یا خیر. من باید در نظر بگیرم که این نمرات رفتار مشابهی دارند، بنابراین انتظار دارم تفاوت داشته باشند (یک امتیاز می تواند بالاتر از دیگری باشد). من با t-test امتحان کردم، اما وقتی بیش از 1 گروه داشته باشم استفاده می شوند، درست است؟ با تشکر
آزمون تی با یک گروه